KR102645254B1 - Deblurring network learning method, motion blur reduction method and robot - Google Patents

Deblurring network learning method, motion blur reduction method and robot Download PDF

Info

Publication number
KR102645254B1
KR102645254B1 KR1020210174997A KR20210174997A KR102645254B1 KR 102645254 B1 KR102645254 B1 KR 102645254B1 KR 1020210174997 A KR1020210174997 A KR 1020210174997A KR 20210174997 A KR20210174997 A KR 20210174997A KR 102645254 B1 KR102645254 B1 KR 102645254B1
Authority
KR
South Korea
Prior art keywords
image
deblurring
motion blur
robot
inertial
Prior art date
Application number
KR1020210174997A
Other languages
Korean (ko)
Other versions
KR20230086865A (en
Inventor
최송우
송누리
유영우
유한상
이윤수
Original Assignee
현대오토에버 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대오토에버 주식회사 filed Critical 현대오토에버 주식회사
Priority to KR1020210174997A priority Critical patent/KR102645254B1/en
Publication of KR20230086865A publication Critical patent/KR20230086865A/en
Application granted granted Critical
Publication of KR102645254B1 publication Critical patent/KR102645254B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/683Vibration or motion blur correction performed by a processor, e.g. controlling the readout of an image memory
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/1607Calculation of inertia, jacobian matrixes and inverses
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1692Calibration of manipulator
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0014Image feed-back for automatic industrial control, e.g. robot with camera
    • G06T5/73
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6812Motion detection based on additional sensors, e.g. acceleration sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Abstract

일 실시예는, 움직이는 상황에서 로봇이 촬영한 모션블러이미지, 상기 모션블러이미지에서 모션블러가 저감된 타겟이미지, 그리고, 상기 모션블러이미지가 촬영된 상황에서의 상기 로봇의 관성센서측정값을 포함하는 학습데이터들이 획득되는 단계; 상기 관성센서측정값을 양자화하는 단계; 양자화된 관성센서측정값을 조건파라미터추출모듈에 입력하여 관성반영파라미터를 추출하는 단계; 상기 관성반영파라미터를 조건파라미터로 사용하고, 상기 모션블러이미지를 입력으로 하며, 상기 모션블러이미지에 대하여 모션블러가 저감된 디블러링이미지를 생성하는 디블러링네트워크를 준비하는 단계; 및 상기 디블러링이미지가 상기 타겟이미지를 추종하도록 상기 학습데이터들을 이용하여 상기 조건파라미터추출모듈 및 상기 디블러링네트워크를 학습시키는 단계를 포함하는 디블러링네트워크 학습방법을 제공한다. One embodiment includes a motion blur image captured by a robot in a moving situation, a target image with reduced motion blur in the motion blur image, and inertial sensor measurement values of the robot in the situation in which the motion blur image was captured. A step in which learning data is acquired; Quantizing the inertial sensor measurement value; Extracting an inertial reflection parameter by inputting the quantized inertial sensor measurement value into a condition parameter extraction module; preparing a deblurring network that uses the inertial reflection parameter as a condition parameter, receives the motion blur image as an input, and generates a deblurring image with reduced motion blur for the motion blur image; and training the condition parameter extraction module and the deblurring network using the learning data so that the deblurring image follows the target image.

Figure 112021142504788-pat00001
Figure 112021142504788-pat00001

Description

디블러링네트워크 학습방법, 모션블러 저감방법 및 로봇{DEBLURRING NETWORK LEARNING METHOD, MOTION BLUR REDUCTION METHOD AND ROBOT}Deblurring network learning method, motion blur reduction method and robot {DEBLURRING NETWORK LEARNING METHOD, MOTION BLUR REDUCTION METHOD AND ROBOT}

본 실시예는 이미지에서 모션블러를 저감시키는 기술에 관한 것이다. This embodiment relates to technology for reducing motion blur in images.

미지의 환경에서 다양한 센서들을 이용하여 위치를 추정하고 3차원 환경 지도를 생성하는 VSLAM(Visual Simultaneous Localization And Mapping) 기술이 각광을 받고 있다. 이러한 VSLAM 기술을 사용하면, 로봇이 카메라를 이용하여 자신의 위치를 추정하고 주변 환경 구조를 파악함으로써 목적지점까지 자율주행할 수 있게 된다.VSLAM (Visual Simultaneous Localization And Mapping) technology, which estimates location using various sensors in an unknown environment and creates a 3D environment map, is receiving attention. Using this VSLAM technology, the robot can autonomously navigate to its destination by estimating its own location using a camera and identifying the structure of the surrounding environment.

VSLAM 분야에서는 카메라를 통해 획득된 이미지를 분석하고 자신의 위치를 추정하며 주변 환경 구조를 파악하여 지도를 생성하는 기술이 주요하게 다루어지고 있다. 그런데, 이러한 기술을 구현하기 위해서는 우선적으로 정확한 외부 이미지가 획득될 수 있다는 것이 가정되어야한다. 카메라로 촬영된 이미지에 노이즈가 많이 포함되어 있는 경우, 이후 단에서 수행되는 프로세싱의 결과물이 정확하지 않을 수 있다.In the VSLAM field, technology that analyzes images acquired through cameras, estimates one's own location, and determines the structure of the surrounding environment to create a map is mainly addressed. However, in order to implement this technology, it must first be assumed that an accurate external image can be obtained. If the image captured by the camera contains a lot of noise, the result of the processing performed at a later stage may not be accurate.

특히, 로봇과 같이 움직이는 상황에서 외부를 촬영하는 경우에는 이미지에 모션블러가 포함되어 있을 가능성이 높고, 이를 적절하게 저감시키지 않는다면 VSLAM의 결과물에 오류가 나타날 가능성이 높다.In particular, when shooting the outside in a moving situation such as a robot, there is a high possibility that the image contains motion blur, and if this is not appropriately reduced, errors are likely to appear in the VSLAM results.

이러한 배경에서, 본 실시예의 목적은, 일 측면에서, 로봇이 촬영한 이미지에서 모션블러를 저감시키는 기술을 제공하는 것이다. 다른 측면에서, 본 실시예의 목적은, 이미지의 노이즈를 제거하여 VSLAM의 정확도를 높이는 기술을 제공하는 것이다.Against this background, the purpose of this embodiment is, in one aspect, to provide a technology for reducing motion blur in images captured by a robot. In another aspect, the purpose of this embodiment is to provide a technology to increase the accuracy of VSLAM by removing noise from the image.

전술한 목적을 달성하기 위하여, 일 실시예는, 움직이는 상황에서 로봇이 촬영한 모션블러이미지, 상기 모션블러이미지에서 모션블러가 저감된 타겟이미지, 그리고, 상기 모션블러이미지가 촬영된 상황에서의 상기 로봇의 관성센서측정값을 포함하는 학습데이터들이 획득되는 단계; 상기 관성센서측정값을 양자화하는 단계; 양자화된 관성센서측정값을 조건파라미터추출모듈에 입력하여 관성반영파라미터를 추출하는 단계; 상기 관성반영파라미터를 조건파라미터로 사용하고, 상기 모션블러이미지를 입력으로 하며, 상기 모션블러이미지에 대하여 모션블러가 저감된 디블러링이미지를 생성하는 디블러링네트워크를 준비하는 단계; 및 상기 디블러링이미지가 상기 타겟이미지를 추종하도록 상기 학습데이터들을 이용하여 상기 조건파라미터추출모듈 및 상기 디블러링네트워크를 학습시키는 단계를 포함하는 디블러링네트워크 학습방법을 제공한다. In order to achieve the above-mentioned purpose, one embodiment includes a motion blur image captured by a robot in a moving situation, a target image in which motion blur is reduced from the motion blur image, and the motion blur image in a situation in which the motion blur image is captured. Obtaining learning data including inertial sensor measurements of the robot; Quantizing the inertial sensor measurement value; Extracting an inertial reflection parameter by inputting the quantized inertial sensor measurement value into a condition parameter extraction module; preparing a deblurring network that uses the inertial reflection parameter as a condition parameter, receives the motion blur image as an input, and generates a deblurring image with reduced motion blur for the motion blur image; and training the condition parameter extraction module and the deblurring network using the learning data so that the deblurring image follows the target image.

상기 디블러링네트워크 학습방법에서 상기 디블러링네트워크는 유넷(U-Net)의 형태로 구현되고, 상기 조건파라미터는 상기 유넷의 FiLM(Feature-wise Linear Modulation)에 적용되는 파라미터일 수 있다.In the deblurring network learning method, the deblurring network is implemented in the form of a U-Net, and the condition parameter may be a parameter applied to Feature-wise Linear Modulation (FiLM) of the U-Net.

상기 디블러링네트워크 학습방법에서 상기 조건파라미터추출모듈은 비선형함수를 포함할 수 있다.In the deblurring network learning method, the condition parameter extraction module may include a non-linear function.

상기 디블러링네트워크 학습방법에서 상기 관성센서측정값은 공간의 각 축별 각가속도값을 포함할 수 있다.In the deblurring network learning method, the inertial sensor measurement value may include angular acceleration values for each axis of space.

상기 디블러링네트워크 학습방법은 상기 디블러링네트워크를 학습시키는 단계에서, 상기 디블러링이미지와 상기 타겟이미지의 차이로 계산되는 로스가 최소화되도록 상기 디블러링네트워크를 학습시킬 수 있다.In the deblurring network learning method, in the step of learning the deblurring network, the deblurring network can be trained so that a loss calculated as a difference between the deblurring image and the target image is minimized.

다른 실시예는, 로봇이 촬영한 오리지널이미지와 상기 오리지널이미지가 촬영된 상황에서의 상기 로봇의 관성센서측정값을 획득하는 단계; 상기 관성센서측정값을 양자화하는 단계; 양자화된 관성센서측정값을 미리 학습된 조건파라미터추출모듈에 입력하여 관성반영파라미터를 추출하는 단계; 상기 관성반영파라미터를 미리 학습된 디블러링네트워크의 조건파라미터로 적용시키는 단계; 상기 디블러링네트워크에 상기 오리지널이미지를 입력한 후 모션블러가 저감된 디블러링이미지를 생성하는 단계를 포함하는 모션블러 저감방법을 제공한다. Another embodiment includes obtaining an original image captured by a robot and an inertial sensor measurement value of the robot in the situation in which the original image was captured; Quantizing the inertial sensor measurement value; Extracting an inertial reflection parameter by inputting the quantized inertial sensor measurement value into a pre-learned condition parameter extraction module; Applying the inertial reflection parameter as a condition parameter of a pre-learned deblurring network; A motion blur reduction method is provided including the step of inputting the original image into the deblurring network and then generating a deblurring image with reduced motion blur.

상기 모션블러 저감방법에서 상기 디블러링네트워크는 유넷(U-Net)의 형태로 구현되고, 상기 조건파라미터는 상기 유넷의 FiLM(Feature-wise Linear Modulation)에 적용되는 파라미터일 수 있다.In the motion blur reduction method, the deblurring network is implemented in the form of a U-Net, and the condition parameter may be a parameter applied to Feature-wise Linear Modulation (FiLM) of the U-Net.

상기 모션블러 저감방법은 상기 로봇의 가속도센서측정값을 이용하여 각 축별 각가속도값을 계산하는 단계를 더 포함하고, 상기 관성센서측정값은 상기 각가속도값을 포함할 수 있다.The motion blur reduction method further includes calculating an angular acceleration value for each axis using the robot's acceleration sensor measurement value, and the inertial sensor measurement value may include the angular acceleration value.

상기 모션블러 저감방법에서 상기 조건파라미터추출모듈은, 양자화된 관성센서측정값을 선형결합과 비선형함수 계산을 통해 상기 관성반영파라미터를 추출할 수 있다.In the motion blur reduction method, the condition parameter extraction module can extract the inertial reflection parameter through linear combination of quantized inertial sensor measurement values and nonlinear function calculation.

상기 모션블러 저감방법에서 상기 디블러링네트워크는 인코더블럭과 디코더블럭을 포함하고, 상기 관성반영파라미터는 상기 인코더블럭의 조건파라미터에 적용될 수 있다.In the motion blur reduction method, the deblurring network includes an encoder block and a decoder block, and the inertial reflection parameter can be applied to the condition parameter of the encoder block.

또 다른 실시예는, 로봇 몸체의 외부를 촬영하는 카메라; 상기 몸체의 관성을 측정하는 관성센서; 및 상기 관성센서의 측정값을 양자화하고, 양자화된 측정값을 미리 학습된 조건파라미터추출모듈에 입력하여 관성반영파라미터를 추출하며, 상기 관성반영파라미터를 미리 학습된 디블러링네트워크의 조건파라미터로 적용시키고, 상기 디블러링네트워크에 상기 카메라가 촬영한 오리지널이미지를 입력한 후 모션블러가 저감된 디블러링이미지를 생성하는 프로세서를 포함하는 로봇을 제공한다.Another embodiment includes a camera that photographs the outside of the robot body; an inertial sensor that measures the inertia of the body; And quantize the measured value of the inertial sensor, input the quantized measured value into a pre-learned condition parameter extraction module to extract an inertial reflection parameter, and apply the inertial reflection parameter as a condition parameter of a pre-learned deblurring network. and inputting the original image captured by the camera to the deblurring network and then generating a deblurring image with reduced motion blur.

상기 로봇은 상기 몸체의 이동을 제어하는 이동장치를 더 포함하고, 상기 이동장치의 제어신호에 따라 상기 디블러링네트워크에 대한 상기 오리지널이미지의 적용여부를 결정할 수 있다.The robot further includes a mobile device that controls movement of the body, and can determine whether to apply the original image to the deblurring network according to a control signal from the mobile device.

상기 프로세서는 상기 디블러링이미지에 대한 분석을 통해 공간 내의 상기 로봇의 위치를 추정할 수 있다.The processor may estimate the position of the robot in space through analysis of the deblurring image.

상기 프로세서는 상기 디블러링이미지를 이용하여 VSLAM(Visual Simultaneous Localization And Mapping)을 구현할 수 있다.The processor may implement Visual Simultaneous Localization And Mapping (VSLAM) using the deblurring image.

상기 관성센서는 가속도센서를 포함하고, 상기 프로세서는 상기 가속도센서의 측정값을 이용하여 각 축별 각가속도값을 계산하고, 상기 각가속도값을 이용하여 상기 관성반영파라미터를 추출할 수 있다.The inertial sensor may include an acceleration sensor, and the processor may calculate an angular acceleration value for each axis using the measured value of the acceleration sensor, and extract the inertial reflection parameter using the angular acceleration value.

이상에서 설명한 바와 같이 본 실시예에 의하면, 로봇이 촬영한 이미지에서 모션블러를 저감시킬 수 있게 되고, 이를 통해 VSLAM의 정확도를 높일 수 있게 된다.As described above, according to this embodiment, motion blur can be reduced in images captured by a robot, and through this, the accuracy of VSLAM can be improved.

도 1은 일 실시예에 따른 로봇의 구성도이다.
도 2는 일 실시예에 따른 로봇에서의 모션블러 저감을 위한 데이터 및 신호의 흐름을 나타내는 도면이다.
도 3은 일 실시예에 따른 프로세서의 구성도이다.
도 4는 일 실시예에 따른 디블러링네트워크의 구성도이다.
도 5는 일 실시예에 따른 인코더블럭의 구성도이다.
도 6은 일 실시예에 따른 디블러링네트워크 학습방법의 흐름도이다.
도 7은 일 실시예에 따른 모션블러 저감방법의 흐름도이다.
1 is a configuration diagram of a robot according to one embodiment.
Figure 2 is a diagram showing the flow of data and signals for reducing motion blur in a robot according to an embodiment.
Figure 3 is a configuration diagram of a processor according to one embodiment.
Figure 4 is a configuration diagram of a deblurring network according to an embodiment.
Figure 5 is a configuration diagram of an encoder block according to one embodiment.
Figure 6 is a flowchart of a deblurring network learning method according to an embodiment.
Figure 7 is a flowchart of a motion blur reduction method according to an embodiment.

이하, 본 발명의 일부 실시예들을 예시적인 도면을 통해 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.Hereinafter, some embodiments of the present invention will be described in detail through illustrative drawings. When adding reference numerals to components in each drawing, it should be noted that identical components are given the same reference numerals as much as possible even if they are shown in different drawings. Additionally, in describing the present invention, if it is determined that a detailed description of a related known configuration or function may obscure the gist of the present invention, the detailed description will be omitted.

또한, 본 발명의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 어떤 구성 요소가 다른 구성요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 그 구성 요소는 그 다른 구성요소에 직접적으로 연결되거나 또는 접속될 수 있지만, 각 구성 요소 사이에 또 다른 구성 요소가 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다.Additionally, when describing the components of the present invention, terms such as first, second, A, B, (a), and (b) may be used. These terms are only used to distinguish the component from other components, and the nature, sequence, or order of the component is not limited by the term. When a component is described as being “connected,” “coupled,” or “connected” to another component, that component may be directly connected or connected to that other component, but there is another component between each component. It will be understood that elements may be “connected,” “combined,” or “connected.”

도 1은 일 실시예에 따른 로봇의 구성도이다.1 is a configuration diagram of a robot according to one embodiment.

도 1을 참조하면, 로봇(100)은 몸체(110), 이동장치(120), 관성센서(130), 카메라(140) 및 프로세서(150) 등을 포함할 수 있다.Referring to FIG. 1, the robot 100 may include a body 110, a mobile device 120, an inertial sensor 130, a camera 140, and a processor 150.

몸체(110)는 다양한 형태로 구현될 수 있으며, 그 내부에 다양한 기계, 전기적인 구성요소를 내장할 수 있다.The body 110 can be implemented in various forms, and various mechanical and electrical components can be built into it.

이동장치(120)는 몸체(110) 전체를 이동시키는 장치를 포함할 수 있다. 예를 들어, 이동장치(120)는 지면과 접촉하는 바퀴를 포함하고 있으면서, 바퀴의 회전을 통해 몸체(110)를 지면 상에서 이동시킬 수 있다.The moving device 120 may include a device that moves the entire body 110. For example, the moving device 120 includes wheels in contact with the ground and can move the body 110 on the ground through rotation of the wheels.

이동장치(120)는 몸체(110)의 일부를 이동시키는 장치를 포함할 수 있다. 예를 들어, 이동장치(120)는 몸체(110)를 구성하는 로봇의 팔과 다리를 이동시키는 장치를 포함할 수 있고, 로봇의 머리를 이동시키는 장치를 포함할 수 있다. 이러한 장치의 구동에 의해 몸체(110)는 지면에 나란한 방향의 움직임 뿐만 아니라 지면과 수직된 방향-예를 들어, 중력방향-으로의 움직임도 만들 수 있다.The moving device 120 may include a device that moves a portion of the body 110. For example, the moving device 120 may include a device that moves the arms and legs of the robot constituting the body 110, and may include a device that moves the head of the robot. By driving this device, the body 110 can not only move parallel to the ground but also move in a direction perpendicular to the ground - for example, the direction of gravity.

관성센서(130)는 몸체(110)의 관성을 측정할 수 있다. 관성은 가속도의 형태로 측정될 수도 있고, 각가속도의 형태로 측정될 수도 있다.The inertial sensor 130 can measure the inertia of the body 110. Inertia can be measured in the form of acceleration or in the form of angular acceleration.

관성센서(130)는 가속도센서를 포함할 수 있고, 각가속도센서를 포함할 수 있다. 로봇(100)이 각가속도센서를 포함하지 않는 경우, 로봇(100)은 가속도센서의 측정값을 이용하여 각가속도값을 계산할 수 있다.The inertial sensor 130 may include an acceleration sensor or an angular acceleration sensor. If the robot 100 does not include an angular acceleration sensor, the robot 100 can calculate the angular acceleration value using the measured value of the acceleration sensor.

관성센서(130)는 몸체(110)에서 움직임이 발생하는 위치에 배치될 수 있는데, 예를 들어, 관성센서(130)는 몸체(110)의 팔과 다리의 관절부분에 배치될 수 있고, 몸체(110)에서 목부분에 배치될 수도 있다.The inertial sensor 130 may be placed at a location where movement occurs in the body 110. For example, the inertial sensor 130 may be placed at the joints of the arms and legs of the body 110, It may also be placed in the neck portion at (110).

카메라(140)는 몸체(110)의 외부(10)를 촬영할 수 있다. 로봇(100)은 외부(10)에 대한 촬영이미지를 분석하여 주변 공간의 지도를 형성하고, 지도 내에서의 몸체(110)의 위치를 추정할 수 있다.The camera 140 can photograph the exterior 10 of the body 110. The robot 100 can analyze captured images of the outside 10 to form a map of the surrounding space and estimate the position of the body 110 within the map.

로봇(100)은 하나의 카메라(140)만 포함할 수도 있고, 복수의 카메라(140)를 포함할 수도 있다.The robot 100 may include only one camera 140 or may include a plurality of cameras 140.

프로세서(150)는 관성센서(130)의 측정값을 이용하여 카메라(140)가 촬영한 이미지의 모션블러를 저감시킬 수 있다.The processor 150 can reduce motion blur in the image captured by the camera 140 using the measured value of the inertial sensor 130.

도 2는 일 실시예에 따른 로봇에서의 모션블러 저감을 위한 데이터 및 신호의 흐름을 나타내는 도면이다.Figure 2 is a diagram showing the flow of data and signals for reducing motion blur in a robot according to an embodiment.

도 2를 참조하면, 프로세서(150)는 카메라(140)로부터 오리지널이미지(oIMG)를 획득하고 오리지널이미지(oIMG)에서 모션블러를 저감시킬 수 있다.Referring to FIG. 2, the processor 150 may obtain an original image (oIMG) from the camera 140 and reduce motion blur in the original image (oIMG).

프로세서(150)는 관성센서(130)로부터 획득되는 관성센서측정값(sDT)을 이용하여 오리지널이미지(oIMG)의 모션블러를 저감시킬 수 있다. 프로세서(150)는 신경망의 형태로 구현되는 디블러링네트워크를 포함할 수 있는데, 관성센서측정값(sDT)을 디블러링네트워크에 반영시킴으로서 오리지널이미지(oIMG)의 모션블러를 저감시킬 수 있다.The processor 150 can reduce motion blur of the original image (oIMG) using the inertial sensor measurement value (sDT) obtained from the inertial sensor 130. The processor 150 may include a deblurring network implemented in the form of a neural network, and motion blur of the original image (oIMG) can be reduced by reflecting the inertial sensor measurement value (sDT) in the deblurring network.

프로세서(150)는 이동장치(120)로 제어신호(CTR)를 송신하여 로봇의 움직임을 제어할 수 있는데, 제어신호(CTR)에 따라 디블러링네트워크에 대한 오리지널이미지(oIMG)의 적용여부를 결정할 수 있다. 예를 들어, 제어신호(CTR)가 로봇이 움직이지 않도록 하는 제어신호인 경우, 프로세서(150)는 오리지널이미지(oIMG)를 디블러링네트워크에 적용시키지 않고 그대로 사용할 수 있다. 다른 예로서, 제어신호(CTR)가 로봇이 움직이도록 하는 제어신호인 경우, 프로세서(150)는 오리지널이미지(oIMG)를 디블러링네트워크에 적용시키고 그 결과이미지(디블러링이미지)를 이용하여 VSLAM 등을 구현할 수 있다. 프로세서(150)는 디블러링이미지에 대한 분석을 통해 공간 내의 로봇의 위치를 추정할 수 있고, 디블러링이미지를 이용하여 VSLAM을 구현할 수 있다.The processor 150 can control the movement of the robot by transmitting a control signal (CTR) to the mobile device 120. Depending on the control signal (CTR), it determines whether to apply the original image (oIMG) to the deblurring network. You can decide. For example, if the control signal (CTR) is a control signal that prevents the robot from moving, the processor 150 can use the original image (oIMG) as is without applying it to the deblurring network. As another example, when the control signal (CTR) is a control signal that causes the robot to move, the processor 150 applies the original image (oIMG) to the deblurring network and uses the resulting image (deblurring image). VSLAM, etc. can be implemented. The processor 150 can estimate the position of the robot in space through analysis of the deblurring image and implement VSLAM using the deblurring image.

도 3은 일 실시예에 따른 프로세서의 구성도이다.Figure 3 is a configuration diagram of a processor according to one embodiment.

도 3을 참조하면, 프로세서(150)는 데이터매핑모듈(310), 조건생성모듈(320) 및 디블러링네트워크(330) 등을 포함할 수 있다.Referring to FIG. 3, the processor 150 may include a data mapping module 310, a condition generation module 320, and a deblurring network 330.

데이터매핑모듈(310)은 관성센서측정값(sDT)을 양자화하여 양자화된 측정값(QDT)을 생성할 수 있다. 관성센서측정값(sDT)은 센서에 따라 다양한 해상도를 가질 수 있다. 해상도가 높을 수록 그 측정값은 다양한 레벨의 값을 가질 수 있게 되는데, 이러한 다양한 레벨의 값은 계산을 복잡하게 할 수 있다.The data mapping module 310 may quantize the inertial sensor measurement value (sDT) to generate a quantized measurement value (QDT). Inertial sensor measurements (sDT) can have various resolutions depending on the sensor. The higher the resolution, the more the measurement can have values at various levels, and these various levels of values can complicate calculations.

데이터매핑모듈(310)은 이후 단계에서의 계산을 간소화시키고, 센서에 따른 편차가 발생하지 않도록 표준화시키기 위해 관성센서측정값(sDT)을 양자화하고, 양자화된 측정값(QDT)을 생성할 수 있다.The data mapping module 310 can quantize the inertial sensor measurement value (sDT) and generate a quantized measurement value (QDT) in order to simplify calculations in subsequent steps and standardize it to prevent sensor-dependent deviations. .

양자화된 측정값(QDT)은 관성센서측정값(sDT)에 비해 동일 범위가 적은 구간들로 구분될 수 있다. 예를 들어, 관성이 0~100(U:기본단위)의 범위로 측정될 수 있다고 할 때, 관성센서측정값(sDT)은 0.001(U)의 구간들로 구분될 수 있는데-분해능이 0.001(U)가 됨-, 양자화된 측정값(QDT)는 10(U)의 구간들로 구분되어서, 0, 10, 20, …, 100의 값을 가질 수 있다.The quantized measurement value (QDT) can be divided into sections with less identical range than the inertial sensor measurement value (sDT). For example, when inertia can be measured in the range of 0 to 100 (U: basic unit), the inertial sensor measurement value (sDT) can be divided into sections of 0.001 (U) - the resolution is 0.001 ( U) -, the quantized measurement value (QDT) is divided into intervals of 10 (U), 0, 10, 20, … , can have a value of 100.

데이터매핑모듈(310)은 일부 측정값을 변환하는 기능을 더 수행할 수 있다. 예를 들어, 데이터매핑모듈(310)은 가속도계의 측정값을 각 축별 각가속도값으로 변환할 수 있다.The data mapping module 310 may further perform the function of converting some measurement values. For example, the data mapping module 310 can convert the measured values of the accelerometer into angular acceleration values for each axis.

조건생성모듈(320)는 양자화된 측정값(QDT)을 이용하여 관성반영파라미터(PAR)를 생성할 수 있다.The condition generation module 320 can generate an inertial reflection parameter (PAR) using a quantized measurement value (QDT).

조건생성모듈(320)은 관성센서측정값을 입력받아 파라미터를 생성하는 모듈로 학습될 수 있다. 조건생성모듈(320)은 입력값들의 선형결합과 비선형함수를 포함하는 계산함수를 포함할 수 있는데, 이러한 계산함수는 관성센서측정값을 입력받아 파라미터를 생성하도록 미리 학습될 수 있다.The condition creation module 320 can be learned as a module that receives inertial sensor measurement values and generates parameters. The condition generation module 320 may include a calculation function including a linear combination of input values and a non-linear function. This calculation function may be learned in advance to generate parameters by receiving inertial sensor measurement values.

조건생성모듈(320)에서 생성되는 관성반영파라미터(PAR)는 디블러링네트워크(330)의 조건파라미터로 적용될 수 있다.The inertial reflection parameter (PAR) generated in the condition generation module 320 can be applied as a condition parameter of the deblurring network 330.

디블러링네트워크(330)에는 조건파라미터가 사용되는 블럭이 포함되고, 관성반영파라미터(PAR)는 이러한 조건파라미터에 적용될 수 있다.The deblurring network 330 includes blocks in which conditional parameters are used, and inertia reflection parameters (PAR) can be applied to these conditional parameters.

디블러링네트워크(330)는 오리지널이미지(oIMG)를 입력받고 오리지널이미지(oIMG)에서 모션블러를 저감시킨 디블러링이미지(pIMG)를 생성하도록 미리 학습될 수 있다. 이때, 디블러링네트워크(330)는 조건생성모듈(320)과 함께 학습되면서 관성에 의한 모션블러의 영향을 감지하고 이를 오리지널이미지(oIMG)에서 제거할 수 있게 할 수 있다.The deblurring network 330 may be trained in advance to receive an original image (oIMG) and generate a deblurring image (pIMG) with reduced motion blur from the original image (oIMG). At this time, the deblurring network 330 can be learned together with the condition generation module 320 to detect the effect of motion blur due to inertia and remove it from the original image (oIMG).

도 4는 일 실시예에 따른 디블러링네트워크의 구성도이다.Figure 4 is a configuration diagram of a deblurring network according to an embodiment.

도 4를 참조하면, 디블러링네트워크(330)는 복수의 인코더블럭(410a, 410b)과 복수의 디코더블럭(420a, 420b)을 포함할 수 있다.Referring to FIG. 4, the deblurring network 330 may include a plurality of encoder blocks 410a and 410b and a plurality of decoder blocks 420a and 420b.

디블러링네트워크(330)로 입력되는 오리지널이미지(oIMG)는 복수의 인코더블럭(410a, 410b)에서 인코딩된 후 다시 복수의 디코더블럭(420a, 420b)에서 디코딩되는 과정을 거치면서 디블러링이미지(pIMG)로 변환될 수 있다.The original image (oIMG) input to the deblurring network 330 is encoded in a plurality of encoder blocks 410a and 410b and then decoded in a plurality of decoder blocks 420a and 420b to form a deblurring image. (pIMG).

디블러링네트워크(330)는 유넷(U-Net)의 형태로 구현될 수 있다. 유넷(U-Net)은 이미지프로세싱에서 주로 사용되는 네트워크로서, U자 형태의 네트워크 구조를 가질 수 있다.The deblurring network 330 may be implemented in the form of U-Net. U-Net is a network mainly used in image processing and can have a U-shaped network structure.

유넷(U-Net)에서 인코더블럭(410a, 410b)은 FiLM(Feature-wise Linear Modulation)을 포함할 수 있는데, 관성반영파라미터(PAR)는 FiLM의 조건파라미터에 적용될 수 있다.In U-Net, the encoder blocks 410a and 410b may include Feature-wise Linear Modulation (FiLM), and the inertial reflection parameter (PAR) may be applied to the condition parameter of FiLM.

도 5는 일 실시예에 따른 인코더블럭의 구성도이다.Figure 5 is a configuration diagram of an encoder block according to one embodiment.

도 5를 참조하면, 인코더블럭(410)은 2D컨볼루션블럭(510), 네트워크계산블럭(520), FiLM(530) 및 ReLU(Recified Linear Unit)블럭(540)을 포함할 수 있다.Referring to FIG. 5, the encoder block 410 may include a 2D convolution block 510, a network calculation block 520, a FiLM 530, and a Recified Linear Unit (ReLU) block 540.

2D컨볼루션블럭(510)은 2차원 컨볼루션을 수행하는 블럭이고, 네트워크계산블럭(520)은 도 5에 도시된 것과 같은 계산을 수행할 수 있다. ReLU(540)는 입력을 정류하고 정류된 값을 선형적으로 출력하는 정류선형블럭이다.The 2D convolution block 510 is a block that performs two-dimensional convolution, and the network calculation block 520 can perform calculations as shown in FIG. 5. ReLU (540) is a rectification linear block that rectifies the input and outputs the rectified value linearly.

그리고, FiLM(530)은 입력값에 대해 아래 [식1]과 같은 선형적인 변형을 만들 수 있는데, 여기서, 조건파라미터인 γ 및 β에 관성반영파라미터가 적용될 수 있다.And, FiLM 530 can create a linear transformation of the input value as shown in [Equation 1] below, where an inertial reflection parameter can be applied to the condition parameters γ and β.

[식1][Equation 1]

FiLM(x) = γ * x + βFiLM(x) = γ * x + β

x : 입력값x: input value

γ : 1차함수의 계수(조건파라미터)γ: Coefficient of linear function (condition parameter)

β : 1차함수의 상수(조건파라미터)β: Constant of linear function (condition parameter)

디블러링네트워크는 FiLM 부분에 관성을 반영시켜 디블러링의 성능을 개선시킬 수 있다.The deblurring network can improve deblurring performance by reflecting inertia in the FiLM part.

도 6은 일 실시예에 따른 디블러링네트워크 학습방법의 흐름도이다.Figure 6 is a flowchart of a deblurring network learning method according to an embodiment.

도 6을 참조하면, 학습장치 혹은 로봇은 움직이는 상황에서 로봇이 촬영한 모션블러이미지, 모션블러이미지에서 모션블러가 저감된 타겟이미지, 그리고, 모션블러이미지가 촬영된 상황에서의 로봇의 관성센서측정값을 포함하는 학습데이터들을 획득할 수 있다(S600).Referring to FIG. 6, the learning device or robot measures a motion blur image captured by the robot in a moving situation, a target image with reduced motion blur in the motion blur image, and the inertial sensor measurement of the robot in a situation in which the motion blur image was captured. Learning data including values can be obtained (S600).

디블러링네트워크에 대한 학습은 로봇에 내장되는 프로세서에 의해 수행될 수도 있고, 별도의 학습장치에 의해 수행될 수도 있다. 로봇이 자체적으로 충분한 계산성능의 프로세서를 포함하고 있는 경우, 자체적인 프로세서를 이용하여 디블러링네트워크를 학습시킬 수 있다. 혹은 로봇이 자체적으로 충분한 계산성능의 프로세서를 보유하지 않는 경우, 디블러링네트워크에 대한 학습은 별도의 학습장치에 의해 수행될 수 있다.Learning about the deblurring network may be performed by a processor built into the robot, or may be performed by a separate learning device. If the robot itself includes a processor with sufficient computational performance, the deblurring network can be learned using its own processor. Alternatively, if the robot itself does not have a processor with sufficient computational performance, learning about the deblurring network can be performed by a separate learning device.

별도의 학습장치에 의해 디블러링네트워크에 대한 학습이 수행되더라도 학습장치는 로봇과 직간접적으로 연동되어 있으면서 로봇에서 생성되는 모션블러이미지, 관성센서측정값 등을 획득할 수 있다. 이하에서는 설명의 편의를 위해 디블러링네트워크가 별도의 학습장치에 의해 학습되는 것으로 설명한다.Even if learning about the deblurring network is performed by a separate learning device, the learning device is directly or indirectly linked to the robot and can acquire motion blur images and inertial sensor measurements generated by the robot. Below, for convenience of explanation, the deblurring network is explained as being learned by a separate learning device.

모션블러가 저감된 타겟이미지는 별도의 촬영장치에 의해 생성될 수도 있고, 로봇에 의해 촬영될 수도 있다. 여기서, 모션블러이미지와 타겟이미지는 동일한 장면을 촬영한 이미지일 수 있다. 그리고, 모션블러이미지는 해당 장면에 대해 노이즈로서 모션블러가 나타나는 이미지일 수 있고, 타겟이미지는 해당 장면을 정지한 상태에 촬영하여 모션블러가 나타나지 않는 이미지일 수 있다.The target image with reduced motion blur may be created by a separate imaging device or captured by a robot. Here, the motion blur image and the target image may be images taken from the same scene. Additionally, the motion blur image may be an image in which motion blur appears as noise for the scene, and the target image may be an image in which motion blur does not appear because the scene is captured while the scene is still.

학습장치는 학습데이터에서 관성센서측정값을 데이터매핑시킬 수 있다(S602).The learning device can data map the inertial sensor measurements from the learning data (S602).

데이터매핑은 측정값의 양자화를 포함할 수 있다. 학습장치는 관성센서측정값을 양자화할 수 있다. 학습장치는 이후 단계에서의 계산을 간소화시키고, 센서에 따른 편차가 발생하지 않도록 표준화시키기 위해 관성센서측정값을 양자화하고, 양자화된 측정값을 생성할 수 있다.Data mapping may include quantization of measurements. The learning device can quantize inertial sensor measurements. The learning device can quantize inertial sensor measurements and generate quantized measurements to simplify calculations in later stages and standardize them to prevent sensor-dependent deviations.

데이터매핑은 측정값의 변환을 포함할 수 있다. 학습장치는 가속도계의 측정값을 각 축별 각가속도값으로 변환하고, 이후 단계에서 각 축별 각가속도값이 사용되도록 하게 할 수 있다.Data mapping may include transformation of measurements. The learning device can convert the measured values of the accelerometer into angular acceleration values for each axis, and allow the angular acceleration values for each axis to be used in a later step.

학습장치는 양자화된 관성센서측정값을 조건파라미터추출모듈에 입력하여 관성반영파라미터를 추출할 수 있다(S604). 여기서, 조건파라미터추출모듈은 학습이 완료되지 않은 모듈일 수 있고, 이에 따라 관성반영파라미터는 최적화된 파라미터가 아닐 수 있다.The learning device can extract the inertial reflection parameter by inputting the quantized inertial sensor measurement value into the condition parameter extraction module (S604). Here, the condition parameter extraction module may be a module for which learning has not been completed, and accordingly, the inertia reflection parameter may not be an optimized parameter.

학습장치는 관성반영파라미터를 조건파라미터로 사용하고, 모션블러이미지를 입력으로 하며, 모션블러이미지에 대하여 모션블러가 저감된 디블러링이미지를 생성하는 디블러링네트워크를 준비할 수 있다(S606).The learning device uses the inertial reflection parameter as a condition parameter, takes a motion blur image as input, and can prepare a deblurring network that generates a deblurring image with reduced motion blur for the motion blur image (S606). .

그리고, 학습장치는 디블러링이미지가 타겟이미지를 추종하도록 학습데이터들을 이용하여 조건파라미터추출모듈 및 디블러링네트워크를 학습시킬 수 있다(S608).And, the learning device can learn the condition parameter extraction module and deblurring network using the learning data so that the deblurring image follows the target image (S608).

예를 들어, 조건파라미터추출모듈의 학습이 완료되지 않은 상태에서, 조건파라미터추출모듈에서 생성되는 관성반영파라미터는 최적화된 파라미터가 아닐 수 있다. 그리고, 이러한 관성반영파라미터가 적용된 디블러링네트워크의 결과물(디블러링이미지)은 모션블러의 저감도가 높지 않을 수 있다. 이에 따라 디블러링이미지와 타겟이미지에는 차이가 발생할 수 있고, 학습장치는 이러한 차이가 최소화되도록 조건파라미터추출모듈의 내부파라미터 및/혹은 디블러링네트워크의 내부파라미터를 업데이트할 수 있다.For example, when learning of the conditional parameter extraction module has not been completed, the inertia reflection parameter generated from the conditional parameter extraction module may not be an optimized parameter. Additionally, the result (deblurring image) of the deblurring network to which these inertial reflection parameters are applied may not have a high sensitivity to motion blur reduction. Accordingly, differences may occur between the deblurring image and the target image, and the learning device may update the internal parameters of the condition parameter extraction module and/or the internal parameters of the deblurring network to minimize these differences.

학습장치는 디블러링이미지와 타겟이미지의 차이로 계산되는 로스를 정의하고, 이러한 로스가 최소화되도록 디블러링네트워크 및/혹은 조건파라미터모듈을 학습시킬 수 있다.The learning device can define a loss calculated as the difference between the deblurring image and the target image, and learn the deblurring network and/or condition parameter module to minimize this loss.

도 7은 일 실시예에 따른 모션블러 저감방법의 흐름도이다.Figure 7 is a flowchart of a motion blur reduction method according to an embodiment.

도 7을 참조하면, 로봇은 촬영한 오리지널이미지와 오리지널이미지가 촬영된 상황에서의 로봇의 관성센서측정값을 획득할 수 있다(S700).Referring to Figure 7, the robot can acquire the captured original image and the inertial sensor measurement value of the robot in the situation in which the original image was captured (S700).

그리고, 로봇은 관성센서측정값을 데이터매핑처리할 수 있다(S702).And, the robot can process the inertial sensor measurements into data mapping (S702).

데이터매핑처리는 도 6을 참조하여 설명한 학습장치의 데이터매핑처리와 동일할 수 있다. 로봇은 관성센서측정값을 양자화할 수 있고, 필요에 따라 관성센서측정값을 변환할 수 있다.The data mapping process may be the same as the data mapping process of the learning device described with reference to FIG. 6. The robot can quantize the inertial sensor measurements and convert the inertial sensor measurements as needed.

그리고, 로봇은 양자화된 관성센서측정값을 미리 학습된 조건파라미터추출모듈에 입력하여 관성반영파라미터를 추출할 수 있다(S704).Then, the robot can extract the inertial reflection parameter by inputting the quantized inertial sensor measurement value into the pre-learned condition parameter extraction module (S704).

그리고, 로봇은 관성반영파라미터를 미리 학습된 디블러링네트워크의 조건파라미터로 적용시킬 수 있다(S706).And, the robot can apply the inertial reflection parameter as a condition parameter of the deblurring network learned in advance (S706).

여기서, 디블러링네트워크는 유넷(U-Net)의 형태로 구현될 수 있고, 조건파라미터는 유넷(U-Net)의 FiLM(Feature-wise Linear Modulation)에 적용되는 파라미터일 수 있다.Here, the deblurring network may be implemented in the form of U-Net, and the condition parameter may be a parameter applied to Feature-wise Linear Modulation (FiLM) of U-Net.

유넷(U-Net)은 인코더블럭과 디코더블럭을 포함할 수 있는데, 관성반영파라미터는 인코더블럭의 조건파라미터에 적용될 수 있다.U-Net may include an encoder block and a decoder block, and the inertia reflection parameter can be applied to the condition parameter of the encoder block.

그리고, 로봇은 디블러링네트워크에 오리지널이미지를 입력한 후 모션블러가 저감된 디블러링이미지를 생성할 수 있다(S708).Additionally, the robot can generate a deblurring image with reduced motion blur after inputting the original image into the deblurring network (S708).

이상에서 설명한 바와 같이 본 실시예에 의하면, 로봇이 촬영한 이미지에서 모션블러를 저감시킬 수 있게 되고, 이를 통해 VSLAM의 정확도를 높일 수 있게 된다.As described above, according to this embodiment, motion blur can be reduced in images captured by a robot, and through this, the accuracy of VSLAM can be improved.

이상에서 기재된 "포함하다", "구성하다" 또는 "가지다" 등의 용어는, 특별히 반대되는 기재가 없는 한, 해당 구성 요소가 내재될 수 있음을 의미하는 것이므로, 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것으로 해석되어야 한다. 기술적이거나 과학적인 용어를 포함한 모든 용어들은, 다르게 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥 상의 의미와 일치하는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Terms such as “include,” “comprise,” or “have,” as used above, mean that the corresponding component may be included, unless specifically stated to the contrary, and do not exclude other components. It should be interpreted that it may further include other components. All terms, including technical or scientific terms, unless otherwise defined, have the same meaning as generally understood by a person of ordinary skill in the technical field to which the present invention pertains. Commonly used terms, such as terms defined in a dictionary, should be interpreted as consistent with the meaning in the context of the related technology, and should not be interpreted in an idealized or overly formal sense unless explicitly defined in the present invention.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely an illustrative explanation of the technical idea of the present invention, and various modifications and variations will be possible to those skilled in the art without departing from the essential characteristics of the present invention. Accordingly, the embodiments disclosed in the present invention are not intended to limit the technical idea of the present invention, but are for illustrative purposes, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention should be interpreted in accordance with the claims below, and all technical ideas within the equivalent scope should be construed as being included in the scope of rights of the present invention.

Claims (15)

로봇이 움직이는 상황에서 촬영한 모션블러이미지를 디블러링하여 상기 모션블러이미지에 대하여 모션블러가 저감된 디블러링이미지를 생성하는 디블러링네트워크 학습방법에 있어서,
상기 모션블러이미지, 타겟이미지, 그리고, 상기 모션블러이미지가 촬영된 상황에서의 상기 로봇의 관성센서측정값을 포함하는 학습데이터들이 획득되는 단계;
상기 관성센서측정값을 양자화하는 단계;
양자화된 관성센서측정값을 조건파라미터추출모듈에 입력하여 관성반영파라미터를 추출하는 단계;
상기 관성반영파라미터를 조건파라미터로 사용하고, 상기 모션블러이미지를 입력으로 하며, 상기 디블러링이미지를 생성하는 디블러링네트워크를 준비하는 단계; 및
상기 디블러링이미지가 상기 타겟이미지를 추종하도록 상기 학습데이터들을 이용하여 상기 조건파라미터추출모듈 및 상기 디블러링네트워크를 학습시키는 단계;를 포함하고,
상기 타겟이미지는 상기 모션블러이미지에서 모션블러가 저감된 이미지로서,상기 모션블러이미지의 해당 장면을 정지한 상태에서 촬영하여 모션블러가 나타나지 않은 이미지이고,
상기 디블러링네트워크는 유넷(U-Net)의 형태로 구현되고, 상기 조건파라미터는 상기 유넷에 적용되는 파라미터인, 디블러링네트워크 학습방법.
In the deblurring network learning method for generating a deblurring image with reduced motion blur for the motion blur image by deblurring a motion blur image taken in a situation where a robot is moving,
Obtaining learning data including the motion blur image, the target image, and an inertial sensor measurement value of the robot in a situation in which the motion blur image was captured;
Quantizing the inertial sensor measurement value;
Extracting an inertial reflection parameter by inputting the quantized inertial sensor measurement value into a condition parameter extraction module;
preparing a deblurring network that uses the inertial reflection parameter as a condition parameter, inputs the motion blur image, and generates the deblurring image; and
Comprising: training the condition parameter extraction module and the deblurring network using the learning data so that the deblurring image follows the target image,
The target image is an image in which motion blur has been reduced in the motion blur image, and is an image in which motion blur is not displayed by shooting the scene of the motion blur image while still,
The deblurring network is implemented in the form of a U-Net, and the condition parameter is a parameter applied to the U-Net. A deblurring network learning method.
제1항에 있어서,
상기 조건파라미터는 상기 유넷의 FiLM(Feature-wise Linear Modulation)에 적용되는 파라미터인 디블러링네트워크 학습방법.
According to paragraph 1,
The condition parameter is a deblurring network learning method that is a parameter applied to FiLM (Feature-wise Linear Modulation) of the unit.
제1항에 있어서,
상기 조건파라미터추출모듈은 비선형함수를 포함하는 디블러링네트워크 학습방법.
According to paragraph 1,
The condition parameter extraction module is a deblurring network learning method including a non-linear function.
제1항에 있어서,
상기 관성센서측정값은 공간의 각 축별 각가속도값을 포함하는 디블러링네트워크 학습방법.
According to paragraph 1,
A deblurring network learning method in which the inertial sensor measurement values include angular acceleration values for each axis of space.
제1항에 있어서,
상기 디블러링네트워크를 학습시키는 단계에서,
상기 디블러링이미지와 상기 타겟이미지의 차이로 계산되는 로스가 최소화되도록 상기 디블러링네트워크를 학습시키는 디블러링네트워크 학습방법.
According to paragraph 1,
In the step of learning the deblurring network,
A deblurring network learning method for learning the deblurring network so that the loss calculated as the difference between the deblurring image and the target image is minimized.
로봇이 움직이는 상황에서 촬영한 오리지널이미지를 디블러링하여 상기 오리지널이미지에 대하여 모션블러가 저감된 디블러링이미지를 생성하는 모션블러 저감방법에 있어서,
상기 오리지널이미지, 타겟이미지, 그리고 상기 오리지널이미지가 촬영된 상황에서의 상기 로봇의 관성센서측정값을 획득하는 단계;
상기 관성센서측정값을 양자화하는 단계;
양자화된 관성센서측정값을 미리 학습된 조건파라미터추출모듈에 입력하여 관성반영파라미터를 추출하는 단계;
상기 관성반영파라미터를 미리 학습된 디블러링네트워크의 조건파라미터로 적용시키는 단계;
상기 디블러링네트워크에 상기 오리지널이미지를 입력한 후 모션블러가 저감된 디블러링이미지를 생성하는 단계;를 포함하고,
상기 타겟이미지는 상기 오리지널이미지에서 모션블러가 저감된 이미지로서,상기 오리지널이미지의 해당 장면을 정지한 상태에서 촬영하여 모션블러가 나타나지 않은 이미지이고,
상기 디블러링네트워크는 유넷(U-Net)의 형태로 구현되고, 상기 조건파라미터는 상기 유넷에 적용되는 파라미터인 모션블러 저감방법.
In the motion blur reduction method of deblurring an original image taken in a situation where a robot is moving and generating a deblurring image with reduced motion blur for the original image,
Obtaining the original image, the target image, and an inertial sensor measurement value of the robot in a situation in which the original image was captured;
Quantizing the inertial sensor measurement value;
Extracting an inertial reflection parameter by inputting the quantized inertial sensor measurement value into a pre-learned condition parameter extraction module;
Applying the inertial reflection parameter as a condition parameter of a pre-learned deblurring network;
Including the step of inputting the original image into the deblurring network and then generating a deblurring image with reduced motion blur,
The target image is an image in which motion blur has been reduced from the original image, and is an image in which motion blur does not appear because the corresponding scene of the original image is captured while still,
The deblurring network is implemented in the form of a U-Net, and the condition parameter is a parameter applied to the U-Net.
제6항에 있어서,
상기 조건파라미터는 상기 유넷의 FiLM(Feature-wise Linear Modulation)에 적용되는 파라미터인 모션블러 저감방법.
According to clause 6,
The condition parameter is a motion blur reduction method that is a parameter applied to FiLM (Feature-wise Linear Modulation) of the unit.
제6항에 있어서,
상기 로봇의 가속도센서측정값을 이용하여 각 축별 각가속도값을 계산하는 단계를 더 포함하고,
상기 관성센서측정값은 상기 각가속도값을 포함하는 모션블러 저감방법.
According to clause 6,
Further comprising calculating the angular acceleration value for each axis using the acceleration sensor measurement value of the robot,
A method of reducing motion blur wherein the inertial sensor measurement value includes the angular acceleration value.
제6항에 있어서,
상기 조건파라미터추출모듈은,
양자화된 관성센서측정값을 선형결합과 비선형함수 계산을 통해 상기 관성반영파라미터를 추출하는 모션블러 저감방법.
According to clause 6,
The condition parameter extraction module is,
A motion blur reduction method that extracts the inertial reflection parameters through linear combination of quantized inertial sensor measurements and non-linear function calculation.
제6항에 있어서,
상기 디블러링네트워크는 인코더블럭과 디코더블럭을 포함하고,
상기 관성반영파라미터는 상기 인코더블럭의 조건파라미터에 적용되는 모션블러 저감방법.
According to clause 6,
The deblurring network includes an encoder block and a decoder block,
A motion blur reduction method in which the inertial reflection parameter is applied to the condition parameter of the encoder block.
움직이는 상황에서 촬영한 모션블러링된 오리지널이미지를 디블러링하는 로봇에 있어서,
상기 로봇의 몸체 외부를 촬영하는 카메라;
상기 몸체의 관성을 측정하는 관성센서;
상기 몸체의 이동을 제어하는 이동장치; 및
상기 관성센서의 측정값을 양자화하고, 양자화된 측정값을 미리 학습된 조건파라미터추출모듈에 입력하여 관성반영파라미터를 추출하며, 상기 관성반영파라미터를 미리 학습된 디블러링네트워크의 조건파라미터로 적용시키고, 상기 디블러링네트워크에 상기 카메라가 촬영한 상기 오리지널이미지를 입력한 후 모션블러가 저감된 디블러링이미지를 생성하는 프로세서;를 포함하고,
상기 프로세서는 상기 이동장치로 제어신호를 송신하고, 상기 제어신호가 상기 로봇을 움직이도록 하는 제어신호인 경우, 상기 디블러링네트워크에 상기 카메라가 촬영한 상기 오리지널이미지를 입력한 후 모션블러가 저감된 디블러링이미지를 생성하고,
상기 관성센서는 상기 로봇의 몸체의 팔과 다리의 관절부분 및 목부분을 포함하여 상기 로봇의 몸체에서 움직임이 발생하는 위치에 배치되고,
상기 디블러링네트워크는 유넷(U-Net)의 형태로 구현되고, 상기 조건파라미터는 상기 유넷에 적용되는 파라미터인, 로봇.
In a robot that deblurs a motion-blurred original image taken in a moving situation,
A camera that photographs the outside of the robot's body;
an inertial sensor that measures the inertia of the body;
A moving device that controls movement of the body; and
Quantize the measured value of the inertial sensor, input the quantized measured value into a pre-learned condition parameter extraction module to extract an inertial reflection parameter, and apply the inertial reflection parameter as a condition parameter of a pre-learned deblurring network. , a processor that generates a deblurring image with reduced motion blur after inputting the original image captured by the camera to the deblurring network,
The processor transmits a control signal to the mobile device, and when the control signal is a control signal to move the robot, motion blur is reduced after inputting the original image captured by the camera to the deblurring network. Create a deblurred image,
The inertial sensor is disposed at a location where movement occurs in the body of the robot, including the joints and neck of the arms and legs of the robot body,
The deblurring network is implemented in the form of a U-Net, and the condition parameter is a parameter applied to the U-Net.
삭제delete 제11항에 있어서,
상기 프로세서는 상기 디블러링이미지에 대한 분석을 통해 공간 내의 상기 로봇의 위치를 추정하는 로봇.
According to clause 11,
A robot wherein the processor estimates the position of the robot in space through analysis of the deblurring image.
제11항에 있어서,
상기 프로세서는 상기 디블러링이미지를 이용하여 VSLAM(Visual Simultaneous Localization And Mapping)을 구현하는 로봇.
According to clause 11,
The processor is a robot that implements VSLAM (Visual Simultaneous Localization And Mapping) using the deblurring image.
제11항에 있어서,
상기 관성센서는 가속도센서를 포함하고,
상기 프로세서는 상기 가속도센서의 측정값을 이용하여 각 축별 각가속도값을 계산하고, 상기 각가속도값을 이용하여 상기 관성반영파라미터를 추출하는 로봇.
According to clause 11,
The inertial sensor includes an acceleration sensor,
The processor calculates an angular acceleration value for each axis using the measured value of the acceleration sensor, and extracts the inertial reflection parameter using the angular acceleration value.
KR1020210174997A 2021-12-08 2021-12-08 Deblurring network learning method, motion blur reduction method and robot KR102645254B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210174997A KR102645254B1 (en) 2021-12-08 2021-12-08 Deblurring network learning method, motion blur reduction method and robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210174997A KR102645254B1 (en) 2021-12-08 2021-12-08 Deblurring network learning method, motion blur reduction method and robot

Publications (2)

Publication Number Publication Date
KR20230086865A KR20230086865A (en) 2023-06-16
KR102645254B1 true KR102645254B1 (en) 2024-03-08

Family

ID=86948158

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210174997A KR102645254B1 (en) 2021-12-08 2021-12-08 Deblurring network learning method, motion blur reduction method and robot

Country Status (1)

Country Link
KR (1) KR102645254B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005106727A (en) * 2003-10-01 2005-04-21 Honda Motor Co Ltd Inertial sensor unit
KR102303002B1 (en) * 2021-03-31 2021-09-16 인하대학교 산학협력단 Method and Apparatus for Deblurring of Human and Scene Motion using Pseudo-blur Synthesizer

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112703509A (en) * 2018-08-07 2021-04-23 布赖凯科技股份有限公司 Artificial intelligence techniques for image enhancement

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005106727A (en) * 2003-10-01 2005-04-21 Honda Motor Co Ltd Inertial sensor unit
KR102303002B1 (en) * 2021-03-31 2021-09-16 인하대학교 산학협력단 Method and Apparatus for Deblurring of Human and Scene Motion using Pseudo-blur Synthesizer

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Shuang Zhang, IS&T International Symposium on Electronic Imaging 2020 Computational Imaging,2020.14.COIMG-379

Also Published As

Publication number Publication date
KR20230086865A (en) 2023-06-16

Similar Documents

Publication Publication Date Title
US9183631B2 (en) Method for registering points and planes of 3D data in multiple coordinate systems
KR101791590B1 (en) Object pose recognition apparatus and method using the same
EP2179398B1 (en) Estimating objects proper motion using optical flow, kinematics and depth information
JP5393318B2 (en) Position and orientation measurement method and apparatus
CN111260773B (en) Three-dimensional reconstruction method, detection method and detection system for small obstacle
JP6782903B2 (en) Self-motion estimation system, control method and program of self-motion estimation system
KR101715780B1 (en) Voxel Map generator And Method Thereof
CN111260715B (en) Depth map processing method, small obstacle detection method and system
CN102387374A (en) Device and method for acquiring high-precision depth map
CN111524194B (en) Positioning method and terminal for mutually fusing laser radar and binocular vision
CN112907631B (en) Multi-RGB camera real-time human body motion capture system introducing feedback mechanism
CN111047634B (en) Scene depth determination method, device, equipment and storage medium
KR101737950B1 (en) Vision-based navigation solution estimation system and method in terrain referenced navigation
Westfeld et al. 3-D least squares matching for volumetric velocimetry data processing
CN112053390B (en) Positioning method based on point cloud transformation matching
KR102645254B1 (en) Deblurring network learning method, motion blur reduction method and robot
CN112580683A (en) Multi-sensor data time alignment system and method based on cross correlation
KR101896183B1 (en) 3-d straight lines detection method for camera motion estimation
Nguyen et al. Real-time obstacle detection for an autonomous wheelchair using stereoscopic cameras
JP5230354B2 (en) POSITIONING DEVICE AND CHANGED BUILDING DETECTION DEVICE
CN113744378B (en) Exhibition article scanning method and device, electronic equipment and storage medium
CN114111791A (en) Indoor autonomous navigation method and system for intelligent robot and storage medium
Knoll et al. Investigation of different plant root exit point vector search algorithms in organic farming
CN115077467B (en) Cleaning robot posture estimation method and device and cleaning robot
JP4958992B2 (en) Exercise calculation apparatus and exercise calculation method

Legal Events

Date Code Title Description
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant