KR20220114264A - System and method for deep learning based image correction for non-face-to-face training and non-face-to-face rehabilitation - Google Patents

System and method for deep learning based image correction for non-face-to-face training and non-face-to-face rehabilitation Download PDF

Info

Publication number
KR20220114264A
KR20220114264A KR1020210017547A KR20210017547A KR20220114264A KR 20220114264 A KR20220114264 A KR 20220114264A KR 1020210017547 A KR1020210017547 A KR 1020210017547A KR 20210017547 A KR20210017547 A KR 20210017547A KR 20220114264 A KR20220114264 A KR 20220114264A
Authority
KR
South Korea
Prior art keywords
image
rotation angle
training
noise
user
Prior art date
Application number
KR1020210017547A
Other languages
Korean (ko)
Other versions
KR102453095B1 (en
KR102453095B9 (en
Inventor
송명남
이계산
유승돈
Original Assignee
주식회사 현대엠아이비인터내셔널
(주)스마트모바일
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 현대엠아이비인터내셔널, (주)스마트모바일 filed Critical 주식회사 현대엠아이비인터내셔널
Priority to KR1020210017547A priority Critical patent/KR102453095B1/en
Publication of KR20220114264A publication Critical patent/KR20220114264A/en
Application granted granted Critical
Publication of KR102453095B1 publication Critical patent/KR102453095B1/en
Publication of KR102453095B9 publication Critical patent/KR102453095B9/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/001Image restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/60Rotation of a whole image or part thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

Provided is a method for correcting a user training image collected by a user image collection device by an image correction system operated by at least one processor. According to the present invention, feature information of an input image is extracted, and rotation angle learning data, in which a rotation angle of an image is mapped to the extracted feature information, is generated to allow a convolutional neural network to learn. In addition, noise is inserted into the image, and motion blur learning data is generated by mapping the image to the image into the noise inserted. Then, a denoising autoencoder is learned using the motion blur learning data. Moreover, the user training image is received from the user image collection device, and the user training image is corrected using the learned convolutional neural network and the denoising autoencoder.

Description

비대면 트레이닝과 비대면 재활을 위한 딥러닝 기반 영상 보정 시스템 및 방법{System and method for deep learning based image correction for non-face-to-face training and non-face-to-face rehabilitation}System and method for deep learning based image correction for non-face-to-face training and non-face-to-face rehabilitation

본 발명은 비대면 트레이닝과 비대면 재활을 위한 딥러닝 기반 영상 보정 시스템 및 방법에 관한 것이다.The present invention relates to a deep learning-based image correction system and method for non-face-to-face training and non-face-to-face rehabilitation.

최근 유행하는 전염병의 지역 사회 확산을 막기 위해, 사회적 거리 두기가 실시되고 있다. 사회적 거리 두기에 따라 사람들은 재택 근무나 집단 행사, 또는 모임을 삼가는 추세이다.In order to prevent the spread of the recent epidemic in the community, social distancing is being implemented. Due to social distancing, people tend to avoid working from home, group events, or gatherings.

그러나 환자의 건강 상태나 건강관리 능력을 향상시키는 재활 트레이닝 또는 피트니스 센터 등에서 트레이너와 함께 진행하는 트레이닝은 환자 또는 센터 회원에 맞춤형으로 진행되기 때문에, 비대면으로 트레이닝 서비스를 제공하기 어렵다. 그럼에도, 사회적 거리 두기에 의해, 일부 지자체에서 지역 사회 중심의 재활 사업의 일환 또는 운동 증진을 위해 비대면 트레이닝을 위한 서비스를 제공하고 있다.However, it is difficult to provide a non-face-to-face training service because the rehabilitation training to improve the patient's health condition or health management ability or the training conducted with a trainer in a fitness center is customized to the patient or center member. Nevertheless, due to social distancing, some local governments are providing services for non-face-to-face training as part of community-oriented rehabilitation projects or to promote exercise.

비대면 트레이닝을 제공하기 위해서는, 환자 또는 사용자가 디바이스를 통해 제공되는 영상을 보고 트레이닝을 하고, 트레이닝하는 환자 또는 사용자를 촬영하여 원격의 센터에서 환자 또는 사용자의 영상으로 트레이닝을 바르게 하고 있는지 판단하게 된다. 이와 같이 원격의 센터에서 영상으로 환자 또는 사용자의 트레이닝 이행 여부를 확인하기 위해서는, 영상 인식 기법이 사용되어야 한다.In order to provide non-face-to-face training, the patient or user performs training by viewing the image provided through the device, and by photographing the training patient or user, it is determined whether training is being performed correctly with the patient or user's image at a remote center. . In this way, in order to check whether a patient or a user performs training with an image in a remote center, an image recognition technique must be used.

그러나 현재 영상인식 기법은 피사체 즉 환자 또는 사용자의 움직임과 카메라의 회전 등으로 인하여, 환자 또는 사용자의 모션 인식률이 저하되는 상황이 자주 발생한다. However, in the current image recognition technique, the motion recognition rate of the patient or user is often lowered due to the movement of the subject, that is, the patient or user and the rotation of the camera.

이를 해결하기 위해 영상인식 기법에 인공지능 모델을 접목하여 환자 또는 사용자의 모션을 인식하려는 시도가 늘어나고 있다. 인공지능 모델은 이미지와 영상의 픽셀 값을 토대로 영상인식 알고리즘을 구동하는데, 회전된 이미지와 흐려진 이미지에 대해서 인식률이 낮아지는 현상이 발생한다.To solve this problem, attempts to recognize the motion of a patient or user by grafting an artificial intelligence model to the image recognition technique are increasing. The artificial intelligence model drives the image recognition algorithm based on the image and the pixel values of the image, but the recognition rate decreases for the rotated image and the blurred image.

따라서, 본 발명은 비대면 재활 서비스를 제공하기 위하여, 딥러닝 기반으로 영상 회전과 모션 블러를 보정할 수 있는 비대면 트레이닝과 비대면 재활을 위한 딥러닝 기반 영상 보정 시스템 및 방법을 제공한다.Accordingly, the present invention provides a deep learning-based image correction system and method for non-face-to-face training and non-face-to-face rehabilitation capable of correcting image rotation and motion blur based on deep learning in order to provide a non-face-to-face rehabilitation service.

상기 본 발명의 기술적 과제를 달성하기 위한 본 발명의 하나의 특징인 적어도 하나의 프로세서에 의해 동작하는 영상 보정 시스템이 사용자 영상 수집 장치가 수집한 사용자 트레이닝 영상 또는 재활 영상을 보정하는 방법으로서,As a method of correcting a user training image or rehabilitation image collected by a user image collection device by an image correction system operated by at least one processor, which is one feature of the present invention for achieving the technical problem of the present invention,

입력된 이미지에 대한 특징 정보를 추출하고, 상기 추출한 특징 정보에 이미지의 회전각을 매핑한 회전각 학습 데이터를 생성하는 단계, 상기 회전각 학습 데이터를 이용하여 합성곱 신경망을 학습시키는 단계, 상기 이미지에 노이즈를 삽입하고, 노이즈가 삽입된 이미지에 상기 이미지를 매핑하여 모션 블러 학습 데이터를 생성하는 단계, 상기 모션 블러 학습 데이터를 이용하여 디노이징 오토인코더를 학습시키는 단계, 그리고 상기 사용자 영상 수집 장치로부터 사용자 트레이닝 영상 또는 재활 영상을 수신하고, 학습된 합성곱 신경망과 디노이징 오토인코더를 이용하여 상기 사용자 트레이닝 영상 또는 재활 영상을 보정하는 단계를 포함한다.extracting feature information on the input image, generating rotation angle learning data by mapping the rotation angle of the image to the extracted feature information, learning a convolutional neural network using the rotation angle learning data, the image generating motion blur learning data by inserting noise into the image and mapping the image to the noise-inserted image, learning the denoising autoencoder using the motion blur learning data, and from the user image collecting device and receiving a user training image or rehabilitation image, and correcting the user training image or rehabilitation image using a learned convolutional neural network and a denoising autoencoder.

상기 합성곱 신경망을 학습시키는 단계는, 상기 이미지로부터 RGB 픽셀 값을 추출하는 단계, 상기 RGB 픽셀 값 별로 상기 이미지의 특징 정보를 추출하는 단계, 그리고 상기 이미지의 특징 정보가 입력되면 상기 매핑된 회전각이 출력되도록 상기 합성곱 신경망을 학습시키는 단계를 포함할 수 있다.The training of the convolutional neural network may include extracting RGB pixel values from the image, extracting feature information of the image for each RGB pixel value, and when feature information of the image is input, the mapped rotation angle It may include training the convolutional neural network to output this.

상기 디노이징 오토인코더를 학습시키는 단계는, 상기 노이즈가 삽입된 이미지로부터 RGB 픽셀값을 추출하는 단계, 그리고 상기 RGB 픽셀 값 별로 상기 이미지의 특징 정보를 압축하여 모션 블러가 보정된 이미지가 출력되도록 상기 디노이징 오토인코더를 학습시키는 단계를 포함할 수 있다.The step of learning the denoising autoencoder may include extracting RGB pixel values from the noise-inserted image, and compressing feature information of the image for each RGB pixel value so that an image with motion blur correction is output. It may include the step of learning the denoising autoencoder.

상기 사용자 트레이닝 영상 또는 재활 영상을 보정하는 단계는, 상기 수신한 사용자 트레이닝 영상 또는 재활 영상으로부터 복수의 이미지들을 추출하는 단계, 각 이미지로부터 회전각을 추정하고, 추정한 회전각만큼 역방향으로 회전시켜 회전 방향을 보정하는 단계, 상기 회전 방향이 보정된 이미지에 노이즈를 삽입하여 상기 디노이징 오토인코더로 입력하는 단계, 그리고 상기 디노이징 오토인코더에서 상기 노이즈가 제거된 각 이미지로부터 보정한 사용자 트레이닝 영상을 생성하는 단계를 포함할 수 있다.The step of correcting the user training image or rehabilitation image may include extracting a plurality of images from the received user training image or rehabilitation image, estimating a rotation angle from each image, and rotating by rotating in the reverse direction by the estimated rotation angle Correcting the direction, inserting noise into the image in which the rotation direction is corrected, inputting the noise to the denoising autoencoder, and generating a corrected user training image from each image from which the noise is removed in the denoising autoencoder may include the step of

상기 본 발명의 기술적 과제를 달성하기 위한 본 발명의 또 다른 특징인 적어도 하나의 프로세서에 의해 동작하며 트레이닝 영상 또는 재활 영상을 보정하는 시스템으로서,As a system that operates by at least one processor, which is another feature of the present invention for achieving the technical problem of the present invention, and corrects a training image or a rehabilitation image,

영상 수집 장치가 수집한 트레이닝 영상 또는 재활 영상을 수신하고, 상기 트레이닝 영상 또는 재활 영상으로부터 추출한 복수의 이미지들의 회전각을 보정하여 회전각이 보정된 이미지를 생성하는 회전각 보정부, 그리고 상기 회전각 보정부로부터 상기 회전각이 보정된 이미지를 전달받고, 상기 회전각이 보정된 이미지의 모션 블러를 보정한 후 트레이닝 영상 또는 재활 영상으로 생성하는 모션 블러 보정부를 포함하며, 상기 회전각 보정부는 이미지와 회전각이 매핑되어 있는 회전각 학습 데이터를 기초로 상기 이미지가 입력되면 상기 매핑되어 있는 회전각을 출력하도록 학습되어 있고, 상기 모션 블러 보정부는 원본 이미지와 노이즈가 삽입된 이미지가 매핑되어 있는 모션 블러 학습 데이터를 이용하여 상기 노이즈가 삽입된 이미지가 입력되면 상기 원본 이미지를 출력하도록 학습되어 있다.A rotation angle correction unit that receives the training image or rehabilitation image collected by the image collection device, and corrects the rotation angle of a plurality of images extracted from the training image or the rehabilitation image to generate an image with the rotation angle corrected, and the rotation angle and a motion blur correcting unit that receives the image with the rotation angle corrected from the correcting unit, corrects the motion blur of the image with the rotation angle corrected, and generates a training image or a rehabilitation image, wherein the rotation angle correcting unit includes an image and When the image is input based on the rotation angle learning data to which the rotation angle is mapped, it is learned to output the mapped rotation angle, and the motion blur compensator is a motion blur in which the original image and the noise-inserted image are mapped. It is learned to output the original image when the image into which the noise is inserted is input using the training data.

상기 회전각 보정부는 복수의 심층 합성곱 신경망으로 구현되며, 상기 모션 블러 보정부는 디노이징 오토인코더로 구현될 수 있다.The rotation angle correcting unit may be implemented as a plurality of deep convolutional neural networks, and the motion blur correcting unit may be implemented as a denoising autoencoder.

상기 회전각 보정부는, 상기 복수의 이미지들로부터 RGB 픽셀 값을 추출하고, 상기 RGB 픽셀별로 이미지 특징 정보를 추출하며, 상기 이미지 특징 정보를 기초로 상기 복수의 이미지들의 회전각을 추정할 수 있다.The rotation angle corrector may extract RGB pixel values from the plurality of images, extract image characteristic information for each RGB pixel, and estimate rotation angles of the plurality of images based on the image characteristic information.

상기 회전각 보정부는, 상기 추정한 회전각의 역 방향으로 상기 복수의 이미지들을 회전시켜 회전각을 보정할 수 있다.The rotation angle corrector may correct the rotation angle by rotating the plurality of images in a direction opposite to the estimated rotation angle.

상기 모션 블러 보정부는, 상기 회전각이 보정된 이미지로부터 RGB 픽셀 값을 추출하고, 추출한 RGB 픽셀별로 노이즈를 삽입하며, 상기 노이즈가 삽입된 RGB 픽셀을 축소시켜 상기 노이즈가 삽입된 이미지의 특징을 추출할 수 있다.The motion blur compensating unit extracts RGB pixel values from the image in which the rotation angle is corrected, inserts noise for each extracted RGB pixel, and reduces the noise-inserted RGB pixels to extract features of the noise-inserted image can do.

상기 모션 블러 보정부는, 상기 노이즈가 삽입된 이미지의 특징을 복원하고, 복원한 이미지와 상기 회전각이 보정된 이미지를 비교하여 상기 추가된 노이즈 성분을 제거할 수 있다.The motion blur compensator may restore a characteristic of the image in which the noise is inserted, and remove the added noise component by comparing the restored image with the image in which the rotation angle is corrected.

본 발명에 따르면, 영상인식 시스템에 합성곱 신경망 기반 영상회전 보정 알고리즘을 추가함으로써, 카메라의 회전에 따른 피사체의 회전으로 인한 인식률 저하를 완화할 수 있다. According to the present invention, by adding an image rotation correction algorithm based on a convolutional neural network to the image recognition system, it is possible to alleviate a decrease in recognition rate due to rotation of a subject according to rotation of a camera.

실시예에 따르면 디노이징 오토인코더 기법을 통해 사용자의 움직임에 따른 모션 블러를 완화할 수 있다. According to an embodiment, motion blur caused by a user's movement may be mitigated through the denoising autoencoder technique.

실시예에 따르면 두 가지 방식의 인식률 개선 알고리즘을 통해 영상인식 시스템의 인식률을 개선할 수 있다.According to an embodiment, the recognition rate of the image recognition system may be improved through two types of recognition rate improvement algorithms.

도 1은 본 발명의 실시예에 따른 영상 보정 시스템이 적용된 환경의 예시도이다. 도 2는 본 발명의 실시예에 따른 영상 보정 시스템의 구조도이다. 도 3은 본 발명의 실시예에 따른 디노이징 오토 인코더의 예시도이다. 도 4는 본 발명의 실시예에 따른 영상 보정 방법에 대한 흐름도이다. 도 5는 본 발명의 실시예에 따른 컴퓨팅 장치의 구조도이다.1 is an exemplary diagram of an environment to which an image correction system according to an embodiment of the present invention is applied. 2 is a structural diagram of an image correction system according to an embodiment of the present invention. 3 is an exemplary diagram of a denoising auto encoder according to an embodiment of the present invention. 4 is a flowchart of an image correction method according to an embodiment of the present invention. 5 is a structural diagram of a computing device according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art to which the present invention pertains can easily implement them. However, the present invention may be embodied in several different forms and is not limited to the embodiments described herein. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.

명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. Throughout the specification, when a part "includes" a certain component, it means that other components may be further included, rather than excluding other components, unless otherwise stated.

이하, 도면을 참조로 하여 본 발명의 실시예에 따른 비대면 트레이닝과 비대면 재활을 위한 딥러닝 기반 영상 보정 시스템 및 방법에 대해 상세히 설명한다. 여기서, 비대면 트레이닝에 홈 트레이닝 또는 비대면 재활 운동 등이 포함될 수 있으며, 본 발명의 실시예에서는 어느 하나의 트레이닝으로 한정하지 않는다.Hereinafter, a deep learning-based image correction system and method for non-face-to-face training and non-face-to-face rehabilitation according to an embodiment of the present invention will be described in detail with reference to the drawings. Here, the non-face-to-face training may include home training or non-face-to-face rehabilitation exercise, and the embodiment of the present invention is not limited to any one training.

도 1은 본 발명의 실시예에 따른 영상 보정 시스템이 적용된 환경의 예시도이다.1 is an exemplary diagram of an environment to which an image correction system according to an embodiment of the present invention is applied.

도 1에 도시된 바와 같이, 댁 내의 사용자(100)가 사용자 디바이스(예를 들어, IPTV, 모니터 등)(200)를 통해 제공되는 트레이닝 영상을 따라 트레이닝하면, 사용자 영상 수집 장치(예를 들어, 카메라, CCTV 등)(300)는 트레이닝중인 사용자의 영상을 수집한다.As shown in FIG. 1 , when the user 100 in the house trains according to the training image provided through the user device (eg, IPTV, monitor, etc.) 200 , the user image collecting apparatus (eg, A camera, CCTV, etc.) 300 collects images of users in training.

여기서 사용자 영상 수집 장치(300)는 사용자 디바이스(200)에 포함되도록 구현될 수도 있고, 별도로 구현될 수도 있다. 별도로 구현될 경우, 사용자 디바이스(200)와 사용자 영상 수집 장치(300)는 상호 연동될 수 있다.Here, the user image collecting apparatus 300 may be implemented to be included in the user device 200 or may be implemented separately. If implemented separately, the user device 200 and the user image collecting apparatus 300 may be interoperable with each other.

사용자 영상 수집 장치(300)는 사용자의 트레이닝 모습 또는 재활하는 모습을 영상으로 촬영하고, 촬영한 영상을 원격지의 영상 보정 시스템(400)으로 전송한다. 영상 보정 시스템(400)은 심층 합성곱 신경망 기반으로 사용자 영상 수집 장치(400)의 회전각을 추정하여 영상을 보정하고, 디노이징 오토인코더(denoising autoencoder) 기반으로 모션 블러를 보정하여, 보정된 영상을 생성한다. The user image collection device 300 captures a training or rehabilitation state of the user as an image, and transmits the captured image to the image correction system 400 in a remote location. The image correction system 400 corrects the image by estimating the rotation angle of the user image collection device 400 based on the deep convolutional neural network, corrects the motion blur based on the denoising autoencoder, and corrects the image create

본 발명의 실시예에서는 영상 보정 시스템(400)이 원격지의 트레이너 디바이스(500)에 포함되어 있는 것을 예로 하여 설명하나, 반드시 이와 같이 한정되는 것은 아니다. 영상 보정 시스템(400)이 생성한 보정 영상을 기초로, 사용자(100)의 트레이닝을 지도하는 트레이너(600)는 사용자(100)가 바른 자세로 트레이닝 영상을 따라 하는지 확인하고, 확인한 결과에 따라 사용자(100)의 트레이닝 자세를 지도할 수 있다. 또한, 본 발명의 실시예에서는 설명의 편의를 위하여 트레이닝 영상과 재활 영상 중 트레이닝 영상을 예로 하여 설명한다.In the embodiment of the present invention, the image correction system 400 is described as an example that is included in the remote trainer device 500, but is not necessarily limited thereto. Based on the corrected image generated by the image correction system 400, the trainer 600 guiding the training of the user 100 checks whether the user 100 follows the training image with the correct posture, and according to the confirmed result, the user The training posture of (100) can be taught. In addition, in the embodiment of the present invention, for convenience of explanation, a training image among a training image and a rehabilitation image will be described as an example.

이상에서 설명한 환경에서, 영상을 보정하는 영상 보정 시스템(400)의 구조에 대해 도 2를 참조로 설명한다.The structure of the image correction system 400 for correcting an image in the environment described above will be described with reference to FIG. 2 .

도 2는 본 발명의 실시예에 따른 영상 보정 시스템의 구조도이다.2 is a structural diagram of an image correction system according to an embodiment of the present invention.

도 2에 도시된 바와 같이, 영상 보정 시스템(400)은 회전각 보정부(410)와 모션 블러 보정부(420)를 포함한다.As shown in FIG. 2 , the image correction system 400 includes a rotation angle correcting unit 410 and a motion blur correcting unit 420 .

회전각 보정부(410)는 사용자 영상 수집 장치(300)로부터 원본 영상을 수신하면, 원본 영상을 구성하는 프레임별로 복수의 이미지들을 추출한다. 이때, 원본 영상은 사용자가 화면에서 기울어지거나 사용자의 움직임에 따라 모션 블러 요소가 포함되어 있다.When receiving the original image from the user image collecting device 300 , the rotation angle corrector 410 extracts a plurality of images for each frame constituting the original image. In this case, the original image includes a motion blur element according to the user's inclination on the screen or the user's movement.

회전각 보정부(410)가 원본 영상으로부터 이미지들을 추출하는 방법은 다양한 방법으로 수행할 수 있으므로, 본 발명의 실시예에서는 어느 하나의 방법으로 한정하지 않는다. 또한, 본 발명의 실시예에서는 설명의 편의를 위하여 원본 영상에서 이미지들을 추출하는 것을 예로 하여 설명하나, 원본 영상 자체를 사용할 수도 있다.Since the rotation angle corrector 410 extracts images from the original image can be performed in various ways, the embodiment of the present invention is not limited to any one method. Also, in the embodiment of the present invention, for convenience of description, extracting images from the original image is described as an example, but the original image itself may be used.

회전각 보정부(410)는 원본 영상을 전달한 사용자 영상 수집 장치(300)에 매핑된 식별 정보를 확인한다. 그리고 사용자 영상 수집 장치(300)가 설치된 좌표 정보를 확인한다. 사용자 영상 수집 장치(300)에 매핑된 식별 정보와 좌표 정보는 영상 보정 시스템(400)의 데이터베이스(도면 미도시)에 등록되어 있거나, 외부에서 사용자 영상 수집 장치(300)를 관리하는 관리 서버에 등록되어 있을 수 있다.The rotation angle corrector 410 checks identification information mapped to the user image collecting device 300 that has transmitted the original image. Then, coordinate information on which the user image collecting device 300 is installed is checked. Identification information and coordinate information mapped to the user image collecting device 300 are registered in a database (not shown) of the image correction system 400 or registered in a management server that manages the user image collecting device 300 from the outside. may have been

회전각 보정부(410)는 추출한 복수의 이미지들 각각에 대하여 RGB 픽셀 값을 확인한다. 회전각 보정부(410)가 이미지에서 RGB 픽셀 값을 확인하는 방법은 이미 알려진 것으로, 본 발명의 실시예에서는 상세한 설명을 생략한다.The rotation angle corrector 410 checks RGB pixel values for each of the plurality of extracted images. A method for the rotation angle corrector 410 to check RGB pixel values in an image is already known, and a detailed description thereof will be omitted in the exemplary embodiment of the present invention.

또한, 회전각 보정부(410)는 추출한 복수의 이미지들 각각의 크기와 이미지 특징에 맞게 이미지 특징 정보를 추출한다. 여기서, 이미지 특징은 사용자와 주변 사물들을 포함하는 객체들의 위치를 나타내는 좌표 정보, 사용자가 취하는 모션 정보 등을 포함하는 것을 예로 하여 설명하나, 반드시 이와 같이 한정되는 것은 아니다. Also, the rotation angle correcting unit 410 extracts image characteristic information according to the size and image characteristics of each of the plurality of extracted images. Here, the image feature will be described as an example including coordinate information indicating the location of objects including the user and surrounding objects, and motion information taken by the user, but is not necessarily limited thereto.

회전각 보정부(410)는 복수의 이미지들 각각으로부터 이미지 특징 정보를 추출하기 위해, 복수의 심층 합성곱 신경망들로 구성된다. 이를 위해, 복수의 심층 합성곱 신경망들로 구성된 회전각 보정부(410)는 학습 데이터(이하, 설명의 편의를 위하여 '회전각 학습 데이터'라 지칭함)를 기초로 심층 합성곱 신경망들로 구현된 특징 정보 추출기들을 학습시킨다.The rotation angle corrector 410 is configured with a plurality of deep convolutional neural networks to extract image feature information from each of a plurality of images. To this end, the rotation angle correction unit 410 composed of a plurality of deep convolutional neural networks is implemented with deep convolutional neural networks based on training data (hereinafter, referred to as 'rotation angle learning data' for convenience of explanation). Train feature information extractors.

여기서, 회전각 학습 데이터는 이미지와 해당 이미지의 특징 정보를 포함하며, 이미지가 특징 정보 추출기 즉, 심층 합성곱 신경망에 입력되면 해당 이미지의 특징 정보가 출력되도록 심층 합성곱 신경망을 학습시켜둔다. 회전각 학습 데이터를 이용하여 심층 합성곱 신경망을 학습시키는 방법은 이미 알려진 것으로, 본 발명의 실시예에서는 상세한 설명을 생략한다.Here, the rotation angle learning data includes an image and feature information of the image, and when the image is input to the feature information extractor, that is, the deep convolutional neural network, the deep convolutional neural network is trained so that the feature information of the image is output. A method of learning a deep convolutional neural network using rotation angle learning data is already known, and detailed description thereof will be omitted in the embodiment of the present invention.

여기서, 심층 합성곱 신경망이 다양한 방법으로 입력되는 이미지로부터 이미지 특징 정보를 추출하는 방법은 다양하게 실행될 수 있으므로, 본 발명의 실시예에서는 어느 하나의 방법으로 한정하여 설명하지 않는다.Here, a method for extracting image feature information from an image input by a deep convolutional neural network in various ways can be performed in various ways, and thus, the embodiment of the present invention will not be limited to any one method.

그리고, 회전각 보정부(410)는 이미지 특징 정보를 기초로 이미지에 대한 회전 각도를 출력한다. 회전각 보정부(410)가 이미지 특징 정보를 이용하여 이미지의 회전 각도를 출력하는 방법은 다양한 방법으로 실행할 수 있으므로, 본 발명의 실시예에서는 어느 하나의 방법으로 한정하지 않는다.Then, the rotation angle corrector 410 outputs a rotation angle of the image based on the image characteristic information. Since the rotation angle correction unit 410 outputs the rotation angle of the image by using the image characteristic information can be executed in various ways, the embodiment of the present invention is not limited to any one method.

회전각 보정부(410)는 출력한 회전 각도를 기초로 이미지를 역 방향으로 회전시켜 회전 방향을 보정한다. 본 발명의 실시예에서는 출력한 회전 각도에 -1을 곱한 후, 이미지를 역 방향으로 회전시키는 것을 예로 하여 설명한다.The rotation angle correcting unit 410 corrects the rotation direction by rotating the image in the reverse direction based on the output rotation angle. In the embodiment of the present invention, after multiplying the output rotation angle by -1, rotating the image in the reverse direction will be described as an example.

회전각 보정부(410)는 회전 보정한 이미지를 다시 RGB 픽셀별로 분할하여, 모션 블러 보정부(420)로 전달한다. 이때, 모션 블러 보정부(420)로 전달되는 회전 보정된 이미지의 RGB 픽셀은 회전 보정은 되어 있는 상태이나, 모션 블러에 대한 영향은 남아있는 이미지이다.The rotation angle correction unit 410 divides the rotation-corrected image into RGB pixels again, and transmits it to the motion blur correction unit 420 . In this case, the RGB pixels of the rotation-corrected image transmitted to the motion blur compensator 420 are in a state in which rotation correction is performed, but the effect on motion blur remains.

모션 블러 보정부(420)는 회전각 보정부(410)로부터 수신한 회전 보정된 이미지의 RGB 픽셀 값을 압축하여 이미지에 대한 특징을 추출한다. 그리고 추출한 특징을 기초로 모션 블러 보정부(420)가 모션 블러가 완화된 이미지를 출력한다. 이때, 모션 블러 보정부(420)는 모션 블러가 완화된 이미지를 출력하기 위해 이미지의 R 픽셀, G 픽셀, B 픽셀을 각각 인코딩하는 디노이징 오토인코더(denoising auto encoder)들로 구성된다. The motion blur compensator 420 extracts features of the image by compressing RGB pixel values of the rotation-corrected image received from the rotation angle compensator 410 . Then, the motion blur compensating unit 420 outputs an image in which motion blur is reduced based on the extracted features. In this case, the motion blur compensator 420 is configured with denoising auto encoders that encode R pixels, G pixels, and B pixels of the image, respectively, in order to output an image with reduced motion blur.

디노이징 오토인코더는 노이즈를 제거하여 학습 효과를 강화시키는 인코더로, 가우시안 잡음이 섞인 이미지를 입력으로 하고, 가우시안 잡음이 삭제된 정상적인 이미지가 출력되도록 하는 오토인코더이다. 본 발명의 실시예에서는 디노이징 오토인코더는 학습 데이터(이하, 설명의 편의를 위하여 '모션 블러 학습 데이터'라 지칭함)를 이용하여 학습된다. The denoising autoencoder is an encoder that enhances the learning effect by removing noise. It is an autoencoder that takes an image mixed with Gaussian noise as an input and outputs a normal image with Gaussian noise removed. In an embodiment of the present invention, the denoising autoencoder is learned using learning data (hereinafter, referred to as 'motion blur learning data' for convenience of explanation).

여기서, 모션 블러 학습 데이터에는 모션 블러에 의한 영향이 있는 이미지(이하, 설명의 편의를 위하여 '모션 블러 영향 이미지'라 지칭함)와, 모션 블러가 완화된 이미지(이하, 설명의 편의를 위하여 '원본 이미지'라 지칭함)가 쌍으로 포함되어 있다. 모션 블러 영향 이미지가 디노이징 오토인코더에 입력되면 원본 이미지가 출력되도록, 디노이징 오토인코더가 미리 학습되어 있다.Here, the motion blur learning data includes an image affected by motion blur (hereinafter, referred to as a 'motion blur effect image' for convenience of explanation) and an image with reduced motion blur (hereinafter, for convenience of explanation, the 'original image') images') are included in pairs. The denoising autoencoder is trained in advance so that the original image is output when the motion blur effect image is input to the denoising autoencoder.

모션 블러 보정부(420)는 기 학습시킨 디노이징 오토인코더에서 RGB 픽셀별로 모션 블러 영향 이미지 즉, 회전각 보정부(410)에서 회전각이 보정된 이미지에서 모션 블러를 완화시킨 이미지를 RGB 픽셀별로 각각 추출한다. 그리고 각각 추출한 RGB 픽셀별 모션 블러가 완화된 이미지를 압축하여, 모션 블러가 완화된 원본 이미지를 출력한다. The motion blur compensator 420 converts the motion blur effect image for each RGB pixel in the pre-trained denoising autoencoder, that is, the image in which the motion blur is alleviated from the image whose rotation angle is corrected by the rotation angle compensator 410, for each RGB pixel. extract each. Then, the motion blur-relieved image is compressed for each extracted RGB pixel, and the motion blur-relieved original image is output.

이때, 모션 블러 보정부(420)에서 디노이징 오토인코더에 대해 도 3을 참조로 설명한다.At this time, the denoising autoencoder in the motion blur compensator 420 will be described with reference to FIG. 3 .

도 3은 본 발명의 실시예에 따른 디노이징 오토인코더의 예시도이다.3 is an exemplary diagram of a denoising autoencoder according to an embodiment of the present invention.

도 3에 도시된 바와 같이, 본 발명의 디노이징 오토인코더는 하나의 단일 인공신경망 또는 직렬로 연결된 다수의 인공신경망으로 구성될 수 있다. 그리고 디노이징 오토인코더의 입력 크기와 출력 크기가 같아지도록 설계된다.As shown in FIG. 3 , the denoising autoencoder of the present invention may be composed of one single artificial neural network or a plurality of artificial neural networks connected in series. And it is designed so that the input size and output size of the denoising autoencoder are the same.

인코더(422)를 이용하여 다차원의 입력 데이터인 이미지를 은닉 계층(423)에서 저차원 부호로 축소시켜 입력 데이터에 대한 특징을 추출한다. 그리고, 디코더(424)를 이용하여 다시 저차원 부호를 처음 입력한 다차원 데이터로 복원한다. By using the encoder 422 , an image that is multidimensional input data is reduced to a low-dimensional code in the hidden layer 423 to extract features of the input data. Then, using the decoder 424, the low-dimensional code is restored to the first input multidimensional data.

이때, 인코더(422)의 네트워크 부피 즉, 파라미터 개수가 은닉 계층(423)의 파라미터 개수보다 많고, 디코더(423)의 파라미터 개수 또한 은닉 계층(423)의 파라미터 개수보다 많도록 구성한다. 본 발명의 실시예에서는 네트워크 부피 즉, 파라미터 개수의 차이 표현은 각 구성 요소의 블록 길이로 표현하였으나, 반드시 이와 같이 구현되는 것은 아닌다.In this case, the network volume of the encoder 422 , that is, the number of parameters is greater than the number of parameters of the hidden layer 423 , and the number of parameters of the decoder 423 is also greater than the number of parameters of the hidden layer 423 . In the embodiment of the present invention, the network volume, ie, the difference in the number of parameters, is expressed by the block length of each component, but it is not necessarily implemented in this way.

이때, 인코더(422)로 입력되는 이미지는 노이즈 삽입 모듈(421)에서 원본 이미지에 노이즈가 삽입된 이미지를 의미한다. 노이즈 삽입 모듈(421)이 원본 데이터에 노이즈를 삽입하는 방법은 이미 알려진 기술로, 본 발명의 실시예에서는 어느 하나의 방법으로 한정하지 않는다.In this case, the image input to the encoder 422 means an image in which noise is inserted into the original image by the noise insertion module 421 . A method for the noise insertion module 421 to insert noise into original data is a known technique, and the embodiment of the present invention is not limited to any one method.

디코더(423)에서 복원된 출력 이미지와 노이즈가 추가되지 않은 원본 이미지를 비교함으로써, 디노이징 오토인코더가 학습된다. 이와 같이 입력한 데이터에 비해 정보의 차원이 줄기 때문에 노이즈 성분을 제거할 수 있는 것이다. 그리고 해당 과정에서 입력과 출력값이 최대한 같아지도록 튜닝함으로써 모션 블러 보정부(420)는 원본 이미지의 특징을 잘 추출할 수 있다.By comparing the output image reconstructed by the decoder 423 with the original image to which noise is not added, the denoising autoencoder is learned. Since the dimension of information is reduced compared to the input data in this way, the noise component can be removed. In addition, by tuning the input and output values to be the same as possible in the process, the motion blur compensator 420 can extract the features of the original image well.

상술한 영상 보정 시스템(400)을 이용하여 사용자 영상 수집 장치(300)가 수집한 사용자 영상을 보정하는 방법에 대해 도 4를 참조로 설명한다.A method of correcting a user image collected by the user image collecting apparatus 300 using the above-described image correction system 400 will be described with reference to FIG. 4 .

도 4는 본 발명의 실시예에 따른 영상 보정 방법에 대한 흐름도이다.4 is a flowchart of an image correction method according to an embodiment of the present invention.

도 4에 도시된 바와 같이, 영상 보정 시스템(400)은 회전각 학습 데이터로 회전각 보정부(410)를 구성하는 심층 합성곱 신경망을 학습시키고, 모션 블러 학습 데이터로 디노이징 오토인코더를 각각 학습시킨다(S100). As shown in FIG. 4 , the image correction system 400 trains the deep convolutional neural network constituting the rotation angle correction unit 410 with the rotation angle learning data, and learns the denoising autoencoder with the motion blur learning data, respectively. make it (S100).

즉, 영상 보정 시스템(400)은 회전각 학습 데이터에 포함된 이미지가 입력되면, 회전각 학습 데이터에 포함되어 있는 해당 이미지의 특징 정보가 추출되도록 회전각 보정부(410)의 심층 합성곱 신경망을 학습시킨다. That is, the image correction system 400 uses the deep convolutional neural network of the rotation angle correction unit 410 so that, when an image included in the rotation angle learning data is input, feature information of the corresponding image included in the rotation angle learning data is extracted. learn

그리고, 영상 보정 시스템(400)은 모션 블러 학습 데이터에 포함된 원본 이미지에 노이즈가 삽입된 노이즈 삽입 이미지가 모션 블러 보정부(420)에 입력되면, 노이즈 삽입 이미지를 모션 블러 보정하여 복원된 이미지를 출력한다. 이렇게 출력된 이미지는 원본 이미지와 비교하며, 노이즈 삽입 이미지가 원본 이미지와 동일해 질 때까지 모션 블러 보정부(420)를 학습시킨다.And, when the image correction system 400 is input to the motion blur compensating unit 420 when the noise-inserted image in which the noise is inserted into the original image included in the motion blur learning data is input to the motion-blur compensating unit 420, the image is restored by correcting the motion blur of the noise-inserted image. print out The output image is compared with the original image, and the motion blur compensating unit 420 is trained until the noise-inserted image becomes the same as the original image.

영상 보정 시스템(400)이 회전각 보정부(410)와 모션 블러 보정부(420)를 각각 학습시키면, 원격에 설치된 사용자 영상 수집 장치(300)는 사용자가 트레이닝 영상을 시청하며 따라 하는 사용자 트레이닝 영상을 수집한다(S110). 사용자 영상 수집 장치(300)가 수집한 사용자 트레이닝 영상에는 영상뿐만 아니라 사용자 영상 수집 장치(300)의 식별 정보도 포함될 수 있다.When the image correction system 400 learns the rotation angle correcting unit 410 and the motion blur correcting unit 420, respectively, the remotely installed user image collecting device 300 is a user training image that the user follows while watching the training image. is collected (S110). The user training image collected by the user image collecting device 300 may include not only an image but also identification information of the user image collecting device 300 .

사용자 영상 수집 장치(300)는 S110 단계에서 수집한 사용자 트레이닝 영상을 영상 보정 시스템(400)으로 전송한다(S120). 영상 보정 시스템(400)은 S120 단계에서 수신한 사용자 트레이닝 영상으로부터 복수의 이미지들을 추출한다(S130). 본 발명의 실시예에서는 사용자 트레이닝 영상을 구성하는 복수의 이미지들을 추출하여 영상을 보정하는데 사용하는 것을 예로 하여 설명하나, 영상 자체를 보정할 수도 있다.The user image collecting device 300 transmits the user training image collected in step S110 to the image correction system 400 (S120). The image correction system 400 extracts a plurality of images from the user training image received in step S120 (S130). In the embodiment of the present invention, it is described as an example of extracting a plurality of images constituting the user training image and using it to correct the image, but the image itself may be corrected.

영상 보정 시스템(400)은 S130 단계에서 추출한 각 이미지로부터 RGB 픽셀 값을 추출한다. 이미지에서 R, G, B의 픽셀 값을 추출하는 방법은 다양한 방법으로 실행될 수 있으므로, 본 발명의 실시예에서는 어느 하나의 방법으로 한정하지 않는다.The image correction system 400 extracts RGB pixel values from each image extracted in step S130 . Since the method of extracting the pixel values of R, G, and B from the image may be performed in various ways, the embodiment of the present invention is not limited to any one method.

영상 보정 시스템(400)은 S130 단계에서 추출한 각 이미지의 특징 정보를 추출하고, 추출한 이미지의 특징 정보를 기초로 이미지의 회전각을 추정한다(S150). 본 발명의 실시예에서는 사용자 영상 수집 장치(300)의 기울기 정도와 영상에 등장한 사용자의 기울기 정도 등을 기초로 이미지의 회전각을 추정하는 것을 예로 하여 설명한다. 그러나, 회전각을 추정하는 방법은 다양한 방식으로 추정할 수 있으므로, 본 발명의 실시예에서는 어느 하나의 방법으로 한정하지 않는다.The image correction system 400 extracts the characteristic information of each image extracted in step S130, and estimates the rotation angle of the image based on the characteristic information of the extracted image (S150). In the embodiment of the present invention, estimating the rotation angle of the image based on the degree of inclination of the user image collecting apparatus 300 and the degree of inclination of the user appearing in the image will be described as an example. However, since the method of estimating the rotation angle can be estimated in various ways, the embodiment of the present invention is not limited to any one method.

영상 보정 시스템(400)은 S150 단계에서 추정한 이미지의 회전각을 기초로 S130 단계에서 추출한 이미지의 회전각을 보정한다(S160). 즉, 영상 보정 시스템(400)은 S150 단계에서 추정한 회전각의 값에 -1을 곱하여 역방향으로 이미지를 회전시켜, 회전 반향을 보정한다.The image correction system 400 corrects the rotation angle of the image extracted in step S130 based on the rotation angle of the image estimated in step S150 ( S160 ). That is, the image correction system 400 rotates the image in the reverse direction by multiplying the value of the rotation angle estimated in step S150 by -1 to correct the rotational reflection.

이와 같이 회전각이 보정되면, 영상 보정 시스템(400)은 회전각이 보정된 이미지로부터 RGB 픽셀값을 재 추출한다(S170). 이는, 이미지의 회전은 보정되었으나, 이미지에 모션 블러에 의한 영향이 남아있을 수 있기 때문이다.When the rotation angle is corrected in this way, the image correction system 400 re-extracts RGB pixel values from the image for which the rotation angle is corrected ( S170 ). This is because the rotation of the image has been corrected, but the effect of motion blur may remain on the image.

따라서, 영상 보정 시스템(400)은 S170 단계에서 추출한 R 필드, G 필드, B 필드 각각의 픽셀 값을 압축하여, 이미지의 특징을 추출한다(S180). 이를 위해, S100 단계에서 학습된 디노이징 오토인코더에 S170 단계에서 추출한 RGB 픽셀값으로부터 추출한 이미지 특징을 입력하여, 모션 블러가 보정된 즉, 노이즈가 제거된 이미지를 출력한다(S190).Accordingly, the image correction system 400 extracts image features by compressing the pixel values of the R field, G field, and B field extracted in step S170 ( S180 ). To this end, the image features extracted from the RGB pixel values extracted in step S170 are input to the denoising autoencoder learned in step S100, and an image in which motion blur is corrected, that is, noise is removed, is output (S190).

이와 같이 모션 블러가 보정된 원본 이미지가 출력되면, 영상 보정 시스템(400)은 보정된 복수의 원본 이미지로부터 원본 사용자 트레이닝 영상을 생성할 수 있다(S200). 본 발명의 실시예에서는 설명의 편의를 위하여 영상을 보정하는 절차까지만 나타내었으나, S200 단계에서 생성한 원본 사용자 트레이닝 영상을 트레이너의 디바이스(200)를 통해 트레이너에게 제공함으로써, 비대면으로 사용자가 취하는 트레이닝 동작을 제어할 수 있다.When the motion blur-corrected original image is output as described above, the image correction system 400 may generate an original user training image from the plurality of corrected original images ( S200 ). In the embodiment of the present invention, only the procedure for correcting the image is shown for convenience of explanation, but by providing the original user training image generated in step S200 to the trainer through the trainer's device 200, training that the user takes non-face-to-face You can control the action.

도 5는 본 발명의 실시예에 따른 컴퓨팅 장치의 구조도이다.5 is a structural diagram of a computing device according to an embodiment of the present invention.

도 5에 도시된 바와 같이, 영상 보정 시스템(400)은 적어도 하나의 프로세서에 의해 동작하는 컴퓨팅 장치(700)에서, 본 발명의 동작을 실행하도록 기술된 명령들(instructions)이 포함된 프로그램을 실행한다. As shown in FIG. 5 , the image correction system 400 executes a program including instructions described to execute the operations of the present invention in the computing device 700 operated by at least one processor. do.

컴퓨팅 장치(700)의 하드웨어는 적어도 하나의 프로세서(710), 메모리(720), 스토리지(730), 통신 인터페이스(740)를 포함할 수 있고, 버스를 통해 연결될 수 있다. 이외에도 입력 장치 및 출력 장치 등의 하드웨어가 포함될 수 있다. 컴퓨팅 장치(700)는 프로그램을 구동할 수 있는 운영 체제를 비롯한 각종 소프트웨어가 탑재될 수 있다.The hardware of the computing device 700 may include at least one processor 710 , a memory 720 , a storage 730 , and a communication interface 740 , and may be connected through a bus. In addition, hardware such as an input device and an output device may be included. The computing device 700 may be loaded with various software including an operating system capable of driving a program.

프로세서(710)는 컴퓨팅 장치(700)의 동작을 제어하는 장치로서, 프로그램에 포함된 명령들을 처리하는 다양한 형태의 프로세서(710)일 수 있고, 예를 들면, CPU(Central Processing Unit), MPU(Micro Processor Unit), MCU(Micro Controller Unit), GPU(Graphic Processing Unit) 등 일 수 있다. 메모리(720)는 본 발명의 동작을 실행하도록 기술된 명령들이 프로세서(710)에 의해 처리되도록 해당 프로그램을 로드한다. 메모리(720)는 예를 들면, ROM(read only memory), RAM(random access memory) 등 일 수 있다. 스토리지(730)는 본 발명의 동작을 실행하는데 요구되는 각종 데이터, 프로그램 등을 저장한다. 통신 인터페이스(740)는 유/무선 통신 모듈일 수 있다.The processor 710 is a device for controlling the operation of the computing device 700, and may be a processor 710 of various types that processes instructions included in a program, for example, a central processing unit (CPU), an MPU (Central Processing Unit) It may be a micro processor unit), a micro controller unit (MCU), a graphic processing unit (GPU), or the like. The memory 720 loads the corresponding program so that the instructions described to execute the operation of the present invention are processed by the processor 710 . The memory 720 may be, for example, read only memory (ROM), random access memory (RAM), or the like. The storage 730 stores various data, programs, etc. required for executing the operation of the present invention. The communication interface 740 may be a wired/wireless communication module.

이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.Although the embodiments of the present invention have been described in detail above, the scope of the present invention is not limited thereto. is within the scope of the right.

Claims (10)

적어도 하나의 프로세서에 의해 동작하는 영상 보정 시스템이 사용자 영상 수집 장치가 수집한 사용자 트레이닝 영상을 보정하는 방법으로서,입력된 이미지에 대한 특징 정보를 추출하고, 상기 추출한 특징 정보에 이미지의 회전각을 매핑한 회전각 학습 데이터를 생성하는 단계,상기 회전각 학습 데이터를 이용하여 합성곱 신경망을 학습시키는 단계,상기 이미지에 노이즈를 삽입하고, 노이즈가 삽입된 이미지에 상기 이미지를 매핑하여 모션 블러 학습 데이터를 생성하는 단계,상기 모션 블러 학습 데이터를 이용하여 디노이징 오토인코더를 학습시키는 단계, 그리고상기 사용자 영상 수집 장치로부터 사용자 트레이닝 영상 또는 재활 영상을 수신하고, 학습된 합성곱 신경망과 디노이징 오토인코더를 이용하여 상기 사용자 트레이닝 영상 또는 재활 영상을 보정하는 단계를 포함하는, 영상 보정 방법.A method for calibrating a user training image collected by a user image collection device by an image correction system operated by at least one processor, wherein feature information for an input image is extracted, and a rotation angle of the image is mapped to the extracted feature information Generating one rotation angle learning data, Training a convolutional neural network using the rotation angle learning data, inserting noise into the image, and mapping the image to the image into which the noise is inserted to obtain motion blur learning data generating, learning a denoising autoencoder using the motion blur learning data, and receiving a user training image or rehabilitation image from the user image collection device, and using the learned convolutional neural network and denoising autoencoder Comprising the step of correcting the user training image or the rehabilitation image, the image correction method. 제1항에 있어서,상기 합성곱 신경망을 학습시키는 단계는,상기 이미지로부터 RGB 픽셀 값을 추출하는 단계,상기 RGB 픽셀 값 별로 상기 이미지의 특징 정보를 추출하는 단계, 그리고상기 이미지의 특징 정보가 입력되면 상기 매핑된 회전각이 출력되도록 상기 합성곱 신경망을 학습시키는 단계를 포함하는, 영상 보정 방법.The method of claim 1 , wherein the training of the convolutional neural network comprises: extracting RGB pixel values from the image; extracting feature information of the image for each RGB pixel value; and inputting feature information of the image. Including the step of training the convolutional neural network to output the mapped rotation angle when the image correction method. 제2항에 있어서,상기 디노이징 오토인코더를 학습시키는 단계는,상기 노이즈가 삽입된 이미지로부터 RGB 픽셀값을 추출하는 단계, 그리고상기 RGB 픽셀 값 별로 상기 이미지의 특징 정보를 압축하여 모션 블러가 보정된 이미지가 출력되도록 상기 디노이징 오토인코더를 학습시키는 단계를 포함하는, 영상 보정 방법.The method of claim 2, wherein the learning of the denoising autoencoder comprises: extracting RGB pixel values from the noise-inserted image; Comprising the step of learning the denoising autoencoder so that the image is output, image correction method. 제3항에 있어서,상기 사용자 트레이닝 영상 또는 재활 영상을 보정하는 단계는,상기 수신한 사용자 트레이닝 영상 또는 재활 영상으로부터 복수의 이미지들을 추출하는 단계,각 이미지로부터 회전각을 추정하고, 추정한 회전각만큼 역방향으로 회전시켜 회전 방향을 보정하는 단계, 상기 회전 방향이 보정된 이미지에 노이즈를 삽입하여 상기 디노이징 오토인코더로 입력하는 단계, 그리고상기 디노이징 오토인코더에서 상기 노이즈가 제거된 각 이미지로부터 보정한 사용자 트레이닝 영상 또는 재활 영상을 생성하는 단계를 포함하는, 영상 보정 방법.According to claim 3, Correcting the user training image or rehabilitation image, Extracting a plurality of images from the received user training image or rehabilitation image, Estimating a rotation angle from each image, and the estimated rotation angle correcting the rotation direction by rotating it in the reverse direction as much as possible, inserting noise into the image whose rotation direction is corrected and inputting it into the denoising autoencoder, and correcting from each image from which the noise is removed in the denoising autoencoder An image correction method comprising the step of generating a user training image or a rehabilitation image. 적어도 하나의 프로세서에 의해 동작하며 사용자의 트레이닝 영상 또는 재활 영상을 보정하는 시스템으로서,영상 수집 장치가 수집한 트레이닝 영상 또는 재활 영상을 수신하고, 상기 트레이닝 영상 또는 재활 영상으로부터 추출한 복수의 이미지들의 회전각을 보정하여 회전각이 보정된 이미지를 생성하는 회전각 보정부, 그리고상기 회전각 보정부로부터 상기 회전각이 보정된 이미지를 전달받고, 상기 회전각이 보정된 이미지의 모션 블러를 보정한 후 트레이닝 영상 또는 재활 영상으로 생성하는 모션 블러 보정부를 포함하며,상기 회전각 보정부는 이미지와 회전각이 매핑되어 있는 회전각 학습 데이터를 기초로 상기 이미지가 입력되면 상기 매핑되어 있는 회전각을 출력하도록 학습되어 있고,상기 모션 블러 보정부는 원본 이미지와 노이즈가 삽입된 이미지가 매핑되어 있는 모션 블러 학습 데이터를 이용하여 상기 노이즈가 삽입된 이미지가 입력되면 상기 원본 이미지를 출력하도록 학습되어 있는, 영상 보정 시스템.A system that operates by at least one processor and corrects a user's training or rehabilitation image, Receives a training image or a rehabilitation image collected by an image collection device, and rotates angles of a plurality of images extracted from the training image or the rehabilitation image A rotation angle correction unit generating an image with a corrected rotation angle by correcting for, and receiving the image with the rotation angle corrected from the rotation angle correction unit, correcting the motion blur of the rotation angle corrected image, and training Comprising a motion blur compensator for generating an image or a rehabilitation image, The rotation angle correction unit is learned to output the mapped rotation angle when the image is input based on the rotation angle learning data to which the image and the rotation angle are mapped. and wherein the motion blur compensator is trained to output the original image when the noise-inserted image is input using motion blur learning data in which the original image and the noise-inserted image are mapped. 제5항에 있어서,상기 회전각 보정부는 복수의 심층 합성곱 신경망으로 구현되며,상기 모션 블러 보정부는 디노이징 오토인코더로 구현되는, 영상 보정 시스템.The image correction system of claim 5 , wherein the rotation angle correction unit is implemented as a plurality of deep convolutional neural networks, and the motion blur correction unit is implemented as a denoising autoencoder. 제6항에 있어서,상기 회전각 보정부는,상기 복수의 이미지들로부터 RGB 픽셀 값을 추출하고, 상기 RGB 픽셀별로 이미지 특징 정보를 추출하며, 상기 이미지 특징 정보를 기초로 상기 복수의 이미지들의 회전각을 추정하는, 영상 보정 시스템.The rotation angle of the plurality of images according to claim 6 , wherein the rotation angle correcting unit extracts RGB pixel values from the plurality of images, extracts image characteristic information for each RGB pixel, and rotates angles of the plurality of images based on the image characteristic information. Estimating, image correction system. 제7항에 있어서,상기 회전각 보정부는,상기 추정한 회전각의 역 방향으로 상기 복수의 이미지들을 회전시켜 회전각을 보정하는, 영상 보정 시스템.The image correction system of claim 7 , wherein the rotation angle correcting unit corrects the rotation angle by rotating the plurality of images in a direction opposite to the estimated rotation angle. 제8항에 있어서,상기 모션 블러 보정부는,상기 회전각이 보정된 이미지로부터 RGB 픽셀 값을 추출하고, 추출한 RGB 픽셀별로 노이즈를 삽입하며, 상기 노이즈가 삽입된 RGB 픽셀을 축소시켜 상기 노이즈가 삽입된 이미지의 특징을 추출하는, 영상 보정 시스템.The method of claim 8, wherein the motion blur compensator extracts RGB pixel values from the image in which the rotation angle is corrected, inserts noise for each extracted RGB pixel, and reduces the noise-inserted RGB pixels to insert the noise. An image correction system that extracts the features of the image. 제9항에 있어서,상기 모션 블러 보정부는,상기 노이즈가 삽입된 이미지의 특징을 복원하고, 복원한 이미지와 상기 회전각이 보정된 이미지를 비교하여 상기 추가된 노이즈 성분을 제거하는, 영상 보정 시스템.The image correction system of claim 9 , wherein the motion blur compensator restores features of the image in which the noise is inserted, and removes the added noise component by comparing the restored image with the image in which the rotation angle is corrected. .
KR1020210017547A 2021-02-08 2021-02-08 System and method for deep learning based image correction for non-face-to-face training and non-face-to-face rehabilitation KR102453095B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210017547A KR102453095B1 (en) 2021-02-08 2021-02-08 System and method for deep learning based image correction for non-face-to-face training and non-face-to-face rehabilitation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210017547A KR102453095B1 (en) 2021-02-08 2021-02-08 System and method for deep learning based image correction for non-face-to-face training and non-face-to-face rehabilitation

Publications (3)

Publication Number Publication Date
KR20220114264A true KR20220114264A (en) 2022-08-17
KR102453095B1 KR102453095B1 (en) 2022-10-07
KR102453095B9 KR102453095B9 (en) 2022-12-05

Family

ID=83110860

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210017547A KR102453095B1 (en) 2021-02-08 2021-02-08 System and method for deep learning based image correction for non-face-to-face training and non-face-to-face rehabilitation

Country Status (1)

Country Link
KR (1) KR102453095B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102176273B1 (en) * 2019-07-04 2020-11-09 재단법인대구경북과학기술원 Method, system and computer program for video upright adjustment

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102176273B1 (en) * 2019-07-04 2020-11-09 재단법인대구경북과학기술원 Method, system and computer program for video upright adjustment

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Kavya Gupta et al., Motion blur removal via coupled autoencoder, 2017 IEEE International Conference on Image Processing (ICIP), 17-20 Sept. 2017(2017.09.17.) 1부.* *

Also Published As

Publication number Publication date
KR102453095B1 (en) 2022-10-07
KR102453095B9 (en) 2022-12-05

Similar Documents

Publication Publication Date Title
CN107485844B (en) Limb rehabilitation training method and system and embedded equipment
US8675926B2 (en) Distinguishing live faces from flat surfaces
US20080123975A1 (en) Abnormal Action Detector and Abnormal Action Detecting Method
CN109167997B (en) Video quality diagnosis system and method
CN111475797A (en) Method, device and equipment for generating confrontation image and readable storage medium
CN113497901A (en) System and method for motion warping using multiple exposure frames
US20100131445A1 (en) Method of data transmission with differential data fusion
CN113766143B (en) Light detection chip, image processing device and operation method thereof
US7489728B2 (en) Apparatus and method for coding moving image
CN111985281A (en) Image generation model generation method and device and image generation method and device
CN102339461A (en) Method and equipment for enhancing image
KR20220015964A (en) Methods and systems for restoration of lost image features for visual odometry applications
KR102453095B1 (en) System and method for deep learning based image correction for non-face-to-face training and non-face-to-face rehabilitation
CN113628090B (en) Anti-interference message steganography and extraction method, system, computer equipment and terminal
US20230196739A1 (en) Machine learning device and far-infrared image capturing device
CN117173232A (en) Depth image acquisition method, device and equipment
CN110366849B (en) Image processing apparatus and image processing method
JP2009244944A (en) Image-recovering apparatus and photographing apparatus
CN114140349A (en) Method and device for generating interference image
KR20220110463A (en) Server, method and program for recognizing motion errors generated in 3D animation using AI
CN113012071B (en) Image out-of-focus deblurring method based on depth perception network
CN113205464B (en) Image deblurring model generation method, image deblurring method and electronic equipment
CN110213457B (en) Image transmission method and device
CN109587474B (en) Distortion recovery degree-based no-reference video quality evaluation method and device
CN114093007A (en) Binocular camera face image abnormity monitoring method and system

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
G170 Re-publication after modification of scope of protection [patent]