KR20220114264A - System and method for deep learning based image correction for non-face-to-face training and non-face-to-face rehabilitation - Google Patents
System and method for deep learning based image correction for non-face-to-face training and non-face-to-face rehabilitation Download PDFInfo
- Publication number
- KR20220114264A KR20220114264A KR1020210017547A KR20210017547A KR20220114264A KR 20220114264 A KR20220114264 A KR 20220114264A KR 1020210017547 A KR1020210017547 A KR 1020210017547A KR 20210017547 A KR20210017547 A KR 20210017547A KR 20220114264 A KR20220114264 A KR 20220114264A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- rotation angle
- training
- noise
- user
- Prior art date
Links
- 238000012549 training Methods 0.000 title claims abstract description 63
- 238000003702 image correction Methods 0.000 title claims abstract description 44
- 238000000034 method Methods 0.000 title claims abstract description 37
- 238000013135 deep learning Methods 0.000 title description 5
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 23
- 238000013507 mapping Methods 0.000 claims abstract description 4
- 239000000284 extract Substances 0.000 claims description 18
- 238000012937 correction Methods 0.000 claims description 15
- 238000010586 diagram Methods 0.000 description 8
- 230000000694 effects Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 238000003780 insertion Methods 0.000 description 2
- 230000037431 insertion Effects 0.000 description 2
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/001—Image restoration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformation in the plane of the image
- G06T3/60—Rotation of a whole image or part thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
Description
본 발명은 비대면 트레이닝과 비대면 재활을 위한 딥러닝 기반 영상 보정 시스템 및 방법에 관한 것이다.The present invention relates to a deep learning-based image correction system and method for non-face-to-face training and non-face-to-face rehabilitation.
최근 유행하는 전염병의 지역 사회 확산을 막기 위해, 사회적 거리 두기가 실시되고 있다. 사회적 거리 두기에 따라 사람들은 재택 근무나 집단 행사, 또는 모임을 삼가는 추세이다.In order to prevent the spread of the recent epidemic in the community, social distancing is being implemented. Due to social distancing, people tend to avoid working from home, group events, or gatherings.
그러나 환자의 건강 상태나 건강관리 능력을 향상시키는 재활 트레이닝 또는 피트니스 센터 등에서 트레이너와 함께 진행하는 트레이닝은 환자 또는 센터 회원에 맞춤형으로 진행되기 때문에, 비대면으로 트레이닝 서비스를 제공하기 어렵다. 그럼에도, 사회적 거리 두기에 의해, 일부 지자체에서 지역 사회 중심의 재활 사업의 일환 또는 운동 증진을 위해 비대면 트레이닝을 위한 서비스를 제공하고 있다.However, it is difficult to provide a non-face-to-face training service because the rehabilitation training to improve the patient's health condition or health management ability or the training conducted with a trainer in a fitness center is customized to the patient or center member. Nevertheless, due to social distancing, some local governments are providing services for non-face-to-face training as part of community-oriented rehabilitation projects or to promote exercise.
비대면 트레이닝을 제공하기 위해서는, 환자 또는 사용자가 디바이스를 통해 제공되는 영상을 보고 트레이닝을 하고, 트레이닝하는 환자 또는 사용자를 촬영하여 원격의 센터에서 환자 또는 사용자의 영상으로 트레이닝을 바르게 하고 있는지 판단하게 된다. 이와 같이 원격의 센터에서 영상으로 환자 또는 사용자의 트레이닝 이행 여부를 확인하기 위해서는, 영상 인식 기법이 사용되어야 한다.In order to provide non-face-to-face training, the patient or user performs training by viewing the image provided through the device, and by photographing the training patient or user, it is determined whether training is being performed correctly with the patient or user's image at a remote center. . In this way, in order to check whether a patient or a user performs training with an image in a remote center, an image recognition technique must be used.
그러나 현재 영상인식 기법은 피사체 즉 환자 또는 사용자의 움직임과 카메라의 회전 등으로 인하여, 환자 또는 사용자의 모션 인식률이 저하되는 상황이 자주 발생한다. However, in the current image recognition technique, the motion recognition rate of the patient or user is often lowered due to the movement of the subject, that is, the patient or user and the rotation of the camera.
이를 해결하기 위해 영상인식 기법에 인공지능 모델을 접목하여 환자 또는 사용자의 모션을 인식하려는 시도가 늘어나고 있다. 인공지능 모델은 이미지와 영상의 픽셀 값을 토대로 영상인식 알고리즘을 구동하는데, 회전된 이미지와 흐려진 이미지에 대해서 인식률이 낮아지는 현상이 발생한다.To solve this problem, attempts to recognize the motion of a patient or user by grafting an artificial intelligence model to the image recognition technique are increasing. The artificial intelligence model drives the image recognition algorithm based on the image and the pixel values of the image, but the recognition rate decreases for the rotated image and the blurred image.
따라서, 본 발명은 비대면 재활 서비스를 제공하기 위하여, 딥러닝 기반으로 영상 회전과 모션 블러를 보정할 수 있는 비대면 트레이닝과 비대면 재활을 위한 딥러닝 기반 영상 보정 시스템 및 방법을 제공한다.Accordingly, the present invention provides a deep learning-based image correction system and method for non-face-to-face training and non-face-to-face rehabilitation capable of correcting image rotation and motion blur based on deep learning in order to provide a non-face-to-face rehabilitation service.
상기 본 발명의 기술적 과제를 달성하기 위한 본 발명의 하나의 특징인 적어도 하나의 프로세서에 의해 동작하는 영상 보정 시스템이 사용자 영상 수집 장치가 수집한 사용자 트레이닝 영상 또는 재활 영상을 보정하는 방법으로서,As a method of correcting a user training image or rehabilitation image collected by a user image collection device by an image correction system operated by at least one processor, which is one feature of the present invention for achieving the technical problem of the present invention,
입력된 이미지에 대한 특징 정보를 추출하고, 상기 추출한 특징 정보에 이미지의 회전각을 매핑한 회전각 학습 데이터를 생성하는 단계, 상기 회전각 학습 데이터를 이용하여 합성곱 신경망을 학습시키는 단계, 상기 이미지에 노이즈를 삽입하고, 노이즈가 삽입된 이미지에 상기 이미지를 매핑하여 모션 블러 학습 데이터를 생성하는 단계, 상기 모션 블러 학습 데이터를 이용하여 디노이징 오토인코더를 학습시키는 단계, 그리고 상기 사용자 영상 수집 장치로부터 사용자 트레이닝 영상 또는 재활 영상을 수신하고, 학습된 합성곱 신경망과 디노이징 오토인코더를 이용하여 상기 사용자 트레이닝 영상 또는 재활 영상을 보정하는 단계를 포함한다.extracting feature information on the input image, generating rotation angle learning data by mapping the rotation angle of the image to the extracted feature information, learning a convolutional neural network using the rotation angle learning data, the image generating motion blur learning data by inserting noise into the image and mapping the image to the noise-inserted image, learning the denoising autoencoder using the motion blur learning data, and from the user image collecting device and receiving a user training image or rehabilitation image, and correcting the user training image or rehabilitation image using a learned convolutional neural network and a denoising autoencoder.
상기 합성곱 신경망을 학습시키는 단계는, 상기 이미지로부터 RGB 픽셀 값을 추출하는 단계, 상기 RGB 픽셀 값 별로 상기 이미지의 특징 정보를 추출하는 단계, 그리고 상기 이미지의 특징 정보가 입력되면 상기 매핑된 회전각이 출력되도록 상기 합성곱 신경망을 학습시키는 단계를 포함할 수 있다.The training of the convolutional neural network may include extracting RGB pixel values from the image, extracting feature information of the image for each RGB pixel value, and when feature information of the image is input, the mapped rotation angle It may include training the convolutional neural network to output this.
상기 디노이징 오토인코더를 학습시키는 단계는, 상기 노이즈가 삽입된 이미지로부터 RGB 픽셀값을 추출하는 단계, 그리고 상기 RGB 픽셀 값 별로 상기 이미지의 특징 정보를 압축하여 모션 블러가 보정된 이미지가 출력되도록 상기 디노이징 오토인코더를 학습시키는 단계를 포함할 수 있다.The step of learning the denoising autoencoder may include extracting RGB pixel values from the noise-inserted image, and compressing feature information of the image for each RGB pixel value so that an image with motion blur correction is output. It may include the step of learning the denoising autoencoder.
상기 사용자 트레이닝 영상 또는 재활 영상을 보정하는 단계는, 상기 수신한 사용자 트레이닝 영상 또는 재활 영상으로부터 복수의 이미지들을 추출하는 단계, 각 이미지로부터 회전각을 추정하고, 추정한 회전각만큼 역방향으로 회전시켜 회전 방향을 보정하는 단계, 상기 회전 방향이 보정된 이미지에 노이즈를 삽입하여 상기 디노이징 오토인코더로 입력하는 단계, 그리고 상기 디노이징 오토인코더에서 상기 노이즈가 제거된 각 이미지로부터 보정한 사용자 트레이닝 영상을 생성하는 단계를 포함할 수 있다.The step of correcting the user training image or rehabilitation image may include extracting a plurality of images from the received user training image or rehabilitation image, estimating a rotation angle from each image, and rotating by rotating in the reverse direction by the estimated rotation angle Correcting the direction, inserting noise into the image in which the rotation direction is corrected, inputting the noise to the denoising autoencoder, and generating a corrected user training image from each image from which the noise is removed in the denoising autoencoder may include the step of
상기 본 발명의 기술적 과제를 달성하기 위한 본 발명의 또 다른 특징인 적어도 하나의 프로세서에 의해 동작하며 트레이닝 영상 또는 재활 영상을 보정하는 시스템으로서,As a system that operates by at least one processor, which is another feature of the present invention for achieving the technical problem of the present invention, and corrects a training image or a rehabilitation image,
영상 수집 장치가 수집한 트레이닝 영상 또는 재활 영상을 수신하고, 상기 트레이닝 영상 또는 재활 영상으로부터 추출한 복수의 이미지들의 회전각을 보정하여 회전각이 보정된 이미지를 생성하는 회전각 보정부, 그리고 상기 회전각 보정부로부터 상기 회전각이 보정된 이미지를 전달받고, 상기 회전각이 보정된 이미지의 모션 블러를 보정한 후 트레이닝 영상 또는 재활 영상으로 생성하는 모션 블러 보정부를 포함하며, 상기 회전각 보정부는 이미지와 회전각이 매핑되어 있는 회전각 학습 데이터를 기초로 상기 이미지가 입력되면 상기 매핑되어 있는 회전각을 출력하도록 학습되어 있고, 상기 모션 블러 보정부는 원본 이미지와 노이즈가 삽입된 이미지가 매핑되어 있는 모션 블러 학습 데이터를 이용하여 상기 노이즈가 삽입된 이미지가 입력되면 상기 원본 이미지를 출력하도록 학습되어 있다.A rotation angle correction unit that receives the training image or rehabilitation image collected by the image collection device, and corrects the rotation angle of a plurality of images extracted from the training image or the rehabilitation image to generate an image with the rotation angle corrected, and the rotation angle and a motion blur correcting unit that receives the image with the rotation angle corrected from the correcting unit, corrects the motion blur of the image with the rotation angle corrected, and generates a training image or a rehabilitation image, wherein the rotation angle correcting unit includes an image and When the image is input based on the rotation angle learning data to which the rotation angle is mapped, it is learned to output the mapped rotation angle, and the motion blur compensator is a motion blur in which the original image and the noise-inserted image are mapped. It is learned to output the original image when the image into which the noise is inserted is input using the training data.
상기 회전각 보정부는 복수의 심층 합성곱 신경망으로 구현되며, 상기 모션 블러 보정부는 디노이징 오토인코더로 구현될 수 있다.The rotation angle correcting unit may be implemented as a plurality of deep convolutional neural networks, and the motion blur correcting unit may be implemented as a denoising autoencoder.
상기 회전각 보정부는, 상기 복수의 이미지들로부터 RGB 픽셀 값을 추출하고, 상기 RGB 픽셀별로 이미지 특징 정보를 추출하며, 상기 이미지 특징 정보를 기초로 상기 복수의 이미지들의 회전각을 추정할 수 있다.The rotation angle corrector may extract RGB pixel values from the plurality of images, extract image characteristic information for each RGB pixel, and estimate rotation angles of the plurality of images based on the image characteristic information.
상기 회전각 보정부는, 상기 추정한 회전각의 역 방향으로 상기 복수의 이미지들을 회전시켜 회전각을 보정할 수 있다.The rotation angle corrector may correct the rotation angle by rotating the plurality of images in a direction opposite to the estimated rotation angle.
상기 모션 블러 보정부는, 상기 회전각이 보정된 이미지로부터 RGB 픽셀 값을 추출하고, 추출한 RGB 픽셀별로 노이즈를 삽입하며, 상기 노이즈가 삽입된 RGB 픽셀을 축소시켜 상기 노이즈가 삽입된 이미지의 특징을 추출할 수 있다.The motion blur compensating unit extracts RGB pixel values from the image in which the rotation angle is corrected, inserts noise for each extracted RGB pixel, and reduces the noise-inserted RGB pixels to extract features of the noise-inserted image can do.
상기 모션 블러 보정부는, 상기 노이즈가 삽입된 이미지의 특징을 복원하고, 복원한 이미지와 상기 회전각이 보정된 이미지를 비교하여 상기 추가된 노이즈 성분을 제거할 수 있다.The motion blur compensator may restore a characteristic of the image in which the noise is inserted, and remove the added noise component by comparing the restored image with the image in which the rotation angle is corrected.
본 발명에 따르면, 영상인식 시스템에 합성곱 신경망 기반 영상회전 보정 알고리즘을 추가함으로써, 카메라의 회전에 따른 피사체의 회전으로 인한 인식률 저하를 완화할 수 있다. According to the present invention, by adding an image rotation correction algorithm based on a convolutional neural network to the image recognition system, it is possible to alleviate a decrease in recognition rate due to rotation of a subject according to rotation of a camera.
실시예에 따르면 디노이징 오토인코더 기법을 통해 사용자의 움직임에 따른 모션 블러를 완화할 수 있다. According to an embodiment, motion blur caused by a user's movement may be mitigated through the denoising autoencoder technique.
실시예에 따르면 두 가지 방식의 인식률 개선 알고리즘을 통해 영상인식 시스템의 인식률을 개선할 수 있다.According to an embodiment, the recognition rate of the image recognition system may be improved through two types of recognition rate improvement algorithms.
도 1은 본 발명의 실시예에 따른 영상 보정 시스템이 적용된 환경의 예시도이다. 도 2는 본 발명의 실시예에 따른 영상 보정 시스템의 구조도이다. 도 3은 본 발명의 실시예에 따른 디노이징 오토 인코더의 예시도이다. 도 4는 본 발명의 실시예에 따른 영상 보정 방법에 대한 흐름도이다. 도 5는 본 발명의 실시예에 따른 컴퓨팅 장치의 구조도이다.1 is an exemplary diagram of an environment to which an image correction system according to an embodiment of the present invention is applied. 2 is a structural diagram of an image correction system according to an embodiment of the present invention. 3 is an exemplary diagram of a denoising auto encoder according to an embodiment of the present invention. 4 is a flowchart of an image correction method according to an embodiment of the present invention. 5 is a structural diagram of a computing device according to an embodiment of the present invention.
아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art to which the present invention pertains can easily implement them. However, the present invention may be embodied in several different forms and is not limited to the embodiments described herein. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.
명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. Throughout the specification, when a part "includes" a certain component, it means that other components may be further included, rather than excluding other components, unless otherwise stated.
이하, 도면을 참조로 하여 본 발명의 실시예에 따른 비대면 트레이닝과 비대면 재활을 위한 딥러닝 기반 영상 보정 시스템 및 방법에 대해 상세히 설명한다. 여기서, 비대면 트레이닝에 홈 트레이닝 또는 비대면 재활 운동 등이 포함될 수 있으며, 본 발명의 실시예에서는 어느 하나의 트레이닝으로 한정하지 않는다.Hereinafter, a deep learning-based image correction system and method for non-face-to-face training and non-face-to-face rehabilitation according to an embodiment of the present invention will be described in detail with reference to the drawings. Here, the non-face-to-face training may include home training or non-face-to-face rehabilitation exercise, and the embodiment of the present invention is not limited to any one training.
도 1은 본 발명의 실시예에 따른 영상 보정 시스템이 적용된 환경의 예시도이다.1 is an exemplary diagram of an environment to which an image correction system according to an embodiment of the present invention is applied.
도 1에 도시된 바와 같이, 댁 내의 사용자(100)가 사용자 디바이스(예를 들어, IPTV, 모니터 등)(200)를 통해 제공되는 트레이닝 영상을 따라 트레이닝하면, 사용자 영상 수집 장치(예를 들어, 카메라, CCTV 등)(300)는 트레이닝중인 사용자의 영상을 수집한다.As shown in FIG. 1 , when the
여기서 사용자 영상 수집 장치(300)는 사용자 디바이스(200)에 포함되도록 구현될 수도 있고, 별도로 구현될 수도 있다. 별도로 구현될 경우, 사용자 디바이스(200)와 사용자 영상 수집 장치(300)는 상호 연동될 수 있다.Here, the user
사용자 영상 수집 장치(300)는 사용자의 트레이닝 모습 또는 재활하는 모습을 영상으로 촬영하고, 촬영한 영상을 원격지의 영상 보정 시스템(400)으로 전송한다. 영상 보정 시스템(400)은 심층 합성곱 신경망 기반으로 사용자 영상 수집 장치(400)의 회전각을 추정하여 영상을 보정하고, 디노이징 오토인코더(denoising autoencoder) 기반으로 모션 블러를 보정하여, 보정된 영상을 생성한다. The user
본 발명의 실시예에서는 영상 보정 시스템(400)이 원격지의 트레이너 디바이스(500)에 포함되어 있는 것을 예로 하여 설명하나, 반드시 이와 같이 한정되는 것은 아니다. 영상 보정 시스템(400)이 생성한 보정 영상을 기초로, 사용자(100)의 트레이닝을 지도하는 트레이너(600)는 사용자(100)가 바른 자세로 트레이닝 영상을 따라 하는지 확인하고, 확인한 결과에 따라 사용자(100)의 트레이닝 자세를 지도할 수 있다. 또한, 본 발명의 실시예에서는 설명의 편의를 위하여 트레이닝 영상과 재활 영상 중 트레이닝 영상을 예로 하여 설명한다.In the embodiment of the present invention, the
이상에서 설명한 환경에서, 영상을 보정하는 영상 보정 시스템(400)의 구조에 대해 도 2를 참조로 설명한다.The structure of the
도 2는 본 발명의 실시예에 따른 영상 보정 시스템의 구조도이다.2 is a structural diagram of an image correction system according to an embodiment of the present invention.
도 2에 도시된 바와 같이, 영상 보정 시스템(400)은 회전각 보정부(410)와 모션 블러 보정부(420)를 포함한다.As shown in FIG. 2 , the
회전각 보정부(410)는 사용자 영상 수집 장치(300)로부터 원본 영상을 수신하면, 원본 영상을 구성하는 프레임별로 복수의 이미지들을 추출한다. 이때, 원본 영상은 사용자가 화면에서 기울어지거나 사용자의 움직임에 따라 모션 블러 요소가 포함되어 있다.When receiving the original image from the user image collecting
회전각 보정부(410)가 원본 영상으로부터 이미지들을 추출하는 방법은 다양한 방법으로 수행할 수 있으므로, 본 발명의 실시예에서는 어느 하나의 방법으로 한정하지 않는다. 또한, 본 발명의 실시예에서는 설명의 편의를 위하여 원본 영상에서 이미지들을 추출하는 것을 예로 하여 설명하나, 원본 영상 자체를 사용할 수도 있다.Since the
회전각 보정부(410)는 원본 영상을 전달한 사용자 영상 수집 장치(300)에 매핑된 식별 정보를 확인한다. 그리고 사용자 영상 수집 장치(300)가 설치된 좌표 정보를 확인한다. 사용자 영상 수집 장치(300)에 매핑된 식별 정보와 좌표 정보는 영상 보정 시스템(400)의 데이터베이스(도면 미도시)에 등록되어 있거나, 외부에서 사용자 영상 수집 장치(300)를 관리하는 관리 서버에 등록되어 있을 수 있다.The
회전각 보정부(410)는 추출한 복수의 이미지들 각각에 대하여 RGB 픽셀 값을 확인한다. 회전각 보정부(410)가 이미지에서 RGB 픽셀 값을 확인하는 방법은 이미 알려진 것으로, 본 발명의 실시예에서는 상세한 설명을 생략한다.The
또한, 회전각 보정부(410)는 추출한 복수의 이미지들 각각의 크기와 이미지 특징에 맞게 이미지 특징 정보를 추출한다. 여기서, 이미지 특징은 사용자와 주변 사물들을 포함하는 객체들의 위치를 나타내는 좌표 정보, 사용자가 취하는 모션 정보 등을 포함하는 것을 예로 하여 설명하나, 반드시 이와 같이 한정되는 것은 아니다. Also, the rotation
회전각 보정부(410)는 복수의 이미지들 각각으로부터 이미지 특징 정보를 추출하기 위해, 복수의 심층 합성곱 신경망들로 구성된다. 이를 위해, 복수의 심층 합성곱 신경망들로 구성된 회전각 보정부(410)는 학습 데이터(이하, 설명의 편의를 위하여 '회전각 학습 데이터'라 지칭함)를 기초로 심층 합성곱 신경망들로 구현된 특징 정보 추출기들을 학습시킨다.The
여기서, 회전각 학습 데이터는 이미지와 해당 이미지의 특징 정보를 포함하며, 이미지가 특징 정보 추출기 즉, 심층 합성곱 신경망에 입력되면 해당 이미지의 특징 정보가 출력되도록 심층 합성곱 신경망을 학습시켜둔다. 회전각 학습 데이터를 이용하여 심층 합성곱 신경망을 학습시키는 방법은 이미 알려진 것으로, 본 발명의 실시예에서는 상세한 설명을 생략한다.Here, the rotation angle learning data includes an image and feature information of the image, and when the image is input to the feature information extractor, that is, the deep convolutional neural network, the deep convolutional neural network is trained so that the feature information of the image is output. A method of learning a deep convolutional neural network using rotation angle learning data is already known, and detailed description thereof will be omitted in the embodiment of the present invention.
여기서, 심층 합성곱 신경망이 다양한 방법으로 입력되는 이미지로부터 이미지 특징 정보를 추출하는 방법은 다양하게 실행될 수 있으므로, 본 발명의 실시예에서는 어느 하나의 방법으로 한정하여 설명하지 않는다.Here, a method for extracting image feature information from an image input by a deep convolutional neural network in various ways can be performed in various ways, and thus, the embodiment of the present invention will not be limited to any one method.
그리고, 회전각 보정부(410)는 이미지 특징 정보를 기초로 이미지에 대한 회전 각도를 출력한다. 회전각 보정부(410)가 이미지 특징 정보를 이용하여 이미지의 회전 각도를 출력하는 방법은 다양한 방법으로 실행할 수 있으므로, 본 발명의 실시예에서는 어느 하나의 방법으로 한정하지 않는다.Then, the
회전각 보정부(410)는 출력한 회전 각도를 기초로 이미지를 역 방향으로 회전시켜 회전 방향을 보정한다. 본 발명의 실시예에서는 출력한 회전 각도에 -1을 곱한 후, 이미지를 역 방향으로 회전시키는 것을 예로 하여 설명한다.The rotation
회전각 보정부(410)는 회전 보정한 이미지를 다시 RGB 픽셀별로 분할하여, 모션 블러 보정부(420)로 전달한다. 이때, 모션 블러 보정부(420)로 전달되는 회전 보정된 이미지의 RGB 픽셀은 회전 보정은 되어 있는 상태이나, 모션 블러에 대한 영향은 남아있는 이미지이다.The rotation
모션 블러 보정부(420)는 회전각 보정부(410)로부터 수신한 회전 보정된 이미지의 RGB 픽셀 값을 압축하여 이미지에 대한 특징을 추출한다. 그리고 추출한 특징을 기초로 모션 블러 보정부(420)가 모션 블러가 완화된 이미지를 출력한다. 이때, 모션 블러 보정부(420)는 모션 블러가 완화된 이미지를 출력하기 위해 이미지의 R 픽셀, G 픽셀, B 픽셀을 각각 인코딩하는 디노이징 오토인코더(denoising auto encoder)들로 구성된다. The
디노이징 오토인코더는 노이즈를 제거하여 학습 효과를 강화시키는 인코더로, 가우시안 잡음이 섞인 이미지를 입력으로 하고, 가우시안 잡음이 삭제된 정상적인 이미지가 출력되도록 하는 오토인코더이다. 본 발명의 실시예에서는 디노이징 오토인코더는 학습 데이터(이하, 설명의 편의를 위하여 '모션 블러 학습 데이터'라 지칭함)를 이용하여 학습된다. The denoising autoencoder is an encoder that enhances the learning effect by removing noise. It is an autoencoder that takes an image mixed with Gaussian noise as an input and outputs a normal image with Gaussian noise removed. In an embodiment of the present invention, the denoising autoencoder is learned using learning data (hereinafter, referred to as 'motion blur learning data' for convenience of explanation).
여기서, 모션 블러 학습 데이터에는 모션 블러에 의한 영향이 있는 이미지(이하, 설명의 편의를 위하여 '모션 블러 영향 이미지'라 지칭함)와, 모션 블러가 완화된 이미지(이하, 설명의 편의를 위하여 '원본 이미지'라 지칭함)가 쌍으로 포함되어 있다. 모션 블러 영향 이미지가 디노이징 오토인코더에 입력되면 원본 이미지가 출력되도록, 디노이징 오토인코더가 미리 학습되어 있다.Here, the motion blur learning data includes an image affected by motion blur (hereinafter, referred to as a 'motion blur effect image' for convenience of explanation) and an image with reduced motion blur (hereinafter, for convenience of explanation, the 'original image') images') are included in pairs. The denoising autoencoder is trained in advance so that the original image is output when the motion blur effect image is input to the denoising autoencoder.
모션 블러 보정부(420)는 기 학습시킨 디노이징 오토인코더에서 RGB 픽셀별로 모션 블러 영향 이미지 즉, 회전각 보정부(410)에서 회전각이 보정된 이미지에서 모션 블러를 완화시킨 이미지를 RGB 픽셀별로 각각 추출한다. 그리고 각각 추출한 RGB 픽셀별 모션 블러가 완화된 이미지를 압축하여, 모션 블러가 완화된 원본 이미지를 출력한다. The
이때, 모션 블러 보정부(420)에서 디노이징 오토인코더에 대해 도 3을 참조로 설명한다.At this time, the denoising autoencoder in the
도 3은 본 발명의 실시예에 따른 디노이징 오토인코더의 예시도이다.3 is an exemplary diagram of a denoising autoencoder according to an embodiment of the present invention.
도 3에 도시된 바와 같이, 본 발명의 디노이징 오토인코더는 하나의 단일 인공신경망 또는 직렬로 연결된 다수의 인공신경망으로 구성될 수 있다. 그리고 디노이징 오토인코더의 입력 크기와 출력 크기가 같아지도록 설계된다.As shown in FIG. 3 , the denoising autoencoder of the present invention may be composed of one single artificial neural network or a plurality of artificial neural networks connected in series. And it is designed so that the input size and output size of the denoising autoencoder are the same.
인코더(422)를 이용하여 다차원의 입력 데이터인 이미지를 은닉 계층(423)에서 저차원 부호로 축소시켜 입력 데이터에 대한 특징을 추출한다. 그리고, 디코더(424)를 이용하여 다시 저차원 부호를 처음 입력한 다차원 데이터로 복원한다. By using the
이때, 인코더(422)의 네트워크 부피 즉, 파라미터 개수가 은닉 계층(423)의 파라미터 개수보다 많고, 디코더(423)의 파라미터 개수 또한 은닉 계층(423)의 파라미터 개수보다 많도록 구성한다. 본 발명의 실시예에서는 네트워크 부피 즉, 파라미터 개수의 차이 표현은 각 구성 요소의 블록 길이로 표현하였으나, 반드시 이와 같이 구현되는 것은 아닌다.In this case, the network volume of the
이때, 인코더(422)로 입력되는 이미지는 노이즈 삽입 모듈(421)에서 원본 이미지에 노이즈가 삽입된 이미지를 의미한다. 노이즈 삽입 모듈(421)이 원본 데이터에 노이즈를 삽입하는 방법은 이미 알려진 기술로, 본 발명의 실시예에서는 어느 하나의 방법으로 한정하지 않는다.In this case, the image input to the
디코더(423)에서 복원된 출력 이미지와 노이즈가 추가되지 않은 원본 이미지를 비교함으로써, 디노이징 오토인코더가 학습된다. 이와 같이 입력한 데이터에 비해 정보의 차원이 줄기 때문에 노이즈 성분을 제거할 수 있는 것이다. 그리고 해당 과정에서 입력과 출력값이 최대한 같아지도록 튜닝함으로써 모션 블러 보정부(420)는 원본 이미지의 특징을 잘 추출할 수 있다.By comparing the output image reconstructed by the
상술한 영상 보정 시스템(400)을 이용하여 사용자 영상 수집 장치(300)가 수집한 사용자 영상을 보정하는 방법에 대해 도 4를 참조로 설명한다.A method of correcting a user image collected by the user
도 4는 본 발명의 실시예에 따른 영상 보정 방법에 대한 흐름도이다.4 is a flowchart of an image correction method according to an embodiment of the present invention.
도 4에 도시된 바와 같이, 영상 보정 시스템(400)은 회전각 학습 데이터로 회전각 보정부(410)를 구성하는 심층 합성곱 신경망을 학습시키고, 모션 블러 학습 데이터로 디노이징 오토인코더를 각각 학습시킨다(S100). As shown in FIG. 4 , the
즉, 영상 보정 시스템(400)은 회전각 학습 데이터에 포함된 이미지가 입력되면, 회전각 학습 데이터에 포함되어 있는 해당 이미지의 특징 정보가 추출되도록 회전각 보정부(410)의 심층 합성곱 신경망을 학습시킨다. That is, the
그리고, 영상 보정 시스템(400)은 모션 블러 학습 데이터에 포함된 원본 이미지에 노이즈가 삽입된 노이즈 삽입 이미지가 모션 블러 보정부(420)에 입력되면, 노이즈 삽입 이미지를 모션 블러 보정하여 복원된 이미지를 출력한다. 이렇게 출력된 이미지는 원본 이미지와 비교하며, 노이즈 삽입 이미지가 원본 이미지와 동일해 질 때까지 모션 블러 보정부(420)를 학습시킨다.And, when the
영상 보정 시스템(400)이 회전각 보정부(410)와 모션 블러 보정부(420)를 각각 학습시키면, 원격에 설치된 사용자 영상 수집 장치(300)는 사용자가 트레이닝 영상을 시청하며 따라 하는 사용자 트레이닝 영상을 수집한다(S110). 사용자 영상 수집 장치(300)가 수집한 사용자 트레이닝 영상에는 영상뿐만 아니라 사용자 영상 수집 장치(300)의 식별 정보도 포함될 수 있다.When the
사용자 영상 수집 장치(300)는 S110 단계에서 수집한 사용자 트레이닝 영상을 영상 보정 시스템(400)으로 전송한다(S120). 영상 보정 시스템(400)은 S120 단계에서 수신한 사용자 트레이닝 영상으로부터 복수의 이미지들을 추출한다(S130). 본 발명의 실시예에서는 사용자 트레이닝 영상을 구성하는 복수의 이미지들을 추출하여 영상을 보정하는데 사용하는 것을 예로 하여 설명하나, 영상 자체를 보정할 수도 있다.The user
영상 보정 시스템(400)은 S130 단계에서 추출한 각 이미지로부터 RGB 픽셀 값을 추출한다. 이미지에서 R, G, B의 픽셀 값을 추출하는 방법은 다양한 방법으로 실행될 수 있으므로, 본 발명의 실시예에서는 어느 하나의 방법으로 한정하지 않는다.The
영상 보정 시스템(400)은 S130 단계에서 추출한 각 이미지의 특징 정보를 추출하고, 추출한 이미지의 특징 정보를 기초로 이미지의 회전각을 추정한다(S150). 본 발명의 실시예에서는 사용자 영상 수집 장치(300)의 기울기 정도와 영상에 등장한 사용자의 기울기 정도 등을 기초로 이미지의 회전각을 추정하는 것을 예로 하여 설명한다. 그러나, 회전각을 추정하는 방법은 다양한 방식으로 추정할 수 있으므로, 본 발명의 실시예에서는 어느 하나의 방법으로 한정하지 않는다.The
영상 보정 시스템(400)은 S150 단계에서 추정한 이미지의 회전각을 기초로 S130 단계에서 추출한 이미지의 회전각을 보정한다(S160). 즉, 영상 보정 시스템(400)은 S150 단계에서 추정한 회전각의 값에 -1을 곱하여 역방향으로 이미지를 회전시켜, 회전 반향을 보정한다.The
이와 같이 회전각이 보정되면, 영상 보정 시스템(400)은 회전각이 보정된 이미지로부터 RGB 픽셀값을 재 추출한다(S170). 이는, 이미지의 회전은 보정되었으나, 이미지에 모션 블러에 의한 영향이 남아있을 수 있기 때문이다.When the rotation angle is corrected in this way, the
따라서, 영상 보정 시스템(400)은 S170 단계에서 추출한 R 필드, G 필드, B 필드 각각의 픽셀 값을 압축하여, 이미지의 특징을 추출한다(S180). 이를 위해, S100 단계에서 학습된 디노이징 오토인코더에 S170 단계에서 추출한 RGB 픽셀값으로부터 추출한 이미지 특징을 입력하여, 모션 블러가 보정된 즉, 노이즈가 제거된 이미지를 출력한다(S190).Accordingly, the
이와 같이 모션 블러가 보정된 원본 이미지가 출력되면, 영상 보정 시스템(400)은 보정된 복수의 원본 이미지로부터 원본 사용자 트레이닝 영상을 생성할 수 있다(S200). 본 발명의 실시예에서는 설명의 편의를 위하여 영상을 보정하는 절차까지만 나타내었으나, S200 단계에서 생성한 원본 사용자 트레이닝 영상을 트레이너의 디바이스(200)를 통해 트레이너에게 제공함으로써, 비대면으로 사용자가 취하는 트레이닝 동작을 제어할 수 있다.When the motion blur-corrected original image is output as described above, the
도 5는 본 발명의 실시예에 따른 컴퓨팅 장치의 구조도이다.5 is a structural diagram of a computing device according to an embodiment of the present invention.
도 5에 도시된 바와 같이, 영상 보정 시스템(400)은 적어도 하나의 프로세서에 의해 동작하는 컴퓨팅 장치(700)에서, 본 발명의 동작을 실행하도록 기술된 명령들(instructions)이 포함된 프로그램을 실행한다. As shown in FIG. 5 , the
컴퓨팅 장치(700)의 하드웨어는 적어도 하나의 프로세서(710), 메모리(720), 스토리지(730), 통신 인터페이스(740)를 포함할 수 있고, 버스를 통해 연결될 수 있다. 이외에도 입력 장치 및 출력 장치 등의 하드웨어가 포함될 수 있다. 컴퓨팅 장치(700)는 프로그램을 구동할 수 있는 운영 체제를 비롯한 각종 소프트웨어가 탑재될 수 있다.The hardware of the
프로세서(710)는 컴퓨팅 장치(700)의 동작을 제어하는 장치로서, 프로그램에 포함된 명령들을 처리하는 다양한 형태의 프로세서(710)일 수 있고, 예를 들면, CPU(Central Processing Unit), MPU(Micro Processor Unit), MCU(Micro Controller Unit), GPU(Graphic Processing Unit) 등 일 수 있다. 메모리(720)는 본 발명의 동작을 실행하도록 기술된 명령들이 프로세서(710)에 의해 처리되도록 해당 프로그램을 로드한다. 메모리(720)는 예를 들면, ROM(read only memory), RAM(random access memory) 등 일 수 있다. 스토리지(730)는 본 발명의 동작을 실행하는데 요구되는 각종 데이터, 프로그램 등을 저장한다. 통신 인터페이스(740)는 유/무선 통신 모듈일 수 있다.The
이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.Although the embodiments of the present invention have been described in detail above, the scope of the present invention is not limited thereto. is within the scope of the right.
Claims (10)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210017547A KR102453095B1 (en) | 2021-02-08 | 2021-02-08 | System and method for deep learning based image correction for non-face-to-face training and non-face-to-face rehabilitation |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210017547A KR102453095B1 (en) | 2021-02-08 | 2021-02-08 | System and method for deep learning based image correction for non-face-to-face training and non-face-to-face rehabilitation |
Publications (3)
Publication Number | Publication Date |
---|---|
KR20220114264A true KR20220114264A (en) | 2022-08-17 |
KR102453095B1 KR102453095B1 (en) | 2022-10-07 |
KR102453095B9 KR102453095B9 (en) | 2022-12-05 |
Family
ID=83110860
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210017547A KR102453095B1 (en) | 2021-02-08 | 2021-02-08 | System and method for deep learning based image correction for non-face-to-face training and non-face-to-face rehabilitation |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102453095B1 (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102176273B1 (en) * | 2019-07-04 | 2020-11-09 | 재단법인대구경북과학기술원 | Method, system and computer program for video upright adjustment |
-
2021
- 2021-02-08 KR KR1020210017547A patent/KR102453095B1/en active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102176273B1 (en) * | 2019-07-04 | 2020-11-09 | 재단법인대구경북과학기술원 | Method, system and computer program for video upright adjustment |
Non-Patent Citations (1)
Title |
---|
Kavya Gupta et al., Motion blur removal via coupled autoencoder, 2017 IEEE International Conference on Image Processing (ICIP), 17-20 Sept. 2017(2017.09.17.) 1부.* * |
Also Published As
Publication number | Publication date |
---|---|
KR102453095B1 (en) | 2022-10-07 |
KR102453095B9 (en) | 2022-12-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107485844B (en) | Limb rehabilitation training method and system and embedded equipment | |
US8675926B2 (en) | Distinguishing live faces from flat surfaces | |
US20080123975A1 (en) | Abnormal Action Detector and Abnormal Action Detecting Method | |
CN109167997B (en) | Video quality diagnosis system and method | |
CN111475797A (en) | Method, device and equipment for generating confrontation image and readable storage medium | |
CN113497901A (en) | System and method for motion warping using multiple exposure frames | |
US20100131445A1 (en) | Method of data transmission with differential data fusion | |
CN113766143B (en) | Light detection chip, image processing device and operation method thereof | |
US7489728B2 (en) | Apparatus and method for coding moving image | |
CN111985281A (en) | Image generation model generation method and device and image generation method and device | |
CN102339461A (en) | Method and equipment for enhancing image | |
KR20220015964A (en) | Methods and systems for restoration of lost image features for visual odometry applications | |
KR102453095B1 (en) | System and method for deep learning based image correction for non-face-to-face training and non-face-to-face rehabilitation | |
CN113628090B (en) | Anti-interference message steganography and extraction method, system, computer equipment and terminal | |
US20230196739A1 (en) | Machine learning device and far-infrared image capturing device | |
CN117173232A (en) | Depth image acquisition method, device and equipment | |
CN110366849B (en) | Image processing apparatus and image processing method | |
JP2009244944A (en) | Image-recovering apparatus and photographing apparatus | |
CN114140349A (en) | Method and device for generating interference image | |
KR20220110463A (en) | Server, method and program for recognizing motion errors generated in 3D animation using AI | |
CN113012071B (en) | Image out-of-focus deblurring method based on depth perception network | |
CN113205464B (en) | Image deblurring model generation method, image deblurring method and electronic equipment | |
CN110213457B (en) | Image transmission method and device | |
CN109587474B (en) | Distortion recovery degree-based no-reference video quality evaluation method and device | |
CN114093007A (en) | Binocular camera face image abnormity monitoring method and system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
G170 | Re-publication after modification of scope of protection [patent] |