KR20230094015A - Control system of digital continuous zoom image and control method thereof - Google Patents

Control system of digital continuous zoom image and control method thereof Download PDF

Info

Publication number
KR20230094015A
KR20230094015A KR1020210183144A KR20210183144A KR20230094015A KR 20230094015 A KR20230094015 A KR 20230094015A KR 1020210183144 A KR1020210183144 A KR 1020210183144A KR 20210183144 A KR20210183144 A KR 20210183144A KR 20230094015 A KR20230094015 A KR 20230094015A
Authority
KR
South Korea
Prior art keywords
image
angle
video image
standard
unit
Prior art date
Application number
KR1020210183144A
Other languages
Korean (ko)
Inventor
이경석
Original Assignee
주식회사 케이비전
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 케이비전 filed Critical 주식회사 케이비전
Priority to KR1020210183144A priority Critical patent/KR20230094015A/en
Publication of KR20230094015A publication Critical patent/KR20230094015A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Abstract

본 발명의 일실시예에 따른 디지털 연속 줌 영상 제어시스템은 광각의 영상을 촬상하는 제 1 촬상부, 표준각의 영상을 촬상하는 제 2 촬상부 및 망원각의 영상을 촬상하는 제 3 촬상부에 각각 연결된 인터페이스부; 상기 인터페이스부에 연결되고, 내부에 딥 러닝 신경망을 갖는 제어부; 상기 제어부에 연결된 메모리부; 및 상기 제어부에 연결된 출력부;를 포함하고, 상기 제어부는 상기 광각의 영상 이미지, 상기 표준각의 영상 이미지 및 상기 망원각의 영상 이미지를 중첩하고, 상기 표준각의 영상 이미지 테두리를 따라 형성된 표준각 경계 라인 및 상기 망원각의 영상 이미지 테두리를 따라 형성된 망원각 경계 라인을 따라 다수의 검출단(A1,A2,B1,B2)을 이동시키면서 검출한 영상 이미지를 상기 딥 러닝 신경망에 입력하여 딥 러닝으로 학습하면서 정합하는 것을 특징으로 한다. A digital continuous zoom image control system according to an embodiment of the present invention includes a first image capturing unit for capturing a wide angle image, a second image capturing unit for capturing a standard angle image, and a third image capturing unit for capturing a telephoto image. Interface units connected to each other; a control unit connected to the interface unit and having a deep learning neural network therein; a memory unit connected to the control unit; and an output unit connected to the control unit, wherein the control unit overlaps the wide angle video image, the standard angle video image, and the telescopic angle video image, and the standard angle formed along the edge of the standard angle video image. The video image detected while moving the plurality of detection ends (A1, A2, B1, B2) along the boundary line and the boundary line of the telescopic angle formed along the edge of the video image of the telescopic angle is input to the deep learning neural network to perform deep learning. It is characterized by matching while learning.

Description

디지털 연속 줌 영상 제어시스템 및 디지털 연속 줌 영상 제어방법{Control system of digital continuous zoom image and control method thereof} Digital continuous zoom image control system and digital continuous zoom image control method

본 발명은 디지털 연속 줌 영상 제어시스템 및 디지털 연속 줌 영상 제어방법에 관한 것으로, 특히 망원각 영상, 광각 영상 및 표준각 영상을 포함한 다양한 화각의 디지털 영상들을 정합하여 디지털 연속 줌 영상을 생성하는 디지털 연속 줌 영상 제어시스템 및 디지털 연속 줌 영상 제어방법에 관한 것이다. The present invention relates to a digital continuous zoom image control system and a method for controlling a digital continuous zoom image, and in particular, digital continuous zoom images are generated by matching digital images of various angles of view, including a telephoto image, a wide angle image, and a standard angle image. It relates to a zoom image control system and a digital continuous zoom image control method.

초해상도(Super resolution: 이하, SR) 기법은 저해상도의 이미지나 연속 이미지를 고해상도의 이미지나 연속 이미지로 생성하는 기술이다. 고해상도 이미지는 높은 픽셀 밀도를 제공하고, 따라서 원래 장면에 대한 보다 상세한 정보를 제공할 수 있다. 일반적으로, 초해상도(SR) 기법은 주어진 이미지 내의 콘텐츠를 보강하기 위해 관련된 이미지들의 시리즈를 사용하는 기술이다. 간단히 말해서, 초해상도(SR) 기법은 하나의 이미지에 관련된 후속 그리고/또는 이전 이미지를 사용하여 하나의 이미지의 표현을 향상시키는 기술이다. A super resolution (hereinafter referred to as SR) technique is a technique of generating a low-resolution image or continuous image into a high-resolution image or continuous image. A high-resolution image can provide a high pixel density and thus provide more detailed information about the original scene. In general, super-resolution (SR) techniques are techniques that use a series of related images to enhance content within a given image. Briefly, super-resolution (SR) techniques are techniques for enhancing the representation of an image by using subsequent and/or previous images related to the one image.

많은 경우, 초해상도(SR) 기법은 이미지 품질의 획기적인 향상을 제공할 수 있어서, 이미지 센서가 대상에 대해 상대적으로 고정되고, 대상은 실질적으로 고정된 경우 즉, 촬상되는 이미지의 풍경에 움직임이 없을 때에 현저한 이미지 품질을 생성할 수 있다. In many cases, super-resolution (SR) techniques can provide significant improvements in image quality, where the image sensor is relatively fixed to the object, and the object is substantially stationary, i.e. there is no motion in the landscape of the image being captured. It can produce remarkable image quality at times.

이러한 초해상도(SR) 기법은 단일 영상 기반의 방법과 다중 영상을 이용한 초고해상도 복원 방법이 있다. These super-resolution (SR) techniques include a single image-based method and a super-resolution reconstruction method using multiple images.

먼저 단일 영상을 이용한 방법의 경우, 영상 내부에서 반복적으로 나타나는 유사한 데이터를 이용한 자기예제기반 방법과 외부 데이터를 이용한 학습기반 해상도 복원 방법이 있다. 특히, 자기예제기반 방법은 영상 내부의 데이터만을 이용하여 영상을 복원하기 때문에 복원 성능이 제한되는 단점이 있고, 반면에 외부 데이터를 이용한 학습기반 방법은 외부 데이터의 양과 특성 및 학습과정에 따라 성능이 크게 좌우되는 단점이 있다. First, in the case of a method using a single image, there is a self-example-based method using similar data repeatedly appearing inside the image and a learning-based resolution restoration method using external data. In particular, the self-example-based method has a disadvantage in that restoration performance is limited because the image is reconstructed using only data inside the image, whereas the learning-based method using external data has performance that depends on the amount and characteristics of external data and the learning process. There are disadvantages that greatly depend on it.

다중 영상을 이용한 방법의 경우, 같은 시점에서의 다중 영상을 획득하는 것이 어려운 단점이 있으며, 영상 복원 성능이 영상들 간의 정합성능에 의존하는 단점이 있다. In the case of the method using multiple images, it is difficult to acquire multiple images at the same viewpoint, and image restoration performance depends on matching performance between images.

특허문헌 : 공개특허공보 제10-2016-0142760호Patent Document: Publication No. 10-2016-0142760

본 발명은 상기 문제점을 해소하기 위하여 안출된 것으로, 본 발명의 목적은 망원각 영상, 광각 영상 및 표준각 영상을 포함한 다양한 화각의 디지털 영상들을 정합하여 디지털 연속 줌 영상을 생성하는 디지털 연속 줌 영상 제어시스템을 제공하는 데 있다. The present invention has been made to solve the above problems, and an object of the present invention is to control a digital continuous zoom image to generate a digital continuous zoom image by matching digital images of various angles of view, including a telephoto image, a wide angle image, and a standard angle image. to provide the system.

본 발명의 다른 목적은 망원각 영상, 광각 영상 및 표준각 영상을 포함한 다양한 화각의 디지털 영상들을 정합하여 디지털 연속 줌 영상을 생성하는 디지털 연속 줌 영상 제어방법을 제공하는 데 있다. Another object of the present invention is to provide a digital continuous-zoom image control method for generating a digital continuous-zoom image by matching digital images of various angles of view, including a telephoto image, a wide-angle image, and a standard-angle image.

본 발명의 일실시예에 따른 디지털 연속 줌 영상 제어시스템은 광각의 영상을 촬상하는 제 1 촬상부, 표준각의 영상을 촬상하는 제 2 촬상부 및 망원각의 영상을 촬상하는 제 3 촬상부에 각각 연결된 인터페이스부; 상기 인터페이스부에 연결되고, 내부에 딥 러닝 신경망을 갖는 제어부; 상기 제어부에 연결된 메모리부; 및 상기 제어부에 연결된 출력부;를 포함하고, 상기 제어부는 상기 광각의 영상 이미지, 상기 표준각의 영상 이미지 및 상기 망원각의 영상 이미지를 중첩하고, 상기 표준각의 영상 이미지 테두리를 따라 형성된 표준각 경계 라인 및 상기 망원각의 영상 이미지 테두리를 따라 형성된 망원각 경계 라인을 따라 다수의 검출단(A1,A2,B1,B2)을 이동시키면서 검출한 영상 이미지를 상기 딥 러닝 신경망에 입력하여 딥 러닝으로 학습하면서 정합하는 것을 특징으로 한다. A digital continuous zoom image control system according to an embodiment of the present invention includes a first image capturing unit for capturing a wide angle image, a second image capturing unit for capturing a standard angle image, and a third image capturing unit for capturing a telephoto image. Interface units connected to each other; a control unit connected to the interface unit and having a deep learning neural network therein; a memory unit connected to the control unit; and an output unit connected to the control unit, wherein the control unit overlaps the wide angle video image, the standard angle video image, and the telescopic angle video image, and the standard angle formed along the edge of the standard angle video image. The video image detected while moving the plurality of detection ends (A1, A2, B1, B2) along the boundary line and the boundary line of the telescopic angle formed along the edge of the video image of the telescopic angle is input to the deep learning neural network to perform deep learning. It is characterized by matching while learning.

본 발명의 일실시예에 따른 디지털 연속 줌 영상 제어시스템에서 상기 인터페이스부는 상기 제 1 촬상부, 상기 제 2 촬상부 및 상기 제 3 촬상부 각각에서 획득한 영상 이미지를 다수의 픽셀(pixel)로 이루어진 디지털 이미지로 변환하여 상기 제어부로 전달하는 것을 특징으로 한다. In the digital continuous zoom image control system according to an embodiment of the present invention, the interface unit transmits video images acquired by the first imaging unit, the second imaging unit, and the third imaging unit, respectively, to a plurality of pixels. It is characterized in that it is converted into a digital image and transmitted to the control unit.

본 발명의 일실시예에 따른 디지털 연속 줌 영상 제어시스템에서 상기 제어부의 딥 러닝 신경망은 입력층(input layer)과 출력층(output layer) 사이에 다수의 은닉층(hidden layer)을 갖는 CNN(Convolutional Neural Network) 신경망을 포함하는 것을 특징으로 한다. In the digital continuous zoom image control system according to an embodiment of the present invention, the deep learning neural network of the control unit is a convolutional neural network (CNN) having a plurality of hidden layers between an input layer and an output layer. ) characterized in that it comprises a neural network.

또는, 본 발명의 다른 실시예에 따른 디지털 연속 줌 영상 제어방법은 (ㄱ) 제어부가 사용자의 명령에 따라 제 1 촬상부, 제 2 촬상부 및 제 3 촬상부 각각을 통해 광각의 영상 이미지, 표준각의 영상 이미지 및 망원각의 영상 이미지를 획득하는 단계; (ㄴ) 상기 제어부가 상기 광각의 영상 이미지, 상기 표준각의 영상 이미지 및 상기 망원각의 영상 이미지 각각에 대해 보정을 수행하는 단계; 및 (ㄷ) 상기 제어부가 보정처리된 상기 광각의 영상 이미지, 상기 표준각의 영상 이미지 및 상기 망원각의 영상 이미지를 중첩하고 CNN 신경망을 이용한 딥 러닝으로 학습하면서 정합하는 단계;를 포함한다. Alternatively, in a method for controlling a digital continuous zoom image according to another embodiment of the present invention, (a) the control unit captures a wide-angle video image and a standard image through the first, second, and third imaging units according to a user's command. Obtaining a video image of each angle and a video image of a telescopic angle; (b) performing, by the controller, correction on each of the wide-angle video image, the standard-angle video image, and the telescopic-angle video image; and (c) overlapping, by the controller, the corrected wide-angle video image, the standard-angle video image, and the telescopic-angle video image, and matching them while learning through deep learning using a CNN neural network.

본 발명의 다른 실시예에 따른 디지털 연속 줌 영상 제어방법에서 상기 (ㄱ)단계는 인터페이스부가 상기 제 1 촬상부, 상기 제 2 촬상부 및 상기 제 3 촬상부 각각에서 획득한 영상 이미지를 다수의 픽셀(pixel)로 이루어진 디지털 이미지로 변환하여 상기 제어부로 전달하는 것을 특징으로 한다. In the digital continuous zoom image control method according to another embodiment of the present invention, in the step (a), the interface unit converts the video images obtained from each of the first imaging unit, the second imaging unit, and the third imaging unit to a plurality of pixels. It is characterized in that it is converted into a digital image made of (pixels) and transmitted to the control unit.

본 발명의 다른 실시예에 따른 디지털 연속 줌 영상 제어방법에서 상기 (ㄷ)단계는 (ㄷ-1) 상기 제어부가 상기 광각의 영상 이미지, 상기 표준각의 영상 이미지 및 상기 망원각의 영상 이미지 각각의 중심을 일치시켜, 상기 광각의 영상 이미지 위에 상기 표준각의 영상 이미지를 중첩하고, 상기 표준각의 영상 이미지 위에 상기 망원각의 영상 이미지를 중첩하는 단계; (ㄷ-2) 상기 제어부가 상기 표준각의 영상 이미지 테두리를 따라 형성된 표준각 경계 라인 및 상기 망원각의 영상 이미지 테두리를 따라 형성된 망원각 경계 라인을 따라 다수의 검출단(A1,A2,B1,B2)을 이동시키면서 영상 이미지를 검출하는 단계; 및 (ㄷ-3) 상기 제어부가 상기 다수의 검출단(A1,A2,B1,B2)을 이동시키면서 검출한 영상 이미지를 상기 CNN 신경망에 입력하여 딥 러닝으로 학습하면서 정합하는 단계;를 더 포함하는 것을 특징으로 한다. In the digital continuous zoom image control method according to another embodiment of the present invention, the step (c) is performed by the controller in (c-1) each of the wide-angle video image, the standard-angle video image, and the telescopic-angle video image. overlapping the standard angle image on the wide angle image and overlapping the telescopic angle image on the standard angle image; (c-2) The control unit has a plurality of detection stages A1, A2, B1, detecting a video image while moving B2); and (c-3) inputting video images detected while moving the plurality of detection stages (A1, A2, B1, B2) by the control unit to the CNN neural network and matching them while learning through deep learning. characterized by

본 발명의 다른 실시예에 따른 디지털 연속 줌 영상 제어방법에서 상기 다수의 검출단(A1,A2,B1,B2)은 상기 망원각의 영상 이미지에서 상기 망원각 경계 라인의 내측을 따라 이동하는 제 1 검출단(A1), 상기 표준각의 영상 이미지에서 상기 망원각 경계 라인의 외측을 따라 이동하는 제 2 검출단(A2), 상기 표준각의 영상 이미지에서 상기 표준각 경계 라인의 내측을 따라 이동하는 제 3 검출단(B1) 및 상기 광각의 영상 이미지에서 상기 표준각 경계 라인의 외측을 따라 이동하는 제 4 검출단(B2)을 포함하는 것을 특징으로 한다. In the digital continuous zoom image control method according to another embodiment of the present invention, the plurality of detection stages (A1, A2, B1, B2) are first moving along the inner side of the boundary line of the telescopic angle in the video image of the telescopic angle. A detection end (A1), a second detection end (A2) moving along the outer side of the telescopic angle boundary line in the video image of the standard angle, moving along the inner side of the standard angle boundary line in the video image of the standard angle It is characterized in that it includes a third detection end (B1) and a fourth detection end (B2) moving along the outside of the standard angle boundary line in the wide-angle video image.

본 발명의 특징 및 이점들은 첨부도면에 의거한 다음의 상세한 설명으로 더욱 명백해질 것이다.Features and advantages of the present invention will become more apparent from the following detailed description taken in conjunction with the accompanying drawings.

이에 앞서, 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이고, 사전적인 의미로 해석되어서는 아니 되며, 발명자가 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합되는 의미와 개념으로 해석되어야만 한다. Prior to this, the terms or words used in this specification and claims should not be interpreted in a conventional, dictionary sense, and the inventor properly defines the concept of the term in order to explain his/her invention in the best way. Based on the principle that it can be done, it should be interpreted as meaning and concept consistent with the technical spirit of the present invention.

본 발명의 일실시예에 따른 디지털 연속 줌 영상 제어시스템은 제 1 촬상부, 제 2 촬상부 및 제 3 촬상부 각각에서 획득한 3개의 영상 이미지를 딥 러닝 신경망을 이용하여 학습하고 표준각의 영상을 기준으로 정합하여 디지털 연속 줌 영상을 생성할 수 있는 효과가 있다. The digital continuous zoom image control system according to an embodiment of the present invention learns three video images obtained from each of the first imaging unit, the second imaging unit, and the third imaging unit using a deep learning neural network, and obtains an image of a standard angle. There is an effect of generating a digital continuous zoom image by matching based on .

본 발명의 다른 실시예에 따른 디지털 연속 줌 영상 제어방법은 광각의 영상 이미지, 표준각의 영상 이미지 및 망원각의 영상 이미지를 딥 러닝 신경망을 이용하여 학습하고 표준각의 영상 이미지를 기준으로 광각의 영상 이미지와 망원각의 영상 이미지를 정합하여 디지털 연속 줌 영상을 생성할 수 있는 효과가 있다. A method for controlling a digital continuous zoom image according to another embodiment of the present invention learns a wide-angle video image, a standard-angle video image, and a telephoto-angle video image using a deep learning neural network, and uses a wide-angle video image as a standard. There is an effect of generating a digital continuous zoom image by matching the video image and the video image of the telescopic angle.

도 1은 본 발명의 일실시예에 따른 디지털 연속 줌 영상 제어시스템의 구성도.
도 2는 본 발명의 다른 실시예에 따른 디지털 연속 줌 영상 제어방법을 설명하기 위한 순서도.
도 3은 본 발명의 다른 실시예에 따른 디지털 연속 줌 영상 제어방법에 적용되는 CNN 신경망의 구조도.
도 4는 본 발명의 다른 실시예에 따른 디지털 연속 줌 영상 제어방법에서 영상 이미지의 컨벌루션 처리 과정을 설명하기 위한 예시도.
도 5는 본 발명의 다른 실시예에 따른 디지털 연속 줌 영상 제어방법에서 영상 이미지의 풀링 과정을 설명하기 위한 예시도.
도 6은 본 발명의 다른 실시예에 따른 디지털 연속 줌 영상 제어방법에서 획득한 광각의 영상 예시도.
도 7은 본 발명의 다른 실시예에 따른 디지털 연속 줌 영상 제어방법에서 획득한 표준각의 영상 예시도.
도 8은 본 발명의 다른 실시예에 따른 디지털 연속 줌 영상 제어방법에서 획득한 망원각의 영상 예시도.
도 9는 본 발명의 다른 실시예에 따른 디지털 연속 줌 영상 제어방법에서 3개의 영상 이미지를 정합하는 과정을 설명하기 위한 예시도.
1 is a block diagram of a digital continuous zoom image control system according to an embodiment of the present invention.
2 is a flowchart illustrating a digital continuous zoom image control method according to another embodiment of the present invention.
3 is a structural diagram of a CNN neural network applied to a digital continuous zoom image control method according to another embodiment of the present invention.
4 is an exemplary diagram for explaining a process of convolution processing of video images in a digital continuous zoom image control method according to another embodiment of the present invention;
5 is an exemplary diagram for explaining a video image pooling process in a digital continuous zoom image control method according to another embodiment of the present invention;
6 is an exemplary view of a wide-angle image obtained in a digital continuous zoom image control method according to another embodiment of the present invention.
7 is an exemplary view of a standard angle image obtained in a digital continuous zoom image control method according to another embodiment of the present invention.
8 is an exemplary view of a telescopic angle image obtained in a digital continuous zoom image control method according to another embodiment of the present invention.
9 is an exemplary diagram for explaining a process of matching three video images in a digital continuous zoom image control method according to another embodiment of the present invention.

본 발명의 목적, 특정한 장점들 및 신규한 특징들은 첨부된 도면들과 연관되는 이하의 상세한 설명과 바람직한 실시예로부터 더욱 명백해질 것이다. 본 명세서에서 각 도면의 구성요소들에 참조번호를 부가함에 있어서, 동일한 구성 요소들에 한해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 번호를 가지도록 하고 있음에 유의하여야 한다. 또한, 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 또한, 본 발명을 설명함에 있어서, 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명은 생략한다.Objects, specific advantages and novel features of the present invention will become more apparent from the following detailed description and preferred embodiments taken in conjunction with the accompanying drawings. In adding reference numerals to components of each drawing in this specification, it should be noted that the same components have the same numbers as much as possible, even if they are displayed on different drawings. Also, terms such as first and second may be used to describe various components, but the components should not be limited by the terms. These terms are only used for the purpose of distinguishing one component from another. In addition, in describing the present invention, if it is determined that a detailed description of related known technologies may unnecessarily obscure the subject matter of the present invention, the detailed description will be omitted.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명하기로 한다. 도 1은 본 발명의 일실시예에 따른 디지털 연속 줌 영상 제어시스템의 구성도이다. Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. 1 is a block diagram of a digital continuous zoom image control system according to an embodiment of the present invention.

본 발명의 일실시예에 따른 디지털 연속 줌 영상 제어시스템은 제 1 촬상부(110), 제 2 촬상부(120) 및 제 3 촬상부(130)에 연결된 인터페이스부(140), 인터페이스부(140)에 연결되고 내부에 딥 러닝 신경망을 갖는 제어부(150), 제어부(150)에 각각 연결된 메모리부(160) 및 출력부(170)를 포함한다. A digital continuous zoom image control system according to an embodiment of the present invention includes an interface unit 140 connected to a first imaging unit 110, a second imaging unit 120, and a third imaging unit 130, and an interface unit 140. ) and includes a control unit 150 having a deep learning neural network therein, a memory unit 160 and an output unit 170 respectively connected to the control unit 150.

제 1 촬상부(110), 제 2 촬상부(120) 및 제 3 촬상부(130)는 각각 렌즈(Lens) 및 이미징 센서(Imaging sensor)를 포함하고 각각 다른 초점 거리를 가지는 카메라를 이용하여, 제 1 촬상부(110)는 광각의 영상을 촬상하며, 제 2 촬상부(120)는 표준각의 영상을 촬상하며, 제 3 촬상부(130)는 망원각의 영상을 촬상할 수 있다. The first imaging unit 110, the second imaging unit 120, and the third imaging unit 130 each use a camera including a lens and an imaging sensor and having different focal lengths, The first image capturing unit 110 may capture a wide angle image, the second image capturing unit 120 may capture a standard angle image, and the third image capturing unit 130 may capture a telephoto image.

이러한 제 1 촬상부(110), 제 2 촬상부(120) 및 제 3 촬상부(130) 각각을 구성하는 렌즈의 화각과 초점거리는 아래의 [표 1]에 기재된 바와 같다. The angles of view and focal lengths of the lenses constituting each of the first imaging unit 110, the second imaging unit 120, and the third imaging unit 130 are as described in [Table 1] below.

화각angle of view 초점거리focal length 제 1 촬상부(110)의 렌즈Lens of the first imaging unit 110 84°~ 63° 84° to 63° 15mm - 35mm15mm - 35mm 제 2 촬상부(120)의 렌즈Lens of the second imaging unit 120 47°47° 50mm50mm 제 3 촬상부(130)의 렌즈Lens of the third imaging unit 130 28°~ 8°28° to 8° 85mm ~ 300mm85mm to 300mm

물론, 제 1 촬상부(110), 제 2 촬상부(120) 및 제 3 촬상부(130) 각각을 구성하는 렌즈의 화각과 초점거리는 [표 1] 이외에 다른 구성으로 구비될 수도 있다. Of course, the angle of view and focal length of the lenses constituting each of the first imaging unit 110, the second imaging unit 120, and the third imaging unit 130 may be provided in a configuration other than [Table 1].

제 1 촬상부(110)를 통해 광각의 영상, 즉 피사체의 크기가 작아지고 원근감의 과장이 발생하지만 넓은 범위를 촬상한 영상을 획득할 수 있고, 제 2 촬상부(120)를 통해 표준각의 영상, 즉 사람의 눈으로 보는 것과 가장 비슷한 크기의 피사체 영상을 획득할 수 있으며, 제 3 촬상부(130)를 통해 망원각의 영상, 즉 멀리 있는 피사체를 클로즈업하여 확대한 아주 좁은 범위의 영상을 획득할 수 있다. Through the first imaging unit 110, it is possible to obtain a wide-angle image, that is, an image capturing a wide range although the size of the subject is reduced and the perspective is exaggerated, and a standard angle image can be obtained through the second imaging unit 120. It is possible to obtain an image, that is, an image of a subject having a size most similar to that seen by the human eye, and through the third image pickup unit 130, an image of a telescopic angle, that is, a very narrow range image obtained by enlarging a close-up of a distant subject can be obtained

인터페이스부(140)는 제 1 촬상부(110), 제 2 촬상부(120) 및 제 3 촬상부(130) 각각에서 획득한 영상 이미지를 디지털화하여 제어부(150)로 전달한다. 이에 따라 제 1 촬상부(110), 제 2 촬상부(120) 및 제 3 촬상부(130) 각각에서 획득한 영상 이미지는 다수의 픽셀(pixel)로 이루어진 디지털 이미지로 변환되어 제어부(150)로 전달할 수 있다. The interface unit 140 digitizes video images obtained from each of the first imaging unit 110, the second imaging unit 120, and the third imaging unit 130, and transmits them to the controller 150. Accordingly, video images acquired by each of the first imaging unit 110, the second imaging unit 120, and the third imaging unit 130 are converted into digital images composed of a plurality of pixels and sent to the control unit 150. can be conveyed

제어부(150)는 디지털 연속 줌 영상 제어시스템의 동작을 전반적으로 제어하는 구성으로서, 내부에 딥 러닝 신경망을 구비하여 인터페이스(140)를 통해 입력되는 3개의 영상 이미지를 학습하고 정합을 수행할 수 있다. 여기서, 딥 러닝 신경망은 예컨대 CNN(Convolutional Neural Network) 신경망을 포함할 수 있고, 물론 CNN 신경망 이외에 다른 딥 러닝 신경망을 적용할 수도 있다. The controller 150 is a component that controls the overall operation of the digital continuous zoom image control system, and has a deep learning neural network therein to learn and match three image images input through the interface 140. . Here, the deep learning neural network may include, for example, a Convolutional Neural Network (CNN) neural network, and of course, other deep learning neural networks may be applied in addition to the CNN neural network.

이때, CNN 신경망은 도 3에 도시된 바와 같이 입력층(input layer: 301)과 출력층(output layer: 303) 사이에 다수의 은닉층(hidden layer: 302-1,302-2,302-3)을 포함하는 구조로 구비될 수 있다. At this time, the CNN neural network has a structure including a plurality of hidden layers (302-1,302-2,302-3) between an input layer (301) and an output layer (303), as shown in FIG. may be provided.

메모리부(160)는 제어부(150)에 연결되고, 인터페이스(140)를 통해 입력되는 3개의 영상 이미지, 이미지 보정을 위한 프로그램, 제어부(150)가 3개의 영상 이미지를 학습하고 정합하는데 필요한 정보 등을 저장한다. The memory unit 160 is connected to the controller 150, and includes three video images input through the interface 140, a program for image correction, and information necessary for the controller 150 to learn and match the three video images. Save the

출력부(170)는 제어부(150)에 연결된 모니터, 스피커 등을 포함하고, 제어부(150)가 3개의 영상 이미지를 학습하고 정합한 결과 이미지를 디스플레이하거나 또는 3개의 영상 이미지를 처리하는 과정을 소리로 출력할 수 있다. The output unit 170 includes a monitor, a speaker, etc. connected to the control unit 150, and the control unit 150 learns and matches the three video images to display the resulting image or processes the three video images with sound. can be output as

이와 같이 구성된 본 발명의 일실시예에 따른 디지털 연속 줌 영상 제어시스템은 제 1 촬상부(110), 제 2 촬상부(120) 및 제 3 촬상부(130) 각각에서 획득한 3개의 영상 이미지를 딥 러닝 신경망을 이용하여 학습하고 표준각의 영상을 기준으로 정합하여 디지털 연속 줌 영상을 생성할 수 있다. The digital continuous zoom image control system according to an embodiment of the present invention configured as described above includes three video images obtained from each of the first imaging unit 110, the second imaging unit 120, and the third imaging unit 130. A digital continuous zoom image can be generated by learning using a deep learning neural network and matching images of standard angles as a criterion.

이하, 본 발명의 다른 실시예에 따른 디지털 연속 줌 영상 제어방법에 대해 도 2 내지 도 9를 참조하여 설명한다. 도 2는 본 발명의 다른 실시예에 따른 디지털 연속 줌 영상 제어방법을 설명하기 위한 순서도이고, 도 3은 본 발명의 다른 실시예에 따른 디지털 연속 줌 영상 제어방법에 적용되는 CNN 신경망의 구조도이며, 도 4는 본 발명의 다른 실시예에 따른 디지털 연속 줌 영상 제어방법에서 영상 이미지의 컨벌루션 처리 과정을 설명하기 위한 예시도이며, 도 5는 본 발명의 다른 실시예에 따른 디지털 연속 줌 영상 제어방법에서 영상 이미지의 풀링 과정을 설명하기 위한 예시도이며, 도 6은 본 발명의 다른 실시예에 따른 디지털 연속 줌 영상 제어방법에서 획득한 광각의 영상 예시도이며, 도 7은 본 발명의 다른 실시예에 따른 디지털 연속 줌 영상 제어방법에서 획득한 표준각의 영상 예시도이며, 도 8은 본 발명의 다른 실시예에 따른 디지털 연속 줌 영상 제어방법에서 획득한 망원각의 영상 예시도이며, 도 9는 본 발명의 다른 실시예에 따른 디지털 연속 줌 영상 제어방법에서 3개의 영상 이미지를 정합하는 과정을 설명하기 위한 예시도이다. Hereinafter, a digital continuous zoom image control method according to another embodiment of the present invention will be described with reference to FIGS. 2 to 9 . 2 is a flowchart illustrating a digital continuous zoom image control method according to another embodiment of the present invention, and FIG. 3 is a structure diagram of a CNN neural network applied to a digital continuous zoom image control method according to another embodiment of the present invention. 4 is an exemplary diagram for explaining a process of convolution processing of video images in a digital continuous zoom image control method according to another embodiment of the present invention, and FIG. 5 is a digital continuous zoom image control method according to another embodiment of the present invention. 6 is an exemplary view for explaining a video image pooling process, and FIG. 6 is an exemplary view of a wide-angle image obtained in a method for controlling a digital continuous zoom image according to another embodiment of the present invention, and FIG. 8 is an exemplary view of a telescopic angle image obtained in a digital continuous zoom image control method according to another embodiment of the present invention, and FIG. It is an exemplary diagram for explaining a process of matching three video images in a digital continuous zoom image control method according to another embodiment of the present invention.

본 발명의 다른 실시예에 따른 디지털 연속 줌 영상 제어방법은 제어부(150)가 사용자의 명령에 따라 제 1 촬상부(110), 제 2 촬상부(120) 및 제 3 촬상부(130) 각각을 통해 광각의 영상 이미지, 표준각의 영상 이미지 및 망원각의 영상 이미지를 획득한다(S210). In a digital continuous zoom image control method according to another embodiment of the present invention, the control unit 150 controls each of the first imaging unit 110, the second imaging unit 120, and the third imaging unit 130 according to a user's command. Through this, a video image of a wide angle, a video image of a standard angle, and a video image of a telescopic angle are acquired (S210).

즉, 제 1 촬상부(110)를 통해 도 6에 도시된 바와 같이 피사체의 크기가 작아지고 원근감의 과장이 발생하지만 넓은 범위를 촬상한 광각의 영상 이미지를 획득하고, 제 2 촬상부(120)를 통해 도 7에 도시된 바와 같이 사람의 눈으로 보는 것과 가장 비슷한 크기의 피사체를 촬상한 표준각의 영상 이미지를 획득하며, 제 3 촬상부(130)를 통해 도 8에 도시된 바와 같이 멀리 있는 피사체를 클로즈업하여 확대한 망원각의 영상 이미지를 획득한다. That is, as shown in FIG. 6 through the first imaging unit 110, the size of the subject is reduced and the perspective is exaggerated, but a wide-angle video image capturing a wide range is acquired, and the second imaging unit 120 As shown in FIG. 7, a video image of a standard angle is obtained by capturing a subject having a size most similar to that seen by the human eye, and as shown in FIG. 8 through the third imaging unit 130, A close-up of the subject is obtained and an enlarged telescopic image is acquired.

이러한 3개의 영상 이미지는 각각 인터페이스부(140)에서 다수의 픽셀로 이루어진 디지털 영상 이미지로 변환되어 제어부(150)로 전달된다. Each of these three video images is converted into a digital video image composed of a plurality of pixels in the interface unit 140 and transmitted to the controller 150.

이때, 제어부(150)는 수신한 3개의 디지털 영상 이미지 각각에 대해 보정을 수행한다(S220). At this time, the controller 150 performs correction on each of the three received digital video images (S220).

즉, 도 6에 도시된 바와 같이 제 1 촬상부(110)를 통해 획득한 광각의 영상 이미지는 원근감의 과장과 베럴 디스토션(Barrel Distortion) 등의 영상 왜곡이 발생하고, 도 8에 도시된 바와 같이 제 3 촬상부(130)를 통해 획득한 망원각의 영상 이미지는 원근감이 축소되고 핀쿠션 디스토션(Pincushion Distortion) 등의 영상왜곡이 발생할 수 있다. That is, as shown in FIG. 6, the wide-angle video image acquired through the first imaging unit 110 causes image distortion such as exaggeration of perspective and barrel distortion, and as shown in FIG. In the telescopic image obtained through the third imaging unit 130, the sense of perspective is reduced and image distortion such as pincushion distortion may occur.

이러한 영상왜곡을 수정하기 위해 제어부(150)는 메모리부(160)에 저장된 예컨대 가우시안(Gaussian) 필터 등과 같은 다양한 보정 필터를 이용하여 광각의 영상 이미지와 망원각의 영상 이미지에서 발생하는 영상왜곡을 보정할 수 있다. In order to correct such image distortion, the controller 150 uses various correction filters such as a Gaussian filter stored in the memory unit 160 to correct image distortion occurring in a wide-angle image and a telephoto image. can do.

보정 처리후, 제어부(150)는 3개의 디지털 영상 이미지를 중첩하고 CNN 신경망을 이용한 딥 러닝으로 학습하면서 정합한다(S230). After the correction process, the control unit 150 overlaps the three digital video images and performs matching while learning through deep learning using a CNN neural network (S230).

구체적으로, 제어부(150)는 도 9에 도시된 바와 같이 광각의 영상 이미지, 표준각의 영상 이미지 및 망원각의 영상 이미지 각각의 중심점을 일치시켜, 광각의 영상 이미지 위에 표준각의 영상 이미지를 중첩하고, 표준각의 영상 이미지 위에 망원각의 영상 이미지를 중첩한다. Specifically, as shown in FIG. 9 , the controller 150 overlaps the standard-angle video image on the wide-angle video image by matching the center points of each of the wide-angle video image, the standard-angle video image, and the telephoto-angle video image. And, the video image of the telescopic angle is overlaid on the video image of the standard angle.

이에 따라 표준각의 영상 이미지의 중앙 영역에 확대 배율처럼 광학 줌으로 확대된 상대적으로 높은 해상도를 가지는 망원각의 영상 이미지가 배치되고, 마찬가지로 광각의 영상 이미지의 중앙 영역에 확대 배율처럼 광학 줌으로 확대된 상대적으로 높은 해상도를 가지는 표준각의 영상 이미지가 배치된다. Accordingly, a video image of a telephoto angle having a relatively high resolution magnified by an optical zoom like a magnification is placed in the center area of a video image of a standard angle, and likewise, a video image of a telephoto angle having a relatively high resolution is placed in the central area of a video image of a wide angle by an optical zoom like a magnification. A video image of a standard angle having a relatively high resolution is arranged.

따라서, 3개의 디지털 영상 이미지는 동일한 중심을 기준으로 중첩되고, 3개의 디지털 영상 이미지 각각의 테두리를 따라 다수의 경계 라인(501,502,503)을 형성한 형태를 갖는다. 즉, 광각의 영상 이미지 테두리를 따라 광각 경계 라인(501)을 형성하고, 표준각의 영상 이미지 테두리를 따라 표준각 경계 라인(502)을 형성하며, 망원각의 영상 이미지 테두리를 따라 망원각 경계 라인(503)을 형성한다. Accordingly, the three digital video images are overlapped based on the same center, and a plurality of boundary lines 501, 502, and 503 are formed along the edges of each of the three digital video images. That is, a wide angle boundary line 501 is formed along the edge of the wide-angle video image, a standard angle boundary line 502 is formed along the edge of the video image of the standard angle, and a telescopic angle boundary line is formed along the edge of the video image of the telephoto angle. (503).

이러한 경계 라인(501,502,503)에 대해, 제어부(150)는 표준각 경계 라인(502)과 망원각 경계 라인(503)을 따라 소정의 영역 크기를 갖는 검출단(A1,A2,B1,B2)을 이동시키면서 영상 이미지를 검출한다. 여기서, 검출단(A1,A2,B1,B2) 각각은 예컨대 직사각형 또는 정사각형의 동일한 형태를 갖고, 표준각 경계 라인(502)과 망원각 경계 라인(503) 각각을 따라 이동한다. With respect to these boundary lines 501, 502, and 503, the controller 150 moves the detection stages A1, A2, B1, and B2 having predetermined area sizes along the standard angle boundary line 502 and the telescopic angle boundary line 503. while detecting video images. Here, each of the detection stages A1, A2, B1, and B2 has the same shape, for example, a rectangle or a square, and moves along the normal angle boundary line 502 and the telescopic angle boundary line 503, respectively.

즉, 도 9에 도시된 바와 같이 제어부(150)는 망원각의 영상 이미지에서 망원각 경계 라인(503)의 내측을 따라 제 1 검출단(A1)을 이동시키고, 표준각의 영상 이미지에서 망원각 경계 라인(503)의 외측을 따라 제 2 검출단(A2)을 이동시킨다. That is, as shown in FIG. 9 , the controller 150 moves the first detection end A1 along the inside of the telescopic angle boundary line 503 in the telescopic angle video image, and the telescopic angle in the standard angle video image. The second detection end A2 is moved along the outside of the boundary line 503.

동시에, 제어부(150)는 표준각의 영상 이미지에서 표준각 경계 라인(502)의 내측을 따라 제 3 검출단(B1)을 이동시키고, 광각의 영상 이미지에서 표준각 경계 라인(502)의 외측을 따라 제 4 검출단(B2)을 이동시킨다. At the same time, the controller 150 moves the third detection end B1 along the inside of the standard angle boundary line 502 in the standard angle video image, and moves the outside of the standard angle boundary line 502 in the wide angle video image. The fourth detection stage (B2) is moved accordingly.

이렇게 검출단(A1,A2,B1,B2)을 이동시키면서 영상 이미지를 검출함에 따라, 제어부(150)는 검출된 다수의 영상 이미지를 CNN 신경망에 입력하여 특징맵(feature map)을 추출한다. As video images are detected while moving the detection stages A1, A2, B1, and B2, the controller 150 inputs a plurality of detected video images to the CNN neural network and extracts a feature map.

구체적으로, 특징맵의 추출과정은 도 3에 도시된 CNN 신경망과 같은 심층 신경망을 이용하여, 심층 신경망의 입력층(301)에 검출단(A1,A2,B1,B2)을 이동시키면서 검출된 영상 이미지를 입력하고, 제 1 은닉층(302-1)을 거치면서 도 4에 도시된 필터를 이용해 컨벌루션(convolution) 연산을 실행하는 과정을 포함할 수 있다. Specifically, the feature map extraction process uses a deep neural network such as the CNN neural network shown in FIG. It may include inputting an image and executing a convolution operation using the filter shown in FIG. 4 while passing through the first hidden layer 302-1.

이때, 필터를 이용한 컨벌루션 연산은 아래의 [수학식 1]을 이용하여 실행할 수 있다. At this time, the convolution operation using the filter can be executed using [Equation 1] below.

Figure pat00001
Figure pat00001

Figure pat00002
Figure pat00002

여기에서, l은 층(layer)를 의미하고, sizel은 층의 사이즈를 의미하며, In은 입력층에 입력되는 데이터(data)의 수를 의미하고, Ia는 라벨(label)의 수를 의미하며, O는 출력 컨볼루션층(Output Convolution Layer)을 의미하고, w는 가중치를 의미하며, b는 특징맵의 편향 바이어스(bias)를 의미한다. Here, l means a layer, size l means the size of a layer, In means the number of data input to the input layer, and Ia means the number of labels. where O denotes an output convolution layer, w denotes a weight, and b denotes a bias of the feature map.

이러한 컨벌루션 연산을 통해 처리된 특징맵을 추출한 후, 제어부(150)는 추출한 다수의 특징맵을 합산하고, 합산한 특징맵에 대하여 컨벌루션 연산을 수행해 특징맵을 재생성한다. After extracting the feature maps processed through the convolution operation, the controller 150 sums the extracted feature maps and performs a convolution operation on the summed feature maps to regenerate the feature maps.

이때, 특징맵을 재생성하는 과정은 아래의 [수학식 2]를 이용하여 합산한 특징맵을 컨캐터네이팅(Concatenating)하고, [수학식 3]을 이용한 컨벌루션 연산을 수행하여 실행될 수 있다. At this time, the process of regenerating the feature map may be executed by concatenating the summed feature maps using [Equation 2] below and performing a convolution operation using [Equation 3].

Figure pat00003
Figure pat00003

Figure pat00004
Figure pat00004

Figure pat00005
Figure pat00005

여기서, In은 입력되는 데이터(data)의 수를 의미하고, Ia는 라벨(label)의 수를 의미하며, O는 출력 컨볼루션층(Output Convolution Layer)을 의미하며, w는 가중치를 의미한다. Here, In denotes the number of input data, Ia denotes the number of labels, O denotes an output convolution layer, and w denotes a weight.

이때, fc는 컨캐터네이팅한 특징맵을 이용하여 컨벌루션 연산을 수행한 결과값을 나타낸 것으로, 재생성된 특징맵을 의미할 수 있다. In this case, f c indicates a result value obtained by performing a convolution operation using the concatenated feature map, and may mean a regenerated feature map.

특징맵을 재생성한 후, 제어부(150)는 제 2 은닉층(302-2)에서 재생성된 특징맵을 활성화 함수(Activation function)에 대입하여 연산할 수 있다. 여기서, 활성화 함수는 Sigmoid 함수 또는 ReLu 함수를 이용할 수 있다. After regenerating the feature map, the controller 150 may calculate the feature map regenerated in the second hidden layer 302-2 by substituting it into an activation function. Here, the activation function may use a sigmoid function or a ReLu function.

활성화 함수를 이용하여 출력된 출력값에 대해, 제어부(150)는 획득한 출력값을 이용하여 풀링(pooling) 연산을 실행한다. Regarding the output value output using the activation function, the controller 150 performs a pooling operation using the obtained output value.

구체적으로, 풀링 연산은 데이터의 차원의 크기를 축소하기 위한 것으로, 데이터에서 세로 및 가로 방향 공간의 크기를 줄이는 연산이다. 이러한 풀링 연산은 다양한 파라미터, 예를 들어 평균, 중간값, 최댓값, 최소값 등을 이용할 수 있고, 여기서는 도 5에 도시된 바와 같이 최댓값을 이용한 최댓값 풀링 연산을 적용한다. 최댓값 풀링 연산(max polling)을 이용하여 이미지의 제한 영역에서 최댓값을 추출하고, 데이터의 노이즈를 제거할 수 있으며, 데이터가 줄어드는 과정에서 오버 피팅(over fitting)을 방지할 수 있다. Specifically, the pooling operation is for reducing the dimension size of data, and is an operation that reduces the size of vertical and horizontal spaces in data. Such a pooling operation may use various parameters, for example, an average, a median value, a maximum value, a minimum value, and the like, and here, as shown in FIG. 5 , a maximum value pooling operation using the maximum value is applied. It is possible to extract the maximum value from the limited region of the image using max polling, remove noise from the data, and prevent overfitting in the process of reducing the data.

이러한 최댓값 풀링 연산은 아래의 [수학식 4]를 이용하여 실행될 수 있다. This maximum value pooling operation can be executed using [Equation 4] below.

Figure pat00006
Figure pat00006

Figure pat00007
Figure pat00007

여기서, x는 풀링 연산을 위해 입력되는 행렬을 의미하고, l은 풀링 연산의 해당층을 의미하며, i는 입력되는 행렬의 행을 의미하며, j는 입력되는 행렬의 열을 의미하며, sizel은 풀링 연산의 해당층 사이즈를 의미하며, Im은 풀링 연산의 해당층에 입력되는 데이터(data)의 수를 의미하고, Ia는 라벨(label)의 수를 의미한다. Here, x means the matrix input for the pooling operation, l means the corresponding layer of the pooling operation, i means the row of the input matrix, j means the column of the input matrix, and size l denotes the size of a corresponding layer of the pooling operation, Im denotes the number of data input to the corresponding layer of the pooling operation, and Ia denotes the number of labels.

풀링 연산을 실행한 후, 제어부(150)는 제 3 은닉층(302-3)에서 풀링 연산값과 미리 설정한 목표 출력값을 이용하여 손실값을 연산한다. After performing the pooling operation, the control unit 150 calculates a loss value using the pooling operation value and a preset target output value in the third hidden layer 302-3.

구체적으로, 손실값 연산은 아래의 [수학식 5]의 MSLE, [수학식 6]의 RMSLE 또는 [수학식 7]의 sMAPE를 이용하여 연산할 수 있고, 미리 설정한 목표 출력값은 GT(Ground Truth)일 수 있다. Specifically, the loss value calculation can be performed using MSLE of [Equation 5], RMSLE of [Equation 6], or sMAPE of [Equation 7], and the preset target output value is GT (Ground Truth ) can be.

이때, GT는 예컨대 이미지 데이터를 제 1 은닉층(302-1)에서 컨벌루션 연산을 수행한 컨벌루션 연산값을 기초로 최댓값 풀링 연산(Max Pooling)을 수행한 값일 수도 있다. In this case, GT may be, for example, a value obtained by performing a maximum pooling operation based on a convolution operation value obtained by performing a convolution operation on image data in the first hidden layer 302-1.

Figure pat00008
Figure pat00008

Figure pat00009
Figure pat00009

Figure pat00010
Figure pat00010

여기서,

Figure pat00011
는 풀링 연산 단계의 풀링 연산값을 의미하고,
Figure pat00012
는 미리 설정한 목표 출력값을 의미한다. here,
Figure pat00011
Means the pooling operation value of the pooling operation step,
Figure pat00012
denotes a preset target output value.

손실값을 연산한 후, 제어부(150)는 연산된 손실값을 이용해 매개변수에 대한 수정값을 획득한다. After calculating the loss value, the control unit 150 obtains a correction value for the parameter using the calculated loss value.

이때, 매개변수는 w인 가중치를 의미할 수 있고, 제어부(150)는 획득한 매개 변수에 대한 수정값을 이용하여 매개 변수를 업데이트할 수 있다. In this case, the parameter may mean a weight of w, and the control unit 150 may update the parameter using the acquired correction value for the parameter.

이렇게 업데이트된 매개 변수를 이용하여, 제어부(150)는 상술한 특징맵을 재생성하는 단계부터 매개변수의 수정값을 획득하는 단계까지를 설정된 횟수로 재수행할 수 있다. Using these updated parameters, the control unit 150 may re-perform the steps from regenerating the feature map to obtaining modified values of the parameters a set number of times.

이러한 재수행 과정이 1번 완료되면 epoch 1번 학습 완료한 것이고, 재수행 과정이 100번 반복적으로 수행되면 epoch 100으로 학습 완료한 것이다. If this re-performation process is completed once, epoch 1 learning is completed, and if the re-performation process is repeated 100 times, epoch 100 learning is completed.

이러한 설정 횟수의 재수행 과정에 따라, 제어부(150)는 명확한 흑백의 이진 영상에서 다수의 클루 라인(Clue line: 601,602,701,702)을 획득한다. According to the process of re-executing the set number of times, the controller 150 acquires a plurality of clean lines (601, 602, 701, 702) in a clear black-and-white binary image.

즉, 제어부(150)는 도 9에서 망원각의 영상 이미지에서 제 1 클루 라인(601)을 획득하고, 이에 대응하여 표준각의 영상 이미지에서 제 2 클루 라인(602)을 획득한다. 이러한 제 1 클루 라인(601)과 제 2 클루 라인(602)은 서로 동일한 기울기 및 동일한 명도 대비를 갖는 특성을 이용하여 획득되고, 망원각 경계 라인(503)을 기준으로 다수 획득하되 망원각 경계 라인(503)의 각 면에 적어도 두 쌍으로 획득한다. That is, the controller 150 obtains the first claw line 601 from the video image of the telescopic angle in FIG. 9 and correspondingly obtains the second claw line 602 from the standard angle video image. The first clone line 601 and the second clone line 602 are obtained by using characteristics having the same gradient and the same brightness contrast, and a plurality of them are obtained based on the telescopic angle boundary line 503, but the telescopic angle boundary line Obtain at least two pairs on each side of 503.

마찬가지로, 제어부(150)는 표준각의 영상 이미지에서 제 3 클루 라인(701)을 획득하고, 이에 대응하여 광각의 영상 이미지에서 제 4 클루 라인(702)을 획득한다. 이러한 제 3 클루 라인(701)과 제 4 클루 라인(702)은 서로 동일한 기울기 및 동일한 명도 대비를 갖는 특성을 이용하여 획득되고, 표준각 경계 라인(503)을 기준으로 다수 획득하되 표준각 경계 라인(503)의 각 면에 적어도 두 쌍으로 획득한다. Similarly, the controller 150 obtains the third claw line 701 from the standard-angle video image, and correspondingly obtains the fourth claw line 702 from the wide-angle video image. The third and fourth clew lines 701 and 702 are obtained using characteristics having the same gradient and the same brightness contrast, and a plurality of them are obtained based on the standard angle boundary line 503, but the standard angle boundary line Obtain at least two pairs on each side of 503.

이에 따라 제 1 클루 라인(601)과 제 2 클루 라인(602)이 서로 맞물려 정합되고, 제 3 클루 라인(701)과 제 4 클루 라인(702)이 서로 맞물려 정합하며, 이때 표준각의 영상 이미지를 기준으로 망원각의 영상 이미지 또는 광각의 영상 이미지를 축소 또는 확대하여 다수의 클루 라인이 서로 대응하여 정확하게 정합되도록 한다. Accordingly, the first claw line 601 and the second claw line 602 are interdigitated and matched, and the third claw line 701 and the fourth claw line 702 are interdigitated and matched. At this time, the video image of the standard angle The telescopic image or the wide-angle image is reduced or enlarged based on , so that a plurality of clew lines correspond to each other and are accurately matched.

이를 위해 제어부(150)는 망원각의 영상 이미지 또는 광각의 영상 이미지에 대해 침식연산 또는 팽창연산을 수행하여 축소 또는 확대한다. To this end, the controller 150 performs an erosion operation or a dilation operation on the telephoto or wide-angle video image to reduce or enlarge it.

구체적으로, 침식연산은 형태학적 기반의 연산으로 아래의 [수학식 8]에 따라 수행한다. 여기서, A와 B는 해당 이미지 픽셀(Z2) 내의 집합이고, B에 의한 A의 침식은

Figure pat00013
로 표기한다. 즉, B에 의한 A의 침식은 Z에 의해 천이된 B가 A 내에 포함되는 모든 점 Z의 집합이다. Specifically, the erosion operation is a morphologically-based operation and is performed according to [Equation 8] below. where A and B are the sets within that image pixel (Z 2 ), and the erosion of A by B is
Figure pat00013
marked with That is, the erosion of A by B is the set of all points Z where B, transitioned by Z, is included in A.

Figure pat00014
Figure pat00014

이러한 침식연산이 수행되면, 피사체는 작아지면서 영상 이미지의 사이즈가 축소될 수 있다. When such an erosion operation is performed, the size of the video image may be reduced while the subject becomes smaller.

반면에, 팽창연산은 형태학적 기반의 연산으로 아래의 [수학식 9]에 따라 수행한다. 여기서, A와 B는 해당 이미지 픽셀(Z2) 내의 집합이고, B에 의한 A의 팽창은

Figure pat00015
로 표기한다. 즉, B에 의한 A의 팽창은 B와 A가 적어도 한 개 요소에 의해 겹쳐지도록 모두 Z만큼 전치된 집합이다. On the other hand, the expansion operation is a morphologically-based operation and is performed according to [Equation 9] below. where A and B are the sets within that image pixel (Z 2 ), and the dilatation of A by B is
Figure pat00015
marked with That is, the dilation of A by B is the set in which both B and A are transposed by Z such that they overlap by at least one element.

Figure pat00016
Figure pat00016

이러한 팽창연산을 다수회 반복 수행하면, 해당 영상 이미지의 사이즈가 확대될 수 있다. If this expansion operation is repeatedly performed a number of times, the size of the video image may be enlarged.

침식연산 또는 팽창연산을 수행하여 축소 또는 확대된 망원각의 영상 이미지 또는 광각의 영상 이미지가 표준각의 영상 이미지에 맞물리면서 다수의 클루 라인이 서로 대응하여 정확하게 정합될 수 있다. By performing an erosion operation or a dilation operation, a telescopic angle image or a wide angle image image that has been reduced or enlarged is interlocked with a standard angle image image, so that a plurality of clone lines can be accurately matched in correspondence with each other.

이에 따라 본 발명의 다른 실시예에 따른 디지털 연속 줌 영상 제어방법은 광각의 영상 이미지, 표준각의 영상 이미지 및 망원각의 영상 이미지를 딥 러닝 신경망을 이용하여 학습하고 표준각의 영상 이미지를 기준으로 광각의 영상 이미지와 망원각의 영상 이미지를 정합하여 디지털 연속 줌 영상을 생성할 수 있다. Accordingly, a method for controlling a digital continuous zoom image according to another embodiment of the present invention learns a wide-angle video image, a standard-angle video image, and a telescopic-angle video image using a deep learning neural network, and based on the standard-angle video image A digital continuous zoom image may be generated by matching a wide-angle video image and a telephoto video image.

본 발명의 기술사상은 상기 바람직한 실시예에 따라 구체적으로 기술되었으나, 전술한 실시예들은 그 설명을 위한 것이며, 그 제한을 위한 것이 아님을 주의하여야 한다. Although the technical idea of the present invention has been specifically described according to the above preferred embodiments, it should be noted that the above-described embodiments are for explanation and not for limitation.

또한, 본 발명의 기술분야의 통상의 전문가라면 본 발명의 기술사상의 범위 내에서 다양한 실시가 가능함을 이해할 수 있을 것이다. In addition, those skilled in the art will understand that various implementations are possible within the scope of the technical spirit of the present invention.

110: 제 1 촬상부 120: 제 2 촬상부
130: 제 3 촬상부 140: 인터페이스부
150: 제어부 160: 메모리부
170: 출력부 501: 광각 경계 라인
502: 표준각 경계 라인 503: 망원각 경계 라인
601,602,603,604: 클루 라인 A1,A2,B1,B2: 검출단
110: first imaging unit 120: second imaging unit
130: third imaging unit 140: interface unit
150: control unit 160: memory unit
170: output unit 501: wide-angle boundary line
502 standard angle boundary line 503 telescopic angle boundary line
601,602,603,604: Clue line A1,A2,B1,B2: Detection stage

Claims (7)

광각의 영상을 촬상하는 제 1 촬상부, 표준각의 영상을 촬상하는 제 2 촬상부 및 망원각의 영상을 촬상하는 제 3 촬상부에 각각 연결된 인터페이스부;
상기 인터페이스부에 연결되고, 내부에 딥 러닝 신경망을 갖는 제어부;
상기 제어부에 연결된 메모리부; 및
상기 제어부에 연결된 출력부;
를 포함하고,
상기 제어부는 상기 광각의 영상 이미지, 상기 표준각의 영상 이미지 및 상기 망원각의 영상 이미지를 중첩하고, 상기 표준각의 영상 이미지 테두리를 따라 형성된 표준각 경계 라인 및 상기 망원각의 영상 이미지 테두리를 따라 형성된 망원각 경계 라인을 따라 다수의 검출단(A1,A2,B1,B2)을 이동시키면서 검출한 영상 이미지를 상기 딥 러닝 신경망에 입력하여 딥 러닝으로 학습하면서 정합하는 것을 특징으로 하는 디지털 연속 줌 영상 제어시스템.
an interface unit connected to a first image capturing unit for capturing a wide angle image, a second image capturing unit for capturing a standard angle image, and a third image capturing unit for capturing a telescopic image;
a control unit connected to the interface unit and having a deep learning neural network therein;
a memory unit connected to the control unit; and
an output unit connected to the control unit;
including,
The controller overlaps the wide-angle video image, the standard-angle video image, and the telephoto-angle video image, and along the standard angle boundary line formed along the standard angle video image edge and the telephoto angle video image edge. Digital continuous zoom image, characterized in that the video image detected while moving the plurality of detection stages (A1, A2, B1, B2) along the formed telescopic angle boundary line is input to the deep learning neural network and matched while learning through deep learning control system.
제 1 항에 있어서,
상기 인터페이스부는 상기 제 1 촬상부, 상기 제 2 촬상부 및 상기 제 3 촬상부 각각에서 획득한 영상 이미지를 다수의 픽셀(pixel)로 이루어진 디지털 이미지로 변환하여 상기 제어부로 전달하는 것을 특징으로 하는 디지털 연속 줌 영상 제어시스템.
According to claim 1,
The interface unit converts video images obtained from each of the first imaging unit, the second imaging unit, and the third imaging unit into a digital image composed of a plurality of pixels and transmits the digital image to the control unit. Continuous zoom video control system.
제 1 항에 있어서,
상기 제어부의 딥 러닝 신경망은 입력층(input layer)과 출력층(output layer) 사이에 다수의 은닉층(hidden layer)을 갖는 CNN(Convolutional Neural Network) 신경망을 포함하는 것을 특징으로 하는 디지털 연속 줌 영상 제어시스템.
According to claim 1,
The deep learning neural network of the control unit comprises a convolutional neural network (CNN) neural network having a plurality of hidden layers between an input layer and an output layer. Digital continuous zoom image control system .
(ㄱ) 제어부가 사용자의 명령에 따라 제 1 촬상부, 제 2 촬상부 및 제 3 촬상부 각각을 통해 광각의 영상 이미지, 표준각의 영상 이미지 및 망원각의 영상 이미지를 획득하는 단계;
(ㄴ) 상기 제어부가 상기 광각의 영상 이미지, 상기 표준각의 영상 이미지 및 상기 망원각의 영상 이미지 각각에 대해 보정을 수행하는 단계; 및
(ㄷ) 상기 제어부가 보정처리된 상기 광각의 영상 이미지, 상기 표준각의 영상 이미지 및 상기 망원각의 영상 이미지를 중첩하고 CNN 신경망을 이용한 딥 러닝으로 학습하면서 정합하는 단계;
를 포함하는 디지털 연속 줌 영상 제어방법.
(a) acquiring, by a controller, a wide-angle image, a standard-angle image, and a telescopic-angle image through the first, second, and third image pickup units, respectively, according to a user's command;
(b) performing, by the controller, correction on each of the wide-angle video image, the standard-angle video image, and the telescopic-angle video image; and
(c) overlapping, by the control unit, the corrected wide-angle video image, the standard-angle video image, and the telescopic-angle video image, and matching them while learning through deep learning using a CNN neural network;
Digital continuous zoom image control method comprising a.
제 4 항에 있어서,
상기 (ㄱ)단계는 인터페이스부가 상기 제 1 촬상부, 상기 제 2 촬상부 및 상기 제 3 촬상부 각각에서 획득한 영상 이미지를 다수의 픽셀(pixel)로 이루어진 디지털 이미지로 변환하여 상기 제어부로 전달하는 것을 특징으로 하는 디지털 연속 줌 영상 제어방법.
According to claim 4,
In the step (a), the interface unit converts the video image obtained from each of the first imaging unit, the second imaging unit, and the third imaging unit into a digital image composed of a plurality of pixels and transmits it to the control unit. Digital continuous zoom image control method, characterized in that.
제 4 항에 있어서,
상기 (ㄷ)단계는
(ㄷ-1) 상기 제어부가 상기 광각의 영상 이미지, 상기 표준각의 영상 이미지 및 상기 망원각의 영상 이미지 각각의 중심을 일치시켜, 상기 광각의 영상 이미지 위에 상기 표준각의 영상 이미지를 중첩하고, 상기 표준각의 영상 이미지 위에 상기 망원각의 영상 이미지를 중첩하는 단계;
(ㄷ-2) 상기 제어부가 상기 표준각의 영상 이미지 테두리를 따라 형성된 표준각 경계 라인 및 상기 망원각의 영상 이미지 테두리를 따라 형성된 망원각 경계 라인을 따라 다수의 검출단(A1,A2,B1,B2)을 이동시키면서 영상 이미지를 검출하는 단계; 및
(ㄷ-3) 상기 제어부가 상기 다수의 검출단(A1,A2,B1,B2)을 이동시키면서 검출한 영상 이미지를 상기 CNN 신경망에 입력하여 딥 러닝으로 학습하면서 정합하는 단계;
를 더 포함하는 것을 특징으로 하는 디지털 연속 줌 영상 제어방법.
According to claim 4,
The step (c) is
(c-1) the control unit aligns the center of each of the wide-angle video image, the standard-angle video image, and the telescopic-angle video image, and overlaps the standard-angle video image on the wide-angle video image; superimposing the video image of the telescopic angle on the video image of the standard angle;
(c-2) The control unit has a plurality of detection stages A1, A2, B1, detecting a video image while moving B2); and
(c-3) inputting video images detected while moving the plurality of detection terminals (A1, A2, B1, B2) to the CNN neural network and matching them while learning through deep learning;
Digital continuous zoom image control method characterized in that it further comprises.
제 6 항에 있어서,
상기 다수의 검출단(A1,A2,B1,B2)은 상기 망원각의 영상 이미지에서 상기 망원각 경계 라인의 내측을 따라 이동하는 제 1 검출단(A1), 상기 표준각의 영상 이미지에서 상기 망원각 경계 라인의 외측을 따라 이동하는 제 2 검출단(A2), 상기 표준각의 영상 이미지에서 상기 표준각 경계 라인의 내측을 따라 이동하는 제 3 검출단(B1) 및 상기 광각의 영상 이미지에서 상기 표준각 경계 라인의 외측을 따라 이동하는 제 4 검출단(B2)을 포함하는 것을 특징으로 하는 디지털 연속 줌 영상 제어방법.
According to claim 6,
The plurality of detection stages A1, A2, B1, and B2 include a first detection stage A1 moving along the inner side of the boundary line of the telescopic angle in the video image of the telephoto angle, and the telephoto angle in the video image of the standard angle. A second detection end (A2) moving along the outside of each boundary line, a third detection end (B1) moving along the inside of the standard angle boundary line in the standard angle video image, and the wide angle image A digital continuous zoom image control method comprising a fourth detection end (B2) moving along the outside of the standard angle boundary line.
KR1020210183144A 2021-12-20 2021-12-20 Control system of digital continuous zoom image and control method thereof KR20230094015A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210183144A KR20230094015A (en) 2021-12-20 2021-12-20 Control system of digital continuous zoom image and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210183144A KR20230094015A (en) 2021-12-20 2021-12-20 Control system of digital continuous zoom image and control method thereof

Publications (1)

Publication Number Publication Date
KR20230094015A true KR20230094015A (en) 2023-06-27

Family

ID=86947222

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210183144A KR20230094015A (en) 2021-12-20 2021-12-20 Control system of digital continuous zoom image and control method thereof

Country Status (1)

Country Link
KR (1) KR20230094015A (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160142760A (en) 2015-06-03 2016-12-13 삼성전자주식회사 Method and apparatus of multi-frame super resolution robust to local and global motion

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160142760A (en) 2015-06-03 2016-12-13 삼성전자주식회사 Method and apparatus of multi-frame super resolution robust to local and global motion

Similar Documents

Publication Publication Date Title
JP6347675B2 (en) Image processing apparatus, imaging apparatus, image processing method, imaging method, and program
TWI531852B (en) Device of capturing images and method of digital focusing
JP5313127B2 (en) Video composition method, video composition system
JPH1093808A (en) Image synthesis device/method
CN111553841B (en) Real-time video splicing method based on optimal suture line updating
CN112261387B (en) Image fusion method and device for multi-camera module, storage medium and mobile terminal
WO2012068902A1 (en) Method and system for enhancing text image clarity
JP2020129276A (en) Image processing device, image processing method, and program
CN108665415B (en) Image quality improving method and device based on deep learning
JP2006287589A (en) Image processing method and image processing apparatus
CN105491267A (en) Image capturing device and digital zooming method
CN109636731B (en) Image smear elimination method, electronic device and storage medium
CN110378850B (en) Zoom image generation method combining block matching and neural network
CN105472263B (en) Image acquisition method and the image capture equipment for using the method
CN114651275B (en) Image stitching of full field of view reference images
Mehta et al. Gated multi-resolution transfer network for burst restoration and enhancement
US9225909B1 (en) Image capturing device and digital zoom display method
CN116823611A (en) Multi-focus image-based referenced super-resolution method
KR20230094015A (en) Control system of digital continuous zoom image and control method thereof
CN110896444B (en) Double-camera switching method and equipment
CN116208812A (en) Video frame inserting method and system based on stereo event and intensity camera
JPWO2014077024A1 (en) Image processing apparatus, image processing method, and image processing program
CN105491278B (en) Image capture unit and digital zoom display methods
JP2020194532A (en) Method, system, and device for detecting object in distorted image
CN110784642B (en) Image processing apparatus, control method thereof, storage medium, and imaging apparatus

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E601 Decision to refuse application