KR20180095059A - An image fusion method and apparatus, and a terminal device - Google Patents

An image fusion method and apparatus, and a terminal device Download PDF

Info

Publication number
KR20180095059A
KR20180095059A KR1020187020715A KR20187020715A KR20180095059A KR 20180095059 A KR20180095059 A KR 20180095059A KR 1020187020715 A KR1020187020715 A KR 1020187020715A KR 20187020715 A KR20187020715 A KR 20187020715A KR 20180095059 A KR20180095059 A KR 20180095059A
Authority
KR
South Korea
Prior art keywords
image
images
reference image
frames
registered
Prior art date
Application number
KR1020187020715A
Other languages
Korean (ko)
Other versions
KR102103252B1 (en
Inventor
콩차오 주
Original Assignee
후아웨이 테크놀러지 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 후아웨이 테크놀러지 컴퍼니 리미티드 filed Critical 후아웨이 테크놀러지 컴퍼니 리미티드
Publication of KR20180095059A publication Critical patent/KR20180095059A/en
Application granted granted Critical
Publication of KR102103252B1 publication Critical patent/KR102103252B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/684Vibration or motion blur correction performed by controlling the image sensor readout, e.g. by controlling the integration time
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6811Motion detection based on the image signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/741Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/743Bracketing, i.e. taking a series of images with varying exposure conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Abstract

본 발명의 실시예들은 이미지 융합 방법 및 장치, 및 단말 디바이스를 개시한다. 이 방법은 단말 디바이스에 적용되고, 제1 카메라와 제2 카메라는 단말 디바이스 상에 제공된다. 이 방법은 제1 카메라를 사용하는 것에 의해 동일한 노출 시간에 제1 이미지들의 적어도 2개의 프레임을 캡처하고, 제2 카메라를 사용하는 것에 의해 상이한 노출 시간들에 제2 이미지들의 적어도 2개의 프레임을 캡처하는 단계- 제1 이미지들의 캡처링 시간과 제2 이미지들의 캡처링 시간은 동일함 -; 제1 이미지들의 적어도 2개의 프레임으로부터 제1 참조 이미지를 결정하는 단계; 제1 참조 이미지에 따라 제1 이미지들의 적어도 2개의 프레임에서 제1 참조 이미지 이외의 이미지에 대해 이동 타겟 검출을 수행하여, 제1 참조 이미지에 대한, 제1 이미지들의 적어도 2개의 프레임에서 제1 참조 이미지 이외의 이미지의 로컬 모션 크기를 획득하는 단계; 및 로컬 모션 크기에 따라 제2 이미지들에 대해 이미지 융합을 수행하는 단계를 포함한다. 본 발명의 실시예들을 사용하는 것에 의해, 이동 타겟 검출의 정확도가 향상될 수 있고, 고스팅이 제거되고, 이미지 융합의 정확도가 비교적 높다.Embodiments of the present invention disclose an image fusion method and apparatus, and a terminal device. This method is applied to the terminal device, and the first camera and the second camera are provided on the terminal device. The method includes capturing at least two frames of the first images at the same exposure time by using a first camera and capturing at least two frames of the second images at different exposure times by using a second camera The capturing time of the first images being the same as the capturing time of the second images; Determining a first reference image from at least two frames of the first images; Moving target detection is performed on an image other than the first reference image in at least two frames of the first images according to the first reference image to obtain a first reference image for at least two frames of the first images, Obtaining a local motion size of an image other than an image; And performing image fusion on the second images according to the local motion magnitude. By using embodiments of the present invention, the accuracy of moving target detection can be improved, ghosting is eliminated, and the accuracy of image fusion is relatively high.

Figure pct00042
Figure pct00042

Description

이미지 융합 방법 및 장치, 및 단말 디바이스An image fusion method and apparatus, and a terminal device

본 발명은 이미지 처리 기술 분야에 관한 것이고, 특히 이미지 융합 방법 및 장치, 및 단말 디바이스에 관한 것이다.The present invention relates to the field of image processing technology, and more particularly to an image fusion method and apparatus and a terminal device.

하이 다이내믹 레인지(High Dynamic Range, HDR) 이미지는 로우 다이내믹 레인지(Low Dynamic Range, LDR) 이미지들을 상이한 노출 시간들에 융합하여 획득한다. HDR 이미지는 더 많은 다이내믹 레인지와 이미지 상세를 제공할 수 있고, 현실-세계 환경에서의 시각 효과를 더 잘 반영할 수 있다. HDR 기술은 상이한 노출 시간들에 LDR 이미지들을 캡처할 필요가 있기 때문에, LDR 이미지들을 캡처하는 과정에서 손 떨림이나 시나리오에서의 객체가 움직이면 LDR 이미지들을 융합하여 획득된 HDR 이미지에서 고스팅(ghosting)이 발생한다.High Dynamic Range (HDR) images are obtained by fusing Low Dynamic Range (LDR) images to different exposure times. HDR images can provide more dynamic range and image detail and better reflect visual effects in a real-world environment. Since HDR technology needs to capture LDR images at different exposure times, if an object in a hand shake or scenario moves during the capture of LDR images, ghosting in the HDR image obtained by fusing LDR images Occurs.

종래의 이미지 융합 방법에서, 카메라를 사용하는 것에 의해 이미지들의 적어도 2개의 프레임이 연속적으로 캡처된다. 이미지 융합에서 손 떨림이나 이동 장면에 의해 초래되는 영향들을 감소시키기 위해, 이미지 등록 및 디-고스팅(de-ghosting) 알고리즘이 캡처된 이미지에 수행되어 처리된 이미지들을 획득한다. HDR 이미지는 이미지 융합 알고리즘을 사용하는 것에 의해 처리된 이미지들을 융합하여 획득된다. 이미지들의 적어도 2개의 프레임은 카메라를 사용하는 것에 의해 연속적으로 캡처될 때 노출 차이가 있기 때문에, 이동 타겟 검출이 부정확하고 이미지 융합의 정확도가 비교적 낮다.In a conventional image fusion method, at least two frames of images are successively captured by using a camera. An image registration and de-ghosting algorithm is performed on the captured image to obtain the processed images to reduce the effects caused by hand movement or moving scenes in image fusion. The HDR image is obtained by fusing the processed images by using an image fusion algorithm. Because there is an exposure difference when at least two frames of images are successively captured by using a camera, moving target detection is inaccurate and the accuracy of image fusion is relatively low.

본 출원은 데이터 송신 방법 및 장치, 및 단말 디바이스를 제공하여, 이동 타겟 검출의 정확도를 향상시키고 고스팅을 제거하여, 이미지 융합의 정확도가 비교적 높다.The present application provides a data transmission method and apparatus and a terminal device to improve the accuracy of moving target detection and eliminate ghosting, so that the accuracy of image fusion is relatively high.

제1 양태에 따르면, 이미지 융합 방법이 제공되고, 이 방법은 단말 디바이스에 적용되고, 제1 카메라와 제2 카메라는 단말 디바이스 상에 제공되고, 이 방법은 다음을 포함한다:According to a first aspect, an image fusion method is provided, the method being applied to a terminal device, wherein a first camera and a second camera are provided on the terminal device, the method comprising:

제1 카메라를 사용하는 것에 의해 동일한 노출 시간에 제1 이미지들의 적어도 2개의 프레임을 캡처하고, 제2 카메라를 사용하는 것에 의해 상이한 노출 시간들에 제2 이미지들의 적어도 2개의 프레임을 캡처하는 단계- 제1 이미지들의 캡처링 시간과 제2 이미지들의 캡처링 시간은 동일함 -;Capturing at least two frames of the first images at the same exposure time by using a first camera and capturing at least two frames of the second images at different exposure times by using a second camera, The capturing time of the first images being the same as the capturing time of the second images;

제1 이미지들의 적어도 2개의 프레임으로부터 제1 참조 이미지를 결정하는 단계;Determining a first reference image from at least two frames of the first images;

제1 참조 이미지에 따라 제1 이미지들의 적어도 2개의 프레임에서 제1 참조 이미지 이외의 이미지에 대해 이동 타겟 검출을 수행하여, 제1 참조 이미지에 대한, 제1 이미지들의 적어도 2개의 프레임에서 제1 참조 이미지 이외의 이미지 로컬 모션 크기를 획득하는 단계- 로컬 모션 크기는 이동 타겟 검출에 의해 검출된 이동 타겟에 의해 점유된 픽셀들의 양에 관한 정보를 나타내기 위해 사용됨 -; 및Moving target detection is performed on an image other than the first reference image in at least two frames of the first images according to the first reference image to obtain a first reference image for at least two frames of the first images, Acquiring an image local motion size other than the image, the local motion magnitude being used to indicate information about the amount of pixels occupied by the moving target detected by the moving target detection; And

로컬 모션 크기에 따라 제2 이미지들에 대해 이미지 융합을 수행하는 단계를 포함한다.And performing image fusion on the second images according to the local motion magnitude.

이 기술적 해결책에서, 단말 디바이스는 제1 카메라와 제2 카메라를 사용하는 것에 의해 이미지들의 적어도 2개의 프레임을 동기적으로 캡처할 수 있고, 제1 카메라에 의해 캡처된 제1 이미지들의 적어도 2개의 프레임의 노출 시간들은 동일하다. 단말 디바이스는 제1 이미지들에 대해 이동 타겟 검출을 수행하여, 이동 타겟 검출의 정확도가 향상될 수 있다. 그 후, 단말 디바이스는 제1 카메라에 의해 캡처된 제1 이미지들에 따라, 제2 카메라에 의해 캡처된 제2 이미지들에 대해 이미지 융합을 수행하여, 고스팅이 제거될 수 있고, 이미지 융합의 정확도가 비교적 높다.In this technical solution, the terminal device can synchronously capture at least two frames of images by using a first camera and a second camera, and at least two frames of the first images captured by the first camera Of exposure time are the same. The terminal device performs moving target detection on the first images, so that the accuracy of moving target detection can be improved. The terminal device then performs image fusion on the second images captured by the second camera in accordance with the first images captured by the first camera so that ghosting can be eliminated and the image fusion The accuracy is relatively high.

제1 가능한 구현예에서, 단말 디바이스는 로컬 모션 크기가 제1 미리 설정된 임계값보다 크거나 같은지를 결정할 수 있고, 로컬 모션 크기가 제1 미리 설정된 임계값보다 크거나 같은 경우, 제2 이미지들의 적어도 2개의 프레임에서 노출 시간이 제1 미리 설정된 시간인 이미지를 출력한다.In a first possible implementation, the terminal device may determine whether the local motion size is greater than or equal to a first predetermined threshold value, and if the local motion magnitude is greater than or equal to a first predetermined threshold value, And outputs an image whose exposure time is the first predetermined time in two frames.

이 기술적 해결책에서, 로컬 모션 크기가 제1 미리 설정된 임계값보다 크거나 같은 경우, 단말 디바이스는 제1 이미지들에서 제1 참조 이미지 이외의 이미지에 대한 제1 참조 이미지의 모션 크기가 비교적 큰 것으로 결정할 수 있다. 고스팅을 피하기 위해, 단말 디바이스는 노출 시간이 제1 미리 설정된 시간인 제2 이미지를 직접 출력할 수 있다.In this technical solution, if the local motion size is greater than or equal to the first preset threshold, the terminal device determines that the motion magnitude of the first reference image for the image other than the first reference image in the first images is relatively large . To avoid ghosting, the terminal device may directly output a second image with an exposure time of a first predetermined time.

제1 양태를 참조하면, 제2 가능한 구현예에서, 로컬 모션 크기가 제2 미리 설정된 임계값보다 작은 경우, 단말 디바이스는 제2 이미지들의 적어도 2개의 프레임으로부터 제2 참조 이미지를 결정하고, 제2 참조 이미지에 따라 제2 이미지들의 적어도 2개의 프레임에서 제2 참조 이미지 이외의 이미지에 대해 이미지 등록을 수행하여 등록된 제2 이미지를 획득하고, 이미지 융합 알고리즘을 사용하는 것에 의해 제2 참조 이미지와 등록된 제2 이미지에 대해 이미지 융합을 수행할 수 있다.Referring to the first aspect, in a second possible implementation, if the local motion size is less than a second predetermined threshold, the terminal device determines a second reference image from at least two frames of the second images, Performing image registration on an image other than the second reference image in at least two frames of the second images according to the reference image to obtain a registered second image, and using the image fusion algorithm, Lt; RTI ID = 0.0 > image < / RTI >

이 기술적 해결책에서, 로컬 모션 크기가 제2 미리 설정된 임계값보다 작은 경우, 단말 디바이스는 제1 이미지들에서 제1 참조 이미지 이외의 이미지에 대한 제1 참조 이미지의 모션 크기가 무시된 것으로 결정할 수 있다. 단말 디바이스는 제2 참조 이미지와 등록된 제2 이미지에 대해 직접 이미지 융합을 수행할 수 있고, 이는 이미지 융합의 정밀도에 영향을 미치지 않는다.In this technical solution, if the local motion size is smaller than the second predetermined threshold, the terminal device may determine that the motion magnitude of the first reference image for the image other than the first reference image in the first images is ignored . The terminal device can perform direct image fusion on the second reference image and the registered second image, which does not affect the accuracy of the image fusion.

제1 양태를 참조하면, 제3 가능한 구현예에서, 로컬 모션 크기가 제2 미리 설정된 임계값보다 크거나 같고 제1 미리 설정된 임계값보다 작은 경우, 단말 디바이스는 제2 이미지들의 적어도 2개의 프레임으로부터 제2 참조 이미지를 결정하고, 제2 참조 이미지에 따라 제2 이미지들의 적어도 2개의 프레임에서 제2 참조 이미지 이외의 이미지에 대해 이미지 등록을 수행하여 등록된 제2 이미지를 획득하고, 제2 참조 이미지에 따라 등록된 제2 이미지에 대해 모션 보상을 수행하여, 모션 보상된 제2 이미지를 획득하고, 이미지 융합 알고리즘을 사용하는 것에 의해 제2 참조 이미지와 모션 보상된 제2 이미지에 대해 이미지 융합을 수행할 수 있다.Referring to the first aspect, in a third possible implementation, if the local motion size is greater than or equal to a second predetermined threshold value and less than a first predetermined threshold value, the terminal device determines from at least two frames of second images Determine a second reference image, perform image registration on an image other than the second reference image in at least two frames of the second images according to the second reference image to obtain a registered second image, Performs motion compensation on the registered second image to obtain a motion compensated second image and performs image fusion on the second reference image and the motion compensated second image by using an image fusion algorithm can do.

이 기술적 해결책에서, 로컬 모션 크기가 제2 미리 설정된 임계값보다 크거나 같고 제1 미리 설정된 임계값보다 작은 경우, 단말 디바이스는 제1 이미지들에서 제1 참조 이미지 이외의 이미지에 대한 제1 참조 이미지의 모션 크기가 비교적 작은 것으로 결정할 수 있다. 단말 디바이스는 제2 참조 이미지에 따라 등록된 제2 이미지에 대해 모션 보상을 수행하여 모션 보상된 제2 이미지를 획득하고, 이미지 융합 알고리즘을 사용하는 것에 의해 제2 참조 이미지와 모션 보상된 제2 이미지에 대해 이미지 융합을 수행할 수 있어, 이미지 융합의 정확도가 향상된다.In this technical solution, if the local motion size is greater than or equal to a second preset threshold value and less than a first predetermined threshold value, the terminal device determines that the first reference image for images other than the first reference image in the first images Can be determined to be relatively small. The terminal device performs motion compensation on the second image registered according to the second reference image to obtain a motion compensated second image, and by using the image fusion algorithm, the second reference image and the motion compensated second image It is possible to perform image fusion with respect to the image, thereby improving the accuracy of the image fusion.

제1 양태, 또는 제1 양태의 제1 내지 제3 가능한 구현예들 중 어느 하나를 참조하면, 제4 가능한 구현예에서, 단말 디바이스는, 제1 참조 이미지에 따라 제1 이미지들의 적어도 2개의 프레임에서 제1 참조 이미지 이외의 이미지에 대해 이동 타겟 검출을 수행하여, 제1 참조 이미지에 대한, 제1 이미지들의 적어도 2개의 프레임에서 제1 참조 이미지 이외의 이미지의 모션 보상 매트릭스를 생성하고, 모션 보상 매트릭스에 따라 제1 이미지들의 적어도 2개의 프레임에서 제1 참조 이미지 이외의 이미지에 대해 이미지 등록을 수행하여 등록된 제1 이미지를 획득하고, 제1 참조 이미지에 대한, 등록된 제1 이미지의 로컬 모션 크기를 획득할 수 있다.Referring to either the first aspect or any one of the first through third possible implementations of the first aspect, in a fourth possible implementation, the terminal device is configured to generate at least two frames of the first images in accordance with the first reference image, To generate motion compensation matrices for images other than the first reference image in at least two frames of the first images for the first reference image, Performing image registration on an image other than the first reference image in at least two frames of the first images according to a matrix to obtain a registered first image and determining a local motion of the registered first image Size can be obtained.

제1 양태의 제4 가능한 구현예를 참조하면, 제5 가능한 구현예에서, 제1 참조 이미지에 따른 제1 이미지들의 적어도 2개의 프레임의 제1 참조 이미지 이외의 이미지에 대해 이동 타겟 검출을 수행하여, 제1 참조 이미지에 대한, 제1 이미지들의 적어도 2개의 프레임에서 제1 참조 이미지 이외의 이미지의 모션 보상 매트릭스를 생성한 후에, 제2 참조 이미지에 따라 제2 이미지들의 적어도 2개의 프레임에서 제2 참조 이미지 이외의 이미지에 대해 이미지 등록을 수행하는 프로세스에서, 단말 디바이스는 전술한 모션 보상 매트릭스에 따라 제2 이미지들의 적어도 2개의 프레임에서 제2 참조 이미지 이외의 이미지에 대해 이미지 등록을 수행하여 등록된 제2 이미지를 획득할 수 있다.Referring to a fourth possible implementation of the first aspect, in a fifth possible implementation, moving target detection is performed on an image other than the first reference image of at least two frames of the first images according to the first reference image After generating a motion compensation matrix for an image other than the first reference image in at least two frames of the first images for the first reference image, In the process of performing image registration on an image other than the reference image, the terminal device performs image registration on an image other than the second reference image in at least two frames of the second images according to the above-described motion compensation matrix, A second image can be obtained.

제1 이미지들의 캡처링 시간과 제2 이미지들의 캡처링 시간이 동일하기 때문에, 제1 참조 이미지에 대한, 제1 이미지들의 적어도 2개의 프레임에서 제1 참조 이미지 이외의 이미지의 모션 크기는, 제2 이미지들의 적어도 2개의 프레임에서 제2 참조 이미지들에 대한, 제2 참조 이미지 이외의 이미지의 모션 크기와 동일하다는 점을 유의해야 한다. 단말 디바이스는 제1 참조 이미지에 따라 제1 이미지들의 적어도 2개의 프레임에서 제1 참조 이미지 이외의 이미지에 대해 이동 타겟 검출을 수행하고, 제1 참조 이미지에 대한, 제1 이미지들의 적어도 2개의 프레임에서 제1 참조 이미지 이외의 이미지의 생성된 모션 보상 매트릭스를, 제2 이미지들의 적어도 2개의 프레임에서 제2 참조 이미지 이외의 이미지의 모션 보상 매트릭스로서 사용하고, 모션 보상 매트릭스에 따라 제2 이미지들의 적어도 2개의 프레임에서 제2 참조 이미지 이외의 이미지에 대해 이미지 등록을 수행하여, 이미지 처리 효율이 향상될 수 있고, 리소스 활용이 향상된다.Since the capturing time of the first images is the same as the capturing time of the second images, the motion size of the image other than the first reference image in at least two frames of the first images for the first reference image, Is equal to the motion size of the image other than the second reference image, for the second reference images in at least two frames of the images. The terminal device performs moving target detection on an image other than the first reference image in at least two frames of the first images in accordance with the first reference image and performs motion detection on the at least two frames of the first images, Using the generated motion compensation matrix of an image other than the first reference image as a motion compensation matrix of an image other than the second reference image in at least two frames of the second images and using at least two of the second images according to the motion compensation matrix Image registration is performed on images other than the second reference image in the frames, the image processing efficiency can be improved, and the resource utilization is improved.

제2 양태에 따르면, 컴퓨터 저장 매체가 제공되고, 컴퓨터 저장 매체는 프로그램을 저장할 수 있고, 프로그램이 실행될 때, 제1 양태의 일부 또는 모든 단계가 포함된다.According to a second aspect, a computer storage medium is provided, the computer storage medium storing a program, and when the program is executed, some or all of the steps of the first aspect are included.

제3 양태에 따르면, 이미지 융합 장치가 제공되고, 장치는 이미지 캡처링 유닛, 참조 이미지 결정 유닛, 모션 크기 획득 유닛 및 이미지 융합 유닛을 포함하고, 장치는 제1 양태를 참조하여 일부 또는 모든 단계를 구현하도록 구성될 수 있다.According to a third aspect, an image fusion apparatus is provided, and the apparatus includes an image capturing unit, a reference image determining unit, a motion size obtaining unit and an image fusion unit, and the apparatus can perform some or all steps . ≪ / RTI >

제4 양태에 따르면, 프로세서, 제1 카메라, 제2 카메라, 및 메모리를 포함하는 단말 디바이스가 제공되고, 메모리는 프로그램 코드 세트를 저장하고, 프로세서, 제1 카메라 및 제2 카메라는 메모리에 저장되는 프로그램 코드를 호출하여 다음의 동작들을 수행한다:According to a fourth aspect, there is provided a terminal device comprising a processor, a first camera, a second camera, and a memory, the memory storing a set of program codes, wherein the processor, the first camera and the second camera are stored in a memory The program code is called to perform the following operations:

제1 카메라는 동일한 노출 시간에 제1 이미지들의 적어도 2개의 프레임을 캡처하고; 제2 카메라는 상이한 노출 시간들에 제2 이미지들의 적어도 2개의 프레임을 캡처하고, 제1 이미지들의 캡처링 시간과 제2 이미지들의 캡처링 시간은 동일하고; 프로세서는 제1 이미지들의 적어도 2개의 프레임으로부터 제1 참조 이미지를 결정하고; 프로세서는 제1 참조 이미지에 따라 제1 이미지들의 적어도 2개의 프레임에서 제1 참조 이미지 이외의 이미지에 대해 이동 타겟 검출을 수행하여, 제1 참조 이미지에 대한, 제1 이미지들의 적어도 2개의 프레임에서 제1 참조 이미지 이외의 이미지의 로컬 모션 크기를 획득하고; 프로세서는 로컬 모션 크기에 따라 제2 이미지들에 대해 이미지 융합을 수행하고, 로컬 모션 크기는 이동 타겟 검출에 의해 검출된 이동 타겟에 의해 점유된 픽셀들의 양에 관한 정보를 나타내기 위해 사용된다.The first camera captures at least two frames of the first images at the same exposure time; The second camera captures at least two frames of the second images at different exposure times, the capturing time of the first images and the capturing time of the second images being the same; The processor determines a first reference image from at least two frames of the first images; The processor performs motion target detection on an image other than the first reference image in at least two frames of the first images in accordance with the first reference image to generate motion detection information for at least two frames of the first images, 1 obtain a local motion size of an image other than the reference image; The processor performs image fusion on the second images according to the local motion size and the local motion magnitude is used to indicate information about the amount of pixels occupied by the moving target detected by the moving target detection.

제1 가능한 구현예에서, 프로세서가 로컬 모션 크기에 따라 제2 이미지들에 대해 이미지 융합을 수행하는 것은 구체적으로: 로컬 모션 크기가 제1 미리 설정된 임계값보다 크거나 같은 경우, 프로세서에 의해, 제2 이미지들의 적어도 2개의 프레임에서 노출 시간이 제1 미리 설정된 시간인 이미지를 출력하는 것을 포함한다.In a first possible implementation, the processor performs image fusion on the second images according to the local motion magnitude, in particular: if the local motion magnitude is greater than or equal to the first predetermined threshold value, And outputting an image whose exposure time is at a first predetermined time in at least two frames of two images.

제4 양태를 참조하면, 제2 가능한 구현예에서, 프로세서가 로컬 모션 크기에 따라 제2 이미지들에 대해 이미지 융합을 수행하는 것은 구체적으로: 로컬 모션 크기가 제2 미리 설정된 임계값보다 작은 경우, 프로세서에 의해, 제2 이미지들의 적어도 2개의 프레임으로부터 제2 참조 이미지를 결정하는 것; 프로세서에 의해, 제2 참조 이미지에 따라 제2 이미지들의 적어도 2개의 프레임에서 제2 참조 이미지 이외의 이미지에 대해 이미지 등록을 수행하여 등록된 제2 이미지를 획득하는 것; 및 이미지 융합 알고리즘을 사용하는 것에 의해 제2 참조 이미지와 등록된 제2 이미지에 대해 이미지 융합을 수행하는 것을 포함한다.Referring to the fourth aspect, in a second possible implementation, the processor performs image fusion on the second images according to the local motion size, in particular: if the local motion size is less than the second predetermined threshold, Determining, by the processor, a second reference image from at least two frames of the second images; Performing image registration by the processor on an image other than the second reference image in at least two frames of the second images according to the second reference image to obtain a registered second image; And performing image fusion on the second reference image and the registered second image by using an image fusion algorithm.

제4 양태를 참조하면, 제3 가능한 구현예에서, 프로세서가 로컬 모션 크기에 따라 제2 이미지들에 대해 이미지 융합을 수행하는 것은 구체적으로: 로컬 모션 크기가 제2 미리 설정된 임계값보다 크거나 같고 제1 미리 설정된 임계값보다 작은 경우, 프로세서에 의해, 제2 이미지들의 적어도 2개의 프레임으로부터 제2 참조 이미지를 결정하는 것; 프로세서에 의해, 제2 참조 이미지에 따라 제2 이미지들의 적어도 2개의 프레임에서 제2 참조 이미지 이외의 이미지에 대해 이미지 등록을 수행하여 등록된 제2 이미지를 획득하는 것; 프로세서에 의해, 제2 참조 이미지에 따라 등록된 제2 이미지에 대해 모션 보상을 수행하여 모션 보상된 제2 이미지를 획득하는 것; 및 이미지 융합 알고리즘을 사용하는 것에 의해 제2 참조 이미지와 모션 보상된 제2 이미지에 대해 이미지 융합을 수행하는 것을 포함한다.Referring to the fourth aspect, in a third possible implementation, the processor performs image fusion on the second images according to the local motion size, in particular: if the local motion size is greater than or equal to the second preset threshold Determining a second reference image from at least two frames of the second images by the processor if the first reference image is smaller than a first predetermined threshold; Performing image registration by the processor on an image other than the second reference image in at least two frames of the second images according to the second reference image to obtain a registered second image; Performing, by the processor, motion compensation on the second image registered according to the second reference image to obtain a motion compensated second image; And performing image fusion on the second reference image and the motion compensated second image by using an image fusion algorithm.

제4 양태, 또는 제4 양태의 제1 내지 제3 가능한 구현예들 중 어느 하나를 참조하면, 제4 가능한 구현예에서, 프로세서가, 제1 참조 이미지에 따라 제1 이미지들의 적어도 2개의 프레임에서 제1 참조 이미지 이외의 이미지에 대해 이동 타겟 검출을 수행하여, 제1 참조 이미지에 대한, 제1 이미지들의 적어도 2개의 프레임에서 제1 참조 이미지 이외의 이미지의 로컬 모션 크기를 획득하는 것은 구체적으로: 프로세서에 의해, 제1 참조 이미지에 따라 제1 이미지들의 적어도 2개의 프레임에서 제1 참조 이미지 이외의 이미지에 대해 이동 타겟 검출을 수행하여, 제1 참조 이미지에 대한, 제1 이미지들의 적어도 2개의 프레임에서 제1 참조 이미지 이외의 이미지의 모션 보상 매트릭스를 생성하는 것; 프로세서에 의해, 모션 보상 매트릭스에 따라 제1 이미지들의 적어도 2개의 프레임에서 제1 참조 이미지 이외의 이미지에 대해 이미지 등록을 수행하여 등록된 제1 이미지를 획득하는 것; 및 프로세서에 의해, 제1 참조 이미지에 대한, 등록된 제1 이미지의 로컬 모션 크기를 획득하는 것을 포함한다.Referring to any one of the first to third possible implementations of the fourth aspect or the fourth aspect, in a fourth possible implementation, the processor is configured to determine, in at least two frames of the first images according to the first reference image Obtaining a local motion size of an image other than the first reference image in at least two frames of the first images, for a first reference image, by performing motion target detection on an image other than the first reference image, The processor performs motion target detection on an image other than the first reference image in at least two frames of the first images according to the first reference image to obtain at least two frames of the first images Generating a motion compensation matrix for an image other than the first reference image; Performing image registration by the processor on an image other than the first reference image in at least two frames of the first images in accordance with the motion compensation matrix to obtain a registered first image; And obtaining, by the processor, the local motion size of the registered first image for the first reference image.

제4 양태의 제4 가능한 구현예를 참조하면, 제5 가능한 구현예에서, 프로세서가 제2 참조 이미지에 따라 제2 이미지들의 적어도 2개의 프레임에서 제2 참조 이미지 이외의 이미지에 대해 이미지 등록을 수행하여 등록된 제2 이미지를 획득하는 것은 구체적으로: 프로세서에 의해, 모션 보상 매트릭스에 따라 제2 이미지들의 적어도 2개의 프레임에서 제2 참조 이미지 이외의 이미지에 대해 이미지 등록을 수행하여 등록된 제2 이미지를 획득하는 것을 포함한다.Referring to a fourth possible implementation of the fourth aspect, in a fifth possible implementation, the processor performs image registration on an image other than the second reference image in at least two frames of the second images according to the second reference image Acquiring a second image registered by the processor is specifically performed by the processor to perform image registration on an image other than the second reference image in at least two frames of the second images in accordance with the motion compensation matrix, ≪ / RTI >

본 발명의 실시예들에서의 기술적 해결책들을 더 명확하게 설명하기 위해, 이하에서는 실시예들을 설명하기 위해 요구되는 첨부 도면들을 간단히 설명한다. 명백하게, 다음의 설명에서의 첨부 도면들은 단지 본 발명의 일부 실시예를 나타내고, 본 기술분야의 통상의 기술자는 창조적인 노력 없이 여전히 이들 첨부 도면들로부터 다른 도면들을 도출할 수 있다.
도 1a 및 도 1b는 본 발명의 실시예에 따른 이미지 융합 방법의 개략적인 흐름도이다;
도 2a는 본 발명의 실시예에 따른 카메라의 개략 구조도이다;
도 2b는 본 발명의 실시예에 따른 제1 이미지를 갖는 인터페이스의 개략도이다;
도 2c는 본 발명의 실시예에 따른 제2 이미지를 갖는 인터페이스의 개략도이다;
도 3은 본 발명의 실시예에 따른 이미지 융합 장치의 개략 구조도이다; 및
도 4는 본 발명의 실시예에 따른 단말 디바이스의 개략 구조도이다.
BRIEF DESCRIPTION OF THE DRAWINGS In order to more clearly describe the technical solutions in embodiments of the present invention, the following detailed description of the accompanying drawings is provided to explain the embodiments. Obviously, the appended drawings in the following description merely illustrate some embodiments of the invention, and those of ordinary skill in the art can still derive other figures from these attached drawings without creative effort.
1A and 1B are schematic flow diagrams of an image fusion method according to an embodiment of the present invention;
2A is a schematic structural view of a camera according to an embodiment of the present invention;
Figure 2b is a schematic diagram of an interface with a first image according to an embodiment of the invention;
2C is a schematic diagram of an interface with a second image according to an embodiment of the present invention;
3 is a schematic structural view of an image fusion apparatus according to an embodiment of the present invention; And
4 is a schematic structural view of a terminal device according to an embodiment of the present invention.

이하에서는 본 발명의 실시예들에서의 기술적 해결책들을, 본 발명의 실시예에서의 첨부 도면들을 참조하여 명확하게 설명한다.In the following, technical solutions in embodiments of the present invention are clearly described with reference to the accompanying drawings in the embodiments of the present invention.

도 1a 및 도 1b를 참조하면, 도 1a 및 도 1b는 본 발명의 실시예에 따른 이미지 융합 방법의 개략적인 흐름도이다. 본 발명의 이 실시예에서 도면에 도시된 이미지 융합 방법은 적어도 다음 단계들을 포함할 수 있다.Referring to FIGS. 1A and 1B, FIGS. 1A and 1B are schematic flow charts of an image fusion method according to an embodiment of the present invention. In this embodiment of the present invention, the image fusion method shown in the drawings may include at least the following steps.

S101. 제1 카메라를 사용하는 것에 의해 동일한 노출 시간에 제1 이미지들의 적어도 2개의 프레임을 캡처하고, 제2 카메라를 사용하는 것에 의해 상이한 노출 시간들에 제2 이미지들의 적어도 2개의 프레임을 캡처하고, 제1 이미지들의 캡처링 시간 및 제2 이미지들의 캡처링 시간은 동일하다.S101. Capturing at least two frames of the first images at the same exposure time by using a first camera, capturing at least two frames of the second images at different exposure times by using a second camera, The capture time of the first images and the capture time of the second images are the same.

제1 카메라와 제2 카메라는 단말 디바이스 상에 제공된다. 도 2a에 도시된 카메라의 개략 구조도가 일례로서 사용된다. 제1 카메라와 제2 카메라는 서로 독립적이고, 제1 카메라와 제2 카메라는 단말 디바이스의 동일한 측에 통합될 수 있어, 2개 카메라는 가능한 한 동일한 뷰 범위를 가질 수 있다. 단말 디바이스는 이미지 신호 프로세서(image signal processor, ISP)를 사용하는 것에 의해 제1 카메라와 제2 카메라를 제어하여 이미지들의 적어도 2개의 프레임을 동시에 캡처할 수 있다. 따라서, 제1 카메라가 제1 이미지들을 캡처하는 캡처링 시간과 제2 카메라가 제2 이미지들을 캡처하는 캡처링 시간은 동일하다. 예를 들어, 단말 디바이스는 듀얼 카메라 스마트 폰일 수 있다. 듀얼 카메라 스마트 폰에서의 2개의 카메라가 동일한 픽처를 촬영할 수 있다. 제1 카메라에 의해 캡처된 제1 이미지들이 제1 이미지들의 제1 프레임 및 제1 이미지들의 제2 프레임을 포함하고, 제2 카메라에 의해 캡처된 제2 이미지들이 제1 이미지들의 제2 프레임 및 제2 이미지들의 제2 프레임을 포함하는 경우, 제1 이미지들의 제1 프레임의 캡처링 시간과 제2 이미지들의 제1 프레임의 캡처링 시간은 동일하고, 제1 이미지들의 제2 프레임의 캡처링 시간과 제2 이미지들의 제2 프레임의 캡처링 시간은 동일하고; 또한, 제1 이미지들의 제1 프레임과 제2 이미지들의 제1 프레임은 동일한 픽처를 포함하고, 제1 이미지들의 제2 프레임과 제2 이미지들의 제2 프레임은 동일한 픽처를 포함한다. 따라서, 제1 이미지들의 제2 프레임에 대한 제1 이미지들의 제1 프레임의 로컬 모션 크기와 제2 이미지들의 제2 프레임에 대한 제2 이미지들의 제1 프레임의 로컬 모션 크기는 동일하다.The first camera and the second camera are provided on the terminal device. A schematic structure of the camera shown in Fig. 2A is used as an example. The first camera and the second camera are independent of each other and the first camera and the second camera can be integrated on the same side of the terminal device so that the two cameras can have the same view range as possible. The terminal device may control the first camera and the second camera by using an image signal processor (ISP) to simultaneously capture at least two frames of images. Thus, the capturing time at which the first camera captures the first images and the capturing time at which the second camera captures the second images are the same. For example, the terminal device may be a dual camera smart phone. Dual camera Two cameras on a smart phone can shoot the same picture. Wherein the first images captured by the first camera include a first frame of first images and a second frame of first images, and wherein the second images captured by the second camera include a second frame of the first images and a second frame of the first images. 2 images, the capture time of the first frame of the first images and the capture time of the first frame of the second images are the same, and the capture time of the second frame of the first images and The capture time of the second frame of the second images is the same; Also, the first frame of the first images and the first frame of the second images include the same picture, and the second frame of the first images and the second frame of the second images contain the same picture. Thus, the local motion magnitude of the first frame of the first images for the second frame of the first images and the local motion magnitude of the first frame of the second images for the second frame of the second images are the same.

제1 카메라에 의해 캡처된 제1 이미지들의 노출 시간들은 동일하고, 제2 카메라에 의해 캡처된 제2 이미지들의 노출 시간들은 상이하다. 예를 들어, 제1 카메라는 노출 시간이 제1 미리 설정된 시간인 제1 이미지들의 제1 프레임과 제1 이미지들의 제2 프레임을 캡처하고, 제2 카메라는 노출 시간이 제1 미리 설정된 시간인 제2 이미지들의 제1 프레임을 캡처하고, 노출 시간이 제2 미리 설정된 시간인 제2 이미지들의 제2 프레임을 캡처한다. 제1 이미지들의 제1 프레임의 캡처링 시간과 제2 이미지들의 제1 프레임의 캡처링 시간은 동일하고, 제1 이미지들의 제2 프레임의 캡처링 시간과 제2 이미지들의 제2 프레임의 캡처링 시간은 동일하다. 제1 미리 설정된 시간은 현재의 촬영 환경에서의 자동 노출 장치(Auto Exposure, AE)에 의한 계산에 의해 획득된 통상의 노출 시간일 수 있다. 예를 들어, 조리개가 F8인 경우, 셔터 속도는 1/125초이므로, 제1 미리 설정된 시간은 1/125초이거나; 조리개가 F5.6인 경우, 셔터 속도는 1/250초이므로, 제1 미리 설정된 시간은 1/250초이다. 제2 미리 설정된 시간은 제1 미리 설정된 시간보다 길거나 그보다 작을 수 있는데, 예를 들어 1/120초 또는 1/200초일 수 있다.The exposure times of the first images captured by the first camera are the same and the exposure times of the second images captured by the second camera are different. For example, a first camera captures a first frame of first images and a second frame of first images with an exposure time of a first predetermined time, and the second camera captures a second frame of first images, 2 images, and captures a second frame of second images with an exposure time of a second predetermined time. The capture time of the first frame of the first images and the capture time of the first frame of the second images are the same and the capture time of the second frame of the first images and the capture time of the second frame of the second images Are the same. The first predetermined time may be the normal exposure time obtained by calculation by the auto exposure apparatus (AE) in the current shooting environment. For example, when the aperture is F8, the shutter speed is 1/125 seconds, so the first preset time is 1/125 seconds; When the aperture is F5.6, the shutter speed is 1/250 second, so the first predetermined time is 1/250 seconds. The second predetermined time may be longer or less than the first predetermined time, for example, 1/120 seconds or 1/200 seconds.

제1 이미지들은 그레이스케일 이미지들 또는 컬러 이미지들일 수 있고, 제2 이미지들은 그레이스케일 이미지들 또는 컬러 이미지들일 수 있다. 이는 본 발명의 이 실시예에서 특별히 제한되지 않는다.The first images may be gray scale images or color images, and the second images may be gray scale images or color images. This is not particularly limited in this embodiment of the present invention.

도 2b에 도시된 제1 이미지를 갖는 인터페이스의 개략도가 예로서 사용된다. 단말 디바이스는 제1 카메라를 사용하는 것에 의해 제1 이미지들의 3개 프레임을 캡처할 수 있다. M1은 제1 이미지들의 제1 프레임이고, M2는 제1 이미지들의 제2 프레임이고, M3은 제1 이미지들의 제3 프레임이다. 도 2c에 도시된 제2 이미지를 갖는 인터페이스의 개략도가 예로서 사용된다. 단말 디바이스는 제2 카메라를 사용하는 것에 의해 제2 이미지들의 3개 프레임을 동기식으로 캡처할 수 있다. C1은 제2 이미지들의 제1 프레임이고, C2는 제2 이미지들의 제2 프레임이고, C3은 제2 이미지들의 제3 프레임이다. M1, M2 및 M3의 노출 시간들은 제1 미리 설정된 시간이고, C1, C2 및 C3의 노출 시간들은 완전히 동일하지 않을 수 있다. 예를 들어, C1의 노출 시간은 제2 미리 설정된 시간이고, C2의 노출 시간은 제1 미리 설정된 시간이고, C3의 노출 시간은 제3 미리 설정된 시간이다. 제1 미리 설정된 시간과 제2 미리 설정된 시간은 상이하고, 제1 미리 설정된 시간과 제3 미리 설정된 시간은 상이하지만, 제2 미리 설정된 시간과 제3 미리 설정된 시간은 동일할 수 있다. 선택적으로, 제2 미리 설정된 시간 및 제3 미리 설정된 시간은 또한 상이할 수 있다. M1의 캡처링 시간과 C1의 캡처링 시간은 동일하고, M1과 C1은 동일한 픽처를 포함한다. M2의 캡처링 시간과 C2의 캡처링 시간은 동일하고, M2와 C2는 동일한 픽처를 포함한다. M3의 캡처링 시간과 C3의 캡처링 시간은 동일하고, M3과 C3은 동일한 픽처를 포함한다.A schematic view of the interface with the first image shown in Fig. 2B is used as an example. The terminal device can capture three frames of the first images by using the first camera. M1 is the first frame of the first images, M2 is the second frame of the first images, and M3 is the third frame of the first images. A schematic view of the interface with the second image shown in Fig. 2C is used as an example. The terminal device can synchronously capture three frames of the second images by using the second camera. C1 is the first frame of the second images, C2 is the second frame of the second images, and C3 is the third frame of the second images. The exposure times of M1, M2 and M3 may be a first predetermined time, and the exposure times of C1, C2 and C3 may not be completely equal. For example, the exposure time of C1 is a second preset time, the exposure time of C2 is a first predetermined time, and the exposure time of C3 is a third preset time. The first predetermined time and the second predetermined time are different, and the first predetermined time and the third predetermined time are different, but the second predetermined time and the third predetermined time may be the same. Optionally, the second predetermined time and the third predetermined time may also be different. The capturing time of M1 and the capturing time of C1 are the same, and M1 and C1 contain the same picture. The capturing time of M2 and the capturing time of C2 are the same, and M2 and C2 contain the same picture. The capturing time of M3 is the same as the capturing time of C3, and M3 and C3 contain the same picture.

S102. 제1 이미지들의 적어도 2개의 프레임으로부터 제1 참조 이미지를 결정한다.S102. A first reference image is determined from at least two frames of the first images.

단말 디바이스는 제1 이미지들의 적어도 2개의 프레임으로부터 제1 참조 이미지를 결정할 수 있다. 특정 구현예에서, 단말 디바이스는, 노출 시간이 제1 미리 설정된 시간인 제2 이미지의 캡처링 시간 시간과 캡처링 시간이 동일한 제1 이미지를 제1 참조 이미지로서 결정할 수 있다. 예를 들어, 노출 시간이 제1 미리 설정된 시간인 제2 이미지는 C1이고, C1의 캡처링 시간과 캡처링 시간이 동일한 제1 이미지는 M1이고, 단말 디바이스는 M1을 제1 참조 이미지로서 사용할 수 있다.The terminal device may determine a first reference image from at least two frames of the first images. In certain implementations, the terminal device may determine a first image with the same capture time as the capture time of the second image, the exposure time of which is a first predetermined time, as a first reference image. For example, a second image with a first predetermined time of exposure is C1, a first image with a capture time of C1 equal to the capturing time is M1, and the terminal device can use M1 as the first reference image have.

S103. 제1 참조 이미지에 따라 제1 이미지들의 적어도 2개의 프레임에서 제1 참조 이미지 이외의 이미지에 대해 이동 타겟 검출을 수행하여, 제1 참조 이미지에 대한, 제1 이미지들의 적어도 2개의 프레임에서 제1 참조 이미지 이외의 이미지의 로컬 모션 크기를 획득한다.S103. Moving target detection is performed on an image other than the first reference image in at least two frames of the first images according to the first reference image to obtain a first reference image for at least two frames of the first images, Obtain the local motion size of the image other than the image.

단말 디바이스는 제1 참조 이미지에 따른 제1 이미지들의 적어도 2개의 프레임에서, 제1 참조 이미지 이외의 이미지에 대해 이동 타겟 검출을 수행하여, 제1 참조 이미지에 대한, 제1 이미지들의 적어도 2개의 프레임에서 제1 참조 이미지 이외의 이미지의 로컬 모션 크기를 획득할 수 있다.The terminal device performs a moving target detection on an image other than the first reference image in at least two frames of the first images according to the first reference image to generate at least two frames of the first images The local motion size of the image other than the first reference image can be obtained.

예를 들어, 단말 디바이스는 M2에 따라 M1 및 M3에 대해 개별적으로 이동 타겟 검출을 수행하여, M2에 대한 M1의 로컬 모션 크기 및 M2에 대한 M3의 로컬 모션 크기를 획득할 수 있다. 구체적으로, 단말 디바이스는 M2에 따라 M1에 대해 이동 타겟 검출을 수행하여 M2에 대한 M1의 모션 보상 매트릭스 H1을 생성하고, H1에 따라 M1에 대해 이미지 등록을 수행하여 등록된 제1 이미지

Figure pct00001
를 생성하여, M2에 대한
Figure pct00002
의 로컬 모션 크기 T1을 획득할 수 있다. 단말 디바이스는 추가로 M2에 따라 M3에 대해 이동 타겟 검출을 수행하여 M2에 대한 M3의 모션 보상 매트릭스 H2를 생성하고, H2에 따라 M3에 대해 이미지 등록을 수행하여 등록된 제1 이미지
Figure pct00003
를 생성하여, M2에 대한
Figure pct00004
의 로컬 모션 크기 T2를 획득할 수 있다. 단말 디바이스는 T1 및 T2로부터 최소 로컬 모션 크기를 획득할 수 있고, 제1 참조 이미지에 대한, 제1 이미지들의 적어도 2개의 프레임에서 제1 참조 이미지 이외의 이미지의 로컬 모션 크기로서 최소 로컬 모션 크기를 사용할 수 있다.For example, the terminal device may perform mobile target detection separately for M1 and M3 according to M2 to obtain the local motion magnitude of M1 for M2 and the local motion magnitude of M3 for M2. Specifically, the terminal device performs the mobile target detection on M1 according to M2 to generate the motion compensation matrix H1 of M1 for M2, and performs image registration on M1 according to H1 to obtain the registered first image
Figure pct00001
, And generates
Figure pct00002
Lt; RTI ID = 0.0 > T1. ≪ / RTI > The terminal device further performs a moving target detection for M3 according to M2 to generate a motion compensation matrix H2 of M3 for M2 and performs an image registration for M3 according to H2 to obtain a registered first image
Figure pct00003
, And generates
Figure pct00004
Lt; RTI ID = 0.0 > T2. ≪ / RTI > The terminal device can obtain the minimum local motion size from T1 and T2 and calculate the minimum local motion size for the first reference image as the local motion size of the image other than the first reference image in at least two frames of the first images Can be used.

이동 타겟 검출 방법은, 프레임 간 차분 방법, 광학적 흐름 방법, 배경 차이 방법 등을 포함할 수 있다. 프레임 간 차이 방법은, 이미지들의 2개의 인접하는 프레임에 대해 차 연산(difference operation)을 수행하는 것에 의해 이동 타겟 프로파일을 획득하는 방법이다. 촬영 시나리오에 비정상적인 객체 모션이 있는 경우, 프레임들 사이에 비교적 명백한 차이가 존재한다. 이미지 시퀀스의 모션 특징은 이미지 시퀀스에서 객체 모션이 존재하는지를 결정하기 위해, 이미지들의 2개의 이웃하는 프레임의 차가 값이 임계값보다 큰지를 결정하는 것에 의해 분석된다. 광학적 흐름은 이미지 모션의 간단하고 실용적인 표현 방식이고, 이미지 시퀀스에서 이미지 밝기 모드의 겉보기 모션(apparent motion)으로서 정의된다. 즉, 공간 객체 표면 상의 점의 모션 속도는 시각 센서의 이미징 면 상에서 표현된다. 픽처에서의 이동 타겟의 픽셀은, 이미지에서의 이동 타겟에 의해 점유되는 픽셀과 배경 픽셀 사이의 벡터 차를 사용하는 것에 의해 검출된다. 배경 차이 방법은 현재 프레임을 이미지 시퀀스에서의 배경 참조 모델과 비교하는 것에 의해 모션 객체를 검출하는 방법이다. 예를 들어, 단말 디바이스가 M2에 따라 M1에 대해 이동 타겟 검출을 수행하여 M2에 대한 M1의 모션 보상 매트릭스 H1을 생성하는 것은 구체적으로: M1과 M2의 특징점들이 특징 추출 알고리즘을 사용하는 것에 의해 각각 추출되고, M1과 M2의 특징점들에 대해 매칭이 수행되고, M1과 M2 사이의 좌표 변환 파라미터, 즉 H1은, 성공적으로 매칭된 다수의 특징점 쌍에 기초한 최소 제곱법을 사용하는 것에 의해 피팅된다. 특징 추출 알고리즘은 스케일 불변 특징 변환(Scale-invariant feature transform, SIFT), 스피드 업 로버스트 특징들(Speeded Up Robust Features, SURF) 등을 포함할 수 있다. 모션 보상 매트릭스는 이미지들의 2개 프레임 사이의 모션 관계, 예를 들어 M1에 대한 M2의 병진 또는 회전을 나타내는 데 사용될 수 있다.The moving target detection method may include an interframe difference method, an optical flow method, a background difference method, and the like. The inter-frame difference method is a method of obtaining a moving target profile by performing a difference operation on two adjacent frames of images. If there is an abnormal object motion in the shooting scenario, there is a relatively clear difference between the frames. The motion feature of the image sequence is analyzed by determining whether the difference between two neighboring frames of images is greater than a threshold value to determine if object motion is present in the image sequence. Optical flow is a simple and practical representation of image motion and is defined as the apparent motion of the image brightness mode in the image sequence. That is, the motion speed of the point on the surface of the spatial object is represented on the imaging surface of the visual sensor. The pixels of the moving target in the picture are detected by using the vector difference between the pixel occupied by the moving target in the image and the background pixel. The background difference method is a method of detecting a motion object by comparing the current frame with the background reference model in the image sequence. For example, the terminal device performs mobile target detection for M1 according to M2 to generate the motion compensation matrix H1 of M2 for M2: Specifically, the minutiae points of M1 and M2 are determined by using feature extraction algorithms The matching is performed on the minutiae points of M1 and M2, and the coordinate transformation parameter between M1 and M2, i.e., H1, is fitted by using the least squares method based on a plurality of matching pairs of successfully matched minutiae points. Feature extraction algorithms may include Scale-invariant feature transform (SIFT), Speed Up Robust Features (SURF), and the like. The motion compensation matrix may be used to represent a motion relationship between two frames of images, e.g., translation or rotation of M2 relative to M1.

이미지 등록(Image registration)은 상이한 시간들에, 상이한 센서들(이미징 디바이스들)에 의해, 또는 상이한 조건들(기후, 조도, 촬영 위치 또는 각도 등)에서 획득되는 이미지들의 적어도 2개의 프레임을 매칭 및 중첩하는 프로세스를 지칭한다. 이미지 등록 방법은 그레이스케일 기반 방법, 변환 도메인 기반 방법, 특징 기반 방법 등을 포함할 수 있다. 그레이스케일 기반 이미지 등록 방법에서, 이미지들 사이의 유사성은 이미지들의 그레이스케일 통계에 따라 측정된다. 그레이스케일 기반 이미지 등록 방법은 순차적 유사성 검출 알고리즘(Sequential Similarity Detection Algorithms, SSDA)을 포함할 수 있다. 픽셀에서 이미지들의 2개의 프레임의 잔차 합을 계산하는 프로세스에서, 잔차 합이 고정된 임계값보다 크면, 현재 픽셀이 매칭 픽셀이 아닌 것으로 간주된다. 따라서, 현재의 잔차 합의 계산이 종료되고, 잔차 합을 계산하기 위해 다른 픽셀이 선택되고, 최종적으로 잔차 합이 가장 느리게 증가하는 픽셀이 매칭 픽셀인 것으로 간주된다. 변환 도메인 기반 이미지 등록 방법은 푸리에 변환(Fourier Transform) 방법을 포함할 수 있다. 위상 관련 기술은 푸리에 변환의 변환 특성에 기초한다. 이미지들의 2개의 프레임 사이의 차이는 변위에 있으므로, 이미지들의 2개의 프레임 사이의 위상차가 크로스 파워 스펙트럼(cross power spectrum)의 위상과 같고, 위상차에 대해 역 푸리에 변환이 수행되어 펄스 함수를 획득한다. 펄스 함수는 변환 위치에서 0이 아니고, 다른 위치들에서는 0이다. 0이 아닌 위치는 결정되어야 할 등록된 위치이다. 특징 기반 이미지 등록 방법은 등록될 이미지들을 전처리(pre-process)하기 위해, 즉 이미지 세그먼트화 및 특징 추출의 프로세스에 사용되어, 이미지들의 2개의 프레임 사이의 특징을 매칭하여, 특징 매칭 관계를 사용하는 것에 의해 이미지들 사이에 등록 매핑 관계를 확립한다. 예를 들어, 단말 디바이스가 H1에 따라 M1에 대해 이미지 등록을 수행하여 등록된 제1 이미지

Figure pct00005
를 생성하는 것은 구체적으로: H1에 따라 M1에 대해 좌표 변환을 수행하여
Figure pct00006
를 획득한다.Image registration may be used to match at least two frames of images obtained at different times, by different sensors (imaging devices), or under different conditions (climate, illumination, shooting position or angle, etc.) Refers to the overlapping process. The image registration method may include a gray scale based method, a transform domain based method, a feature based method, and the like. In the gray scale based image registration method, the similarity between images is measured according to the gray scale statistics of the images. The gray scale based image registration method may include a Sequential Similarity Detection Algorithm (SSDA). In the process of calculating the residual sum of two frames of images in a pixel, if the residual sum is greater than a fixed threshold, the current pixel is considered not to be a matching pixel. Thus, the calculation of the current residual sum is ended, another pixel is selected to calculate the residual sum, and finally the pixel whose residual sum is the slowest increase is considered to be the matching pixel. The transform domain-based image registration method may include a Fourier transform method. The phase-related technique is based on the conversion characteristics of the Fourier transform. Since the difference between the two frames of images is the displacement, the phase difference between the two frames of images is equal to the phase of the cross power spectrum, and an inverse Fourier transform is performed on the phase difference to obtain the pulse function. The pulse function is nonzero at the conversion position and 0 at other positions. A non-zero position is the registered position to be determined. The feature-based image registration method is used for pre-processing images to be registered, i.e., in the process of image segmentation and feature extraction, to match features between two frames of images, Thereby establishing a registration mapping relationship between the images. For example, if the terminal device performs image registration for M1 according to H1 and the registered first image
Figure pct00005
Specifically, it is possible to perform coordinate transformation on M1 according to H1
Figure pct00006
.

로컬 모션 크기는 이동 타겟 검출에 의해 검출된 이동 타겟에 의해 점유된 픽셀들의 양에 관한 정보를 나타내기 위해 사용되고, 이동 타겟에 의해 점유된 픽셀의 양에 관한 정보는 이동 타겟에 의해 점유된 픽셀의 양 또는 이미지의 픽셀들의 총량에 대해 이동 타겟에 의해 점유된 픽셀들의 양의 비율을 포함할 수 있다. 단말 디바이스가 M2에 대한

Figure pct00007
의 로컬 모션 크기 T1을 획득하는 것은 구체적으로:
Figure pct00008
에서의 각각의 픽셀이 M2에서의 대응하는 픽셀로부터 감산되고, 감산에 의해 획득된 값의 절대 값이 미리 설정된 값보다 큰 경우, 단말 디바이스는 픽셀이 이동 타겟에 의해 점유된 픽셀인 것으로 결정할 수 있다.The local motion size is used to indicate information about the amount of pixels occupied by the moving target detected by the moving target detection and the information about the amount of pixels occupied by the moving target is used to determine the amount of pixels occupied by the moving target Amount or the ratio of the amount of pixels occupied by the moving target to the total amount of pixels of the image. If the terminal device
Figure pct00007
Obtaining the local motion size T1 of < RTI ID = 0.0 >
Figure pct00008
Is subtracted from the corresponding pixel at M2 and the absolute value of the value obtained by the subtraction is greater than a predetermined value, the terminal device can determine that the pixel is the pixel occupied by the moving target .

S104. 로컬 모션 크기가 제1 미리 설정된 임계값보다 크거나 같은지를 결정한다.S104. And determines whether the local motion size is greater than or equal to a first predetermined threshold.

단말 디바이스는 로컬 모션 크기가 제1 미리 설정된 임계값보다 크거나 같은지를 결정할 수 있다. 로컬 모션 크기가 제1 미리 설정된 임계값보다 크거나 같은 경우, 단말 디바이스는 단계 S105를 추가로 수행할 수 있거나; 또는 로컬 모션 크기가 제1 미리 설정된 임계값보다 작은 경우, 단말 디바이스는 단계 S106을 추가로 수행할 수 있다.The terminal device may determine whether the local motion size is greater than or equal to a first preset threshold value. If the local motion size is greater than or equal to the first preset threshold, the terminal device may further perform step S105; Or if the local motion size is smaller than the first preset threshold value, the terminal device can additionally perform step S106.

S105. 로컬 모션 크기가 제1 미리 설정된 임계값보다 크거나 같은 경우, 제2 이미지들의 적어도 2개의 프레임에서 노출 시간이 제1 미리 설정된 시간인 이미지를 출력한다.S105. If the local motion size is greater than or equal to a first predetermined threshold, the exposure time in at least two frames of the second images is a first predetermined time.

로컬 모션 크기가 제1 미리 설정된 임계값보다 크거나 같은 경우, 단말 디바이스는 제2 이미지들의 적어도 2개의 프레임에서 노출 시간이 제1 미리 설정된 시간인 이미지를 출력할 수 있다. 예를 들어, 제2 카메라를 사용하는 것에 의해 단말 디바이스에 의해 캡처된 제2 이미지들에서, 노출 시간이 제1 미리 설정된 시간인 이미지는 C2이다. 로컬 모션 크기가 제1 미리 설정된 임계값보다 크거나 같은 경우, 가장 작은 로컬 모션 크기가 T1인 경우, 단말 디바이스는 M2에 대한

Figure pct00009
의 모션 크기가 비교적 큰 것으로 결정할 수 있다. 고스팅을 피하기 위해, 단말 디바이스는 C2를 출력할 수 있다. 선택적으로, 로컬 모션 크기가 제1 미리 설정된 임계값보다 크거나 같을 때, 가장 작은 로컬 모션 크기가 T2이면, 단말 디바이스는 M2에 대한
Figure pct00010
의 모션 크기가 상대적으로 큰 것을 결정할 수 있다. 고스팅을 피하기 위해, 단말 디바이스는 C2를 출력할 수 있다.If the local motion size is greater than or equal to a first preset threshold, the terminal device may output an image with an exposure time of at least a first predetermined time in at least two frames of the second images. For example, in the second images captured by the terminal device by using the second camera, the image whose exposure time is the first predetermined time is C2. If the local motion size is greater than or equal to the first preset threshold value and the smallest local motion size is T1,
Figure pct00009
Can be determined to be relatively large. To avoid ghosting, the terminal device can output C2. Alternatively, when the local motion size is greater than or equal to the first preset threshold value, if the smallest local motion size is T2,
Figure pct00010
Can be determined to be relatively large. To avoid ghosting, the terminal device can output C2.

S106. 로컬 모션 크기가 제1 미리 설정된 임계값보다 작은 경우, 제2 이미지들의 적어도 2개의 프레임으로부터 제2 참조 이미지를 결정한다.S106. And determines a second reference image from at least two frames of the second images if the local motion size is less than a first predetermined threshold value.

로컬 모션 크기가 제1 미리 설정된 임계값보다 작은 경우, 단말 디바이스는 제2 이미지들의 적어도 2개의 프레임으로부터 제2 참조 이미지를 결정할 수 있다. 특정 구현예에서, 단말 디바이스는 노출 시간이 제1 미리 설정된 시간인 제2 이미지를 제2 참조 이미지로서 결정할 수 있다. 예를 들어, 제2 카메라를 사용하는 것에 의해 단말 디바이스에 의해 캡처된 제2 이미지들이 제2 이미지들의 제1 프레임 C1, 제2 이미지들의 제2 프레임 C2 및 제2 이미지들의 제3 프레임 C3을 포함하고, C2의 노출 시간이 제1 미리 설정된 시간이면, 단말 디바이스는 제2 참조 이미지로서 C2를 사용할 수 있다.If the local motion size is smaller than the first predetermined threshold, the terminal device may determine the second reference image from at least two frames of the second images. In certain implementations, the terminal device may determine a second image with a first predetermined time of exposure time as a second reference image. For example, the second images captured by the terminal device by using the second camera include the first frame C1 of the second images, the second frame C2 of the second images, and the third frame C3 of the second images And the exposure time of C2 is the first predetermined time, the terminal device can use C2 as the second reference image.

S107. 제2 참조 이미지에 따라 제2 이미지들의 적어도 2개의 프레임에서 제2 참조 이미지 이외의 이미지에 대해 이미지 등록을 수행하여 등록된 제2 이미지를 획득한다.S107. And performs image registration for images other than the second reference image in at least two frames of the second images according to the second reference image to obtain the registered second image.

단말 디바이스는 제2 참조 이미지에 따라 제2 이미지들의 적어도 2개의 프레임에서 제2 참조 이미지 이외의 이미지에 대해 이미지 등록을 수행하여 등록된 제2 이미지를 획득한다. 예를 들어, 단말 디바이스는 C2에 따라 C1에 대해 이미지 등록을 수행하여 등록된 제2 이미지

Figure pct00011
를 획득할 수 있고, 단말 디바이스는 C2에 따라 C3에 대해 이미지 등록을 추가로 수행하여 등록된 제2 이미지
Figure pct00012
를 획득할 수 있다. 구체적으로, 단말 디바이스는 H1에 따라 C1에 대해 이미지 등록을 수행하여, 즉, H1에 따라 C1에 대해 좌표 변환을 수행하여
Figure pct00013
를 획득할 수 있다. 단말 디바이스는 H2에 따라 C3에 대해 이미지 등록을 추가로 수행하여, 즉, C3에 대해 H2에 따라 좌표 변환을 수행하여
Figure pct00014
를 획득할 수 있다.The terminal device performs image registration for images other than the second reference image in at least two frames of the second images according to the second reference image to obtain the registered second image. For example, the terminal device performs image registration for C1 according to C2,
Figure pct00011
, And the terminal device additionally performs image registration on C3 according to C2 to obtain the registered second image < RTI ID = 0.0 >
Figure pct00012
Can be obtained. Specifically, the terminal device performs image registration for C1 according to H1, that is, performs coordinate transformation on C1 according to H1
Figure pct00013
Can be obtained. The terminal device performs image registration additionally on C3 according to H2, i.e., performs coordinate transformation on C3 according to H2
Figure pct00014
Can be obtained.

S108. 로컬 모션 크기가 제2 미리 설정된 임계값보다 작은지를 결정한다.S108. And determines whether the local motion size is less than a second predetermined threshold.

단말 디바이스는 등록된 제2 이미지를 획득한 후, 로컬 모션 크기가 제2 미리 설정된 임계값보다 작은지를 추가로 결정할 수 있다. 로컬 모션 크기가 제2 미리 설정된 임계값보다 작은 경우, 단계 S109가 추가로 수행되거나; 또는 로컬 로컬 모션 크기가 제2 미리 설정된 임계값보다 크거나 같은 경우, 단계 S110이 추가로 수행된다. 예를 들어, 최소 로컬 모션 크기가 T1인 경우, 단말 디바이스는 T1이 제2 미리 설정된 임계값보다 작은지를 결정할 수 있거나; 또는 최소 로컬 모션 크기가 T2인 경우, 단말 디바이스는 T2가 제2 미리 설정된 임계값보다 작은지를 결정할 수 있다. 제2 미리 설정된 임계값은 제1 미리 설정된 임계값보다 작고, 제1 미리 설정된 임계값 및 제2 미리 설정된 임계값은 미리 설정된 모션 크기 임계값들이다. 미리 설정된 모션 크기 임계값들은 사용자에 의해 설정될 수 있거나 또는 공장 배달 전에 단말 디바이스에 구성될 수 있다.After obtaining the registered second image, the terminal device may further determine whether the local motion size is less than a second preset threshold value. If the local motion size is smaller than the second preset threshold value, step S109 is additionally performed; Or if the local local motion size is equal to or greater than the second preset threshold value, step S110 is additionally performed. For example, if the minimum local motion size is T1, the terminal device may determine if T1 is less than a second predetermined threshold; Or the minimum local motion size is T2, the terminal device may determine if T2 is less than a second predetermined threshold. The second predetermined threshold value is smaller than the first predetermined threshold value, and the first predetermined threshold value and the second predetermined threshold value are preset motion size threshold values. The preset motion size thresholds may be set by the user or may be configured in the terminal device before factory delivery.

S109. 로컬 모션 크기가 제2 미리 설정된 임계값보다 작은 경우, 이미지 융합 알고리즘을 사용하는 것에 의해 제2 참조 이미지와 등록된 제2 이미지에 대해 이미지 융합을 수행한다.S109. And performs image fusion on the second reference image and the second registered image by using an image fusion algorithm when the local motion size is smaller than a second preset threshold value.

로컬 모션 크기가 제2 미리 설정된 임계값보다 작은 경우, 단말 디바이스는 이미지 융합 알고리즘을 사용하는 것에 의해 제2 참조 이미지와 등록된 제2 이미지에 대해 이미지 융합을 수행할 수 있다. 이미지 융합 알고리즘은 다음과 같다: 이미지 처리는 동일한 타겟의 것이고 멀티-소스 채널들을 통해 캡처된 이미지들에 대해 수행되고, 각각의 채널에서의 유용한 정보가 최대로 추출되고, 최종적으로 고품질 이미지가 융합에 의해 획득된다. 이미지 융합 알고리즘은 로직 필터링 방법, 그레이스케일 가중 평균 방법, 웨이블릿(wavelet) 변환 방법, 베이지안 방법 등을 포함할 수 있다. 예를 들어, 최소 로컬 모션 크기가 T1이면, 로컬 모션 크기가 제2 미리 설정된 임계값보다 작을 때, 단말 디바이스는 M2에 대한

Figure pct00015
의 모션 크기가 무시될 수 있는 것으로 결정하고, 그 후 이미지 융합 알고리즘을 사용하는 것에 의해 C2,
Figure pct00016
Figure pct00017
에 대해 이미지 융합을 수행하고, 융합된 이미지를 출력할 수 있다. 선택적으로, 최소 로컬 모션 크기가 T2이면, 로컬 모션 크기가 제2 미리 설정된 임계값보다 작을 때, 단말 디바이스는 M2에 대한
Figure pct00018
의 모션 크기가 0인 것으로 결정하고, 그 후 이미지 융합 알고리즘을 사용하는 것에 의해 C2,
Figure pct00019
Figure pct00020
에 대해 이미지 융합을 수행하고, 융합된 이미지를 출력할 수 있다.If the local motion size is less than a second preset threshold, the terminal device may perform image fusion on the second reference image and the second registered image by using an image fusion algorithm. The image fusion algorithm is as follows: Image processing is performed on images captured over multi-source channels that are of the same target, and useful information in each channel is extracted at a maximum, and finally, a high- Lt; / RTI > The image fusion algorithm may include a logic filtering method, a grayscale weighted average method, a wavelet transform method, a Bayesian method, and the like. For example, if the minimum local motion size is T1, then when the local motion size is less than the second predetermined threshold value,
Figure pct00015
And then uses the image fusion algorithm to determine the motion size of C2,
Figure pct00016
And
Figure pct00017
, And output the fused image. Optionally, when the minimum local motion size is T2, when the local motion size is less than a second preset threshold value,
Figure pct00018
Is determined to be 0, and then the image fusion algorithm is used to determine C2,
Figure pct00019
And
Figure pct00020
, And output the fused image.

S110. 로컬 모션 크기가 제2 미리 설정된 임계값보다 크거나 같은 경우, 제2 참조 이미지에 따라 등록된 제2 이미지에 대해 모션 보상을 수행하여 모션 보상된 제2 이미지를 획득한다.S110. If the local motion size is greater than or equal to a second preset threshold value, motion compensation is performed on the second image registered according to the second reference image to obtain a motion compensated second image.

로컬 모션 크기가 제2 미리 설정된 임계값보다 크거나 같은 경우, 단말 디바이스는 제2 참조 이미지에 따라 등록된 제2 이미지에 대해 모션 보상을 수행하여 모션 보상된 제2 이미지를 획득할 수 있다. 예를 들어, 최소 로컬 모션 크기가 T1이면, 로컬 모션 크기가 제2 미리 설정된 임계값보다 크거나 같을 때, 단말 디바이스는 M2에 대한

Figure pct00021
의 모션 크기가 비교적 작은 것으로 결정하고, 그 후 C2에 따라
Figure pct00022
에 대해 모션 보상을 수행하여 모션 보상된 제2 이미지
Figure pct00023
를 획득하고, C2에 따라
Figure pct00024
에 대해 모션 보상을 수행하여 모션 보상된 제2 이미지
Figure pct00025
를 획득할 수 있다. 선택적으로, 최소 로컬 모션 크기가 T2이면, 로컬 모션 크기가 제2 미리 설정된 임계값보다 작을 때, 단말 디바이스는 M2에 대한
Figure pct00026
의 모션 크기가 0인 것으로 결정하고, C2에 따라
Figure pct00027
에 대해 모션 보상을 수행하여 모션 보상된 제2 이미지
Figure pct00028
을 획득하고, C2에 따라
Figure pct00029
에 대해 모션 보상을 수행하여 모션 보상된 제2 이미지
Figure pct00030
를 획득할 수 있다.If the local motion size is greater than or equal to a second preset threshold value, the terminal device may perform motion compensation on the registered second image according to the second reference image to obtain the motion compensated second image. For example, if the minimum local motion size is T1, then when the local motion size is greater than or equal to a second preset threshold value,
Figure pct00021
Is determined to be relatively small, and thereafter, according to C2
Figure pct00022
To compensate the motion compensated second image < RTI ID = 0.0 >
Figure pct00023
, And according to C2
Figure pct00024
To compensate the motion compensated second image < RTI ID = 0.0 >
Figure pct00025
Can be obtained. Optionally, when the minimum local motion size is T2, when the local motion size is less than a second preset threshold value,
Figure pct00026
It is determined that the motion size of < RTI ID = 0.0 >
Figure pct00027
To compensate the motion compensated second image < RTI ID = 0.0 >
Figure pct00028
, And according to C2
Figure pct00029
To compensate the motion compensated second image < RTI ID = 0.0 >
Figure pct00030
Can be obtained.

모션 보상은 이미지들의 2개의 이웃하는 프레임 사이의 차이를 기술하는 방법이다. 즉, 현재 이미지는 참조 이미지에 따라 예측되고 보상된다. 모션 보상 방법들은 글로벌(global) 모션 보상 및 블록 모션 보상을 포함할 수 있다. 단말 디바이스가 C2에 따라

Figure pct00031
에 대해 모션 보상을 수행하여 모션 보상된 제2 이미지
Figure pct00032
를 획득하는 것은 구체적으로: 단말 디바이스가 C2에 따라
Figure pct00033
에 대해 이동 타겟 검출을 수행하고, 검출에 의해 획득된 로컬 모션 영역에 대해 보상을 수행한다, 즉, C2에서의 대응한 픽셀로부터
Figure pct00034
에서의 픽셀이 감산된다. 감산에 의해 획득된 값의 절대 값이 미리 설정된 값보다 클 경우, 단말 디바이스는 픽셀이 움직이고 있는 것으로 결정하고,
Figure pct00035
에서의 움직이고 있는 모든 픽셀을 로컬 모션 영역으로서 사용할 수 있다. 단말 디바이스는
Figure pct00036
에서의 로컬 모션 영역을 C2에서의 대응하는 픽셀들로 조정하여
Figure pct00037
에 대해 모션 보상을 구현할 수 있다. 선택적으로, 단말 디바이스는
Figure pct00038
에서의 로컬 모션 영역의 밝기를 C2에서의 대응하는 픽셀들의 밝기로 조정하여
Figure pct00039
에 대해 모션 보상을 구현할 수 있다.Motion compensation is a method of describing the difference between two neighboring frames of images. That is, the current image is predicted and compensated according to the reference image. The motion compensation methods may include global motion compensation and block motion compensation. Depending on the terminal device C2
Figure pct00031
To compensate the motion compensated second image < RTI ID = 0.0 >
Figure pct00032
Specifically, the terminal device acquires < RTI ID = 0.0 >
Figure pct00033
And performs compensation for the local motion region obtained by the detection, that is, from the corresponding pixel at C2
Figure pct00034
Lt; / RTI > is subtracted. If the absolute value of the value obtained by the subtraction is larger than the preset value, the terminal device determines that the pixel is moving,
Figure pct00035
All the moving pixels in the local motion region can be used as the local motion region. The terminal device
Figure pct00036
Lt; RTI ID = 0.0 > C2 < / RTI > to the corresponding pixels in C2
Figure pct00037
Lt; RTI ID = 0.0 > motion compensation. ≪ / RTI > Optionally, the terminal device
Figure pct00038
Lt; RTI ID = 0.0 > C2 < / RTI > to the brightness of the corresponding pixels at C2
Figure pct00039
Lt; RTI ID = 0.0 > motion compensation. ≪ / RTI >

S111. 이미지 융합 알고리즘을 사용하는 것에 의해 제2 참조 이미지와 모션 보상된 제2 이미지에 대해 이미지 융합을 수행한다.S111. And performs image fusion on the second reference image and the motion compensated second image by using an image fusion algorithm.

단말 디바이스는 이미지 융합 알고리즘을 사용하는 것에 의해 제2 참조 이미지와 모션 보상된 제2 이미지에 대해 이미지 융합을 수행할 수 있다. 예를 들어, 단말 디바이스는 이미지 융합 알고리즘을 사용하는 것에 의해 C2,

Figure pct00040
Figure pct00041
에 대해 이미지 융합을 수행하고, 융합된 이미지를 출력할 수 있다.The terminal device may perform image fusion for the second reference image and the motion compensated second image by using an image fusion algorithm. For example, a terminal device may use C2,
Figure pct00040
And
Figure pct00041
, And output the fused image.

제2 이미지가 그레이스케일 이미지인 경우, 단말 디바이스는 제1 이미지에 따라 제2 이미지에 대해 이미지 융합을 수행하고, 단말 디바이스에 의해 출력된 이미지는 융합된 제2 이미지, 즉, 그레이스케일 이미지이거나; 또는 제2 이미지가 컬러 이미지인 경우, 단말 디바이스는 제1 이미지에 따라 제2 이미지에 대해 이미지 융합을 수행하고, 단말 디바이스에 의해 출력되는 이미지는 융합된 제2 이미지, 즉 컬러 이미지이다.If the second image is a grayscale image, the terminal device performs image fusion on the second image according to the first image, and the image output by the terminal device is a fused second image, i.e., a grayscale image; Or the second image is a color image, the terminal device performs image fusion for the second image according to the first image, and the image output by the terminal device is the fused second image, i.e., the color image.

도 1a 및 도 1b에 도시된 이미지 융합 방법에서, 동일한 노출 시간에 제1 이미지들의 적어도 2개의 프레임이 제1 카메라를 사용하는 것에 의해 캡처되고, 상이한 노출 시간에 제2 이미지들의 적어도 2개의 프레임이 제2 카메라를 사용하는 것에 의해 캡처되고, 제1 이미지들의 캡처링 시간과 제2 이미지들의 캡처링 시간은 동일하다. 제1 참조 이미지는 제1 이미지들의 적어도 2개의 프레임으로부터 결정되고, 이동 타겟 검출은 제1 참조 이미지에 따라 제1 이미지들의 적어도 2개의 프레임에서 제1 참조 이미지 이외의 이미지에 대해 수행되어, 제1 참조 이미지에 대한, 제1 이미지들의 적어도 2개의 프레임에서 제1 참조 이미지 이외의 이미지의 로컬 모션 크기를 획득하고, 로컬 모션 크기에 따라 제2 이미지에 대해 이미지 융합이 수행된다. 따라서, 이동 타겟 검출의 정확성이 향상될 수 있고, 고스팅이 제거되고, 이미지 융합의 정확도가 비교적 높다.In the image fusion method shown in FIGS. 1A and 1B, at least two frames of the first images at the same exposure time are captured by using the first camera, and at least two frames of the second images at different exposure times Is captured by using the second camera, and the capturing time of the first images and the capturing time of the second images are the same. The first reference image is determined from at least two frames of the first images and the moving target detection is performed on the images other than the first reference image in at least two frames of the first images according to the first reference image, Obtaining a local motion size for an image other than the first reference image in at least two frames of the first images for the reference image and performing image fusion on the second image in accordance with the local motion magnitude. Thus, accuracy of moving target detection can be improved, ghosting is eliminated, and the accuracy of image fusion is relatively high.

도 3을 참조하면, 도 3은 본 발명의 실시예에 따른 이미지 융합 장치의 개략 구조도이다. 본 발명의 이 실시예에 제공된 이미지 융합 장치는 도 1a 및 도 1b를 참조하여 본 발명에서 설명된 이미지 융합 방법의 실시예에서 일부 또는 모든 절차를 구현하도록 구성될 수 있다. 도면에 도시된 바와 같이, 본 발명의 이 실시예에서 이미지 융합 장치는 적어도 이미지 캡처링 유닛(301), 참조 이미지 결정 유닛(302), 모션 크기 획득 유닛(303) 및 이미지 융합 유닛(304)을 포함할 수 있다.Referring to FIG. 3, FIG. 3 is a schematic structural view of an image fusion apparatus according to an embodiment of the present invention. The image fusion apparatus provided in this embodiment of the present invention can be configured to implement some or all of the procedures in the embodiment of the image fusion method described in the present invention with reference to FIGS. 1A and 1B. As shown in the figure, in this embodiment of the present invention, the image fusion apparatus includes at least an image capturing unit 301, a reference image determination unit 302, a motion size acquisition unit 303, and an image fusion unit 304 .

이미지 캡처링 유닛(301)은 제1 카메라를 사용하는 것에 의해 동일한 노출 시간에 제1 이미지들의 적어도 2개의 프레임을 캡처하고, 제2 카메라를 사용하는 것에 의해 상이한 노출 시간들에 제2 이미지들의 적어도 2개의 프레임을 캡처하도록 구성되고, 제1 이미지들의 캡처링 시간과 제2 이미지들의 캡처링 시간은 동일하다.The image capturing unit 301 captures at least two frames of the first images at the same exposure time by using the first camera and captures at least two frames of the second images at different exposure times by using the second camera And the capturing time of the first images and the capturing time of the second images are the same.

참조 이미지 결정 유닛(302)은 제1 이미지들의 적어도 2개의 프레임으로부터 제1 참조 이미지를 결정하도록 구성된다.The reference image determination unit 302 is configured to determine a first reference image from at least two frames of the first images.

모션 크기 획득 유닛(303)은, 제1 참조 이미지에 따라 제1 이미지들의 적어도 2개의 프레임에서 제1 참조 이미지 이외의 이미지에 대해 이동 타겟 검출을 수행하여, 제1 참조 이미지에 대한, 제1 이미지들의 적어도 2개의 프레임에서 제1 참조 이미지 이외의 이미지의 로컬 모션 크기를 획득하도록 구성된다.The motion size acquisition unit 303 performs movement target detection on an image other than the first reference image in at least two frames of the first images according to the first reference image, To obtain a local motion size of an image other than the first reference image in at least two frames of the first reference image.

이미지 융합 유닛(304)은 로컬 모션 크기에 따라 제2 이미지들에 대해 이미지 융합을 수행하도록 구성된다.The image fusion unit 304 is configured to perform image fusion on the second images according to the local motion magnitude.

선택적 실시예에서, 본 발명의 이 실시예에서의 이미지 융합 유닛(304)은 구체적으로:In an alternate embodiment, the image fusion unit 304 in this embodiment of the present invention specifically includes:

로컬 모션 크기가 제1 미리 설정된 임계값보다 크거나 같은 경우, 제2 이미지들의 적어도 2개의 프레임에서 노출 시간이 제1 미리 설정된 시간인 이미지를 출력하도록 구성된다.And to output an image in which the exposure time is at a first predetermined time in at least two frames of the second images if the local motion size is greater than or equal to a first preset threshold value.

선택적 실시예에서, 본 발명의 이 실시예에서의 이미지 융합 유닛(304)은 구체적으로:In an alternate embodiment, the image fusion unit 304 in this embodiment of the present invention specifically includes:

로컬 모션 크기가 제2 미리 설정된 임계값보다 작은 경우, 제2 이미지들의 적어도 2개의 프레임으로부터 제2 참조 이미지를 결정하고;Determine a second reference image from at least two frames of the second images if the local motion size is less than a second preset threshold;

제2 참조 이미지에 따라 제2 이미지들의 적어도 2개의 프레임에서 제2 참조 이미지 이외의 이미지에 대해 이미지 등록을 수행하여 등록된 제2 이미지를 획득하고;Performing image registration on an image other than the second reference image in at least two frames of the second images according to the second reference image to obtain a registered second image;

이미지 융합 알고리즘을 사용하는 것에 의해 제2 참조 이미지와 등록된 제2 이미지에 대해 이미지 융합을 수행하도록 구성된다.And to perform image fusion for the second reference image and the registered second image by using an image fusion algorithm.

선택적 실시예에서, 본 발명의 이 실시예에서의 이미지 융합 유닛(304)은 구체적으로:In an alternate embodiment, the image fusion unit 304 in this embodiment of the present invention specifically includes:

로컬 모션 크기가 제2 미리 설정된 임계값보다 크거나 같고 제1 미리 설정된 임계값보다 작은 경우, 제2 이미지들의 적어도 2개의 프레임으로부터 제2 참조 이미지를 결정하고;Determine a second reference image from at least two frames of the second images if the local motion size is greater than or equal to a second predetermined threshold and less than a first predetermined threshold;

제2 참조 이미지에 따라 제2 이미지들의 적어도 2개의 프레임에서 제2 참조 이미지 이외의 이미지에 대해 이미지 등록을 수행하여 등록된 제2 이미지를 획득하고;Performing image registration on an image other than the second reference image in at least two frames of the second images according to the second reference image to obtain a registered second image;

제2 참조 이미지에 따라 등록된 제2 이미지에 대해 모션 보상을 수행하여 모션 보상된 제2 이미지를 획득하고;Performing motion compensation on the second image registered according to the second reference image to obtain a motion compensated second image;

이미지 융합 알고리즘을 사용하는 것에 의해 제2 참조 이미지 및 모션 보상된 제2 이미지에 대해 이미지 융합을 수행하도록 구성된다.And to perform image fusion on the second reference image and the motion compensated second image by using an image fusion algorithm.

선택적 실시예에서, 본 발명의 이 실시예에서 모션 크기 획득 유닛(303)은 구체적으로:In an alternative embodiment, in this embodiment of the present invention, the motion size acquisition unit 303 specifically includes:

제1 참조 이미지에 따라 제1 이미지들의 적어도 2개의 프레임에서 제1 참조 이미지 이외의 이미지에 대해 이동 타겟 검출을 수행하여, 제1 참조 이미지에 대한, 제1 이미지들의 적어도 2개의 프레임에서 제1 참조 이미지 이외의 이미지의 모션 보상 매트릭스를 생성하고;Moving target detection is performed on an image other than the first reference image in at least two frames of the first images according to the first reference image to obtain a first reference image for at least two frames of the first images, Generate a motion compensation matrix for an image other than an image;

제1 참조 이미지에 대한, 제1 이미지들의 적어도 2개의 프레임에서 제1 참조 이미지 이외의 이미지의 모션 보상 매트릭스에 따라, 제1 이미지들의 적어도 2개의 프레임에서 제1 참조 이미지 이외의 이미지에 대해 이미지 등록을 수행하여 등록된 제1 이미지를 획득하고;For at least two frames of the first images, for an image other than the first reference image, in accordance with a motion compensation matrix of the image other than the first reference image, for at least two frames of the first images, To obtain a registered first image;

제1 참조 이미지에 대한, 등록된 제1 이미지의 로컬 모션 크기를 획득하도록 구성된다.And to obtain a local motion size of the registered first image for the first reference image.

선택적 실시예에서, 모션 크기 획득 유닛(303)이 제2 참조 이미지에 따라 제2 이미지들의 적어도 2개의 프레임에서 제2 참조 이미지 이외의 이미지에 대해 이미지 등록을 수행하여 등록된 제2 이미지를 획득하는 것은 구체적으로:In an alternative embodiment, the motion size obtaining unit 303 performs image registration for images other than the second reference image in at least two frames of the second images according to the second reference image to obtain the registered second image Specifically:

제1 참조 이미지에 대한, 제1 이미지들의 적어도 2개의 프레임에서 제1 참조 이미지 이외의 이미지의 모션 보상 매트릭스에 따라, 제2 이미지들의 적어도 2개의 프레임에서, 제2 참조 이미지 이외의 이미지에 대해 이미지 등록을 수행하여 등록된 제2 이미지를 획득하는 것일 수 있다.According to a motion compensation matrix for an image other than the first reference image in at least two frames of the first images, for at least two frames of the second images, for an image other than the second reference image, And performing registration to obtain a registered second image.

도 3에 도시된 이미지 융합 장치에서, 이미지 캡처링 유닛(301)은 제1 카메라를 사용하는 것에 의해 동일한 노출 시간에 제1 이미지들의 적어도 2개의 프레임을 캡처하고, 제2 카메라를 사용하는 것에 의해 상이한 노출 시간들에 제2 이미지들의 적어도 2개의 프레임을 캡처하고, 제1 이미지들의 캡처링 시간과 제2 이미지들의 캡처링 시간은 동일하다. 참조 이미지 결정 유닛(302)은 제1 이미지들의 적어도 2개의 프레임으로부터 제1 참조 이미지를 결정한다. 모션 크기 획득 유닛(303)은, 제1 참조 이미지에 따라 제1 이미지들의 적어도 2개의 프레임에서 제1 참조 이미지 이외의 이미지에 대해 이동 타겟 검출을 수행하여, 제1 참조 이미지에 대한, 제1 이미지들의 적어도 2개의 프레임에서 제1 참조 이미지 이외의 이미지의 로컬 모션 크기를 획득한다. 이미지 융합 유닛(304)은 로컬 모션 크기에 따라 제2 이미지에 대해 이미지 융합을 수행한다. 따라서, 이동 타겟 검출의 정확성이 향상될 수 있고, 고스팅이 제거되고, 이미지 융합의 정확도가 비교적 높다.In the image fusion apparatus shown in Fig. 3, the image capturing unit 301 captures at least two frames of the first images at the same exposure time by using the first camera, and by using the second camera At least two frames of the second images are captured at different exposure times, and the capture time of the first images and the capture time of the second images are the same. The reference image determination unit 302 determines a first reference image from at least two frames of the first images. The motion size acquisition unit 303 performs movement target detection on an image other than the first reference image in at least two frames of the first images according to the first reference image, The local motion size of an image other than the first reference image in at least two frames. The image fusion unit 304 performs image fusion on the second image in accordance with the local motion size. Thus, accuracy of moving target detection can be improved, ghosting is eliminated, and the accuracy of image fusion is relatively high.

도 4를 참조하면, 도 4는 본 발명의 실시예에 따른 단말 디바이스의 개략 구조도이다. 도 4에 도시된 바와 같이, 단말 디바이스는 프로세서(401), 메모리(402), 제1 카메라(403), 제2 카메라(404) 및 출력 장치(405)를 포함할 수 있다. 프로세서(401)는 메모리(402), 제1 카메라(403), 제2 카메라(404) 및 출력 장치(405)에 접속된다. 예를 들어, 프로세서(401)는 버스를 사용하는 것에 의해 메모리(402), 제1 카메라(403), 제2 카메라(404) 및 출력 장치(405)에 접속될 수 있다.Referring to FIG. 4, FIG. 4 is a schematic structural view of a terminal device according to an embodiment of the present invention. 4, the terminal device may include a processor 401, a memory 402, a first camera 403, a second camera 404, and an output device 405. [ The processor 401 is connected to the memory 402, the first camera 403, the second camera 404 and the output device 405. For example, the processor 401 may be connected to the memory 402, the first camera 403, the second camera 404, and the output device 405 by using a bus.

프로세서(401)는 중앙 처리 유닛(central processing unit, CPU), 네트워크 프로세서(network processor, NP) 등일 수 있다.The processor 401 may be a central processing unit (CPU), a network processor (NP), or the like.

메모리(402)는 제1 이미지, 제2 이미지 등을 저장하도록 구체적으로 구성될 수 있다. 메모리(402)는 예를 들어 랜덤 액세스 메모리(random-access memory, RAM)와 같은 휘발성 메모리(volatile memory)를 포함할 수 있고; 메모리는 예를 들어, 판독 전용 메모리(read-only memory, ROM), 플래시 메모리(flash memory), 하드 디스크 드라이브(hard disk drive, HDD) 또는 고체 상태 드라이브(solid-state drive, SSD)와 같은 비-휘발성 메모리(non-volatile memory)를 또한 포함할 수 있고; 메모리는 메모리들의 전술한 타입들의 조합을 추가로 포함할 수 있다.The memory 402 may be specifically configured to store a first image, a second image, and so on. Memory 402 may include volatile memory, such as, for example, random-access memory (RAM); The memory can be, for example, a non-volatile memory such as a read-only memory (ROM), a flash memory, a hard disk drive (HDD), or a solid- - can also include non-volatile memory; The memory may further comprise a combination of the foregoing types of memories.

제1 카메라(403)는 제1 이미지를 캡처하도록 구성된다.The first camera 403 is configured to capture a first image.

제2 카메라(404)는 제2 이미지를 캡처하도록 구성된다.The second camera 404 is configured to capture a second image.

출력 장치(405)는 이미지를 출력하도록 구성되고; 예를 들어, 출력 장치(405)는 디스플레이 스크린일 수 있다.Output device 405 is configured to output an image; For example, the output device 405 may be a display screen.

프로세서(401), 제1 카메라(403), 제2 카메라(404)는 메모리(402)에 저장되는 프로그램을 호출하여 다음의 동작들을 수행하고;The processor 401, the first camera 403, and the second camera 404 call the program stored in the memory 402 to perform the following operations;

제1 카메라(403)는 동일한 노출 시간에 제1 이미지들의 적어도 2개의 프레임을 캡처하도록 구성되고;The first camera 403 is configured to capture at least two frames of the first images at the same exposure time;

제2 카메라(404)는 상이한 노출 시간들에 제2 이미지들의 적어도 2개의 프레임을 캡처하도록 구성되고, 제1 이미지들의 캡처링 시간과 제2 이미지들의 캡처링 시간은 동일하다.The second camera 404 is configured to capture at least two frames of the second images at different exposure times and the capture time of the first images and the capture time of the second images are the same.

프로세서(401)는 제1 이미지들의 적어도 2개의 프레임으로부터 제1 참조 이미지를 결정하도록 구성되고;Processor 401 is configured to determine a first reference image from at least two frames of the first images;

프로세서(401)는 제1 참조 이미지에 따라 제1 이미지들의 적어도 2개의 프레임에서 제1 참조 이미지 이외의 이미지에 대해 이동 타겟 검출을 수행하여, 제1 참조 이미지에 대한, 제1 이미지들의 적어도 2개의 프레임에서 제1 참조 이미지 이외의 이미지의 로컬 모션 크기를 획득하도록 추가로 구성되고;The processor 401 performs moving target detection on an image other than the first reference image in at least two frames of the first images according to the first reference image to obtain at least two of the first images for the first reference image Further configured to obtain a local motion size of an image other than the first reference image in the frame;

프로세서(401)는 로컬 모션 크기에 따라 제2 이미지들에 대해 이미지 융합을 수행하도록 추가로 구성된다.The processor 401 is further configured to perform image fusion on the second images in accordance with the local motion magnitude.

선택적 실시예에서, 프로세서(401)가 로컬 모션 크기에 따라 제2 이미지들에 대해 이미지 융합을 수행하는 것은 구체적으로:In an alternate embodiment, the processor 401 performs image fusion on the second images in accordance with the local motion size, in particular:

로컬 모션 크기가 제1 미리 설정된 임계값보다 크거나 같은 경우, 프로세서(401)에 의해, 제2 이미지들의 적어도 2개의 프레임에서 노출 시간이 제1 미리 설정된 시간인 이미지를 출력하는 단계를 포함한다.If the local motion size is greater than or equal to a first preset threshold, causing the processor 401 to output an image in which the exposure time is at a first predetermined time in at least two frames of the second images.

선택적 실시예에서, 프로세서(401)가 로컬 모션 크기에 따라 제2 이미지들에 대해 이미지 융합을 수행하는 것은 구체적으로:In an alternate embodiment, the processor 401 performs image fusion on the second images in accordance with the local motion size, in particular:

로컬 모션 크기가 제2 미리 설정된 임계값보다 작은 경우, 프로세서(401)에 의해, 제2 이미지들의 적어도 2개의 프레임으로부터 제2 참조 이미지를 결정하는 것;Determining, by the processor (401), a second reference image from at least two frames of the second images if the local motion size is less than a second preset threshold;

프로세서(401)에 의해, 제2 참조 이미지에 따라 제2 이미지들의 적어도 2개의 프레임에서 제2 참조 이미지 이외의 이미지에 대해 이미지 등록을 수행하여 등록된 제2 이미지를 획득하는 것; 및Performing image registration for an image other than the second reference image in at least two frames of the second images according to the second reference image by the processor 401 to obtain a registered second image; And

프로세서(401)에 의해, 이미지 융합 알고리즘을 사용하는 것에 의해 제2 참조 이미지와 등록된 제2 이미지에 대해 이미지 융합을 수행하는 것을 포함한다.And performing image fusion on the second reference image and the registered second image by using the image fusion algorithm by the processor 401. [

선택적 실시예에서, 프로세서(401)가 로컬 모션 크기에 따라 제2 이미지들에 대해 이미지 융합을 수행하는 것은 구체적으로:In an alternate embodiment, the processor 401 performs image fusion on the second images in accordance with the local motion size, in particular:

로컬 모션 크기가 제2 미리 설정된 임계값보다 크거나 같고 제1 미리 설정된 임계값보다 작은 경우, 프로세서(401)에 의해 제2 이미지들의 적어도 2개의 프레임으로부터 제2 참조 이미지를 결정하는 것;Determining a second reference image from at least two frames of the second images by the processor (401) if the local motion size is greater than or equal to a second predetermined threshold and less than a first predetermined threshold;

프로세서(401)에 의해, 제2 참조 이미지에 따라 제2 이미지들의 적어도 2개의 프레임에서 제2 참조 이미지 이외의 이미지에 대해 이미지 등록을 수행하여 등록된 제2 이미지를 획득하는 것;Performing image registration for an image other than the second reference image in at least two frames of the second images according to the second reference image by the processor 401 to obtain a registered second image;

프로세서(401)에 의해, 제2 참조 이미지에 따라 등록된 제2 이미지에 대해 모션 보상을 수행하여 모션 보상된 제2 이미지를 획득하는 것; 및Performing motion compensation on the second image registered according to the second reference image by the processor 401 to obtain a motion compensated second image; And

프로세서(401)에 의해, 이미지 융합 알고리즘을 사용하는 것에 의해 제2 참조 이미지와 모션 보상된 제2 이미지에 대해 이미지 융합을 수행하는 것을 포함한다.And performing image fusion on the second reference image and the motion compensated second image by using the image fusion algorithm by the processor 401. [

선택적 실시예에서, 프로세서(401)는 제1 참조 이미지에 따라 제1 이미지들의 적어도 2개의 프레임에서 제1 참조 이미지 이외의 이미지에 대해 이동 타겟 검출을 수행하여, 제1 참조 이미지에 대한, 제1 이미지들의 적어도 2개의 프레임에서 제1 참조 이미지 이외의 이미지의 로컬 모션 크기를 획득하는 것은 구체적으로:In an alternative embodiment, the processor 401 performs motion target detection on an image other than the first reference image in at least two frames of the first images in accordance with the first reference image, Obtaining the local motion size of an image other than the first reference image in at least two frames of images is specifically:

프로세서(401)에 의해, 제1 참조 이미지에 따라 제1 이미지들의 적어도 2개의 프레임에서 제1 참조 이미지 이외의 이미지에 대해 이동 타겟 검출을 수행하여, 제1 참조 이미지에 대한, 제1 이미지들의 적어도 2개의 프레임에서 제1 참조 이미지 이외의 이미지의 모션 보상 매트릭스를 생성하는 것;The processor 401 performs motion target detection on an image other than the first reference image in at least two frames of the first images according to the first reference image to obtain at least two images of the first images Generating motion compensation matrices for images other than the first reference image in two frames;

프로세서(401)에 의해, 모션 보상 매트릭스에 따라 제1 이미지들의 적어도 2개의 프레임에서 제1 참조 이미지 이외의 이미지에 대해 이미지 등록을 수행하여 등록된 제1 이미지를 획득하는 것; 및Performing image registration for an image other than the first reference image in at least two frames of the first images according to a motion compensation matrix by the processor 401 to obtain a registered first image; And

프로세서(401)에 의해, 제1 참조 이미지에 대한, 등록된 제1 이미지의 로컬 모션 크기를 획득하는 것을 포함한다.By the processor 401, the local motion size of the registered first image for the first reference image.

선택적 실시예에서, 프로세서(401)는 제2 참조 이미지에 따라 제2 이미지들의 적어도 2개의 프레임에서 제2 참조 이미지 이외의 이미지에 대해 이미지 등록을 수행하여 등록된 제2 이미지를 획득하는 것은 구체적으로:In an alternative embodiment, the processor 401 performs image registration on an image other than the second reference image in at least two frames of the second images according to the second reference image to obtain the registered second image, :

프로세서(401)에 의해, 모션 보상 매트릭스에 따라 제2 이미지들의 적어도 2개의 프레임에서 제2 참조 이미지 이외의 이미지에 대해 이미지 등록을 수행하여 등록된 제2 이미지를 획득하는 것을 포함한다.By the processor 401, perform image registration on an image other than the second reference image in at least two frames of the second images according to the motion compensation matrix to obtain the registered second image.

구체적으로, 본 발명의 이 실시예에서 설명된 단말 디바이스는 도 1a 및 도 1b를 참조하여 본 발명에서 설명된 이미지 융합 방법의 실시예에서 일부 또는 모든 절차를 구현하도록 구성될 수 있다.Specifically, the terminal device described in this embodiment of the present invention can be configured to implement some or all of the procedures in the embodiment of the image fusion method described in the present invention with reference to Figs. 1A and 1B.

본 명세서의 설명에서, "실시예", "일부 실시예", "예", "특정 예" 및 "일부 예"와 같은 그러한 참조 용어에 관한 설명은 실시예들 또는 예들을 참조하여 설명된 특정 특징들, 구조들, 재료들 또는 특성들이 본 발명의 적어도 하나의 실시예 또는 예에 포함된다. 명세서에서, 용어의 표현들의 전술한 예들은 반드시 동일한 실시예 또는 예에 관한 것은 아니다. 또한, 설명된 특정 특징들, 구조들, 재료들 또는 특성들은 실시예들 또는 예들의 임의의 하나 이상에서 적절한 방식으로 조합될 수 있다. 또한, 본 기술분야의 통상의 기술자는 본 명세서에서 설명된 상이한 실시예들 또는 예들 및 다른 실시예들 또는 예들의 특성들을, 그것들이 서로 충돌하지 않는 한 통합하거나 조합할 수 있다.In the description herein, any reference to such reference terms such as "example", "some embodiments", "examples", "specific examples" and "some examples" Features, structures, materials, or characteristics are included in at least one embodiment or example of the present invention. In the specification, the foregoing examples of expressions of terms are not necessarily referring to the same embodiment or example. In addition, the specific features, structures, materials, or characteristics described may be combined in any suitable manner in any one or more of the embodiments or examples. In addition, one of ordinary skill in the art can incorporate or combine the features of the different embodiments or examples and other embodiments or examples described herein as long as they do not conflict with one another.

또한, "제1" 및 "제2"라는 용어들은 단지 설명을 목적으로 의도된 것이고, 상대적인 중요성에 대한 표시나 암시 또는 표시된 기술적 특징들의 수에 대한 암시적 표시로서 이해해서는 안된다. 따라서, "제1" 또는 "제2"에 의해 제한되는 특징은 특징들 중 적어도 하나를 명시적으로 또는 암시적으로 포함할 수 있다. 본 발명에 관한 설명에서, "다수"는 달리 구체적으로 제한되지 않는 한, 적어도 2개, 예를 들어 2개 또는 3개를 의미한다.Also, the terms " first " and " second " are intended for illustrative purposes only and should not be construed as an indication of relative importance or an implicit indication of the number of implied or displayed technical features. Thus, a feature that is limited by " first " or " second " may explicitly or implicitly include at least one of the features. In the description of the present invention, " plurality " means at least two, for example two or three unless otherwise specifically limited.

로직 및/또는 단계들, 예를 들어, 본 명세서에서 다른 방식으로 흐름도에 표시되거나 설명된 로직 기능들을 구현하도록 구성되는 것으로서 간주되는 실행가능 명령어들의 프로그램 리스트는, 명령어-실행 시스템, 장치 또는 디바이스(예를 들어, 컴퓨터-기반 시스템, 프로세서를 포함하는 시스템, 또는 명령어-실행 시스템, 장치 또는 디바이스로부터 명령어를 획득할 수 있고 명령어를 실행할 수 있는 다른 시스템)에 의해 사용되거나, 명령어-실행 시스템, 장치 또는 디바이스와 조합하여 사용되도록, 임의의 컴퓨터 판독가능 매체에서 구체적으로 구현될 수 있다. 본 명세서에 대해서, "컴퓨터 판독가능 매체"는 프로그램을 포함, 저장, 통신, 전파 또는 송신할 수 있는 임의의 장치일 수 있어서, 프로그램은 명령어-실행 시스템, 장치 또는 디바이스에 의해 사용될 수 있거나, 명령어-실행 시스템, 장치 또는 디바이스와 조합하여 사용될 수 있다. 컴퓨터 판독가능 매체의 보다 구체적인 예들(불-완전 리스트)은: 하나 이상의 레이드 와이어를 갖는 전기적 연결 부분(전자 장치), 휴대용 컴퓨터 디스크 박스(자기 장치), 랜덤 액세스 메모리, 판독 전용 메모리, 소거가능 프로그램가능 판독 전용 메모리, 광섬유 장치 및 휴대용 콤팩트 디스크 판독 전용 메모리를 포함한다. 또한, 컴퓨터 판독가능 매체는 심지어 프로그램이 인쇄될 수 있는 종이 또는 다른 적합한 매체일 수 있다. 이는 종이 또는 다른 매체에 대해 광학적 스캐닝을 수행하고 그 후 편집 및 디코딩을 수행하는 것에 의해, 또는 필요한 경우 다른 적절한 방식으로 처리를 수행하는 것에 의해 전자 방식으로 프로그램이 획득될 수 있고 그 후 프로그램이 컴퓨터 메모리에 저장되기 때문이다.The program listing of executable instructions that are considered to be implemented to implement the logic functions and / or steps, e.g., logic functions shown or described in the flowcharts in other ways herein, For example, a computer-based system, a system that includes a processor, or an instruction-execution system, apparatus, or device that is capable of acquiring and executing instructions from, Or may be embodied specifically in any computer-readable medium for use in combination with a device. As used herein, " computer-readable medium " may be any device capable of storing, communicating, propagating, or transmitting a program such that the program may be used by the instruction- - Can be used in combination with an execution system, device or device. More specific examples (non-exhaustive list) of computer readable media include: an electrically connected portion (electronic device) having one or more lay wires, a portable computer disk box (magnetic device), a random access memory, a read only memory, Capable read-only memory, a fiber optic device, and a portable compact disc read-only memory. In addition, the computer-readable medium may even be paper or other suitable medium upon which the program may be printed. This can be accomplished electronically by performing optical scanning on a paper or other medium and then performing editing and decoding, or by performing processing in other suitable ways, if necessary, Because it is stored in memory.

본 발명의 부분들은 하드웨어, 소프트웨어, 펌웨어, 또는 이들의 조합을 사용하는 것에 의해 구현될 수 있음을 이해해야 한다. 전술한 구현예들에서, 다수의 단계 또는 방법은 메모리에 저장되고 적절한 명령어 실행 시스템에 의해 실행되는 소프트웨어 또는 펌웨어를 사용하는 것에 의해 구현될 수 있다. 예를 들어, 하드웨어가 다른 구현예에서의 구현과 유사한 구현에 사용되는 경우, 본 기술분야의 다음의 공지된 기술들: 데이터 신호를 위한 로직 기능을 구현하기 위해 사용되는 로직 게이트 회로를 갖는 개별 로직 회로, 적절한 조합의 로직 회로를 갖는 주문형 집적 회로, 프로그램가능 게이트 어레이, 필드 프로그램가능 게이트 어레이 등의 조합 또는 임의의 항목이 구현에 사용될 수 있다.It is to be understood that portions of the present invention may be implemented by using hardware, software, firmware, or a combination thereof. In the above-described implementations, a number of steps or methods may be implemented by using software or firmware stored in memory and executed by an appropriate instruction execution system. For example, when hardware is used in an implementation similar to the implementation in other implementations, the following well known techniques in the art: separate logic with logic gate circuitry used to implement the logic function for the data signal Any combination or any combination of circuitry, a programmable gate array, a field programmable gate array, etc., with suitable combinations of logic circuits may be used in the implementation.

본 발명의 실시예들에서의 모듈들은 하드웨어의 형태로 구현될 수 있거나, 소프트웨어 기능 모듈의 형태로 구현될 수 있다. 집적 모듈이 소프트웨어 기능 모듈의 형태로 구현되고 독립적 제품으로서 판매되거나 또는 사용될 때, 집적 유닛은 컴퓨터 판독가능 저장 매체에 저장될 수 있다.The modules in the embodiments of the present invention may be implemented in the form of hardware, or may be implemented in the form of a software function module. When an integration module is implemented in the form of a software function module and sold or used as an independent product, the integration unit can be stored in a computer-readable storage medium.

본 발명의 실시예들이 도시되고 전술되지만, 전술한 실시예들은 예들이고, 본 발명에 대한 제한으로서 해석될 수 없다는 점이 이해될 수 있다. 본 발명의 범주 내에서, 본 기술분야의 통상의 기술자는 전술한 실시예들에 대해 변경들, 수정들, 대체 및 변동들을 행할 수 있다.While embodiments of the present invention have been shown and described, it is to be understood that the above-described embodiments are examples and can not be construed as limitations on the present invention. Within the scope of the present invention, one of ordinary skill in the art can make changes, modifications, substitutions and variations to the above-described embodiments.

Claims (19)

이미지 융합 방법으로서,
상기 방법은 단말 디바이스에 적용되고, 제1 카메라와 제2 카메라는 상기 단말 디바이스 상에 제공되고, 상기 방법은:
상기 제1 카메라를 사용하는 것에 의해 동일한 노출 시간에 제1 이미지들의 적어도 2개의 프레임을 캡처하고, 상기 제2 카메라를 사용하는 것에 의해 상이한 노출 시간들에 제2 이미지들의 적어도 2개의 프레임을 캡처하는 단계- 상기 제1 이미지들의 캡처링 시간과 상기 제2 이미지들의 캡처링 시간은 동일함 -;
상기 제1 이미지들의 적어도 2개의 프레임으로부터 제1 참조 이미지를 결정하는 단계;
상기 제1 참조 이미지에 따라 상기 제1 이미지들의 적어도 2개의 프레임에서 상기 제1 참조 이미지 이외의 이미지에 대해 이동 타겟 검출을 수행하여, 상기 제1 참조 이미지에 대한, 상기 제1 이미지들의 적어도 2개의 프레임에서 상기 제1 참조 이미지 이외의 상기 이미지의 로컬 모션 크기를 획득하는 단계- 상기 로컬 모션 크기는 상기 이동 타겟 검출에 의해 검출된 이동 타겟에 의해 점유된 픽셀들의 양에 관한 정보를 나타내기 위해 사용됨 -; 및
상기 로컬 모션 크기에 따라 상기 제2 이미지들에 대해 이미지 융합을 수행하는 단계
를 포함하는, 방법.
As an image fusion method,
The method is applied to a terminal device, wherein a first camera and a second camera are provided on the terminal device, the method comprising:
Capturing at least two frames of the first images at the same exposure time by using the first camera and capturing at least two frames of the second images at different exposure times by using the second camera Wherein the capturing time of the first images and the capturing time of the second images are the same;
Determining a first reference image from at least two frames of the first images;
Performing movement target detection on an image other than the first reference image in at least two frames of the first images in accordance with the first reference image to determine at least two of the first images for the first reference image Obtaining a local motion size of the image other than the first reference image in a frame, the local motion magnitude being used to indicate information about the amount of pixels occupied by the moving target detected by the moving target detection -; And
Performing image fusion on the second images according to the local motion magnitude
/ RTI >
제1항에 있어서,
상기 로컬 모션 크기에 따라 상기 제2 이미지들에 대해 이미지 융합을 수행하는 상기 단계는:
상기 로컬 모션 크기가 제1 미리 설정된 임계값보다 크거나 같은 경우, 상기 제2 이미지들의 적어도 2개의 프레임에서 노출 시간이 제1 미리 설정된 시간인 이미지를 출력하는 단계를 포함하는, 방법.
The method according to claim 1,
Wherein performing the image fusion for the second images according to the local motion magnitude comprises:
And outputting an image in which the exposure time is at a first predetermined time in at least two frames of the second images if the local motion magnitude is greater than or equal to a first preset threshold value.
제1항에 있어서,
상기 로컬 모션 크기에 따라 상기 제2 이미지들에 대해 이미지 융합을 수행하는 상기 단계는:
상기 로컬 모션 크기가 제2 미리 설정된 임계값보다 작은 경우, 상기 제2 이미지들의 적어도 2개의 프레임으로부터 제2 참조 이미지를 결정하는 단계;
상기 제2 참조 이미지에 따라 상기 제2 이미지들의 적어도 2개의 프레임에서 상기 제2 참조 이미지 이외의 이미지에 대해 이미지 등록을 수행하여 등록된 제2 이미지를 획득하는 단계; 및
이미지 융합 알고리즘을 사용하는 것에 의해 상기 제2 참조 이미지와 상기 등록된 제2 이미지에 대해 이미지 융합을 수행하는 단계
를 포함하는, 방법.
The method according to claim 1,
Wherein performing the image fusion for the second images according to the local motion magnitude comprises:
Determining a second reference image from at least two frames of the second images if the local motion size is less than a second predetermined threshold;
Performing image registration for an image other than the second reference image in at least two frames of the second images according to the second reference image to obtain a registered second image; And
Performing image fusion on the second reference image and the registered second image by using an image fusion algorithm
/ RTI >
제1항에 있어서,
상기 로컬 모션 크기에 따라 상기 제2 이미지들에 대해 이미지 융합을 수행하는 상기 단계는:
상기 로컬 모션 크기가 제2 미리 설정된 임계값보다 크거나 같고 제1 미리 설정된 임계값보다 작은 경우, 상기 제2 이미지들의 적어도 2개의 프레임으로부터 제2 참조 이미지를 결정하는 단계;
상기 제2 참조 이미지에 따라 상기 제2 이미지들의 적어도 2개의 프레임에서 상기 제2 참조 이미지 이외의 이미지에 대해 이미지 등록을 수행하여 등록된 제2 이미지를 획득하는 단계;
상기 제2 참조 이미지에 따라 상기 등록된 제2 이미지에 대해 모션 보상을 수행하여 모션 보상된 제2 이미지를 획득하는 단계; 및
이미지 융합 알고리즘을 사용하는 것에 의해 상기 제2 참조 이미지와 상기 모션 보상된 제2 이미지에 대해 이미지 융합을 수행하는 단계
를 포함하는, 방법.
The method according to claim 1,
Wherein performing the image fusion for the second images according to the local motion magnitude comprises:
Determining a second reference image from at least two frames of the second images if the local motion size is greater than or equal to a second preset threshold and less than a first predetermined threshold;
Performing image registration for an image other than the second reference image in at least two frames of the second images according to the second reference image to obtain a registered second image;
Performing motion compensation on the registered second image in accordance with the second reference image to obtain a motion compensated second image; And
Performing image fusion on the second reference image and the motion compensated second image by using an image fusion algorithm
/ RTI >
제1항 내지 제4항 중 어느 한 항에 있어서,
상기 제1 참조 이미지에 따라 상기 제1 이미지들의 적어도 2개의 프레임에서 상기 제1 참조 이미지 이외의 이미지에 대해 이동 타겟 검출을 수행하여, 상기 제1 참조 이미지에 대한, 상기 제1 이미지들의 적어도 2개의 프레임에서 상기 제1 참조 이미지 이외의 상기 이미지의 로컬 모션 크기를 획득하는 상기 단계는:
상기 제1 참조 이미지에 따라 상기 제1 이미지들의 적어도 2개의 프레임에서 상기 제1 참조 이미지 이외의 상기 이미지에 대해 이동 타겟 검출을 수행하여, 상기 제1 참조 이미지에 대한, 상기 제1 이미지들의 적어도 2개의 프레임에서 상기 제1 참조 이미지 이외의 상기 이미지의 모션 보상 매트릭스를 생성하는 단계;
상기 모션 보상 매트릭스에 따라 상기 제1 이미지들의 적어도 2개의 프레임에서 상기 제1 참조 이미지 이외의 상기 이미지에 대해 이미지 등록을 수행하여 등록된 제1 이미지를 획득하는 단계; 및
상기 제1 참조 이미지에 대한, 상기 등록된 제1 이미지의 로컬 모션 크기를 획득하는 단계
를 포함하는, 방법.
5. The method according to any one of claims 1 to 4,
Performing movement target detection on an image other than the first reference image in at least two frames of the first images in accordance with the first reference image to determine at least two of the first images for the first reference image Wherein obtaining a local motion size of the image other than the first reference image in a frame comprises:
Performing movement target detection on the image other than the first reference image in at least two frames of the first images according to the first reference image to obtain at least two of the first images for the first reference image, Generating motion compensation matrices of the image other than the first reference image in frames;
Performing image registration on the image other than the first reference image in at least two frames of the first images according to the motion compensation matrix to obtain a registered first image; And
Obtaining a local motion size of the registered first image for the first reference image
/ RTI >
제5항에 있어서,
상기 제2 참조 이미지에 따라 상기 제2 이미지들의 적어도 2개의 프레임에서 상기 제2 참조 이미지 이외의 이미지에 대해 이미지 등록을 수행하여 등록된 제2 이미지를 획득하는 상기 단계는:
상기 모션 보상 매트릭스에 따라 상기 제2 이미지들의 적어도 2개의 프레임에서 상기 제2 참조 이미지 이외의 상기 이미지에 대해 이미지 등록을 수행하여 상기 등록된 제2 이미지를 획득하는 단계를 포함하는, 방법.
6. The method of claim 5,
Wherein performing the image registration for an image other than the second reference image in at least two frames of the second images according to the second reference image to obtain a registered second image comprises:
And performing image registration on the image other than the second reference image in at least two frames of the second images according to the motion compensation matrix to obtain the registered second image.
이미지 융합 장치로서,
제1 카메라를 사용하는 것에 의해 동일한 노출 시간에 제1 이미지들의 적어도 2개의 프레임을 캡처하고, 제2 카메라를 사용하는 것에 의해 상이한 노출 시간들에 제2 이미지들의 적어도 2개의 프레임을 캡처하도록 구성된 이미지 캡처링 유닛- 상기 제1 이미지들의 캡처링 시간과 상기 제2 이미지들의 캡처링 시간은 동일함 -;
상기 제1 이미지들의 적어도 2개의 프레임으로부터 제1 참조 이미지를 결정하도록 구성된 참조 이미지 결정 유닛;
상기 제1 참조 이미지에 따라 상기 제1 이미지들의 적어도 2개의 프레임에서 상기 제1 참조 이미지 이외의 이미지에 대해 이동 타겟 검출을 수행하여, 상기 제1 참조 이미지에 대한, 상기 제1 이미지들의 적어도 2개의 프레임에서 상기 제1 참조 이미지 이외의 상기 이미지의 로컬 모션 크기를 획득하도록 구성된 모션 크기 획득 유닛- 상기 로컬 모션 크기는 상기 이동 타겟 검출에 의해 검출된 이동 타겟에 의해 점유된 픽셀들의 양에 관한 정보를 나타내기 위해 사용됨 -; 및
상기 로컬 모션 크기에 따라 상기 제2 이미지들에 대해 이미지 융합을 수행하도록 구성된 이미지 융합 유닛
을 포함하는, 장치.
An image fusion device,
An image configured to capture at least two frames of the first images at the same exposure time by using a first camera and to capture at least two frames of the second images at different exposure times by using a second camera, A capturing unit, the capturing time of the first images being the same as the capturing time of the second images;
A reference image determination unit configured to determine a first reference image from at least two frames of the first images;
Performing movement target detection on an image other than the first reference image in at least two frames of the first images in accordance with the first reference image to determine at least two of the first images for the first reference image A motion magnitude acquisition unit configured to acquire a local motion magnitude of the image other than the first reference image in a frame, the local motion magnitude comprising information about the amount of pixels occupied by the motion target detected by the motion target detection Used to indicate -; And
An image fusion unit configured to perform image fusion on the second images according to the local motion magnitude;
/ RTI >
제7항에 있어서,
상기 이미지 융합 유닛은 구체적으로:
상기 로컬 모션 크기가 제1 미리 설정된 임계값보다 크거나 같은 경우, 상기 제2 이미지들의 적어도 2개의 프레임에서 노출 시간이 제1 미리 설정된 시간인 이미지를 출력하도록 구성되는, 장치.
8. The method of claim 7,
The image fusion unit specifically includes:
And to output an image whose exposure time is at a first predetermined time in at least two frames of the second images if the local motion magnitude is greater than or equal to a first predetermined threshold value.
제7항에 있어서,
상기 이미지 융합 유닛은 구체적으로:
상기 로컬 모션 크기가 제2 미리 설정된 임계값보다 작은 경우, 상기 제2 이미지들의 적어도 2개의 프레임으로부터 제2 참조 이미지를 결정하고;
상기 제2 참조 이미지에 따라 상기 제2 이미지들의 적어도 2개의 프레임에서 상기 제2 참조 이미지 이외의 이미지에 대해 이미지 등록을 수행하여 등록된 제2 이미지를 획득하고;
이미지 융합 알고리즘을 사용하는 것에 의해 상기 제2 참조 이미지와 상기 등록된 제2 이미지에 대해 이미지 융합을 수행하도록 구성되는, 장치.
8. The method of claim 7,
The image fusion unit specifically includes:
Determine a second reference image from at least two frames of the second images if the local motion size is less than a second predetermined threshold;
Performing image registration for an image other than the second reference image in at least two frames of the second images according to the second reference image to obtain a registered second image;
And to perform image fusion for the second reference image and the registered second image by using an image fusion algorithm.
제7항에 있어서,
상기 이미지 융합 유닛은 구체적으로:
상기 로컬 모션 크기가 제2 미리 설정된 임계값보다 크거나 같고 제1 미리 설정된 임계값보다 작은 경우, 상기 제2 이미지들의 적어도 2개의 프레임으로부터 제2 참조 이미지를 결정하고;
상기 제2 참조 이미지에 따라 상기 제2 이미지들의 적어도 2개의 프레임에서 상기 제2 참조 이미지 이외의 이미지에 대해 이미지 등록을 수행하여 등록된 제2 이미지를 획득하고;
상기 제2 참조 이미지에 따라 상기 등록된 제2 이미지에 대해 모션 보상을 수행하여 모션 보상된 제2 이미지를 획득하고;
이미지 융합 알고리즘을 사용하는 것에 의해 상기 제2 참조 이미지와 상기 모션 보상된 제2 이미지에 대해 이미지 융합을 수행하도록 구성되는, 장치.
8. The method of claim 7,
The image fusion unit specifically includes:
Determine a second reference image from at least two frames of the second images if the local motion size is greater than or equal to a second predetermined threshold and less than a first predetermined threshold;
Performing image registration for an image other than the second reference image in at least two frames of the second images according to the second reference image to obtain a registered second image;
Performing motion compensation on the registered second image according to the second reference image to obtain a motion compensated second image;
And to perform image fusion on the second reference image and the motion compensated second image by using an image fusion algorithm.
제7항 내지 제10항 중 어느 한 항에 있어서,
상기 모션 크기 획득 유닛은 구체적으로:
상기 제1 참조 이미지에 따라 상기 제1 이미지들의 적어도 2개의 프레임에서 상기 제1 참조 이미지 이외의 상기 이미지에 대해 이동 타겟 검출을 수행하여, 상기 제1 참조 이미지에 대한, 상기 제1 이미지들의 적어도 2개의 프레임에서 상기 제1 참조 이미지 이외의 상기 이미지의 모션 보상 매트릭스를 생성하고;
상기 모션 보상 매트릭스에 따라 상기 제1 이미지들의 적어도 2개의 프레임에서 상기 제1 참조 이미지 이외의 상기 이미지에 대해 글로벌(global) 이미지 등록을 수행하여 등록된 제1 이미지를 획득하고;
상기 제1 참조 이미지에 대한, 상기 등록된 제1 이미지의 로컬 모션 크기를 획득하도록 구성되는, 장치.
11. The method according to any one of claims 7 to 10,
The motion magnitude acquisition unit may be:
Performing movement target detection on the image other than the first reference image in at least two frames of the first images according to the first reference image to obtain at least two of the first images for the first reference image, Generating motion compensation matrices of the image other than the first reference image in frames;
Performing a global image registration on the image other than the first reference image in at least two frames of the first images according to the motion compensation matrix to obtain a registered first image;
And to obtain a local motion size of the registered first image for the first reference image.
제11항에 있어서,
상기 모션 크기 획득 유닛이 상기 제2 참조 이미지에 따라 상기 제2 이미지들의 적어도 2개의 프레임에서 상기 제2 참조 이미지 이외의 이미지에 대해 이미지 등록을 수행하여 등록된 제2 이미지를 획득하는 것은 구체적으로:
상기 모션 보상 매트릭스에 따라 상기 제2 이미지들의 적어도 2개의 프레임에서 상기 제2 참조 이미지 이외의 상기 이미지에 대해 이미지 등록을 수행하여 상기 등록된 제2 이미지를 획득하는 것일 수 있는, 장치.
12. The method of claim 11,
Wherein the motion size obtaining unit performs image registration on an image other than the second reference image in at least two frames of the second images according to the second reference image to obtain a registered second image,
And perform image registration on the image other than the second reference image in at least two frames of the second images according to the motion compensation matrix to obtain the registered second image.
단말 디바이스로서,
프로세서, 메모리, 제1 카메라 및 제2 카메라를 포함하고, 상기 메모리는 프로그램 코드 세트를 저장하고, 상기 프로세서, 상기 제1 카메라 및 상기 제2 카메라는 상기 메모리에 저장되는 상기 프로그램 코드를 호출하여, 다음의 동작들:
상기 제1 카메라가 동일한 노출 시간에 제1 이미지들의 적어도 2개의 프레임을 캡처하도록 구성되는 동작;
상기 제2 카메라가 상이한 노출 시간들에 제2 이미지들의 적어도 2개의 프레임을 캡처하도록 구성되는 동작- 상기 제1 이미지들의 캡처링 시간과 상기 제2 이미지들의 캡처링 시간은 동일함 -;
상기 프로세서가 상기 제1 이미지들의 적어도 2개의 프레임으로부터 제1 참조 이미지를 결정하도록 구성되는 동작;
상기 프로세서가 상기 제1 참조 이미지에 따라 상기 제1 이미지들의 적어도 2개의 프레임에서 상기 제1 참조 이미지 이외의 이미지에 대해 이동 타겟 검출을 수행하여, 상기 제1 참조 이미지에 대한, 상기 제1 이미지들의 적어도 2개의 프레임에서 상기 제1 참조 이미지 이외의 상기 이미지의 로컬 모션 크기를 획득하도록 추가로 구성되는 동작- 상기 로컬 모션 크기는 상기 이동 타겟 검출에 의해 검출된 이동 타겟에 의해 점유된 픽셀들의 양에 관한 정보를 나타내기 위해 사용됨 -; 및
상기 프로세서가 상기 로컬 모션 크기에 따라 상기 제2 이미지들에 대해 이미지 융합을 수행하도록 추가로 구성되는 동작
을 수행하는, 단말 디바이스.
As a terminal device,
A processor comprising a processor, a memory, a first camera and a second camera, the memory storing a program code set, the processor, the first camera and the second camera calling the program code stored in the memory, The following operations:
Wherein the first camera is configured to capture at least two frames of first images at the same exposure time;
Wherein the second camera is configured to capture at least two frames of the second images at different exposure times, the capturing time of the first images being the same as the capturing time of the second images;
The processor being configured to determine a first reference image from at least two frames of the first images;
Wherein the processor performs movement target detection on an image other than the first reference image in at least two frames of the first images in accordance with the first reference image, An operation further configured to obtain a local motion size of the image other than the first reference image in at least two frames, the local motion magnitude being determined by the amount of pixels occupied by the moving target detected by the moving target detection Used to indicate information about -; And
Wherein the processor is further configured to perform image fusion on the second images in accordance with the local motion size
.
제13항에 있어서,
상기 프로세서가 상기 로컬 모션 크기에 따라 상기 제2 이미지들에 대해 이미지 융합을 수행하는 것은 구체적으로:
상기 로컬 모션 크기가 제1 미리 설정된 임계값보다 크거나 같은 경우, 상기 프로세서에 의해, 상기 제2 이미지들의 적어도 2개의 프레임에서 노출 시간이 제1 미리 설정된 시간인 이미지를 출력하는 것을 포함하는, 단말 디바이스.
14. The method of claim 13,
Wherein the processor performs image fusion on the second images according to the local motion magnitude.
Wherein if the local motion magnitude is greater than or equal to a first predetermined threshold value, outputting by the processor an image in which the exposure time is at a first predetermined time in at least two frames of the second images, device.
제13항에 있어서,
상기 프로세서가 상기 로컬 모션 크기에 따라 상기 제2 이미지들에 대해 이미지 융합을 수행하는 것은 구체적으로:
상기 로컬 모션 크기가 제2 미리 설정된 임계값보다 작은 경우, 상기 프로세서에 의해, 상기 제2 이미지들의 적어도 2개의 프레임으로부터 제2 참조 이미지를 결정하는 것;
상기 프로세서에 의해, 상기 제2 참조 이미지에 따라 상기 제2 이미지들의 적어도 2개의 프레임에서 상기 제2 참조 이미지 이외의 이미지에 대해 이미지 등록을 수행하여 등록된 제2 이미지를 획득하는 것; 및
상기 프로세서에 의해, 이미지 융합 알고리즘을 사용하는 것에 의해 상기 제2 참조 이미지와 상기 등록된 제2 이미지에 대해 이미지 융합을 수행하는 것
을 포함하는, 단말 디바이스.
14. The method of claim 13,
Wherein the processor performs image fusion on the second images according to the local motion magnitude.
Determining, by the processor, a second reference image from at least two frames of the second images if the local motion size is less than a second predetermined threshold;
Performing image registration for an image other than the second reference image in at least two frames of the second images according to the second reference image by the processor to obtain a registered second image; And
Performing, by the processor, an image fusion on the second reference image and the registered second image by using an image fusion algorithm
.
제13항에 있어서,
상기 프로세서가 상기 로컬 모션 크기에 따라 상기 제2 이미지들에 대해 이미지 융합을 수행하는 것은 구체적으로:
상기 로컬 모션 크기가 제2 미리 설정된 임계값보다 크거나 같고 제1 미리 설정된 임계값보다 작은 경우, 상기 프로세서에 의해 상기 제2 이미지들의 적어도 2개의 프레임으로부터 제2 참조 이미지를 결정하는 것;
상기 프로세서에 의해, 상기 제2 참조 이미지에 따라 상기 제2 이미지들의 적어도 2개의 프레임에서 상기 제2 참조 이미지 이외의 이미지에 대해 이미지 등록을 수행하여 등록된 제2 이미지를 획득하는 것;
상기 프로세서에 의해, 상기 제2 참조 이미지에 따라 상기 등록된 제2 이미지에 대해 모션 보상을 수행하여 모션 보상된 제2 이미지를 획득하는 것; 및
상기 프로세서에 의해, 이미지 융합 알고리즘을 사용하는 것에 의해 상기 제2 참조 이미지와 상기 모션 보상된 제2 이미지에 대해 이미지 융합을 수행하는 것
을 포함하는, 단말 디바이스.
14. The method of claim 13,
Wherein the processor performs image fusion on the second images according to the local motion magnitude.
Determining a second reference image from at least two frames of the second images by the processor if the local motion size is greater than or equal to a second predetermined threshold and less than a first predetermined threshold;
Performing image registration for an image other than the second reference image in at least two frames of the second images according to the second reference image by the processor to obtain a registered second image;
Performing, by the processor, motion compensation on the registered second image in accordance with the second reference image to obtain a motion compensated second image; And
Performing, by the processor, image fusion on the second reference image and the motion compensated second image by using an image fusion algorithm
.
제13항 내지 제16항 중 어느 한 항에 있어서,
상기 프로세서가 상기 제1 참조 이미지에 따라 상기 제1 이미지들의 적어도 2개의 프레임에서 상기 제1 참조 이미지 이외의 이미지에 대해 이동 타겟 검출을 수행하여, 상기 제1 참조 이미지에 대한, 상기 제1 이미지들의 적어도 2개의 프레임에서 상기 제1 참조 이미지 이외의 상기 이미지의 로컬 모션 크기를 획득하는 것은 구체적으로:
상기 프로세서에 의해, 상기 제1 참조 이미지에 따라 상기 제1 이미지들의 적어도 2개의 프레임에서 상기 제1 참조 이미지 이외의 상기 이미지에 대해 이동 타겟 검출을 수행하여, 제1 참조 이미지에 대한, 상기 제1 이미지들의 적어도 2개의 프레임에서 상기 제1 참조 이미지 이외의 상기 이미지의 모션 보상 매트릭스를 생성하는 것;
상기 프로세서에 의해, 상기 모션 보상 매트릭스에 따라 상기 제1 이미지들의 적어도 2개의 프레임에서 상기 제1 참조 이미지 이외의 상기 이미지에 대해 이미지 등록을 수행하여 등록된 제1 이미지를 획득하는 것; 및
상기 프로세서에 의해, 상기 제1 참조 이미지에 대한, 상기 등록된 제1 이미지의 로컬 모션 크기를 획득하는 것
을 포함하는, 단말 디바이스.
17. The method according to any one of claims 13 to 16,
Wherein the processor performs movement target detection on an image other than the first reference image in at least two frames of the first images in accordance with the first reference image, Obtaining the local motion size of the image other than the first reference image in at least two frames is specifically:
And performing, by the processor, motion target detection on the image other than the first reference image in at least two frames of the first images according to the first reference image, Generating a motion compensation matrix for the image in at least two frames of images other than the first reference image;
Performing image registration on the image other than the first reference image in at least two frames of the first images according to the motion compensation matrix, thereby obtaining a registered first image; And
Acquiring, by the processor, a local motion size of the registered first image for the first reference image
.
제17항에 있어서,
상기 프로세서가 상기 제2 참조 이미지에 따라 상기 제2 이미지들의 적어도 2개의 프레임에서 상기 제2 참조 이미지 이외의 이미지에 대해 이미지 등록을 수행하여 등록된 제2 이미지를 획득하는 것은 구체적으로:
상기 프로세서에 의해, 상기 모션 보상 매트릭스에 따라 상기 제2 이미지들의 적어도 2개의 프레임에서 상기 제2 참조 이미지 이외의 상기 이미지에 대해 이미지 등록을 수행하여 상기 등록된 제2 이미지를 획득하는 것을 포함하는, 단말 디바이스.
18. The method of claim 17,
Wherein the processor performs image registration on an image other than the second reference image in at least two frames of the second images according to the second reference image to obtain a registered second image,
And performing, by the processor, image registration for the image other than the second reference image in at least two frames of the second images according to the motion compensation matrix to obtain the registered second image. Terminal device.
컴퓨터 저장 매체로서, 상기 컴퓨터 저장 매체는 프로그램을 저장하고, 상기 프로그램이 실행될 때, 제1항 내지 제6항 중 어느 한 항에 기재된 단계들이 포함되는, 컴퓨터 저장 매체.A computer storage medium, comprising computer storage media storing a program and, when the program is executed, comprising the steps of any one of claims 1 to 6.
KR1020187020715A 2015-12-28 2015-12-28 Image fusion method and apparatus, and terminal device KR102103252B1 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2015/099168 WO2017113048A1 (en) 2015-12-28 2015-12-28 Image fusion method and apparatus, and terminal device

Publications (2)

Publication Number Publication Date
KR20180095059A true KR20180095059A (en) 2018-08-24
KR102103252B1 KR102103252B1 (en) 2020-04-22

Family

ID=59224124

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020187020715A KR102103252B1 (en) 2015-12-28 2015-12-28 Image fusion method and apparatus, and terminal device

Country Status (6)

Country Link
US (1) US10511776B2 (en)
EP (1) EP3399741B1 (en)
JP (1) JP6629454B2 (en)
KR (1) KR102103252B1 (en)
CN (1) CN108541374B (en)
WO (1) WO2017113048A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210139450A (en) * 2019-03-25 2021-11-22 후아웨이 테크놀러지 컴퍼니 리미티드 Image display method and device
KR20220031767A (en) * 2019-09-09 2022-03-11 퀄컴 인코포레이티드 Zoom Control in Image Capture
KR20240018506A (en) * 2021-07-08 2024-02-13 라모트 앳 텔-아비브 유니버시티 리미티드 Temporal super-resolution

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109417592B (en) * 2016-07-01 2020-12-29 麦克赛尔株式会社 Imaging device, imaging method, and imaging program
US10650506B2 (en) * 2016-07-22 2020-05-12 Sony Corporation Image processing apparatus and image processing method
DE102016223171A1 (en) * 2016-11-23 2018-05-24 Robert Bosch Gmbh Method and system for detecting a raised object located within a parking lot
US11113801B1 (en) * 2018-09-11 2021-09-07 Apple Inc. Robust image motion detection using scene analysis and image frame pairs
KR102628911B1 (en) * 2019-01-07 2024-01-24 삼성전자주식회사 Method of processing image and image processing device performing the same
CN111800580B (en) * 2019-04-08 2021-07-09 瑞芯微电子股份有限公司 High dynamic image synthesis method and storage medium
CN109996009B (en) * 2019-04-09 2021-03-02 Oppo广东移动通信有限公司 Image processing method, image processing device, storage medium and electronic equipment
CN110278360B (en) * 2019-06-28 2021-03-23 Oppo广东移动通信有限公司 Image processing method and device, electronic equipment and computer readable storage medium
EP3935601A4 (en) * 2019-08-06 2022-04-27 Samsung Electronics Co., Ltd. Local histogram matching with global regularization and motion exclusion for multi-exposure image fusion
CN113382153B (en) * 2020-02-25 2022-11-22 北京小米移动软件有限公司 Method and apparatus for displaying image, electronic device, and storage medium
CN111476747B (en) * 2020-03-31 2024-08-23 奥比中光科技集团股份有限公司 System and method for eliminating ghost images in under-screen imaging
CN111524067B (en) * 2020-04-01 2023-09-12 北京东软医疗设备有限公司 Image processing method, device and equipment
KR102697687B1 (en) 2020-04-29 2024-08-23 삼성전자주식회사 Method of merging images and data processing device performing the same
CN114070996B (en) * 2020-07-30 2024-01-12 北京小米移动软件有限公司 Star sky shooting method, star sky shooting device and storage medium
CN112597787B (en) * 2020-08-27 2021-10-15 禾多科技(北京)有限公司 Method, apparatus, server and medium for fusing partial images
CN112288642A (en) * 2020-09-21 2021-01-29 北京迈格威科技有限公司 Ghost detection method, image fusion method and corresponding device
CN113052056B (en) * 2021-03-19 2024-09-20 华为技术有限公司 Video processing method and device
CN115209062A (en) * 2021-04-13 2022-10-18 华为技术有限公司 Image processing method and device
CN117474983B (en) * 2023-12-27 2024-03-12 广东力创信息技术有限公司 Early warning method based on light-vision linkage and related device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050047672A1 (en) * 2003-06-17 2005-03-03 Moshe Ben-Ezra Method for de-blurring images of moving objects
JP2010062785A (en) * 2008-09-03 2010-03-18 Sony Corp Image processing apparatus, imaging apparatus, solid state imaging element, image processing method, and program
JP2010521102A (en) * 2007-03-09 2010-06-17 イーストマン コダック カンパニー Operation of double lens camera to expand image
US20150348242A1 (en) * 2014-05-30 2015-12-03 Apple Inc. Scene Motion Correction In Fused Image Systems

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004001667A2 (en) 2002-06-21 2003-12-31 The Trustees Of Columbia University In The City Of New York Systems and methods for de-blurring motion blurred images
JP2009164859A (en) * 2008-01-04 2009-07-23 Fujifilm Corp Imaging apparatus and imaging control method
CN102104737A (en) * 2009-12-21 2011-06-22 展讯通信(上海)有限公司 Method and system for imaging high dynamic range image
CN101997981B (en) 2010-11-01 2013-08-14 惠州Tcl移动通信有限公司 Mobile phone camera-based latitude realization method and mobile phone
CN102883099B (en) * 2011-07-14 2015-03-11 中国移动通信有限公司 Anti-shake method and device for shooting
JP5412692B2 (en) 2011-10-04 2014-02-12 株式会社モルフォ Image processing apparatus, image processing method, image processing program, and recording medium
JP6172967B2 (en) 2013-02-20 2017-08-02 キヤノン株式会社 Imaging apparatus and control method thereof
CN104349066B (en) * 2013-07-31 2018-03-06 华为终端(东莞)有限公司 A kind of method, apparatus for generating high dynamic range images
US9516263B2 (en) * 2013-08-02 2016-12-06 Apple Inc. Automatic configuration of the logical orientation of multiple monitors based on captured images
US9615012B2 (en) * 2013-09-30 2017-04-04 Google Inc. Using a second camera to adjust settings of first camera
KR20150042574A (en) * 2013-10-11 2015-04-21 엘지전자 주식회사 Mobile terminal and method for controlling thereof
US20150103200A1 (en) * 2013-10-16 2015-04-16 Broadcom Corporation Heterogeneous mix of sensors and calibration thereof
KR102397034B1 (en) * 2015-11-02 2022-05-16 삼성전자주식회사 Electronic device and image stabilization method thereof
US10165194B1 (en) * 2016-12-16 2018-12-25 Amazon Technologies, Inc. Multi-sensor camera system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050047672A1 (en) * 2003-06-17 2005-03-03 Moshe Ben-Ezra Method for de-blurring images of moving objects
JP2010521102A (en) * 2007-03-09 2010-06-17 イーストマン コダック カンパニー Operation of double lens camera to expand image
JP2010062785A (en) * 2008-09-03 2010-03-18 Sony Corp Image processing apparatus, imaging apparatus, solid state imaging element, image processing method, and program
US20150348242A1 (en) * 2014-05-30 2015-12-03 Apple Inc. Scene Motion Correction In Fused Image Systems

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210139450A (en) * 2019-03-25 2021-11-22 후아웨이 테크놀러지 컴퍼니 리미티드 Image display method and device
US11882357B2 (en) 2019-03-25 2024-01-23 Huawei Technologies Co., Ltd. Image display method and device
KR20220031767A (en) * 2019-09-09 2022-03-11 퀄컴 인코포레이티드 Zoom Control in Image Capture
KR20240018506A (en) * 2021-07-08 2024-02-13 라모트 앳 텔-아비브 유니버시티 리미티드 Temporal super-resolution

Also Published As

Publication number Publication date
EP3399741A4 (en) 2018-11-07
KR102103252B1 (en) 2020-04-22
CN108541374B (en) 2020-12-15
US20190014249A1 (en) 2019-01-10
EP3399741B1 (en) 2020-11-18
EP3399741A1 (en) 2018-11-07
JP6629454B2 (en) 2020-01-15
WO2017113048A1 (en) 2017-07-06
CN108541374A (en) 2018-09-14
US10511776B2 (en) 2019-12-17
JP2019503614A (en) 2019-02-07

Similar Documents

Publication Publication Date Title
KR102103252B1 (en) Image fusion method and apparatus, and terminal device
US10997696B2 (en) Image processing method, apparatus and device
US8508605B2 (en) Method and apparatus for image stabilization
CN108833785B (en) Fusion method and device of multi-view images, computer equipment and storage medium
US9092875B2 (en) Motion estimation apparatus, depth estimation apparatus, and motion estimation method
WO2019233264A1 (en) Image processing method, computer readable storage medium, and electronic device
CN109712192B (en) Camera module calibration method and device, electronic equipment and computer readable storage medium
KR101364421B1 (en) System and method for generating robust depth maps utilizing a multi-resolution procedure
WO2019221013A2 (en) Video stabilization method and apparatus and non-transitory computer-readable medium
KR101664123B1 (en) Apparatus and method of creating high dynamic range image empty ghost image by using filtering
JP2013508811A5 (en)
KR101524548B1 (en) Apparatus and method for alignment of images
JP6577703B2 (en) Image processing apparatus, image processing method, program, and storage medium
CN109559353B (en) Camera module calibration method and device, electronic equipment and computer readable storage medium
US9172890B2 (en) Method, apparatus, and manufacture for enhanced resolution for images from high dynamic range (HDR) interlaced sensors
JP6544978B2 (en) Image output apparatus, control method therefor, imaging apparatus, program
KR20140008623A (en) Method and apparatus for processing the image
US20130265412A1 (en) Image processing apparatus and control method therefor
US20110069204A1 (en) Method and apparatus for image correction
JP6617150B2 (en) Object detection method and object detection apparatus
KR20150146424A (en) Method for determining estimated depth in an image and system thereof
KR20100046544A (en) Image distortion compensation method and apparatus
KR20210155284A (en) Image process device
Lasang et al. CFA-based motion blur removal using long/short exposure pairs
JP2016072924A (en) Image processing system and image processing method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant