KR102278474B1 - Multi-camera module-based image processing method, device, device and medium - Google Patents

Multi-camera module-based image processing method, device, device and medium Download PDF

Info

Publication number
KR102278474B1
KR102278474B1 KR1020207007604A KR20207007604A KR102278474B1 KR 102278474 B1 KR102278474 B1 KR 102278474B1 KR 1020207007604 A KR1020207007604 A KR 1020207007604A KR 20207007604 A KR20207007604 A KR 20207007604A KR 102278474 B1 KR102278474 B1 KR 102278474B1
Authority
KR
South Korea
Prior art keywords
camera module
target
framing
image
framing area
Prior art date
Application number
KR1020207007604A
Other languages
Korean (ko)
Other versions
KR20210032922A (en
Inventor
후이 두
Original Assignee
베이징 시아오미 모바일 소프트웨어 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 베이징 시아오미 모바일 소프트웨어 컴퍼니 리미티드 filed Critical 베이징 시아오미 모바일 소프트웨어 컴퍼니 리미티드
Publication of KR20210032922A publication Critical patent/KR20210032922A/en
Application granted granted Critical
Publication of KR102278474B1 publication Critical patent/KR102278474B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/685Vibration or motion blur correction performed by mechanical compensation
    • H04N23/687Vibration or motion blur correction performed by mechanical compensation by shifting the lens or sensor position
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • H04N5/23212
    • H04N5/23287
    • H04N5/247
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computing Systems (AREA)
  • Studio Devices (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Image Processing (AREA)

Abstract

본 발명의 실시예는 다중 카메라 모듈 기반의 이미지 처리 방법, 장치, 기기 및 매체를 제공하고, 본 실시예는, 제1 카메라 모듈이 현재 메인 촬영 상태이고, 제1 카메라 모듈의 프레이밍 영역에서의 타겟 촬영 대상이 제2 카메라 모듈의 초기 프레이밍 영역에 존재하지 않을 경우, 제2 카메라 모듈의 프레이밍 시야를 조정하여, 제2 카메라 모듈의 조정된 프레이밍 영역이 타겟 촬영 대상을 커버하도록 하며, 제2 카메라 모듈에 의해 수집된 서브 이미지와 제1 카메라 모듈에 의해 수집된 메인 이미지를 융합 처리한다.An embodiment of the present invention provides a multi-camera module-based image processing method, apparatus, device, and medium, and in this embodiment, the first camera module is in the current main shooting state, and the target in the framing area of the first camera module is When the subject to be photographed does not exist in the initial framing area of the second camera module, the framing field of view of the second camera module is adjusted so that the adjusted framing area of the second camera module covers the target photographing object, and the second camera module The sub-image collected by , and the main image collected by the first camera module are fused.

Description

다중 카메라 모듈 기반의 이미지 처리 방법, 장치, 기기 및 매체Multi-camera module-based image processing method, device, device and medium

관련 출원의 상호 참조Cross-referencing of related applications

본 출원은 출원 번호가 201910855143.3이고, 출원일이 2019년 9월 10일인 중국 특허 출원에 기반하여 제출된 것이며, 상기 중국 특허 출원의 우선권을 주장하고, 상기 중국 특허 출원의 전부 내용을 본 출원에 인용하여 참조로 한다. This application is filed based on a Chinese patent application with an application number of 201910855143.3 and an filing date of September 10, 2019, claiming priority to the Chinese patent application, and citing the entire contents of the Chinese patent application in this application. Reference.

본 출원은 단말 기술분야에 관한 것으로, 특히 다중 카메라 모듈 기반의 이미지 처리 방법, 장치, 기기 및 매체에 관한 것이다.The present application relates to the field of terminal technology, and more particularly, to a multi-camera module-based image processing method, apparatus, device, and medium.

단말 기술의 신속한 발전에 따라, 스마트폰, 태블릿 컴퓨터 등과 같은 스마트 단말에는 모두 카메라가 구성되어 있고, 이동 단말에 구성된 카메라를 통해, 스마트 단말은 이미지 촬영을 진행할 수 있다. 촬영된 이미지의 품질을 향상시키기 위해, 일부 스마트 단말에 다중 카메라가 구성되어 있고, 가장 흔히 볼 수 있는 것은 스마트 단말에 이중 카메라가 구성되어 있는 것이다. 스마트 단말은 촬영 시나리오에 따라 이중 카메라에서 하나의 카메라를 선택하여 이미지 촬영을 진행할 수 있다. 예컨대, 스마트 단말에 구성된 이중 카메라는 각각 광각 카메라 및 장초점 카메라이다. 하지만 상이한 촬영 시나리오에 상이한 카메라가 사용되므로, 광범위한 촬영 범위를 갖는 카메라에 의해 촬영된 이미지는 화질이 비 이상적일 수 있다.With the rapid development of terminal technology, all smart terminals such as smart phones and tablet computers are configured with cameras, and through the cameras configured in mobile terminals, the smart terminals can take images. In order to improve the quality of the captured image, some smart terminals are configured with multiple cameras, and the most common one is that the smart terminals have dual cameras. The smart terminal may select one camera from the dual cameras according to a shooting scenario to take an image. For example, the dual cameras configured in the smart terminal are a wide-angle camera and a long-focus camera, respectively. However, since different cameras are used for different shooting scenarios, images captured by a camera having a wide shooting range may have non-ideal image quality.

관련 기술에서 존재하는 문제를 해결하기 위해, 본 발명 실시예는 다중 카메라 모듈 기반의 이미지 처리 방법, 장치, 기기 및 매체를 제공한다.In order to solve the problems existing in the related art, an embodiment of the present invention provides an image processing method, apparatus, apparatus and medium based on a multi-camera module.

본 발명 실시예의 제1 측면에 따르면, 다중 카메라 모듈 기반의 이미지 처리 방법을 제공하고, 상기 방법은,According to a first aspect of an embodiment of the present invention, there is provided an image processing method based on a multi-camera module, the method comprising:

제1 카메라 모듈이 현재 메인 촬영 상태이고, 상기 제1 카메라 모듈의 프레이밍 영역에서의 타겟 촬영 대상이 제2 카메라 모듈의 초기 프레이밍 영역에 존재하지 않을 경우, 상기 제2 카메라 모듈의 프레이밍 시야를 조정하여, 상기 제2 카메라 모듈의 조정된 프레이밍 영역이 상기 타겟 촬영 대상을 커버하도록 하는 단계 - 상기 제2 카메라 모듈의 시야각은 상기 제1 카메라 모듈의 시야각보다 작음 - ; 및When the first camera module is in the current main shooting state, and the target shooting target in the framing area of the first camera module does not exist in the initial framing area of the second camera module, by adjusting the framing field of the second camera module , allowing the adjusted framing area of the second camera module to cover the target photographing object, wherein the viewing angle of the second camera module is smaller than the viewing angle of the first camera module; and

서브 이미지와 메인 이미지를 융합 처리 - 상기 서브 이미지는 상기 제2 카메라 모듈에 의해 수집된 이미지이고, 상기 메인 이미지는 상기 제1 카메라 모듈에 의해 수집된 이미지임 - 하는 단계를 포함한다.and fusing the sub-image and the main image, wherein the sub-image is an image collected by the second camera module, and the main image is an image collected by the first camera module.

일 선택적 실시예에 있어서, 상기 제2 카메라 모듈의 프레이밍 시야를 조정하는 단계는,In an optional embodiment, adjusting the framing field of view of the second camera module comprises:

상기 제2 카메라 모듈의 현재 프레이밍 시야를 결정하는 단계; 및determining a current framing field of view of the second camera module; and

손떨림 보정 장치(Optical Image Stabilizer, OIS)를 통해 상기 제2 카메라 모듈의 현재 프레이밍 시야에 대해 최대 범위로의 조정을 진행하는 단계를 포함하고;adjusting the current framing field of view of the second camera module to a maximum range through an Optical Image Stabilizer (OIS);

여기서, 상기 타겟 촬영 대상은 상기 제2 카메라 모듈의 조정 후의 최대 프레이밍 영역과 초기 프레이밍 영역의 비 중첩 부분에서의 임의의 촬영 포인트이다.Here, the target shooting target is an arbitrary shooting point in the non-overlapping part of the maximum framing area and the initial framing area after adjustment of the second camera module.

일 선택적 실시예에 있어서, 상기 타겟 촬영 대상은 프레이밍 영역에서의 관심 대상이고, 상기 제2 카메라 모듈의 프레이밍 시야를 조정하는 단계는,In an optional embodiment, the target photographing object is an object of interest in a framing area, and adjusting the framing field of view of the second camera module comprises:

상기 타겟 촬영 대상과 상기 초기 프레이밍 영역의 위치 관계에 따라, 타겟 방향을 결정하는 단계; 및determining a target direction according to a positional relationship between the target shooting target and the initial framing area; and

OIS를 통해 상기 제2 카메라 모듈이 상기 타겟 방향을 따라 작동되도록 조정하는 단계를 포함한다.and adjusting the second camera module to operate along the target direction through OIS.

일 선택적 실시예에 있어서, 상기 타겟 촬영 대상은 상기 제1 카메라 모듈의 프레이밍 영역에서의 포커스 포인트, 상기 포커스 포인트에 의해 결정된 초점 영역, 상기 제1 카메라 모듈의 프레이밍 영역에서의 지정된 일부 영역, 또는 상기 제1 카메라 모듈의 프레이밍 영역을 포함한다.In an optional embodiment, the target shooting target is a focus point in the framing area of the first camera module, a focus area determined by the focus point, a designated partial area in the framing area of the first camera module, or the and a framing area of the first camera module.

일 선택적 실시예에 있어서, 상기 제2 카메라 모듈은 하나의 카메라를 포함하고; 상기 제2 카메라 모듈의 프레이밍 영역이 상기 타겟 촬영 대상을 커버하도록 하는 단계는, 상기 타겟 촬영 대상이 제2 카메라 모듈의 동일한 프레이밍 영역 또는 동일한 프레이밍 영역에서의 특정 위치에 존재하도록 하는 단계를 포함하며; 상기 특정 위치는 기설정된 위치이거나, 검출된 조작 신호에 의해 결정된 위치이다.In an optional embodiment, the second camera module comprises one camera; the step of allowing the framing area of the second camera module to cover the target photographing object includes the step of allowing the target photographing object to exist in the same framing area or a specific position in the same framing area of the second camera module; The specific position is a preset position or a position determined by a detected manipulation signal.

일 선택적 실시예에 있어서, 상기 제2 카메라 모듈은 하나의 카메라를 포함하고, 상기 타겟 촬영 대상의 크기는 제2 카메라 모듈의 프레이밍 영역의 크기보다 크며; 상기 타겟 방향은 적어도 두 개의 서브 타겟 방향을 포함하고;In an optional embodiment, the second camera module includes one camera, and the size of the target shooting target is larger than the size of the framing area of the second camera module; the target direction includes at least two sub-target directions;

상기 OIS를 통해 상기 제2 카메라 모듈이 상기 타겟 방향을 따라 작동되도록 조정하는 단계는, 각 서브 타겟 방향의 경우, OIS를 통해 제2 카메라 모듈이 상기 서브 타겟 방향을 따라 작동되도록 조정하는 단계를 포함하며;The step of adjusting the second camera module to operate along the target direction through the OIS includes, in each sub-target direction, adjusting the second camera module to operate along the sub-target direction through the OIS and;

상기 타겟 촬영 대상은 제1 스티칭 프레이밍 영역에 있고, 상기 제1 스티칭 프레이밍 영역은 모든 2차 조정에 의해 획득된 조정된 프레이밍 영역이 스티칭되어 얻은 것이며;the target shooting object is in a first stitching framing area, the first stitching framing area is obtained by stitching the adjusted framing areas obtained by all secondary adjustments;

상기 제2 카메라 모듈에 의해 수집된 서브 이미지는, 매 번 서브 타겟 방향에 따라 제2 카메라 모듈이 조정된 후 수집된 서브 이미지를 포함한다.The sub-images collected by the second camera module include sub-images collected after the second camera module is adjusted according to the sub-target direction each time.

일 선택적 실시예에 있어서, 상기 제2 카메라 모듈은 적어도 두 개의 카메라를 포함하고, 상기 타겟 촬영 대상의 크기는 제2 카메라 모듈의 프레이밍 영역의 크기보다 크며; 상기 타겟 방향은 적어도 두 개의 서브 타겟 방향을 포함하고;In one optional embodiment, the second camera module includes at least two cameras, the size of the target shooting target is larger than the size of the framing area of the second camera module; the target direction includes at least two sub-target directions;

상기 OIS를 통해 상기 제2 카메라 모듈이 상기 타겟 방향을 따라 작동되도록 조정하는 단계는, OIS를 통해 상기 제2 카메라 모듈에서의 카메라가 대응되는 상기 서브 타겟 방향을 따라 작동되도록 각각 조정하는 단계를 포함하며;The step of adjusting the second camera module to operate along the target direction through the OIS includes adjusting each of the cameras in the second camera module to operate along the corresponding sub-target direction through the OIS and;

상기 타겟 촬영 대상은 제2 스티칭 프레이밍 영역에 존재하고, 상기 제2 스티칭 프레이밍 영역은 각 카메라의 조정된 프레이밍 영역이 스티칭되어 얻은 것이며;the target shooting object exists in a second stitching framing area, and the second stitching framing area is obtained by stitching the adjusted framing area of each camera;

상기 제2 카메라 모듈에 의해 수집된 서브 이미지는 모든 조정 후의 카메라에 의해 수집된 이미지를 포함한다.The sub-images collected by the second camera module include images collected by the camera after all adjustments.

일 선택적 실시예에 있어서, 상기 방법은,In an optional embodiment, the method comprises:

제1 카메라 모듈이 현재 메인 촬영 상태이고, 상기 제1 카메라 모듈의 프레이밍 영역에서의 타겟 촬영 대상이 제2 카메라 모듈의 초기 프레이밍 영역에 존재하지 않을 경우, 제2 카메라 모듈에 의해 수집된 서브 이미지와 제1 카메라 모듈에 의해 메인 이미지를 융합 처리하는 단계를 더 포함한다.When the first camera module is in the current main shooting state and the target shooting target in the framing area of the first camera module does not exist in the initial framing area of the second camera module, the sub-image collected by the second camera module and It further includes the step of fusion processing the main image by the first camera module.

일 선택적 실시예에 있어서, 상기 융합 처리 단계는 프레이밍 과정에서 실행되거나, 촬영 조작 명령어가 수신된 후 실행된다.In an optional embodiment, the fusion processing step is executed during a framing process or after a shooting operation command is received.

일 선택적 실시예에 있어서, 상기 다중 카메라 모듈은 시야각이 점차적으로 감소되는 광각 카메라 모듈, 범용 카메라 모듈, 장초점 카메라 모듈을 포함한다.In an optional embodiment, the multi-camera module includes a wide-angle camera module, a general-purpose camera module, and a long-focus camera module whose viewing angle is gradually reduced.

본 발명 실시예의 제2 측면에 따르면, 다중 카메라 모듈 기반의 이미지 처리 장치를 제공하고, 상기 장치는,According to a second aspect of an embodiment of the present invention, there is provided an image processing apparatus based on a multi-camera module, the apparatus comprising:

제1 카메라 모듈이 현재 메인 촬영 상태이고, 상기 제1 카메라 모듈의 프레이밍 영역에서의 타겟 촬영 대상이 제2 카메라 모듈의 초기 프레이밍 영역에 존재하지 않을 경우, 상기 제2 카메라 모듈의 프레이밍 시야를 조정하여, 상기 제2 카메라 모듈의 조정된 프레이밍 영역이 상기 타겟 촬영 대상을 커버하도록 구성된 시야 조정 모듈 - 상기 제2 카메라 모듈의 시야각은 상기 제1 카메라 모듈의 시야각보다 작음 - ; 및When the first camera module is in the current main shooting state, and the target shooting target in the framing area of the first camera module does not exist in the initial framing area of the second camera module, by adjusting the framing field of the second camera module , a field of view adjustment module configured such that the adjusted framing area of the second camera module covers the target photographing object, wherein the viewing angle of the second camera module is smaller than the viewing angle of the first camera module; and

서브 이미지와 메인 이미지를 융합 처리하도록 구성된 융합 처리 모듈 - 상기 서브 이미지는 상기 제2 카메라 모듈에 의해 수집된 이미지이고, 상기 메인 이미지는 상기 제1 카메라 모듈에 의해 수집된 이미지임 - 을 포함한다.and a fusion processing module configured to fuse the sub-image and the main image, wherein the sub-image is the image collected by the second camera module, and the main image is the image collected by the first camera module.

본 발명 실시예의 제3 측면에 따라, 다중 카메라 모듈 기반의 전자 기기를 제공하고, 상기 전자 기기는,According to a third aspect of an embodiment of the present invention, there is provided an electronic device based on a multi-camera module, the electronic device comprising:

상이한 시야각을 갖는 적어도 두 개의 카메라 모듈;at least two camera modules having different viewing angles;

프로세서; 및processor; and

프로세서가 실행 가능한 명령어를 저장하도록 구성된 메모리를 포함하며;the processor includes a memory configured to store executable instructions;

여기서, 상기 프로세서는,Here, the processor,

제1 카메라 모듈이 현재 메인 촬영 상태이고, 상기 제1 카메라 모듈의 프레이밍 영역에서의 타겟 촬영 대상이 제2 카메라 모듈의 초기 프레이밍 영역에 존재하지 않을 경우, 상기 제2 카메라 모듈의 프레이밍 시야를 조정하여, 상기 제2 카메라 모듈의 조정된 프레이밍 영역이 상기 타겟 촬영 대상을 커버하도록 하고 - 상기 제2 카메라 모듈의 시야각은 상기 제1 카메라 모듈의 시야각보다 작음 - ;When the first camera module is in the current main shooting state, and the target shooting target in the framing area of the first camera module does not exist in the initial framing area of the second camera module, by adjusting the framing field of the second camera module , such that the adjusted framing area of the second camera module covers the target shooting object, wherein the viewing angle of the second camera module is smaller than the viewing angle of the first camera module;

서브 이미지와 메인 이미지를 융합 처리 - 상기 서브 이미지는 상기 제2 카메라 모듈에 의해 수집된 이미지이고, 상기 메인 이미지는 상기 제1 카메라 모듈에 의해 수집된 이미지임 - 하도록 구성된다.and fusing the sub-image and the main image, wherein the sub-image is an image collected by the second camera module, and the main image is an image collected by the first camera module.

본 발명 실시예의 제4 측면에 따르면, 컴퓨터 프로그램이 저장되어 있는 컴퓨터 판독 가능 저장 매체를 제공하고, 상기 프로그램이 프로세서에 의해 실행될 경우 상기 임의의 한 항의 방법의 단계를 구현한다.According to a fourth aspect of an embodiment of the present invention, there is provided a computer readable storage medium having a computer program stored thereon, and when the program is executed by a processor, the steps of the method of any one of the above are implemented.

본 발명 실시예에서 제공한 기술방안은 아래의 유리한 효과를 포함할 수 있다.The technical solution provided in the embodiment of the present invention may include the following advantageous effects.

본 발명 실시예는, 제1 카메라 모듈이 현재 메인 촬영 상태이고, 제1 카메라 모듈의 프레이밍 영역에서의 타겟 촬영 대상이 제2 카메라 모듈의 초기 프레이밍 영역에 존재하지 않을 경우에, 제2 카메라 모듈의 프레이밍 시야를 조정하여, 제2 카메라 모듈의 조정된 프레이밍 영역이 타겟 촬영 대상을 커버하도록 하며, 제2 카메라 모듈에 의해 수집된 서브 이미지와 제1 카메라 모듈에 의해 수집된 메인 이미지를 융합 처리하여, 이미지 화질 향상 효과를 달성할 수 있으며, 더 나아가, 제2 카메라 모듈을 조정하여, 제2 카메라 모듈의 촬영 범위가 확장되었기 때문에, 조정 후 얻은 프레이밍 영역이 초기 프레이밍 영역에 포함되지 않은 영역을 커버할 수 있도록 함으로써, 화질 향상을 진행할 수 없는 이미지 영역의 적어도 일부에 대한 화질 향상을 구현할 수 있도록 한다.In an embodiment of the present invention, when the first camera module is in the current main shooting state and the target shooting target in the framing area of the first camera module does not exist in the initial framing area of the second camera module, the second camera module By adjusting the framing field of view, so that the adjusted framing area of the second camera module covers the target shooting target, the sub-image collected by the second camera module and the main image collected by the first camera module are fused, Image quality improvement effect can be achieved, and furthermore, by adjusting the second camera module, because the shooting range of the second camera module is expanded, the framing area obtained after adjustment can cover an area not included in the initial framing area. By doing so, it is possible to implement image quality improvement for at least a part of an image area in which image quality cannot be improved.

이해해야 할 것은, 이상의 일반적인 설명 및 하기의 상세한 설명은 다만 예시적이고 해석적인 것뿐이고, 본 발명 실시예를 한정하지 않는다.It should be understood that the above general description and the following detailed description are merely illustrative and interpretative, and do not limit the embodiments of the present invention.

본문의 도면은 본 명세서에 포함되어 본 명세서의 일부를 구성하며, 본 발명에 부합되는 실시예를 도시하고, 명세서와 함께 본 발명 실시예의 원리의 해석에 사용된다.
도 1은 각 카메라 프레이밍 영역이 스크린에서의 표현이다.
도 2는 본 발명의 일 예시적 실시예에 따라 도시된 다중 카메라 모듈 기반의 이미지 처리 방법의 흐름도이다.
도 3은 본 발명의 일 예시적 실시예에 따라 도시된 최대 프레이밍 영역 예시도이다.
도 4는 본 발명의 일 예시적 실시예에 따라 도시된 포커스 포인트의 예시도이다.
도 5는 본 발명의 일 예시적 실시예에 따라 도시된 프레이밍 영역의 조정 전후 대비 예시도이다.
도 6a는 본 발명의 일 예시적 실시예에 따라 도시된 제1 스티칭 프레이밍 영역의 예시도이다.
도 6b는 본 발명의 일 예시적 실시예에 따라 도시된 제2 스티칭 프레이밍 영역의 예시도이다.
도 7은 본 발명의 일 예시적 실시예에 따라 도시된 다른 하나의 다중 카메라 모듈 기반의 이미지 처리 방법의 흐름도이다.
도 8은 본 발명의 일 예시적 실시예에 따라 도시된 다중 카메라 모듈 기반의 이미지 처리 장치의 블록도이다.
도 9는 본 발명의 일 예시적 실시예에 따라 도시된 다중 카메라 모듈 기반의 이미지 처리 장치의 구조 예시도이다.
BRIEF DESCRIPTION OF THE DRAWINGS The accompanying drawings are incorporated in and constitute a part of this specification, and illustrate embodiments consistent with the present invention, and together with the specification serve to interpret the principles of the embodiments of the present invention.
1 is a representation of each camera framing area on the screen.
Fig. 2 is a flowchart of an image processing method based on a multi-camera module shown according to an exemplary embodiment of the present invention.
Fig. 3 is an exemplary diagram of the largest framing area shown according to an exemplary embodiment of the present invention.
4 is an exemplary diagram of a focus point shown according to an exemplary embodiment of the present invention.
Fig. 5 is a diagram illustrating a comparison before and after adjustment of a framing area shown according to an exemplary embodiment of the present invention.
Fig. 6A is an exemplary diagram of a first stitched framing area shown according to an exemplary embodiment of the present invention.
6B is an exemplary diagram of a second stitching framing area shown according to an exemplary embodiment of the present invention.
7 is a flowchart of another multi-camera module-based image processing method according to an exemplary embodiment of the present invention.
8 is a block diagram of a multi-camera module-based image processing apparatus according to an exemplary embodiment of the present invention.
9 is a structural diagram of an image processing apparatus based on a multi-camera module shown according to an exemplary embodiment of the present invention.

아래에 예시적 실시예에 대해 상세히 설명하며, 그 예는 도면에 도시된다. 아래의 설명에서 도면을 언급할 때, 다른 표시가 없는 한, 상이한 도면에서의 동일한 숫자는 동일하거나 유사한 요소를 표시한다. 아래의 예시적 실시예에서 설명된 실시형태는 본 발명 실시예와 일치하는 모든 실시형태를 나타내는 것은 아니다. 이와 반대로, 이들은 다만 청구 범위에 상세히 서술된 바와 같이, 본 발명 실시예의 일부 측면과 일치하는 장치 및 방법의 예일 뿐이다.Exemplary embodiments are described in detail below, examples of which are shown in the drawings. When referring to drawings in the description below, the same numbers in different drawings indicate the same or similar elements, unless otherwise indicated. The embodiments described in the exemplary embodiments below do not represent all embodiments consistent with the embodiments of the present invention. To the contrary, these are merely examples of apparatus and methods consistent with some aspects of embodiments of the invention, as detailed in the claims.

본 발명의 실시예에서 사용된 용어는 다만 특정된 실시예를 설명하기 위한 것일 뿐, 본 발명의 실시예를 한정하려는 것은 아니다. 본 발명 실시예 및 청구 범위에 사용된 단수 형태인 “한”, "상기” 및 "당해"는 본문이 다른 의미를 명확하게 나타내지 않는 한, 복수 형태도 포함한다. 또한 이해해야 할 것은, 본문에 사용된 용어 “및/또는”은 하나 또는 복수 개의 관련되어 열거된 항목의 임의의 조합 또는 모든 가능한 조합을 의미하고 포함한다.The terms used in the embodiments of the present invention are only for describing specific embodiments, and are not intended to limit the embodiments of the present invention. As used in the examples and claims of the present invention, the singular forms “a”, “the” and “therefore” also include the plural forms, unless the text clearly indicates otherwise. The term “and/or” as used herein means and includes any or all possible combinations of one or more related listed items.

이해해야 할 것은, 본 발명 실시예에서“제1”, “제2”, “제3”등과 같은 용어를 사용하여 다양한 정보를 설명하더라도, 이러한 정보들은 이러한 용어에 제한되어서는 안된다. 이러한 용어는 다만 동일 타입의 정보를 사용하여 서로를 구별하는데에만 사용된다. 예컨대, 본 발명 실시예의 범위를 벗어나지 않는 한, 제1 정보는 제2 정보로 지칭될 수 있고, 마찬가지로 제2 정보도 제1 정보로 지칭될 수 있다. 이는 단어 사용 상황에 따라 결정되고, 예컨대 여기서 사용된 단어 "만약"은 "??때" 또는 "??경우" 또는 "결정에 응답하여"의 뜻으로 해석될 수 있다.It should be understood that although various information is described using terms such as “first”, “second”, “third” and the like in the embodiments of the present invention, such information should not be limited to these terms. These terms are only used to distinguish each other using the same type of information. For example, without departing from the scope of the embodiments of the present invention, first information may be referred to as second information, and likewise, second information may also be referred to as first information. This is determined according to the word usage context, for example, the word "if" used herein may be interpreted as meaning "when" or "when" or "in response to a decision".

현재, 일상 생활에서, 점점 더 많은 사용자가 스마트폰, 태블릿 컴퓨터 등과 같은 단말을 사용하여 이미지 촬영을 하는 것에 익숙해지는 동시에, 단말에 의해 촬영된 이미지의 품질에 대한 요구도 점점 높아지고 있다. 카메라 하드웨어 기술 및 이미지 처리 기술의 발전에 따라, 사용자의 수요를 추가로 더 만족시키기 위해, 일부 단말에 다중 카메라를 구성하기 시작하였다. 여기서, 다중 카메라 각각은 고유의 장점을 가질 수 있다. 예컨대, 한 카메라는 한 시나리오를 촬영하는데 더욱 적합하고, 다른 한 카메라는 다른 한 시나리오를 촬영하는데 더욱 적합하다. 이로써, 이미지 촬영을 진행할 경우, 단말은 상이한 촬영 시나리오에 따라 다중 카메라로부터 상이한 카메라를 선택하여 촬영할 수 있음으로써, 동일한 단말로 상이한 시나리오의 이미지를 촬영할 수 있도록 한다. 상이한 촬영 시나리오에 대처하기 위해, 카메라의 시야각은 종종 상이하고, 즉 시야 범위가 상이하며, 이에 따라, 프레이밍 시야도 상이하다. 상이한 시야각을 갖는 카메라에 의해 촬영된 이미지의 화질은 상이할 수 있다.Currently, in everyday life, more and more users are accustomed to taking images using terminals such as smart phones, tablet computers, and the like, and at the same time, demands for the quality of images taken by terminals are also increasing. With the development of camera hardware technology and image processing technology, in order to further satisfy the needs of users, multiple cameras have been configured in some terminals. Here, each of the multiple cameras may have its own advantages. For example, one camera is more suitable for shooting one scenario, and the other camera is more suitable for shooting another scenario. Accordingly, in the case of image capturing, the terminal can select different cameras from multiple cameras according to different shooting scenarios to take pictures, so that images of different scenarios can be captured with the same terminal. In order to cope with different shooting scenarios, the viewing angle of the camera is often different, that is, the viewing range is different, and accordingly, the framing field of view is also different. The image quality of images taken by cameras having different viewing angles may be different.

이에 기반하여, 본 발명 실시예는 다중 카메라 모듈 기반의 이미지 처리 방안을 제안한다. 일반적인 상황에 있어서, 카메라 모듈의 프레이밍 범위(촬영 범위)는 고정적이지만, 본 발명 실시예에서는 카메라 모듈의 프레이밍 영역을 조정하는 것을 통해 카메라 모듈의 프레이밍 범위를 확장할 수 있다. 제1 카메라 모듈이 현재 메인 촬영 상태이고, 제1 카메라 모듈의 프레이밍 영역에서의 타겟 촬영 대상이 제2 카메라 모듈의 초기 프레이밍 영역에 존재하지 않을 경우에, 제2 카메라 모듈의 프레이밍 시야를 조정하여, 제2 카메라 모듈의 조정된 프레이밍 영역이 타겟 촬영 대상을 커버하도록 하며, 또한 제2 카메라 모듈에 의해 수집된 서브 이미지와 제1 카메라 모듈에 의해 수집된 메인 이미지를 융합 처리하여, 이미지 화질 향상 효과를 달성할 수 있으며, 더 나아가, 제2 카메라 모듈을 조정하여, 제2 카메라 모듈의 촬영 범위가 확장되었기 때문에, 조정 후 얻은 프레이밍 영역이 초기 프레이밍 영역에 포함되지 않은 영역을 커버할 수 있도록 함으로써, 화질 향상을 진행할 수 없는 이미지 영역의 적어도 일부에 대한 화질 향상을 구현할 수 있도록 한다.Based on this, an embodiment of the present invention proposes an image processing method based on a multi-camera module. In a general situation, the framing range (photographing range) of the camera module is fixed, but in the embodiment of the present invention, the framing range of the camera module can be extended by adjusting the framing area of the camera module. When the first camera module is in the current main shooting state and the target shooting target in the framing area of the first camera module does not exist in the initial framing area of the second camera module, by adjusting the framing field of view of the second camera module, The adjusted framing area of the second camera module covers the target shooting target, and the sub-image collected by the second camera module and the main image collected by the first camera module are fused to improve image quality. Further, by adjusting the second camera module, since the shooting range of the second camera module is expanded, the framing area obtained after adjustment can cover an area not included in the initial framing area, so that the image quality It is possible to implement image quality enhancement for at least a part of an image area that cannot be enhanced.

본 실시예에서 제공하는 다중 카메라 모듈 기반의 이미지 처리 방법은 소프트웨어를 통해 실행될 수 있고, 소프트웨어 및 하드웨어 결합 또는 하드웨어에 의해 실행되는 형태로 구현될 수 있으며, 언급된 하드웨어는 두 개 또는 복수 개의 물리적 엔티티에 의해 형성될 수 있고, 하나의 물리적 엔티티에 의해 형성될 수도 있다. 예시적으로, 본 실시예의 방법은 전자 기기에서의 촬영 소프트웨어에 의해 실행될 수 있다. 여기서, 전자 기기는 스마트폰, 태블릿 컴퓨터, 랩탑 컴퓨터, 데스크탑 컴퓨터, 개인 휴대 정보 단말(Personal Digital Assistant, PDA), 웨어러블 기기 등일 수 있다.The multi-camera module-based image processing method provided in this embodiment may be implemented through software, may be implemented in a form executed by a combination of software and hardware or hardware, and the mentioned hardware may be two or a plurality of physical entities. may be formed by, or may be formed by one physical entity. Illustratively, the method of this embodiment may be executed by photographing software in an electronic device. Here, the electronic device may be a smart phone, a tablet computer, a laptop computer, a desktop computer, a personal digital assistant (PDA), a wearable device, or the like.

카메라 모듈은 전자 기기에 구성되어, 전자 기기와 일체 기기를 형성할 수 있고; 카메라 모듈은 또한 독립적인 기기로서, 전자 기기에 장착될 수 있다. 다중 카메라 모듈은 적어도 두 개의 카메라 모듈일 수 있다. 카메라 모듈은 이미지를 수집하도록 구성되고, 각 카메라 모듈은 하나의 카메라를 포함할 수 있고, 복수 개의 카메라도 포함할 수 있다. 예컨대, 상기 다중 카메라 모듈은 광각 카메라 모듈, 장초점 카메라 모듈, 범용 카메라 모듈, 컬러 카메라, 흑백 카메라 등 중 한 가지 또는 다양한 모듈을 포함한다. 여기서, 범용 카메라 모듈은 또한 전자 기기에서 촬영하도록 구성된 메인 카메라 모듈로 지칭될 수 있고, 범용 카메라 모듈은 메인 카메라를 포함한다. 본 발명 실시예에 있어서, 시야각이 작은 카메라 모듈에 의해 수집된 이미지를 이용하여 시야각이 큰 카메라 모듈에 의해 수집된 이미지를 향상시키기 위해, 다중 카메라 모듈은 상이한 시야각을 갖는 카메라 모듈일 수 있으므로, 이미지 화질 향상 효과를 달성한다. 일예로, 다중 카메라 모듈은 시야각이 점차적으로 감소되는 광각 촬영(DW) 모듈, 범용 카메라(W) 모듈, 장초점 카메라(Tele) 모듈을 포함하는 세 개의 카메라 모듈일 수 있다. 예컨대, 광각 카메라 모듈에서의 광각 카메라의 시야각(Field Of View, FOV)은 120°일 수 있고, 화소는 13M-48M일 수 있으며; 범용 카메라 모듈의 범용 카메라의 시야각은 80°일 수 있고, 화소는 48M-64M일 수 있으며; 장초점 카메라 모듈의 시야각은 30°~20°일 수 있고, 화소는 13M-8M일 수 있다. 각 카메라의 프레이밍 영역이 스크린에서의 표현은 도 1에 도시된 바와 같고, 광각 카메라의 시야각이 가장 크며, 범용 카메라(메인 카메라)의 시야각이 그 다음이고, 장초점 카메라의 시야각이 가장 작으며, 이에 따라, 프레이밍 영역의 크기도 점차적으로 감소된다. 이해할 수 있는 것은, 도 1은 다만 프레이밍 영역의 차이가 존재하는 상이한 시야각을 갖는 카메라를 설명하기 위한 것이고, 실제로 상이한 프레이밍 영역 사이의 비례 관계는 실제 상황에 따라 결정될 수 있다.The camera module may be configured in an electronic device to form an integrated device with the electronic device; The camera module may also be mounted on an electronic device as an independent device. The multi-camera module may be at least two camera modules. The camera modules are configured to collect images, and each camera module may include one camera, and may also include a plurality of cameras. For example, the multi-camera module includes one or various modules of a wide-angle camera module, a long-focus camera module, a general-purpose camera module, a color camera, a black-and-white camera, and the like. Here, the general-purpose camera module may also be referred to as a main camera module configured to photograph in an electronic device, and the general-purpose camera module includes a main camera. In an embodiment of the present invention, in order to improve the image collected by the camera module having a large viewing angle by using the image collected by the camera module having a small viewing angle, multiple camera modules may be camera modules having different viewing angles, so that the image achieve the effect of improving the picture quality. For example, the multi-camera module may be three camera modules including a wide-angle photographing (DW) module, a general-purpose camera (W) module, and a long-focus camera (Tele) module in which the viewing angle is gradually reduced. For example, the field of view (FOV) of the wide-angle camera in the wide-angle camera module may be 120°, and the pixels may be 13M-48M; The viewing angle of the universal camera of the universal camera module may be 80°, and the pixels may be 48M-64M; The viewing angle of the long focus camera module may be 30° to 20°, and the pixels may be 13M-8M. The representation of the framing area of each camera on the screen is as shown in Fig. 1, the wide-angle camera has the largest viewing angle, the general-purpose camera (main camera) has the next, and the long-focus camera has the smallest viewing angle, Accordingly, the size of the framing area is also gradually reduced. It may be understood that FIG. 1 is only for explaining a camera having different viewing angles in which differences in framing areas exist, and in fact, the proportional relationship between the different framing areas may be determined according to an actual situation.

일부 응용 시나리오에 있어서, 상이한 카메라 모듈로 촬영할 경우, 그 중 하나의 카메라 모듈로 촬영할 경우의 관심 대상은, 다른 하나의 카메라 모듈의 시야 범위 내에 존재할 수 있고, 또한 시야 범위 내에 존재하지 않을 수도 있기에, 이를 위해, 본 발명 실시예는 관심 촬영 대상이 다른 하나의 카메라 모듈의 시야 범위 내에 존재하지 않는 것에 의해 발생되는 융합 효과가 비이상적인 상황을 방지하고, 카메라 모듈의 프레이밍 영역을 조정하여, 카메라 모듈의 프레이밍 영역이 원래 커버할 수 없었던 타겟 촬영 대상을 커버하도록 한다.In some application scenarios, when shooting with different camera modules, an object of interest when shooting with one camera module may or may not exist within the viewing range of the other camera module, To this end, the embodiment of the present invention prevents an abnormal situation in which the fusion effect caused by the object of interest does not exist within the viewing range of the other camera module, and adjusts the framing area of the camera module, Make the framing area cover the target image that could not be covered originally.

도 2를 참조하면, 도 2는 본 발명의 일 예시적 실시예에 따라 도시된 다중 카메라 모듈 기반의 이미지 처리 방법의 흐름도이고, 상기 방법은 아래의 단계를 포함한다.Referring to Fig. 2, Fig. 2 is a flowchart of an image processing method based on a multi-camera module shown according to an exemplary embodiment of the present invention, and the method includes the following steps.

단계 202에 있어서, 제1 카메라 모듈이 현재 메인 촬영 상태이고, 상기 제1 카메라 모듈의 프레이밍 영역에서의 타겟 촬영 대상이 제2 카메라 모듈의 초기 프레이밍 영역에 존재하지 않을 경우, 상기 제2 카메라 모듈의 프레이밍 시야를 조정하여, 상기 제2 카메라 모듈의 조정된 프레이밍 영역이 상기 타겟 촬영 대상을 커버하도록 하며, 상기 제2 카메라 모듈의 시야각은 상기 제1 카메라 모듈의 시야각보다 작다.In step 202, when the first camera module is in the current main shooting state and the target shooting target in the framing area of the first camera module does not exist in the initial framing area of the second camera module, the By adjusting the framing field of view, the adjusted framing area of the second camera module covers the target photographing object, and the viewing angle of the second camera module is smaller than the viewing angle of the first camera module.

단계 204에 있어서, 서브 이미지와 메인 이미지를 융합 처리하고, 상기 서브 이미지는 상기 제2 카메라 모듈에 의해 수집된 이미지이며, 상기 메인 이미지는 상기 제1 카메라 모듈에 의해 수집된 이미지이다.In step 204, a sub-image and a main image are fused, wherein the sub-image is an image collected by the second camera module, and the main image is an image collected by the first camera module.

상기 실시예에 있어서, 하나의 카메라 모듈을 촬영하도록 선택할 경우, 시야각이 더욱 작은 다른 하나의 카메라 모듈을 서브 카메라 모듈로 사용하여, 이미지 형성 효과를 향상시킨다. 두 개의 모듈을 구별하기 위해, 촬영하도록 선택된 카메라 모듈은 제1 카메라 모듈로 지칭될 수 있고, 시야각이 더욱 작은 다른 하나의 카메라 모듈은 제2 카메라 모듈로 지칭될 수 있다. 제1 카메라 모듈은 촬영하도록 선택되는 경우, 제1 카메라 모듈이 메인 촬영 상태로 간주될 수 있다. 제2 카메라 모듈이 서브 촬영 모듈로 사용되는 경우, 제2 카메라 모듈이 서브 촬영 상태로 간주될 수 있다. 이에 따라, 제1 카메라 모듈에 의해 수집된 이미지는 메인 이미지로 지칭될 수 있고, 제2 카메라 모듈에 의해 수집된 이미지는 서브 이미지로 지칭될 수 있다.In the above embodiment, when one camera module is selected to be photographed, the other camera module having a smaller viewing angle is used as a sub camera module, thereby improving the image forming effect. In order to distinguish the two modules, the camera module selected to shoot may be referred to as a first camera module, and the other camera module having a smaller viewing angle may be referred to as a second camera module. When the first camera module is selected to shoot, the first camera module may be regarded as the main shooting state. When the second camera module is used as a sub-capturing module, the second camera module may be regarded as a sub-capturing state. Accordingly, the image collected by the first camera module may be referred to as a main image, and the image collected by the second camera module may be referred to as a sub-image.

광각 카메라 모듈, 범용 카메라 모듈, 장초점 카메라 모듈을 예로 들면, 일반적인 상황에 있어서, 시야각이 감소되는 순서로 배열하면, 광각 카메라 모듈, 범용 카메라 모듈, 장초점 카메라 모듈이다. 이에 따라, 광각 카메라 모듈이 제1 카메라 모듈로 사용되는 경우, 제2 카메라 모듈은 범용 카메라 모듈 심지어 장초점 카메라 모듈일 수 있다. 범용 카메라 모듈이 제1 카메라 모듈로 사용되는 경우, 제2 카메라 모듈은 장초점 카메라 모듈일 수 있다.Taking the wide-angle camera module, the general-purpose camera module, and the long-focus camera module as an example, in a general situation, if the viewing angle is arranged in decreasing order, it is a wide-angle camera module, a general-purpose camera module, and a long-focus camera module. Accordingly, when the wide-angle camera module is used as the first camera module, the second camera module may be a general-purpose camera module or even a long-focus camera module. When the general-purpose camera module is used as the first camera module, the second camera module may be a long focus camera module.

제1 카메라 모듈이 현재 메인 촬영 상태일 경우, 제1 카메라 모듈의 프레이밍 영역에서의 타겟 촬영 대상을 결정할 수 있다. 타겟 촬영 대상은 촬영 포인트일 수 있고, 촬영 영역 등일 수도 있다. 예시적으로, 타겟 촬영 대상은 프레이밍 영역에서의 관심 대상이다. 제1 카메라 모듈의 프레이밍 영역에서의 타겟 촬영 대상은 하나일 수 있고, 복수 개일 수도 있다.When the first camera module is currently in the main photographing state, a target photographing target in the framing area of the first camera module may be determined. The target photographing target may be a photographing point, a photographing area, or the like. Exemplarily, the target photographing object is an object of interest in the framing area. The target shooting target in the framing area of the first camera module may be one or a plurality of targets.

제2 카메라 모듈의 프레이밍 시야 조정과 관련하여, 제2 카메라 모듈의 조정된 프레이밍 영역이 타겟 촬영 대상을 커버하도록 하는 조정일 수 있다.Regarding the adjustment of the framing field of view of the second camera module, the adjustment may be such that the adjusted framing area of the second camera module covers the target photographing object.

일부 시나리오에 있어서, 모바일 기기의 이미지 수집 장치에 광학식 손떨림 방지 장치를 설정하여 카메라를 잡고 촬영할 경우 흔들림으로 인해 촬영된 이미지가 흐려지는 문제를 해결한다. 광학식 손떨림 방지 장치는 모바일 기기에서의 손떨림 컨트롤러일 수 있고, OIS 컨트롤러로 지칭될 수도 있으며, 카메라 렌즈 내의 센서를 통해 미세한 이동을 검출한 다음, 신호를 마이크로 프로세서로 전송하면, 마이크로 프로세서는 보정해야 하는 변위량을 계산하고, 보정 렌즈 세트를 통해, 렌즈의 흔들림 방향 및 변위량에 따라 추가 보정하는 원리로, 광학 렌즈 플로트를 제어하는 것을 통해 "광축 오프셋"을 보정함으로써, 모바일 기기의 흔들림으로 인해 발생되는 흐린 비디오를 효과적으로 극복할 수 있다. 이에 따라, 일예로, 광학식 손떨림 기술(OIS)을 통해 제2 카메라 모듈의 프레이밍 시야를 조정할 수 있다.In some scenarios, an optical image stabilization device is set in the image collection device of the mobile device to solve the problem of blurring of the captured image due to shake when holding the camera. The optical image stabilization device may be an image stabilization controller in a mobile device, may also be referred to as an OIS controller, detects a fine movement through a sensor in the camera lens, and then sends a signal to a microprocessor, which the microprocessor needs to correct By calculating the displacement amount and correcting the “optical axis offset” by controlling the optical lens float on the principle of further correction according to the direction and amount of displacement of the lens through a correction lens set, blur caused by shaking of mobile devices Video can be effectively overcome. Accordingly, as an example, the framing field of view of the second camera module may be adjusted through OIS.

예컨대, 카메라의 프레이밍 가능한 범위를 확장시키기 위해, 카메라의 OIS를 큰 각도로 설계할 수 있다. 일예로, 제2 카메라 모듈에서의 카메라의 OIS를 큰 각도로 설계할 수 있음으로써, 제2 카메라 모듈의 프레이밍 가능한 범위(복수 개의 프레이밍 영역 집합에 대응되는 범위)가 제1 카메라 모듈의 프레이밍 범위를 커버할 수 있도록 구현된다. 장초점 카메라 모듈을 예로 들면, OIS를 통해 Tele의 프레이밍 가능한 범위를 보정할 수 있음으로써, Tele의 프레이밍 가능한 범위가 원래보다 커지도록, 예컨대, 3%-5% 커지도록 한다.For example, in order to expand the frameable range of the camera, the OIS of the camera can be designed at a large angle. For example, since the OIS of the camera in the second camera module can be designed at a large angle, the framing range of the second camera module (a range corresponding to a set of a plurality of framing areas) is the framing range of the first camera module. implemented to cover it. Taking the long-focal camera module as an example, Tele's frameable range can be corrected through OIS, so that the Tele's frameable range becomes larger than the original, for example, 3%-5%.

상기 실시예에 있어서, OIS를 통해 제2 카메라 모듈의 프레이밍 시야를 조정하고, 제2 카메라 모듈의 프레이밍 가능한 범위를 확장할 경우, 비용도 줄일 수 있으며, 다른 하드웨어를 추가할 필요도 없다.In the above embodiment, when the framing field of view of the second camera module is adjusted through the OIS and the framing range of the second camera module is extended, the cost can be reduced, and there is no need to add other hardware.

이해해야 할 것은, 또한 다른 수단으로 제2 카메라 모듈의 프레이밍 시야를 조정할 수 있고, 예컨대, 일부 단말에서 제2 카메라 모듈의 렌즈는 회전 가능하기 때문에, 단말이 움직이지 않는 경우에, 렌즈를 회전하는 것을 통해 제2 카메라 모듈의 프레이밍 시야 등을 조정할 수 있다. 다른 조정 수단의 경우, 제2 카메라 모듈이 타겟 촬영 대상을 촬영할 수 있도록 하면 되기때문에, 여기서 더이상 중복하여 설명하지 않는다. 제2 카메라 모듈의 프레이밍 시야를 추가로 더 조정할 경우, 제1 카메라 모듈의 프레이밍 시야는 변하지 않도록 유지될 수 있다.It should be understood that the framing field of view of the second camera module can also be adjusted by other means, for example, in some terminals, since the lens of the second camera module is rotatable, rotating the lens when the terminal is not moving Through this, the framing field of view of the second camera module may be adjusted. In the case of other adjustment means, since the second camera module only needs to be able to photograph the target photographing object, the description will not be repeated here any longer. When the framing field of view of the second camera module is further adjusted, the framing field of view of the first camera module may be maintained unchanged.

일 실시예에 있어서, 상기 제2 카메라 모듈의 프레이밍 시야를 조정하는 단계는, 상기 제2 카메라 모듈의 현재 프레이밍 시야를 결정하는 단계; 및OIS를 통해 상기 제2 카메라 모듈의 현재 프레이밍 시야에 대해 최대 범위로의 조정을 진행하는 단계를 포함한다. 상기 타겟 촬영 대상은 상기 제2 카메라 모듈의 조정된 최대 프레이밍 영역과 초기 프레이밍 영역의 비 중첩 부분의 임의의 촬영 포인트이다.In one embodiment, the adjusting the framing field of view of the second camera module comprises: determining a current framing field of view of the second camera module; and adjusting the current framing field of view of the second camera module to a maximum range through OIS. The target shooting target is an arbitrary shooting point of a non-overlapping portion of the adjusted maximum framing area and the initial framing area of the second camera module.

여기서, 최대 범위는 OIS에 의해 조정될 수 있는 최대 범위이다. 예컨대, 시야각이 더 큰 다른 카메라의 프레이밍 영역을 최대한 커버하기 위해, 카메라의 OIS를 큰 각도로 설계할 수 있다.Here, the maximum range is the maximum range that can be adjusted by the OIS. For example, in order to maximally cover the framing area of another camera with a larger viewing angle, the camera's OIS may be designed with a large angle.

최대 프레이밍 영역은 OIS에 의해 매 번 조정 후 제2 카메라 모듈의 프레이밍 영역의 집합이다. 최대 프레이밍 영역은 OIS의 조정 폭 및 제2 카메라 모듈의 프레이밍 범위에 의해 결정되고, 예컨대, M 번 조정 후 제2 카메라 모듈의 조정된 프레이밍 영역의 집합으로 형성된다. 도 3에 도시된 바와 같이, 이는 일 예시적 실시예에 따라 도시된 최대 프레이밍 영역 예시도이다. 상기 예시도에 있어서, M=4를 예로 들면, 실선 블록은 초기 프레이밍 영역이다. 4 번의 조정을 진행하고, 매 번의 조정으로 하나의 조정된 프레이밍 영역을 얻고, 점선 블록으로 표시된다. 네 개의 조정된 프레이밍 영역은 최대 프레이밍 영역을 형성하고, 도 3에서의 네 개의 점선 블록과 같다. 이해해야 할 것은, M은 4에 한정되지 않으며, 다른 숫자일 수 있다. 또한, 집합에서의 조정된 프레이밍 영역 사이에 중첩 부분이 존재하지 않을 수 있고, 존재할 수도 있으며, 이는 조정 폭에 의해 결정된다. 도 3은 최대 프레이밍 영역이 제1 카메라 모듈의 프레이밍 영역보다 작은 경우를 예로 든 것이고, 일부 시나리오에 있어서, 최대 프레이밍 영역이 제1 카메라 모듈의 프레이밍 영역보다 크거나 같은 경우도 있을 수 있으나, 여기서 더이상 중복하여 설명하지 않는다.The maximum framing area is the set of framing areas of the second camera module after each adjustment by OIS. The maximum framing area is determined by the adjustment width of the OIS and the framing range of the second camera module, and is formed, for example, as a set of adjusted framing areas of the second camera module after M times adjustment. As shown in Fig. 3, this is an exemplary view of the largest framing area shown according to an exemplary embodiment. In the above illustration, taking M=4 as an example, a solid line block is an initial framing area. Make 4 adjustments, with each adjustment you get one adjusted framing area, indicated by the dashed block. The four adjusted framing regions form the largest framing region and are like the four dashed-line blocks in FIG. 3 . It should be understood that M is not limited to 4 and may be any other number. Also, there may or may not be overlapping portions between the adjusted framing regions in the aggregation, as determined by the adjustment width. 3 exemplifies a case in which the maximum framing area is smaller than the framing area of the first camera module, and in some scenarios, the maximum framing area may be greater than or equal to the framing area of the first camera module. Do not duplicate explanations.

상응하게, 하나 또는 복수 개의 프레임을 이용하여 메인 이미지 화질의 향상을 구현하기 위해, 융합 과정에서 언급된 서브 이미지는 매 번 조정된 제2 카메라 모듈에 의해 수집된 서브 이미지를 포함한다.Correspondingly, in order to implement improvement of the main image quality by using one or more frames, the sub-images mentioned in the fusion process include the sub-images collected by the adjusted second camera module each time.

상기 실시예는 직접 OIS를 통해 제2 카메라 모듈의 현재 프레이밍 시야에 대해 최대 범위로의 조정을 진행하고, 이미지 화질의 최대 향상을 구현하기 위해, 최대 프레이밍 영역을 얻을 수 있다.The above embodiment may directly adjust the current framing field of view of the second camera module to the maximum range through OIS, and obtain the maximum framing area to realize maximum improvement of image quality.

다른 일 실시예에 있어서, 또한 OIS를 통해 제2 카메라 모듈의 프레이밍 시야를 타겟 촬영 대상을 향해 이동하도록 조정할 수 있음으로써, 제2 카메라 모듈의 조정된 프레이밍 영역이 상기 타겟 촬영 대상을 커버하도록 한다.In another embodiment, it is also possible to adjust the framing field of view of the second camera module to move toward the target photographing object through the OIS, so that the adjusted framing area of the second camera module covers the target photographing object.

예시적으로, 타겟 촬영 대상은 프레이밍 영역에서의 관심 대상일 수 있다. 상기 제2 카메라 모듈의 프레이밍 시야를 조정하는 단계는, 상기 타겟 촬영 대상과 상기 초기 프레이밍 영역의 위치 관계에 따라, 타겟 방향을 결정하는 단계; 및 OIS를 통해 상기 제2 카메라 모듈이 상기 타겟 방향에 따라 동작되도록 조정하는 단계를 포함한다.For example, the target photographing object may be an object of interest in the framing area. The adjusting of the framing field of view of the second camera module may include: determining a target direction according to a positional relationship between the target shooting target and the initial framing area; and adjusting the second camera module to operate according to the target direction through OIS.

상기 실시예는 제2 카메라 모듈이 상기 타겟 방향에 따라 동작되도록 제어하는 것을 통해, 타겟 촬영 대상이 제2 카메라 모듈에 의해 촬영되도록 구현함으로써, 타겟 촬영 대상의 화질을 향상할 수 있다.In the above embodiment, by controlling the second camera module to be operated according to the target direction, the target photographing object may be photographed by the second camera module, thereby improving the image quality of the target photographing object.

일예로, 상기 타겟 촬영 대상은 상기 제1 카메라 모듈의 프레이밍 영역에서의 포커스 포인트 또는 상기 포커스 포인트에 의해 결정된 초점 영역을 포함한다. 포커스 포인트는 촬영 소프트웨어가 프레이밍 영역에 따라 자동 포커스되어 결정된 것일 수 있고, 검출된 초점 제어 신호에 의해 결정된 것일 수도 있다. 이해할 수 있는 것은, 포커스 포인트는 또한 다른 수단으로 결정될 수 있지만, 여기서 더이상 중복하여 설명하지 않는다.For example, the target photographing target includes a focus point in a framing area of the first camera module or a focus area determined by the focus point. The focus point may be determined by automatically focusing the photographing software according to the framing area, or may be determined by the detected focus control signal. It is to be understood that the focus point may also be determined by other means, but will not be repeated here any further.

도 4를 참조하면, 도 4는 본 발명의 일 예시적 실시예에 따라 도시된 포커스 포인트의 예시도이다. 상기 예시도에 있어서, 다중 카메라 모듈은 광각 카메라를 포함하는 광각 카메라 모듈, 메인 카메라를 포함하는 범용 카메라 모듈 및 장초점 카메라를 포함하는 장초점 카메라 모듈일 수 있다. 제1 카메라 모듈을 범용 카메라 모듈로, 제2 카메라 모듈을 장초점 카메라 모듈을 예로 들면, 제1 카메라 모듈의 프레이밍 영역에서의 포커스 영역이 제2 카메라 모듈의 프레이밍 영역에 존재하지 않으면, 제2 카메라 모듈의 프레이밍 영역을 조정하는 것을 통해, 포커스 영역이 제2 카메라 모듈의 프레이밍 영역에 존재하도록 한다.Referring to Fig. 4, Fig. 4 is an exemplary view of a focus point shown according to an exemplary embodiment of the present invention. In the exemplary diagram, the multi-camera module may be a wide-angle camera module including a wide-angle camera, a general-purpose camera module including a main camera, and a long-focus camera module including a long-focus camera. Taking the first camera module as a general-purpose camera module and the second camera module as a long focus camera module, if the focus area in the framing area of the first camera module does not exist in the framing area of the second camera module, the second camera By adjusting the framing area of the module, the focus area is present in the framing area of the second camera module.

상기 실시예에 있어서, 타겟 촬영 대상이 제1 카메라 모듈의 프레이밍 영역에서의 포커스 포인트 또는 포커스 포인트에 의해 결정된 초점 영역을 포함하기 때문에, 이에 따라, 제2 카메라 모듈에 의해 수집된 이미지로 포커스 포인트 또는 포커스 영역에 대한 해상도 및 화질을 향상시킬수 있다. 해상도는 다시 말해 피촬영물의 세부 사항을 구별하는 능력이다. 해상도는 마이크로 필름 카메라 시스템이 피촬영물 원본의 미세한 일부를 재현하는 능력을 설명하기 위한 물리량이고, 영상 해상도를 평가하는 중요한 지표이다. 해상도가 높을수록 세부 사항을 더욱 잘 구별할 수 있고, 촬영된 이미지의 선명도를 반영하는데 사용될 수 있다.In the above embodiment, since the target shooting target includes a focus point or a focus area determined by the focus point in the framing area of the first camera module, accordingly, the focus point or It is possible to improve the resolution and image quality of the focus area. Resolution is, in other words, the ability to distinguish the details of an object. Resolution is a physical quantity for describing the ability of a microfilm camera system to reproduce a minute part of an original to be photographed, and is an important index for evaluating image resolution. The higher the resolution, the better the details can be distinguished and can be used to reflect the sharpness of the captured image.

일예로, 상기 타겟 촬영 대상은 상기 제1 카메라 모듈의 프레이밍 영역에서의 지정된 일부 영역을 포함한다. 지정된 일부 영역은 소프트웨어 개발자에 의해 사전 지정된 영역일 수 있고, 사용자가 설정 페이지를 통해 지정한 영역 등일 수도 있다. 예컨대, 사용자에 의해 종종 관심받는 영역은 화면에서의 중앙 영역이기 때문에, 이에 따라 지정된 일부 영역은 중앙 영역일 수 있음으로, 제2 카메라 모듈에 의해 수집된 이미지로 중앙 영역의 해상도 및 화질을 향상시키도록 구현한다. 또 예컨대, 지정된 일부 영역은 화면의 상부, 하부, 좌측, 우측, 에지 등일 수 있고, 여기서 더이상 중복하여 설명하지 않는다.For example, the target photographing target includes a designated partial area in the framing area of the first camera module. The designated partial area may be a pre-designated area by a software developer, an area designated by a user through a setting page, or the like. For example, since the region often of interest by the user is the central region on the screen, some regions designated accordingly may be the central region, thereby improving the resolution and image quality of the central region with the image collected by the second camera module. implement it to Also, for example, the designated partial region may be the top, bottom, left, right, edge, etc. of the screen, and will not be repeated any longer.

상기 실시예에 있어서, 타겟 촬영 대상이 제1 카메라 모듈의 프레이밍 영역으로부터 지정된 일부 영역을 포함하기 때문에, 이에 따라, 제2 카메라 모듈에 의해 수집된 이미지로 지정된 일부 영역의 해상도 및 화질을 향상시킬 수 있다.In the above embodiment, since the target shooting target includes a partial area designated from the framing area of the first camera module, the resolution and image quality of the partial area designated as the image collected by the second camera module can be improved accordingly. have.

일예로, 상기 타겟 촬영 대상은 상기 제1 카메라 모듈의 프레이밍 영역을 포함할 수 있다. 예컨대, 제1 카메라 모듈은 범용 카메라 모듈이고, 제2 카메라 모듈은 장초점 카메라 모듈이며, 타겟 촬영 대상은 제1 카메라 모듈의 프레이밍 영역 전체일 수 있으며, 제2 카메라 모듈에 의해 수집된 이미지로 제1 카메라 모듈에 의해 수집된 이미지의 화면 전체의 화질을 향상시킨다.For example, the target shooting target may include a framing area of the first camera module. For example, the first camera module is a general-purpose camera module, the second camera module is a long-focus camera module, and the target shooting target may be the entire framing area of the first camera module, 1 Improve the image quality of the entire screen of the image collected by the camera module.

이해해야 할 것은, 타겟 촬영 대상은 상기 대상을 포함하지만 한정되는 것은 아니며, 다른 대상일 수도 있고, 여기서 더이상 반복적으로 설명하지 않는다.It should be understood that the target photographing object includes, but is not limited to, the above object, and may be another object, which will not be repeatedly described herein.

제2 카메라 모듈의 프레이밍 시야를 조정하는 것은, 제2 카메라 모듈에 의해 타겟 촬영 대상이 촬영되도록 하기 위한 것이다. 제2 카메라 모듈이 하나의 카메라만 포함할 경우, 상기 타겟 촬영 대상의 크기는 제2 카메라 모듈의 프레이밍 영역의 크기보다 작거나 같을 수 있고, 예컨대, 상기 타겟 촬영 대상은 상기 제1 카메라 모듈의 프레이밍 영역의 포커스 포인트, 상기 포커스 포인트에 의해 결정된 초점 영역, 또는 상기 제1 카메라 모듈의 프레이밍 영역에서의 지정된 일부 영역을 포함할 경우, 타겟 촬영 대상의 크기가 제2 카메라 모듈의 프레이밍 영역의 크기보다 작거나 같은 경우가 존재할 수 있으며, 다시 말해, 타겟 촬영 대상은 제2 카메라 모듈의 동일한 프레이밍 영역에 완전히 나타날 수 있다.Adjusting the framing field of view of the second camera module is to allow the target photographing object to be photographed by the second camera module. When the second camera module includes only one camera, the size of the target shooting target may be smaller than or equal to the size of the framing area of the second camera module, for example, the target shooting target is the framing of the first camera module. When it includes a focus point of an area, a focus area determined by the focus point, or a designated partial area in the framing area of the first camera module, the size of the target shooting target is smaller than the size of the framing area of the second camera module In other words, the target photographing object may appear completely in the same framing area of the second camera module.

일예로, 상기 제2 카메라 모듈은 하나의 카메라를 포함하고; 상기 제2 카메라 모듈의 프레이밍 영역이 타겟 촬영 대상을 커버하도록 하는 단계는, 상기 타겟 촬영 대상이 제2 카메라 모듈의 동일한 프레이밍 영역 또는 동일한 프레이밍 영역에서의 특정 위치에 존재하도록 하는 단계를 포함한다. 상기 특정 위치는 기설정된 위치이거나, 검출된 조작 신호에 의해 결정된 위치일 수 있다.In one example, the second camera module includes one camera; The step of allowing the framing area of the second camera module to cover the target photographing object includes allowing the target photographing object to exist in the same framing area or a specific position in the same framing area of the second camera module. The specific position may be a preset position or a position determined by a detected manipulation signal.

예컨대, 제2 카메라 모듈의 프레이밍 시야를 조정하는 것을 통해, 타겟 촬영 대상이 제2 카메라 모듈의 프레이밍 영역에 나타나도록 하거나, 최대한 제2 카메라 모듈의 프레이밍 영역의 기설정된 위치(예컨대 중앙 위치)에 나타나도록 하면 된다. 도 5에 도시된 바와 같이, 본 발명의 일 예시적 실시예에 따라 도시된 조정 전후의 프레이밍 영역의 대비 예시도이다. 상기 예시도에 있어서, 동그라미는 포커스 포인트에 의해 결정된 타겟 촬영 대상을 나타내고, 작은 실선 블록은 조정 전 제2 카메라 모듈의 프레이밍 영역(초기 프레이밍 영역으로 지칭됨)을 나타내기 위한 것이고, 타겟 촬영 대상이 작은 실선 블록 내에 존재하지 않으면, 제2 카메라 모듈의 프레이밍 시야에 대해 조정을 진행한다. 작은 점선 블록은 조정 후 제2 카메라 모듈의 프레이밍 영역(조정된 프레이밍 영역으로 지칭됨)을 나타내기 위한 것이고, 타겟 촬영 대상이 작은 점선 블록 내에 있으면, 즉 타겟 촬영 대상이 제2 카메라 모듈의 동일한 프레이밍 영역 내에 있다.For example, by adjusting the framing field of view of the second camera module, the target shooting target appears in the framing area of the second camera module, or appears at a preset position (eg, central position) of the framing area of the second camera module as much as possible. let it be done As shown in FIG. 5 , it is a contrast illustration of a framing area before and after adjustment shown according to an exemplary embodiment of the present invention. In the example diagram, a circle indicates a target photographing target determined by a focus point, and a small solid line block is for indicating a framing area (referred to as an initial framing area) of the second camera module before adjustment, and the target photographing target is If it does not exist within the small solid line block, an adjustment is made to the framing field of view of the second camera module. The small dotted line block is for indicating the framing area (referred to as the adjusted framing area) of the second camera module after adjustment, and if the target photographing object is within the small dotted line block, that is, the target photographing object is the same framing of the second camera module is within the realm.

제2 카메라 모듈의 조정 폭이 충분히 큰 상황에서, 또한 타겟 촬영 대상이 제2 카메라 모듈의 프레이밍 영역의 특정 위치에 위치하도록 한정할 수 있고, 상기 특정 위치는 기설정된 위치일 수 있으며, 예컨대, 개발자에 의해 기설정된 위치와 같거나, 또 사용자에 의해 기설정된 위치와 같다. 예컨대, 중앙 위치, 중앙 상단 위치 등이다. 상기 특정 위치는 검출된 조작 신호에 의해 결정된 위치일 수도 있다. 예컨대, 프레이밍 과정에서 알림 정보가 팝업되어, 사용자에게 타겟 촬영 대상이 제2 카메라 모듈의 프레이밍 영역에서 나타내는 위치 등을 설정하도록 알린다.In a situation where the adjustment width of the second camera module is sufficiently large, the target shooting target may be limited to be located at a specific position of the framing area of the second camera module, and the specific position may be a preset position, for example, a developer It is the same as the location preset by , or the same as the location preset by the user. For example, a center position, a center top position, and the like. The specific position may be a position determined by the detected manipulation signal. For example, in the framing process, notification information is popped up to inform the user to set a location, etc., indicated by the target shooting target in the framing area of the second camera module.

상기 실시예에 있어서, 제2 카메라 모듈의 동일한 프레이밍 영역이 타겟 촬영 대상을 커버할 수 있기 때문에, 제2 카메라 모듈의 프레이밍 시야를 조정하는 것을 통해, 타겟 촬영 대상이 제2 카메라 모듈의 동일한 프레이밍 영역 또는 동일한 프레이밍 영역에서의 특정 위치에 존재하게 하여, 향후 직접 제1 카메라 모듈과 조정 후의 제2 카메라 모듈에 의해 동일한 시간 내에 수집된 이미지를 융합 처리하도록 함으로써, 제1 카메라 모듈에 의해 수집된 메인 이미지를 향상시킨다.In the above embodiment, since the same framing area of the second camera module can cover the target shooting target, by adjusting the framing field of view of the second camera module, the target shooting target is the same framing area of the second camera module Alternatively, the main image collected by the first camera module is made to exist at a specific position in the same framing area, so that the images collected within the same time by the first camera module and the second camera module after adjustment are fused directly in the future to improve

제2 카메라 모듈이 하나의 카메라만 포함하는 경우, 일부 시나리오에 있어서, 상기 타겟 촬영 대상의 크기는 제2 카메라 모듈의 프레이밍 영역의 크기보다 크고, 예컨대, 타겟 촬영 대상이 제1 카메라 모듈의 프레이밍 영역에서의 지정된 일부 영역 또는 제1 카메라 모듈의 프레이밍 영역일 경우, 타겟 촬영 대상의 범위가 제2 카메라 모듈의 프레이밍 영역의 범위보다 큰 경우가 나타날 수 있으며, 다시 말해, 제2 카메라 모듈의 동일한 프레이밍 영역은 다만 일부 타겟 촬영 대상만 커버할 수 있다.When the second camera module includes only one camera, in some scenarios, the size of the target shooting target is larger than the size of the framing area of the second camera module, for example, the target shooting target is the framing area of the first camera module In the case of the designated partial area or the framing area of the first camera module, the case where the range of the target shooting target is larger than the range of the framing area of the second camera module may appear, that is, the same framing area of the second camera module can only cover some target shooting targets.

일예로, 상기 제2 카메라 모듈은 하나의 카메라를 포함하고, 상기 타겟 촬영 대상의 크기는 제2 카메라 모듈의 프레이밍 영역의 크기보다 크며; 상기 타겟 방향은 적어도 두 개의 서브 타겟 방향을 포함한다.For example, the second camera module includes one camera, and the size of the target shooting target is larger than the size of the framing area of the second camera module; The target direction includes at least two sub-target directions.

상기 OIS를 통해 상기 제2 카메라 모듈이 상기 타겟 방향을 따라 작동되도록 조정하는 단계는, 각 서브 타겟 방향의 경우, OIS를 통해 제2 카메라 모듈이 상기 서브 타겟 방향을 따라 작동되도록 조정하는 단계를 포함한다.The step of adjusting the second camera module to operate along the target direction through the OIS includes, in each sub-target direction, adjusting the second camera module to operate along the sub-target direction through the OIS do.

상기 타겟 촬영 대상은 제1 스티칭 프레이밍 영역에 존재하고, 상기 제1 스티칭 프레이밍 영역은 매 번의 조정으로 획득된 조정된 프레이밍 영역이 스티칭되어 얻은 것이다. 상응하게, 제2 카메라 모듈의 조정된 프레이밍 영역이 타겟 촬영 대상을 커버하도록 하는 것은, 모든 2차 조정으로 획득된 제1 스티칭 프레이밍 영역이 타겟 촬영 대상을 커버하도록 하는 것이다.The target photographing object exists in a first stitched framing area, and the first stitched framing area is obtained by stitching an adjusted framing area obtained through each adjustment. Correspondingly, making the adjusted framing area of the second camera module cover the target photographing object is such that the first stitching framing area obtained by all secondary adjustments covers the target photographing object.

타겟 촬영 대상이 제2 카메라 모듈의 동일한 프레이밍 영역 내에서 디스플레이되지 못하면, 여러 번 조정하는 형태로 제2 카메라 모듈에 의해 타겟 촬영 대상이 촬영되도록 할 수 있다. 예컨대, 매 번의 조정 후의 제2 카메라 모듈이 일부 타겟 촬영 대상을 커버하도록 조정될 수 있음으로써, 모든 일부 타겟 촬영 대상이 스티칭되어 완전한 타겟 촬영 대상을 얻도록 한다. 타겟 촬영 대상 전체를 커버하려면 적어도 N 개의 제2 카메라 모듈의 프레이밍 영역이 필요하다고 가정하면, N 번 조정하여, 타겟 촬영 대상이 제2 카메라 모듈의 제1 스티칭 프레이밍 영역 내에 존재하도록 하고, 제1 스티칭 프레이밍 영역은 모든 2차 조정으로 획득된 조정된 프레이밍 영역이 스티칭되어 얻은 것이다. 상이한 2차 조정 후의 프레이밍 영역은 중첩 화면이 존재하지 않을 수 있고, 존재할 수도 있으며, 구체적인 것은 수요에 따라 설정된다.If the target photographing object is not displayed within the same framing area of the second camera module, the target photographing object may be photographed by the second camera module in the form of multiple adjustments. For example, after each adjustment, the second camera module may be adjusted to cover a partial target shooting target, so that all the partial target shooting targets are stitched to obtain a complete target shooting target. Assuming that at least N framing areas of the second camera module are required to cover the entire target photographing target, adjust N times so that the target photographing object exists within the first stitching framing area of the second camera module, and the first stitching The framing area is obtained by stitching the adjusted framing area obtained with all secondary adjustments. Framing areas after different secondary adjustments may or may not have overlapping screens, and the specifics are set according to demand.

후속적 융합 과정에 있어서, 상기 제2 카메라 모듈에 의해 수집된 서브 이미지는, 매 번 서브 타겟 방향에 따라 제2 카메라 모듈을 조정한 후 수집된 서브 이미지를 포함할 수 있다. 예컨대, 매 번 프레이밍 시야를 조정한 후 제2 카메라 모듈에 의해 수집된 서브 이미지와 메인 이미지를 각각 융합 처리할 수 있고; 또한 매 번 조정 후 제2 카메라 모듈에 의해 수집된 서브 이미지를 먼저 스티칭하여, 스티칭 종속 이미지를 얻은 다음, 메인 이미지와 함께 융합 처리되어, 메인 이미지의 화질을 향상시킨다.In the subsequent fusion process, the sub-images collected by the second camera module may include the sub-images collected after adjusting the second camera module according to the sub-target direction each time. For example, after adjusting the framing field of view each time, the sub-image and the main image collected by the second camera module may each be fused; In addition, after each adjustment, the sub-images collected by the second camera module are first stitched to obtain a stitching dependent image, and then fused together with the main image to improve the quality of the main image.

예시적으로, 여러 번 조정된 제2 카메라 모듈의 프레이밍 영역은 조정 전략에 의해 실행될 수 있고, 상기 제2 카메라 모듈이 상기 서브 타겟 방향에 따라 동작되도록 조정하기 위해, 조정 전략은 매 번 조정의 조정 명령어를 포함한다. 조정 전략은 사전에 지정된 것일 수 있고, 상기 타겟 촬영 대상과 상기 초기 프레이밍 영역의 위치 관계에 의해 생성된 것일 수도 있다.Illustratively, the framing area of the second camera module adjusted several times may be executed by an adjustment strategy, and in order to adjust the second camera module to be operated according to the sub-target direction, the adjustment strategy is adjusted each time the adjustment contains commands. The adjustment strategy may be predefined, or may be generated by a positional relationship between the target photographing target and the initial framing area.

일예로, 상기 타겟 촬영 대상은, 상기 제1 카메라 모듈의 프레이밍 영역일 수 있다. 상기 실시예에 있어서, 제2 카메라 모듈의 프레이밍 영역이 제1 카메라 모듈의 프레이밍 영역보다 작더라도, 제2 카메라 모듈의 프레이밍 시야를 조정하는 것을 통해, 여러 번 조정으로 획득된 프레이밍 영역 집합이 제1 카메라 모듈의 프레이밍 영역을 커버하도록 할 수 있음으로써, 제2 카메라 모듈의 프레이밍 가능한 범위를 확장하는 효과를 달성할 수 있다. 더 나아가, 제2 카메라 모듈의 프레이밍 영역의 조정 횟수는 제1 카메라 모듈의 프레이밍 범위와 제2 카메라 모듈의 프레이밍 범위의 비례에 의해 결정될 수 있다.For example, the target photographing target may be a framing area of the first camera module. In the above embodiment, even if the framing area of the second camera module is smaller than the framing area of the first camera module, through adjusting the framing field of view of the second camera module, the set of framing areas obtained by adjustment several times is the first By being able to cover the framing area of the camera module, it is possible to achieve the effect of expanding the framing range of the second camera module. Furthermore, the number of times of adjusting the framing area of the second camera module may be determined by the proportion of the framing range of the first camera module and the framing range of the second camera module.

도 6a에 도시된 바와 같이, 이는 본 발명의 일 예시적 실시예에 따라 도시된 제1 스티칭 프레이밍 영역의 예시도이다. 제1 카메라 모듈의 프레이밍 영역이 형성되려면 적어도 N 개의 제2 카메라 모듈의 프레이밍 영역이 스티칭될 필요가 있다고 가정한다. 상기 예시도에 있어서, N=4로 예를 들어 설명한다. 좌측 상단의 점선 블록은 1 차 조정 후의 조정된 프레이밍 영역을 나타내고, 우측 상단의 점선 블록은 2 차 조정 후의 조정된 프레이밍 영역을 나타내며, 좌측 하단의 점선 블록은 3 차 조정 후의 조정된 프레이밍 영역을 나타내고, 우측 하단의 점선 블록은 4 차 조정 후의 조정된 프레이밍 영역을 나타낸다. 실선 블록은 제1 카메라 모듈의 프레이밍 영역이다. 1 차, 2 차, 3 차, 4 차 조정으로 획득된 조정된 프레이밍 영역을 스티칭하여, 제1 스티칭 프레이밍 영역을 획득하면, 제1 스티칭 프레이밍 영역이 제1 카메라 모듈의 프레이밍 영역을 커버하는 것을 볼 수 있다. 이해할 수 있는 것은, 제1 스티칭 프레이밍 영역의 크기는 제1 카메라 모듈의 프레이밍 영역의 크기보다 크거나 같을 수 있고, 상기 도면은 크기가 동일한 것으로 예시된 것이다. 제1 카메라 모듈 및 제2 카메라 모듈의 프레이밍 영역은 고정적이기 때문에, 이에 따라, 일 실시예에 있어서, 조정 전략은 사전에 설정된 것으로, 매 번 조정의 조정 명령어를 포함한다. 예컨대, 1 차 조정의 조정 명령어, 2 차 조정의 조정 명령어, 3 차 조정의 조정 명령어 및 4 차 조정의 조정 명령어를 포함하여, 임시적으로 조정 전략을 결정할 필요없이 상이한 조정 명령어를 통해 대응되는 위치로 조정함으로써, 처리 속도를 향상시킬 수 있다.As shown in Fig. 6A, this is an exemplary view of the first stitching framing area shown according to an exemplary embodiment of the present invention. It is assumed that at least N framing areas of the second camera module need to be stitched to form the framing area of the first camera module. In the above illustration, it will be described with N=4 as an example. The dotted line block on the upper left indicates the adjusted framing area after the first adjustment, the dotted line block on the upper right indicates the adjusted framing area after the second adjustment, and the dotted line block on the lower left indicates the adjusted framing area after the third adjustment , the dotted block in the lower right indicates the adjusted framing area after the fourth adjustment. A solid line block is a framing area of the first camera module. Stitching the adjusted framing area obtained with the 1st, 2nd, 3rd, 4th adjustment to obtain the first stitching framing area, see that the first stitching framing area covers the framing area of the first camera module can It may be understood that the size of the first stitching framing area may be greater than or equal to the size of the framing area of the first camera module, and the drawings are exemplified as having the same size. Since the framing areas of the first camera module and the second camera module are fixed, accordingly, in one embodiment, the adjustment strategy is preset, including adjustment instructions of adjustment each time. For example, including the adjustment instruction of the primary adjustment, the adjustment instruction of the second adjustment, the adjustment instruction of the third adjustment, and the adjustment instruction of the fourth adjustment, to the corresponding position through different adjustment instructions without needing to temporarily determine the adjustment strategy By adjusting, the processing speed can be improved.

일부 응용 시나리오에 있어서, 타겟 촬영 대상의 크기가 제2 카메라 모듈에서의 카메라의 프레이밍 영역의 크기보다 클 수 있기 때문에, 타겟 촬영 대상이 제2 카메라 모듈의 동일한 프레이밍 영역에 존재하도록 하지 못하며, 또한 조정 폭의 제한으로 인해, 타겟 촬영 대상의 범위가 제2 카메라 모듈에서의 카메라의 프레이밍 범위보다 작거나 같더라도, 타겟 촬영 대상이 제2 카메라 모듈의 동일한 프레이밍 영역에 존재하지 못하는 상황이 나타날수 있으므로, 이를 고려하여, 다른 일 실시예에 있어서, 상기 제2 카메라 모듈은 적어도 두 개의 카메라를 포함하고; 단일 카메라의 서브 프레이밍 영역의 사이즈는 타겟 촬영 대상의 프레이밍 영역의 크기보다 작을 수 있고, 클 수도 있으며, 적어도 두 개의 카메라의 서브 프레이밍 범위로 형성된 프레이밍 영역 세트는 타겟 촬영 대상의 프레이밍 영역보다 크거나 같을 수 있다. 동일한 카메라 모듈에서의 카메라는 동일한 타입의 카메라일 수 있고, 장초점 카메라 모듈로 예를 들면, 장초점 카메라 모듈에서의 복수 개의 카메라는 장초점 카메라일 수 있다.In some application scenarios, since the size of the target shooting target may be larger than the size of the framing area of the camera in the second camera module, it is not possible to make the target shooting target exist in the same framing area of the second camera module, and also adjust Due to the limitation of the width, even if the range of the target shooting target is smaller than or equal to the framing range of the camera in the second camera module, there may be a situation in which the target shooting target does not exist in the same framing area of the second camera module. Considering that, in another embodiment, the second camera module includes at least two cameras; The size of the sub-framing area of a single camera may be smaller or larger than the size of the framing area of the target shooting target, and the set of framing areas formed by the sub-framing ranges of at least two cameras may be greater than or equal to the framing area of the target shooting target. can The cameras in the same camera module may be the same type of camera, and as a long focus camera module, for example, a plurality of cameras in the long focus camera module may be a long focus camera.

상응하게, 상기 타겟 방향은 적어도 두 개의 서브 타겟 방향을 포함한다. 상기 OIS를 통해 상기 제2 카메라 모듈이 상기 타겟 방향을 따라 작동되도록 조정하는 단계는, OIS를 통해 상기 제2 카메라 모듈에서의 카메라가 대응되는 상기 서브 타겟 방향을 따라 작동되도록 각각 조정하는 단계를 포함한다.Correspondingly, the target direction comprises at least two sub-target directions. The step of adjusting the second camera module to operate along the target direction through the OIS includes adjusting each of the cameras in the second camera module to operate along the corresponding sub-target direction through the OIS do.

상기 타겟 촬영 대상은 제2 스티칭 프레이밍 영역에 존재하고, 상기 제2 스티칭 프레이밍 영역은 카메라의 조정된 프레이밍 영역이 스티칭되어 얻은 것이다.The target photographing object exists in a second stitched framing area, and the second stitched framing area is obtained by stitching the adjusted framing area of the camera.

상기 제2 카메라 모듈에 의해 수집된 서브 이미지는 모든 조정 후의 카메라에 의해 수집된 이미지를 포함한다.The sub-images collected by the second camera module include images collected by the camera after all adjustments.

상기 실시예는 복수 개의 카메라를 조정하는 것을 통해, 제2 카메라 모듈의 프레이밍 영역이 타겟 촬영 대상을 커버하도록 구현하여, 타겟 촬영 대상의 크기가 비교적 크거나, 단일 카메라의 조정 범위가 한정적인 상황을 피할 수 있다.The embodiment is implemented so that the framing area of the second camera module covers the target shooting target by adjusting a plurality of cameras, so that the size of the target shooting target is relatively large or the adjustment range of a single camera is limited can be avoided

도 6b에 도시된 바와 같이, 이는 본 발명의 일 예시적 실시예에 따라 도시된 제2 스티칭 프레이밍 영역의 예시도이다. 제1 카메라 모듈의 프레이밍 영역은 적어도 제2 카메라 모듈의 N 개의 프레이밍 영역으로 형성된다고 가정한다. 상기 예시도에 있어서, N=4로 예를 들어 설명한다. 좌측 상단의 점선 블록은 제1 카메라가 조정되어 획득된 조정된 프레이밍 영역을 나타내고, 우측 상단의 점선 블록은 제2 카메라가 조정되어 획득된 조정된 프레이밍 영역을 나타내며, 좌측 하단의 점선 블록은 제3 카메라가 조정되어 획득된 조정된 프레이밍 영역을 나타내고, 우측 하단의 점선 블록은 제4 카메라가 조정되어 획득된 조정된 프레이밍 영역을 나타낸다. 실선 블록은 제1 카메라 모듈의 프레이밍 영역 또는 타겟 촬영 대상이다. 제1, 제2, 제3, 제4 카메라가 조정 후의 조정된 프레이밍 영역이 스티칭되어, 제2 스티칭 프레이밍 영역이 획득되면, 타겟 촬영 대상이 제2 스티칭 프레이밍 영역에 나타날 수 있는 것을 볼 수 있다.As shown in Fig. 6B, this is an exemplary view of the second stitching framing area shown according to an exemplary embodiment of the present invention. It is assumed that the framing area of the first camera module is formed of at least N framing areas of the second camera module. In the above illustration, it will be described with N=4 as an example. The upper left dotted line block represents the adjusted framing area obtained by adjusting the first camera, the upper right dotted line block represents the adjusted framing area obtained by adjusting the second camera, and the lower left dotted line block is the third The adjusted framing area obtained by adjusting the camera is indicated, and the dotted line block in the lower right corner indicates the adjusted framing area obtained by adjusting the fourth camera. A solid line block is a framing area of the first camera module or a target photographing target. It can be seen that when the adjusted framing area after the first, second, third, and fourth cameras are adjusted is stitched to obtain the second stitched framing area, the target shooting object may appear in the second stitched framing area.

이해해야 하는 것은, 상기 조정 형태는 다만 예시적인 것일 뿐이고, 다른 기존의 또는 미래의, 제2 카메라 모듈로 하여금 타겟 촬영 대상을 촬영할 수 있도록 하는 조정 형태는 본 발명 실시예에 적용할 수 있으며, 모두 본 발명 실시예의 청구범위 내에 포함되어야 한다.It should be understood that the above adjustment form is merely exemplary, and other existing or future adjustment forms for allowing the second camera module to capture a target photographing object can be applied to the embodiments of the present invention, and all It should be included within the scope of the claims of the inventive embodiment.

메인 이미지 및 서브 이미지의 수집 시간에 관련하여, 상기 제2 카메라 모듈이 하나의 카메라를 포함하고, 타겟 촬영 대상의 크기가 제2 카메라 모듈의 프레이밍 영역의 크기보다 작거나 같은 경우, 또는 제2 카메라 모듈이 복수 개의 카메라를 포함하는 등 경우, 서브 이미지는 메인 이미지와 함께 동일 시간에 수집된 이미지일 수 있다. 제2 카메라 모듈의 프레이밍 시야를 여러 번 조정하는 실시예에서, 서브 이미지는 매 번 프레이밍 시야를 조정한 후 제2 카메라 모듈에 의해 수집된 서브 이미지일 수 있다. 메인 이미지의 수집 시간은 복수 개의 서브 이미지 중 어느 한 서브 이미지의 수집 시간과 동일할 수 있거나, 복수 개의 서브 이미지를 수집하는 동안의 임의의 시간 포인트일 수 있다. 이미지 수집 빈도가 비교적 높기 때문에, 단기간 내에 연속적으로 수집되는 이미지의 차이는 비교적 작으며, 이에 따라, 복수 개의 프레임 서브 이미지로 단일 프레임 메인 이미지에 대해 이미지 품질 향상 처리를 진행한다.Regarding the collection time of the main image and the sub-image, when the second camera module includes one camera, and the size of the target photographing object is smaller than or equal to the size of the framing area of the second camera module, or the second camera When the module includes a plurality of cameras, etc., the sub-image may be an image collected at the same time as the main image. In an embodiment in which the framing field of view of the second camera module is adjusted several times, the sub image may be a sub image collected by the second camera module after adjusting the framing field of view each time. The acquisition time of the main image may be the same as the acquisition time of any one sub-image among the plurality of sub-images, or may be an arbitrary time point during the collection of the plurality of sub-images. Since the frequency of image acquisition is relatively high, the difference between images continuously acquired within a short period of time is relatively small, and accordingly, image quality improvement processing is performed on a single-frame main image with a plurality of frame sub-images.

본 발명 실시예는 시야각이 작은 카메라 모듈에 의해 수집된 이미지로 시야각이 큰 카메라 모듈에 의해 수집된 이미지를 향상시키려고 하고, 이에 따라, 조정 후의 제2 카메라 모듈에 의해 수집된 서브 이미지와 제1 카메라 모듈에 의해 수집된 메인 이미지를 융합하여, 융합된 후의 이미지를 획득할 수 있다. 일부 시나리오에 있어서, 융합 과정에서 언급된 서브 이미지는 또한 조정 전의 제2 카메라 모듈에 의해 수집된 서브 이미지를 포함하고, 구체적인 것은 수요에 따라 구성된다. 융합 과정에 있어서, 중첩 부분 전부를 융합할 수 있고, 일부의 중첩 부분을 융합할 수도 있다. 제2 카메라 모듈의 시야각이 제1 카메라 모듈의 시야각보다 작기 때문에, 서브 이미지 및 메인 이미지를 융합하면, 더욱 높은 화질의 이미지를 얻을 수 있다. 예컨대, 기설정된 이미지 융합 알고리즘을 사용하여 전부 또는 일부의 중첩 부분과 메인 이미지를 융합시켜, 융합된 후의 이미지를 얻을 수 있다. 구체적인 이미지 융합 알고리즘은 관련 기술에서의 융합 알고리즘을 참조할 수 있고, 여기서 더이상 중복하여 설명하지 않는다.The embodiment of the present invention is to improve the image collected by the camera module having a large viewing angle to the image collected by the camera module having a small viewing angle, and accordingly, the sub-image collected by the second camera module and the first camera after adjustment By fusing the main image collected by the module, an image after the fusion can be obtained. In some scenarios, the sub-images mentioned in the fusion process also include the sub-images collected by the second camera module before adjustment, and specifically configured according to demand. In the fusion process, all overlapping parts may be fused, and some overlapping parts may be fused. Since the viewing angle of the second camera module is smaller than the viewing angle of the first camera module, by fusing the sub image and the main image, an image of higher quality can be obtained. For example, a fused image may be obtained by fusing all or part of the overlapping portion and the main image using a preset image fusion algorithm. A specific image fusion algorithm may refer to a fusion algorithm in a related art, and will not be repeated any longer herein.

일 실시예에 있어서, 상기 융합 처리 단계는 프레이밍 과정에서 실행되거나, 촬영 조작 명령어가 수신된 후 실행될 수 있다. 상기 실시예에 있어서, 프레이밍 과정이거나 촬영 조작한 후를 막론하고, 모두 융합된 후의 메인 이미지를 디스플레이할 수 있다.In one embodiment, the fusion processing step may be executed during a framing process or may be executed after a shooting operation command is received. In the above embodiment, regardless of whether the framing process or the shooting operation is performed, the main image after all the fusions can be displayed.

일부 응용 시나리오에 있어서, 상이한 카메라 모듈로 촬영할 경우, 그 중 하나의 카메라 모듈로 촬영할 때의 관심 대상은, 다른 하나의 카메라 모듈의 시야 범위 내에 존재할 수 있기 때문에, 이에 따라, 상기 방법은 또한, 제1 카메라 모듈이 현재 메인 촬영 상태이고, 상기 제1 카메라 모듈의 프레이밍 영역에서의 타겟 촬영 대상이 제2 카메라 모듈의 초기 프레이밍 영역에 존재하지 않을 경우, 제2 카메라 모듈에 의해 수집된 서브 이미지와 제1 카메라 모듈에 의해 메인 이미지를 융합 처리하는 단계를 포함한다.In some application scenarios, when shooting with different camera modules, the object of interest when shooting with one camera module may exist within the field of view of the other camera module. Therefore, the method also includes: When the first camera module is in the current main shooting state and the target shooting target in the framing area of the first camera module does not exist in the initial framing area of the second camera module, the sub-image collected by the second camera module and the second 1 including the step of fusion processing the main image by the camera module.

상기 실시예에 있어서, 타겟 촬영 대상이 제2 카메라 모듈의 프레이밍 영역에 있을 경우, 제2 카메라 모듈을 조정할 필요없이, 직접 제2 카메라 모듈에 의해 수집된 이미지로 제1 카메라에 의해 수집된 이미지의 화질을 향상시킬 수 있다.In the above embodiment, when the target shooting target is in the framing area of the second camera module, the image collected by the first camera is directly captured by the second camera module without the need to adjust the second camera module. The picture quality can be improved.

이상 실시 형태에서의 다양한 기술특징은 사이에 충돌 또는 모순이 존재하지 않는 한 임의로 조합될 수 있지만, 편폭 제한 때문에, 일일이 설명하지 않으며, 따라서 상기 실시형태에서의 다양한 기술특징이 임의로 조합되는 것 또한 본 발명의 개시 범위 내에 속해야 한다.The various technical features in the above embodiment can be arbitrarily combined as long as there is no conflict or contradiction therebetween, but due to the narrow width limitation, they are not described in detail, so it is also seen that various technical features in the above embodiment are arbitrarily combined It should fall within the scope of the disclosure of the invention.

여기서 그 중 두 가지의 조합을 예로 들어 설명한다.Here, a combination of two of them will be described as an example.

일예로, 촬영 시, 사용자는 일반적으로 사진의 중앙 위치 또는 포커징 위치를 관심하고, W는 DW와 비교할 때 화질에서의 장점 및 해상도에서의 장점을 갖고 있기 때문에, DW로 촬영할 경우, 동시에 W도 이미지를 촬영하고, 다음 DW의 사진에 기반하여, 사진의 중앙 부분에서 W로 촬영된 사진을 융합 향상을 함으로써, 중앙 영역의 화질을 향상시킨다. W에 의해 촬영될 경우, 동시에 한 장의 Tele가 수집되고, W의 사진의 포커스 포인트가 Tele 범위 내에 존재하면, Tele를 통해 W 포커스 영역의 화질을 향상시킬 수 있다. W의 사진의 포커스 포인트가 Tele 범위 내에 존재하지 않을 경우, W의 사진의 포커스 포인트가 Tele 범위 내에 존재하도록 Tele 범위를 조정할 수 있다.For example, when shooting, the user is generally interested in the central position or focusing position of the picture, and since W has advantages in image quality and resolution compared to DW, when shooting with DW, at the same time W After taking an image, based on the picture of the next DW, the picture quality of the central area is improved by fusion enhancement of the picture taken with W in the center part of the picture. When shooting by W, one Tele is collected at the same time, and if the focus point of W's photo is within the Tele range, the quality of W focus area can be improved through Tele. If the focus point of W's photo is not within the Tele range, the Tele range can be adjusted so that the focus point of W's photo is within the Tele range.

예시적으로, 장초점 카메라 모듈(Tele)의 OIS를 큰 각도로 설계하는 것을 통해, Tele가 범용 카메라 모듈의 전부 fov(카메라 시야각/시야 각)를 커버하도록 구현하고, 범용 카메라 모듈의 촬영 포커스 포인트 위치에 따라, Tele의 프레이밍 영역을 대응되는 위치로 조정한 다음, 같이 촬영을 하며, 그 다음 융합(fusion) 처리를 함으로써, 포커스 위치의 해상도를 향상시키고, 화질을 향상시킨다.Illustratively, by designing the OIS of the long focus camera module (Tele) at a large angle, Tele is implemented to cover the entire fov (camera field of view / field of view) of the universal camera module, and the shooting focus point of the universal camera module According to the position, the framing area of the Tele is adjusted to the corresponding position, then taken together, and then fusion processing is performed to improve the resolution of the focus position and improve the image quality.

다른 일예로, 도 7을 참조하면, 이는 본 발명의 일 예시적 실시예에 따라 도시된 다른 하나의 다중 카메라 모듈 기반의 이미지 처리 방법의 흐름도이고, 상기 다중 카메라 모듈은 시야각이 점차적으로 감소되는 광각 카메라 모듈(DW), 범용 카메라 모듈(W), 장초점 카메라 모듈(Tele)을 포함하고, 상기 방법은 아래의 단계를 포함한다.As another example, referring to FIG. 7 , this is a flowchart of another multi-camera module-based image processing method shown according to an exemplary embodiment of the present invention, wherein the multi-camera module has a wide-angle viewing angle that is gradually reduced. A camera module (DW), a general-purpose camera module (W), and a long focus camera module (Tele), the method comprising the following steps.

단계 702에 있어서, 카메라 모듈의 촬영 상태를 결정한다.In step 702, a photographing state of the camera module is determined.

단계 704에 있어서, 광각 카메라 모듈이 현재 메인 촬영 상태이면, 광각 카메라 모듈에 의해 수집된 메인 이미지 및 범용 카메라 모듈에 의해 수집된 서브 이미지를 획득하고, 서브 이미지와 메인 이미지를 융합 처리한다.In step 704, if the wide-angle camera module is currently in the main shooting state, the main image collected by the wide-angle camera module and the sub-image collected by the general-purpose camera module are acquired, and the sub-image and the main image are fused.

단계 706에 있어서, 범용 카메라 모듈이 현재 메인 촬영 상태이면, 장초점 촬영 모듈의 현재 프레이밍 시야를 결정하고; OIS를 통해 장초점 촬영 모듈의 현재 프레이밍 시야에 대해 최대 범위로의 조정을 진행한다.In step 706, if the general-purpose camera module is currently in a main shooting state, determine a current framing field of view of the long-focal shooting module; Adjustment to the maximum range for the current framing field of view of the long focus imaging module is carried out through OIS.

단계 708에 있어서, 조정 후의 장초점 카메라 모듈에 의해 수집된 서브 이미지와 범용 카메라 모듈에 의해 수집된 메인 이미지를 융합 처리한다.In step 708, the sub-image collected by the long-focal camera module after adjustment and the main image collected by the general-purpose camera module are fused.

상기 실시예는 상이한 카메라의 조합을 통해, 상이한 시나리오에서 촬영할 경우 현재 시나리오에서의 촬영의 해상도 및 화질의 향상을 구현하였고, 특히 OIS로 Tele의 프레이밍 가능한 범위를 확장시켜, 범용 카메라 모듈이 메인 촬영 상태(메인 촬영 모드로 지칭됨)에서의 화질을 향상시킨다.The above embodiment implemented the improvement of resolution and image quality of shooting in the current scenario when shooting in different scenarios through a combination of different cameras, and in particular, by expanding the framing range of Tele with OIS, the general-purpose camera module is the main shooting state Improve the picture quality in (referred to as the main shooting mode).

전술한 각 방법 실시예에 대해, 간단한 설명을 위해, 이들 모두를 일련의 동작 조합으로 표현하지만, 본 기술분야의 기술자는, 일부 단계들은 본 발명 실시예에 따라 다른 순서를 사용하거나 동시에 진행할 수 있으므로, 본 발명 실시예에서 설명된 동작 순서의 제한을 받지 않음을 알아야 한다.For each method embodiment described above, for the sake of brevity, all of them are expressed as a series of operation combinations, but those skilled in the art will recognize that some steps may be performed concurrently or using a different order according to the embodiments of the present invention. , it should be noted that the present invention is not limited by the order of operations described in the embodiment.

다음, 본 기술분야의 기술자라면, 명세서에서 설명된 실시예가 모두 선택 가능한 실시예에 속하며, 언급된 동작 및 모듈은 본 발명 실시예에 반드시 필요한 것은 아니라는 것을 잘 알고 있을 것이다.Next, those skilled in the art will understand that all of the embodiments described in the specification are selectable embodiments, and the mentioned operations and modules are not necessarily required for the embodiments of the present invention.

전술된 다중 카메라 모듈 기반의 이미지 처리 방법의 실시예와 대응되게, 본 발명 실시예는 또한 다중 카메라 모듈 기반의 이미지 처리 장치, 장치가 적용되는 기기 및 저장 매체의 실시예를 제공한다.Corresponding to the above-described embodiment of the multi-camera module-based image processing method, the embodiment of the present invention also provides embodiments of a multi-camera module-based image processing apparatus, a device to which the apparatus is applied, and a storage medium.

도 8에 도시된 바와 같이, 이는 본 발명의 일 예시적 실시예에 따라 도시된 다중 카메라 모듈 기반의 이미지 처리 장치의 블록도이고, 상기 장치는,As shown in Fig. 8, this is a block diagram of a multi-camera module-based image processing apparatus according to an exemplary embodiment of the present invention, the apparatus comprising:

제1 카메라 모듈이 현재 메인 촬영 상태이고, 상기 제1 카메라 모듈의 프레이밍 영역에서의 타겟 촬영 대상이 제2 카메라 모듈의 초기 프레이밍 영역에 존재하지 않을 경우, 상기 제2 카메라 모듈의 프레이밍 시야를 조정하여, 상기 제2 카메라 모듈의 조정된 프레이밍 영역이 상기 타겟 촬영 대상을 커버하도록 구성된 시야 조정 모듈(820) - 상기 제2 카메라 모듈의 시야각은 상기 제1 카메라 모듈의 시야각보다 작음 - ; 및When the first camera module is in the current main shooting state, and the target shooting target in the framing area of the first camera module does not exist in the initial framing area of the second camera module, by adjusting the framing field of the second camera module , a field of view adjustment module 820 configured such that the adjusted framing area of the second camera module covers the target photographing object, wherein the field of view of the second camera module is smaller than the field of view of the first camera module; and

서브 이미지와 메인 이미지를 융합 처리하도록 구성된 융합 처리 모듈(840) - 상기 서브 이미지는 상기 제2 카메라 모듈에 의해 수집된 이미지이고, 상기 메인 이미지는 상기 제1 카메라 모듈에 의해 수집된 이미지임 - 을 포함한다.a fusion processing module 840 configured to fusion-process the sub-image and the main image, wherein the sub-image is an image collected by the second camera module, and the main image is an image collected by the first camera module include

일 선택적 실시예에 있어서, 상기 시야 조정 모듈(820)에 의해 상기 제2 카메라 모듈의 프레이밍 시야가 조정되는 단계는,In an optional embodiment, the step of adjusting the framing field of view of the second camera module by the field of view adjustment module 820 comprises:

상기 제2 카메라 모듈의 현재 프레이밍 시야를 결정하는 단계; 및determining a current framing field of view of the second camera module; and

OIS를 통해 상기 제2 카메라 모듈의 현재 프레이밍 시야에 대해 최대 범위로의 조정을 진행하는 단계를 포함하고;adjusting the current framing field of view of the second camera module to a maximum range through OIS;

여기서, 상기 타겟 촬영 대상은 상기 제2 카메라 모듈의 조정 후 최대 프레이밍 영역과 초기 프레이밍 영역의 비 중첩 부분에서의 임의의 촬영 포인트이다.Here, the target shooting target is an arbitrary shooting point in the non-overlapping part of the maximum framing area and the initial framing area after the second camera module is adjusted.

일 선택적 실시예에 있어서, 상기 타겟 촬영 대상은 프레이밍 영역에서의 관심 대상이고, 상기 시야 조정 모듈(820)에 의해 상기 제2 카메라 모듈의 프레이밍 시야가 조정되는 단계는,In an optional embodiment, the target shooting target is an object of interest in a framing area, and the step of adjusting the framing field of view of the second camera module by the field of view adjustment module 820 comprises:

상기 타겟 촬영 대상과 상기 초기 프레이밍 영역의 위치 관계에 따라, 타겟 방향을 결정하는 단계; 및determining a target direction according to a positional relationship between the target shooting target and the initial framing area; and

OIS를 통해 상기 제2 카메라 모듈이 상기 타겟 방향을 따라 작동되도록 조정하는 단계를 포함한다.and adjusting the second camera module to operate along the target direction through OIS.

일 선택적 실시예에 있어서, 상기 타겟 촬영 대상은 상기 제1 카메라 모듈의 프레이밍 영역에서의 포커스 포인트, 상기 포커스 포인트에 의해 결정된 초점 영역, 상기 제1 카메라 모듈의 프레이밍 영역에서의 지정된 일부 영역, 또는 상기 제1 카메라 모듈의 프레이밍 영역을 포함한다.In an optional embodiment, the target shooting target is a focus point in the framing area of the first camera module, a focus area determined by the focus point, a designated partial area in the framing area of the first camera module, or the and a framing area of the first camera module.

일 선택적 실시예에 있어서, 상기 제2 카메라 모듈은 하나의 카메라를 포함하고; 상기 제2 카메라 모듈의 프레이밍 영역이 타겟 촬영 대상을 커버하도록 하는 단계는, 상기 타겟 촬영 대상이 제2 카메라 모듈의 동일한 프레이밍 영역 또는 동일한 프레이밍 영역에서의 특정 위치에 존재하도록 하는 단계를 포함하며; 상기 특정 위치는 기설정된 위치이거나, 검출된 조작 신호에 의해 결정된 위치이다.In an optional embodiment, the second camera module comprises one camera; the step of allowing the framing area of the second camera module to cover the target photographing object includes the step of allowing the target photographing object to exist in the same framing area or a specific position in the same framing area of the second camera module; The specific position is a preset position or a position determined by a detected manipulation signal.

일 선택적 실시예에 있어서, 상기 제2 카메라 모듈은 하나의 카메라를 포함하고, 상기 타겟 촬영 대상의 크기는 제2 카메라 모듈의 프레이밍 영역의 크기보다 크며; 상기 타겟 방향은 적어도 두 개의 서브 타겟 방향을 포함한다.In an optional embodiment, the second camera module includes one camera, and the size of the target shooting target is larger than the size of the framing area of the second camera module; The target direction includes at least two sub-target directions.

상기 시야 조정 모듈(820)이 OIS를 통해 상기 제2 카메라 모듈이 상기 타겟 방향을 따라 작동되도록 조정하는 단계는, 각 서브 타겟 방향의 경우, OIS를 통해 제2 카메라 모듈이 상기 서브 타겟 방향을 따라 작동되도록 조정하는 단계를 포함하고;The step of adjusting the field of view adjustment module 820 to operate the second camera module along the target direction through the OIS includes, in each sub-target direction, the second camera module along the sub-target direction through the OIS. adjusting to actuate;

상기 타겟 촬영 대상은 제1 스티칭 프레이밍 영역에 있고, 상기 제1 스티칭 프레이밍 영역은 모든 2차 조정에 의해 획득된 조정된 프레이밍 영역이 스티칭되어 얻은 것이며;the target shooting object is in a first stitching framing area, the first stitching framing area is obtained by stitching the adjusted framing areas obtained by all secondary adjustments;

상기 제2 카메라 모듈에 의해 수집된 서브 이미지는, 매 번 서브 타겟 방향에 따라 제2 카메라 모듈을 조정한 후 수집된 서브 이미지를 포함한다.The sub-images collected by the second camera module include sub-images collected after adjusting the second camera module according to the sub-target direction each time.

일 선택적 실시예에 있어서, 상기 제2 카메라 모듈은 적어도 두 개의 카메라를 포함하고, 상기 타겟 촬영 대상의 크기는 제2 카메라 모듈의 프레이밍 영역의 크기보다 크며; 상기 타겟 방향은 적어도 두 개의 서브 타겟 방향을 포함하며;In one optional embodiment, the second camera module includes at least two cameras, the size of the target shooting target is larger than the size of the framing area of the second camera module; the target direction includes at least two sub-target directions;

상기 시야 조정 모듈(820)이 OIS를 통해 상기 제2 카메라 모듈이 상기 타겟 방향을 따라 작동되도록 조정하는 단계는, OIS를 통해 상기 제2 카메라 모듈에서의 카메라가 대응되는 상기 서브 타겟 방향을 따라 작동되도록 각각 조정하는 단계를 포함하며;The step of adjusting the field of view adjustment module 820 so that the second camera module is operated along the target direction through the OIS operates along the sub-target direction corresponding to the camera in the second camera module through the OIS adjusting each to be possible;

상기 타겟 촬영 대상은 제2 스티칭 프레이밍 영역에 있고, 상기 제2 스티칭 프레이밍 영역은 카메라의 조정된 프레이밍 영역이 스티칭되어 얻은 것이며;the target shooting object is in a second stitching framing area, the second stitching framing area is obtained by stitching the adjusted framing area of the camera;

상기 제2 카메라 모듈에 의해 수집된 서브 이미지는 모든 조정 후의 카메라에 의해 수집된 이미지를 포함한다.The sub-images collected by the second camera module include images collected by the camera after all adjustments.

일 선택적 실시예에 있어서, 상기 융합 처리 모듈(840)은 또한,In an optional embodiment, the fusion processing module 840 also includes:

제1 카메라 모듈이 현재 메인 촬영 상태이고, 상기 제1 카메라 모듈의 프레이밍 영역에서의 타겟 촬영 대상이 제2 카메라 모듈의 초기 프레이밍 영역에 존재할 경우, 제2 카메라 모듈에 의해 수집된 서브 이미지와 제1 카메라 모듈에 의해 메인 이미지를 융합 처리하도록 구성된다.When the first camera module is in the current main shooting state and the target shooting target in the framing area of the first camera module exists in the initial framing area of the second camera module, the sub-images collected by the second camera module and the first It is configured to fuse the main image by the camera module.

일 선택적 실시예에 있어서, 상기 융합 처리 단계는 프레이밍 과정에서 실행되거나, 촬영 조작 명령어가 수신된 후 실행될 수 있다.In an optional embodiment, the fusion processing step may be executed during a framing process or may be executed after a photographing manipulation command is received.

일 선택적 실시예에 있어서, 상기 다중 카메라 모듈은 시야각이 점차적으로 감소되는 광각 카메라 모듈, 범용 카메라 모듈, 장초점 카메라 모듈을 포함한다.In an optional embodiment, the multi-camera module includes a wide-angle camera module, a general-purpose camera module, and a long-focus camera module whose viewing angle is gradually reduced.

상기 장치에서의 각 모듈의 기능 및 작용의 구현 과정의 구체적인 사항은 상기 방법의 대응되는 단계의 구현 과정을 참조하면 되고, 여기서 더이상 중복하여 설명하지 않는다.For the specific details of the implementation process of the functions and actions of each module in the apparatus, reference may be made to the implementation process of the corresponding step of the method, which will not be repeated any longer.

장치 실시예의 경우, 방법 실시예에 거의 대응되므로, 관련 부분에 대해서는 방법 실시예의 부분적인 설명을 참조하면 된다. 이상 설명된 장치 실시예는 다만 예시적인 것일 뿐이고, 여기서 상기 분리 컴포넌트로서 설명된 모듈은 물리적으로 분리된 것이거나 아닐 수 있고, 모듈로서 나타낸 컴포넌트는 물리적 모듈이거나 아닐 수 있으며, 즉 한 곳에 위치하거나, 복수 개의 네트워크 모듈에 분포될 수도 있다. 실제 수요에 따라 그 중의 일부 또는 전부 모듈을 선택하여 본 발명 실시예의 방안의 목적을 구현할 수 있다. 본 분야의 기술자라면 창조적 작업이 이루어지지 않은 경우에도 이해 및 실시를 할 수 있을 것이다.In the case of an apparatus embodiment, since it almost corresponds to a method embodiment, reference may be made to the partial description of the method embodiment for related parts. The device embodiments described above are merely exemplary, where a module described as a separate component may or may not be physically separate, and a component shown as a module may or may not be a physical module, i.e., located in one place, It may be distributed in a plurality of network modules. According to the actual demand, some or all of the modules may be selected to realize the purpose of the solution of the embodiment of the present invention. Those skilled in the art will be able to understand and practice even if creative work has not been done.

상응하게, 본 발명 실시예는 또한 컴퓨터 프로그램이 저장되어 있는 컴퓨터 판독 가능 저장 매체를 제공하고, 상기 프로그램이 프로세서에 의해 실행될 경우 상기 임의의 한 항의 상기 다중 카메라 모듈 기반의 처리 방법의 단계를 구현한다.Correspondingly, an embodiment of the present invention also provides a computer-readable storage medium having a computer program stored therein, and when the program is executed by a processor, the steps of the multi-camera module-based processing method of any one of the above are implemented. .

본 발명 실시예는 프로그램 코드를 포함하는 하나 또는 복수 개의 저장 매체(자기 메모리, CD-ROM, 광학식 메모리 등을 포함하지만 이에 한정되지 않음)에서 실시된 컴퓨터 프로그램의 형태를 사용할 수 있다. 컴퓨터 사용 가능 저장 매체는 영구적 및 비영구적, 이동식 및 비이동식 매체를 포함하며, 임의의 방법 또는 기술로 정보 저장을 구현할 수 있다. 정보는 컴퓨터 판독 가능 명령어, 데이터 구조, 프로그램의 모듈 또는 다른 데이터일 수 있다. 컴퓨터의 저장 매체의 예시는, 상 변화 메모리(Phase-change Memory, PRAM), 정적 랜덤 액세스 메모리(Static Random Access Memory, SRAM), 동적 랜덤 액세스 메모리(Dynamic Random Access Memory, DRAM), 판독 전용 메모리(Read Only Memory, ROM), 전기적 소거 가능한 프로그래머블 판독 전용 메모리(Electrically Erasable Programmable Read-Only Memory, EEPROM), 플래시 메모리 또는 다른 메모리 기술, 광학 디스크 판독 전용 메모리(CD-ROM), 디지털 비디오 디스크(Digital Video Disc, DVD) 또는 다른 광학 메모리, 자기 테이프 카세트, 자기 테이프 카세트 저장 기기 또는 다른 자기 저장 장치 또는 임의의 다른 비전송 매체를 포함하지만 이에 한정되는 것은 아니며, 컴퓨터 기기에 의해 방문된 정보를 저장하도록 구성된다.The embodiment of the present invention may use the form of a computer program implemented in one or a plurality of storage media (including but not limited to magnetic memory, CD-ROM, optical memory, etc.) including program code. Computer-usable storage media includes permanent and non-persistent, removable and non-removable media, and any method or technology may implement storage of information. The information may be computer readable instructions, data structures, modules of programs, or other data. Examples of storage media of a computer include phase-change memory (PRAM), static random access memory (SRAM), dynamic random access memory (DRAM), read-only memory ( Read Only Memory (ROM), Electrically Erasable Programmable Read-Only Memory (EEPROM), Flash memory or other memory technology, Optical Disc Read Only Memory (CD-ROM), Digital Video Disc (Digital Video Disc) Disc, DVD) or other optical memory, magnetic tape cassette, magnetic tape cassette storage device or other magnetic storage device or any other non-transmission medium, configured to store information visited by a computer device. do.

상응하게, 본 발명 실시예는 다중 카메라 모듈 기반의 전자 기기를 제공하고, 상기 기기는 적어도 두 개의 상이한 시야각을 갖는 카메라 모듈; 프로세서; 및 프로세서에 의해 실행될 수 있는 명령어를 저장하도록 구성된 메모리를 포함하고; 여기서, 상기 프로세서는,Correspondingly, an embodiment of the present invention provides an electronic device based on a multi-camera module, the device comprising: a camera module having at least two different viewing angles; processor; and a memory configured to store instructions executable by the processor; Here, the processor,

제1 카메라 모듈이 현재 메인 촬영 상태이고, 상기 제1 카메라 모듈의 프레이밍 영역에서의 타겟 촬영 대상이 제2 카메라 모듈의 초기 프레이밍 영역에 존재하지 않을 경우, 상기 제2 카메라 모듈의 프레이밍 시야를 조정하여, 상기 제2 카메라 모듈의 조정된 프레이밍 영역이 상기 타겟 촬영 대상을 커버하도록 하고 - 상기 제2 카메라 모듈의 시야각은 상기 제1 카메라 모듈의 시야각보다 작음 - ;When the first camera module is in the current main shooting state, and the target shooting target in the framing area of the first camera module does not exist in the initial framing area of the second camera module, by adjusting the framing field of the second camera module , such that the adjusted framing area of the second camera module covers the target shooting object, wherein the viewing angle of the second camera module is smaller than the viewing angle of the first camera module;

서브 이미지와 메인 이미지를 융합 처리 - 상기 서브 이미지는 상기 제2 카메라 모듈에 의해 수집된 이미지이고, 상기 메인 이미지는 상기 제1 카메라 모듈에 의해 수집된 이미지임 - 하도록 구성된다.and fusing the sub-image and the main image, wherein the sub-image is an image collected by the second camera module, and the main image is an image collected by the first camera module.

도 9는 일 예시적 실시예에 따라 도시된 다중 카메라 모듈 기반의 이미지 처리 장치(900)의 구조 예시도이다. 예컨대, 장치(900)는 사용자 기기일 수 있고, 구체적으로 휴대폰, 컴퓨터, 디지털 단말, 메시징 기기, 게임 콘솔, 태블릿 기기, 의료 기기, 피트니스 기기, 개인 휴대용 단말, 및 스마트 시계, 스마트 안경, 스마트 팔찌와 같은 웨어러블 기기 등일 수 있다.Fig. 9 is a structural diagram of an image processing apparatus 900 based on a multi-camera module shown according to an exemplary embodiment. For example, the device 900 may be a user device, specifically a mobile phone, a computer, a digital terminal, a messaging device, a game console, a tablet device, a medical device, a fitness device, a personal portable terminal, and a smart watch, smart glasses, smart bracelet. It may be a wearable device such as

도 9를 참조하면, 장치(900)는 처리 컴포넌트(902), 메모리(904), 전원 컴포넌트(906), 멀티미디어 컴포넌트(908), 오디오 컴포넌트(910), 입력/출력(I/O) 인터페이스(912), 센서 컴포넌트(914) 및 통신 컴포넌트(916) 중 하나 또는 복수 개의 컴포넌트를 포함할 수 있다.Referring to FIG. 9 , an apparatus 900 includes a processing component 902 , a memory 904 , a power component 906 , a multimedia component 908 , an audio component 910 , an input/output (I/O) interface ( 912 , one or more of a sensor component 914 , and a communication component 916 .

처리 컴포넌트(902)는 일반적으로 디스플레이, 전화 통화, 데이터 통신, 카메라 조작 및 기록 조작과 관련된 조작과 같은 장치(900)의 전체적인 조작을 제어한다. 처리 컴포넌트(902)는, 상기 방법의 전부 또는 일부 단계를 완성하기 위해, 하나 또는 복수 개의 프로세서(920)를 포함하여 명령어를 실행하수 있다. 또한, 처리 컴포넌트(902)는 처리 컴포넌트(902) 및 다른 컴포넌트 사이의 상호작용을 용이하도록 하기 위해, 하나 또는 복수 개의 모듈을 포함할 수 있다. 예컨대, 처리 컴포넌트(902)는 멀티미디어 컴포넌트(908) 및 처리 컴포넌트(902) 사이의 상호작용을 용이하도록 하기 위해, 멀티미디어 모듈을 포함할 수 있다.Processing component 902 generally controls the overall operation of device 900 , such as operations related to displays, phone calls, data communications, camera manipulation, and record manipulation. The processing component 902 may include one or more processors 920 to execute instructions to complete all or some steps of the method. Further, processing component 902 may include one or a plurality of modules to facilitate interaction between processing component 902 and other components. For example, processing component 902 may include a multimedia module to facilitate interaction between multimedia component 908 and processing component 902 .

메모리(904)는 장치(900)의 조작을 지원하기 위해, 다양한 타입의 데이터를 저장하도록 구성된다. 이러한 데이터의 예는 장치(900)에서 조작되는 임의의 애플리케이션 또는 방법의 명령어, 연락인 데이터, 전화번호부 데이터, 메시지, 사진, 비디오 등을 포함한다. 메모리(904)는 정적 랜덤 액세스 메모리(SRAM), 전기적 소거 가능한 프로그래머블 판독 전용 메모리(EEPROM), 소거 가능한 프로그래머블 판독 전용 메모리(EPROM), 프로그래머블 판독 전용 메모리(PROM), 판독 전용 메모리(ROM), 자기 메모리, 플래시 메모리, 자기 디스크 또는 광 디스크 중 어느 한 타입의 휘발성 또는 비 휘발성 저장 기기 또는 이들의 조합에 의해 구현될 수 있다.Memory 904 is configured to store various types of data to support manipulation of device 900 . Examples of such data include instructions, contact data, phone book data, messages, photos, videos, and the like of any application or method operated on device 900 . Memory 904 includes static random access memory (SRAM), electrically erasable programmable read only memory (EEPROM), erasable programmable read only memory (EPROM), programmable read only memory (PROM), read only memory (ROM), magnetic It may be implemented by any one type of volatile or non-volatile storage device of memory, flash memory, magnetic disk, or optical disk, or a combination thereof.

전원 컴포넌트(906)는 장치(900)의 다양한 컴포넌트에 전력을 공급한다. 전원 컴포넌트(906)는 전력 관리 시스템, 하나 또는 복수 개의 전원 및 장치(900)를 위해 전력을 생성, 관리 및 분배하는 것과 관련된 다른 컴포넌트를 포함할 수 있다.Power component 906 supplies power to various components of device 900 . Power component 906 may include a power management system, one or more power sources, and other components related to generating, managing, and distributing power for device 900 .

멀티미디어 컴포넌트(908)는 상기 장치(900) 및 사용자 사이의 하나의 출력 인터페이스를 제공하는 스크린을 포함한다. 일부 실시예에 있어서, 스크린은 액정 모니터(Liquid Crystal Display, LCD) 및 터치 패널(Touch Pannel, TP)을 포함할 수 있다. 스크린이 터치 패널을 포함하는 경우, 사용자로부터 오는 입력 신호를 수신하기 위해 스크린은 터치 스크린으로서 구현될 수 있다. 터치 패널은 터치, 슬라이드 및 터치 패널 상의 제스처를 감지하기 위한 하나 또는 복수 개의 터치 센서를 포함한다. 상기 터치 센서는 터치 또는 슬라이드 동작의 경계를 감지할 뿐만 아니라, 상기 터치나 슬라이드 동작과 관련된 지속 시간 및 압력을 검출할 수 있다. 일부 실시예에 있어서, 멀티미디어 컴포넌트(908)는 전방 카메라 및 후방 카메라 중 적어도 하나를 포함한다. 장치(900)가 촬영 모드 또는 비디오 모드와 같은 조작 모드에 있을 경우, 전방 카메라 및 후방 카메라 중 적어도 하나는 외부의 멀티미디어 데이터를 수신할 수 있다. 각 전방 카메라 및 후방 카메라는 하나의 고정된 광학 렌즈 시스템이거나 초점 거리 및 광학 줌 기능을 가질 수 있다.Multimedia component 908 includes a screen that provides one output interface between the device 900 and the user. In some embodiments, the screen may include a liquid crystal display (LCD) and a touch panel (TP). When the screen includes a touch panel, the screen may be implemented as a touch screen to receive an input signal from a user. The touch panel includes one or more touch sensors for sensing touch, slide and gesture on the touch panel. The touch sensor may detect a boundary of a touch or slide operation, as well as a duration and pressure associated with the touch or slide operation. In some embodiments, multimedia component 908 includes at least one of a front camera and a rear camera. When the device 900 is in an operation mode such as a shooting mode or a video mode, at least one of the front camera and the rear camera may receive external multimedia data. Each front camera and rear camera may be a single fixed optical lens system or may have focal length and optical zoom functions.

오디오 컴포넌트(910)는 오디오 신호를 출력 및 입력 중 적어도 하나를 하도록 구성된다. 예컨대, 오디오 컴포넌트(910)는 하나의 마이크로폰(MICro Phone, MIC)을 포함하며, 장치(900)가 콜 모드, 녹음 모드 및 음성 인식 모드와 같은 조작 모드에 있을 경우, 마이크로폰은 외부 오디오 신호를 수신하도록 구성된다. 수신된 오디오 신호는 메모리(904)에 추가로 저장되거나 통신 컴포넌트(916)에 의해 전송될 수 있다. 일부 실시예에 있어서, 오디오 컴포넌트(910)는 오디오 신호를 출력하도록 구성된 하나의 스피커를 더 포함한다.The audio component 910 is configured to at least one of output and input an audio signal. For example, the audio component 910 includes one microphone (MICro Phone, MIC), and when the device 900 is in an operation mode such as a call mode, a recording mode, and a voice recognition mode, the microphone receives an external audio signal. configured to do The received audio signal may be further stored in memory 904 or transmitted by communication component 916 . In some embodiments, the audio component 910 further comprises one speaker configured to output an audio signal.

I/O 인터페이스(912)는 처리 컴포넌트(902)와 외부 인터페이스 모듈 사이에서 인터페이스를 제공하고, 상기 외부 인터페이스 모듈은 키보드, 클릭 휠, 버튼 등일 수 있다. 이러한 버튼에는 홈 버튼, 볼륨 버튼, 시작 버튼 및 잠금 버튼이 포함되지만 이에 한정되지 않는다.I/O interface 912 provides an interface between processing component 902 and an external interface module, which may be a keyboard, click wheel, button, or the like. Such buttons include, but are not limited to, a home button, a volume button, a start button, and a lock button.

센서 컴포넌트(914)는 장치(900)를 위한 다양한 방면의 상태 평가를 제공하도록 구성된 하나 또는 복수 개의 센서를 포함한다. 예컨대, 센서 컴포넌트(914)는 기기(900)의 온/오프 상태, 컴포넌트의 상대 위치를 검출할 수 있으며, 예컨대, 상기 컴포넌트는 장치(900)의 모니터와 키패드이며, 센서 컴포넌트(914)는 장치(900) 또는 장치(900)에서 하나의 컴포넌트의 위치 변화, 사용자와 장치(900) 접촉의 존재 유무, 장치(900) 방향 또는 가속/감속 및 장치(900)의 온도 변화를 검출할 수 있다. 센서 컴포넌트(914)는 그 어떤 물리적 접촉이 없이 근처의 물체의 존재를 검출하도록 구성된 근접 센서를 포함할 수 있다. 센서 컴포넌트(914)는 이미징 애플리케이션에 사용하도록 구성된 상보성 금속 산화막 반도체(Complementary Metal Oxide Semiconductor, CMOS) 이미지 센서 또는 전하 결합 소자(Charged Coupled Device, CCD) 이미지 센서와 같은 광 센서를 더 포함할 수 있다. 일부 실시예에 있어서, 상기 센서 컴포넌트(914)는 또한 가속도 센서, 자이로 센서, 자기 센서, 압력 센서 또는 온도 센서를 포함할 수 있다.The sensor component 914 includes one or a plurality of sensors configured to provide various aspects of condition assessment for the device 900 . For example, the sensor component 914 may detect an on/off state of the device 900 , a relative position of the component, eg, the component is a monitor and a keypad of the device 900 , and the sensor component 914 is a device It is possible to detect a change in the position of one component in 900 or in the device 900 , the presence or absence of contact between the user and the device 900 , a direction or acceleration/deceleration of the device 900 , and a change in the temperature of the device 900 . The sensor component 914 may include a proximity sensor configured to detect the presence of a nearby object without any physical contact. The sensor component 914 may further include an optical sensor, such as a Complementary Metal Oxide Semiconductor (CMOS) image sensor or a Charged Coupled Device (CCD) image sensor configured for use in imaging applications. In some embodiments, the sensor component 914 may also include an acceleration sensor, a gyro sensor, a magnetic sensor, a pressure sensor, or a temperature sensor.

통신 컴포넌트(916)는 장치(900)와 다른 기기 사이의 유선 또는 무선 방식으로 통신을 용이하게 하도록 구성된다. 장치(900)는 WiFi, 2G 또는 3G, 4G 롱 텀 에볼루션(Long Term Evolution, LTE), 5G 뉴 라디오(New Radio, NR) 또는 이들의 조합과 같은 통신 기준에 기반한 무선 인터넷에 액세스할 수 있다. 하나의 예시적 실시예에 있어서, 통신 컴포넌트(916)는 방송 채널에 의해 외부 방송 관리 시스템으로부터의 방송 신호 또는 방송 관련 정보를 수신한다. 하나의 예시적 실시예에 있어서, 상기 통신 컴포넌트(916)는 근거리 통신을 추진하는 근거리 무선 통신(Near Field Communication, NFC) 모듈을 더 포함한다. 예컨대, NFC 모듈은 무선 주파수 식별자(Radio Frequency Identification, RFID) 기술, 적외선 통신 규격(Infrared Data Association, IrDA) 기술, 초광대역 (Ultra Wideband, UWB) 기술, 블루투스 기술 및 다른 기술을 기반으로 구현될 수 있다.Communication component 916 is configured to facilitate communication between device 900 and other devices in a wired or wireless manner. Device 900 may access wireless Internet based on communication criteria such as WiFi, 2G or 3G, 4G Long Term Evolution (LTE), 5G New Radio (NR), or a combination thereof. In one exemplary embodiment, the communication component 916 receives a broadcast signal or broadcast related information from an external broadcast management system by way of a broadcast channel. In one exemplary embodiment, the communication component 916 further includes a Near Field Communication (NFC) module that facilitates near field communication. For example, the NFC module may be implemented based on Radio Frequency Identification (RFID) technology, Infrared Data Association (IrDA) technology, Ultra Wideband (UWB) technology, Bluetooth technology and other technologies. have.

예시적 실시예에 있어서, 장치(900)는 하나 또는 복수 개의 주문형 집적 회로(ApplicationSpecificIntegratedCircuit, ASIC), 디지털 신호 프로세서(DSP), 디지털 신호 처리 장치(Digital Signal Processor, DSP), 프로그래머블 논리 장치(Programmable Logic Device, PLD), 필드 프로그래머블 게이트 어레이(Field Programmable Gate Array, FPGA), 제어기, 마이크로 제어기, 마이크로 프로세서 또는 다른 전자 부품에 의해 구현되며, 장치(800)는 상기 방법을 실행하기 위한 것이다.In an exemplary embodiment, device 900 includes one or more ApplicationSpecific Integrated Circuits (ASICs), Digital Signal Processors (DSPs), Digital Signal Processors (DSPs), Programmable Logic Devices Device (PLD), Field Programmable Gate Array (FPGA), controller, microcontroller, microprocessor or other electronic component, and device 800 is for carrying out the method.

예시적 실시예에 있어서, 예컨대 명령어를 포함하는 메모리(904)와 같은 비 일시적 컴퓨터 판독 가능 저장 매체를 제공하며, 저장 매체에서의 명령어가 장치(900)의 프로세서(920)에 의해 실행될 경우, 장치(900)로 하여금 다중 카메라 모듈 기반의 이미지 처리 방법을 실행할 수 있도록 하고, 상기 방법은,In an exemplary embodiment, there is provided a non-transitory computer-readable storage medium, such as, for example, memory 904 comprising instructions, when the instructions in the storage medium are executed by the processor 920 of the apparatus 900 , the apparatus To enable the 900 to execute a multi-camera module-based image processing method, the method comprising:

제1 카메라 모듈이 현재 메인 촬영 상태이고, 상기 제1 카메라 모듈의 프레이밍 영역에서의 타겟 촬영 대상이 제2 카메라 모듈의 초기 프레이밍 영역에 존재하지 않을 경우, 상기 제2 카메라 모듈의 프레이밍 시야를 조정하여, 상기 제2 카메라 모듈의 조정된 프레이밍 영역이 상기 타겟 촬영 대상을 커버하도록 하는 단계 - 상기 제2 카메라 모듈의 시야각은 상기 제1 카메라 모듈의 시야각보다 작음 - ;When the first camera module is in the current main shooting state, and the target shooting target in the framing area of the first camera module does not exist in the initial framing area of the second camera module, by adjusting the framing field of the second camera module , allowing the adjusted framing area of the second camera module to cover the target photographing object, wherein the viewing angle of the second camera module is smaller than the viewing angle of the first camera module;

서브 이미지와 메인 이미지를 융합 처리 - 상기 서브 이미지는 상기 제2 카메라 모듈에 의해 수집된 이미지이고, 상기 메인 이미지는 상기 제1 카메라 모듈에 의해 수집된 이미지임 - 하는 단계를 포함한다.and fusing the sub-image and the main image, wherein the sub-image is an image collected by the second camera module, and the main image is an image collected by the first camera module.

상기 비 일시적 컴퓨터 판독 가능 저장 매체는 ROM, CD-ROM, 자기 테이프, 플로피 디스크 및 광학 데이터 저장 기기 등일 수 있다.The non-transitory computer-readable storage medium may be a ROM, a CD-ROM, a magnetic tape, a floppy disk, an optical data storage device, and the like.

본 기술분야의 기술자는 명세서를 고려하고 본문에 개시된 발명을 실시한 후, 본 발명 실시예의 다른 실시방안을 용이하게 생각해낼 수 있을 것이다. 본 발명 실시예는 본 발명 실시예의 임의의 변형, 용도 또는 적응성 변화를 포함하도록 의도되며, 이러한 변형, 용도 또는 적응성 변화는 본 발명 실시예의 일반적인 원리에 따르며, 본 발명 실시예에서 개시되지 않은 본 기술분야의 공지된 상식이나 통상적인 기술수단을 포함한다. 명세서 및 실시예는 다만 예시적인 것으로 간주되며, 본 발명 실시예의 진정한 범위 및 사상은 아래의 청구범위에 의해 지적된다.A person skilled in the art will be able to readily come up with other implementations of the embodiments of the present invention after considering the specification and practicing the invention disclosed herein. The present invention embodiment is intended to cover any modification, use or adaptability change of the present invention embodiment, and such modification, use or adaptability change follows the general principle of the present invention embodiment, and the present technology not disclosed in the present embodiment It includes known common knowledge or common technical means in the field. The specification and examples are to be regarded as illustrative only, the true scope and spirit of the embodiments of the present invention being indicated by the claims below.

이해해야 할 것은, 본 발명 실시예는 위에서 설명되고 도면에 도시된 정확한 구조에 한정되지 않으며, 이 범위를 벗어나지 않는 한 다양한 수정 및 변경을 진행할 수 있다. 본 발명 실시예의 범위는 첨부된 청구범위에 의해서만 한정된다.It should be understood that the embodiments of the present invention are not limited to the precise structure described above and shown in the drawings, and various modifications and changes may be made without departing from this scope. The scope of embodiments of the present invention is limited only by the appended claims.

본 실시예는, 제1 카메라 모듈이 현재 메인 촬영 상태이고, 제1 카메라 모듈의 프레이밍 영역중의 타겟 촬영 대상이 제2 카메라 모듈의 초기 프레이밍 영역에 존재하지 않을 경우에, 제2 카메라 모듈의 프레이밍 시야를 조정하여, 제2 카메라 모듈의 조정된 프레이밍 영역이 타겟 촬영 대상을 커버하도록 하며, 제2 카메라 모듈에 의해 수집된 서브 이미지와 제1 카메라 모듈에 의해 수집된 메인 이미지를 통합 처리하여, 이미지 화질을 향상하는 효과를 달성할 수 있다. 더 나아가, 제2 카메라 모듈에 대해 조정함으로써, 제2 카메라 모듈의 촬영 범위를 확장시켜, 조정 후의 프레이밍 영역이 초기 프레이밍 영역에 포함되지 않는 영역을 커버할 수 있도록 함으로써, 화질 향상을 진행할 수 없는 이미지 영역의 적어도 일부에 대한 화질 향상을 구현할 수 있도록 한다.In this embodiment, when the first camera module is in the current main shooting state and the target shooting target in the framing area of the first camera module does not exist in the initial framing area of the second camera module, framing of the second camera module The field of view is adjusted so that the adjusted framing area of the second camera module covers the target shooting target, and the sub-image collected by the second camera module and the main image collected by the first camera module are integrated and processed to obtain an image The effect of improving the picture quality can be achieved. Furthermore, by adjusting the second camera module, the shooting range of the second camera module is expanded so that the framing area after adjustment can cover an area not included in the initial framing area, so image quality cannot be improved It is possible to implement image quality improvement for at least a part of an area.

Claims (13)

다중 카메라 모듈 기반의 이미지 처리 방법으로서,
제1 카메라 모듈이 현재 메인 촬영 상태이고, 상기 제1 카메라 모듈의 프레이밍 영역에서의 타겟 촬영 대상이 제2 카메라 모듈의 초기 프레이밍 영역에 존재하지 않을 경우, 상기 제2 카메라 모듈의 프레이밍 시야를 조정하여, 상기 제2 카메라 모듈의 조정된 프레이밍 영역이 상기 타겟 촬영 대상을 커버하도록 하는 단계 - 상기 제2 카메라 모듈의 시야각은 상기 제1 카메라 모듈의 시야각보다 작음 - ;
서브 이미지와 메인 이미지를 융합 처리 - 상기 서브 이미지는 상기 제2 카메라 모듈에 의해 수집된 이미지이고, 상기 메인 이미지는 상기 제1 카메라 모듈에 의해 수집된 이미지임 - 하는 단계를 포함하며,
상기 제2 카메라 모듈의 프레이밍 시야를 조정하는 단계는,
상기 제2 카메라 모듈의 현재 프레이밍 시야를 결정하는 단계; 및
손떨림 보정 장치(Optical Image Stabilizer, OIS)를 통해 상기 제2 카메라 모듈의 현재 프레이밍 시야에 대해 최대 범위로의 조정을 진행하는 단계를 포함하고;
상기 타겟 촬영 대상은 상기 제2 카메라 모듈의 조정 후의 최대 프레이밍 영역과 초기 프레이밍 영역의 비 중첩 부분에서의 임의의 촬영 포인트인 것을 특징으로 하는 이미지 처리 방법.
A multi-camera module-based image processing method, comprising:
When the first camera module is in the current main shooting state, and the target shooting target in the framing area of the first camera module does not exist in the initial framing area of the second camera module, by adjusting the framing field of the second camera module , allowing the adjusted framing area of the second camera module to cover the target photographing object, wherein the viewing angle of the second camera module is smaller than the viewing angle of the first camera module;
fusion processing of the sub-image and the main image, wherein the sub-image is an image collected by the second camera module, and the main image is an image collected by the first camera module;
Adjusting the framing field of view of the second camera module comprises:
determining a current framing field of view of the second camera module; and
adjusting the current framing field of view of the second camera module to a maximum range through an Optical Image Stabilizer (OIS);
The image processing method, characterized in that the target shooting target is an arbitrary shooting point in the non-overlapping portion of the maximum framing area and the initial framing area after the adjustment of the second camera module.
삭제delete 제1항에 있어서,
상기 타겟 촬영 대상은 프레이밍 영역에서의 관심 대상이고, 상기 제2 카메라 모듈의 프레이밍 시야를 조정하는 단계는,
상기 타겟 촬영 대상과 상기 초기 프레이밍 영역의 위치 관계에 따라, 타겟 방향을 결정하는 단계; 및
OIS를 통해 상기 제2 카메라 모듈이 상기 타겟 방향을 따라 작동되도록 조정하는 단계를 포함하는 것을 특징으로 하는 이미지 처리 방법.
According to claim 1,
The target shooting target is a target of interest in a framing area, and adjusting the framing field of view of the second camera module includes:
determining a target direction according to a positional relationship between the target shooting target and the initial framing area; and
and adjusting the second camera module to operate along the target direction through OIS.
제1항에 있어서,
상기 타겟 촬영 대상은, 상기 제1 카메라 모듈의 프레이밍 영역에서의 포커스 포인트, 상기 포커스 포인트에 의해 결정된 초점 영역, 상기 제1 카메라 모듈의 프레이밍 영역에서의 지정된 일부 영역, 또는 상기 제1 카메라 모듈의 프레이밍 영역을 포함하는 것을 특징으로 하는 이미지 처리 방법.
According to claim 1,
The target shooting target is a focus point in the framing area of the first camera module, a focus area determined by the focus point, a designated partial area in the framing area of the first camera module, or framing of the first camera module An image processing method comprising a region.
제1항에 있어서,
상기 제2 카메라 모듈은 하나의 카메라를 포함하고; 상기 제2 카메라 모듈의 프레이밍 영역이 타겟 촬영 대상을 커버하도록 하는 단계는, 상기 타겟 촬영 대상이 제2 카메라 모듈의 동일한 프레이밍 영역 또는 동일한 프레이밍 영역에서의 특정 위치에 존재하도록 하는 단계를 포함하며; 상기 특정 위치는 기설정된 위치이거나, 검출된 조작 신호에 의해 결정된 위치인 것을 특징으로 하는 이미지 처리 방법.
According to claim 1,
the second camera module includes one camera; the step of allowing the framing area of the second camera module to cover the target photographing object includes the step of allowing the target photographing object to exist in the same framing area or a specific position in the same framing area of the second camera module; The specific position is a predetermined position or an image processing method, characterized in that the position determined by the detected manipulation signal.
제3항에 있어서,
상기 제2 카메라 모듈은 하나의 카메라를 포함하고, 상기 타겟 촬영 대상의 크기는 제2 카메라 모듈의 프레이밍 영역의 크기보다 크며; 상기 타겟 방향은 적어도 두 개의 서브 타겟 방향을 포함하고;
상기 OIS를 통해 상기 제2 카메라 모듈이 상기 타겟 방향을 따라 작동되도록 조정하는 단계는, 각 서브 타겟 방향의 경우, OIS를 통해 제2 카메라 모듈이 상기 서브 타겟 방향을 따라 작동되도록 조정하는 단계를 포함하며;
상기 타겟 촬영 대상은 제1 스티칭 프레이밍 영역에 있고, 상기 제1 스티칭 프레이밍 영역은 모든 2차 조정에 의해 획득된 조정된 프레이밍 영역이 스티칭되어 얻은 것이며;
상기 제2 카메라 모듈에 의해 수집된 서브 이미지는, 매 번 서브 타겟 방향에 따라 제2 카메라 모듈을 조정한 후 수집된 서브 이미지를 포함하는 것을 특징으로 하는 이미지 처리 방법.
4. The method of claim 3,
the second camera module includes one camera, and the size of the target shooting object is larger than the size of the framing area of the second camera module; the target direction includes at least two sub-target directions;
The step of adjusting the second camera module to operate along the target direction through the OIS includes, in each sub-target direction, adjusting the second camera module to operate along the sub-target direction through the OIS and;
the target shooting object is in a first stitching framing area, the first stitching framing area is obtained by stitching the adjusted framing areas obtained by all secondary adjustments;
The sub-images collected by the second camera module include sub-images collected after adjusting the second camera module according to the sub-target direction each time.
제3항에 있어서,
상기 제2 카메라 모듈은 적어도 두 개의 카메라를 포함하고, 상기 타겟 촬영 대상의 크기는 제2 카메라 모듈의 프레이밍 영역의 크기보다 크며; 상기 타겟 방향은 적어도 두 개의 서브 타겟 방향을 포함하고;
상기 OIS를 통해 상기 제2 카메라 모듈이 상기 타겟 방향을 따라 작동되도록 조정하는 단계는, OIS를 통해 상기 제2 카메라 모듈에서의 카메라가 대응되는 상기 서브 타겟 방향을 따라 작동되도록 각각 조정하는 단계를 포함하며;
상기 타겟 촬영 대상은 제2 스티칭 프레이밍 영역에 존재하고, 상기 제2 스티칭 프레이밍 영역은 각 카메라의 조정된 프레이밍 영역이 스티칭되어 얻은 것이며;
상기 제2 카메라 모듈에 의해 수집된 서브 이미지는 모든 조정 후의 카메라에 의해 수집된 이미지를 포함하는 것을 특징으로 하는 이미지 처리 방법.
4. The method of claim 3,
the second camera module includes at least two cameras, and the size of the target photographing object is larger than the size of the framing area of the second camera module; the target direction includes at least two sub-target directions;
The step of adjusting the second camera module to operate along the target direction through the OIS includes adjusting each of the cameras in the second camera module to operate along the corresponding sub-target direction through the OIS and;
the target shooting object exists in a second stitching framing area, and the second stitching framing area is obtained by stitching the adjusted framing area of each camera;
and the sub-images collected by the second camera module include images collected by the camera after all adjustments.
제1항 및 제3항 내지 제7항 중 어느 한 항에 있어서,
상기 방법은,
제1 카메라 모듈이 현재 메인 촬영 상태이고, 상기 제1 카메라 모듈의 프레이밍 영역에서의 타겟 촬영 대상이 제2 카메라 모듈의 초기 프레이밍 영역에 존재하지 않을 경우, 제2 카메라 모듈에 의해 수집된 서브 이미지와 제1 카메라 모듈에 의해 메인 이미지를 융합 처리하는 단계를 더 포함하는 것을 특징으로 하는 이미지 처리 방법.
8. The method according to any one of claims 1 and 3 to 7,
The method is
When the first camera module is in the current main shooting state and the target shooting target in the framing area of the first camera module does not exist in the initial framing area of the second camera module, the sub-image collected by the second camera module and Image processing method, characterized in that it further comprises the step of fusion processing the main image by the first camera module.
제1항 및 제3항 내지 제7항 중 어느 한 항에 있어서,
상기 융합 처리 단계는 프레이밍 과정에서 실행되거나, 촬영 조작 명령어가 수신된 후 실행되는 것을 특징으로 하는 이미지 처리 방법.
8. The method according to any one of claims 1 and 3 to 7,
The fusion processing step is an image processing method, characterized in that it is executed during a framing process or after a shooting manipulation command is received.
제1항 및 제3항 내지 제7항 중 어느 한 항에 있어서,
상기 다중 카메라 모듈은 시야각이 점차적으로 감소되는 광각 카메라 모듈, 범용 카메라 모듈, 장초점 카메라 모듈을 포함하는 것을 특징으로 하는 이미지 처리 방법.
8. The method according to any one of claims 1 and 3 to 7,
The multi-camera module is an image processing method, characterized in that it comprises a wide-angle camera module, a general-purpose camera module, and a long-focus camera module whose viewing angle is gradually reduced.
다중 카메라 모듈 기반의 이미지 처리 장치로서,
상기 장치는,
제1 카메라 모듈이 현재 메인 촬영 상태이고, 상기 제1 카메라 모듈의 프레이밍 영역에서의 타겟 촬영 대상이 제2 카메라 모듈의 초기 프레이밍 영역에 존재하지 않을 경우, 상기 제2 카메라 모듈의 프레이밍 시야를 조정하여, 상기 제2 카메라 모듈의 조정된 프레이밍 영역이 상기 타겟 촬영 대상을 커버하도록 구성된 시야 조정 모듈 - 상기 제2 카메라 모듈의 시야각은 상기 제1 카메라 모듈의 시야각보다 작음 - ; 및
서브 이미지와 메인 이미지를 융합 처리하도록 구성된 융합 처리 모듈 - 상기 서브 이미지는 상기 제2 카메라 모듈에 의해 수집된 이미지이고, 상기 메인 이미지는 상기 제1 카메라 모듈에 의해 수집된 이미지임 - 을 포함하며,
상기 시야 조정 모듈은 또한,
상기 제2 카메라 모듈의 현재 프레이밍 시야를 결정하고;
손떨림 보정 장치(Optical Image Stabilizer, OIS)를 통해 상기 제2 카메라 모듈의 현재 프레이밍 시야에 대해 최대 범위로의 조정을 진행하도록 구성되며,
상기 타겟 촬영 대상은 상기 제2 카메라 모듈의 조정 후의 최대 프레이밍 영역과 초기 프레이밍 영역의 비 중첩 부분에서의 임의의 촬영 포인트인 것을 특징으로 하는 이미지 처리 장치.
As an image processing device based on a multi-camera module,
The device is
When the first camera module is in the current main shooting state, and the target shooting target in the framing area of the first camera module does not exist in the initial framing area of the second camera module, by adjusting the framing field of the second camera module , a field of view adjustment module configured such that the adjusted framing area of the second camera module covers the target photographing object, wherein the viewing angle of the second camera module is smaller than the viewing angle of the first camera module; and
a fusion processing module configured to fuse a sub-image and a main image, wherein the sub-image is an image collected by the second camera module, and the main image is an image collected by the first camera module;
The field of view adjustment module is also
determine a current framing field of view of the second camera module;
configured to adjust the current framing field of view of the second camera module to a maximum range through an Optical Image Stabilizer (OIS),
The image processing apparatus according to claim 1, wherein the target photographing target is an arbitrary photographing point in a non-overlapping portion of the maximum framing area and the initial framing area after adjustment of the second camera module.
다중 카메라 모듈 기반의 전자 기기로서,
적어도 두 개의 상이한 시야를 갖는 카메라 모듈;
프로세서; 및
프로세서에 의해 실행될 수 있는 명령어를 저장하도록 구성된 메모리를 포함하며;
상기 프로세서는,
제1 카메라 모듈이 현재 메인 촬영 상태이고, 상기 제1 카메라 모듈의 프레이밍 영역에서의 타겟 촬영 대상이 제2 카메라 모듈의 초기 프레이밍 영역에 존재하지 않을 경우, 상기 제2 카메라 모듈의 프레이밍 시야를 조정하여, 상기 제2 카메라 모듈의 조정된 프레이밍 영역이 상기 타겟 촬영 대상을 커버하도록 하고 - 상기 제2 카메라 모듈의 시야각은 상기 제1 카메라 모듈의 시야각보다 작음 - ;
서브 이미지와 메인 이미지를 융합 처리 - 상기 서브 이미지는 상기 제2 카메라 모듈에 의해 수집된 이미지이고, 상기 메인 이미지는 상기 제1 카메라 모듈에 의해 수집된 이미지임 - 하도록 구성되고,
상기 프로세서는 또한,
상기 제2 카메라 모듈의 현재 프레이밍 시야를 결정하고;
손떨림 보정 장치(Optical Image Stabilizer, OIS)를 통해 상기 제2 카메라 모듈의 현재 프레이밍 시야에 대해 최대 범위로의 조정을 진행하도록 구성되며,
상기 타겟 촬영 대상은 상기 제2 카메라 모듈의 조정 후의 최대 프레이밍 영역과 초기 프레이밍 영역의 비 중첩 부분에서의 임의의 촬영 포인트인 것을 특징으로 하는 전자 기기.
As an electronic device based on a multi-camera module,
a camera module having at least two different fields of view;
processor; and
a memory configured to store instructions executable by the processor;
The processor is
When the first camera module is in the current main shooting state, and the target shooting target in the framing area of the first camera module does not exist in the initial framing area of the second camera module, by adjusting the framing field of the second camera module , such that the adjusted framing area of the second camera module covers the target shooting object, wherein the viewing angle of the second camera module is smaller than the viewing angle of the first camera module;
and a sub-image and a main image are fused, wherein the sub-image is an image collected by the second camera module, and the main image is an image collected by the first camera module;
The processor is also
determine a current framing field of view of the second camera module;
configured to adjust the current framing field of view of the second camera module to a maximum range through an Optical Image Stabilizer (OIS),
The electronic device, characterized in that the target shooting target is an arbitrary shooting point in the non-overlapping portion of the maximum framing area and the initial framing area after the adjustment of the second camera module.
컴퓨터 판독 가능 저장 매체로서,
컴퓨터 프로그램이 저장되어 있고, 상기 프로그램이 프로세서에 의해 실행될 경우 제1항 및 제3항 내지 제7항 중 어느 한 항의 상기 방법의 단계를 구현하는 것을 특징으로 하는 컴퓨터 판독 가능 저장 매체.
A computer readable storage medium comprising:
A computer readable storage medium having a computer program stored thereon and implementing the steps of the method of any one of claims 1 and 3 to 7 when the program is executed by a processor.
KR1020207007604A 2019-09-10 2019-12-06 Multi-camera module-based image processing method, device, device and medium KR102278474B1 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201910855143.3 2019-09-10
CN201910855143.3A CN110493526B (en) 2019-09-10 2019-09-10 Image processing method, device, equipment and medium based on multiple camera modules
PCT/CN2019/123658 WO2021047077A1 (en) 2019-09-10 2019-12-06 Image processing method, apparatus, and device based on multiple photographing modules, and medium

Publications (2)

Publication Number Publication Date
KR20210032922A KR20210032922A (en) 2021-03-25
KR102278474B1 true KR102278474B1 (en) 2021-07-20

Family

ID=68557206

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020207007604A KR102278474B1 (en) 2019-09-10 2019-12-06 Multi-camera module-based image processing method, device, device and medium

Country Status (6)

Country Link
US (1) US11070744B2 (en)
EP (1) EP3793185A1 (en)
JP (1) JP7178402B2 (en)
KR (1) KR102278474B1 (en)
CN (1) CN110493526B (en)
WO (1) WO2021047077A1 (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110493526B (en) 2019-09-10 2020-11-20 北京小米移动软件有限公司 Image processing method, device, equipment and medium based on multiple camera modules
WO2021168804A1 (en) * 2020-02-28 2021-09-02 深圳市大疆创新科技有限公司 Image processing method, image processing apparatus and image processing system
CN111479065B (en) * 2020-04-16 2021-08-10 北京迈格威科技有限公司 Camera field angle synchronization method and device and image shooting method and device
CN111770277A (en) * 2020-07-31 2020-10-13 RealMe重庆移动通信有限公司 Auxiliary shooting method, terminal and storage medium
CN112399076B (en) * 2020-10-27 2022-08-02 维沃移动通信有限公司 Video shooting method and device
CN112511744A (en) * 2020-11-26 2021-03-16 南京维沃软件技术有限公司 Image display method and device
CN112995467A (en) * 2021-02-05 2021-06-18 深圳传音控股股份有限公司 Image processing method, mobile terminal and storage medium
CN113364975B (en) * 2021-05-10 2022-05-20 荣耀终端有限公司 Image fusion method and electronic equipment
CN115209191A (en) * 2022-06-14 2022-10-18 海信视像科技股份有限公司 Display device, terminal device and method for sharing camera among devices
CN115499589A (en) * 2022-09-19 2022-12-20 维沃移动通信有限公司 Shooting method, shooting device, electronic equipment and medium

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015025878A1 (en) * 2013-08-21 2015-02-26 オリンパスイメージング株式会社 Imaging device, imaging method, and program
CN106385541A (en) 2016-09-30 2017-02-08 虹软(杭州)科技有限公司 Method for realizing zooming through wide-angle photographing component and long-focus photographing component

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002335435A (en) * 2001-05-11 2002-11-22 Fujitsu Ltd Vide photographing device
JP2009044475A (en) * 2007-08-09 2009-02-26 Victor Co Of Japan Ltd Monitor camera system
JP5237978B2 (en) * 2010-02-12 2013-07-17 パナソニック株式会社 Imaging apparatus and imaging method, and image processing method for the imaging apparatus
JP4787906B1 (en) * 2010-03-30 2011-10-05 富士フイルム株式会社 Imaging apparatus, method and program
JP5569965B2 (en) * 2010-06-15 2014-08-13 独立行政法人産業技術総合研究所 Lightweight and highly heat-resistant hard material with excellent oxidation resistance and method for producing the same
CN102821238B (en) * 2012-03-19 2015-07-22 北京泰邦天地科技有限公司 Wide-field ultra-high-resolution imaging system
JP5843751B2 (en) * 2012-12-27 2016-01-13 株式会社ソニー・コンピュータエンタテインメント Information processing apparatus, information processing system, and information processing method
US20150145950A1 (en) 2013-03-27 2015-05-28 Bae Systems Information And Electronic Systems Integration Inc. Multi field-of-view multi sensor electro-optical fusion-zoom camera
KR102157675B1 (en) * 2014-07-25 2020-09-18 삼성전자주식회사 Image photographing apparatus and methods for photographing image thereof
US20160227100A1 (en) * 2015-01-29 2016-08-04 Qualcomm Incorporated Dual camera systems and methods for rapid 3a convergence and high dynamic range exposure metering
CN104796615B (en) * 2015-04-27 2018-12-07 惠州Tcl移动通信有限公司 A kind of big pixel image pickup method, system and the mobile terminal of OIS anti-vibration motor
KR20170123125A (en) * 2016-04-28 2017-11-07 엘지전자 주식회사 Mobile terminal and method for controlling the same
US10432869B2 (en) * 2016-09-07 2019-10-01 Multimedia Image Solution Limited Method of utilizing wide-angle image capturing element and long-focus image capturing element for achieving clear and precise optical zooming mechanism
KR102609464B1 (en) 2016-10-18 2023-12-05 삼성전자주식회사 The Electronic Device Shooting Image
CN106791377B (en) * 2016-11-29 2019-09-27 Oppo广东移动通信有限公司 Control method, control device and electronic device
DE102017210408A1 (en) * 2017-06-21 2018-12-27 Conti Temic Microelectronic Gmbh Camera system with different shutter modes
KR20190000520A (en) 2017-06-23 2019-01-03 엘지전자 주식회사 Solar cell panel and method for manufacturing the same
CN109923850B (en) * 2017-07-07 2020-09-11 华为技术有限公司 Image capturing device and method
WO2019048904A1 (en) * 2017-09-06 2019-03-14 Corephotonics Ltd. Combined stereoscopic and phase detection depth mapping in a dual aperture camera
CN107770448A (en) 2017-10-31 2018-03-06 努比亚技术有限公司 A kind of image-pickup method, mobile terminal and computer-readable storage medium
EP3487162B1 (en) * 2017-11-16 2021-03-17 Axis AB Method, device and camera for blending a first and a second image having overlapping fields of view
CN108377342B (en) * 2018-05-22 2021-04-20 Oppo广东移动通信有限公司 Double-camera shooting method and device, storage medium and terminal
CN109194881A (en) * 2018-11-29 2019-01-11 珠海格力电器股份有限公司 Image processing method, system and terminal
CN109379522A (en) 2018-12-06 2019-02-22 Oppo广东移动通信有限公司 Imaging method, imaging device, electronic device and medium
CN110493526B (en) * 2019-09-10 2020-11-20 北京小米移动软件有限公司 Image processing method, device, equipment and medium based on multiple camera modules

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015025878A1 (en) * 2013-08-21 2015-02-26 オリンパスイメージング株式会社 Imaging device, imaging method, and program
CN106385541A (en) 2016-09-30 2017-02-08 虹软(杭州)科技有限公司 Method for realizing zooming through wide-angle photographing component and long-focus photographing component

Also Published As

Publication number Publication date
WO2021047077A1 (en) 2021-03-18
US11070744B2 (en) 2021-07-20
EP3793185A1 (en) 2021-03-17
CN110493526B (en) 2020-11-20
JP2022502871A (en) 2022-01-11
US20210075975A1 (en) 2021-03-11
KR20210032922A (en) 2021-03-25
JP7178402B2 (en) 2022-11-25
CN110493526A (en) 2019-11-22

Similar Documents

Publication Publication Date Title
KR102278474B1 (en) Multi-camera module-based image processing method, device, device and medium
KR102310430B1 (en) Filming method, apparatus and device
US11010020B2 (en) Method, apparatus and storage medium for displaying shortcut operation panel
US9389758B2 (en) Portable electronic device and display control method
EP2991336B1 (en) Image capturing method and apparatus
RU2608545C1 (en) Method and device for backup video
WO2014083914A1 (en) Image capture device and focus control method
CN110769147B (en) Shooting method and electronic equipment
US20120194709A1 (en) Image pickup apparatus
WO2017054677A1 (en) Mobile terminal photographing system and mobile terminal photographing method
WO2017088662A1 (en) Focusing method and device
CN115134505B (en) Preview picture generation method and device, electronic equipment and storage medium
CN110876014B (en) Image processing method and device, electronic device and storage medium
US11016660B2 (en) Method and apparatus for responding to gesture operation and storage medium
CN112188096A (en) Photographing method and device, terminal and storage medium
US20130235233A1 (en) Methods and devices for capturing images
US11555696B2 (en) Electronic terminal, photographing method and device, and storage medium
CN112866555B (en) Shooting method, shooting device, shooting equipment and storage medium
EP2637397A1 (en) Methods and devices for capturing images
CN111343375A (en) Image signal processing method and device, electronic device and storage medium
WO2023225910A1 (en) Video display method and apparatus, terminal device, and computer storage medium
CN114677287A (en) Image fusion method, image fusion device and storage medium
CN114827447A (en) Image shake correction method and apparatus
JPWO2019181299A1 (en) Imaging control device, imaging device, imaging control method, and imaging control program

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant