KR20220124244A - 이미지 처리 방법, 전자 기기 및 컴퓨터 판독 가능 저장 매체 - Google Patents

이미지 처리 방법, 전자 기기 및 컴퓨터 판독 가능 저장 매체 Download PDF

Info

Publication number
KR20220124244A
KR20220124244A KR1020227027486A KR20227027486A KR20220124244A KR 20220124244 A KR20220124244 A KR 20220124244A KR 1020227027486 A KR1020227027486 A KR 1020227027486A KR 20227027486 A KR20227027486 A KR 20227027486A KR 20220124244 A KR20220124244 A KR 20220124244A
Authority
KR
South Korea
Prior art keywords
image
focusing
tilt shift
target
images
Prior art date
Application number
KR1020227027486A
Other languages
English (en)
Inventor
지안웨이 유안
Original Assignee
비보 모바일 커뮤니케이션 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 비보 모바일 커뮤니케이션 컴퍼니 리미티드 filed Critical 비보 모바일 커뮤니케이션 컴퍼니 리미티드
Publication of KR20220124244A publication Critical patent/KR20220124244A/ko

Links

Images

Classifications

    • H04N5/23212
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/676Bracketing for image capture at varying focusing conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/958Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging
    • H04N5/23232
    • H04N5/232935
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

본 발명의 실시예는 이미지 처리 방법, 전자 기기 및 컴퓨터 판독 가능 저장 매체를 제공하는데, 상기 방법은, N장의 이미지를 획득하는 단계; N장의 이미지에서의 기준 이미지를 결정하되; 여기서, 기준 이미지는 타깃 틸트 시프트 오브젝트의 해상도가 기설정 임계값보다 큰 이미지인 단계; 사용자가 입력한 틸트 시프트 파라미터를 획득하되, 여기서, 틸트 시프트 파라미터는 타깃 포커싱면의 방위 및 틸트 시프트 영역의 범위를 지시하기 위한 것인 단계; 틸트 시프트 파라미터에 근거하여 타깃 포커싱면과 교차하는 합성 대기 이미지를 결정하는 단계; 합성 대기 이미지와 기준 이미지의 포커싱 거리에 근거하여 N장의 이미지를 합성 처리하고 타깃 틸트 시프트 이미지를 출력하는 단계를 포함한다.

Description

이미지 처리 방법, 전자 기기 및 컴퓨터 판독 가능 저장 매체
[관련 출원에 대한 참조]
본 출원은 2020년 1월 22일 중국에 제출된 특허 명칭이 "이미지 처리 방법, 전자 기기 및 컴퓨터 판독 가능 저장 매체"인, 중국 특허 출원 제202010075815.1호의 우선권을 주장하며, 그 전체 내용을 본 출원에 원용한다.
본 개시는 이미지 기술분야에 관한 것으로, 특히 이미지 처리 방법, 전자 기기 및 컴퓨터 판독 가능 저장 매체에 관한 것이다.
촬영 업계에서, 틸트 시프트 렌즈를 사용하여 미니어처 특수효과를 가지는 틸트 시프트 사진을 촬영하는 것은 이미 흔한 일이 되었다.
휴대폰, 태블릿 컴퓨터 등 전자 기기의 사이즈 크기의 한정으로 인하여 전자 기기에는 부피가 큰 틸트 시프트 렌즈를 장착하기 어렵게 되는 바, 사용자가 전자 기기를 사용하여 틸트 시프트 사진을 촬영하는 수요를 만족시키기 위하여 이미 사진 합성 방법을 통해 틸트 시프트 효과를 시뮬레이션하는 방식이 존재한다. 촬영을 진행할 경우, 상이한 사진의 이미지 필드 정보를 기록하고, 이미지 필드 정보에 기반하여 상이한 사진을 합성하여 틸트 시프트 효과를 시뮬레이션한다.
그러나, 기존의 합성 방법에서 기록한 이미지 필드 정보는 실제 공간에서 촬영된 오브젝트의 거리 관계를 구현하기 어려우므로 미니어처 특수효과가 자연스럽지 못하고, 형성된 틸트 시프트 효과가 양호하지 않다.
본 발명의 실시예는 이미지 처리 방법, 전자 기기 및 컴퓨터 판독 가능 저장 매체를 제공하여 기존의 사진 합성 방법이 형성한 틸트 시프트 효과가 양호하지 않은 문제점을 해결할 수 있다.
상기 기술적 과제를 해결하기 위하여 본 발명은 아래와 같이 구현한다.
제1 양태에서, 본 발명의 실시예는 전자 기기에 응용되는 이미지 처리 방법을 제공하는데, 상기 방법은,
N장의 이미지를 획득하되, 여기서, 상기 N장의 이미지는 동일한 촬영위치에 기반하여 촬영하는 동시에 포커싱 본체가 각각 상이한 것이고, 상이한 포커싱 본체는 상이한 포커싱 거리와 대응되는 단계;
상기 N장의 이미지에서의 기준 이미지를 결정하되; 여기서, 상기 기준 이미지는 타깃 틸트 시프트 오브젝트의 해상도가 기설정 임계값보다 큰 이미지인 단계;
사용자가 입력한 틸트 시프트 파라미터를 획득하되, 여기서, 상기 틸트 시프트 파라미터는 타깃 포커싱면의 방위 및 틸트 시프트 영역의 범위를 지시하기 위한 것인 단계;
상기 틸트 시프트 파라미터에 근거하여 상기 타깃 포커싱면과 교차하는 합성 대기 이미지를 결정하는 단계;
상기 합성 대기 이미지와 상기 기준 이미지의 포커싱 거리에 기반하여 상기 N장의 이미지에 대해 이미지 합성을 진행하고 타깃 틸트 시프트 이미지를 출력하는 단계를 포함한다.
제2 양태에서, 본 발명의 실시예는 전자 기기를 더 제공하는데, 상기 전자 기기는,
N장의 이미지를 획득하되, 여기서, 상기 N장의 이미지는 동일한 촬영위치에 기반하여 촬영한 것인 동시에 포커싱 본체가 각각 상이한 것이고, 상이한 포커싱 본체는 상이한 포커싱 거리와 대응되는 이미지 획득 모듈;
상기 N장의 이미지에서의 기준 이미지를 결정하되; 여기서, 상기 기준 이미지는 타깃 틸트 시프트 오브젝트의 해상도가 기설정 임계값보다 큰 이미지인 기준 이미지 결정 모듈;
사용자가 입력한 틸트 시프트 파라미터를 획득하되, 여기서, 상기 틸트 시프트 파라미터는 타깃 포커싱면의 방위 및 틸트 시프트 영역의 범위를 지시하기 위한 것인 틸트 시프트 파라미터 수신 모듈;
상기 틸트 시프트 파라미터에 근거하여 상기 타깃 포커싱면과 교차하는 합성 대기 이미지를 결정하는 합성 대기 이미지 결정 모듈;
상기 합성 대기 이미지와 상기 기준 이미지의 포커싱 거리에 기반하여 상기 N장의 이미지를 합성 처리하고 타깃 틸트 시프트 이미지를 출력하는 합성 처리 모듈을 포함한다.
제3 양태에서, 본 발명의 실시예는 전자 기기를 더 제공하는데, 프로세서, 메모리 및 상기 메모리에 저장되어 상기 프로세서에서 운행될 수 있는 컴퓨터 프로그램을 포함하는 전자 기기에 있어서, 상기 컴퓨터 프로그램이 상기 프로세서에 의해 실행될 경우, 제1 양태에 따른 이미지 처리 방법의 단계를 구현한다.
제4 양태에서, 본 발명의 실시예는 컴퓨터 판독 가능 저장 매체를 더 제공하는데, 상기 컴퓨터 판독 가능 저장 매체에는 컴퓨터 프로그램이 저장되고, 상기 컴퓨터 프로그램이 프로세서에 의해 실행될 경우, 제1 양태에 따른 이미지 처리 방법의 단계를 구현한다.
본 발명의 실시예에서는, 상이한 포커싱 본체를 가지는 한 그룹의 N장의 이미지에서 기준 이미지와 합성 대기 이미지를 각각 결정하되, 기준 이미지는 타깃 틸트 시프트 오브젝트의 해상도가 기설정 임계값보다 큰 이미지로서, 즉 틸트 시프트 특수효과에서 뚜렷한 촬영 오브젝트와 대응되는 이미지를 유지해야 한다. 합성 대기 이미지는 타깃 포커싱면의 방위 및 틸트 시프트 영역의 범위에 근거하여 결정한 타깃 포커싱면과 교차하는 기타 이미지이다. 따라서, 기준 이미지와 합성 대기 이미지는 상이한 포커싱 본체의 포커싱 거리 정보를 각각 기록하고, 이러한 거리 정보는 이미지 화면에서의 상이한 포커싱 본체의 공간 위치 관계를 구현할 수 있으며, 합성 대기 이미지와 기준 이미지의 포커싱 거리에 근거하여 합성 처리를 진행함으로써 합성된 후의 틸트 시프트 이미지에서의 뚜렷한 영역과 희미한 영역의 과도가 보다 자연스럽고 평온하도록 하여 틸트 시프트 효과를 보다 자연스럽게 시뮬레이션 하고, 미니어처 효과가 보다 진실하도록 한다.
도 1은 본 발명의 실시예에서 제공하는 이미지 처리 방법의 흐름도를 나타내고;
도 2는 본 발명의 실시예에 따른 미들 뷰파인더의 윈도우의 모식도를 나타내며;
도 3은 본 발명의 실시예에 따른 N장의 이미지의 모식도를 나타내고;
도 4는 본 발명의 실시예에 따른 틸트 시프트 이미지의 모식도를 나타내며;
도 5는 본 발명의 실시예에 따른 틸트 시프트 파라미터의 모식도를 나타내고;
도 6은 본 발명의 실시예에서 제공하는 전자 기기의 구조 블록도를 나타내며;
도 7은 본 발명의 실시예에서 제공하는 전자 기기의 구조 블록도를 나타낸다.
이하 본 발명의 실시예의 도면과 결부하여 본 발명의 실시예의 기술적 해결수단을 뚜렷하고 완전하게 설명하고자 하는데 설명된 실시예는 단지 본 발명의 일부 실시예일 뿐 모든 실시예가 아님은 자명한 것이다. 본 발명의 실시예에 기반하여 본 기술분야에서 통상의 지식을 가진 자들이 진보적인 창출에 힘쓸 필요가 없이 획득한 모든 기타 실시예는 모두 본 발명의 보호범위에 속한다.
명세서의 전편에서 언급한 "하나의 실시예”, "일 실시예”는 실시예와 관련된 특정된 특징, 구조 또는 특성이 본 발명의 적어도 하나의 실시예에 포함됨을 의미한다는 것을 이해해야 한다. 따라서, 전반 명세서의 여러 곳에 나타나는 "하나의 실시예에서”, "일 실시예에서”는 동일한 실시예를 가리키는 것이 아닐 수 있다. 이 밖에, 이러한 특정된 특징, 구조 또는 특성은 임의의 적합한 방식으로 하나 또는 다수의 실시예에 결부될 수 있다.
본 발명의 여러 가지 실시예에서, 아래 각 과정의 순번의 크기는 수행순서의 선후를 의미하지 않는 바, 각 과정의 수행순서는 응당 이의 기능 및 내적인 논리로 결정해야 하고, 본 발명의 실시예의 실시과정에 대해 그 어떤 한정도 하지 말아야 한다는 것을 이해해야 한다.
도 1을 참조하면, 이는 본 발명의 실시예에서 제공하는 이미지 처리 방법의 흐름도를 도시하며, 이 방법의 단계는 다음과 같다.
단계101, N장의 이미지를 획득하되, 여기서, 상기 N장의 이미지는 동일한 촬영위치에 기반하여 촬영하는 동시에 포커싱 본체가 각각 상이한 것이고, 상이한 포커싱 본체는 상이한 포커싱 거리와 대응된다. 쉽게 이해할 수 있는 것은, 틸트 시프트는 한편으로 광각 렌즈로 인한 원근 왜곡 결함을 보상할 수 있고, 다른 한편으로는 광축의 변화를 통해 미니어처와 같은 시각 특수효과를 구현할 수 있다. 전통적인 카메라 분야에서는, 미니어처 효과를 구현하기 위하여 샴 법칙에 의해 틸트 시프트 렌즈를 사용하여 구현함으로써 촬영된 사진의 일부 영역이 뚜렷하고 다른 일부 영역이 희미하도록 하는데, 뚜렷한 영역과 희미한 영역은 서로 비교되어 시청자들에게 시각적으로 미니어처의 체험을 제공한다.
본 발명의 실시예에서는 이러한 미니어처 특수효과를 구현하기 위하여 N장의 이미지를 획득하는데, N장의 이미지는 적어도, 각 이미지가 적어도 동일한 촬영위치에서 촬영되는 동시에 포커싱 본체가 상이한 조건을 만족시켜야 한다. 만약 N장의 이미지에서의 각 이미지가 상이한 위치에서 촬영되면 각 이미지의 화면 콘텐츠도 조금씩 달라 후속적으로 정렬하여 합성할 수 없게 된다. 이해할 수 있다 시피, 이미지의 합성을 구현하기 위하여 N은 적어도 2여야 한다. 동일한 위치에서의 촬영을 담보하기 위하여 사용자는 촬영을 진행할 때 기기를 삼발이에 고정하여 촬영하거나 또는 고정을 유지하도록 핸드헬드 기기가 화면의 가상 수평기에 의해 촬영각도 방위를 프롬프팅하도록 할 수 있다.
N장의 이미지에서의 각 이미지의 포커싱 본체가 상이하면 상이한 이미지에서 뚜렷하게 유지되는 본체 오브젝트도 상이하고, 어느 한 사진을 촬영할 때 카메라의 위치가 고정되므로 카메라 전방의 촬영되는 오브젝트의 원근 거리도 각각 상이하므로 이 사진의 오리지널 이미지 인코딩 데이터(속칭 raw)에는 각 포커싱 본체의 포커싱 거리가 기록될 수 있다. 이 포커싱 거리는 바로 카메라와 포커싱 본체의 거리이고, 구체적으로, 이 거리는 통상적으로 이미지 센서와 포커싱 본체의 거리를 말한다.
이하 도 2에 예시된 촬영 시나리오를 예로 들어 뷰파인더를 통해 카메라 앞에서 가까운 곳으로부터 먼 곳으로 사람, 차량, 나무, 산이 분포되었다는 것을 관찰할 수 있다. 도 3에 도시된 바와 같이, 포커싱 포인트가 사람을 포커싱 본체로 선택할 경우, 촬영한 이미지(P1)에서 사람은 뚜렷한 본체이고, 사람을 제외한 요소는 희미하다. 포커싱 포인트가 차량을 포커싱 본체로 선택할 경우, 촬영한 이미지(P2)에서 차량은 뚜렷한 본체이고, 차량을 제외한 요소는 희미하다. 포커싱 포인트가 나무를 포커싱 본체로 선택할 경우, 촬영한 이미지(P3)에서 나무는 뚜렷한 본체이고, 나무를 제외한 요소는 희미하다. 포커싱 포인트가 산을 포커싱 본체로 선택할 경우, 촬영한 이미지(P4)에서 산은 뚜렷한 본체이고, 산을 제외한 요소는 희미하다. P1, P2, P3 및 P4 이 4장의 이미지의 raw에는 각 포커싱 본체의 포커싱 거리가 각각 기록되어 있다.
이해할 수 있다 시피, 이러한 N장의 이미지는 사용자가 기타 기기를 통해 촬영하여 메모리 카드 또는 무선 방식을 통해 기타 기기로부터 현재 이미지 처리를 진행하는 기기에 전송된 것일 수도 있고, 현재 이미지 처리를 진행하는 기기가 자체로 촬영하여 얻은 것일 수도 있다.
구체적으로, 단계101에서의 이미지 획득은 아래의 방식1 또는 방식2의 방법을 통해 구현될 수 있다.
방식1: 전자 기기가 촬영 작업을 진행할 때 저장한다.
서브 단계1, N개의 상이한 포커싱 본체에 각각 촬영작업을 수행하여 N장의 이미지를 획득한다.
사용자가 전자 기기를 사용하여 촬영할 경우, 전자 기기를 하나의 위치에 고정시키고, 스크린에 실시간으로 디스플레이되는 뷰 화면을 터치하는 것을 통해 상이한 촬영 오브젝트, 즉 상이한 포커싱 본체를 선택할 수 있으며, 하나의 포커싱 본체를 선택한 다음, 사용자의 오래 누르기 작업을 수신하고, 그 다음 카메라가 포커싱 위치를 자동으로 잠금하여 디포커싱으로 인한 포커싱 실패를 방지할 수도 있다. 예를 들어, 사용자가 차량에 대한 포커싱을 선택하면 카메라는 차량에 대해 잠시 잠금 포커싱을 진행하고; 사용자가 사람에 대한 포커싱을 선택하면 카메라는 사람에 대해 잠시 잠금 포커싱을 진행할 수 있다. 상이한 포커싱 본체에 대해 각각 촬영 작업을 수행한 후, 포커싱 본체의 수량과 동일한 N장의 사진을 얻을 수 있다.
서브 단계2, 상기 N장의 이미지를 저장하되, 구체적으로는 아래 단계를 포함할 수 있다.
A, 상기 N개의 상이한 포커싱 본체에서의 각 포커싱 본체가 카메라와의 포커싱 거리를 결정한다.
실제 시나리오에서 각 포커싱 본체는 3차원 공간에 위치하고 이들이 렌즈 앞에서 자연적으로 원근 관계를 가지므로 카메라의 초음파, 적외선 또는 레이저 등 모듈을 통해 상응한 포커싱 본체와 카메라의 포커싱 거리를 측량하여 이미지 합성에 거리 파라미터 의거를 제공할 수 있다.
B, 포커싱 거리의 원근 순서에 따라 N장의 이미지를 배열한다.
각 이미지의 포커싱 본체가 상이하므로 각 이미지와 대응되는 포커싱 거리도 완전히 동일하지 않은 바, N장의 이미지에서의 포커싱 본체의 포커싱 거리의 원근 순서에 근거하여 차례대로 또는 역순에 따라 순차적으로 배열할 수 있다. 예를 들어, 도 5에서의 이미지(P1)의 포커싱 본체는 카메라와의 거리가 제일 가까운 사람이고, 이미지(P2)의 포커싱 본체는 카메라와의 거리가 그 다음으로 가까운 차량이다. 이미지(P3)의 포커싱 본체는 카메라와의 거리가 먼 나무이다. 이미지(P4)의 포커싱 본체는 카메라와의 거리가 제일 먼 산이다. N장의 이미지는 포커싱 거리의 원근 순서에 따라 배열됨으로써 이미지 프로세서가 합성 대기 이미지를 찾을 때의 연산량을 감소하는데 유리하여 계산 리소스를 절약하고 이미지 처리 효율을 향상시키는데 유리하다.
C, 배열한 후의 상기 N장의 이미지를 저장한다.
배열이 완료된 N장의 이미지를 그룹 형식으로 메모리에 저장할 수 있는데, 이 N장의 이미지를 찾기 편리하도록 하기 위하여 저장할 때 이 N장의 이미지의 속성 정보에 특정된 식별 부호를 추가할 수도 있다.
방식 2: 기타 전자 기기로부터 획득한다.
서브 단계1, 이동식 저장 매체 또는 무선 방식을 통해 타깃 기기를 액세스하며;
본 출원이 제공하는 이미지 처리 방법을 실시할 경우, 현재 기기가 실시간으로 촬영하여 얻은 이미지를 처리하는 것을 제외하고 메모리 카드, USB 등 이동식 저장 매체 또는 블루투스, WiFi, 이동통신 네트워크 등 무선 방식에 의해 기타 타깃 기기를 액세스할 수 있다. 예를 들어, 기타 휴대폰, 컴퓨터, 서버 등을 액세스할 수 있다.
서브 단계2, 상기 타깃 기기가 미리 저장한 N장의 이미지를 획득한다.
타깃 기기의 메모리에 미리 저장된 N장의 이미지를 판독하는 것을 통해 현재 기기를 제외한 기타 기기의 이미지를 처리하여 틸트 시프트 이미지를 생성할 수 있다. 이해할 수 있다 시피, 여기서 타깃 기기에서의 N장의 이미지는 여전히 상기 단계101의 촬영 요구를 만족시켜야 한다.
단계102, 상기 N장의 이미지에서의 기준 이미지를 결정하되; 여기서, 상기 기준 이미지는 타깃 틸트 시프트 오브젝트의 해상도가 기설정 임계값보다 큰 이미지이다.
설명해야 할 것은, 미니어처 효과는 이미지 처리가 완료된 후 형성된 한 가지 시각 특수효과이고, 한 폭의 이미지에서 어떠한 피촬영 오브젝트에 대해 틸트 시프트 처리를 진행할 것인가는 사용자의 심리적 수요에 의해 결정된다. 다시 말하면, 전자 기기는 사용자의 처리 수요에 맞추어 N장의 이미지에서 한 장의 기준 이미지를 결정하는데, 이 기준 이미지는 타깃 틸트 시프트 오브젝트의 해상도가 기설정 임계값보다 큰 이미지이다. 다시 말하면, 이미 획득한 N장의 이미지에 기반할 경우, 각 이미지의 각각의 뚜렷한 영역은 상이한 바, 예를 들어, 도 3에 도시된 바와 같이, 이미지(P1)의 사람은 뚜렷하고 이미지(P2)의 차량은 뚜렷하며 이미지(P3)의 나무는 뚜렷하고 이미지(P4)의 산도 뚜렷하다. 본 발명의 실시예에서는, 각 이미지의 각 영역을 대비 인식하여 상이한 영역의 대비량에 따라 어떠한 영역이 뚜렷하고 어떠한 영역이 희미한지 결정할 수 있으며, N장의 이미지에서 사용자가 틸트 시프트 처리를 진행해야 하는 타깃 틸트 시프트 오브젝트의 해상도가 기설정 임계값의 이미지보다 큰 이미지를 기준 이미지로 찾을 수 있다. 이 기설정 임계값은 기술인원들이 미리 설정한 것일 수 있는 바, 이해할 수 있다 시피, 만약 해상도가 기설정 임계값보다 큰 이미지가 여러 장 존재하면 상응하게 상이한 이미지의 해상도 수치에 대해 그 중에서 제일 뚜렷한 한 장을 선택할 수 있다. 이 기준 이미지에 나타난 화면은, 타깃 틸트 시프트 오브젝트 영역이 뚜렷하게 보이고 타깃 틸트 시프트 오브젝트를 제외한 영역이 희미하다.
구체적으로, 단계102에서 기준 이미지에 대한 결정은 아래 방법을 통해 구현될 수 있다.
서브 단계1, 사용자가 입력한 타깃 틸트 시프트 오브젝트의 오브젝트 위치정보를 수신하되, 여기서, 상기 오브젝트 위치정보는 타깃 틸트 시프트 오브젝트가 상기 N장의 이미지에 놓이는 위치영역을 포함하며;
상술한 N장의 이미지에서, 각 이미지는 모두 동일한 화면 요소를 기록하였다. 예를 들어, 도 3에 도시된 바와 같이, 이미지(P1) 내지 이미지(P4)에서의 각 이미지는 모두 사람, 차량, 나무 및 산의 조합이고, 구별점은 포커싱 본체의 차이에 있다. 전자 기기에서, 사용자가 볼 수 있는 것은 다수의 레이어가 중첩된 시각 효과이고, 각 레이어에는 각각 한 장의 이미지가 존재하며, 최상층은 하나의 투명 레이어이고, 이 투명 레이어는 사용자의 입력 제어 정보를 수신한다. 이 입력 제어 정보는 오브젝트 위치 정보이고, 하나의 좌표점 또는 몇 개의 좌표점으로 에워싸인 영역이며, 오브젝트 위치정보는 타깃 틸트 시프트 오브젝트가 N장의 이미지에 놓이는 위치 영역을 나타낸다. 이 투명 레이어에서 사용자는 촬영된 모든 오브젝트를 볼 수 있고, 틸트 시프트 결과에 따라 어느 오브젝트를 타깃 틸트 시프트 오브젝트로 결정한다. 예를 들어, 차량을 타깃 틸트 시프트 오브젝트로 할 경우, 사용자는 디스플레이 스크린에서 차량과 대응되는 위치를 터치하고, 투명 레이어는 포인트 또는 영역에 대한 터치 신호를 수신하여 사용자가 어느 촬영 오브젝트를 타깃 틸트 시프트 오브젝트로 선택하였는지 알 수 있게 된다.
서브 단계2, 상기 오브젝트 위치정보에 기반하여 상기 N장의 이미지에서 기준 이미지를 결정한다. 구체적으로는 아래 단계를 포함할 수 있다.
A, 상기 N장의 이미지에서의 각 이미지의 해상도를 획득한다.
raw이미지는 이미지 센서가 포착한 광원 신호를 디지털 신호로 전환시킨 오리지널 데이터이다. raw파일은 카메라 센서의 오리지널 정보를 기록하는 동시에 카메라가 촬영하여 발생한 일부 메타 데이터(예컨대 감광도, 셔터 속도, 조리개 값, 화이트 밸런스 등)를 기록한 파일이다. 각 이미지의 포커싱 본체는 각각 상이하고, raw파일에는 구체적으로 픽셀점 정보의 처리를 구현하며, raw데이터를 해석하는 것을 통해 N장의 이미지에서의 각 이미지의 해상도를 획득할 수 있는데, 구체적으로는 임의의 한 장의 이미지의 상이한 영역의 해상도 차이를 알 수 있다.
B, 타깃 틸트 시프트 오브젝트의 해상도가 기설정 임계값보다 큰 이미지를 기준 이미지로 사용한다.
전자 기기가 이미 사용자에 의해 입력된 타깃 틸트 시프트 오브젝트와 관련된 오브젝트 위치정보를 수신하였으므로, 구체적으로 전자 기기가 이미 사용자 터치 위치의 정보를 획득하였으므로 이 오브젝트 위치정보에 기반하여 전자 기기는 이 위치의 해상도, 즉 타깃 틸트 시프트 오브젝트의 해상도를 알 수 있다. 각 이미지에서의 이 위치의 해상도와 기설정 임계값을 비교하여 기설정 임계값보다 큰 이미지를 기준 이미지로 선별한다. 이해할 수 있다 시피, 이 기설정 임계값은 설치될 때 경험 데이터에 따라 설치해야 하고, 적어도 한 장의 기준 이미지를 선별할 수 있도록 담보해야 한다.
단계103, 사용자가 입력한 틸트 시프트 파라미터를 획득하되, 여기서, 상기 틸트 시프트 파라미터는 타깃 포커싱면의 방위 및 틸트 시프트 영역의 범위를 지시하기 위한 것이다.
기준 이미지가 선택된 후, 전자 기기는 사용자가 이 기준 이미지에서의 동작을 수신한다. 예를 들어, 사용자가 도 4에서의 의 차량에 대해 틸트 시프트 처리를 진행하고자 하면 타깃 틸트 시프트 오브젝트는 차량이고, 상응한 기준 이미지는 이미지(P2)로 결정된다. 사용자가 기준 이미지에서 입력한 틸트 시프트 파라미터를 획득하고, 사용자가 조작 인터페이스에서 입력한 틸트 시프트 파라미터를 통해 타깃 포커싱면의 방위 및 틸트 시프트 영역의 범위를 결정할 수 있다. 타깃 포커싱면은 촬영 오브젝트로 이어진 틸트 시프트 축선이 위치하는 플레인이고, 틸트 시프트 영역은 틸트 시프트 특수효과와 대응되는 영역이다.
구체적으로, 상기 틸트 시프트 파라미터는 타깃 틸트 시프트 포인트, 틸트 시프트 경사각 및 피사계 심도 폭을 포함할 수 있다. 타깃 틸트 시프트 포인트는 타깃 틸트 시프트 오브젝트가 놓이는 좌표위치를 나타낸다. 사용자가 기준 이미지에 입력한 타깃 틸트 시프트 포인트는 타깃 틸트 시프트 오브젝트가 놓이는 좌표위치를 나타낸다. 설명해야 할 것은, 타깃 틸트 시프트 포인트는 사용자의 터치 신호에 기반하여 결정한 하나의 좌표점 일 수도 있고, 사용자의 터치 신호에 기반하여 결정한 약간의 좌표점으로 에워싸인 영역일 수도 있다. 예를 들어, 타깃 틸트 시프트 오브젝트가 이미지 화면에서 차지하는 픽셀 비율이 비교적 작을 때에는 하나의 포인트(예를 들어, 광각 렌즈가 촬영한 한 마리의 새) 일 수 있고, 타깃 틸트 시프트 오브젝트가 이미지 화면에서 차지하는 픽셀 비율이 비교적 클 때에는 하나의 영역(예를 들어, 광각 렌즈가 촬영한 한 건축물) 일 수 있다. 틸트 시프트 경사각은 타깃 틸트 시프트 포인트가 위치하는 타깃 포커싱면과 기준 이미지의 이미징 플레인의 협각이며, 타깃 포커싱면은 촬영 오브젝트로 이어진 틸트 시프트 축선이 위치하는 플레인이다. 피사계 심도 폭은 틸트 시프트 효과가 있는 영역의 폭이다.
상기 틸트 시프트 파라미터의 획득은 터치 스크린에 입력창을 설치하고, 사용자가 주동적으로 파라미터를 입력하는 것일 수도 있고, 터치 스크린에 슬라이더 또는 가상의 제어 기준선을 설치하여 사용자가 실시간으로 시각 피드백에 기반하여 조정 설치함으로써 입력의 목적을 달성할 수도 있는 바, 본 출원의 실시예는 이에 대해 구속하지 않는다.
단계104, 상기 틸트 시프트 파라미터에 근거하여 상기 타깃 포커싱면과 교차하는 합성 대기 이미지를 결정한다.
전자 기기는 상기 틸트 시프트 파라미터를 획득한 후, 틸트 시프트 파라미터를 통해 사용자 수요와 매칭되는 타깃 포커싱면을 구축할 수 있다. 타깃 포커싱면은 각 이미지의 요소의 조합이므로 타깃 포커싱면은 각 이미지와 가상의 교차 관계를 이룬다. 그러나, 타깃 포커싱면과 교차하는 이미지는 각 이미지가 모두 사용하지 못할 수 있으므로 그 중에서 합성 대기 이미지를 결정해야 한다. 이해할 수 있다 시피, 본 출원의 실시예에서, 타깃 포커싱면이 각 이미지와 교차하므로 타깃 포커싱면은 항상 허구된 가상 플레인이다.
구체적으로, 상기 틸트 시프트 파라미터가 타깃 틸트 시프트 포인트, 틸트 시프트 경사각 및 피사계 심도 폭을 포함할 경우, 단계104에서 합성 대기 이미지를 결정하는 것은 아래 방법을 통해 구현할 수 있다.
서브 단계1, 상기 타깃 틸트 시프트 포인트와 상기 틸트 시프트 경사각에 근거하여 상기 타깃 포커싱면의 틸트 시프트 방위를 결정한다.
수신한 타깃 틸트 시프트 포인트와 틸트 시프트 경사각에 기반하여 타깃 포커싱면의 틸트 시프트 방위를 유일하게 결정할 수 있다. 도 4 및 도 5의 예시와 결부하면, 타깃 포커싱면의 방위를 결정해야 하는데, 타깃 틸트 시프트 포인트(O)가 존재한 후, 타깃 포커싱면(M)의 위치를 결정할 수 있고, 다음 틸트 시프트 경사각(α)과 결부하여 이의 기울어지는 방향을 알 수 있다. 따라서, 틸트 시프트 축선(m)과 대응되는 가상의 타깃 포커싱면(M)을 찾을 수 있다.
도 4의 예시와 같이, 사용자가 차량을 터치하여 타깃 틸트 시프트 오브젝트로 선택한 후, 디스플레이 스크린에는 한 갈래의 가상의 직선(m)가 디스플레이되는데, 이 직선(m)은 항상 상술한 타깃 틸트 시프트 포인트(O)를 관통하고, 사용자는 디스플레이 스크린에서 제공하는 슬라이드 레일, 노브 등 가상의 조절 버튼 또는 입력창 등을 통해 직선(m)의 방향을 제어함으로써 이 직선(m)이 화면에서의 기타 틸트 시프트 처리가 필요한 촬영 오브젝트를 관통하도록 할 수 있다.
만약 나무와 사람도 틸트 시프트 효과를 나타내도록 하고자 하면 직선(m)으로 하여금 나무와 사람을 동시에 관통하도록 해야 하는데, 이때 사용자가 입력한 이 직선(m)의 틸트 시프트 경사각을 수신해야 한다. 차량, 나무 및 사람으로 이어진 직선(m)은 틸트 시프트 축선이고, 타깃 포커싱면(M)은 직선(m)가 위치하는 플레인이며, 이 타깃 포커싱면(M)은 사용자의 입력 정보에 의해 결정된 것으로, 가상의 포커싱면이며, 카메라에서 렌즈 초점과 대응되는 포커싱면은 상이하다. 기준 이미지(P2)는 렌즈에서 센서와 가까이하는 일측에 센서와 평행되는 이미징 플레인을 구비하는데, 이미지 플레인이 이미지(P2)와 평행되므로 이미지 플레인을 단독으로 나타내지 않았다. 도 5에 도시된 바와 같이, 틸트 시프트 경사각은 타깃 틸트 시프트 포인트(O)가 위치하는 타깃 포커싱면(M)과 기준 이미지(P2)의 이미징 플레인의 협각(α)을 나타내는데, 이 협각(α)은 직선(m)이 도 4에서의 상이한 방위에서의 협각과 일일이 대응되는 관계를 가지고, 사용자가 디스플레이 인터페이스에 직선(m)의 방위를 조작 제어하면 협각(α)의 입력을 완성할 수 있다.
따라서, 타깃 포커싱면의 틸트 시프트 방위는 타깃 틸트 시프트 포인트와 틸트 시프트 경사각에 따라 결정할 수 있다.
서브 단계2, 상기 틸트 시프트 방위와 상기 피사계 심도 폭에 기반하여 상기 타깃 포커싱면과 교차하는 합성 대기 이미지를 결정한다.
틸트 시프트 효과는 이미지에서의 틸트 시프트 영역을 제외한 영역을 희미하게 처리하는 것이므로 반대로 틸트 시프트 영역에 대해 첨예화 처리를 진행하는 것으로 볼 수 있다. 상응하게, 또 틸트 시프트 축선(m) 일측 또는 양측에서 처리해야 할 폭 범위, 즉 틸트 시프트 효과가 있는 영역의 폭을 알아야 하는 바, 즉 도4에 도시된 바와 같은 a와 b에서의 적어도 하나의 파라미터이다. 상술한 내용과 결부하면, 틸트 시프트 경계 직선(p)는 하나의 가정된 포커싱면(P)와 대응되고, 틸트 시프트 경계 직선(q)는 하나의 가정된 포커싱면(Q)와 대응된다는 것을 쉽게 이해할 수 있다. 설명해야 할 것은, 이 a와 b는 사용자가 입력창을 통해 입력하거나 또는 가상의 슬라이더를 움직여 결정할 수 있다.
타깃 포커싱면의 틸트 시프트 방위를 결정한 후, 다시 피사계 심도 폭과 결부하여 처리해야 할 틸트 시프트 영역범위를 쉽게 계산할 수 있는 바, 도 4에서 이 틸트 시프트 영역범위는 직선(p)와 직선(q) 사이의 밴드형 영역으로 예시되고, 도 5에서 이 틸트 시프트 영역범위는 플레인(P)와 플레인(Q) 사이의 공간 영역으로 예시된다.
도 5의 예시와 결부하면, 이 틸트 시프트 영역에서의 타깃 포커싱면(M)은 N장의 이미지와 교차하는데, 교차는 상응한 이미지에 틸트 시프트 처리를 거쳐야 하는 촬영 오브젝트가 존재한다는 것을 의미하고, 타깃 포커싱면과 교차한 이러한 이미지를 후속적으로 합성에 참여하는 합성 대기 이미지로 결정할 수 있다.
설명해야 할 것은, 상기 타깃 포커싱면과 교차하는 상기 합성 대기 이미지는 제1 합성 대기 이미지와 제2 합성 대기 이미지에서의 적어도 하나를 포함하되, 여기서, 제1 합성 대기 이미지는 N장의 이미지에서 포커싱 거리가 기준 거리보다 작은 이미지이고, 제2 합성 대기 이미지는 N장의 이미지에서 포커싱 거리가 기준 거리보다 큰 이미지이며, 여기서, 기준 거리는 기준 이미지의 포커싱 거리이다.
도 5의 예시를 예로 하면, 기준 이미지(P2)의 포커싱 거리, 즉 기준 거리는 l2이고, 이미지(P1)의 포커싱 거리는 l1이며, 이미지(P3)의 포커싱 거리는 l3이고, 이미지(P4)의 포커싱 거리는 l4이며, l1>l2>l3>l4이다. 합성 대기 이미지(P1)와 합성 대기 이미지(P3)을 선별하는 방법은 아래와 같다.
사용자가 입력한 틸트 시프트 경사각(α) 및 피사계 심도 폭(a)과 심도 폭(b)에 기반하여 합성 대기 이미지와 대응되는 포커싱 거리가 응당 l대기= l2-a*tanα 그리고 l'대기= l2+b*tanα, l대기<l2, l'대기>l2라는 것을 쉽게 계산할 수 있고, 이해할 수 있다 시피, 여기서, a와 b에서의 임의의 하나는 0일 수 있으나 양자가 동시에 0이 될 수 없다. 포커싱 거리가 l대기와 l2 사이인 이미지는 제1 합성 대기 이미지이고, 포커싱 거리가 l2와 l'대기 사이인 이미지는 제2 합성 대기 이미지이다.
타깃 틸트 시프트 포인트, 틸트 시프트 경사각 및 피사계 심도 폭과 같은 이러한 파라미터를 수신하는 것을 통해 사용자가 이미지에서의 어떠한 오브젝트에 대해 틸트 시프트 처리를 진행해야 하는 것과 틸트 시프트 처리의 범위 크기를 결정할 수 있고, 합성 대기 이미지를 구체적으로 결정할 수 있다.
단계105, 상기 합성 대기 이미지와 상기 기준 이미지의 포커싱 거리에 기반하여 상기 N장의 이미지에 대해 이미지 합성을 진행하고 타깃 틸트 시프트 이미지를 출력한다.
기준 이미지가 보여주는 화면이 타깃 틸트 시프트 오브젝트가 뚜렷한 화면이고, 합성 대기 이미지의 화면에 틸트 시프트 처리를 거쳐야 하는 기타 촬영 오브젝트가 포함되며, 상이한 이미지 포커싱 거리가 각각 상이하므로 각 이미지의 포커싱 거리를 합성하는 것에 기반하여 상이한 포커싱 본체의 거리의 원근과 결부하여 가상화 또는 첨예화 범위를 결정함으로써 틸트 시프트 이미지의 미니어처 효과가 보다 진실하고 자연스럽도록 할 수 있다.
구체적으로, 단계105에서의 이미지 합성과정은 아래와 같은 서브 단계1 또는 서브 단계2를 통해 구현될 수 있다.
서브 단계1, 상기 합성 대기 이미지의 포커싱 본체가 상기 타깃 포커싱면과 교차하는 경우, 상기 합성 대기 이미지와 상기 기준 이미지를 중첩 합성한다.
획득한 여러 장의 합성 대기 이미지에 대하여, 각 이미지는 모두 이미지와 타깃 포커싱면의 교차 관계에 기반하여 결정한 것이다. 그러나 합성 대기 이미지에서 타깃 포커싱면과 교차하는 위치는 포커싱 본체가 위치하는 영역이 아닐 수 있는 바, 다시 말하면, 서로 교차하는 위치는 뚜렷한 화면이 아닐 수 있다.
따라서, 합성 대기 이미지의 포커싱 본체가 타깃 포커싱면과 교차할 경우, 각 이미지에서 타깃 포커싱면과 교차하는 영역은 뚜렷하고, 틸트 시프트 특수효과 수요를 만족시키며, 매팅 알고리즘을 이용하여 포커싱 본체를 매팅하여 기준 이미지와 중첩 합성할 수 있고, 합성 과정에서는 포커싱 거리에 기반하여 틸트 시프트 영역에 대해 선형 처리를 진행할 수 있는 바, 예를 들어, 기준 포커싱 거리는 l2이고, 렌즈와 제일 가까운 포커싱 본체의 포커싱 거리는 l1이며, 첨예도는 sls이고, 렌즈와 제일 먼 포커싱 본체의 포커싱 거리는 l3이고, 첨예도는 sle이며, 틸트 시프트 영역의 첨예도는 s1s-(l3-l2)(s1s-s1e)/(l3-l1)로 조절할 수 있다. 설명해야 할 것은, 첨예도가 높을수록 이미지가 더 뚜렷하고, 첨예도가 낮을수록 이미지는 더 희미하다. 첨예도의 조절은 높거나 낮도록 조절하는 것일 수 있다.
서브 단계2, 상기 합성 대기 이미지의 포커싱 본체가 상기 타깃 포커싱면과 교차하지 않을 경우, 상기 N장의 이미지에서 포커싱 본체가 상기 타깃 포커싱면과 교차하는 이미지에 기반하여 상기 합성 대기 이미지의 포커싱 본체에 대해 해상도 처리를 진행하고 상기 합성 대기 이미지와 상기 기준 이미지를 중첩 합성한다.
합성 대기 이미지의 포커싱 본체가 타깃 포커싱면과 교차할 경우, 각 이미지에서 타깃 포커싱면과 교차하는 영역은 희미하여 틸트 시프트 특수효과 수요를 만족시킬 수 없으며, 틸트 시프트 특수효과를 만족시킬 수 없는 이 이미지와 인접한 이미지에 기반하여 뚜렷한 정도를 결정할 수 있다는 것을 알 수 있다. 예를 들어, 기준 포커싱 거리는 l2이고, 렌즈와 제일 가까운 포커싱 본체의 포커싱 거리는 l1이며, 첨예도는 sls이고, 렌즈와 제일 먼 포커싱 본체의 포커싱 거리는 l3이고, 첨예도는 sle이며, 이미지(P1)와 이미지(P2) 또는 이미지(P2)와 이미지(P3) 사이에 포커싱 본체가 희미한 합성 대기 이미지가 존재할 경우, 이미지(P1)과 이미지(P3)의 뚜렷한 정도를 참조하여 포커싱 본체가 희미한 합성 대기 이미지의 틸트 시프트 영역의 첨예도를 s1s-(l3-l2)(s1s-s1e)/(l3-l1)로 조절할 수 있다.
구체적으로, 서브 단계1 또는 서브 단계2에서의 이미지의 합성에 대하여, 아래 합성 방법을 참조할 수 있다.
A, 상기 합성 대기 이미지로부터 포커싱 본체를 매팅하여 전경 레이어로 설치한다.
선별한 합성 대기 이미지에 대하여, 이용해야 할 것은 이의 포커싱 본체 영역의 화면이므로 베이지안 매팅 알고리즘 등 성숙된 알고리즘을 이용하여 포커싱 본체를 합성 대기 이미지에서 매팅할 수 있다. 통속적인 이해는, 매팅 처리를 거친 각 합성 대기 이미지에서 포커싱 본체를 제외한 영역은 투명 영역이라는 것이다. 여러 장의 합성 대기 이미지가 존재할 경우, 다수의 포커싱 본체를 매팅해야 한다는 것을 이해할 수 있다. 상응하게, 모든 포커싱 본체를 전경 레이어로 하여 틸트 시프트 영역의 화면 요소를 조성한다.
B, 상기 기준 이미지를 배경 레이어로 설치한다.
기준 이미지는 이미지 처리 초기에 사용자가 선택한 한 장의 이미지이고, 이 이미지의 뚜렷한 영역과 희미한 영역의 분포는 사용 수요를 만족시키므로 이를 직접 배경 레이어로 설치할 수 있다는 것을 알아야 한다.
C, 상기 전경 레이어와 상기 배경 레이어를 중첩 합성한다.
각 이미지가 상응한 위치에서 촬영한 것이므로 합성할 때의 각 화면 요소의 정렬을 담보할 수 있다. 이로써, 전경 레이어와 배경 레이어를 중첩 합성한 후, 매팅을 거친 합성 대기 이미지의 포커싱 본체는 기준 이미지에서의 동일한 촬영 본체를 커버한다. 이로써 최종적으로 한 장의 화면에서 밴드형 영역을 가지는 시뮬레이션 틸트 시프트 이미지를 얻을 수 있다.
본 발명의 실시예에서, 상이한 포커싱 본체를 가지는 한 그룹의 N장의 이미지에서 기준 이미지와 합성 대기 이미지를 각각 결정하되, 기준 이미지는 타깃 틸트 시프트 오브젝트가 뚜렷한 이미지로서, 즉 틸트 시프트 특수효과에서 뚜렷한 촬영 오브젝트와 대응되는 이미지를 유지해야 한다. 합성 대기 이미지는 타깃 틸트 시프트 포인트, 틸트 시프트 경사각 및 피사계 심도 폭에 따라 결정한 타깃 포커싱면과 교차하는 기타 이미지이다. 따라서, 기준 이미지와 합성 대기 이미지는 상이한 포커싱 본체의 포커싱 거리 정보를 각각 기록하고, 이러한 거리 정보는 이미지 화면에서의 상이한 포커싱 본체의 공간 위치 관계를 구현할 수 있으며, 합성 대기 이미지와 기준 이미지의 포커싱 거리에 근거하여 합성 처리를 진행함으로써 합성된 후의 틸트 시프트 이미지에서의 뚜렷한 영역과 희미한 영역의 과도가 보다 자연스럽고 평온하도록 하여 틸트 시프트 효과를 보다 자연스럽게 시뮬레이션 하고, 미니어처 효과가 보다 진실하도록 한다. 또한, 틸트 시프트 이미지는 또 타깃 틸트 시프트 오브젝트의 앞뒤 상이한 촬영 오브젝트의 이미지를 합성 대기 이미지로 하고, 포커싱 거리를 충분히 이용하여 틸트 시프트 효과의 생동성을 향상시킨다. 이 외에, 배열된 여러 장의 이미지를 이용하여 이미지 처리를 진행함으로써 이미지 처리 효율을 향상시키는데 유리하게 된다.
도 6을 참조하면, 이는 전자 기기의 블록도를 도시하며, 상기 전자 기기는 아래 모듈을 포함한다.
이미지 획득 모듈(201)은, N장의 이미지를 획득하되, 여기서, 상기 N장의 이미지에서의 각 이미지는 동일한 촬영위치에 기반하여 촬영한 것인 동시에 포커싱 본체가 각각 상이한 것이고, 상이한 포커싱 본체는 상이한 포커싱 거리와 대응된다.
기준 이미지 결정 모듈(202)은, 상기 N장의 이미지에서의 기준 이미지를 결정하되; 여기서, 상기 기준 이미지는 타깃 틸트 시프트 오브젝트의 해상도가 기설정 임계값보다 큰 이미지이다.
틸트 시프트 파라미터 수신 모듈(203)은, 사용자가 입력한 틸트 시프트 파라미터를 획득하되, 여기서, 상기 틸트 시프트 파라미터는 타깃 포커싱면의 방위 및 틸트 시프트 영역의 범위를 지시하기 위한 것이다.
선택적으로, 상기 틸트 시프트 파라미터는 타깃 틸트 시프트 포인트, 틸트 시프트 경사각 및 피사계 심도 폭을 포함하는데; 여기서, 상기 타깃 틸트 시프트 포인트는 상기 타깃 틸트 시프트 오브젝트가 놓이는 좌표위치이고; 상기 틸트 시프트 경사각은 상기 타깃 틸트 시프트 포인트가 위치하는 상기 타깃 포커싱면과 상기 기준 이미지의 이미징 플레인의 협각이며, 상기 타깃 포커싱면은 촬영 오브젝트로 이어진 틸트 시프트 축선이 위치하는 플레인이고; 상기 피사계 심도 폭은 틸트 시프트 효과가 있는 영역의 폭이다.
합성 대기 이미지 결정 모듈(204)은, 상기 틸트 시프트 파라미터에 근거하여 상기 타깃 포커싱면과 교차하는 합성 대기 이미지를 결정한다.
선택적으로, 상기 틸트 시프트 파라미터가 타깃 틸트 시프트 포인트, 틸트 시프트 경사각 및 피사계 심도 폭을 포함할 경우, 합성 대기 이미지 결정 모듈(204)은 아래 모듈을 포함할 수 있다.
방위 결정 서브 모듈은, 상기 타깃 틸트 시프트 포인트와 상기 틸트 시프트 경사각에 근거하여 상기 타깃 포커싱면의 틸트 시프트 방위를 결정한다.
이미지 결정 서브 모듈은, 상기 틸트 시프트 방위와 상기 피사계 심도 폭에 기반하여 상기 타깃 포커싱면과 교차하는 합성 대기 이미지를 결정한다.
선택적으로, 상기 합성 대기 이미지는 제1 합성 대기 이미지와 제2 합성 대기 이미지에서의 적어도 하나를 포함하되, 여기서, 상기 제1 합성 대기 이미지는 상기 N장의 이미지에서 포커싱 거리가 기준 거리보다 작은 이미지이고, 상기 제2 합성 대기 이미지는 상기 N장의 이미지에서 포커싱 거리가 기준 거리보다 큰 이미지이며, 상기 기준 거리는 상기 기준 이미지의 포커싱 거리이다.
합성 처리 모듈(205)은, 상기 합성 대기 이미지와 상기 기준 이미지의 포커싱 거리에 기반하여 상기 N장의 이미지를 합성 처리하고 타깃 틸트 시프트 이미지를 출력한다.
선택적으로, 상기 합성 처리 모듈(205)은,
상기 합성 대기 이미지의 포커싱 본체가 상기 타깃 포커싱면과 교차하는 경우, 상기 합성 대기 이미지와 상기 기준 이미지를 중첩 합성하는 제1 합성 처리 서브 모듈;
상기 합성 대기 이미지의 포커싱 본체가 상기 타깃 포커싱면과 교차하지 않을 경우, 상기 N장의 이미지에서 포커싱 본체가 상기 타깃 포커싱면과 교차하는 이미지에 기반하여 상기 합성 대기 이미지의 포커싱 본체에 대해 해상도 처리를 진행하고 상기 합성 대기 이미지와 상기 기준 이미지를 중첩 합성하는 제2 합성 처리 서브 모듈을 포함할 수 있다.
선택적으로, 제1 합성 처리 서브 모듈 또는 제2 합성 처리 서브 모듈에 있어서,
상기 합성 대기 이미지로부터 포커싱 본체를 매팅하여 전경 레이어로 설치하는 전경 설치 유닛;
상기 기준 이미지를 배경 레이어로 설치하는 배경 설치 유닛;
상기 전경 레이어와 상기 배경 레이어를 중첩 합성하는 중첩 합성 유닛을 포함할 수 있다.
이 전자 기기의 실시예에 있어서, 이와 방법 실시예가 기본적으로 유사하므로 설명의 간편함을 위하여 관련된 부분 및 유리한 효과는 방법 실시예의 일부 설명을 참조하면 된다.
본 발명의 실시예는 전자 기기를 더 제공하는데,
프로세서, 메모리 및 상기 메모리에 저장되어 상기 프로세서에서 운행될 수 있는 컴퓨터 프로그램을 포함하는 전자기기에 있어서, 상기 컴퓨터 프로그램이 상기 프로세서에 의해 실행될 경우, 상기 실시예에서 제공하는 이미지 처리 방법의 단계를 구현한다. 본 발명의 실시예에서 제공하는 전자 기기는 도 1 내지 도 5의 방법 실시예의 전자 기기가 구현하는 각 과정을 구현할 수 있으며, 중복되는 것을 방지하기 위하여 여기서 더 이상 설명하지 않는다.
도 7은 본 발명의 각 실시예에 따른 전자 기기를 구현하는 하드웨어 구조 모식도이고;
이 전자 기기(500)는, 무선 주파수 유닛(501), 네트워크 모듈(502), 오디오 출력 유닛(503), 입력 유닛(504), 센서(505), 디스플레이 유닛(506), 사용자 입력 유닛(507), 인터페이스 유닛(508), 메모리(509), 프로세서(510) 및 전원(511) 등 부품을 포함하나 이에 한정되지 않는다. 본 기술분야에서 통상의 지식을 가진 자라면 도 7에 도시된 전자 기기의 구조가 전자 기기에 어떠한 한정도 구성하지 않으며, 전자 기기는 도면에 도시된 부품보다 더 많거나 또는 더 적은 부품을 포함하거나, 또는 일부 부품을 조합하거나, 또는 상이한 부품으로 구성될 수 있다는 것을 이해해야 한다. 본 발명의 실시예에서, 전자 기기는 휴대폰, 태블릿 컴퓨터, 노트북, 팜톱 컴퓨터, 차량용 단말기, 웨어러블 기기 및 계보기 등을 포함하지만 이에 한정되지 않는다.
여기서, 프로세서(510)는, N장의 이미지를 획득하되, 여기서, 상기 N장의 이미지는 동일한 촬영위치에 기반하여 촬영하는 동시에 포커싱 본체가 각각 상이한 것이고, 상이한 포커싱 본체는 상이한 포커싱 거리와 대응되며;
상기 N장의 이미지에서의 기준 이미지를 결정하되; 여기서, 상기 기준 이미지는 타깃 틸트 시프트 오브젝트의 해상도가 기설정 임계값보다 큰 이미지이고;
사용자가 입력한 틸트 시프트 파라미터를 획득하되, 여기서, 상기 틸트 시프트 파라미터는 타깃 포커싱면의 방위 및 틸트 시프트 영역의 범위를 지시하기 위한 것이며;
상기 틸트 시프트 파라미터에 근거하여 상기 타깃 포커싱면과 교차하는 합성 대기 이미지를 결정하고;
상기 합성 대기 이미지와 상기 기준 이미지의 포커싱 거리에 기반하여 상기 N장의 이미지에 대해 이미지 합성을 진행하고 타깃 틸트 시프트 이미지를 출력한다.
본 발명의 실시예에서, 상이한 포커싱 본체를 가지는 한 그룹의 N장의 이미지에서 기준 이미지와 합성 대기 이미지를 각각 결정하되, 기준 이미지는 타깃 틸트 시프트 오브젝트가 뚜렷한 이미지로서, 즉 틸트 시프트 특수효과에서 뚜렷한 촬영 오브젝트와 대응되는 이미지를 유지해야 한다. 합성 대기 이미지는 타깃 틸트 시프트 포인트, 틸트 시프트 경사각 및 피사계 심도 폭에 따라 결정한 타깃 포커싱면과 교차하는 기타 이미지이다. 따라서, 기준 이미지와 합성 대기 이미지는 상이한 포커싱 본체의 포커싱 거리 정보를 각각 기록하고, 이러한 거리 정보는 이미지 화면에서의 상이한 포커싱 본체의 공간 위치 관계를 구현할 수 있으며, 합성 대기 이미지와 기준 이미지의 포커싱 거리에 근거하여 합성 처리를 진행함으로써 합성된 후의 틸트 시프트 이미지에서의 뚜렷한 영역과 희미한 영역의 과도가 보다 자연스럽고 평온하도록 하여 틸트 시프트 효과를 보다 자연스럽게 시뮬레이션 하고, 미니어처 효과가 보다 진실하도록 한다.
이해해야 할 것은, 본 발명의 실시예에서 무선 주파수 유닛(501)은 정보를 송수신하거나 통화 과정에서 신호를 수신 및 발송하는데 사용될 수 있는 바, 구체적으로, 기지국으로부터 다운링크 데이터를 수신한 후 프로세서(510)에 의해 처리되고; 이 밖에, 업링크 데이터를 기지국에 발송한다. 통상적으로, 무선 주파수 유닛(501)은 안테나, 적어도 하나의 증폭기, 송수신기, 커플러, 저잡음 증폭기, 듀플렉서 등을 포함하지만 이에 한정되지 않는다. 이 외에, 무선 주파수 유닛(501)은 무선 통신 시스템을 통해 네트워크 및 기타 기기와 통신할 수도 있다.
전자 기기는 네트워크 모듈(502)을 통해 사용자에게 무선 광대역 인터넷 액세스를 제공하는 바, 예를 들면, 사용자가 이메일을 송수신하고 웹 페이지를 검색하며 스트리밍 미디어에 액세스하는 것 등을 도울 수 있다.
오디오 출력 유닛(503)은 무선 주파수 유닛(501) 또는 네트워크 모듈(502)에 의해 수신되거나 또는 메모리(509)에 저장된 오디오 데이터를 오디오 신호로 변환하여 사운드로 출력할 수 있다. 또한, 오디오 출력 유닛(503)은 전자 기기(500)에 의해 수행되는 특정 기능과 관련된 오디오 출력(예를 들면, 호출 신호 수신 소리, 메시지 수신 소리 등)을 제공할 수도 있다. 오디오 출력 유닛(503)은 스피커, 버저, 수화기 등을 포함한다.
입력 유닛(504)은 오디오 또는 비디오 신호를 수신하기 위해 사용된다. 입력 유닛(504)은 그래픽 처리 유닛(Graphics Processing Unit, GPU)(5041) 및 마이크로폰(5042)을 포함할 수 있으며, 그래픽 처리 유닛(5041)은 비디오 캡처 모드 또는 이미지 캡처 모드에서 이미지 캡처 장치(예컨대 카메라)에 의해 획득된 정적 이미지 또는 비디오의 이미지 데이터를 처리한다. 처리된 이미지 프레임은 디스플레이 유닛(506)에 표시될 수 있다. 그래픽 처리 유닛(5041)에 의해 처리된 이미지 프레임은 메모리(509)(또는 기타 저장매체)에 저장되거나 무선 주파수 유닛(501) 또는 네트워크 모듈(502)을 통해 발송될 수 있다. 마이크로폰(5042)은 사운드를 수신할 수 있고, 이러한 사운드를 오디오 데이터로 처리할 수 있다. 처리된 오디오 데이터는 전화 통화 모드에서 무선 주파수 유닛(501)을 통해 이동 통신 기지국으로 전송될 수 있는 포맷으로 변환되어 출력될 수 있다.
전자 기기(500)에는 광학 센서, 모션 센서 및 기타 센서와 같은 적어도 하나의 센서(505)가 더 포함될 수 있다. 구체적으로, 광학 센서에는 주변 조도 센서 및 근접 센서가 포함될 수 있는데, 여기서 주변 조도 센서는 주변 조도의 휘도에 따라 디스플레이 패널(5061)의 휘도를 조정할 수 있으며, 근접 센서는 전자 기기(500)가 귀 가까이 이동할 때 디스플레이 패널(5061) 및/또는 백라이트를 끌 수 있다. 가속도계 센서는 모션 센서의 일종으로 각 방향(일반적으로 3축)의 가속도의 크기를 감지할 수 있고, 정지 상태일 때 중력의 크기와 방향을 감지할 수 있으며, 전자 기기의 자세 인식(예를 들면 세로와 가로 화면 전환, 관련 게임, 자력계 자세 보정), 진동 인식 관련 기능(예를 들면 계보기 및 두드리기) 등에 사용될 수 있고; 센서(505)는 지문 센서, 압력 센서, 홍채 센서, 분자 센서, 자이로스코프, 기압계, 습도계, 온도계, 적외선 센서 등을 더 포함할 수 있으나 여기서 더 이상 설명하지 않는다.
디스플레이 유닛(506)은 사용자가 입력한 정보 또는 사용자에게 제공되는 정보를 표시하기 위한 것이다. 디스플레이 유닛(506)은 디스플레이 패널(5061)을 포함할 수 있으며, 액정 디스플레이(Liquid Crystal Display, LCD), 유기 발광 다이오드(Organic Light-Emitting Diode, OLED) 등 형태로 디스플레이 패널(5061)을 구성할 수 있다.
사용자 입력 유닛(507)은 입력된 숫자 또는 문자 부호 정보를 수신하고 전자 기기의 사용자 설정 및 기능 제어와 관련된 주요 신호 입력을 생성하는데 사용될 수 있다. 구체적으로, 사용자 입력 유닛(507)은 터치 패널(5071) 및 기타 입력 기기(5072)를 포함한다. 터치 패널(5071)은 터치 스크린이라고도 하며, 사용자가 터치 패널 또는 근처에서 수행한 터치 조작(예를 들면 사용자가 손가락, 터치 펜 등과 같은 적절한 물체 또는 액세서리를 사용하여 터치 패널(5071) 위에서 또는 터치 패널(5071) 근처에서 수행하는 조작)을 수집할 수 있다. 터치 패널(5071)은 터치 감지 장치와 터치 컨트롤러 등 두 부분을 포함할 수 있다. 여기서 터치 감지 장치는 사용자의 터치 위치를 감지하고, 터치 조작에 따른 신호를 감지하여 터치 컨트롤러에 신호를 전송하며, 터치 컨트롤러는 터치 감지 장치로부터 터치 정보를 수신하여 접촉 좌표로 변환하여 프로세서(510)에 전송하고, 프로세서(510)에 의해 전송된 명령을 수신하여 명령에 따라 실행한다. 또한, 터치 패널(5071)은 저항형, 용량형, 적외선 및 표면 탄성파와 같은 다양한 유형으로 구현될 수 있다. 터치 패널(5071)을 제외하고, 사용자 입력 유닛(507)은 또한 기타 입력 기기(5072)를 포함할 수 있다. 구체적으로, 기타 입력 기기(5072)는 물리적 키보드, 기능 키(예를 들면 볼륨 제어 버튼, 스위치 버튼 등), 트랙 볼, 마우스 및 조이스틱을 포함할 수 있으나 여기서 더 이상 설명하지 않는다.
더 나아가, 터치 패널(5071)은 디스플레이 패널(5061) 위에 커버되어 터치 패널(5071)이 그 위 또는 근처의 터치 동작을 감지한 후, 프로세서(510)에 전달하여 해당 터치 이벤트의 종류를 판단하며, 그 다음에, 프로세서(510)는 터치 이벤트의 유형에 따라 디스플레이 패널(5061)에 상응하는 시각적 출력을 제공한다. 비록 도 7에서 터치 패널(5071)과 디스플레이 패널(5061)은 두 개의 독립적인 부품으로 전자 기기의 입력과 출력 기능을 구현하지만 일부 실시예에서는 터치 패널(5071)과 디스플레이 패널(5061)을 통합시켜 전자 기기의 입력과 출력 기능을 구현할 수 있는 바, 여기서는 구체적으로 한정하지 않는다.
인터페이스 유닛(508)은 외부 장치와 전자 기기(500)를 연결하는 인터페이스이다. 예를 들면, 외부 장치에는 유선 또는 무선 헤드폰 포트, 외부 전원(또는 배터리 충전기) 포트, 유선 또는 무선 데이터 포트, 메모리 포트, 식별 모듈을 구비한 장치를 연결하는데 사용되는 포트, 오디오 입력/출력(I/O) 포트, 비디오 I/O 포트, 이어폰 포트 등이 포함될 수 있다. 인터페이스 유닛(508)은 외부 장치로부터 오는 입력(예를 들면 데이터 정보, 전력 등)을 수신하고 수신한 입력을 전자 기기(500) 내부에 있는 하나 또는 다수의 소자에 전송하는데 사용하거나 전자 기기(500)와 외부 장치 사이에서 데이터를 전송하는데 사용할 수 있다.
메모리(509)는 소프트웨어 프로그램 및 다양한 데이터를 저장하기 위해 사용될 수 있다. 메모리(509)는 주로 프로그램 저장 영역과 데이터 저장 영역을 포함할 수 있는데, 여기서, 프로그램 저장 영역에는 운영체제, 적어도 하나의 기능(예를 들면 사운드 재생 기능, 이미지 재생 기능 등)에 필요한 애플리케이션 프로그램이 저장될 수 있으며, 데이터 저장 영역에는 휴대폰의 사용 과정에 생성된 데이터(예를 들면 오디오 데이터, 전화 번호부 등) 등이 저장될 수 있다. 또한, 메모리(509)는 고속 랜덤 액세스 메모리를 포함할 수 있으며, 적어도 하나의 자기 디스크 메모리 소자, 플래시 메모리와 같은 비휘발성 메모리 또는 기타 휘발성 솔리드 스테이드 메모리 소자를 더 포함할 수 있다.
프로세서(510)는 전자 기기의 제어 센터로서, 다양한 인터페이스와 회로를 이용하여 전체 전자 기기의 각 부분을 연결하고 메모리(509)에 저장된 소프트웨어 프로그램 및/또는 모듈을 실행하거나 수행하며 메모리(509)에 저장된 데이터를 호출함으로써 전자 기기의 다양한 기능을 실행하고 데이터를 처리하여 전자 기기에 관한 전반적인 모니터링을 수행한다. 프로세서(510)는 하나 또는 다수의 처리 유닛을 포함할 수 있고; 바람직하게, 프로세서(510)에 애플리케이션 프로세서와 모뎀 프로세서가 통합될 수 있는데, 여기서, 애플리케이션 프로세서는 주로 운영체제, 사용자 인터페이스 및 애플리케이션 프로그램 등을 처리하고, 모뎀 프로세서는 주로 무선 통신을 처리한다. 상기 모뎀 프로세서는 프로세서(510)에 통합되지 않을 수도 있다는 것을 이해할 수 있다.
전자 기기(500)는 각 부품에 전력을 공급하는 전원(511)(예를 들면 배터리)을 더 포함할 수 있는데, 바람직하게, 전원(511)은 전원 관리 시스템을 통해 프로세서(510)와 논리적으로 연결되어 전원 관리 시스템을 통해 충전, 방전 및 전력 관리 등 기능을 구현할 수 있다.
이 밖에, 전자 기기(500)는 표시되지 않은 일부 기능 모듈을 포함하는데 여기서 더 이상 설명하지 않는다.
본 발명의 실시예는 컴퓨터 판독 가능 저장 매체를 더 제공하는데, 컴퓨터 판독 가능 저장 매체에는 컴퓨터 프로그램이 저장되고, 이 컴퓨터 프로그램이 프로세서에 의해 실행될 경우, 상기 이미지 처리 방법 실시예의 각 과정을 구현하며, 동일한 기술적 효과를 달성할 수 있는데, 중복되는 것을 방지하기 위하여 여기서 더 이상 설명하지 않는다. 여기서, 상술한 컴퓨터 판독 가능 저장 매체는 읽기 전용 메모리(Read-Only Memory, 약칭 ROM), 랜덤 액세스 메모리(Random Access Memory, 약칭 RAM), 자기 디스크 또는 시디롬 등이다.
설명해야 할 것은, 본 명세서에서, "포함한다", "갖는다" 또는 다른 변형은 비 배타적 포함을 의도하며, 일련의 요소를 포함하는 과정, 방법, 물품 또는 장치가 그 요소를 포함할 뿐만 아니라 명확하게 나열되지 않은 다른 요소도 포함하거나 또는 이러한 과정, 방법, 물품 또는 장치의 고유한 요소도 포함한다. 별도로 한정되지 않는 한, "… 포함한다"로 정의된 요소는 해당 요소를 포함하는 과정, 방법, 물품 또는 장치에서 다른 동일한 요소가 더 존재하는 것을 배제하지 않는다.
상기 실시형태의 설명을 통해, 본 기술분야에서 통상의 지식을 가진 자라면 상기 실시예의 방법이 소프트웨어와 필요한 일반 하드웨어 플랫폼을 결부하는 방식에 의해 구현되거나 또는 하드웨어에 의해 구현될 수 있지만, 많은 경우에는 전자가 더 바람직하다는 것을 명백하게 이해할 수 있을 것이다. 이러한 이해에 기반하여, 본 발명의 기술적 해결수단의 본질적 부분 또는 기존 기술에 기여한 부분 또는 해당 기술적 해결수단의 전부 또는 일부분을 소프트웨어 제품의 형태로 구현할 수 있고, 해당 컴퓨터 소프트웨어 제품을 저장매체(예를 들면, ROM/RAM, 자기 디스크, 광 디스크)에 저장할 수 있으며, 약간의 명령을 포함하여 한 대의 단말기(휴대폰, 컴퓨터, 서버, 에어컨 또는 네트워크 기기 등)로 하여금 본 발명의 각 실시예에 따른 방법을 수행할 수 있도록 한다.
이상에서는 첨부 도면과 결부하여 본 발명의 실시예를 설명하였으나 본 발명은 상술한 발명의 실시를 위한 형태에 한정되지 않으며, 상술한 발명의 실시를 위한 형태는 단지 예시적인 것일 뿐 한정적인 것이 아닌 바, 본 기술분야에서 통상의 지식을 가진 자들은 본 발명의 계시 하에 본 발명의 취지 및 청구범위에서 보호하고자 하는 범위를 벗어나지 않는 상황에서 여러 가지 형식으로 진행될 수 있으며 이는 모두 본 발명의 보호범위 내에 속한다.

Claims (15)

  1. N장의 이미지를 획득하되, 여기서, 상기 N장의 이미지는 동일한 촬영위치에 기반하여 촬영하는 동시에 포커싱 본체가 각각 상이한 것이고, 상이한 포커싱 본체는 상이한 포커싱 거리와 대응되는 단계;
    상기 N장의 이미지에서의 기준 이미지를 결정하되; 여기서, 상기 기준 이미지는 타깃 틸트 시프트 오브젝트의 해상도가 기설정 임계값보다 큰 이미지인 단계;
    사용자가 입력한 틸트 시프트 파라미터를 획득하되, 여기서, 상기 틸트 시프트 파라미터는 타깃 포커싱면의 방위 및 틸트 시프트 영역의 범위를 지시하기 위한 것인 단계;
    상기 틸트 시프트 파라미터에 근거하여 상기 타깃 포커싱면과 교차하는 합성 대기 이미지를 결정하는 단계;
    상기 합성 대기 이미지와 상기 기준 이미지의 포커싱 거리에 기반하여 상기 N장의 이미지에 대해 이미지 합성을 진행하고 타깃 틸트 시프트 이미지를 출력하는 단계를 포함하는 것을 특징으로 하는 이미지 처리 방법.
  2. 제1항에 있어서,
    상기 틸트 시프트 파라미터는 타깃 틸트 시프트 포인트, 틸트 시프트 경사각 및 피사계 심도 폭을 포함하는데;
    여기서, 상기 타깃 틸트 시프트 포인트는 상기 타깃 틸트 시프트 오브젝트가 놓이는 좌표위치이고; 상기 틸트 시프트 경사각은 상기 타깃 틸트 시프트 포인트가 위치하는 상기 타깃 포커싱면과 상기 기준 이미지의 이미징 플레인의 협각이며, 상기 타깃 포커싱면은 촬영 오브젝트로 이어진 틸트 시프트 축선이 위치하는 플레인이고; 상기 피사계 심도 폭은 틸트 시프트 효과가 있는 영역의 폭인 것을 특징으로 하는 이미지 처리 방법.
  3. 제2항에 있어서,
    상기 틸트 시프트 파라미터에 근거하여 상기 타깃 포커싱면과 교차하는 합성 대기 이미지를 결정하는 상기 단계는,
    상기 타깃 틸트 시프트 포인트와 상기 틸트 시프트 경사각에 근거하여 상기 타깃 포커싱면의 틸트 시프트 방위를 결정하는 단계;
    상기 틸트 시프트 방위와 상기 피사계 심도 폭에 기반하여 상기 타깃 포커싱면과 교차하는 합성 대기 이미지를 결정하는 단계를 포함하는 것을 특징으로 하는 이미지 처리 방법.
  4. 제1항에 있어서,
    상기 합성 대기 이미지는 제1 합성 대기 이미지와 제2 합성 대기 이미지에서의 적어도 하나를 포함하되;
    여기서, 상기 제1 합성 대기 이미지는 상기 N장의 이미지에서 포커싱 거리가 기준 거리보다 작은 이미지이고, 상기 제2 합성 대기 이미지는 상기 N장의 이미지에서 포커싱 거리가 기준 거리보다 큰 이미지이며, 상기 기준 거리는 상기 기준 이미지의 포커싱 거리인 것을 특징으로 하는 이미지 처리 방법.
  5. 제1항에 있어서,
    상기 합성 대기 이미지와 상기 기준 이미지의 포커싱 거리에 기반하여 상기 N장의 이미지를 합성하고 타깃 틸트 시프트 이미지를 출력하는 상기 단계는,
    상기 합성 대기 이미지의 포커싱 본체가 상기 타깃 포커싱면과 교차하는 경우, 상기 합성 대기 이미지와 상기 기준 이미지를 중첩 합성하는 단계;
    상기 합성 대기 이미지의 포커싱 본체가 상기 타깃 포커싱면과 교차하지 않을 경우, 상기 N장의 이미지에서 포커싱 본체가 상기 타깃 포커싱면과 교차하는 이미지에 기반하여 상기 합성 대기 이미지의 포커싱 본체에 대해 해상도 처리를 진행하고 상기 합성 대기 이미지와 상기 기준 이미지를 중첩 합성하는 단계를 포함하는 것을 특징으로 하는 이미지 처리 방법.
  6. 제5항에 있어서,
    상기 합성 대기 이미지와 상기 기준 이미지를 중첩 합성하는 단계는,
    상기 합성 대기 이미지로부터 포커싱 본체를 매팅하여 전경 레이어로 설치하는 단계;
    상기 기준 이미지를 배경 레이어로 설치하는 단계;
    상기 전경 레이어와 상기 배경 레이어를 중첩 합성하는 단계를 포함하는 것을 특징으로 하는 이미지 처리 방법.
  7. 제1항에 있어서,
    N장의 이미지를 획득하는 상기 단계는,
    N개의 상이한 포커싱 본체에 각각 촬영작업을 수행하여 N장의 이미지를 획득하는 단계;
    상기 N장의 이미지를 저장하는 단계를 포함하는 것을 특징으로 하는 이미지 처리 방법.
  8. 제1항에 있어서,
    N장의 이미지를 획득하는 상기 단계는,
    이동식 저장 매체 또는 무선 방식을 통해 타깃 기기를 액세스하는 단계;
    상기 타깃 기기가 미리 저장한 N장의 이미지를 획득하는 단계를 포함하는 것을 특징으로 하는 이미지 처리 방법.
  9. 제7항에 있어서,
    상기 N장의 이미지를 저장하는 상기 단계는,
    상기 N개의 상이한 포커싱 본체에서의 각 포커싱 본체가 카메라와의 포커싱 거리를 결정하는 단계;
    포커싱 거리의 원근 순서에 따라 N장의 이미지를 배열하는 단계;
    배열한 후의 상기 N장의 이미지를 저장하는 단계를 포함하는 것을 특징으로 하는 이미지 처리 방법.
  10. 제1항에 있어서,
    상기 N장의 이미지에서의 기준 이미지를 결정하는 상기 단계는,
    사용자가 입력한 타깃 틸트 시프트 오브젝트의 오브젝트 위치정보를 수신하되, 여기서, 상기 오브젝트 위치정보는 타깃 틸트 시프트 오브젝트가 상기 N장의 이미지에 놓이는 위치영역을 포함하는 단계;
    상기 오브젝트 위치정보에 기반하여 상기 N장의 이미지에서 기준 이미지를 결정하는 단계를 포함하는 것을 특징으로 하는 이미지 처리 방법.
  11. 제10항에 있어서,
    상기 오브젝트 위치정보에 기반하여 상기 N장의 이미지에서 기준 이미지를 결정하는 상기 단계는,
    상기 N장의 이미지에서의 각 이미지의 해상도를 획득하는 단계;
    타깃 틸트 시프트 오브젝트의 해상도가 기설정 임계값보다 큰 이미지를 기준 이미지로 사용하는 단계를 포함하는 것을 특징으로 하는 이미지 처리 방법.
  12. N장의 이미지를 획득하되, 여기서, 상기 N장의 이미지는 동일한 촬영위치에 기반하여 촬영한 것인 동시에 포커싱 본체가 각각 상이한 것이고, 상이한 포커싱 본체는 상이한 포커싱 거리와 대응되는 이미지 획득 모듈;
    상기 N장의 이미지에서의 기준 이미지를 결정하되; 여기서, 상기 기준 이미지는 타깃 틸트 시프트 오브젝트의 해상도가 기설정 임계값보다 큰 이미지인 기준 이미지 결정 모듈;
    사용자가 입력한 틸트 시프트 파라미터를 획득하되, 여기서, 상기 틸트 시프트 파라미터는 타깃 포커싱면의 방위 및 틸트 시프트 영역의 범위를 지시하기 위한 것인 틸트 시프트 파라미터 수신 모듈;
    상기 틸트 시프트 파라미터에 근거하여 상기 타깃 포커싱면과 교차하는 합성 대기 이미지를 결정하는 합성 대기 이미지 결정 모듈;
    상기 합성 대기 이미지와 상기 기준 이미지의 포커싱 거리에 기반하여 상기 N장의 이미지를 합성 처리하고 타깃 틸트 시프트 이미지를 출력하는 합성 처리 모듈을 포함하는 것을 특징으로 하는 전자 기기.
  13. 프로세서, 메모리 및 상기 메모리에 저장되어 상기 프로세서에서 운행될 수 있는 컴퓨터 프로그램을 포함하는 전자 기기에 있어서,
    상기 컴퓨터 프로그램이 상기 프로세서에 의해 실행될 경우, 제1항 내지 제11항 중 어느 한 항에 따른 이미지 처리 방법의 단계를 구현하는 것을 특징으로 하는 전자 기기.
  14. 컴퓨터 프로그램이 저장되는 컴퓨터 판독 가능 저장 매체에 있어서,
    상기 컴퓨터 프로그램이 프로세서에 의해 실행될 경우, 제1항 내지 제11항 중 어느 한 항에 따른 이미지 처리 방법의 단계를 구현하는 것을 특징으로 하는 컴퓨터 판독 가능 저장 매체.
  15. 적어도 하나의 프로세서에 의해 실행되어 제1항 내지 제11항 중 어느 한 항에 따른 이미지 처리 방법을 구현하는 것을 특징으로 하는 컴퓨터 프로그램 제품.
KR1020227027486A 2020-01-22 2021-01-20 이미지 처리 방법, 전자 기기 및 컴퓨터 판독 가능 저장 매체 KR20220124244A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202010075815.1 2020-01-22
CN202010075815.1A CN111246106B (zh) 2020-01-22 2020-01-22 图像处理方法、电子设备及计算机可读存储介质
PCT/CN2021/072921 WO2021147921A1 (zh) 2020-01-22 2021-01-20 图像处理方法、电子设备及计算机可读存储介质

Publications (1)

Publication Number Publication Date
KR20220124244A true KR20220124244A (ko) 2022-09-13

Family

ID=70865667

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020227027486A KR20220124244A (ko) 2020-01-22 2021-01-20 이미지 처리 방법, 전자 기기 및 컴퓨터 판독 가능 저장 매체

Country Status (6)

Country Link
US (1) US11792351B2 (ko)
EP (1) EP4096211A4 (ko)
JP (1) JP7371264B2 (ko)
KR (1) KR20220124244A (ko)
CN (1) CN111246106B (ko)
WO (1) WO2021147921A1 (ko)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111246106B (zh) * 2020-01-22 2021-08-03 维沃移动通信有限公司 图像处理方法、电子设备及计算机可读存储介质
CN111866378A (zh) * 2020-06-30 2020-10-30 维沃移动通信有限公司 图像处理方法、装置、设备及介质
CN114025100B (zh) * 2021-11-30 2024-04-05 维沃移动通信有限公司 拍摄方法、装置、电子设备和可读存储介质
CN114363522A (zh) * 2022-01-17 2022-04-15 Oppo广东移动通信有限公司 拍照方法及相关装置
CN117078962B (zh) * 2023-09-27 2024-03-19 支付宝(杭州)信息技术有限公司 基于纹理采集的数据上链方法及装置

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4461732B2 (ja) 2003-07-18 2010-05-12 カシオ計算機株式会社 カメラ装置、及び撮影方法、プログラム
JP4241460B2 (ja) 2004-03-25 2009-03-18 キヤノン株式会社 電子撮像装置
WO2010065344A1 (en) * 2008-11-25 2010-06-10 Refocus Imaging, Inc. System of and method for video refocusing
JP5293282B2 (ja) 2009-03-06 2013-09-18 ペンタックスリコーイメージング株式会社 デジタルカメラの撮影方法及びデジタルカメラ
JP5300756B2 (ja) * 2010-02-05 2013-09-25 キヤノン株式会社 撮像装置及び画像処理方法
JP2013026844A (ja) 2011-07-21 2013-02-04 Nikon Corp 画像生成方法及び装置、プログラム、記録媒体、並びに電子カメラ
WO2013153252A1 (en) * 2012-04-13 2013-10-17 Nokia Corporation Method and apparatus for producing special effects in digital photography
JP5755374B2 (ja) 2012-08-06 2015-07-29 富士フイルム株式会社 撮像装置
JP2014157425A (ja) * 2013-02-14 2014-08-28 Canon Inc 撮像装置及びその制御方法
JP5997645B2 (ja) 2013-03-26 2016-09-28 キヤノン株式会社 画像処理装置及び方法、及び撮像装置
US9183620B2 (en) * 2013-11-21 2015-11-10 International Business Machines Corporation Automated tilt and shift optimization
US9538065B2 (en) * 2014-04-03 2017-01-03 Qualcomm Incorporated System and method for multi-focus imaging
WO2015171934A1 (en) * 2014-05-09 2015-11-12 Google Inc. Providing pre-edits for photos
KR102251483B1 (ko) * 2014-10-23 2021-05-14 삼성전자주식회사 영상을 처리하는 전자 장치 및 방법
CN105959534B (zh) * 2016-04-28 2019-09-17 青岛海信移动通信技术股份有限公司 图像处理方法、装置及电子设备
US11146723B2 (en) * 2016-12-16 2021-10-12 Sony Corporation Optical scope system for capturing an image of a scene
CN206977568U (zh) * 2017-07-21 2018-02-06 深圳市泰衡诺科技有限公司上海分公司 图像处理装置及电子设备
CN107277363A (zh) * 2017-07-21 2017-10-20 深圳市泰衡诺科技有限公司上海分公司 图像处理方法、图像处理装置及电子设备
JP7158180B2 (ja) * 2018-05-30 2022-10-21 キヤノン株式会社 画像処理装置、画像処理方法、プログラム、記憶媒体
JP7378999B2 (ja) * 2019-07-26 2023-11-14 キヤノン株式会社 撮像装置、撮像方法、プログラムおよび記録媒体
CN114450136A (zh) * 2019-07-30 2022-05-06 奇跃公司 用于眼睛跟踪的成角度分段热镜
US20210218902A1 (en) * 2020-01-09 2021-07-15 Rheal Peter Turcotte Method and apparatus to automatically obtain images in incremental focal-distance steps using any camera/lens having a rotatable focus ring
CN111246106B (zh) * 2020-01-22 2021-08-03 维沃移动通信有限公司 图像处理方法、电子设备及计算机可读存储介质

Also Published As

Publication number Publication date
US20220353436A1 (en) 2022-11-03
EP4096211A1 (en) 2022-11-30
EP4096211A4 (en) 2023-03-29
WO2021147921A1 (zh) 2021-07-29
CN111246106B (zh) 2021-08-03
JP7371264B2 (ja) 2023-10-30
US11792351B2 (en) 2023-10-17
CN111246106A (zh) 2020-06-05
JP2023512966A (ja) 2023-03-30

Similar Documents

Publication Publication Date Title
CN111083380B (zh) 一种视频处理方法、电子设备及存储介质
CN110502954B (zh) 视频分析的方法和装置
WO2021136268A1 (zh) 拍摄方法及电子设备
CN111541845B (zh) 图像处理方法、装置及电子设备
KR20220124244A (ko) 이미지 처리 방법, 전자 기기 및 컴퓨터 판독 가능 저장 매체
CN111355889B (zh) 拍摄方法、装置、电子设备和存储介质
CN107592466B (zh) 一种拍照方法及移动终端
CN110809115B (zh) 拍摄方法及电子设备
CN109660723B (zh) 一种全景拍摄方法及装置
CN107948505B (zh) 一种全景拍摄方法及移动终端
CN110213485B (zh) 一种图像处理方法及终端
CN109905603B (zh) 一种拍摄处理方法及移动终端
CN108449546B (zh) 一种拍照方法及移动终端
KR20220005087A (ko) 촬영 방법 및 단말
CN108718388B (zh) 一种拍照方法及移动终端
CN107888833A (zh) 一种图像拍摄方法及移动终端
CN108174110B (zh) 一种拍照方法及柔性屏终端
CN110363729B (zh) 一种图像处理方法、终端设备及计算机可读存储介质
CN112308103B (zh) 生成训练样本的方法和装置
CN110086998B (zh) 一种拍摄方法及终端
CN108317992A (zh) 一种物距测量方法及终端设备
CN108881721A (zh) 一种显示方法及终端
CN111050069A (zh) 一种拍摄方法及电子设备
WO2021104265A1 (zh) 电子设备及对焦方法
WO2021136181A1 (zh) 图像处理方法及电子设备