KR20190122246A - 영상처리방법과 장치, 기억매체 및 전자기기 - Google Patents

영상처리방법과 장치, 기억매체 및 전자기기 Download PDF

Info

Publication number
KR20190122246A
KR20190122246A KR1020197028700A KR20197028700A KR20190122246A KR 20190122246 A KR20190122246 A KR 20190122246A KR 1020197028700 A KR1020197028700 A KR 1020197028700A KR 20197028700 A KR20197028700 A KR 20197028700A KR 20190122246 A KR20190122246 A KR 20190122246A
Authority
KR
South Korea
Prior art keywords
diffusion
scene
texture
filter
value
Prior art date
Application number
KR1020197028700A
Other languages
English (en)
Other versions
KR102352092B1 (ko
Inventor
하오 류
Original Assignee
텐센트 테크놀로지(센젠) 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 텐센트 테크놀로지(센젠) 컴퍼니 리미티드 filed Critical 텐센트 테크놀로지(센젠) 컴퍼니 리미티드
Publication of KR20190122246A publication Critical patent/KR20190122246A/ko
Application granted granted Critical
Publication of KR102352092B1 publication Critical patent/KR102352092B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/529Depth or shape recovery from texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Image Generation (AREA)
  • Image Processing (AREA)

Abstract

본 출원은 영상처리방법과 장치, 기억매체 및 전자기기를 개시한다. 이 방법은 장면중의 물체와 시점의 상대적 위치 파라미터인 위치 파라미터에 근거하여 장면중의 물체에 대하여 가장자리 확산을 수행하여 확산후의 물체의 윤곽을 얻는 단계와, 물체의 정점의 착락원 값을 확산후의 물체 윤곽의 대응되는 정점의 착락원 값으로 설정하는 단계와, 대응되는 정점의 착락원 값과 미리 얻은 장면중의 물체의 텍스처에 근거하여 확산후의 물체의 각 화소 점의 색채를 결정하는 단계와, 각 화소 점의 색채에 근거하여 확산후의 물체를 그리는 단계를 포함한다. 본 출원은 영상처리방법이 정확하지 않아 피사계 심도 표시 효과가 낮은 기술과제를 해결한다.

Description

영상처리방법과 장치, 기억매체 및 전자기기
본 출원은 2017년 9월 13일에 중국특허청에 제출한 출원번호가 201710826678.9이고 발명명칭이 “영상처리방법과 장치, 기억매체 및 전자기기”인 중국특허출원의 우선권을 주장하고 그 모든 내용을 인용하여 본 출원에 결합시킨다.
본 발명은 영상 처리 분야에 관한 것으로, 특히 영상처리방법과 장치, 기억매체 및 전자기기에 관한 것이다.
컴퓨터 그래픽에 있어서, 일반적으로 이상적인 핀홀 사진기(렌즈 사이즈는 0)를 사용하여 가상의 필름상에 투영하므로, 장면으로부터 필름까지의 빛은 전송 통로가 하나뿐이고, 피사계 심도 효과를 얻으려면 반드시 실제 렌즈에 의한 흐림(blur)을 비슷하게 시뮬레이션하여야 한다.
피사계 심도 효과를 얻기 위하여, 관련기술에는 역방향 매핑된 z 버퍼 존 기술이 있는데 순방향 매핑 기술과 유사하고 한 색채와 심도의 영상(
Figure pct00001
)을 기억할 뿐 혼합된 정신을 화면에 렌더링하지는 않는다. z 버퍼 존에서 발견한 심도 값에 근거하여 차례로 화소의 양을 변경시키고 렌더링된 장면의 흐림을 제거하고 z 값과 초점면 z 값 사이에 큰 차이가 있는 화소인 경우 흐림 레벨로 큰 값을 선택하고 이러한 흐림 방법은 이미 개시되었으며 응용되고 있다.
조기의 일부 방법은 복수의 흐린 텍스처를 사용하여 심도 요구의 흐림에 유사화시킨다. 어떤 방법은 다른 mip 레벨로 동일한 텍스처를 여러차례 사용하고 어떤 방법은 새로운 흐린 텍스처를 표시하면서 구축하며 때로는 2×2를 사용하는 것이 아니라 양호한 다운 샘플링 필터 3×3 또는 5×5를 사용한다. 이러한 방법에 있어서, 일반적으로 원시 장면, 1/4의 텍스처(1/4×1/4), 1/16의 텍스처(1/16×1/16)의 3가지 검색을 수행하고 화소의 z 값에 근거하여 이들을 혼합한다. 하드웨어에 의한 계층적 세분화를 기반으로 한 텍스처 밉맵(mipmap)을 대신하여 하드웨어 mipmap 생성기가 통상 속도는 빠르지만 이는 품질 저하를 대가로 하는 것이고, 다른 한 재미있는 방법은 하드웨어를 이용하여 컬러 텍스처를 위하여 부동 소수점의 영역 합계와 테이블(sum-up table)을 생성하여 mipmap를 대체한다. 영역 합계와 테이블을 사용하면 이선식 보간의 변형을 개선할 수는 있지만 이러한 기술은 속도가 아주 느리고 실제로 양호하게 정의된 결과를 얻을 수 없다.
다른 한 관련기술은 착락원(Circle of Confusion, COC로 약칭) 분층에 근거하여 피사계 심도 효과를 실현하는 방법으로, 우선 물체를 그려서 COC 분층 텍스처를 얻고, 그 다음 COC와 거리의 함수 관계를 정의하며 처리하려는 그래픽 장면에 대응되게 구획하고 장면 렌더링을 COC 구획 영역에 따라 3개 텍스처로 렌더링하며 텍스처의 색채RGB는 대응되는 화소의 정상 색채이고 텍스처의 색채A는 화소의 COC 값을 기억하고, 그 다음 텍스처를 분층 처리하고 비율에 따라 축소시키면서 텍스처를 분층하고 텍스처를 그래픽에 대응되는 비율에 따라 필터링 축소시키고 설정된 필터로 텍스처에 대하여 필터링 처리를 수행한다. 필터링 처리 과정에 있어서, 우선 COC 비교를 수행하는데 필터를 이용하여 처리할 수 있고 필터중의 미관 화소에 대하여 COC가 필터중의 COC 거리 이하인가를 판단하고, 이하이면 해당 화소의 색채*COC 가중치를 합산하고, COC 가중치는 COC 확산의 영향을 받은 화소 수량의 역수이고 화소가 균일하게 확산되었다고 가정한다. 그 다음, 색채 오버레이를 수행하여 여러개 이미지를 오버레이하여 최종 효과도를 얻는다.
하지만 관련기술에는 물체의 본체에서만 흐린 텍스처를 샘플링하여 혼합하고 물리 원리적으로 화소에 대하여 COC 확산을 수행하지 않았으며 심도가 연속적이지 않을 경우 왜곡이 발생하게 되고, 즉 흐려야 했어야 하는 물체의 가장자리에 단단한 윤곽이 나타나고 정확한 확산 계산에 기반하여 그래픽카드의 계산 능력에 대한 요구가 높아 저급 기기에 적용되지 않는다.
상기 문제에 대하여 아직 유효한 해결책이 제시되지 않은 것이 실정이다.
본 출원의 실시예에 따르면 적어도 영상처리방법이 정확하지 않아 피사계 심도 표시 효과가 낮은 기술과제를 해결할 수 있는 영상처리방법과 장치, 기억매체 및 전자기기를 제공한다.
본 출원의 실시예의 일 측면에 따르면, 장면중의 물체와 시점의 상대적 위치 파라미터인 위치 파라미터에 근거하여 장면중의 물체에 대하여 가장자리 확산을 수행하여 확산후의 물체의 윤곽을 얻는 단계와, 상기 물체의 정점의 착락원 값을 상기 확산후의 물체 윤곽의 대응되는 정점의 착락원 값으로 설정하는 단계와, 상기 대응되는 정점의 착락원 값과 미리 얻은 상기 장면중의 물체의 텍스처에 근거하여 상기 확산후의 물체의 각 화소 점의 색채를 결정하는 단계와, 상기 각 화소 점의 색채에 근거하여 상기 확산후의 물체를 그리는 단계를 포함하는 영상처리방법을 제공한다.
본 출원의 실시예의 다른 일 측면에 따르면, 장면중의 물체와 시점의 상대적 위치 파라미터인 위치 파라미터에 근거하여 장면중의 물체에 대하여 가장자리 확산을 수행하여 확산후의 물체의 윤곽을 얻도록 구성되는 확산유닛과, 상기 물체의 정점의 착락원 값을 상기 확산후의 물체 윤곽의 대응되는 정점의 착락원 값으로 설정하도록 구성되는 제1 처리유닛과, 상기 대응되는 정점의 착락원 값과 미리 얻은 상기 장면중의 물체의 텍스처에 근거하여 상기 확산후의 물체의 각 화소 점의 색채를 결정하도록 구성되는 결정유닛과, 상기 각 화소 점의 색채에 근거하여 상기 확산후의 물체를 그리도록 구성되는 제도유닛을 포함하는 영상처리장치를 제공한다.
본 출원의 실시예의 다른 일 측면에 따르면, 실행시 본 출원의 영상처리방법을 실현하는 프로그램이 기억된 기억매체를 더 제공한다.
본 출원의 실시예의 다른 일 측면에 따르면, 메모리, 프로세서, 및 상기 메모리에 기억되고 상기 프로세서에서 실행되는 컴퓨터 프로그램을 포함하고, 상기 프로세서가 상기 컴퓨터 프로그램을 실행함으로써 본 출원의 영상처리방법을 수행하는 전자기기를 더 포함한다.
본 출원의 실시예에 있어서, 장면중의 물체와 시점의 상대적 위치 파라미터인 위치 파라미터에 근거하여 장면중의 물체에 대하여 가장자리 확산을 수행하여 확산후의 물체의 윤곽을 얻고, 물체의 정점의 착락원 값을 확산후의 물체 윤곽의 대응되는 정점의 착락원 값으로 설정하며, 대응되는 정점의 착락원 값과 미리 얻은 장면중의 물체의 텍스처에 근거하여 확산후의 물체의 각 화소 점의 색채를 결정하고, 각 화소 점의 색채에 근거하여 확산후의 물체를 그림으로써 영상 피사계 심도 표시 원리에 따라 물체에 대하여 가장자리 확산을 수행하여 표시 효과가 진일보로 진실되도록 하는 목적을 실현하여 피사계 심도 표시 효과를 향상시키는 기술효과를 실현하고 영상처리방법이 정확하지 않아 피사계 심도 표시 효과가 낮은 기술과제를 해결한다.
여기서 설명하는 도면은 본 출원을 진일보로 이해하도록 하는 것으로서, 본 출원의 일부를 구성하며 본 출원에 예시적으로 나타낸 실시예 및 그 설명은 본 출원을 해석하기 위한 것으로 본 출원을 한정하는 것이 아니다.
도 1은 본 출원의 실시예에 따른 영상처리방법의 하드웨어 환경을 나타낸 도이다.
도 2는 본 출원의 실시예에 따른 선택가능한 영상처리방법의 흐름도이다.
도 3은 본 출원의 실시예에 따른 렌즈가 포커싱된 것을 나타낸 도이다.
도 4는 본 출원의 실시예에 따른 렌즈가 포커싱되지 않은 것을 나타낸 도이다.
도 5는 본 출원의 실시예에 따른 선택가능한 영상처리방법의 흐름도이다.
도 6은 본 출원의 실시예에 따른 장면 이미지를 나타낸 도이다.
도 7은 본 출원의 실시예에 따른 COC=3의 필터를 나타낸 도이다.
도 8은 본 출원의 실시예에 따른 4가지 텍스처를 나타낸 도이다.
도 9는 본 출원의 실시예에 따른 삼각형유닛을 나타낸 도이다.
도 10은 본 출원의 실시예에 따른 시점 위치와 확산된 가장자리를 나타낸 도이다.
도 11은 본 출원의 실시예에 따른 원래 이미지와 가장자리가 확산된 물체를 나타낸 도이다.
도 12는 본 출원의 실시예에 따른 가장자리 확산을 수행한 COC 값을 나타낸 도이다.
도 13은 본 출원의 실시예에 따른 선택 가능한 영상처리장치를 나타낸 도이다.
도 14는 본 출원의 실시예에 따른 전자기기의 구조를 나타낸 블록도이다.
이하, 이 분야의 기술자들이 본 출원의 기술방안을 더욱 쉽게 이해할 수 있도록, 본 출원의 실시예의 도면을 결합하여 본 출원의 실시예의 기술방안을 명확하고 완벽하게 설명하는데, 아래에서 설명하는 실시예는 본 출원의 모든 실시예가 아니라 일부 실시예뿐이다. 본 출원의 실시예에 근거하여 이 분야의 기술자가 창조성이 있는 노동을 필요로하지 않고 얻은 모든 기타 실시예는 모두 본 출원의 보호범위에 속한다.
그리고, 본 출원의 명세서, 특허청구범위 및 도면에 기재된 용어 "제1", "제2" 등은 유사한 대상을 구별하기 위한 것으로 반드시 특정된 순서 또는 선후 순서를 나타내기 위한 것이 아니다. 이렇게 사용되는 대상은 본 출원의 실시예를 여기서 도시되는 또는 설명되는 순서와 다른 순서로 실시할 수 있도록, 적절한 상황에서 서로 교환될 수 있음은 이해할 수 있는 것이다. 그리고 용어 "포함", "구비" 및 이러한 용어의 임의의 변형은 비배제적 포함을 커버하기 위한 것으로, 예를 들어 일련의 단계 또는 유닛을 포함하는 프로세스, 방법, 시스템, 제품 또는 기기는 명확히 기재된 단계 또는 유닛에 한정되지 않고, 명확히 기재하지 않은 또는 이러한 프로세스, 방법, 제품 또는 기기의 고유의 기타 단계 또는 유닛을 포함할 수도 있음을 표시한다.
우선, 본 출원의 실시예를 설명하는 과정에 나타나는 일부 명사 또는 용어를 해석한다.
실시간 렌더링(real-time rendering) : 그래픽 프로세서(Graphics Processing Unit, GPU로 약칭)를 프로세서로하고 매초에 24프레임 이상의 화면 렌더링 속도에 도달하고 오퍼레이터와 유효한 인터렉션를 수행하였다고 볼 수 있다.
물체가 카메라로부터 일정한 범위내에 있으면 뚜렷하게 영상을 형성할 수 있지만(포커싱됨), 그 범위외(가깝거나 먼 경우)이면 영상이 흐려지고 이러한 효과가 바로 피사계 심도(Depth of Field)이다. 카메라 업계와 영화 업계에 있어서, 일반적으로 피사계 심도로 장면에서 주의하여야 하는 범위를 표시하고 장면 심도의 느낌을 부여한다. 당 분야에 있어서, 일반적으로 이러한 포커싱 범위보다 먼 영역을 배경이라고 하고 이러한 범위보다 앞인 영역을 전경이라고 하며 포커싱 범위내의 면적을 미디엄 숏이라고 한다.
피사계 심도 효과는 렌즈의 물리적 특성에 의하여 나타난다. 카메라 렌즈(또는 사람 눈의 수정체)를 통과하는 빛을 필름(또는 사람의 망막)상의 한 점에 집중시키려면, 광원은 반드시 렌즈와 특정의 거리에 있어야 한다. 이 거리에 위치한 평면을 초점면이라고 한다. 이러한 정확한 거리에 있지 않은 모든 물체가 필름상에 투영된 영역(한 점 미만)을 착락원(Circle of Confusion, COC로 약칭)이라고 한다. COC의 직경은 렌즈 사이즈 및 초점면로부터 이탈된 거리와 정비례된다. 이탈된 거리가 일정한 수준으로 작아지면 COC는 필름의 해상도보다 더 작아지고 사진사와 카메라맨은 이러한 거리 범위를 포커싱되었다(형성된 영상이 뚜렷하다)고 하고, 이러한 범위외의 모든 물체는 모두 흐려지게 된다(초점에 맞추어지지 않았다).
본 출원의 실시예에 따르면 영상 처리 방법 실시예를 제공한다.
선택적으로, 본 실시예에 있어서, 상기 영상처리방법은 도 1에 도시한 서버(102)와 단말(104)로 구성된 하드웨어 환경에 적용될 수 있고, 여기서, 하드웨어 환경은 네트워크 환경을 포함한다. 도 1에 도시한 바와 같이, 서버(102)는 네트워크를 통하여 단말(104)에 연결되고 상기 네트워크는 광역 네트워크, 도시권 통신망 또는 근거리 통신망을 포함하지만 이에 한정되는 것은 아니고, 단말(104)은 PC, 휴대폰, 태블릿PC 등에 한정되지 않는다. 본 출원의 실시예의 영상처리방법은, 서버(102)가 실행할 수 있고, 단말(104)이 실행할 수도 있으며, 서버(102)와 단말(104)이 공동으로 실행할 수도 있다. 여기서, 단말(104)이 본 출원의 실시예의 영상처리방법을 실행하는 경우, 그 단말에 탑재된 클라이언트에 의해 실행할 수 있다.
도 2는 본 출원의 실시예에 따른 선택 가능한 영상처리방법의 흐름도로서, 도 2에 도시한 바와 같이, 이 방법은 .
장면중의 물체와 시점의 상대적 위치 파라미터인 위치 파라미터에 근거하여 장면중의 물체에 대하여 가장자리 확산을 수행하여 확산후의 물체의 윤곽을 얻는 단계S202,
물체의 정점의 착락원 값을 확산후의 물체 윤곽의 대응되는 정점의 착락원 값으로 설정하는 단계S204,
대응되는 정점의 착락원 값과 미리 얻은 장면중의 물체의 텍스처에 근거하여 확산후의 물체의 각 화소 점의 색채를 결정하는 단계S206, 및
각 화소 점의 색채에 근거하여 확산후의 물체를 그리는 단계S208
을 포함한다.
상기 단계S202 내지 단계S208을 통하여, 장면중의 물체와 시점의 상대적 위치 파라미터인 위치 파라미터에 근거하여 장면중의 물체에 대하여 가장자리 확산을 수행하여 확산후의 물체의 윤곽을 얻고, 물체의 정점의 착락원 값을 확산후의 물체 윤곽의 대응되는 정점의 착락원 값으로 설명하며, 대응되는 정점의 착락원 값과 미리 얻은 장면중의 물체의 텍스처에 근거하여 확산후의 물체의 각 화소 점의 색채를 결정하고, 각 화소 점의 색채에 근거하여 확산후의 물체를 그림으로써, 영상 피사계 심도 표시 원리에 따라 물체에 대하여 가장자리 확산을 수행하여 표시 효과가 더 진실되도록 하는 목적을 실현하여, 피사계 심도 표시 효과를 향상시키는 기술효과를 실현하고, 영상처리방법이 정확하지 않아 피사계 심도 표시 효과가 낮은 기술과제를 해결한다.
물체가 카메라로부터 일정한 범위내에 있으면 뚜렷하게 영상을 형성할 수 있지만(포커싱됨) 그 범위외(가깝거나 먼 경우)이면 영상이 흐려지고 이러한 효과가 바로 피사계 심도(Depth of Field)이다. 카메라 업계와 영화 업계에 있어서, 일반적으로 피사계 심도로 장면에사 주의하여야 하는 범위를 표시하고 장면 심도의 느낌을 부여한다. 당 분야에 있어서, 일반적으로 이러한 포커싱 범위보다 먼 영역을 배경이라고 하고 이러한 범위보다 앞인 영역을 전경이라고 하며 포커싱 범위내의 면적을 미디엄 숏이라고 한다.
피사계 심도 효과는 렌즈의 물리적 특성에 의하여 나타나는 것으로, 카메라 렌즈(또는 사람 눈의 수정체)를 통과하는 빛을 필름(또는 사람의 망막)상의 한 점에 집중시키려면, 광원은 반드시 렌즈와 특정의 거리에 있어야 한다. 도 3은 본 출원의 실시예에 따른 렌즈가 포커싱된 것을 나타낸 도로서, 도 3에 도시한 바와 같이, 이 거리에 위치한 평면을 초점면이라고 한다. 이러한 정확한 거리에 있지 않은 모든 물체가 필름상에 투영된 영역(한 점이 아님)을 착락원(COC)이라고 한다. 도 4는 본 출원의 실시예에 따른 렌즈가 포커싱되지 않은 것을 나타낸 도로서, 도 4에 도시한 바와 같이, COC의 직경은 렌즈 사이즈 및 초점면면로부터 이탈된 거리와 정비례된다. 이탈된 거리가 일정한 수준으로 작아지면 COC는 필름의 해상도보다 더 작아지고 사진사와 카메라맨은 이러한 거리 범위를 포커싱되었다(형성된 영상이 뚜렷하다)고 하고, 이러한 범위외의 모든 물체는 모두 흐려지게 된다(초점에 맞추어지지 않았다).
본 출원의 실시예에 있어서, 영상 처리 과정은 플레이어 컴퓨터 단말에서 실시간으로 수행될 수 있다.
단계S202에서 제공하는 기술방안에 있어서, 위치 파라미터는 장면중의 물체와 시점의 상대적 위치 파라미터이고, 본 출원의 실시예의 영상처리방법은 게임 장면의 영상 처리에 적용될 수 있으며, 예를 들어 어느 한 3D 게임 장면에 있어서, 플레이어 시점과 물체의 상대적 위치 관계는 어느 한 시각에서는 확정된 것이고, 플레이어 시점과 물체의 상대적 위치 관계가 다를 경우, 예를 들어 거리의 멀기가 다르고 각도가 다른 등 경우, 이러한 서로 다른 위치 관계에서 플레이어가 관찰할 수 있는 물체의 다른 위치에서의 피사계 심도는 다르고, 플레이어의 눈이 물체로부터 멀리 떨어진 경우, 물체의 가장자리는 많이 흐려지고 선명한 가장자리가 아니고, 플레이어의 눈이 물체에 가까운 경우, 물체의 가장자리는 상대적으로 선명해지고 흐린 부분이 작음으로 위치 파라미터에 근거하여 장면중의 물체에 대하여 가장자리 확산을 수행하여 확산후의 물체의 윤곽을 얻는다. 위치 파라미터는 물체상의 각 점의 COC 값으로 표시할 수 있다.
단계S204에서 제공하는 기술방안에 있어서, 물체에 대하여 가장자리 확산을 수행한 후, 얻은 물체의 윤곽은 원래 물체와 같은 수량의 정점을 가지고 장면중의 3D 물체가 입방체인 경우를 예로 하면 원래 물체가 8개의 정점을 구비하고 확산후의 물체도 8개의 정점을 구비하며 각 정점은 원래 물체의 정점과 위치상 대응되고, 확산된 가장자리가 원래 물체의 사이즈 크기보다 작기 때문에 원래 물체의 정점의 COC 값을 확산후의 물체의 윤곽의 대응되는 정점의 COC 값으로 할 수 있다. COC 값은 현재 물체상의 점의 시점으로부터의 거리를 표시하고, 현재 점의 흐린 정도를 표시할 수도 있다.
단계S206에서 제공하는 기술방안에 있어서, 장면중의 물체의 텍스처를 미리 결정하고 미리 설정된 필터를 통하여 장면중의 물체의 영상에 대하여 샘플링, 필터링을 수행하고, 원래 이미지에 대하여 다운 샘플링을 수행하는 것에 ?춰서 요구에 부합되는 복수개의 텍스처를 얻고, 대응되는 정점의 COC 값과 복수개의 텍스처에 근거하여 확산후의 물체의 각 화소 점의 색채를 결정한다. 통상적으로 각 정점의 COC 값을 얻은 후, 복수개의 텍스처에 근거하여 선형 보간 혼합을 수행하면 각 화소 점의 색채 값을 얻을 수 있고, 각 색채 값을 RGB 값으로 표시할 수 있다.
단계S208에서 제공하는 기술방안에 있어서, 확산후의 물체의 모든 화소 점의 색채를 얻은 후, 각 화소 점의 색채에 근거하여 확산후의 물체를 그리고, 이 과정은 실시간 렌더링된 것일 수 있다. 확산을 수행한 후, 물체의 각 화소 점과 시점의 거리 멀기에 따라 확산후의 물체를 그릴 수 있는데, 포커싱 위치에서 먼 영역일 수록 흐려지고 포커싱 위치에 가까운 영역일 수록 선명해진다.
장면중의 물체의 가장자리를 확산시키고 확산을 수행한 기초에서 피사계 심도 효과를 표시하여 피사계 심도 효과의 표시가 눈으로 본 영상과 더욱 유사하게 되고, 특히 고품질 게임에 있어서, 본 실시예는 역방향 매핑의 z 버퍼 존의 피사계 심도에 근거하여 COC 분층과 확산 방식을 통하여 피사계 심도 효과가 아주 높은 정밀도와 효율에 도달되도록 한다.
선택 가능한 실시예로, 대응되는 정점의 COC 값과 미리 얻은 장면중의 물체의 텍스처에 근거하여 확산후의 물체의 각 화소 점의 색채를 결정하기 전에, 장면중의 물체의 뷰에 대하여 다운 샘플링을 수행하여 크기는 서로 다른 복수개의 목표 뷰를 얻고, 미리 설정된 복수개의 필터를 통하여 복수개의 목표 뷰에 대하여 각각 필터링을 수행하여 복수개의 텍스처를 얻으며, 여기서, 텍스처는 장면중의 물체의 텍스처이다.
장면중의 물체의 뷰에 대하여 다운 샘플링을 수행함으로써 더욱 적은 화소 점의 영상을 얻을 수 있고, 다운 샘플링의 값의 차이에 근거하여 크가가 다른 영상을 얻을 수 있고, 미리 설정된 COC 필터를 이용하여 크기가 다른 영상에 대하여 필터링을 수행하여 크기가 다르고 COC 값이 다른 텍스처를 얻을 수 있고 이러한 텍스처를 표준 값으로 할 수 있고 후속되는 영상 처리중의 샘플링에 이용할 수도 있다.
선택 가능한 실시예로서, 미리 설정된 복수개의 필터는 제1 필터, 제2 필터, 제3 필터와 제4 필터를 포함하고, 복수개의 목표 뷰는 제1 목표 뷰, 제2 목표 뷰, 제3 목표 뷰와 제4 목표 뷰를 포함하며, 대응되는 정점의 COC 값과 미리 얻은 장면중의 물체의 텍스처에 근거하여 확산후의 물체의 각 화소 점의 색채를 결정하기 전에, 제1 필터와 다운 샘플링을 통하여 장면중의 물체의 제1 텍스처를 얻고, 여기서, 제1 텍스처의 COC 값은 1이고 제1 목표 뷰의 크기는 원래 이미지와 동일하고, 그리고 제2 필터와 다운 샘플링을 통하여 장면중의 물체의 제2 텍스처를 얻으며, 여기서, 제2 텍스처의 COC 값은 3이고 제2 목표 뷰의 크기는 원래 이미지와 동일하며, 제3 필터와 다운 샘플링을 통하여 장면중의 물체의 제3 텍스처를 얻고, 여기서, 제3 텍스처의 COC 값은 6이고 제3 목표 뷰의 크기는 원래 이미지의 1/2이고, 제4 필터와 다운 샘플링을 통하여 장면중의 물체의 제4 텍스처를 얻고, 여기서, 제4 텍스처의 COC 값은 12이고 제4 목표 뷰의 크기는 원래 이미지의 1/4이다.
미리 얻은 장면중의 물체의 텍스처는 4개 일 수 있고 4개 텍스처를 서로 다른 COC 값과 서로 다른 샘플링 값으로부터 얻을 수 있다. 본 출원의 실시예에서 처리하여 얻은 4가지 텍스처 이미지 외에도 더욱 많은 텍스처 이미지를 얻어서 선형 보간 혼합시 사용할 수 있다.
선택 가능한 실시예로, 위치 파라미터에 근거하여 장면중의 물체에 대하여 가장자리 확산을 수행하여 확산후의 물체의 윤곽을 얻는 것은, 장면중의 물체의 모든 삼각형유닛을 순회(traversal)하고, 시점방향을 향한 삼각형유닛의 3개 변을 미리 설정된 스택에 기억하며, 스택에 중복되는 변이 존재하는 경우, 중복되는 변을 삭제하여 시점 방향을 향한 모든 변을 얻고, 위치 파라미터에 근거하여 시점 방향을 향한 모든 변을 외측으로 투사시켜 확산된 가장자리를 형성하여 확산후의 물체의 윤곽을 얻는 것을 포함한다.
3차원(3D) 영상 처리에 있어서, 모든 물체를 모두 삼각형을 처리 유닛으로 영상 처리를 수행하고 장면중의 물체의 모든 삼각형유닛을 순회하여 시점 방향을 향한 삼각형유닛을 찾아내고, 시점 방향을 향한 삼각형유닛의 3개 변을 모두 미리 설정된 스택에 기억하며 각 변이 두 삼각형에 공용됨으로 스택에는 중복된 변이 많이 존재하고 스택에 중복되는 변이 존재한다고 판단되면 이러한 중복되는 변을 한번 삭제하여 중복되지 않는 변을 얻고, 위치 파라미터에 근거하여 시점 방향을 향한 모든 변을 외측으로 투사시켜 확산된 가장자리를 형성하여 확산후의 물체의 윤곽을 형성한다.
선택 가능한 실시예로서, 위치 파라미터에 근거하여 시점 방향을 향한 모든 변을 외측으로 투사시켜 확산된 가장자리를 형성하여 확산후의 물체의 윤곽을 얻는 것은, 위치 파라미터중의 시점 방향을 향한 각 정점의 COC 값에 근거하여 확산된 가장자리의 길이를 결정하고, 확산된 가장자리의 길이에 근거하여 시점 방향을 향한 모든 변을 외측으로 투사시켜 확산된 가장자리를 형성하여 확산후의 물체의 윤곽을 얻는 것을 포함한다.
물체중의 각 정점은 모두 결정된 COC 값을 가지고 COC 값이 큰 영역일수록 확산된 가장자리의 길이가 더욱 길어지고 시각 효과가 더욱 흐려지고, COC 값이 작은 영역일수록 확산된 가장자리의 길이는 더욱 짧아지고 시각 효과가 어둑 선명해지며 시점 방향을 향한 모든 면의 변이 보일 수 있고, 시점 방향을 등쪽으로 한 모든 변은 보이지 않고, 영상을 표시할 때 시점 방향을 향한 점만을 표시하고 시점 방향을 향한 변을 외측으로 투사시켜 확산된 가장자리를 형성하여 확산후의 물체의 윤곽을 얻는다.
고품질 게임에 있어서, 사람의 시각 감각을 시뮬레이션한 피사계 심도 효과가 점점 더 플레이어의 중시를 받고 있다. 본 벙법은 역방향 매핑의 z 버퍼 존의 피사계 심도에 근거하여 COC 분층과 확산 방식을 이용하여 아주 높은 정밀도와 효율에 도달한다.
본 출원에서는 선택가능한 실시예를 더 제공하는데 이하 이 선택가능한 실시예를 결합하여 본 출원의 실시예의 기술방안을 설명한다.
도 5는 본 출원의 실시예에 따른 선택가능한 영상처리방법의 흐름도로서, 도 5에 도시된 바와 같이, 이 방법은 하기 단계를 포함한다.
1, 물체를 그려서 장면 물체 이미지를 얻는다.
2, 물체 이미지에 대하여 다운 샘플링을 수행하여 저 해상도인 다른 COC의 이미지를 얻는다.
3, 물체를 확산처리하여 COC 값에 따라서 물체에 대하여 가장자리 확산을 수행한다.
4, 확산 물체를 그리고 물체 COC에 근거하여 샘플링을 수행한다.
선택적으로,
물체의 제도:
도 6은 본 출원의 실시예에 따른 장면 이미지를 나타낸 도로서, 도 6에 도시한 바와 같이, 정상적으로 물체를 렌더링하여 장면 물체의 이미지를 얻고, 얻은 장면 물체의 이미지를 버퍼에 일시적으로 기억할 수 있다.
물체 이미지의 다운 샘플링 :
도 7은 본 출원의 실시예에 따른 COC=3의 필터를 나타낸 도로서, 도 7에 도시한 바와 같이, COC=3인 필터에 있어서, 최대 값은 3이고 COC=3인 필터와 장면중의 물체 이미지의 원래 이미지로 컨벌루션 계산을 수행하고 그 필터를 사용하여 샘플링 시 선형 필터링을 사용하면 5회 샘플링(도면중의 작은 원형 위치에 대응됨)으로 17개의 샘플링 점의 데이터를 얻을 수 있다. 이 필터의 COC 범위는 3이다. COC의 값은 도 7에 도시한 값외의 기타 값으로 설정할 수도 있고, COC 필터의 값의 설정에 대하여 이 분야의 기술자가 생각할 수 있는 모든 조합이 본 출원의 보호범위에 속한다.
도 8은 본 출원의 실시예에 따른 4가지 텍스처를 나타낸 도로서, 도 8에 도시한 바와 같이, 원래 이미지를 축소시키고 COC 필터 처리를 수행하여 도시한 4가지 텍스처를 얻을 수 있고, 각 텍스처가 지원하는 COC 범위는 서로 다르다. 여기서, 도 A에서 이용한 COC=1이고 텍스처A는 원래 이미지이며 텍스처B의 크기는 원래 크기이고 필터를 사용한 후 COC 범위는 3이 되고, 텍스처C는 원래 이미지의 1/2이고 필터와 협동하여 COC 범위가 6이 되며, 텍스처D는 크기가 원래 이미지의 1/4이고 필터와 협동하여 COC 범위가 12이 된다.
물체의 확산 처리: COC 값에 근거하여 물체에 대하여 가장자리 확산을 수행한다.
도 9는 본 출원의 실시예에 따른 삼각형유닛을 나타낸 도로서, 도 9에 도시한 바와 같이, 4개의 삼각형으로 구성된 다각형의 경우, 시점이 플레이어의 머리부분에 위치한다고 하면 외곽의 한 바퀴 실선이 바로 가장자리이다. 원시 데이터로부터 내부의 여분의 4개 변(점선)을 삭제하여야 한다. 하기와 같이 실현할 수 있다.
모형의 모든 삼각형을 순회한다.
벡터 점곱dot3(Viewpoint_direction, triangle_normal)을 계산하여 점곱 결과를 얻고, 이 결과를 이용하여 삼각형이 플레이어를 향하는가(dot3>0, 볼 수 있다) 아니면 플레이어를 등쪽으로 하는가(dot3<0, 볼 수 없다)를 판단한다.
플레이어를 향하는 삼각형에 대하여 모든 3개 변을 하나의 스택에 삽입시키고 스택내부의 변과 비교하며 중복되는 변(edge1과 edge2)이 발견되면 이러한 변을 삭제한다.
모든 삼각형의 모든 변을 검사한 후, 스택내부에 남은 변은 바로 플레이어를 향한 위치의 하부의 가장자리이다.
도 10은 본 출원의 실시예에 따른 시점 위치와 확산된 가장자리를 나타낸 도로서, 도 10에 도시한 바와 같이, 시점 방향에 근거하여 CPU를 이용하여 이러한 가장자리 선을 투사시켜 확산된 가장자리를 형성한다. 윤곽의 변의 개수가 n이면 동적으로 2n개의 삼각형을 생성하여야 한다. 가장자리가 확산된 길이는 대응되는 정점의 COC의 값을 기준으로 한다.
도 11은 본 출원의 실시예에 따른 원래 이미지와 가장자리 확산을 수행한 후의 물체를 나타낸 도로서, 도 11에 도시한 바와 같이, 가장자리 확산을 수행한 후의 물체는 원래 이미지에 비하여 확산된 가장자리를 가지고 각 방향에서의 확산 길이는 대응되는 정점의 COC 값과 관련된다.
확산 물체의 제도, 즉 확산된 물체를 그린다.
물체의 COC 값에 근거하여 샘플링을 수행하고 가장자리가 확산된 정점의 COC 값은 확산원 자체의 정점의 COC 값과 동일한다.
도 12는 본 출원의 실시예에 따른 가장자리 확산을 수행한 COC 값을 나타낸 도로서, 도 12에 도시한 바와 같이, 최종적으로 확산 물체를 그릴 경우, 화소가 착색될 때, 자신의 COC 값에 근거하여 텍스처A로부터 텍스처D까지 샘플링한다. 본 화소의 COC가 10이면 텍스처C(COC 범위6)와 텍스처D(COC 범위12)를 샘플링하여 선형 보간 혼합하고 최종 색채=텍스처C*(12-10)/(12-6)+ 텍스처D*(10-6)/(12-6)이고, 색채를 계산할 때, 각 화소에 대하여 각각 RGB 값을 계산하여 각 화소 점의 색채를 얻고 그 다음, 계산하여 얻은 색채에 따라 확산후의 물체의 영상을 렌더링 및 제도하여 시각적 효과가 실제 시각적 효과에 더욱 접근하도록 하며 게임 장면의 시각적 효과를 향상시키고 사용자 체험을 향상시킨다. 실험 결과, 본 출원의 실시예의 기술방안에 의하면 저급의 표시기기에서 근사한 피사계 심도 효과를 얻을 수 있다.
본 출원의 실시예의 기술방안에 의하면, 기하 공간에 근거하여 물체에 대하여 COC 분할과 가장자리 확산을 수행하여 근사한 피사계 심도 효과를 빠르게 얻을 수 있고, 예를 들어 물체의 가장자리가 돌변하는 등 심도가 돌변하는 상황을 처리할 수 있으며 고품질의 피사계 심도 표시의 시각적 효과를 얻을 수 있다.
다만, 상술한 각 방법 실시예에 있어서 설명의 편의를 위하여 일련의 동작의 조합으로 설명하였지만 본 발명에 의하면 일부 단계를 기타 순서 또는 동시에 수행할 수도 있음으로 이러한 동작의 순서에 한정되지 않음을 이 분야의 기술자라면 이해할 수 있다. 그리고 명세서에서 설명한 실시예는 모두 선택가능한 실시예로서 그 동작과 모듈이 본 발명에서 반드시 필요한 것은 아님을 이 분야의 기술자라면 이해할 수 있다
상술한 실시형태의 설명으로부터 이 분야의 기술자는 상기 실시예의 방법을 소프트웨어에 필요한 범용 하드웨어 플랫폼을 결합하는 방식으로 실현할 수 있고 하드웨어를 통하여 실현할 수도 있지만 대부분의 경우에는 전 방법으로 실시하는 것이 바람직함을 알 수 있다. 이에 근거하여 본 출원의 기술방안의 본질 또는 기존기술에 기여하는 부분을 소프트웨어 제품 형식으로 구현할 수 있고 이 컴퓨터 소프트웨어 제품은 기억매체(예를 들어 ROM/RAM, 디스크, 광 디스크)에 기억되며 단말 기기(휴대폰, 컴퓨터, 서버 또는 네트워크 기기 등 일 수 있다)가 본 발명의 각 실시예에 기재된 방법을 실현하도록 하는 여러개의 명령을 포함할 수 있다.
본 출원의 실시예에 따르면, 상기 영상처리방법을 실시하기 위한 영상처리장치를 더 제공한다. 도 13은 본 출원의 실시예에 따른 선택 가능한 영상처리장치를 나타낸 도로서, 도 13에 도시한 바와 같이, 이 장치는
장면중의 물체와 시점의 상대적 위치 파라미터인 위치 파라미터에 근거하여 장면중의 물체에 대하여 가장자리 확산을 수행하여 확산후의 물체의 윤곽을 얻도록 구성되는 확산유닛(10),
물체의 정점의 착락원 값을 확산후의 물체 윤곽의 대응되는 정점의 착락원 값으로 하도록 구성되는 제1 처리유닛(20),
대응되는 정점의 착락원 값과 미리 얻은 장면중의 물체의 텍스처에 근거하여 확산후의 물체의 각 화소 점의 색채를 결정하도록 구성되는 결정유닛(30), 및
각 화소 점의 색채에 근거하여 확산후의 물체를 그리도록 구성되는 제도유닛(40)
을 포함한다
다만, 이 실시예중의 확산유닛(10)은 본 출원의 실시예중의 단계S202를 수행하도록 구성될 수 있고, 이 실시예중의 제1 처리유닛(20)은 본 출원의 실시예중의 단계S204를 수행하도록 구성될 수 있으며, 이 실시예중의 결정유닛(30)은 본 출원의 실시예중의 단계S206을 수행하도록 구성될 수 있고, 이 실시예중의 제도유닛(40)은 본 출원의 실시예중의 단계S208을 수행하도록 구성될 수 있다.
다만, 상기 모듈과 대응되는 단계에 의하여 실현되는 실예와 응용되는 장면은 동일하지만 상기 실시예에 개시된 내용에 한정되는 것은 아니다. 그리고, 상기 모듈은 장치의 일부로서 도 1에 도시한 하드웨어 환경에서 실행될 수 있고, 소프트웨어를 통하여 실현될 수도 있으며 하드웨어를 통하여 실현될 수도 있다.
상기 모듈을 통하여 영상처리방법이 정확하지 않아 피사계 심도 표시 효과가 낮은 기술과제를 해결할 수 있고 표시 효과가 더욱 진실된 기술적 효과를 실현할 수 있다.
선택 가능한 실시예로서, 이 장치는 대응되는 정점의 착락원 값과 미리 얻은 장면중의 물체의 텍스처에 근거하여 확산후의 물체의 각 화소 점의 색채를 결정하기 전에, 장면중의 물체의 뷰에 대하여 다운 샘플링을 수행하여 크기가 서로 다른 복수개의 목표 뷰를 얻도록 구성되는 샘플링유닛과, 미리 설정된 복수개의 필터를 통하여 복수개의 목표 뷰에 각각 필터링을 수행하여 복수개의 텍스처를 얻도록 구성되는 필터링유닛을 더 포함하고, 여기서, 텍스처는 장면중의 물체의 텍스처이다.
선택 가능한 실시예로서, 이 장치는 대응되는 정점의 착락원 값과 미리 얻은 장면중의 물체의 텍스처에 근거하여 확산후의 물체의 각 화소 점의 색채를 결정하기 전에, 제1 필터와 다운 샘플링을 통하여, 제1 목표 뷰의 크기는 원래 이미지와 동일하고, 장면중의 물체의 텍스처이며 착락원 값이 1인 제1 텍스처를 얻도록 구성되는 제2 처리유닛을 더 포함하고, 또한, 제2 처리유닛은 진일보로 제2 필터와 다운 샘플링을 통하여, 제2 목표 뷰의 크기는 원래 이미지와 동일하고, 장면중의 물체의 텍스처이며 착락원 값이 3인 제2 텍스처를 얻도록 구성되고, 또한, 제2 처리유닛은 진일보로 제3 필터와 다운 샘플링을 통하여, 제3 목표 뷰의 크기는 원래 이미지의 1/2이고, 장면중의 물체의 텍스처이며 착락원 값이 6인 제3 텍스처를 얻도록 구성되고, 또한, 제2 처리유닛은 진일보로 제4 필터와 다운 샘플링을 통하여, 제4 목표 뷰의 크기는 원래 이미지의 1/4이고, 장면중의 물체의 텍스처이며 착락원 값이 12인 제4 텍스처를 얻도록 구성된다.
선택 가능한 실시예로, 확산유닛(10)은 장면중의 물체의 모든 삼각형유닛을 순회하도록 구성되는 순회모듈과, 시점 방향을 향한 삼각형유닛의 3개 변을 미리 설정된 스택에 기억하도록 구성되는 기억모듈과, 스택내에 중복되는 변이 존재하는 경우, 중복되는 변을 삭제하여 시점 방향을 향한 모든 변을 얻도록 구성되는 삭제모듈과, 위치 파라미터에 근거하여 시점 방향을 향한 모든 변을 외측으로 투사시켜 확산된 가장자리를 형성하여 확산후의 물체의 윤곽을 얻도록 구성되는 확산모듈을 포함한다.
선택 가능한 실시예로, 확산모듈은 위치 파라미터중의 시점 방향을 향한 각 정점의 착락원 값에 근거하여 확산된 가장자리의 길이를 결정하도록 구성된 결정서브모듈과, 확산된 가장자리의 길이에 근거하여 시점 방향을 향한 모든 변을 외측으로 투사시켜 확산된 가장자리를 형성하여 확산후의 물체의 윤곽을 얻도록 구성되는 확산서브모듈을 포함한다.
다만, 상기 모듈과 대응되는 단계에 의하여 실현되는 실예와 응용되는 장면은 동일하지만 상기 실시예에 개시된 내용에 한정되는 것은 아니다. 그리고, 상기 모듈은 장치의 일부로서 네트워크 환경을 포함하는 도 1에 도시한 하드웨어 환경에서 실행될 수 있고 소프트웨어를 통하여 실현될 수두 있으며 하드웨어를 통하여 실현될 수도 있다.
본 출원의 실시예에 다르면, 상기 영상처리방법을 실시하기 위한 전자기기를 진일보로 제공한다. 도 14에 도시한 바와 같이, 이 전자기기는
1) 프로세서와
2) 메모리
를 포함한다.
도 14는 본 출원의 실시예에 따른 전자기기의 구조를 나타낸 블록도로서, 도 14에 도시한 바와 같이, 이 전자기기는 하나 또는 복수개의(도면에는 하나만을 도시함) 프로세서(201)와, 메모리(203)와, 전송 장치(205)(예를 들어 상기 실시예중의 송신 장치)를 포함할 수 있고, 도 14에 도시한 바와 같이, 이 전자기기는 입출력 장치(207)를 더 포함할 수 있다.
여기서, 메모리(203)는 소프트웨어 프로그램과 모듈을 기억하도록 구성될 수 있고, 예를 들어 본 출원의 실시예중의 영상처리방법과 장치에 대응되는 프로그램 명령/모듈을 기억할 수 있고, 프로세서(201)는 메모리(203)내에 기억된 소프트웨어 프로그램 및 모듈을 실행함으로써 각종 기능의 응용 및 데이터 처리를 수행하며, 즉 상술한 영상처리방법을 실현한다. 메모리(203)는 고속 랜덤 메모리를 포함할 수 있고 예를 들어 하나 또는 복수개의 자성 기억 장치, 플래시 메모리 등 비휘발성 메모리 또는 기타 비휘발성 고체 메모리를 포함할 수도 있다. 일부 실예에 있어서, 메모리(203)는 프로세서(201)에 대하여 원격 설치된 메모리를 포함할 수 있고, 이러한 원격 메모리는 네트워크를 통하여 전자기기에 연결될 수 있다. 상기 네트워크의 실예로는 인터넷, 인트라넷, 근거리 통신망, 이동 통신 네트워크 및 그 조합을 포함하지만 이에 한정되는 것은 아니다.
상술한 전송 장치(205)는 네트워크를 통하여 데이터를 수신 또는 송신하도록 구성되고 프로세서와 메모리 사이의 데이터 전송에 이용되도록 구성될 수도 있다. 상술한 네트워크의 구체적인 실예는 유선 네트워크 및 무선 네트워크를 포함한다. 일 실예에 있어서, 전송 장치(205)는 하나의 네트워크 인터페이스 컨트롤러(Network Interface Controller, NIC)를 포함하고 네트워크 케이블을 통하여 기타 네트워크 기기와 라우터에 연결되어 인터넷 또는 근거리 통신망과 통신을 수행할 수 있다. 일 실예에 있어서, 전송 장치(205)는 무선주파수(Radio Frequency, RF)모듈일 수 있고 무선 방식으로 인터넷과 통신을 수행하도록 구성된다.
여기서, 메모리(203)는 응용 프로그램을 기억하도록 구성될 수 있다.
프로세서(201)는 전송 장치(205)를 통하여 메모리(203)에 저정된 응용프로그램을 호출하여, 장면중의 물체와 시점의 상대적 위치 파라미터인 위치 파라미터에 근거하여 장면중의 물체에 대하여 가장자리 확산을 수행하여 확산후의 물체의 윤곽을 얻는 단계와, 물체의 정점의 착락원 값을 확산후의 물체 윤곽의 대응되는 정점의 착락원 값으로 설정하는 단계와, 대응되는 정점의 착락원 값과 미리 얻은 장면중의 물체의 텍스처에 근거하여 확산후의 물체의 각 화소 점의 색채를 결정하는 단계와, 각 화소 점의 색채에 근거하여 확산후의 물체를 그리는 단계를 수행할 수 있다.
프로세서(201)는 진일보로, 장면중의 물체의 뷰에 대하여 다운 샘플링을 수행하여 크기가 서로 다른 복수개의 목표 뷰를 얻는 단계와, 미리 설정된 복수개의 필터를 통하여 복수개의 목표 뷰에 대하여 각각 필터링을 수행하여 복수개의 텍스처를 얻는 단계를 수행하도록 구성되고, 여기서, 텍스처는 장면중의 물체의 텍스처이다.
프로세서(201)는 진일보로, 제1 필터와 다운 샘플링을 통하여, 제1 목표 뷰의 크기는 원래 이미지와 동일하고, 장면중의 물체의 텍스처이며 착락원 값이 1인 제1 텍스처를 얻는 단계와, 제2 필터와 다운 샘플링을 통하여, 제2 목표 뷰의 크기는 원래 이미지와 동일하고, 장면중의 물체의 텍스처이며 착락원 값이 3인 제2 텍스처를 얻는 단계와, 제3 필터와 다운 샘플링을 통하여, 제3 목표 뷰의 크기는 원래 이미지의 1/2이고, 장면중의 물체의 텍스처이며 착락원 값이 6인 제3 텍스처를 얻는 단계와, 제4 필터와 다운 샘플링을 통하여, 제4 목표 뷰의 크기는 원래 이미지의 1/4이고, 장면중의 물체의 텍스처이며 착락원 값이 12인 제4 텍스처를 얻는 단계를 수행하도록 구성된다.
프로세서(201)는 진일보로, 장면중의 물체의 모든 삼각형유닛을 순회하는 단계와, 시점 방향을 향한 삼각형유닛의 3개 변을 모두 미리 설정된 스택에 기억하는 단계와, 스택에 중복되는 변이 존재하는 경우, 중복되는 변을 삭제하여 시점 방향을 향한 모든 변을 얻는 단계와, 위치 파라미터에 근거하여 시점 방향을 향한 모든 변을 외측으로 투사시켜 확산된 가장자리를 형성하여 확산후의 물체의 윤곽을 얻는 단계를 수행하도록 구성된다.
프로세서(201)는 진일보로, 위치 파라미터중의 시점 방향을 향한 각 정점의 착락원 값에 근거하여 확산된 가장자리의 길이를 결정하는 단계와, 확산된 가장자리의 길이게 근거하여 시점 방향을 향한 모든 변을 외측으로 투사시켜 확산된 가장자리를 형성하여 확산후의 물체의 윤곽을 얻는 단계를 수행하도록 구성된다.
본 출원의 실시예에 의하면, 장면중의 물체와 시점의 상대적 위치 파라미터인 위치 파라미터에 근거하여 장면중의 물체에 대하여 가장자리 확산을 수행하여 확산후의 물체의 윤곽을 얻고, 물체의 정점의 착락원 값을 확산후의 물체 윤곽의 대응되는 정점의 착락원 값으로 하며, 대응되는 정점의 착락원 값과 미리 얻은 장면중의 물체의 텍스처에 근거하여 확산후의 물체의 각 화소 점의 색채를 결정하며, 각 화소 점의 색채에 근거하여 확산후의 물체를 그림으로써, 영상 피사계 심도 표시 원리에 따라 물체에 대하여 가장자리 확산을 수행하여 표시 효과가 진일보로 진실되도록 하는 목적을 실현하여 피사계 심도 표시 효과를 향상시키는 기술효과를 실현하고 영상처리방법이 정확하지 않아 피사계 심도 표시 효과가 낮은 기술과제를 해결한다.
본 실시예중의 구체적인 실예에 대하여서는 상기 실시예에서 설명한 실예를 참조할 수 있고 본 실시예에서는 상세한 설명을 생략한다.
도 14에 도시한 구조는 예시적인 것으로 전자기기가 스마트 폰(예를 들어 Android 폰, iOS 폰 등), 태블릿PC, 포켓 컴퓨터, 모바일 인터넷 장치(Mobile Internet Devices, MID로 약칭), PAD 등 전자기기일 수도 있음을 이 분야의 기술자라면 이해할 수 있다. 도 14는 상기 전자기기의 구조를 한정하지 않는다. 예를 들어, 전자기기는 도 14에 도시한 것보다 더욱 많은 또는 더욱 적은 부품(예를 들어 네트워크 인터페이스, 표시장치 등)을 포함하거나 또는 도 14와 다르게 배치될 수도 있다.
상기 실시예의 각종 방법중의 전부 또는 일부 단계를 프로그램을 통하여 전자기기의 관련되는 하드웨어에 명령하여 완성할 수 있고 이 프로그램은 컴퓨터가 판독가능한 기억매체에 기억될 수 있고 기억매체는 플래시 메모리, 읽기 전용 메모리(Read-Only Memory, ROM), 랜덤 액세스 메모리(Random Access Memory, RAM), 자기 디스크 또는 광 디스크 등을 포함할 수 있음을 이 분야의 기술자라면 이해할 수 있다.
본 출원의 실시예에 따르면 기억매체를 진일보로 제공한다. 선택적으로, 본 실시예에 있어서, 상기 기억매체에 컴퓨터 프로그램이 기억되어 있을 수 있고, 여기서, 상기 컴퓨터 프로그램은 실행시 영상처리방법을 수행하도록 구성된다.
선택적으로, 본 실시예에 있어서, 상기 기억매체는 상기 실시예에 나타낸 네트워크중의 복수개의 네트워크 기기중의 적어도 하나의 네트워크 기기에 위치할 수 있다.
선택적으로, 본 실시예에 있어서, 기억매체는
장면중의 물체와 시점의 상대적 위치 파라미터인 위치 파라미터에 근거하여 장면중의 물체에 대하여 가장자리 확산을 수행하여 확산후의 물체의 윤곽을 얻는 S1,
물체의 정점의 착락원 값을 확산후의 물체 윤곽의 대응되는 정점의 착락원 값으로 설정하는 S2,
대응되는 정점의 착락원 값과 미리 얻은 장면중의 물체의 텍스처에 근거하여 확산후의 물체의 각 화소 점의 색채를 결정하는 S3, 및
각 화소 점의 색채에 근거하여 확산후의 물체를 리는 S4
의 단계를 수행하는 프로그램 코드를 기억하도록 구성된다.
선택적으로, 기억매체는 진일보로 장면중의 물체의 뷰에 대하여 다운 샘플링을 수행하여 크기가 서로 다른 복수개의 목표 뷰를 얻고, 미리 설정된 복수개의 필터를 통하여 복수개의 목표 뷰에 대하여 각각 필터링을 수행하여 장면중의 물체의 텍스처인 복수개의 텍스처를 얻는 단계를 수행하는 프로그램 코드를 기억하도록 구성된다.
선택적으로, 기억매체는 진일보로 제1 필터와 다운 샘플링을 통하여, 제1 목표 뷰의 크기는 원래 이미지와 동일하고, 장면중의 물체의 텍스처이며 착락원 값이 1인 제1 텍스처를 얻고, 제2 필터와 다운 샘플링을 통하여, 제2 목표 뷰의 크기는 원래 이미지와 동일하고, 장면중의 물체의 텍스처이며 착락원 값이 3인 제2 텍스처를 얻고, 제3 필터와 다운 샘플링을 통하여, 제3 목표 뷰의 크기는 원래 이미지의 1/2이고, 장면중의 물체의 텍스처이며 착락원 값이 6인 제3 텍스처를 얻고, 제4 필터와 다운 샘플링을 통하여, 제4 목표 뷰의 크기는 원래 이미지의 1/4이고, 장면중의 물체의 텍스처이며 착락원 값이 12인 제4 텍스처를 얻는 단계를 수행하는 프로그램 코드를 기억하도록 구성된다.
선택적으로, 기억매체는 진일보로 장면중의 물체의 모든 삼각형유닛을 순회하고, 시점 방향을 향한 삼각형유닛의 3개 변을 미리 설정된 스택에 기억하고, 스택에 중복되는 변이 존재하는 경우, 중복되는 변을 삭제하여 시점 방향을 향한 모든 변을 얻고, 위치 파라미터에 근거하여 시점 방향을 향한 모든 변을 외측으로 투사시켜 확산된 가장자리를 형성하여 확산후의 물체의 윤곽을 얻는 단계를 수행하는 프로그램 코드를 기억하도록 구성된다.
선택적으로, 기억매체는 진일보로 위치 파라미터중의 시점 방향을 향한 각 정점의 착락원 값에 근거하여 확산된 가장자리의 길이를 결정하고, 확산된 가장자리의 길이에 근거하여 시점 방향을 향한 모든 변을 외측으로 투사시켜 확산된 가장자리를 형성하여 확산후의 물체의 윤곽을 얻는 단계를 수행하는 프로그램 코드를 기억하도록 구성된다.
선택적으로, 본 실시예중의 구체적인 실예는 상기 실시예에서 설명한 실예를 참조할 수 있고 본 실시예에서는 상세한 설명을 생략한다.
선택적으로, 본 실시예에 있어서, 상기 기억매체는 USB, 읽기 전용 메모리(ROM, Read-Only Memory), 랜덤 액세스 메모리(RAM, Random Access Memory), 이동식 하드디스크, 디스크 또는 광 디스크 등 프로그램 코드를 기억할 수 있는 각종 매체를 포함할 수 있지만 이에 한정되는 것은 아니다.
상술한 본 출원의 실시예의 번호는 설명의 편의를 위한 것으로 실시예의 우열을 표시하는 것은 아니다.
상기 실시예중의 집적된 유닛을 소프트웨어 기능유닛 형식으로 구현하여 단독 제품으로 판매하거나 사용할 경우, 상기 컴퓨터가 읽을 수 있는 기억매체에 기억할 수 있다. 이에 근거하여 본 출원의 기술방안의 본질 또는 기존기술에 기여하는 부분 또는 기술방안의 전부 또는 일부를 소프트웨어 제품 형식으로 구현할 수 있고 컴퓨터 소프트웨어 제품은 기억매체에 기억되고, 하나 또는 복수개의 컴퓨터 기기(개인용 컴퓨터, 서버 또는 네트워크 기기 등)가 본 발명의 각 실시예에서 설명한 방법의 전부 또는 일부 단계를 수행하도록 하는 여러개의 명령을 포함할 수 있다.
본 출원의 상기 실시예에 있어서, 각 실시예의 설명은 중점이 서로 다르고 일부 실시예에서 상세하게 설명하지 않은 부분에 대하여서는 기타 실시예의 관련되는 부분의 설명을 참조할 수 있다.
본 출원에서 제공되는 몇개 실시예에 있어서, 언급한 클라이언트를 다른 방식으로도 실현할 수 있음은 이해할 수 있을 것이다. 여기서, 상기에서 설명한 장치 실시예는 예시적인 것일 뿐이고, 예를 들어 상기 유닛의 구획은 논리적 기능의 구획일 뿐 실제로 구현하는 경우 기타 방식으로 구획할 수도 있고, 예를 들어 복수개의 유닛 또는 부품을 결합하거나 또는 다른 한 시스템에 집적시킬 수도 있고 또는 일부 특징을 생략하거나 수행하지 않을 수도 있다. 그리고, 도시한 또는 검토한 상호 결합 또는 직접 결합 또는 통신 연결은 인터페이스, 유닛 또는 모듈에 의한 간접 결합 또는 통신 연결일 수 있고 전기적 또는 기타 형태의 결합일 수도 있다.
상술한 분리 부품으로 설명한 유닛은 물리적으로 분리된 것일 수 있고 물리적으로 분리되지 않은 것일 수도 있으며, 유닛으로 표시한 부품은 물리적 유닛일 수 있고 물리적 유닛이 아닐 수도 있으며, 즉 한 위치에 위치할 수도 있고, 복수개의 유닛에 분포될 수도 있다. 실제 수요에 따라 그중의 일부 또는 전부 유닛을 선택하여 본 실시예의 기술방안의 목적을 실현할 수 있다.
그리고, 본 출원의 각 실시예중의 각 기능 유닛을 하나의 처리유닛에 집적시킬 수 있고 각 유닛이 물리적으로 독립된 것일 수도 있으며 두개 또는 그 이상의 유닛을 하나의 유닛에 집적시킬 수도 있다. 상기 집적된 유닛을 하드웨어 형태로 실현할 수 있고 소프트웨어 기능 유닛의 형태로 실현할 수도 있다.
상술한 내용은 본 출원의 바람직한 실시형태로, 당업자라면 본 발명의 원리를 벗어나지 않는 범위내에서 개선과 수정을 할 수 있고 이러한 개선과 수정도 본 발명의 보호 범위에 속한다.

Claims (12)

  1. 영상처리방법에 있어서,
    장면중의 물체와 시점의 상대적 위치 파라미터인 위치 파라미터에 근거하여 장면중의 물체에 대하여 가장자리 확산을 수행하여 확산후의 물체의 윤곽을 얻는 단계,
    상기 물체의 정점의 착락원 값을 상기 확산후의 물체 윤곽의 대응되는 정점의 착락원 값으로 설정하는 단계,
    상기 대응되는 정점의 착락원 값과 미리 얻은 상기 장면중의 물체의 텍스처에 근거하여 상기 확산후의 물체의 각 화소 점의 색채를 결정하는 단계, 및
    상기 각 화소 점의 색채에 근거하여 상기 확산후의 물체를 그리는 단계를 포함하는 영상처리방법.
  2. 청구항 1에 있어서,
    상기 대응되는 정점의 착락원 값과 미리 얻은 상기 장면중의 물체의 텍스처에 근거하여 상기 확산후의 물체의 각 화소 점의 색채를 결정하는 단계 전에,
    상기 장면중의 물체의 뷰에 대하여 다운 샘플링을 수행하여 크기가 서로 다른 복수개의 목표 뷰를 얻는 단계와,
    미리 설정된 복수개의 필터를 통하여 상기 복수개의 목표 뷰에 대하여 각각 필터링을 수행하여 상기 장면중의 물체의 텍스처인 복수개의 텍스처를 얻는 단계를 더 포함하는 영상처리방법.
  3. 청구항 2에 있어서,
    상기 미리 설정된 복수개의 필터는 제1 필터, 제2 필터, 제3 필터, 및 제4 필터를 포함하고, 상기 복수개의 목표 뷰는 제1 목표 뷰, 제2 목표 뷰, 제3 목표 뷰, 및 제4 목표 뷰를 포함하며, 상기 대응되는 정점의 착락원 값과 미리 얻은 상기 장면중의 물체의 텍스처에 근거하여 상기 확산후의 물체의 각 화소 점의 색채를 결정하기 전에,
    상기 제1 필터와 다운 샘플링을 통하여, 제1 목표 뷰의 크기는 원래 이미지와 동일하고, 상기 장면중의 물체의 텍스처이며 착락원 값이 1인 제1 텍스처를 얻는 단계와,
    상기 제2 필터와 다운 샘플링을 통하여 제2 목표 뷰의 크기는 원래 이미지와 동일하고, 상기 장면중의 물체의 텍스처이며 착락원 값이 3인 제2 텍스처를 얻는 단계와,
    상기 제3 필터와 다운 샘플링을 통하여, 제3 목표 뷰의 크기는 원래 이미지의 1/2이고, 상기 장면중의 물체의 텍스처이며 착락원 값이 6인 제3 텍스처를 얻는 단계와,
    상기 제4 필터와 다운 샘플링을 통하여, 제4 목표 뷰의 크기는 원래 이미지의 1/4이고, 상기 장면중의 물체의 텍스처이며 착락원 값이 12인 제4 텍스처를 얻는 단계를 더 포함하는 영상처리방법.
  4. 청구항 1에 있어서,
    상기 위치 파라미터에 근거하여 장면중의 물체에 대하여 가장자리 확산을 수행하여 상기 확산후의 물체의 윤곽을 얻는 단계는,
    상기 장면중의 물체의 모든 삼각형유닛을 순회하는 단계,
    시점 방향을 향한 상기 삼각형유닛의 3개 변을 미리 설정된 스택에 기억하는 단계,
    상기 스택에 중복되는 변이 존재하는 경우, 상기 중복되는 변을 삭제하여 시점 방향을 향한 모든 변을 얻는 단계, 및
    상기 위치 파라미터에 근거하여 상기 시점 방향을 향한 모든 변을 외측으로 투사시켜 확산된 가장자리를 형성하여 상기 확산후의 물체의 윤곽을 얻는 단계를 포함하는 영상처리방법.
  5. 청구항 4에 있어서,
    상기 위치 파라미터에 근거하여 상기 시점 방향을 향한 모든 변을 외측으로 투사시켜 확산된 가장자리를 형성하여 상기 확산후의 물체의 윤곽을 얻는 단계는,
    상기 위치 파라미터중의 상기 시점 방향을 향한 각 정점의 착락원 값에 근거하여 상기 확산된 가장자리의 길이를 결정하는 단계와,
    상기 확산된 가장자리의 길이에 근거하여 상기 시점 방향을 향한 모든 변을 외측으로 투사시켜 상기 확산된 가장자리를 형성하여 상기 확산후의 물체의 윤곽을 얻는 단계를 포함하는 영상처리방법.
  6. 영상처리장치에 있어서,
    하나 또는 복수개의 프로세서와, 상기 프로세서에 의하여 실행되는 프로그램유닛을 기억하는 하나 또는 복수개의 메모리를 포함하고, 상기 프로그램유닛은
    장면중의 물체와 시점의 상대적 위치 파라미터인 위치 파라미터에 근거하여 장면중의 물체에 대하여 가장자리 확산을 수행하여 확산후의 물체의 윤곽을 얻도록 구성되는 확산유닛,
    상기 물체의 정점의 착락원 값을 상기 확산후의 물체 윤곽의 대응되는 정점의 착락원 값으로 설정하도록 구성되는 제1 처리유닛,
    상기 대응되는 정점의 착락원 값과 미리 얻은 상기 장면중의 물체의 텍스처에 근거하여 상기 확산후의 물체의 각 화소 점의 색채를 결정하도록 구성되는 결정유닛, 및
    상기 각 화소 점의 색채에 근거하여 상기 확산후의 물체를 그리도록 구성되는 제도유닛을 포함하는 영상처리장치.
  7. 청구항 6에 있어서,
    상기 대응되는 정점의 착락원 값과 미리 얻은 상기 장면중의 물체의 텍스처에 근거하여 상기 확산후의 물체의 각 화소 점의 색채를 결정하기 전에, 상기 장면중의 물체의 뷰에 대하여 다운 샘플링을 수행하여 크기가 서로 다른 복수개의 목표 뷰를 얻도록 구성되는 샘플링유닛과,
    미리 설정된 복수개의 필터를 통하여 상기 복수개의 목표 뷰에 대하여 각각 필터링을 수행하여 상기 장면중의 물체의 텍스처인 복수개의 텍스처를 얻도록 구성되는 필터링유닛을 더 포함하는 영상처리장치.
  8. 청구항 7에 있어서,
    상기 미리 설정된 복수개의 필터는 제1 필터, 제2 필터, 제3 필터, 및 제4 필터를 포함하고, 상기 복수개의 목표 뷰는 제1 목표 뷰, 제2 목표 뷰, 제3 목표 뷰, 및 제4 목표 뷰를 포함하며,
    상기 대응되는 정점의 착락원 값과 미리 얻은 상기 장면중의 물체의 텍스처에 근거하여 상기 확산후의 물체의 각 화소 점의 색채를 결정하기 전에, 상기 제1 필터와 다운 샘플링을 통하여, 제1 목표 뷰의 크기는 원래 이미지와 동일하고, 상기 장면중의 물체의 텍스처이며 착락원 값이 1인 제1 텍스처를 얻도록 구성되는 제2 처리유닛을 더 포함하고,
    상기 제2 처리유닛은 진일보로 상기 제2 필터와 다운 샘플링을 통하여, 제2 목표 뷰의 크기는 원래 이미지와 동일하고, 상기 장면중의 물체의 텍스처이며 착락원 값이 3인 제2 텍스처를 얻도록 구성되고,
    상기 제2 처리유닛은 진일보로 상기 제3 필터와 다운 샘플링을 통하여, 제3 목표 뷰의 크기는 원래 이미지의 1/2이고, 상기 장면중의 물체의 텍스처이며 착락원 값이 6인 제3 텍스처를 얻도록 구성되고,
    상기 제2 처리유닛은 진일보로 상기 제4 필터와 다운 샘플링을 통하여, 제4 목표 뷰의 크기는 원래 이미지의 1/4이고, 상기 장면중의 물체의 텍스처이며 착락원 값이 12인 제4 텍스처를 얻도록 구성되는 영상처리장치.
  9. 청구항 6에 있어서,
    상기 확산유닛은,
    상기 장면중의 물체의 모든 삼각형유닛을 순회하도록 구성되는 순회모듈,
    시점 방향을 향한 상기 삼각형유닛의 3개 변을 미리 설정된 스택에 기억하도록 구성되는 기억모듈,
    상기 스택에 중복되는 변이 존재하는 경우, 상기 중복되는 변을 삭제하여 시점 방향을 향한 모든 변을 얻도록 구성되는 삭제모듈, 및
    상기 위치 파라미터에 근거하여 상기 시점 방향을 향한 모든 변을 외측으로 투사시켜 확산된 가장자리를 형성하여 상기 확산후의 물체의 윤곽을 얻도록 구성되는 확산모듈을 포함하는 영상처리장치.
  10. 청구항 9에 있어서,
    상기 확산 모듈은,
    상기 위치 파라미터중의 상기 시점 방향을 향한 각 정점의 착락원 값에 근거하여 상기 확산된 가장자리의 길이를 결정하도록 구성되는 결정서브모듈과,
    상기 확산된 가장자리의 길이에 근거하여 상기 시점 방향을 향한 모든 변을 외측으로 투사시켜 상기 확산된 가장자리를 형성하여 상기 확산후의 물체의 윤곽을 얻도록 구성되는 확산서브모듈을 포함하는 영상처리장치.
  11. 실행 시 상기 청구항 1 내지 5중의 임의의 한 항에 기재된 영상처리방법을 수행하는 프로그램이 저장되는 기억매체.
  12. 메모리, 프로세서, 및 상기 메모리에 기억되고 상기 프로세서에서 실행되는 컴퓨터 프로그램을 포함하고, 상기 프로세서가 상기 컴퓨터 프로그램을 통하여 상기 청구항 1 내지 5중의 임의의 한 항에 기재된 영상처리방법을 수행하는 전자기기.
KR1020197028700A 2017-09-13 2018-08-29 영상처리방법과 장치, 기억매체 및 전자기기 KR102352092B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201710826678.9 2017-09-13
CN201710826678.9A CN109493376B (zh) 2017-09-13 2017-09-13 图像处理方法和装置、存储介质及电子装置
PCT/CN2018/102986 WO2019052338A1 (zh) 2017-09-13 2018-08-29 图像处理方法和装置、存储介质及电子装置

Publications (2)

Publication Number Publication Date
KR20190122246A true KR20190122246A (ko) 2019-10-29
KR102352092B1 KR102352092B1 (ko) 2022-01-17

Family

ID=65687556

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020197028700A KR102352092B1 (ko) 2017-09-13 2018-08-29 영상처리방법과 장치, 기억매체 및 전자기기

Country Status (5)

Country Link
US (1) US11288774B2 (ko)
EP (1) EP3683769A4 (ko)
KR (1) KR102352092B1 (ko)
CN (1) CN109493376B (ko)
WO (1) WO2019052338A1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2541179B (en) * 2015-07-31 2019-10-30 Imagination Tech Ltd Denoising filter
CN112561850A (zh) * 2019-09-26 2021-03-26 上海汽车集团股份有限公司 一种汽车涂胶检测方法、设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010113720A (ko) * 1999-03-01 2001-12-28 구타라기 켄 영상 렌더링 방법 및 장비
JP2009003812A (ja) * 2007-06-22 2009-01-08 Sgi Japan Ltd デフォーカス画像の生成方法及び生成装置
US8035641B1 (en) * 2007-11-28 2011-10-11 Adobe Systems Incorporated Fast depth of field simulation
CN107133981A (zh) * 2017-03-30 2017-09-05 腾讯科技(深圳)有限公司 图像处理方法和装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8237709B2 (en) * 2007-09-06 2012-08-07 Qualcomm Incorporated Method and apparatus for optimizing triangles into triangle strips according to a variety of criteria
CN100468462C (zh) * 2007-09-26 2009-03-11 腾讯科技(深圳)有限公司 阴影绘制方法及渲染装置
CN102801908A (zh) * 2011-05-23 2012-11-28 联咏科技股份有限公司 浅景深模拟方法及数字相机
US9208571B2 (en) * 2011-06-06 2015-12-08 Microsoft Technology Licensing, Llc Object digitization
US9955084B1 (en) * 2013-05-23 2018-04-24 Oliver Markus Haynold HDR video camera
US9734551B1 (en) * 2013-12-01 2017-08-15 Google Inc. Providing depth-of-field renderings
CN105096378B (zh) * 2014-05-16 2018-04-10 华为技术有限公司 一种构建三维物体的方法及计算机辅助设计系统
US9547918B2 (en) * 2014-05-30 2017-01-17 Intel Corporation Techniques for deferred decoupled shading
US10225485B1 (en) * 2014-10-12 2019-03-05 Oliver Markus Haynold Method and apparatus for accelerated tonemapping
US20160255323A1 (en) * 2015-02-26 2016-09-01 Dual Aperture International Co. Ltd. Multi-Aperture Depth Map Using Blur Kernels and Down-Sampling
CN105488793B (zh) * 2015-11-26 2019-01-29 西安诺瓦电子科技有限公司 图像显示方法以及图像处理方法
CN105979165B (zh) * 2016-06-02 2019-02-05 Oppo广东移动通信有限公司 虚化照片生成方法、装置和移动终端

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010113720A (ko) * 1999-03-01 2001-12-28 구타라기 켄 영상 렌더링 방법 및 장비
JP2009003812A (ja) * 2007-06-22 2009-01-08 Sgi Japan Ltd デフォーカス画像の生成方法及び生成装置
US8035641B1 (en) * 2007-11-28 2011-10-11 Adobe Systems Incorporated Fast depth of field simulation
CN107133981A (zh) * 2017-03-30 2017-09-05 腾讯科技(深圳)有限公司 图像处理方法和装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Todd Jerome Kosloff, An Algorithm for Rendering Generalized Depth of Field Effects Based on Simulated Heat Diffusion, USB/EECS.(2007.01.24.) *

Also Published As

Publication number Publication date
CN109493376B (zh) 2022-02-22
EP3683769A4 (en) 2021-02-17
US11288774B2 (en) 2022-03-29
US20200043142A1 (en) 2020-02-06
CN109493376A (zh) 2019-03-19
WO2019052338A1 (zh) 2019-03-21
EP3683769A1 (en) 2020-07-22
KR102352092B1 (ko) 2022-01-17

Similar Documents

Publication Publication Date Title
US8270704B2 (en) Method and apparatus for reconstructing 3D shape model of object by using multi-view image information
CN108305228B (zh) 图像处理方法、装置、存储介质及处理器
Zhou et al. Accurate depth of field simulation in real time
GB2546720B (en) Method of and apparatus for graphics processing
US9734551B1 (en) Providing depth-of-field renderings
US20230230311A1 (en) Rendering Method and Apparatus, and Device
CN110689626A (zh) 游戏模型渲染方法和装置
US10089796B1 (en) High quality layered depth image texture rasterization
KR101710966B1 (ko) 이미지 안티 에일리어싱 방법 및 장치
Magdics et al. Post-processing NPR effects for video games
JP2019186762A (ja) 映像生成装置、映像生成方法、プログラム、およびデータ構造
KR20190122246A (ko) 영상처리방법과 장치, 기억매체 및 전자기기
KR102143319B1 (ko) 전방향의 구형 라이트 필드 렌더링 방법
US20180213215A1 (en) Method and device for displaying a three-dimensional scene on display surface having an arbitrary non-planar shape
KR102108244B1 (ko) 이미지 처리 방법 및 장치
Kosloff et al. An algorithm for rendering generalized depth of field effects based on simulated heat diffusion
Kosloff et al. Depth of field postprocessing for layered scenes using constant-time rectangle spreading.
Liu et al. Stereo-based bokeh effects for photography
CN111327886A (zh) 3d光场渲染方法及装置
US9905041B2 (en) Depth of field synthesis using ray tracing approximation
JP7387029B2 (ja) ソフトレイヤ化および深度認識インペインティングを用いた単画像3d写真技術
WO2022042003A1 (zh) 三维着色的方法、装置、计算设备和存储介质
KR101227183B1 (ko) 3d 그래픽 모델 입체 렌더링 장치 및 입체 렌더링 방법
Pérez et al. Geometry-based methods for general non-planar perspective projections on curved displays
CN113298868B (zh) 模型建立方法、装置、电子设备、介质及程序产品

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant