KR20240059328A - 주요 객체 정보를 활용한 영상 구도 분석 및 개선을 위한 방법, 컴퓨터 장치, 및 컴퓨터 프로그램 - Google Patents

주요 객체 정보를 활용한 영상 구도 분석 및 개선을 위한 방법, 컴퓨터 장치, 및 컴퓨터 프로그램 Download PDF

Info

Publication number
KR20240059328A
KR20240059328A KR1020220140455A KR20220140455A KR20240059328A KR 20240059328 A KR20240059328 A KR 20240059328A KR 1020220140455 A KR1020220140455 A KR 1020220140455A KR 20220140455 A KR20220140455 A KR 20220140455A KR 20240059328 A KR20240059328 A KR 20240059328A
Authority
KR
South Korea
Prior art keywords
image
composition
candidate
processor
crop
Prior art date
Application number
KR1020220140455A
Other languages
English (en)
Inventor
김창수
이선호
신녕호
고진원
Original Assignee
네이버 주식회사
고려대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 네이버 주식회사, 고려대학교 산학협력단 filed Critical 네이버 주식회사
Priority to KR1020220140455A priority Critical patent/KR20240059328A/ko
Publication of KR20240059328A publication Critical patent/KR20240059328A/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/60Rotation of whole images or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20132Image cropping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Engineering & Computer Science (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Image Analysis (AREA)

Abstract

주요 객체 정보를 활용한 영상 구도 분석 및 개선을 위한 방법, 컴퓨터 장치, 및 컴퓨터 프로그램이 개시된다. 영상 구도 개선 방법은, 딥러닝 모델을 통해 타겟 영상에서 객체를 탐지하는 단계; 및 상기 객체를 기초로 상기 타겟 영상을 크롭(crop)하여 구도 개선 영상을 획득하는 단계를 포함할 수 있다.

Description

주요 객체 정보를 활용한 영상 구도 분석 및 개선을 위한 방법, 컴퓨터 장치, 및 컴퓨터 프로그램{METHOD, COMPUTER DEVICE, AND COMPUTER PROGRAM FOR ANALYZING AND ENHANCING COMPOSITION OF IMAGE USING MAIN OBJECT INFORMATION}
아래의 설명은 영상 구도(image composition)를 개선하는 기술에 관한 것이다.
최근 디지털 카메라와 스마트폰의 발전으로 누구나 쉽고 빠르게 사진을 촬영할 수 있다.
미학적으로 좋은 사진을 결정하는 주요 요소인 사진의 구도는 그 다양성과 주관적인 특성으로 인해 전문가와 일반 사용자 사이의 격차가 존재하며, 미적으로 뛰어난 구도를 찾는 것은 일반 사용자에게 어려운 과정이다.
이에, 일반 사용자는 보통 사진 촬영 후 미적 품질을 높이기 위해 영상을 직접 편집하여 개선한다.
일반 사용자의 경우 영상 구도에 대한 전문적인 지식이 부족하여 해당 과정을 보조하는 기술이 필수적이다.
영상 구도를 개선하는 기술의 일례로, 한국 등록특허공보 제10-1352206호(등록일 2014년 01월 09일)에는 영상 구도를 자동으로 조정하여 촬영할 수 있는 기술이 개시되어 있다.
영상의 구도를 분석한 후 이를 기반으로 해당 영상의 구도를 개선할 수 있는 방법과 장치를 제공한다.
다양한 종류의 영상에 적용 가능한 범용 기술로서 영상 구도를 개선할 수 있는 방법과 장치를 제공한다.
컴퓨터 장치에서 실행되는 영상 구도 개선 방법에 있어서, 상기 컴퓨터 장치는 메모리에 포함된 컴퓨터 판독가능한 명령들을 실행하도록 구성된 적어도 하나의 프로세서를 포함하고, 상기 영상 구도 개선 방법은, 상기 적어도 하나의 프로세서에 의해, 딥러닝 모델을 통해 타겟 영상에서 객체를 탐지하는 단계; 및 상기 적어도 하나의 프로세서에 의해, 상기 객체를 기초로 상기 타겟 영상을 크롭(crop)하여 구도 개선 영상을 획득하는 단계를 포함하는 영상 구도 개선 방법을 제공한다.
일 측면에 따르면, 상기 영상 구도 개선 방법은, 상기 적어도 하나의 프로세서에 의해, 딥러닝 모델을 통해 주어진 영상의 회전각을 탐지하는 단계; 및 상기 적어도 하나의 프로세서에 의해, 상기 회전각을 이용한 영상 회전을 통해 상기 주어진 영상을 보정하는 단계를 더 포함하고, 상기 타겟 영상으로 상기 영상 회전을 통한 보정 영상이 입력될 수 있다.
다른 측면에 따르면, 상기 객체를 탐지하는 단계는, 상기 타겟 영상을 이용하여 복수 개의 해상도를 가진 특징 맵을 추출하는 단계; 및 상기 복수 개의 특징 맵을 이용하여 상기 타겟 영상에서 상기 객체를 탐지하는 단계를 포함할 수 있다.
또 다른 측면에 따르면, 상기 객체를 탐지하는 단계는, 상기 타겟 영상에서 추출된 특징 맵을 이용하여 후보 객체를 탐지하는 단계; 상기 후보 객체 중 객체 탐지 신뢰도가 일정 레벨 이상인 객체를 선별하는 단계; 및 상기 선별된 객체 중 상기 타겟 영상의 중심과 최소 거리인 객체를 주요 객체로 선별하는 단계를 포함하고, 상기 구도 개선 영상을 획득하는 단계는, 상기 주요 객체를 기준으로 상기 타겟 영상을 크롭하는 단계를 포함할 수 있다.
또 다른 측면에 따르면, 상기 구도 개선 영상을 획득하는 단계는, 상기 객체를 기준으로 크롭 후보 영역을 생성하는 단계; 및 딥 러닝 모델을 통한 상기 크롭 후보 영역 간의 품질 비교를 통해 최종 크롭 영역을 선택하는 단계를 포함할 수 있다.
또 다른 측면에 따르면, 상기 크롭 후보 영역을 생성하는 단계는, 상기 객체의 중심점을 기준으로 최소 크기 영역과 최대 크기 영역 내에서 일정 간격으로 상기 크롭 후보 영역을 생성할 수 있다.
또 다른 측면에 따르면, 상기 최종 크롭 영역을 선택하는 단계는, 비교 대상인 두 크롭 후보 영역에 대해 각 크롭 후보 영역의 특징 맵, 공통 영역의 특징 맵, 고유 영역의 특징 맵, 및 전체 영상의 특징 맵을 이용하여 상기 두 크롭 후보 영역 간의 품질 순서 관계를 예측하는 단계를 포함할 수 있다.
또 다른 측면에 따르면, 상기 최종 크롭 영역을 선택하는 단계는, 상기 크롭 후보 영역 각각에 대하여 다른 크롭 후보 영역과의 상대적 품질 점수를 결정하여 상기 상대적 품질 점수를 통해 상기 크롭 후보 영역 중에서 상기 최종 크롭 영역을 선택할 수 있다.
또 다른 측면에 따르면, 상기 영상 구도 개선 방법은, 상기 적어도 하나의 프로세서에 의해, 딥러닝 모델을 통해 상기 타겟 영상의 정보로서 피사체 종류에 따른 영상 종류, 상기 영상 종류에 따른 영상 구도, 및 영상 내 영역 구분을 위한 의미선 중 적어도 하나를 탐지하는 단계를 더 포함할 수 있다.
또 다른 측면에 따르면, 상기 영상 구도 개선 방법은, 상기 적어도 하나의 프로세서에 의해, 상기 타겟 영상의 정보로서 영상 내 영역 구분을 위한 의미선을 탐지하는 단계를 더 포함하고, 상기 의미선을 탐지하는 단계는, 상기 타겟 영상에 대한 허프 공간(Hough space)을 이용하여 후보선을 생성하는 단계; 및 상기 후보선의 의미선 확률 예측을 통해 적어도 하나의 후보선을 상기 의미선으로 선택하는 단계를 포함할 수 있다.
상기 영상 구도 개선 방법을 컴퓨터에 실행시키기 위해 컴퓨터 판독가능한 기록 매체에 저장되는 컴퓨터 프로그램을 제공한다.
컴퓨터 장치에 있어서, 메모리에 포함된 컴퓨터 판독가능한 명령들을 실행하도록 구성된 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는, 딥러닝 모델을 통해 타겟 영상에서 객체를 탐지하는 과정; 및 상기 객체를 기초로 상기 타겟 영상을 크롭하여 구도 개선 영상을 획득하는 과정을 처리하는 컴퓨터 장치를 제공한다.
본 발명의 실시예들에 따르면, 영상 구도를 분석하여 분석 결과를 바탕으로 영상 구도를 개선함으로써 영상의 미적 품질을 효과적으로 향상시킬 수 있다.
본 발명의 실시예들에 따르면, 딥러닝(deep learning) 기반으로 영상의 종류, 구도, 회전각, 의미선을 분석함으로써 영상의 다양한 정보를 획득할 수 있다.
본 발명의 실시예들에 따르면, 영상 구도 분석 결과를 바탕으로 영상 회전을 수행하고 주요 객체 정보를 기준으로 영상 크롭(crop)을 수행하여 영상의 미적 품질을 개선함으로써 풍경, 음식, 인물, 셀피와 같은 다양한 종류의 영상에 적용 가능한 범용 기술을 제공할 수 있다.
도 1은 본 발명의 일실시예에 따른 네트워크 환경의 예를 도시한 도면이다.
도 2는 본 발명의 일실시예에 따른 컴퓨터 장치의 예를 도시한 블록도이다.
도 3은 본 발명의 일실시예에 따른 컴퓨터 장치가 수행할 수 있는 방법의 예를 도시한 순서도이다.
도 4는 본 발명의 일실시예에 있어서 영상 구도 분석 및 영상 구도 개선을 위한 전체 알고리즘을 도시한 것이다.
도 5 내지 도 9는 본 발명의 일실시예에 있어서 영상 구도 분석 과정의 구체적인 예시를 도시한 것이다.
도 10 내지 도 16은 본 발명의 일실시예에 있어서 영상 구도 개선 과정의 구체적인 예시를 도시한 것이다.
이하, 본 발명의 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.
본 발명의 실시예들은 영상 구도를 개선하는 기술에 관한 것이다.
본 명세서에서 구체적으로 개시되는 것들을 포함하는 실시예들은 영상 구도를 분석하여 분석 결과를 바탕으로 해당 영상의 미적 품질을 개선할 수 있다.
본 발명의 실시예들에 따른 영상 구도 개선 시스템은 적어도 하나의 컴퓨터 장치에 의해 구현될 수 있으며, 본 발명의 실시예들에 따른 영상 구도 개선 방법은 영상 구도 개선 시스템에 포함되는 적어도 하나의 컴퓨터 장치를 통해 수행될 수 있다. 이때, 컴퓨터 장치에는 본 발명의 일실시예에 따른 컴퓨터 프로그램이 설치 및 구동될 수 있고, 컴퓨터 장치는 구동된 컴퓨터 프로그램의 제어에 따라 본 발명의 실시예들에 따른 영상 구도 개선 방법을 수행할 수 있다. 상술한 컴퓨터 프로그램은 컴퓨터 장치와 결합되어 영상 구도 개선 방법을 컴퓨터에 실행시키기 위해 컴퓨터 판독 가능한 기록매체에 저장될 수 있다.
도 1은 본 발명의 일실시예에 따른 네트워크 환경의 예를 도시한 도면이다. 도 1의 네트워크 환경은 복수의 전자 기기들(110, 120, 130, 140), 복수의 서버들(150, 160) 및 네트워크(170)를 포함하는 예를 나타내고 있다. 이러한 도 1은 발명의 설명을 위한 일례로 전자 기기의 수나 서버의 수가 도 1과 같이 한정되는 것은 아니다. 또한, 도 1의 네트워크 환경은 본 실시예들에 적용 가능한 환경들 중 하나의 예를 설명하는 것일 뿐, 본 실시예들에 적용 가능한 환경이 도 1의 네트워크 환경으로 한정되는 것은 아니다.
복수의 전자 기기들(110, 120, 130, 140)은 컴퓨터 장치로 구현되는 고정형 단말이거나 이동형 단말일 수 있다. 복수의 전자 기기들(110, 120, 130, 140)의 예를 들면, 스마트폰(smart phone), 휴대폰, 내비게이션, 컴퓨터, 노트북, 디지털방송용 단말, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 태블릿 PC 등이 있다. 일례로 도 1에서는 전자 기기(110)의 예로 스마트폰의 형상을 나타내고 있으나, 본 발명의 실시예들에서 전자 기기(110)는 실질적으로 무선 또는 유선 통신 방식을 이용하여 네트워크(170)를 통해 다른 전자 기기들(120, 130, 140) 및/또는 서버(150, 160)와 통신할 수 있는 다양한 물리적인 컴퓨터 장치들 중 하나를 의미할 수 있다.
통신 방식은 제한되지 않으며, 네트워크(170)가 포함할 수 있는 통신망(일례로, 이동통신망, 유선 인터넷, 무선 인터넷, 방송망)을 활용하는 통신 방식뿐만 아니라 기기들간의 근거리 무선 통신 역시 포함될 수 있다. 예를 들어, 네트워크(170)는, PAN(personal area network), LAN(local area network), CAN(campus area network), MAN(metropolitan area network), WAN(wide area network), BBN(broadband network), 인터넷 등의 네트워크 중 하나 이상의 임의의 네트워크를 포함할 수 있다. 또한, 네트워크(170)는 버스 네트워크, 스타 네트워크, 링 네트워크, 메쉬 네트워크, 스타-버스 네트워크, 트리 또는 계층적(hierarchical) 네트워크 등을 포함하는 네트워크 토폴로지 중 임의의 하나 이상을 포함할 수 있으나, 이에 제한되지 않는다.
서버(150, 160) 각각은 복수의 전자 기기들(110, 120, 130, 140)과 네트워크(170)를 통해 통신하여 명령, 코드, 파일, 컨텐츠, 서비스 등을 제공하는 컴퓨터 장치 또는 복수의 컴퓨터 장치들로 구현될 수 있다. 예를 들어, 서버(150)는 네트워크(170)를 통해 접속한 복수의 전자 기기들(110, 120, 130, 140)로 서비스(일례로, 영상 구도 개선 서비스)를 제공하는 시스템일 수 있다.
도 2는 본 발명의 일실시예에 따른 컴퓨터 장치의 예를 도시한 블록도이다. 앞서 설명한 복수의 전자 기기들(110, 120, 130, 140) 각각이나 서버들(150, 160) 각각은 도 2를 통해 도시된 컴퓨터 장치(200)에 의해 구현될 수 있다.
이러한 컴퓨터 장치(200)는 도 2에 도시된 바와 같이, 메모리(210), 프로세서(220), 통신 인터페이스(230) 그리고 입출력 인터페이스(240)를 포함할 수 있다. 메모리(210)는 컴퓨터에서 판독 가능한 기록매체로서, RAM(random access memory), ROM(read only memory) 및 디스크 드라이브와 같은 비소멸성 대용량 기록장치(permanent mass storage device)를 포함할 수 있다. 여기서 ROM과 디스크 드라이브와 같은 비소멸성 대용량 기록장치는 메모리(210)와는 구분되는 별도의 영구 저장 장치로서 컴퓨터 장치(200)에 포함될 수도 있다. 또한, 메모리(210)에는 운영체제와 적어도 하나의 프로그램 코드가 저장될 수 있다. 이러한 소프트웨어 구성요소들은 메모리(210)와는 별도의 컴퓨터에서 판독 가능한 기록매체로부터 메모리(210)로 로딩될 수 있다. 이러한 별도의 컴퓨터에서 판독 가능한 기록매체는 플로피 드라이브, 디스크, 테이프, DVD/CD-ROM 드라이브, 메모리 카드 등의 컴퓨터에서 판독 가능한 기록매체를 포함할 수 있다. 다른 실시예에서 소프트웨어 구성요소들은 컴퓨터에서 판독 가능한 기록매체가 아닌 통신 인터페이스(230)를 통해 메모리(210)에 로딩될 수도 있다. 예를 들어, 소프트웨어 구성요소들은 네트워크(170)를 통해 수신되는 파일들에 의해 설치되는 컴퓨터 프로그램에 기반하여 컴퓨터 장치(200)의 메모리(210)에 로딩될 수 있다.
프로세서(220)는 기본적인 산술, 로직 및 입출력 연산을 수행함으로써, 컴퓨터 프로그램의 명령을 처리하도록 구성될 수 있다. 명령은 메모리(210) 또는 통신 인터페이스(230)에 의해 프로세서(220)로 제공될 수 있다. 예를 들어 프로세서(220)는 메모리(210)와 같은 기록 장치에 저장된 프로그램 코드에 따라 수신되는 명령을 실행하도록 구성될 수 있다.
통신 인터페이스(230)는 네트워크(170)를 통해 컴퓨터 장치(200)가 다른 장치(일례로, 앞서 설명한 저장 장치들)와 서로 통신하기 위한 기능을 제공할 수 있다. 일례로, 컴퓨터 장치(200)의 프로세서(220)가 메모리(210)와 같은 기록 장치에 저장된 프로그램 코드에 따라 생성한 요청이나 명령, 데이터, 파일 등이 통신 인터페이스(230)의 제어에 따라 네트워크(170)를 통해 다른 장치들로 전달될 수 있다. 역으로, 다른 장치로부터의 신호나 명령, 데이터, 파일 등이 네트워크(170)를 거쳐 컴퓨터 장치(200)의 통신 인터페이스(230)를 통해 컴퓨터 장치(200)로 수신될 수 있다. 통신 인터페이스(230)를 통해 수신된 신호나 명령, 데이터 등은 프로세서(220)나 메모리(210)로 전달될 수 있고, 파일 등은 컴퓨터 장치(200)가 더 포함할 수 있는 저장 매체(상술한 영구 저장 장치)로 저장될 수 있다.
입출력 인터페이스(240)는 입출력 장치(250)와의 인터페이스를 위한 수단일 수 있다. 예를 들어, 입력 장치는 마이크, 키보드 또는 마우스 등의 장치를, 그리고 출력 장치는 디스플레이, 스피커와 같은 장치를 포함할 수 있다. 다른 예로 입출력 인터페이스(240)는 터치스크린과 같이 입력과 출력을 위한 기능이 하나로 통합된 장치와의 인터페이스를 위한 수단일 수도 있다. 입출력 장치(250)는 컴퓨터 장치(200)와 하나의 장치로 구성될 수도 있다.
또한, 다른 실시예들에서 컴퓨터 장치(200)는 도 2의 구성요소들보다 더 적은 혹은 더 많은 구성요소들을 포함할 수도 있다. 그러나, 대부분의 종래기술적 구성요소들을 명확하게 도시할 필요성은 없다. 예를 들어, 컴퓨터 장치(200)는 상술한 입출력 장치(250) 중 적어도 일부를 포함하도록 구현되거나 또는 트랜시버(transceiver), 데이터베이스 등과 같은 다른 구성요소들을 더 포함할 수도 있다.
이하에서는 주요 객체 정보를 활용한 영상 구도 분석 및 개선을 위한 방법 및 장치의 구체적인 실시예를 설명하기로 한다.
최근 딥러닝 기반의 영상 구도 분석 및 개선을 위한 알고리즘이 다수 제안되고 있다.
영상 구도에 관한 연구는 주로 주요 객체의 위치에 기반하여 미적 평가 점수를 향상시키는 방향으로 영상 구도를 개선하는 것이다. 그러나, 기존 기술은 구도를 지나치게 간소화하여 단순한 구도의 출력 영상만 만들어 내는 단점이 있다. 영상 구도를 분석하는 기술 또한 입력 영상을 풍경 사진에 국한하여 사전에 정의된 패턴으로 분류하는 것에 불과하다.
본 실시예들은 영상의 미적 품질 향상을 위해서 영상의 다양한 정보로서 영상의 종류, 구도, 회전각, 의미선을 분석할 수 있고, 풍경, 음식, 인물, 셀피와 같은 다양한 종류의 영상에 적용 가능한 범용 기술로서 영상의 회전과 크롭을 통해 영상 구도를 개선할 수 있다.
도 3은 본 발명의 일실시예에 따른 컴퓨터 장치가 수행할 수 있는 방법의 예를 도시한 흐름도이다.
본 실시예에 따른 컴퓨터 장치(200)는 클라이언트를 대상으로 클라이언트 상에 설치된 전용 어플리케이션이나 컴퓨터 장치(200)와 관련된 웹/모바일 사이트 접속을 통해 영상 구도 개선 서비스를 제공할 수 있다. 컴퓨터 장치(200)에는 컴퓨터로 구현된 영상 구도 개선 시스템이 구성될 수 있다. 일례로, 영상 구도 개선 시스템은 독립적으로 동작하는 프로그램 형태로 구현되거나, 혹은 특정 어플리케이션의 인-앱(in-app) 형태로 구성되어 상기 특정 어플리케이션 상에서 동작이 가능하도록 구현될 수 있다.
컴퓨터 장치(200)의 프로세서(220)는 도 3에 따른 영상 구도 개선 방법을 수행하기 위한 구성요소로서 적어도 하나 이상의 구성요소를 포함할 수 있다. 실시예에 따라 프로세서(220)의 구성요소들은 선택적으로 프로세서(220)에 포함되거나 제외될 수도 있다. 또한, 실시예에 따라 프로세서(220)의 구성요소들은 프로세서(220)의 기능의 표현을 위해 분리 또는 병합될 수도 있다.
이러한 프로세서(220) 및 프로세서(220)의 구성요소들은 도 3의 영상 구도 개선 방법이 포함하는 단계들(S310 내지 S340)을 수행하도록 컴퓨터 장치(200)를 제어할 수 있다. 예를 들어, 프로세서(220) 및 프로세서(220)의 구성요소들은 메모리(210)가 포함하는 운영체제의 코드와 적어도 하나의 프로그램의 코드에 따른 명령(instruction)을 실행하도록 구현될 수 있다.
여기서, 프로세서(220)의 구성요소들은 컴퓨터 장치(200)에 저장된 프로그램 코드가 제공하는 명령에 따라 프로세서(220)에 의해 수행되는 서로 다른 기능들(different functions)의 표현들일 수 있다.
프로세서(220)는 컴퓨터 장치(200)의 제어와 관련된 명령이 로딩된 메모리(210)로부터 필요한 명령을 읽어들일 수 있다. 이 경우, 상기 읽어들인 명령은 프로세서(220)가 이후 설명될 단계들(S310 내지 S340)을 실행하도록 제어하기 위한 명령을 포함할 수 있다.
이후 설명될 단계들(S310 내지 S340)은 도 3에 도시된 순서와 다른 순서로 수행될 수 있으며, 단계들(S310 내지 S340) 중 일부가 생략되거나 추가의 과정이 더 포함될 수 있다.
도 3을 참조하면, 단계(S310)에서 프로세서(220)는 구도 분석 및 구도 개선을 위한 타겟 영상이 주어지는 경우 딥러닝 모델을 통해 타겟 영상의 회전각을 탐지할 수 있다. 프로세서(220)는 기계학습 모델인 인공신경망을 통해 영상의 정보 중 하나로 영상의 기울어짐을 나타내는 회전각을 탐지할 수 있다. 일례로, 프로세서(220)는 딥러닝 네트워크 기반의 회귀 모델(regression model)을 이용하여 영상의 수평 성분과 수직 성분에 따른 회전각을 예측할 수 있다. 회귀 모델은 영상의 수평 성분과 수직 성분에 대응되는 회전각에 대한 데이터셋을 이용하여 사전 학습된 모델일 수 있다. 더 나아가, 프로세서(220)는 영상의 다양한 정보를 획득하기 위해 영상의 회전각과 함께, 딥러닝 네트워크 기반의 분류 모델(classification model)을 이용하여 해당 영상의 종류, 종류에 따른 구도, 의미선을 탐지할 수 있다. 여기서, 영상의 종류는 피사체 유형에 따라 구분되는 것으로, 예를 들어 풍경 사진, 인물 사진, 음식 사진, 셀피 사진으로 구분될 수 있다. 그리고, 영상의 구도는 영상의 종류에 따라 복수 개의 구도로 구분될 수 있다. 예를 들어, 풍경 사진은 9가지 구도인 삼등분법칙, 중심, 수평, 수직, 대칭, 대각, 커브, 삼각, 패턴으로 분류될 수 있다. 인물 사진은 7가지 구도인 롱 샷(long shot), 풀 샷(full shot), 웨이스트 샷(waist shot), 버스트 샷(bust shot), 클로즈업(close-up), 하이 앵글(high angle), 로우 앵글(low angle)로 분류될 수 있다. 음식 사진은 5가지 구도인 중심, 클로즈업, 삼등분법칙, 대각, 하이 앵글로 분류될 수 있고, 셀피 사진은 4가지 구도인 중심, 로우 앵글, 정면, 하이 앵글로 분류될 수 있다. 또한, 영상의 의미선은 영상 내에서 의미적으로 영역을 분리 가능한 직선을 의미할 수 있다. 프로세서(220)는 사전 학습된 딥러닝 기반의 다중 작업 네트워크를 통해 영상의 회전각과 함께 해당 영상의 종류, 구도, 의미선을 탐지할 수 있다.
단계(S320)에서 프로세서(220)는 영상 구도 개선을 위하여 단계(S310)에서 탐지된 회전각을 이용하여 타겟 영상을 보정할 수 있다. 프로세서(220)는 타겟 영상을 예측된 회전각만큼 회전시킴으로써 영상 회전을 통해 영상 구도를 일부 개선할 수 있다. 이하, 회전각만큼 회전된 타겟 영상을 보정 영상이라 칭하기로 한다.
단계(S330)에서 프로세서(220)는 영상 회전을 통한 보정 영상을 이용하여 영상 내 주요 객체를 탐지할 수 있다. 프로세서(220)는 딥러닝 기반의 객체 탐지 기술을 통해 보정 영상에서 객체 탐지 신뢰도가 일정 레벨 이상인 객체(이하, '주요 객체'라 칭함)를 탐지할 수 있다.
단계(S340)에서 프로세서(220)는 단계(S330)에서 탐지된 주요 객체를 기초로 보정 영상을 크롭함으로써 구도가 개선된 최종 영상을 획득할 수 있다. 프로세서(220)는 영상 구도 분석 결과에 기반하여 회전된 영상을 바탕으로 객체 검출 및 영상 크롭을 수행할 수 있고, 이때 영상 크롭 시 영상 내 주요 객체 정보를 활용하여 크롭 품질을 향상시킬 수 있다.
도 4는 본 발명의 일실시예에 있어서 영상 구도 분석 및 영상 구도 개선을 위한 전체 알고리즘을 도시한 것이다.
도 4를 참조하면, 프로세서(220)는 영상 구도 분석을 위한 영상 구도 분석부(500), 그리고 영상 구도 개선을 위한 영상 구도 개선부(1000)를 포함할 수 있다.
영상 구도 분석부(500)는 영상의 종류, 구도, 회전각, 및 의미선을 탐지하는 역할을 한다.
영상 구도 개선부(1000)는 영상 회전과 영상 크롭을 통해 영상의 미적 품질을 개선하는 역할을 한다. 이때, 영상 회전은 영상 구도 분석부(500)에서 예측된 회전각을 이용할 수 있고, 영상 크롭은 주요 객체 정보를 이용한 비교 기반 미적 품질 추정 인공신경망을 적용할 수 있다.
도 5 내지 도 9는 본 발명의 일실시예에 있어서 영상 구도 분석 과정의 구체적인 예시를 도시한 것이다.
도 5를 참조하면, 영상 구도 분석부(500)는 다중 작업 인코더(510), 특징 정제 모듈(520), 회전각 회귀기(531), 종류 분류기(532), 구도 분류기(533), 및 의미선 검출기(534)를 포함할 수 있다.
다중 작업 인코더(510)는 통합 인코더로서 영상의 정보(회전각, 종류, 구도, 및 의미선) 탐지를 효과적으로 수행하기 위한 특징 맵을 추출할 수 있다. 다중 작업 인코더(510)는 입력으로 주어진 타겟 영상의 특징 맵을 추출하는 인공신경망으로 구성될 수 있다.
영상의 회전각, 종류, 구도, 의미선을 탐지하는데 필요한 정보는 서로 관련되어 있으나 서로 구분될 수 있다. 본 실시예에서는 영상의 회전각, 종류, 구도, 의미선 각각에 대한 탐지 작업 별로 특징 정제 모듈(520)을 설계하여 이용할 수 있다. 특징 정제 모듈(520)은 두 개의 컨볼루션 계층(convolution layer)과 풀링 계층(pooling layer)으로 구성될 수 있으며, 해당하는 목적에 따라 다중 작업 인코더(510)를 통해 추출된 특징 맵을 정제할 수 있다.
컨볼루션 계층은 컨볼루션 연산을 사용하는 인공신경망의 한 종류이다. 컨볼루션 연산을 이용하여 단일 픽셀의 특징만을 추출하는 것이 아닌, 주변 픽셀들과의 관계까지 고려하여 특징을 추출할 수 있다. 풀링 계층은 특징 맵의 중요한 정보를 유지하면서 특징 맵의 크기를 줄이는 역할을 한다. 특징 맵은 컨볼루션 계층의 입출력 데이터를 의미할 수 있다.
통합 인코더인 다중 작업 인코더(510)에서 획득한 특징 맵은 영상에 대한 4가지 작업(회전각, 종류, 구도, 의미선 탐지)을 수행하기 위한 종합적인 정보를 포함한 공유 특징 맵을 의미한다. 각 작업 별로 필요한 정보는 다르기 때문에 특징 정제 모듈(520)을 사용하여 각각의 작업을 수행하는데 필요한 정보를 공유 특징 맵에서 추출할 수 있다. 다시 말해, 특징 정제란, 다중 작업 인코더(510)에서 획득한 공유 특징 맵으로부터 각각의 작업을 수행하는 데 필요한 정보를 추출하는 것을 의미한다. 예를 들어, 회전각 탐지에는 수평선 및 수직선 등의 정보가 필요하고, 영상 종류 탐지를 위해서는 영상 내 객체 정보 등이 필요하다. 구도 탐지를 위해서는 영상의 전역적인 정보 등이 필요하고, 의미선 탐지를 위해서는 영상의 엣지 정보 등이 필요하다. 특징 정제 모듈(520)은 목적하는 작업에 따라 서로 다른 구조로 설계될 수 있으며, 컨볼루션 계층과 풀링 계층으로 구성될 수 있다. 컨볼루션 계층은 특징 맵의 채널 수를 조정하고, 풀링 계층은 특징 맵의 가로/세로 크기를 조절함으로써 필요한 정보만을 추출할 수 있다.
회전각 회귀기(531), 종류 분류기(532), 구도 분류기(533), 및 의미선 검출기(534)는 목적하는 작업에 대해 학습된 각각의 네트워크로 구성될 수 있다. 이때, 네트워크는 영상을 입력 받아 구도 개선을 위해 필요한 회전각, 영상의 종류 및 구도, 영상 내 의미선을 예측하는 구조로, 예측한 회전각, 종류 및 구도, 영상 내 의미선이 주어진 정답 데이터에 가까워지도록 해당 네트워크가 학습될 수 있다.
도 6은 종류 분류기(532)와 구도 분류기(533)의 인공신경망 구조 예시를 도시한 것이다.
도 6을 참조하면, 종류 분류기(532)는 3개의 완전 연결(FC) 계층으로 구성될 수 있다. 완전 연결 계층은 인공 신경망의 한 종류로 한 층의 모든 뉴런이 다음 층의 모든 뉴런과 연결된 계층을 의미한다.
종류 분류기(532)는 특징 정제 모듈(520)을 통해 획득한 특징 맵을 이용하여 타겟 영상을 풍경 사진, 인물 사진, 음식 사진, 셀피 사진 중 하나로 분류할 수 있다.
구도 분류기(533)는 종류 분류기(532)와 마찬가지로 3개의 완전 연결(FC) 계층으로 구성될 수 있다. 영상의 구도는 영상의 종류에 따라 다르게 정의됨에 따라 영상의 종류 별로 구도 분류기(533)가 설계될 수 있다.
영상의 구도는 영상의 종류에 따라 복수 개의 구도로 구분될 수 있다. 예를 들어, 풍경 사진은 9가지 구도인 삼등분법칙, 중심, 수평, 수직, 대칭, 대각, 커브, 삼각, 패턴으로 분류될 수 있다. 인물 사진은 7가지 구도인 롱 샷, 풀 샷, 웨이스트 샷, 버스트 샷, 클로즈업, 하이 앵글, 로우 앵글로 분류될 수 있다. 음식 사진은 5가지 구도인 중심, 클로즈업, 삼등분법칙, 대각, 하이 앵글로 분류될 수 있고, 셀피 사진은 4가지 구도인 중심, 로우 앵글, 정면, 하이 앵글로 분류될 수 있다.
도 7은 구도 분류기(533) 중 셀피 사진에 대한 구도 분석 예시를 도시한 것이다.
도 7을 참조하면, 셀피 사진의 경우 촬영 구도와 관련된 구도인 로우 앵글, 정면, 하이 앵글은 구도 분류기(533)에 포함된 셀피 구도 분류 네트워크를 활용하여 분석할 수 있다.
아울러, 셀피 사진에 대한 구도 분석의 경우 추가적으로 객체 위치와 관련된 구도인 중심 구도에 대한 분석이 함께 진행될 수 있다. 객체 위치와 관련된 구도 분석은 객체 탐지 네트워크(도 11의 객체 탐지 인공신경망과 동일하거나 유사함)를 사용할 수 있다. 먼저, 객체 탐지 네트워크를 통해 영상 내 얼굴 영역을 나타내는 바운딩 박스를 탐색한다. 이후, 바운딩 박스의 중심과 영상의 중심 간의 유클리디안 거리를 추정한다. 유클리디안 거리는 n차원 공간에서 두 점 간의 거리를 의미한다. 이때, 영상 중심과 바운딩 박스 중심 간의 거리에 따라 셀피 사진의 구도를 판별할 수 있다. 예를 들어, 영상 중심과 바운딩 박스 중심 간의 거리가 입력 영상 크기의 1/8보다 작으면 해당 영상을 중심 구조로 판별한다.
도 8은 의미선 검출기(534)의 인공신경망 구조 예시를 도시한 것이다.
의미선 검출기(534)는 4개의 완전 연결(FC) 계층으로 구성될 수 있다.
의미선 탐지는 의미선 후보 생성 단계, 각 후보의 의미선 확률 및 미세 조정 예측 단계, 의미선 선별 단계로 이루어진다.
첫 번째 단계로, 의미선 후보를 생성할 수 있다. 임의의 직선에 대해 영상 중심까지의 거리 와 x축과 이루는 각 을 이용하여 허프 공간(Hough space)을 정의한다. 영상 내의 임의의 직선은 허프 공간에서 하나의 점으로 표현된다. 허프 변환은 (x, y) 좌표 공간의 픽셀들을 (의 새로운 매개변수 공간으로 나타내는 것을 의미한다. 이때, 새로운 매개변수 공간 (을 허프 공간이라 한다. 허프 공간에서의 를 균일하게 양자화하여 의미선 후보를 생성한다.
두 번째 단계로, 의미선 검출기(534)는 특징 정제 모듈(520)을 통해 획득한 특징 맵을 이용하여 각 후보선이 의미선일 확률을 계산하고 각 후보선에 대한 회귀 오프셋을 예측한다. 이때, 회귀 오프셋은 양자화된 후보선의 위치를 조정하는 데 사용된다.
세 번째 단계로, 반복적인 선택과 제거 과정을 거쳐 임계치 이상의 확률 값을 갖는 의미선만을 최종 의미선으로 선택한다.
도 9는 회전각 회귀기(531)의 인공신경망 구조 예시를 도시한 것이다.
도 9를 참조하면, 회전각 회귀기(531)는 3개의 완전 연결(FC) 계층으로 구성되며, 영상의 구도 개선을 위한 회전각을 예측하는 역할을 한다.
회전각 회귀기(531)는 특징 정제 모듈(520)을 통해 획득한 특징 맵을 이용하여 영상의 기울어짐을 나타내는 회전각을 예측할 수 있다.
영상 구도 분석부(500)는 타겟 영상을 회전각 회귀기(531)를 통해 예측한 회전각만큼 회전한 후 최대 넓이의 사각형으로 잘라 보정 영상을 만들어 영상 구도 개선부(1000)로 전달할 수 있다.
영상 구도 분석부(500)를 통해 획득한 영상의 정보로서 영상의 회전각은 영상 구도 개선부(1000)에서 활용할 수 있고, 영상의 회전각은 물론이고, 영상의 종류, 구도, 의미선은 다중 작업 인코더(510)를 훈련하는데 사용될 수 있다.
도 10 내지 도 16은 본 발명의 일실시예에 있어서 영상 구도 개선 과정의 구체적인 예시를 도시한 것이다.
도 10을 참조하면, 영상 구도 개선부(1000)는 객체 탐지를 위한 구성요소로 객체 검출 인코더(1010)와 객체 탐지기(1020)를 포함하고, 영상 크롭을 위한 구성요소로 크롭 인코더(1030)와 순서기(1040)를 포함할 수 있다.
영상 구도 개선부(1000)는 영상 구도 분석부(500)에서 전달한 보정 영상을 바탕으로 주요 객체 탐지 및 영상 크롭을 수행할 수 있다.
도 11은 주요 객체 탐지를 위한 인공신경망 구조 예시를 도시한 것이다.
도 11을 참조하면, 객체 검출 인코더(1010)는 영상 구도 분석부(500)로부터 회전각만큼 회전된 보정 영상을 입력으로 받아 입력 영상에서 특징 맵을 추출하는 역할을 한다.
객체 탐지기(1020)는 객체 영역을 나타내는 바운딩 박스, 객체 존재 여부, 객체의 종류를 예측하는 역할을 한다. 객체 탐지기(1020)는 다양한 객체 크기에 대응하기 위해 다양한 해상도에서 객체 탐지를 진행한 후 이를 종합하여 탐지 결과를 출력한다.
일례로, 객체 검출 인코더(1010)에서 3가지 해상도를 갖는 특징 맵을 추출한다. 가장 낮은 해상도의 특징 맵은 업샘플링(upsampling)되어 두 번째로 높은 해상도를 갖는 특징 맵과 접합된다. 접합된 특징 맵에 대해서도 업샘플링을 적용하여 가장 높은 해상도를 갖는 특징 맵과 접합한다. 가장 낮은 해상도의 특징 맵과 업샘플링 및 접합을 거친 두 가지의 특징 맵은 객체 탐지기(1020)에 입력되어 다양한 해상도에서 객체 탐지를 진행할 수 있다.
도 12는 주요 객체 탐색 과정의 예시를 도시한 것이다.
객체 탐지기(1020)는 객체 탐지 후 주요 객체 탐색을 수행한다. 도 12를 참조하면, 탐지된 객체들 중 객체 탐지 신뢰도가 임계치(예를 들어, 0.4)보다 큰 객체만을 선별한다. 영상의 중심과 선별된 객체 영역의 중심 간의 거리를 측정한 후 영상 중심과의 거리가 최소 거리인 객체를 주요 객체로 선별할 수 있다.
도 13은 영상 크롭을 위한 인공신경망 구조 예시를 도시한 것이다.
도 13을 참조하면, 크롭 인코더(1030)는 보정 영상과 서로 다른 크롭 후보 영역의 좌표를 입력 받아서 각 크롭 후보 영역의 특징 맵을 추출한다. 또한, 크롭 후보 간의 차이가 작은 경우가 많기 때문에 네트워크가 두 후보의 공통점과 차이점을 좀 더 쉽게 인지할 수 있어야 한다. 이를 위해, 도 13에 도시한 바와 같이 두 크롭 후보 영역에 모두 포함되는 공통 영역의 특징 맵과 공통 영역 이외에 각 크롭 후보 영역의 고유 영역의 정보를 추가로 추출하여 사용할 수 있다. 마지막으로, 영상 크롭 과정에서는 영상의 전역적 정보도 중요하기 때문에 추출된 전체 영상의 특징 맵을 활용할 수 있다.
순서기(1040)는 두 크롭 후보 영상의 특징 맵, 공통 영역의 특징 맵, 고유 영역의 특징 맵, 전체 영상의 특징 맵에 기반하여 두 크롭 후보 영상 간의 미적 순서 관계를 예측할 수 있다. 일례로, 미적 순서 관계는 두 크롭 후보 영역 A, B의 미적 품질 점수에 따라, 'A>B', '
Figure pat00007
', 'A<B'의 3가지 중 하나로 결정될 수 있다. 인공신경망 학습 과정에서는 각 영상에서 임의의 두 크롭 후보 영역을 선택하여 입력하고 순서 관계를 예측할 수 있다.
가장 품질이 높은 크롭 후보 영역을 선택하는 방식은 도 14와 같다. 도 14에 도시한 바와 같이, 4개의 크롭 후보 A, B, C, D가 있을 때, 후보 영상 A의 상대적 미적 점수를 결정하기 위해서 나머지 영상 B, C, D와 비교한다. 각 비교 결과를 순서기(1040)가 추정한 확률에 따라 가중합하여 미적 점수를 결정할 수 있다. 예를 들어, A와 B의 비교 결과, A의 품질이 높을 확률이 0.1, B의 품질이 높을 확률이 0.7, 품질이 동일할 확률이 0.3일 경우에는 A의 상대적 미적 점수는 (2×0.1)+(1×0.3)+(0×0.7)=0.5점으로 계산한다. 다음으로, 모든 크롭 후보 영상을 좌우 반전하고, 좌우 반전된 A와 나머지 좌우 반전된 B, C, D를 비교한다. 각 비교 결과, 순서기(1040)가 추정한 확률에 따라 가중한다. 마지막으로, 두 개의 가중합 결과를 더하여 A 후보의 최종 상대적 미적 점수를 구한다. 같은 방식으로, 모든 크롭 후보의 미적 점수를 계산한다. 그 후, 가장 높은 미적 점수를 가진 크롭 후보 영역을 최종 크롭 후보 영역으로 선택한다. 예시에서는 4개의 크롭 후보 영역을 비교하고 있으나, 실제로는 더 많은 크롭 후보 영역을 생성하여 비교할 수 있다.
크롭 후보를 생성하는 과정은 다음과 같다. 객체가 탐지된 경우 기존 데이터 셋 내 후보, 전체 영역을 포함하는 후보, 주요 객체 정보를 활용하여 생성된 크롭 후보를 사용한다. 객체가 탐지되지 않았을 경우 전체 크롭 후보는 기존 후보 영역과 전체 영역을 포함하는 후보를 사용한다.
주요 객체 정보를 활용하여 크롭 후보를 생성하는 방식은 다음과 같다. 객체 기준 구도(중심 구도, 삼등분법칙 구도)마다 3가지 영상 비율 (1:1, 4:3, 16:9)로 크롭을 진행한다. 각 후보 영역들은 객체를 완전히 포함한다. 구체적으로, 도 15를 참조하면 중심 구도에 해당하는 크롭 후보들은 주요 객체 중심점을 기준으로 생성되며, 일례로 최소 크기와 최대 크기 이내에서 일정 간격의 크기로 후보 영역이 생성될 수 있다. 도 16을 참조하면, 삼등분법칙 구도에 해당하는 크롭 후보들은 객체 중심점이 삼등분 선 간 교차점에 위치하도록 후보 영역이 생성되며, 최소 및 최대 크기의 후보 영역 내에서 일정 간격의 크기로 후보 영역이 생성될 수 있다. 모든 교차점에 대해 같은 과정을 반복한다. 주요 객체의 크기가 작을 때 주요 객체 주위로만 크롭되는 문제를 방지하기 위해 후보 영역의 최소 크기를 원본 영상 크기를 기준으로 예를 들어, 원본 영상의 절반 크기로 설정될 수 있다.
이처럼 본 발명의 실시예들에 따르면, 영상 구도를 분석하여 분석 결과를 바탕으로 영상 구도를 개선함으로써 영상의 미적 품질을 효과적으로 향상시킬 수 있다. 본 발명의 실시예들에 따르면, 딥러닝 기반으로 영상의 종류, 구도, 회전각, 의미선을 분석함으로써 영상의 다양한 정보를 획득할 수 있다. 본 발명의 실시예들에 따르면, 영상 구도 분석 결과를 바탕으로 영상 회전을 수행하고 주요 객체 정보를 기준으로 영상 크롭을 수행하여 영상의 미적 품질을 개선함으로써 풍경, 음식, 인물, 셀피와 같은 다양한 종류의 영상에 적용 가능한 범용 기술을 제공할 수 있다.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 이때, 매체는 컴퓨터로 실행 가능한 프로그램을 계속 저장하거나, 실행 또는 다운로드를 위해 임시 저장하는 것일 수도 있다. 또한, 매체는 단일 또는 수 개의 하드웨어가 결합된 형태의 다양한 기록수단 또는 저장수단일 수 있는데, 어떤 컴퓨터 시스템에 직접 접속되는 매체에 한정되지 않고, 네트워크 상에 분산 존재하는 것일 수도 있다. 매체의 예시로는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등을 포함하여 프로그램 명령어가 저장되도록 구성된 것이 있을 수 있다. 또한, 다른 매체의 예시로, 어플리케이션을 유통하는 앱 스토어나 기타 다양한 소프트웨어를 공급 내지 유통하는 사이트, 서버 등에서 관리하는 기록매체 내지 저장매체도 들 수 있다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.

Claims (20)

  1. 컴퓨터 장치에서 실행되는 영상 구도 개선 방법에 있어서,
    상기 컴퓨터 장치는 메모리에 포함된 컴퓨터 판독가능한 명령들을 실행하도록 구성된 적어도 하나의 프로세서를 포함하고,
    상기 영상 구도 개선 방법은,
    상기 적어도 하나의 프로세서에 의해, 딥러닝 모델을 통해 타겟 영상에서 객체를 탐지하는 단계; 및
    상기 적어도 하나의 프로세서에 의해, 상기 객체를 기초로 상기 타겟 영상을 크롭(crop)하여 구도 개선 영상을 획득하는 단계
    를 포함하는 영상 구도 개선 방법.
  2. 제1항에 있어서,
    상기 영상 구도 개선 방법은,
    상기 적어도 하나의 프로세서에 의해, 딥러닝 모델을 통해 주어진 영상의 회전각을 탐지하는 단계; 및
    상기 적어도 하나의 프로세서에 의해, 상기 회전각을 이용한 영상 회전을 통해 상기 주어진 영상을 보정하는 단계
    를 더 포함하고,
    상기 타겟 영상으로 상기 영상 회전을 통한 보정 영상이 입력되는 것
    을 특징으로 하는 영상 구도 개선 방법.
  3. 제1항에 있어서,
    상기 객체를 탐지하는 단계는,
    상기 타겟 영상을 이용하여 복수 개의 해상도를 가진 특징 맵을 추출하는 단계; 및
    상기 복수 개의 특징 맵을 이용하여 상기 타겟 영상에서 상기 객체를 탐지하는 단계
    를 포함하는 영상 구도 개선 방법.
  4. 제1항에 있어서,
    상기 객체를 탐지하는 단계는,
    상기 타겟 영상에서 추출된 특징 맵을 이용하여 후보 객체를 탐지하는 단계;
    상기 후보 객체 중 객체 탐지 신뢰도가 일정 레벨 이상인 객체를 선별하는 단계; 및
    상기 선별된 객체 중 상기 타겟 영상의 중심과 최소 거리인 객체를 주요 객체로 선별하는 단계
    를 포함하고,
    상기 구도 개선 영상을 획득하는 단계는,
    상기 주요 객체를 기준으로 상기 타겟 영상을 크롭하는 단계
    를 포함하는 영상 구도 개선 방법.
  5. 제1항에 있어서,
    상기 구도 개선 영상을 획득하는 단계는,
    상기 객체를 기준으로 크롭 후보 영역을 생성하는 단계; 및
    딥 러닝 모델을 통한 상기 크롭 후보 영역 간의 품질 비교를 통해 최종 크롭 영역을 선택하는 단계
    를 포함하는 영상 구도 개선 방법.
  6. 제5항에 있어서,
    상기 크롭 후보 영역을 생성하는 단계는,
    상기 객체의 중심점을 기준으로 최소 크기 영역과 최대 크기 영역 내에서 일정 간격으로 상기 크롭 후보 영역을 생성하는 것
    을 특징으로 하는 영상 구도 개선 방법.
  7. 제5항에 있어서,
    상기 최종 크롭 영역을 선택하는 단계는,
    비교 대상인 두 크롭 후보 영역에 대해 각 크롭 후보 영역의 특징 맵, 공통 영역의 특징 맵, 고유 영역의 특징 맵, 및 전체 영상의 특징 맵을 이용하여 상기 두 크롭 후보 영역 간의 품질 순서 관계를 예측하는 단계
    를 포함하는 영상 구도 개선 방법.
  8. 제5항에 있어서,
    상기 최종 크롭 영역을 선택하는 단계는,
    상기 크롭 후보 영역 각각에 대하여 다른 크롭 후보 영역과의 상대적 품질 점수를 결정하여 상기 상대적 품질 점수를 통해 상기 크롭 후보 영역 중에서 상기 최종 크롭 영역을 선택하는 것
    을 특징으로 하는 영상 구도 개선 방법.
  9. 제1항에 있어서,
    상기 영상 구도 개선 방법은,
    상기 적어도 하나의 프로세서에 의해, 딥러닝 모델을 통해 상기 타겟 영상의 정보로서 피사체 종류에 따른 영상 종류, 상기 영상 종류에 따른 영상 구도, 및 영상 내 영역 구분을 위한 의미선 중 적어도 하나를 탐지하는 단계
    를 더 포함하는 영상 구도 개선 방법.
  10. 제1항에 있어서,
    상기 영상 구도 개선 방법은,
    상기 적어도 하나의 프로세서에 의해, 상기 타겟 영상의 정보로서 영상 내 영역 구분을 위한 의미선을 탐지하는 단계
    를 더 포함하고,
    상기 의미선을 탐지하는 단계는,
    상기 타겟 영상에 대한 허프 공간(Hough space)을 이용하여 후보선을 생성하는 단계; 및
    상기 후보선의 의미선 확률 예측을 통해 적어도 하나의 후보선을 상기 의미선으로 선택하는 단계
    를 포함하는 영상 구도 개선 방법.
  11. 제1항 내지 제10항 중 어느 한 항의 영상 구도 개선 방법을 컴퓨터에 실행시키기 위해 컴퓨터 판독가능한 기록 매체에 저장되는 컴퓨터 프로그램.
  12. 컴퓨터 장치에 있어서,
    메모리에 포함된 컴퓨터 판독가능한 명령들을 실행하도록 구성된 적어도 하나의 프로세서
    를 포함하고,
    상기 적어도 하나의 프로세서는,
    딥러닝 모델을 통해 타겟 영상에서 객체를 탐지하는 과정; 및
    상기 객체를 기초로 상기 타겟 영상을 크롭하여 구도 개선 영상을 획득하는 과정
    을 처리하는 컴퓨터 장치.
  13. 제12항에 있어서,
    상기 적어도 하나의 프로세서는,
    딥러닝 모델을 통해 주어진 영상의 회전각을 탐지하고,
    상기 회전각을 이용한 영상 회전을 통해 상기 주어진 영상을 보정하고,
    상기 타겟 영상으로 상기 영상 회전을 통한 보정 영상이 입력되는 것
    을 특징으로 하는 컴퓨터 장치.
  14. 제12항에 있어서,
    상기 적어도 하나의 프로세서는,
    상기 타겟 영상을 이용하여 복수 개의 해상도를 가진 특징 맵을 추출하고,
    상기 복수 개의 특징 맵을 이용하여 상기 타겟 영상에서 상기 객체를 탐지하는 것
    을 특징으로 하는 컴퓨터 장치.
  15. 제12항에 있어서,
    상기 적어도 하나의 프로세서는,
    상기 타겟 영상에서 추출된 특징 맵을 이용하여 후보 객체를 탐지하고,
    상기 후보 객체 중 객체 탐지 신뢰도가 일정 레벨 이상인 객체를 선별하고,
    상기 선별된 객체 중 상기 타겟 영상의 중심과 최소 거리인 객체를 주요 객체로 선별하고,
    상기 주요 객체를 기준으로 상기 타겟 영상을 크롭하는 것
    을 특징으로 하는 컴퓨터 장치.
  16. 제12항에 있어서,
    상기 적어도 하나의 프로세서는,
    상기 객체를 기준으로 크롭 후보 영역을 생성하고,
    딥 러닝 모델을 통한 상기 크롭 후보 영역 간의 품질 비교를 통해 최종 크롭 영역을 선택하는 것
    을 특징으로 하는 컴퓨터 장치.
  17. 제16항에 있어서,
    상기 적어도 하나의 프로세서는,
    상기 객체의 중심점을 기준으로 최소 크기 영역과 최대 크기 영역 내에서 일정 간격으로 상기 크롭 후보 영역을 생성하는 것
    을 특징으로 하는 컴퓨터 장치.
  18. 제16항에 있어서,
    상기 적어도 하나의 프로세서는,
    비교 대상인 두 크롭 후보 영역에 대해 각 크롭 후보 영역의 특징 맵, 공통 영역의 특징 맵, 고유 영역의 특징 맵, 및 전체 영상의 특징 맵을 이용하여 상기 두 크롭 후보 영역 간의 품질 순서 관계를 예측하는 것
    을 특징으로 하는 컴퓨터 장치.
  19. 제12항에 있어서,
    상기 적어도 하나의 프로세서는,
    딥러닝 모델을 통해 상기 타겟 영상의 정보로서 피사체 종류에 따른 영상 종류, 상기 영상 종류에 따른 영상 구도, 및 영상 내 영역 구분을 위한 의미선 중 적어도 하나를 탐지하는 것
    을 특징으로 하는 컴퓨터 장치.
  20. 제12항에 있어서,
    상기 적어도 하나의 프로세서는,
    상기 타겟 영상의 정보로서 영상 내 영역 구분을 위한 의미선을 탐지하는 것으로,
    상기 타겟 영상에 대한 허프 공간을 이용하여 후보선을 생성하고,
    상기 후보선의 의미선 확률 예측을 통해 적어도 하나의 후보선을 상기 의미선으로 선택하는 것
    을 특징으로 하는 컴퓨터 장치.
KR1020220140455A 2022-10-27 2022-10-27 주요 객체 정보를 활용한 영상 구도 분석 및 개선을 위한 방법, 컴퓨터 장치, 및 컴퓨터 프로그램 KR20240059328A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220140455A KR20240059328A (ko) 2022-10-27 2022-10-27 주요 객체 정보를 활용한 영상 구도 분석 및 개선을 위한 방법, 컴퓨터 장치, 및 컴퓨터 프로그램

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220140455A KR20240059328A (ko) 2022-10-27 2022-10-27 주요 객체 정보를 활용한 영상 구도 분석 및 개선을 위한 방법, 컴퓨터 장치, 및 컴퓨터 프로그램

Publications (1)

Publication Number Publication Date
KR20240059328A true KR20240059328A (ko) 2024-05-07

Family

ID=91078111

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220140455A KR20240059328A (ko) 2022-10-27 2022-10-27 주요 객체 정보를 활용한 영상 구도 분석 및 개선을 위한 방법, 컴퓨터 장치, 및 컴퓨터 프로그램

Country Status (1)

Country Link
KR (1) KR20240059328A (ko)

Similar Documents

Publication Publication Date Title
CN112052787B (zh) 基于人工智能的目标检测方法、装置及电子设备
WO2021017998A1 (zh) 文本位置定位方法和系统以及模型训练方法和系统
WO2019218824A1 (zh) 一种移动轨迹获取方法及其设备、存储介质、终端
US10440276B2 (en) Generating image previews based on capture information
TWI766201B (zh) 活體檢測方法、裝置以及儲存介質
JP6694829B2 (ja) ルールに基づくビデオ重要度解析
US10964060B2 (en) Neural network-based camera calibration
US11676283B2 (en) Iteratively refining segmentation masks
US9665962B2 (en) Image distractor detection and processng
KR101896357B1 (ko) 객체를 검출하는 방법, 디바이스 및 프로그램
US8718324B2 (en) Method, apparatus and computer program product for providing object tracking using template switching and feature adaptation
US11842514B1 (en) Determining a pose of an object from rgb-d images
US20120075433A1 (en) Efficient information presentation for augmented reality
CN109343920B (zh) 一种图像处理方法及其装置、设备和存储介质
WO2019071976A1 (zh) 基于区域增长和眼动模型的全景图像显著性检测方法
CN111489396A (zh) 利用临界边缘检测神经网络和几何模型确定相机参数
US9025889B2 (en) Method, apparatus and computer program product for providing pattern detection with unknown noise levels
US20210319564A1 (en) Patch-Based Image Matting Using Deep Learning
CN110516731B (zh) 一种基于深度学习的视觉里程计特征点检测方法及系统
US11216961B2 (en) Aligning digital images by selectively applying pixel-adjusted-gyroscope alignment and feature-based alignment models
CN111968030B (zh) 信息生成方法、装置、电子设备和计算机可读介质
KR20240059328A (ko) 주요 객체 정보를 활용한 영상 구도 분석 및 개선을 위한 방법, 컴퓨터 장치, 및 컴퓨터 프로그램
US20230141734A1 (en) Digital image inpainting utilizing plane panoptic segmentation and plane grouping
CN114998743A (zh) 一种视觉地图点的构建方法、装置、设备及介质
EP4330932A1 (en) Texture completion