KR102438201B1 - 사진 촬영과 관련된 추천 정보를 제공하는 방법 및 시스템 - Google Patents

사진 촬영과 관련된 추천 정보를 제공하는 방법 및 시스템 Download PDF

Info

Publication number
KR102438201B1
KR102438201B1 KR1020170164328A KR20170164328A KR102438201B1 KR 102438201 B1 KR102438201 B1 KR 102438201B1 KR 1020170164328 A KR1020170164328 A KR 1020170164328A KR 20170164328 A KR20170164328 A KR 20170164328A KR 102438201 B1 KR102438201 B1 KR 102438201B1
Authority
KR
South Korea
Prior art keywords
subject
electronic device
composition
recommended
preview image
Prior art date
Application number
KR1020170164328A
Other languages
English (en)
Other versions
KR20190064958A (ko
Inventor
정재호
성열탁
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020170164328A priority Critical patent/KR102438201B1/ko
Priority to EP18882342.1A priority patent/EP3560179B1/en
Priority to EP19213664.6A priority patent/EP3654625B1/en
Priority to CN202111265899.6A priority patent/CN114040098A/zh
Priority to CN201880019872.9A priority patent/CN110476405B/zh
Priority to PCT/KR2018/011670 priority patent/WO2019107724A1/en
Priority to CN202110029846.8A priority patent/CN112801269A/zh
Priority to EP21150571.4A priority patent/EP3823261B1/en
Priority to US16/161,761 priority patent/US11146724B2/en
Priority to US16/294,339 priority patent/US10616478B2/en
Publication of KR20190064958A publication Critical patent/KR20190064958A/ko
Priority to US16/780,186 priority patent/US10951813B2/en
Priority to US17/497,427 priority patent/US11678050B2/en
Priority to KR1020220107149A priority patent/KR102481016B1/ko
Application granted granted Critical
Publication of KR102438201B1 publication Critical patent/KR102438201B1/ko
Priority to KR1020220178697A priority patent/KR102631309B1/ko
Priority to US18/315,808 priority patent/US20230283889A1/en
Priority to KR1020240011730A priority patent/KR20240015708A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • H04N1/00204Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a digital computer or a digital computer system, e.g. an internet server
    • H04N1/00244Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a digital computer or a digital computer system, e.g. an internet server with a server, e.g. an internet server
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • H04N5/2258
    • H04N5/23222
    • H04N5/23293
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/0077Types of the still picture apparatus
    • H04N2201/0084Digital still camera

Abstract

제 1 카메라를 통해 인식되는 프리뷰 이미지에 포함된 피사체를 식별하는 단계; 식별된 피사체 주변의 빛과 관련된 정보를 획득하는 단계; 식별된 피사체의 정보 및 피사체 주변의 빛과 관련된 정보를 이용하여, 추천 촬영 구도를 결정하는 단계; 및 결정된 추천 촬영 구도에 관한 정보를 제공하는 단계를 포함하는 전자 장치가 사진 촬영과 관련된 추천 정보를 제공하는 방법이 개시된다.

Description

사진 촬영과 관련된 추천 정보를 제공하는 방법 및 시스템{METHOD AND SYSTEM FOR PROVIDING RECOMMENDATION INFORMATION RELATED TO PHOTOGRAPHY}
본 개시는 딥러닝 등의 기계 학습 알고리즘을 활용하여 인간 두뇌의 인지, 판단 등의 기능을 모사하는 인공지능(AI) 시스템 및 그 응용에 관련된 것이다. 구체적으로, 본 개시는 인공지능(AI) 시스템을 이용하여 사진 촬영과 관련된 추천 정보를 제공하는 방법 및 장치에 관한 것이다.
인공지능(Artificial Intelligence, AI) 시스템은 인간 수준의 지능을 구현하는 컴퓨터 시스템이며, 기존 Rule 기반 스마트 시스템과 달리 기계가 스스로 학습하고 판단하며 똑똑해지는 시스템이다. 인공지능 시스템은 사용할수록 인식률이 향상되고 사용자 취향을 보다 정확하게 이해할 수 있게 되어, 기존 규칙(Rule) 기반 스마트 시스템은 점차 딥러닝 기반 인공지능 시스템으로 대체되고 있다.
인공지능 기술은 기계학습(딥러닝) 및 기계학습을 활용한 요소 기술들로 구성된다.
기계학습은 입력 데이터들의 특징을 스스로 분류/학습하는 알고리즘 기술이며, 요소기술은 딥러닝 등의 기계학습 알고리즘을 활용하여 인간 두뇌의 인지, 판단 등의 기능을 모사하는 기술로서, 언어적 이해, 시각적 이해, 추론/예측, 지식 표현, 동작 제어 등의 기술 분야로 구성된다.
인공지능 기술이 응용되는 다양한 분야는 다음과 같다. 언어적 이해는 인간의 언어/문자를 인식하고 응용/처리하는 기술로서, 자연어 처리, 기계 번역, 대화시스템, 질의 응답, 음성 인식/합성 등을 포함한다. 시각적 이해는 사물을 인간의 시각처럼 인식하여 처리하는 기술로서, 객체 인식, 객체 추적, 영상 검색, 사람 인식, 장면 이해, 공간 이해, 영상 개선 등을 포함한다. 추론 예측은 정보를 판단하여 논리적으로 추론하고 예측하는 기술로서, 지식/확률 기반 추론, 최적화 예측, 선호 기반 계획, 추천 등을 포함한다. 지식 표현은 인간의 경험정보를 지식데이터로 자동화 처리하는 기술로서, 지식 구축(데이터 생성/분류), 지식 관리(데이터 활용) 등을 포함한다. 동작 제어는 차량의 자율 주행, 로봇의 움직임을 제어하는 기술로서, 움직임 제어(항법, 충돌, 주행), 조작 제어(행동 제어) 등을 포함한다.
일 실시예에 의하면, 피사체 및 피사체의 주변 환경 정보를 이용하여 사진 촬영과 관련된 추천 정보(예컨대, 적어도 하나의 추천 촬영 구도, 추천 설정 값, 적어도 하나의 추천 포즈 등)를 제공하는 방법 및 시스템이 제공될 수 있다.
일 실시예에 따른 사진 촬영과 관련된 추천 정보를 제공하는 방법은, 제 1 카메라를 통해 인식되는 프리뷰 이미지에 포함된 피사체를 식별하는 단계; 식별된 피사체 주변의 빛과 관련된 정보를 획득하는 단계; 식별된 피사체의 정보 및 피사체 주변의 빛과 관련된 정보를 이용하여, 추천 촬영 구도를 결정하는 단계; 및 결정된 추천 촬영 구도에 관한 정보를 제공하는 단계를 포함할 수 있다.
일 실시예에 따른 전자 장치는, 제 1 카메라를 통해 인식되는 피사체를 포함하는 프리뷰 이미지를 표시하는 출력부; 피사체 주변의 빛과 관련된 정보를 획득하는 센싱부; 및 프리뷰 이미지에 포함된 피사체를 식별하고, 식별된 피사체의 정보 및 피사체 주변의 빛과 관련된 정보를 이용하여, 추천 촬영 구도를 결정하고, 추천 촬영 구도와 관련된 정보를 제공하는 프로세서를 포함할 수 있다.
일 실시예에 따른 컴퓨터로 읽을 수 있는 저장 매체를 포함하는 컴퓨터 프로그램 제품에 있어서, 상기 저장 매체는, 제 1 카메라를 통해 인식되는 프리뷰 이미지에 포함된 피사체를 식별하는 단계; 식별된 피사체 주변의 빛과 관련된 정보를 획득하는 단계; 식별된 피사체의 정보 및 피사체 주변의 빛과 관련된 정보를 이용하여, 추천 촬영 구도를 결정하는 단계; 및 추천 촬영 구도에 관한 정보를 제공하는 단계를 수행하는 명령어들을 포함할 수 있다.
도 1은 일 실시예에 따른 사진 촬영 시스템을 설명하기 위한 도면이다.
도 2는 일 실시예에 따른 전자 장치가 사진 촬영과 관련된 추천 정보를 제공하는 방법을 설명하기 위한 순서도이다.
도 3은 일 실시예에 따른 딥러닝을 통해 추천 모델을 생성하는 동작을 설명하기 위한 도면이다.
도 4는 일 실시예에 따른 촬영 구도를 설명하기 위한 도면이다.
도 5는 일 실시예에 따른 현재 촬영 구도를 검출하는 동작을 설명하기 위한 도면이다.
도 6은 일 실시예에 따른 추천 촬영 구도를 설명하기 위한 도면이다.
도 7은 일 실시예에 따른 촬영 설정 값을 추천하거나 자동 적용하는 방법을 설명하기 위한 순서도이다.
도 8은 일 실시예에 따른 촬영 설정 값을 설명하기 위한 도면이다.
도 9는 일 실시예에 따른 프리뷰 이미지보다 큰 화각의 이미지를 이용하여, 추천 촬영 구도에 관한 정보를 제공하는 방법을 설명하기 위한 순서도이다.
도 10은 일 실시예에 따른 듀얼 카메라를 설명하기 위한 도면이다.
도 11은 일 실시예에 따른 최대 화각 이미지를 이용하여 촬영을 가이드하는 동작을 설명하기 위한 도면이다.
도 12 및 13은 일 실시예에 따른 최대 화각 이미지 상에 추천 촬영 구도를 가이드하는 정보를 표시하는 동작을 설명하기 위한 도면이다.
도 14 및 15는 일 실시예에 따른 전자 장치가 추천 촬영 구도에 관한 정보를 표시하는 동작을 설명하기 위한 도면이다.
도 16은 일 실시예에 따른 전자 장치가 서버와 연동하여, 추천 촬영 구도에 관한 정보를 제공하는 방법을 설명하기 위한 순서도이다.
도 17은 일 실시예에 따른 전자 장치가 인공 지능 비서 애플리케이션을 실행하는 동작을 설명하기 위한 도면이다.
도 18은 일 실시예에 따른 복수의 추천 촬영 구도에 관한 정보를 제공하는 방법을 설명하기 위한 순서도이다.
도 19, 20 및 21은 일 실시예에 따른 전자 장치가 복수의 추천 촬영 구도에 관한 정보를 표시하는 동작을 설명하기 위한 도면이다.
도 22는 일 실시예에 따른 추천 포즈에 관한 정보를 제공하는 방법을 설명하기 위한 순서도이다.
도 23은 일 실시예에 따른 전자 장치가 추천 포즈에 관한 정보를 표시하는 동작을 설명하기 위한 도면이다.
도 24는 일 실시예에 따른 피사체의 수 및 피사체의 주변 환경 정보를 이용하여 추천 포즈에 관한 정보를 제공하는 동작을 설명하기 위한 도면이다.
도 25는 일 실시예에 따른 복수의 추천 포즈에 관한 정보를 제공하는 동작을 설명하기 위한 도면이다.
도 26은 일 실시예에 따른 최적의 얼굴 구도를 추천하는 동작을 설명하기 위한 도면이다.
도 27 및 도 28은 일 실시예에 따른 전자 장치를 설명하기 위한 블록구성도이다.
도 29는 일 실시예에 따른 프로세서의 블록 구성도이다.
도 30은 일 실시예에 따른 데이터 학습부의 블록 구성도이다.
도 31은 일 실시예에 따른 데이터 인식부의 블록 구성도이다
도 32는 일 실시예에 따른 전자 장치 및 서버가 서로 연동함으로써 데이터를 학습하고 인식하는 예시를 나타내는 도면이다.
본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명의 일 실시예에 대해 구체적으로 설명하기로 한다.
본 명세서에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 명세서에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.
아래에서는 첨부한 도면을 참고하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
도 1은 일 실시예에 따른 사진 촬영 시스템을 설명하기 위한 도면이다.
도 1을 참조하면, 일 실시예에 따른 사진 촬영 시스템은 전자 장치(1000)를 포함할 수 있다. 일 실시예에 의하면, 사진 촬영 시스템은 전자 장치(1000) 이외에 서버(미도시)를 더 포함할 수 있다. 사진 촬영 시스템이 전자 장치(1000) 및 서버를 포함하는 실시예에 대해서는 도 16을 참조하여 후에 자세히 살펴보기로 한다.
일 실시예에 의하면, 전자 장치(1000)는 피사체에 대한 적어도 하나의 프레임을 획득하는 기기를 의미할 수 있다. 이하에서는, 설명의 편의상, 피사체에 대한 적어도 하나의 프레임은 이미지 또는 사진으로 표현될 수도 있다.
일 실시예에 의하면, 피사체는 사진을 찍는 대상이 되는 물체를 의미할 수 있다. 피사체는 사람, 동물, 곤충, 자동차와 같은 움직이는 객체일 수도 있고, 건축물, 동상, 그림, 바위와 같은 움직이지 않는 객체일 수도 있고, 나무나 꽃과 같은 식물일 수도 있고, 바다, 산, 석양과 같은 풍경일 수도 있고, 일식이나 월식과 같은 자연 현상일 수도 있으나, 이에 한정되는 것은 아니다.
일 실시예에 따른 전자 장치(1000)는 다양한 형태로 구현될 수 있다. 예를 들어, 본 명세서에서 기술되는 전자 장치(1000)는, 디지털 카메라, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 태블릿 PC, 전자북 단말기, 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 네비게이션, MP3 플레이어 등이 있을 수 있으나, 이에 한정되는 것은 아니다. 본 명세서에서 기술되는 전자 장치(1000)는 사용자에 의해 착용될 수 있는 장치(wearable device)일 수 있다. 웨어러블 디바이스는 액세서리 형 장치(예컨대, 시계, 반지, 팔찌, 발찌, 목걸이, 안경, 콘택트 렌즈), 머리 착용형 장치(head-mounted-device(HMD)), 직물 또는 의류 일체형 장치(예: 전자 의복), 신체 부착형 장치(예컨대, 스킨 패드(skin pad)), 또는 생체 이식형 장치(예: implantable circuit) 중 적어도 하나를 포함할 수 있다. 이하에서는, 설명의 편의상, 전자 장치(1000)가 디지털 카메라 또는 카메라를 내장한 스마트폰인 경우를 예로 들어 설명하기로 한다.
일 실시예에 의하면, 전자 장치(1000)의 사용자는 전자 장치(1000)를 이용하여 피사체의 사진을 촬영할 수 있다. 이때, 전자 장치(1000)의 사용자는 멋진 사진을 찍기 위해, 촬영 구도를 결정하거나, 촬영 설정 값을 조절하거나, 피사체의 포즈를 조정할 수 있다. 하지만, 사진에 대해 잘 모르는 일반적인 사용자가 사진 작가들과 같이 멋진 사진을 찍기는 어렵다.
따라서, 일 실시예에 의하면, 전자 장치(1000)는 일반적인 사용자도 멋진 사진을 찍을 수 있도록 사진 촬영과 관련된 추천 정보를 제공할 수 있다. 예를 들어, 전자 장치(1000)는, 촬영 구도와 관련된 추천 정보, 촬영 설정 값과 관련된 추천 정보, 피사체의 포즈와 관련된 추천 정보 중 적어도 하나를 사용자에게 제공할 수 있으나, 이에 한정되는 것은 아니다.
이하에서는 도 2를 참조하여 전자 장치(1000)가 피사체 및 피사체의 주변 환경 정보를 이용하여 사진 촬영과 관련된 추천 정보(예컨대, 촬영 구도의 추천)를 제공하는 동작에 대해서 자세히 살펴보기로 한다.
도 2는 일 실시예에 따른 전자 장치가 사진 촬영과 관련된 추천 정보를 제공하는 방법을 설명하기 위한 순서도이다.
단계 S210에서, 전자 장치(1000)는, 제 1 카메라를 통해 인식되는 프리뷰 이미지에 포함된 피사체를 식별할 수 있다. 프리뷰 이미지는 뷰 파인더 또는 화면을 통해 사용자가 사진 촬영 전에 미리 확인할 수 있는 이미지일 수 있다.
일 실시예에 의하면, 전자 장치(1000)는 프리뷰 이미지를 분석하여 프리뷰 이미지에 포함된 피사체를 식별할 수 있다. 이때, 일 실시예에 의하면, 전자 장치(1000)는 인공지능(AI) 시스템의 학습 네트워크 모델을 이용하여 프리뷰 이미지에 포함된 피사체를 식별할 수 있다.
일 실시예에 의하면, 전자 장치(1000)는 프리뷰 이미지에 포함된 피사체의 종류를 결정할 수 있다. 예를 들어, 전자 장치(1000)는 피사체가 사람인지 동물인지 풍경인지 자연물인지 음식인지 등을 결정할 수 있다.
일 실시예에 의하면, 전자 장치(1000)는, 피사체의 수를 결정할 수도 있다. 예를 들어, 전자 장치(1000)는, 피사체가 사람인 경우, 프리뷰 이미지에 포함된 사람이 1명인지 그룹인지 결정할 수 있다. 또한, 전자 장치(1000)는 피사체가 그룹인 경우, 그룹에 포함된 사람이 몇 명인지 결정할 수 있다.
일 실시예에 의하면, 전자 장치(1000)는 피사체들 각각이 차지하는 공간 비율에 관한 정보 또는 포커스 정보를 이용하여 주요 피사체를 결정할 수도 있다. 예를 들어, 프리뷰 이미지에 들판과 사람과 나무가 포함되어 있는 경우, 전자 장치(1000)는 프리뷰 이미지 상에서 나무와 사람이 차지하는 공간 비율에 따라 사람을 주요 피사체로 결정할 수도 있고, 나무를 주요 피사체로 결정할 수도 있다. 또한, 전자 장치(1000)는 프리뷰 이미지에 포함된 수 많은 사람들 중에서 포커스된 한 명을 주요 피사체로 결정할 수도 있다.
일 실시예에 의하면, 전자 장치(1000)는 사용자의 입력에 따라 주요 피사체를 결정할 수도 있다. 예를 들어, 전자 장치(1000)는 사용자가 관심 대상으로 선택한 객체를 주요 피사체로 결정할 수도 있다.
일 실시예에 의하면, 전자 장치(1000)는 서버를 통해 프리뷰 이미지에 포함된 피사체를 식별할 수도 있다. 예를 들어, 전자 장치(1000)를 프리뷰 이미지에 관한 정보(예컨대, 프리뷰 이미지 또는 프리뷰 이미지에서 추출된 특징 정보)를 서버로 전송하면서 프리뷰 이미지에 포함된 피사체에 대한 식별을 서버에 요청할 수도 있다. 이때, 서버는 학습 네트워크 모델을 이용하여 프리뷰 이미지에 관한 정보를 분석함으로써, 프리뷰 이미지에 포함된 피사체를 식별할 수 있다. 그리고 서버는 피사체의 식별 정보(예컨대, 피사체의 종류, 피사체의 수, 주요 피사체)를 전자 장치(1000)로 전송할 수 있다.
단계 S220에서, 전자 장치(1000)는, 식별된 피사체의 주변 환경 정보를 획득할 수 있다.
일 실시예에 의하면, 피사체의 주변 환경 정보는, 빛과 관련된 정보, 장소와 관련된 정보, 시간과 관련된 정보, 날씨와 관련된 정보 중 적어도 하나를 포함할 수 있다.
일 실시예에 의하면, 전자 장치(1000)는, 피사체 주변의 빛과 관련된 정보를 피사체의 주변 환경 정보로 획득할 수 있다. 예를 들어, 피사체 주변의 빛과 관련된 정보는, 빛의 종류(자연광, 직사광, 확산광, 인공광, 정면광, 측면광, 역광 등), 빛의 산란, 빛의 방향, 빛의 세기, 태양의 위치, 조도, 보조광(스트로보)(예컨대, 카메라 내장 스트로보, 외장 스트로보, 링 스트로보, 반사판의 이용), 위치 정보(GPS 좌표 값, 지역, 국가), 실내(예컨대, 일반 가정, 사무실, 연회장, 공연장, 전시회)인지 실외(예컨대, 숲 속, 바닷가, 바다 속, 불꽃놀이)인지 여부, 시간(예컨대, 한 낮, 해뜰 무렵과 해질 무렵, 역광, 해지고 난 직후, 심야 등), 날씨(예컨대, 비 오는 날, 눈 오는 날, 겨울의 설경(눈 그친 뒤)), 계절 등을 포함할 수 있으나, 이에 한정되는 것은 아니다.
일 실시예에 의하면, 전자 장치(1000)는 전자 장치(1000)의 현재 위치와 태양의 현재 위치를 이용하여, 피사체 주변의 빛과 관련된 정보를 획득할 수 있다. 예를 들어, 전자 장치(1000)는 위치 센서(예컨대, GPS)를 이용하여 현재 위치를 인식할 수 있고, 현재 시간 정보를 이용하여 태양의 위치(예컨대, 방향, 고도 등)를 인식할 수 있다. 이때, 태양의 위치는, 태양의 절대적 위치일 수도 있으나, 전자 장치(1000)로부터의 상대적 위치 또는 피사체로부터의 상대적 위치일 수도 있다. 예를 들어, 전자 장치(1000)는, 피사체로부터 북동쪽 방향으로 낮은 고도에 태양이 위치하고 있음을 분석할 수 있다.
일 실시예에 의하면, 전자 장치(1000)는 프리뷰 이미지를 분석하여, 피사체의 주변 환경 정보(예컨대, 식별된 피사체 주변의 빛과 관련된 정보)를 획득할 수 있다. 이때, 일 실시예에 의하면, 전자 장치(1000)는 AI 시스템의 학습 네트워크 모델(예컨대, 인공 지능 모델)을 이용하여 프리뷰 이미지로부터 피사체의 주변 환경 정보를 획득할 수 있다. 예를 들어, 전자 장치(1000)는 프리뷰 이미지에 포함된 명암, 그림자, 태양 등을 분석하여, 낮인지 밤인지 결정하거나, 빛의 방향이나 빛의 세기, 태양의 위치를 결정할 수 있다. 또한, 전자 장치(1000)는 프리뷰 이미지에 포함된 피사체를 분석하여 계절이 봄인지 여름인지 가을인지 겨울인지 결정하거나, 실내인지 실외인지 결정할 수 있다. 예컨대, 전자 장치(1000)는 피사체가 반팔을 입고 있는 경우 계절을 여름으로 결정할 수 있고, 눈 위에 피사체가 서 있는 경우 계절을 겨울로 결정할 수 있다.
일 실시예에 의하면, 전자 장치(1000)는, 프리뷰 이미지를 분석하여, 프리뷰 이미지 내 객체에서 발광되는 빛과 관련된 정보를 획득할 수도 있다. 예를 들어, 전자 장치(1000)는, 프리뷰 이미지에 야경이 포함된 경우, 프리뷰 이미지에 포함된 조명 장치(예컨대, 가로등, 자동차 라이트)에서 발광되는 빛, 행성(예컨대, 달, 별, 금성, 은하수 등)에서 발광되는 빛, 또는 모닥불에서 발광되는 빛, 또는 폭죽에서 발광되는 빛을 인식할 수 있으나, 이에 한정되는 것은 아니다. 전자 장치(1000)는, 프리뷰 이미지 내 객체에서 발광되는 빛의 색감, 세기, 조도 등의 정보를 획득할 수 있다.
일 실시예에 의하면, 전자 장치(1000)는 적어도 하나의 센서를 이용하여 피사체의 주변 환경 정보(예컨대, 식별된 피사체 주변의 빛과 관련된 정보)를 획득할 수 있다. 예를 들어, 전자 장치(1000)는 위치 센서를 이용하여 피사체의 현재 위치, 피사체가 실내에 있는지 실외에 있는지 등의 정보를 획득할 수 있다.
일 실시예에 의하면, 전자 장치(1000)는, 조도 센서를 이용하여, 피사체 주변의 조도 값을 획득할 수 있다. 또한, 전자 장치(1000)는, 조도 센서를 이용하여, 피사체 주변이 현재 낮인지 밤인지 등을 결정할 수도 있다.
일 실시예에 의하면, 전자 장치(1000)는 온도 센서를 이용하여 피사체 주변의 온도 정보를 획득할 수도 있고, 습도 센서를 이용하여 피사체 주변의 습도 정보를 획득할 수도 있다.
일 실시예에 의하면, 전자 장치(1000)는 복수의 이미지 센서(또는 복수의 카메라)를 이용하여 주변 환경 정보를 획득할 수도 있다. 예를 들어, 전자 장치(1000)는, 프리뷰 이미지를 획득하는 제 1 카메라와 상이한 제 2 카메라를 이용하여, 프리뷰 이미지보다 큰 화각의 제 1 이미지(예컨대, 최대 화각 이미지)를 획득할 수 있다. 그리고 전자 장치(1000)는 획득된 제 1 이미지(예컨대, 최대 화각 이미지)를 분석하여, 피사체의 주변 환경 정보(예컨대, 피사체 주변의 빛과 관련된 정보)를 획득할 수 있다. 프리뷰 이미지에 비해 최대 화각 이미지가 더 많은 주변 정보를 포함하고 있으므로, 프리뷰 이미지를 분석한 정보보다 최대 화각의 이미지를 분석한 정보가 더 정확할 수 있다. 전자 장치(1000)가 듀얼 카메라를 이용하여 주변 환경 정보를 획득하는 동작에 대해서는 도 9를 참조하여 후에 자세히 살펴보기로 한다.
단계 S230에서, 전자 장치(1000)는, 식별된 피사체의 정보 및 피사체의 주변 환경 정보를 이용하여, 추천 촬영 구도를 결정할 수 있다. 여기서, 식별된 피사체의 정보는, 피사체의 종류, 피사체의 수, 주요 피사체, 피사체의 포즈 및 피사체의 색상 중 적어도 하나를 포함할 수 있으나, 이에 한정되는 것은 아니다.
일 실시예에 의하면, 추천 촬영 구도는 전자 장치(1000)가 전자 장치(1000)의 사용자에게 추천하는 촬영 구도, 촬영 영역, 촬영 각도 등을 의미할 수 있으나, 이에 한정되는 것은 아니다.
촬영 구도는 프레임 안의 피사체(또는 배경)의 배치 형태를 의미할 수 있다. 예를 들어, 도 4를 참조하면, 촬영 구도는, 황금분할구도/3분할 구도(401), 대각선 구도(402), 마름모꼴 구도(403), 바둑판 배열 구도(404), 수평 상하 대칭 구도(405), 수직구도(406), 수평 1/3 구도(407), 수평 수직 구도(408), 역삼각형 구도(409), 와선형 구도(410), 원형구도(411), 전광형 구도(412), U자형 구도(413), 중앙구도(414), C자형 구도(415), S자형 구도(416), 부채꼴 구도(417), 사선구도(418), 사선 평행 구도(419), 삼각형 구도(420), 수평선 구도(421), 십자형 구도(422), 아치형 구도(423), 양대각선 구도(424), 방사형 구도(425), 좌우대칭구도(426)을 포함할 수 있으나, 이에 한정되는 것은 아니다.
일 실시예에 의하면, 전자 장치(1000)는, 인공 지능 모델을 이용하여 추천 촬영 구도를 결정할 수 있다. 예를 들어, 전자 장치(1000)는 전문가의 사진을 기초로 학습된 학습 네트워크 모델(예컨대, 인공 지능 모델)을 이용하여 추천 촬영 구도를 결정할 수 있다. 전문가의 사진을 기초로 학습된 학습 네트워크 모델(예컨대, 인공 지능 모델)에 대해서는 도 3을 참조하여 후에 자세히 살펴보기로 한다.
일 실시예에 의하면, 전자 장치(1000)는 식별된 피사체의 종류, 피사체의 수에 따라 추천 촬영 구도를 결정할 수 있다. 예를 들어, 피사체가 음식이고, 여러 개의 접시들이 배치된 경우, 전자 장치(1000)는 여러 개의 음식들이 배열된 이미지에 맞는 제 1 촬영 구도를 추천 촬영 구도로 결정하고, 피사체가 사람이고 혼자인 경우, 제 2 촬영 구도를 추천 촬영 구도로 결정할 수 있다.
일 실시예에 의하면, 전자 장치(1000)는, 식별된 피사체의 정보 및 피사체 주변의 빛과 관련된 정보를 이용하여, 추천 촬영 구도를 결정할 수 있다.
예를 들어, 전자 장치(1000)는, 피사체인 음식들이 실외에 배치된 경우에는 빛의 방향을 고려하여 제 3 촬영 구도를 추천 촬영 구도로 결정하고, 피사체인 음식들이 실내에 배치된 경우에는 제 4 촬영 구도를 추천 촬영 구도로 결정할 수 있다.
일 실시예에 의하면, 전자 장치(1000)는, 태양의 위치를 고려하여, 태양이 역광이 되지 않는 구도를 추천 촬영 구도로 결정할 수도 있다. 또는, 전자 장치(1000)는, 태양이 역광인 경우, 역광에서 피사체가 가장 멋있게 나타나는 구도를 추천 촬영 구도로 결정할 수 있다.
또한, 전자 장치(1000)는, 피사체에서 발광되는 빛 또는 피사체 주변 객체에서 발광되는 빛과 관련된 정보를 이용하여, 장노출 사진을 위한 추천 촬영 구도를 결정할 수 있다. 예를 들어, 전자 장치(1000)는 가로등 불빛의 방향, 세기, 색감을 고려하여, 피사체가 오른쪽에 위치하는 S 형 구도를 장노출 사진을 위한 추천 촬영 구도로 결정할 수 있다. 또는, 전자 장치(1000)는, 달 또는 별의 위치, 밝기를 고려하여, 프리뷰 이미지 상에 땅이 1/3이 나타나고, 하늘이 2/3가 나타나는 구도를 장노출 사진을 위한 추천 촬영 구도로 결정할 수 있다.
한편, 일 실시예에 의하면, 피사체 주변의 빛과 관련된 정보를 확인한 결과, 밤이고 실외인 경우, 장노출을 이용하여 좋은 사진을 얻을 수 있으므로, 전자 장치(1000)는 장노출 사진을 위한 촬영 설정 값을 추천할 수 있다. 전자 장치(1000)가 촬영 설정 값을 추천하는 방법에 대해서는 도 7을 참조하여 후에 자세히 살펴보기로 한다.
일 실시예에 의하면, 전자 장치(1000)는 전문가의 사진을 이용하여 추천 촬영 구도를 결정할 수 있다. 예를 들어, 전자 장치(1000)는, 피사체가 XX 건축물이고, 태양이 XXX 건축물의 왼쪽 위에 위치하는 경우, XX 건축물을 촬영한 여러 장의 전문가 사진들 중에서 태양이 XXX 건축물의 왼쪽 위에 있을 때 촬영한 사진들에 기초하여, 제 5 촬영 구도를 추천 촬영 구도를 결정할 수 있다. 또는, 전자 장치(1000)는, 피사체가 OOO 산이고, 주변 환경 정보를 분석한 결과 OOO 산 주변에 안개가 낀 경우, OOO 산을 촬영한 여러 장의 전문가 사진들 중에서 안개가 낀 새벽에 촬영한 사진들에 기초하여, 제 6 촬영 구도를 추천 촬영 구도로 결정할 수 있다. 일 실시예에 의하면 전자 장치(1000)는 피사체가 OO 바닷가이고, 주변 환경 정보를 분석한 결과 석양이 질 무렵인 경우, OO 바닷가의 석양을 잘 표현한 전문가의 촬영 구도를 추천 촬영 구도로 결정할 수도 있다.
일 실시예에 의하면, 전자 장치(1000)는, 식별된 피사체가 높은 건축물이고, 최대 화각 이미지에 기초하여 분석한 결과 주변에 특징적인 객체가 존재하지 않는 경우, 세로 모드를 추천 촬영 구도로 결정할 수 있다. 또한, 전자 장치(1000)는, 피사체가 여러 명의 사람이고, 최대 화각 이미지에 기초하여 분석한 결과 실외의 넓게 펼쳐진 잔디 위에 사람들이 서 있는 경우, 가로 모드를 추천 촬영 구도 결정할 수도 있다.
일 실시예에 의하면, 주요 피사체가 사람이고, 프리뷰 이미지를 분석한 결과, 배경에 나무나 기둥과 같이 삐죽 튀어나와 있는 피사체가 있는 경우, 전자 장치(1000)는 나무나 기둥이 사람과 중첩되지 않는 구도를 추천 촬영 구도로 결정할 수 있다. 또한, 주요 피사체가 사람이고 프리뷰 이미지를 분석한 결과 바닷가가 배경인 경우, 전자 장치(1000)는 바다의 수평선이 사람의 눈이나 목을 지나지 않는 구도를 추천 촬영 구도로 결정할 수 있다.
일 실시예에 의하면, 전자 장치(1000)는 주요 피사체가 사람인 경우, 사람의 시선을 고려하여 추천 촬영 구도를 결정할 수도 있다. 예를 들어, 전자 장치(1000)는, 피사체인 사람의 시선이 오른쪽을 향하고 있으면, 오른쪽에 여백이 생기는 구도를, 피사체인 사람의 시선이 왼쪽을 향하고 있으면 왼쪽에 여백이 생기는 구도를 추천 촬영 구도로 결정할 수 있다.
일 실시예에 의하면, 전자 장치(1000)는, 야외에서 사람을 촬영하는 경우, 배경과 조화로운 인물 사진을 찍을 수 있는 구도를 추천 촬영 구도로 결정할 수 있다. 예를 들어, 전자 장치(1000)는 3분할 구도를 추천 촬영 구도로 결정할 수 있다. 3분할 구도는 프레임 안에 가상의 선을 가로로 2줄, 세로로 2줄 그어 프레임을 가로/세로로 3분할하고, 분할선이 만나는 가상의 점 위에 피사체를 놓고는 구도를 의미한다. 3분할 구도로 촬영하면 안정적인 사진이 획득될 수 있다.
한편, 일 실시예에 의하면, 전자 장치(1000)는 촬영 영역, 촬영 각도를 고려하여 추천 촬영 구도를 결정할 수도 있다. 예를 들어, 전자 장치(1000)는 프리뷰 이미지에 사람의 목 위만 포함되어 있는 경우, 주변 환경 정보를 고려하여 사람의 가슴 위가 프리뷰 이미지에 포함될 수 있는 구도를 추천 촬영 구도로 결정할 수 있다. 이때, 추천 촬영 구도는 줌 배율을 현재 배율보다 낮추거나(줌 아웃) 카메라의 각도를 내리는 정보를 포함할 수 있다.
일 실시예에 의하면, 전자 장치(1000)는 프리뷰 이미지에 관한 정보 또는 피사체의 주변 환경 정보를 서버로 전송하면서 촬영 구도의 추천을 요청할 수 있다. 이 경우, 서버는 프리뷰 이미지에 관한 정보 또는 피사체의 주변 환경 정보를 이용하여 추천 촬영 구도를 결정하고, 결정된 추천 촬영 구도에 관한 정보를 전자 장치(1000)로 전송할 수도 있다. 전자 장치(1000)가 서버와 연동하여 추천 촬영 구도를 결정하는 동작에 대해서는 도 16을 참조하여 후에 자세히 살펴보기로 한다.
단계 S240에서, 전자 장치(1000)는, 결정된 추천 촬영 구도에 관한 정보를 제공할 수 있다.
일 실시예에 의하면, 전자 장치(1000)는, 프리뷰 이미지로부터 현재 촬영 구도를 결정할 수 있다. 예를 들어, 전자 장치(1000)는, 피사체의 모양과 위치에 따라 현재 촬영 구도를 결정할 수 있다. 또는, 전자 장치(1000)는 프리뷰 이미지 상에서 선들을 검출하고, 검출된 선들을 이용하여 현재 촬영 구도를 결정할 수도 있다.
일 실시예에 의하면, 전자 장치(1000)는, 추천 촬영 구도와 현재 촬영 구도를 비교할 수 있다. 전자 장치(1000)는, 비교한 결과, 추천 촬영 구도와 현재 촬영 구도의 유사도가 임계 값(예컨대, 97%) 미만인 경우, 추천 촬영 구도에 관한 정보를 제공할 수 있다. 일 실시예에 의하면, 전자 장치(1000)는, 추천 촬영 구도와 현재 촬영 구도의 유사도가 임계 값(예컨대, 97%) 이상인 경우, 추천 촬영 구도에 관한 정보를 제공하지 않을 수 있다.
일 실시예에 의하면, 전자 장치(1000)는, 추천 촬영 구도를 가이드 하는 정보를 출력함으로써, 추천 촬영 구도에 관한 정보를 제공할 수 있다. 이때, 전자 장치(1000)는 비디오 신호, 오디오 신호, 진동 신호 중 적어도 하나를 이용하여 추천 촬영 구도를 가이드 하는 정보를 출력할 수 있으나, 이에 한정되는 것은 아니다. 예를 들어, 전자 장치(1000)는, 추천 촬영 구도를 가이드 하는 텍스트 또는 아이콘을 프리뷰 이미지 상에 표시할 수 있다. 전자 장치(1000)는 추천 촬영 구도를 가이드 하는 음성(예컨대, 카메라를 오른쪽 아래로 살짝 이동하십시오 등)을 출력할 수도 있다.
일 실시예에 의하면, 전자 장치(1000)는, 피사체의 정보 및 피사체의 주변 환경 정보를 이용하여, 복수의 추천 촬영 구도를 결정할 수 있다. 이때, 전자 장치(1000)는 복수의 추천 촬영 구도 각각에 대응하는 섬네일 이미지를 제공할 수도 있다. 또한, 전자 장치(1000)는 복수의 추천 촬영 구도 각각에 대응하는 프리뷰 이미지를 제공할 수도 있다. 전자 장치(1000)가 복수의 추천 촬영 구도에 관한 정보를 제공하는 동작에 대해서는 도 18을 참조하여 후에 자세히 살펴보기로 한다.
도 3은 일 실시예에 따른 딥러닝을 통해 추천 모델을 생성하는 동작을 설명하기 위한 도면이다.
도 3을 참조하면, 일 실시예에 의하면, 전자 장치(1000) 또는 서버에 포함된 AI 프로세서는 인공신경망을 학습시켜, 촬영 구도를 추천하거나 촬영 설정 값을 도출하는 추천 모델(300)을 생성할 수 있다. 인공신경망을 ‘학습’시킨다는 것은 데이터를 바탕으로 가중치를 적절히 바꿔주면서 인공신경망을 구성하는 뉴런들의 연결이 최적의 의사결정을 할 수 있는 수학적 모델을 만드는 것을 의미할 수 있다.
일 실시예에 의하면, AI 프로세서는, 사진 이미지(301), 사진 메타데이터(302), 주변 환경 정보(303)를 획득하고, 사진 이미지(301), 사진 메타데이터(302), 주변 환경 정보(303)를 이용하여 추천 모델(300)을 생성할 수 있다.
일 실시예에 의하면, AI 프로세서에서 획득하는 사진 이미지(301)는 전문가들이 촬영한 수많은 사진 이미지들일 수 있으며, 피사체 및 촬영 구도에 관한 정보를 포함할 수 있다. 일 실시예에 의하면, 사진 이미지(301)는 정지 영상일 수도 있고, 동영상에 포함된 복수의 프레임일 수도 있다.
일 실시예에 의하면, 사진 메타데이터(302)는 카메라 제조사(Maker), 카메라 모델(Model), 렌즈 종류, 이미지 에디터(Software), 사진을 보정한 날짜(Date time), Exif 버전(Exif Version), 촬영한 날짜(Shoot Datetime), 사진의 실제 크기(Image Size), 노출 시간(Exposure Time: 셔터 스피드), 촬영 프로그램(Exposure Program), 렌즈 초점 길이(Focal Length), 조리개 개방 수치(F-Number), 플래시 사용 여부, 화이트밸런스(white balance) 등을 포함할 수 있으나, 이에 한정되는 것은 아니다. 일 실시예에 의하면, 사진 메타데이터(302)는 교환이미지 파일형식(exchangeable image file format: Exif)일 수 있다.
일 실시예에 의하면, 주변 환경 정보(303)는, 사진 이미지(301)에 포함된 피사체 주변의 환경과 관련된 정보를 의미할 수 있다. 예를 들어, 주변 환경 정보(303)는, 빛의 종류(자연광, 직사광, 확산광, 인공광, 정면광, 측면광, 역광 등), 빛의 산란, 빛의 방향, 빛의 세기, 태양의 위치, 조도, 보조광(스트로보)(예컨대, 카메라 내장 스트로보, 외장 스트로보, 링 스트로보, 반사판의 이용), 위치 정보(GPS 좌표 값, 지역, 국가), 실내(예컨대, 일반 가정, 사무실, 연회장, 공연장, 전시회)인지 실외(예컨대, 숲 속, 바닷가, 바다 속, 불꽃놀이)인지 여부, 시간(예컨대, 한 낮, 해 뜰 무렵과 해질 무렵, 역광, 해지고 난 직후, 심야 등), 날씨(예컨대, 비 오는 날, 눈 오는 날, 겨울의 설경(눈 그친 뒤)), 계절 등을 포함할 수 있으나, 이에 한정되는 것은 아니다.
일 실시예에 의하면, AI 프로세서는 전문가들의 사진 이미지로부터 촬영 구도와 피사체를 식별하고, 식별된 피사체 및 촬영 구도를 해당 메타데이터(촬영 설정 값), 해당 주변 환경 정보와 매칭함으로써, 추천 촬영 구도 또는 추천 촬영 설정 값을 모델링할 수 있다. 일 실시예에 의하면, AI 프로세서에서 수집하는 전문가들의 사진 이미지와 해당 메타데이터, 해당 주변 환경 정보가 늘어남에 따라, 최적의 촬영 구도 및 최적의 촬영 설정 값을 도출하는 추천 모델(300)은 업데이트될 수 있다.
일 실시예에 의하면, AI 프로세서는, 개인화 학습 데이터(304)를 획득할 수도 있다. 개인화 학습 데이터(304)는 개인의 사진 취향에 관한 데이터일 수 있다. 예를 들어, 개인화 학습 데이터(304)는 개인이 선호하는 촬영 구도(또는 촬영 설정 값)에 관한 데이터, 개인이 선택하지 않지 촬영 구도(또는 촬영 설정 값)에 관한 데이터, 개인에 의해 삭제되는 사진들의 촬영 구도(또는 촬영 설정 값)에 관한 데이터, 추천 촬영 구도(또는 촬영 설정 값)를 적용하는지에 관한 데이터, 개인이 최종적으로 촬영한 사진에 관한 데이터 등을 포함할 수 있으나, 이에 한정되는 것은 아니다.
일 실시예에 의하면, AI 프로세서는, 사진 이미지(301), 사진 메타데이터(302) 및 주변 환경 정보(303) 이외에 개인화 학습 데이터(304)를 이용하여, 개인 별로 추천 모델(300)을 생성할 수 있다. 예를 들어, AI 프로세서는, 개인화 학습 데이터(304)를 이용하여, 동일 피사체에 대한 동일한 주변 환경에서, 제 1 사용자에게는 제 1 촬영 구도를 추천하고, 제 2 사용자에게는 제 2 촬영 구도를 추천할 수 있다.
이하에서는 도 5 및 도 6을 참조하여, 전자 장치(1000)가 프리뷰 이미지로부터 현재 촬영 구도를 검출하고, 추천 모델(300)을 이용하여 추천 촬영 구도에 관한 정보를 제공하는 실시예에 대해서 살펴보기로 한다.
도 5는 일 실시예에 따른 현재 촬영 구도를 검출하는 동작을 설명하기 위한 도면이다.
도 5를 참조하면, 전자 장치(1000)는 피사체의 모양과 위치에 따라 현재 촬영 구도(설명의 편의상 '현재 구도'로 표현될 수 있음)를 결정할 수 있다. 예를 들어, 전자 장치(1000)는 프리뷰 이미지 상에서 피사체와 관련하여 포인트들 또는 선들을 검출할 수 있다. 전자 장치(1000)는, 검출된 포인트들 또는 선들을 이용하여 현재 촬영 구도를 결정할 수 있다.
도 5의 510을 참조하면, 사용자가 전자 장치(1000)를 이용하여 타지마할 주변을 촬영하려고 하는 경우, 프리뷰 이미지 상에 타지마할과 주변 환경이 포함될 수 있다. 이때, 전자 장치(1000)는 프리뷰 이미지 상에서, 타지마할의 오른쪽에 위치한 기둥을 잇는 선(1), 타지마할의 왼쪽에 위치하는 기둥을 잇는 선(2), 타지마할의 꼭지점과 양 옆의 기둥들을 잇는 선(3), 지평선(4) 등을 검출할 수 있다. 전자 장치(1000)는, 프리뷰 이미지 상에서 타지마할을 주요 피사체로 결정하고, 타지마할의 꼭지점과 양 옆의 기둥들을 잇는 선(3)에 기초하여, 현재 촬영 구도를 삼각형 구도(420)로 결정할 수 있다.
도 5의 520을 참조하면, 현재 촬영 구도를 삼각형 구도(420)로 결정한 경우, 전자 장치(1000)는 타지마할의 꼭지점과 양 옆의 기둥들을 연결한 삼각형을 반으로 나누는 가상의 중심선(500)을 결정할 수 있다. 그리고 전자 장치(1000)는 가상의 중심선(500)이 프리뷰 이미지 상의 중심에 올 수 있는 구도를 추천 촬영 구도(설명의 편의상 '추천 구도'로 표현될 수 있음)로 결정할 수 있다. 도 6을 참조하여, 추천 촬영 구도에 대해서 좀 더 자세히 살펴보기로 한다.
도 6은 일 실시예에 따른 추천 촬영 구도를 설명하기 위한 도면이다.
도 6의 600-1을 참조하면, 전자 장치(1000)는 타지마할을 포함하는 프리뷰 이미지(600) 상에서 현재 촬영 구도를 검출할 수 있다. 전자 장치(1000)는, 프리뷰 이미지(600)에 포함된 피사체를 식별하고, 식별된 피사체에 기초하여 현재 촬영 구도를 결정할 수 있다.
일 실시예에 의하면, 전자 장치(1000)는 여러 장의 사진들에 기초하여 학습된 추천 모델(300)을 이용하여 추천 촬영 구도를 결정할 수 있다. 전자 장치(1000)는 피사체의 정보(예컨대, 타지마할) 및 주변 환경 정보(예컨대, 태양의 고도, 계절, 날씨, 실외에 위치 등)를 고려하여 추천 촬영 구도를 결정할 수 있다. 예를 들어, 전자 장치(1000)는, 피사체가 타지마할이므로, 전체적인 구도를 삼각형 구도로 결정하고, 태양의 위치를 고려하여, 현재 촬영 구도의 중심축(601)이 프리뷰 이미지(600)의 중심축(602)으로 이동하는 구도를 추천 촬영 구도로 결정할 수 있다.
일 실시예에 의하면, 전자 장치(1000)는 프리뷰 이미지(600) 위에 현재 촬영 구도를 나타내는 선(610)과 추천 촬영 구도를 나타내는 선(620)을 표시함으로써, 추천 촬영 구도를 가이드하는 정보를 제공할 수 있다. 사용자는 현재 촬영 구도와 추천 촬영 구도를 비교한 후, 추천 촬영 구도의 사진이 촬영될 수 있도록 카메라를 왼쪽으로 천천히 이동시킬 수 있다. 이 경우, 프리뷰 이미지(600)상에서 현재 구도를 나타내는 선(610)은 추천 촬영 구도를 나타내는 선(620)으로 접근할 수 있다.
도 6의 600-2를 참조하면, 사용자가 천천히 카메라를 왼쪽으로 이동시키다가 현재 촬영 구도를 나타내는 선(610)과 추천 촬영 구도를 나타내는 선(620)이 중첩되는 경우, 사용자는 사진 촬영 버튼을 선택할 수 있다. 이 경우, 전자 장치(1000)는, 사진 촬영 버튼을 선택하는 사용자 입력에 응답하여, 추천 촬영 구도에 따른 타지마할의 사진 이미지를 획득할 수 있다.
일 실시예에 의하면, 전자 장치(1000)는, 현재 촬영 구도를 나타내는 선(610)과 추천 촬영 구도를 나타내는 선(620)이 중첩되는 경우, 자동으로 사진 촬영을 진행할 수도 있다.
도 6에서는 전자 장치(1000)가 추천 촬영 구도를 가이드하기 위해, 현재 촬영 구도와 추천 촬영 구도를 나타내는 선을 표시하는 경우를 예로 들어 설명하였으나, 이에 한정되는 것은 아니다. 예를 들어, 현재 촬영 구도와 추천 촬영 구도를 나타내는 인디케이터는 선 이외에도 다양한 도형 형태로 표현될 수 있다. 또한, 전자 장치(1000)는 음성 신호로 추천 촬영 구도를 가이드할 수도 있다.
도 7은 일 실시예에 따른 촬영 설정 값을 추천하거나 자동 적용하는 방법을 설명하기 위한 순서도이다.
단계 S710에서, 전자 장치(1000)는, 프리뷰 이미지에 포함된 피사체를 식별할 수 있다. 예를 들어, 전자 장치(1000)는 프리뷰 이미지를 분석하여 프리뷰 이미지에 포함된 피사체를 식별할 수 있다. 이때, 일 실시예에 의하면, 전자 장치(1000)는 인공지능(AI) 시스템의 학습 네트워크 모델을 이용하여 프리뷰 이미지에 포함된 피사체를 식별할 수 있다. 단계 S710은 도 2의 단계 S210에 대응되므로, 구체적인 설명을 생략하기로 한다.
단계 S720에서, 전자 장치(1000)는, 피사체의 주변 환경 정보를 획득할 수 있다.
일 실시예에 의하면, 전자 장치(1000)는 프리뷰 이미지를 분석하여, 피사체의 주변 환경 정보를 획득할 수 있다. 이때, 일 실시예에 의하면, 전자 장치(1000)는 AI 시스템의 학습 네트워크 모델을 이용하여 프리뷰 이미지로부터 피사체의 주변 환경 정보를 획득할 수 있다.
일 실시예에 의하면, 전자 장치(1000)는 적어도 하나의 센서를 이용하여 피사체의 주변 환경 정보를 획득할 수 있다. 예를 들어, 전자 장치(1000)는 위치 센서를 이용하여 피사체의 현재 위치, 피사체가 실내에 있는지 실외에 있는지 등의 정보를 획득할 수 있다. 전자 장치(1000)는, 조도 센서를 이용하여, 피사체 주변의 조도 값을 획득할 수 있다. 또한, 전자 장치(1000)는, 조도 센서를 이용하여, 피사체 주변이 현재 낮인지 밤인지 등을 결정할 수도 있다. 전자 장치(1000)는 온도 센서를 이용하여 피사체 주변의 온도 정보를 획득할 수도 있고, 습도 센서를 이용하여 피사체 주변의 습도 정보를 획득할 수도 있다. 전자 장치(1000)는 복수의 이미지 센서(또는 복수의 카메라)를 이용하여 주변 환경 정보를 획득할 수도 있다.
단계 S720은 도 2의 단계 S220에 대응되므로, 구체적인 설명을 생략하기로 한다.
단계 S730에서, 전자 장치(1000)는, 피사체의 정보 및 피사체의 주변 환경 정보에 기초하여, 촬영 설정 값을 추천하거나 자동 적용할 수 있다. 일 실시예에 의하면, 촬영 설정 값은, 조리개 값, 셔터 속도 값, ISO 감도 값, 화이트 밸런스 값, 노출 값 등을 포함할 수 있으나, 이에 한정되는 것은 아니다.
도 8을 참조하면, 조리개(810)는 빛이 렌즈를 통과하는 구멍의 크기를 의미한다. 조리개(810)는 조일수록(오른쪽) 심도가 깊어져서 근경부터 원경까지 초첨이 맞는 사진이 나오고, 개방할수록(왼쪽) 심도가 얕아져서 일명 아웃포커싱이라 부르는, 피사체와 배경이 분리되는 사진이 나온다. 셔터 속도(820)는 빠를수록(왼쪽) 빨리 움직이는 대상을 정지시키는 사진이 나오고, 느릴수록(오른쪽) 블러 처리된 사진이 나온다. ISO 감도(830)는 낮을수록(왼쪽) 노이즈가 적은 사진이 나온다. ISO 감도(830)는 높을수록 (오른쪽) 노이즈가 많아지며, 어두운 환경에서도 흔들림 없는 사진을 찍을 수 있게 해준다.
ISO 감도(830)는 낮을수록(왼쪽) 명암대비가 크게 표현된다.  반대로 ISO 감도(830)는   높을수록 명암대비차를 포용하여 부드러운 사진을 만든다.  그리고 낮은 ISO 감도(830)의 필름입자는 가늘어서 선명한 사진을 만들고, 높은 ISO 감도(830)의 필름입자는 굵어서 거친 사진이 나온다.
일 실시예에 의하면, 전자 장치(1000)는, 피사체의 정보 및 피사체의 주변 환경 정보에 기초하여 추천 촬영 설정 값을 결정할 수 있다. 예를 들어, 전자 장치(1000)는, 한 낮에 태양이 밝게 빛나고 있는 실외에서 피사체를 촬영하는 경우, 셔터 속도 값을 1/4000초로 결정하고, 실내에서 피사체를 촬영하는 경우, 셔터 속도 값을 1/60초로 하고, 어두운 밤에 별을 찍을 때는 셔터 속도를 10초 이상으로 결정할 수 있다. 한편, 일 실시예에 의하면, 전자 장치(1000)는, 실내에서 피사체를 촬영하는 경우, 피사체의 색상에 따라, 촬영 설정 값을 결정할 수도 있다. 예를 들어, 피사체가 검정 기기인 경우, 전자 장치(1000)는, 조리개 값을 4.0으로 결정하고, 셔터 속도 값은 1/30 초로 결정할 수 있다. 반면, 피사체가 흰색 기기인 경우, 전자 장치(1000)는, 조리개 값은 검정 기기와 동일하게 4.0으로 결정하되, 셔터 속도 값은 1/100 초로 결정할 수도 있다.
일 실시예에 의하면, 전자 장치(1000)는, 피사체의 정보 및 피사체의 주변 환경 정보에 기초하여 복수의 촬영 설정 값 세트를 추천할 수도 있다. 예를 들어, 전자 장치(1000)는 제 1 촬영 설정 값 세트(예컨대, ISO: 12800, 조리개: 1.4, 셔터 속도: 1), 제 2 촬영 설정 값 세트(예컨대, ISO: 6400, 조리개: 2.8, 셔터 속도: 1/2), 제 3 촬영 설정 값 세트(예컨대, ISO: 3200, 조리개: 5.6, 셔터 속도: 1/4), 제 4 촬영 설정 값 세트(예컨대, ISO: 1600, 조리개: 8, 셔터 속도: 1/8), 제 5 촬영 설정 값 세트(예컨대, ISO: 400, 조리개: 16, 셔터 속도: 1/60) 등을 추천할 수 있다.
일 실시예에 의하면, 전자 장치(1000)는, 복수의 촬영 설정 값 세트 중에서 하나를 선택하는 사용자 입력을 수신할 수 있다. 전자 장치(1000)는 사용자에 의해 선택된 촬영 설정 값 세트를 촬영 시스템에 적용할 수 있다.
일 실시예에 의하면, 전자 장치(1000)는, 조리개(810), 셔터 속도(820), ISO 감도(830) 각각의 값은 다르지만, 조합에 의해 광량이 같아지는 복수의 촬영 설정 값 세트를 추천할 수 있다. 예를 들어, 전자 장치(1000)는 피사체의 정보 및 피사체의 주변 환경 정보에 따라, 제 6 촬영 설정 값 세트(예컨대, ISO: 200, 조리개: 2.8, 셔터 속도: 1/2)와 제 7 촬영 설정 값 세트(예컨대, ISO: 400, 조리개: 8, 셔터 속도: 1)를 추천할 수 있다. 제 6 촬영 설정 값 세트와 제 7 촬영 설정 값 세트는 이론적으로 광량이 같다. 다만, 조리개(810), 셔터 속도(820), ISO 감도(830) 각각의 값이 상이하므로, 제 6 촬영 설정 값 세트는 제 7 촬영 설정 값 세트에 비해 움직임이 있는 피사체를 잘 포착할 것이며, 심도가 얕을 것이다. 반면, 제 7 촬영 설정 값 세트는 제 6 촬영 설정 값 세트보다 노이즈가 더 발생하고, 심도가 깊을 것이며, 셔터 속도가 느려서 손으로 찍는다면 흔들림의 영향이 클 수 있다. 사용자는 제 6 촬영 설정 값 세트와 제 7 촬영 설정 값 세트를 비교하고, 원하는 사진의 종류에 따라서 제 6 촬영 설정 값 세트와 제 7 촬영 설정 값 세트 중 하나를 선택할 수 있다.
일 실시예에 의하면, 전자 장치(1000)는, 카메라 위치 이동 등으로 촬영 구도가 선택되면, 여러 가지 촬영 조건을 적용하여 다수의 사진을 촬영 후 제공할 수도 있다. 예를 들어, 전자 장치(1000)는, 제 1 촬영 설정 값 세트(예컨대, ISO: 12800, 조리개: 1.4, 셔터 속도: 1), 제 2 촬영 설정 값 세트(예컨대, ISO: 6400, 조리개: 2.8, 셔터 속도: 1/2), 제 3 촬영 설정 값 세트(예컨대, ISO: 3200, 조리개: 5.6, 셔터 속도: 1/4), 제 4 촬영 설정 값 세트(예컨대, ISO: 1600, 조리개: 8, 셔터 속도: 1/8), 제 5 촬영 설정 값 세트(예컨대, ISO: 400, 조리개: 16, 셔터 속도: 1/60)를 각각 적용하여 다수의 사진을 촬영하고, 촬영된 다수의 사진을 사용자에게 제공할 수 있다.
사용자는 촬영된 다수의 사진 중에서 적어도 하나를 선택하여 저장하거나 삭제할 수 있다. 이 경우, 전자 장치(1000)의 AI 프로세서(또는 서버의 AI 프로세서)는 저장된 사진에 대응하는 촬영 설정 값 정보 또는 삭제된 사진에 대응하는 촬영 설정 값 정보를 학습하여, 추천 모델(300)을 업데이트할 수 있다.
도 9는 일 실시예에 따른 프리뷰 이미지보다 큰 화각의 이미지를 이용하여, 추천 촬영 구도에 관한 정보를 제공하는 방법을 설명하기 위한 순서도이다.
단계 S910에서, 전자 장치(1000)는, 제 1 카메라를 이용하여 프리뷰 이미지를 획득하고, 제 2 카메라를 이용하여 프리뷰 이미지보다 큰 화각의 이미지를 획득할 수 있다.
일 실시예에 의하면, 전자 장치(1000)는 듀얼 카메라를 포함할 수 있다. 예를 들어, 도 10의 1010을 참조하면, 제 1 카메라(1001)는 일반 카메라이고, 제 2 카메라(1002)는 망원 카메라일 수 있다. 이 경우, 전자 장치(1000)는 일반 카메라의 표준 렌즈를 이용하여 프리뷰 이미지를 획득하고, 망원 카메라의 망원 렌즈를 줌 아웃하여 프리뷰 이미지보다 큰 화각의 이미지를 획득할 수 있다.
표준 렌즈는 카메라의 화각이 사람이 보는 시야각과 비슷하게 나오는 것을 말하는데, 35mm 필름 카메라를 기준으로, 통상 초점거리가 50mm인 렌즈를 표준 렌즈라고 한다. 표준 렌즈의 화각은 일반적으로 사람의 시야각과 동일하므로, 표준렌즈를 이용하면, 자연스러운 사진이 촬영될 수 있다.
망원 렌즈는 표준 렌즈보다 초점거리가 긴 렌즈를 의미할 수 있다. 망원 렌즈는 표준 렌즈보다 초점 거리가 길므로, 표준 렌즈에 비해 화각은 작을 수 있다. 따라서, 전자 장치(1000)는 망원 렌즈를 줌 아웃하여, 표준 렌즈로 획득되는 프리뷰 이미지보다 큰 화각의 이미지를 획득할 수 있다.
도 10의 1020을 참조하면, 제 1 카메라(1001)는 일반 카메라이고, 제 2 카메라(1002)는 광각 카메라일 수 있다. 이 경우, 전자 장치(1000)는 일반 카메라의 표준 렌즈를 이용하여 프리뷰 이미지를 획득하고, 광각 카메라의 광각 렌즈를 이용하여 프리뷰 이미지보다 큰 화각의 이미지를 획득할 수 있다. 광각 렌즈는 표준 렌즈보다 초점거리가 짧은 렌즈를 의미할 수 있다. 광각 렌즈는 표준 렌즈보다 초점 거리가 짧으므로, 표준 렌즈에 비해 화각은 클 수 있다. 따라서, 전자 장치(1000)는 광각 렌즈를 이용하여 표준 렌즈로 획득되는 프리뷰 이미지보다 큰 화각의 이미지를 획득할 수 있다.
도 10의 1030을 참조하면, 제 1 카메라(1001)와 제 2 카메라(1002) 모두 일반 카메라일 수 있다. 이 경우, 전자 장치(1000)는 제 1 카메라(1001)의 표준 렌즈를 이용하여 프리뷰 이미지를 획득하고, 제 1 카메라(1001)와 제 2 카메라(1002) 각각에서 획득되는 이미지들을 병합(stitch)하여, 프리뷰 이미지보다 화각이 큰 파노라마 이미지를 획득할 수 있다.
일 실시예에 의하면, 프리뷰 이미지보다 큰 화각의 이미지는, 전자 장치(1000)에서 획득할 수 있는 최대 화각의 이미지(이하, 최대 화각 이미지)일 수 있다. 이하에서는, 설명의 편의상, 프리뷰 이미지보다 큰 화각의 이미지가 최대 화각 이미지인 경우를 예로 들어 설명하기로 한다.
단계 S920에서, 전자 장치(1000)는, 프리뷰 이미지보다 큰 화각의 이미지를 이용하여, 피사체의 주변 환경 정보를 획득할 수 있다.
일 실시예에 의하면, 전자 장치(1000)는, 최대 화각 이미지를 분석하여, 피사체의 주변 환경 정보를 획득할 수 있다. 이때, 일 실시예에 의하면, 전자 장치(1000)는 AI 시스템의 학습 네트워크 모델을 이용하여 최대 화각 이미지로부터 피사체의 주변 환경 정보를 획득할 수 있다.
예를 들어, 전자 장치(1000)는 최대 화각 이미지에 포함된 명암, 그림자, 태양 등을 분석하여, 낮인지 밤인지 결정하거나, 빛이 방향이나 빛의 세기, 태양의 위치를 결정할 수 있다. 또한, 전자 장치(1000)는 최대 화각 이미지에 포함된 피사체를 분석하여 계절이 봄인지 여름인지 가을인지 겨울인지 결정하거나, 실내인지 실외인지 결정할 수 있다. 예컨대, 전자 장치(1000)는 피사체가 반팔을 입고 있는 경우 계절을 여름으로 결정할 수 있고, 눈(snow) 위에 피사체가 서 있는 경우 계절을 겨울로 결정할 수 있다. 전자 장치(1000)는 최대 화각 이미지를 분석하여, 전체적인 색온도를 결정할 수도 있다.
단계 S930에서, 전자 장치(1000)는, 피사체의 정보 및 피사체의 주변 환경 정보를 이용하여, 추천 촬영 구도에 관한 정보를 제공할 수 있다.
일 실시예에 의하면, 전자 장치(1000)는 프리뷰 이미지를 이용하여 현재 촬영 구도를 결정할 수 있다. 그리고 전자 장치(1000)는, 피사체의 정보 및 피사체의 주변 환경 정보에 기초하여, 추천 촬영 구도를 결정할 수 있다. 이때, 현재 촬영 구도와 추천 촬영 구도의 유사도가 임계값 미만인 경우, 전자 장치(1000)는, 추천 촬영 구도에 관한 정보를 제공할 수 있다.
일 실시예에 의하면, 전자 장치(1000)는, 추천 촬영 구도를 가이드하는 정보를 출력함으로써, 추천 촬영 구도에 관한 정보를 제공할 수 있다. 이때, 전자 장치(1000)는 비디오 신호, 오디오 신호, 진동 신호 중 적어도 하나를 이용하여 추천 촬영 구도를 가이드 하는 정보를 출력할 수 있으나, 이에 한정되는 것은 아니다. 예를 들어, 전자 장치(1000)는, 추천 촬영 구도를 가이드하는 음성을 출력할 수 있다. 또한, 전자 장치(1000)는, 프리뷰 이미지보다 큰 화각의 이미지(예컨대, 최대 화각의 이미지) 상에 추천 촬영 구도를 가이드하는 그래픽 인디케이터를 표시할 수 있다.
단계 S930는 도 2의 단계 S230 및 S240에 대응하므로, 구체적은 설명은 생략하기로 한다. 이하에서는, 전자 장치(1000)가 최대 화각의 이미지를 이용하여 추천 촬영 구도를 가이드하는 정보를 제공하는 동작에 대해서 도 11 내지 도 13을 참조하여 자세히 살펴보기로 한다.
도 11은 일 실시예에 따른 최대 화각 이미지를 이용하여 촬영을 가이드하는 동작을 설명하기 위한 도면이다.
도 11을 참조하면, 전자 장치(1000)는 표준 렌즈를 이용하여 프리뷰 이미지를 획득할 수 있다. 이때, 프리뷰 이미지에 나타나는 현재 촬영 영역(1101)은 타지마할의 오른쪽 영역일 수 있다.
전자 장치(1000)는 광각 렌즈, 망원 렌즈, 또는 두 개의 표준 렌즈를 이용하여 최대 화각 이미지(1102)를 획득할 수 있다. 최대 화각 이미지(1102)는 현재 촬영 영역(1101) 주변의 이미지를 포함할 수 있다.
전자 장치(1000)는 최대 화각 이미지(1102)를 분석하여, 추천 촬영 구도를 결정할 수 있다. 예를 들어, 전자 장치(1000)는, 피사체의 정보(예컨대, 타지마할) 및 주변 환경 정보(한낮, 실외 등)에 기초하여, 추천 촬영 구도를 삼각형 구도로 결정하고, 추천 촬영 영역(1103)을 타지마할이 중앙에 오는 영역으로 결정할 수 있다. 이때, 일 실시예에 의하면, 추천 모델(300)에 프리뷰 이미지(현재 촬영 영역(1101)에 관한 정보) 및 최대 화각 이미지가 입력되고, 추천 모델(300)로부터 최적의 촬영 구도(추천 촬영 영역(1103)에 관한 정보)가 출력될 수 있다.
전자 장치(1000)는 촬영을 가이드하는 정보(1104)를 출력할 수 있다. 예를 들어, 전자 장치(1000)는 현재 촬영 영역(1101) 대신에 추천 촬영 영역(1103)에 대응하는 사진이 획득되도록 음성 메시지(예컨대, 왼쪽으로 이동, 줌 아웃)를 출력할 수 있다.
한편, 전자 장치(1000)는 촬영을 가이드하는 정보(1104)를 음성 메시지 대신에 그래픽적으로 표시할 수도 있다. 전자 장치(1000)가 는 촬영을 가이드하는 정보(1104)를 그래픽적으로 표시하는 동작에 대해서 도 12 및 도 15를 참조하여 살펴보기로 한다.
도 12 및 13은 일 실시예에 따른 최대 화각 이미지 상에 추천 촬영 구도를 가이드하는 정보를 표시하는 동작을 설명하기 위한 도면이다.
도 12의 1200-1을 참조하면, 전자 장치(1000)는 제 1 카메라를 통해 현재 촬영되는 영역(이하, 현재 촬영 영역)에 대한 프리뷰 이미지(1210)를 표시할 수 있다. 또한, 전자 장치(1000)는 제 2 카메라를 통해 획득되는 최대 화각 이미지를 분석하여, 추천 촬영 영역을 결정할 수 있다.
도 12의 1200-2를 참조하면, 전자 장치(1000)는 최대 화각 이미지를 이용하여, 추천 촬영 영역에 대한 정보를 제공할 수 있다. 예를 들어, 전자 장치(1000)는 화면에 최대 화각 이미지(1202)를 표시할 수 있다. 그리고 전자 장치(1000)는 최대 화각 이미지(1202) 위에 현재 촬영 영역을 나타내는 제 1 인디케이터(1201) 및 추천 촬영 영역을 나타내는 제 2 인디케이터(1203)를 표시할 수 있다. 일 실시예에 의하면, 현재 촬영 영역에 대한 프리뷰 이미지(1210)를 섬네일 이미지(1204)로 표시할 수 있다.
도 13의 1300-1을 참조하면, 사용자는 전자 장치(1000)의 화면을 보면서, 현재 촬영 영역을 나타내는 제 1 인디케이터(1201)가 추천 촬영 영역을 나타내는 제 2 인디케이터(1203)에 접근할 수 있도록 전자 장치(1000)를 이동시키고, 줌 배율을 조절할 수 있다. 전자 장치(1000)가 이동되고, 줌 배율이 조절됨에 따라, 최대 화각 이미지(1202) 상에서 현재 촬영 영역을 나타내는 제 1 인디케이터(1201)의 위치는 변할 수 있다. 또한, 현재 촬영 영역이 변경됨에 따라, 섬네일 이미지(1204)도 변경될 수 있다.
도 13의 1300-2를 참조하면, 현재 촬영 영역을 나타내는 제 1 인디케이터(1201)가 추천 촬영 영역을 나타내는 제 2 인디케이터(1203)와 동일해지는 경우, 전자 장치(1000)는, 최대 화각 이미지(1202)를 더 이상 표시하지 않고, 추천 촬영 영역과 동일한 현재 촬영 영역에 대한 프리뷰 이미지(1301)를 전체 화면에 표시할 수 있다. 사용자는 프리뷰 이미지(1301)를 확인하고, 촬영 버튼을 선택할 수 있다. 이 경우, 전자 장치(1000)는 추천 촬영 영역에 대한 사진을 획득할 수 있다.
다른 실시예에 의하면, 현재 촬영 영역을 나타내는 제 1 인디케이터(1201)가 추천 촬영 영역을 나타내는 제 2 인디케이터(1203)와 동일해지는 경우, 전자 장치(1000)는 자동으로 사진 촬영을 할 수도 있다.
한편, 도 12 및 도 13에서는 전자 장치(1000)가 최대 화각 이미지(1202) 상에 추천 촬영 구도를 가이드하는 정보를 표시하였으나, 이에 한정되는 것은 아니다. 전자 장치(1000)는 다양한 방식으로 추천 촬영 구도를 가이드하는 정보를 표시할 수 있다. 전자 장치(1000)가 추천 촬영 구도를 가이드하는 정보를 표시하는 동작에 대해서 도 14 내지 도 15를 참조하여 좀 더 살펴보기로 한다.
도 14 및 15는 일 실시예에 따른 전자 장치가 추천 촬영 구도에 관한 정보를 표시하는 동작을 설명하기 위한 도면이다.
도 14를 참조하면, 전자 장치(1000)는, 프리뷰 이미지(1401) 및 프리뷰 이미지(1401)에 포함된 피사체 주변의 주변 환경 정보(1402)를 획득할 수 있다. 이 경우, 전자 장치(1000)는 추천 모델(300)을 이용하여, 추천 촬영 구도를 결정할 수 있다. 예를 들어, 전자 장치(1000)는, 피사체가 연인이고, 촬영 장소가 실외이고, 촬영 시간이 한낮인 경우, 연인의 중심(1410)이 3분할 구도 상의 왼쪽 아래 교차점(1420)에 위치하는 구도를 추천 촬영 구도로 결정할 수 있다.
이때, 전자 장치(1000)는 추천 촬영 구도를 가이드하는 그래픽 인디케이터(1403)를 프리뷰 이미지(1401) 상에 표시할 수 있다. 예를 들어, 전자 장치(1000)는 촬영하는 사용자에게 오른쪽으로 이동하라는 텍스트와 함께 오른쪽 방향의 화살표를 프리뷰 이미지(1401) 상에 표시할 수 있다.
도 15를 참조하면, 전자 장치(1000)는, 피사체가 사람인 경우, 촬영하는 사용자에게 이동하라는 가이드를 제공할 수도 있고, 피사체를 이동시키라는 가이드를 제공할 수도 있다. 전자 장치(1000)가 연인의 중심(1520)이 3분할 구도 상의 왼쪽 아래 제 1 교차점(1521)에 위치하는 구도를 추천 촬영 구도로 결정한 경우를 예로 들어 설명하기로 한다.
도 15의 1500-1을 참조하면, 전자 장치(1000)는, 연인의 중심(1520)이 제 1 교차점(1521)에 위치하도록, 촬영하는 사용자에게 전자 장치(1000)와 함께 오른쪽으로 이동하라는 가이드를 카메라 아이콘들(1501)을 이용하여 제공할 수 있다. 예를 들어, 전자 장치(1000)는, 현재 촬영 구도에 대응하는 하얀색 카메라 아이콘을 표시하고, 추천 촬영 구도에 대응하는 검은색 카메라 아이콘을 표시한 후, 하얀색 카메라 아이콘과 검은색 카메라 아이콘 사이에 화살표를 표시할 수 있다.
도 15의 1500-2를 참조하면, 전자 장치(1000)는, 연인의 중심(1520)이 제 1 교차점(1521)에 위치하도록, 피사체를 왼쪽으로 이동시키라는 가이드를 사람 아이콘들(1502)을 이용하여 제공할 수 있다. 예를 들어, 전자 장치(1000)는, 현재 촬영 구도에 대응하는 하얀색 사람 아이콘을 표시하고, 추천 촬영 구도에 대응하는 검은색 사람 아이콘을 표시한 후, 하얀색 사람 아이콘과 검은색 사람 아이콘 사이에 화살표를 표시할 수 있다.
도 16은 일 실시예에 따른 전자 장치가 서버와 연동하여, 추천 촬영 구도에 관한 정보를 제공하는 방법을 설명하기 위한 순서도이다.
단계 S1610에서, 전자 장치(1000)는, 인공 지능 비서 애플리케이션을 실행할 수 있다. 인공 지능 비서 애플리케이션은 사용자의 음성, 터치, 카메라 등의 입력 방식을 모두 이해하고, 다양한 서비스를 제공할 수 있다. 예를 들어, 인공 지능 비서 애플리케이션(예컨대, 삼성의 빅스비)은 카메라에 들어온 사물, 이미지, 텍스트, 바코드 등을 인식하고, 추천 촬영 구도에 관한 정보를 제공할 수 있다.
도 17을 참조하면, 전자 장치(1000)는, 다양한 사용자 입력에 응답하여, 인공 지능 비서 애플리케이션을 실행할 수 있다. 예를 들어, 도 17의 1700-1을 참조하면, 전자 장치(1000)는, 프리뷰 이미지(1710) 상에 인공 지능 비서 애플리케이션을 실행하기 위한 이미지(1701)를 표시할 수 있다. 사용자가 이미지(1701)를 선택(예컨대, 터치)하는 경우, 전자 장치(1000)는 인공 지능 비서 애플리케이션을 실행할 수 있다.
도 17의 1700-2를 참조하면, 전자 장치(1000)는 사용자의 음성 입력(예컨대, 빅스비! 사진 찍어줘)(1702)을 수신할 수 있다. 이때, 전자 장치(1000)는, 사용자의 음성 입력(1702)에 따라, 인공 지능 비서 애플리케이션을 실행할 수 있다.
도 17의 1700-3을 참조하면, 전자 장치(1000)는 인공 지능 비서 애플리케이션의 실행을 요청하는 특정 하드웨어 버튼(1703)을 선택하는 입력을 수신할 수 있다. 전자 장치(1000)는, 특정 하드웨어 버튼(1703)을 선택하는 입력이 수신되는 경우, 인공 지능 비서 애플리케이션을 실행할 수 있다.
다시 도 6으로 돌아오면, 단계 S1620에서, 전자 장치(1000)은, 인공 지능 비서 애플리케이션을 통해, 프리뷰 이미지에 관한 정보 및 피사체의 주변 환경 정보를 획득할 수 있다.
일 실시예에 의하면, 프리뷰 이미지에 관한 정보는, 프리뷰 이미지 자체일 수도 있고, 프리뷰 이미지로부터 획득되는 특징 정보일 수도 있다. 일 실시예에 의하면, 인공 지능 비서 애플리케이션은 학습 네트워크 모델을 이용하여 프리뷰 이미지로부터 특징 정보를 추출할 수 있다. 예를 들어, 프리뷰 이미지로부터 획득된 특징 정보는, 프리뷰 이미지의 현재 촬영 구도, 피사체의 종류, 피사체의 위치 등을 포함할 수 있으나, 이에 한정되는 것은 아니다.
일 실시예에 의하면, 인공 지능 비서 애플리케이션은 프리뷰 이미지를 분석하여, 피사체의 주변 환경 정보를 획득할 수 있다. 이때, 일 실시예에 의하면, 인공 지능 비서 애플리케이션은 학습 네트워크 모델을 이용하여 프리뷰 이미지로부터 피사체의 주변 환경 정보를 획득할 수 있다.
일 실시예에 의하면, 인공 지능 비서 애플리케이션은 적어도 하나의 센서를 이용하여 피사체의 주변 환경 정보를 획득할 수도 있다. 예를 들어, 인공 지능 비서 애플리케이션은, 위치 센서를 이용하여 피사체의 현재 위치, 피사체가 실내에 있는지 실외에 있는지 등의 정보를 획득할 수 있다. 인공 지능 비서 애플리케이션은, 조도 센서를 이용하여, 피사체 주변의 조도 값을 획득할 수 있다. 또한, 인공 지능 비서 애플리케이션은, 조도 센서를 이용하여, 피사체 주변이 현재 낮인지 밤인지 등을 결정할 수도 있다. 인공 지능 비서 애플리케이션은 온도 센서를 이용하여 피사체 주변의 온도 정보를 획득할 수도 있고, 습도 센서를 이용하여 피사체 주변의 습도 정보를 획득할 수도 있다. 인공 지능 비서 애플리케이션은 복수의 이미지 센서(또는 복수의 카메라)를 이용하여 주변 환경 정보를 획득할 수도 있다.
단계 S1630에서, 전자 장치(1000)는, 프리뷰 이미지에 관한 정보 및 피사체의 주변 환경 정보를 서버(2000)로 전송할 수 있다. 예를 들어, 인공 지능 비서 애플리케이션은 유무선 통신을 통해, 서버(2000)로 프리뷰 이미지에 관한 정보 및 피사체의 주변 환경 정보를 전송할 수 있다.
단계 S1640에서, 서버(2000)는, 프리뷰 이미지에 관한 정보 및 피사체의 주변 환경 정보에 기초하여 추천 촬영 구도를 결정할 수 있다. 일 실시예에 의하면, 서버(2000)는, 전문가의 사진을 기초로 학습된 학습 네트워크 모델(예컨대, 추천 모델(300)))을 이용하여 추천 촬영 구도를 결정할 수 있다.
일 실시예에 의하면, 서버(2000)는 피사체의 정보(예컨대, 식별된 피사체의 종류, 피사체의 수), 주변 환경 정보(예컨대, 촬영 장소가 실외인지 실내인지 여부, 빛의 방향, 빛의 세기, 색온도 등)에 따라 추천 촬영 구도를 결정할 수 있다. 예를 들어, 서버(2000)는 피사체의 정보 및 주변 환경 정보를 분석한 결과, 피사체가 사람이고, 여러 명이며, 해질 무렵이고 실외인 경우, 해질 무렵 야외에서 여러 명의 사람이 프레임 상에 선명하게 나타내는 구도를 추천 촬영 구도로 결정할 수 있다.
일 실시예에 의하면, 서버(2000)는, 식별된 피사체가 높은 건축물이고, 최대 화각 이미지에 기초하여 분석한 결과 주변에 특징적인 객체가 존재하지 않는 경우, 세로 모드를 추천 촬영 구도로 결정할 수 있다. 또한, 서버(2000)는, 피사체가 여러 명의 사람이고, 최대 화각 이미지에 기초하여 분석한 결과 실외의 넓게 펼쳐진 잔디 위에 사람들이 서 있는 경우, 가로 모드를 추천 촬영 구도 결정할 수도 있다.
일 실시예에 의하면, 서버(2000)는 촬영 영역, 촬영 각도를 고려하여 추천 촬영 구도를 결정할 수도 있다. 따라서, 서버(2000)는 추천 촬영 영역, 추천 촬영 각도를 결정할 수도 있다.
서버(2000)에서 피사체의 정보 및 주변 환경 정보에 기초하여 추천 촬영 구도를 결정하는 방식은 전자 장치(1000)가 피사체의 정보 및 주변 환경 정보에 기초하여 추천 촬영 구도를 결정하는 방식에 대응될 수 있으므로, 구체적인 설명은 생략하기로 한다.
단계 S1650에서, 서버(2000)는, 추천 촬영 구도에 관한 정보를 전자 장치(1000)로 전송할 수 있다. 예를 들어, 서버(2000)는, 추천 촬영 영역, 추천 촬영 각도, 추천 촬영 구도를 유무선 통신을 통해 전자 장치(1000)로 전송할 수 있다. 일 실시예에 의하면, 전자 장치(1000)는, 인공 지능 비서 애플리케이션을 통해 추천 촬영 구도에 관한 정보를 서버(2000)로부터 수신할 수 있다.
단계 S1660에서, 전자 장치(1000)는, 인공 지능 비서 애플리케이션을 통해, 추천 촬영 구도에 관한 정보를 제공할 수 있다.
일 실시예에 의하면, 전자 장치(1000)는 프리뷰 이미지를 이용하여 현재 촬영 구도를 결정할 수 있다. 이때, 현재 촬영 구도와 추천 촬영 구도의 유사도가 임계 값 미만인 경우, 전자 장치(1000)는, 추천 촬영 구도에 관한 정보를 제공할 수 있다.
일 실시예에 의하면, 전자 장치(1000)는, 추천 촬영 구도를 가이드하는 정보를 출력함으로써, 추천 촬영 구도에 관한 정보를 제공할 수 있다. 이때, 전자 장치(1000)는 비디오 신호, 오디오 신호, 진동 신호 중 적어도 하나를 이용하여 추천 촬영 구도를 가이드 하는 정보를 출력할 수 있으나, 이에 한정되는 것은 아니다. 예를 들어, 전자 장치(1000)는, 추천 촬영 구도를 가이드하는 음성을 출력할 수 있다. 또한, 전자 장치(1000)는, 프리뷰 이미지보다 큰 화각의 이미지(예컨대, 최대 화각 이미지) 상에 추천 촬영 구도를 가이드하는 그래픽 인디케이터를 표시할 수 있다.
도 16에서는 서버(2000)가 피사체의 정보 및 피사체의 주변 환경 정보에 기초하여, 추천 촬영 구도를 결정하는 경우를 예로 들어 설명하였으나, 이에 한정되는 것은 아니다. 일 실시예에 의하면, 서버(2000)는 피사체의 정보 및 피사체의 주변 환경 정보에 기초하여, 추천 촬영 설정 값을 결정하고, 전자 장치(1000)로 추천 촬영 설정 값에 대한 정보를 전송할 수도 있다.
한편, 도 16에서 일부 단계는 생략될 수도 있다. 예를 들어, 전자 장치(1000)는 서버(2000)에 피사체의 주변 환경 정보를 전송하지 않고, 프리뷰 이미지에 관한 정보만을 전송할 수 있다. 이 경우, 서버(2000)는 프리뷰 이미지에 관한 정보에 기초하여, 직접 피사체의 주변 환경 정보를 획득할 수도 있다.
도 18은 일 실시예에 따른 복수의 추천 촬영 구도에 관한 정보를 제공하는 방법을 설명하기 위한 순서도이다.
단계 S1810에서, 전자 장치(1000)는, 프리뷰 이미지에 포함된 피사체를 식별할 수 있다. 예를 들어, 전자 장치(1000)는 프리뷰 이미지를 분석하여 프리뷰 이미지에 포함된 피사체를 식별할 수 있다. 이때, 일 실시예에 의하면, 전자 장치(1000)는 인공지능(AI) 시스템의 학습 네트워크 모델(예컨대, 인공 지능 모델)을 이용하여 프리뷰 이미지에 포함된 피사체를 식별할 수 있다. 단계 S1810은 도 2의 단계 S210에 대응되므로, 구체적인 설명을 생략하기로 한다.
단계 S1820에서, 전자 장치(1000)는, 피사체의 주변 환경 정보를 획득할 수 있다. 예를 들어, 전자 장치(1000)는 피사체 주변의 빛과 관련된 정보를 주변 환경 정보로 획득할 수 있다.
일 실시예에 의하면, 전자 장치(1000)는 프리뷰 이미지를 분석하여, 피사체의 주변 환경 정보를 획득할 수 있다. 이때, 일 실시예에 의하면, 전자 장치(1000)는 AI 시스템의 학습 네트워크 모델을 이용하여 프리뷰 이미지로부터 피사체의 주변 환경 정보를 획득할 수 있다.
일 실시예에 의하면, 전자 장치(1000)는 적어도 하나의 센서를 이용하여 피사체의 주변 환경 정보를 획득할 수 있다. 예를 들어, 전자 장치(1000)는 위치 센서를 이용하여 피사체의 현재 위치, 피사체가 실내에 있는지 실외에 있는지 등의 정보를 획득할 수 있다. 전자 장치(1000)는, 조도 센서를 이용하여, 피사체 주변의 조도 값을 획득할 수 있다. 또한, 전자 장치(1000)는, 조도 센서를 이용하여, 피사체 주변이 현재 낮인지 밤인지 등을 결정할 수도 있다. 전자 장치(1000)는 온도 센서를 이용하여 피사체 주변의 온도 정보를 획득할 수도 있고, 습도 센서를 이용하여 피사체 주변의 습도 정보를 획득할 수도 있다. 전자 장치(1000)는 복수의 이미지 센서(또는 복수의 카메라)를 이용하여 주변 환경 정보를 획득할 수도 있다. 단계 S1820은 도 2의 단계 S220에 대응되므로, 구체적인 설명을 생략하기로 한다.
단계 S1830에서, 전자 장치(1000)는, 피사체의 정보 및 피사체의 주변 환경 정보를 이용하여, 복수의 추천 촬영 구도를 결정할 수 있다. 일 실시예에 의하면, 전자 장치(1000)는, 전문가의 사진을 기초로 학습된 학습 네트워크 모델(예컨대, 추천 모델(300))을 이용하여, 복수의 추천 촬영 구도를 결정할 수 있다.
일 실시예에 의하면, 서버(2000)는 피사체의 정보(예컨대, 식별된 피사체의 종류, 피사체의 수), 주변 환경 정보(예컨대, 촬영 장소가 실외인지 실내인지 여부, 빛의 방향, 빛의 세기, 색온도 등)에 따라 복수의 추천 촬영 구도를 결정할 수 있다.
단계 S1840에서, 전자 장치(1000)는, 복수의 추천 촬영 구도에 관한 정보를 제공할 수 있다.
일 실시예에 의하면, 전자 장치(1000)는, 복수의 추천 촬영 구도 각각을 가이드하는 정보를 출력함으로써, 복수의 추천 촬영 구도에 관한 정보를 제공할 수 있다. 이때, 전자 장치(1000)는 비디오 신호, 오디오 신호, 진동 신호 중 적어도 하나를 이용하여, 복수의 추천 촬영 구도를 가이드 하는 정보를 출력할 수 있으나, 이에 한정되는 것은 아니다. 예를 들어, 전자 장치(1000)는, 복수의 추천 촬영 구도를 가이드하는 음성을 출력할 수 있다. 또한, 전자 장치(1000)는, 프리뷰 이미지 상에 복수의 추천 촬영 구도를 가이드하는 복수의 그래픽 인디케이터를 표시할 수 있다. 전자 장치(1000)는, 프리뷰 이미지보다 큰 화각의 이미지(예컨대, 최대 화각의 이미지) 상에 복수의 추천 촬영 구도를 가이드하는 복수의 그래픽 인디케이터(예컨대, 박스 이미지)를 표시할 수 있다.
일 실시예에 의하면, 전자 장치(1000)는 복수의 추천 촬영 구도 각각에 대응하는 섬네일 이미지를 하나의 화면에 표시할 수 있다. 다른 실시예에 의하면, 전자 장치(1000)는 복수의 추천 촬영 구도 각각에 대응하는 프리뷰 이미지를 복수의 페이지에 나누어 표시할 수 있다.
단계 S1850에서, 전자 장치(1000)는, 복수의 추천 촬영 구도 중 하나를 선택하는 사용자 입력을 수신할 수 있다. 일 실시예에 의하면, 전자 장치(1000)는, 사용자에 의해 선택된 추천 촬영 구도에 대응하는 사진 이미지를 획득할 수 있다.
예를 들어, 전자 장치(1000)는, 현재 촬영 구도에 대응하는 제 1 인디케이터를 복수의 추천 촬영 구도 중 제 2 추천 촬영 구도에 대응하는 제 2 인디케이터와 일치시키는 입력을 수신할 수 있다. 이 경우, 전자 장치(1000)는, 사진 촬영을 시작하고, 제 2 추천 촬영 구도에 대응하는 사진 이미지를 획득할 수 있다.
일 실시예에 의하면, 전자 장치(1000)는, 사용자에 의해 선택된 추천 촬영 구도에 대응하는 사진 이미지를 획득할 수 있다. 이하에서는 도 19 내지 도 21을 참조하여 전자 장치(1000)가 복수의 추천 촬영 구도에 관한 정보를 제공하는 동작에 대해서 자세히 살펴보기로 한다.
도 19, 20 및 21은 일 실시예에 따른 전자 장치가 복수의 추천 촬영 구도에 관한 정보를 표시하는 동작을 설명하기 위한 도면이다.
도 19를 참조하면, 전자 장치(1000)는 복수의 추천 촬영 구도를 결정하고, 프리뷰 이미지 상에 복수의 추천 촬영 구도 각각을 가이드하는 그래픽 인디케이터들을 표시할 수 있다.
일 실시예에 의하면, 전자 장치(1000)는 제 1 카메라를 통해 획득되는 프리뷰 이미지를 화면에 표시할 수 있다. 이때, 프리뷰 이미지는, 피사체로서 연인을 포함할 수 있으며, 배경으로서 들판과 산을 포함할 수 있다.
전자 장치(1000)는 3분할 구도를 추천 촬영 구도로 결정할 수 있다. 특히, 전자 장치(1000)는, 피사체의 정보 및 주변 환경 정보를 고려하여, 가로/세로 분할선들이 만나는 가상의 점들 중에서 제 1 포인트(1901)에 피사체의 중심(1911)이 위치하는 구도를 제 1 추천 촬영 구도로 결정하고, 제 2 포인트(1902)에 피사체의 중심(1911)이 위치하는 구도를 제 2 추천 촬영 구도로 결정할 수 있다.
전자 장치(1000)는 프리뷰 이미지 상에 제 1 추천 촬영 구도를 가이드 하는 제 1 인디케이터(1910)와 제2 추천 촬영 구도를 가이드 하는 제 2 인디케이터(1920)를 표시할 수 있다. 예를 들어, 제 1 인디케이터(1910)는 촬영자가 왼쪽으로 이동하도록 가이드하는 아이콘(예컨대, 왼쪽 방향 화살표)을 포함할 수 있다. 제 2 인디케이터(1920)는 촬영자가 오른쪽으로 이동하도록 가이드하는 아이콘(예컨대, 오른쪽 방향 화살표)을 포함할 수 있다.
도 20을 참조하면, 전자 장치(1000)는 복수의 촬영 구도 각각에 대응하는 섬네일 이미지를 화면에 표시할 수 있다.
도 20의 2000-1을 참조하면, 전자 장치(1000)는, 제 1 카메라를 통해 획득되는 프리뷰 이미지(2010) 상에 추천 촬영 구도를 요청하는 아이콘(2001)을 표시할 수 있다. 그리고, 전자 장치(1000)는 추천 촬영 구도를 요청하는 아이콘(2001)을 선택하는 사용자 입력을 수신할 수 있다. 예를 들어, 사용자(촬영자)는 추천 촬영 구도에 관한 정보를 얻고 싶은 경우, 프리뷰 이미지(2010) 상에 표시되는 아이콘(2001)을 터치할 수 있다.
도 20의 2000-2를 참조하면, 전자 장치(1000)는, 아이콘(2001)을 터치하는 입력에 응답하여, 복수의 추천 촬영 구도를 결정할 수 있다. 이 경우, 전자 장치(1000)는 복수의 추천 촬영 구도에 대응하는 섬네일 이미지들을 표시할 수 있다.
예를 들어, 전자 장치(1000)는 3분할 구도를 추천 촬영 구도로 결정할 수 있다. 특히, 전자 장치(1000)는, 피사체의 정보 및 주변 환경 정보를 고려하여, 가로/세로 분할선들이 만나는 가상의 점들 중에서 제 1 포인트(1901)에 피사체의 중심이 위치하는 구도를 제 1 추천 촬영 구도로 결정하고, 제 2 포인트에 피사체의 중심이 위치하는 구도를 제 2 추천 촬영 구도로 결정하고, 제 3 포인트에 피사체의 중심이 위치하는 구도를 제 3 추천 촬영 구도로 결정할 수 있다.
이 경우, 전자 장치(1000)는 제 2 카메라를 통해 획득되는 최대 화각 이미지에서 각각의 추천 촬영 구도에 대응하는 섬네일 이미지를 획득할 수 있다. 예를 들어, 전자 장치(1000)는 최대 화각 이미지로부터 제 1 추천 촬영 구도에 대응하는 제 1 섬네일 이미지(2003), 제 2 추천 촬영 구도에 대응하는 제 2 섬네일 이미지(2004), 제 3 추천 촬영 구도에 대응하는 제 3 섬네일 이미지(2005)를 획득할 수 있다.
전자 장치(1000)는 프리뷰 이미지(2010)에 대응하는 섬네일 이미지(2002)와 함께, 제 1 추천 촬영 구도에 대응하는 제 1 섬네일 이미지(2003), 제 2 추천 촬영 구도에 대응하는 제 2 섬네일 이미지(2004), 제 3 추천 촬영 구도에 대응하는 제 3 섬네일 이미지(2005)를 화면에 표시할 수 있다. 이 경우, 사용자(촬영자)는, 현재 촬영 구도에 따른 사진 이미지, 복수의 추천 촬영 구도 각각에 따른 사진 이미지를 미리 확인할 수 있으므로, 원하는 형태의 촬영 구도를 쉽게 선택할 수 있다.
도 21을 참조하면, 전자 장치(1000)는, 복수의 추천 촬영 구도가 결정된 경우, 제 2 카메라를 통해 획득되는 최대 화각 이미지에서 각각의 추천 촬영 구도에 대응하는 프리뷰 이미지를 획득할 수 있다. 그리고 전자 장치(1000)는 복수의 추천 촬영 구도 각각에 대응하는 프리뷰 이미지를 각각의 페이지에 표시할 수 있다.
도 21의 2100-1을 참조하면, 전자 장치(1000)는 제 1 페이지(2110)에 제 1 추천 촬영 구도에 대응하는 제 1 프리뷰 이미지를 표시할 수 있다. 이때, 전자 장치(1000)는 제 1 추천 촬영 구도를 가이드하는 제 1 인디케이터(2101)를 표시할 수도 있다. 예를 들어, 제 1 인디케이터(2101)는 촬영자가 오른쪽 방향으로 이동하도록 가이드하는 화살표를 포함할 수 있다.
도 21의 2100-2를 참조하면, 전자 장치(1000)는 제 2 페이지(2120)에 제 2 추천 촬영 구도에 대응하는 제 2 프리뷰 이미지를 표시할 수 있다. 이때, 전자 장치(1000)는 제 2 추천 촬영 구도를 가이드하는 제 2 인디케이터(2102)를 표시할 수도 있다. 예를 들어, 제 2 인디케이터(2102)는 촬영자가 왼쪽 방향으로 이동하도록 가이드하는 화살표를 포함할 수 있다.
도 21의 2100-3을 참조하면, 전자 장치(1000)는 제 3 페이지(2130)에 제 3 추천 촬영 구도에 대응하는 제 3 프리뷰 이미지를 표시할 수 있다. 이때, 전자 장치(1000)는 제 3 추천 촬영 구도를 가이드하는 제 3 인디케이터(2103)를 표시할 수도 있다. 예를 들어, 제 3 인디케이터(2103)는 촬영자가 전자 장치(1000)를 아래 방향으로 내리고, 줌 아웃 하도록 가이드하는 이미지를 포함할 수 있다.
사용자(촬영자)는 복수의 추천 촬영 구도에 따른 프리뷰 이미지들을 미리 확인하고, 원하는 촬영 구도를 쉽게 결정할 수 있다. 또한, 사용자(촬영자)는 추천 촬영 구도를 가이드하는 인디케이터에 따라 원하는 촬영 구도의 사진을 쉽게 얻을 수 있다.
이하에서는 피사체가 사람인 경우, 전자 장치(1000)가 포즈를 추천하는 방법에 대해서 도 22 내지 도 26을 참조하여 자세히 살펴보기로 한다.
도 22는 일 실시예에 따른 추천 포즈에 관한 정보를 제공하는 방법을 설명하기 위한 순서도이다.
단계 S2210에서, 전자 장치(1000)는, 프리뷰 이미지에 포함된 피사체를 식별할 수 있다. 예를 들어, 전자 장치(1000)는 프리뷰 이미지를 분석하여 프리뷰 이미지에 포함된 피사체를 식별할 수 있다. 이때, 일 실시예에 의하면, 전자 장치(1000)는 인공지능(AI) 시스템의 학습 네트워크 모델을 이용하여 프리뷰 이미지에 포함된 피사체를 식별할 수 있다. 단계 S2210은 도 2의 단계 S210에 대응되므로, 구체적인 설명을 생략하기로 한다.
단계 S2220에서, 전자 장치(1000)는, 피사체의 주변 환경 정보를 획득할 수 있다.
일 실시예에 의하면, 전자 장치(1000)는 프리뷰 이미지를 분석하여, 피사체의 주변 환경 정보를 획득할 수 있다. 이때, 일 실시예에 의하면, 전자 장치(1000)는 AI 시스템의 학습 네트워크 모델을 이용하여 프리뷰 이미지로부터 피사체의 주변 환경 정보를 획득할 수 있다.
일 실시예에 의하면, 전자 장치(1000)는 적어도 하나의 센서를 이용하여 피사체의 주변 환경 정보를 획득할 수 있다. 예를 들어, 전자 장치(1000)는 위치 센서를 이용하여 피사체의 현재 위치, 피사체가 실내에 있는지 실외에 있는지 등의 정보를 획득할 수 있다. 전자 장치(1000)는, 조도 센서를 이용하여, 피사체 주변의 조도 값을 획득할 수 있다. 또한, 전자 장치(1000)는, 조도 센서를 이용하여, 피사체 주변이 현재 낮인지 밤인지 등을 결정할 수도 있다. 전자 장치(1000)는 온도 센서를 이용하여 피사체 주변의 온도 정보를 획득할 수도 있고, 습도 센서를 이용하여 피사체 주변의 습도 정보를 획득할 수도 있다. 전자 장치(1000)는 복수의 이미지 센서(또는 복수의 카메라)를 이용하여 주변 환경 정보를 획득할 수도 있다. 단계 S2220은 도 2의 단계 S220에 대응되므로, 구체적인 설명을 생략하기로 한다.
단계 S2230에서, 전자 장치(1000)는, 피사체의 정보 및 피사체의 주변 환경 정보를 이용하여, 추천 포즈를 결정할 수 있다.
일 실시예에 의하면, 전자 장치(1000)는, 학습 네트워크 모델을 이용하여, 추천 포즈를 결정할 수 있다. 학습 네트워크 모델은, 학습용 사람의 사진에 기초하여 사람의 포즈(인식), 배경, 주변 다른 사람 유무 등을 학습한 데이터를 이용하여 생성될 수 있다. 추천 포즈는, 피사체인 사람의 전체적인 포즈뿐 아니라 얼굴 표정이나 얼굴 각도 등을 포함할 수도 있다.
일 실시예에 의하면, 전자 장치(1000)는 제 1 카메라를 통해 사람의 얼굴이 인식되는 경우, 기 생성된 여러 장의 포즈 카드들 중에서 현재 피사체의 주변 환경에 어울리는 포즈 카드를 선택할 수 있다. 전자 장치(1000)는 선택된 포즈 카드에 포함된 포즈를 추천 포즈로 결정할 수 있다.
일 실시예에 의하면, 전자 장치(1000)는 사용자의 개인화 학습 데이터를 더 고려하여, 추천 포즈를 결정할 수도 있다. 예를 들어, 전자 장치(1000)가 이전에 제 1 사용자에게 앉는 포즈, 서 있는 포즈, 누워있는 포즈를 추천하였으나, 촬영된 사진에서는 제 1 사용자가 모두 앉아있는 포즈를 취한 경우, 전자 장치(1000)는 앉는 포즈를 중심으로 추천 포즈를 결정할 수 있다. 또한, 제 1 사용자가 누운 자세의 사진들을 모두 삭제하는 경우, 전자 장치(1000)는 추천 포즈를 결정할 때 누워있는 포즈는 선택하지 않을 수 있다.
일 실시예에 의하면, 전자 장치(1000)는, 피사체의 정보 및 피사체의 주변 환경 정보를 이용하여, 복수의 추천 포즈를 결정할 수도 있다. 예를 들어, 잔디밭 위에 복수의 피사체들이 서 있는 경우, 전자 장치(1000)는 피사체 정보로서 복수의 사람을 인식하고, 주변 환경 정보로서 야외, 잔디밭, 한낮 등을 인식할 수 있다. 이때, 전자 장치(1000)는, 기 생성된 여러장의 포즈 카드들 중에서 잔디밭에서 한낮에 복수의 사람들을 촬영한 사진과 관련된 제 1 포즈 카드, 제 2 포즈 카드, 제 3 포즈 카드를 선택할 수 있다.
단계 S2240에서, 전자 장치(1000)는, 현재 포즈와 추천 포즈를 비교하여, 현재 포즈와 추천 포즈의 유사도가 임계 값 미만인지 판단할 수 있다.
일 실시예에 의하면, 전자 장치(1000)는 프리뷰 이미지를 분석하여, 피사체인 사람의 현재 포즈를 결정할 수 있다. 일 실시예에 의하면, 전자 장치(1000)는 AI 시스템의 학습 네트워크 모델을 이용하여 피사체인 사람의 현재 포즈를 결정할 수 있다.
포즈는, 왼쪽으로 누운 포즈, 오른쪽으로 누운 포즈, 무릎을 펴고 앉아있는 포즈, 무릎을 구부리고 앉아있는 포즈, 허리를 숙인 포즈, 양손을 허리에 올린 포즈, 정면을 보고 서 있는 포즈, 측면을 보고 서 있는 포즈, 뒤돌아 서 있는 포즈, 점프하는 포즈 등을 포함할 수 있으나, 이에 한정되는 것은 아니다.
일 실시예에 의하면, 포즈는, 손가락의 형태(예컨대, V자, 하트, 주먹 쥔 형태, 엄지손가락만 편 형태 등), 얼굴 표정(예컨대, 무표정, 웃는 표정, 우는 표정, 찡그린 표정, 악세서리 착용 여부(안경 착용 여부, 선글라스 착용 여부, 모자 착용 여부) 등을 더 포함할 수 있으나, 이에 한정되는 것은 아니다.
일 실시예에 의하면, 전자 장치(1000)는 현재 포즈와 추천 포즈를 비교할 수 있다. 만일, 현재 포즈와 추천 포즈의 유사도가 임계 값(예컨대, 97%) 이상인 경우, 전자 장치(1000)는 추천 포즈에 관한 정보를 제공하지 않을 수 있다.
단계 S2250에서, 전자 장치(1000)는, 현재 포즈와 추천 포즈의 유사도가 임계 값 미만인 경우, 추천 포즈에 관한 정보를 제공할 수 있다.
일 실시예에 의하면, 전자 장치(1000)는, 추천 포즈를 가이드 하는 정보를 출력할 수 있다. 예를 들어, 전자 장치(1000)는 비디오 신호, 오디오 신호, 진동 신호 중 적어도 하나를 이용하여 추천 포즈를 가이드 하는 정보를 출력할 수 있으나, 이에 한정되는 것은 아니다.
일 실시예에 의하면, 전자 장치(1000)는 피사체 위에 추천 포즈를 가이드하는 선을 표시할 수 있다. 일 실시예에 의하면, 전자 장치(1000)는 프리뷰 이미지의 일부 영역(예컨대, 우측 상단 영역)에 추천 포즈를 가이드하는 그래픽 인디케이터(예컨대, 아이콘 등)를 표시할 수 있다.
일 실시예에 의하면, 전자 장치(1000)는 복수의 추천 포즈를 결정한 경우, 소정 영역에 복수의 추천 포즈 카드를 제공할 수도 있다.
이하에서는, 도 23 내지 도 26을 참조하여, 전자 장치(1000)가 추천 포즈에 관한 정보를 제공하는 동작에 대해서 좀 더 살펴보기로 한다.
도 23은 일 실시예에 따른 전자 장치가 추천 포즈에 관한 정보를 표시하는 동작을 설명하기 위한 도면이다.
도 23을 참조하면, 전자 장치(1000)는 제 1 카메라를 통해 획득되는 프리뷰 이미지를 분석하여, 주요 피사체(2301)가 사람 한 명이고, 주변 환경이 영화제(실내)에서 주요 피사체(2301)가 상을 받고 있는 상황임을 인식할 수 있다. 그리고 전자 장치(1000)는 주요 피사체(2301)인 사람이 굳은 표정으로 딱딱하게 서 있는 것(현재 포즈)을 인식할 수 있다. 이때, 전자 장치(1000) 실내의 시상식장에 어울리는 포즈를 추천 포즈로 결정할 수 있다. 전자 장치(1000)는 추천 포즈에 관한 정보를 화면에 표시할 수 있다.
예를 들어, 도 23의 2300-1을 참조하면, 전자 장치(1000)는 양손을 허리에 올리는 포즈를 추천 포즈로 결정할 수 있다. 전자 장치(1000)는 주요 피사체(2301)의 이미지와 중첩하여 추천 포즈를 가이드하는 선(2302)을 표시할 수 있다. 이때, 촬영자는 추천 포즈를 확인하고, 주요 피사체(2301)에게 포즈를 변경할 것을 요청할 수 있다.
도 23의 2300-2를 참조하면, 전자 장치(1000)는 주요 피사체(2301)의 이미지와 중첩되지 않게 특정 영역(2303)에 추천 포즈에 대응하는 아이콘을 표시할 수 있다. 이 경우, 촬영자는 특정 영역(2303)에 표시되는 추천 포즈를 확인할 수 있다.
도 24는 일 실시예에 따른 피사체의 수 및 피사체의 주변 환경 정보를 이용하여 추천 포즈에 관한 정보를 제공하는 동작을 설명하기 위한 도면이다.
도 24의 2400-1을 참조하면, 전자 장치(1000)는 프리뷰 이미지를 분석하여, 피사체가 3명이라는 정보를 획득할 수 있다. 또한, 전자 장치(1000)는 프리뷰 이미지를 분석하거나, 센서를 이용하여, 현재 피사체들이 낮에 실외에 위치하고 있음을 알 수 있다. 이 경우, 전자 장치(1000)는 추천 모델(300)을 이용하여, 3명의 피사체가 낮에 실외에 서 있는 경우에 취할 수 있는 포즈를 추천 포즈로 결정할 수 있다. 예를 들어, 전자 장치(1000)는, 3명의 피사체가 손을 올리고 환호하는 포즈를 추천 포즈로 결정할 수 있다. 전자 장치(1000)는 추천 포즈를 가이드 하기 위한 그래픽 인디케이터를 제공할 수 있다. 예를 들어, 전자 장치(1000)는 추천 포즈에 대응하는 아이콘 이미지(2401)를 프리뷰 이미지 상에 표시할 수 있다.
도 24의 2400-2를 참조하면, 전자 장치(1000)는 프리뷰 이미지를 분석하여, 피사체가 3명이라는 정보를 획득할 수 있다. 또한, 전자 장치(1000)는 프리뷰 이미지를 분석하거나, 센서를 이용하여, 현재 피사체들이 실내에 위치하고 있음을 알 수 있다. 이 경우, 전자 장치(1000)는, 추천 모델(300)을 이용하여, 3명의 피사체가 실내에 서 있는 경우에 취할 수 있는 포즈를 추천 포즈로 결정할 수 있다. 예를 들어, 전자 장치(1000)는, 3명의 피사체 중에서 가운데 있는 피사체가 앉아 있고, 양 옆에 두 명의 피사체가 서 있는 포즈를 추천 포즈로 결정할 수 있다. 전자 장치(1000)는 추천 포즈를 가이드 하기 위한 그래픽 인디케이터를 제공할 수 있다. 예를 들어, 전자 장치(1000)는 추천 포즈에 대응하는 아이콘 이미지(2402)를 프리뷰 이미지 상에 표시할 수 있다.
도 25는 일 실시예에 따른 복수의 추천 포즈에 관한 정보를 제공하는 동작을 설명하기 위한 도면이다.
도 25를 참조하면, 전자 장치(1000)는, 프리뷰 이미지를 분석하여, 피사체가 사람 한 명이고, 졸업식장이라는 정보를 획득할 수 있다. 이 경우, 전자 장치(1000)는 졸업식장에서 피사체가 취할 수 있는 포즈들 추천 포즈로 결정할 수 있다. 예를 들어, 전자 장치(1000)는, 학사모를 던지며 점프하는 포즈, 한 손은 허리에 올리고 다른 한 손은 번쩍 들어올린 포즈, 벽에 기댄 포즈 등 다양한 포즈들을 추천 포즈로 결정할 수 있다.
일 실시예에 의하면, 전자 장치(1000)는 복수의 추천 포즈들을 가이드하기 위한 정보를 특정 영역(2501)에 표시할 수 있다. 예를 들어, 전자 장치(1000)는 복수의 추천 포즈 각각에 대응하는 아이콘 이미지들을 특정 영역(2501)에 표시할 수 있다.
복수의 추천 포즈가 많은 경우, 전자 장치(1000)는 특정 영역(2501)에 복수의 포즈를 나타내는 아이콘들을 모두 표시하지 않을 수 있다. 이때, 전자 장치(1000)는 특정 영역(2501)에 화살표를 제공하여, 특정 영역(2501)에 표시되지 않은 다른 추천 포즈가 더 존재함을 나타낼 수 있다. 사용자는 화살표를 터치하거나, 특정 영역(2501) 안에서 손가락을 좌 또는 우로 드래그함으로써, 특정 영역(2501)에 나타내지 않은 또 다른 추천 포즈들을 확인할 수 있다. 예를 들어, 전자 장치(1000)가 특정 영역(2501)에 제 1 추천 포즈에 대응하는 제 1 아이콘(예컨대, 점프하는 포즈의 아이콘)을 표시하고 있는 상태에서 드래그 입력이 수신되는 경우, 제 1 추천 포즈에 대응하는 제 1 아이콘 대신에 제 2 추천 포즈에 대응하는 제 2 아이콘(예컨대, 양 손을 허리에 올리고 서 있는 포즈)을 특정 영역(2501)에 표시할 수 있다. 전자 장치(1000)가 복수의 추천 포즈에 관한 정보를 제공하는 방식은 도 25에 도시된 방식 이외에도 더 다양할 수 있다.
도 26은 일 실시예에 따른 최적의 얼굴 구도를 추천하는 동작을 설명하기 위한 도면이다. 도 26에서는 전자 장치(1000)의 사용자가 셀카 이미지를 촬영하는 경우를 예로 들어 설명하기로 한다.
도 26을 참조하면, 전자 장치(1000)는 사용자의 얼굴 이미지가 포함된 프리뷰 이미지를 획득할 수 있다. 그리고 전자 장치(1000)는 프리뷰 이미지를 분석하거나 센서들을 이용하여 주변 환경 정보(예컨대, 조명의 방향, 조명의 색감 등)을 획득할 수 있다. 이때, 전자 장치(1000)는 사용자의 얼굴 이미지에 관한 정보와 주변 환경 정보를 추천 모델(300)에 입력할 수 있다. 이 경우, 전자 장치(1000)는 추천 모델(300)로부터 최적의 얼굴 구도에 관한 정보를 획득할 수 있다.
추천 모델(300)은 개인화 학습 데이터를 이용하여 학습된 모델일 수 있다. 예를 들어, 추천 모델(300)은 사용자가 평소 SNS(Social Networking Service) 서버에 업로드하는 사진, 사용자가 촬영 후 메모리에서 삭제하는 사진 등에 기초하여 학습된 모델일 수 있다. 추천 모델(300)은 사용자가 얼굴의 왼쪽 면이 부각되는 사진은 지우고, 얼굴의 오른쪽 면이 부각되는 사진을 SNS 서버에 업로드한다는 정보를 가지고 있을 수 있다.
따라서, 프리뷰 이미지(2601)와 주변 환경 정보(2602)가 추천 모델(300)에 입력되는 경우, 추천 모델(300)은 개인화 학습 데이터를 이용하여, 추천 얼굴 각도를 결정할 수 있다. 예를 들어, 추천 모델(300)은 얼굴의 우측면이 부각되고, 시선은 아래 방향으로 향하는 얼굴 구도를 추천 얼굴 구도로 결정할 수 있다.
전자 장치(1000)는 프리뷰 이미지(2601)에 포함된 현재 얼굴의 구도가 좌측 면이 부가되는 구도이므로, 추천 얼굴 구도에 관한 정보를 제공할 수 있다. 예를 들어, 전자 장치(1000)는, 추천 얼굴 구도에 대응하는 아이콘 이미지(2603)를 화면에 표시할 수 있다. 또한, 전자 장치(1000)는 추천 얼굴 구도에 대응하는 음성 신호를 출력할 수 있다. 예를 들어, 전자 장치(1000)는, "얼굴을 반대 방향으로 돌리고, 턱을 당기고, 시선을 아래 방향을 향하는 것이 당신에 더 좋습니다"라는 음성 메시지를 출력할 수 있다.
도 27 및 도 28은 일 실시예에 따른 전자 장치를 설명하기 위한 블록 구성도이다.
도 27에 도시된 바와 같이, 일 실시예에 따른 전자 장치(1000)는, 출력부(1100), 센싱부(1200), 프로세서(1300)를 포함할 수 있다. 그러나 도시된 구성요소 모두가 필수구성요소인 것은 아니다. 도시된 구성요소보다 많은 구성요소에 의해 전자 장치(1000)가 구현될 수도 있고, 그보다 적은 구성요소에 의해서도 전자 장치(1000)는 구현될 수 있다.
예를 들어, 도 28에 도시된 바와 같이, 일 실시예에 따른 전자 장치(1000)는, 출력부(1100), 센싱부(1200), 프로세서(1300) 이외에 통신부(1400), A/V 입력부(1500), 사용자 입력부(1600), 메모리(1700)을 포함할 수 있다.
이하 상기 구성요소들에 대해 차례로 살펴본다.
출력부(1100)는, 오디오 신호 또는 비디오 신호 또는 진동 신호의 출력을 위한 것으로, 이에는 디스플레이부(1111), 음향 출력부(1112), 진동 모터(1113) 등이 포함될 수 있다.
음향 출력부(1112)는 통신부(1400)로부터 수신되거나 메모리(1700)에 저장된 오디오 데이터를 출력한다. 또한, 음향 출력부(1112)는 전자 장치(1000)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음, 알림음)과 관련된 음향 신호를 출력한다. 이러한 음향 출력부(1112)에는 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.
진동 모터(1113)는 진동 신호를 출력할 수 있다. 예를 들어, 진동 모터(1113)는 오디오 데이터 또는 비디오 데이터(예컨대, 호신호 수신음, 메시지 수신음 등)의 출력에 대응하는 진동 신호를 출력할 수 있다. 또한, 진동 모터(1113)는 터치스크린에 터치가 입력되는 경우 진동 신호를 출력할 수도 있다. 진동 모터(1113)는, 촬영자가 움직이거나 피사체가 움직임으로써, 현재 구도가 추천 구도와 일치하게 되는 경우, 진동 신호를 출력할 수도 있다.
출력부(1100)는 제 1 카메라(1511)를 통해 인식되는 피사체를 포함하는 프리뷰 이미지를 표시할 수 있다. 출력부(1100)는 추천 촬영 구도와 관련된 정보를 제공할 수 있다. 예를 들어, 출력부(1100)는 추천 촬영 구도를 가이드하는 그래픽 인디케이터를 표시할 수 있다.
출력부(1100)는 복수의 추천 촬영 구도와 관련된 정보를 제공할 수 있다. 예를 들어, 복수의 추천 촬영 구도 각각에 대응하는 섬네일 이미지를 표시할 수도 있고, 복수의 추천 촬영 구도 각각에 대응하는 프리뷰 이미지를 페이지 별로 제공할 수도 있다.
출력부(1100)는 추천 촬영 영역, 추천 촬영 각도, 추천 포즈, 및 추천 얼굴 구도 중 적어도 하나와 관련된 정보를 제공할 수 있다.
센싱부(1200)는, 지자기 센서(Magnetic sensor)(1211), 가속도 센서(Acceleration sensor)(1212), 기울기 센서(1213), 적외선 센서(1214), 자이로스코프 센서(1215), 위치 센서(예컨대, GPS)(1216), 온습도 센서(1217), 근접 센서(1218), 및 광 센서(1219) 중 적어도 하나를 포함할 수 있으나, 이에 한정되는 것은 아니다. 각 센서들의 기능은 그 명칭으로부터 당업자가 직관적으로 추론할 수 있으므로, 구체적인 설명은 생략하기로 한다.
센싱부(1200)는, 피사체의 주변 환경 정보(예컨대, 피사체 주변의 빛과 관련된 정보)를 획득할 수 있다. 예를 들어, 광 센서(1219)(또는, 조도 센서)는, 피사체 주변의 조도 값을 획득할 수 있다. 또한, 광 센서(1219)(또는, 조도 센서)는, 피사체 주변이 현재 낮인지 밤인지 등을 결정할 수도 있다. 온습도 센서(1217)는 피사체 주변의 온도 정보, 피사체 주변의 습도 정보를 획득할 수 있다.
프로세서(1300)는, 통상적으로 전자 장치(1000)의 전반적인 동작을 제어한다. 예를 들어, 프로세서(1300)는, 메모리(1700)에 저장된 프로그램들을 실행함으로써, 출력부(1100), 센싱부(1200), 통신부(1400), A/V 입력부(1500), 사용자 입력부(1600), 메모리(1700) 등을 전반적으로 제어할 수 있다.
일 실시예에 의하면, 프로세서(1300)는 학습 네트워크 모델을 생성하기 위한 AI 프로세서를 포함할 수 있으나, 이에 한정되는 것은 아니다. 일 실시예에 의하면, AI 프로세서는 프로세서(1300)와 별도의 칩으로 구현될 수도 있다.
프로세서(1300)는, 프리뷰 이미지에 포함된 피사체를 식별하고, 식별된 피사체의 정보 및 피사체의 주변 환경 정보를 이용하여, 추천 촬영 구도를 결정할 수 있다. 프로세서(1300)는 추천 촬영 구도와 관련된 정보를 출력부(1100)를 통해 제공할 수 있다.
일 실시예에 의하면, 프로세서(1300)는, 프리뷰 이미지로부터 현재 촬영 구도를 결정할 수 있다. 프로세서(1300)는 추천 촬영 구도와 현재 촬영 구도의 유사도가 임계 값 미만인 경우, 추천 촬영 구도에 관한 정보를 제공할 수 있다. 프로세서(1300)는 추천 촬영 구도와 현재 촬영 구도의 유사도가 임계 값 미만인 경우, 추천 촬영 구도에 관한 정보를 제공하지 않을 수 있다.
프로세서(1300)는, 제 1 카메라(1511)와 상이한 제 2 카메라(1512)를 이용하여 프리뷰 이미지보다 큰 화각의 제 1 이미지를 획득할 수 있다. 프로세서(1300)는, 획득된 제 1 이미지를 분석하여, 피사체의 주변 환경 정보를 획득할 수 있다. 프로세서(1300)는, 제 1 이미지 상에 추천 촬영 구도를 가이드하는 정보를 표시하도록 출력부(1100)를 제어할 수 있다.
프로세서(1300)는, 식별된 피사체의 정보 및 피사체의 주변 환경 정보를 이용하여, 복수의 추천 촬영 구도를 결정할 수 있다. 프로세서(1300)는, 복수의 추천 촬영 구도 각각에 대응하는 섬네일 이미지를 표시하도록 출력부(1100)를 제어할 수 있다.
프로세서(1300)는, 식별된 피사체의 정보 및 피사체의 주변 환경 정보에 기초하여, 촬영 설정 값을 추천하거나 자동 적용할 수 있다. 프로세서(1300)는, 식별된 피사체의 정보 및 피사체의 주변 환경 정보를 이용하여, 피사체에 대한 추천 포즈를 결정할 수 있다. 프로세서(1300)는, 추천 포즈에 관한 정보를 제공할 수 있다.
통신부(1400)는, 전자 장치(1000)와 웨어러블 장치 또는 전자 장치(1000)와 서버(2000) 간의 통신을 하게 하는 하나 이상의 구성요소를 포함할 수 있다. 예를 들어, 통신부(1400)는, 근거리 통신부(1411), 이동 통신부(1412) 및 방송 수신부(1413)를 포함할 수 있다.
근거리 통신부(short-range wireless communication unit)(221)는, 블루투스 통신부, BLE(Bluetooth Low Energy) 통신부, 근거리 무선 통신부(Near Field Communication unit), WLAN(와이파이) 통신부, 지그비(Zigbee) 통신부, 적외선(IrDA, infrared Data Association) 통신부, WFD(Wi-Fi Direct) 통신부, UWB(ultra wideband) 통신부, Ant+ 통신부 등을 포함할 수 있으나, 이에 한정되는 것은 아니다.
이동 통신부(1412)는, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 여기에서, 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.
방송 수신부(1413)는, 방송 채널을 통하여 외부로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 구현 예에 따라서 전자 장치(1000)가 방송 수신부(1413)를 포함하지 않을 수도 있다.
일 실시예에 의하면, 통신부(1400)는, 프리뷰 이미지에 관한 정보 및 피사체의 주변 환경 정보를 전자 장치(1000)에 연결된 서버(2000)로 전송할 수 있다. 통신부(1400)는, 서버(2000)에서 프리뷰 이미지에 관한 정보 및 피사체의 주변 환경 정보를 이용하여 결정한 추천 촬영 구도에 관한 정보를 서버(2000)로부터 수신할 수 있다. 통신부(1400)는 사진 이미지를 SNS 서버에 업로드 하거나, SNS 서버로부터 사진 이미지를 다운로드할 수 있다.
A/V(Audio/Video) 입력부(1500)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 제 1 카메라(1511), 제 2 카메라(1512), 마이크로폰(1513) 등이 포함될 수 있다. 제 1 카메라(1511), 제 2 카메라(1512)는 화상 통화모드 또는 촬영 모드에서 이미지 센서를 통해 정지영상 또는 동영상 등의 화상 프레임을 얻을 수 있다. 이미지 센서를 통해 캡쳐된 이미지는 프로세서(1300) 또는 별도의 이미지 처리부(미도시)를 통해 처리될 수 있다.
제 1 카메라(1511) 또는 제 2 카메라(1512)에서 처리된 화상 프레임은 메모리(1700)에 저장되거나 통신부(1400)를 통하여 외부로 전송될 수 있다.
일 실시예에 의하면, 제 1 카메라(1511)은 일반 카메라일 수 있으며, 제 2 카메라(1512)는 망원 카메라, 광각 카메라, 일반 카메라 중 적어도 하나일 수 있으나, 이 에 한정되는 것은 아니다. 제 1 카메라(1511)은 도 10의 제 1 카메라(1001)에 대응되고, 제 2 카메라(1512)는 도 10의 제 2 카메라(1002)에 대응될 수 있다.
마이크로폰(1513)은, 외부의 음향 신호를 입력 받아 전기적인 음성 데이터로 처리한다. 예를 들어, 마이크로폰(1513)은 외부 디바이스 또는 화자로부터 음향 신호를 수신할 수 있다. 마이크로폰(1513)는 외부의 음향 신호를 입력 받는 과정에서 발생 되는 잡음(noise)를 제거하기 위한 다양한 잡음 제거 알고리즘을 이용할 수 있다.
사용자 입력부(1600)는, 사용자가 전자 장치(1000)를 제어하기 위한 데이터를 입력하는 수단을 의미한다. 예를 들어, 사용자 입력부(1600)에는 키 패드(key pad), 돔 스위치 (dome switch), 터치 패드(접촉식 정전 용량 방식, 압력식 저항막 방식, 적외선 감지 방식, 표면 초음파 전도 방식, 적분식 장력 측정 방식, 피에조 효과 방식 등), 조그 휠, 조그 스위치 등이 있을 수 있으나 이에 한정되는 것은 아니다.
메모리(1700)는, 프로세서(1300)의 처리 및 제어를 위한 프로그램을 저장할 수도 있고, 입/출력되는 데이터들(예컨대, 프리뷰 이미지, 사진 이미지(1712), 메타데이터, 주변 환경 정보, 개인화 학습 데이터, 추천 포즈 카드 등)을 저장할 수도 있다.
메모리(1700)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.
메모리(1700)에 저장된 프로그램들은 그 기능에 따라 복수 개의 모듈들로 분류할 수 있는데, 예를 들어, 추천 모델(1711)이 있을 수 있다. 추천 모델(1711)은 도 3의 추천 모델(300)에 대응하므로, 구체적인 설명은 생략하기로 한다. 이하에서는 추천 모델(1711)이 생성되는 과정에 대해서 도 29 내지 도 32를 참조하여 살펴보기로 한다.
도 29는 일 실시예에 따른 프로세서의 블록 구성도이다.
도 29를 참조하면, 일부 실시예에 따른 프로세서(1300)는 데이터 학습부(1310) 및 데이터 인식부(1320)를 포함할 수 있다.
데이터 학습부(1310)는 추천 상황 판단(예컨대, 촬영 구도 추천, 촬영 영역 추천, 포즈 추천, 최적의 얼굴 각도 추천)을 위한 기준을 학습할 수 있다. 데이터 학습부(1310)는 추천 상황을 판단하기 위하여 어떤 데이터를 이용할 지, 데이터를 이용하여 상황을 어떻게 판단할 지에 관한 기준을 학습할 수 있다. 데이터 학습부(1310)는 학습에 이용될 데이터(예컨대, 이미지)를 획득하고, 획득된 데이터를 후술할 데이터 인식 모델에 적용함으로써, 추천 상황 판단을 위한 기준을 학습할 수 있다.
일 실시예에 의하면, 데이터 학습부(1310)는 특정 환경(예컨대, 실내 또는 실외, 일반 조도 또는 저조도, 낮 또는 밤, 일몰 시간 또는 일출 시간, 겨울 또는 여름, 특정 건물 주변, 특정 자연물 주변 등)에서 피사체(사람, 동물, 자연, 자연 현상 등)를 촬영하는 구도를 학습할 수 있다. 일 실시예에 의하면, 데이터 학습부(1310)는 피사체의 정보(예컨대, 피사체의 종류, 피사체의 수, 성별, 나이 등) 또는 피사체의 주변 환경 정보(예컨대, 빛의 양, 빛의 방향, 빛의 세기, 실내인지 실외인지 여부, 특정 건축물 주변인지 여부 등)에 따른 촬영 구도를 학습할 수 있다. 예를 들어, 데이터 학습부(1310)는 사람을 촬영하는 구도, 동물을 촬영하는 구도, 산을 촬영하는 구도, 바다를 촬영하는 구도, 실내에서 사람을 촬영하는 구도, 실외에서 사람을 촬영하는 구도, 실외에서 특정 건축물을 촬영하는 구도, 실내에서 음식을 촬영하는 구도, 여러 사람을 촬영 하는 구도, 한 명을 촬영하는 구도, 밤에 촬영 하는 구도, 낮에 촬영 하는 구도 등을 학습할 수 있다.
일 실시예에 의하면, 데이터 학습부(1310)는 개인화 데이터를 학습할 수도 있다. 예를 들어, 데이터 학습부(1310)는 삭제된 사진의 촬영 구도에 관한 데이터, SNS 서버에 업로드된 사진의 촬영 구도에 관한 데이터, 친구의 디바이스로 전송되는 사진의 촬영 구도에 관한 데이터, 프로필 이미지로 지정된 사진의 촬영 구도에 관한 데이터 등을 학습할 수 있다.
일 실시예에 의하면, 데이터 학습부(1310)는 촬영 영역을 추천하기 위한 기준을 학습할 수도 있다. 일 실시예에 의하면, 데이터 학습부(1310)는 피사체가 사람인 경우 포즈를 추천하기 위한 기준을 학습할 수 있다. 데이터 학습부(1310)는 얼굴 구도를 학습할 수도 있다.
일 실시예에 의하면, 데이터 학습부(1310)는 촬영 설정 값을 추천하기 위한 기준을 학습할 수도 있다. 예를 들어, 데이터 학습부(1310)는 전문가들의 사진에서 획득되는 촬영 설정 값들을 학습할 수 있다.
데이터 인식부(1320)는 데이터에 기초한 추천 상황을 판단할 수 있다. 데이터 인식부(1320)는 학습된 데이터 인식 모델을 이용하여, 검출된 데이터로부터 추천 상황을 인식할 수 있다. 데이터 인식부(1320)는 학습에 의한 기 설정된 기준에 따라 이미지 데이터를 획득하고(예컨대, 프리뷰 이미지 획득), 획득된 이미지 데이터를 입력 값으로 하여 데이터 인식 모델을 이용함으로써, 이미지 데이터에 기초한 추천 상황을 판단할 수 있다. 또한, 획득된 이미지 데이터를 입력 값으로 하여 데이터 인식 모델에 의해 출력된 결과 값은, 데이터 인식 모델을 갱신하는데 이용될 수 있다.
데이터 학습부(1310) 및 데이터 인식부(1320) 중 적어도 하나는, 적어도 하나의 하드웨어 칩 형태로 제작되어 전자 장치(1000)에 탑재될 수 있다. 예를 들어, 데이터 학습부(1310) 및 데이터 인식부(1320) 중 적어도 하나는 인공 지능(AI; artificial intelligence)을 위한 전용 하드웨어 칩 형태로 제작될 수도 있고, 또는 기존의 범용 프로세서(예: CPU 또는 application processor) 또는 그래픽 전용 프로세서(예: GPU)의 일부로 제작되어 전자 장치(1000)에 탑재될 수도 있다.
이 경우, 데이터 학습부(1310) 및 데이터 인식부(1320)는 하나의 전자 장치(1000)에 탑재될 수도 있으며, 또는 별개의 전자 장치들에 각각 탑재될 수도 있다. 예를 들어, 데이터 학습부(1310) 및 데이터 인식부(1320) 중 하나는 전자 장치(1000)에 포함되고, 나머지 하나는 서버(2000)에 포함될 수 있다. 또한, 데이터 학습부(1310) 및 데이터 인식부(1320)는 유선 또는 무선으로 통하여, 데이터 학습부(1310)가 구축한 모델 정보를 데이터 인식부(1320)로 제공할 수도 있고, 데이터 인식부(1320)로 입력된 데이터가 추가 학습 데이터로서 데이터 학습부(1310)로 제공될 수도 있다.
한편, 데이터 학습부(1310) 및 데이터 인식부(1320) 중 적어도 하나는 소프트웨어 모듈로 구현될 수 있다. 데이터 학습부(1310) 및 데이터 인식부(1320) 중 적어도 하나가 소프트웨어 모듈(또는, 인스터력션(instruction) 포함하는 프로그램 모듈)로 구현되는 경우, 소프트웨어 모듈은 컴퓨터로 읽을 수 있는 판독 가능한 비일시적 판독 가능 기록매체(non-transitory computer readable media)에 저장될 수 있다. 또한, 이 경우, 적어도 하나의 소프트웨어 모듈은 OS(Operating System)에 의해 제공되거나, 소정의 애플리케이션에 의해 제공될 수 있다. 또는, 적어도 하나의 소프트웨어 모듈 중 일부는 OS(Operating System)에 의해 제공되고, 나머지 일부는 소정의 애플리케이션에 의해 제공될 수 있다.
도 30은 일 실시예에 따른 데이터 학습부(1310)의 블록 구성도이다.
도 30을 참조하면, 일 실시예에 따른 데이터 학습부(1310)는 데이터 획득부(1310-1), 전처리부(1310-2), 학습 데이터 선택부(1310-3), 모델 학습부(1310-4) 및 모델 평가부(1310-5)를 포함할 수 있다.
데이터 획득부(1310-1)는 추천 상황 판단에 필요한 데이터를 획득할 수 있다. 데이터 획득부(1310-1)는 추천 상황 판단을 위한 학습을 위하여 필요한 데이터(예컨대, 사진 이미지)를 획득할 수 있다. 일 실시예에 의하면, 데이터 획득부(1310-1)는 추천 상황 판단에 필요한 데이터를 직접 생성할 수도 있고, 외부 장치 또는 서버로부터 추천 상황 판단에 필요한 데이터를 수신할 수도 있다.
일 실시예에 의하면, 추천 상황 판단에 필요한 데이터는, 피사체의 정보, 피사체의 주변 환경 정보, 개인화 학습 데이터 등을 포함할 수 있으나, 이에 한정되는 것은 아니다.
일 실시예에 의하면, 데이터 획득부(1310-1)는 영상 데이터, 음성 데이터, 텍스트 데이터 또는 생체신호 데이터 등을 획득할 수 있다. 일 예로, 데이터 획득부(1310-1)는 전자 장치(1000)의 입력 기기(예: 마이크로폰, 카메라 또는 센서 등)를 통해 데이터를 입력 받을 수 있다. 또는, 데이터 획득부(1310-1)는 전자 장치(1000)와 통신하는 외부 장치를 통해 데이터를 획득할 수 있다.
전처리부(1310-2)는 추천 상황 판단을 위한 학습에 획득된 데이터가 이용될 수 있도록, 획득된 데이터를 전처리할 수 있다. 전처리부(1310-2)는 후술할 모델 학습부(1310-4)가 상황 판단을 위한 학습을 위하여 획득된 데이터를 이용할 수 있도록, 획득된 데이터를 기 설정된 포맷으로 가공할 수 있다.
예를 들어, 전처리부(1310-2)는 입력된 동영상의 적어도 일부를 구성하는 복수의 이미지(또는 프레임(frame))들 각각에 포함된 공통 영역을 기초로, 복수의 이미지들의 적어도 일부를 중첩하여 하나의 합성 이미지를 생성할 수 있다. 이 경우, 하나의 동영상에서 복수 개의 합성 이미지들이 생성될 수도 있다. 공통 영역은, 복수의 이미지들 각각에서 동일 또는 유사한 공통 객체(예로, 물체, 동식물 또는 사람 등)를 포함한 영역이 될 수 있다. 또는, 공통 영역은, 복수의 이미지들 각각에서 색, 음영, RGB 값 또는 CMYK 값 등이 동일 또는 유사한 영역이 될 수 있다.
학습 데이터 선택부(1310-3)는 전처리된 데이터 중에서 학습에 필요한 데이터를 선택할 수 있다. 선택된 데이터는 모델 학습부(1310-4)에 제공될 수 있다. 학습 데이터 선택부(1310-3)는 추천 상황 판단을 위한 기 설정된 기준에 따라, 전처리된 데이터 중에서 학습에 필요한 데이터를 선택할 수 있다. 또한, 학습 데이터 선택부(1310-3)는 후술할 모델 학습부(1310-4)에 의한 학습에 의해 기 설정된 기준에 따라 데이터를 선택할 수도 있다. 예를 들어, 학습 데이터 선택부(1310-3)는 피사체의 정보 및 피사체의 주변 환경 정보와 관련된 촬영 구도를 포함하는 이미지 데이터를 선택할 수 있다.
모델 학습부(1310-4)는 학습 데이터에 기초하여 추천 상황을 어떻게 판단할 지에 관한 기준을 학습할 수 있다. 또한, 모델 학습부(1310-4)는 추천 상황 판단을 위하여 어떤 학습 데이터를 이용해야 하는 지에 대한 기준을 학습할 수도 있다.
또한, 모델 학습부(1310-4)는 추천 상황 판단에 이용되는 데이터 인식 모델을 학습 데이터를 이용하여 학습시킬 수 있다. 이 경우, 데이터 인식 모델은 미리 구축된 모델일 수 있다. 예를 들어, 데이터 인식 모델은 기본 학습 데이터(예를 들어, 샘플 이미지 등)을 입력 받아 미리 구축된 모델일 수 있다.
데이터 인식 모델은, 인식 모델의 적용 분야, 학습의 목적 또는 장치의 컴퓨터 성능 등을 고려하여 구축될 수 있다. 데이터 인식 모델은, 예를 들어, 신경망(Neural Network)을 기반으로 하는 모델일 수 있다. 예컨대, DNN(Deep Neural Network), RNN(Recurrent Neural Network), BRDNN(Bidirectional Recurrent Deep Neural Network)과 같은 모델이 데이터 인식 모델로서 사용될 수 있으나, 이에 한정되지 않는다.
다양한 실시예에 따르면, 모델 학습부(1310-4)는 미리 구축된 데이터 인식 모델이 복수 개가 존재하는 경우, 입력된 학습 데이터와 기본 학습 데이터의 관련성이 큰 데이터 인식 모델을 학습할 데이터 인식 모델로 결정할 수 있다. 이 경우, 기본 학습 데이터는 데이터의 타입 별로 기 분류되어 있을 수 있으며, 데이터 인식 모델은 데이터의 타입 별로 미리 구축되어 있을 수 있다. 예를 들어, 기본 학습 데이터는 학습 데이터가 생성된 지역, 학습 데이터가 생성된 시간, 학습 데이터의 크기, 학습 데이터의 장르, 학습 데이터의 생성자, 학습 데이터 내의 오브젝트의 종류 등과 같은 다양한 기준으로 기 분류되어 있을 수 있다.
또한, 모델 학습부(1310-4)는, 예를 들어, 오류 역전파법(error back-propagation) 또는 경사 하강법(gradient descent)을 포함하는 학습 알고리즘 등을 이용하여 데이터 인식 모델을 학습시킬 수 있다.
또한, 모델 학습부(1310-4)는, 예를 들어, 학습 데이터를 입력 값으로 하는 지도 학습(supervised learning) 을 통하여, 데이터 인식 모델을 학습시킬 수 있다. 또한, 모델 학습부(1310-4)는, 예를 들어, 별다른 지도없이 상황 판단을 위해 필요한 데이터의 종류를 스스로 학습함으로써, 상황 판단을 위한 기준을 발견하는 비지도 학습(unsupervised learning)을 통하여, 데이터 인식 모델을 학습시킬 수 있다. 또한, 모델 학습부(1310-4)는, 예를 들어, 학습에 따른 상황 판단의 결과가 올바른 지에 대한 피드백을 이용하는 강화 학습(reinforcement learning)을 통하여, 데이터 인식 모델을 학습시킬 수 있다.
또한, 데이터 인식 모델이 학습되면, 모델 학습부(1310-4)는 학습된 데이터 인식 모델을 저장할 수 있다. 이 경우, 모델 학습부(1310-4)는 학습된 데이터 인식 모델을 데이터 인식부(1320)를 포함하는 전자 장치(1000)의 메모리(1700)에 저장할 수 있다. 또는, 모델 학습부(1310-4)는 학습된 데이터 인식 모델을 후술할 데이터 인식부(1320)를 포함하는 전자 장치(1000)의 메모리(1700)에 저장할 수 있다. 또는, 모델 학습부(1310-4)는 학습된 데이터 인식 모델을 전자 장치(1000)와 유선 또는 무선 네트워크로 연결되는 서버(2000)의 메모리에 저장할 수도 있다.
이 경우, 학습된 데이터 인식 모델이 저장되는 메모리는, 예를 들면, 전자 장치(1000)의 적어도 하나의 다른 구성요소에 관계된 명령 또는 데이터를 함께 저장할 수도 있다. 또한, 메모리는 소프트웨어 및/또는 프로그램을 저장할 수도 있다. 프로그램은, 예를 들면, 커널, 미들웨어, 어플리케이션 프로그래밍 인터페이스(API) 및/또는 어플리케이션 프로그램(또는 "어플리케이션") 등을 포함할 수 있다.
모델 평가부(1310-5)는 데이터 인식 모델에 평가 데이터를 입력하고, 평가 데이터로부터 출력되는 인식 결과가 소정 기준을 만족하지 못하는 경우, 모델 학습부(1310-4)로 하여금 다시 학습하도록 할 수 있다. 이 경우, 평가 데이터는 데이터 인식 모델을 평가하기 위한 기 설정된 데이터일 수 있다.
예를 들어, 모델 평가부(1310-5)는 평가 데이터에 대한 학습된 데이터 인식 모델의 인식 결과 중에서, 인식 결과가 정확하지 않은 평가 데이터의 개수 또는 비율이 미리 설정된 임계치를 초과하는 경우 소정 기준을 만족하지 못한 것으로 평가할 수 있다. 예컨대, 소정 기준이 비율 2%로 정의되는 경우, 학습된 데이터 인식 모델이 총 1000개의 평가 데이터 중의 20개를 초과하는 평가 데이터에 대하여 잘못된 인식 결과를 출력하는 경우, 모델 평가부(1310-5)는 학습된 데이터 인식 모델이 적합하지 않은 것으로 평가할 수 있다.
한편, 학습된 데이터 인식 모델이 복수 개가 존재하는 경우, 모델 평가부(1310-5)는 각각의 학습된 동영상 인식 모델에 대하여 소정 기준을 만족하는지를 평가하고, 소정 기준을 만족하는 모델을 최종 데이터 인식 모델로서 결정할 수 있다. 이 경우, 소정 기준을 만족하는 모델이 복수 개인 경우, 모델 평가부(1310-5)는 평가 점수가 높은 순으로 미리 설정된 어느 하나 또는 소정 개수의 모델을 최종 데이터 인식 모델로서 결정할 수 있다.
한편, 데이터 학습부(1310) 내의 데이터 획득부(1310-1), 전처리부(1310-2), 학습 데이터 선택부(1310-3), 모델 학습부(1310-4) 및 모델 평가부(1310-5) 중 적어도 하나는, 적어도 하나의 하드웨어 칩 형태로 제작되어 전자 장치(1000)에 탑재될 수 있다. 예를 들어, 데이터 획득부(1310-1), 전처리부(1310-2), 학습 데이터 선택부(1310-3), 모델 학습부(1310-4) 및 모델 평가부(1310-5) 중 적어도 하나는 인공 지능(AI; artificial intelligence)을 위한 전용 하드웨어 칩 형태로 제작될 수도 있고, 또는 기존의 범용 프로세서(예: CPU 또는 application processor) 또는 그래픽 전용 프로세서(예: GPU)의 일부로 제작되어 전자 장치(1000)에 탑재될 수도 있다.
또한, 데이터 획득부(1310-1), 전처리부(1310-2), 학습 데이터 선택부(1310-3), 모델 학습부(1310-4) 및 모델 평가부(1310-5)는 하나의 전자 장치(1000)에 탑재될 수도 있으며, 또는 별개의 전자 장치들에 각각 탑재될 수도 있다. 예를 들어, 데이터 획득부(1310-1), 전처리부(1310-2), 학습 데이터 선택부(1310-3), 모델 학습부(1310-4) 및 모델 평가부(1310-5) 중 일부는 전자 장치(1000)에 포함되고, 나머지 일부는 서버(2000)에 포함될 수 있다.
또한, 데이터 획득부(1310-1), 전처리부(1310-2), 학습 데이터 선택부(1310-3), 모델 학습부(1310-4) 및 모델 평가부(1310-5) 중 적어도 하나는 소프트웨어 모듈로 구현될 수 있다. 데이터 획득부(1310-1), 전처리부(1310-2), 학습 데이터 선택부(1310-3), 모델 학습부(1310-4) 및 모델 평가부(1310-5) 중 적어도 하나가 소프트웨어 모듈(또는, 인스터력션(instruction) 포함하는 프로그램 모듈)로 구현되는 경우, 소프트웨어 모듈은 컴퓨터로 읽을 수 있는 판독 가능한 비일시적 판독 가능 기록매체(non-transitory computer readable media)에 저장될 수 있다. 또한, 이 경우, 적어도 하나의 소프트웨어 모듈은 OS(Operating System)에 의해 제공되거나, 소정의 애플리케이션에 의해 제공될 수 있다. 또는, 적어도 하나의 소프트웨어 모듈 중 일부는 OS(Operating System)에 의해 제공되고, 나머지 일부는 소정의 애플리케이션에 의해 제공될 수 있다.
도 31은 일 실시예에 따른 데이터 인식부(1320)의 블록 구성도이다.
도 31을 참조하면, 일 실시예에 따른 데이터 인식부(1320)는 데이터 획득부(1320-1), 전처리부(1320-2), 인식 데이터 선택부(1320-3), 인식 결과 제공부(1320-4) 및 모델 갱신부(1320-5)를 포함할 수 있다.
데이터 획득부(1320-1)는 추천 상황 판단에 필요한 데이터를 획득할 수 있으며, 전처리부(1320-2)는 상황 판단을 위해 획득된 데이터가 이용될 수 있도록, 획득된 데이터를 전처리할 수 있다. 전처리부(1320-2)는 후술할 인식 결과 제공부(1320-4)가 추천 상황 판단을 위하여 획득된 데이터를 이용할 수 있도록, 획득된 데이터를 기 설정된 포맷으로 가공할 수 있다.
인식 데이터 선택부(1320-3)는 전처리된 데이터 중에서 추천 상황 판단에 필요한 데이터를 선택할 수 있다. 선택된 데이터는 인식 결과 제공부(1320-4)에 제공될 수 있다. 인식 데이터 선택부(1320-3)는 추천 상황 판단을 위한 기 설정된 기준에 따라, 전처리된 데이터 중에서 일부 또는 전부를 선택할 수 있다. 또한, 인식 데이터 선택부(1320-3)는 후술할 모델 학습부(1310-4)에 의한 학습에 의해 기 설정된 기준에 따라 데이터를 선택할 수도 있다.
인식 결과 제공부(1320-4)는 선택된 데이터를 데이터 인식 모델에 적용하여 상황을 판단할 수 있다. 인식 결과 제공부(1320-4)는 데이터의 인식 목적에 따른 인식 결과를 제공할 수 있다. 인식 결과 제공부(1320-4)는 인식 데이터 선택부(1320-3)에 의해 선택된 데이터를 입력 값으로 이용함으로써, 선택된 데이터를 데이터 인식 모델에 적용할 수 있다. 또한, 인식 결과는 데이터 인식 모델에 의해 결정될 수 있다.
예를 들어, 적어도 하나의 이미지의 인식 결과는 텍스트, 음성, 동영상, 이미지 또는 명령어(예로, 어플리케이션 실행 명령어, 모듈 기능 실행 명령어 등) 등으로 제공될 수 있다. 일 예로, 인식 결과 제공부(1320-4)는 적어도 하나의 이미지에 포함된 객체의 인식 결과를 제공할 수 있다. 인식 결과는, 예로, 적어도 하나의 이미지에 포함된 객체의 자세 정보, 객체의 주변 상태 정보, 동영상에 포함된 객체의 움직임 변화 정보 등이 될 수 있다.
모델 갱신부(1320-5)는 인식 결과 제공부(1320-4)에 의해 제공되는 인식 결과에 대한 평가에 기초하여, 데이터 인식 모델이 갱신되도록 할 수 있다. 예를 들어, 모델 갱신부(1320-5)는 인식 결과 제공부(1320-4)에 의해 제공되는 인식 결과를 모델 학습부(1310-4)에게 제공함으로써, 모델 학습부(1310-4)가 데이터 인식 모델을 갱신하도록 할 수 있다.
한편, 데이터 인식부(1320) 내의 데이터 획득부(1320-1), 전처리부(1320-2), 인식 데이터 선택부(1320-3), 인식 결과 제공부(1320-4) 및 모델 갱신부(1320-5) 중 적어도 하나는, 적어도 하나의 하드웨어 칩 형태로 제작되어 전자 장치(1000)에 탑재될 수 있다. 예를 들어, 데이터 획득부(1320-1), 전처리부(1320-2), 인식 데이터 선택부(1320-3), 인식 결과 제공부(1320-4) 및 모델 갱신부(1320-5) 중 적어도 하나는 인공 지능(AI; artificial intelligence)을 위한 전용 하드웨어 칩 형태로 제작될 수도 있고, 또는 기존의 범용 프로세서(예: CPU 또는 application processor) 또는 그래픽 전용 프로세서(예: GPU)의 일부로 제작되어 전자 장치(1000)에 탑재될 수도 있다.
또한, 데이터 획득부(1320-1), 전처리부(1320-2), 인식 데이터 선택부(1320-3), 인식 결과 제공부(1320-4) 및 모델 갱신부(1320-5)는 하나의 전자 장치(1000)에 탑재될 수도 있으며, 또는 별개의 전자 장치들에 각각 탑재될 수도 있다. 예를 들어, 데이터 획득부(1320-1), 전처리부(1320-2), 인식 데이터 선택부(1320-3), 인식 결과 제공부(1320-4) 및 모델 갱신부(1320-5) 중 일부는 전자 장치(1000)에 포함되고, 나머지 일부는 서버(2000)에 포함될 수 있다.
또한, 데이터 획득부(1320-1), 전처리부(1320-2), 인식 데이터 선택부(1320-3), 인식 결과 제공부(1320-4) 및 모델 갱신부(1320-5) 중 적어도 하나는 소프트웨어 모듈로 구현될 수 있다. 데이터 획득부(1320-1), 전처리부(1320-2), 인식 데이터 선택부(1320-3), 인식 결과 제공부(1320-4) 및 모델 갱신부(1320-5) 중 적어도 하나가 소프트웨어 모듈(또는, 인스터력션(instruction) 포함하는 프로그램 모듈)로 구현되는 경우, 소프트웨어 모듈은 컴퓨터로 읽을 수 있는 판독 가능한 비일시적 판독 가능 기록매체(non-transitory computer readable media)에 저장될 수 있다. 또한, 이 경우, 적어도 하나의 소프트웨어 모듈은 OS(Operating System)에 의해 제공되거나, 소정의 애플리케이션에 의해 제공될 수 있다. 또는, 적어도 하나의 소프트웨어 모듈 중 일부는 OS(Operating System)에 의해 제공되고, 나머지 일부는 소정의 애플리케이션에 의해 제공될 수 있다.
도 32는 일 실시예에 따른 전자 장치(1000) 및 서버(2000)가 서로 연동함으로써 데이터를 학습하고 인식하는 예시를 나타내는 도면이다.
도 32를 참조하면, 서버(2000)는 추천 상황 판단을 위한 기준을 학습할 수 있으며, 전자 장치(1000)는 서버(2000)에 의한 학습 결과에 기초하여 추천 상황을 판단할 수 있다.
이 경우, 서버(2000)의 모델 학습부(2340)는 도 24에 도시된 데이터 학습부(1310)의 기능을 수행할 수 있다. 서버(2000)의 모델 학습부(2340)는 추천 상황을 판단하기 위하여 어떤 데이터를 이용할 지, 데이터를 이용하여 추천 상황을 어떻게 판단할 지에 관한 기준을 학습할 수 있다. 모델 학습부(2340)는 학습에 이용될 데이터를 획득하고, 획득된 데이터를 후술할 데이터 인식 모델에 적용함으로써, 상황 판단을 위한 기준을 학습할 수 있다.
또한, 전자 장치(1000)의 인식 결과 제공부(1320-4)는 인식 데이터 선택부(1320-3)에 의해 선택된 데이터를 서버(2000)에 의해 생성된 데이터 인식 모델에 적용하여 상황을 판단할 수 있다. 예를 들어, 인식 결과 제공부(1320-4)는 인식 데이터 선택부(1320-3)에 의해 선택된 데이터를 서버(2000)에 전송하고, 서버(2000)가 인식 데이터 선택부(1320-3)에 의해 선택된 데이터를 인식 모델에 적용하여 상황을 판단할 것을 요청할 수 있다. 또한, 인식 결과 제공부(1320-4)는 서버(2000)에 의해 판단된 상황에 관한 정보를 서버(2000)로부터 수신할 수 있다.
또는, 전자 장치(1000)의 인식 결과 제공부(1320-4)는 서버(2000)에 의해 생성된 인식 모델을 서버(2000)로부터 수신하고, 수신된 인식 모델을 이용하여 추천 상황을 판단할 수 있다. 이 경우, 전자 장치(1000)의 인식 결과 제공부(1320-4)는 인식 데이터 선택부(1320-3)에 의해 선택된 데이터를 서버(2000)로부터 수신된 데이터 인식 모델에 적용하여 추천 상황을 판단할 수 있다.
일 실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.
일부 실시예는 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈, 또는 반송파와 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함한다.  또한, 일부 실시예는 컴퓨터에 의해 실행되는 컴퓨터 프로그램과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 컴퓨터 프로그램 또는 컴퓨터 프로그램 제품 (computer program product)으로도 구현될 수 있다.
이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속한다.

Claims (30)

  1. 카메라 및 디스플레이를 포함하는 전자 디바이스가 추천 촬영 구도를 이용하여 피사체를 촬영하는 방법에 있어서,
    상기 카메라로부터 획득되어 상기 디스플레이 상에 디스플레이된 프리뷰 이미지 내의 상기 피사체를 식별하는 동작;
    상기 프리뷰 이미지 내에서 추적 중인 상기 피사체에 관한 정보를 획득하되, 상기 피사체에 관한 정보는 상기 프리뷰 이미지 내에서 추적 중인 상기 피사체의 위치 또는 방향 중 적어도 하나를 포함하는 것인, 동작;
    복수의 사진을 이용하여 학습된 인공지능 모델에 상기 피사체에 관한 정보를 적용하여, 상기 추천 촬영 구도를 획득하는 동작 - 상기 복수의 사진에는 촬영 구도를 추천하기 위한 복수의 구도 정보가 포함됨;
    상기 전자 디바이스를 이동시켜 상기 추천 촬영 구도에 대응되는 상기 프리뷰 이미지 내의 위치에 상기 피사체가 위치하도록 사용자를 가이드하기 위한 지시자를 디스플레이하는 동작; 및
    상기 인공지능 모델을 이용하여 획득된 상기 추천 촬영 구도에 대응되는 상기 프리뷰 이미지 내의 상기 위치에 상기 피사체가 위치함에 기초하여 상기 피사체를 촬영하는 동작;
    을 포함하는, 방법.
  2. 제1 항에 있어서,
    상기 추천 촬영 구도는 황금 분할 구도 정보에 더 기초하여 획득되는 것인, 방법.
  3. 제1 항에 있어서,
    상기 추천 촬영 구도는 중심 구도 정보에 더 기초하여 획득되는 것인, 방법.
  4. 제1 항에 있어서,
    상기 지시자는 인체의 적어도 일부의 모양에 대응되는 모양을 포함하는 것인, 방법.
  5. 제1 항에 있어서,
    상기 프리뷰 이미지 내에 포함된 하나 이상의 피사체의 수를 식별하는 동작;
    을 더 포함하며,
    상기 추천 촬영 구도는 상기 프리뷰 이미지 내에 포함된 상기 하나 이상의 피사체의 상기 식별된 수에 더 기초하여 획득되는 것인, 방법.
  6. 제5 항에 있어서,
    상기 하나 이상의 피사체의 수가 하나로 식별됨에 기초하여, 상기 추천 촬영 구도가 상기 인공지능 모델을 이용하여 획득되는 것인, 방법.
  7. 제1 항에 있어서,
    상기 추천 촬영 구도에 따른 상기 전자 디바이스의 상기 이동을 위한 방향 지시자를 제공하는 동작;
    을 더 포함하며,
    상기 방향 지시자는 그래픽 지시자, 텍스트 지시자 또는 음성 지시자 중 적어도 하나에 의해 제공되는는 것인, 방법.
  8. 추천 촬영 구도를 이용하여 피사체를 촬영하는 전자 디바이스에 있어서,
    카메라;
    디스플레이;
    하나 이상의 명령어를 저장하는 메모리; 및
    상기 하나 이상의 명령어를 실행하는 프로세서;
    를 포함하며,
    상기 프로세서는, 상기 하나 이상의 명령어를 실행함으로써, 상기 카메라로부터 획득되어 상기 디스플레이 상에 디스플레이된 프리뷰 이미지 내의 상기 피사체를 식별하고, 상기 프리뷰 이미지 내에서 추적 중인 상기 피사체에 관한 정보를 획득하되, 상기 피사체에 관한 정보는 상기 프리뷰 이미지 내에서 추적 중인 상기 피사체의 위치 또는 방향 중 적어도 하나를 포함하며, 복수의 사진을 이용하여 학습된 인공지능 모델에 상기 피사체에 관한 정보를 적용하여 상기 추천 촬영 구도를 획득하고, 상기 복수의 사진에는 촬영 구도를 추천하기 위한 복수의 구도 정보가 포함되며, 상기 전자 디바이스를 이동시켜 상기 추천 촬영 구도에 대응되는 상기 프리뷰 이미지 내의 위치에 상기 피사체가 위치하도록 사용자를 가이드하기 위한 지시자를 디스플레이하고, 상기 인공지능 모델을 이용하여 획득된 상기 추천 촬영 구도에 대응되는 상기 프리뷰 이미지 내의 상기 위치에 상기 피사체가 위치함에 기초하여 상기 피사체를 촬영하는, 전자 디바이스.
  9. 제8 항에 있어서,
    상기 추천 촬영 구도는 황금 분할 구도 정보에 더 기초하여 획득되는 것인, 전자 디바이스.
  10. 제8 항에 있어서,
    상기 추천 촬영 구도는 중심 구도 정보에 더 기초하여 획득되는 것인, 전자 디바이스.
  11. 제8 항에 있어서,
    상기 지시자는 인체의 적어도 일부의 모양에 대응되는 모양을 포함하는 것인, 전자 디바이스.
  12. 제8 항에 있어서,
    상기 프로세서는, 상기 하나 이상의 명령어를 실행함으로써, 상기 프리뷰 이미지 내에 포함된 하나 이상의 피사체의 수를 식별하며,
    상기 추천 촬영 구도는 상기 프리뷰 이미지 내에 포함된 상기 하나 이상의 피사체의 상기 식별된 수에 더 기초하여 획득되는 것인, 전자 디바이스.
  13. 제12 항에 있어서,
    상기 하나 이상의 피사체의 수가 하나로 식별됨에 기초하여, 상기 추천 촬영 구도가 상기 인공지능 모델을 이용하여 획득되는 것인, 전자 디바이스.
  14. 제8 항에 있어서,
    상기 프로세서는, 상기 하나 이상의 명령어를 실행함으로써, 상기 추천 촬영 구도에 따른 상기 전자 디바이스의 상기 이동을 위한 방향 지시자를 제공하며,
    상기 방향 지시자는 그래픽 지시자, 텍스트 지시자 또는 음성 지시자 중 적어도 하나에 의해 제공되는 것인, 전자 디바이스.
  15. 제8 항에 있어서,
    상기 프리뷰 이미지 내의 상기 피사체는 상기 인공지능 모델을 이용하여 추적되는 것인, 전자 디바이스.
  16. 제8 항에 있어서,
    상기 인공지능 모델을 이용하여 획득된 상기 추천 촬영 구도에 대응되는 상기 프리뷰 이미지의 상기 위치에 상기 피사체가 위치함에 기초하여, 상기 피사체가 자동으로 촬영되는 것인, 전자 디바이스.
  17. 삭제
  18. 카메라 및 디스플레이를 포함하는 전자 디바이스의 적어도 하나의 프로세서에 의해 실행되어 상기 적어도 하나의 프로세서가 추천 촬영 구도를 이용하여 피사체를 촬영하는 방법을 수행하도록 하는 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체에 있어서, 상기 방법은,
    상기 카메라로부터 획득되어 상기 디스플레이 상에 디스플레이된 프리뷰 이미지 내의 상기 피사체를 식별하는 동작;
    상기 프리뷰 이미지 내에서 추적 중인 상기 피사체에 관한 정보를 획득하되, 상기 피사체에 관한 정보는 상기 프리뷰 이미지 내에서 추적 중인 상기 피사체의 위치 또는 방향 중 적어도 하나를 포함하는 것인, 동작;
    복수의 사진을 이용하여 학습된 인공지능 모델에 상기 피사체에 관한 정보를 적용하여, 상기 추천 촬영 구도를 획득하는 동작 - 상기 복수의 사진에는 촬영 구도를 추천하기 위한 복수의 구도 정보가 포함됨;
    상기 전자 디바이스를 이동시켜 상기 추천 촬영 구도에 대응되는 상기 프리뷰 이미지 내의 위치에 상기 피사체가 위치하도록 사용자를 가이드하기 위한 지시자를 디스플레이하는 동작; 및
    상기 인공지능 모델을 이용하여 획득된 상기 추천 촬영 구도에 대응되는 상기 프리뷰 이미지 내의 상기 위치에 상기 피사체가 위치함에 기초하여 상기 피사체를 촬영하는 동작;
    을 포함하는 것인, 기록매체.
  19. 제18 항에 있어서,
    상기 추천 촬영 구도는 황금 분할 구도 정보에 더 기초하여 획득되는 것인, 기록매체.
  20. 제18 항에 있어서,
    상기 추천 촬영 구도는 중심 구도 정보에 더 기초하여 획득되는 것인, 기록매체.
  21. 제18 항에 있어서,
    상기 지시자는 인체의 적어도 일부의 모양에 대응되는 모양을 포함하는 것인, 기록매체.
  22. 제18 항에 있어서,
    상기 방법은, 상기 프리뷰 이미지 내에 포함된 하나 이상의 피사체의 수를 식별하는 동작을 더 포함하며,
    상기 추천 촬영 구도는 상기 프리뷰 이미지 내에 포함된 상기 하나 이상의 피사체의 상기 식별된 수에 더 기초하여 획득되는 것인, 기록매체.
  23. 제22 항에 있어서,
    상기 하나 이상의 피사체의 수가 하나로 식별됨에 기초하여, 상기 추천 촬영 구도가 상기 인공지능 모델을 이용하여 획득되는 것인, 기록매체.
  24. 제18 항에 있어서,
    상기 방법은, 상기 추천 촬영 구도에 따른 상기 전자 디바이스의 상기 이동을 위한 방향 지시자를 제공하는 동작을 더 포함하며,
    상기 방향 지시자는 그래픽 지시자, 텍스트 지시자 또는 음성 지시자 중 적어도 하나에 의해 제공되는는 것인, 기록매체.
  25. 제18 항에 있어서,
    상기 프리뷰 이미지 내의 상기 피사체는 상기 인공지능 모델을 이용하여 추적되는 것인, 기록매체.
  26. 제18 항에 있어서,
    상기 인공지능 모델을 이용하여 획득된 상기 추천 촬영 구도에 대응되는 상기 프리뷰 이미지의 상기 위치에 상기 피사체가 위치함에 기초하여, 상기 피사체가 자동으로 촬영되는 것인, 기록매체.
  27. 삭제
  28. 제18 항에 있어서,
    상기 방법은, 상기 전자 디바이스의 상기 이동으로 인하여 상기 프리뷰 이미지가 변경되는 경우에, 상기 프리뷰 이미지 내의 상기 지시자의 위치를 고정하는 동작을 더 포함하며,
    상기 전자 디바이스의 상기 이동으로 인하여 상기 프리뷰 이미지가 변경되는 경우에, 상기 프리뷰 이미지 내의 상기 지시자 및 상기 피사체 간의 거리는 변경되는 것인, 기록매체.
  29. 제18 항에 있어서,
    상기 방법은, 상기 인공지능 모델을 이용하여 획득된 상기 추천 촬영 구도에 대응되는 상기 프리뷰 이미지 내의 상기 위치에 상기 피사체가 위치함에 기초하여, 상기 지시자의 표시를 중단하는 동작을 더 포함하는, 기록매체.
  30. 제18 항에 있어서,
    상기 방법은, 상기 인공지능 모델을 이용하여 획득된 상기 추천 촬영 구도에 대응되는 상기 프리뷰 이미지 내의 상기 위치에 상기 피사체가 위치함을 시각적으로 나타내는 동작을 더 포함하는, 기록매체.
KR1020170164328A 2017-12-01 2017-12-01 사진 촬영과 관련된 추천 정보를 제공하는 방법 및 시스템 KR102438201B1 (ko)

Priority Applications (16)

Application Number Priority Date Filing Date Title
KR1020170164328A KR102438201B1 (ko) 2017-12-01 2017-12-01 사진 촬영과 관련된 추천 정보를 제공하는 방법 및 시스템
EP19213664.6A EP3654625B1 (en) 2017-12-01 2018-10-02 Method and system for providing recommendation information related to photography
CN202111265899.6A CN114040098A (zh) 2017-12-01 2018-10-02 用于获得图像的方法和执行该方法的电子设备
CN201880019872.9A CN110476405B (zh) 2017-12-01 2018-10-02 用于提供与拍摄有关的推荐信息的方法和系统
PCT/KR2018/011670 WO2019107724A1 (en) 2017-12-01 2018-10-02 Method and system for providing recommendation information related to photography
CN202110029846.8A CN112801269A (zh) 2017-12-01 2018-10-02 用于获得图像的方法和执行该方法的电子设备
EP21150571.4A EP3823261B1 (en) 2017-12-01 2018-10-02 Method and system for providing recommendation information related to photography
EP18882342.1A EP3560179B1 (en) 2017-12-01 2018-10-02 Method and system for providing recommendation information related to photography
US16/161,761 US11146724B2 (en) 2017-12-01 2018-10-16 Method and system for providing recommendation information related to photography
US16/294,339 US10616478B2 (en) 2017-12-01 2019-03-06 Method and system for providing recommendation information related to photography
US16/780,186 US10951813B2 (en) 2017-12-01 2020-02-03 Method and system for providing recommendation information related to photography
US17/497,427 US11678050B2 (en) 2017-12-01 2021-10-08 Method and system for providing recommendation information related to photography
KR1020220107149A KR102481016B1 (ko) 2017-12-01 2022-08-25 사진 촬영과 관련된 추천 정보를 제공하는 방법 및 시스템
KR1020220178697A KR102631309B1 (ko) 2017-12-01 2022-12-19 사진 촬영과 관련된 추천 정보를 제공하는 방법 및 시스템
US18/315,808 US20230283889A1 (en) 2017-12-01 2023-05-11 Method and system for providing recommendation information related to photography
KR1020240011730A KR20240015708A (ko) 2017-12-01 2024-01-25 사진 촬영과 관련된 추천 정보를 제공하는 방법 및 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170164328A KR102438201B1 (ko) 2017-12-01 2017-12-01 사진 촬영과 관련된 추천 정보를 제공하는 방법 및 시스템

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020220107149A Division KR102481016B1 (ko) 2017-12-01 2022-08-25 사진 촬영과 관련된 추천 정보를 제공하는 방법 및 시스템

Publications (2)

Publication Number Publication Date
KR20190064958A KR20190064958A (ko) 2019-06-11
KR102438201B1 true KR102438201B1 (ko) 2022-08-30

Family

ID=66659652

Family Applications (4)

Application Number Title Priority Date Filing Date
KR1020170164328A KR102438201B1 (ko) 2017-12-01 2017-12-01 사진 촬영과 관련된 추천 정보를 제공하는 방법 및 시스템
KR1020220107149A KR102481016B1 (ko) 2017-12-01 2022-08-25 사진 촬영과 관련된 추천 정보를 제공하는 방법 및 시스템
KR1020220178697A KR102631309B1 (ko) 2017-12-01 2022-12-19 사진 촬영과 관련된 추천 정보를 제공하는 방법 및 시스템
KR1020240011730A KR20240015708A (ko) 2017-12-01 2024-01-25 사진 촬영과 관련된 추천 정보를 제공하는 방법 및 시스템

Family Applications After (3)

Application Number Title Priority Date Filing Date
KR1020220107149A KR102481016B1 (ko) 2017-12-01 2022-08-25 사진 촬영과 관련된 추천 정보를 제공하는 방법 및 시스템
KR1020220178697A KR102631309B1 (ko) 2017-12-01 2022-12-19 사진 촬영과 관련된 추천 정보를 제공하는 방법 및 시스템
KR1020240011730A KR20240015708A (ko) 2017-12-01 2024-01-25 사진 촬영과 관련된 추천 정보를 제공하는 방법 및 시스템

Country Status (5)

Country Link
US (5) US11146724B2 (ko)
EP (3) EP3560179B1 (ko)
KR (4) KR102438201B1 (ko)
CN (3) CN112801269A (ko)
WO (1) WO2019107724A1 (ko)

Families Citing this family (70)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102584187B1 (ko) * 2016-03-30 2023-10-05 삼성전자주식회사 이미지를 처리하기 위한 전자 장치 및 방법
US11284012B2 (en) * 2017-07-03 2022-03-22 Canon Kabushiki Kaisha Method and system for auto-setting of cameras
KR102438201B1 (ko) 2017-12-01 2022-08-30 삼성전자주식회사 사진 촬영과 관련된 추천 정보를 제공하는 방법 및 시스템
CN108810418B (zh) * 2018-07-16 2020-09-11 Oppo广东移动通信有限公司 图像处理方法、装置、移动终端及计算机可读存储介质
US10965874B2 (en) * 2018-09-18 2021-03-30 Gopro, Inc. Analytic triggers
US11100325B2 (en) * 2018-12-07 2021-08-24 International Business Machines Corporation Photographic results by composition analysis using deep learning neural networks
US11172192B2 (en) * 2018-12-27 2021-11-09 Waymo Llc Identifying defects in optical detector systems based on extent of stray light
CN111586282B (zh) * 2019-02-18 2021-08-10 北京小米移动软件有限公司 拍摄方法、装置、终端及可读存储介质
JP2020136899A (ja) * 2019-02-19 2020-08-31 ソニーセミコンダクタソリューションズ株式会社 撮像装置、電子機器、および撮像方法
GB2584986B (en) * 2019-03-19 2023-07-26 Sony Interactive Entertainment Inc System and camera device for capturing images
US10956694B2 (en) * 2019-04-05 2021-03-23 Zebra Technologies Corporation Device and method for data capture aiming assistance
US11599598B2 (en) * 2019-06-19 2023-03-07 Canon Kabushiki Kaisha System and method for recommending challenges
KR102231794B1 (ko) 2019-06-26 2021-03-25 유수연 인공지능을 이용하여 이미지의 객체를 제거하는 방법
CN110191287B (zh) * 2019-06-28 2021-05-11 Oppo广东移动通信有限公司 对焦方法和装置、电子设备、计算机可读存储介质
CN112351185A (zh) * 2019-08-07 2021-02-09 华为技术有限公司 拍照方法和移动终端
CN110493517A (zh) * 2019-08-14 2019-11-22 广州三星通信技术研究有限公司 图像捕获装置的辅助拍摄方法和图像捕获装置
KR102201858B1 (ko) * 2019-08-26 2021-01-12 엘지전자 주식회사 인공지능 기반 영상 편집 방법 및 지능형 디바이스
US11436470B2 (en) * 2019-09-13 2022-09-06 Kyndryl, Inc. Generating simulated image training data
US11386473B2 (en) * 2019-10-24 2022-07-12 Shopify Inc. Systems and methods for providing product image recommendations
US11849264B2 (en) * 2019-11-22 2023-12-19 Samsung Electronics Co., Ltd. Apparatus and method for white balance editing
CN110955793A (zh) * 2019-11-26 2020-04-03 维沃移动通信有限公司 一种显示控制方法及电子设备
CN112866557A (zh) * 2019-11-28 2021-05-28 荣耀终端有限公司 构图推荐方法和电子设备
CN112929557A (zh) * 2019-12-05 2021-06-08 北京小米移动软件有限公司 一种拍摄方法、装置、终端及存储介质
WO2021126004A1 (ru) * 2019-12-20 2021-06-24 Общество С Ограниченной Ответственностью "Дина" Способ фото/видео съемки цифровым устройством профессионально скомпанованных кадров
CN113037990B (zh) * 2019-12-24 2022-09-06 Tcl科技集团股份有限公司 辅助拍摄方法、终端设备及计算机可读存储介质
CN111147745B (zh) * 2019-12-30 2021-11-30 维沃移动通信有限公司 拍摄方法、装置、电子设备及存储介质
CN113132618B (zh) * 2019-12-31 2022-09-09 华为技术有限公司 辅助拍照方法、装置、终端设备及存储介质
CN113079311B (zh) * 2020-01-06 2023-06-27 北京小米移动软件有限公司 图像获取方法及装置、电子设备、存储介质
CN111277752B (zh) * 2020-01-22 2021-08-31 Oppo广东移动通信有限公司 提示方法、装置、存储介质及电子设备
AU2021213243A1 (en) * 2020-01-31 2022-09-22 Hover Inc. Techniques for enhanced image capture using a computer-vision network
KR20210099983A (ko) 2020-02-05 2021-08-13 천수민 이미지 보정 방법 및 이를 이용하는 장치
CN111277760B (zh) * 2020-02-28 2022-02-01 Oppo广东移动通信有限公司 一种拍摄构图方法及终端、存储介质
WO2021185296A1 (zh) * 2020-03-20 2021-09-23 华为技术有限公司 一种拍摄方法及设备
CN111464743A (zh) * 2020-04-09 2020-07-28 上海城诗信息科技有限公司 一种摄影构图匹配方法及系统
US11388334B2 (en) * 2020-05-22 2022-07-12 Qualcomm Incorporated Automatic camera guidance and settings adjustment
US11431895B2 (en) * 2020-06-24 2022-08-30 International Business Machines Corporation Photography guidance based on crowdsourced photographs
EP3929832A1 (en) * 2020-06-24 2021-12-29 Maui Jim, Inc. Visual product identification
KR102210959B1 (ko) * 2020-06-29 2021-02-01 주식회사 카카오뱅크 신분증 이미지 품질 평가 방법 및 서버
CN113873177A (zh) * 2020-06-30 2021-12-31 北京小米移动软件有限公司 多视角拍摄方法、装置、电子设备及存储介质
JP6793382B1 (ja) * 2020-07-03 2020-12-02 株式会社エクサウィザーズ 撮影装置、情報処理装置、方法およびプログラム
KR102605070B1 (ko) * 2020-07-06 2023-11-24 한국전자통신연구원 인식 모델 학습 장치, 촬영본 영상 분석 장치 및 촬영본 검색 서비스 제공 장치
KR20220005239A (ko) * 2020-07-06 2022-01-13 삼성전자주식회사 전자 장치 및 이의 제어 방법
KR102367343B1 (ko) * 2020-07-29 2022-02-25 홍종화 셀프 촬영 관리 서버
KR102565225B1 (ko) * 2020-08-14 2023-08-09 주식회사 엘케이벤쳐스 얼굴 인식 기능을 이용한 촬영 모드 추천 및 선택 시스템, 및 이를 이용한 촬영 장치
EP3968006A1 (en) * 2020-09-14 2022-03-16 Nokia Technologies Oy Imaging an object using projected electromagnetic radiation and a rolling shutter
KR20220037128A (ko) * 2020-09-17 2022-03-24 삼성전자주식회사 사용자의 위치 관련 정보를 결정하는 전자 장치 및 서버
US11297226B1 (en) * 2020-10-01 2022-04-05 Black Sesame Technologies Inc. Photo taking feedback system
CN112437172A (zh) * 2020-10-30 2021-03-02 努比亚技术有限公司 一种拍照方法、终端及计算机可读存储介质
US20230421888A1 (en) * 2020-11-16 2023-12-28 Google Llc Systems, Apparatus, and Methods for Improving Composition of Images
US11645776B2 (en) * 2020-12-04 2023-05-09 Shopify Inc. System and method for generating recommendations during image capture of a product
JP2022096292A (ja) * 2020-12-17 2022-06-29 富士フイルム株式会社 撮影システム、サーバ、撮影機器、撮影方法、プログラムおよび記録媒体
CN112613459B (zh) * 2020-12-30 2022-07-15 深圳艾摩米智能科技有限公司 一种人脸敏感区域检测方法
KR20220099789A (ko) * 2021-01-07 2022-07-14 삼성전자주식회사 카메라 모듈을 포함하는 전자 장치 및 그 전자 장치의 동작 방법
CN113038000A (zh) * 2021-02-26 2021-06-25 惠州Tcl移动通信有限公司 基于图像分析的拍摄提示处理方法、装置、设备及介质
CN112685581B (zh) * 2021-03-17 2021-08-31 深圳市火乐科技发展有限公司 投影内容的推荐方法、装置、存储介质及电子设备
JP2022154658A (ja) * 2021-03-30 2022-10-13 キヤノン株式会社 撮像装置、撮像素子、撮像装置の制御方法およびプログラム
CN115150543B (zh) * 2021-03-31 2024-04-16 华为技术有限公司 拍摄方法、装置、电子设备及可读存储介质
CN114466133B (zh) * 2021-04-26 2023-02-10 荣耀终端有限公司 拍照方法及装置
CN113473019A (zh) * 2021-07-01 2021-10-01 北京字跳网络技术有限公司 一种图像处理方法、装置、设备及存储介质
CN113473017A (zh) * 2021-07-01 2021-10-01 北京字跳网络技术有限公司 一种图像处理方法、装置、设备及存储介质
KR20230023498A (ko) * 2021-08-10 2023-02-17 삼성전자주식회사 언더 디스플레이 카메라를 포함하는 전자 장치 및 그 동작 방법
CN113781408A (zh) * 2021-08-24 2021-12-10 北京美照算算智能科技有限公司 一种图像拍摄智能指导系统及方法
KR102545218B1 (ko) * 2021-09-23 2023-06-20 (주)플랜아이 상품 분류에 따른 구도 추천 방법 및 이를 이용한 상세 페이지 작성 가이드 방법 및 시스템
US20220012491A1 (en) * 2021-09-23 2022-01-13 Intel Corporation Contextual usage control of cameras
US20230283878A1 (en) * 2022-03-07 2023-09-07 Meta Platforms Technologies, Llc Smart Cameras Enabled by Assistant Systems
CN117425057A (zh) * 2022-07-07 2024-01-19 抖音视界(北京)有限公司 用于影像拍摄的方法、装置、设备和存储介质
WO2024030904A1 (en) * 2022-08-02 2024-02-08 Canon U.S.A., Inc. Real-time feedback of objects captured during an image capture process
WO2024080705A1 (ko) * 2022-10-12 2024-04-18 주식회사 스튜디오랩 전자 장치 및 이의 촬영 방법
KR102619846B1 (ko) * 2023-04-25 2024-01-02 김동환 촬영 구도 제안을 위한 전자 장치, 전자 장치의 촬영 구도 제안 방법
CN116546310B (zh) * 2023-07-05 2023-09-15 北京电子科技学院 基于人工智能的摄影辅助方法、装置、设备和介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101222928B1 (ko) * 2012-05-04 2013-01-17 (주)비즈텍 구도 설정 촬영장치
JP2014192743A (ja) * 2013-03-27 2014-10-06 Olympus Corp 撮像装置、構図アシスト装置、構図アシスト方法、及び構図アシストプログラム

Family Cites Families (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4904108B2 (ja) * 2006-07-25 2012-03-28 富士フイルム株式会社 撮影装置及び画像表示制御方法
US7805066B2 (en) * 2007-12-24 2010-09-28 Microsoft Corporation System for guided photography based on image capturing device rendered user recommendations according to embodiments
KR101434564B1 (ko) * 2008-02-13 2014-08-29 삼성전자 주식회사 촬영 정보 자동 추출 시스템 및 방법
KR101539043B1 (ko) * 2008-10-31 2015-07-24 삼성전자주식회사 인물 구도 제안 영상 촬영 장치 및 방법
US20100245610A1 (en) * 2009-03-31 2010-09-30 Electronics And Telecommunications Research Institute Method and apparatus for processing digital image
KR101643602B1 (ko) * 2009-06-24 2016-07-29 삼성전자주식회사 구도 가이드 방법 및 장치, 및 디지털 촬영 장치
JP5359762B2 (ja) * 2009-10-15 2013-12-04 ソニー株式会社 情報処理装置、表示制御方法及び表示制御プログラム
KR101630299B1 (ko) 2009-12-24 2016-06-24 삼성전자주식회사 촬영 장치 및 그 제어 방법
JP2013042250A (ja) * 2011-08-12 2013-02-28 Sony Corp 撮像装置および撮像方法
KR101867051B1 (ko) 2011-12-16 2018-06-14 삼성전자주식회사 촬상장치, 촬상 구도 제공 방법 및 컴퓨터 판독가능 기록매체
JP2013214858A (ja) * 2012-04-02 2013-10-17 Sony Corp 撮像装置、撮像装置の制御方法およびコンピュータプログラム
US9385324B2 (en) * 2012-05-07 2016-07-05 Samsung Electronics Co., Ltd. Electronic system with augmented reality mechanism and method of operation thereof
WO2014054498A1 (ja) * 2012-10-05 2014-04-10 富士フイルム株式会社 撮像装置及び画像表示方法
JP5743236B2 (ja) * 2013-09-17 2015-07-01 オリンパス株式会社 撮影機器及び撮影方法
CN105580051B (zh) * 2013-10-30 2019-05-14 英特尔公司 图像捕捉反馈
CN104717413A (zh) * 2013-12-12 2015-06-17 北京三星通信技术研究有限公司 拍照辅助方法及设备
KR20150106719A (ko) * 2014-03-12 2015-09-22 삼성전자주식회사 전자 장치의 촬영 위치 안내 방법 및 이를 이용한 전자 장치
US9729784B2 (en) * 2014-05-21 2017-08-08 Google Technology Holdings LLC Enhanced image capture
US9571727B2 (en) * 2014-05-21 2017-02-14 Google Technology Holdings LLC Enhanced image capture
KR101653041B1 (ko) * 2014-05-23 2016-08-31 주식회사 카카오 촬영 구도 추천 방법, 및 장치
KR102157675B1 (ko) * 2014-07-25 2020-09-18 삼성전자주식회사 촬영 장치 및 그 촬영 방법
KR20160029536A (ko) * 2014-09-05 2016-03-15 엘지전자 주식회사 이동 단말기 및 그것의 제어방법
CN104301613B (zh) * 2014-10-16 2016-03-02 深圳市中兴移动通信有限公司 移动终端及其拍摄方法
US9407815B2 (en) * 2014-11-17 2016-08-02 International Business Machines Corporation Location aware photograph recommendation notification
KR20160114434A (ko) * 2015-03-24 2016-10-05 삼성전자주식회사 전자 장치 및 전자 장치의 이미지 촬영 방법
US9826149B2 (en) 2015-03-27 2017-11-21 Intel Corporation Machine learning of real-time image capture parameters
WO2017039348A1 (en) * 2015-09-01 2017-03-09 Samsung Electronics Co., Ltd. Image capturing apparatus and operating method thereof
KR20170035237A (ko) * 2015-09-22 2017-03-30 엘지전자 주식회사 이동 단말기 및 그 제어방법
KR20170046005A (ko) * 2015-10-20 2017-04-28 삼성전자주식회사 얼굴 검출 방법 및 이를 지원하는 전자 장치
US10536628B2 (en) * 2015-10-23 2020-01-14 Telefonaktiebolaget Lm Ericsson (Publ) Providing camera settings from at least one image/video hosting service
KR101699202B1 (ko) * 2016-01-19 2017-01-23 라인 가부시키가이샤 최적 촬영 위치 추천 방법 및 시스템
KR20180018213A (ko) * 2016-08-12 2018-02-21 삼성전자주식회사 전자 장치 및 그 제어 방법
KR102622754B1 (ko) * 2016-09-07 2024-01-10 삼성전자주식회사 이미지 합성 방법 및 이를 지원하는 전자 장치
KR20180116574A (ko) * 2017-04-17 2018-10-25 엘지전자 주식회사 이동 단말기
CN107257438A (zh) * 2017-07-10 2017-10-17 广东欧珀移动通信有限公司 拍照提醒方法、装置、终端和计算机存储介质
KR102438201B1 (ko) * 2017-12-01 2022-08-30 삼성전자주식회사 사진 촬영과 관련된 추천 정보를 제공하는 방법 및 시스템

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101222928B1 (ko) * 2012-05-04 2013-01-17 (주)비즈텍 구도 설정 촬영장치
JP2014192743A (ja) * 2013-03-27 2014-10-06 Olympus Corp 撮像装置、構図アシスト装置、構図アシスト方法、及び構図アシストプログラム

Also Published As

Publication number Publication date
EP3654625A1 (en) 2020-05-20
EP3560179A4 (en) 2019-12-18
EP3654625B1 (en) 2024-01-03
WO2019107724A1 (en) 2019-06-06
CN110476405B (zh) 2021-11-16
US20230283889A1 (en) 2023-09-07
US10616478B2 (en) 2020-04-07
KR20190064958A (ko) 2019-06-11
EP3560179B1 (en) 2024-01-03
CN112801269A (zh) 2021-05-14
KR102631309B1 (ko) 2024-01-30
US20220030163A1 (en) 2022-01-27
CN110476405A (zh) 2019-11-19
EP3823261B1 (en) 2024-04-24
US20190174056A1 (en) 2019-06-06
US11678050B2 (en) 2023-06-13
EP3823261A1 (en) 2021-05-19
KR20230006424A (ko) 2023-01-10
US10951813B2 (en) 2021-03-16
KR20220124127A (ko) 2022-09-13
EP3654625C0 (en) 2024-01-03
US20200177802A1 (en) 2020-06-04
EP3560179A1 (en) 2019-10-30
CN114040098A (zh) 2022-02-11
EP3560179C0 (en) 2024-01-03
KR20240015708A (ko) 2024-02-05
US11146724B2 (en) 2021-10-12
KR102481016B1 (ko) 2022-12-23
US20190208117A1 (en) 2019-07-04

Similar Documents

Publication Publication Date Title
KR102631309B1 (ko) 사진 촬영과 관련된 추천 정보를 제공하는 방법 및 시스템
KR102453169B1 (ko) 디바이스가 이미지를 보정하는 방법 및 그 디바이스
KR102585877B1 (ko) 디바이스가 이미지를 보정하는 방법 및 그 디바이스
KR102500760B1 (ko) 이미지 획득 장치 및 그의 제어 방법
KR102405171B1 (ko) 촬상장치 및 그 제어방법
WO2022227393A1 (zh) 图像拍摄方法及装置、电子设备和计算机可读存储介质
KR20090087670A (ko) 촬영 정보 자동 추출 시스템 및 방법
KR102475999B1 (ko) 화상 처리장치 및 그 제어방법
KR20200132569A (ko) 특정 순간에 관한 사진 또는 동영상을 자동으로 촬영하는 디바이스 및 그 동작 방법
KR102384878B1 (ko) 동영상을 필터링하는 방법 및 장치
US11145088B2 (en) Electronic apparatus and method for controlling thereof
KR20200084428A (ko) 동영상을 제작하는 방법 및 그에 따른 장치
CN115225756A (zh) 确定目标对象的方法、拍摄方法和装置
JP7199808B2 (ja) 撮像装置およびその制御方法
KR20220149803A (ko) 정보를 공유하기 위한 전자 장치 및 그 동작 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant