KR20180016534A - 사용자가 이미지 또는 비디오를 포착하는 것을 보조하는 방법 및 시스템 - Google Patents

사용자가 이미지 또는 비디오를 포착하는 것을 보조하는 방법 및 시스템 Download PDF

Info

Publication number
KR20180016534A
KR20180016534A KR1020187000600A KR20187000600A KR20180016534A KR 20180016534 A KR20180016534 A KR 20180016534A KR 1020187000600 A KR1020187000600 A KR 1020187000600A KR 20187000600 A KR20187000600 A KR 20187000600A KR 20180016534 A KR20180016534 A KR 20180016534A
Authority
KR
South Korea
Prior art keywords
user
image
electronic device
video
location
Prior art date
Application number
KR1020187000600A
Other languages
English (en)
Other versions
KR101989757B1 (ko
Inventor
사이드 이나야툴라 나제룰라 말지마니
마드흐베시 술리브하비
프라모드 친탈라푸디
Original Assignee
소니 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 소니 주식회사 filed Critical 소니 주식회사
Publication of KR20180016534A publication Critical patent/KR20180016534A/ko
Application granted granted Critical
Publication of KR101989757B1 publication Critical patent/KR101989757B1/ko

Links

Images

Classifications

    • H04N5/23222
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • G06F17/30265
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N5/23293
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Library & Information Science (AREA)
  • Studio Devices (AREA)
  • User Interface Of Digital Computer (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)

Abstract

이미지 또는 비디오의 포착에서 사용자를 보조하는 방법 및 시스템의 다양한 양태가 본 명세서에 개시된다. 한 실시예에 따르면, 전자 디바이스 내의 하나 이상의 회로는 사용자로부터 제1 복수의 입력 값을 수신하도록 구성된다. 제1 복수의 입력 값은, 제1 위치의 전자 디바이스의 하나 이상의 시야(field of view; FOV) 내의 제1 물체를 에워싸는 제1 복수의 경계 지점을 포함한다. 그 후, 제1 복수의 경계 지점에 기초하여, 이미지 또는 비디오를 포착하는데 이용되는 제2 위치 및 타겟 FOV가 결정된다. 이미지 또는 비디오는 적어도 제1 물체를 포함한다. 추가로, 표시자의 디스플레이는 타겟 FOV에서 이미지 또는 비디오를 포착하도록 사용자를 제2 위치로 안내하기 위해 제어된다.

Description

사용자가 이미지 또는 비디오를 포착하는 것을 보조하는 방법 및 시스템
본 개시내용의 다양한 실시예는 이미지 포착에 관한 것이다. 더 구체적으로는, 본 개시내용의 다양한 실시예는 이미지 또는 비디오를 포착하는 사용자에 대한 디바이스 기반의 보조에 관한 것이다.
이미지 처리 기술의 진보 및 카메라 가능형 전자 디바이스의 확산에 따라, 아마추어 사진 작가 및 전문 사진 작가를 포함한 사진 애호가의 수가 상당히 증가했다. 전문 사진 작가는 장면의 이미지 또는 비디오를 찍을 장소를 선택할 때 세심한 주의를 기울일 수 있다. 전문 사진 작가들은 사용자가 적절한 사진을 찍게 하는 그들의 전자 디바이스에서 이용될 수 있는 다양한 조절 및 설정에 대한 지식을 가질 수 있다. 또한, 그들은 포착된 이미지 또는 비디오에 관해 품질을 향상시키기 위해 수행될 수 있는 다양한 후처리 동작을 알고 있을 수 있다. 그러나 아마추어 사진 작가는 전문 사진 작가처럼 사진 작업과 관련된 미묘한 부분에 대해 잘 알고 있지 않을 수도 있다. 따라서, 최적의 품질을 갖는 이미지 또는 비디오 포착에 있어서 이러한 초보자 또는 아마추어 사용자를 보조할 필요가 있다.
종래의 및 전통적인 접근법의 추가적인 제한 및 단점은, 도면을 참조한 본 출원의 나머지 부분에 개시되는 본 개시내용의 일부 양태들을 갖는 설명된 시스템과의 비교를 통해 본 기술분야의 통상의 기술자에게 명백해질 것이다.
실질적으로 도면들 중 적어도 하나에 도시되거나 및/또는 이와 연계하여 설명되는, 이미지 또는 비디오를 포착하는데 있어서 사용자를 보조하는 방법 및 시스템은 청구항들에서 더욱 완전하게 개시된다.
본 개시내용의 이들 및 다른 피쳐들 및 이점들은, 전체에 걸쳐 유사한 참조 번호가 유사한 부분을 나타내는 첨부된 도면들과 함께, 본 개시내용의 이하의 상세한 설명의 검토로부터 이해될 수 있을 것이다.
도 1은, 본 개시내용의 실시예에 따른, 이미지 또는 비디오를 포착하도록 사용자를 보조하는 예시적인 환경을 나타낸다.
도 2는, 본 개시내용의 한 실시예에 따른, 예시적인 전자 디바이스를 나타내는 블록도이다.
도 3은, 본 개시내용의 한 실시예에 따른, 관심대상 장면의 하나 이상의 물체를 에워싸는 복수의 경계 지점을 선택하기 위한 예시적인 시나리오를 나타낸다.
도 4는, 본 개시내용의 실시예에 따른, 관심대상 장면 내의 적어도 하나의 동적 물체 및 하나 이상의 정적 물체에 대한 복수의 경계 지점을 선택하기 위한 예시적인 시나리오를 나타낸다.
도 5는, 본 개시내용의 한 실시예에 따른, 전자 디바이스의 이용에 의한 이미지 또는 비디오 포착에서 사용자를 보조하는 제1 예시적인 시나리오를 나타낸다.
도 6은, 본 개시내용의 한 실시예에 따른, 전자 디바이스의 이용에 의한 이미지 또는 비디오 포착에서 사용자를 보조하는 제2 예시적인 시나리오를 나타낸다.
도 7은, 본 개시내용의 한 실시예에 따른, 관심대상 장면의 파노라마 이미지를 포착하도록 사용자를 안내하기 위한 예시적인 시나리오를 나타낸다.
도 8은, 본 개시내용의 한 실시예에 따른, 관심대상 장면의 임계 이미지를 포착하도록 사용자를 안내하기 위한 예시적인 시나리오를 나타낸다.
도 9는, 본 개시내용의 한 실시예에 따른, 이미지 또는 비디오를 포착하도록 사용자를 보조하는 방법을 나타내는 플로차트이다.
이하의 설명된 구현은, 이미지 또는 비디오 포착에서 사용자를 보조하는 개시된 방법 및 시스템에서 발견될 수 있다. 본 개시내용의 예시적인 양태는 전자 디바이스에서 구현가능한 방법을 포함할 수 있다. 이 방법은 제1 위치의 사용자로부터의 제1 복수의 입력 값의 수신을 포함할 수 있다. 수신된 제1 복수의 입력 값은, 제1 위치의 전자 디바이스의 하나 이상의 시야(field of view; FOV) 내의 제1 물체를 에워싸는 제1 복수의 경계 지점을 포함할 수 있다. 그 후, 수신된 제1 복수의 경계 지점에 기초하여, 이미지 또는 비디오를 포착하기 위한 제2 위치 및 타겟 FOV가 결정될 수 있다. 이미지 또는 비디오는 적어도 제1 물체를 포함할 수 있다. 또한, 표시자의 디스플레이는, 타겟 FOV 내의 제1 물체의 이미지 또는 비디오를 포착하도록 사용자를 제2 위치로 안내하기 위해 제어될 수 있다.
한 실시예에 따르면, 제1 물체의 적어도 일부는 제1 위치의 전자 디바이스의 하나 이상의 FOV를 넘어 연장될 수 있다. 제2 위치 및 타겟 FOV는, 타겟 FOV 내의 제1 물체의 일부를 포착하기 위해 사용자 정의된 임계 값에 기초하여 결정될 수 있다.
한 실시예에 따르면, 센서 데이터가 전자 디바이스의 하나 이상의 센서로부터 수신되어 제1 물체를 에워쌀 수 있는 제1 복수의 경계 지점을 결정할 수 있다. 제2 위치 및 타겟 FOV는 하나 이상의 파라미터의 결정에 기초하여 결정될 수 있다. 하나 이상의 파라미터의 예로서는, 광의 방향, 하나 이상의 광원, 광의 강도, 하나 이상의 FOV에서 제1 물체가 관찰될 때의 전자 디바이스의 이동 각도, 제1 위치의 전자 디바이스로부터의 제1 물체의 거리, 및/또는 이미지 품질 임계 값이 포함될 수 있지만, 이것으로 제한되는 것은 아니다.
제2 복수의 입력 값은 제1 위치에서 사용자로부터 수신될 수 있다. 수신된 제2 복수의 입력 값은 제2 물체를 에워쌀 수 있는 제2 복수의 경계 지점을 포함할 수 있다. 한 실시예에 따르면, 파노라마 이미지 모드가 제1 물체 및 제2 물체의 포착을 위해 추천될 수 있다. 한 실시예에 따르면, 제2 위치 및 타겟 FOV는, 제1 물체 및 제2 물체를 포함하는 이미지 또는 비디오를 포착하도록 결정될 수 있다. 제2 위치 및 타겟 FOV의 결정은, 제1 물체에 대한 수신된 제1 복수의 경계 지점 및 제2 물체에 대한 수신된 제2 복수의 경계 지점에 기초할 수 있다.
한 실시예에 따른, 타겟 FOV에서 제1 물체 및/또는 제2 물체의 일부를 포착하기 위한 임계 값이 표시될 수 있다. 한 실시예에 따르면, 제1 및/또는 제2 물체는 움직이는 중일 수 있다. 제1 물체 및/또는 제2 물체가 움직이는 중일 때, 제1 물체 및 제2 물체를 포함하는 비디오가 포착될 수 있다.
타겟 FOV 내의 결정된 제2 위치에서의 제1 물체의 이미지 또는 비디오를 포착하기 위한 하나 이상의 설정 파라미터의 이용에 대한 추천이 결정될 수 있다. 하나 이상의 설정 파라미터의 예로서는, 조리개 설정, ISO(International Organization for Standardization) 감도, 자동 노출, 자동 초점, 자동 화이트 밸런스, 및/또는 자동 조명이 포함될 수 있지만, 이것으로 제한되는 것은 아니다.
도 1은 본 개시내용의 실시예에 따른 이미지 또는 비디오를 포착하는데 있어서 사용자를 보조하는 예시적인 환경을 나타낸다. 도 1을 참조하면, 예시적인 환경(100)이 도시되어 있다. 예시적인 환경(100)은, 관심대상 장면(102), 사용자(104), 및 전자 디바이스(106)를 포함할 수 있다. 예시적인 환경(100)은, 상이한 시점들에서 사용자(104)의 위치와 연관된, 제1 위치(108a) 및 제2 위치(108b) 등의 위치들을 더 포함할 수 있다. 예시적인 환경(100)은, 각각, 제1 위치(108a) 및 제2 위치(108b)의 전자 디바이스(106)의 제1 FOV(110b) 및 제2 FOV(110b) 등의 시야(FOV)를 더 포함할 수 있다. 예시적인 환경(100)은, 각각, 제1 복수의 경계 지점(114) 및 제2 복수의 경계 지점(118)에 의해 에워싸일 수 있는 제1 물체(112) 및 제2 물체(116)를 더 포함할 수 있다. 또한, 예시적인 환경(100)은 제1 사용자 인터페이스(120a) 및 제2 사용자 인터페이스(120b) 등의 전자 디바이스(100)의 예시적인 사용자 인터페이스(UI)를 나타낸다. 제1 사용자 인터페이스(120a)는 제1 사용자 인터페이스(120a)에 기준 이미지(122)를 디스플레이할 수 있다. 제2 사용자 인터페이스(120b)는 사용자(104)에게 안내를 제공하기 위해 네비게이션 방향 등의 표시자를 디스플레이하는 제1 부분(124a) 및 제2 부분(124b)을 포함할 수 있다.
관심대상 장면(102)은, 사용자(104)가 전자 디바이스(106)의 이용에 의해 이미지 또는 비디오로서 포착하기를 원하는 지리적 영역 또는 풍경을 포함할 수 있다. 포착된 이미지 또는 비디오는 지리적 영역 또는 풍경 내에 위치할 수 있는 하나 이상의 물체의 표현을 포함할 수 있다. 하나 이상의 물체물의 예로서는, 건물, 인공 구조물, 도로, 수역, 차량, 인간 피사체, 및/또는 비인간 피사체가 포함될 수 있지만, 이것으로 제한되는 것은 아니다.
사용자(104)는 지리적 영역 또는 풍경 내의 하나 이상의 물체의 이미지 또는 비디오를 포착할 수 있는 인간 피사체에 대응할 수 있다. 한 실시예에 따르면, 사용자(104)는 전자 디바이스(106)를 이용하여 사용자(104)가 지리적 영역 근처 또는 그 내부에 위치해 있는 동안 이미지 또는 비디오를 포착할 수 있다. 한 실시예에 따르면, 사용자(104)가 이미지 또는 비디오를 포착하는 동안, 사용자(104)는 제1 UI(120a)를 통해 전자 디바이스(106)에 복수의 입력 값을 제공할 수 있다. 복수의 입력 값에 기초하여, 전자 디바이스(106)는 이미지 또는 비디오의 포착에서 사용자(104)를 보조하기 위해 제2 UI(120b)를 통해 사용자(104)에게 추천을 디스플레이할 수 있다.
본 기술분야의 통상의 기술자라면, 본 개시내용의 범위는 인간 피사체로서 사용자(104)로 제한되어서는 안 된다는 것을 이해할 것이다. 한 실시예에 따르면, 사용자(104)는, 이미지 포착 로봇, 이미지 포착 드론, 스파이더 카메라, 및/또는 감시 카메라 등의 그러나 이것으로 제한되지 않는 자동화된 이미지 포착 디바이스에 대응할 수 있다. 이러한 경우에, 전자 디바이스(106)의 기능은 자동화된 이미지 포착 디바이스에 의해 수행될 수 있다. 대안으로서, 자동화된 이미지 포착 디바이스는, 이미지 또는 비디오의 포착에서 자동화된 이미지 포착 디바이스를 보조하도록 구성될 수 있는 또 다른 전자 디바이스 또는 서버에 통신가능하게 결합될 수 있다.
전자 디바이스(106)는, 이미지 또는 비디오의 포착에서 사용자(104)를 보조하도록 구성될 수 있는 적절한 로직, 회로, 인터페이스, 및/또는 코드를 포함할 수 있다. 한 실시예에 따르면, 전자 디바이스(106)는, 전자 디바이스(106)의 제1 UI(120a)를 통해 사용자(104)로부터 복수의 입력 값을 수신하도록 구성될 수 있다. 또한, 복수의 입력 값에 기초하여, 전자 디바이스(106)는 이미지 또는 비디오의 포착에서 사용자(104)를 보조하기 위해 제2 UI(120b)를 통해 사용자(104)에게 추천을 디스플레이할 수 있다. 한 실시예에 따르면, 사용자(104)는, 전자 디바이스(106)를 이용하여 전자 디바이스(106)에 의해 제공되는 추천에 기초해, 이미지 또는 비디오를 포착할 수 있다. 전자 디바이스(106)의 예는, 스마트폰, 카메라, 태블릿 컴퓨터, 랩탑, 착용형 전자 디바이스, 스마트안경, 디지털 캠코더, 및/또는 다른 이러한 카메라 가능형 디바이스를 포함할 수 있지만, 이것으로 제한되는 것은 아니다.
동작시, 사용자(104)는, 전자 디바이스(106)의 이용에 의해 제1 위치(108a) 등의 초기 위치로부터 제1 물체(112)의 이미지 또는 비디오를 포착하기를 원할 수 있다. 제1 위치(108a)는 제1 물체(112)가 위치해 있는 동일한 지리적 영역 내의 사용자(104)의 위치에 대응할 수 있다. 제1 물체(112)는, 제1 위치(108a)의 전자 디바이스(106)의 제1 FOV(110a) 등의 하나 이상의 FOV 내에서 볼 수 있다. 한 실시예에 따르면, 제1 물체(112)의 적어도 일부는 제1 위치(108a)의 전자 디바이스(106)의 제1 FOV(110a)를 넘어 연장될 수 있다. 전자 디바이스(106)는 제1 위치(108a)의 사용자(104)로부터 제1 복수의 입력 값을 수신하도록 구성될 수 있다. 수신된 제1 복수의 입력 값은 경계 지점(114) 등의 제1 복수의 경계 지점을 포함할 수 있다. 제1 복수의 경계 지점(114)은 제1 물체(112)를 에워쌀 수 있다. 한 실시예에 따르면, 전자 디바이스(106)는, 전자 디바이스(106)의 하나 이상의 센서에 의해 생성된 센서 데이터에 기초하여 제1 복수의 경계 지점(114)을 결정하도록 구성될 수 있다.
한 실시예에 따르면, 전자 디바이스(106)는, 하나 이상의 파라미터의 결정에 기초하여 제2 위치(108b) 등의 타겟 위치, 및 제2 FOV(110b) 등의 타겟 FOV를 결정하도록 구성될 수 있다. 하나 이상의 파라미터의 예로서는, 광의 방향, 하나 이상의 광원, 광의 강도, 제1 물체(112)가 제1 FOV(110a)에서 관찰될 때의 전자 디바이스(106)의 이동 각도, 제1 위치(108a)의 전자 디바이스(106)로부터의 제1 물체(112)의 거리, 및/또는 미리결정된 이미지 품질 임계 값이 포함될 수 있지만, 이것으로 제한되는 것은 아니다. 제2 위치(108b)로부터 포착되고 제2 FOV(110b) 내에 있는 적어도 제1 물체(112)의 이미지 또는 비디오는, 전자 디바이스(106)에 의해 포착될 수 있는 최종 이미지 또는 비디오에 대응할 수 있다. 제2 위치(108b) 및 제2 FOV(110b)의 결정은 수신된 제1 복수의 경계 지점(114)에 기초할 수 있다. 한 실시예에 따르면, 제2 위치(108b) 및 제2 FOV(110b)는, 제2 FOV(110b) 내의 제1 물체(112)의 일부를 포착하기 위해 사용자 정의된 임계 값에 기초하여 결정될 수 있다. 전자 디바이스(106)는 추가로, 표시자의 디스플레이를 제어하도록 구성될 수 있다. 표시자는, 최적의 방식으로 제2 FOV(110b) 내의 제1 물체(112)의 최종 이미지 또는 비디오를 포착하도록 사용자(104)를 제2 위치(108b)로 안내할 수 있다.
한 실시예에 따르면, 전자 디바이스(106)는 또한, 제1 UI(120a)를 통해 제1 위치(108a)의 사용자(104)로부터 제2 복수의 입력 값을 수신하도록 구성될 수 있다. 제2 복수의 입력 값은, 제2 물체(116)을 포함할 수 있는 경계 지점(118) 등의, 제2 복수의 경계 지점을 포함할 수 있다. 한 실시예에 따르면, 제2 위치(108b) 및 제2 FOV(110b)는, 제1 물체(112) 및 제2 물체(116)를 양쪽 모두를 포함하는 이미지 또는 비디오를 포착하도록 결정될 수 있다. 이러한 결정은, 제1 물체(112)에 대한 수신된 제1 복수 경계 지점(114) 및 제2 물체(116)에 대한 수신된 제2 복수 경계 지점(118)에 기초할 수 있다.
예를 들어, 사용자(104)는 전자 디바이스(106)를 이용하여 제1 위치(108a) 등의 사용자(104)의 초기 위치에서 관심대상 장면(102)의 기준 이미지(122)를 포착할 수 있다. 전자 디바이스(106)는 포착된 기준 이미지(122)를 제1 UI(120a)를 통해 사용자(104)에게 디스플레이할 수 있다. 또한, 전자 디바이스(106)는 사용자(104)에게 제1 UI(120a)를 통해 기준 이미지(122)에서 복수의 경계 지점을 선택하기 위한 입력을 제공할 것을 촉구할 수 있다. 사용자(104)는, 제1 UI(120a)를 통해, 제1 물체(112)를 에워쌀 수 있는 제1 복수의 경계 지점(114)을 선택하는 제1 복수의 입력 값을 제공할 수 있다. 또한, 사용자(104)는, 제1 UI(120a)를 통해, 제2 물체(116)를 에워쌀 수 있는 제2 복수의 경계 지점(118)을 선택하는 (제2 복수의 입력 값 등의) 또 다른 입력을 제공할 수 있다. 그 후, 전자 디바이스(106)는, 복수의 경계 지점(114 및 118)에 기초하여, 제1 물체(112) 및 제2 물체(116)를 에워싸는 최종 이미지 또는 비디오를 포착하기 위해 (제2 위치(108b) 등의) 타겟 위치를 결정할 수 있다. 전자 디바이스(106)는 제2 UI(120b)를 사용자(104)에게 디스플레이하여, 사용자(104)가 제1 위치(108a)로부터 제2 위치(108b)를 발견하는 것을 보조할 수 있다. 제2 UI(120b)는 제1 위치(108a)로부터 제2 위치(108b)에 도달하기 위한 하나 이상의 경로의 추천을 디스플레이할 수 있다. 추천의 예로서는, 제2 위치(108b)에 도달하기 위한 시각적 방향, 텍스트 방향, 및/또는 오디오 방향을 포함할 수 있지만, 이것으로 제한되는 것은 아니다. 예를 들어, 제2 UI(120b)는 제1 부분(124a)을 포함하여 제1 위치(108a)로부터 제2 위치(108b)에 도달하기 위한 시각적 네비게이션 지도를 디스플레이할 수 있다. 또한, 제2 UI(120b)는 제2 부분(124b)을 포함하여 "도보 2 피트 후방으로", "도보 5 피트 좌측으로", "도보 3 피트 후방으로" 및 "도보 1 피트 좌측으로" 등의 대응하는 텍스트 네비게이션 방향을 디스플레이할 수 있다. 본 기술분야의 통상의 기술자는, 제1 사용자 인터페이스(120a) 및 제2 사용자 인터페이스(120b)는 예시의 목적을 위해 제공된 것이고, 본 개시내용의 범위를 제한하는 것으로 해석되어서는 안 된다는 것을 이해할 것이다.
한 실시예에 따르면, 전자 디바이스(106)는 제1 UI(120a)를 통해 사용자(104)에게 임계 값을 표시하도록 구성될 수 있다. 임계 값은, 제2 FOV(110b) 내의 제1 물체(112) 및/또는 제2 물체(116)의 일부를 포함할 수 있는 이미지 또는 비디오의 포착을 가능하게 할 수 있다. 한 실시예에 따르면, 제1 물체(112) 및/또는 제2 물체(116)는 움직이는 중일 수 있다. 전자 디바이스(106)는, 제1 물체(112) 및/또는 제2 물체(116)가 움직이는 중일 때, 제1 물체(112) 및 제2 물체(116)를 포함하는 비디오의 포착을 추천할 수 있다. 대안으로서(또는 이에 추가하여), 전자 디바이스(106)는 전자 디바이스(106)의 파노라마 이미지 모드에서 제1 물체(112) 및 제2 물체(116)의 포착을 추천할 수 있다.
한 실시예에 따르면, 전자 디바이스(106)는 또한, 하나 이상의 설정 파라미터의 이용에 대한 추천을 결정하도록 구성될 수 있다. 결정된 설정 파라미터는, 제2 FOV(110b) 내의 결정된 제2 위치(108b)에서 제1 물체(112)의 이미지 또는 비디오를 포착하는데 이용될 수 있다. 전자 디바이스(106)는 결정된 추천을 전자 디바이스(106)의 제2 UI(120b)를 통해 사용자(104)에게 제공할 수 있다. 하나 이상의 설정 파라미터의 예로서는, 조리개 설정, ISO 감도, 자동 노출, 자동 초점, 자동 화이트 밸런스, 및/또는 자동 조명이 포함될 수 있지만, 이것으로 제한되는 것은 아니다.
도 2는, 본 개시내용의 한 실시예에 따른, 예시적인 전자 디바이스를 나타내는 블록도이다. 도 2는 도 1의 요소들과 연계하여 설명된다. 도 2를 참조하면, 전자 디바이스(106)가 도시되어 있다. 전자 디바이스(106)는, 프로세서(202) 등의 하나 이상의 프로세서, 트랜시버(204) 등의 하나 이상의 트랜시버, 메모리(206) 등의 하나 이상의 메모리, 카메라 플러그인(208), 하나 이상의 센서(216), 및 디스플레이 디바이스(218)를 포함할 수 있다. 카메라 플러그인(208)은, 이미지 처리 엔진(210), 추천 엔진(212), 및 UI 관리자(214)를 포함할 수 있다. 한 실시예에 따르면, 전자 디바이스(106)는, 트랜시버(204)를 이용하여, (도 2에 도시되지 않은) 통신 네트워크를 통해 하나 이상의 다른 전자 디바이스 또는 서버에 통신가능하게 결합될 수 있다. 대안으로서, 전자 디바이스(106)는 트랜시버(204)를 포함하지 않을 수도 있다. 이러한 경우, 전자 디바이스(106)는 하나 이상의 다른 전자 디바이스 또는 서버와 통신하지 못할 수 있다.
프로세서(202)는, 트랜시버(204), 메모리(206), 카메라 플러그인(208), 하나 이상의 센서(216), 및 디스플레이 디바이스(218)에 통신가능하게 결합될 수 있다. 트랜시버(204)는 통신 네트워크(미도시)를 통해 또 다른 전자 디바이스 또는 서버(미도시)와 통신하도록 구성될 수 있다.
프로세서(202)는, 메모리(206)에 저장된 한 세트의 명령어를 실행하도록 구성될 수 있는 적절한 로직, 회로, 인터페이스, 및/또는 코드를 포함할 수 있다. 프로세서(202)는 본 기술분야에 공지된 다수의 프로세서 기술들에 기초하여 구현될 수 있다. 프로세서(202)의 예로서는, X86 기반의 프로세서, RISC(Reduced Instruction Set Computing) 프로세서, ASIC(Application Specific Integrated Circuit) 프로세서, CISC(Complex Instruction Set Computing) 프로세서 및/또는 기타의 프로세서가 해당될 수 있다.
트랜시버(204)는, 통신 네트워크(미도시)를 통해, 또 다른 전자 디바이스 또는 서버(미도시)와 통신하도록 구성될 수 있는 적절한 로직, 회로, 인터페이스 및/또는 코드를 포함할 수 있다. 트랜시버(204)는 유선 또는 무선 통신을 지원하는 공지된 기술을 구현할 수 있다. 트랜시버(204)는, 안테나, 무선 주파수(RF) 트랜시버, 하나 이상의 증폭기, 튜너, 하나 이상의 발진기, 디지털 신호 프로세서, 코더 디코더(CODEC) 칩셋, 가입자 식별 모듈(SIM) 카드, 및/또는 로컬 버퍼를 포함할 수 있지만, 이것으로 제한되는 것은 아니다.
트랜시버(204)는, 인터넷, 인트라넷, 및/또는 셀룰러 전화 네트워크, 무선 근거리 통신망(LAN) 및/또는 광역 도시권 통신망(MAN)과 같은 무선 네트워크 등의 네트워크와 무선 통신을 통해 통신할 수 있다. 무선 통신은, GSM(Global System for Mobile Communications), EDGE(Enhanced Data GSM Environment), 광대역 코드 분할 다중 액세스(W CDMA), 코드 분할 다중 액세스(CDMA), 시분할 다중 액세스(TDMA), Bluetooth, (IEEE 802.11a, IEEE 802.11b, IEEE 802.11g 및/또는 IEEE 802.11n 등의) 무선 피델리티(Wi Fi), VoIP(voice over Internet Protocol), Wi MAX, 전자 메일, 인스턴트 메시징 및/또는 단문 메시지 서비스(SMS)를 위한 프로토콜 등의, 복수의 통신 표준, 프로토콜 및 기술들 중 임의의 것을 이용할 수 있다.
메모리(206)는, 프로세서(202)에 의해 실행가능한 적어도 하나의 코드 섹션을 갖는 머신 코드 및/또는 컴퓨터 프로그램을 저장하도록 구성될 수 있는 적절한 로직, 회로, 및/또는 인터페이스를 포함할 수 있다. 메모리(206)는 또한, 전자 디바이스(106)에 의해 포착될 수 있는 하나 이상의 이미지 또는 비디오를 저장하도록 구성될 수 있다. 한 실시예에 따르면, 메모리(206)는 개별 메모리 파티션들을 포함할 수 있다. 이러한 경우에, 카메라 플러그인(208) 등의 다양한 카메라 플러그인은 대응하는 메모리 파티션으로의 직접적인 배타적 액세스를 가질 수 있어서, 전자 디바이스(106) 상에 설치된 다른 애플리케이션 또는 프로그램을 금지할 수 있다. 메모리(206)의 구현 예로서는, 랜덤 액세스 메모리(RAM), 판독 전용 메모리(ROM), 하드 디스크 드라이브(HDD), 및/또는 보안 디지털(SD) 카드가 포함될 수 있지만, 이것으로 제한되는 것은 아니다.
카메라 플러그인(208)은, 전자 디바이스(106)를 이용하여 하나 이상의 이미지 또는 비디오를 포착하는데 있어서 사용자(104)에게 보조를 제공하도록 구성될 수 있는 적절한 로직, 회로, 인터페이스 및/또는 코드를 포함할 수 있다. 한 실시예에 따르면, 카메라 플러그인(208)은 프로세서(202)의 일부일 수 있다. 대안으로서, 카메라 플러그인(208)은 전자 디바이스(106) 내의 별개의 프로세서 또는 회로로서 구현될 수 있다. 한 실시예에 따르면, 카메라 플러그인(208) 및 프로세서(202)는, 카메라 플러그인(208) 및 프로세서(202)의 기능을 수행하는 통합 프로세서 또는 프로세서들의 클러스터로서 구현될 수 있다. 한 실시예에 따르면, 카메라 플러그인(208)은, 프로세서(202)에 의한 실행시에 카메라 플러그인(208)의 기능을 수행할 수 있는 메모리(206)에 저장된 컴퓨터 프로그램 코드로서 구현될 수 있다.
이미지 처리 엔진(210)은, 관심대상 장면(102)의 지리적 영역 내의 전자 디바이스(106)의 타겟 FOV를 결정하도록 구성될 수 있는 적절한 로직, 회로, 인터페이스 및/또는 코드를 포함할 수 있다. 또한, 이미지 처리 엔진(210)은, 전자 디바이스(106)의 결정된 FOV에서 최종 이미지 또는 비디오의 포착을 가능하게 할 수 있는 지리적 영역 내의 타겟 위치를 결정하도록 구성될 수 있다. 한 실시예에 따르면, 이미지 처리 엔진(210)은 하나 이상의 센서(216)로부터 센서 데이터를 수신할 수 있다. 센서 데이터에 기초하여, 이미지 처리 엔진(210)은 하나 이상의 파라미터를 결정할 수 있다. 이미지 처리 엔진(210)은, 결정된 하나 이상의 파라미터에 기초하여 타겟 FOV 및 위치를 결정하도록 구성될 수 있다.
추천 엔진(212)은, 타겟 FOV 및/또는 타겟 위치에 기초하여, 최종 이미지 또는 비디오를 포착하기 위한 하나 이상의 추천을 생성하도록 구성될 수 있는 적절한 로직, 회로, 인터페이스 및/또는 코드를 포함할 수 있다. 추천 엔진(212)은, 하나 이상의 센서(216)로부터, (전자 디바이스(106)의 위치와 동일할 수 있는) 사용자(104)의 현재 위치를 포함할 수 있는 센서 데이터를 수신할 수 있다. 그 후, 추천 엔진(212)은 사용자(104)의 현재 위치에 기초하여 이미지 처리 엔진(210)에 의해 결정된 타겟 위치를 찾도록 사용자(104)를 보조하기 위해 하나 이상의 추천을 생성할 수 있다. 한 실시예에 따르면, 추천 엔진(212)은 타겟 FOV의 타겟 위치에서 물체의 이미지 또는 비디오를 포착하기 위한 하나 이상의 설정 파라미터의 추천을 생성할 수 있다. 본 기술분야의 통상의 기술자라면, 본 개시내용의 범위는 개별 엔티티로서의 이미지 처리 엔진(210) 및 추천 엔진(212)의 구현으로 제한되지 않아야 한다는 것을 이해할 것이다. 한 실시예에 따르면, 이미지 처리 엔진(210) 및 추천 엔진(212)은 본 개시내용의 범위를 벗어나지 않고 단일 엔티티로서 통합될 수도 있다.
UI 관리자(214)는, 전자 디바이스(106)의 디스플레이 디바이스(218) 상에 프리젠팅된 UI를 관리하도록 구성될 수 있는 적절한 로직, 회로, 인터페이스 및/또는 코드를 포함할 수 있다. UI 관리자(214)는 또한, 전자 디바이스(106)의 입력 디바이스(도 2에는 미도시)를 통해 전자 디바이스(106)의 제1 UI(120a)를 통해 수신된 사용자 입력을 수신 및 처리하도록 구성될 수 있다. 한 실시예에 따르면, 입력 디바이스는 전자 디바이스(106)에 통신가능하게 결합될 수 있다(또는 그 내부에 포함될 수 있다). 입력 디바이스의 예로서는, 키패드, 마우스, 조이스틱, 트랙 패드, 음성 가능형 입력 디바이스, 터치 가능형 입력 디바이스, 및/또는 제스쳐 가능형 입력 디바이스가 포함될 수 있으나, 이것으로 제한되는 것은 아니다.
한 실시예에 따르면, UI 관리자(214)는, 전자 디바이스(106)의 UI(이하, "UI" 및 "카메라 인터페이스"라는 용어는 서로 바꾸어 사용됨)를 통해, 사용자(104)에게 카메라 인터페이스를 프리젠팅하도록 구성될 수 있다. 카메라 인터페이스는, 추천 엔진(212)에 의해 생성된 최종 이미지 또는 비디오의 포착을 위한 하나 이상의 추천을 디스플레이하도록 구성될 수 있다. 또한, 카메라 인터페이스는, 사용자(104)가 하나 이상의 추천에 기초하여 최종 이미지 또는 비디오를 포착할 수 있게 하도록 구성될 수 있다.
하나 이상의 센서(216)는, 관심대상 장면(102)의 하나 이상의 이미지 또는 비디오를 포착하도록 구성될 수 있는 적절한 로직, 회로, 인터페이스 및/또는 코드를 포함할 수 있다. 한 실시예에 따르면, 하나 이상의 센서(216)는, 관심대상 장면(102)의 지리적 영역 내의 하나 이상의 물체에 관한, 전자 디바이스(106)의 위치, 배향 및/또는 이동 정도를 결정하도록 구성될 수 있다. 또한, 하나 이상의 센서(216)는, 전자 디바이스(106)의 결정된 위치, 결정된 방위 및/또는 결정된 이동 정도 중 하나 이상에 기초하여 센서 데이터를 결정하도록 구성될 수 있다. 하나 이상의 센서(216)는 이미지 포착 센서 및/또는 광 센서를 포함할 수 있다. 이미지 포착 센서 및/또는 광 센서의 예로서는, 전하 결합 소자(CCD) 센서, 상보형 금속 산화물 반도체(CMOS) 센서, 및/또는 N형 금속 산화물 반도체(NMOS) 센서가 포함될 수 있지만, 이것으로 제한되는 것은 아니다. 또한, 하나 이상의 센서(216)는 또한, (지리적 위치결정 센서(GPS) 등의) 위치 센서, (자이로스코프 및/또는 자력계 등의) 배향 센서, 및/또는 (가속도계 등의) 속도/움직임 센서를 포함할 수 있지만, 이것으로 제한되는 것은 아니다.
디스플레이 디바이스(218)는, 제1 UI(120a) 및 제2 UI(120b)를 렌더링하도록 구성될 수 있는 적절한 로직, 회로, 인터페이스 및/또는 코드를 포함할 수 있다. 한 실시예에 따르면, 디스플레이 디바이스(218)는 전자 디바이스(106)의 일부로서 구현될 수 있다. 대안으로서, 디스플레이 디바이스(218)는 전자 디바이스(106)에 통신가능하게 결합될 수 있다. 디스플레이 디바이스(218)는, 음극선관(CRT, Cathode Ray Tube) 기반 디스플레이, 액정 디스플레이(LCD; Liquid Crystal Display), 발광 다이오드(LED; Light Emitting Diode) 기반 디스플레이, 유기 LED 디스플레이 기술, 망막 디스플레이 기술 등의 수 개의 공지된 기술을 통해 실현될 수 있다. 또한, 한 실시예에 따르면, 디스플레이 디바이스(218)는 사용자(104)로부터 입력을 수신할 수 있다. 이러한 경우, 디스플레이 디바이스(218)는 사용자(104)가 입력을 제공할 수 있게 하는 터치 스크린일 수 있다. 한 실시예에 따르면, 터치 스크린은, 저항식 터치 스크린, 용량식 터치 스크린, 또는 열 터치 스크린 중 적어도 하나에 대응할 수 있다. 한 실시예에 따르면, 디스플레이 디바이스(218)는, 가상 키패드, 스타일러스, 제스쳐 기반 입력, 및/또는 터치 기반 입력을 통해 입력을 수신할 수 있다. 이러한 경우, 입력 디바이스는 디스플레이 디바이스(218) 내에 통합될 수 있다. 또한, 전자 디바이스(106)는 터치 스크린 기반 디스플레이 디바이스(218)와는 별도로 제2 입력 디바이스를 포함할 수 있다.
동작시, 사용자(104)는, 전자 디바이스(106)의 이용에 의해 제1 위치(108a) 등의 초기 위치로부터 제1 물체(112)의 이미지 또는 비디오를 포착하기를 원할 수 있다. 제1 물체(112)는, 제1 위치(108a)의 전자 디바이스(106)의 제1 FOV(110a) 등의 하나 이상의 FOV 내에서 볼 수 있다. 한 실시예에 따르면, 제1 물체(112)의 적어도 일부는 제1 위치(108a)의 전자 디바이스(106)의 제1 FOV(110a)를 넘어 연장될 수 있다. UI 관리자(214)는, 포착된 기준 이미지 또는 비디오를 전자 디바이스(106)의 UI를 통해(예를 들어, 제1 UI(120a)를 통해) 사용자(104)에게 디스플레이하도록 구성될 수 있다. 또한, UI 관리자(214)는 포착된 기준 이미지 또는 비디오에 기초하여 복수의 입력 값을 제공하도록 사용자(104)에게 촉구할 수 있다.
한 실시예에 따르면, 이미지 처리 엔진(210)은 전자 디바이스(106)의 제1 UI(120a)를 통해 사용자(104)로부터 제1 복수의 입력 값을 수신하도록 구성될 수 있다. 제1 복수의 입력 값은 하나 이상의 기준 이미지 또는 비디오 내의 제1 복수의 경계 지점(114)을 포함할 수 있다. 제1 복수의 경계 지점(114)은, 제1 위치(108a)의 전자 디바이스(106)의 하나 이상의 기준 FOV(도 1에서는 제1 FOV(110a)로 도시됨) 내의 제1 물체(112)를 에워쌀 수 있다. 한 실시예에 따르면, 이미지 처리 엔진(210)은, (도 1에서 제2 위치(108b)로 도시된) 제2 위치 및 (도 1에서 제2 FOV(110b)로 도시된) 타겟 FOV를 결정하도록 구성될 수 있다. 제2 위치(108b) 및 제2 FOV(110b)은, 수신된 제1 복수의 경계 지점(114)에 기초하여 적어도 제1 물체(112)를 포함하는 하나 이상의 최종 이미지 또는 비디오를 포착하도록 결정될 수 있다.
한 실시예에 따르면, 하나 이상의 센서(216)는 하나 이상의 기준 이미지 또는 비디오가 포착될 때 센서 데이터를 생성할 수 있다. 이미지 처리 엔진(210)은 하나 이상의 센서(216)로부터 센서 데이터를 수신할 수 있다. 센서 데이터는, 이미지 포착 센서 데이터, 위치 센서 데이터, 배향 센서 데이터, 및/또는 속도/움직임 센서 데이터를 포함할 수 있지만, 이것으로 제한되는 것은 아니다. 그 후, 이미지 처리 엔진(210)은 센서 데이터에 기초하여 하나 이상의 파라미터를 결정할 수 있다. 하나 이상의 파라미터의 예로서는, 광의 방향, 하나 이상의 광원, 광의 강도, 제1 물체(112)가 제1 FOV(110a)에서 관찰될 때의 전자 디바이스(106)의 이동 각도, 제1 위치(108a)의 전자 디바이스(106)로부터의 제1 물체(112)의 거리, 및/또는 이미지 품질 임계 값이 포함될 수 있지만, 이것으로 제한되는 것은 아니다. 한 실시예에 따르면, 제2 위치(108b) 및 제2 FOV(110b)의 결정은 또한, 결정된 하나 이상의 파라미터에 기초할 수 있다.
한 실시예에 따르면, 이미지 처리 엔진(210)은, 하나 이상의 파라미터 및/또는 센서 데이터에 기초하여, 제1 물체(112)를 에워싸는 제1 복수의 경계 지점(114)을 결정하도록 구성될 수 있다. 이러한 경우에, 이미지 처리 엔진(210)은 사용자(104)로부터의 제1 복수의 입력 값의 수신을 요구하지 않을 수 있다. 대안으로서, UI 관리자(214)는, 이미지 처리 엔진(210)에 의해 결정된 제1 복수의 경계 지점(114)이 오버레이된 하나 이상의 기준 이미지 또는 비디오를 프리젠팅할 수 있다. 제1 복수의 경계 지점(114)이 오버레이된 하나 이상의 기준 이미지 또는 비디오는, 전자 디바이스(106)의 제1 UI(120a)를 통해 사용자(104)에게 프리젠팅될 수 있다. 사용자(104)는 제1 UI(120a)를 통해 제1 복수의 경계 지점(114)을 확정 또는 조정할 수 있다.
이미지 처리 엔진(210)은, 하나 이상의 파라미터 및/또는 센서 데이터에 기초하여, 제1 물체(112)가 제1 FOV(110a) 내에 완전히 또는 부분적으로 놓여 있는지를 결정하도록 구성될 수 있다. 제1 물체(112)가 제1 FOV(110a) 내에 완전히 놓여 있지 않은 경우, UI 관리자(214)는 제1 물체(112)의 일부의 포착과 연관된 임계 값을 제공하도록 사용자(104)에게 촉구할 수 있다. 이미지 처리 엔진(210)은, 사용자 정의된 임계 값에 기초하여, 제2 위치(108b) 및 제2 FOV(110b)를 결정할 수 있다. 예를 들어, 사용자(104)는, 제1 UI(120a)를 통해, "120 %" 등의 임계 값을 제공한다. 임계 값에 기초하여, 이미지 처리 엔진(210)은 배경 장면에 관한 포착된 이미지 또는 비디오의 백분율을 결정할 수 있다. 따라서, 임계 값 "120 %"에 기초하여, 제2 FOV(110b)는 배경 장면의 "20 %" 이상을 포함한다.
한 실시예에 따르면, 이미지 처리 엔진(210)은 또한, 제1 UI(120a)를 통해 제1 위치(108a)의 사용자(104)로부터 제2 복수의 입력 값을 수신하도록 구성될 수 있다. 수신된 제2 복수의 입력 값은, 제2 물체(116)를 에워쌀 수 있는 제2 복수의 경계 지점(118)을 포함할 수 있다. 한 실시예에 따르면, 이미지 처리 엔진(210)은, 제1 물체(112) 및 제2 물체(116) 양쪽 모두를 포함할 수 있는 최종 이미지 또는 비디오를 포착하기 위해 제2 위치(108b) 및 제2 FOV(110b)를 결정하도록 구성될 수 있다. 최종 이미지 또는 비디오의 이러한 결정은, 제1 물체(112)에 대한 수신된 제1 복수 경계 지점(114) 및 제2 물체(116)에 대한 수신된 제2 복수 경계 지점(118)에 기초할 수 있다.
한 실시예에 따르면, 이미지 처리 엔진(210)은, 제2 FOV(110b) 내의 제1 물체(112) 및/또는 제2 물체(116)의 일부를 포함하는 이미지 또는 비디오를 포착하기 위한 임계 값을 결정하도록 구성될 수 있다. 이미지 처리 엔진(210)은 하나 이상의 파라미터 및/또는 센서 데이터에 기초하여 임계 값을 결정할 수 있다. UI 관리자(214)는 제1 UI(120a)를 통해 사용자(104)에게 임계 값을 프리젠팅할 수 있다. 예를 들어, 제1 물체(112) 및 제2 물체(116)에 대해 결정된 임계 값은 각각 "100 %" 및 "120 %"이다. 이것은, 제2의 FOV(110b)에서 포착된 최종 이미지 또는 비디오가 배경 장면에 관한 제1 물체(112)의 "100 %" 및 제2 물체(116)의 "120 %"를 에워쌀 수 있다는 것을 나타낼 수 있다.
한 실시예에 따르면, 제1 물체(112) 및/또는 제2 물체(116)는 움직이는 중일 수 있다. 이미지 처리 엔진(210)은, 센서 데이터 및/또는 하나 이상의 파라미터에 기초하여, 제1 물체(112) 및/또는 제2 물체(116)가 움직이는 중인지를 결정하도록 구성될 수 있다. 그 다음, 이미지 처리 엔진(210) 및/또는 추천 엔진(212)은, 제1 물체(112) 및/또는 제2 물체(116)를 포착하기에 적합한 하나 이상의 이미지 포착 모드의 추천을 생성할 수 있다. UI 관리자(214)는 전자 디바이스(106)의 제2 UI(120b)를 통해 사용자(104)에게 추천된 이미지 포착 모드를 프리젠팅할 수 있다. 하나 이상의 이미지 포착 모드의 예로서는 전체 해상도 이미지 모드, 임계 해상도 이미지 모드, 파노라마 이미지 모드, 및/또는 비디오 모드가 포함될 수 있지만, 이것으로 제한되는 것은 아니다. 한 실시예에 따르면, 사용자(104)에게 추천되는 이미지 포착 모드는, 제1 물체(112) 및/또는 제2 물체(116)가 움직이는 중일 때 비디오 모드에 대응할 수 있다.
한 실시예에 따르면, 추천 엔진(212)은, 사용자(104)가 관심대상 장면(102)의 지리적 영역 내의 제1 물체(112) 등의 하나 이상의 물체의 이미지 또는 비디오를 포착하는 것을 보조하기 위해 하나 이상의 추천을 생성하도록 구성될 수 있다. 한 실시예에 따르면, 추천 엔진(212)은 하나 이상의 센서(216)로부터 센서 데이터를 실시간으로 수신할 수 있다. 그 후, 추천 엔진(212)은, 지리적 영역 내의 (전자 디바이스(106)의 사용자 등의) 사용자(104)의 제1 위치(108a) 등의 현재 위치와 제2 위치(108b) 사이의 하나 이상의 경로를 센서 데이터에 기초하여 결정할 수 있다. 예를 들어, 추천 엔진(212)은 이미지 처리 엔진(210)으로부터 제2 위치(108b)의 위치 좌표를 수신할 수 있다. 또한, 추천 엔진(212)은, 위치 센서 등의 하나 이상의 센서(216)로부터 (전자 디바이스(106)의 사용자 등의) 사용자(104)의 현재 위치의 위치 좌표를 수신할 수 있다. 그 후, 추천 엔진(212)은, 2개 위치의 각각의 위치 좌표에 기초하여, 현재 위치와 제2 위치(108b) 사이의 하나 이상의 경로를 결정할 수 있다. 한 실시예에 따르면, 추천 엔진(212)은, 결정된 하나 이상의 경로에 기초하여 사용자(104)를 제2 위치(108b)로 안내하기 위한 표시자(이하, 서로 바꾸어 부를 수 있는 "안내 표시자")의 디스플레이를 제어하도록 구성될 수 있다. 안내 표시자는, 제2 FOV(110b) 내의 (제1 물체(112) 등의) 하나 이상의 물체의 이미지 또는 비디오의 포착을 가능하게 할 수 있다. UI 관리자(214)는 추천 엔진(212)에 의해 제어되는 안내 표시자를 제2 UI(120b)를 통해 사용자(104)에게 프리젠팅할 수 있다. 예를 들어, 사용자(104)의 현재 위치와 제2 위치(108b) 사이의 경로는, 사용자(104)가 "우측으로 3 피트" 및 "후방으로 6 피트" 이동할 것을 요구할 수 있다. 안내 표시자는 사용자(104)가 그에 따라 이동하도록 지시할 수 있다. 하나 이상의 센서(216)는, 사용자(104)가 실시간으로 제2 위치(108b)를 향해 이동함에 따라 사용자(104)(및 전자 디바이스(106))의 위치를 모니터링할 수 있다. 추천 엔진(212)은, 사용자(104)의 모니터링된 위치에 기초하여, 사용자(104)가 제2 위치(108b)를 향해 이동함에 따라 제2 위치(108b)로의 업데이트된 경로를 결정할 수 있다. 안내 표시자가 그에 따라 업데이트될 수 있다. 예를 들어, 사용자(104)가 사용자(104)의 이전 위치로부터 "우측으로 3 피트" 및 "후방으로 5 피트" 이동한 경우, 안내 표시자는 사용자(104)가 추가로 "후방으로 1 피트" 이동하여 제2 위치(108b)에 도달할 것을 지시할 수 있다.
한 실시예에 따르면, 추천 엔진(212)은 이미지 처리 엔진(210)으로부터 지리적 영역 내의 하나 이상의 다른 제2 위치의 위치 좌표를 수신하도록 구성될 수 있다. 하나 이상의 다른 제2 위치는, 제1 물체(112) 등의 하나 이상의 물체의 이미지 또는 비디오를 포착하기 위한 제2 위치(108b) 이외에 다른 최적의 위치에 대응할 수 있다. 한 실시예에 따르면, 추천 엔진(212)은, 사용자(104)의 현재 위치와 하나 이상의 다른 제2 위치들 각각 사이의 하나 이상의 경로를 결정하도록 구성될 수 있다. UI 관리자(214)는, 하나 이상의 다른 제2 위치들 및/또는 현재 위치와 하나 이상의 다른 제2 위치들 각각 사이에서 결정된 하나 이상의 경로의 추천을 제2 UI(120b)를 통해 사용자(104)에게 프리젠팅할 수 있다. UI 관리자(214)는 하나 이상의 다른 제2 위치들 중 하나 및/또는 제2 위치(108b) 중에서 선택하도록 사용자(104)에게 촉구할 수 있다. 추천 엔진(212)은, 사용자(104)에 의해 선택된 위치 및 사용자(104)의 현재 위치에 기초하여 실시간으로 안내 표시자를 업데이트할 수 있다. 예를 들어, (제2 위치(108b) 등의) 제1 물체(112)의 이미지 또는 비디오를 포착하기 위한 최상의 위치는 사용자(104)가 도달할 수 없다. 이러한 시나리오에서, 사용자(104)는 제1 물체(112)의 이미지 또는 비디오를 포착하도록 추천된 다른 제2 위치들 중 하나를 선택할 수 있다. 안내 표시자는 사용자(104)가 사용자(104)에 의해 선택된 다른 제2 위치에 도달하도록 보조할 수 있다.
한 실시예에 따르면, 추천 엔진(212)은 또한, 제2 FOV(110b) 내의 결정된 제2 위치(108b)에서 (예를 들어, 제1 물체(112) 등의) 하나 이상의 물체의 이미지 또는 비디오를 포착하기 위해 하나 이상의 설정 파라미터를 결정하도록 구성될 수 있다. 추천 엔진(212)은, 이미지 처리 엔진(210)에 의해 결정된 하나 이상의 파라미터 및/또는 센서 데이터에 기초하여, 하나 이상의 설정 파라미터를 결정할 수 있다. 하나 이상의 설정 파라미터는, 하나 이상의 센서(216)로부터 이미지 포착 센서의 하나 이상의 기능 및/또는 동작 양태를 구성하는데 이용될 수 있다. UI 관리자(214)는, 전자 디바이스(106)의 제2 UI(120b)를 통해, 사용자(104)에 대한 추천으로서 결정된 하나 이상의 설정 파라미터를 제공할 수 있다. 사용자(104)는, 추천된 하나 이상의 설정 파라미터에 기초한 입력을 제2 UI(120b)를 통해 제공할 수 있다. 이미지 포착 센서 등의 하나 이상의 센서(216)는, 각각의 설정 파라미터에 대해 수신된 사용자 입력에 기초하여 그 설정 파라미터들의 값을 조정할 수 있다. 하나 이상의 설정 파라미터의 예로서는, 조리개 설정, ISO 감도, 자동 노출, 자동 초점, 자동 화이트 밸런스, 및/또는 자동 조명이 포함될 수 있지만, 이것으로 제한되는 것은 아니다. 본 기술분야의 통상의 기술자라면, 본 개시내용의 범위는 추천 엔진(212)에 의한 하나 이상의 설정 파라미터의 결정으로 제한되어서는 안 된다는 것을 이해할 것이다. 한 실시예에 따르면, 이미지 처리 엔진(210)은 본 개시내용의 범위를 벗어나지 않고 하나 이상의 설정 파라미터를 결정하도록 구성될 수 있다.
본 개시내용의 다양한 실시예는 다수의 이점을 포함할 수 있다. 전술된 바와 같이, 전자 디바이스(106)는 제1 물체(112)의 이미지 또는 비디오를 포착하기에 적합할 수 있는 제2 위치(108b) 및 제2 FOV(110b)를 결정할 수 있다. 제2 위치(108b)에서 포착된 제1 물체(112)의 이미지 또는 비디오는, 제1 위치(108a)에서 포착된 제1 물체(112)의 이미지 또는 비디오보다 양호한 품질을 가질 수 있다. 이것은, 하나 이상의 파라미터에 기초하여, 제2 위치(108b)가 제1 위치(108a)에 비해 이미지 또는 비디오의 포착이 대해 더 적합하기 때문일 수 있다.
또한, 논의된 바와 같이, 전자 디바이스(106)는 사용자(104)의 현재 위치로부터 제2 위치(108b)를 발견하기 위해 사용자(104)에게 안내를 제공할 수 있다. 사용자(104)는 실시간 방향의 이용에 의해 제2 위치(108b)에 도달할 수 있다. 또한, 사용자(104)가 제2 위치(108b)를 찾을 수 없는 경우, 전자 디바이스(106)는 제1 물체(112)의 이미지 또는 비디오의 포착을 위해 제2 위치에 대한 대체 추천을 사용자(104)에게 제공할 수 있다. 또한, 전자 디바이스(106)는 전자 디바이스(106)의 이미지 포착 센서의 적절한 구성을 위해 사용자(104)에게 하나 이상의 설정 파라미터의 추천을 제공할 수 있다.
도 3은, 본 개시내용의 한 실시예에 따른, 관심대상 장면의 하나 이상의 물체를 에워쌀 수 있는 복수의 경계 지점을 선택하기 위한 예시적인 시나리오를 나타낸다. 도 3은 도 2의 요소들과 연계하여 설명된다. 도 3을 참조하면, 시나리오 도면(300)이 도시되어 있다. 시나리오 도면(300)은, 사용자(104), 전자 디바이스(106), 관심대상 장면(302), 상단 경계 지점(304a), 좌측 경계 지점(304b), 우측 경계 지점(304c), 하단 경계 지점(304d), 상단 기준 이미지(306a), 좌측 기준 이미지(306b), 우측 기준 이미지(306c), 하단 기준 이미지(306d), 타겟 기준 이미지(308), 제1 세트의 경계 지점(310), 및 제2 세트의 경계 지점(312)을 포함한다.
동작시에, 전자 디바이스(106)의 UI 관리자(214)는, 사용자(104)에게, 제1 UI(120a)를 통해, 관심대상 장면(302)에서 하나 이상의 관심대상 물체를 에워싸는 하나 이상의 기준 이미지를 포착하도록 촉구할 수 있다. 사용자(104)는 전자 디바이스(106)를 이용하여 관심대상 장면(302)에서 하나 이상의 관심대상 물체의 상단 부분을 포함할 수 있는 상단 기준 이미지(306a)를 포착할 수 있다. 마찬가지로, 사용자(104)는, 전자 디바이스(106)의 이용에 의해, 각각, 하나 이상의 관심대상 물체의 좌측 부분 및 우측 부분을 포함할 수 있는 좌측 기준 이미지(306b) 및 우측 기준 이미지(306c)를 포착할 수 있다. 또한, 사용자(104)는, 전자 디바이스(106)의 이용에 의해, 하나 이상의 관심대상 물체의 하단 부분을 포함할 수 있는 하단 기준 이미지(306d)를 포착할 수 있다. 전자 디바이스(106)의 이미지 처리 엔진(210)은, 상단 기준 이미지(306a)가 포착될 때, 전자 디바이스(106)의 하나 이상의 센서(216)로부터 수신된 센서 데이터에 기초하여 상단 경계 지점(304a)을 결정할 수 있다. 또한, 이미지 처리 엔진(210)은, 기준 이미지(306b, 306c, 및 306d)가 각각 포착될 때, 하나 이상의 센서(216)로부터 수신된 센서 데이터에 기초하여 경계 지점(304b, 304c 및 304d)을 결정할 수 있다.
예를 들어, 위치 센서는, 306a 내지 306d 등의 기준 이미지들 각각이 전자 디바이스(106)에 의해 포착될 때, 전자 디바이스(106)의 X, Y 및 Z 축 좌표를 결정할 수 있다. 또한, 배향 센서는, 306a 내지 306d 등의 기준 이미지들 각각이 전자 디바이스(106)에 의해 포착될 때, 전자 디바이스(106)의 배향 각도를 결정할 수 있다. 이미지 처리 엔진(210)은 하나 이상의 삼각측량 추정을 적용하여 전자 디바이스(106)로부터의 하나 이상의 관심대상 물체의 거리를 결정할 수 있다. 또한, 이미지 처리 엔진(210)은, 하나 이상의 삼각측량 추정치에 기초하여, 관심대상 장면(302) 내에서 하나 이상의 관심대상 물체의 치수를 결정할 수 있다.
본 기술분야의 통상의 기술자라면, 본 개시내용의 범위는, 304a, 304b, 및 304c, 및 304d 등의 4개의 경계 지점을 결정하기 위한 306a 내지 306d 등의 기준 이미지의 포착으로 제한되어서는 안 된다는 것을 이해할 것이다. 한 실시예에 따르면, 사용자(104)는 전자 디바이스(106)를 이용하여 관심대상 장면(302)에서 하나 이상의 관심대상 물체의 수직 범위 및 수평 범위를 스캔할 수 있다. 예를 들어, 사용자(104)는 전자 디바이스(106)를 이동시켜 하나 이상의 관심대상 물체의 수직 범위의 연속적 이미지 또는 비디오를 상단으로부터 하단으로 또는 그 반대로 포착할 수 있다. 유사하게, 사용자(104)는 전자 디바이스(106)를 좌측에서 우측으로 또는 그 반대로 이동시켜 하나 이상의 관심대상 물체의 수평 범위의 연속적인 이미지 또는 비디오를 포착할 수 있다. 이미지 처리 엔진(210)은, 하나 이상의 관심대상 물체의 수직 범위의 연속적인 이미지 또는 비디오에 기초하여, 각각 상단 및 하단 경계 지점(304a 및 304d)을 결정할 수 있다. 또한, 이미지 처리 엔진(210)은, 하나 이상의 관심대상 물체의 수평 범위의 연속적인 이미지 또는 비디오에 기초하여, 각각, 좌측 및 우측 경계 지점(304b 및 304c)을 결정할 수 있다. 또 다른 실시예에 따르면, 사용자(104)는 전자 디바이스(106)를 이용하여 하나 이상의 관심대상 물체의 하나 이상의 대각선 범위의 연속 이미지 또는 비디오를 포착할 수 있다. 이미지 처리 엔진(210)은, 하나 이상의 대각 범위의 연속인 이미지 또는 비디오에 기초하여, 304a 내지 304d 등의 4개의 경계 지점을 결정할 수 있다.
한 실시예에 따르면, 이미지 처리 엔진(210)은 4개의 경계 지점(304a 내지 304d)을 결정하기 위해 포착될 수 있는 이미지들의 조합에 의해 타겟 기준 이미지(308)를 생성할 수 있다. 타겟 기준 이미지(308)를 생성하기 위해 결합된 이미지들의 예로서는, 기준 이미지들(306a 내지 306d); 및/또는 하나 이상의 관심대상 물체의 수직, 수평, 및/또는 하나 이상의 대각선 범위의 스캔을 포함하는 이미지가 포함될 수 있다. 이미지 처리 엔진(210)은, 4개의 경계 지점(304a 내지 304d) 및/또는 센서 데이터에 기초하여 하나 이상의 관심대상 물체를 에워쌀 수 있는 제1 세트의 경계 지점(310)을 결정할 수 있다. 또한, UI 관리자(214)는, 전자 디바이스(106)의 제1 UI(120a)를 통해, 타겟 기준 이미지(308)에 오버레이된 제1 세트의 경계 지점(310)을 사용자(104)에게 프리젠팅할 수 있다. 한 실시예에 따르면, 사용자(104)는 제2 세트의 경계 지점(312)으로의 제1 세트의 경계 지점(310)의 수정을 위한 입력을 제공할 수 있다. 예를 들어, 사용자(104)는 제1 세트의 경계 지점(310)을 제2 세트의 경계 지점(312)으로 변경하기 위해 전자 디바이스(106)의 터치 스크린 상에서 꼬집기, 줌, 또는 팬닝(pan)할 수 있다. 한 실시예에 따르면, 이미지 처리 엔진(210)은 제2 세트의 경계 지점(312) 내의 하나 이상의 물체를 에워싸는 최종 이미지 또는 비디오를 포착하기에 적합할 수 있는 타겟 위치 및 타겟 FOV를 결정할 수 있다.
도 4는, 본 개시내용의 실시예에 따른, 관심대상 장면 내의 적어도 하나의 동적 물체 및 하나 이상의 정적 물체에 대한 복수의 경계 지점을 선택하기 위한 예시적인 시나리오를 나타낸다. 도 4는 도 2의 요소들과 연계하여 설명된다. 도 4를 참조하면, 시나리오 도면(400)이 도시되어 있다. 시나리오 도면(400)은, 사용자(104), 전자 디바이스(106), 관심대상 장면(402), 제1 물체(404a), 제2 물체(404b), 제3 물체(404c), 제1 복수의 경계 지점(406a), 제2 복수의 경계 지점(406b), 제3 복수 경계 지점(406c), 방향 벡터(408), 제1 이미지(410), 및 제2 이미지(412)를 포함한다.
동작시에, 사용자(104)는 전자 디바이스(106)를 이용하여 관심대상 장면(402)에서 하나 이상의 관심대상 물체의 하나 이상의 기준 이미지 또는 비디오를 포착할 수 있다. 예를 들어, 사용자(104)는, 제1 물체(404a), 제2 물체(404b), 및 제3 물체(404c)를 에워쌀 수 있는 하나 이상의 기준 이미지 또는 비디오를 포착할 수 있다. UI 관리자(214)는, 사용자(104)에게, 제1 UI(120a)를 통해 하나 이상의 기준 이미지 또는 비디오에서 포착된 하나 이상의 관심대상 물체 각각을 에워싸는 복수의 경계 지점을 나타내는 입력을 제공하도록 촉구할 수 있다. 사용자(104)는 포착된 하나 이상의 기준 이미지 또는 비디오에 기초하여 이러한 복수의 경계 지점을 나타내는 입력을 제공할 수 있다. 예를 들어, 사용자(104)는 제1 물체(404a)를 에워싸는 복수의 경계 지점으로서 제1 복수의 경계 지점(406a)을 선택할 수 있다. 또한, 사용자(104)는, 각각, 제2 물체(404b) 및 제3 물체(404c)에 대한 제2 복수의 경계 지점(406b) 및 제3 복수 경계 지점(406c)을 선택할 수 있다. 또 다른 실시예에 따른, 이미지 처리 엔진(210)은, 센서 데이터 및/또는 하나 이상의 파라미터에 기초하여, 하나 이상의 관심대상 물체를 에워싸는 복수의 경계 지점을 결정할 수 있다. 이러한 경우에, 복수의 경계 지점의 선택은 사용자 입력없이 수행될 수 있다. 대안으로서, 사용자(104)는 이미지 처리 엔진(210)에 의해 결정된 복수의 경계 지점을 확인 또는 수정하는 입력을 제공할 수 있다.
한 실시예에 따르면, 하나 이상의 관심대상 물체 중 적어도 하나는 움직이는 중인 반면 다른 관심대상 물체는 정지상태일 수 있다. 예를 들어, 제2 물체(404b)는, 움직이는 중에 있는 인간 피사체에 대응할 수 있다. 제2 물체(404b)는 관심대상 장면(402)을 가로질러 우측에서 좌측으로 등의 방향(408)으로 이동할 수 있다. 또한, 제1 물체(404a) 및 제3 물체(404c)는 정적인 건물 또는 인공물에 대응할 수 있다. 한 실시예에 따르면, 이미지 처리 엔진(210)은, 복수의 경계 지점, 센서 데이터, 및/또는 하나 이상의 파라미터에 기초하여, 하나 이상의 관심대상 물체를 에워싸는 이미지 또는 비디오를 포착하기에 적합할 수 있는 타겟 위치 및 타겟 FOV를 결정할 수 있다. 추천 엔진(212)은, 사용자(104)가 결정된 위치에 도달하는 것을 보조하기 위해, 제2 UI(120b)를 통해 사용자(104)에게 디스플레이될 안내 표시자를 생성할 수 있다.
예를 들어, 안내 표시자는, 제1 물체(404a), 제2 물체(404b), 및 제3 물체(404c)를 에워쌀 수 있는 제1 이미지(410)를 포착하기 위해 특정한 위치로 이동하라는 추천을 사용자(104)에게 제공할 수 있다. 사용자(104)가 그 위치로 이동할 수 없는 시나리오에서, 안내 표시자는 제1 이미지(410)를 포착하기 위한 또 다른 적절한 위치를 추천할 수 있다. 또한, 하나 이상의 센서(216)는 하나 이상의 관심대상 물체의 위치의 변화를 모니터링하고 센서 데이터를 실시간으로 업데이트할 수 있다. 대안으로, 또는 상기에 추가하여, 사용자(104)는, 소정 물체를, 관심대상 장면(402) 내에서 움직일 수 있는 주요 물체(예를 들어, 제2 물체(404b))로서 식별하기 위한 입력을 제공할 수 있다. 한 실시예에 따르면, UI 관리자(214)는, (제2 물체(404b) 등의 주요 물체와 같은) 관심대상 물체가 움직일 때, 제2 UI(120b)를 통해 사용자(104)에게 통보할 수 있다. 한 실시예에 따르면, 이미지 처리 엔진(210)은 하나 이상의 관심대상 물체의 후속 이미지 또는 비디오를 포착하기에 적합할 수 있는 타겟 위치 및 연관된 FOV를 결정할 수 있다.
예를 들어, 사용자(104)는 안내 표시자의 도움으로 제1 이미지(410)를 포착하기 위해 제1 시점에서 특정한 위치에 도달할 수 있다. 제1 이미지(410)는, 제2 물체(404b) 등의 적어도 하나의 동적 물체를 포함할 수 있다. 하나 이상의 센서(216)는 제2 물체(404b)의 움직임을 검출할 수 있다. 그 후, 안내 표시자는 사용자(104)가 제2 물체(404b)의 최종 이미지를 포착하기에 적합할 수 있는 타겟 위치를 찾도록 보조할 수 있다. 사용자(104)는, 전자 디바이스(106)의 이용에 의해 제2 이미지(412) 등의 최종 이미지를 포착하기 위해, 안내 표시자의 도움으로 타겟 위치에 도달할 수 있다. 명백한 바와 같이, 제2 물체(404b)는, 제1 이미지(410) 및 제2 이미지(412)의 포착 사이의 시간 간격에서 관심대상 장면(402)의 좌측(408로 도시된 방향으로)으로 이동할 수 있다.
한 실시예에 따르면, 추천 엔진(212)은, 제2 UI(120b)를 통해, 사용자(104)에게 하나 이상의 이미지 포착 모드의 추천을 제공할 수 있다. 한 실시예에 따르면, 추천 엔진(212)은, 관심대상 물체들 중 하나가 움직이는 중일 수 있고 다른 관심대상 물체(정적 물체)가 단일 이미지에서 완전히 포착되지 않을 때, 비디오 모드 또는 파노라마 이미지 모드를 추천할 수 있다. 사용자(104)는, 추천에 기초하여, 제1 물체(404a) 및 제3 물체(404c) 등의 하나 이상의 정적 물체, 및 제2 물체(404b) 등의 적어도 하나의 동적 물체를 포함하는 비디오를 포착할 수 있다. 예를 들어, 제1 이미지(410) 및 제2 이미지(412)는 포착된 비디오의 후속 프레임에 대응할 수 있다.
한 실시예에 따르면, 추천 엔진(212)은 또한, 다른 관심대상 물체들 각각의 적어도 미리결정된 부분과 함께 동적 물체의 포착을 가능하게 할 수 있는 임계 이미지 모드를 추천할 수 있다. 이러한 시나리오에서, 이미지 처리 엔진(210)은 임계 이미지 모드에서 이미지를 포착하기에 적합할 수 있는 위치 및 FOV를 결정할 수 있다. 안내 표시자는 사용자(104)가 이러한 위치를 찾도록 보조할 수 있다.
도 5는, 본 개시내용의 한 실시예에 따른, 전자 디바이스의 이용에 의한 이미지 또는 비디오 포착에서 사용자를 보조하는 제1 예시적인 시나리오를 나타낸다. 도 5는 도 2의 요소들과 연계하여 설명된다. 도 5를 참조하면, 시나리오 도면(500)이 도시되어 있다. 시나리오 도면(500)은, 사용자(104), 전자 디바이스(106), 관심대상 장면(502), 현재 위치(504a), 타겟 위치(504b), (현재 FOV(506a)로 도시된) 전자 디바이스(106)의 하나 이상의 FOV, (타겟 FOV(506b)로 도시된) 전자 디바이스(106)의 타겟 FOV, 제1 물체(508), 제1 물체(508)를 에워싸는 제1 복수의 경계 지점(512), 및 (태양 등의) 광원(512)을 포함한다.
동작시에, 사용자(104)가 현재 위치(504a)에 위치할 때, 사용자(104)는 제1 물체(508)의 하나 이상의 기준 이미지 또는 비디오를 포착할 수 있다. 전자 디바이스(106)의 UI 관리자(214)는, 포착된 하나 이상의 기준 이미지 또는 비디오에 기초하여, 제1 UI(120a)를 통해 제1 복수의 입력 값을 제공하도록 사용자(104)에게 촉구할 수 있다. 사용자(104)는, 전자 디바이스(106)의 제1 UI(120a)를 통해, 제1 복수의 입력 값을 제공할 수 있다. 한 실시예에 따르면, 사용자(104)에 의해 제공된 제1 복수의 입력 값은, 현재 FOV(506a) 내의 제1 물체(508)를 에워싸는 제1 복수의 경계 지점(510)의 표시를 포함할 수 있다.
한 실시예에 따르면, 전자 디바이스(106)의 하나 이상의 센서(216)는 센서 데이터 및 하나 이상의 파라미터를 결정하도록 구성될 수 있다. 예를 들어, 하나 이상의 센서(216) 중의 광 센서는 광원(512)으로부터 방출된 광의 방향 및 강도를 결정할 수 있다. 또한, 광 센서는, 관심대상 장면(502)이 광원(512) 이외에 다른 광원을 포함하는지를 결정할 수 있다. 유사한 방식으로, 광 센서는 이러한 모든 광원으로부터 방출된 광의 방향 및 강도를 결정할 수 있다. 또한, 광 센서는 또한, 관심대상 장면(502)이 음영의 하나 이상의 영역을 포함하는지를 결정할 수 있다. 따라서, 이미지 처리 엔진(210)은, 센서 데이터 및 광 센서 등의 하나 이상의 센서(216)에 의해 결정된 하나 이상의 파라미터에 기초하여, 전자 디바이스(106)에 대한 타겟 위치(504b) 및 타겟 FOV(506b)를 결정할 수 있다. 추천 엔진(212)은, 타겟 FOV(506b) 내의 제1 물체(508)의 최종 이미지 또는 비디오를 포착하기 위해 사용자(104)가 타겟 위치(504b)를 찾게끔 보조하도록 제2 UI(120b) 상에 디스플레이된 안내 표시자를 제어할 수 있다.
예를 들어, 광원(512)은 밝을 수 있고 광원(512)에 의해 방출되는 광의 방향은 현재 FOV(506a) 내에 있을 수 있다. 이러한 경우에, 이미지 처리 엔진(210)은 타겟 위치(504b)를 광원(512)으로부터의 광의 더 낮은 강도에 영향을 받는 위치로서 결정할 수 있다. 또한, 이미지 처리 엔진(210)은 타겟 FOV(506b)를 광원(512)에 의해 방출된 광의 방향으로부터 멀리 떨어진 영역을 에워쌀 수 있는 FOV로서 결정할 수 있다. 다른 시나리오에서, 광원(512)은 매우 밝지 않을 수 있고, 관심대상 장면(502)은 희미한 광의 장면일 수 있다. 이러한 경우에, 이미지 처리 엔진(210)은 제2 위치(504b)를 양호한 조명 조건을 갖는 위치로서 결정할 수 있다. 또한, 이미지 처리 엔진(210)은, 제2 위치(504b)에서 제1 물체(508)의 이미지 또는 비디오를 효과적으로 포착하기 위해 플래시의 이용에 대한 추천을 생성할 수 있다. 본 기술분야의 통상의 기술자라면, FOV 내의 고강도 광원 및 음영 영역의 존재는 포착된 이미지 또는 비디오의 높은 동적 범위 및 콘트라스트 때문에 그 FOV에서 포착된 이미지 또는 비디오의 품질을 저하시킬 수 있다는 것을 이해할 것이다. 반면에, FOV 내의 낮은 조명 조건도 역시, 포착된 이미지 또는 비디오의 낮은 동적 범위 및 콘트라스트 때문에 FOV에서 포착된 비디오의 이미지 품질을 저하시킬 수 있다. 따라서, 제2 위치(504b)에서 제1 물체(508)의 최종 이미지 또는 비디오를 포착하기 위해 이미지 처리 엔진(210)에 의해 생성된 추천은 사용자(104)가 부적절한 조명 조건 하에서 최적의 샷을 포착하는 것을 보조할 수 있다.
도 6은, 본 개시내용의 한 실시예에 따른, 전자 디바이스의 이용에 의한 이미지 또는 비디오 포착에서 사용자를 보조하는 제2 예시적인 시나리오를 나타낸다. 도 6은 도 2의 요소들과 연계하여 설명된다. 도 6을 참조하면, 시나리오 도면(600)이 도시되어 있다. 시나리오 도면(600)은, 사용자(104), 전자 디바이스(106), 관심대상 장면(602), 현재 위치(604a), 타겟 위치(604b), 전자 디바이스(106)의 현재의 FOV(606a) 및 타겟 FOV(606b) 등의 전자 디바이스(106)의 하나 이상의 FOV, 기준 이미지(608), 제1 임계 이미지(610) 및 제2 임계 이미지(612)를 포함한다.
동작시에, 사용자(104)는 전자 디바이스(106)의 이용에 의해 현재 위치(604a)에서 기준 이미지(608)를 포착할 수 있다. 한 실시예에 따르면, 기준 이미지(608)는 현재 위치(604a)의 전자 디바이스(106)의 현재 FOV(606a) 내에서 포착될 수 있다. UI 관리자(214)는, 제1 UI(120a)를 통해 기준 이미지(608)에 기초하여 이미지 또는 비디오의 포착에 관련된 임계 값을 제공하도록 사용자(104)에게 촉구할 수 있다. 한 실시예에 따른, 임계 값은 포착될 이미지 또는 비디오 내의 배경에 대한 기준 이미지(608) 내의 배경의 비율에 대응할 수 있다. 그 다음, 사용자(104)는 제1 UI(120a)를 통해 임계 값을 나타내는 입력을 제공할 수 있다.
한 실시예에 따르면, 이미지 처리 엔진(210)은 하나 이상의 센서(216)로부터 센서 데이터를 수신할 수 있다. 또한, 이미지 처리 엔진(210)은 센서 데이터에 기초하여 하나 이상의 파라미터를 결정할 수 있다. 하나 이상의 파라미터의 예로서는, 광의 방향, 하나 이상의 광원, 광의 강도, 물체가 현재 FOV(606a)에서 관찰될 때의 전자 디바이스(106)의 이동 각도, 현재 위치(604a)의 전자 디바이스(106)로부터의 물체의 거리, 및/또는 이미지 품질 임계 값이 포함될 수 있지만, 이것으로 제한되는 것은 아니다. 이미지 처리 엔진(210)은 사용자(104)에 의해 제공된 임계 값 및 하나 이상의 파라미터에 기초하여 타겟 위치(604b) 및 타겟 FOV(606b)를 결정할 수 있다. 한 실시예에 따르면, 추천 엔진(212)은, 타겟 FOV(606b)에서 임계 이미지 또는 비디오를 포착하기 위해 사용자(104)가 타겟 위치(604b)를 찾게끔 보조하도록 제2 UI(120b) 상에 디스플레이된 안내 표시자를 제어할 수 있다.
예를 들어, 기준 이미지(608)는 "100 퍼센트" 등의 임계 값에 대응할 수 있다. 반면, 제1 임계 이미지(610) 및 제2 임계 이미지(612)는 각각 "120 %" 및 "150 %" 등의 임계 값에 대응할 수 있다. 따라서, 제1 임계 이미지(610)는 기준 이미지(608)에 관해 "20 퍼센트"의 추가 배경을 포함할 수 있다. 마찬가지로, 제2 임계 이미지(612)는 기준 이미지(608)에 관해 "50 %"의 추가 배경을 포함할 수 있다. 사용자(104)가 "120 %" 등의 임계 값을 제공하는 시나리오에서, 안내 표시자는, 전자 디바이스(106)의 연관된 타겟 FOV(606b)에서 제1 임계 이미지(610)를 포착하기에 적합한 타겟 위치(604b)로 사용자(104)를 안내할 수 있다. 마찬가지로, 사용자(104)가 "150 %" 등의 임계 값을 제공한다면, 사용자(104)는, 전자 디바이스(106)의 연관된 타겟 FOV(606b)에서 제2 임계 이미지(612)를 포착하기에 적합할 수 있는 타겟 위치(604b)로 안내받을 수 있다.
도 7은, 본 개시내용의 한 실시예에 따른, 관심대상 장면의 파노라마 이미지의 포착에 있어서 사용자를 안내하기 위한 예시적인 시나리오를 나타낸다. 도 7은 도 2의 요소들과 연계하여 설명된다. 도 7을 참조하면, 시나리오 도면(700)이 도시되어 있다. 시나리오 도면(700)은, 사용자(104), 전자 디바이스(106), 관심대상 장면(702), 제1 물체(704a), 제2 물체(704b), 제3 물체(704c), 제1 복수의 경계 지점(706a), 제2 복수의 경계 지점(706b), 제3 복수 경계 지점(706c), 파노라마 이미지(708), 및 스캔 방향(710)을 포함한다.
동작시에, 사용자(104)는 전자 디바이스(106)를 이용하여 관심대상 장면(702)에서 하나 이상의 관심대상 물체의 하나 이상의 기준 이미지 또는 비디오를 포착할 수 있다. UI 관리자(214)는, 사용자(104)에게, 제1 UI(120a)를 통해 하나 이상의 기준 이미지 또는 비디오에서 포착된 하나 이상의 관심대상 물체 각각을 에워싸는 복수의 경계 지점을 나타내는 입력을 제공하도록 촉구할 수 있다. 사용자(104)는 포착된 하나 이상의 기준 이미지 또는 비디오에 기초하여 이러한 복수의 경계 지점을 나타내는 입력을 제공할 수 있다. 예를 들어, 사용자(104)는 제1 물체(704a)를 에워싸는 복수의 경계 지점으로서 제1 복수의 경계 지점(706a)을 선택할 수 있다. 또한, 사용자(104)는, 각각, 제2 물체(704b) 및 제3 물체(704c)에 대한 제2 복수의 경계 지점(706b) 및 제3 복수 경계 지점(706c)을 선택할 수 있다. 또 다른 실시예에 따른, 이미지 처리 엔진(210)은, 센서 데이터 및/또는 하나 이상의 파라미터에 기초하여, 하나 이상의 관심대상 물체를 에워싸는 복수의 경계 지점을 결정할 수 있다. 이러한 경우에, 복수의 경계 지점의 선택은 임의의 사용자 입력없이 수행될 수 있다. 대안으로서, 사용자(104)는 이미지 처리 엔진(210)에 의해 결정된 복수의 경계 지점을 확인 또는 수정하는 입력을 제공할 수 있다.
한 실시예에 따르면, 이미지 처리 엔진(210)은, 센서 데이터, 하나 이상의 파라미터, 및/또는 706a, 706b 및 706c 등의 각각의 관심대상 물체의 복수의 경계 지점에 기초하여, 하나 이상의 위치 및 연관된 타겟 FOV를 결정할 수 있다. 하나 이상의 위치는, 연관된 타겟 FOV 내의 물체들(704a, 704b, 및 704c)을 포함하는 이미지 또는 비디오를 포착하기에 적합할 수 있다. 또한, 이미지 처리 엔진(210)은, 하나 이상의 관심대상 물체 각각이 하나 이상의 위치에서 포착된 단일 이미지에 포함될 수 있는지를 결정할 수 있다. 이미지 처리 엔진(210), 또는 추천 엔진(212)은, 단일 이미지가 그 전체의 모든 관심대상 물체를 포함하지 못할 수도 있을 때, 파노라마 이미지 모드에서 이미지를 포착하기 위한 추천을 생성할 수 있다. UI 관리자(214)는 제2 UI(120b)를 통해 사용자(104)에게 이러한 추천을 표시할 수 있다. 그 후, 사용자(104)는, 추천에 기초하여, 전자 디바이스(106)의 이용에 의해 파노라마 이미지(708)를 포착할 수 있다. 한 실시예에 따르면, 사용자(104)는, (스캔 방향(710)에 의해 표시된) 좌측에서 우측으로 관심대상 장면(702)의 수평 범위의 포착에 의해 파노라마 이미지(708)를 포착할 수 있다. 파노라마 이미지(708)에서 관심대상 장면(702)으로부터 포착된 수평 범위는 704a 내지 704c 등의 각각의 관심대상 물체를 포함할 수 있다.
도 8은, 본 개시내용의 한 실시예에 따른, 관심대상 장면의 임계 이미지의 포착에 있어서 사용자를 안내하기 위한 예시적인 시나리오를 나타낸다. 도 8은 도 2의 요소들과 연계하여 설명된다. 도 8을 참조하면, 시나리오 도면(800)이 도시되어 있다. 시나리오 도면(800)은, 사용자(104), 전자 디바이스(106), 관심대상 장면(802), 제1 물체(804a), 제2 물체(804b), 제3 물체(804c), 제1 복수의 경계 지점(806a), 제2 복수의 경계 지점(806b), 제3 복수 경계 지점(806c), 및 임계 이미지(708)를 포함한다.
동작시에, 사용자(104)는 전자 디바이스(106)를 이용하여 관심대상 장면(802)에서 하나 이상의 관심대상 물체의 하나 이상의 기준 이미지 또는 비디오를 포착할 수 있다. UI 관리자(214)는, 사용자(104)에게, 제1 UI(120a)를 통해 하나 이상의 기준 이미지 또는 비디오에서 포착된 하나 이상의 관심대상 물체 각각을 에워싸는 복수의 경계 지점을 나타내는 입력을 제공하도록 촉구할 수 있다. 사용자(104)는 포착된 하나 이상의 기준 이미지 또는 비디오에 기초하여 이러한 복수의 경계 지점을 나타내는 입력을 제공할 수 있다. 예를 들어, 사용자(104)는 제1 물체(804a)를 에워싸는 복수의 경계 지점으로서 제1 복수의 경계 지점(806a)을 선택할 수 있다. 또한, 사용자(104)는, 각각, 제2 물체(804b) 및 제3 물체(804c)에 대한 제2 복수의 경계 지점(806b) 및 제3 복수 경계 지점(806c)을 선택할 수 있다. 또 다른 실시예에 따른, 이미지 처리 엔진(210)은, 센서 데이터 및/또는 하나 이상의 파라미터에 기초하여, 하나 이상의 관심대상 물체를 에워싸는 복수의 경계 지점을 결정할 수 있다. 이러한 경우에, 복수의 경계 지점의 선택은 임의의 사용자 입력없이 수행될 수 있다. 대안으로서, 사용자(104)는 이미지 처리 엔진(210)에 의해 결정된 복수의 경계 지점을 확인 또는 수정하는 입력을 제공할 수 있다.
한 실시예에 따르면, 이미지 처리 엔진(210)은, 센서 데이터, 하나 이상의 파라미터, 및/또는 806a, 806b 및 806c 등의 각각의 관심대상 물체의 복수의 경계 지점에 기초하여, 하나 이상의 위치 및 연관된 타겟 FOV를 결정할 수 있다. 하나 이상의 위치는, 연관된 타겟 FOV 내의 물체들(804a, 804b, 및 804c)을 에워싸는 이미지 또는 비디오를 포착하기에 적합할 수 있다. 또한, 이미지 처리 엔진(210)은, 하나 이상의 관심대상 물체 각각이 하나 이상의 위치에서 포착된 단일 이미지에 완전히 에워싸일 수 있는지를 결정할 수 있다. 이미지 처리 엔진(210), 또는 추천 엔진(212)은, 단일 이미지가 그 전체의 모든 관심대상 물체를 포함하지 못할 수도 있을 때, 임계 이미지 모드에서 이미지를 포착하기 위한 추천을 생성할 수 있다. UI 관리자(214)는 제2 UI(120b)를 통해 사용자(104)에게 이 추천을 표시할 수 있다. 그 후, 사용자(104)는, 추천에 기초하여, 전자 디바이스(106)의 이용에 의해 임계 이미지(808)를 포착할 수 있다.
한 실시예에 따르면, 임계 이미지(808)는, 관심대상 장면(802)의 하나 이상의 관심대상 물체로부터 제1 세트의 물체들의 완전한 부분 및 제2 세트의 물체들의 미리결정된 부분을 포함할 수 있다. 예를 들어, 임계 이미지(808) 내의 제1 세트의 물체들은 제2 물체(804b) 및 제3 물체(804c)를 포함할 수 있다. 또한, 제2 세트의 물체는 제1 물체(808a)를 포함할 수 있다. 따라서, 이 경우에, 임계 이미지(808)는, 물체들(804b 및 804c)의 완전한 부분, 및 물체(804a) 등의 미리결정된 부분을 포함할 수 있다. 한 실시예에 따르면, 사용자(104)는, 임계 이미지(808) 내에 포함될 것이 요구되는 각각의 물체의 최소 부분에 대응할 수 있는 임계 값을 나타내는 입력을 제공할 수 있다. 예를 들어, 사용자(104)는 "80 %" 등의 임계 값을 제공할 수 있다. 이 경우에, 임계 이미지(808)는 각각의 관심대상 물체의 적어도 "80 %" 부분을 포함할 수 있다. 또 다른 실시예에 따르면, 이미지 처리 엔진(210)은, 센서 데이터 및/또는 하나 이상의 파라미터에 기초하여, 임계 값을 결정할 수 있다. 한 실시예에서, UI 관리자(214)는 제1 UI(120a)를 통해 임계 값을 사용자(104)에게 프리젠팅할 수 있다. 사용자(104)는 사용자(104)의 선호도에 기초하여 임계 값을 확정하거나 수정할 수 있다.
본 기술분야의 통상의 기술자라면, 6개의 예시적인 시나리오들(300, 400, 500, 600, 700 및 800)이 설명의 목적으로 제공되었고 본 개시내용의 범위를 제한하는 것으로 해석되어서는 안 된다는 것을 이해할 것이다. 본 개시내용은 본 개시내용의 범위를 벗어나지 않고 하나 이상의 변형을 갖는 다양한 다른 시나리오에서 구현될 수 있다.
도 9는, 본 개시내용의 한 실시예에 따른, 이미지 또는 비디오를 포착하는데 있어서 사용자를 보조하는 방법을 나타내는 플로차트이다. 도 9를 참조하면, 플로차트(900)가 도시되어 있다. 플로차트(900)는 도 1 및 도 2와 연계하여 설명된다. 이 방법은 단계 902에서 시작하여 단계 904로 진행한다.
단계 904에서, 제1 복수의 입력 값이 사용자(104)로부터 수신될 수 있다. 한 실시예에 따르면, 전자 디바이스(106)의 이미지 처리 엔진(210)은, 전자 디바이스(106)의 제1 UI(120a)를 통해 제1 복수의 입력 값을 수신하도록 구성될 수 있다. 한 실시예에 따르면, 제1 복수의 입력 값은 제1 복수의 경계 지점(114)(도 1)을 포함할 수 있다. 제1 복수의 경계 지점(114)은, (도 1에서 108a로 도시된) 제1 위치의 전자 디바이스(106)의 (제1 FOV(110a)로 도시된) 하나 이상의 FOV의 제1 물체(112)(도 1)를 에워쌀 수 있다.
한 실시예에 따르면, 이미지 처리 엔진(210)은 전자 디바이스(106)의 하나 이상의 센서(216)에 의해 생성된 센서 데이터에 기초하여 제1 복수의 경계 지점(114)을 결정할 수 있다. 이러한 시나리오에서, 제1 복수의 입력 값은 사용자(104)에게 요구되지 않을 수 있으며, 따라서 단계 904는 생략될 수 있다. 대안으로서, UI 관리자(214)는 제1 UI(120a)를 통해 제1 복수의 경계 지점(114)을 사용자(104)에게 디스플레이할 수 있다. 사용자(104)는 제1 복수의 경계 지점(114)을 확정 또는 수정할 수 있다.
단계 906에서, 하나 이상의 파라미터가 센서 데이터에 기초하여 결정될 수 있다. 한 실시예에 따르면, 이미지 처리 엔진(210)은 하나 이상의 센서(216)로부터 센서 데이터를 수신하도록 구성될 수 있다. 센서 데이터는, 이미지 포착 센서 데이터, 위치 센서 데이터, 배향 센서 데이터, 및/또는 속도/움직임 센서 데이터를 포함할 수 있지만, 이것으로 제한되는 것은 아니다. 이미지 처리 엔진(210)은 센서 데이터에 기초하여 하나 이상의 파라미터를 결정하도록 구성될 수 있다. 하나 이상의 파라미터의 예로서는, 광의 방향, 하나 이상의 광원, 광의 강도, 제1 물체(112)가 제1 FOV(110a)에서 관찰될 때의 전자 디바이스(106)의 이동 각도, 제1 위치(108a)의 전자 디바이스(106)로부터의 제1 물체(112)의 거리, 및/또는 이미지 품질 임계 값이 포함될 수 있지만, 이것으로 제한되는 것은 아니다.
단계 908에서, 전자 디바이스(106)의 (도 1에서 제2 위치(108b)로 도시된) 제2 위치 및 (도 1에서 제2 FOV(110b)로 도시된) 타겟 FOV가 결정될 수 있다. 한 실시예에 따르면, 이미지 처리 엔진(210)은, 하나 이상의 파라미터, 센서 데이터, 및/또는 제1 복수의 경계 지점(114)에 기초하여 전자 디바이스(106)의 제2 위치(108b) 및 제2 FOV(110b)를 결정하도록 구성될 수 있다. 한 실시예에 따르면, 제2 위치(108b)는, 제2 FOV(110b) 내에 적어도 제1 물체(112)를 포함하는 이미지 또는 비디오를 포착하기 위한 적절한 위치일 수 있다. 본 기술분야의 통상의 기술자라면, 이미지 처리 엔진(210)이 본 개시내용의 범위를 벗어나지 않으면서 제1 물체(112)의 이미지 또는 비디오에 대해 복수의 제2 위치 및 관련 타겟 FOV를 결정할 수 있다는 것을 이해할 수 있을 것이다.
단계 910에서, 사용자(104)를 제2 위치(108b)로 안내하기 위해 표시자의 디스플레이가 제어될 수 있다. 한 실시예에 따르면, 전자 디바이스(106)의 추천 엔진(212)은 하나 이상의 센서(216)로부터 실시간으로 센서 데이터를 수신하도록 구성될 수 있다. 센서 데이터는 전자 디바이스(106)의 현재 위치(사용자(104)의 위치와 동일함)를 나타낼 수 있다. 추천 엔진(212)은 사용자(104)의 현재 위치로부터 제2 위치(108b)에 도달하기 위한 하나 이상의 경로의 추천을 생성할 수 있다. UI 관리자(214)는, 제2 UI(120b)를 통해, 생성된 추천에 기초하여 추천 엔진(212)에 의해 제어되는 안내 표시자를 사용자(104)에게 프리젠팅할 수 있다. 추천 엔진(212)은 사용자(104)의 실시간 움직임에 기초하여 안내 표시자를 통해 프리젠팅되는 추천을 업데이트할 수 있다. 따라서, 안내 표시자는 사용자(104)가 제2 FOV(110b) 내의 제1 물체(112)의 최종 이미지 또는 비디오를 포착하기 위해 제2 위치(108b)에 도달하도록 보조할 수 있다. 본 기술분야의 통상의 기술자라면, 안내 표시자는, 사용자(104)가 제2 위치(108b)에 도달할 수 없을 때, 또 다른 제2 위치로의 하나 이상의 경로의 추천을 제공할 수 있다는 것을 이해할 것이다.
단계 912에서, 하나 이상의 설정 파라미터가 사용자(104)에게 추천될 수 있다. 한 실시예에 따르면, 추천 엔진(212)은 센서 데이터에 기초하여 하나 이상의 설정 파라미터를 추천하도록 구성될 수 있다. 하나 이상의 설정 파라미터는, 하나 이상의 센서(216)로부터 이미지 포착 센서의 하나 이상의 기능 및/또는 동작 양태를 구성하는데 이용될 수 있다. UI 관리자(214)는, 전자 디바이스(106)의 제2 UI(120b)를 통해, 사용자(104)에 대한 추천으로서 결정된 하나 이상의 설정 파라미터를 제공할 수 있다. 사용자(104)는, 추천된 하나 이상의 설정 파라미터에 기초한 입력을 제2 UI(120b)를 통해 제공할 수 있다. 이미지 포착 센서 등의 하나 이상의 센서(216)는, 각각의 설정 파라미터에 대해 수신된 사용자 입력에 기초하여 그 설정 파라미터들의 값을 조정할 수 있다. 하나 이상의 설정 파라미터의 예로서는, 조리개 설정, ISO 감도, 자동 노출, 자동 초점, 자동 화이트 밸런스, 및/또는 자동 조명이 포함될 수 있지만, 이것으로 제한되는 것은 아니다. 본 기술분야의 통상의 기술자라면, 본 개시내용의 범위는 추천 엔진(212)에 의한 하나 이상의 설정 파라미터의 결정으로 제한되어서는 안 된다는 것을 이해할 것이다. 한 실시예에 따르면, 이미지 처리 엔진(210)은 본 개시내용의 범위를 벗어나지 않고 하나 이상의 설정 파라미터를 결정하도록 구성될 수 있다. 제어는 종료 단계 914로 간다.
본 개시내용의 한 실시예에 따르면, 이미지 또는 비디오를 포착하는데 있어서 사용자를 보조하는 시스템이 개시된다. 시스템은 제1 위치에서 사용자로부터 제1 복수의 입력 값을 수신하도록 구성될 수 있는 전자 디바이스(106)를 포함할 수 있다. 수신된 제1 복수의 입력 값은, 제1 위치의 전자 디바이스(106)의 하나 이상의 FOV 내의 제1 물체를 에워싸는 제1 복수의 경계 지점을 포함할 수 있다. 전자 디바이스(106)는 또한, 수신된 제1 복수의 경계 지점에 기초하여, 이미지 또는 비디오를 포착하기 위한 제2 위치 및 타겟 FOV를 결정하도록 구성될 수 있다. 이미지 또는 비디오는 적어도 제1 물체를 포함할 수 있다. 또한, 전자 디바이스(106)는, 타겟 FOV 내의 제1 물체의 이미지 또는 비디오를 포착하도록 사용자를 제2 위치로 안내하기 위해 표시자의 디스플레이를 제어할 수 있다.
본 개시내용의 다양한 실시예는, 사용자가 이미지 또는 비디오를 포착하도록 보조하는 머신 및/또는 컴퓨터에 의해 실행가능한 적어도 하나의 코드 섹션을 갖는 머신 코드 및/또는 컴퓨터 프로그램이 저장된 비일시적인 컴퓨터 판독가능한 매체 및/또는 저장 매체를 제공할 수 있다. 전자 디바이스(106) 내의 적어도 하나의 코드 섹션은 머신 및/또는 컴퓨터로 하여금 제1 위치의 사용자로부터의 제1 복수의 입력 값의 수신을 포함하는 단계를 수행하게 할 수 있다. 수신된 제1 복수의 입력 값은, 제1 위치의 전자 디바이스(106)의 하나 이상의 FOV 내의 제1 물체를 에워싸는 제1 복수의 경계 지점을 포함할 수 있다. 그 후, 수신된 제1 복수의 경계 지점에 기초하여, 이미지 또는 비디오를 포착하기 위한 제2 위치 및 타겟 FOV가 결정될 수 있다. 이미지 또는 비디오는 적어도 제1 물체를 포함할 수 있다. 또한, 표시자의 디스플레이는, 타겟 FOV 내의 제1 물체의 이미지 또는 비디오를 포착하도록 사용자를 제2 위치로 안내하기 위해 제어될 수 있다.
본 개시내용은, 하드웨어, 또는 하드웨어와 소프트웨어의 조합으로 실현될 수 있다. 본 개시내용은, 적어도 하나의 컴퓨터 시스템에서 중앙집중형 방식으로, 또는 상이한 요소들이 수 개의 상호접속된 컴퓨터 시스템들에 걸쳐 분산되어 있을 수 있는 분산형 방식으로 실현될 수 있다. 여기서 설명된 방법을 수행하도록 적합화된 컴퓨터 시스템 또는 다른 장치가 적절할 수도 있다. 하드웨어 및 소프트웨어의 조합은, 로딩되고 실행될 때, 여기서 설명된 방법을 실행하도록 컴퓨터 시스템을 제어 할 수 있는 컴퓨터 프로그램을 갖춘 범용 컴퓨터 시스템일 수 있다. 본 개시내용은 다른 기능들도 역시 수행하는 집적 회로의 일부를 포함하는 하드웨어로 실현될 수도 있다.
본 개시내용은 또한, 여기서 설명된 방법들의 구현을 가능하게 하고 컴퓨터 시스템에 로딩될 때 이들 방법을 실행할 수 있는 모든 피쳐들을 포함하는 컴퓨터 프로그램 제품에 임베딩될 수도 있다. 컴퓨터 프로그램은, 본 문맥에서, 정보 처리 능력을 가진 시스템으로 하여금, 특정 기능을, 곧바로, 또는 a) 또 다른 언어, 코드 또는 표기로의 변환; b) 상이한 자료 형태로의 재생산 중 어느 하나 또는 양쪽 모두 이후에, 수행하게 하도록 의도된 한 세트의 명령어로 이루어진, 임의의 언어로 된, 임의의 표현, 코드 또는 표기를 의미한다.
본 개시내용이 소정 실시예들을 참조하여 기술되었지만, 본 기술분야의 통상의 기술자라면, 본 개시내용의 범위로부터 벗어나지 않고 다양한 변경이 이루어질 수 있고 균등물로 대체될 수 있다는 것을 이해할 것이다. 또한, 특정한 상황 또는 재료를 본 개시내용의 교시에 맞게 그 본질적 범위로부터 벗어나지 않고 적합하게 개작하도록 많은 수정이 이루어질 수 있다. 따라서, 본 개시내용은 개시된 특정 실시예에 제한되지 않으며, 본 개시내용은 첨부된 청구항들의 범위 내에 속하는 모든 실시예를 포함하는 것으로 의도된다.

Claims (24)

  1. 이미지 또는 비디오를 포착하도록 사용자를 보조하기 위한 시스템으로서,
    전자 디바이스 내의 하나 이상의 회로를 포함하고, 상기 하나 이상의 회로는 :
    제1 위치의 상기 사용자로부터 제1 복수의 입력 값을 수신하고 ―상기 수신된 제1 복수의 입력 값은 상기 제1 위치의 상기 전자 디바이스의 하나 이상의 시야(FOV; field-of-view)에서 제1 물체를 에워싸는 제1 복수의 경계 지점을 포함함― ;
    상기 수신된 제1 복수의 경계 지점에 기초하여, 적어도 상기 제1 물체를 포함하는 상기 이미지 또는 상기 비디오를 포착하기 위한 제2 위치 및 타겟 FOV를 결정하며;
    상기 타겟 FOV 내의 상기 제1 물체의 상기 이미지 또는 상기 비디오를 포착하도록 상기 사용자를 상기 제2 위치로 안내하기 위해 표시자의 디스플레이를 제어하도록 구성된, 시스템.
  2. 제1항에 있어서, 상기 제1 물체의 적어도 일부는 상기 제1 위치의 상기 전자 디바이스의 상기 하나 이상의 FOV를 넘어 연장되는, 시스템.
  3. 제1항에 있어서, 상기 하나 이상의 회로는 추가로, 상기 제1 물체를 에워싸는 상기 제1 복수의 경계 지점의 상기 결정을 위해 상기 전자 디바이스의 하나 이상의 센서로부터 센서 데이터를 수신하도록 구성된, 시스템.
  4. 제1항에 있어서, 상기 하나 이상의 회로는 하나 이상의 파라미터를 결정하는 것에 기초하여 상기 제2 위치 및 상기 타겟 FOV를 결정하도록 구성되고, 상기 하나 이상의 파라미터는 : 광의 방향, 하나 이상의 광원, 광의 강도, 상기 제1 물체가 상기 하나 이상의 FOV에서 관찰될 때 상기 전자 디바이스의 이동 각도, 상기 제1 위치의 상기 전자 디바이스로부터의 상기 제1 물체의 거리, 및/또는 이미지 품질 임계 값 중 하나 이상을 포함하는, 시스템.
  5. 제1항에 있어서, 상기 하나 이상의 회로는 추가로, 상기 타겟 FOV 내의 상기 제1 물체의 일부를 포착하는 사용자 정의된 임계 값에 기초하여 상기 제2 위치 및 상기 타겟 FOV를 결정하도록 구성된, 시스템.
  6. 제1항에 있어서, 상기 하나 이상의 회로는 추가로, 상기 제1 위치의 상기 사용자로부터 제2 복수의 입력 값을 수신하도록 구성되고, 상기 수신된 제2 복수의 입력 값은 제2 물체를 에워싸는 제2 복수의 경계 지점을 포함하는, 시스템.
  7. 제6항에 있어서, 상기 하나 이상의 회로는 추가로, 상기 수신된 제1 복수의 경계 지점에 기초한 상기 제1 물체 및 상기 수신된 제2 복수의 경계 지점에 기초한 상기 제2 물체를 포함하는, 상기 이미지 또는 상기 비디오를 포착하기 위한 상기 제2 위치 및 상기 타겟 FOV를 결정하도록 구성된, 시스템.
  8. 제6항에 있어서, 상기 하나 이상의 회로는 추가로, 상기 타겟 FOV 내의 상기 제1 물체 및 상기 제2 물체 중 하나 또는 양쪽 모두의 일부를 포착하는 임계 값을 나타내도록 구성된, 시스템.
  9. 제6항에 있어서, 상기 제1 물체 및/또는 상기 제2 물체는 움직이는 중인, 시스템.
  10. 제9항에 있어서, 상기 하나 이상의 회로는 추가로, 상기 제1 물체 및/또는 상기 제2 물체가 움직이는 중일 때 상기 제1 물체 및 상기 제2 물체를 포함하는 상기 비디오를 포착하도록 구성된, 시스템.
  11. 제1항에 있어서, 상기 하나 이상의 회로는 추가로, 상기 타겟 FOV의 상기 결정된 제2 위치에서 상기 제1 물체의 상기 이미지 또는 상기 비디오를 포착하기 위한 하나 이상의 설정 파라미터를 이용하기 위한 추천을 제공하도록 구성되고, 상기 하나 이상의 설정 파라미터는 : 조리개 설정, ISO(International Organization for Standardization) 감도, 자동 노출, 자동 초점, 자동 화이트 밸런스, 및/또는 자동 조명 중 하나 이상을 포함하는, 시스템.
  12. 이미지 또는 비디오를 포착하도록 사용자를 보조하기 위한 방법으로서,
    전자 디바이스에서 :
    제1 위치의 상기 사용자로부터 제1 복수의 입력 값을 수신하는 단계 ―상기 수신된 제1 복수의 입력 값은 상기 제1 위치의 상기 전자 디바이스의 하나 이상의 시야(FOV)에서 제1 물체를 에워싸는 제1 복수의 경계 지점을 포함함― ;
    상기 수신된 제1 복수의 경계 지점에 기초하여, 적어도 상기 제1 물체를 포함하는 상기 이미지 또는 상기 비디오를 포착하기 위한 제2 위치 및 타겟 FOV를 결정하는 단계; 및
    상기 타겟 FOV 내의 상기 제1 물체의 상기 이미지 또는 상기 비디오를 포착하도록 상기 사용자를 상기 제2 위치로 안내하기 위해 표시자의 디스플레이를 제어하는 단계를 포함하는, 방법.
  13. 제12항에 있어서, 상기 제1 물체의 적어도 일부는 상기 제1 위치의 상기 전자 디바이스의 상기 하나 이상의 FOV를 넘어 연장되는, 방법.
  14. 제12항에 있어서, 상기 제1 물체를 에워싸는 상기 제1 복수의 경계 지점의 상기 결정을 위해 상기 전자 디바이스의 하나 이상의 센서로부터 센서 데이터를 수신하는 단계를 더 포함하는 방법.
  15. 제12항에 있어서, 하나 이상의 파라미터를 결정하는 것에 기초하여 상기 제2 위치 및 상기 타겟 FOV를 결정하는 단계를 더 포함하고, 상기 하나 이상의 파라미터는 : 광의 방향, 하나 이상의 광원, 광의 강도, 상기 제1 물체가 상기 하나 이상의 FOV에서 관찰될 때 상기 전자 디바이스의 이동 각도, 상기 제1 위치의 상기 전자 디바이스로부터의 상기 제1 물체의 거리, 및/또는 이미지 품질 임계 값 중 하나 이상을 포함하는, 방법.
  16. 제12항에 있어서, 상기 타겟 FOV 내의 상기 제1 물체의 일부를 포착하는 사용자 정의된 임계 값에 기초하여 상기 제2 위치 및 상기 타겟 FOV를 결정하는 단계를 더 포함하는 방법.
  17. 제12항에 있어서, 상기 제1 위치의 상기 사용자로부터 제2 복수의 입력 값을 수신하는 단계를 더 포함하고, 상기 수신된 제2 복수의 입력 값은 제2 물체를 에워싸는 제2 복수의 경계 지점을 포함하는, 방법.
  18. 제17항에 있어서, 상기 제1 물체와 상기 제2 물체를 포착하기 위해 파노라마 이미지 모드를 추천하는 단계를 더 포함하는 방법.
  19. 제17항에 있어서, 상기 수신된 제1 복수의 경계 지점에 기초한 상기 제1 물체 및 상기 수신된 제2 복수의 경계 지점에 기초한 상기 제2 물체를 포함하는, 상기 이미지 또는 상기 비디오를 포착하기 위한 상기 제2 위치 및 상기 타겟 FOV를 결정하는 단계를 더 포함하는 방법.
  20. 제17항에 있어서, 상기 타겟 FOV 내의 상기 제1 물체 및 상기 제2 물체 중 하나 또는 양쪽 모두의 일부를 포착하는 임계 값을 나타내는 단계를 더 포함하는 방법.
  21. 제17항에 있어서, 상기 제1 물체 및/또는 상기 제2 물체는 움직이는 중인, 방법.
  22. 제21항에 있어서, 상기 제1 물체 및/또는 상기 제2 물체가 움직이는 중일 때 상기 제1 물체 및 상기 제2 물체를 포함하는 상기 비디오를 포착하는 단계를 더 포함하는 방법.
  23. 제12항에 있어서, 상기 타겟 FOV의 상기 결정된 제2 위치에서 상기 제1 물체의 상기 이미지 또는 상기 비디오를 포착하기 위한 하나 이상의 설정 파라미터를 이용하기 위한 추천을 제공하는 단계를 더 포함하고, 상기 하나 이상의 설정 파라미터는 : 조리개 설정, ISO 감도, 자동 노출, 자동 초점, 자동 화이트 밸런스, 및/또는 자동 조명 중 하나 이상을 포함하는, 방법.
  24. 전자 디바이스로 하여금 단계들을 수행하게 하기 위한 컴퓨터 실행가능한 명령어들의 세트가 저장된 비일시적인 컴퓨터 판독가능한 저장 매체로서, 상기 단계들은,
    제1 위치의 사용자로부터 제1 복수의 입력 값을 수신하는 단계 ―상기 수신된 제1 복수의 입력 값은 상기 제1 위치의 상기 전자 디바이스의 하나 이상의 시야(FOV)에서 제1 물체를 에워싸는 제1 복수의 경계 지점을 포함함― ;
    상기 수신된 제1 복수의 경계 지점에 기초하여, 적어도 상기 제1 물체를 포함하는 이미지 또는 비디오를 포착하기 위한 제2 위치 및 타겟 FOV를 결정하는 단계; 및
    상기 타겟 FOV 내의 상기 제1 물체의 상기 이미지 또는 상기 비디오를 포착하도록 상기 사용자를 상기 제2 위치로 안내하기 위해 표시자의 디스플레이를 제어하는 단계를 포함하는, 비일시적인 컴퓨터 판독가능한 저장 매체.
KR1020187000600A 2015-07-31 2016-07-26 사용자가 이미지 또는 비디오를 포착하는 것을 보조하는 방법 및 시스템 KR101989757B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/814,875 2015-07-31
US14/814,875 US9826145B2 (en) 2015-07-31 2015-07-31 Method and system to assist a user to capture an image or video
PCT/US2016/044079 WO2017023620A1 (en) 2015-07-31 2016-07-26 Method and system to assist a user to capture an image or video

Publications (2)

Publication Number Publication Date
KR20180016534A true KR20180016534A (ko) 2018-02-14
KR101989757B1 KR101989757B1 (ko) 2019-06-14

Family

ID=57883367

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020187000600A KR101989757B1 (ko) 2015-07-31 2016-07-26 사용자가 이미지 또는 비디오를 포착하는 것을 보조하는 방법 및 시스템

Country Status (6)

Country Link
US (1) US9826145B2 (ko)
EP (1) EP3304884A4 (ko)
JP (1) JP6587081B2 (ko)
KR (1) KR101989757B1 (ko)
CN (1) CN107710736B (ko)
WO (1) WO2017023620A1 (ko)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018080455A1 (en) * 2016-10-25 2018-05-03 Hewlett-Packard Development Company, L.P. Electronic devices having multiple position cameras
US10382673B2 (en) * 2017-01-11 2019-08-13 Hover Inc. Automated guide for image capturing for 3D model creation
EP3496387A1 (en) * 2017-12-05 2019-06-12 Koninklijke Philips N.V. Apparatus and method of image capture
US10574881B2 (en) * 2018-02-15 2020-02-25 Adobe Inc. Smart guide to capture digital images that align with a target image model
EP3700189B1 (en) * 2019-02-21 2023-02-01 Vestel Elektronik Sanayi ve Ticaret A.S. Mobile phone vertical capture mode
US10984546B2 (en) * 2019-02-28 2021-04-20 Apple Inc. Enabling automatic measurements
US11670144B2 (en) 2020-09-14 2023-06-06 Apple Inc. User interfaces for indicating distance

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010268031A (ja) * 2009-05-12 2010-11-25 Olympus Corp デジタルカメラ
JP2015056825A (ja) * 2013-09-13 2015-03-23 Necカシオモバイルコミュニケーションズ株式会社 撮像装置、その制御方法及びプログラム
US20150098000A1 (en) * 2013-10-03 2015-04-09 Futurewei Technologies, Inc. System and Method for Dynamic Image Composition Guidance in Digital Camera

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AUPO918697A0 (en) 1997-09-15 1997-10-09 Canon Information Systems Research Australia Pty Ltd Enhanced information gathering apparatus and method
JP3700687B2 (ja) * 2002-07-08 2005-09-28 カシオ計算機株式会社 カメラ装置及び被写体の撮影方法
JP4864502B2 (ja) * 2006-03-23 2012-02-01 富士フイルム株式会社 撮像装置および撮像条件案内方法
US8237807B2 (en) 2008-07-24 2012-08-07 Apple Inc. Image capturing device with touch screen for adjusting camera settings
US20120120277A1 (en) * 2010-11-16 2012-05-17 Apple Inc. Multi-point Touch Focus
JP5131367B2 (ja) * 2011-05-31 2013-01-30 カシオ計算機株式会社 撮影装置及びプログラム
JP2013042250A (ja) 2011-08-12 2013-02-28 Sony Corp 撮像装置および撮像方法
WO2013042117A1 (en) * 2011-09-19 2013-03-28 Personetics Technologies Ltd. System and method for evaluating intent of a human partner to a dialogue between human user and computerized system
JP2015507860A (ja) 2011-12-07 2015-03-12 インテル コーポレイション 画像キャプチャのガイド
JP2013165366A (ja) * 2012-02-10 2013-08-22 Sony Corp 画像処理装置、画像処理方法及びプログラム
JP2013214858A (ja) * 2012-04-02 2013-10-17 Sony Corp 撮像装置、撮像装置の制御方法およびコンピュータプログラム
JP2013214853A (ja) * 2012-04-02 2013-10-17 Jvc Kenwood Corp 再生装置、記録再生装置、及び再生方法
US9385324B2 (en) * 2012-05-07 2016-07-05 Samsung Electronics Co., Ltd. Electronic system with augmented reality mechanism and method of operation thereof
US9131143B2 (en) * 2012-07-20 2015-09-08 Blackberry Limited Dynamic region of interest adaptation and image capture device providing same
US20140354768A1 (en) * 2013-05-30 2014-12-04 Microsoft Corporation Socialized Mobile Photography

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010268031A (ja) * 2009-05-12 2010-11-25 Olympus Corp デジタルカメラ
JP2015056825A (ja) * 2013-09-13 2015-03-23 Necカシオモバイルコミュニケーションズ株式会社 撮像装置、その制御方法及びプログラム
US20150098000A1 (en) * 2013-10-03 2015-04-09 Futurewei Technologies, Inc. System and Method for Dynamic Image Composition Guidance in Digital Camera

Also Published As

Publication number Publication date
EP3304884A1 (en) 2018-04-11
CN107710736A (zh) 2018-02-16
EP3304884A4 (en) 2018-12-26
US9826145B2 (en) 2017-11-21
WO2017023620A1 (en) 2017-02-09
JP6587081B2 (ja) 2019-10-09
JP2018530177A (ja) 2018-10-11
CN107710736B (zh) 2020-10-20
US20170034431A1 (en) 2017-02-02
KR101989757B1 (ko) 2019-06-14

Similar Documents

Publication Publication Date Title
KR101989757B1 (ko) 사용자가 이미지 또는 비디오를 포착하는 것을 보조하는 방법 및 시스템
US10769470B2 (en) Method and system for optimizing an image capturing boundary in a proposed image
US9195116B2 (en) Focus control for PTZ cameras
US20170094184A1 (en) Systems and methods for performing automatic zoom
US10104299B2 (en) Zoom control apparatus, zoom control method, and storage medium
US9628717B2 (en) Apparatus, method, and storage medium for performing zoom control based on a size of an object
JP5532026B2 (ja) 表示装置、表示方法及びプログラム
EP3352453B1 (en) Photographing method for intelligent flight device and intelligent flight device
US20160050349A1 (en) Panoramic video
JP2014145725A (ja) 画像処理装置、撮像装置
US20200221005A1 (en) Method and device for tracking photographing
US20120002094A1 (en) Image pickup apparatus for providing reference image and method for providing reference image thereof
WO2018014517A1 (zh) 一种信息处理方法、装置及存储介质
US11750922B2 (en) Camera switchover control techniques for multiple-camera systems
GB2537886A (en) An image acquisition technique
EP2981065B1 (en) Light metering method and device
US20160381268A1 (en) Digital camera apparatus with dynamically customized focus reticle and automatic focus reticle positioning
JP6465566B2 (ja) 撮像装置及び撮像方法
CN105847690A (zh) 一种切换摄影模式的方法及摄像机
JP2013009204A (ja) 撮像装置、撮像方法およびプログラム
CN114422687A (zh) 预览图像切换方法及装置、电子设备及存储介质
CN110771147A (zh) 拍摄装置参数的调节方法、控制设备及拍摄系统
US20230081349A1 (en) Object Depth Estimation and Camera Focusing Techniques for Multiple-Camera Systems
JP2017182668A (ja) データ処理装置、撮像装置、及びデータ処理方法
KR20230039575A (ko) 다중-카메라 시스템들에 대한 카메라 스위칭오버 제어 기술들

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant