KR102157624B1 - 영상데이터를 제어하는 전자장치 및 방법 - Google Patents

영상데이터를 제어하는 전자장치 및 방법 Download PDF

Info

Publication number
KR102157624B1
KR102157624B1 KR1020140002717A KR20140002717A KR102157624B1 KR 102157624 B1 KR102157624 B1 KR 102157624B1 KR 1020140002717 A KR1020140002717 A KR 1020140002717A KR 20140002717 A KR20140002717 A KR 20140002717A KR 102157624 B1 KR102157624 B1 KR 102157624B1
Authority
KR
South Korea
Prior art keywords
image data
electronic device
subject
unit
guide area
Prior art date
Application number
KR1020140002717A
Other languages
English (en)
Other versions
KR20150083215A (ko
Inventor
노윤성
강혜진
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020140002717A priority Critical patent/KR102157624B1/ko
Publication of KR20150083215A publication Critical patent/KR20150083215A/ko
Application granted granted Critical
Publication of KR102157624B1 publication Critical patent/KR102157624B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)

Abstract

본 발명은 적어도 하나의 타 전자장치와 통신을 수행하는 통신부, 제1 영상데이터를 획득하는 카메라부, 상기 적어도 하나의 타 전자장치와 그룹핑하고, 상기 제1 영상데이터와 상기 적어도 하나의 타 전자장치로부터 수신된 적어도 하나의 제2 영상데이터를 이용하여 플로우 모션 영상데이터를 생성하는 제어부를 포함하며, 다른 실시예로도 적용이 가능하다.

Description

영상데이터를 제어하는 전자장치 및 방법{Electronic Apparatus and Method for Controlling of Image Data}
본 발명의 다양한 실시 예는 복수의 전자장치에서 동일한 피사체를 다양한 각도에서 획득하고, 획득된 복수의 영상데이터를 이용하여 상기 피사체를 입체감있게 표시할 수 있는 영상데이터를 생성하는 영상데이터를 제어하는 전자장치 및 방법에 관한 것이다.
일반적으로 특정 피사체를 여러 각도에서 바라보는 것과 같은 효과(플로우 모션; Flow Motion)를 내기 위해 현재는 하나의 카메라로 동일한 피사체를 여러 방향에서 촬영한 후 합성하여 영상데이터를 생성한다.
상기와 같이 플로우 모션 효과를 위해서는 하나의 카메라로 동일한 피사체를 여러 방향에서 촬영해야 하기 때문에, 카메라 이동을 위한 레일 등의 다양한 장비가 필요한 문제점이 있다.
이러한 종래의 문제점을 해결하기 위한 본 발명의 다양한 실시 예들은 하나의 전자장치가 동일한 피사체에 대한 영상데이터를 여러 각도에서 획득하기 위한 가이드 영역을 생성하여 복수개의 전자장치로 제공하고, 복수의 전자장치에서 가이드 영역에 의거하여 동일한 피사체의 영상데이터 획득위치를 조절할 수 있도록 영상데이터를 제어하는 전자장치 및 방법을 제공하는 것이다.
또한, 본 발명의 실시 예들은 하나의 전자장치가 복수개의 전자장치에서 가이드 영역에 의거하여 동일한 피사체를 여러 각도에서 동시에 촬영한 적어도 하나의 영상데이터를 수신하고 수신된 영상데이터를 편집 및 출력하여 플로우 모션 효과를 제공할 수 있는 영상데이터를 제어하는 전자장치 및 방법을 제공하는 것이다.
본 발명의 일실시 예에 따른 영상데이터를 제어하는 전자장치는 적어도 하나의 타 전자장치와 통신을 수행하는 통신부, 제1 영상데이터를 획득하는 카메라부, 상기 적어도 하나의 타 전자장치와 그룹핑하고, 상기 제1 영상데이터와 상기 적어도 하나의 타 전자장치로부터 수신된 적어도 하나의 제2 영상데이터를 이용하여 플로우 모션 영상데이터를 생성하는 제어부를 포함할 수 있다.
또한, 본 발명의 일실시 예에 따른 영상데이터를 제어하는 전자장치는 타 전자장치와 통신을 수행하는 통신부, 영상데이터를 획득하는 카메라부, 상기 타 전자장치로부터 제1 피사체를 포함하는 가이드 영역을 수신하고, 상기 가이드 영역을 프리뷰 화면에 표시한 후 상기 프리뷰 화면을 영상데이터로 획득하여 상기 타 전자장치로 전송하는 제어부를 포함할 수 있다.
아울러, 본 발명의 일실시 예에 따른 영상데이터 제어 방법은 제어부가 통신을 통해 적어도 하나의 타 전자장치와 그룹핑을 수행하는 단계, 상기 제어부가 프리뷰 화면에서 가이드 영역을 추출하는 단계, 상기 제어부가 상기 가이드 영역을 상기 적어도 하나의 타 전자장치로 전송하는 단계를 포함할 수 있다.
또한, 본 발명의 일실시 예에 따른 영상데이터 제어 방법은 제어부가 통신을 통해 적어도 하나의 타 전자장치와 그룹핑을 수행하는 단계, 상기 제어부가 제1 영상데이터를 획득하고, 상기 적어도 하나의 타 전자장치로부터 적어도 하나의 제2 영상데이터를 수신하는 단계, 상기 제어부가 상기 제1 영상데이터와 상기 적어도 하나의 제2 영상데이터를 이용하여 플로우 모션 영상데이터를 생성하는 단계를 포함할 수 있다.
또한, 본 발명의 일실시 예에 따른 영상데이터 제어 방법은 제어부가 타 전자장치와 통신을 수행하는 단계, 상기 제어부가 상기 타 전자장치로부터 제1 피사체를 포함하는 가이드 영역을 수신하는 단계, 상기 제어부가 상기 가이드 영역을 프리뷰 화면에 표시하는 단계, 상기 제어부가 상기 프리뷰 화면을 영상데이터로 획득하는 단계, 상기 제어부가 상기 영상데이터를 상기 타 전자장치로 전송하는 단계를 포함할 수 있다.
상술한 바와 같이 본 발명의 다양한 실시 예들에 따른 영상데이터를 제어하는 전자장치 및 방법은 하나의 전자장치가 동일한 피사체에 대한 영상데이터를 여러 각도에서 획득하기 위한 가이드 영역을 생성하여 복수개의 전자장치로 제공함으로써, 복수개의 전자장치에서 동일한 피사체의 영상데이터 획득위치를 조절할 수 있는 효과를 낼 수 있다.
또한, 하나의 전자장치가 복수개의 전자장치에서 가이드 영역에 의거하여 동일한 피사체를 여러 각도에서 동시에 촬영한 적어도 하나의 영상데이터를 수신하고, 수신된 영상데이터를 편집 및 출력함으로써, 전자장치 이외의 별다른 장치 없이 통해 플로우 모션 효과를 낼 수 있다.
도 1은 본 발명의 실시 예에 따른 영상데이터를 제어하기 위한 시스템을 나타낸 시스템도이다.
도 2는 본 발명의 실시 예에 따른 영상데이터를 제어하는 제1 전자장치의 주요 구성을 나타낸 블록도이다.
도 3은 본 발명의 실시 예에 따른 플로우 모션 영상데이터를 위한 영상데이터 획득을 지원하는 제2 전자장치의 주요 구성을 나타낸 블록도이다.
도 4는 본 발명의 실시 예에 따른 영상데이터를 제어하기 위한 그룹핑을 수행하는 방법을 설명하기 위한 순서도이다.
도 5는 본 발명의 실시 예에 따른 제1 전자장치에서 영상데이터를 제어하는 방법을 설명하기 위한 순서도이다.
도 6은 본 발명의 실시 예에 따른 제2 전자장치에서 플로우 모션 영상데이터를 위한 영상데이터 획득을 지원하는 방법을 설명하기 위한 순서도이다.
도 7은 본 발명의 실시 예에 따른 제1 전자장치에서 가이드 영역 추출을 설명하기 위한 화면예시도이다.
도 8은 본 발명의 실시 예에 따른 제2 전자장치에서 포커싱 완료를 설명하기 위한 화면예시도이다.
도 9는 본 발명의 제1 실시 예에 따른 제1 전자장치에서 생성된 플로우 모션 영상데이터 출력을 설명하기 위한 화면예시도이다.
도 10은 본 발명의 제2 실시 예에 따른 제1 전자장치에서 생성된 플로우 모션 영상데이터의 출력을 설명하기 위한 화면예시도이다.
이하, 첨부된 도면들을 참조하여 본 발명의 실시예를 보다 상세하게 설명한다. 본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들이 도면에 예시되고 관련된 상세한 설명이 기재되어 있다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경 및/또는 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용되었다.
본 발명 가운데 사용될 수 있는 "포함한다" 또는 "포함할 수 있다" 등의 표현은 개시된 해당 기능, 동작 또는 구성요소 등의 존재를 가리키며, 추가적인 하나 이상의 기능, 동작 또는 구성요소 등을 제한하지 않는다. 또한, 본 발명에서 "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
본 발명에서 "또는" 등의 표현은 함께 나열된 단어들의 어떠한, 그리고 모든 조합을 포함한다. 예를 들어, "A 또는 B"는 A를 포함할 수도, B를 포함할 수도, 또는 A와 B 모두를 포함할 수도 있다.
본 발명 가운데 "마스터", "슬레이브" 등의 표현들이 본 발명의 다양한 구성요소들을 수식할 수 있지만, 해당 구성요소들을 한정하지 않는다. 예를 들어, 상기 표현들은 해당 구성요소들의 순서 및/또는 중요도 등을 한정하지 않는다. 상기 표현들은 한 구성요소를 다른 구성요소와 구분 짓기 위해 사용될 수 있다. 예를 들어, 제1 전자장치와 제2 전자장치는 모두 사용자 전자장치이며, 서로 다른 사용자 전자장치를 나타낸다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 전자장치는 제2 전자장치로 명명될 수 있고, 유사하게 제2 전자장치도 제1 전자장치로 명명될 수 있다.
본 발명에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
본 발명에 따른 전자장치는 통신기능이 포함된 장치일 수 있다. 예를 들면, 전자장치는 스마트 폰(smart phone), 태블릿 PC(tablet personal reader), 이동전화기(mobile phone), PDA(personal digital assistant), 디지털 카메라(digital camera) 등 타 사용자와의 메시지 송수신이 가능한 장치일 수 있다.
이하, 첨부된 도면을 참조하여 다양한 실시예에 따른 전자장치에 대해서 살펴본다. 다양한 실시 예에서 이용되는 사용자라는 용어는 전자장치를 사용하는 사람 또는 전자장치를 사용하는 장치(예: 인공지능 전자장치)를 지칭할 수 있다.
도 1은 본 발명의 실시 예에 따른 영상데이터를 생성하기 위한 시스템을 나타낸 시스템도이다.
도 1을 참조하면, 본 발명에 따른 영상데이터 생성 시스템은 마스터 전자장치(100, 이하, 제1 전자장치라 함), 복수개의 슬레이브 전자장치(201, 202, 203, 204, 이하, 제2 전자장치(200)라 함)를 포함할 수 있다. 제1 전자장치(100)는 설명의 편의를 위해 마스터 기능을 위주로 설명하지만, 슬레이브 기능을 수행하는 장치로서 동작할 수 있다. 또한, 제2 전자장치(200)는 설명의 편의를 위해 슬레이브 기능을 위주로 설명하지만, 마스터 기능을 수행하는 장치로서 동작할 수 있다.
제1 전자장치(100)는 특정 배경에 위치하는 특정 피사체(11, 12)를 촬영하여 제1 영상데이터를 획득할 수 있다. 적어도 하나의 제2 전자장치(200)는 제1 영상데이터와 동일한 배경에 위치하는 동일한 피사체(11, 12)를 제1 전자장치(100)와 각각 다른 각도에서 촬영하여 제2 영상데이터를 획득할 수 있다. 이때, 제1 전자장치(100)와 적어도 하나의 제2 전자장치(200)는 근거리 무선 통신을 통해 하나의 그룹으로 형성될 수 있다. 제1 전자장치(100)는 적어도 하나의 제2 전자장치(200)에서 획득된 적어도 하나의 제2 영상데이터를 수신할 수 있다. 제1 전자장치(100)는 제1 전자장치(100)에서 획득된 제1 영상데이터와 적어도 하나의 제2 영상데이터를 이용하여 플로우 모션(Flow-Motion) 영상데이터로 생성할 수 있다.
제1 전자장치(100)는 적어도 하나의 제2 전자장치(200)와 근거리 무선 통신을 통해, 특정 그룹을 생성할 수 있다. 제1 전자장치(100)는 프리뷰 화면을 가이드 샷으로 획득할 수 있다. 제1 전자장치(100)는 획득된 가이드 샷에서 가이드 영역을 추출할 수 있다. 제1 전자장치(100)는 추출된 가이드 영역을 적어도 하나의 제2 전자장치(200)로 제공할 수 있다. 제1 전자장치(100)는 제1 영상데이터를 획득하고, 적어도 하나의 제2 전자장치(200)로부터 수신된 적어도 하나의 제2 영상데이터를 이용하여 플로우 모션 영상데이터를 생성할 수 있다.
도 2는 본 발명의 실시 예에 따른 영상데이터를 생성하는 제1 전자장치의 주요 구성을 나타낸 블록도이다.
도 2를 참조하면, 본 발명에 따른 제1 전자장치(100)는 제1 통신부(110), 제1 카메라부(120), 제1 입력부(130), 제1 출력부(140), 제1 저장부(150), 제1 제어부(160)를 포함할 수 있다. 제1 저장부(150)는 영상DB(151), 그룹정보(152)를 포함할 수 있고, 제1 제어부(160)는 그룹핑부(161), 가이드 영역추출부(162), 위치설정부(163), 영상생성부(164)를 포함할 수 있다.
제1 통신부(110)는 제1 전자장치(100)와 외부 장치(제2 전자장치(200) 또는 서버 장치(미도시)) 간의 통신을 연결할 수 있다. 예를 들면, 제1 통신부(110)는 무선 또는 유선 통신을 통해서 외부 장치와 통신할 수 있다. 무선 통신은 예를 들어, Wi-Fi(Wireless Fidelity), BT(BlueTooth), NFC(Near Field Communicaion) 또는 셀룰러통신(예; LTE, LTE-A, CDMA, WCDMA, UMTS, WiBro 또는 GSM 등) 중 적어도 하나를 포함할 수 있다. 유선 통신은 예를 들어, USB(Universal Serial Bus), HDMI(High Definition Multimedia Interface), RS-232(Recommended Standards 232) 또는 POTS(Plain Old Telephone Service) 중 적어도 하나를 포함할 수 있다.
제1 통신부(110)는 무선 통신을 통해 적어도 하나의 제2 전자장치(200)와 그룹핑을 할 수 있다. 제1 통신부(110)는 그룹핑이 완료된 적어도 하나의 제2 전자장치(200)로 가이드 영역을 전송할 수 있다. 제1 통신부(110)는 제2 전자장치(200)에서 제2 영상데이터를 획득하도록 영상획득신호를 제2 전자장치(200)로 전송할 수 있다. 제1 통신부(110)는 제2 전자장치(200)로부터 수신된 영상데이터 및 위치정보를 제1 제어부(160)로 제공할 수 있다.
제1 카메라부(120)는 제1 제어부(160)의 제어에 의해 특정 피사체에 대한 예컨대, 제1 카메라부(120)가 주시한 피사체에 대한 영상데이터를 획득할 수 있다. 제1 카메라부(120)는 프리뷰 화면을 획득하여 제1 제어부(160)로 제공할 수 있다. 제1 카메라부(120)는 제1 제어부(160)의 제어에 의해 프리뷰 화면을 캡쳐하여 가이드 샷 또는 제1 영상데이터로 획득할 수 있다. 이때, 가이드 샷은 프리뷰 화면에서 가이드 영역을 추출하기 위한 샷이고 제1 영상데이터는 플로우 모션 영상데이터를 생성하기 위한 영상데이터일 수 있다. 제1 카메라부(120)는 제1 출력부(140)에 프리뷰 화면이 출력된 상태에서 제1 입력부(130)에서 캡쳐를 위한 신호가 짧게 제공되면 가이드 샷을 획득하고, 캡쳐를 위한 신호가 길게 제공되면 제1 영상데이터를 획득할 수 있다. 이를 위해, 제1 카메라부(120)는 하나 이상의 이미지 센서(전면 센서 또는 후면 센서), 렌즈(미도시), ISP(Image Signal Processor, 미도시) 또는 플래쉬(Flash)(예; LED 또는 xenonlamp)를 포함할 수 있다.
제1 입력부(130)는 외부로부터의 입력에 따라 제1 전자장치(100)를 동작시키기 위한 신호를 생성하여 제1 제어부(160)로 제공할 수 있다. 제1 입력부(130)는 외부로부터의 입력에 따라 적어도 하나의 제2 전자장치(200)와 그룹핑을 수행하기 위한 그룹생성신호를 생성할 수 있다. 제1 입력부(130)는 검색된 적어도 하나의 제2 전자장치(200) 중에서 그룹핑을 수행하고자 하는 제2 전자장치(200)에 대한 선택신호를 생성할 수 있다. 제1 입력부(130)는 그룹핑 수행을 종료하고자 하는 그룹생성종료 신호를 생성할 수 있다. 제1 입력부(130)는 플로우 모션 영상데이터를 생성하기 위한 제어신호를 생성할 수 있다. 또한, 제1 입력부(130)는 제1 전자장치(100) 및 제1 전자장치(100)와 그룹핑된 제2 전자장치(200)에서의 영상데이터를 획득하도록 하기 위한 입력신호 등 제1 제어부(160)를 제어하기 위한 다양한 신호를 생성할 수 있다. 이를 위해, 제1 입력부(130)는 키패드, 키보드, 터치패드, 터치스크린 등의 입력장치로 형성될 수 있다.
제1 출력부(140)는 제1 제어부(160)의 제어에 따라 동작되는 다양한 화면을 표시할 수 있다. 이를 위해, 제1 출력부(140)는 LCD(Liquid Crystal Display), 터치스크린 등으로 형성될 수 있고, 터치스크린으로 형성된 경우, 제1 출력부(140)는 제1 입력부(130)의 역할을 동시에 실행할 수 있다. 제1 출력부(140)가 터치스크린으로 형성된 경우, 제1 출력부(140)는 모드 진입을 위한 가상의 버튼, 영상데이터 획득을 위한 가상의 버튼 및 플로우 모션 영상데이터 생성을 위한 가상의 버튼을 표시할 수 있다. 제1 출력부(140)는 상기와 같은 버튼 이외에도 제1 전자장치(100)의 동작을 제어하기 위한 다양한 가상의 버튼 등을 표시할 수 있다. 또한, 제1 출력부(140)는 제1 제어부(160)의 제어에 의해 프리뷰 화면에서 가이드 영역을 표시할 수 있고, 제1 영상데이터와 제2 영상데이터가 생성된 플로우 모션 영상데이터를 표시할 수 있다.
제1 저장부(150)는 제1 전자장치(100)를 동작시키기 위한 프로그램 또는 어플리케이션 등을 저장할 수 있다. 제1 저장부(150)는 제1 카메라부(120)에서 획득된 제1 영상데이터와 적어도 하나의 제2 전자장치(200)로부터 수신된 제2 영상데이터를 영상DB(151)에 저장할 수 있다. 그리고 제1 저장부(150)는 그룹핑된 그룹정보(152)를 저장할 수 있다. 그룹정보(152)에는 그룹핑된 제2 전자장치(200)들의 연결 정보 및 위치 정보가 저장될 수 있다. 제1 저장부(150)는 프리뷰 화면 또는 가이드 샷에 포함된 피사체에서 특징점을 추출하여 분석할 수 있는 특징점 분석 알고리즘을 저장할 수 있다. 제1 저장부(150)는 제1 전자장치(100)에서 획득된 제1 영상데이터와, 적어도 하나의 제2 전자장치(200)에서 획득된 제2 영상데이터를 이용하여 플로우 모션 영상데이터를 생성할 수 있는 생성 알고리즘을 저장할 수 있다.
제1 제어부(160)는 제1 통신부(110)를 통해 근거리 무선 통신을 수행하는 적어도 하나의 제2 전자장치(200)와 그룹핑을 수행할 수 있다. 제1 제어부(160)는 프리뷰 화면을 제1 영상데이터로 획득함과 동시에 제2 전자장치(200)에 표시된 프리뷰 화면을 제2 영상데이터로 획득하도록 제2 전자장치(200)를 제어할 수 있다. 제1 제어부(160)는 획득된 제1 영상데이터와, 제2 전자장치(200)로부터 수신된 제2 영상데이터를 이용하여 플로우 모션 영상데이터를 생성하여 제1 출력부(140)에 출력할 수 있다.
일실시 예에 따르면, 그룹핑부(161)는 제1 통신부(110)를 제어하여 근거리 무선통신을 활성화하고, 근거리 무선통신이 활성화된 적어도 하나의 제2 전자장치(200)를 검색할 수 있다. 제2 전자장치(200)의 검색이 완료된 그룹핑부(161)는 검색된 제2 전자장치(200)의 목록을 제1 출력부(140)에 출력할 수 있다. 제2 전자장치(200) 목록 중에서 그룹핑과 관련된 적어도 하나의 제2 전자장치(200) 선택신호가 수신되면, 그룹핑부(161)는 선택된 제2 전자장치(200)와 무선통신으로 연결하여 그룹을 생성할 수 있다. 그룹핑부(161)는 그룹핑이 완료된 제2 전자장치(200)의 연결 정보(장치정보, 핀코드 등)를 제1 저장부(150)의 그룹정보(152)에 저장할 수 있다.
가이드 영역추출부(162) 제1 카메라부(120)에서 획득된 가이드 샷을 분석하여 가이드 영역을 추출할 수 있다. 이때, 가이드 영역 추출을 위해 프리뷰 화면이 캡쳐된 샷일 수 있다. 가이드 영역추출부(162)는 특징점 분석 알고리즘을 호출하여 가이드 샷을 분석할 수 있다. 가이드 영역추출부(162)는 분석결과에 의거하여 가이드 샷에서 특징점을 갖는 피사체를 추출할 수 있다. 가이드 영역추출부(162)는 추출된 피사체를 기준으로 특정 영역을 가이드 영역으로 추출할 수 있다. 또한, 가이드 영역추출부(162)는 가이드 샷의 중앙부분을 가이드 영역으로 추출할 수 있다.
가이드 영역추출부(162)는 추출된 가이드 영역을 제1 통신부(110)를 통해 적어도 하나의 제2 전자장치(200)로 전송할 수 있다. 이때, 가이드 영역추출부(162)는 가이드 영역으로 설정된 영상데이터의 투명도를 조절하여 제2 전자장치(200)로 전송할 수도 있다. 가이드 영역추출부(162)는 제1 출력부(140)에 출력된 프리뷰 화면에서 가이드 영역을 추출할 수도 있다.
위치설정부(163)는 적어도 하나의 제2 전자장치(200)로부터 수신된 위치 정보에 의거하여, 제1 전자장치(100)를 기준으로 제1 전자장치(100)와 제2 전자장치(200)의 순서를 정렬할 수 있다. 제2 전자장치(200)로부터 수신되는 위치 정보는 제1 전자장치(100)가 그룹핑된 장치들의 중앙에 위치하는 것을 기반으로 제2 전자장치(200)가 왼쪽 또는 오른쪽의 몇 번째에 위치하는지를 나타내는 정보일 수 있다. 상기 위치 정보는 제2 전자장치(200)의 사용자로부터 선택된 정보일 수 있다.
영상생성부(164) 제2 전자장치(200)로부터 제2 영상데이터를 촬영하기 위한 준비가 완료되었음을 알리는 준비신호가 수신되면, 제1 입력부(130)로부터 수신된 영상데이터 획득신호에 의거하여 제1 출력부(140)에 표시된 프리뷰 화면을 제1 영상데이터로 획득할 수 있다. 영상생성부(164)는 영상데이터 획득신호를 제2 전자장치(200)로 전송하여, 제1 영상데이터 획득 시점과 유사 또는 동일한 시점에 제2 전자장치(200)가 제2 영상데이터를 획득할 수 있도록 할 수 있다.
영상생성부(164)는 제2 전자장치(200)로부터 제2 영상데이터를 수신하고, 위치설정부(163)에서 정렬된 제1 전자장치(100)와 제2 전자장치(200)의 위치에 의거하여 제1 영상데이터와 제2 영상데이터를 정렬하는 것으로 제1 및 제2 영상데이터를 플로우 모션 영상데이터로 생성할 수 있다. 이때, 제1 영상데이터 및 제2 영상데이터가 정렬되는 경우에는 서로 다른 각도에서 촬영된 영상데이터를 사용자가 연속적으로 확인할 수 있기 때문에, 피사체를 입체감 있게 확인할 수 있다.
영상생성부(164)는 제2 전자장치(200)로부터 제2 영상데이터를 수신하고, 제1 영상데이터의 가이드 영역에 포함된 피사체와 동일한 피사체를 제2 영상데이터에서 추출할 수 있다. 영상생성부(164)는 추출된 피사체를 중첩하여 플로우 모션 영상데이터로 생성할 수 있다. 영상생성부(164)는 제1 영상데이터 및 제2 영상데이터를 중첩하여 플로우 모션 영상데이터로 생성할 수 있다. 플로우 모션 영상데이터는 서로 다른 각도에서 획득된 제1 영상데이터 및 제2 영상데이터에 존재하는 피사체 또는 제1 및 제2 영상데이터를 하나의 영상데이터로 중첩하여 출력되기 때문에 피사체를 입체감 있게 확인할 수 있는 효과가 있다.
영상생성부(164)는 생성이 완료된 플로우 모션 영상데이터를 제1 출력부(140)로 출력할 수 있다. 영상생성부(164)는 플로우 모션 영상데이터를 제1 저장부(150)에 저장할 수 있다. 영상생성부(164)는 플로우 모션 영상데이터를 제2 전자장치(200)로 전송할 수 있다. 아울러, 제2 영상데이터 및 위치정보는 제2 전자장치(200)로부터 동시에 수신될 수 있으며, 수신된 위치정보는 위치설정부(163)로 제공되고, 제2 영상데이터는 영상생성부(164)로 각각 제공될 수 있다.
도 3은 본 발명의 실시 예에 따른 플로우 모션 영상데이터를 위한 영상데이터 획득을 지원하는 제2 전자장치의 주요 구성을 나타낸 블록도이다.
도 3을 참조하면, 본 발명에 따른 제2 전자장치(200)는 제2 통신부(210), 제2 카메라부(220), 제2 입력부(230), 제2 출력부(240), 제2 저장부(250), 제2 제어부(260)를 포함할 수 있고, 제2 제어부(260)는 피사체추출부(261), 포커스확인부(262)를 포함할 수 있다.
제2 전자장치(200)는 제1 전자장치(100)와 근거리 무선 통신을 통해, 제1 전자장치(100)로부터 가이드 영역을 수신할 수 있다. 제2 전자장치(200)는 프리뷰 화면에서 가이드 영역에 해당하는 위치로의 포커싱이 완료됨이 확인되면 제2 영상데이터를 획득하여 제1 전자장치(100)로 전송할 수 있다.
제2 통신부(210)는 제2 전자장치(200)와 외부 장치(제1 전자장치(100) 또는 서버 장치(미도시))간의 통신을 연결할 수 있다. 예를 들면, 제2 통신부(210)는 무선 또는 유선 통신을 통해서 외부 장치와 통신할 수 있다. 무선 통신을 예를 들어, Wi-Fi(Wireless Fidelity), BT(BlueTooth), NFC(Near Field Communicaion) 또는 셀룰러통신(예; LTE, LTE-A, CDMA, WCDMA, UMTS, WiBro 또는 GSM 등) 중 적어도 하나를 포함할 수 있다. 유선 통신은 예를 들어, USB(Universal Serial Bus), HDMI(High Definition Multimedia Interface), RS-232(Recommended Standards 232) 또는 POTS(Plain Old Telephone Service) 중 적어도 하나를 포함할 수 있다.
제2 통신부(210)는 무선 통신을 통해 제1 전자장치(100) 또는 타 제2 전자장치(200)와 연결을 수행하여 그룹핑을 할 수 있다. 제2 통신부(210)는 제1 전자장치(100)로부터 제2 영상데이터를 획득하기 위한 신호를 수신하여 제2 제어부(260)로 제공할 수 있다. 제2 통신부(210)는 제2 제어부(260)에 의해 제1 전자장치(100)를 기준으로 확인된 제2 전자장치(200)의 위치정보와 제2 전자장치(200)에서 획득된 제2 영상데이터를 제1 전자장치(100)로 전송할 수 있다. 이때, 제2 전자장치(200)의 위치정보는 제2 전자장치(200)의 사용자가 제1 전자장치(100)를 기준으로 제1 전자장치(100)의 왼쪽 또는 오른쪽에 몇 번째에 위치하는지 선택할 수 있다.
제2 카메라부(220)는 제2 제어부(260)의 제어에 의해 특정 피사체에 대한 예컨대, 제1 카메라부(120)가 주시하고 있는 피사체에 대한 영상데이터를 획득할 수 있다. 제2 카메라부(220)는 프리뷰 화면을 획득하여 제2 제어부(260)로 제공할 수 있고, 제2 제어부(260)의 제어에 의해 프리뷰 화면을 캡쳐하여 제2 영상데이터로 획득할 수 있다. 이를 위해, 제2 카메라부(220)는 하나 이상의 이미지 센서(전면 센서 또는 후면 센서), 렌즈(미도시), ISP(Image Signal Processor, 미도시) 또는 플래쉬(Flash)(예; LED 또는 xenonlamp)를 포함할 수 있다.
제2 입력부(230)는 외부로부터의 입력에 따라 제2 전자장치(200)를 동작시키기 위한 신호를 생성하여 제2 제어부(260)로 제공할 수 있다. 제2 입력부(230)는 외부로부터의 입력에 따라 제1 전자장치(100)와 그룹핑을 수행하기 위한 그룹생성신호를 생성할 수 있다. 예컨대, 그룹생성신호는 제1 전자장치(100)로부터 그룹핑 수행에 대한 요청신호가 수신되면, 요청신호에 대한 응답신호일 수 있다. 제2 입력부(230)는 제1 전자장치(100)를 기준으로 제2 전자장치(200)의 위치에 대한 위치정보 신호 등 제2 제어부(260)를 제어하기 위한 다양한 신호를 생성할 수 있다. 이를 위해, 제2 입력부(230)는 키패드, 키보드, 터치패드, 터치스크린 등의 입력장치로 형성될 수 있다.
제2 출력부(240)는 제2 제어부(260)의 제어에 의해 동작되는 다양한 화면을 표시할 수 있다. 이를 위해, 제2 출력부(240)는 LCD(Liquid Crystal Display), 터치스크린 등으로 형성될 수 있고, 터치스크린으로 형성된 경우, 제2 출력부(240)는 제2 입력부(230)의 역할을 동시에 실행할 수 있다. 제2 출력부(240)가 터치스크린으로 형성된 경우, 제2 출력부(240)는 제2 제어부(260)의 제어에 의해 제2 카메라부(220)에서 획득된 프리뷰 화면을 표시할 수 있고, 제2 전자장치(200)의 위치를 선택할 수 있는 가상의 버튼 등을 표시할 수 있다.
제2 저장부(250)는 제2 전자장치(200)를 동작시키기 위한 프로그램 또는 어플리케이션 등을 저장할 수 있다. 제2 저장부(250)는 제2 카메라부(220)에서 획득된 제2 영상데이터를 저장할 수 있다. 그리고 제2 저장부(250)는 프리뷰 화면을 분석하여 프리뷰 화면에 포함된 피사체에서 특징점을 추출하여 분석할 수 있는 특징점 분석 알고리즘을 저장할 수 있다. 그리고 제2 저장부(250)는 제1 전자장치(100)로부터 수신된 가이드 영역에 포함된 피사체와 제2 출력부(240)에 출력된 제2 영상데이터에 존재하는 피사체에 대한 위치의 유사성을 산출할 수 있는 유사도 판별 알고리즘을 저장할 수 있다.
제2 제어부(260)는 제1 전자장치(100)와 근거리 무선 통신을 수행하고, 제1 전자장치(100)로부터 가이드 영역을 수신할 수 있다. 제2 제어부(260)는 프리뷰 화면에서 수신된 가이드 영역에 해당하는 위치로 포커싱이 완료되면, 영상데이터를 획득하여 제1 전자장치(100)로 제공할 수 있다. 이때, 제2 제어부(260)는 제2 카메라부(220)에 일정 시간 동안 움직임이 발생하지 않거나, 제2 입력부(230)를 통해 포커싱 완료신호가 수신되면 포커싱 완료를 확인할 수 있다.
일실시 예에 따르면, 제2 제어부(260)는 제1 전자장치(100)로부터 전송된 그룹핑 요청신호에 따른 화면을 제2 출력부(240)에 출력하고, 제2 입력부(230)로부터 수신된 신호에 의거하여 제1 전자장치(100)와 그룹핑을 수행할 수 있다. 제1 전자장치(100)와 근거리 무선통신으로 연결된 이후에 피사체추출부(261)는 제2 입력부(230)로부터 수신된 플로우 모션 생성신호에 의거하여 플로우 모션 생성모드로 진입할 수 있다. 제2 제어부(260)는 제2 카메라부(220)를 활성화하여 프리뷰 화면을 획득하고, 획득된 프리뷰 화면을 제2 출력부(240)에 출력할 수 있다.
피사체추출부(261)는 제2 통신부(210)를 통해 제1 전자장치(100)로부터 가이드 영역이 수신되면 프리뷰 화면에서 가이드 영역에 포함된 제1 피사체와 유사 또는 동일한 제2 피사체를 추출할 수 있다. 피사체추출부(261)는 제2 저장부(250)에 저장된 특징점 분석 알고리즘을 호출하여 프리뷰 화면에서 제2 피사체를 추출할 수 있고, 유사도 판별 알고리즘을 호출하여 제1 피사체와 제2 피사체의 유사도를 확인할 수 있다.
제1 피사체와 제2 피사체의 유사도가 임계치 이상이면 포커스확인부(262)는 제2 출력부(240)에 출력된 프리뷰 화면에 가이드 영역의 이동방향을 지시하는 방향지시자를 표시할 수 있다. 방향지시자는 제1 피사체와 유사한 제2 피사체의 위치 및 높이가 제1 피사체와 유사하도록 포커싱을 맞추기 위한 가이드 라인일 수 있다. 포커스확인부(262)는 제2 피사체가 제1 피사체와 유사 또는 동일한 위치에 존재하는 상태에서, 제2 카메라부(220)에 일정 시간 동안 움직임이 발생하지 않거나, 제2 입력부(230)를 통해 포커싱 완료신호가 수신되면 포커싱이 완료된 것으로 확인할 수 있다.
포커스확인부(262)는 포커싱이 완료되면 제2 영상데이터를 획득할 수 있는 상태가 되었음을 알리기 위한 준비 신호를 생성하여 제1 전자장치(100)로 전송할 수 있다. 준비 신호에 의거하여 제1 전자장치(100)로부터 제2 영상데이터를 획득하기 위한 획득신호가 수신되면, 포커스확인부(262)는 제2 출력부(240)에 출력된 프리뷰 화면을 제2 영상데이터로 획득할 수 있다. 포커스확인부(262)는 획득된 제2 영상데이터를 제2 출력부(240)에 출력하고, 제1 전자장치(100)를 기준으로 제2 전자장치(200)의 위치를 선택할 수 있는 화면을 제2 출력부(240)에 출력할 수 있다. 포커스확인부(262)는 제2 입력부(230)에 의해 제2 전자장치(200)의 위치에 대한 위치신호를 수신할 수 있다. 포커스확인부(262)는 획득된 제2 영상데이터와 상기 위치신호를 제1 전자장치(100)로 전송할 수 있다. 이때, 위치를 선택할 수 있는 화면은 제2 영상데이터가 획득된 이후에 출력되는 것으로 기재하고 있으나, 반드시 이에 한정되는 것은 아니다. 제2 전자장치(200)의 위치는 제1 전자장치(100)와 그룹핑을 수행하고 난 이후에 선택될 수 있고, 그룹핑 완료된 이후에 제1 전자장치(100)로 위치신호가 전송되거나, 제2 영상데이터와 동시에 전송될 수 있다.
또한, 포커스확인부(262)에서 포커싱이 완료됨이 확인되면, 제2 제어부(260)는 제2 입력부(230)에서 수신된 신호에 따라 제2 출력부(240)에 출력된 프리뷰 화면을 제2 영상데이터로 획득하여 제1 전자장치(100)로 전송할 수 있다. 제2 제어부(260)는 상기에서와 같이 제2 전자장치(200)의 위치신호를 제2 영상데이터와 함께 제1 전자장치(100)로 전송할 수 있다.
도 4는 본 발명의 실시 예에 따른 영상데이터를 제어하기 위한 그룹핑을 수행하는 방법을 설명하기 위한 순서도이다.
도 1 내지 도 4를 참조하면, 11과정에서 제1 제어부(160)는 제1 입력부(130)로부터 그룹 생성을 위한 그룹생성신호가 수신되면 그룹 생성모드로 진입하여 13과정으로 진행할 수 있다. 11과정에서 제1 제어부(160)는 제1 입력부(130)로부터 임계시간 동안 그룹생성신호가 수신되지 않으면 27과정으로 진행하여, 수행 중이던 기능을 지속적으로 수행하거나, 대기상태를 유지할 수 있다.
13과정에서 제1 제어부(160)는 제1 통신부(110)를 제어하여 근거리 무선통신을 활성화하고, 15과정으로 진행하여 근거리 무선통신이 활성화된 제2 전자장치를 검색할 수 있다. 이때, 근거리 무선통신은 Wi-Fi, 블루투스, NFC를 포함하는 무선통신일 수 있다. 15과정에서 제2 전자장치(200)의 검색이 완료된 제1 제어부(160)는 17과정으로 진행하여 제2 전자장치(200)의 선택신호를 제1 입력부(130)로부터 수신할 수 있다. 제1 제어부(160)는 검색된 제2 전자장치(200) 목록을 제1 출력부(140)에 리스트 형태로 출력할 수 있다.
17과정에서 제1 제어부(160)는 제2 전자장치를 선택하기 위한 선택신호가 제1 입력부(130)로부터 수신되면 19과정으로 진행하고, 선택신호가 수신되지 않으면 제1 제어부(160)는 25과정으로 진행할 수 있다. 25과정에서 제1 제어부(160)는 그룹생성을 종료하기 위한 그룹생성종료 신호가 제1 입력부(130)로부터 수신되면 그룹 생성모드를 종료하고, 그룹생성종료 신호가 수신되지 않으면 17과정으로 회귀하여 제2 전자장치(200)를 재검색할 수 있다.
19과정에서 제1 제어부(160)는 17과정에서 선택된 제2 전자장치(200)와 근거리 무선통신을 통한 연결을 수행하고, 21과정으로 진행할 수 있다. 이때, 제1 제어부(160)는 선택신호에 해당하는 제2 전자장치(200)로 그룹핑 요청신호를 제공하고, 제2 전자장치(200)로부터 요청신호에 대한 응답신호를 수신한 이후에 제2 전자장치(200)와 근거리 무선 통신을 통한 연결이 수행될 수 있다.
21과정에서 제1 제어부(160)는 제1 입력부(130)로부터 제2 전자장치(200)의 선택종료신호가 수신되면 23과정으로 진행하고, 선택종료신호가 수신되지 않으면 17과정으로 회귀할 수 있다. 23과정에서 제1 제어부(160)는 선택된 적어도 하나의 제2 전자장치(200)와의 그룹핑을 수행할 수 있다.
도 5는 본 발명의 실시 예에 따른 제1 전자장치에서 영상데이터를 제어하는 방법을 설명하기 위한 순서도이다.
도 1, 도 2, 도 4 및 도 5를 참조하면, 41과정에서 적어도 하나의 제2 전자장치(200)와의 그룹핑이 완료된 제1 제어부(160)는 제1 입력부(130)로부터 플로우 모션 영상데이터를 생성하기 위한 제어신호가 수신되면 43과정으로 진행할 수 있다. 이때, 제어신호는 아이콘, 메뉴 등의 선택신호로부터 생성될 수 있고, 선택신호는 키버튼, 터치스크린 등으로부터 생성될 수 있다. 41과정에서 제어신호가 수신되지 않으면 제1 제어부(160)는 61과정으로 진행하여 제1 전자장치(100)가 수행 중이던 기능을 지속적으로 수행할 수 있다.
43과정에서 플로우 모션 생성모드로 진입한 제1 제어부(160)는 제1 카메라부(120)를 활성화하여 프리뷰 화면을 제1 출력부(140)에 출력할 수 있다. 45과정에서 제1 제어부(160)는 출력된 프리뷰 화면에서 가이드 영역을 추출할 수 있다. 일실시 예에 따르면, 제1 제어부(160)는 프리뷰 화면의 변화가 발생하지 않은 상태로 임계시간 이상 경과하면, 프리뷰 화면을 가이드 샷으로 획득할 수 있다. 또한, 제1 제어부(160)는 제1 입력부(130)로부터 프리뷰 화면의 가이드 샷으로 획득하기 위한 신호가 수신되면, 프리뷰 화면을 가이드 샷으로 획득할 수 있다. 제1 제어부(160)는 획득된 가이드 샷을 분석하여 가이드 샷에 존재하는 피사체를 추출할 수 있다. 이때, 가이드 샷을 분석하기 위한 알고리즘은 영상데이터에서 피사체를 인식하고, 피사체의 특징점을 분석하기 위한 알고리즘일 수 있다. 제1 제어부(160)는 알고리즘에 의해 가이드 샷에서 획득된 피사체가 포함된 일정 영역을 가이드 영역으로 추출할 수 있다. 또한, 제1 제어부(160)는 가이드 샷의 중앙부분을 가이드 영역으로 추출할 수 있다. 47과정에서 제1 제어부(160)는 제1 통신부(110)를 제어하여 추출된 가이드 영역을 그룹핑된 적어도 하나의 제2 전자장치(200)로 전송할 수 있다.
49과정에서 제1 제어부(160)는 제1 통신부(110)를 통해 그룹핑된 모든 제2 전자장치(200)로부터 영상데이터를 획득하기 위한 준비가 완료된 준비신호가 수신되면 51과정으로 진행하고, 준비신호가 수신되지 않으면 59과정으로 진행할 수 있다. 59과정에서 제1 제어부(160)는 준비신호가 수신되지 않는 시간이 임계시간을 경과하는지 확인하여, 임계시간이 경과하면 플로우 모션 생성모드를 종료하고, 임계시간을 경과하지 않으면 49과정으로 회귀하여 준비신호의 수신을 대기할 수 있다. 또한, 제1 제어부(160)는 임계시간이 경과한 이후에 적어도 하나의 제2 전자장치(200)로부터 준비신호가 수신되지 않으면, 준비신호를 전송하지 않은 제2 전자장치(200)로 준비신호 요청메시지를 전송할 수도 있다.
51과정에서 제1 제어부(160)는 제1 입력부(130)로부터 수신된 영상데이터 획득 신호에 의거하여 프리뷰 화면이 캡쳐된 가이드 샷을 제1 영상데이터로 획득하거나, 프리뷰 화면을 제1 영상데이터 획득할 수 있다. 제1 입력부(130)로부터 수신된 영상데이터 획득신호를 제2 전자장치(200)로 전송할 수 있다. 53과정에서 제1 제어부(160)는 제2 전자장치(200)에서 획득된 제2 영상데이터와 제2 전자장치(200)의 위치정보를 수신할 수 있다. 위치정보는 제1 전자장치(100)를 기준으로 설정된 제2 전자장치(200)의 위치를 나타낼 수 있다. 상기 위치정보는 도 4에 해당하는 그룹핑 과정에서 획득될 수도 있다.
55과정에서 제1 제어부(160)는 제1 영상데이터와 제2 영상데이터를 정렬하여 플로우 모션 영상데이터를 생성할 수 있다. 제1 제어부(160)는 제2 전자장치(200)로부터 수신된 위치정보를 기준으로 제1 영상데이터와 제2 영상데이터를 정렬하고, 정렬된 순서에 기초하여 생성할 수 있다.
또한, 제1 제어부(160)는 제1 영상데이터와 제2 영상데이터를 중첩하여 하나의 플로우 모션 영상데이터를 생성할 수 있다. 제1 제어부(160)는 제1 영상데이터와 제2 영상데이터에서 가이드 영역에 포함된 동일한 피사체를 중첩하여 플로우 모션 영상데이터로 생성할 수 있다. 제1 제어부(160)는 제1 영상데이터 및 제2 영상데이터를 중첩하여 플로우 모션 영상데이터로 생성할 수 있다.
57과정에서 제1 제어부(160)는 생성이 완료된 플로우 모션 영상데이터를 제1 출력부(140)에 출력할 수 있다. 이때, 사용자는 서로 다른 각도에서 촬영된 복수개의 영상데이터를 연속적으로 확인할 수 있기 때문에, 피사체를 입체감 있게 확인할 수 있다. 또한, 사용자는 서로 다른 각도에서 획득된 제1 영상데이터 및 제2 영상데이터에 존재하는 피사체 또는 제1 및 제2 영상데이터가 중첩된 하나의 영상데이터를 확인할 수 있기 때문에 피사체를 입체감 있게 확인할 수 있는 효과가 있다.
도 6은 본 발명의 실시 예에 따른 제2 전자장치에서 플로우 모션 영상데이터를 위한 영상데이터 획득을 지원하는 방법을 설명하기 위한 순서도이다.
도 1, 도 3, 도 4 및 도 6을 참조하면, 71과정에서 제1 전자장치(100)와의 그룹핑이 완료된 제2 제어부(260)는 제2 입력부(230)로부터 플로우 모션 영상데이터를 생성하기 위한 제어신호가 수신되면 73과정으로 진행할 수 있다. 이때, 제어신호는 아이콘, 메뉴 등의 선택신호로부터 생성될 수 있고, 선택신호는 키버튼, 터치스크린 등으로부터 생성될 수 있다. 71과정에서 제어신호가 수신되지 않으면 제2 제어부(260)는 91과정으로 진행하여 제2 전자장치(200)가 수행 중이던 기능을 지속적으로 수행할 수 있다. 이때, 제어신호는 제2 입력부(230)로부터 수신할 수 있지만, 근거리 무선 통신을 통해 그룹핑된 그룹의 마스터인 제1 전자장치(100)로부터 수신될 수도 있다.
73과정에서 플로우 모션 생성모드로 진입한 제2 제어부(260)는 제2 카메라부(220)를 활성화하여 프리뷰 화면을 제2 출력부(240)에 출력할 수 있다. 75과정에서 제2 제어부(260)는 제2 통신부(210)를 통해 제1 전자장치(100)로부터 가이드 영역이 수신되면, 77과정에서 제2 제어부(260)는 프리뷰 화면에서 가이드 영역에 해당하는 피사체를 추출할 수 있다. 일실시 예에 따르면, 제2 제어부(260)는 제2 출력부(240)에 출력된 프리뷰 화면을 분석하여 가이드 영역에 포함된 피사체(이하, 제1 피사체라 함)와 임계치 이상 동일한 피사체(이하, 제2 피사체라 함)를 추출할 수 있다. 이때, 프리뷰 화면을 분석하기 위한 알고리즘은 영상데이터에서 피사체를 인식하고, 피사체의 특징점을 분석하기 위한 알고리즘일 수 있으며, 제1 피사체와 제2 피사체의 유사도를 확인하기 위한 알고리즘일 수 있다.
79과정에서 제2 제어부(260)는 프리뷰 화면에 가이드 영역의 이동방향을 지시하는 방향지시자를 표시할 수 있다. 방향지시자는 제1 피사체와 유사한 제2 피사체의 위치 및 높이가 제1 피사체와 유사하도록 포커싱을 맞추기 위한 가이드 라인일 수 있다. 81과정에서 제2 제어부(260)는 제2 전자장치(200) 사용자의 움직임에 의해 제2 피사체가 가이드 영역에 포함된 제1 피사체와 유사한 위치에 존재하게 되면 포커싱이 완료된 것으로 판단하여 83과정으로 진행할 수 있다. 반대로, 81과정에서 포커싱이 완료된 것으로 판단되지 않으면 제2 제어부(260)는 79과정으로 회귀하여 지속적으로 포커싱 완료여부를 확인할 수 있다. 이때, 제2 제어부(260)는 제2 피사체가 제1 피사체와 유사 또는 동일한 위치에 존재하는 상태에서, 제2 카메라부(220)에 일정 시간 동안 움직임이 발생하지 않거나, 제2 입력부(230)를 통해 포커싱 완료신호가 수신되면 포커싱이 완료된 것으로 확인할 수 있다.
81과정에서 포커싱이 완료되면 83과정에서 제2 제어부(260)는 제2 영상데이터를 획득할 수 있는 상태가 되었음을 알리기 위한 준비 신호를 생성하여 제2 통신부(210)를 통해 제1 전자장치(100)로 전송할 수 있다. 85과정에서 제2 제어부(260)는 제2 통신부(210)를 통해 제1 전자장치(100)로부터 제2 영상데이터를 획득하기 위한 획득신호가 수신되면, 프리뷰 화면을 제2 영상데이터로 획득할 수 있다. 87과정에서 제2 제어부(260)는 제2 입력부(230)로부터 제1 전자장치(100)를 기준으로 제2 전자장치(200)가 어디에 위치하는지에 대한 위치신호를 수신할 수 있다. 이때, 위치신호는 그룹핑된 제1 전자장치(100)가 중앙에 위치하고, 제2 전자장치(200)가 상기 중앙을 기준으로 왼쪽 또는 오른쪽의 몇 번째에 위치하는지에 대한 순서 정보일 수 있다. 89과정에서 제2 제어부(260)는 획득된 제2 영상데이터와 확인된 위치신호를 제1 전자장치(100)로 전송할 수 있다.
도 7은 본 발명의 실시 예에 따른 제1 전자장치에서 가이드 영역 추출을 설명하기 위한 화면예시도이다.
도 7을 참조하면, 제1 전자장치(100)는 제1 카메라부(120)를 활성화하고, 두 개의 피사체(11, 12)를 기준으로 프리뷰 화면을 제1 출력부(140)에 출력할 수 있다. 사용자는 상기 화면을 가이드 샷으로 설정하도록 제1 입력부(130)를 조작하거나 제1 출력부(140)에 특정 터치를 입력할 수 있다. 제1 제어부(160)는 두 개의 피사체(11, 12)가 기준이 되는 프리뷰 화면을 가이드 샷으로 생성할 수 있다. 제1 제어부(160)는 제1 저장부(150)에 저장된 특징점 분석 알고리즘을 호출하여 두 개의 피사체(11, 12)에서 특징점을 추출 및 분석할 수 있고, 분석결과 두 개의 피사체(11. 12)가 사람임을 인식할 수 있다. 제1 제어부(160)는 두 개의 피사체(11, 12)를 기준으로 가이드 영역(A)을 생성할 수 있고, 생성된 가이드 영역(A)을 제1 통신부(110)를 통해 제1 전자장치(100)와 그룹핑된 적어도 하나의 제2 전자장치(200)로 전송할 수 있다. 이때, 제1 제어부(160)는 가이드 샷에서 가이드 영역(A)이 위치하는 곳의 정보를 추출하여 적어도 하나의 제2 전자장치(200)로 전송할 수 있다.
도 8은 본 발명의 실시 예에 따른 제2 전자장치에서 포커싱 완료를 설명하기 위한 화면예시도이다.
도 1 및 도 8을 참조하면, 제1 전자장치(100)와 그룹핑된 적어도 하나의 제2 전자장치(200)가 제2 카메라부(220)를 활성화하면, 도 8(a)와 같이 두 개의 피사체(11b, 12b)가 포함된 프리뷰 화면이 제2 출력부(240)에 출력될 수 있다. 제2 제어부(260)는 제1 전자장치(100)로부터 수신된 가이드 영역(A)을 제2 출력부(240)에 출력할 수 있다. 이때, 가이드 영역(A)은 제1 전자장치(100)의 가이드 샷에서의 위치에 대한 정보를 포함하고 있으므로, 제1 전자장치(100)에서 획득된 위치와 유사 또는 동일한 위치에 출력될 수 있다. 가이드 영역(A)에는 도 7에서 확인된 두 개의 피사체(11, 12, 이하, 11a, 12a)가 표시될 수 있다. 두 개의 피사체(11a, 12a)의 투명도는 제1 전자장치(100) 또는 제2 전자장치(200)에 의해 조절이 가능할 수 있다. 제2 제어부(260)는 제2 저장부(250)에 저장된 특징점 분석 알고리즘을 호출하여 두 개의 피사체(11b, 12b)에서 특징점을 추출 및 분석하여 사람으로 인식할 수 있다. 제2 제어부(260)는 프리뷰 화면에서 추출된 두 개의 피사체(11b, 12b)와 가이드 영역(A)에 포함된 두 개의 피사체(11a, 12a)의 위치를 일치시키기 위해 제2 카메라부(220)의 이동 기준이 되는 방향지시자(B)을 제2 출력부(240)에 출력할 수 있다.
도 8(b)와 같이 제2 카메라부(220)의 이동으로 인해, 가이드 영역(A)의 두 개의 피사체(11a, 12a)와 제2 출력부(240)에 출력된 두 개의 피사체(11b, 12b)의 위치가 임계치 이상 유사하면 제2 제어부(260)는 포커싱이 완료된 것으로 확인할 수 있다. 이때, 제2 제어부(260)는 사용자의 움직임에 의해 프리뷰 화면에서 제2 피사체가 제1 피사체와 유사 또는 동일한 위치에 존재하게 된 상태에서, 제2 카메라부(220)에 일정 시간 동안 움직임이 발생하지 않거나, 제2 입력부(230)를 통해 포커싱 완료신호가 수신되면 포커싱외 완료된 것으로 확인할 수 있다. 제2 제어부(260)는 포커싱이 완료됨을 알리는 준비 신호를 생성하여 제1 전자장치(100)로 전송할 수 있다.
그리고 제2 제어부(260)가 제1 전자장치(100)로부터 영상데이터를 획득하기 위한 신호가 수신되면, 프리뷰 화면을 캡쳐하여 제2 영상데이터를 생성하고, 도 8(c)의 도면부호 C와 같이 제2 전자장치(200)의 위치를 선택할 수 있는 화면을 제2 출력부(240)에 출력할 수 있다. 여기에서 도면부호 C의 L1은 도 1의 201, L2는 도 1의 202, center는 도 1의 100, R1은 도 1의 203, R2는 도 1의 204 위치를 각각 나타낼 수 있다. 도 8의 제2 전자장치(200)가 R2의 위치에 존재하면, 제2 제어부(260)는 제2 입력부(230)를 통해 R2에 대한 선택신호를 수신할 수 있다. 제2 제어부(260)는 선택신호에 대응되는 제2 전자장치(200)의 위치정보와 제2 전자장치(200)에서 획득된 제2 영상데이터를 제1 전자장치(100)로 전송할 수 있다.
도 9는 본 발명의 제1 실시 예에 따른 제1 전자장치에서 생성된 플로우 모션 영상데이터 출력을 설명하기 위한 화면예시도이다.
도 9를 참조하면, 제1 전자장치(100)에서 획득된 제1 영상데이터와 적어도 하나의 제2 전자장치(200)로부터 수신된 제2 영상데이터들은 제1 제어부(160)의 제어에 의해 도 9(a)와 같이 제1 출력부(140)에 출력될 수 있다. 제1 전자장치(100)에서 획득된 제1 영상데이터(100a)는 제1 출력부(140)의 중앙에 출력될 수 있고, 적어도 하나의 제2 전자장치(200)에서 획득된 제2 영상데이터(201a, 202a, 203a, 204a)들은 제1 영상데이터(100a)를 기준으로 좌우에 위치정보에 의거하여 정렬될 수 있다.
도 9(b)와 같이 사용자가 화살표 방향으로 제1 출력부(140)를 터치하면 여러 각도에서 촬영된 복수개의 영상데이터가 연속적으로 회전되면서 출력되기 때문에, 사용자가 동일한 피사체를 다양한 각도에서 바라보는 것과 같이 입체감 있게 확인할 수 있는 플로우 모션의 형태로 출력될 수 있다.
도 10은 본 발명의 제2 실시 예에 따른 제1 전자장치에서 생성된 플로우 모션 영상데이터의 출력을 설명하기 위한 화면예시도이다.
도 1 및 도 10을 참조하면, 제1 전자장치(100)에서 획득된 제1 영상데이터와 적어도 하나의 제2 전자장치(200)로부터 수신된 제2 영상데이터들은 제1 제어부(160)의 제어에 의해 도 10과 같이 제1 출력부(140)에 출력도리 수 있다. 제1 제어부(160)는 제1 영상데이터 및 제2 영상데이터들을 중첩하여 하나의 플로우 모션 영상데이터로 생성할 수 있다. 도 10에서 도면부호 100a에 해당하는 영상데이터는 제1 전자장치(100)에서 획득된 영상데이터, 도면부호 201a에 해당하는 영상데이터는 도 1의 제2 전자장치(201)에서 획득된 영상데이터, 도면부호 202a에 해당하는 영상데이터는 도 1의 제2 전자장치(202)에서 획득된 영상데이터, 도면부호 203a에 해당하는 영상데이터는 도 1의 제2 전자장치(203)에서 획득된 영상데이터, 도면부호 204a에 해당하는 영상데이터는 도 1의 제2 전자장치(204)에서 획득된 영상데이터일 수 있다. 이와 같이, 사용자는 서로 다른 각도에서 획득된 제1 영상데이터 및 제2 영상데이터에 존재하는 피사체 또는 제1 및 제2 영상데이터가 중첩된 하나의 영상데이터를 확인할 수 있기 때문에 피사체를 입체감 있게 확인할 수 있는 효과가 있다.
지금까지 실시 예를 통하여 본 발명에 따른 영상데이터를 제어하는 전자장치 및 방법에 대하여 설명하였다. 본 명세서와 도면에서는 본 발명의 바람직한 실시예에 대하여 개시하였으며, 비록 특정 용어들이 사용되었으나, 이는 단지 본 발명의 기술 내용을 쉽게 설명하고 발명의 이해를 돕기 위한 일반적인 의미에서 사용된 것일 뿐, 본 발명의 범위를 한정하고자 하는 것은 아니다. 상기에서 기재된 실시예 외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형예들이 실시 가능하다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다.
100: 제1 전자장치 110: 제1 통신부
120: 제1 카메라부 130: 제1 입력부
140: 제1 출력부 150: 제1 저장부
151: 영상DB 152: 그룹정보
160: 제1 제어부 161: 그룹핑부
162: 가이드 영역추출부 163: 위치설정부
164: 영상생성부 200: 제2 전자장치
210: 제2 통신부 220: 제2 카메라부
230: 제2 입력부 240: 제2 출력부
250: 제2 저장부 260: 제2 제어부
261: 피사체추출부 262: 포커스확인부

Claims (19)

  1. 전자 장치에 있어서,
    적어도 하나의 타 전자장치와 통신을 수행하는 통신부;
    제1 영상데이터를 획득하는 카메라부; 및
    상기 적어도 하나의 타 전자장치와 그룹핑하고, 프리뷰 화면에서 피사체를 포함하는 가이드 영역을 추출하여 상기 적어도 하나의 타 전자장치로 전송하고, 상기 적어도 하나의 타 전자장치로부터 상기 가이드 영역을 기반으로 상기 적어도 하나의 타 전자장치의 포커싱이 완료된 상태에서 획득된 적어도 하나의 제2 영상데이터, 및 상기 제2 영상데이터를 촬영한 전자장치의 위치정보를 수신하고, 상기 제1 영상데이터와 상기 적어도 하나의 제2 영상데이터를 상기 위치정보에 따라 정렬하여 플로우 모션 영상데이터를 생성하는 제어부;
    를 포함하고,
    상기 위치정보는, 상기 적어도 하나의 타 전자장치가 상기 전자장치를 기준으로 왼쪽 또는 오른쪽의 몇 번째에 위치하는지를 나타내는, 영상데이터를 제어하는 전자장치.
  2. 삭제
  3. 삭제
  4. 제1항에 있어서,
    상기 제1 영상데이터와 상기 적어도 하나의 제2 영상데이터는 서로 다른 각도에서 동일한 피사체를 촬영한 영상데이터인 영상데이터를 제어하는 전자장치.
  5. 제4항에 있어서,
    상기 제어부는
    상기 제1 영상데이터와 상기 적어도 하나의 제2 영상데이터에서 상기 가이드 영역에 포함된 상기 동일한 피사체를 하나의 영상데이터로 중첩하는 영상데이터를 제어하는 전자장치.
  6. 삭제
  7. 제1항에 있어서,
    상기 제어부는
    상기 적어도 하나의 타 전자장치로부터 상기 적어도 하나의 제2 영상데이터의 획득 준비 신호가 수신되면 상기 제1 영상데이터 획득과 동시에 상기 적어도 하나의 타 전자장치에서 제2 영상데이터를 획득하도록 획득 신호를 상기 적어도 하나의 타 전자장치로 전송하는 영상데이터를 제어하는 전자장치.
  8. 전자장치에 있어서,
    타 전자장치와 통신을 수행하는 통신부;
    영상데이터를 획득하는 카메라부;
    상기 타 전자장치로부터 제1 피사체를 포함하는 가이드 영역을 수신하고, 상기 가이드 영역을 프리뷰 화면에 표시하고, 상기 가이드 영역을 기반으로 포커싱이 완료된 상태에서 상기 프리뷰 화면을 영상데이터로 획득하고, 상기 영상데이터 및 위치정보를 상기 타 전자장치로 전송하는 제어부;
    를 포함하고,
    상기 위치정보는, 상기 전자장치가 상기 타 전자장치를 기준으로 왼쪽 또는 오른쪽의 몇 번째에 위치하는지를 나타내는, 영상데이터를 제어하는 전자장치.
  9. 제8항에 있어서,
    상기 제어부는
    상기 프리뷰 화면에서 상기 제1 피사체에 대응되는 제2 피사체를 추출하고, 상기 제1 피사체와 상기 제2 피사체의 위치가 임계치 이상 유사하도록 상기 가이드 영역의 이동방향을 제공하는 영상데이터를 제어하는 전자장치.
  10. 제9항에 있어서,
    상기 제어부는
    상기 제1 피사체와 상기 제2 피사체의 위치가 임계치 이상 유사하면 상기 카메라부를 제어하여 상기 영상데이터를 획득하거나 상기 영상데이터의 획득 준비가 완료됨을 알리는 준비신호를 생성하여 상기 타 전자장치로 전송하는 영상데이터를 제어하는 전자장치.
  11. 삭제
  12. 전자장치의 영상데이터 제어 방법에 있어서,
    상기 전자장치의 제어부가 통신을 통해 적어도 하나의 타 전자장치와 그룹핑을 수행하는 단계;
    상기 제어부가 프리뷰 화면에서 피사체를 포함하는 가이드 영역을 추출하는 단계;
    상기 제어부가 상기 가이드 영역을 상기 적어도 하나의 타 전자장치로 전송하는 단계;
    상기 제어부가 상기 적어도 하나의 타 전자장치로부터 상기 가이드 영역을 기반으로 상기 적어도 하나의 타 전자장치의 포커싱이 완료된 상태에서 획득된 적어도 하나의 제2 영상데이터, 및 상기 제2 영상데이터를 촬영한 전자장치의 위치정보를 수신하는 단계; 및
    상기 제어부가 제1 영상데이터와 상기 적어도 하나의 제2 영상데이터를 상기 위치정보에 따라 정렬하여 플로우 모션 영상데이터를 생성하는 단계;
    를 포함하고,
    상기 위치정보는, 상기 적어도 하나의 타 전자장치가 상기 전자장치를 기준으로 왼쪽 또는 오른쪽의 몇 번째에 위치하는지를 나타내는, 영상데이터 제어 방법.
  13. 삭제
  14. 삭제
  15. 제12항에 있어서,
    상기 플로우 모션 영상데이터를 생성하는 단계는
    상기 제어부가 상기 제1 영상데이터와 상기 적어도 하나의 제2 영상데이터에서 동일한 피사체를 추출하고 상기 동일한 피사체를 하나의 영상데이터로 중첩하여 상기 플로우 모션 영상데이터를 생성하는 단계인 영상데이터 제어 방법.
  16. 삭제
  17. 전자장치의 영상데이터 제어 방법에 있어서,
    상기 전자장치의 제어부가 타 전자장치와 통신을 수행하는 단계;
    상기 제어부가 상기 타 전자장치로부터 제1 피사체를 포함하는 가이드 영역을 수신하는 단계;
    상기 제어부가 상기 가이드 영역을 프리뷰 화면에 표시하는 단계;
    상기 제어부가 상기 가이드 영역을 기반으로 포커싱이 완료된 상태에서 상기 프리뷰 화면을 영상데이터로 획득하는 단계; 및
    상기 제어부가 상기 영상데이터 및 위치정보를 상기 타 전자장치로 전송하는 단계;
    를 포함하고,
    상기 위치정보는, 상기 전자장치가 상기 타 전자장치를 기준으로 왼쪽 또는 오른쪽의 몇 번째에 위치하는지를 나타내는, 영상데이터 제어 방법.
  18. 제17항에 있어서,
    상기 프리뷰 화면에 표시하는 단계는
    상기 프리뷰 화면에서 상기 가이드 영역에 포함된 제1 피사체에 대응되는 제2 피사체를 추출하는 단계;
    상기 제1 피사체와 상기 제2 피사체의 위치가 임계치 이상 유사하도록 상기 가이드 영역의 이동방향을 제공하는 단계;
    를 포함하는 영상데이터 제어 방법.
  19. 제18항에 있어서,
    상기 프리뷰 화면을 영상데이터로 획득하는 단계는
    상기 제어부가 상기 제1 피사체와 상기 제2 피사체의 위치가 임계치 이상 유사하면 상기 프리뷰 화면을 영상데이터로 획득하거나, 상기 영상데이터의 획득 준비가 완료됨을 알리는 준비신호에 대한 응답이 상기 타 전자장치로부터 전송되면 상기 프리뷰 화면을 영상데이터로 획득하는 단계인 영상데이터 제어 방법.
KR1020140002717A 2014-01-09 2014-01-09 영상데이터를 제어하는 전자장치 및 방법 KR102157624B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140002717A KR102157624B1 (ko) 2014-01-09 2014-01-09 영상데이터를 제어하는 전자장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140002717A KR102157624B1 (ko) 2014-01-09 2014-01-09 영상데이터를 제어하는 전자장치 및 방법

Publications (2)

Publication Number Publication Date
KR20150083215A KR20150083215A (ko) 2015-07-17
KR102157624B1 true KR102157624B1 (ko) 2020-10-23

Family

ID=53873364

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140002717A KR102157624B1 (ko) 2014-01-09 2014-01-09 영상데이터를 제어하는 전자장치 및 방법

Country Status (1)

Country Link
KR (1) KR102157624B1 (ko)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010157851A (ja) * 2008-12-26 2010-07-15 Olympus Imaging Corp カメラ及びカメラシステム
JP2010212881A (ja) * 2009-03-09 2010-09-24 Olympus Imaging Corp 撮影装置及び撮影制御方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101341862B1 (ko) * 2007-04-10 2013-12-20 삼성전자주식회사 플로우 모션 영상 촬영 방법 및 시스템

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010157851A (ja) * 2008-12-26 2010-07-15 Olympus Imaging Corp カメラ及びカメラシステム
JP2010212881A (ja) * 2009-03-09 2010-09-24 Olympus Imaging Corp 撮影装置及び撮影制御方法

Also Published As

Publication number Publication date
KR20150083215A (ko) 2015-07-17

Similar Documents

Publication Publication Date Title
EP3125154A1 (en) Photo sharing method and device
KR101080532B1 (ko) 통신단말 및 그의 데이터 전송 방법
US20160294574A1 (en) Method and device for deleting smart scene
CN105472771B (zh) 无线连接方法和装置
KR102165818B1 (ko) 입력 영상을 이용한 사용자 인터페이스 제어 방법, 장치 및 기록매체
KR20160123977A (ko) 단말기 스크린의 상태를 제어하는 방법, 장치, 전자기기, 프로그램 및 기록매체
WO2015115173A1 (ja) 電子機器
KR20160133185A (ko) 이동단말기 및 그 제어방법
US10379602B2 (en) Method and device for switching environment picture
CN108600612B (zh) 一种拍照方法及移动终端
CN103916593A (zh) 用于在具有相机的装置中处理图像的设备和方法
US9854174B2 (en) Shot image processing method and apparatus
US20130171940A1 (en) Easily Operated Wireless Data Transmission/Reception System and Easily Operated Wireless Data Transmission/Reception Program
KR20170073068A (ko) 이동단말기 및 그 제어방법
KR20160143029A (ko) 이동 단말기
CN111131702A (zh) 获取图像的方法、装置、存储介质和电子设备
KR102157624B1 (ko) 영상데이터를 제어하는 전자장치 및 방법
KR20160001229A (ko) 이동단말기 및 그 제어방법
EP3599763A2 (en) Method and apparatus for controlling image display
KR20120104682A (ko) 셀프 카메라 거울 시스템
KR101677392B1 (ko) 결제 기능을 가지는 이동 단말기
CN110544335B (zh) 目标识别系统及方法、电子设备和存储介质
KR20170108715A (ko) 이동 단말기 및 그 제어 방법
CN107968742B (zh) 影像显示方法、装置及计算机可读存储介质
KR20160049413A (ko) 이동단말기 및 그 제어방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant