KR102146858B1 - 촬영 장치 및 촬영 장치의 비디오 생성방법 - Google Patents

촬영 장치 및 촬영 장치의 비디오 생성방법 Download PDF

Info

Publication number
KR102146858B1
KR102146858B1 KR1020140067293A KR20140067293A KR102146858B1 KR 102146858 B1 KR102146858 B1 KR 102146858B1 KR 1020140067293 A KR1020140067293 A KR 1020140067293A KR 20140067293 A KR20140067293 A KR 20140067293A KR 102146858 B1 KR102146858 B1 KR 102146858B1
Authority
KR
South Korea
Prior art keywords
video
screen
touch
control unit
object area
Prior art date
Application number
KR1020140067293A
Other languages
English (en)
Other versions
KR20150139159A (ko
Inventor
최준권
김성훈
유수진
정동진
한규춘
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020140067293A priority Critical patent/KR102146858B1/ko
Priority to US15/313,548 priority patent/US10375312B2/en
Priority to EP15803556.8A priority patent/EP3154255B1/en
Priority to CN201580029542.4A priority patent/CN106416223B/zh
Priority to PCT/KR2015/005565 priority patent/WO2015186964A1/ko
Publication of KR20150139159A publication Critical patent/KR20150139159A/ko
Application granted granted Critical
Publication of KR102146858B1 publication Critical patent/KR102146858B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • H04N5/45Picture in picture, e.g. displaying simultaneously another television channel in a region of the screen

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Studio Devices (AREA)

Abstract

촬영 장치 및 촬영 장치의 비디오 생성방법이 제공된다. 보다 상세하게는 화면에 표시되는 비디오에서 선택된 오브젝트를 확대하여 표시하는 촬영 장치 및 촬영 장치의 비디오 생성방법이 제공된다. 개시된 실시예 중 일부는 화면에 표시되는 비디오에서 선택된 오브젝트를 확대하고 확대된 오브젝트를 추적하여 화면에 표시하는 촬영 장치 및 촬영 장치의 비디오 생성방법을 제공한다.

Description

촬영 장치 및 촬영 장치의 비디오 생성방법{PHOTOGRAPHING APPARATUS AND METHOD FOR MAKING A VIDEO}
아래 실시예들은 촬영 장치 및 촬영 장치의 비디오 생성방법에 관한 것으로, 상세하게는 비디오 화면에서 선택된 오브젝트를 확대하여 추적하는 촬영 장치 및 촬영 장치의 비디오 생성방법에 관한 것이다.
사용자는 촬영 장치를 이용하여 다양한 스틸 이미지 또는 비디오를 촬영한다. 사용자는 렌즈를 이용하여 화각(angle of view) 및 앵글 등을 조절하여 원하는 비디오를 촬영할 수 있다.
트랙을 질주하는 자동차 경주를 비디오로 촬영하는 경우, 사용자는 응원하는 선수의 자동차를 위주로 역동적인 비디오를 촬영하고 싶어한다. 이런 경우, 촬영 장치 및 렌즈의 화각이 충분하지 않은 경우, 사용자가 원하는 비디오를 촬영하기가 쉽지 않다.
본 발명의 실시예에 따른 촬영 장치의 비디오 생성방법은 촬영 장치의 화면에 비디오를 표시하는 단계, 상기 비디오에 있는 오브젝트에서 사용자 터치를 검출하는 단계, 및 상기 사용자 터치가 검출된 오브젝트를 포함하는 제1 오브젝트 영역을 상기 화면의 크기에 대응되게 제2 오브젝트 영역으로 확대하여 표시하는 단계를 포함하고, 상기 오브젝트 영역은 상기 비디오에서 크롭되어 확대된다.
본 발명의 일측에 따르면, 상기 제2 오브젝트 영역의 해상도는 상기 비디오의 해상도보다 낮은 해상도일 수 있다.
본 발명의 실시예에 따른 촬영 장치는 비디오를 표시하는 터치 스크린, 및, 상기 터치 스크린을 제어하는 제어 유닛을 포함하고, 상기 제어 유닛은, 상기 터치 스크린에 표시되는 비디오의 오브젝트에서 사용자의 터치를 검출하고, 상기 터치에 대응하여 구별되게 표시되는 상기 오브젝트를 포함하는 제1 오브젝트 영역을 상기 터치 스크린의 크기에 대응되게 제2 오브젝트 영역으로 확대하여 표시하고, 상기 확대된 제2 오브젝트 영역의 해상도는 상기 비디오의 해상도보다 낮은 해상도이다.
본 발명의 다른 실시예에 따른 촬영 장치는 비디오를 표시하는 터치 스크린, 및, 상기 터치 스크린을 제어하는 제어 유닛을 포함하고, 상기 제어 유닛은, 상기 터치 스크린에 표시되는 비디오의 오브젝트에서 사용자의 터치를 검출하고, 상기 터치에 대응하여 구별되게 표시되는 상기 오브젝트를 포함하는 제1 오브젝트 영역을 상기 터치 스크린의 크기에 대응되게 제2 오브젝트 영역으로 확대하여 표시하고, 상기 확대된 제2 오브젝트 영역에 자동 초점 및 자동 노출을 적용한다.
화면에 표시되는 비디오에서 사용자 터치에 의해 선택된 오브젝트를 확대하여 표시하는 촬영 장치 및 촬영 장치의 비디오 생성방법이 제공될 수 있다.
화면에 표시되는 비디오에서 사용자 터치에 의해 선택된 오브젝트를 확대하여 표시하고, 계속 추적가능한 촬영 장치 및 촬영 장치의 비디오 생성방법이 제공될 수 있다.
화면에 표시되는 비디오에서 선택된 오브젝트를 포함하는 오브젝트 영역을 확대하여 표시하고, 확대된 오브젝트 영역의 해상도는 비디오의 해상도보다 낮은 해상도인 촬영 장치 및 촬영 장치의 비디오 생성방법이 제공될 수 있다.
화면에 표시되는 비디오에서 선택된 오브젝트를 포함하는 오브젝트 영역을 확대하여 표시하고, 확대된 오브젝트 영역에 자동 초점 기능 및 자동 노출 기능을 적용하는 촬영 장치 및 촬영 장치의 비디오 생성방법이 제공될 수 있다.
화면에 표시되는 비디오에서 선택된 오브젝트를 포함하는 오브젝트 영역을 확대 표시에 대응하여 시각 피드백 및 청각 피드백 중 적어도 하나를 사용자에게 제공하는 촬영 장치 및 촬영 장치의 비디오 생성방법이 제공될 수 있다.
이에 한정되지 않고 본 발명의 다양한 실시예에 따르면, 화면에 표시되는 비디오에서 사용자 터치에 의해 선택된 오브젝트를 확대하여 표시하고 추적하는 촬영 장치 및 촬영 장치의 비디오 생성방법이 제공될 수 있다.
도 1은 본 발명의 실시예에 따른 촬영 장치를 나타내는 개략적인 사시도이다.
도 2는 본 발명의 실시예에 따른 촬영 장치를 나타내는 개략적인 블럭도이다.
도 3a은 본 발명의 실시예에 따른 촬영 장치의 동영상 생성방법을 나타내는 개략적인 순서도이다.
도 3b은 본 발명의 다른 실시예에 따른 촬영 장치의 동영상 생성방법을 나타내는 개략적인 순서도이다.
도 4a 내지 도 4h는 본 발명의 실시예에 따른 촬영 장치의 비디오 생성방법의 예를 나타내는 도면이다.
도 5a 내지 도 8b는 본 발명의 다른 실시예에 따른 촬영 장치의 비디오 생성방법의 예를 나타내는 도면이다.
이하, 첨부된 도면들에 기재된 내용들을 참조하여 본 발명에 따른 예시적 실시예를 상세하게 설명한다. 또한, 첨부된 도면들에 기재된 내용들을 참조하여 본 발명을 제조하고 사용하는 방법을 상세히 설명한다. 각 도면에서 제시된 동일한 참조번호 또는 부호는 실질적으로 동일한 기능을 수행하는 부품 또는 구성요소를 나타낸다.
"제1" 및 "제2" 와 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. "및/또는" 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다. "터치"는 터치 스크린에서의 터치, 호버링뿐만 아니라 물리적인 버튼의 선택(누름)을 포함할 수 있다. "오브젝트를 포함하는 비디오의 해상도"는 4K 해상도 또는 그 이상의 해상도를 포함할 수 있다. "오브젝트를 포함하는 비디오의 해상도"는 HD, FHD 해상도를 포함할 수도 있다. 또한, "확대된 오브젝트를 포함하는 비디오의 해상도"는 "오브젝트를 포함하는 비디오의 해상도"보다 낮을 수 있다. 예를 들어, "오브젝트를 포함하는 비디오의 해상도"가 4K 해상도인 경우, 확대된 오브젝트의 영역의 해상도는 4K 미만의 해상도를 가질 수 있다.
본 명세서에서 사용한 용어는 실시예를 설명하기 위해 사용된 것으로, 본 발명을 제한 및/또는 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. 각 도면에 제시된 동일한 참조부호는 실질적으로 동일한 기능을 수행하는 부재를 나타낸다.
도 1은 본 발명의 실시예에 따른 촬영 장치를 나타내는 개략적인 정면도이다.
도 1을 참조하면, 촬영 장치(photographing apparatus, 100)는 트랙을 달리는 복수의 자동차를 촬영(예를 들어, 스틸 이미지(still image) 촬영 또는 동영상(video) 촬영)한다.
촬영 장치(100)는 전면에 렌즈(180) 및 렌즈 마운트(185), 후면에 터치 스크린(150) 및 다양한 버튼(161)을 포함할 수 있다. 또한, 촬영 장치(100)는 전면과 후면을 연결하는 측면에 버튼(161) 및 모드 다이얼(162)을 포함할 수 있다. 사용자는 촬영 장치(100)의 측면 및 후면에 있는 버튼(161)을 통해 촬영 장치(100)의 설정 및/또한 기능을 제어할 수 있다.
촬영 장치(100)에 포함되는 버튼(161)은 물리 버튼뿐만 아니라 접촉 센서(도시되지 아니함)을 이용하여 사용자의 터치를 검출하는 터치 버튼(도시되지 아니함)으로 구현될 수 있다.
촬영 장치(100)는 이미지 센서(130, 도2 참조)를 가지는 전자 장치를 포함한다. 예를 들어, 촬영 장치(100)는 이미지 센서를 가지는 휴대폰, 스마트 폰, 태블릿 PC, 디지털 카메라, 캠코더(camcorder), 렌즈 교환이 가능한 디지털 일안 반사식 카메라(digital single-lens reflex camera), 또는 렌즈 교환이 가능한 미러리스 카메라(mirror-less camera)로 구현될 수 있으며, 이에 한정되지 않는다는 것은 당해 기술 분야의 통상의 지식을 가진 자에게 용이하게 이해될 것이다.  또한, 촬영 장치(100)는 하나 또는 복수의 렌즈 또는 하나 또는 복수의 렌즈군 조립체를 이용하여 스틸 이미지 및/또는 동영상을 촬영 가능한 전자 장치(도시되지 아니함)를 포함할 수 있다.
촬영 장치(100)는 전자 장치(도시되지 아니함)와 일체형이거나 또는 분리형일 수 있다. 예를 들어, 분리형 촬영 장치(100)는 전자 장치(도시되지 아니함)와 유/무선으로 연결가능하고, 촬영 장치(100)에서 촬영된 데이터(예를 들어, 스틸 이미지 또는 동영상) 및/또는 기 저장된 데이터(예를 들어, 스틸 이미지 또는 동영상)를 전자 장치(도시되지 아니함)로 송/수신할 수 있다.
도 2는 본 발명의 실시예에 따른 촬영 장치를 나타내는 개략적인 블럭도이다.
도 2를 참조하면, 촬영 장치(100)는 제어 유닛(110)의 제어에 의해 통신 유닛(120) 또는 입/출력 유닛(160)을 이용하여 외부 장치(도시되지 아니함)와 유선 또는 무선으로 연결될 수 있다. 외부 장치(도시되지 아니함)는 다른 촬영 장치, 디스플레이 장치, 휴대 장치(예를 들어, 휴대폰, 스마트폰, 통신가능한 센서 등, 도시되지 아니함), 컴퓨터(도시되지 아니함), 태블릿 PC(도시되지 아니함), 및 서버(도시되지 아니함)를 포함할 수 있다.
촬영 장치(100)는 제어 유닛(110), 통신 유닛(120), 이미지 센서(130), 셔터(135). 센서 유닛(140), 터치 스크린(150), 입/출력 유닛(160), 저장 유닛(170), 전원 유닛(175), 배터리(176) 및 렌즈 마운트(185)를 포함한다. 또한, 촬영 장치(100)는 탈착 가능하고, 입사되는 광을 이미지 센서(130)에 결상시키는 렌즈(180)를 포함할 수 있다. 또한, 촬영 장치(100)는 다양한 빛의 효과를 연출 가능한 외장 플래시(도시되지 아니함)와 전기적으로 연결될 수 있다.
제어 유닛(110)은 프로세서(Processor, 111), 촬영 장치(100)의 제어를 위한 제어 프로그램이 저장된 플래시 메모리(flash memory, 112) 및 촬영 장치(100)의 외부에서부터 입력되는 신호 또는 데이터를 저장하거나, 촬영 장치(100)에서 수행되는 다양한 작업에 대응되는 저장 영역으로 사용되는 램(RAM, 113)을 포함할 수 있다.
제어 유닛(110)은 촬영 장치(100)의 전반적인 동작 및 촬영 장치(100)의 내부 구성 요소들(120 내지 185)사이의 신호 흐름을 제어하고, 데이터를 처리하는 기능을 수행한다. 제어 유닛(110)은 전원 유닛(190)을 통해 공급되는 전원을 내부 구성 요소들(120 내지 185)에게 제어한다. 또한, 사용자의 입력 또는, 기 설정되어 조건을 만족하는 경우, 제어 유닛(110)은 설치된 OS(Operation System) 및 다양한 종류의 어플리케이션을 실행할 수 있다.
프로세서(111)는 스틸 이미지 또는 비디오에 대응되는 이미지 처리를 위한 이미지 시그널 프로세서(Image Signal Processor: ISP, 도시되지 아니함)를 포함할 수 있다. 이미지 시그널 프로세서(도시되지 아니함)는 이미지 센서(130)에서 출력되는 아날로그 신호를 디지털 신호로 변환하고 이미지 프로세싱을 할 수 있다. 또한, 이미지 시그널 프로세서(도시되지 아니함)는 이미지 센서(130)와 프로세서(111)사이의 별도 A/D컨버터에서 변환된 디지털 신호에 대해 이미지 프로세싱(예를 들어, 다양한 보정 및/또는 압축 등)을 할 수 있다. 예를 들어, 이미지 프로세싱은 자동으로 노출을 조정하는 자동 노출(Auto Exposure), 자동으로 흰색을 조정하는 자동 화이트 밸런스(Auto White Balance), 자동으로 피사체의 초점을 조정하는 자동 초점(Auto Focus), 컬러 인터폴레이션(color interpolation), 컬러 보상(color correction), 컬러 공간 변환(color space conversion), 감마 보상(gamma correction), 및/또는 이미지 포매터(image formatter) 기능을 포함할 수 있다.
또한, 프로세서(111)는 스틸 이미지 또는 비디오에 대응되는 그래픽 처리를 위한 그래픽 프로세싱 유닛(Graphic Processing Unit: GPU, 도시되지 아니함)을 포함할 수 있다.
프로세서(111)는 코어(core, 도시되지 아니함), 이미지 시그널 프로세서(도시되지 아니함) 및 그래픽 프로세싱 유닛(도시되지 아니함)을 하나의 SoC(System On Chip)로 구현될 수 있다. 프로세서(111)는 코어(도시되지 아니함)와 이미지 시그널 프로세서(도시되지 아니함)를 포함할 수 있다. 그래픽 프로세싱 유닛(도시되지 아니함)은 프로세서(111)와 별개로 구현될 수 있다. 프로세서(111)는 코어(도시되지 아니함)와 그래픽 프로세싱 유닛(도시되지 아니함)를 포함할 수 있다. 이미지 시그널 프로세서(도시되지 아니함)는 프로세서(111)와 별개로 구현될 수도 있다. 프로세서(111), 이미지 시그널 프로세서(도시되지 아니함) 및 그래픽 프로세싱 유닛(도시되지 아니함)는 각각 별개로 구현될 수도 있다. 프로세서(111)의 코어는 싱글 코어, 듀얼 코어, 트리플 코어, 쿼드 코어 또는 그 배수를 포함할 수 있다. 또한, 프로세서(111), 플래시 메모리(112) 및 램(113)은 내부 버스(bus)를 통해 상호 연결될 수 있다.
본 발명의 실시예에서 제어유닛은 프로세서(111), 플래시 메모리(112) 및 램(113)을 포함하는 용어로 사용될 수 있다.
본 발명의 실시예에 따른 제어 유닛은 촬영 장치의 화면에 비디오를 표시하고, 상기 비디오에 있는 오브젝트에서 사용자 터치를 검출하여 상기 오브젝트를 다른 오브젝트와 구별되게 표시하고, 상기 오브젝트를 포함하는 제1 오브젝트 영역을 상기 화면의 크기에 대응되게 제2 오브젝트 영역으로 확대하여 표시하고, 상기 오브젝트 영역을 상기 비디오에서 크롭되어 확대되도록 제어할 수 있다.
본 발명의 실시예에 따른 제어 유닛은 상기 제2 오브젝트 영역의 해상도를 상기 비디오의 해상도보다 낮은 해상도로 표시되도록 제어할 수 있다.
본 발명의 실시예에 따른 제어 유닛은 상기 제1 오브젝트 영역의 크기는 사용자에 의해 변경되도록 제어할 수 있다.
본 발명의 실시예에 따른 제어 유닛은 상기 화면에 표시되는 상기 비디오는 촬영 장치의 비디오 촬영 버튼의 눌림 및 상기 화면에 표시되는 비디오 목록에서의 선택 중 하나에 의해 표시되도록 제어할 수 있다.
본 발명의 실시예에 따른 제어 유닛은 확대된 상기 제2 오브젝트 영역에 포함된 상기 오브젝트를 추적하여 표시하도록 제어할 수 있다.
본 발명의 실시예에 따른 제어 유닛은 상기 제2 오브젝트 영역에 포함된 상기 오브젝트에 대응되는 자동 노출 기능 및 자동 초점 기능을 수행하도록 제어할 수 있다.
본 발명의 실시예에 따른 제어 유닛은 상기 추적된 오브젝트를 포함하는 확대된 제2 오브젝트 영역을 저장되도록 제어할 수 있다.
본 발명의 실시예에 따른 제어 유닛은 상기 제2 오브젝트 영역에 상기 비디오를 스케일링한 PIP(picture in picture) 화면을 오버레이로 표시되도록 제어할 수 있다.
본 발명의 실시예에 따른 제어 유닛은 상기 PIP 화면을 화면 내에서 이동되도록 제어할 수 있다.
본 발명의 실시예에 따른 제어 유닛은 상기 제2 오브젝트 영역으로의 확대에 대응하여 시각 피드백 및 청각 피드백 중 적어도 하나를 제공되도록 제어할 수 있다.
제어 유닛의 구성 및 동작은 실시예에 따라 다양하게 구현될 수 있다는 것은 당해 기술 분야의 통상의 지식을 가진 자에게 용이하게 이해될 것이다. .
통신 유닛(120)은 제어 유닛의 제어에 의해 촬영 장치(100)를 외부 장치와 연결할 수 있다. 촬영 장치(100)는 제어 유닛의 제어에 의해 통신 유닛(120)을 통해 연결된 외부 장치와 데이터(예를 들어, 스틸 이미지 또는 비디오)를 송/수신, 외부 장치에서부터 어플리케이션(application)을 다운로드, 또는 웹 브라우징을 할 수 있다. 통신 유닛(130)은 촬영 장치(100)의 성능 및 구조에 대응하여 무선랜(131), 블루투스(bluetooth, 132) 및 유선 이더넷(Ethernet, 133) 및 중 하나를 포함할 수 있다. 또한, 통신 유닛(130)은 무선랜(131), 블루투스(132), 및 유선 이더넷(133)의 조합을 포함할 수 있다. 또한, 통신 유닛(120)은 블루투스(132)외에 다른 근거리 통신(예를 들어, NFC(near field communication, 도시되지 아니함), BLE(bluetooth low energy, 도시되지 아니함)를 더 포함할 수 있다.
이미지 센서(130)는 제어 유닛의 제어에 의해 피사체에서 반사되어 렌즈(180)를 통해 입사되는 광을 전기 신호로 변환한다. 전기 신호는 아날로그 또는 디지털 전기 신호일 수 있다. 변환된 전기 신호는 제어 유닛으로 출력된다. 또한, 변환된 전기 신호는 이미지 신호 프로세서로 출력된다. 이미지 센서(130)는 전하결합소자(charge coupled device: CCD) 타입 이미지 센서 또는 상보성 금속 산화막 반도체(complementary metal-oxide semiconductor: CMOS) 타입 이미지 센서를 포함할 수 있다.
셔터(135)는 제어 유닛의 제어에 의해 셔터 개폐 속도를 이용하여 이미지 센서(130)으로 입사되는 빛의 양을 조정한다. 셔터(135)의 개폐 속도가 빠를 수록 적은 양의 빛이 이미지 센서(130)로 입사되고, 셔터(135)의 개폐 속도가 느릴 수록 많은 양의 빛이 이미지 센서(135)로 입사될 수 있다. 제어 유닛은 셔터(135)의 개폐 속도를 셔터 액추에이터(도시되지 아니함), 셔터 컨트롤러(도시되지 아니함)를 이용하여 조정할 수 있다.
센서 유닛(140)은 촬영 장치(100)의 상태를 검출하는 적어도 하나의 센서를 포함한다. 예를 들어, 센서유닛(170)은 촬영 장치(100)의 회전관성을 이용하여 방향을 검출하는 자이로 센서(141), 사용자의 촬영 장치(100)에 근접 정도를 검출하는 근접 센서(142)를 포함할 수 있다. 또한, 센서 유닛(140)은 촬영 장치(100)에 가해지는 3축(예를 들어, x축, y축, z축)의 기울기를 검출하는 가속도 센서(acceleration sensor, 도시되지 아니함), 중력의 작용 방향을 검출하는 중력 센c서(gravity sensor, 도시되지 아니함)) 및 사용자 인증을 위한 지문 센서(fingerprint sensor, 도시되지 아니함)를 포함할 수 있다.
센서 유닛(140)에 포함되는 적어도 하나의 센서는 촬영 장치(100)의 상태를 검출하고, 검출에 대응되는 신호를 생성하여 제어 유닛으로 전송한다. 제어 유닛은 센서 유닛(140)을 통해 검출된 촬영 장치(100)의 상태에 대응되는 촬영 장치(100)의 기능 및/또는 설정을 제어할 수 있다.
센서 유닛(140)의 센서는 휴대 장치(100)의 성능에 따라 추가되거나 삭제될 수 있다는 것은 당해 기술분야의 통상의 지식을 가지는 자에게 용이하게 이해될 것이다.
터치 스크린(150)은 디스플레이 유닛(151) 및 터치 패널(152)를 포함한다. 터치 스크린(150)은 사용자에게 다양한 서비스(예를 들어, 이미지 또는 비디오 촬영, 저장된 이미지 또는 비디오가 보기, 또는 어플리케이션 실행)에 대응되는 GUI(Graphical User Interface)를 제공할 수 있다. 본 발명의 실시예에서, 화면은 터치 스크린(150)의 화면 또는 디스플레이 유닛(152)의 화면을 포함하는 용어로 사용될 수 있다. 화면의 크기는 촬영 장치(100)에 따라 다양할 수 있다. 예를 들어, 화면의 대각선 길이는 30 ㎜ 이상일 수 있다. 휴대 단말의 경우, 화면의 대각선 길이는 300 ㎜ 이하일 수 있다. 또한, 디스플레이 장치의 경우, 화면의 대각선 길이는 2,150 ㎜ 이하일 수도 있다.
디스플레이 유닛(151)은 디스플레이 컨트롤러(도시되지 아니함)를 포함할 수 있다. 또한, 디스플레이 컨트롤러(도시되지 아니함)는 제어 유닛과 디스플레이 유닛(151) 사이에 별도로 위치할 수 있다. 터치 스크린(150)은 터치 패널(152)을 통해 입력되는 싱글 터치 또는 멀티 터치에 대응되는 아날로그 신호를 터치 패널 컨트롤러(도시되지 아니함)로 전송한다. 터치 스크린(150)은 사용자의 신체(예를 들어, 엄지를 포함하는 손가락) 또는 스타일러스를 포함하는 입력 유닛(도시되지 아니함)을 통해 싱글 터치 또는 멀티 터치를 입력 받을 수 있다.
터치 스크린(150)은 터치뿐만 아니라 터치 패널(152)과 사용자의 신체 또는 입력 유닛(도시되지 아니함)의 접촉에 한정되지 않고, 비접촉(예를 들어, 터치 패널(152)과 사용자의 신체 또는 입력 유닛(도시되지 아니함)과의 간격이 50 mm 이하인 호버링(hovering))을 포함할 수 있다. 터치 스크린(150)에서 검출가능한 호버링의 간격은 촬영 장치(100)의 성능 또는 구조에 따라 변경될 수 있다는 것은 당해 기술분야에서 통상의 지식을 가진 자에게 용이하게 이해될 것이다.
터치 패널(152)은 예를 들어, 저항막(resistive) 방식, 정전 용량(capacitive) 방식, 적외선(infrared) 방식 또는 초음파(acoustic wave) 방식으로 구현될 수 있다. 또한, 터치 스크린(150)은 터치 패널(152)뿐만 아니라 입력 유닛(도시되지 아니함)의 입력을 검출가능한 전자기 공명 방식(electromagnetic resonance: EMR) 패널을 더 포함할 수 있다.
터치 패널 컨트롤러(도시되지 아니함)는 터치 패널(152)에서부터 수신된 싱글 터치 또는 멀티 터치에 대응되는 아날로그 신호를 디지털 신호(예를 들어, 검출된 터치 위치에 대응되는 X와 Y좌표)로 변환하여 제어 유닛으로 전송한다. 제어 유닛은 터치 패널 컨트롤러(도시되지 아니함)에서부터 수신된 디지털 신호를 이용하여 터치 스크린(150) 상의 터치 위치에 대응되는 X와 Y좌표를 산출할 수도 있다.
제어 유닛은 터치 패널 컨트롤러(도시되지 아니함)에서부터 수신된 디지털 신호를 이용하여 터치 스크린(150)의 디스플레이 유닛(151)을 제어할 수 있다. 예를 들어, 제어 유닛은 입력된 터치에 응답하여 디스플레이 유닛(151)에 표시되는 기능(예를 들어, 사진 크기 설정)에 대응되는 항목(예를 들어, 5472X3646(3:2), 도시되지 아니함)을 다른 항목(2976X1984(3:2), 도시되지 아니함)들어, 191b 내지 191h)과 구분되게 표시할 수 있다. 또한, 제어 유닛은 입력된 터치에 응답하여 선택된 단축 아이콘(도시되지 아니함)에 대응되는 어플리케이션(도시되지 아니함)을 실행하여 디스플레이 유닛(151)에 표시할 수 있다.
터치 패널 컨트롤러(도시되지 아니함)는 하나 또는 복수의 터치 패널 컨트롤러(도시되지 아니함)를 포함할 수 있다. 촬영 장치(100)의 성능 또는 구조에 대응하여 터치 패널 컨트롤러(도시되지 아니함) 및/또는 디스플레이 컨트롤러(도시되지 아니함)는 제어 유닛에 포함될 수도 있다.
촬영 장치(100)는 터치 패널(152) 및 터치 패널 컨트롤러(도시되지 아니함)없이 디스플레이 유닛(151)만 가질 수 있다. 촬영 장치(100)는 사용자의 터치를 검출할 수 없다.
입/출력 유닛(160)은 제어 유닛의 제어에 의해 촬영 장치(100)의 외부에서부터 콘텐트(예를 들어, 이미지, 동영상, 음성, 음악, 데이터(예를 들어, 재생 명령)) 등을 수신할 수 있다. 입/출력 유닛(160)은 버튼(161), 모드 다이얼(162), 마이크(163), 스피커(164), HDMI 입력 포트(High-Definition Multimedia Interface port, 165), 및 USB 입력 잭(jack, 164)를 포함할 수 있다. 또한, 입/출력 유닛(160)은 버튼(161), 모드 다이얼(162), 마이크(163), 스피커(164), HDMI 입력 포트(165), 및 USB 입력 잭(jack, 164)의 조합을 포함할 수 있다.
버튼(161)은 촬영 장치(100)의 기능을 실행하거나 설정을 변경할 수 있다. 예를 들어, 버튼(161)은 전원 스위치(power switch, 161a), 셔터 버튼(shutter button, 161b), 동영상 촬영 버튼(video recording button, 161c), 네비게이션 버튼(161d), 입력 버튼(ok button, 161e), 메뉴 버튼(menu button, 161f), 재생 버튼(playback button, 161h), 삭제 버튼(delete/custom button, 161i) 및 기능 버튼(Fn button, 161g)를 포함할 수 있다. 전원 스위치(161a)는 On/Off 전원 버튼(도시되지 아니함)을 포함할 수 있다.
모드 다이얼(mode dial, 162)은 촬영 장치(100)의 촬영 모드(예를 들어, 프로그램 우선 모드, 셔터 우선 모드 등)을 변경할 수 있다. 촬영 장치(100)는 제어 유닛의 제어에 의해 사용자에 의해 선택된 촬영 모드에 의해 스틸 이미지 또는 비디오를 촬영할 수 있다.
마이크(163)는 사용자의 발화(utterance)된 음성을 수신한다. 마이크(163)는 수신된 음성을 오디오 코덱을 이용하여 전기 신호로 변환하여 제어 유닛으로 출력할 수 있다. 사용자 음성은 예를 들어, 촬영 장치(100)의 메뉴 또는 기능에 대응되는 음성을 포함할 수 있다. 제어 유닛은 수신된 음성을 이용하여 촬영 장치(100)의 기능 및/또는 설정을 제어할 수 있다. 마이크(163)의 인식 범위는 마이크(163)에서부터 사용자 위치까지 4 m 이내를 권장하며, 마이크(163)의 인식 범위는 사용자 목소리의 크기와 주변 환경(예를 들어, 스피커 소리, 주변 소음)에 대응하여 달라질 수 있다.
마이크(163)는 촬영 장치(100)와 일체형 또는 분리될 수 있다. 분리된 마이크(도시되지 아니함)는 통신 유닛(120) 또는 입/출력 유닛(160)을 통해 촬영 장치(100)와 전기적으로 연결될 수 있다.
스피커(164)는 제어 유닛의 제어에 의해 마이크(163)을 통해 수신된 오디오(예를 들어, 음성, 사운드, 오디오 파일, 뮤직 파일)를 오디오 코덱을 이용하여 출력한다. 스피커(164)은 통신 유닛(120) 또는 입/출력 유닛(160)을 통해 입력되는 오디오를 출력할 수 있다. 또한, 스피커(164)는 제어 유닛의 제어에 의해 저장 유닛(170)에 저장된 오디오를 출력할 수 있다. 스피커(164)는 헤드폰 출력 단자(도시되지 아니함) 또는 S/PDIF 출력 단자(도시되지 아니함) 중 적어도 하나를 포함할 수 있다.
본 발명의 실시예에 따라 스피커(164)는 제어 유닛의 제어에 따라 오브젝트 영역의 확대에 대응되는 청각 피드백(예를 들어, 오디오 파일 등)을 출력할 수 있다.
HDMI 입력 포트(165)는 제어 유닛의 제어에 의해 HDMI 입력 포트(165)에 연결 가능한 외부 장치(예를 들어, 디스플레이 장치)와 데이터를 송/수신할 수 있다. 예를 들어, 디스플레이 장치는 아날로그 TV, 디지털 TV, 3D-TV, 스마트 TV, LED TV, OLED TV, 플라즈마 TV, 모니터, 고정 곡률(curvature)인 화면을 가지는 커브드(curved) TV, 고정 곡률인 화면을 가지는 플렉시블(flexible) TV, 고정 곡률인 화면을 가지는 벤디드(bended) TV, 및/또는 수신되는 사용자 입력에 의해 현재 화면의 곡률을 변경가능한 곡률 가변형 TV 등으로 구현될 수 있으나, 이에 한정되지 않는다는 것은 당해 기술 분야의 통상의 지식을 가진 자에게 용이하게 이해될 것이다.
USB 입력 잭(166)는 제어 유닛의 제어에 의해 USB 입력 잭(166)에 연결 가능한 외부 장치와 데이터를 송/수신할 수 있다.
저장 유닛(170)은 제어 유닛의 제어에 의해 촬영 장치(100)를 구동하고 제어하기 위한 다양한 데이터, 컨트롤 메뉴, 프로그램 또는 어플리케이션을 저장할 수 있다. 저장 유닛(170)은 통신 유닛(120), 이미지 센서(130), 셔터(135), 센서 유닛(140), 터치 스크린(150), 입/출력 유닛(160), 및 전원 유닛(190)의 구동에 대응되는 입력/출력되는 신호 또는 데이터를 저장할 수 있다. 또한, 저장 유닛(170)은 촬영 장치(100) 및 제어 유닛의 제어를 위한 제어 프로그램, 제조사에서 최초 제공되거나 외부에서부터 다운로드 받은 어플리케이션, 어플리케이션과 관련된 GUI(graphical user interface), GUI를 제공하기 위한 오브젝트(예를 들어, 이미지 텍스트, 아이콘, 버튼 등), 사용자 정보, 문서, 데이터베이스들 또는 관련 데이터들을 저장할 수 있다.
본 발명의 실시예에서 “저장 유닛”이라는 용어는 저장 유닛(170), 제어 유닛의 플래시 메모리(112), 및/또는 램(113)을 포함한다.
저장 유닛은 촬영 장치(100)에 장착되는 메모리 카드(예를 들어, micro SD 카드, USB 메모리, 도시되지 아니함)를 포함할 수 있다. 또한, 저장 유닛은 비휘발성 메모리, 휘발성 메모리, 하드 디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD)를 포함할 수 있다.
저장 유닛은 도시되지 아니한 방송 통신 제어 모듈, 카메라 제어 모듈, 음성 인식 모듈, 모션 인식 모듈, 볼륨 제어 모듈, 디스플레이 제어 모듈, 오디오 제어 모듈, 입/출력 제어 모듈, 전원 제어 모듈, 음성 데이터베이스(DB), 또는 모션 데이터베이스(DB)을 포함할 수 있다. 저장 유닛의 도시되지 아니한 모듈들 및 데이터 베이스는 촬영 장치(100)에서 통신 제어 기능, 카메라 기능, 음성 인식 기능, 모션 인식 기능, 볼륨 제어 모듈, 디스플레이 제어 기능, 오디오 제어 기능, 외부 입력 제어 기능, 또는 전원 제어 기능을 수행하기 위하여 소프트웨어 형태로 구현될 수 있다. 제어 유닛은 저장 유닛에 저장된 이들 소프트웨어를 이용하여 각각의 기능을 수행할 수 있다.
저장 유닛은 제어 유닛의 제어에 의해 촬영 장치(100)에서 촬영된 스틸 이미지, 비디오 및/또는 부가 정보를 저장할 수 있다.
저장 유닛은 제어 유닛의 제어에 의해 휴대 장치(100)의 터치 스크린(150)에 표시되는 비디오 목록에 대응되는 스틸 이미지 및/또는 비디오를 저장할 수 있다.
저장 유닛은 제어 유닛의 제어에 의해 비디오 촬영 버튼이 선택(예를 들어, 눌림)에 대응되는 선택 정보를 저장할 수 있다.
저장 유닛은 제어 유닛의 제어에 의해 제1 내지 제4 터치에 대응되는 각 터치 위치 정보를 저장할 수 있다.
저장 유닛은 제어 유닛의 제어에 의해 제2 오브젝트 영역의 확대에 대응되는 시각 피드백 및/또는 청각 피드백을 저장할 수 있다.
저장 유닛은 제어 유닛의 제어에 의해 렌즈(180)에서 수신된 렌즈 정보를 저장할 수 있다.
저장 유닛은 제어 유닛의 제어에 의해 본 발명의 실시예를 위한 다양한 정보 및 신호를 저장할 수 있다는 것은 당해 기술 분야의 통상의 지식을 가진 자에게 용이하게 이해될 것이다. .
전원 유닛(175)은 제어 유닛의 제어에 의해 촬영 장치(100) 내부의 구성 요소들(120 내지 180)에게 외부의 전원 소스에서부터 입력되는 전원을 공급한다. 또한, 전원 유닛(175)은 제어 유닛의 제어에 의해 외부의 전원 소스에서부터 입력되는 전원을 배터리(176)에 공급하여 충전할 수 있다.
렌즈 유닛(180)는 입사되는 광(예를 들어, 피사체)을 이미지 센서(130)으로 집광한다. 렌즈 유닛(180)는 렌즈 유닛(18)을 제어하는 렌즈 컨트롤러(도시되지 아니함), 메모리(도시되지 아니함), 조리개(도시되지 아니함), 줌 및 포커스를 위한 하나 또는 복수의 렌즈군(도시되지 아니함), 렌즈군(도시되지 아니함)을 광축 방향으로 이동하는 액추에이터(도시되지 아니함), 광학식 손 떨림 보정(Optical Image, Stabilization: OIS) 모듈(도시되지 아니함)을 포함할 수 있다. 메모리(도시되지 아니함)는 렌즈 컨트롤러(도시되지 아니함)의 제어에 의해 촬영 장치(100)에서 수신된 촬영 장치(100)의 관련 정보를 저장할 수 있다.
렌즈 마운트(185)를 통해 렌즈(180)와 촬영 장치(100)가 결합된다. 렌즈(180)는 렌즈 마운트(185)를 통해 제어 유닛과 전기적으로 연결된다. 렌즈 마운트(185)를 통해 렌즈(180)의 메모리(도시되지 아니함)에 저장된 렌즈 정보는 제어 유닛의 제어에 의해 촬영 장치(100)로 전송된다. 또한, 렌즈(180)의 컨트롤러(도시되지 아니함)는 메모리(도시되지 아니함)에 저장된 렌즈 정보를 촬영 장치(100)로 전송할 수 있다. 예를 들어, 렌즈 정보는 렌즈(180)의 식별자, 모델명, 렌즈의 구경, 줌 상태 정보, 조리개 정보, 광학식 손 떨림 보정 정보, 또는 포커스 정보 등을 포함할 수 있다.
또한, 렌즈 마운트(185)를 통해 촬영 장치(100)의 저장 유닛에 저장된 촬영 장치(100)의 정보(예를 들어, 제조사, 식별자 등)를 렌즈(180)로 전송될 수 있다.
도 2에서, 촬영 장치(100)는 렌즈 마운트(185)를 통해 렌즈 유닛(180)을 결합할 수 있으나, 이에 한정되지 않는다. 예를 들어, 촬영 장치(100)는 렌즈 유닛(180)과 일체형일 수 있다. 촬영 장치(100) 및 렌즈 유닛(180)이 일체형인 경우, 렌즈 유닛(180)는 렌즈 유닛(180)의 구성 요소(예를 들어, 렌즈 컨트롤러, 메모리 등) 중 일부 구성 요소가 추가되거나 삭제될 수 있다.
또한, 촬영 장치(100)는 GPS 유닛(도시되지 아니함)을 포함할 수 있다. GPS 유닛(도시되지 아니함)은 지구 궤도상에 있는 복수의 GPS 위성(도시되지 아니함)에서부터 주기적으로 정보(예를 들어, 휴대 장치(100)에서 수신가능한 GPS위성의 정확한 위치 정보와 시간 정보)를 수신한다. 촬영 장치(100)는 복수의 GPS 위성에서부터 수신되는 정보를 이용하여 촬영 장치(100)의 위치, 이동 속도 또는 시간을 알 수 있다.
도 1 및 도 2의 촬영 장치(100)에 도시된 구성 요소들(예를 들어, 110 내지 176)은 촬영 장치(100)의 성능에 대응하여 적어도 하나의 구성요소가 추가되거나 삭제될 수 있다. 또한, 구성 요소들의 위치(예를 들어, 110 내지 176)는 촬영 장치(100)의 성능 또는 구조에 대응하여 변경될 수 있다는 것은 당해 기술분야에서 통상의 지식을 가진 자에게 용이하게 이해될 것이다.
도 3a은 본 발명의 실시예에 따른 촬영 장치의 동영상 생성방법을 나타내는 개략적인 순서도이다.
도 4a 내지 도 4h는 본 발명의 실시예에 따른 촬영 장치의 동영상 생성방법의 예를 나타내는 도면이다.
도 5a 내지 도 8b는 본 발명의 다른 실시예에 따른 촬영 장치의 동영상 생성방법의 예를 나타내는 도면이다.
도 3a의 단계(S301)에서, 비디오 촬영 버튼의 선택이 수신된다.
도 4a를 참조하면, 사용자에 의해 촬영 장치(100)의 전원 스위치(161a)가 온(On) 위치로 이동하는 경우, 촬영 장치(100)에 전원이 공급된다. 전원 공급에 의해 촬영 장치(100)의 터치 스크린(150)도 활성화된다. 사용자에 의해 촬영 장치(100)가 촬영 대상인 피사체(object)를 향하는 경우, 터치 스크린(150)에 촬영 대상인 피사체(object)를 포함하는 연속적인 라이브 뷰(200x)가 표시된다.
도 4b를 참조하면, 사용자의 터치(201)에 의해 촬영 장치(100)의 비디오 촬영 버튼(161c)이 눌려진다. 촬영 장치(100)는 렌즈(180), 이미지 센서(130) 및/또는 제어 유닛을 이용하여 라이브 뷰(200x)를 4K 해상도로 촬영할 수 있다. 제어 유닛은 입력되는 라이브 뷰(200x)에 대해 이미지 처리(image processing)을 할 수 있다. 제어 유닛은 이미지 프로세싱 된 비디오(200)를 스케일링(scaling)하여 터치 스크린(150)에 표시한다. 또한, 제어 유닛은 터치(201)가 검출되는 시점부터 촬영되는 라이브 뷰(200x)에 대응되는 4K 해상도 비디오(200)를 저장 유닛에 저장 또는 임시 저장할 수 있다.
촬영 장치(100)는 Full HD 해상도의 약 4배(예를 들어, 4000 전후 X 2000 픽셀 전후)인 UHD(Ultra High Definition) 해상도를 가지는 스틸 이미지 및/또는 비디오를 촬영할 수 있다. UHD 해상도는 4096 X 2160 픽셀, 또는 3840 X 2160 픽셀을 포함할 수 있다.
촬영 장치(100)는 UHD 해상도의 약 4배(예를 들어, 8000 전후 X 4000 픽셀 전후)인 8K 해상도를 가지는 스틸 이미지 및/또는 비디오를 촬영할 수 있다. 8K 해상도는 8192 X 4320 픽셀, 또는 768 X 4320 픽셀을 포함할 수 있다. FHD 해상도, 4K 해상도 또는 8K 해상도는 촬영 장치(100)가 촬영 가능한 해상도 중 하나이며, 이에 한정되지 않는다는 것은 당해 기술 분야의 통상의 지식을 가진 자에게 용이하게 이해될 것이다.
저장 유닛은 제어 유닛의 제어에 의해 비디오 촬영 버튼의 선택(예를 들어 눌림)에 대응되는 버튼 선택 정보(예를 들어, 버튼 이름, 버튼 선택 시간 등)를 저장할 수 있다. 제어 유닛은 저장되는 선택 정보를 이용하여 비디오 촬영 시작 시간을 터치 스크린(150)에 표시할 수도 있다.
도 5a 내지 도 5c를 참조하면, 본 발명의 다른 실시예에 따른 비디오 생성방법의 트리거 예를 나타낸다.
도 4b의 경우, 제어 유닛은 결정된 설정(예를 들어, 비디오 촬영 버튼(161c)를 누르면 선택된 오브젝트를 확대 및 추적하는 비디오 촬영)에 따라 비디오(200)을 촬영할 수 있다. 비디오 촬영 중 오브젝트(202)에서 사용자 터치(203)가 검출되는 경우, 제어 유닛은 터치(203)이 검출된 오브젝트(202)를 포함하는 오브젝트 영역(210)을 확대할 수 있다.
도 5a를 참조하면, 비디오 촬영 버튼(161c)은 비디오 모드에 대응되는 비디오 모드 스위치(161k)를 더 포함할 수 있다. 비디오 모드 스위치(161k)의 돌기는 제1 위치(161k1)와 제2 위치(161k2)사이를 이동할 수 있다. 비디오 모드 스위치(161k)가 제1 위치(161k1)에 있는 경우, 제어 유닛은 일반 비디오 모드(예를 들어, 선택된 오브젝트를 확대 및 추적하는 비디오 촬영이 불가능)로 비디오 촬영을 한다. 또한, 비디오 모드 스위치(161k)가 제2 위치(161k2)에 있는 경우, 제어 유닛은 트랙킹 비디오 모드(예를 들어, 선택된 오브젝트를 확대 및 추적하는 비디오 촬영이 가능)로 비디오 촬영을 한다.
사용자는 비디오 모드 스위치(161k)를 이용하여 먼저 비디오 모드를 선택하고, 비디오 촬영 버튼(161c)를 누를 수 있다. 또한, 사용자는 비디오 촬영 버튼(161c)을 먼저 누르고, 비디오 모드 스위치(161k)에서 비디오 모드를 선택할 수도 있다.
비디오 촬영 버튼(161c)의 외경은 비디오 모드 스위치(161k)의 외경보다 짧다.
도 5b를 참조하면, 사용자의 터치(201)에 의해 촬영 장치(100)의 비디오 촬영 버튼(161c)이 눌려지는 경우, 화면에 비디오 모드에 대응되는 팝업(205)가 표시된다. 비디오 모드에 대응되는 팝업(205)은 일반 비디오 촬영(205a) 및 트랙킹 비디오 촬영(205b)을 포함할 수 있다. 사용자에 의해 팝업(205) 중에서 트랙킹 비디오 촬영(205b)이 선택되는 경우, 제어 유닛은 트랙킹 비디오 모드로 비디오 촬영을 할 수 있다. 사용자에 의해 팝업(205) 중에서 비디오 촬영(205a)이 선택되는 경우, 제어 유닛은 일반 비디오 모드로 일반 비디오 촬영을 할 수 있다. 또한, 촬영 장치(100)가 지원가능한 비디오 모드가 더 있는 경우, 표시되는 팝업(205)의 개수는 변경될 수 있다.
도 5c를 참조하면, 사용자의 터치(201)에 의해 촬영 장치(100)의 비디오 촬영 버튼(161c)이 눌려지는 경우, 촬영 장치(100)는 일반 비디오 모드로 비디오 촬영을 하도록 설정되어 있다. 비디오가 표시되는 화면에서, 사용자에 의해 오브젝트(202)에서 터치의 연속적인 움직임이 입력될 수 있다.
제어 유닛은 터치 스크린(150) 및 터치스크린 컨트롤러(도시되지 아니함)를 이용하여 터치 스크린(150)에 접촉하는 터치(203)의 연속적인 움직임을 검출할 수 있다. 터치스크린(150)에 접촉하는 터치 제스처는 하나 또는 복수의 터치 제시처일 수 있다.
하나의 터치(203)의 연속적인 움직임은 최초 터치(203)의 검출 위치(203a)에서부터 최후 터치(204)의 검출 위치(204a)까지 이동을 포함한다. 또한, 하나의 터치(203)의 연속적인 움직임은 최초 터치(203)의 검출 위치(203a)에서부터 최후 터치(204)의 검출 위치(204a)까지 연속적으로 터치 스크린(150)과의 접촉을 유지하는 것을 의미한다. 하나의 터치(203)의 연속적인 움직임은 최후 터치(204)의 검출 위치(204a)에서 터치 스크린(150)과 분리된다.
도 5c를 참조하면, 하나의 터치(203)의 연속적인 움직임 터치 제스처 중 플릭(flick), 스와이프(swipe), 더블 탭(double tap) 또는 회전(rotate)을 포함할 수 있다.
도 5a 내지 도 5c뿐만 아니라, 본 발명의 다른 실시예에 따른 비디오 생성방법의 트리거 예를 나타낸다. 예를 들어, 제어 유닛은 입력되는 사용자의 음성을 수신하는 마이크(163) 및 음성 인식 모듈(도시되지 아니함)을 이용하여 일반 비디오 모드를 트랙킹 비디오 모드로 변경할 수 있다. 제어 유닛은 변경된 트랙킹 비디오 모드로 비디오를 촬영할 수도 있다.
도 3a의 단계(S302)에서, 4K 비디오가 화면에 표시된다.
도 4b 및 도 4c를 참조하면, 제어 유닛의 제어에 의해 촬영 장치(100)의 화면에 비디오(200)가 표시된다. 비디오(200)는 제어 유닛의 제어에 의해 화면 크기에 대응되게 이미지 처리되어 표시된다. 비디오는 초당 60 프레임으로 표시되거나 또는 초당 30 프레임으로 표시될 수 있다. 표시되는 비디오(200)는 촬영 장치(100)의 화면 크기(예를 들어, 화면의 대각선 크기)에 대응되게 크기가 다양하게 표시될 수 있다. 표시되는 비디오(200)는 다양한 오브젝트(예를 들어, 레이싱중인 자동차들, 트랙 등)를 포함할 수 있다. 비디오(200)에 표시되는 오브젝트는 사용자의 터치에 의해 선택될 수 있다. 비디오(200)에 표시되는 오브젝트는 움직이는 오브젝트일 수 있다. 또한, 비디오(200)에 표시되는 오브젝트는 촬영 장치의 버튼(예를 들어, 161d 및 161e, 도1 참조)에 의해 선택될 수도 있다.
도 3a의 단계(S303)에서, 화면에 표시되는 오브젝트에서 사용자의 터치가 검출된다.
도 4c를 참조하면, 화면에 표시되는 복수의 오브젝트(예를 들어, 202 내지 200e) 중에서 오브젝트(202)가 사용자(또는 입력 유닛)에 의해 터치된다. 제어 유닛은 터치 스크린(150) 및 터치 스크린 컨트롤러(도시되지 아니함)를 통해 화면에서 제1 터치(203)를 검출한다. 제어 유닛은 터치 스크린 컨트롤러(도시되지 아니함)로부터 제1 터치(203)에 대응되는 제1 위치 정보(예를 들어, 203a에 대응되는 X1과 Y1좌표)를 수신한다.
또한, 화면에 표시되는 오브젝트(202)에서 사용자(또는 입력 유닛)의 호버링이 검출될 수 있다. 제어 유닛은 터치 스크린(150) 및 터치 스크린 컨트롤러(도시되지 아니함)를 통해 화면에서 호버링을 검출할 수 있다. 제어 유닛은 터치 스크린 컨트롤러(도시되지 아니함)로부터 검출된 호버링에 대응되는 제11 위치 정보(예를 들어, X11과 Y11좌표)를 수신할 수 있다.
제어 유닛은 수신된 제1 위치 정보에 포함된 터치 스크린(150)상의 터치 위치(203a), 터치 검출 시간(예를 들어, 14시 17분) 및 터치에 대응되는 터치 부가 정보(예를 들어, 터치 압력 등)를 저장 유닛에 저장할 수 있다. 또한, 제어 유닛은 수신된 제11 위치 정보에 포함된 터치 스크린(150)상의 호버링 위치, 터치 검출 시간(예를 들어, 14시 18분) 및 터치에 대응되는 호버링 부가 정보(예를 들어, 호버링 높이 등)를 저장 유닛에 저장할 수 있다.
터치 스크린(150)에 접촉되는 터치(203)는 예를 들어, 엄지를 포함하는 손가락들 중 하나 또는 터치가능한 입력 유닛에 의해 발생할 수 있다. 제어 유닛에 의해 검출가능한 터치의 개수는 촬영 장치(100)의 터치 스크린(150) 및/또는 터치 스크린 컨트롤러(도시되지 아니함)의 성능 또는 구조에 대응하여 변경될 수 있음은 당해 기술분야의 통상의 지식을 가지는 자에게 용이하게 이해될 수 있는 것이다.
도 3a의 단계(S304)에서, 터치에 대응되는 오브젝트가 구별되게 화면에 표시된다.
도 4d 및 도 6을 참조하면, 터치(203)가 검출된 오브젝트(202)가 다른 오브젝트(202a 내지 202e)와 구별되게 표시된다. 오브젝트(202)와 다른 오브젝트의 구별은 예를 들어, 오브젝트(202)의 하이라이트(highlighting) 표시, 오브젝트(202)의 명멸(glimmering) 표시, 오브젝트(202)의 에지를 굵게 표시, 오브젝트(202)의 에지에서 이격(예를 들어, 5 ㎜ 이내)된 라인(202l)을 표시, 오브젝트(202)의 콘트라스트를 크게, 오브젝트(202)의 반전(turnover indication) 표시, 오브젝트(202)에 밑줄(underlined) 표시 및/또는 오브젝트(202)를 다른 컬러로 표시하는 것을 포함할 수 있다. 오브젝트(202)와 다른 오브젝트(202a 내지 202e)의 구별은 제어 유닛의 제어에 의해 한정된 영역(예를 들어, 오브젝트(202)의 에지를 기준으로 10 ㎜ 이내)에서 표시될 수 있다. 상술된 오브젝트(202)를 다른 오브젝트(202a 내지 202e)와 구별되게 표시되는 방법들은 이에 한정되지 않고, 다양하게 구별하여 표시를 할 수 있음은 당해 기술분야의 통상의 지식을 가지는 자에게 용이하게 이해될 수 있는 것이다.
도 3a의 단계(S305)에서, 터치가 검출된 오브젝트가 확대된다.
도 4e를 참조하면, 제어 유닛의 제어에 의해 터치가 검출된 오브젝트(202)를 포함하는 오브젝트 영역(210)은 확대된다. 오브젝트(202)가 다른 오브젝트(202a 내지 202e)와 구별되게 표시되는 설정된 시간(예를 들어, 500㎳, 제조사 또는 사용자에 의해 변경 가능)이 경과되는 경우, 오브젝트 영역(210)은 제어 유닛의 제어에 의해 점진적으로 결정된 크기(예를 들어, 화면 크기)에 대응되게 확대될 수 있다.
제어 유닛은 현재 위치에서의 오브젝트 영역(210)을 결정된 크기(예를 들어, 800 X 480 pixel)로의 확대되는 시각 피드백(210 내지 210d)을 표시할 수 있다. 시각 피드백(210 내지 210d)은 오브젝트 영역(210)을 기준으로 하는 현재 크기(210)에서부터 결정된 크기(210d)로 확대될 수 있다. 시각 피드백(210 내지 210d)은 오브젝트 영역(210)의 현재 크기에서부터 결정된 크기(210d)까지 등속(constant velocity)으로 점진적으로 확대될 수 있다. 시각 피드백(210 내지 210d)은 오브젝트 영역(210)의 중심 위치를 기준으로 결정된 크기(210d)로 확대될 수 있다.
오브젝트 영역(210)의 중심 위치가 화면의 중심 위치가 아닌 경우, 오브젝트 영역(210)의 꼭지점을 기준으로 하는 시각 피드백(210 내지 210d)의 확대율은 오브젝트 영역(210)의 꼭지점에 따라 다를 수 있다. 오브젝트 영역(210)의 꼭지점에서부터 대응되는 화면의 꼭지점까지 가상의 선을 연결하는 경우, 점진적으로 확대되는 오브젝트 영역(210)의 꼭지점 위치는 상호 다를 수 있다. 예를 들어, 화면의 중심 위치에서부터 멀리 이격된 오브젝트 영역(210)의 꼭지점의 위치는 화면의 중심 위치에서부터 가깝게 이격된 오브젝트 영역(210)의 꼭지점의 위치와 비교하여 대응되는 화면의 꼭지점에서 더 이격될 수 있다.
본 발명의 다른 실시예에 따라 제어 유닛은 현재 위치에서의 오브젝트 영역(210)을 화면의 중심 위치로 이동할 수 있다. 제어 유닛은 화면의 중심 위치로 이동된 오브젝트 영역(210)을 결정된 크기(예를 들어, 800 X 480 pixel)로 등속으로 점진적으로 확대되는 시각 피드백(도시되지 아니함)을 표시할 수 있다. 오브젝트 영역(210)의 중심 위치가 화면의 중심 위치와 동일한 경우, 오브젝트 영역(210)의 꼭지점을 기준으로 하는 시각 피드백(210 내지 210d)의 확대율은 동일할 수 있다.
본 발명의 실시예에서, 촬영되는 비디오(200)는 4K 해상도 또는 그 이상의 해상도를 가지는 비디오일 수 있다. 4K 해상도 비디오에서 터치(203)가 검출된 오브젝트(202)를 확대하는 경우, 크롭(crop)된 오브젝트 영역(210)의 해상도는 4K 해상도와 HD 해상도 사이일 수 있다. 예를 들어, 4K 해상도 비디오에서 터치(203)가 검출된 오브젝트(202)의 오브젝트 영역(210)의 크기가 화면 크기의 1/4인 경우, 화면 크기로 확대된 오브젝트 영역(210)의 해상도는 Full HD해상도 일 수 있다. 화각(angle of view)의 관점에서, 화면 크기로 확대된 오브젝트 영역(210)은 확대된 길이 기준으로 2배 줌(zoom)의 효과일 수 있다.
본 발명의 다른 실시예에 따라 제어 유닛은 오브젝트 영역(210)의 확대에 대응되는 청각 피드백을 제공할 수 있다. 제어 유닛은 오브젝트 영역(210)의 확대에 대응되는 청각 피드백(예를 들어, 오디오 파일 등)을 스피커(164)를 통해 출력할 수 있다.
제어 유닛은 오브젝트 영역(210)의 확대에 대응되는 시각 피드백 및 청각 피드백 중 적어도 하나의 피드백을 선택적으로 제공할 수 있다.
도 7a 및 도 7b를 참조하면, 사용자의 터치에 의해 오브젝트 영역(210)의 크기를 변경할 수 있다. 제어 유닛은 터치 스크린(150) 및 터치 스크린 컨트롤러(도시되지 아니함)을 이용하여 에지(210k)에서의 터치 위치(205a)를 검출할 수 있다.
오브젝트 영역(210)의 에지(210k)에서 터치(205)가 검출되는 경우, 제어 유닛은 오브젝트 영역(210)의 에지(210k) 상에 마크(예를 들어, □)를 표시한다. 또한, 사용자의 터치(205)가 오브젝트 영역(210)의 에지(210k)에 계속 접촉중인 경우, 제어 유닛은 오브젝트 영역(210)의 에지(210k) 상에 마크(예를 들어, □)를 표시할 수 있다. 오브젝트 영역(210)의 에지(210) 상에 마크가 표시되는 경우, 사용자의 입력에 의해 오브젝트 영역(210)의 크기가 변경할 수 있다는 것을 의미한다.
사용자에 의해 입력되는 오브젝트 영역(210)의 에지(210k)에서부터 터치(205)의 연속적인 움직임(예를 들어, 최초 터치(205)의 검출 위치(205a)에서부터 최후 터치(206)의 검출 위치 (20a)까지 이동)이 검출될 수 있다. 하나의 터치(205)의 연속적인 움직임은 최후 터치(206)의 검출 위치 (206a)에서 터치 스크린(150)과 분리된다. 최후 터치(206)의 검출 위치 (206a)에서 터치의 연속적인 움직임이 분리되는 경우, 제어 유닛은 오브젝트 영역(210)의 에지(210k)를 확대된 에지(210l)로 변경할 수 있다. 제어 유닛은 확대된 에지(210l)를 화면에 확대하여 표시할 수 있다. 또한, 제어 유닛은 확대된 에지(210l)를 기준으로 촬영 해상도를 조정할 수도 있다. 제어 유닛은 조정된 촬영 해상도의 비디오를 저장할 수도 있다.
도 3a의 단계(S306)에서, 오브젝트 트랙킹 및 확대된 오브젝트 영역이 표시된다.
도 4f를 참조하면, 제어 유닛의 제어에 의해 오브젝트 영역(210)이 확대되어 화면에 표시된다(200y). 제어 유닛은 확대된 오브젝트 영역(200y)의 오브젝트(202)를 추적(tracking)할 수 있다. 제어 유닛은 확대된 오브젝트 영역(200y)의 오브젝트(202)의 추적을 추가 비디오 촬영 버튼(161c)이 선택될 때까지 지속할 수 있다. 제어 유닛은 확대된 오브젝트 영역(200y)의 오브젝트(202)를 추가 비디오 촬영 버튼(161c)이 선택될 때까지 촬영 및 저장을 할 수 있다.
이동하는 오브젝트(202)에 대응하여 촬영 장치(100)가 이동하는 경우, 제어 유닛은 오브젝트 영역(200y)의 오브젝트(202)를 추적하여 화면에 표시할 수 있다. 또한, 제어 유닛은 이동하는 오브젝트(202)를 화면 중심 영역에 표시할 수도 있다.
제어 유닛은 확대된 오브젝트(200y)의 오브젝트(202)에 대해 자동 초점 기능 및 자동 노출 기능을 수행할 수 있다. 촬영 장치(100)에서, 도 4b에서의 자동 초점 및 자동 노출의 대상인 피사체와 도 4f에서의 자동 초점 및 자동 노출의 대상인 피사체가 다를 수 있다. 제어 유닛은 확대된 오브젝트(200y)의 오브젝트(202)의 밝기와 초점을 조정할 수 있다.
또한, 제어 유닛은 확대된 오브젝트(200y)에 포함된 오브젝트(202)에 대해 자동 초점 기능 및 자동 노출 기능뿐만 아니라 다양한 이미지 프로세싱(예를 들어, 컬러 인터폴레이션 기능, 컬러 보상 기능, 컬러 공간 변환 기능, 감마 보상 기능)을 적용할 수도 있다.
오브젝트 추적 방법은 다양한 알고리즘이 있으며 예를 들어, 포인트 추적 방법(point tracking), 커널 트랙킹 방법(kernel tracking) 및 실루엣 트랙킹 방법(silhouette tracking)을 포함할 수 있다. 포인트 추적 방법, 커널 트랙킹 방법 및 실루엣 트랙킹 방법도 더 세분화되어 다양하다.
도 4f에서 확대되어 표시되는 오브젝트(202)는 도 4d 및 도 4e와 다르게 다른 오브젝트들과 구별되게 표시되지 않는다. 예를 들어, 도 4d 및 도 4e에서 오브젝트(202)의 에지가 굵게 표시되는 경우, 도 4f에서의 오브젝트(202)는 도 4b 및 도 4cc처럼 에지가 원래대로 표시될 수 있다.
도 3a의 단계(S307)에서, 비디오가 저장된다.
도 4f를 참조하면, 사용자의 터치(211)에 의해 촬영 장치(100)의 비디오 촬영 버튼(161c)이 눌려진다. 제어 유닛은 눌려진 비디오 촬영 버튼(161c)에 대응하여 제1 터치(201)가 검출된 시점부터 제3 터치(211)가 검출된 시점까지의 비디오(예를 들어, 도 4b에서부터 도4f까지의 비디오)를 저장 유닛에 저장할 수 있다. 또한, 제어 유닛은 눌려진 비디오 촬영 버튼(161c)에 대응하여 제2 터치(203)가 검출된 시점부터 제3 터치(211)가 검출된 시점까지의 비디오(예를 들어, 도 4c에서부터 도4f까지의 비디오)를 저장 유닛에 저장할 수 있다.
저장되는 비디오(200)에 대응되는 부가 정보(예를 들어, 파일 이름, 파일 크기, 파일 해상도, 파일 생성 시가/날짜, 노출 시간, F값, ISO 감도, 압축률, 셔터 스피드 값, 초점 거리, 측광 방식, 렌즈의 최대 밝기, 플래시, 비디오에 대응되는 설명 등)을 메타 데이터로 저장할 수 있다. 또한, 저장된 스틸 이미지에도 유사한 부가 정보를 가지는 메타 데이터로 저장할 수 있다. 촬영 장치(100)에 따라 저장되는 부가 정보가 추가, 삭제 또는 변경될 수 있다는 것은 당해 기술 분야의 통상의 지식을 가진 자에게 용이하게 이해될 것이다.
도 3a의 단계(S307)에서, 제어 유닛은 비디오(200)를 저장하는 경우, 촬영 장치의 비디오 생성방법은 종료된다.
도 3a의 단계(S305)로 되돌아가서, 터치가 검출된 오브젝트가 확대 및 PIP(Picture in Picture)인 경우, 단계(S308)로 진행한다.
도 3a의 단계(S308)에서, 터치가 검출된 오브젝트가 확대 및 PIP로 표시된다.
도 4g를 참조하면, 제어 유닛의 제어에 의해 터치가 검출된 오브젝트(202)를 포함하는 오브젝트 영역은 확대되어 표시되고(200y), 오브젝트 영역(210)의 확대된 화면(200y) 모서리 중 하나에 축소된 PIP(Picture in Picture) 화면(200a)을 표시할 수 있다.
PIP 화면(200a)은 촬영되는 비디오(200)를 스케일링하여 표시되는 화면일 수 있다. PIP 화면(200a)은 오브젝트 영역(210)이 확대된 화면(200y)에 오버레이되어 표시될 수 있다. 또한, 제어 유닛은 투명도(예를 들어, 0 내지 100%의 투명도, transparency)를 가지는 PIP 화면(200a)을 표시할 수 있다.
제어 유닛은 PIP 화면(200a)와 구분되는, 확대된 오브젝트 영역(200y)의 오브젝트(202)를 추적(tracking)할 수 있다. 오브젝트(202)의 이동에 대응하여 촬영 장치(100)가 이동하는 경우, 제어 유닛은 오브젝트 영역(200y)의 오브젝트(202)를 추적하여 화면에 표시할 수 있다. 또한, 제어 유닛은 이동하는 오브젝트(202)를 화면 중심 영역에 표시할 수도 있다.
제어 유닛은 PIP 화면(200a)를 통해 사용자에게 오브젝트 영역(210)의 확대된 화면(200y)의 비디오(200)에서의 현재 위치 및 다른 오브젝트들의 위치 관계를 제공할 수 있다.
또한, 제어 유닛은 사용자의 터치(도시되지 아니함) 또는 설정에 의해 PIP 화면(200a)의 위치를 다른 모서리(200b 내지 200d)로 변경할 수 있다. 예를 들어, 제어 유닛은 사용자의 터치 제스처(예를 들어, 터치 앤 드래그(touch and drag), 도시되지 아니함)에 의해 PIP 화면(200a)을 다른 모서리로 변경할 수 있다. 제어 유닛은 PIP 화면(200a)을 모서리뿐만 아니라 사용자가 터치 제스처를 멈춘 위치(예를 들어, 화면의 중심 영역, 두 모서리(200a 및 200b)의 사이 등)로 이동시킬 수 있다.
PIP 화면(200a)의 이동을 위한 터치 제스처는 터치 앤 드래그뿐만 아니라 다양한 터치 제스처(예를 들어, 플릭, 스와이프, 더블 탭, 멀티 터치 제스처 등)가 적용될 수 있다는 것은 당해 기술 분야의 통상의 지식을 가진 자에게 용이하게 이해될 것이다.
도 3a의 단계(S309)에서 오브젝트(302)의 확대 및 PIP 화면의 표시는 도 3a의 단계(S306)에서 오브젝트(302)의 확대와 실질적으로 유사하므로 중복되는 설명을 생략할 수 있다.
도 3a의 단계(S310)에서, 비디오가 저장된다.
도 4h를 참조하면, 사용자의 터치(212)에 의해 촬영 장치(100)의 비디오 촬영 버튼(161c)이 눌려진다. 제어 유닛은 눌려진 비디오 촬영 버튼(161c)에 대응하여 제1 터치(201)가 검출된 시점부터 제4 터치(212)가 검출된 시점까지의 비디오(예를 들어, 도 4b에서부터 도4g까지의 비디오(도 4f는 제외))를 저장 유닛에 저장할 수 있다. 또한, 제어 유닛은 눌려진 비디오 촬영 버튼(161c)에 대응하여 제2 터치(203)가 검출된 시점부터 제4 터치(212)가 검출된 시점까지의 비디오(예를 들어, 도 4c에서부터 도4g까지의 비디오(도 4f는 제외)를 저장 유닛에 저장할 수 있다.
저장되는 비디오(200y+200a)에 대응되는 부가 정보(예를 들어, 파일 이름, 생성 날짜, PIP 화면의 위치, 크기, 비디오에 대응되는 설명 등)을 메타 데이터로 저장할 수 있다.
도 3a의 단계(S310)에서, 제어 유닛은 비디오(200y + 200a)를 저장하는 경우, 촬영 장치의 비디오 생성방법은 종료된다.
도 3b은 본 발명의 다른 실시예에 따른 촬영 장치의 동영상 생성방법을 나타내는 개략적인 순서도이다.
도 3b의 단계(S351)에서, 비디오 목록이 화면에 표시된다.
도 8a를 참조하면, 제어 유닛은 사용자의 입력(도시되지 아니함)에 대응하여 썸네일 크기로 정렬된 비디오 목록(220)을 화면에 표시한다. 예를 들어, 재생 버튼(161h)에서 사용자 입력이 검출되는 경우, 제어 유닛은 비디오 목록(220)을 화면에 표시할 수 있다. 표시되는 비디오 목록(220)은 비디오(221a 내지 221c)뿐만 아니라 스틸 이미지(222a 내지 222l)를 포함할 수 있다.
비디오 목록(220)에 표시되는 스틸 이미지(222a 내지 222l) 또는 비디오(221a 내지 221c)는 저장 유닛(170)에 기저장되어 있다. 또한, 비디오 목록(220)에 표시되는 스틸 이미지(222a 내지 222l) 또는 비디오(221a 내지 221c)는 제어 유닛의 제어에 따라 통신 유닛(120)을 통해 외부 장치로부터 다운로드(download)될 수도 있다.
도 3b의 단계(S352)에서, 비디오 목록에서 비디오의 선택이 수신된다.
도 8b를 참조하면, 비디오 목록(220)에서 비디오(221c)가 사용자에 의해 터치된다. 제어 유닛은 터치 스크린(150) 및 터치 스크린 컨트롤러(도시되지 아니함)를 통해 화면에서 제21 터치(207)를 검출한다. 제어 유닛은 터치 스크린 컨트롤러(도시되지 아니함)로부터 제21 터치(203)에 대응되는 제21 위치 정보(예를 들어, 207a에 대응되는 X21과 Y21좌표)를 수신한다. 또한, 비디오(221c)에서 사용자의 호버링이 검출될 수 있다.
도 3b의 단계(S352)에서의 터치(207)의 검출은 도 3a의 단계(S303)과 실질적으로 동일하므로 중복되는 설명은 생략할 수 있다.
도 3b의 단계(S353 내지 S361)에서의 비디오 생성방법은 도 3a의 단계(S302 내지 S310)에서의 비디오 생성방법과 실질적으로 동일하므로 중복되는 설명은 생략할 수 있다.
본 발명의 예시적 실시예에 따른 방법들은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 예를 들어, 상기 컴퓨터 판독 가능 매체는 삭제 가능 또는 재기록 가능 여부와 상관없이, ROM 등의 저장 장치와 같은 휘발성 또는 비휘발성 저장 장치, 또는 예를 들어, RAM, 메모리 칩, 장치 또는 집적 회로와 같은 메모리, 또는 예를 들어 CD, DVD, 자기 디스크 또는 자기 테이프 등과 같은 광학 또는 자기적으로 기록 가능함과 동시에 기계(예를 들어, 컴퓨터)로 읽을 수 있는 저장 매체에 저장될 수 있다.
휴대 장치 내에 포함될 수 있는 메모리는 본 발명의 실시 예들을 구현하는 지시들을 포함하는 프로그램 또는 프로그램들을 저장하기에 적합한 기계로 읽을 수 있는 저장 매체의 한 예임을 알 수 있을 것이다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당해 분야의 통상의 지식을 가지는 자에게 공지되어 사용 가능한 것일 수도 있다.
이상과 같이 본 발명은 비록 한정된 예시적 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 예시적 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.
그러므로, 본 발명의 범위는 설명된 예시적 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허 청구범위뿐 아니라 이 특허 청구범위와 균등한 것들에 의해 정해져야 한다.
100: 촬영 장치 110: 제어 유닛
120: 통신 유닛 130: 이미지 센서
135: 셔터 140: 센서 유닛
150: 터치 스크린 160: 입/출력 유닛
161a: 전원 스위치 161c: 비디오 촬영 버튼
161h: 재생 버튼 170: 저장 유닛
180: 렌즈 185: 렌즈 마운트
202: 오브젝트 203, 204, 205, 206, 207: 터치

Claims (17)

  1. 촬영 장치의 화면에 비디오를 표시하는 단계;
    상기 비디오에 있는 오브젝트에서 사용자 터치를 검출하는 단계;,
    상기 검출된 오브젝트를 포함하는 제1 오브젝트 영역을 상기 화면의 크기에 대응되게 제2 오브젝트 영역으로 확대하여 표시하는 단계; 및
    상기 확대된 제2 오브젝트 영역에 포함된 상기 오브젝트를 추적하여 표시하는 단계를 포함하고,
    상기 제2 오브젝트 영역은 상기 비디오에서 크롭되어 확대된 것이고,
    상기 오브젝트를 추적하는 단계는 상기 제2 오브젝트 영역에 포함된 상기 오브젝트에 대응되는 자동 노출 기능 및 자동 초점 기능을 수행하는 단계를 포함하는 촬영 장치의 비디오 생성방법.
  2. 제1항에 있어서,
    상기 제2 오브젝트 영역의 해상도는 상기 비디오의 해상도보다 낮은 촬영 장치의 비디오 생성방법.
  3. 제1항에 있어서,
    상기 제1 오브젝트 영역의 크기는 사용자에 의해 변경가능한 촬영 장치의 비디오 생성방법.
  4. 제1항에 있어서,
    상기 화면에 표시되는 상기 비디오는 촬영 장치의 비디오 촬영 버튼의 눌림 및 상기 화면에 표시되는 비디오 목록에서의 선택 중 하나에 의해 표시되는 촬영 장치의 비디오 생성방법.
  5. 삭제
  6. 삭제
  7. 제1항에 있어서,
    상기 추적된 오브젝트를 포함하는 확대된 상기 제2 오브젝트 영역을 저장하는 단계를 더 포함하는 촬영 장치의 비디오 생성방법.
  8. 제1항에 있어서,
    상기 제2 오브젝트 영역에 상기 비디오를 스케일링한 PIP(picture in picture) 화면을 오버레이로 표시하는 촬영 장치의 비디오 생성방법.
  9. 제8항에 있어서,
    상기 PIP 화면은 상기 화면 내에서 이동가능한 촬영 장치의 비디오 생성방법.
  10. 제1항에 있어서,
    상기 제2 오브젝트 영역으로 확대하여 표시하는 단계에 있어서,
    상기 제2 오브젝트 영역으로의 확대에 대응하여 시각 피드백 및 청각 피드백 중 적어도 하나를 제공하는 촬영 장치의 비디오 생성방법.
  11. 제1항에 있어서,
    상기 오브젝트를 다른 오브젝트와 구별되게 표시하는 단계를 더 포함하는 촬영 장치의 비디오 생성방법.
  12. 비디오를 표시하는 터치 스크린; 및,
    상기 터치 스크린을 제어하는 제어 유닛을 포함하고,
    상기 제어 유닛은,
    상기 터치 스크린에 표시되는 비디오의 오브젝트에서 사용자의 터치를 검출하고, 상기 터치에 대응하여 구별되게 표시되는 상기 오브젝트를 포함하는 제1 오브젝트 영역을 상기 터치 스크린의 크기에 대응되게 제2 오브젝트 영역으로 확대하여 표시하고,
    상기 확대된 제2 오브젝트 영역의 해상도는 상기 비디오의 해상도보다 낮고,
    상기 제어 유닛은
    상기 확대된 제2 오브젝트 영역에 포함된 상기 오브젝트를 추적하여 표시하고,
    상기 제2 오브젝트 영역에 포함된 상기 오브젝트에 대응되는 자동 노출 기능 및 자동 초점 기능을 수행하는 촬영 장치.
  13. 제12항에 있어서,
    비디오 촬영 버튼을 더 포함하고,
    상기 제어 유닛은 검출된 상기 비디오 촬영 버튼의 눌림에 대응하여 촬영된 상기 비디오를 상기 터치 스크린에 표시되는 촬영 장치.
  14. 제13항에 있어서,
    상기 비디오 촬영 버튼은 비디오 모드를 선택하는 비디오 모드 스위치를 더 포함하고,
    상기 비디오 촬영 버튼의 외경은 상기 비디오 모드 스위치의 외경보다 짧은 촬영 장치.
  15. 제12항에 있어서,
    상기 제어 유닛은 상기 제2 오브젝트 영역의 확대에 대응되는 시각 피드백을 상기 터치 스크린에서 제공하는 촬영 장치.
  16. 제12항에 있어서,
    스피커를 더 포함하고,
    상기 제어 유닛은 상기 제2 오브젝트 영역의 확대에 대응되는 청각 피드백을 상기 스피커를 통해 제공하는 촬영 장치.
  17. 삭제
KR1020140067293A 2014-06-03 2014-06-03 촬영 장치 및 촬영 장치의 비디오 생성방법 KR102146858B1 (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020140067293A KR102146858B1 (ko) 2014-06-03 2014-06-03 촬영 장치 및 촬영 장치의 비디오 생성방법
US15/313,548 US10375312B2 (en) 2014-06-03 2015-06-03 Imaging device and video generation method by imaging device
EP15803556.8A EP3154255B1 (en) 2014-06-03 2015-06-03 Imaging device and video generation method
CN201580029542.4A CN106416223B (zh) 2014-06-03 2015-06-03 成像设备和通过成像设备进行的视频生成方法
PCT/KR2015/005565 WO2015186964A1 (ko) 2014-06-03 2015-06-03 촬영 장치 및 촬영 장치의 비디오 생성방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140067293A KR102146858B1 (ko) 2014-06-03 2014-06-03 촬영 장치 및 촬영 장치의 비디오 생성방법

Publications (2)

Publication Number Publication Date
KR20150139159A KR20150139159A (ko) 2015-12-11
KR102146858B1 true KR102146858B1 (ko) 2020-08-21

Family

ID=54766986

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140067293A KR102146858B1 (ko) 2014-06-03 2014-06-03 촬영 장치 및 촬영 장치의 비디오 생성방법

Country Status (5)

Country Link
US (1) US10375312B2 (ko)
EP (1) EP3154255B1 (ko)
KR (1) KR102146858B1 (ko)
CN (1) CN106416223B (ko)
WO (1) WO2015186964A1 (ko)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10530757B2 (en) 2013-07-25 2020-01-07 Convida Wireless, Llc End-to-end M2M service layer sessions
WO2018009828A1 (en) 2016-07-08 2018-01-11 Vid Scale, Inc. Systems and methods for region-of-interest tone remapping
CN106375666B (zh) * 2016-09-26 2019-04-16 成都臻识科技发展有限公司 一种基于车牌的自动对焦方法及装置
CN109891772B (zh) 2016-11-03 2022-10-04 康维达无线有限责任公司 Nr中的帧结构
JP6278575B1 (ja) * 2016-11-21 2018-02-14 株式会社コナミデジタルエンタテインメント ゲーム制御装置、ゲームシステム、及びプログラム
US11765406B2 (en) 2017-02-17 2023-09-19 Interdigital Madison Patent Holdings, Sas Systems and methods for selective object-of-interest zooming in streaming video
CN118509635A (zh) * 2017-08-30 2024-08-16 Vid拓展公司 跟踪式视频缩放
WO2020044763A1 (ja) 2018-08-31 2020-03-05 富士フイルム株式会社 撮像素子、撮像装置、画像データ処理方法、及びプログラム
WO2020068251A1 (en) 2018-09-27 2020-04-02 Convida Wireless, Llc Sub-band operations in unlicensed spectrums of new radio
CN111385607A (zh) * 2018-12-29 2020-07-07 浙江宇视科技有限公司 分辨率的确定方法、装置、存储介质、客户端及服务器
CN111031398A (zh) * 2019-12-10 2020-04-17 维沃移动通信有限公司 一种视频控制方法及电子设备
CN111654622B (zh) * 2020-05-28 2022-10-14 维沃移动通信有限公司 拍摄对焦方法、装置、电子设备及存储介质
JP7518684B2 (ja) 2020-07-16 2024-07-18 キヤノン株式会社 撮像制御装置、その制御方法、プログラム及び記録媒体

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080074550A1 (en) 2006-09-25 2008-03-27 Samsung Electronics Co., Ltd. Mobile terminal having digital broadcast reception capability and pip display control method
US20100318929A1 (en) 2009-06-10 2010-12-16 Intergraph Technologies Company Ontological Filtering Using Spatial Boundary of 3D Objects
US20100321536A1 (en) 2009-06-23 2010-12-23 Lg Electronics Inc. Mobile terminal and controlling method of a mobile terminal
US20110239104A1 (en) 2010-03-24 2011-09-29 Fujitsu Limited Facilitating Automated Validation of a Web Application
US20130265467A1 (en) 2012-04-09 2013-10-10 Olympus Imaging Corp. Imaging apparatus
US20140334797A1 (en) 2013-05-10 2014-11-13 Lg Electronics Inc. Mobile terminal and controlling method thereof

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4438332B2 (ja) * 2003-06-27 2010-03-24 カシオ計算機株式会社 電子機器、この電子機器に用いられるモニタ表示方法及びプログラム
JP2005354333A (ja) 2004-06-10 2005-12-22 Casio Comput Co Ltd 画像再生装置およびプログラム
EP1643758B1 (en) 2004-09-30 2013-06-19 Canon Kabushiki Kaisha Image-capturing device, image-processing device, method for controlling image-capturing device, and associated storage medium
JP4719641B2 (ja) * 2006-07-27 2011-07-06 ソニー株式会社 動画像データ提供方法、動画像データ提供方法のプログラム、動画像データ提供方法のプログラムを記録した記録媒体、動画像データ提供装置及び動画像データ提供システム。
US20100031892A1 (en) * 2008-07-07 2010-02-11 Ilyin Ilya Y Method for storage of live crustaceans
KR20100035385A (ko) 2008-09-26 2010-04-05 삼성디지털이미징 주식회사 디지털 촬영 장치를 이용한 영상 감시 방법 및 장치
KR20100071754A (ko) * 2008-12-19 2010-06-29 삼성전자주식회사 터치와 키조작에 의한 멀티 입력 방식을 이용한 촬영방법 및 이를 적용한 촬영장치
KR20100093955A (ko) 2009-02-17 2010-08-26 삼성전자주식회사 디지털 영상신호 처리장치에서 이미지확대표시방법
JP2011029552A (ja) * 2009-07-29 2011-02-10 Renesas Electronics Corp 半導体装置およびその製造方法
WO2011034924A1 (en) 2009-09-15 2011-03-24 Envysion, Inc. Video streaming method and system
US8874090B2 (en) * 2010-04-07 2014-10-28 Apple Inc. Remote control operations in a video conference
JP2011239104A (ja) * 2010-05-07 2011-11-24 Panasonic Corp カメラ装置、拡大表示方法およびプログラム
US8957920B2 (en) * 2010-06-25 2015-02-17 Microsoft Corporation Alternative semantics for zoom operations in a zoomable scene
EP2502858A1 (de) * 2011-03-23 2012-09-26 ABB Schweiz AG Antriebseinheit für eine Gurtförderanlage
KR101822655B1 (ko) 2011-06-21 2018-01-29 삼성전자주식회사 카메라를 이용한 물체 인식 방법 및 이를 위한 카메라 시스템
US8890864B2 (en) 2011-12-12 2014-11-18 Lg Electronics Inc. Mobile terminal and controlling method thereof
KR101833828B1 (ko) 2012-02-13 2018-03-02 엘지전자 주식회사 이동 단말기 및 그 제어방법
EP2626771B1 (en) 2012-02-09 2018-01-10 Samsung Electronics Co., Ltd Display apparatus and method for controlling a camera mounted on a display apparatus
KR102066564B1 (ko) 2012-02-09 2020-01-15 삼성전자주식회사 전자 장치 및 그의 제어 방법
KR20130092213A (ko) 2012-02-10 2013-08-20 삼성전자주식회사 디지털 촬영 장치 및 이의 제어 방법
JPWO2013132828A1 (ja) * 2012-03-05 2015-07-30 パナソニックIpマネジメント株式会社 通信システムおよび中継装置
US8594488B1 (en) 2012-03-13 2013-11-26 Google Inc. Methods and systems for video retargeting using motion saliency
CN104205798B (zh) * 2012-04-09 2017-08-04 索尼公司 显示控制装置、显示控制方法和存储介质
EP2695982A1 (de) * 2012-08-06 2014-02-12 Oskar Dilo Maschinenfabrik KG Vorrichtung und Verfahren zur Vergleichmäßigung oder Profilierung einer Faserflockenmatte
KR101917695B1 (ko) 2012-08-09 2018-11-13 엘지전자 주식회사 이동 단말기 및 그것의 제어방법
US20150085184A1 (en) * 2013-09-25 2015-03-26 Joel Vidal Smartphone and tablet having a side-panel camera

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080074550A1 (en) 2006-09-25 2008-03-27 Samsung Electronics Co., Ltd. Mobile terminal having digital broadcast reception capability and pip display control method
US20100318929A1 (en) 2009-06-10 2010-12-16 Intergraph Technologies Company Ontological Filtering Using Spatial Boundary of 3D Objects
US20100321536A1 (en) 2009-06-23 2010-12-23 Lg Electronics Inc. Mobile terminal and controlling method of a mobile terminal
US20110239104A1 (en) 2010-03-24 2011-09-29 Fujitsu Limited Facilitating Automated Validation of a Web Application
US20130265467A1 (en) 2012-04-09 2013-10-10 Olympus Imaging Corp. Imaging apparatus
US20140334797A1 (en) 2013-05-10 2014-11-13 Lg Electronics Inc. Mobile terminal and controlling method thereof

Also Published As

Publication number Publication date
KR20150139159A (ko) 2015-12-11
WO2015186964A1 (ko) 2015-12-10
EP3154255A1 (en) 2017-04-12
US10375312B2 (en) 2019-08-06
CN106416223B (zh) 2020-01-31
US20170201686A1 (en) 2017-07-13
EP3154255A4 (en) 2018-03-07
EP3154255B1 (en) 2020-02-12
CN106416223A (zh) 2017-02-15

Similar Documents

Publication Publication Date Title
KR102146858B1 (ko) 촬영 장치 및 촬영 장치의 비디오 생성방법
US10701273B1 (en) User terminal apparatus and control method thereof
EP3226537B1 (en) Mobile terminal and method for controlling the same
KR102114377B1 (ko) 전자 장치에 의해 촬영된 이미지들을 프리뷰하는 방법 및 이를 위한 전자 장치
US9571734B2 (en) Multi display device and method of photographing thereof
KR101636460B1 (ko) 전자 장치 및 그 제어 방법
US20160165133A1 (en) Method of controlling camera of device and device thereof
KR101969424B1 (ko) 촬영된 이미지를 표시하는 촬영 장치 및 그 촬영 방법
JP6400293B2 (ja) 電子装置でコンテンツを制御する装置及びその方法
CN111418202A (zh) 相机缩放级别和图像帧捕获控制
CN111385470B (zh) 电子设备、电子设备的控制方法和计算机可读介质
KR20170015089A (ko) 사용자 단말 장치 및 그 제어 방법
KR20160088719A (ko) 이미지를 촬영하는 전자 장치 및 방법
US11706378B2 (en) Electronic device and method of controlling electronic device
US11284003B2 (en) User terminal apparatus and control method thereof
US11079898B2 (en) Electronic device for controlling display of VR image, control method of electronic device, and non-transitory computer readable medium
JP2021174317A (ja) 電子機器及びその制御方法
JP7080711B2 (ja) 電子機器、電子機器の制御方法、プログラム、及び、記憶媒体
US10937217B2 (en) Electronic device and control method thereof for generating edited VR content
JP2022155135A (ja) 電子機器及びその制御方法及びプログラム及び記録媒体
US20230254555A1 (en) Electronic apparatus, control method therefor, and computer-readable storage medium storing program
US20240203012A1 (en) Electronic device for generating three-dimensional photo based on images acquired from plurality of cameras, and method therefor
US20230276015A1 (en) Electronic apparatus, method of controlling the same, and computer-readable storage medium storing program
JP7210153B2 (ja) 電子機器、電子機器の制御方法、プログラム、及び、記憶媒体
JP2022137023A (ja) プログラム、情報処理装置、および方法

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right