KR20150110032A - 영상데이터 처리 전자장치 및 방법 - Google Patents

영상데이터 처리 전자장치 및 방법 Download PDF

Info

Publication number
KR20150110032A
KR20150110032A KR1020140033797A KR20140033797A KR20150110032A KR 20150110032 A KR20150110032 A KR 20150110032A KR 1020140033797 A KR1020140033797 A KR 1020140033797A KR 20140033797 A KR20140033797 A KR 20140033797A KR 20150110032 A KR20150110032 A KR 20150110032A
Authority
KR
South Korea
Prior art keywords
image data
pointing object
module
electronic device
preview image
Prior art date
Application number
KR1020140033797A
Other languages
English (en)
Inventor
이승은
박정민
전승영
현은정
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020140033797A priority Critical patent/KR20150110032A/ko
Priority to US14/323,930 priority patent/US9560272B2/en
Priority to EP14178202.9A priority patent/EP2927781A1/en
Publication of KR20150110032A publication Critical patent/KR20150110032A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/0092Nutrition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/12Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with one sensor only
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Nutrition Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • User Interface Of Digital Computer (AREA)
  • Studio Devices (AREA)

Abstract

본 개시는 영상데이터를 획득하는 카메라모듈, 영상데이터에서 적어도 하나의 포인팅 오브젝트의 위치에 대응되는 피사체에 대한 영상데이터를 적어도 하나의 포인팅 오브젝트의 위치 및 움직임 중 적어도 하나에 따라 제어하는 제어모듈을 포함할 수 있고, 다른 실시 예로도 적용이 가능하다.

Description

영상데이터 처리 전자장치 및 방법{Electronic Apparatus and Method for Image Data Processing}
본 개시의 다양한 실시 예는 포인팅 오브젝트에 의해 선택된 피사체에 해당하는 영상데이터를 상기 포인팅 오브젝트의 움직임에 의거하여 제어하는 영상데이터 처리 전자장치 및 방법에 관한 것이다.
전자장치를 이용하여 영상데이터 획득 시 확대, 축소, 오토 포커싱 등의 기능을 수행하기 위해서 사용자가 전자장치를 직접 조작해야 한다. 또한, 획득된 영상데이터에 특정 효과를 삽입하기 위해서는 상기 영상데이터를 제어하여 부분 확대, 부분 축소 등의 기능을 수행할 수 있다.
상기와 같이 종래의 전자장치에서는 영상데이터 획득 시에 사용되는 피사체 확대, 축소, 오토 포커싱 등의 기능을 위해 사용자가 전자장치를 직접 조작해야 하는 번거로움이 발생한다.
또한, 종래의 전자장치에서는 영상데이터를 획득한 이후에 사용자의 요청에 맞게 특정 효과를 주어 제어할 수 있지만, 사용자가 원하는 효과를 가진 영상데이터를 획득하기 어려운 점이 있다.
이러한 종래의 문제점을 해결하기 위한 본 개시의 다양한 실시 예들은 카메라에서 획득된 프리뷰 영상데이터에서 설정된 포인팅 오브젝트의 움직임에 따라 프리뷰 영상데이터를 제어할 수 있는 영상데이터 처리 전자장치 및 방법을 제공하는 것이다.
또한, 종래의 문제점을 해결하기 위한 본 개시의 다양한 실시 예들은 카메라에서 획득된 프리뷰 영상데이터에서 설정된 포인팅 오브젝트의 움직임에 따라 프리뷰 영상데이터를 제어하여 사용자가 원하는 효과를 가진 최종 영상데이터를 획득할 수 있는 영상데이터 처리 전자장치 및 방법을 제공하는 것이다.
본 개시의 일 실시 예에 따른 영상데이터 처리 전자장치는 영상데이터를 획득하는 카메라모듈, 상기 영상데이터에서 적어도 하나의 포인팅 오브젝트의 위치에 대응되는 피사체에 대한 영상데이터를 상기 적어도 하나의 포인팅 오브젝트의 위치 및 움직임 중 적어도 하나에 따라 제어하는 제어모듈을 포함할 수 있다.
아울러, 본 개시의 일 실시 예에 따른 영상데이터 처리 방법은 영상데이터를 획득하는 동작, 상기 영상데이터에서 적어도 하나의 포인팅 오브젝트의 위치에 대응되는 피사체를 추출하는 동작, 상기 적어도 하나의 포인팅 오브젝트의 위치 및 움직임 중 적어도 하나를 확인하는 동작, 상기 확인결과에 따라 상기 추출된 피사체에 해당하는 영상데이터를 제어하여 출력하는 동작을 포함할 수 있다.
상술한 바와 같이 본 개시의 다양한 실시 예들에 따른 영상데이터 처리 전자장치 및 방법은 카메라에서 획득된 프리뷰 영상데이터에서 설정된 포인팅 오브젝트의 움직임을 확인함으로써, 사용자가 전자장치를 직접 조작하지 않고도 프리뷰 영상데이터를 제어할 수 있다.
또한, 본 개시의 다양한 실시 예들에 따른 영상데이터 처리 전자장치 및 방법은 카메라에서 획득된 프리뷰 영상데이터에서 설정된 포인팅 오브젝트의 움직임에 따라 프리뷰 영상데이터를 제어함으로써, 사용자가 원하는 효과를 가진 최종 영상데이터를 획득할 수 있다.
도 1은 본 개시의 일 실시 예에 따른 영상데이터 처리 전자장치의 주요 구성을 나타낸 블록도이다.
도 2는 본 개시의 일 실시 예에 따른 움직임을 이용해 영상데이터를 제어하는 방법을 나타낸 순서도이다.
도 3은 본 개시의 일 실시 예에 따른 포인팅 오브젝트를 설정하는 방법을 설명하기 위한 화면 예시도이다.
도 4는 본 개시의 일 실시 예에 따른 임의의 공간에서 발생된 움직임에 따라 영상데이터를 제어하여 특정 피사체만을 추출하는 방법을 설명하기 위한 화면 예시도이다.
도 5는 본 개시의 일 실시 예에 따른 임의의 공간에서 발생된 움직임에 따라 영상데이터를 제어하여 오토 포커싱하는 방법을 설명하기 위한 화면 예시도이다.
도 6은 본 개시의 일 실시 예에 따른 임의의 공간에서 발생된 움직임에 따라 영상데이터를 제어하여 특정 피사체를 확대하는 방법을 설명하기 위한 화면 예시도이다.
도 7은 본 개시의 일 실시 예에 따른 임의의 공간에서 발생된 움직임에 따라 영상데이터를 제어하여 특정 피사체의 줌 인/줌 아웃을 수행하는 방법을 설명하기 위한 화면 예시도이다.
도 8은 본 개시의 일 실시 예에 따른 임의의 공간에서 발생된 움직임에 따라 영상데이터를 제어하여 특정 피사체를 제거하는 방법을 설명하기 위한 화면 예시도이다.
도 9는 본 개시의 일 실시 예에 따른 임의의 공간에 위치하는 의복에 대한 영상데이터로 기 저장된 영상데이터를 제어하는 방법을 설명하기 위한 화면 예시도이다.
도 10는 본 개시의 일 실시 예에 따른 영상데이터를 제어하여 영상데이터에 포함된 음식의 칼로리를 표시하는 방법을 설명하기 위한 화면 예시도이다.
도 11은 본 개시의 일 실시 예에 따른 복수개의 포인팅 오브젝트를 이용하여 영상데이터를 제어하는 방법을 설명하기 위한 화면예시도이다.
도 12는 다양한 일 실시 예들에 따른 전자장치를 도시한 블록도이다.
이하, 본 개시의 다양한 실시 예가 첨부된 도면과 연관되어 기재된다. 본 개시의 다양한 실시 예는 다양한 변경을 가할 수 있고 여러 가지 실시 예를 가질 수 있는 바, 특정 실시 예들이 도면에 예시되고 관련된 상세한 설명이 기재되어 있다. 그러나, 이는 본 개시의 다양한 실시 예를 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 개시의 다양한 실시 예의 사상 및 기술 범위에 포함되는 모든 변경 및/또는 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용되었다.
본 개시의 다양한 실시 예에서 사용될 수 있는“포함한다” 또는 “포함할 수 있다” 등의 표현은 개시(disclosure)된 해당 기능, 동작 또는 구성요소 등의 존재를 가리키며, 추가적인 하나 이상의 기능, 동작 또는 구성요소 등을 제한하지 않는다. 또한, 본 개시의 다양한 실시 예에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
본 개시의 다양한 실시 예에서 “또는” 등의 표현은 함께 나열된 단어들의 어떠한, 그리고 모든 조합을 포함한다. 예를 들어, “A 또는 B”는, A를 포함할 수도, B를 포함할 수도, 또는 A 와 B 모두를 포함할 수도 있다.
본 개시의 다양한 실시 예에서 사용된 “제 1,”“제2,”“첫째,”또는“둘째,”등의 표현들은 다양한 실시 예들의 다양한 구성요소들을 수식할 수 있지만, 해당 구성요소들을 한정하지 않는다. 예를 들어, 상기 표현들은 해당 구성요소들의 순서 및/또는 중요도 등을 한정하지 않는다. 상기 표현들은 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 수 있다. 예를 들어, 제1 사용자 기기와 제 2 사용자 기기는 모두 사용자 기기이며, 서로 다른 사용자 기기를 나타낸다. 예를 들어, 본 개시의 다양한 실시 예의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 새로운 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 새로운 다른 구성요소가 존재하지 않는 것으로 이해될 수 있어야 할 것이다.
본 개시의 다양한 실시 예에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 개시의 다양한 실시 예를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 개시의 다양한 실시 예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 개시의 다양한 실시 예에서 명백하게 정의되지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
본 개시의 다양한 실시 예에 따른 전자장치는, 카메라 기능이 포함된 장치일 수 있다. 예를 들면, 전자장치는 스마트 폰(smartphone), 태블릿 PC(tablet personal computer), 이동 전화기(mobile phone), 화상전화기, 전자북 리더기(e-book reader), 데스크탑 PC(desktop personal computer), 랩탑 PC(laptop personal computer), 넷북 컴퓨터(netbook computer), PDA(personal digital assistant), PMP(portable multimedia player), MP3 플레이어, 모바일 의료기기, 카메라(camera), 또는 웨어러블 장치(wearable device)(예: 전자 안경과 같은 head-mounted-device(HMD), 전자 의복, 전자 팔찌, 전자 목걸이, 전자 앱세서리(appcessory), 전자 문신, 또는 스마트 와치(smart watch))중 적어도 하나를 포함할 수 있다.
어떤 실시 예들에 따르면, 전자장치는 카메라 기능을 갖춘 스마트 가전 제품(smart home appliance)일 수 있다. 스마트 가전 제품은, 예를 들자면, 전자장치는 텔레비전, DVD(digital video disk) 플레이어, 오디오, 냉장고, 에어컨, 청소기, 오븐, 전자레인지, 세탁기, 공기 청정기, 셋톱 박스(set-top box), TV 박스(예를 들면, 삼성 HomeSyncTM, 애플TVTM, 또는 구글 TVTM), 게임 콘솔(game consoles), 전자 사전, 전자 키, 캠코더(camcorder), 또는 전자 액자 중 적어도 하나를 포함할 수 있다.
어떤 실시 예들에 따르면, 전자장치는 각종 의료기기(예: MRA(magnetic resonance angiography), MRI(magnetic resonance imaging), CT(computed tomography), 촬영기, 초음파기 등), 네비게이션(navigation) 장치, GPS 수신기(global positioning system receiver), EDR(event data recorder), FDR(flight data recorder), 자동차 인포테인먼트(infotainment) 장치, 선박용 전자 장비(예: 선박용 항법 장치 및 자이로 콤파스 등), 항공 전자기기(avionics), 보안 기기, 차량용 헤드 유닛, 산업용 또는 가정용 로봇, 금융 기관의 ATM(automatic teller’s machine) 또는 상점의 POS(point of sales) 중 적어도 하나를 포함할 수 있다.
어떤 실시 예들에 따르면, 전자장치는 카메라 기능을 포함한 가구(furniture) 또는 건물/구조물의 일부, 전자 보드(electronic board), 전자 사인 입력장치(electronic signature receiving device), 프로젝터(projector), 또는 각종 계측기기(예: 수도, 전기, 가스, 또는 전파 계측 기기 등) 중 적어도 하나를 포함할 수 있다. 본 개시의 다양한 실시 예에 따른 전자장치는 전술한 다양한 장치들 중 하나 또는 그 이상의 조합일 수 있다. 또한, 본 개시의 다양한 실시 예에 따른 전자장치는 플렉서블 장치일 수 있다. 또한, 본 개시의 다양한 실시 예에 따른 전자장치는 전술한 기기들에 한정되지 않음은 당업자에게 자명하다.
이하, 첨부된 도면을 참조하여 다양한 실시 예에 따른 전자장치에 대해서 살펴본다. 다양한 실시 예에서 이용되는 사용자라는 용어는 전자장치를 사용하는 사람 또는 전자장치를 사용하는 장치(예: 인공지능 전자장치)를 지칭할 수 있다.
도 1은 본 개시의 일 실시 예에 따른 영상데이터 처리 전자장치의 주요 구성을 나타낸 블록도이다.
도 1을 참조하면, 본 개시에 따른 영상데이터 처리 전자장치 (100)는 카메라모듈 (110), 입력모듈 (120), 출력모듈 (130), 저장모듈 (140) 및 제어모듈 (150)을 포함할 수 있다. 저장모듈 (140)은 영상데이터DB (141), 포인팅 오브젝트 정보 (142) 및 움직임 정보 (143)를 포함할 수 있고, 제어모듈 (150)은 포인팅 오브젝트 관리부 (151), 움직임 관리부 (152) 및 영상데이터 관리부 (153)를 포함할 수 있다.
카메라모듈 (110)은 제어모듈 (150)의 제어에 의해 특정 공간에 대한 예컨대, 카메라모듈 (110)이 주시한 특정 공간에 대한 프리뷰 영상데이터(이하, 프리뷰 영상이라고 함) 및 최종 영상데이터를 획득할 수 있다. 카메라모듈 (110)은 프리뷰 영상을 획득하여 제어모듈 (150)로 제공할 수 있다. 카메라모듈 (110)은 제어모듈 (150)의 제어에 의해 프리뷰 영상을 임시로 저장할 수 있다. 카메라모듈 (110)은 제어모듈 (150)의 제어에 의해 프리뷰 영상을 촬영하여 최종 영상데이터를 생성하고 이를 제어모듈 (150)로 제공할 수 있다. 카메라모듈 (110)은 하나 이상의 이미지센서(전면 센서, 후면 센서, 스테레오 센서 또는 어레이 센서), 렌즈(미도시), ISP(Image Signal Processor, 미도시) 또는 플래쉬(Flash)(예; LED 또는 xenonlamp)를 포함할 수 있다.
입력모듈 (120)은 외부로부터의 입력에 따라 전자장치 (100)를 동작시키기 위한 신호를 생성하여 제어모듈로 제공할 수 있다. 입력모듈 (120)은 외부로부터의 입력에 따라 프리뷰 영상에서 적어도 하나의 포인팅 오브젝트(이하, 포인팅 오브젝트라 명명함)의 움직임을 인식하기 위한 인식모드로의 진입신호를 생성할 수 있다. 입력모듈 (120)은 기 저장된 포인팅 오브젝트를 선택하기 위한 선택신호를 생성할 수 있다. 입력모듈 (120)은 프리뷰 영상에서 확인된 피사체를 포인팅 오브젝트로 선택하기 위한 선택신호를 생성할 수 있다. 입력모듈 (120)은 키패드, 키보드, 터치패드, 터치스크린 등의 입력장치로 형성될 수 있다.
출력모듈 (130)은 제어모듈 (150)의 제어에 따라 동작되는 다양한 화면을 표시할 수 있다. 출력모듈 (130)은 LCD(Liquid Crystal Display), 터치스크린 등으로 형성될 수 있고, 터치스크린으로 형성된 경우, 출력모듈 (130)은 입력모듈 (120)의 역할을 동시에 실행할 수 있다. 출력모듈 (130)은 프리뷰 영상에서 포인팅 오브젝트의 움직임을 인식하기 위한 인식모드로의 진입을 위한 가상의 버튼, 기 저장된 포인팅 오브젝트의 선택을 위한 가상의 버튼, 프리뷰 영상에서 확인된 피사체를 포인팅 오브젝트로의 선택을 위한 가상의 버튼을 표시할 수 있다. 출력모듈 (130)은 상기와 같은 버튼 이외에도 전자장치 (100)의 동작을 제어하기 위한 다양한 가상의 버튼 등을 표시할 수 있다. 출력모듈 (130)은 저장모듈 (140)에 저장된 적어도 하나의 포인팅 오브젝트의 종류를 표시할 수 있다. 출력모듈 (130)은 카메라모듈 (110)에서 획득된 프리뷰 영상을 표시할 수 있고, 제어모듈 (150)에 의해 제어가 완료된 프리뷰 영상을 표시할 수 있다.
저장모듈 (140)은 전자장치 (100)를 동작시키기 위한 프로그램 또는 어플리케이션 등을 저장할 수 있다. 저장모듈 (140)은 카메라모듈 (110)에서 획득되는 프리뷰 영상과, 제어된 프리뷰 영상이 촬영된 최종 영상데이터를 영상데이터DB (141)에 저장할 수 있다. 저장모듈 (140)은 적어도 하나의 포인팅 오브젝트에 대한 정보를 포인팅 오브젝트 정보 (142)에 저장할 수 있다. 포인팅 오브젝트 정보 (142)에는 기 촬영된 포인팅 오브젝트의 영상데이터가 저장될 수 있다. 저장모듈 (140)은 적어도 하나의 움직임에 대응되는 제어명령이 움직임 정보 (143)에 저장될 수 있다.
제어모듈 (150)은 포인팅 오브젝트를 설정하고, 포인팅 오브젝트의 위치 및 동선 중 적어도 하나에 따라 프리뷰 영상을 제어하여 출력모듈 (130)에 출력할 수 있다. 제어모듈 (150)은 프리뷰 영상을 크롭핑(cropping), 확대, 축소, 부분확대, 부분축소, 부분제거, 아웃포커싱, 합성, 왜곡 및 증강현실 중 적어도 하나를 포함하는 기능으로 제어할 수 있다.
제어모듈 (150)의 포인팅 오브젝트 관리부 (151)는 입력모듈 (120) 또는 출력모듈 (130)에서 프리뷰 영상에 존재하는 포인팅 오브젝트의 움직임을 인식하기 위한 움직임 인식모드로의 진입신호가 수신되면 카메라모듈 (110)을 활성화하여 프리뷰 영상을 획득할 수 있다. 포인팅 오브젝트 관리부 (151)는 획득된 프리뷰 영상을 출력모듈 (130)에 출력하고, 저장모듈 (140)에 임시로 저장할 수 있다. 포인팅 오브젝트 관리부 (151)는 입력모듈 (120)로부터 포인팅 오브젝트를 설정하기 위한 설정신호가 수신되면 프리뷰 영상에서 포인팅 오브젝트를 설정할 수 있다.
일 실시 예에 따르면, 움직임 인식모드로의 진입신호가 수신되면, 제어모듈 (150)은 포인팅 오브젝트가 저장모듈 (140)에 기 저장된 상태인지 확인할 수 있다. 저장모듈 (140)에 적어도 하나의 포인팅 오브젝트가 저장된 상태이면 포인팅 오브젝트 관리부 (151)는 포인팅 오브젝트의 정보를 추출하여 출력모듈 (130)에 출력할 수 있다. 포인팅 오브젝트 관리부 (151)는 출력된 적어도 하나의 포인팅 오브젝트의 정보 중에서 어느 하나의 포인팅 오브젝트 정보에 대한 선택신호를 입력모듈 (120)로부터 수신할 수 있다. 포인팅 오브젝트는 실제 포인팅 오브젝트에 대한 영상데이터로 출력될 수 있다. 포인팅 오브젝트 관리부 (151)는 선택신호에 의거하여 포인팅 오브젝트를 설정할 수 있다.
일 실시 예에 따르면, 움직임 인식모드로의 진입신호가 수신되면, 제어모듈 (150)은 포인팅 오브젝트가 저장모듈 (140)에 기 저장된 상태인지 확인할 수 있다. 저장모듈 (140)에 적어도 하나의 포인팅 오브젝트가 저장된 상태가 아니면 포인팅 오브젝트 관리부 (151)는 포인팅 오브젝트를 프리뷰 영상에서 선택할 수 있다.
포인팅 오브젝트 관리부 (151)는 카메라모듈 (110)에 임계시간 동안 움직임이 발생되지 않으면, 실시간으로 획득되는 적어도 하나의 프리뷰 영상을 분석할 수 있다. 포인팅 오브젝트 관리부 (151)는 이전의 프리뷰 영상과 현재 프리뷰 영상을 비교할 수 있다. 포인팅 오브젝트 관리부 (151)는 임계시간 동안 프리뷰 영상에 존재하는 피사체가 동일하면, 포인팅 오브젝트 관리부 (151)는 프리뷰 영상에 존재하는 적어도 하나의 피사체의 경계선을 추출할 수 있다. 출력모듈 (130)에 출력된 프리뷰 화면에 상기 추출된 피사체의 경계선을 출력할 수 있다. 포인팅 오브젝트 관리부 (151)는 경계선이 표시된 프리뷰 화면을 캡쳐하여 출력할 수 있다. 포인팅 오브젝트 관리부 (151)는 상기 추출된 피사체 중 어느 하나의 피사체에 대한 선택신호를 입력모듈 (120) 또는 출력모듈 (130)로부터 수신하면, 선택신호에 대응되는 피사체를 포인팅 오브젝트로 설정할 수 있다.
포인팅 오브젝트 관리부 (151)는 카메라모듈 (110)에 임계시간 동안 움직임이 발생되지 않으면, 실시간으로 획득되는 적어도 하나의 프리뷰 영상을 분석할 수 있다. 포인팅 오브젝트 관리부 (151)는 이전의 프리뷰 영상과 현재 프리뷰 영상을 비교할 수 있다. 포인팅 오브젝트 관리부 (151)는 이전의 프리뷰 영상에 존재하지 않던 피사체가 현재 프리뷰 영상에서 확인되면 상기 확인된 피사체를 포인팅 오브젝트로 자동 추출하여 설정할 수 있다.
제어모듈 (150)은 프리뷰 영상에서 설정된 포인팅 오브젝트의 이동 및 동선 중 적어도 하나에 대한 움직임을 확인하여 확인된 움직임에 대응되도록 프리뷰 영상을 제어할 수 있다. 움직임 관리부 (152)는 포인팅 오브젝트의 현재 위치에 대한 가상의 x, y, z축 좌표 값을 설정할 수 있다. 예컨대, 움직임 관리부 (152)는 프리뷰 영상을 형성하는 복수의 픽셀을 기준으로 포인팅 오브젝트의 x, y축 좌표 값을 설정할 수 있다. z축 좌표 값은 움직임 관리부 (152)에서 임의로 설정할 수 있다. 움직임 관리부 (152)는 포인팅 오브젝트가 왼쪽 또는 오른쪽으로 이동되면 픽셀에서의 이동거리를 확인하여 가상의 x, y축 좌표 값을 변경할 수 있다. 움직임 관리부 (152)는 포인팅 오브젝트가 카메라모듈 (110)에 가깝게 이동되거나, 멀어지게 이동되면 상기 임의로 설정된 z축 좌표 값을 기준으로 변경할 수 있다.
일 실시 예에 따르면, 움직임 관리부 (152)에서 확인된 움직임에 대응되는 제어명령이 크롭핑(cropping)하기 위한 제어명령일 수 있다. 움직임 관리부 (152)는 포인팅 오브젝트가 프리뷰 영상에 대응되는 공간에서 크롭핑할 특정 영역을 선택함을 확인할 수 있다. 움직임 관리부 (152)는 프리뷰 영상을 확인하여 포인팅 오브젝트의 이동 및 동선 중 적어도 하나에 대한 좌표 값을 확인할 수 있다. 영상데이터 관리부 (153)는 상기 확인된 좌표 값에 대응되는 영역을 크롭핑하도록 프리뷰 영상을 제어할 수 있다. 영상데이터 관리부 (153)는 프리뷰 영상에서 크롭핑된 영역만을 출력모듈 (130)에 출력할 수 있다.
일 실시 예에 따르면, 움직임 관리부 (152)에서 확인된 움직임에 대응되는 제어명령이 오토 포커싱을 위한 제어명령일 수 있다. 움직임 관리부 (152)는 포인팅 오브젝트가 프리뷰 영상에서 대응되는 공간에서 오토 포커싱의 기준이 되는 위치를 선택함을 확인할 수 있다. 움직임 관리부 (152)는 프리뷰 영상을 확인하여 포인팅 오브젝트의 이동 및 동선 중 적어도 하나에 대한 좌표 값을 확인할 수 있다. 영상데이터 관리부 (153)는 상기 확인된 좌표 값에 대응되는 위치를 기준으로 오토 포커싱을 수행하도록 프리뷰 영상을 제어할 수 있다. 영상데이터 관리부 (153)는 제어된 프리뷰 영상을 출력모듈 (130)에 출력할 수 있다.
일 실시 예에 따르면, 움직임 관리부 (152)에서 확인된 움직임에 대응되는 제어명령이 특정 영역을 확대하기 위한 제어명령일 수 있다. 움직임 관리부 (152)는 포인팅 오브젝트가 프리뷰 영상에서 대응되는 공간에서 확대를 위한 기준이 되는 위치를 선택함을 확인할 수 있다. 움직임 관리부 (152)는 프리뷰 영상을 확인하여 포인팅 오브젝트의 이동 및 동선 중 적어도 하나에 대한 좌표 값을 확인할 수 있다. 영상데이터 관리부 (153)는 상기 확인된 좌표 값에 대응되는 위치를 기준으로 일정 영역의 영상데이터를 확대할 수 있다. 영상데이터 관리부 (153)는 확대된 일정 영역의 영상데이터를 프리뷰 영상에 추가하여 표시하도록 프리뷰 영상을 제어할 수 있다. 영상데이터 관리부 (153)는 제어된 프리뷰 영상을 출력모듈 (130)에 출력할 수 있다.
일 실시 예에 따르면, 움직임 관리부 (152)에서 확인된 움직임에 대응되는 제어명령이 특정 영역을 줌 인하되, 뎁스(depth)를 갖도록 하기 위한 제어명령일 수 있다. 움직임 관리부 (152)는 포인팅 오브젝트가 프리뷰 영상에서 대응되는 공간에서 줌 인 하기 위한 특정 영역을 선택함을 확인할 수 있고, 포인팅 오브젝트가 카메라모듈 (110) 방향으로 이동됨을 확인할 수 있다. 움직임 관리부 (152)는 프리뷰 영상을 확인하여 포인팅 오브젝트의 이동 및 동선 중 적어도 하나에 대한 좌표 값을 확인할 수 있다. 예컨대, 움직임 관리부 (152)는 선택된 특정 영역에 대응되는 좌표 값을 확인할 수 있고, 포인팅 오브젝트가 카메라모듈 (110) 방향으로 이동된 만큼의 가상 z축 좌표 값을 확인할 수 있다. 영상데이터 관리부 (153)는 프리뷰 영상에서 상기 확인된 좌표 값에 대응되는 특정 영역을 상기 확인된 가상 z축 좌표 값만큼 뎁스를 주어 줌 인 하도록 프리뷰 영상을 제어할 수 있다. 또한, 제어모듈 (150)은 포인팅 오브젝트가 카메라모듈 (110)에서 멀어지면 변화되는 가상 z축 좌표 값만큼 뎁스를 주어 줌 아웃 하도록 프리뷰 영상을 제어할 수 있다. 영상데이터 관리부 (153)는 제어된 프리뷰 영상을 출력모듈 (130)에 출력할 수 있다.
일 실시 예에 따르면, 움직임 관리부 (152)에서 확인된 움직임에 대응되는 제어명령이 특정 영역을 삭제하기 위한 제어명령일 수 있다. 움직임 관리부 (152)는 포인팅 오브젝트가 프리뷰 영상에 대응되는 공간에서 특정 피사체를 가리는 것을 확인할 수 있다. 움직임 관리부 (152)는 포인팅 오브젝트의 이동 및 동선 중 적어도 하나를 확인하여 프리뷰 영상에서 포인팅 오브젝트에 의해 가려진 특정 피사체의 위치에 대한 좌표 값을 확인할 수 있다. 영상데이터 관리부 (153)는 프리뷰 영상에서 상기 확인된 좌표 값에 대응되는 영역의 영상데이터를 제거하도록 프리뷰 영상을 제어할 수 있다. 영상데이터 관리부 (153)는 영상데이터가 제거된 영역을 주변 색과 유사한 색으로 보정 제어할 수 있다. 영상데이터 관리부 (153)는 영상데이터가 제거된 프리뷰 영상을 출력모듈 (130)에 출력할 수 있다.
일 실시 예에 따르면, 움직임 관리부 (152)에서 확인된 움직임에 대응되는 제어명령이 음식의 총 칼로리를 산출하기 위한 제어명령일 수 있다. 예컨대, 제어모듈 (150)은 프리뷰 영상에 음식과 관련된 영상데이터고, 포인팅 오브젝트 관리부 (151)에서 설정된 포인팅 오브젝트가 젓가락이면, 특정 움직임의 확인 없이 칼로리 산출 제어명령임을 확인할 수도 있다. 영상데이터 관리부 (153)는 포인팅 오브젝트에서 확인되는 음식물의 칼로리를 확인할 수 있다. 이를 위해, 저장모듈 (140)은 음식칼로리DB(미도시)를 더 포함할 수 있다. 제어모듈 (150)은 포인팅 오브젝트에서 확인된 음식물의 칼로리를 확인하여 사용자가 섭취한 총 칼로리를 산출할 수 있다. 이를 위해, 제어모듈 (150)은 칼로리산출부(미도시)를 더 포함할 수 있다. 영상데이터 관리부 (153)는 산출된 총 칼로리를 프리뷰 영상에 추가하도록 프리뷰 영상을 제어할 수 있다. 영상데이터 관리부 (153)는 제어된 프리뷰 영상을 출력모듈 (130)에 출력할 수 있다.
도 2는 본 개시의 일 실시 예에 따른 움직임을 이용해 영상데이터를 제어하는 방법을 나타낸 순서도이다.
도 1 및 도 2를 참조하면, 11동작에서 제어모듈 (150)은 입력모듈 (120)에서 프리뷰 영상에 존재하는 포인팅 오브젝트의 움직임을 인식하기 위한 움직임 인식모드로의 진입신호가 수신되는지 확인할 수 있다. 11동작에서 진입신호가 수신되면 제어모듈 (150)은 13동작을 수행하고, 진입신호가 수신되지 않으면 제어모듈 (150)은 39동작을 수행할 수 있다. 39동작에서 제어모듈 (150)은 대기화면(idle)을 출력모듈 (130)에 출력하거나, 수행 중이던 기능을 지속적으로 수행할 수 있다.
13동작에서 제어모듈 (150)은 카메라모듈 (110)을 활성화할 수 있다. 13동작에서 제어모듈 (150)은 활성화된 카메라모듈 (110)로부터 획득된 프리뷰 영상데이터(이하, 프리뷰 영상이라 함)를 출력모듈 (130)에 출력할 수 있다. 제어모듈 (150)은 프리뷰 영상을 저장모듈 (140)에 임시로 저장할 수 있다. 15동작에서 제어모듈 (150)은 입력모듈 (120)에서 포인팅 오브젝트를 설정하기 위한 설정신호가 수신되면, 17동작을 수행할 수 있고, 설정신호가 수신되지 않으면 35동작을 수행할 수 있다. 35동작에서 제어모듈 (150)은 프리뷰 영상을 출력모듈 (130)에 출력할 수 있다.
17동작에서 제어모듈 (150)은 저장모듈 (140)에 포인팅 오브젝트가 기 저장된 상태인지 확인할 수 있다. 확인결과, 저장모듈 (140)에 기 저장된 포인팅 오브젝트가 존재하면 제어모듈 (150)은 19동작을 수행할 수 있다. 저장모듈 (140)에 기 저장된 포인팅 오브젝트가 존재하지 않으면 제어모듈 (150)은 37동작을 수행할 수 있다.
19동작에서 제어모듈 (150)은 저장모듈 (140)에 기 저장된 포인팅 오브젝트를 추출하여 추출된 포인팅 오브젝트의 목록을 출력모듈 (130)에 출력할 수 있다. 제어모듈 (150)은 포인팅 오브젝트를 기 저장된 실제 포인팅 오브젝트에 대한 영상데이터로 출력할 수 있다. 21동작에서 제어모듈 (150)은 표시된 포인팅 오브젝트 목록 중 어느 하나의 포인팅 오브젝트에 대한 선택신호가 수신되면 23동작을 수행할 수 있고, 임계시간 동안 선택신호가 수신되지 않으면 37동작을 수행할 수 있다.
23동작에서 제어모듈 (150)은 프리뷰 영상을 분석할 수 있다. 25동작에서 제어모듈 (150)은 분석된 프리뷰 영상에서 21동작에서 선택된 포인팅 오브젝트와 임계치 이상 유사한 포인팅 오브젝트를 추출할 수 있다. 27동작에서 제어모듈 (150)은 추출된 포인팅 오브젝트를 추적할 수 있다. 제어모듈 (150)은 이전 프리뷰 영상과 현재 프리뷰 영상을 지속적으로 비교하여 추출된 포인팅 오브젝트의 위치 및 동선(이하, 움직임이라 함)을 추적할 수 있다.
29동작에서 제어모듈 (150)은 포인팅 오브젝트의 움직임이 확인되면 31동작을 수행할 수 있고, 움직임이 확인되지 않으면 35동작을 수행할 수 있다. 31동작에서 제어모듈 (150)은 확인된 움직임에 따른 제어명령을 저장모듈 (140)로부터 호출할 수 있다. 33동작에서 제어모듈 (150)은 호출된 제어명령을 프리뷰 영상에 적용하여 35동작을 수행할 수 있다. 제어모듈 (150)은 호출된 제어명령이 프리뷰 영상을 크롭핑(cropping), 확대, 축소, 부분확대, 부분축소, 부분제거, 아웃포커싱, 합성, 왜곡 및 증강현실을 포함하는 기능 중 적어도 어느 하나이면, 제어명령에 따른 기능을 수행하여 프리뷰 영상을 제어할 수 있다.
35동작에서 제어모듈 (150)은 33동작에서 제어가 완료된 프리뷰 영상을 출력모듈 (130)에 출력할 수 있다. 제어모듈 (150)은 입력모듈 (120)에서 최종 영상데이터 촬영신호가 수신되면, 출력모듈 (130)에 출력된 프리뷰 영상을 최종 영상데이터로 촬영하여 저장모듈 (140)에 저장할 수 있다.
17동작에서 포인팅 오브젝트가 기 저장된 상태가 아니거나, 21동작에서 임계시간 동안 포인팅 오브젝트에 대한 신호가 수신되지 않으면 37동작에서 제어모듈 (150)은 임계시간 동안 카메라모듈 (110)의 이동을 감지할 수 있다. 37동작에서 제어모듈 (150)은 임계시간 동안 카메라모듈 (110)의 이동이 감지되지 않으면, 23동작을 수행할 수 있다. 37동작에서 제어모듈 (150)은 임계시간 내에 카메라모듈 (110)의 이동이 감지되면 35동작을 수행할 수 있다.
일 실시 예에 따르면, 23동작에서 제어모듈 (150)은 프리뷰 영상을 분석하고 25동작에서 제어모듈 (150)은 프리뷰 영상에서 포인팅 오브젝트를 추출하여 27동작을 수행할 수 있다. 25동작에서 제어모듈 (150)은 임계시간 동안 획득되는 적어도 하나의 프리뷰 영상을 분석할 수 있다. 제어모듈 (150)은 적어도 하나의 프리뷰 영상에 존재하는 적어도 하나의 피사체가 동일하면, 상기 피사체에 대한 경계선을 추출할 수 있다. 제어모듈 (150)은 추출된 경계선을 출력모듈 (130)에 출력하고, 입력모듈 (120)에 의해 경계선 중 어느 하나의 피사체에 대한 경계선이 선택되면, 선택된 경계선에 해당하는 피사체를 포인팅 오브젝트로 설정할 수 있다.
일 실시 예에 따르면, 23동작에서 제어모듈 (150)은 프리뷰 영상을 분석하고 25동작에서 제어모듈 (150)은 프리뷰 영상에서 포인팅 오브젝트를 추출하여 27동작을 수행할 수 있다. 25동작에서 제어모듈 (150)은 임계시간 동안 획득되는 적어도 하나의 프리뷰 영상을 분석할 수 있다. 제어모듈 (150)은 이전의 프리뷰 영상과 현재 프리뷰 영상을 비교하여 특정 시점부터 프리뷰 영상에서 확인되는 피사체를 포인팅 오브젝트로 자동 추출하여 설정할 수 있다.
27동작에서 제어모듈 (150)은 상기와 같이 설정된 포인팅 오브젝트의 이동 및 동선 중 적어도 하나를 추적하여 29동작을 수행할 수 있다. 27동작부터는 상기에서 상세히 설명하였으므로 설명을 생략한다.
도 3은 본 개시의 일 실시 예에 따른 포인팅 오브젝트를 설정하는 방법을 설명하기 위한 화면 예시도이다.
도 1 및 도 3을 참조하면, 영상데이터 처리 전자장치 (100, 이하 전자장치 (100)라 함)의 카메라모듈 (110)을 활성화하면, 도 3(a)와 같이 전자장치 (100)의 출력모듈 (130)에는 특정 공간(BG)에 대한 프리뷰 영상이 출력될 수 있다. 도 3(a)와 같이 카메라모듈 (110)이 활성화되고, 입력모듈 (120) 또는 출력모듈 (130)을 통해 움직인 인식 모드로의 진입신호가 수신되면 출력모듈 (130)에는 도 3(b)와 같은 메시지가 출력될 수 있다. 도 3(b)에서 NO가 선택되면, 전자장치 (100)는 도 3(a)와 같은 화면을 지속적으로 출력할 수 있다.
도 3(b)에서 YES가 선택되고, 저장모듈 (140)에 포인팅 오브젝트가 기 저장된 상태이면 전자장치 (100)에는 도 3(c)와 같은 화면이 출력되고, 포인팅 오브젝트가 기 저장된 상태가 아니면 전자장치 (100)에는 도 3(d)와 같은 화면이 출력될 수 있다. 저장모듈 (140)에 포인팅 오브젝트가 기 저장된 상태면, 전자장치 (100)에는 도 3(c)와 같이 기 저장된 포인팅 오브젝트의 영상데이터가 표시될 수 있다. 도 3(c)에서 도면부호 311이 선택되면 포인팅 오브젝트는 도 3(f)에서와 같이 손가락으로 설정될 수 있다.
일 실시 예에 있어서, 도 3(d)에서 NO가 선택되면 전자장치 (100)는 도 3(a)와 같은 화면을 지속적으로 표시할 수 있고, YES가 선택되면 전자장치 (100)는 도 3(e)와 같은 메시지를 화면을 표시할 수 있다. 도 3(f)와 같은 화면이 임계시간 동안 프리뷰 영상으로 지속적으로 출력되면, 제어모듈 (150)은 프리뷰 영상에서 확인된 피사체의 경계선을 표시할 수 있다. 전자장치 (100)는 사용자로부터 피사체가 선택될 때까지 경계선이 표시된 프리뷰 영상을 정지상태로 임계시간 동안 출력할 수 있다. 전자장치 (100)는 도 3(f)와 같이 정지상태로 표시된 프리뷰 영상에서 손가락을 포인팅 오브젝트로 선택하면 전자장치 (100)는 도 3(g)와 같은 화면을 표시할 수 있다.
일 실시 예에 있어서, 도 3(d)에서 NO가 선택되면 전자장치 (100)는 도 3(a)와 같은 화면을 지속적으로 표시할 수 있고, YES가 선택되면 전자장치 (100)는 도 3(e)와 같은 화면을 표시할 수 있다. 전자장치 (100)는 임계시간 동안 획득된 프리뷰 영상을 분석하여 프리뷰 영상에 존재하는 피사체의 변화를 확인할 수 있다. 예컨대, 전자장치 (100)는 도 3(a)에서 획득된 이전 프리뷰 영상과, 도 3(f)에서 획득된 현재 프리뷰 영상을 비교할 수 있다. 비교결과, 도 3(f)의 손가락이 현재 프리뷰 영상에서 새롭게 확인된 것을 확인할 수 있고, 전자장치 (100)는 손가락을 포인팅 오브젝트로 추출할 수 있다. 제어모듈 (150)이 포인팅 오브젝트를 추출하면 도 3(g)와 같은 화면을 표시할 수 있다.
도 4는 본 개시의 일 실시 예에 따른 임의의 공간에서 발생된 움직임에 따라 영상데이터를 제어하여 특정 피사체만을 추출하는 방법을 설명하기 위한 화면 예시도이다.
도 1 및 도 4를 참조하면, 도 4에서와 같이 사용자가 포인팅 오브젝트(PO)로 설정된 손가락으로 특정 공간(BG)에서 도면부호 401과 같이 원을 그리면 영상데이터 처리 전자장치 (100, 이하 전자장치 (100)라 함)는 도면부호 401에 해당하는 영역을 추출하여 전자장치 (100)의 출력모듈 (130)에 표시할 수 있다. 예컨대, 특정 공간(BG)에서 포인팅 오브젝트(PO)를 이용해 원을 그리는 동작이 원에 대응되는 영역을 크롭핑(cropping)하기 위한 제어명령으로 설정된 상태일 수 있다. 전자장치 (100)는 출력모듈 (130)에 표시되고 있는 프리뷰 영상에 대응되는 공간에서 원을 그리는 포인팅 오브젝트(PO)의 동작이 감지되면, 원에 해당하는 영역을 추출하여 도 4에서와 같이 전자장치 (100)의 출력모듈 (130)에 표시할 수 있다. 전자장치 (100)는 사용자로부터 출력모듈 (130)에 표시된 영역에 대한 프리뷰 영상을 획득하고자 하는 신호가 입력되면, 출력모듈 (130)에 표시된 프리뷰 영상을 최종 영상데이터로 저장할 수 있다.
도 5는 본 개시의 일 실시 예에 따른 임의의 공간에서 발생된 움직임에 따라 영상데이터를 제어하여 오토 포커싱하는 방법을 설명하기 위한 화면 예시도이다.
도 1 및 도 5를 참조하면, 도 5에서와 같이 사용자가 포인팅 오브젝트(PO)로 설정된 손가락으로 특정 공간(BG)에서 임의의 위치를 태핑(tapping)하면 영상데이터 처리 전자장치 (100, 이하 전자장치 (100)라 함)는 태핑된 위치를 기준으로 출력모듈 (130)에 표시된 프리뷰 영상을 제어하여 프리뷰 영상에 오토 포커싱 효과를 적용할 수 있다. 전자장치 (100)는 사용자로부터 출력모듈 (130)에 표시된 아웃 포커싱 효과로 제어된 프리뷰 영상을 획득하고자 하는 신호가 입력되면, 출력모듈 (130)에 표시된 프리뷰 영상을 최종 영상데이터로 저장할 수 있다.
도 6은 본 개시의 일 실시 예에 따른 임의의 공간에서 발생된 움직임에 따라 영상데이터를 제어하여 특정 피사체를 확대하는 방법을 설명하기 위한 화면 예시도이다.
도 1 및 도 6을 참조하면, 도 6에서와 같이 사용자가 포인팅 오브젝트(PO)로 설정된 손가락을 특정 공간(BG)에서 임의의 위치에 임계시간 이상 고정시키면 영상데이터 처리 전자장치 (100, 이하 전자장치 (100)라 함)는 상기 위치에 해당하는 피사체를 도면부호 601과 같이 확대할 수 있다. 전자장치 (100)는 확대된 피사체를 프리뷰 영상에 추가하는 것으로 프리뷰 영상을 제어할 수 있다. 전자장치 (100)는 사용자로부터 출력모듈 (130)에 표시된 확대 영상데이터가 표시된 프리뷰 영상을 획득하고자 하는 신호가 입력되면, 출력모듈 (130)에 표시된 프리뷰 영상을 최종 영상데이터로 저장할 수 있다.
도 7은 본 개시의 일 실시 예에 따른 임의의 공간에서 발생된 움직임에 따라 영상데이터를 제어하여 특정 피사체의 줌 인/줌 아웃을 수행하는 방법을 설명하기 위한 화면 예시도이다.
도 1 및 도 7을 참조하면, 도 7(a)에서와 같이 사용자가 포인팅 오브젝트(PO)로 설정된 손가락으로 특정 공간(BG)에서 도면부호 701과 같이 임의의 영역을 선택하여 손가락을 A에서 B 방향으로 이동시킬 수 있다. 영상데이터 처리 전자장치 (100, 이하 전자장치 (100)라 함)는 A에서 B방향 이동 시 변경된 가상의 z축 좌표 값을 산출할 수 있다. 전자장치 (100)는 포인팅 오브젝트(PO)가 가리키는 위치(도면부호 A)에 대한 가상의 좌표 값을 설정할 수 있다. 전자장치 (100)는 포인팅 오브젝트(PO)가 A에서 B방향으로 이동되면, A를 기준으로 B에 대한 가상의 좌표 값을 확인할 수 있다. 전자장치 (100)는 A에서 B의 좌표 값의 차이를 산출할 수 있다.
전자장치 (100)는 도 7(b)와 같이 선택된 임의의 영역(도면부호 701)에 해당하는 영상데이터를 A에서 B로 변화된 좌표 값의 차이만큼의 뎁스(depth)를 주어 줌 인 하는 것으로 프리뷰 영상을 제어하여 출력모듈 (130)에 출력할 수 있다.
반대로, 도 7(a)에서와 같이 사용자가 포인팅 오브젝트(PO)로 설정된 손가락으로 특정 공간(BG)에서 도면부호 701과 같이 임의의 영역을 선택하여 손가락을 B에서 A 방향으로 이동시킬 수 있다. 전자장치 (100)는 B에서 A방향 이동 시 변경된 가상의 z축 좌표 값을 산출할 수 있다. 전자장치 (100)는 포인팅 오브젝트(PO)가 가리키는 위치(도면부호 B)에 대한 가상의 좌표 값을 설정할 수 있다. 전자장치 (100)는 포인팅 오브젝트(PO)가 B에서 A방향으로 이동되면, B를 기준으로 A에 대한 가상의 좌표 값을 확인할 수 있다. 전자장치 (100)는 B에서 A의 좌표 값의 차이를 산출할 수 있다.
전자장치 (100)는 도 7(c)와 같이 선택된 임의의 영역(도면부호 701)에 해당하는 영상데이터를 B에서 A로 변화된 좌표 값의 차이만큼의 뎁스(depth)를 주어 줌 아웃 하는 것으로 프리뷰 영상을 제어하여 출력모듈 (130)에 출력할 수 있다.
도 8은 본 개시의 일 실시 예에 따른 임의의 공간에서 발생된 움직임에 따라 영상데이터를 제어하여 특정 피사체를 제거하는 방법을 설명하기 위한 화면 예시도이다.
도 1 및 도 8을 참조하면, 도 8에서와 같이 사용자가 설정된 포인팅 오브젝트(PO)로 특정 공간(BG)에서 임의의 영역을 임계시간 이상 가리면 영상데이터 처리 전자장치 (100, 이하 전자장치 (100)라 함)는 상기 위치에 해당하는 피사체를 삭제하도록 프리뷰 영상을 제어하여 표시할 수 있다. 전자장치 (100)는 사용자로부터 출력모듈 (130)에 표시된 피사체가 삭제된 프리뷰 영상을 획득하고자 하는 신호가 입력되면, 출력모듈 (130)에 표시된 프리뷰 영상을 최종 영상데이터로 저장할 수 있다. 전자장치 (100)는 삭제된 피사체에 해당하는 픽셀을 주변 픽셀의 색과 유사한 색으로 채워 프리뷰 영상을 출력할 수 있다.
도 9는 본 개시의 일 실시 예에 따른 임의의 공간에 위치하는 의복에 대한 영상데이터로 기 저장된 영상데이터를 제어하는 방법을 설명하기 위한 화면 예시도이다.
도 1 및 도 9를 참조하면, 도 9에서와 같이 사용자가 영상데이터 처리 전자장치 (100, 이하 전자장치 (100)라 함)의 출력모듈 (130)에 도면부호 901과 같이 사용자 혹은 타인의 전신에 대한 제1 영상데이터 (901)를 호출하여 출력할 수 있다. 제1 영상데이터(901)는 복수 개의 스테레오 카메라로 구성된 카메라 모듈 (120)에서 획득된 영상데이터로 3D 영상데이터일 수 있으며, 전신의 수치를 확인할 수 있다. 전자장치 (100)는 사용자로부터 카메라모듈 (120)을 구동시키기 위한 신호가 입력되면, 복수 개의 스테레오 카메라를 구동시킬 수 있다.
전자장치 (100)는 특정 공간(BG)에서 포인팅 전자장치(PO)가 임의의 피사체 (도면부호 902)를 선택하면, 피사체 (902)에 대한 제2 영상데이터(903)를 획득할 수 있다. 전자장치 (100)는 스테레오 카메라로 형성된 카메라모듈 (120)로부터 획득된 피사체 (902)의 제2 영상데이터 (903)로부터 피사체 (902)의 실측 치수를 확인할 수 있다. 제2 영상데이터(903)는 복수 개의 스테레오 카메라로 구성된 카메라 모듈 (120)에서 획득된 영상데이터로 3D 영상데이터일 수 있다. 전자장치 (100)는 출력모듈 (130)에 출력된 제1 영상데이터 (901)에 제2 영상데이터 (903)을 합성할 수 있다. 전자장치 (100)는 제1 영상데이터 (901)와 제2 영상데이터 (903)를 합성하고, 합성결과에 따른 메시지를 도면부호 904와 같이 표시할 수 있다.
전자장치 (100)는 제1 영상데이터 (901)에 따른 전신의 수치를 확인할 수 있고, 제2 영상데이터 (903)에 따른 옷의 실측 수치를 확인할 수 있으므로, 제1 영상데이터 (901)에 제2 영상데이터 (903)을 합성할 수 있다. 사용자는 전신에 옷이 입혀진 듯한 효과를 갖는 최종 영상데이터를 확인할 수 있고, 신체의 어느 부분에 옷이 맞는지 맞지 않는지, 옷이 어울리는지 어울리지 않는지를 옷의 구매 전에 확인할 수 있다. 특히, 전자장치 (100)는 옷의 팔 길이가 신체의 팔 길이에 맞지 않을 경우, 소매기장이 짧음을 알리는 메시지를 도면부호 904와 같이 표시해줄 수 있다. 이로 인해, 사용자는 옷을 직접 입어보지 않고서도 옷의 구매여부를 결정할 수 있다. 전자장치 (100)는 통신을 통해 확인된 옷의 실측 수치, 최종 영상데이터 등을 외부장치로 전송할 수 있다.
도 10는 본 개시의 일 실시 예에 따른 영상데이터를 제어하여 영상데이터에 포함된 음식의 칼로리를 표시하는 방법을 설명하기 위한 화면 예시도이다.
도 1 및 도 10를 참조하면, 도 10에서와 같이 사용자가 젓가락을 포인팅 오브젝트(PO)로 설정한 상태에서 영상데이터 처리 전자장치(100, 이하 전자장치 (100)라 함)의 카메라모듈 (120)에서 획득된 음식에 대한 프리뷰 영상이 출력될 수 있다. 전자장치 (100)는 하나의 카메라 또는 어레이 카메라로 형성된 카메라모듈 (120)로부터 프리뷰 영상을 획득할 수 있다. 전자장치 (100)는 포인팅 오브젝트(PO)의 위치를 보다 정확하게 확인하기 위해 어레이 카메라로 카메라모듈 (120)을 형성할 수 있다. 어레이 카메라는 전자장치 (100)에서 카메라가 실장될 수 있는 어떠한 곳에도 실장될 수 있다.
전자장치 (100)는 출력된 프리뷰 영상을 분석하여 음식의 종류를 확인할 수 있다. 전자장치 (100)는 포인팅 오브젝트(PO)에 음식이 위치하면, 위치된 음식의 종류와 양을 확인할 수 있다. 전자장치 (100)는 기 저장된 음식 칼로리 테이블을 이용하여 확인된 음식의 종류와 양에 따라 사용자가 섭취한 총 칼로리를 산출할 수 있다. 산출된 총 칼로리는 프리뷰 영상에 추가되어 표시될 수 있다. 전자장치 (100)는 사용자로부터 출력모듈 (130)에 표시된 섭취한 총 칼로리가 표시된 프리뷰 영상을 획득하고자 하는 신호가 입력되면, 출력모듈 (130)에 표시된 프리뷰 영상을 최종 영상데이터로 저장할 수 있다.
도 11은 본 개시의 일 실시 예에 따른 복수개의 포인팅 오브젝트를 이용하여 영상데이터를 제어하는 방법을 설명하기 위한 화면예시도이다.
도 1 및 도 11을 참조하면, 도 11에서와 같이 사용자가 오른손의 손가락 다섯 개와 왼손의 손가락 다섯 개를 모두 포인팅 오브젝트(PO)로 설정한 상태에서 영상데이터 처리 전자장치 (100, 이하 전자장치 (100)라 함)의 카메라모듈 (120)에서 손가락의 동작에 대한 영상데이터를 획득할 수 있다. 전자장치 (100)는 도 11의 도면부호 K와 같이 가상의 키보드를 카메라모듈 (120)에서 획득되는 공간(BG)에 출력할 수 있다. 이를 위해, 전자장치 (100)는 빔 프로젝터 등을 구비할 수 있다. 전자장치 (100)는 하나의 카메라 또는 어레이 카메라로 형성된 카메라모듈 (120)로부터 프리뷰 영상을 획득할 수 있다. 전자장치 (100)는 포인팅 오브젝트(PO)의 위치를 보다 정확하게 확인하기 위해 어레이 카메라로 카메라모듈 (120)을 형성할 수 있다. 어레이 카메라는 전자장치 (100)에서 카메라가 실장될 수 있는 어떠한 곳에도 실장될 수 있다.
전자장치 (100)는 카메라모듈 (120)에서 획득된 프리뷰 영상을 실시간으로 분석하여 포인팅 오브젝트의 움직임을 확인할 수 있다. 전자장치 (100)는 포인팅 오브젝트의 움직임에 의해 입력이 발생되는 키보드의 자판을 확인하여, 입력된 자판에 대응되는 문자 또는 입력된 자판에 대응되는 기능을 수행할 수 있다. 전자장치 (100)는 문자 또는 기능을 전자장치 (100)의 출력모듈 (130)에 영상데이터로 표시할 수 있고, 전자장치 (100)와 통신으로 연결된 타 전자장치에 전송할 수 있다. 전자장치 (100)는 사용자로부터 출력모듈 (130)에 표시된 문자 또는 수행되는 기능에 대한 영상데이터를 획득하고자 하는 신호가 입력되면, 출력모듈 (130)에 표시된 영상데이터를 최종 영상데이터로 저장할 수 있다. 전자장치 (100)는 타 전자장치로 전송되는 문자 또는 수행되는 기능에 대한 영상데이터를 획득하고자 하는 신호가 입력되면, 타 전자장치로 전송되는 영상데이터를 최종 영상데이터 저장할 수 있다.
도 12는 다양한 일 실시 예들에 따른 전자장치를 도시한 블록도이다.
도 12를 참조하면, 본 개시에 따른 전자장치 (1200)는 예를 들면, 도 1에 도시된 영상데이터 처리 전자장치 (100)의 전체 또는 일부를 구성할 수 있다. 전자장치 (1200)는 하나 이상의 어플리케이션 프로세서 (1210, AP: application processor), 통신 모듈 (1220), SIM(subscriber identification module) 카드 (1224), 메모리 (1230), 센서 모듈 (1240), 입력 장치 (1250), 디스플레이 (1260), 인터페이스 (1270), 오디오 모듈 (1280), 카메라 모듈 (1291), 전력관리 모듈 (1295), 배터리 (1296), 인디케이터 (1297) 및 모터 (1298)를 포함할 수 있다.
AP (1210)는 운영체제 또는 응용 프로그램을 구동하여 AP (1210)에 연결된 다수의 하드웨어 또는 소프트웨어 구성요소들을 제어할 수 있고, 멀티미디어 데이터를 포함한 각종 데이터 처리 및 연산을 수행할 수 있다. AP (1210)는, 예를 들면, SoC(system on chip) 로 구현될 수 있다. 한 실시 예에 따르면, AP (1210)는 GPU(graphic processing unit, 미도시)를 더 포함할 수 있다.
통신 모듈 (1220)은 전자장치 (1200)(예: 전자장치 100)와 네트워크를 통해 연결된 다른 전자장치들 간의 통신에서 데이터 송수신을 수행할 수 있다. 한 실시 예에 따르면, 통신 모듈 (1220)은 셀룰러 모듈 (1221), Wifi 모듈 (1223), BT 모듈 (1225), GPS 모듈 (1227), NFC 모듈 (1228) 및 RF(radio frequency) 모듈 (1229)를 포함할 수 있다.
셀룰러 모듈 (1221)은 통신망(예: LTE, LTE-A, CDMA, WCDMA, UMTS, WiBro 또는 GSM 등)을 통해서 음성 통화, 영상 통화, 문자 서비스 또는 인터넷 서비스 등을 제공할 수 있다. 또한, 셀룰러 모듈 (1221)은, 예를 들면, 가입자 식별 모듈(예: SIM 카드 (1224))을 이용하여 통신 네트워크 내에서 전자장치의 구별 및 인증을 수행할 수 있다. 한 실시 예에 따르면, 셀룰러 모듈 (1221)은 AP (1210)가 제공할 수 있는 기능 중 적어도 일부 기능을 수행할 수 있다. 예를 들면, 셀룰러 모듈 (1221)은 멀티 미디어 제어 기능의 적어도 일부를 수행할 수 있다.
한 실시 예에 따르면, 셀룰러 모듈 (1221)은 커뮤니케이션 프로세서(CP: communication processor)를 포함할 수 있다. 또한, 셀룰러 모듈 (1221)은, 예를 들면, SoC로 구현될 수 있다. 도 12에서는 셀룰러 모듈 (1221)(예: 커뮤니케이션 프로세서), 메모리 (1230) 또는 전력관리 모듈 (1295) 등의 구성요소들이 AP (1210)와 별개의 구성요소로 도시되어 있으나, 한 실시 예에 따르면, AP (1210)가 전술한 구성요소들의 적어도 일부(예: 셀룰러 모듈 (1221))를 포함하도록 구현될 수 있다.
한 실시 예에 따르면, AP (1210) 또는 셀룰러 모듈 (1221)(예: 커뮤니케이션 프로세서)은 각각에 연결된 비휘발성 메모리 또는 다른 구성요소 중 적어도 하나로부터 수신한 명령 또는 데이터를 휘발성 메모리에 로드(load)하여 처리할 수 있다. 또한, AP (1210) 또는 셀룰러 모듈 (1221)은 다른 구성요소 중 적어도 하나로부터 수신하거나 다른 구성요소 중 적어도 하나에 의해 생성된 데이터를 비휘발성 메모리에 저장(store)할 수 있다.
Wifi 모듈 (1223), BT 모듈 (1225), GPS 모듈 (1227) 또는 NFC 모듈 (1228) 각각은, 예를 들면, 해당하는 모듈을 통해서 송수신되는 데이터를 처리하기 위한 프로세서를 포함할 수 있다. 도 12에서는 셀룰러 모듈 (1221), Wifi 모듈 (1223), BT 모듈 (1225), GPS 모듈 (1227) 또는 NFC 모듈 (1228)이 각각 별개의 블록으로 도시되었으나, 한 실시 예에 따르면, 셀룰러 모듈 (1221), Wifi 모듈 (1223), BT 모듈 (1225), GPS 모듈 (1227) 또는 NFC 모듈 (1228) 중 적어도 일부(예: 두 개 이상)는 하나의 integrated chip(IC) 또는 IC 패키지 내에 포함될 수 있다. 예를 들면, 셀룰러 모듈 (1221), Wifi 모듈 (1223), BT 모듈 (1225), GPS 모듈 (1227) 또는 NFC 모듈 (1228) 각각에 대응하는 프로세서들 중 적어도 일부(예: 셀룰러 모듈 (1221)에 대응하는 커뮤니케이션 프로세서 및 Wifi 모듈 (1223)에 대응하는 Wifi 프로세서)는 하나의 SoC로 구현될 수 있다.
RF 모듈 (1229)는 데이터의 송수신, 예를 들면, RF 신호의 송수신을 할 수 있다. RF 모듈 (1229)는, 도시되지는 않았으나, 예를 들면, 트랜시버(transceiver), PAM(power amp module), 주파수 필터(frequency filter) 또는 LNA(low noise amplifier) 등을 포함할 수 있다. 또한, RF 모듈 (1229)는 무선 통신에서 자유 공간상의 전자파를 송수신하기 위한 부품, 예를 들면, 도체 또는 도선 등을 더 포함할 수 있다. 도 8에서는 셀룰러 모듈 (1221), Wifi 모듈 (1223), BT 모듈 (1225), GPS 모듈 (1227) 및 NFC 모듈 (1228)이 하나의 RF 모듈 (1229)을 서로 공유하는 것으로 도시되어 있으나, 한 실시 예에 따르면, 셀룰러 모듈 (1221), Wifi 모듈 (1223), BT 모듈 (1225), GPS 모듈 (1227) 또는 NFC 모듈 (1228) 중 적어도 하나는 별개의 RF 모듈을 통하여 RF 신호의 송수신을 수행할 수 있다.
SIM 카드 (1224)는 가입자 식별 모듈을 포함하는 카드일 수 있으며, 전자장치의 특정 위치에 형성된 슬롯에 삽입될 수 있다. SIM 카드 (1224)는 고유한 식별 정보(예: ICCID(integrated circuit card identifier)) 또는 가입자 정보(예: IMSI(international mobile subscriber identity))를 포함할 수 있다.
메모리 (1230)(예: 저장모듈 (140))는 내장 메모리 (1232) 또는 외장 메모리 (1234)를 포함할 수 있다. 내장 메모리 (1232)는, 예를 들면, 휘발성 메모리(예를 들면, DRAM(dynamic RAM), SRAM(static RAM), SDRAM(synchronous dynamic RAM) 등) 또는 비휘발성 메모리(non-volatile Memory, 예를 들면, OTPROM(one time programmable ROM), PROM(programmable ROM), EPROM(erasable and programmable ROM), EEPROM(electrically erasable and programmable ROM), mask ROM, flash ROM, NAND flash memory, NOR flash memory 등) 중 적어도 하나를 포함할 수 있다.
한 실시 예에 따르면, 내장 메모리 (1232)는 Solid State Drive (SSD)일 수 있다. 외장 메모리 (1234)는 flash drive, 예를 들면, CF(compact flash), SD(secure digital), Micro-SD(micro secure digital), Mini-SD(mini secure digital), xD(extreme digital) 또는 Memory Stick 등을 더 포함할 수 있다. 외장 메모리 (1234)는 다양한 인터페이스를 통하여 전자장치 (1200)과 기능적으로 연결될 수 있다. 한 실시 예에 따르면, 전자장치 (1200)는 하드 드라이브와 같은 저장 장치(또는 저장 매체)를 더 포함할 수 있다.
센서 모듈 (1240)은 물리량을 계측하거나 전자장치 (1200)의 작동 상태를 감지하여, 계측 또는 감지된 정보를 전기 신호로 변환할 수 있다. 센서 모듈 (1240)은, 예를 들면, 제스처 센서 (1240A), 자이로 센서 (1240B), 기압 센서 (1240C), 마그네틱 센서 (1240D), 가속도 센서 (1240E), 그립 센서 (1240F), 근접 센서 (1240G), color 센서 (1240H(예: RGB(red, green, blue) 센서), 생체 센서 (1240I), 온/습도 센서 (1240J), 조도 센서 (1240K) 또는 UV(ultra violet) 센서 (1240M) 중의 적어도 하나를 포함할 수 있다. 추가적으로 또는 대체적으로, 센서 모듈 (1240)은, 예를 들면, 후각 센서(E-nose sensor, 미도시), EMG 센서(electromyography sensor, 미도시), EEG 센서(electroencephalogram sensor, 미도시), ECG 센서(electrocardiogram sensor, 미도시), IR(infra red) 센서(미도시), 홍채 센서(미도시) 또는 지문 센서(미도시) 등을 포함할 수 있다. 센서 모듈 (1240)은 그 안에 속한 적어도 하나 이상의 센서들을 제어하기 위한 제어 회로를 더 포함할 수 있다.
입력 장치 (1250)은 터치 패널(touch panel) (1252), (디지털) 펜 센서(pen sensor) (1254), 키(key) (1256) 또는 초음파(ultrasonic) 입력 장치 (1258)를 포함할 수 있다. 터치 패널 (1252)(예: 출력모듈 (130))은, 예를 들면, 정전식, 감압식, 적외선 방식 또는 초음파 방식 중 적어도 하나의 방식으로 터치 입력을 인식할 수 있다. 또한, 터치 패널 (1252)은 제어 회로를 더 포함할 수도 있다. 정전식의 경우, 물리적 접촉 또는 근접 인식이 가능하다. 터치 패널 (1252)은 택타일 레이어(tactile layer)를 더 포함할 수도 있다. 이 경우, 터치 패널 (1252)은 사용자에게 촉각 반응을 제공할 수 있다.
(디지털) 펜 센서 (1254)는, 예를 들면, 사용자의 터치 입력을 받는 것과 동일 또는 유사한 방법 또는 별도의 인식용 쉬트(sheet)를 이용하여 구현될 수 있다. 키 (1256)(예: 입력모듈 (120)는, 예를 들면, 물리적인 버튼, 광학식 키 또는 키패드를 포함할 수 있다. 초음파(ultrasonic) 입력 장치 (1258)는 초음파 신호를 발생하는 입력 도구를 통해, 전자장치 (1200)에서 마이크로 음파를 감지하여 데이터를 확인할 수 있는 장치로서, 무선 인식이 가능하다. 한 실시 예에 따르면, 전자장치 (1200)는 통신 모듈 (1220)를 이용하여 이와 연결된 외부 장치(예: 컴퓨터 또는 서버)로부터 사용자 입력을 수신할 수도 있다.
디스플레이 (1260)은 패널 (1262), 홀로그램 장치 (1264) 또는 프로젝터 (1266)을 포함할 수 있다. 패널 (1262)은, 예를 들면, LCD(liquid-crystal display) 또는 AM-OLED(active-matrix organic light-emitting diode) 등일 수 있다. 패널 (1262)은, 예를 들면, 유연하게(flexible), 투명하게(transparent) 또는 착용할 수 있게(wearable) 구현될 수 있다. 패널 (1262)은 터치 패널 (1252)과 하나의 모듈로 구성될 수도 있다. 홀로그램 장치 (1264)은 빛의 간섭을 이용하여 입체 영상을 허공에 보여줄 수 있다. 프로젝터 (1266)는 스크린에 빛을 투사하여 영상을 표시할 수 있다. 스크린은, 예를 들면, 전자장치 (1200)의 내부 또는 외부에 위치할 수 있다. 한 실시 예에 따르면, 디스플레이 (1260)은 패널 (1262), 홀로그램 장치 (1264), 또는 프로젝터 (1266)를 제어하기 위한 제어 회로를 더 포함할 수 있다.
인터페이스 (1270)는, 예를 들면, HDMI(high-definition multimedia interface) (1272), USB(universal serial bus) (1274), 광 인터페이스(optical interface) (1276) 또는 D-sub(D-subminiature) (1278)를 포함할 수 있다. 추가적으로 또는 대체적으로, 인터페이스 (1270)는, 예를 들면, MHL(mobile high-definition link) 인터페이스, SD(secure Digital) 카드/MMC(multi-media card) 인터페이스 또는 IrDA(infrared data association) 규격 인터페이스를 포함할 수 있다.
오디오 모듈 (1280)은 소리(sound)와 전기신호를 쌍방향으로 변환시킬 수 있다. 오디오 모듈 (1280)은, 예를 들면, 스피커 (1282), 리시버 (1284), 이어폰 (1286) 또는 마이크 (1288) 등을 통해 입력 또는 출력되는 소리 정보를 처리할 수 있다.
카메라 모듈 (1291)(예: 카메라모듈 (110))은 정지 영상 및 동영상을 촬영할 수 있는 장치로서, 한 실시 예에 따르면, 하나 이상의 이미지 센서(예: 전면 센서 또는 후면 센서), 렌즈(미도시), ISP(image signal processor, 미도시) 또는 플래쉬 (flash, 미도시)(예: LED 또는 xenon lamp)를 포함할 수 있다.
전력 관리 모듈 (1295)은 전자장치 (1200)의 전력을 관리할 수 있다. 도시하지는 않았으나, 전력 관리 모듈 (1295)은, 예를 들면, PMIC(power management integrated circuit), 충전 IC(charger integrated circuit) 또는 배터리 또는 연료 게이지(battery or fuel gauge)를 포함할 수 있다.
PMIC는, 예를 들면, 집적회로 또는 SoC 반도체 내에 탑재될 수 있다. 충전 방식은 유선과 무선으로 구분될 수 있다. 충전 IC는 배터리를 충전시킬 수 있으며, 충전기로부터의 과전압 또는 과전류 유입을 방지할 수 있다. 한 실시 예에 따르면, 충전 IC는 유선 충전 방식 또는 무선 충전 방식 중 적어도 하나를 위한 충전 IC를 포함할 수 있다. 무선 충전 방식으로는, 예를 들면, 자기공명 방식, 자기유도 방식 또는 전자기파 방식 등이 있으며, 무선 충전을 위한 부가적인 회로, 예를 들면, 코일 루프, 공진 회로 또는 정류기 등의 회로가 추가될 수 있다.
배터리 게이지는, 예를 들면, 배터리 (1296)의 잔량, 충전 중 전압, 전류 또는 온도를 측정할 수 있다. 배터리 (1296)는 전기를 저장 또는 생성할 수 있고, 그 저장 또는 생성된 전기를 이용하여 전자장치 (1200)에 전원을 공급할 수 있다. 배터리 (1296)는, 예를 들면, 충전식 전지(rechargeable battery) 또는 태양 전지(solar battery)를 포함할 수 있다.
인디케이터 (1297)는 전자장치 (1200) 혹은 그 일부(예: AP (1210))의 특정 상태, 예를 들면, 부팅 상태, 메시지 상태 또는 충전 상태 등을 표시할 수 있다. 모터 (1298)는 전기적 신호를 기계적 진동으로 변환할 수 있다. 도시되지는 않았으나, 전자장치 (1200)는 모바일 TV 지원을 위한 처리 장치(예: GPU)를 포함할 수 있다. 모바일 TV지원을 위한 처리 장치는, 예를 들면, DMB(digital multimedia broadcasting), DVB(digital video broadcasting) 또는 미디어플로우(media flow) 등의 규격에 따른 미디어 데이터를 처리할 수 있다.
본 개시에 따른 전자장치의 전술한 구성요소들 각각은 하나 또는 그 이상의 부품(component)으로 구성될 수 있으며, 해당 구성 요소의 명칭은 전자장치의 종류에 따라서 달라질 수 있다. 본 개시에 따른 전자장치는 전술한 구성요소 중 적어도 하나를 포함하여 구성될 수 있으며, 일부 구성요소가 생략되거나 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 또한, 본 개시에 따른 전자장치의 구성 요소들 중 일부가 결합되어 하나의 개체(entity)로 구성됨으로써, 결합되기 이전의 해당 구성 요소들의 기능을 동일하게 수행할 수 있다.
본 개시에 사용된 용어 “모듈”은, 예를 들어, 하드웨어, 소프트웨어 또는 펌웨어(firmware) 중 하나 또는 둘 이상의 조합을 포함하는 단위(unit)를 의미할 수 있다. “모듈”은 예를 들어, 유닛(unit), 로직(logic), 논리 블록(logical block), 부품(component) 또는 회로(circuit) 등의 용어와 바꾸어 사용(interchangeably use)될 수 있다. “모듈”은, 일체로 구성된 부품의 최소 단위 또는 그 일부가 될 수 있다. “모듈”은 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수도 있다. “모듈”은 기계적으로 또는 전자적으로 구현될 수 있다. 예를 들면, 본 개시에 따른 “모듈”은, 알려졌거나 앞으로 개발될, 어떤 동작들을 수행하는 ASIC(application-specific integrated circuit) 칩, FPGAs(field-programmable gate arrays) 또는 프로그램 가능 논리 장치(programmable-logic device) 중 적어도 하나를 포함할 수 있다.
다양한 실시 예에 따르면, 본 개시에 따른 장치(예: 모듈들 또는 그 기능들) 또는 방법(예: 동작들)의 적어도 일부는, 예컨대, 프로그래밍 모듈의 형태로 컴퓨터로 읽을 수 있는 저장매체(computer-readable storage media)에 저장된 명령어로 구현될 수 있다. 명령어는, 하나 이상의 프로세서에 의해 실행될 경우, 하나 이상의 프로세서가 명령어에 해당하는 기능을 수행할 수 있다. 컴퓨터로 읽을 수 있는 저장매체는, 예를 들면, 메모리가 될 수 있다. 프로그래밍 모듈의 적어도 일부는, 예를 들면, 프로세서에 의해 구현(implement)(예: 실행)될 수 있다. 프로그래밍 모듈 의 적어도 일부는 하나 이상의 기능을 수행하기 위한, 예를 들면, 모듈, 프로그램, 루틴, 명령어 세트 (sets of instructions) 또는 프로세스 등을 포함할 수 있다.
컴퓨터로 판독 가능한 기록 매체에는 하드디스크, 플로피디스크 및 자기 테이프와 같은 마그네틱 매체(Magnetic Media)와, CD-ROM(Compact Disc Read Only Memory), DVD(Digital Versatile Disc)와 같은 광기록 매체(Optical Media)와, 플롭티컬 디스크(Floptical Disk)와 같은 자기-광 매체(Magneto-Optical Media)와, 그리고 ROM(Read Only Memory), RAM(Random Access Memory), 플래시 메모리 등과 같은 프로그램 명령(예: 프로그래밍 모듈)을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함될 수 있다. 또한, 프로그램 명령에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 상술한 하드웨어 장치는 본 개시의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지다.
본 개시에 따른 모듈 또는 프로그래밍 모듈은 전술한 구성요소들 중 적어도 하나 이상을 포함하거나, 일부가 생략되거나, 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 본 개시에 따른 모듈, 프로그래밍 모듈 또는 다른 구성요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱(heuristic)한 방법으로 실행될 수 있다. 또한, 일부 동작은 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.
그리고 본 명세서와 도면에 개시된 본 개시의 실시 예들은 본 개시의 기술 내용을 쉽게 설명하고 본 개시의 이해를 돕기 위해 특정 예를 제시한 것일 뿐이며, 본 개시의 범위를 한정하고자 하는 것은 아니다. 따라서 본 개시의 범위는 여기에 개시된 실시 예들 이외에도 본 개시의 기술적 사상을 바탕으로 도출되는 모든 변경 또는 변형된 형태가 본 개시의 범위에 포함되는 것으로 해석되어야 한다.
100: 영상데이터 처리 전자장치 110: 카메라모듈
120: 입력모듈 130: 출력모듈
140: 저장모듈 141: 영상데이터DB
142: 포인팅 오브젝트 정보 143: 움직임 정보
150: 제어모듈 151: 포인팅 오브젝트 관리부
152: 움직임 관리부 153: 영상데이터 관리부

Claims (18)

  1. 영상데이터를 획득하는 카메라모듈;
    상기 영상데이터에서 적어도 하나의 포인팅 오브젝트의 위치에 대응되는 피사체에 대한 영상데이터를 상기 적어도 하나의 포인팅 오브젝트의 위치 및 움직임 중 적어도 하나에 따라 제어하는 제어모듈;
    을 포함하는 영상데이터 처리 전자장치.
  2. 제1항에 있어서,
    상기 제어모듈은
    상기 영상데이터에서 상기 적어도 하나의 포인팅 오브젝트를 설정하는 영상데이터 처리 전자장치.
  3. 제2항에 있어서,
    상기 제어모듈은
    기 저장된 적어도 하나의 포인팅 오브젝트에서 상기 적어도 하나의 포인팅 오브젝트를 설정하는 영상데이터 처리 전자장치.
  4. 제2항에 있어서,
    상기 제어모듈은
    임계 시간 동안 상기 카메라모듈에 움직임이 발생되지 않으면, 실시간으로 획득되는 상기 영상데이터를 분석하여 상기 적어도 하나의 포인팅 오브젝트를 추출하는 영상데이터 처리 전자장치.
  5. 제2항에 있어서,
    상기 영상데이터에서 적어도 하나의 피사체를 선택하는 입력모듈;
    을 더 포함하고,
    상기 제어모듈은
    임계 시간 동안 상기 카메라모듈에 움직임이 발생되지 않으면, 상기 선택된 적어도 하나의 피사체를 상기 적어도 하나의 포인팅 오브젝트를 설정하는 영상데이터 처리 전자장치.
  6. 제2항에 있어서,
    상기 제어모듈은
    상기 영상데이터를 획득하고자 하는 공간에서 상기 적어도 하나의 포인팅 오브젝트의 위치 및 동선 중 적어도 하나의 변화가 감지되면, 상기 변화에 대응하여 크롭핑(cropping), 확대, 축소, 부분확대, 부분축소, 부분제거, 아웃포커싱, 합성, 왜곡 및 증강현실 중 적어도 하나를 포함하는 기능으로 상기 영상데이터를 제어하는 영상데이터 처리 전자장치.
  7. 제2항에 있어서,
    상기 제어모듈은
    상기 영상데이터를 획득하고자 하는 공간에서 상기 적어도 하나의 포인팅 오브젝트의 좌표 값을 설정하는 영상데이터 처리 전자장치.
  8. 제7항에 있어서,
    상기 제어모듈은
    상기 공간에서 상기 적어도 하나의 포인팅 오브젝트가 상기 카메라모듈에 가깝게 또는 멀어지게 이동하면, 상기 이동에 따른 좌표 값의 변화에 따라 상기 적어도 하나의 포인팅 오브젝트가 포인팅한 영역에 해당하는 영상데이터를 줌 인 또는 줌 아웃으로 제어하는 영상데이터 처리 전자장치.
  9. 제2항에 있어서,
    상기 제어모듈은
    상기 영상데이터에서 음식이 확인되면, 상기 적어도 하나의 포인팅 오브젝트가 포인팅하는 음식의 칼로리를 확인하여 총 칼로리 섭취량을 산출하는 영상데이터 처리 전자장치.
  10. 영상데이터를 획득하는 동작;
    상기 영상데이터에서 적어도 하나의 포인팅 오브젝트의 위치에 대응되는 피사체를 추출하는 동작;
    상기 적어도 하나의 포인팅 오브젝트의 위치 및 움직임 중 적어도 하나를 확인하는 동작;
    상기 확인결과에 따라 상기 추출된 피사체에 해당하는 영상데이터를 제어하여 출력하는 동작;
    을 포함하는 영상데이터 처리 방법.
  11. 제10항에 있어서,
    상기 획득된 영상데이터에서 적어도 하나의 포인팅 오브젝트를 설정하는 동작;
    을 더 포함하는 영상데이터 처리 방법.
  12. 제11항에 있어서,
    상기 적어도 하나의 포인팅 오브젝트를 설정하는 동작은
    기 저장된 적어도 하나의 포인팅 오브젝트에서 상기 적어도 하나의 포인팅 오브젝트를 설정하는 동작인 영상데이터 처리 방법.
  13. 제11항에 있어서,
    상기 적어도 하나의 포인팅 오브젝트를 설정하는 동작은
    상기 영상데이터에 임계시간 동안 움직임이 발생되지 않으면, 실시간으로 획득되는 상기 영상데이터의 분석을 통해 적어도 하나의 포인팅 오브젝트를 추출하여 설정하는 동작인 영상데이터 처리 방법.
  14. 제11항에 있어서,
    상기 적어도 하나의 포인팅 오브젝트를 설정하는 동작은
    상기 영상데이터에 포함된 적어도 하나의 피사체 중 어느 하나의 피사체에 대한 선택신호를 수신하는 동작;
    을 더 포함하고,
    상기 선택신호에 대응되는 피사체를 상기 적어도 하나의 포인팅 오브젝트로 설정하는 동작인 영상데이터 처리 방법.
  15. 제11항에 있어서,
    상기 영상데이터를 제어하여 출력하는 동작은
    상기 영상데이터를 획득하고자 하는 공간에서 상기 적어도 하나의 포인팅 오브젝트의 위치 및 동선 중 적어도 하나의 변화가 감지되면 상기 변화에 대응하여 크롭핑(cropping), 확대, 축소, 부분확대, 부분축소, 부분제거, 아웃포커싱, 합성, 왜곡 및 증강현실 중 적어도 하나의 기능으로 상기 영상데이터를 제어하는 동작인 영상데이터 처리 방법.
  16. 제11항에 있어서,
    상기 적어도 하나의 포인팅 오브젝트를 설정하는 동작은
    상기 영상데이터를 획득하고자 하는 공간에서 상기 적어도 하나의 포인팅 오브젝트의 좌표 값을 설정하는 동작;
    을 더 포함하는 영상데이터 처리 방법.
  17. 제15항에 있어서,
    상기 영상데이터를 제어하는 동작은
    상기 공간에서 상기 적어도 하나의 포인팅 오브젝트가 상기 영상데이터를 획득하는 카메라모듈에 가깝게 또는 멀어지게 이동하면, 상기 이동에 다른 좌표 값의 변화에 따라 상기 적어도 하나의 포인팅 오브젝트가 포인팅한 영역에 해당하는 영상데이터를 줌 인 또는 줌 아웃으로 제어하여 출력하는 동작인 영상데이터 처리 방법.
  18. 제11항에 있어서,
    상기 영상데이터를 제어하여 출력하는 동작은
    상기 영상데이터에서 음식이 확인되면, 상기 적어도 하나의 포인팅 오브젝트가 포인팅하는 음식의 칼로리를 확인하여 총 칼로리 섭취량을 산출하여 표시하도록 상기 영상데이터를 제어하여 출력하는 동작인 영상데이터 처리 방법.
KR1020140033797A 2014-03-24 2014-03-24 영상데이터 처리 전자장치 및 방법 KR20150110032A (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020140033797A KR20150110032A (ko) 2014-03-24 2014-03-24 영상데이터 처리 전자장치 및 방법
US14/323,930 US9560272B2 (en) 2014-03-24 2014-07-03 Electronic device and method for image data processing
EP14178202.9A EP2927781A1 (en) 2014-03-24 2014-07-23 Electronic device and method for image data processing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140033797A KR20150110032A (ko) 2014-03-24 2014-03-24 영상데이터 처리 전자장치 및 방법

Publications (1)

Publication Number Publication Date
KR20150110032A true KR20150110032A (ko) 2015-10-02

Family

ID=51453562

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140033797A KR20150110032A (ko) 2014-03-24 2014-03-24 영상데이터 처리 전자장치 및 방법

Country Status (3)

Country Link
US (1) US9560272B2 (ko)
EP (1) EP2927781A1 (ko)
KR (1) KR20150110032A (ko)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9821893B2 (en) * 2014-10-06 2017-11-21 Pelagic Pressure Systems Corp. System and methods for configurable dive masks with multiple interfaces
JP6650595B2 (ja) * 2015-09-24 2020-02-19 パナソニックIpマネジメント株式会社 機器制御装置、機器制御方法、機器制御プログラムおよび記録媒体
US10484547B2 (en) * 2016-11-01 2019-11-19 Disney Enterprises, Inc. Systems and methods of distributing image effects for user experiences
CN109033913A (zh) * 2018-07-25 2018-12-18 维沃移动通信有限公司 一种识别码的识别方法及移动终端
JP7171406B2 (ja) * 2018-12-12 2022-11-15 キヤノン株式会社 電子機器及びその制御方法
US11815687B2 (en) * 2022-03-02 2023-11-14 Google Llc Controlling head-mounted device with gestures into wearable device

Family Cites Families (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH086708A (ja) * 1994-04-22 1996-01-12 Canon Inc 表示装置
DE19708240C2 (de) * 1997-02-28 1999-10-14 Siemens Ag Anordnung und Verfahren zur Detektion eines Objekts in einem von Wellen im nichtsichtbaren Spektralbereich angestrahlten Bereich
KR19990011180A (ko) * 1997-07-22 1999-02-18 구자홍 화상인식을 이용한 메뉴 선택 방법
US7015950B1 (en) * 1999-05-11 2006-03-21 Pryor Timothy R Picture taking method and apparatus
JP3640156B2 (ja) * 2000-02-22 2005-04-20 セイコーエプソン株式会社 指示位置検出システムおよび方法、プレゼンテーションシステム並びに情報記憶媒体
JP3842515B2 (ja) * 2000-03-24 2006-11-08 セイコーエプソン株式会社 多重解像度画像解析による指示位置検出
JP3725460B2 (ja) * 2000-10-06 2005-12-14 株式会社ソニー・コンピュータエンタテインメント 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
JP4298407B2 (ja) * 2002-09-30 2009-07-22 キヤノン株式会社 映像合成装置及び映像合成方法
JP4035610B2 (ja) * 2002-12-18 2008-01-23 独立行政法人産業技術総合研究所 インタフェース装置
JP4281954B2 (ja) * 2002-12-27 2009-06-17 カシオ計算機株式会社 カメラ装置
JP2004078977A (ja) 2003-09-19 2004-03-11 Matsushita Electric Ind Co Ltd インターフェイス装置
GB2407635B (en) 2003-10-31 2006-07-12 Hewlett Packard Development Co Improvements in and relating to camera control
JP2005252732A (ja) * 2004-03-04 2005-09-15 Olympus Corp 撮像装置
US7893920B2 (en) 2004-05-06 2011-02-22 Alpine Electronics, Inc. Operation input device and method of operation input
JP4575829B2 (ja) 2005-03-30 2010-11-04 財団法人エヌエイチケイエンジニアリングサービス 表示画面上位置解析装置及び表示画面上位置解析プログラム
JP2007087100A (ja) * 2005-09-22 2007-04-05 Victor Co Of Japan Ltd 電子機器システム
JP4853320B2 (ja) * 2007-02-15 2012-01-11 ソニー株式会社 画像処理装置、画像処理方法
JP4569613B2 (ja) * 2007-09-19 2010-10-27 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム
JP4938617B2 (ja) * 2007-10-18 2012-05-23 幸輝郎 村井 オブジェクト操作装置、及び、デジタル画像フレームデータからマーカを特定する方法
JP4670860B2 (ja) * 2007-11-22 2011-04-13 ソニー株式会社 記録再生装置
KR20090063679A (ko) * 2007-12-14 2009-06-18 삼성전자주식회사 포인팅 기능을 구비한 영상표시장치 및 그 방법
KR101079598B1 (ko) * 2007-12-18 2011-11-03 삼성전자주식회사 디스플레이장치 및 그 제어방법
JP4530067B2 (ja) * 2008-03-27 2010-08-25 ソニー株式会社 撮像装置、撮像方法及びプログラム
KR101284797B1 (ko) 2008-10-29 2013-07-10 한국전자통신연구원 착용형 컴퓨팅 환경 기반의 사용자 인터페이스 장치 및 그 방법
KR101709935B1 (ko) * 2009-06-23 2017-02-24 삼성전자주식회사 영상촬영장치 및 그 제어방법
US20110199387A1 (en) 2009-11-24 2011-08-18 John David Newton Activating Features on an Imaging Device Based on Manipulations
JP5394296B2 (ja) * 2010-03-25 2014-01-22 富士フイルム株式会社 撮像装置及び画像処理方法
JP5802667B2 (ja) * 2010-07-20 2015-10-28 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America ジェスチャ入力装置およびジェスチャ入力方法
JP5499985B2 (ja) * 2010-08-09 2014-05-21 ソニー株式会社 表示装置組立体
JP5299529B2 (ja) * 2011-03-29 2013-09-25 株式会社ニコン 撮像装置
JP5709228B2 (ja) * 2011-04-28 2015-04-30 Necソリューションイノベータ株式会社 情報処理装置、情報処理方法及びプログラム
US8203502B1 (en) * 2011-05-25 2012-06-19 Google Inc. Wearable heads-up display with integrated finger-tracking input sensor
CN103583036A (zh) * 2011-05-30 2014-02-12 索尼爱立信移动通讯有限公司 改进的摄像机单元
US20130002724A1 (en) * 2011-06-30 2013-01-03 Google Inc. Wearable computer with curved display and navigation tool
US8558759B1 (en) 2011-07-08 2013-10-15 Google Inc. Hand gestures to signify what is important
US8912979B1 (en) * 2011-07-14 2014-12-16 Google Inc. Virtual window in head-mounted display
KR101832959B1 (ko) * 2011-08-10 2018-02-28 엘지전자 주식회사 휴대 전자기기 및 이의 제어방법
CN103890695B (zh) * 2011-08-11 2017-10-13 视力移动技术有限公司 基于手势的接口系统和方法
US20130044912A1 (en) 2011-08-19 2013-02-21 Qualcomm Incorporated Use of association of an object detected in an image to obtain information to display to a user
US20130050069A1 (en) * 2011-08-23 2013-02-28 Sony Corporation, A Japanese Corporation Method and system for use in providing three dimensional user interface
JP2014531662A (ja) * 2011-09-19 2014-11-27 アイサイト モバイル テクノロジーズ リミテッド 拡張現実システムのためのタッチフリーインターフェース
US8961371B2 (en) * 2011-10-07 2015-02-24 Sultan Ventures LLC Systems and methods for enabling exercise equipment to communicate with a network
US8761922B2 (en) * 2011-10-10 2014-06-24 Jonathan P Dekar Method and apparatus for monitoring food consumption by an individual
US9110502B2 (en) * 2011-12-16 2015-08-18 Ryan Fink Motion sensing display apparatuses
US9116666B2 (en) 2012-06-01 2015-08-25 Microsoft Technology Licensing, Llc Gesture based region identification for holograms
US9697418B2 (en) * 2012-07-09 2017-07-04 Qualcomm Incorporated Unsupervised movement detection and gesture recognition
KR101973464B1 (ko) * 2012-12-07 2019-04-29 엘지전자 주식회사 이동단말기 및 그 제어방법
US10133342B2 (en) 2013-02-14 2018-11-20 Qualcomm Incorporated Human-body-gesture-based region and volume selection for HMD
US9509913B2 (en) * 2013-06-18 2016-11-29 Olympus Corporation Image pickup apparatus, method of controlling image pickup apparatus, image pickup apparatus system, and image pickup control program stored in storage medium of image pickup apparatus
JP5927147B2 (ja) * 2013-07-12 2016-05-25 東芝テック株式会社 商品認識装置及び商品認識プログラム
KR102157313B1 (ko) 2013-09-03 2020-10-23 삼성전자주식회사 촬영된 영상을 이용하여 객체를 인식하는 방법 및 컴퓨터 판독 가능한 기록 매체
US20150323999A1 (en) * 2014-05-12 2015-11-12 Shimane Prefectural Government Information input device and information input method
JP6341755B2 (ja) * 2014-05-26 2018-06-13 キヤノン株式会社 情報処理装置、方法及びプログラム並びに記録媒体

Also Published As

Publication number Publication date
US9560272B2 (en) 2017-01-31
EP2927781A1 (en) 2015-10-07
US20150271396A1 (en) 2015-09-24

Similar Documents

Publication Publication Date Title
US11350033B2 (en) Method for controlling camera and electronic device therefor
CN105554369B (zh) 用于处理图像的电子设备和方法
KR102220443B1 (ko) 깊이 정보를 활용하는 전자 장치 및 방법
KR102031874B1 (ko) 구도 정보를 이용하는 전자 장치 및 이를 이용하는 촬영 방법
US20200302108A1 (en) Method and apparatus for content management
US20150222880A1 (en) Apparatus and method for capturing image in electronic device
US20150296317A1 (en) Electronic device and recording method thereof
KR20150106719A (ko) 전자 장치의 촬영 위치 안내 방법 및 이를 이용한 전자 장치
KR20150077646A (ko) 이미지 처리 장치 및 방법
KR20160052309A (ko) 전자 장치 및 전자 장치에서 얼굴 정보를 분석하는 방법
KR20150142282A (ko) 기능 제어 방법 및 그 전자 장치
KR20150110032A (ko) 영상데이터 처리 전자장치 및 방법
KR20150099353A (ko) 이미지 초점 표시 방법 및 상기 방법이 적용되는 전자장치
KR20150099017A (ko) 이미지를 처리하기 위한 전자 장치 및 방법
KR20160055337A (ko) 텍스트 표시 방법 및 그 전자 장치
KR20150135837A (ko) 디스플레이 운용 전자장치 및 방법
KR20150099650A (ko) 생체 정보디스플레이 방법 및 장치
KR20150137504A (ko) 영상처리 방법 및 이를 구현한 전자 장치
KR20150141426A (ko) 전자 장치 및 전자 장치에서의 이미지 처리 방법
KR20150113572A (ko) 영상데이터를 획득하는 전자장치 및 방법
KR102246645B1 (ko) 영상 획득을 위한 장치 및 방법
KR20160054896A (ko) 절전 모드를 가지는 전자 장치 및 그 제어 방법
US9958285B2 (en) Method of acquiring image and electronic device thereof
KR20150115403A (ko) 인식 영역에 기반하여 콘텐트를 검출하는 전자 장치 및 방법
KR20150117020A (ko) 소모전류를 이용한 영상데이터 출력 제어장치 및 방법

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid