KR20140097876A - 영상 촬영 제어 방법 및 장치 - Google Patents

영상 촬영 제어 방법 및 장치 Download PDF

Info

Publication number
KR20140097876A
KR20140097876A KR1020130010549A KR20130010549A KR20140097876A KR 20140097876 A KR20140097876 A KR 20140097876A KR 1020130010549 A KR1020130010549 A KR 1020130010549A KR 20130010549 A KR20130010549 A KR 20130010549A KR 20140097876 A KR20140097876 A KR 20140097876A
Authority
KR
South Korea
Prior art keywords
recognition
camera
motion
image
photographing
Prior art date
Application number
KR1020130010549A
Other languages
English (en)
Inventor
김일환
이신준
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020130010549A priority Critical patent/KR20140097876A/ko
Publication of KR20140097876A publication Critical patent/KR20140097876A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/0202Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
    • H04M1/026Details of the structure or mounting of specific components
    • H04M1/0264Details of the structure or mounting of specific components for a camera module assembly

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)

Abstract

휴대용 장치에 장착된 복수의 카메라를 동시에 구동하고, 하나의 카메라는 촬영 카메라로 셋팅하고, 나머지 카메라는 인식용 카메라로 셋팅한 후, 인식용 카메라를 통해 촬영된 인식 영상에서 검출된 제어 모션에 따라 촬영 카메라의 촬영 동작을 제어함에 따라, 사용자가 카메라의 촬영 제어를 편리하게 할 수 있다. 그리고 영상 촬영을 위해 사용자가 휴대용 장치를 직접 터치하는 버튼 입력 또는 터치 입력을 하지 않고, 모션 인식을 통해 휴대용 장치의 촬영을 제어함에 따라, 흔들림 없는 영상을 획득할 수 있다.

Description

영상 촬영 제어 방법 및 장치{CONTROLLING METHOD AND APPARATUS FOR PHOTOGRAPHING IMAGE}
본 발명은 디지털 영상 촬영에 관한 것으로, 특히, 영상 촬영시 사용자 조작을 용이하게 하기 위한 촬영 제어 방법 및 장치에 관한 것이다.
디지털 카메라의 소형화로 인해, 다양한 휴대용 장치가 디지털 카메라를 구비하게 되었다. 예를 들어, 스마트폰, 휴대폰, 노트북 컴퓨터, 올인원(All-in-one) PC, 태블릿(Tablet) PC, PMP(Portable Multimedia Player)와 같은 휴대용 장치들이 디지털 카메라를 구비하고 있다.
일반적으로 디지털 카메라는 촬영모드에서 촬영동작에 의하여 얻어진 이미지 파일을 기록매체에 저장하고, 이 기록매체에 저장되어 있는 이미지 파일을 플레이백 모드에서 재생하여 이미지를 표시 장치에 디스플레이한다. 물론 촬영모드에서도 촬영동작에 의하여 얻어진 이미지 파일을 재생하기도 한다.
상세히, 종래의 디지털 카메라의 촬영 과정을 살펴보면, 먼저 촬영할 피사체가 표시 장치에 프리뷰(preview)되고 있는 동안, 셔터 릴리스 버튼이 눌러지면, 상기 피사체의 상은 소정의 과정을 거쳐 일정 형식의 화상 신호로 기록된다. 그리고 상기 기록된 화상 신호는 일정 시간 동안 디스플레이부에 디스플레이된 후(Quick View), 기록매체에 저장되고, 이후 다음 촬영이 수행가능하게 된다.
그리고 스마트 폰이나, 휴대폰, 태블릿 PC와 같은 휴대용 장치의 경우, 사용자는 뷰 파인더를 통해 피사체를 확인하는 것이 아니라, 휴대용 장치에 구비된 표시 장치의 프리뷰 영상을 확인하면서 영상을 촬영하게 된다. 또한 터치스크린을 구비한 휴대용 장치의 경우, 사용자는 터치스크린에 디스플레이되는 촬영 제어 인터페이스를 통해 영상 촬영을 제어한다.
그런데 사용자가 영상을 촬영하다 보면, 셔터 버튼을 누르는 순간 사용자가 예상치 않은 상황이 발생하여, 사용자가 원하는 영상을 촬영하지 못하는 경우가 종종 발생한다. 예를 들어, 셔터 버튼을 누르는 순간 사용자에게 갑자기 손떨림이 발생하는 경우가 있다. 또한 휴대용 장치의 크기가 소형화되고, 그 무게가 가벼워짐에 따라 사용자가 셔터를 누르는 순간 휴대용 장치가 흔들리는 경우가 있다.
더욱이, 터치스크린을 구비한 휴대용 장치를 이용해 촬영을 하는 경우, 사용자가 터치스크린에 디스플레이되는 촬영 제어 인터페이스를 터치하여 촬영에 필요한 여러 제어 옵션을 조정하게 된다. 예를 들어, 사용자는 줌 인, 줌 아웃, 촬영 셔터, 포커싱 위치 등의 제어 옵션을 조정할 수 있다. 그런데, 휴대용 장치의 터치스크린에 디스플레이되는 촬영 제어 인터페이스는 그 크기가 작을 수밖에 없기 때문에, 촬영 제어가 불편하다.
상기한 문제점을 해결하기 위해, 본 발명은 사용자가 촬영 옵션 조작을 편리하게 할 수 있는 방법 및 장치를 제공한다.
그리고 본 발명은 흔들림이 적은 영상을 촬영할 수 있는 방법 및 장치를 제공한다.
한편, 본 발명은 복수의 디지털 카메라를 장착한 휴대용 장치에서 영상 촬영을 제어하는 방법에 있어서, 제1카메라를 촬영 카메라로 구동하는 과정과, 제2카메라를 인식용 카메라로 구동하는 과정과, 상기 인식용 카메라를 통해 생성된 인식 영상에서 촬영 제어 모션을 검출하는 과정과, 상기 촬영 제어 모션에 대응하여 상기 촬영 카메라의 촬영 동작을 제어하는 과정을 포함한다.
그리고 본 발명은 휴대용 장치에서 있어서, 제1디지털 카메라와, 제2디지털 카메라와, 상기 제1디지털 카메라에 의해 생성된 영상을 처리하는 제1이미지 처리 모듈과, 상기 제2디지털 카메라에 의해 생성된 영상을 처리하는 제2이미지 처리 모듈과, 상기 제1카메라를 촬영 카메라로 구동하고, 상기 제2카메라를 인식용 카메라로 구동하고, 상기 인식용 카메라를 통해 생성된 인식 영상에서 촬영 제어 모션을 검출하고, 상기 촬영 제어 모션에 대응하여 상기 촬영 카메라의 촬영 동작을 제어하는 제어부를 포함한다.
본 발명은 사용자가 촬영 옵션 조작을 편리하게 할 수 있는 촬영 제어 방법 및 장치를 제공한다. 그리고 본 발명은 흔들림이 적은 영상을 촬영할 수 있는 촬영 제어 방법 및 장치를 제공한다.
도1은 본 발명의 일 실시예에 따른 휴대용 장치의 구성을 나타낸 도면,
도2는 본 발명의 일 실시예에 따른 휴대용 장치의 정면 사시도,
도3은 본 발명의 일 실시예에 따른 휴대용 장치의 후면 사시도,
도4 내지 도6은 본 발명의 실시예에 따른 휴대용 장치의 동작 과정을 나타낸 도면,
도7 내지 도11은 본 발명의 실시예에 따른 촬영 제어 모션의 예들을 나타낸 도면,
도 12는 본 발명의 실시예에 따른 인식 영상 및 인식 영상에서 오브젝트를 나타내는 도면,
도13 내지 도15는 본 발명의 실시예에 따른 인식 오브제트의 예를 나타낸 도면,
도 16은 본 발명의 실시예에 따른 촬상되는 위치의 개념을 나타내는 예시도이다.
도 17은 본 발명의 실시예에 따른 움직임 정보 생성 과정을 나타내는 도면,
도 18은 본 발명의 실시예에 따른 동일한 오브젝트의 움직임에 대한 깊이가 다른 위치들에서의 비전 인식 영상상 오브젝트의 움직임들을 나타내는 도면,
도 19는 본 발명의 실시예에 따른 오브젝트의 움직임에 대한 보정된 움직임의 크기를 나타내는 도면,
도 20은 본 발명의 다른 실시예에 따른 움직임 정보 생성 과정을 나타낸 도면,
도 21은 본 발명의 일실시예에 따른 오브젝트의 위치 및/또는 오브젝트의 움직임을 나타내는 도면,
도 22는 본 발명의 일실시예에 따른 서로 다른 임계 값을 갖는 영역들을 포함하는 인식 영상을 나타내는 도면.
이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 일실시예를 상세히 설명한다. 도면에서 동일한 구성요소들에 대해서는 비록 다른 도면에 표시되더라도 가능한 한 동일한 참조번호 및 부호로 나타내고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어서, 관련된 공지기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명은 생략한다.
본 발명은 복수의 디지털 카메라를 구비하는 장치에 있어서, 어느 하나의 카메라는 촬영 카메라로 셋팅하고, 다른 하나의 카메라는 비전(vision) 인식용 카메라로 셋팅하고, 두 개의 카메라를 동시에 구동한다. 그리고 비전 인식용 카메라를 통해 인식된 사용자 모션에 대응하여, 장치는 촬영 카메라 촬영 동작 또는 장치의 동작을 제어한다.
본 발명의 일 실시예에 따라, 전면 및 후면에 각각 하나의 디지털 카메라를 장 휴대용 장치가 어느 한 면에 장착된 카메라는 촬영 카메라로 셋팅하고, 나머지 한 면에 장착된 카메라는 비전(vision) 인식용 카메라로 셋팅하고, 비전 인식용 카메라를 통해 인식된 사용자 모션에 대응하여, 휴대용 장치는 촬영 카메라 촬영 동작을 제어할 수 있다.
이에 따라 사용자는 촬영 옵션 조작을 편리하게 할 수 있고, 흔들림이 적은 영상을 획득할 수 있다.
이하의 설명에서는 전면 및 후면 각각에 한 개의 디지털 카메라를 장착한 휴대용 장치를 예를 들어 설명하지만, 어느 위치라도 두 개 이상의 디지털 카메라를 구비한 휴대용 장치에 본 발명을 적용할 수 있다. 또는 휴대용 장치가 아닌 각종 디지털 장치에도 본 발명이 적용될 수 있다.
이러한 본 발명의 일 실시예가 적용되는 휴대용 장치의 일예를 도1에 도시하였다. 휴대용 장치(100)는 예를 들어, 휴대폰, 스마트폰, 태블릿PC, 디지털 카메라 등이 될 수 있다. 도1을 참조하면, 휴대용 장치(이하 '장치'라고도 칭함)(100)는 이동통신 모듈(120), 서브통신 모듈(130) 및 커넥터(165)를 이용하여 외부장치(도시되지 아니함)와 연결될 수 있다. "외부장치"는 다른 장치(도시되지 아니함), 휴대폰(도시되지 아니함), 스마트폰(도시되지 아니함), 태블릿PC(도시되지 아니함) 및 서버(도시되지 아니함)를 포함한다.
도1을 참조하면, 장치(100)는 터치패널(190), 터치패널 컨트롤러(195), 표시 패널(210), 디스플레이 컨트롤러(215)를 포함한다. 또한, 장치(100)는 제어부(110), 이동통신 모듈(120), 서브통신 모듈(130), 멀티미디어 모듈(140), GPS모듈(155), 입/출력 모듈(160), 센서 모듈(170), 저장부(175), 전원공급부(180), 제1이미지 처리모듈(220), 제2이미지 처리모듈(225), 제1카메라 (230), 제2카메라(235)를 포함한다.
상기한 각종 모듈은 제어부(110)에 의해 실행되는 소프트웨어 모듈로 구현될 수도 있고, 각 모듈에 대응하는 하드웨어 장치로 구현될 수도 있다.
서브통신 모듈(130)은 무선랜 모듈(131) 및 근거리통신 모듈(132) 중 적어도 하나를 포함하고, 멀티미디어 모듈(140)은 방송통신 모듈(141), 오디오재생 모듈(142) 및 동영상재생 모듈(143) 중 적어도 하나를 포함한다. 입/출력 모듈(160)은 버튼(161), 마이크(162), 스피커(163), 진동모터(164), 커넥터(165), 및 키패드(166) 중 적어도 하나를 포함한다.
제어부(110)는 CPU, 장치(100)의 제어를 위한 제어프로그램이 저장된 롬 및 장치(100)의 외부로부터 입력되는 신호 또는 데이터를 기억하거나, 장치(100)에서 수행되는 작업을 위한 기억영역으로 사용되는 램(RAM)을 포함할 수 있다. CPU는 싱글 코어, 듀얼 코어, 트리플 코어, 또는 쿼드 코어를 포함할 수 있다. CPU, 롬 및 램은 내부버스(bus)를 통해 상호 연결될 수 있다.
제어부(110)는 이동통신 모듈(120), 서브통신 모듈(130), 멀티미디어 모듈(140), GPS 모듈(155), 입/출력 모듈(160), 센서 모듈(170), 전원공급부(180), 저장부(175), 디스플레이 컨트롤러(215), 표시 패널(210), 터치패널(190) 및 터치패널 컨트롤러(195)를 제어할 수 있다.
이동통신 모듈(120)은 제어부(110)의 제어에 따라 적어도 하나-하나 또는 복수-의 안테나(도시되지 아니함)를 이용하여 이동 통신을 통해 장치(100)가 외부 장치와 연결되도록 한다. 이동통신 모듈(120)은 장치(100)에 입력되는 전화번호를 가지는 휴대폰(도시되지 아니함), 스마트폰(도시되지 아니함), 태블릿PC 또는 다른 장치(도시되지 아니함)와 음성 통화, 화상 통화, 문자메시지(SMS) 또는 멀티미디어 메시지(MMS)를 위한 무선 신호를 송/수신한다.
서브통신 모듈(130)은 무선랜 모듈(131)과 근거리통신 모듈(132) 중 적어도 하나를 포함할 수 있다. 예를 들어, 무선랜 모듈(131)만 포함하거나, 근거리통신 모듈(132)만 포함하거나 또는 무선랜 모듈(131)과 근거리통신 모듈(132)을 모두 포함할 수 있다.
무선랜 모듈(131)은 제어부(110)의 제어에 따라 무선AP(access point)(도시되지 아니함)가 설치된 장소에서 인터넷에 연결될 수 있다. 무선랜 모듈(131)은 미국전기전자학회(IEEE)의 무선랜 규격(IEEE802.11x)을 지원한다. 근거리통신 모듈(132)은 제어부(110)의 제어에 따라 장치(100)와 화상형성장치(도시되지 아니함) 사이에 무선으로 근거리 통신을 할 수 있다. 근거리 통신방식은 블루투스(bluetooth), 적외선 통신(IrDA, infrared data association) 등이 포함될 수 있다.
장치(100)는 성능에 따라 이동통신 모듈(120), 무선랜 모듈(131), 및 근거리통신 모듈(132) 중 적어도 하나를 포함할 수 있다. 예를 들어, 장치(100)는 성능에 따라 이동통신 모듈(120), 무선랜 모듈(131), 및 근거리통신 모듈(132)들의 조합을 포함할 수 있다.
멀티미디어 모듈(140)은 방송통신 모듈(141), 오디오재생 모듈(142) 또는 동영상재생 모듈(143)을 포함할 수 있다. 방송통신 모듈(141)은 제어부(110)의 제어에 따라 방송통신 안테나(도시되지 아니함)를 통해 방송국에서부터 송출되는 방송 신호(예, TV방송 신호, 라디오방송 신호 또는 데이터방송 신호) 및 방송부가 정보(예, EPS(Electric Program Guide) 또는ESG(Electric Service Guide)를 수신할 수 있다. 오디오재생 모듈(142)은 제어부(110)의 제어에 따라 저장되거나 또는 수신되는 디지털 오디오 파일(예, 파일 확장자가 mp3, wma, ogg 또는 wav인 파일)을 재생할 수 있다. 동영상재생 모듈(143)은 제어부(110)의 제어에 따라 저장되거나 또는 수신되는 디지털 동영상 파일(예, 파일 확장자가mpeg, mpg, mp4, avi, mov, 또는 mkv인 파일)을 재생할 수 있다. 동영상재생 모듈(143)은 디지털 오디오 파일을 재생할 수 있다.
멀티미디어 모듈(140)은 방송통신 모듈(141)을 제외하고 오디오재생 모듈(142)과 동영상재생 모듈(143)을 포함할 수 있다. 또한, 멀티미디어 모듈(140)의 오디오재생 모듈(142) 또는 동영상재생 모듈(143)은 제어부(100)에 포함될 수 있다.
GPS 모듈(155)은 지구 궤도상에 있는 복수의 GPS위성(도시되지 아니함)에서부터 전파를 수신하고, GPS위성(도시되지 아니함)에서부터 장치(100)까지 전파도달시간(Time of Arrival)을 이용하여 장치(100)의 위치를 산출할 수 있다.
입/출력 모듈(160)은 복수의 버튼(161), 마이크(162), 스피커(163), 진동모터(164), 커넥터(165), 및 키패드(166) 중 적어도 하나를 포함할 수 있다.
버튼(161)은 상기 장치(100)의 하우징의 전면, 측면 또는 후면에 형성될 수 있으며, 전원/잠금 버튼(도시되지 아니함), 볼륨버튼(도시되지 아니함), 메뉴 버튼, 홈 버튼, 돌아가기 버튼(back button) 및 검색 버튼(161) 중 적어도 하나를 포함할 수 있다.
마이크(162)는 제어부(110)의 제어에 따라 음성(voice) 또는 사운드(sound)를 입력 받아 전기적인 신호를 생성한다.
스피커(163)는 제어부(110)의 제어에 따라 이동통신 모듈(120), 서브통신 모듈(130), 멀티미디어 모듈(140) 또는 카메라(230,235)의 다양한 신호(예, 무선신호, 방송신호, 디지털 오디오 파일, 디지털 동영상 파일 또는 사진 촬영 등)에 대응되는 사운드를 장치(100) 외부로 출력할 수 있다. 스피커(163)는 장치(100)가 수행하는 기능에 대응되는 사운드(예, 전화 통화에 대응되는 버튼 조작음, 또는 통화 연결음)를 출력할 수 있다. 스피커(163)는 상기 장치(100)의 하우징의 적절한 위치 또는 위치들에 하나 또는 복수로 형성될 수 있다.
진동모터(164)는 제어부(110)의 제어에 따라 전기적 신호를 기계적 진동으로 변환할 수 있다. 예를 들어, 진동 모드에 있는 장치(100)는 다른 장치(도시되지 아니함)로부터 음성통화가 수신되는 경우, 진동모터(164)가 동작한다. 상기 장치(100)의 하우징 내에 하나 또는 복수로 형성될 수 있다. 진동모터(164)는 터치스크린(190) 상을 터치하는 사용자의 터치 동작 및 터치스크린(190) 상에서의 터치의 연속적인 움직임에 응답하여 동작할 수 있다.
커넥터(165)는 장치(100)와 외부장치(도시되지 아니함) 또는 전원소스(도시되지 아니함)를 연결하기 위한 인터페이스로 이용될 수 있다. 제어부(110)의 제어에 따라 커넥터(165)에 연결된 유선 케이블을 통해 장치(100)의 저장부(175)에 저장된 데이터를 외부 장치(도시되지 아니함)로 전송하거나 또는 외부 장치(도시되지 아니함)에서부터 데이터를 수신할 수 있다. 커넥터(165)에 연결된 유선 케이블을 통해 전원소스(도시되지 아니함)에서부터 전원이 입력되거나 배터리(도시되지 아니함)를 충전할 수 있다.
키패드(166)는 장치(100)의 제어를 위해 사용자로부터 키 입력을 수신할 수 있다. 키패드(166)는 장치(100)에 형성되는 물리적인 키패드(도시되지 아니함) 또는 터치스크린(200)에 표시되는 가상의 키패드(도시되지 아니함)를 포함한다. 장치(100)에 형성되는 물리적인 키패드(도시되지 아니함)는 장치(100)의 성능 또는 구조에 따라 제외될 수 있다.
센서 모듈(170)은 장치(100)의 상태를 검출하는 적어도 하나의 센서를 포함한다. 예를 들어, 센서모듈(170)은 사용자의 장치(100)에 대한 접근여부를 검출하거나 손가락 또는 펜(200)등의 화면상의 접근을 감지하는 근접센서(174), 장치(100) 주변의 빛의 양을 검출하는 조도센서(도시되지 아니함), 또는 장치(100)의 동작(예, 장치(100)의 회전, 장치(100)에 가해지는 가속도 또는 진동)을 검출하는 가속도센서(172)를 포함할 수 있다. 적어도 하나의 센서는 장치(100)의 방향 및 기울기를 포함하는 상태를 검출하고, 검출에 대응되는 신호를 생성하여 제어부(110)로 전송할 수 있다. 센서모듈(170)의 센서는 장치(100)의 성능에 따라 추가되거나 삭제될 수 있다.
전원공급부(180)는 제어부(110)의 제어에 따라 장치(100)의 하우징에 배치되는 하나 또는 복수의 배터리(도시되지 아니함)에 전원을 공급할 수 있다. 하나 또는 복수의 배터리(도시되지 아니함)는 장치(100)에 전원을 공급한다. 또한, 전원공급부(180)는 커넥터(165)와 연결된 유선 케이블을 통해 외부의 전원소스(도시되지 아니함)에서부터 입력되는 전원을 장치(100)로 공급할 수 있다.
디스플레이 컨트롤러(215)는 제어부(110)의 제어에 따라, 표시 패널(210)을 구동하여 제어부(110)에서 입력되는 각종 데이터를 표시 패널(210)에 표시한다. 표시 패널(210)은 LCD, AMOLED 등과 같은 패널이 될 수 있으며, 휴대용 장치(100)의 각종 동작 상태, 어플리케이션 실행 및 서비스 등에 따른 다양한 영상을 표시한다.
터치패널(190)은 다양한 물체들 예컨대 사용자의 신체(예, 엄지를 포함하는 손가락) 또는 터치 가능한 입력 수단 예컨대 전자 펜(스타일러스 펜)을 통해 적어도 하나의 터치를 입력받을 수 있는 투명 스위치 패널이다. 또한, 터치패널(190)은 적어도 하나의 터치 중에서, 하나의 터치의 연속적인 움직임을 입력받을 수 있다. 터치패널(190)은 입력되는 터치의 연속적인 움직임에 따른 터치 궤적에 대응되는 아날로그 신호를 터치패널 컨트롤러(195)로 전송할 수 있다.
본 발명에서 터치는 터치패널(190)과 사용자의 신체 또는 터치 가능한 입력 수단과의 접촉에 한정되지 않고, 비접촉을 포함할 수 있다. 터치패널(190)에서 검출 가능한 간격은 장치(100)의 성능 또는 구조에 따라 변경될 수 있다. 터치패널(190)은 예를 들어, 저항막(resistive) 방식, 정전용량(capacitive) 방식, 적외선(infrared) 방식, 전자기유도(EMR:Electronic Magnetic Resonance) 방식(이하 EMR 방식이라 칭함) 또는 초음파(acoustic wave) 등 다양한 방식으로 구현될 수 있으며, 하나 이상의 방식이 조합되어 구현될 수도 있다.
본 발명의 실시예에서는 정전용량 방식의 제1 방식과 EMR 방식의 제2 방식이 조합되어 구현된 경우를 예를 들어 설명한다. 제1 방식과 제2 방식이 조합되어 구현된 경우의 터치패널(190)은 제1터치 패널(미도시 함)과 제2터치 패널(미도시 함)을 포함할 수 있다. 제1터치 패널은 정전용량 방식 터치 패널로서, 유리의 양면에 얇은 금속 전도성 물질(예를 들면, ITO(Indium Tin Oxide:산화 인듐주석) 막 등)을 코팅하여 유리표면에 전류가 흐르도록 하고 전하를 저장할 수 있는 유전체로 코팅된 패널이다. 이러한 제1터치 패널에 물체에 의해 표면이 터치되면 정전기에 의해 일정량의 전하가 접촉 위치로 이동하고, 제1터치 패널은 전하의 이동에 따른 전류의 변화량을 인식해서 터치된 위치를 감지하게 된다. 제1 터치 패널을 통해서는 정전기를 발생시킬 수 있는 모든 터치의 감지가 가능하며, 손터치나 펜에 의한 터치의 감지가 모두 가능하다.
제2터치 패널은 EMR 방식 터치 패널로서, 복수의 루프 코일이 미리 정해진 제1방향 및 제1방향과 교차하는 제2방향에 각각 배치되어 그리드 구조를 가지는 전자 유도 코일 센서와 전자 유도 코일 센서의 각 루프 코일에 순차적으로 소정의 주파수를 가지는 교류 신호를 제공하는 전자 신호 처리부를 포함한다. 이러한 제2터치 패널의 루프 코일 근방에 공진회로를 내장하는 펜이 존재하면, 해당 루프 코일로부터 송신되는 자계가 펜 내의 공진회로에 상호 전자 유도에 기초한 전류를 발생시킨다. 이 전류를 기초로 하여, 펜 내의 공진 회로를 구성하는 코일로부터 유도 자계가 발생하게 되고, 제2터치 패널은 이 유도 자계를 신호 수신 상태에 있는 루프 코일에서 검출하게 되어 펜의 접근 위치 또는 터치 위치가 감지된다. 제2터치 패널을 통해서는 전자 유도에 기초한 전류를 발생시킬 수 있는 물체라면 접근 및 터치의 감지가 가능하다.
터치패널 컨트롤러(195)는 터치패널(190)로부터 손 또는 펜 터치 감지에 의해 수신된 아날로그 신호를 디지털 신호(예컨대X, Y, Z 좌표)로 변환하여 제어부(110)로 전송한다. 또는 터치 패널 컨트롤러(195)는 터치패널(190)로부터 펜 접근 또는 터치 감지에 의해 수신된 아날로그 신호를 디지털 신호로 변환하여 제어부(110)로 전송한다. 제어부(110)는 터치패널 컨트롤러(195)로부터 수신된 디지털 신호를 이용하여 표시 패널(210), 터치 패널(190)을 제어할 수 있다.
그리고 터치 패널(190)은 표시 패널(210)의 상부에 장착되어, 표시 패널(210)과 함께 터치스크린(200)을 구성한다. 제어부(110)는 디스플레이 컨트롤러(215)와 터치 패널 컨트롤러(195)를 제어하여, 터치스크린(200)을 통해 유저 인터페이스를 제공한다. 터치스크린(200)은 사용자에게 다양한 서비스(예, 통화, 데이터 전송, 방송, 사진촬영)에 대응되는 유저 인터페이스를 제공할 수 있다.
제1 카메라(230) 또는 제2 카메라(235)는 촬영에 필요한 광량을 제공하는 보조 광원(예, 플래시(도시되지 아니함))을 포함할 수 있다. 제1 카메라(230)는 상기 장치(100) 전면에 배치되고, 제2 카메라(235)는 상기 장치(100)의 후면에 배치될 수 있다. 제어부(110)는 본 발명의 실시예에 따라 제1 카메라(230) 및 제2 카메라(235) 각각에 대해 카메라 동작 모드를 설정하고, 동작 모드에 따른 동작 파라미터를 제1 카메라(230) 및 제2 카메라(235)에 설정한다. 카메라의 동작 모드는 본 발명의 실시예에 따라 촬영 모드와 비전 인식 모드로 구분할 수 있다. 촬영 모드는 프리뷰 영상, 정지 영상, 동영상 등을 생성하기 위한 동작 모드이고, 비전 인식 모드는 비전 인식용 영상을 생성하기 위한 동작 모드이다. 카메라의 동작 모드는 고정적인 디폴트 값에 의해 결정될 수도 있고, 사용자의 선택에 따라 결정될 수도 있다. 이하의 설명에서 동작 모드가 촬영 모드로 설정된 카메라는 촬영 카메라라 지칭하고, 동작 모드가 비전 인식 모드로 설정된 카메라는 인식용 카메라라 지칭한다. 동작 파라미터는 실제 촬영에 따라 생성되는 영상 데이터의 해상도, 노출 시간, 이득, 프레임 율 등을 결정하는 값들이다.
제1이미지 처리부(220)는 제1카메라(230)에서 입력되는 신호를 처리하고, 제2이미지 처리부(225)는 제2카메라(235)에서 입력되는 신호를 처리하여, 해당 영상 포맷에 따른 영상 데이터를 생성하여 제어부(110)로 출력한다. 예를 들어, 본 발명에 따라, 제1카메라(230)가 촬영 카메라로 셋팅되는 경우, 제1이미지 처리부(220)는 제1카메라(230)에서 입력되는 데이터를 이용해 프리뷰 영상 또는 미리 설정된 크기와 해상도를 가지는 영상 또는 동영상을 생성한다. 그리고 제2카메라(235)가 인식용 카메라로 셋팅되는 경우, 제2이미지 처리부(225)는 제2카메라(235)에서 입력되는 데이터를 이용해 비전 인식용 영상을 생성하여, 제어부(110)로 출력한다.
제어부(110)는 비전 인식 영상에서 인식 오브젝트 또는 인식 오브젝트의 움직임을 검출 및 인식하고, 인식된 결과값에 대응하여 지정된 동작이 수행될 수 있도록, 해당 모듈을 제어한다. 제어부(110)는 비전 인식 영상에서 손가락의 움직임을 검출하고, 검출된 손가락의 움직임에 대응하는 특정 명령을 수행할 수도 있다. 이때, 손가락은 인식 오브젝트로 검출되며, 손가락의 움직임이 인식 오브젝트의 움직임으로 검출된다. 다시 말해, 본 발명에서는 손가락 또는 손가락의 모양을 인식 오브젝트로 이용한다. 그리고 손가락 또는 손가락의 모양과, 손가락의 움직임에 따른 패턴을 조합하여, 이를 특정한 촬영 제어 모션으로 정의한다. 이하의 설명에서는 본 발명의 이해를 돕기 위해, 줌 모션에 대응하는 인식 오브젝트는 두 개의 손가락으로 가정한다. 그리고 셔터 모션에 대응하는 인식 오브젝트는 펼쳐진 다섯 손가락으로 가정한다. 또한 포커싱 모션에 대응하는 인식 오브젝트는 하나의 손가락으로 가정한다.
제어부(110)는 비전 인식을 수행하기 위해, 산출부(111), 검출부(112), 생성부(113)를 포함할 수 있다.
제어부(110)는 비전 인식 영상에서 인식 오브젝트의 위치를 획득할 수 있다. 인식 오브젝트의 위치는 비전 인식 영상에서 수직방향에 대한 좌표, 비전 인식 영상에서 수평방향에 대한 좌표 및 인식 오브젝트와 카메라(230,235) 간 거리를 나타내는 인식 오브젝트의 깊이 정보 중 적어도 하나를 포함할 수 있다. 여기서 인식 오브젝트의 깊이 정보는 비전 인식 영상과 수직하는 방향에 대한 좌표의 값으로 나타낼 수 있다. 예를 들어, 카메라(230,235)는 인식 오브젝트를 촬상하여 인식 오브젝트의 깊이 정보를 포함하는 비전 인식 영상을 획득할 수 있다. 여기서, 비전 인식 영상은 복수의 영역들로 구분되고, 복수의 영역들 중 적어도 두 개의 영역들은 서로 다른 임계값들(thresholds)을 가질 수 있다. 제어부(110)는 인식 오브젝트의 위치로서 비전 인식 영상상 수직방향에 대한 좌표 및 비전 인식 영상상 수평방향에 대한 좌표를 획득할 수 있다. 또한 제어부(110)는 인식 오브젝트의 위치로서 인식 오브젝트와 카메라(230,235)간 거리를 나타내는 인식 오브젝트의 깊이 정보를 획득할 수 있다.
저장부(175)는 획득된 비전 인식 영상 또는 인식 오브젝트의 위치를 저장할 수 있다. 저장부(175)는 카메라(230,235)로부터 임의 시구간에서 연속적으로 또는 주기적으로 획득되는 비전 인식 영상들을 미리 설정된 개수만큼 또는 미리 설정된 시간 동안 저장할 수 있다. 또한, 저장부(175)는 비전 인식 영상에서 구분되는 복수의 영역들 중 적어도 두 개의 영역들이 가지는 서로 다른 임계값들을 저장할 수 있다. 이때, 임계값은 인식 오브젝트의 움직임의 크기와 비교되는 대상으로서, 이벤트의 발생여부 또는 미리 설정된 이벤트의 발생량 등을 결정하기 위해 사용될 수 있다.
제어부(110)는 비전 인식 영상을 이용하여 인식 오브젝트의 움직임의 크기를 산출할 수 있다. 제어부(110)는 인식 오브젝트의 위치(또는 인식 오브젝트의 움직임이 속하는 영역)를 검출하고, 검출된 위치를 이용하여 인식 오브젝트의 움직임에 상응하는 움직임 정보를 생성할 수 있다. 즉, 제어부(110)는 각 위치에서 인식 오브젝트의 움직임에 상응하는 이벤트가 발생되도록, 위치를 기초로 비전 인식 영상에서 인식 오브젝트의 움직임을 보상하여 움직임 정보를 생성할 수 있다. 움직임을 보상하는 방식은 위치를 기초로 임계값을 동적으로 선택하는 임계값 동적 선택 방식 및 산출된 움직임의 크기를 보상하는 움직임의 크기 보상 방식 중 적어도 하나일 수 있다.
예를 들어, 제어부(110)는 저장부(175)로부터 깊이 정보를 검출하고, 깊이 정보를 기초로 비전 인식 영상상 인식 오브젝트의 움직임의 크기를 보상함으로써 움직임 정보를 생성할 수 있다. 또한, 제어부(110)는 복수의 영역들 중 인식 오브젝트의 움직임이 속하는 영역에 상응하는 임계값(threshold)과 움직임의 크기를 비교하여 움직임 정보를 생성할 수 있다. 또한, 제어부(110)는 움직임 정보에 상응하는 이벤트를 발생시킬 수 있다.
제어부(110)는 산출부(111), 검출부(112) 및 생성부(113)를 포함할 수 있다. 산출부(111)는 저장부(175)에 저장된 적어도 하나의 비전 인식 영상을 이용하거나, 인식 오브젝트의 위치들에 대한 데이터를 이용하여 인식 오브젝트의 움직임을 검출할 수 있다. 또한, 산출부(111)는 검출된 인식 오브젝트에 대한 움직임의 크기를 산출할 수 있다. 예를 들어, 산출부(111)는 인식 오브젝트의 움직임의 시작 및 끝 위치를 잇는 직선 길이를 움직임의 크기로 산출하거나, 또는 인식 오브젝트의 움직임의 평균적인 위치를 기준으로 가상의 직선을 그려서 가상의 직선의 길이를 움직임의 크기로 산출할 수도 있다.
검출부(112)는 저장부(175)로부터 인식 오브젝트의 위치 또는 복수의 영역들 중 인식 오브젝트의 움직임이 포함된 영역을 검출할 수 있다. 인식 오브젝트의 위치는 비전 인식 영상상 수직방향에 대한 좌표, 비전 인식 영상상 수평방향에 대한 좌표 및 인식 오브젝트와 카메라(230,235)간 거리를 나타내는 인식 오브젝트의 깊이 정보 중 적어도 하나를 포함할 수 있다. 복수의 비전 인식 영상을 통해 인식 오브젝트의 움직임이 획득되는 경우, 인식 오브젝트의 위치는 인식 오브젝트의 움직임에 상응하는 복수의 비전 인식 영상 중 적어도 하나의 위치이거나, 복수의 비전 인식 영상 적어도 하나의 위치를 이용하여 획득된 중심점 위치이거나, 또는 움직임의 구간별 이동 시간 등을 고려하여 산출된 위치일 수 있다. 예를 들어, 인식 오브젝트의 움직임의 첫 비전 인식 영상에서 인식 오브젝트의 위치, 인식 오브젝트의 움직임의 마지막 비전 인식 영상에서 인식 오브젝트의 위치, 또는 상기 두 위치의 중심점이 인식 오브젝트의 위치가 될 수 있다. 또한, 비전 인식 영상이 복수의 영역들로 구분되고, 복수의 영역들 중 적어도 두 개의 영역들이 서로 다른 임계값들을 갖는 경우, 검출부(112)는 비전 인식 영상상 인식 오브젝트의 움직임이 속하는 영역을 검출할 수 있다.
생성부(113)는 인식 오브젝트의 움직임에 상응하는 이벤트가 발생되도록, 검출부(112)로부터 수신한 인식 오브젝트의 위치를 기초로 산출부(111)로부터 수신한 인식 오브젝트의 움직임을 보상하여 움직임 정보를 생성할 수 있다. 또한, 생성부(113)는 움직임 정보에 상응하는 인터럽트 신호를 발생시킬 수 있다. 또한, 인식 오브젝트의 움직임에 대한 사용자 인터페이스의 반응 또는 그 결과로서, 움직임 정보 또는 발생된 인터럽트 신호 등이 저장부(175)에 저장될 수 있다.
제어부(110)는 인식 영상을 이용하여 산출된 인식 오브젝트의 움직임을 인식 오브젝트의 위치를 기초로 보상하여, 인식 오브젝트의 위치에 관계없이 인식 오브젝트의 동일한 움직임에 대응하여 동일한 이벤트가 발생되도록 제어한다.
저장부(175)는 제어부(110)의 제어에 따라 이동통신 모듈(120), 서브통신 모듈(130), 멀티미디어 모듈(140), 비전 인식 모듈(150), GPS모듈(155), 입/출력 모듈(160), 센서 모듈(170), 터치스크린(200)의 동작에 대응되게 입/출력되는 신호 또는 데이터를 저장할 수 있다. 저장부(175)는 장치(100) 또는 제어부(110)의 제어를 위한 제어 프로그램 및 어플리케이션들을 저장할 수 있다.
"저장부"라는 용어는 저장부(175), 제어부(110)내 롬(112), 램(113) 또는 장치(100)에 장착되는 메모리 카드(도시되지 아니함)(예, SD 카드, 메모리 스틱)를 포함한다. 저장부는 비휘발성메모리, 휘발성메모리, 하드 디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD)를 포함할 수 있다.
그리고 저장부(175)는 촬영 제어 모션을 검출하기 위한 기준 데이터를 저장한다. 기준 데이터는 제1카메라((230)와, 제2카메라(235) 중 어느 하나의 카메라가 비전 인식 카메라로 동작하고 있는 상태에서, 비전 인식 카메라를 통해 생성된 인식 영상에서, 복수의 촬영 제어 모션 각각에 대응되는 인식 오브젝트 및 인식 오브젝트의 움직임 패턴을 검출하기 위한 기준이 되는 데이터이다.
이하 상기한 바와 같은 휴대용 장치(100)의 외부 구조에 대해 설명한다. 도2는 본 발명의 실시예에 따른 휴대용 장치의 전면 사시도이고, 도3은 본 발명의 실시예에 따른 휴대용 장치의 후면 사시도이다.
먼저 도2를 참조하면, 휴대용 장치(100)의 전면(100a) 중앙에는 터치스크린(200)이 배치된다. 상기 터치스크린(200)은 전면(100a)의 대부분을 차지하도록 크게 형성된다. 도2에서는, 상기 터치스크린(200)에 메인 홈 화면이 표시된 예를 나타낸다. 메인 홈 화면은 장치(100)의 전원을 켰을 때 상기 터치스크린(200) 상에 표시되는 첫 화면이다. 또한 상기 장치(100)가 여러 페이지의 서로 다른 홈 화면들을 갖고 있을 경우, 메인 홈 화면은 상기 여러 페이지의 홈 화면들 중 첫 번째 홈 화면일 수 있다. 홈 화면에는 자주 사용되는 어플리케이션들을 실행하기 위한 단축 아이콘들(191-1, 191-2, 191-3), 메인메뉴 전환키(191-4), 시간, 날씨 등이 표시될 수 있다. 상기 메인메뉴 전환키(191-4)는 상기 터치스크린(200) 상에 메뉴 화면을 표시한다. 또한, 상기 터치스크린(200)의 상단에는 배터리 충전상태, 수신신호의 세기, 현재 시각과 같은 장치(100)의 상태를 표시하는 상태바(Status Bar, 192)가 형성될 수도 있다.
상기 터치스크린(200)의 하부에는 홈 버튼(161a), 메뉴 버튼(161b), 및 뒤로 가기 버튼(161c)이 형성될 수 있다. 홈 버튼(161a)은 터치스크린(200)에 메인 홈 화면(main Home screen)을 표시한다. 예를 들어, 터치스크린(200)에 상기 메인 홈 화면과 다른 홈 화면(any Home screen) 또는 메뉴화면이 표시된 상태에서, 상기 홈 키(161a)가 터치되면, 터치스크린(190)에 메인 홈 화면이 디스플레이될 수 있다. 또한, 터치스크린(200) 상에서 어플리케이션들이 실행되는 도중 홈 버튼(191a)이 터치되면, 상기 터치스크린(200)상에는 도2에 도시된 메인 홈 화면이 디스플레이될 수 있다. 또한 홈 버튼(161a)은 상기 터치스크린(200) 상에 최근에(recently) 사용된 어플리케이션들을 디스플레이하도록 하거나, 태스크 매니저(Task Manager)를 디스플레이하기 위하여 사용될 수도 있다. 메뉴 버튼(161b)은 터치스크린(200) 상에서 사용될 수 있는 연결 메뉴를 제공한다. 상기 연결 메뉴에는 위젯 추가 메뉴, 배경화면 변경 메뉴, 검색 메뉴, 편집 메뉴, 환경 설정 메뉴 등이 포함될 수 있다. 뒤로 가기 버튼(161c)은 현재 실행되고 있는 화면의 바로 이전에 실행되었던 화면을 디스플레이하거나, 가장 최근에 사용된 어플리케이션을 종료시킬 수 있다. 휴대용 장치(100)의 전면(100a) 가장자리에는 제1 카메라(230)와 조도 센서(170a) 및 근접 센서(170b)가 배치될 수 있다.
휴대용 장치(100)의 측면(100b)에는 예를 들어 전원/리셋 버튼(160a), 음량 버튼(161b), 방송 수신을 위한 지상파DMB 안테나(141a), 하나 또는 복수의 마이크들(162) 등이 배치될 수 있다. 상기 DMB 안테나(141a)는 장치(100)에 고정되거나, 착탈 가능하게 형성될 수도 있다.
도3을 참조하면, 휴대용 장치(100)의 후면(100c) 상부에는 제2 카메라(235), 플래시(flash, 153)가 배치될 수 있다.
상기와 같이 구성되는 휴대용 장치(100)의 본 발명에 따른 동작 과정을 도4 내지 도11을 참조하여 설명한다. 본 발명에 따라, 휴대용 장치(100)는 영상 촬영시 사용자로부터 모션 인식 제어 요청이 입력되면, 두 개의 카메라(230,235)를 모두 구동한다. 그리고 휴대용 장치(100)는 전면 및 후면 각각에 장착된 디지털 카메라(230,235) 중, 어느 한 면에 장착된 카메라는 촬영 카메라로 셋팅하고, 나머지 한 면에 장착된 카메라는 비전 인식용 카메라로 셋팅한다. 이후, 휴대용 장치(100)는 비전 인식용 카메라를 통해 인식된 사용자의 촬영 제어 모션에 대응하여, 촬영 카메라의 촬영 동작을 제어한다. 촬영 동작은 영상 촬영을 제어하기 위한 동작으로, 예를 들어, 영상에 대한 촬영 개시 또는 종료 명령, 줌 인-아웃, 포커싱 위치 지정 등이 될 수 있다.
이러한, 휴대용 장치(100)의 동작 과정을 도4에 도시하였다. 도4를 참조하면, 촬영 모드에서 휴대용 장치(100)는 촬영 모드가 설정되면, 301단계에서 제1카메라(230) 또는 제2카메라(230) 중 어느 하나의 카메라를 온시키고, 해당 카메라에서 생성된 신호를 처리하여, 표시 패널(210)에 프리뷰 영상으로 디스플레이한다. 그리고 303단계에서 사용자로부터 모션 인식 제어 요청이 있으면, 현재 구동되고 있지 않은 나머지 카메라를 온시킨다. 그리고 305단계에서 제1카메라(230) 또는 제2카메라(230) 중 하나의 카메라는 촬영 카메라로 셋팅하고, 다른 하나의 카메라는 비전 인식용 카메라로 셋팅한다. 그리고 307단계에서 비전 인식용 카메라를 통해 인식되는 촬영 제어 모션에 대응하여 촬영 카메라의 촬영 동작을 제어한다.
예를 들어, 사용자가 줌 인에 해당하는 촬영 제어 모션을 취했을 경우, 휴대용 장치(100)는 인식용 카메라를 통해 촬영된 인식 영상에서 줌 인 명령에 대응하는 사용자의 촬영 제어 모션을 검출하고, 이에 따라 촬영 카메라가 줌 인 동작을 수행하도록 제어한다.
이와 같이, 본 발명은 휴대용 장치(100)에 장착된 복수의 카메라 중 하나의 카메라는 촬영 카메라로 구동하고, 다른 하나의 카메라는 인식용 카메라로 구동하여, 인식용 카메라를 통해 감지되는 사용자의 촬영 제어 모션에 대응하여 촬영 카메라의 촬영 동작을 제어함으로써, 사용자가 카메라를 편리하게 이용할 수 있게 한다.
이하에서는, 도1과 같이 구성되는 휴대용 장치(100)에 있어서, 본 발명이 적용되는 두 가지의 실시예를 설명한다. 첫 번째 실시예는, 휴대용 장치(100)의 전면(100a)에 장착된 제1카메라(230)와, 후면(100c)에 장착된 제2카메라(235)에 대한 촬영 카메라 및 인식용 카메라의 셋팅이 사용자의 선택에 따라 변경 가능한 경우를 가정한 예이다. 두 번째 실시예는 휴대용 장치(100)의 전면(100a)에 장착된 제1카메라(230)는 인식용 카메라로 고정되고, 후면(100c)에 장착된 제2카메라(235)는 촬영 카메라로 고정된 경우를 가정한 예이다.
먼저, 상기한 첫 번째 실시예를 도5를 참조하여 설명한다. 도5는 본 발명의 일 실시예에 따른 휴대용 장치(100)의 동작 과정을 나타낸 도면이다. 도5를 참조하면, 휴대용 장치(100)에 촬영 모드가 설정되면, 제어부(110)는 401단계에서 촬영 카메라를 온시킨다. 일반적으로 휴대용 장치(100)에 복수개의 카메라가 장착된 경우, 복수개의 카메라 중 어느 하나의 카메라가 촬영 카메라로 지정되게 되며, 촬영 모드가 설정되면, 해당 카메라만 활성화 된다. 촬영 카메라는 복수개의 카메라 중 어떤 것이라도 될 수 있으며, 촬영 모드가 개시될 때는 디폴트로 특정 카메라가 촬영 카메라로 동작하도록 지정돼 있을 수도 있다. 또는 이전의 촬영 모드 실행시 마지막으로 촬영 카메라로 셋팅되었던 카메라가, 다음에 촬영 모드가 개시될때 촬영 카메라로 동작할 수도 있다. 본 실시예에서는 이해를 돕기 위해 휴대용 장치(100)의 전면(100a)에 배치된 제1카메라(230)가 미리 촬영 카메라로 지정되어 있는 것으로 가정한다. 이에 따라, 휴대용 장치(100)의 제어부(110)는 401단계에서 제1카메라(230)를 온시킨다. 그리고 제어부(110)는 제1카메라(230) 및 제1이미지 처리부(220)에 의해 생성된 프리뷰 영상을 표시 패널(210)에 디스플레이하고 수동 촬영 상태를 유지한다. 이때, 터치스크린(200)에는 촬영 제어 인터페이스가 디스플레이될 수 있다. 촬영 제어 인터페이스는 영상 또는 동영상 촬영에 대한 각종 촬영 옵션을 선택 및 제어할 수 있는 메뉴들이 포함되는 사용자 인터페이스이다. 그리고 수동 촬영 상태란 터치스크린(200)에 표시되는 촬영 제어 인터페이스 또는 버튼(161)을 통해 입력되는 사용자의 요청에 따라 영상 또는 동영상 촬영이 수행되는 상태이다.
403단계에서 제어부(110)는 사용자로부터 촬영 모드를 모션 인식 제어 상태로 변경하기 위한 모션 인식 제어 요청이 있으면 407단계로 진행한다. 모션 인식 제어 상태는 사용자의 촬영 제어 모션을 인식하여, 그에 대응하는 영상 또는 동영상 촬영에 대한 각종 촬영 옵션이 선택 수행되는 상태이다.
407단계에서 제어부(110)는 현재 오프 상태인 나머지 카메라를 온시키고 인식용 카메라로 셋팅한다. 다시 말해, 제2카메라(235)를 온시키고, 인식용 카메라로 셋팅한다. 그리고 제어부(110)는 인식용 카메라(제2카메라(235))를 통해 촬영된 인식 영상에서 사용자의 촬영 제어 모션을 검출하고, 검출된 촬영 제어 모션에 대응하여 촬영 카메라(제1카메라(230))의 촬영 동작을 제어한다.
한편, 본 실시예에서 사용자는 촬영 카메라와 인식용 카메라를 선택적으로 전환할 수 있다. 즉, 제1카메라(230)와 제2카메라(235) 중에서 사용자가 원하는 카메라를 촬영 카메라 또는 인식용 카메라로 지정할 수 있다. 이에 따라, 409단계에서 사용자로부터 카메라 전환 요청이 입력되면, 제어부(210)는 411단계에서 현재의 촬영 카메라 및 인식용 카메라를 각각 인식용 카메라 및 촬영 카메라로 변경한다. 다시 말해, 제1카메라(230)를 인식용 카메라로 변경하고, 제2카메라(235)를 촬영 카메라로 변경한다.
이후, 촬영 제어 모션을 검출하여 촬영 카메라를 제어하는 과정을 413단계 내지 419단계를 참조하여 설명한다. 하기 설명에서는 제1카메라(230)가 인식용 카메라이고, 제2카메라(235)를 촬영 카메라인 경우를 가정하여 설명한다. 413단계에서 휴대용 장치(100)의 제1이미지 처리 모듈(220)은 인식용 카메라, 즉, 제1카메라(230)에서 입력되는 신호를 이용해 인식 영상을 생성하여 제어부(110)로 전달한다. 제어부(110)는 인식 영상을 분석하여 인식 영상에서 촬영 제어 모션을 검출하고, 검출된 촬영 제어 모션에 대응하는 촬영 제어 옵션을 파악하고, 그에 따라 촬영 카메라 즉, 제2촬영 카메라(235)의 촬영 동작을 제어한다.
예를 들어, 촬영 제어 모션이 줌 모션인 경우, 제어부(210)는 415단계로 진행한다. 줌 모션이란 카메라(230,235)의 줌 인 아웃을 제어하기 위한 모션으로, 본 발명의 일 실시예에서는 두 개의 손가락, 예를 들어, 엄지손가락과 검지손가락을 벌리거나 오므리는 모션으로 가정한다. 이를 도7 내지 도9에 도시하였다. 도7 내지 도9는 본 발명의 실시예에 따른 줌 모션의 예를 나타낸 도면이다.
도7을 참조하면, 사용자가 인식용 카메라인 제1카메라(230)의 촬영 범위 내에 엄지손가락과 검지손가락을 위치시키면, 이를 촬영한 제1카메라(230)에 의해 생성된 인식 영상이 제어부(210)로 전달된다. 제어부(210)는 기준 데이터를 참조하여, 인식 영상에서 두 개의 손가락을 인식 오브젝트로 검출하고, 줌 모션에 해당하는 사용자 모션이 검출된 것으로 결정한다. 제어부(110)는 촬영 제어 인터페이스 중에서 카메라 줌 인 아웃을 나타내는 줌 인디케이터(650)를 터치스크린(200)의 표시 패널(210)에 디스플레이한다. 이때, 줌 인디케이터(650)는 현재 표시 패널(210)에 디스플레이된 프리뷰 영상의 줌 배율을 반영한다.
그리고 제어부(210)는 두 개의 손가락 끝점을 각 인식 오브젝트의 유효 포인트로 설정하고, 유효 포인트 간의 거리를 두 개의 인식 오브젝트 간의 제1간격(610)으로 검출한다. 제어부(110)는 제1간격(610)과 상기 현재의 줌 배율을 대응시켜 저장부(175)에 저장한다.
이후, 사용자가 엄지손가락과 검지손가락의 간격을 도8과 같이 감소시킴에 따라, 제어부(210)는 실시간으로 두 손가락의 움직임을 추적하여, 손가락 끝점 간의 제2간격(620)을 인식 영상에서 검출한다. 제어부(110)는 제1간격(610)을 기준으로 제2간격(620)이 더 작으면, 줌 아웃 촬영 제어 옵션으로 결정하고, 제2간격(620)의 크기에 비례하여 실시간으로 줌 아웃되도록 제2카메라(235)를 제어한다. 이에 따라, 터치스크린(200)에는 실시간으로 줌 아웃 되는 프리뷰 영상이 표시된다. 그리고 줌 인디케이터(650)에도 역시 실시간으로 줌 배율이 반영된다. 그리고 제어부(110)는 제2간격(610)과 현재의 줌 배율을 대응시켜 저장부(175)에 저장한다.
또는, 사용자가 엄지손가락과 검지손가락을 도9와 같이 벌리면, 제어부(210)는 실시간으로 두 손가락의 움직임을 추적하여, 두 손가락 끝점 간의 제3간격(630)을 인식 영상에서 검출한다. 제어부(110)는 가장 최근에 저장된 인식 오브젝트 간의 간격, 즉, 제2간격(620)을 기준으로 제3간격(630)이 더 크면, 줌 인 촬영 제어 옵션으로 결정하고, 제3간격(630)의 크기에 비례하여 줌인되도록 제2카메라(235)를 제어한다. 이에 따라, 터치스크린(200)에는 실시간으로 줌 인되는 프리뷰 영상이 표시된다. 그리고 줌 인디케이터(650)에도 역시 실시간으로 줌 배율이 반영된다. 그리고 제어부(110)는 제3간격(610)과 현재의 줌 배율을 대응시켜 저장부(175)에 저장한다.
상기한 바와 같이 제어부(110)는 줌 모션이 검출되면, 415단계에서 두 개의 인식 오브젝트간의 간격에 비례하여 촬영 카메라에 대한 줌 인 또는 줌 아웃을 제어한다.
만약, 413단계에서 검출된 촬영 제어 모션이 셔터 모션인 경우, 제어부(110)는 417단계로 진행하여 영상 촬영을 개시하거나 종료한다. 셔터 모션은 영상 촬영을 개시하거나, 또는 동영상의 촬영을 개시 및 종료하기 위한 모션으로, 본 발명의 일 실시예에서는 펼쳐진 다섯 개의 손가락을 주먹 모양으로 오므리는 모션으로 가정한다. 이를 도10에 도시하였다. 도10은 본 발명의 실시예에 따른 셔터 모션의 예를 나타낸 도면이다.
도10을 참조하면, 사용자가 인식용 카메라인 제1카메라(230)의 촬영 범위 내에 펼쳐진 손을 위치시키면, 이를 촬영한 제1카메라(230)에 의해 생성된 인식 영상이 제어부(210)로 전달된다. 제어부(210)는 인식 영상에서 펼쳐진 다섯 개의 손가락을 셔터 모션에 대응하는 인식 오브젝트로 검출한다. 그리고 제어부(110)는 다섯 개의 손가락 각각의 끝점을 인식 오브젝트의 유효 포인트로 설정하고, 이를 기준으로, 중심 영역(손 바닥 부분)을 설정한다. 그리고 사용자가 다섯 개의 손가락을 주먹 모양으로 오므리면, 제어부(210)는 다섯 개의 손가락의 움직임, 즉, 다섯 개의 인식 오브젝트의 움직임을 추적한다. 제어부(210)는 다섯 개의 인식 오브젝트 중 정해진 개수의 인식 오브젝트, 예를 들어, 3개의 인식 오브젝트가 중심 영역 안으로 이동하는 크렌치(clench) 패턴(710)을 검출한다. 제어부(110)는 인식 오브젝트의 유효 포인트, 즉, 각 손가락의 끝점이 중심 영역 안으로 이동하는 것을, 인식 오브젝트가 중심 영역 안으로 이동하는 것으로 검출한다.
제어부(110)는 크렌치 패턴(710)을 확인하면, 셔터 모션이 검출된 것으로 결정한다. 그리고 촬영 모드가 정지 영상을 촬영하기 위한 모드이면, 제어부(110)는 정지 영상의 촬영을 개시하도록 제2카메라(235) 및 제2이미지 처리 모듈(225)을 제어한다.
만약, 촬영 모드가 동영상을 촬영하기 위한 모드이면, 제어부(110)는 동영상 촬영을 개시하도록 제2카메라(235) 및 제2이미지 처리 모듈(225)을 제어한다. 그리고 동영상 촬영 중에 셔터 모션이 다시 검출된다면, 제어부(110)는 동영상 촬영을 종료하도록 제2카메라(235) 및 제2이미지 처리 모듈(225)을 제어한다.
한편, 413단계에서 검출된 촬영 제어 모션이 포커싱 모션인 경우, 제어부(110)는 419단계로 진행하여 인식 오브제트에 의해 지정된 지점에 포커싱을 수행한다. 포커싱 모션은 영상 촬영시 포커싱의 기준이 되는 지점을 지정하기 위한 모션으로, 본 발명의 일 실시예에서는 하나의 손가락으로 어떤 지점을 터치하는 모션으로 가정한다. 이를 도11에 도시하였다. 도11은 본 발명의 실시예에 따른 포커싱 모션의 예를 나타낸 도면이다.
도11을 참조하면, 사용자가 인식용 카메라인 제1카메라(230)의 촬영 범위 내에 하나의 손가락, 예를 들어, 검지손가락을 위치시키면, 이를 촬영한 제1카메라(230)에 의해 생성된 인식 영상이 제어부(110)로 전달된다. 제어부(110)는 인식 영상에서 한 개의 손가락을 포커싱 모션에 대응하는 인식 오브젝트로 검출한다. 그리고 제어부(110)는 검지 손가락의 끝점을 유효 포인트로 지정한다.
사용자가 검지손가락으로 터치하는 동작을 취하면, 제어부(110)는 검지손가락의 움직임을 추적한다. 다시 말해, 제어부(110)는 검지 손가락의 끝점의 움직임을 추적하여, 인식 오브젝트의 푸시 패턴(810)을 검출한다.
제어부(110)는 인식 오브젝트의 푸시 패턴(810)이 검출됨에 따라, 포커싱 모션이 검출된 것으로 결정한다. 그리고 제어부(110)는 프리뷰 영상에서 인식 오브젝트의 위치에 대응되는 지점에 포커싱 인디케이터(820)를 오버레이하고, 해당 지점을 중심으로 포커싱이 수행되도록 제2카메라(235)를 제어한다.
이후 사용자가 다른 지점을 터치하는 모션을 취하면, 제어부(110)는 해당 위치로 포커싱 인디케이터(820)를 이동시켜 디스플레이하고, 해당 지점을 중심으로 포커싱이 수행되도록 제2카메라(235)를 제어한다.
상기한 예에서는 세 가지의 촬영 제어 모션을 예로 들어 설명하였으나, 다른 종류의 촬영 제어 모션이 추가될 수도 있다.
상기 도5는 본 발명의 첫 번째 실시예에 따라, 휴대용 장치(100)의 전면(100a)에 장착된 제1카메라(230)와, 후면(100c)에 장착된 제2카메라(235)에 대한 촬영 카메라 및 인식용 카메라의 셋팅이 사용자의 선택에 따라 변경 가능한 경우를 나타낸 것이다.
다음으로 도6을 참조하여, 본 발명의 다른 실시예에 따라, 휴대용 장치(100)의 전면(100a)에 장착된 제1카메라(230)는 인식용 카메라로 고정되고, 후면(100c)에 장착된 제2카메라(235)는 촬영 카메라로 고정된 경우를 설명한다.
도6을 참조하면, 휴대용 장치(100)에 촬영 모드가 설정되면, 제어부(110)는 501단계에서 촬영 카메라를 온시킨다. 일반적으로 휴대용 장치(100)에 복수개의 카메라가 장착된 경우, 복수개의 카메라 중 어느 하나의 카메라가 촬영 카메라로 지정되게 되며, 촬영 모드가 설정되면, 해당 카메라만 활성화 된다. 본 실시예에서는 이해를 돕기 위해 휴대용 장치(100)의 전면(100a)에 배치된 제1카메라(230)가 미리 촬영 카메라로 지정되어 있는 것으로 가정한다. 이에 따라, 휴대용 장치(100)의 제어부(110)는 501단계에서 제1카메라(230)를 온시킨다. 그리고 제어부(110)는 제1카메라(230) 및 제1이미지 처리부(220)에 의해 생성된 프리뷰 영상을 표시 패널(210)에 디스플레이하고 수동 촬영 상태를 유지한다.
503단계에서 제어부(110)는 사용자로부터 촬영 모드를 모션 인식 제어 상태로 변경하기 위한 모션 인식 제어 요청이 있으면 507단계로 진행한다.
507단계에서 제어부(110)는 현재 오프 상태인 나머지 카메라를 온시키고, 후면에 장착된 제2카메라(235)를 촬영 카메라로 셋팅하고, 전면에 장착된 제1카메라(230)를 인식용 카메라로 셋팅한다. 그리고 제어부(110)는 인식용 카메라(제2카메라(235))를 통해 촬영된 인식 영상에서 사용자의 촬영 제어 모션을 검출하고, 검출된 촬영 제어 모션에 대응하여 촬영 카메라(제1카메라(230))의 촬영 동작을 제어한다.
이후, 촬영 제어 모션을 검출하여 촬영 카메라를 제어하는 511단계 내지 517단계는 상기한 413단계 내지 419단계와 유사하다.
이와 같이, 본 발명은 휴대용 장치(100)에 장착된 복수의 카메라를 동시에 구동하고, 하나의 카메라는 촬영 카메라로 셋팅하고, 나머지 카메라는 인식용 카메라로 셋팅한 후, 인식용 카메라를 통해 촬영된 인식 영상에서 검출된 제어 모션에 따라 촬영 카메라의 촬영 동작을 제어함에 따라, 사용자가 카메라의 촬영 제어를 편리하게 할 수 있다. 그리고 영상 촬영을 위해 사용자가 휴대용 장치(100)를 직접 터치하는 버튼 입력 또는 터치 입력을 하지 않고, 모션 인식을 통해 휴대용 장치(100)의 촬영을 제어함에 따라, 흔들림 없는 영상을 획득할 수 있다.
이하, 도12 내지 도22를 참조하여, 제어부(110)의 비전 인식 과정을 상세히 설명한다.
도 12는 본 발명의 실시예에 따른 인식 영상 및 인식 영상에서 오브젝트를 나타내는 도면이다. 카메라(230,235)는 사용자의 손을 포함하는 도 12의 인식 영상인식 영상(1010)을 획득할 수 있다. 인식 영상인식 영상(1010)은 등고선과 유사하게 일정 범위의 깊이를 갖는 대상들에 대한 윤곽 및 해당 윤곽에 상응하는 깊이 정보를 포함할 수 있다. 윤곽(1011)은 인식 영상인식 영상(1010)상 사용자의 손에 상응하고, 손과 카메라(230,235)간 거리를 나타내는 깊이 정보를 가질 수 있다. 윤곽(1012)은 사용자 팔의 일부에 상응하고, 윤곽(120113)은 사용자의 머리 및 상반신에 상응할 수 있다. 윤곽(1014)은 사용자의 뒤에 위치한 배경에 상응할 수 있다. 윤곽(1011)내지 윤곽(1014)은 서로 다른 깊이 정보를 가질 수 있다.
제어부(110)는 인식 영상(1010)을 이용하여 인식 오브젝트 및 인식 오브젝트의 위치를 검출할 수 있다. 제어부(110)는 인식 영상(1010)으로부터 인식 영상(1010)상 인식 오브젝트(1011)를 검출하고, 인식 영상(1020)이 검출된 인식 오브젝트(1021)만을 포함하도록 제어할 수 있다. 또한, 제어부(110)는 인식 영상(1010)에서 인식 오브젝트(1011)를 다른 형태를 갖도록 표시하여 제어할 수 있다. 예를 들면, 제어부(110)는 인식 영상(1030)상의 인식 오브젝트(1031)를 적어도 하나의 점 또는 선, 면 등으로 나타내도록 제어할 수 있다.
도13 내지 도15는 본 발명의 실시예에 따른 인식 오브젝트의 예를 나타낸 도면이다. 도13은 본 발명의 일 실시예에 따른 줌 모션에 대응하는 인식 오브젝트를 나타낸 도면이고, 도14는 본 발명의 일 실시예에 따른 포커싱 모션에 대응하는 인식 오브젝트를 나타낸 도면이고, 도15는 본 발명의 일 실시예에 따른 셔터 모션에 대응하는 인식 오브젝트를 나타낸 도면이다.
도13을 참조하면, 인식 영상(1040)에서 줌 모션에 대응하는 인식 오브젝트는 두 개의 손가락, 예를 들어, 엄지 손가락과 검지 손가락이며, 특히, 각 손가락의 끝점(1041, 1042)이 유효 포인트가 된다. 그리고 각 손가락의 관절 부위에 대응하는 관절점들(1043,1044,1045,1046,1047,1048,1049,1050)이 보조 포인트가 된다. 유효 포인트는 모션 인식의 기준이 되는 포인트로서, 모션 인식 처리 과정에서 실질적인 인식 오브젝트로서 사용된다. 다시 말해, 유효 포인트의 위치 및 움직임 인식 오브젝트의 위치 및 움직임이 된다.
보조 포인트는 손가락의 움직임을 추적하는 과정에서 참조되는 주변 포인트로서, 유효 포인트의 움직임 추적을 보다 정확하게 하기 위해 참조된다.
다시 말해, 제어부(110)는 두 손가락의 끝점(1041, 1042)을 기준으로 두 개의 인식 오브젝트의 위치를 파악하고, 끝점(1041, 1042) 및 관절점들(1043,1044,1045,1046,1047,1048,1049,1050)의 이동을 추적하여, 두 개의 인식 오브젝트의 움직임을 추적한다.
도14를 참조하면, 인식 영상(1060)에서 포커싱 모션에 대응하는 인식 오브젝트는 하나의 손가락, 예를 들어, 검지 손가락이며, 특히, 손가락의 끝점(1061)이 유효 포인트가 된다. 그리고 손가락의 관절 부위에 대응하는 관절점들(1062,1063,1064,1065)이 보조 포인트가 된다.
도15를 참조하면, 인식 영상(1070)에서 셔터 모션에 대응하는 인식 오브젝트는 펼쳐진 다섯 개의 손가락이며, 특히, 각 손가락의 끝점(1071,1072,1073,1074,1075)이 유효 포인트가 된다. 그리고 각 손가락의 뿌리 부위에 각 손가락이 연결되는 지점에 대응하는 연결점들(1076,1077,1078,1079)이 보조 포인트가 된다. 인식 영상(1070)에서 중심 영역(1080)은 다섯 개의 손가락의 각 끝점((1071,1072,1073,1074,1075)을 기준으로 설정된다.
이하의 설명에서 인식 오브젝트의 위치 및 움직임을 추적하는데 이용되는 것은 인식 오브젝트의 유효 포인트이다.
도12로 돌아와서, 제어부(110)는 인식 영상(1030)상 인식 오브젝트(1031,1032)를 점(인식 오브젝트의 유효 포인트에 해당 함.)으로 나타내고, 인식 오브젝트(1031,1032)의 위치를 3차원 좌표로 표시할 수 있다. 3차원 좌표는 x축, y축 및/또는 z축 성분을 포함하고, x축은 인식 영상상 수평방향에 대응하고, y축은 인식 영상상 수직방향에 대응할 수 있다. z축은 인식 영상과 수직하는 방향, 즉 깊이 정보가 나타내는 값에 대응할 수 있다.
인식 영상(1020)에는 줌 모션에 대응하는 인식 오브젝트가 포함되어 있는 것으로 가정하였기 때문에, 인식 영상(1030) 상에 두 개의 인식 오브젝트(1031,1032)가 두 개의 점으로 표현된다. 제어부(110)는 적어도 둘의 인식 영상들을 이용하여 인식 오브젝트의 위치를 추적하고, 움직임의 크기를 산출할 수 있다. 또한, 인식 오브젝트의 움직임의 크기는 x축, y축 및/또는 z축 성분으로 나누어 나타낼 수 있다. 저장부(175)는 카메라(230,235)로부터 획득된 인식 영상(1010)을 저장할 수 있다. 이때, 저장부(175)는 적어도 둘의 인식 영상들을 연속적으로 또는 주기적으로 저장할 수 있다. 또한, 저장부(175)는 제어부(110)에 의해 처리된 인식 영상(1021) 또는 인식 영상(1030)을 저장할 수 있다. 여기서, 인식 오브젝트(1031,1032)의 깊이 정보를 포함하는 인식 영상(1030)을 대신하여, 인식 오브젝트(1031,1032)의 3차원 좌표를 저장할 수도 있다.
또한, 인식 영상(1035)이 격자(grid)로 구분된 가상의 복수의 영역들을 포함하는 경우, 인식 오브젝트(1031,1032)의 좌표는 인식 오브젝트(1031,1032)가 속한 영역 또는 해당 영역의 좌표로 나타내질 수 있다. 구현에 따라, 격자로 구분된 영역들 각각은 인식 영상을 획득하여 윤곽을 형성하는 최소 단위이거나, 제어부(110)에 의해 구획된 영역일 수 있다. 또한, 인식 영상상 영역이 격자로 구분되는 방식과 동일하게, 깊이에 대한 정보가 미리 설정된 단위 크기로 구분될 수도 있다. 인식 영상이 영역들 또는 단위 크기의 깊이들로 구획됨으로써, 인식 오브젝트의 위치 및 인식 오브젝트의 움직임의 크기에 대한 데이터 량이 줄어 들 수 있다.
또한, 인식 영상(1035)상 복수의 영역들 중 일부 영역에 인식 오브젝트(1031)가 속하는 경우, 인식 오브젝트(1031,1032)의 위치 또는 인식 오브젝트(1031,1032)의 움직임이 산출될 때 해당 인식 영상(1035)이 사용되지 않을 수 있다. 즉, 복수의 영역들 중 일부 영역에 인식 오브젝트(1031,1032)가 속할 때, 인식 영상(1035)상 인식 오브젝트(1031,1032)의 움직임이 실제 촬상되는 인식 오브젝트의 움직임과 비교하여 일정 수준이상 다르게 산출되는 경우, 해당 일부 영역에 포함된 인식 오브젝트(1031,1032)의 위치가 사용되지 않을 수 있다. 여기서, 일부 영역은 인식 영상의 모서리에 해당하는 영역들을 포함할 수 있다. 예를 들어, 인식 영상상의 모서리에 해당하는 영역들에 인식 오브젝트가 속하는 경우, 인식 오브젝트의 위치 또는 인식 오브젝트의 움직임을 산출할 때 해당 인식 영상이 사용되지 않도록 미리 설정될 수 있다.
도 16은 깊이에 따른 카메라(230,235)에 의해 촬상되는 면(1100, 1110)과 촬상되는 면(1100, 1110)에 상응하는 인식 영상에 가상으로 구획된 영역들을 나타낸다. 또한, 도 5에서 3차원 축(1120)은 카메라(230,235)로부터 떨어진 손, 즉 인식 오브젝트의 위치를 표시하기 위한 x축, y축 및 z축에 대한 방향을 나타낸다.
저장부(175)는 인식 영상에서 구분되는 복수의 영역들 중 적어도 두 개의 영역들이 가지는 서로 다른 임계값들을 저장할 수 있다. 이때, 임계값은 인식 오브젝트의 움직임의 크기와 비교되는 대상으로서, 이벤트의 발생여부 또는 미리 설정된 이벤트의 발생량 등을 결정하기 위해 사용될 수 있다. 또한, 인식 오브젝트의 움직임의 크기를 나타내는 3차원 성분과 대응하여 임계값은 x축, y축, 또는 z축에 대한 값을 가질 수 있다. 여기서, 이벤트는 줌 모션에 대응하는 두 개의 인식 오브젝트 간의 간격의 변화 또는 포커싱 모션에 대응하는 인식 오브젝트의 터치 패턴 등이 될 수 있다. 예를 들어, 도7 내지 도9의 실시예에서, 줌 모션을 수행하기 위해, 사용자가 엄지 손가락과 검지 손가락의 간격을 조정하면, 조정된 간격에 따라, 줌 배율이 적용된다.
이때, 인식 영상에서 인식 오브젝트의 움직임의 크기와 줌 배율의 변경에 대해 미리 설정된 임계값과 비교함으로써, 카메라(230,235)에 적용될 줌 배율이 결정될 수 있다.
또한, 도11의 실시예에서와 같이, 포커싱 모션에 해당하는 사용자의 손가락의 움직임(즉, 푸시(push))에 대한 반응에 상응하는 이벤트로서, 카메라(230,235)의 포커싱 동작이 수행될 수 있다. 이때, 아이템의 선택에 대한 임계값은 인식 오브젝트의 움직임의 z축 방향 크기를 비교하기 위한 값일 수 있다.
제어부(110)는 인식 오브젝트의 위치로서 인식 영상상 수직방향에 대한 좌표 및 인식 영상상 수평방향에 대한 좌표를 획득할 수 있다. 또한 제어부(110)는 인식 오브젝트의 위치로서 인식 오브젝트와 카메라(230,235)간 거리를 나타내는 인식 오브젝트의 깊이 정보를 획득할 수 있다.
카메라(230,235)가 2차원 카메라로서 일반적인 광학 카메라를 사용하는 경우, 제어부(110)는 획득된 인식 영상으로부터 연산 처리하여 인식 오브젝트를 검출할 수 있다. 제어부(110)는 인식 영상에서 인식 오브젝트의 위치를 획득할 수 있고, 인식 영상에서 인식 오브젝트의 크기 또는 사용자의 크기를 검출할 수 있다. 제어부(110)는 검출된 크기에 따른 깊이 정보의 매핑 테이블을 이용하여, 깊이 정보를 획득할 수 있다.
도 17은 본 발명의 일 실시예에 따른 움직임 정보 생성 과정을 나타내는 순서도이다.
1201단계에서, 카메라(230,235)는 인식 오브젝트를 촬상하여 인식 영상을 획득할 수 있다.
1203단계에서, 제어부(110)는 인식 영상을 이용하여 인식 오브젝트의 움직임의 크기를 산출하고, 인식 오브젝트의 깊이 정보를 검출할 수 있다. 또한, 제어부(110)는 인식 오브젝트의 위치들에 대한 데이터를 이용하여 인식 오브젝트의 움직임의 크기를 검출할 수 있다. 예를 들어, 제어부(110)는 인식 오브젝트의 움직임의 시작 및 끝 위치를 잇는 직선 길이를 움직임의 크기로 산출하거나, 또는 인식 오브젝트의 움직임의 평균적인 위치에 대한 가상의 직선을 생성하고, 생성된 가상의 직선의 길이를 움직임의 크기로 산출할 수도 있다. 또한, 제어부(110)는 센서로부터 획득된 인식 영상으로부터 인식 오브젝트를 식별하고, 식별된 인식 오브젝트의 깊이 정보를 검출할 수 있다.
1205단계에서, 제어부(110)는 깊이 정보를 기초로 인식 영상상 인식 오브젝트의 움직임의 크기를 보상하여, 보정된 움직임을 획득할 수 있다. 제어부(110)는 인식 오브젝트의 위치 또는 인식 오브젝트의 움직임이 속하는 영역에서 인식 오브젝트의 움직임에 상응하는 이벤트가 발생되도록, 인식 오브젝트의 위치 또는 인식 오브젝트의 움직임이 속하는 영역을 기초로 인식 영상에서 인식 오브젝트의 움직임을 보상할 수 있다. 움직임을 보상하는 방식은 위치를 기초로 임계값을 동적으로 선택하는 임계값 동적 선택 방식 및 산출된 움직임의 크기를 보상하는 움직임의 크기 보상 방식 중 적어도 하나일 수 있다.
1207단계에서 제어부(110)는 보정된 움직임을 이용하여 움직임 정보를 생성할 수 있다. 이때, 제어부(110)는 보정된 움직임과 임계값을 비교하여 움직임 정보를 생성하거나, 움직임 정보에 상응하는 인터럽트 신호를 발생시킬 수 있다. 또한, 제어부(110)는 보정된 움직임과 임계값을 비교하는 단계를 생략하고 보정된 움직임을 통해 바로 이벤트를 발생시키도록 인터럽트 신호를 발생시킬 수 있다. 1209단계에서 제어부(110)는 움직임 정보 또는 인터럽트 신호에 상응하는 이벤트가 수행되도록 처리할 수 있다. 예를 들어, 줌 배율의 적용, 포커싱 동작, 촬영 명령 등이 수행되게 할 수 있다.
이하에서 도 18 내지 도 19를 참조하여, 일 실시예의 일 측에 따라 1205단계 및 1207단계를 상세히 설명한다.
도 18의 깊이 정보가 다른 촬상되는 면들(1320, 1330, 1340)상에 위치한 인식 오브젝트의 움직임들(1350)과 인식 영상들(1325, 1335, 1345)상에서 인식 오브젝트의 움직임들(1352, 1354, 1356)이 다를 수 있다. 예를 들어, 촬상되는 면들(1320, 1330, 1340)은 서로 다른 깊이 정보를 갖고, 촬상되는 면들(1320, 1330, 1340) 각각에서 인식 오브젝트가 동일한 움직임들(1350)을 갖는 경우에도, 인식 영상들(1325, 1335, 1345)상에서 인식 오브젝트의 움직임들(1352, 1354, 1356)-예를 들어, 인식 오브젝트의 움직임들(1352, 1354, 1356)은 도 1의 산출부(111)에 의해 산출됨-은 깊이 정보에 따라 서로 다른 움직임의 크기를 가질 수 있다. 즉, 산출부(111)에 의해 산출되는 인식 오브젝트의 움직임의 크기는 카메라(230,235)와 인식 오브젝트간 거리가 클 수록 상대적으로 작다. 여기서, 동일한 움직임들(1350)은 각 움직임을 평행 이동하여 다른 움직임과 일치되는 것일 수 있다. 즉, 동일한 움직임들(1350)은 움직임의 형태 및 움직임의 시작과 끝의 방향이 서로 일치하는 조건을 만족하는 것일 수 있다. 또한, 사용자 인터페이스의 구현에 따라, 동일한 움직임(1350)은 움직임의 속도가 일치하는 조건을 더 만족하는 것일 수 있다. 도 1의 생성부(113)가 인식 오브젝트의 움직임들(1352, 1354, 1356)의 크기를 보상하지 않는 경우, 인식 오브젝트의 움직임들(1352, 1354, 1356) 각각에 대한 사용자 인터페이스의 반응으로서 서로 다른 이벤트가 발생될 수 있다.
1205단계에서, 제어부(110)는 카메라(230,235)의 시야각내에서 서로 다른 깊이 정보를 갖는 위치들에서 인식 오브젝트가 동일한 크기의 움직임을 갖는 경우, 상기 위치들에서 인식 오브젝트의 움직임에 대한 반응으로 동일한 이벤트가 발생되도록 깊이 정보를 이용하여 움직임을 보상함으로써, 예를 들어 도 1의 생성부(113)에 의하여, 움직임 정보가 생성될 수 있다. 1205단계에서, 생성부(113)는 인식 영상상 인식 오브젝트의 움직임의 크기-예를 들어, 인식 오브젝트의 움직임의 크기는 도 1의 산출부(111)에 의해 산출됨-를 깊이 정보가 나타내는 값에 비례하는 값으로 보상함으로써 보정된 움직임의 크기를 획득할 수 있다. 즉, 생성부(113)는 하기 수학식을 이용하여 보정된 움직임의 크기를 획득할 수 있다. 하기 수학식은 움직임의 크기 보상 방식의 일례를 나타낸다.
Figure pat00001
여기서,
Figure pat00002
는 보정된 움직임에 대한 수평방향 크기이고,
Figure pat00003
는 보정된 움직임에 대한 수직방향 크기이고,
Figure pat00004
는 인식 영상에서 인식 오브젝트의 움직임에 대한 수평방향 크기이고,
Figure pat00005
는 인식 영상에서 인식 오브젝트의 움직임에 대한 수직방향 크기이다.
Figure pat00006
는 깊이 정보가 나타내는 값이고,
Figure pat00007
는 카메라의 수평방향 시야각의 1/2 이고,
Figure pat00008
는 카메라의 수직방향 시야각의 1/2 이며,
Figure pat00009
Figure pat00010
각각은 상수를 나타낸다.
도 19의 촬상되는 면(1420)은 카메라(230,235)로부터 깊이 정보가 나타내는 값, 즉 거리 d1 만큼 떨어져 위치하고, 촬상되는 면(1430)은 카메라(230,235)로부터 거리 d2 만큼 떨어져 있을 수 있다. 이때, 촬상되는 면(1420)의 가로 길이는 2*r1 이며, r1은 d1*tan
Figure pat00011
로서 나타낼 수 있고, 촬상되는 면(1430)의 가로 길이는 2*r2 이며, r2는 d2*tan
Figure pat00012
로 나타낼 수 있다. 1205단계에서, 생성부(113)는 산출부(111)에 의해 산출된 인식 영상에서 인식 오브젝트의 움직임의 크기를 깊이 정보가 나타내는 값(d1 또는 d2)에 비례하는 값으로 보상함으로써 보정된 움직임(1455)의 크기를 획득할 수 있다. 즉, 1205단계에서, 생성부(113)는 서로 다른 깊이 정보를 갖는 위치 각각에서 동일한 인식 오브젝트의 움직임(1450)에 대한 반응으로서 동일한 이벤트가 발생되도록 인식 영상에서 인식 오브젝트의 움직임을 보상하여 보정된 움직임(1455)의 크기를 획득할 수 있다. 1207단계1207에서 생성부(113)는 보정된 움직임(1455)에 상응하는 움직임 정보를 생성할 수 있다. 여기서, 움직임 정보는 움직임 정보에 상응하는 이벤트의 발생여부, 미리 설정된 이벤트의 발생량 또는 인터럽트 신호일 수 있다. 또한, 상기 수학식1처럼 움직임의 크기 보상 방식을 대신하여 임계값 동적 선택 방식이 사용될 수도 있다. 예를 들어, 임계값 동적 선택 방식은 생성부(160)가 임계값으로서 깊이 정보가 나타내는 값에 반비례하는 값으로 선택 또는 결정하는 것일 수 있다.
도 20은 일실시예의 다른 측에 따른 움직임 정보 생성 방법을 나타내는 순서도이다.
1501단계에서, 인식 오브젝트를 촬상하여 인식 영상을 획득할 수 있다. 여기서, 인식 영상은 복수의 영역들로 구분되고, 복수의 영역들 중 적어도 두 개의 영역들은 서로 다른 임계값들(thresholds)을 가질 수 있다. 임계값은 인식 오브젝트의 움직임의 크기와 비교되는 대상으로서, 이벤트의 발생여부 또는 미리 설정된 이벤트의 발생량 등을 결정하기 위해 사용될 수 있다. 또한, 제어부(110)는 상기 인식 오브젝트의 위치로서 인식 영상상 수직방향에 대한 좌표, 인식 영상상 수평방향에 대한 좌표를 제공할 수 있다.
1503단계에서, 제어부(110)는 인식 영상을 이용하여 인식 오브젝트의 움직임의 크기를 산출하고, 인식 영상상 인식 오브젝트의 위치를 검출할 수 있다. 또한, 제어부(110)는 인식 오브젝트의 위치들에 대한 데이터를 이용하여 인식 오브젝트의 움직임의 크기를 검출할 수 있다. 또한, 제어부(110)는 인식 영상으로부터 인식 오브젝트를 식별하고, 식별된 인식 오브젝트의 인식 영상상 x축 및/또는 y축 방향의 좌표를 검출할 수 있다.
1505단계에서, 제어부(110)는 인식 오브젝트 또는 인식 오브젝트의 움직임이 복수의 영역들 중 어느 영역에 속하는지 판단할 수 있다. 예를 들어, 복수의 영역들은 도 12의 인식 영상(1035)에 구획된 영역들일 수 있다. 복수의 영역들 중 적어도 둘의 영역들은 서로 다른 임계값들을 가질 수 있다. 인식 오브젝트 또는 인식 오브젝트의 움직임이 속하는 영역은 상기 복수의 영역들 중 적어도 하나의 영역일 수 있다. 예를 들어, 인식 오브젝트의 움직임이 속하는 영역이 복수의 영역이고, 복수의 영역이 서로 다른 임계값을 갖는 경우, 인식 오브젝트의 움직임의 중심점을 인식 오브젝트의 움직임의 위치로 결정할 수 있다.
1507단계에서, 제어부(110)는 인식 오브젝트 또는 인식 오브젝트의 움직임이 속하는 영역에 상응하는 임계값을 제공할 수 있다. 예를 들어, 임계값은 인식 오브젝트의 움직임의 크기를 나타내는 3차원 성분과 대응하여 x축, y축, 및/또는 z축에 대한 값을 가질 수 있다. 임계값은 저장부에 저장될 수 있고, 저장된 임계값은 제어부에 의해 검출되어 인식 오브젝트 또는 인식 오브젝트의 움직임이 속하는 영역에 상응하는 임계값으로 선택될 수 있다.
1509단계에서, 제어부(110)는 제공된 임계값과 움직임의 크기를 비교할 수 있다. 예를 들어, 인식 오브젝트의 움직임이 푸시(push)인 경우, 제어부(110)는 푸시에 대한 이벤트로서 아이템의 선택 여부를 결정하기 위해 인식 오브젝트의 움직임의 z축 방향 크기와 제공된 임계값을 비교할 수 있다.
1509단계에서, 제어부(110)는 제공된 임계값과 움직임의 크기의 비교를 통해 움직임 정보를 생성하거나, 또는 상응하는 이벤트를 발생시키도록 인터럽트 신호를 발생시킬 수 있다. 예를 들어, 아이템의 선택 여부를 결정하기 위해 제공된 임계값이 z축 방향 5cm이고, 산출된 움직임의 z축 방향 크기가 6cm인 경우, 제어부는 임계값과 움직임의 크기의 비교를 통해 인식 오브젝트의 움직임에 대한 이벤트로서 아이템의 선택에 대한 정보를 나타내는 움직임 정보를 생성할 수 있다.
또한, 1509단계에서, 제어부(110)는 보정된 움직임의 크기와 제공된 임계값을 비교하여 움직임 정보를 생성할 수 있다. 제어부(110)는 인식 오브젝트의 깊이 정보를 검출하고, 인식 오브젝트의 움직임의 크기를 깊이 정보를 이용하여 보상함으로써, 보정된 움직임의 크기를 획득할 수 있다. 제어부(110)가 깊이 정보를 이용하여 인식 오브젝트의 움직임의 크기를 보상하는 동작은, 예를 들어 도 16 내지 도 18을 통해 상술하였으므로, 생략한다. 제어부(110)는 보정된 움직임의 크기와 제공된 임계값을 비교하여 움직임 정보를 생성할 수 있다. 또한, 제어부(110)는 보정된 움직임의 크기에 상응하는 이벤트를 발생시키도록 인터럽트 신호를 발생시킬 수 있다.
1513단계에서, 제어부(110)는 움직임 정보 또는 인터럽트 신호에 상응하는 이벤트가 수행되도록 처리할 수 있다. 예를 들어, 포커싱 모션에 따른 동작을 수행할 수 있다. 이하에서 도 21 내지 도 22를 참조하여, 일 실시예의 다른 측에 따라 1507단계, 1509 단계 및 1509 단계를 상세히 설명한다.
카메라의 시야각내에서 동일한 깊이 정보를 갖는 위치들(1620, 1630, 1640)에서 인식 오브젝트가 동일한 움직임을 갖는 경우, 산출되는 인식 영상상 인식 오브젝트의 움직임들(1625, 1635, 1645)은 인식 영상(1650)상 위치에 따라 서로 다른 움직임을 가질 수 있다. 예를 들어, 동일한 인식 오브젝트의 움직임에 대해서, 인식 영상(1650)상 중심 위치(1635)에서 인식 오브젝트의 움직임에 대한 x축 또는 y축 크기는 인식 영상(1650)상 가장자리 위치(1625 또는 1645)에서 인식 오브젝트의 움직임에 대한 x축 또는 y축 크기보다 상대적으로 작을 수 있다. 또한, 동일한 인식 오브젝트의 움직임에 대해서, 인식 영상(1650)상 중심 위치(1635)에서 인식 오브젝트의 움직임에 대한 y축 크기는 인식 영상(1650)상 가장자리 위치(1625 또는 1645)에서 인식 오브젝트의 움직임의 y축 크기보다 상대적으로 클 수 있다. 이때, 인식 오브젝트의 움직임들(1625, 1635, 1645)이, 예를 들어 도 1의 생성부(113)에 의해, 보상되지 않는 경우, 인식 오브젝트의 움직임들(1625, 1635, 1645) 각각에 대한 사용자 인터페이스의 반응으로서 서로 다른 이벤트가 발생될 수 있다.
제어부(110)는 인식 영상(1650)상 서로 다른 위치들 각각에서 인식 오브젝트의 동일한 움직임에 대한 반응으로 동일한 이벤트가 발생되도록 인식 영상(1650)을 이용하여 산출된 인식 오브젝트의 움직임을 보상하여 움직임 정보를 생성할 수 있다. 이처럼, 움직임 정보 생성 장치는 인식 영상상에서의 인식 오브젝트의 움직임을 보상함으로써, 보다 신뢰성 있는 사용자 인터페이스의 반응을 제공할 수 있다.
예를 들어, 제어부(110)는 임계값 동적 선택 방식을 사용하여 인식 오브젝트의 움직임을 보상할 수 있다. 도 22의 인식 영상(1750)은 영역(1710) 및 영역(1720)으로 구분되고, 영역(1710) 및 영역(1720)은 서로 다른 임계값들을 가질 수 있다. 임계값들은 하기 표1과 같이 저장부에 저장될 수 있다.
Tx,Ty Tz
영역(1710) 1cm 5cm
영역(1720) 2.5cm 3.5cm
여기서, Tx는 인식 영상상 수평방향에 대한 임계 값, Ty는 인식 영상상 수직방향에 대한 임계 값(Ty), Tz는 인식 영상과 수직하는 방향에 대한 임계 값이다. 임계값들 각각은 Tx, Ty 및 Tz 중 적어도 하나를 포함할 수 있다. 임계값들 각각은 카메라의 시야각내에서 적어도 두 개의 영역들 각각에서 인식 오브젝트가 동일한 크기의 움직임을 갖는 경우, 적어도 두 개의 영역들에서 인식 오브젝트의 움직임에 대한 반응으로 동일한 이벤트가 발생되도록 적어도 두 개의 영역들 각각에 상응하는 미리 설정된 값을 가질 수 있다. 예를 들어, 인식 오브젝트의 움직임을 보상하기 위한 임계값들의 Tx 및 Ty 각각은 복수의 영역들 중 인식 영상(1750)의 중앙에 위치한 영역(1710)에서의 값이 인식 영상(1750)의 가장자리에 위치한 영역(1720)에서의 값보다 더 작을 수 있다. 또한, 인식 오브젝트의 움직임을 보상하기 위한 임계값들의 Tz는 복수의 영역들 중 인식 영상(1750)의 중앙에 위치한 영역(1710)에서의 값이 인식 영상(1750)의 가장자리에 위치한 영역(1720)에서의 값보다 더 클 수 있다.
또한, 제어부는 움직임의 크기 보상 방식을 사용하여 인식 오브젝트의 움직임을 보상할 수도 있다. 이때, 예를 들어 도 1의 생성부(113)는 산출부(111)에 의해 산출된 움직임의 x축 또는 y축 크기를 인식 영상의 중심으로부터 떨어진 인식 영상상 인식 오브젝트의 거리와 반비례하는 값으로 보상함으로써 보정된 움직임의 크기를 획득할 수 있다. 또한, 생성부는 산출부에 의해 산출된 움직임의 z축 크기를 인식 영상의 중심으로부터 떨어진 인식 영상상 인식 오브젝트의 거리와 비례하는 값으로 보상함으로써 보정된 움직임의 크기를 획득할 수 있다.
또한, 실시예에 따르면, 도 1의 제어부(110)는 인식 영상을 이용하여 인식 오브젝트의 위치를 검출하고, 검출된 위치를 기초로 인식 오브젝트의 움직임에 상응하는 움직임 정보를 생성할 수 있다. 상기 검출된 위치는 제1 위치 및 제2 위치-제1 위치 및 제2 위치는 서로 다른 깊이 정보를 가짐-를 포함할 수 있다. 이때, 제어부(110)는 제1 위치 및 제2 위치 각각에서 인식 오브젝트가 동일한 움직임을 가지는 경우, 상기 움직임에 대응하여 동일한 이벤트가 발생되도록 인식 영상에서 인식 오브젝트의 움직임을 보상하여 움직임 정보를 생성할 수 있다.
예를 들어, 도 18을 참조하면, 제1 위치 및 제2 위치는 촬상되는 면(1420) 및 촬상되는 면(1430)일 수 있다. 제1 위치 및 제2 위치 각각에서 인식 오브젝트의 동일한 움직임은 촬상되는 면(1420, 1430)에서의 인식 오브젝트의 움직임(1450)일 수 있다. 제어부(110)는 인식 오브젝트의 동일한 움직임에 대응하여 동일한 이벤트가 발생되도록 인식 영상에서 인식 오브젝트의 움직임을 보상하여 움직임 정보를 생성할 수 있다.
또한, 실시예에 따르면, 도 1의 제어부(110)는 인식 영상상에서 인식 오브젝트의 위치를 검출하고, 검출된 위치를 이용하여 인식 오브젝트의 움직임에 상응하는 움직임 정보를 생성할 수 있다. 상기 검출된 위치는 제1 위치 및 제2 위치-제1 위치 및 제2 위치는 동일한 깊이 정보를 갖고, 인식 영상의 중심으로부터 수평 거리 및 수직 거리 중 적어도 하나가 서로 다른 값을 가짐-를 포함할 수 있다. 이때, 제어부(110)는 제1 위치 및 제2 위치 각각에서 인식 오브젝트의 움직임에 대한 반응으로 동일한 이벤트가 발생되도록 인식 영상에서 인식 오브젝트의 움직임을 보상하여 움직임 정보를 생성할 수 있다.
예를 들어, 제1 위치 및 제2 위치 각각은 인식 오브젝트의 움직임의 시작 위치일 수 있다. 도 21을 참조하면, 제1 위치는 인식 영상(1650)상 인식 오브젝트의 움직임(1635)의 시작 위치이고, 제2 위치는 인식 영상(1650)상 인식 오브젝트의 움직임(1645)의 시작 위치일 수 있다. 제1 위치 및 제2 위치는 동일한 깊이 정보를 갖고, 인식 영상(1650)의 중심으로부터 수평 거리 및 수직 거리 중 적어도 하나가 서로 다른 값을 가질 수 있다. 이때, 제어부(110)는 제1 위치 및 제2 위치 각각에서 동일한 인식 오브젝트의 움직임(1630, 1640)에 대한 반응으로 동일한 이벤트가 발생되도록 인식 영상에서 인식 오브젝트의 움직임을 보상하여 움직임 정보를 생성할 수 있다.
상술한 본 발명의 설명에서는 구체적인 실시예에 관해 설명하였으나, 여러 가지 변형이 본 발명의 범위에서 벗어나지 않고 실시할 수 있다. 예를 들어, 상기한 실시예에서 비전 인식 모듈(150)은 제어부(110)와 별개인 하드웨어로 모듈로 동작하는 것으로 가정하였으나, 비전 인식 모듈(150)이 소프트웨어 모듈로 구현되어, 제어부(110)에 의해 실행 될 수 있도록 구성할 수도 있다. 이 경우, 비전 인식 모듈(150)의 프로세서는 제어부(110)에 의해 처리될 것이다. 따라서 본 발명의 범위는 설명된 실시예에 의하여 정할 것이 아니고 특허청구범위와 특허청구범위의 균등한 것에 의해 정해 져야 한다.

Claims (24)

  1. 복수의 디지털 카메라를 장착한 휴대용 장치에서 영상 촬영을 제어하는 방법에 있어서,
    제1카메라를 촬영 카메라로 구동하는 과정과,
    제2카메라를 인식용 카메라로 구동하는 과정과,
    상기 인식용 카메라를 통해 생성된 인식 영상에서 촬영 제어 모션을 검출하는 과정과,
    상기 촬영 제어 모션에 대응하여 상기 촬영 카메라의 촬영 동작을 제어하는 과정을 포함함을 특징으로 하는 영상 촬영 제어 방법.
  2. 제1항에 있어서, 사용자 요청에 대응하여 상기 제1카메라를 인식용 카메라로 전환하고, 상기 제2카메라를 촬영 카메라로 전환하는 과정을 더 포함함을 특징으로 하는 영상 촬영 제어 방법.
  3. 제1항에 있어서, 상기 제1카메라는 상기 휴대용 장치의 후면에 장착되고, 상기 제2카메라는 상기 휴대용 장치의 전면에 장착됨을 특징으로 하는 영상 촬영 제어 방법.
  4. 제2항 또는 제3항에 있어서, 상기 촬영 제어 모션은 줌 모션, 셔터 모션, 포커싱 모션 중 어느 하나임을 특징으로 하는 영상 촬영 제어 방법.
  5. 제4항에 있어서, 상기 촬영 제어 모션을 검출하는 과정은,
    상기 인식 영상에서 두 개의 인식 오브젝트를 검출하는 단계와,
    상기 두개의 인식 오브젝트 간의 간격을 실시간으로 검출하는 단계를 포함하고,
    상기 촬영 동작을 제어하는 과정은,
    상기 촬영 제어 모션을 상기 줌 모션으로 결정하는 단계와,
    상기 간격에 비례하여 상기 촬영 카메라의 줌 인 아웃을 제어하는 단계를 포함함을 특징으로 하는 영상 촬영 제어 방법.
  6. 제5항에 있어서, 상기 두 개의 인식 오브젝트는 서로 다른 두 개의 손가락이고, 상기 두 개의 손가락 각각의 끝점의 위치 및 이동을 추적하여, 상기 두 개의 인식 오브젝트의 간격을 실시간으로 검출함을 특징으로 하는 영상 촬영 제어 방법.
  7. 제5항에 있어서, 상기 촬영 카메라의 줌 인 아웃 배율을 나타내는 줌 인디케이터가 디스플레이됨을 특징으로 하는 영상 촬영 제어 방법.
  8. 제4항에 있어서, 상기 촬영 제어 모션을 검출하는 과정은,
    상기 인식 영상에서 다섯 개의 인식 오브젝트를 검출하는 단계와,
    상기 다섯 개의 인식 오브젝트를 기준으로 중심 영역을 설정하는 단계와,
    상기 다섯 개의 인식 오브젝트중 정해진 개수의 인식 오브젝트가 상기 중심 영역 안으로 움직이는 크렌치 패턴을 검출하는 단계를 포함하고,
    상기 촬영 동작을 제어하는 과정은,
    상기 촬영 제어 모션을 상기 셔터 모션으로 결정하는 단계와,
    상기 촬영 카메라의 영상 촬영을 개시하는 단계를 포함함을 특징으로 하는 영상 촬영 제어 방법.
  9. 제8항에 있어서, 상기 다섯 개의 인식 오브젝트는 펼쳐진 다섯 개의 손가락이고, 상기 다섯 개의 손가락 각각의 끝점의 위치 및 이동을 추적하여, 상기 크렌치 패턴을 검출함을 특징으로 하는 영상 촬영 제어 방법.
  10. 제4항에 있어서, 상기 촬영 제어 모션을 검출하는 과정은,
    상기 인식 영상에서 한 개의 인식 오브젝트를 검출하는 단계와,
    상기 인식 오브젝트가 푸시 패턴으로 움직이는 것을 검출하는 단계를 포함하고,
    상기 촬영 동작을 제어하는 과정은,
    상기 촬영 제어 모션을 상기 포커싱 모션으로 결정하는 단계와,
    상기 인식 오브젝트의 위치에 대응하는 지점을 기준으로 상기 촬영 카메라의 포커싱을 제어하는 단계를 포함함을 특징으로 하는 영상 촬영 제어 방법.
  11. 제10항에 있어서, 상기 한 개의 인식 오브젝트는 한 개의 손가락이고, 상기 한 개의 손가락 끝점의 위치 및 이동을 추적하여, 상기 한 개의 인식 오브젝트에 대한 푸시 패턴을 추적함을 특징으로 하는 영상 촬영 제어 방법.
  12. 제10항에 있어서, 상기 인식 오브젝트의 위치에 대응하는 지점에 포커싱 인디케이터가 디스플레이됨을 특징으로 하는 영상 촬영 제어 방법.
  13. 휴대용 장치에서 있어서,
    제1디지털 카메라와,
    제2디지털 카메라와,
    상기 제1디지털 카메라에 의해 생성된 영상을 처리하는 제1이미지 처리 모듈과,
    상기 제2디지털 카메라에 의해 생성된 영상을 처리하는 제2이미지 처리 모듈과,
    상기 제1카메라를 촬영 카메라로 구동하고, 상기 제2카메라를 인식용 카메라로 구동하고, 상기 인식용 카메라를 통해 생성된 인식 영상에서 촬영 제어 모션을 검출하고, 상기 촬영 제어 모션에 대응하여 상기 촬영 카메라의 촬영 동작을 제어하는 제어부를 포함함을 특징으로 하는 휴대용 장치.
  14. 제13항에 있어서, 상기 제어부는 사용자 요청에 대응하여 상기 제1디지털 카메라를 인식용 카메라로 전환하고, 상기 제2디지털 카메라를 촬영 카메라로 전환함을 특징으로 하는 휴대용 장치.
  15. 제13항에 있어서, 상기 제1디지털 카메라는 상기 휴대용 장치의 후면에 장착되고, 상기 제2디지털 카메라는 상기 휴대용 장치의 전면에 장착됨을 특징으로 하는 휴대용 장치.
  16. 제14항 또는 제15항에 있어서, 상기 촬영 제어 모션은 줌 모션, 셔터 모션, 포커싱 모션 중 어느 하나임을 특징으로 하는 휴대용 장치.
  17. 제16항에 있어서, 상기 제어부는 상기 인식 영상에서 두 개의 인식 오브젝트를 검출하고, 상기 두개의 인식 오브젝트 간의 간격을 실시간으로 검출하고, 상기 촬영 제어 모션을 상기 줌 모션으로 결정하고, 상기 간격에 비례하여 상기 촬영 카메라의 줌 인 아웃을 제어함을 특징으로 하는 휴대용 장치.
  18. 제17항에 있어서, 상기 두 개의 인식 오브젝트는 서로 다른 두 개의 손가락이고, 상기 두 개의 손가락 각각의 끝점의 위치 및 이동을 추적하여, 상기 두 개의 인식 오브젝트의 간격을 실시간으로 검출함을 특징으로 하는 휴대용 장치.
  19. 제17항에 있어서, 상기 촬영 카메라의 줌 인 아웃 배율을 나타내는 줌 인디케이터가 디스플레이됨을 특징으로 하는 휴대용 장치.
  20. 제16항에 있어서, 상기 제어부는 상기 인식 영상에서 다섯 개의 인식 오브젝트를 검출하고, 상기 다섯 개의 인식 오브젝트를 기준으로 중심 영역을 설정하고, 상기 다섯 개의 인식 오브젝트중 정해진 개수의 인식 오브젝트가 상기 중심 영역 안으로 움직이는 크렌치 패턴을 검출하고, 상기 촬영 제어 모션을 상기 셔터 모션으로 결정하고, 상기 촬영 카메라의 영상 촬영을 개시함을 특징으로 하는 휴대용 장치.
  21. 제20항에 있어서, 상기 다섯 개의 인식 오브젝트는 펼쳐진 다섯 개의 손가락이고, 상기 다섯 개의 손가락 각각의 끝점의 위치 및 이동을 추적하여, 상기 크렌치 패턴을 검출함을 특징으로 하는 휴대용 장치
  22. 제16항에 있어서, 상기 제어부는 상기 인식 영상에서 한 개의 인식 오브젝트를 검출하고, 상기 인식 오브젝트가 푸시 패턴으로 움직이는 것을 검출하고, 상기 촬영 제어 모션을 상기 포커싱 모션으로 결정하고, 상기 인식 오브젝트의 위치에 대응하는 지점을 기준으로 상기 촬영 카메라의 포커싱을 제어함을 특징으로 하는 휴대용 장치.
  23. 제22항에 있어서, 상기 한 개의 인식 오브젝트는 한 개의 손가락이고, 상기 한 개의 손가락 끝점의 위치 및 이동을 추적하여, 상기 한 개의 인식 오브젝트에 대한 푸시 패턴을 추적함을 특징으로 하는 휴대용 장치.
  24. 제22항에 있어서, 상기 인식 오브젝트의 위치에 대응하는 지점에 포커싱 인디케이터가 디스플레이됨을 특징으로 하는 휴대용 장치.
KR1020130010549A 2013-01-30 2013-01-30 영상 촬영 제어 방법 및 장치 KR20140097876A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130010549A KR20140097876A (ko) 2013-01-30 2013-01-30 영상 촬영 제어 방법 및 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130010549A KR20140097876A (ko) 2013-01-30 2013-01-30 영상 촬영 제어 방법 및 장치

Publications (1)

Publication Number Publication Date
KR20140097876A true KR20140097876A (ko) 2014-08-07

Family

ID=51744992

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130010549A KR20140097876A (ko) 2013-01-30 2013-01-30 영상 촬영 제어 방법 및 장치

Country Status (1)

Country Link
KR (1) KR20140097876A (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160093299A (ko) * 2015-01-29 2016-08-08 엘지이노텍 주식회사 모바일 장치
KR20160106315A (ko) * 2015-03-02 2016-09-12 김성일 화면을 제어하는 방법, 저장 매체 및 이동 단말
WO2019143095A1 (ko) * 2018-01-16 2019-07-25 삼성전자 주식회사 복수의 카메라를 이용하여 영상 데이터를 생성하는 방법 및 서버
US11922648B2 (en) 2021-05-13 2024-03-05 Samsung Electronics Co., Ltd Method for providing image and electronic device supporting the same

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160093299A (ko) * 2015-01-29 2016-08-08 엘지이노텍 주식회사 모바일 장치
KR20210127658A (ko) * 2015-01-29 2021-10-22 엘지이노텍 주식회사 모바일 장치
KR20160106315A (ko) * 2015-03-02 2016-09-12 김성일 화면을 제어하는 방법, 저장 매체 및 이동 단말
WO2019143095A1 (ko) * 2018-01-16 2019-07-25 삼성전자 주식회사 복수의 카메라를 이용하여 영상 데이터를 생성하는 방법 및 서버
US11245933B2 (en) 2018-01-16 2022-02-08 Samsung Electronics Co., Ltd. Method and server for generating image data by using multiple cameras
US11922648B2 (en) 2021-05-13 2024-03-05 Samsung Electronics Co., Ltd Method for providing image and electronic device supporting the same

Similar Documents

Publication Publication Date Title
US10021319B2 (en) Electronic device and method for controlling image display
US9594945B2 (en) Method and apparatus for protecting eyesight
KR102051418B1 (ko) 영상에 포함된 객체를 선택하기 위한 사용자 인터페이스 제어 장치 및 그 방법 그리고 영상 입력 장치
KR101545883B1 (ko) 단말의 카메라 제어 방법 및 그 단말
KR102114377B1 (ko) 전자 장치에 의해 촬영된 이미지들을 프리뷰하는 방법 및 이를 위한 전자 장치
KR102072509B1 (ko) 그룹 리코딩 방법, 저장 매체 및 전자 장치
KR102155836B1 (ko) 터치 스크린 상에서 객체 디스플레이를 제어하는 휴대 단말 및 방법
KR20160006053A (ko) 글래스 타입 단말기 및 그것의 제어방법
KR20140104709A (ko) 휴대 단말에 의해 촬영된 이미지들을 합성하는 방법, 기계로 읽을 수 있는 저장 매체 및 휴대 단말
KR20140136732A (ko) 파노라마 사진의 썸네일 이미지 표시 장치, 방법 및 컴퓨터 판독 가능한 기록 매체
CN112532887B (zh) 一种拍摄方法、装置、终端及存储介质
KR20140097876A (ko) 영상 촬영 제어 방법 및 장치
EP4195647A1 (en) Image processing method, mobile terminal, and storage medium
KR20140110646A (ko) 사용자 단말 및 사용자 단말에서 화면 표시 방법
CN113613053B (zh) 视频推荐方法、装置、电子设备及存储介质
CN113592874A (zh) 图像显示方法、装置和计算机设备
KR102146832B1 (ko) 스타일러스 펜의 입력 지점을 측정하는 전자 장치 및 그 제어 방법
KR102160954B1 (ko) 영상에 포함된 객체를 선택하기 위한 사용자 인터페이스 제어 장치 및 그 방법 그리고 영상 입력 장치
CN113242466B (zh) 视频剪辑方法、装置、终端及存储介质
CN113467682B (zh) 控制地图覆盖物移动的方法、装置、终端及存储介质
KR20180027191A (ko) 단말기 및 그 제어 방법
KR20160093890A (ko) 이동단말기 및 그 제어방법
KR20150070084A (ko) 단말의 카메라 제어 방법 및 그 단말
KR20160086142A (ko) 이동 단말기
KR20150115627A (ko) 이동 단말기 및 그것의 제어방법

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid