KR20170139408A - 듀얼 카메라가 장착된 동영상 촬영 장치 - Google Patents

듀얼 카메라가 장착된 동영상 촬영 장치 Download PDF

Info

Publication number
KR20170139408A
KR20170139408A KR1020160071932A KR20160071932A KR20170139408A KR 20170139408 A KR20170139408 A KR 20170139408A KR 1020160071932 A KR1020160071932 A KR 1020160071932A KR 20160071932 A KR20160071932 A KR 20160071932A KR 20170139408 A KR20170139408 A KR 20170139408A
Authority
KR
South Korea
Prior art keywords
camera unit
unit
image
camera
information
Prior art date
Application number
KR1020160071932A
Other languages
English (en)
Inventor
이준우
채규열
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020160071932A priority Critical patent/KR20170139408A/ko
Priority to PCT/KR2017/005331 priority patent/WO2017213365A1/en
Priority to CN201780034609.2A priority patent/CN109219957A/zh
Priority to EP17810488.1A priority patent/EP3469422B1/en
Priority to US15/619,328 priority patent/US10694126B2/en
Publication of KR20170139408A publication Critical patent/KR20170139408A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B19/00Cameras
    • G03B19/18Motion-picture cameras
    • G03B19/22Double cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/617Noise processing, e.g. detecting, correcting, reducing or removing noise for reducing electromagnetic interference, e.g. clocking noise
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/56Accessories
    • G03B17/561Support related camera accessories
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B3/00Focusing arrangements of general interest for cameras, projectors or printers
    • G03B3/10Power-operated focusing
    • G03B3/12Power-operated focusing adapted for remote control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/81Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • H04N5/217
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/188Capturing isolated or intermittent images triggered by the occurrence of a predetermined event, e.g. an object reaching a predetermined position
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B2205/00Adjustment of optical system relative to image or object surface other than for focusing
    • G03B2205/0053Driving means for the movement of one or more optical element
    • G03B2205/0069Driving means for the movement of one or more optical element using electromagnetic actuators, e.g. voice coils

Abstract

듀얼 카메라가 장착된 동영상 촬영 장치가 개시된다. 본 발명의 실시 예에 따른 듀얼 카메라가 장착된 동영상 촬영 장치는, 영상을 수신하는 제1 카메라부, 상기 영상을 수신하는 제2 카메라부, 및, 상기 제1 카메라부를 이용하여 동영상을 촬영하고, 상기 제2 카메라부를 통하여 수신되는 영상에 기초하여 최종 보정 정보를 획득하고, 상기 최종 보정 정보에 기초하여 상기 동영상을 촬영하도록 상기 제1 카메라부를 제어하는 제어부를 포함한다.

Description

듀얼 카메라가 장착된 동영상 촬영 장치{MOVING PICTURE PHOTOGRAPHING APPARATUS HAVING DUAL CAMERAS}
본 발명은, 제2 카메라부를 이용하여 최종 보정 정보를 획득하고 최종 보정 정보에 따라 제1 카메라부를 제어함으로써, 제1 카메라부를 통하여 녹화되는 동영상의 왜곡을 방지할 수 있는 듀얼 카메라가 장착된 동영상 촬영 장치에 관한 것이다.
단말기는 이동 가능여부에 따라 이동 단말기(mobile/portable terminal) 및 고정 단말기(stationary terminal)으로 나뉠 수 있다. 다시 이동 단말기는 사용자의 직접 휴대 가능 여부에 따라 휴대(형) 단말기(handheld terminal) 및 거치형 단말기(vehicle mounted terminal)로 나뉠 수 있다.
한편, 최근의 이동 단말기나 기타 휴대용 전자 기기 등은 다양한 기능을 수행하는 것이 일반적이다. 카메라 모듈을 내장하여 사진 촬영 기능이나 동영상 촬영 기능 등을 제공하는 것이 그 대표적인 예이다.
또한, 이동 단말기나 기타 휴대용 전자 기기 등은, 촬영에 있어서 부가 기능, 예를 들어 자동 초점(Auto Focus, AF) 기능, 자동 노출(Auto Exposure, AE) 기능, 자동 화이트 밸런스(Auto White Balance, AWB) 기능 등을 제공함으로써, 사용자에게 편리함을 제공하고 있다.
한편, 자동 초점(Auto Focus, AF) 기능, 자동 노출(Auto Exposure, AE) 기능, 자동 화이트 밸런스(Auto White Balance, AWB) 기능 등에 의하여, 촬영 장치는 영상, 노출, 조명 등의 촬영 환경이 변화하는 경우 자동으로 보정을 수행하게 된다.
다만, 동영상을 촬영하는 동안 급격한 환경의 변화가 있는 경우, 촬영 장치가 급격한 환경의 변화에 대응하여 새로운 세팅 값으로 보정을 수행하기 까지는 시간이 소요되며, 보정을 수행하는 동안의 왜곡된 영상이 그대로 녹화될 수 있는 문제점이 있었다.
본 발명은 상술한 문제점을 해결하기 위한 것으로, 본 발명의 목적은, 제2 카메라부를 이용하여 최종 보정 정보를 획득하고 최종 보정 정보에 따라 제1 카메라부를 제어함으로써, 제1 카메라부를 통하여 녹화되는 동영상의 왜곡을 방지할 수 있는 듀얼 카메라가 장착된 동영상 촬영 장치를 제공하기 위함이다.
본 발명의 일 실시 예에 따른 듀얼 카메라가 장착된 동영상 촬영 장치는, 영상을 수신하는 제1 카메라부, 상기 영상을 수신하는 제2 카메라부, 및, 상기 제1 카메라부를 이용하여 동영상을 촬영하고, 상기 제2 카메라부를 통하여 수신되는 영상에 기초하여 최종 보정 정보를 획득하고, 상기 최종 보정 정보에 기초하여 상기 동영상을 촬영하도록 상기 제1 카메라부를 제어하는 제어부를 포함한다.
도 1a는본 발명과 관련된 이동 단말기를 설명하기 위한 블록도이다.
도1b 및 1c는 본 발명과 관련된 이동 단말기의 일 예를 서로 다른 방향에서 바라본 개념도이다.
도 2는, 본 발명의 실시 예에 따른 듀얼 카메라를 장착한 이동 단말기를 설명하기 위한 도면이다.
도 3및 도 4는, 본 발명의 실시 예에 따른, 제1 카메라부 및 제2 카메라부의 구성을 보여주는 단면도이다.
도 5 내지 도 7은 이동 코일과 고정 코일의 전기 배선을 보여주는 도면이다.
도 8은 본 발명의 실시예에 따른 카메라 모듈의 오토 포커스 제어부를 보여주는 블럭 구성도이다.
도 9은 도 8의 검출부를 보여주는 회로도이다.
도 10은 도 3의 고정 코일과 이동 코일 사이의 전자기 유도 현상을 설명하기 위한 도면이다.
도 11a 내지 도 12c는, 본 발명의 실시 예에 따른, 동영상 촬영시 발생할 수 있는 왜곡 현상을 설명하기 위한 도면이다.
도 12는, 본 발명의 실시 예에 따른, 듀얼 카메라가 장착된 동영상 촬영 장치의 동영상 촬영 방법을 설명하기 위한 흐름도이다.
도 13은, 본 발명의 실시 예에 따른 제1 카메라부(200) 및 제2 카메라부(300)를 통하여 수신되는 영상을 도시한 도면이다.
도 14a 및 도 14b는 본 발명의 실시 예에 따른, 영상의 변화로 인하여 급격한 초점 변화가 수행되어야 하는 경우를 설명하기 위한 도면이다.
도 15a는 보정 정보에 기초하여 제2 카메라부(300)가 제어된 경우 제1 카메라부(200)를 통하여 촬영되는 영상(1510)을 도시한 도면이다.
도 15b는 보정 정보에 기초하여 제2 카메라부(300)가 제어된 경우 제2 카메라부(300)를 통하여 촬영되는 영상(1520)을 도시한 도면이다.
도 16은, 본 발명의 실시 예에 따른 제2 카메라부(300)를 통하여 촬영된 영상(1610)을 도시한 도면이다.
도 17은 본 발명의 실시 예에 따른, 최종 보정 정보에 기초하여 제1 카메라부(100)를 제어한 후, 제어된 제1 카메라부(100)를 이용하여 촬영한 동영상의 한 장면(1710)을 도시한 도면이다.
도 18a 내지 도 21b는 본 발명의 실시 예에 따른, 동영상의 자동 보정을 시작하기 위한 트리거링 정보의 획득 방법을 설명하기 위한 도면이다.
도 22 내지 도 26은 본 발명의 실시 예에 따른 조명이 갑자기 어두운 경우의 동작 방법을 설명하기 위한 도면이다.
도 27 내지 도 31은, 본 발명의 실시 예에 따른 초점 대상 피사체가 변경되는 경우의 동작 방법을 설명하기 위한 도면이다.
도 32a 내지 도 32c는 본 발명의 실시 예에 따른, 최종 보정 정보가 획득된 후의 제1 카메라부(200)의 제어 방법을 설명하기 위한 도면이다.
도 33은, 본 발명의 실시 예에 따른 듀얼 카메라를 이용한 영상의 합성 방법을 설명하기 위한 도면이다.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
본 명세서에서 설명되는 이동 단말기에는 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 슬레이트 PC(slate PC), 태블릿 PC(tablet PC), 울트라북(ultrabook), 웨어러블 디바이스(wearable device, 예를 들어, 워치형 단말기 (smartwatch), 글래스형 단말기 (smart glass), HMD(head mounted display)) 등이 포함될 수 있다.
그러나, 본 명세서에 기재된 실시 예에 따른 구성은 이동 단말기에만 적용 가능한 경우를 제외하면, 디지털 TV, 데스크탑 컴퓨터, 디지털사이니지 등과 같은 고정 단말기에도 적용될 수도 있음을 본 기술분야의 당업자라면 쉽게 알 수 있을 것이다.
도 1a 내지 도 1c를 참조하면, 도 1a는본 발명과 관련된 이동 단말기를 설명하기 위한 블록도이고, 도1b 및 1c는 본 발명과 관련된 이동 단말기의 일 예를 서로 다른 방향에서 바라본 개념도이다.
상기 이동 단말기(100)는 무선 통신부(110), 입력부(120), 감지부(140), 출력부(150), 인터페이스부(160), 메모리(170), 제어부(180) 및 전원 공급부(190) 등을 포함할 수 있다.
도 1a에 도시된 구성요소들은 이동 단말기를 구현하는데 있어서 필수적인 것은 아니어서, 본 명세서 상에서 설명되는 이동 단말기는 위에서 열거된 구성요소들보다 많거나, 또는 적은 구성요소들을 가질 수 있다.
보다 구체적으로, 상기 구성요소들 중 무선 통신부(110)는, 이동 단말기(100)와 무선 통신 시스템 사이, 이동 단말기(100)와 다른 이동 단말기(100) 사이, 또는 이동 단말기(100)와 외부서버 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 또한, 상기 무선 통신부(110)는, 이동 단말기(100)를 하나 이상의 네트워크에 연결하는 하나 이상의 모듈을 포함할 수 있다.
이러한 무선 통신부(110)는, 방송 수신 모듈(111), 이동통신 모듈(112), 무선 인터넷 모듈(113), 근거리 통신 모듈(114), 위치정보 모듈(115) 중 적어도 하나를 포함할 수 있다.
입력부(120)는, 영상 신호 입력을 위한 카메라(121) 또는 영상 입력부, 오디오 신호 입력을 위한 마이크로폰(microphone, 122), 또는 오디오 입력부, 사용자로부터 정보를 입력 받기 위한 사용자 입력부(123, 예를 들어, 터치키(touch key), 푸시키(mechanical key) 등)를 포함할 수 있다. 입력부(120)에서 수집한 음성 데이터나 이미지 데이터는 분석되어 사용자의 제어명령으로 처리될 수 있다.
센싱부(140)는 이동 단말기 내 정보, 이동 단말기를 둘러싼 주변 환경 정보 및 사용자 정보 중 적어도 하나를 센싱하기 위한 하나 이상의 센서를 포함할 수 있다.
예를 들어, 센싱부(140)는 근접센서(141, proximity sensor), 조도 센서(142, illumination sensor), 터치 센서(touch sensor), 가속도 센서(acceleration sensor), 자기 센서(magnetic sensor), 중력 센서(G-sensor), 자이로스코프 센서(gyroscope sensor), 모션 센서(motion sensor), RGB 센서, 적외선 센서(IR 센서: infrared sensor), 지문인식 센서(finger scan sensor), 초음파 센서(ultrasonic sensor), 광 센서(optical sensor, 예를 들어, 카메라(121 참조)), 마이크로폰(microphone, 122 참조), 배터리 게이지(battery gauge), 환경 센서(예를 들어, 기압계, 습도계, 온도계, 방사능 감지 센서, 열 감지 센서, 가스 감지 센서 등), 화학 센서(예를 들어, 전자 코, 헬스케어 센서, 생체 인식 센서 등) 중 적어도 하나를 포함할 수 있다. 한편, 본 명세서에 개시된 이동 단말기는, 이러한 센서들 중 적어도 둘 이상의 센서에서 센싱되는 정보들을 조합하여 활용할 수 있다.
출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 디스플레이부(151), 음향 출력부(152), 햅팁 모듈(153), 광 출력부(154) 중 적어도 하나를 포함할 수 있다. 디스플레이부(151)는 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치 스크린을 구현할 수 있다. 이러한 터치 스크린은, 이동 단말기(100)와 사용자 사이의 입력 인터페이스를 제공하는 사용자 입력부(123)로써 기능함과 동시에, 이동 단말기(100)와 사용자 사이의 출력 인터페이스를 제공할 수 있다.
인터페이스부(160)는 이동 단말기(100)에 연결되는 다양한 종류의 외부 기기와의 통로 역할을 수행한다. 이러한 인터페이스부(160)는, 유/무선 헤드셋 포트(port), 외부 충전기 포트(port), 유/무선 데이터 포트(port), 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트(port), 오디오 I/O(Input/Output) 포트(port), 비디오 I/O(Input/Output) 포트(port), 이어폰 포트(port)중 적어도 하나를 포함할 수 있다. 이동 단말기(100)에서는, 상기 인터페이스부(160)에 외부 기기가 연결되는 것에 대응하여, 연결된 외부 기기와 관련된 적절할 제어를 수행할 수 있다.
또한, 메모리(170)는 이동 단말기(100)의 다양한 기능을 지원하는 데이터를 저장한다. 메모리(170)는 이동 단말기(100)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 이동 단말기(100)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다. 또한 이러한 응용 프로그램 중 적어도 일부는, 이동 단말기(100)의 기본적인 기능(예를 들어, 전화 착신, 발신 기능, 메시지 수신, 발신 기능)을 위하여 출고 당시부터 이동 단말기(100)상에 존재할 수 있다. 한편, 응용 프로그램은, 메모리(170)에 저장되고, 이동 단말기(100) 상에 설치되어, 제어부(180)에 의하여 상기 이동 단말기의 동작(또는 기능)을 수행하도록 구동될 수 있다.
제어부(180)는 상기 응용 프로그램과 관련된 동작 외에도, 통상적으로 이동 단말기(100)의 전반적인 동작을 제어한다. 제어부(180)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 메모리(170)에 저장된 응용 프로그램을 구동함으로써, 사용자에게 적절한 정보 또는 기능을 제공 또는 처리할 수 있다.
또한, 제어부(180)는 메모리(170)에 저장된 응용 프로그램을 구동하기 위하여, 도 1a와 함께 살펴본 구성요소들 중 적어도 일부를 제어할 수 있다. 나아가, 제어부(180)는 상기 응용프로그램의 구동을 위하여, 이동 단말기(100)에 포함된 구성요소들 중 적어도 둘 이상을 서로 조합하여 동작시킬 수 있다.
전원공급부(190)는 제어부(180)의 제어 하에서, 외부의 전원, 내부의 전원을 인가 받아 이동 단말기(100)에 포함된 각 구성요소들에 전원을 공급한다. 이러한 전원공급부(190)는 배터리를 포함하며, 상기 배터리는 내장형 배터리 또는 교체 가능한 형태의 배터리가 될 수 있다.
이하에서는, 위에서 살펴본 이동 단말기(100)를 통하여 구현되는 다양한 실시 예들을 살펴보기에 앞서, 위에서 열거된 구성요소들에 대하여 도 1a를 참조하여 보다 구체적으로 살펴본다.
먼저, 무선 통신부(110)에 대하여 살펴보면, 무선 통신부(110)의 방송 수신 모듈(111)은 방송 채널을 통하여 외부의 방송 관리 서버로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. 상기 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 적어도 두 개의 방송 채널들에 대한 동시 방송 수신 또는 방송 채널 스위칭을 위해 둘 이상의 상기 방송 수신 모듈이 상기 이동단말기(100)에 제공될 수 있다.
상기 방송 관리 서버는, 방송 신호 및/또는 방송 관련 정보를 생성하여 송신하는 서버 또는 기 생성된 방송 신호 및/또는 방송 관련 정보를 제공받아 단말기에 송신하는 서버를 의미할 수 있다. 상기 방송 신호는, TV 방송 신호, 라디오 방송 신호, 데이터 방송 신호를 포함할 뿐만 아니라, TV 방송 신호 또는 라디오 방송 신호에 데이터 방송 신호가 결합한 형태의 방송 신호도 포함할 수 있다.
상기 방송 신호는 디지털 방송 신호의 송수신을 위한 기술표준들(또는방송방식, 예를들어, ISO, IEC, DVB, ATSC 등) 중 적어도 하나에 따라 부호화될 수 있으며, 방송 수신 모듈(111)은 상기 기술 표준들에서 정한 기술규격에 적합한 방식을 이용하여 상기 디지털 방송 신호를 수신할 수 있다.
상기 방송 관련 정보는, 방송 채널, 방송 프로그램 또는 방송 서비스 제공자에 관련된 정보를 의미할 수 있다. 상기 방송 관련 정보는, 이동통신망을 통하여도 제공될 수 있다. 이러한 경우에는 상기 이동통신 모듈(112)에 의해 수신될 수 있다.
상기 방송 관련 정보는 예를 들어, DMB(Digital Multimedia Broadcasting)의 EPG(Electronic Program Guide) 또는 DVB-H(Digital Video Broadcast-Handheld)의 ESG(Electronic Service Guide) 등의 다양한 형태로 존재할 수 있다. 방송 수신 모듈(111)을 통해 수신된 방송 신호 및/또는 방송 관련 정보는 메모리(160)에 저장될 수 있다.
이동통신 모듈(112)은, 이동통신을 위한 기술표준들 또는 통신방식(예를 들어, GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), CDMA2000(Code Division Multi Access 2000), EV-DO(Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), WCDMA(Wideband CDMA), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced) 등)에 따라 구축된 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다.
상기 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.
무선 인터넷 모듈(113)은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 이동 단말기(100)에 내장되거나 외장될 수 있다. 무선 인터넷 모듈(113)은 무선 인터넷 기술들에 따른 통신망에서 무선 신호를 송수신하도록 이루어진다.
무선 인터넷 기술로는, 예를 들어 WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), Wi-Fi(Wireless Fidelity) Direct, DLNA(Digital Living Network Alliance), WiBro(Wireless Broadband), WiMAX(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced) 등이 있으며, 상기 무선 인터넷 모듈(113)은 상기에서 나열되지 않은 인터넷 기술까지 포함한 범위에서 적어도 하나의 무선 인터넷 기술에 따라 데이터를 송수신하게 된다.
WiBro, HSDPA, HSUPA, GSM, CDMA, WCDMA, LTE, LTE-A 등에 의한 무선인터넷 접속은 이동통신망을 통해 이루어진다는 관점에서 본다면, 상기 이동통신망을 통해 무선인터넷 접속을 수행하는 상기 무선 인터넷 모듈(113)은 상기 이동통신 모듈(112)의 일종으로 이해될 수도 있다.
근거리 통신 모듈(114)은 근거리 통신(Short range communication)을 위한 것으로서, 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication), Wi-Fi(Wireless-Fidelity), Wi-Fi Direct, Wireless USB(Wireless Universal Serial Bus) 기술 중 적어도 하나를 이용하여, 근거리 통신을 지원할 수 있다. 이러한, 근거리 통신 모듈(114)은, 근거리 무선 통신망(Wireless Area Networks)을 통해 이동 단말기(100)와 무선 통신 시스템 사이, 이동 단말기(100)와 다른 이동 단말기(100) 사이, 또는 이동 단말기(100)와 다른 이동 단말기(100, 또는 외부서버)가 위치한 네트워크 사이의 무선 통신을 지원할 수 있다. 상기 근거리 무선 통신망은 근거리 무선 개인 통신망(Wireless Personal Area Networks)일 수 있다.
여기에서, 다른 이동 단말기(100)는 본 발명에 따른 이동 단말기(100)와 데이터를 상호 교환하는 것이 가능한(또는 연동 가능한) 웨어러블 디바이스(wearable device, 예를 들어, 스마트워치(smartwatch), 스마트 글래스(smart glass), HMD(head mounted display))가 될 수 있다. 근거리 통신 모듈(114)은, 이동 단말기(100) 주변에, 상기 이동 단말기(100)와 통신 가능한 웨어러블 디바이스를 감지(또는 인식)할 수 있다. 나아가, 제어부(180)는 상기 감지된 웨어러블 디바이스가 본 발명에 따른 이동 단말기(100)와 통신하도록 인증된 디바이스인 경우, 이동 단말기(100)에서 처리되는 데이터의 적어도 일부를, 상기 근거리 통신 모듈(114)을 통해 웨어러블 디바이스로 전송할 수 있다. 따라서, 웨어러블 디바이스의 사용자는, 이동 단말기(100)에서 처리되는 데이터를, 웨어러블 디바이스를 통해 이용할 수 있다. 예를 들어, 이에 따르면 사용자는, 이동 단말기(100)에 전화가 수신된 경우, 웨어러블 디바이스를 통해 전화 통화를 수행하거나, 이동 단말기(100)에 메시지가 수신된 경우, 웨어러블 디바이스를 통해 상기 수신된 메시지를 확인하는 것이 가능하다.
위치정보 모듈(115)은 이동 단말기의 위치(또는 현재 위치)를 획득하기 위한 모듈로서, 그의 대표적인 예로는 GPS(Global Positioning System) 모듈 또는 WiFi(Wireless Fidelity) 모듈이 있다. 예를 들어, 이동 단말기는 GPS모듈을 활용하면, GPS 위성에서 보내는 신호를 이용하여 이동 단말기의 위치를 획득할 수 있다.
다른 예로서, 이동 단말기는 Wi-Fi모듈을 활용하면, Wi-Fi모듈과 무선신호를 송신 또는 수신하는 무선 AP(Wireless Access Point)의 정보에 기반하여, 이동 단말기의 위치를 획득할 수 있다. 필요에 따라서, 위치정보모듈(115)은 치환 또는 부가적으로 이동 단말기의 위치에 관한 데이터를 얻기 위해 무선 통신부(110)의 다른 모듈 중 어느 기능을 수행할 수 있다. 위치정보모듈(115)은 이동 단말기의 위치(또는 현재 위치)를 획득하기 위해 이용되는 모듈로, 이동 단말기의 위치를 직접적으로 계산하거나 획득하는 모듈로 한정되지는 않는다.
다음으로, 입력부(120)는 영상 정보(또는 신호), 오디오 정보(또는 신호), 데이터, 또는 사용자로부터 입력되는 정보의 입력을 위한 것으로서, 영상 정보의 입력을 위하여, 이동 단말기(100) 는 하나 또는 복수의 카메라(121)를 구비할 수 있다. 카메라(121)는 화상 통화모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 처리된 화상 프레임은 디스플레이부(151)에 표시되거나 메모리(170)에 저장될 수 있다. 한편, 이동 단말기(100)에 구비되는 복수의 카메라(121)는 매트릭스 구조를 이루도록 배치될 수 있으며, 이와 같이 매트릭스 구조를 이루는 카메라(121)를 통하여, 이동 단말기(100)에는 다양한 각도 또는 초점을 갖는 복수의 영상정보가 입력될 수 있다. 또한, 복수의 카메라(121)는 입체영상을 구현하기 위한 좌 영상 및 우 영상을 획득하도록, 스트레오 구조로 배치될 수 있다.
마이크로폰(122)은 외부의 음향 신호를 전기적인 음성 데이터로 처리한다. 처리된 음성 데이터는 이동 단말기(100)에서 수행 중인 기능(또는 실행 중인 응용 프로그램)에 따라 다양하게 활용될 수 있다. 한편, 마이크로폰(122)에는 외부의 음향 신호를 입력 받는 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수 있다.
사용자 입력부(123)는 사용자로부터 정보를 입력 받기 위한 것으로서, 사용자 입력부(123)를 통해 정보가 입력되면, 제어부(180)는 입력된 정보에 대응되도록 이동 단말기(100)의 동작을 제어할 수 있다. 이러한, 사용자 입력부(123)는 기계식 (mechanical) 입력수단(또는, 메커니컬 키, 예를 들어, 이동 단말기(100)의 전?후면 또는 측면에 위치하는 버튼, 돔 스위치 (dome switch), 조그 휠, 조그 스위치 등) 및 터치식 입력수단을 포함할 수 있다. 일 예로서, 터치식 입력수단은, 소프트웨어적인 처리를 통해 터치스크린에 표시되는 가상 키(virtual key), 소프트 키(soft key) 또는 비주얼 키(visual key)로 이루어지거나, 상기 터치스크린 이외의 부분에 배치되는 터치 키(touch key)로 이루어질 수 있 한편, 상기 가상키 또는 비주얼 키는, 다양한 형태를 가지면서 터치스크린 상에 표시되는 것이 가능하며, 예를 들어, 그래픽(graphic), 텍스트(text), 아이콘(icon), 비디오(video) 또는 이들의 조합으로 이루어질 수 있다.
한편, 센싱부(140)는 이동 단말기 내 정보, 이동 단말기를 둘러싼 주변 환경 정보 및 사용자 정보 중 적어도 하나를 센싱하고, 이에 대응하는 센싱 신호를 발생시킨다. 제어부(180)는 이러한 센싱 신호에 기초하여, 이동 단말기(100)의 구동 또는 동작을 제어하거나, 이동 단말기(100)에 설치된 응용 프로그램과 관련된 데이터 처리, 기능 또는 동작을 수행 할 수 있다. 센싱부(140)에 포함될 수 있는 다양한 센서 중 대표적인 센서들의 대하여, 보다 구체적으로 살펴본다.
먼저, 근접 센서(141)는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선 등을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 이러한 근접 센서(141)는 위에서 살펴본 터치 스크린에 의해 감싸지는 이동 단말기의 내부 영역 또는 상기 터치 스크린의 근처에 근접 센서(141)가 배치될 수 있다.
근접 센서(141)의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전 용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다. 터치 스크린이 정전식인 경우에, 근접 센서(141)는 전도성을 갖는 물체의 근접에 따른 전계의 변화로 상기 물체의 근접을 검출하도록 구성될 수 있다. 이 경우 터치 스크린(또는 터치 센서) 자체가 근접 센서로 분류될 수 있다.
한편, 설명의 편의를 위해, 터치 스크린 상에 물체가 접촉되지 않으면서 근접되어 상기 물체가 상기 터치 스크린 상에 위치함이 인식되도록 하는 행위를 "근접 터치(proximity touch)"라고 명명하고, 상기 터치 스크린 상에 물체가 실제로 접촉되는 행위를 "접촉 터치(contact touch)"라고 명명한다. 상기 터치 스크린 상에서 물체가 근접 터치 되는 위치라 함은, 상기 물체가 근접 터치될 때 상기 물체가 상기 터치 스크린에 대해 수직으로 대응되는 위치를 의미한다. 상기 근접 센서(141)는, 근접 터치와, 근접 터치 패턴(예를 들어, 근접 터치 거리, 근접 터치 방향, 근접 터치 속도, 근접 터치 시간, 근접 터치 위치, 근접 터치 이동 상태 등)을 감지할 수 있다.
한편, 제어부(180)는 위와 같이, 근접 센서(141)를 통해 감지된 근접 터치 동작 및 근접 터치 패턴에 상응하는 데이터(또는 정보)를 처리하며, 나아가, 처리된 데이터에 대응하는 시각적인 정보를 터치 스크린상에 출력시킬 수 있다. 나아가, 제어부(180)는, 터치 스크린 상의 동일한 지점에 대한 터치가, 근접 터치인지 또는 접촉 터치인지에 따라, 서로 다른 동작 또는 데이터(또는 정보)가 처리되도록 이동 단말기(100)를 제어할 수 있다.
터치 센서는 저항막 방식, 정전용량 방식, 적외선 방식, 초음파 방식, 자기장 방식 등 여러 가지 터치방식 중 적어도 하나를 이용하여 터치 스크린(또는 디스플레이부(151))에 가해지는 터치(또는 터치입력)을 감지한다.
일 예로서, 터치 센서는, 터치 스크린의 특정 부위에 가해진 압력 또는 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는, 터치 스크린 상에 터치를 가하는 터치 대상체가 터치 센서 상에 터치 되는 위치, 면적, 터치 시의 압력, 터치 시의 정전 용량 등을 검출할 수 있도록 구성될 수 있다. 여기에서, 터치 대상체는 상기 터치 센서에 터치를 인가하는 물체로서, 예를 들어, 손가락, 터치펜 또는 스타일러스 펜(Stylus pen), 포인터 등이 될 수 있다.
이와 같이, 터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어부(180)로 전송한다. 이로써, 제어부(180)는 디스플레이부(151)의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다. 여기에서, 터치 제어기는, 제어부(180)와 별도의 구성요소일 수 있고, 제어부(180) 자체일 수 있다.
한편, 제어부(180)는, 터치 스크린(또는 터치 스크린 이외에 구비된 터치키)을 터치하는, 터치 대상체의 종류에 따라 서로 다른 제어를 수행하거나, 동일한 제어를 수행할 수 있다. 터치 대상체의 종류에 따라 서로 다른 제어를 수행할지 또는 동일한 제어를 수행할 지는, 현재 이동 단말기(100)의 동작상태 또는 실행 중인 응용 프로그램에 따라 결정될 수 있다.
한편, 위에서 살펴본 터치 센서 및 근접 센서는 독립적으로 또는 조합되어, 터치 스크린에 대한 숏(또는 탭) 터치(short touch), 롱 터치(long touch), 멀티 터치(multi touch), 드래그 터치(drag touch), 플리크 터치(flick touch), 핀치-인 터치(pinch-in touch), 핀치-아웃 터치(pinch-out 터치), 스와이프(swype) 터치, 호버링(hovering) 터치 등과 같은, 다양한 방식의 터치를 센싱할 수 있다.
초음파 센서는 초음파를 이용하여, 감지대상의 위치정보를 인식할 수 있다. 한편 제어부(180)는 광 센서와 복수의 초음파 센서로부터 감지되는 정보를 통해, 파동 발생원의 위치를 산출하는 것이 가능하다. 파동 발생원의 위치는, 광이 초음파보다 매우 빠른 성질, 즉, 광이 광 센서에 도달하는 시간이 초음파가 초음파 센서에 도달하는 시간보다 매우 빠름을 이용하여, 산출될 수 있다. 보다 구체적으로 광을 기준 신호로 초음파가 도달하는 시간과의 시간차를 이용하여 파동 발생원의 위치가 산출될 수 있다.
한편, 입력부(120)의 구성으로 살펴본, 카메라(121)는 카메라 센서(예를 들어, CCD, CMOS 등), 포토 센서(또는 이미지 센서) 및 레이저 센서 중 적어도 하나를 포함한다.
카메라(121)와 레이저 센서는 서로 조합되어, 3차원 입체영상에 대한 감지대상의 터치를 감지할 수 있다. 포토 센서는 디스플레이 소자에 적층될 수 있는데, 이러한 포토 센서는 터치 스크린에 근접한 감지대상의 움직임을 스캐닝하도록 이루어진다. 보다 구체적으로, 포토 센서는 행/열에 Photo Diode와 TR(Transistor)를 실장하여 Photo Diode에 인가되는 빛의 양에 따라 변화되는 전기적 신호를 이용하여 포토 센서 위에 올려지는 내용물을 스캔한다. 즉, 포토 센서는 빛의 변화량에 따른 감지대상의 좌표 계산을 수행하며, 이를 통하여 감지대상의 위치정보가 획득될 수 있다.
디스플레이부(151)는 이동 단말기(100)에서 처리되는 정보를 표시(출력)한다. 예를 들어, 디스플레이부(151)는 이동 단말기(100)에서 구동되는 응용 프로그램의 실행화면 정보, 또는 이러한 실행화면 정보에 따른 UI(User Interface), GUI(Graphic User Interface) 정보를 표시할 수 있다.
또한, 상기 디스플레이부(151)는 입체영상을 표시하는 입체 디스플레이부로서 구성될 수 있다. 상기 입체 디스플레이부에는 스테레오스코픽 방식(안경 방식), 오토 스테레오스코픽 방식(무안경 방식), 프로젝션 방식(홀로그래픽 방식) 등의 3차원 디스플레이 방식이 적용될 수 있다.
일반적으로 3차원 입체 영상은 좌 영상(좌안용 영상)과 우 영상(우안용 영상)으로 구성된다. 좌 영상과 우 영상이 3차원 입체 영상으로 합쳐지는 방식에 따라, 좌 영상과 우 영상을 한 프레임 내 상하로 배치하는 탑-다운(top-down) 방식, 좌 영상과 우 영상을 한 프레임 내 좌우로 배치하는 L-to-R(left-to-right, side by side) 방식, 좌 영상과 우 영상의 조각들을 타일 형태로 배치하는 체커 보드(checker board) 방식, 좌 영상과 우 영상을 열 단위 또는 행 단위로 번갈아 배치하는 인터레이스드(interlaced) 방식, 그리고 좌 영상과 우 영상을 시간 별로 번갈아 표시하는 시분할(time sequential, frame by frame) 방식 등으로 나뉜다.
또한, 3차원 썸네일 영상은 원본 영상 프레임의 좌 영상 및 우 영상으로부터 각각 좌 영상 썸네일 및 우 영상 썸네일을 생성하고, 이들이 합쳐짐에 따라 하나의 영상으로 생성될 수 있다. 일반적으로 썸네일(thumbnail)은 축소된 화상 또는 축소된 정지영상을 의미한다. 이렇게 생성된 좌 영상 썸네일과 우 영상 썸네일은 좌 영상과 우 영상의 시차에 대응하는 깊이감(depth)만큼 화면 상에서 좌우 거리차를 두고 표시됨으로써 입체적인 공간감을 나타낼 수 있다.
3차원 입체영상의 구현에 필요한 좌 영상과 우 영상은 입체 처리부에 의하여 입체 디스플레이부에 표시될 수 있다. 입체 처리부는 3D 영상(기준시점의 영상과 확장시점의 영상)을 입력 받아 이로부터 좌 영상과 우 영상을 설정하거나, 2D 영상을 입력 받아 이를 좌 영상과 우 영상으로 전환하도록 이루어진다.
음향 출력부(152)는 호신호 수신, 통화모드 또는 녹음 모드, 음성인식 모드, 방송수신 모드 등에서 무선 통신부(110)로부터 수신되거나 메모리(170)에 저장된 오디오 데이터를 출력할 수 있다. 음향출력부(152)는 이동 단말기(100)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음 등)과 관련된 음향 신호를 출력하기도 한다. 이러한 음향 출력부(152)에는 리시버(receiver), 스피커(speaker), 버저(buzzer) 등이 포함될 수 있다.
햅틱 모듈(haptic module)(153)은 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱 모듈(153)이 발생시키는 촉각 효과의 대표적인 예로는 진동이 될 수 있다. 햅틱 모듈(153)에서 발생하는 진동의 세기와 패턴 등은 사용자의 선택 또는 제어부의 설정에 의해 제어될 수 있다. 예를 들어, 상기햅틱 모듈(153)은 서로 다른 진동을 합성하여 출력하거나 순차적으로 출력할 수도 있다.
햅틱 모듈(153)은, 진동 외에도, 접촉 피부면에 대해 수직 운동하는 핀 배열, 분사구나 흡입구를 통한 공기의 분사력이나 흡입력, 피부 표면에 대한 스침, 전극(electrode)의 접촉, 정전기력 등의 자극에 의한 효과와, 흡열이나 발열 가능한 소자를 이용한 냉온감 재현에 의한 효과 등 다양한 촉각 효과를 발생시킬 수 있다.
햅틱 모듈(153)은 직접적인 접촉을 통해 촉각 효과를 전달할 수 있을 뿐만 아니라, 사용자가 손가락이나 팔 등의 근 감각을 통해 촉각 효과를 느낄 수 있도록 구현할 수도 있다. 햅틱 모듈(153)은 이동 단말기(100)의 구성 태양에 따라 2개 이상이 구비될 수 있다.
광출력부(154)는 이동 단말기(100)의 광원의 빛을 이용하여 이벤트 발생을 알리기 위한 신호를 출력한다. 이동 단말기(100)에서 발생 되는 이벤트의 예로는 메시지 수신, 호 신호 수신, 부재중 전화, 알람, 일정 알림, 이메일 수신, 애플리케이션을 통한 정보 수신 등이 될 수 있다.
광출력부(154)가 출력하는 신호는 이동 단말기가 전면이나 후면으로 단색이나 복수색의 빛을 발광함에 따라 구현된다. 상기 신호 출력은 이동 단말기가 사용자의 이벤트확인을 감지함에 의하여 종료될 수 있다.
인터페이스부(160)는 이동 단말기(100)에 연결되는 모든 외부 기기와의 통로 역할을 한다. 인터페이스부(160)는 외부 기기로부터 데이터를 전송 받거나, 전원을 공급받아 이동 단말기(100) 내부의 각 구성요소에 전달하거나, 이동 단말기(100) 내부의 데이터가 외부 기기로 전송되도록 한다. 예를 들어, 유/무선 헤드셋 포트(port), 외부 충전기 포트(port), 유/무선 데이터 포트(port), 메모리 카드(memory card) 포트(port), 식별 모듈이 구비된 장치를 연결하는 포트(port), 오디오 I/O(Input/Output) 포트(port), 비디오 I/O(Input/Output) 포트(port), 이어폰 포트(port) 등이 인터페이스부(160)에 포함될 수 있다.
한편, 식별 모듈은 이동 단말기(100)의 사용 권한을 인증하기 위한 각종 정보를 저장한 칩으로서, 사용자 인증 모듈(user identify module; UIM), 가입자 인증 모듈(subscriber identity module; SIM), 범용 사용자 인증 모듈(universal subscriber identity module; USIM) 등을 포함할 수 있다. 식별 모듈이 구비된 장치(이하 '식별 장치')는, 스마트 카드(smart card) 형식으로 제작될 수 있다. 따라서 식별 장치는 상기 인터페이스부(160)를 통하여 단말기(100)와 연결될 수 있다.
또한, 상기 인터페이스부(160)는 이동 단말기(100)가 외부 크래들(cradle)과 연결될 때 상기 크래들로부터의 전원이 상기 이동 단말기(100)에 공급되는 통로가 되거나, 사용자에 의해 상기 크래들에서 입력되는 각종 명령 신호가 상기 이동 단말기(100)로 전달되는 통로가 될 수 있다. 상기 크래들로부터 입력되는 각종 명령 신호 또는 상기 전원은 상기 이동 단말기(100)가 상기 크래들에 정확히 장착되었음을 인지하기 위한 신호로 동작될 수 있다.
메모리(170)는 제어부(180)의 동작을 위한 프로그램을 저장할 수 있고, 입/출력되는 데이터들(예를 들어, 폰북, 메시지, 정지영상, 동영상 등)을 임시 저장할 수도 있다. 상기 메모리(170)는 상기 터치 스크린 상의 터치 입력시 출력되는 다양한 패턴의 진동 및 음향에 관한 데이터를 저장할 수 있다.
메모리(170)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), SSD 타입(Solid State Disk type), SDD 타입(Silicon Disk Drive type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(random access memory; RAM), SRAM(static random access memory), 롬(read-only memory; ROM), EEPROM(electrically erasable programmable read-only memory), PROM(programmable read-only memory), 자기 메모리, 자기 디스크 및 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 이동 단말기(100)는 인터넷(internet)상에서 상기 메모리(170)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작될 수도 있다.
한편, 앞서 살펴본 것과 같이, 제어부(180)는 응용 프로그램과 관련된 동작과, 통상적으로 이동 단말기(100)의 전반적인 동작을 제어한다. 예를 들어, 제어부(180)는 상기 이동 단말기의 상태가 설정된 조건을 만족하면, 애플리케이션들에 대한 사용자의 제어 명령의 입력을 제한하는 잠금 상태를 실행하거나, 해제할 수 있다.
또한, 제어부(180)는 음성 통화, 데이터 통신, 화상 통화 등과 관련된 제어 및 처리를 수행하거나, 터치 스크린 상에서 행해지는 필기 입력 또는 그림 그리기 입력을 각각 문자 및 이미지로 인식할 수 있는 패턴 인식 처리를 행할 수 있다. 나아가 제어부(180)는 이하에서 설명되는 다양한 실시 예들을 본 발명에 따른 이동 단말기(100) 상에서 구현하기 위하여, 위에서 살펴본 구성요소들을 중 어느 하나 또는 복수를 조합하여 제어할 수 있다.
전원 공급부(190)는 제어부(180)의 제어에 의해 외부의 전원, 내부의 전원을 인가 받아 각 구성요소들의 동작에 필요한 전원을 공급한다. 전원공급부(190)는 배터리를 포함하며, 배터리는 충전 가능하도록 이루어지는 내장형 배터리가 될 수 있으며, 충전 등을 위하여 단말기 바디에 착탈 가능하게 결합될 수 있다.
또한, 전원공급부(190)는 연결포트를 구비할 수 있으며, 연결포트는 배터리의 충전을 위하여 전원을 공급하는 외부 충전기가 전기적으로 연결되는 인터페이스(160)의 일 예로서 구성될 수 있다.
다른 예로서, 전원공급부(190)는 상기 연결포트를 이용하지 않고 무선방식으로 배터리를 충전하도록 이루어질 수 있다. 이 경우에, 전원공급부(190)는외부의 무선 전력 전송장치로부터 자기 유도 현상에 기초한 유도 결합(Inductive Coupling) 방식이나 전자기적 공진 현상에 기초한 공진 결합(Magnetic Resonance Coupling) 방식 중 하나 이상을 이용하여 전력을 전달받을 수 있다.
한편, 이하에서 다양한 실시 예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.
도 1b 및 1c를 참조하면, 개시된 이동 단말기(100)는 바 형태의 단말기 바디를 구비하고 있다. 다만, 본 발명은 여기에 한정되지 않고 와치 타입, 클립 타입, 글래스 타입 또는 2 이상의 바디들이 상대 이동 가능하게 결합되는 폴더 타입, 플립 타입, 슬라이드 타입, 스윙 타입, 스위블 타입 등 다양한 구조에 적용될 수 있다. 이동 단말기의 특정 유형에 관련될 것이나, 이동 단말기의 특정유형에 관한 설명은 다른 타입의 이동 단말기에 일반적으로 적용될 수 있다.
여기에서, 단말기 바디는 이동 단말기(100)를 적어도 하나의 집합체로 보아 이를 지칭하는 개념으로 이해될 수 있다.
이동 단말기(100)는 외관을 이루는 케이스(예를 들면, 프레임, 하우징, 커버 등)를 포함한다. 도시된 바와 같이, 이동 단말기(100)는 프론트 케이스(101)와 리어 케이스(102)를 포함할 수 있다. 프론트 케이스(101)와 리어 케이스(102)의 결합에 의해 형성되는 내부공간에는 각종 전자부품들이 배치된다. 프론트 케이스(101)와 리어 케이스(102) 사이에는 적어도 하나의 미들 케이스가 추가로 배치될 수 있다.
단말기 바디의 전면에는 디스플레이부(151)가 배치되어 정보를 출력할 수 있다. 도시된 바와 같이, 디스플레이부(151)의 윈도우(151a)는 프론트 케이스(101)에 장착되어 프론트 케이스(101)와 함께 단말기 바디의 전면을 형성할 수 있다.
경우에 따라서, 리어 케이스(102)에도 전자부품이 장착될 수 있다. 리어 케이스(102)에 장착 가능한 전자부품은 착탈 가능한 배터리, 식별모듈, 메모리 카드 등이 있다. 이 경우, 리어 케이스(102)에는 장착된 전자부품을 덮기 위한 후면커버(103)가 착탈 가능하게 결합될 수 있다. 따라서, 후면 커버(103)가 리어 케이스(102)로부터 분리되면, 리어 케이스(102)에 장착된 전자부품은 외부로 노출된다.
도시된 바와 같이, 후면커버(103)가 리어 케이스(102)에 결합되면, 리어 케이스(102)의 측면 일부가 노출될 수 있다. 경우에 따라서, 상기 결합시 리어 케이스(102)는 후면커버(103)에 의해 완전히 가려질 수도 있다. 한편, 후면커버(103)에는 카메라(121b)나 음향 출력부(152b)를 외부로 노출시키기 위한 개구부가 구비될 수 있다.
이러한 케이스들(101, 102, 103)은 합성수지를 사출하여 형성되거나 금속, 예를 들어 스테인레스 스틸(STS), 알루미늄(Al), 티타늄(Ti) 등으로 형성될 수도 있다.
이동 단말기(100)는, 복수의 케이스가 각종 전자부품들을 수용하는 내부 공간을 마련하는 위의 예와 달리, 하나의 케이스가 상기 내부 공간을 마련하도록 구성될 수도 있다. 이 경우, 합성수지 또는 금속이 측면에서 후면으로 이어지는 유니 바디의 이동 단말기(100)가 구현될 수 있다.
한편, 이동 단말기(100)는 단말기 바디 내부로 물이 스며들지 않도록 하는 방수부(미도시)를 구비할 수 있다. 예를 들어, 방수부는 윈도우(151a)와 프론트 케이스(101) 사이, 프론트 케이스(101)와 리어 케이스(102) 사이 또는 리어 케이스(102)와 후면 커버(103) 사이에 구비되어, 이들의 결합 시 내부 공간을 밀폐하는 방수부재를 포함할 수 있다.
이동 단말기(100)에는 디스플레이부(151), 제1 및 제2 음향 출력부(152a, 152b), 근접 센서(141), 조도 센서(142), 광 출력부(154), 제1 및 제2 카메라(121a, 121b), 제1 및 제2 조작유닛(123a, 123b), 마이크로폰(122), 인터페이스부(160) 등이 구비될 수 있다.
이하에서는, 도 1b 및 도 1c에 도시된 바와 같이, 단말기 바디의 전면에 디스플레이부(151), 제1 음향 출력부(152a), 근접 센서(141), 조도 센서(142), 광 출력부(154), 제1 카메라(121a) 및 제1 조작유닛(123a)이 배치되고, 단말기 바디의 측면에 제2 조작유닛(123b), 마이크로폰(122) 및 인터페이스부(160)이 배치되며, 단말기 바디의 후면에 제2 음향 출력부(152b) 및 제2 카메라(121b)가 배치된 이동 단말기(100)를 일 예로 들어 설명한다.
다만, 이들 구성은 이러한 배치에 한정되는 것은 아니다. 이들 구성은 필요에 따라 제외 또는 대체되거나, 다른 면에 배치될 수 있다. 예를 들어, 단말기 바디의 전면에는 제1 조작유닛(123a)이 구비되지 않을 수 있으며, 제2 음향 출력부(152b)는 단말기 바디의 후면이 아닌 단말기 바디의 측면에 구비될 수 있다.
디스플레이부(151)는 이동 단말기(100)에서 처리되는 정보를 표시(출력)한다. 예를 들어, 디스플레이부(151)는 이동 단말기(100)에서 구동되는 응용 프로그램의 실행화면 정보, 또는 이러한 실행화면 정보에 따른 UI(User Interface), GUI(Graphic User Interface) 정보를 표시할 수 있다.
디스플레이부(151)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉서블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전자잉크 디스플레이(e-ink display) 중에서 적어도 하나를 포함할 수 있다.
또한, 디스플레이부(151)는 이동 단말기(100)의 구현 형태에 따라 2개 이상 존재할 수 있다. 이 경우, 이동 단말기(100)에는 복수의 디스플레이부들이 하나의 면에 이격되거나 일체로 배치될 수 있고, 또한 서로 다른 면에 각각 배치될 수도 있다.
디스플레이부(151)는 터치 방식에 의하여 제어 명령을 입력 받을 수 있도록, 디스플레이부(151)에 대한 터치를 감지하는 터치센서를 포함할 수 있다. 이를 이용하여, 디스플레이부(151)에 대하여 터치가 이루어지면, 터치센서는 상기 터치를 감지하고, 제어부(180)는 이에 근거하여 상기 터치에 대응하는 제어명령을 발생시키도록 이루어질 수 있다. 터치 방식에 의하여 입력되는 내용은 문자 또는 숫자이거나, 각종 모드에서의 지시 또는 지정 가능한 메뉴항목 등일 수 있다.
한편, 터치센서는, 터치패턴을 구비하는 필름 형태로 구성되어 윈도우(151a)와 윈도우(151a)의 배면 상의 디스플레이(미도시) 사이에 배치되거나, 윈도우(151a)의 배면에 직접 패터닝되는 메탈 와이어가 될 수도 있다. 또는, 터치센서는 디스플레이와 일체로 형성될 수 있다. 예를 들어, 터치센서는, 디스플레이의 기판 상에 배치되거나, 디스플레이의 내부에 구비될 수 있다.
이처럼, 디스플레이부(151)는 터치센서와 함께 터치 스크린을 형성할 수 있으며, 이 경우에 터치 스크린은 사용자 입력부(123, 도 1a 참조)로 기능할 수 있다. 경우에 따라, 터치 스크린은 제1조작유닛(123a)의 적어도 일부 기능을 대체할 수 있다.
제1 음향출력부(152a)는 통화음을 사용자의 귀에 전달시키는 리시버(receiver)로 구현될 수 있으며, 제2 음향 출력부(152b)는 각종 알람음이나 멀티미디어의 재생음을 출력하는 라우드 스피커(loud speaker)의 형태로 구현될 수 있다.
디스플레이부(151)의 윈도우(151a)에는 제1 음향 출력부(152a)로부터 발생되는 사운드의 방출을 위한 음향홀이 형성될 수 있다. 다만, 본 발명은 이에 한정되는 것은 아니고, 상기 사운드는 구조물 간의 조립틈(예를 들어, 윈도우(151a)와 프론트 케이스(101) 간의 틈)을 따라 방출되도록 구성될 수 있다. 이 경우, 외관상 음향 출력을 위하여 독립적으로 형성되는 홀이 보이지 않거나 숨겨져 이동 단말기(100)의 외관이 보다 심플해질 수 있다.
광 출력부(154)는이벤트의발생시 이를 알리기 위한 빛을 출력하도록 이루어진다. 상기 이벤트의 예로는 메시지수신, 호신호수신, 부재중전화, 알람, 일정알림, 이메일수신, 애플리케이션을 통한 정보 수신 등을 들 수 있다. 제어부(180)는 사용자의이벤트확인이 감지되면, 빛의 출력이 종료되도록 광 출력부(154)를 제어할 수 있다.
제1 카메라(121a)는 촬영 모드 또는 화상통화 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상의 화상 프레임을 처리한다. 처리된 화상 프레임은 디스플레이부(151)에 표시될 수 있으며, 메모리(170)에 저장될 수 있다.
제1 및 제2 조작유닛(123a, 123b)은 이동 단말기(100)의 동작을 제어하기 위한 명령을 입력 받기 위해 조작되는 사용자 입력부(123)의 일 예로서, 조작부(manipulating portion)로도 통칭될 수 있다. 제1 및 제2 조작유닛(123a, 123b)은터치, 푸시, 스크롤 등 사용자가 촉각적인 느낌을 받으면서 조작하게 되는 방식(tactile manner)이라면 어떤 방식이든 채용될 수 있다. 또한, 제1 및 제2 조작유닛(123a, 123b)은 근접 터치(proximity touch), 호버링(hovering) 터치 등을 통해서 사용자의 촉각적인 느낌이 없이 조작하게 되는 방식으로도 채용될 수 있다.
본 도면에서는 제1 조작유닛(123a)이 터치키(touch key)인 것으로 예시하나, 본 발명이 이에 한정되는 것은 아니다. 예를 들어, 제1 조작유닛(123a)은 푸시키(mechanical key)가 되거나, 터치키와 푸시키의 조합으로 구성될 수 있다.
제1 및 제2조작유닛(123a, 123b)에 의하여 입력되는 내용은 다양하게 설정될 수 있다. 예를 들어, 제1조작유닛(123a)은 메뉴, 홈키, 취소, 검색 등의 명령을 입력 받고, 제2조작유닛(123b)은 제1 또는 제2 음향출력부(152a, 152b)에서 출력되는 음향의 크기 조절, 디스플레이부(151)의 터치 인식 모드로의 전환 등의 명령을 입력 받을 수 있다.
한편, 단말기 바디의 후면에는 사용자 입력부(123)의 다른 일 예로서, 후면 입력부(미도시)가 구비될 수 있다. 이러한 후면 입력부는 이동 단말기(100)의 동작을 제어하기 위한 명령을 입력받기 위해 조작되는 것으로서, 입력되는 내용은 다양하게 설정될 수 있다. 예를 들어, 전원의 온/오프, 시작, 종료, 스크롤 등과 같은 명령, 제1 및 제2 음향출력부(152a, 152b)에서 출력되는 음향의 크기 조절, 디스플레이부(151)의 터치 인식 모드로의 전환 등과 같은 명령을 입력 받을 수 있다. 후면 입력부는 터치입력, 푸시입력 또는 이들의 조합에 의한 입력이 가능한 형태로 구현될 수 있다.
후면 입력부는 단말기 바디의 두께방향으로 전면의 디스플레이부(151)와 중첩되게 배치될 수 있다. 일 예로, 사용자가 단말기 바디를 한 손으로 쥐었을 때 검지를 이용하여 용이하게 조작 가능하도록, 후면 입력부는 단말기 바디의 후면 상단부에 배치될 수 있다. 다만, 본 발명은 반드시 이에 한정되는 것은 아니며, 후면 입력부의 위치는 변경될 수 있다.
이처럼 단말기 바디의 후면에 후면 입력부가 구비되는 경우, 이를 이용한 새로운 형태의 유저 인터페이스가 구현될 수 있다. 또한, 앞서 설명한 터치 스크린 또는 후면 입력부가 단말기 바디의 전면에 구비되는 제1 조작유닛(123a)의 적어도 일부 기능을 대체하여, 단말기 바디의 전면에 제1 조작유닛(123a)이 미배치되는 경우, 디스플레이부(151)가 보다 대화면(大畵面)으로 구성될 수 있다.
한편, 이동 단말기(100)에는 사용자의 지문을 인식하는 지문인식센서가 구비될 수 있으며, 제어부(180)는 지문인식센서를 통하여 감지되는 지문정보를 인증수단으로 이용할 수 있다. 상기 지문인식센서는 디스플레이부(151) 또는 사용자 입력부(123)에 내장될 수 있다.
마이크로폰(122)은 사용자의 음성, 기타 소리 등을 입력 받도록 이루어진다. 마이크로폰(122)은 복수의 개소에 구비되어 스테레오 음향을 입력 받도록 구성될 수 있다.
인터페이스부(160)는 이동 단말기(100)를 외부기기와 연결시킬 수 있는 통로가 된다. 예를 들어, 인터페이스부(160)는 다른 장치(예를 들어, 이어폰, 외장 스피커)와의 연결을 위한 접속단자, 근거리 통신을 위한 포트[예를 들어, 적외선 포트(IrDA Port), 블루투스 포트(Bluetooth Port), 무선 랜 포트(Wireless LAN Port) 등], 또는 이동 단말기(100)에 전원을 공급하기 위한 전원공급단자 중 적어도 하나일 수 있다. 이러한 인터페이스부(160)는 SIM(Subscriber Identification Module) 또는 UIM(User Identity Module), 정보 저장을 위한 메모리 카드 등의 외장형 카드를 수용하는 소켓의 형태로 구현될 수도 있다.
단말기 바디의 후면에는 제2카메라(121b)가 배치될 수 있다. 이 경우, 제2카메라(121b)는 제1카메라(121a)와 실질적으로 반대되는 촬영 방향을 가지게 된다.
제2카메라(121b)는 적어도 하나의 라인을 따라 배열되는 복수의 렌즈를 포함할 수 있다. 복수의 렌즈는 행렬(matrix) 형식으로 배열될 수도 있다. 이러한 카메라는, ‘어레이(array) 카메라’로 명명될 수 있다. 제2카메라(121b)가 어레이 카메라로 구성되는 경우, 복수의 렌즈를 이용하여 다양한 방식으로 영상을 촬영할 수 있으며, 보다 나은 품질의 영상을 획득할 수 있다.
플래시(124)는 제2카메라(121b)에 인접하게 배치될 수 있다. 플래시(124)는 제2카메라(121b)로 피사체를 촬영하는 경우에 피사체를 향하여 빛을 비추게 된다.
단말기 바디에는 제2 음향 출력부(152b)가 추가로 배치될 수 있다. 제2 음향 출력부(152b)는 제1 음향 출력부(152a)와 함께 스테레오 기능을 구현할 수 있으며, 통화시 스피커폰 모드의 구현을 위하여 사용될 수도 있다.
단말기 바디에는 무선 통신을 위한 적어도 하나의 안테나가 구비될 수 있다. 안테나는 단말기 바디에 내장되거나, 케이스에 형성될 수 있다. 예를 들어, 방송 수신 모듈(111, 도 1a 참조)의 일부를 이루는 안테나는 단말기 바디에서 인출 가능하게 구성될 수 있다. 또는, 안테나는 필름 타입으로 형성되어 후면 커버(103)의 내측면에 부착될 수도 있고, 도전성 재질을 포함하는 케이스가 안테나로서 기능하도록 구성될 수도 있다.
단말기 바디에는 이동 단말기(100)에 전원을 공급하기 위한 전원 공급부(190, 도 1a 참조)가 구비된다. 전원 공급부(190)는 단말기 바디에 내장되거나, 단말기 바디의 외부에서 착탈 가능하게 구성되는 배터리(191)를 포함할 수 있다.
배터리(191)는 인터페이스부(160)에 연결되는 전원 케이블을 통하여 전원을 공급받도록 구성될 수 있다. 또한, 배터리(191)는 무선충전기기를 통하여 무선충전 가능하도록 구성될 수도 있다. 상기 무선충전은 자기유도방식 또는 공진방식(자기공명방식)에 의하여 구현될 수 있다.
한편, 본 도면에서는 후면 커버(103)가 배터리(191)를 덮도록 리어 케이스(102)에 결합되어 배터리(191)의 이탈을 제한하고, 배터리(191)를 외부 충격과 이물질로부터 보호하도록 구성된 것을 예시하고 있다. 배터리(191)가 단말기 바디에 착탈 가능하게 구성되는 경우, 후면 커버(103)는 리어 케이스(102)에 착탈 가능하게 결합될 수 있다.
이동 단말기(100)에는 외관을 보호하거나, 이동 단말기(100)의 기능을 보조 또는 확장시키는 액세서리가 추가될 수 있다. 이러한 액세서리의 일 예로, 이동 단말기(100)의 적어도 일면을 덮거나 수용하는 커버 또는 파우치를 들 수 있다. 커버 또는 파우치는 디스플레이부(151)와 연동되어 이동 단말기(100)의 기능을 확장시키도록 구성될 수 있다. 액세서리의 다른 일 예로, 터치 스크린에 대한 터치입력을 보조 또는 확장하기 위한 터치펜을 들 수 있다.
본 명세서에서, 용어 메모리(170)는 용어 저장부(170)와 혼용되어 사용될 수 있다.
한편, 이동 단말기(100)의 입력부(120)는 센싱부(140)를 포함할 수 있으며, 센싱부(140)가 수행하는 모든 기능을 수행할 수 있다. 예를 들어 입력부(120)는 사용자 터치 입력을 감지할 수 있다.
도 2는, 본 발명의 실시 예에 따른 듀얼 카메라를 장착한 이동 단말기를 설명하기 위한 도면이다.
본 발명의 실시 예에 따른, 듀얼 카메라를 장착한 이동 단말기(100)는, 이동 단말기(100)의 전면에 장착되는 카메라부 외에도, 제1 카메라부(200) 및 제2 카메라부(300)를 포함할 수 있다.
제1 카메라부(200)와 제2 카메라부(300)는 이동 단말기(100)의 동일한 면에 배치되고, 동일한 방향을 촬영할 수 있다.
도 2에서는, 제1 카메라부(200) 및 제2 카메라부(300)가 이동 단말기(100)의 후면 커버(103)의 개구부에 장착되는 것으로 설명하였으나 이에 한정되지 않고, 제1 카메라부(200) 및 제2 카메라부(300)가 동일한 방향을 촬영할 수 있도록 장착되면 충분하다.
예를 들어, 제1 카메라부(200) 및 제2 카메라부(300)는 이동 단말기(100)의 전면에 배치될 수도 있으며, 이동 단말기(100)의 동일한 일 측면에 배치될 수 있다.
한편, 제1 카메라부(200) 및 제2 카메라부(300)는, 앞서 설명한 카메라(121)가 수행하는 모든 기능을 수행할 수 있다.
한편, 이동 단말기(100)의 후면에는 플래시(124)가 제1 카메라(200) 및 제2 카메라(300) 중 적어도 하나와 인접하게 배치되어, 제1 카메라(200) 및 제2 카메라(300) 중 적어도 하나로 피사체를 촬영하는 경우에 피사체를 향하여 빛을 비추게 된다.
한편, 이동 단말기(100)의 후면에는 후면 입력부(125)가 구비될 수 있다. 이러한 후면 입력부(125)는 이동 단말기(100)의 동작을 제어하기 위한 명령을 입력받기 위해 조작되는 것으로서, 입력되는 내용은 다양하게 설정될 수 있다.
후면 입력부는 단말기 바디의 두께방향으로 전면의 디스플레이부(151)와 중첩되게 배치될 수 있다. 일 예로, 사용자가 단말기 바디를 한 손으로 쥐었을 때 검지를 이용하여 용이하게 조작 가능하도록, 후면 입력부는 단말기 바디의 후면 상단부에 배치될 수 있다. 다만, 본 발명은 반드시 이에 한정되는 것은 아니며, 후면 입력부의 위치는 변경될 수 있다.
도 3및 도 4는, 본 발명의 실시 예에 따른, 제1 카메라부 및 제2 카메라부의 구성을 보여주는 단면도이다.
다음에 설명하는 제1 카메라부(200) 및 제2 카메라부(300)의 구성은, 자동 초점(Auto Focus) 기능, 즉 오토 포커스 기능을 수행하기 위한 구성이다.
오터 포커스 기능이란, 피사체가 되는 대상 물체가 선명하게 보이게 하기 위하여 렌즈 모듈을 최적의 초점 위치로 이동 시키는 기능으로써, 렌즈 모듈을 최적의 초점 위치로 이동 시키기 위하여 다양한 방식의 액츄에이터가 사용되는 제, 카메라 모듈의 오토 포커스의 성능은, 렌즈 모듈을 이송시키는 액츄에이터의 특성에 따라, 달라질 수 있다.
또한, 오토 포커스 액츄에이터는, 보이스 코일 모터(Voice Coil Motor, VCM) 액츄에이터, 압전력에 의해 구동되는 액츄에이터, 정전용량 방식에 의해 구동되는 멤스(MEMS) 액츄에이터 등과 같이 다양한 방식의 액츄에이터를 포함할 수 있다.
한편, 이하에서는, 제2 카메라부(300)가, 카메라 모듈의 고정부에 영구 자석을 위치시키고, 구동할 렌즈 모듈에 코일을 부착하여, 자기 회로를 구성함으로써, 코일에 흐르는 로렌쯔 힘에 의해, 렌즈 모듈을 구동하는 보이스 코일 모터 액츄에이터를 사용하는 방식을 취하는 것으로 설명한다.
다만 이에 한정되지 아니하며, 제2 카메라부(300)는 압전력에 의해 구동되는 액츄에이터 방식, 정전용량 방식에 의해 구동되는 멤스(MEMS) 액츄에이터 방식 등의 다양한 방법으로 오토 포커스를 수행할 수 있다.
한편, 도 3 내지 도 10에서는 각종 구성 및 기능이 제2 카메라부(300)의 구성인 것으로 설명하나 이에 한정되지 아니하며, 도 3 내지 도 10에서 설명하는 구성 및 기능은 제1 카메라부(200)의 기능 및 구성일 수 있다.
따라서, 제1 카메라부(200)는 제2 카메라부(300)와 동일한 방식으로 오토 포커스를 수행할 수 있다. 예를 들어, 제1 카메라부(200) 및 제2 카메라부(300)는 모두, 보이스 코일 모터 액츄에이터 방식에 의하여 오토 포커스를 수행할 수 있다.
다만 이에 한정되지 아니하며, 제1 카메라부(200)와 제2 카메라부(300)는 서로 다른 방식으로 오토 포커스를 수행할 수 있다. 예를 들어 제1 카메라부(200)는 보이스 코일 모터(Voice Coil Motor, VCM) 액츄에이터에 의한 방식, 제2 카메라부(300)는 압전력에 의해 구동되는 액츄에이터 방식에 의하여 오토 포커스를 수행할 수 있다.
이 경우 제1 카메라부(200)와 제2 카메라부(300)는 서로 다른 구성을 구비하고 서로 다른 방법을 통하여 오토 포커스를 수행할 수 있다.
도 3 및 도 4에 도시된 바와 같이, 본 발명의 카메라 모듈은, 자석(315)과 고정 코일(320)이 배치되는 고정부(310)와, 렌즈(335)와 이동 코일(340)이 배치되는 이동부(330)을 포함할 수 있다.
여기서, 고정부(310)는, 중앙 영역에 관통 홀이 형성되는 홀더(holder)일 수 있다.
이때, 자석(315)은, 고정부(310)의 관통 홀 내측면에 배치될 수 있다.
일 예로, 자석(315)은, 한 개일 수도 있고, 경우에 따라, 다수 개일 수도 있다.
자석(315)이 다수 개인 경우, 다수의 자석(315)들은, 서로 동일한 간격으로 배치될 수 있지만, 경우에 따라, 서로 다른 간격으로 배치될 수도 있다.
그리고, 다수의 자석(315)들은, 고정부(310)의 관통 홀 중심을 지나는 좌표축에 대해 대칭으로 배치될 수 있다.
여기서, 다수의 자석(315)들을, 고정부(310)의 관통 홀 중심을 지나는 좌표축에 대해 대칭으로 배치하는 이유는, 렌즈 모듈인 이동부(330)의 이동에 따른 전류 또는 전압의 변위값을 외부의 영향 없이, 안정적으로 검출할 수 있기 때문이다.
그리고, 이동부(330)는, 적어도 하나의 렌즈(335)를 포함하고, 고정부(310)의 관통 홀 내에서 선형 이동할 수 있다.
여기서, 이동부(330)는, 렌즈(335)들을 포함하는 렌즈 모듈일 수 있다.
이어, 이동 코일(340)은, 이동부(330)의 외면을 감싸도록 배치되어, 이동부(330)와 함께 이동될 수 있다.
여기서, 이동 코일(340)과 자석(315)은, 이동부(330)를 이동시키기 위한 액츄에이터(actuator)로서, 이동부(330)가 상부 방향 및 하부 방향으로 선형 이동하도록, 이동부(330)를 구동시킬 수 있다.
다음, 고정 코일(320)은, 고정부(310)에 배치되어, 이동 코일(340)과의 거리에 따라 가변하는 전류 또는 전압을 이동 코일(340)로부터 수신할 수 있다.
여기서, 고정 코일(320)은, 이동부(330)의 일측으로부터 일정 간격 떨어져 배치되고, 이동부(330)의 이동 방향 선상에 위치할 수 있다.
따라서, 고정 코일(320)과 이동 코일(340)은, 전자기 상호 유도 현상에 의해, 전류 또는 전압이 이동 코일(340)로부터 고정 코일(320)로 유도될 수 있다.
이때, 유도되는 전류 또는 전압값은, 고정 코일(320)과 이동 코일(340) 사이의 거리에 따라 가변될 수 있다.
즉, 고정 코일(320)에 유도된 전류 또는 전압값은, 고정 코일(320)과 이동 코일(340)과의 수직간 거리에 따라 변하며, 이 변위값을 이용하여, 이동부(330)의 렌즈 모듈의 위치값을 예측할 수 있다.
그리고, 예측된 렌즈 모듈의 위치값을 이용하여, 최적의 오토 포커스 위치값을 찾아내고, 렌즈 모듈의 실제 위치값을 최적의 오토 포커스 위치값으로 이동하도록, 이동부(330)의 이동을 제어할 수 있다.
또한, 고정 코일(320)은, 이동부(330)의 선형 이동 방향에 위치하는데, 도 1과 같이, 이동부(330)의 하부에 배치될 수도 있고, 도 2와 같이, 이동부(330)의 상부에 배치될 수도 있다.
여기서, 고정 코일(320)은, 이동부(330)가 선형 이동할 때, 고정 코일(320)과 이동 코일(340) 사이의 최소 간격이, 0 이상을 유지하도록, 배치되어야 한다.
그 이유는, 고정 코일(320)과 이동 코일(340) 사이의 최소 간격이, 0보다 작으면, 고정 코일(320)에 수신되는 전류 또는 전압이 양에서 음으로 바뀌거나 또는 음에서 양으로 바뀌므로, 거리에 따른 전류 또는 전압의 변위값이 정확하게 검출되지 않을 수 있기 때문이다.
또한, 고정 코일(320)과 이동 코일(340) 사이의 간격이 가까워질수록, 거리에 따른 전류 또는 전압의 변화율이 줄어들기 때문에, 고정 코일(320)에 수신되는 유도 신호의 비선형성이 증가되어, 거리에 따른 전류 또는 전압의 변위값이 정확하게 검출되지 않을 수 있다.
즉, 고정 코일(320)과 이동 코일(340)이 기구적으로 서로 중첩되면, 고정 코일(320)에 수신되는 유도 신호의 선형성이 열화되고, 유도 신호의 부호가 반전되어 오토 포커스 에러가 발생할 수 있다.
그리고, 고정 코일(320)은, 고정부(310)의 홀더의 상부면, 하부면, 그리고 상기 상부면과 하부면 사이의 외측면 중 적어도 어느 한 표면의 둘레를 따라 배치될 수 있다.
여기서, 고정부(310)의 홀더는, 고정 코일(320)을 고정하기 위한 안착 홈이 형성되고, 고정 코일(320)은, 고정부(310)의 홀더의 안착 홈 내에 배치될 수 있다.
또한, 고정 코일(320)의 권선수와 이동 코일(340)의 권선수는, 서로 다를 수 있다.
일 예로, 고정 코일(320)의 권선수는, 이동 코일(340)의 권선수보다 더 적을 수 있다.
여기서, 고정 코일(320)의 권선수가, 이동 코일(340)의 권선수보다 더 적은 이유는, 전체적인 카메라 모듈의 크기를 줄일 수 있고, 고정 코일(320)에 유도되는 전류 또는 전압에 대한 주파수 신호를 증폭시킬 수 있기 때문이다.
경우에 따라, 고정 코일(320)의 권선수와 이동 코일(340)의 권선수는, 서로 동일할 수도 있다.
그리고, 이동 코일(340)은, 저주파 신호에 고주파 신호가 실린 구동 신호를 인가받아, 구동 신호를 고정 코일(320)로 전송할 수 있다.
즉, 이동부(330)의 이동 코일(340)에 인가되는 구동 신호는, 저주파의 구동 신호에 임의의 고주파 신호가 합성된 신호일 수 있다.
따라서, 고정 코일(320)은, 전자기 유도 현상에 의해, 이동 코일(340)로부터 유도되는 전류 또는 전압에 대한 주파수 신호를 수신하는데, 수신되는 주파수 신호는, 저주파 신호에 고주파 신호가 합성된 신호일 수 있다.
여기서, 저주파 신호에 고주파 신호가 합성된 구동 신호를 이동 코일(340)에 인가하는 이유는, 전자기 유도 현상에 의해, 고정 코일(320)에 유도되는 전류 또는 전압에 대한 주파수 신호를 크게 함으로써, 전류 또는 전압의 변위값을 쉽게 검출할 수 있기 때문이다.
즉, 구동 신호의 저주파 신호는, 이동부(330)를 이동시키는 위한 신호 성분이고, 구동 신호에 합성되는 고주파 신호는, 이동부(330)의 이동 위치를 센싱하기 위한 신호 성분이며, 구동 신호보다 더 높은 주파수 신호일 수 있다.
일 예로, 구동 신호에 합성되는 고주파 신호는, 약 100kHZ - 5MHz일수 있지만, 이에 한정되지는 않는다.
따라서, 카메라 모듈의 포커스 위치 산출부는, 구동 신호에 포함된 고주파 신호를 검출하여, 검출된 고주파 신호를 토대로, 이동부(330)의 포커스 위치값을 산출할 수 있다.
또한, 이동 코일(340)은, 배선(350)에 전기적으로 연결되어 구동 전류 또는 구동 전압이 입력되고, 고정 코일은, 배선(350)에 전기적으로 연결되어 이동 코일(340)로부터 수신되는 전류 또는 전압이 출력될 수 있다.
여기서, 배선(350)은, 고정부(310)와 이동부(330) 사이에 연결되어, 이동부(330)의 이동에 따른 탄성력을 제공하는 스프링일 수 있다.
일 예로, 이동 코일(340)은, 제 1, 제 2 배선에 전기적으로 연결되어 구동 전류 또는 구동 전압이 입력되고, 고정 코일은, 제 3, 제 4 배선에 전기적으로 연결되어 이동 코일(340)로부터 수신되는 전류 또는 전압이 출력될 수 있다.
여기서, 제 1 배선은, 이동 코일(340)에 전류 또는 전압을 제공하는 전원부의 양극 단자에 전기적으로 연결되고, 제 2 배선은, 전원부의 음극 단자에 전기적으로 연결될 수 있다.
그리고, 제 3 배선은, 오토 포커스 제어부의 양극 단자에 전기적으로 연결되고, 제 4 배선은, 오토 포커스 제어부의 음극 단자에 전기적으로 연결될 수 있다.
여기서, 오토 포커스 제어부는, 고정 코일(320)로부터 수신된 전류 또는 전압의 변위값을 토대로, 포커스 위치값을 산출하고, 산출된 포커스 위치값에 따라, 이동부(330)의 이동을 제어할 수 있다.
그리고, 배선(350)과 고정부(310) 사이에는, 댐퍼(damper)(도시하지 않음)가 배치될 수 있다.
여기서, 댐퍼는, 배선(350)과 고정부(310)의 연결단에 인접하여 배치될 수 있다.
이때, 댐퍼를 형성하는 이유는, 스프링인 배선(350)의 고유 진동을 억제시키기 위한 것으로, 히스테리시스(hysteresis) 특성을 줄임으로써, 오토 포커스의 에러를 방지할 수 있다.
도 5 내지 도 7은 이동 코일과 고정 코일의 전기 배선을 보여주는 도면이다.
도 5 내지 도 7에 도시된 바와 같이, 이동 코일(340)은, 이동부
(330)의 외면을 감싸도록 배치되고, 고정 코일(320)은, 고정부(310)에 배치되어 이동 코일(340)과의 거리에 따라 가변하는 전류 또는 전압을 이동 코일(340)로부터 수신할 수 있다.
여기서, 이동 코일(340)은, 제 1, 제 2 배선(351, 352)에 전기적으로 연결되어 구동 전류 또는 구동 전압이 입력되고, 고정 코일(320)은, 제 3, 제 4배선(353, 354)에 전기적으로 연결되어 이동 코일(340)로부터 수신되는 전류 또는 전압이 출력될 수 있다.
일 예로, 제 1, 제 2, 제 3, 제 4 배선(351, 352, 353, 354)은, 고정부(310)와 이동부(330) 사이에 연결되어, 이동부(330)의 이동에 따른 탄성력을 제공하는 스프링 역할을 수행함과 동시에 회로 기판(380)의 단자에 전기적으로 연결되는 전기 배선 역할을 수행할 수 있다.
여기서, 제 1 배선(351)은, 이동 코일(340)의 일측 끝단과 이동 코일(340)로 전류 또는 전압을 제공하는 전원부의 양극 단자(381)에 전기적으로 연결되고, 제 2 배선(352)은, 이동 코일(340)의 타측 끝단과 전원부의 음극 단자(382)에 전기적으로 연결될 수 있다.
또한, 제 3 배선(353)은, 고정 코일(320)의 일측 끝단과 오토 포커스 제어부의 양극 단자(383)에 전기적으로 연결되고, 제 4 배선(354)은, 고정 코일(320)의 타측 끝단과 오토 포커스 제어부의 음극 단자(384)에 전기적으로 연결될 수 있다.
이와 같이, 본 발명은, 고정부(310)와 이동부(330) 사이에 연결되는 스프링들을, 고정 코일 및 이동 코일의 전기적 배선으로 이용함으로써, 전기 배선을 최소화하고 전기 설계를 단순화할 수 있어, 제품의 생산성 및 신뢰성을 향상시킬 수 있다.
도 8은 본 발명의 실시예에 따른 카메라 모듈의 오토 포커스 제어부를 보여주는 블럭 구성도이다.
도 8에 도시된 바와 같이, 본 발명의 카메라 모듈은, 렌즈 모듈인 이동부(330)의 오토 포커싱을 제어하는 오토 포커스 제어부(390)를 포함할 수 있다.
오토 포커스 제어부(390)는, 이미지 센서(391), 이미지 신호 처리부(392), 포커스 위치 산출부(393), 그리고 구동 제어부(394)를 포함할 수 있다.
여기서, 이미지 센서(391)는, 스프링인 배선(350)으로 고정부에 연결되어 오토 포커싱 이동되는 이동부(330)의 렌즈를 통해 입사되는 피사체의 이미지를 센싱한다.
그리고, 이미지 신호 처리부(392)는, 이미지 센서(391)로부터 센싱된 이미지 신호를 처리한다.
이어, 포커스 위치 산출부(393)는, 이미지 신호 처리부(392)로부터 처리된 이미지 신호와, 고정 코일로부터 수신된 상기 전류 또는 전압의 변위값을 토대로, 포커스 위치값을 산출할 수 있다.
여기서, 포커스 위치 산출부(393)는, 고정 코일로부터 전류 또는 전압의 변위값을 검출하는 검출부(810)와, 이미지 신호 처리부(392)로부터 처리된 이미지 신호와 검출부(810)로부터 검출된 전류 또는 전압의 변위값을 토대로, 이동부(330)의 포커스 위치값을 산출하는 산출부(820)를 포함할 수 있다.
즉, 산출부(820)는, 신호 처리된 이미지들의 콘트라스트를 비교하여, 콘트라스트가 가장 높은 이미지를 추출하고, 추출된 이미지가 촬영된 이동부(330)의 위치를 최적의 포커스 위치로 결정할 수 있다.
다음, 구동 제어부(394)는, 산출된 포커스 위치값으로 이동부(330)가 이동하도록, 이동부(330)를 제어할 수 있다.
이처럼, 본 발명의 오토 포커스 방식은, 피사체의 이미지 콘트라스트를 이용하여 포커스 위치를 산출하는 콘트라스트 포커스 방식일 수 있다.
도 9은 도 8의 검출부를 보여주는 회로도이다.
도 9에 도시된 바와 같이, 본 발명의 카메라 모듈은, 고정부(310)에 영구 자석(315)이 배치되고, 이동부(330)에 이동 코일(340)이 배치되어, 자기 회로를 구성한 것으로, 코일에 흐르는 전류의 로렌쯔 힘에 의해, 렌즈 모듈인 이동부(330)가 구동하는 방식이다.
그리고, 고정 코일(320)은, 고정부(310)에 배치되어, 이동 코일(340)과의 거리에 따라 가변하는 전류 또는 전압을 이동 코일(340)로부터 수신할 수 있다.
여기서, 고정 코일(320)은, 이동부(330)의 일측으로부터 일정 간격 떨어져 배치되고, 이동부(330)의 이동 방향 선상에 위치할 수 있다.
따라서, 고정 코일(320)과 이동 코일(340)은, 전자기 상호 유도 현상에 의해, 전류 또는 전압이 이동 코일(340)로부터 고정 코일(320)로 유도될 수 있다.
이때, 유도되는 전류 또는 전압값은, 고정 코일(320)과 이동 코일(340) 사이의 거리에 따라 가변될 수 있다.
즉, 고정 코일(320)에 유도된 전류 또는 전압값은, 고정 코일(320)과 이동 코일(340)과의 수직간 거리에 따라 변하며, 이 변위값을 이용하여, 이동부(330)의 렌즈 모듈의 위치값을 예측할 수 있다.
그러므로, 검출부(810)는, 고정 코일(320)로부터 수신된 전류 또는 전압의 변위값을 검출할 수 있다.
여기서, 검출부(810)는, 반파 정류부(812), 변환부(814), 증폭부(816), 그리고 피크(peak) 검출부(818)를 포함할 수 있지만, 이에 제한되지는 않는다.
먼저, 검출부(810)의 반파 정류부(812)는, 고정 코일(320)로부터 수신되는 전류 또는 전압에 대한 주파수 신호를 반파 신호로 정류할 수 있다.
그리고, 검출부(810)의 변환부(814)는, 반파 정류부(812)로부터 수신되는 반파 신호를 전류 또는 전압으로 변환할 수 있다.
이어, 검출부(810)의 증폭부(816)는, 변환부(814)로부터 변환된 전류 또는 전압에 대한 주파수 신호를 증폭할 수 있다.
다음, 검출부(810)의 피크 검출부(818)는, 증폭부(816)로부터 증폭된 주파수 신호의 피크를 검출할 수 있다.
일 예로, 반파 정류부(812)는, 고정 코일(320)에 전류가 유도되면, 유도 전류에 대한 주파수 신호를 반파 신호로 정류한다.
그리고, 변환부(814)는, 전류를 전압으로 변환하는 전류-전압 변환 회로로서, 반파 신호로 정류된 전류를 전압으로 변환한다.
이어, 증폭부(816)는, 변환된 전압을 증폭시킨다.
다음, 피크 검출부(818)는, 증폭된 전압의 피크 값을 검출하여, 검출된 피크 값을 출력할 수 있다.
이와 같이, 검출부(810)는, 고정 코일(320)로부터 수신된 전류 또는 전압의 변위값을 검출하고, 렌즈 모듈인 이동부(330)의 오토 포커싱을 제어하는 오토 포커싱 제어부는, 이 변위값을 이용하여, 이동부(330)의 렌즈 모듈의 위치값을 예측할 수 있다.
그리고, 오토 포커싱 제어부는, 예측된 렌즈 모듈의 위치값을 이용하여, 최적의 오토 포커스 위치값을 찾아내고, 렌즈 모듈의 실제 위치값을 최적의 오토 포커스 위치값으로 이동하도록, 이동부(330)의 이동을 제어할 수 있다.
도 10은 도 3의 고정 코일과 이동 코일 사이의 전자기 유도 현상을 설명하기 위한 도면이다.
도 10에 도시된 바와 같이, 제2 카메라부(300)의 이동 코일은, 저주파 신호에 고주파 신호가 실린 구동 신호를 인가받아, 구동 신호를 고정 코일로 전송할 수 있다.
즉, 이동부의 이동 코일에 인가되는 구동 신호는, 저주파의 구동 신호에 임의의 고주파 신호가 실린 신호일 수 있다.
따라서, 고정 코일은, 전자기 유도 현상에 의해, 이동 코일로부터 유도되는 전류 또는 전압에 대한 주파수 신호를 수신하는데, 수신되는 주파수 신호는, 저주파 신호에 고주파 신호가 실린 신호일 수 있다.
여기서, 고정 코일에 수신되는 전자기 유도 고주파 응답 신호는, 고정 코일과 이동 코일 사이의 거리가 멀어질수록 작아지고, 고정 코일과 이동 코일 사이의 거리가 근접할수록 커진다.
이처럼, 고정 코일과 이동 코일 사이의 거리에 따라, 고정 코일에 수신되는 전자기 유도 고주파 응답 신호가 달라지므로, 검출부는, 고정 코일에 수신된 전류 또는 전압의 변위값을 검출하고, 오토 포커스 제어부는, 이 변위값을 이용하여, 이동부(330)의 렌즈 모듈의 위치값을 예측할 수 있다.
그리고, 오토 포커스 제어부는, 예측된 렌즈 모듈의 위치값을 이용하여, 최적의 오토 포커스 위치값을 찾아내고, 렌즈 모듈의 실제 위치값을 최적의 오토 포커스 위치값으로 이동하도록, 이동부의 이동을 제어할 수 있다.
또한, 오토 포커스 제어부는, 이동부의 이동 코일에 구동 신호를 인가할 때, 구동 제어부를 통해, 저주파 신호인 구동 신호에 임의의 고주파 신호를 합성할 수 있다.
여기서, 구동 신호의 저주파 신호는, 이동부를 이동시키는 위한 신호 성분이고, 구동 신호에 합성되는 고주파 신호는, 이동부의 이동 위치를 센싱하기 위한 신호 성분이며, 구동 신호보다 더 높은 주파수 신호일 수 잇다.
일 예로, 구동 신호에 합성되는 고주파 신호는, 약 100kHZ ? 약 5MHz일 수 있는데, 이에 제한되지는 않는다.
그리고, 오토 포커스 제어부는, 검출부를 통해, 고정 코일에 수신된 신호로부터 고주파 신호를 검출하고, 산출부를 통해, 검출된 고주파 신호를 토대로, 이동부의 포커스 위치값을 산출할 수 있다.
이와 같이, 저주파 신호에 고주파 신호가 합성된 구동 신호를 이동 코일에 인가하는 이유는, 전자기 유도 현상에 의해, 고정 코일에 유도되는 전류 또는 전압에 대한 주파수 신호를 크게 함으로써, 전류 또는 전압의 변위값을 쉽게 검출할 수 있기 때문이다.
한편, 오토 포커싱 제어부(390)가 수행하는 기능의 일부 또는 전부는, 제어부(180)에서 수행할 수 있다. 예를 들어, 제어부(180)는 이미지 센서(391)로부터 센싱된 이미지 신호를 처리할 수 있다. 또 다른 예로써, 제어부(180)는 신호 처리된 이미지들의 콘트라스트를 비교하여, 콘트라스트가 가장 높은 이미지를 추출하고, 추출된 이미지가 촬영된 이동부(330)의 위치를 최적의 포커스 위치로 결정할 수 있다. 또 다른 예로써, 제어부(180)는 구동 제어부(394)가 산출된 포커스 위치값으로 이동부(330)를 이동 시키도록 구동 제어부(394)에 제어 신호를 전송할 수 있다.
도 11a 내지 도 12c는, 본 발명의 실시 예에 따른, 동영상 촬영시 발생할 수 있는 왜곡 현상을 설명하기 위한 도면이다.
동영상을 촬영하는 동안, 갑작스러운 초점의 변화가 발생할 수 있다.
그 예로써, 촬영 장치의 위치나 방향을 급작스럽게 변경함에 따라 초점의 대상이었던 피사체가 사라지고 새로운 피사체가 영상에 등장하는 경우, 촬영 장치의 위치나 방향을 급작스럽게 변경함에 따라 초점의 대상이었던 피사체의 영상 상에서의 위치가 급작스럽게 변경하는 경우, 초점의 대상이었던 피사체가 빠른 속도로 이동함으로써 초점의 대상이었던 피사체의 영상 상에서의 위치가 급작스럽게 변경하는 경우, 카메라를 통하여 수신되는 영상에 둘 이상의 피사체가 있고 사용자 입력을 통하여 초점의 대상이 제1 피사체에서 제2 피사체로 변경되는 경우 등을 들 수 있다.
수동 초점 방식의 경우에는 사용자가 직접 촬영 장치의 세팅을 조절하여 초점을 변경하게 되나, 자동 초점 방식의 경우에는 촬영 장치에서 자동으로 촬영 장치의 세팅을 조절하여 초점을 변경하게 된다.
다만, 급격한 초점 변화가 있어 자동 초점 방식으로 새로운 초점을 설정하는 경우 정확한 초점을 잡기 위하여 렌즈가 이동하게 되는데, 이러한 경우 화면이 울렁거리는 현상이 모두 녹화되는 문제점이 발생할 수 있다.
예를 들어, 콘트라스트 자동 초점 방식의 경우, 렌즈 위치를 무한대부터 보냈다가 콘트라스트가 높은 부분으로 찾아오는 과정에서 화면이 울렁거리는 현상이 녹화될 수 있으며, 레이저 자동 초점 방식이나 위상차 자동 초점 방식의 경우에도, 밝은 낮에 촬영을 하거나 위상차를 구할 수 없는 경우와 같이 정확한 동작이 되지 않는 경우에는 화면이 울렁거리는 현상이 녹화될 수 있다.
또한, 최근에는 레이저 자동 초점 방식, 위상차 자동 초점 방식 및 콘트라스트 자동 초점 방식, 기타 자동 초점 방식의 일부 또는 전부를 조합함으로써, 레이저 자동 초점 방식, 위상차 자동 초점 방식 등을 이용하여 1차 튜닝을 하고, 콘트라스트 자동 초점 방식을 이용하여 최종 튜닝을 하는 방식도 등장하고 있다. 다만 이러한 경우에도, 레이저 자동 초점 방식이나 위상차 자동 초점 방식이 정확한 동작을 하지 않을 수 있으며, 콘트라스트 자동 초점 방식을 이용하여 최종 튜닝을 하는 경우에도 화면이 울렁거리는 현상이 녹화될 수 있다.
도 11a 내지 도 11c는 그 예를 설명한 것으로써, 도 11a에서 도시하는 바와 같이 제1 영상(1110)을 촬영하다가 촬영 장치의 위치나 방향을 급작스럽게 변경함에 따라, 기존에 초점의 대상이었던 피사체가 사라지고 새로운 피사체를 포함하는 제2 영상(1120)이 촬영될 수 있다. 이 경우 촬영 장치는 렌즈를 이동시키면서 정확한 초점으로 세팅하게 되나, 이 과정에서 도 11b에서 도시하는 바와 같이 제2 영상(1120)에 울렁임 등의 왜곡이 발생할 수 있으며, 이러한 왜곡은, 시간이 지나 도 11c에서 도시하는 바와 같이 초점이 정확하게 세팅되기까지 지속될 수 있다.
한편, 영상의 왜곡은 노출의 급격한 변화로도 발생할 수 있다. 예를 들어, 어두운 곳을 촬영하다가 조명의 변화나, 촬영 장치의 이동으로 인하여 갑자기 밝은 곳을 촬영하는 경우, 노출을 자동으로 조절하는 과정에서 화면이 하얗게 포화되는 현상이 발생할 수 있다.
또한, 조명 등의 급격한 변화로 화이트 밸런스를 조절하는 과정에서도, 새로운 값으로 튜닝하는 과정에서 일부 프레임의 영상이 왜곡되어 녹화되는 현상이 발생할 수 있다. 예를 들어, 컬러 스펙트럼 센서가 없는 촬영 장치의 경우에는 이미지 센서에서 획득한 R, G, B 값 만을 기준으로 자동 화이트 밸런스 보정을 수행하기 때문에 많은 프레임의 영상에서 왜곡이 발생할 수 있으며, 컬러 스펙트렘 센서가 있는 경우에도 이미지 센서를 통하여 획득되는 값과 컬러 스펙트럼 센서를 통하여 획득되는 값의 비교를 통한 튜닝 단계가 필요하기 때문에, 일부 프레임의 영상에서 왜곡이 발생할 수 있다.
도 12는, 본 발명의 실시 예에 따른, 듀얼 카메라가 장착된 동영상 촬영 장치의 동영상 촬영 방법을 설명하기 위한 흐름도이다.
여기서 흐름도의 좌측 영역의 단계(S1210, S1230, S1270)들은, 듀얼 카메라가 장착된 이동 단말기(100)의 제1 카메라부(200) 및 제어부(180) 중 적어도 하나가 기타 다른 구성과 함께 수행할 수 있는 단계이고, 흐름도의 우측 영역의 단계(S1220, S1240, S1250)들은, 듀얼 카메라가 장착된 이동 단말기(100)의 제2 카메라부(300) 및 제어부(180) 중 적어도 하나가 기타 다른 구성과 함께 수행할 수 있는 단계이다.
한편, 이하의 실시 예에서는, 본 발명이 듀얼 카메라를 장착한 이동 단말기에서 구현되는 것으로 설명하나 이에 한정되지 않는다.
즉, 본 발명은 듀얼 카메라를 장착하고 동영상의 촬영을 수행할 수 있는 촬영 장치나, 듀얼 카메라를 장착하고 동영상의 촬영을 수행할 수 있는 모든 전자 기기에 적용될 수 있다. 또한, 듀얼 카메라를 장착하고 동영상의 촬영을 수행할 수 있는 촬영 장치나 전자 기기는, 도 1에서 설명한 이동 단말기(100)의 구성 중 일부 또는 전부를 포함할 수 있다. 예를 들어, 듀얼 카메라를 장착하고 동영상의 촬영을 수행할 수 있는 촬영 장치는, 사용자로부터 입력을 수신하는 입력부나 촬영 장치의 움직임을 감지하는 센싱부를 포함할 수 있다.
본 발명의 실시 예에 따른, 듀얼 카메라가 장착된 동영상 촬영 장치의 동영상 촬영 방법은, 제1 카메라부(200)를 이용하여 동영상을 촬영하는 단계(S1210), 제2 카메라부(300)를 통하여 영상을 수신하는 단계(S1220), 제2 카메라부를 통하여 수신되는 영상에 기초하여 보정 정보를 획득하는 단계(S1230), 획득한 보정 정보에 기초하여 제2 카메라부(300)를 제어하는 단계(S1240), 제어된 제2 카메라부(300)를 통하여 수신되는 영상에 기초하여 최종 보정 정보를 획득하는 단계(S1250) 및 최종 보정 정보에 기초하여 동영상을 촬영하도록 제1 카메라부(200)를 제어하는 단계를 포함할 수 있다.
여기서, 제1 카메라부(200)를 이용하여 동영상을 촬영하는 단계(S1210) 및 제2 카메라부(300)를 통하여 영상을 수신하는 단계(S1220)에 대해서는 도 13을 참고하여 구체적으로 설명한다.
도 13은, 본 발명의 실시 예에 따른 제1 카메라부(200) 및 제2 카메라부(300)를 통하여 수신되는 영상을 도시한 도면이다.
제어부(180)는 제1 카메라부(200)를 이용하여 동영상을 촬영할 수 있다.
구체적으로, 제1 카메라부(200)는 영상을 수신할 수 있다. 또한, 제1 카메라부(200)는 제1 카메라부(200)에 포함된 이미지 센서에 의하여 획득되는 동영상의 화상 프레임을 처리할 수 있다.
이렇게 처리된 화상 프레임은, 제어부(180)의 제어 하에 디스플레이부(151)에 디스플레이 될 수 있다.
또한, 처리된 화상 프레임은 제어부(180)의 제어 하에 저장부(170)에 저장됨으로써, 제어부(180)는 제1 카메라부(200)를 이용하여 동영상을 촬영하고 촬영된 동영상을 녹화할 수 있다.
한편, 제2 카메라부(300)는 영상을 수신할 수 있다.
여기서 제2 카메라부(300)가 수신하는 영상은 제1 카메라부(200)가 수신하는 영상과 동일한 영상일 수 있다. 구체적으로, 제1 카메라부(200)와 제2 카메라부(300)는 동일한 방향을 향하도록 장착되기 때문에, 제2 카메라부(300)는 제1 카메라부(200)와 동일한 영상을 수신할 수 있다. 예를 들어, 제1 카메라부(200)와 제2 카메라부(300)는 이동 단말기(100)의 동일한 면에 장착될 수 있다.
또한, 제2 카메라부(300)는 제2 카메라부(200)에 포함된 이미지 센서에 의하여 획득되는 정지 영상 또는 동영상의 화상 프레임을 처리할 수 있다.
또한, 제어부(180)는 제2 카메라부(300)를 통하여 수신되는 영상(1310)에 기초하여, 초점 대상 피사체(1311)에 초점이 맞추어져 있는지에 대한 정보를 획득할 수 있다.
한편, 초점 대상 피사체에 초점이 맞추어져 있지 않은 경우, 제어부(180)는 보정 정보를 획득할 수 있다. 구체적으로, 제1 카메라부(200)를 이용하여 동영상을 촬영하는 동안, 제어부(180)는 제2 카메라부(300)를 통하여 수신되는 영상(1310)에 기초하여 보정 정보를 지속적으로 획득할 수 있다.
여기서 제2 카메라부(300)를 통하여 수신되는 영상(1310)에 기초하여 획득되는 보정 정보는, 제2 카메라부(300)의 자동 초점(Auto Focus)을 위한 제어 정보, 제2 카메라부(300)의 자동 노출(Auto Exposure)을 위한 제어 정보 및 2 카메라부(300)의 자동 화이트 밸런스(Auto White Balance)를 위한 제어 정보 중 적어도 하나일 수 있다.
여기서 제2 카메라부(300)의 자동 초점(Auto Focus)을 위한 제어 정보는, 피사체에 초점을 맞추기 위한 렌즈의 위치의 제어 정보 및 초점을 맞추는데 필요한 광량을 확보하기 위한 제어 정보(ISO나 노출 시간 정보) 중 적어도 하나를 포함할 수 있다.
초점 대상 피사체(1311)에 초점을 맞추기 위한 제2 카메라부(300)의 자동 초점(Auto Focus)을 위한 제어 정보는, 다양한 방한 방식을 통하여 획득될 수 있다.
예를 들어, 콘트라스트 자동 초점 방식의 경우, 제어부(180)는 제2 카메라부(300)에 포함된 렌즈를 이동시켜가면서 복수의 화상 프레임을 획득함으로써 제2 카메라부(300)의 자동 초점(Auto Focus)을 위한 제어 정보를 획득할 수 있다.
다른 예로써, 위상차 자동 초점 방식의 경우, 제어부(180)는 두 영상의 위상 차이에 기초하여 제2 카메라부(300)의 자동 초점(Auto Focus)을 위한 제어 정보를 획득할 수 있다. 한편, 제2 카메라부(300)는 두 영상의 위상 차이에 기초하여 피사체와의 거리를 판단하는 위상차 제어부(미도시)를 포함할 수 있다.
또한, 레이저 자동 초점 방식의 경우, 제어부(180)는 레이저를 이용하여 피사체의 거리를 판단함으로써 제2 카메라부(300)의 자동 초점(Auto Focus)을 위한 제어 정보를 획득할 수 있다. 또한, 피사체와의 거리를 판단하기 위하여 레이저뿐만 아니라, 초음파나 적외선 등이 이용될 수 있다. 이를 위하여 제2 카메라부(300)는 광을 조사하는 광 조사부(미도시) 및 피사체로부터 반사되는 광을 수광하는 광 수광부(미도시)를 포함할 수 있다.
또한, 제어부(180)는, 상술한 다양한 방식을 조합하여 제2 카메라부(300)의 자동 초점(Auto Focus)을 위한 제어 정보를 획득할 수 있다.
한편, 제어부(180)는 제2 카메라부(180)를 통하여 수신되는 영상에 기초하여, 초점 대상 피사체(1311)에 초점이 맞춰져 있는지 판단할 수 있다. 또한, 초점 대상 피사체(1311)에 초점이 맞춰져 있는 경우, 제어부(180)는 자동 초점을 위한 제2 카메라부(300)의 설정값, 즉 제2 카메라부(300)에 포함된 렌즈의 위치를 변경하지 않고 유지시킬 수 있다.
또한, 제어부(180)는 제2 카메라부(300)를 통하여 수신되는 영상으로부터 광량 정보를 획득함으로써, 초점을 맞추는데 필요한 광량을 확보하기 위한 제어 정보를 획득할 수 있다.
한편, 제어부(180)는 제2 카메라부(300)의 자동 노출(Auto Exposure)을 위한 제어 정보를 획득할 수 있다. 구체적으로, 제어부(180)는 제2 카메라부(300)를 통하여 수신되는 영상으로부터 광량에 대한 정보를 획득하고, 기 설정된 노출 값에 대응하는 광량을 확보하기 위한 제어 정보(ISO나 노출 시간 정보)를 획득할 수 있다. 또한, 자동 초점(Auto Focus)이 수행되는 경우에도, 제어부(180)는 제2 카메라부(300)를 통하여 수신되는 영상으로부터 광량에 대한 정보를 획득하고, 피사체에 초점을 맞추기 위하여 필요한 광량을 확보하기 위한 제어 정보(ISO나 노출 시간 정보)를 획득할 수 있다.
한편, 제어부(180)는 2 카메라부(300)의 자동 화이트 밸런스(Auto White Balance)를 위한 제어 정보를 획득할 수 있다.
구체적으로, 제2 카메라부(300)는 제2 카메라부(300)를 통하여 수신되는 영상의 컬러를 판단하기 위한 컬러 스펙트럼 센서(미도시)를 포함할 수 있으며, 제어부(180)는 컬러 스펙트럼 센서(미도시)로부터 획득되는 센싱값과 이미지 센서(391)로부터 획득되는 센싱값을 비교하여, 2 카메라부(300)의 자동 화이트 밸런스(Auto White Balance)를 위한 제어 정보를 획득할 수 있다.
또한, 제2 카메라부(300)가 컬러 스펙트럼 센서(미도시)를 포함하지 않는 경우에는, 제어부(180)는 이미지 센서(391)로부터 획득되는 R, G, B 값을 이용하여 2 카메라부(300)의 자동 화이트 밸런스(Auto White Balance)를 위한 제어 정보를 획득할 수 있다.
한편, 제2 카메라부(300)는 화이트 밸런스 제어부(미도시)를 포함할 수 있으며, 앞서 설명한 자동 화이트 밸런스(Auto White Balance)를 위한 제어 정보의 획득은, 제어부(180)의 제어에 따라 화이트 밸런스 제어부(미도시)에서 수행될 수 있다. 또한, 화이트 밸런스 제어부(미도시)는, 제어부(180)의 제어에 따라 자동 화이트 밸런스(Auto White Balance)를 위한 제어 정보를 이용하여 제2 카메라부(300)를 통하여 수신되는 영상의 화이트 밸런스를 보정할 수 있다.
한편, 제1 카메라부(200)를 통하여 수신되는 영상은, 제어부(180)의 제어 하에 녹화되거나 디스플레이부(151)를 통하여 출력되는 영상일 수 있다.
이에 반해 제2 카메라부(300)를 통하여 수신되는 영상은, 제2 카메라부(300)의 자동 초점(Auto Focus)을 위한 제어 정보, 제2 카메라부(300)의 자동 노출(Auto Exposure)을 위한 제어 정보 및 2 카메라부(300)의 자동 화이트 밸런스(Auto White Balance)를 위한 제어 정보 중 적어도 하나를 획득하는데 이용되는 영상일 뿐, 녹화되거나 출력되는 영상은 아닐 수 있다. 다만, 제어 정보의 획득을 위하여, 제2 카메라부(300)를 통하여 수신되는 영상을 처리한 하나 이상의 화상 프레임은 저장부(170)에 임시 저장될 수 있다.
다시 도 12로 돌아가서, 본 발명의 실시 예에 따른 듀얼 카메라가 장착 동영상 촬영 장치의 동영상 촬영 방법은, 제2 카메라부를 통하여 수신되는 영상에 기초하여 보정 정보를 획득하는 단계(S1230)를 포함할 수 있다.
이와 관련해서는 도 14a 및 도 14b를 참고하여 구체적으로 설명한다.
도 14a 및 도 14b는 본 발명의 실시 예에 따른, 영상의 변화로 인하여 급격한 초점 변화가 수행되어야 하는 경우를 설명하기 위한 도면이다.
이동 단말기(100)의 사용자가 촬영 방향을 변화시킨 경우, 이동 단말기(100)는 새로운 영상을 수신하게 된다. 이 경우, 새로운 영상은 새로운 초점 대상 피사체(1411)를 포함할 수도 있고, 촬영 방향을 변화시기 전의 영상에 포함된 초점 대상 피사체의 위치나 거리가 변경되어 있을 수도 있다.
이 경우, 제1 카메라부(200)에서는 동영상의 촬영을 계속한다. 구체적으로, 제어부(180)는 제1 카메라부(200)는 촬영 방향이 변화되는 동안 수신된 동영상 및 촬영 방향이 변화된 후 수신된 동영상의 화상 프레임을 처리하고, 처리된 화상 프레임을 저장부(170)에 저장할 수 있다.
도 14a는 제1 카메라부(200)를 이용하여 촬영된 동영상의 한 장면(1410)을 도시한 도면이다.
영상의 변화로 인하여 급격한 초점의 변화가 수행되어야 하는 경우에도, 자동 초점(Auto Focus, AF), 자동 노출(Auto Exposure, AE), 자동 화이트 밸런스(Auto White Balance, AWB) 중 적어도 하나를 위한 제1 카메라부(200)의 설정 값은 변경되지 않는다.
예를 들어, 도 14a와 같이, 수신되는 영상의 변화로 인하여 초점 대상 피사체가 변경된 경우에도, 제어부(180)는 변경된 초점 대상 피사체(1411)로 초점을 맞추기 위하여 초점값을 변경시키는 것 없이 제1 카메라부(200)가 이전의 초점값을 유지하도록 제어할 수 있다. 즉, 제어부(180)는 제1 카메라부(200)에 포함된 렌즈의 위치를 유지하도록 제어할 수 있다.
또한, 수신되는 영상의 변화로 인하여 제1 카메라부(200)를 통하여 수신되는 광량이 변경된 경우에도, 제어부(180)는 변경된 초점 대상 피사체(1411)로 초점을 맞추기 위하여 제1 카메라부(200)의 노출값을 변경시키는 것 없이 제1 카메라부(200)가 이전의 노출값을 유지하도록 제어할 수 있다. 즉, 제어부(180)는 제1 카메라부(200)의 ISO나 노출 시간 중 적어도 하나를 유지하도록 제어할 수 있다.
한편, 도 14b는 제2 카메라부(300)를 이용하여 촬영되는 영상(1420)를 도시한 도면이다.
도 13에서는, 제1 카메라부(200)를 이용하여 동영상이 촬영되는 동안 제어부(180)는 제2 카메라부(300)를 통하여 수신되는 영상에 기초하여 보정 정보를 지속적으로 획득하는 것으로 설명하였다.
또한, 영상의 변화로 인하여 초점을 변화시켜야 하는 경우에도 역시, 제어부(180)는 제2 카메라부(300)를 통하여 수신되는 영상에 기초하여 보정 정보를 획득할 수 있다.
여기서 제2 카메라부(300)를 통하여 수신되는 영상에 기초하여 획득되는 보정 정보는, 제2 카메라부(300)의 자동 초점(Auto Focus)을 위한 제어 정보일 수 있다.
구체적으로 제2 카메라부(300)를 통하여 수신되는 영상이 변경된 경우, 제어부(180)는 제2 카메라부(300)를 통하여 수신되는 영상에 포함된 초점 대상 피사체(1421)에 초점이 맞추어져 있는지를 판단할 수 있다.
한편, 제2 카메라부를 통하여 수신되는 영상에 포함된 초점 대상 피사체(1421)에 초점이 맞추어져 있지 않은 경우, 제어부(180)는 초점 대상 피사체(1421)에 초점을 맞추기 위한 보정 정보를 획득할 수 있다.
여기서 획득되는 보정 정보는, 제2 카메라부(300)의 자동 초점(Auto Focus)을 위한 제어 정보일 수 있다.
구체적으로, 제2 카메라부(300)의 자동 초점(Auto Focus)을 위한 제어 정보는, 초점 대상 피사체(1421)에 초점을 맞추기 위한 렌즈의 위치에 대한 정보일 수 있다. 또한, 제2 카메라부(300)의 자동 초점(Auto Focus)을 위한 제어 정보는, 제2 카메라부(300)에 포함된 렌즈가 현재 위치로부터 어느 방향으로 어느 거리만큼 이동해야 하는지에 대한 정보일 수 있다.
예를 들어 콘트라스트 자동 초점(Auto Focus) 방식에서, 변경된 영상 에 포함된 초점 대상 피사체(1421)에 초점이 맞지 않는 경우, 제어부(180)는 제2 카메라부(300)에 포함된 렌즈를 이동시켜 가면서 초점 대상 피사체(1421)의 콘트라스트가 최대가 되는 렌즈의 위치에 대한 정보를 산출하게 된다. 이 경우 제2 카메라부(300)의 자동 초점(Auto Focus)을 위한 제어 정보는, 초점 대상 피사체(1421)의 콘트라스트가 최대가 되는 렌즈의 위치에 대한 정보일 수 있다.
다른 예로써 위상차 자동 초점 방식에서, 변경된 영상에 포함된 초점 대상 피사체(1421)에 초점이 맞지 않는 경우, 제어부(180)는 제2 카메라부(300)를 통하여 획득한 두 영상의 위상 차이에 기초하여 제2 카메라부(300)에 포함된 초점 대상 피사체(1421)에 초점을 맞출 수 있는 렌즈의 위치에 대한 정보를 획득할 수 있다.
또 다른 예로서, 레이저 자동 초점 방식에서, 변경된 영상에 포함된 초점 대상 피사체(1421)에 초점이 맞지 않는 경우, 제어부(180)는 초점 대상 피사체(1421)와의 거리에 기초하여 초점 대상 피사체(1421)에 초점을 맞출 수 있는 렌즈의 위치에 대한 정보를 획득할 수 있다.
본 발명의 실시 예에 따른, 듀얼 카메라가 장착된 촬영 장치의 동영상 촬영 방법은, 획득한 보정 정보에 기초하여 제2 카메라부(300)를 제어하는 단계(S1240)를 포함할 수 있다.
이와 관련해서는 도 15a 및 도 15b를 참고하여 구체적으로 설명한다.
도 15a는 보정 정보에 기초하여 제2 카메라부(300)가 제어된 경우 제1 카메라부(200)를 통하여 촬영되는 영상(1510)을 도시한 도면이다.
제어부(180)는 제1 카메라부(200)를 이용하여 동영상을 계속 촬영할 수 있다.
또한, 획득한 보정 정보에 기초하여 제2 카메라부(300)를 제어하는 동안에도, 제어부(180)는 자동 초점(Auto Focus, AF), 자동 노출(Auto Exposure, AE), 자동 화이트 밸런스(Auto White Balance, AWB) 중 적어도 하나를 위한 제1 카메라부(200)의 설정 값을 변경하는 것 없이 유지할 수 있다.
예를 들어, 획득한 보정 정보에 기초하여 제2 카메라부(300)를 제어하는 동안에도, 제어부(180)는 변경된 초점 대상 피사체로 초점을 맞추기 위하여 초점값을 변경시키는 것 없이 제1 카메라부(200)가 이전의 초점값을 유지하도록 제어할 수 있다. 즉, 제어부(180)는 제1 카메라부(200)에 포함된 렌즈의 위치를 유지하도록 제어할 수 있다.
또한, 획득한 보정 정보에 기초하여 제2 카메라부(300)를 제어하는 동안에도, 제어부(180)는 변경된 초점 대상 피사체로 초점을 맞추기 위하여 제1 카메라부(200)의 노출값을 변경시키는 것 없이 제1 카메라부(200)가 이전의 노출값을 유지하도록 제어할 수 있다. 즉, 제어부(180)는 제1 카메라부(200)의 ISO나 노출 시간 중 적어도 하나를 유지하도록 제어할 수 있다.
따라서, 획득한 보정 정보에 기초하여 제2 카메라부(300)를 제어하는 동안에도, 제1 카메라부(200)의 설정 값이 변경되지 않은 상태에서 촬영된 동영상이 녹화될 수 있다.
도 15b는 보정 정보에 기초하여 제2 카메라부(300)가 제어된 경우 제2 카메라부(300)를 통하여 촬영되는 영상(1520)을 도시한 도면이다.
한편, 제2 카메라부(300)를 통하여 수신되는 영상에 기초하여 보정 정보가 획득되면, 제어부(180)는 획득한 보정 정보에 기초하여 제2 카메라부(300)가 보정을 위한 동작을 수행하도록 제어할 수 있다.
구체적으로, 획득한 보정정보가 자동 초점(Auto Focus)을 위한 제어 정보인 경우, 초점 대상 피사체에 초점을 맞출 수 있는 제2 카메라부(300)의 렌즈의 위치값이 획득되면, 제어부(180)는 초점 대상 피사체에 초점이 맞도록 렌즈를 이동 시킬 수 있다.
더욱 구체적으로, 제어부(180)는 제2 카메라부(300)에 포함된 렌즈의 현재 위치에 대한 정보 및 초점 대상 피사체에 초점을 맞출 수 있는 렌즈의 위치에 대한 정보에 기초하여 제2 카메라부(300)에 포함된 렌즈의 이동 방향 및 이동 거리에 대한 정보를 획득하고, 획득한 정보에 기초하여 제2 카메라부(300)에 포함된 렌즈를 이동시킬 수 있다.
또한, 획득한 보정 정보에 기초하여 제2 카메라부(300)가 제어된 경우, 제어부(180)는 제어된 제2 카메라부(300)를 통하여 영상을 수신할 수 있다. 구체적으로, 획득한 렌즈의 위치 값에 기초하여 제2 카메라부(300)에 포함된 렌즈가 이동한 경우, 제어부(180)는 렌즈가 이동한 제2 카메라부(300)를 통하여 영상을 수신할 수 있다.
도 15b에서는, 제2 카메라부(300)의 렌즈가 이동되었기 때문에, 제2 카메라부(300)를 통하여 촬영되는 영상(1520)의 초점은 초점 대상 피사체(1521)에 맞는 것을 알 수 있다.
다시 도 12로 돌아가서, 본 발명의 실시 예에 따른 듀얼 카메라가 장착 동영상 촬영 장치의 동영상 촬영 방법은, 제어된 제2 카메라부(300)를 통하여 수신되는 영상으로부터 최종 보정 정보를 획득하는 단계(S1250) 및 최종 보정 정보에 기초하여 동영상을 촬영하도록 제1 카메라부(200)를 제어하는 단계를 포함할 수 있다.
이와 관련해서는 도 16 내지 도 17을 참고하여 구체적으로 설명한다.
도 16은, 본 발명의 실시 예에 따른 제2 카메라부(300)를 통하여 촬영된 영상(1610)을 도시한 도면이다.
현재 동영상을 촬영하고 있는 중이기 때문에, 제어부(180)는 자동 초점을 수행하기 위한 정보를 지속적으로 획득하고 있는 중이다.
따라서, 획득한 보정 정보에 기초하여 제2 카메라부(300)가 제어된 경우에도, 제어부(180)는 제어된 제2 카메라부(300)를 통하여 영상을 수신할 수 있다.
또한, 제어부(180)는 제어된 제2 카메라부(300)를 통하여 수신되는 영상에 기초하여, 제어된 제2 카메라부(300)에서의 보정이 완료되었는지에 대한 정보를 획득할 수 있다. 구체적으로, 제어부(180)는 제어된 제2 카메라부(300)를 통하여 수신되는 영상에 기초하여, 현재 제2 카메라부(300)의 설정 값이 자동 초점, 자동 노출 및 자동 화이트 밸런스 중 적어도 하나를 위한 제2 카메라부(300)의 설정 값에 대응하는지 판단할 수 있다.
또한, 제어된 제2 카메라부(300)에서의 보정이 완료되었으면, 제어부(180)는 제어된 제2 카메라부(300)의 설정 값을 최종 보정 정보로써 획득할 수 있다.
예를 들어, 보정 정보에 기초하여 제2 카메라부(300)가 제어된 이후에도, 제어부(180)는 제어된 제2 카메라부(300)를 통하여 수신되는 영상에 기초하여 제2 카메라부(300)를 통하여 수신되는 영상에 포함된 초점 대상 피사체(1611)에 초점이 맞추어져 있는지 판단할 수 있다.
또한, 제2 카메라부(300)를 통하여 수신되는 영상에 포함된 초점 대상 피사체(1611)에 초점이 맞는 것으로 판단되면, 제어부(180)는 제어된 제2 카메라부(300)에서의 보정이 완료된 것으로 판단하고, 제어된 제2 카메라부(300)의 설정 값을 최종 보정 정보써 획득할 수 있다.
즉, 보정 정보에 기초하여 제2 카메라부(300)가 제어되는 동안 이동 단말기(100)에 별 다른 움직임이 없었던 경우에는, 제어된 제2 카메라부(300)를 통하여 수신되는 영상은 초점이 맞게 되는 바, 제어부(180)는 제어된 제2 카메라부(300)를 통하여 수신되는 영상에 기초하여 최종 보정 정보를 획득할 수 있다.
여기서 최종 보정 정보는, 보정 정보에 기초하여 제2 카메라부(300)가 제어됨에 따라 획득된 제2 카메라부(300)의 초점에 관한 최종 제어 정보일 수 있다.
즉, 앞서 설명한 보정 정보에 대응하도록 제2 카메라부(300)에 포함된 렌즈가 이동하였고, 렌즈가 이동한 후에 제2 카메라부(300)를 통하여 수신되는 영상의 초점이 맞는 경우, 최종 보정 정보는 렌즈가 이동한 이후의 렌즈의 위치에 대한 정보일 수 있다.
한편, 제어부(180)는 특정 시간 이상(또는 특정 개수의 프레임 이상) 피사체에 초점이 맞는 경우 초점 대상 피사체(1611)에 초점이 맞는 것으로 판단할 수 있다.
한편, 보정 정보에 기초하여 제2 카메라부(300)가 제어된 이후에도, 초점 대상 피사체(1611)에 초점이 맞지 않을 수 있다. 보정 정보에 기초하여 제2 카메라부(300)가 제어되는 동안 이동 단말기(100)가 추가적으로 이동하거나, 피사체(1611)가 이동하는 경우를 그 예로써 들 수 있다.
제2 카메라부(300)를 통하여 수신되는 영상에 포함된 초점 대상 피사체(1611)에 초점이 맞지 않는 것으로 판단되면, 제어부(180)는 최종 보정 정보를 획득하지 않는다. 이 경우, 단계 1220 내지 단계 1240이 반복될 수 있다. 즉, 제어부(180)는 제어된 제2 카메라부(300)를 통하여 수신되는 영상에 기초하여 보정 정보를 다시 획득하고, 획득한 보정 정보에 기초하여 자동 보정을 수행하도록 제2 카메라부(300)를 다시 제어할 수 있다. 또한, 다시 제어된 제2 카메라부(300)를 통하여 수신된 영상에 기초하여 초점이 맞는지를 판단하고, 초점이 맞으면 최종 보정 정보를 획득할 수 있다.
한편, 제어된 제2 카메라부(300)를 통하여 수신되는 영상에 기초하여 최종 보정 정보가 획득되면, 제어부(180)는 최종 보정 정보에 기초하여 동영상을 촬영하도록 제1 카메라부(200)를 제어할 수 있다.
구체적으로, 최종 보정 정보가 제2 카메라부(300)에 포함된 렌즈의 위치에 대한 정보인 경우, 제어부(180)는 제2 카메라부(300)에 포함된 렌즈의 위치에 대한 정보에 기초하여 제2 카메라부(300)에 포함된 렌즈의 위치에 대응되는 위치로 제1 카메라부(200)의 렌즈가 이동하도록 제1 카메라부(200)를 제어할 수 있다.
예를 들어, 제1 카메라부(200)와 제2 카메라부(300)는 동일한 제품으로써 동일한 구조를 가지고 있는 경우, 제1 카메라부(200)의 렌즈가 제1 카메라부(200) 내에서 이동한 위치는 제2 카메라부(300)의 렌즈가 제2 카메라부(300) 내에서 이동한 위치와 동일할 수 있다. 다시 말해서, 제1 카메라부(200)에 포함된 렌즈의 제1 카메라부(200)에서의 위치 값과 2 카메라부(300)에 포함된 렌즈의 제2 카메라부(300)에서의 위치 값은 서로 동일할 수 있다.
도 17은 본 발명의 실시 예에 따른, 최종 보정 정보에 기초하여 제1 카메라부(100)를 제어한 후, 제어된 제1 카메라부(100)를 이용하여 촬영한 동영상의 한 장면(1710)을 도시한 도면이다.
도 16에서는, 초점이 맞도록 제어된 제2 카메라부(300)를 통하여 촬영되는 영상(1610)을 도시한 바 있다.
또한, 제2 카메라부(300)에서의 설정 값(렌즈의 위치 값)을 이용하여 제1 카메라부(200)의 설정 값(렌즈의 위치 값)도 변경한 바, 도 17에서 도시하는 바와 같이, 이동 단말기(100)는 피사체에 초점이 맞도록 촬영된 영상(1710)을 획득할 수 있다.
한편, 제어부(180)는 최종 보정 정보에 기초하여 제어된 제1 카메라(200)를 이용하여 촬영한 영상을 저장부(170)에 저장할 수 있다.
한편, 제1 카메라부(200)의 구조와 제2 카메라부(300)의 구조는 서로 상이할 수 있다. 예를 들어, 제1 카메라부(200)의 카메라와 제2 카메라부(300)의 카메라는 서로 다른 종류의 것일 수 있다.
이러한 경우, 제어부(180)는 최종 보정 정보 및 제1 카메라부(200)와 제2 카메라부(300) 간의 보정 정보에 기초하여 동영상을 촬영하도록 제1 카메라부(200)를 제어할 수 있다. 여기서 제1 카메라부(200)와 제2 카메라부(300) 간의 보정 정보란, 제1 카메라부(200)와 제2 카메라부(300)의 구조적 차이에 기초하여 제2 카메라부(200)에서의 설정값을 제1 카메라부(100)에 적용하기 위한 보상값일 수 있다.
예를 들어, 제1 카메라부(200)와 제2 카메라부(300)의 구조적 차이 때문에, 제2 카메라부(300)에 포함된 렌즈는 a 만큼 이동하면 특정 거리에 있는 피사체에 초점을 맞출 수 있는 반면, 제1 카메라부(200)를 이용하여 상기 특정 거리에 있는 피사체에 초점을 맞추기 위해서는 제1 카메라부(200)에 포함된 렌즈가 b 만큼 이동해야 하는 경우가 발생할 수 있다.
이 경우, 제2 카메라부(300)의 최종 보정 정보 및 제1 카메라부(200)에서의 설정을 제2 카메라부(300)에서 적용하기 위한 제1 카메라부(200)와 제2 카메라부(300) 간의 보정 정보에 기초하여, 제어부(180)는 동영상을 촬영하도록 제1 카메라부(200)를 제어할 수 있다.
예를 들어, 제2 카메라부(300)에 포함된 렌즈가 a 만큼 이동하여 특정 거리에 있는 피사체에 초점을 맞춘 경우, 제어부(180)는 제1 카메라부(200)에 포함된 렌즈가 b 만큼 이동하도록 제1 카메라부(200)를 제어할 수 있다.
한편, 저장부(170)는 제1 카메라부(200)와 제2 카메라부(300)의 구조적 차이를 반영한 보정 테이블을 저장할 수 있으며, 제어부(180)는 보정 테이블에 기초하여 제1 카메라부(200)를 제어할 수 있다.
앞서 설명한 바와 같이, 하나의 카메라로 자동 초점 및 녹화가 동시에 수행되는 경우에는 초점을 맞추는 과정에서 렌즈가 이동하게 따고, 이에 따라 화면이 울렁거리는 현상이 녹화될 수 있었다. 즉, 영상이 변화하기 전에 초점을 맞추기 위한 렌즈의 위치를 제1 값, 영상이 변화한 후에 초점을 맞추기 위한 렌즈의 위치를 제2 값이라고 하면, 렌즈의 위치가 제1 값에서 제2 값으로 바로 변경되는 것이 아니라 제 1값에서 제3 값 및 제4 값 등으로 변경된 후 최종적으로 제2 값으로 변경되며, 이러한 과정이 모두 녹화되는 문제점이 있었다.
다만, 본 발명은 자동 초점을 위한 제어를 현재 녹화를 수행하는 제1 카메라부 대신 제2 카메라부를 이용하여 수행함으로써 이러한 문제점을 해결할 수 있다. 즉, 본 발명은, 영상이 변화하기 전에 제1 카메라부 및 제2 카메라부의 렌즈의 위치가 제1값인 상태에서 영상이 변화하면, 자동 초점을 수행하기 위하여 제2 카메라부의 렌즈가 제3 값 및 제4값 등으로 변경되게 된다. 그리고 제2 카메라부의 렌즈가 제2 값으로 변경되어 최종적으로 초점이 맞게 되면, 제1 카메라부의 렌즈의 위치를 제2 값으로 변경시키게 된다. 따라서, 동영상에는 렌즈의 위치가 제1 값에서 제3 값 및 제4 값을 거쳐 제2 값으로 변경되는 과정이 녹화되는 것이 아니라, 렌즈의 위치가 제1 값에서 제2 값으로 변경되는 과정만이 녹화되기 때문에, 화면의 왜곡을 최소화 시킬 수 있고 영상을 부드럽게 변경시킬 수 있다.
또한, 최근에는 동일한 면에 두개의 카메라를 장착하되, 두개의 카메라 간의 종류가 다른 단말기가 등장하고 있으며, 본 발명의 제1 카메라부(200) 및 제2 카메라부(30)도 역시 다른 종류의 카메라일 수 있다.
예를 들어, 본 발명의 제1 카메라부(200)는 광각 렌즈를 포함하여 일반 카메라보다 더 넓은 화각을 가지는 광각 카메라일 수 있으며 본 발명의 제2 카메라부(300)는 광각 카메라가 아닌 일반 카메라일 수 있다. 다른 예로써, 본 발명의 제1 카메라부(200)는 어안 렌즈를 포함하는 카메라일 수 있으며 본 발명의 제2 카메라부(300)는 일반 카메라일 수 있다.
이 경우 본 발명은, 제1 카메라부와 제2 카메라부의 구조나 성능의 차이를 고려한 보정을 한 후 제2 카메라부의 세팅 값을 제1 카메라부에 적용함으로써, 제1 카메라부와 제2 카메라부의 종류가 다른 경우에도, 제2 카메라부의 최종 보정 정보를 이용하여 제1 카메라부의 자동 보정을 정확하게 수행할 수 있는 장점이 있다.
한편, 상술한 실시 예에서는 제1 카메라부(200)를 이용하여 동영상 촬영 및 녹화를 수행하고, 제2 카메라부(300)를 이용하여 자동 보정 정보를 획득하는 것으로 설명하였으나 이에 한정되지 않는다.
예를 들어, 본 발명은 제2 카메라부(300)를 이용하여 동영상 촬영 및 녹화를 수행하고, 제1 카메라부(200)를 이용하여 자동 보정 정보를 획득하는 방식으로도 구현될 수 있다.
동일한 면에 두개의 카메라가 장착된 경우, 사용자의 취향에 따라 동영상 녹화에 이용되는 카메라가 달라질 수 있다. 예를 들어, 사용자가 더 넓은 화각을 촬영하고 싶은 경우 사용자는 광각 렌즈를 포함하는 제1 카메라부(200)를 이용하여 촬영을 수행할 수도 있으며, 사용자가 일반 촬영을 하고 싶은 경우 사용자는 일반 렌즈를 포함하는 제2 카메라부(300)를 이용하여 촬영을 수행할 수 있다.
본 발명은, 제1 카메라부(200)를 이용하여 동영상 촬영 및 녹화가 수행되는 경우에는 제2 카메라부(300)의 제어를 통하여 최종 보정 정보를 획득하고, 제2 카메라부(300)를 이용하여 동영상 촬영 및 녹화가 수행되는 경우에는 제2 카메라부(200)의 제어를 통하여 최종 보정 정보를 획득함으로써, 동영상 촬영에 이용되는 카메라가 달라지더라도 영상의 왜곡을 방지할 수 있는 장점이 있다.
한편, 본 발명에서는 이동 단말기(100)의 동일한 면에 두개의 카메라가 장착되는 것으로 설명하였으나 이에 한정되지 않는다. 예를 들어 본 발명의 실시 예에 따른 이동 단말기(100)는 제3 카메라부(미도시)가 제1 카메라부(200) 및 제2 카메라부(300)와 동일한 면에 장착될 수도 있으며, 더 많은 개수의 카메라가 제1 카메라부(200) 및 제2 카메라부(300)와 동일한 면에 장착될 수도 있다.
이 경우 다양한 방식을 통하여 동영상 촬영 및 최종 보정 정보 획득이 수행될 수 있다. 예를 들어 제1 카메라부(200) 및 제2 카메라부(300)는 동영상의 촬영 및 녹화를 수행하는데 이용되고, 제3 카메라부(미도시)는 자동 보정을 위한 제어 및 최종 보정 정보를 획득하는데 이용될 수 있다. 다른 예로써, 제1 카메라부(200)는 동영상의 촬영 및 녹화를 수행하는데 이용되고, 제2 카메라부(300)는 자동 초점을 위한 제어 및 최종 보정 정보를 획득하는데 이용될 수 있으며, 제3 카메라부(미도시)는 자동 화이트 밸런스를 위한 제어 및 최종 보정 정보를 획득하는데 이용될 수도 있다.
한편, 도 13 내지 도 17에서는, 자동 초점 모드에서의 이동 단말기(100)의 동작을 설명하였다. 또한, 이하에서는 자동 노출 모드에서의 이동 단말기(100)의 동작에 대해서 설명한다.
제어부(180)는 제1 카메라부(200)를 이용하여 동영상을 촬영하고 촬영된 동영상을 저장부(170)에 저장할 수 있다.
한편, 제2 카메라부(300)는 영상을 수신할 수 있다. 또한 제어부(180)는 제2 카메라부(300)를 통하여 수신되는 영상에 기초하여 보정 정보를 지속적으로 획득할 수 있다.
여기서 제2 카메라부(300)를 통하여 수신되는 영상에 기초하여 획득되는 보정 정보는, 제2 카메라부(300)의 자동 노출(Auto Exposure)을 위한 제어 정보일 수 있다. 구체적으로, 제어부(180)는 제2 카메라부(300)의 자동 노출(Auto Exposure)을 위한 제어 정보를 획득할 수 있다.
더욱 구체적으로, 제어부(180)는 제2 카메라부(300)를 통하여 수신되는 영상으로부터 광량에 대한 정보를 획득하고, 기 설정된 노출 값에 대응하는 광량을 제2 카메라부(300)를 통하여 수신하기 위한 제어 정보를 획득할 수 있다.
여기서 제2 카메라부(300)의 자동 노출(Auto Exposure)을 위한 제어 정보는, 제2 카메라부(300)의 감도(ISO) 및 제2 카메라부(300)의 노출 시간에 대한 정보(즉, 제2 카메라부(300)에 포함된 이미지 센서에 빛이 수광되는 시간) 중 적어도 하나에 대한 정보를 포함할 수 있다.
한편, 제어부(180)는 제2 카메라부(300)를 통하여 수신되는 광량이 기 설정된 노출 값에 대응하는지 판단할 수 있다. 또한, 제2 카메라부(300)를 통하여 수신되는 광량이 기 설정된 노출 값에 대응하는 경우, 제어부(180)는 자동 노출을 위한 제2 카메라부(300)의 설정값, 즉 제2 카메라부(300)의 감도(ISO)나 노출 시간은 변경하지 않고 유지시킬 수 있다.
한편, 제2 카메라부(300)를 통하여 수신되는 광량에 변화가 발생할 수 있다. 촬영 중 조명이 갑자기 꺼지거나, 촬영 중 갑자기 조명을 킨 경우, 밝은 곳을 촬영하다가 카메라의 방향을 돌려 어두운 곳을 촬영하는 경우 등을 그 예로 들 수 있다.
이 경우, 제어부(180)는 제1 카메라부(200)를 이용하여 동영상을 계속 촬영할 수 있다.
한편, 광량의 변화가 발생된 경우에도 자동 노출(Auto Exposure, AE)을 위한 제1 카메라부(200)의 설정 값, 즉 제1 카메라부(200)의 감도(ISO) 나 노출 시간은 변경되지 않고, 제1 카메라부(200)의 설정값은 그대로 유지될 수 있다.
한편, 제2 카메라부(300)를 통하여 수신되는 광량에 변화가 있는 경우, 제어부(180)는 제2 카메라부(300)를 통하여 수신되는 영상에 기초하여 보정 정보를 획득할 수 있다.
한편, 제2 카메라부(300)를 통하여 수신되는 광량이 변경된 경우에도, 제어부(180)는 수신되는 광량이 기 설정된 노출 값에 대응하는지 판단할 수 있다. 즉, 제어부(180)는 제2 카메라부(300)를 통하여 수신되는 광량이 수신되기로 기 설정되어 있는 광량과 일치하는지 판단할 수 있다.
또한, 수신되는 광량이 기 설정된 노출 값에 대응되지 않는 경우, 제어부(180)는 보정 정보, 즉 제2 카메라부(300)의 자동 노출(Auto Exposure, AE)을 위한 제어 정보를 획득할 수 있다.
구체적으로, 제어부(180)는 제2 카메라(300)를 통하여 수신되는 영상으로부터 제2 카메라부(300)를 통하여 수신되는 광량에 대한 정보를 획득할 수 있다. 또한 제어부(180)는 제2 카메라부(300)를 통하여 수신되는 광량에 대한 정보 및 기 설정된 노출 값에 기초하여, 제2 카메라부(300)의 새로운 설정 값에 대한 정보를 획득할 수 있다. 즉, 제어부(180)는 제2 카메라부(300)의 감도(ISO)나 노출 시간에 대한 변경값을 획득할 수 있다.
또한, 제어부(180)는 획득한 보정 정보에 기초하여 자동 보정을 수행하도록 제2 카메라부(300)를 제어할 수 있다. 구체적으로, 제어부(180)는 획득한 자동 노출(Auto Exposure, AE)을 위한 제어 정보에 기초하여, 제2 카메라부(300)의 감도(ISO) 및 노출 시간 중 적어도 하나를 변경할 수 있다.
한편, 획득한 보정 정보에 기초하여 제2 카메라부(300)가 제어되는 동안에도, 제어부(180)는 제1 카메라부(200)를 이용하여 동영상을 계속 촬영할 수 있으며, 이 경우에도 제1 카메라부(200)의 설정 값은 계속 유지되게 된다. 따라서, 획득한 보정 정보에 기초하여 제2 카메라부(300)를 제어하는 동안에도, 제1 카메라부(200)의 설정 값이 변경되지 않은 상태에서 촬영된 동영상이 녹화될 수 있다.
한편, 현재 동영상을 촬영하고 있는 중이기 때문에, 제어부(180)는 자동 노출을 수행하기 위한 정보를 지속적으로 획득하고 있는 중이다.
따라서, 획득한 보정 정보에 기초하여 제2 카메라부(300)가 제어된 경우에도, 제어부(180)는 제어된 제2 카메라부(300)를 통하여 영상을 수신할 수 있다.
또한, 제어부(180)는 제어된 제2 카메라부(300)를 통하여 수신되는 영상에 기초하여, 제어된 제2 카메라부(300)에서의 보정이 완료되었는지에 대한 정보를 획득할 수 있다. 구체적으로, 제어부(180)는 제어된 제2 카메라부(300)를 통하여 수신되는 영상에 기초하여, 현재 제2 카메라부(300)의 설정 값이 자동 노출을 위한 제2 카메라부(300)의 설정 값에 대응하는지 판단할 수 있다.
더욱 구체적으로, 제어부(180)는 제어된 제2 카메라부(300)를 통하여 수신되는 영상에 기초하여 제2 카메라부(300)를 통하여 수신되는 광량에 대한 정보를 획득하고, 제2 카메라부(300)를 통하여 수신되는 광량이 기 설정된 노출 값에 대응하는지 판단할 수 있다. 즉, 제어부(180)는 제2 카메라부(300)를 통하여 수신되는 광량이 수신되기로 기 설정되어 있는 광량과 일치하는지 판단할 수 있다.
또한, 제2 카메라부(300)를 통하여 수신되는 광량이 기 설정된 제2 카메라부(300)의 노출 값에 대응되면, 제어부(180)는 제2 카메라부(300)의 설정 값, 즉 제2 카메라부(300)의 노출 값을 최종 보정 정보로써 획득할 수 있다.
즉, 보정 정보에 기초하여 제2 카메라부(300)가 제어되는 동안 조명의 변화가 없었던 경우에는, 제어된 제2 카메라부(300)를 통하여 획득되는 광량은 기 설정된 노출 값에 대응되게 되는 바, 제어부(180)는 제어된 제2 카메라부(300)를 통하여 수신되는 영상에 기초하여 최종 보정 정보를 획득할 수 있다.
여기서 최종 보정 정보는, 보정 정보에 기초하여 제2 카메라부(300)가 제어됨에 따라 획득된 제2 카메라부(300)의 노출 값에 대한 최종 제어 정보일 수 있다.
즉, 앞서 설명한 보정 정보에 대응되도록 제2 카메라부(300)의 감도(ISO) 및 노출 시간 중 적어도 하나가 변경된 경우, 최종 보정 정보는 변경된 제2 카메라부(300)의 감도(ISO) 및 노출 시간 중 적어도 하나에 대한 정보일 수 있다.
한편, 보정 정보에 기초하여 제2 카메라부(300)가 제어된 이후에도, 제어된 제2 카메라부(300)를 통하여 획득되는 광량은 자동 노출을 위한 기 설정된 광량과 일치하지 않을 수 있다. 보정 정보에 기초하여 제2 카메라부(300)가 제어되는 동안 주변의 조명이 추가적으로 변경된 경우를 그 예로써 들 수 있다.
제어된 제2 카메라부(300)를 통하여 획득되는 광량은 자동 노출을 위한 기 설정된 광량과 일치하지 않으면, 제어부(180)는 최종 보정 정보를 획득하지 않는다. 이 경우, 제어부(180)는 제어된 제2 카메라부(300)를 통하여 수신되는 영상에 기초하여 보정 정보를 다시 획득하고, 획득한 보정 정보에 기초하여 제2 카메라부(300)를 다시 제어할 수 있다.
한편, 제어된 제2 카메라부(300)를 통하여 수신되는 영상에 기초하여 최종 보정 정보가 획득되면, 제어부(180)는 최종 보정 정보에 기초하여 동영상을 촬영하도록 제1 카메라부(200)를 제어할 수 있다.
구체적으로, 최종 보정 정보가 제2 카메라부(300)의 감도(ISO) 및 노출 시간 중 적어도 하나에 대한 정보인 경우, 제어부(180)는 제2 카메라부(300)의 감도(ISO) 및 노출 시간 중 적어도 하나에 대한 정보에 기초하여 제1 카메라부(200)의 감도(ISO) 및 노출 시간 중 적어도 하나를 변경할 수 있다.
한편, 한편, 제1 카메라부(200)의 구조 또는 성능과 제2 카메라부(300)의 구조 또는 성능은 서로 상이할 수 있다.
이러한 경우, 제어부(180)는 최종 보정 정보 및 제1 카메라부(200)와 제2 카메라부(300) 간의 보정 정보에 기초하여 동영상을 촬영하도록 제1 카메라부(200)를 제어할 수 있다. 여기서 제1 카메라부(200)와 제2 카메라부(300) 간의 보정 정보란, 제1 카메라부(200)와 제2 카메라부(300)의 구조 및 성능 차이에 기초하여 제2 카메라부(200)에서의 설정값을 제1 카메라부(100)에 적용하기 위한 보상값일 수 있다.
예를 들어, 제1 카메라부(200)와 제2 카메라부(300)의 구조적 차이, 또는 제1 카메라부(200)와 제2 카메라부(300)의 성능 차이 때문에, 제2 카메라부(300)는 ISO를 a 만큼 변경하면 제2 카메라부(300)가 특정 광량을 획득할 수 있는 반면, 제1 카메라부(200)의 ISO는 b 만큼 변경해야 제1 카메라부(300)가 상기 특정 광량을 획득하는 경우가 발생할 수 있다.
이 경우, 제2 카메라부(300)의 최종 보정 정보 및 제1 카메라부(200)에서의 설정을 제2 카메라부(300)에서 적용하기 위한 제1 카메라부(200)와 제2 카메라부(300) 간의 보정 정보에 기초하여, 제어부(180)는 동영상을 촬영하도록 제1 카메라부(200)를 제어할 수 있다.
하나의 카메라로 동영상 촬영 및 자동 노출을 수행하는 경우에는 조명의 변화에 따라 노출값이 급격히 변화함으로써 부드러운 영상 변화가 이루어 지지 않을 수 있다. 또한 노출값의 급격한 변화를 막기 위하여 자동 노출 동작 알고리즘을 천천히 진행시키는 경우에는 급격한 조명 변화가 발생하는 경우 새로운 자동 노출 값에 대한 적응이 느리게 되거나 자동 노출 값이 틀린 상태로 계속 녹화되는 경우가 발생할 수 있다.
다만 본 발명은 자동 노출을 위한 제어 및 최종 보정 정보 획득을 녹화가 목적이 아닌 제2 카메라부(300)에서 수행함으로써 자동 노출 동작 알고리즘을 빠르고 안정적으로 진행시킨 후 제1 카메라부(200)에 적용할 수 있다.
또한, 본 발명은 자동 노출을 위한 제어 과정에서 영상이 하얗게 포화 되는 등의 왜곡이 발생하더라도 왜곡된 영상은 녹화되지 않기 때문에, 사용자에게 양질의 동영상을 제공할 수 있는 장점이 있다.
또한 본 발명은, 제1 카메라부와 제2 카메라부의 구조나 성능의 차이를 고려한 보정을 한 후 제2 카메라부의 세팅 값을 제1 카메라부에 적용함으로써, 제1 카메라부와 제2 카메라부의 종류가 다른 경우에도, 제2 카메라부의 최종 보정 정보를 이용하여 제1 카메라부의 자동 보정을 정확하게 수행할 수 있는 장점이 있다.
한편, 이하에서는 자동 화이트 밸런스 모드에서의 이동 단말기(100)의 동작에 대해서 설명한다.
제어부(180)는 제1 카메라부(200)를 이용하여 동영상을 촬영하고 촬영된 동영상을 저장부(170)에 저장할 수 있다.
한편, 제2 카메라부(300)는 영상을 수신할 수 있다. 또한 제어부(180)는 제2 카메라부(300)를 통하여 수신되는 영상에 기초하여 보정 정보를 지속적으로 획득할 수 있다.
여기서 제2 카메라부(300)를 통하여 수신되는 영상에 기초하여 획득되는 보정 정보는, 제2 카메라부(300)의 자동 화이트 밸런스(Auto White Balance)를 위한 제어 정보일 수 있다.
구체적으로, 제어부(180)는 제2 카메라부(300)의 자동 화이트 밸런스(Auto White Balance)를 위한 제어 정보를 획득할 수 있다.
더욱 구체적으로, 제어부(180)는 제2 카메라부(300)를 통하여 수신되는 영상의 색 균형에 대한 정보를 획득하고, 기 설정된 색 균형 값에 대응 하는 영상을 획득하도록 하기 위한 제어 정보를 획득할 수 있다.
여기서 제2 카메라부(300)의 자동 화이트 밸런스(Auto White Balance)를 위한 제어 정보는 제2 카메라부(300)를 통하여 수신되는 영상의 색상에 대한 보정 값을 포함할 수 있다.
한편, 제어부(180)는 제2 카메라부(300)를 통하여 수신되는 영상의 색 균형이 자동 화이트 밸런스(Auto White Balance)를 위하여 기 설정된 색 균형 값에 대응하는지 판단할 수 있다.
또한, 제2 카메라부(300)를 통하여 수신되는 영상의 색 균형 값이 기 설정된 색 균형 값에 대응하는 경우, 제어부(180)는 자동 화이트 밸런스(Auto White Balance)를 위한 제2 카메라부(300)의 설정값, 즉 제2 카메라부(300)를 통하여 수신되는 영상의 색 균형을 유지시킬 수 있다.
한편, 제2 카메라부(300)를 통하여 수신되는 영상의 색 균형이 변화될 수 있다. 촬영 중 다른 종류의 조명으로 변경되거나, 초점의 대상인 피사체가 변경되었는데 변경된 피사체의 색 온도가 다른 경우를 그 예로 들 수 있다.
이 경우, 제어부(180)는 제1 카메라부(200)를 이용하여 동영상을 계속 촬영할 수 있다.
한편, 색상의 변화가 있는 경우에도 자동 화이트 밸런스(Auto White Balance)를 위한 제1 카메라부(200)의 설정 값, 즉 제1 카메라부(300)를 통하여 수신되는 영상의 색상에 대한 보정 값은 변경되지 않고 그대로 유지될 수 있다.
한편, 제2 카메라부(300)를 통하여 수신되는 영상의 색 균형의 변화가 있는 경우, 제어부(180)는 제2 카메라부(300)를 통하여 수신되는 영상에 기초하여 보정 정보를 획득할 수 있다.
한편, 제2 카메라부(300)를 통하여 수신되는 영상의 색 균형이 변경된 경우에도, 제어부(180)는 수신되는 영상의 색 균형이 기 설정된 색 균형에 대응하는지 판단할 수 있다.
또한, 수신되는 영상의 색상의 색 균형이 기 설정된 색 균형에 대응되지 않는 경우, 제어부(180)는 보정 정보, 즉 제2 카메라부(300)의 자동 화이트 밸런스(Auto White Balance)를 위한 제어 정보를 획득할 수 있다.
구체적으로, 제어부(180)는 제2 카메라(300)를 통하여 수신되는 영상으로부터 제2 카메라부(300)를 통하여 수신되는 영상의 색 균형에 대한 정보를 획득할 수 있다. 또한 제어부(180)는 제2 카메라부(300)를 통하여 수신되는 영상의 색 균형에 대한 정보 및 기 설정된 색 균형에 대한 정보에 기초하여, 제2 카메라부(300)의 새로운 설정 값에 대한 정보를 획득할 수 있다. 즉, 제어부(180)는 2 카메라부(300)를 통하여 수신되는 영상의 색상에 대한 보정 값을 획득할 수 있다.
또한, 제어부(180)는 획득한 보정 정보에 기초하여 제2 카메라부(300)를 제어할 수 있다. 구체적으로, 제어부(180)는 획득한 자동 화이트 밸런스(Auto White Balance)를 위한 제어 정보에 기초하여, 제2 카메라부(300)를 통하여 수신되는 영상의 색상을 보정할 수 있다. 즉, 제어부(180)는 제2 카메라부(300)를 통하여 수신되는 영상의 R, G, B 각각에 대한 게인(GAIN)을 조절할 수 있다.
한편, 제2 카메라부(300)가 화이트 밸런스 제어부(미도시)를 포함하는 경우, 제어부(180)는 제2 카메라부(300)를 통하여 수신되는 영상의 색상을 보정하도록 화이트 밸런스 제어부(미도시)를 제어할 수 있다.
한편, 획득한 보정 정보에 기초하여 제2 카메라부(300)가 제어되는 동안에도, 제어부(180)는 제1 카메라부(200)를 이용하여 동영상을 계속 촬영할 수 있으며, 이 경우에도 제1 카메라부(200)의 설정 값은 계속 유지되게 된다. 따라서, 획득한 보정 정보에 기초하여 제2 카메라부(300)를 제어하는 동안에도, 제1 카메라부(200)의 설정 값이 변경되지 않은 상태에서 촬영된 동영상이 녹화될 수 있다.
한편, 현재 동영상을 촬영하고 있는 중이기 때문에, 제어부(180)는 자동 화이트 밸런스를 위한 정보를 지속적으로 획득하고 있는 중이다.
따라서, 획득한 보정 정보에 기초하여 제2 카메라부(300)가 제어된 경우에도, 제어부(180)는 제어된 제2 카메라부(300)를 통하여 영상을 수신할 수 있다.
또한, 제어부(180)는 제어된 제2 카메라부(300)를 통하여 수신되는 영상에 기초하여, 현재 제2 카메라부(300)의 설정 값이 자동 화이트 밸런스를 위한 제2 카메라부(300)의 설정 값에 대응하는지 판단할 수 있다.
구체적으로, 제어부(180)는 제어된 제2 카메라부(300)를 통하여 수신되는 영상에 기초하여 제어된 제2 카메라부(300)를 통하여 수신되는 영상의 색 균형에 대한 정보를 획득하고, 제2 카메라부(300)를 통하여 수신되는 영상의 색 균형이 기 설정된 영상의 색 균형에 대응하는지 판단할 수 있다. 즉, 제어부(180)는 제2 카메라부(300)를 통하여 수신되는 영상의 R, G, B 값의 비율이 기 설정된 R, G, B 값의 비율에 일치하는지 판단할 수 있다.
또한, 제2 카메라부(300)를 통하여 수신되는 영상의 색 균형이 기 설정된 영상의 색 균형에 대응되면, 제어부(180)는 최종 보정 정보를 획득할 수 있다.
즉, 보정 정보에 기초하여 제2 카메라부(300)가 제어되는 동안 조명의 변화가 없었던 경우에는, 제어된 제2 카메라부(300)를 통하여 획득되는 영상의 색 균형은 기 설정된 영상의 색 균형에 대응되게 되는 바, 제어부(180)는 제어된 제2 카메라부(300)를 통하여 수신되는 영상에 기초하여 최종 보정 정보를 획득할 수 있다.
여기서 최종 보정 정보는, 보정 정보에 기초하여 제2 카메라부(300)가 제어됨에 따라 획득된 제2 카메라부(300)의 색상의 보정 값에 대한 최종 제어 정보일 수 있다.
즉, 앞서 설명한 보정 정보에 대응되도록 제2 카메라부(300)의 색상의 보정 값이 변경된 경우, 최종 보정 정보는 변경된 제2 카메라부(300)의 색상의 보정 값일 수 있다.
한편, 보정 정보에 기초하여 제2 카메라부(300)가 제어된 이후에도, 제어된 제2 카메라부(300)를 통하여 획득되는 영상의 색 균형은 자동 화이트 밸런스를 위한 기 설정된 색 균형과 일치하지 않을 수 있다. 보정 정보에 기초하여 제2 카메라부(300)가 제어되는 동안 주변의 조명의 종류가 변경된 경우를 그 예로써 들 수 있다.
제어된 제2 카메라부(300)를 통하여 획득되는 영상의 색 균형이 자동 노출을 위한 기 설정된 색 균형과 일치하지 않으면, 제어부(180)는 최종 보정 정보를 획득하지 않는다. 이 경우, 제어부(180)는 제어된 제2 카메라부(300)를 통하여 수신되는 영상에 기초하여 보정 정보를 다시 획득하고, 획득한 보정 정보에 기초하여 제2 카메라부(300)를 다시 제어할 수 있다.
한편, 제어된 제2 카메라부(300)를 통하여 수신되는 영상에 기초하여 최종 보정 정보가 획득되면, 제어부(180)는 최종 보정 정보에 기초하여 동영상을 촬영하도록 제1 카메라부(200)를 제어할 수 있다.
구체적으로, 최종 보정 정보가 제2 카메라부(300)의 색상의 보정 값인 경우, 제어부(180)는 제2 카메라부(300)의 색상의 보정 값에 기초하여 제1 카메라부(200)를 통하여 수신되는 영상의 색상을 보정하도록 제1 카메라부(200)에 포함된 화이트 밸런스 제어부(미도시)를 제어할 수 있다.
한편, 제1 카메라부(200)의 구조 또는 성능과 제2 카메라부(300)의 구조 또는 성능은 서로 상이할 수 있다.
이러한 경우, 제어부(180)는 최종 보정 정보 및 제1 카메라부(200)와 제2 카메라부(300) 간의 보정 정보에 기초하여 동영상을 촬영하도록 제1 카메라부(200)를 제어할 수 있다. 여기서 제1 카메라부(200)와 제2 카메라부(300) 간의 보정 정보란, 제1 카메라부(200)와 제2 카메라부(300)의 구조 또는 성능 차이에 기초하여 제2 카메라부(200)에서의 설정값을 제1 카메라부(100)에 적용하기 위한 보상값일 수 있다.
이 경우, 제2 카메라부(300)의 최종 보정 정보 및 제1 카메라부(200)에서의 설정을 제2 카메라부(300)에서 적용하기 위한 제1 카메라부(200)와 제2 카메라부(300) 간의 보정 정보에 기초하여, 제어부(180)는 동영상을 촬영하도록 제1 카메라부(200)를 제어할 수 있다.
이와 같이 본 발명은 제2 카메라부(300)를 이용한 제어 및 최종 보정 정보 획득을 수행함으로써, 자동 화이트 밸런스를 수행하는 과정에서 발생할 수 있는 영상의 왜곡을 방지할 수 있는 장점이 있다.
도 18a 내지 도 21b는 본 발명의 실시 예에 따른, 동영상의 자동 보정을 시작하기 위한 트리거링 정보의 획득 방법을 설명하기 위한 도면이다.
도 13 내지 도 17의 실시 예에서는, 제어부(180)가 제2 카메라부(300)를 이용하여 지속적으로 보정 정보를 획득하고 그에 따라 제2 카메라부(300)를 제어하는 것으로 설명하였다.
다만 이에 한정되지 아니하며, 트리거링 정보가 획득되는 경우에 제2 카메라부(300)를 동작하여 영상의 보정을 수행하는 방식으로도 구현될 수 있다.
또한 도 12 내지 도 17의 실시 예에서는, 제2 카메라부(300)를 통하여 수신되는 영상에 기초하여 자동 보정이 필요한지 판단 하는 것으로 설명하였다. 예를 들어, 제2 카메라부(300)를 통하여 수신되는 영상에 기초하여 초점이 맞지 않거나, 광량이 기 설정된 노출값에 대응되지 않거나, 색 균형이 기 설정된 값에 대응되지 않는 경우 자동 보정이 필요한 것으로 판단하는 것으로 설명하였다.
다만 이에 한정되지 아니하며, 트리거링 정보는 다양한 방식으로 획득될 수 있다. 예를 들어 제1 카메라부(200)를 통하여 수신되는 영상의 변화, 이동 단말기(100)의 움직임, 사용자 입력 등, 다양한 방식으로 트리거링 정보가 획득될 수 있다.
구체적으로, 제어부(180)는 동영상의 자동 보정을 시작하기 위한 트리거링 정보를 획득할 수 있다.
여기서 동영상의 자동 보정을 시작하기 위한 트리거링 정보는, 제1 카메라부(200) 및 제2 카메라부(300) 중 적어도 하나를 통하여 수신되는 영상의 변화, 상기 촬영 장치의 움직임 및 사용자 입력 중 적어도 하나에 기초하여 획득될 수 있다.
또한, 동영상의 자동 보정을 시작하기 위한 트리거링 정보가 획득되면, 제어부(180)는 제2 카메라부를 통하여 수신되는 영상에 기초하여 보정 정보를 획득하기 시작할 수 있다.
예를 들어 도 18a에서 이동 단말기(100)의 사용자는 제1 피사체(1811)를 촬영하였으나, 도 18b에서는 이동 단말기(100)의 방향을 돌려 제2 피사체(1821)를 촬영하고 있는 상태이다.
이 경우, 제어부(180)는 제1 카메라부(200)를 통하여 수신되는 영상이 제1 영상(1810)에서 제2 영상(1820)으로 변경되는 것으로 판단할 수 있다. 즉, 제어부(180)는 동영상의 자동 보정을 시작하기 위한 트리거링 정보를 획득할 수 있다.
또한, 제1 카메라부(200)를 통하여 수신되는 영상이 변경되면, 제어부(180)는 제2 카메라부(300)를 통하여 수신되는 영상에 기초하여 보정 정보를 획득하기 시작할 수 있다.
또한 도 18a 내지 도 18b의 실시 예에서는, 영상의 변경뿐만 아니라 이동 단말기(100)의 움직임에 의해서도 트리거링 정보가 획득될 수 있다.
구체적으로, 이동 단말기(100)의 센싱부(140)는 이동 단말기(100)의 움직임을 감지할 수 있으며, 제어부(180)는 동영상을 촬영 중인 이동 단말기(100)가 특정 패턴의 움직임을 보이거나 기 설정된 크기 이상의 움직임을 보이면 동영상의 자동 보정을 시작하기 위한 트리거링 정보가 획득된 것으로 판단할 수 있다.
한편, 이동 단말기(100)가 아닌 일반 촬영 장치의 경우에도, 도 1에서 설명한 센싱부(140)가 포함될 수 있다.
이 경우에도, 제어부(180)는 제2 카메라부(300)를 통하여 수신되는 영상에 기초하여 보정 정보를 획득하기 시작할 수 있다.
한편, 보정 정보를 획득한 이후의 동작은, 도 12 내지 도 17에서 설명한 바와 같다.
도 19a 내지 도 19b는 초점이 제1 피사체에 맞춰져 있는 상태에서 사용자 입력에 따라 초점이 제2 피사체로 변경되는 경우 트리거링 정보 획득 방법을 설명하기 위한 도면이다.
도 19a를 참고하면 제1 피사체(1911)와 이동 단말기(100)와의 거리는 제2 피사체(1912)와 이동 단말기(200)의 거리보다 가까운 상태이다.
한편, 도 19b에서 도시하는 바와 같이, 초점 대상 피사체를 제1 피사체(1911)에서 제2 피사체(1912)로 변경하는 입력이 사용자로부터 수신되면, 제어부(180)는 동영상의 자동 보정을 시작하기 위한 트리거링 정보가 획득된 것으로 판단할 수 있다.
이 경우, 제어부(180)는 제2 카메라부(300)를 통하여 수신되는 영상에 기초하여 보정 정보를 획득하기 시작할 수 있으며, 획득한 보정 정보에 기초하여 제2 카메라부(300)를 제어하고, 제어된 제2 카메라부(300)를 통하여 수신되는 영상에 기초하여 최종 보정 정보를 획득할 수 있으며, 최종 보정 정보에 기초하여 동영상을 촬영하도록 제1 카메라부를 제어할 수 있다.
한편, 본 실시 예에서는 초점 대상 피사체를 변경하는 입력이 수신되는 경우 트리거링 정보가 획득된 것으로 설명하였으나 이에 한정되지 않는다.
예를 들어, 색 균형 값을 변경하는 입력이 사용자로부터 수신되거나, 촬영되는 영상의 밝기를 변경하는 입력이 사용자로부터 수신되는 경우에도 역시, 제어부(180)는 자동 보정을 시작하기 위한 트리거링 정보가 획득된 것으로 판단할 수 있다.
또한, 이전에는 동영상의 자동 보정(자동 초점, 자동 노출, 자동 화이트 밸런스) 기능이 설정된 상태에서의 동작을 설명하였으나 이에 한정되지 아니하며, 동영상의 자동 보정 기능이 설정되지 않은 상태에서 동영상의 자동 보정을 시작하기 위한 입력이 사용자로부터 수신되는 경우 자동 보정을 시작하기 위한 트리거링 정보가 획득된 것으로 판단하는 방식으로도 구현될 수 있다.
도 20a 및 도 20b는 초점이 특정 피사체에 맞춰져 있는 상태에서 특정 피사체가 이동하는 경우 트리거링 정보 획득 방법을 설명하기 위한 도면이다.
도 20a 및 도 20b를 참고하면, 특정 피사체(2011)는 이동 단말기(100)로부터 점점 멀어지고 있는 상태이다.
한편, 제어부(180)는 제1 카메라부(200)를 통하여 수신되는 영상이, 특정 피사체(2011)가 좌측 가까이에 있는 제1 영상(2010)으로부터 특정 피사체(2011)가 우측 멀리 있는 제2 영상(2020)으로 변경되는 것으로 판단할 수 있다. 즉, 제어부(180)는 동영상의 자동 보정을 시작하기 위한 트리거링 정보를 획득할 수 있다.
이 경우, 제어부(180)는 제2 카메라부(300)를 통하여 수신되는 영상에 기초하여 보정 정보를 획득하기 시작할 수 있다.
도 21a 및 도 21b는, 조명이 급격히 변화한 경우의 트리거링 정보의 획득 방법을 설명하기 위한 도면이다.
도 21a 및 도 21b를 참고하면, 사용자가 동일한 위치를 촬영하고 있으나, 조명 켜져서 급격히 밝아진 상태이다.
한편, 제어부(180)는 제1 카메라부(200)를 통하여 수신되는 영상에 기초하여, 제1 카레라부(200)를 통하여 획득되는 광량에 대한 정보를 획득할 수 있다.
또한, 제어부(180)는 제1 카메라부(200)를 통하여 획득되는 영상이 광량이 적은 영상에서 광량이 많은 영상으로 변경되는 것으로 판단할 수 있다. 즉, 제어부(180)는 동영상의 자동 보정을 시작하기 위한 트리거링 정보를 획득할 수 있다.
이 경우, 제어부(180)는 제2 카메라부(300)를 통하여 수신되는 영상에 기초하여 보정 정보를 획득하기 시작할 수 있다.
또한, 제어부(180)는 제1 카메라부(200)를 통하여 수신되는 영상에 기초하여, 제1 카레라부(200)를 통하여 획득되는 영상의 색균형에 대한 정보를 획득할 수 있다.
또한, 제어부(180)는 조명의 변화로 인하여 제1 카메라부(200)를 통하여 획득되는 영상의 색균형이 변경되는 것으로 판단함으로써, 동영상의 자동 보정을 시작하기 위한 트리거링 정보가 획득된 것으로 판단할 수 있다.
이 경우, 제어부(180)는 제2 카메라부(300)를 통하여 수신되는 영상에 기초하여 보정 정보를 획득하기 시작할 수 있다. 또한, 제어부(180)는 보정 정보에 기초하여 제2 카메라부(300)가 동작하도록 제2 카메라부(300)를 제어할 수 있다.
한편, 제2 카메라부(300)에서의 보정이 완료되면, 제어부(180)는 최종 보정 정보에 기초하여 제1 카메라부(200)를 제어하는 한편 제2 카메라부(300)의 동작을 중단시킬 수 있다.
한편, 트리거링 정보가 획득되기 이전의 제2 카메라부(300)는 전원 오프 상태일 수 있다. 즉, 제2 카메라부(300)는 전원 오프가 된 상태에서, 트리거링 정보가 획득되면 제어부(180)는 제2 카메라부(300)의 전원을 온 하도록 제어할 수 있다.
그리고, 제어부(180)는 전원 온 된 제2 카메라부(300)를 통하여 수신되는 영상에 기초하여 보정 정보를 획득하고, 획득한 보정 정보에 기초하여 제2 카메라부(300)를 제어할 수 있다.
또한, 제2 카메라부(300)에서의 보정이 완료되면, 제어부(180)는 최종 보정 정보에 기초하여 제1 카메라부(200)를 제어하는 한편 제2 카메라부(300)의 전원을 다시 오프할 수 있다.
제1 카메라부(200) 및 제2 카메라부(300)가 동시에 동작하는 경우, 배터리나 시스템 리소스 측면에서 불리하게 작용할 수 있다.
다만, 본 발명은, 트리거링 정보가 획득되는 경우 제2 카메라부(300)를 동작시켜 보정 정보를 획득함으로써, 배터리 및 시스템 리소스를 절약할 수 있다.
특히, 본 발명은 트리거링 정보의 획득 및 보정의 완료에 따라 제2 카메라부의 전원을 온, 오프 시킴으로써, 휴대전화, 휴대용 카메라 등에서 배터리를 절약할 수 있는 장점이 있다.
도 22 내지 도 27은 본 발명의 실시 예에 따른 조명이 갑자기 어두운 경우의 동작 방법을 설명하기 위한 도면이다.
도 12 내지 도 21의 실시 예에서는, 촬영 환경의 변화에 따라 초점, 노출, 화이트 밸런스가 각각 보정되는 실시 예를 설명하였다. 다만 이에 한정되지 아니하며, 촬영 환경의 변화에 따라 초점, 노출 및 화이트 밸런스 중 적어도 하나가 보정될 수 있다.
먼저 도 22 내지 도 23b에서는, 하나의 카메라로 촬영을 하면서 보정을 수행하는 경우 발생될 수 있는 문제점에 대해서 설명한다.
하나의 카메라로 촬영이 수행되는 중, 조명이 밝은 상태에서 도 22에서 도시하는 바와 같이 조명이 급격히 어두워지거나, 조명이 밝은 곳을 촬영하다가 카메라의 방향을 돌려 조명이 어두운 곳을 촬영하는 경우가 발생할 수 있다.
한편, 광량이 적은 경우 초점을 맞추기 힘든 경우가 발생할 수 있다. 예를 들어, 콘트라스트 자동 초점 방식에서 주변 환영이 어두운 경우, 이미지의 콘트라스트가 잘 감지되지 않을 수 있다. 또한 위상차 자동 초점 방식에서도 역시 주변 환경이 어두운 경우에는 위상차를 구하기 힘들기 때문에 초점을 맞추기 힘들 수 있다.
이 경우, 촬영장치는 초점을 맞추기 위하여 더 많은 광량을 확보하는 동작을 수행하게 된다. 예를 들어 촬영 장치는, 카메라의 ISO를 높이거나 노출 시간을 늘리는 방식으로 초점을 맞추기 위해 필요한 광량을 확보할 수 있다.
한편, 촬영 장치가 광량을 확보하기 위하여 카메라의 ISO를 높이는 경우에는 노이즈가 많아지기 때문에, 도 23a에서 도시하는 바와 같이 품질이 떨어지는 영상이 녹화될 수 있다. 또한, 카메라의 ISO가 갑자기 높아졌기 때문에 화면이 갑자기 밝아지는 현상이 발생할 수 있다.
또한, 촬영 장치가 광량을 확보하기 위하여 노출 시간을 늘리는 경우 프레임 레이트가 낮아지기 때문에, 도 23b에서 도시하는 바와 같이, 화면의 흔들림이 녹화되는 등 동영상의 품질이 떨어질 수 있었다.
도 24 내지 도 26은, 본 발명의 실시 예에 따른 듀얼 카메라가 장착된 동영상 촬영 장치의 동작 방법을 설명하기 위한 도면이다.
도 24는 영상이 변경된 직후에 제1 카메라부(200)에서 촬영된 영상(2410)을 도시한 도면이다.
도 24를 참고하면, 밝은 곳을 촬영하다가 어두운 곳을 촬영하게 된 경우에도, 제1 카메라부(200)의 설정값은 변경되지 않는다.
구체적으로, 새롭게 촬영되는 영상에 초점을 새롭게 맞춰야 하는 경우에도, 제어부(180)는 제1 카메라부(200)의 자동 초점(Auto Focus, AF)을 위한 설정 값이나 자동 노출(Auto Exposure, AE)을 위한 설정 값을 변경하지 않고 유지시킬 수 있다. 또한, 조명의 종류가 변경된 경우에도, 제어부(180)는 제1 카메라부(200)의 자동 화이트 밸런스(Auto White Balance, AWB)를 위한 설정 값을 변경하지 않고 유지시킬 수 있다.
한편, 도 25a는 영상이 변경된 직후에 제2 카메라부(300)의 ISO가 변경되는 경우 제2 카메라부(300)에서 촬영된 영상(2510)을 도시한 도면이며, 도 25b는 영상이 변경된 직후에 제2 카메라부(300)의 노출 시간이 변경되는 경우 제2 카메라부(300)에서 촬영된 영상(2520)을 도시한 도면이다.
제어부(180)는 제2 카메라부(300)를 통하여 수신되는 영상에 기초하여 보정 정보를 획득할 수 있다.
구체적으로, 제어부(180)는 제2 카메라부(300)를 통하여 수신되는 영상으로부터 광량에 대한 정보를 획득하고, 현재 획득되는 광량 및 자동 초점에 필요한 광량에 대한 정보에 기초하여 보정 정보를 획득할 수 있다.
또한, 획득한 보정 정보에 기초하여, 제어부(180)는 도 25a에서 도시하는 바와 같이 제2 카메라부(300)의 감도(ISO)를 높이거나, 도 25b에서 도시하는 바와 같이 제2 카메라부(300)의 노출 시간을 늘릴 수 있다.
또한, 제어부(180)는 획득한 보정 정보에 기초하여, 제어부(180)는 제2 카메라부(300)의 감도(ISO) 및 제2 카메라부(300)의 노출 시간을 변경할 수 있다.
이에 따라, 제2 카메라부(300)에서는 왜곡된 영상(2510, 2520)이 촬영되게 된다. 다만, 제2 카메라부(300)에서 촬영되는 왜곡된 영상(2510, 2520)은 최종 보정 정보를 획득하는데 이용되는 영상으로써, 이동 단말기(100)의 사용자에게 제공되지는 않는 영상이다.
한편, 제2 카메라부(300)의 감도(ISO) 및 제2 카메라부(300)의 노출 시간 중 적어도 하나가 변경되어 자동 초점을 위한 광량이 제2 카메라부(300)를 통하여 획득되는 경우, 제어부(180)는 제2 카메라부(300)를 통하여 수신되는 영상(2510, 2520)에 기초하여 자동 초점을 위한 제어 정보를 획득할 수 있다.
한편, 자동 초점을 위한 제어 정보가 획득되면, 제어부(180)는 자동 초점을 위한 제어 정보에 따라 제2 카메라부(300)가 동작하도록 제2 카메라부(300)를 제어할 수 있다. 즉, 제어부(180)는 하나 이상의 초점 대상 피사체에 초점을 맞출 수 있는 위치로 제2 카메라부(300)의 렌즈가 이동하도록 제어할 수 있다.
한편, 제어된 제2 카메라부(300)를 통하여 수신되는 영상에 기초하여, 제어부(180)는 하나 이상의 초점 대상 피사체에 초점이 맞는지 판단할 수 있다. 구체적으로, 제2 카메라부(300)에서는 자동 초점을 위한 광량이 획득되고 있기 때문에, 제어부(180)는 하나 이상의 초점 대상 피사체에 초점이 맞는지 판단할 수 있다.
한편, 제어된 제2 카메라부(300)에서의 보정이 완료되었으면, 즉 하나 이상의 초점 대상 피사체에 초점이 맞으면, 제어부(180)는 제어된 제2 카메라부(300)의 설정 값을 최종 보정 정보로써 획득할 수 있다.
또한, 제어부(180)는 최종 보정 정보에 기초하여 동영상을 촬영하도록 제1 카메라부(200)를 제어할 수 있다. 즉, 제어부(180)는 제1 카메라부(200)에 포함된 렌즈의 위치를 제2 카메라부(300)에 포함된 렌즈에 위치에 대응되도록 이동시킬 수 있다.
또한, 제어부(180)는 제어된 제1 카메라부(200)를 이용하여 동영상을 촬영하고 촬영된 동영상을 녹화할 수 있다.
도 26은, 최종 보정 정보에 기초하여 제1 카메라부(200)가 제어된 경우 제1 카메라부(200)를 통하여 촬영된 동영상의 한 장면(2610)을 도시한 도면이다.
도 26을 참고하면, 제1 카메라부(200)를 통하여 촬영되는 동영상은 화면이 갑자기 밝아지거나 노이즈가 발생하거나 화면이 흔들리는 것 없이도, 초점이 잡힌 영상이 촬영된 것을 알 수 있다.
도 25a 및 도 25b의 영상은 카메라가 보정 정보를 획득하는 과정에서 촬영되는 영상일 뿐 사용자에게 제공되는 영상이 아니며, 사용자는 도 24의 영상(2410)으로부터 도 26의 영상(2610)으로 변경된 영상을 접하게 된다.
즉, 사용자는, 감도가 높아져서 노이즈가 발생하고 화면이 갑자기 밝아지는 영상을 접하는 것 없이, 또는 노출 시간이 길어져서 프레임 레이트가 낮아지는 영상을 접하는 것 없이 자연스럽게 초점을 잡아 가는 영상을 시청할 수 있다.
한편, 본 실시 예에서는 자동 초점을 위하여 제1 카메라부(200) 및 제2 카메라부(300)가 제어되는 것으로 설명하였으나 이에 한정되지 않는다.
예를 들어, 제어부(180)는 자동 초점을 위하여 보정 정보를 획득하고 제1 카메라부(200) 및 제2 카메라부(300)를 제어하는 것과 동시에, 자동 노출 또는 자동 화이트 밸런스를 위한 보정 정보를 획득하여 제1 카메라부(200) 및 제2 카메라부(300)를 제어할 수 있다.
초점을 잡기 위해서는 일정량 이상의 광이 필요하다. 따라서 이동 단말기(100)는 일정량 이상의 광을 확보하기 위하여 동작하나 이러한 과정에서 영상의 왜곡이 발생할 수 있다.
다만 본 발명은 초점을 잡기 위하여 일정량 이상의 광을 확보하는 동작 및 렌즈를 이동시키는 동작을 제2 카메라부(300)에서 수행함으로써, 녹화되는 영상의 왜곡을 방지할 수 있는 장점이 있다.
도 27 내지 도 31은, 본 발명의 실시 예에 따른 초점 대상 피사체가 변경되는 경우의 동작 방법을 설명하기 위한 도면이다.
먼저 도 27 내지 도 28은 하나의 카메라로 촬영을 하면서 초점이 변경됨에 따라 보정이 수행되는 과정을 설명하기 위한 도면이다.
하나의 카메라로 촬영이 수행되는 중, 도 27에서 도시하는 바와 같이, 초점 대상 피사체가 제1 피사체(2711)에서 제2 피사체(2712)로 변경되는 경우가 발생할 수 있다.
한편, 제1 피사체(2711)가 밝은 영역에 위치하고, 제2 피사체(2712)가 어두운 영역에 위치하는 경우, 또는 제1 피사체(2711)가 어두운 영역에 위치하고, 제2 피사체(2712)가 밝은 영역에 위치하는 경우, 초점 대상 피사체를 제1 피사체(2711)로부터 제2 피사체(2712)로 변경하면, 이동 단말기(100)는 제2 피사체(2712)의 위치, 색균형, 광량 등에 따라 자동 노출, 자동 초점, 자동 화이트 밸런스를 수행하게 된다.
한편, 급격한 노출 값 변화로 인한 불편함을 막기 위하여 자동 노출 동작 알고리즘은 천천히 수렴하는 경우가 많다. 따라서, 급격한 조명의 변화가 발생하는 경우 새로운 자동 노출 값에 대한 적응이 느리게 되는 경우가 발생할 수 있다. 또한, 자동 노출 값이 틀린 상태로 계속 녹화되는 경우도 발생할 수 있다.
따라서, 도 28에서 도시하는 바와 같이 하얗게 포화된 영상(2810)이 녹화되는 경우가 발생할 수 있다.
도 29 내지 도 31은, 본 발명의 실시 예에 따른 듀얼 카메라가 장착된 동영상 촬영 장치의 동작 방법을 설명하기 위한 도면이다.
도 29는, 사용자 입력 등으로 인하여 초점 대상 피사체가 변경된 직후에 제1 카메라부(200)에서 촬영된 영상(2910)을 도시한 도면이다.
도 29를 참고하면, 초점 대상 피사체가 밝은 영역에 있는 제1 피사체(2911)로부터 어두운 영역에 있는 제2 피사체(2912)로 변경되도, 제1 카메라부(200)의 설정값은 변경되지 않는다. 즉, 제어부(180)는 제1 카메라부(200)의 자동 초점(Auto Focus, AF)을 위한 설정 값, 제1 카메라부(200)의 자동 노출(Auto Exposure, AE)을 위한 설정 값, 제1 카메라부(200)의 자동 화이트 밸런스(Auto White Balance, AWB)를 위한 설정 값을 변경하지 않고 유지시킬 수 있다.
한편, 도 30은 초점 대상 피사체가 변경된 직후 제2 카메라부(300)에서 촬영된 영상(3010)을 도시한 도면이다.
제어부(180)는 제2 카메라부(300)를 통하여 수신되는 영상에 기초하여 보정 정보를 획득할 수 있다. 구체적으로, 제어부(180)는 제2 카메라부(300)를 통하여 수신되는 영상에 기초하여, 제2 카메라부(300)의 자동 초점(Auto Focus)을 위한 제어 정보, 제2 카메라부(300)의 자동 노출(Auto Exposure)을 위한 제어 정보 및 제2 카메라부(300)의 자동 화이트 밸런스(Auto White Balance)를 위한 제어 정보 중 적어도 하나를 획득할 수 있다. 또한, 제어부(180)는 보정 정보에 기초하여 제2 카메라부(300)의 동작을 제어할 수 있다.
한편, 제2 카메라부(300)에서는 왜곡된 영상(3010)이 촬영될 수 있다. 구체적으로 도 30에서 도시하는 바와 같이, 하얗게 포화되는 영상이 촬영되어 녹화될 수 있다. 다만, 제2 카메라부(300)에서 촬영되는 왜곡된 영상(3010)은 최종 보정 정보를 획득하는데 이용되는 영상으로써, 이동 단말기(100)의 사용자에게 제공되는 영상은 아니다.
한편, 제어부(180)는 보정 정보에 따라 동작하도록 제2 카메라부(300)를 제어할 수 있으며, 제어된 제2 카메라부(300)로부터 수신되는 영상에 기초하여 최종 보정 정보를 획득할 수 있다.
한편, 제어부(180)는 최종 보정 정보에 기초하여 동영상을 촬영하도록 제1 카메라부(200)를 제어할 수 있다.
도 31은, 최종 보정 정보에 기초하여 제1 카메라부(200)가 제어된 경우 제1 카메라부(200)를 통하여 촬영된 동영상의 한 장면(3110)을 도시한 도면이다.
도 31을 참고하면, 화면이 포화되는 것 없이, 노출 및 화이트 밸런스가 조절되고 제2 피사체(3112)에 초점이 맞게 된 것을 알 수 있다.
도 30의 영상은 카메라가 보정 정보를 획득하는 과정에서 촬영되는 영상일 뿐 사용자에게 제공되는 영상이 아니며, 사용자는 도 29의 영상(2910)으로부터 도 31의 영상(3110)으로 변경된 영상을 접할 수 있다.
초점 대상 피사체를 제1 피사체에서 제2 피사체에서 변경하는 경우, 제1 피사체를 기준으로 설정되어 있던 초점, 노출, 화이트 밸런스 등이 제2 피사체를 기준으로 변경되게 된다. 본 발명은, 자동 보정을 위한 제어 및 최종 보정 정보 획득을 제2 카메라부(300)를 이용하여 수행함으로써, 사용자는 왜곡된 영상을 시청하는 것 없이, 초점, 노출 및 화이트 밸런스가 자연스럽게 변경되는 영상을 시청할 수 있다.
한편, 보정 정보에 기초하여 제2 카메라부(300)가 제어되는 속도와, 최종 보정 정보에 기초하여 제1 카메라부(200)가 제어되는 속도는 서로 상이할 수 있다.
제1 카메라부(200)를 통하여 촬영되는 영상은 사용자에게 시각적으로 제공되는 영상이다. 이 경우, 제1 카메라부(200)를 통하여 촬영되는 영상에 급격한 변화가 생기면, 동영상을 시청하는 사용자에게 시각적으로 불편함을 줄 수 있다.
따라서, 제어부(180)는 최종 보정 정보에 기초하여 제1 카메라부(200)를 제어할 때, 보정 정보에 기초한 제2 카메라부(300)의 제어 속도 보다 상대적으로 느린 속도로 제1 카메라부(200)를 제어할 수 있다.
예를 들어, 최종 보정 정보에 기초하여 초점을 맞추기 위하여 제1 카메라부(200)의 렌즈를 이동시키는 속도는, 보정 정보에 따라 초점을 맞추기 위하여 제2 카메라부(200)의 렌즈를 이동시키는 속도보다 더 느릴 수 있다.
다른 예로써, 최종 보정 정보에 기초하여 제1 카메라부(200)가 노출량을 조절하는 속도는, 보정 정보에 따라 제2 카메라부(300)가 노출량을 조절하는 속도보다 더 느릴 수 있다.
한편, 제2 카메라부(300)를 통하여 촬영되는 영상은 제2 카메라부(300)를 보정하는 과정에서 촬영되는 영상일 뿐, 사용자에게 제공되는 영상이 아니다.
따라서, 제어부(180)는 보정 정보에 기초하여 제2 카메라부(300)를 제어할 때, 최종 보정 정보에 기초한 제1 카메라부(200)의 제어 속도 보다 상대적으로 빠른 속도로 제2 카메라부(300)를 제어할 수 있다.
예를 들어, 제1 카메라부(200)는 급격한 노출 값 변화로 인한 불편함을 방지하기 위하여 자동 노출 동작 알고리즘을 천천히 진행시키는데 반해, 제2 카메라부(300)에서 촬영되는 영상은 사용자에게 제공되지 않는 바 더욱 빠른 자동 노출 동작 알고리즘을 적용할 수 있다.
즉, 본 발명은 영상이 사용자에게 제공되는 제1 카메라부(200)를 이용하는 대신 제2 카메라부(300)를 이용하여 자동 보정을 위한 노출 값을 획득함으로써, 더욱 빠르고 안정적인 자동 보정을 가능하게 할 수 있다.
도 32a 내지 도 32c는 본 발명의 실시 예에 따른, 최종 보정 정보가 획득된 후의 제1 카메라부(200)의 제어 방법을 설명하기 위한 도면이다.
제어부(180)는 최종 보정 정보가 획득되기 이전에 제1 카메라부(200)를 통하여 촬영되는 영상의 초점, 밝기 및 색 균형 중 적어도 하나가, 최종 보정 정보가 획득된 이후에 제1 카메라부(200)를 통하여 촬영되는 영상의 초점, 밝기 및 색 균형 중 적어도 하나로 기 설정된 시간 동안 변경되도록 제1 카메라부(200)를 제어할 수 있다.
예를 들어 도 32a에서는, 제1 영상(3110)이 촬영되고 있으며 제1 초점(3112)은 제1 피사체(3111)에 맞춰져 있는 상태이다.
한편, 도 32b에서는 촬영되는 영상이 제2 영상(3120)으로 변경되었으며, 이 경우 제어부(180)는 제1 카메라부(200)가 제1 초점(3112)을 그대로 유지하도록 한다. 또한, 제어부(180)는 제2 카메라부(300)를 제어하고 최종 보정 정보를 획득하게 된다.
한편, 최종 보정 정보가 획득되면, 도 32c에서 도시하는 바와 같이, 제어부(180)는 제2 피사체(3113)에 초점을 맞출 수 있는 제2 초점(3114)로 초점을 변경하게 된다.
이 경우 제어부(180)는 초점이 제1 초점(3112)에서 제2 초점(3114)로 기 설정된 시간 동안 변경될 수 있도록 제1 카메라부(200)를 제어할 수 있다. 구체적으로, 제어부(180)는 초점이 제1 초점(3112)에서 제2 초점(3114)로 기 설정된 시간 동안 변경될 수 있도록 제1 카메라부(200)의 렌즈 이동 속도를 조절할 수 있다.
다른 예로써, 자동 노출의 경우에도, 제어부(180)는 영상의 밝기가 제1 값에서 제2 값으로 기 설정된 시간 동안 변경될 수 있도록 제1 카메라부(200)를 제어할 수 있다. 구체적으로 제어부(180)는 영상의 밝기가 제1 값에서 제2 값으로 시간 동안 변경될 수 있도록 제1 카메라부(200)의 ISO 및 노출 시간 중 적어도 하나를 조절할 수 있다.
또 다른 예로써, 자동 화이트 밸런스의 경우에도, 제어부(180)는 영상의 색 균형이 제1 값에서 제2 값으로 시간 동안 변경될 수 있도록 제1 카메라부(200)를 제어할 수 있다. 구체적으로 제어부(180)는 영상의 색 균형이 제1 값에서 제2 값으로 기 설정된 속도로 변경될 수 있도록 제1 카메라부(200)의 색 균형의 보정 속도를 조절할 수 있다.
여기서 기 설정된 시간이란, 상황에 따라 변동될 수 있는 시간이다.
예를 들어, 제1 초점(3112)에서 제2 초점(3114)로 이동하는 시간과 제1 초점(3112)에서 제3 초점(3113)으로 이동하는 시간은 서로 상이할 수 있다. 이 경우, 제1 초점(3112)에서 제2 초점(3114)로 이동하는 속도와 제1 초점(3112)에서 제3 초점(3113)으로 이동하는 속도는 같을 수도 있으며, 서로 상이할 수도 있다. 또한, 제1 초점(3112)에서 제2 초점(3114)로 이동하는 과정에서의 이동 속도는 일정할 수도 있으며 달라질 수도 있다. 예를 들어, 제1 초점(3112)에서 제4 초점을 거쳐 제2 초점(3114)로 이동하는 경우, 제1 초점(3112)에서 제4 초점으로 이동하는 속도와 제4 초점에서 제2 초점(3114)로 이동하는 속도는 서로 같을 수도 있으며, 서로 상이할 수도 있다.
또 다른 예로써, 이동 단말기(100)의 회전이나 이동에 의하여 초점이 이동하는 시간이나 속도는, 피사체의 이동에 의하여 초점이 이동하는 시간이나 속도와 상이할 수 있다.
다른 예로써, 제1 밝기에서 제2 밝기로 변경되는 시간과 제1 밝기에서 제3 밝기로 변경되는 시간을 서로 상이할 수 있다. 이 경우, 제1 밝기에서 제2 밝기로 변경되는 속도와 제1 밝기에서 제3 밝기로 변경되는 속도 역시 같을 수도 있으며 서로 상이할 수도 있다.
본 발명에서 최종 보정 정보의 획득은 제2 카메라부(300)를 통하여 수행되며, 제1 카메라부(200)는 최종 보정 정보를 획득하기 이전의 제1 설정 값으로부터 최종 보정 정보를 획득한 이후의 제2 설정 값으로 변경되도록 제어된다. 이 경우, 제1 설정 값에서 제2 설정 값으로 급격하게 변화하게 되면, 영상의 초점, 밝기, 색상 등이 급격하게 변화하게 됨으로써, 동영상을 시청하는 사용자가 이질감을 느낄 수 있다.
따라서 본 발명은, 영상의 초점, 밝기 및 색 균형 중 적어도 하나가 기 설정된 시간 동안 변경되도록 제1 카메라부(200)를 제어함으로써 영상을 부드럽게 변경시킬 수 있으며, 이에 따라 사용자에게 이질감 없는 화면을 제공할 수 있다.
또한, 상황에 따라 다른 시간 동안, 또는 다른 속도로 자동 보정을 수행함으로써, 상황에 따라 서로 상이한 효과를 연출할 수 있다. 예를 들어 본 발명은, 제1 피사체의 영상에서의 위치와 제2 피사체의 영상에서의 위치가 서로 가까운 경우에는 초점을 느리게 이동 시키고, 제1 피사체의 영상에서의 위치와 제2 피사체의 영상에서의 위치가 서로 먼 경우에는 초점을 빠르게 이동 시키는 등의 효과를 연출하여, 부드럽고 이질감 없는 화면을 사용자에게 제공할 수 있다.
도 33은, 본 발명의 실시 예에 따른 듀얼 카메라를 이용한 영상의 합성 방법을 설명하기 위한 도면이다.
제어부(180)는 제1 카메라부(200) 및 제2 카메라부(300)를 모두 이용하여 사진이나 동영상을 촬영할 수 있다. 이 경우, 제1 카메라부(200) 및 제2 카메라부(300)의 초점의 위치는 서로 상이할 수 있다.
구체적으로, 제어부(180)는 도 33a에서 도시하는 바와 같이 제1 카메라부(200)는 제2 영역(3221)보다 가까운 영역인 제1 영역(3211)에 초점을 맞추도록 제어할 수 있으며, 제어부(180)는 도 33b에서 도시하는 바와 같이 제2 카메라부(300)는 제1 영역(3211)보다 먼 영역인 제2 영역(3221)에 초점을 맞추도록 제어할 수 있다.
또한, 제어부(180)는 제1 카메라부(200)를 이용하여 촬영된 영상(3210) 및 제2 카메라부(300)를 이용하여 촬영된 영상(3220)을 합성할 수 있다. 구체적으로, 제어부(180)는 제1 카메라부(200)를 이용하여 촬영된 영상(3210) 중 초점이 맞는 제1 영역(3211)과 제2 카메라부(300)를 이용하여 촬영된 영상(3220) 중 초점이 맞는 제2 영역(3221)을 합성할 수 있다.
그리고 제어부(180)는 제1 카메라부(200)를 이용하여 촬영된 영상(3210) 중 초점이 맞는 제1 영역(3211)과 제2 카메라부(300)를 이용하여 촬영된 영상(3220) 중 초점이 맞는 제2 영역(3221)을 합성한 영상(3230)을 획득할 수 있다.
이와 같이 본 발명은, 동일한 면에 장착된 두개의 카메라를 이용하여 촬영된 영상을 합성함으로써, 가까운 거리와 먼 거리에 모두 초점을 맞춘 영상을 획득할 수 있다.
전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 송신)의 형태로 구현되는 것도 포함한다. 또한, 상기 컴퓨터는 단말기의 제어부(180)를 포함할 수도 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니 되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.
180: 제어부 200: 제1 카메라부
300: 제2 카메라부

Claims (12)

  1. 영상을 수신하는 제1 카메라부;
    상기 영상을 수신하는 제2 카메라부; 및
    상기 제1 카메라부를 이용하여 동영상을 촬영하고, 상기 제2 카메라부를 통하여 수신되는 영상에 기초하여 최종 보정 정보를 획득하고, 상기 최종 보정 정보에 기초하여 상기 동영상을 촬영하도록 상기 제1 카메라부를 제어하는 제어부를 포함하는
    듀얼 카메라가 장착된 동영상 촬영 장치.
  2. 제 1항에 있어서,
    상기 제어부는,
    상기 제2 카메라부를 통하여 수신되는 영상에 기초하여 보정 정보를 획득하고, 상기 획득한 보정 정보에 따라 상기 제2 카메라부가 동작하도록 상기 제2 카메라부를 제어하고, 상기 제어된 제2 카메라부를 통하여 수신되는 영상에 기초하여 상기 최종 보정 정보를 획득하는
    듀얼 카메라가 장착된 동영상 촬영 장치.
  3. 제 2항에 있어서,
    상기 제어부는,
    상기 제어된 제2 카메라부를 통하여 수신되는 영상에 기초하여 상기 제어된 제2 카메라부에서의 보정이 완료되었는지에 대한 정보를 획득하고, 상기 제어된 제2 카메라부에서의 보정이 완료되었으면 상기 제어된 제2 카메라부의 설정값을 상기 최종 보정 정보로써 획득하는
    듀얼 카메라가 장착된 동영상 촬영 장치.
  4. 제 2항에 있어서,
    상기 제2 카메라부를 통하여 수신되는 영상에 기초하여 획득되는 보정 정보는,
    상기 제2 카메라부의 자동 초점(Auto Focus)을 위한 제어 정보, 상기 제2 카메라부의 자동 노출(Auto Exposure)을 위한 제어 정보 및 상기 제2 카메라부의 자동 화이트 밸런스(Auto White Balance)를 위한 제어 정보 중 적어도 하나이고,
    상기 제2 카메라를 통하여 수신되는 영상의 최종 보정 정보는,
    상기 획득한 영상의 보정 정보에 기초하여 상기 제2 카메라부가 제어됨에 따라 획득된 최종 제어 정보이고,
    상기 최종 제어 정보는,
    상기 제2 카메라부의 초점에 대한 최종 제어 정보, 상기 제2 카메라부의 노출에 대한 최종 제어 정보 및 상기 제2 카메라부의 화이트 밸런스에 대한 최종 제어 정보 중 적어도 하나인
    듀얼 카메라가 장착된 동영상 촬영 장치.
  5. 제 1항에 있어서,
    상기 제어부는,
    상기 획득한 영상의 보정 정보에 기초하여, 상기 제2 카메라부의 ISO의 변경, 상기 제2 카메라부의 노출 시간의 변경, 상기 제2 카메라부를 통하여 수신된 영상의 색 균형의 변경 및 상기 제2 카메라부에 포함된 렌즈의 이동 중 적어도 하나가 수행되도록 상기 제2 카메라부를 제어하는
    듀얼 카메라가 장착된 동영상 촬영 장치.
  6. 제 1항에 있어서,
    상기 제어부는,
    상기 최종 보정 정보에 기초하여, 상기 제1 카메라부의 ISO의 변경, 상기 제1 카메라부의 노출 시간의 변경, 상기 제1 카메라부를 통하여 수신된 영상의 색상의 변경 및 상기 제1 카메라부에 포함된 렌즈의 이동 중 적어도 하나가 수행되도록 상기 제1 카메라부를 제어하는
    듀얼 카메라가 장착된 동영상 촬영 장치.
  7. 제 1항에 있어서,
    상기 제어부는,
    상기 최종 보정 정보가 획득되기 이전에 상기 제1 카메라부를 통하여 촬영되는 영상의 초점, 밝기 및 색 균형 중 적어도 하나가 상기 최종 보정 정보가 획득된 이후에 상기 제1 카메라부를 통하여 촬영되는 영상의 초점, 밝기 및 색 균형 중 적어도 하나로 기 설정된 시간 동안 변경되도록 상기 제1 카메라부를 제어하는
    듀얼 카메라가 장착된 동영상 촬영 장치.
  8. 제 2항에 있어서,
    상기 제어부는,
    상기 동영상의 자동 보정을 위한 트리거링 정보가 획득되면 상기 제2 카메라부를 통하여 수신되는 영상에 기초하여 보정 정보를 획득하고, 상기 획득한 보정 정보에 따라 상기 제2 카메라부가 동작하도록 상기 제2 카메라부를 제어하는
    듀얼 카메라가 장착된 동영상 촬영 장치.
  9. 제 8항에 있어서,
    상기 트리거링 정보는,
    상기 제1 카메라부 및 상기 제2 카메라부 중 적어도 하나를 통하여 수신되는 영상의 변화, 상기 촬영장치의 움직임, 초점 대상 피사체를 변경하기 위한 입력, 자동 보정을 시작하기 위한 입력 중 적어도 하나에 기초하여 획득되는
    듀얼 카메라가 장착된 동영상 촬영 장치.
  10. 제 8항에 있어서,
    상기 트리거링 정보가 획득되면, 상기 제2 카메라부의 전원을 온하는 단계를 더 포함하는
    듀얼 카메라가 장착된 동영상 촬영 장치.
  11. 제 1항에 있어서,
    상기 제1 카메라부와 상기 제2 카메라부는
    상기 촬영 장치의 동일한 면에 장착되는
    듀얼 카메라가 장착된 동영상 촬영 장치.
  12. 제 1항에 있어서,
    상기 제1 카메라부와 상기 2 카메라부의 종류는 서로 상이하고,
    상기 제어부는,
    상기 최종 보정 정보 및 상기 제1 카메라부와 상기 제2 카메라부 간의 보정 정보에 기초하여 상기 동영상을 촬영하도록 상기 제1 카메라부를 제어하는
    듀얼 카메라가 장착된 동영상 촬영 장치.
KR1020160071932A 2016-06-09 2016-06-09 듀얼 카메라가 장착된 동영상 촬영 장치 KR20170139408A (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020160071932A KR20170139408A (ko) 2016-06-09 2016-06-09 듀얼 카메라가 장착된 동영상 촬영 장치
PCT/KR2017/005331 WO2017213365A1 (en) 2016-06-09 2017-05-23 Moving picture capturing apparatus having dual camera
CN201780034609.2A CN109219957A (zh) 2016-06-09 2017-05-23 具有双相机的运动图片捕获装置
EP17810488.1A EP3469422B1 (en) 2016-06-09 2017-05-23 Moving picture capturing apparatus having dual camera
US15/619,328 US10694126B2 (en) 2016-06-09 2017-06-09 Moving picture photographing apparatus having dual cameras using correction information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160071932A KR20170139408A (ko) 2016-06-09 2016-06-09 듀얼 카메라가 장착된 동영상 촬영 장치

Publications (1)

Publication Number Publication Date
KR20170139408A true KR20170139408A (ko) 2017-12-19

Family

ID=60573247

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160071932A KR20170139408A (ko) 2016-06-09 2016-06-09 듀얼 카메라가 장착된 동영상 촬영 장치

Country Status (5)

Country Link
US (1) US10694126B2 (ko)
EP (1) EP3469422B1 (ko)
KR (1) KR20170139408A (ko)
CN (1) CN109219957A (ko)
WO (1) WO2017213365A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021157954A1 (ko) * 2020-02-07 2021-08-12 삼성전자 주식회사 복수의 카메라를 이용한 동영상 촬영 방법 및 그 장치

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10885676B2 (en) * 2016-12-27 2021-01-05 Samsung Electronics Co., Ltd. Method and apparatus for modifying display settings in virtual/augmented reality
CN107343158A (zh) * 2017-07-25 2017-11-10 广东欧珀移动通信有限公司 加快aec收敛的方法及装置、终端设备
CN107633398A (zh) * 2017-08-24 2018-01-26 阿里巴巴集团控股有限公司 图像显示方法及装置和电子设备
US10783648B2 (en) * 2018-03-05 2020-09-22 Hanwha Techwin Co., Ltd. Apparatus and method for processing image
JP6765394B2 (ja) * 2018-05-22 2020-10-07 京セラ株式会社 測定装置及び測定装置の制御方法
KR20200034276A (ko) 2018-09-21 2020-03-31 엘지이노텍 주식회사 카메라 모듈 및 이의 동작 방법
KR102558301B1 (ko) 2018-12-13 2023-07-24 에스케이하이닉스 주식회사 유기 픽셀 어레이 및 무기 픽셀 어레이를 갖는 이미지 센싱 디바이스
CN109862271B (zh) * 2019-02-27 2021-03-16 上海创功通讯技术有限公司 相位差对焦方法、电子设备及计算机存储介质
US11258955B2 (en) 2019-03-18 2022-02-22 The Climate Corporation System and method for automatic control of exposure time in an imaging instrument
WO2020218655A1 (ko) * 2019-04-26 2020-10-29 엘지전자 주식회사 자율주행 차량의 영상 처리 방법
CN110730310A (zh) * 2019-10-18 2020-01-24 青岛海信移动通信技术股份有限公司 一种摄像头曝光控制的方法及终端
KR20210053377A (ko) * 2019-11-01 2021-05-12 삼성전자주식회사 이미지 센서 및 이미지 신호 처리기를 포함하는 이미지 장치, 및 이미지 센서의 동작 방법
CN110769162B (zh) * 2019-11-28 2021-07-13 维沃移动通信有限公司 电子设备及对焦方法
DE102020201097B4 (de) * 2020-01-30 2023-02-16 Carl Zeiss Industrielle Messtechnik Gmbh Anordnung und Verfahren zur optischen Objektkoordinatenermittlung
US11716532B2 (en) * 2020-03-17 2023-08-01 Sony Olympus Medical Solutions Inc. Control apparatus and medical observation system
WO2021232898A1 (en) * 2020-05-18 2021-11-25 Guangdong Oppo Mobile Telecommunications Corp., Ltd. System and method for auto-focusing multiple cameras
CN112150382B (zh) * 2020-09-24 2022-09-09 中国科学技术大学 高时空分辨率周期运动三维测量方法、装置
KR20230023498A (ko) 2021-08-10 2023-02-17 삼성전자주식회사 언더 디스플레이 카메라를 포함하는 전자 장치 및 그 동작 방법

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7724296B2 (en) * 2006-06-21 2010-05-25 Sony Ericsson Mobile Communications Ab Device and method for adjusting image orientation
US7683962B2 (en) * 2007-03-09 2010-03-23 Eastman Kodak Company Camera using multiple lenses and image sensors in a rangefinder configuration to provide a range map
US20080231726A1 (en) * 2007-03-23 2008-09-25 Motorola, Inc. Apparatus and method for image color correction in a portable device
US7817187B2 (en) * 2007-06-27 2010-10-19 Aptina Imaging Corporation Image blur correction using a secondary camera
US8289377B1 (en) * 2007-08-31 2012-10-16 DigitalOptics Corporation MEMS Video mode hidden autofocus
JP5540899B2 (ja) * 2010-06-01 2014-07-02 日本電気株式会社 撮像装置,これを搭載する携帯端末機,撮像装置の制御方法,およびプログラム
US20120002958A1 (en) * 2010-07-01 2012-01-05 Nokia Corporation Method And Apparatus For Three Dimensional Capture
JP2012088564A (ja) * 2010-10-20 2012-05-10 Nec Casio Mobile Communications Ltd 撮像装置、撮像方法及びプログラム
JP5857805B2 (ja) * 2012-03-07 2016-02-10 株式会社Jvcケンウッド カメラ較正装置
US9578224B2 (en) * 2012-09-10 2017-02-21 Nvidia Corporation System and method for enhanced monoimaging
KR102052553B1 (ko) * 2013-05-14 2019-12-05 삼성전자주식회사 이미징 시스템 및 그것의 자동초점 방법
US9615012B2 (en) * 2013-09-30 2017-04-04 Google Inc. Using a second camera to adjust settings of first camera
US9560254B2 (en) * 2013-12-30 2017-01-31 Google Technology Holdings LLC Method and apparatus for activating a hardware feature of an electronic device
CN103986876B (zh) * 2014-05-29 2017-06-06 宇龙计算机通信科技(深圳)有限公司 一种图像获取终端和图像获取方法
CN105227212A (zh) 2014-06-10 2016-01-06 中兴通讯股份有限公司 反向供电管理方法、装置及系统
US9769378B2 (en) * 2014-09-08 2017-09-19 Panasonic Intellectual Property Management Co., Ltd. Imaging apparatus that changes from highlighting a first focus frame to highlighting a second focus frame when a focus lens moves from a first focus position to a second focus position
CN104601892A (zh) * 2015-01-30 2015-05-06 深圳酷派技术有限公司 一种终端、图像拍摄方法及装置
US10708526B2 (en) * 2015-04-22 2020-07-07 Motorola Mobility Llc Method and apparatus for determining lens shading correction for a multiple camera device with various fields of view
US10284774B2 (en) * 2015-12-25 2019-05-07 Olympus Corporation Information terminal apparatus, image pickup apparatus, image-information processing system, and image-information processing method for controlling time-lapse imaging

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021157954A1 (ko) * 2020-02-07 2021-08-12 삼성전자 주식회사 복수의 카메라를 이용한 동영상 촬영 방법 및 그 장치

Also Published As

Publication number Publication date
WO2017213365A1 (en) 2017-12-14
US10694126B2 (en) 2020-06-23
CN109219957A (zh) 2019-01-15
US20170359536A1 (en) 2017-12-14
EP3469422B1 (en) 2021-01-20
EP3469422A4 (en) 2019-11-27
EP3469422A1 (en) 2019-04-17

Similar Documents

Publication Publication Date Title
US10694126B2 (en) Moving picture photographing apparatus having dual cameras using correction information
KR101785458B1 (ko) 카메라 모듈 및 이를 구비하는 이동 단말기
KR101632008B1 (ko) 이동단말기 및 그 제어방법
KR20170035237A (ko) 이동 단말기 및 그 제어방법
KR20160019280A (ko) 이동 단말기
KR20160031886A (ko) 이동 단말기 및 그것의 제어방법
KR20160025856A (ko) 이동 단말기 및 그 제어방법
KR20170006559A (ko) 이동단말기 및 그 제어방법
KR101783773B1 (ko) 듀얼 카메라 모듈 및 이를 구비하는 이동 단말기
KR20170139982A (ko) 이동 단말기
KR20160019145A (ko) 이동 단말기 및 그 제어 방법
KR20180040409A (ko) 이동 단말기 및 그 제어방법
KR20180013151A (ko) 이동 단말기
KR20170020069A (ko) 이동 단말기 및 그의 영상촬영 방법
KR20190072837A (ko) 카메라 모듈 및 이를 구비하는 이동 단말기
KR20150131837A (ko) 이동 단말기 및 그것의 제어 방법
KR20160017463A (ko) 이동 단말기 및 그 제어 방법
KR20170022488A (ko) 이동 단말기 및 이의 제어방법
KR20150140134A (ko) 이동 단말기
KR20170037123A (ko) 이동단말기 및 그 제어방법
KR20170005648A (ko) 카메라 및 이를 구비하는 이동 단말기
KR20160038409A (ko) 이동 단말기 및 그 제어 방법
KR20170082228A (ko) 이동 단말기 및 그 제어방법
KR20160081698A (ko) 화이트 밸런스 모듈 및 이를 구비하는 이동 단말기
KR20170085358A (ko) 이동 단말기 및 그 제어방법