KR101781355B1 - 렌즈 분리형 카메라의 동작 방법 및 장치 - Google Patents

렌즈 분리형 카메라의 동작 방법 및 장치 Download PDF

Info

Publication number
KR101781355B1
KR101781355B1 KR1020130119452A KR20130119452A KR101781355B1 KR 101781355 B1 KR101781355 B1 KR 101781355B1 KR 1020130119452 A KR1020130119452 A KR 1020130119452A KR 20130119452 A KR20130119452 A KR 20130119452A KR 101781355 B1 KR101781355 B1 KR 101781355B1
Authority
KR
South Korea
Prior art keywords
main body
lens unit
information
lens
estimating
Prior art date
Application number
KR1020130119452A
Other languages
English (en)
Other versions
KR20150040665A (ko
Inventor
김동한
윤정민
장상현
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020130119452A priority Critical patent/KR101781355B1/ko
Priority to US14/508,973 priority patent/US9467611B2/en
Publication of KR20150040665A publication Critical patent/KR20150040665A/ko
Application granted granted Critical
Publication of KR101781355B1 publication Critical patent/KR101781355B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/663Remote control of cameras or camera parts, e.g. by remote control devices for controlling interchangeable camera parts based on electronic image sensor signals
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/02Bodies
    • G03B17/04Bodies collapsible, foldable or extensible, e.g. book type

Abstract

본 발명의 실시예들은 고화질의 사진이나 동영상의 촬영에 적합한 렌즈 분리형 카메라 시스템의 동작 방법 및 장치를 제공한다. 본 발명의 일 실시예에 따르면, 카메라 시스템은 본체와, 본체에 장착 및 탈착 가능하며 상기 본체에 무선으로 접속될 수 있는 렌즈부를 포함한다. 렌즈부는 빔포밍을 통해 형성된 렌즈부의 빔 정보와 본체의 빔 정보를 이용하여 렌즈부와 본체 사이의 위치 정보를 추정하고, 추정된 위치 정보를 촬영에 적용한다.

Description

렌즈 분리형 카메라의 동작 방법 및 장치{METHOD AND APPARATUS IN A CAMERA WITH INTERCHANGEBLE LENS}
본 발명은 렌즈 분리형 카메라에 관한 것이다.
최근에 통신 기술이 발전하면서 렌즈 분리형 카메라(interchangeable-lens camera or a camera with interchangeable lens)가 출시되고 있다. 렌즈 분리형 카메라는 무선 접속 기능을 지원하기 때문에 본체와 렌즈부를 물리적으로 분리한 경우에도 사진 및 동영상의 촬영을 가능하게 한다. 본체 및 렌즈부는 이들 사이의 무선 접속을 위한 무선 모듈을 내부에 구비한다. 이러한 무선 모듈은 본체와 렌즈부의 사이에서 교환될 사진이나 동영상의 대역폭을 고려하여 결정될 필요가 있다.
따라서 본 발명의 실시예들은 고화질의 사진이나 동영상의 촬영에 적합한 렌즈 분리형 카메라 시스템의 동작 방법 및 장치를 제공함에 있다.
본 발명의 다른 실시예들은 렌즈 분리형 카메라 시스템에서 카메라 본체와 렌즈부 사이의 상대적인 위치를 추정하는 방법 및 장치를 제공함에 있다.
본 발명의 또다른 실시예들은 렌즈 분리형 카메라 시스템에서 카메라 본체와 렌즈부 사이의 상대적인 위치를 추정하고 이 추정된 정보를 촬용에 적용하는 방법 및 장치를 제공함에 있다.
본 발명의 일 실시예에 따르면, 본체와, 상기 본체에 장착 및 탈착 가능하며 상기 본체에 무선으로 접속될 수 있는 렌즈부를 포함하는 카메라 시스템에 있어서 상기 렌즈부의 동작 방법은: 빔포밍을 통해 형성된 상기 렌즈부의 빔 정보와 상기 본체의 빔 정보를 이용하여 상기 렌즈부와 상기 본체 사이의 위치 정보를 추정하는 과정; 및 상기 추정된 위치 정보를 촬영에 적용하는 과정을 포함한다.
본 발명의 다른 실시예에 따르면, 본체와, 상기 본체에 장착 및 탈착 가능하며 상기 본체에 무선으로 접속될 수 있는 렌즈부를 포함하는 카메라 시스템에 있어서 상기 본체의 동작 방법은: 상기 렌즈부에 의해 촬영된 이미지 데이터를 수신하는 과정; 빔포밍을 통해 형성된 상기 렌즈의 빔 정보와 상기 본체의 빔 정보를 이용하여 상기 렌즈부와 상기 본체 사이의 위치 정보를 추정하는 과정; 및 상기 추정된 위치 정보에 기초하여 상기 수신된 이미지 데이터를 변환 처리하는 과정을 포함한다.
본 발명의 또다른 실시예에 따르면, 본체와, 상기 본체에 장착 및 탈착 가능하며 상기 본체에 무선으로 접속될 수 있는 렌즈부를 포함하는 카메라 시스템에 있어서 상기 렌즈부의 장치는: 빔포밍을 통해 형성된 상기 렌즈부의 빔 정보와 상기 본체의 빔 정보를 이용하여 상기 렌즈부와 상기 본체 사이의 위치 정보를 추정하는 위치 정보 추정기; 및 상기 추정된 위치 정보를 촬영에 적용하는 촬영 제어기를 포함한다.
본 발명의 또다른 실시예에 따르면, 본체와, 상기 본체에 장착 및 탈착 가능하며 상기 본체에 무선으로 접속될 수 있는 렌즈부를 포함하는 카메라 시스템에서 상기 본체의 장치는: 상기 렌즈부에 의해 촬영된 이미지 데이터를 수신하는 수신기; 빔포밍을 통해 형성된 상기 렌즈부의 빔 정보와 상기 본체의 빔 정보를 이용하여 상기 렌즈부와 상기 본체 사이의 위치 정보를 추정하는 위치 정보 추정기; 및 상기 추정된 위치 정보에 기초하여 상기 수신된 이미지 데이터를 변환 처리하는 이미지 변환 처리기를 포함한다.
본 발명의 실시예들은 무선 렌즈부와 본체의 무선 모듈로서 빔포밍 기술을 사용하는 밀리미터 웨이브 무선 모듈의 사용을 제안한다. 빔포밍을 통해 추출된 빔패턴 정보에 기초하여 무선 렌즈부와 본체 사이의 상대적인 위치(방향 및 거리)가 추정된다. 이렇게 추정된 무선 렌즈부와 본체 사이의 상대적인 위치(방향과 거리)에 대한 정보는 사진 및 동영상 촬영에 적용됨으로써 사진 및 동영상 촬영시 사용자에 조작의 편리성을 제공할 수 있다.
본 발명 및 그의 효과에 대한 보다 완벽한 이해를 위해, 첨부되는 도면들을 참조하여 하기의 설명들이 이루어질 것이고, 여기서 동일한 참조 부호들은 동일한 부분들을 나타낸다.
도 1은 본 발명이 적용되는 렌즈 분리형 카메라 시스템의 연결 구성을 보여주는 도면이다.
도 2는 본 발명의 실시예에 따른 렌즈 분리형 카메라 시스템을 구성하는 무선 렌즈부 및 본체의 구성을 보여주는 도면이다.
도 3a 및 도 3b는 본 발명의 실시예에 따른 밀리미터웨이브 무선모듈에 포함되는 위상 어레이 안테나의 구성 예들을 보여주는 도면들이다.
도 4a 및 도 4b는 본 발명의 실시예에 따른 위상 어레이 안테나의 실장 예들을 보여주는 도면들이다.
도 5는 본 발명의 실시예에 따른 무선 렌즈부와 본체 사이의 거리 측정 동작을 설명하는 도면이다.
도 6은 본 발명의 일 실시예에 따른 무선 렌즈부의 기능 블록 다이아그램이다.
도 7은 본 발명의 일 실시예에 따른 본체의 기능 블록 다이아그램이다.
도 8은 본 발명의 일 실시예에 따른 무선 렌즈부의 동작 흐름을 보여주는 도면이다.
도 9는 본 발명의 일 실시예에 따른 본체의 동작 흐름을 보여주는 도면이다.
도 10은 본 발명의 실시예에 따른 무선 렌즈부와 본체가 서로 마주보는 경우 촬영 동작의 처리 흐름의 일 예를 보여주는 도면이다.
도 11은 본 발명의 다른 실시예에 따른 무선 렌즈부와 본체가 서로 마주보는 경우 촬영 동작의 처리 흐름의 다른 예를 보여주는 도면이다.
도 12는 본 발명의 일 실시예에 따른 셀프 촬영 동작의 처리 흐름을 보여주는 도면이다.
본 특허 명세서에서 본 발명의 원리들을 설명하기 위해 사용되어지는 도 1 내지 도 12는 단지 예시를 위한 것인 바, 발명의 범위를 제한하는 어떠한 것으로도 해석되어져서는 아니된다. 당해 분야에서 통상의 지식을 가진 자는 본 발명의 원리들이 적절하게 배치된 임의의 무선 통신시스템에서도 구현되어질 수 있음을 이해할 것이다.
하기에서 설명될 본 발명의 실시예들은 무선렌즈와 본체의 분리가 가능한 렌즈 분리형 카메라에 관한 것이다. 도 1에 도시된 바와 같이 렌즈 분리형 카메라는 무선 렌즈부 100과 본체 200을 포함한다. 무선 렌즈부 100과 본체 200은 내부에 구비된 무선 모듈을 통해 서로 연결되어 제어 및 데이터를 전송할 수 있다. 그러므로 무선 렌즈부 100과 본체 200은 각각의 마운트들 10,20을 통해 서로 결합된 상태(도 1의 (a))에서 뿐만 아니라 무선 렌즈부 100과 본체 200이 분리된 상태(도 1의 (b))에서도 사진 및 동영상 촬영을 가능하게 한다. 다른 실시예에 있어서, 무선 렌즈부 100은 스마트폰(smart phone), 텔레비전(TV), 랩탑(laptop), 태블릿(tablet) 등의 디스플레이를 포함하며 무선 접속 기능을 가지는 기기와 페어링(pairing)될 수도 있다. 이러한 기기에는 무선 모듈을 포함하는 스마트 카메라가 페어링될 수도 있다.
카메라 본체 200과 무선 렌즈부 100이 무선으로 연결되어 사진 촬영 및 렌즈의 제어가 가능하기 위해서는 본체 200과 렌즈부 100의 내부에 무선 모듈이 포함되어야 한다. 이때 렌즈부 100과 본체 200의 사이에 교환되는 사진 및 동영상의 대역폭을 고려하여 무선 모듈을 결정할 필요가 있다. 예를 들어, 무선 모듈은 와이파이(Wireless Fidelity, WiFi) 방식을 사용할 수 있다. 렌즈 분리형 카메라에서 사진 및 동영상을 압축 상태로 전송하는 경우 대역폭이 많이 요구되지 않기 때문에 WiFi를 무선 링크로 사용할 수 있는 것이다.
그러나 고선명(High/Ultra Definition) 급의 고화질 사진과 동영상의 전송에는 WiFi 방식의 무선 링크가 적합하지 않다. 따라서 후술될 본 발명의 실시예는 밀리미터 웨이브(millimeter wave)를 사용한 기가비피에스(Giga-bps)급 무선 모듈의 사용을 제안한다. 또한, 본 발명의 실시예는 밀리미터 웨이브 통신이 감쇄에 의해 커버리지가 짧기 때문에 빔포밍(Beamforming)기술을 사용하여 성능을 증대시킬 수 있도록 한다. 또한, 본 발명의 실시예는 빔포밍을 통해 송수신단의 빔 패턴들을 추출하고, 이 추출된 빔 패턴들을 사용하여 송수신단 사이의 상대적인 위치와 방향 그리고 거리를 비교적 정확하게 추정할 수 있도록 한다. 밀리미터 웨이브는 파장이 짧고 신호의 대역폭이 넓기 때문에 송수신단 사이의 왕복 지연시간(round trip delay, RTD)를 계산함으로써 송수신단 사이의 정확한 거리를 얻어 낼 수 있다. 또한, 본 발명의 실시예는 무선 렌즈부와 본체 사이의 상대적인 위치(방향과 거리)에 대한 추정 정보를 사진 및 동영상 촬영에 적용함으로써 사용자의 사진 및 동영상 촬영시 조작의 편리성을 제공한다. 예를 들어, 무선 렌즈부와 본체가 서로 마주보게 될 경우, 무선 렌즈부는 본체를 들고 있는 사람을 찍고 있는 셀프촬영(self-portrait) 상태이므로, 본 발명의 실시예는 본체에서 디스플레이되는 프리뷰(preview) 영상을 좌우 반전 처리하여 디스플레이되도록 하고, 또한 셀프촬영에 적합한 이미지 프로세서/필터 셋팅 등을 자동으로 수행되도록 한다. 또한, 본 발명의 실시예는 본체와 무선렌즈 사이에 상대적인 위치를 추정함으로써 별도로 이미지 프로세싱을 하지 않고도 정확하게 화상의 초점을 잡을 수 있도록 한다.
도 2는 본 발명의 실시예에 따른 렌즈 분리형 카메라 시스템을 구성하는 무선 렌즈부 100 및 본체 200의 구성을 보여주는 도면이다. 무선 렌즈부 100과 본체 200은 각각 마운트들 10,20을 포함하고 있다. 무선 렌즈부 100과 본체 200은 마운트들 10,20을 통해 결합과 분리가 가능하다. 무선 렌즈부 100과 본체 200이 분리된 상태에서도 사진 및 동영상 촬영을 가능하게 위하여 이들 사이를 무선으로 접속하는 무선 모듈들 140 및 210이 각각 무선 렌즈부 100과 본체 200의 내부에 포함된다.
무선 렌즈부 100은 다수의 렌즈들 110, 이미지 센서 120, 이미지 프로세서 130, 무선 모듈 140, 렌즈 제어부 150, 전원 장치 160 및 데이터베이스 170을 포함한다. 전원 장치 160은 무선 렌즈부 100의 각 구성요소들에 전원을 공급한다. 렌즈 제어부 150은 렌즈들 100에 대한 사진 및 동영상 촬영을 위한 설정을 제어한다. 예를 들어, 렌즈 제어부 150은 오토포커스(Auto-Focus), 줌(Zoom), 조리개 등을 제어한다. 이미지 센서 120은 렌즈들 110을 통해 수광되는 빛을 전기적 신호로 변환한다. 이미지 프로세서 130은 이미지 센서 120으로부터 수신된 데이터들을 이미지 프로세싱한다. 예를 들어, 이미지 프로세스 130은 수신된 데이터들의 노이즈를 제거하고 사진 및 동영상 포맷에 맞게 변환한다. 데이터베이스 170은 사진 및 동영상 촬영에 필요한 정보를 저장하고 있다. 예를 들어, 데이터베이스 170은 렌즈가 다양한 범위의 초점거리를 갖는 줌 렌즈일 경우 각 초점거리에 맞는 화각(field of view)을 저장할 수 있다. 다른 예로, 데이터베이스 170은 렌즈부 100과 본체 200 사이의 거리에 따른 초점 거리와 그에 해당하는 광학 렌즈의 제어값을 저장할 수 있다. 또 다른 예로, 데이터베이스 170은 셀프 촬영에 적합한 노출(조리개, 셔터), 디지털 필터 효과(effect) 등을 저장할 수 있다. 데이터베이스 170에 저장된 정보들은 무선 렌즈부 100과 본체 200의 빔 패턴을 사용하여 무선 렌즈부 100과 본체 200 사이의 상대적인 방향을 판단할 때 사용된다.
무선 모듈 140은 렌즈들 110에 의해 촬영된 후 이미지 프로세서 130에 의해 프로세싱된 사진 및 동영상의 이미지를 본체 200으로 전송 한다. 또한, 무선 모듈 140은 본체 200으로 제어 데이터를 송신하고, 본체 200으로부터 제어 데이터를 수신한다. 예를 들어, 무선 모듈 140은 거리 측정을 위한 레인징 패킷(ranging packet), 응답(ACK) 패킷(packet), 빔 패턴 정보 등을 본체 200과의 사이에서 송수신한다.
본체 200은 무선 모듈 210, 저장 장치 220, 사용자 입력장치 230, 전원 장치 240 및 디스플레이 250을 포함한다. 무선 모듈 210은 무선 렌즈부 100으로부터 송신된 사진 및 동영상의 이미지 데이터를 수신한다. 또한, 무선 모듈 210은 렌즈부 100으로 제어 데이터를 송신하고, 렌즈부 100으로부터 제어 데이터를 수신한다. 예를 들어, 무선 모듈 210은 거리 측정을 위한 레인징 패킷, 응답(ACK) 패킷(packet), 빔 패턴 정보 등을 렌즈부 100과의 사이에서 송수신한다. 저장 장치 220은 사진 및 동영상의 이미지 데이터를 저장한다. 디스플레이 250은 사진 및 동영상을 디스플레이함으로써 사용자가 사진 및 동영상을 프리뷰/리뷰(Preview/Review)할 수 있도록 한다. 사용자 입력 장치 230은 사용자로부터의 입력을 받을 수 있다.
무선 렌즈부 100과 본체 200에 포함되는 무선 모듈들 140,210은 무선 링크를 통해 전송하는 사진 및 동영상 데이터의 최대 대역폭을 고려하여 결정될 수 있다. 최근의 카메라 발전 경향과 기술 발전 속도를 고려했을 때 고선명도(High/Ultra Definition)의 고화질 사진과 비디오, 3D 영상 등을 전송하기 위해서는 Giga-bps급의 무선 모듈을 사용하는 것이 적합하다. 예를 들어, 현재 Giga-bps 데이터 전송 무선 통신 표준인 IEEE 802.11ad, Wireless HD 등이 적용될 수 있다. IEEE 802.11ad와 Wireless HD와 같은 Giga-bps 데이터 전송 표준은 60GHz 대역의 밀리미터 웨이브(millimeter-wave)를 사용한다. 밀리미터 웨이브는 직진성이 강하고 거리에 따른 경로감쇄(path loss)가 크기 때문에 빔포밍(beamforming) 기술을 사용하여 통신 성능을 증대시킬 수 있다. 빔포밍 기술은 위상 어레이 안테나(phased-array antenna)를 사용하여 송신단 무선모듈과 수신단 무선모듈 사이의 최적의 빔을 찾고, 형성된 빔을 통해 신호를 전송함으로써 높은 신호대 잡음비(Signal to Noise Ratio, SNR) 상황에서 통신을 가능하게 하는 기술이다.
도 3a 및 도 3b는 본 발명의 실시예에 따른 밀리미터웨이브 무선모듈에 포함되는 위상 어레이 안테나의 구성 예들을 보여주는 도면들이다.
도 3a를 참조하면, 위상 어레이 안테나 300은 다수의 단일 안테나들 310과, 다수의 위상 시프터(phase shifter)들 320 및 결합기(combiner) 330으로 구성된다. 다수의 안테나들 310을 통해 수신되는 신호의 위상을 제어하여 결합함으로써 원하는 방향으로 SNR이 높은 빔이 형성되도록 구성할 수 있다.
도 3b를 참조하면, 위상 어레이 안테나 300은 X-Y 평면 2차원에 다수의 단일 안테나들 310을 배치하여 구성된다. 다수의 안테나들 310중의 어느 한 안테나에 의해 빔이 형성된다. 밀리미터 웨이브 무선 통신 방식은 안테나를 작게 만들 수 있는 장점이 있으므로, 2차원상에 다수의 단일 안테나들 310으로 구성된 위상 어레이 안테나 300을 사용한다. 위상 어레이 안테나 300에 의해 형성된 빔은 각각 z축을 기준으로 앙각(Elevation angle) θel과, x축을 기준으로 방위각(Azimuth angle) θaz을 갖는다. 다수의 안테나들 310에 대응하는 빔들이 전 각도를 커버하면서도 빔간 중첩이 되지 않도록 앙각과 방위각을 적절히 설계하고, 그에 따른 빔포밍 동작이 수행되도록 할 수 있다.
빔포밍 동작은 여러 알고리즘들에 의해 수행될 수 있다. 본 발명의 실시예는, 미리 정해진 빔 패턴을 변경하여 송수신하면서 송수신 전력, 신호대잡음비(Signal to Noise Ratio, SNR) 등을 측정함으로써 최적의 성능을 갖는 빔 패턴을 선택하는 알고리즘을 사용한다. 빔포밍이 완료되면 선택된 빔 패턴에 대응하는 앙각과 방위각을 확인함으로써 현재 송신무선모듈(또는 수신무선모듈)과 연결된 수신무선모듈(또는 송신무선모듈) 사이의 상대적인 방향이나 위치를 파악할 수 있다.
도 4a 및 도 4b는 본 발명의 실시예에 따른 위상 어레이 안테나의 실장 예들을 보여주는 도면들이다. 예를 들어, 본체의 경우 도 4a에 도시된 바와 같이 z 축이 마운트 20이 바라보는 방향으로 위상 어레이 안테나 300이 실장될 수 있다. 렌즈의 경우 도 4b에 도시된 바와 같이 렌즈가 바라보는 방향으로 위상 어레이 안테나 300이 실장될 수 있다. 도면에 도시된 실장 예는 예시적인 것으로, 위상 어레이 안테나는 성능 및 구현에 제약없이 카메라 본체 200과 렌즈부 100에 다양한 방향과 위치에 실장될 수 있다.
도 5는 본 발명의 실시예에 따른 무선 렌즈부와 본체 사이의 거리 측정 동작을 설명하는 도면이다. 밀리미터 웨이브를 사용한 무선 통신은 반송파 주파수와 샘플링 주파수가 높기 때문에 송신 무선모듈과 수신 무선모듈 사이의 거리를 측정하는 데도 유용하다. 도 5에 도시된 바와 같이 송신 무선모듈은 거리측정을 위한 레인징 패킷(ranging packet)을 전송한다. 수신 무선모듈은 레인징 패킷을 수신하고, 이에 대한 응답신호로서 ACK 패킷을 전송한다. 그러면 송신 무선모듈과 수신 무선모듈 사이의 거리를 아래의 수학식 1과 같이 측정할 수 있다.
Figure 112013090770304-pat00001
수학식 1에서 TRound는 송신 모듈에서 거리측정 패킷을 전송한 시점과 응답 패킷을 수신한 시점의 시간 차이, TRx_Processing은 수신 모듈에서 거리측정 패킷을 수신한 시점부터 응답 패킷을 전송하는 시점의 시간 차이, Clight 는 빛의 속도를 나타낸다. 거리 측정 동작은 무선 렌즈부 100이나 본체 200의 어디서나 레인징 패킷을 전송함으로써 구현될 수 있다. 일 예로, 무선 렌즈부 100이 송신 무선모듈, 본체 200이 수신 무선모듈일 수 있다. 다른 예로, 무선 렌즈부 100이 수신 무선모듈, 본체 200이 송신 무선모듈일 수 있다.
전술한 바와 같이 무선 렌즈부 100과 본체 200의 내부에 밀리미터 웨이브 무선모듈을 포함시키고, 밀리미터 웨이브 무선모듈이 빔포밍을 지원하도록 함으로써 무선 렌즈부 100과 본체 200 사이의 상대적인 위치와 방향, 그리고 거리를 측정할 수 있다. 이러한 측정 결과는 사진 및 동영상 촬영에 적용될 수 있다. 무선 렌즈부 100과 본체 200 사이의 상대적인 위치, 방향 및 거리를 측정하기 위하여 무선 렌즈부 100과 본체 200이 밀리미터 웨이브 무선모듈을 사용하는 예로 설명되고 있지만, 본 발명의 범위는 이에 국한되지 않는다. 예를 들어, 밀리미터 웨이브 무선모듈이 아니라고 하더라도 빔포밍을 지원하는 무선모듈을 사용한다면, 무선 렌즈부 100과 본체 200 사이의 상대적인 위치, 방향 및 거리를 측정할 수 있다. 또한, 본 발명을 구성하는 본체 200은 카메라 본체 뿐만 아니라, 디스플레이와 사용자 조작장치, 그리고 빔포밍을 적용한 무선모듈을 포함하는 TV, 스마트폰, 랩탑 등에 의해 구현될 수도 있다. 또한, 본 발명을 구성하는 무선 렌즈부 100은 촬영된 사진 및 동영상을 본체 200으로 전송할 수 있는 카메라에 의해서도 구현될 수 있다.
도 6은 본 발명의 일 실시예에 따른 무선 렌즈부의 기능 블록 다이아그램이다. 도 6에 도시된 구성은 단지 예시를 위한 것으로, 다른 실시예들이 본 발명의 범위를 벗어나지 않고 사용되어질 수 있다.
도 6을 참조하면, 무선 렌즈부 100은 위치정보 추정기 410 및 촬영 제어기 420을 포함한다. 일 실시예에서, 위치정보 추정기 410은 도 2에 도시된 무선모듈 140와 프로세서(미도시함) 등에 의해 구현될 수 있다. 일 실시예에서, 촬영 제어기 420은 도 2에 도시된 이미지 프로세서 130 및 렌즈 제어부 150 등에 의해 구현될 수 있다.
위치정보 추정기 410은 빔포밍을 통해 형성된 렌즈부 100의 빔 정보와 본체 200의 빔 정보를 이용하여 렌즈부 100과 본체 200 사이의 위치 정보를 추정한다. 위치 정보 추정기 410은 빔 정보 추출기 412, 방향정보 추정기 414 및 거리정보 추정기 416을 포함한다. 빔 정보 추출기 412는 렌즈부 100의 빔 정보를 추출한다. 방향정보 추정기 414는 추출된 렌즈부 100의 빔 정보 및 본체 200으로부터 수신된 본체의 빔 정보에 기초하여 렌즈부 100과 본체 200 사이의 방향 정보를 추정한다. 일 실시예에서, 방향 정보 추정기 414는 렌즈부 100 및 본체 200에 의해 형성된 빔들의 앙각에 기초하여 렌즈부 100과 본체 200 사이의 방향 정보를 추정한다. 일 실시예에서, 방향 정보 추정기 414는 렌즈부 100에 의해 형성된 빔의 앙각이 렌즈부 100의 초점 거리에 대응하는 화각(field of view) 범위 안에 있고, 본체 200에 의해 형성된 빔의 앙각이 미리 정의된 각도(예; 90º)보다 작은 경우, 렌즈부 100과 본체 200이 서로 마주보는 경우로 추정한다. 일 실시예에서, 거리 정보 추정기 416은 렌즈부 100과 본체 200 사이의 왕복지연시간(round trip delay)를 계산함으로써 렌즈부 100과 본체 200 사이의 거리를 추정한다.
촬영 제어기 420은 위치정보 추정기 410에 의해 추정된 위치 정보를 촬영에 적용한다. 촬영 제어기 420은 이미지 반전 처리기 422 및 렌즈 설정값 조절기 424를 포함한다. 이미지 반전 처리기 422는 추정된 위치 정보가 렌즈부 100과 본체 200이 서로 마주보는 경우를 나타낼 때, 촬영된 이미지를 좌우 반전 처리한다. 렌즈 설정값 조절기 424는 추정된 위치 정보가 렌즈부 100과 본체 200이 서로 마주보고 있고 렌즈부 100과 본체 200 사이의 거리가 미리 정해진 거리보다 가까운 경우를 나타낼 때, 이미지 촬영을 위한 렌즈의 설정값을 조절한다. 일 실시예에서, 렌즈 설정값 조절기 424는 노출, 디지털 필터 효과 및 자동 초점 중의 적어도 하나를 조절한다.
도 7은 본 발명의 일 실시예에 따른 본체의 기능 블록 다이아그램이다. 도 7에 도시된 구성은 단지 예시를 위한 것으로, 다른 실시예들이 본 발명의 범위를 벗어나지 않고 사용되어질 수 있다.
도 7을 참조하면, 본체 200은 위치정보 추정기 510, 이미지 변환 처리기 520 및 디스플레이 530을 포함한다. 일 실시예에서, 위치정보 추정기 510은 도 2에 도시된 무선모듈 210과 프로세서(미도시함) 등에 의해 구현될 수 있다. 일 실시예에서, 이미지 변환 처리기 520은 프로세서(미도시함) 등에 의해 구현될 수 있다.
위치 정보 추정기 510은 빔포밍을 통해 형성된 렌즈부 100의 빔 정보와 본체 200의 빔 정보를 이용하여 렌즈부 100과 본체 200 사이의 위치 정보를 추정한다. 위치 정보 추정기 510은 빔 정보 추출기 512, 방향정보 추정기 514 및 거리정보 추정기 516을 포함한다. 빔 정보 추출기 512는 본체 200의 빔 정보를 추출한다. 방향정보 추정기 514는 빔 정보 추출기 512에 의해 추출된 본체의 빔 정보 및 수신기(미도시함)를 통해 수신된 렌즈부 100의 빔 정보에 기초하여 렌즈부 100과 본체 200 사이의 방향 정보를 추정한다. 일 실시예에 있어서, 방향 정보 추정기 514는 렌즈부 100 및 본체 200에 의해 형성된 빔들의 앙각에 기초하여 렌즈부 100과 본체 200 사이의 방향 정보를 추정한다. 일 실시예에 있어서, 방향 정보 추정기 514는 렌즈부 100에 의해 형성된 빔의 앙각이 렌즈부 100의 초점 거리에 대응하는 화각(field of view) 범위 안에 있고, 본체 200에 의해 형성된 빔의 앙각이 미리 정의된 각도(예; 90º)보다 작은 경우, 렌즈부 100과 본체 200이 서로 마주보는 경우로 추정한다. 거리정보 추정기 516은 렌즈부 100과 본체 200 사이의 왕복지연시간(round trip delay)를 계산함으로써 렌즈부 100과 본체 200 사이의 거리를 추정한다.
이미지 변환 처리기 520은 추정된 위치 정보에 기초하여 수신기(미도시함)를 통해 수신된 이미지 데이터를 변환 처리한다. 수신된 이미지 데이터는 렌즈부 100에 의해 촬영된 사진 및 동영상의 이미지 데이터이다. 일 실시예에서, 이미지 변환 처리기 520은 추정된 위치 정보가 렌즈부 100과 본체 200이 서로 마주보는 경우를 나타낼 때, 촬영된 이미지를 좌우 반전 처리한다. 이렇게 좌우 반전 처리된 이미지는 디스플레이 530에 디스플레이된다.
도 8은 본 발명의 일 실시예에 따른 무선 렌즈부의 동작 흐름을 보여주는 도면이다. 도 8에 도시된 흐름은 단지 예시를 위한 것으로, 다른 실시예들이 본 발명의 범위를 벗어나지 않고 사용되어질 수 있다.
도 8을 참조하면, S110단계에서 렌즈부 100은 빔포밍을 통해 형성된 렌즈부 100의 빔 정보와 본체 200의 빔 정보를 이용하여 렌즈부 100과 본체 200 사이의 위치 정보를 추정한다.
S110단계는 렌즈부 100의 빔 정보를 추출하는 과정, 및 추출된 렌즈부 100의 빔 정보 및 본체 200으로부터 수신된 본체 200의 빔 정보에 기초하여 렌즈부 100과 본체 200 사이의 방향 정보를 추정하는 과정을 포함한다. 일 실시예에서, 렌즈부 100과 본체 200 사이의 방향 정보를 추정하는 과정은 렌즈부 100 및 본체 200에 의해 형성된 빔들의 앙각에 기초하여 렌즈부 100과 본체 200 사이의 방향 정보를 추정한다. 예를 들어, 렌즈부 100에 의해 형성된 빔의 앙각이 렌즈부 100의 초점 거리에 대응하는 화각(field of view) 범위 안에 있고, 본체 200에 의해 형성된 빔의 앙각이 미리 정의된 각도(예; 90º)보다 작은 경우, 렌즈부 100과 본체 200은 서로 마주보는 경우로 추정된다. S110단계는 렌즈부 100과 본체 200 사이의 거리 정보를 추정하는 과정을 더 포함할 수 있다. 일 실시예에서, 렌즈부 100과 본체 200 사이의 거리 정보는 렌즈부 100과 본체 200 사이의 왕복지연시간(round trip delay)를 계산함으로써 추정된다.
S120단계에서 렌즈부 100은 추정된 위치 정보를 촬영에 적용한다. 일 실시예에서, S120단계는 추정된 위치 정보가 렌즈부 100과 본체 200이 서로 마주보는 경우를 나타낼 때, 촬영된 이미지를 좌우 반전 처리하는 과정을 포함한다. 다른 실시예에서, S120단계는 추정된 위치 정보가 렌즈부 100과 본체 200이 서로 마주보고 있고 렌즈부 100과 본체 200 사이의 거리가 미리 정해진 거리보다 가까운 경우를 나타낼 때, 이미지 촬영을 위한 렌즈의 설정값을 조절하는 과정을 포함한다. 예를 들어, 렌즈의 설정값은 노출, 디지털 필터 효과 및 자동 초점 중의 적어도 하나가 될 수 있다.
도 9는 본 발명의 일 실시예에 따른 본체의 동작 흐름을 보여주는 도면이다. 도 9에 도시된 흐름은 단지 예시를 위한 것으로, 다른 실시예들이 본 발명의 범위를 벗어나지 않고 사용되어질 수 있다.
도 9를 참조하면, S210단계에서 본체 200은 렌즈부 100에 의해 촬영된 이미지 데이터를 수신한다. S220단계에서 본체 200은 빔포밍을 통해 형성된 렌즈부 100의 빔 정보와 본체 200의 빔 정보를 이용하여 렌즈부 100과 본체 200 사이의 위치 정보를 추정한다. S230단계에서 본체 200은 추정된 위치 정보에 기초하여 수신된 이미지 데이터를 변환 처리한다.
S220단계는 본체 200의 빔 정보를 추출하는 과정, 렌즈부 100의 빔 정보를 렌즈부 100으로부터 수신하는 과정, 및 추출된 본체 200의 빔 정보 및 수신된 렌즈부 100의 빔 정보에 기초하여 렌즈부 100과 본체 200 사이의 방향 정보를 추정하는 과정을 포함한다. S220단계는 렌즈부 100과 본체 200 사이의 거리 정보를 추정하는 과정을 더 포함할 수 있다.
일 실시예에서, 렌즈부 100과 본체 200 사이의 방향 정보는 렌즈부 100 및 본체 200에 의해 형성된 빔들의 앙각에 기초하여 추정된다. 예를 들어, 렌즈부 100에 의해 형성된 빔의 앙각이 렌즈부 100의 초점 거리에 대응하는 화각(field of view) 범위 안에 있고, 본체 200에 의해 형성된 빔의 앙각이 미리 정의된 각도(예; 90º)보다 작은 경우, 렌즈부 100과 본체 200는 서로 마주보는 경우로 추정된다. 일 실시예에서, 렌즈부 100과 본체 200 사이의 거리 정보는 렌즈부 100과 본체 200 사이의 왕복지연시간(round trip delay)를 계산함으로써 추정된다.
일 실시예에서, S230단계는 추정된 위치 정보가 렌즈부 100과 본체 200이 서로 마주보는 경우를 나타낼 때, 촬영된 이미지를 좌우 반전 처리한다. 좌우 반전 처리된 이미지는 디스플레이된다.
본 발명의 일 실시예에 따르면, 무선 렌즈부 100과 본체 200은 전원이 인가될 경우 서로 무선링크를 통해 연결된다. 다음에 도 5에 도시된 바와 같이 무선링크를 통해 본체 200은 무선 렌즈부 100으로 레인징 패킷으로서 제어신호(control signaling)를 전송한다. 그러면 무선 렌즈부 100는 본체 200으로 응답신호(ACK signaling)과 사진 및 동영상 데이터 신호를 전송한다. 무선 렌즈부 100과 본체 200이 서로 결합되어 있는 경우, 무선 렌즈부 100과 본체 200은 무선 모듈간 상대적인 방향을 미리 알고 있기 때문에 빔포밍을 하지 않고 정해진 빔을 통해 무선 통신을 할 수 있다.
이와 달리 무선 렌즈부 100과 본체 200이 서로 분리된 경우, 무선 렌즈부 100과 본체 200에 포함된 무선 모듈들의 빔 방향이 변경될 수 있으므로 항상 최적의 통신상태를 유지하기 위해 빔포밍을 수행한다. 무선 렌즈부 100과 본체 200이 모두 빔포밍을 수행하면 각각에 대한 특정한 빔 패턴이 추출된다. 따라서 무선 렌즈부 100의 무선모듈 140이 형성한 빔의 앙각 θel_Lens, 방위각 θaz_Lens 와, 본체 200의 무선모듈 210이 형성한 빔의 앙각 θel_Body, 방위각 θaz_Body 가 도출될 수 있다.
무선 렌즈부 100이 형성한 빔의 앙각 θel_Lens가 렌즈부 100의 화각(field of view) 범위 안에 있는 경우, 렌즈부 100이 촬영하는 사진 및 영상에 본체 200이 포함된 것으로 판단된다. 즉, θel_Lens< θFOV(d)를 만족하면 무선 렌즈부 100에 의해 촬영된 사진 및 영상 안에 본체 200이 포함된 것으로 판단된다. 여기서 d는 현재 렌즈의 초점거리(focal length)이고, θFOV(d)는 초점거리에 해당하는 화각을 나타낸다. 렌즈의 초점거리와 초점거리에 해당하는 화각에 대한 정보는 렌즈부 100의 데이터베이스 170에 사전에 저장될 수 있다.
θel_Lens< θFOV(d)인 상태에서 본체 200의 무선 모듈 210이 형성한 빔의 앙각 θel_Body이 미리 정해진 각도 90˚를 넘지 않는다면, 무선 렌즈부 100과 본체 200이 서로 마주보는 상태에서 사용자가 무선 렌즈부 100으로 자신을 촬영하는 상태에 해당한다. 즉, θel_Lens< θFOV(d) 이면서 θel_Body< 90˚이면, 무선 렌즈부 100과 본체 200이 서로 마주보면서 촬영하는 상태이다.
이와 같이 추정된 무선 렌즈부 100과 본체 200 사이의 상대적인 방향에 대한 정보는 사진 및 동영상 촬영에 적용될 수 있다. 또한 앞서서 언급한 바와 같이 추정되는 무선 렌즈부 100과 본체 200 사이의 거리에 대한 정보도 사진 및 동영상 촬영에 적용될 수 있다.
이하에서는 무선 렌즈부 100과 본체 200 사이의 추정된 상대적인 방향과 거리 정보를 사진 촬영에 적용하는 예들이 설명될 것이다.
일 실시예에 따르면, 무선 렌즈부 100과 본체 200이 서로 마주보고 촬영하는 상태로 판단하였을 경우, 무선 렌즈부 100에서 전송한 영상이 본체 200에서 프리뷰될 때 디스플레이되는 영상은 좌우 반전된다. 무선 렌즈부 100과 본체 200이 마주보고 있는 경우 프리뷰 동영상을 좌우 반전 처리하지 않는다면, 사용자가 본체 200의 디스플레이 250에서 보는 영상과 실제로 보는 영상이 좌우가 뒤바뀐 것으로 보이기 때문에 사진 촬영시 혼란이 발생할 수 있다. 따라서 프리뷰 동영상을 좌우 반전 처리함으로써 사용자가 어려움 없이 사진 촬영이 가능하도록 한다.
다른 실시예에 따르면, 무선 렌즈부 100과 본체 200이 서로 마주보고 촬영하는 상태에서 거리가 가까워질 경우, 현재 사진 촬영 상태가 셀프촬영(self-portrait)상태로 판단할 수 있다. 셀프촬영을 판단하는 거리 D는 구현시 설계된 초기값을 사용하나 사용자에 의해 임의로 미리 정해질 수도 있다. 무선 렌즈부 100이 현재 사진 촬영 상태를 셀프촬영이라고 판단할 경우 이에 적합한 노출(조리개, 셔터), 디지털 필터 효과(effect) 등의 설정값들을 적용할 수 있다. 노출, 디지털 필터 효과는 구현시 적절한 값을 미리 설정해서 메모리에 저장할 수도 있고, 사용자가 원하는 셋팅을 변경할 수도 있다. 무선 렌즈부 100은 셀프촬영이라고 판단할 경우 메모리 또는 데이터베이스 170에 저장된 설정값을 불러와 렌즈 제어부 150을 통해 렌즈 110에 적용할 수 있다.
또 다른 실시예에 따르면, 무선 렌즈부 100과 본체 200이 θel_Lens< θFOV(d) 의 관계에 있는 경우, 무선 렌즈부 100과 본체 200 사이의 측정된 거리를 바탕으로 렌즈 110의 자동초점(auto focusing)을 제어할 수 있다. 무선 렌즈부 100의 데이터베이스 170에는 무선 렌즈부 100과 본체 200 사이의 거리에 따른 초점 거리와 그에 해당하는 광학렌즈 110의 제어 값이 저장되어 있으며, 거리에 해당하는 제어값을 읽어 렌즈 제어부 150을 통해 광학렌즈 110을 조절함으로써 자동초점을 제어할 수 있다. 기존의 자동초점 기법은 배경과 피사체의 색이나 밝기가 차이가 없을 때 포커싱에 실패하는 경우가 발생하지만, 본 발명의 실시예에 따른 자동초점 기법은 피사체와 배경의 색이나 밝기의 차이에 관계없이 자동초점을 구현할 수 있다.
도 10 및 도 11은 본 발명의 실시예에 따른 무선 렌즈부와 본체가 서로 마주보는 경우 촬영 동작의 처리 흐름의 예들을 보여주는 도면이다. 이러한 흐름들은 무선 렌즈부 100과 본체 200이 서로 마주 보고 있다고 판단할 경우 프리뷰 영상을 좌우 반전시키는 흐름에 해당한다. 도 10은 본체 200의 빔패턴 정보인 앙각 θel_Body 및 방위각 θaz_Body에 대한 정보를 무선 렌즈부 100으로 전송하고, 무선 렌즈부 100에서 무선 렌즈부 100과 본체 200이 서로 마주보고 있는 상태인지 여부를 판단하고, 판단되는 경우 무선 렌즈부 100에서 촬영하고 있는 프리뷰 이미지를 좌우 반전하여 본체 200으로 전송하는 흐름에 해당한다. 도 11은 무선 렌즈부 100의 빔패턴 정보인 앙각 θel_Lens 및 방위각 θaz_Lens을 본체 200으로 전송하고, 본체 200에서 무선 렌즈부 100과 본체 200이 서로 마주보고 있는 상태인지 여부를 판단하고, 판단되는 경우 무선 렌즈부 100으로부터 수신된 프리뷰 이미지를 좌우 반전하여 디스플레이하는 흐름에 해당한다. 도 10 및 도 11에 도시된 흐름들은 단지 예시를 위한 것으로, 다른 실시예들이 본 발명의 범위를 벗어나지 않고 사용되어질 수 있다.
도 10을 참조하면, S310단계에서 서로 분리된 무선 렌즈부 100과 본체 200은 각각 무선모듈들 140,210을 통해 빔포밍을 수행한다. S320단계에서 무선 렌즈부 100은 빔포밍 수행 결과 최적의 빔패턴 정보에 해당하는 앙각 θel_Lens 및 방위각 θaz_Lens를 추출한다. 본체 200은 S330단계에서 빔포밍 수행 결과 최적의 빔패턴 정보에 해당하는 앙각 θel_Body 및 방위각 θaz_Body를 추출하고, S340단계에서 추출된 빔패턴 정보를 무선 렌즈부 100으로 전송한다. S350단계에서 무선 렌즈부 100은 추출된 자신의 빔패턴 정보와 수신된 본체 200의 빔패턴 정보에 기초하여 무선 렌즈부 100과 본체 200이 서로 마주보고 있는 상태인지 여부를 판단한다. 즉, 무선 렌즈부 100은 θel_Lens< θFOV(d) 이면서 θel_Body< 90˚인지 여부를 판단한다. 무선 렌즈부 100과 본체 200이 서로 마주보고 있는 상태인 것으로 판단된 경우, S360단계에서 무선 렌즈부 100은 프리뷰 영상을 좌우 반전 처리한 후 본체 200으로 전송한다. 이후 무선 렌즈부 100은 S370단계에서 새로운 빔포밍이 필요하다고 판단되는 경우 S380단계에서 프리뷰 영상에 대한 좌우 반전 처리를 해제한다.
도 11을 참조하면, S410단계에서 서로 분리된 무선 렌즈부 100과 본체 200은 각각 무선모듈들 140,210을 통해 빔포밍을 수행한다. S420단계에서 무선 렌즈부 100은 빔포밍 수행 결과 최적의 빔패턴 정보에 해당하는 앙각 θel_Lens 및 방위각 θaz_Lens를 추출한다. S430단계에서 본체 200은 빔포밍 수행 결과 최적의 빔패턴 정보에 해당하는 앙각 θel_Body 및 방위각 θaz_Body를 추출한다. S440단계에서 무선 렌즈부 100은 추출된 빔패턴 정보를 본체 200으로 전송한다. S450단계에서 본체 200은 추출된 자신의 빔패턴 정보와 수신된 무선 렌즈부 100의 빔패턴 정보에 기초하여 무선 렌즈부 100과 본체 200이 서로 마주보고 있는 상태인지 여부를 판단한다. 즉, 본체 200은 θel_Lens< θFOV(d) 이면서 θel_Body< 90˚인지 여부를 판단한다. 무선 렌즈부 100과 본체 200이 서로 마주보고 있는 상태인 것으로 판단된 경우, S460단계에서 본체 200은 무선 렌즈부 100으로부터 수신된 프리뷰 이미지를 좌우 반전 처리하여 디스플레이 250에 디스플레이한다. 이후 본체 200은 4370단계에서 새로운 빔포밍이 필요하다고 판단되는 경우 S480단계에서 프리뷰 이미지에 대한 좌우 반전 처리를 해제한다.
도 12는 본 발명의 일 실시예에 따른 셀프 촬영 동작의 처리 흐름을 보여주는 도면이다. 이러한 흐름은 무선 렌즈부 100과 본체 200의 이동으로 인해 셀프촬영 상태로 진입하는 경우에 대한 흐름에 해당한다. 도 12에 도시된 흐름은 단지 예시를 위한 것으로, 다른 실시예들이 본 발명의 범위를 벗어나지 않고 사용되어질 수 있다.
도 12를 참조하면, S505단계에서 서로 분리된 무선 렌즈부 100과 본체 200은 각각 무선모듈들 140,210을 통해 빔포밍을 수행한다. S510단계에서 무선 렌즈부 100은 빔포밍 수행 결과 최적의 빔패턴 정보에 해당하는 앙각 θel_Lens 및 방위각 θaz_Lens를 추출한다. 본체 200은 S515단계에서 빔포밍 수행 결과 최적의 빔패턴 정보에 해당하는 앙각 θel_Body 및 방위각 θaz_Body를 추출하고, S520단계에서 추출된 빔패턴 정보를 무선 렌즈부 100으로 전송한다. S525단계에서 무선 렌즈부 100은 추출된 자신의 빔패턴 정보와 수신된 본체 200의 빔패턴 정보에 기초하여 무선 렌즈부 100과 본체 200이 서로 마주보고 있는 상태인지 여부를 판단한다. 즉, 무선 렌즈부 100은 θel_Lens< θFOV(d) 이면서 θel_Body< 90˚인지 여부를 판단한다.
무선 렌즈부 100과 본체 200이 서로 마주보고 있는 상태인 것으로 판단된 경우, S530단계에서 무선 렌즈부 100은 무선 렌즈부 100과 본체 200 사이의 거리를 측정한다. 거리 측정 동작은 앞서서 설명한 도 5에 도시된 바와 같은 절차에 따른다. S535단계에서 무선 렌즈부 100은 무선 렌즈부 100과 본체 200 사이의 거리가 셀프촬영 판단을 위해 설정된 거리 D보다 작은지 여부를 판단한다. 무선 렌즈부 100과 본체 200 사이의 거리가 거리 D보다 작은 것으로 판단된 경우, S540단계에서 무선 렌즈부 100은 셀프촬영 모드로 진입한다 셀프촬영 모드에서 무선 렌즈부 100은 데이터베이스 170에 저장된 렌즈 설정값을 읽어들이고 이 렌즈 설정값을 렌즈 제어부 150을 통해 렌즈 110에 적용한다. 예를 들어, 렌즈 설정값은 노출(조리개,셔터), 디지털 필터 효과, 자동초점 중의 적어도 하나 또는 이들의 조합이 될 수 있다. 이후 무선 렌즈부 100은 S545단계에서 새로운 빔포밍이 필요하다고 판단되는 경우 S545단계에서 셀프촬영 모드를 해제한다.
전술한 바와 같이 본 발명의 실시예들에 따르면, 무선 렌즈부 100과 본체 200은 무선 모듈로서 빔포밍 기술을 사용하는 밀리미터 웨이브 무선 모듈을 사용한다. 빔포밍을 통해 추출된 빔패턴 정보에 기초하여 무선 렌즈부 100과 본체 200 사이의 상대적인 위치(방향 및 거리)가 추정된다. 이렇게 추정된 무선 렌즈부 100과 본체 200 사이의 상대적인 위치(방향과 거리)에 대한 정보는 사진 및 동영상 촬영에 적용됨으로써 사진 및 동영상 촬영시 사용자에 조작의 편리성을 제공할 수 있다.
이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나 본 발명은 상기의 실시예에 한정되는 것은 아니며 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 본 발명의 실시예들은 도 1에 도시된 바와 같이 무선 렌즈부 100과 본체 200으로 구성되는 렌즈 분리형 카메라 시스템에 적용되는 경우로 설명되었으나, 본체 200은 카메라 본체 뿐만 아니라 디스플레이를 구비하는 스마트폰, TV, 태블릿, 랩탑 등이 될 수 있으며, 무선 렌즈부 100도 스마트 카메라가 될 수 있다. 다른 예로, 본 발명의 실시예들에서는 무선 렌즈부 100이 도 6에 도시된 바와 같이 구성되고 도 8 및 도 10 내지 도 12에 도시된 흐름들과 같이 동작하고, 본체 200이 도 7에 도시된 바와 같이 구성되고 도 9 내지 도 12에 도시된 흐름들과 같이 동작하는 경우로 설명하였으나 본 발명의 보호범위는 반드시 이에 한정되지는 않을 것이다. 본 발명의 실시예들에 따른 동작들은 단일의 프로세서에 의해서도 그 동작이 구현될 수 있을 것이다. 이러한 경우 다양한 컴퓨터로 구현되는 동작을 수행하기 위한 프로그램 명령이 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판단 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM이나 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드 뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 그러므로 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위 뿐만 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 할 것이다.
100 : 무선 렌즈부
110: 렌즈들
120: 이미지 센서
130: 이미지 프로세서
140: 무선 모듈
150: 렌즈 제어부
160: 전원 장치
170: 데이터베이스
200: 본체
210: 무선 모듈
220: 저장장치
230: 사용자 입력장치
240: 전원장치
250: 디스플레이

Claims (34)

  1. 본체와, 상기 본체에 장착 및 탈착 가능하며 상기 본체에 무선으로 접속될 수 있는 렌즈부를 포함하는 카메라 시스템에 있어서 상기 렌즈부의 동작 방법에 있어서:
    빔포밍을 통해 형성된 상기 렌즈부의 빔 정보와 상기 본체의 빔 정보를 이용하여 상기 렌즈부와 상기 본체 사이의 위치 정보를 추정하는 과정; 및
    상기 추정된 위치 정보를 촬영에 적용하는 과정을 포함하는 방법.
  2. 청구항 1에 있어서, 상기 추정된 위치 정보를 촬영에 적용하는 과정은,
    상기 추정된 위치 정보가 상기 렌즈부와 상기 본체가 서로 마주보는 경우를 나타낼 때, 촬영된 이미지를 좌우 반전 처리하는 과정을 포함하는 방법.
  3. 청구항 1에 있어서, 상기 추정된 위치 정보를 촬영에 적용하는 과정은,
    상기 추정된 위치 정보가 상기 렌즈부와 상기 본체가 서로 마주보고 있고 상기 렌즈부와 상기 본체 사이의 거리가 미리 정해진 거리보다 가까운 경우를 나타낼 때, 이미지 촬영을 위한 렌즈의 설정값을 조절하는 과정을 포함하는 방법.
  4. 청구항 3에 있어서, 상기 이미지 촬영을 위한 렌즈의 설정값을 조절하는 과정은, 노출, 디지털 필터 효과 및 자동 초점 중의 적어도 하나를 조절하는 과정을 포함하는 방법.
  5. 청구항 1에 있어서, 상기 렌즈부와 상기 본체 사이의 위치 정보를 추정하는 과정은:
    상기 렌즈부의 빔 정보를 추출하는 과정; 및
    상기 추출된 렌즈부의 빔 정보 및 상기 본체로부터 수신된 상기 본체의 빔 정보에 기초하여 상기 렌즈부와 상기 본체 사이의 방향 정보를 추정하는 과정을 포함하는 방법.
  6. 청구항 5에 있어서, 상기 렌즈부와 상기 본체 사이의 방향 정보는,
    상기 렌즈부 및 상기 본체에 의해 형성된 빔들의 앙각(Elevation Angle)에 기초하여 추정되는 방법.
  7. 청구항 6에 있어서, 상기 렌즈부와 상기 본체 사이의 방향 정보는,
    상기 렌즈부에 의해 형성된 빔의 앙각이 상기 렌즈부의 초점 거리에 대응하는 화각(field of view) 범위 안에 있고, 상기 본체에 의해 형성된 빔의 앙각이 미리 정의된 각도보다 작은 경우,
    상기 렌즈부와 상기 본체가 서로 마주보는 경우로 추정되는 방법.
  8. 청구항 5에 있어서, 상기 렌즈부와 상기 본체 사이의 위치 정보를 추정하는 과정은,
    상기 렌즈부와 상기 본체 사이의 거리 정보를 추정하는 과정을 더 포함하는 방법.
  9. 청구항 8에 있어서, 상기 렌즈부와 상기 본체 사이의 거리 정보는,
    상기 렌즈부와 상기 본체 사이의 무선 신호의 왕복지연시간(round trip delay)을 계산함으로써 추정되는 방법.
  10. 본체와, 상기 본체에 장착 및 탈착 가능하며 상기 본체에 무선으로 접속될 수 있는 렌즈부를 포함하는 카메라 시스템에 있어서 상기 본체의 동작 방법에 있어서:
    상기 렌즈부에 의해 촬영된 이미지 데이터를 수신하는 과정;
    빔포밍을 통해 형성된 상기 렌즈부의 빔 정보와 상기 본체의 빔 정보를 이용하여 상기 렌즈부와 상기 본체 사이의 위치 정보를 추정하는 과정; 및
    상기 추정된 위치 정보에 기초하여 상기 수신된 이미지 데이터를 변환 처리하는 과정을 포함하는 방법.
  11. 청구항 10에 있어서, 상기 수신된 이미지 데이터를 변환 처리하는 과정은,
    상기 추정된 위치 정보가 상기 렌즈부와 상기 본체가 서로 마주보는 경우를 나타낼 때, 촬영된 이미지를 좌우 반전 처리하는 과정을 포함하는 방법.
  12. 청구항 11에 있어서, 상기 좌우 반전 처리된 이미지를 디스플레이하는 과정을 더 포함하는 방법.
  13. 청구항 10에 있어서, 상기 렌즈부와 상기 본체 사이의 위치 정보를 추정하는 과정은:
    상기 본체의 빔 정보를 추출하는 과정;
    상기 렌즈부의 빔 정보를 상기 렌즈부로부터 수신하는 과정; 및
    상기 추출된 본체의 빔 정보 및 상기 수신된 렌즈부의 빔 정보에 기초하여 상기 렌즈부와 상기 본체 사이의 방향 정보를 추정하는 과정을 포함하는 방법.
  14. 청구항 13에 있어서, 상기 렌즈부와 상기 본체 사이의 방향 정보는,
    상기 렌즈부 및 상기 본체에 의해 형성된 빔들의 앙각(Elevation Angle)에 기초하여 추정되는 방법.
  15. 청구항 14에 있어서, 상기 렌즈부와 상기 본체 사이의 방향 정보는,
    상기 렌즈부에 의해 형성된 빔의 앙각이 상기 렌즈부의 초점 거리에 대응하는 화각(field of view) 범위 안에 있고, 상기 본체에 의해 형성된 빔의 앙각이 미리 정의된 각도보다 작은 경우,
    상기 렌즈부와 상기 본체가 서로 마주보는 경우로 추정되는 방법.
  16. 청구항 13에 있어서, 상기 렌즈부와 상기 본체 사이의 위치 정보를 추정하는 과정은,
    상기 렌즈부와 상기 본체 사이의 거리 정보를 추정하는 과정을 더 포함하는 방법.
  17. 청구항 16에 있어서, 상기 렌즈부와 상기 본체 사이의 거리 정보는,
    상기 렌즈부와 상기 본체 사이의 무선 신호의 왕복지연시간(round trip delay)을 계산함으로써 추정되는 방법.
  18. 본체와, 상기 본체에 장착 및 탈착 가능하며 상기 본체에 무선으로 접속될 수 있는 렌즈부를 포함하는 카메라 시스템에 있어서 상기 렌즈부의 장치에 있어서:
    빔포밍을 통해 형성된 상기 렌즈부의 빔 정보와 상기 본체의 빔 정보를 이용하여 상기 렌즈부와 상기 본체 사이의 위치 정보를 추정하는 위치 정보 추정기; 및
    상기 추정된 위치 정보를 촬영에 적용하는 촬영 제어기를 포함하는 장치.
  19. 청구항 18에 있어서, 상기 촬영 제어기는,
    상기 추정된 위치 정보가 상기 렌즈부와 상기 본체가 서로 마주보는 경우를 나타낼 때, 촬영된 이미지를 좌우 반전 처리하는 이미지 반전 처리기를 포함하는 장치.
  20. 청구항 18에 있어서, 상기 촬영 제어기는,
    상기 추정된 위치 정보가 상기 렌즈부와 상기 본체가 서로 마주보고 있고 상기 렌즈부와 상기 본체 사이의 거리가 미리 정해진 거리보다 가까운 경우를 나타낼 때, 이미지 촬영을 위한 렌즈의 설정값을 조절하는 렌즈 설정값 조절기를 포함하는 장치.
  21. 청구항 20에 있어서, 상기 렌즈 설정값 조절기는, 노출, 디지털 필터 효과 및 자동 초점 중의 적어도 하나를 조절하는 장치.
  22. 청구항 18에 있어서, 상기 위치 정보 추정기는:
    상기 렌즈부의 빔 정보를 추출하는 빔 정보 추출기; 및
    상기 추출된 렌즈부의 빔 정보 및 상기 본체로부터 수신된 상기 본체의 빔 정보에 기초하여 상기 렌즈부와 상기 본체 사이의 방향 정보를 추정하는 방향 정보 추정기를 포함하는 장치.
  23. 청구항 22에 있어서, 상기 방향 정보 추정기는,
    상기 렌즈부 및 상기 본체에 의해 형성된 빔들의 앙각(Elevation Angle)에 기초하여 상기 렌즈부와 상기 본체 사이의 방향 정보를 추정하는 장치.
  24. 청구항 23에 있어서, 상기 방향 정보 추정기는,
    상기 렌즈부에 의해 형성된 빔의 앙각이 상기 렌즈부의 초점 거리에 대응하는 화각(field of view) 범위 안에 있고, 상기 본체에 의해 형성된 빔의 앙각이 미리 정의된 각도보다 작은 경우,
    상기 렌즈부와 상기 본체가 서로 마주보는 경우로 추정하는 장치.
  25. 청구항 22에 있어서, 상기 위치 정보 추정기는,
    상기 렌즈부와 상기 본체 사이의 거리 정보를 추정하는 거리 정보 추정기를 더 포함하는 장치.
  26. 청구항 25에 있어서, 상기 거리 정보 추정기는,
    상기 렌즈부와 상기 본체 사이의 무선 신호의 왕복지연시간(round trip delay)을 계산함으로써 상기 렌즈부와 상기 본체 사이의 거리를 추정하는 장치.
  27. 본체와, 상기 본체에 장착 및 탈착 가능하며 상기 본체에 무선으로 접속될 수 있는 렌즈부를 포함하는 카메라 시스템에서 상기 본체의 장치에 있어서:
    상기 렌즈부에 의해 촬영된 이미지 데이터를 수신하는 수신기;
    빔포밍을 통해 형성된 상기 렌즈부의 빔 정보와 상기 본체의 빔 정보를 이용하여 상기 렌즈부와 상기 본체 사이의 위치 정보를 추정하는 위치 정보 추정기; 및
    상기 추정된 위치 정보에 기초하여 상기 수신된 이미지 데이터를 변환 처리하는 이미지 변환 처리기를 포함하는 장치.
  28. 청구항 27에 있어서, 상기 이미지 변환 처리기는,
    상기 추정된 위치 정보가 상기 렌즈부와 상기 본체가 서로 마주보는 경우를 나타낼 때, 촬영된 이미지를 좌우 반전 처리하는 장치.
  29. 청구항 28에 있어서, 상기 좌우 반전 처리된 이미지를 디스플레이하는 디스플레이를 더 포함하는 장치.
  30. 청구항 27에 있어서, 상기 위치 정보 추정기는:
    상기 본체의 빔 정보를 추출하는 빔 정보 추출기; 및
    상기 추출된 본체의 빔 정보 및 상기 수신기를 통해 수신된 상기 렌즈부의 빔 정보에 기초하여 상기 렌즈부와 상기 본체 사이의 방향 정보를 추정하는 방향 정보 추정기를 포함하는 장치.
  31. 청구항 30에 있어서, 상기 방향 정보 추정기는,
    상기 렌즈부 및 상기 본체에 의해 형성된 빔들의 앙각(Elevation Angle)에 기초하여 상기 렌즈부와 상기 본체 사이의 방향 정보를 추정하는 장치.
  32. 청구항 31에 있어서, 상기 방향 정보 추정기는,
    상기 렌즈부에 의해 형성된 빔의 앙각이 상기 렌즈부의 초점 거리에 대응하는 화각(field of view) 범위 안에 있고, 상기 본체에 의해 형성된 빔의 앙각이 미리 정의된 각도보다 작은 경우,
    상기 렌즈부와 상기 본체가 서로 마주보는 경우로 추정하는 장치.
  33. 청구항 30에 있어서, 상기 위치 정보 추정기는,
    상기 렌즈부와 상기 본체 사이의 거리 정보를 추정하는 거리 정보 추정기를 더 포함하는 장치.
  34. 청구항 33에 있어서, 상기 거리 정보 추정기는,
    상기 렌즈부와 상기 본체 사이의 무선 신호의 왕복지연시간(round trip delay)을 계산함으로써 상기 렌즈부와 상기 본체 사이의 거리를 추정하는 장치.
KR1020130119452A 2013-10-07 2013-10-07 렌즈 분리형 카메라의 동작 방법 및 장치 KR101781355B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020130119452A KR101781355B1 (ko) 2013-10-07 2013-10-07 렌즈 분리형 카메라의 동작 방법 및 장치
US14/508,973 US9467611B2 (en) 2013-10-07 2014-10-07 Method and apparatus for operating camera with interchangeable lens

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130119452A KR101781355B1 (ko) 2013-10-07 2013-10-07 렌즈 분리형 카메라의 동작 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20150040665A KR20150040665A (ko) 2015-04-15
KR101781355B1 true KR101781355B1 (ko) 2017-09-25

Family

ID=52776659

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130119452A KR101781355B1 (ko) 2013-10-07 2013-10-07 렌즈 분리형 카메라의 동작 방법 및 장치

Country Status (2)

Country Link
US (1) US9467611B2 (ko)
KR (1) KR101781355B1 (ko)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP1546399S (ko) * 2015-07-29 2016-03-22
JP1546398S (ko) * 2015-07-29 2016-03-22
US11831795B2 (en) * 2020-04-16 2023-11-28 Htc Corporation Wireless transceiving device
US11849468B2 (en) * 2020-09-25 2023-12-19 Apple Inc. Many-to-many wireless network ranging technique

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140266900A1 (en) 2013-03-12 2014-09-18 Assaf Kasher Apparatus, system and method of wireless beamformed communication

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001065827A2 (en) * 2000-02-29 2001-09-07 Kyocera Corporation Portable information terminal and digital camera therefor, and portable digital camera information terminal system
US6980485B2 (en) * 2001-10-25 2005-12-27 Polycom, Inc. Automatic camera tracking using beamforming
US7129986B2 (en) 2002-01-23 2006-10-31 Guan-Wu Wang Wireless camera system
JP4004865B2 (ja) * 2002-06-12 2007-11-07 富士通株式会社 携帯端末
KR20050055481A (ko) * 2003-12-08 2005-06-13 삼성전자주식회사 착탈식 화상출력유닛을 갖는 캠코더
US7593055B2 (en) 2004-07-27 2009-09-22 Fujifilm Corporation Camera system, camera main body, and camera head
JP2007013768A (ja) * 2005-07-01 2007-01-18 Konica Minolta Photo Imaging Inc 撮像装置
JP2007116474A (ja) 2005-10-20 2007-05-10 Fujifilm Corp カメラシステム
JP2007129433A (ja) * 2005-11-02 2007-05-24 Fujifilm Corp デジタルカメラ
US7616232B2 (en) * 2005-12-02 2009-11-10 Fujifilm Corporation Remote shooting system and camera system
KR20110042194A (ko) * 2008-07-24 2011-04-25 코닌클리케 필립스 일렉트로닉스 엔.브이. 3-차원(3­d) 영상 캡처링
JP2011004391A (ja) 2009-05-21 2011-01-06 Panasonic Corp カメラシステム、カメラ本体および交換レンズユニット
JP5397150B2 (ja) * 2009-10-19 2014-01-22 株式会社リコー レンズユニット、撮像装置及び撮像方法
JP2012084968A (ja) * 2010-10-07 2012-04-26 Pentax Ricoh Imaging Co Ltd デジタルカメラ
JP2013242504A (ja) * 2012-05-23 2013-12-05 Sony Corp 電子鏡装置、電子鏡表示方法および電子鏡プログラム
WO2014062725A1 (en) * 2012-10-17 2014-04-24 N2 Imaging Systems, LLC Imaging adapter head for personal imaging devices

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140266900A1 (en) 2013-03-12 2014-09-18 Assaf Kasher Apparatus, system and method of wireless beamformed communication

Also Published As

Publication number Publication date
US9467611B2 (en) 2016-10-11
US20150097983A1 (en) 2015-04-09
KR20150040665A (ko) 2015-04-15

Similar Documents

Publication Publication Date Title
US11790481B2 (en) Systems and methods for fusing images
KR101781355B1 (ko) 렌즈 분리형 카메라의 동작 방법 및 장치
US9521398B1 (en) Modular configurable camera system
US20220301194A1 (en) Tracking method and device
US20110110656A1 (en) Camera system and image forming apparatus
US20150070521A1 (en) Method and apparatus for controlling interchangeable lens system camera
WO2021000483A1 (en) Automatic focus distance extension
JP6700768B2 (ja) 撮像装置
US8692923B2 (en) Digital camera
JP2010206643A (ja) 撮像装置、方法およびプログラム
JP2019054382A (ja) 通信装置、通信装置の制御方法およびプログラム
CN108419052B (zh) 一种多台无人机全景成像方法
US20210084281A1 (en) Circular stitching of images
US11070712B2 (en) Method and system for control of a digital camera system
US10165173B2 (en) Operating method and apparatus for detachable lens type camera
US9423669B2 (en) Method and apparatus for camera autofocus based on Wi-Fi ranging technique
JP6152738B2 (ja) カメラシステム
Yamasaki et al. Hybrid autofocus system by using a combination of the sensor-based phase-difference detection and focus-aid signal
JP2010062834A (ja) 撮影システム並びに当該撮影システムを構成する撮影装置及び操作装置
JP2013250462A (ja) 無線通信可能な撮像装置
JP2023160118A (ja) 撮像装置、撮像装置の制御方法、及びコンピュータプログラム
KR101795914B1 (ko) 스마트 채널 선택 방법 및 이를 수행하는 장치들
JP6176306B2 (ja) 電子カメラおよびプログラム
JP6176305B2 (ja) 電子カメラおよびプログラム
JP2011044864A (ja) 画像合成装置及び画像送信装置

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant