KR20140091117A - 촬영 장치 및 촬영 장치의 라이브 뷰 표시 방법 - Google Patents

촬영 장치 및 촬영 장치의 라이브 뷰 표시 방법 Download PDF

Info

Publication number
KR20140091117A
KR20140091117A KR1020130000328A KR20130000328A KR20140091117A KR 20140091117 A KR20140091117 A KR 20140091117A KR 1020130000328 A KR1020130000328 A KR 1020130000328A KR 20130000328 A KR20130000328 A KR 20130000328A KR 20140091117 A KR20140091117 A KR 20140091117A
Authority
KR
South Korea
Prior art keywords
photographing
live view
unit
photographing unit
display
Prior art date
Application number
KR1020130000328A
Other languages
English (en)
Inventor
이윤구
카이 구어
무하마드 캄룰 하산
서덕찬
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020130000328A priority Critical patent/KR20140091117A/ko
Publication of KR20140091117A publication Critical patent/KR20140091117A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)

Abstract

촬영 장치가 개시된다. 촬영 장치는 제1 촬영부, 제1 촬영부의 촬영 방향과 동일한 방향으로 촬영 가능한 제2 촬영부, 라이브 뷰를 표시하는 디스플레이부 및 제1 촬영부로부터 입력되는 이미지를 라이브 뷰로 표시하며, 제1 촬영부의 라이브 뷰 표시 불능 구간이 발생하면, 제2 촬영부로부터 입력되는 이미지를 라이브 뷰로 표시하는 제어부를 포함한다. 이에 따라, 메인 카메라로 입력되는 영상으로 라이브 뷰 이미지를 원활하게 표시할 수 없는 경우에도 보조 카메라로 입력되는 영상을 이용하여 라이브 뷰 이미지를 원활하게 표시할 수 있다.

Description

촬영 장치 및 촬영 장치의 라이브 뷰 표시 방법{IMAGING APPARATUS AND METHOD FOR DISPLAYING LIVEVIEW IMAGE THEREOF}
본 발명은 촬영 장치 및 촬영 장치의 라이브 뷰 표시 방법에 관한 것으로, 더욱 상세하게는 보조 카메라를 이용하여 라이브 뷰를 표시하는 촬영 장치 및 라이브 뷰 표시 방법에 관한 것이다.
일반적으로 촬영 장치는 하나의 촬영부, 뷰 파인더, 라이브 뷰 이미지 및 촬영된 이미지를 보여주는 디스플레이부를 구비하고 있다. 하나의 촬영부는 하나의 렌즈와 하나의 이미지 센서를 구비하고 있다. 최근 출시되는 촬영 장치는 뷰 파인더없이 디스플레이부만을 구비하는 경우도 있다. 사용자가 디스플레이부에 표시되는 라이브 뷰 이미지를 보면서 촬영하는 경우 편한 자세로 촬영할 수 있고, 촬영될 이미지를 예측할 수 있다. 또한, 촬영 장치는 연속 촬영, 셔터 스피드 우선 촬영, 조리개 우선 촬영 등과 같은 다양한 촬영 모드를 지원한다.
일반적으로 라이브 뷰 이미지는 연속적으로 이미지를 표시해야 하기 때문에 상대적으로 저해상도를 가지며, 캡쳐되어 저장되는 이미지는 고해상도를 가진다. 촬영 장치는 하나의 이미지 센서를 구비하고 있기 때문에 저해상도 데이터와 고해상도 데이터를 동시에 처리하는 것은 어렵다. 따라서, 사용자가 연속 촬영을 하는 경우, 촬영 장치는 고해상도 이미지를 연속적으로 캡쳐해야 하므로 고해상도 이미지 데이터로 라이브 뷰를 표시해야 한다. 그러나, 이와 같은 경우 촬영 장치는 라이브 뷰 이미지를 원활하게 표시할 수 없고, 디스플레이부는 간헐적으로 검은 색 화면을 표시한다. 연속 촬영의 경우 뿐만 아니라, 촬영부로 입력되는 영상 데이터의 문제, 촬영부와 관련된 다른 작업의 수행 등의 경우에 있어서도 디스플레이부는 라이브 뷰 이미지를 원활하게 표시할 수 없다. 사용자는 라이브 뷰 이미지가 원활하게 표시되지 않으면 불편함을 느낄 수 있다.
따라서, 라이브 뷰 이미지를 원활하게 표시할 수 있는 기술에 대한 필요성이 대두되고 있다.
본 발명은 상술한 필요성에 따라 안출된 것으로, 본 발명의 목적은 보조 카메라를 이용하여 라이브 뷰 이미지를 원활하게 표시하는 촬영 장치 및 라이브 뷰 표시 방법을 제공하는 것을 목적으로 한다.
본 발명의 상술한 목적을 달성하기 위한 일 실시 예에 따르면, 촬영 장치는 제1 촬영부, 상기 제1 촬영부의 촬영 방향과 동일한 방향으로 촬영 가능한 제2 촬영부, 라이브 뷰를 표시하는 디스플레이부 및 상기 제1 촬영부로부터 입력되는 이미지를 상기 라이브 뷰로 표시하며, 상기 제1 촬영부의 라이브 뷰 표시 불능 구간이 발생하면, 상기 제2 촬영부로부터 입력되는 이미지를 상기 라이브 뷰로 표시하는 제어부를 포함한다.
그리고, 상기 라이브 뷰 표시 불능 구간은 상기 제1 촬영부를 통한 라이브 뷰가 표시되고 있는 상태에서 촬영 명령이 입력되어 촬영 동작이 이루어지는 구간일 수 있다.
한편, 촬영 장치는 상기 제1 촬영부를 통해 입력되는 이미지의 특성을 감지하는 감지부를 더 포함하며, 상기 제어부는 상기 감지부에서 감지된 이미지 특성이 기 설정된 조건을 충족하면 상기 제1 촬영부를 통한 라이브 뷰 표시 불능 구간이 발생한 것으로 판단할 수 있다.
한편, 상기 제어부는 상기 제2 촬영부의 촬영 파라미터 값을 상기 제1 촬영부의 촬영 파라미터 값에 대응되도록 조정하여, 상기 조정된 촬영 파라미터에 의해 획득되는 라이브 뷰를 상기 디스플레이부에 표시할 수 있다.
그리고, 상기 제어부는 상기 제2 촬영부를 통해 입력되는 이미지에 대해 색상 조정(color calibration) 과정, 카메라 조정(camera calibration) 과정, 시계 조정(field of view adjustment) 과정 및 시점 조합(view synthesis) 과정 중 적어도 하나의 과정을 수행할 수 있다.
또한, 상기 제2 촬영부는 복수의 서브 카메라를 포함하며, 상기 제어부는 상기 복수의 서브 카메라를 통해 입력되는 복수의 이미지를 하나의 라이브 뷰로 조합하여 표시할 수 있다.
그리고, 상기 제2 촬영부는 복수의 서브 카메라를 포함하며, 상기 제어부는 상기 라이브 뷰 표시 불능 구간이 발생하면, 상기 복수의 서브 카메라 중 하나를 선택하여, 선택된 서브 카메라를 통해 입력되는 이미지를 상기 라이브 뷰로 표시할 수 있다.
또한, 상기 제2 촬영부는 입출 가능한 서브 카메라를 포함할 수 있다.
본 발명의 상술한 목적을 달성하기 위한 일 실시 예에 따르면 촬영 장치의 라이브 뷰 표시 방법에 있어서 상기 촬영 장치에 마련된 제1 촬영부를 통해 입력되는 이미지를 라이브 뷰로 표시하는 제1 라이브 뷰 표시 단계 및 상기 제1 촬영부의 라이브 뷰 표시 불능 구간이 발생하면, 상기 제1 촬영부의 촬영 방향과 동일한 방향으로 촬영 가능한 제2 촬영부를 통해 입력되는 이미지를 라이브 뷰로 표시하는 제2 라이브 뷰 표시 단계를 포함한다.
그리고, 상기 라이브 뷰 표시 불능 구간은 상기 제1 촬영부를 통한 라이브 뷰가 표시되고 있는 상태에서 촬영 명령이 입력되어 촬영 동작이 이루어지는 구간일 수 있다.
한편, 라이브 뷰 표시 방법은 상기 제1 촬영부를 통해 입력되는 이미지의 특성을 감지하는 단계를 더 포함하며, 상기 감지된 이미지 특성이 기 설정된 조건을 충족하면 상기 제1 촬영부를 통한 라이브 뷰 표시 불능 구간이 발생한 것으로 판단하는 단계를 더 포함할 수 있다.
그리고, 상기 제2 라이브 뷰 표시 단계는 상기 제2 촬영부의 촬영 파라미터 값을 상기 제1 촬영부의 촬영 파라미터 값에 대응되도록 조정하여, 상기 조정된 촬영 파라미터에 의해 획득되는 라이브 뷰를 표시할 수 있다.
또한, 상기 제2 라이브 뷰 표시 단계는 상기 제2 촬영부를 통해 입력되는 이미지에 대해 색상 조정(color calibration) 과정, 카메라 조정(camera calibration) 과정, 시계 조정(field of view adjustment) 과정 및 시점 조합(view synthesis) 과정 중 적어도 하나의 과정을 수행하여 라이브 뷰를 표시할 수 있다.
그리고, 상기 제2 라이브 뷰 표시 단계는 상기 제2 촬영부에 포함된 복수의 서브 카메라를 통해 입력되는 복수의 이미지를 하나의 라이브 뷰로 조합하여 표시할 수 있다.
또한, 상기 제2 라이브 뷰 표시 단계 상기 제2 촬영부에 포함된 복수의 서브 카메라 중 하나를 선택하여, 선택된 서브 카메라를 통해 입력되는 이미지를 상기 라이브 뷰로 표시할 수 있다.
따라서, 메인 카메라로 입력되는 영상으로 라이브 뷰 이미지를 원활하게 표시할 수 없는 경우에도 보조 카메라로 입력되는 영상을 이용하여 라이브 뷰 이미지를 원활하게 표시할 수 있다.
도 1 내지 도 2는 본 발명의 일 실시 예에 따른 촬영 장치의 블록도.
도 3 내지 도 6은 본 발명의 다양한 실시 예에 따른 제2 촬영부의 배치를 설명하는 도면.
도 7은 본 발명의 일 실시 예에 따른 촬영 파라미터 값을 변환하는 방법을 설명하는 도면.
도 8은 본 발명의 일 실시 예에 따른 제2 촬영부로 입력된 이미지를 처리하는 과정을 설명하는 도면.
도 9는 본 발명의 일 실시 예에 따른 라이브 뷰 표시 방법의 흐름도.
이하 본 발명의 다양한 실시 예를 첨부된 도면을 참조하여 상세히 설명한다. 그리고, 본 발명을 설명함에 있어서, 관련된 공지기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단된 경우 그 상세한 설명은 생략한다. 그리고 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
도 1은 본 발명의 일 실시 예에 따른 촬영 장치의 블록도이다. 도 1을 참조하면, 촬영 장치(100)는 제1 촬영부(110), 제2 촬영부(120), 디스플레이부(130), 제어부(140)를 포함한다.
제1 촬영부(110)는 일반적인 촬영 장치(100)에 구비된 메인 카메라를 포함하는 구성부를 의미한다. 제2 촬영부(120)는 제1 촬영부(110)의 촬영 방향과 동일한 방향으로 배치된다. 즉, 사용자가 촬영 장치(100)를 이용하여 정면의 피사체를 촬영한다면 제1 촬영부(110) 및 제2 촬영부(120)는 사용자와 대면하는 반대 방향에 배치된다.
디스플레이부(130)는 라이브 뷰를 표시한다. 디스플레이부(130)는 사용자의 촬영 명령에 따라 촬영된 이미지를 표시할 수 있고, 촬영 장치(100) 설정 메뉴 또는 촬영 옵션을 표시할 수 있다. 디스플레이부(130)는 촬영 장치(100) 바디(body)에 고정된 형태로 구성될 수 있다. 또는, 디스플레이부(130)의 일면이 힌지(미도시) 등을 이용하여 촬영 장치(100)의 바디와 연결된 개폐 가능한 형태로 구성될 수도 있다. 또는, 디스플레이부(130) 일면의 적어도 하나의 지점이 힌지(미도시) 등을 이용하여 촬영 장치(100)의 바디와 연결된 개폐 및 회전 가능한 형태로 구성될 수도 있다.
예를 들어, 디스플레이부(130)는 액정 디스플레이 패널(Liquid Crystal Display Panel: LCD Panel), 플라즈마 디스플레이 패널(Plasma Display Panel: PDP), 유기발광 소자(Organic Light Emitting Diode, OLED), VFD(Vacuum Fluorescent Display), FED(Field Emission Display), ELD(Electro Luminescence Display) 등과 같은 다양한 디스플레이 유닛으로 구현될 수 있다.
디스플레이부(130)는 터치입력 기능이 없는 일반적인 디스플레이 패널로 구현될 수 있고, 근접 센서나 터치 센서를 이용한 사용자 조작을 인식할 수 있는 터치 디스플레이 패널로 구현될 수 있다. 터치 디스플레이 패널로 구현되는 경우 사용자의 신체(예, 엄지를 포함하는 손가락) 또는 감지 가능한 입력 수단(예, 스타일러스 펜)을 통해 적어도 하나의 터치 제스처를 입력받을 수 있다. 디스플레이부(130)는 사용자의 명령을 입력받기 위한 소정 터치 영역, 소프트 키 및 소프트 메뉴를 포함할 수 있다.
제어부(140)는 CPU와, 촬영 장치(100)의 제어를 위한 제어 프로그램이 저장된 롬(Read-Only Memory: ROM) 및 촬영 장치(100)의 외부로부터 입력되는 신호 또는 데이터를 기억하거나, 촬영 장치(100)에서 수행되는 작업을 위한 기억 영역으로 사용되는 램(Random Access Memory: RAM)을 포함한다. CPU는 싱글 코어 프로세서, 듀얼 코어 프로세서, 트리플 코어 프로세서 및 쿼드 코어 프로세서 중 적어도 하나를 포함할 수 있다. CPU, 롬 및 램은 내부버스(bus)를 통해 상호 연결된다.
제어부(140)는 제1 촬영부(110), 제2 촬영부(120), 디스플레이부(130)를 제어한다. 제어부(140)는 제1 촬영부(110)로부터 입력되는 이미지를 라이브 뷰로 표시하고, 제1 촬영부(110)의 라이브 뷰 표시 불능 구간이 발생하면, 제2 촬영부(120)로부터 입력되는 이미지를 라이브 뷰로 표시한다.
본 발명의 라이브 뷰 표시 불능의 의미는 라이브 뷰 표시를 전혀 할 수 없는 경우 뿐만 아니라, 라이브 뷰 표시는 가능하지만 원활하게 표시할 수 없는 경우도 포함한다. 예를 들어, 라이브 뷰 표시 불능은 촬영 명령이 입력되어 촬영 동작이 이루어질 때 및 촬영 동작 후 촬영된 이미지를 저장할 때 발생할 수 있다. 특히, 연속 촬영이 이루어지는 경우 제1 촬영부(110)에서 입력된 이미지는 고해상도를 가지고 있다. 따라서, 촬영 순간마다 고해상도 이미지의 데이터를 이용하여 라이브 뷰 표시를 하는 경우 원활하게 라이브 뷰 표시가 원활하게 되지 않을 수 있다.
또한, 셔터 스피드를 길게 설정하여 촬영하는 경우, 제1 촬영부(110)에서 입력된 이미지로 원활한 라이브 뷰 표시가 되지 않을 수 있고, 촬영 후 저장하는 과정 수행 중에 라이브 뷰 표시가 원활하게 되지 않을 수 있다. 그 외에도 제1 촬영부(110)의 렌즈 덮개를 제거하지 않은 경우, 손 등으로 제1 촬영부(110)를 가리는 경우에도 라이브 뷰 표시가 되지 않을 수 있다.
또한, 오토 포커싱(Auto Focusing: AF)을 위해 제1 촬영부(110)의 센서 픽셀을 위상차 AF로 사용하는 경우에도 제1 촬영부(110)로 입력되는 이미지를 이용한 라이브 뷰 표시가 원활하게 되지 않을 수 있다. 이와 같이, 제1 촬영부(110)로 입력되는 이미지를 이용한 라이브 뷰 표시가 원활하게 되지 않는 경우 촬영 장치(100)는 제2 촬영부(120)를 이용하여 라이브 뷰 이미지를 표시할 수 있다.
제어부(140)는 제2 촬영부(120)로 입력되는 이미지에 대해 색상 조정(color calibration) 과정, 카메라 조정(camera calibration) 과정, 시계 조정(field of view adjustment) 과정 및 시점 조합(view synthesis) 과정 중 적어도 하나의 과정을 수행할 수 있다. 구체적인 이미지 처리 방법에 대해서는 후술하기로 한다.
도 2는 본 발명의 다른 실시 예에 따른 촬영 장치의 블록도이다. 도 2를 참조하면, 촬영 장치(100)는 제1 촬영부(110), 제2 촬영부(120), 디스플레이부(130), 제어부(140), 감지부(150), 통신부(160)를 포함할 수 있다. 도 2에서는 도 1에서 설명하지 않은 구성부를 중심으로 설명한다.
제1 촬영부(110)는 메인 카메라(111)를 포함하고, 제2 촬영부(120)는 적어도 하나의 서브 카메라를 포함할 수 있다. 도 2에서는 제1 및 제2 서브 카메라(121, 122)를 도시하였으나, 서브 카메라는 하나가 구비될 수 있고, 세 개 이상의 서브 카메라가 구비될 수도 있다.
제2 촬영부(120)의 서브 카메라(121, 122)는 촬영 장치(100)의 바디에 구비되거나 혹은 별도의 연결 수단을 사용하여 촬영 장치(100)에 연결될 수 있다. 촬영 장치(100)는 촬영에 필요한 광량을 제공하는 보조 광원(예, 플래시(미도시))을 포함할 수 있다.
메인 카메라(111), 제1 및 제2 서브 카메라(121, 122)는 렌즈와 이미지 센서를 포함한다. 사용할 수 있는 렌즈의 종류에는 일반적인 범용 렌즈, 광각 렌즈, 줌 렌즈 등이 있다. 메인 카메라(111)의 렌즈는 분리되어 교환이 가능할 수 있다. 이미지 센서에는 상보성 금속 산화물 반도체(Complementary Metal Oxide Semiconductor: CMOS)와 전하결합소자(Charge Coupled Device: CCD)가 있다. 메인 카메라(111), 제1 및 제2 서브 카메라(121, 122)는 동일한 종류의 이미지 센서로 구성될 수 있고, 다른 종류의 이미지 센서로 구성될 수도 있다.
감지부(150)는 제1 촬영부(110)를 통해 입력되는 이미지 특성을 감지할 수 있다. 예를 들어, 렌즈 덮개가 분리되지 않은 경우 제1 촬영부(110)는 광량을 전혀 감지할 수 없으므로 제1 촬영부(110)로 입력되는 이미지는 검은 색 이미지가 된다. 감지부(150)는 제1 촬영부(110)로 입력되는 광량이나 이미지 특성을 감지할 수 있다.
제어부(140)는 감지부(150)에서 감지된 광량 또는 이미지 특성이 기 설정된 기준 이하인 경우 제1 촬영부(110)를 통한 라이브 뷰 표시 불능 구간이 발생한 것으로 판단할 수 있다.
통신부(160)는 서버(미도시) 또는 외부 서브 카메라(미도시)와 통신을 수행할 수 있다. 통신부(160)는 무선랜 모듈(미도시), 근거리 통신 모듈(미도시), GPS(Global Positioning System) 모듈(미도시) 중 적어도 하나를 포함할 수 있다. 촬영 장치(100)는 통신부(160)에 포함된 다양한 통신 모듈을 이용하여 인터넷 연결, 외부 서브 카메라와 연결, 촬영 장치(100)의 위치 확인이 가능하다.
촬영 장치(100)에 포함된 서브 카메라(121, 122)는 다양하게 배치될 수 있다.
도 3 내지 도 6은 본 발명의 다양한 실시 예에 따른 제2 촬영부의 배치를 설명하는 도면이다. 도 3 내지 도 6은 촬영 장치(100)를 정면에서 바라본 모습이다. 촬영부의 배치를 설명하기 위한 것이므로 촬영부 외의 다른 부분은 생략하였다.
도 3은 제2 촬영부(120)에 포함된 제1 및 제2 서브 카메라(121a, 122a)가 촬영 장치(100)의 바디(body)에 배치된 실시 예를 설명하는 도면이다. 도 3을 참조하면, 촬영 장치(100)의 중앙부에 제1 촬영부(110)가 배치되어 있다. 제1 촬영부(110)는 메인 카메라(111)를 포함한다. 촬영 장치(100)의 양 옆 가장자리 영역 중 중간 부분에 각각 제1 및 제2 서브 카메라(121a, 122a)가 배치되어 있다.
이 외에도 다양한 방법으로 제1 촬영부(110), 제1 및 제2 서브 카메라(121a, 122a)는 배치 가능하다. 예를 들어, 제1 및 제2 서브 카메라(121a, 122a)는 촬영 장치(100) 양 옆 가장자리 영역 중 위쪽 모서리 영역에 각각 배치될 수 있다. 또는 양 옆 가장자리 영역 중 아래쪽 모서리 영역에 각각 배치될 수 있다. 제1 및 제2 서브 카메라(121a, 122a)는 촬영 장치(100) 상하 가장자리 영역의 임의의 지점에 배치될 수도 있다.
서브 카메라는 촬영 장치(100)에 하나만 구비되어 촬영 장치(100) 바디의 임의의 위치에 배치될 수 있다. 서브 카메라는 세 개가 존재하여 촬영 장치(100) 바디의 임의의 위치에 배치될 수 있으며, 네 개가 존재하여 촬영 장치(100)의 각 모서리마다 배치될 수도 있다. 제1 촬영부(110)도 촬영 장치(100)의 좌측 영역 또는 우측 영역에 배치될 수 있다.
도 4는 제2 촬영부(120)에 포함된 제1 및 제2 서브 카메라(121b, 122b)가 제1 촬영부(110)에 배치된 실시 예를 설명하는 도면이다. 도 4를 참조하면, 보이는 방향을 기준으로 촬영 장치(100)의 우측 영역에 제1 촬영부(110)가 배치되어 있다. 제1 및 제2 서브 카메라(121b, 122b)는 제1 촬영부(110)의 좌우 영역에 각각 배치되어 있다. 경우에 따라, 제1 및 제2 서브 카메라(121b, 122b)는 제1 촬영부(110)의 상하 영역에 각각 배치될 수 있다. 또는, 제1 촬영부(110)에 포함된 메인 카메라(111)를 중심으로 대칭되게 배치될 수 있다. 제1 촬영부(110)에 배치되는 서브 카메라는 하나일 수 있고, 세 개 이상 복수 개일 수 있다.
도 5는 제2 촬영부(120)에 포함된 서브 카메라(121c)가 입출 가능한 실시 예를 설명하는 도면이다. 도 5를 참조하면, 촬영 장치(100)의 중앙 영역에 제1 촬영부(110)가 배치되어 있다. 서브 카메라(121c)는 보이는 방향을 기준으로 촬영 장치(100)의 우측 면에 입출 가능한 수단과 연결되어 배치되어 있다.
입출 가능하다는 것은 서브 카메라(121c)가 촬영 장치(100) 내부로 삽입되거나 촬영 장치(100)로부터 돌출될 수 있는 것을 의미한다. 예를 들어, 촬영 장치(100)는 스프링과 개폐 가능한 덮개를 포함하여, 덮개를 여는 경우 스프링에 의해 서브 카메라(121c)를 돌출시키도록 구성될 수 있다. 또는, 서브 카메라(121c)는 일정한 손잡이 등을 구비하여 사용자가 수동으로 입출시키도록 구성될 수 있다. 경우에 따라, 촬영 장치(100)는 액츄에이터(미도시) 등을 구비하여 일정한 입력 명령에 의해 자동으로 서브 카메라(121c)를 돌출 또는 삽입되도록 구성될 수 있다.
도 5에서는 한 개의 입출 가능한 서브 카메라(121c)를 도시하였으나, 촬영 장치(100)는 복수 개의 입출 가능한 서브 카메라(121c)를 포함할 수도 있다. 가령, 촬영 장치(100)가 두 개의 입출 가능한 서브 카메라를 구비하였다면, 촬영 장치(100)의 좌우 측면에 각각 하나씩 배치하도록 구성될 수 있다. 또는, 한쪽 측면에 두 개의 입출 가능한 서브 카메라를 배치하도록 구성될 수 있다. 또는, 촬영 장치(100)는 상하 측면에 복수 개의 입출 가능한 서브 카메라를 배치하도록 구성될 수도 있다.
도 6은 외부 서브 카메라(121d)와 촬영 장치(100)를 설명하는 도면이다. 외부 서브 카메라(121d)는 도 3 내지 도 5에서 설명한 서브 카메라와 동일한 기능을 수행하지만, 촬영 장치(100)와 별개의 카메라를 의미한다. 도 6을 참조하면, 외부 서브 카메라(121d)는 촬영 장치(100)와 별개의 장치로 존재한다.
외부 서브 카메라(121d)는 통신부(미도시)를 포함하고, 촬영 장치(100)의 통신부(160)와 통신을 하여 촬영된 이미지를 촬영 장치로 전송한다. 촬영 장치(100)와 외부 서브 카메라(121d)는 커넥터(미도시) 등을 구비하여 유선으로 연결될 수 있다. 또는, 와이파이, 블루투스, 근거리 무선 통신 등을 이용하여 무선으로 연결될 수도 있다. 외부 서브 카메라(121d)는 복수 개가 존재할 수도 있다.
상술한 바와 같이, 제1 촬영부(110)로 입력되는 이미지로 라이브 뷰 표시를 원활하게 할 수 없는 경우, 제2 촬영부(120)를 이용하여 라이브 뷰를 표시한다. 촬영 장치(100)에 포함된 제1 촬영부(110)와 제2 촬영부(120) 촬영 특성, 배치 위치 등이 다르다. 따라서, 제1 촬영부(110)로 입력되는 이미지로 라이브 뷰를 표시하다가 제2 촬영부(120)로 입력되는 이미지로 라이브 뷰를 표시하면 사용자가 라이브 뷰 이미지의 차이를 느끼게 된다. 사용자가 이미지 사이의 차이를 느낄 수 없도록 제2 촬영부(120)로 입력되는 이미지를 제1 촬영부(110)로 입력되는 이미지와 유사하게 처리하는 과정이 필요하다.
도 7은 본 발명의 일 실시 예에 따른 촬영 파라미터 값을 변환하는 방법을 설명하는 도면이다. 도 7의 과정은 색상 조정 과정에 해당한다.
도 7을 참조하면, 촬영 장치(100)는 제2 촬영부(120)를 통해 외부 이미지를 입력받는다. 제2 촬영부(120)로 입력되는 이미지는 베이어 이미지(Bayer image) 또는 YUV 이미지일 수 있다. 촬영 장치(100)는 제2 촬영부(120)의 촬영 파라미터 값을 검출한다(S710). 촬영 파라미터 값은 노출 시간(Exposure Time), ISO 속도(ISO speed), 휘도(Brightness), 색상 특성 등이 될 수 있다.
촬영 장치(100)는 검출된 촬영 파라미터 값을 제2 촬영부(120)의 기준 파라미터 값으로 변환한다(S720). 예를 들어, 현재 촬영 장치(100)에서 설정된 ISO 속도가 200이고 기준 ISO 속도가 100이라면, ISO 속도를 100으로 변환하고 이에 맞추어 검출된 제2 촬영부(120)의 촬영 파라미터 값을 변환한다.
촬영 장치(100)는 변환된 기준 파라미터 값을 제1 촬영부(110)의 기준 파라미터 값으로 변환한다(S730). 제2 촬영부(120)와 제1 촬영부(110)에 포함된 카메라의 종류, 특성 등이 다르기 때문에 노출 시간, 휘도 등이 달라질 수 있다. 예를 들어, ISO 속도 100을 기준으로 제2 촬영부(120)의 변환된 촬영 파라미터 값을 제1 촬영부(110)의 기준 파라미터 값으로 변환한다.
촬영 장치(100)는 제1 촬영부(110)의 촬영 파라미터 값으로 변환한다(S740). 예를 들어, 상술한 바와 같이 제1 촬영부(110)의 기준 파라미터 값은 ISO 속도 100으로 설정되어 있다. 그리고, 현재 촬영 장치(100)에서 설정된 ISO 속도는 200이다. 따라서, 변환된 제1 촬영부(110)의 기준 파라미터 값을 ISO 속도 200에 맞추어 촬영 파라미터 값으로 변환한다.
촬영 장치(100)는 변환된 제1 촬영부(110)의 촬영 파라미터 값을 적용한 이미지를 라이브 뷰 이미지로 표시한다. 상술한 과정을 거치면 제2 촬영부(120)로 입력된 이미지는 제1 촬영부(110)로 입력된 이미지와 유사한 이미지가 될 수 있다. 따라서, 촬영 파라미터 값의 변환 과정은 라이브 뷰 이미지의 변화를 최소화한다.
도 8은 본 발명의 일 실시 예에 따른 제2 촬영부로 입력된 이미지를 처리하는 과정을 설명하는 도면이다. 도 8을 참조하면, 일반적인 경우 제1 촬영부(110)의 메인 카메라(111)를 통해 입력된 이미지가 이미지 처리 과정(250)을 거쳐 라이브 뷰로 표시된다.
그러나, 제2 촬영부(120)로 입력된 이미지를 라이브 뷰로 표시하기 위해서 카메라 조정(camera calibration) 과정(210), 색상 조정(color calibration) 과정(220), 시계 조정(field of view adjustment) 과정(230) 및 시점 조합(view synthesis) 과정(240) 중 적어도 하나의 과정이 수행될 수 있다.
카메라 조정 과정(210)은 제1 및 제2 서브 카메라(121, 122)의 배치와 관련된 기울기(tilt) 등을 조정하는 과정이다. 제1 및 제2 서브 카메라(121, 122)는 메인 카메라(111)의 촬영 방향과 동일한 방향으로 배치하지만, 카메라 렌즈의 축 방향이 완벽한 평행이 아닐 수 있다. 또한, 메인 카메라(111)와 제1 및 제2 서브 카메라(121, 122)는 다른 위치에 배치된다. 따라서, 카메라 조정 과정(210)은 이러한 차이를 조정하는 과정이다.
예를 들어, 카메라 조정 과정(210)은 메인 카메라(111)와 제1 및 제2 서브 카메라(121, 122)의 상대 좌표, 메인 카메라(111)와 제1 및 제2 서브 카메라(121, 122) 간의 거리, 메인 카메라(111)와 제1 및 제2 서브 카메라(121, 122)의 영상면 회전각(image plane rotation angle) 등을 파라미터로 하여 조정한다.
색상 조정 과정(220)은 도 7에서 설명한 바와 동일하므로 생략한다.
시계 조정 과정(230)은 메인 카메라(111)와 제1 및 제2 서브 카메라(121, 122) 간의 특성 등의 차이를 조정하는 과정이다. 메인 카메라(111)와 제1 및 제2 서브 카메라(121, 122)는 동일한 카메라일 수 있지만, 다른 카메라일 수도 있다. 다른 카메라인 경우, 카메라의 특성이 서로 다르다. 따라서, 시계 조정 과정(230)은 이러한 카메라 특성의 차이를 조정하는 과정이다.
예를 들어, 시계 조정 과정(230)은 해상도, 센서 사이즈, 초점 거리, LCD 스크린의 해상도 등을 파라미터로 하여 조정한다.
시점 조합 과정(240)은 메인 카메라(111)와 서브 카메라(121, 122) 간이나 제1 서브 카메라(121)와 제2 서브 카메라(122) 간의 배치 위치에 따른 시점 차이에 의한 이미지 차이를 조정하는 과정이다.
각 카메라(111, 121, 122)는 배치 위치가 다르므로 각 카메라에 입력되는 이미지는 다소 차이가 있다. 따라서, 시점 조합 과정(240)은 이러한 차이점 조정하여 하나의 이미지로 조합하는 과정이다.
카메라 조정 과정(210), 색상 조정 과정(220), 시계 조정 과정(230), 시점 조합 과정(240) 중 적어도 하나의 과정이 수행된 이미지는 이미지 처리 과정(250)을 거쳐 라이브 뷰로 표시된다.
도 9는 본 발명의 일 실시 예에 따른 라이브 뷰 표시 방법의 흐름도이다.
도 9를 참조하면, 촬영 장치는 제1 촬영부를 통해 입력되는 이미지를 라이브 뷰로 표시한다(S910). 촬영 장치는 제1 촬영부 입력 이미지에 대해 라이브 뷰 표시 불능인지 판단한다(S920). 라이브 뷰 표시 불능은 라이브 뷰 표시는 가능하지만 원활하게 표시할 수 없는 경우도 포함한다. 라이브 뷰 표시 불능 상태는 연속 촬영시, 셔터 스피드를 길게 설정하여 촬영하는 경우, 렌즈 덮개를 제거하지 않은 경우, 손 등으로 촬영부를 가리는 경우, 센서 픽셀을 위상차 AF로 사용하는 경우 등에서 발생할 수 있다.
촬영 장치는 표시 불능으로 판단하는 경우, 제2 촬영부를 통해 입력되는 이미지를 라이브 뷰로 표시한다(S930). 제1 촬영부로 입력되는 이미지를 이용한 라이브 뷰 표시가 원활하게 되지 않는 경우 촬영 장치는 제2 촬영부를 이용하여 라이브 뷰 이미지를 표시할 수 있다. 이 때, 촬영 장치는 카메라 조정 과정(210), 색상 조정 과정(220), 시계 조정 과정(230), 시점 조합 과정(240) 중 적어도 하나의 과정을 수행할 수 있다.
상술한 다양한 실시 예에 따른 촬영 장치의 라이브 뷰 표시 방법은 프로그램으로 구현되어 디스플레이 장치에 제공될 수 있다.
일 예로, 촬영 장치에 마련된 제1 촬영부를 통해 입력되는 이미지를 라이브 뷰로 표시하는 제1 라이브 뷰 표시 단계 및 제1 촬영부의 라이브 뷰 표시 불능 구간이 발생하면, 제1 촬영부의 촬영 방향과 동일한 방향으로 촬영 가능한 제2 촬영부를 통해 입력되는 이미지를 라이브 뷰로 표시하는 제2 라이브 뷰 표시 단계를 수행하는 프로그램이 저장된 비일시적 판독 가능 매체(non-transitory computer readable medium)가 제공될 수 있다.
비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다.
또한, 이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.
100 : 촬영 장치
110 : 제1 촬영부 111 : 메인 카메라
120 : 제2 촬영부
121, 121a, 121b, 121c, 121d : 제1 서브 카메라
122, 122a, 122b : 제2 서브 카메라
130 : 디스플레이부 140 : 제어부
150 : 감지부 160 : 통신부

Claims (15)

  1. 제1 촬영부;
    상기 제1 촬영부의 촬영 방향과 동일한 방향으로 촬영 가능한 제2 촬영부;
    라이브 뷰를 표시하는 디스플레이부; 및
    상기 제1 촬영부로부터 입력되는 이미지를 상기 라이브 뷰로 표시하며, 상기 제1 촬영부의 라이브 뷰 표시 불능 구간이 발생하면, 상기 제2 촬영부로부터 입력되는 이미지를 상기 라이브 뷰로 표시하는 제어부;를 포함하는 촬영 장치.
  2. 제1항에 있어서,
    상기 라이브 뷰 표시 불능 구간은,
    상기 제1 촬영부를 통한 라이브 뷰가 표시되고 있는 상태에서 촬영 명령이 입력되어 촬영 동작이 이루어지는 구간인 것을 특징으로 하는 촬영 장치.
  3. 제1항에 있어서,
    상기 제1 촬영부를 통해 입력되는 이미지의 특성을 감지하는 감지부;를 더 포함하며,
    상기 제어부는,
    상기 감지부에서 감지된 이미지 특성이 기 설정된 조건을 충족하면 상기 제1 촬영부를 통한 라이브 뷰 표시 불능 구간이 발생한 것으로 판단하는 것을 특징으로 하는 촬영 장치.
  4. 제1항에 있어서,
    상기 제어부는,
    상기 제2 촬영부의 촬영 파라미터 값을 상기 제1 촬영부의 촬영 파라미터 값에 대응되도록 조정하여, 상기 조정된 촬영 파라미터에 의해 획득되는 라이브 뷰를 상기 디스플레이부에 표시하는 것을 특징으로 하는 촬영 장치.
  5. 제1항에 있어서,
    상기 제어부는,
    상기 제2 촬영부를 통해 입력되는 이미지에 대해 색상 조정(color calibration) 과정, 카메라 조정(camera calibration) 과정, 시계 조정(field of view adjustment) 과정 및 시점 조합(view synthesis) 과정 중 적어도 하나의 과정을 수행하는 것을 특징으로 하는 촬영 장치.
  6. 제1항에 있어서,
    상기 제2 촬영부는,
    복수의 서브 카메라를 포함하며,
    상기 제어부는,
    상기 복수의 서브 카메라를 통해 입력되는 복수의 이미지를 하나의 라이브 뷰로 조합하여 표시하는 것을 특징으로 하는 촬영 장치.
  7. 제1항에 있어서,
    상기 제2 촬영부는,
    복수의 서브 카메라를 포함하며,
    상기 제어부는,
    상기 라이브 뷰 표시 불능 구간이 발생하면, 상기 복수의 서브 카메라 중 하나를 선택하여, 선택된 서브 카메라를 통해 입력되는 이미지를 상기 라이브 뷰로 표시하는 것을 특징으로 하는 촬영 장치.
  8. 제1항에 있어서,
    상기 제2 촬영부는,
    입출 가능한 서브 카메라를 포함하는 것을 특징으로 하는 촬영 장치.
  9. 촬영 장치의 라이브 뷰 표시 방법에 있어서,
    상기 촬영 장치에 마련된 제1 촬영부를 통해 입력되는 이미지를 라이브 뷰로 표시하는 제1 라이브 뷰 표시 단계; 및
    상기 제1 촬영부의 라이브 뷰 표시 불능 구간이 발생하면, 상기 제1 촬영부의 촬영 방향과 동일한 방향으로 촬영 가능한 제2 촬영부를 통해 입력되는 이미지를 라이브 뷰로 표시하는 제2 라이브 뷰 표시 단계;를 포함하는 라이브 뷰 표시 방법.
  10. 제9항에 있어서,
    상기 라이브 뷰 표시 불능 구간은,
    상기 제1 촬영부를 통한 라이브 뷰가 표시되고 있는 상태에서 촬영 명령이 입력되어 촬영 동작이 이루어지는 구간인 것을 특징으로 하는 라이브 뷰 표시 방법.
  11. 제9항에 있어서,
    상기 제1 촬영부를 통해 입력되는 이미지의 특성을 감지하는 단계;를 더 포함하며,
    상기 감지된 이미지 특성이 기 설정된 조건을 충족하면 상기 제1 촬영부를 통한 라이브 뷰 표시 불능 구간이 발생한 것으로 판단하는 단계;를 더 포함하는 라이브 뷰 표시 방법.
  12. 제9항에 있어서,
    상기 제2 라이브 뷰 표시 단계는,
    상기 제2 촬영부의 촬영 파라미터 값을 상기 제1 촬영부의 촬영 파라미터 값에 대응되도록 조정하여, 상기 조정된 촬영 파라미터에 의해 획득되는 라이브 뷰를 표시하는 것을 특징으로 하는 라이브 뷰 표시 방법.
  13. 제9항에 있어서,
    상기 제2 라이브 뷰 표시 단계는,
    상기 제2 촬영부를 통해 입력되는 이미지에 대해 색상 조정(color calibration) 과정, 카메라 조정(camera calibration) 과정, 시계 조정(field of view adjustment) 과정 및 시점 조합(view synthesis) 과정 중 적어도 하나의 과정을 수행하여 라이브 뷰를 표시하는 것을 특징으로 하는 라이브 뷰 표시 방법.
  14. 제9항에 있어서,
    상기 제2 라이브 뷰 표시 단계는,
    상기 제2 촬영부에 포함된 복수의 서브 카메라를 통해 입력되는 복수의 이미지를 하나의 라이브 뷰로 조합하여 표시하는 것을 특징으로 하는 라이브 뷰 표시 방법.
  15. 제9항에 있어서,
    상기 제2 라이브 뷰 표시 단계는,
    상기 제2 촬영부에 포함된 복수의 서브 카메라 중 하나를 선택하여, 선택된 서브 카메라를 통해 입력되는 이미지를 상기 라이브 뷰로 표시하는 것을 특징으로 하는 라이브 뷰 표시 방법.

KR1020130000328A 2013-01-02 2013-01-02 촬영 장치 및 촬영 장치의 라이브 뷰 표시 방법 KR20140091117A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130000328A KR20140091117A (ko) 2013-01-02 2013-01-02 촬영 장치 및 촬영 장치의 라이브 뷰 표시 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130000328A KR20140091117A (ko) 2013-01-02 2013-01-02 촬영 장치 및 촬영 장치의 라이브 뷰 표시 방법

Publications (1)

Publication Number Publication Date
KR20140091117A true KR20140091117A (ko) 2014-07-21

Family

ID=51738377

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130000328A KR20140091117A (ko) 2013-01-02 2013-01-02 촬영 장치 및 촬영 장치의 라이브 뷰 표시 방법

Country Status (1)

Country Link
KR (1) KR20140091117A (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016024755A1 (en) * 2014-08-14 2016-02-18 Samsung Electronics Co., Ltd. Image photographing apparatus, image photographing system for performing photographing by using multiple image photographing apparatuses, and image photographing methods thereof

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016024755A1 (en) * 2014-08-14 2016-02-18 Samsung Electronics Co., Ltd. Image photographing apparatus, image photographing system for performing photographing by using multiple image photographing apparatuses, and image photographing methods thereof
US9813629B2 (en) 2014-08-14 2017-11-07 Samsung Electronics Co., Ltd. Image photographing apparatus, image photographing system for performing photographing by using multiple image photographing apparatuses, and image photographing methods thereof

Similar Documents

Publication Publication Date Title
KR102338576B1 (ko) 이미지를 이용하여 획득된 깊이 정보의 속성에 따라 이미지와 연관하여 깊이 정보를 저장하는 전자 장치 및 전자 장치 제어 방법
KR102423175B1 (ko) 심도 맵을 이용하여 이미지를 편집하기 위한 장치 및 그에 관한 방법
KR102348504B1 (ko) 복수 개의 카메라들 간의 시차를 감소시키는 방법 및 이를 지원하는 전자 장치
RU2649773C2 (ru) Управление камерой посредством функции распознавания лица
US10158798B2 (en) Imaging apparatus and method of controlling the same
CN113132640B (zh) 图像呈现方法、图像获取设备及终端装置
CN107850753B (zh) 检测设备、检测方法、检测程序和成像设备
KR20190012465A (ko) 복수의 카메라를 이용하여 영상을 획득하기 위한 전자 장치 및 이를 이용한 영상 처리 방법
CN107040718B (zh) 显示控制装置及其控制方法
US9131157B2 (en) Camera and method of controlling operation of same
KR102382871B1 (ko) 렌즈의 포커스를 제어하기 위한 전자 장치 및 전자 장치 제어 방법
EP3259658B1 (en) Method and photographing apparatus for controlling function based on gesture of user
US9219859B2 (en) Camera assembly having a wide viewing angle and image acquisition method using the same
KR102593303B1 (ko) 전자 장치 및 전자 장치의 카메라 자동 초점 제어 방법
US20130120635A1 (en) Subject detecting method and apparatus, and digital photographing apparatus
US10477113B2 (en) Imaging device and control method therefor
US20150288949A1 (en) Image generating apparatus, imaging apparatus, and image generating method
KR20210089377A (ko) 카메라 프리뷰를 제공하는 전자 장치 및 그 방법
US11095824B2 (en) Imaging apparatus, and control method and control program therefor
CN105210362B (zh) 图像调整设备、图像调整方法和图像捕获设备
JP2016225799A (ja) 撮像装置、及び撮像装置の制御方法
KR102457559B1 (ko) 이미지에 포함된 오브젝트에 기반하여 이미지를 보정하기 위한 전자 장치 및 방법
KR20110090098A (ko) 디지털 영상 처리 장치 및 그 제어 방법
KR20140091117A (ko) 촬영 장치 및 촬영 장치의 라이브 뷰 표시 방법
KR20160011533A (ko) 이미지 촬영 장치, 이미지 촬영 방법 및 비일시적 기록매체

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application