KR20130111172A - Image pickup apparatus, method for image pickup and computer-readable recording medium - Google Patents

Image pickup apparatus, method for image pickup and computer-readable recording medium Download PDF

Info

Publication number
KR20130111172A
KR20130111172A KR1020120113798A KR20120113798A KR20130111172A KR 20130111172 A KR20130111172 A KR 20130111172A KR 1020120113798 A KR1020120113798 A KR 1020120113798A KR 20120113798 A KR20120113798 A KR 20120113798A KR 20130111172 A KR20130111172 A KR 20130111172A
Authority
KR
South Korea
Prior art keywords
pixel
imaging
pixel group
live view
image
Prior art date
Application number
KR1020120113798A
Other languages
Korean (ko)
Inventor
최동범
이용주
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to US13/853,538 priority Critical patent/US9191566B2/en
Publication of KR20130111172A publication Critical patent/KR20130111172A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)

Abstract

PURPOSE: Auto focusing information is precisely and quickly obtained. CONSTITUTION: A photographing unit has a first pixel group and a second pixel group. A control unit uses the first pixel group to photograph an object and controls the photographing unit to obtain a live view for the object by using the second pixel group (S1410). A storage unit stores photograph data taken with the first pixel group (S1430). An AF process unit produces AF information by using the live view obtained by the second pixel group. [Reference numerals] (AA) Start; (BB) End; (S1410) Photographing object and obtain live view; (S1430) Store photographed object data; (S1450) Display live view

Description

촬상장치, 촬상 방법 및 컴퓨터 판독가능 기록매체{IMAGE PICKUP APPARATUS, METHOD FOR IMAGE PICKUP AND COMPUTER-READABLE RECORDING MEDIUM}IMAGE PICKUP APPARATUS, METHOD FOR IMAGE PICKUP AND COMPUTER-READABLE RECORDING MEDIUM

본 발명은 촬상 장치, 촬상 방법 및 컴퓨터 판독가능 기록 매체에 관한 것으로, 특히 오토 포커싱 정보를 신속하고 정밀하게 획득할 수 있는 촬상장치, 촬상방법 및 컴퓨터 판독가능 기록매체에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an imaging apparatus, an imaging method, and a computer readable recording medium, and more particularly, to an imaging apparatus, an imaging method, and a computer readable recording medium capable of quickly and precisely obtaining auto focusing information.

최근 디지털 카메라는 사용자의 요구에 따라 크기의 감소 및 경량화를 추구함과 동시에 오토 포커싱(Auto Focusing)의 속도 및 정밀도를 높이기 위한 시도가 이루어지고 있다.Recently, digital cameras have been attempted to increase the speed and precision of auto focusing while pursuing size reduction and light weight according to user demand.

종래 카메라의 이미지 센서는 연속 촬영 시에, 피사체의 AF 정보를 정밀하게 얻을 수 없기 때문에, 매 촬영마다 정밀한 AF 정보 수집을 위해서 촬상 장치가 멈추어야 한다. 그리고, 단일 혹은 연속 촬상 동작 중에는 현재 피사체 정보를 얻을 수 없고, 표시할 수 없기 때문에, 디스플레이 동작이 멈출 수 밖에 없는 문제점 있다.Since the image sensor of the conventional camera cannot accurately obtain the AF information of the subject during continuous shooting, the imaging device must be stopped for accurate AF information collection every shooting. In addition, since the current subject information cannot be obtained and displayed during the single or continuous imaging operation, the display operation can only be stopped.

또한, 종래의 피사체의 AF 정보를 얻기 위해서는 이미지 센서의 일부 픽셀을 부분적으로 차광하는 차광수단을 포함하여, 위상차 정보를 획득함으로써 위상차 오토 포커싱 정보를 획득하는 방식이 제안되었으나, 이는 원본 이미지의 픽셀 정보 손실이 발생하는 문제점이 있었다.Also, in order to obtain AF information of a conventional subject, a method of acquiring phase difference autofocusing information by obtaining phase difference information has been proposed, including light blocking means for partially shielding some pixels of an image sensor. There was a problem that loss occurs.

따라서, 연속 촬상 동작 중에도 라이브 뷰 이미지를 디스플레이하면서도, 원본 이미지의 픽셀 손실 없이도 AF 정보를 획득할 수 있는 새로운 이미지 센서의 필요성이 요청되고 있다.Therefore, there is a need for a new image sensor capable of acquiring AF information without displaying pixels of the original image while displaying a live view image even during a continuous imaging operation.

상술한 필요성에 의해서 안출된 본 발명은 오토 포커싱 정보를 신속하고 정밀하게 획득할 수 있는 촬상장치, 촬상방법 및 컴퓨터 판독가능 기록매체를 제공하는 것을 목적으로 한다.SUMMARY OF THE INVENTION The present invention devised by the above-mentioned necessity aims to provide an image capturing apparatus, an image capturing method, and a computer readable recording medium capable of quickly and precisely obtaining auto focusing information.

상술한 목적을 달성하기 위한 본 발명에 따른 촬상장치는, 제1 화소 그룹 및 제2 화소 그룹으로 구분되는 촬상부, 상기 제1 화소 그룹을 이용하여 피사체를 촬상하고, 상기 제2 화소 그룹을 이용하여 상기 피사체에 대한 라이브 뷰를 획득하도록 상기 촬상부를 제어하는 제어부, 상기 제1 화소 그룹에 의해 촬상된 촬상 데이터를 저장하는 저장부 및 상기 제2 화소 그룹에 의해 획득된 라이브 뷰를 이용하여 AF 정보를 생성하는 AF 처리부를 포함한다.In accordance with another aspect of the present invention, an imaging device includes: an imaging unit divided into a first pixel group and a second pixel group, and an image of a subject by using the first pixel group, and using the second pixel group. The control unit to control the imaging unit to obtain a live view of the subject, the storage unit storing the imaging data captured by the first pixel group, and the AF information by using the live view acquired by the second pixel group. It includes an AF processing unit for generating a.

이 경우에, 상기 AF 처리부는, 상기 제2 화소 그룹에 의해 획득된 라이브 뷰에 대해 콘트라스트 오토 포커싱을 수행하여 AF 정보를 생성할 수 있다.In this case, the AF processing unit may generate AF information by performing contrast autofocusing on the live view obtained by the second pixel group.

한편, 본 발명의 촬상장치는, 상기 제2 화소 그룹이, 각 화소마다 차광수단을 더 구비하고, 상기 AF 처리부가, 상기 제2 화소 그룹에 의해 획득된 라이브 뷰에 대해 위상차 오토 포커싱을 수행하여 AF 정보를 생성할 수 있다.On the other hand, in the image pickup apparatus of the present invention, the second pixel group further includes light blocking means for each pixel, and the AF processing unit performs phase difference auto focusing on the live view obtained by the second pixel group. AF information can be generated.

한편, 본 발명의 촬상장치는, 연속 촬상 명령을 입력받기 위한 사용자 인터페이스부;를 더 포함하며, 상기 제어부는, 상기 연속 촬상 명령이 입력되면 기 설정된 시간 간격으로 상기 제1 화소 그룹을 이용하여 연속적으로 촬상을 수행하며, 연속 촬상이 이루어지는 동안에도 상기 제2 화소 그룹을 이용하여 상기 라이브 뷰를 지속적으로 획득하도록 상기 촬상부를 제어할 수 있다.On the other hand, the imaging apparatus of the present invention further comprises a user interface unit for receiving a continuous imaging command, the control unit, if the continuous imaging command is input using the first pixel group at a predetermined time interval continuous The imaging unit may be configured to control the imaging unit to continuously acquire the live view using the second pixel group even during continuous imaging.

이 경우에, 상기 제어부는, 각 촬상이 개시되는 시점에 획득된 라이브 뷰에 대해 상기 AF 처리부에 의해 생성한 AF 정보를 이용하여, 각 촬상 시점의 포커스를 조절하도록 상기 촬상부를 제어할 수 있다.In this case, the controller may control the image capturing unit to adjust the focus at each image capturing time point by using the AF information generated by the AF processing unit with respect to the live view obtained at the time point at which each image capturing starts.

한편, 상기 제1 화소 그룹은 복수의 열 및 복수의 행으로 이루어진 매트릭스 형태로 배열된 복수의 제1 화소를 포함하고, 상기 제2 화소 그룹은 각 제1 화소에 매칭되도록 배열된 복수의 제2 화소를 포함할 수 있다.Meanwhile, the first pixel group includes a plurality of first pixels arranged in a matrix form of a plurality of columns and a plurality of rows, and the second pixel group includes a plurality of second pixels arranged to match each first pixel. It may include a pixel.

이 경우에, 상기 복수의 제2 화소 중 일부는 입사광을 부분적으로 차단하는 차광수단을 구비할 수 있다.In this case, some of the plurality of second pixels may include light blocking means for partially blocking incident light.

한편, 상기 제1 화소의 크기는 상기 제2 화소의 크기보다 크며, 상기 제1 화소의 개수는 상기 제2 화소의 개수 이상일 수 있다.The size of the first pixel may be larger than that of the second pixel, and the number of the first pixels may be equal to or greater than the number of the second pixels.

한편, 상기 라이브 뷰를 지속적으로 디스플레이하는 디스플레이부를 더 포함할 수 있다.The display unit may further include a display unit for continuously displaying the live view.

본 발명의 다른 실시 예에 따른 촬상부를 포함하는 촬상 장치의 촬상 방법은, 상기 촬상부에 구비된 제1 화소 그룹을 이용하여 피사체를 촬상하고, 상기 촬상부에 구비된 제2 화소 그룹을 이용하여 상기 피사체에 대한 라이브 뷰를 획득하는 단계, 상기 제1 화소 그룹에 의해 촬상된 촬상 데이터를 저장하는 단계 및 상기 제2 화소 그룹에 의해 획득된 라이브 뷰를 디스플레이하는 단계를 포함한다.In an imaging method of an imaging apparatus including an imaging unit according to another exemplary embodiment of the present disclosure, an image is captured by a first pixel group provided in the imaging unit, and a second pixel group provided in the imaging unit is used. Acquiring a live view of the subject, storing image data captured by the first pixel group, and displaying a live view acquired by the second pixel group.

이 경우에, 상기 라이브 뷰에 대해 콘트라스트 오토 포커싱을 수행하여 AF 정보를 생성하는 단계를 더 포함한다.In this case, the method further includes performing contrast auto focusing on the live view to generate AF information.

한편, 본 발명의 촬상 방법은, 상기 라이브 뷰에 대해 위상차 오토 포커싱을 수행하여 AF 정보를 생성하는 단계를 더 포함한다.Meanwhile, the imaging method of the present invention further includes generating AF information by performing phase difference auto focusing on the live view.

한편, 연속 촬상이 이루어지는 경우, 각 촬상이 개시되는 시점에 획득된 라이브 뷰에 대해 콘트라스트 오토 포커싱을 수행하여 AF 정보를 생성하는 단계 및 각 촬상 시점마다 생성된 AF 정보를 이용하여 포커스를 조정하는 단계를 더 포함한다.On the other hand, when continuous imaging is performed, generating autofocus information by performing contrast autofocusing on the live view obtained at the start of each imaging, and adjusting the focus by using the generated AF information for each imaging time point. It further includes.

한편, 본 발명의 촬상 방법은, 연속 촬상이 이루어지는 경우, 각 촬상이 개시되는 시점에 획득된 라이브 뷰에 대해 위상차 오토 포커싱을 수행하여 AF 정보를 생성하는 단계 및 각 촬상 시점마다 생성된 AF 정보를 이용하여 포커스를 조정하는 단계를 더 포함한다.On the other hand, in the imaging method of the present invention, when continuous imaging is performed, a step of generating AF information by performing phase difference autofocusing on the live view acquired at the start of each imaging, and generating the AF information at each imaging time point. And adjusting the focus using.

한편, 상기 제1 화소 그룹은 복수의 열 및 복수의 행으로 이루어진 매트릭스 형태로 배열된 복수의 제1 화소를 포함하고, 상기 제2 화소 그룹은 각 제1 화소에 매칭되도록 배열된 복수의 제2 화소를 포함한다.Meanwhile, the first pixel group includes a plurality of first pixels arranged in a matrix form of a plurality of columns and a plurality of rows, and the second pixel group includes a plurality of second pixels arranged to match each first pixel. It includes a pixel.

이 경우에, 상기 제1 화소의 크기는 상기 제2 화소의 크기보다 크며, 상기 제1 화소의 개수는 상기 제2 화소의 개수 이상일 수 있다.In this case, the size of the first pixel may be larger than the size of the second pixel, and the number of the first pixels may be equal to or greater than the number of the second pixels.

본 발명의 또 다른 실시 예에 따른 촬상방법을 실행하기 위한 프로그램을 포함하는 컴퓨터 판독가능 기록매체는, 상기 촬상방법이, 상기 촬상부에 구비된 제1 화소 그룹을 이용하여 피사체를 촬상하고, 상기 촬상부에 구비된 제2 화소 그룹을 이용하여 상기 피사체에 대한 라이브 뷰를 획득하는 단계, 상기 제1 화소 그룹에 의해 촬상된 촬상 데이터를 저장하는 단계 및 상기 제2 화소 그룹에 의해 획득된 라이브 뷰를 디스플레이하는 단계를 포함한다.In a computer-readable recording medium including a program for executing an image pickup method according to another embodiment of the present invention, the image pickup method includes: capturing a subject by using a first pixel group provided in the image pickup unit; Acquiring a live view of the subject by using a second pixel group provided in the image capturing unit, storing image data captured by the first pixel group, and live view obtained by the second pixel group Displaying the step.

도 1은 본 발명의 실시 예에 따른 촬상장치의 블럭도,
도 2는 본 발명의 실시 예에 따른 촬상장치의 보다 구체적인 구성을 나타내는 블럭도,
도 3은 도 2의 촬상부 및 제어부의 구체적인 구성을 도시한 도면,
도 4는 본 발명의 일 실시 예에 따른 촬상부를 구체적으로 설명하기 위한 도면,
도 5는 본 발명의 일 실시 예에 따른 촬상부를 구성하는 화소에 포함된 차광수단의 일 예를 설명하기 위한 도면,
도 6은 본 발명의 일 실시 예에 따른 촬상부를 구성하는 화소에 포함된 차광수단의 다른 예를 설명하기 위한 도면,
도 7은 본 발명의 일 실시 예에 따른 촬상부를 구성하는 화소에 포함된 차광수단의 또 다른 예를 설명하기 위한 도면,
도 8은 본 발명의 일 실시 예에 따른 촬상 소자의 보다 구체적인 구성을 설명하기 위한 도면,
도 9는 본 발명의 다른 실시 예에 따른 촬상부를 구성하는 메인 화소 및 서브 화소를 구체적으로 설명하기 위한 도면,
도 10은 본 발명의 다른 실시 예에 따른 정지 이미지와 라이브 뷰 이미지를 동시에 디스플레이하는 것을 설명하기 위한 개념도,
도 11은 본 발명의 일 실시 예에 따른 정지 이미지와 라이브 뷰 이미지를 동시에 디스플레이하는 것을 설명하기 위한 개념도,
도 12는 본 발명의 다른 실시 예에 따른 촬상 장치를 설명하기 위한 블럭도,
도 13은 도 2의 촬상부의 회로 구성을 설명하기 위한 도면, 그리고
도 14는 본 발명의 또 다른 실시예에 따른 촬상 장치의 촬상 방법을 설명하기 위한 흐름도이다.
1 is a block diagram of an image pickup apparatus according to an embodiment of the present invention;
2 is a block diagram showing a more specific configuration of an imaging device according to an embodiment of the present invention;
FIG. 3 is a diagram illustrating a detailed configuration of the imaging unit and the control unit of FIG. 2;
4 is a view for explaining in detail the imaging unit according to an embodiment of the present invention;
5 is a view for explaining an example of light blocking means included in a pixel constituting an image pickup unit according to an embodiment of the present disclosure;
6 is a view for explaining another example of light blocking means included in a pixel constituting an imaging unit according to an embodiment of the present disclosure;
7 is a view for explaining another example of light blocking means included in a pixel constituting an imaging unit according to an embodiment of the present disclosure;
8 is a view for explaining a more specific configuration of the image pickup device according to an embodiment of the present invention;
9 is a diagram for describing in detail a main pixel and a sub pixel constituting an image capturing unit according to another exemplary embodiment;
FIG. 10 is a conceptual diagram illustrating simultaneous display of a still image and a live view image according to another exemplary embodiment of the present disclosure; FIG.
FIG. 11 is a conceptual diagram illustrating simultaneous display of a still image and a live view image according to an embodiment of the present disclosure; FIG.
12 is a block diagram illustrating an image capturing apparatus according to another embodiment of the present invention;
FIG. 13 is a diagram for explaining a circuit configuration of an image capturing unit in FIG. 2; and
14 is a flowchart illustrating an image capturing method of an image capturing apparatus according to still another embodiment of the present invention.

이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다.Hereinafter, with reference to the drawings will be described the present invention in more detail.

도 1은 본 발명의 실시 예에 따른 촬상장치의 블럭도이다.1 is a block diagram of an image capturing apparatus according to an exemplary embodiment of the present invention.

도 1을 참조하면, 도 1은 본 발명의 일 실시예에 따른 촬상장치의 블럭도이다.Referring to FIG. 1, FIG. 1 is a block diagram of an image pickup apparatus according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 촬상 장치(100)는 촬상부(110), 제어부(130), 저장부(150) 및 AF 처리부(170)를 포함한다. Referring to FIG. 1, the imaging apparatus 100 according to an exemplary embodiment of the present invention includes an imaging unit 110, a controller 130, a storage unit 150, and an AF processing unit 170.

촬상부(110)는 제1 화소 그룹 및 제2 화소 그룹으로 구분된다.The imaging unit 110 is divided into a first pixel group and a second pixel group.

제어부(130)는 제1 화소 그룹을 이용하여 피사체를 촬상하고, 제2 화소 그룹을 이용하여 피사체에 대한 라이브 뷰를 획득하도록 촬상부(110)를 제어한다.The controller 130 controls the imaging unit 110 to photograph the subject using the first pixel group and to acquire a live view of the subject using the second pixel group.

저장부(150)는 제1 화소 그룹에 의해 촬상된 촬상 데이터를 저장한다.The storage unit 150 stores the captured image data captured by the first pixel group.

AF 처리부(170)는 제2 화소 그룹에 의해 획득된 라이브 뷰의 화소 값으로부터 AF 정보를 생성한다.The AF processor 170 generates AF information from pixel values of the live view obtained by the second pixel group.

구체적으로, 제2 화소 그룹은 각 화소마다 차광수단을 더 구비할 수 있다. AF 처리부(170)는, 제2 화소 그룹에 의해 획득된 라이브 뷰에 대해 위상차 오토 포커싱을 수행하여 AF 정보를 생성할 수 있다.In detail, the second pixel group may further include light blocking means for each pixel. The AF processor 170 may generate AF information by performing phase difference auto focusing on the live view obtained by the second pixel group.

AF 처리부(170)는, 제2 화소 그룹에 의해 획득된 라이브 뷰에 대해 콘트라스트 오토 포커싱을 수행하여 AF 정보를 생성할 수 있다.The AF processor 170 may generate AF information by performing contrast autofocusing on the live view obtained by the second pixel group.

도 2는 본 발명의 실시 예에 따른 촬상장치의 구성을 나타내는 블럭도이다.2 is a block diagram showing a configuration of an image capturing apparatus according to an exemplary embodiment of the present invention.

도 2를 참조하면, 본 실시 예에 따른 촬상장치(100)는 촬상부(110), 사용자 인터페이스부(120), 제어부(130), 통신 인터페이스부(140), 저장부(150), 디스플레이부(160) 및 AF 처리부(170)를 포함한다. Referring to FIG. 2, the imaging apparatus 100 according to the present exemplary embodiment includes an imaging unit 110, a user interface unit 120, a controller 130, a communication interface unit 140, a storage unit 150, and a display unit. 160 and the AF processing unit 170.

본 실시 예에 따른 촬상장치(100)는 이미지를 촬상할 수 있는 디지털 카메라, 캠코더, 휴대폰, 스마트폰, 타블릿 PC, PMP, 웹캠, 블랙박스 등일 수 있다. The imaging apparatus 100 according to the present embodiment may be a digital camera, a camcorder, a mobile phone, a smartphone, a tablet PC, a PMP, a webcam, a black box, or the like capable of capturing an image.

통신 인터페이스부(140)는 적어도 하나의 단말 장치(미도시)와 연결하기 위해 형성되며, 근거리 통신망(LAN: Local Area Network) 및 인터넷 망을 통해 무선 또는 유선 방식으로 단말장치에 접속되는 형태뿐만 아니라, USB(universal Serial Bus) 포트, 블루투스(bluetooth) 모듈을 통하여 접속되는 형태도 가능하다. The communication interface 140 is formed to connect to at least one terminal device (not shown), and is connected to the terminal device in a wireless or wired manner through a local area network (LAN) and an internet network. It is also possible to connect via a universal serial bus (USB) port or a Bluetooth module.

그리고 통신 인터페이스부(140)는 촬상장치(100)가 저장하는 컨텐츠를 외부의 단말장치(미도시)로 전송한다. 구체적으로, 통신 인터페이스부(140)는 후술할 저장부(150)에 저장된 이미지 파일을 외부의 단말장치(미도시) 또는 서버로 전송할 수 있다. 여기서 컨텐츠는 촬상장치(100)가 생성할 수 있는 이미지 컨텐츠, 동영상 컨텐츠 등일 수 있다. The communication interface 140 transmits the content stored by the image capturing apparatus 100 to an external terminal device (not shown). In detail, the communication interface 140 may transmit an image file stored in the storage 150 to be described later to an external terminal device (not shown) or a server. The content may be image content, video content, etc. that the imaging apparatus 100 can generate.

사용자 인터페이스부(120)는 촬상장치(100)에서 지원하는 각종 기능을 사용자 설정 또는 선택할 수 있는 다수의 기능키를 구비하며, 촬상장치(100)에서 제공하는 각종 정보를 표시할 수 있다. 사용자 인터페이스부(120)는 터치패드와 같이 입력과 출력이 동시에 구현되는 장치로 구현될 수 있고, 다수의 버튼과 같은 입력구성과 LCD, OLED 등과 같은 표시 구성을 결합하여 구현될 수 있다. The user interface 120 may include a plurality of function keys for user setting or selecting various functions supported by the imaging apparatus 100, and may display various information provided by the imaging apparatus 100. The user interface unit 120 may be implemented as a device in which an input and an output are simultaneously implemented, such as a touch pad, and may be implemented by combining an input configuration such as a plurality of buttons and a display configuration such as an LCD and an OLED.

사용자 인터페이스부(120)는 촬상 명령(또는 셔터 명령) 등과 같은 각종 제어 명령을 입력받는다. 그리고 사용자 인터페이스부(120)는 촬상과 관련된 설정을 입력받는다. 구체적으로, 사용자 인터페이스부(120)는 촬상된 이미지를 어떠한 파일 포맷으로 저장할 것인지, 촬상 이미지의 해상도, 디지털 줌 여부, AWB, AF, AE 등의 설정을 입력받을 수 있다. The user interface 120 receives various control commands such as an imaging command (or shutter command). The user interface 120 receives a setting related to imaging. In detail, the user interface 120 may receive a setting such as a file format in which the captured image is to be stored, a resolution of the captured image, whether digital zoom, AWB, AF, AE, and the like.

그리고 사용자 인터페이스부(120)는 촬상된 이미지를 표시할 수 있다. 구체적으로, 사용자 인터페이스부(120)는 사용자의 촬상 명령에 따라 촬상된 이미지를 표시할 수 있다. The user interface 120 may display the captured image. In detail, the user interface 120 may display an image captured by a user's imaging command.

그리고 사용자 인터페이스부(120)는 사용자의 재생 명령에 따라, 저장부(150)에 저장된 각종 컨텐츠를 표시할 수 있다. 여기서 컨텐츠는 이미지 컨텐츠, 동영상 컨텐츠 등일 수 있다. 예를 들어, 촬상장치(100)가 동영상 촬영이 가능한 경우, 사용자 인터페이스부(120)는 저장부(150)에 기저장된 동영상 컨텐츠를 재생할 수 있다. The user interface 120 may display various contents stored in the storage 150 according to a user's playback command. The content may be image content, video content, or the like. For example, when the image capturing apparatus 100 is capable of capturing a video, the user interface 120 may play the video content previously stored in the storage 150.

저장부(150)는 촬상부(110)에 의해서 독취된 화소값을 화소 그룹별로 순차적으로 저장한다. 구체적으로, 저장부(150)는 후술할 촬상부(110)에서 전송된 데이터(제1 화소 그룹 및 제2 화소 그룹의 화소 값)를 순차적으로 저장할 수 있다. 이때, 전송되는 데이터는 압축 데이터일 수 있다. The storage unit 150 sequentially stores pixel values read by the imaging unit 110 for each pixel group. In detail, the storage unit 150 may sequentially store data (pixel values of the first pixel group and the second pixel group) transmitted from the imaging unit 110, which will be described later. In this case, the transmitted data may be compressed data.

그리고 저장부(150)는 생성된 이미지를 저장한다. 구체적으로, 저장부(150)는 후술할 이미지 처리부에서 생성한 이미지 및 보정된 이미지를 저장할 수 있다. The storage unit 150 stores the generated image. In detail, the storage unit 150 may store an image generated by the image processor to be described later and a corrected image.

이러한 저장부(150)는 촬상장치(100) 내의 저장매체 및 외부 저장매체, 예를 들어, USB 메모리, 플레쉬 메모리 등을 포함한 Remobable Disk, 촬상장치에 연결된 저장매체, 네트워크를 통한 웹 서버(web server) 등으로 구현될 수 있으며, 고속 저장을 위한 휘발성 메모리(예를 들어, DDR)를 포함한다. 구체적으로, 촬상부(110)에서 전송되는 화소 값은 고속 처리를 위하여 휘발성 메모리에 임시 저장될 수 있다. The storage unit 150 may include a storage medium and an external storage medium in the imaging apparatus 100, for example, a removable disk including a USB memory, a flash memory, a storage medium connected to the imaging apparatus, a web server through a network. ), And includes volatile memory (eg, DDR) for high speed storage. In detail, the pixel value transmitted from the imaging unit 110 may be temporarily stored in the volatile memory for high speed processing.

촬상부(110)는 제1 화소 그룹과 제2 화소 그룹으로 물리적으로 구분되고, 매트릭스 형태로 배열되는 복수의 제1 화소 그룹 및 제2 화소 그룹을 이용하여 피사체의 이미지를 획득하는 촬상 소자를 포함한다. 구체적으로, 촬상부(110)는 피사체의 빛을 모아서 촬상 영역에 광학상이 맺히게 하는 렌즈, 렌즈를 통해 입사되는 빛을 전기 신호로 광전 변환하는 촬상 소자 및 촬상 소자의 아날로그 형태의 신호를 디지털 신호로 변환하여 출력하는 AD 컨버터로 구성될 수 있다. 이때, 촬상 소자는 CCD(Charge Coupled Device) 촬상 소자 및 CMOS(Complementary Metal Oxide Semiconductor) 촬상 소자일 수 있다. 촬상부(110)의 구체적인 구성 및 동작에 대해서는 도 3을 참조하여 후술한다. The imaging unit 110 includes an imaging device that is physically divided into a first pixel group and a second pixel group, and acquires an image of a subject using a plurality of first pixel groups and a second pixel group arranged in a matrix form. do. In detail, the imaging unit 110 collects the light of the subject to form an optical image in the imaging area, an imaging device for photoelectric conversion of light incident through the lens into an electrical signal, and an analog signal of the imaging device as a digital signal. It can be configured as an AD converter that converts and outputs. At this time, the image pickup element may be a CCD (Charge Coupled Device) image pickup element and a CMOS (Complementary Metal Oxide Semiconductor) image pickup element. A detailed configuration and operation of the imaging unit 110 will be described later with reference to FIG. 3.

이미지 처리부(미도시)는 이미지를 생성한다. 구체적으로, 이미지 처리부는 저장부(150)에 화소 그룹별로 저장된 화소 값을 병합하여 하나의 이미지를 생성할 수 있다. 그리고 저장부(150)에 저장된 화소 값이 압축된 데이터인 경우, 이미지 처리부는 압축 데이터를 화소 값으로 복원하고, 복원된 화소 값을 이용하여 하나의 이미지를 생성할 수 있다. The image processor (not shown) generates an image. In detail, the image processor may generate one image by merging pixel values stored for each pixel group in the storage 150. If the pixel value stored in the storage unit 150 is compressed data, the image processor may restore the compressed data to the pixel value and generate one image using the restored pixel value.

그리고 이미지 처리부는 생성된 이미지에 대해서 포맷 변환과 영상 스케일을 조정하기 위한 디지털 줌, AWB(Auto White Balance), AF(Auto Focus), AE(Auto Exposure) 등의 신호 처리를 수행할 수 있다. 한편, 본 실시 예에서는 음성 신호를 수신하는 내용에 대해서 설명하지 않았지만, 이미지 처리부는 별도의 내부의 마이크 또는 외부의 마이크를 통하여 청취된 음성 신호와 촬상된 복수의 이미지를 결합하여 동영상 파일을 생성하고, 생성한 동영상 파일을 저장부(150)에 저장할 수 있다.The image processor may perform signal processing such as digital zoom, auto white balance (AWB), auto focus (AF), auto exposure (AE), etc., to adjust format conversion and image scale of the generated image. Meanwhile, in the present embodiment, the contents of receiving a voice signal have not been described. However, the image processor generates a video file by combining a plurality of images captured with a voice signal received through a separate internal microphone or an external microphone. The generated video file may be stored in the storage 150.

디스플레이부(160)는 촬상부(110)에 의해서 촬상된 이미지를 표시한다. 디스플레이부(160)는 상술한 사용자 인터페이스부(120)와 통합적으로 구현될 수 있다. 또는 디스플레이부(160)는 사용자 인터페이스부(120)와 동일한 기술을 수행하는 별도의 터치패널로 구현될 수 있다.The display unit 160 displays an image captured by the imaging unit 110. The display 160 may be integrally implemented with the user interface 120 described above. Alternatively, the display 160 may be implemented as a separate touch panel that performs the same technology as the user interface 120.

본 발명의 일 실시 예에 따르면, 디스플레이부(160)는 촬상부(110)의 제2 화소 그룹으로부터 획득한 이미지를 라이브 뷰 이미지로 표시한다. 즉, 디스플레이부(160)는 촬상하려는 대상 이미지를 라이브 뷰 이미지로 연속적으로 디스플레이한다. 이렇게 디스플레이부(160)에 표시되는 라이브 뷰 이미지는 사용자의 촬상 명령에 따라 정지 이미지 또는 동영상 이미지로 획득되서, 저장부(150)에 저장된다.According to an exemplary embodiment, the display 160 displays an image acquired from the second pixel group of the image capturing unit 110 as a live view image. That is, the display 160 continuously displays the target image to be captured as a live view image. The live view image displayed on the display unit 160 is obtained as a still image or a moving image image according to a user's imaging command, and is stored in the storage unit 150.

AF 처리부(170)는 촬상부(110)에 의해서 얻어진 화소 값을 이용하여 이미지의 오토 포커싱 처리를 수행한다. 가령, 위상차 AF 방식은 렌즈(114)를 통과한 광속을 초점면의 후방에서 둘로 분할하여 각각 다른 라인 센서에 결상시키면 두 피사체상(위상)의 간격이 초점 위치에 따라 변화하는 특성을 이용하여 핀트를 조절하는 방식이다. 즉, 초점이 맞는 위치를 기준으로 전핀의 경우에는 두 피사체상의 간격이 좁고, 후핀의 경우에는 두 피사체상의 간격이 넓어지는 특성에 따라 초점을 맞추게 된다. 이러한 위상차 AF 방식은 피사체상(위상)의 간격에 따라 포커스링을 어느 방향으로 움직일지를 순간적으로 판단할 수 있으므로 AF 속도를 고속화시킨다.The AF processor 170 performs an auto focusing process on the image by using the pixel value obtained by the imaging unit 110. For example, in the phase difference AF method, when the light beam passing through the lens 114 is divided into two at the rear of the focal plane and formed into a different line sensor, the focus of the two subjects (phase) changes depending on the focus position. It is a way to control. That is, the distance between the two subjects is narrow in the case of the front pin and the distance of the distance between the two subjects in the case of the rear pin is focused according to the focusing position. This phase difference AF method speeds up the AF speed since it is possible to instantly determine in which direction the focus ring is to be moved according to the distance between the phases (phases) on the subject.

위상차 오토 포커싱 방식에 의할 경우, AF 처리부(170)는 촬상부(110)의 제2 화소 그룹에 의해서 독취된 화소 값에 포함된 위상차 정보를 이용하여 핀트를 맞춘다. 구체적으로, 위상차 AF 처리부(170)는 제2 화소 그룹에 의해서 독취되는 라이브 뷰 이미지를 분석한다. 위상차 AF 처리부(170)는 표시되는 라이브 뷰 이미지의 매 프레임마다 라이브 뷰 이미지에 포함된 위상차 정보를 분석해서 위상차 오토 포커싱 정보를 추출해서 제어부(130)로 전달한다.According to the phase difference auto focusing method, the AF processing unit 170 focuses using the phase difference information included in the pixel value read by the second pixel group of the imaging unit 110. In detail, the phase difference AF processor 170 analyzes the live view image read by the second pixel group. The phase difference AF processor 170 analyzes phase difference information included in the live view image every frame of the displayed live view image, extracts the phase difference auto focusing information, and transmits the phase difference auto focusing information to the controller 130.

콘트라스트 오토 포커싱 방식에 의할 경우, AF 처리부(170)는 촬상부(110)에 의해서 얻어진 화소 값을 이용하여 피사체의 초점을 자동으로 포커싱하는 기능을 수행한다. AF 처리부(170)는 콘트라스트 오토 포커싱 방식을 적용한다. 즉, 콘트라스트 AF 방식은 렌즈를 이동시키면서 콘트라스트값의 특성에 따라 포커스가 가장 잘 맞는 렌즈 위치로 포커스 렌즈를 이동시킨다. 포커스렌즈를 움직여 가면서 촬상부(110)의 제2 화소 그룹으로부터 독취된 화소 값의 콘트라스트값을 전기신호로 변환하고, 그 파형을 해석해서 포커스가 가장 잘 맞는 렌즈위치에 포커스렌즈를 맞추어 피사체의 핀트를 맞춘다.According to the contrast auto focusing method, the AF processing unit 170 performs a function of automatically focusing the focus of the subject using the pixel value obtained by the imaging unit 110. The AF processing unit 170 applies a contrast auto focusing method. That is, the contrast AF method moves the focus lens to the lens position where the focus is best according to the characteristics of the contrast value while moving the lens. By moving the focus lens, the contrast value of the pixel value read out from the second pixel group of the imaging unit 110 is converted into an electric signal, and the waveform is interpreted to adjust the focus lens to the lens position that best focuses and focus on the subject. To match.

AF 처리부(170)는 촬상부(110)로부터 획득한 라이브 뷰 이미지를 구성하는 화소 값으로부터 콘트라스트값을 추출하고, 추출한 콘트라스트 값을 비교하여 포커스가 가장 잘 맞는 지점을 해당 피사체의 초점으로 판단한다. AF 처리부(170)는 초점 정보를 제어부(130)에 전달한다. The AF processor 170 extracts a contrast value from the pixel values constituting the live view image acquired from the image capturing unit 110, and compares the extracted contrast value to determine a point that best focuses as the focus of the subject. The AF processor 170 transfers the focus information to the controller 130.

제어부(130)는 촬상장치(100) 내의 각 구성을 제어할 수 있다. 구체적으로, 제어부(130)는 촬상 명령이 입력되면, 화소의 노광을 개시하는 제1 리셋 신호 및 제2 리셋 신호가 촬상 소자의 제1 화소 그룹 및 제2 화소 그룹에 각각 순차적으로 주사되도록 한다. 그리고 제어부(130)는 사용자에 의해서 독취 명령이 입력되면, 입력 시점에 라이브 뷰 이미지 정보에 포함된 위상차 오토 포커싱 정보를 추출하고, 입력 시점에 피사체의 초점을 조절하며, 제1 화소 그룹에 대한 독취 작업이 수행되도록 할 수 있다. The controller 130 may control each component in the image capturing apparatus 100. Specifically, when the imaging command is input, the controller 130 sequentially scans the first reset signal and the second reset signal for initiating exposure of the pixels to the first pixel group and the second pixel group of the imaging device, respectively. When the read command is input by the user, the controller 130 extracts phase difference auto focusing information included in the live view image information at the input time point, adjusts the focus of the subject at the input time point, and reads the first pixel group. You can let work be done.

그리고 제어부(130)는 촬상 과정 중에 저장부(150)가 촬상부(110)에서 전송되는 데이터 저장 동작만을 수행하도록 제어할 수 있다. In addition, the controller 130 may control the storage 150 to perform only a data storage operation transmitted from the imaging unit 110 during the imaging process.

그리고 제어부(130)는 촬상부(110)의 촬상 동작이 계속되는 중, 사용자 인터페이스부(120) 또는 디스플레이부(160)를 통해서 라이브 뷰 이미지를 표시하도록 제어할 수 있다. 이와 동시에 저장부(150)에 촬상된 이미지를 압축해서 저장하거나 저장된 화소 그룹별 화소 값을 이용하여 이미지를 생성하도록 이미지 처리부를 제어할 수 있다. The controller 130 may control to display the live view image through the user interface 120 or the display 160 while the imaging operation of the imaging unit 110 is continued. At the same time, the image processor may be controlled to compress and store the image captured by the storage unit 150 or to generate an image by using the stored pixel value of each pixel group.

이상과 같이 본 실시 예에 따른 촬상장치(100)는 종래의 촬상 장치와 비교해서, 디스플레이부(160)를 통해서 라이브 뷰 이미지를 계속적으로 표시하고, 라이브 뷰 이미지로부터 위상차 정보를 추출하여 자동 포커싱을 수행하며, 사용자의 촬상 동작에 따라 정지 이미지 또는 동영상 이미지를 독취한다. 이렇게 라이브 뷰 이미지 표시와 함께 자동 오토 포커싱 동작 및 정지 이미지 촬상이 동시에 처리됨으로써, AF 처리를 위해서 정지 이미지를 촬상하는 것을 정지하지 않아도 되며, 라이브 뷰 이미지를 기초로 하여 위상차 오토 포커싱을 매 프레임마다 진행하므로 오토 포커싱된 정지 이미지를 신속하게 촬상할 수 있는 효과를 발휘한다.As described above, the image capturing apparatus 100 according to the present exemplary embodiment continuously displays the live view image through the display unit 160, extracts phase difference information from the live view image, and performs automatic focusing as compared with the conventional image capturing apparatus. And reads a still image or a moving image in accordance with a user's imaging operation. The automatic auto focusing operation and the still image capturing are simultaneously processed together with the live view image display, thereby eliminating the need to stop capturing still images for AF processing, and perform phase difference auto focusing every frame based on the live view image. As a result, it is possible to quickly capture an autofocused still image.

또한, 본 실시 예에 따른 촬상장치(100)는 라이브 뷰 이미지를 연속적으로 표시하면서도 위상차 오토 포커싱 처리에 의해서 촬상된 이미지의 초점을 맞출 수 있고, 촬상된 이미지를 저장할 수 있다.In addition, the imaging apparatus 100 according to the present exemplary embodiment may focus the captured image by the phase difference auto focusing process while continuously displaying the live view image, and may store the captured image.

한편, 도 1을 설명함에 있어서, 이미지 처리부는 도시하지 않았지만, 제어부(130)와는 별도의 구성으로 구성될 수 있거나, 이미지 처리부의 기능과 제어부(130) 기능을 하나의 구성(예를 들어, 시스템온칩(SOC, System On a Chip)으로 구현할 수 있다. 이에 대해서는 도 2를 참조하여 이하에서 설명한다.1, the image processor may be configured in a separate configuration from the controller 130, or may include a function of the image processor and the controller 130 in one configuration (for example, a system). It can be implemented as a System On a Chip (SOC), which will be described below with reference to FIG.

도 3은 도 2의 촬상부 및 제어부의 구체적인 구성을 도시한 도면이다.FIG. 3 is a diagram illustrating a detailed configuration of the imaging unit and the control unit of FIG. 2.

도 3을 참조하면, 촬상부(110)는 촬상 소자(111), 타이밍 생성부(112), 고속 시리얼(113), 렌즈(114)로 구성될 수 있다. 제어부(130)는 전 처리기(131), 버스(132), 이미지 처리부(133), 메모리 컨트롤러(134), 코덱(135), 정류 프로세서(136), 디스플레이 프로세서(137) 및 CPU(138)를 포함한다. Referring to FIG. 3, the imaging unit 110 may include an imaging device 111, a timing generator 112, a high speed serial 113, and a lens 114. The controller 130 controls the preprocessor 131, the bus 132, the image processor 133, the memory controller 134, the codec 135, the rectifier processor 136, the display processor 137, and the CPU 138. Include.

먼저, 촬상부(110)에 대해서 구체적으로 살펴보면 다음과 같다. 촬상부(110)의 촬상 소자(111)는 복수의 제1 화소 그룹 및 제2 화소 그룹으로 구분되고, 각 화소 그룹은 매트릭스 형태로 배열되며, 복수의 제1 화소 그룹과 제2 화소 그룹의 복수의 화소를 이용하여 렌즈(114)를 통해 입사되는 빛을 전기 신호로 광전 변환한다. 그리고 촬상 소자(111)는 광전 변환된 아날로그 형태의 신호를 디지털 신호로 변환할 수 있다. 이러한 촬상 소자(111)는 CCD(Charge Coupled Device) 촬상 소자 및 CMOS(Complementary Metal Oxide Semiconductor) 촬상 소자일 수 있다. 촬상 소자(111)의 구체적인 형상 및 동작에 대해서는 도 3을 참조하여 후술한다. First, the imaging unit 110 will be described in detail. The imaging device 111 of the imaging unit 110 is divided into a plurality of first pixel groups and a second pixel group, each pixel group is arranged in a matrix form, and a plurality of first pixel groups and second pixel groups are provided. Photoelectric conversion of light incident through the lens 114 into an electrical signal is performed by using a pixel of. In addition, the imaging device 111 may convert the photoelectrically converted analog signal into a digital signal. The imaging device 111 may be a charge coupled device (CCD) imaging device and a complementary metal oxide semiconductor (CMOS) imaging device. The specific shape and operation of the imaging device 111 will be described later with reference to FIG. 3.

타이밍 생성부(112)는 촬상 소자(111)의 촬상 동작을 제어한다. 구체적으로, 타이밍 생성부(112)는 화소의 노광을 개시하는 리셋 신호 및 광전 변환된 전기 신호의 독취 시점을 제어하기 위한 제어 신호를 생성하고, 생성된 리셋 신호 및 제어 신호를 촬상 소자(111)에 제공할 수 있다. 타이밍 생성부(112)에서 생성되는 리셋 신호 및 제어 신호의 시점에 대해서는 도 4를 참조하여 후술한다. The timing generator 112 controls the imaging operation of the imaging device 111. Specifically, the timing generator 112 generates a control signal for controlling the read point of the reset signal and the photoelectrically converted electric signal for starting the exposure of the pixel, and generates the generated reset signal and the control signal by the imaging device 111. Can be provided to The timings of the reset signal and the control signal generated by the timing generator 112 will be described later with reference to FIG. 4.

고속 시리얼(113)은 서브 LVDS(sub-Low Voltage Differential Signaling) 방식에 따라 24비트 RGB(Red/Green/Blue) 색상 데이터를 전송할 수 있다. 즉, 고속 시리얼(113)은 촬상된 화소 값을 제어부(130)로 전송할 수 있다. The high speed serial 113 may transmit 24-bit RGB (red / green / blue) color data according to a sub-low voltage differential signaling (LVDS) scheme. That is, the high speed serial 113 may transmit the captured pixel value to the controller 130.

한편, 본 발명의 일 실시 예에 따른 촬상 소자(111)는 24Mpixel의 이미지 소자로 구현될 수 있고, 상술한 바와 같은 촬상 동작에 의하여 초당 수십에서 수백장의 고속 촬상 동작을 수행할 수 있다. 이러한 고속 촬상에 의하여 생성된 촬상 이미지를 처리하기 위해서는 고속 시리얼(154)은 초당 수 기가 픽셀의 스루풋(throughput)이 필요하다. 그리고 하나의 픽셀은 예를 들어 12bit, 14bit, 16bit 등의 크기를 가질 수 있는바, 결국, 고속 시리얼(154)은 초당 수십 기가바이트(Gbyte)의 스루풋(thoughput)이 요구된다. On the other hand, the imaging device 111 according to an embodiment of the present invention can be implemented as an image device of 24Mpixel, it is possible to perform a high-speed imaging operation of several tens to hundreds per second by the imaging operation as described above. In order to process the captured image generated by the high speed imaging, the high speed serial 154 needs throughput of several gigabytes per second. In addition, one pixel may have a size of, for example, 12 bits, 14 bits, or 16 bits. Consequently, the high speed serial 154 requires tens of gigabytes per second of throughput.

렌즈(114)는 피사체의 빛을 모아서 촬상 소자(152)의 촬상 영역에 광학상이 맺히게 한다.The lens 114 collects the light of the subject to cause an optical image to form in the imaging area of the imaging device 152.

제어부(130)는 촬상부(110)로부터 화소 그룹 단위의 화소 값 또는 압축된 화소 값(이하 데이터라고 칭함)을 수신하고, 수신된 데이터를 휘발성 메모리(145)에 저장할 수 있다. 그리고 제어부(130)는 기 저장된 화소 그룹 단위의 데이터를 병합하여 하나의 이미지로 생성할 수 있다. 그리고 제어부(130)는 생성된 이미지에 대한 광량 보정 등의 보정 작업을 수행할 수 있다. The controller 130 may receive a pixel value or a compressed pixel value (hereinafter, referred to as data) from the imaging unit 110 and store the received data in the volatile memory 145. In addition, the controller 130 may generate data as a single image by merging data stored in the unit of a pixel group. In addition, the controller 130 may perform a correction operation such as light quantity correction on the generated image.

전 처리기(131)는 촬상부(110)로부터 수신된 데이터를 병렬 데이터로 변환한다. 구체적으로, 전 처리기(131)는 촬상부(110)의 고속 시리얼(113)을 통하여 전달된 시리얼 데이터를 병렬 데이터로 변환하고, 변환된 병렬 데이터가 휘발성 메모리에 저장될 수 있도록 메모리 컨트롤러(134)에 변화된 병렬 데이터를 전송할 수 있다. The preprocessor 131 converts the data received from the imaging unit 110 into parallel data. In detail, the preprocessor 131 converts the serial data transmitted through the high speed serial 113 of the imaging unit 110 into parallel data, and the memory controller 134 to store the converted parallel data in the volatile memory. The changed parallel data can be transmitted.

버스(132)는 제어부(130) 내의 각 구성 간의 신호를 전송한다.The bus 132 transmits signals between the components of the controller 130.

이미지 처리부(133)은 메모리에 저장된 화소 값을 이미지 처리하여 하나의 이미지를 생성할 수 있다. The image processor 133 may generate a single image by processing the pixel value stored in the memory.

그리고 이미지 처리부(133)는 이미지에 대해서 포맷 변환과 영상 스케일을 조절하기 위한 디지털 줌, AWB(Auto White Balance), AF(Auto Focus), AE(Auto Exposure) 등의 신호 처리를 수행할 수 있다.The image processor 133 may perform signal processing such as digital zoom, auto white balance (AWB), auto focus (AF), auto exposure (AE), and the like, for format conversion and image scale adjustment.

복원부(미도시)는 휘발성 메모리에 임시 저장된 압축 데이터를 복원한다. 구체적으로, 복원부(미도시)는 압축 데이터에 적용된 압축 알고리즘에 대응되는 복원 알고리즘을 이용하여 화소 그룹별 압축 데이터를 복원할 수 있다. The decompression unit restores the compressed data temporarily stored in the volatile memory. In detail, the decompressor may restore the compressed data for each pixel group by using a decompression algorithm corresponding to the compression algorithm applied to the compressed data.

메모리 컨트롤러(134)는 휘발성 메모리(예를 들어, DDR)의 동작을 제어한다. 구체적으로, 메모리 컨트롤러(134)는 제어부(130) 내의 다른 구성의 요청에 따라 저장부(150)의 읽기 또는 쓰기 동작을 제어할 수 있다. 다만, 촬상 과정 중인 경우, 즉, 촬상부(110)로부터 고속 및 고용량이 저장되는 경우에, 메모리 컨트롤러(134)는 저장부(150)의 리소스가 쓰기 동작에 100% 점유되도록 저장부(150)를 제어할 수 있다. The memory controller 134 controls the operation of the volatile memory (eg, DDR). In detail, the memory controller 134 may control a read or write operation of the storage 150 in response to a request of another configuration in the controller 130. However, during the imaging process, that is, when the high speed and the high capacity are stored from the imaging unit 110, the memory controller 134 stores the storage unit 150 such that the resources of the storage unit 150 occupy 100% of the write operation. Can be controlled.

코덱(135)은 촬상장치(100)가 동영상 촬영 동작 중인 경우, 촬상부(110)에서 촬상된 복수의 이미지를 동영상 파일로 생성하기 위하여, 복수의 이미지를 인코딩한다. 한편, 본 실시 예에서는 음성 신호를 수신하는 내용에 대해서 설명하지 않았지만, 코덱(135)은 별도의 내부의 마이크 또는 외부의 마이크를 통하여 청취된 음성 신호와 촬상된 복수의 이미지를 결합하여 동영상 파일을 생성할 수 있다. The codec 135 encodes a plurality of images to generate a plurality of images captured by the image capturing unit 110 as a moving image file when the image capturing apparatus 100 is in a moving image capturing operation. Meanwhile, in the present embodiment, the contents of receiving a voice signal have not been described, but the codec 135 combines a plurality of images captured by a voice signal received through a separate internal microphone or an external microphone to generate a video file. Can be generated.

디스플레이 프로세서(137)는 사용자 인터페이스부(120)에 표시될 사용자 인터페이스 창을 생성하거나, 사용자 인터페이스부(120)의 동작을 제어할 수 있다. 또한, 디스플레이 프로세서(137)는 사용자 인터페이스부(120) 또는 디스플레이부(160)에 이미지를 표시하도록 제어할 수 있다. The display processor 137 may generate a user interface window to be displayed on the user interface 120 or control the operation of the user interface 120. In addition, the display processor 137 may control to display an image on the user interface 120 or the display 160.

CPU(178)는 제어부(130) 내의 각 구성을 제어한다. 구체적으로, CPU(178)는 사용자로부터 촬상 명령이 입력되면, 화소의 노광을 개시하는 리셋 신호가 촬상 소자의 화소 그룹별로 다른 시점에 주사되도록 타이밍 생성부(112)를 제어할 수 있다. 그리고 리셋 신호가 주사된 화소 그룹에 대한 화소 값이 독취되도록 하는 제어 신호가 촬상 소자(111)에 제공되도록 타이밍 생성부(112)를 제어할 수 있다. The CPU 178 controls each component in the controller 130. Specifically, when the imaging command is input from the user, the CPU 178 may control the timing generator 112 to scan the reset signal for starting the exposure of the pixel at different points in time for each pixel group of the imaging device. In addition, the timing generator 112 may be controlled such that a control signal for reading the pixel value of the pixel group in which the reset signal is scanned is provided to the imaging device 111.

도 4는 본 발명의 일 실시 예에 따른 촬상부를 구체적으로 설명하기 위한 도면이다.4 is a diagram for describing in detail an image capturing unit according to an exemplary embodiment.

도 4를 참고하면, 본 발명의 일 실시 예에 따른 촬상소자(111)는 제1 화소 그룹(111-1) 및 제2 화소 그룹(111-2)으로 구분되어 있다. 제1 화소 그룹(111-1)은 복수 개의 픽셀로 구성되고, 각각의 제1 화소 그룹(111-1)의 픽셀들은 피사체를 촬상한다. 제2 화소 그룹(111-2)은 복수 개의 픽셀로 구성되며, 각각의 제2 화소 그룹(111-2)의 픽셀들은 피사체에 대한 라이브뷰 이미지를 촬상할 수 있다.Referring to FIG. 4, an image pickup device 111 according to an exemplary embodiment is divided into a first pixel group 111-1 and a second pixel group 111-2. The first pixel group 111-1 includes a plurality of pixels, and the pixels of each of the first pixel group 111-1 image an object. The second pixel group 111-2 includes a plurality of pixels, and the pixels of the second pixel group 111-2 may capture a live view image of a subject.

도 4에서는 NXM개의 매트릭스 형태의 화소 그룹을 예시적으로 도시하고 있다. 그리고 제1 화소 그룹(111-1)과 제2 화소 그룹(111-2)이 동일한 개수로 구성된 것으로 도시하고 있다. 4 exemplarily illustrates pixel groups having NXM matrix types. The first pixel group 111-1 and the second pixel group 111-2 are configured to have the same number.

도 4에 도시된 바와 같이 제1 화소 그룹(111-1)은 피사체를 촬상하기 위한 픽셀 그룹이므로, 제2 화소 그룹(111-2)의 픽셀 개수보다 같거나 많다. 즉, 제2 화소 그룹(111-2)은 제1 화소 그룹(111-2)의 픽셀 사이에서 규칙적으로 배치될 수 있거나, 무작위로 배치될 수 있다. 또한 제2 화소 그룹(111-2)의 픽셀의 개수는 제1 화소 그룹(111-2)의 픽셀의 개수보다 작거나 같다.As shown in FIG. 4, since the first pixel group 111-1 is a pixel group for photographing a subject, the first pixel group 111-1 is equal to or larger than the number of pixels of the second pixel group 111-2. That is, the second pixel group 111-2 may be regularly arranged between the pixels of the first pixel group 111-2 or randomly disposed. In addition, the number of pixels of the second pixel group 111-2 is less than or equal to the number of pixels of the first pixel group 111-2.

본 발명의 일 실시 예에 따른 제1 화소 그룹(111-1)의 픽셀과 제2 화소 그룹(111-2)의 픽셀은 서로 크기는 서로 같게 구현될 수 있고, 또는 제1 화소 그룹(111-1)의 픽셀이 제2 화소 그룹(111-2)의 픽셀보다 크기가 크게 구현될 수 있다.The pixels of the first pixel group 111-1 and the pixels of the second pixel group 111-2 may be embodied in the same size with each other, or the first pixel group 111- The pixel of 1) may be larger in size than the pixel of the second pixel group 111-2.

도 5 내지 7은 본 발명의 일 실시 예에 따른 촬상부를 구성하는 화소에 포함된 차광수단의 다양한 실시 예이다.5 to 7 are various embodiments of light blocking means included in a pixel constituting an imaging unit according to an exemplary embodiment.

도 5 내지 7을 참조하면, 촬상 소자(111)는 매트릭스 형태로 구성되는 제1 화소 그룹과 제2 화소 그룹으로 구성된다. 보다 구체적으로 살펴보면, 하나의 단위 셀은 제1 화소(111a)와 제2 화소(111b)로 구성될 수 있다. 제1 화소(111a)는 정지 이미지 또는 동영상 이미지를 독취하는 픽셀이고, 제2 화소(111b)는 라이브 이미지 뷰를 독취하는 픽셀이다. 제2 화소(111b)는 입사광을 일부 차광하는 차광수단(111c)을 더 포함한다. 차광수단(111c)에 의해서 제2 화소(111b)로 입사하는 입사광은 위상차가 발생하게 된다.5 to 7, the imaging device 111 includes a first pixel group and a second pixel group configured in a matrix form. In more detail, one unit cell may include a first pixel 111a and a second pixel 111b. The first pixel 111a is a pixel that reads a still image or a moving image, and the second pixel 111b is a pixel that reads a live image view. The second pixel 111b further includes light blocking means 111c that partially shields incident light. The incident light incident on the second pixel 111b by the light blocking means 111c generates a phase difference.

도 5에서는 제2 화소(111b)에 입사되는 광을 차광하는 차광수단이 제2 화소(111b)를 좌우 대칭적으로 구획했을 때 우측 일면에 형성되는 실시예를 도시한다. 도 5를 참조하면, 그 밖의 제2 화소들도 우측 일면에 차광수단이 형성되어 있음을 확인할 수 있다. 다만, 도 5에 도시된 실시예는 하나의 실시예에 불과하고 좌우 대칭적으로 구획하지 않을 수도 있으며, 좌측 일면에 차광수단이 형성될 수도 있다.FIG. 5 illustrates an embodiment in which light blocking means for shielding light incident on the second pixel 111b is formed on one right side when the second pixel 111b is symmetrically partitioned. Referring to FIG. 5, it can be seen that other light blocking means is formed on one surface of the other pixels as well. However, the embodiment shown in FIG. 5 is only one embodiment and may not be symmetrically partitioned, and light blocking means may be formed on one surface of the left side.

도 6에서는 제2 화소(111b)에 입사되는 광을 차광하는 차광수단이 제2 화소(111b)를 상하 대칭적으로 구획했을 때 하측 일면에 형성되는 실시예를 도시한다. 도 6을 참조하면, 그 밖의 제2 화소들도 하측 일면에 차광수단이 형성되어 있음을 확인할 수 있다. 다만, 도 6에 도시된 실시예는 하나의 실시예에 불과하고 상하 대칭적으로 구획하지 않을 수도 있으며, 상측 일면에 차광수단이 형성될 수도 있다.FIG. 6 illustrates an embodiment in which light blocking means for shielding light incident on the second pixel 111b is formed on one lower surface when the second pixel 111b is vertically symmetrically partitioned. Referring to FIG. 6, it can be seen that light blocking means is formed on the lower surface of the other second pixels. However, the embodiment shown in FIG. 6 is only one embodiment and may not be partitioned symmetrically, and a light shielding means may be formed on one upper surface.

도 7에서는 제1 화소(111a-1)의 좌측에 위치하는 제2 화소(111b-1)는 도 5에 도시된 제2 화소(111b-1)의 차광수단 패턴과 동일하고, 제1 화소(111a-3)의 좌측에 위치하는 제2 화소(111b-3)는 상하로 구획되서 하부에 차광수단이 형성되는 도 6에 도시된 제2 화소(111b)와 동일한 차광수단 패턴을 갖는다. 즉, 도 7를 참조하면, 제2 화소를 광 입사면을 차광하는 차광수단의 패턴은 도 5과 도 6에 도시된 차광수단 패턴을 혼용하여 구현할 수도 있음을 확인할 수 있다.
In FIG. 7, the second pixel 111b-1 positioned on the left side of the first pixel 111a-1 is the same as the light blocking means pattern of the second pixel 111b-1 illustrated in FIG. 5, and the first pixel ( The second pixel 111b-3 positioned to the left of 111a-3 has the same light blocking means pattern as the second pixel 111b shown in FIG. That is, referring to FIG. 7, it can be seen that the pattern of the light blocking means for blocking the light incident surface of the second pixel may be implemented by using the light blocking means pattern illustrated in FIGS. 5 and 6.

도 8은 본 발명의 일 실시 예에 따른 촬상 소자의 보다 구체적인 구성을 설명하기 위한 도면이다.8 is a view for explaining a more specific configuration of the image pickup device according to an embodiment of the present invention.

도 8을 참조하면, 본 발명의 일 실시 예에 따른 촬상 소자(111)는 제1 화소 그룹(111a-1 내지 111a-4)과 제2 화소 그룹(111b-1 내지 111b-4)으로 구성될 수 있다. 도 8에서는 제1 화소 그룹과 제2 화소 그룹이 2X2 셀 어레이로 도시되어 있으나, 이는 예시적인 것에 불과하다.Referring to FIG. 8, the imaging device 111 according to an embodiment of the present invention may be configured of the first pixel groups 111a-1 to 111a-4 and the second pixel groups 111b-1 to 111b-4. Can be. In FIG. 8, the first pixel group and the second pixel group are illustrated in a 2 × 2 cell array, but this is merely exemplary.

먼저, 제1 화소 그룹(111a-1 내지 111a-4)과 제2 화소 그룹(111b-1 내지 111b-4)은 서로 물리적으로 독립적으로 분리되어 구성될 수 있다. 이때, 제1 화소 그룹(111a-1 내지 111a-4)과 제2 화소 그룹(111b-1 내지 111b-4)은 각각 별도의 제1 수직 주사 라인을 통해서 제1 수직 주사 회로(610)와 연결되고, 제2 수직 주사 라인을 통해서 제2 수직 주사 회로(620)과 연결될 수 있다. 또한, 제1 수평 주사라인을 통해서 제1 수평 주사 회로(650)과 제2 수평 주사 라인을 통해서 제2 수평 주사 회로(640)와 연결될 수 있다.First, the first pixel groups 111a-1 to 111a-4 and the second pixel groups 111b-1 to 111b-4 may be physically independently separated from each other. In this case, the first pixel groups 111a-1 to 111a-4 and the second pixel groups 111b-1 to 111b-4 are connected to the first vertical scan circuit 610 through separate first vertical scan lines, respectively. And a second vertical scan circuit 620 through a second vertical scan line. In addition, the first horizontal scanning circuit 650 and the second horizontal scanning circuit 640 may be connected to the second horizontal scanning circuit 640 through the first horizontal scanning line.

그리고 제1 화소 그룹(111a-1 내지 111a-4)은 4개의 메인 화소로 구성되고, 제2 화소 그룹(111b-1 내지 111b-4)은 4개의 서브 화소로 구성될 수 있다. 여기서 메인 화소는 정지 이미지 또는 동영상 이미지를 독취할 수 있고, 서브 화소는 위상차 정보를 포함하는 라이브 뷰 이미지를 독취할 수 있다. 다만, 도 4를 참고하여 앞서서 설명한 바와 같이, 서브 화소는 위상차 정보를 포함하지 않는 라이브 뷰 이미지만을 독취할 수는 화소 그룹일 수도 있다. The first pixel groups 111a-1 to 111a-4 may be composed of four main pixels, and the second pixel groups 111b-1 to 111b-4 may be configured of four sub pixels. Here, the main pixel may read a still image or a moving image, and the sub pixel may read a live view image including phase difference information. However, as described above with reference to FIG. 4, the subpixel may be a pixel group capable of reading only a live view image that does not include phase difference information.

메인 화소를 통해서 독취된 이미지의 화소 값은 서브 화소를 통해서 독취된 이미지의 화소 값보다 해상도가 더 높도록 구성될 수 있다. 이를 위해서 제1 화소 그룹(111a-1 내지 111a-4)의 단위 화소의 개수는 제2 화소 그룹(111b-1 내지 111b-4)의 단위 화소의 개수(4개)보다 크거나 같도록 구성되는 것이 바람직하다. 다만, 도 8에서는 설명의 편의를 위해서 동일한 개수로 구현한 일 실시예를 도시한다.The pixel value of the image read through the main pixel may be configured to have a higher resolution than the pixel value of the image read through the sub pixel. To this end, the number of unit pixels of the first pixel groups 111a-1 to 111a-4 is greater than or equal to the number of unit pixels of the second pixel groups 111b-1 to 111b-4. It is preferable. However, FIG. 8 illustrates one embodiment implemented as the same number for convenience of description.

또한, 메인 화소를 구성하는 단위 픽셀은 서브 화소를 구성하는 단위 픽셀보다 단위 셀의 크기가 더 크도록 설계될 수 있다.In addition, the unit pixel constituting the main pixel may be designed to have a larger size of the unit cell than the unit pixel constituting the sub pixel.

또한, 제2 화소 그룹(111b-1 내지 111b-4)은 각 단위 화소에 차광수단(111c-1 내지 111c-4)을 더 포함할 수 있다. 차광수단을 더 포함하는 경우에 제2 화소 그룹(111b-1 내지 111b-4)은 라이브 뷰 이미지를 독취하면서 동시에 위상차 정보를 독취할 수 있다.In addition, the second pixel groups 111b-1 to 111b-4 may further include light blocking means 111c-1 to 111c-4 in each unit pixel. In the case of further including the light blocking means, the second pixel groups 111b-1 to 111b-4 may read the live view image and simultaneously read the phase difference information.

본 발명의 다른 실시 예에 따르면, 제1 화소 그룹(111a-1 내지 111a-4)과 제2 화소 그룹(111b-1 내지 111b-4)으로부터 화소 값을 독취하고, 이를 제어하기 위한 수평 주사 라인과 수직 주사 라인은 독립적으로 구성될 수 있다. 하지만, 이러한 수직 주사 라인 및 수평 주사 라인에는 각각 제1 수직 주사 회로(610) 또는 제2 수직 주사 회로(620)로 구성되고, 제1 수평 주사 회로(650) 또는 제2 수평 주사 회로(640)로 구성될 수 있다. According to another embodiment of the present invention, a horizontal scan line for reading a pixel value from the first pixel groups 111a-1 to 111a-4 and the second pixel groups 111b-1 to 111b-4, and controlling the pixel value And the vertical scan line can be configured independently. However, each of the vertical scan line and the horizontal scan line includes a first vertical scan circuit 610 or a second vertical scan circuit 620, respectively, and the first horizontal scan circuit 650 or the second horizontal scan circuit 640. It can be configured as.

구체적으로, 타이밍 생성부(112)로부터 제1, 2리셋 신호 또는 제1, 2제어 신호를 수신받으면, 제1 리셋 신호에 의해서 제1 화소 그룹(111a-1, 111a-2 ... 111a-4)이 순차적으로 리드 아웃된다. 이와 동시에 제2 리셋 신호에 의해서 제2 화소 그룹(111b-1, 111b-2 ... 111b-4)이 순차적으로 리드 아웃된다.In detail, when the first and second reset signals or the first and second control signals are received from the timing generator 112, the first pixel group 111a-1, 111a-2. 4) are sequentially read out. At the same time, the second pixel group 111b-1, 111b-2 ... 111b-4 is sequentially read out by the second reset signal.

제어부(130)는 제1 리셋 신호와 제2 리셋 신호에 의해서 순차적으로 리드 아웃된 화소 값을 독취하도록 제어한다. 이렇게 제1 화소 그룹으로부터 독취된 제1 화소 값들에 기초해서 정지 이미지 또는 동영상 이미지를 촬상한다. 또한 제2 화소 그룹으로부터 독취된 제2 화소 값들에 기초해서 라이브 뷰 이미지를 촬상한다. 이렇게 촬상된 정지 이미지 또는 동영상 이미지는 라이브 뷰 이미지에 비하여 해상도가 높다. 제2 화소 그룹으로부터 독취한 화소 값에는 위상차 정보를 포함하고 있다.The controller 130 controls to read out pixel values sequentially read out by the first reset signal and the second reset signal. The still image or moving image is captured based on the first pixel values read from the first pixel group. Also, a live view image is captured based on the second pixel values read from the second pixel group. The still image or video image captured in this way has a higher resolution than the Live View image. The pixel value read out from the second pixel group includes phase difference information.

본 발명에 따른 이미지 센서로 구성된 촬상장치(100)는 피사체로부터 정지 이미지와 라이브 뷰 이미지를 각각 제1 화소 그룹과 제2 화소 그룹을 통해서 분리하여 촬상하고, 라이브 뷰 이미지로부터 위상차 정보를 추출함으로써, 라이브 뷰 이미지의 매 프레임마다 피사체의 위상차 오토 포커싱 정보를 획득할 수 있다.The imaging apparatus 100 configured as an image sensor according to the present invention separates and captures a still image and a live view image from a subject through a first pixel group and a second pixel group, respectively, and extracts phase difference information from the live view image. The phase difference auto focusing information of the subject may be acquired every frame of the live view image.

이렇게 연속적으로 획득되는 위상차 오토 포커싱 정보를 이용하여, 촬상 시에 피사체의 초점을 오토 포커싱한다. 이러한 본 발명의 일 실시예에 따른 위상차 오토 포커싱 방식은 연속적으로 촬상하는 라이브 뷰 이미지로부터 위상차 오토 포커싱 정보를 추출하고, 이러한 위상차 오토 포커싱 정보에 기초하여 정지 이미지 또는 동영상 이미지의 초점을 조절한다.By using the phase difference auto focusing information thus obtained continuously, the focus of the subject is autofocused at the time of imaging. The phase difference auto focusing method according to an exemplary embodiment of the present invention extracts phase difference auto focusing information from a live view image continuously captured, and adjusts the focus of a still image or a moving image based on the phase difference auto focusing information.

따라서, 종래에 비하여 정지 이미지의 일부 화소 값으로부터 화소 값을 얻는 방식에 비하여 라이브 뷰 이미지 표시와 정지 이미지 촬상 동작을 동시에 수행함으로써, 라이브 뷰 이미지를 디스플레이하면서 동시에 정지 이미지를 촬상하고 저장할 수 있는 효과를 발휘한다. Therefore, compared to the conventional method of obtaining pixel values from some pixel values of the still image, the live view image display and the still image capturing operation are simultaneously performed, thereby simultaneously displaying and storing the still view image. Exert.

또한, 라이브 뷰 이미지를 디스플레이하면서 매 프레임마다 피사체의 위상차 오토 포커싱 정보를 획득할 수 있기 때문에, 종래의 발명과 달리 AF 정보를 보다 정밀하게 획득할 수 있어서, 보다 정밀한 포커싱 정보에 기초하여 고속 오토 포커싱을 수행할 수 있는 효과가 있다.In addition, since the phase difference auto focusing information of the subject can be obtained every frame while displaying the live view image, unlike the conventional invention, AF information can be obtained more precisely, and thus, high-speed auto focusing can be performed based on more precise focusing information. There is an effect that can be performed.

도 9는 본 발명의 다른 실시 예에 따른 촬상부를 구성하는 메인 화소 및 서브 화소를 구체적으로 설명하기 위한 도면이다.FIG. 9 is a diagram for specifically describing a main pixel and a sub pixel constituting an imaging unit according to another exemplary embodiment.

도 9를 참조하면, 본 발명의 일 실시 예에 따른 촬상 소자(111)는 제1 화소 그룹(111a-1 내지 111a-N)과 제2 화소 그룹(111b-1 내지 111b-M)으로 구성될 수 있다. 제1 화소 그룹(111a-1 내지 111a-N)과 제2 화소 그룹(111b-1 내지 111b-M)은 서로 물리적으로 독립적으로 분리되어 구성될 수 있다. Referring to FIG. 9, the imaging device 111 according to an embodiment of the present invention may be configured of the first pixel groups 111a-1 to 111a -N and the second pixel groups 111b-1 to 111b -M. Can be. The first pixel groups 111a-1 to 111a -N and the second pixel groups 111b-1 to 111b -M may be physically independently separated from each other.

이때, 제1 화소 그룹(111a-1 내지 111a-N)과 제2 화소 그룹(111b-1 내지 111b-M)은 각각 별도의 제1 수직 주사 라인(310-1 내지 310-3), 제2 수직 주사 라인(330-1 내지 330-3)과 제1 수평 수사 라인(350) 제2 수평 주사 라인(360)을 통해서 수직 주사 회로(미도시) 및 수평 주사 회로(미도시)와 연결될 수 있다.In this case, the first pixel groups 111a-1 to 111a -N and the second pixel groups 111b-1 to 111b -M are separate first vertical scan lines 310-1 to 310-3 and second, respectively. The vertical scan line 330-1 to 330-3 and the first horizontal scan line 350 may be connected to a vertical scan circuit (not shown) and a horizontal scan circuit (not shown) through the second horizontal scan line 360. .

그리고 제1 화소 그룹(111a-1 내지 111a-N)은 N개의 메인 화소로 구성되고, 제2 화소 그룹은(111b-1 내지 111b-M)은 M개의 서브 화소로 구성될 수 있다. 여기서 메인 화소는 정지 이미지 또는 동영상 이미지를 독취할 수 있고, 서브 화소는 콘트라스트 오토 포커싱 정보를 포함하는 라이브 뷰 이미지를 독취할 수 있다.The first pixel groups 111a-1 to 111a -N may include N main pixels, and the second pixel group 111b-1 through 111b -M may include M sub pixels. Here, the main pixel may read a still image or a moving image, and the sub pixel may read a live view image including contrast auto focusing information.

메인 화소를 통해서 독취된 이미지의 화소 값은 서브 화소를 통해서 독취된 이미지의 화소 값보다 해상도가 더 높도록 구성될 수 있다. 이를 위해서 제1 화소 그룹(111a-1 내지 111a-N)의 단위 화소의 개수(N개)는 제2 화소 그룹(111b-1 내지 111b-M)의 단위 화소의 개수(M개)보가 같거나 많게 구성될 수 있다. 즉, 제1 화소 그룹(111a-1 내지 111a-N)의 사이에 제2 화소 그룹(111b-1 내지 111b-M)이 규칙적으로 또는 무작위로 배치될 수 있다.The pixel value of the image read through the main pixel may be configured to have a higher resolution than the pixel value of the image read through the sub pixel. To this end, the number (N) of the unit pixels of the first pixel group 111a-1 to 111a -N is equal to the number (M) of the unit pixels of the second pixel group 111b-1 to 111b -M, or It can be composed a lot. That is, the second pixel groups 111b-1 to 111b -M may be regularly or randomly disposed between the first pixel groups 111a-1 to 111a -N.

또한, 메인 화소를 구성하는 단위 픽셀은 서브 화소를 구성하는 단위 픽셀보다 단위 셀의 크기가 더 크도록 제작할 수 있다.In addition, the unit pixel constituting the main pixel may be manufactured to have a larger size of the unit cell than the unit pixel constituting the sub pixel.

본 발명의 다른 실시예에 따르면, 제1 화소 그룹(111a-1 내지 111a-N)과 제2 화소 그룹(111b-1 내지 111b-M)로부터 화소 값을 독취하고, 이를 제어하기 위한 수평 주사 라인과 수직 주사 라인은 독립적으로 구성되지만, 이러한 수직 주사 라인 및 수평 주사 라인에는 각각 별도의 수직 주사 회로 또는 수평 주사 회로로 구성될 수 있다. According to another embodiment of the present invention, a horizontal scan line for reading a pixel value from the first pixel groups 111a-1 to 111a -N and the second pixel groups 111b-1 to 111b -M and controlling the same The and vertical scan lines may be configured independently, but the vertical scan lines and the horizontal scan lines may be configured as separate vertical scan circuits or horizontal scan circuits, respectively.

구체적으로, 타이밍 생성부(112)로부터 제1 리셋 신호를 수신받으면, 제1 리셋 신호에 의해서 제1 화소 그룹(111a-1, 111a-2 ... 111a-N)이 순차적으로 리드 아웃된다. 이와 동시에 제2 리셋 신호에 의해서 제2 화소 그룹(111b-1, 111b-2 ... 111b-M)이 순차적으로 리드 아웃된다.In detail, when the first reset signal is received from the timing generator 112, the first pixel group 111a-1, 111a-2,... 111a -N are sequentially read out by the first reset signal. At the same time, the second pixel group 111b-1, 111b-2 ... 111b-M is sequentially read out by the second reset signal.

제어부(130)는 제1 리셋 신호와 제2 리셋 신호에 의해서 순차적으로 리드 아웃된 화소 값을 독취하도록 제어한다. 이렇게 제1 화소 그룹으로부터 독취된 제1 화소 값들에 기초해서 정지 이미지 또는 동영상 이미지를 촬상한다. 또한 제2 화소 그룹으로부터 독취된 제2 화소 값들에 기초해서 라이브 뷰 이미지를 촬상한다. 이렇게 촬상된 정지 이미지 또는 동영상 이미지는 라이브 뷰 이미지에 비하여 해상도가 높다.The controller 130 controls to read out pixel values sequentially read out by the first reset signal and the second reset signal. The still image or moving image is captured based on the first pixel values read from the first pixel group. Also, a live view image is captured based on the second pixel values read from the second pixel group. The still image or video image captured in this way has a higher resolution than the Live View image.

본 발명에 따른 이미지 센서로 구성된 촬상장치(100)는 피사체로부터 정지 이미지와 라이브 뷰 이미지를 각각 제1 화소 그룹과 제2 화소 그룹을 통해서 분리하여 촬상하고, 라이브 뷰 이미지로부터 콘트라스트 오토 포커싱 정보를 추출함으로써, 라이브 뷰 이미지의 매 프레임마다 피사체의 콘트라스트 오토 포커싱 정보를 획득할 수 있다.The imaging apparatus 100 configured as an image sensor according to the present invention separates and captures a still image and a live view image from a subject through a first pixel group and a second pixel group, respectively, and extracts contrast autofocusing information from the live view image. Thus, the contrast auto focusing information of the subject can be obtained every frame of the live view image.

이렇게 연속적으로 획득되는 콘트라스트 오토 포커싱 정보를 이용하면, 촬상 시에 피사체의 초점을 오토 포커싱할 수 있다. 이러한 본 발명의 일 실시예에 따른 콘트라스트 오토 포커싱 방식은 연속적으로 촬상하는 라이브 뷰 이미지로부터 콘트라스트 오토 포커싱 정보를 추출하고, 이렇게 추출된 콘트라스트 오토 포커싱 정보에 기초하여 정지 이미지 또는 동영상 이미지의 초점을 조절할 수 있다.By using the contrast auto focusing information thus obtained continuously, the focus of the subject can be autofocused at the time of imaging. The contrast auto focusing method according to an exemplary embodiment of the present invention extracts contrast auto focusing information from a live view image continuously captured, and adjusts the focus of a still image or a moving image based on the extracted contrast auto focusing information. have.

따라서, 종래의 정지 이미지의 일부 화소 값으로부터 화소 값을 얻는 방식에 비하여 라이브 뷰 이미지 표시와 정지 이미지 촬상 동작을 동시에 수행할 수 있음으로써, 라이브 뷰 이미지를 디스플레이하면서 동시에 정지 이미지를 촬상하고 저장할 수 있는 효과를 발휘한다. Therefore, the live view image display and the still image capturing operation can be simultaneously performed as compared with the method of obtaining pixel values from some pixel values of the conventional still image, thereby simultaneously capturing and storing the still image while displaying the live view image. It is effective.

또한, 라이브 뷰 이미지를 디스플레이하면서 매 프레임마다 피사체의 콘트라스트 오토 포커싱 정보를 획득하기 때문에, 종래의 발명과 달리 AF 정보를 획득하기 위해서 촬상 동작을 멈추지 않아도 되므로 고속 오토 포커싱을 수행할 수 있는 효과가 있다.
In addition, since contrast auto focusing information of a subject is obtained every frame while displaying a live view image, high-speed auto focusing can be performed because the imaging operation does not have to be stopped to obtain AF information, unlike conventional inventions. .

도 10은 본 발명의 다른 실시 예에 따른 정지 이미지와 라이브 뷰 이미지를 동시에 디스플레이하는 것을 설명하기 위한 개념도이다. FIG. 10 is a conceptual diagram illustrating simultaneous display of a still image and a live view image according to another exemplary embodiment.

도 10을 참조하면, 라이브 뷰 이미지(430-1 내지 430-M)는 연속적으로 디스플레이되고, 정지 이미지(410-1, 410-2, 410-3)는 촬상 동작이 이루어진 시점(t1, t2, t3)에 각각 촬상되고 있음을 확인할 수 있다.Referring to FIG. 10, the live view images 430-1 to 430 -M are continuously displayed, and the still images 410-1, 410-2, and 410-3 are displayed at a time point t1, t2, where an imaging operation is performed. It can be confirmed that each is imaged at t3).

도 10에 도시된 정지 이미지(410-1, 410-2, 410-3)는 촬상부(110)의 제1 화소 그룹에 의해서 촬상된 이미지이고, 라이브 뷰 이미지(430-1 내지 430-M)는 제2 화소 그룹에 의해서 촬상된 이미지이다.The still images 410-1, 410-2, and 410-3 shown in FIG. 10 are images captured by the first pixel group of the imaging unit 110, and live view images 430-1 to 430 -M. Is an image picked up by the second pixel group.

이를 보다 구체적으로 살펴보면 다음과 같다. 촬상 장치(100)가 피사체의 촬상을 개시하면, 촬상된 피사체는 라이브 뷰 이미지로 디스플레이부(160)에 표시된다. 이때, 라이브 뷰 이미지는 촬상 장치(100)를 통해서 촬상하려는 피사체(예를 들어, 인물이나 풍경)에 대한 실시간 이미지이다. 다만, 이러한 라이브 뷰 이미지는 피사체의 저화소의 이미지가 소정의 프레임 레이트로 표시되는 연속 촬상 이미지이지만 저장부(150)에 저장되지는 않는다. More specifically, it is as follows. When the image capturing apparatus 100 starts capturing an object, the captured object is displayed on the display unit 160 as a live view image. In this case, the live view image is a real-time image of a subject (for example, a person or a landscape) to be captured by the imaging apparatus 100. However, the live view image is a continuous captured image in which an image of a low pixel of a subject is displayed at a predetermined frame rate, but is not stored in the storage 150.

콘트라스트 AF 처리부(170)는 라이브 뷰 이미지를 구성하는 프레임의 일부 화소로부터 콘트라스트 오토 포커싱 정보를 추출한다. 콘트라스트 오토 포커싱 방식은 이미지의 화소 값의 콘트라스트값을 비교하여 가장 높은 콘트라스트값을 갖는 렌즈 위치로 초점을 맞추는 방식이다.The contrast AF processor 170 extracts contrast auto focusing information from some pixels of the frame constituting the live view image. The contrast autofocusing method is a method of focusing to a lens position having the highest contrast value by comparing contrast values of pixel values of an image.

콘트라스트 AF 처리부(170)는 라이브 뷰 이미지를 구성하는 매 프레임(frame)의 화소값으로부터 콘트라스트 값을 추출하고 이를 비교하여 콘트라스트값이 가장 큰 값을 갖는 지점에 초점을 맞춘다. 만약 피사체가 움직여서 초점이 변경되면 콘트라스트 AF 처리부(170)는 변경된 피사체의 라이브 뷰 이미지로부터 콘트라스트값을 추출해서 이를 비교함으로써 새롭게 초점을 맞춘다.The contrast AF processor 170 extracts a contrast value from pixel values of every frame constituting the live view image and compares the contrast value to focus on a point having the highest contrast value. If the focus is changed by moving the subject, the contrast AF processor 170 newly focuses by extracting and comparing contrast values from the live view image of the changed subject.

만약, 라이브 뷰 이미지가 디스플레이되는 중에, 사용자가 제1 시점(t1)에 정지 이미지의 촬상 명령을 촬상 장치(100)에 입력할 경우에는 해당 시점(t1)의 라이브 뷰 이미지(L12)로부터 추출된 콘트라스트 오토 포커싱 정보에 기초하여 렌즈의 초점이 맞춰지고, 피사체를 촬상하여 정지 이미지(410-1)를 획득한다. 이렇게 획득된 정지 이미지(410-1)는 압축부에 의해서 압축되고 저장부(150)에 저장된다. If the user inputs an image capturing command of the still image to the imaging apparatus 100 at the first time point t1 while the live view image is displayed, the user extracts the image from the live view image L12 of the time point t1. The focus of the lens is focused based on the contrast auto focusing information, and the subject is imaged to obtain a still image 410-1. The still image 410-1 thus obtained is compressed by the compression unit and stored in the storage unit 150.

이렇게 획득된 정지 이미지(410-1)가 촬상되서 압축되고 저장되는 도중에도 라이브 뷰 이미지(L13 내지 L24)는 계속 디스플레이된다. 이렇게 라이브 뷰 이미지(L13 내지 L24)는 촬상부(110)의 제2 화소 그룹으로부터 독취되는 화소 값에 기초하여 얻어지고, 정지 이미지(410-1)는 촬상부(110)의 제1 화소 그룹으로부터 독취된 화소 값에 기초하여 얻어지므로, 촬상 동작 시에도 라이브 뷰 이미지는 디스플레이부(160)에 표시된다.Live view images L13 to L24 are still displayed while the still image 410-1 thus obtained is captured, compressed and stored. In this way, the live view images L13 to L24 are obtained based on pixel values read from the second pixel group of the imaging unit 110, and the still image 410-1 is obtained from the first pixel group of the imaging unit 110. Since it is obtained based on the read pixel value, the live view image is displayed on the display unit 160 even during the imaging operation.

마찬가지로, 제2 시점(t2)과 제3시점(t3)에 사용자가 정지 이미지 촬상 동작이 수행되면, 각각의 시점에 제2 정지 이미지(410-2) 및 제3 정지 이미지(410-3)를 획득하여 압축해서 저장부(150)에 저장할 수 있다. 이때, 제2 정지 이미지(410-2)의 콘트라스트 오토 포커싱 정보는 라이브 뷰 이미지(L24)로부터 획득한 콘트라스트 오토 포커싱 정보에 기초한다. 또한, 제3 정지 이미지(410-3)의 콘트라스트 오토 포커싱 정보는 라이브 뷰 이미지(LN)로부터 획득한 콘트라스트 오토 포커싱 정보에 기초한다. Similarly, when the user performs a still image capturing operation at the second time point t2 and the third time point t3, the second still image 410-2 and the third still image 410-3 may be displayed at each time point. It can be obtained, compressed and stored in the storage unit 150. In this case, the contrast auto focusing information of the second still image 410-2 is based on the contrast auto focusing information obtained from the live view image L24. In addition, the contrast auto focusing information of the third still image 410-3 is based on the contrast auto focusing information obtained from the live view image L N.

도 11은 본 발명의 일 실시 예에 따른 정지 이미지와 라이브 뷰 이미지를 동시에 디스플레이하는 것을 설명하기 위한 개념도이다. FIG. 11 is a conceptual diagram illustrating simultaneous display of a still image and a live view image according to an exemplary embodiment.

도 11을 참조하면, 라이브 뷰 이미지(1130-1 내지 1130-N)는 연속적으로 디스플레이되고, 정지 이미지(1110-1, 1110-2, 1110-3)은 3개가 촬상 동작이 이루어진 시점(t1, t2, t3)에 각각 촬상되고 있음을 확인할 수 있다.Referring to FIG. 11, the live view images 1130-1 to 1130 -N are continuously displayed, and the still images 1110-1, 1110-2, and 1110-3 are displayed at a time point t1 at which three imaging operations are performed. It can be confirmed that the images are captured at t2 and t3).

도 11에 도시된 정지 이미지(1110-1, 1110-2, 1110-3)는 촬상부(110)의 제1 화소 그룹에 의해서 촬상된 이미지이고, 라이브 뷰 이미지(1130-1 내지 1130-N)는 제2 화소 그룹에 의해서 촬상된 이미지이다.The still images 1110-1, 1110-2, and 1110-3 shown in FIG. 11 are images captured by the first pixel group of the image capturing unit 110, and live view images 1130-1 to 1130 -N. Is an image picked up by the second pixel group.

이를 보다 구체적으로 살펴보면 다음과 같다. 촬상 장치(100)가 피사체의 촬상을 개시하면, 촬상된 피사체는 라이브 뷰 이미지로 디스플레이부(160)에 표시된다. 이때, 라이브 뷰 이미지는 촬상 장치(100)를 통해서 촬상하려는 피사체(예를 들어, 인물이나 풍경)에 대한 실시간 이미지이다. 다만, 이러한 라이브 뷰 이미지는 피사체의 저화소의 이미지로 구성된 소정의 프레임 레이트로 연속적으로 디스플레이되 되는 연속 촬상 이미지이고, 라이브 뷰 이미지는 저장부(150)에 저장되지는 않는다. More specifically, it is as follows. When the image capturing apparatus 100 starts capturing an object, the captured object is displayed on the display unit 160 as a live view image. In this case, the live view image is a real-time image of a subject (for example, a person or a landscape) to be captured by the imaging apparatus 100. However, the live view image is a continuous captured image that is continuously displayed at a predetermined frame rate composed of an image of a low pixel of a subject, and the live view image is not stored in the storage 150.

AF 처리부(170)는 제2 화소 그룹에 의해서 독취된 화소 값의 위상차를 분석하여 위상차 오토 포커싱 정보를 추출한다. 위상차 오토 포커싱 방식은 복수의 화소 값의 위상차를 비교하여 렌즈의 초점 위치를 맞추는 방식이다.The AF processor 170 extracts phase difference autofocusing information by analyzing the phase difference of the pixel value read by the second pixel group. The phase difference autofocusing method is a method of adjusting the focus position of a lens by comparing the phase difference of a plurality of pixel values.

AF 처리부(170)는 라이브 뷰 이미지를 구성하는 매 프레임(frame)의 화소값으로부터 위상차 값을 추출하고 이러한 위상차 값에 기초하여 핀트를 맞추게 된다. 만약 피사체가 움직여서 초점이 변경되면 AF 처리부(170)는 변경된 피사체의 라이브 뷰 이미지로부터 위상차 값을 추출해서 이를 이용하여 새로운 초점으로 조절한다.The AF processor 170 extracts a phase difference value from pixel values of every frame constituting the live view image and adjusts the focus based on the phase difference value. If the focus is changed due to the movement of the subject, the AF processor 170 extracts a phase difference value from the live view image of the changed subject and adjusts it to a new focus by using the same.

만약, 라이브 뷰 이미지가 디스플레이되고 있는 중에, 사용자가 제1 시점(t1)에 촬상 명령을 촬상 장치(100)에 입력할 경우에는 해당 시점(t1)의 라이브 뷰 이미지(1030-1)로부터 추출된 위상차 정보에 기초하여 렌즈의 초점을 맞추고, 피사체를 촬상하여 정지 이미지(1110-1)를 획득한다. 이렇게 획득된 정지 이미지(810-1)는 저장부(150)에 저장된다. If the user inputs an image capturing command to the image capturing apparatus 100 at the first time point t1 while the live view image is being displayed, it is extracted from the live view image 1030-1 of the corresponding time point t1. The lens is focused based on the phase difference information, and the subject is imaged to obtain a still image 1110-1. The still image 810-1 thus obtained is stored in the storage 150.

이렇게 획득된 정지 이미지(1110-1)가 촬상되서 저장되는 도중에도 라이브 뷰 이미지(1130-2 내지 1130-11)는 연속적으로 디스플레이된다. 이렇게 라이브 뷰 이미지(1130-2 내지 1130-11)는 촬상부(110)의 제2 화소 그룹으로부터 독취되는 화소 값으로부터 획득되고, 정지 이미지(1110-1)는 촬상부(110)의 제1 화소 그룹으로부터 독취된 화소 값에 기초하여 얻어진다. 제1 화소 그룹과 제2 화소 그룹은 서로 독립적으로 제어되고 출력 신호를 출력하므로, 제1 화소 그룹에 의해서 촬상된 이미지를 저장하면서도 제2 화소 그룹에 의해서 촬상된 라이브 뷰 이미지가 디스플레이부(160)에 디스플레이된다.The live view images 1130-2 to 1130-11 are continuously displayed even while the still image 1110-1 thus obtained is captured and stored. In this way, the live view images 1130-2 to 1130-11 are obtained from pixel values read from the second pixel group of the imaging unit 110, and the still image 1110-1 is the first pixel of the imaging unit 110. Obtained based on pixel values read from the group. Since the first pixel group and the second pixel group are independently controlled and output an output signal, the display unit 160 stores the live view image captured by the second pixel group while storing the image captured by the first pixel group. Is displayed.

마찬가지로, 제2 시점(t2)과 제3시점(t3)에 사용자가 촬상 동작을 수행하면, 제어부(130)는 각각의 시점에 획득된 제2 정지 이미지(1110-2) 및 제3 정지 이미지(1110-3)를 압축해서 저장부(150)에 저장하도록 제어할 수 있다. Similarly, when the user performs an imaging operation at the second time point t2 and the third time point t3, the controller 130 may control the second still image 1110-2 and the third still image (obtained at each time point). 1110-3) may be controlled to be compressed and stored in the storage 150.

이때, 제2 정지 이미지(1110-2)의 위상차 오토 포커싱 정보는 라이브 뷰 이미지(1130-12)로부터 획득한 위상차 오토 포커싱 정보에 기초한다. 또한, 제3 정지 이미지(1110-3)의 위상차 오토 포커싱 정보는 라이브 뷰 이미지(1130-25)로부터 획득한 위상차 오토 포커싱 정보에 기초한다. In this case, the phase difference auto focusing information of the second still image 1110-2 is based on the phase difference auto focusing information obtained from the live view image 1130-12. In addition, the phase difference auto focusing information of the third still image 1110-3 is based on the phase difference auto focusing information obtained from the live view image 1130-25.

도 12는 본 발명의 다른 실시 예에 따른 촬상장치를 설명하기 위한 블럭도이다.12 is a block diagram illustrating an image capturing apparatus according to another embodiment of the present invention.

도 12를 참조하면, 촬상 장치(100)는 촬상부(110), 제어부(130), 저장부(150), 디스플레이부(160) 및 AF 처리부(170)를 포함한다. Referring to FIG. 12, the imaging apparatus 100 includes an imaging unit 110, a controller 130, a storage 150, a display 160, and an AF processor 170.

촬상부(110)는 복수의 제1 화소 그룹과 제2 화소 그룹으로 구분되는 복수의 화소를 이용하여 피사체의 이미지를 획득한다. 제어부(130)는 촬상부(110)에 촬상된 이미지를 처리한다. 디스플레이부(160)는 제어부(130)에 의해서 이미지 처리된 촬상 이미지를 디스플레이한다. AF 처리부(170)는 제2 화소 그룹으로부터 독취된 화소 값으로부터 위상차 정보를 추출한다. 제어부(130)는 복수의 제1 화소 그룹과 제2 화소 그룹의 화소의 노광을 동시에 개시하는 제1 리셋 신호 및 제2 리셋 신호를 순차적으로 주사하고, 주사 순서에 대응되게 복수의 제1 화소 그룹과 복수의 제2 화소 그룹의 화소 값을 각각 순차적으로 독취하도록 제어한다.The imaging unit 110 acquires an image of a subject by using a plurality of pixels divided into a plurality of first pixel groups and a second pixel group. The controller 130 processes the image captured by the imaging unit 110. The display 160 displays the captured image processed by the controller 130. The AF processor 170 extracts phase difference information from pixel values read from the second pixel group. The controller 130 sequentially scans the first reset signal and the second reset signal for simultaneously exposing exposure of the pixels of the plurality of first pixel groups and the second pixel group, and the plurality of first pixel groups to correspond to the scanning order. And the pixel values of the plurality of second pixel groups are sequentially read.

이때 촬상부(110)는 광을 수광하는 렌즈(114), 수광된 광을 전기적 신호로 변환하는 촬상소자(111), 및 A/D 컨버터(115-1, 115-2)를 포함한다. In this case, the imaging unit 110 includes a lens 114 for receiving light, an imaging device 111 for converting the received light into an electrical signal, and A / D converters 115-1 and 115-2.

촬상 소자(111)는 렌즈(114)를 통해서 들어온 피사체의 광신호를 전기신호로 변환한다. 즉, 촬상 소자(111)는 제1 화소 그룹과 제2 화소 그룹으로 분리되는 복수의 화소로부터 각각 정지 이미지 및 라이브 뷰 이미지를 촬상한다.The imaging device 111 converts the optical signal of the subject introduced through the lens 114 into an electrical signal. That is, the imaging element 111 picks up a still image and a live view image from a plurality of pixels divided into a first pixel group and a second pixel group, respectively.

이때, 복수의 제1 화소 그룹은 매트릭스 형태의 복수의 화소로 구성될 수 있고, 복수의 제2 화소 그룹은 복수의 제1 화소 그룹과 동일한 형태의 복수의 화소로 구성될 수 있다. 또는 복수의 제2 화소 그룹은 복수의 제1 화소 그룹의 복수의 화소 사이의 공간에 구성될 수 있다.In this case, the plurality of first pixel groups may be composed of a plurality of pixels having a matrix form, and the plurality of second pixel groups may be configured of a plurality of pixels having the same shape as the plurality of first pixel groups. Alternatively, the plurality of second pixel groups may be configured in a space between the plurality of pixels of the plurality of first pixel groups.

즉, 복수의 제1 화소 그룹과 복수의 제2 화소 그룹은 서로 독립적으로 동작할 수 있고, 복수의 제1 화소 그룹을 통해서는 기존의 이미지 센서와 같은 기능을 수행하고, 복수의 제2 화소 그룹을 통해서는 위상차 정보를 포함하는 이미지를 획득하는 기능을 수행한다. That is, the plurality of first pixel groups and the plurality of second pixel groups may operate independently of each other, perform the same functions as the existing image sensor through the plurality of first pixel groups, and perform the plurality of second pixel groups. Through this, a function of acquiring an image including phase difference information is performed.

복수의 제1 화소 그룹의 화소는 고속 연산 알고리즘을 위해 별도의 제1 제어부(미도시)와 제1 출력부(미도시)를 갖도록 설계할 수 있고, 복수의 제2 화소 그룹의 화소는 영상 정보를 얻기 위한 별도의 제2 제어부(미도시) 및 제2 출력부(미도시)를 갖도록 설계할 수 있다. 이때 제1 출력부 및 제2 출력부는 물리적으로 구분되는 출력부일 수도 있고, 물리적으로는 공유하지만 시분할로 시간을 분리하여 제1출력부 및 제2 출력부를 하나의 출력부로 공유하도록 설계할 수 있다. The pixels of the plurality of first pixel groups may be designed to have a separate first control unit (not shown) and a first output unit (not shown) for a high speed algorithm, and the pixels of the plurality of second pixel groups may include image information. It may be designed to have a separate second control unit (not shown) and a second output unit (not shown) to obtain a. In this case, the first output unit and the second output unit may be physically divided output units, or they may be designed to share the first output unit and the second output unit as one output unit by physically sharing but separating time by time division.

복수의 제1 화소 그룹으로부터 촬상된 이미지 신호는 제1 A/D 컨버터(115-1)를 통해서 제1 디지털 신호로 변환되고, 복수의 제2 화소 그룹으로부터 촬상된 이미지 신호는 제2 A/D 컨버터(115-2)를 통해서 제2 디지털 신호로 변환된다.  The image signals picked up from the plurality of first pixel groups are converted into first digital signals through the first A / D converter 115-1, and the image signals picked up from the plurality of second pixel groups are second A / D. The converter 115-2 converts the signal into a second digital signal.

이렇게 변환된 제1 디지털 신호 및 제2 디지털 신호는 제어부(130)의 제어 신호에 따라 저장부(150)에 저장되거나, 디스플레이부(160)에 라이브 뷰 이미지로 디스플레이되거나, 위상차 AF 처리부(170)로 입력되서 피사체의 자동 초점 정보로 활용될 수 있다.The converted first digital signal and the second digital signal are stored in the storage 150 according to the control signal of the controller 130, displayed as a live view image on the display 160, or the phase difference AF processor 170. It can be input to and used as auto focus information of the subject.

AF 처리부(170)는 촬상 소자(111)에 의해서 획득한 화소값 중 제2 화소 그룹으로부터 획득한 화소 값에 포함된 위상차 정보에 따라 위상차 오토 포커싱을 수행하여 초점에 대한 정보를 추출하고, 추출된 초점에 따라 피사체의 초점을 조절한다.The AF processor 170 extracts information on focus by performing phase difference autofocusing according to phase difference information included in pixel values obtained from the second pixel group among the pixel values acquired by the imaging device 111. Adjust the focus of the subject according to the focus.

제어부(130)는 AF 처리부(170)에 의해서 추출된 위상차 정보에 기초하여 렌즈(114)의 초점을 조절하도록 촬상부(110)를 제어한다.The controller 130 controls the imaging unit 110 to adjust the focus of the lens 114 based on the phase difference information extracted by the AF processing unit 170.

또한, 제어부(130)는 라이브 뷰 이미지 표시 정보에 기초하여 디스플레이부(160)에 촬상되는 라이브 뷰 이미지를 디스플레이한다.In addition, the controller 130 displays the live view image captured by the display unit 160 based on the live view image display information.

이렇게 본 발명의 일 실시예에 따른 촬상 장치(100)는 촬상 소자(111)가 복수의 제1 화소 그룹과 복수의 제2 화소 그룹으로 서로 독립적인 구조로 구성될 수 있다. As described above, in the imaging apparatus 100 according to the exemplary embodiment, the imaging device 111 may be configured to have a structure independent of each other by a plurality of first pixel groups and a plurality of second pixel groups.

여기서, 복수의 제1 화소 그룹은 피사체의 정지 이미지 또는 동영상 이미지를 촬상하는 촬상 소자로 기능한다. 복수의 제2 화소 그룹은 피사체의 초점을 조절하기 위한 오토 포커싱 정보를 추출하기 위한 이미지를 촬상하는 촬상 소자로 기능한다.Here, the plurality of first pixel groups serve as an image pickup device for picking up a still image or a moving image of a subject. The plurality of second pixel groups function as an image pickup device that picks up an image for extracting auto focusing information for adjusting a focus of a subject.

본 발명의 일 실시예에 따른 복수의 제2 화소 그룹은 오토 포커싱 정보를 추출하기 위한 이미지를 촬상하기 때문에, 저해상도의 이미지를 촬상할 수 있는 픽셀로 설계될 수 있다. 따라서, 복수의 제2 화소 그룹은 복수의 제1 화소 그룹에 비하여 화소의 개수가 적고, 단위 화소의 크기도 작게 형성될 수 있다.Since a plurality of second pixel groups according to an embodiment of the present invention capture an image for extracting auto focusing information, the plurality of second pixel groups may be designed as pixels capable of capturing a low resolution image. Accordingly, the plurality of second pixel groups may have fewer pixels and smaller unit pixel sizes than the plurality of first pixel groups.

또한, 복수의 제2 화소 그룹은 복수의 제1 화소 그룹의 배열과 다르게 매트릭스 구조로 구성되지 않을 수 있으며, 복수의 제1 화소 그룹을 구성하는 화소 사이의 공간에 적어도 2개 이상의 화소로 구현될 수 있다.Also, unlike the arrangement of the plurality of first pixel groups, the plurality of second pixel groups may not have a matrix structure, and the plurality of second pixel groups may be implemented with at least two pixels in a space between pixels constituting the plurality of first pixel groups. Can be.

제어부(130)는, 저장부(150)에 독취된 화소 값을 저장하는 과정 중에도 라이브 뷰 동작을 계속적으로 수행하도록 디스플레이부(160)를 제어할 수 있다. 이는 정지 이미지 또는 동영상 이미지는 제1 화소 그룹을 통해서 독취되고, 라이브 뷰 이미지로 디스플레이되는 이미지는 제2 화소 그룹을 통해서 독취된다. 본 발명에 따른 고속 오토 포커싱 촬상 장치는, 정지 이미지를 저장하면서도 동시에 라이브 뷰 이미지를 디스플레이할 수 있는 효과를 발휘한다.The controller 130 may control the display 160 to continuously perform the live view operation even while the pixel value read in the storage 150 is stored. This means that a still image or a moving image is read through the first pixel group, and an image displayed as the live view image is read through the second pixel group. The high speed auto focusing imaging device according to the present invention has the effect of displaying a live view image while storing still images.

도 13은 도 1의 촬상 소자의 회로 구성을 설명하기 위한 도면이다.FIG. 13 is a diagram for describing a circuit configuration of the imaging device of FIG. 1.

도 13을 참조하면, CCD 픽셀 셀(Pixel Cell)과 AD 컨버터가 도시되어 있다. Referring to FIG. 13, a CCD pixel cell and an AD converter are shown.

CCD 픽셀 셀은 도 4에 도시된 바와 같은 촬상 소자 내의 하나의 소자이다. 구체적으로, CCD 픽셀 셀은 MOS(Metal-Oxide-Silicon)와 커패시터가 서로 매우 근접한 위치에 있으면서, 노광에 의하여 MOS의 전하 캐리어가 커패시터에 저장된다. 따라서, 노광 시간에 따라 커패시터에 저장되는 전하 캐리어의 크기는 변화된다. The CCD pixel cell is one element in the image pickup element as shown in FIG. Specifically, in the CCD pixel cell, a metal-oxide-silicon (MOS) and a capacitor are in close proximity to each other, and the charge carriers of the MOS are stored in the capacitor by exposure. Therefore, the size of the charge carriers stored in the capacitor changes with the exposure time.

AD 컨버터는 커패시터에 저장된 전하 캐리어의 크기를 독취하여, 즉, 커패시터의 전압 값을 독취하여 디지털 신호로 출력한다. 이러한 AD 컨버터는 매트릭스 내의 열 각각에 연결된다. The AD converter reads the magnitude of the charge carriers stored in the capacitor, that is, reads the voltage value of the capacitor and outputs the digital signal. These AD converters are connected to each column in the matrix.

도 14는 본 발명의 다른 실시예에 따른 고속 오토 포커싱 촬상 장치의 촬상 방법을 설명하기 위한 흐름도이다.14 is a flowchart illustrating an image capturing method of a high speed auto focusing image capturing apparatus according to another exemplary embodiment of the present invention.

도 14를 참조하면, 본 발명에 따른 촬상 장치(100)는 피사체 촬상 및 라이브 뷰 획득(S1410)하고, 획득된 촬상 데이터를 저장 하며(S1430), 및 획득된 라이브 뷰 이미지를 이용하여 라이브 뷰를 디스플레이 한다(S1450).Referring to FIG. 14, the image capturing apparatus 100 according to the present invention captures a subject and acquires a live view (S1410), stores the acquired image data (S1430), and performs a live view using the obtained live view image. Display (S1450).

피사체 촬상 및 라이브 뷰 획득은 상기 촬상부에 구비된 제1 화소 그룹을 이용하여 피사체를 촬상하고, 상기 촬상부에 구비된 제2 화소 그룹을 이용하여 상기 피사체에 대한 라이브 뷰를 획득한다(S1310).Subject imaging and live view acquisition capture a subject by using a first pixel group provided in the imaging unit, and obtain a live view of the subject using the second pixel group provided in the imaging unit (S1310). .

촬상 데이터 저장 단계는 제1 화소 그룹에 의해 촬상된 촬상 데이터를 저장한다(S1330).In the sensing data storing step, the sensing data captured by the first pixel group is stored (S1330).

라이브 뷰 디스플레이 단계는 제2 화소 그룹에 의해 획득된 라이브 뷰를 디스플레이한다(S1350).The live view display step displays the live view acquired by the second pixel group (S1350).

본 발명의 다른 실시예에 따른 촬상 장치의 촬상 방법은, 리셋 신호를 순차적으로 주사한다., 복수의 제1 화소 그룹과 복수의 제2 화소 그룹의 화소 값을 리드 아웃한다. 복수의 제2 화소 그룹으로부터 독취된 화소 값에서 위상차 오토 포커싱 정보를 추출하고 위상차 AF 정보와 라이브 뷰 표시 정보를 이용하여 피사체의 초점을 조절한다. 촬상한 이미지를 저장하면서 라이브 뷰 이미지를 표시한다.The imaging method of the imaging device according to another embodiment of the present invention sequentially scans the reset signal. The pixel values of the plurality of first pixel groups and the plurality of second pixel groups are read out. Phase difference autofocusing information is extracted from the pixel values read from the plurality of second pixel groups, and the focus of the subject is adjusted using the phase difference AF information and the live view display information. The Live View image is displayed while saving the captured image.

리셋 신호 순차적으로 주사하는 단계는 복수의 제1 화소 그룹과 복수의 제2 화소 그룹으로 구분되는 복수의 화소를 포함하는 촬상 소자(111)에 화소의 노광을 개시하는 리셋 신호를 복수의 제1 화소 그룹과 복수의 제2 화소 그룹에 각각 순차적으로 제1 리셋 신호 및 제2 리셋 신호를 주사한다. 이때, 복수의 제1 화소 그룹 및 복수의 제2 화소 그룹은 각각 별도의 수직 주사 라인 및 수평 주사 라인과 연결되고, 각각의 수직 주사 라인과 수평 주사 라인과 연결된 회로에 의해서 제어됨으로써, 서로 독립적으로 제1 리셋 신호 및 제2 리셋 신호를 주사할 수 있다.In the step of sequentially scanning the reset signals, a plurality of first pixels are provided with a reset signal for initiating exposure of the pixels to an imaging device 111 including a plurality of pixels divided into a plurality of first pixel groups and a plurality of second pixel groups. The first reset signal and the second reset signal are sequentially scanned to the group and the plurality of second pixel groups, respectively. In this case, the plurality of first pixel groups and the plurality of second pixel groups are connected to separate vertical scan lines and horizontal scan lines, respectively, and controlled by circuits connected to the respective vertical scan lines and the horizontal scan lines, thereby independently of each other. The first reset signal and the second reset signal may be scanned.

복수의 제1 화소 그룹와 복수의 제2 화소 그룹의 화소 값을 화소 그룹별로 순차적으로 독취하도록 리드 아웃한다. 구체적으로, 제1 리셋 신호가 주사된 제1 화소 그룹에 대해서 제1 리셋 신호가 주사된 이후 기설정된 시간에 제1 화소 그룹 내의 각 화소의 화소 값을 독취할 수 있다. 마찬가지로 제2 리셋 신호가 주사된 제2 화소 그룹에 대해서 제2 리셋 신호가 주사된 이후 기설정된 시간에 제2 화소 그룹 내의 각 화소의 화소 값을 독취할 수 있다. The pixel values of the plurality of first pixel groups and the plurality of second pixel groups are read out sequentially for each pixel group. In detail, the pixel value of each pixel in the first pixel group may be read at a predetermined time after the first reset signal is scanned with respect to the first pixel group scanned with the first reset signal. Similarly, a pixel value of each pixel in the second pixel group may be read at a predetermined time after the second reset signal is scanned for the second pixel group scanned with the second reset signal.

제2 화소 그룹 내의 각 화소로부터 독취된 화소 값에 기초하여 위상차 AF 정보 및 라이브 뷰 표시 정보를 추출한다. 구체적으로, 제2 화소 그룹의 각 화소의 화소 값은 상이한 위상차를 갖으므로, 각 화소의 화소 값을 비교하여 위상차 정보를 추출한다.Phase difference AF information and live view display information are extracted based on pixel values read from each pixel in the second pixel group. Specifically, since the pixel values of each pixel of the second pixel group have different phase differences, phase difference information is extracted by comparing pixel values of each pixel.

그리고 저장부에 저장하거나 디스플레이부에 표시하기 위해서 독취된 화소 값을 화소 그룹 단위로 압축한다. 구체적으로, 화소 그룹 단위로 독취된 복수의 화소 값을 준무손실 알고리즘을 이용하여 압축할 수 있다. The read pixel values are compressed in pixel group units for storage or display on the display unit. Specifically, the plurality of pixel values read in pixel group units may be compressed using a quasi-lossless algorithm.

그리고 제1 화소 그룹 단위로 압축된 화소 값을 저장하고, 제2 화소 그룹 단위로 압축된 화소 값을 라이브 뷰 이미지로 표시한다. 그리고 압축된 화소 값을 복원하고, 복원된 복수의 화소 값을 병합하여 하나의 이미지를 생성할 수 있다. 본 발명에 따른 고속 오토 포커싱 촬상 장치의 촬상 방법은 제2 화소 그룹에 의해서 촬상된 이미지로부터 위상차 정보를 추출함으로써, 제2 화소 그룹에 의해서 촬상된 라이브 뷰 이미지의 매 프레임마다, 피사체의 초점을 조절할 수 있다. 동시에, 제1 화소 그룹에 의해서 촬상된 이미지는 정지 이미지 또는 동영상 이미지로 저장부에 저장할 수 있다. The pixel value compressed in the unit of the first pixel group is stored and the pixel value compressed in the unit of the second pixel group is displayed as a live view image. The compressed pixel value may be restored, and one image may be generated by merging the plurality of restored pixel values. The image pickup method of the high speed auto focusing image capturing apparatus according to the present invention extracts phase difference information from an image picked up by the second pixel group, thereby adjusting the focus of the subject every frame of the live view image picked up by the second pixel group. Can be. At the same time, the image picked up by the first pixel group may be stored in the storage unit as a still image or a moving image.

라이브 뷰 이미지 표시하는 동작과 정지 이미지를 저장하는 동작은 동시에 이루어지고, 라이브 뷰 이미지로부터 위상차 정보를 추출함으로써 고속으로 오토 포커싱을 수행할 수 있다.The operation of displaying the live view image and the operation of storing the still image are simultaneously performed, and auto focusing can be performed at high speed by extracting phase difference information from the live view image.

또한, 상술한 바와 같은 촬상 방법은 상술한 바와 같은 촬상 장치의 촬상 방법을 실행하기 위한 적어도 하나의 실행 프로그램으로 구현될 수 있으며, 이러한 실행 프로그램은 컴퓨터 판독 기록매체에 저장될 수 있다. In addition, the imaging method as described above may be implemented with at least one execution program for executing the imaging method of the imaging device as described above, such execution program may be stored in a computer read recording medium.

따라서, 본 발명에 따른 촬상부에 구비된 제1 화소 그룹을 이용하여 피사체를 촬상하고, 촬상부에 구비된 제2 화소 그룹을 이용하여 피사체에 대한 라이브 뷰를 획득하는 단계, 제1 화소 그룹에 의해 촬상된 촬상 데이터를 저장하는 단계 및 제2 화소 그룹에 의해 획득된 라이브 뷰를 디스플레이하는 단계는 컴퓨터 판독가능한 기록매체 상의 컴퓨터 기록 가능한 코드로써 실시될 수 있다. 컴퓨터 판독가능한 기록매체는 컴퓨터시스템에 의해 판독될 수 있는 데이터를 저장할 수 있는 디바이스가 될 수 있다. Therefore, photographing the subject using the first pixel group provided in the imaging unit according to the present invention, and acquiring a live view of the subject using the second pixel group provided in the imaging unit. The step of storing the imaged data picked up by the user and displaying the live view obtained by the second pixel group may be implemented with computer recordable code on a computer readable recording medium. The computer readable recording medium may be a device capable of storing data that can be read by a computer system.

이상에서는 본 발명의 바람직한 실시 예에 대해서 도시하고, 설명하였으나, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자라면 누구든지 다양한 변형 실시할 수 있는 것은 물론이고, 그와 같은 변경은 청구범위 기재의 범위 내에 있게 된다. Although the above has been illustrated and described with respect to preferred embodiments of the present invention, the present invention is not limited to the above-described specific embodiments, and the present invention belongs to the present invention without departing from the gist of the present invention as claimed in the claims. Anyone of ordinary skill in the art can make various modifications, and such changes are within the scope of the claims.

110 : 촬상부 : 111 : 촬상소자
120 : 사용자 인터페이스부 130 : 제어부
140 : 통신 인터페이스부 150 : 저장부
160 ; 디스플레이부 170 : AF 처리부
110: imaging unit: 111: imaging device
120: user interface unit 130: control unit
140: communication interface unit 150:
160; Display unit 170: AF processing unit

Claims (17)

촬상 장치에 있어서,
제1 화소 그룹 및 제2 화소 그룹으로 구분되는 촬상부;
상기 제1 화소 그룹을 이용하여 피사체를 촬상하고, 상기 제2 화소 그룹을 이용하여 상기 피사체에 대한 라이브 뷰를 획득하도록 상기 촬상부를 제어하는 제어부;
상기 제1 화소 그룹에 의해 촬상된 촬상 데이터를 저장하는 저장부; 및
상기 제2 화소 그룹에 의해 획득된 라이브 뷰를 이용하여 AF 정보를 생성하는 AF 처리부;를 포함하는 촬상 장치.
In the imaging device,
An imaging unit divided into a first pixel group and a second pixel group;
A controller configured to photograph the subject by using the first pixel group and to control the imaging unit to obtain a live view of the subject by using the second pixel group;
A storage unit which stores the imaging data picked up by the first pixel group; And
And an AF processor configured to generate AF information by using the live view acquired by the second pixel group.
제1항에 있어서,
상기 AF 처리부는, 상기 제2 화소 그룹에 의해 획득된 라이브 뷰에 대해 콘트라스트 오토 포커싱을 수행하여 AF 정보를 생성하는 것을 특징으로 하는 촬상 장치.
The method of claim 1,
And the AF processing unit generates AF information by performing contrast auto focusing on the live view obtained by the second pixel group.
제1항에 있어서,
상기 제2 화소 그룹은, 각 화소마다 차광수단을 더 구비하고,
상기 AF 처리부는, 상기 제2 화소 그룹에 의해 획득된 라이브 뷰에 대해 위상차 오토 포커싱을 수행하여 AF 정보를 생성하는 것을 특징으로 하는 촬상 장치.
The method of claim 1,
The second pixel group further includes light blocking means for each pixel.
And the AF processing unit generates AF information by performing phase difference auto focusing on the live view obtained by the second pixel group.
제1항에 있어서,
연속 촬상 명령을 입력받기 위한 사용자 인터페이스부;를 더 포함하며,
상기 제어부는,
상기 연속 촬상 명령이 입력되면 기 설정된 시간 간격으로 상기 제1 화소 그룹을 이용하여 연속적으로 촬상을 수행하며, 연속 촬상이 이루어지는 동안에도 상기 제2 화소 그룹을 이용하여 상기 라이브 뷰를 지속적으로 획득하도록 상기 촬상부를 제어하는 것을 특징으로 하는 촬상 장치.
The method of claim 1,
And a user interface unit configured to receive a continuous imaging command.
The control unit,
When the continuous imaging command is input, the imaging is continuously performed using the first pixel group at a predetermined time interval, and the live view is continuously acquired using the second pixel group even during continuous imaging. An imaging device, characterized in that for controlling the imaging section.
제4항에 있어서,
상기 제어부는,
각 촬상이 개시되는 시점에 획득된 라이브 뷰에 대해 상기 AF 처리부에 의해 생성한 AF 정보를 이용하여, 각 촬상 시점의 포커스를 조절하도록 상기 촬상부를 제어하는 것을 특징으로 하는 촬상 장치.
5. The method of claim 4,
The control unit,
And the image capturing unit controls the image capturing unit to adjust the focus at each image capturing time point using the AF information generated by the AF processing unit with respect to the live view obtained at the time point at which each image capturing starts.
제1항에 있어서,
상기 제1 화소 그룹은 복수의 열 및 복수의 행으로 이루어진 매트릭스 형태로 배열된 복수의 제1 화소를 포함하고,
상기 제2 화소 그룹은 각 제1 화소에 매칭되도록 배열된 복수의 제2 화소를 포함하는 것을 특징으로 하는 촬상 장치.
The method of claim 1,
The first pixel group includes a plurality of first pixels arranged in a matrix form of a plurality of columns and a plurality of rows.
And the second pixel group includes a plurality of second pixels arranged to match each first pixel.
제6항에 있어서,
상기 복수의 제2 화소 중 일부는 입사광을 부분적으로 차단하는 차광수단을 구비하는 것을 특징으로 하는 촬상 장치.
The method according to claim 6,
And some of said plurality of second pixels are provided with light shielding means for partially blocking incident light.
제6항에 있어서,
상기 제1 화소의 크기는 상기 제2 화소의 크기보다 크며, 상기 제1 화소의 개수는 상기 제2 화소의 개수 이상인 것을 특징으로 하는 촬상 장치.
The method according to claim 6,
The size of the first pixel is larger than the size of the second pixel, the number of the first pixel is at least the number of the second pixel.
제1항 내지 제8항 중 어느 한 항에 있어서,
상기 라이브 뷰를 지속적으로 디스플레이하는 디스플레이부;를 더 포함하는 촬상 장치.
The method according to any one of claims 1 to 8,
And a display unit for continuously displaying the live view.
촬상부를 포함하는 촬상 장치의 촬상 방법에 있어서,
상기 촬상부에 구비된 제1 화소 그룹을 이용하여 피사체를 촬상하고, 상기 촬상부에 구비된 제2 화소 그룹을 이용하여 상기 피사체에 대한 라이브 뷰를 획득하는 단계;
상기 제1 화소 그룹에 의해 촬상된 촬상 데이터를 저장하는 단계; 및
상기 제2 화소 그룹에 의해 획득된 라이브 뷰를 디스플레이하는 단계;를 포함하는 촬상 방법.
An imaging method of an imaging device including an imaging unit,
Imaging a subject using a first pixel group provided in the imaging unit, and obtaining a live view of the subject using the second pixel group provided in the imaging unit;
Storing the imaging data picked up by the first pixel group; And
Displaying the live view obtained by the second group of pixels.
제10항에 있어서,
상기 라이브 뷰에 대해 콘트라스트 오토 포커싱을 수행하여 AF 정보를 생성하는 단계;를 더 포함하는 촬상 방법.
The method of claim 10,
And performing contrast auto focusing on the live view to generate AF information.
제10항에 있어서,
상기 라이브 뷰에 대해 위상차 오토 포커싱을 수행하여 AF 정보를 생성하는 단계;를 더 포함하는 촬상 방법.
The method of claim 10,
And performing phase difference auto focusing on the live view to generate AF information.
제11항에 있어서,
연속 촬상이 이루어지는 경우, 각 촬상이 개시되는 시점에 획득된 라이브 뷰에 대해 콘트라스트 오토 포커싱을 수행하여 AF 정보를 생성하는 단계; 및,
각 촬상 시점마다 생성된 AF 정보를 이용하여 포커스를 조정하는 단계;를 더 포함하는 촬상 방법.
12. The method of claim 11,
When continuous imaging is performed, generating AF information by performing contrast autofocusing on the live view obtained at the start of each imaging; And
And adjusting the focus by using the AF information generated at each imaging time point.
제12항에 있어서,
연속 촬상이 이루어지는 경우, 각 촬상이 개시되는 시점에 획득된 라이브 뷰에 대해 위상차 오토 포커싱을 수행하여 AF 정보를 생성하는 단계; 및
각 촬상 시점마다 생성된 AF 정보를 이용하여 포커스를 조정하는 단계;를 더 포함하는 촬상 방법.
The method of claim 12,
When continuous imaging is performed, generating AF information by performing phase difference autofocusing on the live view acquired at the time when each imaging is started; And
And adjusting the focus by using the AF information generated at each imaging time point.
제10항에 있어서,
상기 제1 화소 그룹은 복수의 열 및 복수의 행으로 이루어진 매트릭스 형태로 배열된 복수의 제1 화소를 포함하고,
상기 제2 화소 그룹은 각 제1 화소에 매칭되도록 배열된 복수의 제2 화소를 포함하는 것을 특징으로 하는 촬상 방법.
The method of claim 10,
The first pixel group includes a plurality of first pixels arranged in a matrix form of a plurality of columns and a plurality of rows.
And the second pixel group includes a plurality of second pixels arranged to match each first pixel.
제14항에 있어서,
상기 제1 화소의 크기는 상기 제2 화소의 크기보다 크며, 상기 제1 화소의 개수는 상기 제2 화소의 개수 이상인 것을 특징으로 하는 촬상 방법.
15. The method of claim 14,
The size of the first pixel is larger than the size of the second pixel, the number of the first pixel is at least the number of the second pixel.
촬상방법을 실행하기 위한 프로그램을 포함하는 컴퓨터 판독가능 기록매체에 있어서,
상기 촬상방법은,
상기 촬상부에 구비된 제1 화소 그룹을 이용하여 피사체를 촬상하고, 상기 촬상부에 구비된 제2 화소 그룹을 이용하여 상기 피사체에 대한 라이브 뷰를 획득하는 단계;
상기 제1 화소 그룹에 의해 촬상된 촬상 데이터를 저장하는 단계; 및
상기 제2 화소 그룹에 의해 획득된 라이브 뷰를 디스플레이하는 단계;를 포함하는 컴퓨터 판독가능 기록매체.
A computer readable recording medium comprising a program for executing an imaging method, the method comprising:
The imaging method,
Imaging a subject using a first pixel group provided in the imaging unit, and obtaining a live view of the subject using the second pixel group provided in the imaging unit;
Storing the imaging data picked up by the first pixel group; And
Displaying the live view obtained by the second group of pixels.
KR1020120113798A 2012-03-30 2012-10-12 Image pickup apparatus, method for image pickup and computer-readable recording medium KR20130111172A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US13/853,538 US9191566B2 (en) 2012-03-30 2013-03-29 Image pickup apparatus, method for image pickup and computer-readable recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201261617943P 2012-03-30 2012-03-30
US61/617,943 2012-03-30

Publications (1)

Publication Number Publication Date
KR20130111172A true KR20130111172A (en) 2013-10-10

Family

ID=49632861

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120113798A KR20130111172A (en) 2012-03-30 2012-10-12 Image pickup apparatus, method for image pickup and computer-readable recording medium

Country Status (1)

Country Link
KR (1) KR20130111172A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10078198B2 (en) 2014-08-08 2018-09-18 Samsung Electronics Co., Ltd. Photographing apparatus for automatically determining a focus area and a control method thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10078198B2 (en) 2014-08-08 2018-09-18 Samsung Electronics Co., Ltd. Photographing apparatus for automatically determining a focus area and a control method thereof

Similar Documents

Publication Publication Date Title
US9191566B2 (en) Image pickup apparatus, method for image pickup and computer-readable recording medium
US20240340542A1 (en) Image capturing device, image processing device and display device for setting different exposure conditions
US11095830B2 (en) Image-capturing device and image processing device
CN109196854B (en) Imaging device, image processing device, and electronic apparatus
KR101822661B1 (en) Vision recognition apparatus and method
KR20040036458A (en) Improved image sensing means for digital camera and digital camera adopting the same
WO2017170716A1 (en) Image pickup device, image processing device, and electronic apparatus
EP3358822A1 (en) Imaging device and image processing device
EP3203722A1 (en) Electronic apparatus and image processing method
JP2022115944A (en) Imaging apparatus
JPWO2017175802A1 (en) Image processing apparatus, electronic device, playback apparatus, playback program, and playback method
KR20130111172A (en) Image pickup apparatus, method for image pickup and computer-readable recording medium
WO2017170717A1 (en) Image pickup device, focusing device, and electronic apparatus
JP6678505B2 (en) Imaging device, control method therefor, program, and storage medium
US12114073B2 (en) Imaging element including processor configured to receive vibration information related to a vibration exerted on the imaging element, imaging apparatus, operation method of imaging element, and program
JP2013197612A (en) Imaging apparatus, image processing apparatus, and program
JP7131595B2 (en) playback equipment and electronic equipment
WO2017170719A1 (en) Image pickup device and electronic apparatus
WO2017170718A1 (en) Image pickup device, subject detection device, and electronic apparatus
JP2017188788A (en) Electronic apparatus, playback device, recording program, playback program and imaging system

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E601 Decision to refuse application