KR20100118888A - Photographing apparatus and method of displaying subject - Google Patents

Photographing apparatus and method of displaying subject Download PDF

Info

Publication number
KR20100118888A
KR20100118888A KR1020090037820A KR20090037820A KR20100118888A KR 20100118888 A KR20100118888 A KR 20100118888A KR 1020090037820 A KR1020090037820 A KR 1020090037820A KR 20090037820 A KR20090037820 A KR 20090037820A KR 20100118888 A KR20100118888 A KR 20100118888A
Authority
KR
South Korea
Prior art keywords
image
area
unit
photographing
live view
Prior art date
Application number
KR1020090037820A
Other languages
Korean (ko)
Inventor
양경동
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020090037820A priority Critical patent/KR20100118888A/en
Publication of KR20100118888A publication Critical patent/KR20100118888A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows

Abstract

PURPOSE: A photographing apparatus and a method of displaying a subject for conveniently confirming contents of various elements are provided to conveniently confirm the specific element for displaying a live-view image. CONSTITUTION: A photographing unit generates an image data displaying an image by photographing a photographing object. A reference setting unit(45) sets up a reference selecting a confirming area for photographing the photographing object. A live view generating unit(70) extracts the image data from the confirmation area satisfying the fixed the standards in the reference setting unit.

Description

촬영 장치 및 촬영 대상 표시방법{Photographing apparatus and method of displaying subject}Photographing apparatus and method of displaying subject}

본 발명은 촬영 장치 및 촬영 대상 표시방법에 관한 것으로, 보다 상세하게는 촬영 대상에서 촬영을 위해 확인할 영역에 대한 부분 이미지와 화상의 전체 이미지를 합성한 라이브뷰 이미지가 표시되므로 사용자가 촬영을 위해 의도한 여러 가지 요소들의 자세한 내용을 편리하게 확인할 수 있는 촬영 장치 및 촬영 대상 표시방법에 관한 것이다.The present invention relates to a photographing apparatus and a method for displaying a photographing target, and more particularly, a live view image obtained by synthesizing a partial image and an entire image of an image to be checked for photographing at a photographing target is displayed, and thus is intended for a user. The present invention relates to a photographing apparatus and a method of displaying a photographing target, in which details of various elements can be conveniently confirmed.

디지털 카메라나 폰카메라 등과 같이 촬상소자를 구비하는 촬영 장치들은 촬영의 대상이 되는 피사체의 모습을 사용자에게 실시간으로 보여주는 라이브뷰(live view) 기능을 갖는다. 라이브뷰 기능은 촬영을 실시할 화상의 화질 상태를 촬영 직전에 확인하게 하는 기능이다. Photographing devices having an image pickup device such as a digital camera or a phone camera have a live view function of showing a user's subject in real time to a user in real time. The live view function checks the image quality of the image to be photographed immediately before shooting.

최근 디지털 카메라 등에 널리 구현되고 있는 라이브뷰 기능은 별도의 광학식 뷰파인더를 사용하지 않고 촬영 기능을 수행하도록 디지털 카메라에 장착된 촬상소자를 이용하여 촬영 전의 화면을 실시간으로 사용자에게 제공하는 방식이다. 이로 인해 사용자는 촬영될 영상에 근접한 실제 라이브뷰 화면을 미리 확인할 수 있다. Recently, a live view function widely implemented in a digital camera is a method of providing a user with a screen before shooting in real time by using an image pickup device mounted in the digital camera to perform a shooting function without using a separate optical viewfinder. As a result, the user can check in advance the actual live view screen close to the image to be photographed.

그런데 상술한 바와 같은 종래의 촬영 장치에 구비된 라이브뷰 기능은 디지털 카메라의 디스플레이의 크기 제한되는 등의 원인에 의한 사용상의 불편함을 가지고 있었다. 예를 들어, 풍경을 배경으로 인물을 촬영할 때에는 사용자는 풍경에 대한 인물의 위치, 인물의 표정, 또는 인물의 얼굴 영역에 대한 초점 조정 상태 등 촬영을 실행하기 직전에 몇 가지 중요한 요인들을 확인해야 한다. 그러나 휴대가 용이하도록 소형으로 제작되는 디지털 카메라에서는 장착된 디스플레이의 크기도 작기 때문에 촬영 대상이 되는 화면의 전체적인 구도를 확인함과 동시에 인물의 얼굴 영역의 초점 조정 상태 등을 확인하는 것은 불가능한 문제점이 있었다.However, the live view function provided in the conventional photographing apparatus as described above had inconveniences in use due to the size limitation of the display of the digital camera. For example, when photographing a person against a landscape, the user must check several important factors immediately before performing a shoot, such as the person's position in the scenery, the person's facial expression, or the focusing state of the person's face area. . However, since the size of the mounted display is small, it is impossible to check the overall composition of the screen to be photographed and to check the focus adjustment state of the face area of the person because the digital display manufactured to be small is easy to carry. .

사용자가 촬영을 실행할 때에 주안점을 두는 요인은, 인물의 얼굴에 대한 초점 조정 상태에만 한정되는 것은 아니다. 예를 들어, 사용자는 앞서 설명하였듯이 배경에 대한 인물의 위치의 관계와 같은 화면 구도나, 인물이 웃는 경우와 같은 표정 변화나, 특정한 피사체의 움직임이나, 특정 영역의 노출 상태 정보와 같이 다양한 요인들이 사용자의 의도에 부합할 때에 최종적으로 촬영을 결정한다.The factor that focuses on the user's shooting is not limited to the focus adjustment state for the face of the person. For example, as described above, the user may have various factors such as the composition of the screen such as the relationship of the position of the person with respect to the background, the expression change such as when the person smiles, the movement of a specific subject, or the exposure state information of the specific area. The shooting is finally decided when the user's intention is met.

종래의 디지털 카메라는 얼굴을 자동적으로 인식하여 인식된 얼굴에 대한 초점 조정을 실행하고, 라이브뷰 화면 상태에서 인식된 얼굴의 영역에 사각형 박스 표시를 나타내는 기능을 구비하기도 한다. 이러한 기능을 구비한 디지털 카메라는 인물 촬영을 편리하게 하는 장점을 갖지만, 여러 가지 요인들이 자신의 의도에 부합하였는지를 신속히 확인하여 촬영 실행을 결정하길 원하는 사용자들의 다양한 욕구를 충족시키지는 못하였다. 즉 종래의 디지털 카메라의 라이브뷰 화면에는 촬영 이 실행될 전체 영상만이 표시고 전체 영상의 일부 영역들이 촬영 의도에 부합하는지를 확인할 방법이 없기 때문에, 촬영이 불편할 뿐만 아니라, 사용자의 의도에 맞지 않은 영상이 촬영되거나, 적절한 촬영의 타이밍을 놓치는 문제점이 있었다.Conventional digital cameras have a function of automatically recognizing a face to perform focus adjustment on the recognized face, and displaying a rectangular box on an area of the recognized face in a live view screen state. Digital cameras equipped with these features have the advantage of making portraits more convenient, but have not been able to meet the various needs of users who want to quickly determine whether various factors have met their intentions and decide to execute shooting. In other words, the live view screen of a conventional digital camera displays only the entire image to be shot and there is no way to check whether some areas of the entire image meet the shooting intention. There was a problem of missing a picture or missing the timing of proper shooting.

본 발명의 목적은 향상된 라이브뷰 기능을 갖는 촬영 장치를 제공하는 데 있다.An object of the present invention is to provide a photographing apparatus having an improved live view function.

본 발명의 다른 목적은 촬영 대상의 모습을 실시간으로 제공하는 라이브뷰 화면을 통해 촬영 의도에 속하는 여러 가지 요소들을 사용자가 편리하게 확인할 수 있게 하는, 촬영 대상 표시방법을 제공하는 데 있다.Another object of the present invention is to provide a method for displaying a shooting target, which enables a user to conveniently check various elements belonging to a shooting intention through a live view screen which provides a real-time view of a shooting target.

본 발명의 또 다른 목적은 촬영을 실행할 때에 사용자가 관심을 갖는 여러 가지 요인과 영역들을 라이브뷰 화면에 복합적으로 표시함으로써 편리하고 효율적인 촬영이 가능한 촬영 장치와, 촬영 대상 표시방법을 제공하는 데 있다.It is still another object of the present invention to provide a photographing apparatus and a method of displaying a photographing object, which enable convenient and efficient photographing by displaying various factors and regions of interest when the photographing is performed on a live view screen.

본 발명은 촬영 대상에서 촬영을 위해 확인할 영역에 대한 부분 이미지와 화상의 전체 이미지를 합성한 라이브뷰 이미지를 표시할 수 있는 촬영 장치 및 촬영 대상 표시방법을 제공한다.The present invention provides a photographing apparatus and a photographing target display method capable of displaying a live view image obtained by synthesizing a partial image of a region to be checked for photographing from a photographing subject and an entire image of the image.

본 발명에 관한 촬영 장치는, 미리 정해진 주기마다 촬영 대상을 촬상하여 화상을 나타내는 화상 데이터를 생성하는 촬상부와, 촬영 대상에서 촬영을 위해 확인할 영역들을 선정하는 기준을 설정하는 기준 설정부와, 화상 데이터가 나타내는 화상에서 기준 설정부에 설정된 기준을 충족하는 확인 영역으로부터 부분 이미지를 추출하고 부분 이미지와 화상 데이터가 나타내는 화상의 전체를 포함하는 전체 이미지를 합성한 라이브뷰 이미지를 생성하는 라이브뷰 생성부와, 라이브뷰 이미지를 출력하는 표시부를 구비한다.The photographing apparatus according to the present invention includes an image capturing unit for capturing a photographing target at predetermined intervals to generate image data representing an image, a reference setting unit for setting a criterion for selecting regions to be checked for photographing at the photographing target, and an image. A live view generation unit that extracts a partial image from a confirmation area that meets the criteria set in the reference setting unit in the image represented by the data, and generates a live view image obtained by combining the partial image and the entire image including the entire image represented by the image data. And a display unit for outputting a live view image.

본 발명에 있어서, 촬영 장치는 화상 데이터에서 인물을 검출하는 인물 검출부를 더 구비할 수 있고, 기준 설정부는 인물 검출부에 의해 검출된 인물의 얼굴 영역을 확인할 영역에 포함할 수 있다.In the present invention, the photographing apparatus may further include a person detector that detects a person from the image data, and the reference setting unit may include a face area of the person detected by the person detector.

본 발명에 있어서, 촬영 장치는 화상 데이터의 화상에서 초점 영역을 정하여 자동으로 초점을 조정하는 초점 조정부를 더 구비할 수 있고, 기준 설정부는 초점 조정부에 의해 정해지는 초점 영역을 확인할 영역에 포함할 수 있다.In the present invention, the photographing apparatus may further include a focus adjusting unit that automatically adjusts focus by defining a focus area in the image of the image data, and the reference setting unit may include a focus area determined by the focus adjusting unit in the area to be checked. have.

본 발명에 있어서, 촬영 장치는 사용자의 입력을 수신하는 사용자 입력부를 더 구비할 수 있고, 기준 설정부는 사용자 입력부에 의해 지정되는 사용자 지정 영역을 확인할 영역에 포함할 수 있다.In the present invention, the photographing apparatus may further include a user input unit that receives a user input, and the reference setting unit may include a user designation area designated by the user input unit in the area to be checked.

본 발명에 있어서, 촬영 장치는 사용자 지정 영역에 존재하는 피사체의 움직임을 감지하는 운동 감지부를 더 구비할 수 있고, 기준 설정부는 피사체가 존재하는 영역을 확인할 영역에 포함할 수 있다.In the present invention, the photographing apparatus may further include a motion detecting unit for detecting a movement of the subject present in the user designated area, and the reference setting unit may include the region in which the subject exists.

본 발명에 관한 촬영 대상 표시방법은, 촬영을 위해 확인할 영역들을 선정하는 기준을 설정하는 기준 설정 단계와, 촬영 대상을 촬상하여 화상을 나타내는 화상 데이터를 생성하는 촬상 단계와, 화상 데이터가 나타내는 화상에서 기준 설정 단계에서 설정된 기준을 충족하는 확인 영역으로부터 부분 이미지를 추출하고 부분 이미지와 화상 데이터가 나타내는 화상의 전체를 포함하는 전체 이미지를 합성한 라이브뷰 이미지를 생성하는 라이브뷰 생성 단계와, 라이브뷰 이미지를 출력하는 표시 단계를 포함한다. The photographing target display method according to the present invention includes a reference setting step of setting a criterion for selecting regions to be checked for photographing, an imaging step of photographing a photographing target to generate image data representing an image, and an image represented by the image data. A live view generation step of extracting a partial image from a confirmation region that meets the criteria set in the reference setting step and generating a live view image obtained by synthesizing the entire image including the entire image represented by the partial image and the image data; The display step of outputting.

상술한 바와 같은 본 발명의 촬영 장치 및 촬영 대상 표시방법은, 촬영 대상에서 촬영을 위해 확인할 영역에 대한 부분 이미지와 화상의 전체 이미지를 합성한 라이브뷰 이미지를 표시하므로 사용자가 촬영을 위해 의도하는 여러 가지 요소들의 자세한 내용을 편리하게 확인할 수 있다.As described above, the photographing apparatus and the method of displaying a photographing target of the present invention display a live view image obtained by synthesizing a partial image of a region to be checked for photographing and an entire image of the image in the photographing target, and thus, the user intends to capture various images. You can conveniently check the details of these four elements.

이하, 첨부 도면의 실시예들을 통하여, 본 발명에 관한 촬영 장치 및 촬영 대상 표시방법의 구성과 작용을 상세히 설명한다.Hereinafter, the configuration and operation of the photographing apparatus and the photographing target display method according to the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 관한 촬영 장치의 구성 요소들의 관계를 개략적으로 나타낸 블록도이다. 1 is a block diagram schematically illustrating a relationship between components of a photographing apparatus according to an exemplary embodiment of the present invention.

도 1에 나타난 실시예에 관한 촬영 장치는, 촬영 대상을 촬상하여 화상을 나타내는 화상 데이터를 생성하는 촬상부(3)와, 화상 데이터가 나타내는 화상으로부터 라이브뷰 이미지를 생성하는 라이브뷰 생성부(70)와, 라이브 이미지를 출력하는 표시부(51)와, 촬영을 위해 확인할 영역들을 선정하는 기준을 정하는 기준 설정부(45)를 구비한다.The imaging apparatus according to the embodiment shown in FIG. 1 includes an image capturing unit 3 for capturing a photographing target to generate image data representing an image, and a live view generating unit 70 for generating a live view image from an image represented by the image data. ), A display unit 51 for outputting a live image, and a reference setting unit 45 for defining a criterion for selecting regions to be checked for photographing.

이러한 구성을 갖는 촬영 장치는 촬상부(3)를 통해 촬영 대상을 나타내는 라이브뷰 이미지를 실시간으로 처리하여 표시부(51)에 표시함으로써, 촬영을 실행하기 위해 촬영 대상을 확인할 수 있게 하는 라이브뷰 기능을 사용자에게 제공할 수 있다.The photographing apparatus having such a configuration processes the live view image representing the photographing target in real time through the image capturing unit 3 and displays it on the display unit 51, thereby providing a live view function for confirming the photographing target for performing photographing. Can be provided to the user.

촬상부(3)는 피사체의 상을 촬상하여 전기적 신호로 변환하는 촬상소 자(20)와, 촬상소자(20)의 앞에 배치되는 광학계(10)와, 촬상소자(20)의 전기적 신호를 화상 데이터로 변환하는 화상 변환부(41)를 구비한다.The imaging unit 3 captures an image of an image pickup object 20 for converting an image of a subject into an electrical signal, an optical system 10 disposed in front of the image pickup device 20, and an electrical signal from the image pickup device 20. An image conversion unit 41 for converting the data is provided.

촬상소자(20)의 앞에 배치되는 광학계(10)는 복수 개의 렌즈들(12)을 포함하여, 외부의 영상광을 촬상소자(20)의 촬상면에 결상시키는 기능을 수행한다. 렌즈들(12)은 서로의 간격이 변동 가능하게 배치된다. 렌즈들(12)의 간격이 변동되면 광학계(10)의 줌 배율과 초점 등이 조절될 수 있다. The optical system 10 disposed in front of the image pickup device 20 includes a plurality of lenses 12 to perform the function of imaging external image light on the image pickup surface of the image pickup device 20. The lenses 12 are arranged to be variable in distance from each other. When the distance between the lenses 12 is changed, the zoom magnification and the focus of the optical system 10 may be adjusted.

렌즈들(12)은 줌모터와 같은 구동수단을 갖는 줌 구동부(11)에 의해 구동됨으로써 서로에 대한 위치가 변동될 수 있다. 렌즈들(12)은 피사체의 크기를 확대하거나 축소시키는 줌렌즈와, 피사체의 초점을 조절하는 포커스렌즈를 구비할 수 있다. 줌 구동부(11)는 제어부(40)의 구동 회로부(42)로부터 제어 신호를 인가 받아 작동된다. 따라서 줌 구동부(11)는 광학계(10)가 복수 개의 확대 배율들 중 어느 하나를 갖도록 광학계(10)를 구동할 수 있다.The lenses 12 are driven by the zoom driver 11 having a driving means such as a zoom motor, so that positions thereof with respect to each other may be varied. The lenses 12 may include a zoom lens that enlarges or reduces the size of the subject and a focus lens that adjusts the focus of the subject. The zoom driver 11 is operated by receiving a control signal from the driving circuit unit 42 of the controller 40. Accordingly, the zoom driver 11 may drive the optical system 10 such that the optical system 10 has any one of a plurality of magnifications.

촬상소자(20)는 씨씨디(CCD; charge coupled device) 또는 씨모스(CMOS; complementary metal oxide semiconductor)와 같은 광전 변환 소자를 포함하여, 광학계(10)를 통해 입사된 영상광을 전기적 신호인 화상 신호로 변환한다. 영상광이 전기적 신호로 변환되는 과정은, 먼저 아날로그 신호로 변환되는 단계와, 아날로그 신호를 디지털 신호로 변환하는 단계와, 디지털 신호에 대한 픽셀 결함 보정, 게인 보정, 화이트 밸런스 보정, 감마 보정 등의 신호 처리와 같은 세부 단계들로 이루어질 수 있다.The imaging device 20 includes a photoelectric conversion device such as a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS), and the image light incident through the optical system 10 is an image that is an electrical signal. Convert to a signal. The process of converting image light into an electrical signal includes first converting an analog signal, converting an analog signal to a digital signal, pixel defect correction, gain correction, white balance correction, gamma correction, and the like for the digital signal. It can be made up of detailed steps such as signal processing.

화상 변환부(41)는 촬상소자(20)의 전기적 신호를 화상 처리를 행할 수 있 는 화상 데이터로 변환한다. 화상 변환부(41)에 의해 생성된 화상 데이터는 메모리(15)에 저장될 수 있고, 라이브뷰 생성부(70), 얼굴 검출부(49), 도는 운동 감지부(46) 등에 의해 사용될 수 있다.The image conversion unit 41 converts the electrical signal of the image pickup device 20 into image data capable of performing image processing. The image data generated by the image converter 41 may be stored in the memory 15 and used by the live view generator 70, the face detector 49, the motion detector 46, and the like.

촬상부(3)가 촬영 대상의 영상광을 촬상하여 화상 데이터를 생성할 때에는 크게 두 가지의 경우로 나뉘어 작동할 수 있다. 즉 사용자가 셔터를 눌러 최종적으로 촬영을 실시하는 경우에는 촬상부(3)는 최상의 해상도를 갖는 이미지를 생성하도록 작동하고, 셔터를 누르기 전까지는 표시부(51)에 표시할 수 있는 라이브뷰 이미지를 생성하도록 작동한다. 일반적으로 표시부(51)가 갖는 해상도는 촬영 장치가 촬영하여 기록할 수 있는 최대 해상도보다 낮으므로, 촬상부(3)가 라이브뷰 이미지를 생성하기 위해 촬상 동작을 수행할 때에는 상대적으로 낮은 해상도를 갖는 이미지를 생성하는 동작을 수행한다.When the image capturing unit 3 generates image data by capturing image light of an object to be photographed, it can be divided into two cases. That is, when the user finally takes a picture by pressing the shutter, the imaging unit 3 operates to generate an image having the best resolution, and generates a live view image that can be displayed on the display unit 51 until the shutter is pressed. It works. In general, since the resolution of the display unit 51 is lower than the maximum resolution that the photographing apparatus can capture and record, the image pickup unit 3 has a relatively low resolution when the image capturing unit 3 performs an image capturing operation to generate a live view image. Perform an operation to create an image.

또한 촬영 장치가 라이브뷰 기능을 수행하는 동안에는 촬영 대상의 화상을 실시간으로 처리해서 표시부(51)에 표시하여야 하므로, 촬상부(3)는 미리 정해진 주기마다 촬영 대상을 촬상하여 화상 데이터를 생성하는 촬상 동작을 반복적으로 수행한다.In addition, while the photographing apparatus performs the live view function, the image of the subject to be photographed must be processed and displayed on the display unit 51 in real time, so that the image capturing unit 3 captures the subject to be photographed at predetermined intervals to generate image data. Repeat the operation.

제어부(40)는 촬상소자(20), 줌 구동부(11), 터치 스크린(50) 등과 전기적으로 연결되며, 각각의 구성 요소의 작동을 제어하기 위해 이들 구성 요소와 제어 신호를 주고받거나, 데이터를 처리하는 등의 기능을 수행한다. 제어부(40)는 화상 변환부(41)와, 구동 회로부(42)와, 터치 스크린 제어부(44)와, 메모리(15)에 대한 데이터 저장을 제어하는 메모리 제어부(43)와, 촬영 제어부(47)와, 기준 설정 부(45)와, 얼굴 검출부(49)와, 초점 조정부(48)와, 운동 감지부(46)와, 라이브뷰 생성부(70) 등을 구비한다. The controller 40 is electrically connected to the image pickup device 20, the zoom driver 11, the touch screen 50, and the like, and transmits and receives control signals or data to these components to control the operation of each component. It performs functions such as processing. The control unit 40 includes an image conversion unit 41, a driving circuit unit 42, a touch screen control unit 44, a memory control unit 43 that controls data storage for the memory 15, and a shooting control unit 47. ), A reference setting unit 45, a face detector 49, a focus adjuster 48, a motion detector 46, a live view generator 70, and the like.

제어부(40)는 마이크로 칩이나, 마이크로 칩을 구비하는 회로보드로 구현될 수 있으며, 제어부(40)에 포함되는 각 구성 요소들은 제어부(40)에 내장되는 소프트웨어나 회로들에 의해 구현될 수 있다.The controller 40 may be implemented as a microchip or a circuit board including the microchip, and each component included in the controller 40 may be implemented by software or circuits included in the controller 40. .

메모리 제어부(43)는 메모리(15)로의 화상 데이터의 기록과, 메모리(15)에 기록된 화상 데이터나 설정 정보 등의 독출을 제어한다. 메모리(15)는 예를 들면, SDRAM(synchronous DRAM) 등의 반도체 기억 소자로 이루어져 촬상된 화상의 데이터를 저장할 수 있다.The memory control section 43 controls the recording of the image data to the memory 15 and the reading of the image data and setting information recorded in the memory 15. The memory 15 is made of, for example, a semiconductor memory element such as SDRAM (synchronous DRAM) to store data of a captured image.

촬영 장치는 화상 데이터의 영상을 표시하는 표시부(51)와, 표시부(51)에 표시된 영상의 일부분을 선택하게 하는 입력부(52)를 갖는 터치 스크린(50)을 구비할 수 있다. 터치 스크린(50)은 촬상소자(20)에 의해 촬상된 영상을 표시하는 기능과, 표면의 터치를 감지하여 감지된 위치에 대응하는 신호를 발생시키는 기능을 수행한다. The photographing apparatus may include a touch screen 50 having a display unit 51 for displaying an image of image data and an input unit 52 for selecting a portion of the image displayed on the display unit 51. The touch screen 50 performs a function of displaying an image captured by the imaging device 20 and a function of sensing a touch on a surface and generating a signal corresponding to the detected position.

터치 스크린(50)은 키보드와 마우스를 대체하는 입력 장치이며, 디스플레이의 표면을 직접 손으로 터치하거나 펜으로 터치하여 원하는 작업을 수행할 수 있으므로 GUI(graphic user interface) 환경 하에서 직관적인 업무 수행을 가능하게 하는 장치이다. 터치 스크린(50)의 표시부(51)에는 액정 표시 장치(LCD; liquid crystal display)나 유기전계 발광장치(OLED) 등의 표시 장치가 이용될 수 있다. The touch screen 50 is an input device that replaces a keyboard and a mouse. Since the touch screen 50 can be directly touched with a hand or a pen to perform a desired task, an intuitive task can be performed under a graphical user interface (GUI) environment. It is a device that lets you. As the display unit 51 of the touch screen 50, a display device such as a liquid crystal display (LCD) or an organic light emitting diode (OLED) may be used.

입력부(52)는 표시부(51)의 표면에 설치되어 표면의 터치를 감지할 수 있 으며, 본 발명의 촬영 장치에 구비되는 사용자 입력부의 일 예이다. 입력부(52)에는 저항성 감지 수단, 용량성 감지 수단, 표면 음향파 이용 감지 수단, 적외선(IR) 이용 감지 수단, 및 광학 이용 감지 수단 등 여러 가지 형태의 기술이 이용될 수 있다.The input unit 52 is installed on the surface of the display unit 51 to sense a touch of the surface, and is an example of a user input unit provided in the photographing apparatus of the present invention. The input unit 52 may use various types of technologies such as resistive sensing means, capacitive sensing means, surface acoustic wave use sensing means, infrared (IR) use sensing means, and optical use sensing means.

사용자는 터치 스크린(50)의 입력부(52)를 접촉함으로써 표시부(51)에 표시된 영상의 일부분에서 메뉴를 선택하여 실행하거나, 확인 영역을 지정하는 작업을 할 수 있다.By touching the input unit 52 of the touch screen 50, the user may select and execute a menu from a portion of the image displayed on the display unit 51 or designate a confirmation area.

사용자 입력부를 위한 구성은 이와 같은 터치 스크린(50)에 의해서만 제한되는 것은 아니며, 여러 가지 형태로 구현될 수 있다. 예를 들어, 표시부(51)에 영상이 표시되었을 때 사용자는 촬영 장치에 구비된 메뉴 버튼이나 다이얼과 같은 다른 형태의 사용자 입력부(미도시)를 조작함으로써 확인 영역을 지정할 수 있다.The configuration for the user input unit is not limited only by the touch screen 50, and may be implemented in various forms. For example, when an image is displayed on the display unit 51, the user may designate a confirmation area by operating another type of user input unit (not shown) such as a menu button or a dial provided in the photographing apparatus.

촬상소자(20)에 의해 촬영 대상에 대한 촬상이 이루어져 전기 신호가 생성되고, 전기 신호가 화상 변환부(41)에 의해 화상 데이터로 변환되면, 라이브뷰 생성부(70)는 화상 데이터를 처리하여 표시부(51)에 표시할 수 있는 라이브뷰 이미지를 생성한다. 라이브뷰 생성부(70)는 화상 데이터가 나타내는 화상의 전체를 포함하는 전체 이미지와, 화상의 일부를 나타내는 부분 이미지를 합성하여 라이브뷰 이미지를 생성한다.When the imaging device 20 captures a photographing target to generate an electrical signal, and the electrical signal is converted into image data by the image conversion unit 41, the live view generation unit 70 processes the image data. A live view image that can be displayed on the display unit 51 is generated. The live view generation unit 70 generates a live view image by combining the entire image including the entire image represented by the image data and the partial image representing a part of the image.

라이브뷰 생성부(70)가 라이브뷰 이미지를 생성하기 위해 사용하는 부분 이미지는 화상 데이터가 나타내는 화상의 일부 영역에서 추출되는 것이며, 부분 이미지가 추출되는 화상의 일부 영역을 이하에서는 '확인 영역'이라고 부른다. 확인 영역은 화상의 특정한 영역에 고정되는 것은 아니며 미리 정해진 기준에 따라 선정되는 영역이다. The partial image used by the live view generating unit 70 to generate the live view image is extracted from a partial region of the image represented by the image data, and a partial region of the image from which the partial image is extracted is referred to as a 'confirmation region' below. Call. The confirmation area is not fixed to a specific area of the image but is an area that is selected according to a predetermined criterion.

기준 설정부(45)는 부분 이미지가 추출되는 확인 영역들을 선정하는 기준을 설정하는 기능을 수행한다. 확인 영역은 촬영 대상에서 촬영을 위해 확인할 영역들일 수 있다. The reference setting unit 45 performs a function of setting a reference for selecting confirmation areas from which the partial image is extracted. The confirmation areas may be areas to be checked for shooting in the photographing target.

도 2는 도 1의 촬영 장치를 이용해 확인 영역을 선정하는 기준을 설정하는 동작을 나타낸 작동 상태도이다.FIG. 2 is an operating state diagram illustrating an operation of setting a criterion for selecting a confirmation region using the photographing apparatus of FIG. 1.

예를 들어, 촬영 장치를 이용해 촬영을 실행하는 사용자가 촬영의 대상이 되는 인물의 얼굴 영역들의 초점이나 밝기나 표정 등의 상태를 자세히 확인하기 원할 때에는 이러한 인물의 얼굴 영역들이 확인 영역으로 설정될 수 있다. 이러한 기능을 선택하기 위해서는 터치 스크린(50)에 표시된 확인 영역 기준 설정 메뉴(120)에서 얼굴 인식 메뉴(121)를 선택할 수 있다.For example, when a user who takes a picture using a photographing device wants to check details of the focus, brightness, or facial expression of the face areas of the person to be photographed, the face areas of the person may be set as the confirmation area. have. In order to select such a function, the face recognition menu 121 may be selected from the confirmation area reference setting menu 120 displayed on the touch screen 50.

또한 예를 들어, 사용자가 촬영 장치가 촬영을 실행하기 위해 초점을 조정한 초점 영역을 확인하길 원할 때에는, 초점 영역 메뉴(122)를 선택함으로써 이러한 초점 영역이 확인 영역이 될 수 있다. 또한 사용자가 전체 화면의 일부 영역을 자유롭게 지정하여 확인하길 원할 때에는, 사용자 영역 메뉴(123)를 선택하고 전체 이미지(91)의 일부 영역(91a)을 지정할 수 있다. 이러한 경우 사용자가 지정하는 일부 영역(91a)이 확인 영역이 될 수 있다.Also, for example, when the user wants to check the focus area where the photographing apparatus has adjusted the focus to perform shooting, the focus area may be the confirmation area by selecting the focus area menu 122. In addition, when the user wants to freely designate and check a partial area of the entire screen, the user area menu 123 may be selected and a partial area 91a of the entire image 91 may be designated. In this case, the partial area 91a designated by the user may be the confirmation area.

사용자는 드래그 터치에 의해 터치 스크린(50)에 표시된 상자의 크기와 위치를 변경할 수 있다. 드래그 터치(drag touch)는 터치 스크린의 표면을 따라 일정 거리를 이동하는 터치 방식을 말한다. 사용자의 선택 조작이 완료되면 상자의 내부에 존재하는 영역(91a)이 확인 영역으로 설정된다.The user may change the size and position of the box displayed on the touch screen 50 by dragging the touch. Drag touch refers to a touch method for moving a predetermined distance along the surface of the touch screen. When the user's selection operation is completed, the area 91a existing inside the box is set as the confirmation area.

기준 설정부(45)는 표시부(51)에 확인 영역을 선정하는 기준의 설정에 대한 메뉴를 표시하게 하고, 사용자가 선택한 메뉴로부터 확인 영역 선정 기준을 미리 정할 수 있다. 본 실시예에서는, 확인 영역을 선정하기 위한 기준으로서, 상술한 바와 같이'얼굴 인식 모드'와, '초점 영역 모드'와, '사용자 영역 모드'를 예로 나타내었다.The reference setting unit 45 may display a menu for setting a reference for selecting a confirmation area on the display unit 51, and may predetermine a confirmation area selection criterion from a menu selected by the user. In the present embodiment, as a criterion for selecting the confirmation region, the 'face recognition mode', the 'focus area mode' and the 'user area mode' are described as examples.

얼굴 검출부(49)는 화상 데이터로부터 화상에 포함된 인물들의 얼굴을 인식할 수 있다. 얼굴 검출부(49)는 라이브뷰 이미지의 생성을 위해 촬상된 화상 데이터로부터 인물의 얼굴들에 해당하는 얼굴 영역들을 검출하는 얼굴 검출 회로를 구비할 수 있다. The face detector 49 may recognize the faces of people included in the image from the image data. The face detector 49 may include a face detection circuit that detects face regions corresponding to faces of a person from image data captured for generating a live view image.

얼굴 검출 회로에는 인물의 얼굴을 검출하기 위한 공지된 다양한 방법들이 사용될 수 있다. 예를 들어, 데이터베이스(60)에 저장된 표준적인 얼굴의 기하학적인 특징들을 이용하는 얼굴 인식 기술이 사용될 수 있다. 기하학적인 특징들을 이용한 얼굴 인식은, 눈, 코, 입과 같은 얼굴의 특징점들의 위치, 크기 및 이들 사이의 거리와 같은 기하학적 인자들을 사용하여 개인들 각각의 얼굴을 인식하는 기술이다.Various known methods for detecting a face of a person may be used in the face detection circuit. For example, face recognition techniques using standard facial geometric features stored in database 60 may be used. Face recognition using geometric features is a technique for recognizing faces of individual individuals using geometric factors such as the location, size and distance between facial feature points such as eyes, nose and mouth.

초점 조정부(48)는 화상 데이터로부터 피사체에 대한 초점 영역을 정한 후, 화상에서의 초점의 검출과 초점의 조정을 수행하는 등의 기능을 한다. 초점 조정부(48)는 AF(Auto focusing; 자동 초점) 검출 회로를 포함할 수 있다. 초점 조정 부(48)가 피사체에 대해 초점 영역을 정하는 것은, 다양한 방법으로 구현될 수 있다. 예를 들어, 사용자가 화면의 영역의 일부분을 지정한 경우에는 지정된 부분이 초점 영역으로 정해질 수 있다. 또한 얼굴 검출 회로에 의해 검출된 얼굴 영역들 중의 한 영역을 초점 영역으로 정할 수도 있고, AF 검출 회로에 의해 미리 정해진 여러 가지 방법을 이용해 자동적으로 초점 영역을 정할 수도 있다.The focus adjusting unit 48 functions to determine a focus area for the subject from the image data, and then detect the focus in the image and adjust the focus. The focus adjusting unit 48 may include an AF (auto focusing) detection circuit. Determining the focus area with respect to the subject by the focus adjusting unit 48 may be implemented in various ways. For example, when a user designates a portion of an area of the screen, the designated portion may be set as the focus region. In addition, one of the face areas detected by the face detection circuit may be defined as the focus area, or the focus area may be automatically determined by various methods predetermined by the AF detection circuit.

초점 조정부(48)가 초점 영역에 대해 초점 위치를 검출할 때에는 종래에 공지된 포커싱(focusing) 기술이 사용될 수 있다. 초점 위치의 검출은, 예를 들어, 초점 렌즈를 구동하여 초점 평가치(AF 평가값)를 취득하는 방법으로 수행될 수 있다. 즉 초점 렌즈를 이동시켜 화상 신호 중의 고주파 성분을 추출하고, 추출된 신호를 적분함으로써 초점 위치가 산출된다. AF 평가값은 하나의 최대값을 갖는 곡선으로 이루어지고, AF 평가값이 최대가 되는 초점 렌즈의 위치가 초점 위치로 간주될 수 있다.When the focus adjuster 48 detects a focus position with respect to the focus area, a conventionally known focusing technique may be used. The detection of the focus position can be performed by, for example, driving a focus lens to obtain a focus evaluation value (AF evaluation value). In other words, the focus position is calculated by moving the focus lens to extract high frequency components in the image signal and integrating the extracted signal. The AF evaluation value is composed of a curve having one maximum value, and the position of the focus lens at which the AF evaluation value is maximum can be regarded as the focus position.

운동 감지부(46)는 화상 데이터에 나타나는 피사체의 변화를 감지하여, 피사체의 운동 궤적을 추적하는 기능을 수행하는 부분이다. 기준 설정부(45)에 의해 도 2에 나타난 작동예에서 '사용자 영역 모드'로 지정되는 경우 사용자 영역을 변경하는 영역 변경 모드 메뉴(130)에서는 동작을 인식하기 위한 기능으로서 동작 인식 메뉴(132)이나 사용자 영역을 특정한 부분으로 고정하는 영역 고정 메뉴(131)의 어느 하나의 기능이 선택될 수 있다.The motion detector 46 detects a change in the subject appearing in the image data and tracks the motion trajectory of the subject. In the operation example illustrated in FIG. 2 by the reference setting unit 45, the area change mode menu 130 for changing the user area when the user is designated as the 'user area mode' is a function for recognizing an operation. Alternatively, any one function of the region fixing menu 131 for fixing the user region to a specific portion may be selected.

'사용자 영역 모드'에서 '동작 인식'의 기능으로 선택된 경우, 운동 감지부(46)는 피사체(91b)의 운동 궤적을 추적함으로써 확인 영역(91a)을 변경할 수 있 게 한다. 즉 라이브뷰 생성부(70)는 피사체의 운동을 감지하는 운동 감지부(46)의 신호에 기초하여, 부분 이미지를 추출하기 위한 확인 영역을 피사체가 현재 존재하는 영역으로 변경할 수 있다.When selected as a function of 'motion recognition' in the 'user area mode', the motion detector 46 may change the confirmation area 91a by tracking the motion trajectory of the subject 91b. That is, the live view generator 70 may change the confirmation area for extracting the partial image into an area where the subject currently exists, based on the signal of the motion detector 46 that detects the movement of the subject.

도 3은 도 1의 촬영 장치의 라이브뷰 생성부의 구성 요소들을 개략적으로 나타낸 블록도이다.3 is a block diagram schematically illustrating components of a live view generating unit of the photographing apparatus of FIG. 1.

라이브뷰 생성부(70)는, 기준 설정부(45)에 의해 정해진 기준에 기초하여 확인 영역을 설정하는 확인 영역 설정부(71)와, 기준 설정부(45)에 설정된 기준을 충족하는 확인 영역으로부터 부분 이미지를 추출하는 부분 이미지 추출부(72)와, 부분 이미지와 전체 이미지를 합성하는 화상 합성부(73)를 구비할 수 있다.The live view generation unit 70 includes a confirmation area setting unit 71 that sets a confirmation area based on the criteria determined by the reference setting unit 45, and a confirmation area that satisfies the criteria set in the reference setting unit 45. And a partial image extracting unit 72 for extracting a partial image from the image, and an image synthesizing unit 73 for synthesizing the partial image and the whole image.

도 4는 본 발명의 일 실시예에 관한 촬영 대상 표시방법의 단계들을 나타낸 순서도이다.4 is a flowchart illustrating steps of a photographing target display method according to an exemplary embodiment of the present invention.

도 4에 나타난 촬영 대상 표시방법은, 촬영을 위해 확인할 영역들을 선정하는 기준을 설정하는 기준 설정 단계(S100)와, 촬영 대상을 촬상하여 화상을 나타내는 화상 데이터를 생성하는 촬상 단계(S110)와, 확인 영역의 부분 이미지와 전체 이미지를 포함하는 라이브뷰 이미지를 생성하는 라이브뷰 생성 단계(S130, S140, S150, S160)와, 라이브뷰 이미지를 표시하는 표시 단계(S165)를 포함한다.The photographing target display method shown in FIG. 4 includes a reference setting step (S100) of setting a criterion for selecting areas to be checked for photographing, an imaging step (S110) of photographing a photographing target to generate image data representing an image; A live view generating step (S130, S140, S150, S160) of generating a live view image including a partial image and an entire image of the confirmation area, and a display step (S165) of displaying a live view image.

기준 설정 단계(S100)에서는 촬영 대상을 나타내는 화상에서 촬영을 위해 확인할 영역들을 선정하는 기준을 미리 설정할 수 있다. 사용자가 촬영 전에 인물의 얼굴 부분을 자세히 확인하기 원하는 경우 얼굴 영역들이 확인 영역이 되고, 초점 영역을 자세히 확인하기 원하는 경우 초점 영역이 확인 영역이 될 수 있다. 또 한 촬영 대상을 나타내는 화상에서 사용자에 의해 선택된 일부 영역이 확인 영역이 될 수 있다.In the reference setting step S100, a criterion for selecting areas to be checked for capturing in an image representing a photographing target may be set in advance. If the user wants to check the face part of the person in detail before shooting, the face areas may be the confirmation area, and if the user wants to check the focus area in detail, the focus area may be the confirmation area. In addition, a partial region selected by the user in the image representing the photographing target may be a confirmation region.

촬상 단계(S110)는 라이브뷰용 화상을 촬상하는 단계로서, 표시부의 해상도에 적합한 이미지를 생성하도록 촬상소자가 촬상을 수행한다. 또한 라이브뷰 이미지를 표시하기 위해서는 현재 촬영 대상의 모습을 실시간으로 처리하여 반복적으로 표시해야 하므로, 촬상소자가 미리 정해진 주기마다 촬상 동작을 반복적으로 실행한다.The imaging step (S110) is a step of capturing an image for live view, and the imaging device performs imaging so as to generate an image suitable for the resolution of the display unit. In addition, in order to display the live view image, the image of the current photographing target must be processed in real time and repeatedly displayed, and the imaging device repeatedly performs the imaging operation at predetermined intervals.

촬상 단계(S110) 이후에는 촬상된 화상의 전체를 포함하는 전체 이미지를 표시하는 1차 라이브뷰 표시 단계(S120)가 실행될 수 있다. After the imaging step S110, the primary live view display step S120 of displaying the entire image including the entire captured image may be performed.

도 5는 도 1의 촬영 장치를 이용한 촬영 동작을 나타낸 작동 상태도로서, 1차 라이브뷰 표시의 예가 설명되었다.FIG. 5 is an operational state diagram illustrating a photographing operation using the photographing apparatus of FIG. 1, and an example of a primary live view display has been described.

사용자는 1차 라이브뷰 표시 단계(S120)가 실행되어 촬영 장치(1)의 터치 스크린(50)에 표시된 전체 이미지(95)를 통해, 촬영을 위한 전체 구도를 설정할 수 있다. 도 5에 나타난 것과 같은 전체 이미지(95)로 촬영을 실행하고자 할 때에 사용자는 셔터 버튼(5)을 반절 정도 누르는 반누름 조작(S1 실행)을 할 수 있다. 촬영 장치는 S1 실행이 이루어졌는지를 확인하여(S130), S1 실행이 안된 경우 단계 S110와 단계 S120을 다시 실행한다.The user may set the overall composition for capturing through the entire image 95 displayed on the touch screen 50 of the photographing apparatus 1 by executing the first live view display step S120. When the user wants to perform shooting with the entire image 95 as shown in FIG. 5, the user can perform a half pressing operation (executing S1) by pressing the shutter button 5 halfway. The photographing apparatus checks whether S1 has been executed (S130), and if S1 has not been executed, executes steps S110 and S120 again.

반누름 조작(S1)이 실행된 경우, 확인 영역을 선정하는 단계(S140)가 실행된다. 확인 영역은 촬영 대상에서 촬영을 위해 확인할 영역이다. 확인 영역은 전체 이미지 중에 기준 설정 단계(S100)에서 정해진 기준을 충족하는 일부 영역들로 선 정된다. 예를 들어, 얼굴 인식 모드인 경우에는 전체 이미지에서 인물의 얼굴이 존재하는 것으로 인식된 얼굴 영역이 확인 영역이 되고, 초점 영역 모드인 경우에는 전체 이미지에서 초점 조정이 이루어지는 초점 영역이 확인 영역이 될 수 있다.When the half pressing operation S1 is executed, step S140 of selecting a confirmation area is executed. The confirmation area is an area to be checked for shooting at the shooting target. The confirmation area is selected as some areas that meet the criteria defined in the reference setting step S100 of the entire image. For example, in the face recognition mode, the face area recognized as the face of the person in the entire image becomes the confirmation area, and in the focus area mode, the focus area where the focus is adjusted in the entire image becomes the confirmation area. Can be.

도 6은 도 5의 촬영 동작중 부분 이미지가 추출되는 개념을 설명하는 개념도이며, 기준 설정 단계(S100)에서 얼굴 인식 모드로 설정되었을 때의 예이다.FIG. 6 is a conceptual diagram illustrating a concept of extracting a partial image during the photographing operation of FIG. 5, and is an example when the face recognition mode is set in the reference setting step S100.

얼굴 인식 모드로 설정되어 있으므로, 확인 영역 선정 단계(S140)에서는 전체 이미지(95)에서 인물의 얼굴이 인식된 영역들을 확인 영역(95a, 95b)으로 선정한다. 그리고 확인 영역(95a, 95b)의 선정이 완료되면(S140), 선정된 확인 영역(95a, 95b)에서 부분 이미지(96, 97)를 추출하는 단계(S150)가 실행된다. Since the face recognition mode is set, in the confirmation region selection step (S140), regions in which the face of the person is recognized in the entire image 95 are selected as the confirmation regions 95a and 95b. When the selection of the confirmation areas 95a and 95b is completed (S140), the step S150 of extracting the partial images 96 and 97 from the selected confirmation areas 95a and 95b is performed.

도 7은 도 6의 부분 이미지들을 이용해 라이브뷰 이미지를 생성하는 개념을 설명하는 개념도이다.FIG. 7 is a conceptual diagram illustrating a concept of generating a live view image using the partial images of FIG. 6.

부분 이미지(96, 97)가 추출된(S150) 이후에는 부분 이미지(96, 97)와, 전체 이미지(95)를 합성하여, 라이브뷰 이미지(98)를 합성하는 단계(S160)가 실행된다. 라이브뷰 이미지(98)가 생성되면, 표시부에 라이브뷰 이미지를 표시하는 표시 단계(S165)가 실행된다. After the partial images 96 and 97 have been extracted (S150), the step S160 of synthesizing the live view image 98 by synthesizing the partial images 96 and 97 and the entire image 95 is performed. When the live view image 98 is generated, a display step S165 of displaying the live view image on the display unit is performed.

상술한 바와 같은 구성의 촬영 장치와 상술한 단계들을 포함하는 촬영 대상 표시방법에 의하면, 사용자가 촬영과 관련하여 관심을 갖는 여러 가지 요인들을 표시하는 영역들, 즉 인물의 얼굴 영역에 세부적인 상태와 화면의 전체적인 구도(전체 이미지를 통해 확인 가능함)가 라이브뷰 화면에 복합적으로 표시된다. 따라서 사용자는 라이브뷰 화면을 통해 자신이 의도한 여러 가지 요소들의 자세한 내용 을 편리하게 확인할 수 있다. According to the photographing apparatus having the above-described configuration and the method of displaying a photographing target including the above-described steps, the detailed state and the region of the face of the person, i.e., the face of the person, are displayed. The overall composition of the screen (visible from the full image) is displayed in a composite on the Live View screen. Therefore, the user can conveniently check the details of various elements that he intended through the live view screen.

라이브뷰 이미지가 표시부에 표시되는 상태에서 셔터가 완전히 눌리는 동작(S2 동작)이 실행되었는지를 확인하여(S170), S2 실행이 이루어지지 않은 경우에는 사용자가 촬영을 실행하지 않은 것이므로 단계 S110으로 복귀하여 라이브뷰용 촬상 단계를 다시 실행한다. S2 실행이 이루어진 경우에는 사용자가 촬영을 실행한 것이므로, 촬영을 실행한 후(S180) 획득된 화상 데이터를 저장한다(S190). 촬영 단계(S180)에서 이루어지는 촬상 소자의 촬상 동작은 라이브뷰용 촬상 단계(S110)에서 이루어지는 촬상 동작의 경우보다 해상도가 높은 촬상 동작에 해당할 수 있다.When the live view image is displayed on the display unit, it is checked whether the shutter is completely pressed (operation S2) (S170). If the execution of the operation S2 is not performed, the user returns to step S110 because the user has not performed the shooting. Perform the imaging step for live view again. When the execution of S2 is performed, since the user has performed the shooting, the image data obtained after the shooting is performed (S180) is stored (S190). The imaging operation of the imaging device performed in the imaging step S180 may correspond to an imaging operation having a higher resolution than that of the imaging operation performed in the live view imaging step S110.

도 8은 도 1의 촬영 장치를 이용하여 물체의 동작을 인식하도록 확인 영역을 선정하는 예를 나타낸 작동 상태도이고, 도 9는 도 8의 예에 의해 라이브뷰 이미지가 생성되는 개념을 설명한 개념도이다.8 is an operational state diagram illustrating an example of selecting a confirmation region to recognize an operation of an object by using the photographing apparatus of FIG. 1, and FIG. 9 is a conceptual diagram illustrating a concept of generating a live view image by the example of FIG. 8.

도 8에 나타난 것과 같이 촬영 장치의 표시부에 표시된 1차 라이브뷰 화면의 전체 이미지(195)에서, 사용자가 터치펜(190)을 조작하여 드래그 터치함으로써 일부 영역을 선택한 경우 선택된 영역이 확인 영역(195a)으로 선정된다. 도 8 및 도 9에 도시된 경우는 사용자 영역 모드에서 동작 인식의 기능을 실행하도록 선택된 경우이므로, 촬영 장치는 피사체(192)의 동작을 인식함으로써 피사체(192)의 이동을 추적하여 확인 영역(195a)의 위치를 변경할 수 있다.In the entire image 195 of the first live view screen displayed on the display unit of the photographing apparatus as shown in FIG. 8, when the user selects a partial region by dragging and touching the touch pen 190, the selected region is the confirmation region 195a. ) Is selected. 8 and 9 are selected to execute the function of the motion recognition in the user area mode, the photographing apparatus recognizes the motion of the subject 192 to track the movement of the subject 192 to confirm the confirmation area 195a. ) Position can be changed.

도 8에 나타난 것과 같이 확인 영역(195a)이 선택이 완료되면, 도 9에 나타난 것과 같이 부분 이미지(196)를 추출한 후 부분 이미지(196)와 전체 이미지(195)를 합성하여 라이브뷰 이미지(198)를 생성한 후, 생성된 라이브뷰 이미 지(198)를 표시부에 표시할 수 있다.As shown in FIG. 8, when selection of the confirmation region 195a is completed, the partial image 196 is extracted as shown in FIG. 9, and then the partial image 196 and the entire image 195 are synthesized to display the live view image 198. ), The generated live view image 198 may be displayed on the display unit.

상술한 바와 같은 촬영 대상 표시방법에 의하면, 사용자가 관심을 갖는 피사체 영역이 확인 영역으로 선정되어 라이브뷰 이미지에서 확대되어 표시된다. 또한 피사체의 움직임에 따라 확인 영역이 변경되어 표시되므로, 사용자는 움직이는 피사체의 확대된 영상을 놓치지 않고 확인하면서 촬영을 결정할 수 있다.According to the photographing target display method as described above, the subject area of interest to the user is selected as the confirmation area and is enlarged and displayed in the live view image. In addition, since the confirmation area is changed and displayed according to the movement of the subject, the user may determine shooting while not missing the enlarged image of the moving subject.

본 발명은 상술한 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 당해 기술 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 다른 실시예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위에 의해 정해져야 할 것이다.Although the present invention has been described with reference to the above-described embodiments, these are merely exemplary, and it will be understood by those skilled in the art that various modifications and equivalent other embodiments are possible. Therefore, the true technical protection scope of the present invention will be defined by the appended claims.

도 1은 본 발명의 일 실시예에 관한 촬영 장치의 구성 요소들의 관계를 개략적으로 나타낸 블록도이다.1 is a block diagram schematically illustrating a relationship between components of a photographing apparatus according to an exemplary embodiment of the present invention.

도 2는 도 1의 촬영 장치를 이용해 확인 영역을 선정하는 기준을 설정하는 동작을 나타낸 작동 상태도이다.FIG. 2 is an operating state diagram illustrating an operation of setting a criterion for selecting a confirmation region using the photographing apparatus of FIG. 1.

도 3은 도 1의 촬영 장치의 라이브뷰 생성부의 구성 요소들을 개략적으로 나타낸 블록도이다.3 is a block diagram schematically illustrating components of a live view generating unit of the photographing apparatus of FIG. 1.

도 4는 본 발명의 일 실시예에 관한 촬영 대상 표시방법의 단계들을 나타낸 순서도이다.4 is a flowchart illustrating steps of a photographing target display method according to an exemplary embodiment of the present invention.

도 5는 도 1의 촬영 장치를 이용한 촬영 동작을 나타낸 작동 상태도이다.5 is an operational state diagram illustrating a photographing operation using the photographing apparatus of FIG. 1.

도 6은 도 5의 촬영 동작중 부분 이미지가 추출되는 개념을 설명하는 개념도이다.FIG. 6 is a conceptual diagram illustrating a concept of extracting a partial image during the photographing operation of FIG. 5.

도 7은 도 6의 부분 이미지들을 이용해 라이브뷰 이미지를 생성하는 개념을 설명하는 개념도이다.FIG. 7 is a conceptual diagram illustrating a concept of generating a live view image using the partial images of FIG. 6.

도 8은 도 1의 촬영 장치를 이용하여 물체의 동작을 인식하도록 확인 영역을 선정하는 예를 나타낸 작동 상태도이다.FIG. 8 is an operating state diagram illustrating an example of selecting a confirmation region to recognize an operation of an object by using the photographing apparatus of FIG. 1.

도 9는 도 8의 예에 의해 라이브뷰 이미지가 생성되는 개념을 설명한 개념도이다.FIG. 9 is a conceptual diagram illustrating a concept of generating a live view image according to the example of FIG. 8.

* 도면의 주요부분에 대한 부호의 설명DESCRIPTION OF THE REFERENCE NUMERALS

1: 촬영 장치 52: 입력부1: recording device 52: input unit

3: 촬상부 60: 데이터베이스3: imaging unit 60: database

5: 셔터 버튼 70: 라이브뷰 생성부5: Shutter button 70: Live view generator

10: 광학계 71: 확인 영역 설정부10: optical system 71: confirmation area setting unit

11: 줌 구동부 72: 부분 이미지 추출부11: zoom drive unit 72: partial image extraction unit

12: 렌즈들 73: 화상 합성부12: lenses 73: image synthesizing unit

15: 메모리 98, 198: 라이브뷰 이미지15: memory 98, 198: live view image

20: 촬상소자 120: 확인 영역 기준 설정 메뉴20: imaging device 120: confirmation area reference setting menu

40: 제어부 121: 얼굴 인식 메뉴40: control unit 121: face recognition menu

41: 화상 변환부 122: 초점 영역 메뉴41: image conversion unit 122: focus area menu

42: 구동 회로부 123: 사용자 영역 메뉴42: driving circuit unit 123: user area menu

43: 메모리 제어부 130: 변경 모드 메뉴43: memory controller 130: change mode menu

44: 터치 스크린 제어부 131: 영역 고정 메뉴44: touch screen controller 131: area freeze menu

45: 기준 설정부 132: 동작 인식 메뉴45: reference setting unit 132: motion recognition menu

46: 운동 감지부 190: 터치펜46: motion detection unit 190: touch pen

47: 촬영 제어부 96, 97, 196: 부분 이미지47: shooting control part 96, 97, 196: partial image

48: 초점 조정부 192, 91b: 피사체48: Focus adjuster 192, 91b: Subject

49: 얼굴 검출부 91, 95, 195: 전체 이미지49: face detection unit 91, 95, 195: entire image

50: 터치 스크린 91a, 95a, 95b, 195a: 확인 영역50: touch screen 91a, 95a, 95b, 195a: confirmation area

51: 표시부51: display unit

Claims (10)

미리 정해진 주기마다 촬영 대상을 촬상하여 화상을 나타내는 화상 데이터를 생성하는 촬상부;An imaging unit which picks up a photographing target at predetermined intervals and generates image data representing an image; 상기 촬영 대상에서 촬영을 위해 확인할 영역들을 선정하는 기준을 설정하는 기준 설정부;A reference setting unit that sets a criterion for selecting areas to be checked for shooting in the shooting target; 상기 화상 데이터가 나타내는 화상에서 상기 기준 설정부에 설정된 상기 기준을 충족하는 확인 영역으로부터 부분 이미지를 추출하고, 상기 부분 이미지와 상기 화상 데이터가 나타내는 화상의 전체를 포함하는 전체 이미지를 합성한 라이브뷰 이미지를 생성하는 라이브뷰 생성부; 및In the image represented by the image data, a partial image is extracted from a confirmation region that satisfies the criterion set in the reference setting unit, and a live view image is obtained by combining the partial image and the entire image including the entire image represented by the image data. Live view generation unit for generating a; And 상기 라이브뷰 이미지를 출력하는 표시부;를 구비하는, 촬영 장치.And a display unit for outputting the live view image. 제1항에 있어서,The method of claim 1, 상기 촬영 장치는 상기 화상 데이터에서 인물을 검출하는 인물 검출부를 더 구비하고, 상기 기준 설정부는 상기 인물 검출부에 의해 검출된 인물의 얼굴 영역을 상기 확인할 영역에 포함하는, 촬영 장치. The photographing apparatus further includes a person detecting unit detecting a person in the image data, and the reference setting unit includes a face area of the person detected by the person detecting unit in the area to be checked. 제1항에 있어서,The method of claim 1, 상기 촬영 장치는 상기 화상 데이터의 화상에서 초점 영역을 정하여 자동으로 초점을 조정하는 초점 조정부를 더 구비하고, 상기 기준 설정부는 상기 초점 조정부에 의해 정해지는 초점 영역을 상기 확인할 영역에 포함하는, 촬영 장치. The photographing apparatus further includes a focus adjusting unit that automatically adjusts focus by setting a focus area in the image of the image data, and the reference setting unit includes a focus area determined by the focus adjusting unit in the area to be checked. . 제1항에 있어서,The method of claim 1, 상기 촬영 장치는 사용자의 입력을 수신하는 사용자 입력부를 더 구비하고, 상기 기준 설정부는 상기 사용자 입력부에 의해 지정되는 사용자 지정 영역을 상기 확인할 영역에 포함하는, 촬영 장치.The photographing apparatus further includes a user input unit configured to receive a user input, and the reference setting unit includes a user designation region designated by the user input unit in the region to be checked. 제4항에 있어서,The method of claim 4, wherein 상기 촬영 장치는 상기 사용자 지정 영역에 존재하는 피사체의 움직임을 감지하는 운동 감지부를 더 구비하고, 상기 기준 설정부는 상기 피사체가 존재하는 영역을 상기 확인할 영역에 포함하는, 촬영 장치.The photographing apparatus further includes a motion detecting unit detecting a movement of a subject existing in the user designated area, and the reference setting unit includes a region in which the subject exists in the region to be checked. 촬영을 위해 확인할 영역들을 선정하는 기준을 설정하는 기준 설정 단계;A reference setting step of setting a reference for selecting areas to be checked for photographing; 촬영 대상을 촬상하여 화상을 나타내는 화상 데이터를 생성하는 촬상 단계;An imaging step of imaging an object to be photographed to generate image data representing an image; 상기 화상 데이터가 나타내는 화상에서 상기 기준 설정 단계에서 설정된 상기 기준을 충족하는 확인 영역으로부터 부분 이미지를 추출하고, 상기 부분 이미지와 상기 화상 데이터가 나타내는 화상의 전체를 포함하는 전체 이미지를 합성한 라이브뷰 이미지를 생성하는 라이브뷰 생성 단계; 및In the image represented by the image data, a partial image is extracted from a confirmation region that satisfies the criterion set in the reference setting step, and a live view image is obtained by combining the partial image and the entire image including the entire image represented by the image data. Generating a live view; And 상기 라이브뷰 이미지를 출력하는 표시 단계;를 포함하는, 촬영 대상 표시 방법.And a display step of outputting the live view image. 제6항에 있어서,The method of claim 6, 상기 촬영 대상 표시방법은, 상기 화상 데이터에서 인물을 검출하는 인물 검출 단계를 더 포함하고, 상기 기준 설정 단계는 상기 인물 검출 단계에 의해 검출된 인물의 얼굴 영역을 상기 확인할 영역에 포함하는, 촬영 대상 표시방법.The photographing target display method may further include a person detecting step of detecting a person in the image data, and the reference setting step includes a face area of the person detected by the person detecting step in the area to be checked. How to display. 제6항에 있어서,The method of claim 6, 상기 촬영 대상 표시방법은, 상기 화상 데이터의 화상에서 초점 영역을 정하여 자동으로 초점을 조정하는 초점 조정 단계를 더 포함하고, 상기 기준 설정 단계는 상기 초점 조정 단계에 의해 정해지는 초점 영역을 상기 확인할 영역에 포함하는, 촬영 대상 표시방법.The photographing target display method further includes a focus adjusting step of automatically adjusting focus by setting a focus area in the image of the image data, wherein the reference setting step includes an area to check the focus area determined by the focus adjusting step. Included, shooting target display method. 제6항에 있어서,The method of claim 6, 상기 촬영 대상 표시방법은, 사용자의 입력을 수신하는 사용자 입력 단계를 더 구비하고, 상기 기준 설정 단계는 상기 사용자 입력 단계에 의해 지정되는 사용자 지정 영역을 상기 확인할 영역에 포함하는, 촬영 대상 표시방법.The photographing target display method further includes a user input step of receiving a user input, and the reference setting step includes a user designation area designated by the user input step in the confirmation area. 제9항에 있어서,10. The method of claim 9, 상기 촬영 대상 표시방법은, 상기 사용자 지정 영역에 존재하는 피사체의 움직임을 감지하는 운동 감지 단계를 더 포함하고, 상기 기준 설정 단계는 상기 피사체가 존재하는 영역을 상기 확인할 영역에 포함하는, 촬영 대상 표시방법.The photographing target display method may further include a motion sensing step of detecting a movement of a subject existing in the user designated area, and the reference setting step includes a region where the subject exists in the region to be checked. Way.
KR1020090037820A 2009-04-29 2009-04-29 Photographing apparatus and method of displaying subject KR20100118888A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090037820A KR20100118888A (en) 2009-04-29 2009-04-29 Photographing apparatus and method of displaying subject

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090037820A KR20100118888A (en) 2009-04-29 2009-04-29 Photographing apparatus and method of displaying subject

Publications (1)

Publication Number Publication Date
KR20100118888A true KR20100118888A (en) 2010-11-08

Family

ID=43405068

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090037820A KR20100118888A (en) 2009-04-29 2009-04-29 Photographing apparatus and method of displaying subject

Country Status (1)

Country Link
KR (1) KR20100118888A (en)

Similar Documents

Publication Publication Date Title
US10469737B2 (en) Display control device and display control method
KR101594295B1 (en) Photographing apparatus and photographing method
TWI549501B (en) An imaging device, and a control method thereof
US8823864B2 (en) Image capturing apparatus and associated methodology for auto-focus and facial detection
US8831282B2 (en) Imaging device including a face detector
US20150208001A1 (en) Imaging device, imaging method, and program
US20120105590A1 (en) Electronic equipment
US8582891B2 (en) Method and apparatus for guiding user with suitable composition, and digital photographing apparatus
US20110242395A1 (en) Electronic device and image sensing device
CN101465972A (en) Apparatus and method for blurring image background in digital image processing device
JP6302215B2 (en) Imaging device
JP2011217103A (en) Compound eye photographing method and apparatus
KR101599871B1 (en) Photographing apparatus and photographing method
JP2012098594A (en) Imaging apparatus and imaging method
KR101589500B1 (en) Photographing apparatus and photographing method
KR101599885B1 (en) Digital photographing apparatus and method
JP5519376B2 (en) Electronics
JP4842919B2 (en) Display device, photographing device, and display method
JP5800600B2 (en) Imaging apparatus, imaging method, and program
KR20110090085A (en) Digital photographing apparatus and method for controlling the same
JP2006128793A (en) Image pickup device and control method thereof
KR20100118888A (en) Photographing apparatus and method of displaying subject
KR101945028B1 (en) Terminal having camera and method for processing image thereof
KR101798019B1 (en) Terminal having camera and method for processing image thereof
JP2010028370A (en) Imaging device

Legal Events

Date Code Title Description
N231 Notification of change of applicant
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application