KR101350068B1 - Electronic device for outputting region of interest image - Google Patents

Electronic device for outputting region of interest image Download PDF

Info

Publication number
KR101350068B1
KR101350068B1 KR1020120092647A KR20120092647A KR101350068B1 KR 101350068 B1 KR101350068 B1 KR 101350068B1 KR 1020120092647 A KR1020120092647 A KR 1020120092647A KR 20120092647 A KR20120092647 A KR 20120092647A KR 101350068 B1 KR101350068 B1 KR 101350068B1
Authority
KR
South Korea
Prior art keywords
image
region
interest
pixels
view
Prior art date
Application number
KR1020120092647A
Other languages
Korean (ko)
Inventor
이영섭
김상조
강병호
한춘우
정화중
강민규
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020120092647A priority Critical patent/KR101350068B1/en
Application granted granted Critical
Publication of KR101350068B1 publication Critical patent/KR101350068B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4728End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4053Super resolution, i.e. output image resolution higher than sensor resolution
    • G06T3/4076Super resolution, i.e. output image resolution higher than sensor resolution by iteratively correcting the provisional high resolution image using the original low-resolution image

Abstract

An electronic device of the present invention includes a camera outputting view section images and interest section images corresponding to a part of the view section images according to setting information of an interest section; a first image signal processor setting the interest section in the view section images and outputting the setting information of the interest section; a second image signal processor converting a size or a resolution of the interest section image transmitted from the camera and outputting the converted interest section image; and a display unit displaying the converted interest section image for a user. [Reference numerals] (170) Camera

Description

관심 영역 이미지를 출력하기 위한 전자 장치{ELECTRONIC DEVICE FOR OUTPUTTING REGION OF INTEREST IMAGE}ELECTRICAL DEVICE FOR OUTPUTTING REGION OF INTEREST IMAGE}

본 발명은 카메라를 구비한 전자 장치에 관한 것으로서, 특히 카메라의 화소 어레이에서 자동으로 설정되거나 사용자에 의해 설정된 관심 영역을 선택적으로 출력하기 위한 전자 장치에 관한 것이다.The present invention relates to an electronic device having a camera, and more particularly, to an electronic device for selectively outputting a region of interest automatically set in a pixel array of a camera or set by a user.

일반적인 카메라의 화각은 50° 정도(인간의 시각이 약 50°)이다. 이로 인해, 넓은 배경에서 관심을 가지는 피사체를 촬영하기 위해서 카메라의 팬/틸트/줌(Pan/Tilt/Zoom) 동작을 하게 된다. 이러한 팬/틸트/줌 동작은 사람이 직접 하거나, 아니면 별도의 기계 장치를 카메라에 장착하여 팬/틸트/줌 동작을 수행하도록 할 수도 있다.The angle of view of a typical camera is about 50 ° (human vision is about 50 °). As a result, a pan / tilt / zoom operation of the camera is performed to capture a subject of interest in a wide background. The pan / tilt / zoom operation may be performed by a person or a separate mechanical device may be mounted on the camera to perform the pan / tilt / zoom operation.

팬/틸트/줌 동작을 위한 또 다른 방법으로는, 광각(75° 이상)의 렌즈와 고화소 이미지 센서를 사용하여 전자식으로 구현하는 방법이 있다. Another method for pan / tilt / zoom operation is the electronic implementation using a wide angle (75 ° or more) lens and a high pixel image sensor.

도 1은 기계식 팬/틸트/줌 방식을 설명하기 위한 도면이다. 1 is a view for explaining a mechanical pan / tilt / zoom method.

1080p(1920×1080)를 출력 대상으로 하는 카메라에서 기계식 방식으로 팬/틸트/줌 기능을 구현하는 경우에는, 예를 들어 FHD 화소급(1920×1080) 센서와 화각 45°의 렌즈를 카메라에 장착하여 구현하며, 카메라는 배경(10)에서 뷰 영역(11)을 촬상하여 이미지(13)로 출력하게 된다. 사용자는 상하좌우 화살표(12) 방향으로 기계적으로(또는 수동으로) 카메라의 뷰 영역(11)을 이동하게 된다. 줌 기능은 별도의 렌즈를 장착하여 구현할 수도 있다.When implementing a pan / tilt / zoom function mechanically in a camera that targets 1080p (1920 × 1080) output, for example, an FHD pixel (1920 × 1080) sensor and a 45 ° angle of view lens are mounted on the camera. In this case, the camera captures the view area 11 in the background 10 and outputs it as the image 13. The user moves the view area 11 of the camera mechanically (or manually) in the direction of the up, down, left, and right arrows 12. The zoom function may be implemented by attaching a separate lens.

도 2는 전자식 팬/틸트/줌 방식을 설명하기 위한 도면이다.2 is a diagram for explaining an electronic pan / tilt / zoom method.

1080p(1920×1080)를 출력 대상으로 하는 카메라에서 전자식 방식으로 팬/틸트/줌 기능을 구현하는 경우에는, 예를 들어 8M 화소급 센서(3264×2448)와 화각 75°의 렌즈를 카메라에 장착하여 구현하며, 카메라는 배경(20)에서 뷰 영역(21)을 촬상하고, 관심 영역(22)을 이미지(23)로 출력하게 된다. 관심 영역(22)은 상하 ±14.4°, 좌우 ±14.2°로 이동될 수 있으며, 줌 기능은 별도의 렌즈를 사용하지 않고 X1.7배를 구현할 수 있다.When implementing a pan / tilt / zoom function electronically in a camera that targets 1080p (1920 × 1080) output, for example, an 8M pixel sensor (3264 × 2448) and a lens with an angle of view of 75 ° are mounted on the camera. In this case, the camera captures the view area 21 in the background 20 and outputs the region of interest 22 as the image 23. The region of interest 22 may be moved up and down ± 14.4 °, left and right ± 14.2 °, and the zoom function may implement X1.7 times without using a separate lens.

  전자식 팬/틸트/줌 방식에서, 넓은 화각의 렌즈를 사용할수록 팬/틸트 각도가 커지며, 고화소의 이미지 센서를 사용할수록 높은 배율의 줌 기능을 구현할 수 있다. 여기서 말하는 줌 기능의 구현 방식은 의사 또는 가상 줌(Psuedo Zoom) 방식을 말하는 것이며 품질 저하가 발생하는 디지털 줌(Digital Zoom)을 말하는 것은 아니다. In the electronic pan / tilt / zoom method, the wider the angle of view, the larger the pan / tilt angle, and the higher the image sensor, the higher the magnification. The implementation of the zoom function here refers to a pseudo or virtual zoom method, not a digital zoom in which quality deterioration occurs.

디지털 줌 방식은, 예를 들어 640X480을 출력 대상으로 하는 카메라에서 320X240 화소로 촬상하여 부족한 화소를 주변 화소를 참조하여 생성해 내는 방식으로 줌 기능을 구현한 것이다. 디지털 줌 방식은 부족한 화소를 생성하는 알고리즘에 따라 이미지 품질의 차이가 있다.For example, the digital zoom method implements a zoom function by generating 320 × 240 pixels and generating a missing pixel with reference to surrounding pixels in a camera that outputs 640 × 480. In the digital zoom method, there is a difference in image quality depending on an algorithm for generating insufficient pixels.

팬/틸트/줌을 구현함에 있어서, 기계식 방식에서는 전체 배경을 카메라가 감지할 수 없으므로, 사용자가 직접 전체 배경에서 관심 피사체를 파악하고, 해당 피사체의 영역으로 카메라의 뷰 영역이 이동하도록 제어해야만 한다.In implementing the pan / tilt / zoom, the camera cannot detect the entire background in the mechanical method, so the user must directly grasp the subject of interest in the entire background and control the camera's view area to move to the area of the subject. .

그러나, 전자식 방식에서는 전체 배경의 상당 부분을 카메라가 감지할 수 있으므로, 자동으로(컴퓨터가 구현된 알고리즘에 근거하여) 관심 피사체를 파악하고, 해당 피사체의 영역으로 관심 영역(즉, 출력 영역)이 이동하도록 제어할 수 있다.However, the electronic method allows the camera to detect a significant portion of the entire background, automatically identifying the subject of interest (based on a computer-implemented algorithm), and allowing the region of interest (that is, the output region) You can control it to move.

전자식 팬/틸트/줌 방식에서 자동으로 출력 영역이 제어되도록 구현하고자 할 때, 카메라는 뷰 영역과 관심 영역의 이미지 처리를 함께 수행해야 한다. 일반적인 시모스(CMOS) 카메라는 시모스 이미지 센서(CMOS Image Sensor: CIS)와 이미지 신호 프로세서(Image Signal Processor: ISP)를 포함하며, 전자식 팬/틸트/줌 방식의 특성상 고화소의 CIS를 사용하여야 하며, ISP는 뷰 영역과 관심 영역의 이미지 처리를 함께 수행해야 하므로 매우 고성능인 것을 필요로 한다. In order to implement an automatic control of the output area in the electronic pan / tilt / zoom method, the camera must perform image processing of the view area and the ROI together. Common CMOS cameras include CMOS Image Sensors (CIS) and Image Signal Processors (ISPs). Due to the electronic pan / tilt / zoom method, high pixel CIS should be used. Since the image processing of the view region and the region of interest must be performed together, it requires a very high performance.

도 3은 전자식 팬/틸트/줌 방식에서 이미지 신호 프로세서의 작동을 설명하기 위한 도면이다.3 is a view for explaining the operation of the image signal processor in the electronic pan / tilt / zoom method.

ISP(32)는 CIS(31)에서 출력되는 뷰 영역(33)을 처리하고, 뷰 영역(33)에서 관심 피사체를 탐지하고, 뷰 영역(33)에서 관심 피사체를 포함하는 관심 영역(34)을 설정하고, 관심 영역 이미지(35)를 변환한 이미지(36)를 출력해야 한다. The ISP 32 processes the view region 33 output from the CIS 31, detects a subject of interest in the view region 33, and detects the region of interest 34 including the subject of interest in the view region 33. And the image 36 obtained by converting the ROI image 35.

ISP는 기존의 CIS에서 출력되는 뷰 영역 처리만을 담당하는 역할과 비교하여 매우 많은 처리를 해야 하므로 고성능의 ISP를 적용하여도 출력 속도가 상당히 낮아진다. 특히, 동작 인식 처리를 위해서는 ISP에서의 이미지 출력은 최소 30fps가 권장된다는 점을 고려하면, 이러한 ISP의 과부하는 상당히 심각한 문제가 된다.The ISP has to do much more processing compared to the role that only handles the view area output from the existing CIS. Therefore, even if a high-performance ISP is applied, the output speed is considerably lowered. In particular, considering that at least 30 fps is recommended for the image output from the ISP for the motion recognition processing, the overload of the ISP is a serious problem.

화면출력, 동작인식 등의 기능들은 품질 및 인식 처리를 위하여 고속의 프레임 레이트가 요구되는 기능이다. 하지만, CIS의 정보량이 증가하고, 사물인지, 왜곡보정 등의 기능도 추가하여 사용하게 되면서 ISP가 고성능이 아니면 고속 프레임 레이트의 구현이 어렵다. 그런데, 최근 CIS의 감지 정보량은 매우 급격하게 증가하고 있지만(예, 8M, 13M, 20M 등) 이미지 출력 장치(TV, 모니터, 등)의 표현 정보량은 증가 추세가 둔하다(예를 들어, 720p, 1080p 등). 이러한 차이점을 이용하여, CIS의 감지 가능한 영역(화각)에서 특정 관심 영역만을 출력하여 줌의 효과와 카메라 화각 움직임의 효과를 나타낼 수 있다. 또한 동작 인식 또는 사물 인지 처리를 위한 대상물이 항상 전체 화각을 차지하지 않으므로, 대상물이 존재하는 특정 관심 영역만을 처리하여 이미지 처리의 효율을 높일 수 있다. 이러한 출력 및 인식의 관심 영역을 찾아가기 위해서는 고속 프레임 레이트는 아니더라도 전체 영역을 탐색할 필요는 있다. 그러나, 종래의 기술에서는 매우 고성능의 ISP가 요구되므로, 전체 시스템의 가격이 높아진다는 문제점이 있다.Functions such as screen output and motion recognition are functions that require a high frame rate for quality and recognition processing. However, as the amount of information in the CIS increases and functions such as object recognition and distortion correction are added, it is difficult to implement a high frame rate unless the ISP is a high performance device. By the way, the amount of sensing information of CIS is increasing very rapidly (eg, 8M, 13M, 20M, etc.), but the amount of expression information of image output devices (TV, monitor, etc.) is increasing slowly (eg, 720p, 1080p). Etc). By using these differences, only a specific region of interest may be output from the detectable region (view angle) of the CIS to indicate the effect of zoom and camera angle of view movement. In addition, since an object for motion recognition or object recognition processing does not always occupy the entire field of view, it is possible to increase the efficiency of image processing by processing only a specific region of interest in which the object exists. In order to find the region of interest of such output and recognition, it is necessary to search the entire region, if not the high frame rate. However, in the related art, a very high performance ISP is required, and therefore, the price of the entire system is high.

본 발명의 특정 실시 예들의 목적은 종래기술과 관련된 문제점들 및/또는 단점들 중의 적어도 하나를 적어도 부분적으로 해결, 경감 또는 제거하는 것이다.It is an object of certain embodiments of the present invention to at least partially solve, alleviate or eliminate at least one of the problems and / or disadvantages associated with the prior art.

본 발명의 일 목적은 팬/틸트/줌이 전자식 방식으로 자동 제어되도록 구현할 때, 이미지 신호 프로세서에 부하가 집중되는 것을 분산시켜서 전체 시스템의 병목 현상을 감소시키는 것에 있다.One object of the present invention is to reduce the bottleneck of the entire system by distributing load concentration on the image signal processor when the pan / tilt / zoom is automatically controlled electronically.

본 발명의 일 측면에 따른 전자 장치는, 뷰 영역 이미지와, 관심 영역의 설정 정보에 따라 상기 뷰 영역 이미지의 일부에 해당하는 관심 영역 이미지를 출력하는 카메라와; 상기 뷰 영역 이미지에 관심 영역을 설정하고, 상기 관심 영역의 설정 정보를 출력하는 제1 이미지 신호 프로세서와; 상기 카메라로부터 수신한 상기 관심 영역 이미지의 크기 또는 해상도를 변환하고, 변환된 관심 영역 이미지를 출력하는 제2 이미지 신호 프로세서와; 상기 변환된 관심 영역 이미지를 사용자에게 표시하는 표시부를 포함한다.An electronic device according to an aspect of the present invention includes a camera for outputting a region of interest image corresponding to a portion of the view region image according to a view region image and setting information of the region of interest; A first image signal processor configured to set a region of interest in the view region image and output setting information of the region of interest; A second image signal processor configured to convert a size or resolution of the ROI image received from the camera and output the converted ROI image; And a display unit configured to display the converted ROI image to the user.

본 발명에 따르면, 팬/틸트/줌이 전자식 방식으로 자동 제어되도록 구현할 때, 이미지 신호 프로세서에 부하가 집중되는 것을 분산시켜서 전체 시스템의 병목 현상을 감소시킬 수 있으며, 보급형 이미지 신호 프로세서를 복수 사용하여 원하는 기능을 구현할 수 있다는 이점이 있다.According to the present invention, when the pan / tilt / zoom is automatically controlled electronically, it is possible to reduce the bottleneck of the entire system by distributing load concentration on the image signal processor, and by using a plurality of entry-level image signal processors. The advantage is that you can implement the functionality you want.

도 1은 기계식 팬/틸트/줌 방식을 설명하기 위한 도면,
도 2는 전자식 팬/틸트/줌 방식을 설명하기 위한 도면,
도 3은 전자식 팬/틸트/줌 방식에서 이미지 신호 프로세서의 작동을 설명하기 위한 도면,
도 4는 본 발명의 바람직한 실시 예에 따른 전자 장치의 구성을 나타내는 도면,
도 5는 이미지 센서의 구성을 나타내는 도면,
도 6은 상기 이미지 센서의 구동 방법을 설명하기 위한 도면,
도 7은 본 발명의 바람직한 실시 예에 따른 구동부의 회로 구성을 설명하기 위한 도면,
도 8은 본 발명의 실시 예에 따른 관심 영역 이미지의 출력 방법을 설명하기 위한 신호도,
도 9는 본 발명의 실시 예에 따른 관심 영역 이미지의 출력 방법을 설명하기 위한 주요 구성도,
도 10은 본 발명의 다른 실시 예에 따른 관심 영역 이미지의 출력 방법을 설명하기 위한 주요 구성도,
도 11 및 도 12는 본 발명의 전자 장치를 이용한 화상 통화 방법을 설명하기 위한 도면들.
1 is a view for explaining a mechanical pan / tilt / zoom method,
2 is a view for explaining an electronic pan / tilt / zoom method,
3 is a view for explaining the operation of the image signal processor in the electronic pan / tilt / zoom method,
4 is a diagram illustrating a configuration of an electronic device according to an embodiment of the present disclosure;
5 is a diagram illustrating a configuration of an image sensor;
6 is a view for explaining a method of driving the image sensor;
7 is a view for explaining a circuit configuration of a driving unit according to an embodiment of the present invention;
8 is a signal diagram illustrating a method of outputting a region of interest image according to an embodiment of the present invention;
9 is a main configuration diagram illustrating a method of outputting a region of interest image according to an embodiment of the present invention;
10 is a main configuration diagram for describing a method of outputting a region of interest image according to another embodiment of the present invention;
11 and 12 are diagrams for describing a video call method using the electronic device of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시 예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하여 상세하게 설명한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.As the inventive concept allows for various changes and numerous embodiments, particular embodiments will be described in detail with reference to the accompanying drawings. It should be understood, however, that the invention is not intended to be limited to the particular embodiments, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention.

제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Terms including ordinals, such as first, second, etc., may be used to describe various elements, but the elements are not limited to these terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component. And / or < / RTI > includes any combination of a plurality of related listed items or any of a plurality of related listed items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When a component is referred to as being "connected" or "connected" to another component, it may be directly connected to or connected to that other component, but it may be understood that other components may be present in between. Should be. On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between.

본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used in this application is used only to describe a specific embodiment and is not intended to limit the invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this application, the terms "comprise" or "have" are intended to indicate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, and one or more other features. It is to be understood that the present invention does not exclude the possibility of the presence or the addition of numbers, steps, operations, components, components, or a combination thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미가 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미가 있는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art. Terms such as those defined in commonly used dictionaries are to be interpreted as having a meaning consistent with the meaning in the context of the relevant art and are to be construed as ideal or overly formal in meaning unless explicitly defined in the present application Do not.

도 4는 본 발명의 바람직한 실시 예에 따른 전자 장치의 구성을 나타내는 도면이다. 4 is a diagram illustrating a configuration of an electronic device according to an exemplary embodiment of the present disclosure.

상기 전자 장치(100)는 센서부(110), 메모리(120), 사용자 인터페이스(130), 통신부(140), 제1 및 제2 이미지 신호 프로세서(image signal processor: ISP, 160, 165), 카메라(170) 및 표시부(150)를 포함한다.The electronic device 100 may include a sensor unit 110, a memory 120, a user interface 130, a communication unit 140, first and second image signal processors (ISPs 160, 165) and a camera. And a display unit 150.

상기 전자 장치(100)는 외부 장치와의 연동을 통해 이미지 표시 작업을 수행할 수 있으며, 상기 전자 장치(100)는 카메라(170)에 의해 촬상된 이미지를 네트워크를 통해 외부 장치로 전송할 수 있다. 예를 들어, 상기 전자 장치(100)는 외부 장치의 제어에 따라 작동할 수 있고, 이러한 외부 장치에 의한 제어는 다양한 방식으로 구현될 수 있다. 상기 네트워크의 예들은, 이에 한정되지 않지만, 근거리 통신망(Local Area Network: LAN), 무선 근거리 통신망(Wireless Local Area Network: WLAN), 광역 통신망(Wide Area Network: WAN), 인터넷, 소지역 통신망(Small Area Network: SAN)을 포함한다. 상기 전자 장치(100)는 또한 상기 네트워크를 통해 외부 장치와 연결될 수 있다. 상기 전자 장치(100)는 외부 장치와 직접 또는 상기 네트워크를 통해 연결될 수 있다. 상기 외부 장치는 상기 전자 장치(100)의 카메라(170)에 의해 촬상된 이미지를 재생 및 표시하기 위해 사용된다. 상기 네트워크를 통해 상기 전자 장치(100)와 연결된 상기 외부 장치의 예들은, 이에 한정되지 않지만, 유튜브 플레이어(You Tube player), 아이튠스 플레이어(iTunes player), 엠플레이어 플레이어(MPlayer player) 및 베어쉐어 플레이어(Bearshare player), TV, 휴대폰 등을 포함한다.The electronic device 100 may perform an image display operation by interworking with an external device, and the electronic device 100 may transmit an image captured by the camera 170 to an external device through a network. For example, the electronic device 100 may operate under the control of an external device, and the control by the external device may be implemented in various ways. Examples of the network include, but are not limited to, a local area network (LAN), a wireless local area network (WLAN), a wide area network (WAN), the Internet, and a small area network (Small). Area Network (SAN). The electronic device 100 may also be connected to an external device through the network. The electronic device 100 may be directly connected to an external device or through the network. The external device is used to play back and display an image captured by the camera 170 of the electronic device 100. Examples of the external device connected to the electronic device 100 through the network include, but are not limited to, a Youtube player, an iTunes player, an MPlayer player and a bareshare player. (Bearshare player), TV, mobile phone and the like.

상기 전자 장치(100)는 카메라를 구비한 임의의 장치일 수 있으며, 상기 전자 장치(100) 및 외부 장치는 각각 스마트폰, 휴대폰, 게임기, TV, 디스플레이 장치, 차량용 헤드 유닛, 노트북, 랩탑, 태블릿(Tablet) PC, PMP(Personal Media Player), PDA(Personal Digital Assistants) 등일 수 있다. 상기 전자 장치(100)는 무선 통신 기능을 갖는 휴대용 통신 단말로서 구현될 수 있다.The electronic device 100 may be any device having a camera, and the electronic device 100 and the external device may be a smartphone, a mobile phone, a game machine, a TV, a display device, a vehicle head unit, a laptop, a laptop, a tablet, respectively. (Tablet) PC, PMP (Personal Media Player), PDA (Personal Digital Assistants) and the like. The electronic device 100 may be implemented as a portable communication terminal having a wireless communication function.

상기 통신부(140)는 외부 장치와의 직접 연결 또는 네트워크를 통한 연결을 위해 제공되며, 유선 또는 무선 통신부일 수 있으며, 상기 제어부(180), 메모리(120) 또는 카메라(170)로부터의 데이터를 유선 또는 무선으로 전송하거나, 외부 통신선 또는 대기로부터 데이터를 유선 또는 무선 수신하여 상기 제어부(180)로 전달하거나 메모리(120)에 저장한다. The communication unit 140 is provided for a direct connection with an external device or a connection through a network, and may be a wired or wireless communication unit, and wires data from the controller 180, the memory 120, or the camera 170. Alternatively, wirelessly, or wired or wirelessly receives data from an external communication line or the air and transmits the data to the controller 180 or stores the data in the memory 120.

상기 통신부(140)는 성능에 따라 이동통신 모듈, 무선랜 모듈 및 근거리통신 모듈 중 적어도 하나를 포함할 수 있다. 상기 통신부(140)의 예들은, 이에 한정되지 않지만, 종합 정보 통신망(integrated services digital network: ISDN) 카드, 모뎀, 근거리 통신망(LAN) 카드, 적외선 모듈, 블루투스 모듈(Bluetooth module), 지그비(zigbee) 모듈 및 무선 모듈을 포함한다.The communication unit 140 may include at least one of a mobile communication module, a wireless LAN module, and a short range communication module according to performance. Examples of the communication unit 140 include, but are not limited to, an integrated services digital network (ISDN) card, a modem, a local area network (LAN) card, an infrared module, a Bluetooth module, and a zigbee. Module and wireless module.

이동통신 모듈은 제어부(180)의 제어에 따라 적어도 하나-하나 또는 복수-의 안테나(도시되지 않음)를 이용하여 이동 통신을 통해 전자 장치(100)가 외부 장치와 연결되도록 한다. 이동통신 모듈은 전자 장치(100)에 입력되는 전화번호를 가지는 휴대폰(도시되지 아니함), 스마트폰(도시되지 아니함), 태블릿PC 또는 다른 장치(도시되지 아니함)와 음성 통화, 화상 통화, 문자메시지(SMS) 또는 멀티미디어 메시지(MMS)를 위한 무선 신호를 송/수신한다. The mobile communication module allows the electronic device 100 to be connected to an external device through mobile communication using at least one, one, or a plurality of antennas (not shown) under the control of the controller 180. The mobile communication module uses a mobile phone (not shown), a smart phone (not shown), a tablet PC or another device (not shown) having a phone number input to the electronic device 100 to make a voice call, a video call, or a text message. Send / receive radio signals for SMS or multimedia messages.

무선랜 모듈은 제어부(180)의 제어에 따라 무선 AP(access point)(도시되지 아니함)가 설치된 장소에서 인터넷에 연결될 수 있다. 무선랜 모듈은 미국전기전자학회(IEEE)의 무선랜 규격(IEEE802.11x)을 지원한다. 근거리통신 모듈은 제어부(180)의 제어에 따라 전자 장치(100)와 화상 형성 장치(도시되지 아니함) 사이에 무선으로 근거리 통신을 할 수 있다. 근거리 통신방식은 블루투스(bluetooth), 적외선 통신(IrDA, infrared data association) 등이 포함될 수 있다.The WLAN module may be connected to the Internet at a place where a wireless access point (not shown) is installed under the control of the controller 180. The wireless LAN module supports the IEEE 802.11x standard of the Institute of Electrical and Electronics Engineers (IEEE). The short range communication module may wirelessly perform short range communication between the electronic device 100 and an image forming apparatus (not shown) under the control of the controller 180. The local area communication method may include bluetooth, infrared data association (IrDA), and the like.

사용자 인터페이스(130)는 사용자 입력을 수신하거나 사용자에게 정보를 알리기 위한 수단으로서, 복수의 버튼, 마이크, 스피커, 진동모터, 커넥터, 키패드 등을 포함할 수 있다. 사용자 인터페이스(130)의 예들은, 이에 한정되지 않지만, 마우스, 트랙볼(trackball), 조이스틱 또는 커서 방향 키들과 같은 커서 컨트롤(cursor control)이 상기 제어부(180)와의 정보 통신 및 상기 표시부(150) 상의 커서 움직임 제어를 위해 제공될 수 있다.The user interface 130 may include a plurality of buttons, a microphone, a speaker, a vibration motor, a connector, a keypad, and the like as a means for receiving a user input or informing the user of information. Examples of the user interface 130 include, but are not limited to, a cursor control such as a mouse, trackball, joystick, or cursor direction keys communicating information with the controller 180 and on the display 150. It may be provided for controlling the cursor movement.

버튼은 상기 전자 장치(100)의 전면, 측면 또는 후면에 형성될 수 있으며, 전원/잠금 버튼(도시되지 아니함), 볼륨 버튼(도시되지 아니함), 메뉴 버튼, 홈 버튼, 돌아가기 버튼(back button) 및 검색 버튼 등을 포함할 수 있다.The button may be formed on the front, side, or back of the electronic device 100, and may include a power / lock button (not shown), a volume button (not shown), a menu button, a home button, and a back button (back button). ) And a search button.

마이크는 제어부(180)의 제어에 따라 음성(voice) 또는 사운드(sound)를 수신하여 전기적인 신호를 생성한다. The microphone receives an audio or sound under the control of the controller 180 to generate an electrical signal.

스피커는 제어부(180)의 제어에 따라 다양한 신호(예, 무선신호, 방송신호, 디지털 오디오 파일, 디지털 동영상 파일 또는 사진 촬영 등)에 대응되는 사운드를 전자 장치(100) 외부로 출력할 수 있다. 스피커는 전자 장치(100)가 수행하는 기능에 대응되는 사운드를 출력할 수 있다. 스피커는 상기 전자 장치(100)의 적절한 위치 또는 위치들에 하나 또는 복수로 형성될 수 있다.The speaker may output sound corresponding to various signals (eg, a wireless signal, a broadcast signal, a digital audio file, a digital video file, or a photo capture) to the outside of the electronic device 100 under the control of the controller 180. The speaker may output a sound corresponding to a function performed by the electronic device 100. One or more speakers may be formed at appropriate locations or locations of the electronic device 100.

진동 모터는 제어부(180)의 제어에 따라 전기적 신호를 기계적 진동으로 변환할 수 있다. 예를 들어, 진동 모드에 있는 전자 장치(100)는 다른 장치(도시되지 아니함)로부터 음성통화가 수신되는 경우, 진동 모터가 작동한다. 진동 모터는 상기 전자 장치(100) 내에 하나 또는 복수로 형성될 수 있다. 진동 모터는 터치스크린 상을 터치하는 사용자의 터치 동작 및 터치스크린 상에서의 터치의 연속적인 움직임에 응답하여 작동할 수 있다. The vibration motor may convert an electrical signal into mechanical vibration under the control of the controller 180. For example, when the electronic device 100 in the vibration mode receives a voice call from another device (not shown), the vibration motor operates. One or more vibration motors may be formed in the electronic device 100. The vibrating motor may operate in response to a user's touch action on the touchscreen and the continuous movement of the touch on the touchscreen.

커넥터는 전자 장치(100)와 외부 장치 또는 전원 소스(도시되지 아니함)를 연결하기 위한 인터페이스로 이용될 수 있다. 제어부(180)의 제어에 따라 커넥터에 연결된 유선 케이블을 통해 전자 장치(100)의 메모리(120)에 저장된 데이터를 외부 장치로 전송하거나 또는 외부 장치에서부터 데이터를 수신할 수 있다. 커넥터에 연결된 유선 케이블을 통해 전원소스에서부터 전원이 입력되거나 배터리를 충전할 수 있다.The connector may be used as an interface for connecting the electronic device 100 to an external device or a power source (not shown). Under the control of the controller 180, data stored in the memory 120 of the electronic device 100 may be transmitted to an external device or may receive data from an external device through a wired cable connected to the connector. A wired cable connected to the connector allows power to be input from the power source or charge the battery.

키패드는 전자 장치(100)의 제어를 위해 사용자로부터 키 입력을 수신할 수 있다. 키패드는 전자 장치(100)에 형성되는 물리적인 키패드 또는 터치스크린에 표시되는 가상의 키패드를 포함한다.The keypad may receive a key input from a user for controlling the electronic device 100. The keypad includes a physical keypad formed on the electronic device 100 or a virtual keypad displayed on a touch screen.

센서부(110)는 전자 장치(100)의 상태(위치, 방위, 움직임 등)를 검출하는 적어도 하나의 센서를 포함한다. 예를 들어, 센서부(110)는 사용자의 전자 장치(100)에 대한 접근 여부를 검출하는 근접 센서, 또는 전자 장치(100)의 작동(예를 들어, 전자 장치(100)의 회전, 가속, 감속, 진동 등)을 검출하는 모션 센서 등을 포함할 수 있다. 또한, 모션 센서는 가속도 센서, 중력센서, 충격센서, GPS, 나침반 센서, 가속도 센서 등을 포함할 수 있다. 센서부(110)는 전자 장치(100)의 상태를 검출하고, 검출에 대응되는 신호를 생성하여 제어부(180)로 전송할 수 있다. 예를 들어, GPS 모듈은 지구 궤도상에 있는 복수의 GPS위성(도시되지 아니함)에서부터 전파를 수신하고, GPS위성(도시되지 아니함)에서부터 전자 장치(100)까지 전파도달시간(Time of Arrival)을 이용하여 전자 장치(100)의 위치를 산출할 수 있다.The sensor unit 110 includes at least one sensor that detects a state (position, orientation, movement, etc.) of the electronic device 100. For example, the sensor unit 110 may be a proximity sensor that detects whether a user approaches the electronic device 100, or an operation of the electronic device 100 (eg, rotation, acceleration, Motion sensors for detecting deceleration, vibration, etc.). In addition, the motion sensor may include an acceleration sensor, a gravity sensor, an impact sensor, a GPS, a compass sensor, an acceleration sensor, and the like. The sensor unit 110 may detect a state of the electronic device 100, generate a signal corresponding to the detection, and transmit the signal to the controller 180. For example, the GPS module receives radio waves from a plurality of GPS satellites (not shown) on Earth orbit, and sets a time of arrival from the GPS satellites (not shown) to the electronic device 100. The location of the electronic device 100 may be calculated by using the same.

카메라(170)는 렌즈계(174), 구동부(172) 및 이미지 센서(176)를 포함하며, 플래쉬 등을 더 포함할 수 있다. 카메라(170)는 렌즈계(174)를 통해 입력되는(또는 촬영되는) 광신호를 전기적인 이미지 신호 또는 데이터로 변환하여 출력하고, 사용자는 이러한 카메라(170)를 통해 동영상 또는 정지 이미지를 촬영할 수 있다. 다시 말하여, 상기 카메라(170)는 피사체의 광학적 이미지를 형성하고, 상기 형성된 광학적 이미지를 전기 신호로 검출한다. The camera 170 includes a lens system 174, a driver 172, and an image sensor 176, and may further include a flash. The camera 170 converts and outputs an optical signal input (or photographed) through the lens system 174 into an electrical image signal or data, and a user may capture a moving image or a still image through the camera 170. . In other words, the camera 170 forms an optical image of the subject and detects the formed optical image as an electrical signal.

렌즈계(174)는 외부로부터 입사된 광을 수렴시킴으로써 피사체의 이미지를 형성한다. 상기 렌즈계(174)는 적어도 하나의 렌즈를 포함하며, 각 렌즈는 볼록 렌즈, 비구면 렌즈 등일 수 있다. 상기 렌즈계(174)는 그 중심을 지나는 광축(optical axis)에 대해 대칭성을 가지며, 상기 광축은 이러한 중심 축으로 정의된다, 상기 이미지 센서(176)는 렌즈계(174)를 통해 입사된 외부 광에 의해 형성된 광학적 영상을 전기적 영상 신호로 검출한다. The lens system 174 forms an image of a subject by converging light incident from the outside. The lens system 174 may include at least one lens, and each lens may be a convex lens, an aspheric lens, or the like. The lens system 174 is symmetric about an optical axis passing through its center, and the optical axis is defined as this central axis. The image sensor 176 is defined by external light incident through the lens system 174. The formed optical image is detected as an electrical image signal.

상기 이미지 센서(176)는 M×N 행렬(matrix) 구조로 배치된 복수의 화소(pixel)를 구비하며, 상기 화소는 포토다이오드 및 적어도 하나의 트랜지스터들을 포함할 수 있다. 상기 화소는 수평 스캐너로부터의 온 신호의 인가에 따라 입사된 광에 의해 생성된 전하를 축적하고(즉, 노출 과정), 축적된 전하에 의한 전압을 출력하며(즉, 화소 데이터 출력 과정), 상기 전압은 상기 입사된 광의 조도를 나타낸다. 한 화소의 작동에 의해 이러한 노출 및 출력 과정이 수행된다. The image sensor 176 may include a plurality of pixels arranged in an M × N matrix structure, and the pixels may include a photodiode and at least one transistor. The pixel accumulates (i.e., exposes) the charge generated by the incident light upon application of the on-signal from the horizontal scanner, outputs the voltage by the accumulated charge (i.e., outputs the pixel data), and The voltage represents the illuminance of the incident light. This exposure and output process is performed by the operation of one pixel.

정지 이미지 또는 동영상을 구성하는 한 영상을 처리하는 경우에 있어서, 상기 이미지 센서(176)로부터 출력되는 이미지 데이터는 상기 화소들로부터 출력되는 전압들(즉, 화소 값들)의 집합으로 구성되고, 상기 이미지 데이터는 하나의 이미지(즉, 정지 이미지)를 나타낸다. 일 실시 예에서, 상기 이미지 센서(176)는 M×N 화소로 구성된 뷰 영역 이미지 데이터를 제1 이미지 신호 프로세서(160)로 출력하고, M×N 화소 중 일부에 해당하는 P×Q 화소로 구성된 관심 영역 이미지 데이터를 제2 이미지 신호 프로세서(165)로 출력한다. 이때, 뷰 영역은 전체 영역이라고 칭할 수도 있다. 다른 실시 예에서, 상기 이미지 센서(176)는 M×N 화소로 구성된 뷰 이미지 데이터를 메모리(120)에 저장한다. 상기 이미지 센서(176)로는 CCD(charge-coupled device) 이미지 센서, CMOS(complementary metal-oxide semiconductor) 이미지 센서 등을 사용할 수 있다.In the case of processing an image constituting a still image or a moving image, the image data output from the image sensor 176 is composed of a set of voltages (ie, pixel values) output from the pixels, and the image The data represents one image (ie still image). According to an embodiment, the image sensor 176 outputs view area image data including M × N pixels to the first image signal processor 160 and includes P × Q pixels corresponding to some of the M × N pixels. The ROI image data is output to the second image signal processor 165. In this case, the view area may be referred to as the entire area. In another embodiment, the image sensor 176 stores view image data composed of M × N pixels in the memory 120. The image sensor 176 may be a charge-coupled device (CCD) image sensor, a complementary metal-oxide semiconductor (CMOS) image sensor, or the like.

상기 구동부(172)는 제1 및 제2 이미지 신호 프로세서(160, 465)와 제어부(180) 중 어느 하나의 제어에 따라 상기 이미지 센서(176)를 구동한다. 상기 구동부(172)는 제1 이미지 신호 프로세서(160)로부터 수신한 제1 제어 신호에 따라 상기 이미지 센서(176)의 전체 화소들을 작동시키고, 상기 전체 화소들로부터 출력되는 뷰 영역 이미지 데이터를 제1 이미지 신호 프로세서(160)로 출력한다. 또한, 상기 구동부(172)는 제1 이미지 신호 프로세서(160)로부터 수신한 제2 제어 신호에 따라 상기 이미지 센서(176)의 전체 화소 중에서 관심 영역의 화소들만을 작동시키고, 상기 관심 영역의 화소들로부터 출력되는 관심 영역 이미지 데이터를 제2 이미지 신호 프로세서(165)로 출력한다. 본 예에서, 제1 이미지 신호 프로세서(160)가 상기 구동부(172)를 제어하는 것으로 예시하고 있으나, 상기 구동부(172)는 상기 제어부(180)에 의해 직접 제어될 수도 있다. The driver 172 drives the image sensor 176 under the control of one of the first and second image signal processors 160 and 465 and the controller 180. The driver 172 operates all the pixels of the image sensor 176 according to the first control signal received from the first image signal processor 160, and performs a first operation on the view area image data output from the all pixels. Output to the image signal processor 160. In addition, the driver 172 operates only pixels of the ROI among all the pixels of the image sensor 176 according to the second control signal received from the first image signal processor 160, and controls the pixels of the ROI. The region of interest image data output from the output signal is output to the second image signal processor 165. In this example, although the first image signal processor 160 controls the driver 172, the driver 172 may be directly controlled by the controller 180.

상기 표시부(150)는 상기 제1 및 제2 이미지 신호 프로세서(160, 165)와 제어부(180) 중의 어느 하나로부터 입력된 이미지를 화면에 표시한다. 이러한 표시부(150)로는 액정표시장치(liquid crystal display: LCD), 터치스크린(touch screen) 등을 사용할 수 있다. 상기 터치스크린은 상기 제어부(180)의 제어에 따른 영상을 표시하고, 그 표면에 손가락, 스타일러스 펜(stylus pen) 등과 같은 사용자 입력 수단이 접촉하면 키 접촉 인터럽트(interrupt)를 발생시키고, 상기 제어부(180)의 제어에 따라 입력 좌표 및 입력 상태를 포함하는 사용자 입력 정보를 상기 제어부(180)로 출력한다.The display unit 150 displays an image input from any one of the first and second image signal processors 160 and 165 and the controller 180 on the screen. The display unit 150 may be a liquid crystal display (LCD), a touch screen, or the like. The touch screen displays an image according to the control of the controller 180, generates a key contact interrupt when a user input means such as a finger, a stylus pen, or the like comes into contact with the surface of the touch screen. Under the control of 180, user input information including input coordinates and an input state is output to the controller 180.

터치스크린은 사용자에게 다양한 서비스(예, 통화, 데이터 전송, 방송, 사진/동영상 촬영)에 대응되는 그래픽 사용자 인터페이스를 제공할 수 있다. 터치스크린은 그래픽 사용자 인터페이스에 입력되는 적어도 하나의 터치에 대응되는 사용자 입력 정보를 제어부(180)로 전송할 수 있다. 터치스크린은 사용자의 신체(예, 엄지를 포함하는 손가락) 또는 터치 가능한 입력 수단(예, 스타일러스 펜)을 통해 적어도 하나의 터치를 입력받을 수 있다. 또한, 터치스크린은 적어도 하나의 터치 중에서, 하나의 터치의 연속적인 움직임을 입력받을 수 있다. 터치스크린은 입력되는 터치의 연속적인 움직임에 대응되는 사용자 입력 정보를 제어부(180)로 전송할 수 있다.The touch screen may provide a user with a graphic user interface corresponding to various services (eg, call, data transmission, broadcasting, photographing / video recording). The touch screen may transmit user input information corresponding to at least one touch input to the graphic user interface to the controller 180. The touch screen can receive at least one touch via a user's body (e.g., a finger including a thumb) or a touchable input means (e.g., a stylus pen). Also, the touch screen may receive a continuous movement of one touch among at least one touch. The touch screen may transmit user input information corresponding to continuous movement of an input touch to the controller 180.

본 발명에서 터치는 터치스크린과 사용자의 신체 또는 터치 가능한 입력 수단과의 접촉에 한정되지 않고, 비접촉(예, 터치스크린과 사용자의 신체 또는 터치 가능한 입력 수단과 검출가능한 간격이 1 mm 이하)을 포함할 수 있다. 터치스크린은 예를 들어, 저항막(resistive) 방식, 정전용량(capacitive) 방식, 적외선(infrared) 방식 또는 초음파(acoustic wave) 방식으로 구현될 수 있다.In the present invention, the touch is not limited to the contact between the touch screen and the user's body or touchable input means, and includes non-contact (for example, a detectable distance between the touch screen and the user's body or touchable input means is 1 mm or less). can do. The touch screen may be implemented by, for example, a resistive method, a capacitive method, an infrared method, or an acoustic wave method.

상기 메모리(120)는 화상 통화, 게임 등과 같은 다양한 기능들의 애플리케이션들과 이와 관련된 그래픽 사용자 인터페이스(graphical user interface: GUI)를 제공하기 위한 이미지들, 사용자 정보, 문서 등과 관련된 데이터베이스들, 상기 전자 장치(100)를 구동하는데 필요한 배경 이미지들(메뉴 화면, 대기 화면 등) 또는 운영 프로그램들, 카메라에 의해 촬영된 이미지들, 관심 영역 이미지의 출력 방법과 관련된 데이터 등을 저장할 수 있다. 상기 메모리(120)는 기계로 읽을 수 있는 매체이며, 기계로 읽을 수 있는 매체라는 용어는 기계가 특정 기능을 수행할 수 있도록 상기 기계에게 데이터를 제공하는 매체로 정의될 수 있다. 기계로 읽을 수 있는 매체는 저장 매체일 수 있다. 상기 메모리(120)는 비휘발성 매체(non-volatile media) 및 휘발성 매체를 포함할 수 있다. 이러한 모든 매체는 상기 매체에 의해 전달되는 명령들이 상기 명령들을 상기 기계로 읽어 들이는 물리적 기구에 의해 검출될 수 있도록 유형의 것이어야 한다. The memory 120 includes databases related to images, user information, documents, etc. for providing applications of various functions such as a video call, a game, and the like, and a graphical user interface (GUI) related thereto, and the electronic device ( Background images (menu screen, standby screen, etc.) or operating programs, images captured by a camera, data related to a method of outputting a region of interest image, etc. necessary for driving 100 may be stored. The memory 120 is a machine readable medium, and the term machine readable medium may be defined as a medium for providing data to the machine so that the machine can perform a specific function. The machine-readable medium may be a storage medium. The memory 120 may include non-volatile media and volatile media. All such media must be tangible so that the instructions carried by the media can be detected by a physical mechanism that reads the instructions into the machine.

상기 기계로 읽을 수 있는 매체의 예들은, 이에 한정되지 않지만, 플로피 디스크(floppy disk), 플렉서블 디스크(flexible disk), 하드 디스크, 자기 테이프, 시디롬(compact disc read-only memory: CD-ROM), 광학 디스크, 펀치 카드(punchcard), 페이퍼 테이프(papertape), 램, 피롬(Programmable Read-Only Memory: PROM), 이피롬(Erasable PROM: EPROM) 및 플래시-이피롬(FLASH-EPROM)을 포함한다. Examples of such machine-readable media include, but are not limited to, floppy disks, flexible disks, hard disks, magnetic tapes, compact disc read-only memory (CD-ROM), Optical discs, punchcards, papertape, RAM, Programmable Read-Only Memory (PROM), Erasable PROM (EPROM) and FLASH-EPROM.

상기 제어부(180)는 사용자 입력 정보에 따른 애플리케이션을 실행하고, 상기 애플리케이션은 사용자 입력 정보에 따른 프로그램 동작을 수행한다. 이때, 사용자 입력은 키패드, 터치스크린 등을 통한 입력 또는 카메라 기반의 입력을 포함한다. 상기 제어부(180)는 정보 통신을 위한 버스(bus) 및 정보 처리를 위해 상기 버스와 연결된 프로세서(processor)를 포함할 수 있다. 상기 제어부(180)는 또한 상기 프로세서에 의해 요구되는 정보를 저장하기 위해 상기 버스와 연결된 제2의 메모리(예를 들어, 램(random access memory: RAM))를 포함할 수 있다. 상기 제2의 메모리는 상기 프로세서에 의해 요구되는 임시 정보를 저장하는데 사용될 수 있다. 상기 전자 장치(100)는 상기 프로세서에 의해 요구되는 정적 정보(static information)를 저장하기 위해 상기 버스와 연결되는 롬(read only memory: ROM)을 더 포함할 수 있다. 상기 제어부(180)는 중앙처리장치로서 전자 장치(100)의 전반적인 작동을 제어하고, 본 발명에 따른 관심 영역 이미지의 출력 방법을 수행하는 역할을 한다. 상기 제어부(180)는 사용자 입력 정보 또는 디폴트 설정에 따라 관심 영역의 이미지를 출력할 수 있도록 제1 및 제2 이미지 신호 프로세서(160, 165)를 제어한다. The controller 180 executes an application according to user input information, and the application performs a program operation according to the user input information. At this time, the user input includes an input through a keypad, a touch screen, or the like, or a camera-based input. The controller 180 may include a bus for information communication and a processor connected to the bus for information processing. The controller 180 may also include a second memory (eg, random access memory (RAM)) coupled with the bus to store information required by the processor. The second memory may be used to store temporary information required by the processor. The electronic device 100 may further include a read only memory (ROM) connected to the bus to store static information required by the processor. The controller 180 controls the overall operation of the electronic device 100 as a central processing unit and performs a method of outputting a region of interest image according to the present invention. The controller 180 controls the first and second image signal processors 160 and 165 to output an image of the ROI according to user input information or a default setting.

상기 제1 및 제2 이미지 신호 프로세서(160, 165)는 각각 상기 제어부(180)의 제어에 따라 상기 카메라(170)로부터 입력되는 이미지 또는 상기 메모리(120)에 저장된 이미지를 프레임(frame) 단위로 처리한다. Each of the first and second image signal processors 160 and 165 controls the image input from the camera 170 or the image stored in the memory 120 on a frame basis under the control of the controller 180. Process.

상기 제1 이미지 신호 프로세서(160)는 뷰 영역에서 관심 영역을 설정하는데 사용되며, 상기 제2 이미지 신호 프로세서(165)는 상기 표시부(150)의 화면 특성(크기, 화질, 해상도 등)에 맞도록 변환된 관심 영역 이미지를 출력한다. The first image signal processor 160 is used to set a region of interest in the viewing area, and the second image signal processor 165 is adapted to fit the screen characteristics (size, image quality, resolution, etc.) of the display unit 150. Output the transformed ROI image.

상기 제2 이미지 신호 프로세서(165)는 상기 표시부(150)의 화면 특성(크기, 화질, 해상도 등)에 맞도록 변환된 뷰 영역 이미지를 출력할 수도 있다. The second image signal processor 165 may output the view region image converted to match the screen characteristics (size, image quality, resolution, etc.) of the display unit 150.

도 5는 이미지 센서의 구성을 나타내는 도면이다. 도 5에는 상기 카메라(170)를 구성하는 이미지 센서(176)의 화소 어레이(210)와, 상기 화소 어레이(210) 위에 배치되는 베이어 컬러 필터(Bayer color filter, 220)가 도시되어 있다. 각 화소(212)는 입사된 광의 밝기에 해당하는 값을 출력한다. 이러한 이미지 센서(176)는 각 화소가 적색(R), 녹색(G) 및 청색(B)을 검출하도록 구성될 수도 있으나, 가격 상승 등을 이유로 컬러 필터를 이용하여 각 화소가 한 색상만을 검출하도록 구성되는 것이 통상적이다. 상기 베이어 컬러 필터(220)는 3 가지 색상들(즉, R, G 및 B)의 필터 유닛들을 구비하고, 각 색상의 필터 유닛들은 행 방향 및 열 방향 각각에 대해 한 화소 건너서 하나씩 배치된다. 또한, 상기 필터 유닛들은 상기 화소들과 일대일 대응된다. 예를 들어, R 필터 유닛을 통과한 R 채널은 적색을 갖고, 상기 R 필터 유닛에 대응되도록 정렬된 해당 화소는 상기 R 채널을 검출한다. 상기 베이어 컬러 필터(220)는 선택적으로 구비될 수 있는 것이다. 이하, 화소 어레이(210)에 대해 기술하나, 화소 어레이(210) 자체가 이미지 센서(176)인 것으로 간주할 수 있다. 5 is a diagram illustrating a configuration of an image sensor. 5 illustrates a pixel array 210 of an image sensor 176 constituting the camera 170 and a Bayer color filter 220 disposed on the pixel array 210. Each pixel 212 outputs a value corresponding to the brightness of incident light. The image sensor 176 may be configured so that each pixel detects red (R), green (G), and blue (B), but for each pixel to detect only one color using a color filter due to a price increase or the like. It is customary to construct. The Bayer color filter 220 has filter units of three colors (ie, R, G, and B), and the filter units of each color are arranged one across the pixel for each of the row direction and the column direction. In addition, the filter units correspond one-to-one with the pixels. For example, the R channel passing through the R filter unit has a red color, and the corresponding pixel aligned to correspond to the R filter unit detects the R channel. The Bayer color filter 220 may be selectively provided. Hereinafter, although the pixel array 210 is described, the pixel array 210 itself may be regarded as the image sensor 176.

상기 제1 및 제2 이미지 신호 프로세서(160, 165)는 제어부(180)에 통합될 수 있으며, 이하 본 발명에 따른 관심 영역 이미지의 출력 방법을 설명함에 있어서, 제1 이미지 신호 프로세서(160)가 구동부(172)를 제어하는 것으로 설명한다. The first and second image signal processors 160 and 165 may be integrated into the controller 180. In the following description, a method of outputting a region of interest image according to the present invention may include the first image signal processor 160. It will be described as controlling the drive unit 172.

도 6은 상기 이미지 센서의 구동 방법을 설명하기 위한 도면이다.6 is a view for explaining a method of driving the image sensor.

구동부(172)는 상기 제1 이미지 신호 프로세서(160)로부터 입력된 뷰 영역 이미지의 출력을 위한 제1 제어 신호에 따라 상기 이미지 센서(176)에 온 신호들을 인가하고, 상기 이미지 센서(176)로부터 뷰 영역 이미지 데이터를 독출한다. 또한, 구동부(172)는 상기 제1 이미지 신호 프로세서(160)로부터 입력된 관심 영역 이미지의 출력을 위한 제2 제어 신호에 따라 상기 이미지 센서(176)에 온 신호들을 인가하고, 상기 이미지 센서(176)로부터 관심 영역 이미지 데이터를 독출한다. 상기 구동부(172)는 뷰 영역 이미지의 출력을 위한 제1 수평 스캐너(horizontal scanner, 320) 및 제1 수직 스캐너(horizontal scanner, 310)와, 관심 영역 이미지의 출력을 위한 제2 수평 스캐너(horizontal scanner, 325) 및 제2 수직 스캐너(horizontal scanner, 315)를 포함한다. 상기 제1 수평 스캐너(320)는 뷰 영역에 대응되는 제1 수평 라인들(322)에 순차적으로 온 신호들을 공급하고, 상기 제2 수평 스캐너(325)는 관심 영역에 대응되는 제2 수평 라인들(327)에 순차적으로 온 신호들을 공급한다. 상기 제1 수직 스캐너(310)는 뷰 영역에 대응되는 제1 수직 라인들(312)로부터 순차적으로 화소 데이터들을 독출하고, 상기 제2 수직 스캐너(315)는 관심 영역에 대응되는 제2 수직 라인들(317)로부터 순차적으로 화소 데이터들을 독출한다. 이러한 화소 데이터들의 순차적인 독출을 스캔이라고 한다. The driver 172 applies signals to the image sensor 176 according to a first control signal for outputting a view area image input from the first image signal processor 160 and from the image sensor 176. Read the view area image data. In addition, the driver 172 applies signals to the image sensor 176 according to a second control signal for outputting the ROI image input from the first image signal processor 160, and the image sensor 176. The region of interest image data is read. The driver 172 may include a first horizontal scanner 320 and a first vertical scanner 310 for outputting a view area image, and a second horizontal scanner for outputting an ROI image. 325, and a second vertical scanner 315. The first horizontal scanner 320 supplies signals that are sequentially turned on to the first horizontal lines 322 corresponding to the view area, and the second horizontal scanner 325 to the second horizontal lines corresponding to the ROI. The signals 327 are sequentially supplied. The first vertical scanner 310 sequentially reads pixel data from the first vertical lines 312 corresponding to the view area, and the second vertical scanner 315 reads the second vertical lines corresponding to the ROI. Pixel data is read out sequentially from 317. This sequential reading of pixel data is called a scan.

상기 화소 어레이(210)는 복수의 화소들(212)을 구비하며, 상기 각 화소(212)는 해당 수평 라인들(322, 327) 및 수직 라인들(312, 317)에 연결된다. 상기 각 화소(212)는 수평 라인(322, 327)을 통해 온 신호가 인가된 경우에 노출 상태가 되고, 수직 라인(312, 317)과 연결된 신호 분석 소자의 작동에 따라 노출에 의해 생성된 화소 데이터를 출력한다. The pixel array 210 includes a plurality of pixels 212, and each pixel 212 is connected to corresponding horizontal lines 322 and 327 and vertical lines 312 and 317. Each of the pixels 212 is exposed when an on-signal is applied through the horizontal lines 322 and 327, and the pixels are generated by the exposure according to the operation of the signal analysis device connected to the vertical lines 312 and 317. Output the data.

도 7은 본 발명의 바람직한 실시 예에 따른 구동부의 회로 구성을 설명하기 위한 도면이다. 도 7에는 예시적으로 이미지 센서(176)의 3행 4열의 화소들(212)만이 도시되어 있고, 예를 들어, 3행 1열의 화소(212)는 3-1 화소라고 칭한다.7 is a diagram illustrating a circuit configuration of a driving unit according to an exemplary embodiment of the present invention. In FIG. 7, only three rows and four columns of pixels 212 of the image sensor 176 are illustrated. For example, the pixels 212 in three rows and one column are referred to as 3-1 pixels.

제1 수평 스캐너(320)는 이미지 센서(176)를 구성하는 화소들(212)의 모든 행들의 수만큼 제1 신호 인가 소자들(410)을 포함한다. 예를 들어, 3번째 화소 행에 대응하는 제1 신호 인가 소자(410)는 H1-3 소자라고 칭한다. 상기 제1 신호 인가 소자들(410)은 제1 수평 라인들(322)과 일대일 연결된다. 화소 행은 하나의 행을 이루는 화소들의 셋을 말하고, 화소 열은 하나의 열을 이루는 화소들의 셋을 말한다.The first horizontal scanner 320 includes the first signal applying elements 410 by the number of all rows of the pixels 212 constituting the image sensor 176. For example, the first signal applying element 410 corresponding to the third pixel row is called an H1-3 element. The first signal applying elements 410 are connected one-to-one with the first horizontal lines 322. The pixel row refers to the set of pixels forming one row, and the pixel column refers to the set of pixels forming one column.

제2 수평 스캐너(325)는 이미지 센서(176)를 구성하는 화소들(212)의 모든 행들의 수만큼 제2 신호 인가 소자들(420)을 포함한다. 예를 들어, 3번째 화소 행에 대응하는 제2 신호 인가 소자(420)는 H2-3 소자라고 칭한다. 상기 제2 신호 인가 소자들(420)은 제2 수평 라인들(327)과 일대일 연결된다.The second horizontal scanner 325 includes the second signal applying elements 420 by the number of all rows of the pixels 212 constituting the image sensor 176. For example, the second signal applying element 420 corresponding to the third pixel row is called an H2-3 element. The second signal applying elements 420 are connected one-to-one with the second horizontal lines 327.

각 화소(212)는 1 단위 시간 동안 작동하고, 각 화소 행은 1 싸이클 동안 작동한다. 이때, 1 싸이클은 한 화소 행을 구성하는 화소들의 수에 단위 시간을 곱한 시간에 해당한다. Each pixel 212 operates for one unit of time, and each pixel row operates for one cycle. In this case, one cycle corresponds to a time obtained by multiplying the number of pixels constituting one pixel row by a unit time.

제1 수평 스캐너(320)는 뷰 영역의 화소 행들에 싸이클 단위로 순차로 온 신호들을 인가한다. The first horizontal scanner 320 sequentially applies signals that are sequentially cycled to pixel rows of the view area.

제2 수평 스캐너(325)는 관심 영역의 화소 행들에 싸이클 단위로 순차로 온 신호들을 인가한다.The second horizontal scanner 325 sequentially applies signals that are sequentially cycled to pixel rows of the ROI.

제1 수직 스캐너(310)는 이미지 센서(176)를 구성하는 화소들(212)의 모든 열들의 수만큼 제1 신호 분석 소자들(430)을 포함한다. 예를 들어, 3번째 화소 열에 대응하는 제1 신호 분석 소자(430)는 V1-3 소자라고 칭한다. 상기 제1 신호 분석 소자들(430)은 제1 수직 라인들(312)과 일대일 연결된다. The first vertical scanner 310 includes the first signal analyzing elements 430 by the number of all columns of the pixels 212 constituting the image sensor 176. For example, the first signal analysis element 430 corresponding to the third pixel column is called a V1-3 element. The first signal analysis elements 430 are connected one-to-one with the first vertical lines 312.

제2 수직 스캐너(315)는 이미지 센서(176)를 구성하는 화소들(212)의 모든 열들의 수만큼 제2 신호 분석 소자들(440)을 포함한다. 예를 들어, 3번째 화소 열에 대응하는 제2 신호 분석 소자(440)는 V2-3 소자라고 칭한다. 상기 제2 신호 분석 소자들(440)은 제2 수직 라인들(317)과 일대일 연결된다.The second vertical scanner 315 includes the second signal analysis elements 440 by the number of all columns of the pixels 212 constituting the image sensor 176. For example, the second signal analysis element 440 corresponding to the third pixel column is referred to as a V2-3 element. The second signal analysis elements 440 are connected one-to-one with the second vertical lines 317.

제1 수직 스캐너(310)는 뷰 영역의 화소 열들로부터 싸이클 단위로 순차로 화소 데이터들을 독출한다. The first vertical scanner 310 sequentially reads pixel data from the pixel columns of the view area in cycle units.

제2 수직 스캐너(315)는 관심 영역의 화소 열들로부터 싸이클 단위로 순차로 화소 데이터들을 독출한다.The second vertical scanner 315 sequentially reads pixel data from the pixel columns of the ROI in units of cycles.

도 8은 본 발명의 실시 예에 따른 관심 영역 이미지의 출력 방법을 설명하기 위한 신호도이다. 8 is a signal diagram illustrating a method of outputting a region of interest image according to an exemplary embodiment.

 본 예에서는, 뷰 영역의 1/12 크기로 관심 영역(2-2 화소에 해당)을 설정하고, 30 fps로 관심 영역 이미지를 출력하는 경우를 예시한다. In this example, an example of setting a region of interest (corresponding to 2-2 pixels) at a size of 1/12 of a view region and outputting a region of interest image at 30 fps is illustrated.

뷰 영역의 프레임 레이트(Frame Rate)는 아래의 식과 같이 계산되며, 본 예에서 뷰 영역 이미지의 프레임 레이트는 2.5fps가 된다.The frame rate of the view area is calculated as shown below, and in this example, the frame rate of the view area image is 2.5 fps.

Figure 112012067982829-pat00001
Figure 112012067982829-pat00001

도 8에서, 관심 영역은 뷰 영역보다 작으며, Data1은 뷰 영역 이미지 데이터를 나타내고, Data2는 관심 영역 이미지 데이터를 나타낸다. 뷰 영역에서 관심 영역의 비율이 커질수록 뷰 영역의 프레임 레이트는 빠르게 된다.In FIG. 8, the region of interest is smaller than the view region, Data1 represents view region image data, and Data2 represents region of interest image data. As the ratio of the region of interest in the view region increases, the frame rate of the view region becomes faster.

시점들 t1~t12는 단위 시간 간격으로 이격되어 있고, 4 단위 시간이 한 싸이클을 이룬다. H1-1~H1-3 소자들 각각은 한 싸이클 동안 하이 신호를 출력하도록 작동하며, H1-1~H1-3 소자들은 싸이클 단위로 순차로 작동한다. V1-1~V1-4 소자들 각각은 해당 시점에서 해당 화소 데이터를 독출하도록 작동하며, V1-1~V1-4 소자들은 단위 시간 단위로 순차로 작동한다.The time points t1 to t12 are spaced at unit time intervals, and four unit times form one cycle. Each of the H1-1 to H1-3 devices operates to output a high signal for one cycle, and the H1-1 to H1-3 devices operate sequentially in cycle units. Each of the V1-1 to V1-4 devices operates to read corresponding pixel data at a corresponding point in time, and the V1-1 to V1-4 devices operate sequentially in unit time units.

H2-2 소자는 시점들 t1~t12에서 하이 신호를 출력하도록 작동하며, V2-2 소자는 시점들 t1~t12에서 제2 화소 열의 화소 데이터(결과적으로는, 2-2 화소의 화소 데이터)를 독출하도록 작동한다. The H2-2 device operates to output a high signal at time points t1 to t12, and the V2-2 device outputs pixel data of the second pixel column (as a result, pixel data of 2-2 pixels) at time points t1 to t12. Works to read

t1의 시점에서, H1-1 소자는 제1 화소 행에 하이 신호를 인가하고, V1-1 소자는 제1 화소 열의 화소 데이터(결과적으로는, 1-1 화소의 화소 데이터)를 독출하며, H2-2 소자는 제2 화소 행에 하이 신호를 인가하고, V2-2 소자는 제2 화소 열의 화소 데이터(결과적으로는, 2-2 화소의 화소 데이터)를 독출한다.At the time t1, the H1-1 device applies a high signal to the first pixel row, the V1-1 device reads pixel data of the first pixel column (as a result, pixel data of 1-1 pixels), and H2. The -2 device applies a high signal to the second pixel row, and the V2-2 device reads pixel data (consequently pixel data of 2-2 pixels) in the second pixel column.

t6의 시점에서, H1-2 소자는 제2 화소 행에 하이 신호를 인가하고, V1-2소자는 제2 화소 열의 화소 데이터(결과적으로는, 2-2 화소의 화소 데이터)를 독출하며, H2-2 소자는 제2 화소 행에 하이 신호를 인가하고, V2-2 소자는 제2 화소 열의 화소 데이터(결과적으로는, 2-2 화소의 화소 데이터)를 독출한다.At the time t6, the H1-2 device applies a high signal to the second pixel row, the V1-2 device reads pixel data of the second pixel column (as a result, pixel data of 2-2 pixels), and H2. The -2 device applies a high signal to the second pixel row, and the V2-2 device reads pixel data (consequently pixel data of 2-2 pixels) in the second pixel column.

도 9는 본 발명의 실시 예에 따른 관심 영역 이미지의 출력 방법을 설명하기 위한 주요 구성도이다.9 is a block diagram illustrating a method of outputting a region of interest image according to an exemplary embodiment.

카메라(170)는 뷰 영역 이미지(510)를 생성하고, 상기 뷰 영역 이미지(510)를 저속의 제1 프레임 레이트(예를 들어, 2.5fps)로 제1 이미지 신호 프로세서(160)로 출력한다. The camera 170 generates a view area image 510 and outputs the view area image 510 to the first image signal processor 160 at a low speed first frame rate (eg, 2.5 fps).

제1 이미지 신호 프로세서(160)는 뷰 영역 이미지(510)에서 자동으로 피사체를 탐지하고, 상기 피사체를 포함하는 관심 영역(520)을 설정하고, 설정된 관심 영역(520)의 좌표를 상기 카메라(170)로 출력한다. The first image signal processor 160 automatically detects a subject from the view area image 510, sets a region of interest 520 including the subject, and sets coordinates of the set region of interest 520 to the camera 170. )

상기 카메라(170)는 관심 영역(520)의 좌표에 근거하여 관심 영역 이미지(530)를 생성하고, 상기 관심 영역 이미지(530)를 고속의 제2 프레임 레이트(예를 들어, 30fps)로 제2 이미지 신호 프로세서(165)로 출력한다. The camera 170 generates a region of interest image 530 based on the coordinates of the region of interest 520, and converts the region of interest image 530 to a second frame rate (eg, 30 fps) at a high speed. The image signal is output to the processor 165.

제2 이미지 신호 프로세서(165)는 상기 표시부(150)의 화면 특성(크기, 화질, 해상도 등)에 맞도록 상기 관심 영역 이미지(530)를 처리(또는 변환)하고, 처리된 관심 영역 이미지(540)를 상기 표시부(150)로 출력한다. 제2 이미지 신호 프로세서(165)는 상기 카메라(170)로부터 수신한 관심 영역 이미지(530)의 해상도 또는 크기를 감소시킬 수 있다. The second image signal processor 165 processes (or converts) the ROI image 530 to match the screen characteristics (size, image quality, resolution, etc.) of the display unit 150, and processes the ROI image 540 processed. ) Is output to the display unit 150. The second image signal processor 165 may reduce the resolution or size of the ROI image 530 received from the camera 170.

본 예와 다르게, 상기 수학식 1과 같은 제약사항을 피하기 위하여, 뷰 영역 이미지 및 관심 영역 이미지를 시분할 방식으로 출력할 수도 있다.Unlike the present example, in order to avoid the constraints of Equation 1, the view area image and the ROI image may be output in a time division manner.

예를 들어, 카메라(170)가 초당 30 프레임을 출력한다고 가정하면, 뷰 영역 이미지에 해당하는 첫 번째 프레임을 제1 이미지 신호 프로세서(160)로 출력하고, 관심 영역 이미지들에 해당하는 두 번째 프레임부터 30번째 프레임은 제2 이미지 신호 프로세서(165)로 출력할 수도 있다. For example, assuming that the camera 170 outputs 30 frames per second, the first frame corresponding to the view region image is output to the first image signal processor 160, and the second frame corresponding to the ROI images is output. The 30 th frame may be output to the second image signal processor 165.

도 10은 본 발명의 다른 실시 예에 따른 관심 영역 이미지의 출력 방법을 설명하기 위한 주요 구성도이다.FIG. 10 is a diagram illustrating an example of a method of outputting a region of interest image according to another exemplary embodiment.

카메라(170)는 뷰 영역 이미지(610)를 생성하고, 상기 뷰 영역 이미지(160)를 고속의 제2 프레임 레이트(예를 들어, 30fps)로 메모리(120)에 저장한다.The camera 170 generates a view area image 610 and stores the view area image 160 in the memory 120 at a high speed second frame rate (eg, 30 fps).

제1 이미지 신호 프로세서(160)는 상기 메모리(120)로부터 뷰 영역 이미지(610)를 저속의 제3 프레임 레이트(예를 들어, 5fps)로 독출하고, 상기 뷰 영역 이미지(610)에서 자동으로 피사체를 탐지하고, 상기 피사체를 포함하는 관심 영역(620)을 설정하고, 설정된 관심 영역(620)의 좌표를 상기 메모리(120)에 저장하거나 제2 이미지 신호 프로세서(165)로 출력한다. The first image signal processor 160 reads the view area image 610 from the memory 120 at a low speed third frame rate (eg, 5 fps), and automatically the subject in the view area image 610. Detects an image, sets a region of interest 620 including the subject, and stores the coordinates of the region of interest 620 in the memory 120 or outputs the coordinates of the region of interest 620 to the second image signal processor 165.

제2 이미지 신호 프로세서(165)는 관심 영역(620)의 좌표에 근거하여 상기 메모리(120)로부터 관심 영역 이미지(630)(즉, 뷰 영역 이미지의 일부)를 고속의 제2 프레임 레이트(예를 들어, 30fps)로 독출하고, 상기 표시부(150)의 화면 특성(크기, 화질, 해상도 등)에 맞도록 상기 관심 영역 이미지(630)를 처리(또는 변환)하고, 처리된 관심 영역 이미지(640)를 상기 표시부(150)로 출력한다. 제2 이미지 신호 프로세서(165)는 상기 메모리(120)로부터 수신한 관심 영역 이미지(630)의 해상도 또는 크기를 감소시킬 수 있다. 본 예와 다르게, 제2 이미지 신호 프로세서(165)는 상기 메모리(120)로부터 뷰 영역 이미지(610)를 독출하고, 뷰 영역 이미지(610)에서 관심 영역 이미지(630)를 추출할 수도 있다. The second image signal processor 165 converts the region of interest image 630 (ie, a portion of the view region image) from the memory 120 based on the coordinates of the region of interest 620 to a high-speed second frame rate (eg, For example, at 30fps, the ROI image 630 is processed (or converted) to fit the screen characteristics (size, image quality, resolution, etc.) of the display unit 150, and the processed ROI image 640 is processed. Is output to the display unit 150. The second image signal processor 165 may reduce the resolution or size of the ROI image 630 received from the memory 120. Unlike the present example, the second image signal processor 165 may read the view area image 610 from the memory 120 and extract the region of interest image 630 from the view area image 610.

도 11 및 도 12는 본 발명의 전자 장치를 이용한 화상 통화 방법을 설명하기 위한 도면들이다. 11 and 12 are diagrams for describing a video call method using the electronic device of the present invention.

도 11은, 카메라(170)에 의해 촬영된 뷰 영역 이미지(710)를 나타낸다. 카메라(170)의 기본 설정된 화각이 크기 때문에, 상기 뷰 영역 이미지(710)에는 화상 통화를 하고자 하는 사용자 이외에 배경이 상기 뷰 영역 이미지(710)의 대부분을 차지하고 있다. 제어부(180)는 사용자 인터페이스(130)를 통한 사용자의 화상 통화 명령이 입력된 경우에, 제2 이미지 신호 프로세서(165)가 관심 영역(720)의 이미지를 출력할 수 있도록 구동부(172) 및 제1 및 제2 이미지 신호 프로세서(160, 15)를 제어한다.11 shows a view area image 710 captured by the camera 170. Since the default view angle of the camera 170 is large, the background occupies most of the view area image 710 in addition to the user who wants to make a video call. The controller 180 may include a driving unit 172 and a second unit so that the second image signal processor 165 outputs an image of the region of interest 720 when a user's video call command is input through the user interface 130. The first and second image signal processors 160 and 15 are controlled.

본 관심 영역 설정 방법은 하나의 이미지에 대해 기술되고 있으나, 본 방법은 순차로 입력 또는 독취되는 이미지들에 대해 각각 적용될 수 있다. 또한, 본 방법은 전자 장치(100)가 일대일 화상 통화 또는 다자간 화상 회의를 수행하는 도중에 카메라(170)로부터 실시간으로 입력되는 이미지에 대해 수행되거나, 다른 애플리케이션 모드에서 카메라(170)를 통해 실시간으로 입력되는 이미지에 대해 수행될 수 있다. The present ROI setting method is described for one image, but the present method may be applied to images sequentially input or read. In addition, the method may be performed on an image input in real time from the camera 170 while the electronic device 100 performs a one-to-one video call or a multi-party video conference, or input in real time through the camera 170 in another application mode. Can be performed on the image being imaged.

제1 이미지 신호 프로세서(160)는 뷰 영역 이미지(710)에 사용자의 얼굴이 포함되어 있는지 여부를 판단하고, 사용자의 얼굴이 포함되어 있으면 상기 얼굴 부분을 포함하도록 관심 영역(720)을 설정한다. 여기서, 얼굴 검출은 통상의 얼굴 검출 방법을 이용하여 수행되는데, 얼굴의 윤곽선, 얼굴 피부의 색상 및/또는 질감, 템플릿 등을 이용한 얼굴 추출 기술이 이용될 수 있다. 예를 들어, 제1 이미지 신호 프로세서(160)는 다수의 얼굴 이미지를 통해 얼굴 학습을 수행하고, 축적된 얼굴 학습 데이터를 이용하여 입력된 뷰 영역 이미지(710)로부터 사용자의 얼굴을 검출할 수 있다.The first image signal processor 160 determines whether the face of the user is included in the view area image 710 and sets the region of interest 720 to include the face part if the face of the user is included. Here, face detection is performed using a conventional face detection method, and a face extraction technique using a contour of a face, a color and / or texture of a face skin, a template, or the like may be used. For example, the first image signal processor 160 may perform face learning through a plurality of face images and detect a face of the user from the input view area image 710 using the accumulated face learning data. .

이후, 제2 이미지 신호 프로세서(165) 또는 제어부(180)는 도 12에 도시된 바와 같은 화상 통화 화면(810)을 사용자에게 표시하고, 상기 화면(810)에 관심 영역 이미지(820)를 표시한다.Thereafter, the second image signal processor 165 or the controller 180 displays the video call screen 810 as shown in FIG. 12 to the user, and displays the ROI image 820 on the screen 810. .

본 발명의 실시 예들은 하드웨어, 소프트웨어 또는 하드웨어 및 소프트웨어의 조합의 형태로 실현 가능하다는 것을 알 수 있을 것이다. 이러한 임의의 소프트웨어는 예를 들어, 삭제 가능 또는 재기록 가능 여부와 상관없이, ROM 등의 저장 장치와 같은 휘발성 또는 비휘발성 저장 장치, 또는 예를 들어, RAM, 메모리 칩, 장치 또는 집적 회로와 같은 메모리, 또는 예를 들어 CD, DVD, 자기 디스크 또는 자기 테이프 등과 같은 광학 또는 자기적으로 기록 가능함과 동시에 기계(예를 들어, 컴퓨터)로 읽을 수 있는 저장 매체에 저장될 수 있다. 전자 장치 내에 포함될 수 있는 메모리는 본 발명의 실시 예들을 구현하는 지시들을 포함하는 프로그램 또는 프로그램들을 저장하기에 적합한 기계로 읽을 수 있는 저장 매체의 한 예임을 알 수 있을 것이다. 따라서, 본 발명은 본 명세서의 임의의 청구항에 기재된 장치 또는 방법을 구현하기 위한 코드를 포함하는 프로그램 및 이러한 프로그램을 저장하는 기계로 읽을 수 있는 저장 매체를 포함한다. 또한, 이러한 프로그램은 유선 또는 무선 연결을 통해 전달되는 통신 신호와 같은 임의의 매체를 통해 전자적으로 이송될 수 있고, 본 발명은 이와 균등한 것을 적절하게 포함한다.It will be appreciated that embodiments of the present invention may be implemented in hardware, software, or a combination of hardware and software. Such arbitrary software may be stored in a memory such as, for example, a volatile or non-volatile storage device such as a storage device such as ROM or the like, or a memory such as a RAM, a memory chip, a device or an integrated circuit, , Or a storage medium readable by a machine (e.g., a computer), such as a CD, a DVD, a magnetic disk, or a magnetic tape, as well as being optically or magnetically recordable. It will be appreciated that a memory that can be included in an electronic device is an example of a machine-readable storage medium suitable for storing a program or programs including instructions for implementing embodiments of the present disclosure. Accordingly, the present invention includes a program comprising code for implementing the apparatus or method described in any claim herein and a machine-readable storage medium storing such a program. In addition, such a program may be electronically transported through any medium such as a communication signal transmitted via a wired or wireless connection, and the present invention appropriately includes the same.

또한, 상기 전자 장치는 유선 또는 무선으로 연결되는 프로그램 제공 장치로부터 상기 프로그램을 수신하여 저장할 수 있다. 상기 프로그램 제공 장치는 상기 전자 장치가 기설정된 관심 영역 이미지의 출력 방법을 수행하도록 하는 지시들을 포함하는 프로그램, 관심 영역 이미지의 출력 방법에 필요한 정보 등을 저장하기 위한 메모리와, 상기 전자 장치와의 유선 또는 무선 통신을 수행하기 위한 통신부와, 상기 전자 장치의 요청 또는 자동으로 해당 프로그램을 상기 전자 장치로 전송하는 제어부를 포함할 수 있다.In addition, the electronic device may receive and store the program from a program providing device connected by wire or wirelessly. The program providing apparatus may include a program including instructions for causing the electronic device to perform a preset method of outputting a region of interest image, a memory for storing information necessary for a method of outputting a region of interest image, and a wired line with the electronic device. Or a communication unit for performing wireless communication, and a controller for automatically transmitting a request or a corresponding program to the electronic device.

상술한 본 발명의 설명에서는 구체적인 실시 예에 관해 설명하였으나, 여러 가지 변형이 본 발명의 범위에서 벗어나지 않고 실시할 수 있다. 따라서 본 발명의 범위는 설명된 실시 예에 의하여 정할 것이 아니고 특허청구범위와 특허청구범위의 균등한 것에 의해 정해 져야 한다.While the present invention has been described in connection with what is presently considered to be practical exemplary embodiments, it is to be understood that the invention is not limited to the disclosed embodiments. Therefore, the scope of the present invention should not be defined by the described embodiments, but should be determined by the equivalent of claims and claims.

100: 전자 장치, 110: 센서부, 120: 메모리, 130: 사용자 인터페이스, 140: 통신부, 150: 표시부, 160: 제1 이미지 신호 프로세서, 165: 제2 이미지 신호 프로세서, 170; 카메라, 172: 구동부, 174: 렌즈계, 176: 이미지 센서, 180: 제어부100: electronic device, 110: sensor unit, 120: memory, 130: user interface, 140: communication unit, 150: display unit, 160: first image signal processor, 165: second image signal processor, 170; Camera, 172: driving unit, 174: lens system, 176: image sensor, 180: control unit

Claims (6)

전자 장치에 있어서,
뷰 영역 이미지와, 관심 영역의 설정 정보에 따라 상기 뷰 영역 이미지의 일부에 해당하는 관심 영역 이미지를 출력하는 카메라와;
상기 뷰 영역 이미지에 관심 영역을 설정하고, 상기 관심 영역의 설정 정보를 출력하는 제1 이미지 신호 프로세서와;
상기 카메라로부터 수신한 상기 관심 영역 이미지의 크기 또는 해상도를 변환하고, 변환된 관심 영역 이미지를 출력하는 제2 이미지 신호 프로세서와;
상기 변환된 관심 영역 이미지를 사용자에게 표시하는 표시부를 포함하고,
상기 카메라는,
행렬 구조로 배치된 다수의 화소를 구비한 이미지 센서와;
상기 다수의 화소 중에서 뷰 영역에 해당하는 화소들을 작동하여 상기 뷰 영역 이미지를 출력하고, 상기 다수의 화소 중에서 상기 관심 영역에 해당하는 화소들을 작동하여 상기 관심 영역 이미지를 출력하는 구동부를 포함함을 특징으로 하는 관심 영역 이미지를 출력하기 위한 전자 장치.
In an electronic device,
A camera for outputting a region of interest image corresponding to a part of the view region image according to a view region image and setting information of the region of interest;
A first image signal processor configured to set a region of interest in the view region image and output setting information of the region of interest;
A second image signal processor configured to convert a size or resolution of the ROI image received from the camera and output the converted ROI image;
A display unit configured to display the converted region of interest image to a user;
The camera comprises:
An image sensor having a plurality of pixels arranged in a matrix structure;
And a driving unit configured to output the view region image by operating pixels corresponding to the view region among the plurality of pixels, and to output the region of interest image by operating pixels corresponding to the ROI among the plurality of pixels. An electronic device for outputting a region of interest image.
삭제delete 제1항에 있어서, 상기 구동부는,
상기 뷰 영역에 해당하는 화소들에 온 신호들을 인가하는 제1 수평 스캐너와;
상기 뷰 영역의 화소들로부터 화소 데이터를 독출하는 제1 수직 스캐너와;
상기 다수의 화소 중에서 상기 관심 영역에 해당하는 화소들에 온 신호들을 인가하는 제2 수평 스캐너와;
상기 관심 영역의 화소들로부터 화소 데이터를 독출하는 제2 수직 스캐너를 포함함을 특징으로 하는 관심 영역 이미지를 출력하기 위한 전자 장치.
The driving apparatus according to claim 1,
A first horizontal scanner for applying signals on pixels corresponding to the view area;
A first vertical scanner which reads pixel data from pixels in said view area;
A second horizontal scanner configured to apply on signals to the pixels corresponding to the ROI among the plurality of pixels;
And a second vertical scanner configured to read pixel data from the pixels of the ROI.
제3항에 있어서,
상기 제1 수평 스캐너는 상기 뷰 영역의 화소들의 행들에 각각 연결되는 제1 신호 인가 소자들을 포함하고,
상기 제1 수직 스캐너는 상기 뷰 영역의 화소들의 열들에 각각 연결되는 제1 신호 분석 소자들을 포함하고,
상기 제2 수평 스캐너는 상기 관심 영역의 화소들의 행들에 각각 연결되는 제2 신호 인가 소자들을 포함하고,
상기 제2 수직 스캐너는 상기 관심 영역의 화소들의 열들에 각각 연결되는 제2 신호 분석 소자들을 포함함을 특징으로 하는 관심 영역 이미지를 출력하기 위한 전자 장치.
The method of claim 3,
The first horizontal scanner includes first signal applying elements each connected to rows of pixels in the view area,
The first vertical scanner includes first signal analysis elements each connected to columns of pixels of the view area,
The second horizontal scanner includes second signal applying elements each connected to rows of pixels of the ROI,
And the second vertical scanner includes second signal analysis elements connected to columns of pixels of the ROI, respectively.
전자 장치에 있어서,
뷰 영역 이미지를 출력하는 카메라와;
상기 뷰 영역 이미지를 저장하는 메모리와;
상기 메모리로부터 상기 뷰 영역 이미지를 수신하고, 상기 뷰 영역 이미지에 관심 영역을 설정하며, 상기 관심 영역의 설정 정보를 출력하는 제1 이미지 신호 프로세서와;
상기 관심 영역의 설정 정보에 따라 상기 뷰 영역 이미지의 일부에 해당하는 관심 영역 이미지를 상기 메모리로부터 수신하고, 상기 관심 영역 이미지의 크기 또는 해상도를 변환하며, 변환된 관심 영역 이미지를 출력하는 제2 이미지 신호 프로세서와;
상기 변환된 관심 영역 이미지를 사용자에게 표시하는 표시부를 포함하고,
상기 메모리는 상기 뷰 영역 이미지를 제1 프레임 레이트로 출력하고, 상기 관심 영역 이미지를 상기 제1 프레임 레이트보다 큰 제2 프레임 레이트로 출력함을 특징으로 하는 관심 영역 이미지를 출력하기 위한 전자 장치.
In an electronic device,
A camera for outputting a view area image;
A memory for storing the view area image;
A first image signal processor for receiving the view area image from the memory, setting a region of interest in the view region image, and outputting setting information of the region of interest;
A second image that receives a region of interest image corresponding to a portion of the view region image from the memory, converts a size or resolution of the region of interest image, and outputs the converted region of interest image according to setting information of the region of interest; A signal processor;
A display unit configured to display the converted region of interest image to a user;
And the memory outputs the view region image at a first frame rate, and outputs the region of interest image at a second frame rate that is greater than the first frame rate.
제1항 또는 제5항에 있어서,
상기 제1 이미지 신호 프로세서는 상기 뷰 영역 이미지에서 사용자의 얼굴을 검출하고, 상기 사용자의 얼굴을 포함하는 상기 뷰 영역 이미지의 일 부분을 상기 관심 영역으로 설정하며,
상기 표시부는 상기 관심 영역 이미지를 화상 통화 화면에 표시함을 특징으로 하는 관심 영역 이미지를 출력하기 위한 전자 장치.
6. The method according to claim 1 or 5,
The first image signal processor detects a face of the user from the view region image, sets a portion of the view region image including the face of the user as the region of interest,
And the display unit displays the ROI image on a video call screen.
KR1020120092647A 2012-08-23 2012-08-23 Electronic device for outputting region of interest image KR101350068B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120092647A KR101350068B1 (en) 2012-08-23 2012-08-23 Electronic device for outputting region of interest image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120092647A KR101350068B1 (en) 2012-08-23 2012-08-23 Electronic device for outputting region of interest image

Publications (1)

Publication Number Publication Date
KR101350068B1 true KR101350068B1 (en) 2014-01-14

Family

ID=50145207

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120092647A KR101350068B1 (en) 2012-08-23 2012-08-23 Electronic device for outputting region of interest image

Country Status (1)

Country Link
KR (1) KR101350068B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190094152A (en) * 2016-12-06 2019-08-12 콘티 테믹 마이크로일렉트로닉 게엠베하 Camera system and method for capturing the surrounding area of the vehicle in context
KR20200073693A (en) * 2018-12-14 2020-06-24 국방과학연구소 Motion detecting apparatus and method for detecting motion using thereof

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000209503A (en) 1999-01-19 2000-07-28 Nippon Hoso Kyokai <Nhk> Solid state image pickup device and its video signal output device
KR20040065786A (en) * 2003-01-16 2004-07-23 삼성테크윈 주식회사 Digital camera and control method thereof
JP2006109050A (en) * 2004-10-05 2006-04-20 Olympus Corp Imaging device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000209503A (en) 1999-01-19 2000-07-28 Nippon Hoso Kyokai <Nhk> Solid state image pickup device and its video signal output device
KR20040065786A (en) * 2003-01-16 2004-07-23 삼성테크윈 주식회사 Digital camera and control method thereof
JP2006109050A (en) * 2004-10-05 2006-04-20 Olympus Corp Imaging device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190094152A (en) * 2016-12-06 2019-08-12 콘티 테믹 마이크로일렉트로닉 게엠베하 Camera system and method for capturing the surrounding area of the vehicle in context
KR102385280B1 (en) 2016-12-06 2022-04-08 콘티 테믹 마이크로일렉트로닉 게엠베하 Camera system and method for contextually capturing the surrounding area of a vehicle
KR20200073693A (en) * 2018-12-14 2020-06-24 국방과학연구소 Motion detecting apparatus and method for detecting motion using thereof
KR102155302B1 (en) * 2018-12-14 2020-09-11 국방과학연구소 Motion detecting apparatus and method for detecting motion using thereof

Similar Documents

Publication Publication Date Title
US10531069B2 (en) Three-dimensional image sensors
KR101800617B1 (en) Display apparatus and Method for video calling thereof
JP6102648B2 (en) Information processing apparatus and information processing method
KR102114377B1 (en) Method for previewing images captured by electronic device and the electronic device therefor
US10484602B2 (en) Camera arrangements for wide-angle imaging
JP5450739B2 (en) Image processing apparatus and image display apparatus
US9742995B2 (en) Receiver-controlled panoramic view video share
AU2022201893A1 (en) Electronic device and operating method thereof
KR20140010541A (en) Method for correcting user&#39;s gaze direction in image, machine-readable storage medium and communication terminal
KR20140054959A (en) Method for controlling camera of terminal and terminal thereof
CN102348059A (en) Image pickup apparatus
CN107636692A (en) Image capture device and the method for operating it
EP2009907A1 (en) Camera apparatus, and image processing apparatus and image processing method
JP2012257021A (en) Display control device and method, program, and recording medium
EP3770849B1 (en) Image capturing method and device, computer readable storage medium
KR101503017B1 (en) Motion detecting method and apparatus
EP1829361A1 (en) Method for extracting of multiple sub-windows of a scanning area by means of a digital video camera
KR101350068B1 (en) Electronic device for outputting region of interest image
JP5069091B2 (en) Surveillance camera and surveillance camera system
US8941770B2 (en) Method and apparatus for displaying successively captured images
KR101371846B1 (en) Electronic device for controlling area selective exposure of image sensor
WO2021014921A1 (en) Image capturing device and control method for same
WO2021014867A1 (en) Imaging device and control method for same
JP2015026891A (en) Image processing device and storage medium
KR20220028951A (en) Electronic apparatus and controlling method thereof

Legal Events

Date Code Title Description
A201 Request for examination
N231 Notification of change of applicant
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20161228

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20171228

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee