KR101350068B1 - Electronic device for outputting region of interest image - Google Patents
Electronic device for outputting region of interest image Download PDFInfo
- Publication number
- KR101350068B1 KR101350068B1 KR1020120092647A KR20120092647A KR101350068B1 KR 101350068 B1 KR101350068 B1 KR 101350068B1 KR 1020120092647 A KR1020120092647 A KR 1020120092647A KR 20120092647 A KR20120092647 A KR 20120092647A KR 101350068 B1 KR101350068 B1 KR 101350068B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- region
- interest
- pixels
- view
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
- H04N21/4728—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformation in the plane of the image
- G06T3/40—Scaling the whole image or part thereof
- G06T3/4053—Super resolution, i.e. output image resolution higher than sensor resolution
- G06T3/4076—Super resolution, i.e. output image resolution higher than sensor resolution by iteratively correcting the provisional high resolution image using the original low-resolution image
Abstract
Description
본 발명은 카메라를 구비한 전자 장치에 관한 것으로서, 특히 카메라의 화소 어레이에서 자동으로 설정되거나 사용자에 의해 설정된 관심 영역을 선택적으로 출력하기 위한 전자 장치에 관한 것이다.The present invention relates to an electronic device having a camera, and more particularly, to an electronic device for selectively outputting a region of interest automatically set in a pixel array of a camera or set by a user.
일반적인 카메라의 화각은 50° 정도(인간의 시각이 약 50°)이다. 이로 인해, 넓은 배경에서 관심을 가지는 피사체를 촬영하기 위해서 카메라의 팬/틸트/줌(Pan/Tilt/Zoom) 동작을 하게 된다. 이러한 팬/틸트/줌 동작은 사람이 직접 하거나, 아니면 별도의 기계 장치를 카메라에 장착하여 팬/틸트/줌 동작을 수행하도록 할 수도 있다.The angle of view of a typical camera is about 50 ° (human vision is about 50 °). As a result, a pan / tilt / zoom operation of the camera is performed to capture a subject of interest in a wide background. The pan / tilt / zoom operation may be performed by a person or a separate mechanical device may be mounted on the camera to perform the pan / tilt / zoom operation.
팬/틸트/줌 동작을 위한 또 다른 방법으로는, 광각(75° 이상)의 렌즈와 고화소 이미지 센서를 사용하여 전자식으로 구현하는 방법이 있다. Another method for pan / tilt / zoom operation is the electronic implementation using a wide angle (75 ° or more) lens and a high pixel image sensor.
도 1은 기계식 팬/틸트/줌 방식을 설명하기 위한 도면이다. 1 is a view for explaining a mechanical pan / tilt / zoom method.
1080p(1920×1080)를 출력 대상으로 하는 카메라에서 기계식 방식으로 팬/틸트/줌 기능을 구현하는 경우에는, 예를 들어 FHD 화소급(1920×1080) 센서와 화각 45°의 렌즈를 카메라에 장착하여 구현하며, 카메라는 배경(10)에서 뷰 영역(11)을 촬상하여 이미지(13)로 출력하게 된다. 사용자는 상하좌우 화살표(12) 방향으로 기계적으로(또는 수동으로) 카메라의 뷰 영역(11)을 이동하게 된다. 줌 기능은 별도의 렌즈를 장착하여 구현할 수도 있다.When implementing a pan / tilt / zoom function mechanically in a camera that targets 1080p (1920 × 1080) output, for example, an FHD pixel (1920 × 1080) sensor and a 45 ° angle of view lens are mounted on the camera. In this case, the camera captures the
도 2는 전자식 팬/틸트/줌 방식을 설명하기 위한 도면이다.2 is a diagram for explaining an electronic pan / tilt / zoom method.
1080p(1920×1080)를 출력 대상으로 하는 카메라에서 전자식 방식으로 팬/틸트/줌 기능을 구현하는 경우에는, 예를 들어 8M 화소급 센서(3264×2448)와 화각 75°의 렌즈를 카메라에 장착하여 구현하며, 카메라는 배경(20)에서 뷰 영역(21)을 촬상하고, 관심 영역(22)을 이미지(23)로 출력하게 된다. 관심 영역(22)은 상하 ±14.4°, 좌우 ±14.2°로 이동될 수 있으며, 줌 기능은 별도의 렌즈를 사용하지 않고 X1.7배를 구현할 수 있다.When implementing a pan / tilt / zoom function electronically in a camera that targets 1080p (1920 × 1080) output, for example, an 8M pixel sensor (3264 × 2448) and a lens with an angle of view of 75 ° are mounted on the camera. In this case, the camera captures the
전자식 팬/틸트/줌 방식에서, 넓은 화각의 렌즈를 사용할수록 팬/틸트 각도가 커지며, 고화소의 이미지 센서를 사용할수록 높은 배율의 줌 기능을 구현할 수 있다. 여기서 말하는 줌 기능의 구현 방식은 의사 또는 가상 줌(Psuedo Zoom) 방식을 말하는 것이며 품질 저하가 발생하는 디지털 줌(Digital Zoom)을 말하는 것은 아니다. In the electronic pan / tilt / zoom method, the wider the angle of view, the larger the pan / tilt angle, and the higher the image sensor, the higher the magnification. The implementation of the zoom function here refers to a pseudo or virtual zoom method, not a digital zoom in which quality deterioration occurs.
디지털 줌 방식은, 예를 들어 640X480을 출력 대상으로 하는 카메라에서 320X240 화소로 촬상하여 부족한 화소를 주변 화소를 참조하여 생성해 내는 방식으로 줌 기능을 구현한 것이다. 디지털 줌 방식은 부족한 화소를 생성하는 알고리즘에 따라 이미지 품질의 차이가 있다.For example, the digital zoom method implements a zoom function by generating 320 × 240 pixels and generating a missing pixel with reference to surrounding pixels in a camera that outputs 640 × 480. In the digital zoom method, there is a difference in image quality depending on an algorithm for generating insufficient pixels.
팬/틸트/줌을 구현함에 있어서, 기계식 방식에서는 전체 배경을 카메라가 감지할 수 없으므로, 사용자가 직접 전체 배경에서 관심 피사체를 파악하고, 해당 피사체의 영역으로 카메라의 뷰 영역이 이동하도록 제어해야만 한다.In implementing the pan / tilt / zoom, the camera cannot detect the entire background in the mechanical method, so the user must directly grasp the subject of interest in the entire background and control the camera's view area to move to the area of the subject. .
그러나, 전자식 방식에서는 전체 배경의 상당 부분을 카메라가 감지할 수 있으므로, 자동으로(컴퓨터가 구현된 알고리즘에 근거하여) 관심 피사체를 파악하고, 해당 피사체의 영역으로 관심 영역(즉, 출력 영역)이 이동하도록 제어할 수 있다.However, the electronic method allows the camera to detect a significant portion of the entire background, automatically identifying the subject of interest (based on a computer-implemented algorithm), and allowing the region of interest (that is, the output region) You can control it to move.
전자식 팬/틸트/줌 방식에서 자동으로 출력 영역이 제어되도록 구현하고자 할 때, 카메라는 뷰 영역과 관심 영역의 이미지 처리를 함께 수행해야 한다. 일반적인 시모스(CMOS) 카메라는 시모스 이미지 센서(CMOS Image Sensor: CIS)와 이미지 신호 프로세서(Image Signal Processor: ISP)를 포함하며, 전자식 팬/틸트/줌 방식의 특성상 고화소의 CIS를 사용하여야 하며, ISP는 뷰 영역과 관심 영역의 이미지 처리를 함께 수행해야 하므로 매우 고성능인 것을 필요로 한다. In order to implement an automatic control of the output area in the electronic pan / tilt / zoom method, the camera must perform image processing of the view area and the ROI together. Common CMOS cameras include CMOS Image Sensors (CIS) and Image Signal Processors (ISPs). Due to the electronic pan / tilt / zoom method, high pixel CIS should be used. Since the image processing of the view region and the region of interest must be performed together, it requires a very high performance.
도 3은 전자식 팬/틸트/줌 방식에서 이미지 신호 프로세서의 작동을 설명하기 위한 도면이다.3 is a view for explaining the operation of the image signal processor in the electronic pan / tilt / zoom method.
ISP(32)는 CIS(31)에서 출력되는 뷰 영역(33)을 처리하고, 뷰 영역(33)에서 관심 피사체를 탐지하고, 뷰 영역(33)에서 관심 피사체를 포함하는 관심 영역(34)을 설정하고, 관심 영역 이미지(35)를 변환한 이미지(36)를 출력해야 한다. The
ISP는 기존의 CIS에서 출력되는 뷰 영역 처리만을 담당하는 역할과 비교하여 매우 많은 처리를 해야 하므로 고성능의 ISP를 적용하여도 출력 속도가 상당히 낮아진다. 특히, 동작 인식 처리를 위해서는 ISP에서의 이미지 출력은 최소 30fps가 권장된다는 점을 고려하면, 이러한 ISP의 과부하는 상당히 심각한 문제가 된다.The ISP has to do much more processing compared to the role that only handles the view area output from the existing CIS. Therefore, even if a high-performance ISP is applied, the output speed is considerably lowered. In particular, considering that at least 30 fps is recommended for the image output from the ISP for the motion recognition processing, the overload of the ISP is a serious problem.
화면출력, 동작인식 등의 기능들은 품질 및 인식 처리를 위하여 고속의 프레임 레이트가 요구되는 기능이다. 하지만, CIS의 정보량이 증가하고, 사물인지, 왜곡보정 등의 기능도 추가하여 사용하게 되면서 ISP가 고성능이 아니면 고속 프레임 레이트의 구현이 어렵다. 그런데, 최근 CIS의 감지 정보량은 매우 급격하게 증가하고 있지만(예, 8M, 13M, 20M 등) 이미지 출력 장치(TV, 모니터, 등)의 표현 정보량은 증가 추세가 둔하다(예를 들어, 720p, 1080p 등). 이러한 차이점을 이용하여, CIS의 감지 가능한 영역(화각)에서 특정 관심 영역만을 출력하여 줌의 효과와 카메라 화각 움직임의 효과를 나타낼 수 있다. 또한 동작 인식 또는 사물 인지 처리를 위한 대상물이 항상 전체 화각을 차지하지 않으므로, 대상물이 존재하는 특정 관심 영역만을 처리하여 이미지 처리의 효율을 높일 수 있다. 이러한 출력 및 인식의 관심 영역을 찾아가기 위해서는 고속 프레임 레이트는 아니더라도 전체 영역을 탐색할 필요는 있다. 그러나, 종래의 기술에서는 매우 고성능의 ISP가 요구되므로, 전체 시스템의 가격이 높아진다는 문제점이 있다.Functions such as screen output and motion recognition are functions that require a high frame rate for quality and recognition processing. However, as the amount of information in the CIS increases and functions such as object recognition and distortion correction are added, it is difficult to implement a high frame rate unless the ISP is a high performance device. By the way, the amount of sensing information of CIS is increasing very rapidly (eg, 8M, 13M, 20M, etc.), but the amount of expression information of image output devices (TV, monitor, etc.) is increasing slowly (eg, 720p, 1080p). Etc). By using these differences, only a specific region of interest may be output from the detectable region (view angle) of the CIS to indicate the effect of zoom and camera angle of view movement. In addition, since an object for motion recognition or object recognition processing does not always occupy the entire field of view, it is possible to increase the efficiency of image processing by processing only a specific region of interest in which the object exists. In order to find the region of interest of such output and recognition, it is necessary to search the entire region, if not the high frame rate. However, in the related art, a very high performance ISP is required, and therefore, the price of the entire system is high.
본 발명의 특정 실시 예들의 목적은 종래기술과 관련된 문제점들 및/또는 단점들 중의 적어도 하나를 적어도 부분적으로 해결, 경감 또는 제거하는 것이다.It is an object of certain embodiments of the present invention to at least partially solve, alleviate or eliminate at least one of the problems and / or disadvantages associated with the prior art.
본 발명의 일 목적은 팬/틸트/줌이 전자식 방식으로 자동 제어되도록 구현할 때, 이미지 신호 프로세서에 부하가 집중되는 것을 분산시켜서 전체 시스템의 병목 현상을 감소시키는 것에 있다.One object of the present invention is to reduce the bottleneck of the entire system by distributing load concentration on the image signal processor when the pan / tilt / zoom is automatically controlled electronically.
본 발명의 일 측면에 따른 전자 장치는, 뷰 영역 이미지와, 관심 영역의 설정 정보에 따라 상기 뷰 영역 이미지의 일부에 해당하는 관심 영역 이미지를 출력하는 카메라와; 상기 뷰 영역 이미지에 관심 영역을 설정하고, 상기 관심 영역의 설정 정보를 출력하는 제1 이미지 신호 프로세서와; 상기 카메라로부터 수신한 상기 관심 영역 이미지의 크기 또는 해상도를 변환하고, 변환된 관심 영역 이미지를 출력하는 제2 이미지 신호 프로세서와; 상기 변환된 관심 영역 이미지를 사용자에게 표시하는 표시부를 포함한다.An electronic device according to an aspect of the present invention includes a camera for outputting a region of interest image corresponding to a portion of the view region image according to a view region image and setting information of the region of interest; A first image signal processor configured to set a region of interest in the view region image and output setting information of the region of interest; A second image signal processor configured to convert a size or resolution of the ROI image received from the camera and output the converted ROI image; And a display unit configured to display the converted ROI image to the user.
본 발명에 따르면, 팬/틸트/줌이 전자식 방식으로 자동 제어되도록 구현할 때, 이미지 신호 프로세서에 부하가 집중되는 것을 분산시켜서 전체 시스템의 병목 현상을 감소시킬 수 있으며, 보급형 이미지 신호 프로세서를 복수 사용하여 원하는 기능을 구현할 수 있다는 이점이 있다.According to the present invention, when the pan / tilt / zoom is automatically controlled electronically, it is possible to reduce the bottleneck of the entire system by distributing load concentration on the image signal processor, and by using a plurality of entry-level image signal processors. The advantage is that you can implement the functionality you want.
도 1은 기계식 팬/틸트/줌 방식을 설명하기 위한 도면,
도 2는 전자식 팬/틸트/줌 방식을 설명하기 위한 도면,
도 3은 전자식 팬/틸트/줌 방식에서 이미지 신호 프로세서의 작동을 설명하기 위한 도면,
도 4는 본 발명의 바람직한 실시 예에 따른 전자 장치의 구성을 나타내는 도면,
도 5는 이미지 센서의 구성을 나타내는 도면,
도 6은 상기 이미지 센서의 구동 방법을 설명하기 위한 도면,
도 7은 본 발명의 바람직한 실시 예에 따른 구동부의 회로 구성을 설명하기 위한 도면,
도 8은 본 발명의 실시 예에 따른 관심 영역 이미지의 출력 방법을 설명하기 위한 신호도,
도 9는 본 발명의 실시 예에 따른 관심 영역 이미지의 출력 방법을 설명하기 위한 주요 구성도,
도 10은 본 발명의 다른 실시 예에 따른 관심 영역 이미지의 출력 방법을 설명하기 위한 주요 구성도,
도 11 및 도 12는 본 발명의 전자 장치를 이용한 화상 통화 방법을 설명하기 위한 도면들.1 is a view for explaining a mechanical pan / tilt / zoom method,
2 is a view for explaining an electronic pan / tilt / zoom method,
3 is a view for explaining the operation of the image signal processor in the electronic pan / tilt / zoom method,
4 is a diagram illustrating a configuration of an electronic device according to an embodiment of the present disclosure;
5 is a diagram illustrating a configuration of an image sensor;
6 is a view for explaining a method of driving the image sensor;
7 is a view for explaining a circuit configuration of a driving unit according to an embodiment of the present invention;
8 is a signal diagram illustrating a method of outputting a region of interest image according to an embodiment of the present invention;
9 is a main configuration diagram illustrating a method of outputting a region of interest image according to an embodiment of the present invention;
10 is a main configuration diagram for describing a method of outputting a region of interest image according to another embodiment of the present invention;
11 and 12 are diagrams for describing a video call method using the electronic device of the present invention.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시 예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하여 상세하게 설명한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.As the inventive concept allows for various changes and numerous embodiments, particular embodiments will be described in detail with reference to the accompanying drawings. It should be understood, however, that the invention is not intended to be limited to the particular embodiments, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Terms including ordinals, such as first, second, etc., may be used to describe various elements, but the elements are not limited to these terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component. And / or < / RTI > includes any combination of a plurality of related listed items or any of a plurality of related listed items.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When a component is referred to as being "connected" or "connected" to another component, it may be directly connected to or connected to that other component, but it may be understood that other components may be present in between. Should be. On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between.
본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used in this application is used only to describe a specific embodiment and is not intended to limit the invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this application, the terms "comprise" or "have" are intended to indicate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, and one or more other features. It is to be understood that the present invention does not exclude the possibility of the presence or the addition of numbers, steps, operations, components, components, or a combination thereof.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미가 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미가 있는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art. Terms such as those defined in commonly used dictionaries are to be interpreted as having a meaning consistent with the meaning in the context of the relevant art and are to be construed as ideal or overly formal in meaning unless explicitly defined in the present application Do not.
도 4는 본 발명의 바람직한 실시 예에 따른 전자 장치의 구성을 나타내는 도면이다. 4 is a diagram illustrating a configuration of an electronic device according to an exemplary embodiment of the present disclosure.
상기 전자 장치(100)는 센서부(110), 메모리(120), 사용자 인터페이스(130), 통신부(140), 제1 및 제2 이미지 신호 프로세서(image signal processor: ISP, 160, 165), 카메라(170) 및 표시부(150)를 포함한다.The
상기 전자 장치(100)는 외부 장치와의 연동을 통해 이미지 표시 작업을 수행할 수 있으며, 상기 전자 장치(100)는 카메라(170)에 의해 촬상된 이미지를 네트워크를 통해 외부 장치로 전송할 수 있다. 예를 들어, 상기 전자 장치(100)는 외부 장치의 제어에 따라 작동할 수 있고, 이러한 외부 장치에 의한 제어는 다양한 방식으로 구현될 수 있다. 상기 네트워크의 예들은, 이에 한정되지 않지만, 근거리 통신망(Local Area Network: LAN), 무선 근거리 통신망(Wireless Local Area Network: WLAN), 광역 통신망(Wide Area Network: WAN), 인터넷, 소지역 통신망(Small Area Network: SAN)을 포함한다. 상기 전자 장치(100)는 또한 상기 네트워크를 통해 외부 장치와 연결될 수 있다. 상기 전자 장치(100)는 외부 장치와 직접 또는 상기 네트워크를 통해 연결될 수 있다. 상기 외부 장치는 상기 전자 장치(100)의 카메라(170)에 의해 촬상된 이미지를 재생 및 표시하기 위해 사용된다. 상기 네트워크를 통해 상기 전자 장치(100)와 연결된 상기 외부 장치의 예들은, 이에 한정되지 않지만, 유튜브 플레이어(You Tube player), 아이튠스 플레이어(iTunes player), 엠플레이어 플레이어(MPlayer player) 및 베어쉐어 플레이어(Bearshare player), TV, 휴대폰 등을 포함한다.The
상기 전자 장치(100)는 카메라를 구비한 임의의 장치일 수 있으며, 상기 전자 장치(100) 및 외부 장치는 각각 스마트폰, 휴대폰, 게임기, TV, 디스플레이 장치, 차량용 헤드 유닛, 노트북, 랩탑, 태블릿(Tablet) PC, PMP(Personal Media Player), PDA(Personal Digital Assistants) 등일 수 있다. 상기 전자 장치(100)는 무선 통신 기능을 갖는 휴대용 통신 단말로서 구현될 수 있다.The
상기 통신부(140)는 외부 장치와의 직접 연결 또는 네트워크를 통한 연결을 위해 제공되며, 유선 또는 무선 통신부일 수 있으며, 상기 제어부(180), 메모리(120) 또는 카메라(170)로부터의 데이터를 유선 또는 무선으로 전송하거나, 외부 통신선 또는 대기로부터 데이터를 유선 또는 무선 수신하여 상기 제어부(180)로 전달하거나 메모리(120)에 저장한다. The
상기 통신부(140)는 성능에 따라 이동통신 모듈, 무선랜 모듈 및 근거리통신 모듈 중 적어도 하나를 포함할 수 있다. 상기 통신부(140)의 예들은, 이에 한정되지 않지만, 종합 정보 통신망(integrated services digital network: ISDN) 카드, 모뎀, 근거리 통신망(LAN) 카드, 적외선 모듈, 블루투스 모듈(Bluetooth module), 지그비(zigbee) 모듈 및 무선 모듈을 포함한다.The
이동통신 모듈은 제어부(180)의 제어에 따라 적어도 하나-하나 또는 복수-의 안테나(도시되지 않음)를 이용하여 이동 통신을 통해 전자 장치(100)가 외부 장치와 연결되도록 한다. 이동통신 모듈은 전자 장치(100)에 입력되는 전화번호를 가지는 휴대폰(도시되지 아니함), 스마트폰(도시되지 아니함), 태블릿PC 또는 다른 장치(도시되지 아니함)와 음성 통화, 화상 통화, 문자메시지(SMS) 또는 멀티미디어 메시지(MMS)를 위한 무선 신호를 송/수신한다. The mobile communication module allows the
무선랜 모듈은 제어부(180)의 제어에 따라 무선 AP(access point)(도시되지 아니함)가 설치된 장소에서 인터넷에 연결될 수 있다. 무선랜 모듈은 미국전기전자학회(IEEE)의 무선랜 규격(IEEE802.11x)을 지원한다. 근거리통신 모듈은 제어부(180)의 제어에 따라 전자 장치(100)와 화상 형성 장치(도시되지 아니함) 사이에 무선으로 근거리 통신을 할 수 있다. 근거리 통신방식은 블루투스(bluetooth), 적외선 통신(IrDA, infrared data association) 등이 포함될 수 있다.The WLAN module may be connected to the Internet at a place where a wireless access point (not shown) is installed under the control of the
사용자 인터페이스(130)는 사용자 입력을 수신하거나 사용자에게 정보를 알리기 위한 수단으로서, 복수의 버튼, 마이크, 스피커, 진동모터, 커넥터, 키패드 등을 포함할 수 있다. 사용자 인터페이스(130)의 예들은, 이에 한정되지 않지만, 마우스, 트랙볼(trackball), 조이스틱 또는 커서 방향 키들과 같은 커서 컨트롤(cursor control)이 상기 제어부(180)와의 정보 통신 및 상기 표시부(150) 상의 커서 움직임 제어를 위해 제공될 수 있다.The
버튼은 상기 전자 장치(100)의 전면, 측면 또는 후면에 형성될 수 있으며, 전원/잠금 버튼(도시되지 아니함), 볼륨 버튼(도시되지 아니함), 메뉴 버튼, 홈 버튼, 돌아가기 버튼(back button) 및 검색 버튼 등을 포함할 수 있다.The button may be formed on the front, side, or back of the
마이크는 제어부(180)의 제어에 따라 음성(voice) 또는 사운드(sound)를 수신하여 전기적인 신호를 생성한다. The microphone receives an audio or sound under the control of the
스피커는 제어부(180)의 제어에 따라 다양한 신호(예, 무선신호, 방송신호, 디지털 오디오 파일, 디지털 동영상 파일 또는 사진 촬영 등)에 대응되는 사운드를 전자 장치(100) 외부로 출력할 수 있다. 스피커는 전자 장치(100)가 수행하는 기능에 대응되는 사운드를 출력할 수 있다. 스피커는 상기 전자 장치(100)의 적절한 위치 또는 위치들에 하나 또는 복수로 형성될 수 있다.The speaker may output sound corresponding to various signals (eg, a wireless signal, a broadcast signal, a digital audio file, a digital video file, or a photo capture) to the outside of the
진동 모터는 제어부(180)의 제어에 따라 전기적 신호를 기계적 진동으로 변환할 수 있다. 예를 들어, 진동 모드에 있는 전자 장치(100)는 다른 장치(도시되지 아니함)로부터 음성통화가 수신되는 경우, 진동 모터가 작동한다. 진동 모터는 상기 전자 장치(100) 내에 하나 또는 복수로 형성될 수 있다. 진동 모터는 터치스크린 상을 터치하는 사용자의 터치 동작 및 터치스크린 상에서의 터치의 연속적인 움직임에 응답하여 작동할 수 있다. The vibration motor may convert an electrical signal into mechanical vibration under the control of the
커넥터는 전자 장치(100)와 외부 장치 또는 전원 소스(도시되지 아니함)를 연결하기 위한 인터페이스로 이용될 수 있다. 제어부(180)의 제어에 따라 커넥터에 연결된 유선 케이블을 통해 전자 장치(100)의 메모리(120)에 저장된 데이터를 외부 장치로 전송하거나 또는 외부 장치에서부터 데이터를 수신할 수 있다. 커넥터에 연결된 유선 케이블을 통해 전원소스에서부터 전원이 입력되거나 배터리를 충전할 수 있다.The connector may be used as an interface for connecting the
키패드는 전자 장치(100)의 제어를 위해 사용자로부터 키 입력을 수신할 수 있다. 키패드는 전자 장치(100)에 형성되는 물리적인 키패드 또는 터치스크린에 표시되는 가상의 키패드를 포함한다.The keypad may receive a key input from a user for controlling the
센서부(110)는 전자 장치(100)의 상태(위치, 방위, 움직임 등)를 검출하는 적어도 하나의 센서를 포함한다. 예를 들어, 센서부(110)는 사용자의 전자 장치(100)에 대한 접근 여부를 검출하는 근접 센서, 또는 전자 장치(100)의 작동(예를 들어, 전자 장치(100)의 회전, 가속, 감속, 진동 등)을 검출하는 모션 센서 등을 포함할 수 있다. 또한, 모션 센서는 가속도 센서, 중력센서, 충격센서, GPS, 나침반 센서, 가속도 센서 등을 포함할 수 있다. 센서부(110)는 전자 장치(100)의 상태를 검출하고, 검출에 대응되는 신호를 생성하여 제어부(180)로 전송할 수 있다. 예를 들어, GPS 모듈은 지구 궤도상에 있는 복수의 GPS위성(도시되지 아니함)에서부터 전파를 수신하고, GPS위성(도시되지 아니함)에서부터 전자 장치(100)까지 전파도달시간(Time of Arrival)을 이용하여 전자 장치(100)의 위치를 산출할 수 있다.The
카메라(170)는 렌즈계(174), 구동부(172) 및 이미지 센서(176)를 포함하며, 플래쉬 등을 더 포함할 수 있다. 카메라(170)는 렌즈계(174)를 통해 입력되는(또는 촬영되는) 광신호를 전기적인 이미지 신호 또는 데이터로 변환하여 출력하고, 사용자는 이러한 카메라(170)를 통해 동영상 또는 정지 이미지를 촬영할 수 있다. 다시 말하여, 상기 카메라(170)는 피사체의 광학적 이미지를 형성하고, 상기 형성된 광학적 이미지를 전기 신호로 검출한다. The
렌즈계(174)는 외부로부터 입사된 광을 수렴시킴으로써 피사체의 이미지를 형성한다. 상기 렌즈계(174)는 적어도 하나의 렌즈를 포함하며, 각 렌즈는 볼록 렌즈, 비구면 렌즈 등일 수 있다. 상기 렌즈계(174)는 그 중심을 지나는 광축(optical axis)에 대해 대칭성을 가지며, 상기 광축은 이러한 중심 축으로 정의된다, 상기 이미지 센서(176)는 렌즈계(174)를 통해 입사된 외부 광에 의해 형성된 광학적 영상을 전기적 영상 신호로 검출한다. The
상기 이미지 센서(176)는 M×N 행렬(matrix) 구조로 배치된 복수의 화소(pixel)를 구비하며, 상기 화소는 포토다이오드 및 적어도 하나의 트랜지스터들을 포함할 수 있다. 상기 화소는 수평 스캐너로부터의 온 신호의 인가에 따라 입사된 광에 의해 생성된 전하를 축적하고(즉, 노출 과정), 축적된 전하에 의한 전압을 출력하며(즉, 화소 데이터 출력 과정), 상기 전압은 상기 입사된 광의 조도를 나타낸다. 한 화소의 작동에 의해 이러한 노출 및 출력 과정이 수행된다. The
정지 이미지 또는 동영상을 구성하는 한 영상을 처리하는 경우에 있어서, 상기 이미지 센서(176)로부터 출력되는 이미지 데이터는 상기 화소들로부터 출력되는 전압들(즉, 화소 값들)의 집합으로 구성되고, 상기 이미지 데이터는 하나의 이미지(즉, 정지 이미지)를 나타낸다. 일 실시 예에서, 상기 이미지 센서(176)는 M×N 화소로 구성된 뷰 영역 이미지 데이터를 제1 이미지 신호 프로세서(160)로 출력하고, M×N 화소 중 일부에 해당하는 P×Q 화소로 구성된 관심 영역 이미지 데이터를 제2 이미지 신호 프로세서(165)로 출력한다. 이때, 뷰 영역은 전체 영역이라고 칭할 수도 있다. 다른 실시 예에서, 상기 이미지 센서(176)는 M×N 화소로 구성된 뷰 이미지 데이터를 메모리(120)에 저장한다. 상기 이미지 센서(176)로는 CCD(charge-coupled device) 이미지 센서, CMOS(complementary metal-oxide semiconductor) 이미지 센서 등을 사용할 수 있다.In the case of processing an image constituting a still image or a moving image, the image data output from the
상기 구동부(172)는 제1 및 제2 이미지 신호 프로세서(160, 465)와 제어부(180) 중 어느 하나의 제어에 따라 상기 이미지 센서(176)를 구동한다. 상기 구동부(172)는 제1 이미지 신호 프로세서(160)로부터 수신한 제1 제어 신호에 따라 상기 이미지 센서(176)의 전체 화소들을 작동시키고, 상기 전체 화소들로부터 출력되는 뷰 영역 이미지 데이터를 제1 이미지 신호 프로세서(160)로 출력한다. 또한, 상기 구동부(172)는 제1 이미지 신호 프로세서(160)로부터 수신한 제2 제어 신호에 따라 상기 이미지 센서(176)의 전체 화소 중에서 관심 영역의 화소들만을 작동시키고, 상기 관심 영역의 화소들로부터 출력되는 관심 영역 이미지 데이터를 제2 이미지 신호 프로세서(165)로 출력한다. 본 예에서, 제1 이미지 신호 프로세서(160)가 상기 구동부(172)를 제어하는 것으로 예시하고 있으나, 상기 구동부(172)는 상기 제어부(180)에 의해 직접 제어될 수도 있다. The
상기 표시부(150)는 상기 제1 및 제2 이미지 신호 프로세서(160, 165)와 제어부(180) 중의 어느 하나로부터 입력된 이미지를 화면에 표시한다. 이러한 표시부(150)로는 액정표시장치(liquid crystal display: LCD), 터치스크린(touch screen) 등을 사용할 수 있다. 상기 터치스크린은 상기 제어부(180)의 제어에 따른 영상을 표시하고, 그 표면에 손가락, 스타일러스 펜(stylus pen) 등과 같은 사용자 입력 수단이 접촉하면 키 접촉 인터럽트(interrupt)를 발생시키고, 상기 제어부(180)의 제어에 따라 입력 좌표 및 입력 상태를 포함하는 사용자 입력 정보를 상기 제어부(180)로 출력한다.The
터치스크린은 사용자에게 다양한 서비스(예, 통화, 데이터 전송, 방송, 사진/동영상 촬영)에 대응되는 그래픽 사용자 인터페이스를 제공할 수 있다. 터치스크린은 그래픽 사용자 인터페이스에 입력되는 적어도 하나의 터치에 대응되는 사용자 입력 정보를 제어부(180)로 전송할 수 있다. 터치스크린은 사용자의 신체(예, 엄지를 포함하는 손가락) 또는 터치 가능한 입력 수단(예, 스타일러스 펜)을 통해 적어도 하나의 터치를 입력받을 수 있다. 또한, 터치스크린은 적어도 하나의 터치 중에서, 하나의 터치의 연속적인 움직임을 입력받을 수 있다. 터치스크린은 입력되는 터치의 연속적인 움직임에 대응되는 사용자 입력 정보를 제어부(180)로 전송할 수 있다.The touch screen may provide a user with a graphic user interface corresponding to various services (eg, call, data transmission, broadcasting, photographing / video recording). The touch screen may transmit user input information corresponding to at least one touch input to the graphic user interface to the
본 발명에서 터치는 터치스크린과 사용자의 신체 또는 터치 가능한 입력 수단과의 접촉에 한정되지 않고, 비접촉(예, 터치스크린과 사용자의 신체 또는 터치 가능한 입력 수단과 검출가능한 간격이 1 mm 이하)을 포함할 수 있다. 터치스크린은 예를 들어, 저항막(resistive) 방식, 정전용량(capacitive) 방식, 적외선(infrared) 방식 또는 초음파(acoustic wave) 방식으로 구현될 수 있다.In the present invention, the touch is not limited to the contact between the touch screen and the user's body or touchable input means, and includes non-contact (for example, a detectable distance between the touch screen and the user's body or touchable input means is 1 mm or less). can do. The touch screen may be implemented by, for example, a resistive method, a capacitive method, an infrared method, or an acoustic wave method.
상기 메모리(120)는 화상 통화, 게임 등과 같은 다양한 기능들의 애플리케이션들과 이와 관련된 그래픽 사용자 인터페이스(graphical user interface: GUI)를 제공하기 위한 이미지들, 사용자 정보, 문서 등과 관련된 데이터베이스들, 상기 전자 장치(100)를 구동하는데 필요한 배경 이미지들(메뉴 화면, 대기 화면 등) 또는 운영 프로그램들, 카메라에 의해 촬영된 이미지들, 관심 영역 이미지의 출력 방법과 관련된 데이터 등을 저장할 수 있다. 상기 메모리(120)는 기계로 읽을 수 있는 매체이며, 기계로 읽을 수 있는 매체라는 용어는 기계가 특정 기능을 수행할 수 있도록 상기 기계에게 데이터를 제공하는 매체로 정의될 수 있다. 기계로 읽을 수 있는 매체는 저장 매체일 수 있다. 상기 메모리(120)는 비휘발성 매체(non-volatile media) 및 휘발성 매체를 포함할 수 있다. 이러한 모든 매체는 상기 매체에 의해 전달되는 명령들이 상기 명령들을 상기 기계로 읽어 들이는 물리적 기구에 의해 검출될 수 있도록 유형의 것이어야 한다. The
상기 기계로 읽을 수 있는 매체의 예들은, 이에 한정되지 않지만, 플로피 디스크(floppy disk), 플렉서블 디스크(flexible disk), 하드 디스크, 자기 테이프, 시디롬(compact disc read-only memory: CD-ROM), 광학 디스크, 펀치 카드(punchcard), 페이퍼 테이프(papertape), 램, 피롬(Programmable Read-Only Memory: PROM), 이피롬(Erasable PROM: EPROM) 및 플래시-이피롬(FLASH-EPROM)을 포함한다. Examples of such machine-readable media include, but are not limited to, floppy disks, flexible disks, hard disks, magnetic tapes, compact disc read-only memory (CD-ROM), Optical discs, punchcards, papertape, RAM, Programmable Read-Only Memory (PROM), Erasable PROM (EPROM) and FLASH-EPROM.
상기 제어부(180)는 사용자 입력 정보에 따른 애플리케이션을 실행하고, 상기 애플리케이션은 사용자 입력 정보에 따른 프로그램 동작을 수행한다. 이때, 사용자 입력은 키패드, 터치스크린 등을 통한 입력 또는 카메라 기반의 입력을 포함한다. 상기 제어부(180)는 정보 통신을 위한 버스(bus) 및 정보 처리를 위해 상기 버스와 연결된 프로세서(processor)를 포함할 수 있다. 상기 제어부(180)는 또한 상기 프로세서에 의해 요구되는 정보를 저장하기 위해 상기 버스와 연결된 제2의 메모리(예를 들어, 램(random access memory: RAM))를 포함할 수 있다. 상기 제2의 메모리는 상기 프로세서에 의해 요구되는 임시 정보를 저장하는데 사용될 수 있다. 상기 전자 장치(100)는 상기 프로세서에 의해 요구되는 정적 정보(static information)를 저장하기 위해 상기 버스와 연결되는 롬(read only memory: ROM)을 더 포함할 수 있다. 상기 제어부(180)는 중앙처리장치로서 전자 장치(100)의 전반적인 작동을 제어하고, 본 발명에 따른 관심 영역 이미지의 출력 방법을 수행하는 역할을 한다. 상기 제어부(180)는 사용자 입력 정보 또는 디폴트 설정에 따라 관심 영역의 이미지를 출력할 수 있도록 제1 및 제2 이미지 신호 프로세서(160, 165)를 제어한다. The
상기 제1 및 제2 이미지 신호 프로세서(160, 165)는 각각 상기 제어부(180)의 제어에 따라 상기 카메라(170)로부터 입력되는 이미지 또는 상기 메모리(120)에 저장된 이미지를 프레임(frame) 단위로 처리한다. Each of the first and second
상기 제1 이미지 신호 프로세서(160)는 뷰 영역에서 관심 영역을 설정하는데 사용되며, 상기 제2 이미지 신호 프로세서(165)는 상기 표시부(150)의 화면 특성(크기, 화질, 해상도 등)에 맞도록 변환된 관심 영역 이미지를 출력한다. The first
상기 제2 이미지 신호 프로세서(165)는 상기 표시부(150)의 화면 특성(크기, 화질, 해상도 등)에 맞도록 변환된 뷰 영역 이미지를 출력할 수도 있다. The second
도 5는 이미지 센서의 구성을 나타내는 도면이다. 도 5에는 상기 카메라(170)를 구성하는 이미지 센서(176)의 화소 어레이(210)와, 상기 화소 어레이(210) 위에 배치되는 베이어 컬러 필터(Bayer color filter, 220)가 도시되어 있다. 각 화소(212)는 입사된 광의 밝기에 해당하는 값을 출력한다. 이러한 이미지 센서(176)는 각 화소가 적색(R), 녹색(G) 및 청색(B)을 검출하도록 구성될 수도 있으나, 가격 상승 등을 이유로 컬러 필터를 이용하여 각 화소가 한 색상만을 검출하도록 구성되는 것이 통상적이다. 상기 베이어 컬러 필터(220)는 3 가지 색상들(즉, R, G 및 B)의 필터 유닛들을 구비하고, 각 색상의 필터 유닛들은 행 방향 및 열 방향 각각에 대해 한 화소 건너서 하나씩 배치된다. 또한, 상기 필터 유닛들은 상기 화소들과 일대일 대응된다. 예를 들어, R 필터 유닛을 통과한 R 채널은 적색을 갖고, 상기 R 필터 유닛에 대응되도록 정렬된 해당 화소는 상기 R 채널을 검출한다. 상기 베이어 컬러 필터(220)는 선택적으로 구비될 수 있는 것이다. 이하, 화소 어레이(210)에 대해 기술하나, 화소 어레이(210) 자체가 이미지 센서(176)인 것으로 간주할 수 있다. 5 is a diagram illustrating a configuration of an image sensor. 5 illustrates a
상기 제1 및 제2 이미지 신호 프로세서(160, 165)는 제어부(180)에 통합될 수 있으며, 이하 본 발명에 따른 관심 영역 이미지의 출력 방법을 설명함에 있어서, 제1 이미지 신호 프로세서(160)가 구동부(172)를 제어하는 것으로 설명한다. The first and second
도 6은 상기 이미지 센서의 구동 방법을 설명하기 위한 도면이다.6 is a view for explaining a method of driving the image sensor.
구동부(172)는 상기 제1 이미지 신호 프로세서(160)로부터 입력된 뷰 영역 이미지의 출력을 위한 제1 제어 신호에 따라 상기 이미지 센서(176)에 온 신호들을 인가하고, 상기 이미지 센서(176)로부터 뷰 영역 이미지 데이터를 독출한다. 또한, 구동부(172)는 상기 제1 이미지 신호 프로세서(160)로부터 입력된 관심 영역 이미지의 출력을 위한 제2 제어 신호에 따라 상기 이미지 센서(176)에 온 신호들을 인가하고, 상기 이미지 센서(176)로부터 관심 영역 이미지 데이터를 독출한다. 상기 구동부(172)는 뷰 영역 이미지의 출력을 위한 제1 수평 스캐너(horizontal scanner, 320) 및 제1 수직 스캐너(horizontal scanner, 310)와, 관심 영역 이미지의 출력을 위한 제2 수평 스캐너(horizontal scanner, 325) 및 제2 수직 스캐너(horizontal scanner, 315)를 포함한다. 상기 제1 수평 스캐너(320)는 뷰 영역에 대응되는 제1 수평 라인들(322)에 순차적으로 온 신호들을 공급하고, 상기 제2 수평 스캐너(325)는 관심 영역에 대응되는 제2 수평 라인들(327)에 순차적으로 온 신호들을 공급한다. 상기 제1 수직 스캐너(310)는 뷰 영역에 대응되는 제1 수직 라인들(312)로부터 순차적으로 화소 데이터들을 독출하고, 상기 제2 수직 스캐너(315)는 관심 영역에 대응되는 제2 수직 라인들(317)로부터 순차적으로 화소 데이터들을 독출한다. 이러한 화소 데이터들의 순차적인 독출을 스캔이라고 한다. The
상기 화소 어레이(210)는 복수의 화소들(212)을 구비하며, 상기 각 화소(212)는 해당 수평 라인들(322, 327) 및 수직 라인들(312, 317)에 연결된다. 상기 각 화소(212)는 수평 라인(322, 327)을 통해 온 신호가 인가된 경우에 노출 상태가 되고, 수직 라인(312, 317)과 연결된 신호 분석 소자의 작동에 따라 노출에 의해 생성된 화소 데이터를 출력한다. The
도 7은 본 발명의 바람직한 실시 예에 따른 구동부의 회로 구성을 설명하기 위한 도면이다. 도 7에는 예시적으로 이미지 센서(176)의 3행 4열의 화소들(212)만이 도시되어 있고, 예를 들어, 3행 1열의 화소(212)는 3-1 화소라고 칭한다.7 is a diagram illustrating a circuit configuration of a driving unit according to an exemplary embodiment of the present invention. In FIG. 7, only three rows and four columns of
제1 수평 스캐너(320)는 이미지 센서(176)를 구성하는 화소들(212)의 모든 행들의 수만큼 제1 신호 인가 소자들(410)을 포함한다. 예를 들어, 3번째 화소 행에 대응하는 제1 신호 인가 소자(410)는 H1-3 소자라고 칭한다. 상기 제1 신호 인가 소자들(410)은 제1 수평 라인들(322)과 일대일 연결된다. 화소 행은 하나의 행을 이루는 화소들의 셋을 말하고, 화소 열은 하나의 열을 이루는 화소들의 셋을 말한다.The first
제2 수평 스캐너(325)는 이미지 센서(176)를 구성하는 화소들(212)의 모든 행들의 수만큼 제2 신호 인가 소자들(420)을 포함한다. 예를 들어, 3번째 화소 행에 대응하는 제2 신호 인가 소자(420)는 H2-3 소자라고 칭한다. 상기 제2 신호 인가 소자들(420)은 제2 수평 라인들(327)과 일대일 연결된다.The second
각 화소(212)는 1 단위 시간 동안 작동하고, 각 화소 행은 1 싸이클 동안 작동한다. 이때, 1 싸이클은 한 화소 행을 구성하는 화소들의 수에 단위 시간을 곱한 시간에 해당한다. Each
제1 수평 스캐너(320)는 뷰 영역의 화소 행들에 싸이클 단위로 순차로 온 신호들을 인가한다. The first
제2 수평 스캐너(325)는 관심 영역의 화소 행들에 싸이클 단위로 순차로 온 신호들을 인가한다.The second
제1 수직 스캐너(310)는 이미지 센서(176)를 구성하는 화소들(212)의 모든 열들의 수만큼 제1 신호 분석 소자들(430)을 포함한다. 예를 들어, 3번째 화소 열에 대응하는 제1 신호 분석 소자(430)는 V1-3 소자라고 칭한다. 상기 제1 신호 분석 소자들(430)은 제1 수직 라인들(312)과 일대일 연결된다. The first
제2 수직 스캐너(315)는 이미지 센서(176)를 구성하는 화소들(212)의 모든 열들의 수만큼 제2 신호 분석 소자들(440)을 포함한다. 예를 들어, 3번째 화소 열에 대응하는 제2 신호 분석 소자(440)는 V2-3 소자라고 칭한다. 상기 제2 신호 분석 소자들(440)은 제2 수직 라인들(317)과 일대일 연결된다.The second
제1 수직 스캐너(310)는 뷰 영역의 화소 열들로부터 싸이클 단위로 순차로 화소 데이터들을 독출한다. The first
제2 수직 스캐너(315)는 관심 영역의 화소 열들로부터 싸이클 단위로 순차로 화소 데이터들을 독출한다.The second
도 8은 본 발명의 실시 예에 따른 관심 영역 이미지의 출력 방법을 설명하기 위한 신호도이다. 8 is a signal diagram illustrating a method of outputting a region of interest image according to an exemplary embodiment.
본 예에서는, 뷰 영역의 1/12 크기로 관심 영역(2-2 화소에 해당)을 설정하고, 30 fps로 관심 영역 이미지를 출력하는 경우를 예시한다. In this example, an example of setting a region of interest (corresponding to 2-2 pixels) at a size of 1/12 of a view region and outputting a region of interest image at 30 fps is illustrated.
뷰 영역의 프레임 레이트(Frame Rate)는 아래의 식과 같이 계산되며, 본 예에서 뷰 영역 이미지의 프레임 레이트는 2.5fps가 된다.The frame rate of the view area is calculated as shown below, and in this example, the frame rate of the view area image is 2.5 fps.
도 8에서, 관심 영역은 뷰 영역보다 작으며, Data1은 뷰 영역 이미지 데이터를 나타내고, Data2는 관심 영역 이미지 데이터를 나타낸다. 뷰 영역에서 관심 영역의 비율이 커질수록 뷰 영역의 프레임 레이트는 빠르게 된다.In FIG. 8, the region of interest is smaller than the view region, Data1 represents view region image data, and Data2 represents region of interest image data. As the ratio of the region of interest in the view region increases, the frame rate of the view region becomes faster.
시점들 t1~t12는 단위 시간 간격으로 이격되어 있고, 4 단위 시간이 한 싸이클을 이룬다. H1-1~H1-3 소자들 각각은 한 싸이클 동안 하이 신호를 출력하도록 작동하며, H1-1~H1-3 소자들은 싸이클 단위로 순차로 작동한다. V1-1~V1-4 소자들 각각은 해당 시점에서 해당 화소 데이터를 독출하도록 작동하며, V1-1~V1-4 소자들은 단위 시간 단위로 순차로 작동한다.The time points t1 to t12 are spaced at unit time intervals, and four unit times form one cycle. Each of the H1-1 to H1-3 devices operates to output a high signal for one cycle, and the H1-1 to H1-3 devices operate sequentially in cycle units. Each of the V1-1 to V1-4 devices operates to read corresponding pixel data at a corresponding point in time, and the V1-1 to V1-4 devices operate sequentially in unit time units.
H2-2 소자는 시점들 t1~t12에서 하이 신호를 출력하도록 작동하며, V2-2 소자는 시점들 t1~t12에서 제2 화소 열의 화소 데이터(결과적으로는, 2-2 화소의 화소 데이터)를 독출하도록 작동한다. The H2-2 device operates to output a high signal at time points t1 to t12, and the V2-2 device outputs pixel data of the second pixel column (as a result, pixel data of 2-2 pixels) at time points t1 to t12. Works to read
t1의 시점에서, H1-1 소자는 제1 화소 행에 하이 신호를 인가하고, V1-1 소자는 제1 화소 열의 화소 데이터(결과적으로는, 1-1 화소의 화소 데이터)를 독출하며, H2-2 소자는 제2 화소 행에 하이 신호를 인가하고, V2-2 소자는 제2 화소 열의 화소 데이터(결과적으로는, 2-2 화소의 화소 데이터)를 독출한다.At the time t1, the H1-1 device applies a high signal to the first pixel row, the V1-1 device reads pixel data of the first pixel column (as a result, pixel data of 1-1 pixels), and H2. The -2 device applies a high signal to the second pixel row, and the V2-2 device reads pixel data (consequently pixel data of 2-2 pixels) in the second pixel column.
t6의 시점에서, H1-2 소자는 제2 화소 행에 하이 신호를 인가하고, V1-2소자는 제2 화소 열의 화소 데이터(결과적으로는, 2-2 화소의 화소 데이터)를 독출하며, H2-2 소자는 제2 화소 행에 하이 신호를 인가하고, V2-2 소자는 제2 화소 열의 화소 데이터(결과적으로는, 2-2 화소의 화소 데이터)를 독출한다.At the time t6, the H1-2 device applies a high signal to the second pixel row, the V1-2 device reads pixel data of the second pixel column (as a result, pixel data of 2-2 pixels), and H2. The -2 device applies a high signal to the second pixel row, and the V2-2 device reads pixel data (consequently pixel data of 2-2 pixels) in the second pixel column.
도 9는 본 발명의 실시 예에 따른 관심 영역 이미지의 출력 방법을 설명하기 위한 주요 구성도이다.9 is a block diagram illustrating a method of outputting a region of interest image according to an exemplary embodiment.
카메라(170)는 뷰 영역 이미지(510)를 생성하고, 상기 뷰 영역 이미지(510)를 저속의 제1 프레임 레이트(예를 들어, 2.5fps)로 제1 이미지 신호 프로세서(160)로 출력한다. The
제1 이미지 신호 프로세서(160)는 뷰 영역 이미지(510)에서 자동으로 피사체를 탐지하고, 상기 피사체를 포함하는 관심 영역(520)을 설정하고, 설정된 관심 영역(520)의 좌표를 상기 카메라(170)로 출력한다. The first
상기 카메라(170)는 관심 영역(520)의 좌표에 근거하여 관심 영역 이미지(530)를 생성하고, 상기 관심 영역 이미지(530)를 고속의 제2 프레임 레이트(예를 들어, 30fps)로 제2 이미지 신호 프로세서(165)로 출력한다. The
제2 이미지 신호 프로세서(165)는 상기 표시부(150)의 화면 특성(크기, 화질, 해상도 등)에 맞도록 상기 관심 영역 이미지(530)를 처리(또는 변환)하고, 처리된 관심 영역 이미지(540)를 상기 표시부(150)로 출력한다. 제2 이미지 신호 프로세서(165)는 상기 카메라(170)로부터 수신한 관심 영역 이미지(530)의 해상도 또는 크기를 감소시킬 수 있다. The second
본 예와 다르게, 상기 수학식 1과 같은 제약사항을 피하기 위하여, 뷰 영역 이미지 및 관심 영역 이미지를 시분할 방식으로 출력할 수도 있다.Unlike the present example, in order to avoid the constraints of
예를 들어, 카메라(170)가 초당 30 프레임을 출력한다고 가정하면, 뷰 영역 이미지에 해당하는 첫 번째 프레임을 제1 이미지 신호 프로세서(160)로 출력하고, 관심 영역 이미지들에 해당하는 두 번째 프레임부터 30번째 프레임은 제2 이미지 신호 프로세서(165)로 출력할 수도 있다. For example, assuming that the
도 10은 본 발명의 다른 실시 예에 따른 관심 영역 이미지의 출력 방법을 설명하기 위한 주요 구성도이다.FIG. 10 is a diagram illustrating an example of a method of outputting a region of interest image according to another exemplary embodiment.
카메라(170)는 뷰 영역 이미지(610)를 생성하고, 상기 뷰 영역 이미지(160)를 고속의 제2 프레임 레이트(예를 들어, 30fps)로 메모리(120)에 저장한다.The
제1 이미지 신호 프로세서(160)는 상기 메모리(120)로부터 뷰 영역 이미지(610)를 저속의 제3 프레임 레이트(예를 들어, 5fps)로 독출하고, 상기 뷰 영역 이미지(610)에서 자동으로 피사체를 탐지하고, 상기 피사체를 포함하는 관심 영역(620)을 설정하고, 설정된 관심 영역(620)의 좌표를 상기 메모리(120)에 저장하거나 제2 이미지 신호 프로세서(165)로 출력한다. The first
제2 이미지 신호 프로세서(165)는 관심 영역(620)의 좌표에 근거하여 상기 메모리(120)로부터 관심 영역 이미지(630)(즉, 뷰 영역 이미지의 일부)를 고속의 제2 프레임 레이트(예를 들어, 30fps)로 독출하고, 상기 표시부(150)의 화면 특성(크기, 화질, 해상도 등)에 맞도록 상기 관심 영역 이미지(630)를 처리(또는 변환)하고, 처리된 관심 영역 이미지(640)를 상기 표시부(150)로 출력한다. 제2 이미지 신호 프로세서(165)는 상기 메모리(120)로부터 수신한 관심 영역 이미지(630)의 해상도 또는 크기를 감소시킬 수 있다. 본 예와 다르게, 제2 이미지 신호 프로세서(165)는 상기 메모리(120)로부터 뷰 영역 이미지(610)를 독출하고, 뷰 영역 이미지(610)에서 관심 영역 이미지(630)를 추출할 수도 있다. The second
도 11 및 도 12는 본 발명의 전자 장치를 이용한 화상 통화 방법을 설명하기 위한 도면들이다. 11 and 12 are diagrams for describing a video call method using the electronic device of the present invention.
도 11은, 카메라(170)에 의해 촬영된 뷰 영역 이미지(710)를 나타낸다. 카메라(170)의 기본 설정된 화각이 크기 때문에, 상기 뷰 영역 이미지(710)에는 화상 통화를 하고자 하는 사용자 이외에 배경이 상기 뷰 영역 이미지(710)의 대부분을 차지하고 있다. 제어부(180)는 사용자 인터페이스(130)를 통한 사용자의 화상 통화 명령이 입력된 경우에, 제2 이미지 신호 프로세서(165)가 관심 영역(720)의 이미지를 출력할 수 있도록 구동부(172) 및 제1 및 제2 이미지 신호 프로세서(160, 15)를 제어한다.11 shows a
본 관심 영역 설정 방법은 하나의 이미지에 대해 기술되고 있으나, 본 방법은 순차로 입력 또는 독취되는 이미지들에 대해 각각 적용될 수 있다. 또한, 본 방법은 전자 장치(100)가 일대일 화상 통화 또는 다자간 화상 회의를 수행하는 도중에 카메라(170)로부터 실시간으로 입력되는 이미지에 대해 수행되거나, 다른 애플리케이션 모드에서 카메라(170)를 통해 실시간으로 입력되는 이미지에 대해 수행될 수 있다. The present ROI setting method is described for one image, but the present method may be applied to images sequentially input or read. In addition, the method may be performed on an image input in real time from the
제1 이미지 신호 프로세서(160)는 뷰 영역 이미지(710)에 사용자의 얼굴이 포함되어 있는지 여부를 판단하고, 사용자의 얼굴이 포함되어 있으면 상기 얼굴 부분을 포함하도록 관심 영역(720)을 설정한다. 여기서, 얼굴 검출은 통상의 얼굴 검출 방법을 이용하여 수행되는데, 얼굴의 윤곽선, 얼굴 피부의 색상 및/또는 질감, 템플릿 등을 이용한 얼굴 추출 기술이 이용될 수 있다. 예를 들어, 제1 이미지 신호 프로세서(160)는 다수의 얼굴 이미지를 통해 얼굴 학습을 수행하고, 축적된 얼굴 학습 데이터를 이용하여 입력된 뷰 영역 이미지(710)로부터 사용자의 얼굴을 검출할 수 있다.The first
이후, 제2 이미지 신호 프로세서(165) 또는 제어부(180)는 도 12에 도시된 바와 같은 화상 통화 화면(810)을 사용자에게 표시하고, 상기 화면(810)에 관심 영역 이미지(820)를 표시한다.Thereafter, the second
본 발명의 실시 예들은 하드웨어, 소프트웨어 또는 하드웨어 및 소프트웨어의 조합의 형태로 실현 가능하다는 것을 알 수 있을 것이다. 이러한 임의의 소프트웨어는 예를 들어, 삭제 가능 또는 재기록 가능 여부와 상관없이, ROM 등의 저장 장치와 같은 휘발성 또는 비휘발성 저장 장치, 또는 예를 들어, RAM, 메모리 칩, 장치 또는 집적 회로와 같은 메모리, 또는 예를 들어 CD, DVD, 자기 디스크 또는 자기 테이프 등과 같은 광학 또는 자기적으로 기록 가능함과 동시에 기계(예를 들어, 컴퓨터)로 읽을 수 있는 저장 매체에 저장될 수 있다. 전자 장치 내에 포함될 수 있는 메모리는 본 발명의 실시 예들을 구현하는 지시들을 포함하는 프로그램 또는 프로그램들을 저장하기에 적합한 기계로 읽을 수 있는 저장 매체의 한 예임을 알 수 있을 것이다. 따라서, 본 발명은 본 명세서의 임의의 청구항에 기재된 장치 또는 방법을 구현하기 위한 코드를 포함하는 프로그램 및 이러한 프로그램을 저장하는 기계로 읽을 수 있는 저장 매체를 포함한다. 또한, 이러한 프로그램은 유선 또는 무선 연결을 통해 전달되는 통신 신호와 같은 임의의 매체를 통해 전자적으로 이송될 수 있고, 본 발명은 이와 균등한 것을 적절하게 포함한다.It will be appreciated that embodiments of the present invention may be implemented in hardware, software, or a combination of hardware and software. Such arbitrary software may be stored in a memory such as, for example, a volatile or non-volatile storage device such as a storage device such as ROM or the like, or a memory such as a RAM, a memory chip, a device or an integrated circuit, , Or a storage medium readable by a machine (e.g., a computer), such as a CD, a DVD, a magnetic disk, or a magnetic tape, as well as being optically or magnetically recordable. It will be appreciated that a memory that can be included in an electronic device is an example of a machine-readable storage medium suitable for storing a program or programs including instructions for implementing embodiments of the present disclosure. Accordingly, the present invention includes a program comprising code for implementing the apparatus or method described in any claim herein and a machine-readable storage medium storing such a program. In addition, such a program may be electronically transported through any medium such as a communication signal transmitted via a wired or wireless connection, and the present invention appropriately includes the same.
또한, 상기 전자 장치는 유선 또는 무선으로 연결되는 프로그램 제공 장치로부터 상기 프로그램을 수신하여 저장할 수 있다. 상기 프로그램 제공 장치는 상기 전자 장치가 기설정된 관심 영역 이미지의 출력 방법을 수행하도록 하는 지시들을 포함하는 프로그램, 관심 영역 이미지의 출력 방법에 필요한 정보 등을 저장하기 위한 메모리와, 상기 전자 장치와의 유선 또는 무선 통신을 수행하기 위한 통신부와, 상기 전자 장치의 요청 또는 자동으로 해당 프로그램을 상기 전자 장치로 전송하는 제어부를 포함할 수 있다.In addition, the electronic device may receive and store the program from a program providing device connected by wire or wirelessly. The program providing apparatus may include a program including instructions for causing the electronic device to perform a preset method of outputting a region of interest image, a memory for storing information necessary for a method of outputting a region of interest image, and a wired line with the electronic device. Or a communication unit for performing wireless communication, and a controller for automatically transmitting a request or a corresponding program to the electronic device.
상술한 본 발명의 설명에서는 구체적인 실시 예에 관해 설명하였으나, 여러 가지 변형이 본 발명의 범위에서 벗어나지 않고 실시할 수 있다. 따라서 본 발명의 범위는 설명된 실시 예에 의하여 정할 것이 아니고 특허청구범위와 특허청구범위의 균등한 것에 의해 정해 져야 한다.While the present invention has been described in connection with what is presently considered to be practical exemplary embodiments, it is to be understood that the invention is not limited to the disclosed embodiments. Therefore, the scope of the present invention should not be defined by the described embodiments, but should be determined by the equivalent of claims and claims.
100: 전자 장치, 110: 센서부, 120: 메모리, 130: 사용자 인터페이스, 140: 통신부, 150: 표시부, 160: 제1 이미지 신호 프로세서, 165: 제2 이미지 신호 프로세서, 170; 카메라, 172: 구동부, 174: 렌즈계, 176: 이미지 센서, 180: 제어부100: electronic device, 110: sensor unit, 120: memory, 130: user interface, 140: communication unit, 150: display unit, 160: first image signal processor, 165: second image signal processor, 170; Camera, 172: driving unit, 174: lens system, 176: image sensor, 180: control unit
Claims (6)
뷰 영역 이미지와, 관심 영역의 설정 정보에 따라 상기 뷰 영역 이미지의 일부에 해당하는 관심 영역 이미지를 출력하는 카메라와;
상기 뷰 영역 이미지에 관심 영역을 설정하고, 상기 관심 영역의 설정 정보를 출력하는 제1 이미지 신호 프로세서와;
상기 카메라로부터 수신한 상기 관심 영역 이미지의 크기 또는 해상도를 변환하고, 변환된 관심 영역 이미지를 출력하는 제2 이미지 신호 프로세서와;
상기 변환된 관심 영역 이미지를 사용자에게 표시하는 표시부를 포함하고,
상기 카메라는,
행렬 구조로 배치된 다수의 화소를 구비한 이미지 센서와;
상기 다수의 화소 중에서 뷰 영역에 해당하는 화소들을 작동하여 상기 뷰 영역 이미지를 출력하고, 상기 다수의 화소 중에서 상기 관심 영역에 해당하는 화소들을 작동하여 상기 관심 영역 이미지를 출력하는 구동부를 포함함을 특징으로 하는 관심 영역 이미지를 출력하기 위한 전자 장치.In an electronic device,
A camera for outputting a region of interest image corresponding to a part of the view region image according to a view region image and setting information of the region of interest;
A first image signal processor configured to set a region of interest in the view region image and output setting information of the region of interest;
A second image signal processor configured to convert a size or resolution of the ROI image received from the camera and output the converted ROI image;
A display unit configured to display the converted region of interest image to a user;
The camera comprises:
An image sensor having a plurality of pixels arranged in a matrix structure;
And a driving unit configured to output the view region image by operating pixels corresponding to the view region among the plurality of pixels, and to output the region of interest image by operating pixels corresponding to the ROI among the plurality of pixels. An electronic device for outputting a region of interest image.
상기 뷰 영역에 해당하는 화소들에 온 신호들을 인가하는 제1 수평 스캐너와;
상기 뷰 영역의 화소들로부터 화소 데이터를 독출하는 제1 수직 스캐너와;
상기 다수의 화소 중에서 상기 관심 영역에 해당하는 화소들에 온 신호들을 인가하는 제2 수평 스캐너와;
상기 관심 영역의 화소들로부터 화소 데이터를 독출하는 제2 수직 스캐너를 포함함을 특징으로 하는 관심 영역 이미지를 출력하기 위한 전자 장치.The driving apparatus according to claim 1,
A first horizontal scanner for applying signals on pixels corresponding to the view area;
A first vertical scanner which reads pixel data from pixels in said view area;
A second horizontal scanner configured to apply on signals to the pixels corresponding to the ROI among the plurality of pixels;
And a second vertical scanner configured to read pixel data from the pixels of the ROI.
상기 제1 수평 스캐너는 상기 뷰 영역의 화소들의 행들에 각각 연결되는 제1 신호 인가 소자들을 포함하고,
상기 제1 수직 스캐너는 상기 뷰 영역의 화소들의 열들에 각각 연결되는 제1 신호 분석 소자들을 포함하고,
상기 제2 수평 스캐너는 상기 관심 영역의 화소들의 행들에 각각 연결되는 제2 신호 인가 소자들을 포함하고,
상기 제2 수직 스캐너는 상기 관심 영역의 화소들의 열들에 각각 연결되는 제2 신호 분석 소자들을 포함함을 특징으로 하는 관심 영역 이미지를 출력하기 위한 전자 장치.The method of claim 3,
The first horizontal scanner includes first signal applying elements each connected to rows of pixels in the view area,
The first vertical scanner includes first signal analysis elements each connected to columns of pixels of the view area,
The second horizontal scanner includes second signal applying elements each connected to rows of pixels of the ROI,
And the second vertical scanner includes second signal analysis elements connected to columns of pixels of the ROI, respectively.
뷰 영역 이미지를 출력하는 카메라와;
상기 뷰 영역 이미지를 저장하는 메모리와;
상기 메모리로부터 상기 뷰 영역 이미지를 수신하고, 상기 뷰 영역 이미지에 관심 영역을 설정하며, 상기 관심 영역의 설정 정보를 출력하는 제1 이미지 신호 프로세서와;
상기 관심 영역의 설정 정보에 따라 상기 뷰 영역 이미지의 일부에 해당하는 관심 영역 이미지를 상기 메모리로부터 수신하고, 상기 관심 영역 이미지의 크기 또는 해상도를 변환하며, 변환된 관심 영역 이미지를 출력하는 제2 이미지 신호 프로세서와;
상기 변환된 관심 영역 이미지를 사용자에게 표시하는 표시부를 포함하고,
상기 메모리는 상기 뷰 영역 이미지를 제1 프레임 레이트로 출력하고, 상기 관심 영역 이미지를 상기 제1 프레임 레이트보다 큰 제2 프레임 레이트로 출력함을 특징으로 하는 관심 영역 이미지를 출력하기 위한 전자 장치.In an electronic device,
A camera for outputting a view area image;
A memory for storing the view area image;
A first image signal processor for receiving the view area image from the memory, setting a region of interest in the view region image, and outputting setting information of the region of interest;
A second image that receives a region of interest image corresponding to a portion of the view region image from the memory, converts a size or resolution of the region of interest image, and outputs the converted region of interest image according to setting information of the region of interest; A signal processor;
A display unit configured to display the converted region of interest image to a user;
And the memory outputs the view region image at a first frame rate, and outputs the region of interest image at a second frame rate that is greater than the first frame rate.
상기 제1 이미지 신호 프로세서는 상기 뷰 영역 이미지에서 사용자의 얼굴을 검출하고, 상기 사용자의 얼굴을 포함하는 상기 뷰 영역 이미지의 일 부분을 상기 관심 영역으로 설정하며,
상기 표시부는 상기 관심 영역 이미지를 화상 통화 화면에 표시함을 특징으로 하는 관심 영역 이미지를 출력하기 위한 전자 장치.6. The method according to claim 1 or 5,
The first image signal processor detects a face of the user from the view region image, sets a portion of the view region image including the face of the user as the region of interest,
And the display unit displays the ROI image on a video call screen.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020120092647A KR101350068B1 (en) | 2012-08-23 | 2012-08-23 | Electronic device for outputting region of interest image |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020120092647A KR101350068B1 (en) | 2012-08-23 | 2012-08-23 | Electronic device for outputting region of interest image |
Publications (1)
Publication Number | Publication Date |
---|---|
KR101350068B1 true KR101350068B1 (en) | 2014-01-14 |
Family
ID=50145207
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020120092647A KR101350068B1 (en) | 2012-08-23 | 2012-08-23 | Electronic device for outputting region of interest image |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101350068B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190094152A (en) * | 2016-12-06 | 2019-08-12 | 콘티 테믹 마이크로일렉트로닉 게엠베하 | Camera system and method for capturing the surrounding area of the vehicle in context |
KR20200073693A (en) * | 2018-12-14 | 2020-06-24 | 국방과학연구소 | Motion detecting apparatus and method for detecting motion using thereof |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000209503A (en) | 1999-01-19 | 2000-07-28 | Nippon Hoso Kyokai <Nhk> | Solid state image pickup device and its video signal output device |
KR20040065786A (en) * | 2003-01-16 | 2004-07-23 | 삼성테크윈 주식회사 | Digital camera and control method thereof |
JP2006109050A (en) * | 2004-10-05 | 2006-04-20 | Olympus Corp | Imaging device |
-
2012
- 2012-08-23 KR KR1020120092647A patent/KR101350068B1/en not_active IP Right Cessation
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000209503A (en) | 1999-01-19 | 2000-07-28 | Nippon Hoso Kyokai <Nhk> | Solid state image pickup device and its video signal output device |
KR20040065786A (en) * | 2003-01-16 | 2004-07-23 | 삼성테크윈 주식회사 | Digital camera and control method thereof |
JP2006109050A (en) * | 2004-10-05 | 2006-04-20 | Olympus Corp | Imaging device |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190094152A (en) * | 2016-12-06 | 2019-08-12 | 콘티 테믹 마이크로일렉트로닉 게엠베하 | Camera system and method for capturing the surrounding area of the vehicle in context |
KR102385280B1 (en) | 2016-12-06 | 2022-04-08 | 콘티 테믹 마이크로일렉트로닉 게엠베하 | Camera system and method for contextually capturing the surrounding area of a vehicle |
KR20200073693A (en) * | 2018-12-14 | 2020-06-24 | 국방과학연구소 | Motion detecting apparatus and method for detecting motion using thereof |
KR102155302B1 (en) * | 2018-12-14 | 2020-09-11 | 국방과학연구소 | Motion detecting apparatus and method for detecting motion using thereof |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10531069B2 (en) | Three-dimensional image sensors | |
KR101800617B1 (en) | Display apparatus and Method for video calling thereof | |
JP6102648B2 (en) | Information processing apparatus and information processing method | |
KR102114377B1 (en) | Method for previewing images captured by electronic device and the electronic device therefor | |
US10484602B2 (en) | Camera arrangements for wide-angle imaging | |
JP5450739B2 (en) | Image processing apparatus and image display apparatus | |
US9742995B2 (en) | Receiver-controlled panoramic view video share | |
AU2022201893A1 (en) | Electronic device and operating method thereof | |
KR20140010541A (en) | Method for correcting user's gaze direction in image, machine-readable storage medium and communication terminal | |
KR20140054959A (en) | Method for controlling camera of terminal and terminal thereof | |
CN102348059A (en) | Image pickup apparatus | |
CN107636692A (en) | Image capture device and the method for operating it | |
EP2009907A1 (en) | Camera apparatus, and image processing apparatus and image processing method | |
JP2012257021A (en) | Display control device and method, program, and recording medium | |
EP3770849B1 (en) | Image capturing method and device, computer readable storage medium | |
KR101503017B1 (en) | Motion detecting method and apparatus | |
EP1829361A1 (en) | Method for extracting of multiple sub-windows of a scanning area by means of a digital video camera | |
KR101350068B1 (en) | Electronic device for outputting region of interest image | |
JP5069091B2 (en) | Surveillance camera and surveillance camera system | |
US8941770B2 (en) | Method and apparatus for displaying successively captured images | |
KR101371846B1 (en) | Electronic device for controlling area selective exposure of image sensor | |
WO2021014921A1 (en) | Image capturing device and control method for same | |
WO2021014867A1 (en) | Imaging device and control method for same | |
JP2015026891A (en) | Image processing device and storage medium | |
KR20220028951A (en) | Electronic apparatus and controlling method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
N231 | Notification of change of applicant | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20161228 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20171228 Year of fee payment: 5 |
|
LAPS | Lapse due to unpaid annual fee |