KR100693420B1 - Video Display System and Method supporting CMOS Sensor - Google Patents

Video Display System and Method supporting CMOS Sensor Download PDF

Info

Publication number
KR100693420B1
KR100693420B1 KR1020050021072A KR20050021072A KR100693420B1 KR 100693420 B1 KR100693420 B1 KR 100693420B1 KR 1020050021072 A KR1020050021072 A KR 1020050021072A KR 20050021072 A KR20050021072 A KR 20050021072A KR 100693420 B1 KR100693420 B1 KR 100693420B1
Authority
KR
South Korea
Prior art keywords
sensor
image
image data
stored
output
Prior art date
Application number
KR1020050021072A
Other languages
Korean (ko)
Other versions
KR20060099692A (en
Inventor
손만홍
Original Assignee
엘지이노텍 주식회사
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지이노텍 주식회사, 엘지전자 주식회사 filed Critical 엘지이노텍 주식회사
Priority to KR1020050021072A priority Critical patent/KR100693420B1/en
Publication of KR20060099692A publication Critical patent/KR20060099692A/en
Application granted granted Critical
Publication of KR100693420B1 publication Critical patent/KR100693420B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2213/00Indexing scheme relating to interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • G06F2213/0042Universal serial bus [USB]
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L2924/00Indexing scheme for arrangements or methods for connecting or disconnecting semiconductor or solid-state bodies as covered by H01L24/00
    • H01L2924/10Details of semiconductor or other solid state devices to be connected
    • H01L2924/11Device type
    • H01L2924/14Integrated circuits
    • H01L2924/143Digital devices
    • H01L2924/1434Memory
    • H01L2924/1435Random access memory [RAM]
    • H01L2924/1436Dynamic random-access memory [DRAM]
    • H01L2924/14361Synchronous dynamic random access memory [SDRAM]

Landscapes

  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)

Abstract

본 발명의 씨모스 센서 지원 영상 디스플레이 장치에 관한 것으로써, 센서에서 출력된 화상 데이터가 저장되는 적어도 두 개 이상의 메모리, 상기 출력되는 화상 데이터가 어느 메모리에 저장될 것인가를 결정하고 상기 결정된 메모리로 상기 화상 데이터를 저장하는 이미지 제어부, 및 상기 저장된 화상 데이터를 컴퓨터의 모니터로 전송하는 인터페이스를 포함한다. The present invention relates to a CMOS sensor-assisted image display apparatus, comprising: at least two or more memories in which image data output from a sensor is stored, and which memory is to be stored in which the output image data is stored; An image controller for storing image data, and an interface for transmitting the stored image data to a monitor of a computer.

씨모스, USB, SDRAM, 카메라, 영상 CMOS, USB, SDRAM, Camera, Video

Description

씨모스 센서 지원 영상 디스플레이 장치 및 방법{Video Display System and Method supporting CMOS Sensor}CMOS display and video display device and method {Video Display System and Method supporting CMOS Sensor}

도 1은 일반적은 센서 이미지 테스트 방법.1 is a general sensor image test method.

도 2는 본 발명의 일 실시예에 따른 8M 이미지 센서 테스트 방법.2 is an 8M image sensor test method according to an embodiment of the present invention.

도 3은 일반적인 센서 이미지 구조.3 is a general sensor image structure.

도 4는 각 제조사 마다 VSYNC를 발생하는 방법.4 is a method for generating VSYNC for each manufacturer.

도 5는 본 발명의 일 실시예에 따른 라이징 에지 극성5 is a rising edge polarity according to an embodiment of the present invention

도 6은 본 발명의 일 실시예에 따른 폴링 에지 극성6 is a falling edge polarity according to an embodiment of the present invention.

도 7은 본 발명의 일 실시예에 따른 프레임 비율 증가 방법.7 is a frame rate increasing method according to an embodiment of the present invention.

도 8은 본 발명의 일 실시예에 따른 센서 이미지 전송을 위한 핑-퐁 방법8 is a ping-pong method for transmitting a sensor image according to an embodiment of the present invention;

{도면의 주요 부분에 대한 부호의 설명}{Description of symbols for main parts of the drawing}

200 : 센서 201 : 이미지 제어부200 sensor 201 image control unit

202 : 메모리 203 : USB 인터페이스202: memory 203: USB interface

204 : 컴퓨터204: Computer

본 발명은 씨모스 센서 지원 영상 디스플레이 장치 및 방법에 관한 것으로써, 최근 모바일 전화기에 씨모스(CMOS) 센서를 부착하면서 센서의 영상을 테스트 하기 위한 장치들이 많이 만들어지고 있는데, 이장치는 기존의 VGA 또는 1M 영상을 포함하여 8M 센서의 영상 까지 디스플레이가 가능한 장치 및 방법에 관한 것이다.The present invention relates to an image display apparatus and method for supporting a CMOS sensor, and recently, many devices for testing an image of a sensor while attaching a CMOS sensor to a mobile phone have been manufactured. The present invention relates to an apparatus and method capable of displaying images of 8M sensors including 1M images.

현재 모바일 전화기의 여러 기능 중에서 가장 핵심기능 중 하나로 인식되는 것이 바로 카메라 기능이다. The camera function is recognized as one of the most important functions of the current mobile phone.

소비자가 모바일 전화기를 구매하고자 할 경우, 카메라의 성능이 소비자의 구매 욕구를 결정지을 만큼 카메라 기능은 이미 모바일 전화기 뿐만 아니라, 기타 모바일 생산품에서는 중요한 부분을 차지하고 있다. 이러한 카메라 모듈을 구성하는 핵심 제품이 바로 CMOS or CCD 센서이다. 이러한 센서의 출력 영상을 테스트 하기 위해서는 센서의 출력영상을 전달하는 과정에서 왜곡이 발생하지 않도록 전달하여야 한다. 이러한 과정을 통하여 센서의 출력 영상을 올바르게 테스트 할 수 있다.When a consumer wants to buy a mobile phone, the camera function is already an important part of not only the mobile phone but also other mobile products, so that the performance of the camera determines the consumer's desire to purchase. The core product of the camera module is a CMOS or CCD sensor. In order to test the output image of the sensor, it must be transmitted so that distortion does not occur in the process of transmitting the output image of the sensor. Through this process, the output image of the sensor can be correctly tested.

또한 센서의 화질을 테스트 하기 위해서는 센서의 화질을 모바일 전화기에서와 같은 소형 LCD화면에서 테스트 할 수 없고, 센서의 출력별 화질, 예를 들면, VGA, XVGA, SVGA or UXGA등의 화소전체를 PC의 모니터 상에 표시하여 센서의 특정 Pixel의 결함 여부를 판별할 수 있도록 하여야 한다. In addition, in order to test the image quality of the sensor, the image quality of the sensor cannot be tested on the small LCD screen as in a mobile phone, and the quality of each output of the sensor, for example, VGA, XVGA, SVGA or UXGA, etc. It should be displayed on the monitor so that the specific pixel of the sensor can be detected.

그러나 기존의 테스트 장비는 USB 1.0의 Limitation 즉, USB 1.0을 통한 데이터 전달속도가 12Mbps이기 때문에 VGA 및 XGA(30만 화소 또는 1백만 화소)급 화소만을 지원할 수 밖에 없다. 또한 이러한 USB 1.0의 제한 사항으로 인하여 프레임 비율이 초당 30프레임을 넘는 것 또한 어렵다. 따라서 센서의 출력 영상이 30프레임을 초과하여도 테스트 엔지니어가 모니터에서 확인하는 프레임 비율은 감소되고, 이로 인해 센서의 내부적 문제를 테스트 과정에서 테스트하지 못할 가능성 또한 존재한다. However, the existing test equipment can only support VGA and XGA (300,000 or 1 million pixels) pixels because of the limitation of USB 1.0, that is, the data transfer rate through USB 1.0 is 12Mbps. The limitations of USB 1.0 also make it difficult for frame rates to exceed 30 frames per second. As a result, even if the sensor's output image exceeds 30 frames, the frame rate that the test engineer sees on the monitor is reduced, which also prevents the internal problem of the sensor from being tested during the test.

따라서 이미지 센서의 발전 속도가 급속히 발전함에 따라 이에 대응하기 위한 이미지 센서화질을 전달하기 위한 방법이 개발될 필요가 있다.Therefore, as the development speed of the image sensor rapidly develops, a method for delivering an image sensor quality to cope with this needs to be developed.

본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로써, 그 목적은 다양한 센서를 지원 가능하며, 프레임 비율을 최대한으로 증가할 수 있으며, VGA부터 8M 센서까지 테스트 지원이 가능한 디스플레이 장치 및 방법을 제공하는 데 있다.The present invention has been made to solve the above problems, the object of the present invention is to support a variety of sensors, to increase the frame rate to the maximum, and a display device and method capable of supporting test from VGA to 8M sensor To provide.

본 발명의 씨모스 센서 지원 영상 디스플레이 장치는 센서에서 출력된 화상 데이터가 저장되는 적어도 두 개 이상의 메모리, 상기 출력되는 화상 데이터가 어느 메모리에 저장될 것인가를 결정하고 상기 결정된 메모리로 상기 화상 데이터를 저장하는 이미지 제어부, 및 상기 저장된 화상 데이터를 컴퓨터의 모니터로 전송하는 인터페이스를 포함한다.The CMOS sensor-assisted image display apparatus of the present invention determines at least two or more memories in which image data output from a sensor is stored, in which memory the output image data is stored, and stores the image data in the determined memory. And an interface for transmitting the stored image data to a monitor of a computer.

본 발명에서 상기 디스플레이 장치에는 HS의 개수를 세팅하는 레지스터를 더 포함하는 것이 바람직하다.In the present invention, it is preferable that the display device further includes a register for setting the number of HSs.

본 발명에서 상기 메모리는 SDRAM을 이용하는 것이 바람직하다.In the present invention, the memory preferably uses SDRAM.

본 발명에서 상기 인터페이스는 유니버설 시리얼 버스(Universal Serial Bus, USB) 2.0을 이용하는 것이 바람직하다.In the present invention, it is preferable that the interface uses a universal serial bus (USB) 2.0.

본 발명의 씨모스 센서 지원 영상 디스플레이 방법은 이미지 제어부를 통하여 센서에서 출력되는 화상 데이터를 적어도 두 개 이상의 메모리에 순차적으로 저장하는 단계; 및 상기 메모리에 화상 데이터가 저장되어 꼭 찬 경우 소정의 인터페이스를 통하여 컴퓨터의 모니터로 전송하는 단계를 포함한다.The CMOS sensor-assisted image display method of the present invention comprises the steps of sequentially storing the image data output from the sensor to at least two memories through the image control unit; And transmitting the image data to the monitor of the computer through a predetermined interface when the image data is stored in the memory.

본 발명에서 상기 메모리에 화상 데이터를 저장하는 방법은 센서의 HS 의 개수를 사전에 인식하고, 미리 HS의 개수를 카운팅 한 다음 내부적인 VS를 생성하여 저장하는 것이 바람직하다.In the method of storing image data in the memory in the present invention, it is preferable to recognize the number of HSs of the sensors in advance, count the number of HSs in advance, and then generate and store the internal VS.

본 발명에서 상기 인터페이스는 센서의 극성을 선택할 수 있는 것이 바람직하다.In the present invention, it is preferable that the interface can select the polarity of the sensor.

이하, 본 발명의 바람직한 실시예를 첨부한 도면을 참조하여 설명하기로 한다. 하기의 각 도면의 구성 요소들에 참조 부호를 부가함에 있어서, 동일한 구성 요소들에 한해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가 지도록 하며, 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 공지 기능 및 구성에 대한 상세한 설명은 생략한다. Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings. In adding reference numerals to the components of the following drawings, the same components only have the same reference numerals as much as possible even if displayed on different drawings, it is determined that may unnecessarily obscure the subject matter of the present invention Detailed descriptions of well-known functions and configurations will be omitted.

도 2는 본 발명의 일 실시예에 따른 8M 이미지 센서 테스팅 장치를 나타낸 연결도이다.2 is a connection diagram showing an 8M image sensor testing apparatus according to an embodiment of the present invention.

상기 실시예에서, 8M 이미지 센서 테스팅 장치는 이미지 제어부, SDAM, USB, 및 컴퓨터를 포함한다.In this embodiment, the 8M image sensor testing device includes an image control unit, SDAM, USB, and computer.

도 2를 참조하면, 이미지 제어부를 이용하고 센서의 출력을 두개의 256M SDRAM을 이용하여 센서의 출력을 저장한다. 256 SDRAM이 두개인 이유는 센서의 화상을 하나의 SDRAM에 저장한 다음, 다음의 이미지를 또 다른 하나의 SDRAM에 저장하는가 동시에, 기존에 상위 SDRAM에 저장된 이미지를 읽어 USB2.0 포트를 이용하여 컴퓨터 모니터로 전송한다. USB2.0은 480Mbps의 대역폭을 지원하므로, 최상의 프레임 비율을 구현할 수 있다. Referring to FIG. 2, the output of the sensor is stored using an image controller and two 256M SDRAMs of the output of the sensor. The reason why there are two 256 SDRAMs is that the image of the sensor is stored in one SDRAM, and then the next image is stored in another SDRAM. Send to the monitor. USB2.0 supports 480Mbps of bandwidth, resulting in the best frame rate.

먼저 센서 I/F 부분에서 가장 중요한 특징 중에 하나가 바로 'Internal Global Virtual VSYNC Generation'이다. 센서 제조사가 제작하는 센서의 I/F는 국제적인 규격이 없이 센서 제조사 별로 인터페이스가 각각 다른 다양한 센서 I/F가 존재한다. 이러한 다양한 센서 I/F을 지원하기 위해서는 센서별로 공통분모를 찾아 지원하는 것이 바로 'Internal Global Virtual VSYNC'개념이다. 기본 개념은 다음과 같은 관점에서 출발한다. First, one of the most important features in the sensor I / F section is 'Internal Global Virtual VSYNC Generation'. Sensor I / F manufactured by sensor manufacturer does not have international standard, and there are various sensor I / Fs with different interfaces for each sensor manufacturer. In order to support these various sensor I / F, it is the concept of 'Internal Global Virtual VSYNC' that finds and supports common denominator for each sensor. The basic concept starts from the following point of view.

도 3은 하나의 이미지가 어떻게 구성되어 있는가를 보여주는 도식도 이다. 통상적으로 우리가 640x480 이미지라고 할 경우, 도 3에서 보여주는 이미지 뷰어 영역의 이미지 라인은 640 라인으로 구성되어 있다는 의미이고, 하나의 이미지 라인은 480개의 픽셀로 구성되어 있다는 의미이다. 그런데, 여기서 우리는 사용자가 보는 이미지 영역이외에 H 블랭크 영역과 V 블랭크 영역이 존재함을 알 수 있다. 먼저 H 블랭크 영역은 하나의 이미지 라인과 하나의 이미지 라인사이에 존재하는 더미 공간이며, 통상적으로 10 싸이클 정도 기간이고, 이는 회사별로 조금씩 가변적이다.3 is a schematic diagram showing how one image is constructed. In general, when we say 640x480 image, it means that the image line of the image viewer area shown in FIG. 3 is composed of 640 lines, and one image line is composed of 480 pixels. However, here, we can see that there are H blank areas and V blank areas in addition to the image area seen by the user. First, the H blank area is a dummy space existing between one image line and one image line, and typically has a period of about 10 cycles, which varies slightly from company to company.

다음은 V 블랭크 영역이다. 위 두개의 개념은 모든 센서에서 사용되는 공통적인 개념이다. V 블랭크 영역은 한 프레임과 다음 한 프레임 사이의 공간을 지칭하는 의미로 이 기간 역시 센서별로 조금씩 다양하게 존재하지만, 보통 2~3 라인 정도의 시간이 필요하다. Next is the V blank area. These two concepts are common to all sensors. The V blank region refers to the space between one frame and the next one. This period also varies slightly from sensor to sensor, but usually requires two to three lines.

도 4에서 보면, 일반적으로 VSYNC 신호가 활성화 되고 나서, HSYNC가 생성되는데, HSYNC가 하이인 구간에서 위의 그림 3에서 보여주는 이미지 뷰어 영역의 데이터가 출력된다. 그런데, 문제는 하나의 프레임과 다음 한 프레임 사이에 존재하는 VSYNC의 활성시간이 서로 조금씩 다르다는 점이다. 특정회사는 전 프레임의 마지막 HSYNC가 출력되고 나서 바로 VSYNC가 활성화 되고, 또 다른 회사의 VSYNC 생성은 다음 프레임의 처음 HSYNC가 활성화되기 바로 전에 VSYNC가 활성화 되기도 한다. Referring to FIG. 4, in general, after the VSYNC signal is activated, HSYNC is generated, and the data of the image viewer area shown in FIG. 3 is output in the period where HSYNC is high. However, the problem is that the active time of the VSYNC existing between one frame and the next one is slightly different from each other. A company may activate VSYNC immediately after the last HSYNC of the previous frame is output, and another company's VSYNC generation may be activated just before the first HSYNC of the next frame is activated.

그러나, 이러한 다양한 센서를 지원해주기 위해 도입된 개념이 'Global Virtual VSYNC' 이다. 도 4에서 알 수 있는 것처럼 센서의 종류에 따라 VS의 위치 가 가변적임을 알 수 있다. 따라서 이러한 가변적인 VS의 위치에 대응하기 위하여 센서의 HS의 개수를 사전에 인지하고 있는 것이다. 또한 전 화면의 마지막 HS의폴링에지 부터 다음 화면의 HS의 라이징 에지까지의 주기는 최소 FPGA 메인 클록 기준으로 1024 클록이상 되어야 한다. 위의 두개의 가정을 만족할 경우 HS의 개수를 세팅하는 레지스터(8비트 * 2개)을 두고 이를 호스트에서 기록하며, 위의 두개의 가정을 만족할 경우 내부에서 HS의 개수를 카운팅 한 다음 내부적인 VS을 생성하여 다양한 센서를 지원하도록 한다.However, the concept introduced to support these various sensors is 'Global Virtual VSYNC'. As can be seen in Figure 4 it can be seen that the position of the VS is variable according to the type of sensor. Accordingly, the number of HSs of the sensors is recognized in advance in order to correspond to the position of the variable VS. Also, the period from the last HS polling edge of the previous screen to the rising edge of the HS of the next screen should be at least 1024 clocks based on the FPGA main clock. If the above two assumptions are met, the host sets a register (8 bits * 2) to set the number of HSs, and if the above two assumptions are met, the host counts the number of HSs internally and then internal VS. To support various sensors.

센서 I/F 부분에서 또 다른 하나의 특징은 센서의 극성(Polarity)을 선택할 수 있게 하는 기능이다.Another feature in the sensor I / F section is the ability to select the polarity of the sensor.

도 5는 라이징 극성을 설명하는 것으로 입력되는 데이터를 래치하는 부분을 클록의 라이징 에지부분이다. 도 6은 폴링 에지 극성을 설명하는 부분이다. 입력되는 데이터의 래치는 클록의 폴링 에지에서 수행된다. 이 두 가지를 지원하기 위해서 내부 래지스터를 두어, 호스트에서 극성을 선택 가능하도록 하는 기능을 내재하고 있다. 즉, 극성 래지스터가 1인 경우, 라이징 에지를, 0인 경우 폴링 에지를 선택 가능하다.5 is a rising edge portion of a clock for explaining the rising polarity and latching the input data. 6 is a part for explaining the falling edge polarity. The latch of the incoming data is performed at the falling edge of the clock. To support both, it has an internal register that allows the host to select the polarity. That is, when the polarity register is 1, the rising edge may be selected, and when the polarity register is 0, the falling edge may be selected.

다음은 MCU I/F 부분이다. 호스트와 인터페이스를 위해 MCU I/F 부분이 지원된다. 즉, 호스트에서 이미지 제어부의 내부 래지스터를 읽기 또는 쓰기가 가능하도록 지원하기 위한 부분이다. 또한 여기서 중요한 특징 중에 하나가 바로, 호스트로 전달되는 프레인 비율을 높이기 위해 MCU I/F에 사용되는 클록과 USB 2.0으로 전달되는 클록을 분리하여 최대의 프레임 비율을 높이는 방법이다.The following is the MCU I / F part. MCU I / F part is supported for host and interface. That is, this part is for supporting a host to read or write the internal register of the image controller. Another important feature here is how to increase the maximum frame rate by separating the clock used for the MCU I / F and the clock delivered to USB 2.0 to increase the plane rate delivered to the host.

일반적으로 USB 2.0과 이미지 센서의 인터페이스를 USB 2.0으로 부터 출력되는 Clock을 사용하는데, 이렇게 하면 USB 2.0으로 전달되는 데이터의 속도는 USB에서 나오는 출력 클록에 결정된다. 그러나, 이미지 제어부와 USB 2.0과의 래지스터 제어를 위한 클록의 주기는 빠른 주기가 아니어도, 프레임 비율에는 영향이 없지만, USB 2.0으로 전달되는 클록은 호스트에서 디스플레이 되는 프레임 비율과 직접적이고 결정적인 영향이 있다. 따라서 도 7 우측에서 보는 것처럼, USB 2.0과 MCU I/F의 Clock을 각각 독립적인 것을 사용함으로써 최대 2배 이상의 프레임 비율을 높일 수 있다.In general, the interface between USB 2.0 and the image sensor uses a clock output from USB 2.0, which determines the speed of data transferred to USB 2.0 by the output clock coming from USB. However, the clock cycle for register control between the image controller and USB 2.0 does not affect the frame rate even if it is not a fast cycle, but the clock delivered to USB 2.0 has a direct and decisive effect on the frame rate displayed by the host. have. Therefore, as shown in the right side of Figure 7, by using the independent clock of the USB 2.0 and MCU I / F, it is possible to increase the frame rate up to twice or more.

도 8은 본 발명의 일 실시예에 따른 프레임 버퍼로 사용되는 SDRAM을 이용한 핑-퐁 이미지 전달 방식이다. 도 8을 참조하면, 먼저 센서로부터 출력되는 데이터를 두개의 SDRAM(도 1에서 이미지 제어부 위에 있는 것을 UP_BUFFER, 아래에 있는 SDRAM을 DN_BUFFER로 한다)중 Up buffer에 먼저 저장한 다음, MUC I/F을 통하여 호스트에 하나의 프레임 버퍼가 Full이 되었음을 알리면, 호스트는 이를 감지하고, USB 2.0을 통하여 채워진 프레임 버퍼로 부터 데이터를 읽는다. 만일 이 과정을 수행하는 동안, 센서의 출력이 진행된다면, 이미지 제어부는 또 다른 하나의 프레임 버퍼에 들어오는 이미지 데이터를 저장한다. 만일 이러한 데이터 저장 과정 중에 기존에 호스트로 전달되는 버퍼의 데이터가 모두 완료되면, 호스트는 USB 2.0을 통하여 모든 데이터의 전달이 완료되었음을 알린다. 이러한 핑-퐁 과정을 수행하여 최대의 프레임 버퍼를 전달하는 과정을 수행한다.8 is a ping-pong image transfer method using an SDRAM used as a frame buffer according to an embodiment of the present invention. Referring to FIG. 8, first, data output from a sensor is first stored in an up buffer of two SDRAMs (UP_BUFFER on the image controller in FIG. 1 and DN_BUFFER below), and then MUC I / F is stored. When the host knows that one frame buffer is full, the host detects this and reads data from the frame buffer filled via USB 2.0. If the sensor outputs while performing this process, the image controller stores the image data coming into another frame buffer. If all the data in the buffer previously delivered to the host is completed during the data storage process, the host informs that all data has been transferred via USB 2.0. This ping-pong process is performed to deliver the maximum frame buffer.

상기와 같이, 본 발명의 바람직한 실시예를 참조하여 설명하였지만 해당 기술 분야의 숙련된 당업자라면 하기의 특허청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. As described above, it has been described with reference to the preferred embodiment of the present invention, but those skilled in the art various modifications and changes of the present invention without departing from the spirit and scope of the present invention described in the claims below I can understand that you can.

상술한 바와 같이 본 발명에 의하면, 현재 시장의 메력 포인트중에 하나인 모바일 전화기의 시장을 견인하는 핵심 요소 중에 하나인 카메라 모듈에 사용되는 센서 테스트 분야에서 실시간으로 센서의 이미지을 출력 가능하다는 장점이 있다. As described above, according to the present invention, an image of a sensor can be output in real time in a sensor test field used in a camera module, which is one of the key factors driving the market of a mobile phone, which is one of the attractive points of the current market.

그리고, 내부적으로 Global Virtual VSYNC을 사용하므로, 시장에서 사용되고 있는 모든 센서을 지원 가능하기 때문에 어떠한 센서를 사용하여 다양한 센서의 이미지를 비교 평가할 수 있다는 효과를 볼 수 있으며, And since it uses Global Virtual VSYNC internally, it can support all sensors used in the market, so it can be used to compare and evaluate images of various sensors.

또한 MCU I/F Clock과 USB 2.0 Clock을 분리하여 USB 2.0을 이용하여 호스트로 전달되는 이미지의 프레임 비율을 최대화 하는 효과를 가져오기 때문에, 이미지 센서의 화소의 증가로 인해 프레임 비율의 지연을 최소화 하는 효과를 볼 수 있다.Also, by separating MCU I / F clock and USB 2.0 clock, it brings the effect of maximizing frame rate of image delivered to host by using USB 2.0. Therefore, delay of frame rate is minimized by increasing pixel of image sensor. You can see the effect.

Claims (7)

센서에서 출력된 화상 데이터가 저장되는 적어도 두 개 이상의 메모리;At least two memories for storing image data output from the sensor; 상기 출력되는 화상 데이터가 어느 메모리에 저장될 것인가를 결정하고 상기 결정된 메모리로 상기 화상 데이터를 저장하는 이미지 제어부;An image controller which determines in which memory the output image data is to be stored and stores the image data in the determined memory; 상기 저장된 화상 데이터를 컴퓨터의 모니터로 전송하는 인터페이스; 및An interface for transmitting the stored image data to a monitor of a computer; And HS의 개수를 세팅하는 레지스터를 포함하는 씨모스 센서 지원 영상 디스플레이 장치.CMOS sensor support image display device including a register for setting the number of HS. 삭제delete 제 1항에 있어서, 상기 메모리는 SDRAM을 이용하는 것을 특징으로 하는 씨모스 센서 지원 영상 디스플레이 장치.The image display apparatus of claim 1, wherein the memory uses an SDRAM. 제 1항에 있어서, 상기 인터페이스는 유니버설 시리얼 버스(Universal Serial Bus, USB) 2.0을 이용하는 것을 특징으로 하는 씨모스 센서 지원 영상 디스플레이 장치.The image display apparatus of claim 1, wherein the interface uses a universal serial bus (USB) 2.0. 이미지 제어부를 통하여 센서에서 출력되는 화상 데이터를 적어도 두 개 이상의 메모리에 순차적으로 저장하는 단계; Sequentially storing image data output from the sensor in at least two memories through an image controller; 센서의 HS 의 개수를 사전에 인식하고, 미리 HS의 개수를 카운팅 한 다음 내부적인 VS를 생성하여 저장하는 단계; 및 Recognizing the number of HSs of the sensor in advance, counting the number of HSs in advance, and generating and storing internal VS; And 상기 메모리에 화상 데이터가 저장되어 꽉 찬 경우 소정의 인터페이스를 통하여 컴퓨터의 모니터로 전송하는 단계를 포함하는 씨모스 센서 지원 영상 디스플레이 방법.And transmitting the image data to the monitor of the computer through a predetermined interface when the image data is stored in the memory and is full. 삭제delete 제 5항에 있어서, 상기 인터페이스는 센서의 극성을 선택할 수 있는 것을 특징으로 하는 씨모스 센서 지원 영상 디스플레이 방법.6. The method of claim 5, wherein the interface selects a polarity of the sensor.
KR1020050021072A 2005-03-14 2005-03-14 Video Display System and Method supporting CMOS Sensor KR100693420B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020050021072A KR100693420B1 (en) 2005-03-14 2005-03-14 Video Display System and Method supporting CMOS Sensor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020050021072A KR100693420B1 (en) 2005-03-14 2005-03-14 Video Display System and Method supporting CMOS Sensor

Publications (2)

Publication Number Publication Date
KR20060099692A KR20060099692A (en) 2006-09-20
KR100693420B1 true KR100693420B1 (en) 2007-03-12

Family

ID=37630809

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020050021072A KR100693420B1 (en) 2005-03-14 2005-03-14 Video Display System and Method supporting CMOS Sensor

Country Status (1)

Country Link
KR (1) KR100693420B1 (en)

Also Published As

Publication number Publication date
KR20060099692A (en) 2006-09-20

Similar Documents

Publication Publication Date Title
US20100164966A1 (en) Timing controller for graphics system
CN103686314A (en) Demultiplex device and method adopting HD (high definition) video channel to transmit SD (standard definition) videos
CN102622991A (en) Image adjusting device and image adjusting method
US8194146B2 (en) Apparatuses for capturing and storing real-time images
US20140078160A1 (en) Display-controlling method and display device
CN110431616B (en) Picture frame display apparatus and display method
CN113625986B (en) Screen refreshing method and computer readable storage medium
KR100693420B1 (en) Video Display System and Method supporting CMOS Sensor
CN109308862B (en) Signal control method, control device, processing device and signal control equipment
JP3384659B2 (en) Reduced video signal processing circuit
CN215453109U (en) Car machine display device and car
CN114982250B (en) Signal processing method and device and display device
CN101483716A (en) Apparatuses for capturing and storing real-time images
CN114153414A (en) Image anti-tearing method and related device
CN109874003B (en) VR display control method, VR display control device and display device
CN113660431A (en) Multi-screen display method of vehicle-mounted display equipment, vehicle-mounted display equipment and vehicle
JP2005122119A (en) Video interface device in system constituted of mpu and video codec
US8229271B2 (en) Microcomputer, system including the same, and data transfer device
KR100284420B1 (en) Digital video capture board
CN114495855B (en) Video data conversion circuit, method and display device
CN114077413B (en) Display module control system, display device and control method
KR100875839B1 (en) Image output device and method capable of preventing image tearing
US8106960B2 (en) Image processing system and method thereof
JP6413385B2 (en) Image processing apparatus, imaging apparatus, and image data output method
JP5539132B2 (en) Image processing apparatus and image processing method

Legal Events

Date Code Title Description
A201 Request for examination
N231 Notification of change of applicant
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20101223

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee