KR100997279B1 - Image processing system and method with dynamically controlled pixel processing - Google Patents

Image processing system and method with dynamically controlled pixel processing Download PDF

Info

Publication number
KR100997279B1
KR100997279B1 KR1020067014407A KR20067014407A KR100997279B1 KR 100997279 B1 KR100997279 B1 KR 100997279B1 KR 1020067014407 A KR1020067014407 A KR 1020067014407A KR 20067014407 A KR20067014407 A KR 20067014407A KR 100997279 B1 KR100997279 B1 KR 100997279B1
Authority
KR
South Korea
Prior art keywords
image processing
image
pixel
block
processing operation
Prior art date
Application number
KR1020067014407A
Other languages
Korean (ko)
Other versions
KR20070026366A (en
Inventor
칼 제이. 루기에로
Original Assignee
이뉴클리어 세미컨덕터 아이엔씨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이뉴클리어 세미컨덕터 아이엔씨 filed Critical 이뉴클리어 세미컨덕터 아이엔씨
Publication of KR20070026366A publication Critical patent/KR20070026366A/en
Application granted granted Critical
Publication of KR100997279B1 publication Critical patent/KR100997279B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4007Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/22Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of characters or indicia using display control signals derived from coded signals representing the characters or indicia, e.g. with a character-code memory
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/39Control of the bit-mapped memory
    • G09G5/391Resolution modifying circuits, e.g. variable screen formats
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0117Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving conversion of the spatial resolution of the incoming video signal
    • H04N7/012Conversion between an interlaced and a progressive signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/20Circuitry for controlling amplitude response
    • H04N5/205Circuitry for controlling amplitude response for correcting amplitude versus frequency characteristic
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0125Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level one of the standards being a high definition standard
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0135Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes
    • H04N7/0137Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes dependent on presence/absence of motion, e.g. of motion zones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0135Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes
    • H04N7/0145Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes the interpolation being class adaptive, i.e. it uses the information of class which is determined for a pixel based upon certain characteristics of the neighbouring pixels

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Hardware Design (AREA)
  • Image Processing (AREA)
  • Television Systems (AREA)
  • Processing Of Color Television Signals (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

디지털 이미지를 처리하는 시스템이다. 시스템은 처리기 및 메모리를 포함하는 제어기를 포함한다. 시스템은 또한 제어기와 동작적으로 결합된 복수의 이미지 처리 블록을 포함할 수 있다. 각 이미지 처리 블록은 상이한 이미지 처리 연산을 수행하도록 설정될 수 있다. 이미지 처리 블록들 및 제어기는 순차적인 픽셀 처리를 제공하도록 설정되고 상호접속될 수 있으며, 각 이미지 처리 블록은 출력 픽셀을 생성하도록 입력 픽셀을 처리하고, 이미지 처리 블록 중 업스트림되는 것의 출력 픽셀이, 이미지 처리 블록 중 다운스트림되는 것으로의 입력 픽셀로서 피드포워드될 수 있다. 시스템은 또한, 각각의 이미지 처리 블록에 대해, 이미지 처리 블록에 적용될 입력 픽셀에 대한 업데이트된 분류 데이터를 획득하도록 설정된, 분류 블록을 포함할 수 있다. 이미지 처리 블록에 적용된 입력 픽셀에 대한 업데이트된 분류 데이터에 기초하여, 각 이미지 처리 블록에서의 처리가 동적으로 제어될 수 있다.

Figure R1020067014407

It is a system for processing digital images. The system includes a controller that includes a processor and a memory. The system may also include a plurality of image processing blocks operatively coupled with the controller. Each image processing block may be set to perform different image processing operations. The image processing blocks and controllers can be set and interconnected to provide sequential pixel processing, with each image processing block processing an input pixel to produce an output pixel, the output pixel being upstream of the image processing block being imaged Feedforward as an input pixel to be downstream of the processing block. The system may also include a classification block, configured for each image processing block, to obtain updated classification data for an input pixel to be applied to the image processing block. Based on the updated classification data for the input pixels applied to the image processing block, the processing in each image processing block can be dynamically controlled.

Figure R1020067014407

Description

동적 제어 픽셀 처리에 의한 이미지 처리 시스템 및 방법 {IMAGE PROCESSING SYSTEM AND METHOD WITH DYNAMICALLY CONTROLLED PIXEL PROCESSING}Image processing system and method by dynamic control pixel processing {IMAGE PROCESSING SYSTEM AND METHOD WITH DYNAMICALLY CONTROLLED PIXEL PROCESSING}

디지털 이미지를 처리하기 위한 다수의 시스템 및 방법이 존재한다. 기존의 이미지 시스템은 일반적으로 디지털 이미지를 포함하는 픽셀에 대한 다양한 연산을 수행하기 위한 처리 블록을 포함한다. 이러한 연산들은 디인터레이싱(de-interlacing), 해상도 증대 또는 감소 등을 포함한다. 전형적인 기존 시스템은 이러한 연산을 위해 소정의, 고정된 처리 알고리즘을 사용한다. 상이한 처리 연산들은 실질적으로 서로 독립적으로 동작하며, 변화된 픽셀 특성에 응하여 처리가 조정되거나 수정되지 않는다.Many systems and methods exist for processing digital images. Existing image systems generally include processing blocks for performing various operations on pixels containing digital images. These operations include de-interlacing, increasing or decreasing resolution, and the like. Typical existing systems use some, fixed processing algorithm for this operation. Different processing operations operate substantially independently of each other, and processing is not adjusted or modified in response to changed pixel characteristics.

도 1은 본 명세서에 따른 이미지 처리 시스템의 실시형태를 개략적으로 도시한다.1 schematically illustrates an embodiment of an image processing system according to the present disclosure.

도 2는 본 명세서의 시스템 및 방법과 관련하여 사용될 수 있는, 동적으로 제어가능한 이미지 처리 블록을 도시한다.2 illustrates a dynamically controllable image processing block that may be used in connection with the systems and methods herein.

도 3은 픽셀 또는 픽셀 그룹과 관련될 수 있는 처리 데이터 및 가변성 분류 데이터의 다양한 종류를 도시하며, 상기 데이터는 이미지 처리 블록을 조정하거나 다른 방법으로 제어하기 위해 이미지 처리 블록으로의 입력으로서 이용가능하다.3 illustrates various kinds of processing data and variability classification data that may be associated with a pixel or group of pixels, which data is available as input to the image processing block to adjust or otherwise control the image processing block. .

도 4는 본 명세서에 따른 디지털 이미지를 처리하기 위한 방법의 예시적 구현을 도시한다.4 illustrates an example implementation of a method for processing a digital image according to the present disclosure.

도 5는 본 명세서에 따른 예시적 처리 파이프라인을 도시하며, 디인터레이싱, 이미지 보간 및 색 처리 연산을 수행하기 위한 동적 제어가능 처리 블록을 포함한다.5 illustrates an example processing pipeline in accordance with the present disclosure and includes dynamic controllable processing blocks for performing deinterlacing, image interpolation and color processing operations.

도 6 및 도 7은 인터레이싱된 영상 프레임 및 디인터레이싱 연산을 수행하기 위한 동적으로 제어가능한 처리 블록을 도시한다.6 and 7 illustrate dynamically controllable processing blocks for performing interlaced image frames and deinterlacing operations.

도 8은 이미지 보간 처리 연산의 상황에서, 그리드(grid)에서의 하나 이상의 알려진 픽셀 값으로부터 보간될 목표 픽셀 및 픽셀 그리드를 도시한다.8 illustrates a target pixel and pixel grid to be interpolated from one or more known pixel values in a grid in the context of an image interpolation processing operation.

도 1은 본 명세서에 따른 이미지 처리 시스템(20)의 실시형태를 개략적으로 도시한다. 이 도면은 개략적인 도시이며, 도시된 구성요소는, 기술된 시스템의 영역 및 사상으로부터 벗어나지 않고 다양한 방법으로 통합 또는 결합되거나, 또는 추가적인 구성요소로 분리될 수 있다. 1 schematically illustrates an embodiment of an image processing system 20 according to the present disclosure. This figure is a schematic illustration, and the components shown may be integrated or combined in various ways or separated into additional components without departing from the scope and spirit of the described system.

이미지 처리 시스템은 입력 영상 신호 상의 초기 처리를 수신하고 수행하기 위한 블록(22)을 포함할 수 있다. 블록(22)은 아날로그 및/또는 디지털 입력을 다루도록 설정될 수 있다. 아날로그 영상의 경우에는, 블록(22)은 아날로그 영상 신호를 캡쳐 및/또는 디코딩하기 위한 하위 구성요소를 포함하여, 입력 영상 프레임을 표현하는 상응하는 픽셀을 생성할 수 있다. 예를 들면, 입력 영상 프레임을 표현하는 픽셀을 생산하기 위해 적합한 아날로그-디지털 변환기(ADC)를 포함하는 아날로그 영상 디코더가 사용될 수 있다. 이러한 픽셀은 처리 파이프라인(pipeline)으로 클록 입력(clocked into)되거나 다르게 적용될 수 있다. 전형적인 실시형태에서는, 픽셀은 직렬로(serially) 시스템에 클록 입력된다.The image processing system may include a block 22 for receiving and performing initial processing on an input video signal. Block 22 may be configured to handle analog and / or digital inputs. In the case of an analog image, block 22 may include sub-components for capturing and / or decoding the analog image signal to generate corresponding pixels representing the input image frame. For example, an analog image decoder may be used that includes an analog-to-digital converter (ADC) suitable for producing pixels representing the input image frame. These pixels can be clocked into the processing pipeline or otherwise applied. In a typical embodiment, the pixels are clocked into the system in series.

아날로그 영상에 대해서, 처리 파이프라인에 의해 캡쳐되는 픽셀을 제공하기 위해 Philips 7119와 같은 장치가 이용될 수 있다. 아날로그-디지털 변환기를 통해, 또는 DVI 소스로부터 캡쳐된 이미지에 대해, 처리 파이프라인에 의해 캡쳐되는 픽셀을 제공하기 위해 Analog Devices 9887과 같은 장치가 이용될 수 있다.For analog images, devices such as Philips 7119 can be used to provide the pixels captured by the processing pipeline. Devices such as Analog Devices 9887 can be used to provide pixels captured by the processing pipeline, either through an analog-to-digital converter, or for images captured from a DVI source.

부가적으로, 또는 선택적으로, 블록(22)은 디지털 영상 입력을 다루도록 설정될 수 있다. 디지털 영상의 경우, 이미지 프레임을 재구성하기 위한 캡쳐/디코딩 블록(22)를 갖는 적절한 디지털 영상 디코더가 구현될 수 있다. 디코딩 처리 동안, 그리고 처리 동안 다른 지점에서, 픽셀을 재구성하기 위해 이용된 방법에 근거하여 분류 데이터가 픽셀과 연관될 수 있다. 여기서 설명된 실시형태와 관련하여 Conexant(CX22490) 또는 LSI Logic(SC2005)와 같은 업체들로부터의 현재의 디지털 영상 디코더가 사용될 수 있다.Additionally, or alternatively, block 22 may be set to handle digital image input. In the case of a digital image, a suitable digital image decoder with a capture / decoding block 22 for reconstructing the image frame can be implemented. During the decoding process and at other points during the processing, the classification data may be associated with the pixel based on the method used to reconstruct the pixel. In connection with the embodiments described herein, current digital video decoders from companies such as Conexant (CX22490) or LSI Logic (SC2005) can be used.

시스템(20)은 픽셀을 그룹핑(grouping)하기 위한 블록(24)을 포함할 수 있다. 캡쳐 후에, 전형적으로 입력 영상 프레임에 대응하는 픽셀은 블록(24)에서 사용된 일련의 할당 기준(criteria)에 근거하여 고정 또는 가변 크기의 영역에 할당된다. 할당 기준은 상당히 변할 수 있다. 비디오 프레임 내에서 픽셀들 간의 직사각형, 정사각형, 또는 다른 기하학적 관계와 같은 단순한 공간적 할당이 사용될 수 있다. 사람의 얼굴과 같이 픽셀이 이미지에서 동일한 객체에 속하는 가능성에 근거하여, 픽셀을 그룹핑하기 위해 객체 기반의 할당 시스템이 사용될 수 있다. 그룹핑 기준은 MPEG 비디오 인코딩에서 이용된 것과 같은 공간적 블록으로 구성될 수 있다. 그러나 다른 그룹핑 예가, 유사한 픽셀의 영역을 그룹핑하기 위해 패턴 매칭이 이용되는 객체 인식 방식(scheme)에 근거한다.System 20 may include block 24 for grouping pixels. After capture, the pixels typically corresponding to the input image frame are assigned to areas of fixed or variable size based on a series of allocation criteria used in block 24. Allocation criteria can vary considerably. Simple spatial allocations may be used, such as rectangles, squares, or other geometric relationships between pixels within a video frame. Based on the likelihood that pixels belong to the same object in the image, such as the face of a person, an object based assignment system can be used to group the pixels. The grouping criterion may consist of spatial blocks such as those used in MPEG video encoding. However, another grouping example is based on an object recognition scheme in which pattern matching is used to group regions of similar pixels.

실제로, 블록(24)은 어떠한 실행가능한 기준에 따라서도 픽셀을 그룹핑할 수 있다. 전형적으로, 시스템(20)에 의한 픽셀의 처리 및/또는 분석을 용이하게 하기 위해 이러한 픽셀의 그룹핑 또는 구역화(regionalizing)가 사용된다. 예를 들면, 배경에 수많은 구경꾼이 있는 운동 경기 행사의 이미지에 있어서, 이 배경 영역에 대응하는 픽셀은 함께 그룹핑될 수 있다(공유하는 특성에 근거하여). 그러면, 그룹핑된 픽셀 전체에 대해 특정 처리 단계가 적용될 수 있으며, 따라서 영상 신호에 대한 이미지 처리의 효율 및 속도를 개선할 수 있다. 더욱이, 영상 데이터를 그룹핑하고 구역화하는 것은 입상(granularity) 처리를 크게 개선하고, 여기서 설명된 동적, 실시간 처리 시스템 및 방법의 효율을 증진시킬 수 있다.Indeed, block 24 may group pixels according to any executable criterion. Typically, grouping or regionalizing of these pixels is used to facilitate processing and / or analysis of the pixels by the system 20. For example, in an image of an athletic event with a large number of spectators in the background, the pixels corresponding to this background area may be grouped together (based on shared characteristics). Then, a specific processing step can be applied to the entire grouped pixels, thus improving the efficiency and speed of image processing for the image signal. Moreover, grouping and zoning image data can greatly improve granularity processing and enhance the efficiency of the dynamic, real-time processing systems and methods described herein.

불연속(discrete) 비트 또는 멀티 비트 파라미터의 형태로, 블록(24) 또는 시스템(20)의 다른 부분에 의해, 픽셀 데이터에 분류 데이터가 부가될 수 있다. 개별적인 특성(검출된 에지 등)을 플래그로 나타내기 위해 불연속 비트가 이용될 수 있다. 멀티 비트 필드는 픽셀에 존재하는 특성의 양(모션 등)을 표시하는 숫자 값을 저장하기 위해 이용될 수 있다.The classification data may be added to the pixel data by block 24 or other part of the system 20, in the form of discrete bits or multi-bit parameters. Discontinuous bits may be used to flag individual characteristics (detected edges, etc.). Multi-bit fields can be used to store numeric values that indicate the amount of characteristics (motion, etc.) present in a pixel.

비록 픽셀의 어떤 분석 및 분류는 시스템(20)의 다른 부분에 의해 수행될 수도 있지만, 처리되는 픽셀의 분류 및 분석을 수행하는 블록(26)을 시스템은 포함할 수 있다. 분류를 수행하기 위해 다양한 방법 및 시스템이 사용될 수 있고, 픽셀과 관련된 다양한 특성을 검출하기 위해 분석이 수행될 수 있으며, 이는 모션 정보; 그라디언트(gradient); 양자화 스케일(scale) 인자; 사용된 예측 방법; 역이산 코사인 변환 계수; 주파수 정보(공간적 및/또는 시간적 주파수); 색 정보(명도, 콘트라스트, 색상(hue), 채도(saturation), 등); 픽셀이 텍스트, 그래픽 또는 다른 분류가능한 요소를 포함하는지 여부; 필름 모드가 사용되는지 여부; 등을 포함한다. 이러한 특성은 일반적으로 픽셀의 처리 동안 변경되며, 분류 데이터로서 참조될 수 있다.Although some analysis and classification of pixels may be performed by other portions of system 20, the system may include block 26 to perform classification and analysis of the pixels being processed. Various methods and systems may be used to perform the classification, and analysis may be performed to detect various characteristics associated with the pixels, including motion information; Gradients; Quantization scale factor; Prediction method used; Inverse discrete cosine transform coefficients; Frequency information (spatial and / or temporal frequency); Color information (brightness, contrast, hue, saturation, etc.); Whether the pixel includes text, graphics or other classifiable elements; Whether film mode is used; And the like. This property is generally changed during the processing of the pixel and can be referred to as classification data.

이러한 특성의 결정은 어떤 실용적인 방법을 이용해서도 수행될 수 있다. 예를 들면, 주파수 정보는 공간적으로 인접한 픽셀 간의 절대차를 계산함으로써 획득될 수 있다. 모션 정보는 픽셀을 하나 이상의 이전 프레임의 픽셀과 비교하여 차이를 계산함으로써 생성될 수 있다.Determination of these properties can be performed using any practical method. For example, frequency information can be obtained by calculating the absolute difference between spatially adjacent pixels. Motion information may be generated by comparing the pixels with the pixels of one or more previous frames to calculate the difference.

이하 상세히 논의되는 바와 같이, 그룹핑 블록(24) 및/또는 분석 블록(26)은 픽셀 또는 픽셀 그룹의 처리 동안 반복적으로 액세스될 수 있다. 반복적으로 분류 데이터를 업데이트하는 것은, 이미지 처리를 동적으로 제어하고 강화하도록, 시스템이 처리된 픽셀의 변화하는 특성을 동적으로 추적하고 이러한 변화에 대해 실시간으로 동적으로 반응할 수 있게 한다.As discussed in detail below, grouping block 24 and / or analysis block 26 may be accessed repeatedly during processing of a pixel or group of pixels. Iteratively updating the classification data allows the system to dynamically track the changing characteristics of the processed pixels and react dynamically to these changes in real time, to dynamically control and enhance image processing.

이미지 처리 시스템(20)은 또한 하나 이상의 이미지 처리 블록(28)을 포함한다. 블록(28)은, 디인터레이싱, 이미지 보간(interpolation) 또는 다른 해상도 변경, 색 처리, 휘도/색차(chrominance) 분리, 노이즈 필터링, 부스팅(boosting) 등의 다양한 여러 이미지 처리 태스크를 수행하도록 설정될 수 있다. 일반적인 실시형태는, 디인터레이싱, 이미지 보간 및 색 처리에 대해 분리된 블럭(28)들을 사용한다. 후술하는 바와 같이, 본 발명의 시스템 및 방법은, 입상의, 변화가능한 분류 데이터에 따라 동적으로 제어되는, 주어진 처리 블록에서 처리를 가능하게 한다.Image processing system 20 also includes one or more image processing blocks 28. Block 28 may be set up to perform various various image processing tasks, such as deinterlacing, image interpolation or other resolution change, color processing, luminance / chrominance separation, noise filtering, boosting, and the like. . The general embodiment uses separate blocks 28 for deinterlacing, image interpolation, and color processing. As described below, the systems and methods of the present invention enable processing in a given processing block, which is dynamically controlled in accordance with granular, changeable classification data.

시스템(20)은 나머지 설명된 블록들의 기능을 수행 및/또는 지원하기 위한 제어기(30)를 또한 포함할 수 있다. 제어기(30)는 처리기, 메모리, 프레임 버퍼 및/또는 필요에 따라 다른 구성요소를 포함할 수 있다. 도 1의 구성요소는 버스 또는 다른 상호접속(32)에 의해 적절하게 결합될 수 있다. 도시된 구성요소는 단일의 통합 칩, 또는 실행 가능한 방법으로 결합되거나 분리된 복수의 개별 구성요소로써 구현될 수 있다. 제어기(30)는, 예를 들면, 개별 처리기 및 개별 메모리 칩으로 구현되거나, 블록들(24 및 26)의 기능이 결합되는 것 등이 가능하다.System 20 may also include a controller 30 to perform and / or support the functions of the remaining described blocks. Controller 30 may include a processor, memory, frame buffer, and / or other components as needed. The components of FIG. 1 may be suitably coupled by a bus or other interconnect 32. The illustrated components may be implemented as a single integrated chip or as a plurality of individual components combined or separated in an executable manner. The controller 30 may be implemented with, for example, a separate processor and a separate memory chip, or the functionality of the blocks 24 and 26 may be combined.

도 2 및 3을 참조하여, 개개의 처리 블록(예를 들면, 디인터레이싱 블록)에서의 처리 제어를 설명한다. 도 2에서, 예시적 이미지 처리 블록(28)이 도시되어 있다. 보이는 바와 같이, 픽셀들(100)(또는 단일의 픽셀)은 블록(28)에 처리되도록 적용된다. 블록(28)은 제어 입력(102)에 따라 픽셀들(100)을 처리하여, 처리된 픽셀들(104)(픽셀들')을 출력한다. 표시된 것처럼, 입력(102)을 통해 초래된 제어는 동적으로 발생할 수 있고, 픽셀들(100)과 관련된 분류 데이터(예를 들면, 모션 데이터, 주파수 데이터 등), 픽셀들(100)과 관련된 처리 정보(예를 들면, 다른 처리 단계에서 사용된 필터 계수, 다른 단계에서 사용된 보간 기법, 이전 프로세스가 어드레스 샤프니스 이슈(address sharpness issues)에 동조되었는지 여부 등), 그리고/또는 다른 제어 파라미터를 포함하는 다양한 파라미터를 기반으로 한다. 다른 블록으로부터(예를 들면, 다운스트림(downstream) 또는 업스트림(upstream) 블록으로부터 공급(feed)되는) 데이터를 분류 및/또는 처리하는 것은 인스턴트 블록에서 처리를 제어하기 위해 이용될 수 있다.2 and 3, process control in individual process blocks (e.g., deinterlacing blocks) will be described. In FIG. 2, an example image processing block 28 is shown. As can be seen, pixels 100 (or a single pixel) are applied to be processed at block 28. Block 28 processes the pixels 100 according to the control input 102 to output the processed pixels 104 (pixels'). As indicated, the control brought about through the input 102 can occur dynamically, with classification data associated with the pixels 100 (eg, motion data, frequency data, etc.), processing information associated with the pixels 100. (E.g., filter coefficients used in other processing steps, interpolation techniques used in other steps, whether the previous process was tuned to address sharpness issues, etc.), and / or other control parameters. Based on parameters. Classifying and / or processing data from another block (eg, fed from a downstream or upstream block) may be used to control the processing in an instant block.

도 3은 데이터의 분류 및/또는 처리가 픽셀 또는 픽셀들과 어떻게 관련될 수 있는지 보다 구체적으로 보여준다. 이 데이터는, 다양한 종류의 데이터가 파이프라인에서 처리된 픽셀과 관련될 수 있는, 복합 필드 클래스(120)로 생각될 수 있다. 필드(122)는 나머지 데이터 필드가 관련된 픽셀을 표시한다. 분류 데이터(124)는, 픽셀 또는 픽셀들의 특성 또는 질을 설명하도록, 픽셀과 관련될 수 있다. 분류 데이터(124)는, 모션 데이터(126), 주파수 데이터(128), 색 데이터(130) 등을 포함하는, 다양한 종류의 정보를 포함할 수 있다. 부가적으로, 또는 선택적으로, 클래스(120)는, 픽셀 또는 픽셀들 상에 이미 수행된 처리를 표시하거나 설명하는 처리 데이터(140)를 포함할 수 있다. 처리 데이터(140)는 예로써, 다른 처리 블록으로부터의 필터링 정보(142), 디인터레이싱 동안 사용된 파라미터 또는 방법(144) 등을 포함한다.3 shows more specifically how classification and / or processing of data may be associated with a pixel or pixels. This data can be thought of as a composite field class 120, in which various kinds of data can be associated with pixels processed in a pipeline. Field 122 indicates the pixel with which the remaining data field is associated. The classification data 124 may be associated with a pixel to describe the pixel or characteristics or quality of the pixels. The classification data 124 may include various kinds of information, including the motion data 126, the frequency data 128, the color data 130, and the like. Additionally, or alternatively, class 120 may include processing data 140 that indicates or describes the processing that has already been performed on the pixel or pixels. Process data 140 includes, for example, filtering information 142 from another process block, a parameter or method 144 used during deinterlacing, and the like.

데이터가 어떻게 구성되거나 관련되는지와 관계없이, 픽셀 또는 픽셀들에 대한 데이터는 현재의 프레임 데이터뿐만이 아니라 픽셀에 대한 히스토리 데이터(예를 들면, 이전 영상 프레임으로부터의 데이터)도 포함할 수 있다. 주어진 처리 블록에서 처리에 작용하도록 이전 또는 이후 픽셀의 분류 데이터 및/또는 처리 데이터가 공급될 수 있다. 게다가, 분류 및 처리 데이터는 픽셀이 처리 파이프라인을 통해 이동하는 동안 동적으로 변할 수 있다. 이 동적으로 변하는 제어 데이터는, 처리 파이프라인에서 포워드(forward) 및/또는 백워드(backword)로 변화 제어 데이터를 동적으로 공급하는 메커니즘을 통해, 이미지 처리를 개선하기 위해 사용될 수 있다. 이는 이후의 처리 블록에서 다른 픽셀의 이미지 처리, 또는 동일한 픽셀의 이미지 처리에 동적인 피드포워드 및 피드백 효과를 산출한다.Regardless of how the data is organized or related, the data for a pixel or pixels may include not only current frame data, but also historical data for the pixel (eg, data from a previous image frame). The classification data and / or processing data of the previous or subsequent pixels may be supplied to act on the processing in a given processing block. In addition, the classification and processing data can change dynamically while pixels move through the processing pipeline. This dynamically changing control data can be used to improve image processing through a mechanism that dynamically feeds the change control data forward and / or backward in the processing pipeline. This yields feedforward and feedback effects that are dynamic for image processing of other pixels, or image processing of the same pixel in subsequent processing blocks.

이제, 도 4로 넘어가, 예시적인 이미지 처리 방법(200)을 검토한다. 후술하는 설명으로부터, 앞서 기술된 시스템 및 구성요소와 관련하여 방법(200)이 유용하게 구현될 수 있음이 자명하다. 그러나, 이 예시적인 방법, 또는 그 양상은 여기서 논의되는 특정 실시형태와 무관하게 구현될 수 있다.4, a review of an exemplary image processing method 200 is now made. From the description below, it is apparent that the method 200 may be usefully implemented in connection with the systems and components described above. However, this example method, or aspect thereof, may be implemented regardless of the specific embodiments discussed herein.

202에 나타난 바와 같이, 방법(200)은 처리될 입력 픽셀을 수신하거나 다르게 획득하는 것을 포함한다. 이는 상술한 디코드 피쳐(feature) 및 앞서 기술한 아날로그/디지털 캡쳐를 통해 달성될 수 있다(예를 들면, 도 1의 캡쳐/디코드 블록(22)). 수신된 픽셀은 그리고 나서, 도 1을 참조하여 앞서 검토한 바와 같이, 204에서 적절하게 그룹핑되거나 재구성될 수 있다. 또한, 206에 나타난 바와 같이, 원하는 분류 데이터를 획득하기 위해 픽셀이 분석될 수 있다. 이러한 분류 데이터는, 모션 데이터, 주파수 데이터, 색 정보, 그라디언트 데이터 등을 포함하여, 앞서 논의된 픽셀 분류기 중 어느 것이든 포함할 수 있다. 단계 204 및 206의 그룹핑 및 분석은, 본 예에서 픽셀의 다른 이미지 처리에 선행하여(예를 들면, 디인터레이싱, 이미지 보간 연산 등에 선행하여) 수행되기 때문에, 프론트엔드 연산 또는 태스크로서 언급될 수 있다.As shown at 202, the method 200 includes receiving or otherwise obtaining an input pixel to be processed. This may be achieved through the decode feature described above and the analog / digital capture described above (eg, capture / decode block 22 of FIG. 1). The received pixels may then be appropriately grouped or reconstructed at 204, as discussed above with reference to FIG. 1. Further, as shown at 206, the pixels can be analyzed to obtain the desired classification data. Such classification data may include any of the pixel classifiers discussed above, including motion data, frequency data, color information, gradient data, and the like. The grouping and analysis of steps 204 and 206 may be referred to as a frontend operation or task, as in this example is performed prior to other image processing of the pixels (eg, prior to deinterlacing, image interpolation operations, etc.).

208에서, 이 방법은 입력 픽셀 상에 이미지 처리 연산(예를 들면, 디인터레이싱, 이미지 보간법, 노이즈 필터링 등)을 수행하는 것을 포함한다. 앞서 논의된 바와 같이, 처리 연산은 픽셀과 관련된 분류 데이터 및/또는 처리 데이터(예를 들면, 도 3의 분류 데이터(124) 및 처리 데이터(140))에 따라 동적으로 제어될 수 있다.At 208, the method includes performing an image processing operation (eg, deinterlacing, image interpolation, noise filtering, etc.) on the input pixel. As discussed above, processing operations may be dynamically controlled in accordance with classification data and / or processing data associated with the pixels (eg, classification data 124 and processing data 140 of FIG. 3).

이미지 처리 연산을 동적으로 조정(tune)하는 분류 데이터의 이용의 한 가지는 디인터레이싱의 상황에서 이해될 수 있다. 본 시스템에서, 어느 주어진 지점에서든지 사용된 디인터레이싱 방법은 처리될 픽셀에서 검출된 모션의 정도에 크게 의존할 수 있다. 앞서 설명한 바와 같이, 복수의 영상 프레임에 걸쳐 발생하는 픽셀에 대한 시간적 변화를 평가함으로써, 모션이 검출될 수 있다. 그리고 나서 이 모션 정보는, 예를 들면, 클래스(120)와 같은 멀티 필드 클래스의 이용을 통해, 픽셀과 관련될 것이다. 그러면, 디인터레이싱 연산을 동적으로 제어하는 것 및/또는 적절한 디인터레이싱 알고리즘을 선택하는 것을 위해 클래스 필드 내에 매입(embed)된 모션 정보가 사용될 것이다. 어떤 디인터레이싱 연산은 높은 정도의 모션을 갖는 픽셀에 적당할 수 있으며, 다른 디인터레이싱 연산(또는 첫 번째 연산의 변형된 버전)은 이미지의 영역 또는 고정된 픽셀에 대해 더 적당할 수 있다.One use of classification data to dynamically tune image processing operations can be understood in the context of deinterlacing. In the present system, the deinterlacing method used at any given point may depend heavily on the degree of motion detected in the pixel to be processed. As described above, motion can be detected by evaluating temporal changes for pixels occurring across a plurality of image frames. This motion information will then be associated with the pixel, for example, through the use of a multi-field class, such as class 120. The motion information embedded in the class field will then be used for dynamically controlling the deinterlacing operation and / or selecting an appropriate deinterlacing algorithm. Some deinterlacing operations may be suitable for pixels with a high degree of motion, and other deinterlacing operations (or modified versions of the first operation) may be more suitable for regions of an image or for fixed pixels.

단계(208)에서의 처리는 또한, 처리 연산으로 공급되는 픽셀의 선행 처리에 근거하여, 동적으로 제어될 수 있다. 예를 들면, 관련된 처리 데이터(예를 들면, 처리 데이터(140))는, 모션에 있어서 블러링 효과를 생성하는 것으로 알려진 특정 알고리즘이 픽셀에 적용되었음을 표시할 수 있다. 이러한 지식은 인스턴트 처리 연산을 조정하여, 움직이는 객체의 에지(edge)와 같은 특정 픽셀의 샤프니스(sharpness)를 개선하는 데 이용될 수 있다.The processing in step 208 may also be dynamically controlled based on the prior processing of the pixels supplied to the processing operation. For example, associated process data (eg, process data 140) may indicate that a particular algorithm known to produce a blurring effect in motion has been applied to the pixel. This knowledge can be used to adjust instant processing operations to improve the sharpness of certain pixels, such as the edges of moving objects.

다른 처리 연산 또는 단계(208)에서 처리된 것과 다른 픽셀과 관련된 분류 데이터 또는 처리 데이터는, 또한 단계(208)에서 이미지 처리 연산을 제어하기 위해 사용될 수 있다. 도 4에 나타난 바와 같이, 다양한 후처리 연산 단계(예를 들면, 210, 212, 214 및 216에서) 후에, 210에서 또 다른 처리 연산이 수행될 수 있다. 도 1은, 원하는 시퀀스에서 다수의 상이한 처리 연산(즉, 상이한 이미지 처리 블록(28)에 상응하는)이 수행될 수 있는 파이프라인 처리와 유사한 방식을 보여주고 있다. 도 4의 방법에서, 단계(208)의 각 통과에 대해, 상이한 처리 연산이 수행될 수 있다. 예를 들면, 첫 번째 통과에서 디인터레이싱 연산이 수행될 수 있으며, 그 후의 통과에서 이미지 보간, 색 처리 및 노이즈 필터링이 수행될 수 있다.Classification data or processing data associated with other processing operations or pixels other than those processed in step 208 may also be used to control image processing operations in step 208. As shown in FIG. 4, after various post processing operations steps (eg, at 210, 212, 214, and 216), another processing operation may be performed at 210. Figure 1 shows a manner similar to pipeline processing in which a number of different processing operations (ie, corresponding to different image processing blocks 28) can be performed in the desired sequence. In the method of FIG. 4, for each pass of step 208, a different processing operation may be performed. For example, a deinterlacing operation may be performed in the first pass, and image interpolation, color processing, and noise filtering may be performed in the subsequent pass.

주어진 처리 연산에 대해, 파이프라인에서 다른 처리 연산 중 하나에서 일어나는 분류 데이터 또는 처리 데이터가 처리 연산에 작용하도록 사용될 수 있다. 디인터레이싱, 이미지 보간 및 색 처리 연산을 하는 파이프라인에서, 예를 들면, 이미지 보간 처리로부터의 출력 픽셀에 대한 분류 데이터가 디인터레이싱 처리를 제어하기 위해 이용될 수 있다. 이러한 세팅에서, 이미지 보간 처리로부터 도출되는 픽셀의 분석은, 디인터레이싱 처리 파라미터에 대한 조정으로써 최선으로 다뤄지는 이미지 품질의 이슈를 드러낼 수 있다. 처리 데이터는 또한 파이프라인에서 연산을 통해 피드포워드 또는 피드백워드될 수 있다. 상술한 예에서, 이미지 보간 블록으로부터의 처리 데이터는 샤프니스를 개선하기 위한 필터 상수의 반복된 사용을 보여줄 수 있다. 이 처리 데이터는 파이프라인을 통해 피드포워드 또는 피드백워드(업스트림 또는 다운스트림)될 수 있으며, 파이프라인의 다른 부분에서 샤프니스가 더 효율적으로 다뤄질 수 있으면, 처리 태스크는 다른 블록으로 이동한다.For a given processing operation, classification data or processing data occurring in one of the other processing operations in the pipeline may be used to act on the processing operation. In pipelines that perform deinterlacing, image interpolation, and color processing operations, for example, classification data for output pixels from image interpolation processing may be used to control the deinterlacing process. In this setting, analysis of pixels resulting from image interpolation processing may reveal issues of image quality that are best addressed as adjustments to the deinterlacing processing parameters. Process data can also be feedforward or feedbackword through operations in the pipeline. In the above example, the processing data from the image interpolation block can demonstrate repeated use of filter constants to improve sharpness. This processing data can be feedforward or feedback word (upstream or downstream) through the pipeline, and if the sharpness can be handled more efficiently in other parts of the pipeline, the processing task moves to another block.

도 4를 참조하면, 선택된 처리 연산 후에, 처리 연산으로부터 나온 출력 픽셀은 210에서 재분석 및/또는 재그룹핑될 수 있다. 전형적으로, 주파수 정보가 변하고, 그라디언트가 변화하며, 모션 벡터가 변경될 수 있는 등, 픽셀 또는 픽셀들에 대한 분류 데이터는 적용된 처리 연산의 결과로서 변화한다. 그리고 나서, 픽셀 또는 픽셀들에 대한 분류 데이터는 212에서 업데이트될 수 있다. 부가적으로, 또는 선택적으로, 픽셀에 대한 처리 정보는 단계(212)에서 업데이트될 수 있다. 실제로, 예를 들면 클래스(120, 도 3)와 같은 멀티 필드 클래스의 관련 필드를 업데이트함으로써, 픽셀과 관련된 어떤 분류 또는 처리 정보도 업데이트될 수 있다.4, after the selected processing operation, output pixels resulting from the processing operation may be reanalyzed and / or regrouped at 210. Typically, the classification data for a pixel or pixels changes as a result of the applied processing operation, such as frequency information changing, gradient changing, motion vector changing, and so on. The classification data for the pixel or pixels may then be updated at 212. Additionally, or optionally, processing information for the pixel may be updated at step 212. Indeed, by updating relevant fields of a multi-field class, such as for example class 120 (FIG. 3), any classification or processing information associated with a pixel can be updated.

상기 설명으로부터, 픽셀이 처리 파이프라인을 통과함에 따라, 픽셀 특성이 변화하고, 상이한 처리 파라미터들 및 알고리즘들이 처리 동안 적용되는 등, 주어진 픽셀 또는 픽셀들에 대한 분류 및 처리 데이터가 동적으로 변화될 수 있다. 이러한 변하는 분류/처리 정보는 시스템 내의 어떤 지점에서도 발생하는 처리 연산을 동적으로 조정하도록 처리 파이프라인을 통해서 피드포워드 및 피드백워드될 수 있다. 실제로, 단계(214)에서, 방금 완료된 처리 연산(단계 208)으로부터 일어나는 업데이트된 분류/처리 정보는 처리 파이프라인의 원하는 부분으로 넘어가, 이미지 처리 연산 상의 잠재적인 피드포워드 및 피드백 효과를 갖는다. 216에서, 부가적인 처리 연산이 픽셀 상에 수행되려는 경우(예를 들면, 처리 파이프라인의 다운스트림 블록에서), 방법(200)은 단계(208)로 돌아가 다음 선택된 처리 연산을 수행한다.From the above description, as a pixel passes through the processing pipeline, the classification and processing data for a given pixel or pixels may change dynamically, such as the pixel characteristics changing, and different processing parameters and algorithms applied during processing. have. This varying classification / processing information can be feedforwarded and feedbackworded through the processing pipeline to dynamically adjust processing operations occurring at any point in the system. In practice, in step 214, the updated classification / processing information resulting from the processing operation just completed (step 208) is passed to the desired portion of the processing pipeline, with potential feedforward and feedback effects on the image processing operation. At 216, if additional processing operations are to be performed on the pixel (eg, in a downstream block of the processing pipeline), the method 200 returns to step 208 to perform the next selected processing operation.

부가적인 처리 연산이 수행되지 않는 경우, "백엔드(back-end) 분석" 및 비교가 220 및 222에서 수행될 수 있다. 이는 최종 출력 픽셀에 대한 업데이트된 분류 정보를 획득하기 위한 부가적인 분석의 수행을 포함할 수 있다. 이 백엔드 분석의 결과는, 처리 파이프라인 내에서 발생하는 임의의 처리 연산을 더 동적으로 조정 또는 제어하기 위해, 204 및 206에서 획득된 프론트엔드 데이터와 비교될 수 있다. 도 1의 예시적 시스템의 상황에서, 초기 입력 픽셀의 특성은, 처리 목표가 달성되었는지 여부를 평가하기 위해, 최종 출력 영상 프레임을 포함하는 픽셀의 분류와 비교될 수 있다. 그 다음에, 이러한 비교는, 224에 나타난 바와 같이, 이미지 처리 파이프라인에서 처리 블록(28)에 의해 수행되는 처리 연산을 동적으로 조정하기 위해 이용될 것이다. 처리 후에, 226에 나타난 바와 같이 영상 프레임이 출력된다.If no further processing operations are performed, "back-end analysis" and comparison may be performed at 220 and 222. This may include performing additional analysis to obtain updated classification information for the final output pixel. The results of this backend analysis can be compared with the frontend data obtained at 204 and 206 to more dynamically adjust or control any processing operation occurring within the processing pipeline. In the context of the example system of FIG. 1, the characteristics of the initial input pixel may be compared with the classification of the pixel that contains the final output image frame to assess whether a processing goal has been achieved. This comparison will then be used to dynamically adjust the processing operations performed by the processing block 28 in the image processing pipeline, as shown at 224. After the processing, an image frame is output as shown at 226.

설명한 이미지 처리 시스템 및 방법의 전형적인 실시형태는 디인터레이싱, 이미지 보간 및 색 처리 연산을 포함한다. 이러한 연산들은, 도 5에 개략적으로 도시된 것과 같이, 처리 파이프라인에서 순차적으로 수행될 수 있다. 앞서 논의한 대로, 입력 픽셀은 각 블록에 적용되며, 픽셀이 처리되고 처리 파이프라인을 통과함에 따라 전형적으로 변하는 분류 정보 및/또는 처리 정보에 근거하여, 관련된 처리 연산이 동적으로 제어된다.Typical embodiments of the described image processing systems and methods include deinterlacing, image interpolation, and color processing operations. These operations may be performed sequentially in the processing pipeline, as shown schematically in FIG. 5. As discussed above, an input pixel is applied to each block, and the associated processing operations are dynamically controlled based on classification information and / or processing information that typically changes as the pixel is processed and passes through the processing pipeline.

앞서 논의한 바와 같이, 설명한 시스템 및 방법의 전형적인 실시형태는 디인터레이싱 블록 또는 처리 연산을 포함한다. 많은 영상 신호는 일반적으로, 주어진 영상 프레임에 대해 이미지 씬(scene)의 하나 건너의 수평선이 주사되고 전송되는, 인터레이싱된 형식으로 제공된다. 짝수 및 홀수 주사선은 영상 프레임에서 교대로 연속하여 나타난다. 결과적으로, 초당 60 프레임의 영상이 디스플레이되는 시스템에서, 짝수 선을 포함하는 영상 프레임은 30번 디스플레이되며, 홀수 선을 포함하는 영상 프레임은 30번 디스플레이된다. 이러한 인터레이싱된 신호에서, 주어진 영상 프레임은 50%의 수직 해상도를 포함할 뿐이다.As discussed above, typical embodiments of the systems and methods described include deinterlacing blocks or processing operations. Many video signals are typically provided in an interlaced format, in which horizontal lines across one of the image scenes are scanned and transmitted for a given video frame. Even and odd scan lines appear alternately in succession in an image frame. As a result, in a system in which an image of 60 frames per second is displayed, an image frame including even lines is displayed 30 times, and an image frame including odd lines is displayed 30 times. In this interlaced signal, a given image frame only contains 50% vertical resolution.

도 6을 참조하여, 인터레이싱된 영상 프레임이 완전한(full) 수직 해상도를 갖는 신호로 변환되는 예시적인 디인터레이싱 블록의 연산을 설명한다. 프레임(260 및 262)은 인터레이싱된 영상 신호의 영상 프레임이다. 표시한 바와 같이, 프레임(262)은 현재 프레임으로 칭하고, 반면에 프레임(260)은 이전 프레임으로 칭할 수 있다. 각 프레임은, 프레임 내의 픽셀의 행 및 열 위치를 표시하는 {행,열}로 표기된 복수의 픽셀을 포함한다. With reference to FIG. 6, an operation of an exemplary deinterlacing block in which an interlaced image frame is converted into a signal having full vertical resolution is described. Frames 260 and 262 are video frames of interlaced video signals. As indicated, frame 262 may be referred to as the current frame, while frame 260 may be referred to as the previous frame. Each frame includes a plurality of pixels, denoted by {row, column}, indicating the row and column positions of the pixels within the frame.

완전한 수직 해상도를 갖는 프레임을 구성하기 위해, 다양한 방법이 사용될 수 있다. 현재 프레임의 누락된 행은, 필드 메싱(meshing)으로 알려진 방법으로 이전 프레임으로부터 단순히 획득되어 추가될 수 있다. 메싱은, 특히 포함된 픽셀이 정적이거나 작은 정도의 모션을 보이는 경우에, 고품질의 디인터레이싱된 이미지를 제공할 수 있다. 부가적으로, 또는 선택적으로, 하나 이상의 인접한 픽셀의 속성에 근거하여 목표 픽셀이 보간되는, 다양한 종류의 보간이 사용될 수 있다. 예를 들면, 인접한 픽셀 {1,2} 및 {3,2} 또는 픽셀 {1,1}, {1,2}, {1,3}, {3,1}, {3,2} 및 {3,3}과 같이 더 큰 세트의 인접한 픽셀의 속성(예를 들면, 명도, 색상, 채도 등)을 평균을 내거나 다른 방법으로 보간을 함으로써, 현재 프레임(262)의 누락된 픽셀 {2,2}이 보간될 수 있다.Various methods can be used to construct a frame with full vertical resolution. The missing row of the current frame can be simply obtained from the previous frame and added in a manner known as field meshing. Meshing can provide a high quality deinterlaced image, especially if the pixels involved exhibit a static or small degree of motion. Additionally, or alternatively, various kinds of interpolation may be used, in which the target pixel is interpolated based on the attributes of one or more adjacent pixels. For example, adjacent pixels {1,2} and {3,2} or pixels {1,1}, {1,2}, {1,3}, {3,1}, {3,2} and { Missing pixels {2,2 in current frame 262 by averaging or otherwise interpolating the properties of a larger set of adjacent pixels (e.g., brightness, hue, saturation, etc.) } Can be interpolated.

도 7은, 입력 픽셀(282)을 수신하고, 적용된 제어 신호(284)에 근거하여 픽셀 상에 디인터레이싱 연산을 수행하며, 처리된 픽셀(286)을 디인터레이싱된 형식으로 출력하도록 설정될 수 있는, 본 명세서에 따른 예시적인 디인터레이싱 블록(280)을 도시한다. 도 1에 나타난 것과 같은 시스템에서 디인터레이싱 블록(280)이 구현될 수 있는데, 이 경우 상기 블록은 도 1의 처리 파이프라인에서 처리 블록(28) 중 하나일 수 있을 것이다.FIG. 7 is a diagram that may be configured to receive an input pixel 282, perform a deinterlacing operation on a pixel based on an applied control signal 284, and output the processed pixel 286 in a deinterlaced format. An exemplary deinterlacing block 280 in accordance with the specification is shown. Deinterlacing block 280 may be implemented in a system such as that shown in FIG. 1, which may be one of the processing blocks 28 in the processing pipeline of FIG. 1.

도 2를 참조하여 설명된 처리 블록과 유사하게, 블록(280)에 의해 수행되는 특정 처리 연산 또는 방법(예를 들면, 디인터레이싱)은 입력 픽셀(282)과 관련된 분류 및/또는 처리 데이터에 따라 실시간으로 동적으로 변화될 수 있다. 부가적으로, 또는 선택적으로, 파이프라인에서의 다른 처리 블록과, 또는 픽셀(282) 이외의 픽셀과 관련된 분류 및/또는 처리 데이터는 디인터레이싱 연산을 동적으로 변화시키기 위해 이용될 수 있다. 예를 들면, 누락된 픽셀을 재구성하기 위한 보간법 및 필드 메싱 중에서 선택하는 것은 모션 분류 데이터에 의해 대부분 결정될 수 있다. 메싱은, 연속한 인터레이싱된 영상 프레임 사이에 발생하는 시간적 이동(shift)에 기인한, "티어링(tearing)" 또는 "페더링(feathering)" 효과를 일으킬 수 있으므로, 메싱은 움직이는 픽셀에 대해서는 바람직하지 않다. 높은 정도의 모션을 갖는 픽셀에 대해서는 보간이 더 바람직할 수 있다.Similar to the processing block described with reference to FIG. 2, the particular processing operation or method (eg, deinterlacing) performed by block 280 may be in real time according to the classification and / or processing data associated with the input pixel 282. Can be changed dynamically. Additionally, or alternatively, other processing blocks in the pipeline, and classification and / or processing data associated with pixels other than pixel 282 may be used to dynamically change the deinterlacing operation. For example, the choice between interpolation and field meshing for reconstructing missing pixels can be largely determined by motion classification data. Meshing may cause "tearing" or "feathering" effects due to temporal shifts occurring between successive interlaced image frames, so meshing is desirable for moving pixels. Not. Interpolation may be more desirable for pixels with a high degree of motion.

반대로, 정적이거나 상대적으로 정적인 이미지는 필드 메싱과 같은 비보간적 방법을 이용한 디인터레이싱에 보다 더 적합할 수 있다. 어떤 사례에서의 메싱은 더 날카로운 이미지를 생성할 수 있으며, 모션이 작은 이미지의 디인터레이싱에 대해 더 바람직할 수 있다. 예시적인 블록(280)은 보간적 방법 및 비보간적 방법 중에서 선택하는 것뿐만이 아니라, 제어 신호(284) 내에 매입된 분류 및/또는 처리 데이터 또는 다른 파라미터에 근거하여 원하는 적절한 가중치로 이 방법들을 혼합하도록 설정될 수도 있다. 도시된 예에서, 제어 신호는 순수한 메싱 방법, 순수한 보간적 방법, 또는 두 극단의 어떤 혼합이든지 그 배치를 야기할 수 있다.In contrast, static or relatively static images may be more suitable for deinterlacing using non-interpolated methods such as field meshing. Meshing in some cases may produce sharper images, and may be more desirable for deinterlacing small images. Exemplary block 280 not only selects between interpolated and non-interpolated methods, but also mixes these methods with the desired appropriate weights based on the classification and / or processing data or other parameters embedded in control signal 284. It may be set. In the example shown, the control signal can cause the placement of a pure meshing method, a pure interpolation method, or any mixture of two extremes.

분류 데이터 및/또는 처리 데이터에 근거하여 임의의 수의 디인터레이싱 방법이 선택되거나 선택적으로 조합될 수 있으며, 이에는 FIR 필터로의 필드 혼합, 중앙값(median) 필터의 이용, 라인 더블링(line doubling), 수직 시간 필터의 이용, 평균화 필터 등을 포함된다. N개의 교대되는(alternate) 디인터레이싱 방법들 또는 알고리즘들로써의 인터레이싱 처리 블록으로 일반화하면, 본 시스템은, 처리 데이터 및/또는 분류 데이터에서 이용가능한 풍부한 제어 데이터에 기초하여, 어떤 원하는 방법으로도 교대되는 방법들 사이의 크로스페이드(cross-fade) 또는 조합을 하여 사용될 수 있다. 소정의 교대되는 방법들은 다른 방법보다 더 높게 가중치가 부여되거나 강조될 수 있고, 다른 것들을 배제하고 하나의 특정한 방법이 선택될 수 있다. 즉, 각 이용가능한 디인터레이싱 방법이 목표 픽셀 또는 픽셀들을 생성하기 위한 디인터레이싱 처리에 참여하는 정도를 제어하기 위해 분류 데이터 및/또는 처리 데이터가 이용될 수 있다.Any number of deinterlacing methods may be selected or selectively combined based on the classification data and / or process data, including field mixing into the FIR filter, using median filters, line doubling, The use of vertical time filters, averaging filters, and the like. Generalizing to an interlacing processing block with N alternating deinterlacing methods or algorithms, the system alternates in any desired manner based on the abundant control data available in the processing data and / or classification data. Cross-fades or combinations between the methods can be used. Certain alternating methods may be weighted or highlighted higher than other methods, and one particular method may be chosen to exclude others. That is, classification data and / or processing data may be used to control the degree to which each available deinterlacing method participates in the deinterlacing process for generating the target pixel or pixels.

도 7의 이러한 예는, 실시간으로 처리를 동적으로 조정하기 위해, 분류 데이터 및 처리 데이터가 어떻게 피드포워드 및/또는 피드백워드되는지를 설명하기 위해 이용될 수 있다. 입력 픽셀(282)이 영상 프레임의 특별한 영역으로부터 온 것을 가정하고, 픽셀(282)과 관련된 분류 데이터는 영상 프레임의 그 부분에서 높은 정도의 모션을 표시한다고 가정한다. 그러면 디인터레이싱 블록(282)에서의 처리는, 페더링 또는 다른 원치 않는 가공물을 피하기 위해, 보간에 대해 더 높게 가중치가 부여된 방법, 아마도 순전한 보간적 방법까지도 이용하여 완전한 수직 해상도를 구성하도록 동적으로 조정될 수 있다.This example of FIG. 7 may be used to illustrate how classification data and processing data are feedforward and / or feedbackword to dynamically adjust processing in real time. Assume that input pixel 282 is from a particular region of an image frame, and that classification data associated with pixel 282 represents a high degree of motion in that portion of the image frame. The processing at deinterlacing block 282 then dynamically constructs a complete vertical resolution using even higher weighted methods, perhaps purely interpolated methods, to avoid feathering or other unwanted artifacts. Can be adjusted.

앞서 논의된 바와 같이, 보간적인 디인터레이싱 방법은 블러링 효과 또는 다른 샤프니스의 손실을 야기할 수 있다. 상술한 예로 계속하면, 디인터레이싱 동안에 보간을 사용하는 것 때문에 샤프니스의 손실이 발생하였다면, 이는 출력 픽셀에 대해 획득된 분류 데이터에 반영될 것이다(예를 들면, 도 1의 분석/분류 블록(26)에 의해). 관련된 분류 데이터는 다운스트림으로 흘러 다음 처리 블록에 도달할 것이며, 처리 알고리즘을 조정하는 데 있어 샤프니스 부족의 요인으로 작용할 것이다. 교대되는 실시형태에서 분류 데이터가 업스트림으로 전송될 것이다.As discussed above, interpolated deinterlacing methods can cause blurring effects or other loss of sharpness. Continuing with the example described above, if a loss of sharpness occurred due to the use of interpolation during deinterlacing, this would be reflected in the classification data obtained for the output pixel (e.g., in the analysis / classification block 26 of Figure 1). due to). The associated classification data will flow downstream to reach the next processing block, which will cause a lack of sharpness in adjusting the processing algorithm. In alternate embodiments, classification data will be sent upstream.

부가적으로, 또는 선택적으로, 디인터레이싱 연산 자체에 대한 정보는 업스트림 또는 다운스트림으로 보고될 수 있다. 본 예에서, 보고된 처리 정보는 높은 정도의 보간법이 디인터레이싱에 사용되었다는 것을 표시할 것이다. 디인터레이싱 연산으로부터 초래되는 샤프니스 손실을 보상하기 위한 응답으로 다른 처리 연산이 동적으로 조정될 수 있다.Additionally or alternatively, information about the deinterlacing operation itself may be reported upstream or downstream. In this example, the reported processing information will indicate that a high degree of interpolation was used for deinterlacing. Other processing operations may be dynamically adjusted in response to compensation for sharpness loss resulting from the deinterlacing operation.

입력 픽셀의 해상도를 변화시키는 연산(이미지 보간법) 또는 처리 블록을 제어하기 위해 분류 및/또는 처리 데이터는 업스트림 또는 다운스트림으로 공급될 수 있다. 해상도 변경은 입력 영상 프레임의 상이한 영역에 다르게 적용될 수 있으며, 해상도의 축소 및/또는 해상도의 증대(업컨버전(upconversion))를 포함할 수 있다. 해상도를 변화시키기 위해 사용되는 방법들은 입력된 분류 및/또는 처리 데이터에 근거하여 동적으로 제어될 수 있다. 전형적으로, 동적인 제어는 목표 픽셀을 얻어내기 위해 이용되는 이미지 스케일링 계수의 동적인 변화를 야기한다. 계수의 동적인 제어는 이미지의 스케일이 커지는지 또는 작아지는지 여부에 사용될 수 있고, 나아가 선형 및 비선형의 방법과 함께 사용될 수 있다.The classification and / or processing data may be supplied upstream or downstream to control the processing (image interpolation) or processing blocks that change the resolution of the input pixel. The resolution change may be differently applied to different regions of the input image frame, and may include a reduction in resolution and / or an increase in resolution (upconversion). The methods used to change the resolution may be dynamically controlled based on the input classification and / or processing data. Typically, dynamic control results in a dynamic change in the image scaling factor used to obtain the target pixel. Dynamic control of the coefficients can be used whether the scale of the image is large or small, and can also be used with linear and nonlinear methods.

예를 들면, 입력 픽셀을 샘플링(sampling)하고 샘플링된 값을 새로운 더 큰 픽셀의 그리드에 적용함으로써 업컨버전이 달성될 수 있으며, 이 프로세스는, 비록 보간법이 일반적으로 사용됨에도 불구하고, "가장 인접한 이웃(nearest neighbor)" 방법을 이용한 픽셀 복제를 포함할 수 있다. 한 가지 일반적인 방법은, 다수의 계수 필터를 사용하는, 입방 회선(cubic convoluting) 보간법이다. 도 8을 참조하면, 픽셀 그리드가 보여진다. 그리드의 중간에는 값이 결정되어야 하는 목표 픽셀이 있다. 보간법은 인접한 픽셀의 값을 평가함으로써 이 픽셀을 결정할 수 있다. 인접한 픽셀의 값이 목표 픽셀로부터의 거리와 함께 고려될 수 있다.For example, upconversion can be achieved by sampling the input pixels and applying the sampled values to a grid of new, larger pixels, which process, although interpolation is generally used, can Pixel replication using a " nearest neighbor " One common method is cubic convoluting interpolation, using multiple coefficient filters. Referring to FIG. 8, a pixel grid is shown. In the middle of the grid is the target pixel whose value must be determined. Interpolation can determine this pixel by evaluating the values of adjacent pixels. The value of an adjacent pixel can be considered along with the distance from the target pixel.

실제로, 입방 회선 보간법은 4개의 알려진 픽셀에 기초하여 보간하는 것을 포함한다. 예를 들면, 도 8의 수평 방향에서, 목표 픽셀은, 알려진 픽셀의 값 및 목표 픽셀로부터의 거리를 고려하여, 알려진 픽셀 값 {2,0}, {2,1}, {2,3} 및 {2,4}로부터 보간될 수 있다. 주파수가 높게 변환된(upconverted) 이미지에서 노이즈 또는 다른 고주파수의 가공물을 필터 아웃하고 특정 픽셀에 더 높은 가중치를 부여하도록, 이미지 스케일링 계수가 또한 사용될 수 있다. 보간법은 전형적으로, 목표 픽셀의 값을 결정하기 위해 수평 및 수직 방향 양쪽에 적용될 수 있다.In practice, cubic line interpolation involves interpolating based on four known pixels. For example, in the horizontal direction of FIG. 8, the target pixel may be configured with known pixel values {2,0}, {2,1}, {2,3} and Can be interpolated from {2,4}. Image scaling coefficients can also be used to filter out noise or other high frequency artifacts in an upconverted image and to give higher weights to particular pixels. Interpolation can typically be applied in both the horizontal and vertical directions to determine the value of the target pixel.

픽셀과 관련된, 또는 다른 소스로부터의 분류 데이터 및 처리 데이터는 이미지 보간법을 동적으로 조정하기 위해 이용될 수 있다. 보간 계수는 입력 픽셀과 관련된 모션, 그라디언트, 및/또는 주파수 정보에 근거하거나 이에 따라서 결정될 수 있다. 기존의 처리 알고리즘이 차선의(sub-optimal) 샤프니스 개선을 제공했다면, 이미지의 일부에서 샤프니스를 개선하거나 보존하기 위한 이미지 보간을 위해 필터 계수가 선택될 수 있다.Classification data and processing data related to pixels, or from other sources, can be used to dynamically adjust image interpolation. Interpolation coefficients may be determined based on or according to motion, gradient, and / or frequency information associated with the input pixel. If existing processing algorithms provided sub-optimal sharpness enhancement, filter coefficients may be selected for image interpolation to improve or preserve sharpness in portions of the image.

여기서 논의된 동적인 제어 및 피드포워드 및 피드백 피쳐는 색 처리 및 다른 이미지 처리 연산에도 동등하게 적용될 수 있다. 색 처리의 상황에서, 입력 픽셀과 관련된 분류 데이터 및 처리 데이터의 변화는, 입력 픽셀의 명도, 콘트라스트, 색상, 채도, 색 공간 변환 등을 변화시키기 위해 이용되는 알고리즘을 선택, 조정, 또는 제어하기 위해 이용될 수 있다. 픽셀의 전체 밝기는 픽셀에 대한 모션 정보에 응하여 감소될 수 있다. 교합(occlusion) 문제와 관련된 가공물을 식별하고 정정하기 위해 픽셀 또는 픽셀들에 대한 모션 히스토리가 이용될 수 있다. 제어가 입력 픽셀에 관련된 데이터에 근거하는 것에 더하여, 또는 그 대신에, 제어는 처리 파이프라인의 다른 부분으로부터 공급되는 분류 또는 처리 데이터에 근거할 수 있다(피드백 또는 피드포워드 설정을 통해).The dynamic control and feedforward and feedback features discussed herein are equally applicable to color processing and other image processing operations. In the context of color processing, changes in the classification data and processing data associated with an input pixel may be used to select, adjust, or control the algorithm used to change the brightness, contrast, hue, saturation, color space conversion, etc. of the input pixel. Can be used. The overall brightness of the pixel may be reduced in response to motion information for the pixel. Motion history for a pixel or pixels can be used to identify and correct a workpiece associated with an occlusion problem. In addition to or instead of the control being based on data related to the input pixel, the control may be based on classification or processing data supplied from other portions of the processing pipeline (via feedback or feedforward settings).

제어를 입력 픽셀과 관련된 데이터에 기초하는 것에 더해, 또는 그 대신에, 처리 파이프라인의 다른 부분으로부터 공급되는 분류 또는 처리 데이터에 제어가 기초할 수 있다(피드백 또는 피드포워드 구성을 통해). In addition to, or instead of, controlling the control based on the data associated with the input pixel, the control may be based on classification or processing data supplied from another portion of the processing pipeline (via feedback or feedforward configuration).

본 실시형태 및 방법 구현이 특별히 나타나고 설명되었지만, 당업자라면 본 발명의 사상 및 영역으로부터 벗어나지 않고 다양한 변형이 가능하다는 것을 알 수 있을 것이다. 본 명세는 설명된 요소의 모든 불분명하고 새로운 조합을 포함하며, 청구항은 본 출원 또는 후의 출원에서 이러한 요소들의 어떤 불분명하고 새로운 조합에 대해서도 나타낸다. 청구항이 하나의 요소, 또는 제1 요소 또는 그와 동등한 것으로 기술하는 경우, 이러한 청구항은 하나 이상의 이러한 요소의 혼합을 포함하며, 둘 이상의 이러한 요소를 요구하거나 배제하는 것이 아니다.While the embodiments and method implementations have been shown and described in detail, those skilled in the art will recognize that various modifications may be made without departing from the spirit and scope of the invention. This specification includes all unclear and new combinations of the described elements, and the claims represent any unclear and new combination of these elements in this or a later application. Where a claim describes one element, or first element, or equivalent, such claim includes a mixture of one or more such elements and does not require or exclude two or more such elements.

Claims (28)

디지털 이미지를 처리하는 시스템으로서,As a system for processing digital images, 처리기 및 메모리를 포함하는 제어기;A controller including a processor and a memory; 상기 제어기와 동작적으로 결합되어 있는 복수의 이미지 처리 블록으로서, 각 이미지 처리 블록은 상이한 이미지 처리 연산을 수행하도록 설정되고, 상기 이미지 처리 블록들 및 제어기는 상호 연결되어 순차적인 픽셀 처리를 제공하도록 설정되고, 각 이미지 처리 블록은 출력 픽셀을 생성하도록 입력 픽셀을 처리하고, 상기 이미지 처리 블록들 중 업스트림(upstream)인 것의 출력 픽셀이, 상기 이미지 처리 블록들 중 다운스트림(downstream)인 것으로의 입력 픽셀로서 피드포워드(feed forward) 되는, 복수의 이미지 처리 블록; 및A plurality of image processing blocks operatively coupled with the controller, each image processing block being set to perform a different image processing operation, wherein the image processing blocks and the controller are set to be interconnected to provide sequential pixel processing Each image processing block processes an input pixel to produce an output pixel, and an output pixel of which an upstream of the image processing blocks is downstream of the image processing blocks A plurality of image processing blocks, feed forward as; And 상기 이미지 처리 블록들 각각에 대해, 이미지 처리 블록에 적용되는 입력 픽셀에 대한 업데이트된 분류 데이터를 획득하도록 설정되고, 각 이미지 처리 블록에서의 처리가 상기 이미지 처리 블록에 적용된 상기 입력 픽셀에 대한 업데이트된 분류 데이터에 기초하여 동적으로 제어되는, 분류 블록을 포함하는, 이미지 처리 시스템.For each of the image processing blocks, it is set to obtain updated classification data for an input pixel applied to the image processing block, and processing in each image processing block is updated for the input pixel applied to the image processing block. And a classification block, dynamically controlled based on the classification data. 청구항 1에 있어서, 상기 이미지 처리 블록들 중 적어도 하나에 대해, 상기 제어기는, 해당 이미지 처리 블록과 관련된 다수의 상이한 처리 기법을 선택적으로 조합함으로써 처리를 동적으로 제어하도록 설정되며, 이러한 선택적인 조합은, 해당 이미지 처리 블록에 적용된 상기 입력 픽셀의 업데이트된 분류 데이터에 기초하여 수행되는, 이미지 처리 시스템.The method of claim 1, wherein for at least one of the image processing blocks, the controller is configured to dynamically control processing by selectively combining a plurality of different processing techniques associated with the image processing block, the optional combination being And based on the updated classification data of the input pixel applied to the corresponding image processing block. 청구항 2에 있어서, 상기 제어기는, 상기 이미지 처리 블록들 중 적어도 하나에서의 처리 기법의 선택적 조합에 기초하여 상기 이미지 처리 블록들 중 다른 것에서 발생하는 처리를 동적으로 제어하도록 설정된, 이미지 처리 시스템.The image processing system of claim 2, wherein the controller is configured to dynamically control processing occurring in another of the image processing blocks based on an optional combination of processing techniques in at least one of the image processing blocks. 청구항 1에 있어서, 상기 제어기는, 상기 이미지 처리 블록들 중 하나에 적용되는 샤프니스(sharpness) 제어를, 상기 이미지 처리 블록들 중 다른 것에 적용된 처리 기법에 기초하여, 동적으로 변화시키도록 설정된, 이미지 처리 시스템.The image processing of claim 1, wherein the controller is configured to dynamically change sharpness control applied to one of the image processing blocks based on a processing technique applied to another of the image processing blocks. system. 청구항 1에 있어서, 상기 이미지 처리 블록들 중 하나는, 이미지 보간기(interpolator) 블록에 적용된 상기 입력 픽셀의 해상도를 변경하도록 설정된 상기 이미지 보간기 블록이며, 상기 이미지 보간기 블록에서 처리를 동적으로 제어하는 것은, 상기 이미지 보간기 블록의 상기 출력 픽셀을 얻어내도록 이용되는 이미지 스케일링(scaling) 계수를 동적으로 변화시키는 것을 포함하는, 이미지 처리 시스템.The image interpolator block of claim 1, wherein one of the image processing blocks is the image interpolator block set to change the resolution of the input pixel applied to the image interpolator block, and wherein the image interpolator block dynamically controls processing. And including dynamically changing an image scaling factor used to obtain the output pixel of the image interpolator block. 청구항 1에 있어서, 상기 이미지 처리 블록들은 디인터레이싱(de-interlacing) 블록, 해상도 변경을 초래하도록 설정된 이미지 보간기 블록, 및 색 처리 블록을 포함하는, 이미지 처리 시스템.The image processing system of claim 1, wherein the image processing blocks comprise a de-interlacing block, an image interpolator block set to cause a resolution change, and a color processing block. 청구항 6에 있어서, 상기 이미지 보간기 블록에서의 처리는, 상기 디인터레이싱 블록에서의 처리에 응하여 동적으로 제어되는, 이미지 처리 시스템.The image processing system of claim 6, wherein the processing at the image interpolator block is dynamically controlled in response to the processing at the deinterlacing block. 청구항 6에 있어서, 상기 색 처리 블록에서의 처리는, 상기 이미지 보간기 블록에서의 처리에 응하여 동적으로 제어되는, 이미지 처리 시스템.The image processing system of claim 6, wherein the processing in the color processing block is dynamically controlled in response to the processing in the image interpolator block. 청구항 1에 있어서, 상기 업데이트된 분류 데이터는 상기 입력 픽셀과 관련된 모션 데이터를 포함하는, 이미지 처리 시스템.The image processing system of claim 1, wherein the updated classification data includes motion data associated with the input pixel. 청구항 1에 있어서, 상기 업데이트된 분류 데이터는 상기 입력 픽셀과 관련된 주파수 데이터를 포함하는, 이미지 처리 시스템.The image processing system of claim 1, wherein the updated classification data includes frequency data associated with the input pixel. 청구항 1에 있어서, 상기 업데이트된 분류 데이터는 상기 입력 픽셀과 관련된 색 데이터를 포함하는, 이미지 처리 시스템.The image processing system of claim 1, wherein the updated classification data includes color data associated with the input pixel. 디지털 이미지를 처리하는 시스템으로서,As a system for processing digital images, 처리기 및 메모리를 포함하는 제어기; 및A controller including a processor and a memory; And 상기 제어기와 동작적으로 결합된 복수의 이미지 처리 블록으로서, 각 이미지 처리 블록은 상이한 이미지 처리 연산을 수행하도록 설정되고, 상기 이미지 처리 블록들 및 제어기는 상호 연결되어 순차적인 픽셀 처리를 제공하도록 설정되고, 각 이미지 처리 블록은 출력 픽셀을 생성하도록 입력 픽셀을 처리하고 , 상기 이미지 처리 블록들 중 업스트림인 것의 출력 픽셀이, 상기 이미지 처리 블록들 중 다운스트림인 것으로의 입력 픽셀로서 피드포워드되는, 복수의 이미지 처리 블록을 포함하며,A plurality of image processing blocks operatively coupled with the controller, each image processing block being set to perform a different image processing operation, wherein the image processing blocks and the controller are set to be interconnected to provide sequential pixel processing; Each image processing block processes an input pixel to produce an output pixel, and wherein an output pixel of an upstream of the image processing blocks is feedforward as an input pixel to a downstream of the image processing blocks. Including image processing blocks, 상기 제어기는, 상기 이미지 처리 블록들 중 하나에서 수행되는 상기 이미지 처리 연산을, 상기 이미지 처리 블록들 중 다른 것에서 수행되는 상기 이미지 처리 연산에 기초하여, 동적으로 제어하도록 설정된, 이미지 처리 시스템.And the controller is configured to dynamically control the image processing operation performed in one of the image processing blocks based on the image processing operation performed in another of the image processing blocks. 청구항 12에 있어서, 상기 제어기는, 상기 이미지 처리 블록들에 의해 처리된 픽셀과 관련된 분류 데이터에 응하여 상기 이미지 처리 블록들을 동적으로 제어하도록 설정되며, 상기 분류 데이터는, 상기 픽셀이 하나의 이미지 처리 블록에서 다른 것으로 이동함에 따라 변화하고, 상기 제어기는 상기 이미지 처리 블록들을 동적으로 제어할 때 상기 분류 데이터에서의 이러한 변화에 응답하도록 설정된, 이미지 처리 시스템.The method of claim 12, wherein the controller is configured to dynamically control the image processing blocks in response to classification data associated with a pixel processed by the image processing blocks, wherein the classification data is such that the pixel is one image processing block. Varying from one to the other, and the controller is configured to respond to this change in the classification data when dynamically controlling the image processing blocks. 청구항 13에 있어서, 상기 이미지 처리 블록들 중 적어도 하나에 대해, 상기 제어기는, 해당 이미지 처리 블록과 관련된 다수의 상이한 처리 기법을 선택적으로 조합함으로써 처리를 동적으로 제어하도록 설정되며, 이러한 선택적인 조합은, 해당 이미지 처리 블록에 적용된 상기 입력 픽셀의 업데이트된 분류 데이터에 기초하여 수행되는, 이미지 처리 시스템.The method of claim 13, wherein for at least one of the image processing blocks, the controller is configured to dynamically control the processing by selectively combining a plurality of different processing techniques associated with the image processing block, the optional combination being And based on the updated classification data of the input pixel applied to the corresponding image processing block. 청구항 12에 있어서, 상기 이미지 처리 블록들 중 하나는 이미지 보간기 블록에 적용되는 상기 입력 픽셀의 해상도를 변경하도록 설정된 상기 이미지 보간기 블록이며, 상기 제어기는, 상기 이미지 처리 블록들 중 다른 것에서 수행되는 상기 이미지 처리 연산에 기초하여, 상기 이미지 보간기 블록의 상기 출력 픽셀을 얻어내기 위해 이용되는 이미지 스케일링 계수를 동적으로 변화하도록 설정되는, 이미지 처리 시스템.The method of claim 12, wherein one of the image processing blocks is the image interpolator block set to change the resolution of the input pixel applied to the image interpolator block, wherein the controller is performed on another of the image processing blocks. Based on the image processing operation, configured to dynamically change an image scaling factor used to obtain the output pixel of the image interpolator block. 청구항 12에 있어서, 상기 제어기는 상기 이미지 처리 블록들 중 하나에 적용된 샤프니스 제어를, 상기 이미지 처리 블록들 중 다른 것에서 수행되는 상기 이미지 처리 연산에 기초하여, 동적으로 변화시키도록 설정된, 이미지 처리 시스템.13. The image processing system of claim 12, wherein the controller is configured to dynamically change sharpness control applied to one of the image processing blocks based on the image processing operation performed at another of the image processing blocks. 디지털 이미지를 처리하는 방법으로서,As a method of processing digital images, 입력 픽셀을 수신하는 단계;Receiving an input pixel; 상기 입력 픽셀과 관련된 분류 데이터를 획득하는 단계;Obtaining classification data associated with the input pixel; 상기 입력 픽셀 상에 제1 이미지 처리 연산을 수행하는 단계로서, 상기 제1 이미지 처리 연산은 상기 입력 픽셀에 대해 획득된 상기 분류 데이터에 기초하여 동적으로 제어되는, 제1 이미지 처리 연산을 수행하는 단계;Performing a first image processing operation on the input pixel, wherein the first image processing operation is dynamically controlled based on the classification data obtained for the input pixel. ; 상기 제1 이미지 처리 연산으로부터 출력된 픽셀과 관련된 업데이트된 분류 데이터를 획득하기 위해 상기 제1 이미지 처리 연산으로부터 출력된 상기 출력 픽셀을 분석하는 단계; 및Analyzing the output pixel output from the first image processing operation to obtain updated classification data associated with the pixel output from the first image processing operation; And 상기 제1 이미지 처리 연산으로부터 출력된 상기 픽셀 상에 제2 이미지 처리 연산을 수행하는 단계로서, 상기 제2 이미지 처리 연산은 상기 업데이트된 분류 데이터에 기초하여 동적으로 제어되는, 제2 이미지 처리 연산을 수행하는 단계를 포함하는, 이미지 처리 방법.Performing a second image processing operation on the pixel output from the first image processing operation, wherein the second image processing operation is dynamically controlled based on the updated classification data. Performing an image processing method. 청구항 17에 있어서, 상기 제1 이미지 처리 연산 및 상기 제2 이미지 처리 연산에 의해 처리된 픽셀과 관련된 모션 데이터에 기초하여 상기 제1 이미지 처리 연산 및 상기 제2 이미지 처리 연산이 동적으로 제어되는, 이미지 처리 방법.The image of claim 17, wherein the first image processing operation and the second image processing operation are dynamically controlled based on motion data associated with pixels processed by the first image processing operation and the second image processing operation. Treatment method. 청구항 17에 있어서, 상기 제1 이미지 처리 연산 및 상기 제2 이미지 처리 연산에 의해 처리된 픽셀과 관련된 주파수 데이터에 기초하여, 상기 제1 이미지 처리 연산 및 제2 이미지 처리 연산이 동적으로 제어되는, 이미지 처리 방법.The image of claim 17, wherein the first image processing operation and the second image processing operation are dynamically controlled based on frequency data associated with pixels processed by the first image processing operation and the second image processing operation. Treatment method. 청구항 17에 있어서, 상기 제1 이미지 처리 연산 및 상기 제2 이미지 처리 연산에 의해 처리된 픽셀과 관련된 색 데이터에 기초하여 상기 제1 이미지 처리 연산 및 상기 제2 이미지 처리 연산이 동적으로 제어되는, 이미지 처리 방법.The image of claim 17, wherein the first image processing operation and the second image processing operation are dynamically controlled based on color data associated with pixels processed by the first image processing operation and the second image processing operation. Treatment method. 디지털 이미지를 처리하는 방법으로서,As a method of processing digital images, 입력 픽셀을 수신하는 단계;Receiving an input pixel; 상기 입력 픽셀 상에 제1 이미지 처리 연산을 수행하는 단계; 및Performing a first image processing operation on the input pixel; And 제2 이미지 처리 연산을 수행하는 단계로서, 상기 제1 이미지 처리 연산과 관련된 처리 데이터에 기초하여 상기 제2 이미지 처리 연산이 동적으로 제어되며, 상기 처리 데이터는 상기 제1 이미지 처리 연산을 수행하기 위해 이용되는 처리 방법에 대한 정보를 포함하는, 제2 이미지 처리 연산을 수행하는 단계를 포함하는, 이미지 처리 방법.Performing a second image processing operation, wherein the second image processing operation is dynamically controlled based on processing data associated with the first image processing operation, wherein the processing data is configured to perform the first image processing operation; Performing a second image processing operation comprising information about the processing method used. 청구항 21에 있어서,23. The method of claim 21, 상기 제1 이미지 처리 연산으로부터 출력 픽셀을 출력하는 단계;Outputting an output pixel from the first image processing operation; 상기 출력 픽셀과 관련된 업데이트된 분류 데이터를 획득하는 단계; 및Obtaining updated classification data associated with the output pixel; And 상기 업데이트된 분류 데이터에 기초하여 상기 제2 이미지 처리 연산을 동적으로 제어하는 단계를 더 포함하는, 이미지 처리 방법.And dynamically controlling the second image processing operation based on the updated classification data. 청구항 22에 있어서, 상기 업데이트된 분류 데이터를 획득하는 단계는, 상기 출력 픽셀과 관련된 모션 데이터를 획득하는 단계를 포함하는, 이미지 처리 방법.23. The method of claim 22, wherein acquiring the updated classification data includes acquiring motion data associated with the output pixel. 청구항 23에 있어서, 상기 제2 이미지 처리 연산을 동적으로 제어하는 단계는, 상기 모션 데이터에 기초하여 상기 제2 이미지 처리 연산과 관련된 이미지 스케일링 계수를 동적으로 변화시키는 단계를 포함하는, 이미지 처리 방법.24. The method of claim 23, wherein dynamically controlling the second image processing operation comprises dynamically changing image scaling coefficients associated with the second image processing operation based on the motion data. 청구항 23에 있어서, 상기 제2 이미지 처리 연산을 동적으로 제어하는 단계는, 상기 모션 데이터에 기초하여 상기 제2 이미지 처리 연산과 관련된 다수의 교대되는(alternate) 처리 방법을 동적이고 선택적으로 조합하는 단계를 포함하는, 이미지 처리 방법.24. The method of claim 23, wherein dynamically controlling the second image processing operation comprises: dynamically and selectively combining a plurality of alternate processing methods associated with the second image processing operation based on the motion data. Image processing method comprising a. 청구항 22에 있어서, 상기 업데이트된 분류 데이터를 획득하는 단계는, 상기 출력 픽셀과 관련된 주파수 데이터를 획득하는 단계를 포함하는, 이미지 처리 방법.The method of claim 22, wherein acquiring the updated classification data comprises acquiring frequency data associated with the output pixel. 청구항 22에 있어서, 상기 업데이트된 분류 데이터를 획득하는 단계는, 상기 출력 픽셀과 관련된 색 데이터를 획득하는 단계를 포함하는, 이미지 처리 방법.The method of claim 22, wherein acquiring the updated classification data comprises acquiring color data associated with the output pixel. 청구항 22에 있어서, 상기 업데이트된 분류 데이터는 상기 출력 픽셀과 관련된 히스토리 데이터를 포함하는, 이미지 처리 방법.23. The method of claim 22, wherein the updated classification data includes historical data associated with the output pixel.
KR1020067014407A 2004-01-16 2005-01-14 Image processing system and method with dynamically controlled pixel processing KR100997279B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US53708204P 2004-01-16 2004-01-16
US60/537,082 2004-01-16

Publications (2)

Publication Number Publication Date
KR20070026366A KR20070026366A (en) 2007-03-08
KR100997279B1 true KR100997279B1 (en) 2010-11-29

Family

ID=34825910

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020067014407A KR100997279B1 (en) 2004-01-16 2005-01-14 Image processing system and method with dynamically controlled pixel processing

Country Status (7)

Country Link
US (1) US7308159B2 (en)
EP (1) EP1751710B1 (en)
JP (1) JP4879026B2 (en)
KR (1) KR100997279B1 (en)
CN (1) CN100481113C (en)
TW (1) TWI375178B (en)
WO (1) WO2005072162A2 (en)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9292904B2 (en) 2004-01-16 2016-03-22 Nvidia Corporation Video image processing with parallel processing
US7869666B2 (en) 2005-01-13 2011-01-11 Nvidia Corporation Video processing system and method with dynamic tag architecture
CN100366054C (en) * 2005-11-30 2008-01-30 北京视信源科技发展有限公司 Interpolation processing method during image processing
US20070222799A1 (en) * 2006-03-24 2007-09-27 Mediatek Inc. Method and apparatus for image upscaling
US7941003B2 (en) * 2007-03-02 2011-05-10 Northrop Grumman Systems Corporation Efficient calculation of ensquared energy in an imaging system
US20100111181A1 (en) * 2008-11-06 2010-05-06 Mediatek Inc. Video processing apparatus and methods
GB2468358A (en) * 2009-03-06 2010-09-08 Snell & Wilcox Ltd Regional film cadence detection
US8295364B2 (en) * 2009-04-02 2012-10-23 Sony Corporation System and method of video data encoding with minimum baseband data transmission
JP5448981B2 (en) 2009-04-08 2014-03-19 株式会社半導体エネルギー研究所 Driving method of liquid crystal display device
US9053681B2 (en) * 2010-07-07 2015-06-09 Fotonation Limited Real-time video frame pre-processing hardware
CN103458173B (en) * 2012-06-01 2017-04-26 华为技术有限公司 Device, method and terminal for processing image relevant data
US10264196B2 (en) 2016-02-12 2019-04-16 Contrast, Inc. Systems and methods for HDR video capture with a mobile device
US10257394B2 (en) * 2016-02-12 2019-04-09 Contrast, Inc. Combined HDR/LDR video streaming
AU2017308749A1 (en) 2016-08-09 2019-02-21 Contrast, Inc. Real-time HDR video for vehicle control
CN106934776A (en) * 2017-03-10 2017-07-07 长沙金定信息技术有限公司 A kind of image processing system and its workflow with dynamic control processes pixel
US11265530B2 (en) 2017-07-10 2022-03-01 Contrast, Inc. Stereoscopic camera
US10951888B2 (en) 2018-06-04 2021-03-16 Contrast, Inc. Compressed high dynamic range video
KR102095518B1 (en) * 2018-10-11 2020-03-31 옥임식 Re-mastering system for high resolution conversion of image and a method thereof
BR112021005177B8 (en) * 2018-11-15 2024-03-12 Halliburton Energy Services Inc Method and system for resistivity imaging
CN111800597B (en) * 2020-05-29 2022-04-22 红鼎互联(广州)信息科技有限公司 Infrared thermal imaging movement digital video signal transmission format matching method

Family Cites Families (69)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4641188A (en) 1985-07-31 1987-02-03 Rca Corporation Progressive scan display system employing line and frame memories
US4881125A (en) 1988-10-14 1989-11-14 General Instrument Corporation Progressive scan display of video derived from film
US5309526A (en) 1989-05-04 1994-05-03 At&T Bell Laboratories Image processing system
US5020115A (en) 1989-07-10 1991-05-28 Imnet Corporation Methods and apparatus for dynamically scaling images
US4982280A (en) 1989-07-18 1991-01-01 Yves C. Faroudja Motion sequence pattern detector for video
US5159451A (en) 1991-03-19 1992-10-27 Faroudja Y C Field memory expansible line doubler for television receiver
US5414469A (en) 1991-10-31 1995-05-09 International Business Machines Corporation Motion video compression system with multiresolution features
US5301020A (en) 1991-11-01 1994-04-05 Aware, Inc. Method and apparatus for coding motion pictures utilizing motion compensation
US5604821A (en) 1992-02-28 1997-02-18 The University Of South Florida Structure and method for dynamic scene analysis
US5317398A (en) 1992-08-17 1994-05-31 Rca Thomson Licensing Corporation Video/film-mode (3:2 pulldown) detector using patterns of two-field differences
JP3278756B2 (en) 1992-09-10 2002-04-30 日本テキサス・インスツルメンツ株式会社 Image processing method and apparatus
JPH06178274A (en) 1992-11-30 1994-06-24 Sony Corp Motion picture decoding device
US5621470A (en) 1992-12-18 1997-04-15 Sid-Ahmed; Maher A. Interpixel and interframe interpolation of television pictures with conversion from interlaced to progressive scanning
US5614952A (en) 1994-10-11 1997-03-25 Hitachi America, Ltd. Digital video decoder for decoding digital high definition and/or digital standard definition television signals
US5469223A (en) 1993-10-13 1995-11-21 Auravision Corporation Shared line buffer architecture for a video processing circuit
US5398071A (en) 1993-11-02 1995-03-14 Texas Instruments Incorporated Film-to-video format detection for digital television
US5689305A (en) 1994-05-24 1997-11-18 Kabushiki Kaisha Toshiba System for deinterlacing digitally compressed video and method
US5790714A (en) 1994-11-01 1998-08-04 International Business Machines Corporation System and method for scaling video
US5661525A (en) 1995-03-27 1997-08-26 Lucent Technologies Inc. Method and apparatus for converting an interlaced video frame sequence into a progressively-scanned sequence
US5631706A (en) 1995-06-07 1997-05-20 Mitsubishi Consumer Electronics America, Inc. Converter and method for converting video signals of interlace format to video signals of progressive format
DE69624046T2 (en) * 1995-07-13 2003-06-26 Fuji Photo Film Co., Ltd. Method and device for interpolating image signals
US5757670A (en) 1995-07-28 1998-05-26 S3, Incorporated Frame reconstruction for video data compression
US5532751A (en) 1995-07-31 1996-07-02 Lui; Sam Edge-based interlaced to progressive video conversion system
US5825929A (en) 1995-10-05 1998-10-20 Microsoft Corporation Transformation block optimization method
KR0176568B1 (en) 1996-01-27 1999-05-01 김광호 Device and method for conversion interlaced to progressive scanning
US5956421A (en) 1996-02-28 1999-09-21 Canon Kabushiki Kaisha Image processing method and apparatus for determining a binarization threshold value used for binarizing a multi-valued image and performing binarization processing
US5822464A (en) 1996-05-30 1998-10-13 Xerox Corporation Method and system for processing image information using video dependent dampened screening and error diffusion
US5787206A (en) 1996-05-30 1998-07-28 Xerox Corporation Method and system for processing image information using expanded dynamic screening and error diffusion
US5933539A (en) 1996-05-30 1999-08-03 Xerox Corporation Method and system for hybrid error diffusion processing of image information using programmable screen modulation
US5920659A (en) 1996-06-24 1999-07-06 Intel Corporation Method and apparatus for scaling image data having associated transparency data
US5805724A (en) 1996-09-24 1998-09-08 Xerox Corporation Method and system for hybrid error diffusion processing of image information using dynamic screens based on brightness/darkness settings
US6075875A (en) 1996-09-30 2000-06-13 Microsoft Corporation Segmentation of image features using hierarchical analysis of multi-valued image data and weighted averaging of segmentation results
US6005621A (en) 1996-12-23 1999-12-21 C-Cube Microsystems, Inc. Multiple resolution video compression
US6038256A (en) 1996-12-31 2000-03-14 C-Cube Microsystems Inc. Statistical multiplexed video encoding using pre-encoding a priori statistics and a priori and a posteriori statistics
US5790196A (en) 1997-02-14 1998-08-04 Mitsubishi Electric Information Technology Center America, Inc. Adaptive video coding method
US5970178A (en) 1997-06-30 1999-10-19 Hewlett-Packard Company Adaptive halftoning based on image content
US6091777A (en) 1997-09-18 2000-07-18 Cubic Video Technologies, Inc. Continuously adaptive digital video compression system and method for a web streamer
US6014182A (en) 1997-10-10 2000-01-11 Faroudja Laboratories, Inc. Film source video detection
US6339434B1 (en) 1997-11-24 2002-01-15 Pixelworks Image scaling circuit for fixed pixed resolution display
US6301428B1 (en) 1997-12-09 2001-10-09 Lsi Logic Corporation Compressed video editor with transition buffer matcher
US6121978A (en) 1998-01-07 2000-09-19 Ati Technologies, Inc. Method and apparatus for graphics scaling
US6157365A (en) 1998-03-24 2000-12-05 Ati Technologies, Inc. Method and apparatus for processing video and graphics data utilizing a higher sampling rate
US6092124A (en) 1998-04-17 2000-07-18 Nvidia Corporation Method and apparatus for accelerating the rendering of images
US6184908B1 (en) 1998-04-27 2001-02-06 Ati Technologies, Inc. Method and apparatus for co-processing video graphics data
US6064407A (en) 1998-04-30 2000-05-16 Ati Technologies, Inc. Method and apparatus for tiling a block of image data
US6606415B1 (en) 1998-09-16 2003-08-12 Texas Instruments Incorporated Feedback control for hybrid compression
US6567559B1 (en) 1998-09-16 2003-05-20 Texas Instruments Incorporated Hybrid image compression with compression ratio control
US6529633B1 (en) 1998-09-16 2003-03-04 Texas Instruments Incorporated Parallel difference coding method for lossless compression and real time decompression
US6519367B2 (en) 1998-09-23 2003-02-11 Xerox Corporation Method and system for propagating selective amounts of error in a hybrid screening device
US6775334B1 (en) 1998-11-03 2004-08-10 Broadcom Corporation Equalization and decision-directed loops with trellis demodulation in high definition TV
ATE267439T1 (en) 1998-11-09 2004-06-15 Broadcom Corp DISPLAY SYSTEM FOR MIXING GRAPHIC DATA AND VIDEO DATA
JP2000184185A (en) 1998-12-15 2000-06-30 Canon Inc Device and method for converting resolution and computer-readable storing device
US6356589B1 (en) 1999-01-28 2002-03-12 International Business Machines Corporation Sharing reference data between multiple encoders parallel encoding a sequence of video frames
US6327000B1 (en) 1999-04-02 2001-12-04 Teralogic, Inc. Efficient image scaling for scan rate conversion
US6331874B1 (en) 1999-06-29 2001-12-18 Lsi Logic Corporation Motion compensated de-interlacing
JP2001060266A (en) * 1999-08-20 2001-03-06 I4 Corp Method and device for correcting exposure of digital image
JP3478329B2 (en) * 1999-10-01 2003-12-15 セイコーエプソン株式会社 Image processing apparatus and image processing method
US6671319B1 (en) 1999-12-28 2003-12-30 Sony Corporation Methods and apparatus for motion estimation using neighboring macroblocks
US6545719B1 (en) 2000-03-31 2003-04-08 Matsushita Electric Industrial Co., Ltd. Apparatus and method for concealing interpolation artifacts in a video interlaced to progressive scan converter
US6680752B1 (en) 2000-03-31 2004-01-20 Ati International Srl Method and apparatus for deinterlacing video
CA2317870A1 (en) 2000-09-08 2002-03-08 Jaldi Semiconductor Corp. A system and method for scaling images
CA2344615A1 (en) * 2000-09-08 2002-03-08 Jaldi Semiconductor Corp. A method and apparatus for motion adaptive deinterlacing
US20020165839A1 (en) 2001-03-14 2002-11-07 Taylor Kevin M. Segmentation and construction of segmentation classifiers
US6717622B2 (en) 2001-03-30 2004-04-06 Koninklijke Philips Electronics N.V. System and method for scalable resolution enhancement of a video image
US7020329B2 (en) 2001-08-31 2006-03-28 Massachusetts Institute Of Technology Color image segmentation in an object recognition system
US7085401B2 (en) 2001-10-31 2006-08-01 Infowrap Systems Ltd. Automatic object extraction
JP4169188B2 (en) * 2002-06-03 2008-10-22 株式会社K−Will Image processing method
US7643675B2 (en) * 2003-08-01 2010-01-05 Microsoft Corporation Strategies for processing image information using a color information data structure
US7158668B2 (en) * 2003-08-01 2007-01-02 Microsoft Corporation Image processing using linear light values and other image processing improvements

Also Published As

Publication number Publication date
EP1751710B1 (en) 2014-03-05
US20050157943A1 (en) 2005-07-21
EP1751710A4 (en) 2012-02-29
CN101076813A (en) 2007-11-21
WO2005072162A2 (en) 2005-08-11
JP2007528533A (en) 2007-10-11
JP4879026B2 (en) 2012-02-15
TW200532587A (en) 2005-10-01
CN100481113C (en) 2009-04-22
WO2005072162A3 (en) 2007-02-01
TWI375178B (en) 2012-10-21
US7308159B2 (en) 2007-12-11
KR20070026366A (en) 2007-03-08
EP1751710A2 (en) 2007-02-14

Similar Documents

Publication Publication Date Title
KR100997279B1 (en) Image processing system and method with dynamically controlled pixel processing
US9292904B2 (en) Video image processing with parallel processing
US7653265B2 (en) Video image processing with utility processing stage
US7760968B2 (en) Video image processing with processing time allocation
US7889233B2 (en) Video image processing with remote diagnosis and programmable scripting
US7869666B2 (en) Video processing system and method with dynamic tag architecture
US7872668B2 (en) Video image processing with programmable scripting and remote diagnosis
US8160160B2 (en) Bit-rate reduction for multimedia data streams
US20080055477A1 (en) Method and System for Motion Compensated Noise Reduction
CA2146884A1 (en) Motion adaptive scan-rate conversion using directional edge interpolation
US7853044B2 (en) Video processing system and method with dynamic tag architecture
US20060153474A1 (en) Video processing system and method with dynamic tag architecture
JP4779282B2 (en) Information processing device
JP2013026952A (en) Image processing method, encode device, decode device, and image processing device
US20060152627A1 (en) Video processing system and method with dynamic tag architecture
KR20070100279A (en) Electronic image processing method and device with linked random generators
JP6295963B2 (en) Signal processing apparatus, signal processing method, and signal processing program
JP4341347B2 (en) Video signal processing apparatus and video signal processing method
JP2006325155A (en) Image signal processor
JP2009033468A (en) Interpolation frame image display method and interpolation frame image generation apparatus for low frame rate moving image

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20131101

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20141107

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20181112

Year of fee payment: 9