KR100896668B1 - Method of processing image data, system for processing images, software module and machine-readable medium - Google Patents

Method of processing image data, system for processing images, software module and machine-readable medium Download PDF

Info

Publication number
KR100896668B1
KR100896668B1 KR1020080068214A KR20080068214A KR100896668B1 KR 100896668 B1 KR100896668 B1 KR 100896668B1 KR 1020080068214 A KR1020080068214 A KR 1020080068214A KR 20080068214 A KR20080068214 A KR 20080068214A KR 100896668 B1 KR100896668 B1 KR 100896668B1
Authority
KR
South Korea
Prior art keywords
image element
image
perimeter
occluded
categories
Prior art date
Application number
KR1020080068214A
Other languages
Korean (ko)
Other versions
KR20080071537A (en
Inventor
레옹 보튜
패트릭 가이 하프너
Original Assignee
에이티 앤드 티 코포레이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에이티 앤드 티 코포레이션 filed Critical 에이티 앤드 티 코포레이션
Publication of KR20080071537A publication Critical patent/KR20080071537A/en
Application granted granted Critical
Publication of KR100896668B1 publication Critical patent/KR100896668B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

이미지 요소를 복수의 카테고리들 중 하나로 분류하기 위한 방법, 시스템, 및 기계-판독가능 매체가 제공되며, 이미지 요소의 폐색되지 않은 둘레(unoccluded perimeter)와 이미지 요소의 폐색된 둘레간의 비에 기초하여 이미지 요소를 할당하는 단계와, 이미지 요소가 분류된 카테고리와 연관된 코딩 방식에 따라 이미지 요소를 코딩하는 단계를 포함한다. 예시적인 응용들은 이미지 압축을 포함하며, 카테고리들은 이미지 전경 및 배경층들을 포함한다.A method, system, and machine-readable medium for classifying an image element into one of a plurality of categories is provided, wherein the image is based on a ratio between an unoccluded perimeter of the image element and an occluded perimeter of the image element. Assigning the elements and coding the image elements according to a coding scheme associated with the category in which the image elements are classified. Example applications include image compression, and categories include image foreground and background layers.

전경층, 배경층, 카테고리, 코딩, 둘레 Foreground, background, category, coding, perimeter

Description

이미지 데이터 처리 방법, 이미지 처리 시스템, 소프트웨어 모듈 및 기계-판독 가능 매체{method of processing image data, system for processing images, software module and machine-readable medium}Method of processing image data, system for processing images, software module and machine-readable medium}

발명의 분야Field of invention

본 발명은 일반적으로는 이미지 처리에 관한 것으로, 특히, 이미지 요소들을 분류하기 위한 방법들, 시스템들, 및 기계-판독가능 매체(machine-readable media)에 관한 것이다. FIELD OF THE INVENTION The present invention relates generally to image processing, and more particularly to methods, systems, and machine-readable media for classifying image elements.

배경 기술Background technology

많은 이미지들이 이미지의 픽셀에 근거한 표현에 의존하지 않는 전산화된(computerized) 방법들을 사용하여 생성된다. 예를 들어, 텍스트 처리 소프트웨어는 텍스트, 폰트들, 색들, 삽입된 이미지들 등과 같은 이미지의 고-레벨 요소들을 설명하는 구조화된 페이지 정보를 사용하여 이미지를 표시한다. 이러한 구조화된 페이지 정보는 MSWord™ doc, Adobe™ PDF, 또는 PostScript™ 파일들과 같은 매우 다양한 파일 포맷들에서 비롯한 것이다. 프린트되거나, 그렇지 않으면 렌더링될 경우, 정보는 이미지를 점차적으로 구성하는 오버레이(overlay)된 이미지의 시퀀스로 변환될 수도 있다. Many images are created using computerized methods that do not rely on a pixel-based representation of the image. For example, text processing software displays an image using structured page information that describes high-level elements of the image, such as text, fonts, colors, embedded images, and the like. This structured page information comes from a wide variety of file formats, such as MSWord ™ doc, Adobe ™ PDF, or PostScript ™ files. When printed or otherwise rendered, the information may be converted into a sequence of overlayed images that gradually comprise the image.

종종 이러한 이미지들을 압축, 즉, 인코딩할 필요가 있다. 일반적으로, 이미지 요소들은 몇가지 분류 기준에 기초하여 전경 또는 배경 중 하나로서 우선 분류된다. 분류 후에, 전경은 흥미있는 요소들을 포함하고 있기 때문에, 보다 높은 해상도(resolution)로 인코딩된다. 이에 반해, 배경은 통상적으로 흥미가 덜한 요소들을 포함하고 있기 때문에, 보다 낮은 해상도로 인코딩된다. 이와 같은 코딩 방식이 종래 기술, 예를 들어, MPEG, JPEG 등에 잘 알려져 있다. 따라서, 요소 분류의 품질은 이러한 이미지들의 압축율과 비디오 품질에 굉장히 영향을 미친다. 이 때문에, 분류를 효과적으로 수행하는 것이 중요하다. Often these images need to be compressed, i.e. encoded. In general, image elements are first classified as either foreground or background based on several classification criteria. After classification, the foreground is encoded at a higher resolution because it contains elements of interest. In contrast, the background is typically encoded at a lower resolution because it contains less interesting elements. Such coding schemes are well known in the art, such as MPEG, JPEG, and the like. Thus, the quality of the element classification greatly affects the compression rate and video quality of these images. For this reason, it is important to perform classification effectively.

구조화된 페이지 정보로부터 렌더링된 이미지들에 대한 현재의 요소 분류 접근법들은 전경으로서 이미지 내의 모든 텍스트와 배경으로서 모든 다른 세부 항목(detail)들을 분류하는 단계와, 전경으로서 모든 단색(monochrome) 요소들과 배경으로서 모든 다른 것들을 분류하는 단계, 및 배경으로서 그려진 제 1 요소와 전경으로서 모든 다른 것들을 분류하는 단계를 포함한다. 그러나, 이러한 모든 접근법들은, 흥미있는 요소들이 사실상 전경 요소들일 경우, 배경 분류에 대한 기준을 충족시키도록 때때로 렌더링되기 때문에, 지리학적 맵들에 대해 특히 비효과적이다. 그 결과, 이러한 흥미있는 요소들이 보다 낮은 해상도로 잘못 인코딩된다. 이로서, 이러한 요소들의 압축 효율 및 비디오 품질이 현저히 떨어진다. Current element classification approaches to images rendered from structured page information classify all text in the image as foreground and all other details as background, and all monochrome elements and background as foreground. Classifying all other things as, and classifying all other things as a foreground and a first element drawn as a background. However, all these approaches are particularly ineffective for geographic maps, since interesting elements are sometimes rendered to meet the criteria for background classification when they are actually foreground elements. As a result, these interesting elements are incorrectly encoded at lower resolutions. As such, the compression efficiency and video quality of these elements are significantly degraded.

따라서, 종래 기술 분야에서 일반적으로 이미지 요소들, 특히, 구조화된 페이지 정보로부터 렌더링된 이미지 요소들, 예를 들어, 전자 문서들을 분류하는 효과적인 방법에 대한 필요성이 있다. Accordingly, there is a need in the prior art for an effective method of classifying image elements, in particular image elements rendered from structured page information, for example electronic documents.

발명의 개요Summary of the Invention

본 발명은 복수의 카테고리들 중 하나로서 이미지 요소들을 분류하기 위한 방법을 제공한다. 이 방법은 이미지 요소의 폐색되지 않은 둘레(unoccluded perimeter)와 다른 이미지 요소들에 의해 폐색된(occluded) 이미지 요소의 둘레간의 비(ratio)에 기초하여 이미지 요소를 분류하는 것을 포함한다. 이후, 이미지 요소는 이미지 요소가 분류되어 있는 카테고리와 연관된 코딩 방식에 따라 코딩될 수도 있다. The present invention provides a method for classifying image elements as one of a plurality of categories. The method includes classifying the image element based on the ratio between the unoccluded perimeter of the image element and the perimeter of the image element occluded by other image elements. The image element may then be coded according to a coding scheme associated with the category in which the image element is classified.

본 발명의 실시예들은 요소의 폐색되지 않은 둘레와 요소의 폐색된 둘레간의 비에 기초하여 복수의 카테고리들 중 하나로서 이미지 요소들을 분류하기 위한 기술을 제공한다. 이미지 요소의 폐색된 둘레는 전형적으로 다른 이미지 요소들이 그 위에 오버레이될 때 요소의 패색되지 않은 둘레와 상이하다. 그러므로, 상기 비는 이미지 요소가 다른 이미지 요소들에 의해 블록되는 양의 양호한 추정을 제공할 수 있다. 고도로 패색된 이미지 요소들에 대한 "푸싱(Pushing)" 코딩 에러들은 고도로 압축된 이미지의 지각 품질(perceived quality)을 효과적으로 개선할 수 있다.Embodiments of the present invention provide a technique for classifying image elements as one of a plurality of categories based on the ratio between the unoccluded perimeter of the element and the occluded perimeter of the element. The occluded perimeter of an image element is typically different from the unblocked perimeter of the element when other image elements are overlaid thereon. Therefore, the ratio can provide a good estimate of the amount that the image element is blocked by other image elements. "Pushing" coding errors for highly occluded image elements can effectively improve the perceived quality of a highly compressed image.

본 발명은 이미지 압축에 적용될 수도 있고, 여기서 이미지 요소들은 전경 및 배경층들 중 하나에 속하는 것으로서 분류될 수도 있다. 도 1a는 본 발명을 실시하는 이미지 압축 시스템의 블록도이다. 시스템은 렌더링 엔진(10), 분류기(20), 전경 코더(30), 배경 코더(40)를 포함한다. 렌더링 엔진(10)은 압축될 이미지를 생성한다. 렌더링 엔진(10)은 프린트 드라이버 또는 텍스트 처리 소프트웨어일 수 있지만 여기에 한정되지 않는다. 분류기(20)는 전경 또는 배경 요소들 중 하나로서 그 이미지 요소들을 분류함으로써 이미지를 처리한다. 전경으로서 분류된 요소들은 전경 코더(30)에 의한 임의의 코딩 기술에 따라 코딩될 수도 있다. 유사하게, 배경으로서 분류된 요소들은 배경 코더(40)에 의한 임의의 코딩 기술에 따라 코딩될 수도 있다. 예시적인 코딩 기술들은 종래기술에 잘 알려져 있다. 이와 같은 기술들은 예를 들어, Journal of Electronic Imaging, 7(3):410-425, 1998, L. Bottou 등에 의한 "High Quality Document Image Compression with DJVu" 에 기재된 코딩 기술과 독립적으로 또는 그와 관련하여 사용될 수도 있다. 전형적으로, 전경 및 배경 코딩 기술들은 낮은 손실의 이미지 품질을 갖는 전경 이미지 요소들의 압축을 제공하도록 선택될 것이다. 반면, 배경 이미지 요소들은 보다 높은 압축과 상대적으로 더 높은 손실의 이미지 품질로 코딩될 것이다.The invention may be applied to image compression, where image elements may be classified as belonging to one of the foreground and background layers. 1A is a block diagram of an image compression system embodying the present invention. The system includes a rendering engine 10, classifier 20, foreground coder 30, and background coder 40. The rendering engine 10 generates an image to be compressed. The rendering engine 10 may be, but is not limited to, a print driver or text processing software. Classifier 20 processes the image by classifying the image elements as either foreground or background elements. Elements classified as foreground may be coded according to any coding technique by foreground coder 30. Similarly, elements classified as background may be coded according to any coding technique by background coder 40. Exemplary coding techniques are well known in the art. Such techniques are described, for example, independently or in connection with coding techniques described in "High Quality Document Image Compression with DJVu" by Journal of Electronic Imaging, 7 (3): 410-425, 1998, L. Bottou et al. May be used. Typically, foreground and background coding techniques will be chosen to provide compression of foreground image elements with low loss of image quality. Background image elements, on the other hand, will be coded with higher compression and relatively higher loss of image quality.

이미지 압축 응용은 예시적인 목적만을 위한 것이며, 본 발명은 또한 이미지 요소 분류가 실행되는 경우의 임의의 적용에 사용될 수도 있다는 것이 이해될 것이다. 또한, 카테고리들의 수는 2개로 한정되지 않는 것도 이해될 것이다.It will be appreciated that the image compression application is for illustrative purposes only, and the present invention may also be used for any application where image element classification is performed. It will also be appreciated that the number of categories is not limited to two.

전형적인 이미지 압축에서, 이미지 요소의 폐색되지 않은 둘레와 폐색된 둘레간의 낮은 비는, 요소가 배경층에 속하는 것으로서 분류되었는지를 나타낼 수도 있고, 요소들의 경계들에 대한 임의의 코딩 에러들은 전경층으로부터의 다른 폐색하는 요소들에 의해 불명료해지기 쉽다. 그러므로, 코딩 에러들은 주목되지 않을 것이다. 대조적으로, 이미지 요소의 폐색되지 않은 둘레와 폐색된 둘레간의 높은 비는, 경계들에 대한 코딩 에러들이 그들이 다른 요소들에 의해 불명료하게 되지 않을 것이기 때문에 관찰될 것이라는 것을 나타낼 수도 있다. 이 경우, 그것은 전경층에서 요소를 코딩하기에 적절할 수 있다. 그러므로, 본 발명은 높은 압축율 및 압축된 이미지의 개선된 시각 품질을 제공한다.In typical image compression, the low ratio between the unoccluded perimeter and the occluded perimeter of the image element may indicate whether the element is classified as belonging to the background layer, and any coding errors for the boundaries of the elements may result from the foreground layer. It is likely to be obscured by other occlusion factors. Therefore, coding errors will not be noticed. In contrast, a high ratio between the unoccluded perimeter and the occluded perimeter of the image element may indicate that coding errors for the boundaries will be observed because they will not be obscured by other elements. In this case it may be suitable for coding an element in the foreground layer. Therefore, the present invention provides a high compression ratio and improved visual quality of the compressed image.

전경 요소들을 인코딩하기 위한 비트들의 수는 요소의 시각 부분의 둘레 Poccluded(즉, 다른 요소들에 의해 폐색되는 요소 형태 부분들을 제거한 후)에 비례할 수도 있다. 배경 요소들에 의한 폐색들로부터 발생하는 배경 요소들의 에지들은 폐색하는 전경 요소들의 경계에 의해 한정될 수도 있다. 그래서, 배경 요소들을 인코 딩하기 위한 비트들의 수는 배경 요소들의 폐색된 부분들을 제외함으로써 감소될 수도 있고, 이는 전경 요소들의 일부로서 이미 인코딩될 수도 있다. 그러므로, 배경 요소들을 인코딩하기 위한 비트들의 수는 전경 요소들에 의한 폐색들로부터 기인하지 않는 둘레 부분들(perimeter segments)의 길이(Punoccluded)에 비례할 수도 있다. 또한, 비례 계수는 요소 경계를 따르는 색 차이들에 의존한다.The number of bits for encoding the foreground elements may be proportional to the perimeter P occluded of the visual portion of the element (ie, after removing the element type portions occluded by other elements). The edges of the background elements resulting from occlusions by the background elements may be defined by the boundary of the foreground elements that occlude. Thus, the number of bits for encoding the background elements may be reduced by excluding the occluded portions of the background elements, which may already be encoded as part of the foreground elements. Therefore, the number of bits for encoding the background elements may be proportional to the length P unoccluded of the perimeter segments that do not result from occlusions by the foreground elements. The proportional coefficient also depends on the color differences along the element boundary.

도 1b는 본 발명의 실시예에 따른 방법의 흐름도이다. 본 발명에 따르면, 이미지 분류 시스템은 이미지 요소의 폐색되지 않은 둘레(Punoccluded)(100)와 다른 이미지 요소들에 의해 폐색될 때의 이미지 요소의 둘레(Poccluded)(110)를 계산한다. 이 시스템은 이들 계산된 값들의 비와 미리 정해진 문턱값(T)(120)을 비교한다:1B is a flowchart of a method according to an embodiment of the present invention. According to the invention, the image classification system calculates the P unoccluded 100 of the image element and the P occluded 110 of the image element when occluded by other image elements. The system compares the ratio of these calculated values to a predetermined threshold T 120:

Figure 112008050495724-pat00001
(1)
Figure 112008050495724-pat00001
(One)

Punoccluded 대 Poccluded의 비가 문턱값을 초과하면, 그때 시스템은 이미지 요소를 전경층(140)에 속하는 것으로서 분류한다. 그렇지 않으면, 시스템은 이미지 요소를 배경층(130)에 속하는 것으로서 분류한다. 전형적인 문턱값(T)은 80%이다. 그후, 시스템은 요소 분류(150)에 기초하여 전경 또는 배경 코딩 방식 중 하나를 이용하여 이미지 요소를 코딩한다.If the ratio of P unoccluded to P occluded exceeds the threshold, then the system classifies the image element as belonging to foreground layer 140. Otherwise, the system classifies the image element as belonging to the background layer 130. Typical threshold T is 80%. The system then codes the image elements using either a foreground or background coding scheme based on the element classification 150.

선택적으로, 시스템은 전경 또는 배경층에 몇몇 미리 정해진 유형들의 이미지 요소들을 할당한다. 예를 들어, 시스템은 전경층에 텍스트 및 심볼들을 미리 할당할 수도 있다. 전경이 보다 높은 해상도로 인코딩될 수도 있기 때문에, 전경으로 서의 인코딩 텍스트 및 심볼들은 그것들의 판독 능력을 개선한다.Optionally, the system assigns some predetermined types of image elements to the foreground or background layer. For example, the system may pre-assign text and symbols to the foreground layer. Since the foreground may be encoded at a higher resolution, the encoded text and symbols as foreground improve their readability.

몇몇 양상들이 선택적일 수 있으므로, 본 발명의 모든 또는 일부들이 이미지 요소들을 분류하기 위한 다른 방법들과 관련하여 사용될 수 있다는 것이 이해된다. 예를 들면, 텍스트가 전경층에 자동으로 할당될 수 있다면, 그 방법은 분문의 이미지 요소들에 적용될 필요가 없다.As some aspects may be optional, it is understood that all or some of the invention may be used in connection with other methods for classifying image elements. For example, if text can be automatically assigned to the foreground layer, the method need not be applied to the image elements of the text.

본 발명에 따라 처리된 이미지 요소는 처음에 이미지 요소의 구성 요소들과 이미지에서 그 좌표들을 기술하는 구조화된 페이지 정보로서 표시될 수 있다. 대부분의 이들 구성 요소들은 "직사각형 채우기", "선 그리기", 또는 "하나의 텍스트 그리기"와 같은 단순한 동작들이다. 이들 동작들은 고른 색상(solid color)을 요소 형상(element shape)이라 불리우는 한 세트의 특정 부분들에 할당한다. 나중의 동작들은 보다 빠른 동작들에 의해 발생된 이미지 데이터를 덮어쓸 수 있다. 인쇄 동작들이 완료될 때, 이들은 완료된 인쇄된 출력(종종 페이지)을 행한다.An image element processed according to the present invention may initially be displayed as structured page information describing the components of the image element and its coordinates in the image. Most of these components are simple actions such as "rectangle fill", "draw line", or "draw single text". These operations assign a solid color to a set of specific parts called an element shape. Later operations may overwrite image data generated by faster operations. When the print operations are complete, they produce a completed printed output (often a page).

본 발명에 있어서, 시스템은 그 구조화된 페이지 정보로부터 이미지 요소를 처리해서, 이미지 요소 좌표들이 판독되어 전경 및 배경층들과 비교된다. 이러한 비교로부터, 시스템은 이미지 요소의 폐색된 부분들을 결정한다. 다음으로, 시스템은 이미지 요소를 전경 또는 배경층들 중 하나로 옮긴다. In the present invention, the system processes the image element from its structured page information so that the image element coordinates are read and compared with the foreground and background layers. From this comparison, the system determines the occluded portions of the image element. Next, the system moves the image element to either the foreground or background layers.

도 2는 이미지 요소의 둘레를 계산하기 위한 전형적인 방법에 대한 흐름도이다. 이 방법은 전경 및 배경층들과 이미지 요소 형상들 간의 다수의 불 연산(boolean operation) 연산을 행한다. 이 실시예에서, 이들 층들 및 형상들은 런 길이 인코딩(run length encoding)을 사용하여 표시될 수 있다. 런 길이 인코딩에 서, 층들과 이미지 요소들의 각 주사선(또는 행)은 검정 및 흔 비트들의 연속적인 런(run)들을 설명하는 길이들의 시퀀스에 의해 표시된다. 런은 주사선의 왼쪽에서 오른쪽 주사시 만나게 되는 0들(흰 비트들) 또는 1들(검정 비트들)의 연속적인 그룹이다. 예시적인 목적을 위해, 검정 비트들은 이미지 요소들을 나타내고, 흰흰은 비요소(non-element) 공간을 나타낸다. 따라서, 시스템은 층 또는 요소 형상의 각 주사선을 왼쪽에서 오른쪽으로 주사하여, "검정 비트" 런들 상에 단일 패스를 만듦으로써 런 길이 인코딩된 층 또는 요소 형상의 둘레를 계산한다(200). 2 is a flowchart of an exemplary method for calculating the perimeter of an image element. This method performs a number of boolean operations between foreground and background layers and image element shapes. In this embodiment, these layers and shapes may be represented using run length encoding. In run length encoding, each scan line (or row) of layers and image elements is represented by a sequence of lengths describing successive runs of black and wavy bits. A run is a contiguous group of zeros (white bits) or ones (black bits) that are encountered during the left-to-right scan of the scan line. For illustrative purposes, black bits represent image elements and white and white represent non-element space. Thus, the system scans each scan line of the layer or element shape from left to right to calculate the perimeter of the run length encoded layer or element shape by making a single pass on the “black bit” runs.

각 "검정 비트" 런에 대해, 시스템은 런 길이의 2배, 즉, 비트들의 수 및 2배의 폭을 부가함으로써 런의 둘레(r)를 계산한다(205). 길이 및 폭의 값들은 상부 및 하부 길이들 및 종단 폭들을 각각 고려하기 위해 2배가 된다. 그 후, 시스템은 런 및 다음 주사선에서 인접한 런, 즉 런에 인접하고 동일한 층 또는 요소 형상의 일부인 다음 주사선에서의 런 비트들, 사이의 각 접촉 부분들의 길이(l)를 계산한다(210). For each "black bit" run, the system calculates 205 the circumference r of the run by adding twice the run length, i.e., the number of bits and twice the width. The length and width values are doubled to account for the upper and lower lengths and the terminal widths, respectively. The system then calculates 210 the length l of each contact portion between the run and the next run in the next scan line, i.e., the run bits in the next scan line that are adjacent to the run and are part of the same layer or element shape.

모든 런들을 처리한 후, 시스템은 R을 산출하기 위한 모든 둘레(r)와, L을 산출하기 위한 모든 접촉 길이들(l)을 합한다(220). 인접 런들의 둘레가 동일한 접촉 길이를 포함하므로, 시스템은 중복 포함을 고려하기 위해 그 합(L)과 2를 곱한다. 시스템은 층 또는 요소 형상의 둘레를 P=R-2L로서 계산한다(230). After processing all runs, the system sums 220 all perimeters r for calculating R and all contact lengths l for calculating L (220). Since the perimeters of adjacent runs contain the same contact length, the system multiplies the sum L by 2 to account for overlapping inclusion. The system calculates 230 the perimeter of the layer or element shape as P = R-2L.

도 3은 전형적인 이미지 요소에 대해 도 2에서의 둘레 계산을 도시한다. 이러한 예에서, 이미지 요소(300)는 5개의 주사선들로 이루어져 있다. 제 3 주사선을 제외하면, 각 주사선은 단일의 "검은 비트" 런을 가지며, "흰 비트" 런에 의해 2개로 분리된다. 시스템은 각 "검은 비트" 런(310)의 둘레(r)를 결정한다. 다음으로, 시스템은 런들(310)의 둘레들(r)의 합(R)을 계산한다. 시스템은 인접한 런들간의 접촉 부분들(320)을 검출하고 그것들의 모든 길이들(l)을 합하며, 2L을 산출하기 위해 합을 2로 곱한다. 이미지 요소(300)의 둘레(P)는 R-2L과 동일하다.3 shows the perimeter calculation in FIG. 2 for a typical image element. In this example, image element 300 consists of five scan lines. Except for the third scan line, each scan line has a single "black bit" run, separated into two by a "white bit" run. The system determines the circumference r of each "black bit" run 310. Next, the system calculates the sum R of the circumferences r of the runs 310. The system detects the contact portions 320 between adjacent runs and sums all their lengths l and multiplies the sum by two to yield 2L. The perimeter P of the image element 300 is equal to R-2L.

둘레 계산은 단지 예시적인 목적을 위한 것이며, 다른 기술들에 의해 계산된 둘레가 본 발명에 사용될 수도 있다는 것을 알 것이다. 이러한 기술들은 한정되지 않지만, 윤곽 매핑(contour-mapping) 및 영역 확장(region-growing)을 포함한다.It will be appreciated that the perimeter calculation is for illustrative purposes only, and that the perimeter calculated by other techniques may be used in the present invention. Such techniques include, but are not limited to, contour-mapping and region-growing.

도 4는 도 2의 방법을 사용하여, 예를 들면, 이미지 요소가 전경 또는 배경층들 중 하나에 속하는 것으로서 분류되도록 시스템이 둘레들을 계산하는 이미지 요소들의 폐색되지 않거나 폐색된 부분들을 검출하기 위한 예시적인 방법을 나타낸다. 먼저, 시스템은 전경 및 배경으로서 분류될 이미지 요소들을 표시하기 위해 두 개의 빈 층들(F 및 B)을 생성한다. 이후, 시스템은 최상위 요소에서 시작하여, 최하위 요소를 향해 진행하는 모든 이미지 요소에 대해 다음을 수행한다.4 illustrates an example for detecting unoccluded or occluded portions of image elements for which the system calculates perimeters such that the image element is classified as belonging to one of the foreground or background layers, using the method of FIG. 2. Representative method. First, the system creates two empty layers F and B to display image elements to be classified as foreground and background. The system then does the following for all image elements starting at the top element and going toward the bottom element.

시스템은 이미지 요소의 둘레(Poriginal)를 계산한다(400). 이것은 이미지 요소가 폐색없이 나타날 수 있기 때문에 이미지 요소의 원래의 형상의 둘레이다. 이후, 시스템은 현재의 이미지 요소 위에 그려진 배경 이미지 요소들에 의해 폐색된 이미지 요소 형상의 부분을 결정한다(405). 이것은 이미지 요소 형상 및 현재의 배경(B)의 교차점을 계산함으로써 달성된다. 예를 들면, 주어진 이미지 요소부(i)에 대해, 현재의 배경부(B(i))가 값을 가지면, 이때 이미지 요소부(i)는 폐색 및 제거 된 것으로 지정된다.The system calculates 400 the perimeter P original of the image element. This is the perimeter of the original shape of the image element because the image element can appear without occlusion. The system then determines 405 the portion of the image element shape occluded by the background image elements drawn over the current image element. This is achieved by calculating the intersection of the image element shape and the current background (B). For example, for a given image element portion i, if the current background portion B (i) has a value, then the image element portion i is designated as occluded and removed.

처리된 제 1 이미지 요소, 즉, 최상위 요소에 대해, 배경(B)이 제거해야 할 폐색된 부분이 없도록 비어있다. 후속 요소들에 대해, 배경이 이전에 처리된 폐색 요소들을 포함하면, 시스템은 이미지 요소 형상으로부터 폐색된 부분들을 제거한다(410).For the processed first image element, ie the top element, the background B is empty so that there are no occluded parts to be removed. For subsequent elements, if the background includes previously processed occlusion elements, the system removes the occluded portions from the image element shape (410).

다음에, 시스템은 현 이미지 요소 위에 그려진 전경 이미지 요소들에 의해 폐색된 그 결과로서 생긴 요소 형상의 부분을 결정한다(420). 이것은 이미지 요소 형상과 현재의 전경(F)의 교차점을 계산함으로써 달성된다. 예를 들면, 주어진 이미지 요소부(i)에 대해, 현재의 전경부(F(i))가 값을 가지면, 이후 이미지 요소부(i)는 폐색 및 제거된 것으로 지정된다.Next, the system determines 420 the resulting portion of the element shape occluded by the foreground image elements drawn over the current image element. This is accomplished by calculating the intersection of the image element shape and the current foreground F. For example, for a given image element portion i, if the current foreground portion F (i) has a value, then the image element portion i is designated as occluded and removed.

처리된 제 1 이미지 요소, 즉, 최상위 요소에 대해, 전경(F)은 제거해야 할 폐색된 부분이 없도록 비어 있다. 후속 요소들에 대해, 전경이 이전에 처리된 폐색 요소들을 포함하면, 시스템은 폐색된 부분들을 이미지 요소 형상으로부터 제거한다(425). 이후, 시스템은 전경 및 배경 요소들에 의해 폐색된 부분들의 둘레(Pocclusion)를 계산한다(430).For the first image element processed, ie the top element, the foreground F is empty so that there are no occluded parts to be removed. For subsequent elements, if the foreground includes previously processed occlusion elements, the system removes the occluded portions from the image element shape (425). The system then calculates (430) the perimeter (P occlusion ) of the portions occluded by the foreground and background elements.

결과 이미지 요소 형상은 이미지 요소의 가시적인 부분들만을 포함한다. 시스템은 요소의 폐색된 둘레(Poccluded)와 요소의 폐색되지 않은 둘레(Punoccluded)를 계산하고(440), 여기서The resulting image element shape includes only the visible parts of the image element. The system calculates (440) an element's occluded perimeter (P occluded ) and an element's unoccluded perimeter (P unoccluded ), where

Poccluded = R - 2L (2)P occluded = R-2L (2)

전술한 바와 같이, 가시적인 부분들의 둘레, 및As mentioned above, the perimeter of the visible parts, and

Figure 112008050495724-pat00002
(3)
Figure 112008050495724-pat00002
(3)

가시 경계의 둘레, 여기서, 폐색된 둘레와 원래의 둘레들의 합은 이미지 요소의 폐색되지 않은 둘레와 제거되는 폐색된 부분들의 둘레를 더한 것의 2배와 동일하다.The perimeter of the visible boundary, where the sum of the occluded perimeter and the original perimeter is equal to two times the sum of the unoccluded perimeter of the image element and the perimeter of the obstructed portions to be removed.

도 5a 내지 도 5c는 본 발명의 방법에 따라 검출된 이미지 요소의 예시적인 폐색된 부분들과 폐색되지 않은 부분들을 도시한다. 도 5a는 'ab' 이미지 요소(710)에 의해 패색되는 다각형 이미지 요소(700)를 도시한다. 다각형(700)의 폐색된 둘레(Poccluded)는, 즉, 제거된 폐색된 부분들을 갖는 가시적인 부분들의 둘레는 도 5b에 도시된다. 다각형(700)의 폐색되지 않은 둘레(Punoccluded), 즉, 불연속적인 가시 경계들(굵은 검은 선들로 표시됨)은 도 5c에 도시된다. 5A-5C show exemplary occluded and unoccluded portions of an image element detected in accordance with the method of the present invention. 5A shows a polygonal image element 700 occluded by an 'ab' image element 710. The occluded perimeter P occluded of the polygon 700, ie the perimeter of the visible portions with the occluded portions removed, is shown in FIG. 5B. The unoccluded circumference P unoccluded of the polygon 700, ie discontinuous visible boundaries (indicated by bold black lines), is shown in FIG. 5C.

도 6은 다각형(700)의 폐색되지 않은 둘레를 결정하기 위해 사용되는 식(3)으로부터의 계산을 도시한다. 원래의 둘레들 및 폐색된 둘레들(Poriginal 및 Poccluded)의 합은 폐색되지 않은 둘레(Punoccluded)와 폐색된 부분들의 둘레(Poccluded)을 더한 것의 2배와 동일하다.FIG. 6 shows the calculation from equation (3) used to determine the unoccluded perimeter of polygon 700. The sum of the original perimeters and occluded perimeters P original and P occluded is equal to two times the sum of the perimeter occluded of the unoccluded perimeter P unoccluded and the occluded portions.

이미지 요소들의 폐색된 부분들과 폐색되지 않은 부분들을 검출하는 방법은 단지 예시적인 것일 뿐임을 이해해야 하며, 이 방법의 수 많은 변경들이 본 발명에 의해 사용될 수 있다.It should be understood that the method of detecting occluded and unoccluded portions of the image elements is merely exemplary, and numerous variations of the method may be used by the present invention.

선택적으로, 색 차이(δ)는 다음 비에 포함될 수 있다.Optionally, the color difference δ may be included in the following ratio.

Figure 112008050495724-pat00003
(4)
Figure 112008050495724-pat00003
(4)

색 차이는 이미지 요소의 색이 얼마나 가까이 배경색과 매칭되느냐를 결정하기 위해 사용될 수 있다. 이 색들이 가깝게 매칭되면, 그 후 이미지 요소의 에지들이 충분히 구별되지 않아, 배경에 속하는 요소의 가능성이 높아진다.The color difference can be used to determine how close the color of the image element matches the background color. If these colors match closely, then the edges of the image element are not sufficiently distinguished, which increases the likelihood of the element belonging to the background.

일반적으로, 이미지 요소에 대한 다수의 패스들은 요소가 전경 또는 배경에 속하는지의 여부를 결정하기 위해 사용된다. 이것은, 현재 요소 아래에 위치된 요소들이 배경 요소들보다는 전경 요소들로 판별될 수 있고, 따라서 현재 요소의 둘레에 영향을 줄 수도 있기 때문에 행해진다. 본 발명에서, 색 차이의 계산은 현재 요소의 가능성의 추정이 배경에 할당되도록 허용하므로, 이미지 요소에 대한 단일 패스가 전경이 되어야 할지 배경이 되어야 할지를 결정할 수 있게 한다.In general, multiple passes for an image element are used to determine whether the element belongs to the foreground or background. This is done because elements located below the current element may be identified as foreground elements rather than background elements, and thus may affect the perimeter of the current element. In the present invention, the calculation of the color difference allows the estimation of the likelihood of the current element to be assigned to the background, thus allowing the determination of whether a single pass for the image element should be foreground or background.

색 차이의 계산은 매우 비용이 많이 들 수도 있기 때문에, 2개의 예시적인 단일화들이 사용될 수도 있다. 도 7a는 제 1 예의 흐름도이다. 시스템은 요소 경계와 각각의 인접 배경 요소들간의 색 차이를 계산한다(500). 그 후에, 시스템은 δ로서 이들 색 차이들 중 가장 큰 것을 선택한다(510). Since the calculation of the color difference may be very expensive, two exemplary unifications may be used. 7A is a flowchart of the first example. The system calculates 500 the color difference between the element boundary and each adjacent background element. The system then selects 510 the largest of these color differences as δ.

도 7b는 제 2 예를 도시한다. 시스템은 미리 정해진 수의 배경 요소들을 선택한다(550). 시스템은 배경 요소의 전체적인 크기 및 형태에 따라서 이미지 요소들에 대한 사전의 통과(preliminary pass) 동안 이들 배경 요소들을 발견적으로 결정한다. 즉, 경계 박스(bounding box)(즉, 요소 주위의 가상 경계)에 비하여 넓은 영역 및 현재 이미지 요소와 중첩하는 넓은 영역을 갖는, 입체(solid)의 직사각형 과 같은 이미지 요소는 잠재적인 배경 요소이다. 이와 같이, 이미지 요소는 색 차이를 계산하기 위해 사용될 수 있다. 반대로, 경계 박스에 비해 작은 영역 및 현재 이미지 요소와 중첩하는 작은 영역을 갖는, 길고 얇은 커브와 같은 이미지 요소는 잠재적인 배경 요소가 아니다. 이와 같이, 이미지 요소는 색 차이를 계산하기 위해 사용되지 않을 수 있다.7B shows a second example. The system selects a predetermined number of background elements (550). The system heuristically determines these background elements during a preliminary pass to the image elements depending on the overall size and shape of the background elements. That is, an image element, such as a solid rectangle, having a large area and a large area overlapping the current image element compared to a bounding box (ie, a virtual boundary around the element) is a potential background element. As such, image elements can be used to calculate color differences. In contrast, an image element, such as a long thin curve, having a small area compared to a bounding box and a small area overlapping with the current image element is not a potential background element. As such, image elements may not be used to calculate color differences.

시스템이 배경 요소들을 선택한 후에, 시스템은 각각의 선택된 인접 배경 요소들 및 요소 경계의 색 차이를 계산한다(560). 시스템은 그 후에 δ로서 색 차이를 평균한다.After the system selects the background elements, the system calculates 560 the color difference of each selected adjacent background elements and element boundary. The system then averages the color difference as δ.

색 차이를 계산하기 위해 설명된 방법들은, 단지 예시적인 목적을 위한 것이며, 색 차이를 계산하기 위한 많은 기술들이 본 발명에서 사용될 수도 있음이 이해될 것이다. 이러한 기술들은, 이에 한정되지는 않지만, 경사 측정(gradient measurements)을 포함한다.It will be appreciated that the methods described for calculating color differences are for illustrative purposes only, and many techniques for calculating color differences may be used in the present invention. Such techniques include, but are not limited to, gradient measurements.

도 8은 본 발명의 다른 실시예에 따른 방법의 흐름도이다. 본 발명에 따르면, 이미지 분류 시스템은 전경층(F) 및 배경층(B)이 비워지도록 초기화한다(580). 그 후에, 시스템은 각각의 이미지 요소를 반복적으로 분류한다(582).8 is a flowchart of a method according to another embodiment of the present invention. According to the present invention, the image classification system initializes 580 so that the foreground layer F and the background layer B are empty. Thereafter, the system repeatedly classifies each image element (582).

각각의 이미지 요소에 대하여, 시스템은 다음을 수행한다. 시스템은 전경 및 배경층들과 교차하는 이미지 요소의 부분을 결정하고(583), 그 후에 이미지 요소들의 폐색된 부분들로서 교차부를 식별하여 제거한다(584). 시스템은 그 후에 이미지 요소의 폐색되지 않은 둘레(Punoccluded)를 계산하고(585), 이미지 요소의 폐색된 둘 레(Poccluded)를 계산한다(586). 시스템은 식(1)에서와 같이, 미리 정해진 문턱값(T)과 그들의 계산된 둘레들의 비를 비교한다. 만일 Punoccluded 대 Poccluded의 비가 문턱값을 초과하면, 시스템은 이미지 요소를 전경층에 속하는 것으로서 분류한다(589). 그렇지 않으면, 그 후 시스템은 이미지 요소를 배경층에 속하는 것으로서 분류한다(588). 예시적인 문턱값(T)은 80%이다. 선택적으로, 시스템은 식(4)에서와 같이, 상기 비의 색 차이를 포함한다.For each image element, the system does the following. The system determines 583 the portion of the image element that intersects the foreground and background layers, and then identifies and removes the intersection as the occluded portions of the image element (584). The system then calculates an unoccluded perimeter calculation (P unoccluded) elements of the image, and 585, the two rail (P occluded) clogging of the image element (586). The system compares the ratio of the predetermined threshold T and their calculated perimeters, as in equation (1). If the ratio of P unoccluded to P occluded exceeds the threshold, the system classifies the image element as belonging to the foreground layer (589). Otherwise, the system then classifies the image element as belonging to the background layer (588). An exemplary threshold T is 80%. Optionally, the system includes the color difference of the ratio, as in equation (4).

모든 이미지 요소들이 분류된 후에, 시스템은 그 후, 그들 각각의 코딩 방식들을 사용하여 전경 및 배경을 코딩한다(590).After all the image elements have been sorted, the system then codes 590 the foreground and the background using their respective coding schemes.

도 9는 본 발명에 따라 분리될 수도 있는 예시적인 전자적으로 생성된 이미지를 도시한다. 시스템은 서로의 상부에 그려진 기본적인 이미지 요소들(610 내지 655)의 시퀀스로 이미지(600)을 분해하고, 시퀀스의 전면(front)(610) 및 후면(back)(655)은 각각 시퀀스 내의 최상 및 최하인 이미지 요소들을 나타낸다. 즉, 시스템은 전면 이미지 요소를 마지막에, 후면 이미지 요소를 처음에 프린트한다. 시스템은 주어진 이미지 포맷을 처리하는 프린팅 소프트웨어를 사용하여 도 9에 도시되어 있는 것과 같이 기본적인 이미지 요소들(610 내지 655)을 개별적으로 프린트 할 것이다.9 illustrates an example electronically generated image that may be separated in accordance with the present invention. The system decomposes the image 600 into a sequence of basic image elements 610 through 655 drawn on top of each other, and the front 610 and back 655 of the sequence are respectively the top and bottom of the sequence. Represents the bottommost image element. That is, the system prints the front image element last and the back image element first. The system will individually print the basic image elements 610-655 as shown in FIG. 9 using printing software that processes a given image format.

본 발명에 따르면, 시스템은 우선 전경과 배경으로 분류될 이미지 요소들을 나타내는 빈 전경과 배경층들(F 및 B)을 준비한다. 그 후에, 시스템은 본 발명의 방법에 따라 제 1 요소(610)를 처리한다. 즉, 시스템은, 예를 들어, 도 2의 둘레 계산을 이용하여 제 1 요소의 원래 형상의 둘레(Poriginal)를 계산한다. 그 후에, 시스템은, 예를 들어, 도 4에서와 같이 현재 이미지 요소 위에 도시된 배경과 전경 이미지 요소들에 의해 폐색된 제 1 요소 형상의 부분들을 결정한다. 층들(F 및 B)은 이 시점에 비어있기 때문에, 제 1 요소는 폐색되지 않으며 그 부분들은 제거되지 않는다. 따라서, 이들 비-존재(non-existent) 폐색 부분들의 둘레(Pocclusion)는 0이다. According to the invention, the system first prepares empty foreground and background layers F and B representing image elements to be classified into foreground and background. Thereafter, the system processes the first element 610 according to the method of the present invention. That is, the system calculates the circumference P original of the original shape of the first element using, for example, the circumference calculation of FIG. 2. Thereafter, the system determines portions of the first element shape occluded by the background and foreground image elements shown above the current image element, for example as in FIG. 4. Since the layers F and B are empty at this point, the first element is not blocked and the parts are not removed. Thus, P occlusion of these non-existent occlusion portions is zero.

이제, 시스템은 식(2)와 식(3)으로부터 제 1 요소의 둘레들(Poccluded, Punoccluded)을 계산한다. 선택적으로, 시스템은, 예를 들어, 도 7a 또는 도 7b의 방법에 따라 제 1 요소와 배경 사이의 색 차이를 계산할 수 있다. 그후, 시스템은 폐색된 둘레 및 폐색되지 않은 둘레의 비를 계산한다. 그 비에 기초하여, 시스템은 제 1 요소를, 예를 들어, 도 1b에 도시된 바와 같이 전경과 배경층의 하나에 속하는 것으로서 분류한다. 제 1 요소가 폐색되지 않았기 때문에, 폐색된 둘레 및 폐색되지 않은 둘레는 동일하다. 따라서, 제 1 요소는 1의 비를 가지거나, 또는 색 차이를 가지고 그보다 크다. 문턱값이 80%(즉, 0.8)로 설정되면, 그 후 제 1 요소는 전경에 할당된다. 시스템은 그후에 제 1 요소를 포함하기 위해 전경층(F)을 갱신한다. Now, the system calculates the perimeters (P occluded , P unoccluded ) of the first element from equations (2) and (3). Optionally, the system can calculate the color difference between the first element and the background, for example according to the method of FIG. 7A or 7B. The system then calculates the ratio of occluded and unoccluded perimeters. Based on the ratio, the system classifies the first element as belonging to one of the foreground and background layers, for example, as shown in FIG. 1B. Since the first element is not occluded, the occluded perimeter and the unoccluded perimeter are the same. Thus, the first element has a ratio of 1 or has a color difference and is larger than that. If the threshold is set to 80% (ie 0.8) then the first element is then assigned to the foreground. The system then updates the foreground layer F to include the first element.

요소들(610, 615, 620, 630, 및 635)에 의해 폐색된, 폐색 이미지 요소(650)의 경우에, 층들(F 및 B)은 요소들(610 내지 645)이 요소(650)에 앞서 처리되어 분류되므로 비어 있지 않다. 따라서, 시스템은 요소(650)의 폐색된 부분들을 결정하 여 제거한다. 요소(650)의 폐색된 둘레(Poccluded)는 폐색되지 않은 둘레(Punoccluded) 보다 클 수도 있다. 이와 같이, 둘레들 간의 비는 문턱값보다 작을 수도 있다. 이 경우에, 시스템은 배경으로서 요소(650)를 분류한다.In the case of occlusion image element 650, occluded by elements 610, 615, 620, 630, and 635, layers F and B are formed by elements 610-645 prior to element 650. It is processed and classified so it is not empty. Thus, the system determines and removes the occluded portions of element 650. The occluded perimeter P occluded of element 650 may be greater than the unoccluded perimeter P unoccluded . As such, the ratio between the perimeters may be less than the threshold. In this case, the system classifies element 650 as a background.

시스템은 이미지 요소(610 내지 655)에 대해 본 발명의 방법을 반복하여, 분류된 이미지 요소들이 발생되도록 하고, 그 후에 시스템은 효과적으로 인코딩한다. The system repeats the method of the present invention for image elements 610-655 so that classified image elements are generated, after which the system effectively encodes.

본 발명의 메커니즘들 및 방법들은 본 발명의 개시에 따라 프로그래밍된 범용 마이크로프로세서를 이용하여 구현될 수 있다. 따라서, 본 발명은 또한 본 발명에 따른 방법을 수행하기 위해 처리기에 의해 실행될 수 있는 명령들을 포함하는 기계-판독가능한 매체를 포함할 수 있다. 이 매체는 전자 명령들(electronic instructions)을 저장하기에 적절한 플로피 디스크, 광디스크, CD-ROM들, 또는 임의 유형의 매체를 포함하는 임의 유형의 디스크에 제한되지 않고 그 것들을 포함할 수 있다.The mechanisms and methods of the present invention may be implemented using a general purpose microprocessor programmed according to the present disclosure. Thus, the present invention may also include a machine-readable medium containing instructions that can be executed by a processor to perform a method according to the present invention. This medium may include, but is not limited to, any type of disk including floppy disks, optical disks, CD-ROMs, or any type of media suitable for storing electronic instructions.

도 10은 본 발명을 구현할 수 있는 컴퓨터 시스템의 일실시예의 블록도이다. 시스템(700)은 본 발명의 실시예들에 따른 처리기(720)와 통신하는 버스(710), 시스템 메모리 모듈(730), 및 저장 장치(740)를 포함할 수 있지만, 이에 제한되지 않는다.10 is a block diagram of one embodiment of a computer system that may implement the present invention. System 700 may include, but is not limited to, a bus 710, a system memory module 730, and a storage device 740 in communication with processor 720 in accordance with embodiments of the present invention.

본 발명을 구현하기 위해 사용되는 소프트웨어의 구조는 임의의 원하는 형태를 취할 수도 있음을 이해할 것이다, 예를 들어, 예시된 방법은 단일 프로그램 또는 다수의 프로그램들로 구현될 수 있다. It will be appreciated that the structure of the software used to implement the present invention may take any desired form, for example, the illustrated method may be implemented in a single program or multiple programs.

본 발명의 다수의 수정들과 변형들이 상기 교시들에 비추어 가능하다. 따라서, 첨부된 청구항들의 범위 내에서, 본 발명은 본 명세서에 구체적으로 설명된 것과는 달리 실시될 수 있다.Many modifications and variations of the present invention are possible in light of the above teachings. Accordingly, within the scope of the appended claims, the invention may be practiced otherwise than as specifically described herein.

본 발명을 통해, 이미지 요소들을 이미지 요소의 폐색되지 않은 둘레와 이미지 요소의 폐색된 둘레간의 비에 기초하여 복수의 카테고리들 중 하나로서 분류하기 위한 기술이 제공된다.Through the present invention, a technique is provided for classifying image elements as one of a plurality of categories based on the ratio between the unoccluded perimeter of the image element and the occluded perimeter of the image element.

도 1a는 본 발명을 구체화하는 시스템의 블록도. 1A is a block diagram of a system embodying the present invention.

도 1b는 본 발명의 방법의 실시예의 흐름도. 1B is a flow diagram of an embodiment of the method of the present invention.

도 2는 이미지 요소 둘레를 계산하기 위한 예시적인 단계들의 흐름도.2 is a flowchart of exemplary steps for calculating an image element perimeter.

도 3은 도 2의 방법에 따라서 계산된 예시적인 둘레를 도시한 도면. 3 shows an exemplary perimeter calculated according to the method of FIG. 2.

도 4는 폐색된 둘레와 폐색되지 않은 둘레를 계산하기 위한 예시적인 단계들의 흐름도. 4 is a flow chart of exemplary steps for calculating occluded and unoccluded perimeters.

도 5a 내지 도 5c는 도 4의 방법에 따라 계산된 예시적인 폐색된 둘레와 폐색되지 않은 둘레들을 도시하는 도면. 5A-5C illustrate exemplary occluded and unoccluded perimeters calculated according to the method of FIG. 4.

도 6은 폐색되지 않은 둘레 계산을 도시하는 도면. 6 shows circumference calculation without occlusion.

도 7a 및 도 7b는 이미지 요소의 색 차이(color difference)를 계산하기 위한 예시적인 단계들의 흐름도.7A and 7B are flowcharts of example steps for calculating color difference of an image element.

도 8은 본 발명의 방법의 또 다른 실시예의 흐름도. 8 is a flow chart of another embodiment of the method of the present invention.

도 9는 도 1b 또는 도 8의 방법들이 적용될 수도 있는, 서로의 상부에 그려진 예시적인 이미지 요소들의 시퀀스로서 분해된 예시적인 전자적으로 생성된 이미지를 도시하는 도면. 9 illustrates an exploded electronically generated image as a sequence of exemplary image elements drawn on top of each other, to which the methods of FIG. 1B or 8 may be applied.

도 10은 본 발명을 구현할 수 있는 컴퓨터 시스템의 일 실시예의 블록도. 10 is a block diagram of one embodiment of a computer system that may implement the present invention.

* 도면의 주요 부분에 대한 부호의 설명 *Explanation of symbols on the main parts of the drawings

10 : 렌더링 엔진 20 : 분류기10: rendering engine 20: classifier

30 : 전경 코더 40 : 배경 코더30: foreground coder 40: background coder

720 : 처리기 730 : 메모리720: Processor 730: Memory

Claims (26)

이미지 데이터를 처리하는 방법에 있어서:In the way of processing image data: 이미지 요소를 상기 이미지 요소의 폐색되지 않은 둘레(unoccluded perimeter)와 상기 이미지 요소의 폐색된 둘레(occluded perimeter)간의 비에 기초하여 복수의 카테고리들 중 하나에 할당하는 단계; 및Assigning an image element to one of a plurality of categories based on a ratio between an unoccluded perimeter of the image element and an occluded perimeter of the image element; And 상기 복수의 카테고리들 중 하나에 할당하는 것에 기초하여 상기 이미지 요소를 처리하는 단계를 포함하는, 이미지 데이터 처리 방법.Processing the image element based on assignment to one of the plurality of categories. 제 1 항에 있어서,The method of claim 1, 상기 이미지 요소를 처리하는 단계는 상기 복수의 카테고리들 중 하나와 연관된 코딩 방식에 따라 상기 이미지 요소를 코딩하는 단계를 더 포함하는, 이미지 데이터 처리 방법.Processing the image element further comprises coding the image element in accordance with a coding scheme associated with one of the plurality of categories. 제 1 항에 있어서,The method of claim 1, 상기 이미지 요소의 형상을 결정하는 단계를 더 포함하는, 이미지 데이터 처리 방법.Determining the shape of the image element. 제 3 항에 있어서,The method of claim 3, wherein 상기 이미지 요소의 형상을 결정하는 단계는 상기 이미지 요소의 폐색된 부분들을 제거하는 단계를 더 포함하는, 이미지 데이터 처리 방법.Determining the shape of the image element further comprises removing the occluded portions of the image element. 제 1 항에 있어서,The method of claim 1, 상기 복수의 카테고리들은 전경층과 배경층을 포함하는, 이미지 데이터 처리 방법.And wherein the plurality of categories comprise a foreground layer and a background layer. 제 1 항에 있어서,The method of claim 1, 상기 이미지 요소를 할당하기 전에:Before assigning the image element: 전경층 및 배경층과 교차하는 상기 이미지 요소의 부분들을 결정하는 단계;Determining a foreground layer and portions of the image element that intersect with the background layer; 상기 교차 부분들을 상기 이미지 요소의 폐색된 부분들로서 식별하는 단계;Identifying the intersection portions as occluded portions of the image element; 상기 이미지 요소의 형상을 결정하기 위해 상기 폐색된 부분들을 제거하는 단계; 및Removing the occluded portions to determine the shape of the image element; And 상기 이미지 요소의 상기 폐색되지 않은 둘레 및 상기 폐색된 둘레를 계산하는 단계를 더 포함하는, 이미지 데이터 처리 방법.Calculating the unoccluded perimeter and the occluded perimeter of the image element. 제 1 항에 있어서,The method of claim 1, 상기 폐색되지 않은 둘레는 상기 이미지 요소의 원래 둘레, 상기 이미지 요소의 상기 폐색된 둘레 및 폐색된 부분들의 둘레에 기초하여 계산되는, 이미지 데이터 처리 방법.And the unoccluded perimeter is calculated based on the original perimeter of the image element, the occluded perimeter of the image element, and the perimeter of the occluded portions. 제 1 항에 있어서,The method of claim 1, 상기 폐색된 둘레는 상기 이미지 요소의 각 수평 주사선의 둘레들의 합, 상 기 이미지 요소의 각 수평 주사선과 다음의 수평 주사선간의 접촉 부분들의 길이들의 합에 기초하여 계산되는, 이미지 데이터 처리 방법. And the occluded perimeter is calculated based on the sum of the perimeters of each horizontal scan line of the image element, the sum of the lengths of the contact portions between each horizontal scan line of the image element and the next horizontal scan line. 제 1 항에 있어서,The method of claim 1, 상기 비는 상기 이미지 요소와 적어도 하나의 인접한 이미지 요소간의 색 차이, 상기 폐색되지 않은 둘레, 상기 폐색된 둘레에 기초하는, 이미지 데이터 처리 방법. The ratio is based on a color difference between the image element and at least one adjacent image element, the unoccluded perimeter, the occluded perimeter. 제 9 항에 있어서,The method of claim 9, 상기 색 차이는 상기 이미지 요소와 상기 적어도 하나의 인접한 이미지 요소간의 색 차이들 중 가장 크도록 계산되는, 이미지 데이터 처리 방법. And the color difference is calculated to be the largest of the color differences between the image element and the at least one adjacent image element. 제 9 항에 있어서,The method of claim 9, 상기 색 차이는 미리 정해진 수의 상기 적어도 하나의 인접한 이미지 요소와 상기 이미지 요소간의 색 차이들 중 평균이 되도록 계산되는, 이미지 데이터 처리 방법. And wherein said color difference is calculated to be an average of color differences between said at least one adjacent image element and said image element. 제 1 항에 있어서,The method of claim 1, 상기 비가 미리 정해진 문턱값을 초과하면, 상기 이미지 요소는 상기 복수의 카테고리들 중 하나로서 분류되는, 이미지 데이터 처리 방법. If the ratio exceeds a predetermined threshold, the image element is classified as one of the plurality of categories. 제 5 항에 있어서,The method of claim 5, wherein 복수의 카테고리들과 연관된 상기 코딩 방식들은 각각의 이미지 압축 방식들이고, 상기 배경층의 압축 방식은 상기 전경층의 압축 방식보다 상대적으로 높은 압축율과 이미지 손실을 갖는 코딩된 출력을 실현하는, 이미지 데이터 처리 방법.The coding schemes associated with the plurality of categories are respective image compression schemes, and the compression scheme of the background layer realizes a coded output having a higher compression ratio and image loss than the compression scheme of the foreground layer. Way. 이미지들을 처리하는 시스템에 있어서:In a system that processes images: 이미지 요소를 상기 이미지 요소의 폐색되지 않은 둘레와 상기 이미지 요소의 폐색된 둘레간의 비에 기초하여 복수의 카테고리들 중 하나로서 분류하는 수단; 및Means for classifying an image element as one of a plurality of categories based on a ratio between the unoccluded perimeter of the image element and the occluded perimeter of the image element; And 상기 이미지 요소를 상기 복수의 카테고리들 중 하나로서 분류하는 것에 기초하여 상기 이미지 요소를 처리하는 수단을 포함하는, 이미지 처리 시스템.Means for processing the image element based on classifying the image element as one of the plurality of categories. 제 14 항에 있어서,The method of claim 14, 이미지 요소를 생성하는 수단을 더 포함하는, 이미지 처리 시스템.And means for generating an image element. 제 14 항에 있어서,The method of claim 14, 상기 복수의 카테고리들은 전경층과 배경층을 포함하는, 이미지 처리 시스템. Wherein the plurality of categories comprise a foreground layer and a background layer. 제 14 항에 있어서,The method of claim 14, 상기 복수의 카테고리들 중 하나와 연관된 코딩 방식에 따라 상기 이미지 요소를 코딩하는 수단을 더 포함하는, 이미지 처리 시스템.Means for coding the image element in accordance with a coding scheme associated with one of the plurality of categories. 삭제delete 컴퓨터 판독가능한 매체로서, 상기 매체는 이미지 요소를 상기 이미지 요소의 폐색되지 않은 둘레와 상기 이미지 요소의 폐색된 둘레간의 비에 기초하여 복수의 카테고리들 중 하나로서 분류하는 단계를 수행하도록 계산 장치를 제어하는 프로그램 명령들을 포함하는, 컴퓨터 판독가능한 매체.A computer readable medium, the medium controlling a computing device to perform classifying an image element as one of a plurality of categories based on a ratio between the unoccluded perimeter of the image element and the occluded perimeter of the image element. And program instructions for executing the computer-readable medium. 제 19 항에 있어서,The method of claim 19, 상기 프로그램 명령들은 상기 복수의 카테고리들 중 하나와 연관된 코딩 방식에 따라 상기 이미지 요소를 코딩하는 것을 더 포함하는, 컴퓨터 판독가능한 매체.And the program instructions further comprise coding the image element in accordance with a coding scheme associated with one of the plurality of categories. 제 19 항에 있어서,The method of claim 19, 상기 복수의 카테고리들은 전경층 및 배경층을 포함하는, 컴퓨터 판독가능한 매체.Wherein the plurality of categories comprises a foreground layer and a background layer. 제 21 항에 있어서,The method of claim 21, 상기 복수의 카테고리들과 연관된 상기 코딩 방식들은 각각의 이미지 압축 방식들이고, 상기 배경층의 압축 방식은 상기 전경층의 압축 방식보다 상대적으로 높은 압축율과 이미지 손실을 갖는 코딩된 출력을 실현하는, 컴퓨터 판독가능한 매체.The coding schemes associated with the plurality of categories are respective image compression schemes, and the compression scheme of the background layer realizes a coded output having a higher compression ratio and image loss than the compression scheme of the foreground layer. Media available. 제 19 항에 있어서,The method of claim 19, 상기 비는 상기 이미지 요소와 적어도 하나의 인접한 이미지 요소간의 색 차이, 상기 폐색되지 않은 둘레, 상기 폐색된 둘레에 기초하는, 컴퓨터 판독가능한 매체.The ratio is based on a color difference between the image element and at least one adjacent image element, the unoccluded perimeter, the occluded perimeter. 제 23 항에 있어서,The method of claim 23, 상기 색 차이는 상기 이미지 요소와 상기 적어도 하나의 인접한 이미지 요소간의 색 차이들 중 가장 크도록 계산되는, 컴퓨터 판독가능한 매체.And wherein said color difference is calculated to be the largest of color differences between said image element and said at least one adjacent image element. 제 24 항에 있어서,The method of claim 24, 상기 색 차이는 미리 정해진 수의 상기 적어도 하나의 인접한 이미지 요소와 상기 이미지 요소간의 색 차이들 중 평균이 되도록 계산되는, 컴퓨터 판독가능한 매체.And wherein said color difference is calculated to be an average of color differences between said at least one adjacent image element and said image element. 제 19 항에 있어서,The method of claim 19, 상기 비가 미리 정해진 문턱값을 초과하면, 상기 이미지 요소는 상기 복수의 카테고리들 중 상기 하나의 카테고리로서 분류되고, 그렇지 않은 경우, 상기 이미지 요소는 상기 복수의 카테고리들 중 다른 카테고리로서 분류되는, 컴퓨터 판독가능한 매체.If the ratio exceeds a predetermined threshold, the image element is classified as the one of the plurality of categories; otherwise, the image element is classified as another one of the plurality of categories. Media available.
KR1020080068214A 2001-02-01 2008-07-14 Method of processing image data, system for processing images, software module and machine-readable medium KR100896668B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US26554401P 2001-02-01 2001-02-01
US60/265,544 2001-02-01

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020020005903A Division KR100873583B1 (en) 2001-02-01 2002-02-01 Method and system for classifying image elements

Publications (2)

Publication Number Publication Date
KR20080071537A KR20080071537A (en) 2008-08-04
KR100896668B1 true KR100896668B1 (en) 2009-05-14

Family

ID=23010895

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080068214A KR100896668B1 (en) 2001-02-01 2008-07-14 Method of processing image data, system for processing images, software module and machine-readable medium

Country Status (2)

Country Link
JP (1) JP4351411B2 (en)
KR (1) KR100896668B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11213156A (en) * 1998-01-29 1999-08-06 Canon Inc Device, method for processing image and recording medium
JPH11312234A (en) * 1998-03-24 1999-11-09 Koninkl Philips Electronics Nv Image processing method including segmentation processing of multidimensional image and medical video apparatus
JP2000050259A (en) * 1998-08-03 2000-02-18 Hitachi Telecom Technol Ltd Dynamic image coder and dynamic image decoder
WO2000077735A1 (en) * 1999-06-11 2000-12-21 Pulsent Corporation Method and apparatus for digital image segmentation

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11213156A (en) * 1998-01-29 1999-08-06 Canon Inc Device, method for processing image and recording medium
JPH11312234A (en) * 1998-03-24 1999-11-09 Koninkl Philips Electronics Nv Image processing method including segmentation processing of multidimensional image and medical video apparatus
JP2000050259A (en) * 1998-08-03 2000-02-18 Hitachi Telecom Technol Ltd Dynamic image coder and dynamic image decoder
WO2000077735A1 (en) * 1999-06-11 2000-12-21 Pulsent Corporation Method and apparatus for digital image segmentation

Also Published As

Publication number Publication date
JP2003051007A (en) 2003-02-21
JP4351411B2 (en) 2009-10-28
KR20080071537A (en) 2008-08-04

Similar Documents

Publication Publication Date Title
US9830535B2 (en) Method and system for classifying image elements
US7532767B2 (en) Removing ringing and blocking artifacts from JPEG compressed document images
EP1310912B1 (en) Image processing method, apparatus and system
US7639880B2 (en) Compressing a multivalue image with control of memory space requirement
US20060029280A1 (en) Image processing apparatus, image processing method, and program and storage medium therefor
JP2003228712A (en) Method for identifying text-like pixel from image
US8024655B2 (en) Compressing page descriptions while preserving high quality
JP6743092B2 (en) Image processing apparatus, image processing control method, and program
EP0949579A2 (en) Multiple size reductions for image segmentation
JP3715905B2 (en) Image processing apparatus, image processing method, program, and storage medium
US9471857B2 (en) Overcoat processing mechanism
US7873226B2 (en) Image encoding apparatus
KR100896668B1 (en) Method of processing image data, system for processing images, software module and machine-readable medium
Chang et al. Color gradient vectorization for SVG compression of comic image
JP2003216957A (en) Method and system for classifying image elements
Navin et al. Data Oriented Model of image: as a framework for image processing
AU2004242418A1 (en) Generating compressed output representation

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20120329

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20130329

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee