WO2005124736A1 - 画像処理装置および方法、記録媒体、並びにプログラム - Google Patents

画像処理装置および方法、記録媒体、並びにプログラム Download PDF

Info

Publication number
WO2005124736A1
WO2005124736A1 PCT/JP2005/010351 JP2005010351W WO2005124736A1 WO 2005124736 A1 WO2005124736 A1 WO 2005124736A1 JP 2005010351 W JP2005010351 W JP 2005010351W WO 2005124736 A1 WO2005124736 A1 WO 2005124736A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
pattern
pixel
determination
processing
Prior art date
Application number
PCT/JP2005/010351
Other languages
English (en)
French (fr)
Other versions
WO2005124736A8 (ja
Inventor
Koji Aoyama
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Priority to EP05751457.2A priority Critical patent/EP1758093B1/en
Priority to US11/629,316 priority patent/US8253763B2/en
Priority to KR1020067026309A priority patent/KR101054992B1/ko
Publication of WO2005124736A1 publication Critical patent/WO2005124736A1/ja
Publication of WO2005124736A8 publication Critical patent/WO2005124736A8/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4007Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/22Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of characters or indicia using display control signals derived from coded signals representing the characters or indicia, e.g. with a character-code memory
    • G09G5/24Generation of individual character patterns
    • G09G5/26Generation of individual character patterns for modifying the character dimensions, e.g. double width, double height
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/20Drawing from basic elements, e.g. lines or circles
    • G06T11/203Drawing of straight lines or curves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4023Scaling of whole images or parts thereof, e.g. expanding or contracting based on decimating pixels or lines of pixels; based on inserting pixels or lines of pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/22Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of characters or indicia using display control signals derived from coded signals representing the characters or indicia, e.g. with a character-code memory
    • G09G5/24Generation of individual character patterns
    • G09G5/28Generation of individual character patterns for enhancement of character form, e.g. smoothing
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/373Details of the operation on graphic patterns for modifying the size of the graphic pattern
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information

Definitions

  • Image processing apparatus and method recording medium, and program
  • the present invention relates to an image processing apparatus and method, a recording medium, and a program, and in particular, for example, is capable of enlarging characters and images displayed on a display device at low cost and high quality.
  • the present invention relates to an image processing device and method, a recording medium, and a program.
  • Fig. 1 shows a configuration example in a case where an enlargement device using nearest neighbor interpolation is applied to a conventional OSD (On Screen Display) device 1.
  • OSD On Screen Display
  • the microcomputer 11 of the OSD device 1 uses a font ROM (Read Only Memory) 12 and an OSD plane ROM based on a signal (hereinafter, referred to as a user operation signal) corresponding to a user operation from the user interface 2.
  • a user operation signal a signal
  • the font ROM 12 stores fonts such as characters, symbols, and graphics to be displayed on the monitor 3.
  • fonts stored here such as Japanese fonts (so-called Japanese typefaces) and European fonts (so-called alphabetic typefaces).
  • the SD plane memory 13 stores the font read from the font ROM 12 by the microcomputer as OSD display data and, under the control of the microcomputer 11, converts the OSD display data to a 2 ⁇ 2 nearest neighbor interpolation unit.
  • the 2 ⁇ 2 nearest neighbor interpolation unit 14 enlarges the OSD display data supplied from the OSD plane memory 13 to 2 ⁇ vertically and 2 ⁇ horizontally, and supplies it to the mixer 15.
  • the mixer 15 combines the video signal supplied from the camera processing unit (not shown) with the OSD display data supplied from the 2 ⁇ 2 nearest neighbor interpolation unit 14 and causes the monitor 3 to display it.
  • FIG. 2 is a diagram showing a configuration example in the case where fonts for normal display and enlarged display are stored in the font ROM 12 of the conventional OSD device 1. Note that the parts corresponding to FIG. , The same reference numerals are given, and the description thereof will be omitted as appropriate.
  • the font ROM 12 stores fonts for normal display and enlarged display, such as characters, symbols, or figures to be displayed on the monitor 3.
  • the OSD plane memory 13 stores the font read from the font ROM 12 by the microcomputer 11 as OSD display data, and supplies the OSD display data to the mixer 15 under the control of the microcomputer 11.
  • the mixer 15 combines the video signal supplied from the camera processing unit (not shown) with the OSD display data supplied from the OSD plane memory 13 and causes the monitor 3 to display it.
  • images that have been digitally categorized are roughly classified into two purposes: natural images captured by an imaging device such as a digital still camera, and artificial images such as graphics and characters generated by a computer. can do.
  • an enlargement method and a reduction method using an interpolation filter based on a sampling theorem such as bilinear interpolation and Cubic interpolation are used. With these methods, it is possible to obtain a high-quality enlarged image of a natural image having a multilevel gradation and containing noise in principle.
  • Patent Document 1 proposes a technique of generating an enlarged character from basic character font data and correcting the enlarged character.
  • Patent Document 2 proposes a technique of scaling a binary image using piecewise polynomial interpolation.
  • Patent Document 3 proposes a technique for generating a font by using a genetic algorithm.
  • Patent Document 4 proposes a technique of recognizing a connected state of peripheral pixels, estimating an optimal contour, and performing resampling.
  • Patent Document 5 proposes a technique relating to smoothing when enlarging characters and figures.
  • Patent Document 1 JP-A-5-94171
  • Patent Document 2 JP-A-8-63592
  • Patent Document 3 JP 2004-4302 A
  • Patent Document 4 JP-A-6-68247
  • Patent Document 5 Japanese Patent Application Laid-Open No. 9-305755
  • the shift technology basically has a binary graphic image.
  • targets a single-color grayscale image even in the case of a multi-valued image, and character decoration such as borders and shadow characters is applied. There is a problem that cannot cope with a multi-valued multi-color graphic image.
  • the present invention has been made in view of such a situation, and aims to enlarge characters, images, and the like displayed on a display device at low cost and with high quality. .
  • the image processing apparatus of the present invention provides a holding unit that holds nearby pixels including a target pixel in an image, a dividing unit that divides the target pixel, and a process for each pixel held by the holding unit.
  • a first pattern determining means for determining whether or not to perform the processing, an arrangement pattern of the target color and the background color obtained based on the determination result by the determining means, and a second pattern for expanding the background color
  • the division is performed by the division unit based on the determination result by the second pattern determination unit that determines whether or not the force matches, and the determination result by the first or second pattern determination unit.
  • Selecting means for selecting data to be applied to the target pixel from neighboring pixels.
  • Data exchange means for exchanging pixel distributions may be further provided.
  • the image may be a character, and the first and second patterns may each be configured by a hierarchical pattern determined according to the type of the character.
  • the discriminating means may discriminate the target color or the background color by comparing the pixel of interest with neighboring pixels.
  • a holding step of holding neighboring pixels including the target pixel, a dividing step of dividing the target pixel, and each pixel held by the processing of the holding step A determination step of determining the target color or the background color; an array pattern of the target color and the background color obtained based on the determination result obtained by the processing of the determination step; and a first step of expanding the target color.
  • the division is performed by the processing of the division step.
  • the hit is should Mel data to the pixel of interest has, characterized in that it comprises a selection step of selecting from among the pixels in the neighborhood.
  • the program recorded on the recording medium of the present invention includes a holding step of holding neighboring pixels including a target pixel in an image, a dividing step of dividing the target pixel, and a processing of the holding step.
  • a discriminating step for discriminating the target color or the background color for each of the pixels held by the process, and an arrangement pattern of the target color and the background color obtained based on the discrimination result by the processing of the discriminating step;
  • a first pattern determination step of determining whether or not the first pattern for expansion matches or not; an array pattern of the target color and the background color obtained based on the determination result by the processing of the determination step; Second pattern to extend background color
  • the target pixel divided by the division step based on the result of the second pattern determination step of determining whether or not the force is matched and the result of the processing of the first or second pattern determination step
  • a selecting step of selecting data to be applied to the pixel from neighboring pixels includes a holding step of holding neighboring pixels including a target pixel in an image, a dividing step
  • the program of the present invention includes a holding step for holding neighboring pixels including a target pixel in an image, a dividing step for dividing the target pixel, and a process for holding each pixel held by the holding step.
  • a discriminating step of discriminating the target color or the background color, an array pattern of the target color and the background color obtained based on the discrimination result by the processing of the discriminating step, and a first pattern for expanding the target color are formed.
  • a first pattern determination step for determining whether or not they match each other, and an arrangement pattern of the target color and the background color obtained based on the determination result obtained by the processing of the determination step, and a method for expanding the background color.
  • the data to fit to the pixel of interest characterized in that to perform the processing including a selection step of selecting from among the pixels near the Konbiyu data.
  • neighboring pixels including the target pixel in the image are held, the target pixel is divided, and a target color or a background color is determined for each of the held pixels, and based on the determination result. Then, it is determined whether the obtained arrangement pattern of the target color and the background color matches the first pattern for expanding the target color or not, and the second pattern for expanding the array pattern and the background color is determined. It is determined whether or not the force matches the pattern. Based on the first or second determination result, data to be applied to the divided target pixel is selected as the neutral force of a neighboring pixel.
  • characters, images, and the like displayed on the display device can be enlarged.
  • FIG. 1 shows a configuration example in a case where an enlargement device using nearest neighbor interpolation is applied to a conventional OSD device.
  • FIG. 2 is a diagram showing a configuration example in a case where fonts for normal display and enlarged display are stored in a font ROM of a conventional OSD device.
  • FIG. 3 is a block diagram illustrating a configuration example of an OSD device to which the present invention has been applied.
  • FIG. 4 is a block diagram showing an example of the internal configuration of the image enlargement device.
  • FIG. 5A is a diagram illustrating data held in a data buffer.
  • FIG. 5B is a diagram illustrating data held in a data buffer.
  • FIG. 5C is a diagram illustrating data held in a data buffer.
  • FIG. 6 is a diagram illustrating an outline of a data position replacement method.
  • FIG. 7A is a diagram illustrating details of a data position swapping method.
  • FIG. 7B is a diagram for explaining the details of a data position replacement method.
  • FIG. 8A is another diagram for explaining the details of the data position exchange method.
  • FIG. 8B is another diagram for explaining the details of the data position exchange method.
  • FIG. 9A is another diagram for explaining the details of the data position exchange method.
  • FIG. 9B is another diagram for explaining the details of the data position exchange method.
  • FIG. 10A is another diagram for explaining the details of the data position exchange method.
  • FIG. 10B is another diagram for explaining the details of the data position swapping method.
  • FIG. 11 is a block diagram illustrating a detailed configuration example of a pixel priority order determination unit.
  • FIG. 12 is a block diagram illustrating a detailed configuration example of a data selection flag determination unit.
  • FIG. 13A is a diagram showing an example of a pattern used for pattern determination.
  • FIG. 13B is a diagram showing an example of a pattern used for pattern determination.
  • FIG. 13C is a diagram showing an example of a pattern used for pattern determination.
  • FIG. 13D is a diagram showing an example of a pattern used for pattern determination.
  • FIG. 13E is a diagram showing an example of a pattern used for pattern determination.
  • FIG. 13F is a diagram showing an example of a pattern used for pattern determination.
  • FIG. 13G is a diagram showing an example of a pattern used for pattern determination.
  • FIG. 14A is a diagram showing another pattern example used for pattern determination.
  • FIG. 14B is a diagram showing another example of a pattern used for pattern determination.
  • FIG. 14C is a diagram showing another example of a pattern used for pattern determination.
  • FIG. 14D is a diagram showing another pattern example used for pattern determination.
  • FIG. 15A is a diagram showing another example of a pattern used for pattern determination.
  • FIG. 15B is a diagram showing another example of a pattern used for pattern determination.
  • FIG. 15C is a diagram showing another example of a pattern used for pattern determination.
  • FIG. 15D is a diagram showing another pattern example used for pattern determination.
  • FIG. 16A is a diagram showing another example of a pattern used for pattern determination.
  • FIG. 16B is a diagram showing another pattern example used for pattern determination.
  • FIG. 16C is a diagram showing another example of a pattern used for pattern determination.
  • FIG. 16D is a diagram showing another pattern example used for pattern determination.
  • FIG. 16E] is a diagram showing another pattern example used for pattern determination.
  • 17A] FIG. 17A is a diagram showing another example of a pattern used for pattern determination.
  • FIG. 17B] is a diagram showing another example of a pattern used for pattern determination.
  • FIG. 17C] is a diagram showing another example of a pattern used for pattern determination.
  • FIG. 17D] is a view showing another example of a pattern used for pattern determination.
  • FIG. 18A] is a diagram showing another example of a pattern used for pattern determination.
  • FIG. 18B] FIG. 18B is a diagram showing another pattern example used for pattern determination. : FIG.
  • FIG. 18C is a diagram showing another example of a pattern used for pattern determination.
  • FIG. 18D is a diagram showing another example of a pattern used for pattern determination.
  • FIG. 19A is a diagram showing another example of a pattern used for pattern determination.
  • FIG. 19B is a diagram showing another example of a pattern used for pattern determination.
  • FIG. 19C is a diagram showing another example of a pattern used for pattern determination.
  • FIG. 19D] is a diagram showing another example of a pattern used for pattern determination.
  • FIG. 20A] FIG. 20A is a diagram showing another example of a pattern used for pattern determination.
  • FIG. 20B] FIG.
  • FIG. 20B is a diagram showing another example of a pattern used for pattern determination.
  • FIG. 20C] is a diagram showing another example of a pattern used for pattern determination.
  • FIG. 20D] is a diagram showing another example of a pattern used for pattern determination.
  • FIG. 20E] is a diagram showing another example of a pattern used for pattern determination.
  • FIG. 21A is a diagram showing another pattern example used for pattern determination.
  • FIG. 21B is a diagram showing another pattern example used for pattern determination.
  • FIG. 22 is a flowchart illustrating a process executed by a data buffer.
  • FIG. 23 is a flowchart illustrating a data position exchange process.
  • Fig. 24 is a flowchart for describing pixel priority order determination processing.
  • FIG. 25 is a flowchart illustrating a data selection flag determination process.
  • FIG. 26 is a flowchart illustrating details of wide character processing in step S45 of FIG. 26.
  • FIG. 27 is a flowchart illustrating details of the fine character processing in step S46 in FIG. 25.
  • FIG. 28 is a flowchart illustrating a data selection process.
  • FIG. 29A is a diagram showing a simulation result.
  • FIG. 29B is a diagram showing a simulation result.
  • FIG. 29C is a diagram showing a simulation result.
  • FIG. 30A is a partially enlarged view of FIG. 29.
  • FIG. 30B is a partially enlarged view of FIG. 29.
  • FIG. 31A is another partial enlarged view of FIG. 29.
  • FIG. 31B is another partially enlarged view of FIG. 29.
  • FIG. 32A is a diagram showing a simulation result.
  • FIG. 32B is a diagram showing a simulation result.
  • FIG. 32C shows a simulation result.
  • FIG. 33A is a partially enlarged view of FIG. 32.
  • FIG. 33B is a partially enlarged view of FIG. 32.
  • FIG. 34A is another partially enlarged view of FIG. 32.
  • FIG. 34B is another partially enlarged view of FIG. 32.
  • FIG. 35 is a block diagram illustrating a detailed configuration example of a pixel priority order determination unit when adapted to a multi-valued gradation image.
  • FIG. 36 is a diagram showing codes assigned according to the result of comparing P [M0C0] with IN.
  • FIG. 37A is a diagram showing a simulation result.
  • FIG. 37B shows a simulation result.
  • FIG. 38A is a partially enlarged view of FIG. 37.
  • FIG. 38B is a partially enlarged view of FIG. 37.
  • FIG. 39 is a block diagram illustrating a configuration example of a computer.
  • FIG. 3 is a diagram showing a configuration example of the OSD device 1 to which the present invention is applied. Parts corresponding to those in the related art are denoted by the same reference numerals, and description thereof will be omitted as appropriate.
  • the OSD plane memory 13 supplies OSD display data to the image enlargement device 21 under the control of the microcomputer 11.
  • the image enlargement device 21 enlarges the OSD display data supplied from the OSD plane memory 13 to twice the height and twice the width by a process described later, and supplies the data to the mixer 15.
  • the mixer 15 combines the video signal to which the power of the camera processing unit (not shown) is also supplied with the OSD display data supplied from the image enlargement device 21 and causes the monitor 3 to display it.
  • FIG. 4 is a block diagram showing an example of the internal configuration of the image enlarging device 21.
  • the control unit 31 Based on a control signal supplied from the outside and a mode control signal supplied from the processing mode control unit 35, the control unit 31 provides a data buffer 32, a data position replacement unit 33, a pixel priority determination unit 34, Each operation of the data selection flag determination unit 36 and the data selection unit 37 is controlled.
  • the control signal supplied by an external force is, for example, a vertical synchronizing signal, a horizontal synchronizing signal, a clock, and the like. The value indicates a range of the position.
  • the data buffer 32 includes a line memory, a data delay register, and the like.
  • the data buffer 32 synchronizes with the horizontal synchronization signal and the clock supplied from the control unit 31 and receives the input data supplied from the OSD plane memory 13.
  • the input data may be supplied to the data buffer 32 in raster order, or may be obtained by the data buffer 32 through random access. The details of the data held in the data buffer 32 will be described later with reference to FIG.
  • the data position exchange unit 33 exchanges the data position of the data of the vicinity of the pixel of interest supplied from the data buffer 32 as necessary, and replaces the data whose data position has been exchanged.
  • the data is stored in the replacement data buffer 33A and supplied to the pixel priority determining unit 34 and the data selecting unit 37. The details of the data position exchange method performed by the data position exchange unit 33 will be described later with reference to FIGS.
  • the pixel priority determining unit 34 determines whether each pixel of the data of the pixel of interest whose data position has been exchanged and supplied from the data position exchange unit 33 has the background color or the foreground color. (Target color). The details of the pixel priority determining unit 34 will be described later with reference to FIG.
  • the processing mode control unit 35 generates V, based on the user operation signal from the user interface 2, background determination information (information for uniquely determining a background color), and foreground determination information (uniquely determines a foreground color). For processing, or supply to the pixel priority determination unit 34 or processing selection information (information on whether to perform wide character processing or fine character processing, background color expansion processing or foreground color expansion). The information on whether or not to perform the processing is changed and supplied to the data selection flag determination unit 36. However, if the processing content is fixed, it is needless to say that there is no need to change such information.
  • the data selection flag determination unit 36 determines whether or not the target pixel neighboring data is the determination result supplied from the pixel priority determination unit 34. Determine the data selection flag. The details of the data selection flag determination unit 36 will be described later with reference to FIGS. [0038]
  • the data selection unit 37 supplies the image data to be applied to the target pixel position from the data position replacement unit 33 based on the data selection flag that is the determination result supplied from the data selection flag determination unit 36. Then, the selected data is selected from the data on the vicinity of the target pixel and output to the mixer 15 as output data.
  • FIGS. 5A to 5C are diagrams for explaining data held in the data buffer 32.
  • FIG. 5A to 5C are diagrams for explaining data held in the data buffer 32.
  • FIG. 5A shows a digitized image 41 input to the data buffer 32.
  • the pixel of pixel value 0 background color
  • the pixel of pixel value 1 foreground color
  • FIG. 5B shows an enlarged view of a region 43 composed of five vertical pixels and five horizontal pixels near the target point (target pixel) 42 of the image 41.
  • the point of interest 42 is divided into four (A to D in the example of FIG. 5B), so that the enlargement process is performed twice vertically and twice horizontally.
  • FIG. 5C schematically shows a state in which symbols are sequentially assigned to each pixel of the data in the area 43 to be referred to for the enlarging process in accordance with the relative positional relationship from the point of interest 42. Is shown. From the “M0C0” pixel at point of interest 42, the pixel two above is “U2”, the pixel one above is “U1”, the pixel in the same horizontal direction is “M0”, and the pixel below is “D1” , The two pixels below are assigned the symbol “D2”.
  • the pixel two to the left is “L2”
  • the pixel to the left is “L1”
  • the pixel in the same vertical direction is “C0”
  • the pixel to the right is “R1”
  • the two pixels to the right are assigned “R2” t ⁇ ,! /,!.
  • a pixel value at a position relative to the point of interest 42 can be represented.
  • data in an area 43 composed of 5 pixels in the vertical direction and 5 pixels in the horizontal direction is referred to.
  • the present invention is not limited to this. You may refer to the data of an area consisting of 7 pixels by 7 pixels, or more pixels.
  • FIG. 6 is a diagram illustrating an outline of a data position exchange method performed by the data position exchange unit 33.
  • the data position replacement unit 33 stores an area 43 composed of 5 pixels ⁇ 5 pixels output from the data buffer 32.
  • the data position of the data has been swapped and the data positions have been swapped, 5 vertical x 5 horizontal
  • the data of the area 51 composed of the pixels of the sub-pixels is replaced and stored in the data knocker 33A.
  • each pixel value of the data stored in the replacement data buffer 33A is represented by P [X].
  • X represents the relative position from the point of interest 42.
  • the top row of the 5 vertical x 5 horizontal areas 43 is the first row, the next row is the second row, ..., the bottom row is the fifth row, the leftmost column is the first column, and the next row. Is described as the second column, and the rightmost column is described as the fifth column.
  • control unit 31 creates a processing loop according to the input pixel size, and creates an expansion loop that increases the number of pixels twice and vertically two times, thereby obtaining a point of interest as shown in FIG. 5B. Divide 42 into four, A through D. Then, the control unit 31 supplies the data position replacement unit 33 with data processing position information indicating which position of the two vertical pixels and two horizontal pixels is to be subjected to data processing.
  • the data processing position information supplied from the control unit 31 indicates the position A (reference) as shown in FIG. 7A
  • the data position replacement unit 33 Without replacing the data position of the data, the data is stored in the replacement data buffer 33A.
  • the data position of the data in the area 43 is not exchanged, but is stored in the exchange data buffer 33A to be the data of the new area 51 composed of 5 pixels by 5 pixels. You.
  • the data position switching unit 33 That is, the data position of the data in the area 43 is changed in the horizontal direction.
  • the pixels in the order of ⁇ U2L2 '', ⁇ U2L1 '', ⁇ U2CO '', ⁇ U2R1 '', ⁇ U2R2 '' in order from the left are replaced by ⁇ U2R2 '' , “U2R1”, “U2CO”, “U2L1”, and “U2L2” in that order.
  • the data positions are switched right and left.
  • the data of the new area 51 composed of 5 pixels in the vertical direction and 5 pixels in the horizontal direction, the data positions of which have been exchanged in this way, are stored in the exchanged data notifier 33A.
  • the data position exchange unit 33 indicates the position C as shown in FIG. 9A
  • the data processing position information supplied from the control unit 31 is moved up and down as shown in FIG. 9B. That is, the data position of the data in the area 43 is switched in the vertical direction.
  • the pixels in the order of “U2L2”, “U1L2”, “M0L2”, “D1L2”, and “D2L2” become “D2L2”.
  • the data position exchange unit 33 The data position of the data in the area 43 is switched up and down (that is, in the horizontal and vertical directions).
  • pixels of ⁇ U2L2 '', ⁇ U2L1 '', ⁇ U2CO '', ⁇ U2R1 '', ⁇ U2R2 '' are replaced by ⁇ D2R2 '' , “D2R1”, “D2C0”, “D2L1”, and “D2L2” in that order.
  • the data positions are exchanged left and right, and in the second to fifth columns, the data positions are exchanged up and down.
  • the data of the new area 51 composed of 5 pixels in the vertical direction and 5 pixels in the horizontal direction, the data positions of which have been exchanged in this way, are stored in the exchanged data buffer 33A.
  • the data position exchange unit 33 exchanges the data positions, so that it can be processed in the subsequent stage (the pixel priority order determination unit 34 and thereafter). Can be performed as processing at position A (FIG. 7A) regardless of the data processing position. As a result, it is possible to reduce the number of patterns in the pattern determination, which will be described later, and reduce the calculation cost to 1Z4.
  • FIG. 11 is a block diagram showing a detailed configuration example of the pixel priority order determination section 34.
  • the pixel priority order judging section 34 is composed of judging units 61-1 to 61-25, and the judging units 61-1 to 61-25 have LUTs (look-ups). Table) 62-1 to 62-25 are provided respectively. LUT62-1 to 62-25 have processing mode For example, based on the background determination information and the foreground determination information supplied from the memory controller 35, the pixel value 0 (white) is set as the background color, and the pixel value 1 (black) is set as the foreground color.
  • the determiner 61-1 includes, among the data of the area 51 (FIG. 6) composed of 5 pixels in the vertical direction and 5 pixels in the horizontal direction supplied from the data position swapping unit 33, the pixel of P [D2L2] Data is input, and it is determined whether the pixel value is a background color or a foreground color based on LU T62-1.
  • the determiners 61-2 to 61-25 determine the P [D2L1] to P [D2L1] to P 5 out of the data of the area 51 composed of 5 pixels vertically and 5 pixels horizontally supplied from the data position replacement unit 33.
  • [U2R2] pixel data is input, and it is determined based on LUTs 62-2 to 62-25 whether the pixel value is a background color or a foreground color.
  • the determiners 61-1 to 61-25 output the determination results as F [X] to the data selection flag determination unit 36, respectively.
  • X represents a relative position from the point of interest 42.
  • FIG. 12 is a block diagram showing a detailed configuration example of the data selection flag determination unit 36.
  • the character recognizing unit 71 recognizes, based on the process selection information supplied from the process mode control unit 35, whether the character to be enlarged is a wide character or a fine character.
  • “wide characters” are, for example, bold fonts or emphasized characters composed of lines having a width of two pixels or more
  • fine characters are, for example, characters composed of lines having a width of one pixel. Is done. If the character to be enlarged is recognized to be a wide character, the data in the area 51 composed of 5 pixels by 5 pixels, which is the determination result supplied from the pixel priority determination unit 34, is wide. It is supplied to the character processing unit 72.
  • the wide character processing unit 72 outputs the attention point 42 and one of the attention points 42 of the supplied data of the area 51 composed of 5 pixels in the vertical direction and 5 pixels in the horizontal direction.
  • the data of an area 81 consisting of two pixels vertically and two pixels horizontally, consisting of the pixel one pixel above, one pixel diagonally to the upper left of the point of interest 42, and the pixel to the left of the point of interest 42, and Fig.
  • the wide character processing unit 72 Based on the determination result, further, the matching of the data of the region 51 composed of 5 pixels in the vertical direction and 5 pixels in the horizontal direction with each pattern of FIGS. 14 to 19 is determined, and based on the determination result, the data is determined.
  • a data selection flag is set (the details will be described later). However, the data selection flag at the initial stage is set to 0.
  • the fine character processing unit 73 of the supplied data of the region 51 composed of 5 pixels in the vertical direction and 5 pixels in the horizontal direction, as shown in FIG. 13D, the pattern 84 shown in FIG.13D, the pattern 85 shown in FIG.13E, the pattern 86 shown in FIG.13F, and the pattern 87 shown in FIG.13G. judge. Then, based on the determination result, the fine character processing unit 73 further determines the coincidence between the data of the region 51 composed of 5 pixels vertically and 5 pixels horizontally and each pattern of FIGS.
  • the data selection flag is set based on the determination result (the details will be described later). However, the data selection flag is initially set to 0.
  • pixels of the foreground color are represented by black
  • pixels of the background color pixel value 0
  • white pixels of the background color
  • the characters are classified into “wide characters” and “fine characters”, and the respective processes are performed, thereby utilizing the character characteristics. Enlargement processing becomes possible.
  • FIGS. 14 to 21 the enlarged point 91 of the point of interest 42 is shown with a diagonal pattern, the pixels of the foreground color are shown with a geometric pattern, and Pixels of the color are shown in white, and the foreground or background color may be! /, Or may be shifted !, and pixels (pixels ignored in pattern judgment) are shown in gray.
  • the wide character processing unit 72 determines that the data in the area 81 (FIG. 13A) matches the pattern 82 (FIG. 13B), the data in the area 51 composed of 5 pixels vertically and 5 pixels horizontally is determined.
  • the pattern 107 shown in FIG. 15C, and the pattern shown in FIG. Determine match with Turn 108. Then, as a result of the determination, if at least one of the eight patterns 101 to 108 matches, the wide character processing unit 72 sets the data selection flag to “1”.
  • the wide character processing unit 72 determines that the data in the area 81 (FIG. 13A) matches the pattern 83 (FIG. 13C), the wide character processing unit 72 sets the area 51 composed of 5 pixels by 5 pixels horizontally.
  • the fine character processing unit 73 determines that at least one of the data in the area 81 (Fig. 13A) and the three patterns 84 to 86 (Figs. 13D to 13F) match, the vertical character X
  • the data of the area 51 composed of five horizontal pixels, the pattern 131 shown in FIG.20A, the pattern 132 shown in FIG.20B, the pattern 133 shown in FIG.20C, the pattern 134 shown in FIG.20D, and FIG.20E Is determined with the pattern 135 shown in FIG.
  • the fine character processing unit 73 sets the data selection flag to “3” and matches the pattern 134. Then, the data selection flag is set to “4”, and if it matches Noturn 135, the data selection flag is set to “5”.
  • the fine character processing unit 73 determines that the data of the area 81 (FIG. 13A) and the pattern of the pattern 87 (FIG. 13G) match, the fine character processing unit 73 is composed of 5 pixels vertically and 5 pixels horizontally. The coincidence between the data in the area 51 and the pattern 141 shown in FIG. 21A and the pattern 142 shown in FIG. 21B is determined. Then, as a result of the determination, if at least one of the two patterns 141 and 142 matches, the fine character processing unit 73 sets “6” in the data selection flag. Set.
  • each pattern used for the no-turn determination is, of course, not limited to the force obtained as the pattern obtained as a result of the simulation of the present inventor.
  • step S1 the data buffer 32 sets a variable N to 1 as initialization.
  • step S2 the data buffer 32 is a region of the input data supplied from the OSD plane memory 13 which is composed of five vertical pixels and five horizontal pixels in the vicinity of the point of interest 42 at the center.
  • Set 43 ( Figure 5B).
  • a region 43 composed of 5 pixels in the vertical direction and 5 pixels in the horizontal direction around the point of interest 42 will be appropriately described as a nearby pixel region 43.
  • step S3 the data buffer 32 synchronizes with the horizontal synchronization signal and the clock supplied from the control unit 31, and stores the input data in the N-th row of the neighboring pixel area 43 set in the processing in step S2. Hold. For example, in FIG. 5C, data of pixels “D2L2”, “D2L1”, “D2C0”, “D2R1”, and “D2R2” are held.
  • step S4 the data buffer 32 determines whether or not the force when the variable N becomes 5 or more, that is, whether or not all the data (FIG. 5C) of the neighboring pixel area 43 is held, If it is determined that the value is not 5 or more, the process returns to step S3, and the above-described processing is repeatedly performed.
  • step S4 If it is determined in step S4 that the variable N has become 5 or more, the process ends.
  • the data buffer 32 holds the data (FIG. 5C) of the area 43 composed of five pixels vertically and five pixels horizontally.
  • step S11 the data position replacement unit 33 generates the data processing position information supplied from the control unit 31 (for example, the position A shown in FIG. 7A, the position B shown in FIG. 8A, and the position C shown in FIG. 9A). Or, the position D) shown in FIG. 10A is acquired, and in step S12, it is determined whether or not the acquired data processing position information is the position A (FIG. 7A).
  • step S12 If it is determined in step S12 that the data processing position information is position A, the process proceeds to step S13, where the data position replacement unit 33 replaces the data position of the data in the neighboring pixel area 43. Instead, it is stored in the exchange data buffer 33A as it is (Fig. 7B).
  • step S12 determines whether the data processing position information is not the position A. If it is determined in step S12 that the data processing position information is not the position A, the process proceeds to step S14, where the data position exchange unit 33 further stores the data processing position information in position B (FIG. 8A ) Is determined. If it is determined in step S14 that the data processing position information is position B, the process proceeds to step S15, where the data position replacement unit 33 replaces the data position of the data in the neighboring pixel area 43 left and right (horizontally) and replaces the data position. The data is stored in the data buffer 33A (Fig. 8B).
  • step S14 when it is determined that the data processing position information is not the position B, the process proceeds to step S16, and the data position replacement unit 33 further stores the data processing position information in the position C (Fig. 9A) is determined. If it is determined in step S16 that the data processing position information is position C, the process proceeds to step S17, where the data position exchange unit 33 exchanges the data position of the data in the neighboring pixel area 43 up and down (vertically). Swap Data is stored in the data buffer 33A (Fig. 9B).
  • step S16 when it is determined that the data processing position information is not the position C, the process proceeds to step S18, and the data position replacement unit 33 further stores the data processing position information in the position D (Fig. 10A). ) Is determined. If it is determined in step S18 that the data processing position information is position D, the process proceeds to step S19, where the data position exchange unit 33 sets the neighboring pixel area 43 in the left and right (horizontal direction) and up and down (vertical direction). The data position of the data is exchanged and stored in the exchange data buffer 33A (FIG. 10B).
  • step SI8 If it is determined in step SI8 that the data processing position information is not the position D, the process proceeds to step S20, where the data position replacement unit 33 determines that an error has occurred, and After reacquiring the data processing position information from the control unit 31, the process returns to step S12, and the above-described processing is repeatedly executed.
  • the replacement data buffer 33A has a new 5 pixel ⁇ 5 horizontal pixel whose data position has been replaced so that it can be treated as the enlargement process of position A.
  • the data of area 51 (Fig. 6) is stored.
  • the data of the area 51 composed of five pixels in the vertical direction and five pixels in the horizontal direction will be appropriately described as data of the neighboring pixel area 51.
  • step S31 the determiner 61-1 of the data position exchange unit 33 refers to the LUT 62-1, and in step S32, determines whether the data of the pixel P [D2L2] in the neighboring pixel area 51 is the background. It is determined whether or not.
  • step S32 when it is determined that the data of the pixel P [D2L2] in the neighboring pixel area 51 is the background color, the process proceeds to step S33, and the determiner 61 — 1 determines the P [D2L2] of the neighboring pixel area 51.
  • the pixel data is determined (determined) as “background color”.
  • step S32 when it is determined that the data of the pixel P [D2L2] in the neighboring pixel area 51 is not the background color, the process proceeds to step S34, and the determiner 61-1 determines the P of the neighboring pixel area 51.
  • the pixel data of [D2L2] is determined (determined) as “foreground color”.
  • the determiners 61-2 to 61-25 also execute the above-described processing, and determine whether the data force of the pixels P [D2L1] to P [U2R2] in the neighboring pixel area 51 is “background color”. , Or “foreground color”.
  • each pixel value power of the data of the neighboring pixel area 51 is uniquely determined as “background color” or “foreground color”.
  • step S41 the wide character processing unit 72 and the fine character processing unit 73 of the data selection flag determination unit 36 each set the data selection flag to "0" as initialization.
  • step S42 the character recognition unit 71 of the data selection flag determination unit 36 acquires the processing selection information supplied from the processing mode control unit 35.
  • the processing selection information acquired here includes information on whether to perform the background color expansion processing or the foreground color expansion processing.
  • step S43 the character recognition unit 71 of the data selection flag determination unit 36 refers to the font ROM 12 and recognizes the character type ("wide character” or "fine character") of the input data. If the process selection information obtained in the process of step S42 includes information on the character type! /, The process of step S43 can be omitted.
  • step S44 the character recognizing unit 71 determines whether or not the character to be enlarged is a wide character. If the character is determined to be a wide character, the character recognizing unit 71 compares the data of the neighboring pixel area 51 and the processing selection information. After supplying to the wide character processing unit 72, the process proceeds to step S45.
  • step S45 the wide character processing 72 performs wide character processing based on the supplied data of the neighboring pixel area 51 and the processing selection information. The details of the wide character processing will be described later with reference to the flowchart of FIG. 26. By this processing, the pattern determination of the wide character is performed, and the data selection flag according to the pattern determination is sent to the data selection unit 37. It is output.
  • step S44 if it is determined that the character to be enlarged is not a wide character! /, That is, a small character, the character recognizing unit 71 sets the data and processing of the neighboring pixel area 51 to After the selection information is supplied to the fine character processing unit 73, the process proceeds to step S46.
  • step S46 the fine character processing 73 performs fine character processing based on the supplied data of the neighboring pixel area 51 and the processing selection information. The details of the fine character processing will be described later with reference to the flowchart of FIG. 27.
  • the pattern determination of the fine character is performed, and the data selection flag according to the pattern determination is sent to the data selection unit 37. Is output.
  • step S51 the wide character processing unit 72 sets the Whether or not the data of the area 81 (Fig. 13A) composed of two pixels vertically and two pixels horizontally including the point of interest 42 matches the first pattern (in this case, the pattern 82 shown in Fig. 13B) If it is determined that the pattern matches the first pattern, the process proceeds to step S52, and the data of the neighboring pixel area 51 is further stored in the second pattern group (in this case, the pattern 101 shown in FIGS. 14 to 15). To 108) are determined.
  • step S52 when it is determined that the data of the neighboring pixel area 51 includes at least one of the second pattern groups, the process proceeds to step S53, where the wide character processing unit 72 Set the selection flag to "1".
  • step S51 when it is determined that the data of the area 81 does not match the first pattern, or in step S52, it is determined that the data of the neighboring pixel area 51 does not match the second pattern group
  • step S54 the wide character processing unit 72 determines whether to perform the background color expansion process based on the process selection information obtained from the process mode control unit 35 by the process of step S42 in FIG. I do.
  • step S54 If it is determined in step S54 that the background color expansion process is to be performed, the process proceeds to step S55, and the wide character processing unit 72 determines that the data in the area 81 is in the third pattern (in this case, as shown in FIG. It is determined whether it matches the pattern 83). If it is determined in step S55 that the data in the area 81 matches the third pattern, the process proceeds to step S56, where the wide character processing unit 72 further converts the data in the neighboring pixel area 51 into the fourth pattern group (now In this case, it is determined whether or not there is a pattern that matches the patterns 111 to 127) shown in FIGS.
  • step S56 when it is determined that at least one of the fourth pattern groups matches the data of the neighboring pixel area 51, the process proceeds to step S57, where the wide character processing unit 72 Set the selection flag to "2".
  • step S54 If it is determined in step S54 that the background color expansion processing is not to be performed! / ⁇ , if it is determined in step S55 that the data of the area 81 does not match the third pattern, If it is determined in step S56 that the data of the neighboring pixel area 51 does not match the fourth pattern group, the process returns to the fine character processing in step S46 in FIG.
  • step S46 the process in FIG. The details of the fine character processing in step S46 will be described.
  • step S61 the fine character processing unit 73 selects, from the data of the neighboring pixel area 51, the data of the area 81 including two pixels by two pixels including the point of interest 42 (Fig. 13A). Determines whether there is any force that matches the fifth pattern group (in this case, patterns 84 to 86 shown in FIGS. 13D to 13F), and determines whether there is any force that matches the fifth pattern group. If it is determined that there is a pattern, the process proceeds to step S62, and if the data of the neighboring pixel area 51 matches the sixth pattern group (in this case, the patterns 131 to 133 shown in FIGS. 20A to 20C) It is determined whether or not there is a certain force.
  • the fifth pattern group in this case, patterns 84 to 86 shown in FIGS. 13D to 13F
  • step S62 when it is determined that at least one of the data in the neighboring pixel area 51 matches the sixth pattern group, the process proceeds to step S63, and the fine character processing unit 73 proceeds to step S63. Set the flag to "3".
  • step S62 If it is determined in step S62 that the data of the neighboring pixel area 51 does not match the sixth pattern group, the process proceeds to step S64, and the fine character processing unit 73 further reduces the data of the neighboring pixel area 51 to the sixth pattern group. It is determined whether the force matches pattern 7 (in this case, pattern 134 shown in FIG. 20D). If it is determined in step S64 that the data of the neighboring pixel area 51 matches the seventh pattern, the process proceeds to step S65, and the fine character processing unit 73 sets the data selection flag to “4”.
  • pattern 7 in this case, pattern 134 shown in FIG. 20D
  • step S64 when it is determined that the data of the neighboring pixel area 51 does not match the seventh pattern, the process proceeds to step S66, and the fine character processing unit 73 further reduces the data of the neighboring pixel area 51 to the eighth pattern. It is determined whether the pattern matches the pattern (in this case, the pattern 135 shown in FIG. 20E). If it is determined in step S66 that the data of the neighboring pixel area 51 matches the eighth pattern, the process proceeds to step S67, where the fine character processing unit 73 sets the data selection flag # 5.
  • step S66 when it is determined that the data of the neighboring pixel area 51 does not match the eighth pattern, or in step S61, it is determined that the data of the area 81 does not match the fifth pattern group. In this case, the process proceeds to step S68, and the fine character processing unit 73 determines whether to perform the background color expansion process based on the process selection information obtained from the process mode control unit 35 by the process of step S42 in FIG. . [0104] If it is determined in step S68 that the background color expansion process is to be performed, the process proceeds to step S69, where the fine character processing unit 73 determines that the data in the area 81 is a ninth pattern (in this case, as shown in FIG. 13G It is determined whether it matches the pattern 87).
  • step S69 If it is determined in step S69 that the pattern matches the ninth pattern, the process proceeds to step S70, where the fine character processing unit 73 further stores the data of the neighboring pixel area 51 in the tenth pattern group (in this case, FIG. It is determined whether there is a pattern that matches the pattern 141 shown in FIG. 21 and the pattern 142) shown in FIG. 21B.
  • step S 70 when it is determined that at least one of the tenth pattern groups matches the data in the neighboring pixel area 51, the process proceeds to step S 71, where the fine character processing unit 73 Set the flag to "6".
  • step S68 If it is determined in step S68 that the background color expansion process should not be performed! /, If it is determined in step S69 that the data of the area 81 does not match the ninth pattern, If it is determined in step S70 that the data in the neighboring pixel area 51 does not match the tenth pattern group, the process returns to FIG. 25, and the data selection flag determination process ends.
  • step S81 the data selection unit 37 determines whether the supplied data selection flag is "0" or not, and if it determines that the data selection flag is "0", Proceeding to S82, the first pixel (for example, the pixel P [M0C0] in FIG. 6) is selected from the data in the neighboring pixel area 51 supplied from the replacement data buffer 33A of the data position replacement unit 33.
  • the first pixel for example, the pixel P [M0C0] in FIG. 6
  • step S81 If it is determined in step S81 that the data selection flag is not "0”, the process proceeds to step S83, and the data selection unit 37 further determines whether the data selection flag is "1” or "3". Is determined.
  • step S83 the data selection flag is “1” or “3” If it is determined that the pixel data of the neighboring pixel area 51 supplied from the replacement data buffer 33A of the data position replacement unit 33 is the second pixel corresponding to the foreground color, the process proceeds to step S84. (For example, the pixel of P [M0L1] corresponding to the foreground color in Fig. 6) is selected.
  • step S83 If it is determined in step S83 that the data selection flag is not “1” or “3”, the process proceeds to step S85, and the data selection unit 37 further sets the data selection flag to “2”. "Or” 6 ". If it is determined in step S85 that the data selection flag is “2” or “6”, the process proceeds to step S86, where the data selection unit 37 determines whether the neighboring pixels supplied from the replacement data buffer 33A of the data position replacement unit 33 have been supplied. A second pixel corresponding to the background color (for example, a pixel of P [M0L1] corresponding to the background color in FIG. 6) is selected from the data of the area 51.
  • a second pixel corresponding to the background color for example, a pixel of P [M0L1] corresponding to the background color in FIG. 6
  • step S85 when it is determined that the data selection flag is not “2” or “6”, the process proceeds to step S87, and the data selection unit 37 further sets the data selection flag to “4”. Alternatively, it is determined whether the value is “5”. If it is determined in step S87 that the data selection flag is “4” or “5”, the process proceeds to step S88, where the data selection unit 37 determines whether the neighboring pixels supplied from the replacement data buffer 33A of the data position replacement unit 33 have been supplied. From the data of the area 51, a third pixel corresponding to the foreground color (for example, a pixel of P [U1L1] corresponding to the foreground color in FIG. 6) is selected.
  • a third pixel corresponding to the foreground color for example, a pixel of P [U1L1] corresponding to the foreground color in FIG. 6 is selected.
  • step S87 if it is determined that the data selection flag is not "4" or "5", the process proceeds to step S89, and the data selection unit 37 determines that an error has occurred, After reacquiring the data selection flag from the data selection flag determination unit 36, the process returns to step S81, and the processing described above is repeatedly executed.
  • the data selection unit 37 selects one specific pixel according to the data selection flag, and outputs it to the mixer 15 as output data.
  • the specific pixel selected in this processing is merely an example, and it is needless to say that another pixel may be selected or may be selected by a predetermined calculation.
  • FIG. 29A shows a simulation result when wide characters are enlarged by conventional nearest neighbor interpolation.
  • Fig. 29B shows a case where wide characters are subjected to foreground color expansion processing by the wide character processing unit 72.
  • FIG. 29C shows a simulation result when wide characters are subjected to foreground color expansion processing and background color expansion processing by the wide character processing unit 72.
  • 30A shows an enlarged view of the area 161 in FIG. 29A
  • FIG. 30B shows an enlarged view of the area 162 in FIG. 29B
  • FIG. 31A shows an enlarged view of the area 163 in FIG. 29B.
  • FIG. 31B shows an enlarged view of region 164 of FIG. 29C.
  • FIGS. 29 to 31 foreground pixels are shown in black, and background pixels are shown in white (the same applies to FIGS. 32 to 34 described later).
  • the leftmost pixel in each region shown in FIGS. 30 and 31 is referred to as a pixel (1, 1), and the mth pixel in the horizontal direction and the nth pixel in the vertical direction are referred to as (m, n) pixels. (The same applies to Figs. 33 and 34 described later.)
  • the simulation result (Fig. 30B) when the foreground color expansion processing is performed by the wide character processing unit 72 is compared with the simulation result (Fig. 30A) when the expansion processing is performed by the conventional nearest neighbor interpolation (6, 2). , (4, 4), (3, 5), (3, 6), (2, 6), and (1, 7) pixels are interpolated from background (white) to foreground (black). Things to do.
  • the simulation result when the foreground color expansion processing and the background color expansion processing are performed by the wide character processing unit 72 is the simulation result when the foreground color expansion processing is performed by the wide character processing unit 72 (Fig. 31A).
  • the pixels (7, 1), (3, 3), (2, 4), (1, 5), (6, 6), and (5, 7) have the foreground color (black) From this, it can be seen that the color is interpolated to the background color (white).
  • FIG. 32A shows a simulation result when a thin character is enlarged by conventional nearest neighbor interpolation
  • Fig. 32B shows a simulation result when a thin character is subjected to foreground color expansion processing by a thin character processing unit 73
  • FIG. 32C shows a simulation result in the case where the fine character is subjected to the foreground color expansion processing and the background color expansion processing by the fine character processing unit 73.
  • 33A shows an enlarged view of the area 171 in FIG. 32A
  • FIG. 33B shows an enlarged view of the area 172 in FIG. 32B
  • FIG. 34A shows an enlarged view of the area 173 in FIG. 32B.
  • FIG. 34B shows an enlarged view of region 174 of FIG. 32C.
  • the simulation result when the foreground color expansion processing and the background color expansion processing are performed by the fine character processing unit 73 is the simulation result when the foreground color expansion processing is performed by the fine character processing unit 73 (Fig. 34A).
  • the pixels of (4, 1) and (1, 4) are interpolated from the foreground color (black) to the background color (white), and the pixel of (3, 2) has the foreground color It is easy to see that the interpolation is performed.
  • high-quality enlargement processing can be performed by switching the processing according to the characteristics of the character (wide character or fine character).
  • the enlargement processing for a binary image formed of white (background color) or black (foreground color) has been described.
  • the present invention is not limited to this, and the present invention is not limited to this.
  • Enlargement processing can also be performed on multi-valued gradation images composed of two or more values, such as shadow characters.
  • the basic configuration example is the same as that of the image enlarging device 21 shown in FIG. 4, and is realized by changing the internal processing of the pixel priority order determination unit 34 and the data selection flag determination unit 36. Can be.
  • FIG. 35 is a block diagram showing a detailed configuration example of the pixel priority order determination section 34 in the case of adapting to a multi-level gradation image.
  • the pixel priority order determination section 34 is composed of comparators 201-1 to 201-24, and the comparators 201-1 to 201-24 have LUTs 202-1 to 201-24. 202-24, LUT203-1 to 203-24, There are 24 power S each.
  • the LUTs 202-1 through 202-24 and LUTs 203-1 through 203-24 have, for example, a black color based on the background determination information, foreground determination information, and border determination information supplied from the processing mode control unit 35. Landscape, white are set as the background color, and yellow is set as the foreground border.
  • Comparator 201-1 is a pixel of P [D2L2] in the data of area 51 (FIG. 6) composed of 5 pixels vertically and 5 pixels horizontally supplied from data position exchange section 33.
  • the pixel value is converted to a value with a priority order for processing, and the pixel of P [M0C0] in the data of area 51 (that is, the point of interest). 42) is input, and the pixel value is converted into a value with a priority order for processing based on the LUT 203-1.
  • black is set as the foreground color
  • white is set as the background color
  • yellow is set as the border of the foreground
  • the magnitude comparator 204-1 compares the data of the point of interest 42 (the pixel of P [M0C0]) and the data of the pixel (IN) of P [D2L2] (the value with the rank). After comparison, the code shown in FIG. 36 is assigned, and the comparison result is output to the data selection flag determination unit 36 as F [X].
  • X represents a position relative to the point of interest 42.
  • the comparators 201-2 to 201-24 include, among the data of the region 51 (FIG. 6) composed of 5 pixels by 5 pixels supplied from the data replacement unit 33,
  • the pixel data of P [D2L1] to P [U2R2] are input, respectively, and based on the LUTs 202-2 to 202-24, the pixel values are converted to values in which priority order for processing is added.
  • the data of the pixel of P [M0C0] that is, the attention point 42
  • the pixel value is calculated based on LUT2 032 to 203-24. Convert to a value with priority order for processing.
  • the magnitude comparators 204-2 to 204-24 respectively convert the data of the point of interest 42 (the pixel of P [M0C0]) and the data of the pixel (IN) of P [D2L1] to P [U2R2] from the converted values. After comparison, the code shown in FIG. 36 is assigned, and the comparison result is output to the data selection flag determination unit 36 as F [X].
  • a code of “0” may be assigned to the attention point 42 by default, and the data selection flag determination unit 36 may output the code.
  • the data selection flag determination unit 36 determines that the point of interest 42 is the background color. Therefore, when F [X] supplied from the pixel priority determination unit 34 is a code of “3”, it is determined to be a foreground color, and when F [X] is a code of “0”, it is determined to be a background color. Further, in the case of the background color expansion processing, since the point of interest 42 is the foreground color, the data selection flag determination unit 36 determines the code of the F [X] force S “l” supplied from the pixel priority determination unit 34. In this case, it is determined to be the foreground color, and when the code is “2”, it is determined to be the background color.
  • FIG. 37A shows a simulation result in a case where a multi-value tone character is enlarged by conventional nearest neighbor interpolation.
  • FIG. 37B is a diagram in which a multi-value tone character is enlarged by the present invention. It shows the simulation result in the case of the above.
  • FIG. 38A shows an enlarged view of the area 211 in FIG. 37A
  • FIG. 38B shows an enlarged view of the area 212 in FIG. 37B.
  • the pixels of the foreground color are represented by black
  • the pixels of the background color are represented by white
  • the pixels of the border are represented by gray.
  • the leftmost pixel in each region shown in Fig. 38 is referred to as a pixel (1, 1)
  • the mth pixel in the horizontal direction and the nth pixel in the vertical direction are referred to as (m, n) pixels. .
  • the simulation result (FIG. 38B) when the enlargement processing is performed according to the present invention is compared with the simulation result (FIG. 38A) when the enlargement processing is performed by the conventional nearest neighbor interpolation (FIG. 38A).
  • And (6, 5) pixels are interpolated from the outline (gray) to the background color (white), and (2, 5) and (4, 7) pixels are interpolated to the foreground color with the outline You can see that there is.
  • the power applied to the OSD device has been described.
  • the present invention can be applied to a text area of a personal computer or a system that displays a graphic image such as a character or a figure. It is possible.
  • the image enlargement device 21 is realized by a computer 300 as shown in FIG.
  • a CPU (Central Processing Unit) 301 executes various processes according to a program stored in a ROM 302 or a program loaded from a storage unit 308 into a RAM (Random Access Memory) 303.
  • the RAM 303 also appropriately stores data necessary for the CPU 301 to execute various processes.
  • the CPU 301, the ROM 302, and the RAM 303 are interconnected via a bus 304.
  • An input / output interface 305 is also connected to the bus 304.
  • the input / output interface 305 is connected to an input unit 306 including a keyboard and a mouse, an output unit 307 including a display and the like, a storage unit 308, and a communication unit 309.
  • the communication unit 309 performs communication processing via a network.
  • the drive 310 is connected to the input / output interface 305 as necessary, and a removable medium 311 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory is appropriately mounted.
  • the installed computer program is installed in the storage unit 308 as needed.
  • a recording medium that is installed in a computer and records a program that can be executed by the computer is distributed in order to provide the user with the program separately from the apparatus main body.
  • Magnetic disks including flexible disks
  • optical disks including CD-ROMs (Compact Disc-Read Only Memory), DVDs (Digital Versatile Discs)), magneto-optical disks (MD (Mini -Disc) (including registered trademark)), or a program that is provided to the user in a state that it is built in the main body of the device, which is not only composed of removable media 311 composed of semiconductor memory, etc., but is recorded. It is configured by a hard disk or the like included in the ROM 303 or the storage unit 308.
  • the steps of describing a program stored in a recording medium are as follows. This includes not only the processing performed in chronological order according to the order in which they are included, but also the processing that is not necessarily performed in chronological order but is performed in parallel or individually.
  • a system refers to an entire device including a plurality of devices.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Editing Of Facsimile Originals (AREA)

Description

明 細 書
画像処理装置および方法、記録媒体、並びにプログラム
技術分野
[0001] 本発明は、画像処理装置および方法、記録媒体、並びにプログラムに関し、特に、 例えば、表示装置に表示された文字や画像などを、低コストかつ高品質に拡大する ことができるようにした画像処理装置および方法、記録媒体、並びにプログラムに関 する。
背景技術
[0002] 近年、 LCD (Liquid Crystal Display)などの画像表示装置における高解像度化が進 み、デジタル画像の拡大処理は、重要なものとなってきている。
[0003] ここで、従来の OSD (On Screen Display)装置 1に最近傍補間による拡大装置を適 用した場合の構成例を図 1に示す。
[0004] OSD装置 1のマイクロコンピュータ 11は、ユーザインターフェース 2からの、ユーザ の操作に対応する信号 (以下、ユーザ操作信号と称する)に基づいて、フォント ROM (Read Only Memory) 12および OSDプレーン用メモリ 13の記憶を制御する。フォント ROM12は、モニタ 3に表示させる文字、記号、または図形などのフォントを記憶する。 ここで記憶されるフォントには、和文フォント (いわゆる日本語に対応した書体)ゃ欧 文フォント(いわゆるアルファベットに対応した書体)など、様々な書体が存在する。 0 SDプレーン用メモリ 13は、マイクロコンピュータおによりフォント ROM12から読み出さ れたフォントを、 OSD表示データとして記憶するとともに、マイクロコンピュータ 11の制 御の下、 OSD表示データを 2 X 2倍最近傍補間部 14に供給する。 2 X 2倍最近傍補 間部 14は、 OSDプレーン用メモリ 13から供給された OSD表示データを、縦 2倍およ び横 2倍に拡大し、ミキサ 15に供給する。ミキサ 15は、図示せぬカメラ処理部から供 給された映像信号と、 2 X 2倍最近傍補間部 14から供給された OSD表示データを合 成し、モニタ 3に表示させる。
[0005] 図 2は、従来の OSD装置 1のフォント ROM12に、通常表示用および拡大表示用の フォントを記憶させた場合の構成例を示す図である。なお、図 1と対応する部分には 、同一の符号を付してあり、その説明は適宜省略する。
[0006] フォント ROM12は、モニタ 3に表示させる文字、記号、または図形などの、通常表示 用および拡大表示用のフォントを記憶する。 OSDプレーン用メモリ 13は、マイクロコン ピュータ 11によりフォント ROM12から読み出されたフォントを、 OSD表示データとして 記憶するとともに、マイクロコンピュータ 11の制御の下、 OSD表示データをミキサ 15に 供給する。ミキサ 15は、図示せぬカメラ処理部から供給された映像信号と、 OSDプレ ーン用メモリ 13から供給された OSD表示データを合成し、モニタ 3に表示させる。
[0007] 以上のように、図 1に示した OSD装置 1の場合、低コストではあるが、画像品質が大 幅に劣化する。図 2に示した OSD装置 1の場合、画像品質を保つことができるが、大 容量のフォント ROM12および OSDプレーン用メモリ 13が必要になる。
[0008] ところで、デジタルィ匕された画像は、デジタルスチルカメラなどの撮像デバイスでキ ャプチヤされた自然画像、および、コンピュータなどで生成されたグラフィックや文字 などの人工画像の 2つの目的に大きく分類することができる。
[0009] 自然画像には、双線形補間、 Cubic補間などのサンプリング定理を根拠とする補間 フィルタによる拡大手法および縮小手法が用いられる。これらの手法により、多値階 調を持ち、原理上ノイズが含まれる自然画像に対し、高品質の拡大画像を得ることが できる。
[0010] これに対し、人工画像に補間フィルタによる拡大手法を用いると、文字などのエッジ がなまり、高品質の画像を得ることができない。特に、文字などの 2値画像では、エツ ジなまりに起因するボケが生じる。そこで、人工画像には、これを回避するために、図 1に示したような最近傍補間による拡大手法が用いられる。ただし、この手法では、ジ ャギが視覚上の問題となる。
[0011] そこで、人工画像のうち、ノイズの影響を受け難 、、少な 、階調の画像データ(例え ば、文字や図形など)をターゲットとして、高品質に拡大する手法がいくつ力提案され ている。
[0012] 例えば、特許文献 1においては、基本文字フォントデータから拡大文字を生成し、こ れを補正する技術が提案されている。また例えば、特許文献 2においては、区分的 多項式補間を用いて、 2値画像をスケーリングする技術が提案されている。また例え ば、特許文献 3においては、遺伝的アルゴリズムによりフォントを生成する技術が提案 されている。また例えば、特許文献 4においては、周辺画素の連結状態を認識し、最 適な輪郭を推定してリサンプルする技術が提案されている。さらにまた例えば、特許 文献 5においては、文字や図形を拡大する際のスムージングに関する技術が提案さ れている。
[0013] 特許文献 1 :特開平 5— 94171号公報
特許文献 2:特開平 8— 63592号公報
特許文献 3 :特開 2004— 4302号公報
特許文献 4:特開平 6— 68247号公報
特許文献 5:特開平 9 - 305755号公報
発明の開示
発明が解決しょうとする課題
[0014] し力しながら、上述した特許文献の技術では、複雑な演算処理が必要となり、処理 時間ゃノ、一ドウエア化の際のコスト負担が大きくなる課題があった。
[0015] また、 、ずれの技術も、基本的に、 2値のグラフィック画像ある ヽは多値の場合でも 単色のグレースケール画像をターゲットとしており、縁取りや影文字などの文字装飾 が施された多値多色のグラフィック画像には対応することができない課題があった。
[0016] 本発明はこのような状況に鑑みてなされたものであり、表示装置に表示された文字 や画像などを、低コスト、かつ、高品質に拡大することができるようにするものである。 課題を解決するための手段
[0017] 本発明の画像処理装置は、画像のうち、注目画素を含む近傍の画素を保持する保 持手段と、注目画素を分割する分割手段と、保持手段により保持された各画素に対 し、対象色または背景色を判別する判別手段と、判別手段による判別結果に基づい て得られた対象色と背景色の配列パターンと、対象色を拡張するための第 1のバタ ーンがー致するか否かを判定する第 1のパターン判定手段と、判別手段による判別 結果に基づ 、て得られた対象色と背景色の配列パターンと、背景色を拡張するため の第 2のパターンが一致する力否かを判定する第 2のパターン判定手段と、第 1また は第 2のパターン判定手段による判定結果に基づいて、分割手段により分割された 注目画素に当てはめるべきデータを、近傍の画素の中から選択する選択手段とを備 えることを特徴とする。
[0018] 前記保持手段により保持された注目画素を含む近傍の画素の画素分布を入れ替 えるか否かを判定する判定手段と、判定手段による判定結果に基づいて、注目画素 を含む近傍の画素の画素分布を入れ替えるデータ入れ替え手段とをさらに設けるよ うにすることができる。
[0019] 前記画像は、文字であり、第 1および第 2のパターンは、それぞれ、文字の種別に 応じて決定される階層パターンで構成されて ヽるようにすることができる。
[0020] 前記判別手段は、注目画素と近傍の画素を比較することにより、対象色または背景 色を判別するようにすることができる。
[0021] 本発明の画像処理方法は、画像のうち、注目画素を含む近傍の画素を保持する保 持ステップと、注目画素を分割する分割ステップと、保持ステップの処理により保持さ れた各画素に対し、対象色または背景色を判別する判別ステップと、判別ステップの 処理による判別結果に基づ 、て得られた対象色と背景色の配列パターンと、対象色 を拡張するための第 1のパターンが一致する力否かを判定する第 1のパターン判定ス テツプと、判別ステップの処理による判別結果に基づ 、て得られた対象色と背景色の 配列パターンと、背景色を拡張するための第 2のパターンが一致する力否かを判定 する第 2のパターン判定ステップと、第 1または第 2のパターン判定ステップの処理に よる判定結果に基づいて、分割ステップの処理により分割された注目画素に当ては めるべきデータを、近傍の画素の中から選択する選択ステップとを含むことを特徴と する。
[0022] 本発明の記録媒体に記録されているプログラムは、画像のうち、注目画素を含む近 傍の画素を保持する保持ステップと、注目画素を分割する分割ステップと、保持ステ ップの処理により保持された各画素に対し、対象色または背景色を判別する判別ス テツプと、判別ステップの処理による判別結果に基づ 、て得られた対象色と背景色の 配列パターンと、対象色を拡張するための第 1のパターンが一致する力否かを判定 する第 1のパターン判定ステップと、判別ステップの処理による判別結果に基づ 、て 得られた対象色と背景色の配列パターンと、背景色を拡張するための第 2のパターン がー致する力否かを判定する第 2のパターン判定ステップと、第 1または第 2のパター ン判定ステップの処理による判定結果に基づ 、て、分割ステップの処理により分割さ れた注目画素に当てはめるべきデータを、近傍の画素の中から選択する選択ステツ プとを含む処理をコンピュータに行わせることを特徴とする。
[0023] 本発明のプログラムは、画像のうち、注目画素を含む近傍の画素を保持する保持ス テツプと、注目画素を分割する分割ステップと、保持ステップの処理により保持された 各画素に対し、対象色または背景色を判別する判別ステップと、判別ステップの処理 による判別結果に基づ 、て得られた対象色と背景色の配列パターンと、対象色を拡 張するための第 1のパターンが一致するか否かを判定する第 1のパターン判定ステツ プと、判別ステップの処理による判別結果に基づ!、て得られた対象色と背景色の配 列パターンと、背景色を拡張するための第 2のパターンが一致する力否かを判定する 第 2のパターン判定ステップと、第 1または第 2のパターン判定ステップの処理による 判定結果に基づいて、分割ステップの処理により分割された注目画素に当てはめる べきデータを、近傍の画素の中から選択する選択ステップとを含む処理をコンビユー タに行わせることを特徴とする。
[0024] 本発明においては、画像のうち注目画素を含む近傍の画素が保持され、注目画素 が分割され、保持された各画素に対し、対象色または背景色が判別され、その判別 結果に基づ ヽて得られた対象色と背景色の配列パターンと、対象色を拡張するため の第 1のパターンが一致する力否かが判定され、配列パターンと背景色を拡張する ための第 2のパターンが一致する力否かが判定され、第 1または第 2の判定結果に基 づいて、分割された注目画素に当てはめるべきデータが近傍の画素の中力 選択さ れる。
発明の効果
[0025] 本発明によれば、表示装置に表示された文字や画像などを拡大することができる。
特に、回路規模を大きくすることなぐ少ない演算処理で、低コストかつ高品質に、表 示装置に表示された文字や画像などを拡大することが可能となる。
図面の簡単な説明
[0026] [図 1]従来の OSD装置に最近傍補間による拡大装置を適用した場合の構成例を示す 図である。
[図 2]従来の OSD装置のフォント ROMに、通常表示用および拡大表示用のフォントを 記憶させた場合の構成例を示す図である
圆 3]本発明を適用した OSD装置の構成例を示すブロック図である。
[図 4]画像拡大装置の内部の構成例を示すブロック図である。
[図 5A]データバッファで保持されるデータを説明する図である。
[図 5B]データバッファで保持されるデータを説明する図である。
[図 5C]データバッファで保持されるデータを説明する図である。
圆 6]データ位置入れ替え方法の概略を説明する図である。
圆 7A]データ位置入れ替え方法の詳細を説明する図である。
圆 7B]データ位置入れ替え方法の詳細を説明する図である。
[図 8A]データ位置入れ替え方法の詳細を説明する他の図である。
[図 8B]データ位置入れ替え方法の詳細を説明する他の図である。
[図 9A]データ位置入れ替え方法の詳細を説明する他の図である。
[図 9B]データ位置入れ替え方法の詳細を説明する他の図である。
[図 10A]データ位置入れ替え方法の詳細を説明する他の図である。
[図 10B]データ位置入れ替え方法の詳細を説明する他の図である。
[図 11]画素優先順位判定部の詳細な構成例を示すブロック図である。
[図 12]データ選択フラグ判定部の詳細な構成例を示すブロック図である。
[図 13A]パターン判定に用いられるパターン例を示す図である。
[図 13B]パターン判定に用いられるパターン例を示す図である。
[図 13C]パターン判定に用いられるパターン例を示す図である。
[図 13D]パターン判定に用いられるパターン例を示す図である。
[図 13E]パターン判定に用いられるパターン例を示す図である。
[図 13F]パターン判定に用いられるパターン例を示す図である。
[図 13G]パターン判定に用いられるパターン例を示す図である。
[図 14A]パターン判定に用いられる他のパターン例を示す図である。
[図 14B]パターン判定に用いられる他のパターン例を示す図である。 図 14C]パターン判定に用いられる他のパターン例を示す図である。 図 14D]パターン判定に用いられる他のパターン例を示す図である。 図 15A]パターン判定に用いられる他のパターン例を示す図である。 図 15B]パターン判定に用いられる他のパターン例を示す図である。 図 15C]パターン判定に用いられる他のパターン例を示す図である。 図 15D]パターン判定に用いられる他のパターン例を示す図である。 図 16A]パターン判定に用いられる他のパターン例を示す図である。 図 16B]パターン判定に用いられる他のパターン例を示す図である。 図 16C]パターン判定に用いられる他のパターン例を示す図である。 図 16D]パターン判定に用いられる他のパターン例を示す図である。 :図 16E]パターン判定に用いられる他のパターン例を示す図である。 :図 17A]パターン判定に用いられる他のパターン例を示す図である。 :図 17B]パターン判定に用いられる他のパターン例を示す図である。 :図 17C]パターン判定に用いられる他のパターン例を示す図である。 :図 17D]パターン判定に用いられる他のパターン例を示す図である。 :図 18A]パターン判定に用いられる他のパターン例を示す図である。 :図 18B]パターン判定に用いられる他のパターン例を示す図である。 :図 18C]パターン判定に用いられる他のパターン例を示す図である。 :図 18D]パターン判定に用いられる他のパターン例を示す図である。 :図 19A]パターン判定に用いられる他のパターン例を示す図である。 :図 19B]パターン判定に用いられる他のパターン例を示す図である。 :図 19C]パターン判定に用いられる他のパターン例を示す図である。 :図 19D]パターン判定に用いられる他のパターン例を示す図である。 :図 20A]パターン判定に用いられる他のパターン例を示す図である。 :図 20B]パターン判定に用いられる他のパターン例を示す図である。 :図 20C]パターン判定に用いられる他のパターン例を示す図である。 :図 20D]パターン判定に用いられる他のパターン例を示す図である。 :図 20E]パターン判定に用いられる他のパターン例を示す図である。 [図 21A]パターン判定に用いられる他のパターン例を示す図である。
[図 21B]パターン判定に用いられる他のパターン例を示す図である。
[図 22]データバッファが実行する処理を説明するフローチャートである。
[図 23]データ位置入れ替え処理を説明するフローチャートである。
圆 24]画素優先順位判定処理を説明するフローチャートである。
[図 25]データ選択フラグ判定処理を説明するフローチャートである。
[図 26]図 26のステップ S45における幅広文字処理の詳細を説明するフローチャート である。
[図 27]図 25のステップ S46における細文字処理の詳細を説明するフローチャートで ある。
[図 28]データ選択処理を説明するフローチャートである。
[図 29A]シミュレーション結果を示す図である。
[図 29B]シミュレーション結果を示す図である。
[図 29C]シミュレーション結果を示す図である。
[図 30A]図 29の部分拡大図である。
[図 30B]図 29の部分拡大図である。
[図 31A]図 29の他の部分拡大図である。
[図 31B]図 29の他の部分拡大図である。
[図 32A]シミュレーション結果を示す図である。
[図 32B]シミュレーション結果を示す図である。
[図 32C]シミュレーション結果を示す図である。
[図 33A]図 32の部分拡大図である。
[図 33B]図 32の部分拡大図である。
[図 34A]図 32の他の部分拡大図である。
[図 34B]図 32の他の部分拡大図である。
圆 35]多値階調の画像に適応した場合の画素優先順位判定部の詳細な構成例を示 すブロック図である。
[図 36]P [M0C0]と INの比較結果に応じて割り当てられるコードを示す図である。 [図 37A]シミュレーション結果を示す図である。
[図 37B]シミュレーション結果を示す図である。
[図 38A]図 37の部分拡大図である。
[図 38B]図 37の部分拡大図である。
[図 39]コンピュータの構成例を示すブロック図である。
符号の説明
[0027] 1 OSD装置, 3 モニタ, 12 フォント ROM, 21 画像拡大装置, 31 制御 部, 32 データバッファ, 33 データ位置入れ替え部, 34 画素優先順位判定 部, 35 処理モード制御部, 36 データ選択フラグ判定部, 37 データ選択部 , 61— 1乃至 61— 25 判定器, 62— 1乃至 62— 25 LUT, 71 文字認識部, 72 幅広文字処理部, 73 細文字処理部, 201— 1乃至 201— 24 比較器, 202— 1乃至 202— 24, 203— 1乃至 203— 24 LUT, 204— 1乃至 204— 24 大小比較器
発明を実施するための最良の形態
[0028] 以下に、本発明の実施の形態について図面を参照して説明する。
[0029] 図 3は、本発明を適用した OSD装置 1の構成例を示す図である。なお、従来と対応 する部分には、同一の符号を付してあり、その説明は適宜省略する。
[0030] OSDプレーン用メモリ 13は、マイクロコンピュータ 11の制御の下、 OSD表示データ を画像拡大装置 21に供給する。画像拡大装置 21は、 OSDプレーン用メモリ 13から 供給された OSD表示データを、後述する処理によって縦 2倍および横 2倍に拡大し、 ミキサ 15に供給する。ミキサ 15は、図示せぬカメラ処理部力も供給された映像信号と 、画像拡大装置 21から供給された OSD表示データを合成し、モニタ 3に表示させる。
[0031] 図 4は、画像拡大装置 21の内部の構成例を示すブロック図である。
[0032] 制御部 31は、外部から供給される制御信号、および処理モード制御部 35から供給 されるモード制御信号に基づいて、データバッファ 32、データ位置入れ替え部 33、 画素優先順位判定部 34、データ選択フラグ判定部 36、およびデータ選択部 37の各 動作を制御する。ここで、外部力 供給される制御信号は、例えば、垂直同期信号、 水平同期信号、およびクロックなどであり、モード制御信号は、例えば、画像の有効 位置の範囲を示す値などである。
[0033] データバッファ 32は、ラインメモリおよびデータ遅延レジスタなどで構成されており、 制御部 31から供給される水平同期信号およびクロックに同期して、 OSDプレーン用メ モリ 13から供給された入力データ (デジタル化された画像信号)のうち、拡大処理の ために必要な注目画素近傍のデータを 1画素毎に保持する。この入力データは、デ ータバッファ 32にラスタ順に供給されてもよいし、あるいは、データバッファ 32がラン ダムアクセスにより取得するようにしてもよい。なお、データバッファ 32で保持されるデ ータの詳細については、図 5を参照して後述する。
[0034] データ位置入れ替え部 33は、制御部 31の制御の下、データバッファ 32から供給さ れた注目画素近傍データのデータ位置を必要に応じて入れ替え、データ位置が入 れ替えられたデータを入れ替えデータバッファ 33Aに格納し、画素優先順位判定部 34およびデータ選択部 37に供給する。なお、データ位置入れ替え部 33で行われる データ位置入れ替え方法の詳細については、図 6乃至図 10を参照して後述する。
[0035] 画素優先順位判定部 34は、データ位置入れ替え部 33から供給された、データ位 置が入れ替えられた注目画素近傍データの各画素に対し、背景色であるか、あるい は、前景色 (対象色)であるかを判定する。なお、画素優先順位判定部 34の詳細に ついては、図 11を参照して後述する。
[0036] 処理モード制御部 35は、ユーザインターフェース 2からのユーザ操作信号に基づ V、て、背景判定情報 (背景色を一意に決めるための情報)および前景判定情報 (前 景色を一意に決めるための情報)を変化させて画素優先順位判定部 34に供給したり 、または、処理選択情報(幅広文字処理または細文字処理を行うか否かに関する情 報や、背景色拡張処理または前景色拡張処理を行うか否かに関する情報など)を変 ィ匕させてデータ選択フラグ判定部 36に供給する。ただし、処理内容が固定である場 合、これらの情報を変化させる必要がないことは言うまでもない。
[0037] データ選択フラグ判定部 36は、処理モード制御部 35から供給される処理選択情報 に基づ!/、て、画素優先順位判定部 34から供給された判定結果である注目画素近傍 データのデータ選択フラグを判定する。なお、データ選択フラグ判定部 36の詳細に ついては、図 12乃至図 21を参照して後述する。 [0038] データ選択部 37は、データ選択フラグ判定部 36から供給された判定結果であるデ ータ選択フラグに基づいて、注目画素位置に当てはめるべき画像データを、データ 位置入れ替え部 33から供給された注目画素近傍データから選択し、出力データとし てミキサ 15に出力する。
[0039] 図 5A乃至図 5Cは、データバッファ 32で保持されるデータを説明する図である。
[0040] 図 5Aは、データバッファ 32に入力されるデジタル化された画像 41を表わしている 。この画像 41は、画素値 0 (背景色)の画素が白で表され、画素値 1 (前景色)の画素 が黒で表されることで、「3」の文字が表現されている。図 5Bは、画像 41の注目点(注 目画素) 42を中心として、その近傍にある縦 5個 X横 5個の画素で構成される領域 4 3の拡大図を表わしている。本実施の形態では、注目点 42を 4つ(図 5Bの例では、 A 乃至 D)に分割することにより、縦 2倍および横 2倍の拡大処理を行う。
[0041] 図 5Cは、拡大処理のために参照する領域 43のデータの各画素に対して、注目点 42からの相対的な位置関係に従って、順番に記号が割り当てられている様子を模式 的に示している。注目点 42の「M0C0」の画素から、 2つ上の画素は「U2」、 1つ上の 画素は「U1」、同じ横方向の画素は、「M0」、 1つ下の画素は「D1」、 2つ下の画素は「 D2」という記号が割り当てられている。また、注目点 42の「M0C0」の画素から、 2つ左 の画素は「L2」、 1つ左の画素は「L1」、同じ縦方向の画素は、「C0」、 1つ右の画素は 「R1」、 2つ右の画素は「R2」 t\、う記号が割り当てられて!/、る。
[0042] これにより、注目点 42からの相対的な位置の画素値を表すことができる。なお、本 実施の形態では、縦 5個 X横 5個の画素で構成される領域 43のデータを参照する場 合について説明するが、これに限らず、例えば、縦 3個 X横 3個、縦 7個 X横 7個、あ るいは、それ以上の数の画素で構成される領域のデータを参照するようにしてもょ ヽ
[0043] 図 6は、データ位置入れ替え部 33で行われるデータ位置入れ替え方法の概略を 説明する図である。
[0044] データ位置入れ替え部 33は、制御部 31から供給されたデータ処理位置情報に基 づいて、データバッファ 32から出力された縦 5個 X横 5個の画素で構成される領域 4 3のデータのデータ位置を入れ替え、データ位置が入れ替えられた、縦 5個 X横 5個 の画素で構成される領域 51のデータを入れ替えデータノッファ 33Aに格納する。同 図に示されるように、入れ替えデータバッファ 33Aに格納されたデータの各画素値は 、 P[X]で表されている。ここで、 Xは、注目点 42からの相対的な位置を表わしている
[0045] 次に、データ位置入れ替え部 33で行われるデータ位置入れ替え方法の詳細につ いて、図 7乃至図 10を参照して説明する。なお、縦 5個 X横 5個の領域 43の最上行 を第 1行、その次の行を第 2行、 · · ·、最下行を第 5行、最左列を第 1列、その次の列 を第 2列、 · · ·最右列を第 5列と記載する。
[0046] まず、制御部 31は、入力画素サイズに応じた処理ループを作り、縦 2倍および横 2 倍に画素数を増やす拡大ループを作ることにより、図 5Bに示したように、注目点 42を A乃至 Dの 4つに分割する。そして、制御部 31は、縦 2個 X横 2個の画素のうち、どの 位置にある画素のデータ処理を行うかを示すデータ処理位置情報を、データ位置入 れ替え部 33に供給する。
[0047] データ位置入れ替え部 33は、制御部 31から供給されたデータ処理位置情報が、 図 7Aに示されるように位置 A (基準)を示す場合、図 7Bに示されるように、領域 43の データのデータ位置を入れ替えずに、入れ替えデータバッファ 33Aに格納させる。こ こで、領域 43のデータのデータ位置は入れ替えられていないが、入れ替えデータバ ッファ 33Aに格納されることで、縦 5個 X横 5個の画素で構成される新たな領域 51の データとされる。
[0048] また、データ位置入れ替え部 33は、制御部 31から供給されたデータ処理位置情 報が、図 8Aに示されるように位置 Bを示す場合、図 8Bに示されるように、左右(すな わち、横方向)に領域 43のデータのデータ位置を入れ替える。これにより、例えば、 領域 43の第 1行目力 左から順に、「U2L2」、「U2L1」、「U2CO」、「U2R1」、「U2R2」 の画素の順で構成されていたものが、「U2R2」、「U2R1」、「U2CO」、「U2L1」、「U2L2 」の画素の順に入れ替えられる。同様に、第 2乃至第 5行目においても、左右にデー タ位置が入れ替えられる。このようにしてデータ位置が入れ替えられた、縦 5個 X横 5 個の画素で構成される新たな領域 51のデータが入れ替えデータノッファ 33Aに格 納される。 [0049] また、データ位置入れ替え部 33は、制御部 31から供給されたデータ処理位置情 報力 図 9Aに示されるように位置 Cを示す場合、図 9Bに示されるように、上下 (すな わち、縦方向)に領域 43のデータのデータ位置を入れ替える。これにより、例えば、 領域 43の第 1列目力 上から順に、「U2L2」、「U1L2」、「M0L2」、「D1L2」、「D2L2」の 画素の順で構成されていたものが、「D2L2」、「D1L2」、「M0L2」、「U1L2」、「U2L2」の 画素の順に入れ替えられる。同様に、第 2乃至第 5列目においても、上下にデータ位 置が入れ替えられる。このようにしてデータ位置が入れ替えられた、縦 5個 X横 5個の 画素で構成される新たな領域 51のデータが入れ替えデータバッファ 33Aに格納され る。
[0050] さらに、データ位置入れ替え部 33は、制御部 31から供給されたデータ処理位置情 報が、図 10Aに示されるように位置 Dを示す場合、図 10Bに示されるように、左右お よび上下 (すなわち、横方向および縦方向)に領域 43のデータのデータ位置を入れ 替える。これにより、例えば、領域 43の第 1行目力 左から順に、「U2L2」、「U2L1」、「 U2CO」、「U2R1」、「U2R2」の画素の順で構成されていたものが、「D2R2」、「D2R1」、 「D2C0」、「D2L1」、「D2L2」の画素の順に入れ替えられる。同様に、第 2乃至第 5行 目においても、左右にデータ位置が入れ替えられるとともに、第 2乃至第 5列におい ても、上下にデータ位置が入れ替えられる。このようにしてデータ位置が入れ替えら れた、縦 5個 X横 5個の画素で構成される新たな領域 51のデータが入れ替えデータ バッファ 33Aに格納される。
[0051] 以上のように、注目点 42を縦 2倍および横 2倍に拡大処理する際、データ位置入れ 替え部 33がデータ位置を入れ替えることで、後段 (画素優先順位判定部 34以降)で は、そのデータ処理位置に関わらず、位置 A (図 7A)の処理として行うことができる。 その結果、後述するパターン判定のノターン数を減らすことができ、演算コストを 1Z 4に削減することができる。
[0052] 図 11は、画素優先順位判定部 34の詳細な構成例を示すブロック図である。
[0053] 同図に示されるように、画素優先順位判定部 34は、判定器 61— 1乃至 61— 25で 構成されており、判定器 61— 1乃至 61— 25には、 LUT (ルックアップテーブル) 62— 1乃至 62— 25がそれぞれ設けられている。 LUT62— 1乃至 62— 25には、処理モー ド制御部 35から供給された背景判定情報および前景判定情報に基づ 、て、例えば 、画素値 0 (白)が背景色、画素値 1 (黒)が前景色として、それぞれ設定されている。
[0054] 判定器 61— 1は、データ位置入れ替え部 33から供給される縦 5個 X横 5個の画素 で構成される領域 51 (図 6)のデータのうち、 P[D2L2]の画素のデータを入力し、 LU T62— 1に基づいて、その画素値が、背景色であるか、あるいは、前景色であるかを 判定する。同様に、判定器 61— 2乃至 61— 25は、データ位置入れ替え部 33から供 給される縦 5個 X横 5個の画素で構成される領域 51のデータのうち、 P [D2L1]乃至 P [U2R2]の画素のデータをそれぞれ入力し、 LUT62— 2乃至 62— 25に基づいて、そ の画素値が、背景色であるか、あるいは、前景色であるかを判定する。
[0055] そして、判定器 61— 1乃至 61— 25は、判定結果を F[X]として、データ選択フラグ 判定部 36にそれぞれ出力する。ここで、 Xは、注目点 42からの相対的な位置を表わ している。
[0056] 図 12は、データ選択フラグ判定部 36の詳細な構成例を示すブロック図である。
[0057] 文字認識部 71は、処理モード制御部 35から供給される処理選択情報に基づいて 、拡大処理すべき文字が、幅広文字であるか、あるいは、細文字であるかを認識する 。ここで、「幅広文字」とは、例えば、二画素幅以上の線で構成されるボールドフォント あるいは強調文字とされ、「細文字」とは、例えば、一画素幅の線で構成される文字と される。拡大処理すべき文字が幅広文字であると認識された場合、画素優先順位判 定部 34から供給された判定結果である縦 5個 X横 5個の画素で構成される領域 51 のデータが幅広文字処理部 72に供給される。一方、拡大処理すべき文字が細文字 であると認識された場合、画素優先順位判定部 34から供給された判定結果である縦 5個 X横 5個の画素で構成される領域 51のデータが細文字処理部 73に供給される
[0058] 幅広文字処理部 72は、供給された縦 5個 X横 5個の画素で構成される領域 51の データのうち、図 13Aに示されるように、注目点 42、注目点 42の 1つ上の画素、注目 点 42の 1つ斜め左上の画素、および注目点 42の 1つ左の画素からなる、縦 2個 X横 2個の画素で構成される領域 81のデータと、図 13Bに示されるパターン 82、および、 図 13Cに示されるパターン 83との一致性を判定する。そして、幅広文字処理部 72は 、判定結果に基づいて、さらに、縦 5個 X横 5個の画素で構成される領域 51のデータ と図 14乃至図 19の各パターンの一致性を判定し、その判定結果に基づいて、デー タ選択フラグを設定する(その詳細は、後述する)。ただし、初期時におけるデータ選 択フラグは、 0に設定されている。
[0059] 細文字処理部 73は、供給された縦 5個 X横 5個の画素で構成される領域 51のデ ータのうち、図 13Aに示されるような、縦 2個 X横 2個の画素で構成される領域 81の データと、図 13Dに示されるパターン 84、図 13Eに示されるパターン 85、図 13Fに 示されるパターン 86、および、図 13Gに示されるパターン 87との一致性を判定する。 そして、細文字処理部 73は、判定結果に基づいて、さらに、縦 5個 X横 5個の画素で 構成される領域 51のデータと図 20および図 21の各パターンの一致性を判定し、そ の判定結果に基づいて、データ選択フラグを設定する(その詳細は、後述する)。た だし、初期時におけるデータ選択フラグは、 0に設定されている。
[0060] なお、図 13A乃至図 13Gにおいて、前景色(画素値 1)の画素は黒で表されており 、背景色 (画素値 0)の画素は白で表されている。
[0061] 図 12に示すように、入力画像中の文字特性に応じて、「幅広文字」と「細文字」とに 分類し、それぞれの処理を行うようにすることで、文字特徴を活かした拡大処理が可 能となる。
[0062] 次に、幅広文字処理部 72および細文字処理部 73で行われるパターン判定の詳細 について、図 14乃至図 21を参照して説明する。なお、図 14乃至図 21において、注 目点 42の拡大するポイント 91には斜線模様が付されて表されており、前景色の画素 には幾何学模様が付されて表されており、背景色の画素は白で表されており、前景 色または背景色の!/、ずれでもよ!、画素 (パターン判定で無視する画素)はグレーで 表されている。
[0063] 幅広文字処理部 72は、領域 81 (図 13A)のデータとパターン 82 (図 13B)がー致 すると判定した場合、縦 5個 X横 5個の画素で構成される領域 51のデータと、図 14A に示されるパターン 101、図 14Bに示されるパターン 102、図 14Cに示されるパター ン 103、図 14Dに示されるパターン 104、図 15Aに示されるパターン 105、図 15Bに 示されるパターン 106、図 15Cに示されるパターン 107、および図 15Dに示されるパ ターン 108との一致性を判定する。そして、幅広文字処理部 72は、判定の結果、パ ターン 101乃至 108の 8つのパターンのうち、 1つでも一致するものがあれば、データ 選択フラグに「1」を設定する。
[0064] また、幅広文字処理部 72は、領域 81 (図 13A)のデータとパターン 83 (図 13C)が 一致すると判定した場合、縦 5個 X横 5個の画素で構成される領域 51のデータと、図 16Aに示されるパターン 111、図 16Bに示されるパターン 112、図 16Cに示されるパ ターン 113、図 16Dに示されるパターン 114、図 16Eに示されるパターン 115、図 17 Aに示されるパターン 116、図 17Bに示されるパターン 117、図 17Cに示されるパタ ーン 118、図 17Dに示されるパターン 119、図 18Aに示されるパターン 120、図 18B に示されるパターン 121、図 18Cに示されるパターン 122、図 18Dに示されるパター ン 123、図 19Aに示されるパターン 124、図 19Bに示されるパターン 125、図 19Cに 示されるパターン 126、および図 19Dに示されるパターン 127との一致性を判定する 。そして、幅広文字処理部 72は、判定の結果、パターン 111乃至 127の 17つのパタ ーンのうち、 1つでも一致するものがあれば、データ選択フラグに「2」を設定する。
[0065] 細文字処理部 73は、領域 81 (図 13A)のデータとパターン 84乃至 86 (図 13D乃至 図 13F)の 3つのパターンのうち、 1つでも一致すると判定した場合、縦 5個 X横 5個 の画素で構成される領域 51のデータと、図 20Aに示されるパターン 131、図 20Bに 示されるパターン 132、図 20Cに示されるパターン 133、図 20Dに示されるパターン 134、および図 20Eに示されるパターン 135との一致性を判定する。
そして、細文字処理部 73は、判定の結果、パターン 131乃至 133の 3つのパターン のうち、 1つでも一致するものがあれば、データ選択フラグに「3」を設定し、パターン 1 34に一致すれば、データ選択フラグに「4」を設定し、ノターン 135に一致すれば、 データ選択フラグに「5」を設定する。
[0066] また、細文字処理部 73は、領域 81 (図 13A)のデータとパターン 87 (図 13G)のパ ターンが一致すると判定した場合、縦 5個 X横 5個の画素で構成される領域 51のデ ータと、図 21Aに示されるパターン 141、および図 21Bに示されるパターン 142との 一致性を判定する。そして、細文字処理部 73は、判定の結果、パターン 141および 1 42の 2つのパターンのうち、 1つでも一致するものがあれば、データ選択フラグに「6」 を設定する。
[0067] 以上のように、縦 5個 X横 5個の画素で構成される領域 51のデータと各パターンと の一致性を判定することで、データ選択フラグには、「0」乃至「6」のいずれかの値が 設定される。なお、ノターン判定に用いられる各パターンは、本件発明者のシミュレ ーシヨン結果力 得られたパターンとされている力 勿論、これに限られるものではな い。
[0068] 次に、図 22のフローチャートを参照して、データバッファ 32が実行する処理につい て説明する。この処理は、 OSDプレーン用メモリ 13から入力データが供給されたとき 開始される。
[0069] ステップ S1において、データバッファ 32は、初期化として、変数 Nを 1に設定するす る。ステップ S2において、データバッファ 32は、 OSDプレーン用メモリ 13から供給さ れた入力データのうち、注目点 42を中心として、その近傍にある縦 5個 X横 5個の画 素で構成される領域 43を設定する(図 5B)。以下、注目点 42を中心として、その近 傍にある縦 5個 X横 5個の画素で構成される領域 43を、適宜、近傍画素領域 43と記 載する。
[0070] ステップ S3において、データバッファ 32は、制御部 31から供給される水平同期信 号およびクロックに同期して、ステップ S2の処理で設定された近傍画素領域 43の N 行目にある入力データを保持する。例えば、図 5Cにおいて、「D2L2」、「D2L1」、「D2 C0」、「D2R1」、および「D2R2」の画素のデータが保持される。ステップ S4において、 データバッファ 32は、変数 Nが 5以上になった力否力、すなわち、近傍画素領域 43 のデータ(図 5C)が全て保持されたカゝ否かを判定し、変数 Nがまだ 5以上になってい ないと判定した場合、ステップ S3に戻り、上述した処理を繰り返し実行する。
[0071] ステップ S4において、変数 Nが 5以上になったと判定された場合、処理は終了され る。
[0072] 以上の処理により、データバッファ 32には、縦 5個 X横 5個の画素で構成される領 域 43のデータ(図 5C)が保持される。
[0073] 次に、図 23のフローチャートを参照して、データ位置入れ替え部 33が実行する、デ ータ位置入れ替え処理について説明する。この処理は、データバッファ 32から近傍 画素領域 43のデータが供給されたとき開始される。
[0074] ステップ S11において、データ位置入れ替え部 33は、制御部 31から供給されるデ ータ処理位置情報(例えば、図 7Aに示す位置 A、図 8Aに示す位置 B、図 9Aに示す 位置 C、または図 10Aに示す位置 D)を取得し、ステップ S12において、取得したデ ータ処理位置情報が位置 A (図 7A)であるカゝ否かを判定する。
[0075] ステップ S12にお 、て、データ処理位置情報が位置 Aであると判定された場合、ス テツプ S13に進み、データ位置入れ替え部 33は、近傍画素領域 43のデータのデー タ位置を入れ替えずに、そのまま入れ替えデータバッファ 33Aに格納する(図 7B)。
[0076] ステップ S12にお 、て、データ処理位置情報が位置 Aではな 、と判定された場合、 ステップ S14に進み、データ位置入れ替え部 33は、さらにデータ処理位置情報が位 置 B (図 8A)であるか否かを判定する。ステップ S14において、データ処理位置情報 が位置 Bであると判定された場合、ステップ S15に進み、データ位置入れ替え部 33 は、左右 (横方向)に近傍画素領域 43のデータのデータ位置を入れ替え、入れ替え データバッファ 33Aに格納する(図 8B)。
[0077] ステップ S 14にお 、て、データ処理位置情報が位置 Bではな 、と判定された場合、 ステップ S16に進み、データ位置入れ替え部 33は、さらにデータ処理位置情報が位 置 C (図 9A)であるか否かを判定する。ステップ S 16において、データ処理位置情報 が位置 Cであると判定された場合、ステップ S17に進み、データ位置入れ替え部 33 は、上下 (縦方向)に近傍画素領域 43のデータのデータ位置を入れ替え、入れ替え データバッファ 33Aに格納する(図 9B)。
[0078] ステップ S16にお 、て、データ処理位置情報が位置 Cではな 、と判定された場合、 ステップ S18に進み、データ位置入れ替え部 33は、さらにデータ処理位置情報が位 置 D (図 10A)であるか否かを判定する。ステップ S18において、データ処理位置情 報が位置 Dであると判定された場合、ステップ S 19に進み、データ位置入れ替え部 3 3は、左右 (横方向)および上下 (縦方向)に近傍画素領域 43のデータのデータ位置 を入れ替え、入れ替えデータバッファ 33Aに格納する(図 10B)。
[0079] ステップ SI 8にお 、て、データ処理位置情報が位置 Dではな 、と判定された場合、 ステップ S20に進み、データ位置入れ替え部 33は、エラーが発生したと判断し、制 御部 31からデータ処理位置情報を再度取得した後、ステップ S12に戻り、上述した 処理を繰り返し実行する。
[0080] 以上の処理により、入れ替えデータバッファ 33Aには、位置 Aの拡大処理として扱 うことができるようにデータ位置が入れ替えられた、縦 5個 X横 5個の画素で構成され る新たな領域 51のデータ(図 6)が格納される。以下、縦 5個 X横 5個の画素で構成さ れる領域 51のデータを、適宜、近傍画素領域 51のデータと記載する。
[0081] 次に、図 24のフローチャートを参照して、画素優先順位判定部 34が実行する、画 素優先順位判定処理について説明する。この処理は、データ位置入れ替え部 33の 入れ替えデータバッファ 33Aから近傍画素領域 51のデータが供給されたとき開始さ れる。
[0082] ステップ S31において、データ位置入れ替え部 33の判定器 61— 1は、 LUT62— 1 を参照し、ステップ S32において、近傍画素領域 51の P[D2L2]の画素のデータが背 景色であるか否かを判定する。ステップ S32において、近傍画素領域 51の P[D2L2] の画素のデータが背景色であると判定された場合、ステップ S33に進み、判定器 61 — 1は、近傍画素領域 51の P[D2L2]の画素のデータを、「背景色」として判定 (確定 )する。
[0083] ステップ S32において、近傍画素領域 51の P[D2L2]の画素のデータが背景色で はないと判定された場合、ステップ S34に進み、判定器 61— 1は、近傍画素領域 51 の P [D2L2]の画素のデータを、「前景色」として判定 (確定)する。
[0084] 同様に、判定器 61— 2乃至 61— 25も、上述した処理を実行し、近傍画素領域 51 の P[D2L1]乃至 P[U2R2]の画素のデータ力 「背景色」であるか、あるいは、「前景 色」であるかをそれぞれ判定する。
[0085] 以上の処理により、近傍画素領域 51のデータの各画素値力 「背景色」または「前 景色」の一意に決められる。
[0086] 次に、図 25のフローチャートを参照して、データ選択フラグ判定部 36が実行する、 データ選択フラグ判定処理について説明する。この処理は、画素優先順位判定部 3 4から近傍画素領域 51のデータの画素優先順位判定結果が供給されたとき開始さ れる。 [0087] ステップ S41において、データ選択フラグ判定部 36の幅広文字処理部 72および細 文字処理部 73は、初期化として、データ選択フラグを「0」にそれぞれ設定する。ステ ップ S42において、データ選択フラグ判定部 36の文字認識部 71は、処理モード制 御部 35から供給される処理選択情報を取得する。ここで取得される処理選択情報に は、背景色拡張処理を行うか、または、前景色拡張処理を行うかに関する情報が含 まれる。
[0088] ステップ S43において、データ選択フラグ判定部 36の文字認識部 71は、フォント R OM 12を参照し、入力データの文字種別 (「幅広文字」あるいは「細文字」 )を認識す る。なお、ステップ S42の処理で取得された処理選択情報に、文字種別に関する情 報が含まれて!/、る場合には、このステップ S43の処理は省略することができる。
[0089] ステップ S44において、文字認識部 71は、拡大処理すべき文字が幅広文字である か否かを判定し、幅広文字であると判定した場合、近傍画素領域 51のデータおよび 処理選択情報を幅広文字処理部 72に供給した後、ステップ S45に進む。ステップ S 45において、幅広文字処理 72は、供給された近傍画素領域 51のデータおよび処 理選択情報に基づいて、幅広文字処理を行う。この幅広文字処理の詳細について は、図 26のフローチャートを参照して後述するが、この処理により、幅広文字のパタ ーン判定が行われ、パターン判定に応じたデータ選択フラグがデータ選択部 37に出 力される。
[0090] ステップ S44にお 、て、拡大処理すべき文字が幅広文字ではな!/、、すなわち、細 文字であると判定された場合、文字認識部 71は、近傍画素領域 51のデータおよび 処理選択情報を細文字処理部 73に供給した後、ステップ S46に進む。ステップ S46 において、細文字処理 73は、供給された近傍画素領域 51のデータおよび処理選択 情報に基づいて、細文字処理を行う。この細文字処理の詳細については、図 27のフ ローチャートを参照して後述するが、この処理により、細文字のパターン判定が行わ れ、パターン判定に応じたデータ選択フラグがデータ選択部 37に出力される。
[0091] 次に、図 26のフローチャートを参照して、幅広文字処理部 72が実行する、図 25の ステップ S45における幅広文字処理の詳細について説明する。
[0092] ステップ S51において、幅広文字処理部 72は、近傍画素領域 51のデータのうち、 注目点 42を含む縦 2個 X横 2個の画素で構成される領域 81のデータ(図 13A)が第 1のパターン(いまの場合、図 13Bに示されるパターン 82)と一致するか否かを判定し 、第 1のパターンと一致すると判定した場合、ステップ S52に進み、さらに、近傍画素 領域 51のデータが第 2のパターン群(いまの場合、図 14乃至図 15に示されるパター ン 101乃至 108)と一致するものがあるか否かを判定する。
[0093] ステップ S52において、近傍画素領域 51のデータが第 2のパターン群のうち、 1つ でも一致するものがあると判定された場合、ステップ S53に進み、幅広文字処理部 7 2は、データ選択フラグに「1」を設定する。
[0094] ステップ S51において、領域 81のデータが第 1のパターンと一致しないと判定され た場合、または、ステップ S52において、近傍画素領域 51のデータが第 2のパターン 群と一致しないと判定された場合、ステップ S54に進み、幅広文字処理部 72は、図 2 5のステップ S42の処理により処理モード制御部 35から取得した処理選択情報に基 づいて、背景色拡張処理を行うか否かを判定する。
[0095] ステップ S54において、背景色拡張処理を行うと判定された場合、ステップ S55に 進み、幅広文字処理部 72は、領域 81のデータが第 3のパターン (いまの場合、図 13 Cに示されるパターン 83)と一致するか否かを判定する。ステップ S55において、領 域 81のデータが第 3のパターンと一致すると判定された場合、ステップ S56に進み、 幅広文字処理部 72は、さらに、近傍画素領域 51のデータが第 4のパターン群 (いま の場合、図 16乃至図 19に示されるパターン 111乃至 127)と一致するものがあるか 否かを判定する。
[0096] ステップ S56において、近傍画素領域 51のデータが第 4のパターン群のうち、 1つ でも一致するものがあると判定された場合、ステップ S57に進み、幅広文字処理部 7 2は、データ選択フラグに「2」を設定する。
[0097] ステップ S54にお ヽて、背景色拡張処理を行わな!/ヽと判定された場合、ステップ S5 5において、領域 81のデータが第 3のパターンと一致しないと判定された場合、また は、ステップ S56において、近傍画素領域 51のデータが第 4のパターン群と一致しな いと判定された場合、処理は、図 25のステップ S46の細文字処理にリターンされる。
[0098] 次に、図 27のフローチャートを参照して、細文字処理部 73が実行する、図 25のス テツプ S46における細文字処理の詳細について説明する。
[0099] ステップ S61において、細文字処理部 73は、近傍画素領域 51のデータのうち、注 目点 42を含む縦 2個 X横 2個の画素で構成される領域 81のデータ(図 13A)が第 5 のパターン群(いまの場合、図 13D乃至図 13Fに示されるパターン 84乃至 86)と一 致するものがある力否かを判定し、第 5のパターン群と一致するもの力 1つでもある と判定した場合、ステップ S62に進み、さらに、近傍画素領域 51のデータが第 6のパ ターン群(いまの場合、図 20A乃至図 20Cに示されるパターン 131乃至 133)と一致 するものがある力否かを判定する。
[0100] ステップ S62において、近傍画素領域 51のデータが第 6のパターン群のうち、 1つ でも一致するものがあると判定された場合、ステップ S63に進み、細文字処理部 73 は、データ選択フラグに「3」を設定する。
[0101] ステップ S62において、近傍画素領域 51のデータが第 6のパターン群と一致しない と判定された場合、ステップ S64に進み、細文字処理部 73は、さらに近傍画素領域 5 1のデータが第 7のパターン(いまの場合、図 20Dに示されるパターン 134)と一致す る力否かを判定する。ステップ S64において、近傍画素領域 51のデータが第 7のパ ターンと一致すると判定された場合、ステップ S65に進み、細文字処理部 73は、デ ータ選択フラグに「4」を設定する。
[0102] ステップ S64において、近傍画素領域 51のデータが第 7のパターンと一致しないと 判定された場合、ステップ S66に進み、細文字処理部 73は、さらに近傍画素領域 51 のデータが第 8のパターン(いまの場合、図 20Eに示されるパターン 135)と一致する か否かを判定する。ステップ S66において、近傍画素領域 51のデータが第 8のパタ ーンと一致すると判定された場合、ステップ S67に進み、細文字処理部 73は、デー タ選択フラグ〖こ「5」を設定する。
[0103] ステップ S66において、近傍画素領域 51のデータが第 8のパターンと一致しないと 判定された場合、または、ステップ S61において、領域 81のデータが第 5のパターン 群と一致しないと判定された場合、ステップ S68に進み、細文字処理部 73は、図 25 のステップ S42の処理により処理モード制御部 35から取得した処理選択情報に基づ いて、背景色拡張処理を行うか否かを判定する。 [0104] ステップ S68において、背景色拡張処理を行うと判定された場合、ステップ S69に 進み、細文字処理部 73は、領域 81のデータが第 9のパターン (いまの場合、図 13G に示されるパターン 87)と一致するか否かを判定する。ステップ S69において、第 9の パターンと一致すると判定された場合、ステップ S70に進み、細文字処理部 73は、さ らに近傍画素領域 51のデータが第 10のパターン群 (いまの場合、図 21Aに示される パターン 141および図 21Bに示されるパターン 142)と一致するものがあるか否かを 判定する。
[0105] ステップ S70において、近傍画素領域 51のデータが第 10のパターン群のうち、 1つ でも一致するものがあると判定された場合、ステップ S71に進み、細文字処理部 73 は、データ選択フラグに「6」を設定する。
[0106] ステップ S68にお 、て、背景色拡張処理を行わな!/、と判定された場合、ステップ S6 9において、領域 81のデータが第 9のパターンと一致しないと判定された場合、また は、ステップ S70において、近傍画素領域 51のデータが第 10のパターン群と一致し ないと判定された場合、処理は図 25にリターンされ、データ選択フラグ判定処理は終 了される。
[0107] 以上の処理により、データ選択フラグには、「0」乃至「6」のいずれかの値が設定さ れる。
[0108] 次に、図 28のフローチャートを参照して、データ選択部 37が実行する、データ選択 処理について説明する。この処理は、データ選択フラグ判定部 36から判定結果であ るデータ選択フラグが供給されたとき開始される。
[0109] ステップ S81にお 、て、データ選択部 37は、供給されたデータ選択フラグが「0」で ある力否かを判定し、データ選択フラグが「0」であると判定した場合、ステップ S82に 進み、データ位置入れ替え部 33の入れ替えデータバッファ 33Aから供給された近傍 画素領域 51のデータのうち、第 1の画素(例えば、図 6の P[M0C0]の画素)を選択す る。
[0110] ステップ S81において、データ選択フラグが「0」ではないと判定された場合、ステツ プ S83に進み、データ選択部 37は、さらにデータ選択フラグが「1」または「3」である か否かを判定する。ステップ S83において、データ選択フラグが「1」または「3」である と判定された場合、ステップ S84に進み、データ選択部 37は、データ位置入れ替え 部 33の入れ替えデータバッファ 33Aから供給された近傍画素領域 51のデータのう ち、前景色に相当する第 2の画素(例えば、図 6の前景色に相当する P[M0L1]の画 素)を選択する。
[Oil 1] ステップ S83にお 、て、データ選択フラグが「1」または「3」ではな 、と判定された場 合、ステップ S85に進み、データ選択部 37は、さらにデータ選択フラグが「2」または「 6」であるか否かを判定する。ステップ S85において、データ選択フラグが「2」または「 6」であると判定された場合、ステップ S86に進み、データ選択部 37は、データ位置 入れ替え部 33の入れ替えデータバッファ 33Aから供給された近傍画素領域 51のデ ータのうち、背景色に相当する第 2の画素(例えば、図 6の背景色に相当する P[M0L 1]の画素)を選択する。
[0112] ステップ S85にお 、て、データ選択フラグが「2」または「6」ではな 、と判定された場 合、ステップ S87に進み、データ選択部 37は、さらにデータ選択フラグが「4」または「 5」であるか否かを判定する。ステップ S87において、データ選択フラグが「4」または「 5」であると判定された場合、ステップ S88に進み、データ選択部 37は、データ位置 入れ替え部 33の入れ替えデータバッファ 33Aから供給された近傍画素領域 51のデ ータのうち、前景色に相当する第 3の画素(例えば、図 6の前景色に相当する P[U1L 1]の画素)を選択する。
[0113] ステップ S87にお 、て、データ選択フラグが「4」または「5」ではな 、と判定された場 合、ステップ S89に進み、データ選択部 37は、エラーが発生したと判断し、データ選 択フラグ判定部 36からデータ選択フラグを再度取得した後、ステップ S81に戻り、上 述した処理を繰り返し実行する。
[0114] 以上の処理により、データ選択部 37では、データ選択フラグに応じた特定画素が 1 つ選択され、出力データとしてミキサ 15に出力される。なお、この処理で選択された 特定画素は、あくまで一例であり、勿論、他の画素が選択されるようにしてもよいし、 あるいは、所定の演算により選択されるようにしてもょ 、。
[0115] 次に、以上の拡大処理のシミュレーション結果について、図 29乃至図 34を参照し て説明する。 [0116] 図 29Aは、幅広文字を従来の最近傍補間により拡大処理した場合のシミュレーショ ン結果を示しており、図 29Bは、幅広文字を幅広文字処理部 72により前景色拡張処 理した場合のシミュレーション結果を示しており、図 29Cは、幅広文字を幅広文字処 理部 72により前景色拡張処理および背景色拡張処理した場合のシミュレーション結 果を示している。また、図 30Aは、図 29Aの領域 161の拡大図を示しており、図 30B は、図 29Bの領域 162の拡大図を示しており、図 31Aは、図 29Bの領域 163の拡大 図を示しており、図 31Bは、図 29Cの領域 164の拡大図を示している。
[0117] なお、図 29乃至図 31において、前景色の画素は黒で表されており、背景色の画素 は白で表されている(後述する図 32乃至図 34においても同様とする)。以下、図 30 および図 31に示す各領域における最上左部の画素を(1, 1)の画素と記載し、その 横方向 m番目、縦方向 n番目の画素を (m, n)の画素と記載する(後述する図 33およ び図 34にお 、ても同様とする)。
[0118] 幅広文字処理部 72により前景色拡張処理した場合のシミュレーション結果(図 30B )では、従来の最近傍補間により拡大処理した場合のシミュレーション結果(図 30A) と比べると、 (6, 2)、 (4, 4)、 (3, 5)、 (3, 6)、 (2, 6)、および(1, 7)の画素が、背 景色(白)から前景色 (黒)に補間されて ヽることがゎカゝる。
[0119] また、幅広文字処理部 72により前景色拡張処理および背景色拡張処理した場合 のシミュレーション結果(図 31B)では、幅広文字処理部 72により前景色拡張処理し た場合のシミュレーション結果(図 31A)と比べると、 (7, 1)、 (3, 3)、 (2, 4)、 (1, 5) 、 (6, 6)、および (5, 7)の画素が、前景色 (黒)から背景色(白)に補間されているこ とがわかる。
[0120] 図 32Aは、細文字を従来の最近傍補間により拡大処理した場合のシミュレーション 結果を示しており、図 32Bは、細文字を細文字処理部 73により前景色拡張処理した 場合のシミュレーション結果を示しており、図 32Cは、細文字を細文字処理部 73によ り前景色拡張処理および背景色拡張処理した場合のシミュレーション結果を示して いる。また、図 33Aは、図 32Aの領域 171の拡大図を示しており、図 33Bは、図 32B の領域 172の拡大図を示しており、図 34Aは、図 32Bの領域 173の拡大図を示して おり、図 34Bは、図 32Cの領域 174の拡大図を示している。 [0121] 細文字処理部 73により前景色拡張処理した場合のシミュレーション結果(図 33B) では、従来の最近傍補間により拡大処理した場合のシミュレーション結果(図 33A)と 比べると、 (5, 2)、 (6, 3)、 (6, 4)、 (3, 5)、 (3, 6)、および (4, 7)の画素が、背景 色(白)から前景色 (黒)に補間されて ヽることがゎカゝる。
[0122] また、細文字処理部 73により前景色拡張処理および背景色拡張処理した場合の シミュレーション結果(図 34B)では、細文字処理部 73により前景色拡張処理した場 合のシミュレーション結果(図 34A)と比べると、 (4, 1)、および(1, 4)の画素が、前 景色 (黒)から背景色(白)に補間され、 (3, 2)の画素が、背景色力も前景色に補間さ れていることがわ力る。
[0123] 以上のように、文字の特性 (幅広文字または細文字)に応じて、処理を切り替えるこ とで、高品質に拡大処理を行うことが可能となる。
[0124] また以上においては、白(背景色)または黒 (前景色)で構成される 2値ィ匕された画 像に対する拡大処理について説明したが、本発明はこれに限らず、縁取り文字や影 文字といった 2値以上の値で構成される多値階調の画像に対しても拡大処理するこ とができる。この場合、基本的な構成例は、図 4に示した画像拡大装置 21と同様であ り、画素優先順位判定部 34およびデータ選択フラグ判定部 36の内部の処理を変更 することで実現することができる。
[0125] 図 35は、多値階調の画像に適応した場合の画素優先順位判定部 34の詳細な構 成例を示すブロック図である。
[0126] 同図に示されるように、画素優先順位判定部 34は、比較器 201— 1乃至 201— 24 で構成されており、比較器 201— 1乃至 201— 24には、 LUT202— 1乃至 202— 24 、 LUT203— 1乃至 203— 24、
Figure imgf000028_0001
24力 Sそれぞ れ設けられている。 LUT202— 1乃至 202— 24、および LUT203— 1乃至 203— 24 には、処理モード制御部 35から供給された背景判定情報、前景判定情報、および縁 取り判定情報に基づいて、例えば、黒が前景色、白が背景色、黄色が前景の縁取り として、それぞれ設定されている。
[0127] 比較器 201— 1は、データ位置入れ替え部 33から供給された縦 5個 X横 5個の画 素で構成される領域 51 (図 6)のデータのうち、 P[D2L2]の画素のデータを入力し、 L UT202- 1に基づ!/、て、その画素値を処理のための優先順位の序列を付けた値に 変換するとともに、領域 51のデータのうち、 P[M0C0]の画素(すなわち、注目点 42) のデータを入力し、 LUT203— 1に基づいて、その画素値を処理のための優先順位 の序列を付けた値に変換する。
[0128] すなわち、上述したように、 LUT202— 1および LUT203— 1には、黒が前景色、白 が背景色、黄色が前景の縁取りとして設定されているため、この場合の優先順位は、 一般に、「黒〉黄色 (縁取り)〉白」とされる。そこで例えば、黒 = 100、縁取り = 50、 白 = 1のように序列を付けた値に変換される。
[0129] 大小比較器 204— 1は、変換された値から、注目点 42 (P[M0C0]の画素)のデータ と P[D2L2]の画素(IN)のデータ (序列を付けた値)を比較し、図 36に示すコードを割 り当て、比較結果を F[X]として、データ選択フラグ判定部 36に出力する。ここで、 X は、注目点 42からの相対的な位置を表わしている。
[0130] 図 36に示すように、 P[M0C0]≥P[D2L2] (IN)の場合、「0」が割り当てられ、 P[M0 C0]≤P[D2L2] (IN)の場合、「1」が割り当てられ、 P[M0C0] >P[D2L2] (IN)の場合 、「2」が割り当てられ、 P[M0C0] < P[D2L2] (IN)の場合、「3」が割り当てられる。
[0131] 同様に、比較器 201— 2乃至 201— 24は、データ位置入れ替え部 33から供給され た縦 5個 X横 5個の画素で構成される領域 51 (図 6)のデータのうち、 P [D2L1]乃至 P [U2R2]の画素のデータをそれぞれ入力し、 LUT202- 2乃至 202— 24に基づ!/、て 、その画素値を処理のための優先順位の序列を付けた値に変換するとともに、領域 5 1のデータのうち、 P[M0C0]の画素(すなわち、注目点 42)のデータを入力し、 LUT2 03 2乃至 203— 24に基づ!/、て、その画素値を処理のための優先順位の序列を付 けた値に変換する。大小比較器 204— 2乃至 204— 24は、変換された値から、注目 点 42 (P [M0C0]の画素)のデータと P [D2L1]乃至 P [U2R2]の画素(IN)のデータを それぞれ比較し、図 36に示すコードを割り当て、比較結果を F[X]として、データ選 択フラグ判定部 36に出力する。
[0132] なお、注目点 42自身の比較器は必要な 、が、注目点 42に「0」のコードをデフオル トで割り当て、データ選択フラグ判定部 36に出力させるようにしてもよい。
[0133] データ選択フラグ判定部 36は、前景色拡張処理の場合、注目点 42が背景色とな ることから、画素優先順位判定部 34から供給された F[X]が「3」のコードの場合、前 景色と判断し、「0」のコードの場合、背景色と判断する。また、データ選択フラグ判定 部 36は、背景色拡張処理の場合、注目点 42が前景色となることから、画素優先順位 判定部 34から供給された F[X]力 S「l」のコードの場合、前景色と判断し、「2」のコード 場合、背景色と判断する。
[0134] 以上のような判断により、多値階調の画像に対しても、高品質に拡大処理を実現す ることが可能となる。
[0135] 次に、多値階調の画像に対する拡大処理のシミュレーション結果について、図 37 および図 38を参照して説明する。
[0136] 図 37Aは、多値階調の文字を従来の最近傍補間により拡大処理した場合のシミュ レーシヨン結果を示しており、図 37Bは、多値階調の文字を本発明により拡大処理し た場合のシミュレーション結果を示している。また、図 38Aは、図 37Aの領域 211の 拡大図を示しており、図 38Bは、図 37Bの領域 212の拡大図を示している。
[0137] なお、図 37および図 38において、前景色の画素は黒で表されており、背景色の画 素は白で表されており、縁取りの画素はグレーで表されている。以下、図 38に示す 各領域における最上左部の画素を(1, 1)の画素と記載し、その横方向 m番目、縦方 向 n番目の画素を (m, n)の画素と記載する。
[0138] 本発明により拡大処理した場合のシミュレーション結果(図 38B)では、従来の最近 傍補間により拡大処理した場合のシミュレーション結果(図 38A)と比べると、 (2, 1) 、 (4, 3)、および (6, 5)の画素が、縁取り(グレー)から背景色(白)に補間され、 (2, 5)、および (4, 7)の画素が、前景色力も縁取りに補間されていることがわかる。
[0139] 以上のように、本発明を適用することにより、 2値画像および多値画像のいずれに 対しても、コストを低く抑えつつ、高品質に拡大処理を行うことが可能となる。
[0140] また以上においては、 OSD装置に適用する場合について説明した力 例えば、ノ 一ソナルコンピュータのテキスト領域や、あるいは、文字や図形などのグラフィック画 像を表示するシステムなどに適用することも勿論可能である。
[0141] また、文字を縦 2倍および横 2倍に拡大処理する場合の例について説明したが、こ れに限らず、例えば、縦 3倍および横 3倍、縦 4倍および横 4倍などの縦横同倍率、あ るいは、縦 2倍および横 1倍などの縦横で異なる倍率で拡大処理することも可能であ る。
[0142] 上述したように、これらの一連の処理は、ハードウェアにより実行させることもできる 力 ソフトウェア〖こより実行させることもできる。この場合、例えば、画像拡大装置 21は 、図 39に示されるようなコンピュータ 300により実現される。
[0143] 図 39において、 CPU(Central Processing Unit)301は、 ROM302に記憶されている プログラム、または記憶部 308から RAM(Random Access Memory)303にロードされた プログラムに従って、各種の処理を実行する。 RAM303にはまた、 CPU301が各種の 処理を実行する上において必要なデータなども適宜記憶される。
[0144] CPU301、 ROM302、および RAM303は、バス 304を介して相互に接続されている 。このバス 304にはまた、入出力インタフェース 305も接続されている。
[0145] 入出力インタフェース 305には、キーボード、マウスなどよりなる入力部 306、デイス プレイなどよりなる出力部 307、記憶部 308、通信部 309が接続されている。
通信部 309は、ネットワークを介しての通信処理を行う。
[0146] 入出力インタフェース 305にはまた、必要に応じてドライブ 310が接続され、磁気デ イスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア 3 11が適宜装着され、それら力も読み出されたコンピュータプログラムが、必要に応じ て記憶部 308にインストールされる。
[0147] コンピュータにインストールされ、コンピュータによって実行可能な状態とされるプロ グラムを記録する記録媒体は、図 39に示されるように、装置本体とは別に、ユーザに プログラムを提供するために配布される、プログラムが記録されて ヽる磁気ディスク( フレキシブルディスクを含む)、光ディスク(CD- ROM (Compact Disc-Read Only Mem ory)、 DVD(Digital Versatile Disc)を含む)、光磁気ディスク (MD(Mini-Disc) (登録商 標)を含む)、もしくは半導体メモリなどよりなるリムーバブルメディア 311により構成さ れるだけでなぐ装置本体に予め組み込まれた状態でユーザに提供される、プロダラ ムが記録されている ROM303または記憶部 308に含まれるハードディスクなどで構成 される。
[0148] なお、本明細書にぉ 、て、記録媒体に記憶されるプログラムを記述するステップは 、含む順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理 されなくとも、並列的あるいは個別に実行される処理をも含むものである。
また、本明細書において、システムとは、複数の装置により構成される装置全体を 表わすものである。

Claims

請求の範囲
[1] 画像を拡大する画像処理装置において、
前記画像のうち、注目画素を含む近傍の画素を保持する保持手段と、 前記注目画素を分割する分割手段と、
前記保持手段により保持された各画素に対し、対象色または背景色を判別する判 別手段と、
前記判別手段による判別結果に基づいて得られた前記対象色と背景色の配列パ ターンと、前記対象色を拡張するための第 1のパターンが一致する力否かを判定する 第 1のパターン判定手段と、
前記判別手段による判別結果に基づいて得られた前記対象色と背景色の配列パ ターンと、前記背景色を拡張するための第 2のパターンが一致する力否かを判定する 第 2のパターン判定手段と、
前記第 1または第 2のパターン判定手段による判定結果に基づいて、前記分割手 段により分割された前記注目画素に当てはめるべきデータを、前記近傍の画素の中 から選択する選択手段と
を備えることを特徴とする画像処理装置。
[2] 前記保持手段により保持された前記注目画素を含む近傍の画素の画素分布を入 れ替える力否かを判定する判定手段と、
前記判定手段による判定結果に基づ 、て、前記注目画素を含む近傍の画素の画 素分布を入れ替えるデータ入れ替え手段と
をさらに備えることを特徴とする請求項 1に記載の画像処理装置。
[3] 前記画像は、文字であり、
前記第 1および第 2のパターンは、それぞれ、前記文字の種別に応じて決定される 階層パターンで構成されて 、る
ことを特徴とする請求項 1に記載の画像処理装置。
[4] 前記判別手段は、前記注目画素と前記近傍の画素を比較することにより、前記対 象色または背景色を判別する
ことを特徴とする請求項 1に記載の画像処理装置。
[5] 画像を拡大する画像処理装置の画像処理方法にお!ヽて、
前記画像のうち、注目画素を含む近傍の画素を保持する保持ステップと、 前記注目画素を分割する分割ステップと、
前記保持ステップの処理により保持された各画素に対し、対象色または背景色を 判別する判別ステップと、
前記判別ステップの処理による判別結果に基づいて得られた前記対象色と背景色 の配列パターンと、前記対象色を拡張するための第 1のパターンが一致するか否か を判定する第 1のパターン判定ステップと、
前記判別ステップの処理による判別結果に基づいて得られた前記対象色と背景色 の配列パターンと、前記背景色を拡張するための第 2のパターンが一致するか否か を判定する第 2のパターン判定ステップと、
前記第 1または第 2のパターン判定ステップの処理による判定結果に基づいて、前 記分割ステップの処理により分割された前記注目画素に当てはめるべきデータを、 前記近傍の画素の中から選択する選択ステップと
を含むことを特徴とする画像処理方法。
[6] 画像を拡大する画像処理装置の画像処理を、コンピュータに行わせるプログラムに おいて、
前記画像のうち、注目画素を含む近傍の画素を保持する保持ステップと、 前記注目画素を分割する分割ステップと、
前記保持ステップの処理により保持された各画素に対し、対象色または背景色を 判別する判別ステップと、
前記判別ステップの処理による判別結果に基づいて得られた前記対象色と背景色 の配列パターンと、前記対象色を拡張するための第 1のパターンが一致するか否か を判定する第 1のパターン判定ステップと、
前記判別ステップの処理による判別結果に基づいて得られた前記対象色と背景色 の配列パターンと、前記背景色を拡張するための第 2のパターンが一致するか否か を判定する第 2のパターン判定ステップと、
前記第 1または第 2のパターン判定ステップの処理による判定結果に基づいて、前 記分割ステップの処理により分割された前記注目画素に当てはめるべきデータを、 前記近傍の画素の中から選択する選択ステップと
を含むことを特徴とするコンピュータが読み取り可能なプログラムが記録されている 記録媒体。
画像を拡大する画像処理装置の画像処理を、コンピュータに行わせるプログラムに おいて、
前記画像のうち、注目画素を含む近傍の画素を保持する保持ステップと、 前記注目画素を分割する分割ステップと、
前記保持ステップの処理により保持された各画素に対し、対象色または背景色を 判別する判別ステップと、
前記判別ステップの処理による判別結果に基づいて得られた前記対象色と背景色 の配列パターンと、前記対象色を拡張するための第 1のパターンが一致するか否か を判定する第 1のパターン判定ステップと、
前記判別ステップの処理による判別結果に基づいて得られた前記対象色と背景色 の配列パターンと、前記背景色を拡張するための第 2のパターンが一致するか否か を判定する第 2のパターン判定ステップと、
前記第 1または第 2のパターン判定ステップの処理による判定結果に基づいて、前 記分割ステップの処理により分割された前記注目画素に当てはめるべきデータを、 前記近傍の画素の中から選択する選択ステップと
をコンピュータに実行させることを特徴とするプログラム。
PCT/JP2005/010351 2004-06-15 2005-06-06 画像処理装置および方法、記録媒体、並びにプログラム WO2005124736A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP05751457.2A EP1758093B1 (en) 2004-06-15 2005-06-06 Image processing device and method, recording medium, and program
US11/629,316 US8253763B2 (en) 2004-06-15 2005-06-06 Image processing device and method, storage medium, and program
KR1020067026309A KR101054992B1 (ko) 2004-06-15 2005-06-06 화상 처리 장치 및 방법, 및 기록 매체

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004177123A JP4617730B2 (ja) 2004-06-15 2004-06-15 画像処理装置および方法、記録媒体、並びにプログラム
JP2004-177123 2004-06-15

Publications (2)

Publication Number Publication Date
WO2005124736A1 true WO2005124736A1 (ja) 2005-12-29
WO2005124736A8 WO2005124736A8 (ja) 2006-02-23

Family

ID=35509945

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/010351 WO2005124736A1 (ja) 2004-06-15 2005-06-06 画像処理装置および方法、記録媒体、並びにプログラム

Country Status (6)

Country Link
US (1) US8253763B2 (ja)
EP (1) EP1758093B1 (ja)
JP (1) JP4617730B2 (ja)
KR (1) KR101054992B1 (ja)
CN (1) CN100517461C (ja)
WO (1) WO2005124736A1 (ja)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB0409877D0 (en) * 2004-04-30 2004-06-09 Univ Manchester Preparation of nanoparticle materials
GB2472542B (en) * 2005-08-12 2011-03-23 Nanoco Technologies Ltd Nanoparticles
JP4274238B2 (ja) 2006-12-22 2009-06-03 ソニー株式会社 画像処理装置及び画像処理方法、並びにコンピュータ・プログラム
US8563348B2 (en) * 2007-04-18 2013-10-22 Nanoco Technologies Ltd. Fabrication of electrically active films based on multiple layers
US8358379B1 (en) * 2009-07-31 2013-01-22 Pixelworks, Inc. Post processing displays with on-screen displays
GB0916699D0 (en) * 2009-09-23 2009-11-04 Nanoco Technologies Ltd Semiconductor nanoparticle-based materials
GB0916700D0 (en) * 2009-09-23 2009-11-04 Nanoco Technologies Ltd Semiconductor nanoparticle-based materials
CN102044235B (zh) * 2009-10-09 2012-11-28 奇景光电股份有限公司 字体反锯齿方法
US8335379B2 (en) * 2009-12-28 2012-12-18 Xerox Corporation System and method for cleanup of MRC images for improved compression and image quality
JP5526874B2 (ja) * 2010-03-09 2014-06-18 富士ゼロックス株式会社 画像処理装置及び画像処理プログラム
CN102004914B (zh) * 2010-08-12 2013-01-09 汉王科技股份有限公司 检测圆章位置的方法和装置
JP5853470B2 (ja) 2011-07-29 2016-02-09 ブラザー工業株式会社 画像処理装置、画像処理プラグラム
JP5776419B2 (ja) 2011-07-29 2015-09-09 ブラザー工業株式会社 画像処理装置、画像処理プラグラム
JP5796392B2 (ja) 2011-07-29 2015-10-21 ブラザー工業株式会社 画像処理装置、および、コンピュータプラグラム
JP5842441B2 (ja) * 2011-07-29 2016-01-13 ブラザー工業株式会社 画像処理装置およびプログラム
JP5705173B2 (ja) * 2012-06-25 2015-04-22 京セラドキュメントソリューションズ株式会社 画像処理装置および画像形成装置
CN104702878B (zh) * 2015-02-28 2018-03-16 宏祐图像科技(上海)有限公司 基于HDMI协议下区分OSD和Video信号的方法
CN105160634B (zh) * 2015-06-30 2018-09-21 上海交通大学 像素图像放大方法及系统
CN108354279A (zh) * 2018-01-22 2018-08-03 广东乐芯智能科技有限公司 一种手环显示变化的方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5912486A (ja) * 1982-07-13 1984-01-23 神鋼電機株式会社 文字の拡大補間方法
JPS61123872A (ja) * 1984-11-20 1986-06-11 神崎製紙株式会社 ドツト構成文字の補正拡大方法
JPS61208082A (ja) * 1985-03-12 1986-09-16 日本電気株式会社 文字パタ−ン発生装置
JPH0594171A (ja) 1991-10-02 1993-04-16 Canon Inc 記録方法及びその装置
JPH0668247A (ja) 1992-06-15 1994-03-11 Hitachi Ltd ディジタル画像データ変倍方法および装置
JPH0863592A (ja) 1994-08-05 1996-03-08 Hewlett Packard Co <Hp> 2値画像のスケーリング方法
JPH08227456A (ja) 1994-09-22 1996-09-03 Casio Comput Co Ltd ドットパターンスムージング装置及び方法
EP0809207A2 (en) 1996-05-15 1997-11-26 Nec Corporation Electrophotographic printer
JP2004004302A (ja) 2002-05-31 2004-01-08 Nti:Kk 遺伝的アルゴリズムによるフォント生成システム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4345937B2 (ja) * 1998-11-10 2009-10-14 キヤノン株式会社 画像拡大処理回路
JP3676948B2 (ja) * 1999-07-07 2005-07-27 アルプス電気株式会社 画素数変換回路及びこれを用いた画像表示装置

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5912486A (ja) * 1982-07-13 1984-01-23 神鋼電機株式会社 文字の拡大補間方法
JPS61123872A (ja) * 1984-11-20 1986-06-11 神崎製紙株式会社 ドツト構成文字の補正拡大方法
JPS61208082A (ja) * 1985-03-12 1986-09-16 日本電気株式会社 文字パタ−ン発生装置
JPH0594171A (ja) 1991-10-02 1993-04-16 Canon Inc 記録方法及びその装置
JPH0668247A (ja) 1992-06-15 1994-03-11 Hitachi Ltd ディジタル画像データ変倍方法および装置
JPH0863592A (ja) 1994-08-05 1996-03-08 Hewlett Packard Co <Hp> 2値画像のスケーリング方法
JPH08227456A (ja) 1994-09-22 1996-09-03 Casio Comput Co Ltd ドットパターンスムージング装置及び方法
EP0809207A2 (en) 1996-05-15 1997-11-26 Nec Corporation Electrophotographic printer
JPH09305755A (ja) 1996-05-15 1997-11-28 Nec Corp 電子写真プリンタ
JP2004004302A (ja) 2002-05-31 2004-01-08 Nti:Kk 遺伝的アルゴリズムによるフォント生成システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1758093A4 *

Also Published As

Publication number Publication date
WO2005124736A8 (ja) 2006-02-23
JP4617730B2 (ja) 2011-01-26
EP1758093B1 (en) 2014-06-18
CN100517461C (zh) 2009-07-22
US20080122877A1 (en) 2008-05-29
EP1758093A4 (en) 2012-08-22
KR101054992B1 (ko) 2011-08-05
CN1969314A (zh) 2007-05-23
KR20070023733A (ko) 2007-02-28
JP2006003420A (ja) 2006-01-05
US8253763B2 (en) 2012-08-28
EP1758093A1 (en) 2007-02-28

Similar Documents

Publication Publication Date Title
WO2005124736A1 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
US6389180B1 (en) Resolution conversion system and method
JP4274238B2 (ja) 画像処理装置及び画像処理方法、並びにコンピュータ・プログラム
JP4947351B2 (ja) 画像処理装置、及び、プログラム
US6978045B1 (en) Image-processing apparatus
JP3519186B2 (ja) 画像中間調処理装置
KR101873038B1 (ko) 표시장치의 영상품질 향상 방법 및 그 장치
JP4730525B2 (ja) 画像処理装置及びそのプログラム
JP4058823B2 (ja) 画像処理装置
JP2006050481A (ja) 画像処理装置、画像処理方法及びそのプログラム
KR20010112714A (ko) 윤곽선 정보에 의한 2차원 비선형 보간 시스템 및 그 방법
JPH10126609A (ja) 画像処理装置
JPH09331439A (ja) 画像形成装置
JP2000115542A (ja) 画像処理装置
JP2009065322A (ja) 画像出力装置及び画像出力方法
JP4517288B2 (ja) 画像処理装置、画像処理方法及びそのプログラム
JP4517287B2 (ja) 画像処理装置、画像処理方法及びそのプログラム
JP4736121B2 (ja) 画像解析装置、画像処理装置、画像解析方法、画像解析プログラム及びこれを記録した記録媒体
JP2000115543A (ja) 画像処理装置
JP2006050480A (ja) 画像処理装置、画像処理方法及びそのプログラム
Kazuo et al. 6.4: Image Scaling at Rational Ratios for High‐Resolution LCD Monitors
JP2006254313A (ja) 画像処理装置及び画像処理方法
JPH09230847A (ja) 階調キャラクタ生成方法ならびにその装置
JP2004153322A (ja) 画像信号処理装置
JP2002200789A (ja) 画像形成装置

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KM KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NG NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SM SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

CFP Corrected version of a pamphlet front page
CR1 Correction of entry in section i

Free format text: IN PCT GAZETTE 52/2005 DUE TO A TECHNICAL PROBLEM AT THE TIME OF INTERNATIONAL PUBLICATION, SOME INFORMATION WAS MISSING UNDER (57), THE MISSING INFORMATION NOW APPEARS IN THE CORRECTED VERSION

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2005751457

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 1020067026309

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 200580019813.4

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE

WWW Wipo information: withdrawn in national office

Ref document number: DE

WWP Wipo information: published in national office

Ref document number: 2005751457

Country of ref document: EP

Ref document number: 1020067026309

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 11629316

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 11629316

Country of ref document: US