WO2010124599A1 - 图像转换方法、转换装置及显示系统 - Google Patents

图像转换方法、转换装置及显示系统 Download PDF

Info

Publication number
WO2010124599A1
WO2010124599A1 PCT/CN2010/072178 CN2010072178W WO2010124599A1 WO 2010124599 A1 WO2010124599 A1 WO 2010124599A1 CN 2010072178 W CN2010072178 W CN 2010072178W WO 2010124599 A1 WO2010124599 A1 WO 2010124599A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
text area
conversion
weight
aspect ratio
Prior art date
Application number
PCT/CN2010/072178
Other languages
English (en)
French (fr)
Inventor
刘源
赵嵩
王静
Original Assignee
华为终端有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from CN2009101361557A external-priority patent/CN101547323B/zh
Priority claimed from CN 200910138672 external-priority patent/CN101887520B/zh
Application filed by 华为终端有限公司 filed Critical 华为终端有限公司
Priority to EP10769288.1A priority Critical patent/EP2426638B1/en
Publication of WO2010124599A1 publication Critical patent/WO2010124599A1/zh
Priority to US13/284,227 priority patent/US8503823B2/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images

Definitions

  • the present invention relates to the field of image processing technologies, and in particular, to an image conversion method, a conversion device, and a display system. Background technique
  • Image conversion in image processing techniques generally involves performing operations such as image scaling.
  • the image is scaled at different scales, the image is distorted due to the inconsistent aspect ratio of the source image and the target image.
  • a typical application scenario is the adaptation of images with aspect ratios of 4:3 and 16:9.
  • CRT cathode ray tube
  • LCD Liquid Crystal Display
  • the human eye In image conversion, in general, the human eye is sensitive to important content areas in the image, such as areas where text is present. Therefore, when performing image scaling at different scales, the text area in the image should be kept as much as possible and the distortion should be as small as possible.
  • the simplest linear scaling algorithm can be generally used in the prior art. At this time, important content areas such as text in the image are large. Deformation.
  • the clipping algorithm can be used to trim the edge of the image so that the ratio of the cropping area is consistent with the target image. At this time, the image is not distorted, but the text area of the image is easily lost in whole or in part.
  • the image conversion method of the prior art is easy to make an important content area such as a text area in an image Deformation or loss.
  • Embodiments of the present invention provide an image conversion method, a conversion apparatus, and a display system capable of allowing an important content area in an image to be retained and clearly displayed.
  • An image conversion method includes: performing image area detection on an image to obtain a detected text area; converting the image according to the text area to obtain a converted image having a different aspect ratio from the image before conversion; .
  • a conversion device comprising: a detecting unit, configured to perform text area detection on an image to obtain a detected text area; and a converting unit configured to perform image conversion processing according to the text area to obtain a different image from the image before conversion The converted aspect ratio of the image.
  • a display system comprising: a conversion device, configured to perform text area detection on an image to obtain a detected text area; and perform image conversion processing according to the text area to obtain a different aspect ratio from the image before conversion a converted image; a display device for displaying the converted image.
  • FIG. 1 is a flowchart of an image conversion method according to an embodiment of the present invention.
  • Embodiment 2 is a flowchart of an image conversion method according to Embodiment 2 of the present invention
  • 3 is a flow chart of detecting a text area in Embodiment 2 of the present invention
  • FIG. 4 is a flowchart of a third image conversion method according to Embodiment 3 of the present invention.
  • FIG. 5 is a flowchart of processing in a vertical direction by using an intelligent clipping algorithm in Embodiment 3 of the present invention
  • FIG. 6 is a schematic structural diagram of a conversion apparatus according to an embodiment of the present invention.
  • FIG. 7 is a schematic structural diagram of a display system according to an embodiment of the present invention. detailed description
  • Embodiments of the present invention provide an image conversion method, a conversion device, and a display system that enable an important content area in an image to be retained and display without distortion. The following is a detailed description.
  • FIG. 1 is a flow chart of an image conversion method according to an embodiment of the present invention, which mainly includes the steps:
  • Step 101 Perform a text area detection on the image to obtain a detected text area.
  • a positioning algorithm based on the combination of edge and texture energy can be used to detect the text area of the image to obtain the detected text area.
  • Step 102 Perform conversion processing on the image according to the text area to obtain a converted image having a different aspect ratio from the image before the conversion.
  • the conversion processing of the image according to the text area is a conversion processing of non-equal resolution.
  • Non-equal resolution means that the aspect ratio of the image resolution before conversion is different from the aspect ratio of the image resolution after conversion.
  • the conversion process may be a scaling process or a clipping process.
  • the scaling process includes: setting the weight of the text area to a high weight, and setting the weight of the non-text area to a low weight, (where the so-called low weight and high weight can be set according to experience, for example: the weight range is [0,1], in the actual application process, it can be agreed that the weight value is greater than 0.8 for high weight, and the weight value is small.
  • the weight value can also be divided according to the hierarchical method, for example: When there is more text in a certain area, you can set The weight is 0.9, the text contained in a certain area is not too much, and the weight can be set to 0.7.
  • the low weight setting it can be set separately according to the above method.
  • the number of words included in this detection area can be various.
  • the method for example: calculating the texture energy of the area to confirm, or confirming by means of text recognition), according to the weight of the text area and the weight of the non-text area, using a nonlinear scaling algorithm to scale the image according to the set aspect ratio .
  • the cropping process includes: according to the text area, the cropping algorithm is used to crop the image according to the set aspect ratio, and the trimmed image includes a text area.
  • the embodiment of the present invention first performs text area detection on an image to obtain a detected text area; and then performs non-equal resolution conversion processing on the image according to the text area, thereby enabling conversion.
  • the important content areas such as the text area in the subsequent image are not lost, and can be retained and displayed without distortion.
  • Embodiment 2 is a flow chart of an image conversion method according to Embodiment 2 of the present invention, which mainly includes the steps:
  • Step 201 Detect a text area.
  • Text localization algorithms include: connectivity domain-based localization algorithm, edge-based localization algorithm, and texture energy-based localization algorithm.
  • the connectivity domain-based localization algorithm mainly uses the color characteristics of the text area to locate the text area.
  • the edge-based positioning algorithm mainly uses the edge of the text area to be dense and has regular directional characteristics to locate the text area, but due to different texts The edge density and direction have different characteristics, and the background content is unknown, generally need to be used together with other algorithms; the texture energy based positioning algorithm mainly regards the text area as a special texture to locate the text area, based on the texture method Has a strong robustness.
  • the embodiment of the invention adopts a positioning algorithm based on the combination of edge and texture energy, and the algorithm passes Discrete cosine transform calculates the texture energy of different regions of the image, completes the initial positioning of the text region according to the texture energy, and combines the edge constraints to complete the precise positioning of the text region.
  • FIG. 3 is a flow chart of detecting a text area in the second embodiment of the present invention, and specifically includes the steps:
  • the text area in the general image may be located at the edge position of the image, so that the image edge position can be determined as the area to be detected.
  • the location of the conference information display is usually at the top, bottom, left, and right edge positions of the image and/or the four corners of the image, so you can select up, down, left, and right.
  • Four edge positions and/or four corner positions of the image serve as areas to be detected.
  • the above-mentioned area to be detected mainly takes into consideration the position of the text area in a normal case, and for the detection of the text area in an unconventional case, the entire screen can be agreed as the detection area of the text.
  • the embodiment is not limited.
  • the text area cannot be effectively selected by a single threshold, so the first threshold and the second threshold are set.
  • the area where the total texture energy of the small block is larger than the first threshold is selected, and the total texture energy of the small block is compared with the second threshold value from the selected area, and the area larger than the second threshold is selected as the important area.
  • determine the important area Areas outside the domain are non-critical areas.
  • the important area is generally a highly reliable text area, and the non-important area contains a text area with low texture energy and a non-text area.
  • Regional consolidation refers to the use of a new zone containing all the zones that need to be merged, and the new zone is the union of the zones that need to be merged.
  • the specific combination method may include: taking the smallest upper left corner X and Y coordinates of all regions as the upper left corner coordinate of the new region, taking the largest lower right corner of all regions X, the Y coordinate and the lower right corner X and Y coordinates of the newest region.
  • Step 202 Identify a text area.
  • the detected text area can be identified, and multiple rectangular areas can be used to identify and set weights for each area.
  • the rectangular area indicates the range of the text area, and the weight indicates the importance of the text area.
  • the weight can be set in many ways. For example, a floating point number of 0 ⁇ 1 indicates the weight, 0 means the lowest importance, and 1 means the highest importance. It can be understood that the rectangular area is a conventional text-based display mode. In a specific implementation process, other areas can be selected according to the display angle of the text for identification.
  • Step 203 Perform a conversion process by using a nonlinear scaling algorithm.
  • This step uses a non-linear scaling algorithm based on the ROI (Region of Interest) mapping.
  • the algorithm considers the weight of each pixel in the image. For high-weight pixels, the scaling is small, so the distortion is small. For low-weight pixels, the scaling is larger and the corresponding distortion is larger. Since the text area is used as a high-weight area, it is possible to ensure that the text area is not deformed or deformed much during scaling.
  • This step requires calculating the ROI map of the image, wherein the ROI map is a gray scale image, and the value of the pixel in the ROI map is the weight of the corresponding pixel in the source image.
  • the range of the grayscale image is 0 ⁇ 255, which can be returned.
  • the weight value represented in the R0I diagram may be an integer or a floating point number.
  • the measure of weight is the energy equation. Flat areas lacking texture in the image generally have less energy, while areas with rich texture and edges are generally more energetic.
  • the energy equation can take many forms, and the commonly used A-TMTM gradient energy 6 ! and - TM TM gradient energies are shown in the following equations (1) and (2), respectively.
  • I represents the gray value of the pixel
  • X represents the horizontal coordinate of the pixel (line number)
  • y represents the vertical coordinate (column number) of the pixel.
  • E T D Ma X (E , where i represents the line number of the pixel in the text area, j represents the column number, and E represents energy, indicating the energy of the text area.
  • a reduction value can be calculated based on the weight, and a reduction map can be determined for the entire image.
  • the reduction value of each pixel is: . Where i and j are both row indexes.
  • the pixel-free mapping position is rearranged, and the reduction value of each pixel cannot exceed 1, that is, the following two forms need to be satisfied:
  • E(x, y) K x - E(x, y- ⁇ ) + K 2 - E(x, y)
  • 3D time domain smoothing needs to be considered for scaling of the video.
  • There are two ways to perform 3D time domain smoothing: For the case where the image content changes little, a thumbnail image can be determined only in the first frame, and subsequent frames are scaled using the thumbnail image, namely: S(x , y, t) S(x, y, l) o
  • Another method is to smooth two adjacent frames in the time domain using a method similar to 2D spatial domain smoothing.
  • the forward mapping method can be used to calculate the position of a pixel coordinate on the target image on the source image by the accumulated reduction value.
  • the resulting line coordinate of the target image is a floating point value, and the integer coordinate value can be obtained by an interpolation algorithm.
  • the interpolation algorithm may use an algorithm such as a bilinear interpolation algorithm or a cubic convolution algorithm.
  • the converted image is obtained, and the image can be output for display.
  • non-linear scaling algorithm based on a target region of interest (ROI) region mapping
  • ROI target region of interest
  • other nonlinear scaling algorithms may also be used, such as subregional nonlinearity.
  • the scaling algorithm which differs from the processing using the ROI-based nonlinear scaling algorithm, is mainly that the sub-region nonlinear scaling calculation sets the weight of the set region instead of setting the weight according to the pixel, and the other processing is similar.
  • the technical solution of the embodiment of the present invention performs text area detection on the image, obtains the detected text area, and identifies the weight; according to the text area, the image is converted by using a nonlinear scaling algorithm, thereby It is possible to make the important content areas such as the text area in the converted image not lose, and can be retained and displayed without distortion.
  • FIG. 4 is a flowchart of a method for converting an image according to a third embodiment of the present invention.
  • the difference between the third embodiment and the second embodiment is mainly that the algorithm used in the conversion processing is different. As shown in Figure 4, it mainly includes the steps:
  • Step 401 Detect a text area.
  • Step 402 Identify a text area.
  • the content of the steps 401-402 is substantially the same as the content of the steps 201-202 in the second embodiment, and details are not described herein again. It should be noted that in this embodiment, the text area may not be weighted.
  • Step 403 Perform an conversion process by using an intelligent clipping algorithm.
  • the position of the text area determined in the previous step is considered, so that the clipping area does not include the text area, so that the text area content loss does not occur.
  • FIG. 5 is a smart clipping algorithm used in the third embodiment of the present invention.
  • Vertical processing flow chart including steps:
  • step 501 determining whether the top of the image contains text, and if so, proceeding to step 502, if no, proceeding to step 503;
  • the text area detected in the previous step it is determined whether the text area is located above or below the image, and can be completed by comparing the height coordinates of the text area to the distance between the upper and lower boundaries of the image. If there is a text area above the image, you can judge that the top of the image contains text, then go to 502, otherwise go to 503.
  • 505. Perform vertical cutting. If there is only the text area at the top, it is determined according to the vertical coordinate of the text area near the top edge that the upper text area needs to be retained, and the remaining clipping height can be set in the lower boundary area of the image. If there is only the text area below, it is determined according to the vertical direction coordinates of the text area near the bottom edge that the remaining text area needs to be retained, and the remaining clipping height can be set in the upper boundary area of the image. If there are text areas above and below, you need to keep the upper and lower text areas according to the vertical coordinate of the text area near the top and bottom edges, and then cut the other areas.
  • the converted image is obtained, and the image can be output for display.
  • the cropped image can be linearly or nonlinearly scaled to achieve The resolution of the target image.
  • non-linear scaling process reference may be made to the method in the second embodiment, the principle being the same, or using other scaling processing methods.
  • the technical solution of the embodiment of the present invention performs text area detection on an image to obtain a detected text area; and uses an intelligent clipping algorithm to perform conversion processing according to the text area, thereby enabling the converted Important content areas such as text areas in the image are not lost, and can be retained and displayed without distortion.
  • Fig. 6 is a schematic structural view of a conversion device according to an embodiment of the present invention.
  • the conversion device includes: a detecting unit 61 and a converting unit 62.
  • the detecting unit 61 is configured to perform text area detection on the image to obtain the detected text area
  • the converting unit 62 is configured to perform image conversion processing on the image according to the text area to obtain a different aspect ratio from the image before the conversion. The converted image.
  • the converting device may further include: an identifying unit 63.
  • the identifying unit 63 is configured to identify the weight of the detected text area; and the converting unit 62 further refers to the weight of the text area when performing image conversion processing.
  • the converting unit 62 may set the weight of the text area identified by the identifier unit to a high weight, and the weight of the non-text area may be set to a low weight, according to the weight of the text area and the weight of the non-text area,
  • the linear scaling algorithm scales the image to a set aspect ratio.
  • the nonlinear scaling algorithm may be a non-linear scaling algorithm that supports mapping based on important regions, and the like.
  • the conversion unit 62 may use a cropping algorithm to trim the image according to a set aspect ratio, the clipped image includes the text area, and the cropping algorithm may be an intelligent clipping algorithm or the like.
  • the cropped image is further subjected to scaling processing.
  • FIG. 7 is a schematic structural diagram of a display system according to an embodiment of the present invention. As shown in Fig. 7, the display system includes: a converting device 71 and a display device 72.
  • the conversion device 71 is configured to perform a text area detection on the image to obtain the detected text area; and perform conversion processing on the image according to the text area to obtain a converted image having a different aspect ratio from the image before the conversion;
  • the display device 72 is configured to display the converted image.
  • the conversion device 71 has the structure shown in FIG. 6, and the details are not described here.
  • the embodiment of the present invention first performs text area detection on an image, and obtains the detected The text area; the non-equal resolution conversion processing of the image according to the text area, so that the important content area such as the text area in the converted image can be prevented from being lost, and can be retained and displayed without distortion.
  • the program may be stored in a computer readable storage medium, and the storage medium may include: Read Only Memory (ROM), Random Access Memory (RAM), disk or optical disk.
  • ROM Read Only Memory
  • RAM Random Access Memory

Description

图像转换方法、 转换装置及显示系统 本申请要求于 2009 年 4 月 30 日提交中国专利局、 申请号为 200910136155.7,发明名称为"图像转换方法、 转换装置及显示系统 "的中国专 利申请的优先权, 其全部内容通过引用结合在本申请中。 技术领域
本发明涉及图像处理技术领域, 具体涉及一种图像转换方法、 转换装置 及显示系统。 背景技术
在图像处理技术中进行图像转换, 一般包括进行图像缩放等操作。 当进 行不同比例的图像缩放时, 由于源图像和目标图像的宽高比不一致, 容易引 起图像的失真。 一个典型的应用场景是宽高比为 4:3和 16:9的图像的适配问 题, 例如传统的阴极射线管 (CRT, Cathode Ray Tube ) 电视基本采用 4:3的 图像显示模式, 而最新的高清液晶显示(LCD, Liquid Crystal Display ) 电视 都采用 16:9的图像显示模式, 因此存在 4:3和 16:9的图像的非等比的分辨率 转换问题。
图像转换中, 一般情况下, 人眼对图像中的重要内容区域例如存在文字 的区域是比较敏感, 因此在进行不同比例的图像缩放时, 图像中的文字区域 应该尽量保留并且使得失真尽量小。 以宽高比为 4:3到 16:9的视频会议场景 图像缩放为例, 现有技术一般可以采用最简单的线性缩放算法, 此时图像中 的文字等重要内容区域都发生了较大的变形。 另外还可以采用剪裁算法, 对 图像的边缘进行剪裁, 使剪裁区域的比例和目标图像一致, 此时不会造成图 像的失真, 但容易将图像的文字区域全部或部分丢失。
在对此方法的研究和实践过程中, 本发明的发明人发现:
现有技术的图像转换方法容易使得图像中的文字区域等重要内容区域发 生变形或丢失现象。 发明内容
本发明实施例提供一种能够使图像中的重要内容区域被保留及进行清楚 显示的图像转换方法、 转换装置及显示系统。
一种图像转换方法, 包括: 对图像进行文字区域检测, 得到检测出的文 字区域; 根据所述文字区域对图像进行转换处理, 得到与转换前的图像具有 不同的宽高比的转换后的图像。
一种转换装置, 包括: 检测单元, 用于对图像进行文字区域检测, 得到 检测出的文字区域; 转换单元, 用于根据所述文字区域对图像进行转换处理, 得到与转换前的图像具有不同的宽高比的转换后的图像。
一种显示系统, 包括: 转换装置, 用于对图像进行文字区域检测, 得到 检测出的文字区域; 根据所述文字区域对图像进行转换处理, 得到与转换前 的图像具有不同的宽高比的转换后的图像; 显示装置, 用于显示所述转换后 的图像。 上述技术方案可以看出, 本发明实施例首先对图像进行文字区域检测, 得到检测出的文字区域; 再根据所述文字区域对图像进行非等比的分辨率转 换处理, 从而可以使得转换后的图像中的文字区域等重要内容区域不会发生 丢失现象, 可以被保留及进行不失真的显示。 附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案, 下面将对实 施例或现有技术描述中所需要使用的附图作简单地介绍, 显而易见地, 下面 描述中的附图仅仅是本发明的一些实施例, 对于本领域普通技术人员来讲, 在不付出创造性劳动的前提下, 还可以根据这些附图获得其他的附图。
图 1是本发明实施例一图像转换方法流程图;
图 2是本发明实施例二图像转换方法流程图; 图 3是本发明实施例二中检测文字区域的流程图;
图 4是本发明实施例三图像转换方法流程图;
图 5是本发明实施例三中采用智能剪裁算法在垂直方向的处理流程图; 图 6是本发明实施例的转换装置结构示意图;
图 7是本发明实施例的显示系统结构示意图。 具体实施方式
为使本发明实施例的目的、 技术方案和优点更加清楚, 下面将结合本发 明实施例中的附图, 对本发明实施例中的技术方案进行清楚、 完整地描述, 显然, 所描述的实施例是本发明一部分实施例, 而不是全部的实施例。 基于 本发明中的实施例, 本领域普通技术人员在没有作出创造性劳动前提下所获 得的所有其他实施例, 都属于本发明保护的范围。
本发明实施例提供能够使图像中的重要内容区域被保留及进行不失真显 示的图像转换方法、 转换装置及显示系统。 以下分别进行伴细说明。
图 1是本发明实施例一图像转换方法流程图, 主要包括步骤:
步骤 101、 对图像进行文字区域检测, 得到检测出的文字区域;
该步骤可以采用基于边缘和纹理能量相结合的定位算法, 对图像进行文 字区域检测, 得到检测出的文字区域。
步骤 102、根据文字区域对图像进行转换处理,得到与转换前的图像具有 不同的宽高比的转换后的图像。
其中, 根据文字区域对图像进行转换处理是进行非等比分辨率的转换处 理。 非等比分辨率是指转换前的图像分辨率的宽高比和转换后图像分辨率的 宽高比不同。
所述转换处理可以是进行缩放处理, 也可以是进行剪裁处理。 缩放处理 包括: 将文字区域的权重设置为高权重, 将非文字区域的权重设置为低权重, (其中, 所谓的低权重与高权重可以根据经验来设定, 譬如: 权重的取值范 围为 [0,1],在实际应用过程中, 可以约定权重值大于 0.8为高权重, 权重值小 于 0.2为低权重; 对于高权重和低权重, 按照所述的区域所包含文字的多少, 也可以按照分级的方式划分权重值, 譬如: 当某一个区域所包含的文字较多, 可以设定权重为 0.9, 某一区域所包含的文字不是太多, 可设定权重为 0.7, 对于低权重的设置也可以按照上述方式分别设定, 这种检测区域所包含的文 字多少, 可以有多种方式, 譬如: 计算区域的纹理能量来确认, 或通过文字 识别的方式来确认), 根据文字区域的权重和非文字区域的权重, 采用非线性 缩放算法将图像按设定的宽高比进行缩放。 剪裁处理包括: 根据文字区域, 采用剪裁算法将图像按设定的宽高比进行剪裁, 所述剪裁后的图像包括文字 区域。
从实施例一内容可以看出, 本发明实施例首先对图像进行文字区域检测, 得到检测出的文字区域; 再根据所述文字区域对图像进行非等比分辨率的转 换处理, 从而可以使得转换后的图像中的文字区域等重要内容区域不会发生 丢失现象, 可以被保留及进行无失真显示。
以下更具体介绍本发明实施例二和实施例三的技术方案。
图 2是本发明实施例二图像转换方法流程图, 主要包括步骤:
步骤 201、 检测文字区域。
在获取输入的图像后, 检测图像中的文字区域, 得到检测出的文字区域。 一般常用的文字区域定位算法包括: 基于连通域的定位算法、 基于边缘 的定位算法和基于纹理能量的定位算法。
基于连通域的定位算法主要利用文字区域的颜色特性来进行文字区域的 定位; 基于边缘的定位算法主要利用文字区域的边缘密集且具有规律方向性 的特点来进行文字区域的定位, 但由于不同文字的边缘密度与方向均有不同 特点, 且背景内容未知, 一般需与其他算法配合使用; 基于纹理能量的定位 算法主要将文字区域看成一个特殊的纹理来进行文字区域的定位, 基于纹理 的方法具有较强的鲁棒性。
本发明实施例采用基于边缘和纹理能量相结合的定位算法, 该算法通过 离散余弦变换计算图像不同区域的纹理能量, 根据纹理能量完成文字区域的 初步定位, 并结合边缘约束条件完成对文字区域的精确定位。
步骤 201的过程参见图 3,图 3是本发明实施例二中检测文字区域的流程 图, 具体包括步骤:
301、 确定需检测的区域。
首先, 初步确定需要进行检测的区域。 为了保证画面中内容的显示, 一般图像中的文字区域可能位于图像的边缘位置, 因此可以确定图像边缘 位置为需检测的区域。 以视频会议系统检测会议信息为例, 会议信息显示 的位置通常在图像的上、 下、 左、右 4个边缘位置和 /或图像的四个角落位 置, 因此可以选择上、 下、 左、 右 4个边缘位置和 /或图像的四个角落位置 作为需检测的区域。 可以理解, 上述确定需检测的区域主要考虑到常规情 况下的文字区域所处的位置, 对于一些非常规情况下的文字区域的检测, 可以约定将整个画面作为文字的检测区域, 对此, 本实施例不做限定。
302、 计算需检测的区域的纹理能量, 得到能量分布情况。 假设图像的上、 下、 左、 右 4个边缘位置为需检测的 4个区域。 将要 检测的各区域划分成小块, 如 8 x 8像素的小块, 然后再执行离散余弦变 换。 因为频域上不同位置的系数代表图像的高频和低频部分, 高频部分的 能量较高,低频部分的能量较低, 因此通过选取不同的变换系数进行组合, 可以计算出每个小块的总纹理能量。 很多情况下在单一颜色空间内文字区 域的能量很低,因此可在每个小块 Y、 Cb、 Cr三个空间分别计算纹理能量, 再求每个小块的三个空间的总纹理能量。
303、 确定重要区域和非重要区域。
由于文字区域的大小和长短均未知, 通过单一阔值一般无法有效地选 出文字区域, 因此设置第一阔值和第二阔值两个阔值。 先选出小块的总纹 理能量大于第一阔值的区域, 从选出的区域中再将小块的总纹理能量与第 二阔值比较, 选出大于第二阔值的区域作为重要区域, 此时再确定重要区 域以外的区域为非重要区域。 重要区域一般为可靠性较高的文字区域, 非 重要区域包含低的纹理能量的文字区域和非文字区域。
304、 以重要区域为基 ,合并非重要区域,确定检测出的文字区域。 以重要区域为基石出, 合并非重要区域, 就可以得到进一步定位的较精 确的文字区域。 区域合并指的是采用一个新的区域包含了需要合并的所有 区域, 新区域是需要合并区域的并集。 具体的合并方式可以包括: 取所有 区域中最小左上角 X和 Y坐标作为新区域的左上角坐标, 取所有区域中 最大的右下角 X, Y坐标最为新区域右下角 X和 Y坐标。
基于上面的四个步骤, 就完成了文字区域的检测。 步骤 202、 标识文字区域。
对检测出来的文字区域可以进行标识, 可以用多个矩形区域标识, 并为 每个区域设置权重, 矩形区域表明文字区域的范围, 权重表明文字区域的重 要程度, 权重可以有很多种设定方式, 比如取 0 ~ 1的浮点数表示权重大小, 0代表重要度最低, 1代表重要度最高。 可以理解, 之所以采用矩形区域, 是 基于文字的常规显示方式, 在具体的实现过程中, 可以根据文字的显示角度 来选择其他的区域来进行标识。
步骤 203、 采用非线性缩放算法进行转换处理。
该步骤采用基于目标感兴趣区域(ROI, Region of Interest ) 映射的非线 性缩放算法。 该算法考虑图像中每个像素的权重, 对于高权重的像素, 缩放 比例较小, 因而失真较小, 对于低权重的像素, 缩放比例较大, 对应的失真 较大。 由于将文字区域作为高权重的区域, 因此在缩放时能够确保文字区域 不发生变形或变形较小。
该步骤需要计算图像的 ROI图, 其中 ROI图是一种灰度图, ROI图中像 素的值为源图像中对应像素的权重。 其中像素值越小代表该像素的权重越低, 该 ROI图的像素值越大代表权重越高。 灰度图的取值范围是 0 ~ 255, 可以归 一到 0 ~ 1之间的权重值。 R0I图中所表示的权重值可以为整数, 也可以为浮 点数。 权重的衡量标准是能量方程, 图像中缺少纹理的平坦区域一般能量较 小, 而纹理和边缘比较丰富的区域一般能量较大。 能量方程有多种形式, 常 用的包括 A-™™梯度能量6!和 -™™梯度能量 , 分别如以下公式(1 )和公式 ( 2 )所示。
公式( 1 )
Figure imgf000009_0001
公式 ( 2 )
其中公式中的 I表示像素的灰度值、 X表示像素的水平坐标(行号)、 y 表示像素的垂直坐标(列号)。
对于特殊的高权重区域, 例如文字区域, 可以设置一个高能量值。 例如 在本发明实施例中, 由于文字区域是重要区域, 希望其失真尽可能小, 因此 对于文字区域的像素可以设置为整个图像中的较大能量值例如最大能量值, 即 ETD = MaX(E , 其中 i表示文字区域像素所处的行号, j表示列号, E表 示能量, 表示文字区域能量。
( 1 )对图像进行缩小的情况
对于每个像素, 可以根据权重计算出一个缩小值, 对于整个图像则可以 确定出一个缩小图。 考虑一行的情况, 对于在宽度为 w的图像上每行缩小 1 个像素的情况, 每个像素的缩小值为:
Figure imgf000009_0002
。 其中 i, j均为行 索引。
对于每行缩小 k个像素的情况, k个像素的缩小值为5 (^) = (0。 为了避 免像素映射位置重排, 每个像素的缩小值不能超过 1, 即需要满足以下两式:
Figure imgf000010_0001
需要说明的是, 对于每列的处理情况与每行的处理情况是类似的。
为了避免产生锯齿现象, 进一步考虑图像行或列之间的相关性。 对于行 缩放, 1) , 某一像素的能量 越大 , 则^^ -1)越接近于 , , 因此可以使用下列约束条件对能量图进行处理, 使图像在 2D空域平 滑:
E(x, y) = Kx - E(x, y-\) + K2- E(x, y)
其中的参数可以根据实际情况设置, 一般可以设: Kl = 1Κ2 = 0 ~ 0'2。 对于视频序列, 如果逐帧地进行缩放, 由于得到的缩小图和图像内容相 关,可能会产生明显的抖动现象,因此对于视频的缩放需要考虑 3D时域平滑。 在进行 3D时域平滑时可以采用两种方式: 对于图像内容变化较小的情况, 可 以只在第一帧时确定一个缩小图, 后续的帧都使用该缩小图进行缩放, 即: S(x,y,t) = S(x,y,l) o另外一种方法是采用类似 2D空域平滑的方法对时域上相邻 的两帧进行平滑。 时域上邻近的两帧具有高度的相关性, 因此可以使用下列 约束条件对能量图进行处理: E = K3 - E(x, y,t-\) + K - Ε(χ, y, t) 其中的参数可以根据实际情况设置, 一般可以设: Κ3 = 1 , 4 =0~0·2。 确定完缩小图后, 需要进行源图像到目标图像的映射。 可以采用前向映 射方法, 通过积累的缩小值计算出源图像上某像素坐标在目标图像上的位置。 例:^对于行缩放可得:
Figure imgf000010_0002
得出的目标图像的行坐标 为一个浮点值, 可以通过插值算法求出整数 坐标值。 插值算法可以使用双线性插值算法或立方卷积算法等算法。
( 2 )对图像进行放大的情况 对于每个像素, 可以根据权重计算出一个缩小值, 可以认为缩小值为一 个负数, 即对于扩大 k个像素的情况, 缩小值可以表示为: S、k,s、 = -ks(J)。 对 于图像放大的情况, 可以认为没有像素缩放的约束, 因为一个像素的缩小不 能超过 1个单位, 而放大可以是无限制。
在采用非线性缩放算法进行转换处理后, 得到转换的图像, 则可以输出 图像进行显示。
需要说明的是, 上述是以采用基于目标感兴趣区域 (ROI, Region of Interest ) 映射的非线性缩放算法举例说明但不局限于此, 也可以采用其他非 线性缩放算法, 例如是分区域非线性缩放算法, 其与采用基于 ROI非线性缩 放算法进行处理的区别主要在于分区域非线性缩放算是将设置的区域设置权 重而不是根据象素设置权重, 其他处理过程类似。
从实施例二内容可以看出, 本发明实施例技术方案对图像进行文字区域 检测, 得到检测出的文字区域, 并标识权重; 根据所述文字区域对图像采用 非线性缩放算法进行转换处理, 从而可以使得转换后的图像中的文字区域等 重要内容区域不会发生丢失现象, 可以被保留及进行无失真显示。
图 4是本发明实施例三图像转换方法流程图, 实施例三与实施例二的区 别主要在于转换处理采用的算法不同。 如图 4所示, 主要包括步骤:
步骤 401、 检测文字区域。
步骤 402、 标识文字区域。
步骤 401 - 402的内容与实施例二中步骤 201 - 202的内容基本相同, 此 处不再赘述。 需要说明的是, 该实施例中可以不对文字区域标识权重。
步骤 403、 采用智能剪裁算法进行转换处理。
该步骤使用智能剪裁算法在对图像进行剪裁时, 考虑之前步骤确定的文 字区域的位置, 使剪裁区域不包括文字区域, 从而不会发生文字区域内容丢 失现象。
步骤 403的过程参见图 5,图 5是本发明实施例三中采用智能剪裁算法在 垂直方向的处理流程图, 包括步骤:
501、 判断图像顶端是否含有文字, 若是, 进入步骤 502, 若否, 进入步 骤 503;
根据之前步骤检测出的文字区域, 判断文字区域位于图像的上方还是下 方, 可以通过比较文字区域的高度坐标到图像上边界和下边界的距离完成。 若有文字区域位于图像的上方, 则可以判断图像顶端含有文字, 则进入 502, 否则进入 503。
502、 确定靠近顶部边缘的文字区域的垂直方向坐标;
假设图像上方只有一个文字区域时, 直接确定靠近顶部边缘的文字区域 的垂直方向坐标;假设图像上方有两个文字区域 和 2, 则判断这两个文字区 域哪个最靠近图像的边缘, 如 比7^更靠近图像的上边界, 则确定 ^靠近顶部 边缘的文字区域的垂直方向坐标, 也就是将 高度坐标到上边界的距离作为 需要剪裁的图像高度。
503、 判断图像底端是否含有文字, 若是, 进入 504, 若否, 进入 505; 根据之前步骤检测出的文字区域, 判断文字区域位于图像的上方还是下 方, 可以通过比较文字区域的高度坐标到图像上边界和下边界的距离完成。 若有文字区域位于图像的下方, 则可以判断图像底端含有文字, 则进入 504, 否则进入 505。
504、 确定靠近底部边缘的文字区域的垂直方向坐标;
假设图像下方只有一个文字区域时, 直接确定靠近底部边缘的文字区域 的垂直方向坐标;假设图像下方有两个文字区域7^和7^ 则判断这两个文字区 域哪个最靠近图像的边缘, 如 ^比^更靠近图像的下边界, 则确定 ^靠近底部 边缘的文字区域的垂直方向坐标, 也就是将 高度坐标到下边界的距离作为 需要剪裁的图像高度。
505、 进行垂直方向的剪裁。 如果只有在上方的文字区域, 则根据靠近顶部边缘的文字区域的垂直方 向坐标确定需保留上方的文字区域后, 剩下的剪裁高度可以设在图像的下边 界区域。 如果只有在下方的文字区域, 则根据靠近底部边缘的文字区域的垂 直方向坐标确定需保留下方的文字区域后, 剩下的剪裁高度可以设在图像的 上边界区域。 如果在上方和下方都有文字区域, 则需要同时根据靠近顶部和 底部边缘的文字区域的垂直方向坐标保留上方和下方的文字区域, 再进行其 他区域的剪裁。
在采用智能剪裁算法进行转换处理后, 得到转换的图像, 则可以输出图 像进行显示。
需要说明的是, 上述是以垂直方向进行剪裁举例说明, 在水平方向上进 行剪裁也是类似的。
还需要说明的是, 如果因为在上方和下方都有文字区域导致剪裁后的区 域还不能满足目标图像分辨率的要求, 则可以再对剪裁后的图像进行线性或 非线性缩放处理, 使之达到目标图像的分辨率。 在进行非线性缩放处理, 可 以参考实施例二中的方法, 其原理是相同的, 或者采用其他缩放处理方法。
还需说明的是, 上述是以采用智能剪裁算法进行转换处理举例说明但不 局限于此, 其他考虑文字区域进行剪裁的算法也是可以的。
从实施例三内容可以看出, 本发明实施例技术方案对图像进行文字区域 检测, 得到检测出的文字区域; 根据所述文字区域对图像采用智能剪裁算法 进行转换处理, 从而可以使得转换后的图像中的文字区域等重要内容区域不 会发生丢失现象, 可以被保留及进行无失真显示。
需要说明的是, 上述是以检测出文字区域后, 采用非线性缩放算法或智 能剪裁算法进行转换处理为例进行说明但不局限于此, 也可以采用其他缩放 处理的方法。
上述内容伴细介绍了本发明实施例的图像转换方法, 相应的, 本发明实 施例提供一种转换装置和显示系统。 图 6是本发明实施例的转换装置结构示意图。
如图 6所示, 转换装置包括: 检测单元 61、 转换单元 62。
检测单元 61, 用于对图像进行文字区域检测, 得到检测出的文字区域; 转换单元 62, 用于根据所述文字区域对图像进行转换处理, 得到与转换 前的图像具有不同的宽高比的转换后的图像。
优选的, 转换装置还可以包括: 标识单元 63。
标识单元 63, 用于对所述检测出的文字区域标识权重; 所述转换单元 62 对图像进行转换处理时进一步参考所述文字区域的权重。
优选的, 转换单元 62可以将所述标识单元标识的文字区域的权重设置为 高权重, 非文字区域的权重可设置为低权重, 根据所述文字区域的权重和非 文字区域的权重, 采用非线性缩放算法将图像按设定的宽高比进行缩放。 而 非线性缩放算法可以是支持基于重要区域映射的非线缩放算法等。 或者, 优选的, 转换单元 62可以采用剪裁算法将所述图像按设定的宽高比进行 剪裁, 所述剪裁后的图像包括所述文字区域, 剪裁算法可以是智能剪裁算法 等。
另外, 转换单元 62若发现剪裁后的图像的宽高比未达到设定的宽高比, 则对剪裁后的图像进一步进行缩放处理。
图 7是本发明实施例的显示系统结构示意图。 如图 7所示, 显示系统包 括: 转换装置 71和显示装置 72。
转换装置 71, 用于对图像进行文字区域检测, 得到检测出的文字区域; 根据所述文字区域对图像进行转换处理, 得到与转换前的图像具有不同的宽 高比的转换后的图像;
显示装置 72, 用于显示所述转换后的图像。
其中, 转换装置 71具有图 6所示的结构, 具体参见前面的描述, 此处不 再赘述。
综上所述, 本发明实施例首先对图像进行文字区域检测, 得到检测出的 文字区域; 根据所述文字区域对图像进行非等比分辨率的转换处理, 从而可 以使得转换后的图像中的文字区域等重要内容区域不会发生丢失现象, 可以 被保留及进行无失真显示。
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步 骤是可以通过程序来指令相关的硬件来完成, 该程序可以存储于一计算机可 读存储介质中,存储介质可以包括: 只读存储器(ROM, Read Only Memory )、 随才 取存储器(RAM, Random Access Memory )、 磁盘或光盘等。
以上对本发明实施例所提供的一种图像转换方法、 转换装置及显示系统 阐述, 以上实施例的说明只是用于帮助理解本发明的方法及其核心思想; 同 时, 对于本领域的一般技术人员, 依据本发明的思想, 在具体实施方式及应 用范围上均会有改变之处, 综上所述, 本说明书内容不应理解为对本发明的 限制。

Claims

权 利 要求 书
1、 一种图像转换方法, 其特征在于, 包括:
对图像进行文字区域检测, 得到检测出的文字区域;
根据所述文字区域对图像进行转换处理, 得到与转换前的图像具有不同的 宽高比的转换后的图像。
2、 根据权利要求 1所述的图像转换方法, 其特征在于:
所述对图像进行文字区域检测, 得到检测出的文字区域之后还包括: 标识出所述检测出的文字区域的权重;
所述根据所述文字区域对图像进行转换处理具体包括: 参考所述文字区域 的权重, 对图像进行转换处理。
3、 根据权利要求 2所述的图像转换方法, 其特征在于:
所述根据所述文字区域对图像进行转换处理包括: 根据所述文字区域对图 像进行缩放处理。
4、 根据权利要求 3所述的图像转换方法, 其特征在于:
所述缩放处理包括: 将所述文字区域的权重设置为高权重, 将所述的非文 字区域的权重设置为低权重, 根据所述文字区域的权重和非文字区域的权重, 采用非线性缩放算法将图像按设定的宽高比进行缩放。
5、 根据权利要求 1所述的图像转换方法, 其特征在于:
所述根据所述文字区域对图像进行转换处理包括: 根据所述文字区域对图 像进行剪裁处理。
6、 根据权利要求 5所述的图像转换方法, 其特征在于:
所述剪裁处理包括: 根据所述文字区域, 采用剪裁算法将图像按设定的宽 高比进行剪裁, 所述剪裁后的图像包括所述文字区域。
7、 根据权利要求 6所述的图像转换方法, 其特征在于, 还包括:
如果剪裁后的图像的宽高比未达到设定的宽高比, 则对剪裁后的图像进一 步进行缩放处理。
8、 一种转换装置, 其特征在于, 包括:
检测单元, 用于对图像进行文字区域检测, 得到检测出的文字区域; 转换单元, 用于根据所述文字区域对图像进行转换处理, 得到与转换前的 图像具有不同的宽高比的转换后的图像。
9、 根据权利要求 8所述的转换装置, 其特征在于, 还包括:
标识单元, 用于标识所述检测出的文字区域的权重;
所述转换单元参考所述文字区域的权重, 对图像进行转换处理。
10、 根据权利要求 9所述的转换装置, 其特征在于:
所述转换单元将所述标识单元标识的文字区域的权重设置为高权重, 根据 所述文字区域的权重和非文字区域的权重, 采用非线性缩放算法将图像按设定 的宽高比进行缩放。
11、 根据权利要求 8所述的转换装置, 其特征在于:
所述转换单元采用剪裁算法将所述图像按设定的宽高比进行剪裁, 所述剪 裁后的图像包括所述文字区域。
12、 根据权利要求 11所述的转换装置, 其特征在于:
所述转换单元若发现剪裁后的图像的宽高比未达到设定的宽高比, 则对剪 裁后的图像进一步进行缩放处理。
13、 一种显示系统, 其特征在于, 包括:
转换装置, 用于对图像进行文字区域检测, 得到检测出的文字区域; 根据 所述文字区域对图像进行转换处理, 得到与转换前的图像具有不同的宽高比的 转换后的图像;
显示装置, 用于显示所述转换后的图像。
PCT/CN2010/072178 2009-04-30 2010-04-25 图像转换方法、转换装置及显示系统 WO2010124599A1 (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP10769288.1A EP2426638B1 (en) 2009-04-30 2010-04-25 Image conversion method, conversion device and display system
US13/284,227 US8503823B2 (en) 2009-04-30 2011-10-28 Method, device and display system for converting an image according to detected word areas

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
CN2009101361557A CN101547323B (zh) 2009-04-30 2009-04-30 图像转换方法、转换装置及显示系统
CN200910136155.7 2009-04-30
CN200910138672.8 2009-05-12
CN 200910138672 CN101887520B (zh) 2009-05-12 2009-05-12 一种图像中的文字定位方法和装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US13/284,227 Continuation US8503823B2 (en) 2009-04-30 2011-10-28 Method, device and display system for converting an image according to detected word areas

Publications (1)

Publication Number Publication Date
WO2010124599A1 true WO2010124599A1 (zh) 2010-11-04

Family

ID=43031723

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2010/072178 WO2010124599A1 (zh) 2009-04-30 2010-04-25 图像转换方法、转换装置及显示系统

Country Status (3)

Country Link
US (1) US8503823B2 (zh)
EP (1) EP2426638B1 (zh)
WO (1) WO2010124599A1 (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9569681B2 (en) * 2014-04-10 2017-02-14 Xerox Corporation Methods and systems for efficient image cropping and analysis
US11468224B2 (en) * 2020-08-17 2022-10-11 IT Cadre, LLC Method for resizing elements of a document

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1139338A (zh) * 1995-06-28 1997-01-01 大宇电子株式会社 在宽宽高比屏幕上控制字幕显示的装置
CN1351735A (zh) * 2000-01-17 2002-05-29 皇家菲利浦电子有限公司 文本增强
CN1642226A (zh) * 2004-01-14 2005-07-20 松下电器产业株式会社 视频信号显示单元
CN1659591A (zh) * 2002-06-03 2005-08-24 皇家飞利浦电子股份有限公司 视频信号的自适应缩放
JP2006313415A (ja) * 2005-05-06 2006-11-16 Canon Inc 画像処理装置
JP2007060105A (ja) * 2005-08-23 2007-03-08 Nec Personal Products Co Ltd 画像データ変換方法、その装置及びそのプログラム
CN101193235A (zh) * 2007-07-23 2008-06-04 南京Lg新港显示有限公司 含有字幕影像的大小调节方法及其数码电视
CN101276413A (zh) * 2007-03-30 2008-10-01 欧姆龙株式会社 便携式终端装置用的程序和便携式终端装置
CN101365077A (zh) * 2008-09-28 2009-02-11 深圳华为通信技术有限公司 图像缩放方法及装置
CN101419661A (zh) * 2007-10-26 2009-04-29 国际商业机器公司 基于图像中的文本进行图像显示的方法和系统
CN101547323A (zh) * 2009-04-30 2009-09-30 深圳华为通信技术有限公司 图像转换方法、转换装置及显示系统

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3357776B2 (ja) * 1996-01-17 2002-12-16 シャープ株式会社 画像処理方法
US5838838A (en) * 1996-07-19 1998-11-17 Hewlett-Packard Company Down-scaling technique for bi-level images
JPH11203467A (ja) * 1998-01-20 1999-07-30 Sony Corp 表示装置および表示方法
KR100820507B1 (ko) * 2000-04-21 2008-04-10 마츠시타 덴끼 산교 가부시키가이샤 화상처리방법 및 화상처리장치
FI112762B (fi) 2001-03-09 2003-12-31 Nokia Corp Solukkoradioverkko
KR100626376B1 (ko) * 2004-05-27 2006-09-20 삼성전자주식회사 레터박스 검출 장치 및 방법, 그리고 이를 구비한 엠팩디코딩 장치
US7400776B2 (en) * 2005-01-10 2008-07-15 International Business Machines Corporation Visual enhancement for reduction of visual noise in a text field
CN100431363C (zh) 2005-06-06 2008-11-05 中兴通讯股份有限公司 基站收发器与控制器Abis接口组网方法及其链接方法与系统

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1139338A (zh) * 1995-06-28 1997-01-01 大宇电子株式会社 在宽宽高比屏幕上控制字幕显示的装置
CN1351735A (zh) * 2000-01-17 2002-05-29 皇家菲利浦电子有限公司 文本增强
CN1659591A (zh) * 2002-06-03 2005-08-24 皇家飞利浦电子股份有限公司 视频信号的自适应缩放
CN1642226A (zh) * 2004-01-14 2005-07-20 松下电器产业株式会社 视频信号显示单元
JP2006313415A (ja) * 2005-05-06 2006-11-16 Canon Inc 画像処理装置
JP2007060105A (ja) * 2005-08-23 2007-03-08 Nec Personal Products Co Ltd 画像データ変換方法、その装置及びそのプログラム
CN101276413A (zh) * 2007-03-30 2008-10-01 欧姆龙株式会社 便携式终端装置用的程序和便携式终端装置
CN101193235A (zh) * 2007-07-23 2008-06-04 南京Lg新港显示有限公司 含有字幕影像的大小调节方法及其数码电视
CN101419661A (zh) * 2007-10-26 2009-04-29 国际商业机器公司 基于图像中的文本进行图像显示的方法和系统
CN101365077A (zh) * 2008-09-28 2009-02-11 深圳华为通信技术有限公司 图像缩放方法及装置
CN101547323A (zh) * 2009-04-30 2009-09-30 深圳华为通信技术有限公司 图像转换方法、转换装置及显示系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2426638A4 *

Also Published As

Publication number Publication date
EP2426638A1 (en) 2012-03-07
EP2426638B1 (en) 2013-09-18
US8503823B2 (en) 2013-08-06
EP2426638A4 (en) 2012-03-21
US20120045147A1 (en) 2012-02-23

Similar Documents

Publication Publication Date Title
EP2334058B1 (en) Image zooming method and apparatus
JP6016061B2 (ja) 画像生成装置、画像表示装置及び画像生成方法並びに画像生成プログラム
KR101361897B1 (ko) 영상 처리 방법, 영상 처리 장치 및 스캐너
WO2012025042A1 (zh) 视频画面显示方法及装置
JP5644461B2 (ja) 画像処理装置及びプログラム
JP2012521708A (ja) 色周波数に基づく顕著性マップを用いて画像を修正する方法及び装置
WO2018082308A1 (zh) 一种图像处理方法及终端
TW201505420A (zh) 內容感知顯示適應方法
TW201143358A (en) Method for distinguishing a 3D image from a 2D image and for identifying the presence of a 3D image format by feature correspondence determination
CN109543534B (zh) 一种目标跟踪中目标丢失重检的方法及装置
CN104166992B (zh) 基于网格变形的内容感知双目图像缩放方法
US8295647B2 (en) Compressibility-aware media retargeting with structure preserving
US10089954B2 (en) Method for combined transformation of the scale and aspect ratio of a picture
JP6311372B2 (ja) 画像処理装置および画像処理方法
CN109600667B (zh) 一种基于网格与帧分组的视频重定向的方法
WO2010124599A1 (zh) 图像转换方法、转换装置及显示系统
CN101547323B (zh) 图像转换方法、转换装置及显示系统
JP4020093B2 (ja) 縁検出方法及び装置及びプログラム及び記憶媒体及び枠検出方法及び装置及びプログラム及び記憶媒体
CN109886280B (zh) 一种基于核相关滤波的异源图像目标匹配方法
JP5042251B2 (ja) 画像処理装置および画像処理方法
CN115546027A (zh) 图像缝合线确定方法、装置以及存储介质
CN104933430A (zh) 一种用于移动终端的交互式图像处理方法及系统
US20180108173A1 (en) Method for improving occluded edge quality in augmented reality based on depth camera
US9159118B2 (en) Image processing apparatus, image processing system, and non-transitory computer-readable medium
CN113674139A (zh) 人脸图像的处理方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10769288

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2010769288

Country of ref document: EP