WO2009081791A1 - 情報処理システム、その方法及びプログラム - Google Patents

情報処理システム、その方法及びプログラム Download PDF

Info

Publication number
WO2009081791A1
WO2009081791A1 PCT/JP2008/072824 JP2008072824W WO2009081791A1 WO 2009081791 A1 WO2009081791 A1 WO 2009081791A1 JP 2008072824 W JP2008072824 W JP 2008072824W WO 2009081791 A1 WO2009081791 A1 WO 2009081791A1
Authority
WO
WIPO (PCT)
Prior art keywords
area
text
region
objects
document
Prior art date
Application number
PCT/JP2008/072824
Other languages
English (en)
French (fr)
Inventor
Sumitaka Okajo
Original Assignee
Nec Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nec Corporation filed Critical Nec Corporation
Priority to US12/809,256 priority Critical patent/US20110043869A1/en
Priority to JP2009547049A priority patent/JPWO2009081791A1/ja
Publication of WO2009081791A1 publication Critical patent/WO2009081791A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • G06V30/41Analysis of document content
    • G06V30/413Classification of content, e.g. text, photographs or tables

Definitions

  • the present invention relates to an information processing system, a method thereof, and a program, and in particular, identifies and classifies character regions and regions other than characters (chart regions) such as diagram regions and table regions for a document in which diagrams and characters are mixed.
  • the present invention relates to a document image layout analysis technique that can perform region segmentation.
  • Patent Document 1 An example of a related document image layout analysis system is described in Patent Document 1.
  • This related document image layout analysis system is composed of basic line extraction means and line / stage mutual extraction means.
  • the related document image layout analysis system having such a configuration operates as follows.
  • a set of basic elements constituting a document such as a black pixel connected component in the document image or a circumscribed rectangle overlapping rectangle of the black pixel connected component in the document image is input.
  • the row / stage mutual extraction means Based on the proximity of the base elements (the character components are relatively densely arranged) and the homogeneity (the size of the character components are approximately the same) to generate a line, Next, the row / stage mutual extraction means generates a stage by integrating the set of rows based on their proximity and homogeneity.
  • Patent Document 2 An example of another related document image layout analysis system is described in Patent Document 2.
  • This related document image layout analysis system includes an area extraction unit, an image generation unit, a feature calculation unit, and a distance calculation unit.
  • the related document image layout analysis system having such a configuration operates as follows.
  • the area extraction unit analyzes the document image to extract the text area, the chart area, and the background area
  • the image generation section extracts the extracted background area in the background designation color and the text area in the text designation color.
  • An image is generated from a document in which an area is filled with a chart-designated color
  • the feature calculation unit displays layout characteristics indicating the proportion of the background area, text area, and chart area in the generated image, and hiragana and katakana that occupy the text area.
  • the distance that is the similarity between the layout features of the document image with the layout and the search target document image, the distance that is the similarity between the text features, and the distance that is the similarity between the image features It computes, and outputs the distances ascending order in the document image.
  • Japanese Patent Laid-Open No. 11-219407 page 6-9, FIGS. 1 and 9) JP 2006-318219 A (page 4-5, FIG. 1)
  • the first problem is that documents that are described in various character sizes in a single document or documents that have a complex layout cannot be handled.
  • the reason for this is that the layout of a presentation document, etc. is complex and diverse, and when text blocks are arranged in an intricate manner, or when text blocks and diagrams are arranged in an intricate manner, the This is because the stage cannot be extracted, and the text area is overintegrated or overdivided.
  • the second problem is that a similar document search based on the arrangement of the text area and the image area cannot be performed.
  • the reason is that a similar document search is performed by calculating a distance between feature amounts indicating a ratio between a text area and an image area in a document image.
  • An object of the present invention is to provide an information processing system, a method, and a program for dividing a document into a text area and a chart area, which are a human appearance.
  • the present invention that solves the above-described problems forms an object constituting a document and an object constituting a text region by using at least an area histogram of the object including the text extracted from the electronic document or the document image.
  • An information processing system having an object classification means for classifying an object into an object.
  • the present invention that solves the above-described problems forms an object constituting a document and an object constituting a text region by using at least an area histogram of the object including the text extracted from the electronic document or the document image.
  • An information processing method characterized by having an object classification process for classifying objects.
  • the present invention that solves the above-described problems forms an object constituting a document and an object constituting a text region by using at least an area histogram of the object including the text extracted from the electronic document or the document image.
  • a program that causes an information processing apparatus to execute an object classification process for classifying an object.
  • the area can be appropriately divided into a text area and a chart area.
  • FIG. 1 is a block diagram showing the configuration of the first embodiment.
  • FIG. 2 is a flowchart showing the operation of the embodiment of the first invention.
  • FIG. 3 is a flowchart showing details of the operation (step A2 in FIG. 2) of the object classification means of the first embodiment.
  • FIG. 4 is a diagram showing an example of object classification using an object area histogram.
  • FIG. 5 is a diagram showing another example of object classification using an object area histogram.
  • FIG. 6 is a flowchart showing details of the operations (step A3 in FIG. 2) of the text area generating means and the chart area generating means of the first embodiment.
  • FIG. 7 is a diagram illustrating an example of an integration process of objects that overlap each other.
  • FIG. 8 is a diagram for explaining the visual impression distance.
  • FIG. 8 is a diagram for explaining the visual impression distance.
  • FIG. 9 is a diagram illustrating the operation of the object integration process using the visual impression distance.
  • FIG. 10 is a diagram illustrating a specific example of the object integration process using the visual impression distance.
  • FIG. 11 is a diagram for explaining the visual impression distance.
  • FIG. 12 is a diagram for explaining the visual impression distance.
  • FIG. 13 is a diagram illustrating an example of area information.
  • FIG. 14 is a block diagram showing the configuration of the second embodiment.
  • FIG. 15 is a flowchart showing the operation of the second embodiment.
  • FIG. 16 is a diagram showing an example of a query input screen regarding the layout of the area.
  • FIG. 17 is a diagram illustrating a specific example of the integration process using the visual impression distance of the region input as a query.
  • FIG. 17 is a diagram illustrating a specific example of the integration process using the visual impression distance of the region input as a query.
  • FIG. 18 is a diagram illustrating an example of a formula for calculating the region similarity.
  • FIG. 19 is a schematic diagram showing the association between an area input as a query and an area of a divided document.
  • FIG. 20 is a diagram showing an example of a formula for calculating the overall similarity using the average value of the region similarity.
  • FIG. 21 is a diagram showing an example of a query input screen based on a combination of area layout and keywords.
  • an information processing system 100 includes an object extraction unit 110, an object classification unit 120, a text area generation unit 130, a chart area generation unit 140, and area information. And generating means 150.
  • the object extracting unit 110 analyzes an electronic document or a document image and extracts an object included in the document.
  • the object refers to a character, a line, a text block composed of a plurality of characters or lines, a figure, a table, a graph, an image, and the like.
  • Related techniques relating to object extraction from document images include threshold processing, labeling processing, edge processing, and the like. In the present invention, these related techniques are also used to extract objects from document images.
  • presentation creation software for example, PowerPoint (registered trademark) of Microsoft (registered trademark)
  • the data file is analyzed to extract an object. In the present embodiment, the latter case will be described below.
  • the object classification unit 120 classifies the object extracted by the object extraction unit 110 into an object constituting a text area and an object constituting a chart area based on the area histogram of the object including the text.
  • the text area generation unit 130 performs an integration process of objects classified as objects constituting the text area by the object classification unit 120 based on the visual impression distance, and generates a text area composed of a plurality of objects.
  • the chart area generation unit 140 performs an integration process of the objects classified as objects constituting the chart area by the object classification unit 120 based on the visual impression distance, and generates a chart area composed of a plurality of objects.
  • the region information generation unit 150 generates region information representing each region generated by the text region generation unit 130 and the chart region generation unit 140.
  • the electronic document given from the input device (not shown) is supplied to the object extraction means 110.
  • the object extraction unit 110 extracts objects such as text blocks, diagrams, tables, graphs, and images included in the document by using a function prepared by the presentation creation software or analyzing an electronic document data file. To do. At this time, a minimum circumscribed rectangle (Minimum Bounding Rectangle; MBR) composed of sides parallel to the x axis and the y axis is generated for each object extracted at the same time (step A1 in FIG. 2).
  • MBR Minimum Bounding Rectangle
  • the object classification unit 120 classifies the objects extracted by the object extraction unit 110 into an object constituting a text area and an object constituting a chart area based on the area histogram of the object including the text (step A2). .
  • the object is classified into an object (text block) containing text and an object (figure, table, graph, image) not containing text (step A2-1).
  • objects that do not include text are classified as objects that constitute a chart area.
  • the text block since the text block may be an object constituting the chart area, the text block is classified into an object constituting the text area and an object constituting the chart area.
  • a histogram of the object area for each page that is, one slide of the presentation) is generated (step A2-2).
  • the text blocks that make up the text area are described in a natural sentence with a certain amount of content in one block, so the number contained in one slide is small, and the characters in the block are large in size and large in number. There is a feature.
  • the text blocks that make up the chart area describe one word or one phrase in one block, so there are many numbers in one slide, and the characters in the block are small in size and the number of characters is small. There are few features.
  • the text blocks constituting the text area have a large area and a low appearance frequency
  • the text blocks constituting the chart area have a small area and a high appearance frequency. Therefore, as shown in FIG. 4, an area histogram is generated by determining the MBR area of each text block, an object having an area larger than the mode area is set as an object constituting the text area, and the mode area is set.
  • the following objects are classified as objects constituting the chart area (step A2-3). However, if all objects included in one slide are objects that contain text as a result of the classification into objects that contain text and objects that do not contain text, all these objects constitute the text area. Classify as an object. In the above example, an object equal to the area of the mode value is classified as an object constituting the chart area. However, the present invention is not limited to this, and an object equal to the area of the mode value is within the scope of the invention. May be classified as objects constituting the text area.
  • step A2-1 to step A2-3 the object is classified into an object constituting a text area and an object constituting a chart area (steps A2-4 and A2-5).
  • an object having an area larger than the area of the mode value and having an area equal to or higher than the increased area may be classified as an object constituting the text region.
  • the object classification means 120 integrates and classifies the objects classified into two types, those constituting the text area and those constituting the chart area, to generate a text area and a chart area (step A3).
  • the text area generating means 130 integrates objects having overlapping with respect to the MBR of each object classified as an object constituting the text area, and generates a new MBR (step A3-1).
  • FIG. 7 An example of this integration process is shown in FIG. In FIG. 7, two objects having an overlap at the top of the document are integrated into one. Next, even objects that do not overlap are considered to be objects having contents that are related to each other, so it is necessary to further integrate these objects that are visually close to each other. For this reason, in the present invention, a distance between objects in consideration of human visual impression (hereinafter referred to as visual impression distance) is calculated (step A3-2).
  • the visual impression distance is calculated for a combination of all two objects, and a text region is generated by integrating objects whose values are equal to or less than a threshold value (step A3). -3).
  • the visual impression distance is such that the closer the distance between the two opposing MBR sides of the two objects is, and the longer the overlapping length is when the two sides are projected onto an axis parallel to the side, "Close”.
  • FIG. 8 shows an example of the calculation of the visual impression distance D (A, B) between the MBR of the object A and the MBR of the object B.
  • D visual impression distance
  • the distance of the object is calculated using this visual impression distance.
  • the visual impression distance of the object having an overlap in the x-axis direction is calculated, and the objects whose visual impression distance is equal to or smaller than the threshold (the visual impression distance is close) are integrated.
  • the visual impression distance of an object having an overlap in the y-axis direction is calculated, and the objects whose visual impression distance is equal to or smaller than the threshold (the visual impression distance is close) are integrated.
  • the objects integrated in the x-axis direction and the y-axis direction are finally integrated.
  • FIG. 10 An example of integration processing based on visual impression distance is shown in FIG.
  • MBRs are generated as a result of integrating the overlapping objects in step A3-1.
  • MBR3 and MBR5 MBR4 and MBR5 are integrated in the x-axis direction.
  • MBR1 and MBR2, and MBR3 and MBR4 are integrated.
  • MBR1 and MBR2, MBR3, MBR4 and MBR5 are finally integrated by superimposing the integration results in the x-axis direction and the y-axis direction.
  • the threshold for MBR integration based on visual impression distance for example, an average value of distances of all combinations of arbitrary two MBRs included in one slide may be used. Also, a fixed value may be given in advance.
  • a text area is generated by the above processing.
  • the chart area generation means 140 performs the processing shown in the flowchart of FIG. 6 for the MBR of each object classified as an object constituting the chart area. Thereby, a chart area is generated.
  • the chart area is generated by the chart area generator 140.
  • a text area may be generated by the text area generating means 130.
  • the visual impression distance calculation formula of the present embodiment in the distance calculation in the object integration processing, it is possible to calculate as a relative distance instead of an absolute distance between objects, and a plurality of objects are enlarged / reduced In this case, the same value can be calculated (see FIG. 11). For this reason, it is possible to determine the distance by calculating the distance according to the ratio of the area of the object and the blank area, regardless of the absolute size of the object and the blank area existing between the objects.
  • the visual impression distance may be defined as shown in FIG.
  • the length of the MBR of the object A in the y-axis direction is A y
  • the length of the MBR of the object B in the y-axis direction is B y
  • the MBRs of the two objects in the y-axis direction The distance when the distance dy (A, B), the two sides of the MBR of the object A and the MBR of the object B are projected on the x-axis parallel to the side is the join x (A, B), and the length of the object A
  • the length of the MBR of the object A in the x-axis direction is A x
  • the length of the MBR of the object B in the x-axis direction is B x
  • the distance in the x-axis direction of the opposite sides of the MBR of the two objects is d x (A, B)
  • the length when the two sides of the MBR of the object A and the MBR of the object B are projected onto the y-axis parallel to the side is join y (A, B)
  • the two objects having a larger area of the object with respect to the distance and a larger ratio of the overlapping portions are calculated as being closer to each other.
  • the area information generation means 150 generates area information representing these areas from the text area and the chart area generated by the text area generation means 130 and the chart area generation means 140 (step A4).
  • FIG. 13 shows an example of area information.
  • the area information includes a document ID, a slide ID, and an MBR coordinate, an area type, a barycentric coordinate, an area, and an aspect ratio of each area.
  • an object which is a component of a document is classified into objects constituting a text area and a chart area, and the objects are integrated. Can be properly divided into a text area and a chart area. For this reason, it is possible to accurately and efficiently perform processing corresponding to a region, such as extraction of only a text region or a diagram region from a document, and further, for example, character recognition processing is performed only on a text region.
  • the second embodiment provides an information processing system capable of searching for similar documents based on the arrangement of text areas and image areas, and a method and program thereof.
  • Information processing system 100 includes object extraction means 110, object classification means 120, and text area generation means. 130, a chart region generation unit 140, a region information generation unit 150, a region information storage unit 160, a region information conversion unit 170, and a similarity calculation unit 180.
  • the object extraction means 110, the object classification means 120, the text area generation means 130, the chart area generation means 140, and the area information generation means 150 are the same as the configuration of the first embodiment shown in FIG. Since it is the same, description is abbreviate
  • the region information storage unit 160 stores the region information of the electronic document and document image output from the region information generation unit 150.
  • the area information conversion means 170 converts a search query related to the position and size of a text area and a chart area of a document into area information.
  • the query is an item input by the user for document search.
  • the similarity calculation unit 180 compares and collates the region information stored in the region information storage unit 160 with the region information output from the region information conversion unit 170, calculates similarity, and searches for similar documents.
  • the electronic document and the document image are divided into areas in advance, and the area information is stored in the area information storage means 160.
  • FIG. 16 is an example of a query input screen 200 for the layout of slides included in a document.
  • a user inputs a slide layout using an input unit such as a keyboard or a mouse through a screen displayed on an output unit (not shown) such as a display connected to the computer 100.
  • the user first selects either the text area or the chart area by the area selection unit 210.
  • the layout input unit 220 when a rectangle is designated by mouse drag or the like, a rectangular region corresponding to the region type selected by the region selection unit 210 is drawn. Alternatively, a drawn rectangle may be selected with a mouse or the like, and the position of the rectangle may be moved, the shape may be changed, or the size may be enlarged / reduced. In the example of FIG. 16, a text area is specified at the top of the slide, and a chart area is specified at the bottom of the slide.
  • the search button 230 is pressed, a document search based on the layout designated by the layout input unit 220 is started.
  • the clear button 240 is pressed, the rectangle drawn in the layout input unit 220 is deleted, and the layout input can be performed again.
  • the region information conversion unit 170 When the search button 230 is pressed, first, the region information conversion unit 170 generates a search query related to the position and size of the text region and chart region specified by the layout input unit 220. Thus, it is converted into the same area information stored in the area information storage means 160 (step B2). At this time, if a plurality of areas of the same area type are designated in the area designated by the user in step B1, the visual rectangles shown in steps A3-2 and A3-3 in the flowchart of FIG. After performing region integration processing using distance, it is converted into region information. For example, in the example shown in FIG. 17, two text areas and two chart areas are integrated into one text area and one chart area, respectively, as a result of the area integration process using the visual rectangular distance. Has been. In addition, the user may be able to select whether or not to perform region integration processing using the visual rectangular distance.
  • the similarity calculation unit 180 compares the region information converted from the query related to the layout input by the user by the region information conversion unit 170 with the region information for each document stored in the region information storage unit 160. Thus, the similarity between the layout of the area input by the user and the layout of the area of the divided document is calculated (step B3).
  • the similarity is, for example, the average value of the region similarity that is the similarity of each corresponding region.
  • a formula for calculating the region similarity for example, for a region having the same region type (text region or coordinate region), a cosine scale based on an angle ⁇ formed by a feature vector obtained from the region information is used.
  • the feature vector is represented by the four-dimensional vector of the center of gravity x coordinate v1, the center of gravity y coordinate v2, the area v3, and the aspect ratio v4 from the region information shown in FIG. 13, the region converted from the query input by the user
  • the similarity sim (Q, Ri) using the cosine measure of the feature vector Q and the feature vector Ri of the region stored in the region information storage means 160 can be obtained as shown in FIG.
  • the similarity calculation unit 180 calculates the region similarity for all the combinations included in the region information for each document for each region included in the region information converted from the query, as shown in FIG.
  • the region having the maximum similarity is associated as the region corresponding to the region converted from the query, and the value is defined as the region similarity between the two regions.
  • the similarity calculation unit 180 identifies slides having regions similar to the region layout input by the user in step B3, sorts them in descending order of similarity, and presents them to the user (step B4).
  • keywords in the conventional keyword search may be specified at the same time.
  • FIG. 21 shows an example of a query input screen 200 for designating a document layout and keywords as a search query.
  • the user performs layout input in the same manner as described above, and further specifies a keyword included in the slide with the keyword input unit 260.
  • the search button 230 is pressed, a document search based on the layout specified by the layout input unit 220 and the keyword specified by the keyword input unit 260 is started.
  • a slide including a specified keyword can be searched using a related technique for keyword search.
  • the search process combining the layout and the keyword operates so as to calculate the above-described layout similarity only for the slide searched by the keyword search.
  • the layout clear button 250 and the keyword clear button 260 are pressed, the rectangle drawn in the layout input unit 220 and the keyword input in the keyword input unit 260 are deleted, and the region layout and keyword input can be performed again. it can.
  • the user when the user inputs the layout of the area, the user himself / herself weights which of the text area and the chart area should be emphasized or which of the input areas should be emphasized depending on the user's confidence in the memory. You may be able to do it.
  • area information generated by dividing an electronic document or document image in advance and area information generated from a query related to the layout of the area input by the user are compared and collated to have a similar layout. Since the document is configured to be searched, the document can be searched based on the arrangement of the text area and the chart area even when the keyword included in the document is not accurately remembered. That is, similar documents can be searched based on the arrangement of the text area and the image area.
  • the document is searched based on the combination of the layout of the text area and the chart area and the keyword. it can.
  • each component is configured by hardware, but may be realized by a computer configured by a CPU or memory.
  • the object constituting the document extracted from the electronic document or the document image is composed of the object constituting the text region and the chart region using at least the area histogram of the object including the text.
  • This is an information processing system having object classification means for classifying objects into objects to be classified.
  • the object classification unit calculates an area histogram of the object including the text, and determines the object including the text as the text area according to the comparison with the area having the mode value.
  • the object is classified into an object constituting the diagram area and an object constituting the chart area.
  • the object classifying unit calculates an area histogram of an object including text, and classifies an object having an area larger than an area having a mode value as an object constituting the text area.
  • the object having an area smaller than the mode and the object not including the text are classified into objects constituting the chart area.
  • the object classification unit calculates an area histogram of an object including text, and selects an object having an area larger than an area that is a mode value and larger than an area whose frequency has increased again. It is configured to classify as an object constituting a text area, and to classify an object that includes the text that is not classified as an object that constitutes a text area and an object that does not contain text as an object that constitutes a chart area. Yes.
  • the fifth aspect includes an object extracting means for extracting an object constituting the document from the electronic document or the document image in the above aspect.
  • a sixth aspect is the above-described aspect, in which the text area generation for generating the text area by integrating the objects constituting the text area based on the visual impression distance that is the distance between the objects in consideration of the human visual impression. And a chart area generating means for generating a chart area by integrating objects constituting the chart area based on the visual impression distance, and an area information generating means for generating and outputting information representing the text area and the chart area. And have.
  • the text area generation means or the chart area generation means has a minimum circumscribed rectangle formed of sides parallel to the x axis and the y axis of the objects constituting the area overlapping each other. Or, when the minimum circumscribed rectangles do not overlap each other, when two objects are projected onto the x-axis or y-axis, the distance between the opposing sides of the respective minimum circumscribed rectangles is set to D1 and face each other. D1 / D2 is calculated as the visual impression distance when the length of the overlapping portion when the side is projected onto an axis parallel to them is D2, and the value of the visual impression distance D1 / D2 is compared with the threshold value. To determine whether to integrate these two objects, and in the case of integration, the process of integrating the two objects is performed in the x-axis direction and y It is configured to generate a region by integrating the object by performing for each direction.
  • the text area generation unit or the chart area generation unit includes a minimum circumscribed rectangle formed by sides parallel to the x-axis and the y-axis of the objects constituting the area.
  • the distance between the opposing sides of each minimum circumscribed rectangle is D1
  • the opposing sides D2 is the length of the overlapping part when projected onto the axis parallel to them
  • D3 is the sum of the lengths of the two objects perpendicular to the opposite sides
  • the opposite sides are the axes parallel to them.
  • the text area generation unit or the chart area generation unit calculates a visual impression distance for all combinations of minimum circumscribed rectangles of any two objects included in one slide.
  • the average value is set as the threshold value.
  • an area information storage unit that stores area information of an electronic document and an image document, and an area for converting a query regarding the layout of the area of the electronic document and the image document input by the user into area information Information conversion means; and similarity calculation means for calculating similarity by comparing the area information stored in the area information storage means with the area information converted by the area information conversion means, A document having a layout similar to the layout of the document area input by is searched.
  • the similarity calculation unit calculates a barycentric coordinate value representing the position of the region, an area representing the size of the region, and a shape of the region, for each region type of the text region and the chart region.
  • the similarity is calculated by comparing the aspect ratio to be expressed.
  • the similarity calculation unit is configured to calculate an angle formed by a feature vector including the x-coordinate of the centroid, the y-coordinate of the centroid, the area, and the aspect ratio in calculating the similarity. Use cosine value.
  • a thirteenth aspect further includes keyword search means for searching for a document including the input keyword in the above aspect, wherein the similarity calculation means calculates the similarity only for the document searched by the keyword search means.
  • a document that includes the keyword entered by the user and that has a layout similar to the layout of the document area entered by the user is retrieved.
  • an object constituting a document extracted from an electronic document or a document image is converted into an object constituting a text area and an object constituting a chart area using at least an area histogram of an object including text.
  • An information processing method having object classification processing for classification.
  • the object classification processing calculates an area histogram of an object including text, and the object including the text is converted into a text area in accordance with a comparison with an area having a mode value.
  • the object is classified into an object constituting the diagram area and an object constituting the chart area.
  • the object classification processing calculates an area histogram of an object including text, and classifies an object having an area larger than an area having a mode value as an object constituting the text area. Then, an object having an area smaller than the mode value and an object not including text are classified into objects constituting the chart area.
  • the object classification process calculates an area histogram of an object including text, and selects an object having an area larger than an area that is a mode value and larger than an area whose frequency has increased again.
  • the object is classified as an object constituting the text area, and the object including the text and not classified as the object constituting the text area and the object not including the text are classified as objects constituting the chart area.
  • the eighteenth aspect has an object extraction process for extracting an object constituting a document from an electronic document or a document image in the above aspect.
  • the text area generation that generates the text area by integrating the objects constituting the text area based on the visual impression distance that is a distance between the objects in consideration of the human visual impression. Processing, a diagram area generation process for generating a chart area by integrating objects constituting the chart area based on the visual impression distance, and a region information generation process for generating and outputting information representing the text area and the chart area And have.
  • the minimum circumscribed rectangles having sides parallel to the x axis and the y axis of the objects constituting the area overlap each other.
  • the distance between the opposing sides of the respective minimum circumscribed rectangles is set to D1 and face each other.
  • D1 / D2 is calculated as the visual impression distance when the length of the overlapping portion when the side is projected onto an axis parallel to them is D2, and the value of the visual impression distance D1 / D2 is compared with the threshold value.
  • the process of integrating the two objects is defined as the x-axis direction. It generates area by integrating object by performing for each axial direction.
  • minimum circumscribed rectangles having sides parallel to the x-axis and the y-axis of the objects constituting the region overlap each other.
  • the distance between the opposing sides of each minimum circumscribed rectangle is D1
  • the opposing sides D2 is the length of the overlapping part when projecting to the axis parallel to them
  • D3 is the sum of the lengths of the two objects perpendicular to the sides facing each other
  • the sides facing each other are the axes parallel to them
  • the length of the projection is adjusted according to the comparison between the value of (D1 ⁇ D4) / (D2 ⁇ D3) and the threshold value. It is determined whether or not these two objects are to be integrated, and in the case of integration, a process for integrating the two objects is performed in each of the
  • the text area generation process or the chart area generation process calculates a visual impression distance for all combinations of minimum circumscribed rectangles of any two objects included in one slide.
  • the average value is set as the threshold value.
  • a region information conversion process for converting a query regarding a layout of regions of an electronic document and an image document input by a user into region information, region information of an electronic document and an image document, and the region It further includes a similarity calculation process for calculating the similarity by comparing the area information converted by the information conversion process, and searches for a document having a layout similar to the layout of the document area input by the user.
  • the similarity calculation processing includes, for each region type of the text region and the chart region, a barycentric coordinate value that represents the position of the region, an area that represents the size of the region, and a shape of the region.
  • the similarity is calculated by comparing the aspect ratio to be expressed.
  • the similarity is calculated by calculating an angle formed by a feature vector including the x-coordinate of the centroid, the y-coordinate of the centroid, the area, and the aspect ratio of the two regions. Use cosine value.
  • a twenty-sixth aspect further includes a keyword search process for searching for a document including the input keyword in the above aspect, wherein the similarity calculation process calculates the similarity only for the document searched by the keyword search process.
  • a document that includes the keyword entered by the user and that has a layout similar to the layout of the document area entered by the user is retrieved.
  • an object constituting a document extracted from an electronic document or a document image is converted into an object constituting a text area and an object constituting a chart area using at least an area histogram of the object including text.
  • the object classification process calculates an area histogram of an object including text, and the object including the text is converted into a text area according to a comparison with an area that is a mode value.
  • the object is classified into the object constituting the object and the object constituting the chart area.
  • the object classification processing calculates an area histogram of an object including text, and classifies an object having an area larger than an area that is a mode value as an object constituting a text area. Then, an object having an area smaller than the mode value and an object not including text are classified into objects constituting the chart area.
  • the object classification processing calculates an area histogram of an object including text, and an object having an area larger than an area that is a mode value and larger than an area whose frequency is increased again.
  • the object is classified as an object constituting the text area, and the object including the text and not classified as the object constituting the text area and the object not including the text are classified as objects constituting the chart area.
  • the information processing apparatus executes an object extraction process for extracting an object constituting a document from an electronic document or a document image.
  • the text area generation that generates the text area by integrating the objects constituting the text area based on the visual impression distance that is the distance between the objects in consideration of the human visual impression. Processing, a diagram area generation process for generating a chart area by integrating objects constituting the chart area based on the visual impression distance, and a region information generation process for generating and outputting information representing the text area and the chart area And have.
  • the minimum circumscribed rectangles formed by sides parallel to the x axis and the y axis of the objects constituting the region overlap each other.
  • the distance between the opposing sides of the respective minimum circumscribed rectangles is set to D1 and face each other.
  • D1 / D2 is calculated as the visual impression distance when the length of the overlapping portion when the side is projected onto an axis parallel to them is D2, and the value of the visual impression distance D1 / D2 is compared with the threshold value.
  • the process of integrating the two objects is defined as the x-axis direction. It generates area by integrating object by performing for each axial direction.
  • the minimum circumscribed rectangles formed by sides parallel to the x axis and the y axis of the objects constituting the region overlap each other.
  • the distance between the opposing sides of each minimum circumscribed rectangle is D1
  • the opposing sides D2 is the length of the overlapping part when projecting to the axis parallel to them
  • D3 is the sum of the lengths of the two objects perpendicular to the sides facing each other
  • the sides facing each other are the axes parallel to them
  • the length of the projection is adjusted according to the comparison between the value of (D1 ⁇ D4) / (D2 ⁇ D3) and the threshold value. It is determined whether or not these two objects are to be integrated, and in the case of integration, a process for integrating the two objects is performed in
  • the text area generation process or the chart area generation process calculates visual impression distances for all combinations of minimum circumscribed rectangles of any two objects included in one slide.
  • the average value is set as the threshold value.
  • a region information conversion process for converting a query relating to a layout of a region of an electronic document and an image document input by a user into region information, region information of the electronic document and the image document, Search for documents with a layout similar to the layout of the area of the document entered by the user by causing the information processing device to execute similarity calculation processing that compares the region information converted by the information conversion processing and calculates similarity To do.
  • the similarity calculation processing is performed by calculating a barycentric coordinate value representing the position of the region, an area representing the size of the region, and a shape of the region for each region type of the text region and the chart region.
  • the similarity is calculated by comparing the aspect ratio to be expressed.
  • a thirty-eighth aspect is that in the above aspect, the similarity calculation processing is performed by calculating the angle formed by the feature vector including the x-coordinate of the centroid, the y-coordinate of the centroid, the area, and the aspect ratio in the similarity calculation. Use cosine value.
  • a thirty-ninth aspect is the above-described aspect, wherein the keyword search process for searching for a document including the input keyword is executed by the information processing apparatus, and the similarity calculation process is performed only on the document searched by the keyword search process. The similarity is calculated, and a document including a keyword input by the user and having a layout similar to the layout of the document area input by the user is searched.
  • a document having a complicated and various layout such as a presentation document can be appropriately divided into a text area and a chart area.
  • the reason for this is that the objects that make up the document are extracted, the objects are classified into the objects that make up the text elements and the objects that make up the chart area, and the objects are separated from the shape of the blank area that exists between the classified objects. This is because a text area and a chart area are generated by determining whether or not to integrate the objects and integrating the objects.
  • an information extraction apparatus that extracts only a text area or only a chart area from an electronic document or a document image
  • an information processing apparatus that performs processing according to the extracted area with high accuracy and efficiency, and those Can be applied to applications such as a program for realizing the above on a computer.
  • an information retrieval device that retrieves a document from a database based on the layout of a text area or a chart area.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Library & Information Science (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Abstract

電子文書又は文書画像から抽出された、文書を構成するオブジェクトを、テキストを含むオブジェクトの面積ヒストグラムを少なくとも用いて、テキスト領域を構成するオブジェクトと図表領域を構成するオブジェクトとに分類するオブジェクト分類手段を有することを特徴とする情報処理システムである。

Description

情報処理システム、その方法及びプログラム
 本発明は情報処理システム、その方法及びプログラムに関し、特に、図表と文字などが混在した文書に対し、文字の領域と、図領域や表領域などの文字以外の領域(図表領域)とを識別分類して領域分割を行うことができる文書画像レイアウト分析の技術に関する。
 近年、プレゼンテーション作成ソフトウェアによりテキストと図表が混在した大量の電子文書が作成されている。また、スキャナなどの光学機器を用いて紙文書を文書画像としてコンピュータに取り組むことも盛んに行われている。これら電子文書や文書画像を処理する場合に、文書をテキスト領域と図表領域に切り分け、テキスト領域には自動要約などのテキスト領域用処理を、図表領域には色分布抽出や数値統計処理など図表領域用の処理を施したいことがある。また、文書を検索する場合に、以前に自分自身が作成した文書や他人が作成して一度は見たことがある文書について、キーワードによる検索ではなく、テキストや図表の配置など見た目のおおまかな記憶に基づいた検索を行いたいことがある。このため、電子文書や文書画像をテキスト領域と図表領域に切り分ける処理、すなわち電子文書や文書画像の領域分割が必要となっている。
 関連する文書画像レイアウト分析システムの一例が、特許文献1に記載されている。
 この関連する文書画像レイアウト分析システムは、基本行抽出手段と、行・段相互抽出手段とから構成されている。
 このような構成を有する関連する文書画像レイアウト分析システムはつぎのように動作する。
 すなわち、文書画像中の黒画素連結成分、あるいは文書画像中の黒画素の連結成分の外接矩形の重なり矩形というような、文書を構成する基礎要素の集合を入力とし、まず、基本行抽出手段が、基礎要素の近接性(文字成分同士が比較的密に配置されている)と同質性(文字成分の大きさがほぼ同じくらいである)に基づいて基礎要素を統合して行を生成し、次に、行・段相互抽出手段が、行の集合に対してもそれらの近接性と同質性に基づいて統合して段を生成する。
 また、別の関連する文書画像レイアウト分析システムの一例が、特許文献2に記載されている。
 この関連する文書画像レイアウト分析システムは、領域抽出部と、画像生成部と、特徴計算部と、距離計算部とから構成されている。
 このような構成を有する関連する文書画像レイアウト分析システムはつぎのように動作する。
 すなわち、領域抽出部が、文書画像を解析してテキスト領域と図表領域と背景領域を抽出し、画像生成部が、抽出された背景領域を背景指定色で、テキスト領域をテキスト指定色で、図表領域を図表指定色で塗りつぶした文書から画像を生成し、特徴計算部が、生成された画像に占める背景領域とテキスト領域と図表領域の各割合を示すレイアウト特徴と、テキスト領域に占めるひらがな及びカタカナの割合、漢字の割合、アルファベット及び数字の割合を示すテキスト特徴と、図表領域の色のR成分とG成分とB成分の割合を示す画像特徴を計算し、距離計算部が検索のクエリとなるレイアウトを持った文書画像と検索対象文書画像のレイアウト特徴の類似度である距離と、テキスト特徴の類似度である距離、画像特徴の類似度である距離を計算し、距離の小さい順に文書画像を出力する。
特開平11-219407号公報 (第6-9頁、図1、図9) 特開2006-318219号公報 (第4-5頁、図1)
 第1の問題点は、1つの文書内に様々な文字サイズで記述されている文書や、複雑なレイアウトを持つ文書には対応できないということである。その理由は、プレゼンテーション用の文書などのレイアウトは複雑かつ多様であり、テキストブロック同士が入り組んで配置されている場合や、テキストブロックと図が入り組んで配置されている場合などには、うまく行や段を抽出することができず、テキスト領域の過統合や過分割が生じるためである。
 第2の問題点は、テキスト領域と画像領域の配置に基づいた類似文書検索ができないということである。その理由は、文書画像に占めるテキスト領域と画像領域の割合を示す特徴量の距離計算によって類似文書検索を行うためである。
 そこで、本発明は上記課題に鑑みて発明されたものであって、その目的は、プレゼンテーション用の文書など、1つの文書内に様々な文字サイズで記述されている文書や、複雑なレイアウトを持つ文書に対しても、人間の見た目でひとかたまりのテキスト領域と図表領域に文書を領域分割できる情報処理システム、その方法及びプログラムを提供することにある。
 上記課題を解決する本発明は、電子文書又は文書画像から抽出された、文書を構成するオブジェクトを、テキストを含むオブジェクトの面積ヒストグラムを少なくとも用いて、テキスト領域を構成するオブジェクトと図表領域を構成するオブジェクトとに分類するオブジェクト分類手段を有することを特徴とする情報処理システムである。
 上記課題を解決する本発明は、電子文書又は文書画像から抽出された、文書を構成するオブジェクトを、テキストを含むオブジェクトの面積ヒストグラムを少なくとも用いて、テキスト領域を構成するオブジェクトと図表領域を構成するオブジェクトとに分類するオブジェクト分類処理を有することを特徴とする情報処理方法である。
 上記課題を解決する本発明は、電子文書又は文書画像から抽出された、文書を構成するオブジェクトを、テキストを含むオブジェクトの面積ヒストグラムを少なくとも用いて、テキスト領域を構成するオブジェクトと図表領域を構成するオブジェクトとに分類するオブジェクト分類処理を、情報処理装置に実行させることを特徴とするプログラムである。
 本発明によれば、プレゼンテーション用文書などの複雑かつ多様なレイアウトを持つ文書においても、適切にテキスト領域と図表領域に領域分割できることにある。
図1は第1の実施の形態の構成を示すブロック図である。 図2は第1の発明を実施の形態の動作を示す流れ図である。 図3は第1の実施の形態のオブジェクト分類手段の動作(図2のステップA2)の詳細を示す流れ図である。 図4はオブジェクトの面積ヒストグラムを用いたオブジェクト分類の一例を示す図である。 図5はオブジェクトの面積ヒストグラムを用いたオブジェクト分類の別の一例を示す図である。 図6は第1の実施の形態のテキスト領域生成手段および図表領域生成手段の動作(図2のステップA3)の詳細を示す流れ図である。 図7は互いに重なりを持つオブジェクトの統合処理の一例を示す図である。 図8は視覚印象距離を説明する為の図である。 図9は視覚印象距離を用いたオブジェクト統合処理の動作を示す図である。 図10は視覚印象距離を用いたオブジェクト統合処理の具体例を示す図である。 図11は視覚印象距離を説明する為の図である。 図12は視覚印象距離を説明する為の図である。 図13は領域情報の一例を示す図である。 図14は第2の実施の形態の構成を示すブロック図である。 図15は第2の実施の形態の動作を示す流れ図である。 図16は領域のレイアウトに関するクエリ入力画面の一例を示す図である。 図17はクエリとして入力された領域の視覚的印象距離を用いた統合処理の具体例を示す図である。 図18は領域類似度の計算式の一例を示す図である。 図19はクエリとして入力された領域と分割された文書の領域の対応付けを示す模式図である。 図20は領域類似度の平均値を用いた全体類似度の計算式の一例を示す図である。 図21は領域のレイアウトとキーワードの組み合わせによるクエリ入力画面の一例を示す図である。
符号の説明
 100  コンピュータ(中央処理装置;プロセッサ;データ処理装置)
 110  オブジェクト抽出手段
 120  オブジェクト分類手段
 130  テキスト領域生成手段
 140  図表領域生成手段
 150  領域情報生成手段
 160  領域情報格納手段
 170  領域情報変換手段
 180  類似度計算手段
 200  クエリ入力画面
 210  領域選択部
 220  レイアウト入力部
 230  検索ボタン
 240  (レイアウト)クリアボタン
 250  レイアウトクリアボタン
 260  キーワード入力部
 270  キーワードクリアボタン
<第1の実施の形態>
 本発明の実施の形態について図面を参照して詳細に説明する。
 図1を参照すると、本発明の第1の実施の形態における情報処理システム100は、オブジェクト抽出手段110と、オブジェクト分類手段120と、テキスト領域生成手段130と、図表領域生成手段140と、領域情報生成手段150とから構成される。
 これらの手段はそれぞれ概略つぎのように動作する。
 オブジェクト抽出手段110は、電子文書あるいは文書画像を解析して文書に含まれるオブジェクトを抽出する。ここで、オブジェクトとは、文字、行、複数の文字あるいは行から成るテキストブロック、図、表、グラフ、イメージなどを指す。文書画像からのオブジェクト抽出に関する関連技術としては、しきい値処理、ラベリング処理、エッジ処理などがあり、本発明でもこれら関連技術を用いて文書画像からのオブジェクト抽出を行う。また、プレゼンテーション作成ソフトウェアで作成された電子文書(例えば、Microsoft(登録商標)社のPowerPoint(登録商標))である場合には、そのデータファイルを解析してオブジェクトを抽出する。本実施の形態では、後者の場合として以下に説明する。
 オブジェクト分類手段120は、オブジェクト抽出手段110が抽出したオブジェクトを、テキストを含むオブジェクトの面積ヒストグラムに基づいて、テキスト領域を構成するオブジェクトと、図表領域を構成するオブジェクトとに分類する。
 テキスト領域生成手段130は、オブジェクト分類手段120によりテキスト領域を構成するオブジェクトとして分類されたオブジェクトの統合処理を、視覚印象距離に基づいて行い、複数のオブジェクトから構成されるテキスト領域を生成する。
 図表領域生成手段140は、オブジェクト分類手段120により図表領域を構成するオブジェクトとして分類されたオブジェクトの統合処理を視覚印象距離に基づいて行い、複数のオブジェクトから構成される図表領域を生成する。
 領域情報生成手段150は、テキスト領域生成手段130および図表領域生成手段140が生成した各領域を表す領域情報を生成する。
 次に、図1及び図2のフローチャートを参照して本実施の形態の全体の動作について詳細に説明する。
 入力装置(図示せず)から与えられた電子文書は、オブジェクト抽出手段110に供給される。
 オブジェクト抽出手段110は、プレゼンテーション作成ソフトウェアが用意している関数を利用するか、電子文書データファイルを解析するなどして、文書に含まれるテキストブロックや図、表、グラフ、イメージなどのオブジェクトを抽出する。このとき、同時に抽出した各オブジェクトについてx軸とy軸に平行な辺からなる最小外接矩形(Minimum Bounding Rectangle;MBR)を生成する(図2のステップA1)。
 次に、オブジェクト分類手段120は、オブジェクト抽出手段110が抽出したオブジェクトを、テキストを含むオブジェクトの面積ヒストグラムに基づいて、テキスト領域を構成するオブジェクトと図表領域を構成するオブジェクトに分類する(ステップA2)。
 このときのオブジェクトの分類方式について図3のフローチャートを用いて説明する。
 まず、テキストを含むオブジェクト(テキストブロック)とテキストを含まないオブジェクト(図、表、グラフ、イメージ)に分類する(ステップA2-1)。ここで、テキストを含まないオブジェクトは図表領域を構成するオブジェクトとして分類される。しかし、テキストブロックは図表領域を構成するオブジェクトである場合があるので、次にテキストブロックを、テキスト領域を構成するオブジェクトと図表領域を構成するオブジェクトとに分類する。これには、1ページ(つまり、プレゼンテーションのスライド1枚)ごとのオブジェクト面積のヒストグラムを生成する(ステップA2-2)。テキスト領域を構成するテキストブロックは、1つのブロック内である程度まとまりのある内容を自然文で記述するので、1つのスライドに含まれる個数は少なく、またブロック内の文字はサイズが大きく、文字数が多いという特徴がある。逆に、図表領域を構成するテキストブロックは、1つのブロック内には1単語や1文節を記述するので、1つのスライドに含まれる個数は多く、またブロック内の文字はサイズが小さく、文字数が少ないという特徴がある。
 故に、テキスト領域を構成するテキストブロックは面積が大きく、かつ出現頻度が少なく、図表領域を構成するテキストブロックは面積が小さく、かつ出現頻度が大きい。そこで、図4に示すように、各テキストブロックのMBRの面積を求めて面積ヒストグラムを生成し、最頻値の面積より大きい面積を持つオブジェクトをテキスト領域を構成するオブジェクトとし、最頻値の面積以下のオブジェクトを図表領域を構成するオブジェクトとして分類する(ステップA2-3)。ただし、初めにテキストを含むオブジェクトとテキストを含まないオブジェクトとに分類した結果、1つのスライドに含まれるオブジェクトが全てテキストを含むオブジェクトであった場合には、これら全てのオブジェクトをテキスト領域を構成するオブジェクトとして分類する。尚、上述の例では、最頻値の面積と等しいオブジェクトを図表領域を構成するオブジェクトとして分類したが、これに限ることなく、発明の趣旨を逸脱しない範囲で、最頻値の面積と等しいオブジェクトを、テキスト領域を構成するオブジェクトとして分類しても良い。
 以上、ステップA2-1からステップA2-3までの処理により、オブジェクトがテキスト領域を構成するオブジェクトと、図表領域を構成するオブジェクトに分類される(ステップA2-4、A2-5)。
 一般的には、テキスト領域を構成するテキストブロックの面積と、図表領域を構成するテキストブロックの面積には大きな差があるが、そのような差がない場合も考えられるので、面積ヒストグラムによるテキストブロックの分類において、図5に示すように最頻値の面積より大きく、かつ頻度が上昇した面積以上の面積を持つオブジェクトをテキスト領域を構成するオブジェクトとして分類するようにしてもよい。
 次に、オブジェクト分類手段120により、テキスト領域を構成するものと図表領域を構成するものの2種類に分類されたオブジェクトをそれぞれ統合処理してまとめあげてテキスト領域と図表領域を生成する(ステップA3)。
 プレゼンテーション文書などは、大小さまざまな文字サイズでテキストが記述されていたり、関連する内容を持つひとまとまりのテキスト群が異なるテキストブロックで記述されていたりすることも多い。また、図表領域を構成するオブジェクトの配置も複雑である。しかしながら、ある程度の可読性を保つために、
(1)テキスト領域を構成するテキストブロックは矩形を基本として配置される
(2)関連性の高いオブジェクトは見た目にひとかたまりになるように互いに近くに配置される
(3)それらひとかたまりのオブジェクト群がそれぞれ識別できるように間を空けて配置される
という特徴がある。
 これらの特徴を鑑みたオブジェクトの統合処理について図6のフローチャートを用いて説明する。
 まず、テキスト領域生成手段130は、テキスト領域を構成するオブジェクトとして分類された各オブジェクトのMBRについて重なりを持つオブジェクト同士を1つに統合し、新たなMBRを生成する(ステップA3-1)。
 この統合処理の例を図7に示す。図7では、文書上部の重なりを持つ2つのオブジェクトが1つに統合されている。次に、重なりを持たないオブジェクトでも視覚的に近い位置に存在するオブジェクトは互いに関係する内容を持つオブジェクトであると考えられるので、これら視覚的に近い距離にあるオブジェクトをさらに統合する必要がある。このため、本発明では人間の視覚的な印象を考慮したオブジェクト間の距離(以下、視覚印象距離と記載する)を計算する(ステップA3-2)。
 次に、1つのページに存在するオブジェクトについて、すべての2つのオブジェクトの組み合わせについて視覚印象距離を計算し、その値がしきい値以下のオブジェクト同士を統合することによりテキスト領域を生成する(ステップA3-3)。
 この視覚印象距離の計算とオブジェクト同士の統合について、図面を参照して説明する。
 視覚印象距離は、2つのオブジェクトのMBRの互いに向かい合う辺の距離が近いほど、また、それら2つの辺を辺に平行な軸に射影したときの重なりの長さが大きいほど、2つのオブジェクトは「近い」と計算される。
 図8では、オブジェクトAのMBRとオブジェクトBのMBRとの視覚印象距離D(A,B)の計算の一例を示している。図8において、2つのオブジェクトのMBRの互いに向かい合う2つの辺を辺に平行な軸に射影したときの重なりの長さ(=overlap(A,B))が一定の場合、2つのオブジェクトのMBRの互いに向かい合う辺の距離(=d(A,B))が近いほど、2つのオブジェクトの視覚印象距離は近くなる。また、2つのオブジェクトのMBRの互いに向かい合う辺の距離(=d(A,B))が等しい場合、2つのオブジェクトのMBRの互いに向かい合う2つの辺を辺に平行な軸に射影したときの重なりの長さ(=overlap(A,B))が大きいほど2つのオブジェクトの視覚印象距離は近くなる。
 従って、オブジェクトAとオブジェクトBとの視覚印象距離D(A,B)は、
D(A,B)=d(A,B)×1/overlap(A,B)
となる。
 この視覚印象距離を用いてオブジェクトの距離計算を行うが、2つのオブジェクトのMBRの互いに向かい合う辺を射影した場合には、x軸方向について重なりを持つ場合とy軸方向について重なりを持つ場合とが考えられるので、実際には、図9に示すように、x軸方向について重なりを持つオブジェクトの視覚印象距離を計算し、視覚印象距離が閾値以下(視覚印象距離が近い)のオブジェクトを統合する。同様に、y軸方向について重なりを持つオブジェクトの視覚印象距離を計算し、視覚印象距離が閾値以下(視覚印象距離が近い)のオブジェクトを統合する。そして、x軸方向、y軸方向に対して統合されたオブジェクトを最終的に統合する。
 視覚印象距離による統合処理の例を図10に示す。図10の例では、ステップA3-1で重なりがあるオブジェクトを統合した結果6個のMBRが生成されたものとする。これら6個のMBRについてx軸方向とy軸方向に分けて視覚印象距離を計算し、しきい値以下の距離にあるMBRを統合すると、x軸方向についてはMBR3とMBR5、MBR4とMBR5が統合され、y軸方向についてはMBR1とMBR2、MBR3とMBR4が統合されている。さらに、x軸方向とy軸方向それぞれの統合結果を重ね合わせることにより最終的にMBR1とMBR2、MBR3とMBR4とMBR5が統合されている。
 視覚印象距離によるMBRの統合の際のしきい値は、例えば、1つのスライドに含まれる任意の2つのMBRのすべての組み合わせの距離の平均値などを用いればよい。また、あらかじめ固定値を与えておいてもよい。
 以上の処理により、テキスト領域が生成される。
 次に、図表領域生成手段140は、テキスト領域生成手段130と同様に、図表領域を構成するオブジェクトとして分類された各オブジェクトのMBRについて図6のフローチャートに示した処理を行う。これにより、図表領域が生成される。
 なお、以上の説明では、テキスト領域生成手段130によりテキスト領域を生成した後で、図表領域生成手段140により図表領域を生成していたが、図表領域生成手段140で図表領域を生成した後で、テキスト領域生成手段130によりテキスト領域を生成するようにしてもよい。
 本実施の形態の視覚印象距離計算式によれば、オブジェクトの統合処理における距離計算において、オブジェクト間の絶対的な距離ではなく相対的な距離として計算可能であり、複数のオブジェクトを拡大/縮小した場合にも同じ値を算出することができる(図11参照)。このため、オブジェクトとその間に存在する空白領域の絶対的なサイズによらず、オブジェクトと空白領域の面積の比に応じて距離を算出し、遠近を判定することが可能である。
 また、視覚印象距離を図12に示すように定義してもよい。
 図12によれば、オブジェクトAのMBRのy軸方向の長さをA、オブジェクトBのMBRのy軸方向の長さをB、2つのオブジェクトのMBRの互いに向かい合う辺のy軸方向の距離をd(A,B)、オブジェクトAのMBRとオブジェクトBのMBRとの2つの辺を辺に平行なx軸に射影したときの長さをjoin(A,B)、オブジェクトAのMBRとオブジェクトBのMBRとの2つの辺を辺に平行なx軸に射影したときの重なりの長さをoverlap(A,B)とした場合、y軸方向の視覚印象距離D(A,B)は、
(A,B)=d(A,B)/(A+B)×1/overlap(A,B)/join(A,B)
 =(d(A,B)×join(A,B))/((A+B)×overlap(A,B))
となる。
 同様に、オブジェクトAのMBRのx軸方向の長さをA、オブジェクトBのMBRのx軸方向の長さをB、2つのオブジェクトのMBRの互いに向かい合う辺のx軸方向の距離をd(A,B)、オブジェクトAのMBRとオブジェクトBのMBRとの2つの辺を辺に平行なy軸に射影したときの長さをjoin(A,B)、オブジェクトAのMBRとオブジェクトBのMBRとの2つの辺を辺に平行なy軸に射影したときの重なりの長さをoverlap(A,B)とした場合、x軸方向の視覚印象距離D(A,B)は、
(A,B)=d(A,B)/(A+B)×1/overlap(A,B)/join(A,B)
 =(d(A,B)×join(A,B))/((A+B)×overlap(A,B))
となる。
 この場合は、距離に対するオブジェクトの面積が大きく、かつ重なる部分の割合が大きな2つのオブジェクトほど、より距離が近いものとして算出される。
 最後に、領域情報生成手段150は、テキスト領域生成手段130および図表領域生成手段140により生成されたテキスト領域および図表領域から、それらの領域を表す領域情報を生成する(ステップA4)。図13に領域情報の例を示す。この例では、領域情報は、文書ID、スライドID、および各領域のMBR座標、領域種別、重心座標、面積、縦横比からなる。
 本実施の形態では、電子文書や文書画像の領域分割において、文書の構成要素となるオブジェクトをテキスト領域と図表領域を構成するオブジェクトに分類し、オブジェクトを統合するように構成されているため、文書をテキスト領域と図表領域に適切に分割できる。そのため、文書からのテキスト領域のみ、あるいは図表領域のみの抽出や、さらに、例えば、テキスト領域のみに対して文字認識処理を行うなど、領域に応じた処理を精度良く効率的に行うことができる。
<第2の実施の形態>
 本発明の第2の発明を実施するための最良の形態について図面を参照して詳細に説明する。
 第2の実施の形態は、テキスト領域と画像領域の配置に基づいて類似文書を検索できる情報処理システム、その方法及びプログラムを提供する。
 図14を参照すると、本発明の第2の発明を実施するための最良の形態は、プログラム制御により動作する
 情報処理システム100は、オブジェクト抽出手段110と、オブジェクト分類手段120と、テキスト領域生成手段130と、図表領域生成手段140と、領域情報生成手段150と、領域情報格納手段160と、領域情報変換手段170、類似度計算手段180とを含む。
 ここで、オブジェクト抽出手段110と、オブジェクト分類手段120と、テキスト領域生成手段130と、図表領域生成手段140と、領域情報生成手段150は、図1に示した第1の実施の形態の構成と同様であるので説明を省略する。
 領域情報格納手段160は、領域情報生成手段150により出力される電子文書及び文書画像の領域情報を格納する。
 領域情報変換手段170は、文書のテキスト領域や図表領域の位置や大きさに関する検索クエリを領域情報に変換する。ここで、クエリとは、文書検索のために、ユーザが入力した事項である。
 類似度計算手段180は、領域情報格納手段160が格納している領域情報と、領域情報変換手段170が出力する領域情報を比較・照合し、類似度を計算して類似文書の検索を行う。
 次に、図14及び図15のフローチャートを参照して本実施の形態の全体の動作について詳細に説明する。
 まず、図2に示したフローチャートに従って、あらかじめ電子文書および文書画像を領域分割し、その領域情報を領域情報格納手段160に格納しておく。
 次に、ユーザがコンピュータ100に接続されたキーボードやマウスなどの入力手段(図示せず)を用いて、文書のレイアウトとしてテキスト領域および図表領域の位置や大きさを入力する(ステップB1)。図16は、ある文書に含まれるスライドのレイアウトのクエリ入力画面200の一例である。ユーザは、コンピュータ100に接続されたディスプレイなどの出力手段(図示せず)に表示される画面を通じて、キーボードやマウスなどの入力手段を用いてスライドのレイアウトを入力する。
 ユーザは、まず、領域選択部210でテキスト領域あるいは図表領域のいずれかを選択する。次に、レイアウト入力部220において、マウスドラッグなどにより矩形を指定すると、領域選択部210で選択された領域種別に応じた矩形領域が描画される。また、描画された矩形をマウスなどで選択し、矩形の位置を移動させたり、形状を変化させたり、大きさを拡大/縮小するようにしてもよい。図16の例では、スライド上部にテキスト領域、スライド下部に図表領域が指定されている。最後に、検索ボタン230が押下されると、レイアウト入力部220で指定したレイアウトに基づいた文書検索が開始される。クリアボタン240を押下すると、レイアウト入力部220に描画された矩形が消去され、レイアウト入力のやり直しを行うことができる。
 上記検索ボタン230が押下されると、まず、領域情報変換手段170が、レイアウト入力部220で指定されたテキスト領域や図表領域の位置や大きさに関する検索クエリを、領域情報生成手段150が生成して領域情報格納手段160に格納されているのと同様の領域情報に変換する(ステップB2)。このとき、ステップB1でユーザが指定した領域に、同一の領域種別である複数の領域が指定されている場合には、図6のフローチャートのステップA3-2およびA3-3で示した視覚的矩形距離を用いた領域統合処理を行った後に領域情報に変換する。例えば、図17に示した例では、2個のテキスト領域と2個の図表領域が、視覚的矩形距離を用いた領域統合処理の結果、それぞれ1個のテキスト領域と1個の図表領域に統合されている。また、この視覚的矩形距離を用いた領域統合処理を行うか否かをユーザが選択できるようにしてもよい。
 次に、類似度計算手段180は、領域情報変換手段170によりユーザが入力したレイアウトに関するクエリから変換された領域情報と、領域情報格納手段160に格納されている文書ごとの領域情報を比較することにより、ユーザが入力した領域のレイアウトと、分割された文書の領域のレイアウトとの類似度を計算する(ステップB3)。
 類似度は、例えば、個々の対応する領域の類似度である領域類似度の平均値を用いる。領域類似度の計算式としては、例えば、同じ領域種別(テキスト領域か座標領域)を持つ領域について、領域情報から得られる特徴ベクトルのなす角θによるコサイン尺度を用いる。いま、図13に示した領域情報から、特徴ベクトルを重心のx座標v1、重心のy座標v2、面積v3、縦横比v4の4次元ベクトルで表すとき、ユーザが入力したクエリから変換された領域の特徴ベクトQと領域情報格納手段160に格納されている領域の特徴ベクトルRiのコサイン尺度を用いた類似度sim(Q,Ri)は、図18のように求めることができる。
 類似度計算手段180は、クエリから変換された領域情報に含まれる各領域に対して、文書ごとの領域情報に含まれる領域とのすべての組み合わせについて領域類似度を計算し、図19に示す如く、最大の類似度を持つ領域をクエリから変換された領域に対応する領域として対応付け、その値をそれら2つの領域の間の領域類似度とする。最後に、図20に示す如く、対応付けられた各領域の類似度の平均値を求め、ユーザが入力した領域レイアウトと文書の領域レイアウトの類似度とする。尚、図20に示される例の類似度は、
類似度=((テキスト領域1とテキスト領域aとの類似度)+(図表領域2と図表領域bとの類似度)+(図表領域3と図表領域cとの類似度))/3
となる。
 最後に、類似度計算手段180は、ステップB3により、ユーザの入力した領域レイアウトに類似する領域を持つスライドを同定し、類似度の高い順にソートしてユーザに提示する(ステップB4)。
 また、文書のレイアウトをクエリとして入力することに加えて、従来のキーワード検索におけるキーワードを同時に指定するようにしてもよい。
 図21は、文書のレイアウトとキーワードを検索クエリとして指定するクエリ入力画面200の一例である。ユーザは、上記と同様にしてレイアウト入力を行い、さらに、キーワード入力部260で、スライドに含まれるキーワードを指定する。検索ボタン230が押下されると、レイアウト入力部220で指定したレイアウトと、キーワード入力部260で指定したキーワードに基づいた文書検索が開始される。このとき、キーワード検索に関しては関連技術を利用し、指定したキーワードが含まれるスライドが検索できるものとする。レイアウトとキーワードを組み合わせた検索処理は、キーワード検索により検索されたスライドについてのみ、上記説明したレイアウトの類似度を計算するように動作する。これによって、指定されたキーワードを含むスライドのみについて、指定したレイアウトに類似するスライドを検索することが可能となる。また、レイアウトクリアボタン250およびキーワードクリアボタン260を押下すると、それぞれレイアウト入力部220に描画された矩形およびキーワード入力部260に入力されたキーワードが消去され、領域レイアウトおよびキーワード入力のやり直しを行うことができる。
 また、ユーザが領域のレイアウトを入力する場合に、ユーザの記憶についての自信に応じて、テキスト領域と図表領域のどちらを重視するか、あるいは入力したどの領域を重視するかについてユーザ自身が重み付けを行えるようにしてもよい。
 本発明の実施の形態では、あらかじめ電子文書や文書画像を領域分割して生成した領域情報と、ユーザが入力した領域のレイアウトに関するクエリから生成した領域情報を比較・照合し、類似したレイアウトを持つ文書を検索するというように構成されているため、文書に含まれるキーワードを正確に覚えていない場合にもテキスト領域と図表領域の配置に基づいて文書を検索できる。すなわち、テキスト領域と画像領域の配置に基づいて類似文書を検索できることにある。
 また、本発明の形態では、さらに、領域のレイアウトと同時に、文書に含まれるキーワードを指定するというように構成されているため、テキスト領域と図表領域の配置とキーワードを組み合わせに基づいて文書を検索できる。
 尚、上述した第1の実施の形態及び第2の実施の形態では、各構成部をハードウエアで構成したが、CPUやメモリで構成されるコンピュータでも実現可能である。
 以上の如く、第1の態様は、電子文書又は文書画像から抽出された、文書を構成するオブジェクトを、テキストを含むオブジェクトの面積ヒストグラムを少なくとも用いて、テキスト領域を構成するオブジェクトと図表領域を構成するオブジェクトとに分類するオブジェクト分類手段を有する情報処理システムである。
 第2の態様は、上記態様において、前記オブジェクト分類手段は、テキストを含むオブジェクトの面積ヒストグラムを計算し、最頻値となる面積との比較に応じて、前記テキストを含むオブジェクトを、テキスト領域を構成するオブジェクトと図表領域を構成するオブジェクトとに分類する。
 第3の態様は、上記態様において、前記オブジェクト分類手段は、テキストを含むオブジェクトの面積ヒストグラムを計算し、最頻値となる面積よりも大きな面積を持つオブジェクトを、テキスト領域を構成するオブジェクトに分類し、最頻値よりも小さい面積を持つオブジェクトとテキストを含まないオブジェクトとを図表領域を構成するオブジェクトに分類するように構成されている。
 第4の態様は、上記態様において、前記オブジェクト分類手段は、テキストを含むオブジェクトの面積ヒストグラムを計算し、最頻値となる面積より大きく、かつ頻度が再上昇した面積より大きい面積を持つオブジェクトをテキスト領域を構成するオブジェクトとして分類し、前記テキストを含むオブジェクトでテキスト領域を構成するオブジェクトとして分類されなかったオブジェクトとテキストを含まないオブジェクトとを図表領域を構成するオブジェクトとして分類するように構成されている。
 第5の態様は、上記態様において、電子文書又は文書画像から文書を構成するオブジェクトを抽出するオブジェクト抽出手段を有する。
 第6の態様は、上記態様において、人間の視覚的な印象を考慮したオブジェクト間の距離である視覚印象距離に基づいて、テキスト領域を構成するオブジェクトを統合し、テキスト領域を生成するテキスト領域生成手段と、前記視覚印象距離に基づいて、図表領域を構成するオブジェクトを統合し、図表領域を生成する図表領域生成手段と、テキスト領域と図表領域を表す情報を生成して出力する領域情報生成手段とを有する。
 第7の態様は、上記態様において、前記テキスト領域生成手段、又は、前記図表領域生成手段は、領域を構成するオブジェクトのx軸とy軸に平行な辺からなる最小外接矩形が互いに重なりを持つ、または、最小外接矩形が互いに重なりを持たない場合には2つのオブジェクトをx軸あるいはy軸に射影したとき重なりを持つオブジェクトについてそれぞれの最小外接矩形の互いに向かい合う辺の距離をD1とし、互いに向かい合う辺をそれらと平行な軸に射影したときの重なる部分の長さをD2としたとき、視覚印象距離としてD1/D2を計算し、視覚印象距離D1/D2の値としきい値との比較に応じてそれら2つのオブジェクトを統合するか否かを判定し、統合する場合には前記2つのオブジェクトを統合する処理をx軸方向とy軸方向それぞれについて行うことによりオブジェクトを統合して領域を生成するように構成されている。
 第8の態様は、上記態様において、前記テキスト領域生成手段、又は、前記図表領域生成手段は、領域を構成するオブジェクトのx軸とy軸に平行な辺からなる最小外接矩形が互いに重なりを持つ、あるいは最小外接矩形が互いに重なりを持たない場合には2つのオブジェクトをx軸あるいはy軸に射影したとき重なりを持つオブジェクトについてそれぞれの最小外接矩形の互いに向かい合う辺の距離をD1とし、互いに向かい合う辺をそれらと平行な軸に射影したときの重なる部分の長さをD2とし、2つのオブジェクトの互いに向かい合う辺に垂直な辺の長さの和をD3とし、互いに向かい合う辺をそれらと平行な軸に射影したときの全体の長さをD4としたとき、(D1×D4)/(D2×D3)の値としきい値との比較に応じてそれら2つのオブジェクトを統合するか否かを判定し、統合する場合には前記2つのオブジェクトを統合する処理をx軸方向とy軸方向それぞれについて行うことによりオブジェクトを統合して領域を生成するように構成されている。
 第9の態様は、上記態様において、前記テキスト領域生成手段、又は、前記図表領域生成手段は、1つのスライドに含まれる任意の2つのオブジェクトの最小外接矩形のすべての組み合わせについて視覚印象距離を計算し、その平均値を前記しきい値とするように構成されている。
 第10の態様は、上記態様において、電子文書および画像文書の領域情報を格納する領域情報格納手段と、ユーザが入力する、電子文書および画像文書の領域のレイアウトに関するクエリを領域情報に変換する領域情報変換手段と、前記領域情報格納手段に格納された領域情報と、前記領域情報変換手段により変換された領域情報とを比較して類似度を計算する類似度計算手段とをさらに有し、ユーザが入力した文書の領域のレイアウトに類似したレイアウトを持つ文書を検索する。
 第11の態様は、上記態様において、前記類似度計算手段は、テキスト領域および図表領域の領域種類別に、領域の位置を表す重心座標値と、領域の大きさを表す面積と、領域の形状を表す縦横比とを比較することにより、類似度を計算するように構成されている。
 第12の態様は、上記態様において、前記類似度計算手段は、類似度の計算において、2つの領域についての重心のx座標、重心のy座標、面積、縦横比からなる特徴ベクトルのなす角のコサイン値を用いる。
 第13の態様は、上記態様において、入力したキーワードを含む文書を検索するキーワード検索手段をさらに有し、前記類似度計算手段は、前記キーワード検索手段により検索された文書に対してのみ類似度を計算し、ユーザが入力したキーワードを含み、かつユーザが入力した文書の領域のレイアウトに類似したレイアウトを持つ文書を検索する。
 第14の態様は、電子文書又は文書画像から抽出された、文書を構成するオブジェクトを、テキストを含むオブジェクトの面積ヒストグラムを少なくとも用いて、テキスト領域を構成するオブジェクトと図表領域を構成するオブジェクトとに分類するオブジェクト分類処理を有する情報処理方法である。
 第15の態様は、上記態様において、前記オブジェクト分類処理は、テキストを含むオブジェクトの面積ヒストグラムを計算し、最頻値となる面積との比較に応じて、前記テキストを含むオブジェクトを、テキスト領域を構成するオブジェクトと図表領域を構成するオブジェクトとに分類する。
 第16の態様は、上記態様において、前記オブジェクト分類処理は、テキストを含むオブジェクトの面積ヒストグラムを計算し、最頻値となる面積よりも大きな面積を持つオブジェクトを、テキスト領域を構成するオブジェクトに分類し、最頻値よりも小さい面積を持つオブジェクトとテキストを含まないオブジェクトとを図表領域を構成するオブジェクトに分類する。
 第17の態様は、上記態様において、前記オブジェクト分類処理は、テキストを含むオブジェクトの面積ヒストグラムを計算し、最頻値となる面積より大きく、かつ頻度が再上昇した面積より大きい面積を持つオブジェクトをテキスト領域を構成するオブジェクトとして分類し、前記テキストを含むオブジェクトでテキスト領域を構成するオブジェクトとして分類されなかったオブジェクトとテキストを含まないオブジェクトとを図表領域を構成するオブジェクトとして分類する。
 第18の態様は、上記態様において、電子文書又は文書画像から文書を構成するオブジェクトを抽出するオブジェクト抽出処理を有する。
 第19の態様は、上記態様において、人間の視覚的な印象を考慮したオブジェクト間の距離である視覚印象距離に基づいて、テキスト領域を構成するオブジェクトを統合し、テキスト領域を生成するテキスト領域生成処理と、前記視覚印象距離に基づいて、図表領域を構成するオブジェクトを統合し、図表領域を生成する図表領域生成処理と、テキスト領域と図表領域を表す情報を生成して出力する領域情報生成処理とを有する。
 第20の態様は、上記態様において、前記テキスト領域生成処理、又は、前記図表領域生成処理は、領域を構成するオブジェクトのx軸とy軸に平行な辺からなる最小外接矩形が互いに重なりを持つ、または、最小外接矩形が互いに重なりを持たない場合には2つのオブジェクトをx軸あるいはy軸に射影したとき重なりを持つオブジェクトについてそれぞれの最小外接矩形の互いに向かい合う辺の距離をD1とし、互いに向かい合う辺をそれらと平行な軸に射影したときの重なる部分の長さをD2としたとき、視覚印象距離としてD1/D2を計算し、視覚印象距離D1/D2の値としきい値との比較に応じてそれら2つのオブジェクトを統合するか否かを判定し、統合する場合には前記2つのオブジェクトを統合する処理をx軸方向とy軸方向それぞれについて行うことによりオブジェクトを統合して領域を生成する。
 第21の態様は、上記態様において、前記テキスト領域生成処理、又は、前記図表領域生成処理は、領域を構成するオブジェクトのx軸とy軸に平行な辺からなる最小外接矩形が互いに重なりを持つ、あるいは最小外接矩形が互いに重なりを持たない場合には2つのオブジェクトをx軸あるいはy軸に射影したとき重なりを持つオブジェクトについてそれぞれの最小外接矩形の互いに向かい合う辺の距離をD1とし、互いに向かい合う辺をそれらと平行な軸に射影したときの重なる部分の長さをD2とし、2つのオブジェクトの互いに向かい合う辺に垂直な辺の長さの和をD3とし、互いに向かい合う辺をそれらと平行な軸に射影したときの全体の長さをD4としたとき、(D1×D4)/(D2×D3)の値としきい値との比較に応じてそれら2つのオブジェクトを統合するか否かを判定し、統合する場合には前記2つのオブジェクトを統合する処理をx軸方向とy軸方向それぞれについて行うことによりオブジェクトを統合して領域を生成する。
 第22の態様は、上記態様において、前記テキスト領域生成処理、又は、前記図表領域生成処理は、1つのスライドに含まれる任意の2つのオブジェクトの最小外接矩形のすべての組み合わせについて視覚印象距離を計算し、その平均値を前記しきい値とする。
 第23の態様は、上記態様において、ユーザが入力する、電子文書および画像文書の領域のレイアウトに関するクエリを領域情報に変換する領域情報変換処理と、電子文書および画像文書の領域情報と、前記領域情報変換処理により変換された領域情報とを比較して類似度を計算する類似度計算処理とをさらに有し、ユーザが入力した文書の領域のレイアウトに類似したレイアウトを持つ文書を検索する。
 第24の態様は、上記態様において、前記類似度計算処理は、テキスト領域および図表領域の領域種類別に、領域の位置を表す重心座標値と、領域の大きさを表す面積と、領域の形状を表す縦横比とを比較することにより、類似度を計算する。
 第25の態様は、上記態様において、前記類似度計算処理は、類似度の計算において、2つの領域についての重心のx座標、重心のy座標、面積、縦横比からなる特徴ベクトルのなす角のコサイン値を用いる。
 第26の態様は、上記態様において、入力したキーワードを含む文書を検索するキーワード検索処理をさらに有し、前記類似度計算処理は、前記キーワード検索処理により検索された文書に対してのみ類似度を計算し、ユーザが入力したキーワードを含み、かつユーザが入力した文書の領域のレイアウトに類似したレイアウトを持つ文書を検索する。
 第27の態様は、電子文書又は文書画像から抽出された、文書を構成するオブジェクトを、テキストを含むオブジェクトの面積ヒストグラムを少なくとも用いて、テキスト領域を構成するオブジェクトと図表領域を構成するオブジェクトとに分類するオブジェクト分類処理を、情報処理装置に実行させるプログラムである。
 第28の態様は、上記態様において、前記オブジェクト分類処理は、テキストを含むオブジェクトの面積ヒストグラムを計算し、最頻値となる面積との比較に応じて、前記テキストを含むオブジェクトを、テキスト領域を構成するオブジェクトと図表領域を構成するオブジェクトとに分類する。
 第29の態様は、上記態様において、前記オブジェクト分類処理は、テキストを含むオブジェクトの面積ヒストグラムを計算し、最頻値となる面積よりも大きな面積を持つオブジェクトを、テキスト領域を構成するオブジェクトに分類し、最頻値よりも小さい面積を持つオブジェクトとテキストを含まないオブジェクトとを図表領域を構成するオブジェクトに分類する。
 第30の態様は、上記態様において、前記オブジェクト分類処理は、テキストを含むオブジェクトの面積ヒストグラムを計算し、最頻値となる面積より大きく、かつ頻度が再上昇した面積より大きい面積を持つオブジェクトをテキスト領域を構成するオブジェクトとして分類し、前記テキストを含むオブジェクトでテキスト領域を構成するオブジェクトとして分類されなかったオブジェクトとテキストを含まないオブジェクトとを図表領域を構成するオブジェクトとして分類する。
 第31の態様は、上記態様において、電子文書又は文書画像から文書を構成するオブジェクトを抽出するオブジェクト抽出処理を、情報処理装置に実行させる。
 第32の態様は、上記態様において、人間の視覚的な印象を考慮したオブジェクト間の距離である視覚印象距離に基づいて、テキスト領域を構成するオブジェクトを統合し、テキスト領域を生成するテキスト領域生成処理と、前記視覚印象距離に基づいて、図表領域を構成するオブジェクトを統合し、図表領域を生成する図表領域生成処理と、テキスト領域と図表領域を表す情報を生成して出力する領域情報生成処理とを有する。
 第33の態様は、上記態様において、前記テキスト領域生成処理、又は、前記図表領域生成処理は、領域を構成するオブジェクトのx軸とy軸に平行な辺からなる最小外接矩形が互いに重なりを持つ、または、最小外接矩形が互いに重なりを持たない場合には2つのオブジェクトをx軸あるいはy軸に射影したとき重なりを持つオブジェクトについてそれぞれの最小外接矩形の互いに向かい合う辺の距離をD1とし、互いに向かい合う辺をそれらと平行な軸に射影したときの重なる部分の長さをD2としたとき、視覚印象距離としてD1/D2を計算し、視覚印象距離D1/D2の値としきい値との比較に応じてそれら2つのオブジェクトを統合するか否かを判定し、統合する場合には前記2つのオブジェクトを統合する処理をx軸方向とy軸方向それぞれについて行うことによりオブジェクトを統合して領域を生成する。
 第34の態様は、上記態様において、前記テキスト領域生成処理、又は、前記図表領域生成処理は、領域を構成するオブジェクトのx軸とy軸に平行な辺からなる最小外接矩形が互いに重なりを持つ、あるいは最小外接矩形が互いに重なりを持たない場合には2つのオブジェクトをx軸あるいはy軸に射影したとき重なりを持つオブジェクトについてそれぞれの最小外接矩形の互いに向かい合う辺の距離をD1とし、互いに向かい合う辺をそれらと平行な軸に射影したときの重なる部分の長さをD2とし、2つのオブジェクトの互いに向かい合う辺に垂直な辺の長さの和をD3とし、互いに向かい合う辺をそれらと平行な軸に射影したときの全体の長さをD4としたとき、(D1×D4)/(D2×D3)の値としきい値との比較に応じてそれら2つのオブジェクトを統合するか否かを判定し、統合する場合には前記2つのオブジェクトを統合する処理をx軸方向とy軸方向それぞれについて行うことによりオブジェクトを統合して領域を生成する。
 第35の態様は、上記態様において、前記テキスト領域生成処理、又は、前記図表領域生成処理は、1つのスライドに含まれる任意の2つのオブジェクトの最小外接矩形のすべての組み合わせについて視覚印象距離を計算し、その平均値を前記しきい値とする。
 第36の態様は、上記態様において、ユーザが入力する、電子文書および画像文書の領域のレイアウトに関するクエリを領域情報に変換する領域情報変換処理と、電子文書および画像文書の領域情報と、前記領域情報変換処理により変換された領域情報とを比較して類似度を計算する類似度計算処理とを情報処理装置に実行させ、ユーザが入力した文書の領域のレイアウトに類似したレイアウトを持つ文書を検索する。
 第37の態様は、上記態様において、前記類似度計算処理は、テキスト領域および図表領域の領域種類別に、領域の位置を表す重心座標値と、領域の大きさを表す面積と、領域の形状を表す縦横比とを比較することにより、類似度を計算する。
 第38の態様は、上記態様において、前記類似度計算処理は、類似度の計算において、2つの領域についての重心のx座標、重心のy座標、面積、縦横比からなる特徴ベクトルのなす角のコサイン値を用いる。
 第39の態様は、上記態様において、入力したキーワードを含む文書を検索するキーワード検索処理を情報処理装置に実行させ、前記類似度計算処理は、前記キーワード検索処理により検索された文書に対してのみ類似度を計算し、ユーザが入力したキーワードを含み、かつユーザが入力した文書の領域のレイアウトに類似したレイアウトを持つ文書を検索する。
 以上の如く、本発明によれば、プレゼンテーション用文書などの複雑かつ多様なレイアウトを持つ文書においても、適切にテキスト領域と図表領域に領域分割できることにある。
 その理由は、文書の構成要素となるオブジェクトを抽出し、それらオブジェクトをテキスト要素構成するオブジェクトと図表領域を構成するオブジェクトに分類し、さらに分類されたオブジェクト間に存在する空白領域の形状からオブジェクトを統合するか否かを判断してオブジェクトを統合することにより、テキスト領域と図表領域を生成するためである。
 以上好ましい実施の形態及び態様をあげて本発明を説明したが、本発明は必ずしも上記実施の形態及び態様に限定されるものではなく、その技術的思想の範囲内において様々に変形し実施することが出来る。
 本出願は、2007年12月21日に出願された日本出願特願2007-329475号を基礎とする優先権を主張し、その開示の全てをここに取り込む。
 本発明によれば、電子文書あるいは文書画像から、テキスト領域のみ、あるいは図表領域のみを抽出する情報抽出装置や、さらに抽出した領域に応じた処理を精度良く効率的に行う情報処理装置、またそれらをコンピュータに実現するためのプログラムといった用途に適用できる。
 また、データベースからテキスト領域や図表領域のレイアウトに基づいて文書を検索する情報検索装置といった用途にも適用可能である。

Claims (39)

  1.  電子文書又は文書画像から抽出された、文書を構成するオブジェクトを、テキストを含むオブジェクトの面積ヒストグラムを少なくとも用いて、テキスト領域を構成するオブジェクトと図表領域を構成するオブジェクトとに分類するオブジェクト分類手段を有する情報処理システム。
  2.  前記オブジェクト分類手段は、テキストを含むオブジェクトの面積ヒストグラムを計算し、最頻値となる面積との比較に応じて、前記テキストを含むオブジェクトを、テキスト領域を構成するオブジェクトと図表領域を構成するオブジェクトとに分類する、請求項1に記載の情報処理システム。
  3.  前記オブジェクト分類手段は、テキストを含むオブジェクトの面積ヒストグラムを計算し、最頻値となる面積よりも大きな面積を持つオブジェクトを、テキスト領域を構成するオブジェクトに分類し、最頻値よりも小さい面積を持つオブジェクトとテキストを含まないオブジェクトとを図表領域を構成するオブジェクトに分類するように構成されている、請求項1又は請求項2に記載の情報処理システム。
  4.  前記オブジェクト分類手段は、テキストを含むオブジェクトの面積ヒストグラムを計算し、最頻値となる面積より大きく、かつ頻度が再上昇した面積より大きい面積を持つオブジェクトをテキスト領域を構成するオブジェクトとして分類し、前記テキストを含むオブジェクトでテキスト領域を構成するオブジェクトとして分類されなかったオブジェクトとテキストを含まないオブジェクトとを図表領域を構成するオブジェクトとして分類するように構成されている、請求項1又は請求項2に記載の情報処理システム。
  5.  電子文書又は文書画像から文書を構成するオブジェクトを抽出するオブジェクト抽出手段を有する請求項1から請求項4のいずれかに記載の情報処理システム。
  6.  人間の視覚的な印象を考慮したオブジェクト間の距離である視覚印象距離に基づいて、テキスト領域を構成するオブジェクトを統合し、テキスト領域を生成するテキスト領域生成手段と、
     前記視覚印象距離に基づいて、図表領域を構成するオブジェクトを統合し、図表領域を生成する図表領域生成手段と、
     テキスト領域と図表領域を表す情報を生成して出力する領域情報生成手段と
    を有する請求項1から請求項5のいずれかに記載の情報処理システム。
  7.  前記テキスト領域生成手段、又は、前記図表領域生成手段は、
     領域を構成するオブジェクトのx軸とy軸に平行な辺からなる最小外接矩形が互いに重なりを持つ、または、最小外接矩形が互いに重なりを持たない場合には2つのオブジェクトをx軸あるいはy軸に射影したとき重なりを持つオブジェクトについてそれぞれの最小外接矩形の互いに向かい合う辺の距離をD1とし、互いに向かい合う辺をそれらと平行な軸に射影したときの重なる部分の長さをD2としたとき、視覚印象距離としてD1/D2を計算し、視覚印象距離D1/D2の値としきい値との比較に応じてそれら2つのオブジェクトを統合するか否かを判定し、統合する場合には前記2つのオブジェクトを統合する処理をx軸方向とy軸方向それぞれについて行うことによりオブジェクトを統合して領域を生成するように構成されている請求項6に記載の情報処理システム。
  8.  前記テキスト領域生成手段、又は、前記図表領域生成手段は、
     領域を構成するオブジェクトのx軸とy軸に平行な辺からなる最小外接矩形が互いに重なりを持つ、あるいは最小外接矩形が互いに重なりを持たない場合には2つのオブジェクトをx軸あるいはy軸に射影したとき重なりを持つオブジェクトについてそれぞれの最小外接矩形の互いに向かい合う辺の距離をD1とし、互いに向かい合う辺をそれらと平行な軸に射影したときの重なる部分の長さをD2とし、2つのオブジェクトの互いに向かい合う辺に垂直な辺の長さの和をD3とし、互いに向かい合う辺をそれらと平行な軸に射影したときの全体の長さをD4としたとき、(D1×D4)/(D2×D3)の値としきい値との比較に応じてそれら2つのオブジェクトを統合するか否かを判定し、統合する場合には前記2つのオブジェクトを統合する処理をx軸方向とy軸方向それぞれについて行うことによりオブジェクトを統合して領域を生成するように構成されている、請求項6に記載の情報処理システム。
  9.  前記テキスト領域生成手段、又は、前記図表領域生成手段は、
     1つのスライドに含まれる任意の2つのオブジェクトの最小外接矩形のすべての組み合わせについて視覚印象距離を計算し、その平均値を前記しきい値とするように構成されている、請求項6から請求項8のいずれかに記載の情報処理システム。
  10.  電子文書および画像文書の領域情報を格納する領域情報格納手段と、
     ユーザが入力する、電子文書および画像文書の領域のレイアウトに関するクエリを領域情報に変換する領域情報変換手段と、
     前記領域情報格納手段に格納された領域情報と、前記領域情報変換手段により変換された領域情報とを比較して類似度を計算する類似度計算手段とをさらに有し、
     ユーザが入力した文書の領域のレイアウトに類似したレイアウトを持つ文書を検索する、
    請求項1から請求項9に記載の情報処理システム。
  11.  前記類似度計算手段は、テキスト領域および図表領域の領域種類別に、領域の位置を表す重心座標値と、領域の大きさを表す面積と、領域の形状を表す縦横比とを比較することにより、類似度を計算するように構成されている、請求項10に記載の情報処理システム。
  12.  前記類似度計算手段は、類似度の計算において、2つの領域についての重心のx座標、重心のy座標、面積、縦横比からなる特徴ベクトルのなす角のコサイン値を用いる、請求項11に記載の情報処理システム。
  13.  入力したキーワードを含む文書を検索するキーワード検索手段をさらに有し、
     前記類似度計算手段は、前記キーワード検索手段により検索された文書に対してのみ類似度を計算し、
     ユーザが入力したキーワードを含み、かつユーザが入力した文書の領域のレイアウトに類似したレイアウトを持つ文書を検索する、
    請求項10から請求項12のいずれかに記載の情報処理システム。
  14.  電子文書又は文書画像から抽出された、文書を構成するオブジェクトを、テキストを含むオブジェクトの面積ヒストグラムを少なくとも用いて、テキスト領域を構成するオブジェクトと図表領域を構成するオブジェクトとに分類するオブジェクト分類処理を有する情報処理方法。
  15.  前記オブジェクト分類処理は、テキストを含むオブジェクトの面積ヒストグラムを計算し、最頻値となる面積との比較に応じて、前記テキストを含むオブジェクトを、テキスト領域を構成するオブジェクトと図表領域を構成するオブジェクトとに分類する、請求項14に記載の情報処理方法。
  16.  前記オブジェクト分類処理は、テキストを含むオブジェクトの面積ヒストグラムを計算し、最頻値となる面積よりも大きな面積を持つオブジェクトを、テキスト領域を構成するオブジェクトに分類し、最頻値よりも小さい面積を持つオブジェクトとテキストを含まないオブジェクトとを図表領域を構成するオブジェクトに分類する、請求項14又は請求項15に記載の情報処理方法。
  17.  前記オブジェクト分類処理は、テキストを含むオブジェクトの面積ヒストグラムを計算し、最頻値となる面積より大きく、かつ頻度が再上昇した面積より大きい面積を持つオブジェクトをテキスト領域を構成するオブジェクトとして分類し、前記テキストを含むオブジェクトでテキスト領域を構成するオブジェクトとして分類されなかったオブジェクトとテキストを含まないオブジェクトとを図表領域を構成するオブジェクトとして分類する、請求項14又は請求項15に記載の情報処理方法。
  18.  電子文書又は文書画像から文書を構成するオブジェクトを抽出するオブジェクト抽出処理を有する、請求項14から請求項17のいずれかに記載の情報処理方法。
  19.  人間の視覚的な印象を考慮したオブジェクト間の距離である視覚印象距離に基づいて、テキスト領域を構成するオブジェクトを統合し、テキスト領域を生成するテキスト領域生成処理と、
     前記視覚印象距離に基づいて、図表領域を構成するオブジェクトを統合し、図表領域を生成する図表領域生成処理と、
     テキスト領域と図表領域を表す情報を生成して出力する領域情報生成処理と
    を有する、請求項14から請求項18のいずれかに記載の情報処理方法。
  20.  前記テキスト領域生成処理、又は、前記図表領域生成処理は、
     領域を構成するオブジェクトのx軸とy軸に平行な辺からなる最小外接矩形が互いに重なりを持つ、または、最小外接矩形が互いに重なりを持たない場合には2つのオブジェクトをx軸あるいはy軸に射影したとき重なりを持つオブジェクトについてそれぞれの最小外接矩形の互いに向かい合う辺の距離をD1とし、互いに向かい合う辺をそれらと平行な軸に射影したときの重なる部分の長さをD2としたとき、視覚印象距離としてD1/D2を計算し、視覚印象距離D1/D2の値としきい値との比較に応じてそれら2つのオブジェクトを統合するか否かを判定し、統合する場合には前記2つのオブジェクトを統合する処理をx軸方向とy軸方向それぞれについて行うことによりオブジェクトを統合して領域を生成する、請求項19に記載の情報処理方法。
  21.  前記テキスト領域生成処理、又は、前記図表領域生成処理は、
     領域を構成するオブジェクトのx軸とy軸に平行な辺からなる最小外接矩形が互いに重なりを持つ、あるいは最小外接矩形が互いに重なりを持たない場合には2つのオブジェクトをx軸あるいはy軸に射影したとき重なりを持つオブジェクトについてそれぞれの最小外接矩形の互いに向かい合う辺の距離をD1とし、互いに向かい合う辺をそれらと平行な軸に射影したときの重なる部分の長さをD2とし、2つのオブジェクトの互いに向かい合う辺に垂直な辺の長さの和をD3とし、互いに向かい合う辺をそれらと平行な軸に射影したときの全体の長さをD4としたとき、(D1×D4)/(D2×D3)の値としきい値との比較に応じてそれら2つのオブジェクトを統合するか否かを判定し、統合する場合には前記2つのオブジェクトを統合する処理をx軸方向とy軸方向それぞれについて行うことによりオブジェクトを統合して領域を生成する、請求項19に記載の情報処理システム。
  22.  前記テキスト領域生成処理、又は、前記図表領域生成処理は、
     1つのスライドに含まれる任意の2つのオブジェクトの最小外接矩形のすべての組み合わせについて視覚印象距離を計算し、その平均値を前記しきい値とする、請求項19から請求項21のいずれかに記載の情報処理方法。
  23.  ユーザが入力する、電子文書および画像文書の領域のレイアウトに関するクエリを領域情報に変換する領域情報変換処理と、
     電子文書および画像文書の領域情報と、前記領域情報変換処理により変換された領域情報とを比較して類似度を計算する類似度計算処理とをさらに有し、
     ユーザが入力した文書の領域のレイアウトに類似したレイアウトを持つ文書を検索する、
    請求項14から請求項22に記載の情報処理方法。
  24.  前記類似度計算処理は、テキスト領域および図表領域の領域種類別に、領域の位置を表す重心座標値と、領域の大きさを表す面積と、領域の形状を表す縦横比とを比較することにより、類似度を計算する、請求項23に記載の情報処理方法。
  25.  前記類似度計算処理は、類似度の計算において、2つの領域についての重心のx座標、重心のy座標、面積、縦横比からなる特徴ベクトルのなす角のコサイン値を用いる、請求項24に記載の情報処理方法。
  26.  入力したキーワードを含む文書を検索するキーワード検索処理をさらに有し、
     前記類似度計算処理は、前記キーワード検索処理により検索された文書に対してのみ類似度を計算し、
     ユーザが入力したキーワードを含み、かつユーザが入力した文書の領域のレイアウトに類似したレイアウトを持つ文書を検索する、
    請求項23から請求項25のいずれかに記載の情報処理方法。
  27.  電子文書又は文書画像から抽出された、文書を構成するオブジェクトを、テキストを含むオブジェクトの面積ヒストグラムを少なくとも用いて、テキスト領域を構成するオブジェクトと図表領域を構成するオブジェクトとに分類するオブジェクト分類処理を、情報処理装置に実行させるプログラム。
  28.  前記オブジェクト分類処理は、テキストを含むオブジェクトの面積ヒストグラムを計算し、最頻値となる面積との比較に応じて、前記テキストを含むオブジェクトを、テキスト領域を構成するオブジェクトと図表領域を構成するオブジェクトとに分類する、請求項27に記載のプログラム。
  29.  前記オブジェクト分類処理は、テキストを含むオブジェクトの面積ヒストグラムを計算し、最頻値となる面積よりも大きな面積を持つオブジェクトを、テキスト領域を構成するオブジェクトに分類し、最頻値よりも小さい面積を持つオブジェクトとテキストを含まないオブジェクトとを図表領域を構成するオブジェクトに分類する、請求項27又は請求項28に記載のプログラム。
  30.  前記オブジェクト分類処理は、テキストを含むオブジェクトの面積ヒストグラムを計算し、最頻値となる面積より大きく、かつ頻度が再上昇した面積より大きい面積を持つオブジェクトをテキスト領域を構成するオブジェクトとして分類し、前記テキストを含むオブジェクトでテキスト領域を構成するオブジェクトとして分類されなかったオブジェクトとテキストを含まないオブジェクトとを図表領域を構成するオブジェクトとして分類する、請求項27又は請求項28に記載のプログラム。
  31.  電子文書又は文書画像から文書を構成するオブジェクトを抽出するオブジェクト抽出処理を、情報処理装置に実行させる、請求項27から請求項30のいずれかに記載のプログラム。
  32.  人間の視覚的な印象を考慮したオブジェクト間の距離である視覚印象距離に基づいて、テキスト領域を構成するオブジェクトを統合し、テキスト領域を生成するテキスト領域生成処理と、
     前記視覚印象距離に基づいて、図表領域を構成するオブジェクトを統合し、図表領域を生成する図表領域生成処理と、
     テキスト領域と図表領域を表す情報を生成して出力する領域情報生成処理と
    を有する、請求項27から請求項31のいずれかに記載のプログラム。
  33.  前記テキスト領域生成処理、又は、前記図表領域生成処理は、
     領域を構成するオブジェクトのx軸とy軸に平行な辺からなる最小外接矩形が互いに重なりを持つ、または、最小外接矩形が互いに重なりを持たない場合には2つのオブジェクトをx軸あるいはy軸に射影したとき重なりを持つオブジェクトについてそれぞれの最小外接矩形の互いに向かい合う辺の距離をD1とし、互いに向かい合う辺をそれらと平行な軸に射影したときの重なる部分の長さをD2としたとき、視覚印象距離としてD1/D2を計算し、視覚印象距離D1/D2の値としきい値との比較に応じてそれら2つのオブジェクトを統合するか否かを判定し、統合する場合には前記2つのオブジェクトを統合する処理をx軸方向とy軸方向それぞれについて行うことによりオブジェクトを統合して領域を生成する、請求項32に記載のプログラム。
  34.  前記テキスト領域生成処理、又は、前記図表領域生成処理は、
     領域を構成するオブジェクトのx軸とy軸に平行な辺からなる最小外接矩形が互いに重なりを持つ、あるいは最小外接矩形が互いに重なりを持たない場合には2つのオブジェクトをx軸あるいはy軸に射影したとき重なりを持つオブジェクトについてそれぞれの最小外接矩形の互いに向かい合う辺の距離をD1とし、互いに向かい合う辺をそれらと平行な軸に射影したときの重なる部分の長さをD2とし、2つのオブジェクトの互いに向かい合う辺に垂直な辺の長さの和をD3とし、互いに向かい合う辺をそれらと平行な軸に射影したときの全体の長さをD4としたとき、(D1×D4)/(D2×D3)の値としきい値との比較に応じてそれら2つのオブジェクトを統合するか否かを判定し、統合する場合には前記2つのオブジェクトを統合する処理をx軸方向とy軸方向それぞれについて行うことによりオブジェクトを統合して領域を生成する、請求項32に記載のプログラム。
  35.  前記テキスト領域生成処理、又は、前記図表領域生成処理は、
     1つのスライドに含まれる任意の2つのオブジェクトの最小外接矩形のすべての組み合わせについて視覚印象距離を計算し、その平均値を前記しきい値とする、請求項32から請求項34のいずれかに記載のプログラム。
  36.  ユーザが入力する、電子文書および画像文書の領域のレイアウトに関するクエリを領域情報に変換する領域情報変換処理と、
     電子文書および画像文書の領域情報と、前記領域情報変換処理により変換された領域情報とを比較して類似度を計算する類似度計算処理とを情報処理装置に実行させ、
     ユーザが入力した文書の領域のレイアウトに類似したレイアウトを持つ文書を検索する、
    請求項27から請求項35に記載のプログラム。
  37.  前記類似度計算処理は、テキスト領域および図表領域の領域種類別に、領域の位置を表す重心座標値と、領域の大きさを表す面積と、領域の形状を表す縦横比とを比較することにより、類似度を計算する、請求項36に記載のプログラム。
  38.  前記類似度計算処理は、類似度の計算において、2つの領域についての重心のx座標、重心のy座標、面積、縦横比からなる特徴ベクトルのなす角のコサイン値を用いる、請求項37に記載のプログラム。
  39.  入力したキーワードを含む文書を検索するキーワード検索処理を情報処理装置に実行させ、
     前記類似度計算処理は、前記キーワード検索処理により検索された文書に対してのみ類似度を計算し、
     ユーザが入力したキーワードを含み、かつユーザが入力した文書の領域のレイアウトに類似したレイアウトを持つ文書を検索する、
    請求項36から請求項38のいずれかに記載のプログラム。
PCT/JP2008/072824 2007-12-21 2008-12-16 情報処理システム、その方法及びプログラム WO2009081791A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US12/809,256 US20110043869A1 (en) 2007-12-21 2008-12-16 Information processing system, its method and program
JP2009547049A JPWO2009081791A1 (ja) 2007-12-21 2008-12-16 情報処理システム、その方法及びプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2007-329475 2007-12-21
JP2007329475 2007-12-21

Publications (1)

Publication Number Publication Date
WO2009081791A1 true WO2009081791A1 (ja) 2009-07-02

Family

ID=40801096

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2008/072824 WO2009081791A1 (ja) 2007-12-21 2008-12-16 情報処理システム、その方法及びプログラム

Country Status (3)

Country Link
US (1) US20110043869A1 (ja)
JP (1) JPWO2009081791A1 (ja)
WO (1) WO2009081791A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012090264A (ja) * 2010-10-19 2012-05-10 Palo Alto Research Center Inc 二次元ビジュアルフィンガープリントを用いるプレゼンテーション及びリッチドキュメントコンテンツの混合コレクションにおける類似コンテンツの発見方法
JP2013190973A (ja) * 2012-03-13 2013-09-26 Nec Corp 文書内の図情報を利用した類似文書の検索システム及び方法
JP2019505038A (ja) * 2015-12-31 2019-02-21 北京金山▲辧▼公▲軟▼件股▲ふん▼有限公司Beijing Kingsoft Office Software,Inc. スライドを識別するための方法及び装置
JP2020052961A (ja) * 2018-09-28 2020-04-02 キヤノン株式会社 コンテンツ提供システム、コンテンツ提供方法、情報処理装置、及びプログラム
JP2022026017A (ja) * 2020-07-30 2022-02-10 楽天グループ株式会社 情報処理装置、情報処理方法およびプログラム
JP7435118B2 (ja) 2020-03-24 2024-02-21 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101551859B (zh) * 2008-03-31 2012-01-04 夏普株式会社 图像辨别装置及图像检索装置
JP4539756B2 (ja) * 2008-04-14 2010-09-08 富士ゼロックス株式会社 画像処理装置及び画像処理プログラム
US8218875B2 (en) * 2010-06-12 2012-07-10 Hussein Khalid Al-Omari Method and system for preprocessing an image for optical character recognition
US8825649B2 (en) * 2010-07-21 2014-09-02 Microsoft Corporation Smart defaults for data visualizations
US20120284276A1 (en) * 2011-05-02 2012-11-08 Barry Fernando Access to Annotated Digital File Via a Network
KR101364178B1 (ko) * 2011-06-08 2014-02-25 이해성 전자책 시스템과 전자책 데이터 생성, 검색 장치 및 그 방법
WO2012169841A2 (ko) * 2011-06-08 2012-12-13 주식회사 내일이비즈 전자책 시스템과 전자책 데이터 생성, 검색 장치 및 그 방법
US9507782B2 (en) 2012-08-14 2016-11-29 Empire Technology Development Llc Dynamic content preview
KR102124601B1 (ko) * 2013-06-21 2020-06-19 삼성전자주식회사 피사체의 거리를 추출하여 정보를 표시하는 전자 장치 및 방법
US10331732B1 (en) * 2016-12-16 2019-06-25 National Technology & Engineering Solutions Of Sandia, Llc Information searching system
CN110651267B (zh) 2017-09-13 2023-09-19 谷歌有限责任公司 有效地增强具有相关内容的图像
CN108038426A (zh) * 2017-11-29 2018-05-15 阿博茨德(北京)科技有限公司 一种提取文件中图表信息的方法及装置
CN113282779A (zh) * 2020-02-19 2021-08-20 阿里巴巴集团控股有限公司 图像搜索方法、装置、设备
US11763586B2 (en) 2021-08-09 2023-09-19 Kyocera Document Solutions Inc. Method and system for classifying document images

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62165284A (ja) * 1986-01-17 1987-07-21 Hitachi Ltd 文字列抽出方式
JP2000306041A (ja) * 1999-04-23 2000-11-02 Ricoh Co Ltd 文字サイズ推定方法および記録媒体
JP2004030696A (ja) * 1997-12-19 2004-01-29 Fujitsu Ltd 文字列抽出装置及びパターン抽出装置
JP2006155380A (ja) * 2004-11-30 2006-06-15 Canon Inc 画像処理装置、その方法およびその制御方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5179599A (en) * 1991-06-17 1993-01-12 Hewlett-Packard Company Dynamic thresholding system for documents using structural information of the documents
US5588072A (en) * 1993-12-22 1996-12-24 Canon Kabushiki Kaisha Method and apparatus for selecting blocks of image data from image data having both horizontally- and vertically-oriented blocks
US6137905A (en) * 1995-08-31 2000-10-24 Canon Kabushiki Kaisha System for discriminating document orientation
JP3601658B2 (ja) * 1997-12-19 2004-12-15 富士通株式会社 文字列抽出装置及びパターン抽出装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62165284A (ja) * 1986-01-17 1987-07-21 Hitachi Ltd 文字列抽出方式
JP2004030696A (ja) * 1997-12-19 2004-01-29 Fujitsu Ltd 文字列抽出装置及びパターン抽出装置
JP2000306041A (ja) * 1999-04-23 2000-11-02 Ricoh Co Ltd 文字サイズ推定方法および記録媒体
JP2006155380A (ja) * 2004-11-30 2006-06-15 Canon Inc 画像処理装置、その方法およびその制御方法

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012090264A (ja) * 2010-10-19 2012-05-10 Palo Alto Research Center Inc 二次元ビジュアルフィンガープリントを用いるプレゼンテーション及びリッチドキュメントコンテンツの混合コレクションにおける類似コンテンツの発見方法
JP2013190973A (ja) * 2012-03-13 2013-09-26 Nec Corp 文書内の図情報を利用した類似文書の検索システム及び方法
US9378248B2 (en) 2012-03-13 2016-06-28 Nec Corporation Retrieval apparatus, retrieval method, and computer-readable recording medium
JP2019505038A (ja) * 2015-12-31 2019-02-21 北京金山▲辧▼公▲軟▼件股▲ふん▼有限公司Beijing Kingsoft Office Software,Inc. スライドを識別するための方法及び装置
US10698943B2 (en) 2015-12-31 2020-06-30 Beijing Kingsoft Office Software, Inc. Method and apparatus for recognizing slide
JP2020052961A (ja) * 2018-09-28 2020-04-02 キヤノン株式会社 コンテンツ提供システム、コンテンツ提供方法、情報処理装置、及びプログラム
JP7134814B2 (ja) 2018-09-28 2022-09-12 キヤノン株式会社 システム、ページデータ出力方法、及びプログラム
JP7435118B2 (ja) 2020-03-24 2024-02-21 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム
JP2022026017A (ja) * 2020-07-30 2022-02-10 楽天グループ株式会社 情報処理装置、情報処理方法およびプログラム

Also Published As

Publication number Publication date
JPWO2009081791A1 (ja) 2011-05-06
US20110043869A1 (en) 2011-02-24

Similar Documents

Publication Publication Date Title
WO2009081791A1 (ja) 情報処理システム、その方法及びプログラム
US7840891B1 (en) Method and system for content extraction from forms
US8442324B2 (en) Method and system for displaying image based on text in image
US9430716B2 (en) Image processing method and image processing system
US20140176564A1 (en) Chinese Character Constructing Method and Device, Character Constructing Method and Device, and Font Library Building Method
US20150199567A1 (en) Document classification assisting apparatus, method and program
US20190026355A1 (en) Information processing device and information processing method
US20140184610A1 (en) Shaping device and shaping method
KR101549792B1 (ko) 문서 자동 작성 장치 및 방법
JP2018081674A (ja) 手書きテキスト画像に対する行及び単語切り出し方法
US20170132484A1 (en) Two Step Mathematical Expression Search
US11928418B2 (en) Text style and emphasis suggestions
CN111222314B (zh) 版式文档的比对方法、装置、设备及存储介质
JP6736224B2 (ja) 文章解析装置及び文章解析プログラム
JP2006318219A (ja) 類似スライド検索プログラム及び検索方法
US11138257B2 (en) Object search in digital images
Tomovic et al. Aligning document layouts extracted with different OCR engines with clustering approach
JP6441142B2 (ja) 検索装置、方法及びプログラム
KR20210033730A (ko) Pdf 문서에서 텍스트 라인 정보를 기초로 단락의 구분선을 표시하는 전자 장치 및 그 동작 방법
Yamashita et al. A document recognition system and its applications
JP7410532B2 (ja) 文字判定装置及び文字判定プログラム
KR20200110880A (ko) 스타일 속성에 기반하여 문서에 대한 중요 키워드를 선정하는 전자 장치 및 그 동작 방법
WO2009087815A1 (ja) 類似文書検索システム、類似文書検索方法および記録媒体
US20240086455A1 (en) Image search apparatus, image search method, and non-transitory storage medium
JPH09319764A (ja) キーワード生成装置及び文書検索装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 08864665

Country of ref document: EP

Kind code of ref document: A1

DPE1 Request for preliminary examination filed after expiration of 19th month from priority date (pct application filed from 20040101)
ENP Entry into the national phase

Ref document number: 2009547049

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 12809256

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 08864665

Country of ref document: EP

Kind code of ref document: A1