JP6968241B1 - Information processing equipment, information processing methods and programs - Google Patents

Information processing equipment, information processing methods and programs Download PDF

Info

Publication number
JP6968241B1
JP6968241B1 JP2020129280A JP2020129280A JP6968241B1 JP 6968241 B1 JP6968241 B1 JP 6968241B1 JP 2020129280 A JP2020129280 A JP 2020129280A JP 2020129280 A JP2020129280 A JP 2020129280A JP 6968241 B1 JP6968241 B1 JP 6968241B1
Authority
JP
Japan
Prior art keywords
graph
component
probability map
information processing
graph image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020129280A
Other languages
Japanese (ja)
Other versions
JP2022026017A (en
Inventor
肇 加藤
ビヨン シュテンガー
満 中澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rakuten Group Inc
Original Assignee
Rakuten Group Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rakuten Group Inc filed Critical Rakuten Group Inc
Priority to JP2020129280A priority Critical patent/JP6968241B1/en
Application granted granted Critical
Publication of JP6968241B1 publication Critical patent/JP6968241B1/en
Publication of JP2022026017A publication Critical patent/JP2022026017A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】より多様なグラフの画像を解析する情報処理装置、情報処理方法およびプログラムを提供する。【解決手段】グラフ画像解析装置1は、グラフ画像を取得するグラフ画像取得部と、取得されたグラフ画像をグラフ種別ごとに分類するグラフ分類部と、グラフ画像から、分類されたグラフ種別ごとに異なる種類の確率マップを生成する確率マップ生成部と、生成された確率マップに基づいて、グラフ画像中のコンポーネントを抽出するコンポーネント抽出部と、抽出されたグラフ画像のコンポーネントの値を抽出する値抽出部と、値抽出部により抽出されたコンポーネントの値を出力する出力部と、を備える。【選択図】図1PROBLEM TO BE SOLVED: To provide an information processing apparatus, an information processing method and a program for analyzing a wider variety of graph images. SOLUTION: A graph image analysis device 1 has a graph image acquisition unit for acquiring a graph image, a graph classification unit for classifying the acquired graph image for each graph type, and a graph image classified for each graph type. A probability map generator that generates different types of probability maps, a component extractor that extracts the components in the graph image based on the generated probability map, and a value extractor that extracts the values of the components in the extracted graph image. It includes a unit and an output unit that outputs the value of the component extracted by the value extraction unit. [Selection diagram] Fig. 1

Description

本発明は、情報処理装置、情報処理方法およびプログラムに関し、特に、グラフの画像を解析するための技術に関する。 The present invention relates to an information processing apparatus, an information processing method and a program, and more particularly to a technique for analyzing an image of a graph.

線グラフを含む画像をデジタルデータへ変換する技術が知られている。
例えば、特許文献1は、収集した患者データの線グラフ表示を分析して、個々のピクセルを同定し、基準点に関する個々のピクセルの相対的位置を特定する複数のピクセル表示データ要素を所望のデータフォーマットで発生させてファイルに蓄積する画像表示データの処理システムを開示する。
A technique for converting an image including a line graph into digital data is known.
For example, Patent Document 1 analyzes a line graph display of collected patient data to identify individual pixels and to provide a plurality of pixel display data elements that determine the relative position of each pixel with respect to a reference point. Disclose a processing system for image display data generated in a format and stored in a file.

特許文献2は、紙等に記録された非デジタルの振動波形をスキャナにより読み込み、読み込まれたグラフ画像について、設定ピッチ毎の振幅データを読み取って、振動台により利用可能なデジタルデータに変換する振動データデジタル化装置を開示する。 Patent Document 2 reads a non-digital vibration waveform recorded on paper or the like by a scanner, reads amplitude data for each set pitch of the read graph image, and converts the read graph into digital data that can be used by a shaking table. Disclose the data digitizer.

非特許文献1は、研究論文のPDFファイルから図表を抽出し、抽出された図表から線グラフを分離し、線グラフの軸および凡例を検出することにより、線グラフを解析する技術を開示する。 Non-Patent Document 1 discloses a technique for analyzing a line graph by extracting a chart from a PDF file of a research paper, separating the line graph from the extracted chart, and detecting the axis and the legend of the line graph.

特表2005−503851号公報Japanese Patent Publication No. 2005-503851 特開2002−328068号公報Japanese Patent Application Laid-Open No. 2002-328068 Siegel,N., Horvitz,Z., Levin,R., Divvala,S., Farhadi,A.“FigureSeer:Parsing Result−Figures in Research Papers” ECCV (2016) pp.664−680Siegel, N.M. , Horvitz, Z. et al. , Levin, R.M. , Divvala, S.A. , Farhadi, A. "FigureSeer: Parsing Resist-Figures in Research Papers" ECCV (2016) pp. 664-680

しかしながら、グラフには、線グラフ、棒グラフ、円グラフ(パイチャート)等多様な種類があるところ、上記の先行技術文献の技術は、解析対象を専ら線グラフのみに限定するものであり、他の種別のグラフを解析することができないため、汎用性に乏しい。 However, there are various types of graphs such as line graphs, bar graphs, and pie charts. However, the techniques in the above-mentioned prior art literature limit the analysis target to line graphs only, and other graphs. It is not versatile because it cannot analyze type graphs.

また、特許文献1ないし特許文献2の技術では、線グラフをトレースする際に、ユーザが、グラフの色や輝度振幅を特定したり、あるいは、X軸、Y軸、およびスケールを設定しなければならず、多数のグラフ画像を解析しようとする場合、ユーザに過度な負荷を強いるものであった。
一方、非特許文献1の技術では、線グラフの欄外に位置する凡例を検出し、検出された凡例に記載されたシンボルの線種を検出することにより、線グラフをトレースするものであるため、凡例を含まない線グラフ画像を解析することは想定していない。
Further, in the techniques of Patent Document 1 to Patent Document 2, when tracing a line graph, the user must specify the color and luminance amplitude of the graph, or set the X-axis, Y-axis, and scale. However, when trying to analyze a large number of graph images, it imposes an excessive load on the user.
On the other hand, in the technique of Non-Patent Document 1, the line graph is traced by detecting the legend located in the margin of the line graph and detecting the line type of the symbol described in the detected legend. It is not supposed to analyze line graph images that do not include legends.

本発明は上記課題を解決するためになされたものであり、その目的は、より多様なグラフの画像を解析することが可能な情報処理装置、情報処理方法およびプログラムを提供することにある。 The present invention has been made to solve the above problems, and an object of the present invention is to provide an information processing apparatus, an information processing method, and a program capable of analyzing a wider variety of graph images.

上記課題を解決するために、本発明に係る情報処理装置の一態様は、グラフ画像を取得するグラフ画像取得部と、前記グラフ画像取得部により取得された前記グラフ画像をグラフ種別ごとに分類するグラフ分類部と、前記グラフ画像から、前記グラフ分類部により分類された前記グラフ種別ごとに異なる種類の確率マップを生成する確率マップ生成部と、前記確率マップ生成部により生成された前記確率マップに基づいて、前記グラフ画像中のコンポーネントを抽出するコンポーネント抽出部と、前記コンポーネント抽出部により抽出された前記グラフ画像の前記コンポーネントの値を抽出する値抽出部と、前記値抽出部により抽出された前記コンポーネントの前記値を出力する出力部と、を備える。 In order to solve the above problems, one aspect of the information processing apparatus according to the present invention classifies a graph image acquisition unit for acquiring a graph image and the graph image acquired by the graph image acquisition unit for each graph type. The graph classification unit, the probability map generation unit that generates different types of probability maps for each graph type classified by the graph classification unit from the graph image, and the probability map generated by the probability map generation unit. Based on this, a component extraction unit that extracts components in the graph image, a value extraction unit that extracts the value of the component in the graph image extracted by the component extraction unit, and the value extraction unit that extracts the value of the component. It includes an output unit that outputs the value of the component.

前記確率マップ生成部は、ニューラルネットワークを用いて、前記グラフ画像の前記確率マップを生成してよい。 The probability map generation unit may generate the probability map of the graph image by using a neural network.

前記ニューラルネットワークは、前記グラフ種別ごとに異なる出力チャネルを備えてよい。 The neural network may have different output channels for each graph type.

前記確率マップ生成部は、前記グラフ種別ごとに、異なるコンポーネントを分離するための異なる複数種類の確率マップを生成してよい。 The probability map generation unit may generate a plurality of different types of probability maps for separating different components for each of the graph types.

前記コンポーネント抽出部は、線グラフのための第1の種類の確率マップを用いて、前記線グラフのグラフ画像の各画素のコストを算出し、コストが最小となる画素上に前記線グラフをトレースしてよい。 The component extractor calculates the cost of each pixel of the graph image of the line graph using the first kind of probability map for the line graph, and traces the line graph on the pixel with the minimum cost. You can do it.

前記コンポーネント抽出部は、動的計画法(Dynamic Programming)を用いて、前記線グラフの前記グラフ画像の各画素のコストを算出してよい。 The component extraction unit may calculate the cost of each pixel of the graph image of the line graph by using dynamic programming.

前記コンポーネント抽出部は、前記線グラフの線の平滑性を評価する関数に基づいて、前記コストを算出してよい。 The component extractor may calculate the cost based on a function that evaluates the smoothness of the lines in the line graph.

前記コンポーネント抽出部は、前記線グラフの線の色または線種の一貫性を評価する関数に基づいて、前記コストを算出してよい。 The component extractor may calculate the cost based on a function that evaluates the consistency of the line color or line type of the line graph.

前記コンポーネント抽出部は、前記第1の種類の確率マップを用いて、各X座標位置におけるY座標軸方向の前記線グラフの存在確率をスタックすることにより、前記線グラフの始点および終点を検出し、検出された前記始点から前記終点まで前記線グラフをトレースしてよい。 The component extraction unit detects the start point and the end point of the line graph by stacking the existence probabilities of the line graph in the Y coordinate axis direction at each X coordinate position using the first type of probability map. The line graph may be traced from the detected start point to the end point.

前記コンポーネント抽出部は、線グラフ以外のグラフのための第2の種類の確率マップを用いて、隣接する画素を連結することにより、前記グラフをトレースしてよい。 The component extractor may trace the graph by concatenating adjacent pixels using a second type of probability map for graphs other than line graphs.

前記コンポーネント抽出部は、CCA(Connected Component Analysis)を用いて、前記グラフのグラフ画像の前記隣接する画素を連結してよい。 The component extraction unit may connect the adjacent pixels of the graph image of the graph by using CCA (Connected Component Analysis).

前記コンポーネント抽出部は、前記第2の種類の確率マップを参照して、抽出された前記コンポーネントを補正してよい。 The component extraction unit may correct the extracted component with reference to the second type of probability map.

本発明に係る情報処理方法の一態様は、情報処理装置が実行する情報処理方法であって、グラフ画像を取得するステップと、取得された前記グラフ画像をグラフ種別ごとに分類するステップと、前記グラフ画像から、分類された前記グラフ種別ごとに異なる種類の確率マップを生成するステップと、生成された前記確率マップに基づいて、前記グラフ画像中のコンポーネントを抽出するステップと、抽出された前記グラフ画像の前記コンポーネントの値を抽出するステップと、抽出された前記コンポーネントの前記値を出力するステップとを含む。 One aspect of the information processing method according to the present invention is an information processing method executed by an information processing apparatus, which includes a step of acquiring a graph image, a step of classifying the acquired graph image for each graph type, and the above. From the graph image, a step of generating a different kind of probability map for each of the classified graph types, a step of extracting components in the graph image based on the generated probability map, and the extracted graph. It includes a step of extracting the value of the component of the image and a step of outputting the value of the extracted component.

本発明に係る情報処理プログラムの一態様は、情報処理をコンピュータに実行させるための情報処理プログラムであって、該プログラムは、前記コンピュータに、グラフ画像を取得するグラフ画像取得処理と、前記グラフ画像取得処理により取得された前記グラフ画像をグラフ種別ごとに分類するグラフ分類処理と、前記グラフ画像から、前記グラフ分類処理により分類された前記グラフ種別ごとに異なる種類の確率マップを生成する確率マップ生成処理と、前記確率マップ生成部により生成された前記確率マップに基づいて、前記グラフ画像中のコンポーネントを抽出するコンポーネント抽出処理と、前記コンポーネント抽出部により抽出された前記グラフ画像の前記コンポーネントの値を抽出する値抽出処理と、前記値抽出部により抽出された前記コンポーネントの前記値を出力する出力処理とを含む処理を実行させるためのものである。 One aspect of the information processing program according to the present invention is an information processing program for causing a computer to execute information processing, and the program includes a graph image acquisition process for acquiring a graph image and the graph image. A graph classification process that classifies the graph image acquired by the acquisition process for each graph type, and a probability map generation that generates a different type of probability map for each graph type classified by the graph classification process from the graph image. The processing, the component extraction process for extracting the components in the graph image based on the probability map generated by the probability map generation unit, and the value of the component in the graph image extracted by the component extraction unit. The purpose is to execute a process including a value extraction process for extracting and an output process for outputting the value of the component extracted by the value extraction unit.

本発明によれば、より多様なグラフの画像を解析することができる。
上記した本発明の目的、態様及び効果並びに上記されなかった本発明の目的、態様及び効果は、当業者であれば添付図面及び請求の範囲の記載を参照することにより下記の発明を実施するための形態から理解できるであろう。
According to the present invention, it is possible to analyze images of a wider variety of graphs.
The above-mentioned object, aspect and effect of the present invention and the above-mentioned object, aspect and effect of the present invention not described above are to be used by those skilled in the art to carry out the following invention by referring to the accompanying drawings and the description of the scope of claims. It can be understood from the form of.

図1は、本発明の各実施形態に係るグラフ画像解析装置の機能構成の一例を示すブロック図である。FIG. 1 is a block diagram showing an example of the functional configuration of the graph image analysis apparatus according to each embodiment of the present invention. 図2は、各実施形態に係るグラフ画像解析装置が実行するグラフ画像解析処理の概要を説明する概念図である。FIG. 2 is a conceptual diagram illustrating an outline of a graph image analysis process executed by the graph image analysis apparatus according to each embodiment. 図3は、各実施形態に係るグラフ画像解析装置が実行するグラフ画像解析処理の処理手順の一例を示すフローチャートである。FIG. 3 is a flowchart showing an example of a processing procedure of the graph image analysis process executed by the graph image analysis apparatus according to each embodiment. 図4は、グラフ画像解析装置の確率マップ生成部が棒グラフについて出力するニューラルネットワークの出力チャネルの一例を示す図である。FIG. 4 is a diagram showing an example of an output channel of a neural network output by a probability map generation unit of a graph image analysis device for a bar graph. 図5は、グラフ画像解析装置の確率マップ生成部が円グラフについて出力するニューラルネットワークの出力チャネルの一例を示す図である。FIG. 5 is a diagram showing an example of an output channel of a neural network output by a probability map generation unit of a graph image analysis device for a pie chart. 図6は、グラフ画像解析装置の確率マップ生成部が線グラフについて出力するニューラルネットワークの出力チャネルの一例を示す図である。FIG. 6 is a diagram showing an example of an output channel of a neural network output by a probability map generation unit of a graph image analysis device for a line graph. 図7は、グラフ画像解析装置のコンポーネント抽出部が棒グラフおよび円グラフについて実行する図3のS4のコンポーネント抽出処理の詳細処理手順の一例を示すフローチャートである。FIG. 7 is a flowchart showing an example of a detailed processing procedure of the component extraction process of S4 of FIG. 3 executed by the component extraction unit of the graph image analysis device for the bar graph and the pie chart. 図8は、グラフ画像解析装置のコンポーネント抽出部が棒グラフの確率マップを使用して棒グラフ画像から棒グラフのコンポーネントを抽出する一例を説明する図である。FIG. 8 is a diagram illustrating an example in which the component extraction unit of the graph image analysis device extracts the components of the bar graph from the bar graph image using the probability map of the bar graph. 図9は、グラフ画像解析装置のコンポーネント抽出部が線グラフについて実行する図3のS4のコンポーネント抽出処理の詳細処理手順の一例を示すフローチャートである。FIG. 9 is a flowchart showing an example of a detailed processing procedure of the component extraction process of S4 of FIG. 3 executed by the component extraction unit of the graph image analysis device for the line graph. 図10は、グラフ画像解析装置のコンポーネント抽出部が線グラフの確率マップを使用して線グラフ画像からトレースした線グラフの一例を説明する図である。FIG. 10 is a diagram illustrating an example of a line graph traced from a line graph image by a component extraction unit of the graph image analysis device using a probability map of the line graph. 図11は、グラフ画像解析装置の値抽出部が線グラフ画像からグラフの値を抽出する一例を説明する図である。FIG. 11 is a diagram illustrating an example in which the value extraction unit of the graph image analysis device extracts graph values from a line graph image. 図12は、本発明の各実施形態に係るグラフ画像解析装置のハードウエア構成の一例を示すブロック図である。FIG. 12 is a block diagram showing an example of the hardware configuration of the graph image analysis apparatus according to each embodiment of the present invention.

以下、添付図面を参照して、本発明を実施するための実施形態について詳細に説明する。以下に開示される構成要素のうち、同一機能を有するものには同一の符号を付し、その説明を省略する。なお、以下に開示される実施形態は、本発明の実現手段としての一例であり、本発明が適用される装置の構成や各種条件によって適宜修正または変更されるべきものであり、本発明は以下の実施形態に限定されるものではない。また、本実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。 Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the accompanying drawings. Among the components disclosed below, those having the same function are designated by the same reference numerals, and the description thereof will be omitted. The embodiments disclosed below are examples as means for realizing the present invention, and should be appropriately modified or modified depending on the configuration of the apparatus to which the present invention is applied and various conditions, and the present invention is described below. Is not limited to the embodiment of the above. Moreover, not all combinations of features described in the present embodiment are essential for the means of solving the present invention.

本実施形態に係るグラフ画像解析装置は、入力されるグラフ画像をグラフ種別ごとに分類し、分類されたグラフ種別ごとに異なる確率マップを生成し、生成された確率マップを用いてグラフ画像を自動的に解析する。
以下では、グラフ画像解析装置が、入力されるグラフ画像を、棒グラフ、円グラフ、および線グラフのグラフ種別に分類し、これらグラフ種別ごとに確率マップを生成し、生成された確率マップを用いて、それぞれの種別のグラフ画像を解析する例を説明する。
The graph image analysis device according to the present embodiment classifies the input graph image for each graph type, generates a different probability map for each classified graph type, and automatically generates the graph image using the generated probability map. Analyze.
In the following, the graph image analyzer classifies the input graph image into graph types of bar graph, circle graph, and line graph, generates a probability map for each graph type, and uses the generated probability map. , An example of analyzing each type of graph image will be described.

しかしながら、本実施形態はこれに限定されない。グラフ画像解析装置は、例えば、フローチャート、レイダーチャート、散布図(Scatter Plots)、ベン図(Venn Diagram)等、他の任意のグラフ画像を分類し、解析してよい。
なお、本実施形態において、グラフ画像とは、画像の全部または一部にグラフ(図表またはチャート、以下、「グラフ」と総称する。)を含む画像をいうものとする。グラフ画像は、任意のフォーマットでグラフ画像解析装置に入力されてよい。
However, this embodiment is not limited to this. The graph image analyzer may classify and analyze any other graph image, such as a flow chart, a raider chart, a scatter plot, a Venn diagram, or the like.
In the present embodiment, the graph image means an image including a graph (a chart or a chart, hereinafter collectively referred to as a "graph") in all or a part of the image. The graph image may be input to the graph image analyzer in any format.

<グラフ画像解析装置の機能構成>
図1は、本実施形態に係るグラフ画像解析装置1の機能構成の一例を示すブロック図である。
図1に示すグラフ画像解析装置1は、データ取得部11、グラフ分類部12、確率マップ生成部13、コンポーネント抽出部14、値抽出部15、および出力部16を備える。
<Functional configuration of graph image analysis device>
FIG. 1 is a block diagram showing an example of the functional configuration of the graph image analysis device 1 according to the present embodiment.
The graph image analysis device 1 shown in FIG. 1 includes a data acquisition unit 11, a graph classification unit 12, a probability map generation unit 13, a component extraction unit 14, a value extraction unit 15, and an output unit 16.

データ取得部11は、入力データセット3から入力データを取得して、取得された入力データをグラフ分類部12に供給する。データ取得部11により取得される入力データは、グラフ画像を含み得る。入力データセット3は、不揮発性記憶装置で構成され、グラフ画像解析装置1にローカルに備えられ、またはリモートで接続されてよい。
グラフ画像は、例えば、ビットマップ、GIF(Graphics Interchange Format)、JPEG(Joint Photographic Experts Group)、TIFF(Tag Image File Format)等の任意の画像ファイルフォーマットを有してよい。また、画像の一部にグラフを含む場合、当該画像は、例えば、PDF(Portable Document Format)や、ウェブページを構成するHTML(Hyper Text Markup Language)等の任意のファイルフォーマットを有してよい。
The data acquisition unit 11 acquires input data from the input data set 3 and supplies the acquired input data to the graph classification unit 12. The input data acquired by the data acquisition unit 11 may include a graph image. The input data set 3 consists of a non-volatile storage device, which may be locally provided or remotely connected to the graph image analysis device 1.
The graph image may have any image file format such as a bitmap, GIF (Graphics Interchange Form), JPEG (Joint Photographic Experts Group), TIFF (Tag Image File Form) and the like. When a graph is included in a part of the image, the image may have an arbitrary file format such as PDF (Portable Document Form) or HTML (HyperText Markup Language) constituting a web page.

データ取得部11は、入力データセット3に替えて、入力データを対向装置から通信I/Fを介して受信してもよい。
データ取得部11はまた、グラフ画像解析装置1においてグラフ画像解析処理を実行するために必要な各種パラメータの入力を受け付けてよい。
The data acquisition unit 11 may receive the input data from the opposite device via the communication I / F instead of the input data set 3.
The data acquisition unit 11 may also accept input of various parameters necessary for executing the graph image analysis process in the graph image analysis device 1.

グラフ分類部12は、データ取得部11から供給される入力データから後段で解析すべきグラフ画像を抽出し、抽出されたグラフ画像を、複数のグラフ種別のいずれかに分類して、分類されたグラフ画像を確率マップ生成部13へ供給する。グラフ分類部12は、解析すべきグラフ画像として、例えば、棒グラフ、円グラフ、および線グラフ等を入力データから抽出してよい。
本実施形態において、グラフ分類部12は、例えば、ニューラルネットワーク等の分類用のネットワークを用いて、入力データからグラフ画像を抽出し、抽出されたグラフ画像を分類してよい。
The graph classification unit 12 extracts a graph image to be analyzed in the subsequent stage from the input data supplied from the data acquisition unit 11, classifies the extracted graph image into one of a plurality of graph types, and classifies the extracted graph image. The graph image is supplied to the probability map generation unit 13. The graph classification unit 12 may extract, for example, a bar graph, a pie chart, a line graph, or the like as a graph image to be analyzed from the input data.
In the present embodiment, the graph classification unit 12 may extract a graph image from the input data and classify the extracted graph image by using a classification network such as a neural network.

確率マップ生成部13は、グラフ分類部12から供給される分類されたグラフ画像に対して、分類されたグラフ種別ごとに、グラフ画像の確率マップを生成し、生成された確率マップをコンポーネント抽出部14へ供給する。
本実施形態において、確率マップ生成部13により生成される確率マップ(Probability Map)は、グラフ画像の画素ごとに、分類された種別のグラフを構成するコンポーネントが出現する確率を推定し、推定された確率分布で構成されるマップである。
確率マップ生成部13は、例えば、ニューラルネットワーク等の確率マップ生成用のネットワークを用いて、分類されたグラフ画像から、確率マップを生成してよい。確率マップ生成部13はまた、分類されたグラフ種別ごとに、異なる種類の確率マップを生成してよく(図2を参照して後述)、分類されたグラフ種別ごとに、異なる複数種類の確率マップを生成してよい(図4〜図6を参照して後述)。
The probability map generation unit 13 generates a probability map of the graph image for each classified graph type with respect to the classified graph image supplied from the graph classification unit 12, and the generated probability map is a component extraction unit. Supply to 14.
In the present embodiment, the probability map (Probability Map) generated by the probability map generation unit 13 estimates and estimates the probability that a component constituting a classified type graph appears for each pixel of the graph image. It is a map composed of probability distributions.
The probability map generation unit 13 may generate a probability map from the classified graph images using, for example, a network for generating a probability map such as a neural network. The probability map generator 13 may also generate different types of probability maps for each classified graph type (see FIG. 2 below), and for each classified graph type, different types of probability maps. May be generated (see FIGS. 4-6 below).

コンポーネント抽出部14は、確率マップ生成部13から供給される確率マップを用いて、グラフ画像から、グラフを構成するコンポーネント(以下、単に「コンポーネント」という。)を抽出する。
具体的には、コンポーネント抽出部14は、グラフ分類部13により分類されたグラフ画像に、当該グラフ画像が分類された種別に対応して確率マップ生成部13から供給される確率マップを用いて、グラフ画像から、グラフを構成する複数のコンポーネントのそれぞれを分離する。
The component extraction unit 14 extracts a component (hereinafter, simply referred to as “component”) constituting the graph from the graph image by using the probability map supplied from the probability map generation unit 13.
Specifically, the component extraction unit 14 uses the probability map supplied from the probability map generation unit 13 corresponding to the type in which the graph image is classified to the graph image classified by the graph classification unit 13. Separate each of the multiple components that make up the graph from the graph image.

コンポーネント抽出部14は、グラフ画像から、グラフを構成する複数のコンポーネントのうち、主要なコンポーネントをそれぞれ分離してよい。確率マップは、分離されるべき複数の主要なコンポーネントのそれぞれに対応して、複数種類が生成されてよい。
コンポーネント抽出部14は、グラフ画像から分離した複数のコンポーネントのそれぞれについて、グラフをトレースして、分離されたコンポーネントおよびそのグラフを、値抽出部15へ供給する。
The component extraction unit 14 may separate the main component from the plurality of components constituting the graph from the graph image. Multiple types of probability maps may be generated for each of the multiple key components to be separated.
The component extraction unit 14 traces a graph for each of the plurality of components separated from the graph image, and supplies the separated components and the graph to the value extraction unit 15.

値抽出部15は、コンポーネント抽出部14から供給されるグラフ画像の各コンポーネントについて、対応するグラフの値を抽出する。
具体的には、値抽出部15は、グラフ画像の軸のラベルや各コンポーネントに付与されたラベルを抽出し、抽出されたラベルのテキストおよび幾何学的配置に基づいて、グラフ画像の各コンポーネントに対応するグラフの値を生成する。
The value extraction unit 15 extracts the corresponding graph value for each component of the graph image supplied from the component extraction unit 14.
Specifically, the value extraction unit 15 extracts the labels of the axes of the graph image and the labels attached to each component, and based on the text and geometric arrangement of the extracted labels, gives each component of the graph image. Generate the corresponding graph values.

グラフ画像に含まれるグラフ自体は、所定の入力データを可視化したものであるが、画像化されたグラフ画像からは、通常、グラフ描画の基となったオリジナルの入力データに直接アクセスすることができない。
本実施形態では、値抽出部15が、グラフ画像の各コンポーネントに対応するグラフの値を生成することによって、グラフ描画の基となったオリジナルの入力データを回復する。
値抽出部15は、グラフ画像の各コンポーネントの連続する画素に対応して連続的にグラフの値を生成してよく、あるいは、所定の画素間隔ごとに離散的にグラフの値を生成してもよい。
値抽出部15は、生成されたグラフの値を、グラフ画像の各コンポーネントに付加して、または対応付けて、出力部16へ供給する。
The graph itself included in the graph image is a visualization of predetermined input data, but usually, the original input data on which the graph is drawn cannot be directly accessed from the imaged graph image.
In the present embodiment, the value extraction unit 15 recovers the original input data on which the graph is drawn by generating the graph values corresponding to each component of the graph image.
The value extraction unit 15 may continuously generate graph values corresponding to consecutive pixels of each component of the graph image, or may generate graph values discretely at predetermined pixel intervals. good.
The value extraction unit 15 adds or associates the generated graph value to each component of the graph image, and supplies the value to the output unit 16.

出力部16は、コンポーネント抽出部14により抽出されたグラフ画像の各コンポーネントをグラフに合成し、デジタルデータとして、出力データセット4に出力する。出力データセット4に出力されたグラフは、グラフ画像解析装置1または他の装置のユーザインタフェースを介して、プッシュ型またはプル型で外部に出力されてよい。
出力部16が合成するグラフの各コンポーネントには、値抽出部15により抽出されたグラフの値が付加されている。このため、グラフ画像解析装置1、または他の装置は、グラフ画像解析処理の後処理として、出力データセット4から合成されたグラフのデータを読み出して、任意に加工して出力することができる。
たとえば、出力部16または後処理は、グラフ分類部12により分類されたグラフ種別とは異なるグラフ種別に変更して、グラフを出力してよく、また、スケール、グラフ化の範囲、グラフコンポーネントの色や線種等を変更して、グラフを出力してもよい。
なお、出力部16は、値抽出部15により生成されたグラフの値を、グラフ画像の各コンポーネントに付加することなく、独立して出力してよい。あるいは、出力部16は、これらグラフの値を、例えば表形式等の任意の形式に整形して出力してよい。
The output unit 16 synthesizes each component of the graph image extracted by the component extraction unit 14 into a graph and outputs it as digital data to the output data set 4. The graph output to the output data set 4 may be output to the outside in a push type or a pull type via the user interface of the graph image analysis device 1 or another device.
The values of the graph extracted by the value extraction unit 15 are added to each component of the graph synthesized by the output unit 16. Therefore, the graph image analysis device 1 or another device can read the graph data synthesized from the output data set 4 as post-processing of the graph image analysis process, process it arbitrarily, and output it.
For example, the output unit 16 or the post-processing may change the graph type to a graph type different from the graph type classified by the graph classification unit 12, and output the graph, and also scale, the range of graphing, and the color of the graph component. You may output the graph by changing the line type and the like.
The output unit 16 may independently output the value of the graph generated by the value extraction unit 15 without adding it to each component of the graph image. Alternatively, the output unit 16 may format the values of these graphs into an arbitrary format such as a table format and output the graph.

なお、グラフ画像解析装置1は、PC(Personal Computer)等で構成されるクライアント装置と通信可能に接続し、当該クライアント装置は、グラフ画像解析装置1が外部と情報の入出力を実行する際のユーザインタフェースを提供してよく、また、グラフ画像解析装置1の各コンポーネント11〜16の一部または全部を備えてもよい。 The graph image analysis device 1 is communicably connected to a client device composed of a PC (Personal Computer) or the like, and the client device is used when the graph image analysis device 1 executes input / output of information with the outside. A user interface may be provided, and some or all of the components 11 to 16 of the graph image analyzer 1 may be provided.

図2は、本実施形態に係るグラフ画像解析装置1が実行するグラフ画像解析処理の概要を説明する概念図である。
本実施形態において、グラフ画像解析装置1は、第1段階として、入力データから、解析されるべきグラフ画像を抽出し、抽出されたグラフ画像を複数のグラフ種別のうちのいずれかに分類する。
図2を参照して、入力データ21は、ニューラルネットワーク等で構成される分類用のネットワーク22に入力され、分類用のネットワーク22は、いずれかのグラフ種別に分類されたグラフ画像を含む分類結果23を出力する。分類用のネットワーク22が出力する分類結果23は、線グラフ(Line)、円グラフ(Pie)、横棒グラフ(H−Bar)、縦棒グラフ(V−Bar)の各グラフ画像を含む。分類用のネットワーク22は、各種のグラフ画像のデータとグラフ種別のラベルとを学習データとして、予め学習させておく。
これらの分類された各グラフ画像は、後段の確率マップ生成用のネットワーク24に入力される。一方、分類用のネットワーク22は、解析されるべきグラフ画像以外の種別のグラフ画像(例えば、マップのグラフ等)、および写真等も、分類結果として出力するが、これらの分類結果は後段の確率マップ生成用のネットワーク24に入力されない。
FIG. 2 is a conceptual diagram illustrating an outline of the graph image analysis process executed by the graph image analysis device 1 according to the present embodiment.
In the present embodiment, as a first step, the graph image analysis device 1 extracts a graph image to be analyzed from the input data and classifies the extracted graph image into one of a plurality of graph types.
With reference to FIG. 2, the input data 21 is input to the classification network 22 composed of a neural network or the like, and the classification network 22 includes a classification result including graph images classified into any graph type. 23 is output. The classification result 23 output by the classification network 22 includes graph images of a line graph (Line), a pie graph (Pie), a horizontal bar graph (H-Bar), and a vertical bar graph (V-Bar). The classification network 22 is trained in advance using various graph image data and graph type labels as training data.
Each of these classified graph images is input to the network 24 for generating a probability map in the subsequent stage. On the other hand, the network 22 for classification also outputs graph images (for example, map graphs, etc.) of types other than the graph images to be analyzed, photographs, etc. as classification results, but these classification results are the probability of the latter stage. It is not input to the network 24 for map generation.

本実施形態において、グラフ画像解析装置1は、第2段階として、分類されたグラフ種別ごとに異なる種類の確率マップを生成し、生成された確率マップを用いて、グラフ画像からグラフ画像のコンポーネントを分離し、分離されたグラフ画像のコンポーネントでグラフをトレースするとともに、トレースされたグラフのコンポーネントに対応するグラフの値を抽出する。 In the present embodiment, as the second step, the graph image analysis device 1 generates a different type of probability map for each classified graph type, and uses the generated probability map to generate a component of the graph image from the graph image. Separate and trace the graph with the components of the separated graph image, and extract the values of the graph corresponding to the components of the traced graph.

図2を参照して、分類結果23、すなわち分類済みのグラフ画像のデータは、ニューラルネットワーク等で構成される確率マップ生成用ネットワーク24に入力され、確率マップ生成用のネットワーク24は、分類されたグラフ種別ごとに、確率マップ25a〜25dを出力する。
図2では、確率マップ生成用のネットワーク24が出力する確率マップは、線グラフの確率マップ25a、円グラフの確率マップ25b、横棒グラフの確率マップ25c、および縦棒グラフの確率マップ25dを含む。確率マップの構成の詳細については、図4〜図6を参照して後述する。
確率マップ生成用のネットワーク24は、分類済みのグラフ種別が付加されたグラフ画像のデータと、色、ボーダーライン、セグメンテーション、凡例、線種等のグラフ種別に応じたラベルとを学習データとして、予め学習させておく。
なお、分類用のネットワーク22および確率マップ生成用のネットワーク24は、CNN(Convolutional Neural Network)等のニューラルネットワークであってもよく、SVM(Support Vector Machine)等の他の機械学習モデルを用いてもよい。
With reference to FIG. 2, the classification result 23, that is, the data of the classified graph image is input to the probability map generation network 24 composed of a neural network or the like, and the probability map generation network 24 is classified. The probability maps 25a to 25d are output for each graph type.
In FIG. 2, the probability map output by the network 24 for generating the probability map includes the probability map 25a of the line graph, the probability map 25b of the pie chart, the probability map 25c of the horizontal bar graph, and the probability map 25d of the vertical bar graph. The details of the configuration of the probability map will be described later with reference to FIGS. 4 to 6.
The network 24 for generating a probability map uses graph image data to which a classified graph type is added and labels corresponding to graph types such as color, borderline, segmentation, legend, and line type as training data in advance. Let me learn.
The classification network 22 and the probability map generation network 24 may be a neural network such as CNN (Convolutional Neural Network), or may use another machine learning model such as SVM (Support Vector Machine). good.

図2の確率マップ25a〜25dでは、グラフ画像の主要なコンポーネントが出現する尤度が所定の閾値以上である画素が白抜きで表示されている。線グラフの確率マップ25aは、各線グラフのコンポーネントを分離する。円グラフの確率マップ25bは、円グラフの各パイスライスのコンポーネントを分離する。横棒グラフの確率マップ25cおよび縦棒グラフの確率マップ25dは、それぞれ、各バーセグメントのコンポーネントを分離する。 In the probability maps 25a to 25d of FIG. 2, the pixels whose likelihood of appearance of the main component of the graph image is equal to or higher than a predetermined threshold value are displayed in white. The line graph probability map 25a separates the components of each line graph. The pie chart probability map 25b separates the components of each pie slice in the pie chart. The probability map 25c of the horizontal bar graph and the probability map 25d of the vertical bar graph separate the components of each bar segment, respectively.

本実施形態では、これらのグラフ種別ごとに異なる種類の確率マップ25a〜25dを用いて、グラフ画像から各コンポーネントを分離して抽出する。図2を参照して、線グラフのグラフ画像に対して、線グラフの確率マップ25aを用いて、各線グラフのコンポーネント26aが抽出されて、トレースされている。円グラフのグラフ画像に対して、円グラフの確率マップ25bを用いて、各パイスライスのコンポーネント26bが抽出されて、トレースされている。横棒グラフおよび縦棒グラフのグラフ画像に対して、横棒グラフの確率マップ25cおよび縦棒グラフの確率マップ25dをそれぞれ用いて、各バーセグメントのコンポーネント26c、26dがそれぞれ抽出されて、トレースされている。 In the present embodiment, each component is separated and extracted from the graph image by using different types of probability maps 25a to 25d for each of these graph types. With reference to FIG. 2, for the graph image of the line graph, the component 26a of each line graph is extracted and traced using the probability map 25a of the line graph. For the graph image of the pie chart, the component 26b of each pie slice is extracted and traced using the probability map 25b of the pie chart. For the graph images of the horizontal bar graph and the vertical bar graph, the components 26c and 26d of each bar segment are extracted and traced using the probability map 25c of the horizontal bar graph and the probability map 25d of the vertical bar graph, respectively.

グラフ画像から抽出された各コンポーネント26a〜26dに対して、グラフの値が抽出される。具体的には、線グラフ、円グラフ、横棒グラフ、および縦棒グラフの各グラフ画像の座標軸のラベル、各コンポーネントのラベル、タイトル、凡例等の領域から、グラフ画像27a〜27d中の矩形領域で示されるように、テキストが検出されて、文字認識される。この文字認識の結果と、グラフ画像上で抽出された各コンポーネントの幾何学的配置に基づいて、グラフの値が生成される。トレースされたグラフの各コンポーネントに生成されたグラフの値が付加されて、デジタル化されたグラフのデータ28が出力される。 Graph values are extracted for each of the components 26a-26d extracted from the graph image. Specifically, the area of the coordinate axis label of each graph image of the line graph, pie chart, horizontal bar graph, and column graph, the label of each component, the title, the legend, etc. is shown by the rectangular area in the graph images 27a to 27d. The text is detected and the characters are recognized. Graph values are generated based on the result of this character recognition and the geometric arrangement of each component extracted on the graph image. The generated graph values are added to each component of the traced graph, and the digitized graph data 28 is output.

<グラフ画像解析処理の処理手順>
図3は、本実施形態に係るグラフ画像解析装置1が実行する、グラフ画像解析処理の処理手順の一例を示すフローチャートである。
なお、図3の各ステップは、グラフ画像解析装置1のHDD等の記憶装置に記憶されたプログラムをCPUが読み出し、実行することで実現される。また、図3に示すフローチャートの少なくとも一部をハードウエアにより実現してもよい。ハードウエアにより実現する場合、例えば、所定のコンパイラを用いることで、各ステップを実現するためのプログラムからFPGA(Field Programmable Gate Array)上に自動的に専用回路を生成すればよい。また、FPGAと同様にしてGate Array回路を形成し、ハードウエアとして実現するようにしてもよい。また、ASIC(Application Specific Integrated Circuit)により実現するようにしてもよい。
<Processing procedure for graph image analysis processing>
FIG. 3 is a flowchart showing an example of a processing procedure of the graph image analysis process executed by the graph image analysis device 1 according to the present embodiment.
Each step in FIG. 3 is realized by the CPU reading and executing a program stored in a storage device such as an HDD of the graph image analysis device 1. Further, at least a part of the flowchart shown in FIG. 3 may be realized by hardware. When it is realized by hardware, for example, by using a predetermined compiler, a dedicated circuit may be automatically generated on FPGA (Field Programmable Gate Array) from a program for realizing each step. Further, a Gate Array circuit may be formed in the same manner as the FPGA and realized as hardware. Further, it may be realized by ASIC (Application Specific Integrated Circuit).

S1で、グラフ画像解析装置1のデータ取得部11は、入力データセット3から、グラフ画像を含む入力データを取得する。
S2で、グラフ画像解析装置1のグラフ分類部12は、分類用のネットワーク22を用いて、入力データから、解析すべきグラフ画像を抽出し、抽出されたグラフ画像を、解析対象の複数のグラフ種別のいずれかに分類する。
In S1, the data acquisition unit 11 of the graph image analysis device 1 acquires the input data including the graph image from the input data set 3.
In S2, the graph classification unit 12 of the graph image analysis device 1 extracts the graph image to be analyzed from the input data using the classification network 22, and the extracted graph image is used as a plurality of graphs to be analyzed. Classify into one of the types.

S3で、グラフ画像解析装置1の確率マップ生成部13は、確率マップ生成用のネットワーク24を用いて、分類されたグラフ画像から各コンポーネントを抽出するための確率マップを、グラフ種別ごとに生成する。
確率マップ生成用のネットワーク24は、解析すべきグラフ種別ごとに異なる学習データで学習済みの学習モデルとして形成されているが、ネットワークの出力チャネルのみ、グラフ種別ごとに異なればよく、出力チャネル以外のネットワークは共通化された構造を有してよい。これにより、確率マップ生成用のネットワーク24の汎用性が向上する。
In S3, the probability map generation unit 13 of the graph image analysis device 1 uses the network 24 for generating the probability map to generate a probability map for extracting each component from the classified graph images for each graph type. ..
The network 24 for generating a probability map is formed as a learning model that has been trained with different training data for each graph type to be analyzed, but only the output channel of the network needs to be different for each graph type, other than the output channel. The network may have a common structure. This improves the versatility of the network 24 for generating the probability map.

図4は、縦棒グラフのグラフ画像から各コンポーネントを抽出する確率マップを生成する、確率マップ生成用のネットワーク24の出力チャネルの一例を示す図である。
図4(a)に示す縦棒グラフのグラフ画像を入力データとした場合、確率マップ生成用のネットワーク24は、図4(b)に示すバーセグメントを彩色する色(主要色)の出力チャネルと、図4(c)に示す各バーセグメントを区分するセグメンテーションの出力チャネルと、図4(d)に示す各バーセグメントの境界を画定するボーダーラインの出力チャネルと、および図4(e)に示す凡例の出力チャネルとをそれぞれ備える。確率マップ生成部13は、これら図4(b)〜図4(e)にそれぞれ対応する複数種類の確率マップを生成する。
FIG. 4 is a diagram showing an example of an output channel of the network 24 for generating a probability map, which generates a probability map for extracting each component from the graph image of the column graph.
When the graph image of the vertical bar graph shown in FIG. 4A is used as input data, the network 24 for generating a probability map has an output channel of a color (main color) for coloring the bar segment shown in FIG. 4B. The segmentation output channel that separates each bar segment shown in FIG. 4 (c), the borderline output channel that defines the boundary of each bar segment shown in FIG. 4 (d), and the legend shown in FIG. 4 (e). Each has an output channel of. The probability map generation unit 13 generates a plurality of types of probability maps corresponding to FIGS. 4 (b) to 4 (e).

図5は、円グラフのグラフ画像から各コンポーネントを抽出する確率マップを生成する、確率マップ生成用のネットワーク24の出力チャネルの一例を示す図である。
図5(a)に示す円グラフのグラフ画像を入力データとした場合、確率マップ生成用のネットワーク24は、図5(b)に示すパイスライスを彩色する色(主要色)の出力チャネルと、図5(c)に示す各パイスライスを区分するセグメンテーションの出力チャネルと、図5(dIに示す各パイスライスの境界を画定するボーダーラインの出力チャネルと、および図5(e)に示す凡例の出力チャネルとをそれぞれ備える。確率マップ生成部13は、これら図5(b)〜図5(e)にそれぞれ対応する複数種類の確率マップを生成する。
FIG. 5 is a diagram showing an example of an output channel of the network 24 for generating a probability map, which generates a probability map for extracting each component from a graph image of a pie chart.
When the graph image of the pie chart shown in FIG. 5 (a) is used as the input data, the network 24 for generating the probability map has the output channel of the color (main color) for coloring the pie slice shown in FIG. 5 (b). The segmentation output channel that separates each pie slice shown in FIG. 5 (c), the borderline output channel that defines the boundary of each pie slice shown in dI, and the legend shown in FIG. 5 (e). Each includes an output channel. The probability map generation unit 13 generates a plurality of types of probability maps corresponding to FIGS. 5 (b) to 5 (e).

一方、図6は、線グラフのグラフ画像から各コンポーネントを抽出する確率マップを生成する、確率マップ生成用のネットワーク24の出力チャネルの一例を示す図である。
図6(a)に示す線グラフのグラフ画像を入力データとした場合、確率マップ生成用のネットワーク24は、線種ごとに、図6(b)に示す実線の線グラフの出力チャネルと、図6(c)に示す点線の線グラフの出力チャネルと、図6(d)に示す破線の線グラフの出力チャネルと、図6(e)に示す一点鎖線の線グラフの出力チャネルと、および図6(f)に示す凡例の出力チャネルとをそれぞれ備える。確率マップ生成部13は、これら図6(b)〜図6(f)にそれぞれ対応する複数種類の確率マップを生成する。
On the other hand, FIG. 6 is a diagram showing an example of an output channel of the network 24 for generating a probability map, which generates a probability map for extracting each component from the graph image of the line graph.
When the graph image of the line graph shown in FIG. 6 (a) is used as input data, the network 24 for generating the probability map has the output channel of the solid line graph shown in FIG. 6 (b) and the figure for each line type. The output channel of the dotted line graph shown in 6 (c), the output channel of the broken line line graph shown in FIG. 6 (d), the output channel of the alternate long and short dash line graph shown in FIG. 6 (e), and the figure. Each of the output channels of the legend shown in 6 (f) is provided. The probability map generation unit 13 generates a plurality of types of probability maps corresponding to FIGS. 6 (b) to 6 (f).

なお、図4〜図6に示す確率マップ生成用のネットワーク24の出力チャネル(確率マップ)の構成は一例であって、本実施形態はこれに限定されない。例えば、グラフ画像から凡例を抽出するための図4(e)、図5(e)、および図6(f)に示す出力チャネル(確率マップ)は、凡例の領域をマスクして、グラフ画像からグラフが描画されている領域を画定するために使用されてよいが、必ずしも生成されなくてもよい。確率マップ生成部13は、グラフのコンポーネントのトレースを容易化するよう、グラフ種別に応じて、異なる複数種類の確率マップを生成してよい。 The configuration of the output channel (probability map) of the network 24 for generating the probability map shown in FIGS. 4 to 6 is an example, and the present embodiment is not limited to this. For example, the output channels (probability maps) shown in FIGS. 4 (e), 5 (e), and 6 (f) for extracting a legend from a graph image mask the area of the legend and are used from the graph image. It may be used to define the area where the graph is drawn, but it does not necessarily have to be generated. The probability map generation unit 13 may generate a plurality of different types of probability maps according to the graph type so as to facilitate tracing of the components of the graph.

図3に戻り、グラフ画像解析装置1のコンポーネント抽出部14は、S3でそれぞれのグラフ種別に対応して生成された確率マップを用いて、グラフ画像からグラフの各コンポーネントを推定し、推定されたグラフコンポーネントをトレースする。
コンポーネント抽出部14は、グラフ種別ごとに異なる手法で、グラフ画像からグラフの各コンポーネントを推定してよい。これらグラフのコンポーネント抽出処理の詳細は、図7〜図11を参照して後述する。
Returning to FIG. 3, the component extraction unit 14 of the graph image analysis device 1 estimated each component of the graph from the graph image using the probability map generated corresponding to each graph type in S3, and estimated. Trace the graph component.
The component extraction unit 14 may estimate each component of the graph from the graph image by a method different for each graph type. Details of the component extraction process of these graphs will be described later with reference to FIGS. 7 to 11.

本実施形態では、グラフ画像からグラフのコンポーネントを推定する際に、グラフ種別ごとに設けられた確率マップを用いる。グラフ種別ごとに設けられた確率マップを用いることで、グラフ画像上の画素単位で、各コンポーネントが出現する確率を取得することができ、各コンポーネントの領域の推定が容易化される。
このため、例えば、グラフ画像がアーチファクト、ノイズやグラデーションを含む場合、グラフのコンポーネント同士が交差またはオーバーラップする場合や他のコンポーネントと離隔する場合、高圧縮され解像度が低い場合、グラフコンポーネントの境界が明瞭でない場合等であっても、グラフ画像から高精度にグラフの各コンポーネントを推定することができる。
In this embodiment, when estimating the components of the graph from the graph image, the probability map provided for each graph type is used. By using the probability map provided for each graph type, the probability that each component appears can be obtained for each pixel on the graph image, and the estimation of the area of each component is facilitated.
So, for example, if the graph image contains artifacts, noise or gradients, if the components of the graph intersect or overlap or are separated from other components, if they are highly compressed and the resolution is low, then the boundaries of the graph components will be. Even if it is not clear, each component of the graph can be estimated with high accuracy from the graph image.

S5で、グラフ画像解析装置1の値抽出部15は、S4で推定されたグラフの各コンポーネントに対応するグラフの値を抽出する。
値抽出部15は、円グラフのグラフ画像について、S4で取得されたパイスライスのセグメント(コンポーネント)の面積、およびグラフの軸やコンポーネントにラベル付けされたテキストの文字認識結果に基づいて、円グラフの値を抽出する。
値抽出部15はまた、棒グラフおよび線グラフのグラフ画像について、棒グラフや線グラフのコンポーネントの画素座標と、グラフの軸やコンポーネントにラベル付けされたテキストの文字認識結果との間の関連を幾何学的配置に基づいて判定することにより、グラフの各コンポーネントの値を抽出する。
In S5, the value extraction unit 15 of the graph image analysis device 1 extracts the value of the graph corresponding to each component of the graph estimated in S4.
The value extraction unit 15 describes the pie chart graph image based on the area of the pie slice segment (component) acquired in S4 and the character recognition result of the text labeled on the axis of the graph and the component. Extract the value of.
The value extraction unit 15 also geometrically relates the graph image of the bar graph and the line graph to the pixel coordinates of the components of the bar graph and the line graph and the character recognition result of the text labeled on the axis and the component of the graph. The value of each component of the graph is extracted by making a judgment based on the geometry.

より具体的には、値抽出部15は、まず、グラフ画像全体をOCR(Optical Character Recognition)により読み取って、テキストを検出し、検出されたテキストのテキストボックスを、縦軸および横軸のいずれかにグルーピングする。テキストボックスはまた、凡例またはタイトルにグルーピングされてもよい。
値抽出部15は、次に、棒グラフおよび線グラフにつき、テキストとして数字を含むテキストボックスの位置から、縦および横の座標軸のスケールを決定する。
決定された座標軸のスケールを適用して、値抽出部15は、グラフの各コンポーネントの座標を、グラフの値に変換する。
More specifically, the value extraction unit 15 first reads the entire graph image by OCR (Optical Character Recognition), detects the text, and displays the text box of the detected text on either the vertical axis or the horizontal axis. Group to. Text boxes may also be grouped into legends or titles.
The value extraction unit 15 then determines the scale of the vertical and horizontal coordinate axes for the bar graph and the line graph from the position of the text box containing the numbers as text.
Applying the scale of the determined coordinate axes, the value extraction unit 15 converts the coordinates of each component of the graph into the values of the graph.

具体的には、値抽出部15は、線グラフの各線のコンポーネント上のすべての点の画素座標を、グラフの値に変換する。値抽出部15はまた、棒グラフの各バーセグメントのコンポーネントの頂点Y座標(縦座標)および右端X座標(横座標)を、グラフの値に変換する。
一方、円グラフについて、値抽出部15は、円グラフの各パイスライスのコンポーネントの面積比に基づいて、グラフの値を生成する。
Specifically, the value extraction unit 15 converts the pixel coordinates of all the points on the component of each line of the line graph into the values of the graph. The value extraction unit 15 also converts the vertex Y coordinate (vertical coordinate) and the right end X coordinate (abscissa) of the component of each bar segment of the bar graph into the graph value.
On the other hand, for a pie chart, the value extraction unit 15 generates graph values based on the area ratio of the components of each pie slice in the pie chart.

S6で、グラフ画像解析装置1の出力部16は、コンポーネント抽出部14により抽出され、トレースされたグラフのコンポーネントに、値抽出部15により抽出されたグラフの値および座標軸のスケールの情報等を付加して、グラフのデジタルデータとして、出力データセット4に出力する。 In S6, the output unit 16 of the graph image analysis device 1 adds information such as graph values and coordinate axis scale information extracted by the value extraction unit 15 to the traced graph components extracted by the component extraction unit 14. Then, it is output to the output data set 4 as the digital data of the graph.

(第1のグラフコンポーネント抽出処理)
図7は、グラフ画像解析装置1のコンポーネント抽出部14が棒グラフおよび円グラフについて実行する図3のS4のコンポーネント抽出(グラフトレース)処理の詳細処理手順の一例を示すフローチャートである。
S401で、コンポーネント抽出部14は、グラフ画像中の凡例の領域をマスクする。コンポーネント抽出部14は、図3のS3で生成された凡例の確率マップを用いて、グラフ画像から凡例の領域を検出し、検出された凡例の領域を、図3のS3で生成されたセグメンテーションの確率マップ上でマスクしてよい。これにより、グラフ画像中で、グラフのコンポーネントが存在する領域と、凡例の領域とを区分することができる。
(First graph component extraction process)
FIG. 7 is a flowchart showing an example of a detailed processing procedure of the component extraction (graph trace) process of S4 of FIG. 3 executed by the component extraction unit 14 of the graph image analysis device 1 for a bar graph and a pie chart.
In S401, the component extraction unit 14 masks the legend area in the graph image. The component extraction unit 14 detects the legend area from the graph image using the probability map of the legend generated in S3 of FIG. 3, and the detected legend area is the segmentation generated in S3 of FIG. You may mask it on the probability map. This makes it possible to distinguish between the area where the graph component exists and the area of the legend in the graph image.

S402で、コンポーネント抽出部14は、グラフ画像の各コンポーネントのボーダーラインを画定する。具体的には、コンポーネント抽出部14は、図3のS3で生成されたボーダーラインの確率マップを用いて、ボーダーラインを画定し、グラフ画像のセグメンテーションの確率マップから、ボーラーラインを除去する。
S403で、コンポーネント抽出部14は、棒グラフおよび円グラフのコンポーネントを抽出するため、CCA(Connected Component Analysis)を適用して、グラフ画像中の隣接する画素を連結する。
CCAは、RGB色空間で同様の色を持つ隣接する画素をグルーピングすることで、画素を連結してコンポーネントを抽出することができる。
In S402, the component extraction unit 14 defines a borderline for each component in the graph image. Specifically, the component extraction unit 14 defines the borderline using the borderline probability map generated in S3 of FIG. 3, and removes the borer line from the segmentation probability map of the graph image.
In S403, the component extraction unit 14 applies CCA (Connected Component Analysis) to extract components of a bar graph and a pie chart, and connects adjacent pixels in the graph image.
CCA can connect pixels and extract components by grouping adjacent pixels with similar colors in the RGB color space.

S404で、コンポーネント抽出部14は、S402でボーダーラインが除去されたセグメンテーションの確率マップおよび色の確率マップを用い、S403でCCAを適用して連結された連結コンポーネントを、グラフ画像のグラフのコンポーネントとして抽出し、グラフのコンポーネントをトレースする。
コンポーネント抽出部14はさらに、画素が連結されて構成される連結コンポーネントのうち、グラフ種別ごとのセグメンテーションの確率マップから推定されるコンポーネントの形状から外れるコンポーネントを破棄してよい。
例えば、棒グラフであれば、矩形形状でない連結コンポーネントは破棄され、円グラフであれば、パイスライス形状でない連結コンポーネントは破棄されてよい。
In S404, the component extraction unit 14 uses the segmentation probability map and the color probability map from which the border line has been removed in S402, and applies CCA in S403 to concatenate the concatenated components as the components of the graph of the graph image. Extract and trace the components of the graph.
Further, the component extraction unit 14 may discard a component that deviates from the shape of the component estimated from the segmentation probability map for each graph type among the connected components configured by connecting the pixels.
For example, in the case of a bar graph, the non-rectangular concatenated component may be discarded, and in the case of a pie chart, the non-pie slice concatenated component may be discarded.

S405で、コンポーネント抽出部14は、S404で抽出されたコンポーネントを必要に応じて補正する。
S403およびS404では、隣接する画素を、互いに同様の色を持つ場合に連結するので、例えば、グラフのコンポーネントが、単色ではなく、色のグラデーションやテクスチャを有する場合や、3D効果が付与されている場合等に、本来は連結されるべき画素が連結されないおそれがある。
本実施形態では、図3のS3で生成された色(主要色)の確率マップやセグメンテーションの確率マップを用いるので、確率マップから推定されるグラフのコンポーネントの色彩や形状に基づいて、S404で抽出されたグラフのコンポーネントを補正することができる。
In S405, the component extraction unit 14 corrects the components extracted in S404 as necessary.
In S403 and S404, adjacent pixels are connected when they have similar colors to each other. Therefore, for example, when the component of the graph has a color gradation or texture instead of a single color, or a 3D effect is given. In some cases, the pixels that should be connected may not be connected.
In this embodiment, since the probability map of the color (main color) generated in S3 of FIG. 3 and the probability map of segmentation are used, the color and shape of the components of the graph estimated from the probability map are extracted in S404. It is possible to correct the components of the graph.

図8は、グラフ画像解析装置1のコンポーネント抽出部14が、棒グラフの確率マップを使用して棒グラフ画像から棒グラフのコンポーネントを抽出する一例を説明する図である。
図8を参照して、横棒グラフは、Y座標軸に年を、X座標軸に石油生産量を表示しており、各年の石油生産量が1つのバーセグメントを構成しており、1つのバーセグメントがさらに、リージョンA〜Fおよび他のリージョンの各サブセグメントにブレークダウンされている。
コンポーネント抽出部14が、棒グラフについてのコンポーネント抽出処理を実行することにより、6つのバーセグメントのそれぞれのサブセグメントが、太枠で囲まれていることから理解されるように、コンポーネントとして抽出されている。
FIG. 8 is a diagram illustrating an example in which the component extraction unit 14 of the graph image analysis device 1 extracts a bar graph component from a bar graph image using a bar graph probability map.
With reference to FIG. 8, the horizontal bar graph displays the year on the Y coordinate axis and the oil production on the X coordinate axis, and each year's oil production constitutes one bar segment and one bar segment. Is further broken down into each subsegment of regions A to F and other regions.
By executing the component extraction process for the bar graph, the component extraction unit 14 extracts each of the six bar segments as a component, as can be understood from the fact that each subsegment is surrounded by a thick frame. ..

例えば、図7のS401〜S404までの処理を実行した段階で、図8中のある年のバーセグメントの一部が、それぞれのリージョンのサブセグメントに区分されていないものとする。本実施形態では、図7のS405の補正処理を実行することにより、色の確率マップおよびセグメンテーションの確率マップを用いて、色が相互に類似するため分離するのが困難な複数のコンポーネントをそれぞれ別個に抽出することができる。 For example, it is assumed that a part of the bar segment of a certain year in FIG. 8 is not divided into subsegments of each region at the stage where the processes of S401 to S404 of FIG. 7 are executed. In the present embodiment, by executing the correction process of S405 of FIG. 7, a plurality of components that are difficult to separate due to their similarities in color are separated from each other by using the color probability map and the segmentation probability map. Can be extracted to.

(第2のグラフコンポーネント抽出処理)
図9は、グラフ画像解析装置1のコンポーネント抽出部14が線グラフについて実行する図3のS4のコンポーネント抽出(グラフトレース)処理の詳細処理手順の一例を示すフローチャートである。
S411で、グラフ画像解析装置1のコンポーネント抽出部14は、線グラフの存在範囲を算出する。
(Second graph component extraction process)
FIG. 9 is a flowchart showing an example of a detailed processing procedure of the component extraction (graph trace) process of S4 of FIG. 3 executed by the component extraction unit 14 of the graph image analysis device 1 for the line graph.
In S411, the component extraction unit 14 of the graph image analysis device 1 calculates the existence range of the line graph.

具体的には、コンポーネント抽出部14は、線グラフが存在するX座標範囲を取得することにより、線グラフの始点と終点とを検出する。S411では、コンポーネント抽出部14は、図3のS3で生成された複数の線種の確率マップ(図6(b)〜図6(e)では4種類の線種)を各画素位置について平均して、線確率(Line Probability)マップを予め算出しているものとする。
コンポーネント抽出部14は、Y座標軸方向に沿って存在確率の和を算出することにより、各X座標軸におけるスタックされた線の存在確率を算出する。次に、X座標軸上の線の存在分布を取得するため、コンポーネント抽出部14は、閾値θthを使用してスタックされた線の存在確率を二値化する。こうして、線グラフの存在範囲は、線の存在分布のクラスタの、X座標軸上の最小値および最大値として取得される。このように、本実施形態では、凡例の領域を参照して線グラフの存在範囲を画定する必要がなく、線グラフの存在範囲外に凡例を含まない線グラフのグラフ画像であっても、線グラフをトレースすることができる。
Specifically, the component extraction unit 14 detects the start point and the end point of the line graph by acquiring the X coordinate range in which the line graph exists. In S411, the component extraction unit 14 averages the probability maps of the plurality of line types generated in S3 of FIG. 3 (four types of line types in FIGS. 6 (b) to 6 (e)) for each pixel position. It is assumed that the line probability map has been calculated in advance.
The component extraction unit 14 calculates the existence probability of the stacked lines in each X coordinate axis by calculating the sum of the existence probabilities along the Y coordinate axis direction. Next, in order to acquire the existence distribution of the lines on the X coordinate axis, the component extraction unit 14 binarizes the existence probabilities of the stacked lines using the threshold value θ th. In this way, the existence range of the line graph is acquired as the minimum and maximum values on the X coordinate axis of the cluster of the existence distribution of the line. As described above, in the present embodiment, it is not necessary to define the existence range of the line graph by referring to the area of the legend, and even if the graph image of the line graph does not include the legend outside the existence range of the line graph, the line You can trace the graph.

S412で、コンポーネント抽出部14は、線グラフの数をカウントする。
具体的には、コンポーネント抽出部14は、閾値pthを使用して線確率マップを二値化し、二値化された線確率マップを、各X座標位置で、Y座標軸に沿って走査することにより、X座標軸上の画素クラスタの数をカウントする。こうして、線グラフの数は、X座標軸上の画素クラスタの数として取得される。
In S412, the component extraction unit 14 counts the number of line graphs.
Specifically, the component extracting unit 14 binarizes the line probability map using the threshold value p th, lines probability map that is binarized in the X-coordinate position, by scanning along the Y coordinate axis Counts the number of pixel clusters on the X coordinate axis. Thus, the number of line graphs is acquired as the number of pixel clusters on the X coordinate axis.

S413で、コンポーネント抽出部14は、動的計画法(Dynamic Programming:DP)を適用して、隣接画素のコストを算出していく。
S414で、コンポーネント抽出部14は、S413でコストが最小となる画素上に線をトレースする。
In S413, the component extraction unit 14 applies a dynamic programming method (DP) to calculate the cost of adjacent pixels.
In S414, the component extraction unit 14 traces a line on the pixel with the lowest cost in S413.

隣接する画素をRGB色空間上の色に基づき連結するCCAは、ドットで線を描画する線グラフには適用が困難である。本実施形態は、動的計画法(Dynamic Programming)を用いて、線グラフをトレースする。
動的計画法(DP)とは、対象となる問題を複数の部分問題に分割し、部分問題の計算結果を記録しながら解いていくアルゴリズムである。
本実施形態では、動的計画法を適用して、線グラフの存在範囲内の各画素のコストを算出していく。途中の計算結果を再利用することで、計算の繰り返しを回避し、計算効率を向上させることができる。
CCA, which connects adjacent pixels based on the color in the RGB color space, is difficult to apply to a line graph that draws a line with dots. In this embodiment, a line graph is traced using a dynamic programming method.
Dynamic programming (DP) is an algorithm that divides a target problem into a plurality of subproblems and solves them while recording the calculation results of the subproblems.
In this embodiment, the dynamic programming method is applied to calculate the cost of each pixel within the existence range of the line graph. By reusing the calculation result in the middle, it is possible to avoid the repetition of the calculation and improve the calculation efficiency.

コンポーネント抽出部14は、S411で算出された線グラフの存在範囲と、S412でカウント線グラフの数を使用して、検出された線グラフの始点から終点までX軸に沿って、動的計画法により線グラフをトレースしていく。
具体的には、コンポーネント抽出部14は、テーブルWを使用して、トレースされる線上の点(画素)のトータルコストを保持していく。テーブルWは、座標x=(x,y)の各値を保持する。
Wの値は、以下の式1により算出される。
The component extraction unit 14 uses the existence range of the line graph calculated in S411 and the number of count line graphs in S412 to perform dynamic programming along the X-axis from the start point to the end point of the detected line graph. Trace the line graph with.
Specifically, the component extraction unit 14 uses the table W to hold the total cost of the points (pixels) on the traced line. The table W holds each value of the coordinates x = (x, y).
The value of W is calculated by the following equation 1.

Figure 0006968241
(式1)
Figure 0006968241
(Equation 1)

ここで、xは、画素座標をX=(i,j)として表す。xprevは、xのx座標上直前の画素(直前にトレースした最終点)である。
prevは、直前の画素i−1までのx座標の画素群であり、以下の式2で表す。
Here, x represents the pixel coordinates as X = (i, j). xprev is the immediately preceding pixel (the final point traced immediately before) on the x coordinate of x.
X- prev is a pixel group of x-coordinates up to the immediately preceding pixel i-1, and is represented by the following equation 2.

Figure 0006968241
(式2)
Figure 0006968241
(Equation 2)

xがどのトレースされる線に属するかを決定するため、コンポーネント抽出部14は、動的計画法により、式2のXprevから、式1においてコスト関数の値を最小化する最良のものを見出す。 In order to determine which traced line x belongs to, the component extractor 14 finds the best from the X rev of Equation 2 that minimizes the value of the cost function in Equation 1 by dynamic programming. ..

本実施形態では、複数の評価関数、例えば、式1に示されるように、5つの評価関数として、Ecolor、Epattern、Esmooth、Eprob、およびEduplを使用して、これらの評価関数で評価されるコストが最小になるよう、各点(画素)のコストを算出する。
評価関数Ecolorは、トレースされる線の色における一貫性を維持する色の関数である。動的計画法で、xprevが属するトレースされた線の情報を保持しているので、この線の情報から、xprevの平均の線色を算出することができる。Ecolorは、平均の線色とxの画素色との色差により算出される。
In the present embodiment, a plurality of evaluation functions, for example, as shown in equation 1, as five of the evaluation function, E color, E pattern, E smooth, E prob, and using E DUPL, these evaluation functions Calculate the cost of each point (pixel) so that the cost evaluated in is minimized.
The evaluation function Ecolor is a color function that maintains consistency in the color of the traced line. Since the information of the traced line to which xprev belongs is held by the dynamic programming method, the average line color of xprev can be calculated from the information of this line. E color is calculated by the color difference between the average line color and the pixel color of x.

評価関数Epatternは、トレースされる線の線種(線パターン)における一貫性を維持する線種の関数である。評価関数Epatternは、評価関数Ecolorと同様、xprevの平均の線種とxの線種との間の差により算出される。
評価関数Esmoothは、トレースされる線の隣接する画素同士を、過度に急峻な傾きなしに平滑に連結するための線の平滑性の関数である。評価関数Esmoothは、xprevの傾きとxの傾きの絶対差により算出される。
The evaluation function E pattern is a function of a line type that maintains consistency in the line type (line pattern) of the traced line. The evaluation function E pattern is calculated by the difference between the average line type of xprev and the line type of x, as in the evaluation function E color.
The evaluation function E smooth is a function of line smoothness for smoothly connecting pixels adjacent to each other of traced lines without an excessively steep slope. Evaluation function E smooth smooth is calculated by the absolute difference of the slope of xprev slope and x.

評価関数Eprobは、トレースされる線を、高い存在確率の値を持つ画素に沿って繋げるための存在確率の関数である。評価関数Eprobは、複数の線種の存在確率の平均値(mean value)により算出される。
評価関数Eduplは、同一の画素上に複数の線がトレースされた場合にペナルティを与える重複の関数である。xがすでに他の線でトレースされている場合、評価関数Eduplは1を返し、それ以外の場合は0を返す。
λ1〜λ5は、各評価関数の重み付け係数である。
The evaluation function E prob is a function of existence probability for connecting traced lines along a pixel having a high existence probability value. The evaluation function E prob is calculated by the average value (mean value) of the existence probabilities of a plurality of line types.
The evaluation function E double is a function of duplication that gives a penalty when a plurality of lines are traced on the same pixel. If x has already been traced on another line, the merit function E double returns 1, otherwise it returns 0.
λ1 to λ5 are weighting coefficients of each evaluation function.

コンポーネント抽出部14は、上記のように複数の評価関数を用いて、検出された線グラフの始点から終点までのX座標の各点において、次のトレースすべき点(画素)として、最小のコストの点(画素)を順に決定していく。
本実施形態では、例えば、線種の評価関数Epatternや、存在確率の評価関数Eprob等で、図3のS3で生成された線グラフの確率マップ(図6(b)〜図6(e)では4種類の線種の確率マップ)を参照してよい。例えば、4つの線種のいずれにも当てはまらない点(画素)は、トレースしないと判断することができる。
このように、本実施形態では、動的計画法により、線グラフの確率マップ、および線グラフの線種や色の一貫性、線の平滑性等の線グラフの属性を考慮した評価関数を用いて、グラフ画像中の凡例の情報に依ることなく、高精度かつより少ない計算負荷で、線グラフをトレースしていうことができる。
あるいは、コンポーネント抽出部14は、上記の評価関数を用いた動的計画法や確率マップを用いることなく、検出された線グラフの始点と終点との間における、線グラフの線種や色の一貫性、線の平滑性等の線グラフの属性に基づいて、グラフ画像に含まれる線グラフをトレースしてもよい。
The component extraction unit 14 uses a plurality of evaluation functions as described above, and at each point of the X coordinate from the start point to the end point of the detected line graph, the minimum cost as the next point (pixel) to be traced. Points (pixels) are determined in order.
In the present embodiment, for example, the probability map of the line graph generated in S3 of FIG. 3 by the evaluation function E pattern of the line type, the evaluation function E prob of the existence probability, etc. (FIGS. 6 (b) to 6 (e). ) May refer to the probability map of four types of line types). For example, it can be determined that a point (pixel) that does not fit into any of the four line types is not traced.
As described above, in the present embodiment, the evaluation function considering the probability map of the line graph and the attributes of the line graph such as the line type and color consistency of the line graph and the smoothness of the line is used by the dynamic programming method. Therefore, the line graph can be traced with high accuracy and less computational load without relying on the legend information in the graph image.
Alternatively, the component extraction unit 14 does not use the dynamic programming method using the above evaluation function or the probability map, and the line type and color of the line graph are consistent between the start point and the end point of the detected line graph. The line graph included in the graph image may be traced based on the attributes of the line graph such as sex and line smoothness.

S415で、コンポーネント抽出部14は、トレースされた線グラフが、S411で検出された終点に到達したか否かを判定する。トレースされた線グラフが終点に到達しない間(S415:N)、S413に戻り、コンポーネント抽出部14は、S413およびS414の処理を繰り返す。一方、トレースされた線グラフが終点に到達した場合(S415:Y)、S416に進む。
S416で、コンポーネント抽出部14は、トレースされた線グラフのそれぞれを、線グラフのコンポーネントとして抽出して、S5に進む。
In S415, the component extraction unit 14 determines whether or not the traced line graph has reached the end point detected in S411. While the traced line graph does not reach the end point (S415: N), it returns to S413, and the component extraction unit 14 repeats the processes of S413 and S414. On the other hand, when the traced line graph reaches the end point (S415: Y), the process proceeds to S416.
In S416, the component extraction unit 14 extracts each of the traced line graphs as a component of the line graph, and proceeds to S5.

図10は、グラフ画像解析装置1のコンポーネント抽出部14が線グラフの確率マップを使用して線グラフ画像からトレースした線グラフの一例を説明する図である。
図10を参照して、凡例Aの線グラフは実線で、凡例Bの線グラフは破線で、凡例Cの線グラフは一点鎖線で、それぞれトレースされている。それぞれの凡例A〜Cは互いに交差する2つの線グラフを含み、太線グラフは各年の値をプロットしたもので急峻な波形を有し、細線グラフは複数年の移動平均を示すもので平滑な波形を有する。
FIG. 10 is a diagram illustrating an example of a line graph traced from a line graph image by the component extraction unit 14 of the graph image analysis device 1 using a probability map of the line graph.
With reference to FIG. 10, the line graph of the legend A is a solid line, the line graph of the legend B is a broken line, and the line graph of the legend C is a dashed line. Each legend A to C contains two line graphs that intersect each other, the thick line graph plots the values for each year and has a steep waveform, and the thin line graph shows the moving average for multiple years and is smooth. Has a waveform.

図10に示されるように、例えば、2つの線グラフが交差する場合、本実施形態では、交差点からいずれの方向に線をトレースしていくかを、線の平滑性の評価関数Esmoothを用いて評価するので、たとえ色や線種が相互に同一であったとしても、太線グラフと交差する細線グラフを、太線グラフから峻別して、正確にトレースしていくことができる。 As shown in FIG. 10, for example, when two line graphs intersect, in the present embodiment, the line smoothness evaluation function E smartphone is used to determine in which direction the line is traced from the intersection. Therefore, even if the colors and line types are the same as each other, the thin line graph that intersects with the thick line graph can be distinguished from the thick line graph and traced accurately.

図11は、グラフ画像解析装置1の値抽出部15が線グラフ画像からグラフの値を抽出(生成)する一例を説明する図である。
図11を参照して、グラフ画像をスキャンすることにより検出されたテキストボックスが矩形領域で示されている。値抽出部15は、グラフ画像全体を走査するので、図11では、X座標軸およびY座標軸のラベルの他、線グラフの描画領域で線グラフに付与されたラベルが、テキストボックスとして検出されている。本実施形態において、値抽出部15は、検出したテキストボックスのテキストを認識して、数値が認識された場合、認識された数値からグラフのスケールを算出して、各ラベルに対応するグラフの値を生成する。
FIG. 11 is a diagram illustrating an example in which the value extraction unit 15 of the graph image analysis device 1 extracts (generates) graph values from a line graph image.
With reference to FIG. 11, the text box detected by scanning the graph image is shown in a rectangular area. Since the value extraction unit 15 scans the entire graph image, in FIG. 11, in addition to the labels of the X-axis axis and the Y-axis axis, the label given to the line graph in the drawing area of the line graph is detected as a text box. .. In the present embodiment, the value extraction unit 15 recognizes the text in the detected text box, and when a numerical value is recognized, calculates the scale of the graph from the recognized numerical value, and the value of the graph corresponding to each label. To generate.

以上説明したように、本実施形態によれば、グラフ画像解析装置は、グラフ画像をグラフ種別ごとに分類し、分類されたグラフ種別ごとに異なるグラフ画像の確率マップを算出し、算出された確率マップに基づいて、グラフ画像中のコンポーネントを抽出して、抽出されたコンポーネントのグラフをトレースする。グラフ画像解析装置はさらに、抽出されたグラフ画像のコンポーネントの値を抽出し、トレースされたグラフに、抽出されたコンポーネントの値を付加して出力する。 As described above, according to the present embodiment, the graph image analysis device classifies graph images by graph type, calculates a probability map of different graph images for each classified graph type, and calculates the probability. Based on the map, extract the components in the graph image and trace the graph of the extracted components. The graph image analysis device further extracts the values of the components of the extracted graph image, adds the values of the extracted components to the traced graph, and outputs the values.

分類されたグラフ種別ごとに異なる確率マップを算出し、算出された確率マップ用いて、グラフ画像からグラフの各コンポーネントを汎用的かつ効果的に分離することができる。
したがって、より多様なグラフの画像を解析することが可能となり、ウェブ上などに多数散在するグラフ画像の可用性が向上する。
A different probability map can be calculated for each classified graph type, and each component of the graph can be generically and effectively separated from the graph image by using the calculated probability map.
Therefore, it becomes possible to analyze a wider variety of graph images, and the availability of a large number of graph images scattered on the Web or the like is improved.

<グラフ画像解析装置のハードウエア構成>
図12は、本実施形態に係るグラフ画像解析装置1のハードウエア構成の非限定的一例を示す図である。
本実施形態に係るグラフ画像解析装置1は、単一または複数の、あらゆるコンピュータ、モバイルデバイス、または他のいかなる処理プラットフォーム上にも実装することができる。
図12を参照して、グラフ画像解析装置1は、単一のコンピュータに実装される例が示されているが、本実施形態に係るグラフ画像解析装置1は、複数のコンピュータを含むコンピュータシステムに実装されてよい。複数のコンピュータは、有線または無線のネットワークにより相互通信可能に接続されてよい。
<Hardware configuration of graph image analysis device>
FIG. 12 is a diagram showing a non-limiting example of the hardware configuration of the graph image analysis device 1 according to the present embodiment.
The graph image analysis device 1 according to the present embodiment can be implemented on a single or a plurality of computers, mobile devices, or any other processing platform.
Although an example in which the graph image analysis device 1 is mounted on a single computer is shown with reference to FIG. 12, the graph image analysis device 1 according to the present embodiment is used in a computer system including a plurality of computers. May be implemented. A plurality of computers may be connected to each other so as to be able to communicate with each other by a wired or wireless network.

図12に示すように、グラフ画像解析装置1は、CPU121と、ROM122と、RAM123と、HDD124と、入力部125と、表示部126と、通信I/F127と、システムバス128とを備えてよい。グラフ画像解析装置1はまた、外部メモリを備えてよい。
CPU(Central Processing Unit)121は、グラフ画像解析装置1における動作を統括的に制御するものであり、データ伝送路であるシステムバス128を介して、各構成部(122〜127)を制御する。
グラフ画像解析装置1はまた、GPU(Graphics Processing Unit)を備えてよい。GPUは、CPU121より高い計算機能を有し、複数または多数のGPUを並列して動作させることにより、特に、本実施形態のような機械学習を使用する画像処理アプリケーションに、より高い処理パフォーマンスを提供する。GPUは、通常、プロセッサと共有メモリを含む。それぞれのプロセッサが高速の共有メモリからデータを取得し、共通プログラムを実行することで、同種の計算処理を大量かつ高速に実行する。
As shown in FIG. 12, the graph image analysis device 1 may include a CPU 121, a ROM 122, a RAM 123, an HDD 124, an input unit 125, a display unit 126, a communication I / F 127, and a system bus 128. .. The graph image analysis device 1 may also include an external memory.
The CPU (Central Processing Unit) 121 comprehensively controls the operation of the graph image analysis device 1, and controls each component (122 to 127) via the system bus 128, which is a data transmission path.
The graph image analysis device 1 may also include a GPU (Graphics Processing Unit). The GPU has a higher computing function than the CPU 121, and by operating a plurality or a large number of GPUs in parallel, it provides higher processing performance, particularly for an image processing application using machine learning as in the present embodiment. do. The GPU typically includes a processor and shared memory. Each processor acquires data from a high-speed shared memory and executes a common program to execute a large amount of the same kind of calculation processing at high speed.

ROM(Read Only Memory)122は、CPU121が処理を実行するために必要な制御プログラム等を記憶する不揮発性メモリである。なお、当該プログラムは、HDD(Hard Disk Drive)114、SSD(Solid State Drive)等の不揮発性メモリや着脱可能な記憶媒体(不図示)等の外部メモリに記憶されていてもよい。
RAM(Random Access Memory)123は、揮発性メモリであり、CPU121の主メモリ、ワークエリア等として機能する。すなわち、CPU121は、処理の実行に際してROM122から必要なプログラム等をRAM123にロードし、当該プログラム等を実行することで各種の機能動作を実現する。
The ROM (Read Only Memory) 122 is a non-volatile memory for storing a control program or the like necessary for the CPU 121 to execute a process. The program may be stored in a non-volatile memory such as an HDD (Hard Disk Drive) 114 or SSD (Solid State Drive) or an external memory such as a removable storage medium (not shown).
The RAM (Random Access Memory) 123 is a volatile memory, and functions as a main memory, a work area, or the like of the CPU 121. That is, the CPU 121 loads a program or the like required from the ROM 122 into the RAM 123 when executing the process, and executes the program or the like to realize various functional operations.

HDD124は、例えば、CPU121がプログラムを用いた処理を行う際に必要な各種データや各種情報等を記憶している。また、HDD124には、例えば、CPU121がプログラム等を用いた処理を行うことにより得られた各種データや各種情報等が記憶される。
入力部125は、キーボードやマウス等のポインティングデバイスにより構成される。
表示部126は、液晶ディスプレイ(LCD)等のモニターにより構成される。表示部126は、グラフ画像解析処理で使用される各種パラメータや、他の装置との通信で使用される通信パラメータ等をグラフ画像解析装置1へ指示入力するためのGUI(Graphical User Interface)を提供してよい。
The HDD 124 stores, for example, various data and various information necessary for the CPU 121 to perform processing using a program. Further, the HDD 124 stores, for example, various data and various information obtained by the CPU 121 performing processing using a program or the like.
The input unit 125 is composed of a pointing device such as a keyboard and a mouse.
The display unit 126 is composed of a monitor such as a liquid crystal display (LCD). The display unit 126 provides a GUI (Graphical User Interface) for instructing and inputting various parameters used in the graph image analysis process, communication parameters used in communication with other devices, and the like to the graph image analysis device 1. You can do it.

通信I/F127は、グラフ画像解析装置1と外部装置との通信を制御するインタフェースである。
通信I/F127は、ネットワークとのインタフェースを提供し、ネットワークを介して、外部装置との通信を実行する。通信I/F127を介して、外部装置との間で画像データ、各種パラメータ等が送受信される。本実施形態では、通信I/F127は、イーサネット(登録商標)等の通信規格に準拠する有線LAN(Local Area Network)や専用線を介した通信を実行してよい。ただし、本実施形態で利用可能なネットワークはこれに限定されず、無線ネットワークで構成されてもよい。この無線ネットワークは、Bluetooth(登録商標)、ZigBee(登録商標)、UWB(Ultra Wide Band)等の無線PAN(Personal Area Network)を含む。また、Wi−Fi(Wireless Fidelity)(登録商標)等の無線LAN(Local Area Network)や、WiMAX(登録商標)等の無線MAN(Metropolitan Area Network)を含む。さらに、LTE/3G、4G、5G等の無線WAN(Wide Area Network)を含む。なお、ネットワークは、各機器を相互に通信可能に接続し、通信が可能であればよく、通信の規格、規模、構成は上記に限定されない。
The communication I / F 127 is an interface that controls communication between the graph image analysis device 1 and the external device.
The communication I / F 127 provides an interface with the network and executes communication with an external device via the network. Image data, various parameters, and the like are transmitted and received to and from an external device via the communication I / F 127. In the present embodiment, the communication I / F 127 may execute communication via a wired LAN (Local Area Network) or a dedicated line conforming to a communication standard such as Ethernet (registered trademark). However, the network that can be used in this embodiment is not limited to this, and may be configured by a wireless network. This wireless network includes a wireless PAN (Personal Area Network) such as Bluetooth®, ZigBee®, UWB (Ultra Wide Band) and the like. Further, it includes a wireless LAN (Local Area Network) such as Wi-Fi (Wi-Filess Fidelity) (registered trademark) and a wireless MAN (Metropolitan Area Network) such as WiMAX (registered trademark). Further, it includes a wireless WAN (Wide Area Network) such as LTE / 3G, 4G, and 5G. The network may connect each device so as to be communicable with each other, and the communication standard, scale, and configuration are not limited to the above.

図1に示すグラフ画像解析装置1の各要素のうち少なくとも一部の機能は、CPU121がプログラムを実行することで実現することができる。ただし、図1に示すグラフ画像解析装置1の各要素のうち少なくとも一部の機能が専用のハードウエアとして動作するようにしてもよい。この場合、専用のハードウエアは、CPU121の制御に基づいて動作する。 At least a part of the functions of each element of the graph image analysis device 1 shown in FIG. 1 can be realized by executing a program by the CPU 121. However, at least a part of the functions of each element of the graph image analysis device 1 shown in FIG. 1 may be operated as dedicated hardware. In this case, the dedicated hardware operates based on the control of the CPU 121.

なお、上記において特定の実施形態が説明されているが、当該実施形態は単なる例示であり、本発明の範囲を限定する意図はない。本明細書に記載された装置及び方法は上記した以外の形態において具現化することができる。また、本発明の範囲から離れることなく、上記した実施形態に対して適宜、省略、置換及び変更をなすこともできる。かかる省略、置換及び変更をなした形態は、請求の範囲に記載されたもの及びこれらの均等物の範疇に含まれ、本発明の技術的範囲に属する。 Although specific embodiments have been described above, the embodiments are merely examples and are not intended to limit the scope of the present invention. The devices and methods described herein can be embodied in forms other than those described above. Further, without departing from the scope of the present invention, omissions, substitutions and modifications can be made to the above-described embodiments as appropriate. Such abbreviations, substitutions and modifications are included in the claims and equivalents thereof and fall within the technical scope of the invention.

1…グラフ画像解析装置、3…入力データセット、4…出力データセット、11…データ取得部、12…グラフ分類部、13…確率マップ生成部、14…コンポーネント抽出部、15…値抽出部、16…出力部、21…入力データ、22…分類用ネットワーク、23…分類結果、24…確率マップ生成用ネットワーク、25…確率マップ、26…グラフトレース結果、27…値検出結果、28…出力データ、121…CPU、122…ROM、123…RAM、124…HDD、125…入力部、126…表示部、127…通信I/F、128…バス 1 ... Graph image analyzer, 3 ... Input data set, 4 ... Output data set, 11 ... Data acquisition unit, 12 ... Graph classification unit, 13 ... Probability map generation unit, 14 ... Component extraction unit, 15 ... Value extraction unit, 16 ... Output unit, 21 ... Input data, 22 ... Classification network, 23 ... Classification result, 24 ... Probability map generation network, 25 ... Probability map, 26 ... Graph trace result, 27 ... Value detection result, 28 ... Output data , 121 ... CPU, 122 ... ROM, 123 ... RAM, 124 ... HDD, 125 ... Input unit, 126 ... Display unit, 127 ... Communication I / F, 128 ... Bus

Claims (16)

グラフ画像を取得するグラフ画像取得部と、
前記グラフ画像取得部により取得された前記グラフ画像をグラフ種別ごとに分類するグラフ分類部と、
前記グラフ画像から、前記グラフ分類部により分類された前記グラフ種別ごとに異なる種類の確率マップを生成する確率マップ生成部と、
前記確率マップ生成部により生成された前記確率マップに基づいて、前記グラフ画像中のコンポーネントを抽出するコンポーネント抽出部と、
前記コンポーネント抽出部により抽出された前記グラフ画像の前記コンポーネントの値を抽出する値抽出部と、
前記値抽出部により抽出された前記コンポーネントの前記値を出力する出力部と
を備えることを特徴とする情報処理装置。
The graph image acquisition unit that acquires the graph image and
A graph classification unit that classifies the graph image acquired by the graph image acquisition unit by graph type, and a graph classification unit.
A probability map generation unit that generates a different type of probability map for each graph type classified by the graph classification unit from the graph image, and a probability map generation unit.
A component extraction unit that extracts components in the graph image based on the probability map generated by the probability map generation unit, and a component extraction unit.
A value extraction unit that extracts the value of the component of the graph image extracted by the component extraction unit, and a value extraction unit.
An information processing apparatus including an output unit that outputs the value of the component extracted by the value extraction unit.
前記確率マップ生成部は、ニューラルネットワークを用いて、前記グラフ画像の前記確率マップを生成する
ことを特徴とする請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein the probability map generation unit uses a neural network to generate the probability map of the graph image.
前記ニューラルネットワークは、前記グラフ種別ごとに異なる出力チャネルを備える
ことを特徴とする請求項2に記載の情報処理装置。
The information processing apparatus according to claim 2, wherein the neural network includes different output channels for each graph type.
前記確率マップ生成部は、前記グラフ種別ごとに、異なるコンポーネントを分離するための異なる複数種類の確率マップを生成する
ことを特徴とする請求項1から3のいずれか1項に記載の情報処理装置。
The information processing apparatus according to any one of claims 1 to 3, wherein the probability map generation unit generates a plurality of different types of probability maps for separating different components for each graph type. ..
前記コンポーネント抽出部は、前記グラフ画像中の前記コンポーネントを抽出して、グラフをトレースする
ことを特徴とする請求項1から4のいずれか1項に記載の情報処理装置。
The information processing apparatus according to any one of claims 1 to 4, wherein the component extraction unit extracts the component in the graph image and traces the graph.
前記出力部は、前記コンポーネント抽出部によりトレースされた前記グラフに、前記値抽出部により抽出された前記コンポーネントの前記値を付加して出力する
ことを特徴とする請求項5に記載の情報処理装置。
The information processing apparatus according to claim 5, wherein the output unit adds the value of the component extracted by the value extraction unit to the graph traced by the component extraction unit and outputs the value. ..
前記コンポーネント抽出部は、線グラフのための第1の種類の確率マップを用いて、前記線グラフのグラフ画像の各画素のコストを算出し、コストが最小となる画素上に前記線グラフをトレースする
ことを特徴とする請求項5または6のいずれか1項に記載の情報処理装置。
The component extractor calculates the cost of each pixel of the graph image of the line graph using the first kind of probability map for the line graph, and traces the line graph on the pixel with the minimum cost. The information processing apparatus according to any one of claims 5 or 6, wherein the information processing apparatus is to be used.
前記コンポーネント抽出部は、動的計画法(Dynamic Programming)を用いて、前記線グラフの前記グラフ画像の各画素のコストを算出する
ことを特徴とする請求項7に記載の情報処理装置。
The information processing apparatus according to claim 7, wherein the component extraction unit calculates the cost of each pixel of the graph image of the line graph by using a dynamic programming method.
前記コンポーネント抽出部は、前記線グラフの線の平滑性を評価する関数に基づいて、前記コストを算出する
ことを特徴とする請求項7または8に記載の情報処理装置。
The information processing apparatus according to claim 7, wherein the component extraction unit calculates the cost based on a function for evaluating the smoothness of lines in the line graph.
前記コンポーネント抽出部は、前記線グラフの線の色または線種の一貫性を評価する関数に基づいて、前記コストを算出する
ことを特徴とする請求項7から9のいずれか1項に記載の情報処理装置。
The component extraction unit according to any one of claims 7 to 9, wherein the component extraction unit calculates the cost based on a function for evaluating the consistency of the line color or line type of the line graph. Information processing device.
前記コンポーネント抽出部は、前記第1の種類の確率マップを用いて、各X座標位置におけるY座標軸方向の前記線グラフの存在確率をスタックすることにより、前記線グラフの始点および終点を検出し、検出された前記始点から前記終点まで前記線グラフをトレースする
ことを特徴とする請求項7から10のいずれか1項に記載の情報処理装置。
The component extraction unit detects the start point and the end point of the line graph by stacking the existence probabilities of the line graph in the Y coordinate axis direction at each X coordinate position using the first type of probability map. The information processing apparatus according to any one of claims 7 to 10, wherein the line graph is traced from the detected start point to the end point.
前記コンポーネント抽出部は、線グラフ以外のグラフのための第2の種類の確率マップを用いて、隣接する画素を連結することにより、前記グラフをトレースする
ことを特徴とする請求項5から11のいずれか1項に記載の情報処理装置。
5. The information processing apparatus according to any one of the following items.
前記コンポーネント抽出部は、CCA(Connected Component Analysis)を用いて、前記グラフのグラフ画像の前記隣接する画素を連結する
ことを特徴とする請求項12に記載の情報処理装置。
The information processing apparatus according to claim 12, wherein the component extraction unit uses CCA (Connected Component Analysis) to connect the adjacent pixels of the graph image of the graph.
前記コンポーネント抽出部は、前記第2の種類の確率マップを参照して、抽出された前記コンポーネントを補正する
ことを特徴とする請求項12または13に記載の情報処理装置。
The information processing apparatus according to claim 12, wherein the component extraction unit corrects the extracted component with reference to the probability map of the second type.
情報処理装置が実行する情報処理方法であって、
グラフ画像を取得するステップと、
取得された前記グラフ画像をグラフ種別ごとに分類するステップと、
前記グラフ画像から、分類された前記グラフ種別ごとに異なる種類の確率マップを生成するステップと、
生成された前記確率マップに基づいて、前記グラフ画像中のコンポーネントを抽出するステップと、
抽出された前記グラフ画像の前記コンポーネントの値を抽出するステップと、
抽出された前記コンポーネントの前記値を出力するステップと
を含むことを特徴とする情報処理方法。
It is an information processing method executed by an information processing device.
Steps to get a graph image and
Steps to classify the acquired graph images by graph type,
From the graph image, a step of generating a different type of probability map for each of the classified graph types, and
Based on the generated probability map, the steps to extract the components in the graph image and
A step of extracting the value of the component of the extracted graph image, and
An information processing method comprising a step of outputting the value of the extracted component.
情報処理をコンピュータに実行させるための情報処理プログラムであって、該プログラムは、前記コンピュータに、
グラフ画像を取得するグラフ画像取得処理と、
前記グラフ画像取得処理により取得された前記グラフ画像をグラフ種別ごとに分類するグラフ分類処理と、
前記グラフ画像から、前記グラフ分類処理により分類された前記グラフ種別ごとに異なる種類の確率マップを生成する確率マップ生成処理と、
前記確率マップ生成処理により生成された前記確率マップに基づいて、前記グラフ画像中のコンポーネントを抽出するコンポーネント抽出処理と、
前記コンポーネント抽出処理により抽出された前記グラフ画像の前記コンポーネントの値を抽出する値抽出処理と、
前記値抽出処理により抽出された前記コンポーネントの前記値を出力する出力処理と
を含む処理を実行させるためのものであることを特徴とする情報処理プログラム。
It is an information processing program for causing a computer to execute information processing, and the program causes the computer to execute information processing.
Graph image acquisition process to acquire graph image and
A graph classification process for classifying the graph image acquired by the graph image acquisition process for each graph type, and a graph classification process.
A probability map generation process that generates a different type of probability map for each graph type classified by the graph classification process from the graph image, and a probability map generation process.
A component extraction process for extracting components in the graph image based on the probability map generated by the probability map generation process, and a component extraction process.
A value extraction process for extracting the value of the component of the graph image extracted by the component extraction process, and a value extraction process for extracting the value of the component.
An information processing program for executing a process including an output process for outputting the value of the component extracted by the value extraction process.
JP2020129280A 2020-07-30 2020-07-30 Information processing equipment, information processing methods and programs Active JP6968241B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020129280A JP6968241B1 (en) 2020-07-30 2020-07-30 Information processing equipment, information processing methods and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020129280A JP6968241B1 (en) 2020-07-30 2020-07-30 Information processing equipment, information processing methods and programs

Publications (2)

Publication Number Publication Date
JP6968241B1 true JP6968241B1 (en) 2021-11-17
JP2022026017A JP2022026017A (en) 2022-02-10

Family

ID=78509639

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020129280A Active JP6968241B1 (en) 2020-07-30 2020-07-30 Information processing equipment, information processing methods and programs

Country Status (1)

Country Link
JP (1) JP6968241B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102513456B1 (en) * 2022-09-26 2023-03-24 주식회사 오르비스파브리카 Graph data recognition and extraction system and the method of thereof

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2581353B2 (en) * 1991-08-23 1997-02-12 株式会社日立製作所 Graph image registration system
WO2009081791A1 (en) * 2007-12-21 2009-07-02 Nec Corporation Information processing system, its method and program
GB2457267B (en) * 2008-02-07 2010-04-07 Yves Dassas A method and system of indexing numerical data
US10726252B2 (en) * 2017-05-17 2020-07-28 Tab2Ex Llc Method of digitizing and extracting meaning from graphic objects

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102513456B1 (en) * 2022-09-26 2023-03-24 주식회사 오르비스파브리카 Graph data recognition and extraction system and the method of thereof

Also Published As

Publication number Publication date
JP2022026017A (en) 2022-02-10

Similar Documents

Publication Publication Date Title
JP5729930B2 (en) Method for distinguishing text lines in a document
EP2980755B1 (en) Method for partitioning area, and inspection device
JP2011018338A (en) Method and system for classifying connected group of foreground pixel in scanned document image according to type of marking
US11455502B2 (en) Learning device, classification device, learning method, classification method, learning program, and classification program
CN111291629A (en) Method and device for recognizing text in image, computer equipment and computer storage medium
JP2004126648A (en) Image processing method, image processor, and image processing program
CN104751153B (en) A kind of method and device of identification scene word
CN110807775A (en) Traditional Chinese medicine tongue image segmentation device and method based on artificial intelligence and storage medium
WO2021190155A1 (en) Method and apparatus for identifying spaces in text lines, electronic device and storage medium
JP6968241B1 (en) Information processing equipment, information processing methods and programs
CN111368831B (en) Positioning system and method for vertical text
US8724862B2 (en) Image processing apparatus, image processing method, and non-transitory computer readable storage medium
JP2016058018A (en) Image processing method, image processing program and image processor
JP7132458B1 (en) Information processing device, information processing method and program
JP7132459B1 (en) Information processing device, information processing method and program
JP6546385B2 (en) IMAGE PROCESSING APPARATUS, CONTROL METHOD THEREOF, AND PROGRAM
JP6842624B2 (en) Analyst, analysis method, and program
US20220309832A1 (en) Method for detecting opening and closing of eye, device for detecting opening and closing of eye, and non-transitory computer-readable recording medium recording program for detecting opening and closing of eye
CN116229236A (en) Bacillus tuberculosis detection method based on improved YOLO v5 model
US9665665B2 (en) Visualization credibility score
JP6118214B2 (en) Wrinkle analysis method and wrinkle analyzer
JP2013149210A (en) Image processing program, image processing method and image processor
KR20200005853A (en) Method and System for People Count based on Deep Learning
Crous et al. Combining weakly and strongly supervised segmentation methods for wind turbine damage annotation
JP4966946B2 (en) Spatiotemporal image separation device, spatiotemporal image separation method, and spatiotemporal image separation program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200730

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211005

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211026

R150 Certificate of patent or registration of utility model

Ref document number: 6968241

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150