JP7395915B2 - Information processing device, computer program and information processing method - Google Patents

Information processing device, computer program and information processing method Download PDF

Info

Publication number
JP7395915B2
JP7395915B2 JP2019180605A JP2019180605A JP7395915B2 JP 7395915 B2 JP7395915 B2 JP 7395915B2 JP 2019180605 A JP2019180605 A JP 2019180605A JP 2019180605 A JP2019180605 A JP 2019180605A JP 7395915 B2 JP7395915 B2 JP 7395915B2
Authority
JP
Japan
Prior art keywords
content
image
contents
document
cluster
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019180605A
Other languages
Japanese (ja)
Other versions
JP2021056871A (en
Inventor
荘介 下山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2019180605A priority Critical patent/JP7395915B2/en
Publication of JP2021056871A publication Critical patent/JP2021056871A/en
Application granted granted Critical
Publication of JP7395915B2 publication Critical patent/JP7395915B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Document Processing Apparatus (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Machine Translation (AREA)

Description

本発明は、情報処理装置、コンピュータプログラム及び情報処理方法に関する。 The present invention relates to an information processing device, a computer program, and an information processing method.

雑誌、書籍、新聞等のレイアウト作成を支援する種々の手法が提案されている。特許文献1には、ドキュメントから複数のコンテンツを抽出し、抽出した複数のコンテンツ間の意味的な関連性の度合いに基づいてドキュメント上の各コンテンツの位置を決定し、決定した位置にコンテンツを配置した新たなドキュメントを生成する情報処理装置が開示されている。 Various methods have been proposed to support layout creation for magazines, books, newspapers, etc. Patent Document 1 discloses a method for extracting a plurality of contents from a document, determining the position of each content on the document based on the degree of semantic relationship between the extracted contents, and arranging the content at the determined position. Disclosed is an information processing device that generates a new document based on a document.

特開2009-169536号公報JP2009-169536A

しかし、特許文献1の情報処理装置では、ドキュメント内のコンテンツに対して所要の操作(例えば、複写、移動などの操作)を行う場合には、コンテンツ毎に個別に操作を行う必要がある。特に、関連性のあるコンテンツに対しては、同様の操作を繰り返す可能性が高く煩雑となる。 However, in the information processing apparatus disclosed in Patent Document 1, when performing a required operation (for example, copying, moving, etc.) on content within a document, it is necessary to perform the operation individually for each content. In particular, for related content, there is a high possibility that the same operation will be repeated, making it complicated.

本発明は、斯かる事情に鑑みてなされたものであり、文書内のコンテンツに対する操作性を向上させることができる情報処理装置、コンピュータプログラム及び情報処理方法を提供することを目的とする。 The present invention has been made in view of the above circumstances, and it is an object of the present invention to provide an information processing device, a computer program, and an information processing method that can improve the operability of content within a document.

本発明の実施の形態に係る情報処理装置は、関連性のあるコンテンツの組を教師データとして学習した学習済みモデルを用いて、入力されたコンテンツの組の関連性の有無を特定する特定部と、前記特定部で特定した関連性のあるコンテンツの組を対応付けてクラスタコンテンツとして抽出する抽出部とを備える。 An information processing device according to an embodiment of the present invention includes a specifying unit that identifies whether or not an input set of content is related, using a trained model that has learned a set of related content as training data. , and an extraction unit that associates the related content sets identified by the identification unit and extracts them as cluster content.

本発明の実施の形態に係るコンピュータプログラムは、コンピュータに、関連性のあるコンテンツの組を教師データとして学習した学習済みモデルを用いて、入力されたコンテンツの組の関連性の有無を特定する処理と、特定した関連性のあるコンテンツの組を対応付けてクラスタコンテンツとして抽出する処理とを実行させる。 A computer program according to an embodiment of the present invention provides a computer with a process of determining whether or not a set of input contents is related, using a trained model that has learned a set of related contents as teacher data. and a process of correlating the identified set of related contents and extracting them as cluster contents.

本発明の実施の形態に係る情報処理方法は、関連性のあるコンテンツの組を教師データとして学習した学習済みモデルを用いて、入力されたコンテンツの組の関連性の有無を特定し、特定された関連性のあるコンテンツの組を対応付けてクラスタコンテンツとして抽出する。 An information processing method according to an embodiment of the present invention uses a trained model that has learned a set of related contents as training data to identify whether or not there is a relationship between a set of input contents. A set of related content is associated and extracted as cluster content.

本発明によれば、文書内のコンテンツに対する操作性が向上する。 According to the present invention, the operability of content within a document is improved.

本実施の形態の情報処理装置の構成の一例を示すブロック図である。FIG. 1 is a block diagram showing an example of the configuration of an information processing device according to the present embodiment. レイアウトデータの一例を示す模式図である。FIG. 3 is a schematic diagram showing an example of layout data. 関連グラフの一例を示す模式図である。It is a schematic diagram which shows an example of a related graph. 画像の特徴量の算出方法の一例を示す模式図である。FIG. 2 is a schematic diagram illustrating an example of a method for calculating feature amounts of an image. キャプションの特徴量の算出方法の一例を示す模式図である。FIG. 2 is a schematic diagram illustrating an example of a method for calculating a feature amount of a caption. 画像及びキャプションの関連性判定の第1例を示す模式図である。FIG. 2 is a schematic diagram illustrating a first example of determining the relevance between an image and a caption. 画像及びキャプションの関連性判定の第2例を示す模式図である。FIG. 7 is a schematic diagram showing a second example of determining the relevance between an image and a caption. ニューラルネットワークの学習方法の第1例を示す模式図である。FIG. 2 is a schematic diagram showing a first example of a neural network learning method. ニューラルネットワークの学習方法の第2例を示す模式図である。FIG. 2 is a schematic diagram showing a second example of a neural network learning method. クラスタコンテンツに対する操作の第1例を示す模式図である。FIG. 3 is a schematic diagram showing a first example of operations on cluster content. クラスタコンテンツに対する操作の第2例を示す模式図である。FIG. 7 is a schematic diagram showing a second example of operations on cluster content. 情報処理装置のクラスタコンテンツ抽出処理の一例を示すフローチャートである。3 is a flowchart illustrating an example of cluster content extraction processing of the information processing device.

以下、本開示の実施の形態を図面に基づいて説明する。図1は本実施の形態の情報処理装置50の構成の一例を示すブロック図である。情報処理装置50は、通信ネットワーク1を介してサーバ10に接続することができる。また、情報処理装置50にはスキャナ20を接続することができる。サーバ10は、レイアウトデータを蓄積するデータサーバとすることができるが、これに限定されない。 Embodiments of the present disclosure will be described below based on the drawings. FIG. 1 is a block diagram showing an example of the configuration of an information processing device 50 according to the present embodiment. The information processing device 50 can be connected to the server 10 via the communication network 1. Further, a scanner 20 can be connected to the information processing device 50. The server 10 can be a data server that stores layout data, but is not limited thereto.

情報処理装置50は、装置全体を制御する制御部51、通信部52、記憶部53、レイアウトデータ推定部54、特定部55、抽出部56、表示パネル57、表示部58及び操作部59を備える。 The information processing device 50 includes a control section 51 that controls the entire device, a communication section 52, a storage section 53, a layout data estimation section 54, a specification section 55, an extraction section 56, a display panel 57, a display section 58, and an operation section 59. .

制御部51は、CPU、ROM及びRAMなどで構成することができる。 The control unit 51 can be configured with a CPU, ROM, RAM, and the like.

通信部52は、通信ネットワーク1を介して、サーバ10との間で通信を行う機能を有し、所要の情報の送受信を行うことができる。より具体的には、通信部52は、サーバ10からレイアウトデータを取得することができる。 The communication unit 52 has a function of communicating with the server 10 via the communication network 1, and can send and receive required information. More specifically, the communication unit 52 can acquire layout data from the server 10.

図2はレイアウトデータの一例を示す模式図である。レイアウトデータは、例えば、文書の1頁に相当する領域内の余白を除いたレイアウト枠に複数のコンテンツが配置された状態を表す情報を含む。コンテンツには、例えば、タイトル、本文(テキスト)、画像(図)、キャプション(画像の説明文)などが含まれる。レイアウトデータは、コンテンツを配置するために必要なデータであり、例えば、各コンテンツのサイズ、コンテンツの座標、コンテンツ間の相対座標などを含む。図2の例では、文書の1頁内に、タイトル、本文A、B、画像A、B、C、キャプションA、B、Cが配置されている。なお、レイアウトデータは、図2の例に限定されない。 FIG. 2 is a schematic diagram showing an example of layout data. The layout data includes, for example, information representing a state in which a plurality of contents are arranged in a layout frame excluding a blank space in an area corresponding to one page of a document. The content includes, for example, a title, a main body (text), an image (figure), a caption (an explanatory text of the image), and the like. The layout data is data necessary for arranging the contents, and includes, for example, the size of each content, the coordinates of the contents, the relative coordinates between the contents, and the like. In the example of FIG. 2, a title, texts A, B, images A, B, C, and captions A, B, C are arranged within one page of the document. Note that the layout data is not limited to the example shown in FIG. 2.

通信部52は、スキャナ20との間のインタフェース機能も備え、スキャナ20から、例えば、PDFファイルを取得することができる。 The communication unit 52 also has an interface function with the scanner 20 and can obtain, for example, a PDF file from the scanner 20.

レイアウトデータ推定部54は、物体検出ニューラルネットワークを備え、スキャナ20から得られたPDFファイルを画像化し、レイアウトデータを推定することができる。 The layout data estimation unit 54 includes an object detection neural network, and can image the PDF file obtained from the scanner 20 and estimate layout data.

記憶部53は、ハードディスク又はフラッシュメモリなどで構成することができ、通信部52を介して取得したレイアウトデータ、レイアウトデータ推定部54で推定したレイアウトデータを記憶することができる。 The storage unit 53 can be configured with a hard disk or a flash memory, and can store the layout data acquired via the communication unit 52 and the layout data estimated by the layout data estimation unit 54.

特定部55は、関連性のあるコンテンツの組を教師データとして学習した学習済みモデルを用いて、入力されたコンテンツの組の関連性の有無を特定する。学習済みモデルは、後述のニューラルネットワーク551、552、553である。 The specifying unit 55 uses a learned model that has learned a set of related content as teacher data to specify whether or not the input set of content is related. The trained models are neural networks 551, 552, and 553, which will be described later.

特定部55は、レイアウトデータに基づいて、関連性のあるコンテンツの組を特定する。「関連性があるコンテンツ」とは、例えば、ユーザが、表示パネル57に表示された文書内のコンテンツに対して同様の操作(例えば、複写、移動、削除、拡縮など)を繰り返す可能性が高いコンテンツ同士とすることができる。関連性のあるコンテンツ同士は、例えば、模式的に、関連グラフで表すことができる。 The specifying unit 55 specifies a set of related contents based on the layout data. "Related content" means, for example, that there is a high possibility that the user will repeat similar operations (for example, copying, moving, deleting, scaling, etc.) on the content in the document displayed on the display panel 57. The content can be the same. Contents that are related to each other can be schematically represented, for example, by a relation graph.

図3は関連グラフの一例を示す模式図である。図3に示すように、1つのレイアウト内に複数のコンテンツとして画像G1、G2、G3、キャプションC1、C2、C3が含まれるとする。画像G1とキャプションC1及びC2とがお互いに関連性があり、キャプションC3と画像G2及びG3とがお互いに関連性があるとする。この場合、関連グラフは、画像G1とキャプションC1とが繋がり、かつ、画像G1とキャプションC2とが繋がったグラフで表すことができる。また、関連グラフは、キャプションC3と画像G2とが繋がり、かつ、キャプションC3と画像G3とが繋がったグラフで表すことができる。 FIG. 3 is a schematic diagram showing an example of a related graph. As shown in FIG. 3, it is assumed that one layout includes images G1, G2, G3 and captions C1, C2, C3 as a plurality of contents. It is assumed that image G1 and captions C1 and C2 are related to each other, and caption C3 and images G2 and G3 are related to each other. In this case, the related graph can be represented by a graph in which the image G1 and the caption C1 are connected, and the image G1 and the caption C2 are connected. Further, the related graph can be represented by a graph in which the caption C3 and the image G2 are connected, and the caption C3 and the image G3 are connected.

次に、コンテンツ同士の関連性の判定方法について説明する。以下では、コンテンツとして、図3に示すように、画像とキャプションを例に挙げて説明するが、他のコンテンツも同様である。関連性の判定には、画像の特徴量、キャプションの特徴量、コンテンツ(画像及びキャプション)間の相対位置情報(相対座標)を用いる。まず、画像の特徴量の算出方法について説明する。 Next, a method for determining the relevance between contents will be explained. In the following, as shown in FIG. 3, images and captions will be used as examples of content, but the same applies to other content. To determine the relevance, image feature amounts, caption feature amounts, and relative position information (relative coordinates) between contents (image and caption) are used. First, a method for calculating the feature amount of an image will be explained.

図4は画像の特徴量の算出方法の一例を示す模式図である。特定部55は、ニューラルネットワーク551を有する。ニューラルネットワーク551は、例えば、畳み込みニューラルネットワークであり、入力層551a、畳み込み層551b、プーリング層551c、畳み込み層551d、プーリング層551e、全結合層551fが、この順で接続されている。なお、畳み込み層、プーリング層及び全結合層の数は便宜上のものであり、図4に示す数に限定されない。また、便宜上、活性化関数の層、出力層は省略している。入力層551aには、画像G1が入力される。全結合層551fは、入力された画像G1の特徴を組み合わせたものであるため、全結合層551fから特徴量g1(ベクトル)を算出することができる。他の画像G2、G3も同様にして、特徴量g2、g3を算出することができる。なお、画像の特徴量の算出は、ニューラルネットワークを用いる方法に限定されるものではなく、エッジ検出、線検出、領域分割、テクスチャ解析などの一般的な画像処理を用いてもよい。 FIG. 4 is a schematic diagram showing an example of a method for calculating the feature amount of an image. The identification unit 55 includes a neural network 551. The neural network 551 is, for example, a convolutional neural network, and includes an input layer 551a, a convolution layer 551b, a pooling layer 551c, a convolution layer 551d, a pooling layer 551e, and a fully connected layer 551f connected in this order. Note that the numbers of convolution layers, pooling layers, and fully connected layers are for convenience and are not limited to the numbers shown in FIG. 4. Furthermore, for convenience, the activation function layer and output layer are omitted. The image G1 is input to the input layer 551a. Since the fully connected layer 551f is a combination of the features of the input image G1, the feature amount g1 (vector) can be calculated from the fully connected layer 551f. The feature amounts g2 and g3 of the other images G2 and G3 can be calculated in the same manner. Note that the calculation of image features is not limited to a method using a neural network, and general image processing such as edge detection, line detection, region segmentation, and texture analysis may be used.

次に、キャプションの特徴量の算出方法について説明する。 Next, a method for calculating the feature amount of a caption will be explained.

図5はキャプションの特徴量の算出方法の一例を示す模式図である。特定部55は、ニューラルネットワーク552を有する。ニューラルネットワーク552は、例えば、word2vecであり、入力層552a、隠れ層552b、出力層552cが、この順で接続されている。入力層552aと隠れ層552bとの間、隠れ層552bと出力層552cとの間はそれぞれ重みW、W′で全結合されている。入力層552aには、特定部55が有する言語処理部(例えば、形態素析処理)によって、キャプションC1から抽出された単語(または単語の列)が入力される。具体的には、形態素解析によってキャプションC1を複数の単語に分割し、分割した単語をベクトルに変換して入力層552aに入力する。この場合、各単語のベクトルを平均化したベクトルを入力層552aに入力してもよい。入力層552aにベクトルを入力すると、キャプションC1の意味がベクトル表現化され、特徴量c1(ベクトル)を算出することができる。他のキャプションC2、C3も同様にして、特徴量c2、c3を算出することができる。なお、キャプションの特徴量の算出は、ニューラルネットワークを用いる方法に限定されるものではなく、一般的な言語処理を用いてもよい。例えば、辞書データを用い、キャプションから意味を持つ持つ最小単位である単語を抽出し、抽出した単語を所要の次元数のベクトルに変換してもよい。なお、タイトルの特徴量、本文の特徴量もニューラルネットワーク552を用いて算出することができる。 FIG. 5 is a schematic diagram showing an example of a method for calculating the feature amount of a caption. The identification unit 55 includes a neural network 552. The neural network 552 is, for example, word2vec, and has an input layer 552a, a hidden layer 552b, and an output layer 552c connected in this order. The input layer 552a and the hidden layer 552b and the hidden layer 552b and the output layer 552c are fully connected with weights W and W', respectively. A word (or a string of words) extracted from the caption C1 is input to the input layer 552a by a language processing unit (for example, morphological analysis processing) included in the specifying unit 55. Specifically, the caption C1 is divided into a plurality of words by morphological analysis, and the divided words are converted into vectors and input into the input layer 552a. In this case, a vector obtained by averaging the vectors of each word may be input to the input layer 552a. When a vector is input to the input layer 552a, the meaning of the caption C1 is expressed as a vector, and the feature quantity c1 (vector) can be calculated. The feature amounts c2 and c3 of the other captions C2 and C3 can be calculated in the same manner. Note that the calculation of the feature amount of the caption is not limited to the method using a neural network, and general language processing may be used. For example, dictionary data may be used to extract words, which are the smallest meaningful units, from the caption, and the extracted words may be converted into a vector with a required number of dimensions. Note that the feature amount of the title and the feature amount of the text can also be calculated using the neural network 552.

次に、コンテンツ(画像及びキャプション)同士の関連性の判定方法について説明する。 Next, a method for determining the relevance between contents (images and captions) will be explained.

図6は画像及びキャプションの関連性判定の第1例を示す模式図である。特定部55は、ニューラルネットワーク553を有する。ニューラルネットワーク553に入力データを入力する。入力データは、画像の特徴量、キャプションの特徴量、及び当該画像と当該キャプションの相対位置情報を成分とするベクトルである。相対位置情報は、レイアウト上の画像G1の座標とキャプションC1の座標との間の相対座標、画像G1のレイアウト上のサイズ、キャプションC1のレイアウト上のサイズなどを含む。図6の例では、画像G1の特徴量g1(ベクトル)、キャプションC1の特徴量c1(ベクトル)、画像G1とキャプションC1との相対位置情報(ベクトル)を1個のベクトルとしている。 FIG. 6 is a schematic diagram showing a first example of determining the relevance between images and captions. The identification unit 55 includes a neural network 553. Input data is input to the neural network 553. The input data is a vector whose components are an image feature amount, a caption feature amount, and relative position information between the image and the caption. The relative position information includes the relative coordinates between the coordinates of the image G1 on the layout and the coordinates of the caption C1, the size of the image G1 on the layout, the size of the caption C1 on the layout, and the like. In the example of FIG. 6, the feature amount g1 (vector) of the image G1, the feature amount c1 (vector) of the caption C1, and the relative position information (vector) between the image G1 and the caption C1 are set as one vector.

ニューラルネットワーク553が出力するスコアが閾値以上であるので、画像G1とキャプションC1とは、図3に示す関連グラフのとおり、関連性があると判定することができる。なお、ニューラルネットワーク553は、SVM(Support Vector Machine)、ベイジアンネットワークなど他の機械学習を用いてもよい。 Since the score output by the neural network 553 is equal to or greater than the threshold value, it can be determined that the image G1 and the caption C1 are related, as shown in the related graph shown in FIG. 3. Note that the neural network 553 may use other machine learning methods such as SVM (Support Vector Machine) and Bayesian network.

図7は画像及びキャプションの関連性判定の第2例を示す模式図である。図7の例では、画像G2の特徴量g2(ベクトル)、キャプションC1の特徴量c1(ベクトル)、画像G2とキャプションC1との相対位置情報(ベクトル)を1個のベクトルとして、ニューラルネットワーク553に入力している。 FIG. 7 is a schematic diagram showing a second example of determining the relevance between images and captions. In the example of FIG. 7, the feature amount g2 (vector) of the image G2, the feature amount c1 (vector) of the caption C1, and the relative position information (vector) between the image G2 and the caption C1 are set as one vector, and the neural network 553 is I am typing.

ニューラルネットワーク553が出力するスコアが閾値未満であるので、画像G2とキャプションC1とは、図3に示す関連グラフのとおり、関連性がないと判定することができる。 Since the score output by the neural network 553 is less than the threshold, it can be determined that the image G2 and the caption C1 are not related, as shown in the relation graph shown in FIG. 3.

上述のように、ニューラルネットワーク553には、レイアウト上の任意の画像及びキャプションの組について、各特徴量と相対位置情報が入力され、それぞれの組について関連性の有無が判定される。 As described above, each feature amount and relative position information are input to the neural network 553 for any set of images and captions on the layout, and the presence or absence of relevance is determined for each set.

次に、ニューラルネットワーク553の学習方法について説明する。 Next, a learning method of the neural network 553 will be explained.

図8はニューラルネットワーク553の学習方法の第1例を示す模式図である。ニューラルネットワーク553の入力層には、学習用入力データとしてのベクトルを入力する。学習用のベクトルは、画像の特徴量、キャプションの特徴量、及び当該画像と当該キャプションの相対位置情報を成分とするベクトルである。図8の例では、画像G1の特徴量g1(ベクトル)、キャプションC2の特徴量c2(ベクトル)、画像G1とキャプションC2との相対位置情報(ベクトル)を1個のベクトルとしている。図3に示すように、画像G1とキャプションC2との間に関連性がある場合、教師ラベル「1」を出力層に与え、ニューラルネットワーク553の学習を行う。教師ラベル「1」は正解の組であることを示すラベルである。 FIG. 8 is a schematic diagram showing a first example of a learning method of the neural network 553. Vectors as learning input data are input to the input layer of the neural network 553. The learning vector is a vector whose components are the feature amount of the image, the feature amount of the caption, and the relative position information between the image and the caption. In the example of FIG. 8, the feature amount g1 (vector) of the image G1, the feature amount c2 (vector) of the caption C2, and the relative position information (vector) between the image G1 and the caption C2 are set as one vector. As shown in FIG. 3, when there is a relationship between the image G1 and the caption C2, a teacher label "1" is given to the output layer, and the neural network 553 is trained. The teacher label "1" is a label indicating that this is a correct answer set.

図9はニューラルネットワーク553の学習方法の第2例を示す模式図である。ニューラルネットワーク553の入力層には、学習用入力データとしてのベクトルを入力する。学習用のベクトルは、画像の特徴量、キャプションの特徴量、及び当該画像と当該キャプションの相対位置情報を成分とするベクトルである。図9の例では、画像G2の特徴量g2(ベクトル)、キャプションC1の特徴量c1(ベクトル)、画像G2とキャプションC1との相対位置情報(ベクトル)を1個のベクトルとしている。図3に示すように、画像G2とキャプションC1との間に関連性がない場合、教師ラベル「0」を出力層に与え、ニューラルネットワーク553の学習を行う。教師ラベル「0」は不正解の組であることを示すラベルである。 FIG. 9 is a schematic diagram showing a second example of the learning method of the neural network 553. Vectors as learning input data are input to the input layer of the neural network 553. The learning vector is a vector whose components are the feature amount of the image, the feature amount of the caption, and the relative position information between the image and the caption. In the example of FIG. 9, the feature amount g2 (vector) of the image G2, the feature amount c1 (vector) of the caption C1, and the relative position information (vector) between the image G2 and the caption C1 are set as one vector. As shown in FIG. 3, when there is no relationship between the image G2 and the caption C1, a teacher label "0" is given to the output layer, and the neural network 553 is trained. The teacher label "0" is a label indicating that the set is an incorrect answer.

図8及び図9に示すような学習用入力データと教師ラベルとを多数用いてニューラルネットワーク553を学習させることができる。 The neural network 553 can be trained using a large number of learning input data and teacher labels as shown in FIGS. 8 and 9.

上述のように、文書内の複数のコンテンツから、任意の2つのコンテンツを選択し、選択したコンテンツ同士の関連性を示すスコア(指標)を算出し、算出したスコアが所定の閾値以上であれば、関連性ありと判定し、算出したスコアが閾値未満であれば、関連性なしと判定することにより、関連性のあるコンテンツの組を特定することができる。 As described above, any two contents are selected from multiple contents in a document, a score (index) indicating the relationship between the selected contents is calculated, and if the calculated score is equal to or higher than a predetermined threshold, , it is determined that the content is relevant, and if the calculated score is less than the threshold value, it is determined that the content is not relevant, thereby making it possible to specify a set of relevant content.

また、紙媒体の文書をスキャナ20等で読み取るだけで、文書内の関連性のあるコンテンツの組を特定することができる。 Further, by simply reading a paper document using the scanner 20 or the like, it is possible to identify a set of related contents within the document.

抽出部56は、特定部で特定した関連性のあるコンテンツの組を対応付けてクラスタコンテンツとして抽出する。クラスタコンテンツは、関連性のあるコンテンツ同士を一つのコンテンツとして纏めたものであり、関連性のあるコンテンツ同士は、一つのコンテンツとして扱うことができる。 The extraction unit 56 associates the related content sets identified by the identification unit and extracts them as cluster content. Cluster content is a collection of related contents, and the related contents can be treated as one piece of content.

上述の構成により、クラスタコンテンツに対して所要の操作を行うと、関連性のあるコンテンツ同士に対して操作が行われたものとして扱われるので、文書内のコンテンツに対する操作性が向上する。 With the above configuration, when a required operation is performed on cluster content, the operation is treated as having been performed on related contents, thereby improving the operability of content within a document.

次に、クラスタコンテンツに対する操作について説明する。 Next, operations on cluster content will be explained.

表示部58は、表示パネル57にコンテンツが配置された文書を表示することができる。表示パネル57は、液晶パネル又は有機EL(Electro Luminescence)ディスプレイ等で構成することができる。なお、表示パネル57に代えて、情報処理装置50とは別個の表示装置を備える構成でもよい。 The display unit 58 can display a document in which content is arranged on the display panel 57. The display panel 57 can be configured with a liquid crystal panel, an organic EL (Electro Luminescence) display, or the like. Note that the display panel 57 may be replaced with a configuration including a display device separate from the information processing device 50.

操作部59は、例えば、ハードウェアキーボード、マウスなどで構成され、表示パネル57に表示されたアイコンなどの操作、文字等の入力などを行うことができる。なお、操作部59は、タッチパネルで構成してもよい。 The operation unit 59 is configured with, for example, a hardware keyboard, a mouse, etc., and is capable of operating icons displayed on the display panel 57, inputting characters, etc. Note that the operation unit 59 may be configured with a touch panel.

図10はクラスタコンテンツに対する操作の第1例を示す模式図である。図10に示すように、表示パネル57に複数のコンテンツが配置された文書(例えば、1頁、あるいは両開きの2頁相当)が表示されている。図10の例では、コンテンツとして、タイトル、本文A、本文B、画像A、キャプションA、キャプションBが表示されている。また、画像AとキャプションA及びBとがお互いに関連性があるとする。 FIG. 10 is a schematic diagram showing a first example of operations on cluster content. As shown in FIG. 10, a document in which a plurality of contents are arranged (for example, one page or two double-page pages) is displayed on the display panel 57. In the example of FIG. 10, the title, text A, text B, image A, caption A, and caption B are displayed as the contents. Further, it is assumed that image A and captions A and B are related to each other.

図10の左図のように、アイコン100を画像A(または画像Aの周辺、キャプションA又はBでもよい)に近づけて、タッチ操作及びドラッグ操作を行うと、右図に示すように、画像AとともにキャプションA及びBを同じように移動させることができる。画像A、キャプションA及びキャプションBは、1個のクラスタコンテンツ101を構成している。 As shown in the left figure of FIG. 10, when the icon 100 is brought close to image A (or the vicinity of image A, or caption A or B) and a touch operation and a drag operation are performed, the image A is displayed as shown in the right figure. Captions A and B can be moved in the same way. Image A, caption A, and caption B constitute one cluster content 101.

このように、表示部58は、表示パネル57に表示したクラスタコンテンツを選択する操作を受け付けた場合、クラスタコンテンツよって関連付けられたコンテンツそれぞれを選択した表示態様で表示する。例えば、表示パネル57に表示されたクラスタコンテンツ内の一のコンテンツまたはコンテンツの周辺を選択する操作を行い、表示パネル57上を移動(ドラッグ)すると、クラスタコンテンツ内のすべてのコンテンツが選択された表示態様で表示され、クラスタコンテンツ全体を移動(ドラッグ)させることができる。これにより、関連性のあるコンテンツに対しては、同様の操作を繰り返す必要がなく、文書内のコンテンツに対する操作性が向上する。 In this way, when the display unit 58 receives an operation to select the cluster content displayed on the display panel 57, the display unit 58 displays each of the contents associated by the cluster content in the selected display mode. For example, if you perform an operation to select one content or the vicinity of the content in the cluster content displayed on the display panel 57 and move (drag) on the display panel 57, all the content in the cluster content is displayed as selected. The entire cluster content can be moved (dragged). This eliminates the need to repeat similar operations for related content, improving the operability of content within a document.

図11はクラスタコンテンツに対する操作の第2例を示す模式図である。図11に示すように、表示パネル57に複数のコンテンツが配置された文書(例えば、1頁、あるいは両開きの2頁相当)が表示されている。図11の例では、コンテンツとして、本文A、本文B、本文C、画像A、キャプションAが表示されている。また、本文Bと本文Cとがお互いに関連性があるとする。 FIG. 11 is a schematic diagram showing a second example of operations on cluster content. As shown in FIG. 11, a document in which a plurality of contents are arranged (for example, one page or two double-page pages) is displayed on the display panel 57. In the example of FIG. 11, text A, text B, text C, image A, and caption A are displayed as contents. Further, it is assumed that text B and text C are related to each other.

図11の左図のように、アイコン100を本文B(または本文Bの周辺、本文Cでもよい)に近づけて、タッチ操作及びドラッグ操作を行うと、右図に示すように、本文Bとともに本文Cを同じように移動させることができる。本文Bと本文Cは、1個のクラスタコンテンツ102を構成している。これにより、関連性のあるコンテンツに対しては、同様の操作を繰り返す必要がなく、文書内のコンテンツに対する操作性が向上する。 As shown in the left diagram of FIG. 11, when the icon 100 is brought close to text B (or the vicinity of text B, or even text C) and touch and drag operations are performed, the text C can be moved in the same way. Main text B and main text C constitute one cluster content 102. This eliminates the need to repeat similar operations for related content, improving the operability of content within a document.

制御部51は、グループ化処理部としての機能を有し、クラスタコンテンツを一つのコンテンツとしてグループ化する。具体的には、制御部51は、クラスタコンテンツの一のコンテンツに対して所定の処理を行う場合、当該クラスタコンテンツの他のコンテンツに対して当該所定の処理と同じ処理を行うことができる。例えば、所定の処理として、文書内のコンテンツに対する編集処理(例えば、複写、移動、拡縮、削除など)の場合、一のコンテンツに対して編集処理を行うと当該一のコンテンツと関連性のある他のコンテンツに対しても同様の編集処理を行うことができ、文書内のコンテンツに対する操作性を向上させることができる。 The control unit 51 has a function as a grouping processing unit, and groups cluster contents as one content. Specifically, when performing a predetermined process on one content of the cluster content, the control unit 51 can perform the same process as the predetermined process on other contents of the cluster content. For example, if the predetermined process is to edit content within a document (e.g., copy, move, scale, delete, etc.), if the editing process is performed on one content, other content related to the one content will be edited. Similar editing processing can be performed on the contents of the document, and the operability of the contents within the document can be improved.

また、制御部51は、クラスタコンテンツに対して所定の処理を行う場合、クラスタコンテンツ内のコンテンツそれぞれに対して当該所定の処理と同じ処理を行うことができる。例えば、所定の処理として、文書内のコンテンツを探索する処理の場合、クラスタコンテンツ単位で探索することができ、文書内のコンテンツに対する操作性を向上させることができる。 Further, when performing a predetermined process on cluster content, the control unit 51 can perform the same process as the predetermined process on each content in the cluster content. For example, in the case of searching for content within a document as the predetermined process, the search can be performed in units of cluster content, thereby improving the operability of the content within the document.

図12は情報処理装置50のクラスタコンテンツ抽出処理の一例を示すフローチャートである。以下では、便宜上、処理の主体を制御部51として説明する。制御部51は、レイアウトデータを取得し(S11)、レイアウトデータの構造情報(例えば、コンテンツのサイズ、座標)を取得する(S12)。 FIG. 12 is a flowchart illustrating an example of cluster content extraction processing by the information processing device 50. Hereinafter, for convenience, the main body of processing will be described as the control unit 51. The control unit 51 acquires layout data (S11), and acquires structural information (for example, content size and coordinates) of the layout data (S12).

制御部51は、コンテンツの組を選択し(S13)、選択したコンテンツの特徴量を抽出する(S14)。制御部51は、抽出した特徴量及び選択したコンテンツの相対位置情報に基づいて、選択したコンテンツの関連性を判定する(S15)。 The control unit 51 selects a content set (S13) and extracts the feature amount of the selected content (S14). The control unit 51 determines the relevance of the selected content based on the extracted feature amount and the relative position information of the selected content (S15).

制御部51は、未処理のコンテンツの有無を判定し(S16)、未処理のコンテンツがある場合(S16でYES)、ステップS13以降の処理を続ける。未処理のコンテンツがない場合(S16でNO)、制御部51は、関連性のあるコンテンツ同士を纏めてクラスタコンテンツとして抽出し(S17)、処理を終了する。 The control unit 51 determines whether there is any unprocessed content (S16), and if there is any unprocessed content (YES at S16), it continues the processing from step S13 onward. If there is no unprocessed content (NO in S16), the control unit 51 extracts related content together as cluster content (S17), and ends the process.

情報処理装置50は、例えば、CPU(例えば、複数のプロセッサコアを実装したマルチ・プロセッサなど)、GPU(Graphics Processing Units)、RAMなどを備えたコンピュータを用いて実現することもできる。図12に示すような処理の手順を定めたコンピュータプログラム(記録媒体に記録可能)をコンピュータに備えられたRAMにロードし、コンピュータプログラムをCPU(プロセッサ)で実行することにより、コンピュータ上で情報処理装置50を実現することができる。 The information processing device 50 can also be realized using, for example, a computer including a CPU (for example, a multi-processor equipped with a plurality of processor cores), a GPU (Graphics Processing Unit), a RAM, and the like. Information processing is performed on the computer by loading a computer program (recordable on a recording medium) that defines the processing procedure shown in FIG. Apparatus 50 can be implemented.

本実施の形態の情報処理装置は、関連性のあるコンテンツの組を教師データとして学習した学習済みモデルを用いて、入力されたコンテンツの組の関連性の有無を特定する特定部と、前記特定部で特定した関連性のあるコンテンツの組を対応付けてクラスタコンテンツとして抽出する抽出部とを備える。 The information processing device according to the present embodiment includes a specifying unit that uses a learned model that has learned a set of related contents as teacher data to specify whether or not a set of input contents is related; and an extracting section that associates a set of related contents identified by the section and extracts them as cluster contents.

本実施の形態のコンピュータプログラムは、コンピュータに、関連性のあるコンテンツの組を教師データとして学習した学習済みモデルを用いて、入力されたコンテンツの組の関連性の有無を特定する処理と、特定した関連性のあるコンテンツの組を対応付けてクラスタコンテンツとして抽出する処理とを実行させる。 The computer program of this embodiment includes a process of specifying whether or not a set of input contents is related, using a trained model that has been trained with a set of related contents as teacher data, and A process of associating a set of related contents and extracting them as cluster contents is executed.

本実施の形態の情報処理方法は、関連性のあるコンテンツの組を教師データとして学習した学習済みモデルを用いて、入力されたコンテンツの組の関連性の有無を特定し、特定された関連性のあるコンテンツの組を対応付けてクラスタコンテンツとして抽出する。 The information processing method of this embodiment uses a learned model that has learned a set of related contents as training data to identify whether or not there is a relationship between the input set of content, and A certain set of contents are associated and extracted as cluster contents.

特定部は、関連性のあるコンテンツの組を教師データとして学習した学習済みモデルを用いて、入力されたコンテンツの組の関連性の有無を特定する。
コンテンツには、例えば、タイトル、本文(テキスト)、画像(図)、キャプション(画像の説明文)などが含まれる。レイアウトデータは、コンテンツを配置するために必要なデータであり、例えば、各コンテンツのサイズ、コンテンツの座標、コンテンツ間の相対座標などを含む。「関連性があるコンテンツ」とは、例えば、ユーザが、同様の操作(例えば、複写、移動など)を繰り返す可能性が高いコンテンツ同士とすることができる。
The identification unit identifies whether or not the input content set is related, using a trained model that has learned a set of related content as teacher data.
The content includes, for example, a title, a main body (text), an image (figure), a caption (an explanatory text of the image), and the like. The layout data is data necessary for arranging the contents, and includes, for example, the size of each content, the coordinates of the contents, the relative coordinates between the contents, and the like. "Related content" can be, for example, content that is likely to be repeatedly performed by a user in a similar manner (for example, copying, moving, etc.).

文書内の複数のコンテンツから、任意の2つのコンテンツを選択し、選択したコンテンツ同士の関連性を示す指標を算出し、算出した指標が所定の閾値以上であれば、関連性ありと判定し、算出した指標が閾値未満であれば、関連性なしと判定することにより、関連性のあるコンテンツの組を特定することができる。 Select any two contents from a plurality of contents in a document, calculate an index indicating the relationship between the selected contents, and if the calculated index is equal to or higher than a predetermined threshold, determine that there is a relationship, If the calculated index is less than the threshold value, it is determined that there is no relevance, thereby making it possible to identify a set of relevant content.

抽出部は、特定部で特定した関連性のあるコンテンツの組を対応付けてクラスタコンテンツとして抽出する。クラスタコンテンツは、関連性のあるコンテンツ同士を一つのコンテンツとして纏めたものであり、関連性のあるコンテンツ同士は、一つのコンテンツとして扱うことができる。 The extraction unit associates the related content sets identified by the identification unit and extracts them as cluster content. Cluster content is a collection of related contents, and the related contents can be treated as one piece of content.

上述の構成により、クラスタコンテンツに対して所要の操作を行うと、関連性のあるコンテンツ同士に対して操作が行われたものとして扱われるので、文書内のコンテンツに対する操作性が向上する。 With the above configuration, when a required operation is performed on cluster content, the operation is treated as having been performed on related contents, thereby improving the operability of content within a document.

本実施の形態の情報処理装置において、前記入力されたコンテンツの組は、画像データと文書データの組である。 In the information processing apparatus of this embodiment, the input content set is a set of image data and document data.

これにより、画像と文書とをクラスタコンテンツとして抽出することができる。 This allows images and documents to be extracted as cluster content.

本実施の形態の情報処理装置は、前記クラスタコンテンツを一つのコンテンツとしてグループ化するグループ化処理部を備える。 The information processing apparatus of this embodiment includes a grouping processing unit that groups the cluster contents as one content.

グループ化処理部は、抽出部で抽出したクラスタコンテンツに対して所定の処理を行う場合、クラスタコンテンツよって関連付けられたコンテンツそれぞれに対して当該所定の処理と同じ処理を行うことができる。例えば、所定の処理として、文書内のコンテンツを探索する処理の場合、クラスタコンテンツ単位で探索することができ、文書内のコンテンツに対する操作性を向上させることができる。 When performing a predetermined process on the cluster content extracted by the extraction unit, the grouping processing unit can perform the same process as the predetermined process on each content associated by the cluster content. For example, in the case of searching for content within a document as the predetermined process, the search can be performed in units of cluster content, thereby improving the operability of the content within the document.

また、グループ化処理部は、クラスタコンテンツの一のコンテンツに対して所定の処理を行う場合、当該クラスタコンテンツの他のコンテンツに対して当該所定の処理と同じ処理を行うことができる。例えば、所定の処理として、文書内のコンテンツに対する編集処理(例えば、複写、移動、拡縮、削除など)の場合、一のコンテンツに対して編集処理を行うと当該一のコンテンツと関連性のある他のコンテンツに対しても同様の編集処理を行うことができ、文書内のコンテンツに対する操作性を向上させることができる。 Further, when performing a predetermined process on one content of the cluster content, the grouping processing unit can perform the same process as the predetermined process on other contents of the cluster content. For example, if the predetermined process is to edit content within a document (e.g., copy, move, scale, delete, etc.), if the editing process is performed on one content, other content related to the one content will be edited. Similar editing processing can be performed on the contents of the document, and the operability of the contents within the document can be improved.

本実施の形態の情報処理装置は、前記抽出部で抽出したクラスタコンテンツを表示画面に表示する表示部と、前記表示画面に表示したクラスタコンテンツを選択する操作を受け付ける受付部とを備え、前記表示部は、前記受付部で前記操作を受け付けた場合、前記クラスタコンテンツよって関連付けられたコンテンツそれぞれを選択した表示態様で表示する。 The information processing device according to the present embodiment includes a display unit that displays cluster content extracted by the extraction unit on a display screen, and a reception unit that receives an operation for selecting the cluster content displayed on the display screen, When the reception unit receives the operation, the unit displays each of the contents associated by the cluster content in the selected display mode.

表示部は、抽出部で抽出したクラスタコンテンツを表示画面に表示する。受付部で表示画面に表示したクラスタコンテンツを選択する操作を受け付けた場合、表示部は、クラスタコンテンツよって関連付けられたコンテンツそれぞれを選択した表示態様で表示する。例えば、表示画面に表示されたクラスタコンテンツ内の一のコンテンツまたはコンテンツの周辺を選択する操作を行い、例えば、表示画面上を移動(ドラッグ)すると、クラスタコンテンツ内のすべてのコンテンツが選択された表示態様で表示され、クラスタコンテンツ全体を移動(ドラッグ)させることができる。これにより、関連性のあるコンテンツに対しては、同様の操作を繰り返す必要がなく、文書内のコンテンツに対する操作性が向上する。 The display section displays the cluster content extracted by the extraction section on the display screen. When the reception unit receives an operation to select cluster content displayed on the display screen, the display unit displays each of the contents associated by the cluster content in the selected display mode. For example, if you perform an operation to select one content or the area around the content in the cluster content displayed on the display screen, and move (drag) the content on the display screen, all the content in the cluster content will be displayed as selected. The entire cluster content can be moved (dragged). This eliminates the need to repeat similar operations for related content, improving the operability of content within a document.

1 通信ネットワーク
10 サーバ
20 スキャナ
50 情報処理装置
51 制御部
52 通信部
53 記憶部
54 レイアウトデータ推定部
55 特定部
551、552、553 ニューラルネットワーク
56 抽出部
57 表示パネル
58 表示部
59 操作部
1 communication network 10 server 20 scanner 50 information processing device 51 control unit 52 communication unit 53 storage unit 54 layout data estimation unit 55 identification unit 551, 552, 553 neural network 56 extraction unit 57 display panel 58 display unit 59 operation unit

Claims (4)

関連性のあるコンテンツの組に含まれる画像の画像特徴量、前記コンテンツの組に含まれる文書の文書特徴量、及び前記画像と文書との相対位置情報を入力した場合、前記コンテンツの組の関連性の有無を出力するように学習した学習済みモデルを用いて、入力された複数のコンテンツを有するレイアウトデータからコンテンツの組の関連性の有無を特定する特定部と、
前記特定部で特定した関連性のあるコンテンツの組を対応付けてクラスタコンテンツとして抽出する抽出部と、
前記抽出部で抽出したクラスタコンテンツを含むレイアウトデータを表示画面に表示する表示部と、
前記表示画面に表示したクラスタコンテンツを選択する操作を受け付ける受付部と
を備え、
前記入力されたコンテンツの組は、画像と書の組であり、
前記表示部は、
前記受付部で前記操作を受け付けた場合、前記クラスタコンテンツよって関連付けられたコンテンツそれぞれを選択した表示態様で表示する情報処理装置。
If the image feature amount of an image included in a related content set, the document feature amount of a document included in the content set, and the relative position information between the image and the document are input, the relationship of the content set is input. an identification unit that identifies whether or not a set of contents is related from input layout data having a plurality of contents using a trained model that has been trained to output the presence or absence of a relationship;
an extraction unit that associates a set of related content identified by the identification unit and extracts it as cluster content;
a display unit that displays layout data including the cluster content extracted by the extraction unit on a display screen;
a reception unit that receives an operation for selecting cluster content displayed on the display screen;
The input content set is a set of an image and a document ,
The display section is
An information processing device that displays each of the contents associated by the cluster content in a selected display mode when the operation is accepted by the reception unit.
前記クラスタコンテンツを一つのコンテンツとしてグループ化するグループ化処理部を備える請求項1に記載の情報処理装置。 The information processing apparatus according to claim 1, further comprising a grouping processing unit that groups the cluster contents as one content. コンピュータに、
関連性のあるコンテンツの組に含まれる画像の画像特徴量、前記コンテンツの組に含まれる文書の文書特徴量、及び前記画像と文書との相対位置情報を入力した場合、前記コンテンツの組の関連性の有無を出力するように学習した学習済みモデルを用いて、入力された複数のコンテンツを有するレイアウトデータからコンテンツの組の関連性の有無を特定する処理と、
特定した関連性のあるコンテンツの組を対応付けてクラスタコンテンツとして抽出する処理と、
抽出したクラスタコンテンツを含むレイアウトデータを表示画面に表示する処理と、
前記表示画面に表示したクラスタコンテンツを選択する操作を受け付ける処理と
を実行させ、
前記入力されたコンテンツの組は、画像と書の組であり、
さらに、前記操作を受け付けた場合、前記クラスタコンテンツよって関連付けられたコンテンツそれぞれを選択した表示態様で表示する処理を実行させるコンピュータプログラム。
to the computer,
If the image feature amount of an image included in a related content set, the document feature amount of a document included in the content set, and the relative position information between the image and the document are input, the relationship of the content set is input. A process of identifying the presence or absence of a relationship between a set of contents from input layout data having a plurality of contents using a trained model that has been trained to output the presence or absence of a relationship;
a process of associating the identified set of related content and extracting it as cluster content;
a process of displaying layout data including the extracted cluster content on a display screen;
executing a process of accepting an operation for selecting cluster content displayed on the display screen;
The input content set is a set of an image and a document ,
Furthermore, when the operation is accepted, the computer program causes the computer program to execute a process of displaying each of the contents associated by the cluster content in a selected display mode.
関連性のあるコンテンツの組に含まれる画像の画像特徴量、前記コンテンツの組に含まれる文書の文書特徴量、及び前記画像と文書との相対位置情報を入力した場合、前記コンテンツの組の関連性の有無を出力するように学習した学習済みモデルを用いて、入力された複数のコンテンツを有するレイアウトデータからコンテンツの組の関連性の有無を特定し、
特定された関連性のあるコンテンツの組を対応付けてクラスタコンテンツとして抽出し、
抽出したクラスタコンテンツを含むレイアウトデータを表示画面に表示し、
前記表示画面に表示したクラスタコンテンツを選択する操作を受け付け、
前記入力されたコンテンツの組は、画像と書の組であり、
さらに、前記操作を受け付けた場合、前記クラスタコンテンツよって関連付けられたコンテンツそれぞれを選択した表示態様で表示する情報処理方法。
If the image feature amount of an image included in a related content set, the document feature amount of a document included in the content set, and the relative position information between the image and the document are input, the relationship of the content set is input. Using a trained model that has been trained to output the presence or absence of gender , the system identifies the presence or absence of a relationship between a set of contents from input layout data containing multiple contents,
Correlate the identified sets of related content and extract them as cluster content,
Display the layout data including the extracted cluster content on the display screen,
Accepting an operation to select cluster content displayed on the display screen,
The input content set is a set of an image and a document ,
Furthermore, when the operation is accepted, the information processing method displays each content associated by the cluster content in a selected display mode.
JP2019180605A 2019-09-30 2019-09-30 Information processing device, computer program and information processing method Active JP7395915B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019180605A JP7395915B2 (en) 2019-09-30 2019-09-30 Information processing device, computer program and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019180605A JP7395915B2 (en) 2019-09-30 2019-09-30 Information processing device, computer program and information processing method

Publications (2)

Publication Number Publication Date
JP2021056871A JP2021056871A (en) 2021-04-08
JP7395915B2 true JP7395915B2 (en) 2023-12-12

Family

ID=75272647

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019180605A Active JP7395915B2 (en) 2019-09-30 2019-09-30 Information processing device, computer program and information processing method

Country Status (1)

Country Link
JP (1) JP7395915B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007257470A (en) 2006-03-24 2007-10-04 Fujifilm Corp Similarity discrimination device, method and program
JP2010020642A (en) 2008-07-11 2010-01-28 Canon Inc Document managing apparatus, document managing method and computer program
JP2016535907A (en) 2013-09-12 2016-11-17 ウィックス.コム リミテッド. Systems and methods for automatic conversion of interactive sites and applications that support mobile and other display environments
JP2016200978A (en) 2015-04-10 2016-12-01 株式会社日立製作所 Training data generation device
JP2017054214A (en) 2015-09-07 2017-03-16 ヤフー株式会社 Determination device, learning device, information distribution device, determination method, and determination program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007257470A (en) 2006-03-24 2007-10-04 Fujifilm Corp Similarity discrimination device, method and program
JP2010020642A (en) 2008-07-11 2010-01-28 Canon Inc Document managing apparatus, document managing method and computer program
JP2016535907A (en) 2013-09-12 2016-11-17 ウィックス.コム リミテッド. Systems and methods for automatic conversion of interactive sites and applications that support mobile and other display environments
JP2016200978A (en) 2015-04-10 2016-12-01 株式会社日立製作所 Training data generation device
JP2017054214A (en) 2015-09-07 2017-03-16 ヤフー株式会社 Determination device, learning device, information distribution device, determination method, and determination program

Also Published As

Publication number Publication date
JP2021056871A (en) 2021-04-08

Similar Documents

Publication Publication Date Title
JP5134628B2 (en) Media material analysis of consecutive articles
AU2014223441B2 (en) Synchronizing annotations between printed documents and electronic documents
EP4004811A1 (en) Technologies for content analysis
US9529438B2 (en) Printing structured documents
WO2009154153A1 (en) Document search system
US20130036113A1 (en) System and Method for Automatically Providing a Graphical Layout Based on an Example Graphic Layout
JP5774558B2 (en) Handwritten document processing apparatus, method and program
CN108351745A (en) The system and method for digital notes record
EP2786272A1 (en) Topic extraction and video association
US11887011B2 (en) Schema augmentation system for exploratory research
CN115828874A (en) Industry table digital processing method based on image recognition technology
JP2008129793A (en) Document processing system, apparatus and method, and recording medium with program recorded thereon
CN113673294A (en) Method and device for extracting key information of document, computer equipment and storage medium
JP2006309347A (en) Method, system, and program for extracting keyword from object document
JP7395915B2 (en) Information processing device, computer program and information processing method
CN116822634A (en) Document visual language reasoning method based on layout perception prompt
Ramel et al. Interactive layout analysis, content extraction, and transcription of historical printed books using Pattern Redundancy Analysis
Ishihara et al. Analyzing visual layout for a non-visual presentation-document interface
JP7221143B2 (en) Keyword detection device and keyword detection method
Tamrin et al. Simultaneous detection of regular patterns in ancient manuscripts using GAN-Based deep unsupervised segmentation
US20240086452A1 (en) Tracking concepts within content in content management systems and adaptive learning systems
JP7493937B2 (en) Method, program and system for identifying a sequence of headings in a document
CN108733637A (en) Information processing equipment and information processing method
Brini et al. An End-to-End Framework for Evaluating Explainable Deep Models: Application to Historical Document Image Segmentation
Wilkinson Learning based Word Search and Visualisation for Historical Manuscript Images

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220726

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230316

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230328

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230529

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230801

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230919

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231031

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231113

R150 Certificate of patent or registration of utility model

Ref document number: 7395915

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150