JP2012033031A - Document creation/edition support method and document creation/edition support device - Google Patents

Document creation/edition support method and document creation/edition support device Download PDF

Info

Publication number
JP2012033031A
JP2012033031A JP2010172589A JP2010172589A JP2012033031A JP 2012033031 A JP2012033031 A JP 2012033031A JP 2010172589 A JP2010172589 A JP 2010172589A JP 2010172589 A JP2010172589 A JP 2010172589A JP 2012033031 A JP2012033031 A JP 2012033031A
Authority
JP
Japan
Prior art keywords
metadata
editing
image
difference
document
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010172589A
Other languages
Japanese (ja)
Inventor
Tomoyuki Shimizu
智之 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010172589A priority Critical patent/JP2012033031A/en
Publication of JP2012033031A publication Critical patent/JP2012033031A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To extract and present a part of a text which may cause unconformity when replacing images.SOLUTION: This document creation/edition support method includes: determining whether there is a difference in values set in attributes, which are comparable, in meta data of images before and after the replacement; when there is the difference, searching a position where the value of the image before the replacement appears in the text; and presenting the searched position as a correction candidate.

Description

本発明は文書作成・編集支援方法および文書作成・編集支援装置に関し、特に、写真などの画像を含む文書において、画像を差し替えるような編集に伴う本文テキストの修正を支援するための技術に関する。   The present invention relates to a document creation / editing support method and a document creation / editing support apparatus, and more particularly to a technique for supporting correction of body text accompanying editing such as replacing an image in a document including an image such as a photograph.

文書の作成・編集を行う際に、記述内容に不整合が生じないように、文書中のある部分に対する編集内容を、文書全体に反映する技術がある。テキストのみの文書に対する編集であれば、編集前の文字列をパターンマッチングによって文書全体から検索して、編集後の文字列へと一括変換する処理等が一般的である。   There is a technique for reflecting edited contents of a part of a document in the entire document so that inconsistency does not occur in the description contents when creating and editing the document. When editing a text-only document, a general process is to search a character string before editing from the entire document by pattern matching and batch-convert it into a character string after editing.

これに対し、図などの画像と本文テキストが混在する文書においては、一方の編集が行われた場合に、他方の該当関係箇所に到達できるようにあらかじめ関連付けをしておき、両者に含まれる文字列が同一になるように整合性を維持する方法がある。例えば、特許文献1を参照。   On the other hand, in the case of a document such as a figure where text and text are mixed, if one of the edits is performed, the association is made in advance so that the other relevant location can be reached, and the characters included in both There is a way to maintain consistency so that the columns are identical. See, for example, US Pat.

特開平10−124509号公報JP-A-10-124509

しかし、従来の方法では、例えば、画像の差し替えによる編集作業が行われた場合、画像に対する直接的な文字列の修正などを伴わないため、本文テキストの「どこを」修正すべきか絞り込むことができず、不整合の回避が困難な場合があった。
本発明は前述の問題点に鑑み、画像の差し替えに伴って不整合が生じそうな本文テキストの箇所を抽出して提示できるようにすることを目的とする。
However, in the conventional method, for example, when editing work is performed by replacing images, it is not necessary to directly modify the character string on the image, so it is possible to narrow down “where” the body text should be corrected. In some cases, it was difficult to avoid inconsistencies.
The present invention has been made in view of the above-described problems, and an object of the present invention is to enable extraction and presentation of a portion of body text that is likely to be inconsistent with image replacement.

本発明の文書作成・編集支援方法は、画像と本文テキストが混在した文書の作成・編集を行う文書作成・編集工程と、前記文書作成・編集工程にて行われる差し替え前後の画像を指定する指示を受ける画像指示受信工程と、前記画像のメタデータを取得可能に管理するメタデータ管理工程と、前記指示された差し替え前後の画像のメタデータを、前記メタデータ管理工程からそれぞれ取得するメタデータ取得工程と、前記メタデータ取得工程で取得したメタデータから比較可能な属性を特定する比較属性特定工程と、前記比較属性特定工程で特定された比較可能な属性に設定されている値を比較し、それぞれ差異を判定する差異判定工程と、前記差異判定工程で差異があると判定された場合に、差し替え前の画像に付いていたメタデータに関する本文テキスト中での記述位置を、編集中の文書から検出する修正候補位置検出工程と、前記修正候補位置検出工程で検出された修正候補の箇所を区別する情報の出力を行う出力工程とを備えることを特徴とする。   The document creation / editing support method of the present invention includes a document creation / editing process for creating / editing a document in which an image and text are mixed, and an instruction for designating images before and after replacement performed in the document creating / editing process. Receiving the image instruction receiving step, the metadata managing step for managing the metadata of the image so as to be acquired, and the metadata acquisition for acquiring the instructed metadata before and after the replacement from the metadata managing step, respectively. A process, a comparison attribute specifying process for specifying a comparable attribute from the metadata acquired in the metadata acquisition process, and a value set for the comparable attribute specified in the comparison attribute specifying process, When it is determined that there is a difference between the difference determination step for determining a difference and the difference determination step, the metadata attached to the image before replacement is related. A correction candidate position detecting step for detecting a description position in the body text to be edited from the document being edited, and an output step for outputting information for distinguishing the position of the correction candidate detected in the correction candidate position detecting step. It is characterized by providing.

本発明によれば、文書中の写真などの画像を差し替える際に、画像の差し替えに伴って不整合が生じそうな本文テキストの箇所を抽出し、提示できるようになる。このため、利用者は、提示された箇所を中心として本文テキストを修正するか否かを確認することで、修正漏れを困難なく抑制することが可能となる。   According to the present invention, when replacing an image such as a photograph in a document, it is possible to extract and present a portion of a body text that is likely to be inconsistent with the replacement of the image. For this reason, the user can suppress omissions without difficulty by confirming whether or not the body text is to be corrected around the presented location.

本発明の実施形態の文書作成・編集支援装置の例を示すブロック図である。1 is a block diagram illustrating an example of a document creation / editing support apparatus according to an embodiment of the present invention. 文書作成・編集支援装置の基本構成を示すブロック図である。It is a block diagram which shows the basic composition of a document creation / edit assistance apparatus. 文書作成・編集支援装置の処理工程を示すフローチャートである。It is a flowchart which shows the process of a document preparation / edit assistance apparatus. ネットワーク接続可能にした装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the apparatus which enabled network connection. 差し替え前後の画像に付与されたメタデータの例を示した図である。It is the figure which showed the example of the metadata provided to the image before and behind replacement. 差し替え前後の画像に付与されたメタデータに差異が無い例を示す図である。It is a figure which shows the example with no difference in the metadata provided to the image before and behind replacement. 編集中の文書の表示例を示した図である。It is the figure which showed the example of a display of the document in edit. 編集中の文書で、画像の差し替えを行う様子を示した図である。It is the figure which showed a mode that the image is replaced in the document in edit. 本文テキストにおける修正候補が強調表示される例を示した図である。It is the figure which showed the example by which the correction candidate in a text is highlighted. 単語利用意図推定部を設けた装置の基本構成を示すブロック図である。It is a block diagram which shows the basic composition of the apparatus which provided the word utilization intention estimation part.

以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載の構成の具体的な実施形態の1つである。   Preferred embodiments of the present invention will be described below with reference to the accompanying drawings. The embodiment described below shows an example when the present invention is specifically implemented, and is one of the specific embodiments having the configurations described in the claims.

(第1の実施形態)
本実施形態の文書作成・編集支援装置を示す回路構成について、図1のブロック図を参照して説明する。本実施形態においては、本構成は単一のコンピュータ装置で実現してもよいし、必要に応じた複数のコンピュータ装置に各機能を分散して実現するようにしてもよい。複数のコンピュータ装置で構成される場合は、図4のように、図1に示す構成にネットワークインタフェース401を追加し、互いに通信可能なようにLocal Area Network(LAN)などで接続されているものとする。
(First embodiment)
A circuit configuration showing the document creation / editing support apparatus of this embodiment will be described with reference to the block diagram of FIG. In the present embodiment, this configuration may be realized by a single computer device, or may be realized by distributing each function to a plurality of computer devices as necessary. When configured by a plurality of computer devices, as shown in FIG. 4, a network interface 401 is added to the configuration shown in FIG. 1, and they are connected by a local area network (LAN) or the like so that they can communicate with each other. To do.

図1において、Central Processing Unit(CPU)101ではコンピュータ装置100全体の制御を担う。Read Only Memory(ROM)102は変更を必要としないプログラムやパラメータを格納する。Random Access Memory(RAM)103は外部記憶装置104などから供給されるプログラムやデータを一時記憶する。   In FIG. 1, a central processing unit (CPU) 101 controls the entire computer apparatus 100. A Read Only Memory (ROM) 102 stores programs and parameters that do not need to be changed. A random access memory (RAM) 103 temporarily stores programs and data supplied from the external storage device 104 or the like.

外部記憶装置104は、コンピュータ装置100に固定して設置されたハードディスクドライブ(HDD)やフラッシュメモリドライブ(SSD)、あるいはコンピュータ装置100から着脱可能なメモリカードや光ディスクなどを含む。入力インタフェース105は、ユーザの操作を受けてデータを入力するポインティングデバイスやキーボードなどの入力デバイス108とのインタフェースである。出力インタフェース106は、コンピュータ装置100の保持するデータや供給されたデータやプログラムの実行結果を出力するためのモニタなどの出力デバイス109とのインタフェースである。システムバス107は101〜106の各ユニットを通信可能に接続する。   The external storage device 104 includes a hard disk drive (HDD) and a flash memory drive (SSD) fixedly installed on the computer device 100, or a memory card and an optical disk that can be detached from the computer device 100. The input interface 105 is an interface with an input device 108 such as a pointing device or a keyboard that inputs data in response to a user operation. The output interface 106 is an interface with an output device 109 such as a monitor for outputting data held by the computer apparatus 100, supplied data, and an execution result of the program. A system bus 107 connects the units 101 to 106 so that they can communicate with each other.

次に、本実施形態の文書作成・編集支援装置の基本構成について、図2のブロック図を参照して説明する。
文書作成・編集部200は、画像と本文テキストが混在した文書の作成・編集を行うことが可能である。ここでは、基本的な文書作成・編集のための機能を提供している。本実施形態では、本文テキストの編集入力や、文書中の画像の指定入力などを行うことができるものとする。
Next, the basic configuration of the document creation / editing support apparatus of this embodiment will be described with reference to the block diagram of FIG.
The document creation / editing unit 200 can create and edit a document in which an image and text are mixed. Here, basic document creation and editing functions are provided. In the present embodiment, it is possible to perform editing input of body text, designation input of an image in a document, and the like.

さらに、該指定済みの画像に対し、別の画像への差し替えを指示する操作によって、文書中の画像の差し替えを行うことができるものとする。このとき、指定済みの画像や、差し替えを指示した別の画像について、それぞれ画像の識別情報を保持しておくものとする。これらの識別情報は、後述するメタデータ管理部202から当該画像のメタデータを取得する際に使用可能なものとする。なお、これらの操作は、入力デバイス108から入力インタフェース105経由での入力と、出力インタフェース106経由での出力デバイス109への出力により行われる。   Furthermore, it is assumed that an image in a document can be replaced by an operation for instructing replacement of the designated image with another image. At this time, it is assumed that image identification information is held for each of the designated image and another image that has been instructed to be replaced. These pieces of identification information can be used when acquiring metadata of the image from the metadata management unit 202 described later. These operations are performed by input from the input device 108 via the input interface 105 and output to the output device 109 via the output interface 106.

画像指示受信部201は、差し替え前後の画像の識別情報を受信する。ここでは、少なくとも後述するメタデータ管理部202において、メタデータを取得可能な、画像の識別情報が与えられるものとする。本実施形態では、入力インタフェース105経由での差し替え前後の画像の指示により、文書作成・編集部200から、指示されたそれぞれの画像の識別情報を取得する。   The image instruction receiving unit 201 receives image identification information before and after replacement. Here, it is assumed that identification information of an image from which metadata can be acquired is given at least in the metadata management unit 202 described later. In the present embodiment, identification information of each instructed image is acquired from the document creation / editing unit 200 in accordance with an instruction for the image before and after replacement via the input interface 105.

メタデータ管理部202は、画像の識別情報から該画像のメタデータを取得可能に管理する。本実施形態においては、メタデータは「属性=値」で表現する。例えば、ある写真のメタデータとして「撮影地=西表島」といったものが付与されていたとすると、「撮影地」が属性であり、「西表島」が値に相当する。これらのメタデータは、画像本体のファイルに、規定された方法で書き込まれていてもよい(例えば、Exifフォーマットなど)。画像の識別情報と関連付けて画像本体のファイルとは別で管理してもよい。あるいは、両方の方式を混在させて管理しても構わない。なお、画像本体のファイルに書き込まれている場合は、画像の識別情報から該画像本体のファイルを特定し、そのファイルからメタデータを抽出することでメタデータの取得を実現すればよい。   The metadata management unit 202 manages the metadata of the image so as to be acquired from the identification information of the image. In the present embodiment, metadata is expressed by “attribute = value”. For example, assuming that “photographing location = Iriomote Island” is given as metadata of a certain photo, “photographing location” is an attribute, and “Iriomote Island” corresponds to a value. These metadata may be written in the file of the image main body by a prescribed method (for example, Exif format). The file may be managed separately from the image file in association with the image identification information. Alternatively, both methods may be managed together. In the case where the file is written in the image main body file, the acquisition of the metadata may be realized by specifying the image main body file from the image identification information and extracting the metadata from the file.

メタデータ取得部203は、差し替え前後の画像の識別情報を受けて、これらの画像それぞれのメタデータをメタデータ管理部202から取得する。本実施形態では、差し替え前後の画像について、それぞれ図5の(a)、(b)に示すようなメタデータのリストを取得する。なお、図5では、本実施形態において説明上必要となる一部のメタデータのみを抜粋して記載している。   The metadata acquisition unit 203 receives the identification information of the images before and after replacement, and acquires the metadata of each of these images from the metadata management unit 202. In the present embodiment, a list of metadata as shown in FIGS. 5A and 5B is acquired for the images before and after replacement, respectively. In FIG. 5, only a part of metadata necessary for explanation in the present embodiment is extracted and described.

比較属性特定部204は、差し替え前後のメタデータから比較可能な属性を特定する。本実施形態では、属性の表記を比較して同一であれば比較可能な属性とする。図5の(a)、(b)の例では、「被写体」、「撮影地」が相互に比較可能な属性となる。   The comparison attribute specifying unit 204 specifies comparable attributes from the metadata before and after replacement. In the present embodiment, the attribute notations are compared, and if they are the same, the attributes are comparable. In the examples of FIGS. 5A and 5B, “subject” and “shooting location” are mutually comparable attributes.

差異判定部205は、差し替え前後のメタデータについて、比較可能な属性に対してそれぞれで設定されている値の差異の有無を判定する。本実施形態では、値がテキストであり、その表記が異なる場合に差異があると判定する。図5の例で言えば、「被写体」属性については、差し替え前後で、「カンムリワシ」から「イリオモテヤマネコ」へと変わったことから、「被写体」属性の値については差異があったと判定する。   The difference determination unit 205 determines whether or not there is a difference in values set for the comparable attributes for the metadata before and after replacement. In this embodiment, it is determined that there is a difference when the value is text and the notation is different. In the example of FIG. 5, regarding the “subject” attribute, the value of the “subject” attribute is determined to be different because the “subject” attribute has changed from “comic eagle” to “Iriomote Wildcat” before and after the replacement.

修正候補位置検出部206は、差異があった差し替え前のメタデータに関する本文テキスト中の記述位置を探し、該位置を修正候補の位置として検出する。本実施形態では、文字列パターンが部分一致する箇所を本文テキスト全体から検索し、当該位置を修正候補位置として検出する。図5の例では、差し替え前の値である「カンムリワシ」と部分一致する本文テキスト中の位置を検索し、それらの位置全てを、修正候補位置として検出する。   The correction candidate position detection unit 206 searches for the description position in the body text related to the metadata before replacement that has a difference, and detects the position as the position of the correction candidate. In this embodiment, a part where the character string pattern partially matches is searched from the entire body text, and the position is detected as a correction candidate position. In the example of FIG. 5, positions in the body text that partially match with “Kamuri-sword” that is a value before replacement are searched, and all of these positions are detected as correction candidate positions.

出力部207は、修正候補位置を出力する。本実施形態では、文書作成・編集部200により編集中の文書が出力デバイス109経由で表示されており、この文書の表示中で修正候補位置を強調表示するものとする。強調表示の仕方については特に限定するものではなく、例えば、文字の太さや大きさを変えたり、色を付けたり、枠で囲ったりして、周囲の他の文字と区別がつくような表示を行えばよい。図5の例であれば、編集中の文書の本文テキスト中における「カンムリワシ」の表記部分を強調して表示する。   The output unit 207 outputs a correction candidate position. In this embodiment, the document being edited by the document creation / editing unit 200 is displayed via the output device 109, and the correction candidate position is highlighted in the display of this document. The highlighting method is not particularly limited. For example, the display can be distinguished from other characters by changing the thickness or size of the characters, adding color, or enclosing them with a frame. Just do it. In the example of FIG. 5, the notation part of “Kamuri-sword” in the body text of the document being edited is highlighted.

次に、本実施形態の文書作成・編集支援装置における、画像の差し替え時に、修正候補となる本文テキストの位置を出力する処理の手順について、図3のフローチャートを参照して説明する。   Next, the processing procedure for outputting the position of the body text as a correction candidate at the time of image replacement in the document creation / editing support apparatus of this embodiment will be described with reference to the flowchart of FIG.

S301では、画像指示受信部201が、編集中の文書中における差し替え対象の画像(差し替え前画像)の識別情報を受ける。
次に、S302では、差し替える画像(差し替え後画像)の識別情報を、画像指示受信部201が受ける。このとき、S301とS302は、順番はどちらが先でも構わない。よって、個々に指定する操作だけでなく、同時に差し替え前後の画像が確定するような操作による指定の仕方でも構わない。
In step S301, the image instruction receiving unit 201 receives identification information of an image to be replaced (an image before replacement) in a document being edited.
In step S <b> 302, the image instruction receiving unit 201 receives identification information of an image to be replaced (post-replacement image). At this time, the order of S301 and S302 may be either. Therefore, not only the operation of individually specifying, but also the method of specifying by an operation that confirms the images before and after replacement at the same time may be used.

例えば、文書作成・編集部200において、図7のような表示のもとで、利用者が文書の編集を行っていたとする。このとき、701は差し替えたい画像(差し替え前画像)であり、702は編集中の文書であり、かつ、既に複数ページ作成済みであることを示している。   For example, it is assumed that the user is editing a document in the document creation / editing unit 200 under the display as shown in FIG. At this time, reference numeral 701 denotes an image to be replaced (pre-replacement image), reference numeral 702 denotes a document being edited, and a plurality of pages have already been created.

この状態で、図8のように差し替え後画像801を、差し替え前画像701上にドラッグアンドドロップするような操作を受けた場合は、両者が同時に指定されたものとして動作すればよい。本実施形態では、これらの操作を提供している文書作成・編集部200は、各画像の識別情報がわかるとしたので、識別情報を画像指示受信部201が受け取ることで、S301およびS302はいずれも実施される。   In this state, when an operation for dragging and dropping the replacement image 801 onto the pre-replacement image 701 as shown in FIG. 8 is performed, it is only necessary to operate as if both were specified at the same time. In the present embodiment, since the document creation / editing unit 200 providing these operations can know the identification information of each image, when the image instruction receiving unit 201 receives the identification information, S301 and S302 are either Is also implemented.

S303では、S301で指定された差し替え前画像の識別情報から、メタデータ取得部203が、該画像のメタデータをメタデータ管理部202から取得する。
S304では、S302で指定された差し替え後画像の識別情報から、メタデータ取得部203が、該画像のメタデータをメタデータ管理部202から取得する。このとき、S303とS304は、順番はどちらが先でも構わない。本実施形態では、図7〜8の例において、S303およびS304により、701のメタデータとして図5の(a)が、801のメタデータとして図5の(b)がそれぞれ取得できるものとする。
In S303, the metadata acquisition unit 203 acquires the metadata of the image from the metadata management unit 202 from the identification information of the pre-replacement image specified in S301.
In S <b> 304, the metadata acquisition unit 203 acquires the metadata of the image from the metadata management unit 202 from the replacement image identification information specified in S <b> 302. At this time, the order of S303 and S304 may be first. In the present embodiment, in the examples of FIGS. 7 to 8, it is assumed that (a) in FIG. 5 can be acquired as metadata 701 and (b) in FIG. 5 can be acquired as metadata 801 by S303 and S304.

S305では、比較属性特定部204が、S303およびS304で取得したメタデータの各属性を比べて、比較可能な属性があるか否かを判定する。比較可能な属性があればS306へと移行し、比較可能な属性がなければ、このフローは終了する。本実施形態では図5の(a)、(b)が取得されたので、先に述べたとおり、ここでは「被写体」および「撮影地」が比較可能属性となる。   In S305, the comparison attribute specifying unit 204 compares each attribute of the metadata acquired in S303 and S304 to determine whether there is a comparable attribute. If there is a comparable attribute, the process proceeds to S306, and if there is no comparable attribute, the flow ends. In this embodiment, (a) and (b) in FIG. 5 are acquired, and as described above, “subject” and “photographing place” are comparable attributes here.

S306では、差異判定部205が、S305で比較可能と判断した属性について、各値の差異の有無を判定する。差異があればS307へ移行する。本実施形態では、図5の(a)、(b)のメタデータから「被写体」属性の値である「カンムリワシ」と「イリオモテヤマネコ」の間に差異があると判定する。一方で、比較可能属性に設定された値全てに差異がなければ、このフローは終了する。   In step S306, the difference determination unit 205 determines whether there is a difference between the values of the attributes determined to be comparable in step S305. If there is a difference, the process proceeds to S307. In the present embodiment, it is determined from the metadata in FIGS. 5A and 5B that there is a difference between the “subject” attribute value “Kamuri eagle” and “Iriomote lynx”. On the other hand, if there is no difference in all values set in the comparable attribute, this flow ends.

これについては、例えば、差し替え前後のメタデータが図6の(a)、(b)のようなケースが該当する。ここでは、比較可能な属性である「被写体」も「撮影地」も同一な画像への差し替えであったと考えられることから、前述した属性に設定されている値に関しては、修正候補の出力は不要である。このように修正候補の出力が不要な場合には、修正候補の提示は行わないようにできるため、この場合において、利用者の負荷を軽減できる効果が得られる。   For this, for example, the metadata before and after replacement corresponds to the cases shown in FIGS. Here, since it is considered that the comparable attributes “subject” and “photo location” were replaced with the same image, it is not necessary to output correction candidates for the values set in the above-mentioned attributes It is. In this way, when the correction candidate output is unnecessary, the correction candidate is not presented. In this case, an effect of reducing the load on the user can be obtained.

S307では、S306で差異があると判断した値それぞれについて、修正候補位置検出部206が、編集中の文書の本文テキストから該当する記述部分を検索し、その位置を検出する。本実施形態では、「カンムリワシ」の本文テキスト中の位置を文書全体から検出する処理を行う。   In S307, for each of the values determined to be different in S306, the correction candidate position detection unit 206 searches the corresponding description part from the body text of the document being edited, and detects the position. In the present embodiment, a process of detecting the position in the body text of “Kamuri eagle” from the entire document is performed.

S308では、S307で検出した本文テキスト位置を、出力部207が、画像差し替えに伴う修正候補として出力をする。本実施形態では、修正候補を強調表示するので、例えば、図9のような表示になる。ここでは、表示上隠れていたページについても「カンムリワシ」を含むページについては出現させた上で、当該箇所を四角い枠で囲って強調表示している(901)。なお、比較可能属性である「撮影地」の値は差し替え前後でどちらも「西表島」のまま差異がなかったので、強調表示はされない(902)。   In S308, the output unit 207 outputs the body text position detected in S307 as a correction candidate accompanying the image replacement. In the present embodiment, the correction candidates are highlighted, and for example, the display is as shown in FIG. Here, the page that is hidden on the display is also made to appear on the page including “Kamuri eagle” and is highlighted by surrounding it with a square frame (901). Note that the value of “capturing location”, which is a comparable attribute, remains “Iriomote Island” before and after the replacement, and is not highlighted (902).

(第2の実施形態)
前述した実施形態においては、比較可能属性として表記が同一であるものを挙げたが、これに限るものではない。例えば、属性の表記が違っていたりするケースも考えられる。一方が「撮影地」で、他方が「撮影場所」となっているような場合もこれに含まれる。このような場合には、比較属性特定部204が辞書を参照して相互の属性が同等(同様)であるか否かを判定し、同等であると判定した場合には比較可能属性としても構わない。
(Second Embodiment)
In the embodiment described above, the same notation is given as the comparable attribute, but the present invention is not limited to this. For example, there may be cases where the notation of attributes is different. This includes the case where one is a “photo location” and the other is a “photo location”. In such a case, the comparison attribute specifying unit 204 refers to the dictionary to determine whether or not the mutual attributes are equivalent (similar), and if it is determined that they are equivalent, the comparison attribute specifying unit 204 may use the comparable attribute. Absent.

辞書については、あらかじめメタデータの属性の種類がわかっている場合には、明示的に対応付けた情報を持たせてもよい。メタデータの属性が決まらない場合があるのであれば、汎用的な辞書データ(一般的な語の意味や概念の階層関係が定義されているオントロジやシソーラス)を利用して、動的に対応付けを行っても構わない。あるいは、利用者が比較可能な属性に関する情報を定義するようにしても構わない。本実施形態により、属性の表記が異なるようなケースであっても、差し替え前後のメタデータの比較が行えるようになり、修正候補の提示が可能になる。   As for the dictionary, when the type of metadata attribute is known in advance, information associated with it explicitly may be provided. If metadata attributes may not be determined, use general-purpose dictionary data (ontologies and thesauruses that define general word meanings and hierarchical relationships of concepts) and dynamically associate them. You may do. Or you may make it define the information regarding the attribute which a user can compare. According to this embodiment, even in cases where the notation of attributes is different, metadata before and after replacement can be compared, and correction candidates can be presented.

(第3の実施形態)
前述した実施形態においては、メタデータの値の差異判定は、表記が異なるか否かによって行う例を挙げたが、これに限るものではない。例えば、値の表現が異なるケースも考えられるので、差異判定部205は辞書を参照して同等であるかを判断してもよい。辞書は、一般的な知識としてあらかじめ生成された汎用的なもの(一般的な語の意味や概念の階層関係が定義されているオントロジやシソーラス)を利用しても構わない。さらには、利用者が定義しても構わない。
(Third embodiment)
In the above-described embodiment, an example in which the difference determination of the metadata value is performed based on whether the notation is different is described. However, the present invention is not limited to this. For example, there may be cases where the expression of values is different, so the difference determination unit 205 may determine whether they are equivalent by referring to a dictionary. The dictionary may use a general-purpose dictionary (ontology or thesaurus in which the meaning of general words and the hierarchical relationship of concepts are defined) as general knowledge. Furthermore, the user may define it.

例えば、利用者が被写体の名前をメタデータとして付与する際に、本名や愛称などが混在して付与されることが考えられる。このような場合には表記の揺れが生じてしまうので、利用者が本名と愛称との対応付けをするようなことをしてよい。なお、これらの辞書は、一つに限定する必要はなく、探索の優先順位をつけるなどして、混在させても構わない。例えば、ユーザが定義した辞書を、汎用辞書よりも優先的に参照するようにして、混在させればよい。   For example, when a user assigns a subject name as metadata, a real name or a nickname may be given in a mixed manner. In such a case, the notation of the notation will occur, so the user may associate the real name with the nickname. Note that these dictionaries need not be limited to one, and may be mixed, for example, by giving priority to search. For example, dictionaries defined by the user may be mixed so that the dictionary is preferentially referenced over the general-purpose dictionary.

また、例えば、前述の辞書として、概念的な上下関係についても定義されている場合に、差異のあったメタデータの値が、より下位の概念の値へと変化するような差し替えであったことを知ることができる。このような場合は、内容と画像に不整合が少ない、あるいは生じないこともある。例えば、「撮影地=沖縄」で「被写体=猫」の画像を、「撮影地=西表島」で「被写体=イリオモテヤマネコ」である画像に差し替えた場合を考える。   In addition, for example, in the case where a conceptual hierarchical relationship is also defined as the above-mentioned dictionary, the metadata value that was different was replaced so that it changed to a lower conceptual value. Can know. In such a case, there is little or no mismatch between the content and the image. For example, consider a case where an image of “subject = cat” in “photographing place = Okinawa” is replaced with an image in “photographing place = Iriomote Island” and “subject = Iriomote cat”.

この場合、本文テキスト中の「沖縄」や「猫」に関する記載内容は、画像が「西表島」や「イリオモテヤマネコ」であっても、不整合が生じないこともある。よって、このような概念的に下位の値への変更については、他の値への変更に比べて差異が小さいように判断しても構わない。このようにすることで、強調表示する際に、差異の大きさによって強調の仕方を変えることができ、利用者が優先的に修正を行うべき箇所を示すことができるようになる。   In this case, inconsistency may not occur in the description contents regarding “Okinawa” or “cat” in the text even if the image is “Iriomote Island” or “Iriomote Wildcat”. Therefore, such a conceptual change to a lower value may be determined so that the difference is smaller than a change to another value. In this way, when highlighting, it is possible to change the way of emphasis depending on the magnitude of the difference, and it is possible to indicate the location where the user should preferentially correct.

本実施形態により、表記上は差異があっても、表現しているものが同一であるようなメタデータの値について、修正候補として出力しないようにすることができる。また、差異の大きさによって出力の仕方を変えられるようになり、より修正すべき部分と区別して提示することができるようになる。   According to the present embodiment, even if there is a difference in notation, it is possible to prevent a metadata value that is expressed in the same way from being output as a correction candidate. In addition, the output method can be changed depending on the magnitude of the difference, and can be presented separately from the portion to be corrected.

(第4の実施形態)
前述した実施形態においては、本文テキストの修正候補位置を検出するために、文字列の部分一致検索を行ったが、これに限るものではない。差異のあったメタデータの「属性=値」の組み合わせを考慮して、検出する位置を絞り込んでもよい。例えば「撮影地=宮崎」が「撮影地=鹿児島」の画像に差し替えられた場合に、人名である「宮崎一郎さん」のような本文中の記載に関しては、修正候補としては検出すべきではない。
(Fourth embodiment)
In the above-described embodiment, the partial match search of the character string is performed to detect the correction candidate position of the body text. However, the present invention is not limited to this. The positions to be detected may be narrowed down in consideration of a combination of “attribute = value” of metadata having a difference. For example, when “shooting location = Miyazaki” is replaced with an image of “shooting location = Kagoshima”, descriptions in the text such as “Ichiro Miyazaki” who is the name of the person should not be detected as correction candidates. .

そこで、まず、本文テキスト中の部分一致検索を行った後、その語がどういう意図で使われているかを判定する。この判定の仕方については、本実施形態においては限定するものではなく、例えば、以下のような汎用的な固有表現の抽出処理によって行えばよい。すなわち、人名や地名、組織名などの固有表現は、それぞれ文中での他の語との出現順や共起の傾向に統計的な偏りがあると考えられている。このことから、あらかじめそれらの傾向を大量の正解データから学習しておき、類似した傾向を持つ固有表現がいずれであるかを確率的に推定するようにすればよい。   Therefore, first, after performing a partial match search in the body text, it is determined what purpose the word is used for. The method of this determination is not limited in the present embodiment. For example, it may be performed by a general-purpose specific expression extraction process as described below. That is, it is thought that proper expressions such as names of people, places, and organizations are statistically biased in the order of appearance and co-occurrence with other words in the sentence. For this reason, these tendencies may be learned in advance from a large amount of correct answer data, and it may be probabilistically estimated which specific expression has a similar tendency.

このようにして推定を行う場合は、本実施形態における基本構成として、図10に示すように、前述した実施形態における基本構成(図2)に、単語利用意図推定部1001をこちらに設ける。   When estimation is performed in this way, as shown in FIG. 10, as a basic configuration in this embodiment, a word usage intention estimation unit 1001 is provided here in the basic configuration in the above-described embodiment (FIG. 2).

単語利用意図推定部1001では、S307において本文テキスト中の修正候補の語の位置を検出した後に、該位置の前後の記述内容から、該修正候補語の利用意図を推定する処理を行う。   In S307, after detecting the position of the correction candidate word in the body text, the word usage intention estimation unit 1001 performs a process of estimating the usage intention of the correction candidate word from the description contents before and after the position.

本実施形態においては、前述した固有表現抽出により「宮崎一郎さん」という表記の「宮崎」が「人名」であると推定する。この場合、画像のメタデータの「地名」とは異なることから、修正候補位置検出部206は、当該位置は修正候補位置として検出しない。あるいは検出しておいて、「地名」として使われていると推定された他の修正候補に比べると優先度の低い候補とするように、優先度を設定するようにしてもよい。   In the present embodiment, it is estimated that “Miyazaki” represented by “Mr. Ichiro Miyazaki” is the “person name” by the above-described extraction of the unique expressions. In this case, since it is different from the “place name” of the metadata of the image, the correction candidate position detection unit 206 does not detect the position as a correction candidate position. Alternatively, the priority may be set so that the candidate is lower in priority than other correction candidates estimated to be used as “place names”.

優先度は推定処理結果として得られる尤度などから決定するものとする。なお、優先度を設定する方法を採った場合は、出力部207は、強調表示をする際に、その優先度に応じて強調の仕方を変えることにより、優先度の高いものがより強調されるように見せるようにする。本実施形態のようにすることで、本文テキスト中で、本来は異なる意図で使用された単語が、修正候補として提示されてしまうことを抑制できるようになる。   The priority is determined from the likelihood obtained as the estimation processing result. Note that when the method of setting the priority is adopted, when the output unit 207 performs highlighting, the output unit 207 changes the method of emphasis according to the priority so that the higher priority is emphasized. To make it look like this. By using this embodiment, it is possible to suppress a word originally used with a different intention in the body text from being presented as a correction candidate.

(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other embodiments)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

200 文書作成・編集部、201 画像指示受信部、202 メタデータ管理部、203 メタデータ取得部、204 比較属性特定部、205 差異判定部、206 修正候補位置検出部、207 出力部   200 Document creation / editing unit, 201 Image instruction receiving unit, 202 Metadata management unit, 203 Metadata acquisition unit, 204 Comparison attribute specifying unit, 205 Difference determination unit, 206 Correction candidate position detection unit, 207 Output unit

Claims (7)

画像と本文テキストが混在した文書の作成・編集を行う文書作成・編集工程と、
前記文書作成・編集工程にて行われる差し替え前後の画像を指定する指示を受ける画像指示受信工程と、
前記画像のメタデータを取得可能に管理するメタデータ管理工程と、
前記指示された差し替え前後の画像のメタデータを、前記メタデータ管理工程からそれぞれ取得するメタデータ取得工程と、
前記メタデータ取得工程で取得したメタデータから比較可能な属性を特定する比較属性特定工程と、
前記比較属性特定工程で特定された比較可能な属性に設定されている値を比較し、それぞれ差異を判定する差異判定工程と、
前記差異判定工程で差異があると判定された場合に、差し替え前の画像に付いていたメタデータに関する本文テキスト中での記述位置を、編集中の文書から検出する修正候補位置検出工程と、
前記修正候補位置検出工程で検出された修正候補の箇所を区別する情報の出力を行う出力工程と、
を備えることを特徴とする文書作成・編集支援方法。
A document creation / editing process for creating / editing a document with mixed images and body text;
An image instruction receiving step for receiving an instruction to specify images before and after replacement performed in the document creation / editing step;
A metadata management step for managing the metadata of the image so as to be obtainable;
A metadata acquisition step of acquiring metadata of the image before and after the instructed replacement from the metadata management step;
A comparison attribute identification step for identifying a comparable attribute from the metadata acquired in the metadata acquisition step;
A difference determination step of comparing values set in comparable attributes specified in the comparison attribute specification step and determining a difference, respectively.
A correction candidate position detection step of detecting a description position in the body text relating to the metadata attached to the image before the replacement from the document being edited when it is determined that there is a difference in the difference determination step;
An output step of outputting information for distinguishing the location of the correction candidate detected in the correction candidate position detection step;
A document creation / editing support method characterized by comprising:
前記比較属性特定工程においては、同様の属性であるか否かを辞書を引いて判定し、比較可能な属性を特定することを特徴とする請求項1に記載の文書作成・編集支援方法。   2. The document creation / editing support method according to claim 1, wherein, in the comparison attribute specifying step, whether or not the attributes are similar is determined by looking up a dictionary, and a comparable attribute is specified. 前記差異判定工程においては、比較可能な属性に設定されている値に差異があるか否かを、辞書を引いて判定することを特徴とする、請求項1または2に記載の文書作成・編集支援方法。   3. The document creation / editing according to claim 1 or 2, wherein, in the difference determination step, it is determined whether or not there is a difference in values set in the comparable attributes by looking up a dictionary. Support method. 前記本文テキストの単語がどのような意図で利用されているかを推定する単語利用意図推定工程をさらに設けて、
前記単語利用意図推定工程においては、前記修正候補位置検出工程において検出した部分について単語利用意図推定を行い、前記推定した結果が、前記差異判定工程で差異があると判定されたメタデータの属性と値の関係と異なる場合については、前記検出した部分は修正候補としないようにしたことを特徴とする請求項1〜3の何れか1項に記載の文書作成・編集支援方法。
A word use intention estimation step for estimating what intention the word of the body text is used for,
In the word usage intention estimation step, word usage intention estimation is performed on the portion detected in the correction candidate position detection step, and the estimated result is determined to be attributed to the metadata attribute determined to have a difference in the difference determination step. The document creation / editing support method according to any one of claims 1 to 3, wherein the detected portion is not regarded as a correction candidate when the relationship is different from the value relationship.
前記単語利用意図推定工程において、単語がどのような意図で利用されているかを推定する際に、各意図の尤度を出力するようにし、
前記修正候補位置検出工程で、前記尤度によって修正候補としての優先度を決定するようにし、
前記出力工程において、前記優先度に応じて区別して出力するようにしたことを特徴とする請求項4に記載の文書作成・編集支援方法。
In the word use intention estimation step, when estimating what kind of intention the word is used for, the likelihood of each intention is output,
In the correction candidate position detection step, priority as a correction candidate is determined by the likelihood,
5. The document creation / editing support method according to claim 4, wherein, in the output step, the output is performed by distinguishing according to the priority.
画像と本文テキストが混在した文書の作成・編集を行う文書作成・編集手段と、
前記文書作成・編集手段で行う差し替え前後の画像を指定する指示を受ける画像指示受信手段と、
前記画像のメタデータを取得可能に管理するメタデータ管理手段と、
前記指示された差し替え前後の画像のメタデータを、前記メタデータ管理手段からそれぞれ取得するメタデータ取得手段と、
前記メタデータ取得手段で取得したメタデータから比較可能な属性を特定する比較属性特定手段と、
前記比較属性特定手段で特定された比較可能な属性に設定されている値を比較し、それぞれ差異を判定する差異判定手段と、
前記差異判定手段で差異があると判定された場合に、差し替え前の画像に付いていたメタデータに関する本文テキスト中での記述位置を、編集中の文書から検出する修正候補位置検出手段と、
前記修正候補位置検出手段で検出された修正候補の箇所を区別する情報の出力を行う出力手段と、
を備えることを特徴とする文書作成・編集支援装置。
Document creation / editing means for creating / editing a document with mixed images and body text,
Image instruction receiving means for receiving an instruction to specify images before and after replacement performed by the document creating / editing means;
Metadata management means for managing the metadata of the image so as to be obtainable;
Metadata acquisition means for acquiring metadata of the image before and after the instructed replacement from the metadata management means;
Comparison attribute specifying means for specifying a comparable attribute from the metadata acquired by the metadata acquisition means;
A difference determination unit that compares the values set in the comparable attributes specified by the comparison attribute specifying unit, and determines a difference;
Correction candidate position detecting means for detecting a description position in the body text relating to the metadata attached to the image before replacement when the difference determining means determines that there is a difference, from the document being edited;
An output means for outputting information for distinguishing the location of the correction candidate detected by the correction candidate position detection means;
A document creation / editing support apparatus characterized by comprising:
画像と本文テキストが混在した文書の作成・編集を行う文書作成・編集工程と、
前記文書作成・編集工程にて行われる差し替え前後の画像を指定する指示を受ける画像指示受信工程と、
前記画像のメタデータを取得可能に管理するメタデータ管理工程と、
前記指示された差し替え前後の画像のメタデータを、前記メタデータ管理工程からそれぞれ取得するメタデータ取得工程と、
前記メタデータ取得工程で取得したメタデータから比較可能な属性を特定する比較属性特定工程と、
前記比較属性特定工程で特定された比較可能な属性に設定されている値を比較し、それぞれ差異を判定する差異判定工程と、
前記差異判定工程で差異があると判定された場合に、差し替え前の画像に付いていたメタデータに関する本文テキスト中での記述位置を、編集中の文書から検出する修正候補位置検出工程と、
前記修正候補位置検出工程で検出された修正候補の箇所を区別する情報の出力を行う出力工程とをコンピュータに実行させることを特徴とするプログラム。
A document creation / editing process for creating / editing a document with mixed images and body text;
An image instruction receiving step for receiving an instruction to specify images before and after replacement performed in the document creation / editing step;
A metadata management step for managing the metadata of the image so as to be obtainable;
A metadata acquisition step of acquiring metadata of the image before and after the instructed replacement from the metadata management step;
A comparison attribute identification step for identifying a comparable attribute from the metadata acquired in the metadata acquisition step;
A difference determination step of comparing values set in comparable attributes specified in the comparison attribute specification step and determining a difference, respectively.
A correction candidate position detection step of detecting a description position in the body text relating to the metadata attached to the image before the replacement from the document being edited when it is determined that there is a difference in the difference determination step;
A program for causing a computer to execute an output step of outputting information for distinguishing a location of a correction candidate detected in the correction candidate position detection step.
JP2010172589A 2010-07-30 2010-07-30 Document creation/edition support method and document creation/edition support device Pending JP2012033031A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010172589A JP2012033031A (en) 2010-07-30 2010-07-30 Document creation/edition support method and document creation/edition support device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010172589A JP2012033031A (en) 2010-07-30 2010-07-30 Document creation/edition support method and document creation/edition support device

Publications (1)

Publication Number Publication Date
JP2012033031A true JP2012033031A (en) 2012-02-16

Family

ID=45846356

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010172589A Pending JP2012033031A (en) 2010-07-30 2010-07-30 Document creation/edition support method and document creation/edition support device

Country Status (1)

Country Link
JP (1) JP2012033031A (en)

Similar Documents

Publication Publication Date Title
US10929449B2 (en) Generating a structured document guiding view
US10664650B2 (en) Slide tagging and filtering
JP5353148B2 (en) Image information retrieving apparatus, image information retrieving method and computer program therefor
US20160379392A1 (en) Producing Visualizations of Elements in Works of Literature
US10789418B2 (en) Batch generation of links to documents based on document name and page content matching
RU2656581C2 (en) Editing the content of an electronic document
WO2011040025A1 (en) Method for setting metadata, system for setting metadata, and program
US20120046937A1 (en) Semantic classification of variable data campaign information
JP2014089606A (en) Information processor and control method thereof, program
US9613089B2 (en) Form template refactoring
JP2009140361A (en) Data-managing device and data-processing method
JP5687312B2 (en) Digital information analysis system, digital information analysis method, and digital information analysis program
JP6262708B2 (en) Document detection method for detecting original electronic files from hard copy and objectification with deep searchability
JP2006107375A (en) System and method for document management, program, and storage medium
US10803308B2 (en) Apparatus for deciding whether to include text in searchable data, and method and storage medium thereof
US10452412B2 (en) Graphical user interface for non-hierarchical file system
JP2012033031A (en) Document creation/edition support method and document creation/edition support device
JP2007018158A (en) Character processor, character processing method, and recording medium
JP2002140338A (en) Device and method for supporting construction of dictionary
US10025464B1 (en) System and method for highlighting dependent slides while editing master slides of a presentation
JP2009157470A (en) Electronic document processor and program
JP2008059317A (en) Document management apparatus and method, computer program, and recording medium recording the program
JP5853090B2 (en) Digital information analysis system, digital information analysis method, and digital information analysis program
JP2008234226A (en) Retrieval device and retrieval method
JP2013085276A (en) Image processing device and image processing method