JP2013008381A - Information processor, information processing method, information processing system, and computer program - Google Patents

Information processor, information processing method, information processing system, and computer program Download PDF

Info

Publication number
JP2013008381A
JP2013008381A JP2012177085A JP2012177085A JP2013008381A JP 2013008381 A JP2013008381 A JP 2013008381A JP 2012177085 A JP2012177085 A JP 2012177085A JP 2012177085 A JP2012177085 A JP 2012177085A JP 2013008381 A JP2013008381 A JP 2013008381A
Authority
JP
Japan
Prior art keywords
data
information
displayed
specified
specifying
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012177085A
Other languages
Japanese (ja)
Other versions
JP5420032B2 (en
Inventor
Hiroshi Kaburagi
浩 蕪木
Teruya Inoue
輝哉 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012177085A priority Critical patent/JP5420032B2/en
Publication of JP2013008381A publication Critical patent/JP2013008381A/en
Application granted granted Critical
Publication of JP5420032B2 publication Critical patent/JP5420032B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To specify data corresponding to an input keyword, to specify other data associated with the specified data, to display the other data, and to further solve the problem of associating no information for determining whether to display the other data only to a specific user or to display the other data to all users including the specific user with the other data.SOLUTION: An information processor has first specification means for specifying data corresponding to an inputted keyword, second specification means for specifying the other data associated with the specified data, and means for making display means display the other data specified by the second specification means. The other data is associated with information for determining whether the other data is displayed only to the specific user or to be displayed to all the users including the specific user.

Description

本発明は、情報処理装置、情報処理方法、情報処理システム、コンピュータプログラムに関する。   The present invention relates to an information processing apparatus, an information processing method, an information processing system, and a computer program.

近年の複写機は、内部画像処理のデジタル化によって、目覚しいスピードで多機能化が進んでいる。例えば、原稿を複写するコピー機能や、ホストコンピュータで作成した文書のプリントが可能なPDLプリント機能や、スキャンした原稿を、ネットワークを介して複写機外部に送信するSEND機能などがある。更に、コピー時やPDLプリント時に生成される原稿画像を複写機内部のハードディスクに保存して再利用を可能とするBOX機能(ストレージ機能)や、BOX機能によって複写機内部に保存した原稿画像を利用して合成や製本などの編集を行う編集機能などもある。このように、数え切れないほどの機能を有している。   In recent years, copying machines have become multifunctional at a remarkable speed due to the digitization of internal image processing. For example, there are a copy function for copying an original, a PDL print function capable of printing a document created by a host computer, and a SEND function for transmitting a scanned original to the outside of the copier via a network. In addition, the BOX function (storage function) that enables the original image generated during copying or PDL printing to be saved on the hard disk inside the copier and reused, or the original image stored inside the copier by the BOX function is used. There is also an editing function for editing composition and bookbinding. Thus, it has an innumerable function.

一方で、画像の品質に対する要求も高く、原稿の高い再現性を求めるあまり、複写機内部の画像処理解像度は600dpiから1200dpi、2400dpiへと増加している。また、信号のビット数も8bitから10bit、12bitへと増加の一途を辿っている。このように膨れ上がった情報量を持つ内部処理用のビットマップデータを処理するために、メモリやストレージの追加、高性能なCPUへの置き換えなどが必要になり、機器や開発のコストの増加が無視できない状況になっている。   On the other hand, the demand for image quality is high, and the image processing resolution inside the copying machine has increased from 600 dpi to 1200 dpi and 2400 dpi because of high reproducibility of the original. Also, the number of bits of the signal has been increasing from 8 bits to 10 bits and 12 bits. In order to process bitmap data for internal processing with such a large amount of information, it is necessary to add memory and storage, replace with a high-performance CPU, etc., increasing the cost of equipment and development. The situation cannot be ignored.

こうした中で、読み取った原稿をオブジェクト単位に分離した状態で再利用しやすいように保存しておく技術が考えられている。特許文献1では、文書中にある写真や図表等の文書要素に分離して登録しておき、この文書要素を検索して表示できるようにしている。また、特許文献2では、原稿内の部品ごとにベクトルデータに変換し、部品ごとに適したファイル形式のファイルを作成することが記載されている。   Under such circumstances, a technique is conceived in which a read original is stored in an object unit so that it can be easily reused. In Patent Document 1, a document element such as a photograph or chart in a document is registered separately, and the document element can be searched and displayed. Japanese Patent Application Laid-Open No. 2004-228561 describes that each part in a document is converted into vector data and a file having a file format suitable for each part is created.

また一方、データベースに登録されている画像などのデータを見やすく一覧表示することも考えられている。例えば、特許文献3では、データベースに登録されているカードデータに対して、小サイズと大サイズの縮小イメージを作成しておき、場合に応じて表示を切り替えたり、カード間でリンクを張ったりすることが記載されている。また、特許文献4では、表示する画像の数を指定することができ、元画像のサイズに関わらず、表示領域のサイズに応じた大きさに拡大縮小して表示することが記載されている。   On the other hand, it is also considered to display a list of data such as images registered in the database in an easy-to-read manner. For example, in Patent Document 3, a reduced image of a small size and a large size is created for card data registered in a database, and the display is switched or a link is established between cards according to circumstances. It is described. Further, Patent Document 4 describes that the number of images to be displayed can be specified, and the image is enlarged and reduced to a size corresponding to the size of the display area regardless of the size of the original image.

特開平06−162104号公報Japanese Patent Laid-Open No. 06-162104 特開2006−146486号公報JP 2006-146486 A 特開平05−257788号公報JP 05-257788 A 特開2000−040142号公報JP 2000-040142 A

しかしながら、入力されたキーワードに対応するデータを特定し、特定されたデータと関連付けられた他のデータを特定し、特定された他のデータを表示手段に表示させ、さらに前記他のデータには、前記他のデータが特定のユーザのみに対して表示されるようにするか、前記特定のユーザを含む全てのユーザに対して表示されるようにするか、を決めるための情報が関連付けられる技術の開示がなかった。   However, the data corresponding to the input keyword is identified, the other data associated with the identified data is identified, the identified other data is displayed on the display means, and the other data includes Information relating to information for determining whether the other data is to be displayed only for a specific user or to be displayed for all users including the specific user. There was no disclosure.

本発明の情報処理装置は、入力されたキーワードに対応するデータを特定する第1の特定手段と、前記特定されたデータと関連付けられた他のデータを特定する第2の特定手段と、前記第2の特定手段で特定された他のデータを表示手段に表示させる手段と、を有し、
前記他のデータには、前記他のデータが特定のユーザのみに対して表示されるようにするか、前記特定のユーザを含む全てのユーザに対して表示されるようにするか、を決めるための情報が関連付けられることを特徴とする
The information processing apparatus according to the present invention includes: a first specifying unit that specifies data corresponding to an input keyword; a second specifying unit that specifies other data associated with the specified data; And means for displaying other data specified by the specifying means on the display means,
In the other data, in order to determine whether the other data is to be displayed only to a specific user or to be displayed to all users including the specific user. Characterized by being associated with

入力されたキーワードに対応するデータを特定する第1の特定手段と、前記特定されたデータと関連付けられた他のデータを特定する第2の特定手段と、前記第2の特定手段で特定された他のデータを表示手段に表示させる手段と、を有し、前記他のデータには、前記他のデータが特定のユーザのみに対して表示されるようにするか、前記特定のユーザを含む全てのユーザに対して表示されるようにするか、を決めるための情報が関連付けられることを特徴とする情報処理装置を提供することができる。   Specified by the first specifying means for specifying the data corresponding to the input keyword, the second specifying means for specifying other data associated with the specified data, and the second specifying means Means for displaying other data on the display means, and the other data includes all the data including the specific user so that the other data is displayed only for the specific user. It is possible to provide an information processing apparatus characterized in that information for determining whether to be displayed to the user is associated.

実施形態1の画像処理システムの構成を示すブロック図1 is a block diagram illustrating a configuration of an image processing system according to a first embodiment. 実施形態1のMFPの詳細構成を示すブロック図1 is a block diagram illustrating a detailed configuration of an MFP according to a first embodiment. 領域分離に関するフローチャートFlow chart for region separation 読み取り原稿のイメージScanned document image 読み取り原稿をオブジェクト分離したイメージAn image of a scanned document with objects separated ベクトル化処理を説明するための図Diagram for explaining vectorization processing ベクトル化処理を説明するための図Diagram for explaining vectorization processing メタデータの構成の一例を示す図Diagram showing an example of metadata configuration MFPのUI画面に表示される一例を示す図The figure which shows an example displayed on UI screen of MFP 自動レイアウト処理に関するUI画面UI screen for automatic layout processing オブジェクト検索結果を示すUI画面1UI screen 1 showing object search results オブジェクト検索結果を示すUI画面2UI screen 2 showing object search results オブジェクト選択を示すUI画面1UI screen 1 showing object selection オブジェクト選択を示すUI画面2UI screen 2 showing object selection 自動レイアウト結果を示すUI画面UI screen showing automatic layout results オブジェクトの関連を示すメタデータの構成例Example of metadata configuration that shows object relationships 実施形態1のグループ検索結果Group search result of Embodiment 1 グループ検索のフローチャートGroup search flowchart

(実施形態1)
図1は本発明の実施形態1の画像処理システム10の構成例を示すブロック図である。なお、図1の構成は一例であり、これに限るものではない。
(Embodiment 1)
FIG. 1 is a block diagram showing a configuration example of an image processing system 10 according to the first embodiment of the present invention. The configuration of FIG. 1 is an example, and the present invention is not limited to this.

この画像処理システムは、インターネット等のネットワーク104とプロキシサーバ103を介して、オフィス内のLAN107と接続されている。また、LAN107には、複数種類の機能(複写機能、印刷機能、送信機能等)を有する複合機(MFP)100、MFP100と通信可能なクライアントPC102、データベース105、及びプロキシサーバ103などが接続されている。   This image processing system is connected to a LAN 107 in the office via a network 104 such as the Internet and a proxy server 103. In addition, a multifunction peripheral (MFP) 100 having a plurality of types of functions (copying function, printing function, transmission function, etc.), a client PC 102 that can communicate with the MFP 100, a database 105, a proxy server 103, and the like are connected to the LAN 107. Yes.

また、クライアントPC102の各種端末は、汎用コンピュータに搭載される標準的な構成要素(例えば、CPU、RAM、ROM、ハードディスク、外部記憶装置、ディスプレイ、キーボード、マウス等)で構成されているものとする。   In addition, various terminals of the client PC 102 are configured by standard components (for example, a CPU, a RAM, a ROM, a hard disk, an external storage device, a display, a keyboard, and a mouse) mounted on a general-purpose computer. .

図2は本発明の実施形態1のMFP100の詳細構成を示すブロック図である。画像読取部201は、オートドキュメントフィーダ(ADF)を備えたスキャナであり、複数枚あるいは1枚からなる原稿画像を読み取り、所定解像度(600dpi等)のビットマップデータとして得る。   FIG. 2 is a block diagram showing a detailed configuration of the MFP 100 according to the first embodiment of the present invention. The image reading unit 201 is a scanner including an auto document feeder (ADF), reads a plurality of document images or a single document image, and obtains it as bitmap data with a predetermined resolution (600 dpi or the like).

また、印刷部203は、画像読取信号に対応する画像を記録媒体に印刷する複写機能を有し、原稿画像を1つ複写する場合には、画像読取信号をデータ処理部206で画像処理して記録信号を生成させ、これを記録媒体上に印刷させる。一方、1枚の原稿画像から複数枚複写する場合には、記憶部202に1ページ分の記録信号を一時記憶させ、これを印刷部203に複数回出力して記録媒体上に印刷させる。   The printing unit 203 has a copying function for printing an image corresponding to the image reading signal on a recording medium. When copying one original image, the data processing unit 206 performs image processing on the image reading signal. A recording signal is generated and printed on a recording medium. On the other hand, when a plurality of copies are made from one original image, a recording signal for one page is temporarily stored in the storage unit 202, and is output to the printing unit 203 a plurality of times to be printed on a recording medium.

ネットワークI/F205は、画像読取部201から得たビットマップデータを後述する処理によってオブジェクトデータに変換してデータベース105に送信する際に利用される。また、ネットワークI/F205は、データベース105に保存されているオブジェクトデータを再利用のため受信する際や、XPSやPDF等のベクトルデータファイル形式の画像ファイルに変換してクライアントPC102へ送信する際などにも利用される。   The network I / F 205 is used when bitmap data obtained from the image reading unit 201 is converted into object data by processing described later and transmitted to the database 105. The network I / F 205 receives object data stored in the database 105 for reuse, converts it into an image file in a vector data file format such as XPS or PDF, and transmits it to the client PC 102. Also used for.

また、データ処理装置206は、クライアントPC102からの印刷データをネットワークI/F205経由で受信し、当該受信した印刷データを印刷部203で印刷可能な記録信号に変換する。そして、印刷部203は、当該記録信号に基づいて印刷媒体上に画像を形成する。   Further, the data processing device 206 receives print data from the client PC 102 via the network I / F 205 and converts the received print data into a recording signal that can be printed by the printing unit 203. Then, the printing unit 203 forms an image on the print medium based on the recording signal.

入力部204は、操作者からの指示を入力するためのインターフェースで、ここから入力された指示に基づいて、制御部は各種処理を実行するように制御する。また、これらの動作はデータ処理部206内の制御部(不図示のCPU等)によって制御される。また、ユーザの操作入力が行われる際の状態表示や、画像検索時や編集処理時などの画像データの表示は、表示部207で行われる。   The input unit 204 is an interface for inputting an instruction from the operator. Based on the instruction input from the input unit 204, the control unit controls to execute various processes. These operations are controlled by a control unit (a CPU (not shown) or the like) in the data processing unit 206. Further, the display unit 207 displays a state display when a user's operation input is performed, and image data display during an image search or editing process.

また、記憶部202は、後述する処理によって得られるオブジェクトデータを記憶するハードディスクや、データ処理部において各種画像処理を実行する際に利用される画像処理用バッファメモリなどから構成される。また、そのオブジェクトデータに基づく画像編集を行う場合に用いる画像編集用バッファメモリなどもある。   The storage unit 202 includes a hard disk that stores object data obtained by processing to be described later, an image processing buffer memory that is used when various types of image processing are executed in the data processing unit, and the like. There is also an image editing buffer memory used when image editing based on the object data is performed.

<原稿画像のオブジェクト(領域)分離>
図3に原稿画像のオブジェクト分離に関する全体をフローチャートで示す。
<Separation of object (area) of original image>
FIG. 3 is a flowchart showing the entire object separation of a document image.

まず、ステップS301では、原稿がスキャナにより読み込まれ、スキャン時の画像処理が施されて、原稿画像データ(多値の入力画像データ)が得られる。なお、スキャナ時の画像処理とは、色処理やフィルタ処理を指す。なお、本実施例では、ステップS301において原稿画像データの入力として、紙原稿のスキャンによって得られた原稿画像データを対象として説明したが、これに限るものではない。例えば、PCからネットワークを介して受信した画像データを、前記原稿画像データとして入力されたものとしてもよい。   First, in step S301, a document is read by a scanner and subjected to image processing during scanning, whereby document image data (multi-valued input image data) is obtained. Note that image processing at the time of scanner refers to color processing and filter processing. In this embodiment, the document image data obtained by scanning the paper document is described as the input of the document image data in step S301. However, the present invention is not limited to this. For example, image data received from a PC via a network may be input as the original image data.

ステップS302では、画像の色値分布を調べるためにヒストグラムを生成する。当該生成されたヒストグラムに基づいて、次のステップS303では、二値化処理に用いる二値化閾値を決定する。ステップS304では、ステップS303で決定した二値化閾値を用いて二値化処理を実行して、ニ値化画像を得る。   In step S302, a histogram is generated for examining the color value distribution of the image. Based on the generated histogram, in the next step S303, a binarization threshold value used for binarization processing is determined. In step S304, binarization processing is executed using the binarization threshold determined in step S303, and a binary image is obtained.

ステップS305では、ステップS304のニ値化処理で得たニ値化画像において、黒画素となった部分を検出する。例えば、公知の黒画素の輪郭追跡処理あるいはラベリング処理などの技術により、黒画素部分を検出する。   In step S305, a black pixel portion is detected in the binary image obtained by the binarization process in step S304. For example, the black pixel portion is detected by a known technique such as a black pixel contour tracking process or a labeling process.

ステップS306では、抽出された黒画素領域内部を解析して、この黒画素領域内部に反転文字(黒の背景に白文字)を含むかどうかを解析する。例えば、黒画素領域内の黒画素数と白画素数とを比較し、黒画素数の方が白画素数より多ければ、更に連結白画素のサイズが予め定めた文字サイズの範囲内であるか判定し、範囲内であれば、反転文字を含むと判定する。   In step S306, the inside of the extracted black pixel region is analyzed, and whether or not an inverted character (a white character on a black background) is included in the black pixel region is analyzed. For example, the number of black pixels in the black pixel area is compared with the number of white pixels. If the number of black pixels is larger than the number of white pixels, whether the size of the connected white pixels is within a predetermined character size range. If it is within the range, it is determined that the reverse character is included.

そして、ステップS307において、反転文字を含むと判定した場合は、当該反転文字を含む黒画素領域部分を白黒反転し、最終的な二値化画像を生成する。   If it is determined in step S307 that the reverse character is included, the black pixel region portion including the reverse character is reversed in black and white to generate a final binarized image.

なお、ステップS302〜S307によるニ値化処理は、公知のニ値化処理を用いることができる。例えば、図4の入力画像401に対してニ値化処理を行って、最終的なニ値化画像402が得られる。   The binarization process in steps S302 to S307 can be a known binarization process. For example, a binarization process is performed on the input image 401 in FIG. 4 to obtain a final binary image 402.

ステップS308では、最終的な二値化画像を、属性毎の領域(イメージ領域、グラフィックス領域、テキスト領域など)に分割する。ニ値化画像に対する領域分割処理は公知の技術を用いることが可能である。このようにして、ニ値化画像内に含まれる属性毎の領域(オブジェクト)の位置を判別する。   In step S308, the final binarized image is divided into attribute-specific areas (image area, graphics area, text area, etc.). A known technique can be used for the region division processing for the binarized image. In this way, the position of the area (object) for each attribute included in the binary image is determined.

ステップS309では、S308の領域分割処理で判別された領域(オブジェクト)それぞれに対して、その領域属性情報と位置情報とを含む領域情報(オブジェクト情報)を生成する。更に、入力画像ごとに付与する原稿画像ID(識別子)や、当該画像の入力時刻(例えばスキャンした時刻)などを、オブジェクトの検索時に用いる付加情報(インデックス情報)として生成し、当該オブジェクト情報に付加する。したがって、同じ原稿画像から抽出した領域(オブジェクト)に対しては、同じ原稿画像IDが付与されることになる。   In step S309, area information (object information) including area attribute information and position information is generated for each area (object) determined in the area dividing process of S308. Further, a document image ID (identifier) assigned to each input image, an input time of the image (for example, a scanning time), and the like are generated as additional information (index information) used when searching for an object and added to the object information. To do. Therefore, the same document image ID is assigned to the area (object) extracted from the same document image.

ステップS310では、領域情報に格納された各領域の属性を判断する。判断した属性に応じてステップS311〜S314の処理を行った後、ステップS315で各領域に関する情報を記憶部202のBOXに保存する。なお、本実施形態では、原稿画像や領域オブジェクトなどの情報が格納される記憶領域(ストレージやデータベース)をBOXと呼ぶこととする。   In step S310, the attribute of each area stored in the area information is determined. After performing the processing of steps S311 to S314 according to the determined attribute, information about each area is stored in the BOX of the storage unit 202 in step S315. In the present embodiment, a storage area (storage or database) in which information such as a document image or area object is stored is called a BOX.

ステップS310でイメージ領域と判断された領域オブジェクトに対しては、ステップS314において、当該領域の位置情報に基づいて元の原稿画像データからそのイメージ領域部分を抽出し、当該抽出したイメージ領域の多値画像に対してJPEG圧縮を行う。その後、ステップS315では、当該JPEG圧縮されたイメージ領域のデータをその領域に関する領域情報(オブジェクト情報)と関連付けてBOXに保存する。   For the area object determined as the image area in step S310, in step S314, the image area portion is extracted from the original document image data based on the position information of the area, and the multivalue of the extracted image area is obtained. Perform JPEG compression on the image. Thereafter, in step S315, the data of the JPEG compressed image area is stored in the BOX in association with area information (object information) related to the area.

ステップS310でグラフィックス領域と判断された領域オブジェクトに対しては、ステップS313にて、当該領域の情報に基づいてニ値化画像からグラフィックス領域部分を抽出し、当該抽出したグラフィックス領域のニ値化画像に対してベクトル化処理を行う。ベクトル化処理では、例えば、ニ値化画像の黒画素の輪郭(アウトライン)を検出して直線及び曲線で関数近似することによって、ベクトル化(パス化)されたデータ(ベクトルデータ)が得られる。このとき、当該グラフィックスと判断されたオブジェクトの位置(ニ値化画像上のグラフィックス領域内の黒画素の位置)に対応する元の原稿画像データの画素について色分布を調べ、当該グラフィックスオブジェクトの代表色を決定する(すなわち、色情報をする)。例えば、色分布に基づいて平均色を取るなどすることにより、代表色を決定することができる。なお、このとき代表色として複数色を選択するようにしてもよい。このようにしてグラフィックス領域に関して得られたベクトル化(パス化)されたデータと代表色情報とを、ステップS315において、その領域に関する領域情報(オブジェクト情報)と関連付けてBOXに保存する。   For the area object determined as the graphics area in step S310, in step S313, the graphics area portion is extracted from the binary image based on the information on the area, and the extracted graphics area is extracted. A vectorization process is performed on the binarized image. In the vectorization process, for example, vectorized (passed) data (vector data) is obtained by detecting the outline (outline) of a black pixel of the binary image and approximating the function with a straight line and a curve. At this time, the color distribution of the original document image data corresponding to the position of the object determined to be the graphics (the position of the black pixel in the graphics area on the binary image) is examined, and the graphics object The representative color is determined (that is, color information is given). For example, the representative color can be determined by taking an average color based on the color distribution. At this time, a plurality of colors may be selected as representative colors. In step S315, the vectorized (passed) data and the representative color information obtained regarding the graphics area are stored in the BOX in association with the area information (object information) regarding the area.

ステップS310でテキスト領域と判断されたオブジェクトに対しては、ステップS311に進んで、当該テキスト領域から文字を1文字ずつ切り出す文字切り処理(文字抽出処理)を行う。文字切り処理は、例えば、文字領域のニ値化画像に対して横方向・縦方向のヒストグラムの分布を調べて文字行を切り出し、更に文字行と垂直な方向のヒストグラムに基づいて文字を切り出すことにより、1文字単位で文字画像を抽出することができる。なお、文字切り処理はこれに限るものではなく、他の公知の技術を使用するようにしてもよい。次に、ステップS312において、S311で切り出した文字画像に対してOCR処理(文字認識処理)を実行し、そのOCR結果の文字コード情報を得る。また、ステップS313において、ステップS311でニ値化画像から切り出した文字画像に対して、ベクトル化処理を実行し、ベクトル化(パス化)されたデータを得る。文字画像に対するベクトル化処理は、例えば、上述したグラフィックス領域に対するベクトル化処理と同様の処理を実行することによりベクトルデータを得ることが可能である。ただし、ベクトル化処理はこれに限るものではなく、他の手法を用いても構わない。例えば、文字画像のフォント種別を識別し、S312で得たOCR結果と組み合わせることにより、当該識別されたフォントのベクトルデータとOCR結果の文字コードとから構成されるベクトルデータを生成できる。更に、このとき、各文字と判断されたオブジェクトの位置(ニ値化画像上の文字領域内の黒画素の位置)に対応する元の原稿画像データの画素について、色分布を調べ、当該グラフィックスオブジェクトの代表色を決定する。例えば、各文字における平均色を取るなどすることにより、代表色(各文字の色情報)を決定することができる。そして、ステップS315において、S312で得たOCR結果の文字コード情報と、S313で得たベクトル化(パス化)されたデータ(ベクトルデータ)と文字の色情報とを、その領域に関する領域情報(オブジェクト情報)と関連付けてBOXに保存する。また、OCR結果から抽出したインデックス(キーワード)をメタデータとして領域情報に格納してもよいし、OCR結果の文字列全体を全文検索時に用いることができるようにしてもよい。   For the object determined to be a text area in step S310, the process proceeds to step S311 to perform a character cutting process (character extraction process) for cutting out characters one by one from the text area. For example, the character cut processing is to cut the character line by examining the distribution of the histogram in the horizontal direction and the vertical direction for the binarized image of the character area, and further cut the character based on the histogram in the direction perpendicular to the character line. Thus, a character image can be extracted in units of one character. Note that the character cut processing is not limited to this, and other known techniques may be used. Next, in step S312, OCR processing (character recognition processing) is performed on the character image cut out in step S311, and character code information of the OCR result is obtained. In step S313, vectorization processing is executed on the character image cut out from the binary image in step S311 to obtain vectorized (passed) data. In the vectorization process for the character image, for example, vector data can be obtained by executing the same process as the vectorization process for the graphics area described above. However, the vectorization process is not limited to this, and other methods may be used. For example, by identifying the font type of the character image and combining it with the OCR result obtained in S312, vector data composed of the identified font vector data and the character code of the OCR result can be generated. Further, at this time, the color distribution of the original document image data pixel corresponding to the position of the object determined as each character (the position of the black pixel in the character area on the binary image) is examined, and the graphics Determine the representative color of the object. For example, the representative color (color information of each character) can be determined by taking the average color of each character. In step S315, the character code information of the OCR result obtained in S312 and the vectorized (passed) data (vector data) obtained in S313 and the character color information are obtained from region information (object Information) and store it in the BOX. In addition, an index (keyword) extracted from the OCR result may be stored in the area information as metadata, or the entire character string of the OCR result may be used during full text search.

ステップS316では、分離されたオブジェクトを領域ごとに分けて表示する。例えば、図4の入力画像(原稿画像)401とその2値化画像402とに対して、S308〜S314のオブジェクト抽出処理を行った場合、各領域の領域情報(オブジェクト情報)とその描画情報(ベクトルデータ或いはJPEG圧縮データ)とが得られる。それらの情報はBOXに格納される。そして、ステップS316では、オブジェクト抽出結果を、図5に示すように、該原稿画像を構成する1つ1つのオブジェクト単位(文字領域、イメージ領域、グラフィックス領域など)で表示することができる。   In step S316, the separated objects are displayed separately for each area. For example, when the object extraction process of S308 to S314 is performed on the input image (original image) 401 and the binarized image 402 of FIG. 4, area information (object information) of each area and its drawing information ( Vector data or JPEG compressed data). Such information is stored in the BOX. In step S316, the object extraction result can be displayed in units of objects (character area, image area, graphics area, etc.) constituting the document image, as shown in FIG.

以下では、上述した処理の詳細について述べる。   Below, the detail of the process mentioned above is described.

<ニ値化処理(ステップS302〜ステップS307)>
まず、入力画像を白黒に二値化し、輪郭線追跡を行って黒画素輪郭で囲まれる画素の塊を抽出する。面積が予め決定しておいた閾値より大きい黒画素の塊については、内部にある白画素に対しても輪郭線追跡を行って白画素の塊を抽出し、そして、一定面積以上の白画素の塊がある場合は、更にその白画素の塊の内部から更に黒画素の塊を抽出する。また、反転文字領域に関しては白黒反転して、最終的な2値画像を得る。なお、ニ値化処理はこれに限るものではなく、公知の技術を用いることが可能である。
<Binary processing (steps S302 to S307)>
First, the input image is binarized into black and white, and contour tracking is performed to extract a block of pixels surrounded by a black pixel contour. For a black pixel block whose area is larger than the predetermined threshold value, the white pixel block is extracted by tracing the outline of the white pixel inside, and the white pixel block exceeding a certain area is extracted. If there is a lump, a lump of black pixels is further extracted from the inside of the lump of white pixels. Further, the reversed character area is reversed in black and white to obtain a final binary image. Note that the binarization process is not limited to this, and a known technique can be used.

<オブジェクト抽出処理(S308〜S315)>
S308の領域分離処理(オブジェクト分離処理)では、最終的な2値画像から黒画素の塊を抽出し、当該抽出した黒画素の塊を大きさ及び形状で分類し、異なる属性を持つ領域へ分類していく。このとき、所定距離内の黒画素塊は同じ領域であると判断して領域の統合も行う。例えば、縦横比が1に近く、大きさが一定の範囲の領域は文字画像相当の画素塊とし、さらに近接する文字画像相当の画素塊が整列良く並んでいれば、グループ化(統合)して文字領域と判別する。また、不定形の画素塊が散在している領域を写真などのイメージ領域とする。それ以外の任意形状の画素塊をグラフィックス領域とする。なお、本実施形態ではこのようにして分類するものとしたが、これに限るものではなく、公知の領域分離技術を適用することができる。また、領域の属性として表属性(テーブル属性)を更に加えてもよい。この場合、表属性領域内から文字属性領域が抽出できるので、その文字属性部分はOCR処理・ベクトル化処理が行われる。また、文字属性領域以外の表属性領域部分に対しては、グラフィックス領域と同様にベクトル化処理をして、罫線をベクトルデータに変換するようにしてもよい。このようにして、属性毎の領域(オブジェクト)に分離される。
<Object Extraction Processing (S308 to S315)>
In the region separation processing (object separation processing) in S308, black pixel blocks are extracted from the final binary image, the extracted black pixel blocks are classified by size and shape, and are classified into regions having different attributes. I will do it. At this time, the black pixel block within the predetermined distance is determined to be the same region, and the regions are also integrated. For example, if an area having an aspect ratio close to 1 and having a constant size is a pixel block corresponding to a character image, and pixel blocks corresponding to adjacent character images are arranged in a well-aligned manner, they are grouped (integrated). Judged as a character area. Further, an area where irregular pixel clusters are scattered is defined as an image area such as a photograph. A pixel block having any other shape is used as the graphics area. In the present embodiment, classification is performed in this way, but the present invention is not limited to this, and a known region separation technique can be applied. Further, a table attribute (table attribute) may be further added as an area attribute. In this case, since the character attribute area can be extracted from the table attribute area, the character attribute portion is subjected to OCR processing / vectorization processing. Further, the table attribute area portion other than the character attribute area may be vectorized in the same manner as the graphics area to convert the ruled line into vector data. In this way, it is separated into areas (objects) for each attribute.

S312のOCR処理(文字認識処理)の例について説明する。例えば、テキスト領域から文字単位で切り出された文字画像に対し、パターンマッチングの一手法を用いて文字認識を行い、対応する文字コードを取得する。この文字認識処理は、文字画像から得られる特徴を数十次元の数値列に変換した観測特徴ベクトルと、あらかじめ字種毎に求められている辞書特徴ベクトルとを比較し、最も距離の近い字種を認識結果とするものである。特徴ベクトルの抽出には種々の公知手法があり、例えば、文字をメッシュ状に分割し、各メッシュブロック内の文字線を方向別に線素としてカウントしたメッシュ数次元ベクトルを特徴とする方法がある。なお、テキスト領域に対する文字認識処理を行う場合は、まず、S311で記載したように、テキスト領域に対して横書き/縦書きの判定を行い、判定された方向に基づいて文字列を切り出し、更にその切り出された文字列から文字を切り出して文字画像を取得する。横書き/縦書きの判定は、例えば、各テキスト領域内で、画素値に対する水平/垂直方向の射影を取り、水平射影の分散が大きい場合は横書き、垂直射影の分散が大きい場合は縦書きと判定する。また、文字列及び文字への分解は、横書きのテキスト領域である場合には、その水平方向の射影を利用して行を切り出し、さらに切り出された行に対する垂直方向の射影から、文字を切り出すことで行う。一方、縦書きのテキスト領域に対しては、水平と垂直を逆にすれば良い。なお、この文字認識処理を行う際に、文字のサイズを検出することもできる。   An example of the OCR process (character recognition process) in S312 will be described. For example, character recognition is performed on a character image cut out from a text region in character units by using a pattern matching technique, and a corresponding character code is acquired. This character recognition process compares an observed feature vector obtained by converting a feature obtained from a character image into a numerical sequence of several tens of dimensions with a dictionary feature vector obtained in advance for each character type. Is the recognition result. There are various known methods for extracting a feature vector. For example, there is a method characterized by dividing a character into meshes and using a mesh number-dimensional vector obtained by counting character lines in each mesh block as line elements according to directions. When character recognition processing is performed on a text area, first, as described in S311, horizontal / vertical writing is determined for the text area, and a character string is cut out based on the determined direction. A character image is obtained by cutting out a character from the cut out character string. For example, horizontal / vertical writing is determined by taking a horizontal / vertical projection of the pixel value in each text area, and determining horizontal writing when the horizontal projection variance is large and vertical writing when the vertical projection variance is large. To do. In the case of a horizontally written text area, the character string and character are decomposed by using the horizontal projection to cut out the line, and then cutting out the character from the vertical projection of the cut out line. To do. On the other hand, for vertical text areas, the horizontal and vertical directions may be reversed. In addition, when performing this character recognition process, the size of a character can also be detected.

ステップS313のベクトル化処理について説明する。   The vectorization process in step S313 will be described.

文字領域に対してベクトル化処理を適用する場合、まず、ステップS313のOCR処理によって得られた文字ブロックの各文字に対してフォント認識処理を行う。フォント認識処理は、例えば、文字認識処理の際に用いる字種数分の辞書特徴ベクトルとして、文字形状種別(すなわちフォント種別)ごとに複数用意し、マッチングの際に文字コードとともにフォント種を出力することで、文字のフォントを認識することができる。そして、文字認識処理及びフォント認識処理によって得られた、文字コード及びフォント情報を用いて、フォント毎にあらかじめ用意されたフォントのアウトラインデータを用いて、文字部分の情報をベクトルデータに変換する。尚、原稿画像が多値画像(カラー画像)の場合は、その多値画像に基づき各文字の代表色を決定してベクトルデータとともに記録する。なお、文字領域のベクトル化処理は、後述するグラフィックス領域に対するベクトル化処理と同様の処理を行って、ベクトルデータを生成するようにしても構わない。また、文字認識結果が合っていると判断した文字画像については、フォントのアウトラインデータを用いたベクトル化処理を実行し、一方、文字認識結果が誤認識している可能性が高いと判断した文字画像に対しては、後述するグラフィック領域と同様の画像輪郭に基づくベクトル化処理を実行するようにしても構わない。   When the vectorization process is applied to the character area, first, a font recognition process is performed on each character of the character block obtained by the OCR process in step S313. In the font recognition processing, for example, a plurality of dictionary feature vectors corresponding to the number of character types used in the character recognition processing are prepared for each character shape type (that is, font type), and the font type is output together with the character code at the time of matching. Thus, the font of the character can be recognized. Then, using the character code and font information obtained by the character recognition process and the font recognition process, the outline data of the font prepared in advance for each font is used to convert the character part information into vector data. When the document image is a multi-value image (color image), the representative color of each character is determined based on the multi-value image and recorded together with vector data. Note that the character area vectorization processing may be performed in the same manner as the vectorization processing for a graphics area described later to generate vector data. For character images determined to match the character recognition results, vectorization processing using font outline data is performed, while characters that have been determined to have a high possibility of erroneous recognition. For an image, a vectorization process based on an image outline similar to a graphic area described later may be executed.

グラフィックス領域に対してベクトル化処理を適用する場合、そのグラフィックス領域内で抽出された黒画素塊の輪郭をベクトルデータに変換する。具体的には、輪郭をなす画素の点列を角と看倣される点で区切って、各区間を部分的な直線あるいは曲線で近似する。角とは曲率が所定の閾値より大きくなる点であり、曲率が大となる点は、図6に示すように、任意点Piに対し左右k個の離れた点Pi−k、Pi+kの間に弦を引いたとき、この弦とPIの距離lが所定閾値より大となる点を曲率が大きい点とみなす。また、Pi−k、Pi+k間の{(弦の長さ)/(弧の長さ)}をRとし、Rの値が閾値以下である点を角とみなすようにしてもよい。角によって分割された後の各区間について、直線部分と判断した区間に対しては点列に対する最小二乗法等の計算式を用いて近似し、また、曲線部分と判断した区間に対しては3次スプライン関数等の関数を用いて近似することにより、ベクトルデータを生成することができる。なお、黒画素塊内部の白画素塊に対しても、白画素塊に対するベクトル化処理を同様に行うことによって、ベクトルデータを生成することができる。   When the vectorization process is applied to the graphics area, the contour of the black pixel block extracted in the graphics area is converted into vector data. Specifically, a point sequence of pixels forming an outline is divided by points regarded as corners, and each section is approximated by a partial straight line or curve. The corner is a point where the curvature is larger than a predetermined threshold, and the point where the curvature is large is as shown in FIG. 6 between the points Pi-k and Pi + k which are k left and right apart from the arbitrary point Pi. When a string is drawn, a point where the distance l between the string and PI is larger than a predetermined threshold is regarded as a point having a large curvature. Alternatively, {(string length) / (arc length)} between Pi−k and Pi + k may be R, and a point where the value of R is equal to or less than a threshold may be regarded as a corner. For each section after being divided by the corners, the section determined to be a straight line part is approximated using a calculation formula such as a least square method for the point sequence, and for the section determined to be a curved part, 3 is used. Vector data can be generated by approximation using a function such as a next spline function. Note that vector data can also be generated by performing the vectorization process on the white pixel block in the same manner for the white pixel block inside the black pixel block.

以上のように、輪郭の区分線近似を用いれば、任意形状の図形のアウトラインをベクトル化して、ベクトルデータを生成することができる。尚、原稿画像がカラー画像の場合は、そのカラー画像から図形の色を抽出してベクトルデータとともに記録する。   As described above, by using contour lane marking approximation, vector outlines can be generated by vectorizing outlines of arbitrarily shaped figures. If the original image is a color image, the figure color is extracted from the color image and recorded together with the vector data.

また、上述した例では、図形の輪郭ベクトルデータについて説明したが、線状の図形に関しては、輪郭をそのまま用いるのではなく、線幅情報を有するベクトルデータとして表現するようにしてもよい。例えば、図7に示すように、図形のある区間において2本の輪郭が近接している場合、2つの輪郭線をひとまとめにして、線幅情報を有する1本の線ベクトルデータとして表現することができる。具体的には、ある輪郭の各点Piから別輪郭上で最短距離となる点Qiまで線を引き、その距離PQiが、ある注目区間でほぼ一定の長さであった場合、該注目区間はPQiの中点を点列として直線あるいは曲線で近似し、その線幅はPQiの平均値としたベクトルデータに変換できる。   In the above-described example, the contour vector data of the graphic is described. However, for a linear graphic, the contour may not be used as it is, but may be expressed as vector data having line width information. For example, as shown in FIG. 7, when two contours are close to each other in a certain section of the figure, the two contour lines can be collectively expressed as one line vector data having line width information. it can. Specifically, when a line is drawn from each point Pi of a certain contour to a point Qi that is the shortest distance on another contour, and the distance PQi has a substantially constant length in a certain attention section, the attention section is The midpoint of PQi is approximated by a straight line or a curve as a point sequence, and the line width can be converted into vector data that is the average value of PQi.

<メタデータ>
図8に示すように、メタデータの構成は、階層的である。例えば、基礎情報801には、オブジェクトが作成された日時や作成者、原稿ID等が記載されている。また、各付加情報には、各オブジェクトの形状や原稿における位置などに関する情報が記載されている。また、OCR結果から作成したキーワードを、付加情報に格納することもできる。このように、メタデータは、1つの原稿画像から抽出した複数のオブジェクトのそれぞれに対して付与された付加情報802−804と、該原稿画像全体に対して付加された基礎情報801とが原稿画像ごとに関連付けられて保持される。
<Metadata>
As shown in FIG. 8, the structure of metadata is hierarchical. For example, the basic information 801 describes the date and time when the object was created, the creator, the document ID, and the like. Each additional information includes information on the shape of each object, the position on the document, and the like. Further, a keyword created from the OCR result can be stored in the additional information. As described above, the metadata includes additional information 802-804 added to each of a plurality of objects extracted from one original image and basic information 801 added to the entire original image. Is held in association with each other.

また、後述するように、本実施形態では、オブジェクトを検索して再利用することが可能である。更に、検索した結果のオブジェクト群の中から、ユーザの指示に基づいて選択したオブジェクトを組み合わせてレイアウトすることにより、新たな文書を作成することができる。このとき、当該新たな文書を作成する際に用いた各オブジェクトを検索する際に用いた検索キーワードを、一緒にレイアウトされた他のオブジェクトのメタデータにも反映する。このように構成することにより、再度似たようなオブジェクトの組み合わせで、別の新たな文書を作成する必要が生じたとき、その組み合わせを容易に検索できるようになり、再利用する際の操作性が向上する。   Further, as will be described later, in the present embodiment, an object can be searched and reused. Furthermore, a new document can be created by combining and laying out objects selected based on a user's instruction from the retrieved object group. At this time, the search keyword used when searching for each object used when creating the new document is also reflected in the metadata of other objects laid out together. With this configuration, when it becomes necessary to create another new document with a combination of similar objects again, it is possible to easily search for the combination, and operability when reusing it. Will improve.

また、セキュリティに関する情報をメタデータに含むようにしてもよい。この場合、オブジェクトごとに利用可能なユーザを制限することができる。なお、メタデータを付加情報802〜804のように階層的な構成にするのは、階層に応じてセキュリティのレベルを変えることができ、誰でも見える情報や特定のユーザにしか見えない情報を区別するのに便利であるためである。   Further, information about security may be included in the metadata. In this case, the users that can be used for each object can be limited. Note that the hierarchical structure of metadata such as additional information 802 to 804 can change the level of security according to the hierarchy, and distinguishes information that can be seen by anyone or information that can only be seen by a specific user. This is because it is convenient to do.

なお、メタデータのフォーマットに関しては、XML等の記述言語が使用されるものとするが、これに限るものではなく、テーブル等を用いて管理するようにしても構わない。   As for the metadata format, a description language such as XML is used. However, the metadata format is not limited to this, and it may be managed using a table or the like.

<オブジェクト別UI画面表示>
ステップS316で、入力画像に対して、オブジェクトに分離してBOXに保存する処理が行われた結果が、図9のようなUI画面上に表示される。図9は、図4の原稿を領域毎にオブジェクト分離した後、メタデータの生成処理・ベクトルデータ生成処理・BOX保存処理がなされたオブジェクトを、MFPのUI画面901に表示した例である。
<Display UI screen by object>
In step S316, the result of the process of separating the input image into objects and storing it in the BOX is displayed on the UI screen as shown in FIG. FIG. 9 shows an example in which an object subjected to metadata generation processing, vector data generation processing, and BOX storage processing is displayed on the UI screen 901 of the MFP after the document of FIG.

図4の原稿から抽出した領域オブジェクトは7つで、UI画面901に示したように、オブジェクト903〜909が表示される。また、各領域オブジェクトを選択することにより、その領域に関連付けられているメタデータの内容を参照することも可能である(不図示)。   There are seven area objects extracted from the original in FIG. 4, and objects 903 to 909 are displayed as shown in the UI screen 901. Further, by selecting each area object, it is possible to refer to the contents of metadata associated with the area (not shown).

また、902のSENDボタンがユーザにより押下されると、選択中のオブジェクトをPCに送信することが可能である。また、オブジェクトを複数選択し、後述する自動レイアウト処理を実行すると、その選択されたオブジェクトを自動的にレイアウトしたドキュメントを作成することも可能である。   Further, when the SEND button 902 is pressed by the user, the selected object can be transmitted to the PC. Further, when a plurality of objects are selected and automatic layout processing described later is executed, a document in which the selected objects are automatically laid out can be created.

図10に自動レイアウト処理UI画面を示す。   FIG. 10 shows an automatic layout processing UI screen.

図10の画面901内に表示されているオブジェクトは、前述した処理で領域毎に分離されて、BOXに保存処理されたオブジェクトである。図10では、複数の原稿から抽出されてBOXに保存された様々なオブジェクトが表示されている。その各々のオブジェクトに対してチェックボタン(1001〜1012)が用意されており、このチェックボタンは、ユーザが各オブジェクトを選択する際に使用されるユーザインターフェースである。ここで示しているオブジェクトは、前述した記憶部202のBOXに予め保存されていたものである。   The objects displayed in the screen 901 in FIG. 10 are objects that are separated into regions by the above-described processing and stored in the BOX. In FIG. 10, various objects extracted from a plurality of documents and stored in a BOX are displayed. A check button (1001 to 1012) is prepared for each object, and this check button is a user interface used when the user selects each object. The object shown here is stored in advance in the BOX of the storage unit 202 described above.

また、複数のオブジェクトの中から所望のオブジェクトをキーワード検索できるように、キーワードを入力するための検索キー入力欄1013をUI上に具備している。この検索キー入力欄1013に対して入力部204を介してキーワードが入力されると、オブジェクトが検索できる構成になっている。   In addition, a search key input field 1013 for inputting a keyword is provided on the UI so that a desired object can be searched from a plurality of objects. When a keyword is input to the search key input field 1013 via the input unit 204, an object can be searched.

検索は、前述した付加情報(図8)の情報を元におこなう構成である。つまり、各オブジェクトに対して付加された付加情報802〜804と、検索キー入力欄1013に入力されたキーワードとが、一致するか否か判断して検索をおこなう。そして、検索で付加情報が一致したオブジェクトを画面901内に表示する。   The search is configured based on the information of the additional information (FIG. 8) described above. That is, the search is performed by determining whether or not the additional information 802 to 804 added to each object matches the keyword input in the search key input field 1013. Then, an object whose additional information matches in the search is displayed in the screen 901.

また、自動レイアウトボタン1014がユーザにより押下されると、チェックボタン1001〜1012で選択されているオブジェクトを自動的にレイアウトして、新たな原稿を作成する。   When the automatic layout button 1014 is pressed by the user, the object selected by the check buttons 1001 to 1012 is automatically laid out to create a new document.

以下では、具体例を用いて説明する。図11は、入力部204を介して「デジタルカメラ」というキーワードがキー入力欄1101に入力され、通常の検索ボタン1016が押下され、検索処理が実行された状態を示している。図11の画面901内に表示されている複数のオブジェクト1102〜1107は、キーワード検索でヒットした結果の例をあらわしている。   Below, it demonstrates using a specific example. FIG. 11 shows a state in which the keyword “digital camera” is input to the key input field 1101 via the input unit 204, the normal search button 1016 is pressed, and the search process is executed. A plurality of objects 1102 to 1107 displayed in the screen 901 of FIG. 11 represent examples of results obtained by keyword search.

一方、図12は、「自然」というキーワードがキー入力欄1201に入力され、オブジェクトの検索処理を実行した結果の例を示している。ここでは、キーワード検索した結果として、6つのオブジェクト1202〜1207が表示された例を示す。   On the other hand, FIG. 12 shows an example of the result of executing the object search process when the keyword “natural” is input to the key input field 1201. Here, an example is shown in which six objects 1202 to 1207 are displayed as a result of keyword search.

なお、図11と図12の画面は、検索キーワードを入力することで、画面表示を切り替えることが可能である。また、それぞれの検索結果を一時保存しておき、不図示の検索結果画面切り替えボタンを操作することで、検索結果を切り替え表示できるようにしてもよい。   In addition, the screen display of FIG. 11 and FIG. 12 can be switched by inputting a search keyword. Alternatively, each search result may be temporarily stored, and the search result may be switched and displayed by operating a search result screen switching button (not shown).

次に、オブジェクト選択操作について、図13、14を用いて説明する。   Next, the object selection operation will be described with reference to FIGS.

図13は、図11の「デジタルカメラ」というキーワードで検索した結果を示す画面901において、チェックボタン1301〜1306を用いてオブジェクトを選択している様子を示す。図13の例では、4つのオブジェクト(1302、1304、1305、1306)が選択されている状態を示している。   FIG. 13 shows a state where an object is selected using check buttons 1301 to 1306 on the screen 901 showing the result of the search using the keyword “digital camera” in FIG. In the example of FIG. 13, four objects (1302, 1304, 1305, 1306) are selected.

図14は、図12の「自然」というキーワードで検索した結果において、いくつかのオブジェクトが選択されている状態を示している。図14では、3つのオブジェクト(1401、1403、1404)が選択されている。   FIG. 14 shows a state in which several objects are selected as a result of searching with the keyword “nature” in FIG. 12. In FIG. 14, three objects (1401, 1403, and 1404) are selected.

図13、図14で説明したように、本実施例では合計7つのオブジェクトを選択している。そして、これらのオブジェクトを組み合わせてレイアウトすることによって新たな原稿を作成することを、本実施例では「再レイアウト」処理と呼ぶことにする。すなわち、再レイアウトとは、1乃至複数のキーワードによって検索された複数のオブジェクトの中から、ユーザの操作により選択されたオブジェクトを用いて新たな原稿を生成することを示す。また、この「再レイアウト」処理に関して、選択されたオブジェクトを自動的に配置して、新たな原稿を生成することを特に「自動レイアウト(自動再レイアウト)」と呼ぶことにする。これに対し、ユーザによる配置位置の指示に基づいて、該選択されたオブジェクトを配置していくことにより新たな原稿を生成する場合は、「手動レイアウト(手動再レイアウト)」と呼ぶことにする。   As described with reference to FIGS. 13 and 14, a total of seven objects are selected in this embodiment. In this embodiment, creating a new document by combining these objects and laying out is called “re-layout” processing. In other words, the re-layout means that a new document is generated using an object selected by a user operation from among a plurality of objects searched by one or more keywords. Regarding this “re-layout” process, the automatic placement of selected objects and the generation of a new document will be referred to as “automatic layout (automatic layout)”. On the other hand, when a new document is generated by arranging the selected object based on an instruction of the arrangement position by the user, it is referred to as “manual layout (manual re-layout)”.

図13や図14に示した自動レイアウトボタン(AUTO LAYOUTボタン)1014がユーザによって押下されると、そのときに選択されているオブジェクトが自動的にレイアウトされて、新しい原稿が生成される。この「自動レイアウト」処理を実行した結果を図15に示す。1501のプレビュー画面には、自動レイアウト処理で生成された新しい原稿が表示される。この新しい原稿は、図13や図14で選択されたオブジェクト(1302、1304、1305、1306、1401、1403、1404)を組み合わせてレイアウトした結果を示している。このとき、編集ボタン(EDITボタン)1502がユーザによって押下されると、プレビュー画面に表示されている原稿内のオブジェクトの位置や大きさをユーザの指示にしたがって修正可能になるものとする。更に、保存ボタン(SAVEボタン)1503がユーザにより押下されると、そのときにプレビュー表示されているレイアウトの原稿を、新たな原稿として保存する。そして、その新たな原稿のレイアウト時に用いたオブジェクトの組み合わせに関する情報(各オブジェクトを検索する際に用いたキーワードや、グループIDなど)をグループ情報として、図8の付加情報に追加保存する。このグループ情報を保存しておくことにより、後に、同様の組み合わせで原稿を作成したい場合や、組み合わせに用いるオブジェクトの参考の候補として利用することが可能になる。   When the automatic layout button (AUTO LAYOUT button) 1014 shown in FIGS. 13 and 14 is pressed by the user, the object selected at that time is automatically laid out and a new document is generated. The result of executing this “automatic layout” process is shown in FIG. A new document generated by the automatic layout process is displayed on the preview screen 1501. This new document shows the result of layout combining the objects (1302, 1304, 1305, 1306, 1401, 1403, and 1404) selected in FIG. 13 and FIG. At this time, when the edit button (EDIT button) 1502 is pressed by the user, the position and size of the object in the document displayed on the preview screen can be corrected according to the user's instruction. Further, when the save button (SAVE button) 1503 is pressed by the user, the document of the layout displayed at that time is stored as a new document. Then, information relating to the combination of objects used at the time of the layout of the new document (keyword used when searching for each object, group ID, etc.) is additionally stored as additional information in FIG. 8 as group information. By storing this group information, it is possible to use it as a reference candidate for an object used for the combination when it is desired to create a document with a similar combination later.

図16は、新たな原稿を作成した際に各オブジェクトに付加された付加情報の例である。図16において、1601と1606はオブジェクトの一例である。1602と1607は、元原稿から各オブジェクトを抽出して作成した際に付加された基礎情報である。1603と1608は、元原稿から各オブジェクトを抽出して作成した際に、OCR結果やユーザによるキー入力に基づいて、各オブジェクトに付加されたキーワードである。1603〜1605と1609〜1611は、各オブジェクトを再利用して新たな原稿を作成した際に追加された情報であり、グループIDや新たな原稿の作成時に使用されたキーワード、各グループで再利用された回数などが付加されている。なお、グループIDは、新たな原稿を作成・保存するたびに自動的に付与される番号であるものとする。オブジェクト1601と1606は、グループID=1の原稿を作成した際に同時に使用されたので、それぞれに、付加情報1604と1609が付加されている。また、グループID=2の原稿を作成した際も、オブジェクト1601と1606が使用されたので、付加情報1605と1610が付加されている。また、グループID=3の原稿を作成した際、オブジェクト1601は使用されておらず、オブジェクト1606は使用されたので、オブジェクト1606には付加情報1611が付加されている。   FIG. 16 is an example of additional information added to each object when a new document is created. In FIG. 16, 1601 and 1606 are examples of objects. Reference numerals 1602 and 1607 denote basic information added when each object is extracted and created from the original document. Reference numerals 1603 and 1608 denote keywords added to each object based on the OCR result and key input by the user when each object is extracted and created from the original document. Reference numerals 1603 to 1605 and 1609 to 1611 denote information added when a new document is created by reusing each object. The group ID, the keyword used when creating a new document, and the reused information for each group. Etc. are added. The group ID is a number that is automatically assigned every time a new document is created and saved. Since the objects 1601 and 1606 are used at the same time when the document with the group ID = 1 is created, additional information 1604 and 1609 are added to the objects 1601 and 1606, respectively. Further, since the objects 1601 and 1606 are used when the document with the group ID = 2 is created, additional information 1605 and 1610 are added. Further, when the document with the group ID = 3 is created, the object 1601 is not used, and the object 1606 is used. Therefore, additional information 1611 is added to the object 1606.

つまり、各オブジェクトの付加情報部に、原稿作成時に同時に使われたグループが記載され、紐付けが行われていることになる。更に、原稿作成時に利用されたキーワードも一緒に格納しているので、当該オブジェクトと共に使用された別のオブジェクトの検索に用いたキーワードも関連付けられていることになる。これにより、例えば、元々は「自然」というキーワードが関連付けられていないオブジェクト(例えば1601)に対して、グループ作成時に用いたキーワード「自然」がグループのキーワードとして付加されることになる。したがって、オブジェクト1601は、元々付加されているキーワードだけでは、「自然」というキーワードでは検索されないが、グループ検索を行う際には「自然」というキーワードで検索されうる。したがって、グループの関連性に基づいて各オブジェクトを検索することができるので、オブジェクトの再利用性が向上する。   That is, the group used at the time of document creation is described in the additional information section of each object, and the association is performed. Furthermore, since the keywords used at the time of document creation are also stored together, the keywords used for searching for another object used together with the object are also associated. As a result, for example, the keyword “natural” used when creating the group is added as a keyword for the group to an object (for example, 1601) that is not originally associated with the keyword “natural”. Therefore, the object 1601 is not searched for by the keyword “natural” only with the originally added keyword, but can be searched by the keyword “natural” when performing a group search. Therefore, since each object can be searched based on the relevance of the group, the reusability of the object is improved.

図17は、検索キー入力欄1701(図10の1013)に「デジタルカメラ」というキーワードが入力され、グループ検索ボタン1702(図10の1017)がユーザにより押下されたときのグループ検索の結果を表示する画面の一例である。   FIG. 17 shows a group search result when the keyword “digital camera” is input in the search key input field 1701 (1013 in FIG. 10) and the group search button 1702 (1017 in FIG. 10) is pressed by the user. It is an example of the screen to perform.

通常の検索ボタン1016が押下された場合は、各オブジェクトに元々付加されているキーワード(例えば、図16の1603や1608)に基づいて検索が行われるので、図11に示したような検索結果となる。一方、グループ検索ボタン1702が押下された場合は、元々のキーワードと共に、グループIDとグループキーワード(例えば、図16の1604〜1605、1609〜1611)も用いて検索が行われ、図17に示したような検索結果となる。すなわち、図17では、過去の再レイアウトで原稿を作成した際の組み合わせにおいて利用されたオブジェクトも一緒に表示されることになる。   When the normal search button 1016 is pressed, the search is performed based on the keywords (for example, 1603 and 1608 in FIG. 16) originally added to each object, so that the search result as shown in FIG. Become. On the other hand, when the group search button 1702 is pressed, a search is performed using a group ID and a group keyword (for example, 1604 to 1605 and 1609 to 1611 in FIG. 16) together with the original keyword, as shown in FIG. The search result is as follows. That is, in FIG. 17, the objects used in the combination when the original is created by the past relayout are also displayed together.

図17において、1703の縦の列は、各オブジェクトに元々付加されているキーワードに基づいて検索した結果の検索一致度が高い順に、各オブジェクトが縦方向に並べられて表示される。そして、1703の列の各オブジェクトが以前に再利用された際の各グループに含まれる別のオブジェクトがその右側に隣接する関連オブジェクト表示欄1704に表示される。例えば、図16のオブジェクト1601が検索され、そのオブジェクト1601に関連するグループID=1に属する他のオブジェクトが、図17の関連オブジェクト表示欄の1行目に表示されている。また、オブジェクト1601に関連するグループID=2に属する他のオブジェクトは、図17の関連オブジェクト表示欄の2行目に表示されている。このように、各グループは、グループ別に表示される。また、表示されているオブジェクトごとに、各オブジェクトを選択するためのチェックボックスが設けられている。更に、関連オブジェクト表示欄1704の右側にあるグループ情報欄1705には、グループ単位でまとめて選択するためのチェックボックスと、グループIDと、以前の検索時に利用された1701以外のキーワードが表示される。   In FIG. 17, the vertical column 1703 displays the objects arranged in the vertical direction in descending order of the search matching degree as a result of the search based on the keyword originally added to each object. Then, another object included in each group when each object in the column 1703 has been reused is displayed in the related object display column 1704 adjacent to the right side thereof. For example, the object 1601 in FIG. 16 is searched, and other objects belonging to the group ID = 1 related to the object 1601 are displayed in the first line of the related object display column in FIG. Further, other objects belonging to the group ID = 2 related to the object 1601 are displayed in the second line of the related object display column in FIG. In this way, each group is displayed by group. Also, a check box for selecting each object is provided for each displayed object. Further, in the group information column 1705 on the right side of the related object display column 1704, a check box for selecting collectively by group, a group ID, and keywords other than 1701 used at the time of the previous search are displayed. .

なお、グループ情報欄1705に表示されているキーワード(すなわち、グループ化されたオブジェクトを検索するのに用いたキーワード)をユーザがクリックすると、当該クリックされたキーワードをキーにして通常検索が行われるものとする。すなわち、ユーザはオブジェクト1703と過去に一緒に使ったオブジェクト1704を検索する際に用いたキーワードを使って簡単に検索できる。類似するオブジェクトには同じキーワードが付加されていることが多いので、過去に一緒に使ったオブジェクトに類似する別のオブジェクトも容易に検索することができ、オブジェクトを利用しやすくなる。   When a user clicks on a keyword displayed in the group information column 1705 (that is, a keyword used to search for a grouped object), a normal search is performed using the clicked keyword as a key. And That is, the user can easily search using the keyword used when searching for the object 1704 and the object 1704 used together in the past. Since the same keyword is often added to similar objects, another object similar to the object used together in the past can be easily searched, and the object can be easily used.

また、検索されたオブジェクト1703に関連する各グループは、グループとしての使用回数が高いグループを上位に表示する。使用回数が同じグループに関しては、検索キーワード1701と同じキーワードが元々付加されている関連オブジェクトの数が多いグループを上位に表示する。図17において、検索キーワード1701と同じキーワードが元々付加されている関連オブジェクトの背景色(図17では斜線で示している)は同じ色が表示されている。すなわち、検索キーワードで検索されたオブジェクト1703の背景色と、関連するグループに含まれるオブジェクトのうち、同じキーワードが元々付加されているオブジェクトの背景色は同じである。なお、図17では、同じキーワードが元々付加されているオブジェクトが表示されている領域の背景色は同じであるものとしたが、色に限るものではない。例えば、背景の模様や記号などを用いて同じかどうか識別可能に表示するものであってもよい。   In addition, each group related to the searched object 1703 displays a group having a high use count as a group at the top. For groups with the same number of uses, a group with a large number of related objects to which the same keyword as the search keyword 1701 is originally added is displayed at the top. In FIG. 17, the same color is displayed as the background color (indicated by hatching in FIG. 17) of the related object to which the same keyword as the search keyword 1701 is originally added. That is, the background color of the object 1703 searched by the search keyword and the background color of the object to which the same keyword is originally added among the objects included in the related group are the same. In FIG. 17, the background color of the area in which the object to which the same keyword is originally added is displayed is the same, but is not limited to the color. For example, it may be displayed so as to be identifiable by using a background pattern or symbol.

図18は、検索キーワードが入力されて、グループ検索ボタンが押下されたときに行われるグループ検索処理のフローチャートである。   FIG. 18 is a flowchart of group search processing that is performed when a search keyword is input and the group search button is pressed.

ステップS1801では、入力された検索キーワードと各オブジェクトに付加されているキーワードとに基づいて、オブジェクトを検索し、検索結果の一致度が高いものから順にソートする。そして、まず、1番目のオブジェクトを関連グループ検索対象としてステップS1802に進む。   In step S1801, the objects are searched based on the input search keyword and the keyword added to each object, and are sorted in descending order of the matching degree of the search results. First, the process proceeds to step S1802 with the first object as a related group search target.

ステップS1802では、対象となっているオブジェクトの付加情報に基づいて、関連グループに関する情報(グループID、使用回数など)を検索する。そして、ステップS1803では、グループIDに基づいて、各関連グループに属する他のオブジェクトを検索する。   In step S1802, information related to the related group (group ID, number of times used, etc.) is searched based on the additional information of the target object. In step S1803, another object belonging to each related group is searched based on the group ID.

ステップS1804では、関連グループに関する情報と各関連グループに属する他のオブジェクトに関する情報とに基づいて、グループのソートを行う。ここでは、関連グループの使用回数や、各関連グループに属する他のオブジェクトに付加されているキーワードに基づいて、使用される可能性が高いグループが上位になるようにソートする。   In step S1804, groups are sorted based on information on related groups and information on other objects belonging to each related group. Here, based on the number of times the related group is used and the keywords added to other objects belonging to each related group, the groups that are likely to be used are sorted so as to be ranked higher.

ステップS1805では、ステップS1801の検索結果における次のオブジェクトがあれば、そのオブジェクトを関連グループ検索対象として、ステップS1802に戻る。   In step S1805, if there is a next object in the search result in step S1801, that object is set as a related group search target, and the process returns to step S1802.

ステップS1806では、検索キーワードによる検索結果のオブジェクトと、そのオブジェクトに関連するグループの情報と、各グループに属する他のオブジェクトとを、ソート順にしたがって表示する。この結果、図17のような表示がなされる。   In step S1806, the search result object based on the search keyword, the group information related to the object, and the other objects belonging to each group are displayed in the sort order. As a result, a display as shown in FIG. 17 is made.

図17の結果表示画面において、ユーザは、各オブジェクトのチェックボックスや各グループのチェックボックスをチェックすることで、所望のオブジェクトを選択できる。そして、自動レイアウトボタンを押すと、その選択した所望のオブジェクトを用いて新たな原稿を作成することができる。   In the result display screen of FIG. 17, the user can select a desired object by checking a check box of each object or a check box of each group. When the automatic layout button is pressed, a new document can be created using the selected desired object.

以上説明したように、本実施形態によれば、各オブジェクトに対してキーワードとともに、再利用した際のグループ情報を関連付けて記憶しておくことにより、図17のような過去の使用履歴に基づくグループ検索を行うことができる。過去に使用された組み合わせは、その後に同じ組み合わせや似たような組み合わせで再利用されることが多いので、図17のような表示を行うことで、オブジェクトの検索性・操作性があがり、再利用しやすくなる。   As described above, according to the present embodiment, the group based on the past use history as shown in FIG. 17 is stored by associating and storing the group information at the time of reuse together with the keyword for each object. Search can be performed. Since combinations that have been used in the past are often reused in the same or similar combinations afterwards, the display as shown in FIG. It becomes easy to use.

(実施形態2)
実施形態2では、グループに関する付加情報(例えば、1604〜1605、1609〜1611)に、該グループでの再利用時に加工されたオブジェクトの形状も同時に記憶しておくことを特徴とする。加工される形状とは、例えば拡縮や変形や回転などである。
(Embodiment 2)
The second embodiment is characterized in that the additional object information (for example, 1604 to 1605, 1609 to 1611) also stores the shape of the object processed at the time of reuse in the group. The shape to be processed is, for example, enlargement / reduction, deformation, or rotation.

そして、図17のようにグループ検索結果を表示する際に、過去の再利用時に加工された形状に基づいて、各オブジェクトを表示するものとする。各オブジェクトは、再利用される度に加工される形状(例えば拡縮や変形や回転など)が異なる場合もあるが、最も多く加工された形状でもって表示する。   And when displaying a group search result like FIG. 17, each object shall be displayed based on the shape processed at the time of the past reuse. Each object may be processed in a shape (for example, enlargement / reduction, deformation, rotation, etc.) each time it is reused, but is displayed with the most processed shape.

これにより、ユーザは、過去に利用されたオブジェクト形状が分かるので、再レイアウト処理で新たな原稿を生成する際のレイアウトの参考として利用することができる。   Thus, the user can know the object shape used in the past, and can use it as a reference for the layout when generating a new document in the re-layout process.

また、一番多く再利用されている形状は、再利用時にお勧めの形状であることが多いと考えられるので、再利用性も向上する。   In addition, since the shape that is reused most often is considered to be a recommended shape at the time of reuse, reusability is also improved.

(その他の実施形態)
上述した実施形態1〜2では、MFP(複合機)の制御部において検索や表示などの制御が行われるものとした。MFPの制御部はCPU(コンピュータ)を含み、コンピュータ読み取り可能な記憶媒体(例えば、ハードディスク)に記憶されているコンピュータプログラムを読み込んで実行することにより、上述した検索や表示の処理を行うものとする。すなわち、コンピュータは、プログラムを実行することにより、各処理を行うための制御手段として機能することになる。
(Other embodiments)
In Embodiments 1 and 2 described above, control such as search and display is performed in the control unit of the MFP (multifunction machine). The control unit of the MFP includes a CPU (computer), and performs the above-described search and display processes by reading and executing a computer program stored in a computer-readable storage medium (for example, a hard disk). . That is, the computer functions as control means for performing each process by executing the program.

なお、本発明は、MFPに限るものではなく、例えば、MFPに接続されているコンピュータもしくは汎用パソコンのコンピュータが、プログラムを実行することにより、上述したような処理を実現することによっても達成される。   Note that the present invention is not limited to the MFP, and can also be achieved, for example, when the computer connected to the MFP or a computer of a general-purpose personal computer realizes the above-described processing by executing a program. .

また、本発明は、コンピュータがコンピュータプログラムを実行することにより実現されるものとしたが、処理の一部または全部を電気回路などのハードウェアで実現できるようにしても構わない。その場合、各ハードウェアが各処理を行うための制御手段として機能することになる。   The present invention is realized by a computer executing a computer program. However, part or all of the processing may be realized by hardware such as an electric circuit. In that case, each hardware functions as a control means for performing each process.

以上説明したように、本明細書によれば、過去に一緒に使用したオブジェクト群の情報をグループとして記憶しておくことにより、オブジェクトに関連するグループの検索が可能となりオブジェクトの再利用性が向上する。   As described above, according to the present specification, by storing information on object groups used together in the past as a group, it is possible to search for a group related to the object and improve the reusability of the object. To do.

これにより、保存されているオブジェクトの中から所望のオブジェクトを検索することが容易になるので、オブジェクトを再利用して新たな原稿を作成することが更に容易になる。   This makes it easy to search for a desired object from among the stored objects, and it becomes even easier to create a new document by reusing the object.

また、単なるキーワード検索だけでは見つけることができなかった有用なオブジェクトを簡単に見つけられる可能性が高くなる。   In addition, there is a high possibility that a useful object that could not be found by a simple keyword search can be easily found.

Claims (19)

入力されたキーワードに対応するデータを特定する第1の特定手段と、
前記特定されたデータと関連付けられた他のデータを特定する第2の特定手段と、
前記第2の特定手段で特定された他のデータを表示手段に表示させる手段と、
を有し、
前記他のデータには、前記他のデータが特定のユーザのみに対して表示されるようにするか、前記特定のユーザを含む全てのユーザに対して表示されるようにするか、を決めるための情報が関連付けられることを特徴とする情報処理装置。
First specifying means for specifying data corresponding to the input keyword;
Second specifying means for specifying other data associated with the specified data;
Means for causing the display means to display other data specified by the second specifying means;
Have
In the other data, in order to determine whether the other data is to be displayed only to a specific user or to be displayed to all users including the specific user. Information processing apparatus characterized in that the information is associated with each other.
入力されたキーワードに対応するデータを特定する第1の特定手段と、
前記特定されたデータと関連付けられた他のデータを特定する第2の特定手段と、
前記第2の特定手段で特定された他のデータを表示手段に表示させる手段と、
を有し、
前記他のデータを表示させる際に、前記他のデータが特定のユーザのみに対して表示されるようにするか、前記特定のユーザを含む全てのユーザに対して表示されるようにするか、を決めるための情報が、前記他のデータに関連付けられていることを特徴とする情報処理装置。
First specifying means for specifying data corresponding to the input keyword;
Second specifying means for specifying other data associated with the specified data;
Means for causing the display means to display other data specified by the second specifying means;
Have
When the other data is displayed, the other data is displayed only for a specific user, or is displayed for all users including the specific user, An information processing apparatus characterized in that information for determining the information is associated with the other data.
前記情報は、前記他のデータのうちのどのデータが特定のユーザのみに対して表示されるようにするかを決めるための情報であることを特徴とする請求項1または2に記載の情報処理装置。   The information processing according to claim 1 or 2, wherein the information is information for determining which of the other data is to be displayed only for a specific user. apparatus. 前記情報は、前記他のデータのうちのどのデータが前記特定のユーザを含む全てのユーザに対して表示されるようにするかを決めるための情報であることを特徴とする請求項1乃至3の何れか1項に記載の情報処理装置。   The information is information for deciding which of the other data is to be displayed for all users including the specific user. The information processing apparatus according to any one of the above. 前記情報は、前記他のデータのうちの一部のデータが特定のユーザのみに対して表示されるようにし、前記他のデータのうちの他の一部のデータが前記特定のユーザを含む全てのユーザに対して表示されるようにするための情報であることを特徴とする請求項1または2に記載の情報処理装置。   The information is such that a part of the other data is displayed only to a specific user, and the other part of the other data includes the specific user. The information processing apparatus according to claim 1, wherein the information processing apparatus is information for display to a user. 前記表示手段は、前記第1の特定手段によって特定されたデータを、前記他のデータとともに表示させることを特徴とする請求項1乃至5の何れか1項に記載の情報処理装置。   6. The information processing apparatus according to claim 1, wherein the display unit displays the data specified by the first specifying unit together with the other data. 前記第1の特定手段によって特定されるデータ、および、前記第2の特定手段によって特定される他のデータは、画像データであって、
前記第1の特定手段は、前記キーワードに対応する画像データの他に、前記キーワードに対応する他の画像データを特定し、
前記表示手段は、前記第1の特定手段によって特定された画像データおよび他の画像データを、前記第2の特定手段によって特定された他の画像データとともに表示させることを特徴とする請求項1乃至6の何れか1項に記載の情報処理装置。
The data specified by the first specifying means and the other data specified by the second specifying means are image data,
The first specifying means specifies other image data corresponding to the keyword in addition to the image data corresponding to the keyword,
The display means displays image data specified by the first specifying means and other image data together with other image data specified by the second specifying means. 7. The information processing apparatus according to any one of 6.
前記第1の特定手段によって特定されるデータと、前記第2の特定手段によって特定される他のデータとをユーザの指示に基づいて関連付ける関連付け手段をさらに有し、
前記関連付け手段によって関連付けられる前記第1の特定手段によって特定されるデータは、前記関連付け手段が、前記ユーザの指示に基づいて入力された前記キーワードに対応する、前記第1の特定手段によっても特定されるデータを含む複数のデータを特定し、前記複数のデータのなかから前記ユーザの指示に基づいて選択したデータであることを特徴とする請求項1乃至7の何れか1項に記載の情報処理装置。
An association means for associating the data specified by the first specifying means with other data specified by the second specifying means based on a user instruction;
The data specified by the first specifying means associated by the associating means is also specified by the first specifying means corresponding to the keyword input by the associating means based on the user's instruction. 8. The information processing according to claim 1, wherein a plurality of pieces of data including data to be specified are identified and selected from the plurality of pieces of data based on an instruction from the user. apparatus.
入力されたキーワードに対応するデータを特定する第1の特定手段と、
前記特定されたデータと関連付けられた他のデータを特定する第2の特定手段と、
前記第2の特定手段で特定された他のデータを表示手段に表示させる手段と、
を有し、
前記他のデータには、前記他のデータが特定のユーザのみに対して表示されるようにするか、前記特定のユーザを含む全てのユーザに対して表示されるようにするか、を決めるための情報が関連付けられることを特徴とする情報処理システム。
First specifying means for specifying data corresponding to the input keyword;
Second specifying means for specifying other data associated with the specified data;
Means for causing the display means to display other data specified by the second specifying means;
Have
In the other data, in order to determine whether the other data is to be displayed only to a specific user or to be displayed to all users including the specific user. An information processing system characterized by being associated with the information.
入力されたキーワードに対応するデータを特定する第1の特定手段と、
前記特定されたデータと関連付けられた他のデータを特定する第2の特定手段と、
前記第2の特定手段で特定された他のデータを表示手段に表示させる手段と、
を有し、
前記他のデータを表示させる際に、前記他のデータが特定のユーザのみに対して表示されるようにするか、前記特定のユーザを含む全てのユーザに対して表示されるようにするか、を決めるための情報が、前記他のデータに関連付けられていることを特徴とする情報処理システム。
First specifying means for specifying data corresponding to the input keyword;
Second specifying means for specifying other data associated with the specified data;
Means for causing the display means to display other data specified by the second specifying means;
Have
When the other data is displayed, the other data is displayed only for a specific user, or is displayed for all users including the specific user, An information processing system characterized in that information for determining data is associated with the other data.
前記情報は、前記他のデータのうちのどのデータが特定のユーザのみに対して表示されるようにするかを決めるための情報であることを特徴とする請求項9または10に記載の情報処理システム。   11. The information processing according to claim 9, wherein the information is information for determining which of the other data is to be displayed only for a specific user. system. 前記情報は、前記他のデータのうちのどのデータが前記特定のユーザを含む全てのユーザに対して表示されるようにするかを決めるための情報であることを特徴とする請求項9乃至11の何れか1項に記載の情報処理システム。   12. The information is information for determining which of the other data is to be displayed for all users including the specific user. The information processing system according to any one of the above. 前記情報は、前記他のデータのうちの一部のデータが特定のユーザのみに対して表示されるようにし、前記他のデータのうちの他の一部のデータが前記特定のユーザを含む全てのユーザに対して表示されるようにするための情報であることを特徴とする請求項9または12に記載の情報処理システム。   The information is such that a part of the other data is displayed only to a specific user, and the other part of the other data includes the specific user. The information processing system according to claim 9 or 12, wherein the information processing system is information for display to a user. 前記表示手段は、前記第1の特定手段によって特定されたデータを、前記他のデータとともに表示させることを特徴とする請求項9乃至13の何れか1項に記載の情報処理システム。   The information processing system according to any one of claims 9 to 13, wherein the display means displays the data specified by the first specifying means together with the other data. 前記第1の特定手段によって特定されるデータ、および、前記第2の特定手段によって特定される他のデータは、画像データであって、
前記第1の特定手段は、前記キーワードに対応する画像データの他に、前記キーワードに対応する他の画像データを特定し、
前記表示手段は、前記第1の特定手段によって特定された画像データおよび他の画像データを、前記第2の特定手段によって特定された他の画像データとともに表示させることを特徴とする請求項9乃至14の何れか1項に記載の情報処理システム。
The data specified by the first specifying means and the other data specified by the second specifying means are image data,
The first specifying means specifies other image data corresponding to the keyword in addition to the image data corresponding to the keyword,
The display means displays the image data specified by the first specifying means and other image data together with the other image data specified by the second specifying means. The information processing system according to any one of 14.
前記第1の特定手段によって特定されるデータと、前記第2の特定手段によって特定される他のデータとをユーザの指示に基づいて関連付ける関連付け手段をさらに有し、
前記関連付け手段によって関連付けられる前記第1の特定手段によって特定されるデータは、前記関連付け手段が、前記ユーザの指示に基づいて入力された前記キーワードに対応する、前記第1の特定手段によっても特定されるデータを含む複数のデータを特定し、前記複数のデータのなかから前記ユーザの指示に基づいて選択したデータであることを特徴とする請求項9乃至15の何れか1項に記載の情報処理システム。
An association means for associating the data specified by the first specifying means with other data specified by the second specifying means based on a user instruction;
The data specified by the first specifying means associated by the associating means is also specified by the first specifying means corresponding to the keyword input by the associating means based on the user's instruction. The information processing according to any one of claims 9 to 15, wherein a plurality of pieces of data including data to be specified are identified and selected from the plurality of pieces of data based on an instruction from the user. system.
入力されたキーワードに対応するデータを特定する第1の特定工程と、
前記特定されたデータと関連付けられた他のデータを特定する第2の特定工程と、
前記第2の特定工程で特定された他のデータを表示手段に表示させる工程と、
を有し、
前記他のデータには、前記他のデータが特定のユーザのみに対して表示されるようにするか、前記特定のユーザを含む全てのユーザに対して表示されるようにするか、を決めるための情報が関連付けられることを特徴とする情報処理方法。
A first identification step for identifying data corresponding to the input keyword;
A second identification step of identifying other data associated with the identified data;
Displaying other data specified in the second specifying step on a display means;
Have
In the other data, in order to determine whether the other data is to be displayed only to a specific user or to be displayed to all users including the specific user. An information processing method characterized in that the information is associated with each other.
入力されたキーワードに対応するデータを特定する第1の特定工程と、
前記特定されたデータと関連付けられた他のデータを特定する第2の特定工程と、
前記第2の特定工程で特定された他のデータを表示手段に表示させる工程と、
を有し、
前記他のデータを表示させる際に、前記他のデータが特定のユーザのみに対して表示されるようにするか、前記特定のユーザを含む全てのユーザに対して表示されるようにするか、を決めるための情報が、前記他のデータに関連付けられていることを特徴とする情報処理方法。
A first identification step for identifying data corresponding to the input keyword;
A second identification step of identifying other data associated with the identified data;
Displaying other data specified in the second specifying step on a display means;
Have
When the other data is displayed, the other data is displayed only for a specific user, or is displayed for all users including the specific user, The information processing method is characterized in that information for determining is associated with the other data.
請求項1乃至8の何れか1項に記載の各手段としてコンピュータを機能させるためのコンピュータプログラム。   The computer program for functioning a computer as each means of any one of Claims 1 thru | or 8.
JP2012177085A 2012-08-09 2012-08-09 Information processing apparatus, information processing method, information processing system, and computer program Expired - Fee Related JP5420032B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012177085A JP5420032B2 (en) 2012-08-09 2012-08-09 Information processing apparatus, information processing method, information processing system, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012177085A JP5420032B2 (en) 2012-08-09 2012-08-09 Information processing apparatus, information processing method, information processing system, and computer program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2008066054A Division JP5063422B2 (en) 2008-03-14 2008-03-14 Image processing apparatus, image processing method, and computer program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2013241050A Division JP5745010B2 (en) 2013-11-21 2013-11-21 Information processing apparatus, information processing method, information processing system, and computer program

Publications (2)

Publication Number Publication Date
JP2013008381A true JP2013008381A (en) 2013-01-10
JP5420032B2 JP5420032B2 (en) 2014-02-19

Family

ID=47675619

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012177085A Expired - Fee Related JP5420032B2 (en) 2012-08-09 2012-08-09 Information processing apparatus, information processing method, information processing system, and computer program

Country Status (1)

Country Link
JP (1) JP5420032B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000076268A (en) * 1998-08-31 2000-03-14 Canon Inc Device and method for retrieving image, and computer readable memory
JP2002063172A (en) * 2000-08-16 2002-02-28 Nippon Telegr & Teleph Corp <Ntt> Method for retrieving image and device for the same, and recording medium with image retrieval program recorded
JP2006040295A (en) * 2005-08-03 2006-02-09 Zenrin Datacom Co Ltd Information management system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000076268A (en) * 1998-08-31 2000-03-14 Canon Inc Device and method for retrieving image, and computer readable memory
JP2002063172A (en) * 2000-08-16 2002-02-28 Nippon Telegr & Teleph Corp <Ntt> Method for retrieving image and device for the same, and recording medium with image retrieval program recorded
JP2006040295A (en) * 2005-08-03 2006-02-09 Zenrin Datacom Co Ltd Information management system

Also Published As

Publication number Publication date
JP5420032B2 (en) 2014-02-19

Similar Documents

Publication Publication Date Title
JP5063422B2 (en) Image processing apparatus, image processing method, and computer program
JP4181892B2 (en) Image processing method
JP4251629B2 (en) Image processing system, information processing apparatus, control method, computer program, and computer-readable storage medium
US7551753B2 (en) Image processing apparatus and method therefor
US7593961B2 (en) Information processing apparatus for retrieving image data similar to an entered image
JP4405831B2 (en) Image processing apparatus, control method therefor, and program
JP4510535B2 (en) Image processing apparatus, control method therefor, and program
JP2006085298A (en) Image processing device and image processing method
US20040213458A1 (en) Image processing method and system
JP3862694B2 (en) Image processing apparatus, control method therefor, and program
JP2005352696A (en) Image processing device, control method thereof, and program
JP4261988B2 (en) Image processing apparatus and method
JP6012700B2 (en) Information processing apparatus, information processing method, information processing system, and computer program
US8380685B2 (en) Information processing apparatus, control method thereof, computer program, and storage medium
JP5745010B2 (en) Information processing apparatus, information processing method, information processing system, and computer program
JP5420032B2 (en) Information processing apparatus, information processing method, information processing system, and computer program
JP2006333248A (en) Image processing apparatus, image processing method, program and storage medium
JP4185858B2 (en) Image processing apparatus, control method therefor, and program
JP2006134042A (en) Image processing system
JP2004334340A (en) Image processing method and device
JP2007048057A (en) Image processor
JP2005208872A (en) Image processing system
JP2008084127A (en) Image forming device
JP2005136729A (en) Device and method for processing image, computer program, and computer-readable recording medium
JP2006165783A (en) Picture processing system

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130613

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130625

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130826

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131022

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131119

R151 Written notification of patent or utility model registration

Ref document number: 5420032

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees