JP7388065B2 - Image output device and program - Google Patents

Image output device and program Download PDF

Info

Publication number
JP7388065B2
JP7388065B2 JP2019162697A JP2019162697A JP7388065B2 JP 7388065 B2 JP7388065 B2 JP 7388065B2 JP 2019162697 A JP2019162697 A JP 2019162697A JP 2019162697 A JP2019162697 A JP 2019162697A JP 7388065 B2 JP7388065 B2 JP 7388065B2
Authority
JP
Japan
Prior art keywords
image
output device
image output
work
axis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019162697A
Other languages
Japanese (ja)
Other versions
JP2021043493A (en
Inventor
由愛 黒岩
和生 磯田
慎太郎 田井
達矢 森川
奏三 畠山
義友 中村
玄太郎 手嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2019162697A priority Critical patent/JP7388065B2/en
Publication of JP2021043493A publication Critical patent/JP2021043493A/en
Application granted granted Critical
Publication of JP7388065B2 publication Critical patent/JP7388065B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Instructional Devices (AREA)
  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、画像出力装置及びプログラムに関する。 The present invention relates to an image output device and a program.

従来、不特定多数の顧客を対象としてWeb3Dにより美術館データベースに格納する絵画等の美術品画像を配信するシステムが開示されている(例えば、特許文献1)。 BACKGROUND ART Conventionally, a system has been disclosed that uses Web3D to distribute images of artworks such as paintings stored in a museum database to an unspecified number of customers (for example, Patent Document 1).

特開2003-296587号公報JP2003-296587A

特許文献1に記載のシステムでは、「バーチャル美術館のメーンメニュー画面から、展示品リストを選択すると、ギャラリーに展示されている全作品のサムネイル・パノラマ画像が表示される。その中から所望の絵か彫刻を選ぶと、その彫刻が展示してある中庭へウォークスルー画面で案内してくれる。」ものであった。
美術品に限らず、様々な作品群を、ユーザに一見して分かりやすいものする見せ方の工夫が求められている。
In the system described in Patent Document 1, ``When you select the exhibit list from the main menu screen of the virtual museum, thumbnail panoramic images of all the works exhibited in the gallery are displayed. When you select a sculpture, a walk-through screen will guide you to the courtyard where the sculpture is displayed.''
There is a need for ways to present not only works of art but also various works of art in a way that makes them easy for users to understand at first glance.

そこで、本発明は、作品等である対象物をユーザに分かりやすく表現した画像出力装置及びプログラムを提供することを目的とする。 SUMMARY OF THE INVENTION Therefore, an object of the present invention is to provide an image output device and a program that express an object such as a work in an easy-to-understand manner for a user.

本発明は、以下のような解決手段により、前記課題を解決する。
第1の発明は、対象物の画像及び関連するテキストを含む前記対象物に関する複数の項目を記憶する説明情報記憶部と、所定の3つの軸で表した三次元空間に、前記説明情報記憶部に記憶された前記対象物の画像を、前記関連するテキストに基づき配置した配置画像を生成する可視化画像生成手段と、前記可視化画像生成手段によって生成された前記配置画像を、表示装置に出力する可視化画像出力手段と、を備える画像出力装置である。
第2の発明は、第1の発明の画像出力装置において、前記複数の項目から3つの項目の指定を受け付ける項目受付手段を備え、前記可視化画像生成手段は、前記項目受付手段が受け付けた前記3つの項目を各軸とした立方体形状の前記三次元空間に、前記対象物の画像を配置した前記配置画像を生成する、画像出力装置である。
第3の発明は、第2の発明の画像出力装置において、前記表示装置に表示された前記配置画像のうち少なくとも1つ以上の軸に対する操作を受け付ける軸操作受付手段と、前記軸操作受付手段が受け付けた前記軸を延伸させた直方体形状の前記三次元空間に前記対象物の画像を配置した、軸操作後画像を出力する操作画像出力手段と、を備える画像出力装置である。
第4の発明は、第3の発明の画像出力装置において、前記複数の項目には、前記対象物に関する年代が含まれ、前記操作画像出力手段は、前記軸操作受付手段が受け付けた前記1つの軸が年代の項目である場合に、前記直方体形状の前記三次元空間に、前記年代を示す年代可視化画像をさらに配置した、前記軸操作後画像を出力する、画像出力装置である。
第5の発明は、第1の発明の画像出力装置において、前記複数の項目には、前記対象物に関する位置情報として緯度及び経度が含まれ、前記可視化画像生成手段は、前記所定の3つの軸のうち前記緯度及び経度を2つの軸とした前記三次元空間を生成した場合に、前記緯度及び経度を含む地図画像をさらに配置した、前記配置画像を生成する、画像出力装置である。
第6の発明は、第5の発明の画像出力装置において、前記複数の項目には、前記対象物に関する年代が含まれ、前記可視化画像生成手段は、前記所定の3つの軸のうち前記年代を3つ目の軸とした前記三次元空間に、前記対象物に対応した各年代に係る前記地図画像をさらに配置した前記配置画像を生成する、画像出力装置である。
第7の発明は、第1の発明から第6の発明までのいずれかの画像出力装置において、前記説明情報記憶部に記憶された各対象物の間の類似度合いを算出する類似度合算出手段を備え、前記可視化画像生成手段は、前記類似度合算出手段により算出された前記類似度合いに基づく関連性を、各対象物の画像の間を結ぶ態様を示す画像により表した関連ライン画像をさらに配置した、前記配置画像を生成する、画像出力装置である。
第8の発明は、第1の発明から第7の発明までのいずれかの画像出力装置において、前記表示装置に表示された前記配置画像に含まれる1つの前記対象物の画像に対する操作を受け付ける対象物画像受付手段と、操作がされた前記対象物の画像と、前記対象物の画像が示す前記対象物に関連したキーワードとを、関連付けがされた態様で配置した関連付け画像を生成する関連付け画像生成手段と、前記関連付け画像生成手段によって生成された前記関連付け画像を、前記表示装置に出力する関連付け画像出力手段と、を備える画像出力装置である。
第9の発明は、第8の発明の画像出力装置において、前記関連付け画像出力手段によって出力された前記キーワードに対する操作を受け付けるキーワード受付手段と、操作がされた前記キーワードに関連する関連情報を、各対象物の関連情報を記憶する関連情報データベースから抽出し、関連情報画像を生成する関連情報画像生成手段と、を備え、前記関連付け画像出力手段は、前記関連情報画像生成手段によって生成された前記関連情報画像を付加した前記関連付け画像を、前記表示装置に出力する、画像出力装置である。
第10の発明は、第9の発明の記載の画像出力装置において、前記キーワード受付手段は、2つ以上の前記キーワードに対する結合操作を受け付け、前記関連情報画像生成手段は、結合操作がされた前記2つ以上のキーワードのいずれにも関連する関連情報を前記関連情報データベースから抽出して前記関連情報画像を生成する、画像出力装置である。
第11の発明は、第1の発明から第10の発明までのいずれかの画像出力装置としてコンピュータを機能させるためのプログラムである。
The present invention solves the above problems by the following solving means.
A first invention includes: an explanatory information storage section that stores a plurality of items related to the object including an image of the object and related text; and a three-dimensional space represented by three predetermined axes. visualization image generation means for generating an arrangement image in which images of the object stored in the object are arranged based on the related text; and visualization for outputting the arrangement image generated by the visualization image generation means to a display device. An image output device includes an image output means.
A second invention is the image output device according to the first invention, further comprising an item receiving means that receives designation of three items from the plurality of items, and the visualized image generating means is configured to receive the three items received by the item receiving means. The present invention is an image output device that generates the arrangement image in which the image of the object is arranged in the three-dimensional space having a cubic shape with one item as each axis.
A third invention is the image output device according to the second invention, wherein the axis operation receiving means receives an operation on at least one axis among the arranged images displayed on the display device; The image output device is provided with an operation image output means for outputting an image after axis operation, in which an image of the object is arranged in the three-dimensional space in the shape of a rectangular parallelepiped in which the received axis is extended.
A fourth invention is the image output device according to the third invention, wherein the plurality of items include a year related to the object, and the operation image output means is configured to output the one image received by the axis operation reception means. The image output device outputs the axis-operated image in which, when the axis is an age item, a year visualization image indicating the year is further arranged in the rectangular parallelepiped-shaped three-dimensional space.
A fifth invention is the image output device according to the first invention, wherein the plurality of items include latitude and longitude as positional information regarding the object, and the visualized image generating means is configured to generate an image on the three predetermined axes. When the three-dimensional space is generated with the latitude and longitude as two axes, the image output device generates the arranged image in which a map image including the latitude and longitude is further arranged.
A sixth invention is the image output device according to the fifth invention, wherein the plurality of items include a year related to the object, and the visualized image generating means selects the year from among the three predetermined axes. The image output device generates the arrangement image in which the map images related to each era corresponding to the object are further arranged in the three-dimensional space defined as a third axis.
A seventh invention provides the image output device according to any one of the first to sixth inventions, further comprising a similarity degree calculating means for calculating a degree of similarity between each object stored in the explanation information storage section. The visualized image generation means further arranges related line images representing the relationships based on the degree of similarity calculated by the degree of similarity calculation means by images showing the manner in which images of each object are connected. , an image output device that generates the arrangement image.
An eighth invention is an object that receives an operation on an image of one of the objects included in the layout image displayed on the display device, in the image output device according to any one of the first invention to the seventh invention. Object image receiving means, an association image generation unit that generates an association image in which an image of the operated object and a keyword related to the object indicated by the image of the object are arranged in an associated manner. and an associated image output means for outputting the associated image generated by the associated image generating means to the display device.
A ninth invention is the image output device according to the eighth invention, wherein keyword receiving means receives an operation on the keyword outputted by the association image outputting means, and a keyword receiving means that receives an operation on the keyword outputted by the associated image outputting means, and a keyword receiving means that receives related information related to the operated keyword. and a related information image generation means for extracting related information of the object from a related information database that stores it and generating a related information image, and the association image output means is configured to extract the related information of the object from a related information database that stores the related information and generate a related information image, The image output device outputs the association image to which the information image is added to the display device.
A tenth invention is the image output device according to the ninth invention, wherein the keyword receiving means receives a combination operation for two or more of the keywords, and the related information image generation means The image output device extracts related information related to any of two or more keywords from the related information database and generates the related information image.
An eleventh invention is a program for causing a computer to function as an image output device according to any one of the first invention to the tenth invention.

本発明によれば、作品等である対象物をユーザに分かりやすく表現した画像出力装置及びプログラムを提供することができる。 According to the present invention, it is possible to provide an image output device and a program that express an object such as a work in an easy-to-understand manner for a user.

本実施形態に係る画像処理システムの全体概要図である。1 is an overall schematic diagram of an image processing system according to an embodiment. 本実施形態に係る画像処理サーバの機能ブロック図である。FIG. 2 is a functional block diagram of an image processing server according to the present embodiment. 本実施形態に係る画像処理サーバの記憶部の例を示す図である。FIG. 3 is a diagram illustrating an example of a storage unit of an image processing server according to the present embodiment. 本実施形態に係る入力装置での作品情報の登録方法を説明するための図である。FIG. 3 is a diagram for explaining a method of registering work information in the input device according to the present embodiment. 本実施形態に係る画像処理サーバの画像生成処理を示すフローチャートである。3 is a flowchart showing image generation processing of the image processing server according to the present embodiment. 図5の続きである。This is a continuation of FIG. 本実施形態に係るユーザ端末に表示した軸指定画面の例を示す図である。FIG. 3 is a diagram showing an example of an axis designation screen displayed on the user terminal according to the present embodiment. 本実施形態に係る画像処理サーバの可視化画像生成処理を示すフローチャートである。7 is a flowchart showing visualized image generation processing by the image processing server according to the present embodiment. 本実施形態に係るユーザ端末に表示された作品群可視化画像の例を示す図である。FIG. 3 is a diagram illustrating an example of a work group visualization image displayed on a user terminal according to the present embodiment. 本実施形態に係るユーザ端末に表示された他の作品群可視化画像の例を示す図である。FIG. 7 is a diagram showing an example of another work group visualization image displayed on the user terminal according to the present embodiment. 本実施形態に係る画像処理サーバの操作受付処理を示すフローチャートである。7 is a flowchart showing operation reception processing of the image processing server according to the present embodiment. 本実施形態に係るユーザ端末に表示されたUIの例を示す図である。FIG. 2 is a diagram showing an example of a UI displayed on a user terminal according to the present embodiment. 本実施形態に係る画像処理サーバの軸操作後画像生成処理を示すフローチャートである。7 is a flowchart showing post-axis operation image generation processing of the image processing server according to the present embodiment. 本実施形態に係る画像処理サーバが生成した軸操作後画像の例を示す図である。FIG. 7 is a diagram showing an example of an image after axis operation generated by the image processing server according to the present embodiment. 本実施形態に係る画像処理サーバが生成した他の軸操作後画像の例を示す図である。FIG. 7 is a diagram illustrating an example of another axis-operated image generated by the image processing server according to the present embodiment. 本実施形態に係る画像処理サーバが生成した他の軸操作後画像の例を示す図である。FIG. 7 is a diagram illustrating an example of another axis-operated image generated by the image processing server according to the present embodiment. 本実施形態に係る画像処理サーバが生成した他の軸操作後画像の例を示す図である。FIG. 7 is a diagram illustrating an example of another axis-operated image generated by the image processing server according to the present embodiment. 本実施形態に係る画像処理サーバの作品画像処理を示すフローチャートである。3 is a flowchart showing work image processing by the image processing server according to the present embodiment. 本実施形態に係る画像処理サーバが生成した関連付け画像の例を示す図である。FIG. 3 is a diagram illustrating an example of an associated image generated by the image processing server according to the present embodiment. 本実施形態に係る画像処理サーバが生成した他の関連付け画像の例を示す図である。FIG. 7 is a diagram showing an example of another associated image generated by the image processing server according to the present embodiment. 本実施形態に係る画像処理サーバが生成した他の関連付け画像の例を示す図である。FIG. 7 is a diagram showing an example of another associated image generated by the image processing server according to the present embodiment. 本実施形態に係る画像処理サーバの関連性付画像生成処理を示すフローチャートである。7 is a flowchart illustrating related image generation processing by the image processing server according to the present embodiment. 本実施形態に係るユーザ端末に表示された作品群可視化画像の例を示す図である。FIG. 3 is a diagram illustrating an example of a work group visualization image displayed on a user terminal according to the present embodiment.

以下、本発明を実施するための形態について、図を参照しながら説明する。なお、これは、あくまでも一例であって、本発明の技術的範囲はこれに限られるものではない。
(実施形態)
<画像処理システム100>
図1は、本実施形態に係る画像処理システム100の全体概要図である。
図2は、本実施形態に係る画像処理サーバ1の機能ブロック図である。
図3は、本実施形態に係る画像処理サーバ1の記憶部30の例を示す図である。
図4は、本実施形態に係る入力装置8での作品情報の登録方法を説明するための図である。
Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings. Note that this is just an example, and the technical scope of the present invention is not limited to this.
(Embodiment)
<Image processing system 100>
FIG. 1 is an overall schematic diagram of an image processing system 100 according to this embodiment.
FIG. 2 is a functional block diagram of the image processing server 1 according to this embodiment.
FIG. 3 is a diagram showing an example of the storage unit 30 of the image processing server 1 according to the present embodiment.
FIG. 4 is a diagram for explaining a method of registering work information in the input device 8 according to the present embodiment.

図1に示す画像処理システム100は、画像処理サーバ1(画像出力装置)と、関連情報DB(データベース)4と、ユーザ端末5(表示装置)と、入力装置8とを備えたシステムである。
画像処理サーバ1は、入力装置8によって入力された作品(対象物)に関する説明情報を、予め入力装置8から受信して記憶しておく。そして、画像処理サーバ1は、例えば、ユーザ端末5から受信した信号に対応して、各作品を含む作品群を可視化した作品群可視化画像(配置画像)を生成し、ユーザ端末5に対して生成した作品群可視化画像を送信する。そうすることで、画像処理サーバ1は、一見して分かりやすく作品群を表現した作品群の閲覧画面を、ユーザに提供する。
以下において、作品を、博物館等で所蔵している土器を例にして、作品群の閲覧画面について説明する。しかし、これは一例であり、例えば、彫刻や絵画等の他の作品であってもよい。
The image processing system 100 shown in FIG. 1 is a system that includes an image processing server 1 (image output device), a related information DB (database) 4, a user terminal 5 (display device), and an input device 8.
The image processing server 1 receives and stores explanatory information regarding the work (object) inputted by the input device 8 in advance from the input device 8 . Then, the image processing server 1 generates a work group visualization image (placement image) that visualizes a work group including each work in response to the signal received from the user terminal 5, and generates it for the user terminal 5. Send the visualized images of your works. By doing so, the image processing server 1 provides the user with a viewing screen for the work group that expresses the work group in an easy-to-understand manner at a glance.
In the following, the viewing screen for a group of works will be explained using, as an example, earthenware pottery owned by a museum or the like. However, this is just an example, and other works such as sculptures and paintings may be used.

画像処理サーバ1と、ユーザ端末5と、入力装置8とは、通信ネットワークNを介して通信可能に接続されている。通信ネットワークNは、例えば、インターネット回線等であり、有線であるか無線であるかを問わない。
また、画像処理サーバ1は、関連情報DB4と通信可能に接続されている。図1の例では、画像処理サーバ1と、関連情報DB4とが直接接続されているが、通信ネットワークNを介して接続されていても、もちろんよい。
The image processing server 1, user terminal 5, and input device 8 are communicably connected via a communication network N. The communication network N is, for example, an Internet line, and it does not matter whether it is wired or wireless.
Further, the image processing server 1 is communicably connected to the related information DB 4. In the example of FIG. 1, the image processing server 1 and the related information DB 4 are directly connected, but they may of course be connected via the communication network N.

<画像処理サーバ1>
画像処理サーバ1は、ユーザ端末5からの操作に応じて、作品群可視化画像を生成して、ユーザ端末5に送信する。
画像処理サーバ1は、例えば、Webサーバである。画像処理サーバ1は、その他、パーソナルコンピュータ(PC)等であってもよい。
図2に示すように、画像処理サーバ1は、制御部10と、記憶部30と、通信インタフェース部39とを備える。
制御部10は、画像処理サーバ1の全体を制御する中央処理装置(CPU)である。制御部10は、記憶部30に記憶されているオペレーティングシステム(OS)やアプリケーションプログラムを適宜読み出して実行することにより、上述したハードウェアと協働し、各種機能を実行する。
<Image processing server 1>
The image processing server 1 generates a work group visualization image in response to an operation from the user terminal 5 and transmits it to the user terminal 5.
The image processing server 1 is, for example, a web server. The image processing server 1 may also be a personal computer (PC) or the like.
As shown in FIG. 2, the image processing server 1 includes a control section 10, a storage section 30, and a communication interface section 39.
The control unit 10 is a central processing unit (CPU) that controls the entire image processing server 1. The control unit 10 cooperates with the above-mentioned hardware and executes various functions by appropriately reading and executing the operating system (OS) and application programs stored in the storage unit 30.

制御部10は、項目受付部11(項目受付手段)と、可視化画像生成部12(可視化画像生成手段)と、可視化画像出力部13(可視化画像出力手段)と、軸操作受付部14(軸操作受付手段)と、操作画像出力部15(操作画像出力手段)と、作品画像受付部16(対象物画像受付手段)と、関連付け画像処理部17(関連付け画像生成手段、関連付け画像出力手段)と、キーワード受付部18(キーワード受付手段)と、関連情報画像処理部19(関連情報画像生成手段)と、類似度合算出部20(類似度合算出手段)とを備える。 The control section 10 includes an item reception section 11 (item reception means), a visualized image generation section 12 (visualized image generation means), a visualized image output section 13 (visualized image output means), and an axis operation reception section 14 (axis operation an operation image output unit 15 (operation image output unit), a work image reception unit 16 (object image reception unit), an association image processing unit 17 (association image generation unit, association image output unit), It includes a keyword reception section 18 (keyword reception means), a related information image processing section 19 (related information image generation means), and a similarity degree calculation section 20 (similarity degree calculation means).

項目受付部11は、ユーザ端末5から各作品を説明する複数の項目から3つの項目の指定を受け付ける。ここで、複数の項目は、例えば、後述する作品情報記憶部32(説明情報記憶部)における項目と同じである。 The item receiving unit 11 receives from the user terminal 5 the designation of three items out of a plurality of items describing each work. Here, the plurality of items are, for example, the same as the items in the work information storage section 32 (description information storage section) described later.

可視化画像生成部12は、所定条件にしたがってキューブ状(立方体形状)の三次元空間を生成する。ここで、所定条件は、例えば、項目受付部11が受け付けた3つの項目を各軸にすることであってよい。
そして、可視化画像生成部12は、生成した三次元空間に、作品情報記憶部32に記憶された作品の画像(対象物の画像)を配置した作品群可視化画像(配置画像)を生成する。
また、可視化画像生成部12は、3つの軸のうち緯度及び経度を2つの軸とした三次元空間を生成した場合に、緯度及び経度を含む地図画像をさらに配置した作品群可視化画像を生成してもよい。
さらに、可視化画像生成部12は、後述する類似度合算出部20により算出された類似度合いに基づく関連性に基づいて、作品の画像の間を結ぶ関連ライン画像をさらに配置した作品群可視化画像を生成してもよい。
The visualized image generation unit 12 generates a cube-shaped three-dimensional space according to predetermined conditions. Here, the predetermined condition may be, for example, to set the three items received by the item reception unit 11 as each axis.
Then, the visualized image generation unit 12 generates a work group visualized image (placement image) in which images of works (images of objects) stored in the work information storage unit 32 are arranged in the generated three-dimensional space.
Furthermore, when generating a three-dimensional space with latitude and longitude as two of the three axes, the visualized image generation unit 12 generates a work group visualization image in which a map image including latitude and longitude is further arranged. You can.
Furthermore, the visualized image generation unit 12 generates a work group visualization image in which related line images connecting the images of the works are further arranged based on the relevance based on the degree of similarity calculated by the degree of similarity calculation unit 20 described later. You may.

作品の画像は、例えば、当該作品を撮影した撮影画像である。なお、作品の画像は、当該作品のイラスト画像等の他の画像であってもよいが、当該作品が分かりやすく表現されているものが望ましい。また、作品の画像は、二次元の画像データであっても、三次元モデリングデータであってもよい。
可視化画像出力部13は、可視化画像生成部12で生成した作品群可視化画像を、ユーザ端末5に対して出力する。
The image of the work is, for example, a photographed image of the work. Note that the image of the work may be another image such as an illustration image of the work, but it is preferable that the work is expressed in an easy-to-understand manner. Further, the image of the work may be two-dimensional image data or three-dimensional modeling data.
The visualized image output unit 13 outputs the work group visualized image generated by the visualized image generation unit 12 to the user terminal 5.

軸操作受付部14は、作品群可視化画像における少なくとも1つ以上の軸に対する操作に対応した操作信号を、ユーザ端末5から受け付ける。例えば、可視化画像出力部13によりユーザ端末5に作品群可視化画像が表示された状態で、作品群可視化画像のうち、ユーザによる1つの軸に対応するキー(例えば、X軸であれば、Xキー)を選択する操作を受け付けることで、ユーザ端末5は、操作信号を画像処理サーバ1に送信する。また、例えば、作品群可視化画像のうち、ユーザによる2つの軸に対応するキー(例えば、X軸とY軸とであれば、XキーとYキー)を同時に選択する操作を受け付けてもよい。 The axis operation receiving unit 14 receives from the user terminal 5 an operation signal corresponding to an operation on at least one axis in the work group visualization image. For example, in a state where the visualized works group image is displayed on the user terminal 5 by the visualized image output unit 13, the user presses a key corresponding to one axis in the visualized works group image (for example, for the X axis, press the ), the user terminal 5 transmits an operation signal to the image processing server 1. Further, for example, an operation by the user to simultaneously select keys corresponding to two axes (for example, an X key and a Y key in the case of an X axis and a Y axis) may be accepted in the work group visualization image.

操作画像出力部15は、軸操作受付部14により受け付けた軸を延伸させた直方体形状の三次元空間にした軸操作後画像を、ユーザ端末5に対して出力する。受け付けた軸を延伸させた直方体形状の三次元空間にすることで、配置された作品の画像の位置が、軸の延伸度合いに応じて変更される。
また、操作画像出力部15は、延伸させた軸が年代の項目である場合に、三次元空間に、年代可視化画像をさらに配置した軸操作後画像を、ユーザ端末5に対して出力する。
The operation image output unit 15 outputs to the user terminal 5 an image after the axis operation, which is a rectangular parallelepiped three-dimensional space obtained by extending the axis received by the axis operation reception unit 14 . By creating a rectangular three-dimensional space in which the received axis is stretched, the position of the image of the placed work is changed according to the degree to which the axis is stretched.
Further, when the expanded axis is an age item, the operation image output unit 15 outputs to the user terminal 5 an axis-operated image in which an age visualization image is further arranged in a three-dimensional space.

作品画像受付部16は、作品群可視化画像における1つの作品の画像に対する操作に対応した操作信号を、ユーザ端末5から受け付ける。例えば、可視化画像出力部13によりユーザ端末5に作品群可視化画像が表示された状態で、ユーザ端末5に表示された作品群可視化画像のうち、ユーザによる1つの作品の画像を選択する操作を受け付けることで、ユーザ端末5は、操作信号を画像処理サーバ1に送信する。 The work image reception unit 16 receives from the user terminal 5 an operation signal corresponding to an operation on an image of one work in the work group visualization image. For example, in a state where the visualized image output unit 13 displays a group of works visualized images on the user terminal 5, an operation by the user to select an image of one work from among the group visualized images displayed on the user terminal 5 is accepted. Accordingly, the user terminal 5 transmits an operation signal to the image processing server 1.

関連付け画像処理部17は、操作がされた1つの作品の画像を中心とし、当該1つの作品の画像に関連したキーワードを、1つの作品の画像に対して関連付けがされた態様で配置した関連付け画像を生成する。そして、関連付け画像処理部17は、生成した関連付け画像を、ユーザ端末5に対して出力する。 The associated image processing unit 17 generates an associated image in which keywords related to the image of the one work are arranged in a manner such that they are associated with the image of the one work, with the image of the one work being operated as the center. generate. Then, the association image processing unit 17 outputs the generated association image to the user terminal 5.

キーワード受付部18は、関連付け画像におけるキーワードに対する操作に対応した操作信号を、ユーザ端末5から受け付ける。例えば、関連付け画像処理部17によりユーザ端末5に関連付け画像が表示された状態で、表示された関連付け画像のうち、ユーザによる1つのキーワードを選択する操作を受け付けることで、ユーザ端末5は、操作信号を送信する。
また、キーワード受付部18は、関連付け画像における1つのキーワードを選択した状態のまま、他のキーワードの近傍に移動させる操作(結合操作)に対応した操作信号を、ユーザ端末5から受け付ける。
The keyword receiving unit 18 receives from the user terminal 5 an operation signal corresponding to an operation on a keyword in the associated image. For example, when the association image processing unit 17 displays the association images on the user terminal 5, by accepting an operation by the user to select one keyword from among the displayed association images, the user terminal 5 receives the operation signal. Send.
Further, the keyword reception unit 18 receives from the user terminal 5 an operation signal corresponding to an operation (combining operation) of moving one keyword in the associated image to the vicinity of another keyword while keeping it selected.

関連情報画像処理部19は、キーワード受付部18により受け付けた操作が、ユーザによる1つのキーワードを選択する操作であった場合に、操作がされたキーワードに関連する関連情報を関連情報DB4から抽出し、関連情報画像を生成する。
また、関連情報画像処理部19は、キーワード受付部18により受け付けた操作が、ユーザによる1つのキーワードを選択して他のキーワードの近傍に移動させる操作であった場合に、2つのキーワードのいずれにも関連する関連情報を関連情報DB4から抽出し、関連情報画像を生成する。なお、関連情報画像処理部19が生成する関連情報画像は、2つ以上のキーワードに関連するものであってもよい。例えば、ユーザがさらに別の1つのキーワードを選択して他のキーワードの近傍に移動させる操作を、キーワード受付部18が受け付けた場合には、関連情報画像処理部19は、別の1つのキーワードを含む3つのキーワードのいずれにも関連する関連情報を関連情報DB4から抽出して、関連情報画像を生成する。
そして、関連情報画像処理部19は、生成した関連情報画像を付加した関連付け画像を、ユーザ端末5に対して出力する。
The related information image processing unit 19 extracts related information related to the operated keyword from the related information DB 4 when the operation received by the keyword receiving unit 18 is an operation of selecting one keyword by the user. , generate a related information image.
Further, when the operation received by the keyword reception unit 18 is an operation by the user to select one keyword and move it to the vicinity of another keyword, the related information image processing unit 19 selects one of the two keywords. Also, related information is extracted from the related information DB 4 and a related information image is generated. Note that the related information image generated by the related information image processing unit 19 may be related to two or more keywords. For example, when the keyword reception unit 18 receives an operation by the user to select another keyword and move it near another keyword, the related information image processing unit 19 selects another keyword and moves it to the vicinity of another keyword. Related information related to any of the three included keywords is extracted from the related information DB 4 to generate a related information image.
Then, the related information image processing unit 19 outputs an associated image to which the generated related information image is added to the user terminal 5.

類似度合算出部20は、作品情報記憶部32に記憶された各作品間の類似度合いを算出する。より具体的には、類似度合算出部20は、例えば、各項目に対応した作品の内容の一致率から類似度合いを算出する。ここで、類似度合算出部20による算出において、全ての項目を用いる必要はなく、予め算出に用いる項目を、記憶部30に記憶しておいてもよい。また、類似度合算出部20による算出に用いる各項目に対して、異なる重み付けをしておいてもよい。 The similarity degree calculation unit 20 calculates the degree of similarity between the works stored in the work information storage unit 32. More specifically, the similarity degree calculating unit 20 calculates the degree of similarity from, for example, the matching rate of the contents of the works corresponding to each item. Here, in the calculation by the similarity degree calculation unit 20, it is not necessary to use all the items, and the items used for calculation may be stored in the storage unit 30 in advance. Further, each item used in the calculation by the similarity degree calculation unit 20 may be weighted differently.

記憶部30は、制御部10が各種の処理を実行するために必要なプログラム、データ等を記憶するためのハードディスク、半導体メモリ素子等の記憶領域である。
記憶部30は、プログラム記憶部31と、作品情報記憶部32とを備える。
プログラム記憶部31は、各種のプログラムを記憶する記憶領域である。プログラム記憶部31は、画像処理サーバ1の制御部10が実行する各種機能を行うためのプログラム31aを記憶している。
The storage unit 30 is a storage area such as a hard disk or a semiconductor memory device for storing programs, data, etc. necessary for the control unit 10 to execute various processes.
The storage unit 30 includes a program storage unit 31 and a work information storage unit 32.
The program storage unit 31 is a storage area that stores various programs. The program storage unit 31 stores programs 31a for performing various functions executed by the control unit 10 of the image processing server 1.

作品情報記憶部32は、作品の画像の項目を含む、作品に関する複数の項目と、複数の項目の各々に対応した作品の内容(テキスト)とを記憶する記憶領域である。
図3には、1つの作品の内容を例に、作品情報記憶部32の一例を示す。作品情報記憶部32は、作品ID(IDentification)、名称、年代、緯度、経度、ジャンル、素材、所蔵場所、画像、キーワード、といった各項目に対して、作品の内容を記憶している。
作品IDは、作品を識別するための識別情報であり、この画像処理システム100で任意に決めたものであってよい。
名称は、作品名である。この例の場合、作品が土器であるため、名称は、例えば、データ登録者によって付けられたものである。
年代は、作品が制作された時期を示す。この例の場合、作品が土器であるため、年代は、おおよその時期を示す。
緯度及び経度は、作品が発掘された位置情報を示す。
ジャンルは、作品のジャンルを示し、素材は、作品の素材を示す。
所蔵場所は、実際の作品の保管場所を示す。
画像は、作品の画像そのものである。
キーワードは、作品を表すワードであり、例えば、データ登録者によって付けられたものである。
The work information storage unit 32 is a storage area that stores a plurality of items related to the work, including items of images of the work, and content (text) of the work corresponding to each of the plurality of items.
FIG. 3 shows an example of the work information storage section 32, taking the contents of one work as an example. The work information storage unit 32 stores the content of the work for each item such as work ID (IDentification), name, year, latitude, longitude, genre, material, location, image, and keyword.
The work ID is identification information for identifying the work, and may be arbitrarily determined by the image processing system 100.
The name is the title of the work. In this example, since the work is earthenware, the name is given by the data registrant, for example.
The year indicates when the work was created. In this example, since the work is earthenware, the date indicates the approximate period.
The latitude and longitude indicate the location information where the work was excavated.
Genre indicates the genre of the work, and Material indicates the material of the work.
The holding location indicates the actual storage location of the work.
The image is the image itself of the work.
A keyword is a word that represents a work, and is assigned by a data registrant, for example.

図4には、作品情報記憶部32に登録するための登録画面80の例を示す。
画像処理サーバ1の制御部10は、入力装置8に対して登録画面80を表示させる。入力装置8では、例えば、データ登録者が、登録画面80に表示された各項目について、作品ごとに内容を入力する。そして、データ登録者が登録画面80の下部にある「登録」ボタンを選択することで、入力内容が画像処理サーバ1に送信される。画像処理サーバ1では、受信した入力内容を、作品情報記憶部32に記憶させる。
FIG. 4 shows an example of a registration screen 80 for registering in the work information storage section 32.
The control unit 10 of the image processing server 1 causes the input device 8 to display a registration screen 80. In the input device 8, for example, a data registrant inputs contents for each item displayed on the registration screen 80 for each work. Then, when the data registrant selects the "Register" button at the bottom of the registration screen 80, the input contents are transmitted to the image processing server 1. The image processing server 1 stores the received input contents in the work information storage section 32.

なお、作品情報記憶部32へのデータ登録は、この例に限定されるものではない。例えば、一括登録画面(図示せず)を用意しておき、作品内容を記憶したテキストファイルと、画像データを記憶したフォルダとを指定することで、テキストファイル及びフォルダに記憶された画像データに基づいて、作品情報記憶部32にデータを追加するようにしてもよい。
また、登録画面80を用いた作品情報の入力は、画像処理サーバ1が提供するサービス開始前及びサービス実施中において、いつでも行うことができる。
Note that data registration in the work information storage section 32 is not limited to this example. For example, by preparing a batch registration screen (not shown) and specifying a text file that stores the content of the work and a folder that stores image data, you can create a system based on the image data stored in the text file and folder. Then, the data may be added to the work information storage section 32.
Furthermore, input of work information using the registration screen 80 can be performed at any time before the start of the service provided by the image processing server 1 and during the service.

図2の通信インタフェース部39は、通信ネットワークNを介して、例えば、ユーザ端末5や、入力装置8等との間の通信を行うためのインタフェースである。 The communication interface section 39 in FIG. 2 is an interface for communicating with, for example, the user terminal 5, the input device 8, etc. via the communication network N.

<関連情報DB4>
図1に示す関連情報DB4は、複数の作品に係る関連情報を記憶するデータベースである。関連情報DB4は、この例の場合には、キーワードを入力すると、当該キーワードに関連する検索結果が得られるデータベースであり、例えば、国内外の文化財等のメタデータを記憶したものである。
<Related information DB4>
The related information DB 4 shown in FIG. 1 is a database that stores related information regarding a plurality of works. In this example, the related information DB 4 is a database from which, when a keyword is input, search results related to the keyword can be obtained, and stores metadata such as domestic and foreign cultural properties, for example.

<ユーザ端末5>
ユーザ端末5は、例えば、タブレットに代表されるコンピュータの機能を併せ持った携帯型の端末である。ユーザ端末5は、その他、スマートフォンや携帯電話機等の携帯型の端末でもよいし、PC等の据置型の端末であってもよい。
ユーザ端末5は、図示しないが、少なくとも制御部と、記憶部と、タッチパネルディスプレイ(又は、入出力部)と、通信インタフェース部とを備える。
<User terminal 5>
The user terminal 5 is, for example, a portable terminal such as a tablet that also has computer functions. The user terminal 5 may also be a portable terminal such as a smartphone or a mobile phone, or a stationary terminal such as a PC.
Although not shown, the user terminal 5 includes at least a control section, a storage section, a touch panel display (or an input/output section), and a communication interface section.

<入力装置8>
入力装置8は、例えば、PC等の据置型の端末である。入力装置8は、その他、タブレットに代表されるコンピュータの機能を併せ持った携帯型の端末等でもよい。
入力装置8は、図示しないが、少なくとも制御部と、記憶部と、入力部と、表示部と、通信インタフェース部とを備える。
<Input device 8>
The input device 8 is, for example, a stationary terminal such as a PC. The input device 8 may also be a portable terminal, such as a tablet, which also has the functions of a computer.
Although not shown, the input device 8 includes at least a control section, a storage section, an input section, a display section, and a communication interface section.

ここで、コンピュータとは、制御部、記憶装置等を備えた情報処理装置をいい、画像処理サーバ1、ユーザ端末5及び入力装置8は、各々制御部、記憶部等を備えた情報処理装置であり、コンピュータの概念に含まれる。 Here, the computer refers to an information processing device equipped with a control section, a storage device, etc., and the image processing server 1, the user terminal 5, and the input device 8 are information processing devices each equipped with a control section, a storage section, etc. Yes, it is included in the concept of computer.

<画像処理システム100の処理>
次に、画像処理サーバ1と、ユーザ端末5との間で行う処理について、フローチャートに即して説明する。
図5及び図6は、本実施形態に係る画像処理サーバ1の画像生成処理を示すフローチャートである。
<Processing of image processing system 100>
Next, the processing performed between the image processing server 1 and the user terminal 5 will be described with reference to a flowchart.
5 and 6 are flowcharts showing image generation processing of the image processing server 1 according to the present embodiment.

本処理の前提として、画像処理サーバ1が提供するサービス(以降、このサービスを、「作品閲覧サービス」ともいう。)の提供を受けるユーザ端末5は、まず、画像処理サーバ1にアクセスする。
すると、図5のステップS(以下、単に「S」という。)10において、画像処理サーバ1の制御部10は、軸指定画面データをユーザ端末5に送信する。
ユーザ端末5では、画像処理サーバ1からデータを受信することで、例えば、図7に示す軸指定画面50を、タッチパネルディスプレイに出力する。
As a premise of this process, the user terminal 5 that receives the service provided by the image processing server 1 (hereinafter, this service is also referred to as "work viewing service") first accesses the image processing server 1.
Then, in step S (hereinafter simply referred to as "S") 10 of FIG. 5, the control unit 10 of the image processing server 1 transmits axis designation screen data to the user terminal 5.
By receiving data from the image processing server 1, the user terminal 5 outputs, for example, an axis designation screen 50 shown in FIG. 7 on the touch panel display.

図7に示す軸指定画面50は、X軸、Y軸、Z軸の3つの軸に対応する項目を指定するための画面である。入力欄50aから50cは、例えば、作品情報記憶部32の各項目のうち少なくとも一部の項目が表示可能になっており、1つの項目を選択して指定ができるようになっている。図7に示す例では、入力欄50aには年代が、入力欄50bには緯度が、入力欄50cには経度が、それぞれ指定されている。
そして、ユーザ端末5において、軸指定画面50の決定ボタンが選択されると、図5のS11において、画像処理サーバ1の制御部10(項目受付部11)は、ユーザ端末5から各軸に対応する項目を受け付ける。
The axis specification screen 50 shown in FIG. 7 is a screen for specifying items corresponding to three axes: the X axis, the Y axis, and the Z axis. In the input fields 50a to 50c, for example, at least some of the items in the work information storage section 32 can be displayed, and one item can be selected and specified. In the example shown in FIG. 7, the year is specified in the input field 50a, the latitude is specified in the input field 50b, and the longitude is specified in the input field 50c.
Then, when the enter button on the axis specification screen 50 is selected on the user terminal 5, in S11 of FIG. Accept items to

S12において、制御部10(可視化画像生成部12)は、可視化画像生成処理を行う。
ここで、可視化画像生成処理について、図8に基づき説明する。
図8のS21において、画像処理サーバ1の制御部10は、ユーザ端末5から受け付けた3つの項目を、対応した各軸(X軸、Y軸及びZ軸)にした三次元空間を生成する。
S22において、制御部10は、作品情報記憶部32に記憶された作品ごとに、三次元空間での作品の位置を、各軸に対応した項目の内容に基づいて特定する。
S23において、制御部10は、特定した位置に、作品の画像を配置する。
In S12, the control unit 10 (visualized image generation unit 12) performs visualized image generation processing.
Here, the visualized image generation process will be explained based on FIG. 8.
In S21 of FIG. 8, the control unit 10 of the image processing server 1 generates a three-dimensional space in which the three items received from the user terminal 5 are arranged on corresponding axes (X-axis, Y-axis, and Z-axis).
In S22, the control unit 10 specifies the position of the work in the three-dimensional space for each work stored in the work information storage unit 32 based on the contents of the items corresponding to each axis.
In S23, the control unit 10 places the image of the work at the specified position.

図9は、作品の画像を、特定した位置に配置した作品群可視化画像60の例を示す。
図9に示す作品群可視化画像60は、作品情報記憶部32に記憶された複数の作品の各々に対応する複数の画像60bが、三次元空間60aに配置された画像である。画像60bは、作品の画像そのものである。
なお、図9の作品群可視化画像60は、三次元空間60aと、複数の画像60bとが示されたものであるが、実際には、軸の名称及びメモリが各軸に示され、メモリには対応する値が示されている。
FIG. 9 shows an example of a work group visualization image 60 in which images of works are arranged at specified positions.
A work group visualization image 60 shown in FIG. 9 is an image in which a plurality of images 60b corresponding to each of a plurality of works stored in the work information storage unit 32 are arranged in a three-dimensional space 60a. The image 60b is the image itself of the work.
Note that the work group visualization image 60 in FIG. 9 shows a three-dimensional space 60a and a plurality of images 60b, but in reality, the axis name and memory are shown on each axis, and the memory is are shown with corresponding values.

図8のS24において、制御部10は、緯度及び経度を軸に含むか否かを判断する。緯度及び経度を軸に含む場合(S24:YES)には、制御部10は、処理をS25に移す。他方、緯度及び経度を軸に含まない場合(S24:NO)には、制御部10は、本処理を終了し、処理を図5のS13に移す。
S25において、制御部10は、三次元空間に地図画像を配置する。また、制御部10は、緯度及び経度により特定される地図上の位置と、作品の画像とを関連付ける。
In S24 of FIG. 8, the control unit 10 determines whether the axes include latitude and longitude. If the axes include latitude and longitude (S24: YES), the control unit 10 moves the process to S25. On the other hand, if the axes do not include latitude and longitude (S24: NO), the control unit 10 ends this process and moves the process to S13 in FIG. 5.
In S25, the control unit 10 arranges the map image in three-dimensional space. Furthermore, the control unit 10 associates the position on the map specified by latitude and longitude with the image of the work.

図10は、地図画像をさらに配置した作品群可視化画像61の例を示す。
図10に示すように、作品群可視化画像61は、作品情報記憶部32に記憶された複数の作品の各々に対応する複数の画像60bが、三次元空間60aに配置された画像である。作品群可視化画像61は、さらに、複数の作品の各々の緯度及び経度に対応した1つの地図画像61cが、1つの平面61eに配置された画像である。そして、作品群可視化画像61は、画像60bが示す作品の緯度及び経度を、地図画像61cの上にプロットし、作品の画像60bと関連付け線61dによって関連付けがされている。
なお、図10で説明した作品群可視化画像61は、1つの地図画像61cを1つの平面61eに配置したものであるが、これに限定されない。図10のように、緯度及び経度を除いた軸が年代である場合、図示しないが、年代に応じた地図画像61cを、各年代に応じた平面61eに表示させてもよい。
FIG. 10 shows an example of a work group visualization image 61 in which a map image is further arranged.
As shown in FIG. 10, the work group visualized image 61 is an image in which a plurality of images 60b corresponding to each of the plurality of works stored in the work information storage unit 32 are arranged in a three-dimensional space 60a. The work group visualization image 61 is an image in which one map image 61c corresponding to the latitude and longitude of each of a plurality of works is arranged on one plane 61e. In the work group visualization image 61, the latitude and longitude of the work indicated by the image 60b are plotted on a map image 61c, and are associated with the work image 60b by an association line 61d.
Note that although the work group visualized image 61 described with reference to FIG. 10 is one in which one map image 61c is arranged on one plane 61e, the present invention is not limited to this. As shown in FIG. 10, when the axis excluding latitude and longitude is the era, although not shown, a map image 61c corresponding to the era may be displayed on a plane 61e corresponding to each era.

図5のS13において、制御部10(可視化画像出力部13)は、生成された作品群可視化画像を、ユーザ端末5に出力する。
これにより、ユーザ端末5では、図9に示す作品群可視化画像60や図10に示す作品群可視化画像61を表示することができる。
In S13 of FIG. 5, the control unit 10 (visualized image output unit 13) outputs the generated work group visualized image to the user terminal 5.
Thereby, the user terminal 5 can display the visualized works group image 60 shown in FIG. 9 and the works group visualized image 61 shown in FIG. 10.

なお、ユーザ端末5において、表示された作品群可視化画像に対して、タッチパネルディスプレイを介して操作をすることで、操作に対応した様々な動きによって、作品群可視化画像を表示させることができる。
S14において、制御部10は、出力された作品群可視化画像に関する操作を受け付けたか否かを判断する。出力された作品群可視化画像に関する操作を受け付けた場合(S14:YES)には、制御部10は、処理をS15に移す。他方、出力された作品群可視化画像に関する操作を受け付けていない場合(S14:NO)には、制御部10は、処理を図6のS16に移す。
S15において、制御部10は、後述する操作受付処理を行う。その後、制御部10は、処理を図6のS16に移す。
図6のS16において、制御部10(項目受付部11)は、各軸に対応する項目の変更を受け付けたか否かを判断する。各軸に対応する項目の変更を受け付けた場合(S16:YES)には、制御部10は、処理を図5のS12に移し、変更された項目を用いて作品群可視化画像を生成する。他方、各軸に対応する項目の変更を受け付けていない場合(S16:NO)には、制御部10は、処理をS17に移す。
S17において、制御部10は、処理を終了するか否かを判断する。処理を終了する場合(S17:YES)には、制御部10は、本処理を終了する。処理を終了しない場合(S17:NO)には、制御部10は、処理を図5のS14に移す。
Note that by operating the displayed work group visualized image on the user terminal 5 via the touch panel display, the work group visualized image can be displayed by various movements corresponding to the operation.
In S14, the control unit 10 determines whether an operation regarding the output work group visualization image has been received. When the operation regarding the output work group visualization image is accepted (S14: YES), the control unit 10 moves the process to S15. On the other hand, if the operation regarding the output work group visualization image has not been accepted (S14: NO), the control unit 10 moves the process to S16 in FIG. 6.
In S15, the control unit 10 performs an operation reception process to be described later. After that, the control unit 10 moves the process to S16 in FIG.
In S16 of FIG. 6, the control unit 10 (item reception unit 11) determines whether or not changes to the items corresponding to each axis have been accepted. If changes to the items corresponding to each axis are accepted (S16: YES), the control unit 10 moves the process to S12 of FIG. 5, and generates a work group visualization image using the changed items. On the other hand, if changes to the items corresponding to each axis have not been accepted (S16: NO), the control unit 10 moves the process to S17.
In S17, the control unit 10 determines whether to end the process. If the process is to be ended (S17: YES), the control unit 10 ends this process. If the process does not end (S17: NO), the control unit 10 moves the process to S14 in FIG. 5.

次に、ユーザ端末5に出力された作品群可視化画像に関する操作を、ユーザ端末5から受け付けた場合における画像処理サーバ1の処理について説明する。
図11は、本実施形態に係る画像処理サーバ1の操作受付処理を示すフローチャートである。
図11の処理を説明する前に、操作画面について説明する。
画像処理サーバ1は、例えば、作品群可視化画像を含む画面の端部に、メニューを表示させるためのアイコン等を表示させておく。そして、ユーザがアイコンを選択することで、操作画面を表示させることが考えられる。
操作画面としては、例えば、図12に示す、ユーザが操作に用いるUI95(User Interface)がある。ユーザは、ユーザの指55によってUI95を操作する。
Next, a description will be given of the processing of the image processing server 1 when an operation regarding the visualized work group image outputted to the user terminal 5 is received from the user terminal 5.
FIG. 11 is a flowchart showing the operation reception process of the image processing server 1 according to this embodiment.
Before explaining the process in FIG. 11, the operation screen will be explained.
The image processing server 1 displays, for example, an icon or the like for displaying a menu at the end of the screen that includes the work group visualization image. It is conceivable that the user selects an icon to display an operation screen.
As an example of the operation screen, there is a UI 95 (User Interface) shown in FIG. 12 that the user uses for operations. The user operates the UI 95 with the user's finger 55.

図12に示すUI95は、作品群可視化画像に対応しており、X軸95aと、Y軸95bと、Z軸95cとからなる三次元空間を模式的に表す。そして、例えば、ユーザの指55をスライドさせる操作をすることで、作品群可視化画像の全体(キューブ)をスライド方向に回転させて表示してもよい。その際、作品群可視化画像に含まれる作品の画像は、常に正面を向いた方向にするのが望ましい。また、例えば、ユーザの2本の指によってピンチインやピンチアウトの操作をすることで、作品群可視化画像を縮小したり、拡大したりさせるようにしてもよい。
なお、この例では、UI95を操作するものとして説明したが、作品群可視化画像を含む画面そのものに対して行ってもよい。例えば、作品群可視化画像を含む画面そのものに対して、ユーザの指をスライドさせる操作や、2本の指によってピンチインやピンチアウトの操作をした場合にも、制御部10は、上記した表示と同様の表示をさせるようにしてもよい。
The UI 95 shown in FIG. 12 corresponds to a work group visualization image, and schematically represents a three-dimensional space consisting of an X-axis 95a, a Y-axis 95b, and a Z-axis 95c. Then, for example, by performing a sliding operation with the user's finger 55, the entire work group visualization image (cube) may be rotated in the sliding direction and displayed. In this case, it is desirable that the images of the works included in the work group visualization image always face forward. Furthermore, for example, the user may perform a pinch-in or pinch-out operation with two fingers to reduce or enlarge the work group visualization image.
Although this example has been described as operating the UI 95, the operation may be performed on the screen itself containing the work group visualization images. For example, even when the user slides his or her finger on the screen containing the visualized image of the work group or performs a pinch-in or pinch-out operation using two fingers, the control unit 10 displays the same display as described above. may be displayed.

図11のS31において、制御部10(軸操作受付部14)は、軸操作を受け付けたか否かを判断する。軸操作は、ユーザにより行われ、ユーザ端末5が表示する作品群可視化画像を含む画面に、例えば、キーボードを表示させて、X軸の操作であれば、Xのキーを操作するものであってもよい。また、図12のUI95のX軸95aを選択する操作であってもよい。ユーザによる操作によって、ユーザ端末5から軸操作を受け付けた場合(S31:YES)には、制御部10は、処理をS32に移す。他方、軸操作を受け付けていない場合(S31:NO)には、制御部10は、処理をS34に移す。
S32において、制御部10(操作画像出力部15)は、軸操作後画像生成処理を行う。
In S31 of FIG. 11, the control unit 10 (axis operation reception unit 14) determines whether or not an axis operation has been accepted. The axis operation is performed by the user, for example, by displaying a keyboard on the screen containing the visualized image of the work group displayed by the user terminal 5, and operating the X key for the X-axis operation. Good too. Alternatively, the operation may be to select the X-axis 95a of the UI 95 in FIG. 12. When an axis operation is received from the user terminal 5 by the user's operation (S31: YES), the control unit 10 moves the process to S32. On the other hand, if the axis operation is not received (S31: NO), the control unit 10 moves the process to S34.
In S32, the control unit 10 (operation image output unit 15) performs post-axis operation image generation processing.

ここで、軸操作後画像生成処理について、図13に基づき説明する。
図13のS41において、制御部10は、受け付けた軸方向を延伸した直方体形状の三次元空間を含む軸操作後画像を生成する。
図14は、図12のUI95において、Y軸95bを延伸させた場合に生成される軸操作後画像62を示す。軸操作後画像62は、X軸及びZ軸に比較してY軸が伸びた直方体形状の画像である。そして、作品の画像が、Y軸が延伸したことに応じて、Y軸方向に散らばった状態になっている。
Here, the post-axis operation image generation process will be explained based on FIG. 13.
In S41 of FIG. 13, the control unit 10 generates an axially operated image including a three-dimensional space in the shape of a rectangular parallelepiped extending in the received axial direction.
FIG. 14 shows an axis-operated image 62 that is generated when the Y-axis 95b is stretched in the UI 95 of FIG. 12. The post-axis operation image 62 is a rectangular parallelepiped-shaped image in which the Y axis is longer than the X and Z axes. The images of the work are scattered in the Y-axis direction in response to the stretching of the Y-axis.

図13のS42において、制御部10は、延伸した軸の項目が年代であるか否かを判断する。年代である場合(S42:YES)には、制御部10は、処理をS43に移す。他方、年代ではない場合(S42:NO)には、制御部10は、本処理を終了し、処理を図11のS34に移す。 In S42 of FIG. 13, the control unit 10 determines whether the item on the extended axis is the year. If it is the year (S42: YES), the control unit 10 moves the process to S43. On the other hand, if it is not the age (S42: NO), the control unit 10 ends this process and moves the process to S34 in FIG. 11.

S43において、制御部10は、各作品の年代は幅を有するものであるか否かを判断する。年代の項目に対応する内容が、例えば、複数年を指すようなものの場合や、時代して表されたものであれば、幅を有するものであると判断する。幅を有するものとは、具体的には、紀元前300年代、といった100年の幅を有するものや、平安時代、といった、時代を表すもの、○年から△年といったものをいう。幅を有するものである場合(S43:YES)には、制御部10は、処理をS44に移す。他方、幅を有するものではない場合(S43:NO)には、制御部10は、本処理を終了し、処理を図11のS34に移す。 In S43, the control unit 10 determines whether each work has a range of ages. For example, if the content corresponding to the era item refers to multiple years or is expressed in eras, it is determined that the content has a range. Specifically, things that have a range include things that have a range of 100 years, such as the 300s B.C., things that represent eras, such as the Heian period, and things that range from ○ to △. If it has a width (S43: YES), the control unit 10 moves the process to S44. On the other hand, if it does not have a width (S43: NO), the control unit 10 ends this process and moves the process to S34 in FIG. 11.

S44において、制御部10は、作品の画像に、年代を表す年代可視化画像を関連付ける。
図15から図17までは、軸操作後画像62aから62cを示す。軸操作後画像62aから62cは、図14に示す軸操作後画像62に、年代可視化画像63aから63cが追加された画像である。
In S44, the control unit 10 associates the image of the work with a visualized age image representing the age.
15 to 17 show images 62a to 62c after axis manipulation. The post-axis manipulation images 62a to 62c are images obtained by adding age visualization images 63a to 63c to the post-shaft manipulation image 62 shown in FIG. 14.

図15に示された軸操作後画像62aには、板形状の年代可視化画像63aが、対応する作品の画像に近接した位置に配置されている。ここで、板形状の長さは、対応する作品の年代幅を表す。
図16に示された軸操作後画像62bには、作品の画像を複数連ねた年代可視化画像63bが配置されている。ここで、連なる作品の画像の数は、対応する作品の年代幅を表す。
図17に示された軸操作後画像62cには、棒形状の年代可視化画像63cが、対応する作品の画像に近接した位置に配置されている。ここで、棒形状の長さは、対応する作品の年代幅を表す。
In the axis-operated image 62a shown in FIG. 15, a plate-shaped age visualization image 63a is arranged in a position close to the image of the corresponding work. Here, the length of the board shape represents the age range of the corresponding work.
In the axis-operated image 62b shown in FIG. 16, an age-visualized image 63b in which a plurality of images of the work are connected is arranged. Here, the number of images of a series of works represents the age range of the corresponding works.
In the axis-operated image 62c shown in FIG. 17, a bar-shaped age visualization image 63c is arranged in a position close to the image of the corresponding work. Here, the length of the bar represents the age range of the corresponding work.

なお、図15から図17に示す軸操作後画像62aから軸操作後画像62cは、一例である。作品の年代が分かる年代可視化画像が、作品の画像の近傍又は一部に含まれるものであれば、他のものであってもよい。また、ユーザ端末5では、軸操作後画像62aから軸操作後画像62cのいずれの軸操作後画像を表示させてもよいし、ユーザの操作によって、表示させる軸操作後画像を切り替えてもよい。 Note that the post-axis operation images 62a to 62c shown in FIGS. 15 to 17 are examples. The age-visualized image that shows the age of the work may be any other image as long as it is included near or in part of the image of the work. Further, the user terminal 5 may display any of the post-axis manipulation images 62a to 62c, or may switch the post-shaft manipulation images to be displayed by the user's operation.

図11のS33において、制御部10は、軸操作後画像62(又は、軸操作後画像62aから62c)を、ユーザ端末5に対して出力する。
ユーザ端末5では、ユーザが軸操作後画像62を見て、年代をより正確に確認できる。また、ユーザ端末5では、例えば、ユーザが軸操作後画像62aを見て、年代が多岐に続いていることを、年代可視化画像63aによって一見して理解できる。
In S33 of FIG. 11, the control unit 10 outputs the post-axis manipulation image 62 (or the post-shaft manipulation images 62a to 62c) to the user terminal 5.
At the user terminal 5, the user can check the age more accurately by viewing the image 62 after the axis operation. Further, in the user terminal 5, for example, when the user looks at the post-axis operation image 62a, the user can understand at a glance from the age visualization image 63a that there is a wide range of ages.

S34において、制御部10(作品画像受付部16)は、作品の画像の選択操作を受け付けたか否かを判断する。例えば、ユーザ端末5により、表示中の作品の画像のうちの1つに対して選択する操作をすることで、制御部10は、作品の画像の選択操作を受け付ける。作品の画像の選択操作を受け付けた場合(S34:YES)には、制御部10は、処理をS35に移す。他方、作品の画像の選択操作を受け付けていない場合(S34:NO)には、制御部10は、処理をS36に移す。
S35において、制御部10は、作品画像処理を行う。
In S34, the control unit 10 (work image receiving unit 16) determines whether or not an operation for selecting an image of the work has been received. For example, when the user terminal 5 performs an operation to select one of the images of the work being displayed, the control unit 10 receives the selection operation for the image of the work. If the selection operation for the image of the work is accepted (S34: YES), the control unit 10 moves the process to S35. On the other hand, if the selection operation for the image of the work has not been accepted (S34: NO), the control unit 10 moves the process to S36.
In S35, the control unit 10 performs work image processing.

ここで、作品画像処理について、図18に基づき説明する。
図18のS51において、制御部10(関連付け画像処理部17)は、選択された作品の画像に関連するキーワードを、例えば、作品情報記憶部32を参照して取得する。
S52において、制御部10(関連付け画像処理部17)は、作品の画像を中心にし、作品の画像と取得したキーワードとを線によって結合させた関連付け画像を生成する。そして、制御部10(関連付け画像処理部17)は、生成した関連付け画像を、ユーザ端末5に対して送信する。
Here, work image processing will be explained based on FIG. 18.
In S51 of FIG. 18, the control unit 10 (associated image processing unit 17) obtains a keyword related to the image of the selected work, for example, by referring to the work information storage unit 32.
In S52, the control unit 10 (associated image processing unit 17) generates an associated image in which the image of the work is centered and the image of the work and the acquired keyword are connected by a line. Then, the control unit 10 (associated image processing unit 17) transmits the generated associated image to the user terminal 5.

図19は、画像処理サーバ1が生成した関連付け画像70の例を示す。この例では、ユーザによって作品群可視化画像からある火焔型土器の画像を選択する操作がされたものを示す。関連付け画像70は、選択された火焔型土器の画像70aを中心に配置し、画像70aと各キーワード70bとを、線画像(関連付けがされた態様)によって関連付けがされている。 FIG. 19 shows an example of the association image 70 generated by the image processing server 1. In this example, the user performs an operation to select an image of a flame-shaped pottery from the group of works visualization images. The associated image 70 is arranged around the image 70a of the selected flame-shaped earthenware, and the image 70a and each keyword 70b are associated with each other by a line image (an associated mode).

図18のS53において、制御部10(キーワード受付部18)は、キーワードに対する操作を受け付けたか否かを判断する。例えば、ユーザ端末5により、表示されたキーワードに対して選択する操作等をすることで、制御部10は、キーワードに対する操作を受け付ける。キーワードに対する操作を受け付けた場合(S53:YES)には、制御部10は、処理をS54に移す。他方、キーワードに対する操作を受け付けていない場合(S53:NO)には、制御部10は、本処理を終了し、処理を図11のS36に移す。 In S53 of FIG. 18, the control unit 10 (keyword accepting unit 18) determines whether an operation for the keyword has been accepted. For example, when the user terminal 5 performs an operation to select a displayed keyword, the control unit 10 receives the operation for the keyword. If the operation for the keyword is accepted (S53: YES), the control unit 10 moves the process to S54. On the other hand, if the operation for the keyword has not been accepted (S53: NO), the control unit 10 ends this process and moves the process to S36 in FIG. 11.

S54において、制御部10(キーワード受付部18)は、キーワードに対する操作が、2つのキーワードに対する結合操作であるか否かを判断する。ここで、2つのキーワードに対する結合操作とは、1つのキーワードの選択操作をしたのち、選択がされた状態で、他のキーワードの位置に選択したキーワードを動かし、他のキーワードに動かしたキーワードを結合させる操作をいう。2つのキーワードに対する結合操作である場合(S54:YES)には、制御部10は、処理をS55に移す。他方、2つのキーワードに対する結合操作ではない場合(S54:NO)には、制御部10は、処理をS56に移す。 In S54, the control unit 10 (keyword reception unit 18) determines whether the operation on the keyword is a combination operation on two keywords. Here, the merging operation for two keywords means that after performing a selection operation on one keyword, with the selected keyword moved to the position of another keyword, the keyword moved to the other keyword is combined. This refers to the operation that causes If the operation is a combination of two keywords (S54: YES), the control unit 10 moves the process to S55. On the other hand, if the operation is not a combination of two keywords (S54: NO), the control unit 10 moves the process to S56.

S55において、制御部10(関連情報画像処理部19)は、2つのキーワードのいずれにも関連する関連情報を、関連情報DB4から抽出する。そして、制御部10(関連情報画像処理部19)は、抽出した関連情報を、2つのキーワードに関連付けた関連情報画像を生成する。その後、制御部10は、処理をS57に移す。 In S55, the control unit 10 (related information image processing unit 19) extracts related information related to both of the two keywords from the related information DB4. Then, the control unit 10 (related information image processing unit 19) generates a related information image in which the extracted related information is associated with the two keywords. After that, the control unit 10 moves the process to S57.

他方、S56において、制御部10(関連情報画像処理部19)は、選択操作がされた1つのキーワードに対する関連情報を、関連情報DB4から抽出する。そして、制御部10(関連情報画像処理部19)は、抽出した関連情報を、操作がされたキーワードに関連付けた関連情報画像を生成する。
S57において、制御部10(関連付け画像処理部17)は、生成した関連情報画像を追加配置した関連付け画像を、ユーザ端末5に対して出力する。その後、制御部10は、処理を図11のS36に移す。
On the other hand, in S56, the control unit 10 (related information image processing unit 19) extracts the related information for the one keyword for which the selection operation has been performed from the related information DB 4. Then, the control unit 10 (related information image processing unit 19) generates a related information image in which the extracted related information is associated with the operated keyword.
In S57, the control unit 10 (association image processing unit 17) outputs an association image in which the generated related information image is additionally arranged to the user terminal 5. After that, the control unit 10 moves the process to S36 in FIG. 11.

図20は、図19に示す関連付け画像70において、キーワード「火焔型土器」が選択操作された場合であり、追加された関連情報画像71aを含む関連付け画像71の例を示す。
関連付け画像71には、選択されたキーワードに関連する情報が、キーワードに対応付けて示されている。よって、ユーザは、知りたいキーワードについて、さらに深い知識を得ることができる。
FIG. 20 shows a case where the keyword "flame-shaped earthenware" has been selected in the association image 70 shown in FIG. 19, and shows an example of an association image 71 including the added related information image 71a.
The association image 71 shows information related to the selected keyword in association with the keyword. Therefore, the user can obtain deeper knowledge about the keyword he/she wants to know.

また、図21は、図19に示す関連付け画像70において、キーワード「火焔型土器」を、キーワード「○○遺跡」まで選択した状態で動かして結合する操作がされた場合であり、追加された関連情報画像72aを含む関連付け画像72の例を示す。
関連付け画像72には、ユーザが指定した2つのキーワードに共通して関連する情報が、2つのキーワードに対応付けて示されている。よって、ユーザは、2つのキーワードに共通の関連情報を、簡単な操作によって知ることができる。
Further, FIG. 21 shows a case where an operation is performed to move and combine the keyword "flame-shaped earthenware" with the keyword "○○ ruins" selected in the association image 70 shown in FIG. An example of an association image 72 including an information image 72a is shown.
In the association image 72, information that is commonly related to two keywords specified by the user is shown in association with the two keywords. Therefore, the user can know related information common to two keywords through a simple operation.

図11のS36において、制御部10は、関連性表示操作を受け付けたか否かを判断する。ここで、関連性表示操作とは、各作品の画像の間における関連性を表示させるための操作をいう。例えば、ユーザ端末5において、表示された作品群可視化画像を含む画面の端部に、関連性表示のためのアイコン(図示せず)を設け、ユーザ端末5がそのアイコンの選択操作を受け付けたことによって、制御部10が、操作信号を受け付けたか否かを判断する。関連性表示操作を受け付けた場合(S36:YES)には、制御部10は、処理をS37に移す。他方、関連性表示操作を受け付けなかった場合(S36:NO)には、制御部10は、本処理を終了し、処理を図6のS16に移す。
S37において、制御部10(可視化画像生成部12)は、関連性付画像生成処理を行う。
In S36 of FIG. 11, the control unit 10 determines whether a relationship display operation has been received. Here, the relationship display operation refers to an operation for displaying the relationship between images of each work. For example, on the user terminal 5, an icon (not shown) for displaying the relationship is provided at the edge of the screen containing the displayed work group visualization image, and the user terminal 5 accepts an operation to select the icon. Accordingly, the control unit 10 determines whether or not the operation signal has been received. When the relevance display operation is accepted (S36: YES), the control unit 10 moves the process to S37. On the other hand, if the relevance display operation is not accepted (S36: NO), the control unit 10 ends this process and moves the process to S16 in FIG.
In S37, the control unit 10 (visualized image generation unit 12) performs related image generation processing.

ここで、関連性付画像生成処理について、図22に基づき説明する。
図22のS61において、制御部10(類似度合算出部20)は、作品情報記憶部32を参照して、出力している作品群可視化画像に含まれる作品の画像間の類似度合いを算出する。
S62において、制御部10(可視化画像生成部12)は、算出した類似度合いに基づき、作品の画像間の結ぶ関連ライン画像を生成する。
S63において、制御部10(可視化画像生成部12、可視化画像出力部13)は、生成した関連ライン画像を追加して配置した作品群可視化画像を、ユーザ端末5に出力する。
Here, related image generation processing will be explained based on FIG. 22.
In S61 of FIG. 22, the control unit 10 (similarity degree calculation unit 20) refers to the work information storage unit 32 and calculates the degree of similarity between images of works included in the output work group visualization image.
In S62, the control unit 10 (visualized image generation unit 12) generates a related line image connecting the images of the work based on the calculated degree of similarity.
In S63, the control unit 10 (visualized image generation unit 12, visualized image output unit 13) outputs to the user terminal 5 a work group visualized image in which the generated related line images are added and arranged.

図23は、関連ライン画像を追加した作品群可視化画像64の例を示す。
図23に示す作品群可視化画像64は、作品情報記憶部32に記憶された複数の作品の各々に対応する複数の画像64bが、三次元空間64aに配置された画像である。作品群可視化画像64は、さらに、2つの画像64bの間の関連性を示す関連ライン画像64cが、2つの画像64bを結ぶように配置された画像である。関連ライン画像64cは、この例では、複数の小さな玉形状が、2つの画像64b間を行き来する動画像である。
FIG. 23 shows an example of a work group visualization image 64 to which related line images have been added.
A work group visualization image 64 shown in FIG. 23 is an image in which a plurality of images 64b corresponding to each of a plurality of works stored in the work information storage unit 32 are arranged in a three-dimensional space 64a. The work group visualization image 64 is an image in which a related line image 64c indicating the relationship between the two images 64b is further arranged to connect the two images 64b. In this example, the related line image 64c is a moving image in which a plurality of small ball shapes move back and forth between the two images 64b.

なお、制御部10は、類似度合いに応じて、関連ライン画像64cを、様々な異なる態様にしてもよい。例えば、図23に示す例では、類似度合いの高低によって、玉形状の大きさや、密度、移動速度を異なるものにしてもよい。また、関連ライン画像64cの色や太さを、類似度合いの高低によって異なるものにしてもよい。いずれの場合であっても、類似度合いが表示された態様によって、ユーザに容易に理解できるものが望ましい。さらに、関連性に向きを有する場合には、図23に示す例では、玉形状の移動方向を、関連性の向きに対応させるようにしてもよい。 Note that the control unit 10 may change the related line image 64c into various different forms depending on the degree of similarity. For example, in the example shown in FIG. 23, the size, density, and moving speed of the ball shape may be made different depending on the degree of similarity. Further, the color and thickness of the related line image 64c may be made different depending on the degree of similarity. In either case, it is desirable that the degree of similarity be easily understood by the user depending on the manner in which it is displayed. Furthermore, if the relationship has a direction, in the example shown in FIG. 23, the movement direction of the ball shape may be made to correspond to the direction of the relationship.

また、作品群可視化画像64は、関連ライン画像64cの形状を、ライン形状指定欄64dによって変化させてもよい。ライン形状指定欄64dは、関連ライン画像64cを直線により表すか、曲線により表すかを指定可能なものである。図23に示す作品群可視化画像64は、ライン形状指定欄64dに「0.0」が指定されているため、関連ライン画像64cは、直線により表されている。ライン形状指定欄64dに数値を入力することで、制御部10は、数値に応じた曲線により、関連ライン画像64cを表した作品群可視化画像64を生成する。 Further, in the work group visualization image 64, the shape of the related line image 64c may be changed using the line shape specification field 64d. The line shape specification field 64d allows specifying whether the related line image 64c is represented by a straight line or a curved line. In the work group visualization image 64 shown in FIG. 23, "0.0" is specified in the line shape specification field 64d, so the related line image 64c is represented by a straight line. By inputting a numerical value into the line shape specification field 64d, the control unit 10 generates a work group visualization image 64 representing the related line image 64c using a curve corresponding to the numerical value.

上記において、出力された作品群可視化画像に関する操作について、具体例と共に一通り説明した。しかし、出力された作品群可視化画像に関する操作については、他の操作を含むものであってもよい。
例えば、作品の画像の選択操作を受け付けた場合に、制御部10は、キーワードを含む関連付け画像を生成して出力するものを示したが、その状態でさらに作品の画像の選択操作を受け付けた場合には、作品の画像に対応する解説文等を表示させてもよい。
In the above, operations regarding the output work group visualization image have been explained in detail along with specific examples. However, the operations regarding the output work group visualization image may include other operations.
For example, when receiving an operation to select an image of a work, the control unit 10 generates and outputs an associated image including a keyword, but in this state, if an operation to select an image of a work is further received , an explanatory text or the like corresponding to the image of the work may be displayed.

このように、本実施形態の画像処理サーバ1によれば、以下のような効果がある。
(1)3つの軸で表した三次元空間に、作品情報記憶部32に記憶された作品の画像を配置した作品群可視化画像を生成して、ユーザ端末5に出力する。よって、作品情報記憶部32に記憶された作品について、作品の画像を表示させることで、ユーザに分かりやすく提示できる。
(2)ユーザ端末5から3つの項目を受け付けることで、三次元空間を構成する3つの軸を、ユーザが指定した項目にする。よって、ユーザが注目したい観点で、三次元空間を生成して、作品群を画像によって見せることができる。
As described above, the image processing server 1 of this embodiment has the following effects.
(1) A work group visualization image is generated in which images of works stored in the work information storage unit 32 are arranged in a three-dimensional space represented by three axes, and output to the user terminal 5. Therefore, by displaying images of the works stored in the work information storage section 32, the works can be presented to the user in an easy-to-understand manner.
(2) By accepting three items from the user terminal 5, the three axes that make up the three-dimensional space are made into the items specified by the user. Therefore, it is possible to generate a three-dimensional space and show a group of works using images from a viewpoint that the user wants to focus on.

(3)1つ以上の軸に対する操作を受け付けた場合に、三次元空間において受け付けた1つ以上の軸を延伸させる。よって、詳細に確認したい項目の軸をユーザが操作することで、大きなスパンで作品群の画像を確認できる。
(4)延伸させた軸を年代とした場合に、作品の画像に年代を示す年代可視化画像を配置させる。よって、年代のように点ではなく、幅のあるものである場合に、その幅を画像により示すことで、ユーザに分かりやすく表現できる。
(3) When an operation on one or more axes is received, the one or more received axes are extended in three-dimensional space. Therefore, by operating the axis of the item that the user wants to check in detail, images of a group of works can be checked over a wide span.
(4) When the extended axis is set as a year, a year-visualized image showing the year is placed on the image of the work. Therefore, when the age is not a dot but has a width, the width can be shown in an image to make it easier for the user to understand.

(5)2つの軸を緯度及び経度とした場合に、緯度及び経度を含む地図画像を配置させる。よって、緯度及び経度から特定される位置を、地図上の位置として表すことで、より分かりやすく表現できる。
(6)表示された作品の画像間の類似度合いに基づく関連性を、関連ライン画像として作品の画像間を結びつけて配置する。よって、作品間の関連を、関連ライン画像によって、より分かりやすく表現できる。
(5) When the two axes are latitude and longitude, a map image including latitude and longitude is arranged. Therefore, by representing a position specified from latitude and longitude as a position on a map, it can be expressed more easily.
(6) The relationships based on the degree of similarity between the displayed images of the works are arranged as related line images that connect the images of the works. Therefore, relationships between works can be more clearly expressed using related line images.

(7)作品の画像に対する操作を受け付けた場合に、操作がされた作品に関連したキーワードを作品画像に関連付けがされた態様で配置した関連付け画像を生成し出力する。よって、興味のある作品の画像についての特徴を、キーワードとして表示できる。
(8)表示されたキーワードに対する操作を受け付けた場合に、操作されたキーワードに関連する関連情報を、関連情報DB4から抽出して、関連情報画像を生成し、出力する。よって、キーワードに着目して、関連する情報を出力することができる。
(7) When an operation on an image of a work is accepted, an associated image is generated and output in which keywords related to the operated work are arranged in a manner that they are associated with the work image. Therefore, characteristics of images of works of interest can be displayed as keywords.
(8) When an operation for the displayed keyword is accepted, related information related to the operated keyword is extracted from the related information DB 4, and a related information image is generated and output. Therefore, it is possible to focus on keywords and output related information.

以上、本発明の実施形態について説明したが、本発明は上述した実施形態に限定されるものではない。また、実施形態に記載した効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、実施形態に記載したものに限定されない。なお、上述した実施形態及び後述する変形形態は、適宜組み合わせて用いることもできるが、詳細な説明は省略する。 Although the embodiments of the present invention have been described above, the present invention is not limited to the embodiments described above. Further, the effects described in the embodiments are merely a list of the most preferable effects resulting from the present invention, and the effects of the present invention are not limited to those described in the embodiments. In addition, although the embodiment mentioned above and the modification mentioned later can be used in combination suitably, detailed description is abbreviate|omitted.

(変形形態)
(1)本実施形態では、ユーザ端末に表示するものを例に説明したが、これに限定されない。例えば、画像処理サーバとユーザ端末との機能を有する画像処理装置であってもよい。
(2)本実施形態では、ユーザ端末を、タブレットを例に説明したが、これに限定されない。例えば、HMD(Head Mounted Display)や、展示機器シアター等であってもよい。
(Deformed form)
(1) Although this embodiment has been described using an example of what is displayed on a user terminal, the present invention is not limited to this. For example, it may be an image processing device that has the functions of an image processing server and a user terminal.
(2) In this embodiment, the user terminal is described using a tablet as an example, but the present invention is not limited to this. For example, it may be an HMD (Head Mounted Display), an exhibition equipment theater, or the like.

(3)本実施形態では、2つのキーワードに対する結合操作について、例示して説明したが、これに限定されない。画像処理サーバは、3つ以上のキーワードに対する結合操作を許容し、結合されたキーワードの全てに関連する関連情報を、関連情報DBから抽出し、抽出した関連情報を、全てのキーワードに関連付けた関連情報画像を生成してもよい。 (3) In the present embodiment, the combination operation for two keywords has been described as an example, but the present invention is not limited to this. The image processing server allows a join operation for three or more keywords, extracts related information related to all of the combined keywords from the related information DB, and adds the extracted related information to the related information associated with all the keywords. An information image may also be generated.

(4)本実施形態では、美術館や博物館で保有する土器に関するものを対象とした例を説明したが、これに限定されない。複数の項目について多面的に見せることが有用なものであればよく、他の美術品や絵画等であってもよい。また、美術品等に限らず、例えば、複数の企業を比較した参照を可能にした、企業ポートフォリオ等にも活用できる。その場合、画像は、例えば、企業ロゴにすればよい。 (4) In this embodiment, an example has been described in which the object is related to earthenware held in art galleries and museums, but the invention is not limited to this. Any item that is useful for showing multiple items from multiple perspectives may be used, and may be other works of art, paintings, etc. Furthermore, it can be used not only for works of art, but also for corporate portfolios, etc., which enable comparison and reference of multiple companies. In that case, the image may be, for example, a company logo.

1 画像処理サーバ
4 関連情報DB
5 ユーザ端末
8 入力装置
10 制御部
11 項目受付部
12 可視化画像生成部
13 可視化画像出力部
14 軸操作受付部
15 操作画像出力部
16 作品画像受付部
17 関連付け画像処理部
18 キーワード受付部
19 関連情報画像処理部
20 類似度合算出部
30 記憶部
31a プログラム
32 作品情報記憶部
60,61,64 作品群可視化画像
62,62a~62c,64 軸操作後画像
100 画像処理システム
1 Image processing server 4 Related information DB
5 User terminal 8 Input device 10 Control unit 11 Item reception unit 12 Visualized image generation unit 13 Visualized image output unit 14 Axis operation reception unit 15 Operation image output unit 16 Work image reception unit 17 Association image processing unit 18 Keyword reception unit 19 Related information Image processing unit 20 Similarity calculation unit 30 Storage unit 31a Program 32 Work information storage unit 60, 61, 64 Work group visualization images 62, 62a to 62c, 64 Image after axis operation 100 Image processing system

Claims (11)

対象物の画像及び関連するテキストを含む前記対象物に関する複数の項目を記憶する説明情報記憶部と、
所定の3つの軸で表した立方体形状の三次元空間に、前記説明情報記憶部に記憶された前記対象物の画像を、前記関連するテキストに基づき配置した配置画像を生成する可視化画像生成手段と、
前記可視化画像生成手段によって生成された前記配置画像を、表示装置に出力する可視化画像出力手段と、
前記表示装置に表示された前記配置画像のうち少なくとも1つ以上の軸に対する操作を受け付ける軸操作受付手段と、
前記軸操作受付手段が受け付けた前記軸を延伸させた直方体形状の前記三次元空間に前記対象物の画像を配置した、軸操作後画像を出力する操作画像出力手段と、
を備える画像出力装置。
an explanatory information storage unit that stores a plurality of items related to the object, including an image of the object and associated text;
Visualized image generation means for generating an arrangement image in which the image of the object stored in the explanatory information storage unit is arranged in a cubic three- dimensional space expressed by three predetermined axes based on the related text; ,
Visualized image output means for outputting the arrangement image generated by the visualized image generation means to a display device;
axis operation receiving means for accepting an operation on at least one axis among the arranged images displayed on the display device;
operation image output means for outputting an image after axis operation, in which an image of the object is arranged in the three-dimensional space of a rectangular parallelepiped shape obtained by extending the axis received by the axis operation reception means;
An image output device comprising:
請求項1に記載の画像出力装置において、
前記複数の項目から3つの項目の指定を受け付ける項目受付手段を備え、
前記可視化画像生成手段は、前記項目受付手段が受け付けた前記3つの項目を各軸とした前記立方体形状の前記三次元空間に、前記対象物の画像を配置した前記配置画像を生成する、画像出力装置。
The image output device according to claim 1,
comprising item receiving means for receiving designation of three items from the plurality of items,
The visualized image generation means generates the arrangement image in which the image of the object is arranged in the three -dimensional space of the cubic shape with each axis having the three items received by the item reception means, image output. Device.
請求項1又は請求項2に記載の画像出力装置において、
前記複数の項目には、前記対象物に関する年代が含まれ、
前記操作画像出力手段は、前記軸操作受付手段が受け付けた前記軸のうちの1つが年代の項目である場合に、前記直方体形状の前記三次元空間に、前記年代を示す年代可視化画像をさらに配置した、前記軸操作後画像を出力する、画像出力装置。
The image output device according to claim 1 or 2 ,
The plurality of items include the age related to the object,
When one of the axes accepted by the axis operation receiving means is a year item, the operation image output means further outputs a year visualization image indicating the year in the rectangular parallelepiped-shaped three-dimensional space. An image output device configured to output an image after the axis operation.
請求項1から請求項3までのいずれかに記載の画像出力装置において、
前記複数の項目には、前記対象物に関する位置情報として緯度及び経度が含まれ、
前記可視化画像生成手段は、前記所定の3つの軸のうち前記緯度及び経度を2つの軸とした前記立方体形状の前記三次元空間を生成した場合に、前記緯度及び経度を含む地図画像をさらに配置した、前記配置画像を生成する、画像出力装置。
The image output device according to any one of claims 1 to 3 ,
The plurality of items include latitude and longitude as position information regarding the object,
When the visualized image generating means generates the cubic-shaped three-dimensional space with the latitude and longitude as two axes among the three predetermined axes, further arranging a map image including the latitude and longitude. An image output device that generates the arranged image.
請求項4に記載の画像出力装置において、
前記複数の項目には、前記対象物に関する年代が含まれ、
前記可視化画像生成手段は、前記所定の3つの軸のうち前記年代を3つ目の軸とした前記立方体形状の前記三次元空間に、前記対象物に対応した各年代に係る前記地図画像をさらに配置した前記配置画像を生成する、画像出力装置。
The image output device according to claim 4 ,
The plurality of items include the age related to the object,
The visualized image generation means further generates the map images related to each era corresponding to the object in the cubic- shaped three-dimensional space with the era as the third axis among the three predetermined axes. An image output device that generates the arranged image.
請求項1から請求項5までのいずれか一項に記載の画像出力装置において、
前記説明情報記憶部に記憶された各対象物の間の類似度合いを算出する類似度合算出手段を備え、
前記可視化画像生成手段は、前記類似度合算出手段により算出された前記類似度合いに基づく関連性を、各対象物の画像の間を結ぶ態様を示す画像により表した関連ライン画像をさらに配置した、前記配置画像を生成する、画像出力装置。
The image output device according to any one of claims 1 to 5 ,
comprising a degree of similarity calculation means for calculating the degree of similarity between each object stored in the explanation information storage unit,
The visualized image generation means further arranges a related line image representing a relationship based on the degree of similarity calculated by the degree of similarity calculation means by an image showing a manner in which images of each object are connected. An image output device that generates a layout image.
対象物の画像及び関連するテキストを含む前記対象物に関する複数の項目を記憶する説明情報記憶部と、
前記説明情報記憶部に記憶された各対象物の間の類似度合いを算出する類似度合算出手段と、
所定の3つの軸で表した三次元空間に、前記説明情報記憶部に記憶された前記対象物の画像を、前記関連するテキストに基づき配置し、前記類似度合算出手段により算出された前記類似度合いに基づく関連性を、各対象物の画像の間を結ぶ態様を示す画像により表した関連ライン画像をさらに配置した配置画像を生成する可視化画像生成手段と、
前記可視化画像生成手段によって生成された前記配置画像を、表示装置に出力する可視化画像出力手段と、
を備える画像出力装置。
an explanatory information storage unit that stores a plurality of items related to the object, including an image of the object and associated text;
similarity degree calculation means for calculating the degree of similarity between the objects stored in the explanation information storage unit;
The image of the object stored in the explanatory information storage unit is arranged in a three-dimensional space represented by three predetermined axes based on the related text, and the degree of similarity calculated by the degree of similarity calculation means is calculated. a visualized image generating means for generating a layout image in which related line images are further arranged, representing the relationship based on the image by an image showing a manner of connecting the images of each object;
Visualized image output means for outputting the arrangement image generated by the visualized image generation means to a display device;
An image output device comprising:
請求項1から請求項7までのいずれか一項に記載の画像出力装置において、
前記表示装置に表示された前記配置画像に含まれる1つの前記対象物の画像に対する操作を受け付ける対象物画像受付手段と、
操作がされた前記対象物の画像と、前記対象物の画像が示す前記対象物に関連したキーワードとを、関連付けがされた態様で配置した関連付け画像を生成する関連付け画像生成手段と、
前記関連付け画像生成手段によって生成された前記関連付け画像を、前記表示装置に出力する関連付け画像出力手段と、
を備える画像出力装置。
The image output device according to any one of claims 1 to 7,
object image receiving means for accepting an operation on one image of the object included in the arrangement image displayed on the display device;
an association image generating means for generating an association image in which an image of the operated object and a keyword related to the object indicated by the image of the object are arranged in an associated manner;
association image output means for outputting the association image generated by the association image generation means to the display device;
An image output device comprising:
請求項8に記載の画像出力装置において、
前記関連付け画像出力手段によって出力された前記キーワードに対する操作を受け付けるキーワード受付手段と、
操作がされた前記キーワードに関連する関連情報を、各対象物の関連情報を記憶する関連情報データベースから抽出し、関連情報画像を生成する関連情報画像生成手段と、
を備え、
前記関連付け画像出力手段は、前記関連情報画像生成手段によって生成された前記関連情報画像を付加した前記関連付け画像を、前記表示装置に出力する、画像出力装置。
The image output device according to claim 8,
keyword receiving means for accepting an operation on the keyword outputted by the association image outputting means;
a related information image generation unit that extracts related information related to the operated keyword from a related information database that stores related information of each object, and generates a related information image;
Equipped with
The associated image output means is an image output device that outputs the associated image to which the related information image generated by the related information image generation means is added to the display device.
請求項9に記載の画像出力装置において、
前記キーワード受付手段は、2つ以上の前記キーワードに対する結合操作を受け付け、
前記関連情報画像生成手段は、結合操作がされた前記2つ以上のキーワードのいずれにも関連する関連情報を前記関連情報データベースから抽出して前記関連情報画像を生成する、画像出力装置。
The image output device according to claim 9,
The keyword accepting means accepts a combination operation for two or more of the keywords,
The related information image generation means is an image output device that extracts related information related to any of the two or more keywords subjected to a combination operation from the related information database to generate the related information image.
請求項1から請求項10までのいずれか一項に記載の画像出力装置としてコンピュータを機能させるためのプログラム。 A program for causing a computer to function as the image output device according to any one of claims 1 to 10.
JP2019162697A 2019-09-06 2019-09-06 Image output device and program Active JP7388065B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019162697A JP7388065B2 (en) 2019-09-06 2019-09-06 Image output device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019162697A JP7388065B2 (en) 2019-09-06 2019-09-06 Image output device and program

Publications (2)

Publication Number Publication Date
JP2021043493A JP2021043493A (en) 2021-03-18
JP7388065B2 true JP7388065B2 (en) 2023-11-29

Family

ID=74864062

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019162697A Active JP7388065B2 (en) 2019-09-06 2019-09-06 Image output device and program

Country Status (1)

Country Link
JP (1) JP7388065B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000207411A (en) 1999-01-18 2000-07-28 Nec Corp Information display device and record medium recording the program
JP2012027793A (en) 2010-07-26 2012-02-09 Canon Inc Image processing system and image processing system control method and program
JP2015187845A (en) 2014-03-11 2015-10-29 株式会社東芝 Radiogram interpretation report preparation apparatus and radiogram interpretation report preparation system
WO2019150529A1 (en) 2018-02-01 2019-08-08 マクセル株式会社 Portable terminal device and information display method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000207411A (en) 1999-01-18 2000-07-28 Nec Corp Information display device and record medium recording the program
JP2012027793A (en) 2010-07-26 2012-02-09 Canon Inc Image processing system and image processing system control method and program
JP2015187845A (en) 2014-03-11 2015-10-29 株式会社東芝 Radiogram interpretation report preparation apparatus and radiogram interpretation report preparation system
WO2019150529A1 (en) 2018-02-01 2019-08-08 マクセル株式会社 Portable terminal device and information display method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
浜脇 修平 他,楽曲の音響的特徴空間視覚化を利用した音楽検索システム,情報処理学会研究報告 Vol.2009 No.13 IPSJ SIG Technical Reports,日本,社団法人情報処理学会,2009年02月11日,第2009巻

Also Published As

Publication number Publication date
JP2021043493A (en) 2021-03-18

Similar Documents

Publication Publication Date Title
TWI539303B (en) System and method for tagging multiple digital images
JP3148133B2 (en) Information retrieval device
US6577330B1 (en) Window display device with a three-dimensional orientation of windows
US20090293008A1 (en) Information Processing Device, User Interface Method, And Information Storage Medium
JP2004288170A (en) Three-dimensional model retrieval method and system
WO2005069170A1 (en) Image file list display device
JP2009053864A (en) Image retrieving device, image retrieving method, and program
JP2008097175A (en) Electronic file retrieving device
JP2007226536A (en) Image search device, image search method, and program for searching image
JP2012198668A (en) Information processing device, augmented reality provision method and program
JP2006146628A5 (en)
JP2023090773A (en) Information processing device, information system, information processing method, and program
JP2006039872A (en) Information processing method and information processor
JP5420056B2 (en) Image creation system, image creation application server, image creation method and program
JP2009151626A (en) Document management device, document management system, document management method, document management program and storage medium
JP7381556B2 (en) Media content planning system
JP7388065B2 (en) Image output device and program
WO2012160931A1 (en) Web browsing control server and web browsing control method
JP5772908B2 (en) Information processing apparatus, information processing system, control method thereof, and program
JP2002041571A (en) Information retrieving device
CN111149145B (en) Information processing apparatus, information processing method, and program
JP4754986B2 (en) Image browser system
US20180232125A1 (en) Contextual Linking of Digital Representations of Objects with Documents
JP5038250B2 (en) Information processing apparatus, information processing method, and program
JP4675856B2 (en) Information processing apparatus, user interface method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220726

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230727

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230822

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230920

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231017

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231030

R150 Certificate of patent or registration of utility model

Ref document number: 7388065

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150