JP2015026105A - Image evaluation server - Google Patents

Image evaluation server Download PDF

Info

Publication number
JP2015026105A
JP2015026105A JP2013153478A JP2013153478A JP2015026105A JP 2015026105 A JP2015026105 A JP 2015026105A JP 2013153478 A JP2013153478 A JP 2013153478A JP 2013153478 A JP2013153478 A JP 2013153478A JP 2015026105 A JP2015026105 A JP 2015026105A
Authority
JP
Japan
Prior art keywords
image
evaluation
unit
score
keyword
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013153478A
Other languages
Japanese (ja)
Inventor
正浩 松澤
Masahiro Matsuzawa
正浩 松澤
岳寿 福島
Takehisa Fukushima
岳寿 福島
雄飛 降矢
Taketo Furuya
雄飛 降矢
翔 曽宮
Sho Somiya
翔 曽宮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2013153478A priority Critical patent/JP2015026105A/en
Publication of JP2015026105A publication Critical patent/JP2015026105A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To appropriately evaluate an image.SOLUTION: An image evaluation server comprises: a communication unit 12 that acquires image data; a keyword generation unit 16 that generates a keyword corresponding to at least one subject image included in the image data; an evaluation search unit 13 that determines an evaluation score in acquiring the image data by the communication unit for each keyword generated by the keyword generation unit; and an information DB 22 that records an evaluation score for each keyword determined by the evaluation search unit in association with the image data.

Description

本発明は、画像評価サーバに関するものである。   The present invention relates to an image evaluation server.

従来、写真撮影の熟練度が高いと思われるユーザが行った評価に対して重みづけを行って、写真の評価を決定する評価装置が知られている(例えば、特許文献1参照)。   2. Description of the Related Art Conventionally, there has been known an evaluation device that weights an evaluation performed by a user who is considered to have a high degree of skill in photography, and determines an evaluation of a photograph (see, for example, Patent Document 1).

特開2009−294767号公報JP 2009-294767 A

しかしながら、この評価装置においては、写真に含まれる被写体像について客観的な評価値を決定することができないため、的確に画像を評価できないという問題があった。   However, this evaluation apparatus has a problem that an objective evaluation value cannot be determined for a subject image included in a photograph, and thus an image cannot be evaluated accurately.

本発明の目的は、的確に画像を評価することができる画像評価サーバを提供することである。   An object of the present invention is to provide an image evaluation server that can accurately evaluate an image.

本発明の画像評価サーバは、画像データを取得する画像取得部と、前記画像データに含まれる少なくとも一つの被写体像に対応するキーワードを取得するキーワード取得部と、前記キーワード取得部により取得した前記キーワードごとの前記画像取得部により前記画像データを取得した場合における評価点数を決定する決定部と、前記決定部により決定した前記キーワードごとの前記評価点数を、前記画像データに関連付けて記録する記録部とを備えることを特徴とする。   The image evaluation server of the present invention includes an image acquisition unit that acquires image data, a keyword acquisition unit that acquires a keyword corresponding to at least one subject image included in the image data, and the keyword acquired by the keyword acquisition unit. A determination unit that determines an evaluation score when the image data is acquired by each image acquisition unit, and a recording unit that records the evaluation score for each keyword determined by the determination unit in association with the image data; It is characterized by providing.

本発明の画像評価サーバによれば、的確に画像を評価することができる。   According to the image evaluation server of the present invention, an image can be accurately evaluated.

実施の形態に係る画像評価システムの構成を示すブロック図である。It is a block diagram which shows the structure of the image evaluation system which concerns on embodiment. 実施の形態に係る画像評価サーバの構成を示すブロック図である。It is a block diagram which shows the structure of the image evaluation server which concerns on embodiment. 実施の形態に係る端末の構成を示すブロック図である。It is a block diagram which shows the structure of the terminal which concerns on embodiment. 実施の形態に係る画像評価サーバによって提供される画像評価サイトのサイト画面を示す図である。It is a figure which shows the site screen of the image evaluation site provided by the image evaluation server which concerns on embodiment. 実施の形態に係る画像評価サーバの情報データベースに記憶されたリンクテーブルの構成を示す図である。It is a figure which shows the structure of the link table memorize | stored in the information database of the image evaluation server which concerns on embodiment. 実施の形態に係る画像評価サーバによって提供される画像評価サイトに画像を投稿する処理を示すフローチャートである。It is a flowchart which shows the process which submits an image to the image evaluation site provided by the image evaluation server which concerns on embodiment. 実施の形態に係る画像評価サーバにおける画像評価処理を示すフローチャートである。It is a flowchart which shows the image evaluation process in the image evaluation server which concerns on embodiment. 実施の形態に係る画像評価サーバによって提供されるサイト画面の表示を示す図である。It is a figure which shows the display of the site screen provided by the image evaluation server which concerns on embodiment. 実施の形態に係る画像評価サーバによって提供されるサイト画面に表示された地図を示す図である。It is a figure which shows the map displayed on the site screen provided by the image evaluation server which concerns on embodiment. 実施の形態に係る画像評価サーバによって提供されるサイト画面に表示された地図を示す図である。It is a figure which shows the map displayed on the site screen provided by the image evaluation server which concerns on embodiment. 実施の形態に係る画像評価サーバによって提供される画像評価サイトのサイト画面を示す図である。It is a figure which shows the site screen of the image evaluation site provided by the image evaluation server which concerns on embodiment.

以下、図面を参照して本発明の実施の形態に係る画像評価システムについて説明する。図1は、実施の形態に係る画像評価システム2の構成を示すブロック図である。画像評価システム2は、画像の評価処理を行う画像評価サーバ4を備え、画像評価サーバ4はネットワーク6を介して種々の端末8、及び外部検索サイト9と通信可能となっている。   Hereinafter, an image evaluation system according to an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing a configuration of an image evaluation system 2 according to the embodiment. The image evaluation system 2 includes an image evaluation server 4 that performs image evaluation processing, and the image evaluation server 4 can communicate with various terminals 8 and an external search site 9 via a network 6.

ここで、上記端末8には、デジタルカメラ、スマートフォン、タブレット端末、携帯電話のように画像を撮影することが可能な撮像装置のほか、画像データを保存可能なパソコンなどが含まれている。いずれの端末8も、画像評価サーバ4に対して通信接続可能な通信装置を内蔵、または外部機器として装着している。   Here, the terminal 8 includes a personal computer that can store image data in addition to an imaging device that can capture an image, such as a digital camera, a smartphone, a tablet terminal, and a mobile phone. Each terminal 8 has a built-in communication device that can be connected to the image evaluation server 4 or is mounted as an external device.

また、上記外部検索サイト9には、検索サイトA、検索サイトB、…、のように、複数の既存画像検索サイトが含まれている。   The external search site 9 includes a plurality of existing image search sites such as a search site A, a search site B,.

図2は、実施の形態に係る画像評価サーバ4の構成を示すブロック図である。画像評価サーバ4は、画像を位置情報に対応付けて表示するとともに、通信可能な端末8からの画像評価を受け付ける画像評価サイト(図4参照)を提供するサーバであり、画像評価サーバ4の各部を制御するCPU10を備えている。CPU10には、ネットワーク6を介して端末8との通信を行う通信部12、画像の評価や検索を行う評価検索部13、ID、パスワード、アドレス等の個人情報を予め記憶する個人情報記憶部14、画像データに含まれる被写体像に対応するキーワードを生成するキーワード生成部16、画像データの解像度を変換する解像度変換部18、キーワードごとの点数(以下、キーワード点数という。)を記憶する点数記憶部19、新規に投稿された画像の画像データを記憶する画像データベース20、リンクテーブル80(図5参照)を記憶する情報データベース22、地図データを記憶する地図データベース24、及び地図データに含まれる交通網に対応する交通費が記録された交通費データベース26が接続されている。   FIG. 2 is a block diagram illustrating a configuration of the image evaluation server 4 according to the embodiment. The image evaluation server 4 is a server that displays an image in association with position information and provides an image evaluation site (see FIG. 4) that receives an image evaluation from a communicable terminal 8. CPU10 which controls this is provided. The CPU 10 includes a communication unit 12 that communicates with the terminal 8 via the network 6, an evaluation search unit 13 that performs image evaluation and search, and a personal information storage unit 14 that stores personal information such as an ID, a password, and an address in advance. , A keyword generation unit 16 that generates a keyword corresponding to the subject image included in the image data, a resolution conversion unit 18 that converts the resolution of the image data, and a score storage unit that stores a score for each keyword (hereinafter referred to as a keyword score). 19, an image database 20 for storing image data of newly posted images, an information database 22 for storing a link table 80 (see FIG. 5), a map database 24 for storing map data, and a traffic network included in the map data A transportation expense database 26 in which transportation expenses corresponding to the above are recorded is connected.

ここで、個人情報記憶部14に記憶されている個人情報は、画像評価サーバ4と通信可能な端末8のユーザによって予め登録されたものである。また、キーワード生成部16には、画像に含まれる被写体像を認識し、認識した被写体像に対応するキーワードを生成することが可能な公知の画像分類ソフトが内蔵されている。   Here, the personal information stored in the personal information storage unit 14 is registered in advance by the user of the terminal 8 that can communicate with the image evaluation server 4. The keyword generation unit 16 includes known image classification software capable of recognizing a subject image included in an image and generating a keyword corresponding to the recognized subject image.

また、点数記憶部19に記憶されているキーワード点数は、例えば、キーワードの検索ランキングに基づいて適宜更新される。具体例としては、キーワード検索が行われる度に、ランキングが1位のキーワード点数には10点が加算され、ランキングが2位のキーワード点数には8点が加算され、ランキングが3位のキーワード点数には5点を加算が加算される。   Further, the keyword score stored in the score storage unit 19 is appropriately updated based on, for example, the keyword search ranking. As a specific example, every time a keyword search is performed, 10 points are added to the keyword score ranked first, 8 points are added to the keyword score ranked second, and the keyword score ranked third. Add 5 points.

図3は、実施の形態に係る画像評価サーバ4と通信可能な端末8の構成を示すブロック図である。この端末8は、CPU30を備え、CPU30には、ネットワーク6を介して画像評価サーバ4との間で通信を行う通信部32、GPS衛星から受信した信号に基づいて現在位置を測位するGPS34、LCD表示部38、被写体光を撮像して撮像信号を生成する撮像素子41、及び画像データを記憶するメモリカード42を装着するメモリカードスロット43が接続されている。なお、端末8の種類によっては撮像素子41やGPS34を備えない場合もあるが、これらの機能を代替する構成を備えていてもよい。つまり、撮像素子41やGPS34を備えていないパソコンなどは、代わりに画像データを記憶する記憶デバイスを備えていればよく、通信基地局を介して概略的な位置情報が特定できるだけでもよい。   FIG. 3 is a block diagram illustrating a configuration of the terminal 8 that can communicate with the image evaluation server 4 according to the embodiment. The terminal 8 includes a CPU 30. The CPU 30 includes a communication unit 32 that communicates with the image evaluation server 4 via the network 6, a GPS 34 that measures a current position based on a signal received from a GPS satellite, an LCD A display unit 38, an image sensor 41 that captures subject light and generates an image signal, and a memory card slot 43 in which a memory card 42 that stores image data is mounted are connected. Depending on the type of the terminal 8, the image pickup device 41 and the GPS 34 may not be provided, but a configuration that substitutes for these functions may be provided. That is, a personal computer or the like that does not include the image pickup device 41 or the GPS 34 may include a storage device that stores image data instead, and may only be able to specify approximate position information via the communication base station.

図4は、実施の形態に係る画像評価サーバ4によって提供される画像評価サイトの画面(以下、サイト画面という。)を示す図である。サイト画面50は、評価対象とされた評価対象画像を表示する画像表示欄52、評価対象の候補となるサムネイル画像を表示するサムネイル画像表示欄54、画像を投稿する際に操作される投稿ボタン56、緊急GPSボタン58、地図データに基づく地図を表示する地図表示欄60、画像を検索する際のキーワードを入力するキーワード入力欄62、評価対象画像に写っている被写体像に対応するキーワードの評価点数を表示する評価点数表示欄64、評価対象画像に付与されたコメントを表示するコメント表示欄66、交通費表示欄68を有している。   FIG. 4 is a diagram showing an image evaluation site screen (hereinafter referred to as a site screen) provided by the image evaluation server 4 according to the embodiment. The site screen 50 includes an image display field 52 that displays an evaluation target image that is an evaluation target, a thumbnail image display field 54 that displays thumbnail images that are candidates for evaluation, and a post button 56 that is operated when posting an image. , An emergency GPS button 58, a map display field 60 for displaying a map based on map data, a keyword input field 62 for inputting a keyword for searching for an image, and the evaluation score of a keyword corresponding to a subject image in the evaluation target image Are displayed, an evaluation score display field 64, a comment display field 66 for displaying a comment assigned to the evaluation target image, and a transportation cost display field 68.

図5は、実施の形態に係る画像評価サーバ4の情報データベース22に記憶されたリンクテーブル80の構成を示す図である。図5に示すように、リンクテーブル80には、画像評価サーバ4によって取得された画像データに関する情報を記録するレコードが記憶される。ここで、各レコードには、レコードに対応する画像が閲覧可能なサイトのURL等の画像リンク先、画像データに含まれる被写体像に対応するキーワード、キーワードに対して付与された評価点数、画像への最終アクセス日、及び画像の撮影年月日等が記録される。   FIG. 5 is a diagram showing a configuration of the link table 80 stored in the information database 22 of the image evaluation server 4 according to the embodiment. As shown in FIG. 5, the link table 80 stores a record for recording information regarding image data acquired by the image evaluation server 4. Here, each record includes an image link destination such as a URL of a site where an image corresponding to the record can be browsed, a keyword corresponding to a subject image included in the image data, an evaluation score assigned to the keyword, and an image. The last access date of the image, the shooting date of the image, and the like are recorded.

次に、図6に示すフローチャートを参照して、実施の形態に係る画像評価サーバ4によって提供される画像評価サイトに画像を投稿する処理について説明する。なおフローチャートは、画像評価サーバ4のCPU10を主体として記載されている。   Next, processing for posting an image to the image evaluation site provided by the image evaluation server 4 according to the embodiment will be described with reference to the flowchart shown in FIG. The flowchart is described with the CPU 10 of the image evaluation server 4 as a main component.

まず、画像を投稿しようとするユーザが、端末8(デジタルカメラ、スマートフォン、タブレット端末、携帯電話、パソコン)から画像評価サイトへアクセスすると、端末8のLCD表示部38に図4に示すサイト画面50が表示される。次に、ユーザが投稿ボタン56をクリックすると、LCD表示部38に投稿用画面(図示せず)が表示される。   First, when a user who wants to post an image accesses the image evaluation site from the terminal 8 (digital camera, smartphone, tablet terminal, mobile phone, personal computer), the site screen 50 shown in FIG. Is displayed. Next, when the user clicks the posting button 56, a posting screen (not shown) is displayed on the LCD display unit 38.

次に、ユーザにより、端末8のメモリカード42に記憶されている画像データの中から一枚または複数枚の画像データが選択され、選択された画像データに基づく画像が画像評価サイトに投稿される。ここで、メモリカード42に記憶されている画像データにはタグ情報として、ファイル名、撮影年月日情報、撮影地点の位置情報等が付加されている。   Next, the user selects one or a plurality of image data from the image data stored in the memory card 42 of the terminal 8, and an image based on the selected image data is posted to the image evaluation site. . Here, to the image data stored in the memory card 42, a file name, shooting date information, shooting point position information, and the like are added as tag information.

次に、画像評価サーバ4のCPU10は、キーワード生成部16により、投稿された画像の画像データに含まれる被写体像に対応するキーワードを生成する(ステップS1)。例えば、桜と富士山が写っている画像Aがアップロードされた場合、キーワード生成部16は、画像Aの画像データに桜と富士山の被写体像が含まれていることを認識し、「桜」、「富士山」というキーワードを生成する。   Next, the CPU 10 of the image evaluation server 4 uses the keyword generation unit 16 to generate a keyword corresponding to the subject image included in the image data of the posted image (step S1). For example, when an image A in which cherry blossoms and Mt. Fuji are reflected is uploaded, the keyword generating unit 16 recognizes that the image data of the image A includes cherry and Mt. Fuji subject images. The keyword “Mt. Fuji” is generated.

次に、CPU10は、画像データを画像データベース20に記憶する(ステップS2)。なお、画像データが画像データベース20に記憶される際には、画像Aを閲覧することのできるURLや、画像データベース20内における保存先のディレクトリ名等の所在場所情報等が決定される。   Next, the CPU 10 stores the image data in the image database 20 (step S2). When the image data is stored in the image database 20, URL where the image A can be browsed, location information such as a storage destination directory name in the image database 20, and the like are determined.

次に、CPU10は、評価検索部13により、ステップS2において生成されたキーワードごとの評価点数を決定する(ステップS3)。まず、評価検索部13は、点数記憶部19から「桜」に対応するキーワード点数(例えば5点)、及び「富士山」に対応するキーワード点数(例えば4点)を読み出す。そして、新たに画像が投稿された際に加算する投稿ウエイト点数として、それぞれのキーワード点数に例えば2点ずつを加算する。この場合、「桜」の評価点数は7点(キーワード点数5点+投稿ウエイト点数2点)、「富士山」の評価点数は6点(キーワード点数4点+投稿ウエイト点数2点)と決定される。   Next, CPU10 determines the evaluation score for every keyword produced | generated in step S2 by the evaluation search part 13 (step S3). First, the evaluation search unit 13 reads out the keyword score (for example, 5 points) corresponding to “Sakura” and the keyword score (for example, 4 points) corresponding to “Mt. Fuji” from the score storage unit 19. Then, for example, 2 points are added to each keyword score as a posting weight score to be added when an image is newly posted. In this case, the evaluation score of “Sakura” is determined to be 7 points (keyword score 5 points + posting weight score 2 points), and the evaluation score of “Mount Fuji” is 6 points (keyword score 4 points + posting weight score 2 points). .

次に、CPU10は、リンクテーブル80内にこの画像に関するレコードを作成する(ステップS4)。例えば、図5に示すように、「レコード1」というレコードをリンクテーブル80内に作成する。ここで、「レコード1」には、この画像を閲覧することのできる「画像リンク先」が「www.〇〇〇.×××」のように記録される。また、「キーワード1、評価点数」として、「桜」、「7点」が記録され、「キーワード2、評価点数」として、「富士山」、「6点」が記録される。また、「最終アクセス日」として、画像が投稿された年月日が、「2013/06/06」のように記録される。更に、「撮影年月日」として、画像データに付加されている撮影年月日が「2013/06/05」のように記録され、「撮影地点」として、画像データに付加されている撮影地点の位置情報が記録される。   Next, the CPU 10 creates a record relating to this image in the link table 80 (step S4). For example, as shown in FIG. 5, a record “record 1” is created in the link table 80. Here, in “Record 1”, “image link destination” where the image can be browsed is recorded as “www.xxx.xxx”. Also, “Cherry Blossom” and “7 points” are recorded as “Keyword 1, Evaluation Score”, and “Mt. Fuji” and “6 Points” are recorded as “Keyword 2, Evaluation Score”. In addition, as the “last access date”, the date on which the image is posted is recorded as “2013/06/06”. Furthermore, the shooting date added to the image data is recorded as “2013/06/05” as “shooting date”, and the shooting point added to the image data as “shooting point”. Position information is recorded.

次に、図7に示すフローチャートを参照して、実施の形態に係る画像評価サーバ4によって提供される画像評価サイトにおける画像評価処理について説明する。なお、フローチャートは、画像評価サーバ4のCPU10を主体として記載されている。   Next, image evaluation processing at the image evaluation site provided by the image evaluation server 4 according to the embodiment will be described with reference to the flowchart shown in FIG. The flowchart is described with the CPU 10 of the image evaluation server 4 as a main component.

まず、サイト画面50(図4参照)において、画像を評価しようとするユーザがキーワード入力欄62にキーワードを入力すると、画像評価サーバ4のCPU10は、評価検索部13により、入力されたキーワードをパラメータとして画像評価サイト内における画像の検索を行う(ステップS21)。例えば、図4に示すように、キーワード入力欄62に「桜」、「富士山」というキーワードが入力された場合、評価検索部13は、リンクテーブル80から「桜」、「富士山」というキーワードが記録されている「レコード1」を抽出する。   First, on the site screen 50 (see FIG. 4), when a user who wants to evaluate an image inputs a keyword in the keyword input field 62, the CPU 10 of the image evaluation server 4 uses the evaluation search unit 13 to set the input keyword as a parameter. As a result, an image search in the image evaluation site is performed (step S21). For example, as shown in FIG. 4, when the keywords “sakura” and “Mt. Fuji” are entered in the keyword input field 62, the evaluation search unit 13 records the keywords “sakura” and “Mt. Fuji” from the link table 80. Extracted “Record 1” is extracted.

また、評価検索部13は、画像評価サイト内における検索と平行して、外部検索サイト9(検索サイトA、検索サイトB、…、)における画像の検索を行う(ステップS22)。例えば、評価検索部13は、ネットワーク6を介して外部検索サイト9に「桜」、「富士山」のキーワード情報、及びこれらのキーワードを用いて検索を実行する旨の検索要求を送信する。外部検索サイト9は、キーワード情報及び検索要求を受信すると、受信したキーワード情報をパラメータとして画像を検索する。   The evaluation search unit 13 searches for images on the external search site 9 (search site A, search site B,...) In parallel with the search on the image evaluation site (step S22). For example, the evaluation search unit 13 transmits the keyword “sakura” and “Mt. Fuji” to the external search site 9 via the network 6 and a search request for executing a search using these keywords. When receiving the keyword information and the search request, the external search site 9 searches for an image using the received keyword information as a parameter.

ここで、検索した結果検出された画像の画像データには、所定のランキングが関連付けられている。外部検索サイト9は、ランキングが例えば上位30位以内の画像の画像データをネットワーク6を介して画像評価サーバ4に送信する。なお、外部検索サイト9が上位何位以内の画像データを送信するかについては、検索を実行する際に画像評価サーバ4側から所定の指示信号が送信される。   Here, a predetermined ranking is associated with the image data of the image detected as a result of the search. The external search site 9 transmits image data of images having a ranking within, for example, the top 30, to the image evaluation server 4 via the network 6. As to how many image data the external search site 9 transmits within, the predetermined instruction signal is transmitted from the image evaluation server 4 side when executing the search.

また、所定のランキングは、例えば、特定期間に画像が検索された際における画像のヒット頻度に基づいて算出される。具体的には、特定の期間に例えば100回キーワード検索が行われ、画像aが10回、画像bが8回、画像cが5回ヒットしたとする。この場合、画像aに10点、画像bに8点、画像cに5点が付与される。画像のランキングとしては、画像aが1位、画像bが2位、画像cが3位、…、のようになる。   Further, the predetermined ranking is calculated based on, for example, the hit frequency of the image when the image is searched during a specific period. Specifically, it is assumed that, for example, keyword search is performed 100 times in a specific period, image a is hit 10 times, image b is 8 times, and image c is hit 5 times. In this case, 10 points are given to the image a, 8 points are given to the image b, and 5 points are given to the image c. The ranking of images is as follows: image a is first, image b is second, image c is third, and so on.

次に、画像評価サーバ4のCPU10は、ネットワーク6を介して画像データを受信すし(ステップS23)、キーワード生成部16により、画像データに含まれる被写体像に対応するキーワードを生成する(ステップS24)。ここで、キーワードの生成は、画像が投稿されたステップS1の場合と同様にして行われる。なお、画像データから、検索時のキーワードである「桜」、「富士山」以外の他の被写体像が認識された場合、更に他の被写体像に対応するキーワードが生成される。   Next, the CPU 10 of the image evaluation server 4 receives the image data via the network 6 (step S23), and the keyword generating unit 16 generates a keyword corresponding to the subject image included in the image data (step S24). . Here, the keyword is generated in the same manner as in step S1 in which the image is posted. When a subject image other than “sakura” and “Mt. Fuji”, which are keywords at the time of search, is recognized from the image data, keywords corresponding to other subject images are further generated.

次に、CPU10は、評価検索部13により、ステップS3の場合と同様にして、キーワードごとの評価点数を決定する。(ステップS25)。なお、他の被写体が例えば、「自動車」であった場合、評価検索部13は、点数記憶部19から「自動車」に対応するキーワード点数(例えば3点)を取得する。そして、このキーワード点数に投稿ウエイト点数の2点を加算した5点を「自動車」の評価点数と決定する。   Next, CPU10 determines the evaluation score for every keyword by the evaluation search part 13 similarly to the case of step S3. (Step S25). When the other subject is “automobile”, for example, the evaluation search unit 13 acquires the keyword score (for example, 3 points) corresponding to “automobile” from the score storage unit 19. Then, five points obtained by adding two posting weight points to the keyword points are determined as the “automobile” evaluation points.

次に、CPU10は、ステップS23で受信した画像データに関するレコードを作成し、リンクテーブル80に追加する(ステップS26)。例えば、図5に示すように、「レコード2」〜「レコードn」というレコードをリンクテーブル80に追加する。ここで、各レコードには、投稿時と同様の要領で記録が行われる(ステップS4参照)。即ち、「レコード1」〜「レコードn」の「キーワード1、評価点数1」の欄には、「桜、7点」(キーワード点数5点+投稿ウエイト点数2点)が記録され、「キーワード2、評価点数2」の欄には、「富士山、6点」(キーワード点数4点+投稿ウエイト点数2点)が記録される。また、「レコード2」に対応する画像データに自動車の被写体像が含まれていた場合、「レコード2」の「キーワード3、評価点数3」の欄に「自動車、5点」(キーワード点数3点+投稿ウエイト点数2点)が記録される。また、「レコード1」〜「レコードn」に「画像リンク先」、「最終アクセス日」、「撮影年月日」、「撮影地点」がそれぞれ記録される。   Next, the CPU 10 creates a record relating to the image data received in step S23 and adds it to the link table 80 (step S26). For example, as shown in FIG. 5, records “record 2” to “record n” are added to the link table 80. Here, each record is recorded in the same manner as at the time of posting (see step S4). That is, “Cherry, 7 points” (keyword score 5 points + posting weight score 2 points) is recorded in the “keyword 1, evaluation score 1” column of “record 1” to “record n”. In the “Evaluation score 2” column, “Mt. Fuji, 6 points” (keyword score 4 points + posting weight score 2 points) is recorded. If the image data corresponding to “record 2” includes a subject image of a car, “car, 5 points” (keyword score: 3 points) in the “keyword 3, evaluation score 3” column of “record 2” + Posting weight score 2 points) is recorded. In addition, “image link destination”, “last access date”, “shooting date”, and “shooting point” are recorded in “record 1” to “record n”, respectively.

次に、CPU10は、ネットワーク6を介して、ステップS21で抽出された「レコード1」に記録されている「画像リンク先」にアクセスし、「画像リンク先」から「レコード1」に対応する画像データを取得する。なお、「レコード2」〜「レコードn」に対応する画像データはステップS23で既に取得されている。   Next, the CPU 10 accesses the “image link destination” recorded in the “record 1” extracted in step S21 via the network 6, and the image corresponding to “record 1” from the “image link destination”. Get the data. Note that the image data corresponding to “record 2” to “record n” has already been acquired in step S23.

次に、CPU10は、ユーザが使用している端末8の種類を認識する(ステップS27)。例えば、CPU10は、ステップS21でキーワードの入力が行われた場合に、キーワード入力元の端末8の種類に関する情報を取得しておき、この情報に基づいてキーワード入力元の端末8の種類(デジタルカメラ、スマートフォン、タブレット端末、携帯電話、パソコン)を認識する。   Next, the CPU 10 recognizes the type of the terminal 8 used by the user (step S27). For example, when a keyword is input in step S21, the CPU 10 obtains information on the type of the keyword input source terminal 8, and based on this information, the type of the keyword input source terminal 8 (digital camera). , Smartphones, tablet devices, mobile phones, computers).

次に、CPU10は、端末8の種類と画像データの解像度を関連付けて記憶する端末データテーブル(図示せず)を参照し、端末8のLCD表示部38のサイズに適した解像度に画像データを変換する。例えば、端末8がデジタルカメラ、スマートフォン、タブレット端末、携帯電話の何れかである場合には、端末8がパソコンである場合よりも解像度が低くなるように、画像データの変換を行う。なお、端末8がパソコンの場合、画像データの解像度を変換しなくてもよい。   Next, the CPU 10 refers to a terminal data table (not shown) that stores the type of the terminal 8 and the resolution of the image data in association with each other, and converts the image data to a resolution suitable for the size of the LCD display unit 38 of the terminal 8. To do. For example, when the terminal 8 is any one of a digital camera, a smartphone, a tablet terminal, and a mobile phone, the image data is converted so that the resolution is lower than when the terminal 8 is a personal computer. If the terminal 8 is a personal computer, the resolution of the image data need not be converted.

次に、CPU10は、画像データに基づいてサムネイル画像データを生成し、端末8のサムネイル画像表示欄54にサムネイル画像を表示させる(ステップS28)。例えば、図4に示すように、「レコード1」に対応する画像のサムネイル画像A´、「レコード2」に対応する画像のサムネイル画像B´、…、「レコードn」に対応する画像のサムネイル画像N´をサムネイル画像表示欄54に表示させる。   Next, the CPU 10 generates thumbnail image data based on the image data, and displays the thumbnail image in the thumbnail image display field 54 of the terminal 8 (step S28). For example, as shown in FIG. 4, the thumbnail image A ′ of the image corresponding to “record 1”, the thumbnail image B ′ of the image corresponding to “record 2”,..., The thumbnail image of the image corresponding to “record n” N ′ is displayed in the thumbnail image display field 54.

次に、サムネイル画像表示欄54に表示されたサムネイル画像の中から、ユーザが閲覧したいサムネイル画像が選択される。例えば、ユーザはサムネイル画像A´を閲覧したい場合、サムネイル画像表示欄54を見ながらマウスを操作し、カーソルをサムネイル画像A´上の位置に移動させてサムネイル画像A´をクリックする。   Next, a thumbnail image that the user wants to browse is selected from the thumbnail images displayed in the thumbnail image display field 54. For example, when viewing the thumbnail image A ′, the user operates the mouse while looking at the thumbnail image display field 54, moves the cursor to a position on the thumbnail image A ′, and clicks the thumbnail image A ′.

サムネイル画像A´がクリックされると、CPU10は、サムネイル画像A´の元画像である画像Aを評価対象画像と特定し、画像Aを画像表示欄52に表示させる(ステップS29)。   When the thumbnail image A ′ is clicked, the CPU 10 identifies the image A, which is the original image of the thumbnail image A ′, as an evaluation target image, and displays the image A in the image display field 52 (step S29).

次に、CPU10は、「レコード1」、「レコード2」〜「レコードn」から、撮影地点の位置情報を検出し、これらの位置情報が含まれる所定の範囲の地図データを地図データベース24から読み出す。そして、地図データに基づく地図を地図表示欄60に表示させ(ステップS30)、位置情報に基づく撮影地点を、例えば×印等で地図上の対応する位置に重ねて表示させる。これにより、ユーザは、「桜、富士山」というキーワードで検索された画像の撮影地点を容易に認識することができる。次に、CPU10は、地図上における画像Aの撮影地点に、画像Aが画像表示欄52に表示されていることを示すマーク69を丸印で表示させる。   Next, the CPU 10 detects the position information of the shooting point from “record 1”, “record 2” to “record n”, and reads out map data in a predetermined range including the position information from the map database 24. . Then, a map based on the map data is displayed on the map display field 60 (step S30), and a shooting location based on the position information is displayed in an overlapping manner at a corresponding position on the map with, for example, an X mark. Thereby, the user can easily recognize the shooting point of the image searched with the keyword “sakura, Mt. Fuji”. Next, the CPU 10 causes a mark 69 indicating that the image A is displayed in the image display field 52 to be displayed as a circle at the shooting location of the image A on the map.

次に、CPU10は、評価検索部13により、画像Aに加算する評価点数を決定する(ステップS31)。ここで、画像Aには、「桜」、「富士山」の被写体像が含まれるため、CPU10は、点数記憶部19から、「桜」に対応するキーワード点数5点、及び「富士山」に対応するキーワード点数4点を読み出す。なお、キーワード点数は、画像Aが投稿された際の点数から更新されていないものと仮定する。また、画像Aに含まれる「桜」、「富士山」の被写体像については、改めてキーワード生成部16を用いて認識し、対応するキーワードを生成してもよい。また、画像Aに対応する「レコード1」を参照することにより、画像Aに含まれる「桜」、「富士山」の被写体像に対応するキーワードを認識してもよい。   Next, CPU10 determines the evaluation score added to the image A by the evaluation search part 13 (step S31). Here, since the image A includes subject images of “sakura” and “mountain”, the CPU 10 corresponds to the keyword score of 5 points corresponding to “sakura” and “mountain” from the score storage unit 19. Read 4 keyword scores. It is assumed that the keyword score is not updated from the score when the image A is posted. Further, the subject images of “Sakura” and “Mt. Fuji” included in the image A may be recognized again by using the keyword generation unit 16 and corresponding keywords may be generated. Further, by referring to “Record 1” corresponding to the image A, keywords corresponding to the subject images of “Sakura” and “Mt. Fuji” included in the image A may be recognized.

次に、CPU10は、画像が閲覧された際に加算する閲覧ウエイト点数として、それぞれのキーワード点数に例えば1点ずつを加算する。なお、閲覧ウエイト点数は投稿ウエイト点数よりも低い点数に設定されている。これにより、「桜」の評価点数は6点(キーワード点数5点+閲覧ウエイト点数1点)、「富士山」の評価点数は5点(キーワード点数4点+閲覧ウエイト点数1点)と決定される。   Next, the CPU 10 adds, for example, one point to each keyword score as a browsing weight score to be added when the image is browsed. The browsing weight score is set lower than the posting weight score. As a result, the evaluation score of “Sakura” is determined to be 6 points (5 keyword points + 1 browsing weight score), and the evaluation score of “Mt. Fuji” is determined to be 5 points (4 keyword scores + 1 browsing weight score). .

次に、CPU10は、評価検索部13により、「レコード1」に既に記録されている評価点数に、ステップS31で決定した新たな評価点数を加算する(ステップS32)。即ち、図5に示す「評価点数1」に新たな評価点数6点を加算し、現在の「7点」を「13点」に更新する。同様に、「評価点数2」に新たな評価点数5点を加算し、現在の「6点」を「11点」に更新する。また、CPU10は、「レコード1」の「最終アクセス日」を更新する。   Next, the CPU 10 adds the new evaluation score determined in step S31 to the evaluation score already recorded in “record 1” by the evaluation search unit 13 (step S32). That is, a new evaluation score of 6 is added to the “evaluation score of 1” shown in FIG. 5, and the current “7 points” is updated to “13 points”. Similarly, a new evaluation score of 5 points is added to “evaluation score of 2”, and the current “6 points” is updated to “11 points”. Further, the CPU 10 updates the “last access date” of “record 1”.

次に、CPU10は、更新されたキーワードごとの評価点数を評価点数表示欄64に表示させる(ステップS33)。例えば、図4に示すように、「桜 評価点数 13点」、「富士山 評価点数 11点」のように表示させる。これにより、ユーザは、現在の画像Aに写っている被写体像ごとの評価点数を容易に認識することができる。   Next, the CPU 10 displays the updated evaluation score for each keyword in the evaluation score display column 64 (step S33). For example, as shown in FIG. 4, “Sakura evaluation score 13 points” and “Mt. Fuji evaluation score 11 points” are displayed. Thus, the user can easily recognize the evaluation score for each subject image shown in the current image A.

この実施の形態に係る画像評価システム2によれば、画像データに含まれる被写体像に対応するキーワードが生成され、生成されたキーワードごとに評価点数が決定されるため、的確に画像を評価することができる。また、画像評価サーバ4によって提供される画像評価サイトで画像が検索された場合には、並行して外部検索サイト9での画像検索も実行されるため、更に外部検索サイト9で検索された画像を評価対象とすることができる。   According to the image evaluation system 2 according to this embodiment, a keyword corresponding to a subject image included in image data is generated, and an evaluation score is determined for each generated keyword. Can do. In addition, when an image is searched on the image evaluation site provided by the image evaluation server 4, an image search on the external search site 9 is also executed in parallel. Can be evaluated.

また、新規に投稿された画像と、外部検索サイト9から取得された画像とを同一のアルゴリズムで評価するため、客観的な画像評価が可能となる。また、外部検索サイト9においてランキング上位の画像のレコードをリンクテーブル80に記録するため、リンクテーブル80には人気の高い有用な画像のレコードが蓄積される。また、画像の検索が行われる度に、外部検索サイト9から取得された画像のレコードを順次リンクテーブル80に蓄積して行くことにより、短時間で効率的に膨大な数のレコードが記録されたリンクテーブル80を完成させることができる。なお、リンクテーブル80が完成した場合、画像評価サイトで画像が検索された際に、並行して外部検索サイト9で画像検索を行う必要はなく、画像評価サイトのみで画像の検索及び閲覧を完結させることができる。   Further, since the newly posted image and the image acquired from the external search site 9 are evaluated using the same algorithm, objective image evaluation is possible. In addition, since the record of the image with the highest ranking is recorded in the link table 80 in the external search site 9, a record of a useful image having a high popularity is stored in the link table 80. In addition, every time an image is searched, the image records acquired from the external search site 9 are sequentially stored in the link table 80, so that a huge number of records are efficiently recorded in a short time. The link table 80 can be completed. When the link table 80 is completed, there is no need to perform an image search at the external search site 9 in parallel when an image is searched at the image evaluation site, and the image search and browsing is completed only at the image evaluation site. Can be made.

また、キーワード点数は、検索ランキングに基づいて適宜更新されるため、現在における画像の人気を反映させた評価を行うことができる。また、投稿ウエイト点数を閲覧ウエイト点数よりも高く設定することにより、新規に投稿され、まだ閲覧されていない画像の評価点数が不当に低くならないようにすることができる。また、端末8の表示部のサイズに応じて画像データの解像度を調整するため、端末8側のデータ受信量を低下させることができ、画像の表示処理速度を速くすることができる。   In addition, since the keyword score is appropriately updated based on the search ranking, it is possible to perform an evaluation reflecting the popularity of the current image. In addition, by setting the posting weight score higher than the browsing weight score, it is possible to prevent the evaluation score of an image newly posted and not browsed from being unduly lowered. Further, since the resolution of the image data is adjusted according to the size of the display unit of the terminal 8, the data reception amount on the terminal 8 side can be reduced, and the image display processing speed can be increased.

なお、上述の実施形態において、リンクテーブル80内のレコードに記録されている「最終アクセス日」が所定の時間以上更新されない場合、レコードに記録されている評価点数を所定の点数減点してもよい。例えば、図5に示す「レコード1」の「最終アクセス日」が1年間更新されない場合、「桜、7点」、及び「富士山、6点」の評価点数をそれぞれ5点ずつ減点し、「桜、2点」、及び「富士山、1点」に変更する。そして、「レコード1」に記録されている各キーワードの評価点数の合計(ここでは3点(2点+1点))が所定の評価点数(例えば4点)を下回った場合、そのレコードをリンクテーブル80から削除してもよい。これにより、評価がなされず、人気のない画像のレコードは定期的に削除される。なお、「最終アクセス日」が更新されたか否かについては、例えば、数か月に一度のペースで判定される。   In the above-described embodiment, when the “last access date” recorded in the record in the link table 80 is not updated for a predetermined time or more, the evaluation score recorded in the record may be deducted by a predetermined score. . For example, if the “Last Access Date” of “Record 1” shown in FIG. 5 is not updated for one year, the evaluation points of “Sakura, 7 points” and “Mt. Fuji, 6 points” will be decremented by 5 points respectively. “2 points” and “Mt. Fuji, 1 point”. If the total evaluation score of each keyword recorded in “record 1” (here, 3 points (2 points + 1 point)) falls below a predetermined evaluation score (for example, 4 points), the record is stored in the link table. You may delete from 80. Thereby, the evaluation is not performed, and the record of the unpopular image is periodically deleted. Whether or not the “last access date” has been updated is determined at a pace of once every several months, for example.

また、上述の実施形態において、外部検索サイト9で画像の検索が行われた際、検索された画像の画像データと共に、画像のスコアに関する情報を受信し、受信したスコアに関する情報を用いて画像評価を行ってもよい。   In the above-described embodiment, when an image search is performed at the external search site 9, information related to the image score is received together with image data of the searched image, and image evaluation is performed using the received information related to the score. May be performed.

例えば、ユーザが、「東京タワー」というキーワードで検索を行ったとする。この場合、評価検索部13は、まず画像評価サーバ4において、リンクテーブル80から「東京タワー」というキーワードが記録されているレコードを検索する。そして、東京タワーの評価点数として、例えば、「25点」が記録されたレコードX(図示せず)、「10点」が記録されたレコードY(図示せず)、「8点」が記録されたレコードZ(図示せず)、…、のように評価点数の高い順にレコードを抽出する。ここで、レコードX〜Zには、東京タワー以外の評価点数は記録されていないものと仮定する。   For example, assume that the user performs a search using the keyword “Tokyo Tower”. In this case, the evaluation search unit 13 first searches the image evaluation server 4 for a record in which the keyword “Tokyo Tower” is recorded from the link table 80. As the evaluation score of Tokyo Tower, for example, record X (not shown) in which “25 points” is recorded, record Y (not shown) in which “10 points” are recorded, and “8 points” are recorded. Records Z (not shown),... Are extracted in descending order of evaluation score. Here, it is assumed that evaluation scores other than Tokyo Tower are not recorded in the records X to Z.

次に、評価検索部13は、外部検索サイト9において、「東京タワー」というキーワードで画像を検索する。そして、検索された画像の中から、スコアのランキングが高い(例えば、上位30位以上)の画像の画像データをネットワーク6を介して取得する。例えば、スコア「100点」の画像αの画像データ、スコア「80点」の画像βの画像データ、スコア「60点」の画像γの画像データ、…、のように、ランキングが上位の画像の画像データをスコアに関する情報と共に取得する。   Next, the evaluation search unit 13 searches the external search site 9 for an image using the keyword “Tokyo Tower”. Then, image data of an image having a high score ranking (for example, the top 30 or more) is acquired from the searched images via the network 6. For example, the image data of the image α with the score “100 points”, the image data of the image β with the score “80 points”, the image data of the image γ with the score “60 points”,... Obtain image data along with information about the score.

次に、評価検索部13は、ネットワーク6を介して取得したスコアを、リンクテーブル80に記録されている評価点数に合わせて調整する。例えば、画像αのスコア「100点」(スコアのランキング1位)をレコードXに記録されている「25点」(評価点数のランキング1位)に合わせ、画像αのスコア「100点」を1/4の点数である「25点」に変更する。そして、これに合わせて、ランキング2位以下のスコアも1/4を乗じた点数に変更する。この場合、画像βのスコア「20点」、画像γのスコア「12点」、…、のように変更される。   Next, the evaluation search unit 13 adjusts the score acquired via the network 6 in accordance with the evaluation score recorded in the link table 80. For example, the score “100 points” of image α (score ranking first) is matched with “25 points” recorded in record X (first ranking evaluation score), and the score “100 points” of image α is set to 1. It is changed to “25 points” which is a score of / 4. In accordance with this, the score of ranking 2nd or lower is also changed to a score multiplied by 1/4. In this case, the score of the image β is changed to “20 points”, the score of the image γ is “12 points”,.

次に、画像評価サーバ4のCPU10は、レコードX〜Z、…、に記録されている評価点数と、画像α〜γ、…、の変更後のスコアとを比較する。そして、スコアの値が評価点数の値以上である場合、そのスコアに対応する画像のレコードを作成し、リンクテーブル80に追加する。   Next, the CPU 10 of the image evaluation server 4 compares the evaluation score recorded in the records X to Z,... With the score after the change of the images α to γ,. If the score value is equal to or greater than the evaluation score value, an image record corresponding to the score is created and added to the link table 80.

例えば、画像αの変更後のスコア「25点」(スコアのランキング1位)はレコードXに記録されている「25点」(評価点数のランキング1位)と同点であるため、CPU10は、画像αの「レコードα」を作成する。そして、スコア「25点」に投稿ウエイト点数2点を加算し、「キーワード、評価点数」として「東京タワー、27点」が記録された画像αの「レコードα」をリンクテーブル80に追加する。   For example, since the score “25 points” (first ranking in the score) after the change of the image α is the same as “25 points” (first ranking in the evaluation score) recorded in the record X, the CPU 10 Create “Record α” of α. Then, the posting weight score of 2 points is added to the score “25 points”, and “record α” of the image α in which “Tokyo Tower, 27 points” is recorded as “keyword, evaluation score” is added to the link table 80.

同様に、画像βの変更後のスコア「20点」(スコアのランキング2位)はレコードYに記録されている「10点」(評価点数のランキング2位)以上であるため、CPU10は、画像βの「レコードβ」を作成する。そして、スコア「20点」に投稿ウエイト点数2点を加算し、「キーワード、評価点数」として「東京タワー、22点」が記録された画像βの「レコードβ」をリンクテーブル80に追加する。なお、画像γの変更後のスコア「12点」(スコアのランキング3位)はレコードZに記録されている「8点」(評価点数のランキング3位)よりも低いため、画像γのレコードは作成されない。   Similarly, since the score “20 points” (second score ranking) after the change of the image β is equal to or higher than “10 points” (second ranking evaluation score) recorded in the record Y, the CPU 10 Create “Record β” of β. Then, 2 posting weight points are added to the score “20 points”, and “record β” of the image β in which “Tokyo Tower, 22 points” is recorded as “keyword, evaluation score” is added to the link table 80. Since the score “12 points” (score ranking 3rd) after the change of the image γ is lower than “8 points” (ranking ranking 3rd in the evaluation score) recorded in the record Z, the record of the image γ is Not created.

このように、外部検索サイト9で検索された画像の評価点数を決定する際に、外部検索サイト9において算出されたスコアを利用することにより、画像データを用いてキーワードを生成しなくても、外部検索サイト9で検索された画像に対応するレコードを容易に作成することができる。なお、画像のスコアとしては、例えば、Google AdWords(登録商標)で検索が行われた場合、画像評価サーバ4は、検索結果として得られた品質スコアを受信するようにしてもよい。また、スコアを利用する場合において、キーワード生成部16によるキーワード生成を併せて行ってもよい。   Thus, when determining the evaluation score of the image searched on the external search site 9, by using the score calculated on the external search site 9, it is possible to generate keywords without using image data. Records corresponding to images searched on the external search site 9 can be easily created. In addition, as a score of an image, for example, when a search is performed using Google AdWords (registered trademark), the image evaluation server 4 may receive a quality score obtained as a search result. Moreover, when using a score, you may perform keyword generation by the keyword production | generation part 16 collectively.

また、上述の実施形態のステップS24において、ユーザが入力したキーワードとキーワード生成部16により生成されたキーワードが異なる場合、ステップS23で受信した画像データに関するレコードを作成しなくてもよい。例えば、ユーザが「桜」、「富士山」をキーワードとして検索を行い、外部検索サイト9からランキングが上位30位以内の画像の画像データが取得されたとする。このうち、画像データKからは、「自動車」というキーワードのみが生成され、「桜」、「富士山」のキーワードが生成されなかったとする。このような場合、CPU10は、画像データKに関するレコードを作成しないようにしてもよい。   Moreover, in step S24 of the above-described embodiment, when the keyword input by the user is different from the keyword generated by the keyword generation unit 16, it is not necessary to create a record relating to the image data received in step S23. For example, it is assumed that the user performs a search using “sakura” and “Mt. Fuji” as keywords, and image data of images with the ranking within the top 30 is acquired from the external search site 9. Of these, from the image data K, only the keyword “automobile” is generated, and the keywords “sakura” and “Mt. Fuji” are not generated. In such a case, the CPU 10 may not create a record relating to the image data K.

また、上述の実施形態において、ユーザが画像を投稿する際に画像のコメントを入力できるようにしてもよい。この場合、CPU10は、投稿された画像に対応するレコードにコメント自体を記録する。そして、この画像が閲覧され、画像表示欄52に表示された際に、図4に示すように、コメント表示欄66にコメントを表示する。また、レコードを作成する際に、評価検索部13により、コメントに含まれるキーワードに対応するキーワード点数を点数記憶部19から読み出し、キーワード点数に投稿ウエイト点数を加算した点数を評価点数としてレコードに記録してもよい。このように、コメントからキーワードを読み出すことにより、ユーザが意図した被写体に対応するキーワードを精度よく抽出することができる。   Moreover, in the above-mentioned embodiment, when a user submits an image, a comment of the image may be input. In this case, the CPU 10 records the comment itself in a record corresponding to the posted image. Then, when this image is browsed and displayed in the image display field 52, a comment is displayed in the comment display field 66 as shown in FIG. When creating a record, the evaluation retrieval unit 13 reads the keyword score corresponding to the keyword included in the comment from the score storage unit 19 and records the score obtained by adding the posted weight score to the keyword score as the evaluation score. May be. Thus, by reading out a keyword from a comment, it is possible to accurately extract a keyword corresponding to the subject intended by the user.

また、上述の実施形態において、交通費表示欄68に交通費に関する情報を表示させてもよい。例えば、画像が画像表示欄52に表示された際に、CPU10は、GPS34による端末8の現在位置情報を取得する。次に、CPU10は、地図データに含まれる交通網を参照することにより、端末8の現在位置から撮影地点までの経路を検索する。次に、CPU10は、交通費データベース26を参照することにより、検索した各経路を利用した場合における、現在位置から撮影地点まで交通費を算出し、図4に示すように、経路ごとの交通費を交通費表示欄68に表示する。   In the above-described embodiment, information related to transportation expenses may be displayed in the transportation expense display column 68. For example, when an image is displayed in the image display field 52, the CPU 10 acquires current position information of the terminal 8 by the GPS 34. Next, the CPU 10 searches for a route from the current position of the terminal 8 to the shooting point by referring to the traffic network included in the map data. Next, the CPU 10 refers to the transportation cost database 26 to calculate a transportation cost from the current position to the shooting point when each searched route is used. As shown in FIG. 4, the transportation cost for each route is calculated. Is displayed in the transportation cost display column 68.

次に、ユーザにより、所定の経路、交通費が選択されると、CPU10は、交通費表示欄68の近傍に、その経路を選択した場合にかかる時間や乗換情報等の詳細を表示させる。これにより、ユーザは、評価した画像の撮影地点までの経路や交通費を容易に知ることができる。   Next, when a predetermined route and transportation cost are selected by the user, the CPU 10 displays details such as time and transfer information required when the route is selected in the vicinity of the transportation cost display column 68. Thereby, the user can easily know the route to the shooting point of the evaluated image and the transportation cost.

また、上述の実施の形態において、図8の左側に示すように、画像に対する評価点数の大きさに応じて地図上に表示されるマーク69の大きさを変化させるようにしてもよい。例えば、図4に示すように、評価点数表示欄64に表示されている評価点数の合計が24点(13点+11点)である場合であれば、評価点数表示欄64に表示する評価点数の合計が13点(7点+6点)である場合よりも地図表示欄60に表示されるマーク69を大きくする。   In the above-described embodiment, as shown on the left side of FIG. 8, the size of the mark 69 displayed on the map may be changed according to the size of the evaluation score for the image. For example, as shown in FIG. 4, if the total of the evaluation scores displayed in the evaluation score display field 64 is 24 points (13 points + 11 points), the evaluation score displayed in the evaluation score display field 64 The mark 69 displayed in the map display column 60 is made larger than when the total is 13 points (7 points + 6 points).

また、図8の右側に示すように、交通費の金額の高さに応じて、交通費表示欄68に表示する経路の色を変更してもよい。例えば、図4に示すように、交通費表示欄68に「経路1:交通費1500円」、「経路2:交通費1000円」、「経路3:交通費900円」3通りの経路が表示されていたとする。この場合、「経路1:交通費1500円」を赤色で表示し、「経路2:交通費1000円」を黄色で表示し、「経路3:交通費900円」を青色で表示する。これにより、ユーザは、評価した画像の撮影地点に行く価値があるかないかを容易に判断することができる。   Further, as shown on the right side of FIG. 8, the color of the route displayed in the transportation expense display column 68 may be changed according to the amount of transportation expense. For example, as shown in FIG. 4, three routes of “route 1: transportation cost 1500 yen”, “route 2: transportation cost 1000 yen”, and “path 3: transportation cost 900 yen” are displayed in the transportation cost display field 68. Suppose that it was done. In this case, “route 1: transportation cost 1500 yen” is displayed in red, “path 2: transportation cost 1000 yen” is displayed in yellow, and “path 3: transportation cost 900 yen” is displayed in blue. Thereby, the user can easily determine whether it is worth going to the shooting point of the evaluated image.

また、上述の実施形態において、所定の時間内に連続してサムネイル画像がクリックされた場合(例えば、ダブルクリックされた場合)には、その画像を評価しないようにしてもよい。これにより、操作ミスなどにより誤って画像が評価されることを防止することができる。   In the above-described embodiment, when a thumbnail image is continuously clicked within a predetermined time (for example, when double-clicked), the image may not be evaluated. Thereby, it is possible to prevent an image from being erroneously evaluated due to an operation mistake or the like.

また、上述の実施形態において、図4に示す緊急GPSボタン58が操作された場合、端末8はGPS34により端末8の現在位置情報を取得し、現在位置を含む所定の範囲の地図や航空写真を画像表示欄52に表示させるようにしてもよい。そして、地図上の対応する位置に現在の自己位置を示すマークを表示してもよい。   In the above embodiment, when the emergency GPS button 58 shown in FIG. 4 is operated, the terminal 8 acquires the current position information of the terminal 8 by the GPS 34, and displays a map or aerial photograph in a predetermined range including the current position. You may make it display on the image display column 52. FIG. And you may display the mark which shows the present self position in the corresponding position on a map.

また、上述の実施の形態において、地図表示欄60に地図を表示する場合、地図上に重ねて表示する撮影地点の密集度合いに応じて地図の表示範囲を調整するようにしてもよい。ここで、撮影地点の密集度合いについては、例えば次のように決定する。まず、画像表示欄52に表示されている画像の撮影地点と、地図上に表示されているそれ以外の撮影地点の距離の差分値を算出する。次に、差分値に基づいて分散値を算出し、分散値の大きさに応じて密集度合いを決定する。これにより、図9(a)に示すように、地図上に表示された撮影地点が密集した場合、図9(b)に示すように、地図の表示範囲を修正し、適正な密集度合いで撮影地点を地図上に表示させることができる。   Further, in the above-described embodiment, when a map is displayed in the map display field 60, the display range of the map may be adjusted according to the degree of congestion of the shooting spots displayed on the map. Here, the degree of crowding of the shooting points is determined as follows, for example. First, a difference value between the shooting point of the image displayed in the image display field 52 and the other shooting point displayed on the map is calculated. Next, a variance value is calculated based on the difference value, and the degree of congestion is determined according to the size of the variance value. As a result, as shown in FIG. 9 (a), when the shooting points displayed on the map are dense, as shown in FIG. 9 (b), the display range of the map is corrected and photographed with an appropriate degree of congestion. The point can be displayed on the map.

また、上述の実施の形態において、地図表示欄60に表示された撮影地点をユーザが選択することにより、選択された撮影地点の画像を画像表示欄52に表示させるようにしてもよい。例えば、画像表示欄52に画像Aが表示され、マーク69が画像Aの撮影地点に表示されていたとする。ここで、図10(a)に示すように、地図表示欄60において、ユーザがマーク69を画像Bの撮影地点に移動させると、図10(b)に示すように、画像表示欄52に画像Bが表示される。   Further, in the above-described embodiment, the user may select the shooting point displayed in the map display field 60 so that the image at the selected shooting point is displayed in the image display field 52. For example, it is assumed that the image A is displayed in the image display field 52 and the mark 69 is displayed at the shooting point of the image A. Here, as shown in FIG. 10A, when the user moves the mark 69 to the shooting point of the image B in the map display field 60, the image is displayed in the image display field 52 as shown in FIG. B is displayed.

また、上述の実施の形態においては、図4に示すように、表示面のサイズが大きいパソコン等にサイト画面50を表示させる場合を想定しているが、表示面のサイズが小さいデジタルカメラ、スマートフォン、タブレット端末、携帯電話等が端末8として用いられる場合には、図11に示すようなサイト画面100を表示させてもよい。ここで、サイト画面100には、サイト画面50と同様に、サムネイル画像表示欄54、評価対象とされた画像を表示する画像表示欄52、画像を投稿する際に操作される投稿ボタン56、地図データに基づく地図を表示する地図表示欄60、画像を検索する際にキーワードを入力するキーワード入力欄62が含まれる。   Further, in the above-described embodiment, as shown in FIG. 4, it is assumed that the site screen 50 is displayed on a personal computer or the like having a large display surface. When a tablet terminal, a mobile phone or the like is used as the terminal 8, a site screen 100 as shown in FIG. 11 may be displayed. Here, in the same manner as the site screen 50, the site screen 100 includes a thumbnail image display field 54, an image display field 52 for displaying an image to be evaluated, a post button 56 operated when posting an image, a map A map display field 60 for displaying a map based on the data and a keyword input field 62 for inputting a keyword when searching for an image are included.

また、上述の実施の形態において、画像評価サーバ4が地図データ記憶部29を備えず、画像評価処理を行う際に、CPU20がネットワーク6を介して所定の地図サイト等から地図データを取得してもよい。同様に、地図データに含まれる交通網に対応する交通費についても、地図データを取得する際にネットワーク6を介して取得してもよい。   In the above-described embodiment, when the image evaluation server 4 does not include the map data storage unit 29 and performs image evaluation processing, the CPU 20 acquires map data from a predetermined map site or the like via the network 6. Also good. Similarly, the transportation cost corresponding to the transportation network included in the map data may be acquired via the network 6 when the map data is acquired.

また、上述の実施の形態において、キーワード生成部16に内蔵されている画像分類ソフトや、その他、評価検索部13、解像度変換部18に内蔵されている所定のソフトは、適宜バージョンアップされる。   In the above-described embodiment, the image classification software built in the keyword generation unit 16 and other predetermined software built in the evaluation search unit 13 and the resolution conversion unit 18 are upgraded as appropriate.

2…画像評価システム、4…画像評価サーバ、6…ネットワーク、8…端末、9…外部検索サイト、10…CPU、12…通信部、14…個人情報記憶部、16…キーワード生成部、18…解像度変換部、19…点数記憶部、20画像データベース、22情報データベース、地図データベース24、交通費データベース26、30…CPU、34…GPS、38…LCD表示部、41…撮像素子、42…メモリカード DESCRIPTION OF SYMBOLS 2 ... Image evaluation system, 4 ... Image evaluation server, 6 ... Network, 8 ... Terminal, 9 ... External search site, 10 ... CPU, 12 ... Communication part, 14 ... Personal information storage part, 16 ... Keyword generation part, 18 ... Resolution conversion unit, 19 ... score storage unit, 20 image database, 22 information database, map database 24, transportation cost database 26, 30 ... CPU, 34 ... GPS, 38 ... LCD display unit, 41 ... image sensor, 42 ... memory card

Claims (12)

画像データを取得する画像取得部と、
前記画像データに含まれる少なくとも一つの被写体像に対応するキーワードを取得するキーワード取得部と、
前記キーワード取得部により取得した前記キーワードごとの前記画像取得部により前記画像データを取得した場合における評価点数を決定する決定部と、
前記決定部により決定した前記キーワードごとの前記評価点数を、前記画像データに関連付けて記録する記録部と
を備えることを特徴とする画像評価サーバ。
An image acquisition unit for acquiring image data;
A keyword acquisition unit for acquiring a keyword corresponding to at least one subject image included in the image data;
A determination unit that determines an evaluation score when the image data is acquired by the image acquisition unit for each of the keywords acquired by the keyword acquisition unit;
An image evaluation server comprising: a recording unit that records the evaluation score for each of the keywords determined by the determination unit in association with the image data.
前記画像データに基づく画像の中から、評価対象画像を特定する特定部を備え、
前記キーワード取得部は、前記評価対象画像の前記画像データに含まれる少なくとも一つの前記被写体像に対応する前記キーワードを取得し、
前記決定部は、前記キーワード取得部により取得した前記キーワードごとの前記特定部により前記評価対象画像が特定された場合における評価点数を決定し、
前記記録部は、前記決定部により決定した前記キーワードごとの評価点数を、前記記録部に既に記録されている前記評価点数に加算することを特徴とする請求項1記載の画像評価サーバ。
A specifying unit for specifying an evaluation target image from images based on the image data,
The keyword acquisition unit acquires the keyword corresponding to at least one of the subject images included in the image data of the evaluation target image,
The determining unit determines an evaluation score when the evaluation target image is specified by the specifying unit for each keyword acquired by the keyword acquiring unit,
The image evaluation server according to claim 1, wherein the recording unit adds the evaluation score for each keyword determined by the determination unit to the evaluation score already recorded in the recording unit.
入力された入力キーワードを用いて画像を検索する検索部と、
前記決定部により前記キーワードごとの前記評価点数が決定される際に参照される前記キーワードごとのキーワード点数を記憶する点数記憶部と、
前記検索部による検索結果に基づいて前記点数記憶部に記憶されている前記キーワード点数を変更させる変更部と
を備えることを特徴とする請求項1または2記載の画像評価サーバ。
A search unit for searching for an image using the input keyword,
A score storage unit for storing a keyword score for each keyword referred to when the evaluation score for each keyword is determined by the determination unit;
The image evaluation server according to claim 1, further comprising: a changing unit that changes the keyword score stored in the score storage unit based on a search result by the search unit.
前記検索部による検索が行われた場合において、外部の画像検索サイトに前記入力キーワードを用いた画像検索を指示する検索指示部を備え、
前記画像取得部は、前記外部の画像検索サイトで検索された画像の前記画像データを取得することを特徴とする請求項3記載の画像評価サーバ。
A search instruction unit for instructing an image search using the input keyword to an external image search site when a search is performed by the search unit;
The image evaluation server according to claim 3, wherein the image acquisition unit acquires the image data of an image searched at the external image search site.
前記画像取得部は、前記外部の画像検索サイトで検索された画像に関連付けられているスコアを取得し、
前記決定部は、前記スコアを用いて前記キーワードごとの前記評価点数を決定することを特徴とする請求項4記載の画像評価サーバ。
The image acquisition unit acquires a score associated with an image searched on the external image search site,
The image evaluation server according to claim 4, wherein the determination unit determines the evaluation score for each of the keywords using the score.
前記決定部は、前記画像取得部により前記画像データを取得した場合における前記評価点数を、前記特定部により前記評価対象画像が特定された場合における前記評価点数よりも高く決定することを特徴とする請求項2〜5の何れか一項に記載の画像評価サーバ。   The determination unit determines the evaluation score when the image data is acquired by the image acquisition unit to be higher than the evaluation score when the evaluation target image is specified by the specifying unit. The image evaluation server as described in any one of Claims 2-5. 前記画像データが取得された日時、及び前記評価対象画像が特定された日時の少なくとも一方を前記評価点数と関連付けて前記記録部に記録させる日時記録部と、
前記記録部に記録された日時から所定の時間が経過した場合に、前記記録部に記録されている前記評価点数を所定の点数減点する減点部と、
前記減点部による減点の結果、前記評価点数が所定の評価点数以下になった場合に、前記評価点数と関連付けられている前記画像データに関する記録を前記記録部から削除する削除部と
を備えることを特徴とする請求項2〜6の何れか一項に記載の画像評価サーバ。
A date and time recording unit that causes the recording unit to record at least one of the date and time when the image data was acquired and the date and time when the evaluation target image was specified;
When a predetermined time has elapsed from the date and time recorded in the recording unit, a deduction unit for deducting a predetermined score from the evaluation score recorded in the recording unit;
And a deletion unit that deletes a record related to the image data associated with the evaluation score from the recording unit when the evaluation score is equal to or lower than a predetermined evaluation score as a result of the deduction by the deduction unit. The image evaluation server according to any one of claims 2 to 6, wherein the image evaluation server is characterized in that
前記画像データに基づく画像をユーザが閲覧する際に用いる端末から前記端末の種別に関する情報を取得する種別取得部と、
前記種別取得部により取得された前記端末の種別に応じて前記画像データの解像度を調節する調節部を備え、
前記調節部により所定の解像度に調節された前記画像データに基づく画像を前記端末の表示部に表示させることを特徴とする請求項1〜7の何れか一項に記載の画像評価サーバ。
A type acquisition unit that acquires information about the type of the terminal from a terminal used when a user browses an image based on the image data;
An adjustment unit that adjusts the resolution of the image data according to the type of the terminal acquired by the type acquisition unit;
The image evaluation server according to claim 1, wherein an image based on the image data adjusted to a predetermined resolution by the adjustment unit is displayed on a display unit of the terminal.
地図データを取得する地図取得部を備え、
前記記録部には、前記画像データに基づく画像の撮影位置情報が記録され、
前記画像データに基づく画像をユーザが閲覧する際に用いる端末の表示部において、前記地図上に前記撮影位置を表示させることを特徴とする請求項1〜7の何れか一項に記載の画像評価サーバ。
A map acquisition unit that acquires map data
In the recording unit, shooting position information of an image based on the image data is recorded,
The image evaluation according to claim 1, wherein the shooting position is displayed on the map in a display unit of a terminal used when a user browses an image based on the image data. server.
前記撮影位置の密集度合いに応じて前記表示部に表示させる地図の縮尺を変更する縮尺変更部を備えることを特徴とする請求項9記載の画像評価サーバ。   The image evaluation server according to claim 9, further comprising a scale changing unit that changes a scale of a map displayed on the display unit in accordance with a degree of density of the photographing positions. 前記地図上において、前記評価対象画像の前記撮影位置を示すマークを表示させ、
前記マークの大きさを前記評価点数の大きさに応じて変更することを特徴とする請求項9または10記載の画像評価サーバ。
On the map, a mark indicating the shooting position of the evaluation target image is displayed,
The image evaluation server according to claim 9 or 10, wherein a size of the mark is changed according to a size of the evaluation score.
地図データを取得する地図取得部を備え、
前記画像データに基づく画像をユーザが閲覧する際に用いる端末の表示部において、GPSにより測位された前記端末の位置を前記地図上に表示させることを特徴とする請求項1〜7の何れか一項に記載の画像評価サーバ。
A map acquisition unit that acquires map data
The display unit of a terminal used when a user browses an image based on the image data displays a position of the terminal measured by GPS on the map. The image evaluation server according to item.
JP2013153478A 2013-07-24 2013-07-24 Image evaluation server Pending JP2015026105A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013153478A JP2015026105A (en) 2013-07-24 2013-07-24 Image evaluation server

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013153478A JP2015026105A (en) 2013-07-24 2013-07-24 Image evaluation server

Publications (1)

Publication Number Publication Date
JP2015026105A true JP2015026105A (en) 2015-02-05

Family

ID=52490750

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013153478A Pending JP2015026105A (en) 2013-07-24 2013-07-24 Image evaluation server

Country Status (1)

Country Link
JP (1) JP2015026105A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6096341B1 (en) * 2016-02-16 2017-03-15 Line株式会社 Display control method, terminal, program, and information processing apparatus
WO2017164288A1 (en) * 2016-03-24 2017-09-28 日本電気株式会社 System, terminal, method, and program for displaying images
JP2020009114A (en) * 2018-07-06 2020-01-16 キヤノン株式会社 Image evaluation device, system, and control method and program for image evaluation device

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6096341B1 (en) * 2016-02-16 2017-03-15 Line株式会社 Display control method, terminal, program, and information processing apparatus
JP2017146743A (en) * 2016-02-16 2017-08-24 Line株式会社 Display control method, terminal, program, and information processing apparatus
WO2017164288A1 (en) * 2016-03-24 2017-09-28 日本電気株式会社 System, terminal, method, and program for displaying images
JPWO2017164288A1 (en) * 2016-03-24 2018-10-18 日本電気株式会社 Image display system, terminal, method and program
JP2020009114A (en) * 2018-07-06 2020-01-16 キヤノン株式会社 Image evaluation device, system, and control method and program for image evaluation device
JP7171275B2 (en) 2018-07-06 2022-11-15 キヤノン株式会社 Image evaluation device, system, control method and program for image evaluation device

Similar Documents

Publication Publication Date Title
JP4914268B2 (en) Search service server information search method.
CN102763404B (en) Camera, information acquiring system and program
US8254727B2 (en) Method and apparatus for providing picture file
JP5467177B2 (en) INFORMATION PROVIDING DEVICE, INFORMATION PROVIDING METHOD, INFORMATION PROVIDING PROCESSING PROGRAM, RECORDING MEDIUM CONTAINING INFORMATION PROVIDING PROCESSING PROGRAM, AND INFORMATION PROVIDING SYSTEM
JP5223034B2 (en) Information providing apparatus, information providing method, information providing processing program, and recording medium on which information providing processing program is recorded
JP6227835B2 (en) Terminal device, server device, and program for recording work state by image
US7007022B2 (en) Digital data searching apparatus and an image display apparatus
US20160140715A1 (en) Information processing apparatus, information processing system, and information processing method
JP2015026105A (en) Image evaluation server
US9977793B2 (en) Information processing system, information processing method, and information processing apparatus
JP2016009450A (en) Information providing system, contributor terminal, viewer terminal, and information disclosure device
JP5272107B2 (en) Information providing apparatus, information providing processing program, recording medium on which information providing processing program is recorded, and information providing method
JP2014063300A (en) Character recognition device, character recognition processing method, and program
US20200302701A1 (en) Terminal device, server device, and computer program for recording states of work as image
JP5708868B1 (en) Program, information processing apparatus and method
JP6591594B2 (en) Information providing system, server device, and information providing method
JP5582453B2 (en) Image management apparatus, image management method, and program
JP6468309B2 (en) Image server
KR20210094396A (en) Application for searching service based on image and searching server therefor
JP5554456B1 (en) Content providing system, content providing apparatus, content browsing terminal, and content browsing program
JP2017201568A (en) Image evaluation server and image evaluation system
CN110447000A (en) Terminal passes through picture searching VR resource
JP6241073B2 (en) Image evaluation server and image evaluation system
JP6136638B2 (en) Image evaluation server
JP2018073022A (en) Facility information transmission method, facility information transmission system, facility information transmission program, facility information transmission apparatus and composite image creation program