JP2016143269A - Content search device, content search method, content storage device and content storage method - Google Patents

Content search device, content search method, content storage device and content storage method Download PDF

Info

Publication number
JP2016143269A
JP2016143269A JP2015019357A JP2015019357A JP2016143269A JP 2016143269 A JP2016143269 A JP 2016143269A JP 2015019357 A JP2015019357 A JP 2015019357A JP 2015019357 A JP2015019357 A JP 2015019357A JP 2016143269 A JP2016143269 A JP 2016143269A
Authority
JP
Japan
Prior art keywords
content
visual content
shooting
search
range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015019357A
Other languages
Japanese (ja)
Other versions
JP6302421B2 (en
Inventor
敬子 栗生
Keiko Kuriu
敬子 栗生
耕世 鈴木
Yasuyo Suzuki
耕世 鈴木
一穂 山田
Kazuo Yamada
一穂 山田
豊治 佐藤
Toyoji Sato
豊治 佐藤
健太 篠原
Kenta Shinohara
健太 篠原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2015019357A priority Critical patent/JP6302421B2/en
Publication of JP2016143269A publication Critical patent/JP2016143269A/en
Application granted granted Critical
Publication of JP6302421B2 publication Critical patent/JP6302421B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Processing Or Creating Images (AREA)

Abstract

PROBLEM TO BE SOLVED: To allow a visual content relevant to a subject of a shooting object to be easily searched for.SOLUTION: A content providing device 3 searching for a visual content comprises: a content DB32 in which shooting range information indicative of a shooting range of the visual content is stored in association with the visual content; a search request reception unit 44 that acquires a collection position serving as a reference upon searching therefor, or acquires a collection range indicative of a specific space, and calculates the collection position from the acquired collection range; and a search execution unit 45 that determines whether the collection position is included in the shooting range of the visual content to be stored in the content DB32, and acquires the visual content included in the shooting range from the content DB32.SELECTED DRAWING: Figure 1

Description

本発明は、写真や映像などの視覚コンテンツを収集・配信するサービスに用いられるコンテンツ検索装置、コンテンツ検索方法、コンテンツ格納装置およびコンテンツ格納方法に関する。   The present invention relates to a content search device, a content search method, a content storage device, and a content storage method used in a service for collecting and distributing visual content such as photographs and videos.

近年、インターネットを用いて社会的な繋がりを構築するソーシャル・ネットワーキング・サービス(SNS:Social Networking Service)の利用が進んでいる。SNSには、写真に付与されたタグ(例えば♯helloween,♯mt.fuji等のメタ情報)やコメント、投稿者名、閲覧名からの反応(Like)といった情報をもとに、閲覧者が求めるコンテンツを提供する機能を有しているもの(例えば、Instagram(登録商標)やFlickr(登録商標))が存在する(図11参照)。上述の機能は、投稿者あるいは閲覧者が明示的に設定した値を用いることにより、簡単な検索機能を実現するものである。これにより、ユーザは、タグ(例えば、♯mt.fujiのメタ情報)を指定して検索を実施することで、指定したタグに該当する視覚コンテンツ(例えば、富士山の画像)を取得することが可能である。   In recent years, social networking services (SNS: Social Networking Service) for building social connections using the Internet have been advanced. In the SNS, viewers ask for information such as tags (meta information such as #helloween, # mt.fuji, etc.) attached to photos, comments, poster names, and responses (like) from browse names. There are those having a function of providing content (for example, Instagram (registered trademark) and Flickr (registered trademark)) (see FIG. 11). The above-described function realizes a simple search function by using a value explicitly set by a poster or a viewer. Thus, the user can acquire visual content (for example, an image of Mt. Fuji) corresponding to the specified tag by performing a search by specifying a tag (for example, meta information of # mt.fuji). It is.

また、従来、現場側から写真と位置と方向と時刻情報とを一組で提供させて、地図上に過去、現在のこれらの現場の写真(観光、工事現場、災害現場)の位置、方向が一目で分かる形式で閲覧者に提供するシステムが開発されていた(特許文献1参照)。これにより、地図上において、過去、現在におけるどの位置から、かつどのような方向に撮影した写真があるかを検索することが可能である。   Conventionally, the location, direction, and time information of the photo, the location, and the time information are provided from the site, and the location and direction of the past and present photos (tourism, construction site, disaster site) of the past and present on the map. A system that provides a viewer with a format that can be seen at a glance has been developed (see Patent Document 1). As a result, it is possible to search from the past and present positions on the map and in what direction the photographed images are.

特開2007−52809号公報JP 2007-52809 A

しかしながら、SNSの検索機能では、ユーザが画像を投稿する際に自らタグを設定する必要がある。その為、タグを設定することは、画像を投稿するユーザにとって手間であるという問題があった。   However, in the search function of SNS, when a user posts an image, it is necessary to set a tag himself. Therefore, there is a problem that setting a tag is troublesome for a user who posts an image.

一方、特許文献1に記載される技術では、過去、現在においてどの位置から、かつどのような方向に撮影した写真があるかを検索するものであるので、被写体単位で写真の検索を行うことができなかった。つまり、この技術では、被写体単位で写真の検索を行うことが想定されていないので、被写体の位置や撮影方向のわずかなずれを適切に指定することが難しいという問題があった。   On the other hand, since the technique described in Patent Document 1 searches for a photograph taken from which position and in what direction in the past and present, it is possible to search for a photograph by subject unit. could not. That is, with this technique, since it is not assumed that a photograph is searched for in units of subjects, there is a problem that it is difficult to appropriately specify a slight shift in the position of the subject and the shooting direction.

本発明は、前記問題に鑑みてなされたものであり、撮影対象である被写体に関連する視覚コンテンツを容易に検索することができる、コンテンツ検索装置、コンテンツ検索方法、コンテンツ格納装置およびコンテンツ格納方法を提供することを課題とする。   The present invention has been made in view of the above problems, and provides a content search device, a content search method, a content storage device, and a content storage method that can easily search visual content related to a subject to be photographed. The issue is to provide.

前記課題を解決するため、本発明に係るコンテンツ検索装置は、視覚コンテンツの検索を行うコンテンツ検索装置であって、前記視覚コンテンツに対応付けて前記視覚コンテンツの撮影範囲を示す撮影範囲情報が記憶される記憶部と、検索する際の基準となる収集位置を取得するか、または特定の空間を示す収集範囲を取得して、取得した前記収集範囲から前記収集位置を算出する検索要求受付部と、前記記憶部に格納される前記視覚コンテンツの撮影範囲に前記収集位置が含まれるか否かを判定し、撮影範囲に含まれる視覚コンテンツを前記記憶部から取得する検索実行部と、を備えることを特徴とする。   In order to solve the above problems, a content search device according to the present invention is a content search device that searches for visual content, and stores shooting range information that indicates a shooting range of the visual content in association with the visual content. And a search request accepting unit that acquires a collection position serving as a reference when searching, or acquires a collection range indicating a specific space, and calculates the collection position from the acquired collection range; A search execution unit that determines whether or not the collection position is included in the shooting range of the visual content stored in the storage unit, and acquires the visual content included in the shooting range from the storage unit. Features.

このようにすることで、本発明に係るコンテンツ検索装置は、視覚コンテンツに対応付けて視覚コンテンツの撮影範囲を示す撮影範囲情報を記憶部に記憶しておく。そして、視覚コンテンツを検索する際に、この撮影範囲情報を用いて視覚コンテンツの撮影範囲に検索する際の基準となる収集位置が含まれるか否かを判定し、撮影範囲に収集位置が含まれる視覚コンテンツを取得(収集)する。その為、本発明に係るコンテンツ検索装置は、視覚コンテンツを撮影した被写体単位で、関連する視覚コンテンツを容易に検索することができる。   By doing so, the content search device according to the present invention stores shooting range information indicating the shooting range of visual content in the storage unit in association with the visual content. Then, when searching for visual content, it is determined whether or not a collection position serving as a reference for searching the visual content shooting range is included using this shooting range information, and the shooting position includes the collection position. Acquire (collect) visual content. Therefore, the content search device according to the present invention can easily search related visual content in units of subjects that have captured the visual content.

また、前記課題を解決するため、本発明に係るコンテンツ検索装置は、前記記憶部に格納される撮影範囲情報が、前記視覚コンテンツの撮影位置、撮影距離、撮影方向と画角とからなる撮影幅を示す情報を含み、前記検索実行部は、前記撮影位置から前記収集位置までの相対距離が前記撮影距離以内であるかを計算すると共に、前記撮影位置から前記収集位置までの相対方向が前記撮影幅以内であるかを計算することで、前記視覚コンテンツの撮影範囲に前記収集位置が含まれるか否かを判定することを特徴とする。   In order to solve the above-described problem, the content search device according to the present invention is configured such that the shooting range information stored in the storage unit includes a shooting position, a shooting distance, a shooting direction, and a field angle of the visual content. The search execution unit calculates whether the relative distance from the shooting position to the collection position is within the shooting distance, and the relative direction from the shooting position to the collection position is the shooting position. It is characterized in that it is determined whether or not the collection position is included in the shooting range of the visual content by calculating whether it is within the width.

このようにすることで、本発明に係るコンテンツ検索装置は、視覚コンテンツに対応付けて視覚コンテンツの撮影位置、撮影距離、撮影方向と画角とからなる撮影幅を示す情報を記憶部に記憶しておく。そして、視覚コンテンツを検索する際に、これらの情報を用いて視覚コンテンツの撮影範囲に検索する際の基準となる収集位置が含まれるか否かを判定し、撮影範囲に収集位置が含まれる視覚コンテンツを取得(収集)する。その為、本発明に係るコンテンツ検索装置は、視覚コンテンツを撮影した被写体単位で、関連する視覚コンテンツを容易に検索することができる。   In this way, the content search device according to the present invention stores in the storage unit information indicating the shooting width including the shooting position, shooting distance, shooting direction, and angle of view of the visual content in association with the visual content. Keep it. Then, when searching for visual content, it is determined whether or not a collection position serving as a reference for searching in the shooting range of visual content is included using these pieces of information, and a visual position in which the shooting position is included in the shooting range is determined. Acquire (collect) content. Therefore, the content search device according to the present invention can easily search related visual content in units of subjects that have captured the visual content.

また、発明に係るコンテンツ検索装置は、前記記憶部に記憶される前記視覚コンテンツと前記撮影範囲情報とを、前記視覚コンテンツおよび前記視覚コンテンツの撮影範囲を示す撮影範囲情報を取得するか、または前記視覚コンテンツおよび前記視覚コンテンツを撮影した撮影装置の撮影装置情報を取得して、取得した前記撮影装置情報から前記撮影範囲情報を算出することにより、前記記憶部に格納する格納実行部、を備えることを特徴とする。   Further, the content search device according to the invention acquires the visual content and the shooting range information stored in the storage unit, the shooting range information indicating the visual content and the shooting range of the visual content, or the A storage execution unit that acquires visual content and shooting device information of a shooting device that has shot the visual content, and stores the shooting range information from the acquired shooting device information to store in the storage unit; It is characterized by.

このようにすることで、本発明に係るコンテンツ検索装置は、視覚コンテンツの検索に用いる撮影範囲情報をExifデータから取得することが可能である。その為、コンテンツが投稿されることにより、撮影範囲情報についても取得することができる。   By doing in this way, the content search device according to the present invention can acquire shooting range information used for visual content search from Exif data. Therefore, the shooting range information can also be acquired by posting the content.

また、本発明に係るコンテンツ格納装置は、視覚コンテンツの格納を行うコンテンツ格納装置であって、予め設定された区画を示す区画情報に対応付けて前記視覚コンテンツが記憶される記憶部と、前記視覚コンテンツおよび前記視覚コンテンツの撮影範囲を示す撮影範囲情報を取得するか、または前記視覚コンテンツおよび前記視覚コンテンツを撮影した撮影装置の撮影装置情報を取得して、取得した前記撮影装置情報から前記撮影範囲情報を算出し、前記記憶部に格納される前記区画の中から前記撮影範囲が含まれるものを算出して、前記区画に対応付けて前記視覚コンテンツを前記記憶部に格納する格納実行部と、を備えることを特徴とする。   The content storage device according to the present invention is a content storage device that stores visual content, a storage unit that stores the visual content in association with partition information indicating a preset partition, and the visual Shooting range information indicating the shooting range of the content and the visual content is acquired, or shooting device information of the shooting device that shot the visual content and the visual content is acquired, and the shooting range is acquired from the acquired shooting device information. A storage execution unit that calculates information, calculates a section including the shooting range from the sections stored in the storage unit, and stores the visual content in the storage unit in association with the section; It is characterized by providing.

このようにすることで、本発明に係るコンテンツ格納装置は、視覚コンテンツの格納時に各視覚コンテンツの撮影範囲を特定し、撮影範囲が含まれる区画に対応付けて当該視覚コンテンツを格納する。つまり、本発明に係るコンテンツ格納装置は、検索の前提となる視覚コンテンツを格納する際に、被写体に関連する視覚コンテンツの絞り込みを検索時に行いやすいように、撮影範囲情報を用いて事前に処理を行っておく。その為、検索時に撮影範囲を特定する場合に比べて、視覚コンテンツの検索処理に要する時間が短くてすむ。   In this way, the content storage device according to the present invention specifies the shooting range of each visual content when storing the visual content, and stores the visual content in association with the section including the shooting range. That is, the content storage device according to the present invention performs processing in advance using the shooting range information so that visual content related to a subject can be easily narrowed down when searching for visual content that is a precondition for search. Keep going. Therefore, the time required for the visual content search process can be shortened compared to the case where the shooting range is specified at the time of search.

また、本発明に係るコンテンツ格納装置は、前記記憶部に格納される前記区画情報が、前記区画を特定する際の基準となる区画基準位置からなり、また、前記撮影範囲情報が、前記視覚コンテンツの撮影位置、撮影距離、撮影方向と画角とからなる撮影幅を示す情報を含み、前記格納実行部は、前記撮影位置から前記区画基準位置までの相対距離が前記撮影距離以内であるかを計算すると共に、前記撮影位置から前記区画基準位置までの相対方向が前記撮影幅以内であるかを計算することで、前記区画の中から前記撮影範囲が含まれるものを算出することを特徴とする。   In the content storage device according to the present invention, the section information stored in the storage unit includes a section reference position serving as a reference for specifying the section, and the shooting range information includes the visual content. Information indicating an imaging width including an imaging position, an imaging distance, an imaging direction and an angle of view, and the storage execution unit determines whether a relative distance from the imaging position to the section reference position is within the imaging distance. And calculating whether the relative range from the photographing position to the section reference position is within the photographing width, thereby calculating the section including the photographing range. .

このようにすることで、本発明に係るコンテンツ格納装置は、視覚コンテンツの格納時に各視覚コンテンツの撮影範囲を撮影位置、撮影距離、撮影方向と画角とからなる撮影幅を示す情報から特定し、撮影範囲が含まれる区画に対応付けて当該視覚コンテンツを格納する。その為、検索時に撮影範囲を特定する場合に比べて、視覚コンテンツの検索処理に要する時間が短くてすむ。   In this way, the content storage device according to the present invention specifies the shooting range of each visual content from the information indicating the shooting width including the shooting position, shooting distance, shooting direction, and angle of view when storing the visual content. The visual content is stored in association with the section including the shooting range. Therefore, the time required for the visual content search process can be shortened compared to the case where the shooting range is specified at the time of search.

また、発明に係るコンテンツ格納装置は、検索する際の基準となる収集位置を取得するか、または特定の空間を示す収集範囲を取得して、取得した前記収集範囲から前記収集位置を算出する検索要求受付部と、前記収集位置が含まれる前記区画を判定し、含まれると判定した前記区画に対応する前記視覚コンテンツを前記記憶部から取得する検索実行部と、を備えることを特徴とする。   In addition, the content storage device according to the invention acquires a collection position serving as a reference for the search, or acquires a collection range indicating a specific space, and calculates the collection position from the acquired collection range A request receiving unit; and a search execution unit that determines the section including the collection position and acquires the visual content corresponding to the section determined to be included from the storage unit.

このようにすることで、本発明に係るコンテンツ格納装置は、視覚コンテンツを検索する際に、基準となる収集位置が含まれると判定した区画に対応する視覚コンテンツを取得(収集)する。その為、視覚コンテンツを撮影した被写体単位で、関連する視覚コンテンツを容易に検索することができる。   By doing so, the content storage device according to the present invention acquires (collects) visual content corresponding to a section determined to include a reference collection position when searching for visual content. Therefore, it is possible to easily search for related visual contents in units of subjects that have taken visual contents.

本発明に係るコンテンツ検索装置、コンテンツ検索方法、コンテンツ格納装置およびコンテンツ格納方法によれば、撮影対象である被写体に関連する視覚コンテンツを容易に検索することができる。   According to the content search device, the content search method, the content storage device, and the content storage method according to the present invention, it is possible to easily search for visual content related to a subject that is a photographing target.

第1実施形態に係るコンテンツ提供システムの構成図である。It is a block diagram of the content provision system which concerns on 1st Embodiment. 第1実施形態に係るコンテンツ提供装置が有する情報を示す図であり、(a)は収集範囲DBのデータ構成図であり、(b)はコンテンツDBのデータ構成図である。It is a figure which shows the information which the content provision apparatus which concerns on 1st Embodiment has, (a) is a data block diagram of collection range DB, (b) is a data block diagram of content DB. 第1実施形態に係るコンテンツ提供装置の検索実行部の処理を説明するための図である。It is a figure for demonstrating the process of the search execution part of the content provision apparatus which concerns on 1st Embodiment. 第1実施形態に係るコンテンツ提供システムの動作を示すシーケンス図である。It is a sequence diagram which shows operation | movement of the content provision system which concerns on 1st Embodiment. 第1実施形態に係るコンテンツ提供システムの効果を説明するための図である。It is a figure for demonstrating the effect of the content provision system which concerns on 1st Embodiment. 第2実施形態に係るコンテンツ提供システムの構成図である。It is a block diagram of the content provision system which concerns on 2nd Embodiment. 第2実施形態に係るコンテンツ提供装置が有する情報を示す図であり、(a)は撮影区画DBのデータ構成図であり、(b)はコンテンツDBのデータ構成図である。It is a figure which shows the information which the content provision apparatus which concerns on 2nd Embodiment has, (a) is a data block diagram of imaging | photography division DB, (b) is a data block diagram of content DB. 第2実施形態に係るコンテンツ提供装置の格納実行部の処理を説明するための図である。It is a figure for demonstrating the process of the storage execution part of the content provision apparatus which concerns on 2nd Embodiment. 第2実施形態に係るコンテンツ提供システムの動作を示すシーケンス図である。It is a sequence diagram which shows operation | movement of the content provision system which concerns on 2nd Embodiment. 変形例に係るコンテンツ提供システムの効果を説明するための図である。It is a figure for demonstrating the effect of the content provision system which concerns on a modification. 従来のコンテンツ提供システムを説明するための図である。It is a figure for demonstrating the conventional content provision system.

[概要]
本発明は、視覚コンテンツ(写真等の静止画、映像等の動画)の撮影範囲を示す撮影範囲情報(例えば、撮影位置、撮影距離、撮影方向、画角等)を視覚コンテンツと共に取得し、この撮影範囲情報を用いて被写体に関連する視覚コンテンツの絞り込みを行う。
具体的には、第1実施形態においては、検索する際に、撮影範囲情報を用いて被写体に関連する視覚コンテンツの絞り込みを行う。また、第2実施形態においては、被写体に関連する視覚コンテンツの絞り込みを検索時に行いやすいように、検索の前提となる視覚コンテンツを格納する際に撮影範囲情報を用いて事前に処理を行っておく。
[Overview]
The present invention acquires shooting range information (eg, shooting position, shooting distance, shooting direction, angle of view, etc.) indicating the shooting range of visual content (still images such as photographs, moving images such as videos) together with the visual content. The visual content related to the subject is narrowed down using the shooting range information.
Specifically, in the first embodiment, when searching, visual content related to a subject is narrowed down using shooting range information. Further, in the second embodiment, processing is performed in advance using shooting range information when visual content that is a precondition for search is stored so that visual content related to the subject can be easily narrowed down during search. .

以下、本発明の実施するための形態を、適宜図面を参照しながら詳細に説明する。
各図は、本発明を十分に理解できる程度に、概略的に示してあるに過ぎない。よって、本発明は、図示例のみに限定されるものではない。また、本実施形態では、本発明と直接的に関連しない構成や周知な構成については、説明を省略する場合がある。なお、各図において、共通する構成要素や同様な構成要素については、同一の符号を付し、それらの重複する説明を省略する。
Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the drawings as appropriate.
Each figure is only schematically shown so that the invention can be fully understood. Therefore, the present invention is not limited to the illustrated example. In the present embodiment, descriptions of configurations not directly related to the present invention and known configurations may be omitted. In addition, in each figure, about the same component or the same component, the same code | symbol is attached | subjected and those overlapping description is abbreviate | omitted.

[第1実施形態]
≪第1実施形態に係るコンテンツ提供システムの構成≫
図1を参照して、第1実施形態に係るコンテンツ提供システム1について説明する。
コンテンツ提供システム1は、1つ以上のユーザ端末2と、それぞれのユーザ端末2にネットワークNWを介して通信可能に接続されるコンテンツ提供装置3とを備えて構成される。
[First Embodiment]
<< Configuration of Content Providing System According to First Embodiment >>
A content providing system 1 according to the first embodiment will be described with reference to FIG.
The content providing system 1 includes one or more user terminals 2 and a content providing device 3 that is communicably connected to each user terminal 2 via a network NW.

コンテンツ提供システム1は、ユーザ端末2から投稿(送信)される視覚コンテンツをコンテンツ提供装置3に格納する格納機能と、ユーザ端末2からの求めに応じて格納する視覚コンテンツの中からユーザが希望するものをユーザ端末2に提供(返信)する検索機能とを有する。ここで、視覚コンテンツは、写真等の静止画、映像等の動画、およびタイムラプス等であってよい。コンテンツ提供システム1は、例えば、視覚コンテンツ投稿型のSNSであり、ここでは視覚コンテンツとして写真(画像データ)を投稿する場合を想定して説明する。   The content providing system 1 is requested by the user from a storage function for storing visual content posted (transmitted) from the user terminal 2 in the content providing device 3 and a visual content stored in response to a request from the user terminal 2. A search function for providing (replying) a thing to the user terminal 2. Here, the visual content may be a still image such as a photograph, a moving image such as a video, and a time lapse. The content providing system 1 is, for example, a visual content posting type SNS, and will be described here assuming a case where a photograph (image data) is posted as visual content.

<ユーザ端末>
ユーザ端末2は、視覚コンテンツをコンテンツ提供装置3に投稿する投稿者(ユーザ)やコンテンツ提供装置3に投稿された視覚コンテンツを閲覧する閲覧者(ユーザ)が操作する端末である。ユーザ端末2は、例えば、スマートフォン(多機能型携帯電話機)、PDA(携帯情報端末)、ビデオカメラ等であってよい。
ここでは、投稿者が操作するものを「投稿側ユーザ端末2a」とし、閲覧者が操作するものを「閲覧側ユーザ端末2b」としており、それぞれ最低限の機能を記載している。その為、ユーザ端末2は、投稿側ユーザ端末2aが有する機能および閲覧側ユーザ端末2bが有する機能を含めて備えていてもよい。なお、予め視覚コンテンツが格納されたコンテンツ提供システムであれば、視覚コンテンツを投稿する投稿側ユーザ端末2aはなくてもよい。
<User terminal>
The user terminal 2 is a terminal operated by a contributor (user) who contributes visual content to the content providing device 3 or a viewer (user) who browses visual content posted on the content providing device 3. The user terminal 2 may be, for example, a smartphone (multifunctional mobile phone), a PDA (personal digital assistant), a video camera, or the like.
Here, what is operated by the contributor is “posting user terminal 2a”, and what is operated by the viewer is “viewing user terminal 2b”, and the minimum functions are described. Therefore, the user terminal 2 may include a function of the posting user terminal 2a and a function of the browsing user terminal 2b. Note that if the content providing system stores visual content in advance, the posting-side user terminal 2a for posting visual content may be omitted.

投稿側ユーザ端末2aは、タッチディスプレイ11と、デジタルカメラ12と、GPS受信機13と、視覚コンテンツ作成部21と、格納要求部22とを備えている。なお、タッチディスプレイ11は、情報を表示する表示部(例えば、液晶モニタ)と、情報を入力する操作部(例えば、キーボードやマウス)とのように、別々の装置として構成されていてもよい。また、投稿側ユーザ端末2aとしてデジタルカメラ12を想定した場合のように、投稿側ユーザ端末2aにタッチディスプレイ11がなくてもよい。
視覚コンテンツ作成部21および格納要求部22を有する制御部は、例えば、投稿側ユーザ端末2aが備えるCPU(Central Processing Unit)によるプログラム実行処理や、専用回路等により実現される。プログラム実行処理により実現する場合、投稿側ユーザ端末2aが備える図示しない記憶部には、視覚コンテンツ作成部21および格納要求部22を実現するためのプログラムが格納される。
The posting user terminal 2 a includes a touch display 11, a digital camera 12, a GPS receiver 13, a visual content creation unit 21, and a storage request unit 22. Note that the touch display 11 may be configured as separate devices such as a display unit (for example, a liquid crystal monitor) for displaying information and an operation unit (for example, a keyboard or a mouse) for inputting information. Further, as in the case where the digital camera 12 is assumed as the posting-side user terminal 2a, the posting-side user terminal 2a may not have the touch display 11.
The control unit having the visual content creation unit 21 and the storage request unit 22 is realized by, for example, a program execution process by a CPU (Central Processing Unit) provided in the posting-side user terminal 2a, a dedicated circuit, or the like. When realized by the program execution process, a program for realizing the visual content creation unit 21 and the storage request unit 22 is stored in a storage unit (not shown) provided in the posting-side user terminal 2a.

タッチディスプレイ11は、例えば、液晶表示装置であるディスプレイの表面にタッチパネルが積層されたものである。タッチディスプレイ11は、ユーザに対して種々の情報を表示するとともに、オペレータによるタッチ操作入力を受け付ける。
デジタルカメラ12は、共に図示しないレンズとイメージセンサ(撮像素子)とを内蔵しており、被写体から放射される光をレンズで屈折させ、屈折させた光をイメージセンサで電気信号に変換する。デジタルカメラ12は、例えば、CCDカメラやCMOSカメラであってよい。
GPS受信機13は、GPS衛星からの電波を受信して、現在の位置(緯度、経度、高度)や時刻を計算する。
The touch display 11 is, for example, a touch panel laminated on the surface of a display that is a liquid crystal display device. The touch display 11 displays various information to the user and accepts a touch operation input by the operator.
The digital camera 12 incorporates a lens (not shown) and an image sensor (imaging device), refracts light emitted from the subject by the lens, and converts the refracted light into an electrical signal by the image sensor. The digital camera 12 may be a CCD camera or a CMOS camera, for example.
The GPS receiver 13 receives radio waves from GPS satellites and calculates the current position (latitude, longitude, altitude) and time.

視覚コンテンツ作成部21は、デジタルカメラ12により変換された電気信号から視覚コンテンツ(例えば、JPEGデータ)を作成する。また、視覚コンテンツ作成部21は、デジタルカメラ12やGPS受信機13等から視覚コンテンツを撮影した撮影装置であるデジタルカメラ12に関する情報や位置情報等を取得して、視覚コンテンツの付加情報である撮影装置情報(例えば、Exifデータ)を作成する。付加情報(例えば、Exifデータ)には、例えば、画像データに関する情報(OtfIFD)、撮影条件に関する情報(例えば、ExifIFD)、撮影場所に関する情報(例えば、GPSIFD)や画像データを縮小したサムネイルデータ等が含まれる。なお、付加情報は、画像データ内に含まれて記憶されていてもよい。   The visual content creation unit 21 creates visual content (for example, JPEG data) from the electrical signal converted by the digital camera 12. Further, the visual content creation unit 21 acquires information, position information, and the like related to the digital camera 12 that is a photographing device that has photographed visual content from the digital camera 12, the GPS receiver 13, and the like, and photographing that is additional information of the visual content. Device information (for example, Exif data) is created. Additional information (for example, Exif data) includes, for example, information about image data (OtfIFD), information about shooting conditions (for example, ExifIFD), information about shooting locations (for example, GPSIFD), thumbnail data obtained by reducing image data, and the like. included. The additional information may be included and stored in the image data.

画像データに関する情報(OtfIFD)には、画像入力機器のメーカ名、画像入力機器のモデル名、画像方向等のデータ項目(タグ)がある。撮影条件に関する情報(例えば、ExifIFD)には、メーカーノート、レンズ焦点距離、レンズの仕様情報、レンズのメーカ名、レンズのモデル名等のデータ項目(タグ)がある。撮影場所に関する情報(例えば、GPSIFD)には、緯度、経度、高度、目的地の緯度、目的地の経度、目的地の方角等のデータ項目(タグ)がある。   The information relating to image data (OtfIFD) includes data items (tags) such as the manufacturer name of the image input device, the model name of the image input device, and the image direction. The information (for example, Exif IFD) related to the imaging condition includes data items (tags) such as a manufacturer note, a lens focal length, lens specification information, a lens manufacturer name, and a lens model name. The information on the shooting location (for example, GPS IFD) includes data items (tags) such as latitude, longitude, altitude, destination latitude, destination longitude, destination direction.

格納要求部22は、コンテンツ提供装置3に対して自身が保有する視覚コンテンツ(例えば、JPEGデータ)および、視覚コンテンツの付加情報である撮影装置情報(例えば、Exifデータ)を送信し、これらの情報の格納を要求する(格納要求)。格納要求部22は、例えば、タッチディスプレイ11に視覚コンテンツの投稿画面を表示し、ユーザ(投稿者)による投稿画面を用いた視覚コンテンツの投稿操作により、自身が保有する視覚コンテンツ等の格納要求をコンテンツ提供装置3に対して送信する。   The storage request unit 22 transmits the visual content (for example, JPEG data) held by itself to the content providing device 3 and imaging device information (for example, Exif data) that is additional information of the visual content. Is requested to be stored (storage request). For example, the storage request unit 22 displays a visual content posting screen on the touch display 11, and issues a storage request for visual content and the like held by the user (contributor) by the visual content posting operation using the posting screen. It transmits to the content providing apparatus 3.

閲覧側ユーザ端末2bは、タッチディスプレイ11と、検索要求部23と、視覚コンテンツ表示部24とを備えている。ここで、検索要求部23および視覚コンテンツ表示部24を有する制御部は、例えば、CPU(Central Processing Unit)によるプログラム実行処理や、専用回路等により実現される。プログラム実行処理により実現する場合、閲覧側ユーザ端末2bが備える図示しない記憶部には、検索要求部23および視覚コンテンツ表示部24を実現するためのプログラムが格納される。なお、タッチディスプレイ11は、投稿側ユーザ端末2aで説明したものと同様である。   The browsing-side user terminal 2 b includes a touch display 11, a search request unit 23, and a visual content display unit 24. Here, the control unit including the search request unit 23 and the visual content display unit 24 is realized by, for example, a program execution process by a CPU (Central Processing Unit), a dedicated circuit, or the like. When realized by the program execution process, a program for realizing the search request unit 23 and the visual content display unit 24 is stored in a storage unit (not shown) provided in the browsing-side user terminal 2b. The touch display 11 is the same as that described in the posting-side user terminal 2a.

検索要求部23は、コンテンツ提供装置3に投稿されることで、コンテンツ提供装置3が格納する視覚コンテンツの検索を要求するものである。検索要求部23は、検索する際の基準となる収集位置(例えば、座標(緯度、経度))を受け付けるか、または特定の空間を示す収集範囲を受け付ける。そして、検索要求部23は、コンテンツ提供装置3に対して受け付けた収集位置または収集範囲を送信し、これらの情報に対応した視覚コンテンツの検索を要求する(検索要求)。   The search request unit 23 requests the visual content stored in the content providing apparatus 3 by being posted to the content providing apparatus 3. The search request unit 23 receives a collection position (for example, coordinates (latitude, longitude)) serving as a reference when performing a search, or receives a collection range indicating a specific space. Then, the search request unit 23 transmits the received collection position or collection range to the content providing apparatus 3, and requests a search for visual content corresponding to these pieces of information (search request).

検索要求部23は、例えば、タッチディスプレイ11に視覚コンテンツの閲覧画面を表示する。そして、検索要求部23は、ユーザ(閲覧者)による閲覧画面を用いた視覚コンテンツの閲覧操作により、視覚コンテンツの検索要求をコンテンツ提供装置3に対して送信する。ここで、ユーザ(閲覧者)による視覚コンテンツの閲覧操作には、例えば、座標(緯度、経度)の入力、もしくはタッチディスプレイ11上に表示された地図の一点を選択する操作による収集位置の入力、または、建造物等の施設の名称や住所の入力、もしくはタッチディスプレイ11上に表示された地図の領域を選択する操作による収集範囲の入力が含まれる。   The search request unit 23 displays a visual content browsing screen on the touch display 11, for example. Then, the search request unit 23 transmits a visual content search request to the content providing apparatus 3 by a visual content browsing operation using a browsing screen by a user (browser). Here, in the browsing operation of visual content by the user (viewer), for example, input of coordinates (latitude, longitude) or input of a collection position by an operation of selecting one point of the map displayed on the touch display 11, Or the input of the collection range by the operation which selects the area | region of the map displayed on the touch display 11 or input of the name and address of facilities, such as a building, is included.

視覚コンテンツ表示部24は、コンテンツ提供装置3から検索結果として提供された視覚コンテンツをタッチディスプレイ11に表示する。視覚コンテンツ表示部24は、例えば、コンテンツ提供装置3から検索結果として複数の視覚コンテンツを受信した場合、これらの視覚コンテンツのサムネイルをタッチディスプレイ11に表示する。また、コンテンツ提供装置3から検索結果として検索条件に合致する視覚コンテンツを受信できなかった場合、検索対象となる視覚コンテンツが存在しないことを示すメッセージをタッチディスプレイ11に表示する。   The visual content display unit 24 displays the visual content provided as a search result from the content providing device 3 on the touch display 11. For example, when a plurality of visual contents are received as search results from the content providing device 3, the visual content display unit 24 displays thumbnails of these visual contents on the touch display 11. When visual content that matches the search condition cannot be received as a search result from the content providing device 3, a message indicating that there is no visual content to be searched is displayed on the touch display 11.

<コンテンツ提供装置>
コンテンツ提供装置3は、投稿者(ユーザ)の格納要求に応じて投稿される視覚コンテンツを格納し、閲覧者(ユーザ)の検索要求に応じて格納している視覚コンテンツを提供する。コンテンツ提供装置3は、例えば、視覚コンテンツ投稿型のSNSを管理する管理者が所有するサーバであってもよい。なお、コンテンツ提供装置3は、投稿者(ユーザ)の格納要求に応じて投稿される視覚コンテンツを格納するコンテンツ格納装置と、閲覧者(ユーザ)の検索要求に応じて格納している視覚コンテンツを検索するコンテンツ検索装置との別々の装置として構成されていてもよい。
<Content providing device>
The content providing device 3 stores visual content posted in response to a poster (user) storage request, and provides stored visual content in response to a viewer (user) search request. The content providing device 3 may be, for example, a server owned by an administrator who manages a visual content posting type SNS. The content providing device 3 stores a visual content stored in response to a search request from a viewer (user) and a content storage device that stores visual content posted in response to a storage request from a poster (user). You may comprise as a separate apparatus with the content search apparatus to search.

コンテンツ提供装置3は、収集範囲DB31と、コンテンツDB32と、格納要求受付部41と、格納実行部42と、格納応答部43と、検索要求受付部44と、検索実行部45と、検索応答部46とを備えている。
ここで、収集範囲DB31およびコンテンツDB32は、RAM(Random Access Memory)、ROM(Read Only Memory)、HDD(Hard Disk Drive)、フラッシュメモリ等の記憶媒体から構成される記憶部に格納される。また、格納要求受付部41と、格納実行部42と、格納応答部43と、検索要求受付部44と、検索実行部45と、検索応答部46とを有する制御部は、例えば、コンテンツ提供装置3が備えるCPU(Central Processing Unit)によるプログラム実行処理や、専用回路等により実現される。プログラム実行処理により実現する場合、コンテンツ提供装置3が備える記憶部には、これらの機能を実現するためのプログラムが格納される。
The content providing apparatus 3 includes a collection range DB 31, a content DB 32, a storage request receiving unit 41, a storage executing unit 42, a storage response unit 43, a search request receiving unit 44, a search executing unit 45, and a search response unit. 46.
Here, the collection range DB 31 and the content DB 32 are stored in a storage unit including a storage medium such as a random access memory (RAM), a read only memory (ROM), a hard disk drive (HDD), and a flash memory. The control unit having the storage request receiving unit 41, the storage executing unit 42, the storage response unit 43, the search request receiving unit 44, the search executing unit 45, and the search response unit 46 is, for example, a content providing device. 3 is realized by a program execution process by a CPU (Central Processing Unit) included in the CPU 3 or a dedicated circuit. When realized by the program execution process, a program for realizing these functions is stored in the storage unit included in the content providing device 3.

なお、図1では、本発明に関連するものを記載しており、コンテンツ提供装置3は図1に記載する以外の機能を備えていてもよい。コンテンツ提供装置3が視覚コンテンツ投稿型のSNS(例えば、Instagram(登録商標)やFlickr(登録商標))のサーバである場合には、例えば、コメントや反応(Like)を投稿する機能を有していてもよい。   In FIG. 1, the components related to the present invention are described, and the content providing apparatus 3 may have functions other than those described in FIG. 1. When the content providing device 3 is a visual content posting type SNS (for example, Instagram (registered trademark) or Flickr (registered trademark)) server, for example, it has a function of posting a comment or a reaction (Like). May be.

収集範囲DB31は、視覚コンテンツを検索する際の基準となる収集位置(座標)を格納するものである。収集範囲DB31は、コンテンツ提供システム1の管理者により予め作成される。収集範囲DB31には、収集範囲と収集位置とが対応付けられて格納されている。収集範囲DB31の構成を図2(a)に例示する。収集範囲DB31は、ここでは、収集範囲識別情報と、収集位置点数と、収集位置とからなる。   The collection range DB 31 stores collection positions (coordinates) serving as a reference when searching for visual content. The collection range DB 31 is created in advance by the administrator of the content providing system 1. The collection range DB 31 stores a collection range and a collection position in association with each other. The configuration of the collection range DB 31 is illustrated in FIG. Here, the collection range DB 31 includes collection range identification information, the number of collection position points, and a collection position.

収集範囲識別情報は、収集範囲を識別する情報であり、例えば、建造物等の施設の名称や住所、地域名等であってよい。この収集範囲識別情報は、視覚コンテンツの検索を要求する場合に閲覧者により入力される情報である。収集位置点数は、収集範囲に設定される収集位置の数を示す情報であり、例えば、予め決められた1以上の数であってよい。この収集位置点数は、収集範囲が小さいものに比べて大きいものの数を増やすように設定してもよい。収集位置は、収集範囲に設定される収集位置の座標(経度、緯度)を示す情報であり、例えば、収集範囲として建造物等の施設の名称や住所が与えられた場合にその中心や重心、または、施設の輪郭を構成する点であってよい。この収集位置は、視覚コンテンツの検索を行う場合に基準となるものである。   The collection range identification information is information for identifying the collection range, and may be, for example, the name, address, area name, or the like of a facility such as a building. This collection range identification information is information input by a viewer when a search for visual content is requested. The collection position score is information indicating the number of collection positions set in the collection range, and may be, for example, a predetermined number of 1 or more. The number of collection position points may be set to increase the number of large collection points compared to the small collection range. The collection position is information indicating the coordinates (longitude, latitude) of the collection position set in the collection range. For example, when the name or address of a facility such as a building is given as the collection range, the center or center of gravity, Or it may be a point constituting the outline of the facility. This collection position is a reference when searching for visual contents.

コンテンツDB32は、視覚コンテンツを検索する際に用いられる。コンテンツDB32は、投稿者により視覚コンテンツの投稿が行われることで、格納実行部42の処理により情報が追加される。コンテンツDB32には、視覚コンテンツと、視覚コンテンツの撮影範囲を示す撮影範囲情報とが対応付けられて格納されている。コンテンツDB32の構成を図2(b)に例示する。コンテンツDB32は、ここでは、視覚コンテンツと、撮影範囲情報とからなり、また、撮影範囲情報は、さらに、撮影位置、撮影距離、撮影方向、画角の4要素からなる。なお、撮影範囲情報は、撮影位置、撮影距離、撮影方向、画角の4要素以外にも、これら4要素を計算可能な情報(例えば、撮影装置であるデジタルカメラ12のピントやフィルムサイズ、焦点距離など)で構成されていてもよい。   The content DB 32 is used when searching for visual content. Information is added to the content DB 32 by the processing of the storage execution unit 42 when a visual content is posted by a contributor. The content DB 32 stores visual content and shooting range information indicating the shooting range of the visual content in association with each other. The configuration of the content DB 32 is illustrated in FIG. Here, the content DB 32 includes visual content and shooting range information, and the shooting range information further includes four elements of a shooting position, a shooting distance, a shooting direction, and a field angle. In addition to the four elements of the shooting position, the shooting distance, the shooting direction, and the angle of view, the shooting range information includes information that can calculate these four elements (for example, the focus, film size, and focus of the digital camera 12 that is the shooting device). Distance).

撮影位置は、視覚コンテンツが撮影された位置(座標)である。撮影距離は、視覚コンテンツに撮影されている撮影位置から被写体までの距離(奥行き方向の距離)である。撮影方向は、視覚コンテンツが撮影された方向(度)である。画角は、視覚コンテンツが撮影された際に、イメージセンサ(撮像素子)に写った範囲を角度で表したものである。   The shooting position is a position (coordinates) where the visual content is shot. The shooting distance is a distance (distance in the depth direction) from the shooting position shot in the visual content to the subject. The shooting direction is the direction (degree) in which the visual content is shot. The angle of view is an angle representing a range captured by an image sensor (imaging device) when visual content is photographed.

格納要求受付部41は、投稿者により視覚コンテンツの投稿操作が行われた際に、投稿側ユーザ端末2aから視覚コンテンツの格納要求を受信する。格納要求受付部41は、投稿側ユーザ端末2aから視覚コンテンツ(例えば、JPEGデータ)および、視覚コンテンツの付加情報である撮影装置情報(例えば、Exifデータ)を格納要求と共に受信し、受信した情報を格納実行部42に受け渡す。   The storage request receiving unit 41 receives a visual content storage request from the posting-side user terminal 2a when the posting operation of the visual content is performed by the poster. The storage request receiving unit 41 receives visual content (for example, JPEG data) and imaging device information (for example, Exif data), which is additional information of the visual content, together with the storage request from the posting-side user terminal 2a, and receives the received information. The data is transferred to the storage execution unit 42.

格納実行部42は、投稿者により投稿される視覚コンテンツおよび投稿された視覚コンテンツに関する撮影範囲情報をコンテンツDB32に追加する。例えば、格納実行部42は、投稿される視覚コンテンツのExifファイル内の「経度」,「緯度」項目に格納されている情報をコンテンツDB32の撮影位置に格納する。また、格納実行部42は、投稿される視覚コンテンツのExifファイル内の「メーカーノート」項目に格納されている撮影距離情報をコンテンツDB32の撮影距離に格納する。なお、実施形態で説明するExifファイル内の項目は、あくまで例示である。その為、Exifファイルのここで説明した以外の項目に格納されている情報をコンテンツDB32の撮影範囲情報に格納することも可能である(以下同じ)。例えば、Exifファイル内の「高度」、「仰角」項目や「レンズ名」、「モデル名」項目から算出した情報を撮影範囲情報の撮影距離に格納してもよい。   The storage execution unit 42 adds the visual content posted by the contributor and the shooting range information related to the posted visual content to the content DB 32. For example, the storage execution unit 42 stores the information stored in the “longitude” and “latitude” items in the Exif file of the posted visual content at the shooting position of the content DB 32. Further, the storage execution unit 42 stores the shooting distance information stored in the “maker note” item in the Exif file of the visual content to be posted in the shooting distance of the content DB 32. The items in the Exif file described in the embodiment are merely examples. Therefore, information stored in items other than those described here in the Exif file can be stored in the shooting range information of the content DB 32 (the same applies hereinafter). For example, information calculated from the “altitude”, “elevation” items, “lens name”, and “model name” items in the Exif file may be stored in the shooting distance of the shooting range information.

また、格納実行部42は、投稿される視覚コンテンツのExifファイル内の「目的地の方角」項目に格納されている情報をコンテンツDB32の撮影方向に格納する。また、格納実行部42は、投稿される視覚コンテンツのExifファイル内の焦点距離fとイメージセンサーサイズzとを用いて、以下に示す一般角の三角関数の定義により画角ψを算出し、算出した画角ψを撮影範囲情報の画角に格納する。   The storage execution unit 42 stores the information stored in the “direction of destination” item in the Exif file of the visual content to be posted in the shooting direction of the content DB 32. Further, the storage execution unit 42 calculates the angle of view ψ by using the definition of the general angle trigonometric function shown below using the focal length f and the image sensor size z in the Exif file of the visual content to be posted. The obtained angle of view ψ is stored in the angle of view of the photographing range information.

Figure 2016143269
Figure 2016143269

格納応答部43は、視覚コンテンツのコンテンツDB32への格納結果を投稿側ユーザ端末2aに対して送信する。ここで、格納応答部43は、例えば、視覚コンテンツのExifデータに必要とするデータが含まれていなかった場合に、そのことを示す情報を格納結果に含めて送信してもよい。   The storage response unit 43 transmits the storage result of the visual content in the content DB 32 to the posting-side user terminal 2a. Here, for example, when the required data is not included in the Exif data of the visual content, the storage response unit 43 may transmit information indicating that in the storage result.

検索要求受付部44は、閲覧者により視覚コンテンツの閲覧操作が行われた際に、閲覧側ユーザ端末2bから視覚コンテンツの検索要求を受信する。検索要求受付部44は、閲覧側ユーザ端末2bから視覚コンテンツを検索する際の基準となる収集位置(例えば、座標(緯度、経度))または特定の空間を示す収集範囲を受信する。検索要求受付部44は、収集範囲を受信した場合には、収集範囲DB31を参照して、受信した収集範囲に対応する収集位置を算出する。そして、検索要求受付部44は、収集位置を検索実行部45に受け渡す。   The search request reception unit 44 receives a visual content search request from the browsing-side user terminal 2b when a visual content browsing operation is performed by a viewer. The search request receiving unit 44 receives a collection position (for example, coordinates (latitude, longitude)) or a collection range indicating a specific space as a reference when searching visual content from the browsing-side user terminal 2b. When receiving the collection range, the search request receiving unit 44 refers to the collection range DB 31 and calculates a collection position corresponding to the received collection range. Then, the search request receiving unit 44 passes the collection position to the search execution unit 45.

検索実行部45は、コンテンツDB32を参照して、コンテンツDB32に格納される視覚コンテンツの撮影範囲に収集位置が含まれるか否かを判定し、撮影範囲に含まれる視覚コンテンツをコンテンツDB32から取得(収集)する。以下、検索実行部45の具体的な処理について説明する。
コンテンツDB32に格納される撮影位置(x,y)、撮影距離λ、撮影方向φ、画角ψの4要素を用いることで図3に示すような扇状の撮影範囲Lを描くことが可能である。検索実行部45は、撮影位置(x,y)から収集位置(α,β)までの相対距離Kを、以下に示す三平方の定理により算出する。
The search execution unit 45 refers to the content DB 32 to determine whether or not the collection position is included in the shooting range of the visual content stored in the content DB 32 and acquires the visual content included in the shooting range from the content DB 32 ( collect. Hereinafter, specific processing of the search execution unit 45 will be described.
By using four elements of the shooting position (x, y), shooting distance λ, shooting direction φ, and angle of view ψ stored in the content DB 32, a fan-shaped shooting range L as shown in FIG. 3 can be drawn. . The search execution unit 45 calculates the relative distance K from the shooting position (x, y) to the collection position (α, β) by the following three-square theorem.

Figure 2016143269
Figure 2016143269

また、検索実行部45は、撮影位置(x,y)から収集位置(α,β)までの相対方向θを、以下に示す一般角の三角関数の定義により算出する。   Further, the search execution unit 45 calculates the relative direction θ from the imaging position (x, y) to the collection position (α, β) according to the definition of a general angle trigonometric function shown below.

Figure 2016143269
Figure 2016143269

そして、検索実行部45は、撮影位置(x,y)から収集位置(α,β)までの相対距離Kが撮影距離λ以内(K≦λ)であると共に、撮影位置(x,y)から収集位置(α,β)までの相対方向θが撮影幅以内(φ−ψ/2≦θ≦φ+ψ/2)である視覚コンテンツをコンテンツDB32から取得(収集)する。なお、相対距離Kの判定および相対方向θの判定の順番は特に限定されるものではない。   The search execution unit 45 then sets the relative distance K from the shooting position (x, y) to the collection position (α, β) within the shooting distance λ (K ≦ λ) and from the shooting position (x, y). Visual content whose relative direction θ to the collection position (α, β) is within the imaging width (φ−ψ / 2 ≦ θ ≦ φ + ψ / 2) is acquired (collected) from the content DB 32. Note that the order of the determination of the relative distance K and the determination of the relative direction θ is not particularly limited.

検索応答部46は、検索実行部45で取得(収集)した視覚コンテンツを閲覧側ユーザ端末2bに対して送信する。ここで、検索応答部46は、例えば、検索条件に合致する視覚コンテンツが検索できかった場合に、検索結果としてそのことを示す情報を閲覧側ユーザ端末2bに送信してもよい。   The search response unit 46 transmits the visual content acquired (collected) by the search execution unit 45 to the browsing-side user terminal 2b. Here, for example, when the visual content that matches the search condition cannot be searched, the search response unit 46 may transmit information indicating the search result to the viewing-side user terminal 2b.

≪第1実施形態に係るコンテンツ提供システムの動作≫
図4を参照して、第1実施形態に係るコンテンツ提供システム1のコンテンツ格納処理およびコンテンツ検索処理について説明する。
ここで、投稿側ユーザ端末2aには、視覚コンテンツ(例えば、JPEGデータ)および視覚コンテンツの付加情報である撮影装置情報(例えば、Exifデータ)が事前に記憶されているものとする。この視覚コンテンツ等は、例えば、投稿側ユーザ端末2aのユーザ(投稿者)によるタッチディスプレイ11の操作によって、視覚コンテンツ作成部21が作成してもよいし、また、投稿側ユーザ端末2aが他の装置から受信したものであってもよい。なお、この視覚コンテンツ内に撮影装置情報(例えば、Exifデータ)が含まれていてもよい(例えば、JPEGファイル)。
<< Operation of Content Providing System According to First Embodiment >>
With reference to FIG. 4, the content storage processing and content search processing of the content providing system 1 according to the first embodiment will be described.
Here, it is assumed that the posting-side user terminal 2a stores visual content (for example, JPEG data) and photographing device information (for example, Exif data) that is additional information of the visual content in advance. The visual content or the like may be created by the visual content creation unit 21 by, for example, an operation of the touch display 11 by the user (contributor) of the posting-side user terminal 2a. It may be received from a device. Note that the visual content may include photographing apparatus information (for example, Exif data) (for example, a JPEG file).

<コンテンツ格納処理>
最初に、投稿側ユーザ端末2aのユーザ(投稿者)によるタッチディスプレイ11の操作によって、格納要求部22は、タッチディスプレイ11に視覚コンテンツの投稿画面を表示する(ステップS11)。続いて、格納要求部22は、投稿画面に従って行われるユーザ(投稿者)の視覚コンテンツの投稿操作を受け付ける(ステップS12)。これにより、格納要求部22は、自身が保有する視覚コンテンツおよび当該視覚コンテンツの格納要求をコンテンツ提供装置3に対して送信する(ステップS13)。
<Content storage processing>
First, the storage request unit 22 displays a visual content posting screen on the touch display 11 by an operation of the touch display 11 by a user (contributor) of the posting-side user terminal 2a (step S11). Subsequently, the storage request unit 22 accepts a user (contributor) visual content posting operation performed in accordance with the posting screen (step S12). As a result, the storage request unit 22 transmits the visual content held by itself and the storage request for the visual content to the content providing apparatus 3 (step S13).

コンテンツ提供装置3の格納要求受付部41は、投稿側ユーザ端末2aから視覚コンテンツおよび当該視覚コンテンツの格納要求を受け付けると、格納実行部42に対して受信した視覚コンテンツのコンテンツDB32への格納を要求する。それに伴い、格納実行部42は、視覚コンテンツをコンテンツDB32に格納する(ステップS14)。具体的には、格納実行部42は、画像データを格納すると共に、Exifデータの内容を撮影範囲情報に格納する。   When receiving the visual content and the storage request for the visual content from the posting-side user terminal 2a, the storage request receiving unit 41 of the content providing device 3 requests the storage execution unit 42 to store the received visual content in the content DB 32. To do. Accordingly, the storage execution unit 42 stores the visual content in the content DB 32 (step S14). Specifically, the storage execution unit 42 stores the image data and stores the contents of the Exif data in the shooting range information.

続いて、格納応答部43は、視覚コンテンツのコンテンツDB32への格納結果を投稿側ユーザ端末2aに対して送信する(ステップS15)。ここで、格納応答部43は、例えば、視覚コンテンツのExifデータに必要とするデータが含まれていなかった場合に、そのことを示す情報を格納結果に含めて送信してもよい。投稿側ユーザ端末2aの格納要求部22は、受信した格納結果をタッチディスプレイ11に表示する(ステップS16)。以上で、コンテンツ格納処理が終了する。   Subsequently, the storage response unit 43 transmits the storage result of the visual content in the content DB 32 to the posting-side user terminal 2a (step S15). Here, for example, when the required data is not included in the Exif data of the visual content, the storage response unit 43 may transmit information indicating that in the storage result. The storage request unit 22 of the posting-side user terminal 2a displays the received storage result on the touch display 11 (step S16). This is the end of the content storage process.

<コンテンツ検索処理>
最初に、閲覧側ユーザ端末2bのユーザ(閲覧者)によるタッチディスプレイ11の操作によって、検索要求部23は、タッチディスプレイ11に視覚コンテンツの閲覧画面を表示する(ステップS21)。続いて、検索要求部23は、閲覧画面に従って行われるユーザ(閲覧者)の視覚コンテンツの閲覧操作を受け付ける(ステップS22)。ここで、閲覧操作には収集範囲情報の入力が含まれる。それにより、検索要求部23は、収集範囲を含む視覚コンテンツの検索要求をコンテンツ提供装置3に対して送信する(ステップS23)。
<Content search processing>
First, the search request unit 23 displays a visual content browsing screen on the touch display 11 by an operation of the touch display 11 by a user (viewer) of the browsing-side user terminal 2b (step S21). Subsequently, the search request unit 23 receives a visual content browsing operation of the user (browser) performed according to the browsing screen (step S22). Here, the browsing operation includes input of collection range information. Thereby, the search request unit 23 transmits a search request for visual content including the collection range to the content providing apparatus 3 (step S23).

コンテンツ提供装置3の検索要求受付部44は、閲覧側ユーザ端末2bから視覚コンテンツの検索要求を受け付けると、検索実行部45に対して検索要求に含まれる収集範囲情報を検索条件とする視覚コンテンツの検索を要求する。それに伴い、検索実行部45は、コンテンツDB32に格納される視覚コンテンツの撮影位置(x,y)と収集範囲情報に基づいて収集範囲DB31から取得した収集位置(α,β)との相対距離Kおよび相対方向θを算出する(ステップS24)。そして、検索実行部45は、収集位置を撮影範囲Lに含める視覚コンテンツを取得する(ステップS25)。   When the search request receiving unit 44 of the content providing device 3 receives a search request for visual content from the browsing-side user terminal 2b, the search request receiving unit 44 receives the visual content search request from the search execution unit 45 using the collection range information included in the search request. Request a search. Accordingly, the search execution unit 45 has a relative distance K between the shooting position (x, y) of the visual content stored in the content DB 32 and the collection position (α, β) acquired from the collection range DB 31 based on the collection range information. Then, the relative direction θ is calculated (step S24). And the search execution part 45 acquires the visual content which includes a collection position in the imaging | photography range L (step S25).

続いて、検索応答部46は、取得した視覚コンテンツを閲覧側ユーザ端末2bに対して送信する(ステップS26)。ここで、検索応答部46は、例えば、検索条件に合致する視覚コンテンツが検索できかった場合に、検索結果としてそのことを示す情報を閲覧側ユーザ端末2bに送信してもよい。閲覧側ユーザ端末2bの検索要求部23は、受信した視覚コンテンツを視覚コンテンツ表示部24に受け渡し、視覚コンテンツ表示部24はこの視覚コンテンツをタッチディスプレイ11に表示する(ステップS27)。以上で、コンテンツ配信処理が終了する。   Subsequently, the search response unit 46 transmits the acquired visual content to the browsing-side user terminal 2b (step S26). Here, for example, when the visual content that matches the search condition cannot be searched, the search response unit 46 may transmit information indicating the search result to the viewing-side user terminal 2b. The search request unit 23 of the browsing-side user terminal 2b delivers the received visual content to the visual content display unit 24, and the visual content display unit 24 displays this visual content on the touch display 11 (step S27). This completes the content distribution process.

以上のように、第1実施形態に係るコンテンツ提供システム1は、視覚コンテンツをコンテンツDB32に格納する際に、視覚コンテンツの撮影範囲を示す撮影範囲情報を視覚コンテンツに対応付けて格納する。したがって、コンテンツ提供システム1は、視覚コンテンツを検索する際に、コンテンツDB32を参照して、コンテンツDB32に格納される視覚コンテンツの撮影範囲に収集位置が含まれるか否かを判定し、撮影範囲に収集位置が含まれる視覚コンテンツをコンテンツDB32から取得(収集)することができる。その為、視覚コンテンツを撮影した被写体単位で、関連する視覚コンテンツを容易に検索することができる。   As described above, the content providing system 1 according to the first embodiment stores the shooting range information indicating the shooting range of the visual content in association with the visual content when storing the visual content in the content DB 32. Therefore, when searching for visual content, the content providing system 1 refers to the content DB 32 to determine whether or not the collection position is included in the shooting range of the visual content stored in the content DB 32, and the shooting range is included in the shooting range. Visual content including the collection position can be acquired (collected) from the content DB 32. Therefore, it is possible to easily search for related visual contents in units of subjects that have taken visual contents.

特に、第1実施形態に係るコンテンツ提供システム1を写真投稿型のSNSに適用することにより、図5に示すような新しい写真投稿型のSNSを実現することが可能である。つまり、ユーザが画像を投稿すると、投稿した画像に撮影された被写体(例えば、富士山)を含んだ別ユーザの投稿画像を自動的に、かつユーザが設定するタグなどを用いずに検索・抽出し、ユーザへ返却するシステムを実現出来る。これにより、例えば、ユーザが撮影した瞬間に見ることが出来ない、過去の被写体の姿および他の時間や季節の被写体の姿をユーザが自動で閲覧することができる。また、ユーザに対しては、投稿時にタグの設定が不要なので、手間を増やすことなく画像を投稿するモチベーションを向上させることも期待できる。   In particular, by applying the content providing system 1 according to the first embodiment to a photo posting type SNS, a new photo posting type SNS as shown in FIG. 5 can be realized. In other words, when a user posts an image, a post image of another user including a subject (for example, Mt. Fuji) captured in the posted image is automatically searched and extracted without using a tag set by the user. , A system to return to the user can be realized. Thereby, for example, the user can automatically view the appearance of the past subject and the appearance of the subject at other times and seasons that cannot be seen at the moment when the user takes a picture. Moreover, since it is unnecessary for the user to set a tag at the time of posting, it can be expected to improve the motivation to post an image without increasing labor.

[第2実施形態]
第1実施形態に係るコンテンツ提供システム1は、検索する際に、コンテンツDB32に格納される撮影範囲情報を用いて被写体に関連する視覚コンテンツの絞り込みを行っていた。第2実施形態では、被写体に関連する視覚コンテンツの絞り込みを検索時に行いやすいように、検索の前提となる視覚コンテンツを格納する際に撮影範囲情報を用いて事前に処理を行っておく。具体的には、予め設定した撮影区画ごとに、その撮影区画が写っている視覚コンテンツのリストを保持するようにする。
[Second Embodiment]
The content providing system 1 according to the first embodiment narrows down visual content related to a subject by using shooting range information stored in the content DB 32 when searching. In the second embodiment, in order to easily narrow down visual contents related to a subject at the time of searching, processing is performed in advance using shooting range information when storing visual contents as a precondition for searching. Specifically, for each preset shooting section, a list of visual contents in which the shooting section is captured is held.

≪第2実施形態に係るコンテンツ提供システムの構成≫
図6を参照して、第2実施形態に係るコンテンツ提供システム1Aについて説明する。
コンテンツ提供システム1Aは、1つ以上のユーザ端末2と、それぞれのユーザ端末2にネットワークNWを介して通信可能に接続されるコンテンツ提供装置3Aとを備えて構成される。
<< Configuration of Content Providing System According to Second Embodiment >>
A content providing system 1A according to the second embodiment will be described with reference to FIG.
The content providing system 1A includes one or more user terminals 2 and a content providing apparatus 3A that is communicably connected to each user terminal 2 via a network NW.

コンテンツ提供システム1Aは、第1実施形態のコンテンツ提供システム1と同様に、ユーザ端末2から投稿(送信)される視覚コンテンツをコンテンツ提供装置3Aに格納する格納機能と、ユーザ端末2からの求めに応じて格納する視覚コンテンツの中からユーザが希望するものをユーザ端末2に提供(返信)する検索機能とを有する。ここで、視覚コンテンツは、写真等の静止画、映像等の動画、およびタイムラプス等であってよい。コンテンツ提供システム1Aは、例えば、視覚コンテンツ投稿型のSNSであり、ここでは視覚コンテンツとして写真を投稿する場合を想定して説明する。   Similar to the content providing system 1 according to the first embodiment, the content providing system 1A stores a visual content posted (transmitted) from the user terminal 2 in the content providing apparatus 3A, and requests from the user terminal 2. A search function for providing (replying) to the user terminal 2 what is desired by the user from among the stored visual contents. Here, the visual content may be a still image such as a photograph, a moving image such as a video, and a time lapse. The content providing system 1A is, for example, a visual content posting type SNS, and will be described here assuming a case where a photograph is posted as visual content.

第1実施形態に係るコンテンツ提供システム1と第2実施形態に係るコンテンツ提供システム1Aとの違いは、コンテンツ提供装置3Aの構成が異なることである。第2実施形態に係るコンテンツ提供装置3Aは、第1実施形態に係るコンテンツ提供装置3に比べて、記憶部のコンテンツDB32Aの内容が異なり、さらに撮影区画DB33が追加されている。また、コンテンツ提供装置3Aは、第1実施形態に係るコンテンツ提供装置3に比べて、制御部の格納実行部42Aおよび検索実行部45Aの機能が異なる。以下、第1実施形態に係るコンテンツ提供装置3との違いについて説明する。   The difference between the content providing system 1 according to the first embodiment and the content providing system 1A according to the second embodiment is that the configuration of the content providing apparatus 3A is different. The content providing apparatus 3A according to the second embodiment is different from the content providing apparatus 3 according to the first embodiment in the content of the content DB 32A of the storage unit, and further includes a shooting section DB 33. Further, the content providing device 3A differs from the content providing device 3 according to the first embodiment in the functions of the storage execution unit 42A and the search execution unit 45A of the control unit. Hereinafter, differences from the content providing apparatus 3 according to the first embodiment will be described.

撮影区画DB33には、地図を格子状に分割した撮影区画C(図8参照)に関する情報が格納される。撮影区画DB33は、コンテンツ提供システム1Aの管理者により予め作成される。撮影区画DB33の構成を図7(a)に例示する。撮影区画DB33は、撮影区画識別情報と、区画基準位置点数と、区画基準位置とからなる。
撮影区画識別情報は、撮影区画Cを識別する情報であり、例えば、「第1区画」、「第2区画」・・・のような名称であってよい。区画基準位置点数は、撮影区画Cに設定される区画基準位置の数を示す情報であり、例えば、予め決められた1以上の数であってよい。区画基準位置は、撮影区画Cに設定される区画基準位置の座標(経度、緯度)を示す情報であり、例えば、撮影区画Cの中心や重心、または、輪郭を構成する点であってよい。この区画基準位置は、視覚コンテンツの検索を行う場合に基準となるものである。
The shooting section DB 33 stores information related to the shooting section C (see FIG. 8) obtained by dividing the map into a grid. The shooting section DB 33 is created in advance by the administrator of the content providing system 1A. The configuration of the shooting section DB 33 is illustrated in FIG. The shooting section DB 33 includes shooting section identification information, section reference position points, and section reference positions.
The shooting section identification information is information for identifying the shooting section C, and may be names such as “first section”, “second section”,. The section reference position score is information indicating the number of section reference positions set in the photographing section C, and may be, for example, a predetermined number of 1 or more. The section reference position is information indicating the coordinates (longitude, latitude) of the section reference position set in the shooting section C, and may be, for example, a point constituting the center, the center of gravity, or the contour of the shooting section C. This section reference position is a reference when searching for visual contents.

コンテンツDB32Aは、視覚コンテンツを検索する際に用いられる。コンテンツDB32Aは、投稿者により視覚コンテンツの投稿が行われることで、格納実行部42Aの処理により情報が追加される。コンテンツDB32Aには、撮影区画Cと、視覚コンテンツとが対応付けられて格納されている。コンテンツDB32Aの構成を図7(b)に例示する。コンテンツDB32Aは、ここでは、撮影区画識別情報と、視覚コンテンツとからなる。   The content DB 32A is used when searching for visual content. Information is added to the content DB 32A by the processing of the storage execution unit 42A when the visual content is posted by the contributor. In the content DB 32A, the shooting section C and visual content are stored in association with each other. The configuration of the content DB 32A is illustrated in FIG. Here, the content DB 32A includes shooting section identification information and visual content.

格納実行部42Aは、撮影区画DB33を参照して、撮影区画Cの中から取得した視覚コンテンツの撮影範囲が含まれるものを算出し、含まれていた撮影区画Cに対応付けて視覚コンテンツをコンテンツDB32Aに格納する。視覚コンテンツの撮影範囲に撮影区画Cが含まれているか否かの判定は、例えば、検索実行部45で説明した処理の収集位置を区画基準位置に読み替えたものであってよい。つまり、検索実行部45は、投稿された視覚コンテンツの撮影位置(x,y)、撮影距離λ、撮影方向φ、画角ψの4要素を用いることで描くことができる扇状の撮影範囲L(図3参照)に区画基準位置が含まれる撮影区画Cを算出する。そして、格納実行部42Aは、コンテンツDB32Aの算出した撮影区画識別情報に対応付けて視覚コンテンツを格納する。例えば、図8に示す撮影範囲を写した写真(視覚コンテンツ)は、第6撮影区画C、第7撮影区画C、第8撮影区画C、第10撮影区画C10、第11撮影区画C11に対応付けてコンテンツDB32Aに格納される。 The storage execution unit 42A refers to the shooting section DB 33, calculates the one including the shooting range of the visual content acquired from the shooting section C, and associates the visual content with the included shooting section C as content. Store in DB32A. The determination as to whether or not the shooting section C is included in the shooting range of the visual content may be obtained by, for example, replacing the processing collection position described in the search execution unit 45 with the section reference position. That is, the search execution unit 45 uses the four elements of the shooting position (x, y), the shooting distance λ, the shooting direction φ, and the angle of view ψ of the posted visual content to create a fan-shaped shooting range L ( The photographing section C in which the section reference position is included in (see FIG. 3) is calculated. Then, the storage execution unit 42A stores the visual content in association with the shooting section identification information calculated by the content DB 32A. For example, the photograph (visual content) showing the shooting range shown in FIG. 8 includes a sixth shooting section C 6 , a seventh shooting section C 7 , an eighth shooting section C 8 , a tenth shooting section C 10 , and an eleventh shooting section. in association with the C 11 are stored in the content DB 32a.

検索実行部45Aは、収集位置が含まれる撮影区画Cを判定し、含まれると判定した撮影区画に対応する視覚コンテンツをコンテンツDB32Aから取得(収集)する。   The search execution unit 45A determines the shooting section C including the collection position, and acquires (collects) visual content corresponding to the shooting section determined to be included from the content DB 32A.

≪第2実施形態に係るコンテンツ提供システムの動作≫
図9を参照して、第2実施形態に係るコンテンツ提供システム1Aのコンテンツ格納処理およびコンテンツ検索処理について説明する。
ここで、第1実施形態と同様に、投稿側ユーザ端末2aには、視覚コンテンツ(例えば、JPEGデータ)および視覚コンテンツの付加情報である撮影装置情報(例えば、Exifデータ)が事前に記憶されているものとする。この視覚コンテンツ等は、例えば、投稿側ユーザ端末2aのユーザ(投稿者)によるタッチディスプレイ11の操作によって、視覚コンテンツ作成部21が作成してもよいし、また、投稿側ユーザ端末2aが他の装置から受信したものであってもよい。なお、この視覚コンテンツ内に撮影装置情報(例えば、Exifデータ)が含まれていてもよい(例えば、JPEGファイル)。
<< Operation of Content Providing System According to Second Embodiment >>
With reference to FIG. 9, the content storage processing and content search processing of the content providing system 1A according to the second embodiment will be described.
Here, as in the first embodiment, the posting-side user terminal 2a stores visual content (for example, JPEG data) and imaging device information (for example, Exif data), which is additional information of the visual content, in advance. It shall be. The visual content or the like may be created by the visual content creation unit 21 by, for example, an operation of the touch display 11 by the user (contributor) of the posting-side user terminal 2a. It may be received from a device. Note that the visual content may include photographing apparatus information (for example, Exif data) (for example, a JPEG file).

<コンテンツ格納処理>
ステップS31〜ステップS33の処理は、第1実施形態のステップS11〜ステップS13の処理(図4参照)と同様である。また、ステップS37〜ステップS38の処理は、第1実施形態のステップS15〜ステップS16の処理(図4参照)と同様である。
ステップS33に続いて、格納実行部42Aは、投稿された視覚コンテンツの撮像位置(x,y)と区画基準位置(α´,β´)との相対距離Kおよび相対方向θを算出する(ステップS34)。続いて、格納実行部42Aは、区画基準位置(α´,β´)を撮影範囲に含める撮影区間を算出する(ステップS35)。そして、格納実行部42Aは、コンテンツDB32Aの算出した撮影区画識別情報に対応付けて視覚コンテンツを格納する(ステップS36)。
<Content storage processing>
The process of step S31-step S33 is the same as the process (refer FIG. 4) of step S11-step S13 of 1st Embodiment. Moreover, the process of step S37-step S38 is the same as the process (refer FIG. 4) of step S15-step S16 of 1st Embodiment.
Subsequent to step S33, the storage execution unit 42A calculates the relative distance K and the relative direction θ between the imaging position (x, y) of the posted visual content and the segment reference position (α ′, β ′) (step S33). S34). Subsequently, the storage execution unit 42A calculates a shooting section that includes the section reference position (α ′, β ′) in the shooting range (step S35). Then, the storage execution unit 42A stores the visual content in association with the shooting section identification information calculated by the content DB 32A (step S36).

<コンテンツ検索処理>
ステップS41〜ステップS43の処理は、第1実施形態のステップS21〜ステップS23の処理(図4参照)と同様である。また、ステップS46〜ステップS47の処理は、第1実施形態のステップS26〜ステップS27の処理(図4参照)と同様である。
ステップS43に続いて、検索実行部45Aは、収集位置が含まれる撮影区画Cを判定する(ステップS44)。そして、検索実行部45Aは、ステップS44で含まれると判定した撮影区画Cに登録された視覚コンテンツをコンテンツDB32Aから取得(収集)する(ステップS45)。
<Content search processing>
The process of step S41-step S43 is the same as the process (refer FIG. 4) of step S21-step S23 of 1st Embodiment. Moreover, the process of step S46-step S47 is the same as the process (refer FIG. 4) of step S26-step S27 of 1st Embodiment.
Subsequent to step S43, the search execution unit 45A determines the shooting section C including the collection position (step S44). Then, the search execution unit 45A acquires (collects) the visual content registered in the shooting section C determined to be included in step S44 from the content DB 32A (step S45).

以上のように、第2実施形態に係るコンテンツ提供システム1Aは、視覚コンテンツをコンテンツDB32Aに格納する際に、撮影区画Cに対応付けて視覚コンテンツを格納する。したがって、コンテンツ提供システム1Aは、視覚コンテンツを検索する際に、コンテンツDB32Aを参照して、収集位置が含まれる撮影区画Cに登録された視覚コンテンツをコンテンツDB32Aから取得(収集)することができる。その為、視覚コンテンツを撮影した被写体単位で、関連する視覚コンテンツを容易に検索することができる。   As described above, the content providing system 1A according to the second embodiment stores visual content in association with the shooting section C when storing visual content in the content DB 32A. Accordingly, when searching for visual content, the content providing system 1A can acquire (collect) the visual content registered in the shooting section C including the collection position from the content DB 32A with reference to the content DB 32A. Therefore, it is possible to easily search for related visual contents in units of subjects that have taken visual contents.

なお、第2実施形態に係るコンテンツ提供システム1Aは、被写体に関連する視覚コンテンツの絞り込みを検索時に行いやすいように、検索の前提となる視覚コンテンツを格納する際に撮影範囲情報を用いて事前に処理を行っておく。その為、視覚コンテンツの検索処理に要する時間が第1実施形態に係るコンテンツ提供システム1に比べて短くてすむ。   It should be noted that the content providing system 1A according to the second embodiment uses the shooting range information in advance when storing the visual content that is the premise of the search so that the visual content related to the subject can be easily narrowed during the search. Process it. Therefore, the time required for the visual content search process can be shorter than that of the content providing system 1 according to the first embodiment.

[変形例]
以上、本発明の実施形態について説明したが、本発明はこれに限定されるものではなく、特許請求の範囲の趣旨を変えない範囲で実施することができる。実施形態の変形例を以下に示す。
[Modification]
As mentioned above, although embodiment of this invention was described, this invention is not limited to this, It can implement in the range which does not change the meaning of a claim. The modification of embodiment is shown below.

第1実施形態に係るコンテンツ提供システム1および第2実施形態に係るコンテンツ提供システム1Aは、1つ以上のユーザ端末2と、それぞれのユーザ端末2にネットワークNWを介して通信可能に接続されるコンテンツ提供装置3とを備えて構成されていた。しかしながら、コンテンツ提供システム1,1Aの構成はこれに限定されるものではない。例えば、コンテンツ提供装置3が備える機能をユーザ端末2に追加して、ユーザ端末2内で行う視覚コンテンツの検索に実施形態で説明した処理を適用してもよい。   The content providing system 1 according to the first embodiment and the content providing system 1A according to the second embodiment include one or more user terminals 2 and contents that are communicably connected to each user terminal 2 via a network NW. And providing device 3. However, the configuration of the content providing systems 1 and 1A is not limited to this. For example, the function provided in the content providing device 3 may be added to the user terminal 2, and the processing described in the embodiment may be applied to visual content search performed in the user terminal 2.

また、第1実施形態および第2実施形態では、撮影範囲情報が撮影位置、撮影距離、撮影方向、画角の4要素からなる場合を想定していた。しかしながら、撮影範囲情報はこれらの要素に限定されるものではない。例えば、撮影範囲情報は、撮影時刻を含めたものであってもよく、それに伴い撮影時刻を考慮した収集位置または収集範囲の指定および視覚コンテンツの検索を実施してもよい。   In the first embodiment and the second embodiment, it is assumed that the shooting range information includes four elements, that is, a shooting position, a shooting distance, a shooting direction, and a field angle. However, the shooting range information is not limited to these elements. For example, the shooting range information may include the shooting time, and accordingly, the collection position or the collection range may be specified and the visual content may be searched in consideration of the shooting time.

また、第1実施形態および第2実施形態では、説明を容易にするために空間を二次元に近似していたが、三次元の空間を考慮したものであってもよい。その場合、例えば、撮影範囲情報の撮影位置として経度、緯度のほかに標高も考慮するようにする。また、画角は上下方向(仰俯角)も考慮するようにする。   In the first embodiment and the second embodiment, the space is approximated two-dimensionally for ease of explanation, but a three-dimensional space may be considered. In this case, for example, altitude is considered in addition to longitude and latitude as the shooting position of the shooting range information. The angle of view should also consider the vertical direction (elevation angle).

また、第2実施形態では、撮影区画Cとして均等な正方形を想定していたが、撮影区画Cの形状や大きさはこれに限定されない。撮影区画Cは、例えば、長方形や三角形等であってもよい。また、撮影区画Cは、不均等であってもよく、例えば、被写体が多い場所の撮影区画Cの数を増やし(撮影区画Cを小さくする)、被写体が少ない場所の撮影区画Cの数を減らす(撮影区画Cを大きくする)ようにしてもよい。   In the second embodiment, a uniform square is assumed as the shooting section C, but the shape and size of the shooting section C are not limited to this. The shooting section C may be, for example, a rectangle or a triangle. Further, the shooting sections C may be uneven. For example, the number of shooting sections C where there are many subjects is increased (the shooting section C is reduced), and the number of shooting sections C where there are few subjects is reduced. (The shooting section C may be enlarged).

さらに、第1実施形態および第2実施形態が実現する被写体が写っている写真(視覚コンテンツ)を検索する機能により、従来のシステムでは実現できなかった新たなサービスの実現が可能になる。以下、想定される利用場面について図10を参照して説明する。
<利用シーン1>
例えば、コンテンツ提供システム1,1Aに竜巻の経路を指定することにより、竜巻を撮影した視覚コンテンツを収集することができる。その為、コンテンツ提供システム1,1Aを竜巻発生メカニズムの解明に役立てることができる。
<利用シーン2>
また、コンテンツ提供システム1,1Aにサッカー、野球場を範囲指定することにより、360度あらゆる角度から撮影されたプレー画像を収集できる。その為、コンテンツ提供システム1,1Aを自由視点コンテンツの作成に利用できる。
<利用シーン3>
また、飲食店経営者が、コンテンツ提供システム1,1Aに自店舗を指定することで、自店舗で撮影された写真を検索できる。その為、コンテンツ提供システム1,1Aを撮影者に対するフィードバックや写真を利用した販促活動に利用できる。
<利用シーン4>
また、コンテンツ提供システム1,1Aにある地点で写真を撮影することにより、その写真に写っている被写体を撮影した過去の写真を検索できる。その為、コンテンツ提供システム1,1Aを被写体の時系列情報の取得に利用できる。
Furthermore, the function of searching for a photograph (visual content) showing a subject that is realized by the first embodiment and the second embodiment makes it possible to realize a new service that cannot be realized by a conventional system. Hereinafter, an assumed usage scene will be described with reference to FIG.
<Use scene 1>
For example, by designating the tornado path to the content providing systems 1 and 1A, it is possible to collect visual content obtained by photographing the tornado. Therefore, the content providing systems 1 and 1A can be used for elucidating the tornado generation mechanism.
<Use scene 2>
Further, by specifying the range of soccer and baseball fields in the content providing systems 1 and 1A, it is possible to collect play images taken from all angles of 360 degrees. Therefore, the content providing systems 1 and 1A can be used for creating free viewpoint content.
<Usage scene 3>
In addition, the restaurant manager can search for photos taken at his / her own store by designating his / her own store in the content providing systems 1 and 1A. Therefore, the content providing system 1 or 1A can be used for sales promotion activities using feedback and photographs to the photographer.
<Use scene 4>
In addition, by taking a picture at a point in the content providing system 1 or 1A, it is possible to search past pictures taken of the subject in the picture. Therefore, the content providing systems 1 and 1A can be used for acquiring time-series information of the subject.

1,1A コンテンツ提供システム
2 ユーザ端末
3 コンテンツ提供装置(コンテンツ格納装置,コンテンツ検索装置)
11 タッチディスプレイ
12 デジタルカメラ
13 GPS受信機
21 視覚コンテンツ作成部
22 格納要求部
23 検索要求部
24 視覚コンテンツ表示部
31 収集範囲DB
32,32A コンテンツDB(記憶部)
33 撮影区画DB
41 格納要求受付部
42,42A 格納実行部
43 格納応答部
44 検索要求受付部
45,45A 検索実行部
46 検索応答部
1, 1A content providing system 2 user terminal 3 content providing device (content storage device, content search device)
DESCRIPTION OF SYMBOLS 11 Touch display 12 Digital camera 13 GPS receiver 21 Visual content creation part 22 Storage request part 23 Search request part 24 Visual content display part 31 Collection range DB
32, 32A content DB (storage unit)
33 Shooting section DB
41 Storage Request Reception Unit 42, 42A Storage Execution Unit 43 Storage Response Unit 44 Search Request Reception Unit 45, 45A Search Execution Unit 46 Search Response Unit

Claims (8)

視覚コンテンツの検索を行うコンテンツ検索装置であって、
前記視覚コンテンツに対応付けて前記視覚コンテンツの撮影範囲を示す撮影範囲情報が記憶される記憶部と、
検索する際の基準となる収集位置を取得するか、または特定の空間を示す収集範囲を取得して、取得した前記収集範囲から前記収集位置を算出する検索要求受付部と、
前記記憶部に格納される前記視覚コンテンツの撮影範囲に前記収集位置が含まれるか否かを判定し、撮影範囲に含まれる視覚コンテンツを前記記憶部から取得する検索実行部と、
を備えることを特徴とするコンテンツ検索装置。
A content search device for searching visual contents,
A storage unit that stores shooting range information indicating a shooting range of the visual content in association with the visual content;
A search request accepting unit that acquires a collection position serving as a reference when searching, or acquires a collection range indicating a specific space, and calculates the collection position from the acquired collection range;
A search execution unit that determines whether or not the collection position is included in the shooting range of the visual content stored in the storage unit, and acquires the visual content included in the shooting range from the storage unit;
A content search apparatus comprising:
前記記憶部に格納される撮影範囲情報は、前記視覚コンテンツの撮影位置、撮影距離、撮影方向と画角とからなる撮影幅を示す情報を含み、
前記検索実行部は、前記撮影位置から前記収集位置までの相対距離が前記撮影距離以内であるかを計算すると共に、前記撮影位置から前記収集位置までの相対方向が前記撮影幅以内であるかを計算することで、前記視覚コンテンツの撮影範囲に前記収集位置が含まれるか否かを判定する、
ことを特徴とする請求項1に記載のコンテンツ検索装置。
The shooting range information stored in the storage unit includes information indicating a shooting width including a shooting position, a shooting distance, a shooting direction, and a field angle of the visual content,
The search execution unit calculates whether a relative distance from the photographing position to the collection position is within the photographing distance, and whether a relative direction from the photographing position to the collection position is within the photographing width. By calculating, it is determined whether or not the collection position is included in the shooting range of the visual content.
The content search apparatus according to claim 1.
前記記憶部に記憶される前記視覚コンテンツと前記撮影範囲情報とを、前記視覚コンテンツおよび前記視覚コンテンツの撮影範囲を示す撮影範囲情報を取得するか、または前記視覚コンテンツおよび前記視覚コンテンツを撮影した撮影装置の撮影装置情報を取得して、取得した前記撮影装置情報から前記撮影範囲情報を算出することにより、前記記憶部に格納する格納実行部、
を備えることを特徴とする請求項1または請求項2に記載のコンテンツ検索装置。
The visual content stored in the storage unit and the shooting range information are acquired as shooting range information indicating the shooting range of the visual content and the visual content, or shooting of the visual content and the visual content is shot. A storage execution unit that acquires the shooting device information of the device and calculates the shooting range information from the acquired shooting device information, and stores the shooting range information in the storage unit;
The content search apparatus according to claim 1, further comprising:
視覚コンテンツの検索を行うコンテンツ検索装置のコンテンツ検索方法であって、
前記コンテンツ検索装置は、前記視覚コンテンツに対応付けて前記視覚コンテンツの撮影範囲を示す撮影範囲情報が記憶される記憶部を備えており、
検索する際の基準となる収集位置を取得するか、または特定の空間を示す収集範囲を取得して、取得した前記収集範囲から前記収集位置を算出し、
前記記憶部に格納される視覚コンテンツの撮影範囲に前記収集位置が含まれるか否かを判定し、撮影範囲に含まれる前記視覚コンテンツを前記記憶部から取得する、
ことを特徴とするコンテンツ検索方法。
A content search method of a content search device for searching visual contents,
The content search device includes a storage unit that stores shooting range information indicating a shooting range of the visual content in association with the visual content,
Obtain a collection position that serves as a reference when searching, or obtain a collection range indicating a specific space, calculate the collection position from the obtained collection range,
Determining whether or not the collection position is included in a shooting range of visual content stored in the storage unit, and acquiring the visual content included in the shooting range from the storage unit;
A content search method characterized by the above.
視覚コンテンツの格納を行うコンテンツ格納装置であって、
予め設定された区画を示す区画情報に対応付けて前記視覚コンテンツが記憶される記憶部と、
前記視覚コンテンツおよび前記視覚コンテンツの撮影範囲を示す撮影範囲情報を取得するか、または前記視覚コンテンツおよび前記視覚コンテンツを撮影した撮影装置の撮影装置情報を取得して、取得した前記撮影装置情報から前記撮影範囲情報を算出し、
前記記憶部に格納される前記区画の中から前記撮影範囲が含まれるものを算出して、前記区画に対応付けて前記視覚コンテンツを前記記憶部に格納する格納実行部と、
を備えることを特徴とするコンテンツ格納装置。
A content storage device for storing visual content,
A storage unit in which the visual content is stored in association with section information indicating a section set in advance;
Obtaining the visual content and photographing range information indicating a photographing range of the visual content, or obtaining photographing device information of the photographing device that photographed the visual content and the visual content, and obtaining the photographing device information from the obtained photographing device information. Calculate shooting range information,
A storage execution unit that calculates the range including the shooting range from the sections stored in the storage unit, and stores the visual content in the storage unit in association with the section;
A content storage device comprising:
前記記憶部に格納される前記区画情報は、前記区画を特定する際の基準となる区画基準位置からなり、また、前記撮影範囲情報は、前記視覚コンテンツの撮影位置、撮影距離、撮影方向と画角とからなる撮影幅を示す情報を含み、
前記格納実行部は、前記撮影位置から前記区画基準位置までの相対距離が前記撮影距離以内であるかを計算すると共に、前記撮影位置から前記区画基準位置までの相対方向が前記撮影幅以内であるかを計算することで、前記区画の中から前記撮影範囲が含まれるものを算出する、
ことを特徴とする請求項5に記載のコンテンツ格納装置。
The section information stored in the storage unit includes a section reference position serving as a reference when specifying the section, and the shooting range information includes a shooting position, a shooting distance, a shooting direction, and an image of the visual content. Including information indicating the shooting width, consisting of corners,
The storage execution unit calculates whether a relative distance from the photographing position to the section reference position is within the photographing distance, and a relative direction from the photographing position to the section reference position is within the photographing width. By calculating or calculating what includes the shooting range from the section,
The content storage device according to claim 5.
検索する際の基準となる収集位置を取得するか、または特定の空間を示す収集範囲を取得して、取得した前記収集範囲から前記収集位置を算出する検索要求受付部と、
前記収集位置が含まれる前記区画を判定し、含まれると判定した前記区画に対応する前記視覚コンテンツを前記記憶部から取得する検索実行部と、
を備えることを特徴とする請求項5または請求項6に記載のコンテンツ格納装置。
A search request accepting unit that acquires a collection position serving as a reference when searching, or acquires a collection range indicating a specific space, and calculates the collection position from the acquired collection range;
A search execution unit that determines the section including the collection position and acquires the visual content corresponding to the section determined to be included from the storage unit;
The content storage device according to claim 5, further comprising:
視覚コンテンツの格納を行うコンテンツ格納装置のコンテンツ格納方法であって、
前記コンテンツ格納装置は、予め設定された区画を示す区画情報に対応付けて前記視覚コンテンツが記憶される記憶部を備えており、
前記視覚コンテンツおよび前記視覚コンテンツの撮影範囲を示す撮影範囲情報を取得するか、または前記視覚コンテンツおよび前記視覚コンテンツを撮影した撮影装置の撮影装置情報を取得して、取得した前記撮影装置情報から前記撮影範囲情報を算出し、
前記記憶部に格納される前記区画の中から前記撮影範囲が含まれるものを算出して、前記区画に対応付けて視覚コンテンツを前記記憶部に格納する、
ことを特徴とするコンテンツ格納方法。
A content storage method of a content storage device for storing visual content,
The content storage device includes a storage unit that stores the visual content in association with partition information indicating a preset partition,
Obtaining the visual content and photographing range information indicating a photographing range of the visual content, or obtaining photographing device information of the photographing device that photographed the visual content and the visual content, and obtaining the photographing device information from the obtained photographing device information. Calculate shooting range information,
Calculating one including the shooting range from the sections stored in the storage unit, and storing visual content in the storage unit in association with the section;
A content storage method characterized by the above.
JP2015019357A 2015-02-03 2015-02-03 Content search device, content search method, content storage device, and content storage method Active JP6302421B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015019357A JP6302421B2 (en) 2015-02-03 2015-02-03 Content search device, content search method, content storage device, and content storage method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015019357A JP6302421B2 (en) 2015-02-03 2015-02-03 Content search device, content search method, content storage device, and content storage method

Publications (2)

Publication Number Publication Date
JP2016143269A true JP2016143269A (en) 2016-08-08
JP6302421B2 JP6302421B2 (en) 2018-03-28

Family

ID=56568740

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015019357A Active JP6302421B2 (en) 2015-02-03 2015-02-03 Content search device, content search method, content storage device, and content storage method

Country Status (1)

Country Link
JP (1) JP6302421B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108197299A (en) * 2018-01-24 2018-06-22 广东小天才科技有限公司 A kind of taking pictures based on hand-held photographing device searches topic method and system
WO2018163906A1 (en) * 2017-03-06 2018-09-13 株式会社ミックウェア Information processing device, information processing system, and information processing program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008250474A (en) * 2007-03-29 2008-10-16 Hitachi Ltd Information retrieval device with camera
WO2013099472A1 (en) * 2011-12-27 2013-07-04 ソニー株式会社 Server, client terminal, system, and recording medium
WO2013114473A1 (en) * 2012-02-02 2013-08-08 パナソニック株式会社 Server, terminal device, image retrieval method, image processing method, and program
JP2013182332A (en) * 2012-02-29 2013-09-12 Nikon Corp Image display program and image display device
WO2014184937A1 (en) * 2013-05-16 2014-11-20 株式会社ビジョナリスト Image-file clustering system and image-file clustering program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008250474A (en) * 2007-03-29 2008-10-16 Hitachi Ltd Information retrieval device with camera
WO2013099472A1 (en) * 2011-12-27 2013-07-04 ソニー株式会社 Server, client terminal, system, and recording medium
WO2013114473A1 (en) * 2012-02-02 2013-08-08 パナソニック株式会社 Server, terminal device, image retrieval method, image processing method, and program
JP2013182332A (en) * 2012-02-29 2013-09-12 Nikon Corp Image display program and image display device
WO2014184937A1 (en) * 2013-05-16 2014-11-20 株式会社ビジョナリスト Image-file clustering system and image-file clustering program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018163906A1 (en) * 2017-03-06 2018-09-13 株式会社ミックウェア Information processing device, information processing system, and information processing program
JPWO2018163906A1 (en) * 2017-03-06 2020-05-14 株式会社 ミックウェア Information processing device, information processing system, and information processing program
JP6989901B2 (en) 2017-03-06 2022-01-12 株式会社 ミックウェア Information processing equipment, information processing system and information processing program
US11294951B2 (en) 2017-03-06 2022-04-05 Micware Co., Ltd. Information processing device, information processing system, and information processing program
CN108197299A (en) * 2018-01-24 2018-06-22 广东小天才科技有限公司 A kind of taking pictures based on hand-held photographing device searches topic method and system
CN108197299B (en) * 2018-01-24 2020-07-24 广东小天才科技有限公司 Photographing and question searching method and system based on handheld photographing equipment

Also Published As

Publication number Publication date
JP6302421B2 (en) 2018-03-28

Similar Documents

Publication Publication Date Title
US9338311B2 (en) Image-related handling support system, information processing apparatus, and image-related handling support method
US9552483B2 (en) Method for managing privacy of digital images
US8447769B1 (en) System and method for real-time image collection and sharing
CN104641399B (en) System and method for creating environment and for location-based experience in shared environment
JP4181372B2 (en) Display device, image information management terminal, image information management system, and image display method
US8254727B2 (en) Method and apparatus for providing picture file
US20130129232A1 (en) Group method for making event-related media collection
JP2013162487A (en) Image display apparatus and imaging apparatus
US20130128038A1 (en) Method for making event-related media collection
JP2014112302A (en) Prescribed area management system, communication method, and program
US20150153933A1 (en) Navigating Discrete Photos and Panoramas
TW201203170A (en) Information processing device, information processing system, and program
JP6555026B2 (en) Information provision system
WO2019171803A1 (en) Image search device, image search method, electronic equipment, and control method
CN111680238B (en) Information sharing method, device and storage medium
JP6302421B2 (en) Content search device, content search method, content storage device, and content storage method
JP6115113B2 (en) Predetermined area management system, predetermined area management method, and program
JP5739239B2 (en) Imaging support system and imaging apparatus
US10778855B2 (en) System and method for creating contents by collaborating between users
US10986394B2 (en) Camera system
JP5932107B2 (en) Image processing server and imaging apparatus
JP2018005611A (en) Information processing equipment
WO2023095770A1 (en) Augmented reality display device, server device, augmented reality display system, augmented reality display method, and program
JP2016072918A (en) Information processor, image file sharing method and computer program
JP2014093004A (en) Server apparatus, information processing method and information processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170224

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180227

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180302

R150 Certificate of patent or registration of utility model

Ref document number: 6302421

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150