JP2015056152A - Display control device and method for controlling display control device - Google Patents

Display control device and method for controlling display control device Download PDF

Info

Publication number
JP2015056152A
JP2015056152A JP2013190940A JP2013190940A JP2015056152A JP 2015056152 A JP2015056152 A JP 2015056152A JP 2013190940 A JP2013190940 A JP 2013190940A JP 2013190940 A JP2013190940 A JP 2013190940A JP 2015056152 A JP2015056152 A JP 2015056152A
Authority
JP
Japan
Prior art keywords
image
search
information
display control
priority
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013190940A
Other languages
Japanese (ja)
Other versions
JP6210807B2 (en
Inventor
真宏 会見
Masahiro Aimi
真宏 会見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013190940A priority Critical patent/JP6210807B2/en
Publication of JP2015056152A publication Critical patent/JP2015056152A/en
Application granted granted Critical
Publication of JP6210807B2 publication Critical patent/JP6210807B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

PROBLEM TO BE SOLVED: To enable an image which could have been recognized by an image retriever to be easily retrieved.SOLUTION: There is provided a display control device for retrieving, from a plurality of pieces of preregistered image data, image data in which a specific object to be retrieved is seen and displaying the retrieved image data, the display control device comprising retrieval range calculation means for calculating, from position information and path information about the object to be retrieved, a position range in which an image is retrieved, and order of priority setting means for imparting an order of priority to the retrieval result on the basis of the position information about the object to be retrieved and image information about the retrieved image, the display control device enabling time and labor for retrieving an image which could have been recognized by an image retriever to be dispensed with by acquiring a position and direction as well as path information.

Description

本発明は表示制御装置及び表示制御装置の制御方法に関し、特に、複数の画像から特定の被写体が写った画像を検索するために用いて好適な技術に関するものである。   The present invention relates to a display control device and a control method of the display control device, and more particularly to a technique suitable for searching for an image in which a specific subject is captured from a plurality of images.

従来の画像検索装置は、複数のカメラで撮像された画像から史跡や建造物など特定の被写体が写った画像を検索するには、カメラの位置情報や方位情報を用いて被写体を特定し、撮像位置周辺、被写体周辺の画像を検索対象としていた。   In order to search for an image of a specific subject such as a historic site or a building from images taken by a plurality of cameras, a conventional image search device specifies the subject using camera position information and orientation information, and then captures the image. Images around the position and around the subject were searched.

例えば、特許文献1ではカメラの位置情報と方位情報を用いて画像データと地図データを対比して建造物を発見し、建造物付近で撮影した画像を検索する技術が開示されている。また、特許文献2では検索を所望する画像データの撮影場所及び撮影日時に近い画像データを検索する技術が開示されている。   For example, Patent Document 1 discloses a technique for finding a building by comparing image data and map data using camera position information and azimuth information, and searching for an image taken near the building. Patent Document 2 discloses a technique for searching for image data close to the shooting location and shooting date and time of image data desired to be searched.

特開2009−225279号公報JP 2009-225279 A 特開2009−176262号公報JP 2009-176262 A

しかしながら、前述の特許文献に開示された従来技術では、被写体あるいは撮影位置付近の画像は検索されるが、被写体及び撮影位置付近のどの場所で、どの向きに撮影された画像が検索されるかはわからなかった。   However, in the prior art disclosed in the above-mentioned patent document, an image near the subject or the shooting position is searched. However, in which place near the subject and the shooting position, the image shot in which direction is searched. I did not understand.

本発明は前述の問題点に鑑み、画像の検索において、ユーザにとってより適切な検索結果を得られるようにすることを目的とする。   The present invention has been made in view of the above-described problems, and an object of the present invention is to obtain a search result more appropriate for a user in image search.

本発明の表示制御装置は、予め登録されている複数の画像データの中から特定の検索対象物が写った画像データを検索して表示する表示制御装置であって、前記検索対象物の位置情報および経路情報から画像を検索する位置範囲を算出する検索範囲算出手段と、前記検索対象物の位置情報および検索された画像の画像情報に基づいて検索結果に対して優先順位を付与する優先順位設定手段とを備えることを特徴とする。   The display control device according to the present invention is a display control device that searches and displays image data in which a specific search object is captured from a plurality of pre-registered image data, the position information of the search object And search range calculation means for calculating a position range for searching for an image from route information, and priority order setting for giving priority to search results based on the position information of the search object and the image information of the searched image Means.

本発明によれば、画像の検索において、ユーザにとってより適切な検索結果を得られる表示制御装置を提供することができる。   According to the present invention, it is possible to provide a display control device capable of obtaining a search result more appropriate for a user in searching for an image.

本発明の実施形態による画像検索システムの概要を示す説明図である。It is explanatory drawing which shows the outline | summary of the image search system by embodiment of this invention. 第1の実施形態による撮影装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the imaging device by 1st Embodiment. 第1の実施形態による撮影装置のデータ処理の手順を説明するフローチャートである。It is a flowchart explaining the procedure of the data processing of the imaging device by 1st Embodiment. 第1の実施形態によるサーバーの構成例を示すブロック図である。It is a block diagram which shows the structural example of the server by 1st Embodiment. 第1の実施形態のサーバーのデータ処理の手順を説明するフローチャートである。It is a flowchart explaining the procedure of the data processing of the server of 1st Embodiment. 第1の実施形態によるサーバーの画像検索の手順を説明するフローチャートである。It is a flowchart explaining the procedure of the image search of the server by 1st Embodiment. 第1の実施形態による撮影条件検索範囲の例を示す図である。It is a figure which shows the example of the imaging condition search range by 1st Embodiment. 第1の実施形態による撮影条件検索範囲の拡大例を示す図である。It is a figure which shows the example of an expansion of the imaging condition search range by 1st Embodiment. 第1の実施形態による検索撮像条件の優先順位付与例を示す図である。It is a figure which shows the example of priority assignment | providing of the search imaging condition by 1st Embodiment. 第1の実施形態による画像ベースの表示方法の優先順位決定方法の説明図である。It is explanatory drawing of the priority determination method of the image-based display method by 1st Embodiment. 第1の実施形態による距離ベースの表示方法の優先順位決定方法の説明図である。It is explanatory drawing of the priority determination method of the distance-based display method by 1st Embodiment. 第1の実施形態による利用者端末の構成例を示すブロック図である。It is a block diagram which shows the structural example of the user terminal by 1st Embodiment. 第1の実施形態による利用者端末のデータ処理の手順の一例を示すフローチャートである。It is a flowchart which shows an example of the procedure of the data processing of the user terminal by 1st Embodiment. 第1の実施形態による利用者端末のデータ処理の手順の一例を示すフローチャートである。It is a flowchart which shows an example of the procedure of the data processing of the user terminal by 1st Embodiment. 第1の実施形態による地図上の検索結果表示方法による検索経路データの算出例を示す図である。It is a figure which shows the calculation example of the search route data by the search result display method on the map by 1st Embodiment. 第1の実施形態による経路順の検索結果表示方法による検索経路データの算出例を示す図である。It is a figure which shows the calculation example of the search route data by the search result display method of the route order by 1st Embodiment. 第1の実施形態による地図上の検索結果表示例を示す図である。It is a figure which shows the example of a search result display on the map by 1st Embodiment. 第1の実施形態による経路順の検索結果表示例を示す図である。It is a figure which shows the example of a search result display of the order of a path | route by 1st Embodiment. 第2の実施形態による利用者端末の構成例を示すブロック図である。It is a block diagram which shows the structural example of the user terminal by 2nd Embodiment. 第2の実施形態による利用者端末のデータ処理の手順を説明するフローチャートである。It is a flowchart explaining the procedure of the data processing of the user terminal by 2nd Embodiment. 第2の実施形態によるサーバーの画像検索処理を説明するフローチャートである。It is a flowchart explaining the image search process of the server by 2nd Embodiment.

以下に、本発明の好ましい実施形態を、添付の図面に基づいて詳細に説明する。
<第1の実施形態>
以下、図面を参照しつつ本発明の第1の実施形態による画像検索処理について説明する。
[システムの概要]
図1は、本発明の表示制御装置を用いた画像検索システムの概要を示す説明図である。画像検索システムは、撮影装置100と、サーバー101と、利用者端末102で構成され、インターネット103などを介して撮影装置100、サーバー101、利用者端末102の間で通信しデータ授受を行う。撮影装置100と利用者端末102とを兼用することも可能である。前述のように構成された画像検索システムは、予め登録されている複数の画像データの中から特定の検索対象物が写った画像を検索する。
Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.
<First Embodiment>
Hereinafter, image search processing according to the first embodiment of the present invention will be described with reference to the drawings.
[System Overview]
FIG. 1 is an explanatory diagram showing an outline of an image search system using the display control apparatus of the present invention. The image search system includes an imaging device 100, a server 101, and a user terminal 102, and communicates data between the imaging device 100, the server 101, and the user terminal 102 via the Internet 103 or the like. The photographing apparatus 100 and the user terminal 102 can be used together. The image search system configured as described above searches for an image in which a specific search object is captured from a plurality of image data registered in advance.

撮影装置100は、被写体を撮影して画像を生成すると共に撮影位置と撮影方向を検知する手段を有し、サーバー101は、撮影装置100で撮影された画像及び撮影条件を記録する手段を有している。また、利用者端末102は、サーバー101から出力された画像情報を地図上に表示する手段を有している。また、撮影装置100、サーバー101および利用者端末102は、それぞれ通信手段を備えている。   The photographing apparatus 100 has means for photographing a subject to generate an image and detecting a photographing position and a photographing direction. The server 101 has means for recording an image photographed by the photographing apparatus 100 and photographing conditions. ing. Further, the user terminal 102 has means for displaying the image information output from the server 101 on a map. The photographing apparatus 100, the server 101, and the user terminal 102 each include a communication unit.

サーバー101は、公知のパソコンで構成可能である。撮影装置100、利用者端末102としては、スマートフォンなどのカメラ付き携帯電話や、無線LANなどの通信装置付きデジタルカメラ、ノートパソコン、いわゆるタブレットデバイス等が利用できる。   The server 101 can be configured by a known personal computer. As the imaging device 100 and the user terminal 102, a mobile phone with a camera such as a smartphone, a digital camera with a communication device such as a wireless LAN, a laptop computer, a so-called tablet device, or the like can be used.

上記システムにおいて、まず撮影装置100は、撮影して得られたた元画像データ104を、サーバー101へ送信する。サーバー101は、受信した元画像データ104に撮影条件データが含まれる場合、画像データ105と撮影条件データ106とを分割してデータベースに記録する。この処理は、撮影装置100からのみならず、他の装置からの画像データも同様にデータベースに記録される。結果として、サーバー101のデータベースには、多くの画像データと、撮影条件データとが蓄積される。
一方、利用者端末102は、サーバー101に蓄積された画像データから、所望の画像データを得るために、サーバー101に対して、検索キーとなる情報を送信する。本実施形態において、ここで送信される情報は、検索位置データ107、表示条件データ108、検索経路データ109の三つである。
In the above system, first, the image capturing apparatus 100 transmits original image data 104 obtained by image capturing to the server 101. When the received original image data 104 includes shooting condition data, the server 101 divides the image data 105 and the shooting condition data 106 and records them in the database. In this process, not only the image capturing apparatus 100 but also image data from other apparatuses are recorded in the database. As a result, a lot of image data and shooting condition data are accumulated in the database of the server 101.
On the other hand, the user terminal 102 transmits information serving as a search key to the server 101 in order to obtain desired image data from the image data stored in the server 101. In the present embodiment, the information transmitted here is three of search position data 107, display condition data 108, and search route data 109.

検索位置データ107は、利用者端末102上にて指定した検索対象物の位置である。表示条件データ108は、利用者端末102上でどのように検索した画像を表示するかを指定したデータである。表示条件データとしてはユーザが指定した表示画像数(すなわちサーバー101から受信する画像の数)、表示する画像データの検索対象の最近傍点からの距離(指定距離)。および、地図上/経路順に画像を表示するかの選択フラグ、画像ベース表示/距離ベース表示の選択フラグなどが挙げられる。検索経路データ109は、利用者端末102に記録された経路データから抽出された画像検索対象となる経路である。これらのデータの生成方法および利用方法については後述することとし、説明を先に進める。   The search position data 107 is the position of the search target designated on the user terminal 102. The display condition data 108 is data that specifies how to display the searched image on the user terminal 102. The display condition data includes the number of display images specified by the user (that is, the number of images received from the server 101), and the distance from the nearest point to be searched for the image data to be displayed (specified distance). Further, there are a selection flag for displaying images on the map / in order of route, a selection flag for image base display / distance base display, and the like. The search route data 109 is a route that is an image search target extracted from the route data recorded in the user terminal 102. The generation method and use method of these data will be described later, and the description will proceed first.

サーバー101は、利用者端末102から検索位置データ107と表示条件データ108、検索経路データ109を受信すると、これらのデータに基づく条件を満たす撮影条件データ106と、その撮影条件データ106に対応する画像データ105とを検索する。検索した結果である撮影条件データ106と画像データ105は、検索画像データ110としてまとめて利用者端末102へ送信される。
このサーバー101から送信された検索画像データ110を受信した利用者端末102は、得られた検索画像データ110を表示条件データ108に応じて画像出力する。
以上を、本システムの基本的な構成とするが、例えば、サーバー101で撮影条件データを含む元画像データ104を画像データ105と撮影条件データ106とに分割しないで記録してもよい。また、撮影装置100側で、撮影条件データ106を分割してサーバー101へ送信してもよい。
このような全体構成を実現するためのシステムと、その実施方法について、以下に実施形態を挙げて説述する。
When the server 101 receives the search position data 107, the display condition data 108, and the search route data 109 from the user terminal 102, the image data corresponding to the conditions based on these data and the image corresponding to the image condition data 106 are obtained. Data 105 is searched. The image capturing condition data 106 and the image data 105, which are the search results, are collectively transmitted to the user terminal 102 as the search image data 110.
The user terminal 102 that has received the search image data 110 transmitted from the server 101 outputs an image of the obtained search image data 110 according to the display condition data 108.
The above is the basic configuration of this system. For example, the server 101 may record the original image data 104 including the shooting condition data without dividing the image data 105 and the shooting condition data 106. Further, the photographing condition data 106 may be divided and transmitted to the server 101 on the photographing apparatus 100 side.
A system for realizing such an overall configuration and an implementation method thereof will be described below with reference to embodiments.

[撮影装置100による画像送信処理]
図2は、本発明の実施形態の撮影装置100の構成例を示すブロック図、図3は撮影装置100で行なわれるデータ処理の手順を説明するフローチャートである。
本実施形態では、カメラ付きの小型通信端末を挙げる。撮影装置100には、演算処理を司るCPU200、それと協働するROM・RAM等のメモリ201、画像記憶部202、画面表示する表示部203、ユーザの入力をCPU200に伝達する操作入力部204を有する。
[Image transmission processing by photographing apparatus 100]
FIG. 2 is a block diagram illustrating a configuration example of the imaging apparatus 100 according to the embodiment of the present invention, and FIG. 3 is a flowchart illustrating a data processing procedure performed by the imaging apparatus 100.
In the present embodiment, a small communication terminal with a camera is cited. The photographing apparatus 100 includes a CPU 200 that performs arithmetic processing, a memory 201 such as a ROM / RAM that cooperates therewith, an image storage unit 202, a display unit 203 that displays a screen, and an operation input unit 204 that transmits user input to the CPU 200. .

さらに、インターネット103等のネットワークと接続して通信するための通信部205の他に、被写体を撮影して画像を生成する撮影部206と、撮影装置の存在する位置を検知するGPSセンサーなどの位置検知部207とを有している。また、撮影装置100の正面方向(撮像部に含まれるレンズ光軸方向)の方角を検知するジャイロセンサーや磁気方位センサーから成る方位検知部208、撮影装置100の内蔵時計から撮影した日時を検知する時刻検知部209を有している。   Furthermore, in addition to the communication unit 205 for connecting to and communicating with a network such as the Internet 103, a shooting unit 206 that shoots a subject and generates an image, and a position such as a GPS sensor that detects the position of the shooting device And a detection unit 207. In addition, the direction detection unit 208 including a gyro sensor and a magnetic direction sensor that detect the direction of the front direction of the image capturing apparatus 100 (the direction of the optical axis of the lens included in the image capturing unit), and the date and time of image capturing from the internal clock of the image capturing apparatus 100 are detected. A time detection unit 209 is included.

次に、図3のフローチャートを用いて、本実施形態の撮影装置100の画像送信フローについて説明する。本フローチャートの処理は、例えば、操作入力部204によってユーザから撮影の指示を受け付けたことに応じて開始される。
まず、S300において、CPU200は、撮影部206を用いて、撮影処理を行う。
次に、S301において、CPU200は、画像撮影時に撮影部206により取得された画像データ、位置検知部207による撮影位置情報、方位検知部208による撮影方位情報、時刻検知部209による撮影日時情報からなる撮影条件データを連結処理する。ここでは、画像データをExif−Jpegの形式で扱うこととし、画像データのヘッダ領域内に用意される所定の領域に、撮影条件データを記録することにより、各データを連結する。
Next, an image transmission flow of the photographing apparatus 100 of the present embodiment will be described using the flowchart of FIG. The process of this flowchart is started, for example, in response to receiving a shooting instruction from the user by the operation input unit 204.
First, in S300, the CPU 200 performs a shooting process using the shooting unit 206.
In step S <b> 301, the CPU 200 includes image data acquired by the shooting unit 206 at the time of image shooting, shooting position information by the position detection unit 207, shooting direction information by the direction detection unit 208, and shooting date / time information by the time detection unit 209. Concatenate processing of shooting condition data. Here, the image data is handled in the Exif-Jpeg format, and the shooting condition data is recorded in a predetermined area prepared in the header area of the image data, thereby connecting the data.

なお、前述した4つの撮影条件データの内、1つ以上が取得できなかった場合は、S301の連結処理を残りの撮影条件データにて行う。
S302にて、CPU200は、連結処理された画像データを画像記憶部202に記憶する。
S303にて、CPU200は、画像記憶部202に記憶された画像データをCPU200によって読み出す。
S304にて、CPU200は、読み出された画像データを通信部205を介してサーバー101へ送信し、処理を終了する。
If one or more of the four shooting condition data described above cannot be acquired, the connection process of S301 is performed with the remaining shooting condition data.
In S <b> 302, CPU 200 stores the connected image data in image storage unit 202.
In S <b> 303, CPU 200 reads out the image data stored in image storage unit 202 by CPU 200.
In S304, CPU 200 transmits the read image data to server 101 via communication unit 205, and ends the process.

なお、本実施形態では、撮影装置100からサーバー101へ画像データを送信(S304)する際に、インターネットを介してサーバー101へ送信する例を述べるが、これに限られるものではない。例えば、撮影装置100としてカメラ付き携帯電話を採用する場合は、セルラー回線を利用してもよい。あるいは、撮影装置100の画像データを一旦パソコンなどの通信端末に格納し、その通信端末からサーバー101にデータ送信を行ってもよい。すなわち、何らかの手段でサーバー101が、撮影条件データを含む画像データを蓄積できればよい。   In the present embodiment, an example in which image data is transmitted from the photographing apparatus 100 to the server 101 (S304) is transmitted to the server 101 via the Internet. However, the present invention is not limited to this. For example, when a camera-equipped mobile phone is employed as the photographing apparatus 100, a cellular line may be used. Alternatively, the image data of the photographing apparatus 100 may be temporarily stored in a communication terminal such as a personal computer, and data transmission may be performed from the communication terminal to the server 101. That is, it is sufficient that the server 101 can store image data including shooting condition data by some means.

[サーバー101による画像蓄積処理]
図4は、本実施形態によるサーバー101の構成例を示すブロック図、図5と図6は、サーバー101のデータ処理の手順を説明するフローチャートである。
サーバー101には、演算処理を司るCPU400、それと協働するROM・RAM等のメモリ401、ハードディスク等から成る画像記憶部402、インターネット103等のネットワークと接続して通信するための通信部403が備わる。
[Image accumulation processing by server 101]
FIG. 4 is a block diagram illustrating a configuration example of the server 101 according to the present embodiment, and FIGS. 5 and 6 are flowcharts illustrating a data processing procedure of the server 101.
The server 101 includes a CPU 400 that performs arithmetic processing, a memory 401 such as a ROM / RAM cooperating with the CPU 101, an image storage unit 402 including a hard disk, and a communication unit 403 for connecting and communicating with a network such as the Internet 103. .

図5のフローチャートを用いて、本実施形態のサーバー101の画像記憶の手順について説明する。このフローチャートの処理は、例えばサーバー101の電源がONとなることに応じて開始される。
S500において、CPU400は、通信部403によって撮影装置100から元画像データ104を受信する。
S501において、CPU400は、撮影装置100から受信した元画像データ104に分割処理を施す。具体的には、CPU400は、受信した元画像データ104を、画像データ105と撮影条件データ106に分割する。
S502において、CPU400は、S501にて得られた画像データ105と撮影条件データ106を、それぞれ画像記憶部402に記憶して蓄積する。
An image storage procedure of the server 101 of this embodiment will be described with reference to the flowchart of FIG. The processing of this flowchart is started in response to, for example, the server 101 being turned on.
In S <b> 500, the CPU 400 receives the original image data 104 from the imaging apparatus 100 through the communication unit 403.
In step S <b> 501, the CPU 400 performs division processing on the original image data 104 received from the imaging apparatus 100. Specifically, the CPU 400 divides the received original image data 104 into image data 105 and shooting condition data 106.
In S502, the CPU 400 stores and accumulates the image data 105 and the shooting condition data 106 obtained in S501 in the image storage unit 402, respectively.

以上の図3と図5の処理によって、サーバー101には、複数の画像データが蓄積されることになる。
以下では、こうして蓄積された画像データを、利用者端末102から利用するシーンを想定して説明する。
[サーバー101による画像検索]
まず、利用者端末102の動作を説明する前に、サーバー101の動作について説明する。
図6は、本実施形態のサーバー101で行なわれる画像検索の手順を説明するフローチャートである。
S600において、CPU400は、サーバー101の通信部403を介して、利用者端末102から検索位置データ107、検索経路データ109、表示条件データ108を受信する。これらのデータは利用者端末102で生成されるものである。その生成手順については後述する。
S601において、CPU400は、受信した検索経路データ109に基づき、データの検索対象を定めるための位置範囲を算出する。
3 and 5, a plurality of pieces of image data are accumulated in the server 101.
In the following, description will be given assuming a scene in which the image data accumulated in this way is used from the user terminal 102.
[Image search by server 101]
First, before describing the operation of the user terminal 102, the operation of the server 101 will be described.
FIG. 6 is a flowchart for explaining the procedure of image search performed by the server 101 of this embodiment.
In S <b> 600, the CPU 400 receives the search position data 107, the search route data 109, and the display condition data 108 from the user terminal 102 via the communication unit 403 of the server 101. These data are generated by the user terminal 102. The generation procedure will be described later.
In step S <b> 601, the CPU 400 calculates a position range for determining a data search target based on the received search path data 109.

図7に、S601の検索範囲算出処理で算出される検索範囲の一例を説明するための概念図を示す。図7では、利用者端末102によって指定された、所望の検索対象物の位置(検索位置)が位置701に示されている。また、検索経路が下側の太線である。CPU400は、検索経路に基づき、検索経路の視点と終点の間の経路の付近(例えば経路から10mの範囲)を、検索範囲として定める。図7の例では、斜線部の領域が検索範囲として定められる。なお、この検索経路は、利用者端末102にて、検索位置に近い位置示す位置を含む経路が選択されて送信されたものである。この利用者端末102側の処理については後述する。
このように、検索対象物の位置付近かつ経路付近を検索範囲とする。
FIG. 7 is a conceptual diagram for explaining an example of the search range calculated in the search range calculation process of S601. In FIG. 7, a position (search position) of a desired search target designated by the user terminal 102 is shown as a position 701. In addition, the search path is a lower thick line. Based on the search route, the CPU 400 determines the vicinity of the route between the viewpoint and the end point of the search route (for example, a range of 10 m from the route) as the search range. In the example of FIG. 7, the shaded area is defined as the search range. This search route is a route that is selected and transmitted by the user terminal 102 including a position indicating a position close to the search position. The processing on the user terminal 102 side will be described later.
In this way, the vicinity of the position of the search object and the vicinity of the route is set as the search range.

S602において、CPU400は、蓄積している撮影条件データの内、含まれる位置情報が前述した検索範囲内の位置を示す撮影条件データを検索する。
S603において、CPU400は、S602で検索された撮影条件データの有無を判定する。検索範囲内に撮影条件データが見つかれば、S604に遷移し、見つからなければ、S607に遷移する。
In step S602, the CPU 400 searches the stored shooting condition data for shooting condition data in which the included position information indicates a position within the search range described above.
In step S603, the CPU 400 determines whether there is shooting condition data searched in step S602. If photographing condition data is found within the search range, the process proceeds to S604, and if not found, the process proceeds to S607.

S607において、CPU400は、検索範囲を広げられるか否かを判定する。検索範囲を広げられない場合はS608に遷移し、利用者端末102に画像が無い旨を送信し、処理を終える。広げられる場合はS601に遷移し、範囲を広げて再検索を行う。ここで、検索範囲を広げるということについて説明する。
図8に、S601における画像の検索範囲の拡大例を示す。ここでは、検索経路データのみならず、検索位置の情報も利用している。すなわち、経路の始点および終点と検索位置とを結ぶ線と、経路とで囲まれる領域を検索範囲として再設定する。このように拡大することで、経路上ではないが、異なる位置から検索位置の被写体を撮影した画像を取得することが可能となる。
In S607, the CPU 400 determines whether or not the search range can be expanded. If the search range cannot be expanded, the process proceeds to S608, where the fact that there is no image is transmitted to the user terminal 102, and the process ends. If it can be expanded, the process proceeds to S601, where the range is expanded and the search is performed again. Here, expanding the search range will be described.
FIG. 8 shows an example of expansion of the image search range in S601. Here, not only the search route data but also the information of the search position is used. That is, the area surrounded by the route connecting the start point and end point of the route and the search position and the route is reset as the search range. By enlarging in this way, it is possible to acquire an image obtained by photographing the subject at the search position from a different position, but not on the route.

S604では、CPU400はS602にて見つかった撮影条件データに優先順位を付けて分類する優先順位設定処理を行う。
図9は、図7の検索範囲内に位置情報が示す位置を含む撮像条件データに対する優先順位付与の一例を説明するための図である。図9では、撮影条件データに含まれる撮影位置が示す位置を白丸、撮影方向を矢印で示す。これらの撮影条件データのうち、方位情報ありかつ検索対象方向に向いていることを示す撮影条件は優先度1に設定される。方位情報なしの撮影条件は優先度2に設定される。方位情報ありで、かつ検索対象方向を向いていない撮影条件は優先度3に設定される。なお、この優先度の付与の仕方は一例に過ぎない。例えばより多段階に分類してもよいし、より単純に少ない段階にしてもよい。
In step S604, the CPU 400 performs a priority setting process for classifying the shooting condition data found in step S602 with a priority.
FIG. 9 is a diagram for explaining an example of giving priority to the imaging condition data including the position indicated by the position information within the search range of FIG. In FIG. 9, the position indicated by the shooting position included in the shooting condition data is indicated by a white circle, and the shooting direction is indicated by an arrow. Among these shooting condition data, the shooting condition indicating that there is direction information and that the camera is in the search target direction is set to priority level 1. The shooting condition without orientation information is set to priority 2. Shooting conditions that have azimuth information and are not facing the search target direction are set to priority 3. Note that this method of assigning priority is merely an example. For example, it may be classified into more stages or more simply fewer stages.

ここで、検索対象方向に向いているか否かは、図9の優先度1の例のように撮影位置から指定位置への方向を基準とした所定の角度内に、撮影方向の示す向きが含まれるか否かによって判定される。これに加えて、例えば撮影条件データに含まれる撮像日時及び経路情報に含まれる経路取得日時情報を参照して、似た時間帯(時刻情報)、あるいは似た月日に撮影された画像の優先順位を上げてもよい。   Here, whether or not it is in the search target direction includes the direction indicated by the shooting direction within a predetermined angle based on the direction from the shooting position to the designated position as in the example of priority 1 in FIG. It is determined by whether or not. In addition to this, for example, referring to the imaging date / time included in the imaging condition data and the route acquisition date / time information included in the route information, priority is given to images taken on similar time zones (time information) or on similar dates. You may raise the ranking.

つまり、優先度1でかつ似た時刻に撮影された画像を優先度1a、優先度1でかつ似た時刻に撮影していない画像を優先度1bとして、1a、1bの順に優先順位づけを行ってもよい。なお、優先度の決め方は本例の通りでなくともよく、ユーザが自由に決定してもよい。CPU400はさらに、表示条件データ108に含まれる画像ベースか距離ベースかのフラグを見て、前述した手順で優先順位付けされた撮像条件データについてさらに優先順位の決定を行う。この優先順位決定方法の詳細については後述する。   That is, priorities are assigned in the order of 1a and 1b, with priority 1a for images taken at similar times with priority 1 and priority 1b for images not taken at similar times with priority 1 May be. Note that the priority may not be determined as in this example, but may be determined freely by the user. Further, the CPU 400 looks at the flag of image base or distance base included in the display condition data 108 and further determines the priority of the imaging condition data prioritized in the above-described procedure. Details of this priority determination method will be described later.

S605において、CPU400は、優先度が高い順に検索画像データ(画像データ、撮像位置が含まれるデータ)を生成し、利用者端末102に送信する。なお、画像データは画像のリンク先やサムネイルでもよい。
S606において、CPU400は、送信された検索画像データが、利用者端末102から受信した表示条件データ108にて指定された画像数に到達したか否かを判定する。到達していないと判定した場合はS605に戻り、低い優先度の検索画像データを生成・送信する。S606とS605の処理を、指定された画像数に到達するまで繰り返す。一方、CPU400が、指定された画像数に到達したと判定した場合は、サーバー側での処理を終了する。
In step S <b> 605, the CPU 400 generates search image data (image data and data including the imaging position) in descending order of priority and transmits the search image data to the user terminal 102. The image data may be an image link destination or a thumbnail.
In step S <b> 606, the CPU 400 determines whether the transmitted search image data has reached the number of images specified by the display condition data 108 received from the user terminal 102. If it is determined that it has not reached, the process returns to S605, and search image data with a low priority is generated and transmitted. The processes of S606 and S605 are repeated until the designated number of images is reached. On the other hand, if the CPU 400 determines that the specified number of images has been reached, the processing on the server side is terminated.

次に、図9で説明した優先順位の決定方法の別の例について説明する。
図10は、画像ベースの表示方法の優先順位決定方法を説明するための図である。本例では、撮影日時は考慮しないものとする。図10の白丸と矢印は撮影条件データがすべて検索位置を向いている優先度1の分類に相当する撮像条件データである。画像ベースの表示方法による画像0〜4の優先順位は、最近傍点に近い順に画像0、画像2、画像1、画像4、画像3の順である。
Next, another example of the priority determination method described in FIG. 9 will be described.
FIG. 10 is a diagram for explaining a priority order determination method of the image-based display method. In this example, the shooting date is not considered. The white circles and arrows in FIG. 10 are the imaging condition data corresponding to the priority 1 classification in which all of the imaging condition data faces the search position. The priorities of the images 0 to 4 according to the image-based display method are the order of image 0, image 2, image 1, image 4, and image 3 in order from the closest point.

しかし、この方法では、最近傍点(0m)付近に画像が集中しており、撮影方向の変化のない画像ばかりが表示される恐れがある。その場合、利用者が別の方向から指定位置を撮影した画像を検索するのが困難になる。これに対しては、次に示す距離ベースの表示方法が有効である。   However, with this method, the images are concentrated in the vicinity of the nearest point (0 m), and there is a possibility that only an image with no change in the shooting direction is displayed. In that case, it becomes difficult for the user to search for an image obtained by photographing the designated position from another direction. The following distance-based display method is effective for this.

図11は、距離ベースの表示方法の優先順位決定方法を説明するための図である。図11では、指定距離として0m、100m、200mを指定したとする。距離ベースの表示方法では、指定距離毎に撮像条件データを分け、指定距離に近い順に撮像条件データに優先順位を付ける。   FIG. 11 is a diagram for explaining a priority order determination method of the distance-based display method. In FIG. 11, it is assumed that 0 m, 100 m, and 200 m are designated as the designated distance. In the distance-based display method, the imaging condition data is divided for each designated distance, and the imaging condition data is prioritized in the order from the closest to the designated distance.

図11の場合は0〜50m(指定距離0m)のグループ1に画像2、画像0、画像1、画像4、画像3の順に入り、50〜150m(指定距離100m)のグループ2に画像5、画像6の順に入る。また、150〜250m(指定距離200m)のグループ3に画像7、画像8の順に優先順位付けされ、各グループの優先順位は、指定距離が小さい順に高くする。すなわち、検索対象物の位置近傍の経路上の位置から所望の距離毎に検索結果を分割し、各分割単位に優先順位を付与する。   In the case of FIG. 11, image 2, image 0, image 1, image 4, and image 3 are entered in this order in group 1 of 0 to 50 m (designated distance 0 m), and image 5 is entered in group 2 of 50 to 150 m (designated distance 100 m). The image 6 is entered in this order. Moreover, the priority order is assigned to the group 3 of 150 to 250 m (designated distance 200 m) in the order of the image 7 and the image 8, and the priority order of each group is increased in ascending order of the designated distance. That is, the search result is divided for each desired distance from a position on the route in the vicinity of the position of the search object, and a priority is given to each division unit.

図11においても距離0〜50m近傍に画像が集中しているが、グループ1、2、3から優先順位の高い順に1枚ずつ画像を表示させると、別の方向から指定位置を撮影した画像を容易に表示させることができる。前述した例で画像5枚を選ぶ場合は、グループ1の画像2が最も優先順位が高く、グループ2の画像5、グループ3の画像7、グループ1の画像0、グループ2の画像6の順に続く。   In FIG. 11, the images are concentrated in the vicinity of the distance of 0 to 50 m. However, when the images are displayed one by one in order of priority from the groups 1, 2, and 3, the images taken at the designated positions from different directions are displayed. It can be displayed easily. When selecting 5 images in the above example, the image 2 of the group 1 has the highest priority, and the image 5 of the group 2, the image 7 of the group 3, the image 0 of the group 1, and the image 6 of the group 2 continue in this order. .

なお、優先度の決め方は前述の例の通りでなくともよく、指定距離については、ユーザが利用者端末にて自由に決定できるものとする。また、距離毎のグループ分けについても、前述の例の通りでなくともよく、検索位置の前後の経路でさらにグループを分けてもよい。
以上、本実施形態におけるサーバー101の構成および動作について説明した。
Note that the priority may not be determined as described above, and the user can freely determine the designated distance at the user terminal. Further, the grouping for each distance may not be as described in the above example, and the group may be further divided on the route before and after the search position.
The configuration and operation of the server 101 in this embodiment have been described above.

続いて、本実施形態における利用者端末102の構成および動作について説明する。
図12は、本実施形態による利用者端末102の構成例を示すブロック図であり、図13及び図14は、利用者端末102のデータ処理の一例を説明するフローチャートである。
利用者端末102は、演算処理を司るCPU1200、それと協働するROM・RAM等のメモリ1201、利用者端末102が存在する地点を検知するGPS等の位置検知部1202を備えている。
Next, the configuration and operation of the user terminal 102 in this embodiment will be described.
FIG. 12 is a block diagram illustrating a configuration example of the user terminal 102 according to the present embodiment, and FIGS. 13 and 14 are flowcharts illustrating an example of data processing of the user terminal 102.
The user terminal 102 includes a CPU 1200 that performs arithmetic processing, a memory 1201 such as a ROM / RAM that cooperates therewith, and a position detection unit 1202 such as a GPS that detects a point where the user terminal 102 exists.

さらに、位置検知部1202により得られた位置データ及び地図データを記憶する記憶部1203、画面表示する表示部1204、ユーザの入力をCPU1200に伝達する操作入力部1205を備えている。また、インターネット103等のネットワークと接続して通信するための通信部1206を備えている。なお、記憶部1203は、例えば利用者端末102に内蔵されているハードディスクやSSDに類する記憶媒体であってもよいし、例えばSDカードなどの着脱可能な記憶媒体であってもよい。   Further, a storage unit 1203 for storing position data and map data obtained by the position detection unit 1202, a display unit 1204 for displaying a screen, and an operation input unit 1205 for transmitting user input to the CPU 1200 are provided. In addition, a communication unit 1206 for connecting and communicating with a network such as the Internet 103 is provided. Note that the storage unit 1203 may be, for example, a hard disk built in the user terminal 102 or a storage medium similar to an SSD, or may be a removable storage medium such as an SD card.

位置検知部1202により得られた位置データは一定時間、あるいは一定距離毎に通過位置データとして記憶される。通過位置データの記憶先は、利用者端末102の記憶部1203に記録してもよいし、必要に応じて逐次通信部1206を介して外部サーバーにアップロードして記憶してもよい。また、通過位置データには位置情報のみならず、位置情報を取得した日時を示す日時情報が含まれる。本実施形態では、この通過位置データは、その位置情報が取得された日付の単位毎にそれぞれ異なるファイルとして記憶部1203に記憶されることとする。なお、ここでは通過位置データは、NMEAフォーマットに従った形式のテキストファイル(いわゆるログファイル)の形で扱われる。   The position data obtained by the position detector 1202 is stored as passing position data for a certain time or every certain distance. The storage location of the passage position data may be recorded in the storage unit 1203 of the user terminal 102, or may be uploaded and stored in an external server via the communication unit 1206 as necessary. The passing position data includes not only position information but also date information indicating the date and time when the position information was acquired. In the present embodiment, the passage position data is stored in the storage unit 1203 as a different file for each unit of date on which the position information is acquired. Here, the passing position data is handled in the form of a text file (so-called log file) in a format according to the NMEA format.

図13のフローチャートを用いて、本実施形態の利用者端末102の検索条件送信フローについて説明する。本フローチャートの処理は、操作入力部1205を介したユーザからのメニュー操作に基づく指示に応じて開始される。
S1300で、CPU1200は、操作入力部1205により画像検索要求を受ける。
S1301で、ネットワークが利用可能な状況かどうかを判断する。ネットワークが利用可能であればS1302に遷移する。利用可能でない場合はS1308に遷移し、ネットワークへの接続を要求するメッセージを表示部1204に表示して処理を終了する。
The search condition transmission flow of the user terminal 102 of this embodiment will be described using the flowchart of FIG. The process of this flowchart is started in response to an instruction based on a menu operation from the user via the operation input unit 1205.
In S1300, CPU 1200 receives an image search request from operation input unit 1205.
In step S1301, it is determined whether the network is available. If the network is available, the process proceeds to S1302. If it is not available, the process proceeds to S1308, a message for requesting connection to the network is displayed on the display unit 1204, and the process ends.

S1302において、CPU1200は、利用者端末102が過去に通過した位置データ(通過位置データ)から利用者端末102の通過経路データを算出する。このデータはログデータから位置情報を時系列順に読み出したものである。この順序は、位置情報に対応する日時情報に従った順序である。なお、この通過経路データの算出の際に参照する通過位置データとしては、例えば記憶部1203に記憶されている最新のログファイル内の位置データを用いることができる。あるいは、予めユーザが指定していた一つまたは複数のログファイル内の位置データでもよい。
S1303において、CPU1200は、通過経路データとそれに対応する周辺の地図データを記憶部1203から読み出し、表示部1204に表示する。
In S1302, the CPU 1200 calculates passage route data of the user terminal 102 from position data (passing position data) that the user terminal 102 has passed in the past. This data is obtained by reading position information from log data in chronological order. This order is an order according to the date and time information corresponding to the position information. For example, position data in the latest log file stored in the storage unit 1203 can be used as the passage position data to be referred to when calculating the passage route data. Alternatively, position data in one or a plurality of log files designated by the user in advance may be used.
In S <b> 1303, the CPU 1200 reads out the passage route data and the corresponding map data in the vicinity from the storage unit 1203 and displays them on the display unit 1204.

S1304において、CPU1200は、タッチパネル、操作ボタン等の操作入力部1205から、所望の検索対象物の検索位置データ107と、検索結果の表示方法に関する表示条件データ108が入力されたか否かを判定する。検索位置データ107としては、例えば、ユーザがタッチパネルを介して地図上で指定した建物の位置などが挙げられる。   In step S1304, the CPU 1200 determines whether or not the search position data 107 of the desired search target and the display condition data 108 related to the display method of the search result are input from the operation input unit 1205 such as a touch panel and operation buttons. As the search position data 107, for example, the position of a building designated on the map by the user via the touch panel can be cited.

表示条件データ108としては、ユーザが指定した表示画像数、表示する画像データの検索対象の最近傍点からの距離(指定距離)、地図上/経路順に画像を表示するかの選択フラグ、画像ベース表示/距離ベース表示の選択フラグなどが挙げられる。それぞれのフラグの意味については後述する。なお、表示条件データ108は、あらかじめユーザが操作入力部1205により設定しておき、S1304においてはそれを読み出すだけとしてもよい。   The display condition data 108 includes the number of display images designated by the user, the distance from the nearest point to be searched for the image data to be displayed (designated distance), a selection flag for displaying images on the map / route order, image-based display / Distance-based display selection flag and the like. The meaning of each flag will be described later. Note that the display condition data 108 may be set in advance by the user using the operation input unit 1205 and only read out in S1304.

S1304において、所望の検索対象物の検索位置データ107、表示条件データ108が入力された場合はS1305に進む。
S1305において、CPU1200によって、検索位置データ107と、表示条件データ108とに関連する通過経路データから、検索経路データ109を算出し、メモリ1201に記憶する。検索経路データの算出例は後述する。
In S1304, if the search position data 107 and the display condition data 108 of the desired search object are input, the process proceeds to S1305.
In step S <b> 1305, the CPU 1200 calculates the search route data 109 from the passage route data related to the search position data 107 and the display condition data 108 and stores the search route data 109 in the memory 1201. An example of calculating the search route data will be described later.

S1306で、CPU1200は、S1305で算出した検索経路データ109をメモリ1201から読み出す。
S1307で、CPU1200は、検索位置データ107、表示条件データ108、検索経路データ109を通信部1206を介してサーバー101へ送信処理して処理を終了する。
In step S1306, the CPU 1200 reads the search path data 109 calculated in step S1305 from the memory 1201.
In step S1307, the CPU 1200 transmits the search position data 107, the display condition data 108, and the search route data 109 to the server 101 via the communication unit 1206, and ends the process.

図14のフローチャートを用いて、本実施形態の利用者端末102の検索結果の出力手順の一例について説明する。本フローチャートの処理は、図13の処理に続いて実行される。
S1400では、CPU1200は、サーバー101で生成された検索画像データ110を、通信部1206を介して受信する。
S1401では、CPU1200は、受信したデータを表示条件データ108に応じた形式で表示可能なように表示処理される。
An example of a search result output procedure of the user terminal 102 according to this embodiment will be described with reference to the flowchart of FIG. The process of this flowchart is executed following the process of FIG.
In S <b> 1400, the CPU 1200 receives the search image data 110 generated by the server 101 via the communication unit 1206.
In S1401, the CPU 1200 performs display processing so that the received data can be displayed in a format according to the display condition data 108.

S1402で、表示処理されたデータを表示部1204に画像を描画する。この結果、表示される画面の態様は、表示条件データに従った態様となる。なお、検索の結果、見つかった画像をどのような態様で表示するかについては、前述したように、地図上に表示する方法と、経路順に表示する方法とが考えられる。また、表示する画像の対象をどのように選別するかについては、前述の通り、画像ベース/距離ベースでの優先順位を付与することで選別する方法がある。これらは、表示条件データ108によって指定されることになる。   In step S1402, an image is drawn on the display unit 1204 for the display-processed data. As a result, the displayed screen is in a form according to the display condition data. It should be noted that, as described above, as to how the image found as a result of the search is displayed, there are a method of displaying on a map and a method of displaying in order of route. In addition, as described above, there is a method of selecting a target of an image to be displayed by assigning a priority order based on an image base / distance base. These are specified by the display condition data 108.

図15、16に検索位置データ、表示条件データに関連する検索経路データの算出例を示す。
図15は、表示条件データとして、地図上に画像を表示すると指定した場合の検索経路データの算出例を示す図である。黒丸のピンの位置が地図上でユーザが指定した検索位置である。利用者端末の通過した位置は、下側丸斑点の位置でサンプリングされており、その位置を繋ぐ太線は利用者端末が通過した経路である。地図上での通過した経路の端点を始点、終点とすると、地図に表示されている太線の通過位置データ+始点、終点の位置データが検索経路データとして算出されることになる。
15 and 16 show examples of calculation of search path data related to search position data and display condition data.
FIG. 15 is a diagram illustrating a calculation example of search route data when it is specified that an image is displayed on a map as display condition data. The position of the black circle pin is the search position designated by the user on the map. The position through which the user terminal passes is sampled at the position of the lower round spot, and the thick line connecting the positions is the path through which the user terminal has passed. If the end points of the route that has passed on the map are the start point and the end point, the thick line passing position data displayed on the map + the starting point and end point position data are calculated as the search route data.

図16は、表示条件データとして、経路順に画像を表示すると指定した場合の検索経路データの算出例を示す図である。画像検索位置として指定した位置(検索位置)は位置1601に示される。利用者端末の通過した位置は、下側丸斑点の位置でサンプリングされており、利用者端末の通過した経路が下側の線で右矢印方向に進行している。   FIG. 16 is a diagram illustrating a calculation example of search route data when it is specified that the images are displayed in order of routes as the display condition data. A position (search position) designated as the image search position is indicated by a position 1601. The position that the user terminal has passed is sampled at the position of the lower round spot, and the path that the user terminal has passed proceeds in the direction of the right arrow along the lower line.

図16において、検索位置から最も近い位置にある利用者端末の通過位置は、最近傍点として中央の黒点で示されている。最近傍点から利用者端末が指定した距離(指定距離)離れた経路上の位置を始点、終点とすると、始点、終点間の通過位置データ+始点、終点の位置データが、検索経路データとして算出されることになる。   In FIG. 16, the passing position of the user terminal closest to the search position is indicated by a central black dot as the nearest point. If the position on the route that is the distance (specified distance) specified by the user terminal from the nearest neighbor point is the start point and end point, the passing position data between the start point and end point + the start point and end point position data is calculated as the search route data Will be.

図17は、地図上に画像を表示する態様で検索結果を提示する場合の、画面の表示例を示す図である。黒丸のピンの位置が地図上でユーザが指定した検索位置であり、太線は利用者端末が通過した位置である。図17では、表示条件データとして画像数5枚が入力された場合の例を示している。すなわち、指定位置を中心に、斜線領域で示す位置に画像5枚(画像0〜4)がサーバーから送られ、利用者端末102で表示される。なお、斜線領域には、例えば画像のサムネイルを地図上に重畳して表示する。   FIG. 17 is a diagram illustrating a display example of a screen when a search result is presented in a manner of displaying an image on a map. A black circle pin position is a search position designated by the user on the map, and a thick line is a position where the user terminal passes. FIG. 17 shows an example in which five images are input as display condition data. That is, five images (images 0 to 4) are sent from the server to the position indicated by the hatched area with the designated position as the center, and are displayed on the user terminal 102. In the hatched area, for example, thumbnails of images are displayed superimposed on the map.

図18は、画像を経路順に表示する態様で検索結果を提示する場合の、画面の表示例を示す図である。図18では、表示条件データとして画像数5枚が入力された場合の例を示している。すなわち、最近傍点の10m前の画像0を中心に、進行方向順に前後に2枚表示する。
以上のような構成によると、利用者が通過した箇所から見えたと推定される建物等の被写体の候補画像が得られ、利用者が認識していない構図で被写体を撮影した画像候補が出力されるのを防ぐことができる。結果として、ユーザにより関連性の強い画像を候補として提示することができるので、ユーザが自分に関連性の強い画像を候補から探す際の手間を低減することができる。
FIG. 18 is a diagram illustrating a display example of a screen when a search result is presented in a form in which images are displayed in order of route. FIG. 18 shows an example in which five images are input as display condition data. That is, two images are displayed in the order of the traveling direction around the image 0 10 m before the nearest point.
According to the above configuration, a candidate image of a subject such as a building estimated to be seen from a location where the user has passed is obtained, and an image candidate obtained by photographing the subject with a composition that is not recognized by the user is output. Can be prevented. As a result, an image that is more relevant to the user can be presented as a candidate, so that it is possible to reduce time and labor when the user searches for an image that is more relevant to the user.

前述した実施形態では、地図データを利用者端末で記憶しているが、その一部または全部をサーバーで記憶してもよい。すなわち、地図データを、予め記憶部1203に蓄積しておいてもよいし、必要に応じて逐次ネットワークを介して外部サーバーからダウンロードしてもよい。また、前述した実施形態では検索経路の算出を利用者端末側で行ったが、サーバー側で利用者端末から送られてきた通過位置データをもとに検索経路を算出してもよい。   In the embodiment described above, the map data is stored in the user terminal, but a part or all of the map data may be stored in the server. That is, the map data may be stored in the storage unit 1203 in advance, or may be downloaded from an external server sequentially via a network as necessary. In the embodiment described above, the search route is calculated on the user terminal side. However, the search route may be calculated on the server side based on the passing position data transmitted from the user terminal.

本発明では、ビデオカメラで撮影される動画も画像データ105として扱うことができる。また、本実施形態の図2、図4、図12の構成図にてメモリと記憶部を分けて記載してあるが、メモリ上に記憶部を構成してもよい。   In the present invention, a moving image shot by a video camera can also be handled as the image data 105. Further, although the memory and the storage unit are described separately in the configuration diagrams of FIGS. 2, 4, and 12 of the present embodiment, the storage unit may be configured on the memory.

<第2の実施形態>
以下、図19から図21を参照しつつ本発明の第2の実施形態による、画像検索処理について説明する。その他の構成は第1の実施形態と同じである。
第1の実施形態では、利用者端末で入力した検索位置データをサーバーに送信していたが、第2の実施形態では、代わりに利用者端末102で撮影して得られた撮影画像の撮影条件データを送信して画像検索を行う。
<Second Embodiment>
Hereinafter, image search processing according to the second embodiment of the present invention will be described with reference to FIGS. Other configurations are the same as those of the first embodiment.
In the first embodiment, the search position data input at the user terminal is transmitted to the server. However, in the second embodiment, the shooting condition of the shot image obtained by shooting at the user terminal 102 instead. Send data and search for images.

図19は、本実施形態の利用者端末102の構成例を示すブロック図、図20は、利用者端末のデータ処理の手順を説明するフローチャートである。本実施形態による利用者端末102の構成は、図2の第1の実施形態の撮影装置100と同じであり、利用者端末102としてスマートフォンなどのGPS、電子コンパス、カメラ付き携帯電話を採用することができる。   FIG. 19 is a block diagram illustrating a configuration example of the user terminal 102 according to the present embodiment, and FIG. 20 is a flowchart illustrating a data processing procedure of the user terminal. The configuration of the user terminal 102 according to the present embodiment is the same as that of the photographing apparatus 100 according to the first embodiment of FIG. 2, and a GPS such as a smartphone, an electronic compass, and a camera-equipped mobile phone are adopted as the user terminal 102. Can do.

図20のフローチャートを用いて、本実施形態の利用者端末102の検索条件の送信手順の一例について説明する。本フローは、第1の実施形態の図13の検索条件送信フローの代わりに行う処理である。
S2000において、CPU1900は、操作入力部1904へのユーザ操作に応じて画像の指定を受け付ける。
S2001〜S2003、S2008は、図13のS1301〜S1303、S1308と同様の処理が行われる。
S2004では、CPU1900は、表示条件の入力が受け付けられたか否かを判定する。CPU1900が、表示条件の入力が受け付けられていないと判定した場合、S2004の処理を繰り返し、表示条件の入力を待つ。CPU1900が、表示条件の入力が受け付けられたと判定した場合、処理はS2005に進む。S2005〜S2006は、図13のS1305〜S1306と同様の処理が実行される。
S2007では、CPU1900は、撮影条件データ、表示条件データ、検索経路データを通信部1206を介してサーバー101へ送信処理して処理を終了する。
An example of a search condition transmission procedure of the user terminal 102 according to the present embodiment will be described with reference to the flowchart of FIG. This flow is processing performed instead of the search condition transmission flow of FIG. 13 of the first embodiment.
In step S2000, the CPU 1900 receives an image designation in response to a user operation on the operation input unit 1904.
In S2001 to S2003 and S2008, processing similar to S1301 to S1303 and S1308 in FIG. 13 is performed.
In step S2004, the CPU 1900 determines whether an input of display conditions has been accepted. If the CPU 1900 determines that the input of display conditions has not been accepted, it repeats the process of S2004 and waits for the input of display conditions. If the CPU 1900 determines that an input of display conditions has been accepted, the process proceeds to S2005. In S2005 to S2006, the same processing as S1305 to S1306 in FIG. 13 is executed.
In step S2007, the CPU 1900 transmits the shooting condition data, display condition data, and search path data to the server 101 via the communication unit 1206, and ends the process.

図21は、本発明の第2の実施形態による、サーバー101の撮影条件データの検索処理の詳細を説明するフローチャートである。本フローは第1の実施形態の図6の画像検索処理フローの代わりに行う処理である。
図6と異なる点は、サーバー101は検索位置の代わりに、検索を行う画像の撮影条件データを受信し(S2100)、サーバー101は撮影条件データから検索対象物の位置情報を算出する。すなわち、撮影条件データに含まれる撮影位置情報と撮影方向情報、焦点距離等の情報から検索対象物の位置を推定する処理(S2101)である。
FIG. 21 is a flowchart for explaining the details of the retrieval processing of the photographing condition data of the server 101 according to the second embodiment of the present invention. This flow is processing performed instead of the image search processing flow of FIG. 6 of the first embodiment.
The difference from FIG. 6 is that the server 101 receives the shooting condition data of the image to be searched instead of the search position (S2100), and the server 101 calculates the position information of the search object from the shooting condition data. That is, it is a process of estimating the position of the search object from information such as shooting position information, shooting direction information, and focal length included in the shooting condition data (S2101).

推定する検索対象物としては、例えば撮影方向に存在する有名な建造物などがあげられる。サーバー101は推定した検索対象物の位置を図6の検索位置データ107として以降の処理を行う。また、第1の実施形態の図6において、S604の優先順位付けにおいて検索経路データ109に含まれる経路取得日時情報に近い撮影条件データの優先順位を高くした。これに対し、図21のS2105においてはさらに、検索を行う画像の撮影日時データに近い撮影条件データの優先順位を高くしてもよい。   Examples of search objects to be estimated include famous buildings that exist in the shooting direction. The server 101 performs the subsequent processing using the estimated position of the search object as the search position data 107 in FIG. Further, in FIG. 6 of the first embodiment, the priority of the photographing condition data close to the route acquisition date / time information included in the search route data 109 is increased in the prioritization in S604. On the other hand, in S2105 of FIG. 21, the priority of the shooting condition data close to the shooting date / time data of the image to be searched may be increased.

本実施形態によれば、利用者端末による検索位置の指定が不要となり、ある画像の被写体を別画角で撮影した画像データを簡単な手順にて得ることが可能となる。
以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。
According to the present embodiment, it is not necessary to specify a search position by the user terminal, and it is possible to obtain image data obtained by photographing a subject of an image at a different angle of view with a simple procedure.
As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.

(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、前述した実施形態の機能を実現するソフトウェア(コンピュータプログラム)を、ネットワーク又は各種のコンピュータ読み取り可能な記憶媒体を介してシステム或いは装置に供給する。そして、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other embodiments)
The present invention can also be realized by executing the following processing. That is, software (computer program) that implements the functions of the above-described embodiments is supplied to a system or apparatus via a network or various computer-readable storage media. Then, the computer (or CPU, MPU, etc.) of the system or apparatus reads out and executes the program.

100 撮影装置
101 サーバー
102 利用者端末
103 インターネット
104 元画像データ
105 画像データ
106 撮影条件データ
107 検索位置データ
108 表示条件データ
109 検索経路データ
110 検索画像データ
DESCRIPTION OF SYMBOLS 100 Imaging device 101 Server 102 User terminal 103 Internet 104 Original image data 105 Image data 106 Shooting condition data 107 Search position data 108 Display condition data 109 Search path data 110 Search image data

Claims (21)

予め登録されている複数の画像データの中から特定の検索対象物が写った画像データを検索して表示する表示制御装置であって、
前記検索対象物の位置情報および経路情報から画像を検索する位置範囲を算出する検索範囲算出手段と、
前記検索対象物の位置情報および検索された画像の画像情報に基づいて検索結果に対して優先順位を付与する優先順位設定手段とを備えることを特徴とする表示制御装置。
A display control device for searching and displaying image data in which a specific search object is captured from a plurality of pre-registered image data,
Search range calculation means for calculating a position range for searching for an image from the position information and route information of the search object;
A display control apparatus comprising: priority setting means for assigning a priority to a search result based on position information of the search object and image information of the searched image.
前記検索範囲算出手段は、前記検索対象物の位置付近かつ経路付近を検索範囲とすることを特徴とする請求項1に記載の表示制御装置。   The display control apparatus according to claim 1, wherein the search range calculation unit sets a search range near a position of the search target and a route. 前記検索範囲算出手段は、前記検索対象物の位置と前記経路とに囲まれた範囲を検索範囲とすることを特徴とする請求項1に記載の表示制御装置。   The display control apparatus according to claim 1, wherein the search range calculation unit sets a range surrounded by a position of the search target object and the route as a search range. 前記優先順位設定手段は、前記画像情報として検索された画像の撮影位置情報を用いて、前記撮影位置情報が検索対象物の位置に近いほど優先順位を高くして優先順位を付与することを特徴とする請求項1〜3の何れか1項に記載の表示制御装置。   The priority order setting means uses the shooting position information of the image searched as the image information, and assigns a priority by increasing the priority as the shooting position information is closer to the position of the search object. The display control apparatus according to any one of claims 1 to 3. 前記優先順位設定手段は、前記画像情報として、検索された画像の撮影位置情報を用いて、前記撮影位置情報に基づいて検索対象物の位置近傍の経路上の位置から所定の距離毎に検索結果を分割し、各分割単位に優先順位を付与することを特徴とする請求項1〜3の何れか1項に記載の表示制御装置。   The priority order setting means uses the shooting position information of the searched image as the image information, and the search result for each predetermined distance from the position on the route in the vicinity of the position of the search object based on the shooting position information. The display control apparatus according to claim 1, wherein priority is given to each division unit. 前記優先順位設定手段は、前記画像情報として、検索された画像の撮影方位情報を用いて、前記検索対象物の存在する方位に近いほど優先順位を高くして優先順位を付与することを特徴とする請求項1〜3の何れか1項に記載の表示制御装置。   The priority order setting means uses the shooting orientation information of the searched image as the image information, and assigns a priority by increasing the priority order as it is closer to the direction in which the search object exists. The display control apparatus according to any one of claims 1 to 3. 前記優先順位設定手段は、前記画像情報として、検索された画像の撮影日時情報を用いて、前記検索を行う経路情報に含まれる月日または時刻情報に近いほど優先順位を高くして優先順位を付与することを特徴とする請求項1〜3の何れか1項に記載の表示制御装置。   The priority order setting means uses the shooting date / time information of the searched image as the image information, and increases the priority order as the date and time information included in the route information to be searched increases and sets the priority order. The display control device according to claim 1, wherein the display control device is provided. 予め登録されている複数の画像データの中から特定の検索対象物が写った画像データを検索して表示する表示制御装置であって、
特定の画像の画像情報から検索対象物の位置情報を算出し、前記検索対象物の位置情報および検索経路の情報から画像を検索する位置範囲を算出する検索範囲算出手段と、
前記検索対象物の位置情報および検索された画像の画像情報に基づいて検索結果に対して優先順位を付与する優先順位設定手段とを備えることを特徴とする表示制御装置。
A display control device for searching and displaying image data in which a specific search object is captured from a plurality of pre-registered image data,
Search range calculation means for calculating position information of a search object from image information of a specific image and calculating a position range for searching for an image from the position information of the search object and information of a search path;
A display control apparatus comprising: priority setting means for assigning a priority to a search result based on position information of the search object and image information of the searched image.
前記特定の画像の画像情報は、画像撮影時の位置情報および方位情報を用いることを特徴とする請求項8に記載の表示制御装置。   9. The display control apparatus according to claim 8, wherein the image information of the specific image uses position information and azimuth information at the time of image capturing. 前記検索範囲算出手段は、前記検索対象物の位置付近かつ経路付近を検索範囲とすることを特徴とする請求項8に記載の表示制御装置。   The display control apparatus according to claim 8, wherein the search range calculation unit sets a search range near a position of the search target and a route. 前記検索範囲算出手段は、前記検索対象物の位置と前記経路とに囲まれた範囲を検索範囲とすることを特徴とする請求項8に記載の表示制御装置。   The display control apparatus according to claim 8, wherein the search range calculation unit sets a range surrounded by the position of the search target object and the route as a search range. 前記優先順位設定手段は、前記画像情報として、検索された画像の撮影位置情報を用いて、前記撮影位置情報が検索対象物の位置に近いほど優先順位を高くして優先順位を付与することを特徴とする請求項8〜11の何れか1項に記載の表示制御装置。   The priority order setting means uses the photographing position information of the searched image as the image information, and assigns a priority by increasing the priority order as the photographing position information is closer to the position of the search object. The display control device according to claim 8, wherein the display control device is a display control device. 前記優先順位設定手段は、前記画像情報として、検索された画像の撮影位置情報を用いて、前記撮影位置情報に基づいて検索対象物の位置近傍の経路上の位置から所定の距離毎に検索結果を分割し、各分割単位に優先順位を付与することを特徴とする請求項8〜11の何れか1項に記載の表示制御装置。   The priority order setting means uses the shooting position information of the searched image as the image information, and the search result for each predetermined distance from the position on the route in the vicinity of the position of the search object based on the shooting position information. The display control apparatus according to claim 8, wherein priority is given to each division unit. 前記優先順位設定手段は、前記画像情報として、検索された画像の撮影方位情報を用いて、前記検索対象物の存在する方位に近いほど優先順位を高くして優先順位を付与することを特徴とする請求項8〜11の何れか1項に記載の表示制御装置。   The priority order setting means uses the shooting orientation information of the searched image as the image information, and assigns a priority by increasing the priority order as it is closer to the direction in which the search object exists. The display control apparatus according to any one of claims 8 to 11. 前記優先順位設定手段は、前記画像情報として、検索された画像の撮影日時情報を用いて、前記検索を行う経路情報に含まれる月日または時刻情報に近いほど優先順位を高くして優先順位を付与することを特徴とする請求項8〜11の何れか1項に記載の表示制御装置。   The priority order setting means uses the shooting date / time information of the searched image as the image information, and increases the priority order as the date and time information included in the route information to be searched increases and sets the priority order. The display control apparatus according to claim 8, wherein the display control apparatus is provided. 前記優先順位設定手段は、前記画像情報として、検索された画像の撮影日時情報を用いて、前記検索を行う画像の撮影日時に近いほど優先順位を高くして優先順位を付与することを特徴とする請求項8〜11の何れか1項に記載の表示制御装置。   The priority order setting means uses the shooting date / time information of the searched image as the image information, and assigns a priority by increasing the priority as the shooting date / time of the image to be searched is closer. The display control apparatus according to any one of claims 8 to 11. 予め登録されている複数の画像データの中から特定の検索対象物が写った画像データを検索して表示する表示制御装置の制御方法であって、
前記検索対象物の位置情報および経路情報から画像を検索する位置範囲を算出する検索範囲算出工程と、
前記検索対象物の位置情報および検索された画像の画像情報に基づいて検索結果に対して優先順位を付与する優先順位設定工程とを備えることを特徴とする表示制御装置の制御方法。
A control method of a display control device for searching and displaying image data in which a specific search object is captured from a plurality of pre-registered image data,
A search range calculating step for calculating a position range for searching for an image from the position information and route information of the search object;
A control method for a display control device, comprising: a priority order setting step of assigning a priority order to a search result based on position information of the search object and image information of the searched image.
予め登録されている複数の画像データの中から特定の検索対象物が写った画像データを検索して表示する表示制御装置の制御方法であって、
特定の画像の画像情報から検索対象物の位置情報を算出し、前記検索対象物の位置情報および検索経路の情報から画像を検索する位置範囲を算出する検索範囲算出工程と、
前記検索対象物の位置情報および検索された画像の画像情報に基づいて検索結果に対して優先順位を付与する優先順位設定工程とを備えることを特徴とする表示制御装置の制御方法。
A control method of a display control device for searching and displaying image data in which a specific search object is captured from a plurality of pre-registered image data,
A search range calculation step of calculating position information of a search object from image information of a specific image, and calculating a position range for searching for an image from the position information of the search object and information of a search path;
A control method for a display control device, comprising: a priority order setting step of assigning a priority order to a search result based on position information of the search object and image information of the searched image.
予め登録されている複数の画像データの中から特定の検索対象物が写った画像データを検索して表示する表示制御装置の制御方法をコンピュータに実行させるプログラムであって、
前記検索対象物の位置情報および経路情報から画像を検索する位置範囲を算出する検索範囲算出工程と、
前記検索対象物の位置情報および検索された画像の画像情報に基づいて検索結果に対して優先順位を付与する優先順位設定工程とをコンピュータに実行させることを特徴とするプログラム。
A program that causes a computer to execute a control method of a display control device that searches and displays image data in which a specific search object is captured from a plurality of pre-registered image data,
A search range calculating step for calculating a position range for searching for an image from the position information and route information of the search object;
A program for causing a computer to execute a priority setting step for assigning a priority to a search result based on position information of the search object and image information of a searched image.
予め登録されている複数の画像データの中から特定の検索対象物が写った画像データを検索して表示する表示制御装置の制御方法をコンピュータに実行させるプログラムであって、
特定の画像の画像情報から検索対象物の位置情報を算出し、前記検索対象物の位置情報および検索経路の情報から画像を検索する位置範囲を算出する検索範囲算出工程と、
前記検索対象物の位置情報および検索された画像の画像情報に基づいて検索結果に対して優先順位を付与する優先順位設定工程とをコンピュータに実行させることを特徴とするプログラム。
A program that causes a computer to execute a control method of a display control device that searches and displays image data in which a specific search object is captured from a plurality of pre-registered image data,
A search range calculation step of calculating position information of a search object from image information of a specific image, and calculating a position range for searching for an image from the position information of the search object and information of a search path;
A program for causing a computer to execute a priority setting step for assigning a priority to a search result based on position information of the search object and image information of a searched image.
請求項19または20に記載のプログラムを記憶したことを特徴とするコンピュータ読み取り可能な記憶媒体。   A computer-readable storage medium storing the program according to claim 19 or 20.
JP2013190940A 2013-09-13 2013-09-13 Display control device and control method of display control device Active JP6210807B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013190940A JP6210807B2 (en) 2013-09-13 2013-09-13 Display control device and control method of display control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013190940A JP6210807B2 (en) 2013-09-13 2013-09-13 Display control device and control method of display control device

Publications (2)

Publication Number Publication Date
JP2015056152A true JP2015056152A (en) 2015-03-23
JP6210807B2 JP6210807B2 (en) 2017-10-11

Family

ID=52820471

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013190940A Active JP6210807B2 (en) 2013-09-13 2013-09-13 Display control device and control method of display control device

Country Status (1)

Country Link
JP (1) JP6210807B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018049623A (en) * 2016-09-23 2018-03-29 雨暹 李 Method of sorting spatial objects in search result, and cloud system
JP2018116572A (en) * 2017-01-19 2018-07-26 株式会社大林組 Image management system, image management method, and image management program
JP2020134990A (en) * 2019-02-13 2020-08-31 カシオ計算機株式会社 Database generation method, database generation device, and database generation program
US11227007B2 (en) 2019-07-23 2022-01-18 Obayashi Corporation System, method, and computer-readable medium for managing image

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004220420A (en) * 2003-01-16 2004-08-05 Fuji Photo Film Co Ltd Image retrieval method and device and program
JP2008040711A (en) * 2006-08-04 2008-02-21 Pasuko:Kk Map/photo image display device and program
JP2013182331A (en) * 2012-02-29 2013-09-12 Nikon Corp Image display program and image display device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004220420A (en) * 2003-01-16 2004-08-05 Fuji Photo Film Co Ltd Image retrieval method and device and program
JP2008040711A (en) * 2006-08-04 2008-02-21 Pasuko:Kk Map/photo image display device and program
JP2013182331A (en) * 2012-02-29 2013-09-12 Nikon Corp Image display program and image display device

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018049623A (en) * 2016-09-23 2018-03-29 雨暹 李 Method of sorting spatial objects in search result, and cloud system
KR20180100074A (en) * 2016-09-23 2018-09-07 유-시센 리 Method and system for sorting a search result with space objects, and a computer-readable storage device
KR102014761B1 (en) * 2016-09-23 2019-10-21 유-시센 리 Method and system for sorting a search result with space objects, and a computer-readable storage device
US10528621B2 (en) 2016-09-23 2020-01-07 Yu-Hsien Li Method and system for sorting a search result with space objects, and a computer-readable storage device
JP2018116572A (en) * 2017-01-19 2018-07-26 株式会社大林組 Image management system, image management method, and image management program
JP2020134990A (en) * 2019-02-13 2020-08-31 カシオ計算機株式会社 Database generation method, database generation device, and database generation program
US11227007B2 (en) 2019-07-23 2022-01-18 Obayashi Corporation System, method, and computer-readable medium for managing image

Also Published As

Publication number Publication date
JP6210807B2 (en) 2017-10-11

Similar Documents

Publication Publication Date Title
JP5334159B2 (en) Photo display method and system on electronic map
JP5229791B2 (en) PHOTO MAPPING METHOD AND SYSTEM, PROGRAM, AND STORAGE MEDIUM
JPWO2010070804A1 (en) Image search apparatus and image search method
JP2007299172A (en) Image viewer
JP5467177B2 (en) INFORMATION PROVIDING DEVICE, INFORMATION PROVIDING METHOD, INFORMATION PROVIDING PROCESSING PROGRAM, RECORDING MEDIUM CONTAINING INFORMATION PROVIDING PROCESSING PROGRAM, AND INFORMATION PROVIDING SYSTEM
JP6210807B2 (en) Display control device and control method of display control device
CN111680238A (en) Information sharing method and device and storage medium
JP5288445B2 (en) PHOTO MAPPING METHOD AND SYSTEM, PROGRAM, AND STORAGE MEDIUM
JP2010129032A (en) Device and program for retrieving image
JP5634786B2 (en) Digital camera
JP6410427B2 (en) Information processing apparatus, information processing method, and program
JP5739239B2 (en) Imaging support system and imaging apparatus
KR100956114B1 (en) Image information apparatus and method using image pick up apparatus
JP5932107B2 (en) Image processing server and imaging apparatus
JP2015064824A (en) Information processor, image processing system, and information processing method and program in information processor and program
JP6336807B2 (en) Information processing apparatus and grouping method
JP2014120815A (en) Information processing apparatus, imaging device, information processing method, program, and storage medium
JP6591594B2 (en) Information providing system, server device, and information providing method
JP6168926B2 (en) Information processing apparatus, display system, and control method
KR101305732B1 (en) Method of block producing for video search and method of query processing based on block produced thereby
JP2016075992A (en) Imaging device, information processing device and information processing method thereof, and information processing system
JP5753514B2 (en) Image display device and computer program
JP6040336B1 (en) Shooting target position specifying device, shooting target position specifying method, and program
JP2006133947A (en) Portable equipment and image file retrieval method
KR20120072033A (en) Method and apparatus for automatic tagging of picture and video contents

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160909

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170609

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170620

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170726

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170815

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170912

R151 Written notification of patent or utility model registration

Ref document number: 6210807

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151