WO2023210190A1 - Information processing device, information processing method, program, and recording medium - Google Patents

Information processing device, information processing method, program, and recording medium Download PDF

Info

Publication number
WO2023210190A1
WO2023210190A1 PCT/JP2023/009628 JP2023009628W WO2023210190A1 WO 2023210190 A1 WO2023210190 A1 WO 2023210190A1 JP 2023009628 W JP2023009628 W JP 2023009628W WO 2023210190 A1 WO2023210190 A1 WO 2023210190A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
date
time
designated
photographed
Prior art date
Application number
PCT/JP2023/009628
Other languages
French (fr)
Japanese (ja)
Inventor
航太朗 宮部
Original Assignee
パイオニア株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パイオニア株式会社 filed Critical パイオニア株式会社
Publication of WO2023210190A1 publication Critical patent/WO2023210190A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/587Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text

Definitions

  • the invention according to claim 8 is a recording medium, which includes the steps of: acquiring photographic images taken at each of a plurality of points in an information processing device; a plurality of specified points; and each of the plurality of specified points. a step of acquiring designation information indicating a designated date and time corresponding to a plurality of photographed images taken at each of the designated points, based on the photographing date and time information attached to the photographed images; recording a program that executes the step of acquiring a photographed image taken on a photographing date and time determined based on the designated date and time as a display image superimposed on a map including the plurality of designated points; It is characterized by
  • the photographing condition setting unit 13 identifies a composition that is most frequently photographed among a plurality of photographed images whose photographing positions are at a certain point and its surroundings as a representative composition of photographed images at that point, Based on the identified typical composition, conditions for the composition of the photographed image at the point are set. Specifically, the photographing condition setting unit 13 identifies a composition near the median value of the distribution of the photographing positions and photographing directions of the plurality of photographed images as a representative composition, and selects values within a predetermined range including the median value. is set as a condition for the photographing position and photographing direction, that is, as a composition condition.
  • the display image acquisition unit 34 sets the display image acquisition unit 34 as a condition for the photographing date and time that the image was photographed in a time zone close to the specified date and time. Get the image. For example, if the user specifies today's 8:00 p.m. and sets it as the target date and time for image display, images taken within a predetermined period in the past (for example, one week) will not be taken at 9:00 a.m. on the same day in a different time zone. The most recently photographed image among the images photographed during a time period including 8:00 p.m. (for example, from 7:30 p.m. to 8:30 p.m.) is acquired as a display image.
  • 8:00 p.m. for example, from 7:30 p.m. to 8:30 p.m.
  • the display image acquisition unit 44 selects the date and time of photography among the images taken at the image display point set by the spot date and time setting unit 42.
  • a photographed image photographed under the same weather as the predicted weather at the date and time of image display is acquired as a display image.
  • the display image acquisition unit 44 selects, among the captured images captured at the image display point set in STEP 302, the captured images whose weather at the time of capturing is the same as the expected weather acquired in STEP 303, as the display image. (STEP 305).
  • Image display system 10 Server device 11 Communication unit 12 Captured image acquisition unit 13 Photography condition setting unit 14 Candidate image acquisition unit 15 Point setting unit 16 Display image identification unit 20 Terminal device 21 Communication unit 22 Imaging unit 23 Display control unit 24 Storage Section 25 Display section 26 Operation reception section 31 Specified information acquisition section 32 Point date and time setting section 33 Shooting information acquisition section 34 Display image specification section 41 Specification information acquisition section 42 Point date and time setting section 43 Weather information acquisition section 44 Display image acquisition section

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Library & Information Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Television Signal Processing For Recording (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

This information processing device comprises: a captured image acquiring unit for acquiring captured images captured at each of a plurality of locations; a specified information acquiring unit for acquiring specified information indicating a plurality of specified locations and a specified date and time corresponding to each of the plurality of specified locations; and a display image acquiring unit which, on the basis of imaging date and time information assigned to the captured images, acquires, for each specified location, a captured image captured at an imaging date and time defined on the basis of the specified date and time, from among the plurality of captured images captured at the specified location, as a display image to be displayed superimposed on a map including the plurality of specified locations.

Description

情報処理装置、情報処理方法、プログラム及び記録媒体Information processing device, information processing method, program and recording medium
 本発明は、情報処理装置、情報処理方法、プログラム及び記録媒体に関し、例えば、撮影画像を地図に重畳して表示するための情報処理装置、情報処理方法、プログラム及び記憶媒体に関する。 The present invention relates to an information processing device, an information processing method, a program, and a recording medium, and for example, to an information processing device, an information processing method, a program, and a storage medium for displaying photographed images superimposed on a map.
 店舗やランドマーク等のスポットを表す画像を地図上に表示することが行われている。例えば、ソーシャルネットワーキングサービスに投稿された投稿情報を解析して、店舗等の地点についての画像を含むスポット情報を生成し、ナビゲーションシステムで表示される地図上に重畳して表示させる情報処理システムが提案されている(例えば、特許文献1)。 Images representing spots such as stores and landmarks are displayed on maps. For example, an information processing system has been proposed that analyzes posted information posted on social networking services, generates spot information including images of points such as stores, and displays the generated spot information superimposed on a map displayed by a navigation system. (For example, Patent Document 1).
特開2022-7576号公報JP 2022-7576 Publication
 本発明の一態様が解決しようとする課題としては、上記従来技術のような情報処理システムでは、スポット情報として表示する画像について、その画像が撮影された際の撮影位置や撮影方向等の所謂構図の情報が考慮されていないため、表示される画像が必ずしもそのスポットを代表する景観を撮影したものではなく、スポットの魅力が伝わる写真ではない場合があるという問題が一例として挙げられる。また、本発明の一態様が解決しようとする課題としては、上記従来技術のような情報処理システムでは、スポット情報として表示する画像について、その画像が撮影された際の状況が考慮されていないため、表示される画像が必ずしもそのスポットの現在の状況と一致するものではない場合があるという問題が一例として挙げられる。また、本発明の一態様が解決しようとする課題としては、上記従来技術のような情報処理システムでは、スポット情報として表示する画像について、その画像が撮影された際の天気が考慮されていないため、表示される画像が必ずしもそのスポットの現在の天気と一致するものではない場合があるという問題が一例として挙げられる。 An issue to be solved by one aspect of the present invention is that in an information processing system such as the above-mentioned conventional technology, for an image to be displayed as spot information, the so-called composition, such as the shooting position and shooting direction when the image was shot, is One example of this problem is that because the information about the location is not taken into consideration, the displayed image may not necessarily be a representative view of the spot, and may not be a photo that conveys the attraction of the spot. Furthermore, an issue that one embodiment of the present invention aims to solve is that in information processing systems such as the above-mentioned conventional technology, the situation in which the image was captured is not taken into consideration with respect to the image displayed as spot information. An example of this problem is that the displayed image may not necessarily correspond to the current situation of the spot. Furthermore, an issue that one aspect of the present invention aims to solve is that in information processing systems such as the above-mentioned conventional technology, the weather at the time the image was taken is not taken into account for the image displayed as spot information. An example of this problem is that the displayed image may not necessarily match the current weather of the spot.
 なお、これらの課題の記載は、他の課題の存在を妨げるものではなく、本発明の一態様は、上述する課題のうち少なくとも一つの課題を解決するものである。更に、明細書、図面、請求項などの記載から、これら以外の課題を抽出することが可能である。 Note that the description of these problems does not preclude the existence of other problems, and one embodiment of the present invention solves at least one of the problems described above. Furthermore, it is possible to extract problems other than these from the description, drawings, claims, etc.
 本発明は、上記した点に鑑みてなされたものであり、複数の地点を含む地図に当該複数の地点の画像を重畳して表示する画像表示システムにおいて、各地点について表示する画像を現在又は指定された日時の当該地点の状況と近い画像とすることが可能な情報処理装置を提供することを目的の一つとする。 The present invention has been made in view of the above points, and is an image display system that displays images of a plurality of points in a superimposed manner on a map including a plurality of points. One of the objects of the present invention is to provide an information processing device that can produce an image that is close to the situation at the point at the specified date and time.
 請求項1に記載の発明は、情報処理装置であって、複数の地点の各々で撮影された撮影画像を取得する撮影画像取得部と、複数の指定地点、および当該複数の指定地点の各々に対応する指定日時を示す指定情報を取得する指定情報取得部と、前記撮影画像に付された撮影日時の情報に基づいて、前記指定地点の各々について、当該指定地点で撮影された複数の前記撮影画像のうち、前記指定日時に基づいて定まる撮影日時に撮影された撮影画像を、 当該複数の指定地点を含む地図に重畳して表示させる表示用画像として取得する表示画像取得部と、を備えることを特徴とする。 The invention according to claim 1 is an information processing device, comprising: a photographed image acquisition unit that acquires photographed images taken at each of a plurality of points; a plurality of specified points; a designated information acquisition unit that acquires designated information indicating a corresponding designated date and time; and a designated information acquisition unit that acquires designated information indicating a corresponding designated date and time; A display image acquisition unit that acquires, among the images, a photographed image photographed at a photographing date and time determined based on the designated date and time as a display image to be displayed superimposed on a map including the plurality of designated points. It is characterized by
 請求項6に記載の発明は、情報処理装置が実行する情報処理方法であって、複数の地点の各々で撮影された撮影画像を取得するステップと、複数の指定地点、および当該複数の指定地点の各々に対応する指定日時を示す指定情報を取得するステップと、前記撮影画像に付された撮影日時の情報に基づいて、前記指定地点の各々について、当該指定地点で撮影された複数の前記撮影画像のうち、前記指定日時に基づいて定まる撮影日時に撮影された撮影画像を、当該複数の指定地点を含む地図に重畳して表示させる表示用画像として取得するステップと、を含むことを特徴とする。 The invention according to claim 6 is an information processing method executed by an information processing device, which includes the steps of: acquiring photographed images taken at each of a plurality of points; a plurality of specified points; and the plurality of specified points. a step of acquiring designation information indicating a designated date and time corresponding to each of the photographed images; and a step of acquiring designation information indicating a designated date and time corresponding to each of the photographed images; The present invention is characterized by comprising the step of acquiring, among the images, a photographed image photographed at a photographing date and time determined based on the designated date and time as a display image to be superimposed and displayed on a map including the plurality of designated points. do.
 請求項7に記載の発明は、プログラムであって、情報処理装置に、複数の地点の各々で撮影された撮影画像を取得するステップと、複数の指定地点、および当該複数の指定地点の各々に対応する指定日時を示す指定情報を取得するステップと、前記撮影画像に付された撮影日時の情報に基づいて、前記指定地点の各々について、当該指定地点で撮影された複数の前記撮影画像のうち、前記指定日時に基づいて定まる撮影日時に撮影された撮影画像を、当該複数の指定地点を含む地図に重畳して表示させる表示用画像として取得するステップと、を実行させることを特徴とする。 The invention according to claim 7 is a program, comprising: a step of causing an information processing device to acquire photographed images taken at each of a plurality of points; a plurality of specified points; a step of acquiring designation information indicating a corresponding designated date and time; and, based on the photographing date and time information attached to the photographed image, for each of the designated points, among the plurality of photographed images photographed at the designated point; and acquiring a photographed image taken at a photographing date and time determined based on the designated date and time as a display image to be displayed superimposed on a map including the plurality of designated points.
 請求項8に記載の発明は、記録媒体であって、情報処理装置に、複数の地点の各々で撮影された撮影画像を取得するステップと、複数の指定地点、および当該複数の指定地点の各々に対応する指定日時を示す指定情報を取得するステップと、前記撮影画像に付された撮影日時の情報に基づいて、前記指定地点の各々について、当該指定地点で撮影された複数の前記撮影画像のうち、前記指定日時に基づいて定まる撮影日時に撮影された撮影画像を、当該複数の指定地点を含む地図に重畳して表示させる表示用画像として取得するステップと、を実行させるプログラムを記録することを特徴とする。 The invention according to claim 8 is a recording medium, which includes the steps of: acquiring photographic images taken at each of a plurality of points in an information processing device; a plurality of specified points; and each of the plurality of specified points. a step of acquiring designation information indicating a designated date and time corresponding to a plurality of photographed images taken at each of the designated points, based on the photographing date and time information attached to the photographed images; recording a program that executes the step of acquiring a photographed image taken on a photographing date and time determined based on the designated date and time as a display image superimposed on a map including the plurality of designated points; It is characterized by
実施例1の画像表示システムの全体構成を示すブロック図である。1 is a block diagram showing the overall configuration of an image display system of Example 1. FIG. 撮影画像取得部が取得する画像の例を示す図である。FIG. 3 is a diagram illustrating an example of an image acquired by a photographed image acquisition unit. 図2Aの画像とは構図が異なる画像の例を示す図である。2A is a diagram illustrating an example of an image whose composition is different from the image in FIG. 2A. FIG. 実施例1の画像表示処理の処理ルーチンを示すフローチャートである。7 is a flowchart showing a processing routine of image display processing in the first embodiment. 画像が地図に重畳して表示される例を示す図である。FIG. 3 is a diagram illustrating an example in which an image is displayed superimposed on a map. 実施例1の画像表示システムの全体構成を示すブロック図である。1 is a block diagram showing the overall configuration of an image display system of Example 1. FIG. 撮影された時間帯が昼間である表示画像の例を示す図である。FIG. 3 is a diagram illustrating an example of a display image taken during the daytime. 撮影された時間帯が夜間である表示画像の例を示す図である。FIG. 3 is a diagram illustrating an example of a display image taken during nighttime. 実施例2の画像表示処理の処理ルーチンを示すフローチャートである。7 is a flowchart illustrating a processing routine of image display processing according to the second embodiment. 実施例3の画像表示システムの全体構成を示すブロック図である。FIG. 3 is a block diagram showing the overall configuration of an image display system according to a third embodiment. 撮影時の天気が晴である表示画像の例を示す図である。FIG. 4 is a diagram illustrating an example of a display image in which the weather at the time of photography is sunny. 撮影時の天気が雨である表示画像の例を示す図である。FIG. 7 is a diagram illustrating an example of a display image in which the weather at the time of photography is rainy. 撮影時の天気が雪である表示画像の例を示す図である。FIG. 7 is a diagram illustrating an example of a display image in which the weather at the time of photography is snow. 実施例3の画像表示処理の処理ルーチンを示すフローチャートである。12 is a flowchart showing a processing routine of image display processing according to the third embodiment.
 以下に本発明の好適な実施例を詳細に説明する。なお、以下の各実施例における説明及び添付図面においては、実質的に同一又は等価な部分には同一の参照符号を付している。 Preferred embodiments of the present invention will be described in detail below. In the following description of each embodiment and the accompanying drawings, substantially the same or equivalent parts are designated by the same reference numerals.
 図1は、本実施例の画像表示システム100の構成を示すブロック図である。画像表示システム100は、サーバ装置10及び複数の端末装置20-1~20-n(nは2以上の整数)から構成されている。なお、端末装置20-1~20-nはそれぞれ共通の構成を有するため、以下の説明では、端末装置20-1~20-nのうちの1つを「端末装置20」と称して、その構成及び動作を説明する。 FIG. 1 is a block diagram showing the configuration of an image display system 100 of this embodiment. The image display system 100 includes a server device 10 and a plurality of terminal devices 20-1 to 20-n (n is an integer of 2 or more). Note that since the terminal devices 20-1 to 20-n each have a common configuration, in the following explanation, one of the terminal devices 20-1 to 20-n will be referred to as "terminal device 20" and the term "terminal device 20" will be used. The configuration and operation will be explained.
 サーバ装置10は、通信部11、撮影画像取得部12、撮影条件設定部13、候補画像取得部14、地点設定部15及び表示用画像特定部16を有する。 The server device 10 includes a communication section 11, a photographed image acquisition section 12, a photographing condition setting section 13, a candidate image acquisition section 14, a point setting section 15, and a display image specifying section 16.
 通信部11は、通信ネットワークを介してデータの送受信を行う通信装置であり、例えばNIC(Network Interface Card)等のネットワークアダプタから構成されている。 The communication unit 11 is a communication device that transmits and receives data via a communication network, and is composed of, for example, a network adapter such as a NIC (Network Interface Card).
 撮影画像取得部12は、通信部11を介して通信ネットワークにアクセスし、SNS(Social Networking Service)に投稿された撮影画像を取得する。本実施例では、撮影画像取得部12は、SNSに投稿された複数の投稿画像のうち、建造物や街並み等の風景を撮影した画像であって、且つ撮影位置及び撮影方向(換言すると、撮影角度)の情報が付された撮影画像を取得する。 The photographed image acquisition unit 12 accesses the communication network via the communication unit 11 and acquires photographed images posted on SNS (Social Networking Service). In this embodiment, the photographed image acquisition unit 12 selects an image of a landscape such as a building or a cityscape from among a plurality of posted images posted on SNS, and also acquires the photographing position and direction (in other words, the photographing direction). Obtain a photographed image with information attached (angle).
 撮影条件設定部13は、本実施例の画像表示システム100で表示する画像についての撮影位置及び撮影方向の条件を設定する。以下の説明では、撮影位置及び撮影方向を総称して「構図」と称する。なお、「構図」は、撮影位置及び撮影方向以外の要素、例えば撮影時におけるカメラのズームによる画角補正の情報等を含むものであってもよい。 The photographing condition setting unit 13 sets the conditions of the photographing position and photographing direction for the image displayed by the image display system 100 of this embodiment. In the following description, the photographing position and photographing direction are collectively referred to as "composition." Note that the "composition" may include elements other than the photographing position and photographing direction, such as information on angle of view correction by zooming the camera at the time of photographing.
 本実施例では、撮影条件設定部13は、撮影画像取得部12が取得した複数の撮影画像に基づいて、各々の撮影画像が撮影された地点毎に構図の条件を設定する。 In this embodiment, the photographing condition setting section 13 sets composition conditions for each point where each photographed image was taken, based on the plurality of photographed images acquired by the photographed image acquisition section 12.
 例えば、撮影条件設定部13は、ある地点及びその周辺を撮影位置とする複数の撮影画像のうちで、最も頻繁に撮影されている構図をその地点における撮影画像の代表的な構図として特定し、特定した代表的な構図に基づいて、当該地点における撮影画像の構図の条件を設定する。具体的には、撮影条件設定部13は、複数の撮影画像の撮影位置及び撮影方向の分布のうちの中央値付近のものを代表的な構図として特定し、その中央値を含む所定範囲の値を撮影位置及び撮影方向の条件、すなわち構図の条件として設定する。 For example, the photographing condition setting unit 13 identifies a composition that is most frequently photographed among a plurality of photographed images whose photographing positions are at a certain point and its surroundings as a representative composition of photographed images at that point, Based on the identified typical composition, conditions for the composition of the photographed image at the point are set. Specifically, the photographing condition setting unit 13 identifies a composition near the median value of the distribution of the photographing positions and photographing directions of the plurality of photographed images as a representative composition, and selects values within a predetermined range including the median value. is set as a condition for the photographing position and photographing direction, that is, as a composition condition.
 なお、本実施例において「地点」とは、例えば交差点や店舗等の施設、ランドマーク等を含む所定範囲の領域を指す。例えば、コンビニエンスストアが「地点」として指定された場合、店舗及び駐車場を含む数メートル四方の領域が当該コンビニエンスストアの「地点」に含まれる。 Note that in this embodiment, a "point" refers to a predetermined range of area including, for example, intersections, facilities such as stores, landmarks, and the like. For example, when a convenience store is designated as a "point", an area several meters square including the store and parking lot is included in the "point" of the convenience store.
 図2A及び図2Bは、同じ地点である「K寺」で撮影され、且つ構図が異なる撮影画像の例を示す図である。図2Aは、K寺を正面から撮影した撮影画像、図2Bは、K寺を斜め前方から撮影した撮影画像を示している。 FIGS. 2A and 2B are diagrams showing examples of images taken at the same point, "K-dera," but with different compositions. FIG. 2A shows a photographed image of K-temple taken from the front, and FIG. 2B shows a photographed image of K-temple taken diagonally from the front.
 例えば、SNSの投稿画像において、K寺を斜め前方から撮影した構図の画像の方がK寺を正面から撮影した構図の画像よりも多い場合、撮影条件設定部13は図2Bのような構図を代表的な構図の1つとして特定し、その撮影位置及び撮影方向に基づいて、K寺における撮影画像の構図の条件を設定する。 For example, in the images posted on SNS, if there are more images with a composition in which K-ji Temple is photographed diagonally from the front than images with a composition in which K-ji Temple is photographed from the front, the photographing condition setting unit 13 changes the composition as shown in FIG. 2B. It is identified as one of the typical compositions, and conditions for the composition of the photographed image at K-ji Temple are set based on the photographing position and photographing direction.
 なお、撮影条件設定部13は、地点毎ではなく撮影対象の属性毎に、撮影画像の撮影条件を設定してもよい。すなわち、ある地点における撮影画像について、その撮影位置に鑑みて撮影対象が特定の属性の建造物、例えば神社仏閣であることが想定される場合、他の神社仏閣を撮影した複数の撮影画像に共通する構図の条件を抽出し、それを当該地点における撮影画像の構図の条件として設定してもよい。 Note that the photographing condition setting unit 13 may set photographing conditions for photographed images not for each point but for each attribute of the photographed object. In other words, if an image taken at a certain point is assumed to be a building with a specific attribute, such as a shrine or temple, based on the shooting location, the image taken at a certain point may be common to multiple images taken of other shrines or temples. It is also possible to extract the conditions for the composition and set them as the conditions for the composition of the photographed image at the point.
 候補画像取得部14は、撮影画像取得部12が取得した複数の撮影画像の中から、撮影条件設定部13が設定した構図についての条件を満たす撮影画像を候補画像として取得する。 The candidate image acquisition section 14 acquires, as a candidate image, a photographed image that satisfies the composition conditions set by the photographing condition setting section 13 from among the plurality of photographed images acquired by the photographed image acquisition section 12.
 地点設定部15は、画像表示の対象となる地点(すなわち、地図上で画像を重畳して表示する対象の地点)である「画像表示地点」を指定する指定信号を端末装置20から通信部11を介して受信し、受信した指定信号に基づいて、画像表示地点を設定する。 The point setting unit 15 sends a designation signal from the terminal device 20 to the communication unit 11 that specifies an “image display point” that is a point to be displayed as an image (that is, a point to be displayed with an image superimposed on the map). The image display point is set based on the received designated signal.
 端末装置20における画像表示地点の指定は、ユーザによる端末装置20を用いた入力操作によって行われる。本実施例では、端末装置20のディスプレイに表示される地図上の複数の地点(換言すると、同一の地図上に表示される少なくとも2以上の地点)が、ユーザによるタッチパネルディスプレイの操作によって指定される。サーバ装置10の地点設定部15は、端末装置20からの指定信号に基づいて、複数の地点を画像表示地点として設定する。 The designation of the image display point on the terminal device 20 is performed by the user's input operation using the terminal device 20. In this embodiment, a plurality of points on the map displayed on the display of the terminal device 20 (in other words, at least two or more points displayed on the same map) are specified by the user's operation on the touch panel display. . The point setting unit 15 of the server device 10 sets a plurality of points as image display points based on the designation signal from the terminal device 20.
 表示用画像特定部16は、候補画像取得部14が取得した候補画像のうち、地点設定部15により設定された画像表示地点に対応する候補画像を表示用画像として特定する。 The display image specifying unit 16 specifies, as a display image, a candidate image corresponding to the image display point set by the point setting unit 15, among the candidate images obtained by the candidate image obtaining unit 14.
 端末装置20は、例えばスマートフォンやタブレット端末等、通信機能及び撮影機能を有する携帯可能な小型の端末装置である。 The terminal device 20 is a small, portable terminal device, such as a smartphone or a tablet terminal, that has a communication function and a photographing function.
 端末装置20は、通信部21、撮像部22、表示制御部23、記憶部24、表示部25及び操作受付部26を有する。 The terminal device 20 includes a communication section 21 , an imaging section 22 , a display control section 23 , a storage section 24 , a display section 25 , and an operation reception section 26 .
 通信部21は、通信ネットワークを介してデータの送受信を行う。例えば、通信部21は、撮像部22によって撮影された画像をSNSにアップロードする。また、通信部21は、サーバ装置10から送信された表示用画像を受信する。 The communication unit 21 transmits and receives data via a communication network. For example, the communication unit 21 uploads an image photographed by the imaging unit 22 to an SNS. The communication unit 21 also receives the display image transmitted from the server device 10.
 撮像部22は、端末装置20に内蔵されたカメラである。ユーザは、撮像部22を操作して風景等を撮影し、例えばSNSに投稿するための撮影画像を生成する。 The imaging unit 22 is a camera built into the terminal device 20. The user operates the imaging unit 22 to photograph a landscape or the like, and generates a photographed image to be posted, for example, on SNS.
 表示制御部23は、表示部25の表示制御を行う回路ブロックである。本実施例では、表示制御部23は、サーバ装置10から送信された画像を表示するように表示部25の表示制御を行う。 The display control unit 23 is a circuit block that controls the display of the display unit 25. In this embodiment, the display control unit 23 controls the display unit 25 to display the image transmitted from the server device 10.
 記憶部24は、ハードディスク等からなる記憶装置である。本実施例では、記憶部24には、表示部25に表示するための地図が記憶されている。 The storage unit 24 is a storage device such as a hard disk. In this embodiment, the storage unit 24 stores a map to be displayed on the display unit 25.
 表示部25は、液晶表示パネル等のディスプレイから構成されている。表示部25は、表示制御部23の制御に応じて、種々の情報を表示する。本実施例では、表示部25には、記憶部24から読み出された地図が表示される。また、当該地図には、複数の画像が重畳して表示される。 The display section 25 is composed of a display such as a liquid crystal display panel. The display section 25 displays various information under the control of the display control section 23. In this embodiment, the map read from the storage unit 24 is displayed on the display unit 25. Further, a plurality of images are displayed in a superimposed manner on the map.
 また、表示部25は、タッチパネルディスプレイとしての機能を有する。すなわち、ユーザは表示部25に接触して操作することにより、各種情報の入力を行う。 Additionally, the display section 25 has a function as a touch panel display. That is, the user inputs various information by touching and operating the display section 25.
 操作受付部26は、ユーザが表示部25のタッチパネルディスプレイを用いて行った操作入力を受け付け、当該操作入力の内容に対応する信号を、通信部21を介してサーバ装置10に送信する。 The operation reception unit 26 receives an operation input performed by the user using the touch panel display of the display unit 25, and transmits a signal corresponding to the content of the operation input to the server device 10 via the communication unit 21.
 本実施例では、表示部25が画面上に地図を表示させ、当該地図上においてユーザから画像表示地点の指定を受ける。なお、本実施例では、同一の地図上に表示される複数の地点が画像表示地点として指定される。操作受付部26は、表示部25のタッチパネルディスプレイを用いた操作により指定された画像表示地点の情報を、通信部21を介してサーバ装置10に送信する。 In this embodiment, the display unit 25 displays a map on the screen, and receives designation of an image display point from the user on the map. Note that in this embodiment, multiple points displayed on the same map are designated as image display points. The operation reception unit 26 transmits information on the image display point specified by the operation using the touch panel display of the display unit 25 to the server device 10 via the communication unit 21.
 次に、本実施例の画像表示処理におけるサーバ装置10の処理動作について説明する。 Next, the processing operation of the server device 10 in the image display processing of this embodiment will be explained.
 図3は、本実施例の画像表示処理の処理ルーチンを示すフローチャートである。 FIG. 3 is a flowchart showing a processing routine for image display processing in this embodiment.
 まず、撮影画像取得部12は、通信部11を介して通信ネットワークにアクセスし、撮影位置及び撮影方向の情報が付された複数の撮影画像をSNS等の投稿画像から取得する(STEP101)。 First, the photographed image acquisition unit 12 accesses the communication network via the communication unit 11 and acquires a plurality of photographed images with information on the photographing position and photographing direction attached from images posted on SNS etc. (STEP 101).
 撮影条件設定部13は、撮影画像取得部12が取得した複数の撮影画像に基づいて、各々の撮影画像が撮影された地点毎又は撮影対象の属性毎に構図の条件を設定する(STEP102)。 Based on the plurality of photographed images acquired by the photographed image acquisition section 12, the photographing condition setting section 13 sets composition conditions for each point where each photographed image was photographed or for each attribute of the photographic subject (STEP 102).
 候補画像取得部14は、STEP101で取得された複数の撮影画像の中から、STEP102で設定された構図の条件を満たす撮影画像を候補画像として抽出(取得)する(STEP103)。 The candidate image acquisition unit 14 extracts (obtains) a photographed image that satisfies the composition condition set in STEP 102 as a candidate image from among the plurality of photographed images acquired in STEP 101 (STEP 103).
 地点設定部15は、通信部11を介して、画像表示地点の設定を受け付ける(STEP104)。 The point setting section 15 receives the setting of the image display point via the communication section 11 (STEP 104).
 具体的には、ユーザは、端末装置20の表示部25のタッチパネルディスプレイを操作し、表示部25に表示された地図上で所望の地点を選択する。本実施例では、同一の地図上に表示される複数の地点が選択される。端末装置20の通信部21は、当該選択の内容を示す画像表示地点の指定情報をサーバ装置10に送信する。サーバ装置10の地点設定部15は、端末装置20から送信された画像表示地点の指定情報を、通信部11を介して取得する。 Specifically, the user operates the touch panel display of the display unit 25 of the terminal device 20 and selects a desired point on the map displayed on the display unit 25. In this embodiment, multiple points displayed on the same map are selected. The communication unit 21 of the terminal device 20 transmits to the server device 10 designation information of the image display point indicating the content of the selection. The point setting unit 15 of the server device 10 acquires the designation information of the image display point transmitted from the terminal device 20 via the communication unit 11.
 地点設定部15は、通信部11を介して取得した指定情報に基づいて、画像表示地点を設定する(STEP105)。 The point setting section 15 sets an image display point based on the specification information acquired via the communication section 11 (STEP 105).
 表示用画像特定部16は、STEP103で取得された候補画像のうち、STEP105で設定された画像表示地点に対応する候補画像を表示用画像として特定する(STEP106)。 The display image specifying unit 16 specifies, as a display image, a candidate image corresponding to the image display point set in STEP 105 from among the candidate images acquired in STEP 103 (STEP 106).
 通信部11は、STEP106で特定された表示用画像を端末装置20に送信する(STEP107)。 The communication unit 11 transmits the display image specified in STEP 106 to the terminal device 20 (STEP 107).
 以上のような処理ルーチンを経て、サーバ装置10から端末装置20に表示用画像が送信され、端末装置20の表示部25に表示される。 After the above processing routine, the display image is transmitted from the server device 10 to the terminal device 20 and displayed on the display unit 25 of the terminal device 20.
 図4は、本実施例の画像表示システム100において、端末装置20の表示部25に表示される表示画面の例を示す図である。ここでは、画像表示地点として「K寺」及び「R寺」が設定されている場合を示している。 FIG. 4 is a diagram showing an example of a display screen displayed on the display unit 25 of the terminal device 20 in the image display system 100 of this embodiment. Here, a case is shown in which "K Temple" and "R Temple" are set as image display points.
 地図上のK寺の位置には、SNS等の投稿画像から取得されたK寺の撮影画像のうち、撮影条件設定部13により設定された構図の条件を満たす1の画像が表示される。同様に、地図上のR寺の位置には、SNS等の投稿画像から取得されたR寺の撮影画像のうち、撮影条件設定部13により設定された構図の条件を満たす1の画像が表示される。 At the position of K-dera on the map, one image that satisfies the composition conditions set by the imaging condition setting unit 13 is displayed among the captured images of K-dera acquired from images posted on SNS etc. Similarly, at the position of Temple R on the map, one image that satisfies the composition conditions set by the shooting condition setting section 13 is displayed among the captured images of Temple R obtained from images posted on SNS etc. Ru.
 以上のように、本実施例の画像表示システム100では、サーバ装置10の撮影条件設定部13が、複数の地点について、当該地点で撮影された撮影画像についての構図(すなわち、撮影位置及び撮影方向)の条件を設定する。表示用画像特定部16は、地点設定部15により設定された複数の画像表示地点の各々で撮影された撮影画像のうち、撮影条件設定部13により設定された構図の条件を満たす撮影画像を、複数の画像表示地点の各々に対応する表示用画像として取得する。 As described above, in the image display system 100 of the present embodiment, the photographing condition setting unit 13 of the server device 10 determines the composition (i.e., the photographing position and photographing direction) of the photographed image photographed at a plurality of points. ). The display image specifying unit 16 selects, from among the captured images taken at each of the plurality of image display points set by the point setting unit 15, a captured image that satisfies the composition conditions set by the shooting condition setting unit 13. A display image corresponding to each of a plurality of image display points is acquired.
 したがって、本実施例の画像表示システム100によれば、サーバ装置10が撮影画像の構図についての条件を地点毎又は撮影対象の属性毎に予め設定し、その条件を満たす画像のみを表示用画像とすることにより、端末装置20において地図に重畳して表示する画像を、各地点における代表的な構図の画像とすることができる。また、これによりユーザに対して各地点への訪問の動機づけを図ることが可能となる。 Therefore, according to the image display system 100 of the present embodiment, the server device 10 presets conditions regarding the composition of photographed images for each point or for each attribute of the photographed object, and only images that satisfy the conditions are used as display images. By doing so, the image displayed superimposed on the map on the terminal device 20 can be an image with a representative composition at each point. Moreover, this makes it possible to motivate users to visit each location.
 次に、本発明の実施例2について説明する。 Next, Example 2 of the present invention will be described.
 図5は、本実施例の画像表示システム200の構成を示すブロック図である。画像表示システム200は、サーバ装置30及び複数の端末装置20-1~20-nから構成されている。 FIG. 5 is a block diagram showing the configuration of the image display system 200 of this embodiment. The image display system 200 includes a server device 30 and a plurality of terminal devices 20-1 to 20-n.
 サーバ装置30は、通信部11、撮影画像取得部12、指定情報取得部31、地点日時設定部32、撮影情報取得部33及び表示用画像取得部34を有する。 The server device 30 includes a communication section 11, a photographed image acquisition section 12, a designated information acquisition section 31, a point date and time setting section 32, a photographed information acquisition section 33, and a display image acquisition section 34.
 指定情報取得部31は、画像表示地点及び「日時」を指定する指定信号を端末装置20から通信部11を介して受信し、指定地点及び指定日時の情報(以下、指定情報と称する)を取得する。端末装置20における地点及び日時の指定は、ユーザによる端末装置20を用いた入力操作により行われる。 The designated information acquisition unit 31 receives a designated signal that designates an image display point and “date and time” from the terminal device 20 via the communication unit 11, and acquires information on the designated point and designated date and time (hereinafter referred to as designated information). do. The location and date and time are specified on the terminal device 20 by the user's input operation using the terminal device 20.
 本実施例では、指定地点で撮影された複数の撮影画像のうち、指定日時に基づいて定まる撮影日時の条件で撮影された撮影画像が表示用画像として取得される。本実施例では、指定日時の「日付」、「時間帯」、及び当該指定日時に行われる「イベント」の情報に基づいて、表示用画像として選択する撮影画像の撮影日時の条件が決定される。 In this embodiment, among the plurality of photographed images photographed at the designated point, the photographed image photographed under the conditions of the photographing date and time determined based on the designated date and time is acquired as the display image. In this embodiment, the conditions for the shooting date and time of the captured image to be selected as the display image are determined based on the information of the "date", "time zone", and "event" to be held at the specified date and time. .
 本実施例では、ユーザによる端末装置20の操作に応じて、「日付」、「時間帯」及び「イベント」の何を優先して表示用画像の撮影日時の条件を決定するか(換言すると、何を優先して表示用画像を選択するか)が指定される。すなわち、本実施例では、指定情報取得部31が端末装置20から取得する指定情報に、「日付」、「時間帯」及び「イベント」のいずれを優先して表示画像の撮影日時の条件を決定するかを指定する情報が含まれる。 In this embodiment, depending on the operation of the terminal device 20 by the user, which of the "date", "time zone", and "event" is prioritized to determine the shooting date and time conditions of the display image (in other words, (which priority should be given when selecting images for display) is specified. That is, in this embodiment, the specified information acquisition unit 31 determines the shooting date and time conditions of the display image by giving priority to any of the specified information acquired from the terminal device 20: “date,” “time zone,” and “event.” Contains information specifying whether to do so.
 地点日時設定部32は、指定情報に含まれる指定地点の情報に基づいて、画像表示地点を設定する。また、地点日時設定部32は、指定情報に含まれる指定日時の情報に基づいて、画像表示の対象日時を設定する。 The point date and time setting unit 32 sets the image display point based on the information of the specified point included in the specified information. Further, the point date and time setting unit 32 sets the target date and time for image display based on the specified date and time information included in the specification information.
 なお、本実施例の画像表示システム200においても、ユーザは端末装置20を用いた入力操作により、複数の地点(すなわち、同一の地図上に表示される少なくとも2以上の地点)を指定する。これにより、複数の地点を指定する指定情報が端末装置20からサーバ装置30に送信され、地点日時設定部32は、当該複数の地点を画像表示地点として設定する。 Note that in the image display system 200 of the present embodiment as well, the user specifies a plurality of points (that is, at least two or more points displayed on the same map) through an input operation using the terminal device 20. As a result, designation information specifying a plurality of points is transmitted from the terminal device 20 to the server device 30, and the point date and time setting unit 32 sets the plurality of points as image display points.
 また、本実施例では、ユーザによる「日時」の指定は、指定された画像表示地点毎に行うことが可能に構成されている。例えば、ユーザは、上記複数の地点の各々を訪問する訪問予定日時を、各地点についての画像表示の「日時」として指定する。また、ユーザは上記複数の地点について同じ日時(例えば、現在日時)を指定してもよい。 Furthermore, in this embodiment, the user can specify the "date and time" for each designated image display point. For example, the user specifies the scheduled date and time of visiting each of the plurality of locations as the "date and time" of image display for each location. Further, the user may specify the same date and time (for example, the current date and time) for the plurality of points.
 また、地点日時設定部32は、設定した対象日時に画像表示地点で開催されることが予定されているイベント(例えば、祭りや式典等)の情報を取得する。例えば、地点日時設定部32は、通信部11を介してネットワーク上の図示せぬイベント情報データベースにアクセスすることにより、開催予定のイベントの情報を取得する。 Additionally, the location date and time setting unit 32 acquires information on events (for example, festivals, ceremonies, etc.) scheduled to be held at the image display location at the set target date and time. For example, the location date and time setting unit 32 obtains information about an event scheduled to be held by accessing an event information database (not shown) on the network via the communication unit 11.
 撮影情報取得部33は、撮影画像取得部12が取得した複数の撮影画像の各々について、撮影日時の情報を取得する。また、撮影情報取得部33は、各撮影画像の撮影時にその地点で行われていたイベントの情報を取得する。撮影情報取得部33は、例えば通信部11を介してネットワーク上の図示せぬイベント情報データベースにアクセスすることにより、各撮影画像の撮影時に行われていたイベントの情報を取得する。 The photographing information acquisition section 33 acquires information on the photographing date and time for each of the plurality of photographed images acquired by the photographed image acquisition section 12. Further, the photographing information acquisition unit 33 acquires information about an event that was taking place at the time when each photographed image was photographed. The photographing information acquisition unit 33 acquires information on an event that was taking place at the time of photographing each photographed image, for example, by accessing an event information database (not shown) on the network via the communication unit 11.
 表示用画像取得部34は、撮影画像取得部12が取得した複数の撮影画像の中から、地点日時設定部32により設定された画像表示地点、画像表示の対象日時の情報、当該対象日時におけるイベントの開催情報、及び撮影情報取得部33が取得した撮影情報(すなわち、撮影日時及びイベントの情報)に基づいて、表示用画像を取得する。本実施例では、表示用画像取得部34は、「日付」「時間帯」「イベント」の何を優先して表示画像の選択を行うかを指定する指定情報に基づいて、表示用画像として用いる撮影画像の撮影日時の条件を決定し、当該撮影日時の条件を満たす撮影画像を表示用画像として取得する。 The display image acquisition section 34 selects the image display point set by the point date and time setting section 32, information on the target date and time for image display, and events at the target date and time from among the plurality of photographed images acquired by the photographed image acquisition section 12. A display image is acquired based on the event information and the photographing information (that is, the photographing date and time and event information) acquired by the photographing information acquisition unit 33. In this embodiment, the display image acquisition unit 34 uses the display image based on designation information that specifies which of the "date," "time period," and "event" should be given priority in selecting the display image. A photographing date and time condition for a photographed image is determined, and a photographed image that satisfies the photographing date and time condition is acquired as a display image.
 具体的には、「日付」を優先して表示画像の選択を行う場合、表示用画像取得部34は、指定日時に近い日付であることを撮影日時の条件として、その条件を満たす撮影画像を表示用画像として取得する。例えば、ユーザにより現在の日時が指定され、画像表示の対象日時として設定された場合、表示用画像取得部34は、直近の日付で撮影された撮影画像を表示用画像として取得する。また、例えば過去2週間以内に撮影された画像がない等、直近の日付で撮影された画像が存在しない場合、表示用画像取得部34は、所定期間内(例えば直近の3年以内)の同時期に撮影された画像のうちの最近に撮影された撮影画像を表示用画像として取得する。 Specifically, when selecting a display image with priority given to "date", the display image acquisition unit 34 sets a shooting date and time condition that the date is close to the specified date and time, and selects a shot image that satisfies the condition. Obtain as a display image. For example, when the current date and time is designated by the user and set as the target date and time for image display, the display image acquisition unit 34 acquires a photographed image taken on the most recent date as the display image. In addition, if there is no image taken on the most recent date, such as there being no image taken within the past two weeks, the display image acquisition unit 34 displays the same image taken within a predetermined period (for example, within the last three years). A photographed image photographed recently among images photographed at the same time is acquired as a display image.
 また、ユーザにより将来の日時が指定され、画像表示の対象日時として設定された場合、表示用画像取得部34は、当該将来の日時と同じ季節に撮影された撮影画像であることを撮影日の条件として、表示用画像として取得する。例えば、ユーザによりある地点を指定地点として今日から2か月先の日付が指定され、当該日付が画像表示の対象日時として設定された場合、過去の所定の期間内(例えば3年以内)において、対象日時の前後数日間以内(例えば、前後各10日間以内)に撮影された画像のうちの最近に撮影された撮影画像を表示用画像として取得する。また、例えば半年前に撮影された撮影画像と一年前に撮影された撮影画像とが存在する場合、表示用画像取得部34は、季節が異なる半年前の撮影画像ではなく、一年前の同時期に撮影された画像を表示用画像として取得する。 Further, when a future date and time is specified by the user and set as the target date and time for image display, the display image acquisition unit 34 determines that the image was taken in the same season as the future date and time. As a condition, it is acquired as a display image. For example, if a user specifies a date two months from today as a specified point, and that date is set as the target date and time for image display, within a predetermined period in the past (for example, within three years), Among the images taken within several days before and after the target date and time (for example, within 10 days before and after), the most recently photographed image is acquired as a display image. Further, for example, if there is a photographed image taken half a year ago and a photographed image taken one year ago, the display image acquisition unit 34 selects the photographed image one year ago, not the photographed image taken half a year ago in a different season. Images taken at the same time are acquired as display images.
 また、「時間帯」を優先して表示用画像の選択を行う場合、表示用画像取得部34は、指定日時の時間帯に近い時間帯に撮影されたことを撮影日時の条件として、表示用画像を取得する。例えば、ユーザにより今日の午後8時が指定され、画像表示の対象日時として設定された場合、時間帯の異なる同日の午前9時に撮影された画像ではなく、過去の所定の期間内(例えば1週間以内)において、午後8時を含む時間帯(例えば午後7時半から午後8時半)に撮影された画像のうちの最近に撮影された撮影画像を表示用画像として取得する。 In addition, when selecting a display image with priority given to "time zone", the display image acquisition unit 34 sets the display image acquisition unit 34 as a condition for the photographing date and time that the image was photographed in a time zone close to the specified date and time. Get the image. For example, if the user specifies today's 8:00 p.m. and sets it as the target date and time for image display, images taken within a predetermined period in the past (for example, one week) will not be taken at 9:00 a.m. on the same day in a different time zone. The most recently photographed image among the images photographed during a time period including 8:00 p.m. (for example, from 7:30 p.m. to 8:30 p.m.) is acquired as a display image.
 図6A及び図6Bは、同じ地点である「K寺」で撮影され、且つ撮影された時間帯が異なる撮影画像の例を示す図である。図6Aは、昼間に撮影された撮影画像、図6Bは、夜間に撮影された撮影画像を示している。例えば、指定日時が日没以降であった場合、表示用画像取得部34は、図6Aではなく図6Bの撮影画像を表示用画像として取得する。 FIGS. 6A and 6B are diagrams showing examples of images taken at the same point, "K-dera," but taken at different times. FIG. 6A shows a photographed image taken during the day, and FIG. 6B shows a photographed image taken at night. For example, if the designated date and time is after sunset, the display image acquisition unit 34 acquires the photographed image of FIG. 6B instead of FIG. 6A as the display image.
 また、「イベント」を優先して表示画像の選択を行う場合、表示用画像取得部34は、指定地点において指定日時に行われることが予定されているイベントと同様のイベントが当該指定地点で過去に行われたときに撮影されたことを撮影日時の条件として、表示用画像を取得する。例えば、夏祭り等、そのイベントが一年に一度、同じ時期に行われるイベントである場合、表示用画像取得部34は、一年前の同時期に同様のイベントが行われた際に撮影された撮影画像を表示用画像として取得する。また、例えば定期市等、そのイベントが毎月決まった日にちに行われるようなイベントである場合、表示用画像取得部34は、例えば一か月前のイベント開催時に撮影された撮影画像を表示用画像として取得する。 In addition, when selecting a display image with priority given to "event", the display image acquisition unit 34 determines whether an event similar to the event scheduled to be held at the specified date and time at the specified point has occurred in the past at the specified point. A display image is acquired with the shooting date and time condition being that the image was taken when the image was taken. For example, if the event is an event that is held at the same time once a year, such as a summer festival, the display image acquisition unit 34 may display images taken when a similar event was held at the same time a year ago. The captured image is acquired as a display image. In addition, if the event is held on a fixed date every month, such as a regular market, the display image acquisition unit 34 may display a photographed image taken when the event was held one month ago, for example, as a display image. Get as.
 本実施例では、ユーザは、端末装置20の操作により、画像表示地点及び日時の指定に加えて、「日付」、「時間帯」及び「イベント」の何を表示画像選択のための撮影日時の条件とするかについて指定する。操作受付部26は、これらの内容を含む指定情報を、通信部21を介してサーバ装置30に送信する。 In this embodiment, by operating the terminal device 20, the user not only specifies the image display point and date and time, but also selects the shooting date and time for selecting the image to be displayed. Specify whether to set it as a condition. The operation reception unit 26 transmits specification information including these contents to the server device 30 via the communication unit 21.
 次に、本実施例の画像表示処理におけるサーバ装置30の処理動作について説明する。 Next, the processing operation of the server device 30 in the image display processing of this embodiment will be explained.
 図7は、本実施例の画像表示処理の処理ルーチンを示すフローチャートである。 FIG. 7 is a flowchart showing a processing routine for image display processing in this embodiment.
 サーバ装置30の通信部11は、端末装置20から送信された指定情報を受信する。指定情報取得部31は、受信した当該指定情報を取得する(STEP201)。 The communication unit 11 of the server device 30 receives the designation information transmitted from the terminal device 20. The designation information acquisition unit 31 acquires the received designation information (STEP 201).
 地点日時設定部32は、STEP201で受信した指定情報に含まれる指定地点の情報に基づいて、画像表示地点を設定する。また、地点日時設定部32は、当該指定情報に含まれる指定日時の情報に基づいて、画像表示の対象日時を設定する(STEP202)。 The point date and time setting unit 32 sets the image display point based on the information on the specified point included in the specified information received in STEP 201. Further, the point date and time setting unit 32 sets a target date and time for image display based on the specified date and time information included in the specified information (STEP 202).
 撮影情報取得部33は、STEP202で設定された画像表示地点で撮影された撮影画像について、撮影日時の情報及び撮影時にその地点で行われていたイベントの情報を取得する(STEP203)。 The photographing information acquisition unit 33 acquires information on the photographing date and time and information on the event that was being held at the point at the time of photographing for the photographed image photographed at the image display point set in STEP 202 (STEP 203).
 表示用画像取得部34は、STEP202で設定された画像表示地点及び画像表示の対象日時の情報と、STEP201で取得した指定情報に含まれる、日付、時間帯、イベントのいずれを表示画像の撮影日時の条件とするかについての情報に基づいて、各画像表示地点の各々に対応する表示用画像を取得する(STEP204)。 The display image acquisition unit 34 acquires the image display point and target date and time of image display set in STEP 202, and the date, time, and event included in the specified information acquired in STEP 201, and the shooting date and time of the display image. Display images corresponding to each image display point are acquired based on the information regarding whether the conditions are met (STEP 204).
 通信部11は、STEP204で取得された表示用画像を端末装置20に送信する(STEP205)。 The communication unit 11 transmits the display image acquired in STEP 204 to the terminal device 20 (STEP 205).
 以上のような処理ルーチンを経て、サーバ装置30から端末装置20に表示用画像が送信され、端末装置20の表示部25に表示される。 After the above processing routine, the display image is transmitted from the server device 30 to the terminal device 20 and displayed on the display unit 25 of the terminal device 20.
 本実施例の画像表示システム200では、端末装置20においてユーザの操作に応じて複数の地点及び各々の地点に対応する日時が指定され、指定情報としてサーバ装置30に送信される。サーバ装置30の表示用画像取得部34は、指定地点の各々において撮影された撮影画像のうち、指定日時に基づいて定まる撮影日時の条件(例えば、日付が近い、時間帯が同じである、同様のイベントが開催された際に撮影された)を満たす撮影画像を表示用画像として取得する。 In the image display system 200 of this embodiment, a plurality of points and the date and time corresponding to each point are specified in the terminal device 20 according to a user's operation, and transmitted to the server device 30 as specified information. The display image acquisition unit 34 of the server device 30 determines the shooting date and time conditions (for example, close date, same time zone, similar A photographed image that satisfies the following (taken when an event was held) is acquired as a display image.
 本実施例の画像表示システム200によれば、各地点の現在の状況又はユーザが所望する将来の日時における状況に近い画像を端末装置20の表示部25に表示することができる。 According to the image display system 200 of the present embodiment, it is possible to display on the display unit 25 of the terminal device 20 an image that is close to the current situation at each point or the situation at a future date and time desired by the user.
 これにより、ユーザは、実際にその地点を訪問した場合に予想される情景を視覚的に感知することができる。また、ユーザに対して各地点への訪問の動機づけを図ることが可能となる。 This allows the user to visually sense the scene that would be expected if they actually visited the location. Furthermore, it is possible to motivate users to visit each location.
 次に、本発明の実施例3について説明する。 Next, Example 3 of the present invention will be described.
 図8は、本実施例の画像表示システム300の構成を示すブロック図である。画像表示システム300は、サーバ装置40及び複数の端末装置20-1~20-nから構成されている。 FIG. 8 is a block diagram showing the configuration of the image display system 300 of this embodiment. The image display system 300 includes a server device 40 and a plurality of terminal devices 20-1 to 20-n.
 サーバ装置40は、通信部11、撮影画像取得部12、指定情報取得部41、地点日時設定部42、天気情報取得部43及び表示用画像取得部44を有する。 The server device 40 includes a communication section 11, a photographed image acquisition section 12, a specified information acquisition section 41, a point date and time setting section 42, a weather information acquisition section 43, and a display image acquisition section 44.
 指定情報取得部41は、画像表示地点及び画像表示の対象日時を指定する指定信号を端末装置20から通信部11を介して受信し、指定地点及び指定日時を含む指定情報を取得する。 The designation information acquisition unit 41 receives a designation signal designating an image display point and a target date and time for image display from the terminal device 20 via the communication unit 11, and acquires designation information including the designated point and designated date and time.
 地点日時設定部42は、指定情報に含まれる指定地点の情報に基づいて、画像表示地点を設定する。また、地点日時設定部42は、指定情報に含まれる指定日時の情報に基づいて、画像表示の対象日時を設定する。 The point date and time setting unit 42 sets the image display point based on the information of the specified point included in the specified information. Further, the point date and time setting unit 42 sets the target date and time for image display based on the specified date and time information included in the specification information.
 なお、本実施例の画像表示システム300においても、ユーザの端末装置20を用いた入力操作によって複数の地点が指定され、地点日時設定部32は、これに応じて当該複数の地点を画像表示地点として設定する。 In the image display system 300 of this embodiment as well, a plurality of points are specified by the user's input operation using the terminal device 20, and the point date and time setting unit 32 accordingly selects the plurality of points as the image display point. Set as .
 天気情報取得部43は、対象日時における画像表示地点の天気の状態を表す天気情報を取得する。例えば、対象日時が将来の日時である場合、天気情報取得部43は、通信部11を介してネットワーク上の図示せぬ天気予報データベースにアクセスし、対象日時における画像表示地点の予想される天気の情報を天気情報として取得する。 The weather information acquisition unit 43 acquires weather information representing the weather condition at the image display point at the target date and time. For example, if the target date and time is a future date and time, the weather information acquisition unit 43 accesses a weather forecast database (not shown) on the network via the communication unit 11, and obtains information about the expected weather at the image display point at the target date and time. Obtain information as weather information.
 ここで、「天気」は、「晴れ」「雨」「雪」等のいわゆる空模様の情報と、風の強さや降水量(以下、風雨の強さと称する)等の情報を含む。以下の説明では、空模様及び風雨の強さのうちの少なくとも一つが同様の状態であることを、同じ天気であると称する。なお、「同じ天気」と降水量や風速等が厳密に一致することではなく、同程度の数値範囲に含まれることを指す。例えば、風の強さであれば風速10m以下、風速10~20m、風速20m以上のように区分されたうちの同じ範囲に含まれることを同じ天気と称する。 Here, "weather" includes information on so-called sky conditions such as "sunny," "rainy," and "snow," as well as information such as wind strength and precipitation (hereinafter referred to as wind and rain strength). In the following description, conditions in which at least one of the sky pattern and the strength of wind and rain are similar are referred to as the same weather. Note that ``same weather'' does not mean that precipitation amounts, wind speeds, etc. are exactly the same, but rather that they are within the same numerical range. For example, in the case of wind strength, wind speeds of 10 m or less, wind speeds of 10 to 20 m, and wind speeds of 20 m or more are classified as the same weather.
 なお、天気情報取得部43は、画像の撮影が行われる地点としての画像表示地点の予想される天気の情報とは別に、撮影対象(すなわち、被写体)の地点について予想される天気の情報を取得してもよい。例えば、画像表示地点が所謂絶景スポットであり、特定の山や湖等が一望できる場所であるような場合、天気情報取得部43は、当該画像表示地点(絶景スポット)における撮影対象の地点である被写体地点として、当該画像表示地点に予め対応付けられた特定の山や湖等の予想される天気を天気情報として取得する。 Note that the weather information acquisition unit 43 acquires information on the expected weather at the point to be photographed (i.e., the subject), in addition to information on the expected weather at the image display point as the point where the image is taken. You may. For example, if the image display point is a so-called scenic spot, such as a place where you can overlook a specific mountain, lake, etc., the weather information acquisition unit 43 determines the location of the photographing target at the image display point (scenic view spot). As a subject point, the expected weather of a specific mountain, lake, etc. that is associated in advance with the image display point is acquired as weather information.
 また、天気情報取得部43は、撮影画像取得部12が取得した複数の撮影画像のうち地点日時設定部42によって設定された画像表示地点で撮影された撮影画像について、撮影日時における撮影地点の天気の情報を取得する。例えば、天気情報取得部43は、通信部11を介してネットワーク上の図示せぬ天気情報データベースにアクセスすることにより、撮影画像の撮影時における天気の情報を天気情報として取得する。 The weather information acquisition unit 43 also determines the weather of the shooting point at the shooting date and time for the shot image shot at the image display point set by the point date and time setting unit 42 among the plurality of shot images acquired by the shot image obtaining unit 12. Get information about. For example, the weather information acquisition unit 43 accesses a weather information database (not shown) on the network via the communication unit 11 to acquire information about the weather at the time the photographed image was taken as weather information.
 表示用画像取得部44は、撮影画像取得部12が取得した複数の撮影画像の中から、地点日時設定部42により設定された画像表示地点、画像表示の対象日時の情報、及び天気情報取得部43が取得した天気情報に基づいて、表示用画像を取得する。 The display image acquisition section 44 selects the image display point set by the point date and time setting section 42, the information on the target date and time for image display, and the weather information acquisition section from among the plurality of photographed images acquired by the photographed image acquisition section 12. 43 acquires a display image based on the acquired weather information.
 具体的には、表示用画像取得部44は、天気情報取得部43が取得した天気情報に基づいて、地点日時設定部42により設定された画像表示地点で撮影された撮影画像のうち、撮影日時における天気が画像表示の対象日時において予測される天気と同じ天気の下で撮影された撮影画像を、表示用画像として取得する。 Specifically, based on the weather information acquired by the weather information acquisition unit 43, the display image acquisition unit 44 selects the date and time of photography among the images taken at the image display point set by the spot date and time setting unit 42. A photographed image photographed under the same weather as the predicted weather at the date and time of image display is acquired as a display image.
 図9A、9B及び9Cは、同じ地点である「K寺」で撮影され、且つ撮影日時における天気が異なる撮影画像の例を示す図である。図9Aは晴天時、図9Bは雨天時、図9Cは降雪時にそれぞれ撮影された撮影画像を示している。 FIGS. 9A, 9B, and 9C are diagrams showing examples of captured images taken at the same point, "K-dera," but with different weather conditions at the time and date of the shooting. FIG. 9A shows images taken on a clear day, FIG. 9B shows images taken on a rainy day, and FIG. 9C shows images taken on a snowy day.
 例えば、画像表示地点としてK寺が設定され、且つ画像表示の対象日時の予想天気が雨である場合、表示用画像取得部34は、雨天時に撮影された画像である図9Bの撮影画像を表示用画像として取得する。 For example, if K-ji Temple is set as the image display point and the expected weather on the target date and time of image display is rainy, the display image acquisition unit 34 displays the photographed image of FIG. 9B, which is an image photographed during rainy weather. Obtain it as an image for use.
 なお、上記の通り、表示用画像取得部44は、撮影地点が所謂絶景スポットであって、山や湖等が一望できる場所であるような場合、当該撮影地点(絶景スポット)に予め対応付けられた被写体地点(例えば、特定の山等)の撮影日時における天気が、画像表示の対象日時において予測される被写体地点の天気と同じ天気の下で撮影された撮影画像を、表示用画像として取得する。または、このような場合、表示用画像取得部44は、撮影地点(絶景スポット)に予め対応付けられた被写体地点(例えば、特定の山等)の撮影日時における天気、及び撮影地点(絶景スポット)の撮影日時における天気の組合せが、画像表示の対象日時において予測される被写体地点の天気、及び予測される撮影地点の天気の組合せと同じである撮影画像を、表示用画像として取得してもよい。 As mentioned above, when the photographing point is a so-called scenic spot, such as a place with a panoramic view of mountains, lakes, etc., the display image acquisition unit 44 associates the image with the photographing point (scenic view spot) in advance. Obtain, as a display image, an image taken under the same weather as the predicted weather at the subject point (for example, a specific mountain) at the date and time when the image is to be displayed. . Alternatively, in such a case, the display image acquisition unit 44 may obtain the weather at the shooting date and time of a subject point (for example, a specific mountain, etc.) that is associated with the shooting point (scenic spot) in advance, and the shooting point (scenic spot). A photographed image in which the combination of weather at the photographing date and time is the same as the predicted weather at the subject point and the predicted weather at the photographing point at the target date and time of image display may be acquired as a display image. .
 次に、本実施例の画像表示処理におけるサーバ装置40の処理動作について説明する。 Next, the processing operation of the server device 40 in the image display processing of this embodiment will be explained.
 図10は、本実施例の画像表示処理の処理ルーチンを示すフローチャートである。 FIG. 10 is a flowchart showing the processing routine of image display processing in this embodiment.
 サーバ装置30の通信部11は、端末装置20から送信された指定情報を受信する。指定情報取得部41は、受信した当該指定情報を取得する(STEP301)。 The communication unit 11 of the server device 30 receives the designation information transmitted from the terminal device 20. The designation information acquisition unit 41 acquires the received designation information (STEP 301).
 地点日時設定部42は、STEP301で受信した指定情報に含まれる指定地点の情報に基づいて、画像表示地点を設定する。また、地点日時設定部42は、当該指定情報に含まれる指定日時の情報に基づいて、画像表示の対象日時を設定する(STEP302)。 The point date and time setting unit 42 sets the image display point based on the information on the specified point included in the specified information received in STEP 301. Further, the point date and time setting unit 42 sets the target date and time for image display based on the specified date and time information included in the specified information (STEP 302).
 天気情報取得部43は、通信部11を介してネットワーク上の天気予報情報にアクセスし、STEP302で設定された画像表示地点の対象日時において予想される天気の情報を取得する(STEP303)。 The weather information acquisition unit 43 accesses the weather forecast information on the network via the communication unit 11 and acquires information on the weather expected at the target date and time of the image display point set in STEP 302 (STEP 303).
 天気情報取得部43は、STEP302で設定された画像表示地点で撮影された撮影画像について、撮影時の天気の情報を取得する(STEP304)。 The weather information acquisition unit 43 acquires weather information at the time of photography for the photographed image photographed at the image display point set in STEP 302 (STEP 304).
 表示用画像取得部44は、STEP302で設定された画像表示地点で撮影された撮影画像のうち、撮影時の天気がSTEP303で取得した予想される天気と同じ天気である撮影画像を、表示用画像として取得する(STEP305)。 The display image acquisition unit 44 selects, among the captured images captured at the image display point set in STEP 302, the captured images whose weather at the time of capturing is the same as the expected weather acquired in STEP 303, as the display image. (STEP 305).
 通信部11は、STEP305で取得された表示用画像を端末装置20に送信する(STEP306)。 The communication unit 11 transmits the display image acquired in STEP 305 to the terminal device 20 (STEP 306).
 以上のような処理ルーチンを経て、サーバ装置40から端末装置20に表示用画像が送信され、端末装置20の表示部25に表示される。 After the above processing routine, the display image is transmitted from the server device 40 to the terminal device 20 and displayed on the display unit 25 of the terminal device 20.
 本実施例の画像表示システム300では、端末装置20においてユーザの操作に応じて複数の地点及び各々の地点に対応する日時が指定され、指定情報としてサーバ装置40に送信される。サーバ装置40の天気情報取得部43は、指定日時における指定地点又は被写体地点の予想される天気の情報を取得する。表示用画像取得部44は、指定地点で撮影された撮影画像のうち撮影時の天気が指定日時の予想される天気と一致する画像、又は撮影時における被写体地点の天気が指定日時において予想される被写体地点の天気と一致する撮影画像を、表示用画像として取得する。 In the image display system 300 of the present embodiment, a plurality of points and the date and time corresponding to each point are specified on the terminal device 20 according to the user's operation, and transmitted to the server device 40 as specified information. The weather information acquisition unit 43 of the server device 40 acquires information on the expected weather at the specified point or subject point at the specified date and time. The display image acquisition unit 44 selects images taken at the specified point where the weather at the time of shooting matches the expected weather at the specified date and time, or where the weather at the subject point at the time of shooting is expected at the specified date and time. A photographed image that matches the weather at the subject point is acquired as a display image.
 本実施例の画像表示システム200によれば、各地点又は被写体地点の現在の天気又はユーザが所望する将来の日時における天気に近い天気状態で撮影された画像を端末装置20の表示部25に表示することが可能となる。これにより、ユーザは、実際にその地点を訪問した場合に予想される情景を視覚的に感知することができる。 According to the image display system 200 of this embodiment, the display unit 25 of the terminal device 20 displays images taken under weather conditions close to the current weather at each location or subject location or the weather at a future date and time desired by the user. It becomes possible to do so. This allows the user to visually sense the scene that would be expected if he or she actually visited the location.
 したがって、本実施例の画像表示システム200によれば、ユーザに対して各地点への訪問の動機づけを図ることが可能となる。 Therefore, according to the image display system 200 of this embodiment, it is possible to motivate users to visit each location.
 なお、本発明は上記実施例で示したものに限られない。例えば、上記各実施例では、端末装置20(20-1~20-n)がスマートフォンやタブレット端末等の携帯可能な小型の端末装置である場合を例として説明した。しかし、端末装置20の種類はこれに限られず、例えば自動車等の車両に搭載されたナビゲーション装置であってもよい。 Note that the present invention is not limited to what is shown in the above embodiments. For example, in each of the above embodiments, the terminal devices 20 (20-1 to 20-n) are small, portable terminal devices such as smartphones and tablet terminals. However, the type of terminal device 20 is not limited to this, and may be, for example, a navigation device mounted on a vehicle such as an automobile.
 また、上記実施例1では、撮影条件設定部13が、複数の撮影画像の中から代表的な構図を地点毎に特定し、当該地点における撮影画像の構図の条件として設定する場合を例として説明した。しかし、構図の条件の設定方法はこれに限られない。例えば、ユーザが希望する構図の指定を端末装置20との通信を介して受け付け、端末装置20がこれに基づいて構図の条件を設定してもよい。または、複数の地点の各々について、予め代表的な構図の条件を、当該地点毎に対応付けて記憶させておいてもよい。 Furthermore, in the first embodiment, the photographing condition setting unit 13 identifies a typical composition from among a plurality of photographed images for each point, and sets it as a condition for the composition of the photographed image at that point. did. However, the method of setting the composition conditions is not limited to this. For example, a designation of a desired composition by the user may be received via communication with the terminal device 20, and the terminal device 20 may set the composition conditions based on this. Alternatively, for each of a plurality of points, typical composition conditions may be stored in advance in association with each point.
 また、上記実施例2では、指定日時に基づいて定まる日付、時間帯及びイベントを撮影日時の条件として、表示用画像を取得する場合を例として説明した。しかし、撮影日時の条件を決めるための要素はこれに限られない。例えば、上記実施例2では、「日付」を優先して表示画像を選択する場合に、撮影日が指定日時に近い画像を表示用画像として取得する場合を例として説明したが、単純に日付が近いか遠いかではなく、平日か休日かに応じて表示用画像を選択するようにしてもよい。すなわち、行楽地等では一般的に休日と平日とでは混雑度合いが異なることが想定されるため、画像表示の指定日時が休日である場合には休日に撮影された撮影画像、指定日時が平日である場合には平日に撮影された撮影画像を、それぞれ表示用画像とするようにしてもよい。 Furthermore, in the second embodiment, a case has been described as an example in which a display image is acquired using the date, time zone, and event determined based on the specified date and time as the shooting date and time conditions. However, the factors for determining the shooting date and time conditions are not limited to these. For example, in Example 2 above, when selecting a display image with priority given to the "date", an example was explained in which an image whose shooting date is close to the specified date and time is acquired as a display image. The display image may be selected depending on whether it is a weekday or a holiday instead of whether it is near or far. In other words, it is generally assumed that the degree of crowding in recreational areas is different between holidays and weekdays, so if the specified date and time for image display is a holiday, images taken on a holiday and images taken on a weekday will be displayed. In some cases, images taken on weekdays may be used as display images.
 また、上記各実施例の構成は適宜組み合わせて用いることが可能である。例えば、実施例1のように構図に関する条件を設定し、当該条件を満たす撮影画像の中から更に撮影時の状況や天気の状態が指定日時の状況や天気の状態と一致する撮影画像を表示用画像とするようにしてもよい。また、実施例2及び実施例3を組み合わせ、撮影時の状況及び天気の両方が指定日時の状況及び天気と同じである撮影画像を表示用画像としてもよい。また、ユーザがこれらに優先順位を付け、当該優先順位に従って表示用画像を取得するように構成されていてもよい。 Additionally, the configurations of the above embodiments can be used in combination as appropriate. For example, as in Example 1, you can set composition-related conditions, and from among the captured images that meet the conditions, display images whose shooting conditions and weather conditions match those of the specified date and time. It may also be an image. Alternatively, the second embodiment and the third embodiment may be combined, and a captured image in which both the situation and weather at the time of shooting are the same as the situation and weather at the specified date and time may be used as the display image. Alternatively, the configuration may be such that the user prioritizes these and acquires the display image according to the priority.
100 画像表示システム
10 サーバ装置
11 通信部
12 撮影画像取得部
13 撮影条件設定部
14 候補画像取得部
15 地点設定部
16 表示用画像特定部
20 端末装置
21 通信部
22 撮像部
23 表示制御部
24 記憶部
25 表示部
26 操作受付部
31 指定情報取得部
32 地点日時設定部
33 撮影情報取得部
34 表示用画像特定部
41 指定情報取得部
42 地点日時設定部
43 天気情報取得部
44 表示用画像取得部
100 Image display system 10 Server device 11 Communication unit 12 Captured image acquisition unit 13 Photography condition setting unit 14 Candidate image acquisition unit 15 Point setting unit 16 Display image identification unit 20 Terminal device 21 Communication unit 22 Imaging unit 23 Display control unit 24 Storage Section 25 Display section 26 Operation reception section 31 Specified information acquisition section 32 Point date and time setting section 33 Shooting information acquisition section 34 Display image specification section 41 Specification information acquisition section 42 Point date and time setting section 43 Weather information acquisition section 44 Display image acquisition section

Claims (8)

  1.  複数の地点の各々で撮影された撮影画像を取得する撮影画像取得部と、
     複数の指定地点、および当該複数の指定地点の各々に対応する指定日時を示す指定情報を取得する指定情報取得部と、
     前記撮影画像に付された撮影日時の情報に基づいて、前記指定地点の各々について、当該指定地点で撮影された複数の前記撮影画像のうち、前記指定日時に基づいて定まる撮影日時に撮影された撮影画像を、当該複数の指定地点を含む地図に重畳して表示させる表示用画像として取得する表示画像取得部と、
     を備えることを特徴とする情報処理装置。
    a photographed image acquisition unit that acquires photographed images taken at each of the plurality of points;
    a designated information acquisition unit that acquires designated information indicating a plurality of designated points and a designated date and time corresponding to each of the plurality of designated points;
    Based on the information on the photographing date and time attached to the photographed image, for each of the designated points, among the plurality of photographed images taken at the designated point, the photographed image was taken at the photographing date and time determined based on the designated date and time. a display image acquisition unit that acquires the photographed image as a display image to be displayed superimposed on a map including the plurality of specified points;
    An information processing device comprising:
  2.  前記表示画像取得部は、前記複数の撮影画像のうち、撮影された日付が前記指定日時の日付に近い撮影画像を前記表示用画像として取得することを特徴とする請求項1に記載の情報処理装置。 The information processing according to claim 1, wherein the display image acquisition unit acquires, as the display image, a photographed image whose photographed date is close to the specified date and time among the plurality of photographed images. Device.
  3.  前記表示画像取得部は、前記複数の撮影画像のうち、撮影された時刻が前記指定日時に基づいて定まる時間帯に含まれる撮影画像を前記表示用画像として取得することを特徴とする請求項1に記載の情報処理装置。 1 . The display image acquisition unit acquires, as the display image, a photographed image whose photographed time is determined based on the designated date and time, from among the plurality of photographed images. The information processing device described in .
  4.  前記表示画像取得部は、前記複数の撮影画像のうち、前記指定日時に前記指定地点で行われるイベントと同様のイベントが過去に行われた日時に撮影された撮影画像を前記表示用画像として取得することを特徴とする請求項1に記載の情報処理装置。 The display image acquisition unit acquires, as the display image, a photographed image taken on a date and time when an event similar to the event to be held at the specified point at the designated date and time was held in the past, from among the plurality of photographed images. The information processing device according to claim 1, characterized in that:
  5.  前記複数の指定地点の各々において過去に行われたイベントの情報である過去イベント情報及びこれから行われることが予定されているイベントの情報である予定イベント情報を取得するイベント情報取得部を備え、
     前記表示用画像取得部は、前記過去イベント情報及び前記予定イベント情報に基づいて日時を特定し、当該特定された日時に撮影された画像を前記表示用画像として取得することを特徴とする請求項4に記載の情報処理装置。
    comprising an event information acquisition unit that acquires past event information that is information on events that were held in the past at each of the plurality of specified points and scheduled event information that is information on events that are scheduled to be held in the future;
    The display image acquisition unit specifies a date and time based on the past event information and the scheduled event information, and acquires an image taken at the specified date and time as the display image. 4. The information processing device according to 4.
  6.  情報処理装置が実行する情報処理方法であって、
     複数の地点の各々で撮影された撮影画像を取得するステップと、
     複数の指定地点、および当該複数の指定地点の各々に対応する指定日時を示す指定情報を取得するステップと、
     前記撮影画像に付された撮影日時の情報に基づいて、前記指定地点の各々について、当該指定地点で撮影された複数の前記撮影画像のうち、前記指定日時に基づいて定まる撮影日時に撮影された撮影画像を、当該複数の指定地点を含む地図に重畳して表示させる表示用画像として取得するステップと、
     を含むことを特徴とする情報処理方法。
    An information processing method executed by an information processing device, the method comprising:
    a step of acquiring photographed images taken at each of the plurality of points;
    acquiring designation information indicating a plurality of designated points and a designated date and time corresponding to each of the plurality of designated points;
    Based on the information on the photographing date and time attached to the photographed image, for each of the designated points, among the plurality of photographed images taken at the designated point, the photographed image was taken at the photographing date and time determined based on the designated date and time. acquiring the photographed image as a display image to be displayed superimposed on a map including the plurality of specified points;
    An information processing method characterized by comprising:
  7.  情報処理装置に、
     複数の地点の各々で撮影された撮影画像を取得するステップと、
     複数の指定地点、および当該複数の指定地点の各々に対応する指定日時を示す指定情報を取得するステップと、
     前記撮影画像に付された撮影日時の情報に基づいて、前記指定地点の各々について、当該指定地点で撮影された複数の前記撮影画像のうち、前記指定日時に基づいて定まる撮影日時に撮影された撮影画像を、当該複数の指定地点を含む地図に重畳して表示させる表示用画像として取得するステップと、
     を実行させることを特徴とするプログラム。
    In the information processing device,
    a step of acquiring photographed images taken at each of the plurality of points;
    acquiring designation information indicating a plurality of designated points and a designated date and time corresponding to each of the plurality of designated points;
    Based on the information on the photographing date and time attached to the photographed image, for each of the designated points, among the plurality of photographed images taken at the designated point, the photographed image was taken at the photographing date and time determined based on the designated date and time. acquiring the photographed image as a display image to be displayed superimposed on a map including the plurality of specified points;
    A program characterized by executing.
  8.  情報処理装置に、
     複数の地点の各々で撮影された撮影画像を取得するステップと、
     複数の指定地点、および当該複数の指定地点の各々に対応する指定日時を示す指定情報を取得するステップと、
     前記撮影画像に付された撮影日時の情報に基づいて、前記指定地点の各々について、当該指定地点で撮影された複数の前記撮影画像のうち、前記指定日時に基づいて定まる撮影日時に撮影された撮影画像を、当該複数の指定地点を含む地図に重畳して表示させる表示用画像として取得するステップと、
     を実行させるプログラムを記録することを特徴とする記録媒体。
     
    In the information processing device,
    a step of acquiring photographed images taken at each of the plurality of points;
    acquiring designation information indicating a plurality of designated points and a designated date and time corresponding to each of the plurality of designated points;
    Based on the information on the photographing date and time attached to the photographed image, for each of the designated points, among the plurality of photographed images taken at the designated point, the photographed image was taken at the photographing date and time determined based on the designated date and time. acquiring the photographed image as a display image to be displayed superimposed on a map including the plurality of specified points;
    A recording medium that records a program for executing.
PCT/JP2023/009628 2022-04-28 2023-03-13 Information processing device, information processing method, program, and recording medium WO2023210190A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022074862 2022-04-28
JP2022-074862 2022-04-28

Publications (1)

Publication Number Publication Date
WO2023210190A1 true WO2023210190A1 (en) 2023-11-02

Family

ID=88518518

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/009628 WO2023210190A1 (en) 2022-04-28 2023-03-13 Information processing device, information processing method, program, and recording medium

Country Status (1)

Country Link
WO (1) WO2023210190A1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003058969A (en) * 2001-08-21 2003-02-28 Toshiba Corp Disaster prevention management system and method for presenting information of disaster prevention management system
JP2020154835A (en) * 2019-03-20 2020-09-24 株式会社アクセルスペース Information processing device, information processing method, and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003058969A (en) * 2001-08-21 2003-02-28 Toshiba Corp Disaster prevention management system and method for presenting information of disaster prevention management system
JP2020154835A (en) * 2019-03-20 2020-09-24 株式会社アクセルスペース Information processing device, information processing method, and program

Similar Documents

Publication Publication Date Title
US11710205B2 (en) Image capturing method and display method for recognizing a relationship among a plurality of images displayed on a display screen
US10791267B2 (en) Service system, information processing apparatus, and service providing method
JP7192923B2 (en) Apparatus, method, program, system
US20190320113A1 (en) Image Composition Instruction Based On Reference Image Perspective
CN101910936B (en) Guided photography based on image capturing device rendered user recommendations
US9996895B2 (en) Image display system, information processing apparatus, and image display method
US20120120100A1 (en) System and method of displaying images based on environmental conditions
US20140324838A1 (en) Server, client terminal, system, and recording medium
JP2016213810A (en) Image display system, information processing apparatus, program, and image display method
US9876951B2 (en) Image subject and composition demand
US20140247342A1 (en) Photographer's Tour Guidance Systems
US11463658B2 (en) Camera system
WO2023210190A1 (en) Information processing device, information processing method, program, and recording medium
JP2023163748A (en) Information processing apparatus, information processing method, program, recording medium
JP2023163749A (en) Information processing apparatus, information processing method, program, recording medium
US7340095B2 (en) Subject estimating method, device, and program
JP2011119832A (en) Image display device and image display method
US9324176B2 (en) Apparatus and method for saving and updating image file
US10331733B2 (en) System and method for presenting condition-specific geographic imagery
JP6743441B2 (en) Image collection device, display system, image collection method and program
CN115994960A (en) Control method, device, equipment, storage medium and vehicle for vehicle display interface
KR20090002148A (en) Method for displaying image file information on the electronic map
JP2012034281A (en) Photographer's guidance systems

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23795937

Country of ref document: EP

Kind code of ref document: A1