WO2016135971A1 - 経路検索システム、経路検索装置、経路検索方法、プログラム、及び情報記憶媒体 - Google Patents

経路検索システム、経路検索装置、経路検索方法、プログラム、及び情報記憶媒体 Download PDF

Info

Publication number
WO2016135971A1
WO2016135971A1 PCT/JP2015/055955 JP2015055955W WO2016135971A1 WO 2016135971 A1 WO2016135971 A1 WO 2016135971A1 JP 2015055955 W JP2015055955 W JP 2015055955W WO 2016135971 A1 WO2016135971 A1 WO 2016135971A1
Authority
WO
WIPO (PCT)
Prior art keywords
image data
time
visit
information
route search
Prior art date
Application number
PCT/JP2015/055955
Other languages
English (en)
French (fr)
Inventor
宗 益子
Original Assignee
楽天株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 楽天株式会社 filed Critical 楽天株式会社
Priority to US15/321,193 priority Critical patent/US10451431B2/en
Priority to JP2015562619A priority patent/JP5979771B1/ja
Priority to PCT/JP2015/055955 priority patent/WO2016135971A1/ja
Publication of WO2016135971A1 publication Critical patent/WO2016135971A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3407Route searching; Route guidance specially adapted for specific applications
    • G01C21/343Calculating itineraries, i.e. routes leading from a starting point to a series of categorical destinations using a global route restraint, round trips, touristic trips
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • G01C21/3617Destination input or retrieval using user history, behaviour, conditions or preferences, e.g. predicted or inferred from previous use or current movement
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3667Display of a road map
    • G01C21/3676Overview of the route on the road map
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/14Display of multiple viewports
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/003Maps
    • G09B29/006Representation of non-cartographic information on maps, e.g. population distribution, wind direction, radiation levels, air and sea routes
    • G09B29/007Representation of non-cartographic information on maps, e.g. population distribution, wind direction, radiation levels, air and sea routes using computer methods

Definitions

  • the present invention relates to a route search system, a route search device, a route search method, a program, and an information storage medium.
  • Japanese Patent Application Laid-Open No. 2004-228561 describes a technique that makes it easy to understand the shooting position of an image by associating the image with its shooting location and displaying the image on a map.
  • the user may visit the shooting location in order to have the same experience as the image that the user is interested in.
  • the user actually visits the shooting location it is not always possible to experience the same experience as the image. For example, even if the user is interested in an image taken in the evening, if the user visits the shooting location in the daytime, the actual scenery looks different from the image, so the experience is similar to the image. I can't.
  • the present invention has been made in view of the above problems, and its purpose is to provide a route search system, a route search device, a route search method, a program capable of guiding a user to experience the same experience as an image, And providing an information storage medium.
  • a route search system includes a unit that acquires storage contents of a storage unit that stores each of a plurality of pieces of image data in association with position information and time information; Display control means for displaying a plurality of image data on the display means, reception means for receiving selection of a visit destination from the displayed image data, and the position information of the image data of the selected visit destination Search means for determining a visit position based on the image data, determining a visit time based on the time information of the image data, and searching for a route for visiting the visit position at the visit time.
  • the route search device includes a unit that acquires storage contents of a storage unit that stores each of a plurality of pieces of image data in association with position information and time information;
  • a display control means for displaying a plurality of images on the display means, a reception means for accepting selection of a visit destination from the displayed image data, and a visit position based on the position information of the image data of the selected visit destination.
  • Search means for determining a visit time based on the time information of the image data and searching for a route for visiting the visit position at the visit time.
  • the route search method includes a step of acquiring storage contents of storage means for storing each of a plurality of image data in association with position information and time information, and among the plurality of image data
  • the program according to the present invention displays a plurality of pieces of the plurality of image data, a unit that acquires storage contents of a storage unit that stores each of the plurality of pieces of image data in association with position information and time information.
  • Display control means to be displayed on the means, accepting means for receiving selection of a visit destination from the displayed image data, determining a visit position based on the position information of the image data of the selected visit destination, and the image A computer is caused to function as search means for determining a visit time based on the time information of the data and searching for a route for visiting the visit position at the visit time.
  • the information storage medium according to the present invention is a computer-readable information storage medium storing the above program.
  • the display control unit causes the display unit to display image data associated with the position information corresponding to the visit position and the time information after the visit time, and the reception unit
  • the means accepts selection of the next visited place from the displayed image data, and the search means determines the next visited position based on the position information of the selected next visited image data. Then, a next visit time is determined based on the time information of the image data, and the route is searched again so as to visit the next visit position at the next visit time.
  • the route search system further includes means for acquiring a stay time at the visit position, and the display control means is a time later than a time elapsed by the stay time from the visit time.
  • the image data associated with the time information is displayed on the display means.
  • the display control unit may display image data that can be visited at the time indicated by the time information after the visit position is visited at the visit time. It is characterized by being displayed.
  • the display control unit causes the display unit to display image data associated with the position information corresponding to the visit position and the time information before the visit time, and the reception unit
  • the means accepts a selection of a stopover from the displayed image data, and the search means determines a stopover position based on the position information of the selected stopover image data, and the image data
  • a stop time is determined based on the time information, and the route is searched again so as to stop at the stop position at the stop time.
  • the display control unit may include the image data that can stop at the time indicated by the time information at the position indicated by the position information in order to visit the visit position at the visit time. It is characterized by displaying on a display means.
  • the storage unit may further store location attribute information in association with each of the plurality of image data, and the display control unit may store the location attribute information of the already selected image data.
  • the display of the associated image data is restricted.
  • the display control means limits display of image data associated with position information less than a predetermined distance from the position information of image data that has already been selected.
  • the route search system further includes means for acquiring departure position information and departure time information, and last visit position information and last visit time information
  • the display control means includes the display control means, The position information corresponding to the route between the starting position indicated by the starting position information and the last visiting position indicated by the last visiting position information; the starting time indicated by the starting time information; and the last visiting time indicated by the last visiting time information.
  • the display unit displays image data associated with the time information between, and the search unit departs the departure position at the departure time, visits the visited position at the visit time, A route for visiting the last visited position at the last visited time is searched.
  • the route search system further includes means for determining whether a person is photographed in each of the plurality of image data, and the display control means includes image data obtained by photographing the person.
  • the display is limited.
  • the route search system further includes means for acquiring popularity information of each of the plurality of image data, and the display control means includes the popularity information of each of the plurality of image data.
  • the image data is displayed based on the above.
  • the route search system further includes means for determining whether each of the plurality of image data is similar, and the display control means restricts display of the similar image data. It is characterized by that.
  • FIG. 1 is a diagram showing an overall configuration of a route search system in the present embodiment.
  • the route search system 1 includes a route search server 10 and a user terminal 20.
  • the route search server 10 and the user terminal 20 are connected via the network 2 so that data can be transmitted and received.
  • the route search server 10 is a server computer.
  • the route search server 10 includes a control unit 11, a storage unit 12, and a communication unit 13.
  • the control unit 11 includes, for example, one or a plurality of microprocessors.
  • the control unit 11 executes processing according to programs and data stored in the storage unit 12.
  • the storage unit 12 includes a main storage unit and an auxiliary storage unit.
  • the main storage unit is a RAM
  • the auxiliary storage unit is a hard disk or a solid state drive.
  • the communication unit 13 includes a network card. The communication unit 13 performs data communication via the network 2.
  • the user terminal 20 is a computer operated by the user, and is, for example, a mobile phone (including a smartphone), a portable information terminal (including a tablet computer), a personal computer, or the like.
  • the user terminal 20 includes a control unit 21, a storage unit 22, a communication unit 23, an operation unit 24, and a display unit 25.
  • the hardware configurations of the control unit 21, the storage unit 22, and the communication unit 23 are the same as those of the control unit 11, the storage unit 12, and the communication unit 13, respectively.
  • the operation unit 24 is an operation member for a user to perform an operation, such as a mouse, a keyboard, or a touch panel.
  • the operation unit 24 transmits the content of operation by the user to the control unit 21.
  • the display unit 25 is, for example, a liquid crystal display unit or an organic EL display unit.
  • the display unit 25 displays a screen according to instructions from the control unit 21.
  • each of the route search server 10 and the user terminal 20 may include a reading unit (for example, an optical disk drive or a memory card slot) that reads a computer-readable information storage medium.
  • the program and data stored in the information storage medium may be supplied to the storage unit 12 or the storage unit 22 via the reading unit.
  • FIG. 2 is a diagram showing an example of a route search screen.
  • the route search screen 30 includes a time axis 31 for the user to specify time, a map 32 around “A station” as a departure point, and a visit location 33 indicating each visit location. , Is displayed.
  • the time axis 31 indicates an earlier time as it approaches one end (left end 31A in FIG. 2), and indicates a later time as it approaches the other end (right end 31B in FIG. 3).
  • the left end 31 ⁇ / b> A of the time axis 31 indicates the departure time “February 27, 2015, 12:00”, and “A station” as the departure point is displayed below the departure time.
  • the user can designate the time by moving the bar 35 of the time axis 31 to the left and right using the cursor 34.
  • a case where the user drags and drops the bar 35 will be described as an example.
  • the distance between the current position of the left end 31A of the time axis 31 and the bar 35 corresponds to the departure time and the time interval specified by the user.
  • the bar 35 the bar The time corresponding to the current position of 35 is displayed.
  • FIG. 3 is a diagram showing an example of the route search screen 30 when the user drops the bar 35 at “16:00”. As shown in FIG. 3, a balloon-type image list 36 is displayed so as to point to the bar 35. The image list 36 may be displayed according to the current position of the bar 35 without dropping the bar 35.
  • image data 37 a plurality of image data 37A to 37P (hereinafter collectively referred to as image data 37) are displayed in a selectable state.
  • the image data 37 is taken in the real world, and is posted, for example, on a social networking service or a word-of-mouth website.
  • the user can view the image data 37 taken by himself or others from the image list 36.
  • the image data 37 displayed in the image list 36 of FIG. 3 is taken near “A station” (for example, within walking distance from “A station”) around “16:00” indicated by the current position of the bar 35. is there.
  • the user selects image data 37 of a place where he / she wants to go from the image list 36.
  • FIG. 4 is a diagram showing an example of the route search screen 30 when the image data 37P is selected as a place where the user wants to go.
  • the travel route is searched to visit “B Ohashi”, which is the shooting location, at “16:00”, which is the shooting time of the image data 37P selected by the user.
  • a route 38 for departing from “A station” at “12:00” and visiting “B Ohashi” at “16:00” is displayed on the map 32.
  • the user moves the bar 35 to the left and selects a place where he / she wants to stop on the way from “A station” to “B Ohashi”, or moves the bar 35 to the right to go next to “B Ohashi”.
  • FIG. 5 is a diagram illustrating an example of the route search screen 30 when the user drops the bar 35 at “14:00”.
  • an image list 36 is displayed so as to point to the bar 35.
  • the image list 36 displays image data 37 taken around “14:00” in the vicinity between “A station” and “B Ohashi”.
  • the image data 37 of a stopover destination that can arrive at “B Ohashi” at “16:00” is displayed in the image list 36.
  • the user selects image data 37 of a place where he / she wants to drop from the image list 36.
  • FIG. 6 is a diagram showing an example of the route search screen 30 when the image data 37D is selected as a place where the user wants to drop in.
  • the travel route is searched so as to stop at “C Shrine” which is the shooting location.
  • the route is updated to a route 38 that departs from “Station A” at “12:00”, stops at “C Shrine” at “14:00”, and visits “B Ohashi” at “16:00”.
  • the user moves the bar 35 to the left to select a place where he / she wants to stop between “A station” and “C shrine”, or moves the bar 35 to the right to “C shrine”.
  • ”And“ B Bridge or a place to go next to“ B Bridge ”can be selected. For example, if the user moves the bar 35 to the right and drops it at “17 o'clock”, the place where he wants to go next to “B Ohashi” can be selected around “17:00”.
  • FIG. 7 is a diagram showing an example of the route search screen 30 when the user drops the bar 35 at “17:00”.
  • an image list 36 is displayed so as to point to the bar 35.
  • the image list 36 displays image data 37 photographed around “17:00” near “B Ohashi”.
  • image data 37 of the destinations that can be reached at “17:00” by leaving “B Ohashi” at “16:00” is displayed in the image list 36.
  • the user selects image data 37 of a place where he wants to go next to “B Ohashi” from the image list 36.
  • a case will be described in which the user selects image data 37P photographed with “D Otaki” at “17:00”.
  • FIG. 8 is a diagram illustrating an example of the route search screen 30 when the user selects the image data 37P as a place where the user wants to go next.
  • the image data 37 ⁇ / b> P selected by the user is updated to a route 38 that visits “D Otaki” as the shooting location at “17:00” as the shooting time. That is, after leaving “Station A” at “12:00”, stop at “C Shrine” at “14:00”, visit “B Ohashi” at “16:00”, then “D Otaki” at “17:00” ”Is updated to the route 38 for“
  • the shooting location is visited at the shooting time of the image data 37 selected by the user. Since the route 38 is searched, the user can be guided to experience the same experience as the image data 37.
  • FIG. 9 is a functional block diagram illustrating an example of functions implemented by the route search system 1.
  • a data storage unit 40 As shown in FIG. 9, in the route search system 1, a data storage unit 40, a data acquisition unit 41, a display control unit 42, a selection reception unit 43, and a route search unit 44 are realized.
  • a route search unit 44 As shown in FIG. 9, a case where these functions are realized by the route search server 10 will be described.
  • the data storage unit 40 is realized mainly by the storage unit 12.
  • the data storage unit 40 stores various data for executing a route search.
  • an image table storing the image data 37 and search result data storing the search result of the movement route will be described.
  • FIG. 10 is a diagram showing an example of data storage of the image table.
  • each of the plurality of image data 37 is associated with position information and time information in the image table.
  • the image data 37 is image data of a photograph taken in the real world, image data obtained by processing the photograph, image data of CG (for example, CG imitating a real world landscape), or a picture drawn on paper ( For example, image data obtained by scanning a landscape image) with a scanner, the image data 37 itself may be stored in the image table, or only information indicating the storage location (link) of the image data 37 is stored in the image table. It may be.
  • the location information is information indicating the real-world location, for example, latitude / longitude information or address information.
  • the time information is information indicating the time associated with the image. For example, the time information may indicate a date and time (including both year, month, day, and time), or may indicate only the time without including the date. .
  • the position information indicates the shooting position of the image data 37
  • the time information indicates the shooting time of the image data 37.
  • the route search server 10 receives a combination of the image data 37, the position information, and the time information from the user terminal 20 or an external computer (for example, a database server or a digital camera), and stores them in the image table in association with each other. To do. It is assumed that the combination of the image data 37 and the position information and time information is recorded in the storage unit 22 of the user terminal 20 or the storage unit of the external computer. Further, the position information and the time information may be specified by the user or may be automatically generated.
  • an external computer for example, a database server or a digital camera
  • FIG. 11 is a diagram showing a data storage example of search result data. As shown in FIG. 11, the search result data is associated with a visit order, a visit position, and a visit time. The search result data is updated according to the execution result of the route search by the route search unit 44. FIG. 11 shows an example of storing search result data when a route search is executed as shown in FIG.
  • the position of the “A station” that is the departure position is stored in the first visit position in the visit order, and the departure time “February 27, 2015” 12 o'clock "is stored.
  • the positions of each visit destination (“C Shrine”, “B Ohashi”, and “D Otaki” in FIG. 11) are stored, and the second and subsequent visits are in the order of visit.
  • the visit time to each visit destination (“14:00”, “16:00”, and “17:00” of “February 27, 2015” in FIG. 11) is stored.
  • the data stored in the data storage unit 40 is not limited to the above example.
  • the data storage unit 40 may store various data necessary for executing the route search according to the present invention.
  • the data storage unit 40 may store image data of each image included in the route search screen 30 or may store map data indicating the map 32.
  • the data storage unit 40 may store data indicating the relationship between the route search algorithm and the position of the bar 35 and time.
  • the data acquisition unit 41 is realized mainly by the control unit 11.
  • the data acquisition unit 41 acquires the storage contents of the data storage unit 40 that stores each of the plurality of image data 37 in association with the position information and the time information.
  • the data acquisition unit 41 refers to the data storage unit 40 and acquires various data such as an image table and search result data.
  • the display control unit 42 is realized mainly by the control unit 11.
  • the display control unit 42 causes the display unit 25 to display a plurality of image data 37. It can be said that the plurality of image data 37 displayed by the display control unit 42 indicates candidates for the visited site.
  • the display control unit 42 displays the image list 36 based on the acquisition contents of the data acquisition unit 41.
  • the case where the display control unit 42 is realized by the route search server 10 will be described. Therefore, transmitting the display data of the image list 36 to the user terminal 20 displays a plurality of image data 37. Is equivalent to displaying on the screen.
  • the display control unit 42 may display all the image data 37 stored in the image table, or may display a part of the image data 37. When displaying some image data 37, the display control unit 42 specifies the image data 37 to be displayed from the image table based on a predetermined method.
  • the display control unit 42 specifies the image data 37 to be displayed based on at least one of the position and time designated by the user.
  • the position designated by the user is a position designated by the user using the operation unit 24, for example, a starting position designated by the user.
  • the time designated by the user is a time designated by the user using the operation unit 24, for example, a departure time designated by the user or a time designated from the time axis 31.
  • the display control unit 42 specifies the image data 37 to be displayed based on the position designated by the user.
  • the display control unit 42 specifies the image data 37 to be displayed based on the deviation (for example, distance) between the position designated by the user and the position indicated by the position information stored in the image table.
  • the display control unit 42 may specify a predetermined number of pieces of image data 37 in order from the smallest deviation, or may specify the image data 37 whose deviation is within a reference (for example, within 1 km).
  • the display control unit 42 specifies the image data 37 to be displayed based on the time specified by the user.
  • the display control unit 42 specifies the image data 37 to be displayed based on the difference (for example, time interval) between the time specified by the user and the time indicated by the time information stored in the image table.
  • the display control unit 42 may specify a predetermined number of pieces of image data 37 in order from the smallest deviation, or may specify image data 37 whose deviation is within a reference (for example, within 30 minutes).
  • the display control unit 42 responds to the visit position (“B Ohashi” in FIG. 7).
  • the display unit 25 displays image data 37 associated with the position information and the time information after the visit time (in the case of FIG. 7, “17:00” after “16:00” which is the visit time of “B Ohashi”). Will be displayed.
  • the location information corresponding to the visit location is the location information near the visit location, which is the location information whose deviation from the visit location is within the standard (less than the standard distance), and the time information after the visit time The time information is later than the visit time (the date may be considered or only the time may be considered).
  • the display control unit 42 may cause the display unit 25 to display image data 37 that can be visited at the time indicated by the time information after the visit position is visited at the visit time.
  • the display control unit 42 specifies the image data 37 whose deviation from the time specified by the user is within the reference. Then, the display control unit 42 acquires the most recent visit position (in the case of FIG. 7, the position of “B Ohashi”) and the visit time specified by the user. The display control unit 42 starts the visit position at the visit time, and calculates the estimated arrival time at the position indicated by the position information of each identified image data 37.
  • the display control unit 42 specifies the image data 37 whose calculated estimated arrival time is earlier than the time indicated by the time information as the image data 37 to be displayed.
  • the display control unit 42 searches for a movement route from the most recent visit position specified by the user to the position indicated by the position information of the image data 37. Then, the display control unit 42 calculates the estimated arrival time based on the estimated travel time obtained by dividing the retrieved travel route by the given travel speed. For example, the display control unit 42 calculates, as the estimated arrival time, the time after the estimated travel time has elapsed from the latest visit time specified by the user.
  • the display control unit 42 determines the position according to the visit position (“B Ohashi” in FIG. 5).
  • the display unit 25 displays the image data 37 associated with the information and the time information before the visit time (in the case of FIG. 5, “14:00” before “16:00” which is the visit time of “B Ohashi”). I will let you.
  • the time information before the visit time is time information earlier than the visit time (a date may be considered or only a time may be considered).
  • the display control unit 42 may cause the display unit 25 to display the image data 37 that can stop at the position indicated by the position information at the time indicated by the time information in order to visit the visit position at the visit time.
  • the display control unit 42 specifies the image data 37 whose deviation from the time specified by the user is within the reference. Then, the display control unit 42 acquires the next visit position (in the case of FIG. 7, the position of “B Ohashi”) and the visit time from the time specified by the user.
  • the display control unit 42 starts the position indicated by the position information of each identified image data 37 at the time indicated by the time information, and calculates the estimated arrival time at the visited position.
  • the method for calculating the estimated arrival time is the same as the method described above.
  • the display control unit 42 specifies the image data 37 whose calculated estimated arrival time is before the next visit time as the image data 37 to be displayed.
  • the selection receiving unit 43 is realized mainly by the control unit 11.
  • the selection receiving unit 43 receives a selection of a visit destination from the image data 37 displayed by the display control unit 42.
  • the selection receiving unit 43 receives a selection of a visit destination from the image list 36 based on an operation signal from the operation unit 24.
  • receiving the information for identifying the image data 37 selected by the user from the user terminal 20 receives the selection of the visited site. It corresponds to that.
  • the selection receiving unit 43 selects the next visit destination from the displayed image data 37. The selection will be accepted.
  • the selection receiving unit 43 receives the selection of the stop-out destination from the displayed image data 37. become.
  • the route search unit 44 is realized mainly by the control unit 11.
  • the route search unit 44 determines the visit position based on the position information of the selected image data 37 of the visited site, determines the visit time based on the time information of the image data 37, and determines the visit position as the visit Search for a route 38 to visit on time.
  • the route search unit 44 associates the visit position and the visit time in the order of visit and stores them in the search result data.
  • the visiting order may be determined according to the temporal relationship between the newly determined visiting time and the visiting time originally stored in the search result data.
  • the route search unit 44 may determine the position information of the image data 37 selected by the user as the visit position as it is, or any position within the region including the position indicated by the position information of the image data 37 selected by the user. (For example, the position where the positional deviation is within the reference) may be set as the visited position. In the present embodiment, a case will be described in which the position information of the image data 37 selected by the user is directly used as the visit position.
  • the route search unit 44 may determine the time information of the image data 37 selected by the user as the visit time as it is, or any one of the periods including the time indicated by the time information of the image data 37 selected by the user. (For example, a time within which the time lag is within the reference) may be the visit time. In addition, for example, the route search unit 44 may determine the time specified by the user from the time axis 31 as the visit time as it is. In the present embodiment, a case will be described in which the time information of the image data 37 selected by the user is used as the visit time as it is.
  • the route search unit 44 searches for the route 38 based on the determined visit position and visit time and a predetermined route search algorithm. For example, the route search unit 44 searches for a route 38 that visits each visit position at each visit time in the order of visits stored in the search result data.
  • a route search algorithm itself, various known algorithms such as Dijkstra method and Aster can be applied.
  • the route search unit 44 selects the next visit destination image data 37 selected by the user.
  • the next visit position is determined based on the position information
  • the next visit time is determined based on the time information of the image data 37
  • the route 38 for visiting the next visit position at the next visit time is searched again. Will do.
  • the method for determining the next visit position and the next visit time and the search method for the route 38 are the same as those described above. That is, in the present embodiment, a case will be described in which the position information of the image data 37 selected by the user is directly used as the next visit position, and the time information of the image data 37 selected by the user is directly used as the next visit time.
  • the route search unit 44 stops based on the position information of the selected stop destination image data 37.
  • the position is determined
  • the stop time is determined based on the time information of the image data 37
  • the route 38 is searched again so as to stop at the stop position.
  • the method for determining the stop position and the stop time and the search method for the route 38 are the same as those described above. That is, in the present embodiment, a case will be described in which the position information of the image data 37 selected by the user is used as the stop position and the time information of the image data 37 selected by the user is used as the stop time.
  • FIG. 12 is a flowchart showing an example of processing executed in the route search system 1.
  • the process shown in FIG. 12 is executed by the control unit 11 operating in accordance with a program stored in the storage unit 12 and the control unit 21 operating in accordance with a program stored in the storage unit 22.
  • the functional blocks shown in FIG. 9 are realized by executing the processing described below.
  • the control unit 21 accepts designation of the departure position and departure time by the user, and sends data indicating the departure position and departure time designated by the user to the route search server 10. Transmit (S1).
  • the control unit 21 displays a screen for accepting designation of the departure position and departure time on the display unit 25, and specifies the departure position and departure time based on the detection signal of the operation unit 24. For example, on this screen, an input form for inputting the departure position and departure time may be displayed, or the map 32 may be displayed so that the departure position can be designated by the position on the map 32 designated by the user. May be.
  • the control unit 11 when the data is received, the control unit 11 generates display data of the route search screen 30 and transmits it to the user terminal 20 (S2).
  • the control unit 11 In S ⁇ b> 2, first, the control unit 11 generates search result data, and stores the departure position and departure time designated by the user in the “first” visit order. Next, the control unit 11 refers to the map data stored in the storage unit 12 and extracts a map 32 near the departure position designated by the user. Then, the control unit 11 determines the display mode of the time axis 31 so as to indicate the departure time specified by the user, and displays the display data of the route search screen 30 based on the extracted map 32 and the display mode of the time axis 31. Generate. As display data, various data such as HTML format can be applied.
  • the control unit 21 displays the route search screen 30 on the display unit 25 (S3).
  • the control unit 21 moves the bar 35 of the time axis 31 according to the user's operation (S4), and transmits data indicating the time specified by the user to the route search server 10 (S5).
  • the control unit 21 moves the bar 35 based on the detection signal from the operation unit 24.
  • the control unit 21 specifies the time designated by the user based on the distance between the position where the user dropped the bar 35 and the left end 31 ⁇ / b> A of the time axis 31.
  • the data indicating the correspondence between the distance and the time may be included in the display data of the route search screen 30.
  • the control unit 11 determines which of the first visited place, the visited place, and the next visited place is selected by the user (S6).
  • the control unit 11 refers to the search result data, and if the visit destination has not yet been determined, determines that the first visit destination is selected, and visits visited after the time specified by the user If the destination has already been determined, it is determined that the destination is selected, and if the destination to be visited after the time specified by the user is not determined, the next destination is selected. .
  • the control unit 11 extracts the image data 37 photographed near the departure position around the time designated by the user (S7).
  • the control unit 11 extracts a predetermined number of pieces of image data 37 that can be visited at the time designated by the user from the time axis 31, starting from the departure position designated by the user at the departure time, from the image table. To do.
  • the control unit 11 extracts the image data 37 photographed in the vicinity of the position before and after the time designated by the user (S8).
  • the front and rear positions are a visit position (or a departure position) of the latest visit destination at a time specified by the user and a visit position after the time specified by the user.
  • the control unit 11 departs from the previous visit location at the visit time from the image table and can visit at the time specified by the user from the time axis 31, and the user can Starting from the axis 31 at a specified time, a predetermined number of image data 37 that can be visited at the visit time of the next visit location are extracted.
  • the control unit 11 extracts the image data 37 photographed near the previous position around the time designated by the user (S9). ).
  • the previous position is a visit position of the latest visit destination at the time specified by the user.
  • the control unit 11 starts from the previous visit location at the visit time from the image table and visits a predetermined number of pieces of image data 37 that can be visited at a time designated by the user from the time axis 31. Extract.
  • the control unit 11 generates display data of the image list 36 based on the image data 37 extracted in any of S7 to S9 and transmits it to the user terminal 20 (S10).
  • the control unit 11 generates display data of the image list 36 so that the image data 37 extracted in any of S7 to S9 is arranged.
  • the order in which the image data 37 is arranged may be determined based on a predetermined method. For example, the order may be arranged in ascending order of time difference between the time specified by the user and the time information.
  • the control unit 21 displays the image list 36 on the display unit 25 (S11).
  • the control unit 21 receives selection of the image data 37 from the image list 36, and transmits data for identifying the image data 37 selected by the user to the route search server 10 (S12). Note that information for identifying each image data 37 included in the image list 36 is included in the display data of the image list 36.
  • the control unit 11 determines a visit position based on the position information associated with the image data 37 selected by the user (S 13), and is associated with the image data 37. A visit time is determined based on the time information (S14). In S13, the control unit 11 determines a visit position of any of the first visited place, the visited place, or the next visited place. In S14, the control section 11 performs the first visited place, the visited place, or the next visited place. Any visit time of the destination will be determined. The method for determining the visit position and the visit time is as described above. The control unit 11 updates the search result data based on the determination results of S13 and S14.
  • the control unit 11 executes route search based on the latest search result data (S15), generates display data of the route search screen 30, and transmits it to the user terminal 20 (S16).
  • the route search method is as described above.
  • the control unit 21 updates the display of the route search screen 30 (S17).
  • S17 for example, the control unit 21 updates the display of the route search screen 30 as shown in FIG. 4, FIG. 6, or FIG.
  • the control unit 21 determines whether or not a predetermined end operation has been received (S18).
  • the end operation is an operation for ending this process, and may be a predetermined operation. If it is not determined that the end operation has been accepted (S18; N), the process returns to S4. On the other hand, when it is determined that the end operation has been received (S18; Y), the control unit 21 transmits an end notification to that effect to the route search server 10, and the process ends.
  • the control unit 11 determines whether an end notification has been received (S19). When it is not determined that an end notification has been received (S19; N), the process returns to S6, and when it is determined that an end notification has been received (S19; Y), this processing ends.
  • the route search system 1 when the user selects the image data 37 from the image list 36, the route 38 is displayed so as to visit the shooting location at the shooting time. It is possible to provide a user interface that can be guided to make the user experience. For example, even if the user looks at the image data 37 and wants to go to the shooting location, if the user does not visit around the shooting time, the view of the scenery and the like will be different, and the user may experience the same experience as the image data 37. Although there is a possibility that the route search system 1 determines the visit time based on the time information of the image data 37, it is possible to make the experience similar to that of the image data 37 more reliably.
  • the search system 1 determines the visit position based on the position information of the image data 37, it is possible to make the experience similar to that of the image data 37 more reliably.
  • the user can also select the image data 37 that he / she wants to go to as the next visited place after selecting the visited place from the image list 36, and the user can determine the visited places one after another. It is possible to guide the user to visit a plurality of destinations one after another and make the same experience as the image data 37 continuously.
  • the visitable image data 37 is displayed, so that the user can be surely guided to experience the same experience as the image. That is, even if the user selects the next visited image data 37, if the shooting location is too far, the user cannot visit at the shooting time, but by selecting the visitable image data 37, The shooting location of the image data 37 can be visited at the shooting time.
  • the user can select image data 37 that he / she wants to visit after selecting a visit destination from the image list 36 and then visit the visit destination. Since it can be determined, for example, when there is a time allowance before visiting the destination, it is possible to determine a place to stop before.
  • the visitable image data 37 is displayed at the visited place, so that the user can be surely guided to experience the same experience as the image. That is, even if the user selects the destination image data 37, if the shooting location is too far from the next destination, the user cannot select the image data 37 that can be visited, although the user cannot visit at the shooting time. Thus, it is possible to stop at the shooting location of the image data 37 at the shooting time.
  • FIG. 13 is a functional block diagram of a modified example. As shown in FIG. 13, in the modified example, in addition to the functions described in the embodiment, a stay time acquisition unit 45, an information acquisition unit 46, a person determination unit 47, a popularity acquisition unit 48, and a similarity specification unit 49 are realized. The Here, a case where each of these functions is realized in the route search server 10 will be described. Each of these functions is realized mainly by the control unit 11.
  • the route search system 1 considers the stay time at each visit position, and You may make it perform the route search of a visited place.
  • FIG. 14 is a diagram illustrating a data storage example of the image table of the modification example (1).
  • the location attribute information of the image data 37 is stored in the image table.
  • the location attribute information indicates the attribute (category / classification) of the location to which the image data 37 belongs. If the image data 37 is a photograph or a photograph processed, it indicates the type of shooting location (or subject), and if the image data 37 is a CG or picture scanned, it is drawn on the CG or picture. Indicates the type.
  • a plurality of attributes are prepared, and at least one attribute is associated with the image data 37.
  • the attribute may be designated by the producer of the image data 37 (for example, a photographer) or may be automatically determined by the computer performing image recognition.
  • the data storage unit 40 of the present modification stores a stay time table in which the place attribute information and the stay time are associated with each other.
  • FIG. 15 is a diagram illustrating a data storage example of the stay time table. As shown in FIG. 15, the staying time is defined for each attribute.
  • the stay time may be a value common to all users, or may be a value different for each user.
  • the route search system 1 includes a stay time acquisition unit 45.
  • the stay time acquisition unit 45 acquires the stay time at the visited position.
  • the stay time acquisition unit 45 first refers to the image table and acquires location attribute information associated with each image data 37 in the image list 36. Then, the stay time acquisition unit 45 refers to the stay time table and acquires the stay time associated with the acquired place attribute information.
  • the search result data information indicating a period from the visit time determined by the route search unit 44 to after the stay time acquired by the stay time acquisition unit 45 elapses is stored.
  • FIG. 16 is a diagram illustrating an example of the route search screen 30 of the modification example (1).
  • FIG. 16 shows a case where “E dining room” is visited at “13:00 on February 27, 2015” after leaving “A station” at “12:00 on February 27, 2015”.
  • the location attribute information of “E restaurant” is “Restaurant”, and the stay time of “Restaurant” is “1 hour”. Therefore, as shown in the time axis 31, “13 February 2015” “13 From “time” to “14:00”, they will stay in “E dining room”. In the state shown in FIG.
  • the user can designate a time before “13:00” or a time after “14:00” in order to update the route 38.
  • the route search method when the time is specified is the same as the method described in the embodiment, but when specifying the image data 37 that can be visited next to “E cafeteria”, it is not “13:00”. “14:00” is the standard.
  • the display control unit 42 may limit the movement of the bar 35 so that the time zone from “13:00” to “14:00” from the time axis 31 cannot be specified, or the bar 35 may change from “13:00”.
  • the image list 36 may not be displayed even if it moves until “14:00”.
  • the display control unit 42 may display the image list 36 when the bar 35 moves between “13:00” and “14:00”, but the user cannot select the image data 37.
  • the route search unit 44 may be restricted from searching the route 38 even if the user selects the image data 37.
  • the route search can be executed in consideration of the stay time at each visited place, so that even if the user stays at the visited place, the user immediately goes to the next visited place. It is possible to prevent an unreasonable route search from being executed. Furthermore, by using the stay time associated with the place attribute information, an accurate route search according to the attribute of the visited place can be executed.
  • the stay time may be associated with each image data 37 and stored in the image table.
  • the stay time may be a common value for each image data 37 or may be input by the user on the route selection screen 30.
  • the stay time acquisition unit 45 acquires the stay time input from the operation unit 24 instead of the stay time stored in the data storage unit 40.
  • the route search system 1 may determine the image data 37 to be displayed based on the location attribute information of the image data 37 that has already been selected.
  • the data storage unit 40 of this modification further stores location attribute information in association with each of the plurality of image data 37. That is, the location attribute information is stored in the image table as in the modification (1). It is assumed that the data storage unit 40 stores information for identifying the already selected image data 37.
  • the display control unit 42 restricts the display of the image data 37 associated with the location attribute information of the already selected image data. Restricting the display of the image data 37 means not displaying the image data 37 and lowering the display priority of the image data 37.
  • the display control unit 42 displays the image data 37 to be displayed in the image list 36 based on the comparison result between the location attribute information of the already selected image data 37 and the location attribute information of the other image data 37. Identify.
  • the display control unit 42 includes image data 37 associated with location attribute information other than the location attribute information of the already selected image data 37 (that is, location attribute information different from the location attribute information of the already selected image data 37). Is specified as the image data 37 to be displayed. In other words, the display control unit 42 does not display the image data 37 associated with the location attribute information of the already selected image data 37 in the image list 36.
  • the display control unit 42 preferentially displays the image data 37 based on the comparison result between the location attribute information of the already selected image data 37 and the location attribute information of the other image data 37. May be determined.
  • Priority means that the display order in the image list 36 is early and that the image data 37 is highlighted.
  • the display order is early means that the order in the image list 36 is first (for example, close to the left or top).
  • the highlighted display is to make it different from the display mode of the other image data 37, for example, to enlarge the image or to apply a predetermined effect.
  • the display control unit 42 displays the image data 37 associated with the location attribute information other than the location attribute information of the already selected image data 37 from the image data 37 associated with the location attribute information of the already selected image data 37. Is also displayed with priority.
  • the display control is performed based on the location attribute information of the image data 37 that has already been selected and the location attribute information of the other image data 37, so the location that the user wants to go to Can be provided from the location attribute information. For this reason, the image data 37 photographed at the same place as the already-visited destination is repeatedly displayed in the image list 36, and only the image data 37 that the user does not want to go is displayed. The image data 37 that the user wants to go can be displayed.
  • the display control unit 42 restricts the display of the image data 37 if the deviation between the time specified by the user from the time axis 31 and the already determined visit time is within a reference, If the deviation is greater than or equal to the reference, display restriction may not be performed.
  • the location attribute information of the image data 37 whether to limit the display of the image data 37 may be switched. For example, if the location attribute information of the already selected image data 37 is “restaurant” or “hotel”, the display control unit 42 restricts the display of the image data 37 of “restaurant” or “hotel”. If the location attribute information of the selected image data 37 is “shrine” or “temple”, the display of the image data 37 is not limited.
  • the display control unit 42 restricts the display of the image data 37 associated with position information less than a predetermined distance from the position information of the already selected image data 37. For example, the display control unit 42 does not display the image data 37 associated with position information less than a predetermined distance from the position information of the already selected image data 37 in the image list 36, and the position of the already selected image data 37.
  • the above-described restriction may be performed by displaying, in the image list 36, image data 37 in which position information of a predetermined distance or more is associated with the information.
  • the display control unit 42 displays the image data 37 associated with the position information of a predetermined distance or more from the position information of the already selected image data 37 and is less than the predetermined distance from the position information of the already selected image data 37.
  • the above-described restriction may be performed by displaying the image data 37 with higher priority than the image data 37 associated with the position information.
  • the route search system 1 may search for a movement route between the departure position and departure time designated by the user and the final visit position and visit time.
  • the route search system 1 of this modification includes an information acquisition unit 46.
  • the information acquisition unit 46 acquires departure position information and departure time information, and last visit position information and last visit time information.
  • the information acquisition unit 46 acquires these information based on the detection signal of the operation unit 24. To do. For example, on the user terminal 20, a screen for accepting designation of the departure position and departure time and the final visit position and visit time may be displayed on the display unit 25. In this case, the information acquisition unit 46 acquires the information based on the input content on the screen.
  • the departure position information and departure time information, and the last visit position information and last visit time information may be stored in the data storage unit 40 or a storage unit of an external computer (for example, a database server). .
  • the information acquisition unit 46 acquires the information from the data storage unit 40 or the storage unit of the external computer.
  • the display control unit 42 includes position information corresponding to a route between the departure position indicated by the departure position information and the last visit position indicated by the last visit position information, and the last visit indicated by the departure time and the last visit time information indicated by the departure time information.
  • the image data 37 in which the time information between the times is associated is displayed on the display unit 25.
  • the display control unit 42 departs from the departure position at the departure time, can visit the position indicated by the position information at the time indicated by the time information, and departs at the time indicated by the time information at the position indicated by the position information.
  • the image data 37 that can visit the last visit position at the last visit time is displayed on the image list 36.
  • the method for specifying the visitable image data 37 is the same as the method described in the embodiment. In this modification, the time that can be specified by the user from the time axis 31 is the time within the period from the departure time to the last visit time.
  • the route search unit 44 starts from the departure position at the departure time, visits the visit position at the visit time, and retrieves the route 38 for visiting the final visit position at the last visit time.
  • the route search method itself is the same as the method described in the embodiment.
  • the image data 37 can accurately tell the user the state of the shooting location when a person is not shot. For this reason, the image list 36 may preferentially display the image data 37 in which no person is photographed.
  • the route search system 1 includes a person determination unit 47.
  • the person determination unit 47 determines whether a person is photographed in each of the plurality of image data 37.
  • information indicating whether or not a person is photographed in each image data 37 is stored in the image table.
  • FIG. 17 is a diagram illustrating a data storage example of the image table of the modification example (5). As shown in FIG. 17, person information indicating whether or not a person is photographed is stored in the image table. The person information may be designated by the photographer of the image data 37 or may be automatically determined by the computer performing image recognition.
  • the display control unit 42 restricts the display of the image data 37 in which a person is photographed. For example, the display control unit 42 does not specify image data 37 in which a person is photographed as image data 37 to be displayed, but identifies image data 37 in which a person is not photographed as image data 37 to be displayed. Further, for example, the display control unit 42 may display the image data 37 in which a person is not photographed with priority over the image data 37 in which a person is photographed.
  • the route search can be executed after accurately telling the state of the shooting location. For this reason, it is possible to let the user select the place he wants to go to after accurately telling the shooting location.
  • the route search system 1 includes a popularity acquisition unit 48.
  • the popularity acquisition unit 48 acquires the popularity information of each of the plurality of image data 37.
  • the popularity information includes the number of image data 37 associated with the same position information, the number of browsing of the image data 37, the number of predetermined operations performed by the user who has browsed the image data 37 (for example, the user likes the image data 37). The number of times the button has been selected).
  • FIG. 18 is a diagram illustrating a data storage example of the image table of the modification example (6). As shown in FIG. 18, popularity information is stored in the image table. Here, a numerical value indicating the popularity of the image data 37 is stored in the popularity information.
  • the popularity information indicates the number of image data 37 associated with the same position information
  • the popularity information is updated every time registration of the image data 37 is accepted.
  • the popularity information indicates the number of browsing of the image data 37
  • the popularity information is updated every time the image data 37 is browsed.
  • the popularity information indicates the number of predetermined operations performed by the user who has viewed the image data 37
  • the popularity information is updated every time the predetermined operation is received.
  • the display control unit 42 displays the image data 37 based on the popularity information of each of the plurality of image data 37. For example, the display control unit 42 does not specify the image data 37 whose popularity information is less than the standard as the image data 37 to be displayed, but identifies the image data 37 whose popularity information is the standard or more as the image data 37 to be displayed. Further, for example, the display control unit 42 may preferentially display the higher popularity information of the image data 37.
  • the route search system 1 includes a similarity determination unit.
  • the similarity determination unit determines whether each of the plurality of image data 37 is similar.
  • the image data 37 being similar means that the images themselves are similar and that the positional information associated with the image data 37 is the same.
  • the similarity of the user's posted content may correspond to the similarity of the image data 37.
  • the posted content is input content of the user, for example, a character string posted by the user is similar.
  • FIG. 19 is a diagram showing a data storage example of the image table of the modification example (7). As shown in FIG. 19, the image table stores similar information for identifying image data 37 similar to each other. In the data storage example shown in FIG. 19, the image data 37 having similar information is similar to each other.
  • the display control unit 42 restricts the display of similar image data 37.
  • the display control unit 42 specifies a part (for example, only one) of the image data 37 similar to each other as the image data 37 to be displayed. Further, for example, the display control unit 42 may display the image data 37 that is not similar to the image data 37 that is specified to be displayed with priority over the similar image data 37.
  • the current date and the current position acquired by the control unit 21 of the user terminal 20 may be a departure time and a departure position, respectively.
  • the current position may be acquired from the communication result of the communication unit 23, or may be acquired by a signal from a satellite by incorporating a GPS sensor in the user terminal 20.
  • the departure time and the departure position may be determined by calculating backward from the visit time and the visit position of the first visit destination.
  • the route search unit 44 determines a position closest to the first visited destination from a plurality of predetermined positions (for example, a station or a bus stop) as a departure position. Then, the route search unit 44 calculates a departure time for arriving at the first visit time.
  • the time indicated by the time information may be a time other than the shooting time.
  • the user may input a recommended time zone for visiting the shooting location of the image data 37.
  • the information displayed on the route search screen 30 is not limited to the contents of the embodiment and the modification.
  • the display control unit 42 may cause the route search screen 30 to display information related to the shooting location of the image data 37 in addition to the image list 36.
  • the information on the shooting location is, for example, a character string indicating the place name of the shooting location and the business hours (in the case of a theater or movie theater, the start time). It is assumed that this information is stored in the data storage unit 40.
  • the location attribute information of the image data 37 that the user wants to display in the image list 36 may be designated.
  • the user may specify location attribute information of “restaurant” and display only the image data 37 of “restaurant”, or the user may specify location attribute information of “hotel” and “hotel” Only the image data 37 may be displayed.
  • the display control unit 42 displays a plurality of place attribute information on the route search screen 30 so as to be selectable, and specifies the image data 37 associated with the place attribute information selected by the user as the image data 37 to be displayed. To do.
  • the display control unit 42 may preferentially display the image data 37 associated with the location attribute information selected by the user over the image data 37 associated with other location attribute information. Good.
  • the route search system 1 may omit functions other than the data acquisition unit 41, the display control unit 42, the selection reception unit 43, and the route search unit 44.
  • the data storage unit 40 may be realized by an external system (that is, a social networking service system).
  • the data acquisition unit 41 acquires the image data 37 and the like from the external system.
  • the display control unit 42 may cause the image list 36 to display only the image data 37 that has been posted early.
  • each function may be shared by the route search server 10 and the user terminal 20, and each function is implement
  • each function is realized in the user terminal 20, it is assumed that an application including a route search algorithm is stored in the storage unit 22. In the user terminal 20, each function is realized by starting the application.
  • the data acquisition unit 41 when the data acquisition unit 41 is realized by the user terminal 20, the data acquisition unit 41 is realized mainly by the control unit 21. In this case, the data acquisition unit 41 acquires the image data 37 and the like from the route search server 10 and an external system via the network 2.
  • the display control unit 42 when the display control unit 42 is realized by the user terminal 20, the display control unit 42 is realized mainly by the control unit 21 and the display unit 25.
  • the display control unit 42 may display the route search screen 30 based on the display data received from the route search server 10 or generate display data of the route search screen 30 based on the received image data 37 or the like. You may make it display.
  • the selection reception unit 43 When the selection reception unit 43 is realized by the user terminal 20, the selection reception unit 43 is realized mainly by the control unit 21 and the operation unit 24.
  • the selection receiving unit 43 receives selection of the image data 37 based on a signal from the operation unit 24.
  • the route search unit 44 When the route search unit 44 is realized by the user terminal 20, the route search unit 44 is realized mainly by the control unit 21.
  • a route search algorithm is stored in the storage unit 22 or the like, and the route search unit 44 executes a route search based on this algorithm.
  • 1 route search system 2 network, 10 route search server, 11 control unit, 12 storage unit, 13 communication unit, 20 user terminal, 21 control unit, 22 storage unit, 23 communication unit, 24 operation unit, 25 display unit, 30 Route search screen, 31 Time axis, 32 Map, 33 Visit location, 34 Cursor, 35 bar, 36 Image list, 37 Image data, 38 Route, 40 Data storage unit, 41 Data acquisition unit, 42 Display control unit, 43 Selection acceptance Unit, 44 route search unit, 45 stay time acquisition unit, 46 information acquisition unit, 47 person determination unit, 48 popularity acquisition unit, 49 similarity determination unit.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Automation & Control Theory (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Computer Hardware Design (AREA)
  • Social Psychology (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Navigation (AREA)

Abstract

 ユーザに画像と同様の体験をさせるように誘導する。経路検索システム(1)の記憶内容を取得する手段(41)は、複数の画像データの各々と、位置情報及び時間情報と、を関連付けて記憶する記憶手段(40)の記憶内容を取得する。表示制御手段(42)は、複数の画像データのうちの複数を表示手段に表示させる。受付手段(43)は、表示された画像データの中から訪問先の選択を受け付ける。検索手段(44)は、選択された訪問先の画像データの位置情報に基づいて訪問位置を決定し、当該画像データの時間情報に基づいて訪問時間を決定して、訪問位置を訪問時間に訪れるための経路を検索する。

Description

経路検索システム、経路検索装置、経路検索方法、プログラム、及び情報記憶媒体
 本発明は、経路検索システム、経路検索装置、経路検索方法、プログラム、及び情報記憶媒体に関する。
 従来、ユーザに画像の撮影場所を通知する技術が知られている。例えば、特許文献1には、画像とその撮影場所を関連付けて地図上に表示させることで、画像の撮影位置を分かりやすくする技術が記載されている。
特開2010-026975号公報
 上記のような技術では、ユーザが興味を持った画像と同様の体験をするために、その撮影場所を訪れることがある。しかしながら、ユーザが実際に撮影場所を訪れたとしても、画像と同様の体験ができるとは限らない。例えば、ユーザが、夕方に撮影された画像に興味を持ったとしても、その撮影場所を訪れるのが昼間であれば、実際の景色の見え方が画像と異なるので、画像と同様の体験をすることができない。
 本発明は上記課題に鑑みてなされたものであって、その目的は、ユーザに画像と同様の体験をさせるように誘導することが可能な経路検索システム、経路検索装置、経路検索方法、プログラム、及び情報記憶媒体を提供することである。
 上記課題を解決するために、本発明に係る経路検索システムは、複数の画像データの各々と、位置情報及び時間情報と、を関連付けて記憶する記憶手段の記憶内容を取得する手段と、前記複数の画像データのうちの複数を表示手段に表示させる表示制御手段と、前記表示された画像データの中から訪問先の選択を受け付ける受付手段と、前記選択された訪問先の画像データの前記位置情報に基づいて訪問位置を決定し、当該画像データの前記時間情報に基づいて訪問時間を決定して、前記訪問位置を前記訪問時間に訪れるための経路を検索する検索手段と、を含むことを特徴とする。
 また、本発明に係る経路検索装置は、複数の画像データの各々と、位置情報及び時間情報と、を関連付けて記憶する記憶手段の記憶内容を取得する手段と、前記複数の画像データのうちの複数を表示手段に表示させる表示制御手段と、前記表示された画像データの中から訪問先の選択を受け付ける受付手段と、前記選択された訪問先の画像データの前記位置情報に基づいて訪問位置を決定し、当該画像データの前記時間情報に基づいて訪問時間を決定して、前記訪問位置を前記訪問時間に訪れるための経路を検索する検索手段と、を含むことを特徴とする。
 また、本発明に係る経路検索方法は、複数の画像データの各々と、位置情報及び時間情報と、を関連付けて記憶する記憶手段の記憶内容を取得するステップと、前記複数の画像データのうちの複数を表示手段に表示させる表示制御ステップと、前記表示された画像データの中から訪問先の選択を受け付ける受付ステップと、前記選択された訪問先の画像データの前記位置情報に基づいて訪問位置を決定し、当該画像データの前記時間情報に基づいて訪問時間を決定して、前記訪問位置を前記訪問時間に訪れるための経路を検索する検索ステップと、を含むことを特徴とする。
 また、本発明に係るプログラムは、複数の画像データの各々と、位置情報及び時間情報と、を関連付けて記憶する記憶手段の記憶内容を取得する手段、前記複数の画像データのうちの複数を表示手段に表示させる表示制御手段、前記表示された画像データの中から訪問先の選択を受け付ける受付手段、前記選択された訪問先の画像データの前記位置情報に基づいて訪問位置を決定し、当該画像データの前記時間情報に基づいて訪問時間を決定して、前記訪問位置を前記訪問時間に訪れるための経路を検索する検索手段、としてコンピュータを機能させる。
 また、本発明に係る情報記憶媒体は、上記のプログラムが記憶されたコンピュータ読み取り可能な情報記憶媒体である。
 また、本発明の一態様では、前記表示制御手段は、前記訪問位置に応じた前記位置情報及び前記訪問時間より後の前記時間情報が関連付けられた画像データを前記表示手段に表示させ、前記受付手段は、前記表示された画像データの中から次の訪問先の選択を受け付け、前記検索手段は、前記選択された次の訪問先の画像データの前記位置情報に基づいて次の訪問位置を決定し、当該画像データの前記時間情報に基づいて次の訪問時間を決定して、前記次の訪問位置を前記次の訪問時間に訪れるように前記経路を再度検索する、ことを特徴とする。
 また、本発明の一態様では、前記経路検索システムは、前記訪問位置での滞在時間を取得する手段を更に含み、前記表示制御手段は、前記訪問時間から前記滞在時間だけ経過した時間より後の前記時間情報が関連付けられた画像データを前記表示手段に表示させる、ことを特徴とする。
 また、本発明の一態様では、前記表示制御手段は、前記訪問位置を前記訪問時間に訪れた後に、前記位置情報が示す位置を前記時間情報が示す時間に訪問可能な画像データを前記表示手段に表示させる、ことを特徴とする。
 また、本発明の一態様では、前記表示制御手段は、前記訪問位置に応じた前記位置情報及び前記訪問時間より前の前記時間情報が関連付けられた画像データを前記表示手段に表示させ、前記受付手段は、前記表示された画像データの中から立ち寄り先の選択を受け付け、前記検索手段は、前記選択された立ち寄り先の画像データの前記位置情報に基づいて立ち寄り位置を決定し、当該画像データの前記時間情報に基づいて立ち寄り時間を決定して、前記立ち寄り位置に前記立ち寄り時間に立ち寄るように前記経路を再度検索する、ことを特徴とする。
 また、本発明の一態様では、前記表示制御手段は、前記訪問位置を前記訪問時間に訪れるために、前記位置情報が示す位置に前記時間情報が示す時間に立ち寄ることが可能な画像データを前記表示手段に表示させる、ことを特徴とする。
 また、本発明の一態様では、前記記憶手段は、前記複数の画像データの各々に関連付けて場所属性情報を更に記憶し、前記表示制御手段は、既に選択された画像データの前記場所属性情報が関連付けられた画像データの表示を制限する、ことを特徴とする。
 また、本発明の一態様では、前記表示制御手段は、既に選択された画像データの前記位置情報から所定距離未満の位置情報が関連付けられた画像データの表示を制限する、ことを特徴とする。
 また、本発明の一態様では、前記経路検索システムは、出発位置情報及び出発時間情報と、最終訪問位置情報及び最終訪問時間情報と、を取得する手段を更に含み、前記表示制御手段は、前記出発位置情報が示す出発位置及び前記最終訪問位置情報が示す最終訪問位置の間の経路に応じた前記位置情報と、前記出発時間情報が示す出発時間及び前記最終訪問時間情報が示す最終訪問時間との間の前記時間情報と、が関連付けられた画像データを前記表示手段に表示させ、前記検索手段は、前記出発位置を前記出発時間に出発して、前記訪問位置を前記訪問時間に訪れて、前記最終訪問位置を前記最終訪問時間に訪れるための経路を検索する、ことを特徴とする。
 また、本発明の一態様では、前記経路検索システムは、前記複数の画像データの各々に人物が撮影されているかを判定する手段を更に含み、前記表示制御手段は、人物が撮影された画像データの表示を制限する、ことを特徴とする。
 また、本発明の一態様では、前記経路検索システムは、前記複数の画像データの各々の人気情報を取得する手段を更に含み、前記表示制御手段は、前記複数の画像データの各々の前記人気情報に基づいて画像データを表示させる、ことを特徴とする。
 また、本発明の一態様では、前記経路検索システムは、前記複数の画像データの各々が類似するかを判定する手段を更に含み、前記表示制御手段は、類似する画像データの表示を制限する、ことを特徴とする。
 本発明によれば、ユーザに画像と同様の体験をさせるように誘導することが可能になる。
本実施形態における経路検索システムの全体構成を示す図である。 経路検索画面の一例を示す図である。 ユーザが「16時」でバーをドロップした場合の経路検索画面の一例を示す図である。 ユーザが行きたい場所として画像データを選択した場合の経路検索画面の一例を示す図である。 ユーザが「14時」でバーをドロップした場合の経路検索画面の一例を示す図である。 ユーザが立ち寄りたい場所として画像データを選択した場合の経路検索画面の一例を示す図である。 ユーザが「17時」でバーをドロップした場合の経路検索画面の一例を示す図である。 ユーザが次に行きたい場所として画像データを選択した場合の経路検索画面の一例を示す図である。 経路検索システムで実現される機能の一例を示す機能ブロック図である。 画像テーブルのデータ格納例を示す図である。 検索結果データのデータ格納例を示す図である。 経路検索システムにおいて実行される処理の一例を示すフロー図である。 変形例の機能ブロック図である。 変形例(1)の画像テーブルのデータ格納例を示す図である。 滞在時間テーブルのデータ格納例を示す図である。 変形例(1)の経路検索画面の一例を示す図である。 変形例(5)の画像テーブルのデータ格納例を示す図である。 変形例(6)の画像テーブルのデータ格納例を示す図である。 変形例(7)の画像テーブルのデータ格納例を示す図である。
[1.経路検索システムのハードウェア構成]
 以下、本発明の実施形態の例について図面に基づき詳細に説明する。図1は、本実施形態における経路検索システムの全体構成を示す図である。図1に示すように、経路検索システム1は、経路検索サーバ10及びユーザ端末20を含む。経路検索サーバ10及びユーザ端末20は、ネットワーク2を介してデータ送受信可能に接続される。
 経路検索サーバ10は、サーバコンピュータである。経路検索サーバ10は、制御部11、記憶部12、及び通信部13を含む。制御部11は、例えば、一又は複数のマイクロプロセッサを含む。制御部11は、記憶部12に記憶されたプログラムやデータに従って処理を実行する。記憶部12は、主記憶部及び補助記憶部を含む。例えば、主記憶部はRAMであり、補助記憶部は、ハードディスク又はソリッドステートドライブ等である。通信部13は、ネットワークカードを含む。通信部13は、ネットワーク2を介してデータ通信を行う。
 ユーザ端末20は、ユーザが操作するコンピュータであり、例えば、携帯電話機(スマートフォンを含む)、携帯情報端末(タブレット型コンピュータを含む)、又はパーソナルコンピュータ等である。ユーザ端末20は、制御部21、記憶部22、通信部23、操作部24、及び表示部25を含む。制御部21、記憶部22、及び通信部23のハードウェア構成は、それぞれ制御部11、記憶部12、及び通信部13と同様であるので説明を省略する。
 操作部24は、ユーザが操作を行うための操作部材であり、例えば、マウスやキーボード、タッチパネル等である。操作部24は、ユーザによる操作内容を制御部21に伝達する。表示部25は、例えば、液晶表示部又は有機EL表示部等である。表示部25は、制御部21の指示に従って画面を表示する。
 なお、記憶部12又は記憶部22に記憶されるものとして説明するプログラム及びデータは、ネットワーク2を介して記憶部12又は記憶部22に供給されるようにしてもよい。また、経路検索サーバ10及びユーザ端末20のハードウェア構成は、上記の例に限られず、種々のコンピュータのハードウェアを適用可能である。例えば、経路検索サーバ10及びユーザ端末20の各々は、コンピュータ読み取り可能な情報記憶媒体を読み取る読取部(例えば、光ディスクドライブやメモリカードスロット)を含んでもよい。この場合、情報記憶媒体に記憶されたプログラムやデータが読取部を介して記憶部12又は記憶部22に供給されるようにしてもよい。
[2.経路検索システムで実行される処理の概要]
 次に、経路検索システム1が実行する処理の概要を説明する。本実施形態では、複数の画像データが表示部25に表示され、ユーザが行きたい場所の画像データを選択可能になっている。そして、ユーザが行きたい場所の画像データを選択すると、その撮影時間にその撮影場所を訪れるように経路検索が実行される。ここでは、ユーザが、「2015年2月27日の12時」に「A駅」を出発する場合の経路検索について説明する。ユーザが操作部24を介して所定の操作を行うと、経路検索をするための経路検索画面が表示部25に表示される。
 図2は、経路検索画面の一例を示す図である。図2に示すように、経路検索画面30には、ユーザが時間を指定するための時間軸31と、出発地点である「A駅」付近の地図32と、各訪問場所を示す訪問場所33と、が表示される。時間軸31は、一端(図2では左端31A)に近づくほど早い時間を示し、他端(図3では右端31B)に近づくほど遅い時間を示す。図2の例では、時間軸31の左端31Aが出発時間の「2015年2月27日の12時」を示し、その下部には出発地点の「A駅」と表示されている。
 ユーザは、カーソル34を使って、時間軸31のバー35を左右に移動させることで時間を指定することができる。ここでは、ユーザがバー35をドラッグアンドドロップする場合を例に挙げて説明する。例えば、時間軸31の左端31A及びバー35の現在位置の距離と、出発時間及びユーザが指定する時間の時間間隔と、が対応するようになっており、ユーザがバー35を移動させると、バー35の現在位置に対応する時間が表示される。
 図3は、ユーザが「16時」でバー35をドロップした場合の経路検索画面30の一例を示す図である。図3に示すように、バー35を指し示すように吹き出し型の画像一覧36が表示される。なお、画像一覧36は、バー35をドロップしなくても、バー35の現在位置に応じて表示されるようにしてもよい。
 画像一覧36には、複数の画像データ37A~37P(以降、これらをまとめて単に画像データ37ともいう。)が選択可能な状態で表示される。画像データ37は、現実世界で撮影されたものであり、例えば、ソーシャルネットワーキングサービスや口コミサイト等に投稿されたものである。ユーザは、画像一覧36から自分又は他人が撮影した画像データ37を見ることができる。
 図3の画像一覧36に表示される画像データ37は、バー35の現在位置が示す「16時」頃に「A駅」付近(例えば、「A駅」から徒歩圏内)で撮影されたものである。ユーザは、画像一覧36の中から行きたい場所の画像データ37を選択する。ここでは、「16時」に「B大橋」で撮影された画像データ37Pをユーザが選択した場合を説明する。
 図4は、ユーザが行きたい場所として画像データ37Pを選択した場合の経路検索画面30の一例を示す図である。図4に示すように、ユーザが選択した画像データ37Pの撮影時間である「16時」に、その撮影場所である「B大橋」を訪れるように移動経路が検索される。そして、「12時」に「A駅」を出発して、「16時」に「B大橋」を訪れるための経路38が地図32上に表示される。
 その後、ユーザは、バー35を左に移動させて「A駅」から「B大橋」に行く途中で立ち寄りたい場所を選択したり、バー35を右に移動させて「B大橋」の次に行きたい場所を選択したりすることができる。例えば、図4に示す状態からユーザがバー35を左に移動させて「14時」でドロップすると、「14時」頃に立ち寄りたい場所を選択することができる。
 図5は、ユーザが「14時」でバー35をドロップした場合の経路検索画面30の一例を示す図である。図5に示すように、バー35を指し示すように画像一覧36が表示される。画像一覧36には、「A駅」と「B大橋」との間付近で「14時」頃に撮影された画像データ37が表示される。別の言い方をすれば、「16時」に「B大橋」に到着可能な立ち寄り先の画像データ37が画像一覧36に表示される。ユーザは、画像一覧36から立ち寄りたい場所の画像データ37を選択する。ここでは、「14時」に「C神社」で撮影された画像データ37Dをユーザが選択した場合を説明する。
 図6は、ユーザが立ち寄りたい場所として画像データ37Dを選択した場合の経路検索画面30の一例を示す図である。図6に示すように、ユーザが選択した画像データ37Dの撮影時間である「14時」に、その撮影場所である「C神社」に立ち寄るように移動経路が検索される。そして、「12時」に「A駅」を出発して、「14時」に「C神社」に立ち寄り、「16時」に「B大橋」を訪れる経路38に更新される。
 図6に示す状態から、ユーザは、バー35を左に移動させて「A駅」と「C神社」との間で立ち寄りたい場所を選択したり、バー35を右に移動させて「C神社」と「B大橋」との間で立ち寄りたい場所又は「B大橋」の次に行きたい場所を選択したりすることができる。例えば、ユーザがバー35を右に移動させて「17時」でドロップすると、「17時」頃に「B大橋」の次に行きたい場所を選択することができる。
 図7は、ユーザが「17時」でバー35をドロップした場合の経路検索画面30の一例を示す図である。図7に示すように、バー35を指し示すように画像一覧36が表示される。画像一覧36には、「B大橋」付近で「17時」頃に撮影された画像データ37が表示される。別の言い方をすれば、「16時」に「B大橋」を出発して「17時」に到達可能な訪問先の画像データ37が画像一覧36に表示される。ユーザは、画像一覧36から「B大橋」の次に行きたい場所の画像データ37を選択する。ここでは、「17時」に「D大滝」で撮影された画像データ37Pをユーザが選択した場合を説明する。
 図8は、ユーザが次に行きたい場所として画像データ37Pを選択した場合の経路検索画面30の一例を示す図である。図8に示すように、ユーザが選択した画像データ37Pの撮影時間である「17時」に、その撮影場所である「D大滝」を訪れる経路38に更新される。即ち、「12時」に「A駅」を出発して、「14時」に「C神社」に立ち寄り、「16時」に「B大橋」を訪れた後に、「17時」に「D大滝」を訪れる経路38に更新される。
 このように、本実施形態では、経路検索を終了するまでユーザがバー35の移動と画像データ37の選択を繰り返すと、ユーザが選択した画像データ37の撮影時間に、その撮影場所を訪れるように経路38が検索されるので、ユーザに画像データ37と同様の体験をさせるように誘導することができるようになっている。以降、当該技術の詳細について説明する。
[3.経路検索システムにおいて実現される機能]
 図9は、経路検索システム1で実現される機能の一例を示す機能ブロック図である。図9に示すように、経路検索システム1では、データ記憶部40、データ取得部41、表示制御部42、選択受付部43、及び経路検索部44が実現される。本実施形態では、これら各機能が経路検索サーバ10で実現される場合を説明する。
[3-1.データ記憶部]
 データ記憶部40は、記憶部12を主として実現される。データ記憶部40は、経路検索を実行するための各種データを記憶する。ここでは、データ記憶部40が記憶するデータの一例として、画像データ37を格納する画像テーブルと、移動経路の検索結果を格納する検索結果データと、について説明する。
 図10は、画像テーブルのデータ格納例を示す図である。図10に示すように、画像テーブルには、複数の画像データ37の各々と、位置情報及び時間情報と、が関連付けてられている。画像データ37は、現実世界で撮影された写真の画像データ、当該写真を加工した画像データ、CG(例えば、現実世界の風景を模したCG)の画像データ、又は紙等に描かれた絵(例えば、風景画)をスキャナで読み込んだ画像データであり、画像データ37そのものが画像テーブルに格納されていてもよいし、画像データ37の格納場所(リンク)を示す情報のみが画像テーブルに格納されていてもよい。
 位置情報は、現実世界の位置を示す情報であり、例えば、緯度経度情報や住所情報である。時間情報は、画像に関連付けられた時間を示す情報であり、例えば、日時(年月日と時刻の両方を含むもの)を示してもよいし、日付は含まずに時刻のみを示してもよい。本実施形態では、位置情報は、画像データ37の撮影位置を示し、時間情報は、画像データ37の撮影時間を示す。
 例えば、経路検索サーバ10は、ユーザ端末20や外部コンピュータ(例えば、データベースサーバやデジタルカメラ等)から、画像データ37と位置情報及び時間情報との組み合わせを受信し、これらを関連付けて画像テーブルに格納する。なお、画像データ37と位置情報及び時間情報との組み合わせは、ユーザ端末20の記憶部22や外部コンピュータの記憶部に記録されているものとする。また、位置情報及び時間情報は、ユーザが指定したものであってもよいし、自動的に生成されるものであってもよい。
 図11は、検索結果データのデータ格納例を示す図である。図11に示すように、検索結果データには、訪問順、訪問位置、及び訪問時間が関連付けられている。検索結果データは、経路検索部44による経路検索の実行結果に応じて更新される。図11では、図8のように経路検索が実行された場合の検索結果データの格納例を示している。
 例えば、訪問順が1番目の訪問位置には、出発位置である「A駅」の位置が格納され、訪問順が1番目の訪問時間には、出発時間である「2015年2月27日の12時」が格納される。訪問順が2番目以降の訪問位置には、各訪問先(図11では、「C神社」、「B大橋」、及び「D大滝」)の位置が格納され、訪問順が2番目以降の訪問時間には、各訪問先への訪問時間(図11では、「2015年2月27日」の「14時」、「16時」、及び「17時」)が格納されることになる。
 なお、データ記憶部40が記憶するデータは、上記の例に限られない。データ記憶部40は、本発明に係る経路検索を実行するために必要な各種データを記憶するようにすればよい。例えば、データ記憶部40は、経路検索画面30に含まれる各画像の画像データを記憶していてもよいし、地図32を示す地図データを記憶していてもよい。他にも例えば、データ記憶部40は、経路検索アルゴリズムやバー35の位置と時間との関係を示すデータを記憶していてもよい。
[3-2.データ取得部]
 データ取得部41は、制御部11を主として実現される。データ取得部41は、複数の画像データ37の各々と、位置情報及び時間情報と、を関連付けて記憶するデータ記憶部40の記憶内容を取得する。データ取得部41は、データ記憶部40を参照して、画像テーブルや検索結果データ等の各種データを取得する。
[3-3.表示制御部]
 表示制御部42は、制御部11を主として実現される。表示制御部42は、複数の画像データ37のうちの複数を表示部25に表示させる。表示制御部42が表示させる複数の画像データ37は、訪問先の候補を示すものといえる。本実施形態では、表示制御部42は、データ取得部41の取得内容に基づいて、画像一覧36を表示させる。なお、本実施形態では、表示制御部42が経路検索サーバ10により実現する場合を説明するので、画像一覧36の表示データをユーザ端末20に送信することが、複数の画像データ37を表示部25に表示させることに相当する。
 表示制御部42は、画像テーブルに格納された全ての画像データ37を表示させるようにしてもよいし、一部の画像データ37を表示させるようにしてもよい。一部の画像データ37を表示させる場合には、表示制御部42は、予め定められた方法に基づいて、画像テーブルの中から表示すべき画像データ37を特定する。
 例えば、表示制御部42は、ユーザが指定した位置及び時間の少なくとも一方に基づいて、表示すべき画像データ37を特定する。ユーザが指定した位置とは、ユーザが操作部24を用いて指定した位置であり、例えば、ユーザが指定した出発位置である。ユーザが指定した時間とは、ユーザが操作部24を用いて指定した時間であり、例えば、ユーザが指定した出発時間や時間軸31から指定した時間である。
 例えば、表示制御部42は、ユーザが指定した位置に基づいて、表示すべき画像データ37を特定する。表示制御部42は、ユーザが指定した位置と、画像テーブルに格納された位置情報が示す位置と、のずれ(例えば、距離)に基づいて、表示すべき画像データ37を特定する。表示制御部42は、ずれが少ないものから順番に所定枚数だけ画像データ37を特定してもよいし、ずれが基準以内(例えば、1km以内)となる画像データ37を特定してもよい。
 また例えば、表示制御部42は、ユーザが指定した時間に基づいて、表示すべき画像データ37を特定する。表示制御部42は、ユーザが指定した時間と、画像テーブルに格納された時間情報が示す時間と、のずれ(例えば、時間間隔)に基づいて、表示すべき画像データ37を特定する。表示制御部42は、ずれが少ないものから順番に所定枚数だけ画像データ37を特定してもよいし、ずれが基準以内(例えば、30分以内)となる画像データ37を特定してもよい。
 なお、ユーザが既に画像データ37を選択しており、次の訪問先を選択する場合(例えば、図7)、表示制御部42は、訪問位置(図7の場合、「B大橋」)に応じた位置情報及び訪問時間より後(図7の場合、「B大橋」の訪問時間である「16時」よりも後の「17時」)の時間情報が関連付けられた画像データ37を表示部25に表示させることになる。訪問位置に応じた位置情報とは、訪問位置付近の位置情報であり、訪問位置とのずれが基準以内(基準距離未満)となる位置情報のことであり、訪問時間より後の時間情報とは、訪問時間よりも遅い(日付を考慮してもよいし、時刻のみを考慮してもよい)時間情報のことである。
 また例えば、表示制御部42は、訪問位置を訪問時間に訪れた後に、位置情報が示す位置を時間情報が示す時間に訪問可能な画像データ37を表示部25に表示させるようにしてもよい。この場合、まず、表示制御部42は、ユーザが指定した時間とのずれが基準以内の画像データ37を特定する。そして、表示制御部42は、ユーザが指定した時間の直近の訪問位置(図7の場合、「B大橋」の位置)及び訪問時間を取得する。表示制御部42は、当該訪問位置を当該訪問時間に出発して、上記特定した各画像データ37の位置情報が示す位置への到着予想時間を計算する。表示制御部42は、計算した到着予想時間が、時間情報が示す時間よりも前の画像データ37を、表示すべき画像データ37として特定する。
 なお、到着予想時間の計算方法は、公知の種々の手法を適用可能である。例えば、表示制御部42は、ユーザが指定した時間の直近の訪問位置を出発して、画像データ37の位置情が示す位置までの移動経路を検索する。そして、表示制御部42は、当該検索した移動経路を所与の移動速度で割った予想移動時間に基づいて、到着予想時間を計算する。例えば、表示制御部42は、ユーザが指定した時間の直近の訪問時間から予想移動時間経過後の時間を、到着予想時間として計算する。
 また、ユーザが既に画像データ37を選択しており、立ち寄り先を選択する場合(例えば、図5)、表示制御部42は、訪問位置(図5の場合、「B大橋」)に応じた位置情報及び訪問時間より前(図5の場合、「B大橋」の訪問時間である「16時」よりも前の「14時」)の時間情報が関連付けられた画像データ37を表示部25に表示させることになる。訪問時間より前の時間情報とは、訪問時間よりも早い(日付を考慮してもよいし、時刻のみを考慮してもよい)時間情報のことである。
 また例えば、表示制御部42は、訪問位置を訪問時間に訪れるために、位置情報が示す位置に時間情報が示す時間に立ち寄ることが可能な画像データ37を表示部25に表示させるようにしてもよい。この場合、まず、表示制御部42は、ユーザが指定した時間とのずれが基準以内の画像データ37を特定する。そして、表示制御部42は、ユーザが指定した時間から見て次の訪問位置(図7の場合、「B大橋」の位置)及び訪問時間を取得する。表示制御部42は、上記特定した各画像データ37の位置情報が示す位置を時間情報が示す時間に出発して、当該訪問位置への到着予想時間を計算する。到着予想時間の計算方法は、先述した方法と同様である。表示制御部42は、計算した到着予想時間が、次の訪問先の訪問時間よりも前の画像データ37を、表示すべき画像データ37として特定する。
[3-4.選択受付部]
 選択受付部43は、制御部11を主として実現される。選択受付部43は、表示制御部42により表示された画像データ37の中から訪問先の選択を受け付ける。選択受付部43は、操作部24の操作信号に基づいて、画像一覧36の中から訪問先の選択を受け付ける。本実施形態では、選択受付部43が経路検索サーバ10により実現する場合を説明するので、ユーザが選択した画像データ37を識別する情報をユーザ端末20から受信することが、訪問先の選択を受け付けることに相当する。
 なお、図7に示すように、ユーザが既に画像データ37を選択しており、次の訪問先を選択する場合、選択受付部43は、表示された画像データ37の中から次の訪問先の選択を受け付けることになる。一方、図5に示すように、ユーザが既に画像データ37を選択しており、立ち寄り先を選択する場合、選択受付部43は、表示された画像データ37の中から立ち寄り先の選択を受け付けることになる。
[3-5.経路検索部]
 経路検索部44は、制御部11を主として実現される。経路検索部44は、選択された訪問先の画像データ37の位置情報に基づいて訪問位置を決定し、当該画像データ37の時間情報に基づいて訪問時間を決定して、当該訪問位置を当該訪問時間に訪れるための経路38を検索する。経路検索部44は、訪問位置及び訪問時間を訪問順に関連付けて検索結果データに格納する。訪問順は、新たに決定した訪問時間と、検索結果データに元々格納されていた訪問時間と、の時間的な前後関係に応じて決定すればよい。
 経路検索部44は、ユーザが選択した画像データ37の位置情報をそのまま訪問位置として決定してもよいし、ユーザが選択した画像データ37の位置情報が示す位置を含む領域内の何れかの位置(例えば、位置的なずれが基準以内となる位置)を訪問位置としてもよい。本実施形態では、ユーザが選択した画像データ37の位置情報を、そのまま訪問位置とする場合を説明する。
 また、経路検索部44は、ユーザが選択した画像データ37の時間情報をそのまま訪問時間として決定してもよいし、ユーザが選択した画像データ37の時間情報が示す時間を含む期間内の何れかの時間(例えば、時間的なずれが基準以内となる時間)を訪問時間としてもよい。他にも例えば、経路検索部44は、ユーザが時間軸31から指定した時間をそのまま訪問時間として決定してもよい。本実施形態では、ユーザが選択した画像データ37の時間情報を、そのまま訪問時間とする場合を説明する。
 経路検索部44は、上記決定した訪問位置及び訪問時間と、所定の経路検索アルゴリズムと、に基づいて経路38を検索することになる。例えば、経路検索部44は、検索結果データに格納された訪問順に、各訪問位置を各訪問時間に訪れる経路38を検索する。経路検索アルゴリズム自体は、ダイクストラ法やエースター等の公知の種々のアルゴリズムを適用可能である。
 なお、図7に示すように、ユーザが既に画像データ37を選択しており、次の訪問先を選択させる場合、経路検索部44は、ユーザにより選択された次の訪問先の画像データ37の位置情報に基づいて次の訪問位置を決定し、当該画像データ37の時間情報に基づいて次の訪問時間を決定して、次の訪問位置を次の訪問時間に訪れるための経路38を再度検索することになる。次の訪問位置及び次の訪問時間の決定方法及び経路38の検索方法は、先述した方法と同様である。即ち、本実施形態では、ユーザが選択した画像データ37の位置情報を、そのまま次の訪問位置とし、ユーザが選択した画像データ37の時間情報を、そのまま次の訪問時間とする場合を説明する。
 一方、図5に示すように、ユーザが既に画像データ37を選択しており、立ち寄り先を選択させる場合、経路検索部44は、選択された立ち寄り先の画像データ37の位置情報に基づいて立ち寄り位置を決定し、当該画像データ37の時間情報に基づいて立ち寄り時間を決定して、立ち寄り位置に立ち寄り時間に立ち寄るように経路38を再度検索することになる。立ち寄り位置及び立ち寄り時間の決定方法及び経路38の検索方法は、先述した方法と同様である。即ち、本実施形態では、ユーザが選択した画像データ37の位置情報を、そのまま立ち寄り位置とし、ユーザが選択した画像データ37の時間情報を、そのまま立ち寄り時間とする場合を説明する。
[4.経路検索システムにおいて実行される処理]
 図12は、経路検索システム1において実行される処理の一例を示すフロー図である。図12に示す処理は、制御部11が、記憶部12に記憶されたプログラムに従って動作し、制御部21が、記憶部22に記憶されたプログラムに従って動作することによって実行される。本実施形態では、下記に説明する処理が実行されることにより、図9に示す機能ブロックが実現される。
 図12に示すように、まず、ユーザ端末20においては、制御部21は、ユーザによる出発位置及び出発時間の指定を受け付け、ユーザが指定した出発位置及び出発時間を示すデータを経路検索サーバ10に送信する(S1)。S1においては、制御部21は、出発位置及び出発時間の指定を受け付けるための画面を表示部25に表示させ、操作部24の検出信号に基づいて、出発位置及び出発時間を特定する。例えば、この画面では、出発位置及び出発時間を入力するための入力フォームが表示されていてもよいし、地図32を表示させてユーザが指定した地図32上の位置によって出発位置を指定できるようにしてもよい。
 経路検索サーバ10においては、データを受信すると、制御部11は、経路検索画面30の表示データを生成してユーザ端末20に送信する(S2)。S2においては、まず、制御部11は、検索結果データを生成し、「1番目」の訪問順にユーザが指定した出発位置と出発時間を格納する。次に、制御部11は、記憶部12に記憶された地図データを参照して、ユーザが指定した出発位置付近の地図32を抽出する。そして、制御部11は、ユーザが指定した出発時間を示すように時間軸31の表示態様を決定し、抽出した地図32や時間軸31の表示態様に基づいて、経路検索画面30の表示データを生成する。なお、表示データとしては、HTML形式等の種々のデータを適用可能である。
 ユーザ端末20においては、表示データを受信すると、制御部21は、経路検索画面30を表示部25に表示させる(S3)。制御部21は、ユーザの操作に応じて時間軸31のバー35を移動させ(S4)、ユーザが指定した時間を示すデータを経路検索サーバ10に送信する(S5)。S4においては、制御部21は、操作部24の検出信号に基づいて、バー35を移動させる。S5においては、制御部21は、ユーザがバー35をドロップした位置と時間軸31の左端31Aとの距離に基づいて、ユーザが指定した時間を特定する。なお、この距離と時間との対応関係を示すデータは、経路検索画面30の表示データに含まれているようにしてよい。
 経路検索サーバ10においては、データを受信すると、制御部11は、最初の訪問先、立ち寄り先、又は次の訪問先の何れをユーザに選択させるかを決定する(S6)。S6においては、制御部11は、検索結果データを参照して、まだ訪問先を決定していない場合には、最初の訪問先を選択させると決定し、ユーザが指定した時間の後に訪問する訪問先を既に決定している場合には、立ち寄り先を選択させると決定し、ユーザが指定した時間の後に訪問する訪問先が決定されていない場合には、次の訪問先を選択させると決定する。
 ユーザに最初の訪問先を選択させる場合(S6;最初の訪問先)、制御部11は、ユーザが指定した時間頃に出発位置付近で撮影された画像データ37を抽出する(S7)。S7においては、制御部11は、画像テーブルの中から、ユーザが指定した出発位置を出発時間に出発して、ユーザが時間軸31から指定した時間に訪問可能な画像データ37を所定枚数だけ抽出する。
 一方、ユーザに立ち寄り先を選択させる場合(S6;立ち寄り先)、制御部11は、ユーザが指定した時間頃に、その前後の位置付近で撮影された画像データ37を抽出する(S8)。前後の位置とは、ユーザが指定した時間の直近の訪問先の訪問位置(又は出発位置)と、ユーザが指定した時間の後の訪問位置と、のことである。S8においては、制御部11は、画像テーブルの中から、前の訪問先の訪問位置を訪問時間に出発して、ユーザが時間軸31から指定した時間に訪問可能であり、かつ、ユーザが時間軸31から指定した時間に出発して、次の訪問先の訪問位置を訪問時間に訪問可能な画像データ37を所定枚数だけ抽出する。
 一方、ユーザに次の訪問先を選択させる場合(S6;次の訪問先)、制御部11は、ユーザが指定した時間頃に、前の位置付近で撮影された画像データ37を抽出する(S9)。前の位置とは、ユーザが指定した時間の直近の訪問先の訪問位置である。S9においては、制御部11は、画像テーブルの中から、前の訪問先の訪問位置を訪問時間に出発して、ユーザが時間軸31から指定した時間に訪問可能な画像データ37を所定枚数だけ抽出する。
 制御部11は、S7~S9の何れかで抽出した画像データ37に基づいて、画像一覧36の表示データを生成してユーザ端末20に送信する(S10)。S10においては、制御部11は、S7~S9の何れかで抽出した画像データ37が並ぶように画像一覧36の表示データを生成する。画像データ37が並ぶ順序は、予め定められた方法に基づいて決定されるようにすればよく、例えば、ユーザが指定した時間と時間情報とのずれが小さい順に並べてもよい。
 ユーザ端末20においては、表示データを受信すると、制御部21は、画像一覧36を表示部25に表示させる(S11)。制御部21は、画像一覧36から画像データ37の選択を受け付け、ユーザが選択した画像データ37を識別するデータを経路検索サーバ10に送信する(S12)。なお、画像一覧36に含まれる各画像データ37を識別する情報は、画像一覧36の表示データに含まれているものとする。
 経路検索サーバ10においては、データを受信すると、制御部11は、ユーザが選択した画像データ37に関連付けられた位置情報に基づいて訪問位置を決定し(S13)、当該画像データ37に関連付けられた時間情報に基づいて訪問時間を決定する(S14)。S13では、制御部11は、最初の訪問先、立ち寄り先、又は次の訪問先の何れかの訪問位置を決定し、S14では、制御部11は、最初の訪問先、立ち寄り先、又は次の訪問先の何れかの訪問時間を決定することになる。訪問位置及び訪問時間の決定方法は、先述した通りである。制御部11は、S13及びS14の決定結果に基づいて、検索結果データを更新することになる。
 制御部11は、最新の検索結果データに基づいて、経路検索を実行して(S15)、経路検索画面30の表示データを生成してユーザ端末20に送信する(S16)。経路検索の方法は、先述した通りである。
 ユーザ端末20においては、表示データを受信すると、制御部21は、経路検索画面30の表示を更新する(S17)。S17においては、例えば、制御部21は、図4、図6、又は図8のように、経路検索画面30の表示を更新することになる。
 制御部21は、所定の終了操作を受け付けたか否かを判定する(S18)。終了操作は、本処理を終了するための操作であり、予め定められた操作であればよい。終了操作を受け付けたと判定されない場合(S18;N)、S4の処理に戻る。一方、終了操作を受け付けたと判定された場合(S18;Y)、制御部21は、その旨の終了通知を経路検索サーバ10に送信し、本処理は終了する。
 経路検索サーバ10においては、制御部11は、終了通知を受信したか否かを判定する(S19)。終了通知を受信したと判定されない場合(S19;N)、S6の処理に戻り、終了通知を受信したと判定された場合(S19;Y)、本処理は終了する。
 以上説明した経路検索システム1によれば、画像一覧36の中からユーザが画像データ37を選択すると、その撮影時間にその撮影場所を訪れるように経路38が表示されるので、ユーザに画像と同様の体験をさせるように誘導することが可能なユーザインタフェースを提供することができる。例えば、ユーザが画像データ37を見てその撮影場所に行きたいと思っても、その撮影時間頃に訪れなければ景色等の見え方が異なってしまい、画像データ37と同様の体験をすることができない可能性があるが、経路検索システム1は、画像データ37の時間情報に基づいて訪問時間を決定しているので、より確実に、画像データ37と同様の体験をさせることが可能になる。また例えば、テーマパーク等の広い施設内で撮影された画像データ37の場合には、その施設内での詳しい撮影場所が分からずに、その撮影場所を訪れることができない可能性があるが、経路検索システム1は、画像データ37の位置情報に基づいて訪問位置を決定しているので、より確実に、画像データ37と同様の体験をさせることが可能になる。
 また、ユーザは、画像一覧36の中から訪問先を選択した後に、次の訪問先として行きたい画像データ37を選択することもでき、ユーザが訪問先を次々と決定することができるので、例えば、複数の訪問先を次々と訪れて画像データ37と同様の体験を連続的にさせるように誘導することができる。
 また、ユーザが次の訪問先を選択する場合には、訪問可能な画像データ37を表示させるので、より確実にユーザに画像と同様の体験をさせるように誘導することができる。即ち、ユーザが次の訪問先の画像データ37を選択したとしても、その撮影場所が遠すぎる場合には、その撮影時間に訪れることができないが、訪問可能な画像データ37を選択させることで、画像データ37の撮影場所にその撮影時間に訪れることができる。
 また、ユーザは、画像一覧36の中から訪問先を選択した後に、その訪問先を訪れる前の立ち寄り先として行きたい画像データ37を選択することもでき、ユーザが行きたいと思った立ち寄り先を決定することができるので、例えば、訪問先を訪れるまでに時間的な余裕がある場合に、その前に立ち寄る場所を決めることができる。
 また、ユーザが立ち寄り先を選択する場合には、訪問先に訪問可能な画像データ37を表示させるので、より確実にユーザに画像と同様の体験をさせるように誘導することができる。即ち、ユーザが立ち寄り先の画像データ37を選択したとしても、その撮影場所が次の訪問先から遠すぎる場合には、その撮影時間に訪れることができないが、訪問可能な画像データ37を選択させることで、画像データ37の撮影場所にその撮影時間に立ち寄らせることができる。
[5.変形例]
 なお、本発明は、以上に説明した実施の形態に限定されるものではない。本発明の趣旨を逸脱しない範囲で、適宜変更可能である。
 図13は、変形例の機能ブロック図である。図13に示すように、変形例では、実施形態で説明した機能に加えて、滞在時間取得部45、情報取得部46、人物判定部47、人気取得部48、及び類似特定部49が実現される。ここでは、これら各機能が経路検索サーバ10において実現される場合を説明する。これら各機能は、制御部11を主として実現される。
 (1)例えば、ユーザが観光地やレストランを訪れた場合は、観光地に滞在して観光をしたり、レストランに滞在して食事をしたりすることが考えられる。この場合、ユーザは、訪問時間から所定の滞在時間が経過するまでは次の訪問先に移動しない蓋然性が高いので、経路検索システム1は、各訪問位置での滞在時間を考慮して、次の訪問先の経路検索を行うようにしてもよい。
 図14は、変形例(1)の画像テーブルのデータ格納例を示す図である。図14に示すように画像テーブルには、画像データ37の場所属性情報が格納される。場所属性情報は、画像データ37が属する場所の属性(カテゴリ・分類)を示す。画像データ37が写真又は写真を加工したものであれば、撮影場所(又は被写体)の種類を示し、画像データ37がCGや絵をスキャンしたものであれば、CGや絵に描かれているものの種類を示す。ここでは、複数の属性が用意されており、少なくとも一つの属性が画像データ37に関連付けられる。属性は、画像データ37の製作者(例えば、写真の撮影者)が指定してもよいし、コンピュータが画像認識を行うことで自動的に決定されるようにしてもよい。
 本変形例のデータ記憶部40は、場所属性情報と滞在時間とを関連付けた滞在時間テーブルを記憶する。図15は、滞在時間テーブルのデータ格納例を示す図である。図15に示すように、属性ごとに滞在時間が定義されている。滞在時間は、全ユーザで共通の値であってもよいし、ユーザごとに異なる値であってもよい。
 本変形例の経路検索システム1は、滞在時間取得部45を含む。滞在時間取得部45は、訪問位置での滞在時間を取得する。例えば、滞在時間取得部45は、まず、画像テーブルを参照し、画像一覧36内の各画像データ37に関連付けられた場所属性情報を取得する。そして、滞在時間取得部45は、滞在時間テーブルを参照し、当該取得した場所属性情報に関連付けられた滞在時間を取得する。なお、検索結果データには、経路検索部44が決定した訪問時間から、滞在時間取得部45が取得した滞在時間が経過した後までの期間を示す情報が格納されるものとする。
 本変形例の表示制御部42は、訪問時間から滞在時間だけ経過した時間より後の時間情報が関連付けられた画像データ37を表示部25に表示させる。図16は、変形例(1)の経路検索画面30の一例を示す図である。図16では、「2015年2月27日の12時」に「A駅」を出発した後に、「2015年2月27日の13時」に「E食堂」を訪れる場合が示されている。ここでは、「E食堂」の場所属性情報は「レストラン」であり、「レストラン」の滞在時間は「1時間」なので、時間軸31に示すように、「2015年2月27日」の「13時」から「14時」まで「E食堂」に滞在することになっている。図16に示す状態では、ユーザは、経路38を更新するために、「13時」よりも前の時間又は「14時」以降の時間を指定することが可能である。時間が指定された場合の経路検索方法は、実施形態で説明した方法と同様であるが、「E食堂」の次に訪問可能な画像データ37を特定する場合には、「13時」ではなく「14時」が基準となる。
 なお、表示制御部42は、時間軸31から「13時」から「14時」までの時間帯を指定できないようにバー35の移動を制限してもよいし、バー35が「13時」から「14時」までの間に移動しても画像一覧36を表示させないようにしてもよい。他にも例えば、表示制御部42は、バー35が「13時」から「14時」までの間に移動した場合に画像一覧36を表示させてもよいが、ユーザが画像データ37を選択できないように制限してもよいし、ユーザが画像データ37を選択しても経路検索部44が経路38を検索しないように制限してもよい。
 変形例(1)によれば、各訪問先での滞在時間を考慮して経路検索を実行することができるので、ユーザが訪問先で滞在するにもかかわらず、すぐに次の訪問先に向かわなければならないような無理な経路検索が実行されてしまうことを防止することができる。更に、場所属性情報に関連付けられた滞在時間を利用することによって、訪問先の属性に応じた正確な経路検索を実行することができる。
 なお、上記においては、滞在時間が場所属性情報に関連付けられている場合を説明したが、滞在時間は、各画像データ37に関連付けられて画像テーブルに格納されているようにしてもよい。他にも例えば、滞在時間は、各画像データ37で共通の値を用いてもよいし、経路選択画面30でユーザが入力してもよい。ユーザが滞在時間を入力する場合には、滞在時間取得部45は、データ記憶部40に記憶された滞在時間ではなく、操作部24から入力された滞在時間を取得することになる。
 (2)また例えば、仮にユーザがレストランを訪れたとすると、そこで食事をする蓋然性が高いので、その前後にレストランを訪れる蓋然性は低い。この場合、ユーザが立ち寄り先や次の訪問先を選択する際に、レストランの画像データ37は表示させないようにした方がよい。このため、経路検索システム1は、既に選択された画像データ37の場所属性情報に基づいて、表示すべき画像データ37を決定するようにしてもよい。
 本変形例のデータ記憶部40は、複数の画像データ37の各々に関連付けて場所属性情報を更に記憶する。即ち、変形例(1)と同様、画像テーブルに場所属性情報が格納されている。なお、データ記憶部40は、既に選択された画像データ37を識別する情報を記憶しているものとする。
 表示制御部42は、既に選択された画像データの場所属性情報が関連付けられた画像データ37の表示を制限する。画像データ37の表示を制限するとは、画像データ37を表示させないこと、画像データ37の表示の優先順位を下げることである。
 例えば、表示制御部42は、既に選択された画像データ37の場所属性情報と、他の画像データ37の場所属性情報と、の比較結果に基づいて、画像一覧36に表示すべき画像データ37を特定する。表示制御部42は、既に選択された画像データ37の場所属性情報以外の場所属性情報(即ち、既に選択された画像データ37の場所属性情報とは異なる場所属性情報)が関連付けられた画像データ37を、表示すべき画像データ37として特定する。別の言い方をすれば、表示制御部42は、既に選択された画像データ37の場所属性情報が関連付けられた画像データ37は、画像一覧36には表示させない。
 他にも例えば、表示制御部42は、既に選択された画像データ37の場所属性情報と、他の画像データ37の場所属性情報と、の比較結果に基づいて、優先的に表示させる画像データ37を決定するようにしてもよい。優先的とは、画像一覧36における表示順が早いこと、画像データ37において強調表示することである。表示順が早いとは、画像一覧36における順番が先のこと(例えば、左又は上に近いこと)である。強調表示とは、他の画像データ37の表示態様とは異ならせることであり、例えば、画像を大きくしたり所定のエフェクトを施したりすることである。表示制御部42は、既に選択された画像データ37の場所属性情報以外の場所属性情報が関連付けられた画像データ37を、既に選択された画像データ37の場所属性情報が関連付けられた画像データ37よりも優先的に表示させる。
 変形例(2)によれば、既に選択された画像データ37の場所属性情報と、他の画像データ37の場所属性情報と、に基づいて表示制御が行われるので、ユーザが行きたいと思う場所を場所属性情報から推測して提示することが可能なユーザインタフェースを提供することができる。このため、既に決定された訪問先と同じような場所で撮影された画像データ37が繰り返し画像一覧36に表示されてしまい、ユーザが行きたいと思わない画像データ37ばかりが表示されてしまうことを防止することができ、ユーザが行きたいと思う画像データ37を表示させることができる。
 なお、例えば、昼頃の訪問先としてレストランが決定された場合、昼前後の訪問先としてレストランの画像データ37は表示させないが、朝や夜の訪問先としては、レストランの画像データ37を表示させるようにしてもよい。このため、表示制御部42は、ユーザが時間軸31から指定した時間と、既に決定された訪問先への訪問時間と、のずれが基準以内であれば、画像データ37の表示を制限し、当該ずれが基準以上であれば、表示の制限は行わないようにしてもよい。
 また例えば、ユーザが連続して訪れる蓋然性が低い場所もあれば、その蓋然性が高い場所もある。例えば、食事や宿泊目的で訪れる場所(例えば、レストランやホテル)は連続して訪れない蓋然性が高いが、観光目的で訪れる場所(例えば、神社や寺院)は連続して訪れる蓋然性が高い。このため、画像データ37の場所属性情報に応じて、画像データ37の表示を制限するか否かを切り替えるようにしてもよい。例えば、表示制御部42は、既に選択された画像データ37の場所属性情報が「レストラン」や「ホテル」であれば、「レストラン」や「ホテル」の画像データ37の表示を制限するが、既に選択された画像データ37の場所属性情報が「神社」や「寺院」であれば、画像データ37の表示は制限しない。
 (3)また例えば、ユーザが同じ訪問先を何度も訪れる蓋然性は低いので、ユーザが既に選択した画像データ37の位置情報が示す位置付近の位置情報が関連付けられた画像データ37については、画像一覧36に表示させないようにしてもよい。
 表示制御部42は、既に選択された画像データ37の位置情報から所定距離未満の位置情報が関連付けられた画像データ37の表示を制限する。例えば、表示制御部42は、既に選択された画像データ37の位置情報から所定距離未満の位置情報が関連付けられた画像データ37は画像一覧36に表示させず、既に選択された画像データ37の位置情報から所定距離以上の位置情報が関連付けられた画像データ37を画像一覧36に表示させることによって、上記の制限をするようにしてもよい。
 また例えば、表示制御部42は、既に選択された画像データ37の位置情報から所定距離以上の位置情報が関連付けられた画像データ37を、既に選択された画像データ37の位置情報から所定距離未満の位置情報が関連付けられた画像データ37よりも優先的に表示させることによって、上記の制限をするようにしてもよい。
 変形例(3)によれば、同じ場所の画像データ37が何度も表示されるようなことを防止することができる。このため、行きたいと思う画像データ37を選びやすくすることができる。
 (4)また例えば、実施形態では、ユーザが出発位置及び出発時間を指定する場合を説明したが、ユーザが最終的な訪問位置及び訪問時間を指定してもよい。即ち、経路検索システム1は、ユーザが指定した出発位置及び出発時間と、最終的な訪問位置及び訪問時間と、の間の移動経路を検索するようにしてもよい。
 本変形例の経路検索システム1は、情報取得部46を含む。情報取得部46は、出発位置情報及び出発時間情報と、最終訪問位置情報及び最終訪問時間情報と、を取得する情報取得部46は、操作部24の検出信号に基づいて、これらの情報を取得する。例えば、ユーザ端末20においては、出発位置及び出発時間と、最終的な訪問位置及び訪問時間と、の指定を受け付けるための画面が表示部25に表示されるようにしてもよい。この場合、情報取得部46は、当該画面での入力内容に基づいて、上記情報を取得する。
 なお、出発位置情報及び出発時間情報と、最終訪問位置情報及び最終訪問時間情報と、は、データ記憶部40や外部コンピュータ(例えば、データベースサーバ)の記憶部に記憶されているようにしてもよい。この場合、情報取得部46は、データ記憶部40や外部コンピュータの記憶部から、上記情報を取得することになる。
 表示制御部42は、出発位置情報が示す出発位置及び最終訪問位置情報が示す最終訪問位置の間の経路に応じた位置情報と、出発時間情報が示す出発時間及び最終訪問時間情報が示す最終訪問時間との間の時間情報と、が関連付けられた画像データ37を表示部25に表示させることになる。例えば、表示制御部42は、出発位置を出発時間に出発して、位置情報が示す位置に時間情報が示す時間に訪問可能であり、かつ、位置情報が示す位置を時間情報が示す時間に出発して、最終訪問位置を最終訪問時間に訪問可能な画像データ37を画像一覧36に表示させることになる。訪問可能な画像データ37を特定する方法は、実施形態で説明した方法と同様である。なお、本変形例では、ユーザが時間軸31から指定可能な時間は、出発時間から最終訪問時間までの期間内の時間となる。
 経路検索部44は、出発位置を出発時間に出発して、訪問位置に訪問時間に訪れて、最終訪問位置を最終訪問時間に訪れるための経路38を検索することになる。経路検索の方法自体は、実施形態で説明した方法と同様である。
 変形例(4)によれば、ユーザが指定した出発位置を出発時間に出発して、最終訪問位置に最終訪問時間に到着するまでの間の移動経路を検索することができる。このため、出発と到着が決まっている旅行計画等を立てやすくすることができる。
 (5)また例えば、画像データ37は、人物が撮影されていない方が、撮影場所の様子を正確にユーザに伝えることができる。このため、画像一覧36には、人物が撮影されていない画像データ37を優先的に表示させるようにしてもよい。
 本変形例の経路検索システム1は、人物判定部47を含む。人物判定部47は、複数の画像データ37の各々に人物が撮影されているかを判定する。ここでは、各画像データ37に人物が撮影されているか否かを示す情報が画像テーブルに格納されている場合を説明する。
 図17は、変形例(5)の画像テーブルのデータ格納例を示す図である。図17に示すように画像テーブルには、人物が撮影されているか否かを示す人物情報が格納される。人物情報は、画像データ37の撮影者が指定してもよいし、コンピュータが画像認識を行うことで自動的に決定されるようにしてもよい。
 表示制御部42は、人物が撮影された画像データ37の表示を制限する。例えば、表示制御部42は、人物が撮影された画像データ37を表示すべき画像データ37として特定せず、人物が撮影されていない画像データ37を表示すべき画像データ37として特定する。また例えば、表示制御部42は、人物が撮影されていない画像データ37を、人物が撮影されている画像データ37よりも優先的に表示させるようにしてもよい。
 変形例(5)によれば、撮影場所の様子を正確に伝えたうえで経路検索を実行することができる。このため、ユーザに撮影場所の様子を正確に伝えたうえで行きたい場所を選択させることができる。
 (6)また例えば、画像一覧36において、人気のある画像データ37を優先的に表示させるようにしてもよい。本変形例の経路検索システム1は、人気取得部48を含む。人気取得部48は、複数の画像データ37の各々の人気情報を取得する。例えば、人気情報は、同じ位置情報が関連付けられている画像データ37の数、画像データ37の閲覧数、画像データ37を閲覧したユーザが行った所定操作の数(例えば、画像データ37を気に入ったことを示すボタンの選択回数)である。
 図18は、変形例(6)の画像テーブルのデータ格納例を示す図である。図18に示すように画像テーブルには、人気情報が格納される。ここでは、画像データ37の人気の高さを示す数値が人気情報に格納される。
 例えば、人気情報が、同じ位置情報が関連付けられている画像データ37の数を示す場合には、画像データ37の登録が受け付けられるたびに人気情報が更新される。人気情報が、画像データ37の閲覧数を示す場合には、画像データ37が閲覧されるたびに人気情報が更新される。人気情報が、画像データ37を閲覧したユーザが行った所定操作の数を示す場合には、所定操作が受け付けられるたびに人気情報が更新される。
 表示制御部42は、複数の画像データ37の各々の人気情報に基づいて画像データ37を表示させる。例えば、表示制御部42は、人気情報が基準未満の画像データ37を表示すべき画像データ37として特定せず、人気情報が基準以上の画像データ37を表示すべき画像データ37として特定する。また例えば、表示制御部42は、画像データ37の人気情報が高いほど優先的に表示させるようにしてもよい。
 変形例(6)によれば、人気情報に基づいて画像データ37の表示制御を行うことにより、人気のある画像データ37をユーザに提示しやすくなる。このため、魅力的な画像データ37をユーザに提示して選択させることができる。
 (7)また例えば、似た画像データ37が多数ある場合に、画像一覧36に同じような画像データ37ばかりを表示させたとしても、ユーザが行きたいと思う場所を選択することができない。このため、画像テーブルの中に似た画像データ37が複数ある場合には、そのうちの一つのみを表示させるようにしてもよい。
 本変形例の経路検索システム1は、類似判定部を含む。類似判定部は、複数の画像データ37の各々が類似するかを判定する。画像データ37が類似するとは、画像自体が類似すること、画像データ37に関連付けられた位置情報が同じこと、である。なお、画像データ37が口コミサイト等に登録されたものである場合には、ユーザの投稿内容(例えば、口コミ)が類似することが、画像データ37が類似することに相当してもよい。投稿内容とは、ユーザの入力内容であり、例えば、ユーザが投稿した文字列が類似することである。
 図19は、変形例(7)の画像テーブルのデータ格納例を示す図である。図19に示すように画像テーブルには、互いに類似する画像データ37を識別する類似情報が格納される。図19に示すデータ格納例では、類似情報が共通する画像データ37は、互いに類似することになる。
 表示制御部42は、類似する画像データ37の表示を制限する。例えば、表示制御部42は、互いに類似する画像データ37のうちの一部(例えば、一つのみ)を、表示すべき画像データ37として特定する。また例えば、表示制御部42は、表示すべきものとして特定した画像データ37と類似しない画像データ37を、類似する画像データ37よりも優先的に表示させるようにしてもよい。
 変形例(7)によれば、同じような画像データ37ばかりが表示されてしまうようなことを防止することができる。このため、バラエティに富んだ画像データ37が表示される画像一覧36の中からユーザが行きたい場所を選択させることができる。
 (8)また例えば、ユーザが出発時間と出発位置を指定する場合を説明したが、ユーザが出発時間と出発位置を指定しなくてもよい。例えば、ユーザ端末20の制御部21が取得する現在日時と現在位置が、それぞれ出発時間と出発位置であってもよい。なお、現在位置は、通信部23の通信結果から取得可能にしてもよいし、ユーザ端末20にGPSセンサを内蔵しておき、衛星からの信号によって取得可能にしてもよい。
 また例えば、出発時間と出発位置は、最初の訪問先の訪問時間及び訪問位置から逆算して決定されるようにしてもよい。この場合、経路検索部44は、予め定められた複数の位置(例えば、駅やバス停)の中から最初の訪問先に最も近いものを出発位置として決定する。そして、経路検索部44は、最初の訪問先の訪問時間に到着するための出発時間を計算することになる。
 また例えば、時間情報が示す時間は、撮影時間以外の時間でもよい。例えば、画像データ37の撮影場所を訪れるおすすめの時間帯をユーザが入力してもよい。
 また例えば、経路検索画面30に表示される情報は、実施形態及び変形例の内容に限られない。例えば、表示制御部42は、画像一覧36の他にも、画像データ37の撮影場所に関する情報を経路検索画面30に表示させるようにしてもよい。撮影場所に関する情報は、例えば、撮影場所の地名や営業時間(劇場や映画館であれば、開演時間)を示す文字列である。この情報は、データ記憶部40に記憶されているものとする。
 また例えば、経路検索画面30において、ユーザが画像一覧36に表示させたい画像データ37の場所属性情報を指定できるようにしてもよい。例えば、ユーザが「レストラン」の場所属性情報を指定して、「レストラン」の画像データ37のみを表示させるようにしてもよいし、ユーザが「ホテル」の場所属性情報を指定して、「ホテル」の画像データ37のみを表示させるようにしてもよい。この場合、表示制御部42は、経路検索画面30において、複数の場所属性情報を選択可能に表示させ、ユーザが選択した場所属性情報が関連付けられた画像データ37を表示すべき画像データ37として特定する。他にも例えば、表示制御部42は、ユーザが選択した場所属性情報が関連付けられた画像データ37を、他の場所属性情報が関連付けられた画像データ37よりも優先的に表示させるようにしてもよい。
 また例えば、経路検索システム1は、データ取得部41、表示制御部42、選択受付部43、及び経路検索部44以外の機能を省略してもよい。例えば、ソーシャルネットワーキングサービスに投稿された画像データ37を使用する場合には、データ記憶部40が外部システム(即ち、ソーシャルネットワーキングサービスのシステム)で実現されるようにしてもよい。この場合、データ取得部41は、外部システムから画像データ37等を取得することになる。また、表示制御部42は、画像データ37が投稿された時間が早いもののみを画像一覧36に表示させるようにしてもよい。
 また、各機能が経路検索サーバ10で実現される場合を説明したが、経路検索サーバ10とユーザ端末20とで機能が分担されているようにしてもよいし、各機能がユーザ端末20で実現されるようにしてもよい。ユーザ端末20で各機能が実現される場合には、経路検索アルゴリズムを含むアプリケーションが記憶部22に記憶されているものとする。ユーザ端末20においては、当該アプリケーションを起動することで各機能を実現する。
 例えば、データ取得部41がユーザ端末20で実現される場合、データ取得部41は、制御部21を主として実現される。この場合、データ取得部41は、ネットワーク2を介して経路検索サーバ10や外部システムから画像データ37等を取得することになる。また例えば、表示制御部42がユーザ端末20で実現される場合、表示制御部42は、制御部21及び表示部25を主として実現される。表示制御部42は、経路検索サーバ10から受信した表示データに基づいて経路検索画面30を表示させるようにしてもよいし、受信した画像データ37等に基づいて経路検索画面30の表示データを生成して表示させるようにしてもよい。
 選択受付部43がユーザ端末20で実現される場合、選択受付部43は、制御部21及び操作部24を主として実現される。選択受付部43は、操作部24からの信号によって、画像データ37の選択を受け付けることになる。経路検索部44がユーザ端末20で実現される場合、経路検索部44は、制御部21を主として実現される。この場合、経路検索のアルゴリズムが記憶部22等に記憶されており、経路検索部44は、このアルゴリズムに基づいて経路検索を実行する。
 1 経路検索システム、2 ネットワーク、10 経路検索サーバ、11 制御部、12 記憶部、13 通信部、20 ユーザ端末、21 制御部、22 記憶部、23 通信部、24 操作部、25 表示部、30 経路検索画面、31 時間軸、32 地図、33 訪問場所、34 カーソル、35 バー、36 画像一覧、37 画像データ、38 経路、40 データ記憶部、41 データ取得部、42 表示制御部、43 選択受付部、44 経路検索部、45 滞在時間取得部、46 情報取得部、47 人物判定部、48 人気取得部、49 類似判定部。
 
 

Claims (16)

  1.  複数の画像データの各々と、位置情報及び時間情報と、を関連付けて記憶する記憶手段の記憶内容を取得する手段と、
     前記複数の画像データのうちの複数を表示手段に表示させる表示制御手段と、
     前記表示された画像データの中から訪問先の選択を受け付ける受付手段と、
     前記選択された訪問先の画像データの前記位置情報に基づいて訪問位置を決定し、当該画像データの前記時間情報に基づいて訪問時間を決定して、前記訪問位置を前記訪問時間に訪れるための経路を検索する検索手段と、
     を含むことを特徴とする経路検索システム。
  2.  前記表示制御手段は、前記訪問位置に応じた前記位置情報及び前記訪問時間より後の前記時間情報が関連付けられた画像データを前記表示手段に表示させ、
     前記受付手段は、前記表示された画像データの中から次の訪問先の選択を受け付け、
     前記検索手段は、前記選択された次の訪問先の画像データの前記位置情報に基づいて次の訪問位置を決定し、当該画像データの前記時間情報に基づいて次の訪問時間を決定して、前記次の訪問位置を前記次の訪問時間に訪れるように前記経路を再度検索する、
     ことを特徴とする請求項1に記載の経路検索システム。
  3.  前記経路検索システムは、前記訪問位置での滞在時間を取得する手段を更に含み、
     前記表示制御手段は、前記訪問時間から前記滞在時間だけ経過した時間より後の前記時間情報が関連付けられた画像データを前記表示手段に表示させる、
     ことを特徴とする請求項2に記載の経路検索システム。
  4.  前記表示制御手段は、前記訪問位置を前記訪問時間に訪れた後に、前記位置情報が示す位置を前記時間情報が示す時間に訪問可能な画像データを前記表示手段に表示させる、
     ことを特徴とする請求項2又は3に記載の経路検索システム。
  5.  前記表示制御手段は、前記訪問位置に応じた前記位置情報及び前記訪問時間より前の前記時間情報が関連付けられた画像データを前記表示手段に表示させ、
     前記受付手段は、前記表示された画像データの中から立ち寄り先の選択を受け付け、
     前記検索手段は、前記選択された立ち寄り先の画像データの前記位置情報に基づいて立ち寄り位置を決定し、当該画像データの前記時間情報に基づいて立ち寄り時間を決定して、前記立ち寄り位置に前記立ち寄り時間に立ち寄るように前記経路を再度検索する、
     ことを特徴とする請求項1~4の何れかに記載の経路検索システム。
  6.  前記表示制御手段は、前記訪問位置を前記訪問時間に訪れるために、前記位置情報が示す位置に前記時間情報が示す時間に立ち寄ることが可能な画像データを前記表示手段に表示させる、
     ことを特徴とする請求項5に記載の経路検索システム。
  7.  前記記憶手段は、前記複数の画像データの各々に関連付けて場所属性情報を更に記憶し、
     前記表示制御手段は、既に選択された画像データの前記場所属性情報が関連付けられた画像データの表示を制限する、
     ことを特徴とする請求項2~6の何れかに記載の経路検索システム。
  8.  前記表示制御手段は、既に選択された画像データの前記位置情報から所定距離未満の位置情報が関連付けられた画像データの表示を制限する、
     ことを特徴とする請求項2~7の何れかに記載の経路検索システム。
  9.  前記経路検索システムは、出発位置情報及び出発時間情報と、最終訪問位置情報及び最終訪問時間情報と、を取得する手段を更に含み、
     前記表示制御手段は、前記出発位置情報が示す出発位置及び前記最終訪問位置情報が示す最終訪問位置の間の経路に応じた前記位置情報と、前記出発時間情報が示す出発時間及び前記最終訪問時間情報が示す最終訪問時間との間の前記時間情報と、が関連付けられた画像データを前記表示手段に表示させ、
     前記検索手段は、前記出発位置を前記出発時間に出発して、前記訪問位置を前記訪問時間に訪れて、前記最終訪問位置を前記最終訪問時間に訪れるための経路を検索する、
     ことを特徴とする請求項1~8の何れかに記載の経路検索システム。
  10.  前記経路検索システムは、前記複数の画像データの各々に人物が撮影されているかを判定する手段を更に含み、
     前記表示制御手段は、人物が撮影された画像データの表示を制限する、
     ことを特徴とする請求項1~9の何れかに記載の経路検索システム。
  11.  前記経路検索システムは、前記複数の画像データの各々の人気情報を取得する手段を更に含み、
     前記表示制御手段は、前記複数の画像データの各々の前記人気情報に基づいて画像データを表示させる、
     ことを特徴とする請求項1~10の何れかに記載の経路検索システム。
  12.  前記経路検索システムは、前記複数の画像データの各々が類似するかを判定する手段を更に含み、
     前記表示制御手段は、類似する画像データの表示を制限する、
     ことを特徴とする請求項1~11の何れかに記載の経路検索システム。
  13.  複数の画像データの各々と、位置情報及び時間情報と、を関連付けて記憶する記憶手段の記憶内容を取得する手段と、
     前記複数の画像データのうちの複数を表示手段に表示させる表示制御手段と、
     前記表示された画像データの中から訪問先の選択を受け付ける受付手段と、
     前記選択された訪問先の画像データの前記位置情報に基づいて訪問位置を決定し、当該画像データの前記時間情報に基づいて訪問時間を決定して、前記訪問位置を前記訪問時間に訪れるための経路を検索する検索手段と、
     を含むことを特徴とする経路検索装置。
  14.  複数の画像データの各々と、位置情報及び時間情報と、を関連付けて記憶する記憶手段の記憶内容を取得するステップと、
     前記複数の画像データのうちの複数を表示手段に表示させる表示制御ステップと、
     前記表示された画像データの中から訪問先の選択を受け付ける受付ステップと、
     前記選択された訪問先の画像データの前記位置情報に基づいて訪問位置を決定し、当該画像データの前記時間情報に基づいて訪問時間を決定して、前記訪問位置を前記訪問時間に訪れるための経路を検索する検索ステップと、
     を含むことを特徴とする経路検索方法。
  15.  複数の画像データの各々と、位置情報及び時間情報と、を関連付けて記憶する記憶手段の記憶内容を取得する手段、
     前記複数の画像データのうちの複数を表示手段に表示させる表示制御手段、
     前記表示された画像データの中から訪問先の選択を受け付ける受付手段、
     前記選択された訪問先の画像データの前記位置情報に基づいて訪問位置を決定し、当該画像データの前記時間情報に基づいて訪問時間を決定して、前記訪問位置を前記訪問時間に訪れるための経路を検索する検索手段、
     としてコンピュータを機能させるためのプログラム。
  16.  請求項15に記載のプログラムが記憶されたコンピュータ読み取り可能な情報記憶媒体。
PCT/JP2015/055955 2015-02-27 2015-02-27 経路検索システム、経路検索装置、経路検索方法、プログラム、及び情報記憶媒体 WO2016135971A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US15/321,193 US10451431B2 (en) 2015-02-27 2015-02-27 Route search system, route search device, route search method, program, and information storage medium
JP2015562619A JP5979771B1 (ja) 2015-02-27 2015-02-27 経路検索システム、経路検索装置、経路検索方法、プログラム、及び情報記憶媒体
PCT/JP2015/055955 WO2016135971A1 (ja) 2015-02-27 2015-02-27 経路検索システム、経路検索装置、経路検索方法、プログラム、及び情報記憶媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/055955 WO2016135971A1 (ja) 2015-02-27 2015-02-27 経路検索システム、経路検索装置、経路検索方法、プログラム、及び情報記憶媒体

Publications (1)

Publication Number Publication Date
WO2016135971A1 true WO2016135971A1 (ja) 2016-09-01

Family

ID=56789413

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/055955 WO2016135971A1 (ja) 2015-02-27 2015-02-27 経路検索システム、経路検索装置、経路検索方法、プログラム、及び情報記憶媒体

Country Status (3)

Country Link
US (1) US10451431B2 (ja)
JP (1) JP5979771B1 (ja)
WO (1) WO2016135971A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019131354A1 (ja) * 2017-12-25 2019-07-04 パイオニア株式会社 制御装置、制御方法およびプログラム

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9972121B2 (en) * 2014-04-22 2018-05-15 Google Llc Selecting time-distributed panoramic images for display
US11537676B2 (en) * 2017-12-29 2022-12-27 Entefy Inc. Temporal transformation of location-based queries
JP2021143905A (ja) * 2020-03-11 2021-09-24 トヨタ自動車株式会社 情報処理装置、プログラム、及びシステム
EP4314972A1 (en) * 2021-03-22 2024-02-07 Ricoh Company, Ltd. Display apparatus, communication system, display control method, and recording medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002202976A (ja) * 2000-12-28 2002-07-19 Seiko Epson Corp 地図検索装置及び地図検索プログラム
JP2008039628A (ja) * 2006-08-08 2008-02-21 Fujifilm Corp ルート検索装置
WO2010150892A1 (ja) * 2009-06-26 2010-12-29 京セラ株式会社 携帯型電子機器、および携帯型電子機器の動作方法
JP2012037475A (ja) * 2010-08-11 2012-02-23 Clarion Co Ltd サーバ装置、ナビゲーションシステム、ナビゲーション装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7822539B2 (en) * 2003-09-30 2010-10-26 Kabushiki Kaisha Kenwood Guide route search device and guide route search method
JP2005233628A (ja) * 2004-02-17 2005-09-02 Kenwood Corp 案内経路探索装置、ナビゲーション装置および案内経路の探索方法
US7617246B2 (en) * 2006-02-21 2009-11-10 Geopeg, Inc. System and method for geo-coding user generated content
JP2010026975A (ja) 2008-07-24 2010-02-04 Nikon Corp 情報処理装置および情報処理プログラム
JP4757934B2 (ja) * 2009-06-26 2011-08-24 京セラ株式会社 携帯型電子機器、および携帯型電子機器の動作方法
JP2013164309A (ja) * 2012-02-10 2013-08-22 Toyota Mapmaster:Kk 撮影ポイント検索装置及びその方法、並びに標高値を特定するためのコンピュータプログラム及びコンピュータプログラムを記録した記録媒体
US9303997B2 (en) * 2013-03-15 2016-04-05 Apple Inc. Prediction engine

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002202976A (ja) * 2000-12-28 2002-07-19 Seiko Epson Corp 地図検索装置及び地図検索プログラム
JP2008039628A (ja) * 2006-08-08 2008-02-21 Fujifilm Corp ルート検索装置
WO2010150892A1 (ja) * 2009-06-26 2010-12-29 京セラ株式会社 携帯型電子機器、および携帯型電子機器の動作方法
JP2012037475A (ja) * 2010-08-11 2012-02-23 Clarion Co Ltd サーバ装置、ナビゲーションシステム、ナビゲーション装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019131354A1 (ja) * 2017-12-25 2019-07-04 パイオニア株式会社 制御装置、制御方法およびプログラム

Also Published As

Publication number Publication date
JP5979771B1 (ja) 2016-08-31
JPWO2016135971A1 (ja) 2017-04-27
US20170199050A1 (en) 2017-07-13
US10451431B2 (en) 2019-10-22

Similar Documents

Publication Publication Date Title
US11048941B2 (en) Imaging device and information acquisition system in which an acquired image and associated information are held on a display
JP6580703B2 (ja) モバイルデバイスの現在の地理的ロケーションに関連付けられたロケーションエンティティの曖昧性解消のためのシステムおよび方法
US20170153113A1 (en) Information processing apparatus, information processing method, and program
US9990585B2 (en) Information processing apparatus, information processing method and computer-readable storage medium for generating course information
JP5979771B1 (ja) 経路検索システム、経路検索装置、経路検索方法、プログラム、及び情報記憶媒体
JP5984685B2 (ja) 表示システム、サーバ、端末装置、表示方法およびプログラム
US20180038708A1 (en) Navigating with a camera device
CN110388935B (zh) 获取地址
JP6045354B2 (ja) 案内システム、サーバ、端末装置、案内方法およびプログラム
US10192252B2 (en) Information processing apparatus to provide position based services
WO2016005799A1 (en) Social networking system and method
KR102075054B1 (ko) 여행 정보 서비스 장치 및 방법
WO2016002284A1 (ja) 情報処理装置、情報処理方法およびプログラム
JP7090779B2 (ja) 情報処理装置、情報処理方法及び情報処理システム
JP2015053002A (ja) 情報提示プログラム及びそれを利用した移動通信端末
JP6077930B2 (ja) 情報管理装置、情報管理システム、通信端末および情報管理方法
KR20180026999A (ko) 장소 기반 소셜 네트워킹 서비스의 게시물 열람 방법, 이를 수행하는 단말, 서버 및 시스템
KR20200077258A (ko) 위치정보 기반의 sns이미지를 통한 정보 제공 방법
JP2011095081A (ja) 道案内システム、道案内方法、経路探索装置、及び端末装置

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2015562619

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15883265

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15321193

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15883265

Country of ref document: EP

Kind code of ref document: A1