WO2021075279A1 - 情報処理装置および方法、並びにプログラム - Google Patents

情報処理装置および方法、並びにプログラム Download PDF

Info

Publication number
WO2021075279A1
WO2021075279A1 PCT/JP2020/037530 JP2020037530W WO2021075279A1 WO 2021075279 A1 WO2021075279 A1 WO 2021075279A1 JP 2020037530 W JP2020037530 W JP 2020037530W WO 2021075279 A1 WO2021075279 A1 WO 2021075279A1
Authority
WO
WIPO (PCT)
Prior art keywords
shooting
image
user
sample image
control unit
Prior art date
Application number
PCT/JP2020/037530
Other languages
English (en)
French (fr)
Inventor
伸樹 古江
文子 戸塚
修 櫻井
光吉 増田
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to JP2021552313A priority Critical patent/JPWO2021075279A1/ja
Priority to US17/754,694 priority patent/US20240094020A1/en
Publication of WO2021075279A1 publication Critical patent/WO2021075279A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • G01C21/3611Destination input or retrieval using character input or menus, e.g. menus of POIs
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/005Traffic control systems for road vehicles including pedestrian guidance indicator
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/02Reservations, e.g. for tickets, services or events

Definitions

  • the present technology relates to an information processing device and a method, and a program, and relates to an information processing device, a method, and a program that enable a particularly satisfactory image to be obtained.
  • a photography system has been proposed that detects the position of a user who has made a reservation for photography in a facility and, when the user is present at a predetermined position, performs photography according to the reservation (for example, Patent Document 1). reference).
  • the user can obtain an image of himself / herself as a subject without having to have a shooting device.
  • This technology was made in view of such a situation, and makes it possible to obtain an image with a high degree of satisfaction.
  • the information processing device of the first aspect of the present technology displays a shooting sample image list in which a plurality of shooting sample images taken at a plurality of different shooting locations are arranged, and is arbitrary from the shooting sample image list.
  • the control unit includes a control unit for presenting guidance information for guiding the selected photographed sample image to the photographing place.
  • the information processing method or program of the first aspect of the present technology displays a shooting sample image list in which a plurality of shooting sample images taken at a plurality of different shooting locations are arranged, and is selected from the shooting sample image list.
  • the step includes presenting guidance information for guiding the selected captured sample image to the imaging location.
  • a shooting sample image list in which a plurality of shooting sample images taken at a plurality of different shooting locations are arranged is displayed, and any of the shooting sample images is displayed.
  • guidance information for guiding the selected shooting sample image to the shooting location is presented.
  • the information processing device of the second aspect of the present technology controls to generate a list of captured sample images in which a plurality of captured sample images are arranged based on a plurality of captured sample images taken at a plurality of different shooting locations.
  • an arbitrary shooting sample image is selected from the shooting sample image list in the unit and the terminal device of the transmission destination of the shooting sample image list, in order to guide the selected shooting sample image to the shooting location. It is provided with a communication unit that transmits the data of the above to the terminal device.
  • the information processing method or program of the second aspect of the present technology generates a shooting sample image list in which a plurality of the shooting sample images are arranged based on a plurality of shooting sample images taken at a plurality of different shooting locations. Then, when an arbitrary shooting sample image is selected from the shooting sample image list in the terminal device to which the shooting sample image list is transmitted, the user is guided to the shooting location of the selected shooting sample image. It includes a step of transmitting data to the terminal device.
  • a shooting sample image list in which a plurality of the shooting sample images are arranged is generated based on a plurality of shooting sample images taken at a plurality of different shooting locations, and the shooting sample is generated.
  • the data for guiding the selected shooting sample image to the shooting location is the terminal. It is sent to the device.
  • FIG. 1 is a diagram showing a configuration example of an embodiment of a photographing system to which the present technology is applied.
  • the photographing system shown in FIG. 1 includes photographing devices 11-1 to 11-N, a server 12, a user terminal device 13, and a store terminal device 14.
  • the photographing devices 11-1 to 11-N consist of, for example, cameras, and are fixedly installed at a plurality of different photographing locations.
  • the photographing device 11-1 to the photographing device 11-N are simply referred to as the photographing device 11.
  • the target area is an area where the user can go around in one day, such as a tourist spot, an indoor or outdoor commercial facility, or an outdoor walking area, and the photographing devices 11 are installed at different positions within the target area.
  • the photographing device 11 may be used in a place suitable for photographing in a tourist spot such as a park in the target area, in a store such as a restaurant, a general store, or a clothing store in the target area, a school, or the like. It is installed in various locations such as in the classroom for lessons. The position where the photographing device 11 is installed is the photographing place.
  • a surveillance camera installed at a shooting location, a camera installed by a local government having a tourist spot, a camera of another user at a tourist spot, or the like as a shooting device 11.
  • the photographing device 11 photographs an image (hereinafter, referred to as a photographed image) with the user who uses the photographing system as a subject according to the control of the server 12, and supplies the obtained photographed image to the server 12.
  • the captured image may be a still image or a moving image.
  • the server 12 causes the photographing device 11 to take a photographed image in response to the request of the user terminal device 13, and provides the photographed image obtained by the photographing to the user terminal device 13.
  • the server 12 communicates with the store terminal device 14 in response to the request of the user terminal device 13, and makes a reservation for providing a service to the user at the store where the photographing device 11 is installed.
  • the user terminal device 13 includes, for example, an information processing device such as a smartphone or a tablet owned by a user who uses a shooting service provided by a shooting system.
  • the user terminal device 13 requests the server 12 to make a reservation for shooting by the shooting device 11 or receives a shot image obtained by shooting from the server 12 according to the user's operation.
  • the store terminal device 14 includes, for example, an information processing device such as a personal computer managed by a store such as a restaurant where the photographing device 11 is installed, communicates with the server 12, and processes a user's reservation.
  • an information processing device such as a personal computer managed by a store such as a restaurant where the photographing device 11 is installed, communicates with the server 12, and processes a user's reservation.
  • the store terminal device 14 will continue to be described as managing the reservation of eating and drinking by the user at the restaurant where the photographing device 11 is installed.
  • FIG. 1 Although only one user terminal device 13 is shown in FIG. 1, there are actually a plurality of users who use the shooting service, and the user terminal device 13 exists for each of those users.
  • the photographing device 11 is installed in one target area
  • the user downloads the application program required for the shooting service to the user terminal device 13 by reading the presented QR (Quick Response) code. Let me.
  • the user may download the application program to the user terminal device 13 in any way, and the download timing of the application program can be set to any timing.
  • the user terminal device 13 When the user operates the user terminal device 13 to start the application program, the user terminal device 13 displays, for example, the guide image list V11 shown in FIG.
  • a plurality of guide images taken at a plurality of different shooting locations are arranged in an order and size according to the appearance of the guide images and the popularity of the shooting locations. It is displayed.
  • the user can select the guide image to stream the moving image as the guide image. Good.
  • the guide image on the guide image list V11 is an image that introduces the shooting location where the guide image was actually taken, that is, the shooting spot and the restaurant.
  • the user selects the shooting location that he / she actually wants to go to, that is, the guide image that he / she also wants to shoot, while looking at the plurality of guide images displayed in the list.
  • the guide image selected by the user from the guide image list will also be referred to as a selection guide image in particular.
  • the user can obtain a shot image having the same angle of view (angle) as the guide image selected from the guide image list V11. That is, it is possible to obtain a captured image close to the guide image selected by the user.
  • the user can also refer to other users' poses in the guide image when shooting the shot image.
  • the guide image is not only an image that introduces the shooting location as described above, but also a shooting sample image (shooting example) that will be a shooting sample (shooting example) of the shooting image that the user will obtain from now on, that is, an example of the shooting image. It can be said that it is also an example image.
  • the user selects one or more guide images as the selection guide image from the plurality of guide images listed in the guide image list V11.
  • the user terminal device 13 guides the user to the image display area R11 on which the selection guide image selected by the user is displayed and the shooting location where the selection guide image is taken.
  • a display screen provided with a map display area R12 on which a map, which is an image of, is displayed is displayed.
  • the user can reproduce the moving image as the selection guide image by operating the selection guide image displayed in the image display area R11.
  • the user swipes the selection guide image in the image display area R11 to display another selection guide image or display another guide image taken at the same shooting location as the selection guide image. You can also let them do it.
  • a map showing the route from the current location of the user (user terminal device 13) to the shooting location of the selection guide image is displayed.
  • a mark indicating the current position of the user and the shooting location of the selection guide image is displayed on the map, and the user can instantly grasp the positional relationship between them.
  • map information is presented as guidance information for guiding the user to the shooting location.
  • the guidance information presented to the user is superimposed and displayed on the voice information that guides (guidances) the user to the shooting location and the image taken with the surroundings of the user terminal device 13 as the subject. Any image may be used, such as an AR display image (AR image) such as an arrow that guides the user to the shooting location, or a combination of audio information and image information.
  • the guidance information may be presented by a device different from the user terminal device 13, such as a terminal device at the tourist information center.
  • the user After selecting the selection guide image, the user heads to the actual shooting location by walking or the like while referring to the map or the like displayed in the map display area R12.
  • the user terminal device 13 is located near the shooting location of the selection guide image, for example, the user terminal device 13 is held over the user terminal device 13 in the direction of the shooting location (shooting spot). A screen prompting is displayed.
  • the user terminal device 13 takes an environmental image with the surroundings of the user terminal device 13 as a subject.
  • This environmental image includes a shooting location as a subject.
  • the user terminal device 13 displays an environmental image and AR (Augmented Reality) images P11-1 to AR images P11-3 superimposed on the environmental image, for example, as shown in FIG.
  • AR images P11-1 to AR images P11-3 are the positions of the shooting locations corresponding to the selection guide images, the angle of view at the time of shooting the shot images at the shooting location, and the waiting for shooting at the shooting location. It is an image showing the number of people.
  • the AR image P11-1 is displayed at the position on the left back side in the figure of the fountain existing in the real space in the environmental image, and the display position is the shooting location, that is, the outdoor shooting spot. It represents that there is. Further, the entire area of the AR image P11-1 represents an area within the angle of view of the photographed image, that is, an area of the photographing field of view of the photographing apparatus 11.
  • the user can instantly grasp where the shooting spot is and what angle of view (angle) the shooting is performed at that shooting spot. can do.
  • the number "6" written on the AR image P11-1 is the number of other users waiting to shoot the shot image at the shooting spot (shooting location) corresponding to the AR image P11-1, that is, waiting for shooting. Represents the number of users. Therefore, by looking at the AR image P11-1, the user can roughly know how long the waiting time will be for his / her own shooting turn.
  • the waiting time for shooting may be displayed.
  • the state in which the user holds the user terminal device 13 toward the shooting location to display the environment image and the AR image is also referred to as an AR display state.
  • the user can reserve the shooting of the shot image at the shooting location (shooting spot) corresponding to the AR image by operating the user terminal device 13 in the AR display state.
  • a shooting reservation is made when the AR display state is displayed.
  • a selection guide image and a map to the shooting location are displayed. It may be performed at any timing, such as when it is in a state of being.
  • the user terminal device 13 displays a streaming screen as shown in FIG. 5, for example.
  • the streaming image is displayed in the upper image display area R21 in the drawing of the streaming screen on the user terminal device 13.
  • the streaming image displayed in the image display area R21 is prepared in advance, for example, a moving image showing the current state of shooting of the shooting spot reserved for shooting by the user, or a moving image explaining shooting at the shooting spot. It is a moving image of the example that was made.
  • the user experience at the time of shooting at the shooting spot (shooting location) such as the effect on the shot image and the UI (User Interface) screen displayed at the time of shooting is different for each shooting spot or target area such as a sightseeing spot. It may be different.
  • the user can see the state of shooting by another user at the shooting spot, that is, the shot image with the other user as the subject, and so on. You can use it as a reference for your own shooting.
  • the lower waiting number display area R22 has a number "2" indicating the number of people waiting for shooting at the shooting spot and a ring indicating the waiting time until the user shoots.
  • the gauge is displayed.
  • the display of the user terminal device 13 transitions from the streaming screen to, for example, the shooting screen shown in FIG.
  • the shot image actually shot by the shooting device 11 is displayed in the image display area R31 on the upper side of the drawing on the shooting screen. Therefore, the user can take a picture while checking the image display area R31 as appropriate.
  • the shooting time display area R32 is provided on the lower side.
  • the shooting time display area R32 is provided with a shooting button B11, and when the user presses the shooting button B11 to instruct the start of shooting, the shooting device 11 actually shoots the shot image for a certain period of time. Is stored in the server 12.
  • the display color of the shooting button B11 changes from another color to red, or the text message "RECRDING" indicating that shooting is in progress is displayed, and the user can view the shot image. You can easily grasp that you are shooting.
  • a ring-shaped gauge indicating the remaining shooting time is displayed so as to surround the shooting button B11, and the user can easily grasp the remaining shooting time by looking at this gauge. Can be done.
  • the shooting button B11 may be used not only as a button for instructing the start of shooting but also as a button for instructing the end of shooting.
  • the user displays the shooting image selection / saving screen shown in FIG. 7 at an arbitrary timing and saves (downloads) the desired shooting image. Can be done.
  • the selection save screen is provided with an image display area R41 and a list display area R42.
  • thumbnail images of the shot images obtained by the user shooting at one or more shooting locations are displayed side by side.
  • thumbnail image may be displayed for one captured image, or a plurality of thumbnail images may be displayed for one captured image.
  • the captured image is saved according to the user's operation. That is, the captured image for storage is downloaded from the server 12 by the user terminal device 13.
  • the captured image is saved according to the user's operation
  • the captured image specified by the user will be shared on a page on the Web such as SNS (Social Networking Service). You may.
  • SNS Social Networking Service
  • the shooting location of the shot image may be a shooting spot such as outdoors, or a dedicated booth in a store such as a restaurant.
  • the selection guide image or the shooting shown in FIG. 3 is taken. You may be able to make a reservation for the store while the map to the location is displayed.
  • the shooting of the photographed image is reserved at the same time as the reservation for eating and drinking at the restaurant.
  • the user heads to the restaurant (shooting location) by walking or the like while referring to the map or the like displayed in the map display area R12 of FIG.
  • a dedicated booth in which the photographing device 11 is fixedly installed is prepared, and the user eats and drinks at the dedicated booth.
  • the photographing device 11 takes a picture.
  • the user since the user does not have to take a picture of food and drink, he / she can concentrate on eating and drinking and talking with his / her companion.
  • the user displays the same selection saving screen as in the case of FIG. 7 on the user terminal device 13 as shown in FIG. 9, and confirms the captured image. Or select a captured image for storage.
  • the user performs an operation such as selecting a thumbnail image displayed in the list display area R42 of the selection save screen, reproduces the captured image in the image display area R41, or selects the selected thumbnail image. Save the captured image corresponding to.
  • the user when a user visits various places such as tourist spots and popular restaurants, the user enjoys the situation at those places without operating the camera or the like. It can be automatically shot and saved. That is, from the user's point of view, the captured image at each shooting location can be obtained by automatic shooting.
  • the user can check the captured private photos and captured images corresponding to the moving images, download them for personal use, or post them on SNS.
  • the photographed image of the user is provided to a public browsing site such as a tourist information center or a predetermined site as a public use image. You can also publish it.
  • the captured images are published in the guide image list as those for public use.
  • the target area is an area that is large enough for the user to go around in one day, such as a sightseeing spot, a mall, or a walking area such as a specific area.
  • the image is displayed in the guide image list as a guide image.
  • the user visits a shooting spot, a restaurant, etc., triggered by a shooting image of another user published in the guide image list.
  • the shooting location corresponding to the selected guide image as shown in FIG. 3 is selected according to the selection.
  • a map is presented to guide you.
  • this map for example, a route from the current location of the user (user terminal device 13) to one or more shooting locations, which is the destination, is shown.
  • the user terminal device 13 may determine the time to go to the store, the time to eat, the order to visit the destination, and the like. Further, the user terminal device 13 may use AI or the like to estimate the waiting time at the store, the time required for meals, and the like, and present them to the user.
  • AI Artificial Intelligence
  • the shooting system for example, stores, tourism promotion organizations, advertisers, shooting service platforms, etc. provided guidance images (shooting images) that triggered users to visit the shooting location. An incentive may be given to the user.
  • the incentives here are various points such as discount points and mileage points, coupons, electronic money, and the like.
  • FIG. 10 is a diagram showing a configuration example of the server 12.
  • the server 12 has a communication unit 51, a recording unit 52, a memory 53, and a control unit 54.
  • the communication unit 51 communicates with the photographing device 11, the user terminal device 13, and the store terminal device 14 via the network. That is, the communication unit 51 receives the information transmitted from the communication partner and supplies it to the control unit 54, or transmits the information supplied from the control unit 54 to the communication partner.
  • the recording unit 52 is composed of, for example, a non-volatile memory, records various information such as captured images of each user captured by the photographing device 11, a program, and the like, and records the recorded information as necessary. Supply to 54.
  • the memory 53 is a volatile memory and temporarily records the information supplied from the control unit 54.
  • the control unit 54 is composed of a processor and the like, and controls the operation of the entire server 12. For example, the control unit 54 controls the shooting by the photographing device 11 and generates a guide image list based on the captured images recorded in the recording unit 52.
  • the information shown in FIG. 11 is recorded in the recording unit 52 of the server 12.
  • the recording unit 52 records the user ID that uniquely identifies each user and the incentive information indicating the incentive given to the user in association with each other.
  • the incentive information is information indicating the total number of points and electronic money as an incentive given to the user indicated by the user ID, that is, the number of points and the balance of electronic money.
  • a shooting location ID that identifies each shooting location such as a shooting spot or a restaurant is recorded in association with metadata about the shooting location.
  • the metadata of the shooting location includes the URL (Uniform Resource Locator) of the web page containing the information about the shooting location, the information indicating the location of the shooting location, the access destination of the store terminal device 14 corresponding to the shooting location, and the like. Contains information.
  • the information indicating the position of the shooting location may be information indicating a display position on a map, information indicating an absolute position such as latitude or longitude on the earth's surface, or information thereof. It may be information indicating both positions of.
  • the recording unit 52 records the user ID, the image ID, the photographed image, the filming location ID, the number of references information, and the number of visitors in association with each other.
  • the captured image is an image taken at the shooting location indicated by the shooting location ID when the user indicated by the user ID associated with the captured image uses the shooting service.
  • the image ID is ID information that identifies the captured image.
  • the reference count information is information indicating the number of times the captured image is selected as the selected guide image by another user in the guide image list, that is, the number of references referred to by the other user.
  • the number of visitors information is information indicating the number of visitors at the shooting location based on the presentation of the shot image (guidance image). More specifically, the number of visitors information is the number of users (number of visitors) who actually visited the shooting location corresponding to the selection guide image after the shot image was selected as the selection guide image, that is, the shot image is viewed. This is information indicating the number of users who actually took pictures at the shooting location.
  • the user terminal device 13 is configured as shown in FIG. 12, for example.
  • the user terminal device 13 includes a communication unit 81, a recording unit 82, an input unit 83, a posture detection sensor 84, a current position information acquisition unit 85, a photographing unit 86, a control unit 87, and a display unit 88. doing.
  • the communication unit 81 communicates with the server 12 via the network according to the control of the control unit 87.
  • the communication unit 81 receives the information transmitted from the server 12 and supplies it to the control unit 87, or transmits the information supplied from the control unit 87 to the server 12.
  • the recording unit 82 is composed of, for example, a non-volatile memory, and records various information such as an application program of a shooting service and a shot image.
  • the input unit 83 includes switches, buttons, a touch panel provided superimposed on the display unit 88, and the like, and supplies a signal according to the user's operation to the control unit 87.
  • the posture detection sensor 84 includes, for example, a gyro sensor, detects the posture of the user terminal device 13, and supplies the posture information obtained as a result to the control unit 87.
  • the current position information acquisition unit 85 is composed of, for example, a GPS (Global Positioning System) module, measures the current position of the user terminal device 13, that is, the user who owns the user terminal device 13, and obtains the current position information obtained as a result. It is supplied to the control unit 87.
  • GPS Global Positioning System
  • the photographing unit 86 is composed of a camera, photographs an environmental image in which the surroundings of the user terminal device 13 is a subject, and supplies the obtained environmental image to the control unit 87.
  • the control unit 87 includes a processor and the like, and controls the operation of the entire user terminal device 13. For example, the control unit 87 executes the application program recorded in the recording unit 82 and performs various processes related to the shooting service.
  • control unit 87 supplies various images to the display unit 88 and displays them.
  • the display unit 88 includes, for example, a display panel such as organic EL (ElectroLuminescence), and displays various images under the control of the control unit 87.
  • organic EL ElectroLuminescence
  • the selection process by the user terminal device 13 and the guide image list providing process by the server 12 will be described below with reference to the flowchart of FIG. In particular, here, a case where the guide image of the shooting spot is selected as the selection guide image will be described.
  • the selection process by the user terminal device 13 is started.
  • step S11 the communication unit 81 of the user terminal device 13 transmits the transmission request of the guide image list generated by the control unit 87 and supplied from the control unit 87 to the server 12.
  • step S41 the communication unit 51 receives the transmission request transmitted from the user terminal device 13 and supplies it to the control unit 54.
  • step S42 the control unit 54 generates a guide image list in response to the transmission request supplied from the communication unit 51.
  • control unit 54 selects a plurality of captured images to be used as guide images from the plurality of captured images recorded in the recording unit 52.
  • control unit 54 generates a guide image list, more specifically, image information for displaying the guide image list by arranging a plurality of selected captured images as guide images in a predetermined size and order.
  • the transmission request transmitted in step S11 may include the user ID and the current position information of the user who is the owner of the user terminal device 13.
  • the captured image associated with is selected as a guide image candidate.
  • the target area may be selected on the user side, and the control unit 54 may select a guide image candidate for the shooting location in the target area designated by the user.
  • the control unit 54 selects a part or all of the guide image candidates selected in this way as a guide image (photographed sample image), and displays a guide image list (photographed sample image list) based on the selected guide image. Generate.
  • the control unit 54 refers to the reference count information and the number of visitors information associated with each captured image (guide image image), the popularity of the shooting location, the priority of the shooting location determined by the local government, and the shooting. Evaluation value of image appearance, number of people waiting for shooting at the shooting location, similarity with the user's favorite image, similarity with the shooting location where the user shot in the past, degree of user's preference for the shot image Select a guide image based on at least one of the estimated value, season, time zone, and weather, and select the size (display size) and display order (display position) of the guide image in the guide image list. To decide.
  • the earlier the display order of the guide images the higher the position, that is, the position that is easier for the user to see.
  • the higher the popularity and priority of the shooting location the larger the display size and the faster the display order.
  • the popularity of the shooting location is determined by the control unit 54 based on, for example, the number of shot images recorded in the recording unit 52. In this case, it can be said that the more the number of recorded images is, the more popular the shooting location is.
  • the priority of the shooting location is, for example, a tourist information center, a local government with a tourist spot, a management organization such as a tourist spot, a shop with a shooting location, a sponsor of a shooting system, etc. It can be assumed that the side that attracts the user (attractor) has decided in advance. As a result, the intention of the side that attracts the user can be reflected in the guide image list.
  • the guide image list can display a guide image that reflects the intention (intention) of the attractor, that is, the attractor to the shooting location.
  • the evaluation value of the appearance of the guide image can be calculated based on the analysis result of performing analysis processing on the composition, brightness distribution, hue, edge amount, etc. of the guide image.
  • the guide image with a higher evaluation value of appearance that is, the guide image with better appearance, the larger the display size and the earlier the display order.
  • the guide image of a shooting location with a large number of people waiting for shooting in other words, a shooting location with a long waiting time until shooting, has a smaller display size and a slower display order according to the number of people waiting for shooting. Will be done.
  • the number of people waiting for shooting at the present time can be obtained, for example, based on the information regarding the reservation of shooting at each shooting location recorded in the memory 53 at the present time.
  • the degree of similarity with the user's favorite image can be, for example, the degree of similarity between the guidance image and the image highly evaluated by the user, such as composition, brightness distribution, hue, edge amount, subject, and the like. , The higher the similarity of the guide images, the larger the display size and the faster the display order.
  • the user's favorite image that is, the image highly evaluated by the user is an image in which the user gives a high evaluation such as "like" to another user's image by using SNS, for example. ..
  • Such a user's favorite image is, for example, when the user uses his / her own user ID and uses the SNS provided by the server 12 or another server different from the server 12, the record of the SNS, etc. It is possible to identify based on.
  • the user's favorite image is not limited to the image posted on the web by SNS, but any image as long as it exists on the web, such as an image posted on another web page. May be good.
  • the guide image of the shooting location having a high degree of similarity to the shooting location where the user has shot in the past has a larger display size and a faster display order.
  • the shooting place of the guide image and the recording unit 52 are recorded from the specific result. It is possible to obtain the degree of similarity with the shooting location of the user's shot image.
  • the shooting location where the user has shot in the past is the user's favorite shooting location, there is a high possibility that the shooting location similar to that shooting location is the shooting location that the user wants to go to. Therefore, the display size of the guide image of the shooting location having such a high degree of similarity is large, and the display order is made earlier.
  • determining the display size and display order of the guide image according to the similarity with the shooting location where the user has taken a picture in the past and the similarity with the user's favorite image can be added to the guide image list. It can be said that it is to display a guide image that reflects the taste of.
  • an estimator that inputs a captured image that is a candidate for the guide image and outputs an estimated value of the user's preference for the captured image is used. You may do so.
  • Such an estimator can be used for SNS usage history by the user, such as images posted by the user, images viewed, images that have been highly evaluated such as "likes", and shooting locations where the user has taken pictures in the past. It can be generated by learning such as deep learning or machine learning based on the past behavior data of the user such as.
  • control unit 54 obtains an estimated value of the degree of preference of the user for each photographed image based on each photographed image that is a candidate for a guide image and an estimator obtained by learning in advance. Then, the control unit 54 selects a guide image based on the estimated value, and determines a display position and a display order of each guide image.
  • the display size of the guide image having a high estimated value of the degree of preference of the user is large, and the display order is made earlier.
  • selecting a guide image using an estimator and determining the display size and display order of the guide image are substantially similar to the shooting location where the user shot in the past. It is equivalent to selecting a guide image according to the degree of similarity with the user's favorite image, and determining the display size and display order of the guide image.
  • Brightness distribution, hue, subject, etc. may be learned from the user's past captured images, images posted on SNS, and the like. In this case, based on the learning result and the captured image, the similarity of each captured image (guide image) with the user's favorite image is obtained.
  • the guide image taken at the time when the process of step S42 is performed that is, the current season or time zone, the season or time zone close to the weather, or the weather, the larger the display size and the earlier the display order. Be made.
  • the season and time when the guide image (photographed image) was taken can be specified, for example, from the shooting date and shooting time included in the metadata of the guide image.
  • the current weather can be obtained by accessing a server or the like that provides weather information.
  • a guide image close to the current season, time zone, and weather is an image such as a hue close to the shot image obtained when the user takes a picture from now on. You can easily imagine what kind of image will be obtained.
  • recommended shooting locations may be presented according to the current or future season or time zone.
  • the selected season or time zone is determined.
  • Information indicating a recommended shooting location and a guide image of the shooting location are displayed on the display unit 88.
  • the guide image may be displayed in a different display format depending on the type of the shooting location of the guide image such as a temple, a restaurant, or a park.
  • the outer frame of the guide image can be displayed in a color corresponding to the type of the shooting location of the guide image.
  • the guide image may be displayed collectively for each type of shooting location by providing an area for each type of shooting location in the guide image list.
  • the guide image list may be generated by the user terminal device 13.
  • control unit 54 When the control unit 54 generates the guide image list as described above, the control unit 54 supplies the obtained guide image list to the communication unit 51, and then the process proceeds to step S43.
  • an image ID indicating the guide image is associated with the guide image, and the guide image selected from the guide image list can be specified by the image ID. It shall be.
  • step S43 the communication unit 51 transmits the guide image list supplied from the control unit 54 to the user terminal device 13.
  • step S12 the communication unit 81 receives the guide image list transmitted from the server 12 and supplies it to the control unit 87.
  • step S13 the control unit 87 supplies the guide image list (photographed sample image list) supplied from the communication unit 81 to the display unit 88, and causes the display unit 88 to display the guide image list.
  • the guide image list V11 shown in FIG. 2 is displayed.
  • the user When the guide image list is displayed, the user operates the input unit 83 to select a desired guide image as the selection guide image from the guide image list.
  • step S14 the control unit 87 selects a guide image selected by the user from the guide image list displayed on the display unit 88 based on the signal supplied from the input unit 83 in response to the user's selection operation. Select as a selection guide image. Then, the control unit 87 supplies the image ID of the selection guide image to the communication unit 81.
  • step S15 the communication unit 81 transmits the image ID of the selection guide image supplied from the control unit 87 to the server 12.
  • step S44 the communication unit 51 receives the image ID transmitted from the user terminal device 13 and supplies it to the control unit 54.
  • step S45 the control unit 54 updates the reference count information recorded in the recording unit 52 in association with the image ID supplied from the communication unit 51. That is, the number of references indicated by the number of references information is incremented by 1.
  • the reference count information may be updated when the selection guide image is selected, but also the incentive information may be updated by giving a predetermined incentive to the user.
  • the control unit 54 reads the shooting location ID associated with the image ID received in step S44 from the recording unit 52, and records the image ID associated with the shooting location ID.
  • the metadata recorded in the unit 52 is also read out, and the shooting location ID and the metadata are supplied to the communication unit 51.
  • the metadata read in this way is the metadata of the shooting location of the selection guide image.
  • step S46 the communication unit 51 transmits the shooting location ID and the metadata supplied from the control unit 54 to the user terminal device 13, and the guide image list providing process ends.
  • the server 12 when the selection guide image is selected in the user terminal device 13 which is the transmission destination of the guide image list, it is necessary to display the map for guiding the user to the shooting location of the selection guide image.
  • the metadata is transmitted to the user terminal device 13.
  • step S16 the communication unit 81 receives the shooting location ID and the metadata transmitted from the server 12 and supplies them to the control unit 87.
  • the control unit 87 displays a selection guide image and a map showing a route to the shooting location of the selection guide image based on the shooting location ID and metadata supplied from the communication unit 81 and the guide image list. Generate image information.
  • step S17 the control unit 87 supplies the generated image information to the display unit 88, and displays the selection guide image and the map showing the route to the shooting location of the selection guide image.
  • the display screen shown in FIG. 3 is displayed on the display unit 88.
  • the control unit 87 causes the user to present the voice information by outputting the voice from a speaker (not shown) based on the voice information.
  • a map showing a route from the user's current location to the shooting location of the selection guide image is displayed in the map display area R12.
  • the user's current location can be specified by the current position information supplied from the current position information acquisition unit 85, and the display position of the shooting location on the map can be specified from the metadata of the shooting location.
  • the recommended shooting is performed on the map of the map display area R12.
  • a mark indicating a place, an image indicating that it is recommended, or the like may also be displayed.
  • the shooting location ID and metadata of the recommended shooting location may also be transmitted.
  • the image information for displaying the display screen in step S17 may be generated on the server 12 side instead of the user terminal device 13 side.
  • the route from the user's current location to the shooting location of the selection guide image it is based on the waiting time for shooting at each shooting location, the required staying time at each shooting location, the current time zone, season, and weather.
  • the appropriate route may be determined by the control unit 87 or the control unit 54.
  • the user can enjoy shooting, sightseeing, walking, etc. by presenting a route to the shooting location through the illuminated road.
  • step S17 When the process of step S17 is performed and the selection guide image and the map are displayed, the selection process ends.
  • the user terminal device 13 displays the guide image list, selects the selected guide image from the guide image list, and displays a map or the like showing the route to the shooting location.
  • the server 12 generates a guide image list and transmits it to the user terminal device 13, and also transmits a shooting location ID and metadata of the shooting location of the selected guide image selected by the user.
  • the user can select a guide image such as a shooting location that he / she wants to go from the guide image list and head to that shooting location. That is, it is possible to select an interesting guide image from the guide images actually taken at the shooting location and head to the shooting location of the guide image.
  • the shot image does not feel different from his / her own image, and the shot image is exactly as the user's image. Will be able to obtain. That is, it becomes possible to obtain a photographed image with a higher degree of satisfaction.
  • control unit 87 controls the display of a pop-up prompting the transition to the AR display state.
  • control unit 87 controls the display unit 88, and causes the display unit 88 to display a pop-up image prompting the transition to the AR display state.
  • the AR display state is entered, and the user terminal device 13 starts the shooting start instruction process. ..
  • the server 12 starts the shooting control process accordingly.
  • the shooting start instruction processing by the user terminal device 13 and the shooting control processing by the server 12 will be described with reference to the flowchart of FIG. It should be noted that the case where the shooting location of the selection guide image is a shooting spot will be described here as well.
  • step S71 the communication unit 81 transmits a transmission request for shooting waiting number information indicating the number of people waiting for shooting at the shooting location (shooting spot) to the server 12. To do.
  • control unit 87 For example, the control unit 87 generates a transmission request for transmitting information on the number of people waiting for shooting, including a shooting location ID of the shooting location of the selection guide image near the user (user terminal device 13), and supplies the information to the communication unit 81. To do. Then, the communication unit 81 transmits the transmission request supplied from the control unit 87 to the server 12.
  • step S101 the communication unit 51 receives the transmission request transmitted from the user terminal device 13 and supplies it to the control unit 54.
  • step S102 the control unit 54 responds to the transmission request supplied from the communication unit 51, and indicates the number of users currently waiting for shooting for the shooting location indicated by the shooting location ID included in the transmission request.
  • the waiting number information is generated and supplied to the communication unit 51.
  • control unit 54 records in the memory 53 as shooting order information the user IDs of the users who have reserved shooting for each shooting location, arranged in the shooting order and associated with the shooting location ID of the shooting location. I'm letting you.
  • control unit 54 generates information indicating the number of user IDs included in the shooting order information as shooting waiting number information.
  • step S103 the communication unit 51 transmits the information on the number of people waiting for shooting supplied from the control unit 54 to the user terminal device 13.
  • step S72 the communication unit 81 receives the information on the number of people waiting for shooting transmitted from the server 12 and supplies it to the control unit 87.
  • the control unit 87 includes information on the number of people waiting for shooting supplied from the communication unit 81, metadata of the shooting location corresponding to the selection guide image, posture information from the posture detection sensor 84, and current position information from the current position information acquisition unit 85. , An environment image on which the AR image is superimposed is generated based on the environment image from the photographing unit 86 and the like.
  • the area of the shooting location (shooting spot) on the environmental image can be specified from the current position information and posture information and the metadata of the shooting location, so that the AR image is added to the environmental image based on the specific result. It is superimposed.
  • step S73 the control unit 87 supplies the environment image on which the AR image is superimposed to the display unit 88 and displays it.
  • the AR image shown in FIG. 4 is superimposed on the environment image and displayed, and the AR display state is set.
  • the input unit 83 tells the control unit 87 that the user A signal corresponding to the operation is supplied.
  • step S74 the control unit 87 generates shooting reservation information to reserve shooting at the designated shooting location according to the signal supplied from the input unit 83, and supplies the shooting reservation information to the communication unit 81.
  • This shooting reservation information includes, for example, a user ID indicating a user who is the reservation person and a shooting location ID indicating a shooting location for which shooting is reserved.
  • step S75 the communication unit 81 transmits the shooting reservation information supplied from the control unit 87 to the server 12.
  • step S104 the communication unit 51 receives the shooting reservation information transmitted from the user terminal device 13 and supplies it to the control unit 54.
  • step S105 the control unit 54 makes a shooting reservation for the user based on the shooting reservation information supplied from the communication unit 51.
  • control unit 54 reserves shooting for the shooting order information recorded in the memory 53, which includes the same shooting location ID as that included in the shooting reservation information.
  • the shooting order information is updated by adding the user ID included in the information. As a result, the user's shooting at the shooting location is reserved.
  • control unit 54 generates a streaming image for the shooting location where the shooting reservation is made according to the shooting reservation information, and supplies the streaming image to the communication unit 51.
  • a shooting image currently being shot at a shooting location reserved for shooting, a moving image of an explanation of shooting at that shooting location, and the like are generated as streaming images.
  • the photographed image currently being photographed is acquired from the photographing device 11 via the communication unit 51.
  • step S106 the communication unit 51 transmits the streaming image supplied from the control unit 54 to the user terminal device 13, and then the process proceeds to step S107.
  • step S76 the communication unit 81 receives the streaming image transmitted from the server 12 and supplies it to the control unit 87.
  • the control unit 87 generates image information for displaying the streaming screen based on the streaming image supplied from the communication unit 81 and the information on the number of people waiting for shooting received in step S72.
  • step S77 the control unit 87 supplies the generated image information to the display unit 88, and causes the display unit 88 to display a streaming screen including the streaming image. As a result, for example, the streaming screen shown in FIG. 5 is displayed.
  • the user terminal device 13 When the streaming screen is displayed, the user terminal device 13 appropriately communicates with the server 12 to acquire the latest information on the number of people waiting for shooting, and a gauge indicating the number of people waiting for shooting and the waiting time until shooting on the streaming screen. Update the display.
  • the control unit 54 updates the shooting order information recorded in the memory 53 each time the shooting of another user by the shooting device 11 is completed. I will do it.
  • control unit 54 when it is the user's turn to shoot, the control unit 54 generates shooting right information indicating that the user can shoot, that is, it is the user's turn to shoot, and supplies it to the communication unit 51.
  • step S107 the communication unit 51 transmits the shooting right information supplied from the control unit 54 to the user terminal device 13.
  • step S107 the image taken by the shooting device 11 installed at the shooting location where the shooting is performed may be transmitted to the user terminal device 13 together with the shooting right information as a through image.
  • step S78 the communication unit 81 receives the shooting right information transmitted from the server 12 and supplies it to the control unit 87.
  • the control unit 87 When the shooting right information is supplied from the communication unit 81, the control unit 87 generates image information for displaying the shooting screen according to the shooting right information.
  • control unit 87 supplies the generated image information to the display unit 88, and causes the display unit 88 to display the shooting screen. As a result, for example, the shooting screen shown in FIG. 6 is displayed.
  • the control unit 87 When the shooting screen is displayed, for example, the user operates the input unit 83 to instruct the start of shooting by pressing the shooting button on the shooting screen. Then, the control unit 87 generates a shooting trigger to instruct the start of shooting in response to the signal supplied from the input unit 83 in response to the user's operation, and supplies the shooting trigger to the communication unit 81.
  • step S79 the communication unit 81 transmits the shooting trigger supplied from the control unit 87 to the server 12, and the shooting start instruction process ends.
  • step S108 the communication unit 51 receives the shooting trigger transmitted from the user terminal device 13 and supplies it to the control unit 54.
  • step S109 the control unit 54 controls the shooting by the shooting device 11 in response to the shooting trigger supplied from the communication unit 51.
  • control unit 54 transmits a control signal to start shooting to the shooting device 11 at the shooting location where the user is located by the communication unit 51, and starts shooting.
  • the photographing device 11 photographs the user as a subject and transmits the obtained captured image to the server 12, so that the communication unit 51 receives the transmitted captured image and supplies it to the control unit 54. ..
  • shooting may be started after a certain period of time has passed after the shooting right information is transmitted.
  • the time until the start of shooting can be displayed in a countdown format.
  • control unit 54 performs face recognition or the like on the through image captured by the photographing device 11, and when a user's face or a person's face is detected, or a voice of an arbitrary person from the voice accompanying the through image. Alternatively, shooting may be started when a specific keyword is detected.
  • the timing of the end of shooting may be any timing, such as when a certain time has passed from the start of shooting or when the user gives an instruction to end shooting. Further, when the user's shooting is completed, the control unit 54 updates the shooting order information recorded in the memory 53.
  • step S110 is performed thereafter.
  • step S110 the control unit 54 edits the captured image supplied from the photographing device 11 via the communication unit 51.
  • the control unit 54 performs a process of blurring the area of the other person in the captured image, or sets the area of the other person to the same area of the captured image at another time. By replacing it with the image of, the process of removing others is performed as an editing process.
  • control unit 54 when the captured image is a moving image, the control unit 54 performs a process of cutting out and deleting a section where blurring or blurring occurs in the captured image, a section where the user protrudes outside the angle of view, and the like. It may be performed as an editing process.
  • control unit 54 may cut out and connect only the section to be the highlight scene in the moving image as the captured image, and perform the process of making the final captured image as the editing process.
  • a section where the sound in the captured image is above a predetermined level, a section where the subject moves a lot, a section where a user's smile is detected, a section where a predetermined event is detected, and the like are cut out as highlight scene sections. Can be made.
  • control unit 54 cuts out and connects a plurality of moving images and still images from the moving images as captured images, and the moving images and still images are finally reproduced as a slide show like an album.
  • the process of generating as a captured image may be performed as an editing process.
  • step S111 the control unit 54 assigns an image ID indicating the captured image to the captured image after editing, and also assigns a user ID, an image ID, a captured image after editing, a shooting location ID, reference count information, and The number of visitors information is associated with each other and supplied to the recording unit 52 for recording.
  • the number of references indicated by the number of references information is set to 0, and the number of visitors indicated by the number of visitors information is also set to 0.
  • step S112 the control unit 54 gives an incentive to the user of the selection guide image that triggered the user to take a picture.
  • control unit 54 identifies the user ID associated with the image ID received in step S44 of FIG. 13 and updates the incentive information associated with the user ID to give the incentive. Do.
  • control unit 54 updates the number of visitors information by incrementing the number of visitors indicated by the number of visitors information associated with the image ID received in step S44 of FIG. 13 by 1.
  • the incentive may be given, that is, the incentive information may be updated when the shooting reservation is completed, or when the selection guide image is selected.
  • an incentive is given even when the image is selected as a selection guide image but not taken until shooting, but in such a case, the incentive given is less than when shooting is performed. You may.
  • the incentive given to the user of the selection guide image is a shooting service such as the number of references indicated by the reference count information associated with the selection guide image and the number of visitors indicated by the visitor number information. It may be determined based on the degree of contribution of the user to.
  • the shooting location is a store such as a restaurant
  • a service provided at the shooting location such as the amount of money paid to the store by the user who visited the store triggered by the selection guide image.
  • the incentive to be given may be determined according to the result of use of.
  • the user of the selection guide image may be using SNS, or the selection guide image may be posted (up) on SNS.
  • the incentive to be given is determined according to, for example, the number of followers of the user and the number of people who gave a high evaluation such as "like" to the selection guide image posted on SNS. You may do so.
  • control unit 54 is at least one of, for example, reference count information, visitor number information, service usage result, SNS follower number, and number of users who highly evaluated the selection guidance image. To determine the incentive to give to the user based on.
  • the target area can be activated.
  • the user terminal device 13 superimposes and displays the AR image indicating the shooting location and the number of people waiting for shooting on the environment image, and transmits the shooting reservation information and the shooting trigger to the server 12.
  • the server 12 makes a reservation for shooting according to the shooting reservation information, and controls shooting according to a shooting trigger.
  • the user can select the shooting location where he / she actually wants to shoot, such as by viewing the environment image on which the AR image is superimposed, and shoot. As a result, it is possible to obtain a photographed image with a high degree of satisfaction.
  • the user does not have to perform operations such as deciding the composition at the time of shooting and setting the shooting, and concentrates on posing, sightseeing, eating and drinking at the time of shooting. You can enjoy it.
  • the server 12 controls the shooting of a plurality of users, not only can the shooting be performed efficiently and the congestion can be alleviated, but also the shooting of each user interferes with the passage of other users. Can be suppressed.
  • the user terminal device 13 displays the selected and saved screen of the captured image.
  • control unit 54 of the server 12 generates image information of the selection save screen based on the captured image associated with the user ID indicating the user in response to the request from the user (user terminal device 13).
  • the communication unit 51 transmits to the user terminal device 13.
  • the communication unit 81 receives the image information of the selection save screen transmitted from the server 12 and supplies it to the control unit 87.
  • control unit 87 supplies the image information supplied from the communication unit 81 to the display unit 88, and causes the display unit 88 to display the selection save screen. As a result, for example, the selection save screen shown in FIG. 7 is displayed.
  • the user terminal device 13 When the selection save screen is displayed in this way, the user terminal device 13 performs a captured image acquisition process for downloading the captured image, and the server 12 performs a captured image providing process in response to the request of the user terminal device 13. ..
  • step S141 the communication unit 81 of the user terminal device 13 transmits a viewing request for the captured image to the server 12.
  • thumbnail images of the photographed images of the user are displayed in a list, and by specifying an arbitrary thumbnail image, the section of the photographed image corresponding to the thumbnail image can be browsed. can do.
  • information indicating the image ID of the captured image corresponding to the thumbnail image and the section of the captured image corresponding to the thumbnail image is associated with each thumbnail image.
  • the user operates the input unit 83 to select the thumbnail image of the photographed image to be viewed (reproduced) in order to select the photographed image to be downloaded.
  • the control unit 87 generates a browsing request including information indicating an image ID and a section corresponding to the thumbnail image in response to the signal supplied from the input unit 83, and supplies the viewing request to the communication unit 81.
  • the communication unit 81 transmits the browsing request supplied from the control unit 87 to the server 12.
  • step S171 the communication unit 51 receives the browsing request transmitted from the user terminal device 13 and supplies it to the control unit 54.
  • the control unit 54 reads out the captured image requested to be transmitted from the recording unit 52 in response to the viewing request supplied from the communication unit 51, and cuts out the section indicated by the viewing request in the captured image as necessary for communication. It is supplied to the unit 51.
  • step S172 the communication unit 51 transmits the captured image supplied from the control unit 54 to the user terminal device 13. In this case, the captured image is streamed to the user terminal device 13.
  • step S142 the communication unit 81 receives the captured image transmitted from the server 12 and supplies it to the control unit 87.
  • step S143 the control unit 87 supplies the captured image supplied from the communication unit 81 to the display unit 88, and displays the captured image.
  • the captured image received in step S142 is reproduced in a streaming format.
  • the user appropriately selects a photographed image to be downloaded, that is, to be saved by operating the input unit 83 while reproducing and confirming the photographed image corresponding to the thumbnail image. At this time, it is also possible to select only a part of the captured image as the captured image for storage.
  • the user terminal device 13 may perform editing processing on the captured image.
  • the control unit 87 performs the same editing process as in step S110 of FIG.
  • control unit 87 may also perform editing processing such as trimming and color tone correction on the captured image according to the user's operation.
  • step S144 the control unit 87 selects the captured image for storage and the section for saving the captured image according to the signal supplied from the input unit 83. Then, the selection information indicating the selection result is generated. Further, the control unit 87 supplies the generated selection information to the communication unit 81.
  • the selection information includes the image ID of the captured image for storage selected by the user and the information indicating the section in which the captured image is saved.
  • the user can select a plurality of captured images at one time, or can select a plurality of sections of the captured image.
  • step S145 the communication unit 81 transmits the selection information supplied from the control unit 87 to the server 12.
  • the communication unit 51 receives the selection information transmitted from the user terminal device 13 and supplies it to the control unit 54.
  • step S174 the control unit 54 generates a captured image for storage based on the selection information supplied from the communication unit 51 and the edited captured image recorded in the recording unit 52.
  • the captured image indicated by the selection information is selected, and from the selected captured image, a section indicated by the selection information as needed. Is cut out and used as a photographed image for storage.
  • step S175 the control unit 54 supplies the generated captured image for storage to the recording unit 52 and records it.
  • the edited photographed image recorded in step S111 of FIG. 14 is replaced with the photographed image for storage generated in step S174 and recorded. Further, the control unit 54 supplies the generated captured image for storage to the communication unit 51.
  • step S176 the communication unit 51 transmits the captured image for storage supplied from the control unit 54 to the user terminal device 13, and the captured image providing process ends.
  • step S146 the communication unit 81 receives the captured image for storage transmitted from the server 12 and supplies it to the control unit 87.
  • step S147 the control unit 87 supplies the captured image for storage supplied from the communication unit 81 to the recording unit 82 for recording, and the captured image acquisition process ends. As a result, the captured image for storage has been downloaded.
  • the user terminal device 13 downloads the captured image for storage from the server 12 by selecting the captured image for storage and transmitting the selection information. Further, the server 12 transmits the captured image selected by the user terminal device 13.
  • the user can download and save the captured image that he / she likes for saving.
  • the captured image for storage may be uploaded (posted) on the user's SNS page.
  • control unit 54 of the server 12 uploads the captured image for storage to the page of the user of the SNS managed by itself, or the photographed image for storage is transferred to another server by the communication unit 51. You may send it and upload the captured image for storage on the user's page of the SNS managed by another server.
  • the communication unit 81 of the user terminal device 13 transmits the photographed image for storage to the server 12 or another server, so that the photographed image for storage is uploaded to the user's page of the SNS. You may.
  • control unit 87 of the user terminal device 13 and the control unit 54 of the server 12 display the captured image, the image ID of the captured image, and the map of the map display area R12 shown in FIG. Controls transmission of captured images, requests for posting captured images, etc. so that necessary information such as the URL of the above is associated and posted on the user's page of the SNS.
  • the image ID is displayed on the user terminal device 13 of the viewer.
  • the server 12 can be accessed based on the image, URL, or the like.
  • the display screen shown in FIG. 3 is displayed on the user terminal device 13 of the viewer, and thereafter, the processing described with reference to FIGS. 14 and 15 is performed for viewing.
  • the person can also shoot at the shooting location.
  • the shooting place is an outdoor shooting spot or the like
  • the captured image may be an image in which the user is included as a subject, or an image of only food and drink provided to the user.
  • the shooting location is a restaurant as an example.
  • the user terminal device 13 and the server 12 perform the process shown in FIG.
  • steps S201 to S205 and steps S241 to S245 are the same as the processes of steps S11 to S15 and steps S41 to S45 of FIG. 13, the description thereof will be omitted.
  • guide images of various categories such as a guide image of a shooting spot or a store such as a restaurant may be displayed in a list in the guide image list, or guides for restaurants of a predetermined genre may be displayed.
  • Guide images may be displayed in a list for each category, such as displaying only images in a list.
  • step S204 a guide image with the restaurant as the shooting location is selected as the selection guide image.
  • step S246 the control unit 54 confirms the vacancy status of the restaurant corresponding to the image ID received in step S244.
  • control unit 54 identifies the shooting location ID recorded in the recording unit 52 in association with the image ID received in step S244, and records the metadata associated with the shooting location ID. Read from 52.
  • control unit 54 communicates with the store terminal device 14 by the communication unit 51 based on the access destination of the store terminal device 14 of the restaurant included in the read metadata, and inquires about the vacancy status of the restaurant.
  • the control unit 54 includes the vacancy status of the restaurant obtained in this manner, the shooting location ID indicating the restaurant, the metadata of the restaurant (shooting location), and the coupon of the restaurant. Information is generated and supplied to the communication unit 51.
  • the restaurant coupon does not necessarily have to be included in the seat availability information, and the restaurant coupon may be issued to the user at any time, such as being issued in advance. it can.
  • the coupon may be issued only to users who satisfy a predetermined condition, such as a user whose number of visitors is equal to or greater than a predetermined value. Further, the coupon may be issued only to a store such as a specific restaurant.
  • step S247 the communication unit 51 transmits the vacancy status information supplied from the control unit 54 to the user terminal device 13.
  • step S206 the communication unit 81 receives the vacant seat status information transmitted from the server 12 and supplies it to the control unit 87.
  • step S207 the control unit 87 supplies the vacant seat status information supplied from the communication unit 81 to the display unit 88 and displays it.
  • the display unit 88 displays the vacancy status at the restaurant, the issued coupon, the URL of the web page of the restaurant, the map showing the route from the current position of the user terminal device 13 to the restaurant, and the like.
  • the user confirms the vacancy status displayed on the display unit 88, operates the input unit 83, appropriately inputs necessary information such as the reservation time, the number of visitors, and whether or not the coupon is used, and the user of the restaurant Instruct a reservation.
  • step S207 information on transportation and accommodation facilities is also displayed.
  • step S208 the control unit 87 determines, for example, a user ID, a shooting location ID of a restaurant, a reservation time, the number of visitors, whether or not a coupon is used, etc., based on a signal supplied from the input unit 83 in response to a user operation.
  • the included reservation information is generated and supplied to the communication unit 81.
  • step S209 the communication unit 81 requests a restaurant reservation by transmitting the reservation information supplied from the control unit 87 to the server 12.
  • the user terminal device 13 directly accesses the store terminal device 14 based on the vacancy status information to make a reservation for the restaurant. You may do it.
  • the user even if the user or the like does not make a reservation for the restaurant, when the user starts eating or drinking at the booth dedicated to the shooting service at the restaurant, the user sends some shooting trigger from the user terminal device 13 to the server 12. Then, the shooting may be performed.
  • the server 12 When the reservation information is transmitted from the user terminal device 13 to the server 12, the server 12 performs the process of step S248.
  • step S248 the communication unit 51 receives the reservation information transmitted from the user terminal device 13 and supplies it to the control unit 54.
  • step S249 the control unit 54 performs a reservation process for reserving a restaurant based on the reservation information supplied from the communication unit 51.
  • control unit 54 controls the communication unit 51 to communicate with the store terminal device 14, transmit reservation information to the store terminal device 14, and so on, so that the user eats and drinks at the restaurant at a desired time. Make a reservation so that you can.
  • control unit 54 When the reservation is completed, the control unit 54 generates a reservation completion notification to the effect that the reservation is completed, including information such as the reservation time, and supplies it to the communication unit 51.
  • step S250 the communication unit 51 transmits the reservation completion notification supplied from the control unit 54 to the user terminal device 13, and the guide image list providing process ends.
  • step S210 the communication unit 81 receives the reservation completion notification transmitted from the server 12 and supplies it to the control unit 87.
  • step S211 the control unit 87 supplies the reservation completion notification supplied from the communication unit 81 to the display unit 88 and displays it.
  • the display unit 88 displays, for example, a message that a restaurant has been reserved, a map showing the route from the current position to the restaurant, which is the shooting location, and the like.
  • the user terminal device 13 displays the guide image list, selects the selection guide image from the guide image list, and when the restaurant corresponding to the selection guide image is reserved, the route to the restaurant is reserved. Display a map or the like indicating.
  • the server 12 generates a guide image list and transmits it to the user terminal device 13, and also confirms the vacancy status of the restaurant corresponding to the shooting location of the selected guide image selected by the user, and confirms the vacancy status of the restaurant. Make a reservation.
  • the shooting control process for controlling the shooting at the restaurant where the user is present is shown in FIG.
  • the process shown in 17 is performed.
  • the communication unit 51 transmits the shooting right information to the user terminal device 13 in step S311.
  • the control unit 54 when the user's reserved time comes, the control unit 54 generates shooting right information indicating that shooting is possible and supplies it to the communication unit 51. Then, the communication unit 51 transmits the shooting right information supplied from the control unit 54 to the user terminal device 13.
  • step S341 the communication unit 81 receives the shooting right information transmitted from the server 12 and supplies it to the control unit 87.
  • the control unit 87 When the shooting right information is supplied from the communication unit 81, the control unit 87 generates image information for displaying a message indicating that the shooting start time has come, according to the shooting right information. Further, the control unit 87 supplies the generated image information to the display unit 88, and causes the display unit 88 to display a message indicating that the shooting start time has come.
  • the control unit 87 When such a message is displayed, for example, the user operates the input unit 83 to instruct the start of shooting. Then, the control unit 87 generates a shooting trigger to instruct the start of shooting in response to the signal supplied from the input unit 83 in response to the user's operation, and supplies the shooting trigger to the communication unit 81.
  • step S342 the communication unit 81 transmits the shooting trigger supplied from the control unit 87 to the server 12, and the shooting start instruction process ends.
  • the server 12 When the shooting trigger is transmitted in this way, the server 12 performs the processes of steps S312 to S316 and ends the shooting control process, but these processes are the same as the processes of steps S108 to S112 of FIG. Since it is the same, the description thereof will be omitted.
  • the server 12 when it is time for the user to start eating and drinking, the server 12 generates shooting right information and transmits it to the user terminal device 13, and when the server 12 receives a shooting trigger in response to the transmission, shooting is started. Control so as to. Further, the user terminal device 13 receives the shooting right information from the server 12 and transmits the shooting trigger to the server 12 in response to the user's operation.
  • the user can enjoy eating and drinking and talking with a companion without being particularly conscious of shooting, and the user's satisfaction can be improved.
  • shooting may be started after a certain period of time has passed after the shooting right information is transmitted, and eating and drinking at a restaurant may be started.
  • the shooting may be started at the reserved time of.
  • control unit 54 performs face recognition or the like on the through image captured by the photographing device 11, and when a user's face or a person's face is detected, or a voice of an arbitrary person from the voice accompanying the through image. Alternatively, shooting may be started when a specific keyword is detected.
  • the captured images taken by the photographing device 11 may be sequentially distributed by the server 12 to the user terminal device 13 so that the captured images are reproduced by the user terminal device 13.
  • the user can confirm what kind of shooting is being performed even while eating or drinking.
  • the timing of the end of shooting may be any timing, such as the timing when the user has finished eating and drinking, or when the user has instructed the end of shooting.
  • the user can download the photographed image at any time, such as after the image is taken.
  • the user terminal device 13 and the server 12 perform the captured image acquisition process and the captured image providing process described with reference to FIG.
  • this technology it is possible to set public transportation such as trains, buses, and ships as shooting locations, and make reservations for those public transportation.
  • this technology can be applied to watching sports, driving, making reservations and using beauty salons, shopping, shooting at wedding halls, and so on.
  • the series of processes described above can be executed by hardware or software.
  • the programs that make up the software are installed on the computer.
  • the computer includes a computer embedded in dedicated hardware and, for example, a general-purpose personal computer capable of executing various functions by installing various programs.
  • FIG. 18 is a block diagram showing a configuration example of computer hardware that executes the above-mentioned series of processes programmatically.
  • the CPU Central Processing Unit
  • the ROM ReadOnly Memory
  • the RAM RandomAccessMemory
  • An input / output interface 505 is further connected to the bus 504.
  • An input unit 506, an output unit 507, a recording unit 508, a communication unit 509, and a drive 510 are connected to the input / output interface 505.
  • the input unit 506 includes a keyboard, a mouse, a microphone, an image sensor, and the like.
  • the output unit 507 includes a display, a speaker, and the like.
  • the recording unit 508 includes a hard disk, a non-volatile memory, and the like.
  • the communication unit 509 includes a network interface and the like.
  • the drive 510 drives a removable recording medium 511 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory.
  • the CPU 501 loads the program recorded in the recording unit 508 into the RAM 503 via the input / output interface 505 and the bus 504 and executes the above-described series. Is processed.
  • the program executed by the computer (CPU501) can be recorded and provided on a removable recording medium 511 as a package medium or the like, for example. Programs can also be provided via wired or wireless transmission media such as local area networks, the Internet, and digital satellite broadcasting.
  • the program can be installed in the recording unit 508 via the input / output interface 505 by mounting the removable recording medium 511 in the drive 510. Further, the program can be received by the communication unit 509 and installed in the recording unit 508 via a wired or wireless transmission medium. In addition, the program can be pre-installed in the ROM 502 or the recording unit 508.
  • the program executed by the computer may be a program that is processed in chronological order according to the order described in this specification, or may be a program that is processed in parallel or at a necessary timing such as when a call is made. It may be a program in which processing is performed.
  • the embodiment of the present technology is not limited to the above-described embodiment, and various changes can be made without departing from the gist of the present technology.
  • this technology can have a cloud computing configuration in which one function is shared by a plurality of devices via a network and jointly processed.
  • each step described in the above flowchart can be executed by one device or shared by a plurality of devices.
  • one step includes a plurality of processes
  • the plurality of processes included in the one step can be executed by one device or shared by a plurality of devices.
  • this technology can also have the following configurations.
  • a shooting sample image list in which a plurality of shooting sample images taken at a plurality of different shooting locations are arranged is displayed, and when any of the shooting sample images is selected from the shooting sample image list, it is selected.
  • An information processing device including a control unit that presents guidance information that guides the photographed sample image to the imaging location.
  • the captured sample image is an image selected based on at least one of an estimated value of the degree of preference of the user with respect to the captured sample image and the priority of the photographing location determined by the attractor (1).
  • the information processing apparatus according to any one of (1) to (3), further comprising a communication unit for transmitting shooting reservation information for reserving shooting of the selected shooting sample image at the shooting location.
  • the control unit displays an image of another user being photographed at the filming location before the user's filming when the user's filming at the filming location is reserved.
  • Information processing device (6) A shooting unit that shoots an environmental image including the shooting location as a subject is further provided.
  • the information processing device according to any one of (1) to (5), wherein the control unit displays the environmental image on which an image indicating the position of the shooting location is superimposed.
  • the information processing device according to any one of (1) to (6), wherein the guidance information is a map showing a route from the current position of the information processing device to the shooting location.
  • Information processing device A shooting sample image list in which a plurality of shooting sample images taken at a plurality of different shooting locations are arranged is displayed, and when any of the shooting sample images is selected from the shooting sample image list, it is selected. An information processing method for presenting guidance information that guides the photographed sample image to the imaging location. (9) A shooting sample image list in which a plurality of shooting sample images taken at a plurality of different shooting locations are arranged is displayed, and when any of the shooting sample images is selected from the shooting sample image list, it is selected.
  • a program that causes a computer to execute a process including a step of presenting guidance information for guiding a photographed sample image to the photographed place.
  • a control unit that generates a shooting sample image list in which a plurality of the shooting sample images are arranged based on a plurality of shooting sample images taken at a plurality of different shooting locations.
  • An information processing device including a communication unit for transmitting to the terminal device.
  • the control unit selects and selects the captured sample image based on at least one of an estimated value of the degree of preference of the user with respect to the captured sample image and the priority of the photographing location determined by the attractor.
  • the information processing apparatus which generates the photographed sample image list based on the photographed sample image.
  • the control unit has the number of references to the captured sample image, the number of visitors to the captured location based on the presentation of the captured sample image, the popularity of the captured location of the captured sample image, the priority, and the captured sample image.
  • Evaluation value of appearance, number of people waiting for shooting at the shooting location of the shooting sample image, season or time zone when the shooting sample image was taken, weather at the time of shooting the shooting sample image, predetermined image of the shooting sample image The information processing apparatus according to (11), wherein the display position or display size of each photographed sample image in the photographed sample image list is determined based on the similarity with and at least one of the estimated values. .. (13) The information processing device according to any one of (10) to (12), wherein the control unit controls shooting by a shooting device installed at the shooting location. (14) The information processing device according to (13), wherein the control unit generates a list of captured sample images using the captured image captured by the photographing device as the photographed sample image.
  • the information processing device wherein the control unit gives an incentive to a user corresponding to the selected photographed sample image.
  • the control unit may refer to the captured sample image, the number of visitors to the imaging location based on the presentation of the captured sample image, and the other user who visited the photographing location in response to the presentation of the captured sample image.
  • the information processing apparatus according to (15), wherein the incentive to be given to the user is determined based on at least one of the results of using the service at the shooting location.
  • the communication unit receives the shooting reservation information for reserving the shooting of the selected shooting sample image at the shooting location, which is transmitted from the terminal device.
  • the information processing device according to any one of (13) to (16), wherein the control unit makes a reservation for shooting based on the shooting reservation information.
  • the communication unit transmits a captured image captured by the photographing device to the terminal device in response to a reservation for shooting.
  • Information processing device Based on a plurality of shooting sample images taken at a plurality of different shooting locations, a shooting sample image list in which the plurality of shooting sample images are arranged is generated. When an arbitrary photographed sample image is selected from the photographed sample image list in the terminal device to which the photographed sample image list is transmitted, data for guiding the selected photographed sample image to the photographing place is provided. , An information processing method to be transmitted to the terminal device.
  • a shooting sample image list in which the plurality of shooting sample images are arranged is generated.
  • data for guiding the selected photographed sample image to the photographing place is obtained.
  • 11-1 to 11-N 11 shooting device, 12 server, 13 user terminal device, 14 store terminal device, 51 communication unit, 52 recording unit, 54 control unit, 81 communication unit, 82 recording unit, 83 input unit, 86 Shooting unit, 87 control unit, 88 display unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Strategic Management (AREA)
  • Human Computer Interaction (AREA)
  • Marketing (AREA)
  • Tourism & Hospitality (AREA)
  • Economics (AREA)
  • Finance (AREA)
  • General Business, Economics & Management (AREA)
  • Development Economics (AREA)
  • Automation & Control Theory (AREA)
  • Accounting & Taxation (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Primary Health Care (AREA)
  • Game Theory and Decision Science (AREA)
  • Health & Medical Sciences (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Studio Devices (AREA)

Abstract

本技術は、満足度の高い画像を得ることができるようにする情報処理装置および方法、並びにプログラムに関する。 情報処理装置は、互いに異なる複数の撮影場所で撮影された複数の撮影見本画像が並べられた撮影見本画像一覧を表示させ、撮影見本画像一覧のなかから任意の撮影見本画像が選択された場合、選択された撮影見本画像の撮影場所へと誘導する案内情報を提示させる制御部を備える。本技術は撮影システムに適用することができる。

Description

情報処理装置および方法、並びにプログラム
 本技術は、情報処理装置および方法、並びにプログラムに関し、特に満足度の高い画像を得ることができるようにした情報処理装置および方法、並びにプログラムに関する。
 例えば、ユーザが観光地や商業施設を訪れたときに、そのときの画像を撮影して保存しておきたいと思うことは多い。
 そこで、例えば施設内において、撮影の予約を行ったユーザの位置を検出し、ユーザが所定位置に存在する場合に、予約に応じた撮影を行う撮影システムが提案されている(例えば、特許文献1参照)。このような撮影システムでは、ユーザは撮影機器を持つことなく、自身を被写体とする画像を得ることができる。
特開2004-297191号公報
 しかしながら、上述した技術では、ユーザは撮影の予約時に撮影位置を選択することはできるが、予約した撮影位置に実際に行ってみたり、実際に撮影された画像を受け取ったりするまでは、どのような画像が得られるかをイメージすることは困難であった。そのため、必ずしもユーザが満足できる画像を得ることができないこともある。
 本技術は、このような状況に鑑みてなされたものであり、満足度の高い画像を得ることができるようにするものである。
 本技術の第1の側面の情報処理装置は、互いに異なる複数の撮影場所で撮影された複数の撮影見本画像が並べられた撮影見本画像一覧を表示させ、前記撮影見本画像一覧のなかから任意の前記撮影見本画像が選択された場合、選択された前記撮影見本画像の前記撮影場所へと誘導する案内情報を提示させる制御部を備える。
 本技術の第1の側面の情報処理方法またはプログラムは、互いに異なる複数の撮影場所で撮影された複数の撮影見本画像が並べられた撮影見本画像一覧を表示させ、前記撮影見本画像一覧のなかから任意の前記撮影見本画像が選択された場合、選択された前記撮影見本画像の前記撮影場所へと誘導する案内情報を提示させるステップを含む。
 本技術の第1の側面においては、互いに異なる複数の撮影場所で撮影された複数の撮影見本画像が並べられた撮影見本画像一覧が表示され、前記撮影見本画像一覧のなかから任意の前記撮影見本画像が選択された場合、選択された前記撮影見本画像の前記撮影場所へと誘導する案内情報が提示される。
 本技術の第2の側面の情報処理装置は、互いに異なる複数の撮影場所で撮影された複数の撮影見本画像に基づいて、複数の前記撮影見本画像が並べられた撮影見本画像一覧を生成する制御部と、前記撮影見本画像一覧の送信先の端末装置において、前記撮影見本画像一覧から任意の前記撮影見本画像が選択された場合、選択された前記撮影見本画像の前記撮影場所へと誘導するためのデータを、前記端末装置に送信する通信部とを備える。
 本技術の第2の側面の情報処理方法またはプログラムは、互いに異なる複数の撮影場所で撮影された複数の撮影見本画像に基づいて、複数の前記撮影見本画像が並べられた撮影見本画像一覧を生成し、前記撮影見本画像一覧の送信先の端末装置において、前記撮影見本画像一覧から任意の前記撮影見本画像が選択された場合、選択された前記撮影見本画像の前記撮影場所へと誘導するためのデータを、前記端末装置に送信するステップを含む。
 本技術の第2の側面においては、互いに異なる複数の撮影場所で撮影された複数の撮影見本画像に基づいて、複数の前記撮影見本画像が並べられた撮影見本画像一覧が生成され、前記撮影見本画像一覧の送信先の端末装置において、前記撮影見本画像一覧から任意の前記撮影見本画像が選択された場合、選択された前記撮影見本画像の前記撮影場所へと誘導するためのデータが、前記端末装置に送信される。
撮影システムの構成例を示す図である。 撮影サービスについて説明する図である。 撮影サービスについて説明する図である。 撮影サービスについて説明する図である。 撮影サービスについて説明する図である。 撮影サービスについて説明する図である。 撮影サービスについて説明する図である。 撮影サービスについて説明する図である。 撮影サービスについて説明する図である。 サーバの構成例を示す図である。 サーバで記録される情報について説明する図である。 ユーザ端末装置の構成例を示す図である。 選択処理および案内画像一覧提供処理を説明するフローチャートである。 撮影開始指示処理および撮影制御処理を説明するフローチャートである。 撮影画像取得処理および撮影画像提供処理を説明するフローチャートである。 選択処理および案内画像一覧提供処理を説明するフローチャートである。 撮影開始指示処理および撮影制御処理を説明するフローチャートである。 コンピュータの構成例を示す図である。
 以下、図面を参照して、本技術を適用した実施の形態について説明する。
〈第1の実施の形態〉
〈撮影システムの構成例〉
 本技術は、ユーザに対して、他のユーザを被写体として実際に撮影した画像の一覧を提示することで、簡単に満足度の高い画像を得ることができるようにするものである。
 図1は、本技術を適用した撮影システムの一実施の形態の構成例を示す図である。
 図1に示す撮影システムは、撮影装置11-1乃至撮影装置11-N、サーバ12、ユーザ端末装置13、および店舗端末装置14を有している。
 撮影装置11-1乃至撮影装置11-Nは、例えばカメラからなり、互いに異なる複数の撮影場所に固定されて設置されている。以下、撮影装置11-1乃至撮影装置11-Nを特に区別する必要のない場合、単に撮影装置11とも称することとする。
 例えば観光地や屋内または屋外の商業施設、屋外の散策エリアなど、ユーザが1日で周遊可能なエリアが対象エリアとされて、その対象エリア内の互いに異なる位置に撮影装置11が設置される。
 具体的には、例えば撮影装置11は、対象エリア内にある公園などの観光スポットにおける撮影に適した場所や、対象エリア内にある飲食店や雑貨店、衣料品店などの店舗内、学校や習い事の教室内など、様々な位置に設置されている。そして、撮影装置11が設置された位置が撮影場所となっている。
 例えば、撮影場所に設置された監視カメラや、観光地のある自治体等が設置したカメラ、観光地等にいる他のユーザのカメラなどを撮影装置11として利用することが考えられる。
 ここでは、1つの撮影場所に対して1つの撮影装置11が設置されている例について説明するが、1つの撮影場所に対して複数の撮影装置11が互いに異なる位置に設置されているようにしてもよい。そのような場合、1つの撮影場所で、互いに異なる複数の画角(アングル)の画像が得られることになる。
 撮影装置11は、サーバ12の制御に従って、撮影システムを利用するユーザを被写体とする画像(以下、撮影画像と称する)を撮影し、得られた撮影画像をサーバ12に供給する。なお、撮影画像は、静止画像であってもよいし、動画像であってもよい。
 サーバ12は、ユーザ端末装置13の要求に応じて撮影装置11に撮影画像を撮影させたり、撮影により得られた撮影画像をユーザ端末装置13に提供したりする。
 また、サーバ12は、ユーザ端末装置13の要求に応じて店舗端末装置14と通信し、撮影装置11が設置された店舗でのユーザに対するサービスの提供の予約を行う。
 ユーザ端末装置13は、例えば撮影システムにより提供される撮影サービスを利用するユーザが所持するスマートホンやタブレットなどの情報処理装置からなる。
 ユーザ端末装置13は、ユーザの操作に応じて、サーバ12に対して撮影装置11による撮影の予約を要求したり、サーバ12から撮影により得られた撮影画像の提供を受けたりする。
 店舗端末装置14は、例えば撮影装置11が設置された飲食店等の店舗が管理するパーソナルコンピュータ等の情報処理装置からなり、サーバ12との間で通信を行い、ユーザの予約に関する処理を行う。
 なお、以下では、説明を分かり易くするため、店舗端末装置14は、撮影装置11が設置された飲食店でのユーザによる飲食の予約を管理するものとして説明を続ける。
 また、ここでは撮影システムには店舗端末装置14が1つだけ設けられている例について説明するが、店舗端末装置14は複数あっても勿論よい。
 同様に、図1ではユーザ端末装置13が1つだけ図示されているが、実際には撮影サービスを利用するユーザは複数人おり、それらのユーザごとにユーザ端末装置13が存在している。
 さらに、ここでは撮影装置11が設置される対象エリアが1つである例について説明したが、複数の対象エリアが存在し、それらの対象エリアごとに撮影画像の撮影の制御(管理)が行われるようにしてもよい。
〈撮影サービスについて〉
 次に、図1に示した撮影システムにより提供される撮影サービスの概要について説明する。特に、ここでは対象エリアが観光地であるものとする。
 例えばユーザが観光地に到着して観光案内所を訪れたときに、ユーザは提示されたQR(Quick Response)コードを読み込ませるなどして、撮影サービスに必要なアプリケーションプログラムをユーザ端末装置13にダウンロードさせる。
 なお、これに限らず、ユーザはどのようにしてユーザ端末装置13にアプリケーションプログラムをダウンロードさせてもよく、またアプリケーションプログラムのダウンロードのタイミングも任意のタイミングとすることができる。
 ユーザがユーザ端末装置13を操作してアプリケーションプログラムを起動させると、ユーザ端末装置13には、例えば図2に示す案内画像一覧V11が表示される。
 この案内画像一覧V11には、様々なユーザを被写体として実際に撮影装置11により撮影された撮影画像が案内画像として並べられて表示されている。
 特に、案内画像一覧V11では、互いに異なる複数の撮影場所で撮影された複数の案内画像が、それらの案内画像の見映えや、撮影場所の人気度合いなどに応じた順番や大きさで並べられて表示されている。
 例えば案内画像が動画像、より詳細には動画像のサムネイル画像である場合には、ユーザはその案内画像を選択することで、案内画像としての動画像をストリーミング再生させることもできるようにしてもよい。
 案内画像一覧V11上の案内画像は、実際にその案内画像が撮影された撮影場所、すなわち撮影スポットや飲食店を紹介する画像である。
 ユーザは、一覧表示された複数の案内画像を見ながら、自身が実際に行ってみたいと思う撮影場所、つまり自身も撮影したいと思う案内画像を選択する。
 なお、以下では、ユーザが案内画像一覧から選択した案内画像を、特に選択案内画像とも称することとする。
 特に、ここでは案内画像一覧V11のなかから好みの案内画像を選択することで、ユーザは実際に自身が行ってみたい、撮影を行いたいなどと思う場所を具体的にイメージし、選択することができる。
 しかも、各撮影場所では、固定された撮影装置11により撮影が行われるので、ユーザは案内画像一覧V11から選択した案内画像と同じ画角(アングル)の撮影画像を得ることができる。すなわち、自身が選択した案内画像と近い撮影画像を得ることができる。
 さらに、ユーザは撮影画像の撮影時には、案内画像での他のユーザのポージングなども参考にすることができる。
 このように、ユーザは案内画像一覧V11から選択した案内画像の撮影場所に行って、撮影装置11により撮影画像を撮影するようにすれば、自身がイメージしたものと近い撮影画像、つまり満足度の高い画像を得ることができる。
 したがって、案内画像は、上述したように撮影場所を紹介する画像であるだけでなく、これからユーザが得られるであろう撮影画像の撮影見本(撮影例)となる撮影見本画像、すなわち撮影画像の作例である作例画像でもあるということができる。
 以上のように、ユーザは案内画像一覧V11で一覧表示されている複数の案内画像のなかから、1または複数の案内画像を選択案内画像として選択する。
 すると、ユーザ端末装置13には、例えば図3に示すように、ユーザが選択した選択案内画像が表示される画像表示領域R11と、選択案内画像が撮影された撮影場所へとユーザを誘導するための画像である地図が表示される地図表示領域R12とが設けられた表示画面が表示される。
 例えば、ユーザは画像表示領域R11に表示された選択案内画像を操作することで、その選択案内画像としての動画像を再生させることができる。
 また、例えばユーザは画像表示領域R11の選択案内画像に対してスワイプ操作を行うことで、他の選択案内画像を表示させたり、選択案内画像と同じ撮影場所で撮影された他の案内画像を表示させたりすることもできる。
 地図表示領域R12には、ユーザ(ユーザ端末装置13)の現在地から選択案内画像の撮影場所までのルートを示す地図が表示されている。ここでは、例えばユーザの現在位置や、選択案内画像の撮影場所を示すマークが地図上に表示されており、ユーザはそれらの位置関係を瞬時に把握することができるようになっている。
 なお、ここではユーザを撮影場所まで誘導するための案内情報として、地図情報が提示される例について説明する。しかし、これに限らず、ユーザに提示される案内情報は、ユーザを撮影場所へと誘導(案内)する音声情報や、ユーザ端末装置13の周囲を被写体として撮影された画像に重畳表示される、ユーザを撮影場所へと誘導する矢印等のAR表示の画像(AR画像)、音声情報と画像情報を組み合わせたものなど、どのようなものであってもよい。また、案内情報は、観光案内所にある端末装置など、ユーザ端末装置13とは異なる装置で提示されてもよい。
 ユーザは、選択案内画像の選択後、地図表示領域R12に表示された地図等を参照しながら、徒歩等により実際の撮影場所へと向かう。
 そして、ユーザ、すなわちユーザ端末装置13が選択案内画像の撮影場所の近くに位置した状態となると、例えばユーザ端末装置13には、ユーザ端末装置13を撮影場所(撮影スポット)の方向へとかざすように促す画面が表示される。
 ユーザがユーザ端末装置13を撮影場所に向けてかざすと、ユーザ端末装置13の周囲を被写体とする環境画像がユーザ端末装置13により撮影される。この環境画像には、撮影場所が被写体として含まれている。
 これにより、ユーザ端末装置13では、例えば図4に示すように環境画像と、その環境画像上に重畳されたAR(Augmented Reality)画像P11-1乃至AR画像P11-3とが表示される。
 この例では、AR画像P11-1乃至AR画像P11-3は、選択案内画像に対応する撮影場所の位置、その撮影場所における撮影画像の撮影時の画角、およびその撮影場所での撮影待ちの人数を表す画像となっている。
 具体的には、例えばAR画像P11-1は、環境画像における実空間に存在する噴水の図中、左奥側の位置に表示されており、その表示位置が撮影場所、つまり屋外の撮影スポットであることを表している。また、AR画像P11-1全体の領域は、撮影画像の画角内の領域、つまり撮影装置11の撮影視野の領域を表している。
 したがって、ユーザは、環境画像に重畳表示されたAR画像P11-1を見ることで、どこが撮影スポットであり、その撮影スポットでどのような画角(アングル)で撮影が行われるかを瞬時に把握することができる。
 さらに、AR画像P11-1に記された数字「6」は、AR画像P11-1に対応する撮影スポット(撮影場所)での撮影画像の撮影を待っている他のユーザの人数、つまり撮影待ちユーザの人数を表している。したがって、ユーザはAR画像P11-1を見ることで、どのくらいの待ち時間で自身の撮影の順番となるかを大まかに知ることができる。
 なお、ここではAR画像には撮影待ちの人数が表示される例について説明したが、撮影の待ち時間等を表示させるようにしてもよい。
 以下では、ユーザがユーザ端末装置13を撮影場所に向けてかざすことで、環境画像とAR画像を表示させている状態をAR表示状態とも称することとする。
 例えばユーザは、AR表示状態においてユーザ端末装置13を操作することで、AR画像に対応する撮影場所(撮影スポット)での撮影画像の撮影を予約することができる。
 なお、ここではAR表示状態であるときに撮影の予約が行われる例について説明するが、撮影の予約は、例えば図3に示したように選択案内画像や撮影場所までの地図などが表示されている状態のときに行われるなど、どのようなタイミングで行われてもよい。
 ユーザが所望の撮影スポット(撮影場所)での撮影を予約すると、ユーザ端末装置13には、例えば図5に示すようにストリーミング画面が表示される。
 図5の例では、ユーザ端末装置13上のストリーミング画面の図中、上側の画像表示領域R21には、ストリーミング画像が表示されている。
 この画像表示領域R21に表示されるストリーミング画像は、例えばユーザが撮影を予約した撮影スポットの現時点における撮影等の様子を示す動画像や、その撮影スポットでの撮影についての説明の動画像、予め用意された作例の動画像などである。
 なお、例えば撮影画像に対するエフェクトや、撮影時に表示されるUI(User Interface)画面など、撮影スポット(撮影場所)での撮影時のユーザ体験は、撮影スポットごとや、観光地等の対象エリアごとに異なっていてもよい。
 例えばストリーミング画像として、現時点における撮影スポットの様子を表示すれば、ユーザは、その撮影スポットで行われている他のユーザの撮影の様子、すなわち他のユーザを被写体とする撮影画像などを見て、自身の撮影の参考にすることができる。
 また、ストリーミング画面における画像表示領域R21の図中、下側の待ち人数表示領域R22には、撮影スポットでの撮影待ちの人数を示す数字「2」と、ユーザの撮影までの待ち時間を表すリング状のゲージとが表示されている。
 さらに、ユーザの撮影の番がくると、ユーザ端末装置13の表示はストリーミング画面から、例えば図6に示す撮影画面へと遷移する。
 この例では、撮影画面における図中、上側の画像表示領域R31には、現在、撮影装置11により実際に撮影されている撮影画像が表示されている。したがって、ユーザは適宜、画像表示領域R31を確認しながら撮影を行うことができる。
 また、撮影画面における画像表示領域R31の図中、下側には撮影時間表示領域R32が設けられている。
 この例では、撮影時間表示領域R32には撮影ボタンB11が設けられており、ユーザがこの撮影ボタンB11を押して撮影開始を指示すると、実際に撮影装置11により一定時間の間、撮影画像が撮影されてサーバ12に保存される。
 例えば撮影が開始されると、撮影ボタンB11の表示色が他の色から赤色となったり、撮影中である旨の文字メッセージ「RECRDING」が表示されたりするようになっており、ユーザは撮影画像の撮影中であることを容易に把握することができる。
 また、撮影時間表示領域R32では、撮影ボタンB11を囲むように撮影の残り時間を示すリング状のゲージが表示されており、ユーザはこのゲージを見ることで撮影の残り時間を容易に把握することができる。その他、撮影ボタンB11が撮影開始を指示するだけでなく、撮影終了を指示するためのボタンとしても用いられてもよい。
 以上のようにして撮影場所(撮影スポット)での撮影が終了すると、例えばユーザは任意のタイミングで図7に示す撮影画像の選択保存画面を表示させ、好みの撮影画像を保存(ダウンロード)することができる。
 図7に示す例では、選択保存画面には画像表示領域R41と一覧表示領域R42とが設けられている。
 一覧表示領域R42には、ユーザが1または複数の撮影場所で撮影して得られた撮影画像のサムネイル画像が並べられて表示されている。
 ここで、サムネイル画像は、1つの撮影画像に対して1つだけ表示されるようにしてもよいし、1つの撮影画像に対して複数表示されるようにしてもよい。
 また、ユーザが一覧表示領域R42に表示されているサムネイル画像を選択すると、その選択されたサムネイル画像に対応する撮影画像全体、またはサムネイル画像に対応する撮影画像の一部の時間区間(再生区間)が画像表示領域R41で再生される。
 ユーザは、一覧表示領域R42に対する操作を行うなどして、保存したい撮影画像や、保存したい撮影画像の区間などを選択すると、ユーザの操作に応じて撮影画像が保存される。すなわち、ユーザ端末装置13により保存用の撮影画像がサーバ12からダウンロードされる。
 なお、ここではユーザの操作に応じて撮影画像が保存される例について説明するが、その他、ユーザにより指定された撮影画像がSNS(Social Networking Service)等のWeb上のページでシェアされるようにしてもよい。
 また、上述したように、撮影画像の撮影場所は屋外等の撮影スポットの他、飲食店等の店舗内の専用ブースなどであってもよい。
 例えば図2に示した案内画像一覧V11から、ユーザが撮影サービスに対応している飲食店で提供された食べ物等を被写体とする案内画像を選択した場合、図3に示した選択案内画像や撮影場所までの地図が表示されている状態で店の予約ができるようにしてもよい。
 そのような場合、飲食店での飲食の予約と同時に、撮影画像の撮影の予約がされる。予約が完了すると、ユーザは図3の地図表示領域R12に表示された地図等を参照しながら、徒歩等により飲食店(撮影場所)へと向かう。
 ユーザが予約した飲食店では、例えば図8に示すように撮影装置11が固定的に設置された専用ブースが用意されており、ユーザはその専用ブースで飲食を行う。
 ここでは、例えばユーザが飲食を行っている間、撮影装置11により撮影が行われる。このとき、ユーザは自身が飲食物等の撮影を行う必要がないので、飲食や同行者との会話などに集中することができる。
 そして、ユーザは飲食中や飲食後などの任意のタイミングで、例えば図9に示すように、図7における場合と同様の選択保存画面をユーザ端末装置13に表示させ、撮影された撮影画像を確認したり、保存用の撮影画像を選択したりする。
 なお、図9において図7における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
 図9に示す例においても、ユーザは選択保存画面の一覧表示領域R42に表示されているサムネイル画像を選択するなどの操作を行い、画像表示領域R41で撮影画像を再生させたり、選択したサムネイル画像に対応する撮影画像を保存させたりする。
 以上のような撮影サービスによれば、ユーザが観光スポットや人気レストランなど、様々な場所を訪れたときに、ユーザがカメラ等の操作をすることなく、それらの場所でユーザが楽しんでいる状況を自動的に撮影し、保存しておくことができる。すなわち、ユーザからみれば、各撮影場所での撮影画像が自動撮影により得られることになる。
 また、撮影後には、撮りためられたプライベートな写真や動画像に対応する撮影画像を、ユーザが確認して個人使用のためにダウンロードしたり、SNSに投稿させたりすることができる。
 このとき、例えばユーザが自身の撮影画像を他人に公開してもよいと判断した場合には、ユーザの撮影画像をパブリックユースのものとして、観光案内所や所定のサイト等の公共閲覧サイトに提供して公開したりすることもできる。
 ここでは、撮影画像がパブリックユースのものとして、案内画像一覧で公開される。
 特に撮影サービスでは、例えば観光地やモール、特定地域等の散策エリアなど、ユーザが1日で周遊可能な程度の広さのエリアを対象エリアとし、その対象エリア内の撮影場所で撮影された撮影画像が案内画像として案内画像一覧に表示される。
 例えば図2乃至図9を参照して説明した撮影サービスでは、ユーザは案内画像一覧で公開された他のユーザの撮影画像をきっかけにして、撮影スポットや飲食店等を訪れる。
 ユーザが案内画像一覧から、自身が行きたいと思う撮影場所で撮影された案内画像を1または複数選択すると、その選択に応じて図3に示したような、選択案内画像に対応する撮影場所へと誘導するための地図が提示される。
 この地図では、例えばユーザ(ユーザ端末装置13)の現在地から、目的地である1または複数の撮影場所までのルートが示されている。
 なお、目的地が人気店舗等で既に行列ができている場合や、ユーザが目的地の1つであるレストランで食事をする場合などにおいては、適宜、AI(Artificial Intelligence)などを利用して、店舗に行く時間や食事をする時間、目的地を巡る順番などをユーザ端末装置13が決定してもよい。また、ユーザ端末装置13でAIなどを利用して、店舗での待ち時間や食事にかかる時間などが推定されて、ユーザに提示されるようにしてもよい。
 その他、図3に示した例では、目的地である撮影場所までのルートが地図上に提示される場合について説明したが、これに限らず撮影場所である撮影スポットや飲食店に関する情報が掲載されたウェブページ等のリンクやタグなどが表示されるようにしてもよい。
 さらに撮影システムの運営にあたっては、例えば店舗や観光促進組織、広告主、撮影サービスのプラットフォーマなどから、ユーザが撮影場所を訪れるきっかけとなった案内画像(撮影画像)を提供してくれた他のユーザに対し、インセンティブが付与されてもよい。
 ここでいうインセンティブとは、例えば割引ポイントやマイルポイントなどといった各種のポイント、クーポン、電子マネーなどである。
 撮影サービスを利用するユーザに対してインセンティブを付与すれば、各ユーザは自身の撮影画像が他のユーザに注目されるように、撮影時のポージングや飲食物を美味しそうに食べている状況の伝え方などを自然と工夫するようになる。
 これにより、他のユーザがその撮影場所に行ってみたいと思うような見映えのよい案内画像がより多く案内画像一覧で提示されるようになる。その結果、観光地やモール、散策エリアなどの対象エリアが活性化されるとともに、ユーザも案内画像を参考にして満足度の高い撮影画像を得ることができるので、撮影システムを常にアクティブに運営し続けることができるようになる。
〈サーバの構成例〉
 次に、以上において説明した撮影システムを構成するサーバ12とユーザ端末装置13の構成例について説明する。
 図10は、サーバ12の構成例を示す図である。
 サーバ12は、通信部51、記録部52、メモリ53、および制御部54を有している。
 通信部51はネットワークを介して撮影装置11やユーザ端末装置13、店舗端末装置14と通信を行う。すなわち、通信部51は、通信相手から送信されてきた情報を受信して制御部54に供給したり、制御部54から供給された情報を通信相手に送信したりする。
 記録部52は、例えば不揮発性のメモリなどからなり、撮影装置11により撮影された各ユーザの撮影画像等の各種の情報やプログラムなどを記録し、必要に応じて記録している情報を制御部54に供給する。
 メモリ53は、揮発性のメモリであり、制御部54から供給された情報を一時的に記録する。
 制御部54は、プロセッサなどからなり、サーバ12全体の動作を制御する。例えば制御部54は、撮影装置11での撮影を制御したり、記録部52に記録されている撮影画像に基づいて案内画像一覧を生成したりする。
 また、サーバ12の記録部52には、例えば図11に示す情報が記録される。
 図11に示す例では、記録部52には各ユーザを一意に識別するユーザIDと、そのユーザに対して付与されたインセンティブを示すインセンティブ情報とが対応付けられて記録されている。
 ここで、インセンティブ情報は、ユーザIDにより示されるユーザに対して付与されたインセンティブとしてのポイントや電子マネーの合計、つまりポイント数や電子マネーの残高などを示す情報である。
 また、記録部52には、撮影スポットや飲食店などの各撮影場所を識別する撮影場所IDと、その撮影場所に関するメタデータとが対応付けられて記録されている。
 撮影場所のメタデータには、その撮影場所に関する情報が掲載されたウェブページのURL(Uniform Resource Locator)や、撮影場所の位置を示す情報、撮影場所に対応する店舗端末装置14のアクセス先などの情報が含まれている。なお、撮影場所の位置を示す情報は、地図上の表示位置を示す情報であってもよいし、地球表面上における緯度や経度等の絶対的な位置を示す情報であってもよいし、それらの両方の位置を示す情報であってもよい。
 さらに、記録部52には、ユーザID、画像ID、撮影画像、撮影場所ID、参照回数情報、および訪問者数情報が対応付けられて記録されている。
 ここで、撮影画像は、その撮影画像に対応付けられているユーザIDにより示されるユーザが撮影サービスを利用したときに、撮影場所IDにより示される撮影場所で撮影された画像である。また、画像IDは、撮影画像を識別するID情報である。
 参照回数情報は、撮影画像が案内画像一覧において他のユーザにより選択案内画像として選択された回数、つまり他のユーザにより参照された参照回数を示す情報である。
 同様に、訪問者数情報は、撮影画像(案内画像)の提示に基づく撮影場所の訪問者数を示す情報である。より具体的には訪問者数情報は、撮影画像が選択案内画像として選択した後に、実際にその選択案内画像に対応する撮影場所を訪れたユーザの数(訪問者数)、つまり撮影画像を見たことをきっかけに実際に撮影場所で撮影を行ったユーザの数を示す情報である。
〈ユーザ端末装置の構成例〉
 また、ユーザ端末装置13は、例えば図12に示すように構成される。
 図12に示す例では、ユーザ端末装置13は通信部81、記録部82、入力部83、姿勢検出センサ84、現在位置情報取得部85、撮影部86、制御部87、および表示部88を有している。
 通信部81は、制御部87の制御に従って、ネットワークを介してサーバ12と通信を行う。例えば通信部81は、サーバ12から送信されてきた情報を受信して制御部87に供給したり、制御部87から供給された情報をサーバ12に送信したりする。
 記録部82は、例えば不揮発性のメモリからなり、撮影サービスのアプリケーションプログラムや撮影画像など、各種の情報を記録する。
 入力部83は、スイッチやボタン、表示部88に重畳されて設けられたタッチパネルなどからなり、ユーザの操作に応じた信号を制御部87に供給する。
 姿勢検出センサ84は、例えばジャイロセンサなどからなり、ユーザ端末装置13の姿勢を検出し、その結果得られた姿勢情報を制御部87に供給する。
 現在位置情報取得部85は、例えばGPS(Global Positioning System)モジュールなどからなり、ユーザ端末装置13、すなわちユーザ端末装置13を所持するユーザの現在位置を計測し、その結果得られた現在位置情報を制御部87に供給する。
 撮影部86は、カメラからなり、ユーザ端末装置13の周囲を被写体とする環境画像を撮影し、得られた環境画像を制御部87に供給する。
 制御部87は、プロセッサなどからなり、ユーザ端末装置13全体の動作を制御する。例えば、制御部87は記録部82に記録されているアプリケーションプログラムを実行し、撮影サービスに関する各種の処理を行う。
 また、制御部87は、各種の画像を表示部88に供給し、表示させる。表示部88は、例えば有機EL(Electro Luminescence)等の表示パネルなどからなり、制御部87の制御に従って各種の画像を表示する。
〈選択処理および案内画像一覧提供処理の説明〉
 続いて、ユーザ端末装置13とサーバ12の動作について説明する。
 まず、ユーザが案内画像一覧から選択案内画像を選択するときに行われる処理について説明する。
 すなわち、以下、図13のフローチャートを参照して、ユーザ端末装置13による選択処理、およびサーバ12による案内画像一覧提供処理について説明する。特に、ここでは撮影スポットの案内画像が選択案内画像として選択される場合について説明を行う。
 例えばユーザが入力部83を操作するなどして撮影サービスのアプリケーションプログラムを起動させると、ユーザ端末装置13による選択処理が開始される。
 ステップS11においてユーザ端末装置13の通信部81は、制御部87により生成され、制御部87から供給された案内画像一覧の送信要求をサーバ12に送信する。
 すると、サーバ12では、ステップS41において通信部51は、ユーザ端末装置13から送信されてきた送信要求を受信し、制御部54に供給する。
 ステップS42において制御部54は、通信部51から供給された送信要求に応じて案内画像一覧を生成する。
 すなわち、制御部54は、記録部52に記録されている複数の撮影画像のなかから、案内画像とするものを複数選択する。
 そして制御部54は、選択した複数の撮影画像を案内画像として所定の大きさや順番で並べることで案内画像一覧、より詳細には案内画像一覧を表示させるための画像情報を生成する。
 ここでは、例えばステップS11で送信される送信要求には、ユーザ端末装置13の所有者であるユーザのユーザIDや現在位置情報が含まれているようにしてもよい。
 そのような場合、例えば送信要求に含まれているユーザID以外の他のユーザIDと、送信要求に含まれている現在位置情報により示される位置に近い対象エリア内の撮影場所を示す撮影場所IDとが対応付けられている撮影画像が案内画像の候補として選択される。
 なお、ユーザ側で対象エリアを選択するようにし、制御部54では、ユーザにより指定された対象エリア内の撮影場所が対象とされて案内画像の候補が選択されてもよい。
 制御部54は、このようにして選択した案内画像の候補の一部または全部を案内画像(撮影見本画像)として選択し、選択された案内画像に基づいて案内画像一覧(撮影見本画像一覧)を生成する。
 このとき、制御部54は、例えば各撮影画像(案内画像画像)に対応付けられている参照回数情報や訪問者数情報、撮影場所の人気度、自治体等が定めた撮影場所の優先度、撮影画像の見映えの評価値、撮影場所での撮影待ち人数、ユーザの好みの画像との類似度、ユーザが過去に撮影を行った撮影場所との類似度、撮影画像に対するユーザの好みの度合いの推定値、季節、時間帯、および天候のうちの少なくとも何れか1つに基づいて、案内画像を選択したり、案内画像一覧における案内画像の大きさ(表示サイズ)や表示順(表示位置)を決定したりする。
 例えば参照回数情報により示される参照回数や、訪問者数情報により示される訪問者数が多いほど、表示サイズが大きく、また表示順が早くなるようにされる。
 これは、参照回数や訪問者数が多いほど、他のユーザからの見映えの評価が高く、また人気の高い撮影場所の案内画像であるといえるからである。
 なお、案内画像一覧においては表示順が早い案内画像ほど、より上方の位置、つまりよりユーザに見えやすい位置に表示される。
 また、例えば撮影場所の人気度や優先度が高い案内画像ほど、表示サイズが大きく、表示順も早くなるようにされる。
 撮影場所の人気度は、例えば記録部52に記録されている撮影画像の数に基づいて制御部54が決定する。この場合、記録されている撮影画像の数が多い撮影場所ほど、人気が高い撮影場所であるとすることができる。
 これに対して、撮影場所の優先度は、例えば観光案内所や観光地のある自治体、観光地等の管理団体、撮影場所のあるお店、撮影システムのスポンサーなど、対象エリアである観光地等にユーザを誘致する側(誘致者)が予め決定したものとすることができる。これにより、案内画像一覧にユーザを誘致する側の意図を反映させることができる。換言すれば、案内画像一覧に、撮影場所へと誘致する誘致側、つまり誘致者の意向(意図)が反映された案内画像を表示させることができる。
 さらに、例えば案内画像の見映えの評価値は、案内画像に対する構図や輝度分布、色合い、エッジ量等に関する解析処理を行い、その解析結果に基づいて算出することができる。
 この場合、見映えの評価値の高い案内画像、つまり見映えのよい案内画像ほど、表示サイズが大きく、また表示順が早くなるようにされる。
 また、例えば現時点での撮影待ち人数が多い撮影場所、換言すれば撮影までの待ち時間が長い撮影場所の案内画像は、その撮影待ち人数に応じて表示サイズが小さく、表示順も遅くなるようにされる。
 ここで、現時点での撮影待ち人数は、例えば現時点でメモリ53に記録されている、各撮影場所での撮影の予約に関する情報に基づいて得ることができる。
 その他、ユーザの好みの画像との類似度は、例えば案内画像と、ユーザが高く評価した画像との間の構図や輝度分布、色合い、エッジ量、被写体などの類似の度合いなどとすることができ、その類似度が高い案内画像ほど、表示サイズが大きく、表示順が早くなるようにされる。
 ここで、ユーザの好みの画像、つまりユーザが高く評価した画像とは、例えばユーザがSNSを利用して、他のユーザの画像に対して「いいね」など、高い評価を与えた画像である。このようなユーザの好みの画像は、例えばユーザが自身のユーザIDを用いて、サーバ12またはサーバ12とは異なる他のサーバにより提供されているSNSを利用している場合、そのSNSの記録等に基づいて特定することが可能である。
 なお、ユーザの好みの画像は、SNSによりウェブ上に掲載された画像に限らず、他のウェブページに掲載された画像など、ウェブ上に存在する画像であれば、どのような画像であってもよい。
 また、例えばユーザが過去に撮影を行った撮影場所との類似度が高い撮影場所の案内画像ほど、表示サイズが大きく、表示順が早くなるようにされる。
 例えば撮影場所IDから、公園や飲食店など、撮影場所がどのような場所であるかを特定することができるので、その特定結果から、案内画像の撮影場所と、記録部52に記録されているユーザの撮影画像の撮影場所との類似度を求めることができる。
 ユーザが過去に撮影を行った撮影場所は、ユーザの好みの撮影場所であるので、その撮影場所に類似する撮影場所は、ユーザが行ってみたい撮影場所である可能性が高い。そこで、そのような類似度の高い撮影場所の案内画像の表示サイズは大きく、表示順は早くなるようにされる。
 このようにユーザが過去に撮影を行った撮影場所との類似度やユーザの好みの画像との類似度に応じて案内画像の表示サイズや表示順を決定することは、案内画像一覧に、ユーザの趣向が反映された案内画像を表示させることであるといえる。
 その他、ユーザの趣向が反映された案内画像を選択する方法として、案内画像の候補となる撮影画像を入力とし、その撮影画像に対するユーザの好みの度合いの推定値を出力とする推定器を利用するようにしてもよい。
 そのような推定器は、例えばユーザが投稿した画像や閲覧した画像、「いいね」等の高い評価を与えた画像などのユーザによるSNSの利用履歴や、ユーザが過去に撮影を行った撮影場所等のユーザの過去の行動データなどに基づいて、ディープラーニングや機械学習等の学習により生成することができる。
 例えば制御部54では、案内画像の候補となる各撮影画像と、予め学習により得られた推定器とに基づいて、各撮影画像に対するユーザの好みの度合いの推定値を得る。そして、制御部54は、その推定値に基づいて案内画像を選択したり、各案内画像の表示位置や表示順を決定したりする。
 このとき、案内画像一覧においては、ユーザの好みの度合いの推定値が高い案内画像の表示サイズは大きく、表示順は早くなるようにされる。
 このように推定器を利用して案内画像を選択したり、案内画像の表示サイズや表示順を決定したりすることは、実質的に、ユーザが過去に撮影を行った撮影場所との類似度やユーザの好みの画像との類似度に応じて案内画像を選択したり、案内画像の表示サイズや表示順を決定したりすることと等価である。
 さらに、ユーザの好みの画像との類似度に応じて案内画像を選択したり、案内画像の表示サイズや表示順を決定したりするにあたり、ユーザの好む画像自体や、ユーザの好みの構図(アングル)、輝度分布、色合い、被写体などを、ユーザの過去の撮影画像やSNSへの投稿画像などから学習してもよい。この場合、学習結果と撮影画像とに基づいて、各撮影画像(案内画像)についてユーザの好みの画像との類似度が求められる。
 さらに、例えばステップS42の処理が行われる時点、すなわち現在の季節や時間帯、天候に近い季節や時間帯、天候のときに撮影された案内画像ほど、表示サイズが大きく、表示順が早くなるようにされる。
 なお、案内画像(撮影画像)が撮影された季節や時刻は、例えばその案内画像のメタデータに含まれる撮影年月日や撮影時刻から特定することができる。また、現時点での天候は、天候情報を提供するサーバ等にアクセスすることで得ることができる。
 例えば現在の季節や時間帯、天候に近い案内画像は、ユーザがこれから撮影を行ったときに得られる撮影画像に近い色合い等の画像であり、ユーザは案内画像を見れば、自身の撮影画像としてどのような画像が得られるのかを容易にイメージすることができる。
 したがって、そのような案内画像をより大きく、よりユーザに見えやすい位置に表示させることで、ユーザが自身の想像(イメージ)と近い撮影画像を得ることができる可能性が高くなり、ユーザの満足度を向上させることができる。
 その他、案内画像一覧とともに、現在または未来の季節や時間帯に応じたおすすめの撮影場所が提示されるようにしてもよい。
 そのような場合、例えばユーザが入力部83を操作するなどして、所望の日時等を指定するなどして季節や時間帯を選択すると、その選択された季節や時間帯に対して定められたおすすめの撮影場所を示す情報や、その撮影場所の案内画像が表示部88に表示される。
 また、案内画像一覧において、例えばお寺やレストラン、公園などといった案内画像の撮影場所の種別ごとに異なる表示形式で案内画像が表示されるようにしてもよい。具体的には、例えば案内画像の外側の枠が、その案内画像の撮影場所の種別に応じた色で表示されるようにすることができる。
 さらに、案内画像一覧に撮影場所の種別ごとの領域を設けるなどして、撮影場所の種別ごとにまとめて案内画像が表示されるようにしてもよい。その他、案内画像一覧は、ユーザ端末装置13において生成されるようにしてもよい。
 制御部54は、以上のようにして案内画像一覧を生成すると、得られた案内画像一覧を通信部51に供給し、その後、処理はステップS43へと進む。
 なお、より詳細には、案内画像一覧では案内画像に対して、その案内画像を示す画像IDが対応付けられており、案内画像一覧から選択された案内画像を画像IDにより特定可能となっているものとする。
 ステップS43において通信部51は、制御部54から供給された案内画像一覧をユーザ端末装置13に送信する。
 すると、ユーザ端末装置13では、ステップS12において通信部81は、サーバ12から送信されてきた案内画像一覧を受信し、制御部87に供給する。
 ステップS13において制御部87は、通信部81から供給された案内画像一覧(撮影見本画像一覧)を表示部88に供給し、表示部88に案内画像一覧を表示させる。これにより、例えば図2に示した案内画像一覧V11が表示される。
 案内画像一覧が表示されると、ユーザは入力部83を操作して、その案内画像一覧のなかから、所望の案内画像を選択案内画像として選択する。
 ステップS14において制御部87は、ユーザの選択操作に応じて入力部83から供給される信号に基づいて、表示部88に表示されている案内画像一覧のなかから、ユーザにより選択された案内画像を選択案内画像として選択する。そして、制御部87は、選択案内画像の画像IDを通信部81に供給する。
 ステップS15において通信部81は、制御部87から供給された選択案内画像の画像IDをサーバ12に送信する。
 すると、サーバ12では、ステップS44において通信部51は、ユーザ端末装置13から送信されてきた画像IDを受信して制御部54に供給する。
 ステップS45において制御部54は、通信部51から供給された画像IDに対応付けられて記録部52に記録されている参照回数情報を更新する。すなわち、参照回数情報により示される参照回数が1だけインクリメントされる。
 なお、選択案内画像が選択された時点で、参照回数情報が更新されるだけでなく、ユーザに対して所定のインセンティブが付与されてインセンティブ情報も更新されるようにしてもよい。
 また、参照回数情報が更新されると、制御部54は、ステップS44で受信された画像IDに対応付けられた撮影場所IDを記録部52から読み出すとともに、その撮影場所IDに対応付けられて記録部52に記録されているメタデータも読み出して、それらの撮影場所IDとメタデータを通信部51に供給する。このようにして読み出されたメタデータは、選択案内画像の撮影場所のメタデータである。
 ステップS46において通信部51は、制御部54から供給された撮影場所IDとメタデータをユーザ端末装置13に送信し、案内画像一覧提供処理は終了する。
 このように、サーバ12では、案内画像一覧の送信先であるユーザ端末装置13において選択案内画像が選択された場合、その選択案内画像の撮影場所へとユーザを誘導するための地図の表示に必要となるメタデータをユーザ端末装置13に送信する。
 また、ユーザ端末装置13では、ステップS16において通信部81は、サーバ12から送信されてきた撮影場所IDとメタデータを受信して制御部87に供給する。
 制御部87は、通信部81から供給された撮影場所IDおよびメタデータと、案内画像一覧とに基づいて、選択案内画像と、その選択案内画像の撮影場所までのルートを示す地図とを表示させる画像情報を生成する。
 ステップS17において制御部87は、生成した画像情報を表示部88に供給し、選択案内画像と、その選択案内画像の撮影場所までのルートを示す地図を表示させる。これにより、例えば図3に示した表示画面が表示部88に表示される。また、制御部87は、案内情報として撮影場所へと誘導する音声情報がある場合には、その音声情報に基づいて図示せぬスピーカから音声を出力させることで、音声情報をユーザに提示させる。
 例えば図3に示した例では、地図表示領域R12には、ユーザの現在地から選択案内画像の撮影場所までのルートを示す地図が表示される。
 この場合、ユーザの現在地は、現在位置情報取得部85から供給される現在位置情報により特定可能であり、地図上における撮影場所の表示位置は、その撮影場所のメタデータから特定可能である。
 また、例えばユーザの現在位置から撮影場所までの間の位置など、撮影場所の周囲に、自治体等のおすすめの他の撮影場所などがあるときには、地図表示領域R12の地図上に、そのおすすめの撮影場所を表すマークや、おすすめである旨の画像等も表示させてもよい。そのような場合、例えばステップS46では、おすすめの撮影場所の撮影場所IDとメタデータも送信されるようにすればよい。
 その他、ステップS17で表示画面を表示させるための画像情報は、ユーザ端末装置13側ではなく、サーバ12側で生成されるようにしてもよい。
 なお、ユーザの現在地から選択案内画像の撮影場所までのルートの提示にあたっては、各撮影場所での撮影の待ち時間、各撮影場所での必要な滞在時間、現在の時間帯や季節、天候に基づいて適切なルートを制御部87または制御部54が決定するようにしてもよい。
 例えば、冬の夕方などの時間帯においては、イルミネーション装飾された道を通って撮影場所に向かうルートを提示するなどすれば、ユーザは撮影や観光、散策などをより楽しむことができる。
 ステップS17の処理が行われ、選択案内画像と地図が表示されると、選択処理は終了する。
 以上のようにしてユーザ端末装置13は、案内画像一覧を表示させ、その案内画像一覧から選択案内画像を選択し、撮影場所までのルートを示す地図等を表示させる。
 また、サーバ12は、案内画像一覧を生成してユーザ端末装置13に送信するとともに、ユーザにより選択された選択案内画像の撮影場所の撮影場所IDとメタデータも送信する。
 このようにすることで、ユーザは案内画像一覧から自分が行きたいと思う撮影場所等の案内画像を選択し、その撮影場所へと向かうことができる。つまり、実際に撮影場所で撮影された案内画像から興味があるものを選択し、その案内画像の撮影場所へと向かうことができる。
 したがって、例えばユーザが実際に撮影場所に行ったり、撮影により得られた撮影画像を見たりしたときに、自身のイメージと違うと感じてしまうことが生じないようにし、ユーザのイメージ通りの撮影画像を得ることができるようになる。すなわち、より満足度の高い撮影画像を得ることができるようになる。
〈撮影開始指示処理および撮影制御処理の説明〉
 また、例えば図3の表示画面が表示されている状態で、ユーザが選択案内画像の撮影場所へと向かって歩いている間、ユーザ端末装置13の制御部87は、現在位置情報取得部85から逐次供給される現在位置情報と、撮影場所のメタデータとに基づいて、ユーザの撮影場所への接近を検出する。
 例えば、選択案内画像の撮影場所からユーザ(ユーザ端末装置13)までの距離が所定距離以下となると、制御部87は、AR表示状態への移行を促すポップアップの表示を制御する。
 すなわち、制御部87は表示部88を制御し、表示部88にAR表示状態への移行を促すポップアップ画像を表示させる。
 この表示に応じてユーザが入力部83を操作したり、ユーザ端末装置13を撮影場所の方向にかざしたりするとAR表示状態へと移行し、ユーザ端末装置13では、撮影開始指示処理が開始される。また、これに応じてサーバ12では撮影制御処理が開始される。
 以下、図14のフローチャートを参照して、ユーザ端末装置13による撮影開始指示処理と、サーバ12による撮影制御処理について説明する。なお、ここでも選択案内画像の撮影場所は撮影スポットである場合について説明を行う。
 撮影開始指示処理が開始されると、ユーザ端末装置13では、ステップS71において通信部81は、撮影場所(撮影スポット)での撮影待ちの人数を示す撮影待ち人数情報の送信要求をサーバ12に送信する。
 例えば制御部87は、ユーザ(ユーザ端末装置13)の近くにある選択案内画像の撮影場所の撮影場所IDを含む、撮影待ち人数情報の送信を要求する送信要求を生成し、通信部81に供給する。そして、通信部81は、制御部87から供給された送信要求をサーバ12へと送信する。
 すると、サーバ12では、ステップS101において通信部51は、ユーザ端末装置13から送信されてきた送信要求を受信し、制御部54に供給する。
 ステップS102において制御部54は、通信部51から供給された送信要求に応じて、その送信要求に含まれている撮影場所IDにより示される撮影場所について、現在の撮影待ちのユーザの人数を示す撮影待ち人数情報を生成し、通信部51に供給する。
 例えば制御部54は、各撮影場所について、その撮影場所の撮影場所IDに対して、撮影の予約が行われたユーザのユーザIDを撮影順に並べて対応付けたものを撮影順情報としてメモリ53に記録させている。
 ここでは、制御部54は、撮影順情報に含まれているユーザIDの数を示す情報を撮影待ち人数情報として生成する。
 ステップS103において通信部51は、制御部54から供給された撮影待ち人数情報をユーザ端末装置13に送信する。
 すると、ユーザ端末装置13では、ステップS72において通信部81は、サーバ12から送信されてきた撮影待ち人数情報を受信し、制御部87に供給する。
 制御部87は、通信部81から供給された撮影待ち人数情報や、選択案内画像に対応する撮影場所のメタデータ、姿勢検出センサ84からの姿勢情報、現在位置情報取得部85からの現在位置情報、撮影部86からの環境画像などに基づいて、AR画像が重畳された環境画像を生成する。
 例えば現在位置情報や姿勢情報と、撮影場所のメタデータとから、環境画像上における撮影場所(撮影スポット)の領域を特定することができるので、その特定結果に基づいて、環境画像にAR画像が重畳される。
 ステップS73において制御部87は、AR画像が重畳された環境画像を表示部88に供給し、表示させる。これにより、例えば図4に示したAR画像が環境画像に重畳されて表示され、AR表示状態となる。
 このようなAR画像を見ることで、ユーザは撮影を行ったときに得られる撮影画像をより具体的にイメージすることができる。しかも、ユーザはAR画像を見ながら、最終的に撮影を行う撮影場所を決定することができるので、効率よく撮影を行ったり、複数の撮影スポットを効率よく訪れたりすることができる。
 また、AR表示状態でユーザが入力部83を操作して所望の撮影場所(撮影スポット)を指定し、その撮影場所での撮影の予約を指示すると、入力部83から制御部87にはユーザの操作に応じた信号が供給される。
 ステップS74において制御部87は、入力部83から供給された信号に応じて、指定された撮影場所での撮影を予約する旨の撮影予約情報を生成し、通信部81に供給する。
 この撮影予約情報には、例えば予約者であるユーザを示すユーザIDと、撮影を予約する撮影場所を示す撮影場所IDとが含まれている。
 ステップS75において通信部81は、制御部87から供給された撮影予約情報をサーバ12に送信する。
 すると、サーバ12では、ステップS104において通信部51は、ユーザ端末装置13から送信されてきた撮影予約情報を受信して制御部54に供給する。
 ステップS105において制御部54は、通信部51から供給された撮影予約情報に基づいてユーザの撮影予約を行う。
 具体的には制御部54は、メモリ53に記録されている撮影順情報のうち、撮影予約情報に含まれているものと同じ撮影場所IDが含まれている撮影順情報に対して、撮影予約情報に含まれているユーザIDを付加することで、撮影順情報を更新する。これにより、撮影場所でのユーザの撮影が予約された状態となる。
 また、制御部54は、撮影予約情報に応じて撮影の予約を行った撮影場所についてストリーミング画像を生成し、通信部51に供給する。
 ここでは、例えば撮影の予約がされた撮影場所で現在撮影されている撮影画像や、その撮影場所での撮影の説明の動画像などがストリーミング画像として生成される。なお、現在撮影されている撮影画像は、通信部51を介して撮影装置11から取得される。
 ステップS106において通信部51は、制御部54から供給されたストリーミング画像をユーザ端末装置13に送信し、その後、処理はステップS107へと進む。
 また、ユーザ端末装置13では、ステップS76において通信部81は、サーバ12から送信されてきたストリーミング画像を受信し、制御部87に供給する。
 制御部87は、通信部81から供給されたストリーミング画像と、ステップS72で受信した撮影待ち人数情報とに基づいてストリーミング画面を表示させるための画像情報を生成する。
 ステップS77において制御部87は、生成した画像情報を表示部88に供給し、表示部88にストリーミング画像を含むストリーミング画面を表示させる。これにより、例えば図5に示したストリーミング画面が表示される。
 なお、ストリーミング画面の表示時には、ユーザ端末装置13は、適宜、サーバ12と通信して、最新の撮影待ち人数情報を取得し、ストリーミング画面における撮影待ちの人数や撮影までの待ち時間を表すゲージの表示を更新する。
 一方、サーバ12では、ステップS106でストリーミング画像が送信されると、その後、制御部54は、撮影装置11による他のユーザの撮影が終了するたびにメモリ53に記録されている撮影順情報を更新していく。
 そして、制御部54はユーザの撮影の順番となったとき、ユーザが撮影可能となった、つまりユーザの撮影の番がきた旨の撮影権情報を生成し、通信部51に供給する。
 ステップS107において通信部51は、制御部54から供給された撮影権情報をユーザ端末装置13に送信する。
 なお、ステップS107では、撮影が行われる撮影場所に設置された撮影装置11により撮影された画像が、スルー画像として撮影権情報とともにユーザ端末装置13に送信されるようにしてもよい。
 また、ユーザ端末装置13では、ステップS78において通信部81は、サーバ12から送信されてきた撮影権情報を受信して制御部87に供給する。
 制御部87は、通信部81から撮影権情報が供給されると、撮影権情報に応じて、撮影画面を表示させるための画像情報を生成する。
 また、制御部87は、生成した画像情報を表示部88に供給し、表示部88に撮影画面を表示させる。これにより、例えば図6に示した撮影画面が表示される。
 撮影画面が表示されると、例えばユーザは入力部83を操作することで、撮影画面上の撮影ボタンを押すなどして撮影開始を指示する。すると、制御部87は、ユーザの操作に応じて入力部83から供給された信号に応じて、撮影開始を指示する旨の撮影トリガを生成し、通信部81に供給する。
 ステップS79において通信部81は、制御部87から供給された撮影トリガをサーバ12に送信し、撮影開始指示処理は終了する。
 また、サーバ12では、ステップS108において通信部51は、ユーザ端末装置13から送信されてきた撮影トリガを受信して制御部54に供給する。
 ステップS109において制御部54は、通信部51から供給された撮影トリガに応じて、撮影装置11による撮影を制御する。
 すなわち、制御部54は、撮影を開始する旨の制御信号を通信部51により、ユーザがいる撮影場所の撮影装置11に送信し、撮影を開始させる。
 すると、撮影装置11は、ユーザを被写体として撮影を行い、得られた撮影画像をサーバ12に送信してくるので、通信部51は送信されてきた撮影画像を受信して制御部54に供給する。
 なお、ここではユーザによる操作をトリガとして撮影が開始される例について説明したが、撮影権情報の送信後、一定時間が経過したら撮影が開始されるようにしてもよい。そのような場合、例えば図6に示した撮影画面において撮影開始までの時間をカウントダウン形式で表示することもできる。
 その他、制御部54が撮影装置11で撮影されたスルー画像に対して顔認識等を行い、ユーザの顔や人の顔が検出されたときや、スルー画像に付随する音声から任意の人の声や、特定のキーワードが検出されたときに撮影が開始されるようにしてもよい。
 また、撮影終了のタイミングは、撮影開始から一定時間経過したときや、ユーザから撮影終了の指示があったときなど、どのようなタイミングであってもよい。さらにユーザの撮影が終了すると、制御部54はメモリ53に記録されている撮影順情報を更新する。
 撮影が終了し、撮影画像が得られると、その後、ステップS110の処理が行われる。
 すなわち、ステップS110において制御部54は、通信部51を介して撮影装置11から供給された撮影画像に対する編集処理を行う。
 例えば撮影画像にユーザ以外の通行人等の他人が含まれている場合、制御部54は、撮影画像における他人の領域をぼかす処理を施したり、他人の領域を他の時刻の撮影画像の同じ領域の画像に置き換えることで、他人を除去したりする処理を編集処理として行う。
 また、例えば撮影画像が動画像である場合には、制御部54が、撮影画像におけるぶれやぼけが発生している区間、ユーザが画角外にはみだしている区間などを切り出して削除する処理を編集処理として行ってもよい。
 さらに、例えば制御部54が、撮影画像としての動画像におけるハイライトシーンとなる区間のみを切り出して接続し、最終的な撮影画像とする処理を編集処理として行ってもよい。この場合、例えば撮影画像における音声が所定レベル以上である区間や、被写体の動きが大きい区間、ユーザの笑顔が検出された区間、所定のイベントが検出された区間などがハイライトシーンの区間として切り出されるようにすることができる。
 その他、例えば制御部54が撮影画像としての動画像から、複数の動画像や静止画を切り出して接続し、それらの動画像や静止画像がアルバムのようにスライドショー再生される動画像を最終的な撮影画像として生成する処理を編集処理として行ってもよい。
 以上のような編集処理を行うことで、より見映えのよい撮影画像を得ることができ、ユーザの満足度を向上させることができる。
 ステップS111において制御部54は、編集後の撮影画像に対して、その撮影画像を示す画像IDを付与するとともに、ユーザID、画像ID、編集後の撮影画像、撮影場所ID、参照回数情報、および訪問者数情報を対応付けて記録部52に供給し、記録させる。
 この場合、参照回数情報により示される参照回数は0とされ、訪問者数情報により示される訪問者数も0とされる。
 ステップS112において制御部54は、ユーザが撮影を行うきっかけとなった選択案内画像のユーザに対してインセンティブを付与する。
 すなわち、制御部54は、図13のステップS44で受信された画像IDに対応付けられているユーザIDを特定し、そのユーザIDに対応付けられているインセンティブ情報を更新することによりインセンティブの付与を行う。
 また、制御部54は、図13のステップS44で受信された画像IDに対応付けられている訪問者数情報により示される訪問者数を1だけインクリメントすることで、訪問者数情報を更新する。
 なお、インセンティブの付与、すなわちインセンティブ情報の更新は、撮影予約が完了した時点で行われるようにしてもよいし、選択案内画像が選択された時点で行われるようにしてもよい。
 また、例えば選択案内画像として選択されたが撮影までは行われなかった場合でもインセンティブは付与されるが、そのような場合には撮影まで行われたときよりも付与されるインセンティブが少なくなるようにしてもよい。
 さらに、選択案内画像のユーザに対して付与されるインセンティブは、その選択案内画像に対応付けられている参照回数情報により示される参照回数や、訪問者数情報により示される訪問者数など、撮影サービスに対するユーザの貢献度合いに基づいて決定されてもよい。
 その他、例えば撮影場所が飲食店等の店舗である場合には、選択案内画像をきっかけとして来店し、撮影を行ったユーザがその店舗に対して支払った金額などといった、撮影場所で提供されるサービスの利用結果に応じて、付与されるインセンティブが決定されるようにしてもよい。
 さらに、例えば選択案内画像のユーザがSNSを利用していたり、その選択案内画像がSNSに掲載(アップ)されていたりすることもある。そのような場合には、例えばユーザのフォホロワー数や、SNSで掲載された選択案内画像に対して「いいね」等の高評価を行った人の数に応じて、付与されるインセンティブが決定されるようにしてもよい。
 以上のように制御部54は、例えば参照回数情報、訪問者数情報、サービスの利用結果、SNSのフォホロワー数、および選択案内画像に対して高評価をしたユーザ数のうちの少なくとも何れか1つに基づいて、ユーザに付与するインセンティブを決定する。
 このように、撮影場所を訪れるきっかけとなる案内画像の提供者に対してインセンティブを付与することで、各ユーザの撮影意欲を増加させるとともに、撮影システムの利用者数の増加を図ることができ、さらには対象エリアの活性化も図ることができる。
 ユーザが撮影を行うきっかけとなった選択案内画像の提供者(ユーザ)に対してインセンティブが付与されると、撮影制御処理は終了する。
 以上のようにしてユーザ端末装置13は、撮影場所や撮影待ち人数を示すAR画像を環境画像に重畳して表示するとともに、撮影予約情報や撮影トリガをサーバ12に送信する。また、サーバ12は、撮影予約情報に応じて撮影の予約を行うとともに、撮影トリガに応じて撮影制御を行う。
 このようにすることで、ユーザはAR画像が重畳された環境画像を見るなどして、実際に撮影をしたいと思う撮影場所を選択し、撮影を行うことができる。これにより、満足度の高い撮影画像を得ることができる。
 また、このような撮影システムでは、ユーザは自身が撮影時の構図を決めたり、撮影の設定を行ったりするなどの動作を行う必要がなく、撮影時のポージングや観光、飲食等に集中し、楽しむことができる。
 さらに、サーバ12側で複数のユーザの撮影を制御するため、効率よく撮影を行って混雑を緩和することができるだけでなく、各ユーザの撮影が他のユーザの通行等の邪魔になってしまうことを抑制することができる。
〈撮影画像取得処理および撮影画像提供処理の説明〉
 ところで、1または複数の撮影場所でユーザが撮影を行うと、その後、ユーザは任意のタイミングで撮影された撮影画像をサーバ12からユーザ端末装置13にダウンロードすることが可能である。撮影画像のダウンロードのタイミングは、例えば撮影直後であってもよいし、ユーザが対象エリアを散策し終えたときなど、どのようなタイミングでもよい。
 ユーザは、撮影画像をダウンロードする場合、撮影画像の選択保存画面をユーザ端末装置13に表示させる。
 この場合、サーバ12の制御部54は、ユーザ(ユーザ端末装置13)からの要求に応じて、ユーザを示すユーザIDに対応付けられた撮影画像に基づいて、選択保存画面の画像情報を生成し、通信部51によりユーザ端末装置13に送信する。
 すると、ユーザ端末装置13では、通信部81がサーバ12から送信されてきた選択保存画面の画像情報を受信し、制御部87に供給する。
 また、制御部87は、通信部81から供給された画像情報を表示部88に供給し、表示部88に選択保存画面を表示させる。これにより、例えば図7に示した選択保存画面が表示される。
 このようにして選択保存画面が表示されると、ユーザ端末装置13では撮影画像をダウンロードする撮影画像取得処理が行われ、サーバ12ではユーザ端末装置13の要求に応じて撮影画像提供処理が行われる。
 以下、図15のフローチャートを参照して、ユーザ端末装置13により行われる撮影画像取得処理、およびサーバ12により行われる撮影画像提供処理について説明する。
 ステップS141においてユーザ端末装置13の通信部81は、撮影画像の閲覧要求をサーバ12に送信する。
 例えば表示部88に表示された選択保存画面には、ユーザの撮影画像のサムネイル画像が一覧表示されており、任意のサムネイル画像を指定することで、そのサムネイル画像に対応する撮影画像の区間を閲覧することができる。
 また、より詳細には、選択保存画面では、各サムネイル画像に対して、そのサムネイル画像に対応する撮影画像の画像IDやサムネイル画像に対応する撮影画像の区間を示す情報が対応付けられている。
 ユーザは、ダウンロードする撮影画像を選択するために、入力部83を操作して閲覧(再生)しようと思う撮影画像のサムネイル画像を選択する。
 制御部87は、入力部83から供給された信号に応じて、サムネイル画像に対応する画像IDや区間を示す情報を含む閲覧要求を生成し、通信部81に供給する。通信部81は、制御部87から供給された閲覧要求をサーバ12へと送信する。
 すると、サーバ12では、ステップS171において通信部51は、ユーザ端末装置13から送信されてきた閲覧要求を受信して制御部54に供給する。
 制御部54は、通信部51から供給された閲覧要求に応じて、記録部52から送信が要求された撮影画像を読み出すとともに、必要に応じて撮影画像における閲覧要求により示される区間を切り出して通信部51に供給する。
 ステップS172において通信部51は、制御部54から供給された撮影画像をユーザ端末装置13に送信する。この場合、撮影画像がユーザ端末装置13に対してストリーミング配信される。
 また、ユーザ端末装置13では、ステップS142において通信部81は、サーバ12から送信されてきた撮影画像を受信し、制御部87に供給する。
 ステップS143において制御部87は、通信部81から供給された撮影画像を表示部88に供給し、撮影画像を表示させる。
 これにより、例えば図7に示した選択保存画面の画像表示領域R41において、ステップS142で受信された撮影画像がストリーミング形式で再生される。
 ユーザは、適宜、サムネイル画像に対応する撮影画像を再生して確認しながら、ダウンロードする、つまり保存する撮影画像を入力部83を操作することにより選択する。このとき、撮影画像の一部の区間のみを保存用の撮影画像として選択することも可能である。
 なお、ユーザ端末装置13側において撮影画像に対する編集処理が行われるようにしてもよい。そのような場合、例えば制御部87により、図14のステップS110における場合と同様の編集処理が行われる。
 さらに、制御部87がユーザの操作に応じて、撮影画像に対してトリミングや色調補正などの編集処理も行うようにしてもよい。
 保存用の撮影画像を選択する操作が行われると、ステップS144において制御部87は、入力部83から供給された信号に応じて、保存用の撮影画像と、その撮影画像の保存する区間を選択し、その選択結果を示す選択情報を生成する。また、制御部87は、生成した選択情報を通信部81に供給する。
 例えば選択情報には、ユーザにより選択された保存用の撮影画像の画像IDや、その撮影画像の保存する区間を示す情報が含まれている。なお、ユーザは一度に複数の撮影画像を選択することもできるし、撮影画像の複数の区間を選択することもできる。
 ステップS145において通信部81は、制御部87から供給された選択情報をサーバ12に送信する。
 すると、サーバ12では、ステップS173において通信部51は、ユーザ端末装置13から送信されてきた選択情報を受信して制御部54に供給する。
 ステップS174において制御部54は、通信部51から供給された選択情報と、記録部52に記録されている編集済みの撮影画像とに基づいて、保存用の撮影画像を生成する。
 ここでは、例えば図14のステップS111で記録された編集済みの撮影画像のうち、選択情報により示される撮影画像が選択され、その選択された撮影画像から、必要に応じて選択情報により示される区間が切り出されて保存用の撮影画像とされる。
 ステップS175において制御部54は、生成した保存用の撮影画像を記録部52に供給し、記録させる。ここでは、図14のステップS111で記録された編集済みの撮影画像が、ステップS174で生成された保存用の撮影画像に置き換えられて記録される。また、制御部54は、生成された保存用の撮影画像を通信部51に供給する。
 ステップS176において通信部51は、制御部54から供給された保存用の撮影画像をユーザ端末装置13に送信し、撮影画像提供処理は終了する。
 また、ユーザ端末装置13では、ステップS146において通信部81は、サーバ12から送信されてきた保存用の撮影画像を受信して制御部87に供給する。
 ステップS147において制御部87は、通信部81から供給された保存用の撮影画像を記録部82に供給して記録させ、撮影画像取得処理は終了する。これにより、保存用の撮影画像がダウンロードされたことになる。
 以上のようにしてユーザ端末装置13は、保存用とする撮影画像を選択して選択情報を送信することで、サーバ12から保存用の撮影画像をダウンロードする。また、サーバ12は、ユーザ端末装置13により選択された撮影画像を送信する。
 このようにすることで、ユーザは、撮りためた撮影画像のなかから、自身が気に入ったものを保存用としてダウンロードし、保存することができる。
 なお、ここでは撮影画像をダウンロードする例について説明したが、保存用の撮影画像をユーザのSNSのページにアップ(掲載)することができるようにしてもよい。
 具体的には、例えばサーバ12の制御部54が、保存用の撮影画像を自身が管理しているSNSのユーザのページにアップしたり、保存用の撮影画像を通信部51により他のサーバに送信し、他のサーバが管理するSNSのユーザのページに保存用の撮影画像をアップさせたりしてもよい。
 また、サーバ12ではなく、ユーザ端末装置13の通信部81がサーバ12や他のサーバに保存用の撮影画像を送信することで、SNSのユーザのページに保存用の撮影画像をアップさせるようにしてもよい。
 このように、保存用の撮影画像をSNSでも閲覧できるようにするときには、例えばSNSのページを見た他のユーザが、そのページに掲載されている撮影画像を指定することで、案内画像一覧から所望の案内画像を選択した場合と同じサービスを受けることができるようにしてもよい。
 そのような場合、例えばユーザ端末装置13の制御部87や、サーバ12の制御部54は、撮影画像と、その撮影画像の画像IDや図3に示した地図表示領域R12の地図を表示させるためのURL等の必要な情報とが対応付けられてSNSのユーザのページに掲載されるように、撮影画像等の送信や撮影画像の掲載の要求等の制御を行う。
 そうすれば、例えばSNSのユーザのページを閲覧している他のユーザ(閲覧者)が、そのページに掲載されている撮影画像を指定したときに、閲覧者のユーザ端末装置13では、画像IDやURL等に基づいてサーバ12にアクセスすることができる。
 すると、閲覧者(他のユーザ)のユーザ端末装置13とサーバ12との間では、例えば図13を参照して説明した選択処理のステップS15乃至ステップS17の処理、およびステップS44乃至ステップS46の処理と同様の処理が行われる。
 これにより、例えば閲覧者のユーザ端末装置13には、図3に示した表示画面が表示された状態となり、それ以降においては図14や図15を参照して説明した処理が行われて、閲覧者も撮影場所での撮影を行うことができる。
 このようにすることで、SNSの閲覧者も撮影サービスを利用するように誘導することができるとともに、さらなる対象エリアの活性化も図ることができる。
〈選択処理および案内画像一覧提供処理の説明〉
 また、以上においては撮影場所が屋外等の撮影スポットである場合について説明したが、撮影場所が飲食店等の店舗である場合でも、ユーザに対して満足度の高い撮影画像を提供することができる。この場合、撮影画像は、ユーザが被写体として含まれているもののほか、ユーザに提供された飲食物のみの画像などとされてもよい。
 以下では、撮影場所が飲食店である場合を例として説明を行う。そのような場合、例えばユーザ端末装置13とサーバ12では、図16に示す処理が行われる。
 以下、図16のフローチャートを参照して、ユーザ端末装置13による選択処理、およびサーバ12による案内画像一覧提供処理について説明する。
 なお、ステップS201乃至ステップS205、およびステップS241乃至ステップS245の処理は、図13のステップS11乃至ステップS15、およびステップS41乃至ステップS45の処理と同様であるので、その説明は省略する。
 但し、例えばステップS203では、案内画像一覧において撮影スポットや飲食店等の店舗の案内画像など、様々なカテゴリの案内画像が一覧表示されるようにしてもよいし、所定のジャンルの飲食店の案内画像のみが一覧表示されるなど、カテゴリごとに案内画像が一覧表示されるようにしてもよい。
 また、ステップS204では選択案内画像として、飲食店を撮影場所とした案内画像が選択される。
 ステップS246において制御部54は、ステップS244で受信した画像IDに対応する飲食店の空席状況を確認する。
 すなわち、制御部54は、ステップS244で受信した画像IDに対応付けられて記録部52に記録されている撮影場所IDを特定するとともに、その撮影場所IDに対応付けられているメタデータを記録部52から読み出す。
 そして、制御部54は、読み出したメタデータに含まれる飲食店の店舗端末装置14のアクセス先に基づいて、通信部51により店舗端末装置14と通信を行い、飲食店の空席状況を問い合わせる。
 制御部54は、このようにして得られた飲食店の空席状況と、その飲食店を示す撮影場所IDと、その飲食店(撮影場所)のメタデータと、飲食店のクーポンとを含む空席状況情報を生成し、通信部51に供給する。
 なお、飲食店のクーポンは必ずしも空席状況情報に含まれている必要はなく、また、飲食店のクーポンは事前に発行されるなど、任意のタイミングでユーザに対して発行されるようにすることもできる。
 さらに、例えば女性限定などの特定の性別のユーザや、撮影サービスの利用頻度が高いユーザ、一定期間、撮影サービスを利用していないユーザ、参照回数情報により示される参照回数や訪問者数情報により示される訪問者数が所定値以上のユーザなど、所定の条件を満たすユーザにのみクーポンが発行されるようにしてもよい。また、特定の飲食店等の店舗のみクーポンが発行されるようにしてもよい。
 ステップS247において通信部51は、制御部54から供給された空席状況情報をユーザ端末装置13に送信する。
 すると、ユーザ端末装置13では、ステップS206において通信部81は、サーバ12から送信されてきた空席状況情報を受信して制御部87に供給する。
 ステップS207において制御部87は、通信部81から供給された空席状況情報を表示部88に供給し、表示させる。
 これにより、例えば表示部88には飲食店での空席状況や、発行されたクーポン、飲食店のウェブページのURL、ユーザ端末装置13の現在位置から飲食店までのルートを示す地図などが表示される。
 ユーザは、表示部88に表示された空席状況などを確認し、入力部83を操作して、予約の時間や訪問人数、クーポン使用の有無などの必要な情報を適宜入力して、飲食店の予約を指示する。
 なお、例えば撮影場所が遠方にある場合などには、撮影場所である飲食店の予約だけでなく、撮影場所までのバス、電車、飛行機等の移動の交通機関の予約や、撮影場所付近での宿泊施設の予約等もできるようにしてもよい。そのような場合には、ステップS207では、交通機関や宿泊施設に関する情報なども表示される。
 ステップS208において制御部87は、ユーザの操作に応じて入力部83から供給された信号に基づいて、例えばユーザIDや、飲食店の撮影場所ID、予約時刻、訪問人数、クーポン使用の有無などが含まれる予約情報を生成し、通信部81に供給する。
 ステップS209において通信部81は、制御部87から供給された予約情報をサーバ12に送信することで、飲食店の予約を要求する。
 なお、ここではサーバ12が飲食店の予約を行う場合を例として説明するが、ユーザ端末装置13が空席状況情報に基づいて直接、店舗端末装置14にアクセスするなどして、飲食店の予約を行うようにしてもよい。
 その他、ユーザ等が飲食店の予約を行わなくても、ユーザが飲食店における撮影サービス専用のブースで飲食を開始したときに、ユーザがユーザ端末装置13から何らかの撮影トリガをサーバ12に送信するなどして、撮影が行われるようにしてもよい。
 ユーザ端末装置13からサーバ12に予約情報が送信されると、サーバ12では、ステップS248の処理が行われる。
 ステップS248において通信部51は、ユーザ端末装置13から送信されてきた予約情報を受信して制御部54に供給する。
 ステップS249において制御部54は、通信部51から供給された予約情報に基づいて、飲食店を予約する予約処理を行う。
 例えば制御部54は、通信部51を制御して店舗端末装置14と通信し、店舗端末装置14に対して予約情報を送信するなどして、ユーザが所望の時刻に飲食店での飲食を行うことができるように予約をする。
 予約が完了すると、制御部54は予約時刻などの情報を含む、予約が完了した旨の予約完了通知を生成し、通信部51に供給する。
 ステップS250において通信部51は、制御部54から供給された予約完了通知をユーザ端末装置13に送信し、案内画像一覧提供処理は終了する。
 また、ユーザ端末装置13では、ステップS210において通信部81は、サーバ12から送信されてきた予約完了通知を受信し制御部87に供給する。
 ステップS211において制御部87は、通信部81から供給された予約完了通知を表示部88に供給し、表示させる。
 これにより表示部88には、例えば飲食店の予約がされた旨のメッセージや、現在位置から、撮影場所である飲食店までのルートを示す地図などが表示される。
 予約完了通知が表示されると、選択処理は終了する。
 以上のようにしてユーザ端末装置13は、案内画像一覧を表示させ、その案内画像一覧から選択案内画像を選択し、選択案内画像に対応する飲食店が予約されると、その飲食店までのルートを示す地図等を表示させる。
 また、サーバ12は、案内画像一覧を生成してユーザ端末装置13に送信するとともに、ユーザにより選択された選択案内画像の撮影場所に対応する飲食店の空席状況を確認したり、その飲食店の予約を行ったりする。
 このようにすることで、図13のフローチャートを参照して説明した場合と同様に、ユーザは、より満足度の高い撮影画像を得ることができるようになる。
〈撮影開始指示処理および撮影制御処理の説明〉
 また、図16のステップS211の処理が行われて、表示部88に予約した飲食店までのルートを示す地図が表示されると、ユーザはその地図を見ながら飲食店へと向かう。
 そして、ユーザは、予約した時刻に飲食店の撮影サービス専用のブースに案内されると、そのまま飲食を開始する。
 また、サーバ12では、予約情報や予約完了通知に基づいて、ユーザが予約した時刻、つまりユーザが飲食を開始する時刻となると、ユーザのいる飲食店での撮影を制御する撮影制御処理として、図17に示す処理を行う。
 以下、図17のフローチャートを参照して、サーバ12により行われる撮影制御処理、およびユーザ端末装置13により行われる撮影開始指示処理について説明する。
 サーバ12において撮影制御処理が開始されると、ステップS311において通信部51は、撮影権情報をユーザ端末装置13に送信する。
 すなわち、ユーザの予約時刻となると、制御部54は撮影可能となった旨の撮影権情報を生成し、通信部51に供給する。そして、通信部51は、制御部54から供給された撮影権情報をユーザ端末装置13に送信する。
 すると、ユーザ端末装置13では、ステップS341において通信部81は、サーバ12から送信されてきた撮影権情報を受信して制御部87に供給する。
 制御部87は、通信部81から撮影権情報が供給されると、撮影権情報に応じて、撮影開始時刻となった旨のメッセージを表示させる画像情報を生成する。また、制御部87は、生成した画像情報を表示部88に供給し、表示部88に撮影開始時刻となった旨のメッセージを表示させる。
 このようなメッセージが表示されると、例えばユーザは、入力部83を操作して、撮影開始を指示する。すると、制御部87は、ユーザの操作に応じて入力部83から供給された信号に応じて、撮影開始を指示する旨の撮影トリガを生成し、通信部81に供給する。
 ステップS342において通信部81は、制御部87から供給された撮影トリガをサーバ12に送信し、撮影開始指示処理は終了する。
 このようにして撮影トリガが送信されると、サーバ12では、ステップS312乃至ステップS316の処理が行われて撮影制御処理は終了するが、これらの処理は図14のステップS108乃至ステップS112の処理と同様であるので、その説明は省略する。
 以上のようにしてサーバ12は、ユーザが飲食を開始する時刻となると、撮影権情報を生成してユーザ端末装置13に送信するとともに、その送信に応じて撮影トリガを受信すると、撮影が開始されるように制御を行う。また、ユーザ端末装置13は、サーバ12から撮影権情報を受信し、ユーザの操作に応じて撮影トリガをサーバ12に送信する。
 このようにすることで、ユーザは、特に撮影を意識することなく、飲食や同行者との会話を楽しむことができ、ユーザの満足度を向上させることができる。
 なお、ここではユーザによる操作をトリガとして撮影が開始される例について説明したが、撮影権情報の送信後、一定時間が経過したら撮影が開始されるようにしてもよいし、飲食店での飲食の予約時刻となったときに撮影が開始されるようにしてもよい。
 その他、制御部54が撮影装置11で撮影されたスルー画像に対して顔認識等を行い、ユーザの顔や人の顔が検出されたときや、スルー画像に付随する音声から任意の人の声や、特定のキーワードが検出されたときに撮影が開始されるようにしてもよい。
 さらに、撮影中においては、逐次、撮影装置11により撮影された撮影画像を、サーバ12がユーザ端末装置13にストリーミング配信し、ユーザ端末装置13で撮影画像が再生されるようにしてもよい。この場合、ユーザは飲食中においても、どのような撮影が行われているかを確認することができる。
 また、撮影終了のタイミングは、ユーザの飲食が終了したタイミングや、ユーザから撮影終了の指示があったときなど、どのようなタイミングであってもよい。
 以上のようにして、ユーザが飲食店で飲食を行ったときに撮影が行われた場合でも、その撮影後など、任意のタイミングでユーザは撮影画像をダウンロードすることができる。
 そのような場合、ユーザ端末装置13およびサーバ12では、図15を参照して説明した撮影画像取得処理および撮影画像提供処理が行われる。
 なお、以上においては本技術を散策や観光、飲食等を行う場合に適用する例について説明したが、これに限らず、本技術はユーザに対して案内画像を提示し、その案内画像の撮影場所でユーザが撮影を行うものであれば、どのようなシステムにも適用可能である。
 例えば本技術では電車やバス、船等の公共交通機関を撮影場所とし、それらの公共交通機関の予約を行うことができるようにすることもできる。また、本技術は、スポーツ観戦やドライブ、美容院の予約や利用、ショッピング、結婚式場での撮影などにも適用することができる。
〈コンピュータの構成例〉
 ところで、上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウェアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
 図18は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
 コンピュータにおいて、CPU(Central Processing Unit)501,ROM(Read Only Memory)502,RAM(Random Access Memory)503は、バス504により相互に接続されている。
 バス504には、さらに、入出力インターフェース505が接続されている。入出力インターフェース505には、入力部506、出力部507、記録部508、通信部509、及びドライブ510が接続されている。
 入力部506は、キーボード、マウス、マイクロホン、撮像素子などよりなる。出力部507は、ディスプレイ、スピーカなどよりなる。記録部508は、ハードディスクや不揮発性のメモリなどよりなる。通信部509は、ネットワークインターフェースなどよりなる。ドライブ510は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブル記録媒体511を駆動する。
 以上のように構成されるコンピュータでは、CPU501が、例えば、記録部508に記録されているプログラムを、入出力インターフェース505及びバス504を介して、RAM503にロードして実行することにより、上述した一連の処理が行われる。
 コンピュータ(CPU501)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブル記録媒体511に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
 コンピュータでは、プログラムは、リムーバブル記録媒体511をドライブ510に装着することにより、入出力インターフェース505を介して、記録部508にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部509で受信し、記録部508にインストールすることができる。その他、プログラムは、ROM502や記録部508に、あらかじめインストールしておくことができる。
 なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
 また、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
 例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
 また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
 さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
 さらに、本技術は、以下の構成とすることも可能である。
(1)
 互いに異なる複数の撮影場所で撮影された複数の撮影見本画像が並べられた撮影見本画像一覧を表示させ、前記撮影見本画像一覧のなかから任意の前記撮影見本画像が選択された場合、選択された前記撮影見本画像の前記撮影場所へと誘導する案内情報を提示させる制御部を備える
 情報処理装置。
(2)
 前記撮影見本画像は、前記撮影見本画像に対するユーザの好みの度合いの推定値、および誘致者により定められた前記撮影場所の優先度の少なくとも何れか一方に基づいて選択された画像である
 (1)に記載の情報処理装置。
(3)
 前記撮影見本画像一覧における各前記撮影見本画像の表示位置または表示サイズは、前記推定値および前記優先度の少なくとも何れか一方により決定される
 (2)に記載の情報処理装置。
(4)
 前記選択された前記撮影見本画像の前記撮影場所での撮影を予約するための撮影予約情報を送信する通信部をさらに備える
 (1)乃至(3)の何れか一項に記載の情報処理装置。
(5)
 前記制御部は、前記撮影場所でのユーザの撮影が予約された場合、前記ユーザの撮影までの間に、前記撮影場所において撮影されている他のユーザの画像を表示させる
 (4)に記載の情報処理装置。
(6)
 前記撮影場所を被写体として含む環境画像を撮影する撮影部をさらに備え、
 前記制御部は、前記撮影場所の位置を示す画像が重畳された前記環境画像を表示させる
 (1)乃至(5)の何れか一項に記載の情報処理装置。
(7)
 前記案内情報は、前記情報処理装置の現在位置から前記撮影場所までのルートを示す地図である
 (1)乃至(6)の何れか一項に記載の情報処理装置。
(8)
 情報処理装置が、
 互いに異なる複数の撮影場所で撮影された複数の撮影見本画像が並べられた撮影見本画像一覧を表示させ、前記撮影見本画像一覧のなかから任意の前記撮影見本画像が選択された場合、選択された前記撮影見本画像の前記撮影場所へと誘導する案内情報を提示させる
 情報処理方法。
(9)
 互いに異なる複数の撮影場所で撮影された複数の撮影見本画像が並べられた撮影見本画像一覧を表示させ、前記撮影見本画像一覧のなかから任意の前記撮影見本画像が選択された場合、選択された前記撮影見本画像の前記撮影場所へと誘導する案内情報を提示させる
 ステップを含む処理をコンピュータに実行させるプログラム。
(10)
 互いに異なる複数の撮影場所で撮影された複数の撮影見本画像に基づいて、複数の前記撮影見本画像が並べられた撮影見本画像一覧を生成する制御部と、
 前記撮影見本画像一覧の送信先の端末装置において、前記撮影見本画像一覧から任意の前記撮影見本画像が選択された場合、選択された前記撮影見本画像の前記撮影場所へと誘導するためのデータを、前記端末装置に送信する通信部と
 を備える情報処理装置。
(11)
 前記制御部は、前記撮影見本画像に対するユーザの好みの度合いの推定値、および誘致者により定められた前記撮影場所の優先度の少なくとも何れか一方に基づいて前記撮影見本画像を選択し、選択した前記撮影見本画像に基づいて前記撮影見本画像一覧を生成する
 (10)に記載の情報処理装置。
(12)
 前記制御部は、前記撮影見本画像の参照回数、前記撮影見本画像の提示に基づく前記撮影場所の訪問者数、前記撮影見本画像の前記撮影場所の人気度、前記優先度、前記撮影見本画像の見映えの評価値、前記撮影見本画像の前記撮影場所での撮影待ち人数、前記撮影見本画像が撮影された季節または時間帯、前記撮影見本画像の撮影時の天候、前記撮影見本画像の所定画像との類似度、および前記推定値のうちの少なくとも何れか1つに基づいて、前記撮影見本画像一覧における各前記撮影見本画像の表示位置または表示サイズを決定する
 (11)に記載の情報処理装置。
(13)
 前記制御部は、前記撮影場所に設置された撮影装置による撮影を制御する
 (10)乃至(12)の何れか一項に記載の情報処理装置。
(14)
 前記制御部は、前記撮影装置により撮影された撮影画像を前記撮影見本画像として前記撮影見本画像一覧を生成する
 (13)に記載の情報処理装置。
(15)
 前記制御部は、前記選択された前記撮影見本画像に対応するユーザに対してインセンティブを付与する
 (14)に記載の情報処理装置。
(16)
 前記制御部は、前記撮影見本画像の参照回数、前記撮影見本画像の提示に基づく前記撮影場所の訪問者数、および前記撮影見本画像の提示に応じて前記撮影場所を訪問した他のユーザの前記撮影場所でのサービスの利用結果のうちの少なくとも何れか1つに基づいて、前記ユーザに対して付与する前記インセンティブを決定する
 (15)に記載の情報処理装置。
(17)
 前記通信部は、前記端末装置から送信された、前記選択された前記撮影見本画像の前記撮影場所での撮影を予約するための撮影予約情報を受信し、
 前記制御部は、前記撮影予約情報に基づいて撮影の予約を行う
 (13)乃至(16)の何れか一項に記載の情報処理装置。
(18)
 前記通信部は、前記撮影の予約に応じて前記撮影装置により撮影された撮影画像を前記端末装置に送信する
 (17)に記載の情報処理装置。
(19)
 情報処理装置が、
 互いに異なる複数の撮影場所で撮影された複数の撮影見本画像に基づいて、複数の前記撮影見本画像が並べられた撮影見本画像一覧を生成し、
 前記撮影見本画像一覧の送信先の端末装置において、前記撮影見本画像一覧から任意の前記撮影見本画像が選択された場合、選択された前記撮影見本画像の前記撮影場所へと誘導するためのデータを、前記端末装置に送信する
 情報処理方法。
(20)
 互いに異なる複数の撮影場所で撮影された複数の撮影見本画像に基づいて、複数の前記撮影見本画像が並べられた撮影見本画像一覧を生成し、
 前記撮影見本画像一覧の送信先の端末装置において、前記撮影見本画像一覧から任意の前記撮影見本画像が選択された場合、選択された前記撮影見本画像の前記撮影場所へと誘導するためのデータを、前記端末装置に送信する
 ステップを含む処理をコンピュータに実行させるプログラム。
 11-1乃至11-N,11 撮影装置, 12 サーバ, 13 ユーザ端末装置, 14 店舗端末装置, 51 通信部, 52 記録部, 54 制御部, 81 通信部, 82 記録部, 83 入力部, 86 撮影部, 87 制御部, 88 表示部

Claims (20)

  1.  互いに異なる複数の撮影場所で撮影された複数の撮影見本画像が並べられた撮影見本画像一覧を表示させ、前記撮影見本画像一覧のなかから任意の前記撮影見本画像が選択された場合、選択された前記撮影見本画像の前記撮影場所へと誘導する案内情報を提示させる制御部を備える
     情報処理装置。
  2.  前記撮影見本画像は、前記撮影見本画像に対するユーザの好みの度合いの推定値、および誘致者により定められた前記撮影場所の優先度の少なくとも何れか一方に基づいて選択された画像である
     請求項1に記載の情報処理装置。
  3.  前記撮影見本画像一覧における各前記撮影見本画像の表示位置または表示サイズは、前記推定値および前記優先度の少なくとも何れか一方により決定される
     請求項2に記載の情報処理装置。
  4.  前記選択された前記撮影見本画像の前記撮影場所での撮影を予約するための撮影予約情報を送信する通信部をさらに備える
     請求項1に記載の情報処理装置。
  5.  前記制御部は、前記撮影場所でのユーザの撮影が予約された場合、前記ユーザの撮影までの間に、前記撮影場所において撮影されている他のユーザの画像を表示させる
     請求項4に記載の情報処理装置。
  6.  前記撮影場所を被写体として含む環境画像を撮影する撮影部をさらに備え、
     前記制御部は、前記撮影場所の位置を示す画像が重畳された前記環境画像を表示させる
     請求項1に記載の情報処理装置。
  7.  前記案内情報は、前記情報処理装置の現在位置から前記撮影場所までのルートを示す地図である
     請求項1に記載の情報処理装置。
  8.  情報処理装置が、
     互いに異なる複数の撮影場所で撮影された複数の撮影見本画像が並べられた撮影見本画像一覧を表示させ、前記撮影見本画像一覧のなかから任意の前記撮影見本画像が選択された場合、選択された前記撮影見本画像の前記撮影場所へと誘導する案内情報を提示させる
     情報処理方法。
  9.  互いに異なる複数の撮影場所で撮影された複数の撮影見本画像が並べられた撮影見本画像一覧を表示させ、前記撮影見本画像一覧のなかから任意の前記撮影見本画像が選択された場合、選択された前記撮影見本画像の前記撮影場所へと誘導する案内情報を提示させる
     ステップを含む処理をコンピュータに実行させるプログラム。
  10.  互いに異なる複数の撮影場所で撮影された複数の撮影見本画像に基づいて、複数の前記撮影見本画像が並べられた撮影見本画像一覧を生成する制御部と、
     前記撮影見本画像一覧の送信先の端末装置において、前記撮影見本画像一覧から任意の前記撮影見本画像が選択された場合、選択された前記撮影見本画像の前記撮影場所へと誘導するためのデータを、前記端末装置に送信する通信部と
     を備える情報処理装置。
  11.  前記制御部は、前記撮影見本画像に対するユーザの好みの度合いの推定値、および誘致者により定められた前記撮影場所の優先度の少なくとも何れか一方に基づいて前記撮影見本画像を選択し、選択した前記撮影見本画像に基づいて前記撮影見本画像一覧を生成する
     請求項10に記載の情報処理装置。
  12.  前記制御部は、前記撮影見本画像の参照回数、前記撮影見本画像の提示に基づく前記撮影場所の訪問者数、前記撮影見本画像の前記撮影場所の人気度、前記優先度、前記撮影見本画像の見映えの評価値、前記撮影見本画像の前記撮影場所での撮影待ち人数、前記撮影見本画像が撮影された季節または時間帯、前記撮影見本画像の撮影時の天候、前記撮影見本画像の所定画像との類似度、および前記推定値のうちの少なくとも何れか1つに基づいて、前記撮影見本画像一覧における各前記撮影見本画像の表示位置または表示サイズを決定する
     請求項11に記載の情報処理装置。
  13.  前記制御部は、前記撮影場所に設置された撮影装置による撮影を制御する
     請求項10に記載の情報処理装置。
  14.  前記制御部は、前記撮影装置により撮影された撮影画像を前記撮影見本画像として前記撮影見本画像一覧を生成する
     請求項13に記載の情報処理装置。
  15.  前記制御部は、前記選択された前記撮影見本画像に対応するユーザに対してインセンティブを付与する
     請求項14に記載の情報処理装置。
  16.  前記制御部は、前記撮影見本画像の参照回数、前記撮影見本画像の提示に基づく前記撮影場所の訪問者数、および前記撮影見本画像の提示に応じて前記撮影場所を訪問した他のユーザの前記撮影場所でのサービスの利用結果のうちの少なくとも何れか1つに基づいて、前記ユーザに対して付与する前記インセンティブを決定する
     請求項15に記載の情報処理装置。
  17.  前記通信部は、前記端末装置から送信された、前記選択された前記撮影見本画像の前記撮影場所での撮影を予約するための撮影予約情報を受信し、
     前記制御部は、前記撮影予約情報に基づいて撮影の予約を行う
     請求項13に記載の情報処理装置。
  18.  前記通信部は、前記撮影の予約に応じて前記撮影装置により撮影された撮影画像を前記端末装置に送信する
     請求項17に記載の情報処理装置。
  19.  情報処理装置が、
     互いに異なる複数の撮影場所で撮影された複数の撮影見本画像に基づいて、複数の前記撮影見本画像が並べられた撮影見本画像一覧を生成し、
     前記撮影見本画像一覧の送信先の端末装置において、前記撮影見本画像一覧から任意の前記撮影見本画像が選択された場合、選択された前記撮影見本画像の前記撮影場所へと誘導するためのデータを、前記端末装置に送信する
     情報処理方法。
  20.  互いに異なる複数の撮影場所で撮影された複数の撮影見本画像に基づいて、複数の前記撮影見本画像が並べられた撮影見本画像一覧を生成し、
     前記撮影見本画像一覧の送信先の端末装置において、前記撮影見本画像一覧から任意の前記撮影見本画像が選択された場合、選択された前記撮影見本画像の前記撮影場所へと誘導するためのデータを、前記端末装置に送信する
     ステップを含む処理をコンピュータに実行させるプログラム。
PCT/JP2020/037530 2019-10-17 2020-10-02 情報処理装置および方法、並びにプログラム WO2021075279A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021552313A JPWO2021075279A1 (ja) 2019-10-17 2020-10-02
US17/754,694 US20240094020A1 (en) 2019-10-17 2020-10-02 Information processing apparatus, information processing method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-190230 2019-10-17
JP2019190230 2019-10-17

Publications (1)

Publication Number Publication Date
WO2021075279A1 true WO2021075279A1 (ja) 2021-04-22

Family

ID=75537961

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/037530 WO2021075279A1 (ja) 2019-10-17 2020-10-02 情報処理装置および方法、並びにプログラム

Country Status (3)

Country Link
US (1) US20240094020A1 (ja)
JP (1) JPWO2021075279A1 (ja)
WO (1) WO2021075279A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022253045A1 (zh) * 2021-06-04 2022-12-08 Oppo广东移动通信有限公司 照片拍摄方法、装置、终端及存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012122778A (ja) * 2010-12-06 2012-06-28 Fujitsu Ten Ltd ナビゲーション装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012122778A (ja) * 2010-12-06 2012-06-28 Fujitsu Ten Ltd ナビゲーション装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
TSUKUSHI HAYATO: "Consideration of photo spot recommendation method using collage images of theme parks", IPSJ SIG TECHNICAL REPORT ( DBS), 5 September 2018 (2018-09-05), pages 1 - 6 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022253045A1 (zh) * 2021-06-04 2022-12-08 Oppo广东移动通信有限公司 照片拍摄方法、装置、终端及存储介质

Also Published As

Publication number Publication date
JPWO2021075279A1 (ja) 2021-04-22
US20240094020A1 (en) 2024-03-21

Similar Documents

Publication Publication Date Title
US10958607B2 (en) Systems and methods for geofence-based solutions for targeted advertising and messaging
US10856115B2 (en) Systems and methods for aggregating media related to an event
US9270841B2 (en) Interactive image capture, marketing and distribution
US9251252B2 (en) Context server for associating information based on context
CN102945276B (zh) 生成和更新基于事件的回放体验
US10142795B2 (en) Providing digital content for multiple venues
CN103942694B (zh) 用于提供基于地点数据的内容的方法和系统
US20170221095A1 (en) Systems and networks to aggregate photo content for heuristic ad targeting
US10929463B1 (en) Arranging location based content for mobile devices
US20120327257A1 (en) Photo product using images from different locations
US20080126960A1 (en) Context server for associating information with a media object based on context
US20190205086A1 (en) Image tagging with audio files in a wide area network
WO2021075279A1 (ja) 情報処理装置および方法、並びにプログラム
CN107203646A (zh) 一种智能社交分享方法和装置
US9270840B2 (en) Site image capture and marketing system and associated methods
KR102118441B1 (ko) 자연공원 관광서비스 관리서버
US20150088867A1 (en) System and Method for Enabling Communication Between Users
KR102045475B1 (ko) 여행지에 따른 유저의 기호를 예측하여 여행 앨범을 제공하는 여행 앨범 제공 시스템 및 이의 동작 방법
CN111026975A (zh) 基于视觉信息识别的信息检索方法及装置
JP2018163650A (ja) 著作物利用装置、著作物利用方法およびそのためのデータ構造
KR102378073B1 (ko) 불특정 다수와 연결 가능한 수요자 중심의 실시간 영상 공유 플랫폼 제공 시스템
WO2023021759A1 (ja) 情報処理装置、情報処理方法
JP7069857B2 (ja) コンテンツ提供装置
JP2022176567A (ja) 再生情報生成装置、動画編集装置および動画編集プログラム
KR20180075720A (ko) 앨범 제작 서비스 시스템과 이를 이용한 서비스 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20876384

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021552313

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 17754694

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20876384

Country of ref document: EP

Kind code of ref document: A1