WO2024042683A1 - 情報処理装置、移動端末、情報処理方法、およびプログラム - Google Patents

情報処理装置、移動端末、情報処理方法、およびプログラム Download PDF

Info

Publication number
WO2024042683A1
WO2024042683A1 PCT/JP2022/032068 JP2022032068W WO2024042683A1 WO 2024042683 A1 WO2024042683 A1 WO 2024042683A1 JP 2022032068 W JP2022032068 W JP 2022032068W WO 2024042683 A1 WO2024042683 A1 WO 2024042683A1
Authority
WO
WIPO (PCT)
Prior art keywords
video
information
unit
videos
acquisition unit
Prior art date
Application number
PCT/JP2022/032068
Other languages
English (en)
French (fr)
Inventor
健二 鳴島
Original Assignee
株式会社 ミックウェア
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社 ミックウェア filed Critical 株式会社 ミックウェア
Priority to PCT/JP2022/032068 priority Critical patent/WO2024042683A1/ja
Publication of WO2024042683A1 publication Critical patent/WO2024042683A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/266Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/27Server based end-user applications
    • H04N21/274Storing end-user multimedia data in response to end-user request, e.g. network recorder
    • H04N21/2743Video hosting of uploaded data from client
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/482End-user interface for program selection

Definitions

  • the present invention relates to an information processing device, etc. that performs processing regarding moving images captured by two or more mobile terminals.
  • the information processing device of the first invention is a moving image shot by each of two or more mobile terminals, and an attribute value including one or more environmental information including position information for specifying the shooting position or time information for specifying the time of shooting.
  • a video acquisition unit that acquires videos that are associated with a set and transmitted from two or more mobile terminals, and two or more videos that have different information when associated with each of the two or more videos acquired by the video acquisition unit.
  • a video configuration that configures one video by temporally combining two or more videos obtained by a video acquisition unit, or spatially merging parts of two or more videos that have different positional information associated with each of the two or more videos acquired by the video acquisition unit.
  • the information processing apparatus includes a moving image transmitting section that transmits one moving image configured by the moving image composing section.
  • the video acquisition unit sequentially acquires two or more videos whose location information corresponding to each of the two or more videos satisfies the first location condition.
  • the video composition unit is an information processing device that combines two or more videos acquired by the video acquisition unit in the order of time corresponding to the videos, and configures one video.
  • the information processing device of the third invention is different from the second invention in that it further includes an inquiry receiving section that receives an inquiry including location information from a user terminal, and the video acquisition section is configured to include an inquiry receiving section.
  • the information processing apparatus acquires two or more moving images corresponding to position information that satisfies a first position condition using position information received by the user.
  • the information processing device of the fourth invention further includes an inquiry receiving unit that sequentially receives two or more pieces of location information transmitted from the target terminal, and the information processing device obtains a video.
  • the unit is an information processing device that sequentially uses the two or more pieces of position information received by the inquiry receiving unit to sequentially acquire two or more videos corresponding to the position information that satisfies the first position condition.
  • the information processing device of the fifth invention is different from the second invention by further comprising an inquiry receiving unit that receives an inquiry including location information for specifying a destination set in the navigation terminal, and
  • the acquisition unit is an information processing device that sequentially acquires two or more videos corresponding to position information that satisfies the first position condition using the position information received by the inquiry reception unit.
  • the information processing device of the sixth invention further includes an inquiry receiving unit that receives an inquiry including route information including two or more pieces of location information
  • the video acquisition unit includes: The information processing apparatus acquires two or more moving images corresponding to positional information that satisfies two or more first positional conditions using two or more pieces of positional information included in route information.
  • the route information has time information corresponding to two or more pieces of position information
  • the video acquisition unit is configured to provide two or more pieces of time information that the route information has.
  • the information processing apparatus acquires two or more moving images corresponding to position information that satisfies a first position condition using each of the above position information and time information.
  • the video acquisition unit is configured such that the position information associated with each of the two or more videos satisfies the second position condition, and Acquires two or more videos whose associated time information satisfies the time condition, and the video composition unit configures one frame using part or all of the frames constituting each of the two or more videos acquired by the video acquisition unit. It is an information processing device that temporally connects frames to form a single moving image.
  • the video is a video taken of a parking lot
  • the video composition unit is provided with two or more video components installed in each of the two or more moving objects.
  • This is an information processing device that spatially connects frames directly above the frames of moving images shot by each mobile terminal to form one frame, and forms one moving image having one frame.
  • the video is associated with a rights holder identifier for identifying a rights holder of the video
  • the video configuration unit configures the information processing device.
  • the information processing apparatus further includes a right holder processing unit that performs right holder processing, which is processing related to a right holder identified by a right holder identifier associated with one video.
  • the right holder identifier associated with one video is the right holder identifier associated with each of two or more videos that are the source of the one video.
  • the right holder processing unit performs remuneration processing, which is a process of giving a reward, to each right holder identified by the right holder identifier that corresponds to two or more videos that are the source of one video. This is an information processing device equipped with remuneration means for performing.
  • the reward means is a video attribute value corresponding to each of two or more videos that are the basis of the video transmitted by the video transmitter.
  • This is an information processing device that performs remuneration processing, which is a process of obtaining a video attribute value, determining remuneration for each of two or more rights holders using video attribute values, and providing remuneration.
  • the right holder processing unit converts one video composed by the video composition unit into two or more sources that are the source of the one video.
  • the information processing apparatus includes a first maintenance means that performs a first maintenance process of accumulating data in association with attribute value sets associated with each video.
  • the right holder processing unit converts one video composed by the video composition unit into two or more sources that are the source of the one video.
  • the information processing apparatus includes a second preservation means that performs a second preservation process of accumulating data in association with a right holder identifier corresponding to each video.
  • the right holder of one video composed of two or more images can be made the appropriate right holder.
  • the information processing device of the fifteenth invention is different from the tenth invention, further comprising an inquiry receiving unit that receives an inquiry from the user terminal regarding environmental information regarding the environment in which the mobile terminal shot the video,
  • the video acquisition unit acquires two or more videos corresponding to the inquiry received by the inquiry reception unit, and the right holder processing unit converts one video configured by the video composition unit into a right holder that identifies the user of the user terminal.
  • the information processing apparatus includes a third security means that stores information in association with an identifier.
  • the right holder of one video composed of two or more images can become the right holder who needs the video.
  • the right holder processing unit stores maintenance information including access information for accessing the video.
  • the information processing device includes a fourth security means that performs a fourth security process of accumulating information on a blockchain.
  • the information processing device it is possible to compose and provide one useful video using videos shot by two or more mobile terminals.
  • Embodiment 1 In this embodiment, two or more moving images acquired by photographing devices in two or more moving objects are used to configure one temporally combined moving image or to create one spatially fused moving image.
  • the information processing device to be configured will be explained. Inquiries to select two or more videos include, for example, inquiries using location information specified on the user terminal, inquiries using two or more location information received from the target terminal for monitoring, and inquiries using the location information specified on the navigation terminal. These are inquiries using a set destination and route information.
  • an information processing apparatus that performs rights holder processing, which is processing related to the rights holder of one video to be output, will be described.
  • the right holder process is, for example, a reward process to be described later and various maintenance processes to be described later.
  • an information processing device that automatically receives videos that meet maintenance conditions from a mobile terminal and stores them will be described.
  • an information processing apparatus that handles videos to which one or more tags obtained through video analysis or the like are added will be described. Note that although the process of adding tags is performed, for example, by an information processing device or a mobile terminal, it may be performed by another device.
  • an information processing apparatus that performs processing for a user of a mobile terminal or a user who requires a video when a video desired by the user exists but cannot be transmitted.
  • a case where the moving image cannot be transmitted is, for example, a case where the power of the mobile terminal is OFF.
  • an information processing apparatus that receives movement information regarding the start of movement from a mobile terminal and utilizes it will be described.
  • a mobile terminal will be described that transmits the latest set of attribute values for a captured video to an information processing device at the end of movement.
  • a mobile terminal that acquires one or more tags by analyzing a video or the like and associates the tag with the video will be described.
  • information X is associated with information Y means that information Y can be acquired from information X, or information X can be acquired from information Y, and the method of association is not limited. .
  • Information X and information Y may be linked, exist in the same buffer, information X may be included in information Y, or information Y may be included in information X. etc. is also fine.
  • FIG. 1 is a conceptual diagram of information system A in this embodiment.
  • the information system A includes an information processing device 1 , one or more mobile terminals 2 , one or more user terminals 3 , one or more target terminals 4 , and one or more navigation terminals 5 .
  • the information processing device 1 is a server that provides one video to the user terminal 3 using videos transmitted by two or more mobile terminals 2.
  • the information processing device 1 is, for example, a so-called server, such as a cloud server, an ASP server, etc., but the type thereof does not matter.
  • the information processing device 1 may be a device that constitutes a blockchain.
  • the video here is an image captured by the mobile terminal 2.
  • a moving image is usually a collection of two or more still images, but it may also be considered to be a single still image.
  • the interval between the shooting times of two or more still images included in the video does not matter.
  • the video is, for example, a 60 frame/second video or a 30 frame/second video, but it may also be a collection of two or more still images taken at a time interval of more than a predetermined time (for example, 1 minute). It may also be a collection of two or more still images taken when the conditions are met.
  • the mobile terminal 2 is a terminal installed in a moving body, and is a terminal that shoots a video.
  • the mobile terminal 2 is, for example, a drive recorder, a smartphone, a tablet terminal, or a camera with a communication function. Further, installation usually means being fixed, but it may also be considered to include being in contact with or holding. Further, the mobile terminal 2 may have a driving means such as an engine, and a moving means such as wheels.
  • a moving body is an object that moves.
  • the mobile object is, for example, a land mobile device, a sea mobile device, an underwater mobile device, an air mobile device, a space mobile device, or a living creature.
  • Ground transportation equipment includes, for example, human-powered vehicles such as automobiles, bicycles, rickshaws, and playground equipment, railway vehicles such as trains and steam locomotives, vehicles at amusement parks, and commercial vehicles at factories and other facilities. It is. Terrestrial mobile devices may include devices that are not vehicles for people to ride, such as various robots for business use or play equipment, and play equipment such as so-called radio-controlled devices.
  • the motor vehicle is, for example, a passenger car, a truck, a bus, a taxi, or a motorcycle.
  • Examples of maritime mobile devices include various ships, personal watercraft, surfboards, row boats, floating rings, and rafts.
  • underwater mobile devices examples include submarines, diving robots, and diving equipment such as Aqualungs.
  • aviation mobile devices include various aircraft, helicopters, gliders, parachutes, balloons, kites, etc.
  • space mobile devices examples include rockets, space probes, and artificial satellites.
  • the living thing is, for example, a human being or a moving object other than a human being.
  • moving objects other than humans include birds, mammals, reptiles, amphibians, fish, insects, and other various living things.
  • the user terminal 3 is a terminal used by a user. Users are those who watch videos and those who need videos.
  • the user terminal 3 may have the functions of the mobile terminal 2.
  • the user terminal 3 may be a terminal of a user who provides videos.
  • the user terminal 3 may be a navigation terminal 5, which will be described later.
  • the target terminal 4 is a terminal that transmits location information.
  • the target terminal 4 is, for example, a terminal provided as a monitoring target.
  • the monitoring target is, for example, a living thing or an object.
  • the living thing is, for example, a human being.
  • the person is, for example, a child or an elderly person.
  • the object to be monitored is, for example, something that should not be stolen, such as a car.
  • the mobile terminal 2, user terminal 3, and target terminal 4 are, for example, smartphones, tablet terminals, so-called personal computers, navigation terminals, etc., and their types do not matter.
  • the navigation terminal 5 is a so-called navigation terminal.
  • the navigation terminal 5 is a terminal installed in a ground mobile device or held by a person.
  • the information processing device 1 and one or more mobile terminals 2 can normally communicate via a network such as the Internet. Further, the information processing device 1 and each of the one or more user terminals 3 can normally communicate via a network such as the Internet. Further, the information processing device 1 and each of the one or more target terminals 4 can normally communicate via a network such as the Internet. Furthermore, the information processing device 1 and each of the one or more navigation terminals 5 can normally communicate via a network such as the Internet.
  • FIG. 2 is a block diagram of information system A in this embodiment.
  • FIG. 3 is a block diagram of the information processing device 1. As shown in FIG.
  • the information processing device 1 includes a storage section 11, a reception section 12, a processing section 13, and a transmission section 14.
  • the storage section 11 includes a collection storage section 111 .
  • the receiving section 12 includes a movement information receiving section 121, an inquiry receiving section 122, and a collective receiving section 123.
  • the processing unit 13 includes a movement information storage unit 131, a set storage unit 132, a video acquisition unit 133, a video composition unit 134, and a right holder processing unit 135.
  • the right holder processing unit 135 includes a first security device 1351, a second security device 1352, a third security device 1353, a fourth security device 1354, and a reward device 1355.
  • the transmitter 14 includes a video transmitter 141, a status transmitter 142, and a needs transmitter 143.
  • the mobile terminal 2 includes a movement storage section 21, a movement reception section 22, a movement processing section 23, and a movement transmission section 24.
  • the movement processing section 23 includes a photographing section 231, a tag acquisition section 232, and a movement information acquisition section 233.
  • the movement transmission section 24 includes a movement information transmission section 241 , a movement video transmission section 242 , and a set transmission section 243 .
  • the user terminal 3 includes a user storage section 31, a user reception section 32, a user processing section 33, a user transmission section 34, a user reception section 35, and a user output section 36.
  • the various types of information are stored in the storage unit 11 that constitutes the information processing device 1.
  • the various types of information include, for example, terminal information, which will be described later, an attribute value set, which will be described later, movement information, moving images, and management information, which will be described later.
  • Management information is information used to monitor the person being watched over.
  • the management information includes a user identifier for transmitting a video to the user terminal 3 of the person watching the target person, and a target person identifier for identifying the target terminal 4 of the target person.
  • the set storage unit 111 stores one or more pieces of terminal information.
  • Terminal information is information regarding the mobile terminal 2.
  • the terminal information includes information on the video currently held by the mobile terminal 2.
  • the terminal information includes a terminal identifier and a set of attribute values.
  • the terminal information may be associated with the video. Further, the terminal identifier may be included in the attribute value set.
  • the terminal identifier is information that identifies the mobile terminal 2.
  • the terminal identifier may be a right holder identifier that identifies the right holder who is the user of the mobile terminal 2.
  • the terminal identifier is, for example, the ID of the mobile terminal 2, the name of the mobile terminal 2, and the MAC address of the mobile terminal 2.
  • a right holder is a person who has some rights regarding a video.
  • the right holder is, for example, the owner of the video, the copyright holder of the video, or the owner of the mobile terminal 2 that captured the video.
  • the rights holder is the initial rights holder of the video.
  • the right holder is usually the holder of the mobile terminal 2, but may be any person who has the rights to the video captured by the mobile terminal 2.
  • the right holder identifier is the identifier of the video right holder.
  • the right holder identifier may be a terminal identifier.
  • the right holder identifier is, for example, the right holder ID, the right holder's name, the right holder's e-mail address, and the right holder's telephone number.
  • An attribute value set is a set of one or more video attribute values.
  • a video attribute value is an attribute value of a video.
  • the video attribute value is, for example, environmental information.
  • the video attribute value is, for example, a tag.
  • the moving image attribute value may be, for example, a moving object attribute value, which will be described later.
  • Environmental information is information about the environment in which the video was shot.
  • the environmental information is, for example, location information, time information, weather information, temperature information, and seasonal information.
  • Position information is information that specifies the shooting position.
  • the photographing position is the position of the camera for photographing.
  • the location information is, for example, (latitude, longitude), (latitude, longitude, altitude).
  • the position information may be an area identifier that specifies an area on a map, an address, a road identifier that specifies a road, a lane identifier that specifies a lane on a road, or the like.
  • Time information is information that specifies the time when a video was shot. The time when the video was shot may be around the time when the video was shot, and accuracy is not required.
  • the time information is, for example, time, year, month, date and time, year, month, day, hour, minute, year, month, date, hour, minute, second, year, month, day, month and day. In other words, the granularity of the time indicated by the time information does not matter.
  • Weather information is information that specifies the weather at the location where the video was shot at the time the video was shot.
  • the weather information is, for example, "sunny,” “rain,” “snow,” and “cloudy.”
  • Temperature information is information that specifies the outside temperature at the location where the video was taken at the time the video was taken.
  • the temperature information is, for example, "25 degrees” or “30 degrees or more.”
  • Seasonal information is information that identifies the season of the location where the video was shot at the time the video was shot.
  • the seasonal information is, for example, "spring”, “summer”, “early summer”, and "winter”.
  • a tag is information that specifies the characteristics of a video.
  • the tag is, for example, information as a result of analyzing a video.
  • a tag is, for example, information as a result of analyzing one or more moving object attribute values.
  • the tag is, for example, information as a result of analyzing two or more moving object attribute values in time series.
  • a moving object attribute value is an attribute value related to a moving object.
  • the moving object attribute value is, for example, information regarding movement that can be obtained while the moving object is moving.
  • the moving object attribute value is, for example, CAN (Controller Area Network) data or information indicating the use of an airbag.
  • the CAN data includes, for example, speed, engine rotational speed, and brake status. Examples of tags include "accident,” “traffic jam,” “dangerous driving,” “excessive speed,” and names of objects shown in the video (for example, "people,” “bears,” and names of celebrities).
  • the receiving unit 12 receives various information and instructions from the mobile terminal 2, user terminal 3, target terminal 4, or navigation terminal 5.
  • Various types of information and instructions include, for example, movement information, location information, inquiries, attribute value sets, and videos.
  • the video received by the receiving unit 12 is associated with a rights holder identifier that identifies the rights holder of the video.
  • a rights holder identifier that identifies the rights holder of the video.
  • one or more video attribute values are associated with a video received by the receiving unit 12.
  • the video received by the receiving unit 12 is, for example, a video shot of a parking lot. However, it does not matter where the video received by the receiving unit 12 is acquired.
  • the movement information receiving unit 121 receives movement information from the mobile terminal 2 when the mobile terminal 2 starts moving.
  • the start time is preferably immediately after the start, but may also be after a predetermined time (for example, 1 minute) has elapsed from the start of the movement.
  • the movement information is information that specifies that the mobile terminal 2 moves.
  • the information specifying that the user is moving may be information specifying that the user has started moving.
  • the movement here may be about moving from now on or may be about being moved.
  • the movement information is, for example, a movement start flag and a terminal identifier.
  • the movement start flag is information indicating to start movement.
  • the terminal identifier is the identifier of the mobile terminal 2 that starts moving. Note that the terminal identifier may be the same as the right holder identifier.
  • the inquiry receiving unit 122 receives an inquiry regarding environmental information from the user terminal 3.
  • a query regarding environmental information is a query that includes environmental information as a condition.
  • the inquiry is a request for a video shot by the mobile terminal 2.
  • the query is, for example, SQL, but its format, data structure, etc. are not critical.
  • the inquiry receiving unit 122 receives an inquiry including location information from the user terminal 3, for example.
  • the inquiry receiving unit 122 sequentially receives two or more pieces of location information transmitted from the target terminal 4.
  • the inquiry receiving unit 122 may receive the two or more pieces of location information from the target terminal 4, or may receive it from the user terminal 3 or the like that has received the position information from the target terminal 4.
  • the inquiry receiving unit 122 receives, for example, an inquiry including location information that specifies a destination set on the navigation terminal 5.
  • the inquiry receiving unit 122 may receive the position information from the navigation terminal 5, may receive it from the user terminal 3 that received it from the navigation terminal 5, or may receive the position information from the navigation terminal 3 to set the destination.
  • the information may also be received from the user terminal 3 or the like that transmitted the information to the user terminal 5.
  • the inquiry receiving unit 122 receives, for example, an inquiry that includes route information that includes two or more pieces of location information.
  • the inquiry receiving unit 122 receives an inquiry including route information from the user terminal 3 or the navigation terminal 5, for example.
  • the inquiry receiving unit 122 receives an inquiry from the user terminal 3 regarding environmental information regarding the environment in which the mobile terminal 2 took a video.
  • the route information included in the inquiry is, for example, information specifying the route traveled by the user viewing the video, or route information set in the navigation terminal 5 or the user terminal 3 having a navigation function.
  • the route information has time information corresponding to two or more pieces of position information.
  • the time information is, for example, information that specifies when the user was at the location specified by the location information. Note that the distance interval between two or more pieces of position information included in the route information does not matter.
  • the set receiving unit 123 receives the attribute value set from the mobile terminal 2. It is preferable that the set receiving unit 123 receives the attribute value set from the mobile terminal 2 at the end of the movement of the mobile terminal 2.
  • the attribute value set here is information that specifies the video stored in the mobile terminal 2.
  • the processing unit 13 performs various processes.
  • the various processes are, for example, processes performed by the movement information storage unit 131, the set storage unit 132, the video acquisition unit 133, the video composition unit 134, and the right holder processing unit 135.
  • the movement information storage unit 131 stores the movement information received by the movement information reception unit 121 in association with the mobile terminal 2.
  • Associating with the mobile terminal 2 means, for example, associating with a right holder identifier or a terminal identifier.
  • the set storage unit 132 stores the attribute value set received by the set reception unit 123 in the set storage unit 111.
  • the set storage unit 132 normally stores the attribute value set in association with the mobile terminal 2 that has transmitted the attribute value set.
  • Associating with the mobile terminal 2 means, for example, associating with a right holder identifier or a terminal identifier.
  • the video acquisition unit 133 acquires videos shot by each of the two or more mobile terminals 2. Such a video is associated with an attribute value set.
  • the attribute value set includes one or more pieces of environmental information. It is preferable that the one or more pieces of environmental information include position information for specifying the photographing position or time information for specifying the time of photographing. Further, it is preferable that the video is associated with a right holder identifier.
  • the video acquisition unit 133 sequentially acquires two or more videos whose location information corresponding to each of the two or more videos satisfies the first location condition.
  • the video acquisition unit 133 acquires, for example, two or more videos corresponding to the inquiry received by the inquiry reception unit 122.
  • the video acquisition unit 133 acquires two or more videos corresponding to position information that satisfies the first position condition using the position information received by the inquiry reception unit 122.
  • the video acquisition unit 133 sequentially uses the two or more pieces of positional information received by the inquiry receiving unit 122 to sequentially acquire two or more videos corresponding to the positional information that satisfies the first positional condition. .
  • the video acquisition unit 133 sequentially acquires two or more videos corresponding to location information that satisfies the first location condition using the location information received by the inquiry reception unit 122.
  • the video acquisition unit 133 acquires two or more videos corresponding to position information that satisfies two or more first position conditions using two or more pieces of position information included in the route information.
  • the video acquisition unit 133 acquires two or more videos corresponding to location information that satisfies the first location condition using two or more pieces of location information and time information included in the route information.
  • the video acquisition unit 133 acquires two or more videos in which the position information associated with each of the two or more videos satisfies the second position condition, and the time information associated with each of the two or more videos satisfies the time condition.
  • the first location condition is a condition related to location information.
  • the first location condition is that the target location information is location information that has an approximate relationship with the specified location. An approximate relationship is being close, for example, the distance is within a threshold, the distance is less than a threshold, the travel time is within a threshold, or the travel time is less than a threshold.
  • the target location information is, for example, location information included in an inquiry or received location information.
  • the first location condition may include conditions other than location information.
  • the first location condition may be a condition related to location information and time information.
  • the first location condition is, for example, that a target location information and time information set is associated with location information and time information that satisfy an approximation condition.
  • Location information and time information that satisfy the approximation conditions for a pair of target location information and time information include, for example, the distance to the location specified by the target location information is within a threshold, the distance is less than a threshold,
  • the location information indicates a position where the travel time is within the threshold value or the travel time is less than the threshold value, and the time information is time information where the time difference is within the threshold value or less than the threshold value from the time specified by the target time information. It is.
  • the first position condition may be a condition regarding position information and the moving direction of the moving object.
  • the first position condition may be a condition regarding position information and the orientation (direction) of the camera.
  • the second position condition is position information that has an approximate relationship with the reference position or reference area to be compared.
  • the approximate relationship here is that the distance to the reference position is within the threshold, the distance to the reference position is less than the threshold, or the position is within the reference area.
  • the video acquisition unit 133 acquires a video transmitted from the mobile terminal 2, which is, for example, a video shot by each of two or more mobile terminals 2, and which is associated with an attribute value set and a right holder identifier. It is preferable that the video acquisition unit 133 acquires videos that satisfy the storage conditions.
  • the storage conditions are conditions for storing videos.
  • the storage condition is, for example, that a condition specified by the inquiry is met.
  • the storage condition is, for example, that the storage condition, which will be described later, is met.
  • the device storing the video to be acquired may be the mobile terminal 2, the information processing device 1, or another device not shown.
  • the other device is, for example, a device that configures a blockchain.
  • the video acquisition unit 133 acquires one or more videos corresponding to the inquiry from the mobile terminal 2.
  • the video acquisition unit 133 acquires from the mobile terminal 2, for example, one or more videos that are paired with an attribute value set that satisfies the conditions related to the environmental information included in the inquiry.
  • the video acquisition unit 133 transmits an inquiry to one or more mobile terminals 2, and receives one or more videos corresponding to the inquiry from the one or more mobile terminals 2.
  • Such processing is called unregistered video search processing.
  • the unregistered video search process is a process of acquiring videos that match the conditions from unregistered videos stored in the mobile terminal 2.
  • the unregistered video search process is, for example, a process of acquiring a video that matches an inquiry from unregistered videos stored in the mobile terminal 2.
  • the video acquisition unit 133 acquires, for example, a video corresponding to the inquiry among videos shot by one or more mobile terminals 2 corresponding to the movement information.
  • the video acquisition unit 133 transmits an inquiry to one or more mobile terminals 2 corresponding to the movement information, and receives a video matching the inquiry from the mobile terminal 2.
  • the mobile terminal 2 corresponding to the movement information is a mobile terminal 2 that is moving and is a mobile terminal 2 that can transmit moving images.
  • the video acquisition unit 133 determines one or more attribute value sets that match the inquiry, and stores the video corresponding to each of the one or more attribute value sets. Obtained from section 11.
  • the video acquisition unit 133 refers to the set storage unit 111 , determines one or more videos corresponding to the inquiry, and acquires the one or more videos from the mobile terminal 2 .
  • the process of referring to the set storage unit 111 and determining the video corresponding to the inquiry is to determine the attribute value set that matches the inquiry among the one or more attribute value sets that the set storage unit 111 has.
  • This process is called registered video search process.
  • the registered video search process is a process of searching registered videos for videos that match conditions.
  • the registered video search process is, for example, a process of searching registered videos for a video that matches an inquiry. Note that the registered video is a video that has been subjected to first maintenance processing or second maintenance processing, which will be described later.
  • the video acquisition unit 133 refers to the set storage unit 111, determines a video corresponding to the inquiry, determines whether the video is in a state that can be transmitted from the mobile terminal 2, and determines whether the video is in a state where it can be transmitted. , acquires a video from the mobile terminal 2.
  • the video acquisition unit 133 attempts communication with the mobile terminal 2 and can receive information from the mobile terminal 2, it determines that the video can be transmitted from the mobile terminal 2. For example, the video acquisition unit 133 determines whether or not movement information corresponding to the mobile terminal 2 is stored in the storage unit 11, and if it is stored, determines that the video is ready to be transmitted from the mobile terminal 2. do.
  • the state in which a moving image can be transmitted is, for example, a state in which the mobile terminal 2 or a mobile body corresponding to the mobile terminal 2 is powered on (for example, a state in which the engine of a car that is a mobile body is turned on).
  • the method by which the video acquisition unit 133 determines whether or not a video can be transmitted is not limited.
  • the video acquisition unit 133 acquires a video associated with an attribute value set that satisfies the maintenance condition from the mobile terminal 2. Through this process, videos can be automatically acquired.
  • Preservation conditions are conditions for storing videos.
  • a maintenance condition is a condition regarding an attribute value set.
  • the maintenance condition is a condition regarding one or more tags.
  • the preservation conditions include, for example, that the attribute value set includes a tag indicating "accident,” that the attribute value set includes a tag indicating "traffic jam,” and that the attribute value set includes a tag indicating a specific location.
  • a tag indicating a specific place is, for example, the name of a specific parking lot, the name of a specific place, the name of a specific scenic spot, or the name of a specific landscape.
  • the maintenance condition corresponds to an attribute value set that satisfies a predetermined condition for an attribute value set corresponding to one or more videos stored in a predetermined device or area (for example, the storage unit 11). It must be a video.
  • the predetermined condition is, for example, that the attribute value included in the attribute value set does not exist in the attribute value set corresponding to one or more moving images stored in a predetermined device or area.
  • the video acquisition unit 133 may acquire a processed image obtained by processing a video captured by the mobile terminal 2.
  • a processed image is, for example, a around-view image.
  • the around view image is an image displayed on the around view monitor.
  • the around-view image is an image that appears to be taken from directly above an area including a moving object.
  • the video composition unit 134 composes one video using two or more videos acquired by the video acquisition unit 133. Composing one moving image may be accomplished by sequentially passing parts of the moving image that appear to be one moving image from the user to the moving image transmitting unit 141.
  • the video composition unit 134 temporally combines two or more videos that have different time information associated with the two or more videos acquired by the video acquisition unit 133, and configures one video.
  • Two or more moving images may be temporally combined to form one moving image by sequentially passing the two or more moving images to the moving image transmitting unit 141.
  • composing one moving image by temporally combining two or more moving images only requires that the user view them as one moving image.
  • the video composition unit 134 combines two or more videos acquired by the video acquisition unit 133 in the order of time corresponding to the videos, and configures one video.
  • the video composition unit 134 acquires parts of two or more videos acquired by the video acquisition unit 133, and sequentially combines the parts of each video to form one video.
  • Temporally combining two or more moving images usually means sequentially combining parts of the moving images shot by two or more mobile terminals 2. Sequentially combining parts of the videos may also be done by sequentially passing the parts of the videos to the video transmitter 141.
  • Combining videos in the time order corresponding to the videos means combining videos in the time order indicated by time information corresponding to the videos, or combining videos in the order in which the videos are received.
  • the video composition unit 134 configures one video by spatially fusing parts of two or more videos that have different position information associated with the two or more videos acquired by the video acquisition unit 133.
  • the video composition unit 134 configures one frame using part or all of the frames constituting each of the two or more videos acquired by the video acquisition unit 133, and temporally connects the frames to create one video. Configure.
  • the video composition unit 134 processes two or more videos acquired by the video acquisition unit 133 to compose one video.
  • the video composition unit 134 spatially connects frames directly above the frames that are included in videos shot by two or more mobile terminals 2 installed in two or more mobile objects, and configures one frame. , constitute one moving image having one frame.
  • the video composition unit 134 composes two or more around-view images to construct a wide-area around-view image.
  • the right holder processing unit 135 performs right holder processing.
  • the right holder process is a process related to a right holder identified by a right holder identifier associated with one video configured by the video composition unit 134.
  • the right holder processing unit 135 performs right holder processing, which is processing in response to the video transmission unit 141 transmitting a video, and is processing related to the right holder identified by the right holder identifier associated with the video, for example.
  • the right holder processing is, for example, a first maintenance processing described later, a second maintenance processing described later, a third maintenance processing described later, a fourth maintenance processing described later, and a reward processing described later.
  • the video transmitted by the video transmitting section 141 is an image composed by the video composition section 134.
  • the right holder identifier associated with one video is, for example, the right holder identifier associated with each of two or more videos that are the source of one composed video, or the identifier of the user who requested the one video. be.
  • the right holder processing unit 135 stores the video acquired by the video acquisition unit 133 in association with the right holder identifier. It is preferable that the right holder processing unit 135 stores only the video that the video acquisition unit 133 has acquired, assuming that the storage condition is satisfied. Further, it is preferable that the right holder processing unit 135 does not store videos that do not satisfy the storage conditions.
  • the right holder processing unit 135 acquires status information regarding the state. do.
  • Status information is information regarding the state in which a video cannot be transmitted.
  • the status information is, for example, information indicating the status of the mobile terminal 2 that holds the video. Status information includes, for example, ⁇ The video exists, but it is not currently in a state where it can be sent to you.'' ⁇ The video exists on Mr. ___'s mobile terminal, but it is not currently in a state where it can be sent to you. ”.
  • the status information is, for example, information indicating that the power of the mobile terminal 2 is OFF, or information indicating that the power of the mobile terminal 2 is ON.
  • the right holder processing unit 135 acquires needs information when the video acquisition unit 133 determines that the mobile terminal 2 holding the video corresponding to the inquiry is unable to transmit the video.
  • Needs information is information indicating that there is a need for videos.
  • the needs information is, for example, "Your XXX video is requested by another user.” "Another user is requesting your XXX video for XX yen.”
  • the first preservation means 1351 performs a first preservation process of accumulating one moving image composed by the moving image composition unit 134 in association with attribute value sets associated with two or more moving pictures that are the basis of the one moving picture. conduct.
  • the first maintenance unit 1351 may perform a first maintenance process in which a video received from the mobile terminal 2 is stored in association with an attribute value set associated with the video.
  • the second preservation means 1352 performs a second preservation process of storing one moving image composed by the moving image composition unit 134 in association with the right holder identifier corresponding to each of the two or more videos that are the source of the one moving image. conduct.
  • the first preservation means 1351 or the second preservation means 1352 stores a single video constructed by the video composition unit 134, an attribute value set associated with each of two or more videos that are the source of the one video, and the corresponding The information may be stored in association with right holder identifiers corresponding to two or more videos that are the source of one video.
  • the third storage unit 1353 stores one video composed by the video composition unit 134 in association with the right holder identifier that identifies the user of the user terminal 3.
  • the user of the user terminal 3 here is a person who watches one video.
  • the user terminal 3 here is, for example, the terminal that transmitted the inquiry.
  • the destination for storing one video is, for example, the storage unit 11, but it may be other devices, other devices configuring the blockchain, or the like.
  • the fourth preservation means 1354 performs a fourth preservation process of accumulating preservation information including access information for accessing one stored moving image.
  • the order of storing a video and performing the fourth maintenance process on the maintenance information corresponding to the video does not matter.
  • the fourth security means 1354 is configured by the video composition unit 134 and performs a fourth security process of storing security information including access information for accessing one stored video in the blockchain.
  • the fourth security means 1354 it is preferable for the fourth security means 1354 to store security information in a blockchain. In other words, it is preferable for the fourth security means 1354 to store security information in a blockchain distributed ledger. It is preferable that the fourth security means 1354 register security information as an NFT (non-fungible token). It is preferable that the fourth security means 1354 register the security information in a distributed file system in an IPFS (Inter Planetary File System) network.
  • NFT non-fungible token
  • the maintenance information is the heading information of the video.
  • the maintenance information is, for example, access information and one or more video attribute values.
  • the security information includes, for example, one or more right holder identifiers.
  • the preservation information has two or more right holder identifiers
  • the right holder of the video may be shared, or the two or more right holder identifiers may be right holder history information.
  • the right holder history information is a set of right holder identifiers, and is information indicating the history of the right holder.
  • the fourth preservation process ensures the originality of the preservation information of the registered video.
  • the access information is information for accessing a video.
  • the access information is information that specifies the storage destination of the video.
  • the access information is, for example, a URL or a URI.
  • the maintenance information includes information (which may also be called a flag) indicating whether or not the video can be provided to a third party.
  • the flag is, for example, information indicating that a third party can view the item, information indicating that the item can be sold, or information indicating that neither viewing nor sale is permitted.
  • the remuneration unit 1355 performs remuneration processing for each right holder identified by the right holder identifier associated with each of the two or more videos that are the basis of one video composed by the video composition unit 134.
  • Reward processing is the process of giving a reward.
  • the reward process is, for example, a process of increasing points managed in pairs with one or more right holder identifiers associated with a video.
  • the remuneration process is, for example, a process of depositing money to a rights holder identified by one or more rights holder identifiers associated with a video.
  • the reward process is, for example, a process of transmitting a video or other content to the user terminal 3 of the right holder identified by one or more right holder identifiers associated with the video.
  • the content of the reward process does not matter as long as it provides a benefit to the right holder identified by one or more right holder identifiers associated with the video.
  • the reward may be, for example, money, points, goods, content, etc., and the content thereof does not matter.
  • the reward means 1355 acquires one or more video attribute values corresponding to each of the two or more videos that are the source of the one video transmitted by the video transmitter 141, and uses the one or more video attribute values to , it is preferable to perform a remuneration process, which is a process of determining remuneration for each of two or more right holders and giving the remuneration.
  • the one or more video attribute values here include, for example, the data amount of the video, the time of the video, the number of frames of the video, and the resolution of the video.
  • the remuneration means 1355 performs remuneration processing, which is a process of obtaining a remuneration amount corresponding to a service identifier that identifies a service performed on the target video, and giving a remuneration corresponding to the remuneration amount.
  • remuneration processing which is a process of obtaining a remuneration amount corresponding to a service identifier that identifies a service performed on the target video, and giving a remuneration corresponding to the remuneration amount.
  • the service identifiers are, for example, "browse" and "purchase.”
  • the storage unit 11 stores the amount of remuneration corresponding to the service identifier or information for determining the amount of remuneration corresponding to the service identifier.
  • the remuneration unit 1355 obtains a remuneration amount using, for example, one or more information of one or more video attribute values and a service identifier, and provides remuneration that corresponds to the remuneration amount. Perform processing.
  • the storage unit 11 stores arithmetic expressions or correspondence tables corresponding to two or more service identifiers.
  • the calculation formula is a formula for calculating the amount of reward using one or more video attribute values as parameters.
  • the correspondence table is a table having two or more pieces of correspondence information that manage reward amounts corresponding to one or more video attribute values.
  • the remuneration means 1355 normally performs a process of making the user who has enjoyed the service related to the target video bear the remuneration.
  • the process of paying the reward is, for example, the process of paying the amount of the acquired reward.
  • the process of making the reward payable is, for example, a process of making the operator of the information processing device 1 pay the amount of the acquired reward and the profit earned by the operator of the information processing device 1.
  • the process of charging the reward includes, for example, a process of deducting points corresponding to a user who has enjoyed a service, a payment process using the user's credit card number, and the like.
  • the transmitter 14 transmits various information or instructions to the mobile terminal 2, user terminal 3, or navigation terminal 5.
  • Various types of information or instructions include, for example, videos, inquiries, status information, and needs information.
  • the video transmission unit 141 transmits one video composed by the video composition unit 134.
  • the video transmitter 141 transmits the one video to the user terminal 3. It is preferable that the video transmitter 141 transmits a video in response to receiving an inquiry.
  • the video transmitter 141 transmits a video to the user terminal 3 or the navigation terminal 5, for example. Transmitting one moving image may also mean that the moving image transmitting unit 141 sequentially transmits a portion of the one moving image that has been passed to it.
  • the video transmission unit 141 transmits the video acquired by the video acquisition unit 133 to the user terminal 3, for example.
  • the status transmitting unit 142 transmits status information regarding the status to the user terminal 3 when the video cannot be transmitted. For example, the status transmitting unit 142 transmits the status information acquired by the right holder processing unit 135 to the user terminal 3.
  • the video acquisition unit 133 determines whether or not the video cannot be transmitted.
  • the needs transmitting unit 143 transmits needs information indicating that there is a need for the video to the user corresponding to the video.
  • the needs transmitting unit 143 transmits, for example, the needs information acquired by the right holder processing unit 135 to the user corresponding to the video.
  • Sending the needs information to the user corresponding to the video means, for example, sending the needs information by e-mail to the destination of the e-mail address that is paired with the right holder identifier corresponding to the video.
  • Sending the needs information to the user corresponding to the video means, for example, sending the needs information as a short message to the destination of the telephone number that is paired with the right holder identifier corresponding to the video.
  • Transmitting to the user corresponding to the video means, for example, transmitting the needs information to the mobile terminal 2 paired with the right holder identifier corresponding to the video.
  • the user corresponding to the video is usually the right holder of the video.
  • a variety of information is stored in the mobile storage unit 21 that constitutes the mobile terminal 2.
  • Various types of information include, for example, a video, a set of attribute values, a right holder identifier, movement information indicating the start of movement, a combination of an attribute value tag condition and a tag, a combination of a video tag condition and a tag, one or more A maintenance condition, one or more pieces of acquisition information.
  • the movement storage unit 21 normally stores one or more pairs of attribute value tag conditions and tags.
  • the movement storage unit 21 normally stores one or more pairs of video tag conditions and tags.
  • one or more still images (which may also be referred to as fields or frames) that make up a moving image are associated with one or more moving image attribute values that make up an attribute value set.
  • One or more moving image attribute values may be associated with all still images, some still images, or two or more still images.
  • the attribute value tag condition is a condition for acquiring a tag based on one or more mobile object attribute values.
  • the attribute value tag condition is a condition regarding one or more mobile object attribute values.
  • Attribute value tag conditions include, for example, ⁇ a sudden brake was pressed'', ⁇ the degree of speed deceleration (acceleration) within a unit time is below a threshold (a sudden brake was pressed)'', ⁇ an airbag was pressed.'' ⁇ The speed has been lower than the first speed for a second period of time or more (congestion)''' ⁇ The location information corresponds to a specific name.
  • Tags paired with attribute value tag conditions are, for example, "abnormal driving,” “accident,” "traffic jam,” and "specific point name.”
  • Video tag conditions are conditions related to videos.
  • the video tag condition is a condition based on the video analysis result.
  • Video tag conditions include, for example, ⁇ having a still image of two or more cars in contact (an accident)'' and ⁇ there being a frame where the distance between two or more cars is 0 (cars are in contact)'' )" "The period during which there are vehicles equal to or greater than the first threshold within a predetermined distance is equal to or greater than the second threshold (congestion)" "Amount of change in distance between the center of gravity of the vehicle in front and the lane” The cumulative amount per unit time is greater than or equal to the threshold value (the car in front is driving in a meandering manner).
  • Tags paired with the video tag condition are, for example, “accident,” “traffic jam,” and “abnormal driving.”
  • Preservation conditions are conditions for preserving videos.
  • a maintenance condition is a condition regarding an attribute value set. Such preservation conditions include, for example, ⁇ the airbag has been activated (an accident has occurred)'', ⁇ a specific tag has been attached to the video (specific tags are, for example, ⁇ accident'' and ⁇ dangerous driving''). It is.
  • the maintenance conditions are associated with acquired information.
  • the acquisition information is information that specifies the video to be acquired.
  • the acquisition information is information that specifies the video to be acquired when the maintenance conditions are met.
  • Such maintenance conditions are, for example, ⁇ (1) The number of cars in the screen is above the first threshold & (2) The running speed of the cars is below the second threshold & The duration of (1) and (2) is above the third threshold (continuing traffic jams).”
  • the mobile receiving unit 22 receives various types of information.
  • Various types of information include, for example, inquiries, needs information, and videos captured by other mobile terminals 2.
  • the movement processing unit 23 performs various processes. Various types of processing are, for example, processing performed by the photographing section 231, the tag acquisition section 232, and the movement information acquisition section 233.
  • the movement processing unit 23 converts the information received by the movement reception unit 22 into a data structure to be output.
  • the movement processing unit 23 detects the start of movement, for example. Detection of the start of movement is, for example, detection of turning on the power of the mobile terminal 2 or detection of turning on the engine of the mobile object.
  • the movement processing unit 23 detects, for example, the end of movement. Detection of the end of movement is, for example, detection of power OFF of the mobile terminal 2 or detection of OFF of the engine of the mobile object.
  • the movement processing unit 23 determines an attribute value set that matches the inquiry received by the movement reception unit 22, and acquires a video that is paired with the attribute value set from the movement storage unit 21.
  • the movement processing unit 23 obtains, for example, a moving image from the start of movement to the end of movement.
  • the movement processing unit 23 obtains, for example, a moving image from the start of movement to the end of movement in association with the attribute value set obtained during movement.
  • the movement processing unit 23 acquires a set of attribute values during shooting, for example.
  • the movement processing unit 23 stores the acquired attribute value set in the movement storage unit 21.
  • the movement processing unit 23 associates the acquired attribute value set with a video, for example.
  • Associating with a video usually means associating with frames that make up the video. It is preferable that the attribute value set and the frame are temporally synchronized.
  • the attribute value set is, for example, one or more pieces of environmental information.
  • the environmental information is, for example, location information, time information, weather information, temperature information, and seasonal information.
  • the movement processing unit 23 acquires position information, for example, during shooting.
  • the movement processing unit 23 acquires position information, for example, at all times, every predetermined period, or when acquisition conditions are met.
  • Acquisition conditions are conditions for acquiring information.
  • the acquisition conditions include, for example, when it is detected that an accident has occurred, when a traffic jam is detected, or when there is a change in weather information.
  • the movement processing unit 23 acquires time information from a clock (not shown) during shooting.
  • the movement processing unit 23 acquires time information, for example, at all times, every predetermined period, or when acquisition conditions are met.
  • the movement processing unit 23 acquires time information from a clock (not shown) and acquires seasonal information corresponding to the time information.
  • the movement processing unit 23 acquires weather information, for example, during shooting.
  • the movement processing unit 23 obtains weather information corresponding to position information from a server (not shown), for example.
  • the movement processing unit 23 acquires weather information, for example, at all times, every predetermined period, or when acquisition conditions are met.
  • the movement processing unit 23 acquires temperature information, for example, during shooting.
  • the movement processing unit 23 obtains, for example, temperature information corresponding to position information from a server (not shown).
  • the movement processing unit 23 acquires temperature information from a temperature sensor installed on the moving body, for example.
  • the movement processing unit 23 acquires temperature information, for example, at all times, every predetermined period, or when acquisition conditions are met.
  • the movement processing unit 23 determines, for example, whether the acquired attribute value set matches the maintenance condition.
  • the movement processing unit 23 determines, for example, whether or not the acquired time-series attribute value set matches a maintenance condition. For example, when the maintenance condition is met, the movement processing unit 23 acquires the video corresponding to the attribute value set. For example, when the maintenance condition is met, the movement processing unit 23 acquires a video corresponding to the maintenance condition. For example, when the maintenance condition is met, the movement processing unit 23 acquires the acquisition information paired with the maintenance condition, and acquires the video according to the acquisition information.
  • the movement processing unit 23 is equipped with a microphone, for example, acquires sound information, and stores the sound information in association with the moving image acquired by the photographing unit 231.
  • a function is, for example, a function of a drive recorder.
  • the photographing unit 231 photographs a moving image. For example, the photographing unit 231 starts photographing after detecting the start of movement. Further, it is preferable that the photographing unit 231 continues photographing, for example, until the end of movement is detected.
  • the photographing section 231 accumulates the photographed moving images in the movable storage section 21.
  • the photographing unit 231 When storing moving images in the mobile storage unit 21 having a limited storage capacity, it is preferable for the photographing unit 231 to overwrite an area where an old moving image is stored with a new moving image.
  • the structure of the mobile storage unit 21 is a ring buffer structure.
  • the tag acquisition unit 232 acquires one or more tags for the video captured by the photography unit 231 and associates them with the video.
  • the tag acquisition unit 232 analyzes a video shot by the imaging unit 231 and acquires one or more tags for the video.
  • the tag acquisition unit 232 acquires one or more tags using, for example, one or more moving object attribute values acquired during photography by the photography unit 231.
  • the mobile object attribute value is, for example, CAN data.
  • the tag acquisition unit 232 determines one or more still images that match the video tag condition, and acquires the tag that pairs with the video tag condition. Furthermore, the tag acquisition unit 232 may associate the tag with the one or more still images. Note that a still image is a frame that constitutes a moving image.
  • the tag The acquisition unit 232 analyzes frames included in the video, recognizes two or more cars, and acquires the distance between each of the two or more cars. Furthermore, the tag acquisition unit 232 acquires the number of cars whose intervals are within a threshold value. Furthermore, the tag acquisition unit 232 acquires the moving distance and frame rate of one vehicle in two or more frames, and acquires the speed of the vehicle.
  • the tag acquisition unit 232 uses the number of cars within which the distance between cars is within a threshold value and the speed of the cars to determine whether the video tag condition is met. If the video tag condition is met, the tag acquisition unit 232 acquires the tag "traffic jam" that pairs with the video tag condition. Further, the tag acquisition unit 232 may associate the tag "traffic jam" with the analyzed frame of the analyzed video.
  • the tag acquisition unit 232 determines one or more mobile object attribute values that match the attribute value tag condition, and acquires a tag that pairs with the attribute value tag condition. Furthermore, the tag acquisition unit 232 may associate the tag with the video that is paired with the one or more moving object attribute values.
  • the tag paired with the attribute value tag condition is “driving time at a speed of less than 30 km for 10 minutes or more & the ratio of speed less than 30% during the said traveling time is 80% or more”
  • the tag paired with the attribute value tag condition is In the case of "traffic jam”
  • the tag acquisition unit 232 detects CAN data that matches the attribute value tag condition using the speed history of the CAN data associated with each field of the video, and The tag "traffic jam" paired with the attribute value tag condition is acquired, and the tag is associated with the field associated with the CAN data.
  • the CAN data associated with each field included in the video is CAN data acquired at the same timing as the field was photographed.
  • the movement information acquisition unit 233 detects movement of the mobile terminal 2, and acquires movement information, for example, at the start of the movement.
  • the movement information acquisition unit 233 acquires movement information that is the right holder identifier of the movement storage unit 21, for example.
  • the movement information acquisition unit 233 acquires movement information from the movement storage unit 21, for example. Note that the movement information is, for example, a right holder identifier and information indicating that the movement has started.
  • the mobile transmitter 24 transmits various types of information to the information processing device 1.
  • Various types of information include, for example, movement information, moving images, and attribute value sets.
  • the movement information transmitting unit 241 normally transmits movement information specifying that the mobile terminal 2 is moving to the information processing device 1 at the start of movement.
  • the movement information transmitting unit 241 transmits the movement information acquired by the movement information acquisition unit 233 to the information processing device 1.
  • the moving video transmitting unit 242 transmits the video captured by the imaging unit 231 to the information processing device 1.
  • the timing at which the moving video transmitter 242 transmits the video does not matter.
  • the moving video transmitting unit 242 transmits the video to the information processing device 1 after the moving processing unit 23 acquires a video that is paired with the attribute value set that matches the received inquiry.
  • the moving video transmitter 242 detects the end of the move, it transmits the videos accumulated since the start of the move was detected to the information processing device 1 .
  • the moving video transmitting unit 242 transmits a video corresponding to the determination to the information processing device 1.
  • the movement transmitting unit 24 transmits the moving image photographed by the photographing unit 231 to the information processing device 1, it is preferable that the movement transmitting unit 24 does not transmit the sound information acquired by the movement processing unit 23.
  • the sound information may be, for example, the voice information of the driver or passenger in the moving body, and it is the driver's or passenger's responsibility to transmit such sound information to the information processing device 1 and provide it to the user terminal 3 etc. This is because it may threaten the privacy of passengers and is not appropriate.
  • the set transmitting unit 243 transmits the attribute value set in the movement storage unit 21 to the information processing device 1.
  • the set transmitting unit 243 transmits the attribute value set in the movement storage unit 21 to the information processing device 1, for example, when the movement of the mobile terminal 2 ends. Note that, once the set transmitting unit 243 acquires the attribute value set, it may immediately transmit the attribute value set to the information processing device 1. In other words, the timing at which the set transmitter 243 transmits the attribute value set does not matter.
  • a variety of information is stored in the user storage unit 31 that constitutes the user terminal 3.
  • Various types of information include, for example, a user identifier and a video.
  • the user reception unit 32 receives various instructions and information.
  • Various instructions and information include, for example, inquiries and purchase instructions.
  • the purchase instruction is an instruction to purchase a video.
  • the purchase instruction is associated with a user identifier.
  • Purchase instructions typically include information that identifies the video.
  • the purchase instruction includes, for example, a video identifier.
  • the purchase instruction includes, for example, an inquiry.
  • the purchase instruction includes, for example, purchase conditions.
  • the purchase condition is, for example, the purchase amount.
  • the purchase conditions include, for example, information specifying the rights period.
  • Any means for inputting various instructions and information may be used, such as a touch panel, keyboard, mouse, or menu screen.
  • the user processing unit 33 performs various processes.
  • the various processes are, for example, processes for converting various instructions and information received by the user reception unit 32 into a data structure to be transmitted.
  • Various types of processing are, for example, processing for creating a structure for transmitting information received by the user receiving unit 35.
  • the user transmitter 34 transmits various instructions and information to the information processing device 1.
  • Various instructions and information include, for example, inquiries, purchase instructions, location information received from the target terminal 4, and route information received from the navigation terminal 5.
  • the user receiving unit 35 receives various information and instructions.
  • Various types of information and instructions include, for example, inquiries, videos, and status information.
  • the user output unit 36 outputs various information.
  • Various types of information include, for example, moving images and status information.
  • output means displaying on a display, projecting using a projector, printing on a printer, outputting sound, sending to an external device, storing on a recording medium, sending to other processing devices or other programs, etc.
  • This is a concept that includes the delivery of processing results.
  • the target terminal 4 acquires and transmits location information that specifies the location of the target terminal 4.
  • the target terminal 4 transmits position information to the information processing device 1 or the user terminal 3, for example. It is preferable that the target terminal 4 transmits the location information in pairs with the target person identifier.
  • a subject identifier is information that identifies a monitoring target.
  • the target person identifier is, for example, an ID, a name, a telephone number, an email address, and a MAC address of the target terminal 4.
  • the target terminal 4 acquires location information using, for example, a GPS receiver, but any method of acquiring location information may be used.
  • the navigation terminal 5 has the functions of a known navigation terminal.
  • the navigation terminal 5 receives input of a destination, acquires the current position, and acquires route information from the current position to the destination. For example, the navigation terminal 5 transmits the received destination. For example, the navigation terminal 5 transmits the acquired route information.
  • the destination or route information is transmitted to, for example, the information processing device 1 or the user terminal 3.
  • the navigation terminal 5 may receive the destination from the user terminal 3 and obtain route information from the current location to the destination.
  • the storage unit 11, collective storage unit 111, mobile storage unit 21, and user storage unit 31 are preferably non-volatile recording media, but can also be implemented using volatile recording media.
  • information may be stored in the storage unit 11 or the like via a recording medium, or information transmitted via a communication line or the like may be stored in the storage unit 11 or the like.
  • information input via an input device may be stored in the storage unit 11 or the like.
  • the receiving unit 12, mobile information receiving unit 121, inquiry receiving unit 122, collective receiving unit 123, mobile receiving unit 22, and user receiving unit 35 are usually realized by wireless or wired communication means, but are not used for receiving broadcasts. It may be realized by means of.
  • the four maintenance means 1354, the reward means 1355, the movement processing section 23, the tag acquisition section 232, the movement information acquisition section 233, and the user processing section 33 can usually be realized by a processor, memory, or the like.
  • the processing procedures of the processing unit 13 and the like are usually realized by software, and the software is recorded on a recording medium such as a ROM. However, it may be realized by hardware (dedicated circuit). Note that the processor may be a CPU, MPU, GPU, etc., and its type does not matter.
  • video acquisition unit 133 and the right holder processing unit 135 may be realized by wireless or wired communication means.
  • the transmitting section 14, the moving image transmitting section 141, the status transmitting section 142, the needs transmitting section 143, the movement transmitting section 24, the moving information transmitting section 241, the moving moving image transmitting section 242, the collective transmitting section 243, and the user transmitting section 34 usually Although it is realized by wireless or wired communication means, it may also be realized by broadcasting means.
  • the photographing unit 231 is realized by a camera.
  • the camera may be, for example, a CCD camera, a CMOS camera, a 3D camera, a LiDAR, or an omnidirectional camera, but the type thereof does not matter.
  • the user reception unit 32 may be realized by a device driver for input means such as a touch panel or a keyboard, control software for a menu screen, or the like.
  • the user output unit 36 may or may not include output devices such as a display and a speaker.
  • the user output unit 36 may be realized by output device driver software, output device driver software and the output device, or the like.
  • Step S401 The movement information receiving unit 121 determines whether or not movement information associated with the right holder identifier has been received from the mobile terminal 2. If the movement information is received, the process goes to step S402, and if the movement information is not received, the process goes to step S403.
  • Step S402 The movement information receiving unit 121 stores the movement information received in step S401 in the storage unit 11 in association with the right holder identifier. Return to step S401. Note that when the movement information is a right holder identifier, the movement information receiving unit 121 stores the right holder identifier.
  • Step S403 The set reception unit 123 determines whether or not the set of attribute values associated with the right holder identifier has been received from the mobile terminal 2. If the attribute value set is received, the process goes to step S404; if not, the process goes to step S406.
  • Step S404 The set storage unit 132 stores the attribute value set received in step S403 in the set storage unit 111 in association with the right holder identifier.
  • Step S405 The processing unit 13 deletes the movement information associated with the right holder identifier from the storage unit 11. Return to step S401. Note that deleting the movement information has the same meaning as "rewriting the movement information with information indicating that the user is not in a state where a video can be transmitted.”
  • Step S406 The receiving unit 12 determines whether or not a video etc. associated with the right holder identifier has been received from the mobile terminal 2. If a moving image or the like has been received, the process proceeds to step S407; if not, the process proceeds to step S410.
  • Step S407 The processing unit 13 performs a process of acquiring an attribute value set corresponding to the video received in step S406.
  • An example of such attribute value set acquisition processing will be described using the flowchart of FIG. 5. Further, the attribute value set acquisition process here may be a process of acquiring an attribute value set associated with the received video.
  • the first preservation means 1351 stores the video received in step S406 in association with the attribute value set obtained in step S407. Note that the first preservation means 1351 stores the video in the storage unit 11, for example, but it may also store the video in another device such as a device configuring a blockchain. Further, the process in which the first preservation means 1351 stores moving images is a first preservation process.
  • Step S409 The fourth maintenance means 1354 performs a fourth maintenance process. Return to step S401. Note that an example of the fourth maintenance process will be explained using the flowchart of FIG. 8.
  • Step S410 The inquiry receiving unit 122 determines whether or not an inquiry has been received. If an inquiry is received, the process goes to step S411; if not, the process goes to step S414. Note that the inquiry receiving unit 122 normally receives an inquiry from the user terminal 3 or the navigation terminal 5. Note that the navigation terminal 5 that transmits the inquiry may be the user terminal 3.
  • Step S411 The video acquisition unit 133 determines whether the received inquiry is a real-time video search. If it is a real-time video search, the process goes to step S412, and if it is not a real-time video search, the process goes to step S415. Note that such a determination can be made by inspecting the received inquiry.
  • the real-time video search is a process in which the mobile terminal 2 searches for videos currently held or videos being shot.
  • Step S412 The video acquisition unit 133 determines whether the received inquiry requires spatial fusion of two or more videos. If spatial fusion is necessary, the process proceeds to step S413, and if spatial fusion is not necessary, the process proceeds to step S414. Note that such a determination can be made by inspecting the received inquiry.
  • Step S413 The video acquisition unit 133, video composition unit 134, etc. perform video fusion processing. Go to step S418.
  • the video fusion process is a process of spatially merging two or more videos to obtain and transmit an image having one or more frames. An example of video fusion processing will be explained using the flowchart of FIG. 9.
  • Step S414 The video acquisition unit 133, video composition unit 134, etc. perform video combination processing. Go to step S418.
  • the video combining process is a process of transmitting a single video in which two or more videos are combined. An example of video combining processing will be described using the flowchart of FIG. 11.
  • Step S415) The video acquisition unit 133 and the like perform registered video search processing.
  • An example of registered video search processing will be described using the flowchart of FIG. 12. Note that here, the video acquisition unit 133 may not be able to acquire the video.
  • Step S416 The video acquisition unit 133 determines whether the video was successfully acquired in step S415. If the video could be acquired, the process goes to step S417; if the video could not be acquired, the process goes to step S418.
  • Step S417) The video acquisition unit 133 performs an unregistered video search process.
  • An example of the unregistered video search process will be described using the flowcharts of FIGS. 13 and 14. Note that here, the video acquisition unit 133 may not be able to acquire the video.
  • Step S4128 The right holder processing unit 135 performs maintenance processing. Return to step S401. An example of the maintenance process will be explained using the flowchart of FIG. 15.
  • Step S419) The receiving unit 12 determines whether a purchase instruction has been received from the user terminal 3. If a purchase instruction has been received, the process proceeds to step S420; if not, the process returns to step S401.
  • the video acquisition unit 133 acquires a video corresponding to the purchase instruction.
  • the video acquisition unit 133 receives, for example, a video corresponding to the purchase instruction from the mobile terminal 2. Further, the video acquisition unit 133 acquires, for example, a video corresponding to the purchase instruction from registered videos. The video acquisition unit 133 may, for example, acquire the video corresponding to the purchase instruction from unregistered videos.
  • Step S421 The fourth security means 1354 acquires the user identifier corresponding to the user terminal 3 that sent the purchase instruction. Note that this user identifier becomes a rights holder identifier for the purchased video.
  • Step S422 The fourth maintenance means 1354 performs the fourth maintenance process using the user identifier acquired in step S416.
  • An example of the fourth maintenance process will be explained using the flowchart of FIG. 8.
  • Step S423 The remuneration means 1355 performs remuneration processing to the original rights holder of the video to be purchased. Return to step S401. An example of reward processing will be explained using the flowchart of FIG. 16.
  • the receiving unit 12 receives location information from each of the two or more mobile terminals 2 that identifies the current location of the mobile terminal 2 by pairing it with the identifier of the mobile terminal 2 (for example, a right holder identifier). It is preferable to receive and temporarily store the information.
  • the frequency and time interval at which the receiving unit 12 receives and temporarily stores position information are not limited.
  • the receiving unit 12 may receive position information continuously from the user terminal 3, the target terminal 4, or the navigation terminal 5, for example.
  • the information processing device 1 may receive the video acquired by the mobile terminal 2 using the received position information, and transmit it to the user terminal 3 or the navigation terminal 5, for example. Note that the frequency and time interval at which position information is continuously received does not matter.
  • the movement processing unit 23 or the set accumulation unit 132 acquires one or more pieces of environmental information associated with the target video.
  • the target video is a video for which video attribute values are to be acquired, and is, for example, a received video, a video that has been shot, or a video that is currently being shot.
  • the environmental information etc. may be only environmental information, or may be environmental information and one or more moving object attribute values.
  • Step S502 The movement processing unit 23 and the like acquire the right holder identifier associated with the received video.
  • Step S503 The movement processing unit 23 and the like determine whether or not to perform annotation processing on the video. If annotation processing is to be performed, the process proceeds to step S504; otherwise, the process proceeds to step S511. Note that it is assumed that whether or not to perform annotation processing is determined in advance. Further, it is preferable to annotate the video using either the information processing device 1 or the mobile terminal 2.
  • Step S504 The movement processing unit 23 etc. assigns 1 to the counter i.
  • Step S505 The movement processing unit 23 and the like determine whether the i-th annotation unit exists in the video. If the i-th annotation unit exists, the process goes to step S506; if it does not exist, the process goes to step S511.
  • a unit of annotation is a target for acquiring an annotation, and is, for example, one frame, a group of frames of a certain number, or a moving image of a certain period of time (for example, 5 seconds or 10 seconds).
  • Step S506 The movement processing unit 23 and the like determine whether or not to use the moving object attribute value during annotation. If the mobile object attribute value is to be used, the process goes to step S507, and if it is not to be used, the process goes to step S508. Note that it is assumed that whether or not to use the moving object attribute value during annotation is determined in advance.
  • Step S507 The movement processing unit 23 and the like performs a moving object attribute value tag acquisition process.
  • An example of the mobile object attribute value tag acquisition process will be described using the flowchart of FIG. 6.
  • Step S508 The movement processing unit 23 and the like determine whether to use a moving image during annotation. If a moving image is to be used, the process goes to step S509; if not, the process goes to step S510. Note that it is assumed that whether or not to use a video for annotation is determined in advance.
  • Step S509 The movement processing unit 23 and the like perform video tag acquisition processing. An example of video tag acquisition processing will be described using the flowchart of FIG. 7.
  • Step S510 The movement processing unit 23 etc. increments the counter i by 1. Return to step S505.
  • Step S511 The movement processing unit 23 and the like configures an attribute value set including one or more environment information, one or more tags, and a right holder identifier. Return to upper level processing.
  • the video may be divided into two or more inspection units, and the processes from step S501 to step S511 may be performed for each inspection unit.
  • step S507 an example of the mobile object attribute value tag acquisition process in step S507 will be described using the flowchart of FIG. 6.
  • Step S601 The movement processing unit 23 etc. assigns 1 to the counter i.
  • Step S602 The movement processing unit 23 and the like determine whether the i-th attribute value tag condition exists. If the i-th attribute value tag condition exists, the process advances to step S603; if it does not exist, the process returns to the upper level process.
  • Step S603 The movement processing unit 23 etc. obtains the i-th attribute value tag condition.
  • Step S604 The movement processing unit 23 or the like acquires one or more moving body attribute values used for determining the i-th attribute value tag condition.
  • Step S605 The movement processing unit 23 and the like determine whether the one or more moving body attribute values acquired in step S604 satisfy the i-th attribute value tag condition. If the attribute value tag condition is satisfied, the process goes to step S606; if not, the process goes to step S607.
  • Step S606 The movement processing unit 23 or the like acquires the tag that pairs with the i-th attribute value tag condition, and associates the tag with the corresponding video.
  • Associating tags with videos typically involves associating tags with fields that make up the video.
  • Step S607 The movement processing unit 23 etc. increments the counter i by 1. Return to step S602.
  • Step S701 The movement processing unit 23 etc. assigns 1 to the counter i.
  • Step S702 The movement processing unit 23 and the like determine whether the i-th video tag condition exists. If the i-th video tag condition exists, the process goes to step S703, and if it does not exist, the process returns to the upper level process.
  • Step S703 The movement processing unit 23 and the like acquire the i-th video tag condition.
  • Step S704 The movement processing unit 23 and the like acquire one or more video attribute values used for determining the i-th video tag condition.
  • Step S705 The movement processing unit 23 or the like determines whether the one or more moving body attribute values acquired in step S704 satisfy the i-th attribute value tag condition. If the attribute value tag condition is satisfied, the process goes to step S706; if not, the process goes to step S707.
  • Step S706 The movement processing unit 23 or the like acquires the tag that pairs with the i-th attribute value tag condition, and associates the tag with the corresponding video. Associating tags with videos typically involves
  • Step S707 The movement processing unit 23 etc. increments the counter i by 1. Return to step S702.
  • the fourth maintenance means 1354 acquires access information that specifies the storage destination of the video.
  • a moving image is, for example, a fused moving image or a combined moving image.
  • the fourth preservation means 1354 acquires the attribute value set corresponding to the accumulated video. If the stored video is a video composed of two or more source videos, the attribute value set corresponding to the video is the attribute value set of each of the two or more source videos.
  • the fourth preservation means 1354 configures preservation information including the access information obtained in step S801, the attribute value set obtained in step S802, and the right holder identifier of the video. Note that if a new right holder identifier has been acquired, the fourth preservation means 1354 configures preservation information including, for example, the new right holder identifier and the original right holder identifier. (Step S804) The fourth maintenance means 1354 accumulates the maintenance information configured in step S803. Return to upper level processing.
  • step S804 if maintenance information of the video corresponding to the maintenance information to be accumulated is accumulated, the maintenance information is overwritten with the maintenance information configured in step S803. By doing so, for example, the transition of video rights holders can be managed. Further, the fourth security means 1354 stores security information in a blockchain, for example.
  • step S413 an example of the video fusion process in step S413 will be described using the flowchart in FIG. 9.
  • the video acquisition unit 133 acquires reference position information.
  • the reference location information is, for example, location information included in a received inquiry.
  • the reference location information is, for example, the location information of the user terminal 3 or the target terminal 4.
  • the reference location information is, for example, one location information among the route information included in the inquiry.
  • the first location information is the first location information in the route information.
  • the position information is, for example, (latitude, longitude), but may also be a point name (for example, the name of a parking lot), a place name, etc.
  • Step S902 The video acquisition unit 133 assigns 1 to the counter i.
  • Step S903 The video acquisition unit 133 determines whether there is an i-th mobile terminal 2 that can transmit the video. If the i-th mobile terminal 2 exists, the process goes to step S904; if the i-th mobile terminal 2 does not exist, the process goes to step S908. Note that the mobile terminal 2 that can transmit videos is usually the mobile terminal 2 that is moving.
  • the mobile terminal 2 that is moving is the mobile terminal 2 that corresponds to the movement information stored in the storage unit 11. That is, the video acquisition unit 133, for example, refers to the storage unit 11 and determines whether or not the i-th movement information exists.
  • Step S904 The video acquisition unit 133 acquires the latest position information transmitted by the i-th mobile terminal 2.
  • Step S905 The video acquisition unit 133 determines whether the position information acquired in step S904 satisfies the second position condition with respect to the reference position information. If the second position condition is satisfied, the process goes to step S906, and if the second position condition is not satisfied, the process goes to step S907.
  • Step S906 The video acquisition unit 133 acquires an image from the i-th mobile terminal 2, pairs the image with the right holder identifier and position information of the i-th mobile terminal 2, and temporarily stores the image in a buffer (not shown). do.
  • the video acquisition unit 133 sends an inquiry to the i-th mobile terminal 2 that includes a type identifier (for example, "video”, “still image”, “around-view image”) that specifies the type of image requested. and receives an image corresponding to the inquiry from the i-th mobile terminal 2.
  • a type identifier for example, "video”, "still image”, “around-view image”
  • Step S907 The video acquisition unit 133 increments the counter i by 1. Return to step S903.
  • Step S908 The video composition unit 134 calculates the difference (distance) between each image temporarily stored in a buffer (not shown) and the reference position information.
  • the moving image composition unit 134 sorts the images in ascending order using the difference as a key.
  • the moving image composition unit 134 acquires a reference image.
  • the reference image is an image corresponding to reference position information.
  • the reference image is, for example, an image transmitted from the user terminal 3 located at the position of the reference position information. Note that this image is of a type identified by a type identifier that specifies the type of image requested.
  • Step S910 The video composition unit 134 assigns 1 to the counter j.
  • Step S911 The moving image composition unit 134 determines whether there is a j-th other image. If the j-th other image exists, the process goes to step S912, and if it does not exist, the process goes to step S914. Note that the other images are the images sorted in step S908.
  • Step S912 The moving image composition unit 134 performs image fusion processing.
  • An example of image fusion processing will be described using the flowchart of FIG. 10.
  • Step S913 The video composition unit 134 increments the counter j by 1. Return to step S911.
  • Step S914 The video composition unit 134 composes an image that clearly shows the position indicated by the reference position information in the fused image finally constructed in step S912, and temporarily stores it in a buffer (not shown). Note that this image is a fused image.
  • Step S915 The video transmitter 141 transmits the fused image configured in step S914. Note that the video transmitting unit 141 may transmit the fused image finally configured in step S912.
  • the destination of the fused image is usually the user terminal 3 that sent the inquiry.
  • Step S916 The video transmission unit 141 determines whether to end the transmission of the fused image. If the transmission of the fused image is to be completed, the process advances to step S917; otherwise, the process returns to step S901.
  • the video transmitter 141 determines to end the transmission of the fused image.
  • Step S917 The moving image composition unit 134 temporally combines the transmitted one or more fused images to form a fused moving image, and temporarily stores it in a buffer (not shown). Return to upper level processing.
  • step S912 an example of the image fusion process in step S912 will be described using the flowchart in FIG. 10.
  • Step S1001 The video composition unit 134 acquires a base image.
  • the first base image is the reference image acquired in step S909. Further, the base image is the base image updated in step S1005 in the previous loop from step S911 to step S913.
  • Step S1002 The video composition unit 134 acquires area information that specifies the area covered by the base image acquired in step S1001.
  • the region information is, for example, a set of positional information of vertices forming a polygon, or a set of positional information of two diagonal corners forming a rectangle.
  • Step S1003 The video composition unit 134 acquires the j-th other image in step S911.
  • Step S1004 The video composition unit 134 acquires area information that specifies the area covered by the other image acquired in step S1003.
  • Step S1005 The video composition unit 134 uses the area information of the base image and the area information of other images to determine an area in which another image is placed with respect to the base image, and Place the image and get the updated base image. Return to upper level processing.
  • step S414 an example of the video combining process in step S414 will be described using the flowchart in FIG. 11.
  • the video acquisition unit 133 acquires target position information.
  • the target location information is usually location information included in the inquiry.
  • the target location information is, for example, information that specifies a location close to the location indicated by the location information corresponding to the video to be acquired.
  • Step S1102 The video acquisition unit 133 assigns 1 to the counter i.
  • Step S1103 The video acquisition unit 133 determines whether there is an i-th mobile terminal 2 that can transmit the video. If the i-th mobile terminal 2 exists, the process goes to step S1104; if the i-th mobile terminal 2 does not exist, the process goes to step S1114. Note that the mobile terminal 2 that can transmit videos is usually the mobile terminal 2 that is moving. The mobile terminal 2 that is moving is the mobile terminal 2 that corresponds to the movement information stored in the storage unit 11.
  • the mobile terminal 2 that is moving is the mobile terminal 2 that corresponds to the movement information stored in the storage unit 11. That is, the video acquisition unit 133, for example, refers to the storage unit 11 and determines whether or not the i-th movement information exists.
  • Step S1104 The video acquisition unit 133 acquires the latest position information transmitted by the i-th mobile terminal 2.
  • Step S1105 The video acquisition unit 133 determines whether the location information of the i-th mobile terminal 2 satisfies the first location condition with respect to the target location information. If the first position condition is satisfied, the process goes to step S1106, and if the first position condition is not satisfied, the process goes to step S1110.
  • Step S1106 The video acquisition unit 133 acquires the video from the i-th mobile terminal 2, pairs the video with the right holder identifier and location information of the i-th mobile terminal 2, and temporarily stores the video in a buffer (not shown). do.
  • the video acquisition unit 133 transmits, for example, to the i-th mobile terminal 2 an inquiry including a type identifier (for example, "video" or "still image") that specifies the type of image requested, and The image corresponding to the i-th mobile terminal 2 may be received from the i-th mobile terminal 2.
  • a type identifier for example, "video” or "still image”
  • Step S1107) The video transmitter 141 transmits the video acquired in step S1106.
  • the video transmitter 141 normally transmits a video to the user terminal 3 that has transmitted the inquiry.
  • Step S1108 The video acquisition unit 133 acquires the position information of the target. Note that, for example, if the target terminal 4 transmitting the location information is moving, the target location information acquired here is different from the location information acquired in step S1101. However, if the target terminal 4 does not move or if an inquiry with fixed location information is received, the target location information acquired here is the same as the location information acquired in step S1101. be.
  • Step S1109 The video acquisition unit 133 acquires the updated position information of the i-th mobile terminal 2. Return to step S1105.
  • Step S1110 The video composition unit 134 determines whether there is a video that has been acquired by the i-th mobile terminal 2 and that has been transmitted. If the transmitted video exists, the process goes to step S1111, and if the transmitted video does not exist, the process goes to step S1113.
  • the video configuration unit 134 configures a combined video that includes the transmitted video that is the video acquired by the i-th mobile terminal 2, and uses the combined video as the right holder identifier of the i-th mobile terminal 2. In contrast, it is temporarily stored in a buffer (not shown).
  • the combined video is the video acquired by the i-th mobile terminal 2, and is the transmitted video.
  • the combined video in the process of step S1111 from the second time onwards in the loop process is the video acquired by the i-th mobile terminal 2 temporally next to the combined video acquired in the previous process, and is the video that was acquired by the i-th mobile terminal 2. This is a video that combines videos.
  • Step S1112 The video acquisition unit 133 assigns 1 to the counter i. Return to step S1103.
  • Step S1113 The video acquisition unit 133 increments the counter i by 1. Return to step S1103.
  • Step S1114 The video acquisition unit 133 determines whether to end the video combination process. If the process is to be completed, the process proceeds to step S1115, and if not, the process is to proceed to step S1116.
  • the video acquisition unit 133 determines to end the video combining process.
  • Step S1115 The video acquisition unit 133 then acquires the position information of the target.
  • the video acquisition unit 133 acquires, for example, the position information of the next target included in the route information included in the inquiry. Return to step S1103.
  • Step S1116 The video composition unit 134 concatenates the one or more combined videos configured in step S1111 in the order in which they were acquired, and configures a combined video to be stored.
  • the video composition unit 134 temporarily stores the combined video in a buffer (not shown) in pairs with two or more right holder identifiers and position information of the video that is the source of the combined video. Return to upper level processing.
  • Step S1201 The video acquisition unit 133 assigns 1 to the counter i.
  • Step S1202 The video acquisition unit 133 determines whether the i-th target position information is present in the received inquiry. If the i-th position information exists, the process goes to step S1203; if it does not exist, the process goes to step S1217.
  • Target location information is location information used to search for videos.
  • the target location information is, for example, one piece of location information in a received inquiry, or two or more pieces of location information included in route information in a received inquiry.
  • Step S1203 The video acquisition unit 133 acquires the i-th target position information in the received inquiry.
  • the video acquisition unit 133 acquires all maintenance information.
  • the video acquisition unit 133 acquires, for example, security information present on the blockchain.
  • Step S1205 The video acquisition unit 133 assigns 1 to the counter j.
  • Step S1206 The video acquisition unit 133 determines whether j-th maintenance information exists among the maintenance information acquired in step S1204. If the j-th maintenance information exists, the process goes to step S1207, and if it does not exist, the process goes to step S1216.
  • Step S1207 The video acquisition unit 133 inspects the j-th security information and determines whether the video corresponding to the j-th security information can be provided to a third party. If it can be provided, the process goes to step S1208; if it is not, the process goes to step S1215.
  • "providable” means, for example, that it can be viewed, that it can be sold, or that it can be viewed and sold.
  • Step S1208 The video acquisition unit 133 assigns 1 to the counter k.
  • Step S1209 The video acquisition unit 133 determines whether the k-th search unit exists in the j-th security information or the video corresponding to the j-th security information. If the k-th search unit exists, the process goes to step S1210, and if it does not exist, the process goes to step S1215.
  • the search unit is the amount of videos used to determine whether or not the query is satisfied.
  • the search unit videos include, for example, videos from the start of shooting to the end of shooting, videos for a certain period of time, videos until a predetermined event occurs (for example, videos whose speed is a moving object attribute value from 0 to the next Videos of speed up to 0, videos of leaving a permanent location (e.g. home parking lot) and returning to a permanent location), videos with predetermined tags (e.g. ⁇ accident'', ⁇ traffic jam''). This is a video of a predetermined period before and after the video was released.
  • the search unit does not matter.
  • Step S1210 The video acquisition unit 133 acquires a set of video attribute values for the k-th search unit from the j-th maintenance information.
  • Step S1211 The video acquisition unit 133 determines whether the set of video attribute values of the k-th search unit satisfies the first position condition for the i-th target position information. If the first position condition is satisfied, the process goes to step S1212, and if it is not satisfied, the process goes to step S1214.
  • Step S1212 The video acquisition unit 133 acquires the video etc. corresponding to the j-th maintenance information, and temporarily stores it in a buffer (not shown).
  • a moving image or the like is, for example, a set of a moving image and a moving image attribute value, or a moving image.
  • Step S1213 The video acquisition unit 133 increments the counter i by 1. Return to step S1202.
  • Step S1214 The video acquisition unit 133 increments the counter k by 1. Return to step S1209.
  • Step S1215) The video acquisition unit 133 increments the counter j by 1. Return to step S1206.
  • Step S1216 The video acquisition unit 133 increments the counter i by 1. Return to step S1202.
  • Step S1217) The video composition unit 134 determines whether two or more videos, etc. have been acquired in step S1212. If two or more moving pictures, etc. are acquired, the process goes to step S1218, and if only one moving picture, etc. is acquired, the process goes to step S1219.
  • the video composition unit 134 combines two or more videos stored in a buffer (not shown) in the order in which they were stored, forms a combined video, and stores the combined video in a buffer (not shown). Note that it is preferable that the video composition unit 134 also store the right holder identifier and video attribute value of the video that is the source of the combined video in a buffer (not shown) in association with the combined video.
  • Step S1219) The video transmitter 141 transmits the combined video or the acquired video. Return to upper level processing. Return to upper level processing.
  • step S1212 each time a video is acquired in step S1212, the video transmitter 141 may transmit the video. In such a case, the process of step S1219 is unnecessary.
  • the video transmitting unit 141 normally transmits the combined video or video to the user terminal 3 that sent the inquiry.
  • a first example of the unregistered video search process is a case where an attribute value set in the set storage section 111 is used.
  • Step S1301 The video acquisition unit 133 assigns 1 to the counter i.
  • Step S1302 The video acquisition unit 133 determines whether or not the i-th target position information exists in the received inquiry. If the i-th position information exists, the process goes to step S1303, and if it does not exist, the process goes to step S1320.
  • Step S1303 The video acquisition unit 133 acquires the i-th target position information in the received inquiry.
  • Step S1304 The video acquisition unit 133 assigns 1 to the counter j.
  • Step S1305 The video acquisition unit 133 determines whether the j-th attribute value set exists in the set storage unit 111. If the j-th attribute value set exists, the process goes to step S1303; if it does not exist, the process goes to step S1319.
  • Step S1306 The video acquisition unit 133 assigns 1 to the counter k.
  • Step S1307 The video acquisition unit 133 determines whether the kth search unit corresponding to the jth attribute value set exists. If the k-th search unit exists, the process goes to step S1308, and if it does not exist, the process goes to step S1313.
  • Step S1308 The video acquisition unit 133 acquires the set of video attribute values of the k-th search unit in the j-th attribute value set from the set storage unit 111.
  • Step S1309) The video acquisition unit 133 determines whether the set of video attribute values acquired in step S1308 satisfies the inquiry. If the inquiry is satisfied, the process goes to step S1310; otherwise, the process goes to step S1314.
  • Step S1310 The video acquisition unit 133 acquires the right holder identifier corresponding to the video.
  • Step S1311 The video acquisition unit 133 determines whether movement information corresponding to the right holder identifier acquired in step S1310 exists. If the movement information exists (for example, when the mobile terminal 2 is powered on), the process goes to step S1312, and if it does not exist (for example, when the mobile terminal 2 is powered off), the process goes to step S1315.
  • Step S1312 The video acquisition unit 133 acquires the video corresponding to the k-th search unit from the mobile terminal 2 corresponding to the right holder identifier acquired in step S1310, and temporarily stores it in a buffer (not shown). Note that, for example, the video acquisition unit 133 transmits a request for a video corresponding to the k-th search unit to the mobile terminal 2, and receives the video corresponding to the request from the mobile terminal 2.
  • Step S1313 The video acquisition unit 133 increments the counter j by 1. Return to step S1305.
  • Step S1314 The video acquisition unit 133 increments the counter k by 1. Return to step S1307.
  • the video acquisition unit 133 acquires status information and the like.
  • the status information and the like include, for example, status information indicating that the mobile terminal 2 is powered off.
  • Step S1316 The status transmitting unit 142 transmits the status information etc. acquired in step S1315 to the user who sent the inquiry.
  • Step S1317) The video acquisition unit 133 acquires needs information.
  • Step S13178 The needs transmitting unit 143 transmits the needs information acquired in step S1317 to the right holder of the video. Return to step S1313.
  • Step S1319) The video acquisition unit 133 increments the counter i by 1. Return to step S1302.
  • Step S1320 The video composition unit 134 determines whether or not two or more videos could be acquired in step S1312. If two or more videos can be acquired, the process goes to step S1321, and if only one video can be acquired, the process goes to step S1322.
  • Step S1321 the video composition unit 134 combines two or more videos accumulated in a buffer (not shown) in the order in which they were accumulated, forms one combined video, and stores the combined video in a buffer (not shown).
  • Step S1322 The video transmission unit 141 transmits the combined video or video. Return to upper level processing. Note that the video transmitter 141 normally transmits the combined video or the video to the user terminal 3 that has transmitted the inquiry.
  • a second example of the unregistered video search process in step S417 will be described using the flowchart of FIG. 14.
  • a second example of the unregistered video search process is when an inquiry is made to the mobile terminal 2.
  • Step S1401 The video acquisition unit 133 assigns 1 to the counter i.
  • Step S1402 The video acquisition unit 133 determines whether the i-th target position information is present in the received inquiry. If the i-th position information exists, the process goes to step S1403; if it does not exist, the process goes to step S1412.
  • Step S1403 The video acquisition unit 133 acquires the i-th target position information in the received inquiry.
  • Step S1404 The video acquisition unit 133 assigns 1 to the counter j.
  • Step S1405 The video acquisition unit 133 determines whether the j-th movement information exists in the storage unit 11. If the j-th movement information exists, the process advances to step S1403; if the j-th movement information does not exist, the process returns to the upper level process.
  • Step S1406 The video acquisition unit 133 transmits an inquiry to the mobile terminal 2 corresponding to the j-th movement information.
  • Step S1407 The video acquisition unit 133 determines whether information has been received from the mobile terminal 2 corresponding to the j-th movement information. If the information has been received, the process advances to step S1408; if the information has not been received, the process returns to step S1407.
  • Step S1408 The video acquisition unit 133 determines whether a video is included in the information received in step S1407. If a moving image is included, the process goes to step S1409, and if it is not included, the process goes to step S1410.
  • Step S1410 The video acquisition unit 133 temporarily accumulates the video etc. received in step S1407 in a buffer (not shown).
  • Step S1411 The video acquisition unit 133 increments the counter j by 1. Return to step S1405.
  • Step S1412 The video composition unit 134 determines whether two or more videos were able to be accumulated in step S1409. If two or more moving images can be stored, the process goes to step S1413, and if only one moving image can be acquired, the process goes to step S1414.
  • step S1409 the video composition unit 134 combines two or more videos accumulated in a buffer (not shown) in the order in which they were accumulated, forms one combined video, and stores the combined video in a buffer (not shown).
  • Step S1414 The video transmission unit 141 transmits the combined video or video. Return to upper level processing. Note that the video transmitter 141 normally transmits the combined video or the video to the user terminal 3 that has transmitted the inquiry.
  • Step S1501 The right holder processing unit 135 stores the transmitted video in association with the attribute value set associated with each of the one or more videos that are the source of the transmitted video.
  • the right holder processing unit 135 stores the video in pairs with a right holder identifier that identifies one or more rights holders of the video.
  • the right holder identifier here is, for example, one or more right holder identifiers of the video that is the source of the stored video.
  • the right holder identifier here is, for example, one right holder identifier that identifies the user who made the inquiry.
  • the right holder processing unit 135 stores the moving image in, for example, the storage unit 11 or a device other than the information processing device 1.
  • Devices other than the information processing device 1 may be devices that constitute a blockchain.
  • Step S1502 The fourth maintenance means 1354 performs a fourth maintenance process.
  • An example of the fourth maintenance process has been described using the flowchart of FIG. 8.
  • Step S1503 The right holder processing unit 135 assigns 1 to the counter i.
  • Step S1504 The right holder processing unit 135 determines whether or not the i-th video that is the source of the stored video exists. If the i-th video exists, the process advances to step S1505; if the i-th video does not exist, the process returns to the upper level process.
  • Step S1505 The reward means 1355 performs reward processing.
  • An example of reward processing will be explained using the flowchart of FIG. 16.
  • the reward process here is a reward process for the right holder of the i-th video that is the source of the stored video.
  • Step S1506 The right holder processing unit 135 determines whether to change the right holder of the i-th video that is the source of the stored video. If the right holder is to be changed, the process proceeds to step S1507; if the right holder is not to be changed, the process is to proceed to step S1508.
  • whether or not to change the rights holder may be based on the flag associated with the i-th video, or it may be determined in advance, or the inquiry may include "information indicating a request to change the rights holder". The rights holder may be changed if the
  • Step S1507 The right holder processing unit 135 acquires the user identifier of the user terminal 3. Note that this user identifier becomes a new right holder identifier.
  • Step S1508 The right holder processing unit 135 determines whether the i-th video that is the source of the stored video has been registered. If it has been registered, the process advances to step S1511; if it has not been registered, the process advances to step S1509.
  • the first preservation means 1351 stores the i-th video that is the source of the stored video.
  • Step S1510 The fourth preservation means 1354 performs fourth preservation processing regarding the i-th video that is the source of the accumulated video.
  • An example of the fourth maintenance process has been described using the flowchart of FIG. 8.
  • Step S1511 The right holder processing unit 135 increments the counter i by 1. Return to step S1504.
  • step S1509 the process of accumulating two or more videos that are the basis of the combined video
  • step S1510 the fourth maintenance process
  • the reward means 1355 acquires one or more right holder identifiers of the target video.
  • the reward means 1355 may acquire the right holder identifier of the previous right holder of the target video.
  • Step S1602 The reward unit 1355 obtains a set of attribute values of the target video.
  • the reward means 1355 acquires a service identifier that identifies the service performed on the target video.
  • the service identifier is, for example, "browse” or "purchase.”
  • Step S1604 The remuneration unit 1355 obtains the amount of remuneration using one or more of the attribute value set obtained in step S1602 and the service identifier obtained in step S1603.
  • the remuneration means 1355 acquires the amount of remuneration for each right holder identifier. If the history information of a right holder including two or more right holder identifiers has been acquired, the remuneration means 1355 may acquire the amount of remuneration for each right holder identifier.
  • the reward means 1355 obtains video attribute values corresponding to two or more videos that are the source of the video transmitted by the video transmitter 141, and uses the video attribute values to acquire each of the two or more rights. It is preferable to determine the amount of remuneration for each person. For example, it is preferable that the reward unit 1355 determines a larger reward amount as the amount of data, time, or number of frames of the original video adopted in the video transmitted by the video transmitter 141 is larger. . For example, it is preferable that the reward unit 1355 determines a larger reward amount as the resolution of the original video adopted in the video transmitted by the video transmitter 141 is higher.
  • Step S1605 The remuneration unit 1355 performs a process of giving a reward equal to the amount of remuneration acquired in step S1604 to the right holder identified by the right holder identifier acquired in step S1601.
  • Step S1606 The remuneration unit 1355 performs a process of making the user who has enjoyed the service regarding the target video bear the remuneration. Return to upper level processing. Note that the target video is usually a video transmitted to the user terminal 3.
  • the profits earned by the operator of the information processing device 1 may be acquired and accumulated.
  • Step S1701 The movement processing unit 23 determines whether or not the start of movement has been detected. If the start of movement is detected, the process proceeds to step S1702; if not detected, the process proceeds to step S1717. Note that the movement is started by, for example, turning on the engine of the mobile body in which the mobile terminal 2 is installed and turning on the power of the mobile terminal 2.
  • Step S1702 The movement information acquisition unit 233 acquires movement information.
  • the movement information transmitting unit 241 transmits the movement information to the information processing device 1. Note that the movement information is stored in the movement storage section 21, for example.
  • Step S1703 The photographing unit 231 starts photographing.
  • Step S1704 The photographing unit 231 acquires a moving image.
  • Step S1705 The movement processing unit 23 acquires one or more video attribute values, and associates the one or more video attribute values with the video acquired in step S1704.
  • the movement processing unit 23 acquires, for example, location information, time information, weather information, temperature information, and seasonal information. Furthermore, the movement processing unit 23 obtains, for example, one or more moving object attribute values (for example, CAN data).
  • moving object attribute values for example, CAN data
  • Step S1706 The tag acquisition unit 232 determines whether to acquire the mobile object attribute value tag. If the mobile object attribute value tag is to be acquired, the process goes to step S1707; if not, the process goes to step S1709. Note that whether or not to acquire the mobile object attribute value tag is determined in advance.
  • Step S1707 The tag acquisition unit 232 performs mobile object attribute value tag acquisition processing.
  • An example of the mobile object attribute value tag acquisition process has been described using the flowchart of FIG. 6 . Note that there may be cases where the tag cannot be acquired.
  • Step S1708 When one or more tags are acquired in step S1707, the tag acquisition unit 232 associates the one or more tags with the video acquired in step S1704.
  • the tag acquisition unit 232 associates one or more tags with the video and stores them in the movement storage unit 21. Thereby, the user of the mobile terminal 2 can search for videos using the tag as a key, for example.
  • Step S1709 The tag acquisition unit 232 determines whether to acquire a video tag. If the video tag is to be acquired, the process goes to step S1710; if not, the process goes to step S1712. Note that whether or not to acquire a video tag is determined in advance.
  • Step S1710 The tag acquisition unit 232 performs video tag acquisition processing.
  • An example of video tag acquisition processing has been described using the flowchart in FIG. Note that there may be cases where the tag cannot be acquired.
  • Step S1711 When one or more tags are acquired in step S1710, the tag acquisition unit 232 associates the one or more tags with the video acquired in step S1704.
  • the tag acquisition unit 232 associates one or more tags with the video and stores them in the movement storage unit 21. Thereby, the user of the mobile terminal 2 can search for videos using the tag as a key, for example.
  • Step S1712 The movement processing unit 23 determines whether or not the end of movement has been detected. If the end of movement is detected, the process advances to step S1713; if not detected, the process returns to step S1704.
  • the movement processing unit 23 detects the end of movement by detecting turning off the engine, turning off the power of the mobile terminal 2, etc., and detecting arrival at the destination.
  • Step S1713 The movement processing unit 23 acquires the right holder identifier from the movement storage unit 21.
  • Step S1714 The movement processing unit 23 generates an attribute value set including one or more moving body attribute values obtained in step S1705, one or more tags obtained in step S1707, and one or more tags obtained in step S1710. Configure.
  • Step S1715 The set transmitting unit 243 transmits the attribute value set configured in step S1714 to the information processing device 1 in association with the right holder identifier.
  • Step S1716 The moving video transmission unit 242 and the like perform video transmission processing. Return to step S1701. Note that an example of the video transmission process will be explained using the flowchart of FIG. 18.
  • the video transmission process is a process of automatically transmitting a video that meets the preservation conditions.
  • Step S1717 The mobile receiving unit 22 determines whether or not it has received an inquiry from the information processing device 1. If an inquiry is received, the process advances to step S1718; if not, the process returns to step S1701.
  • Step S1718 The movement processing unit 23 performs terminal image acquisition processing corresponding to the inquiry received in step S1717.
  • An example of the terminal image acquisition process will be described using the flowchart of FIG. 19.
  • the terminal image acquisition process is a process of acquiring a video that matches the inquiry from among the videos stored in the movement storage unit 21.
  • Step S1719 The movement processing unit 23 determines whether or not the image has been acquired in step S1718. If an image has been acquired, the process proceeds to step S1720; if not, the process proceeds to step S1721.
  • Step S1720 The moving video transmitter 242 transmits images and the like to the information processing device 1.
  • images and the like include, for example, images, attribute value sets, and rights holder identifiers.
  • the image is, for example, a moving image, a still image, or an around view.
  • Step S1721 The moving video transmitter 242 transmits error information.
  • the error information is information indicating that the video could not be acquired.
  • a set of video attribute values that are all or part of the one or more video attributes acquired in step S1705, the tag acquired in step S1707, and the tag acquired in step S1710 is It is preferable to transmit the information to the information processing device 1 each time the tag "accident” or "traffic jam” is acquired, every predetermined period, or when a predetermined condition (for example, the tag "accident” or "traffic jam” is acquired).
  • the video transmission process (processing in S1416) is performed after the end of movement is detected, but the video transmission process may be performed at all times.
  • Always performing video transmission processing means, for example, performing video transmission processing (S1416) immediately after step S1711. As a result, even if the storage area for moving pictures in the storage unit 11 is small, moving pictures that meet the preservation conditions can be preserved.
  • the process is terminated by turning off the power or by an interrupt to terminate the process.
  • step S1716 an example of the video transmission process in step S1716 will be described using the flowchart in FIG. 18.
  • Step S1801 The movement processing unit 23 acquires the attribute value set of the movement storage unit 21.
  • Step S1802 The movement processing unit 23 assigns 1 to the counter i.
  • Step S1803 The movement processing unit 23 determines whether the i-th search unit exists. If the i-th search unit exists, the process advances to step S1804; if it does not exist, the process returns to the upper level process.
  • Step S1804 The movement processing unit 23 acquires a set of video attribute values for the i-th search unit.
  • Step S1805) The movement processing unit 23 assigns 1 to the counter j.
  • Step S1806 The movement processing unit 23 determines whether the j-th maintenance condition exists. If the j-th maintenance condition exists, the process goes to step S1807, and if it does not exist, the process goes to step S1810.
  • Step S1807 The movement processing unit 23 determines whether the set of video attribute values acquired in step S1804 satisfies the j-th maintenance condition. If the j-th maintenance condition is satisfied, the process goes to step S1808, and if it is not satisfied, the process goes to step S1811.
  • Step S1808 The movement processing unit 23 acquires the i-th search unit video, etc.
  • the i-th search unit video or the like is, for example, the i-th search unit video and the attribute value set corresponding to the video.
  • Step S1809 The moving video transmitter 242 transmits the video etc. acquired in step S1808 to the information processing device 1.
  • Step S1810 The movement processing unit 23 increments the counter i by 1. Return to step S1803.
  • Step S1811 The movement processing unit 23 increments the counter j by 1. Return to step S1806.
  • step S1718 an example of the terminal image acquisition process in step S1718 will be described using the flowchart of FIG. 19.
  • Step S1901 The movement processing unit 23 uses the received inquiry to determine whether or not to acquire a video. If a moving image is to be acquired, the process goes to step S1902, and if a still image or the like is to be acquired, the process goes to step S1908.
  • the movement processing unit 23 examines the type identifier (for example, "video”, “still image”, “around view image”) included in the received inquiry, and determines whether or not to acquire a video.
  • type identifier for example, "video”, “still image”, “around view image”
  • Step S1902 The movement processing unit 23 assigns 1 to the counter i.
  • Step S1903 The movement processing unit 23 determines whether the i-th search unit exists. If the i-th search unit exists, the process goes to step S1904; if it does not exist, the process returns to the upper level process.
  • Step S1904 The movement processing unit 23 acquires a set of video attribute values for the i-th search unit.
  • Step S1905 The movement processing unit 23 determines whether the set of video attribute values of the i-th search unit matches the query. If it matches the inquiry, the process goes to step S1906; if it does not match, the process goes to step S1907.
  • Step S1906 The movement processing unit 23 acquires the i-th search unit video, etc.
  • a video or the like is, for example, a collection of a video and video attribute values.
  • Step S1907 The movement processing unit 23 increments the counter i by 1. Return to step S1903.
  • Step S1908 The movement processing unit 23 acquires the latest composite image or the latest still image. Return to upper level processing.
  • the composite image is an image that is composited using still images taken by two or more cameras installed on the moving body.
  • the composite image is, for example, a around-view image.
  • a still image is an image taken by one camera installed on a moving object. Further, since the technology for configuring the around-view image is a known technology, detailed explanation will be omitted.
  • Step S2001 The user reception unit 32 determines whether or not the inquiry has been received. If the inquiry is accepted, the process goes to step S2002; if not, the process goes to step S2007.
  • accepting an inquiry includes, for example, accepting a user's input, receiving position information from the target terminal 4, and receiving destination or route information from the navigation terminal 5.
  • Step S2002 The user processing unit 33 composes an inquiry to be sent.
  • the user transmitter 34 transmits the inquiry to the information processing device 1 in association with the user identifier.
  • Step S2003 The user receiving unit 35 determines whether or not information has been received from the information processing device 1. If the information has been received, the process advances to step S2004; if the information has not been received, the process returns to step S2003.
  • Step S2004 The user processing unit 33 determines whether the information received in step S2003 includes a moving image. If a moving image is included, the process goes to step S2005, and if a moving image is not included, the process goes to step S2006.
  • Step S2005 The user output unit 36 outputs the received moving image. Return to step S2001.
  • Step S2006 The user output unit 36 outputs the other received information. Return to step S2001.
  • Step S2007 The user processing unit 33 determines whether it is time for an inquiry. If it is an inquiry timing, the process goes to step S2008, and if it is not an inquiry timing, the process goes to step S2009.
  • the timing of the inquiry is, for example, when a destination is set on the user terminal 3, which is a navigation terminal, or when the user terminal 3 installed in a car detects a traffic jam.
  • Step S2008 The user processing unit 33 performs query generation processing. Go to step S2002. An example of the query generation process will be described using the flowchart of FIG. 18.
  • Step S2009 The user reception unit 32 determines whether a purchase instruction has been received from the user. If the purchase instruction is accepted, the process goes to step S2010; if not, the process returns to step S2001.
  • the purchase instruction includes, for example, an inquiry.
  • Step S2010 The user processing unit 33 composes a purchase instruction to be transmitted.
  • the user transmitter 34 transmits the purchase instruction to the information processing device 1 in association with the user identifier.
  • Step S2011 The user receiving unit 35 determines whether information has been received from the information processing device 1. If the information has been received, the process goes to step S2012; if the information has not been received, the process returns to step S2011.
  • the information is, for example, a video, information indicating that the transfer of the right holder has been completed, and a set of attribute values of the video.
  • Step S2012 The user processing unit 33 uses the received information to configure information to be output.
  • the user output unit 36 outputs the information. Return to step S2001.
  • step S2008 an example of the query generation process in step S2008 will be explained using the flowchart of FIG. 21.
  • Step S2101 The user processing unit 33 acquires a destination.
  • Step S2102 The user processing unit 33 acquires the current location.
  • Step S2103 The user processing unit 33 uses the destination and current location to search for a route and obtain route information.
  • Step S2104 The user processing unit 33 acquires information on one or more points that are points on the route specified by the route information acquired in step S2103 and satisfy the extraction conditions.
  • Step S2105 The user processing unit 33 composes an inquiry using the one or more point information acquired in step S2104. Return to upper level processing. Note that the user processing unit 33 may, for example, receive an inquiry, ⁇ This is a video within one hour from now, a video has been tagged with either ⁇ traffic jam'' or ⁇ accident,'' and any one of one or more point information. ⁇ Search for a video that is paired with a set of attribute values that include''.
  • the user processing unit 33 may obtain the current location and compose an inquiry that includes the current location.
  • an inquiry is a request to transmit a video corresponding to a predetermined tag (for example, "accident” or "traffic jam") in an area surrounding the current location (for example, the distance is within a threshold value).
  • the target terminal 4 acquires location information.
  • the target terminal 4 transmits the position information to the information processing device 1 or the user terminal 3 registered in the target terminal 4.
  • the target terminal 4 acquires and transmits position information upon receiving an instruction from the holder of the target terminal 4 (for example, a child to be watched over).
  • the target terminal 4 has, for example, a GPS receiver and acquires position information using the GPS receiver, but the method of acquiring the position information is not limited.
  • the user terminal 3 registered as the target terminal 4 is, for example, the guardian of the holder of the target terminal 4.
  • the navigation terminal 5 receives a destination from the user. Next, the navigation terminal 5 performs the inquiry generation process described in FIG. 21. Next, the navigation terminal 5 performs the processes from S2002 to S2005 and S2006 in FIG.
  • a terminal management table having the structure shown in FIG. 22 is currently stored in the set storage unit 111 of the information processing device 1.
  • the terminal management table is a table that manages one or more terminal information.
  • the terminal management table is a table for managing mobile terminals 2 that transmit videos. Note that the mobile terminal 2 that is not managed by the terminal management table may transmit the video to the information processing device 1.
  • the terminal management table manages one or more records having "ID”, “terminal identifier”, “video information”, “movement information”, “registration flag”, and “provision flag”.
  • Video information is information regarding a captured video, and here includes a “frame identifier,” “environmental information,” and “tag.”
  • Environmental information here includes “location information,” “time information,” “weather information,” and “temperature information.”
  • “Environmental information” is information about the environment around the mobile terminal 2 when the video was acquired.
  • the “tags” include “accident,” “traffic jam,” and “dangerous driving.” That is, here, one or more tags among “accident,” “traffic jam,” and “dangerous driving” may be added to the video, for example.
  • ID is information that identifies a record.
  • the "terminal identifier” is an identifier of the mobile terminal 2, and here, it is the same as the right holder identifier that identifies the right holder of the video at the time of transmitting the video.
  • “Frame identifier” is an ID of a frame that constitutes a moving image. A frame can also be called a field or a still image.
  • “Position information” here is (latitude, longitude).
  • the “time information” here is year, month, date, hour, minute, and second.
  • the "weather information” is, for example, “sunny,” “rain,” “cloudy,” and “snow.”
  • “Temperature information” is the temperature (°C) outside the moving body.
  • the value “1” for “accident” indicates that a tag indicating that an accident has occurred is attached to the corresponding frame.
  • a value of “1” for “traffic jam” indicates that a tag indicating that a traffic jam is occurring is attached to the corresponding frame.
  • a value of “1” for “dangerous driving” indicates that a tag indicating that a car or the like driving in front is driving dangerously is attached to the corresponding frame.
  • a registered video management table having the structure shown in FIG. 23 is stored on the blockchain.
  • the registered video management table is a table for managing registered videos.
  • the registered video management table is a table for managing maintenance information.
  • the registered video is, for example, a video provided to the user in response to an inquiry from the user, or a video that satisfies the maintenance conditions.
  • the registered video management table includes "ID”, "video identifier”, “access information”, "right holder identifier”, "right registration date”, "video information”, and “provision flag”. Note that the registered video is stored in the information processing device 1, another device, or a blockchain. It is also assumed that each record in the registered video management table is maintenance information here.
  • Specific examples 1 to 4 involve the use of real-time video.
  • Specific example 5 is the use of videos shot in the past.
  • a user related to the target person can watch a combined video that is a combination of videos taken by mobile terminals 2 installed on two or more mobile objects. This is a case where the information is transmitted to the user terminal 3 of a person (for example, a guardian).
  • a combined video obtained by combining videos shot by a plurality of mobile terminals 2 is output to the user terminal 3 based on an inquiry using route information corresponding to a destination set in the user terminal 3 or the navigation terminal 5. This is the case.
  • a third specific example is a case where the user terminal 3 or navigation terminal 5 that detects a traffic jam acquires a video that allows understanding of the reason for the traffic jam and outputs it to the user terminal 3 or navigation terminal 5.
  • Specific example 4 is a case where an image is output that allows the user to understand the situation of the parking lot in order to help the user find an empty space in the parking lot.
  • Specific example 5 is a case where a combined video that is a combination of registered videos is output to the user terminal 3 using route information that specifies a route traveled by the user in the past (for example, a traveled route).
  • the storage unit 11 of the information processing device 1 contains a user identifier (for example, the IP address of the user terminal 3) for transmitting a video to the user terminal 3 of one guardian P, and one child A of the guardian P. It is assumed that management information having a target user identifier "T001" that identifies the target terminal 4 of is stored.
  • a user identifier for example, the IP address of the user terminal 3
  • T001 target user identifier
  • T001 target person identifier
  • communication destination information eg, IP address
  • the receiving unit 12 of the information processing device 1 periodically receives location information that specifies the location of the mobile terminal 2 by pairing it with a terminal identifier from each of the two or more mobile terminals 2, and pairs it with the terminal identifier. It is assumed that the information is stored in the terminal management table (FIG. 22).
  • the information (x t1 , y t1 ) and the subject identifier "T001" are temporarily stored. It is assumed that the position information is received periodically, and the latest position information is stored in a buffer (not shown).
  • the video acquisition unit 133 performs the operation described in the flowchart of FIG. (Here, it is assumed that the drive recorder installed in the car) has been determined.
  • the video acquisition unit 133 receives the video from the first mobile terminal 2.
  • Child A is shown in this video. This is because the position information of the target terminal 4 of child A and the position information of the mobile terminal 2 are information indicating positions that are close enough to satisfy the first position condition.
  • the moving image is usually associated with location information and the first right holder identifier of the first mobile terminal 2. Further, it is preferable that the received moving image is a moving image that is immediately transmitted after being photographed by the mobile terminal 2.
  • the video transmission unit 141 transmits the video received by the video acquisition unit 133 to the user terminal 3 of the guardian P identified by the user identifier paired with the target person identifier "T001".
  • the video acquisition unit 133 pairs the video received from the first mobile terminal 2 with the first right holder identifier and location information of the first mobile terminal 2, and temporarily stores them in a buffer (not shown).
  • the video acquisition unit 133 at least receives the information received from the first mobile terminal 2. After receiving the video, the video transmitter 141 transmits the video to the user terminal 3 of the guardian P.
  • the video acquisition unit 133 determines that the location information of the target terminal 4 of child A and the location information of the first mobile terminal 2 no longer satisfy the first location condition. This is because the first mobile terminal 2 has moved and is no longer in a position to photograph the child A who is walking home.
  • the video acquisition unit 133 again compares the latest location information of the target terminal 4 with the location information of the second mobile terminal 2 whose latest location information satisfies the first location condition, with reference to FIG. and decide. Note that in FIG. 22, the latest position information transmitted from each mobile terminal 2 is stored in pairs with each terminal identifier. The video acquisition unit 133 then acquires the video from the second mobile terminal 2. Next, the video acquisition unit 133 pairs the video with the second right holder identifier and position information of the second mobile terminal 2 and temporarily stores the video in a buffer (not shown).
  • the video transmitting unit 141 transmits the video received by the video acquiring unit 133 from the second mobile terminal 2 to the user terminal 3 of the guardian P.
  • the video acquisition unit 133 determines that the position information of the target terminal 4 of child A and the position information of the second mobile terminal 2 no longer satisfy the first position condition. Let's say you've made a decision.
  • the video acquisition unit 133 again compares the latest location information of the target terminal 4 with the location information of the third mobile terminal 2 whose latest location information satisfies the first location condition, with reference to FIG. , but it is assumed that there is no location information of the third mobile terminal 2 that satisfies the first location condition.
  • the video transmitting unit 141 may transmit information to the user terminal 3 of the parent P to the effect that the video containing the child A cannot be transmitted, or may stop transmitting the video and information to the user terminal 3. You may do so.
  • the user terminal 3 sequentially receives and outputs the video acquired by the first mobile terminal 2 and the video acquired by the second mobile terminal 2. This allows the guardian P to see how the child A returns home.
  • a third mobile terminal 2 approaches the child A, and the video acquisition unit 133 determines that the latest location information is the first location condition with respect to the latest location information of the target terminal 4. It is assumed that the position information of the third mobile terminal 2 that satisfies the above conditions has been determined with reference to FIG. Next, the video acquisition unit 133 acquires a video from the third mobile terminal 2. Next, the video acquisition unit 133 pairs the video with the third right holder identifier and position information of the third mobile terminal 2 and temporarily stores the video in a buffer (not shown).
  • the video transmission unit 141 transmits the video received by the video acquisition unit 133 from the third mobile terminal 2 to the user terminal 3 of the guardian P identified by the user identifier paired with the target person identifier “T001”. Send to.
  • the user terminal 3 receives and outputs the video acquired by the third mobile terminal 2.
  • the guardian P was unable to see how the child A returned home for a short period of time, but by outputting the video, the guardian P is now able to see the child A's return home again.
  • the remuneration means 1355 rewards the rights holders identified by the rights holder identifiers of the first mobile terminal 2, the second mobile terminal 2, and the third mobile terminal 2 that provided the video to the guardian B as described above. Perform reward processing.
  • the video composition unit 134 combines the videos transmitted from two or more mobile terminals 2 in the order in which they were sent, and configures a combined video.
  • the right holder processing unit 135 stores the combined video as a pair with the right holder identifier, which is the guardian P's identifier.
  • the right holder processing unit 135 stores the combined video in association with the attribute value set associated with each of the one or more videos that are the basis of the combined video.
  • the fourth preservation means 1354 obtains access information that specifies the storage destination of the combined video. Further, the fourth preservation means 1354 obtains an attribute value set corresponding to the accumulated combined video. Next, the fourth preservation means 1354 configures preservation information including the obtained access information, the obtained attribute value set, and the right holder identifier of the video. Next, the fourth maintenance means 1354 stores the configured maintenance information.
  • the target person holding the target terminal 4 can be watched over using the combined video. Furthermore, it is possible to reward the rights holder who provided the video that is the basis of the combined video for monitoring. Additionally, combined videos can be managed appropriately.
  • the user inputs a destination into the user terminal 3 having a navigation function.
  • the user reception unit 32 of the user terminal 3 receives the destination.
  • the user processing unit 33 also acquires the current position.
  • the user processing unit 33 acquires route information from the current location to the destination. Note that it is assumed here that the route information includes two or more pieces of position information.
  • the user sending unit 34 of the user terminal 3 automatically sends an inquiry including the route information to the information processing device 1 in response to the acquisition of the route information by the user processing unit 33.
  • the inquiry receiving unit 122 of the information processing device 1 receives the inquiry.
  • the video acquisition unit 133 and the video composition unit 134 perform a video combination process as follows.
  • the video acquisition unit 133 acquires the position information (first position information) of the first intersection in the route specified by the route information, among the two or more pieces of position information included in the route information. That is, it is preferable that the video acquisition unit 133 acquires the video using only part of the position information included in the received route information. It is preferable that the video acquisition unit 133 acquires the video using only some of the position information included in the received route information that satisfies a specific condition.
  • the specific conditions are, for example, that the location information is information indicating the location of an intersection, and that the distance from the previously used location information is greater than or equal to a threshold value.
  • the video acquisition unit 133 determines the position information of the first mobile terminal 2 that satisfies the first position condition based on the acquired position information. Then, the video acquisition unit 133 acquires the video from the determined first mobile terminal 2, pairs the video with the first right holder identifier and the first location information of the first mobile terminal 2, It is temporarily stored in a buffer (not shown). Next, the video transmitter 141 transmits the acquired video to the user terminal 3.
  • the video acquisition unit 133 acquires second position information of the next intersection, which is closer to the destination than the position indicated by the previously acquired first position information of the intersection.
  • the video acquisition unit 133 determines the position information of the second mobile terminal 2 that satisfies the first position condition with respect to the second position information. Then, the video acquisition unit 133 acquires the video from the determined second mobile terminal 2, pairs the video with the second right holder identifier and second position information of the second mobile terminal 2, It is temporarily stored in a buffer (not shown). Next, the video transmitter 141 transmits the acquired video to the user terminal 3.
  • the video acquisition unit 133 acquires third position information of the next intersection that is closer to the destination than the position indicated by the second position information.
  • the video acquisition unit 133 determines the position information of the third mobile terminal 2 that satisfies the first position condition with respect to the third position information. Then, the video acquisition unit 133 acquires the video from the determined third mobile terminal 2, pairs the video with the third right holder identifier and third location information of the third mobile terminal 2, It is temporarily stored in a buffer (not shown). Next, the video transmitter 141 transmits the acquired video to the user terminal 3.
  • the information processing device 1 repeats the above process until it transmits the video corresponding to the n-th location information that specifies the destination.
  • the user receiving unit 35 of the user terminal 3 sequentially receives the first video, the second video, the third video, . . . the n-th video.
  • the user output unit 36 sequentially outputs the first video, the second video, the third video, . . . the n-th video.
  • the remuneration means 1355 of the information processing device 1 rewards the first right holder, the second right holder, . Perform reward processing to give rewards.
  • the video composition unit 134 combines the videos transmitted from two or more mobile terminals 2 in the order in which they were sent, and configures a combined video.
  • the right holder processing unit 135 stores the combined video in pairs with the right holder identifier, which is the identifier of the user of the user terminal 3. That is, here, the right holder of the combined video is the user.
  • the right holder processing unit 135 stores the combined video in association with the attribute value set associated with each of the one or more videos that are the basis of the combined video.
  • the fourth preservation means 1354 obtains access information that specifies the storage destination of the combined video. Further, the fourth preservation means 1354 obtains an attribute value set corresponding to the accumulated combined video. Next, the fourth preservation means 1354 configures preservation information including the obtained access information, the obtained attribute value set, and the right holder identifier of the video. Next, the fourth maintenance means 1354 stores the configured maintenance information.
  • the state of the route to the destination is displayed near the current location.
  • a moving object such as a car.
  • combined videos can be stored and managed appropriately.
  • the navigation terminal 5 detects a traffic jam on the route to the destination.
  • the function of detecting traffic congestion is possible using known technology.
  • the navigation terminal 5 acquires route information having one or more pieces of positional information that specify the congested road, and sends the inquiry including the route information and the user identifier stored in the navigation terminal 5.
  • the information has been transmitted to the information processing device 1.
  • the user identifier is the identifier of the user terminal 3 that receives the video transmitted from the mobile terminal 2 located on the road where there is traffic congestion, and is, for example, an IP address.
  • the route information is information that specifies one or more roads with traffic jams.
  • the user terminal 3 is, for example, a terminal of a fellow passenger in the front passenger seat.
  • the inquiry receiving unit 122 of the information processing device 1 receives the inquiry including the route information and the user identifier.
  • the video acquisition unit 133 and the video composition unit 134 perform a video combination process as follows.
  • the video acquisition unit 133 acquires the location information closest to the current location from among the location information included in the route information. Next, the video acquisition unit 133 acquires the last position information of the position information that continues from the position information and whose position is within the threshold value with respect to the adjacent position information. The video acquisition unit 133 uses this location information as the location information of the target to be used for video acquisition.
  • the video acquisition unit 133 determines, with respect to the target location information, the first mobile terminal 2 whose location information satisfies the first location condition. Next, the video acquisition unit 133 acquires the video from the mobile terminal 2, pairs the video with the first right holder identifier and location information of the first mobile terminal 2, and temporarily stores the video in a buffer (not shown). accumulate.
  • the video acquisition unit 133 receives the video from the first mobile terminal 2 and temporarily stores it in a buffer (not shown) until the latest location information of the first mobile terminal 2 no longer satisfies the first location condition. .
  • the video transmitting unit 141 sequentially transmits the acquired videos to the user terminal 3.
  • the mobile terminal 2 passes through the traffic jam and the video acquisition unit 133 determines that the latest position information of the first mobile terminal 2 no longer satisfies the first position condition.
  • the video acquisition unit 133 determines, with respect to the target location information, the second mobile terminal 2 whose location information satisfies the first location condition. Next, the video acquisition unit 133 acquires the video from the second mobile terminal 2 and pairs the video with the second right holder identifier and location information of the second mobile terminal 2 (not shown). Temporarily accumulate in the buffer.
  • the video acquisition unit 133 receives the video from the second mobile terminal 2 and temporarily stores it in a buffer (not shown) until the latest location information of the second mobile terminal 2 no longer satisfies the first location condition. .
  • the video transmitting unit 141 sequentially transmits the acquired videos to the user terminal 3.
  • the user terminal 3 receives the video from the information processing device 1 and outputs it.
  • the user of the user terminal 3 can continuously know the traffic jam situation.
  • the information processing device 1 performs similar processing using the route information that identifies the second and subsequent locations.
  • the user terminal 3 can also receive and output videos for understanding the traffic congestion situation at the second and subsequent locations. Note that, if there are two or more traffic jam locations, it is preferable that the user terminal 3 automatically or in accordance with a user's instruction switch the location, receive and output the moving image.
  • the situation of traffic congestion on the route to the destination can be grasped using videos transmitted from two or more mobile terminals 2.
  • the inquiry receiving unit 122 of the information processing device 1 receives the inquiry.
  • the video acquisition unit 133 determines from the received inquiry that spatial fusion of two or more videos is necessary.
  • the video acquisition unit 133 and the video composition unit 134 perform video fusion processing as described below.
  • the video acquisition unit 133 acquires the reference position information included in the received inquiry. Next, the video acquisition unit 133 determines one or more mobile terminals 2 corresponding to the position information that satisfies the second position condition with respect to the reference position information. Next, the video acquisition unit 133 transmits an instruction to transmit the current around-view image to one or more mobile terminals 2.
  • the second location condition here is that the location indicated by the location information exists in the area of the parking lot that includes the reference location information. Note that it is assumed that one or more mobile terminals 2 are continuously acquiring around-view images.
  • the video acquisition unit 133 receives, from each of the one or more mobile terminals 2, around-view images associated with the position information of the mobile terminals 2.
  • the video composition unit 134 calculates the difference (distance) between the position information paired with each received around-view image and the reference position information. Next, the video composition unit 134 sorts the around-view images in ascending order using the difference as a key.
  • the video composition unit 134 acquires a reference image.
  • the reference image is an around-view image included in the inquiry.
  • the video composition unit 134 performs the process described using the flowchart of FIG.
  • the fusion image is constructed by placing the images at appropriate positions. Further, the video composition unit 134 composes an image that clearly indicates the position indicated by the reference position information (the position of the user terminal 3 that transmitted the inquiry) in the finally composed fused image. Note that this image is also a merged image.
  • the video transmission unit 141 transmits the constructed fused image to the user terminal 3.
  • the user terminal 3 receives and outputs the fused image.
  • the information processing device 1 fuses around-view images.
  • the information processing device 1 fuses two or more normal camera images and two or more images acquired by an omnidirectional camera using position information corresponding to each image to form a merged image, The fused image may be transmitted to the user terminal 3.
  • this inquiry is a video of a drive course traveled by the user, and is a query for acquiring a video of a sunny day.
  • the inquiry receiving unit 122 of the information processing device 1 receives the inquiry.
  • the video acquisition unit 133 determines that the received inquiry is not a real-time video search.
  • the video acquisition unit 133 and the like perform registered video search processing as follows.
  • the video acquisition unit 133 acquires the first position information included in the route information in the received inquiry.
  • the video acquisition unit 133 acquires all maintenance information from the registered video management table (FIG. 23). That is, the video acquisition unit 133 acquires, for example, security information that exists on the blockchain.
  • the video acquisition unit 133 acquires the access information "address 01" that is paired with the determined maintenance information.
  • the video acquisition unit 133 uses the access information "address 01" to acquire the video.
  • the video acquisition unit 133 generates a video up to the point where the second and subsequent location information included in the route information included in the received inquiry satisfies (is the same as or is close to) the location information in the maintenance information and the first location condition. , cut out from the video corresponding to the access information "address 01".
  • the video acquisition unit 133 extracts and acquires the video up to when the user deviates from the drive course on which the user has traveled, from the video corresponding to the access information "address 01.”
  • the video acquisition unit 133 acquires second location information included in the route information included in the received inquiry, which is location information when the video corresponding to the access information "address 01" deviates from the drive course. .
  • the video acquisition unit 133 includes location information that includes "1" in the provision flag, satisfies the first location condition for the acquired second location information, and "weather” in the acquired maintenance information.
  • Determine maintenance information including "Information Clear”.
  • the video acquisition unit 133 acquires access information (for example, “address , the second video has been acquired.
  • the video acquisition unit 133 determines whether the location information prior to the second location information included in the route information included in the received inquiry is the location information of the maintenance information. The video that satisfies the requirements is cut out from the second video that corresponds to the access information "address The video corresponding to "X" is cut out and acquired.
  • the video acquisition unit 133 performs the above processing until it uses the last location information included in the route information in the received inquiry.
  • the video composition unit 134 combines the two or more videos acquired by the video acquisition unit 133 in the order in which they were acquired (in the order of the route) to configure a combined video.
  • the video transmitter 141 transmits the combined video to user B's user terminal 3.
  • the user terminal 3 receives and outputs the combined video.
  • the remuneration means 1355 of the information processing device 1 obtains the right holder identifiers (for example, "U001", etc.) of each of the two or more original videos used in the combined video, and identifies the two or more original videos with the respective right holder identifiers. Performs remuneration processing to reward rights holders.
  • the right holder identifiers for example, "U001", etc.
  • the right holder processing unit 135 performs the various preservation processes described above on the configured combined video.
  • one useful temporally combined video is constructed and provided using two or more videos corresponding to two or more pieces of location information transmitted from the target terminal 4. can. In this way, for example, a target person holding a moving target terminal 4 can be watched over.
  • appropriate processing regarding the right holder of the video can be performed. For example, a reward can be given to the right holder of the video captured by the mobile terminal 2.
  • the right holder of one video composed of two or more images can be made the appropriate rights holder.
  • the right holder of a video composed of two or more images can be the person who needs the video.
  • the mobile terminal 2 acquires and accumulates video and sound information, but transmits the video but does not transmit the sound information, thereby contributing to the provision of video and being mobile.
  • the privacy of those with rights to the body can be protected.
  • the processing in this embodiment may be realized by software. Then, this software may be distributed by software download or the like. Furthermore, this software may be recorded on a recording medium such as a CD-ROM and distributed. Note that this also applies to other embodiments in this specification.
  • the software that implements the information processing device 1 in this embodiment is the following program. In other words, this program converts a computer into an attribute value set that is a video shot by two or more mobile terminals and includes one or more environmental information including location information that specifies the shooting location or time information that specifies the shooting time.
  • a video acquisition unit that acquires videos that are associated with each other and that are transmitted from each of the two or more mobile terminals, and two or more different videos that have different information when being associated with each of the two or more videos that the video acquisition unit has acquired. Constructing one video by temporally combining videos or spatially merging parts of two or more videos obtained by the video acquisition unit and having different positional information associated with each of the two or more videos.
  • This is a program for causing a moving image composing section to function as a moving image composing section and a moving image transmitting section for transmitting the one moving image configured by the moving image structuring section.
  • FIG. 24 shows the external appearance of a computer that executes the programs described in this specification and realizes the information processing apparatus 1 and the like of the various embodiments described above.
  • the embodiments described above may be implemented in computer hardware and computer programs executed thereon.
  • FIG. 24 is an overview diagram of this computer system 300
  • FIG. 25 is a block diagram of the system 300.
  • the mobile terminal 2 usually includes a camera.
  • the mobile terminal 2 may be equipped with a microphone.
  • a computer system 300 includes a computer 301 including a CD-ROM drive, a keyboard 302, a mouse 303, and a monitor 304.
  • the computer 301 includes, in addition to a CD-ROM drive 3012, an MPU 3013, a bus 3014 connected to the CD-ROM drive 3012, a ROM 3015 for storing programs such as a boot-up program, and an MPU 3013. It is connected and includes a RAM 3016 for temporarily storing application program instructions and providing temporary storage space, and a hard disk 3017 for storing application programs, system programs, and data.
  • the computer 301 may further include a network card that provides connection to a LAN.
  • a program that causes the computer system 300 to execute the functions of the information processing device 1 of the above-described embodiment may be stored in the CD-ROM 3101, inserted into the CD-ROM drive 3012, and further transferred to the hard disk 3017. .
  • the program may be transmitted to the computer 301 via a network (not shown) and stored on the hard disk 3017.
  • the program is loaded into RAM 3016 during execution.
  • the program may be loaded directly from CD-ROM 3101 or the network.
  • the program does not necessarily include an operating system (OS) or a third party program that causes the computer 301 to execute the functions of the information processing apparatus of the above-described embodiment.
  • the program need only contain those parts of the instructions that call the appropriate functions (modules) in a controlled manner to achieve the desired results. How computer system 300 operates is well known and will not be described in detail.
  • processing is performed by hardware. processing) is not included.
  • the number of computers that execute the above program may be a single computer or a plurality of computers. That is, centralized processing or distributed processing may be performed.
  • two or more communication means existing in one device may be physically realized by one medium.
  • each process may be realized by being centrally processed by a single device, or may be realized by being distributed by a plurality of devices.
  • the information processing device 1 has the advantage of being able to compose and provide one useful video by using videos shot by two or more mobile terminals 2, and can be used as a server etc. Useful.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】従来、2以上の各移動端末が撮影した動画を利用し、有用な一の動画を構成できなかった。 【解決手段】2以上の各移動端末が撮影した動画であり、撮影位置を特定する位置情報または撮影時を特定する時情報を含む1以上の環境情報を含む属性値集合に対応付く動画であり、2以上の各移動端末から送信された動画を取得する動画取得部133と、動画取得部133が取得した2以上の各動画に対応付く時情報が異なる2以上の各動画を時間的に結合する、または動画取得部133が取得した2以上の各動画に対応付く位置情報が異なる2以上の各動画の一部を空間的に融合して、一の動画を構成する動画構成部134と、動画構成部134が構成した一の動画を送信する動画送信部141と具備する情報処理装置1により、2以上の各移動端末が撮影した動画を利用し、有用な一の動画を構成し、提供できる。

Description

情報処理装置、移動端末、情報処理方法、およびプログラム
 本発明は、2以上の各移動端末が撮影した動画に関する処理を行う情報処理装置等に関するものである。
 従来、ユーザが自分以外の視界光景(自分以外の移動体から見える光景)を見ることのできるようにする画像表示システムがあった。かかる画像表示システムにおいて、複数の移動体が撮影し、送信した複数の動画を一つの画面に出力できる(特許文献1参照)。
特開2008-154192号公報(段落[0140]、第24図等)
 しかしながら、従来技術においては、単に、複数の各移動体が撮影した動画を一画面で見ることができるだけであり、2以上の各移動端末が撮影した動画を利用し、有用な一の動画を構成し、提供できなかった。
 本第一の発明の情報処理装置は、2以上の各移動端末が撮影した動画であり、撮影位置を特定する位置情報または撮影時を特定する時情報を含む1以上の環境情報を含む属性値集合に対応付く動画であり、2以上の各移動端末から送信された動画を取得する動画取得部と、動画取得部が取得した2以上の各動画に対応付く時情報が異なる2以上の各動画を時間的に結合する、または動画取得部が取得した2以上の各動画に対応付く位置情報が異なる2以上の各動画の一部を空間的に融合して、一の動画を構成する動画構成部と、動画構成部が構成した一の動画を送信する動画送信部と具備する情報処理装置である。
 かかる構成により、2以上の各移動端末が撮影した動画を利用し、有用な一の動画を構成し、提供できる。
 また、本第二の発明の情報処理装置は、第一の発明に対して、動画取得部は、2以上の各動画に対応付く位置情報が第一位置条件を満たす2以上の動画を、順次、取得し、動画構成部は、動画取得部が取得した2以上の各動画を、動画に対応する時間の順序で結合し、一の動画を構成する情報処理装置である。
 かかる構成により、2以上の各移動端末が撮影した動画を用いて、時間的に結合された有用な一の動画を構成し、提供できる。
 また、本第三の発明の情報処理装置は、第二の発明に対して、位置情報を含む問合せをユーザ端末から受信する問合受信部をさらに具備し、動画取得部は、問合受信部が受信した位置情報を用いた第一位置条件を満たす位置情報に対応する2以上の動画を取得する情報処理装置である。
 かかる構成により、2以上の各移動端末が撮影した動画を用いて、時間的に結合された有用な一の動画を構成し、提供できる。
 また、本第四の発明の情報処理装置は、第二の発明に対して、対象端末から送信された2以上の各位置情報を、順次、受信する問合受信部をさらに具備し、動画取得部は、問合受信部が受信した2以上の各位置情報を、順次、用いて、第一位置条件を満たす位置情報に対応する2以上の動画を、順次、取得する情報処理装置である。
 かかる構成により、対象端末から送信された2以上の各位置情報に対応する2以上の動画を用いて、時間的に結合された有用な一の動画を構成し、提供できる。かかることにより、例えば、移動する対象端末を保持している対象者の見守りができる。
 また、本第五の発明の情報処理装置は、第二の発明に対して、ナビ端末に設定された目的地を特定する位置情報を含む問合せを受信する問合受信部をさらに具備し、動画取得部は、問合受信部が受信した位置情報を用いた第一位置条件を満たす位置情報に対応する2以上の動画を、順次、取得する情報処理装置である。
 かかる構成により、ナビ端末に設定された目的地に対応する2以上の動画を用いて、時間的に結合された有用な一の動画を構成し、提供できる。
 また、本第六の発明の情報処理装置は、第一の発明に対して、2以上の位置情報を含む経路情報を含む問合せを受信する問合受信部をさらに具備し、動画取得部は、経路情報が有する2以上の各位置情報を用いた2以上の各第一位置条件を満たす位置情報に対応する2以上の動画を取得する情報処理装置である。
 かかる構成により、経路情報に含まれる2以上の各位置情報に対応する動画を用いて、経路の順に結合された有用な一の動画を構成し、提供できる。
 また、本第七の発明の情報処理装置は、第六の発明に対して、経路情報は、2以上の各位置情報に対応する時情報を有し、動画取得部は、経路情報が有する2以上の各位置情報と時情報とを用いた第一位置条件を満たす位置情報に対応する2以上の動画を取得する情報処理装置である。
 かかる構成により、経路情報に含まれる2以上の各位置情報に対応する動画を用いて、経路の順および時間の順に結合された有用な一の動画を構成し、提供できる。
 また、本第八の発明の情報処理装置は、第一の発明に対して、動画取得部は、2以上の各動画に対応付く位置情報が第二位置条件を満たし、2以上の各動画に対応付く時情報が時条件を満たす2以上の動画を取得し、動画構成部は、動画取得部が取得した2以上の各動画を構成するフレームの一部または全部を用いて一のフレームを構成し、フレームを時間的に繋げて、一の動画を構成する情報処理装置である。
 かかる構成により、2以上の各移動端末が撮影した動画を空間的に融合し、有用な一の動画を構成し、提供できる。
 また、本第九の発明の情報処理装置は、第八の発明に対して、動画は、駐車場を撮影した動画であり、動画構成部は、2以上の各移動体に設置された2以上の各移動端末が撮影した動画が有するフレームを合成した真上フレームを空間的に繋げ、一のフレームを構成し、一のフレームを有する一の動画を構成する情報処理装置である。
 かかる構成により、駐車場における駐車の状況を把握できる。
 また、本第十の発明の情報処理装置は、第一から第九いずれか1つの発明に対して、動画は、動画の権利者を識別する権利者識別子に対応付き、動画構成部が構成した一の動画に対応付く権利者識別子で識別される権利者に関する処理である権利者処理を行う権利者処理部をさらに具備する情報処理装置である。
 かかる構成により、動画の権利者に関する適切な処理が行える。
 また、本第十一の発明の情報処理装置は、第十の発明に対して、一の動画に対応付く権利者識別子は、一の動画の元になった2以上の各動画に対応付く権利者識別子であり、権利者処理部は、一の動画の元になった2以上の各動画に対応付く権利者識別子で識別される各権利者に対して、報酬を与える処理である報酬処理を行う報酬手段を具備する情報処理装置である。
 かかる構成により、移動端末が撮影した動画の権利者に対して報酬を与えることができる。
 また、本第十二の発明の情報処理装置は、第十一の発明に対して、報酬手段は、動画送信部が送信した動画の元になった2以上の各動画に対応する動画属性値を取得し、動画属性値を用いて、2以上の各権利者に対する報酬を決定し、報酬を与える処理である報酬処理を行う情報処理装置である。
 かかる構成により、移動端末が撮影した動画の権利者に対して、適切な報酬を与えることができる。
 また、本第十三の発明の情報処理装置は、第十の発明に対して、権利者処理部は、動画構成部が構成した一の動画を、一の動画の元になった2以上の各動画に対応付く属性値集合に対応付けて蓄積する第一保全処理を行う第一保全手段を具備する情報処理装置である。
 かかる構成により、2以上の画像から構成された一の動画を保全できる。
 また、本第十四の発明の情報処理装置は、第十の発明に対して、権利者処理部は、動画構成部が構成した一の動画を、一の動画の元になった2以上の各動画に対応する権利者識別子に対応付けて蓄積する第二保全処理を行う第二保全手段を具備する情報処理装置である。
 かかる構成により、2以上の画像から構成された一の動画の権利者を、適切な権利者にできる。
 また、本第十五の発明の情報処理装置は、第十の発明に対して、移動端末が動画を撮影した環境に関する環境情報に関する問合せをユーザ端末から受信する問合受信部をさらに具備し、動画取得部は、問合受信部が受信した問合せに対応する2以上の動画を取得し、権利者処理部は、動画構成部が構成した一の動画を、ユーザ端末のユーザを識別する権利者識別子に対応付けて蓄積する第三保全手段を具備する情報処理装置である。
 かかる構成により、2以上の画像から構成された一の動画の権利者を、当該動画が必要な権利者にできる。
 また、本第十六の発明の情報処理装置は、第十三から第十五いずれか1つの発明に対して、権利者処理部は、一の動画にアクセスするためのアクセス情報を含む保全情報をブロックチェーンに蓄積する第四保全処理を行う第四保全手段を具備する情報処理装置である。
 かかる構成により、保全が必要な動画の管理情報を保全できる。
 本発明による情報処理装置によれば、2以上の各移動端末が撮影した動画を利用し、有用な一の動画を構成し、提供できる。
実施の形態1における情報システムAの概念図 同情報システムAのブロック図 同情報処理装置1のブロック図 同情報処理装置1の動作例について説明するフローチャート 同属性値集合取得処理の例について説明するフローチャート 同移動体属性値タグ取得処理の例について説明するフローチャート 同動画タグ取得処理の例について説明するフローチャート 同第四保全処理の例について説明するフローチャート 同動画融合処理の例について説明するフローチャート 同画像融合処理の例について説明するフローチャート 同動画結合処理の例について説明するフローチャート 同登録動画検索処理の例について説明するフローチャート 同未登録動画検索処理の第一の例について説明するフローチャート 同未登録動画検索処理の第二の例について説明するフローチャート 同保全処理の例について説明するフローチャート 同報酬処理の例について説明するフローチャート 同移動端末2の動作例について説明するフローチャート 同動画送信処理の例について説明するフローチャート 同端末画像取得処理の例について説明するフローチャート 同ユーザ端末3の動作例について説明するフローチャート 同次問合生成処理の例について説明するフローチャート 同端末管理表を示す図 同登録動画管理表を示す図 同コンピュータシステムの概観図 同コンピュータシステムのブロック図
 以下、情報処理装置等の実施形態について図面を参照して説明する。なお、実施の形態において同じ符号を付した構成要素は同様の動作を行うので、再度の説明を省略する場合がある。
 (実施の形態1)
 本実施の形態において、2以上の各移動体における撮影装置で取得した2以上の動画を用いて、時間的に結合された一の動画を構成する、または空間的に融合された一の動画を構成する情報処理装置について説明する。なお、2以上の動画を選択するための問合せは、例えば、ユーザ端末で指定された位置情報を用いた問合せ、見守りの対象端末から受信された2以上の位置情報を用いた問合せ、ナビ端末に設定された目的地を用いた問合せ、経路情報を用いた問合せである。
 また、本実施の形態において、出力される一の動画の権利者に関する処理である権利者処理を行う情報処理装置について説明する。権利者処理は、例えば、後述する報酬処理、後述する各種の保全処理である。
 また、本実施の形態において、保全条件に合致する動画を自動的に移動端末から受信し、蓄積する情報処理装置について説明する。
 また、本実施の形態において、動画の解析等により得られた1以上のタグが付与されている動画を扱う情報処理装置について説明する。なお、タグを付与する処理は、例えば、情報処理装置または移動端末で行うが、他の装置で行っても良い。
 また、本実施の形態において、ユーザが所望の動画が存在するが、送信できない場合に、移動端末のユーザまたは動画を必要とするユーザに対する処理を行う情報処理装置について説明する。なお、動画を送信できない場合は、例えば、移動端末の電源がOFFである場合である。
 また、本実施の形態において、移動を開始したことに関する移動情報を移動端末から受信し、活用する情報処理装置について説明する。
 また、本実施の形態において、移動情報を情報処理装置に送信する移動端末について説明する。
 また、本実施の形態において、移動終了時に、撮影した動画に対する最新の属性値集合を情報処理装置に送信する移動端末について説明する。
 さらに、本実施の形態において、動画の解析等により1以上のタグを取得し、動画に対応付ける移動端末について説明する。
 なお、本実施の形態において、情報Xが情報Yに対応付いていることは、情報Xから情報Yを取得できること、または情報Yから情報Xを取得できることであり、その対応付けの方法は問わない。情報Xと情報Yとがリンク付いていても良いし、同じバッファに存在していても良いし、情報Xが情報Yに含まれていても良いし、情報Yが情報Xに含まれている等でも良い。
 図1は、本実施の形態における情報システムAの概念図である。情報システムAは、情報処理装置1、1または2以上の移動端末2、1または2以上のユーザ端末3、1または2以上の対象端末4、および1または2以上のナビ端末5を備える。
 情報処理装置1は、2以上の各移動端末2が送信した動画を用いて、一の動画をユーザ端末3に提供するサーバである。情報処理装置1は、例えば、いわゆるサーバであり、例えば、クラウドサーバ、ASPサーバ等であるが、その種類は問わない。情報処理装置1は、ブロックチェーンを構成する装置でも良い。
 なお、ここでの動画は、移動端末2により撮影された画像である。動画は、通常、2以上の静止画の集合であるが、一の静止画でも良い、と考えても良い。また、動画に含まれる2以上の各静止画の撮影時刻の間隔は、問わない。動画は、例えば、60フレーム/秒の動画、30フレーム/秒の動画であるが、所定時間(例えば、1分)以上の時間が空いて撮影された2以上の静止画の集合でも良く、所定条件を満たす時に撮影された2以上の静止画の集合でも良い。
 移動端末2とは、移動体に設置された端末であり、動画を撮影する端末である。移動端末2は、例えば、ドライブレコーダー、スマートフォン、タブレット端末、通信機能付きのカメラである。また、設置とは、通常、固定されていることを意味するが、接しているまたは保持している程度のことも含む、と考えても良い。また、移動端末2が、エンジン等の駆動手段や車輪等の移動手段を有しても良い。
 移動体とは、移動する物体である。移動体は、例えば、地上移動機器、海上移動機器、海中移動機器、航空移動機器、宇宙移動機器、または生物である。
 地上移動機器は、例えば、自動車両、自転車、人力車、または遊具車等の人力で移動する車両、電車、蒸気機関車等の鉄道車両、遊園地における乗り物、工場その他の施設における業務用の乗り物等である。地上移動機器は、人が乗る移動体でないものもあり得、例えば、業務用や遊具としての各種ロボット、いわゆるラジコン等の遊具等である。なお、自動車両は、例えば、乗用車、トラック、バス、タクシー、またはオートバイである。
 海上移動機器は、例えば、各種船舶、水上バイク、サーフボード、手こぎボート、浮き輪、筏等である。
 海中移動機器は、例えば、潜水艦、潜水ロボット、アクアラング等の潜水器具等である。
 航空移動機器は、例えば、各種航空機、ヘリコプター、グライダー、パラシュート、気球、凧等である。
 宇宙移動機器は、例えば、ロケット、宇宙探査機、人工衛星等である。
 生物は、例えば、人、人以外の移動体である。人以外の移動体は、例えば、鳥類、ほ乳類、は虫類、両生類、魚類、昆虫類その他の各種の生物である。
 ユーザ端末3とは、ユーザが使用する端末である。ユーザは、動画を視聴する者、動画を必要とする者である。ユーザ端末3は、移動端末2の機能を有しても良い。つまり、ユーザ端末3は、動画を提供するユーザの端末でも良い。ユーザ端末3は、後述するナビ端末5でも良い。
 対象端末4は、位置情報を送信する端末である。対象端末4は、例えば、監視対象に備えられた端末である。監視対象は、例えば、生物、物である。生物は、例えば、人である。人は、例えば、子供、老人である。監視対象の物は、例えば、盗難されたくない物であり、例えば、自動車である。
 移動端末2とユーザ端末3と対象端末4は、例えば、スマートフォン、タブレット端末、いわゆるパーソナルコンピュータ、ナビゲーション端末等であり、その種類は問わない。
 ナビ端末5は、いわゆるナビゲーション端末である。ナビ端末5は、地上移動機器に設置されたり、人が保持したりする端末である。
 情報処理装置1と1以上の各移動端末2とは、通常、インターネット等のネットワークにより通信可能である。また、情報処理装置1と1以上の各ユーザ端末3とは、通常、インターネット等のネットワークにより通信可能である。また、情報処理装置1と1以上の各対象端末4とは、通常、インターネット等のネットワークにより通信可能である。さらに、情報処理装置1と1以上の各ナビ端末5とは、通常、インターネット等のネットワークにより通信可能である。
 図2は、本実施の形態における情報システムAのブロック図である。図3は、情報処理装置1のブロック図である。
 情報処理装置1は、格納部11、受信部12、処理部13、および送信部14を備える。格納部11は、集合格納部111を備える。受信部12は、移動情報受信部121、問合受信部122、および集合受信部123を備える。処理部13は、移動情報蓄積部131、集合蓄積部132、動画取得部133、動画構成部134、および権利者処理部135を備える。権利者処理部135は、第一保全手段1351、第二保全手段1352、第三保全手段1353、第四保全手段1354、および報酬手段1355を備える。送信部14は、動画送信部141、状態送信部142、およびニーズ送信部143を備える。
 移動端末2は、移動格納部21、移動受信部22、移動処理部23、および移動送信部24を備える。移動処理部23は、撮影部231、タグ取得部232、および移動情報取得部233を備える。移動送信部24は、移動情報送信部241、移動動画送信部242、および集合送信部243を備える。
 ユーザ端末3は、ユーザ格納部31、ユーザ受付部32、ユーザ処理部33、ユーザ送信部34、ユーザ受信部35、ユーザ出力部36を備える。
 情報処理装置1を構成する格納部11には、各種の情報が格納される。各種の情報は、例えば、後述する端末情報、後述する属性値集合、後述する移動情報、動画、管理情報である。
 管理情報とは、見守りの対象者を監視するために使用される情報である。管理情報は、対象者を見守る者のユーザ端末3に動画を送信するためのユーザ識別子と、対象者の対象端末4を識別する対象者識別子とを有する。
 集合格納部111には、1または2以上の端末情報が格納される。端末情報とは、移動端末2に関する情報である。端末情報は、現在の移動端末2が保持している動画の情報を含む。端末情報は、端末識別子と属性値集合とを含む。端末情報は、動画と対応付いていても良い。また、端末識別子は、属性値集合に含まれていても良い。
 端末識別子とは、移動端末2を識別する情報である。端末識別子は、移動端末2のユーザである権利者を識別する権利者識別子でも良い。端末識別子は、例えば、移動端末2のID、移動端末2の名称、移動端末2のMACアドレスである。
 権利者とは、動画に関する何らかの権利を有する者である。権利者は、例えば、動画の所有者、動画の著作権者、動画を撮影した移動端末2の所有者である。権利者は、動画の初期の権利者である。権利者は、通常、移動端末2の保有者であるが、移動端末2が撮影した動画の権利を有する者であれば良い。
 権利者識別子とは、動画の権利者の識別子である。権利者識別子は、端末識別子でも良い。権利者識別子は、例えば、権利者のID、権利者の氏名、権利者のメールアドレス、権利者の電話番号である。
 属性値集合とは、1または2以上の動画属性値の集合である。動画属性値とは、動画の属性値である。動画属性値は、例えば、環境情報である。動画属性値は、例えば、タグである。動画属性値は、例えば、後述する移動体属性値でも良い。
 環境情報とは、動画が撮影された環境に関する情報である。環境情報は、例えば、位置情報、時情報、天気情報、温度情報、季節情報である。位置情報とは、撮影位置を特定する情報である。撮影位置は、撮影するカメラの位置である。位置情報は、例えば、(緯度,経度)、(緯度,経度,高度)、である。ただし、位置情報は、地図上の領域を特定する領域識別子、住所、道路を特定する道路識別子、道路の車線を特定する車線識別子等でも良い。時情報とは、動画が撮影された時を特定する情報である。動画が撮影された時は、動画が撮影された時刻の周辺の時でも良く、正確性までは要求されなくても良い。時情報は、例えば、時刻、年月日時、年月日時分、年月日時分秒、年月日、月日である。つまり、時情報が示す時の粒度は問わない。天気情報とは、動画が撮影された場所の撮影された時の天気を特定する情報である。天気情報は、例えば、「晴」「雨」「雪」「曇」である。温度情報とは、動画が撮影された場所の撮影された時の外気温を特定する情報である。温度情報は、例えば、「25度」「30度以上」である。季節情報とは、動画が撮影された場所の撮影された時の季節を特定する情報である。季節情報は、例えば、「春」「夏」「初夏」「冬」である。
 タグとは、動画の特性を特定する情報である。タグは、例えば、動画を解析した結果の情報である。タグは、例えば、1または2以上の移動体属性値を解析した結果の情報である。タグは、例えば、時系列の2以上の移動体属性値を解析した結果の情報である。
 移動体属性値とは、移動体に関する属性値である。移動体属性値は、例えば、移動体が移動中に取得できる、移動に関する情報である。移動体属性値は、例えば、CAN(Controller Area Network)データ、エアバッグの利用を示す情報である。CANデータは、例えば、速度、エンジンの回転数、ブレーキの状態である。タグは、例えば、「事故」、「渋滞」、「危険運転」「速度オーバー」、動画に映っている対象物の名称(例えば、「人」「熊」有名人の氏名)である。
 受信部12は、移動端末2またはユーザ端末3または対象端末4またはナビ端末5から各種の情報や指示を受信する。各種の情報や指示は、例えば、移動情報、位置情報、問合せ、属性値集合、動画である。
 受信部12が受信する動画には、当該動画の権利者を識別する権利者識別子が対応付いていることは好適である。受信部12が受信する動画には、例えば、1または2以上の動画属性値が対応付いている。
 受信部12が受信する動画は、例えば、駐車場を撮影した動画である。ただし、 受信部12が受信する動画の取得場所は問わない。
 移動情報受信部121は、移動端末2の移動の開始時に、移動情報を移動端末2から受信する。開始時とは、開始直後が好適であるが、移動の開始から所定時間(例えば、1分)の経過後でも良い。
 移動情報とは、移動端末2が移動することを特定する情報である。移動することを特定する情報は、移動を開始したことを特定する情報でも良い。ここでの移動は、これから移動することでも良いし、移動中であることでも良い。移動情報は、例えば、移動開始フラグ、端末識別子である。移動開始フラグは、移動を開始することを示す情報である。端末識別子は、移動を開始する移動端末2の識別子である。なお、端末識別子は、権利者識別子と同じでも良い。
 問合受信部122は、環境情報に関する問合せをユーザ端末3から受信する。環境情報に関する問合せは、環境情報を条件に含む問合せである。問合せは、移動端末2が撮影した動画の要求である。問合せは、例えば、SQLであるが、その形式やデータ構造等は問わない。
 問合受信部122は、例えば、位置情報を含む問合せをユーザ端末3から受信する。
 問合受信部122は、例えば、対象端末4から送信された2以上の各位置情報を、順次、受信する。問合受信部122は、当該2以上の各位置情報を対象端末4から受信しても良いし、対象端末4から受信したユーザ端末3等から受信しても良い。
 問合受信部122は、例えば、ナビ端末5に設定された目的地を特定する位置情報を含む問合せを受信する。問合受信部122は、例えば、当該位置情報をナビ端末5から受信しても良いし、ナビ端末5から受信したユーザ端末3から受信しても良いし、目的地の設定のためにナビ端末5に送信したユーザ端末3等から受信しても良い。
 問合受信部122は、例えば、2以上の位置情報を含む経路情報を含む問合せを受信する。問合受信部122は、例えば、ユーザ端末3またはナビ端末5から経路情報を含む問合せを受信する。
 問合受信部122は、移動端末2が動画を撮影した環境に関する環境情報に関する問合せをユーザ端末3から受信する。
 なお、問合せが有する経路情報は、例えば、動画を視聴するユーザが移動した経路を特定する情報、ナビ端末5またはナビゲーション機能を有するユーザ端末3に設定された経路情報である。当該経路情報は、2以上の各位置情報に対応する時情報を有することは好適である。時情報は、例えば、位置情報が特定する位置に居た時を特定する情報である。なお、経路情報に含まれる2以上の各位置情報の距離的な間隔は問わない。
 集合受信部123は、移動端末2から属性値集合を受信する。集合受信部123は、移動端末2の移動の終了時に、移動端末2から属性値集合を受信することは好適である。ここでの属性値集合は、移動端末2に格納されている動画を特定する情報である。
 処理部13は、各種の処理を行う。各種の処理とは、例えば、移動情報蓄積部131、集合蓄積部132、動画取得部133、動画構成部134、権利者処理部135が行う処理である。
 移動情報蓄積部131は、移動情報受信部121が受信した移動情報を移動端末2に対応付けて蓄積する。移動端末2に対応付けることは、例えば、権利者識別子または端末識別子に対応付けることである。
 集合蓄積部132は、集合受信部123が受信した属性値集合を集合格納部111に蓄積する。集合蓄積部132は、通常、属性値集合を送信してきた移動端末2に対応付けて、属性値集合を蓄積する。移動端末2に対応付けることは、例えば、権利者識別子または端末識別子に対応付けることである。
 動画取得部133は、2以上の各移動端末2が撮影した動画を取得する。かかる動画には、属性値集合に対応付く。属性値集合は、1以上の環境情報を含む。1以上の環境情報は、撮影位置を特定する位置情報または撮影時を特定する時情報を含むことは好適である。また、動画には、権利者識別子が対応付いていることは好適である。
 動画取得部133は、2以上の各動画に対応付く位置情報が第一位置条件を満たす2以上の動画を、順次、取得する。
 動画取得部133は、例えば、問合受信部122が受信した問合せに対応する2以上の動画を取得する。
 動画取得部133は、例えば、問合受信部122が受信した位置情報を用いた第一位置条件を満たす位置情報に対応する2以上の動画を取得する。
 動画取得部133は、例えば、問合受信部122が受信した2以上の各位置情報を、順次、用いて、第一位置条件を満たす位置情報に対応する2以上の動画を、順次、取得する。
 動画取得部133は、例えば、問合受信部122が受信した位置情報を用いた第一位置条件を満たす位置情報に対応する2以上の動画を、順次、取得する。
 動画取得部133は、例えば、経路情報が有する2以上の各位置情報を用いた2以上の各第一位置条件を満たす位置情報に対応する2以上の動画を取得する。
 動画取得部133は、例えば、経路情報が有する2以上の各位置情報と時情報とを用いた第一位置条件を満たす位置情報に対応する2以上の動画を取得する。
 動画取得部133は、例えば、2以上の各動画に対応付く位置情報が第二位置条件を満たし、2以上の各動画に対応付く時情報が時条件を満たす2以上の動画を取得する。
 第一位置条件とは、位置情報に関する条件である。第一位置条件は、対象となる位置情報が特定する位置に対して、近似関係にある位置情報であることである。近似関係は、近いことであり、例えば、距離が閾値以内、距離が閾値未満、移動時間が閾値以内、または移動時間が閾値未満である。なお、対象となる位置情報は、例えば、問合せに含まれる位置情報、受信された位置情報である。
 第一位置条件は、位置情報以外の条件を含んでも良い。第一位置条件は、位置情報および時情報に関する条件でも良い。第一位置条件は、例えば、対象となる位置情報と時情報の組に対して、近似条件を満たす位置情報と時情報に対応付いていることである。対象となる位置情報と時情報の組に対して近似条件を満たす位置情報と時情報とは、例えば、対象となる位置情報が特定する位置に対して、距離が閾値以内、距離が閾値未満、移動時間が閾値以内、または移動時間が閾値未満の位置を示す位置情報であり、かつ対象となる時情報が特定する時に対して、時間の差が閾値以内または閾値未満である時情報であることである。第一位置条件は、位置情報および移動体の進行方向に関する条件でも良い。第一位置条件は、位置情報およびカメラの向き(方向)に関する条件でも良い。
 第二位置条件とは、比較対象の基準位置または基準領域に対して近似関係にある位置情報である。ここでの近似関係は、基準位置との距離が閾値以内、基準位置との距離が閾値未満、または基準領域の中の位置であることである。
 動画取得部133は、例えば、2以上の各移動端末2が撮影した動画であり、属性値集合と権利者識別子とに対応付く動画であり、移動端末2から送信された動画を取得する。動画取得部133は、蓄積条件を満たす動画を取得することは好適である。
 なお、蓄積条件とは、動画を蓄積するための条件である。蓄積条件は、例えば、問合せが特定する条件に合致することである。蓄積条件は、例えば、後述する保全条件に合致することである。
 なお、取得する動画が格納されている装置は、移動端末2でも良いし、情報処理装置1でも良いし、図示しない他の装置でも良い。なお、他の装置は、例えば、ブロックチェーンを構成する装置である。
 動画取得部133は、例えば、問合受信部122が問合せを受信した場合に、当該問合せに対応する1または2以上の動画を移動端末2から取得する。動画取得部133は、例えば、問合せに含まれる環境情報に関する条件を満たす属性値集合と対になる1以上の動画を移動端末2から取得する。
 動画取得部133は、例えば、問合せを、1以上の移動端末2に送信し、1または2以上の移動端末2から、当該問合せに対応する1以上の動画を受信する。かかる処理を、未登録動画検索処理と言う。未登録動画検索処理とは、条件に合致する動画を、未登録の動画であり、移動端末2に格納されている動画から取得する処理である。未登録動画検索処理は、例えば、問合せに合致する動画を、未登録の動画であり、移動端末2に格納されている動画から取得する処理である。
 動画取得部133は、例えば、移動情報に対応する1以上の移動端末2が撮影した動画のうちの、問合せに対応する動画を取得する。動画取得部133は、移動情報に対応する1以上の各移動端末2に、問合せを送信し、当該問合せに合致する動画を移動端末2から受信する。なお、移動情報に対応する移動端末2は、移動中の移動端末2であり、動画を送信可能な移動端末2である。
 動画取得部133は、例えば、問合受信部122が問合せを受信した場合に、当該問合せに合致する1以上の属性値集合を決定し、当該1以上の各属性値集合に対応する動画を格納部11から取得する。
 動画取得部133は、例えば、集合格納部111を参照し、問合せに対応する1または2以上の動画を決定し、当該1以上の動画を移動端末2から取得する。
 集合格納部111を参照し、問合せに対応する動画を決定する処理は、集合格納部111が有する1以上の属性値集合の中で、問合せに合致する属性値集合を決定することである。かかる処理を、登録動画検索処理と言う。登録動画検索処理とは、条件に合致する動画を、登録済みの動画から検索する処理である。登録動画検索処理は、例えば、問合せに合致する動画を、登録済みの動画から検索する処理である。なお、登録済みの動画とは、後述する第一保全処理または第二保全処理が行われた動画である。
 動画取得部133は、例えば、集合格納部111を参照し、問合せに対応する動画を決定し、当該動画が移動端末2から送信できる状態であるか否かを判断し、送信できる状態であるのみ、当該移動端末2から動画を取得する。
 動画取得部133は、例えば、移動端末2との通信を試みて、当該移動端末2からの情報を受信できれば、動画が移動端末2から送信できる状態であると判断する。動画取得部133は、例えば、移動端末2に対応する移動情報が格納部11に格納されているか否かを判断し、格納されていれば、動画が移動端末2から送信できる状態であると判断する。なお、動画が送信できる状態とは、例えば、移動端末2または移動端末2に対応する移動体の電源がONである状態(例えば、移動体である車のエンジンがONである状態)である。また、動画取得部133が、動画が送信できる状態か否かを判断する方法は問わない。
 動画取得部133は、例えば、保全条件を満たす属性値集合に対応付く動画を移動端末2から取得する。かかる処理により、自動的に動画が取得できる。
 保全条件とは、動画を蓄積するための条件である。保全条件は、属性値集合に関する条件である。
 保全条件は、1以上のタグに関する条件であることは好適である。保全条件は、例えば、属性値集合が「事故」を示すタグを含むこと、属性値集合が「渋滞」を示すタグを含むこと、属性値集合が特定の場所を示すタグを含むことである。特定の場所を示すタグは、例えば、特定の駐車場の名称、特定の地名、特定の名勝の名称、特定のランドスケープの名称である。
 保全条件は、予め決められた装置または領域(例えば、格納部11)に格納されている1以上の動画に対応する属性値集合に対して、予め決められた条件を満たす属性値集合に対応する動画であることである。予め決められた条件は、例えば、属性値集合が有する属性値が、予め決められた装置または領域に格納されている1以上の動画に対応する属性値集合の中に存在しないことである。
 動画取得部133は、例えば、移動端末2が撮影した動画を加工して取得した加工画像を取得しても良い。かかる加工画像は、例えば、アラウンドビュー画像である。アラウンドビュー画像とは、アラウンドビューモニタに映し出される画像である。アラウンドビュー画像とは、移動体を含む領域を真上から撮影したように見える画像である。
 動画構成部134は、動画取得部133が取得した2以上の動画を用いて、一の動画を構成する。一の動画を構成することは、ユーザから一つの動画に見える動画の一部を順に、動画送信部141に渡すことでも良い。
 動画構成部134は、例えば、動画取得部133が取得した2以上の各動画に対応付く時情報が異なる2以上の各動画を時間的に結合し、一の動画を構成する。2以上の動画を時間的に結合し、一の動画を構成することは、2以上の動画を、順に、動画送信部141に渡すことでも良い。つまり、2以上の動画を時間的に結合し、一の動画を構成することは、結果として、ユーザが一の動画に見えれば良い。
 動画構成部134は、例えば、動画取得部133が取得した2以上の各動画を、動画に対応する時間の順序で結合し、一の動画を構成する。動画構成部134は、例えば、動画取得部133が取得した2以上の各動画の一部を取得し、当該各動画の一部を順に結合し、一の動画を構成する。2以上の各動画を時間的に結合することは、通常、2以上の各移動端末2が撮影した動画の一部を、順に、結合することである。動画の一部を、順に、結合することは、動画の一部を、順に、動画送信部141に渡すことでも良い。また、
動画に対応する時間の順序で結合することは、動画に対応する時情報が示す時の順序で動画を結合すること、または動画が受信された順に動画を結合することである。
 動画構成部134は、例えば、動画取得部133が取得した2以上の各動画に対応付く位置情報が異なる2以上の各動画の一部を空間的に融合して、一の動画を構成する。動画構成部134は、例えば、動画取得部133が取得した2以上の各動画を構成するフレームの一部または全部を用いて一のフレームを構成し、フレームを時間的に繋げて、一の動画を構成する。
 動画構成部134は、例えば、動画取得部133が取得した2以上の各動画を加工して、一の動画を構成する。動画構成部134は、例えば、2以上の各移動体に設置された2以上の各移動端末2が撮影した動画が有するフレームを合成した真上フレームを空間的に繋げ、一のフレームを構成し、一のフレームを有する一の動画を構成する。
 動画構成部134は、例えば、2以上のアラウンドビュー画像を合成し、広域のアラウンドビュー画像を構成する。
 権利者処理部135は、権利者処理を行う。権利者処理とは、動画構成部134が構成した一の動画に対応付く権利者識別子で識別される権利者に関する処理である。権利者処理部135は、例えば、動画送信部141が動画を送信したことに応じた処理であり、当該動画に対応付く権利者識別子で識別される権利者に関する処理である権利者処理を行う。権利者処理は、例えば、後述する第一保全処理、後述する第二保全処理、後述する第三保全処理、後述する第四保全処理、後述する報酬処理である。なお、動画送信部141が送信した動画は、動画構成部134が構成した画像である。
 なお、一の動画に対応付く権利者識別子は、例えば、構成された一の動画の元になった2以上の各動画に対応付く権利者識別子、または当該一の動画を要求したユーザの識別子である。
 権利者処理部135は、例えば、動画取得部133が取得した動画を権利者識別子に対応付けて蓄積する。権利者処理部135は、蓄積条件を満たすとして、動画取得部133が取得した動画のみを蓄積することは好適である。また、権利者処理部135は、蓄積条件を満たさない動画は蓄積しないことは好適である。
 権利者処理部135は、例えば、問合せに対応する動画を保持している移動端末2が当該動画を送信できない状態であると、動画取得部133が判断した場合に、当該状態に関する状態情報を取得する。
 状態情報とは、動画を送信できない状態であることに関する情報である。状態情報は、例えば、動画を保有している移動端末2の状態を示す情報である。状態情報は、例えば、「動画は存在しますが、現在、貴殿に送付できる状態ではありません。」「○○様の移動端末に動画は存在しますが、現在、貴殿に送付できる状態ではありません。」である。状態情報は、例えば、移動端末2の電源がOFFであることを示す情報、または移動端末2の電源がONであることを示す情報である。
 権利者処理部135は、例えば、問合せに対応する動画を保持している移動端末2が当該動画を送信できない状態であると、動画取得部133が判断した場合に、ニーズ情報を取得する。
 ニーズ情報とは、動画に対するニーズが存在する旨の情報である。ニーズ情報は、例えば、「貴殿のXXXの動画が、他のユーザから要求されています。」「貴殿のXXXの動画を、他のユーザが○○円で要求されています。」である。
 第一保全手段1351は、動画構成部134が構成した一の動画を、当該一の動画の元になった2以上の各動画に対応付く属性値集合に対応付けて蓄積する第一保全処理を行う。第一保全手段1351は、移動端末2から受信された動画を、当該動画に対応付く属性値集合に対応付けて蓄積する第一保全処理を行っても良い。
 第二保全手段1352は、動画構成部134が構成した一の動画を、当該一の動画の元になった2以上の各動画に対応する権利者識別子に対応付けて蓄積する第二保全処理を行う。
 なお、第一保全手段1351または第二保全手段1352は、動画構成部134が構成した一の動画を、当該一の動画の元になった2以上の各動画に対応付く属性値集合、および当該一の動画の元になった2以上の各動画に対応する権利者識別子に対応付けて蓄積しても良い。
 第三保全手段1353は、動画構成部134が構成した一の動画を、ユーザ端末3のユーザを識別する権利者識別子に対応付けて蓄積する。なお、ここでのユーザ端末3のユーザは、一の動画を見る者である。ここでのユーザ端末3は、例えば、問合せを送信した端末である。
 また、一の動画を蓄積する先は、例えば、格納部11であるが、他の装置、ブロックチェーンを構成する他の装置等でも良い。
 第四保全手段1354は、蓄積された一の動画にアクセスするためのアクセス情報を含む保全情報を蓄積する第四保全処理を行う。動画の蓄積と当該動画に対応する保全情報に対する第四保全処理との順序の前後は問わない。
 第四保全手段1354は、動画構成部134が構成し、蓄積された一の動画にアクセスするためのアクセス情報を含む保全情報をブロックチェーンに蓄積する第四保全処理を行う。
 なお、第四保全手段1354は、ブロックチェーンに保全情報を蓄積することは好適である。つまり、第四保全手段1354は、ブロックチェーンの分散台帳に保全情報を蓄積することは好適である。第四保全手段1354は、保全情報をNFT(non-fungible token)として登録することは好適である。第四保全手段1354は、保全情報をIPFS(Inter Planetary File System)ネットワークにある分散ファイルシステムに登録することは好適である。
 保全情報とは、動画のオリジナル性を確保するための情報である。保全情報は、動画の見出し情報である、と言える。保全情報は、例えば、アクセス情報と1以上の動画属性値である。保全情報は、例えば、1または2以上の権利者識別子を有することは好適である。保全情報が2以上の権利者識別子を有する場合、当該動画の権利者が共有である場合でも良いし、当該2以上の権利者識別子は権利者履歴情報でも良い。権利者履歴情報とは、権利者識別子の集合であり、権利者の履歴を示す情報である。第四保全処理により、登録された動画の保全情報のオリジナル性が担保できる。保全情報のオリジナル性の担保により、当該保全情報に対応する動画のオリジナル性も担保することとなる。なお、アクセス情報とは、動画にアクセスするための情報である。アクセス情報は、動画の蓄積先を特定する情報である。アクセス情報は、例えば、URL、URIである。
 保全情報には、第三者に動画を提供できるか否かを示す情報(フラグと言っても良い)が含まれることは好適である。フラグは、例えば、第三者が閲覧可能である旨を示す情報、販売可能である旨を示す情報、閲覧も販売も許さないことを示す情報である。
 報酬手段1355は、動画構成部134が構成した一の動画の元になった2以上の各動画に対応付く権利者識別子で識別される各権利者に対して報酬処理を行う。
 報酬処理とは、報酬を与える処理である。報酬処理は、例えば、動画に対応付く1または2以上の各権利者識別子と対にして管理されているポイントを増加させる処理である。報酬処理は、例えば、動画に対応付く1または2以上の各権利者識別子で識別される権利者に入金する処理である。報酬処理は、例えば、動画に対応付く1または2以上の各権利者識別子で識別される権利者のユーザ端末3に、動画または他のコンテンツを送信する処理である。報酬処理は、動画に対応付く1または2以上の各権利者識別子で識別される権利者にメリットが与えられれば良く、その内容は問わない。また、報酬は、例えば、金銭、ポイント、物品、コンテンツ等であり、その内容は問わない。
 報酬手段1355は、動画送信部141が送信した一の動画の元になった2以上の各動画に対応する1または2以上の動画属性値を取得し、当該1以上の動画属性値を用いて、2以上の各権利者に対する報酬を決定し、報酬を与える処理である報酬処理を行うことは好適である。
 ここでの1以上の動画属性値は、例えば、動画のデータ量、動画の時間、動画のフレーム数、動画の解像度である。
 報酬手段1355は、対象となる動画に対して行われたサービスを識別するサービス識別子に対応する報酬量を取得し、当該報酬量に対応する報酬を与える処理である報酬処理を行うことは好適である。なお、サービス識別子は、例えば、「閲覧」「購入」である。かかる場合、例えば、格納部11に、サービス識別子に対応する報酬量、またはサービス識別子に対応する報酬量を決定するための情報が格納されている。
 報酬手段1355は、例えば、1または2以上の動画属性値とサービス識別子のうちの1または2以上の情報を用いて、報酬量を取得し、当該報酬量に対応する報酬を与える処理である報酬処理を行う。かかる場合、例えば、格納部11に、2以上の各サービス識別子に対応する演算式または対応表が格納されている。演算式は、1または2以上の動画属性値をパラメータとして、報酬量を算出する式である。対応表は、1または2以上の動画属性値に対応する報酬量を管理する2以上の対応情報を有する表である。
報酬手段1355は、通常、対象となる動画に関するサービスを享受したユーザに、報酬を負担させる処理を行う。
 報酬を負担させる処理は、例えば、取得した報酬量の分を負担させる処理である。報酬を負担させる処理は、例えば、取得した報酬量の分と情報処理装置1の運営側が得る利益の分とを負担させる処理である。報酬を負担させる処理は、例えば、サービスを享受したユーザに対応するポイントを減じる処理、当該ユーザのクレジットカード番号を使用した決済処理等である。
 送信部14は、各種の情報または指示を移動端末2またはユーザ端末3またはナビ端末5に送信する。各種の情報または指示は、例えば、動画、問合せ、状態情報、ニーズ情報である。
 動画送信部141は、動画構成部134が構成した一の動画を送信する。動画送信部141は、当該一の動画をユーザ端末3に送信する。動画送信部141は、問合せの受信に対応して、動画を送信することは好適である。動画送信部141は、例えば、ユーザ端末3またはナビ端末5に動画を送信する。一の動画を送信することは、動画送信部141が、順次、渡された当該一の動画の一部を、順次、送信することでも良い。
 動画送信部141は、例えば、動画取得部133が取得した動画をユーザ端末3に送信する。
 状態送信部142は、動画を送信できない状態である場合に、状態に関する状態情報をユーザ端末3に送信する。状態送信部142は、例えば、権利者処理部135が取得した状態情報をユーザ端末3に送信する。
 なお、動画を送信できない状態であるか否かは、例えば、動画取得部133が判断する。
 ニーズ送信部143は、動画を送信できない状態であると判断された場合に、当該動画に対応するユーザに、動画に対するニーズが存在する旨のニーズ情報を送信する。ニーズ送信部143は、例えば、権利者処理部135が取得したニーズ情報を、当該動画に対応するユーザに送信する。動画に対応するユーザに送信することは、例えば、動画に対応する権利者識別子と対になるメールアドレスの宛先に、ニーズ情報をメール送信することである。動画に対応するユーザに送信することは、例えば、動画に対応する権利者識別子と対になる電話番号の宛先に、ニーズ情報をショートメッセージで送信することである。動画に対応するユーザに送信することは、例えば、動画に対応する権利者識別子と対になる移動端末2に、ニーズ情報を送信することである。なお、動画に対応するユーザは、通常、動画の権利者である。
 移動端末2を構成する移動格納部21には、各種の情報が格納される。各種の情報は、例えば、動画、属性値集合、権利者識別子、移動開始の旨を示す移動情報、属性値タグ条件とタグとの組、動画タグ条件とタグとの組、1または2以上の保全条件、1または2以上の取得情報である。移動格納部21には、通常、属性値タグ条件とタグとの組が1または2以上格納される。移動格納部21には、通常、動画タグ条件とタグとの組が1または2以上格納される。
 動画を構成する1以上の静止画(フィールド、フレームと言っても良い)には、例えば、属性値集合を構成する1以上の動画属性値が対応付いている。1以上の動画属性値は、全部の静止画に対応付いていても良いし、一部の静止画に対応付いていても良いし、2以上の静止画に対応付いていても良い。
 属性値タグ条件とは、1または2以上の移動体属性値に基づいて、タグを取得するための条件である。属性値タグ条件は、1または2以上の移動体属性値に関する条件である。属性値タグ条件は、例えば、「急ブレークが踏まれたこと」「単位時間内の速度の減速の度合い(加速度)が閾値以下であること(急ブレークが踏まれたこと)」「エアバッグが作動したこと」「第一速度以下の時間が第二時間以上経過したこと(渋滞であること)」「位置情報が特定の名称に対応すること」である。属性値タグ条件と対になるタグは、例えば「異常運転」「事故」「渋滞」「特定の地点名」である。
 動画タグ条件とは、動画に関する条件である。動画タグ条件は、動画の解析結果に基づく条件である。動画タグ条件は、例えば、「2以上の自動車が接触した静止画を有すること(事故であること)」「2以上の自動車の距離が0のフレームが存在すること(自動車が接触していること)」「所定距離以内に、第一閾値以上の自動車が存在している期間が第二閾値以上であること(渋滞であること)」「前の車の重心点と車線との距離の変化量の単位時間当たりの累積が閾値以上であること(前の車が蛇行運転をしていること)」である。動画タグ条件と対になるタグは、例えば「事故」「渋滞」「異常運転」である。
 保全条件とは、動画を保全するための条件である。保全条件は、属性値集合に関する条件である。かかる保全条件は、例えば、「エアバッグが作動したこと(事故が発生したこと)」「特定のタグが動画に付されたこと(特定のタグは、例えば、「事故」「危険運転」)」である。保全条件は、例えば、取得情報に対応付いている。取得情報とは、取得する動画を特定する情報である。取得情報は、保全条件が満たされた場合に取得する動画を特定する情報である。かかる保全条件は、例えば、「(1)画面内の車の数が第一閾値以上 & (2)車の走行速度が第二閾値以下 & (1)(2)の継続時間が第三閾値以上(渋滞が継続していること)」である。
 移動受信部22は、各種の情報を受信する。各種の情報は、例えば、問合せ、ニーズ情報、他の移動端末2が撮影した動画である。
 移動処理部23は、各種の処理を行う。各種の処理は、例えば、撮影部231、タグ取得部232、移動情報取得部233が行う処理である。移動処理部23は、移動受信部22が受信した情報を、出力するデータ構造にする。
 移動処理部23は、例えば、移動開始を検知する。移動開始の検知は、例えば、移動端末2の電源ONの検知、または移動体のエンジンONの検知である。
 移動処理部23は、例えば、移動終了を検知する。移動終了の検知は、例えば、移動端末2の電源OFFの検知、または移動体のエンジンOFFの検知である。
 移動処理部23は、例えば、移動受信部22が受信した問合せに合致する属性値集合を決定し、当該属性値集合と対になる動画を移動格納部21から取得する。
 移動処理部23は、例えば、移動の開始から移動の終了までの動画を取得する。移動処理部23は、例えば、移動の開始から移動の終了までの動画を、移動中に取得した属性値集合に対応付けて、取得する。
 移動処理部23は、例えば、撮影中に属性値集合を取得する。移動処理部23は、取得した属性値集合を移動格納部21に蓄積する。また、移動処理部23は、例えば、取得した属性値集合を、動画に対応付ける。動画に対応付けることは、通常、動画を構成するフレームに対応付けることである。属性値集合とフレームとは、時間的な同期が取れていることは好適である。
 なお、属性値集合は、例えば、1以上の環境情報である。環境情報は、例えば、位置情報、時情報、天気情報、温度情報、季節情報である。
 移動処理部23は、例えば、撮影中に、位置情報を取得する。GPS受信機の機能を有する移動処理部23は、例えば、位置情報を取得する。移動処理部23は、例えば、常時、予め決められた期間ごと、または取得条件を満たす場合に、位置情報を取得する。取得条件とは、情報を取得するための条件である。取得条件は、例えば、事故が発生したことを検知した場合、渋滞を検知した場合、天気情報の変化があった場合である。
 移動処理部23は、例えば、撮影中に、図示しない時計から時情報を取得する。移動処理部23は、例えば、常時、予め決められた期間ごと、または取得条件を満たす場合に、時情報を取得する。
 移動処理部23は、例えば、撮影中に、図示しない時計から時情報を取得し、当該時情報に対応する季節情報を取得する。
 移動処理部23は、例えば、撮影中に、天気情報を取得する。移動処理部23は、例えば、図示しないサーバから位置情報に対応する天気情報を取得する。移動処理部23は、例えば、常時、予め決められた期間ごと、または取得条件を満たす場合に、天気情報を取得する。
 移動処理部23は、例えば、撮影中に、温度情報を取得する。移動処理部23は、例えば、図示しないサーバから位置情報に対応する温度情報を取得する。移動処理部23は、例えば、移動体に設置された温度センサから温度情報を取得する。移動処理部23は、例えば、常時、予め決められた期間ごと、または取得条件を満たす場合に、温度情報を取得する。
 移動処理部23は、例えば、取得した属性値集合が保全条件に合致するか否かを判断する。移動処理部23は、例えば、取得した時系列の属性値集合が保全条件に合致するか否かを判断する。移動処理部23は、例えば、保全条件に合致する場合に、当該属性値集合に対応する動画を取得する。移動処理部23は、例えば、保全条件に合致する場合に、当該保全条件に対応する動画を取得する。移動処理部23は、例えば、保全条件に合致する場合に、当該保全条件と対になる取得情報を取得し、当該取得情報に従って動画を取得する。
 移動処理部23は、例えば、マイクを具備し、音情報を取得し、撮影部231が取得した動画に対応付けて、音情報を蓄積することは好適である。なお、かかる機能は、例えば、ドライブレコーダーの機能である。
 撮影部231は、動画を撮影する。撮影部231は、例えば、移動の開始の検知後、撮影を開始する。また、撮影部231は、例えば、移動の終了の検知まで、撮影を継続することは好適である。
 撮影部231は、撮影した動画を移動格納部21に蓄積することは好適である。撮影部231は、限られた記憶容量の移動格納部21に動画を蓄積する場合に、古い動画が格納されている領域に、新しい動画を上書きすることは好適である。つまり、移動格納部21の構造は、リングバッファの構造であることは好適である。
 タグ取得部232は、撮影部231が撮影した動画に対する1以上のタグを取得し、動画に対応付ける。
 タグ取得部232は、例えば、撮影部231が撮影した動画を解析し、当該動画に対する1以上のタグを取得する。
 タグ取得部232は、例えば、撮影部231の撮影中に取得された1または2以上の移動体属性値を用いて、1以上のタグを取得する。移動体属性値は、例えば、CANデータである。
 タグ取得部232は、例えば、動画タグ条件に合致する1以上の静止画を決定し、当該動画タグ条件と対になるタグを取得する。また、タグ取得部232は、当該タグを当該1以上の静止画に対応付けても良い。なお、静止画は、動画を構成するフレームである。
 例えば、動画タグ条件が「前後の間隔が閾値以内の自動車の数が閾値以上 & 自動車の移動速度が閾値以下」であり、当該動画タグ条件と対になるタグが「渋滞」である場合、タグ取得部232は、動画が有するフレームを解析し、2以上の自動車を認識し、当該2以上の各自動車間の間隔を取得する。また、タグ取得部232は、自動車の間隔が閾値以内の自動車の数を取得する。また、タグ取得部232は、2以上のフレームにおける一の自動車の移動距離とフレームレートとを取得し、自動車の速度を取得する。そして、タグ取得部232は、自動車の間隔が閾値以内の自動車の数と自動車の速度とを用いて、動画タグ条件に合致するか否かを判断する。そして、動画タグ条件に合致する場合、タグ取得部232は、当該動画タグ条件と対になるタグ「渋滞」を取得する。また、タグ取得部232は、当該タグ「渋滞」を解析した動画の解析したフレームに対応付けても良い。
 タグ取得部232は、例えば、属性値タグ条件に合致する1以上の移動体属性値を決定し、当該属性値タグ条件と対になるタグを取得する。また、タグ取得部232は、当該タグを当該1以上の移動体属性値と対になる動画に対応付けても良い。
 例えば、属性値タグ条件が「速度が30km未満の走行時間が10分以上 & 当該走行時間における速度が30%未満の割合が80%以上」であり、当該属性値タグ条件と対になるタグが「渋滞」である場合、タグ取得部232は、動画が有する各フィールドに対応付けられているCANデータが有する速度の履歴を用いて、当該属性値タグ条件に合致するCANデータを検知し、当該属性値タグ条件と対になるタグ「渋滞」を取得し、当該タグを当該CANデータに対応付くフィールドに対応付ける。なお、動画が有する各フィールドに対応付けられているCANデータとは、当該フィールドが撮影されたタイミングと同じタイミングで取得されたCANである。
 移動情報取得部233は、移動端末2の移動を検知し、例えば、当該移動の開始時に、移動情報を取得する。移動情報取得部233は、例えば、移動格納部21の権利者識別子である移動情報を取得する。移動情報取得部233は、例えば、移動格納部21の移動情報を取得する。なお、移動情報は、例えば、権利者識別子、「移動を開始した旨」の情報である。
 移動送信部24は、各種の情報を情報処理装置1に送信する。各種の情報は、例えば、移動情報、動画、属性値集合である。
 移動情報送信部241は、通常、移動の開始時に、移動端末2が移動することを特定する移動情報を情報処理装置1に送信する。移動情報送信部241は、移動情報取得部233が取得した移動情報を情報処理装置1に送信する。
 移動動画送信部242は、撮影部231が撮影した動画を情報処理装置1に送信する。移動動画送信部242が動画を送信するタイミングは問わない。移動動画送信部242は、例えば、移動処理部23が受信された問合せに合致する属性値集合と対になる動画を取得した後、当該動画を情報処理装置1に送信する。移動動画送信部242は、例えば、移動の終了を検知した際に、移動の開始の検知以降に蓄積された動画を、情報処理装置1に送信する。移動動画送信部242は、例えば、保全条件に合致すると判断された場合に、当該判断に対応する動画を情報処理装置1に送信する。
 なお、移動送信部24は、撮影部231が撮影した動画を情報処理装置1に送信しても、移動処理部23が取得した音情報は送信しないことは好適である。音情報は、例えば、移動体の中の運転手や搭乗者の音声情報であることもあり、かかる音情報を情報処理装置1に送信し、ユーザ端末3等に提供することは、運転手や搭乗者のプライバシーを脅かすことになり得、妥当ではないからである。
 集合送信部243は、移動格納部21の属性値集合を情報処理装置1に送信する。集合送信部243は、例えば、移動端末2の移動の終了時に、移動格納部21の属性値集合を情報処理装置1に送信する。なお、集合送信部243は、属性値集合を取得すれば、直ちに当該属性値集合を情報処理装置1に送信しても良い。つまり、集合送信部243が属性値集合を送信するタイミングは問わない。
 ユーザ端末3を構成するユーザ格納部31には、各種の情報が格納される。各種の情報は、例えば、ユーザ識別子、動画である。
 ユーザ受付部32は、各種の指示や情報を受け付ける。各種の指示や情報は、例えば、問合せ、購入指示である。
 なお、購入指示とは、動画を購入する指示である。購入指示は、ユーザ識別子に対応付いている。購入指示は、通常、動画を特定する情報を含む。購入指示は、例えば、動画識別子を有する。購入指示は、例えば、問合せを含む。購入指示は、例えば、購入の条件を含む。購入の条件は、例えば、購入金額である。購入の条件は、例えば、権利期間を特定する情報を含む。
 各種の指示や情報の入力手段は、タッチパネルやキーボードやマウスやメニュー画面によるもの等、何でも良い。
 ユーザ処理部33は、各種の処理を行う。各種の処理は、例えば、ユーザ受付部32が受け付けた各種の指示や情報を送信するデータ構造にする処理である。各種の処理は、例えば、ユーザ受信部35が受信した情報を送信する構造にする処理である。
 ユーザ送信部34は、各種の指示や情報を情報処理装置1に送信する。各種の指示や情報は、例えば、問合せ、購入指示、対象端末4から受信した位置情報、ナビ端末5から受信した経路情報である。
 ユーザ受信部35は、各種の情報や指示を受信する。各種の情報や指示は、例えば、問合せ、動画、状態情報である。
 ユーザ出力部36は、各種の情報を出力する。各種の情報は、例えば、動画、状態情報である。
 ここで、出力とは、ディスプレイへの表示、プロジェクターを用いた投影、プリンタでの印字、音出力、外部の装置への送信、記録媒体への蓄積、他の処理装置や他のプログラムなどへの処理結果の引渡しなどを含む概念である。
 対象端末4は、当該対象端末4の位置を特定する位置情報を取得し、送信する。対象端末4は、例えば、情報処理装置1またはユーザ端末3に位置情報を送信する。対象端末4は、対象者識別子と対にして、位置情報を送信することは好適である。対象者識別子とは、監視対象を識別する情報である。対象者識別子は、例えば、ID、氏名、電話番号、メールアドレス、対象端末4のMACアドレスである。対象端末4は、例えば、GPS受信機により位置情報を取得するが、位置情報の取得方法は問わない。
 ナビ端末5は、公知のナビゲーション端末の機能を有する。ナビ端末5は、目的地の入力を受け付け、現在位置を取得し、現在位置から目的地までの経路情報を取得する。ナビ端末5は、例えば、受け付けた目的地を送信する。ナビ端末5は、例えば、取得した経路情報を送信する。目的地または経路情報を送信する先は、例えば、情報処理装置1、またはユーザ端末3である。ナビ端末5は、ユーザ端末3から目的地を受信し、現在位置から目的地までの経路情報を取得しても良い。
 格納部11、集合格納部111、移動格納部21、およびユーザ格納部31は、不揮発性の記録媒体が好適であるが、揮発性の記録媒体でも実現可能である。
 格納部11等に情報が記憶される過程は問わない。例えば、記録媒体を介して情報が格納部11等で記憶されるようになってもよく、通信回線等を介して送信された情報が格納部11等で記憶されるようになってもよく、あるいは、入力デバイスを介して入力された情報が格納部11等で記憶されるようになってもよい。
 受信部12、移動情報受信部121、問合受信部122、集合受信部123、移動受信部22、およびユーザ受信部35は、通常、無線または有線の通信手段で実現されるが、放送を受信する手段で実現されても良い。
 処理部13、移動情報蓄積部131、集合蓄積部132、動画取得部133、動画構成部134、権利者処理部135、第一保全手段1351、第二保全手段1352、第三保全手段1353、第四保全手段1354、報酬手段1355、移動処理部23、タグ取得部232、移動情報取得部233、およびユーザ処理部33は、通常、プロセッサやメモリ等から実現され得る。
 処理部13等の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。なお、プロセッサは、CPU、MPU、GPU等であり、その種類は問わない。
 なお、動画取得部133、および権利者処理部135は、無線または有線の通信手段で実現されても良い。
 送信部14、動画送信部141、状態送信部142、ニーズ送信部143、移動送信部24、移動情報送信部241、移動動画送信部242、集合送信部243、およびユーザ送信部34は、通常、無線または有線の通信手段で実現されるが、放送手段で実現されても良い。
 撮影部231は、カメラにより実現される。なお、カメラは、例えば、CCDカメラ、CMOSカメラ、3Dカメラ、LiDAR、全方位カメラであるが、その種類は問わない。
 ユーザ受付部32は、タッチパネルやキーボード等の入力手段のデバイスドライバーや、メニュー画面の制御ソフトウェア等で実現され得る。
 ユーザ出力部36は、ディスプレイやスピーカー等の出力デバイスを含むと考えても含まないと考えても良い。ユーザ出力部36は、出力デバイスのドライバーソフトまたは、出力デバイスのドライバーソフトと出力デバイス等で実現され得る。
 次に、情報システムAの動作例について説明する。まず、情報処理装置1の動作例について、図4のフローチャートを用いて説明する。
 (ステップS401)移動情報受信部121は、移動端末2から、権利者識別子に対応付付く移動情報を受信したか否かを判断する。移動情報を受信した場合はステップS402に行き、受信しなかった場合はステップS403に行く。
 (ステップS402)移動情報受信部121は、権利者識別子に対応付付けて、ステップS401で受信された移動情報を格納部11に蓄積する。ステップS401に戻る。なお、移動情報が権利者識別子である場合、移動情報受信部121は、権利者識別子を蓄積する。
 (ステップS403)集合受信部123は、移動端末2から、権利者識別子に対応付付く属性値集合を受信したか否かを判断する。属性値集合を受信した場合はステップS404に行き、受信しなかった場合はステップS406に行く。
 (ステップS404)集合蓄積部132は、ステップS403で受信された属性値集合を、権利者識別子に対応付けて集合格納部111に蓄積する。
 (ステップS405)処理部13は、当該権利者識別子に対応付く移動情報を格納部11から削除する。ステップS401に戻る。なお、移動情報を削除することは、移動情報を「動画を送信できる状態にないことを示す情報に書き換えること」と同意義である。
 (ステップS406)受信部12は、移動端末2から、権利者識別子に対応付付く動画等を受信したか否かを判断する。動画等を受信した場合はステップS407に行き、受信しなかった場合はステップS410に行く。
 (ステップS407)処理部13は、ステップS406で受信された動画に対応する属性値集合を取得する処理を行う。かかる属性値集合取得処理の例について、図5のフローチャートを用いて説明する。また、ここでの属性値集合取得処理は、受信された動画に対応付いている属性値集合を取得する処理でも良い。
 (ステップS408)第一保全手段1351は、ステップS407で取得された属性値集合に対応付けて、ステップS406で受信された動画を蓄積する。なお、第一保全手段1351は、例えば、動画を格納部11に蓄積するが、ブロックチェーンを構成する装置等の他の装置に蓄積しても良い。また、第一保全手段1351が動画を蓄積する処理は、第一保全処理である。
 (ステップS409)第四保全手段1354は、第四保全処理を行う。ステップS401に戻る。なお、第四保全処理の例について、図8のフローチャートを用いて説明する。
 (ステップS410)問合受信部122は、問合せを受信したか否かを判断する。問合せを受信した場合はステップS411に行き、受信しなかった場合はステップS414に行く。なお、問合受信部122は、通常、ユーザ端末3またはナビ端末5から問合せを受信する。なお、問合せを送信するナビ端末5は、ユーザ端末3でも良い。
 (ステップS411)動画取得部133は、受信された問合せが、リアルタイムの動画検索であるか否かを判断する。リアルタイムの動画検索であればステップS412に行き、リアルタイムの動画検索でなければステップS415に行く。なお、かかる判断は、受信された問合せを検査することにより可能である。リアルタイムの動画検索とは、移動端末2が、現在、保持している動画、撮影中の動画を検索する処理である。
 (ステップS412)動画取得部133は、受信された問合せが、2以上の動画の空間的融合が必要であるか否かを判断する。空間的融合が必要である場合はステップS413に行き、空間的融合が必要でない場合はステップS414に行く。なお、かかる判断は、受信された問合せを検査することにより可能である。
 (ステップS413)動画取得部133、動画構成部134等は、動画融合処理を行う。ステップS418に行く。動画融合処理とは、2以上の動画を空間的に融合して、1または以上のフレームを有する画像を取得し、送信する処理である。動画融合処理の例について、図9のフローチャートを用いて説明する。
 (ステップS414)動画取得部133、動画構成部134等は、動画結合処理を行う。ステップS418に行く。動画結合処理とは、2以上の動画が間的に結合された一つの動画を送信する処理である。動画結合処理の例について、図11のフローチャートを用いて説明する。
 (ステップS415)動画取得部133等は、登録動画検索処理を行う。登録動画検索処理の例について、図12のフローチャートを用いて説明する。なお、ここで動画取得部133は、動画を取得できない場合もあり得る。
 (ステップS416)動画取得部133は、ステップS415で動画を取得できたか否かを判断する。動画を取得できた場合はステップS417に行き、動画を取得できなかった場合はステップS418に行く。
 (ステップS417)動画取得部133は、未登録動画検索処理を行う。未登録動画検索処理の例について、図13、図14のフローチャートを用いて説明する。なお、ここで動画取得部133は、動画を取得できない場合もあり得る。
 (ステップS418)権利者処理部135は、保全処理を行う。ステップS401に戻る。保全処理の例について、図15のフローチャートを用いて説明する。
 (ステップS419)受信部12は、ユーザ端末3から購入指示を受信したか否かを判断する。購入指示を受信した場合はステップS420に行き、受信しなかった場合はステップS401に戻る。
 (ステップS420)動画取得部133は、購入指示に対応する動画を取得する。なお、動画取得部133は、例えば、購入指示に対応する動画を移動端末2から受信する。また、動画取得部133は、例えば、購入指示に対応する動画を登録済みの動画から取得する。動画取得部133は、例えば、購入指示に対応する動画を未登録の動画から取得しても良い。
 (ステップS421)第四保全手段1354は、購入指示を送信したユーザ端末3に対応するユーザ識別子を取得する。なお、このユーザ識別子は、購入した動画に対する権利者識別子になる。
 (ステップS422)第四保全手段1354は、ステップS416で取得したユーザ識別子を用いて、第四保全処理を行う。第四保全処理の例について、図8のフローチャートを用いて説明する。
 (ステップS423)報酬手段1355は、購入される動画の元の権利者に対する報酬処理を行う。ステップS401に戻る。報酬処理の例について、図16のフローチャートを用いて説明する。
 なお、図4のフローチャートにおいて、電源オフや処理終了の割り込みにより処理は終了する。
 また、図4のフローチャートにおいて、受信部12は、2以上の各移動端末2から移動端末2の識別子(例えば、権利者識別子)と対にして、移動端末2の現在位置を特定する位置情報を受信して、一時蓄積することは好適である。受信部12が位置情報を受信して、一時蓄積する頻度や時間的な間隔は問わない。受信部12は、例えば、連続して、位置情報を受信して、一時蓄積する。受信部12は、例えば、定期的に位置情報を受信して、一時蓄積する。
 また、図4のフローチャートにおいて、受信部12は、ユーザ端末3、対象端末4、またはナビ端末5から、例えば、連続して、位置情報を受信しても良い。かかる場合、情報処理装置1は、例えば、受信した位置情報を用いて、移動端末2が取得した動画を受信し、ユーザ端末3またはナビ端末5に送信しても良い。なお、連続して位置情報を受信する頻度や時間的な間隔は問わない。
 次に、ステップS407の属性値集合取得処理の例について、図5のフローチャートを用いて説明する。
 (ステップS501)移動処理部23または集合蓄積部132(以下、移動処理部23等という)は、対象の動画に対応付いている1以上の環境情報等を取得する。なお、対象の動画とは、動画属性値を取得する対象の動画であり、例えば、受信された動画、撮影した動画または撮影中の動画である。また、環境情報等とは、環境情報のみでも良いし、環境情報と1以上の移動体属性値でも良い。
 (ステップS502)移動処理部23等は、受信された動画に対応付いている権利者識別子を取得する。
 (ステップS503)移動処理部23等は、動画に対するアノテーション処理を行うか否かを判断する。アノテーション処理を行う場合はステップS504に行き、行わない場合はステップS511に行く。なお、アノテーション処理を行うか否かは、予め決まっている、とする。また、情報処理装置1または移動端末2のどちらかで、動画に対してアノテーションすることは好適である。
 (ステップS504)移動処理部23等は、カウンタiに1を代入する。
 (ステップS505)移動処理部23等は、動画の中に、i番目のアノテーションの単位が存在するか否かを判断する。i番目のアノテーションの単位が存在する場合はステップS506に行き、存在しない場合はステップS511に行く。なお、アノテーションの単位とは、アノテーションを取得する対象であり、例えば、1フレーム、一定数のフレーム群、一定時間(例えば、5秒、10秒)の動画である。
 (ステップS506)移動処理部23等は、アノテーションの際に、移動体属性値を使用するか否かを判断する。移動体属性値を使用する場合はステップS507に行き、使用しない場合はステップS508に行く。なお、アノテーションの際に、移動体属性値を使用するかは、予め決まっている、とする。
 (ステップS507)移動処理部23等は、移動体属性値タグ取得処理を行う。移動体属性値タグ取得処理の例について、図6のフローチャートを用いて説明する。
 (ステップS508)移動処理部23等は、アノテーションの際に、動画を使用するか否かを判断する。動画を使用する場合はステップS509に行き、使用しない場合はステップS510に行く。なお、アノテーションの際に、動画を使用するかは、予め決まっている、とする。
 (ステップS509)移動処理部23等は、動画タグ取得処理を行う。動画タグ取得処理の例について、図7のフローチャートを用いて説明する。
 (ステップS510)移動処理部23等は、カウンタiを1、インクリメントする。ステップS505に戻る。
 (ステップS511)移動処理部23等は、1以上の環境情報、1以上のタグ、および権利者識別子を有する属性値集合を構成する。上位処理にリターンする。
 なお、図5のフローチャートにおいて、動画を2以上の検査単位に分割し、検査単位ごとに、ステップS501からステップS511の処理を行っても良い。
 次に、ステップS507の移動体属性値タグ取得処理の例について、図6のフローチャートを用いて説明する。
 (ステップS601)移動処理部23等は、カウンタiに1を代入する。
 (ステップS602)移動処理部23等は、i番目の属性値タグ条件が存在するか否かを判断する。i番目の属性値タグ条件が存在する場合はステップS603に行き、存在しない場合は上位処理にリターンする。
 (ステップS603)移動処理部23等は、i番目の属性値タグ条件を取得する。
 (ステップS604)移動処理部23等は、i番目の属性値タグ条件の判断に使用する1または2以上の移動体属性値を取得する。
 (ステップS605)移動処理部23等は、ステップS604で取得した1以上の移動体属性値がi番目の属性値タグ条件を満たすか否かを判断する。属性値タグ条件を満たす場合はステップS606に行き、満たさない場合はステップS607に行く。
 (ステップS606)移動処理部23等は、i番目の属性値タグ条件と対になるタグを取得し、当該タグを、対応する動画に対応付ける。タグを動画に対応付けることは、通常、タグを、動画を構成するフィールドに対応付けることである。
 (ステップS607)移動処理部23等は、カウンタiを1、インクリメントする。ステップS602に戻る。
 次に、ステップS509の動画タグ取得処理の例について、図7のフローチャートを用いて説明する。
 (ステップS701)移動処理部23等は、カウンタiに1を代入する。
 (ステップS702)移動処理部23等は、i番目の動画タグ条件が存在するか否かを判断する。i番目の動画タグ条件が存在する場合はステップS703に行き、存在しない場合は上位処理にリターンする。
 (ステップS703)移動処理部23等は、i番目の動画タグ条件を取得する。
 (ステップS704)移動処理部23等は、i番目の動画タグ条件の判断のために使用する1以上の動画属性値を取得する。
 (ステップS705)移動処理部23等は、ステップS704で取得した1以上の移動体属性値がi番目の属性値タグ条件を満たすか否かを判断する。属性値タグ条件を満たす場合はステップS706に行き、満たさない場合はステップS707に行く。
 (ステップS706)移動処理部23等は、i番目の属性値タグ条件と対になるタグを取得し、当該タグを、対応する動画に対応付ける。タグを動画に対応付けることは、通常、
 (ステップS707)移動処理部23等は、カウンタiを1、インクリメントする。ステップS702に戻る。
 次に、ステップS409の第四保全処理の例について、図8のフローチャートを用いて説明する。
 (ステップS801)第四保全手段1354は、動画の蓄積先を特定するアクセス情報を取得する。なお、かかる動画は、例えば、融合動画、結合動画である。
 (ステップS802)第四保全手段1354は、蓄積した動画に対応する属性値集合を取得する。蓄積した動画が2以上の元になる動画から構成された動画である場合、当該動画に対応する属性値集合は、2以上の元になる各動画の属性値集合である。
 (ステップS803)第四保全手段1354は、ステップS801で取得したアクセス情報とステップS802で取得した属性値集合と当該動画の権利者識別子とを有する保全情報を構成する。なお、新たな権利者識別子が取得されている場合、第四保全手段1354は、例えば、当該新たな権利者識別子と元の権利者識別子とを含む保全情報を構成する。
(ステップS804)第四保全手段1354は、ステップS803で構成した保全情報を蓄積する。上位処理にリターンする。
 なお、ステップS804において、蓄積する保全情報に対応する動画の保全情報が蓄積されている場合、当該保全情報を、ステップS803で構成した保全情報に上書きする。かかることにより、例えば、動画の権利者の遷移が管理できる。また、第四保全手段1354は、例えば、ブロックチェーンに保全情報を蓄積する。
 次に、ステップS413の動画融合処理の例について、図9のフローチャートを用いて説明する。
 (ステップS901)動画取得部133は、基準の位置情報を取得する。基準の位置情報は、例えば、受信された問合せに含まれる位置情報である。基準の位置情報は、例えば、ユーザ端末3または対象端末4の位置情報である。基準の位置情報は、例えば、問合せに含まれる経路情報の中の一の位置情報である。一の位置情報は、経路情報の中の最初の位置情報である。位置情報は、例えば、(緯度,経度)であるが、地点名(例えば、駐車場の名称)、地名等でも良い。
 (ステップS902)動画取得部133は、カウンタiに1を代入する。
 (ステップS903)動画取得部133は、動画を送信できるi番目の移動端末2が存在するか否かを判断する。i番目の移動端末2が存在する場合はステップS904に行き、存在しない場合はステップS908に行く。なお、動画を送信できる移動端末2は、通常、移動中の移動端末2である。
 移動中の移動端末2は、格納部11に格納されている移動情報に対応する移動端末2である。つまり、動画取得部133は、例えば、格納部11を参照し、i番目の移動情報が存在するか否かを判断する。
 (ステップS904)動画取得部133は、i番目の移動端末2が送信してきた最新の位置情報を取得する。
 (ステップS905)動画取得部133は、基準の位置情報に対して、ステップS904で取得した位置情報が、第二位置条件を満たすか否かを判断する。第二位置条件を満たす場合はステップS906に行き、第二位置条件を満たさない場合はステップS907に行く。
 (ステップS906)動画取得部133は、i番目の移動端末2から画像を取得し、当該画像を、i番目の移動端末2の権利者識別子と位置情報と対にして、図示しないバッファに一時蓄積する。
 なお、動画取得部133は、例えば、i番目の移動端末2に対して、要求する画像の種類を特定する種類識別子(例えば、「動画」「静止画」「アラウンドビュー画像」)を含む問合せを送信し、当該問合せに対応する画像をi番目の移動端末2から受信する。
 (ステップS907)動画取得部133は、カウンタiを1、インクリメントする。ステップS903に戻る。
 (ステップS908)動画構成部134は、図示しないバッファに一時蓄積されている各画像と基準の位置情報との差異(距離)を算出する。動画構成部134は、当該差異をキーとして、昇順に画像をソートする。
 (ステップS909)動画構成部134は、基準画像を取得する。基準画像とは、基準の位置情報に対応する画像である。基準画像は、例えば、基準の位置情報の位置に存在するユーザ端末3から送信された画像である。なお、かかる画像は、要求する画像の種類を特定する種類識別子で識別される種類の画像である。
 (ステップS910)動画構成部134は、カウンタjに1を代入する。
 (ステップS911)動画構成部134は、j番目の他画像が存在するか否かを判断する。j番目の他画像が存在する場合はステップS912に行き、存在しない場合はステップS914に行く。なお、他画像とは、ステップS908でソートされた画像である。
 (ステップS912)動画構成部134は、画像融合処理を行う。画像融合処理の例について、図10のフローチャートを用いて説明する。
 (ステップS913)動画構成部134は、カウンタjを1、インクリメントする。ステップS911に戻る。
 (ステップS914)動画構成部134は、ステップS912で最終的に構成された融合画像に、基準の位置情報が示す位置を明示する画像を構成し、図示しないバッファに一時蓄積する。なお、かかる画像は、融合画像である。
 (ステップS915)動画送信部141は、ステップS914で構成された融合画像を送信する。なお、動画送信部141は、ステップS912で最終的に構成された融合画像を送信しても良い。融合画像の送信先は、通常、問合せを送信したユーザ端末3である。
 (ステップS916)動画送信部141は、融合画像の送信を終了するか否かを判断する。融合画像の送信を終了する場合はステップS917に行き、終了しない場合はステップS901に戻る。
 なお、問合せを送信してきたユーザ端末3から終了指示を受信した場合に、動画送信部141は、融合画像の送信を終了すると判断する。
 (ステップS917)動画構成部134は、送信した1または2以上の融合画像を時間的に結合し、融合動画を構成し、図示しないバッファに一時蓄積する。上位処理にリターンする。
 次に、ステップS912の画像融合処理の例について、図10のフローチャートを用いて説明する。
 (ステップS1001)動画構成部134は、ベースの画像を取得する。なお、最初のベースの画像は、ステップS909で取得された基準画像である。また、ベースの画像は、ステップS911からステップS913における前のループで、ステップS1005において更新されたベースの画像である。
 (ステップS1002)動画構成部134は、ステップS1001で取得したベースの画像がカバーしている領域を特定する領域情報を取得する。なお、領域情報は、例えば、多角形を構成する頂点の位置情報の集合、または矩形を構成する対角上の2つの位置情報の集合である。
 (ステップS1003)動画構成部134は、ステップS911におけるj番目の他画像を取得する。
 (ステップS1004)動画構成部134は、ステップS1003で取得した他画像がカバーしている領域を特定する領域情報を取得する。
 (ステップS1005)動画構成部134は、ベースの画像の領域情報と、他画像の領域情報とを用いて、ベースの画像に対して、他画像が配置される領域を決定し、当該領域に他画像を配置し、更新されたベースの画像を取得する。上位処理にリターンする。
 次に、ステップS414の動画結合処理の例について、図11のフローチャートを用いて説明する。
 (ステップS1101)動画取得部133は、対象の位置情報を取得する。なお、対象の位置情報は、通常、問合せが有する位置情報である。対象の位置情報は、例えば、取得する動画に対応する位置情報が示す位置に近い位置を特定する情報である。
 (ステップS1102)動画取得部133は、カウンタiに1を代入する。
 (ステップS1103)動画取得部133は、動画を送信できるi番目の移動端末2が存在するか否かを判断する。i番目の移動端末2が存在する場合はステップS1104に行き、存在しない場合はステップS1114に行く。なお、動画を送信できる移動端末2は、通常、移動中の移動端末2である。移動中の移動端末2は、格納部11に格納されている移動情報に対応する移動端末2である
 移動中の移動端末2は、格納部11に格納されている移動情報に対応する移動端末2である。つまり、動画取得部133は、例えば、格納部11を参照し、i番目の移動情報が存在するか否かを判断する。
 (ステップS1104)動画取得部133は、i番目の移動端末2が送信してきた最新の位置情報を取得する。
 (ステップS1105)動画取得部133は、対象の位置情報に対して、i番目の移動端末2の位置情報が、第一位置条件を満たすか否かを判断する。第一位置条件を満たす場合はステップS1106に行き、第一位置条件を満たさない場合はステップS1110に行く。
 (ステップS1106)動画取得部133は、i番目の移動端末2から動画を取得し、当該動画を、i番目の移動端末2の権利者識別子と位置情報と対にして、図示しないバッファに一時蓄積する。
 なお、動画取得部133は、例えば、i番目の移動端末2に対して、要求する画像の種類を特定する種類識別子(例えば、「動画」「静止画」)を含む問合せを送信し、当該問合せに対応する画像をi番目の移動端末2から受信しても良い。
 (ステップS1107)動画送信部141は、ステップS1106で取得された動画を送信する。動画送信部141は、通常、問合せを送信してきたユーザ端末3に動画を送信する。
 (ステップS1108)動画取得部133は、対象の位置情報を取得する。なお、例えば、位置情報を送信する対象端末4が移動している場合、ここで取得される対象の位置情報は、ステップS1101で取得された位置情報と異なる。ただし、対象端末4が移動しない場合、固定の一の位置情報を有する問合せが受信されている場合等は、ここで取得される対象の位置情報は、ステップS1101で取得された位置情報と同じである。
 (ステップS1109)動画取得部133は、i番目の移動端末2の更新された位置情報を取得する。ステップS1105に戻る。
 (ステップS1110)動画構成部134は、i番目の移動端末2が取得した動画であり、送信された動画が存在するか否かを判断する。送信された動画が存在する場合はステップS1111に行き、送信された動画が存在しない場合はステップS1113に行く。
 (ステップS1111)動画構成部134は、i番目の移動端末2が取得した動画であり、送信された動画を含む結合動画を構成し、当該結合動画をi番目の移動端末2の権利者識別子と対に、図示しないバッファに一時蓄積する。
 なお、最初のステップS1111の処理においては、結合動画は、i番目の移動端末2が取得した動画であり、送信された動画である。ループ処理の2回目以降のステップS1111の処理における結合動画は、今までの処理で取得されている結合動画の時間的に次に、i番目の移動端末2が取得した動画であり、送信された動画を結合した動画である。
 (ステップS1112)動画取得部133は、カウンタiに1を代入する。ステップS1103に戻る。
 (ステップS1113)動画取得部133は、カウンタiを1、インクリメントする。ステップS1103に戻る。
 (ステップS1114)動画取得部133は、動画結合処理を終了するか否かを判断する。終了する場合はステップS1115に行き、終了しない場合はステップS1116に行く。
 例えば、受信された問合せに含まれる次の位置情報が存在しない場合、または終了指示が受信された場合、動画取得部133は、動画結合処理を終了すると判断する。
 (ステップS1115)動画取得部133は、次に対象の位置情報を取得する。動画取得部133は、例えば、問合せが有する経路情報に含まれる次に対象の位置情報を取得する。ステップS1103に戻る。
 (ステップS1116)動画構成部134は、ステップS1111で構成された1または2以上の結合動画を、取得された順に連結し、蓄積する結合動画を構成する。次に、動画構成部134は、当該結合動画の元になった動画の2以上の各権利者識別子や位置情報と対にして、当該結合動画を図示しないバッファに一時蓄積する。上位処理にリターンする。
 次に、ステップS415の登録動画検索処理の例について、図12のフローチャートを用いて説明する。
 (ステップS1201)動画取得部133は、カウンタiに1を代入する。
 (ステップS1202)動画取得部133は、受信された問合せの中に、i番目の対象位置情報が存在するか否かを判断する。i番目の位置情報が存在する場合はステップS1203に行き、存在しない場合はステップS1217に行く。
 対象位置情報とは、動画の検索に使用される位置情報である。対象位置情報は、例えば、受信された問合せの中の一の位置情報、受信された問合せの中の経路情報に含まれる2以上の各位置情報である。
 (ステップS1203)動画取得部133は、受信された問合せの中のi番目の対象位置情報を取得する。
 (ステップS1204)動画取得部133は、すべての保全情報を取得する。動画取得部133は、例えば、ブロックチェーン上に存在する保全情報を取得する。
 (ステップS1205)動画取得部133は、カウンタjに1を代入する。
 (ステップS1206)動画取得部133は、ステップS1204で取得した保全情報の中に、j番目の保全情報が存在するか否かを判断する。j番目の保全情報が存在する場合はステップS1207に行き、存在しない場合はステップS1216に行く。
 (ステップS1207)動画取得部133は、j番目の保全情報を検査し、当該j番目の保全情報に対応する動画が、第三者に提供可能であるか否かを判断する。提供可能である場合はステップS1208に行き、提供可能でない場合はステップS1215に行く。なお、提供可能とは、例えば、閲覧可能であること、販売可能であること、または閲覧および販売が可能であることである。
 (ステップS1208)動画取得部133は、カウンタkに1を代入する。
 (ステップS1209)動画取得部133は、j番目の保全情報またはj番目の保全情報に対応する動画において、k番目の検索単位が存在するか否かを判断する。k番目の検索単位が存在する場合はステップS1210に行き、存在しない場合はステップS1215に行く。
 なお、検索単位とは、問合せを満たすか否かを判断する量の動画である。検索単位の動画は、例えば、撮影開始から撮影終了までの動画、一定時間の動画、予め決められたイベントが発生するまでの間の動画(例えば、移動体属性値である速度が0から次の速度0までの間の動画、常駐の位置(例えば、自宅の駐車場)を出発し、常駐の位置に戻るまでの動画)、予め決められたタグ(例えば、「事故」「渋滞」)が付された前後の所定期間の動画である。ただし、検索単位は問わない。
 (ステップS1210)動画取得部133は、j番目の保全情報の中から、k番目の検索単位の動画属性値の集合を取得する。
 (ステップS1211)動画取得部133は、i番目の対象位置情報に対して、k番目の検索単位の動画属性値の集合が第一位置条件を満たすか否かを判断する。第一位置条件を満たす場合はステップS1212に行き、満たさない場合はステップS1214に行く。
 (ステップS1212)動画取得部133は、j番目の保全情報に対応する動画等を取得し、図示しないバッファに一時蓄積する。動画等とは、例えば、動画と動画属性値の集合、または動画である。
 (ステップS1213)動画取得部133は、カウンタiを1、インクリメントする。ステップS1202に戻る。
 (ステップS1214)動画取得部133は、カウンタkを1、インクリメントする。ステップS1209に戻る。
 (ステップS1215)動画取得部133は、カウンタjを1、インクリメントする。ステップS1206に戻る。
 (ステップS1216)動画取得部133は、カウンタiを1、インクリメントする。ステップS1202に戻る。
 (ステップS1217)動画構成部134は、ステップS1212で2以上の動画等を取得したか否かを判断する。2以上の動画等を取得した場合はステップS1218に行き、一の動画等のみを取得した場合はステップS1219に行く。
 (ステップS1218)動画構成部134は、図示しないバッファに蓄積されている2以上の動画を、蓄積された順に結合し、結合動画を構成し、当該結合動画を図示しないバッファに蓄積する。なお、動画構成部134は、結合動画の元になった動画の権利者識別子、動画属性値をも、結合動画に対応付けて、図示しないバッファに蓄積することは好適である。
 (ステップS1219)動画送信部141は、結合動画または取得された動画を送信する。上位処理にリターンする。上位処理にリターンする。
 なお、図12のフローチャートにおいて、ステップS1212で動画が取得されるごとに、動画送信部141は、当該動画を送信しても良い。かかる場合、ステップS1219の処理は不要である。
 また、図12のフローチャートにおいて、動画送信部141は、通常、問合せを送信したユーザ端末3に結合動画または動画を送信する。
 次に、ステップS417の未登録動画検索処理の例について、図13のフローチャートを用いて説明する。未登録動画検索処理の第一の例は、集合格納部111の属性値集合を使用する場合である。
 (ステップS1301)動画取得部133は、カウンタiに1を代入する。
 (ステップS1302)動画取得部133は、受信された問合せの中に、i番目の対象位置情報が存在するか否かを判断する。i番目の位置情報が存在する場合はステップS1303に行き、存在しない場合はステップS1320に行く。
 (ステップS1303)動画取得部133は、受信された問合せの中のi番目の対象位置情報を取得する。
 (ステップS1304)動画取得部133は、カウンタjに1を代入する。
 (ステップS1305)動画取得部133は、j番目の属性値集合が集合格納部111に存在するか否かを判断する。j番目の属性値集合が存在する場合はステップS1303に行き、存在しない場合はステップS1319に行く。
 (ステップS1306)動画取得部133は、カウンタkに1を代入する。
 (ステップS1307)動画取得部133は、j番目の属性値集合に対応するk番目の検索単位が存在するか否かを判断する。k番目の検索単位が存在する場合はステップS1308に行き、存在しない場合はステップS1313に行く。
 (ステップS1308)動画取得部133は、j番目の属性値集合の中のk番目の検索単位の動画属性値の集合を集合格納部111から取得する。
 (ステップS1309)動画取得部133は、ステップS1308で取得した動画属性値の集合が問合せを満たすか否かを判断する。問合せを満たす場合はステップS1310に行き、満たさない場合はステップS1314に行く。
 (ステップS1310)動画取得部133は、当該動画に対応する権利者識別子を取得する。
 (ステップS1311)動画取得部133は、ステップS1310で取得した権利者識別子に対応する移動情報が存在するか否かを判断する。移動情報が存在する場合(例えば、移動端末2の電源がONの場合)はステップS1312に行き、存在しない場合(例えば、移動端末2の電源がOFFの場合)はステップS1315に行く。
 (ステップS1312)動画取得部133は、ステップS1310で取得した権利者識別子に対応する移動端末2から、k番目の検索単位に対応する動画を取得し、図示しないバッファに一時蓄積する。なお、動画取得部133は、例えば、当該移動端末2に、k番目の検索単位に対応する動画の要求を送信し、当該要求に対応する動画を当該移動端末2から受信する。
 (ステップS1313)動画取得部133は、カウンタjを1、インクリメントする。ステップS1305に戻る。
 (ステップS1314)動画取得部133は、カウンタkを1、インクリメントする。ステップS1307に戻る。
 (ステップS1315)動画取得部133は、状態情報等を取得する。なお、状態情報等とは、例えば、当該移動端末2の電源がOFFであることを示す状態情報を含む。
 (ステップS1316)状態送信部142は、ステップS1315で取得された状態情報等を、問合せを送信したユーザに送信する。
 (ステップS1317)動画取得部133は、ニーズ情報を取得する。
 (ステップS1318)ニーズ送信部143は、ステップS1317で取得されたニーズ情報を、当該動画の権利者に送信する。ステップS1313に戻る。
 (ステップS1319)動画取得部133は、カウンタiを1、インクリメントする。ステップS1302に戻る。
 (ステップS1320)動画構成部134は、ステップS1312において、2以上の動画を取得できたか否かを判断する。2以上の動画を取得できた場合はステップS1321に行き、一つの動画のみを取得できた場合はステップS1322に行く。
 (ステップS1321)動画構成部134は、ステップS1312において、図示しないバッファに蓄積した2以上の動画を、蓄積した順に結合し、一の結合動画を構成し、図示しないバッファに蓄積する。
 (ステップS1322)動画送信部141は、結合動画または動画を送信する。上位処理にリターンする。なお、動画送信部141は、通常、結合動画または動画を、問合せを送信してきたユーザ端末3に送信する。
 次に、ステップS417の未登録動画検索処理の第二の例について、図14のフローチャートを用いて説明する。未登録動画検索処理の第二の例は、移動端末2に問い合わせる場合である。
 (ステップS1401)動画取得部133は、カウンタiに1を代入する。
 (ステップS1402)動画取得部133は、受信された問合せの中に、i番目の対象位置情報が存在するか否かを判断する。i番目の位置情報が存在する場合はステップS1403に行き、存在しない場合はステップS1412に行く。
 (ステップS1403)動画取得部133は、受信された問合せの中のi番目の対象位置情報を取得する。
 (ステップS1404)動画取得部133は、カウンタjに1を代入する。
 (ステップS1405)動画取得部133は、j番目の移動情報が格納部11に存在するか否かを判断する。j番目の移動情報が存在する場合はステップS1403に行き、存在しない場合は上位処理にリターンする。
 (ステップS1406)動画取得部133は、j番目の移動情報に対応する移動端末2に問合せを送信する。
 (ステップS1407)動画取得部133は、j番目の移動情報に対応する移動端末2から情報を受信したか否かを判断する。情報を受信した場合はステップS1408に行き、受信しなかった場合はステップS1407に戻る。
 (ステップS1408)動画取得部133は、ステップS1407で受信された情報の中に動画が含まれるか否かを判断する。動画が含まれる場合はステップS1409に行き、含まれない場合はステップS1410に行く。
 (ステップS1410)動画取得部133は、ステップS1407で受信された動画等を、図示しないバッファに一時蓄積する。
 (ステップS1411)動画取得部133は、カウンタjを1、インクリメントする。ステップS1405に戻る。
 (ステップS1412)動画構成部134は、ステップS1409において、2以上の動画を蓄積できたか否かを判断する。2以上の動画を蓄積できた場合はステップS1413に行き、一つの動画のみを取得できた場合はステップS1414に行く。
 (ステップS1413)動画構成部134は、ステップS1409において、図示しないバッファに蓄積した2以上の動画を、蓄積した順に結合し、一の結合動画を構成し、図示しないバッファに蓄積する。
 (ステップS1414)動画送信部141は、結合動画または動画を送信する。上位処理にリターンする。なお、動画送信部141は、通常、結合動画または動画を、問合せを送信してきたユーザ端末3に送信する。
 次に、ステップS418の保全処理の例について、図15のフローチャートを用いて説明する。
 (ステップS1501)権利者処理部135は、送信した動画の元になった1または2以上の各動画に対応付く前記属性値集合に対応付けて、送信した動画を、蓄積する。
 なお、権利者処理部135は、動画を、当該動画の1または2以上の各権利者を識別する権利者識別子と対にして、蓄積することは好適である。ここでの権利者識別子は、例えば、蓄積した動画の元になった動画の1以上の権利者識別子である。ここでの権利者識別子は、例えば、問合せを行ったユーザを識別する一の権利者識別子である。
 また、権利者処理部135は、例えば、格納部11または情報処理装置1以外の装置に、動画を蓄積する。情報処理装置1以外の装置は、ブロックチェーンを構成する装置でも良い。
 (ステップS1502)第四保全手段1354は、第四保全処理を行う。第四保全処理の例について、図8のフローチャートを用いて説明した。
 (ステップS1503)権利者処理部135は、カウンタiに1を代入する。
 (ステップS1504)権利者処理部135は、蓄積した動画の元になったi番目の動画が存在するか否かを判断する。i番目の動画が存在する場合はステップS1505に行き、存在しない場合は上位処理にリターンする。
 (ステップS1505)報酬手段1355は、報酬処理を行う。報酬処理の例について、図16のフローチャートを用いて説明する。ここでの報酬処理は、蓄積した動画の元になったi番目の動画の権利者に対する報償処理である。
 (ステップS1506)権利者処理部135は、蓄積した動画の元になったi番目の動画の権利者を変更するか否かを判断する。権利者を変更する場合はステップS1507に行き、権利者を変更しない場合はステップS1508に行く。
 なお、権利者を変更するか否かは、i番目の動画に対応付くフラグに基づいても良いし、予め決まっていても良いし、問合せの中に「権利者変更要求を示す情報」が含まれる場合に権利者を変更しても良い。
 (ステップS1507)権利者処理部135は、ユーザ端末3のユーザ識別子を取得する。なお、かかるユーザ識別子は、新たな権利者識別子となる。
 (ステップS1508)権利者処理部135は、蓄積した動画の元になったi番目の動画は、登録済みであるか否かを判断する。登録済みである場合はステップS1511に行き、未登録である場合はステップS1509に行く。
 (ステップS1509)第一保全手段1351は、蓄積した動画の元になったi番目の動画を蓄積する。
 (ステップS1510)第四保全手段1354は、蓄積した動画の元になったi番目の動画に関する第四保全処理を行う。第四保全処理の例について、図8のフローチャートを用いて説明した。
 (ステップS1511)権利者処理部135は、カウンタiを1、インクリメントする。ステップS1504に戻る。
 なお、図15のフローチャートにおいて、結合動画が構成された場合に、その結合動画の元になった2以上の動画を蓄積する処理(ステップS1509)および第四保全処理(ステップS1510)を行ったが、かかる処理は行わなくても良い。
 次に、ステップS423等の報酬処理の例について、図16のフローチャートを用いて説明する。
 (ステップS1601)報酬手段1355は、対象となる動画の1または2以上の権利者識別子を取得する。報酬手段1355は、対象となる動画の今までの権利者の権利者識別子を取得しても良い。
 (ステップS1602)報酬手段1355は、対象となる動画の属性値集合を取得する。
 (ステップS1603)報酬手段1355は、対象となる動画に対して行われたサービスを識別するサービス識別子を取得する。サービス識別子は、例えば、「閲覧」「購入」である。
 (ステップS1604)報酬手段1355は、ステップS1602で取得した属性値集合、ステップS1603で取得したサービス識別子のうちの1または2以上の情報を用いて、報酬量を取得する。
 2以上の権利者識別子が取得されている場合、報酬手段1355は、各権利者識別子に対する報酬量を取得する。2以上の権利者識別子を含む権利者の履歴情報が取得されている場合、報酬手段1355は、各権利者識別子に対する報酬量を取得しても良い。
 また、報酬手段1355は、例えば、動画送信部141が送信した動画の元になった2以上の各動画に対応する動画属性値を取得し、当該動画属性値を用いて、2以上の各権利者に対する報酬量を決定することは好適である。報酬手段1355は、例えば、動画送信部141が送信した動画の中に採用された元の動画のデータ量、動画の時間、またはフレーム数が多いほど、大きな報酬量を決定することは好適である。報酬手段1355は、例えば、動画送信部141が送信した動画の中に採用された元の動画の解像度が大きいほど、大きな報酬量を決定することは好適である。
 (ステップS1605)報酬手段1355は、ステップS1601で取得した権利者識別子で識別される権利者に対して、ステップS1604で取得した報酬量の分の報酬を与える処理を行う。
 (ステップS1606)報酬手段1355は、対象となる動画に関するサービスを享受したユーザに、報酬を負担させる処理を行う。上位処理にリターンする。なお、対象となる動画は、通常、ユーザ端末3に送信された動画である。
 なお、図16のフローチャートにおいて、情報処理装置1の運営側が得る利益を取得し、蓄積しても良い。
 次に、移動端末2の動作例について、図17のフローチャートを用いて説明する。
 (ステップS1701)移動処理部23は、移動開始を検知したか否かを判断する。移動開始を検知した場合はステップS1702に行き、検知しなかった場合はステップS1717に行く。なお、移動開始は、例えば、移動端末2が設置されている移動体のエンジンON、移動端末2の電源ONによる。
 (ステップS1702)移動情報取得部233は、移動情報を取得する。移動情報送信部241は、当該移動情報を情報処理装置1に送信する。なお、移動情報は、例えば、移動格納部21に格納されている。
 (ステップS1703)撮影部231は、撮影を開始する。
 (ステップS1704)撮影部231は、動画を取得する。
 (ステップS1705)移動処理部23は、1または2以上の動画属性値を取得し、当該1以上の動画属性値を、ステップS1704で取得された動画に対応付ける。
 移動処理部23は、例えば、位置情報、時情報、天気情報、温度情報、季節情報を取得する。また、移動処理部23は、例えば、1または2以上の移動体属性値(例えば、CANデータ)を取得する。
 (ステップS1706)タグ取得部232は、移動体属性値タグを取得するか否かを判断する。移動体属性値タグを取得する場合はステップS1707に行き、取得しない場合はステップS1709に行く。なお、移動体属性値タグを取得するか否かは、予め決まっている。
 (ステップS1707)タグ取得部232は、移動体属性値タグ取得処理を行う。移動体属性値タグ取得処理の例について、図6のフローチャートを用いて説明した。なお、ここで、タグを取得できない場合があっても良い。
 (ステップS1708)タグ取得部232は、ステップS1707で1以上のタグを取得された場合、当該1以上のタグを、ステップS1704で取得された動画に対応付ける。
 なお、ここで、タグ取得部232は、1以上のタグを、動画に対応付けて、移動格納部21に蓄積することは好適である。そのことにより、移動端末2のユーザは、例えば、タグをキーに動画を検索できる。
 (ステップS1709)タグ取得部232は、動画タグを取得するか否かを判断する。動画タグを取得する場合はステップS1710に行き、取得しない場合はステップS1712に行く。なお、動画タグを取得するか否かは、予め決まっている。
 (ステップS1710)タグ取得部232は、動画タグ取得処理を行う。動画タグ取得処理の例について、図7のフローチャートを用いて説明した。なお、ここで、タグを取得できない場合があっても良い。
 (ステップS1711)タグ取得部232は、ステップS1710で1以上のタグを取得された場合、当該1以上のタグを、ステップS1704で取得された動画に対応付ける。
 なお、ここで、タグ取得部232は、1以上のタグを、動画に対応付けて、移動格納部21に蓄積することは好適である。そのことにより、移動端末2のユーザは、例えば、タグをキーに動画を検索できる。
 (ステップS1712)移動処理部23は、移動終了を検知したか否かを判断する。移動終了を検知した場合はステップS1713に行き、検知しなかった場合はステップS1704に戻る。
 なお、例えば、エンジンのOFF、移動端末2の電源OFF等の検知、目的地への到着の検知により、移動処理部23は、移動終了を検知する。
 (ステップS1713)移動処理部23は、移動格納部21から権利者識別子を取得する。
 (ステップS1714)移動処理部23は、ステップS1705で取得された1以上の移動体属性値、ステップS1707で取得された1以上のタグ、ステップS1710で取得された1以上のタグを有する属性値集合を構成する。
 (ステップS1715)集合送信部243は、権利者識別子に対応付けて、ステップS1714で構成した属性値集合を情報処理装置1に送信する。
 (ステップS1716)移動動画送信部242等は、動画送信処理を行う。ステップS1701に戻る。なお、動画送信処理の例について、図18のフローチャートを用いて説明する。動画送信処理は、保全条件に合致する動画を自動送信する処理である。
 (ステップS1717)移動受信部22は、情報処理装置1から問合せを受信したか否かを判断する。問合せを受信した場合はステップS1718に行き、受信しない場合はステップS1701に戻る。
 (ステップS1718)移動処理部23は、ステップS1717で受信された問合せに対応する端末画像取得処理を行う。端末画像取得処理の例について、図19のフローチャートを用いて説明する。端末画像取得処理とは、移動格納部21に格納されている動画の中から問合せに合致する動画を取得する処理である。
 (ステップS1719)移動処理部23は、ステップS1718で画像を取得したか否かを判断する。画像を取得した場合はステップS1720に行き、取得しなかった場合はステップS1721に行く。
 (ステップS1720)移動動画送信部242は、画像等を情報処理装置1に送信する。ステップS1701に戻る。なお、画像等とは、例えば、画像と属性値集合と権利者識別子である。また、画像は、例えば、動画、静止画、アラウンドビューである。
 (ステップS1721)移動動画送信部242は、エラー情報を送信する。なお、エラー情報は、動画を取得できなかった旨を示す情報である。
 なお、図17のフローチャートにおいて、ステップS1705で取得した1以上の動画属性、ステップS1707で取得したタグ、およびステップS1710で取得したタグのうちの全部または一部である動画属性値の集合を、動画を取得するごと、所定期間ごと、または予め決められた条件(例えば、タグ「事故」または「渋滞」を取得したこと)を満たした場合に、情報処理装置1に送信することは好適である。
 また、図17のフローチャートにおいて、移動終了の検知後に、動画送信処理(S1416の処理)を行っていたが、常時、動画送信処理を行っても良い。常時、動画送信処理を行うことは、例えば、ステップS1711の直後に、動画送信処理(S1416)を行うことである。かかることにより、格納部11における動画の格納領域が小さい場合でも、保全条件に合致する動画を保全できる。
 また、図17のフローチャートにおいて、電源オフや処理終了の割り込みにより処理は終了する。
 次に、ステップS1716の動画送信処理の例について、図18のフローチャートを用いて説明する。
 (ステップS1801)移動処理部23は、移動格納部21の属性値集合を取得する。
 (ステップS1802)移動処理部23は、カウンタiに1を代入する。
 (ステップS1803)移動処理部23は、i番目の検索単位が存在するか否かを判断する。i番目の検索単位が存在する場合はステップS1804に行き、存在しない場合は上位処理にリターンする。
 (ステップS1804)移動処理部23は、i番目の検索単位の動画属性値の集合を取得する。
 (ステップS1805)移動処理部23は、カウンタjに1を代入する。
 (ステップS1806)移動処理部23は、j番目の保全条件が存在するか否かを判断する。j番目の保全条件が存在する場合はステップS1807に行き、存在しない場合はステップS1810に行く。
 (ステップS1807)移動処理部23は、ステップS1804で取得した動画属性値の集合がj番目の保全条件を満たすか否かを判断する。j番目の保全条件を満たす場合はステップS1808に行き、満たさない場合はステップS1811に行く。
 (ステップS1808)移動処理部23は、i番目の検索単位の動画等を取得する。なお、i番目の検索単位の動画等とは、例えば、i番目の検索単位の動画と当該動画に対応する属性値集合である。
 (ステップS1809)移動動画送信部242は、ステップS1808で取得された動画等を情報処理装置1に送信する。
 (ステップS1810)移動処理部23は、カウンタiを1、インクリメントする。ステップS1803に戻る。
 (ステップS1811)移動処理部23は、カウンタjを1、インクリメントする。ステップS1806に戻る。
 次に、ステップS1718の端末画像取得処理の例について、図19のフローチャートを用いて説明する。
 (ステップS1901)移動処理部23は、受信された問合せを用いて、動画を取得するか否かを判断する。動画を取得する場合はステップS1902に行き、静止画等を取得する場合はステップS1908に行く。
 なお、移動処理部23は、例えば、受信された問合せに含まれる種類識別子(例えば、「動画」「静止画」「アラウンドビュー画像」)を検査し、動画を取得するか否かを判断する。
 (ステップS1902)移動処理部23は、カウンタiに1を代入する。
 (ステップS1903)移動処理部23は、i番目の検索単位が存在するか否かを判断する。i番目の検索単位が存在する場合はステップS1904に行き、存在しない場合は上位処理にリターンする。
 (ステップS1904)移動処理部23は、i番目の検索単位の動画属性値の集合を取得する。
 (ステップS1905)移動処理部23は、i番目の検索単位の動画属性値の集合が問合せに合致するか否かを判断する。問合せに合致する場合はステップS1906に行き、合致しない場合はステップS1907に行く。
 (ステップS1906)移動処理部23は、i番目の検索単位の動画等を取得する。なお、動画等とは、例えば、動画と動画属性値の集合である。
 (ステップS1907)移動処理部23は、カウンタiを1、インクリメントする。ステップS1903に戻る。
 (ステップS1908)移動処理部23は、最新の合成画像または最新の静止画を取得する。上位処理にリターンする。
 なお、合成画像は、移動体に設置されている2以上の各カメラが撮影した静止画を用いて、合成された画像である。合成画像は、例えば、アラウンドビュー画像である。静止画は、移動体に設置されている一のカメラが撮影した画像である。また、アラウンドビュー画像を構成する技術は公知技術であるので、詳細な説明は省略する。
 次に、ユーザ端末3の動作例について、図20のフローチャートを用いて説明する。
 (ステップS2001)ユーザ受付部32は、問合せを受け付けたか否かを判断する。問合せを受け付けた場合はステップS2002に行き、受け付けなかった場合はステップS2007に行く。
 なお、問合せの受け付けは、例えば、ユーザの入力の受け付け、対象端末4からの位置情報の受信、ナビ端末5からの目的地または経路情報の受信である。
 (ステップS2002)ユーザ処理部33は、送信する問合せを構成する。次に、ユーザ送信部34は、ユーザ識別子に対応付けて、問合せを情報処理装置1に送信する。
 (ステップS2003)ユーザ受信部35は、情報処理装置1から情報を受信したか否かを判断する。情報を受信した場合はステップS2004に行き、受信しなかった場合はステップS2003に戻る。
 (ステップS2004)ユーザ処理部33は、ステップS2003で受信された情報の中に動画を含むか否かを判断する。動画を含む場合はステップS2005に行き、動画を含まない場合はステップS2006に行く。
 (ステップS2005)ユーザ出力部36は、受信された動画を出力する。ステップS2001に戻る。
 (ステップS2006)ユーザ出力部36は、受信された他の情報を出力する。ステップS2001に戻る。
 (ステップS2007)ユーザ処理部33は、問合せのタイミングであるか否かを判断する。問合せのタイミングであればステップS2008に行き、問合せのタイミングでなければステップS2009に行く。
 なお、問合せのタイミングは、例えば、ナビゲーション端末であるユーザ端末3において目的地が設定された場合、自動車に設置されたユーザ端末3が渋滞を検知した場合である。
 (ステップS2008)ユーザ処理部33は、問合生成処理を行う。ステップS2002に行く。問合生成処理の例について、図18のフローチャートを用いて説明する。
 (ステップS2009)ユーザ受付部32は、ユーザから購入指示を受け付けたか否かを判断する。購入指示を受け付けた場合はステップS2010に行き、受け付けなかった場合はステップS2001に戻る。なお、購入指示は、例えば、問合せを含む。
 (ステップS2010)ユーザ処理部33は、送信する購入指示を構成する。次に、ユーザ送信部34は、ユーザ識別子に対応付けて、購入指示を情報処理装置1に送信する。
 (ステップS2011)ユーザ受信部35は、情報処理装置1から情報を受信したか否かを判断する。情報を受信した場合はステップS2012に行き、受信しなかった場合はステップS2011に戻る。なお、情報は、例えば、動画、権利者の移転が完了した旨の情報、動画の属性値集合である。
 (ステップS2012)ユーザ処理部33は、受信された情報を用いて、出力する情報を構成する。ユーザ出力部36は、当該情報を出力する。ステップS2001に戻る。
 なお、図17のフローチャートにおいて、電源オフや処理終了の割り込みにより処理は終了する。
 次に、ステップS2008の問合生成処理の例について、図21のフローチャートを用いて説明する。
 (ステップS2101)ユーザ処理部33は、目的地を取得する。
 (ステップS2102)ユーザ処理部33は、現在地を取得する。
 (ステップS2103)ユーザ処理部33は、目的地と現在地とを用いて、経路探索し、経路情報を取得する。
 (ステップS2104)ユーザ処理部33は、ステップS2103で取得した経路情報が特定する経路上の地点であり、抽出条件を満たす1以上の地点の情報を取得する。
 (ステップS2105)ユーザ処理部33は、ステップS2104で取得した1以上の地点情報を用いた問合せを構成する。上位処理にリターンする。なお、ユーザ処理部33は、例えば問合せ、「今から1時間以内の動画であり、「渋滞」「事故」のいずれかのタグが付加された動画であり、1以上の地点情報のいずれかを含む属性値集合と対になる動画を検索する」を構成する。
 なお、図18のフローチャートの処理に代えて、ユーザ処理部33は、現在地を取得し、当該現在地を含む問合せを構成しても良い。なお、かかる問合せは、現在地を含む周辺(例えば、距離が閾値以内)の領域における、所定のタグ(例えば、「事故」「渋滞」)に対応する動画の送信要求である。
 次に、対象端末4の動作について説明する。対象端末4は、位置情報を取得する。次に、対象端末4は、当該位置情報を情報処理装置1または、対象端末4に登録されているユーザ端末3に送信する。なお、対象端末4は、対象端末4の保持者(例えば、見守り対象の子供)からの指示を受け付けたことにより、位置情報を取得し、送信する。なお、対象端末4は、例えば、GPS受信機を有し、当該GPS受信機により、位置情報を取得するが、位置情報を取得する方法は問わない。また、対象端末4に登録されているユーザ端末3は、例えば、対象端末4の保持者の保護者である。
 次に、ナビ端末5の動作について説明する。ナビ端末5は、ユーザから目的地を受け付ける。次に、ナビ端末5は、図21で説明した問合生成処理を行う。次に、ナビ端末5は、図20のS2002からS2005、S2006の処理を行う。
 以下、本実施の形態における情報システムAの具体的な動作例について説明する。
 今、情報処理装置1の集合格納部111には、図22に示す構造を有する端末管理表が格納されている。端末管理表とは、1または2以上の端末情報を管理する表である。端末管理表は、動画を送信する移動端末2を管理する表である。なお、端末管理表で管理されていない移動端末2が情報処理装置1に動画を送信しても良い。
 端末管理表は、「ID」「端末識別子」「動画情報」「移動情報」「登録フラグ」「提供フラグ」を有する1以上のレコードを管理する。「動画情報」とは、撮影された動画に関する情報であり、ここでは、「フレーム識別子」「環境情報」「タグ」を有する。「環境情報」は、ここでは「位置情報」「時情報」「天気情報」「温度情報」を有する。「環境情報」は、動画が取得された際の移動端末2の周辺の環境の情報等である。「タグ」は、ここでは「事故」、「渋滞」、「危険運転」を有する。つまり、ここでは、動画には、例えば、「事故」、「渋滞」、「危険運転」のうちの1以上のタグが付与され得る。
 「ID」は、レコードを識別する情報である。「端末識別子」は、移動端末2の識別子であり、ここでは、動画の送信時の動画の権利者を識別する権利者識別子と同じである。「フレーム識別子」は、動画を構成するフレームのIDである。フレームは、フィールド、静止画と言っても良い。「位置情報」は、ここでは(緯度,経度)である。「時情報」は、ここでは、年月日時分秒である。「天気情報」は、例えば、「晴」「雨」「曇」「雪」である。「温度情報」は移動体の外の気温(℃)である。「事故」の値「1」は、事故が発生したことを示すタグが対応するフレームに付されていることを示す。「渋滞」の値「1」は、渋滞が発生していることを示すタグが対応するフレームに付されていることを示す。「危険運転」の値「1」は、前を走行する自動車等が危険運転していることを示すタグが対応するフレームに付されていることを示す。「移動情報=1」は、現在、移動端末2から動画を送信できる状態にあることを示す。「移動情報=0」は、電源OFF等のため、現在、移動端末2から動画を送信できない状態にあることを示す。「登録フラグ=1」は、動画が既に登録されており、登録先(例えば、格納部11または他の装置)から動画が取得できることを示す。「提供フラグ」の「1」は、動画の閲覧が許容されることを示す。「提供フラグ」の「2」は、動画の販売(権利者の移転)が許容されることを示す。
 また、ブロックチェーン上に、図23に示す構造を有する登録動画管理表が格納されている。登録動画管理表とは、登録された動画を管理する表である。登録動画管理表は、保全情報を管理する表である。登録された動画は、例えば、ユーザからの問合せにより、ユーザに提供された動画、保全条件を満たす動画である。登録動画管理表は、「ID」「動画識別子」「アクセス情報」「権利者識別子」「権利登録日」「動画情報」「提供フラグ」を有する。なお、登録された動画は、情報処理装置1、他の装置、またはブロックチェーンに格納される、とする。また、登録動画管理表の各レコードは、ここでの保全情報である、とする。
 かかる状況において、5つの具体例を説明する。具体例1から具体例4は、リアルタイムの動画の利用である。具体例5は、過去に撮影された動画の利用である。
 具体例1は、対象者(例えば、子供、徘徊老人)を見守るために、2以上の各移動体に設置された移動端末2が撮影した動画を結合した結合動画を、対象者に関係するユーザ(例えば、保護者)のユーザ端末3に送信する場合である。
 具体例2は、ユーザ端末3またはナビ端末5に設定された目的地に対応する経路情報を用いた問合せにより、複数の移動端末2が撮影した動画を結合した結合動画をユーザ端末3に出力する場合である。
 具体例3は、渋滞を検知したユーザ端末3またはナビ端末5が、渋滞の理由を把握できる動画を取得し、ユーザ端末3またはナビ端末5に出力する場合である。
 具体例4は、駐車場において、ユーザが空いているスペースを見付けるために、駐車場の状況が把握できる画像を出力する場合である。
 具体例5は、ユーザが過去に移動した経路(例えば、旅行した経路)を特定する経路情報を用いて、登録されている動画を結合した結合動画をユーザ端末3に出力する場合である。
(具体例1)
 情報処理装置1の格納部11には、一の保護者Pのユーザ端末3に動画を送信するためのユーザ識別子(例えば、ユーザ端末3のIPアドレス)と、当該保護者Pの一の子供Aの対象端末4を識別する対象者識別子「T001」とを有する管理情報が格納されている、とする。
 次に、子供Aは、学校から帰宅するために対象端末4の電源をONにした、とする。次に、対象端末4は、定期的に位置情報を取得し、当該位置情報と対象者識別子「T001」とを含む問合せ(例えば、「動作送信指示 対象者識別子=T001,位置情報(xt1,yt1)」)を情報処理装置1に送信する、とする。なお、対象端末4には、対象者識別子「T001」、および情報処理装置1へ情報を送信するための情報処理装置1の通信先情報(例えば、IPアドレス)が格納されている、とする。
 また、情報処理装置1の受信部12は、2以上の各移動端末2から、端末識別子と対にして、移動端末2の位置を特定する位置情報を定期的に受信し、端末識別子と対にして端末管理表(図22)に蓄積する、とする。
 次に、情報処理装置1の問合受信部122は、問合せ「動作送信指示 対象者識別子=T001,位置情報(xt1,yt1)」を、対象端末4から受信し、図示しないバッファに位置情報(xt1,yt1)と対象者識別子「T001」とを一時蓄積する。なお、位置情報は、定期的に受信され、最新の位置情報が図示しないバッファに蓄積される、とする。
 次に、動画取得部133は、図11のフローチャートで説明した動作により、対象端末4の最新の位置情報が示す位置に対して第一位置条件を満たす位置情報に対応する第一の移動端末2(ここでは、自動車に搭載されているドライブレコーダー)を決定した、とする。そして、動画取得部133は、第一の移動端末2から動画を受信する。なお、かかる動画には、子供Aが写っている。子供Aの対象端末4の位置情報と当該移動端末2の位置情報とは第一位置条件を満たすほど、近い位置を示す情報であるからである。また、動画は、通常、位置情報、第一の移動端末2の第一の権利者識別子に対応付いている。また、受信される動画は、移動端末2が撮影した後に直ちに送信した動画であることは好適である。
 次に、動画送信部141は、動画取得部133が受信した動画を、対象者識別子「T001」と対になるユーザ識別子で識別される保護者Pのユーザ端末3に送信する。
 そして、動画取得部133は、第一の移動端末2から受信した動画を、第一の移動端末2の第一の権利者識別子と位置情報と対にして、図示しないバッファに一時蓄積する。
 なお、動画取得部133は、子供Aの対象端末4の位置情報と第一の移動端末2の位置情報とが第一位置条件を満たす間は、少なくとも、第一の移動端末2から受信された動画を受信し、動画送信部141は、当該動画を保護者Pのユーザ端末3に送信する。
 次に、動画取得部133は、子供Aの対象端末4の位置情報と第一の移動端末2の位置情報とが第一位置条件を満たさなくなった、と判断した、とする。当該第一の移動端末2が移動し、徒歩で帰宅中の子供Aを撮影する位置に居なくなったからである。
 次に、動画取得部133は、再度、対象端末4の最新の位置情報に対して、最新の位置情報が第一位置条件を満たす第二の移動端末2の位置情報を、図22を参照して、決定する。なお、図22には、各端末識別子と対にして、各移動端末2から送信された最新の位置情報が格納されている。そして、動画取得部133は、第二の移動端末2から動画を取得する。次に、動画取得部133は、当該動画を、第二の移動端末2の第二の権利者識別子と位置情報と対にして、図示しないバッファに一時蓄積する。
 次に、動画送信部141は、動画取得部133が受信した第二の移動端末2からの動画を保護者Pのユーザ端末3に送信する。
 そして、時間の経過(例えば、10秒)により、動画取得部133は、子供Aの対象端末4の位置情報と第二の移動端末2の位置情報とが第一位置条件を満たさなくなった、と判断した、とする。
 次に、動画取得部133は、再度、対象端末4の最新の位置情報に対して、最新の位置情報が第一位置条件を満たす第三の移動端末2の位置情報を、図22を参照し、決定しようとするが、第一位置条件を満たす第三の移動端末2の位置情報が存在しなかった、とする。かかる場合、動画送信部141は、子供Aが写った動画を送信できない旨の情報を当該保護者Pのユーザ端末3に送信しても良いし、動画や情報のユーザ端末3への送信を停止しても良い。
 以上の動画送信により、ユーザ端末3は、第一の移動端末2が取得した動画と第二の移動端末2の移動端末が取得した動画とを、順次、受信し、出力する。このことにより、保護者Pは、子供Aの帰宅の様子を見ることができる。
 そして、時間の経過により、子供Aに近づく第三の移動端末2が存在するに至り、動画取得部133は、対象端末4の最新の位置情報に対して、最新の位置情報が第一位置条件を満たす第三の移動端末2の位置情報を、図22を参照し、決定できた、とする。次に、動画取得部133は、第三の移動端末2から動画を取得する。次に、動画取得部133は、当該動画を、第三の移動端末2の第三の権利者識別子と位置情報と対にして、図示しないバッファに一時蓄積する。
 次に、動画送信部141は、動画取得部133が受信した第三の移動端末2からの動画を、対象者識別子「T001」と対になるユーザ識別子で識別される保護者Pのユーザ端末3に送信する。
 次に、ユーザ端末3は、第三の移動端末2が取得した動画を受信し、出力する。かかることにより保護者Pは、少しの時間は子供Aの帰宅の様子を見られなかったが、かかる動画の出力により、再度、子供Aの帰宅の様子を見ることができるようになった。
 以上の処理が、子供Aの対象端末4の電源がOFFになるまで(子供Aが帰宅するまで)継続され、保護者Bは、子供Aの学校からの帰宅の様子を監視できる。
 また、報酬手段1355は、保護者Bに動画を提供した第一の移動端末2、第二の移動端末2、第三の移動端末2の権利者識別子で識別される権利者に対して、上述した報酬処理を行う。
 また、動画構成部134は、2以上の各移動端末2から送信された動画を、送信された順に結合し、結合動画を構成する。
 また、権利者処理部135は、当該結合動画を保護者Pの識別子である権利者識別子と対にして蓄積する。
 また、権利者処理部135は、結合動画の元になった1または2以上の各動画に対応付く属性値集合に対応付けて、結合動画を蓄積する。
 次に、第四保全手段1354は、結合動画の蓄積先を特定するアクセス情報を取得する。また、第四保全手段1354は、蓄積した結合動画に対応する属性値集合を取得する。次に、第四保全手段1354は、取得したアクセス情報と取得した属性値集合と当該動画の権利者識別子とを有する保全情報を構成する。次に、第四保全手段1354は、構成した保全情報を蓄積する。
 以上、本具体例によれば、結合動画を用いて、対象端末4を保持している対象者の見守りができる。また、見守りのための結合動画の元になる動画を提供した権利者に対して報酬を与えることができる。また、結合動画を適切に管理できる。
(具体例2)
 ナビゲーション機能を有するユーザ端末3に対して、ユーザは目的地を入力した、とする。次に、ユーザ端末3のユーザ受付部32は、目的地を受け付ける。また、ユーザ処理部33は、現在位置を取得する。次に、ユーザ処理部33は、現在位置から目的地までの経路情報を取得する。なお、ここでは、経路情報は、2以上の位置情報を有する、とする。
 次に、ユーザ端末3のユーザ送信部34は、ユーザ処理部33における経路情報の取得に応じて、自動的に経路情報を含む問合せを情報処理装置1に送信する。
 次に、情報処理装置1の問合受信部122は、当該問合せを受信する。次に、動画取得部133、動画構成部134は、以下のように動画結合処理を行う。
 つまり、まず、動画取得部133は、経路情報が有する2以上の位置情報のうち、経路情報が特定する経路の中の最初の交差点の位置情報(第一の位置情報)を取得する。つまり、動画取得部133は、受信された経路情報が有する位置情報の中の一部の位置情報のみを用いて、動画を取得することは好適である。動画取得部133は、受信された経路情報が有する位置情報の中で、特定の条件を満たす一部の位置情報のみを用いて、動画を取得することは好適である。なお、特定の条件は、例えば、位置情報が交差点の位置を示す情報であること、先に利用された位置情報との距離が閾値以上であることである。
 次に、動画取得部133は、取得した位置情報に対して、第一位置条件を満たす第一の移動端末2の位置情報を決定する。そして、動画取得部133は、決定した第一の移動端末2から動画を取得し、当該動画を、第一の移動端末2の第一の権利者識別子と第一の位置情報と対にして、図示しないバッファに一時蓄積する。次に、動画送信部141は、取得された動画をユーザ端末3に送信する。
 次に、動画取得部133は、先に取得した交差点の第一の位置情報が示す位置よりも目的地に近い次の交差点の第二の位置情報を取得する。
 次に、動画取得部133は、第二の位置情報に対して、第一位置条件を満たす第二の移動端末2の位置情報を決定する。そして、動画取得部133は、決定した第二の移動端末2から動画を取得し、当該動画を、第二の移動端末2の第二の権利者識別子と第二の位置情報と対にして、図示しないバッファに一時蓄積する。次に、動画送信部141は、取得された動画をユーザ端末3に送信する。
 次に、動画取得部133は、第二の位置情報が示す位置よりも目的地に近い次の交差点の第三の位置情報を取得する。
 次に、動画取得部133は、第三の位置情報に対して、第一位置条件を満たす第三の移動端末2の位置情報を決定する。そして、動画取得部133は、決定した第三の移動端末2から動画を取得し、当該動画を、第三の移動端末2の第三の権利者識別子と第三の位置情報と対にして、図示しないバッファに一時蓄積する。次に、動画送信部141は、取得された動画をユーザ端末3に送信する。
 情報処理装置1は、以上の処理を、目的地を特定する第nの位置情報に対応する動画を送信するまで繰り返す。
 そして、ユーザ端末3のユーザ受信部35は、順次、第一の動画、第二の動画、第三の動画、・・・第nの動画を受信する。ユーザ出力部36は、第一の動画、第二の動画、第三の動画、・・・第nの動画を、順次、出力する。
 また、情報処理装置1の報酬手段1355は、第一の権利者識別子で識別される第一の権利者、第二の権利者、・・・、および第nの権利者に、動画の提供に対する報酬を与える報酬処理を行う。
 また、動画構成部134は、2以上の各移動端末2から送信された動画を、送信された順に結合し、結合動画を構成する。
 また、権利者処理部135は、当該結合動画を当該ユーザ端末3のユーザの識別子である権利者識別子と対にして蓄積する。つまり、ここでは、結合動画の権利者は、当該ユーザとなる。
 また、権利者処理部135は、結合動画の元になった1または2以上の各動画に対応付く属性値集合に対応付けて、結合動画を蓄積する。
 次に、第四保全手段1354は、結合動画の蓄積先を特定するアクセス情報を取得する。また、第四保全手段1354は、蓄積した結合動画に対応する属性値集合を取得する。次に、第四保全手段1354は、取得したアクセス情報と取得した属性値集合と当該動画の権利者識別子とを有する保全情報を構成する。次に、第四保全手段1354は、構成した保全情報を蓄積する。
 以上、本具体例によれば、2以上の移動端末2から送信された動画を、少なくとも見かけ上は時間的に結合した結合動画を用いて、目的地までの経路の様子を、現在位置から近い順に確認ができる結果、自動車等の移動体を用いた走行を支援できる。
 また、結合動画の元になる動画を提供した権利者に対して報酬を与えることができる。また、結合動画を適切に蓄積し、管理できる。
(具体例3)
 ナビ端末5は、例えば、目的地までの経路上で渋滞を検知した、とする。なお、渋滞を検知する機能は、公知技術により可能である。次に、ナビ端末5は、渋滞の道路を特定する1または2以上の位置情報を有する経路情報を取得し、当該経路情報を含む問合せと、ナビ端末5に格納されているユーザ識別子とを、情報処理装置1に送信した、とする。なお、ユーザ識別子は、渋滞している道路の位置に居る移動端末2から送信される動画を受信するユーザ端末3の識別子であり、例えば、IPアドレスである。また、経路情報は、1または2箇所以上の渋滞の道路を特定する情報である、とする。かかるユーザ端末3は、例えば、助手席の同乗者の端末である。
 次に、情報処理装置1の問合受信部122は、当該経路情報を含む問合せとユーザ識別子とを受信する。次に、動画取得部133、動画構成部134は、以下のように動画結合処理を行う。
 まず、動画取得部133は、経路情報に含まれる位置情報の中で、現在位置に最も近い位置情報を取得する。次に、動画取得部133は、当該位置情報から続く位置情報であり、隣接する位置情報に対して位置が閾値以内の位置である位置情報の最後の位置情報を取得する。動画取得部133は、かかる位置情報を、動画取得に使用する対象の位置情報とする。
 次に、動画取得部133は、対象の位置情報に対して、第一位置条件を満たす位置情報の第一の移動端末2を決定する。次に、動画取得部133は、当該移動端末2から動画を取得し、当該動画を、当該第一の移動端末2の第一の権利者識別子と位置情報と対にして、図示しないバッファに一時蓄積する。
 そして、動画取得部133は、当該第一の移動端末2の最新の位置情報が第一位置条件を満たさなくなるまで、当該第一の移動端末2から動画を受信し、図示しないバッファに一時蓄積する。
 また、動画送信部141は、取得された動画を、順次、ユーザ端末3に送信する。
 次に、移動端末2が渋滞を抜けて、動画取得部133は、第一の移動端末2の最新の位置情報が第一位置条件を満たさなくなった、と判断したとする。
 次に、動画取得部133は、対象の位置情報に対して、第一位置条件を満たす位置情報の第二の移動端末2を決定する。次に、動画取得部133は、当該第二の移動端末2から動画を取得し、当該動画を、当該第二の移動端末2の第二の権利者識別子と位置情報と対にして、図示しないバッファに一時蓄積する。
 そして、動画取得部133は、当該第二の移動端末2の最新の位置情報が第一位置条件を満たさなくなるまで、当該第二の移動端末2から動画を受信し、図示しないバッファに一時蓄積する。
 また、動画送信部141は、取得された動画を、順次、ユーザ端末3に送信する。
 そして、ユーザ端末3には、情報処理装置1から動画を受信し、出力する。
 以上の処理を繰り返し、ユーザ端末3のユーザは、渋滞の状況を継続して知ることができる。
 また、経路情報が2箇所以上の渋滞の道路を特定する情報を含む場合、情報処理装置1は、2箇所目以降の箇所を特定する経路情報を用いて、同様の処理を行う。その結果、ユーザ端末3は、2箇所目以降の箇所の渋滞の状況を把握するための動画も受信し、出力できる。なお、2箇所以上の渋滞の箇所が存在する場合、ユーザ端末3は、自動的に、またはユーザの指示により、その箇所を切り換えて、動画を受信し、出力することは好適である。
 なお、本具体例において、説明を省略するが、報酬処理、各種の保全処理等を行っても良い。
 以上、本具体例によれば、2以上の移動端末2から送信された動画を用いて、目的地までの経路上の渋滞の状況を把握できる。
(具体例4)
 大型の駐車場に入った自動車に設置されたユーザ端末3から、当該ユーザ端末3の位置情報を含む問合せであり、駐車場の状況を把握するための問合せが、情報処理装置1に送信された、とする。なお、かかる問合せは、「種類識別子=アラウンドビュー画像」、当該ユーザ端末3の位置情報(基準の位置情報)、および当該ユーザ端末3が取得したアラウンドビュー画像を含む、とする。
 次に、情報処理装置1の問合受信部122は、当該問合せを受信する。 次に、動画取得部133は、受信された問合せから、2以上の動画の空間的融合が必要である、と判断する。次に、動画取得部133、動画構成部134は、以下のように動画融合処理を行う。
 つまり、動画取得部133は、受信された問合せが有する基準の位置情報を取得する。次に、動画取得部133は、基準の位置情報に対して、第二位置条件を満たす位置情報に対応する1または2以上の移動端末2を決定する。次に、動画取得部133は、1または2以上の移動端末2に、現在のアラウンドビュー画像を送信する指示を送信する。なお、ここでの第二位置条件は、基準の位置情報が含まれる駐車場の領域に、位置情報が示す位置が存在することである。なお、1以上の各移動端末2は、連続して、アラウンドビュー画像を取得している、とする。
 そして、動画取得部133は、1以上の各移動端末2から、移動端末2の位置情報に対応付いたアラウンドビュー画像を受信する。
 次に、動画構成部134は、受信された各アラウンドビュー画像と対になる位置情報と基準の位置情報との差異(距離)を算出する。次に、動画構成部134は、当該差異をキーとして、昇順にアラウンドビュー画像をソートする。
 次に、動画構成部134は、基準画像を取得する。なお、基準画像は、問合せに含まれるアラウンドビュー画像である。
 次に、動画構成部134は、図10のフローチャートを用いて説明した処理を行い、他の移動端末2から受信された各アラウンドビュー画像を、ソートされた順に、位置情報を用いて、基準画像に対して、適切な位置に配置していき、融合画像を構成する。また、動画構成部134は、最終的に構成された融合画像に、基準の位置情報が示す位置(問合せを送信したユーザ端末3の位置)を明示する画像を構成する。なお、かかる画像も癒合画像である。
 次に、動画送信部141は、構成された融合画像をユーザ端末3に送信する。
 次に、ユーザ端末3は、当該融合画像を受信し、出力する。
 以上、本具体例によれば、他の1以上の移動端末2から送信された画像を融合して、駐車場における空きスペースを見付けることを支援できる。
 なお、本具体例において、情報処理装置1は、アラウンドビュー画像を融合した。しかし、情報処理装置1は、通常の2以上のカメラ画像、全方位カメラで取得された2以上の画像を、各画像に対応する位置情報を用いて、融合して、癒合画像を構成し、当該融合画像をユーザ端末3に送信しても良い。
(具体例5)
 ユーザBは、雨の日に、ドライブコースを走行した、とする。そして、当該ユーザ端末3には、ユーザBが、自動車で走行した経路を特定する経路情報が蓄積された、とする。
 次に、ユーザBは、帰宅後、ユーザ端末3に蓄積された経路情報、と環境情報「天気情報=晴」を含む問合せをユーザ端末3に入力した、とする。すると、ユーザ端末3は、当該問合せを受け付け、当該問合せを情報処理装置1に送信する。なお、かかる問合せは、ユーザが走行したドライブコースの動画であり、晴の日の動画を取得するための問合せである。
 次に、情報処理装置1の問合受信部122は、当該問合せを受信する。次に、動画取得部133は、受信された問合せが、リアルタイムの動画検索ではない、と判断する。次に、動画取得部133等は、以下のように登録動画検索処理を行う。
 つまり、動画取得部133は、受信された問合せの中の経路情報が有する最初の位置情報を取得する。
 次に、動画取得部133は、登録動画管理表(図23)からすべての保全情報を取得する。つまり、動画取得部133は、例えば、ブロックチェーン上に存在する保全情報を取得する。
 次に、動画取得部133は、取得した保全情報の中で、提供フラグに「1」を含み、取得した位置情報に対して第一位置条件を満たす位置情報を有し、かつ「天気情報=晴」を含む保全情報を決定する。ここで、動画取得部133は、例えば、図23の「ID=1」の保全情報を決定した、とする。
 次に、動画取得部133は、当該決定した保全情報と対になるアクセス情報「アドレス01」を取得する。次に、動画取得部133は、当該アクセス情報「アドレス01」を用いて、動画を取得する。次に、動画取得部133は、受信された問合せが有する経路情報が有する2番目以降の位置情報が、当該保全情報の位置情報と第一位置条件を満たす(同じまたは近い)ところまでの動画を、アクセス情報「アドレス01」に対応する動画から切り出す。つまり、動画取得部133は、ユーザが走行したドライブコースの経路を外れるまでの動画を、アクセス情報「アドレス01」に対応する動画から切り出して、取得する。
 次に、動画取得部133は、アクセス情報「アドレス01」に対応する動画がドライブコースから外れた際の位置情報であり、受信された問合せが有する経路情報が有する第二の位置情報を取得する。
 そして、動画取得部133は、取得した保全情報の中で、提供フラグに「1」を含み、取得した第二の位置情報に対して第一位置条件を満たす位置情報を有し、かつ「天気情報=晴」を含む保全情報を決定する。
 次に、動画取得部133は、当該決定した保全情報と対になるアクセス情報(例えば、「アドレスX」を取得する。次に、動画取得部133は、当該アクセス情報「アドレスX」を用いて、第二の動画を取得した、とする。次に、動画取得部133は、受信された問合せが有する経路情報が有する第二の位置情報より先の位置情報が、当該保全情報の位置情報を満たすところまでの動画を、アクセス情報「アドレスX」に対応する第二の動画から切り出す。つまり、動画取得部133は、ユーザが走行したドライブコースの経路を外れるまでの動画を、アクセス情報「アドレスX」に対応する動画から切り出して、取得する。
 動画取得部133は、受信された問合せの中の経路情報が有する最後の位置情報を使用するまで、以上の処理を行う。
 次に、動画構成部134は、動画取得部133が取得した2以上の動画を、取得した順(経路の順)に、結合し、結合動画を構成する。
 次に、動画送信部141は当該結合動画をユーザBのユーザ端末3に送信する。
 次に、ユーザ端末3は、当該結合動画を受信し、出力する。
 また、情報処理装置1の報酬手段1355は、結合動画に使用した元の2以上の各動画の権利者識別子(例えば、「U001」等)を取得し、当該2以上の各権利者識別子で識別される権利者に報酬を与える報酬処理を行う。
 また、権利者処理部135は、構成された結合動画に対して、上述した各種の保全処理を行う。
 以上、本具体例によれば、ユーザが移動した経路の経路情報を用いて、過去に当該経路で撮影された2以上の動画を結合した結合動画を構成し、出力できる。
 以上、本実施の形態によれば、2以上の各移動端末2が撮影した動画を利用し、有用な一の動画を構成し、提供できる。
 また、本実施の形態によれば、2以上の各移動端末2が撮影した動画を用いて、時間的に結合された有用な一の動画を構成し、提供できる。
 また、本実施の形態によれば、対象端末4から送信された2以上の各位置情報に対応する2以上の動画を用いて、時間的に結合された有用な一の動画を構成し、提供できる。かかることにより、例えば、移動する対象端末4を保持している対象者の見守りができる。
 また、本実施の形態によれば、ナビ端末5に設定された目的地に対応する2以上の動画を用いて、時間的に結合された有用な一の動画を構成し、提供できる。
 また、本実施の形態によれば、経路情報に含まれる2以上の各位置情報に対応する動画を用いて、経路の順に結合された有用な一の動画を構成し、提供できる。
 また、本実施の形態によれば、経路情報に含まれる2以上の各位置情報に対応する動画を用いて、経路の順および時間の順に結合された有用な一の動画を構成し、提供できる。
 また、本実施の形態によれば、2以上の各移動端末が撮影した動画を空間的に融合し、有用な一の動画を構成し、提供できる。
 また、本実施の形態によれば、駐車場における空きスペースの状況を把握できる。
 また、本実施の形態によれば、動画の権利者に関する適切な処理が行える。例えば、移動端末2が撮影した動画の権利者に対して報酬を与えることができる。
 また、本実施の形態によれば、2以上の画像から構成された一の動画の権利者を、適切な権利者にできる。例えば、2以上の画像から構成された一の動画の権利者を、当該動画が必要な者にできる。
 また、本実施の形態によれば、保全が必要な動画の管理情報を保全できる。
 さらに、本実施の形態によれば、移動端末2は、動画と音情報とを取得し、蓄積するが、動画は送信し、音情報は送信しないことにより、動画の提供に寄与でき、かつ移動体の権利者のプライバシーを守ることができる。
 なお、本実施の形態における処理は、ソフトウェアで実現しても良い。そして、このソフトウェアをソフトウェアダウンロード等により配布しても良い。また、このソフトウェアをCD-ROMなどの記録媒体に記録して流布しても良い。なお、このことは、本明細書における他の実施の形態においても該当する。なお、本実施の形態における情報処理装置1を実現するソフトウェアは、以下のようなプログラムである。つまり、このプログラムは、コンピュータを、2以上の各移動端末が撮影した動画であり、撮影位置を特定する位置情報または撮影時を特定する時情報を含む1以上の環境情報を含む属性値集合に対応付く動画であり、前記2以上の各移動端末から送信された動画を取得する動画取得部と、前記動画取得部が取得した前記2以上の各動画に対応付く時情報が異なる2以上の各動画を時間的に結合する、または前記動画取得部が取得した前記2以上の各動画に対応付く位置情報が異なる2以上の各動画の一部を空間的に融合して、一の動画を構成する動画構成部と、前記動画構成部が構成した前記一の動画を送信する動画送信部として機能させるためのプログラムである。
 また、図24は、本明細書で述べたプログラムを実行して、上述した種々の実施の形態の情報処理装置1等を実現するコンピュータの外観を示す。上述の実施の形態は、コンピュータハードウェア及びその上で実行されるコンピュータプログラムで実現され得る。図24は、このコンピュータシステム300の概観図であり、図25は、システム300のブロック図である。なお、移動端末2は、通常、カメラを具備する。また、移動端末2は、マイクを具備しても良い。
 図24において、コンピュータシステム300は、CD-ROMドライブを含むコンピュータ301と、キーボード302と、マウス303と、モニタ304とを含む。
 図25において、コンピュータ301は、CD-ROMドライブ3012に加えて、MPU3013と、CD-ROMドライブ3012等に接続されたバス3014と、ブートアッププログラム等のプログラムを記憶するためのROM3015と、MPU3013に接続され、アプリケーションプログラムの命令を一時的に記憶するとともに一時記憶空間を提供するためのRAM3016と、アプリケーションプログラム、システムプログラム、及びデータを記憶するためのハードディスク3017とを含む。ここでは、図示しないが、コンピュータ301は、さらに、LANへの接続を提供するネットワークカードを含んでも良い。
 コンピュータシステム300に、上述した実施の形態の情報処理装置1等の機能を実行させるプログラムは、CD-ROM3101に記憶されて、CD-ROMドライブ3012に挿入され、さらにハードディスク3017に転送されても良い。これに代えて、プログラムは、図示しないネットワークを介してコンピュータ301に送信され、ハードディスク3017に記憶されても良い。プログラムは実行の際にRAM3016にロードされる。プログラムは、CD-ROM3101またはネットワークから直接、ロードされても良い。
 プログラムは、コンピュータ301に、上述した実施の形態の情報処理装置等の機能を実行させるオペレーティングシステム(OS)、またはサードパーティープログラム等は、必ずしも含まなくても良い。プログラムは、制御された態様で適切な機能(モジュール)を呼び出し、所望の結果が得られるようにする命令の部分のみを含んでいれば良い。コンピュータシステム300がどのように動作するかは周知であり、詳細な説明は省略する。
 なお、上記プログラムにおいて、情報を送信するステップや、情報を受信するステップなどでは、ハードウェアによって行われる処理、例えば、送信ステップにおけるモデムやインターフェースカードなどで行われる処理(ハードウェアでしか行われない処理)は含まれない。
 また、上記プログラムを実行するコンピュータは、単数であってもよく、複数であってもよい。すなわち、集中処理を行ってもよく、あるいは分散処理を行ってもよい。
 また、上記各実施の形態において、一の装置に存在する2以上の通信手段は、物理的に一の媒体で実現されても良いことは言うまでもない。
 また、上記各実施の形態において、各処理は、単一の装置によって集中処理されることによって実現されてもよく、あるいは、複数の装置によって分散処理されることによって実現されてもよい。
 本発明は、以上の実施の形態に限定されることなく、種々の変更が可能であり、それらも本発明の範囲内に包含されるものであることは言うまでもない。
 以上のように、本発明にかかる情報処理装置1は、2以上の各移動端末2が撮影した動画を利用し、有用な一の動画を構成し、提供できるという効果を有し、サーバ等として有用である。

Claims (18)

  1. 2以上の各移動端末が撮影した動画であり、撮影位置を特定する位置情報または撮影時を特定する時情報を含む1以上の環境情報を含む属性値集合に対応付く動画であり、2以上の各前記移動端末から送信された動画を取得する動画取得部と、
    前記動画取得部が取得した2以上の各前記動画に対応付く時情報が異なる2以上の各前記動画を時間的に結合する、または前記動画取得部が取得した2以上の各前記動画に対応付く位置情報が異なる2以上の各前記動画の一部を空間的に融合して、一の前記動画を構成する動画構成部と、
    前記動画構成部が構成した一の前記動画を送信する動画送信部と具備する情報処理装置。
  2. 前記動画取得部は、
    2以上の各前記動画に対応付く前記位置情報が第一位置条件を満たす2以上の前記動画を、順次、取得し、
    前記動画構成部は、
    前記動画取得部が取得した2以上の各前記動画を、前記動画に対応する時間の順序で結合し、一の前記動画を構成する請求項1記載の情報処理装置。
  3. 前記位置情報を含む問合せをユーザ端末から受信する問合受信部をさらに具備し、
    前記動画取得部は、
    前記問合受信部が受信した前記位置情報を用いた前記第一位置条件を満たす前記位置情報に対応する2以上の前記動画を取得する請求項2記載の情報処理装置。
  4. 各前記移動端末から送信された2以上の各前記位置情報を、順次、受信する問合受信部をさらに具備し、
    前記動画取得部は、
    前記問合受信部が受信した2以上の各前記位置情報を、順次、用いて、前記第一位置条件を満たす前記位置情報に対応する2以上の前記動画を、順次、取得する請求項2記載の情報処理装置。
  5. ナビ端末に設定された目的地を特定する前記位置情報を含む問合せを受信する問合受信部をさらに具備し、
    前記動画取得部は、
    前記問合受信部が受信した前記位置情報を用いた前記第一位置条件を満たす前記位置情報に対応する2以上の前記動画を、順次、取得する請求項2記載の情報処理装置。
  6. 2以上の前記位置情報を含む経路情報を含む問合せを受信する問合受信部をさらに具備し、
    前記動画取得部は、
    前記経路情報が有する2以上の各前記位置情報を用いた2以上の各前記第一位置条件を満たす前記位置情報に対応する2以上の前記動画を取得する請求項1記載の情報処理装置。
  7. 前記経路情報は、2以上の各前記位置情報に対応する時情報を有し、
    前記動画取得部は、
    前記経路情報が有する2以上の各前記位置情報と前記時情報とを用いた前記第一位置条件を満たす前記位置情報に対応する2以上の前記動画を取得する請求項6記載の情報処理装置。
  8. 前記動画取得部は、
    2以上の各前記動画に対応付く前記位置情報が第二位置条件を満たし、2以上の各前記動画に対応付く時情報が時条件を満たす2以上の前記動画を取得し、
    前記動画構成部は、
    前記動画取得部が取得した2以上の各前記動画を構成するフレームの一部または全部を用いて一のフレームを構成し、当該フレームを時間的に繋げて、一の前記動画を構成する請求項1記載の情報処理装置。
  9. 前記動画は、駐車場を撮影した動画であり、
    前記動画構成部は、
    2以上の各移動体に設置された2以上の各前記移動端末が撮影した前記動画が有する前記フレームを合成した真上フレームを空間的に繋げ、一の前記フレームを構成し、一の前記フレームを有する一の前記動画を構成する請求項8記載の情報処理装置。
  10. 前記動画は、当該動画の権利者を識別する権利者識別子に対応付き、
    前記動画構成部が構成した前記一の動画に対応付く権利者識別子で識別される前記権利者に関する処理である権利者処理を行う権利者処理部をさらに具備する請求項1から請求項9いずれか一項に記載の情報処理装置。
  11. 一の前記動画に対応付く前記権利者識別子は、一の前記動画の元になった2以上の各前記動画に対応付く前記権利者識別子であり、
    前記権利者処理部は、
    一の前記動画の元になった2以上の各前記動画に対応付く前記権利者識別子で識別される各前記権利者に対して、報酬を与える処理である報酬処理を行う報酬手段を具備する請求項10記載の情報処理装置。
  12. 前記報酬手段は、
    前記動画送信部が送信した前記動画の元になった2以上の各前記動画に対応する動画属性値を取得し、当該動画属性値を用いて、2以上の各前記権利者に対する報酬を決定し、当該報酬を与える処理を行う請求項11記載の情報処理装置。
  13. 前記権利者処理部は、
    前記動画取得部が取得した一の前記動画を、一の当該動画の元になった2以上の各前記動画に対応付く前記属性値集合に対応付けて蓄積する第一保全処理を行う第一保全手段を具備する請求項10記載の情報処理装置。
  14. 前記権利者処理部は、
    前記動画取得部が取得した一の前記動画を、一の当該動画の元になった2以上の各前記動画に対応する前記権利者識別子に対応付けて蓄積する第二保全処理を行う第二保全手段を具備する請求項10記載の情報処理装置。
  15. 前記移動端末が動画を撮影した環境に関する環境情報に関する問合せを前記ユーザ端末から受信する問合受信部をさらに具備し、
    前記動画取得部は、
    前記問合受信部が受信した前記問合せに対応する2以上の前記動画を取得し、
    前記権利者処理部は、
    前記動画取得部が取得した一の前記動画を、前記ユーザ端末のユーザを識別する前記権利者識別子に対応付けて蓄積する第三保全手段を具備する請求項10記載の情報処理装置。
  16. 前記権利者処理部は、
    前記一の動画にアクセスするためのアクセス情報を含む保全情報をブロックチェーンに蓄積する第四保全処理を行う第四保全手段を具備する請求項13に記載の情報処理装置。
  17. 動画取得部と、動画構成部と、動画送信部とにより実現される情報処理方法であって、
    前記動画取得部が、2以上の各移動端末が撮影した動画であり、撮影位置を特定する位置情報または撮影時を特定する時情報を含む1以上の環境情報を含む属性値集合に対応付く動画であり、2以上の各前記移動端末から送信された前記動画を取得する動画取得ステップと、
    前記動画構成部が、前記動画取得部が取得した2以上の各前記動画に対応付く時情報が異なる2以上の各前記動画を時間的に結合する、または前記動画取得部が取得した2以上の各前記動画に対応付く前記位置情報が異なる2以上の各前記動画の一部を空間的に融合して、一の前記動画を構成する動画構成ステップと、
    前記動画送信部が、前記動画構成部が構成した一の前記動画を送信する動画送信ステップとを具備する情報処理方法。
  18. コンピュータを、
    2以上の各移動端末が撮影した動画であり、撮影位置を特定する位置情報または撮影時を特定する時情報を含む1以上の環境情報を含む属性値集合に対応付く前記動画であり、2以上の各前記移動端末から送信された前記動画を取得する動画取得部と、
    前記動画取得部が取得した2以上の各前記動画に対応付く時情報が異なる2以上の各前記動画を時間的に結合する、または前記動画取得部が取得した2以上の各前記動画に対応付く位置情報が異なる2以上の各前記動画の一部を空間的に融合して、一の前記動画を構成する動画構成部と、
    前記動画構成部が構成した一の前記動画を送信する動画送信部として機能させるためのプログラム。
PCT/JP2022/032068 2022-08-25 2022-08-25 情報処理装置、移動端末、情報処理方法、およびプログラム WO2024042683A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/032068 WO2024042683A1 (ja) 2022-08-25 2022-08-25 情報処理装置、移動端末、情報処理方法、およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/032068 WO2024042683A1 (ja) 2022-08-25 2022-08-25 情報処理装置、移動端末、情報処理方法、およびプログラム

Publications (1)

Publication Number Publication Date
WO2024042683A1 true WO2024042683A1 (ja) 2024-02-29

Family

ID=90012799

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/032068 WO2024042683A1 (ja) 2022-08-25 2022-08-25 情報処理装置、移動端末、情報処理方法、およびプログラム

Country Status (1)

Country Link
WO (1) WO2024042683A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016134859A (ja) * 2015-01-21 2016-07-25 株式会社ナイルワークス 動画配信システム
US20180330610A1 (en) * 2016-05-10 2018-11-15 Tencent Technology (Shenzhen) Company Limited Traffic accident warning method and traffic accident warning apparatus
KR102115098B1 (ko) * 2018-11-30 2020-05-25 서울과학기술대학교 산학협력단 실내 공간용 파노라마 영상 생성 시스템 및 방법
JP2021048597A (ja) * 2020-11-18 2021-03-25 Line株式会社 コンピュータプログラム、情報処理方法および端末
JP2021064886A (ja) * 2019-10-15 2021-04-22 本田技研工業株式会社 被写体撮影システム、被写体撮影方法、および被写体撮影プログラム
JP2021083034A (ja) * 2019-11-22 2021-05-27 トヨタ自動車株式会社 画像データ配信システム及び画像データ表示端末

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016134859A (ja) * 2015-01-21 2016-07-25 株式会社ナイルワークス 動画配信システム
US20180330610A1 (en) * 2016-05-10 2018-11-15 Tencent Technology (Shenzhen) Company Limited Traffic accident warning method and traffic accident warning apparatus
KR102115098B1 (ko) * 2018-11-30 2020-05-25 서울과학기술대학교 산학협력단 실내 공간용 파노라마 영상 생성 시스템 및 방법
JP2021064886A (ja) * 2019-10-15 2021-04-22 本田技研工業株式会社 被写体撮影システム、被写体撮影方法、および被写体撮影プログラム
JP2021083034A (ja) * 2019-11-22 2021-05-27 トヨタ自動車株式会社 画像データ配信システム及び画像データ表示端末
JP2021048597A (ja) * 2020-11-18 2021-03-25 Line株式会社 コンピュータプログラム、情報処理方法および端末

Similar Documents

Publication Publication Date Title
JP6773579B2 (ja) マルチメディアキャプチャ用のシステム及び方法
AU2016208929B2 (en) Systems and methods for providing information for an on-demand service
US20240194069A1 (en) Systems and methods for detecting vehicle movements and displaying parking spaces
JP6568240B2 (ja) 運輸サービスの料金を求める方法及びシステム
CN104050801B (zh) 使去往共同目的地的多个在途车辆的停车更便利的方法和系统
US20200223454A1 (en) Enhanced social media experience for autonomous vehicle users
JP6296447B2 (ja) 自動運転交通システムを利用した撮影情報共有システム、撮影情報管理装置及び撮影情報共有方法
CN108898868A (zh) 监控在途中的交通工具的系统和方法
CN110197590A (zh) 信息处理装置、图像分发系统、信息处理方法以及程序
JP2015210713A (ja) ドライブレコーダおよびこれを用いたクラウド型道路情報等運用システム
US10805696B1 (en) System for recording and targeting tagged content of user interest
WO2024042683A1 (ja) 情報処理装置、移動端末、情報処理方法、およびプログラム
WO2022004384A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP7407246B2 (ja) サービス提供装置、サービス提供方法およびサービス提供プログラム
WO2024084663A1 (ja) 情報処理装置、および情報処理方法
US20210334307A1 (en) Methods and systems for generating picture set from video
WO2023234030A1 (ja) 情報処理装置、および情報処理方法
WO2024111051A1 (ja) 情報処理装置、および情報処理方法
Karanastasis et al. A novel AR application for in-vehicle entertainment and education
JP2008107927A (ja) 車両用情報授受システム
WO2024180655A1 (ja) 情報処理装置、および情報処理方法
KR102118441B1 (ko) 자연공원 관광서비스 관리서버
US11687149B2 (en) Method for operating a mobile, portable output apparatus in a motor vehicle, context processing device, mobile output apparatus and motor vehicle
JP2021097407A (ja) 動画配信サーバーおよび動画配信システム
JP2021044779A (ja) 画像表示装置、画像表示方法、および、画像表示システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22956510

Country of ref document: EP

Kind code of ref document: A1