WO2023162255A1 - 情報提供装置、情報提供方法、及び非一時的なコンピュータ可読媒体 - Google Patents

情報提供装置、情報提供方法、及び非一時的なコンピュータ可読媒体 Download PDF

Info

Publication number
WO2023162255A1
WO2023162255A1 PCT/JP2022/008384 JP2022008384W WO2023162255A1 WO 2023162255 A1 WO2023162255 A1 WO 2023162255A1 JP 2022008384 W JP2022008384 W JP 2022008384W WO 2023162255 A1 WO2023162255 A1 WO 2023162255A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
terminal
searcher
image
identification information
Prior art date
Application number
PCT/JP2022/008384
Other languages
English (en)
French (fr)
Inventor
麻里子 浅野
英路 村松
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to PCT/JP2022/008384 priority Critical patent/WO2023162255A1/ja
Publication of WO2023162255A1 publication Critical patent/WO2023162255A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Definitions

  • This disclosure relates to searching for an object using images.
  • Patent Literature 1 a technology has been developed in which a face image of a missing person is acquired from a search requester's terminal, and an image containing the missing person is detected from image storage using the face image.
  • the image storage stores images uploaded by a third party.
  • the image uploaded by the third party is an image of a scene arbitrarily captured by the third party, and has a low probability of including the object to be searched.
  • the present disclosure has been made in view of such problems, and one of its purposes is to provide a new technique for searching for a searched object using images.
  • the information providing apparatus of the present disclosure uses acquisition means for acquiring a first image including a first object from a first terminal, information associating a second object with a second terminal, and the first image, determining means for determining whether or not the second object identical to the first object exists; and to the second terminal corresponding to the second object determined to be identical to the first object, the and transmitting means for transmitting information about the first object.
  • the information provision method of the present disclosure is executed by a computer.
  • the method includes an obtaining step of obtaining a first image including a first object from a first terminal; information associating a second object with a second terminal; a determination step of determining whether or not the second object identical to the first object exists; and sending a message related to the first object to the second terminal corresponding to the second object determined to be identical to the first object and a transmitting step of transmitting the information.
  • the non-transitory computer-readable medium of the present disclosure stores a program that causes a computer to execute the information providing method of the present disclosure.
  • a new technique for searching for a searched object using images is provided.
  • FIG. 10 is a diagram illustrating how management of the discovered object 20 is taken over;
  • predetermined values such as predetermined values and threshold values are stored in advance in a storage device or the like that can be accessed from a device that uses the values.
  • the storage unit is composed of one or more arbitrary number of storage devices.
  • FIG. 1 is a diagram illustrating an overview of an information providing device 2000 according to an embodiment.
  • FIG. 1 is a diagram for facilitating understanding of the outline of the information providing apparatus 2000, and the operation of the information providing apparatus 2000 is not limited to that shown in FIG.
  • the information providing device 2000 is used to provide information to the searcher who is looking for the object to be searched.
  • to-be-searched object information 60 which is information about the object to be searched
  • searcher information 80 which is information about the searcher who is searching for the object to be searched.
  • the search information 50 obtained is registered in the storage unit 90 in advance.
  • a searched object is any object being sought by a searcher.
  • the object to be searched is a stray child (eg, the manipulator's child or grandchild).
  • the searched item may be a pet or any lost item.
  • the searched object information 60 includes at least a searched object image that is an image including the searched object.
  • the searcher information 80 includes at least destination information representing a destination when information is provided to the searcher.
  • the storage unit 90 is, for example, a database accessible from the information providing device 2000 .
  • the searcher information 80 is provided from the searcher terminal 110, which is a computer used by the searcher.
  • the searcher terminal 110 is, for example, a mobile terminal such as a smartphone owned by a searcher.
  • the information providing device 2000 provides information on the discovered object 20 to the searcher corresponding to the searched object when there is a searched object that matches the discovered object 20 found by the finder 10. Provide find object information 100 . Therefore, the information providing device 2000 acquires the discovered object image 40 from the finder terminal 30 .
  • the finder terminal 30 is any computer used by the finder 10 .
  • the discoverer terminal 30 is a mobile terminal such as a smart phone owned by the discoverer 10 .
  • the discoverer 10 who has found the discoverable object 20 uses the discoverer terminal 30 to transmit the discoverable object image 40 to the information providing device 2000 .
  • the discoverable object image 40 is an image including the discoverable object 20 .
  • the discoverable object image 40 is preferably the face image of the discoverable object 20 .
  • a person's face image means an image including the person's face.
  • the discovered object image 40 is generated by imaging the discoverer 10 with a camera provided on the discoverer terminal 30 .
  • the camera used to generate the discovered object image 40 may be any camera, and is not limited to the camera provided in the finder's terminal 30 .
  • the information providing device 2000 uses the to-be-found object image 40 acquired from the finder's terminal 30 and each piece of search information 50 to determine whether or not a to-be-searched object that matches the to-be-found object 20 exists. If there is a searched object that matches the discovered object 20 , the information providing device 2000 provides the discovered object information 100 , which is information about the discovered object 20 , as a search target corresponding to the searched object that matches the discovered object 20 . provided to persons.
  • the "search object that matches the discoverable object 20" is a search object that has a high probability of matching the discoverable object 20.
  • matching the found object 20 and the searched object means that there is a high probability that the found object 20 and the searched object are the same.
  • the to-be-discovered object image 40 includes It is determined that the object 20 matches the searched object information 60 included in the searched object image.
  • Patent Document 1 an image captured by a third party can be handled in the same manner as an image captured by a surveillance camera, thereby expanding the search range of the object to be searched, thereby increasing the probability that the object to be searched can be detected. increasing.
  • the image captured by a third party in Patent Document 1 also does not intentionally include the searched object. Therefore, it is considered that most of the images captured are scenes unrelated to the object to be searched. For this reason, even in the invention of Patent Document 1, there is a problem that the time required for the detection process increases, and the amount of computer resources required for the search process increases.
  • the image of the object to be searched (search object image) provided by the searcher and the image of the object to be found 20 provided by the finder 10 A searched object that matches the found object 20 is identified by matching using the image 40 .
  • both the found object image 40 and the searched object image are images provided for the purpose of searching.
  • the found object image 40 is an image of the found object 20 that is considered to be searched by the searcher
  • the searched object image is an image of the found object being searched by the searcher. be. Therefore, according to the information providing apparatus 2000, the time required for detecting the searched object is short, compared to the case of using surveillance camera images including many images of scenes unrelated to the search. There is an advantage that the time required for detecting an object is short.
  • the third party in Patent Document 1 provides arbitrarily captured images and cannot actively contribute to the search for the object to be searched.
  • the finder 10 who is a third party, actively contributes to the search for the searched object by providing the information providing device 2000 with an image of the discovered object 20. can do.
  • the object to be found 20 is a lost child.
  • a third party who finds the lost child provides the image of the child to the information providing apparatus 2000, thereby actively asking the parent or the like who is looking for the child to look for the child. can provide information.
  • the searcher can find the searched object more quickly and with high probability by searching for the searched object by utilizing information provided by a kind third party. will be able to
  • the information providing device 2000 of this embodiment will be described in more detail below.
  • FIG. 2 is a block diagram illustrating the functional configuration of the information providing device 2000 of the embodiment.
  • the information providing device 2000 has an acquisition unit 2020 , a determination unit 2040 and a transmission unit 2060 .
  • the acquisition unit 2020 acquires the found object image 40 .
  • the determination unit 2040 determines whether or not there is an object to be searched that matches the object to be found 20 using the image 40 of the object to be found and the search information 50 . If there is a search object that matches the discoverable object 20, the transmitting unit 2060 provides the find object information 100 regarding the discoverable object 20 to the searcher corresponding to the search object that matches the discoverable object 20. .
  • Each functional component of the information providing apparatus 2000 may be implemented by hardware (eg, hardwired electronic circuit) that implements each functional component, or may be implemented by a combination of hardware and software (eg, combination of an electronic circuit and a program for controlling it, etc.).
  • hardware eg, hardwired electronic circuit
  • software e.g, combination of an electronic circuit and a program for controlling it, etc.
  • a case in which each functional component of the information providing apparatus 2000 is implemented by a combination of hardware and software will be further described below.
  • FIG. 3 is a block diagram illustrating the hardware configuration of the computer 1000 that implements the information providing device 2000.
  • the computer 1000 is any computer.
  • the computer 1000 is a stationary computer such as a PC (Personal Computer) or a server machine.
  • the computer 1000 is a portable computer such as a smart phone or a tablet terminal.
  • the computer 1000 may be a dedicated computer designed to implement the information providing apparatus 2000, or may be a general-purpose computer.
  • the computer 1000 implements each function of the information providing apparatus 2000.
  • the application is composed of a program for realizing each functional component of the information providing apparatus 2000 .
  • the acquisition method of the above program is arbitrary.
  • the program can be acquired from a storage medium (DVD disc, USB memory, etc.) in which the program is stored.
  • the program can be obtained by downloading the program from a server device that manages the storage device in which the program is stored.
  • the computer 1000 has a bus 1020 , a processor 1040 , a memory 1060 , a storage device 1080 , an input/output interface 1100 and a network interface 1120 .
  • the bus 1020 is a data transmission path through which the processor 1040, memory 1060, storage device 1080, input/output interface 1100, and network interface 1120 mutually transmit and receive data.
  • the method of connecting processors 1040 and the like to each other is not limited to bus connection.
  • the processor 1040 is various processors such as a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), or an FPGA (Field-Programmable Gate Array).
  • the memory 1060 is a main memory implemented using a RAM (Random Access Memory) or the like.
  • the storage device 1080 is an auxiliary storage device implemented using a hard disk, SSD (Solid State Drive), memory card, ROM (Read Only Memory), or the like.
  • the input/output interface 1100 is an interface for connecting the computer 1000 and input/output devices.
  • the input/output interface 1100 is connected to an input device such as a keyboard and an output device such as a display device.
  • a network interface 1120 is an interface for connecting the computer 1000 to a network.
  • This network may be a LAN (Local Area Network) or a WAN (Wide Area Network).
  • the storage device 1080 stores a program (a program that implements the application described above) that implements each functional component of the information providing apparatus 2000 .
  • the processor 1040 implements each functional component of the information providing apparatus 2000 by reading this program into the memory 1060 and executing it.
  • the information providing device 2000 may be realized by one computer 1000 or may be realized by a plurality of computers 1000. In the latter case, the configuration of each computer 1000 need not be the same, and can be different.
  • FIG. 4 is a flowchart illustrating the flow of processing executed by the information providing device 2000 of the embodiment.
  • the acquisition unit 2020 acquires the found object image 40 (S102).
  • the determination unit 2040 determines whether or not there is an object to be searched that matches the object to be found 20 using the image of the object to be found 40 and the search information 50 (S104). If there is a searched object that matches the found object 20 (S104: YES), the transmitter 2060 provides the found object information 100 to the searcher corresponding to the searched object (S106).
  • the processing performed by the transmission unit 2060 is arbitrary.
  • the transmitting unit 2060 transmits to the finder terminal 30 a notification indicating that there is no searched object that matches the discovered object 20 .
  • the acquisition unit 2020 acquires the discovered object image 40 from the finder terminal 30 (S102).
  • the discovered object image 40 is transmitted from the finder terminal 30 to the information providing device 2000 .
  • the information providing apparatus 2000 acquires the discoverable object image 40 by receiving a query request including the discoverable object image 40 from the discoverer's terminal 30 .
  • the inquiry request is a request to inquire whether the found object 20 is registered as a search target.
  • the inquiry request is sent using, for example, a dedicated application (hereinafter referred to as inquiry application) installed in the discoverer terminal 30.
  • the inquiry application provides an input screen for inputting information about the discovered object 20 to the finder terminal 30 .
  • the finder 10 operates this input screen to transmit an inquiry request including information on the discovered object 20 to the information providing device 2000 .
  • the camera of the finder's terminal 30 is activated.
  • the discoverer 10 operates the activated camera to capture an image of the object 20 to be discovered.
  • the found object image 40 is generated.
  • the camera of the finder's terminal 30 when the camera of the finder's terminal 30 is activated, it is preferable to display the scene captured by the camera on the input screen in real time. In other words, the camera automatically takes repeated shots so that each time a new image is generated, it is displayed on the input screen.
  • an image generated by the camera when a specific operation (for example, pressing a shooting button) is performed on the input screen is treated as the discovered object image 40.
  • the guide is a frame with a predetermined shape.
  • the shape of the guide is, for example, rectangular.
  • the shape of the guide may be a shape representing the outline of the person's face.
  • the determination unit 2040 treats the image area included in the guide among the image areas included in the discoverable object image 40 as an image area representing the discoverable object 20 . Therefore, the discoverer 10 takes an image of the object 20 to be discovered as large as possible within the guide. By providing the guide on the input screen in this manner, the discoverer 10 can easily capture the discoverable object image 40 from which the feature amount of the discoverable object 20 can be accurately extracted.
  • the discoverer 10 may operate the input screen to input attribute information indicating the attributes of the discovered object 20 .
  • the inquiry request includes attribute information of the discoverable object 20 in addition to the discoverable object image 40 .
  • the attributes of the discovered object 20 can be handled as the attributes of the discovered object 20.
  • the attributes of the object 20 to be found include the name, age, address, date and time (for example, date and time of getting lost), or features of appearance (height, clothes, possession, etc.). You can handle things such as things you are wearing or wearing).
  • the attribute of the object 20 to be found can be the name of the object 20 to be found, the characteristics of the appearance (color, attachments, etc.), and the like.
  • the types of discoverable objects 20 can be handled as attributes of the discoverable object 20 .
  • the method of providing the discovered object image 40 from the finder terminal 30 to the information providing device 2000 is not limited to the method of using the inquiry application.
  • a website may be provided for providing the found object image 40 to the information providing device 2000 .
  • the finder terminal 30 is provided with a web page representing the aforementioned input screen.
  • the finder 10 operates this input screen to transmit an inquiry request including the object image 40 from the finder terminal 30 to the information providing apparatus 2000 .
  • the discovered object image 40 does not remain in the finder's terminal 30 after the inquiry request is sent. By doing so, the personal information and privacy of the found object 20 can be protected.
  • the inquiry application performs a process of deleting the discovered object image 40 from the finder terminal 30 after transmitting the inquiry request.
  • the inquiry application may store the camera-generated find object image 40 in a temporary memory area allocated to the inquiry application, and in response to that memory area being freed: The found object image 40 may be automatically deleted.
  • the search information 50 is information that associates an object to be searched with a searcher who is searching for the object to be searched. More specifically, the search information 50 associates searched object information 60, which is information about the searched object, with searcher information 80, which is information about the searcher. As described above, the searched object information 60 includes at least a searched object image.
  • the searched object information 60 may further include attribute information indicating attributes of the searched object.
  • attributes of the object to be searched the same attributes as those of the object to be found 20 described above can be handled. However, as for the information on the date and time, the date and time when the searched object is lost or when the searched object is lost is handled.
  • the searcher information 80 includes information about searchers. As described above, the searcher information 80 includes destination information. The destination information indicates an arbitrary destination for enabling the searcher terminal 110 of the corresponding searcher to receive the found object information 100 .
  • the found object information 100 is transmitted from the information providing device 2000 to the searcher terminal 110 by push notification.
  • the destination information is identification information of the searcher terminal 110 that enables push notification to the searcher terminal 110 .
  • a dedicated application hereinafter referred to as a search application
  • different identification information is assigned to each searcher terminal 110 in the search application. This identification information is used as destination information.
  • the destination information is not limited to the identification information of the searcher terminal 110 used for push notification.
  • the destination information may indicate an e-mail address, identification information of various SNS (Social Networking Service) accounts, or a phone number.
  • SNS Social Networking Service
  • the searcher information 80 may further include searcher attribute information.
  • searcher attribute information As the attributes of the searcher, the same attributes as those of the found object 20 described above can be handled.
  • the searcher information 80 preferably includes a corresponding searcher's face image (hereinafter referred to as searcher image).
  • searcher image is suitable for preventing spoofing by a searcher, as will be described later.
  • spoofing by a searcher means that a person unrelated to a searched object pretends to be a person related to the searched object.
  • a more specific example is the case of "a person unrelated to a lost child pretending to be the child's parent.”
  • the registration of the search information 50 is performed using, for example, the aforementioned search application.
  • the search application provides the searcher terminal 110 with an input screen for registering the search information 50 .
  • the searcher operates this input screen to register the search information 50 .
  • searcher information 80 when a searcher image is included in the searcher information 80, it is not desirable for the searcher to be able to register a photograph of a person other than himself/herself as the searcher image. Therefore, for example, it is preferable that the camera of the searcher terminal 110 is activated by the search application, and the image of the person captured by the camera is treated as the searcher image. By doing so, it becomes impossible to register a previously acquired image of another person as a searcher image, thereby preventing spoofing.
  • the liveness of the searcher may be detected by the search application.
  • the search application displays an instruction to perform a predetermined action on the screen, and determines whether or not the instructed action has been performed. Then, the search information 50 can be registered only when the instructed action is performed.
  • the predetermined action for example, an action of tilting the face in a predetermined direction, an action of blinking, or the like can be adopted.
  • Various existing techniques can be used as specific techniques for realizing liveness detection.
  • the registration of the search information 50 may be performed using something other than the search application.
  • the search information 50 may be registered via a website provided by the information providing device 2000, like the transmission of the inquiry request described above.
  • the determining unit 2040 determines whether or not there is an object to be searched that matches the object to be found 20 by using the image of the object to be found 40 and the search information 50 (S104). For example, for each piece of search information 50, the determination unit 2040 determines whether or not the searched object included in the searched object image corresponding to the search information 50 matches the discovered object 20 included in the discovered object image 40. judge. If there is a searched object image including a searched object that matches the discovered object 20 included in the discovered object image 40, the determination unit 2040 determines that there is a searched object that matches the discovered object 20. do.
  • a method for determining whether objects included in two images match each other includes: Various techniques can be employed. For example, the determination unit 2040 calculates the degree of similarity between the feature amount extracted from the image of the object to be searched and the feature amount extracted from the image 40 of the object to be found. Then, the determination unit 2040 determines that the searched object included in the searched object image matches the discovered object 20 included in the discovered object image 40 when the calculated similarity is equal to or greater than the threshold. On the other hand, when the degree of similarity is less than the threshold, the determination unit 2040 determines that the searched object included in the searched object image and the discovered object 20 included in the discovered object image 40 do not match.
  • a judgment model may be prepared in advance for judging whether or not the objects included in the two input images match each other.
  • the judgment model is composed of an arbitrary machine learning model (for example, a neural network such as CNN (Convolutional Neural Network)).
  • the determination unit 2040 inputs the to-be-discovered object image 40 and the searched-object image to the determination model. A determination result can be obtained as to whether or not the object to be searched matches. Therefore, the determination unit 2040 uses the determination model to determine whether or not the to-be-found object 20 included in the to-be-found object image 40 matches the to-be-searched object included in the to-be-searched object image. can be done.
  • attribute information may be further used for matching between the found object 20 and the searched object.
  • the determination unit 2040 uses attribute information of the discovered object 20 provided from the finder terminal 30 together with the discovered object image 40 to narrow down the searched object information 60 used for matching. Specifically, the determination unit 2040 identifies the searched object information 60 that indicates attribute information that matches or is similar to the attribute information of the found object 20, and uses the searched object image included in the searched object information 60. Then, matching between the found object 20 and the searched object is performed. By performing such narrowing down, the number of times of matching performed by the determination unit 2040 can be reduced. Therefore, it is possible to reduce the amount of time and computer resources required for matching processing.
  • the date and time indicated by the attribute information of the found object 20 and the date and time indicated by the attribute information of the searched object are different from each other. If it is equal to or less than a predetermined value, it is determined that they are similar.
  • various existing methods can be used as a specific method for determining matching or similarity of attributes.
  • the registration of the search information 50 by the searcher may be performed after the finder 10 provides the image 40 of the found object.
  • the information providing apparatus 2000 periodically repeats the determination of whether or not there is a searched object that matches the discovered object 20 (for example, once a minute). is preferred.
  • the matching execution interval may be constant, or may be changed as time passes (eg, set longer as time passes).
  • the transmitter 2060 provides the found object information 100 to the searcher corresponding to the searched object (S106).
  • the find object information 100 provided to the searcher preferably includes information that allows the searcher to confirm that the find object he is searching for matches the find object 20. be. Therefore, for example, the transmitting unit 2060 generates the discoverable object information 100 including the discoverable object image 40 .
  • the searcher browses the to-be-found object image 40 included in the to-be-found object information 100 so that the to-be-found object 20 included in the to-be-found object image 40 matches the object he is searching for. It is possible to determine whether there is
  • the discoverable object information 100 preferably includes information indicating the position of the discoverable object 20 . This is because the information indicating the position of the object 20 to be found allows the searcher to go to the location to pick up the object 20 to be found.
  • Information indicating the position of the discoverable object 20 is provided together with the discoverable object image 40 when the discoverer terminal 30 provides the information providing device 2000 with the discoverable object image 40, for example.
  • the position information for example, GPS (Global Positioning System) coordinates
  • the information representing the position of the discovered object 20 may be information manually input to the finder's terminal 30 (for example, text information representing a place name, address, etc.).
  • the position information added to the discoverable object image 40 may be replaced with information representing the position of the discoverable object 20. can be used as
  • the discovered object information 100 may include attribute information of the discovered object 20 provided from the finder terminal 30. Further, the discovered object information 100 may include the date and time when the discoverer 10 discovered the discovered object 20 . As this date and time, the date and time manually input by the discoverer 10, the date and time when the aforementioned inquiry request was sent, or the date and time when the discovered object image 40 was generated can be used.
  • the found object information 100 may include information about the discoverer 10.
  • the discovered object information 100 includes the identification information of the discoverer's terminal 30 and the destination of the discoverer 10 (e-mail address, telephone number, SNS account information, etc.).
  • the information providing device 2000 provides the found object information 100 to the searcher terminal 110 using the destination information described above. Specifically, the information providing apparatus 2000 acquires destination information from the searcher information 80 associated with the searched object information 60 of the searched object determined to match the found object 20 . The information providing device 2000 then transmits the searcher terminal 110 to the destination specified by the destination information.
  • the information providing apparatus 2000 performs push notification of the found object information 100 to the searcher terminal 110 by the method described above.
  • the found object information 100 may be transmitted to the searcher terminal 110 by e-mail, SNS direct message, or the like.
  • the transmission unit 2060 transmits a confirmation request to the finder terminal 30 before transmitting the discovered object information 100 from the information providing device 2000 to the searcher terminal 110.
  • the confirmation request is a request to have the object to be found 20 confirm whether or not the searcher specified as the recipient of the object to be found information 100 is suitable as the person who provides the object to be found information 100. is. For example, if the find object 20 is a child, the verification request is used to verify whether the seeker is related to the child (such as the child's parent or sibling).
  • the transmitting unit 2060 identifies the searcher information 80 associated with the searched item information 60 of the searched item determined to match the discovered item 20 . Then, the transmitting unit 2060 transmits a confirmation request including the searcher information indicated by the searcher information 80 to the finder terminal 30 .
  • the confirmation request includes a confirmation screen that can be operated using the discoverer's terminal 30.
  • the confirmation screen includes, for example, an input interface (eg, selection button) for selecting whether or not the searcher is suitable as a provider of the found object information 100 .
  • the confirmation screen also includes information about the searcher.
  • FIG. 5 is a diagram exemplifying a confirmation screen.
  • Confirmation screen 120 includes a display area 122 in which information about the searcher is displayed.
  • the display area 122 displays a searcher's face image (the above-described searcher image).
  • Information to be displayed in the display area 122 can be obtained from the searcher information 80 .
  • searcher's information provided to the finder's terminal 30 is not limited to the searcher's image.
  • searcher terminal 30 may be provided with searcher attribute information such as the searcher's name and age.
  • the confirmation screen 120 further includes a selection button 124 and a selection button 126.
  • the selection button 124 is selected when the searcher is suitable as the recipient of the found object information 100 .
  • the selection button 126 is selected when the searcher is not suitable as the recipient of the found object information 100 .
  • the finder terminal 30 transmits a response to the confirmation request according to the input on the confirmation screen 120. For example, this response indicates which of selection buttons 124 and 126 was selected.
  • the transmission unit 2060 receives this response. If the response indicates that the selection button 124 has been selected, the transmitting section 2060 transmits the discovered object information 100 to the finder's terminal 30 . On the other hand, if the response indicates that the selection button 126 has been selected, the transmitting section 2060 does not transmit the discovered object information 100 to the finder's terminal 30 .
  • the finder 10 shows the child the confirmation screen displayed on the finder's terminal 30 to see if the searcher is an appropriate person to search for the child, such as the child's parent. (in other words, whether the person is the right person to provide the child's information).
  • the finder 10 uses the finder's terminal 30. Press the select button 124 by operating. As a result, the found object information 100 is provided from the information providing apparatus 2000 to the searcher terminal 110 .
  • the searcher 10 determines whether the searcher is confirmed to be an appropriate person, such as when a child who sees the searcher image answers, "This is a stranger," the finder 10 The user operates the terminal 30 and presses the selection button 126 . As a result, the found object information 100 is not provided from the information providing apparatus 2000 to the searcher terminal 110 .
  • the searcher before providing the found object information 100 to the searcher, the searcher is asked to confirm whether he/she is an appropriate person by using the finder terminal 30, so that the search can be performed.
  • Information about the found object 20 will be provided to the searcher only if the person is the right person. In other words, the information on the discovered object 20 is not provided to the searcher for whom it is not appropriate to provide the information on the discovered object 20 . Therefore, spoofing by a malicious searcher can be prevented. Also, the personal information of the found object 20 can be appropriately protected.
  • the confirmation method using the confirmation screen is not limited to the method of directly selecting whether or not the searcher is an appropriate person.
  • the confirmation screen includes a plurality of face images, that is, the image of the searcher and the face images of other persons, so that the image of the appropriate person as the searcher can be selected from among them.
  • a button indicating that there is no image of a suitable person as a searcher may be further provided.
  • the response to the confirmation request represents the result of the selection on the confirmation screen. If the selected image is the searcher image, the searcher is said to be the right person. Therefore, the transmission unit 2060 transmits the found object information 100 to the searcher terminal 110 . On the other hand, if the selected image is not the image of the searcher, or if the answer that there is no image of a person suitable for the searcher is selected, it can be said that the searcher is not a suitable person. Therefore, the transmission unit 2060 does not transmit the found object information 100 to the searcher terminal 110 .
  • the confirmation request does not have to use an image.
  • the seeker information 80 may include questions (so-called "security questions") and answers to be sent to the find object 20 .
  • the transmission unit 2060 transmits a confirmation screen including security questions to the finder terminal 30 .
  • the discoverer 10 or the object to be found 20 uses the discoverer terminal 30 to input the answers to the security questions on the confirmation screen.
  • the transmission unit 2060 receives a response indicating the answer to the security question.
  • the transmission unit 2060 determines whether or not the answer indicated in the response matches the answer indicated in the searcher information 80 . If the answer indicated in the response matches the answer indicated in the searcher information 80 , the transmitting section 2060 transmits the found object information 100 to the searcher terminal 110 . On the other hand, if the answer indicated in the response does not match the answer indicated in the searcher information 80 , the transmitting section 2060 does not transmit the found object information 100 to the searcher terminal 110 . This method also ensures that only appropriate seekers are provided with the find information 100 .
  • the information providing device 2000 may provide the finder terminal 30 and the searcher terminal 110 with means for communicating between the finder 10 and the searcher.
  • the transmission unit 2060 sends messages such as bulletin boards and chat pages to the searcher's terminal 110 and the finder's terminal 30. , send the URL of a web page where you can exchange messages. By accessing this URL, the discoverer 10 and the searcher can communicate with each other using bulletin boards, chat pages, and the like. Therefore, it becomes easy to hand over the discovered object 20 from the finder 10 to the searcher.
  • the functions of the dedicated applications such as the query application and the search application described above may be used.
  • the transmitting unit 2060 allows the search application of the searcher terminal 110 and the inquiry application of the finder terminal 30 to communicate with the chat function or To enable connection by voice call function, etc. This can be realized, for example, by notifying the identification information of the inquiry application from the transmission unit 2060 to the search application, and by notifying the identification information of the search application from the transmission unit 2060 to the inquiry application.
  • the transmission unit 2060 transmits the account information of the finder 10 to the search application of the searcher terminal 110, and also transmits the account information of the searcher to the inquiry application of the finder terminal 30. do.
  • the transmission unit 2060 transmits the account information of the finder 10 to the search application of the searcher terminal 110, and also transmits the account information of the searcher to the inquiry application of the finder terminal 30. do.
  • Existing methods can be used as specific methods for exchanging messages and voice calls using user accounts.
  • the search information 50 for the find object that matches the find object 20 may not be registered. In this case, until the search information 50 is registered and the discovered object information 100 is provided to the searcher, the finder 10 continues to manage the discovered object 20 (continues to stay on the side of the discovered object 20 or keeping the find 20) is preferable. However, it may be difficult for the discoverer 10 to keep control of the discoverable object 20 . For example, assume that the object 20 to be found is a child and the finder 10 has to leave the place for some reason. In this case, it may be difficult for the discoverer 10 to leave the child alone or to take the child with him/her.
  • FIG. 6 is a block diagram illustrating the functional configuration of the information providing apparatus 2000 having the takeover processing unit 2080. As shown in FIG.
  • the takeover source discoverer terminal 30 and the takeover destination discoverer terminal 30 are referred to as a takeover source terminal and a takeover destination terminal, respectively.
  • the user of the takeover source terminal and the user of the takeover destination terminal are called a takeover source person and a takeover destination person, respectively.
  • the takeover processing unit 2080 takes over the management of the discoverable object 20 by changing the correspondence between the discoverable object image 40 and the terminal.
  • the acquisition unit 2020 acquires information that associates the to-be-discovered object image 40 received from the finder terminal 30 with the identification information of the finder terminal 30. , is stored in an arbitrary storage unit. This information is hereinafter referred to as "found object management information". If information other than the discovered object image 40 is provided for the discovered object 20, such as attribute information of the discovered object 20, this information is also included in the discovered object management information.
  • the identification information of the finder terminal 30 for example, the identification information assigned to the inquiry application installed in the finder terminal 30 or the identification information of the account of the finder 10 can be used.
  • the discoverer's terminal 30 and the discoverable object image 40 can be referred to in the query processing of the discoverable object 20 corresponding to the discoverable object image 40.
  • Terminal 30 is associated.
  • the finder's terminal 30 is associated with a state of "response to inquiries about the discovered object 20".
  • the handover processing unit 2080 receives a handover request requesting change of the finder terminal 30 associated with the discovered object image 40 .
  • the takeover request indicates the identification information of the takeover source terminal and the identification information of the takeover destination terminal.
  • the takeover processing unit 2080 identifies the discovered object management information indicating the identification information of the takeover source terminal, and changes the identification information of the discoverer terminal 30 in the discovered object management information to the identification information of the takeover destination terminal. By doing so, the correspondence between the discovered object image 40 and the finder terminal 30 can be changed. Therefore, the state of "response to inquiry about discovered object 20" is handed over from the handover source terminal to the handover destination terminal.
  • the inquiry application is provided with a function to display the identification information of the finder terminal 30 on which the inquiry application is installed.
  • the identification information is displayed as a character string representing the identification information or a code (two-dimensional code or the like) obtained by encoding the identification information.
  • the inquiry application is provided with a function of reading the identification information displayed by the inquiry application of the other finder's terminal 30 and transmitting a takeover request using the identification information and the own identification information.
  • the identification information of the takeover source terminal is displayed on the display device of the takeover source terminal. Then, the inquiry application of the takeover destination terminal reads the identification information displayed on the takeover source terminal. For example, reading of the identification information is performed using a camera provided in the takeover destination terminal. The inquiry application of the takeover destination terminal generates a takeover request indicating the identification information of the takeover destination terminal and the identification information of the takeover source terminal read from the takeover source terminal, and transmits it to the information providing apparatus 2000 .
  • the takeover request may be sent from the takeover source terminal.
  • the identification information of the takeover destination terminal displayed on the display device of the takeover destination terminal is read by the inquiry application of the takeover source terminal.
  • FIG. 7 is a diagram illustrating how the management of the discovered object 20 is taken over.
  • the takeover source terminal is the discoverer terminal 30-1.
  • the discoverable object management information 130 in which the discoverable object image I1, which is the discoverable object image 40 registered by the discoverer terminal 30-1, is associated with the identification information T1 of the discoverer terminal 30-1 is: Stored in the storage unit 140 .
  • a code 150 representing the identification information T2 of the takeover destination terminal is displayed on the display device of the discoverer terminal 30-2, which is the takeover destination terminal.
  • a takeover request indicating the identification information T1 of the takeover source terminal and the identification information T2 of the takeover destination terminal is transmitted from the discoverer terminal 30-1 to the information providing apparatus 2000. be.
  • the handover processing unit 2080 identifies the discovered object management information 130 that associates the identification information T1 with the discovered object image I1. Then, the handover processing unit 2080 changes the identification information of the finder's terminal 30 indicated by the discovered object management information 130 from T1 to T2. As a result, management of the discoverable object 20 corresponding to the discoverable object image I1 is handed over from the user of the discoverer terminal 30-1 to the user of the discoverer terminal 30-2.
  • the information providing device 2000 may assign identification information to the inquiry request, and use the identification information of the inquiry request to perform the above-described handover.
  • the acquiring unit 2020 assigns identification information to the inquiry request.
  • the acquisition unit 2020 stores the discovered object management information 130 in which the identification information of the inquiry request, the discovered object image 40, and the identification information of the finder terminal 30 are associated with each other in the storage unit.
  • the inquiry application that sent the inquiry request should be able to refer to the identification information of the inquiry request.
  • the inquiry application may be provided with the ability to display the identification information of the inquiry request.
  • the inquiry application of the takeover source terminal When taking over the management of the discovered object 20, the inquiry application of the takeover source terminal is used to display the identification information of the inquiry request on the display device of the takeover source terminal. Further, the inquiry application of the takeover destination terminal reads the identification information of this inquiry request. Then, the inquiry application of the takeover destination terminal generates a takeover request indicating the identification information of the inquiry request and the identification information of the takeover destination terminal, and transmits it to the information providing apparatus 2000 .
  • the handover processing unit 2080 identifies the found object management information 130 indicating the identification information of the received inquiry request. Then, the takeover processing unit 2080 changes the identification information of the finder terminal 30 indicated by the discovered object management information 130 to the identification information of the takeover destination terminal.
  • the transfer may be performed using the accounts of the transfer source and transfer destination.
  • the finder 10 sends an inquiry request from the finder terminal 30 while logged into the inquiry application.
  • the inquiry request then includes the identifying information of the finder's 10 account.
  • the acquisition unit 2020 that has received the inquiry request stores the identification information of the inquiry request, the identification information of the account of the finder 10, and the discovered object management information 130 in which the discovered object image 40 is associated in the storage unit.
  • the account of the discoverer 10 is associated with the inquiry process regarding the discovered object 20 .
  • the account of the finder 10 is associated with the status "serving query for find object 20".
  • the inquiry application is provided with a function to hand over the inquiry of the found object 20 between accounts.
  • the inquiry application of the takeover source terminal generates a takeover request indicating the account of the takeover destination person and transmits it to the information providing apparatus 2000 .
  • the handover processing unit 2080 transmits a handover approval request to the account of the handover destination person indicated in the handover request. As a result, an approval request is sent to the takeover destination terminal.
  • a selection screen On the transfer destination terminal that received the approval request, a selection screen will be displayed to select whether or not to approve the transfer.
  • the selection screen displays information on the account of the transfer source person, the found object image 40 associated with the inquiry to be transferred, and the like.
  • a response indicating the result of the selection is transmitted to the information providing device 2000 . If the response indicates acceptance of the takeover, the takeover processing unit 2080 replaces the account identification information associated with the identification information of the inquiry request in the discovered object management information 130 with the account identification information of the takeover destination person. change to By doing this, the account associated with the inquiry request in the found object management information 130 is changed from the account of the transfer source person to the account of the transfer destination person. As a result, the state of "inquiry about object to be found 20 being handled" is handed over from the account of the transfer source person to the account of the transfer destination person.
  • the searcher terminal 110 After transmitting the discovered object information 100 to the searcher terminal 110, there may be a situation in which the management of the discovered object 20 must be taken over.
  • information about the finder 10 for example, identification information of the finder terminal 30
  • the searcher terminal 110 is provided with information about the person to be taken over and the information about the discovered object 20. It is preferable to notify that control has been taken over.
  • the transmission unit 2060 transmits a notification to the searcher terminal 110 that management of the discovered object 20 has been handed over after handing over from the handover source terminal to the handover destination terminal using the various methods described above.
  • This notification includes various information about the successor person.
  • the information on the successor person is the same as the information on the discoverer 10 included in the found object information 100 .
  • search information 50 in which searched object information 60 including a face image of child B as a searched object image and searcher information 80 including a face image of parent A as a searcher image are associated with each other is stored in the storage unit 90 . Stored.
  • the inquiry request includes a photograph of the child B's face as the found object image 40 .
  • the information providing device 2000 searches the search information 50 stored in the storage unit 90 for the found object 20 that matches the child B. As a result, since there is a high degree of similarity between the searched object image, which is the facial image of child B, and the discovered object image 40, which is the facial image of child B, a searched object that matches the discovered object 20 is detected. .
  • the information providing apparatus 2000 acquires the face image of Parent A as the searcher image from the searcher information 80 associated with the searched object information 60 including the face image of Child B as the searched object image.
  • the information providing apparatus 2000 then transmits a confirmation request including the face image of Parent A to the terminal Tc, which is the transmission source of the inquiry request.
  • Person C shows Child B the face image of Parent A displayed on the display device of terminal Tc. Since parent A is the parent of child B, child B replies that he is his parent. Then, the person C operates the confirmation screen displayed on the terminal Tc and makes a reply to the effect that the information on the child B is permitted to be provided to the searcher. As a result, a response to the confirmation request is transmitted from the terminal Tc to the information providing apparatus 2000 .
  • the information providing device 2000 Upon receiving the response to the confirmation request, the information providing device 2000 transmits the found object information 100, which is information about the child B, to the terminal Ta of the parent A.
  • the found object information 100 includes the position information of the terminal Tc.
  • Parent A can grasp the position of child B by viewing the found object information 100 . Then, parent A picks up child B from the position shown in the found object information 100 and picks up child B from person C.
  • Parent A and Person C may appropriately exchange messages via a bulletin board provided by information providing apparatus 2000, exchange chats, or exchange voice calls. good.
  • the program includes instructions (or software code) that, when read into a computer, cause the computer to perform one or more functions described in the embodiments.
  • the program may be stored in a non-transitory computer-readable medium or tangible storage medium.
  • computer readable media or tangible storage media may include random-access memory (RAM), read-only memory (ROM), flash memory, solid-state drives (SSD) or other memory technology, CDs - ROM, digital versatile disc (DVD), Blu-ray disc or other optical disc storage, magnetic cassette, magnetic tape, magnetic disc storage or other magnetic storage device.
  • the program may be transmitted on a transitory computer-readable medium or communication medium.
  • transitory computer readable media or communication media include electrical, optical, acoustic, or other forms of propagated signals.
  • Appendix 1 an obtaining means for obtaining a first image including a first object from a first terminal; determining means for determining whether or not the second object identical to the first object exists using the information that associates the second object with the second terminal and the first image; and transmitting means for transmitting information about the first object to the second terminal corresponding to the second object determined to be the same as the first object.
  • Appendix 2 the first object is a discoverable object; the second object is a search target; The information providing apparatus according to appendix 1, wherein the second terminal associated with the second object is a terminal of a searcher searching for the second object.
  • the transmission means is sending a confirmation request containing information about a searcher to the first terminal; The provision of information according to appendix 2, wherein when information indicating that the searcher is a suitable searcher is received from the first terminal, the information regarding the first object is transmitted to the second terminal.
  • the confirmation request includes an image of the searcher and an image other than the searcher, 3.
  • the acquisition means acquires information representing the position of the first object, 5.
  • the information providing apparatus according to any one of Appendices 1 to 4, wherein the transmitting means includes information indicating the position of the first object in the information about the first object.
  • the acquisition means associates the first image with identification information of a discoverer who discovered the first object and stores the identification information in a storage unit; A handover process of acquiring a request indicating the identification information of the finder and the identification information of the person to be handed over, and changing the identification information of the person associated with the first image in the storage unit to the identification information of the person to be handed over. 6.
  • the information providing device according to any one of Appendices 1 to 5, having means.
  • the information providing apparatus treats an object included in a predetermined range in the first image as the first object.
  • Appendix 8 a obtaining step of obtaining a first image including a first object from a first terminal; a determination step of determining whether or not the second object identical to the first object exists, using information associating a second object with a second terminal and the first image; and a sending step of sending information about said first object to said second terminal corresponding to said second object determined to be identical to said first object.
  • the first object is a discoverable object; the second object is a search target;
  • the information providing method according to appendix 8 wherein the second terminal associated with the second object is a terminal of a searcher searching for the second object.
  • (Appendix 10) In the transmitting step, sending a confirmation request containing information about a searcher to the first terminal; 9.
  • the confirmation request includes an image of the searcher and an image other than the searcher, 11.
  • the information providing method according to appendix 10, wherein when a predetermined input indicating that the image of the searcher has been selected is received, it is determined that the information indicating that the searcher is the appropriate searcher has been received. (Appendix 12) obtaining information representing the position of the first object in the obtaining step; 12. The information providing method according to any one of Appendices 8 to 11, wherein in the transmitting step, information indicating the position of the first object is included in the information about the first object.
  • the first image is associated with identification information of a discoverer who discovered the first object and stored in a storage unit;
  • Appendix 14 14. The information providing method according to any one of appendices 8 to 13, wherein in the determining step, an object included in a predetermined range in the first image is treated as the first object.
  • (Appendix 15) a obtaining step of obtaining a first image including a first object from a first terminal; a determination step of determining whether or not the second object identical to the first object exists, using information associating a second object with a second terminal and the first image; and a sending step of sending information about the first object to the second terminal corresponding to the second object determined to be the same as the first object.
  • Temporary Computer Readable Medium (Appendix 16) the first object is a discoverable object; the second object is a search target; 16. The computer-readable medium of Clause 15, wherein the second terminal associated with the second object is a terminal of a searcher searching for the second object.
  • the first image is associated with identification information of a discoverer who discovered the first object and stored in a storage unit; A handover process of acquiring a request indicating the identification information of the finder and the identification information of the person to be handed over, and changing the identification information of the person associated with the first image in the storage unit to the identification information of the person to be handed over.

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Economics (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

情報提供装置(2000)は、発見者端末(30)から、被発見物(20)の画像である被発見物画像(40)を取得する。情報提供装置(2000)は、被捜索物情報(60)と捜索者情報(80)とを対応づけている捜索情報(50)、及び被発見物画像(40)とを用いて、被発見物(20)とマッチする被捜索物が存在するか否かを判定する。被発見物(20)とマッチする被捜索物が存在する場合、情報提供装置(2000)は、その捜索物に対応づけられている捜索者の捜索者端末(110)に対して、被発見物情報(100)を送信する。

Description

情報提供装置、情報提供方法、及び非一時的なコンピュータ可読媒体
 本開示は画像を利用した被捜索物の捜索に関する。
 画像を利用して被捜索物を捜索する技術が開発されている。例えば特許文献1は、捜索依頼者の端末から行方不明者の顔画像を取得し、その顔画像を利用して、その行方不明者が含まれる画像を画像ストレージから検出する技術が開発されている。ここで、画像ストレージには、第3者によってアップロードされた画像が格納されている。
特開2021-149237号公報
 特許文献1において、第3者によってアップロードされる画像は、第3者によって任意に撮像されたシーンの画像であり、被捜索物を含む蓋然性が低い。本開示はこのような課題に鑑みてなされたものであり、その目的の一つは、画像を利用して被捜索物を捜索する新たな技術を提供することである。
 本開示の情報提供装置は、第1オブジェクトを含む第1画像を第1端末から取得する取得手段と、第2オブジェクトと第2端末とを対応づけた情報、及び前記第1画像を用いて、前記第1オブジェクトと同一の前記第2オブジェクトが存在するか否かを判定する判定手段と、前記第1オブジェクトと同一であると判定された前記第2オブジェクトに対応する前記第2端末へ、前記第1オブジェクトに関する情報を送信する送信手段と、を有する。
 本開示の情報提供方法は、コンピュータによって実行される。当該方法は、第1オブジェクトを含む第1画像を第1端末から取得する取得ステップと、第2オブジェクトと第2端末とを対応づけた情報、及び前記第1画像を用いて、前記第1オブジェクトと同一の前記第2オブジェクトが存在するか否かを判定する判定ステップと、前記第1オブジェクトと同一であると判定された前記第2オブジェクトに対応する前記第2端末へ、前記第1オブジェクトに関する情報を送信する送信ステップと、を有する。
 本開示の非一時的なコンピュータ可読媒体は、本開示の情報提供方法をコンピュータに実行させるプログラムを格納している。
 本開示によれば、画像を利用して被捜索物を捜索する新たな技術が提供される。
実施形態の情報提供装置の動作の概要を例示する図である。 情報提供装置の機能構成を例示するブロック図である。 情報提供装置を実現するコンピュータのハードウエア構成を例示するブロック図である。 情報提供装置によって実行される処理の流れを例示するフローチャートである。 確認画面を例示する図である。 引き継ぎ処理部を有する情報提供装置の機能構成を例示するブロック図である。 被発見物20の管理が引き継がれる様子を例示する図である。
 以下では、本開示の実施形態について、図面を参照しながら詳細に説明する。各図面において、同一又は対応する要素には同一の符号が付されており、説明の明確化のため、必要に応じて重複説明は省略される。また、特に説明しない限り、所定値や閾値などといった予め定められている値は、その値を利用する装置からアクセス可能な記憶装置などに予め格納されている。さらに、特に説明しない限り、記憶部は、1つ以上の任意の数の記憶装置によって構成される。
<概要>
 図1は、実施形態の情報提供装置2000の概要を例示する図である。ここで、図1は、情報提供装置2000の概要の理解を容易にするための図であり、情報提供装置2000の動作は、図1に示したものに限定されない。
 情報提供装置2000は、被捜索物を探している捜索者に対する情報提供に利用される。ここで、1つ以上の被捜索物それぞれについて、被捜索物に関する情報である被捜索物情報60と、その被捜索物を捜索している捜索者に関する情報である捜索者情報80とを対応づけた捜索情報50が、予め記憶部90に登録されている。
 被捜索物は、捜索者によって探されている任意の物体である。例えば被捜索物は、迷子の子供(例えば、操作役者の子供や孫など)である。その他にも例えば、被捜索物は、ペットや任意の遺失物であってもよい。
 被捜索物情報60は、少なくとも、被捜索物が含まれる画像である被捜索物画像を含む。捜索者情報80は、少なくとも、捜索者へ情報を提供する際の宛先を表す宛先情報を含む。記憶部90は、例えば、情報提供装置2000からアクセス可能なデータベースである。
 例えば後述するように、捜索者情報80は、捜索者によって利用されるコンピュータである捜索者端末110から提供される。捜索者端末110は、例えば、捜索者が所有するスマートフォンなどの携帯端末である。
 情報提供装置2000は、発見者10によって発見された被発見物20とマッチする被捜索物が存在する場合に、その被捜索物に対応する捜索者に対して、被発見物20に関する情報である被発見物情報100を提供する。そのために、情報提供装置2000は、発見者端末30から被発見物画像40を取得する。発見者端末30は、発見者10によって利用される任意のコンピュータである。例えば発見者端末30は、発見者10が所有するスマートフォンなどの携帯端末である。
 被発見物20を発見した発見者10は、発見者端末30を利用して、情報提供装置2000に対し、被発見物画像40を送信する。被発見物画像40は、被発見物20が含まれる画像である。例えば被発見物20が人である場合、被発見物画像40は、被発見物20の顔画像であることが好ましい。ここで、人物の顔画像とは、その人物の顔を含む画像を意味する。
 例えば被発見物画像40は、発見者端末30に設けられているカメラで発見者10を撮像することによって生成される。ただし、被発見物画像40の生成に利用されるカメラは任意のカメラでよく、発見者端末30に設けられているカメラには限定されない。
 情報提供装置2000は、発見者端末30から取得した被発見物画像40と、各捜索情報50とを用いて、被発見物20とマッチする被捜索物が存在するか否かを判定する。被発見物20とマッチする被捜索物が存在する場合、情報提供装置2000は、被発見物20に関する情報である被発見物情報100を、被発見物20とマッチする被捜索物に対応する捜索者へ提供する。
 ここで、「被発見物20とマッチする被捜索物」とは、被発見物20と一致する蓋然性が高い被捜索物である。すなわち、被発見物20と被捜索物とが互いにマッチすることは、被発見物20と被捜索物とが互いに同一の物である蓋然性が高いことを意味する。後述するように、例えば、被発見物画像40から抽出される特徴量と、被捜索物画像から抽出される特徴量との類似度が高い場合に、その被発見物画像40に含まれる被発見物20と、その被捜索物画像に含まれる被捜索物情報60とがマッチすると判定される。
<作用効果の例>
 画像を利用して被捜索物を検出する方法として、捜索者によって提供された被捜索物の画像を利用して、被捜索物を監視カメラの映像から検出するという方法が考えられる。しかしながら、監視カメラは意図的に被捜索物を撮像するように構成されているものではないため、監被カメラの映像には、被捜索物とは関係ないシーンが大量に含まれる。よって、監視カメラの映像から被捜索物を検出する場合、処理対象の画像が大量にあるため、検出処理に要する時間が長くなったり、検索処理に要する計算機リソースの量が多くなったりするという問題がある。また、被捜索物が監視カメラの撮像範囲に入らなかった場合には、被捜索物を検出できないこともある。
 ここで、特許文献1では、第3者によって撮像された画像を監視カメラの映像と同様に扱えるようにすることで、被捜索物の捜索範囲を拡げることにより、被捜索物を検出できる蓋然性を高めている。しかしながら、特許文献1において第3者によって撮像された画像も、被捜索物を意図的に含めるものではない。よって、被捜索物とは関係ないシーンが撮像された画像が大半を占めていると考えられる。このことから、特許文献1の発明においても、検出処理に要する時間が長くなったり、検索処理に要する計算機リソースの量が多くなったりするという問題がある。
 この点、本実施形態の情報提供装置2000では、捜索者から提供された被捜索物の画像(被捜索物画像)と、発見者10によって提供された被発見物20の画像である被発見物画像40とを利用したマッチングにより、被発見物20とマッチする被捜索物が特定される。ここで、被発見物画像40と被捜索物画像はいずれも、捜索の目的で提供される画像である。具体的には、被発見物画像40は、捜索者によって捜索されていると考えられる被発見物20の画像であり、被捜索物画像は、捜索者によって捜索されている被捜索物の画像である。よって、情報提供装置2000によれば、捜索に関係ないシーンの画像が多く含まれる監視カメラの映像などを利用するケースと比較し、被捜索物の検出に要する時間が短いという利点や、被捜索物の検出に要する時間が短いという利点がある。
 また、特許文献1における第3者は、任意に撮影した画像を提供しており、被捜索物の捜索に積極的に貢献することができない。これに対し、情報提供装置2000では、第3者である発見者10は、発見した被発見物20の画像を情報提供装置2000へ提供するという形で、被捜索物の捜索に積極的に貢献することができる。例えば被発見物20が迷子の子供であるとする。この場合、迷子の子供を発見した第3者は、その子供の画像を情報提供装置2000へ提供することで、その子供を探していると考えられる親などに対して、積極的にその子供に情報を提供できる。このように、情報提供装置2000によれば、親切な第3者からの情報提供を活用して被捜索物を捜索することで、捜索者が被捜索物をより早くかつ高い確率で発見することができるようになる。
 以下、本実施形態の情報提供装置2000について、より詳細に説明する。
<機能構成の例>
 図2は、実施形態の情報提供装置2000の機能構成を例示するブロック図である。情報提供装置2000は、取得部2020、判定部2040、及び送信部2060を有する。取得部2020は、被発見物画像40を取得する。判定部2040は、被発見物画像40と捜索情報50とを用いて、被発見物20とマッチする被捜索物が存在するか否かを判定する。送信部2060は、被発見物20とマッチする被捜索物が存在する場合、被発見物20とマッチする被捜索物に対応する捜索者へ、被発見物20に関する被発見物情報100を提供する。
<ハードウエア構成の例>
 情報提供装置2000の各機能構成部は、各機能構成部を実現するハードウエア(例:ハードワイヤードされた電子回路など)で実現されてもよいし、ハードウエアとソフトウエアとの組み合わせ(例:電子回路とそれを制御するプログラムの組み合わせなど)で実現されてもよい。以下、情報提供装置2000の各機能構成部がハードウエアとソフトウエアとの組み合わせで実現される場合について、さらに説明する。
 図3は、情報提供装置2000を実現するコンピュータ1000のハードウエア構成を例示するブロック図である。コンピュータ1000は、任意のコンピュータである。例えばコンピュータ1000は、PC(Personal Computer)やサーバマシンなどといった、据え置き型のコンピュータである。その他にも例えば、コンピュータ1000は、スマートフォンやタブレット端末などといった可搬型のコンピュータである。コンピュータ1000は、情報提供装置2000を実現するために設計された専用のコンピュータであってもよいし、汎用のコンピュータであってもよい。
 例えば、コンピュータ1000に対して所定のアプリケーションをインストールすることにより、コンピュータ1000で、情報提供装置2000の各機能が実現される。上記アプリケーションは、情報提供装置2000の各機能構成部を実現するためのプログラムで構成される。なお、上記プログラムの取得方法は任意である。例えば、当該プログラムが格納されている記憶媒体(DVD ディスクや USB メモリなど)から、当該プログラムを取得することができる。その他にも例えば、当該プログラムが格納されている記憶装置を管理しているサーバ装置から、当該プログラムをダウンロードすることにより、当該プログラムを取得することができる。
 コンピュータ1000は、バス1020、プロセッサ1040、メモリ1060、ストレージデバイス1080、入出力インタフェース1100、及びネットワークインタフェース1120を有する。バス1020は、プロセッサ1040、メモリ1060、ストレージデバイス1080、入出力インタフェース1100、及びネットワークインタフェース1120が、相互にデータを送受信するためのデータ伝送路である。ただし、プロセッサ1040などを互いに接続する方法は、バス接続に限定されない。
 プロセッサ1040は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、又は FPGA(Field-Programmable Gate Array)などの種々のプロセッサである。メモリ1060は、RAM(Random Access Memory)などを用いて実現される主記憶装置である。ストレージデバイス1080は、ハードディスク、SSD(Solid State Drive)、メモリカード、又は ROM(Read Only Memory)などを用いて実現される補助記憶装置である。
 入出力インタフェース1100は、コンピュータ1000と入出力デバイスとを接続するためのインタフェースである。例えば入出力インタフェース1100には、キーボードなどの入力装置や、ディスプレイ装置などの出力装置が接続される。
 ネットワークインタフェース1120は、コンピュータ1000をネットワークに接続するためのインタフェースである。このネットワークは、LAN(Local Area Network)であってもよいし、WAN(Wide Area Network)であってもよい。
 ストレージデバイス1080は、情報提供装置2000の各機能構成部を実現するプログラム(前述したアプリケーションを実現するプログラム)を記憶している。プロセッサ1040は、このプログラムをメモリ1060に読み出して実行することで、情報提供装置2000の各機能構成部を実現する。
 情報提供装置2000は、1つのコンピュータ1000で実現されてもよいし、複数のコンピュータ1000で実現されてもよい。後者の場合において、各コンピュータ1000の構成は同一である必要はなく、それぞれ異なるものとすることができる。
<処理の流れ>
 図4は、実施形態の情報提供装置2000によって実行される処理の流れを例示するフローチャートである。取得部2020は被発見物画像40を取得する(S102)。判定部2040は、被発見物画像40及び捜索情報50を用いて、被発見物20とマッチする被捜索物が存在するか否かを判定する(S104)。被発見物20とマッチする被捜索物が存在する場合(S104:YES)、送信部2060は、その被捜索物に対応する捜索者へ、被発見物情報100を提供する(S106)。
 ここで、被発見物20とマッチする被捜索物が存在しない場合(S104の結果がNOのケース)において送信部2060によって行われる処理は任意である。例えば送信部2060は、発見者端末30へ、被発見物20とマッチする被捜索物が存在しないことを示す通知を送信する。
<被発見物画像40の取得:S102>
 取得部2020は、発見者端末30から被発見物画像40を取得する(S102)。被発見物画像40は、発見者端末30から情報提供装置2000へ送信される。例えば情報提供装置2000は、発見者端末30から、被発見物画像40が含まれる照会リクエストを受信することにより、被発見物画像40を取得する。照会リクエストは、被発見物20が捜索対象として登録されていないかどうかを照会するためのリクエストである。
 照会リクエストの送信は、例えば、発見者端末30にインストールされている専用のアプリケーション(以下、照会アプリケーション)を用いて行われる。照会アプリケーションは、発見者端末30に対し、被発見物20に関する情報を入力するための入力画面を提供する。発見者10は、この入力画面を操作することで、被発見物20に関する情報を含む照会リクエストを情報提供装置2000へ送信する。
 例えば、発見者端末30で入力画面を操作することにより、発見者端末30のカメラが起動される。発見者10は、起動されたカメラを操作して被発見物20を撮像する。これにより、被発見物画像40が生成される。
 ここで、発見者端末30のカメラが起動されたら、カメラによって撮像されているシーンが、入力画面にリアルタイムで表示されるようにすることが好適である。言い換えれば、カメラが自動的に繰り返し撮像を行い、新しい画像が生成される度にその画像が入力画面に表示されるようにする。この場合、入力画面に対して特定の操作(例えば、撮影ボタンの押下)が行われたことに応じて、当該操作が行われた時にカメラによって生成された画像が、被発見物画像40として扱われる。
 ここで、入力画面には、カメラによって撮像されているシーンに重ねて、被発見物20を適切に撮像するためのガイドが表示されることが好適である。例えばガイドは、所定の形状の枠である。ガイドの形状は、例えば矩形である。また、被発見物20として人を扱う場合、ガイドの形状は、人の顔の輪郭を表す形状であってもよい。
 判定部2040は、被発見物画像40に含まれる画像領域のうち、ガイドの中に含まれる画像領域を、被発見物20を表す画像領域として扱う。そこで発見者10は、ガイドの中に収まる範囲で、被発見物20を可能な限り大きく撮像する。このように、入力画面にガイドを設けることで、被発見物20の特徴量を精度良く抽出可能な被発見物画像40を、発見者10が容易に撮像できるようになる。
 また、発見者10は、入力画面を操作して、被発見物20の属性を示す属性情報を入力してもよい。この場合、照会リクエストには、被発見物画像40に加え、被発見物20の属性情報が含まれる。
 被発見物20の属性としては、様々なものを扱うことができる。被発見物20が人である場合、被発見物20の属性として、被発見物20の名前、年齢、住所、日時(例えば、迷子になった日時)、又は外見の特徴(身長、服装、所持している物、又は身につけている物など)などを扱うことができる。被発見物20が人以外の物である場合、被発見物20の属性として、被発見物20の名前や外見の特徴(色や付属物など)などを扱うことができる。また、被発見物20として複数の種類を扱うことができる場合、被発見物20の属性として、被発見物20の種類(人、財布、時計、又はスマートフォンなど)を扱うことができる。
 発見者端末30から情報提供装置2000へ被発見物画像40を提供する方法は、照会アプリケーションを利用する方法に限定されない。例えば、情報提供装置2000に対して被発見物画像40を提供するための Web サイトが設けられていてもよい。この場合、発見者端末30のブラウザソフトウエアで当該 Web サイトへアクセスすることにより、前述した入力画面を表す Web ページが発見者端末30へ提供される。発見者10は、この入力画面を操作することにより、発見者端末30から情報提供装置2000へ、被発見物画像40を含む照会リクエストを送信する。
 ここで、照会リクエストの送信が行われた後、被発見物画像40が発見者端末30の中に残らないようにすることが好適である。こうすることで、被発見物20の個人情報やプライバシーを保護することができる。例えば照会アプリケーションは、照会リクエストを送信した後、発見者端末30から被発見物画像40を削除する処理を行う。その他にも例えば、照会アプリケーションは、カメラによって生成された被発見物画像40を、照会アプリケーションに割り当てられた一時的なメモリ領域に格納することで、そのメモリ領域が解放されたことに応じて、被発見物画像40が自動的に削除されるようにしてもよい。
<捜索情報50について>
 捜索情報50は、被捜索物と、その被捜索物を探している捜索者とを対応づけた情報である。より具体的には、捜索情報50は、被捜索物に関する情報である被捜索物情報60と、捜索者に関する情報である捜索者情報80とを対応づけている。前述したように、被捜索物情報60は少なくとも、被捜索物画像を含む。
 被捜索物情報60は、さらに、被捜索物の属性を示す属性情報を含んでもよい。被捜索物の属性としては、前述した被発見物20の属性と同様のものを扱うことができる。ただし、日時に関する情報ついては、被捜索物とはぐれたり、被捜索物を無くしたりした日時が扱われる。
 捜索者情報80は、捜索者に関する情報を含む。前述したように、捜索者情報80には、宛先情報が含まれる。宛先情報は、対応する捜索者の捜索者端末110で被発見物情報100を受信できるようにするための、任意の宛先を示す。
 例えば被発見物情報100が、プッシュ通知により、情報提供装置2000から捜索者端末110へ送信されるとする。この場合、宛先情報は、捜索者端末110へのプッシュ通知を可能とする、捜索者端末110の識別情報である。例えば捜索者端末110に、捜索情報50の登録や被発見物情報100の閲覧を行うための専用アプリケーション(以下、捜索アプリケーション)がインストールされているとする。この場合、捜索アプリケーションにおいて、捜索者端末110ごとに異なる識別情報が割り当てられる。そして、この識別情報が宛先情報として利用される。
 宛先情報は、プッシュ通知に利用される捜索者端末110の識別情報に限定されない。例えば宛先情報は、メールアドレス、種々の SNS(Social Networking Service)のアカウントの識別情報、又は電話番号を示してもよい。
 捜索者情報80は、さらに、捜索者の属性情報を含んでもよい。捜索者の属性としては、前述した被発見物20の属性と同様のものを扱うことができる。
 捜索者情報80は、対応する捜索者の顔画像(以下、捜索者画像)を含むことが好適である。例えば捜索者画像は、後述するように、捜索者によるなりすましの防止を実現するために好適である。ここで、捜索者によるなりすましとは、被捜索物と関係のない人物が、被捜索物と関係のある人物を装うことを意味する。より具体的な例は、「迷子の子供と関係のない人物がその子供の親を装う」といったケースである。
 捜索情報50の登録は、例えば、前述した捜索アプリケーションを利用して行われる。捜索アプリケーションは、捜索情報50を登録するための入力画面を捜索者端末110に提供する。捜索者は、この入力画面を操作して、捜索情報50の登録を行う。
 ここで、捜索者情報80に捜索者画像を含める場合に、捜索者が自分以外の人物の写真を捜索者画像と登録できることは好ましくない。そこで例えば、捜索アプリケーションによって捜索者端末110のカメラが起動されるようにし、そのカメラによって撮像された人物の画像を、捜索者画像として扱うようにすることが好適である。このようにすることで、予め入手しておいた他人の画像を捜索者画像として登録することができなくなるため、なりすましを防止することができる。
 その他にもたとえば、捜索アプリケーションによって捜索者のライブネス検知が行われるようにしてもよい。具体的には、捜索アプリケーションは、所定の動作を行う指示を画面に表示し、指示した動作が行われたかどうかの判定を行う。そして、指示した動作が行われた場合のみ、捜索情報50が登録できるようにする。所定の動作としては、例えば、顔を所定の方向に傾ける動作やまばたきをする動作などを採用することができる。なお、ライブネス検知を実現する具体的な手法には、既存の種々の手法を利用することができる。
 捜索情報50の登録は、捜索アプリケーション以外を利用して行われてもよい。例えば前述した照会リクエストの送信のように、情報提供装置2000によって提供される web サイトを介して、捜索情報50の登録が行われてもよい。
<マッチング:S104>
 判定部2040は、被発見物画像40と捜索情報50を利用して、被発見物20とマッチする被捜索物が存在するか否かを判定する(S104)。例えば判定部2040は、各捜索情報50について、その捜索情報50に対応する被捜索物画像に含まれる被捜索物と、被発見物画像40に含まれる被発見物20とがマッチするか否かを判定する。そして、被発見物画像40に含まれる被発見物20とマッチする被捜索物を含む被捜索物画像が存在する場合、判定部2040は、被発見物20とマッチする被捜索物が存在すると判定する。
 ここで、2つの画像に含まれる物体が互いにマッチするか否かを判定する方法(言い換えれば、2つの画像に含まれる物体が互いに同一の物体であるか否かを判定する方法)には、種々の手法を採用することができる。例えば判定部2040は、被捜索物画像から抽出される特徴量と、被発見物画像40から抽出される特徴量との類似度を算出する。そして、判定部2040は、算出された類似度が閾値以上である場合に、被捜索物画像に含まれる被捜索物と被発見物画像40に含まれる被発見物20とがマッチすると判定する。一方、類似度が閾値未満である場合、判定部2040は、被捜索物画像に含まれる被捜索物と被発見物画像40に含まれる被発見物20とがマッチしないと判定する。
 その他にも例えば、入力された2つの画像に含まれる物体が互いにマッチするか否かを判定する判定モデルが予め用意されていてもよい。判定モデルは、任意の機械学習モデル(例えば CNN(Convolutional Neural Network)などのニューラルネットワーク)で構成される。判定部2040は、被発見物画像40と被捜索物画像を判定モデルに入力することにより、判定モデルから、その被発見物画像40に含まれる被発見物20とその被捜索物画像に含まれる被捜索物とがマッチするか否かの判定結果を得ることができる。そのため、判定部2040は、判定モデルを利用して、その被発見物画像40に含まれる被発見物20とその被捜索物画像に含まれる被捜索物とがマッチするか否かを判定することができる。
 被発見物20と被捜索物とのマッチングには、これらの属性情報がさらに利用されてもよい。例えば判定部2040は、被発見物画像40と共に発見者端末30から提供された被発見物20の属性情報を用いて、マッチングに利用する被捜索物情報60の絞り込みを行う。具体的には、判定部2040は、被発見物20の属性情報と一致又は類似する属性情報を示す被捜索物情報60を特定し、その被捜索物情報60に含まれる被捜索物画像を用いて、被発見物20と被捜索物とのマッチングを行う。このような絞り込みを行うことによれば、判定部2040によって実行されるマッチングの回数を減らすことができる。そのため、マッチング処理に要する時間や計算機リソースの量を減らすことができる。
 なお、被発見物20の属性情報が示す日時と被捜索物の属性情報が示す日時(例えば、子供が親とはぐれた日時と、親が子供とはぐれた日時)は、例えば、これらの差分が所定値以下である場合に、類似していると判定される。その他、属性の一致や類似を判定する具体的な手法には、既存の種々の手法を利用することができる。
 ここで、捜索者による捜索情報50の登録が、発見者10による被発見物画像40の提供よりも後に行われることがある。この場合、発見者端末30から情報提供装置2000へ被発見物画像40が提供されたタイミングでは、被発見物20にマッチする被捜索物が存在しないこととなる。そのため、情報提供装置2000は、被発見物20にマッチする被捜索物が存在するか否かの判定を、一度だけではなく、定期的に繰り返す(例えば1分に1度の頻度で実行する)ことが好適である。この際、マッチングの実行間隔は一定であってもよいし、時間が経つごとに変更されてもよい(例えば、時間が経つにつれてより長く設定される)。
<被発見物情報100の提供:S106>
 被発見物20とマッチする被捜索物が存在する場合、送信部2060は、その被捜索物に対応する捜索者に被発見物情報100を提供する(S106)。捜索者に提供される被発見物情報100には、捜索者が、自身が捜索している被捜索物と被発見物20とが一致していることを確認できる情報が含まれることが好適である。そこで例えば、送信部2060は、被発見物画像40を含む被発見物情報100を生成する。捜索者は、被発見物情報100に含まれる被発見物画像40を閲覧することで、被発見物画像40に含まれる被発見物20が、自身が捜索している被捜索物と一致しているか否かを判断することができる。
 その他にも例えば、被発見物情報100には、被発見物20の位置を示す情報が含まれることが好適である。被発見物20の位置を示す情報を利用することで、捜索者がその場所へ被発見物20を引き取りに行くことができるためである。
 被発見物20の位置を示す情報は、例えば、発見者端末30から情報提供装置2000へ被発見物画像40を提供する際に、被発見物画像40と共に提供される。被発見物20の位置を示す情報としては、例えば、発見者端末30の位置情報(例えば GPS(Global Positioning System)座標)を利用することができる。その他にも例えば、被発見物20の位置を表す情報は、発見者端末30に対して手動で入力された情報(例えば、場所の名称や住所などを表すテキスト情報)であってもよい。その他にもたとえば、被発見物画像40が、位置情報が付加された画像(geotagged image)である場合、被発見物画像40に付加されている位置情報を、被発見物20の位置を表す情報として利用することができる。
 その他にも例えば、被発見物情報100には、発見者端末30から提供された被発見物20の属性情報が含まれてもよい。また、被発見物情報100には、発見者10によって被発見物20が発見された日時が含まれてもよい。この日時としては、発見者10によって手動で入力される日時、前述した照会リクエストが送信された日時、又は被発見物画像40が生成された日時などを用いることができる。
 被発見物情報100には、発見者10に関する情報が含まれてもよい。例えば、発見者端末30の識別情報や、発見者10の宛先(メールアドレス、電話番号、又は SNS のアカウント情報など)が、被発見物情報100に含まれる。
 情報提供装置2000は、前述した宛先情報を利用して、捜索者端末110へ被発見物情報100を提供する。具体的には情報提供装置2000は、被発見物20とマッチすると判定された被捜索物の被捜索物情報60と対応づけられている捜索者情報80から、宛先情報を取得する。そして、情報提供装置2000は、その宛先情報で特定される宛先へ、捜索者端末110を送信する。
 ここで、特定の宛先へ情報を送信する方法には、その宛先に応じた種々の手法を利用できる。例えば情報提供装置2000は、前述した方法により、捜索者端末110に対して、被発見物情報100のプッシュ通知を行う。その他にも例えば、メールや SNS のダイレクトメッセージなどにより、捜索者端末110に対して被発見物情報100を送信してもよい。
<<捜索者についての確認>>
 前述したように、情報提供装置2000を利用する際、悪意のある捜索者によるなりすましを防止できることが好適である。そこで、被発見物20が人である場合、送信部2060は、情報提供装置2000から捜索者端末110へ被発見物情報100を送信する前に、発見者端末30に対し、確認リクエストを送信してもよい。確認リクエストは、被発見物情報100の提供先として特定された捜索者が、被発見物情報100を提供する人物として適切であるか否かを、被発見物20に確認してもらうためのリクエストである。例えば、被発見物20が子供である場合、捜索者がその子供の関係者(その子の親や兄弟など)であるか否かが、確認リクエストを利用して確認される。
 例えば送信部2060は、被発見物20とマッチすると判定された被捜索物について、その被捜索物の被捜索物情報60と対応づけられている捜索者情報80を特定する。そして、送信部2060は、その捜索者情報80によって示されている捜索者の情報を含めた確認リクエストを、発見者端末30へ送信する。
 例えば確認リクエストは、発見者端末30を利用して操作可能な確認画面を含む。確認画面は、例えば、捜索者が被発見物情報100の提供先として適切であるか否かを選択するための入力インタフェース(例えば選択ボタン)を含む。また、確認画面は、捜索者に関する情報を含む。
 図5は、確認画面を例示する図である。確認画面120は、捜索者に関する情報が表示される表示エリア122を含む。図5の例において、表示エリア122には、捜索者の顔画像(前述した捜索者画像)が表示されている。表示エリア122に表示させる情報は、捜索者情報80から得ることができる。
 発見者端末30へ提供する捜索者の情報は、捜索者画像に限定されない。例えば、捜索者の氏名や年齢などといった、捜索者の属性の情報が発見者端末30へ提供されてもよい。
 確認画面120は、さらに、選択ボタン124及び選択ボタン126を含む。選択ボタン124は、捜索者が被発見物情報100の提供先として適切である場合に選択される。一方、選択ボタン126は、捜索者が被発見物情報100の提供先として適切でない場合に選択される。
 発見者端末30は、確認画面120に対する入力に応じ、確認リクエストに対するレスポンスを送信する。例えばこのレスポンスは、選択ボタン124と126のどちらが選択されたかを示す。
 送信部2060は、このレスポンスを受信する。選択ボタン124が選択されたことをレスポンスが示している場合、送信部2060は、発見者端末30へ被発見物情報100を送信する。一方、選択ボタン126が選択されたことをレスポンスが示している場合、送信部2060は、発見者端末30へ被発見物情報100を送信しない。
 例えば被発見物20が子供であるとする。この場合、発見者10は、発見者端末30に表示された確認画面をその子供に見せて、捜索者がその子供の親などのように、その子供を探す人物として適切な人物であるか否か(言い換えれば、その子供の情報を提供する人物として適切な人物であるか否か)を確認してもらう。
 捜索者画像を見た子供が「これは僕のお母さんだ」と答えた場合などのように、捜索者が適切な人物であることが確認できた場合、発見者10は、発見者端末30を操作して選択ボタン124を押す。その結果、情報提供装置2000から捜索者端末110へ被発見物情報100が提供される。
 一方、捜索者画像を見た子供が「これは知らない人だ」と答えた場合などのように、捜索者が適切な人物であることが確認できなかった場合、発見者10は、発見者端末30を操作して選択ボタン126を押す。その結果、情報提供装置2000から捜索者端末110へ被発見物情報100が提供されない。
 このように、捜索者へ被発見物情報100を提供する前に、発見者端末30を利用して、捜索者が適切な人物であるか否かを確認してもらうようにすることで、捜索者が適切な人物である場合のみ、捜索者に対して被発見物20の情報が提供されるようになる。言い換えれば、被発見物20の情報を提供することが適切でない捜索者に対しては、被発見物20の情報が提供されないようになる。よって、悪意のある捜索者によるなりすましを防ぐことができる。また、被発見物20の個人情報を適切に保護することができる。
 確認画面を利用した確認の方法は、捜索者が適切な人物であるか否かを直接選択させる方法に限定されない。例えば確認画面に、捜索者画像とそれ以外の人物の顔画像という複数の顔画像を含め、その中から捜索者として適切な人物の画像を選択できるようにする。また、捜索者として適切な人物の画像が無いという回答を表すボタンをさらに設けてもよい。
 確認リクエストに対するレスポンスは、確認画面における選択の結果を表す。選択された画像が捜索者画像である場合、捜索者は適切な人物であると言える。そこで送信部2060は、捜索者端末110へ被発見物情報100を送信する。一方、選択された画像が捜索者画像以外である場合、又は、捜索者として適切な人物の画像が無いという回答が選択された場合、捜索者は適切な人物でないと言える。そこで送信部2060は、捜索者端末110へ被発見物情報100を送信しない。
 このように複数の顔画像から捜索者として適切な人物の画像を選択させるという方法によれば、捜索者が適切な人物であることを、より正確に確認することができる。
 また、確認リクエストは、画像を利用したものでなくてもよい。例えば捜索者情報80に、被発見物20に対して送信する質問(いわゆる「セキュリティ質問」)とその答えを含めることができるとする。この場合、送信部2060は、セキュリティ質問が含まれる確認画面を発見者端末30へ送信する。発見者10又は被発見物20は、発見者端末30を利用して、セキュリティ質問に対する回答を確認画面に入力する。
 送信部2060は、セキュリティ質問に対する回答を示すレスポンスを受信する。送信部2060は、レスポンスに示されている回答が、捜索者情報80に示されている答えと一致するか否かを判定する。レスポンスに示されている回答が捜索者情報80に示されている答えと一致する場合、送信部2060は、捜索者端末110へ被発見物情報100を送信する。一方、レスポンスに示されている回答が捜索者情報80に示されている答えと一致しない場合、送信部2060は、捜索者端末110へ被発見物情報100を送信しない。この方法でも、適切な捜索者にのみ被発見物情報100が提供されるようにできる。
<発見者10と捜索者との間の連絡手段の提供>
 情報提供装置2000は、発見者端末30と捜索者端末110に対し、発見者10と捜索者との間で連絡を取り合うための手段を提供してもよい。例えば送信部2060は、捜索者端末110へ被発見物情報100を送信することになった場合に、捜索者の捜索者端末110と、発見者端末30とに対し、掲示板やチャットページなどのように、メッセージのやりとりが可能な web ページの URL を送信する。発見者10と捜索者は、この URL にアクセスすることで、掲示板やチャットページなどを利用して連絡を取り合えるようになる。そのため、発見者10から捜索者へ被発見物20を引き渡すことが容易になる。
 なお、web ページの代わりに、前述した照会アプリケーションや捜索アプリケーションという専用アプリケーションの機能が利用されてもよい。例えば、捜索者端末110へ被発見物情報100を送信することになった場合に、送信部2060は、その捜索者端末110の捜索アプリケーションと、発見者端末30の照会アプリケーションとが、チャット機能や音声通話機能などによって接続できるようにする。これは例えば、送信部2060から捜索アプリケーションへ照会アプリケーションの識別情報を通知し、なおかつ、送信部2060から照会アプリケーションへ捜索アプリケーションの識別情報を通知することで実現することができる。その他にも例えば、送信部2060は、捜索者端末110の捜索アプリケーションに対して、発見者10のアカウント情報を送信し、なおかつ、発見者端末30の照会アプリケーションに対して捜索者のアカウント情報を送信する。これにより、発見者10のアカウントと捜索者のアカウントとの間で、メッセージのやりとりや音声通話を実現することができる。なお、ユーザアカウントを利用してメッセージのやりとりや音声通話と実現する具体的な手法には、既存の手法を利用することができる。
<被発見物20の管理の引き継ぎ>
 前述したように、発見者端末30から被発見物画像40が提供された時点では、被発見物20にマッチする被捜索物についての捜索情報50が登録されていないことがある。この場合、捜索情報50が登録され、捜索者へ被発見物情報100が提供されるまでの間、発見者10が被発見物20を管理し続ける(被発見物20の側に居続けたり、被発見物20を持ち続けたりする)ことが好適である。しかしながら、発見者10が被発見物20を管理し続けることが難しいこともある。例えば、被発見物20が子供であり、かつ、発見者10が都合によりその場を離れなければならないとする。この場合、発見者10にとっては、その子供をその場に放置することも、その子供を一緒に連れて行くことも難しい可能性がある。
 そこでこのような場合、最初に被発見物20を発見した発見者10から別の人物へ被発見物20の管理を引き継げることが好適である。そこで情報提供装置2000は、発見者端末30から被発見物画像40を受信した後に、その被発見物画像40に対応する人物を発見者10から別の人物へ変更する機能を有していてもよい。以下、この機能を実現する機能構成部を、引き継ぎ処理部と呼ぶ。図6は、引き継ぎ処理部2080を有する情報提供装置2000の機能構成を例示するブロック図である。
 以下、引き継ぎ元の発見者端末30及び引き継ぎ先の発見者端末30をそれぞれ、引き継ぎ元端末及び引き継ぎ先端末と表記する。また、引き継ぎ元端末のユーザと引き継ぎ先端末のユーザをそれぞれ、引き継ぎ元人物と引き継ぎ先人物と呼ぶ。
 例えば引き継ぎ処理部2080は、被発見物画像40と端末との対応付けを変更することで、被発見物20の管理の引き継ぎを行う。まず前提として、最初に被発見物画像40が登録される際、取得部2020は、発見者端末30から受信した被発見物画像40と、発見者端末30の識別情報とを対応づけた情報を、任意の記憶部に格納する。以下、この情報を「被発見物管理情報」と呼ぶ。ここで、被発見物20の属性情報など、被発見物20について被発見物画像40以外の情報が提供された場合には、これらの情報も被発見物管理情報に含められる。発見者端末30の識別情報としては、例えば、発見者端末30にインストールされている照会アプリケーションに割り当てられている識別情報や、発見者10のアカウントの識別情報を利用することができる。
 このように、発見者端末30の識別情報と被発見物画像40とを対応づけて記憶部に格納することにより、その被発見物画像40に対応する被発見物20の照会処理に、発見者端末30が対応づけられる。言い換えれば、発見者端末30に、「被発見物20の照会を対応中」という状態が対応づけられる。
 その後、被発見物20を管理する人物が変更されるとする。この場合、引き継ぎ処理部2080は、被発見物画像40と対応づける発見者端末30の変更を要求する引き継ぎリクエストを受信する。例えば引き継ぎリクエストは、引き継ぎ元端末の識別情報及び引き継ぎ先端末の識別情報を示す。引き継ぎ処理部2080は、引き継ぎ元端末の識別情報を示す被発見物管理情報を特定し、その被発見物管理情報における発見者端末30の識別情報を、引き継ぎ先端末の識別情報に変更する。こうすることで、被発見物画像40と発見者端末30との対応付けを変更することができる。よって、「被発見物20の照会を対応中」という状態が、引き継ぎ元端末から引き継ぎ先端末へ引き継がれる。
 引き継ぎリクエストの送信を容易にするために、例えば照会アプリケーションに、その照会アプリケーションがインストールされている発見者端末30の識別情報を表示する機能を設けておく。例えば識別情報は、識別情報を表す文字列、又はその識別情報をエンコードすることで得られるコード(2次元コードなど)として表示される。さらに、照会アプリケーションに、他の発見者端末30の照会アプリケーションによって表示された識別情報を読み取り、その識別情報と自身の識別情報を利用して引き継ぎリクエストを送信する機能を設けておく。
 例えば、引き継ぎ元端末の照会アプリケーションを利用して、引き継ぎ元端末のディスプレイ装置に、引き継ぎ元端末の識別情報を表示させる。そして、引き継ぎ先端末の照会アプリケーションで、引き継ぎ元端末に表示された識別情報を読み取る。例えば識別情報の読み取りは、引き継ぎ先端末に設けられているカメラを利用して行われる。引き継ぎ先端末の照会アプリケーションは、引き継ぎ先端末の識別情報と、引き継ぎ元端末から読み取った引き継ぎ元端末の識別情報とを示す引き継ぎリクエストを生成して、情報提供装置2000へ送信する。
 引き継ぎリクエストは、引き継ぎ元端末から送信されてもよい。この場合、引き継ぎ先端末のディスプレイ装置に表示された引き継ぎ先端末の識別情報を、引き継ぎ元端末の照会アプリケーションで読み取るようにする。
 図7は、被発見物20の管理が引き継がれる様子を例示する図である。図7の例において、引き継ぎ元端末は発見者端末30-1である。そして、発見者端末30-1によって登録された被発見物画像40である被発見物画像I1に対して、発見者端末30-1の識別情報T1を対応づけた被発見物管理情報130が、記憶部140に格納されている。
 ここで、発見者端末30-1から発見者端末30-2へ、被発見物20の管理を引き継ぐとする。そのために、引き継ぎ先端末である発見者端末30-2のディスプレイ装置に、引き継ぎ先端末の識別情報T2を表すコード150が表示されている。このコード150を発見者端末30-1で読み取ることで、発見者端末30-1から情報提供装置2000へ、引き継ぎ元端末の識別情報T1及び引き継ぎ先端末の識別情報T2を示す引き継ぎリクエストが送信される。
 このリクエストを受信したことに応じて、引き継ぎ処理部2080は、識別情報T1と被発見物画像I1とを対応づけている被発見物管理情報130を特定する。そして、引き継ぎ処理部2080は、この被発見物管理情報130が示す発見者端末30の識別情報を、T1からT2に変更する。これにより、被発見物画像I1に対応する被発見物20の管理が、発見者端末30-1のユーザから発見者端末30-2のユーザへ引き継がれる。
 ここで、このように発見者端末30の識別情報を利用して引き継ぎを行う方法によれば、引き継ぎにユーザアカウントを要しないという利点がある。この点は、以下で説明する照会リクエストの識別情報を利用する方法についても同様である。
 情報提供装置2000は、照会リクエストに対して識別情報を割り当てるようにし、照会リクエストの識別情報を利用して上述した引き継ぎを行ってもよい。この場合、取得部2020は、発見者端末30から被発見物画像40を示す照会リクエストを受信したら、その照会リクエストに識別情報を割り当てる。そして、取得部2020は、照会リクエストの識別情報、被発見物画像40、及び発見者端末30の識別情報を対応づけた被発見物管理情報130を、記憶部に格納する。
 照会リクエストを送信した照会アプリケーションでは、照会リクエストの識別情報を参照できるようにしておく。例えば、照会アプリケーションに、照会リクエストの識別情報を表示させる機能を設けておく。
 被発見物20の管理の引き継ぎを行う際、引き継ぎ元端末の照会アプリケーションを利用して、引き継ぎ元端末のディスプレイ装置に、照会リクエストの識別情報を表示させる。さらに、引き継ぎ先端末の照会アプリケーションで、この照会リクエストの識別情報を読み取る。そして、引き継ぎ先端末の照会アプリケーションが、照会リクエストの識別情報と、引き継ぎ先端末の識別情報とを示す引き継ぎリクエストを生成し、情報提供装置2000へ送信する。
 引き継ぎ処理部2080は、受信した照会リクエストの識別情報を示す被発見物管理情報130を特定する。そして、引き継ぎ処理部2080は、この被発見物管理情報130が示す発見者端末30の識別情報を、引き継ぎ先端末の識別情報に変更する。
 引き継ぎは、引き継ぎ元人物と引き継ぎ先人物のアカウントを利用して行われてもよい。この場合、発見者10は、照会アプリケーションにログインした状態で、発見者端末30から照会リクエストを送信する。そして、照会リクエストに、発見者10のアカウントの識別情報が含まれるようにする。照会リクエストを受信した取得部2020は、照会リクエストの識別情報、発見者10のアカウントの識別情報、及び被発見物画像40を対応づけた被発見物管理情報130を、記憶部に格納する。これにより、被発見物20に関する照会処理に、発見者10のアカウントが対応づけられる。言い換えれば、発見者10のアカウントに、「被発見物20の照会を対応中」という状態が対応づけられる。
 さらに照会アプリケーションに、アカウント間で被発見物20の照会を引き継げる機能を設けておく。例えば、引き継ぎ元端末の照会アプリケーションが、引き継ぎ先人物のアカウントを示す引き継ぎリクエストを生成し、情報提供装置2000へ送信する。引き継ぎ処理部2080は、その引き継ぎリクエストを受信したことに応じ、引き継ぎリクエストに示されている引き継ぎ先人物のアカウントを宛先として、引き継ぎの承認リクエストを送信する。これにより、承認リクエストが引き継ぎ先端末へ送信される。
 承認リクエストを受信した引き継ぎ先端末には、引き継ぎを承認するか否かを選択する選択画面が表示される。選択画面には、引き継ぎ元人物のアカウントの情報や、引き継ぎ対象の照会に対応づけられている被発見物画像40などが表示される。
 この選択画面において、引き継ぎを承認するか否かの選択が行われると、選択の結果を表すレスポンスが情報提供装置2000へ送信される。レスポンスに引き継ぎの承認が示されている場合、引き継ぎ処理部2080は、被発見物管理情報130において照会リクエストの識別情報に対応づけられているアカウントの識別情報を、引き継ぎ先人物のアカウントの識別情報に変更する。こうすることで、被発見物管理情報130において照会リクエストに対応づけられているアカウントが、引き継ぎ元人物のアカウントから、引き継ぎ先人物のアカウントに変更される。その結果、「被発見物20の照会を対応中」という状態が、引き継ぎ元人物のアカウントから引き継ぎ先人物のアカウントへ引き継がれる。
 なお、被発見物情報100を捜索者端末110へ送信した後に、被発見物20の管理を引き継がなければいけない状況も考えられる。この場合において、捜索者端末110へ発見者10に関する情報(例えば発見者端末30の識別情報など)が提供されていたら、捜索者端末110に対し、引き継ぎ先人物に関する情報と共に、被発見物20の管理が引き継がれたことを通知することが好適である。
 そこで例えば、送信部2060は、前述した種々の方法で引き継ぎ元端末から引き継ぎ先端末への引き継ぎを行ったら、被発見物20の管理が引き継がれた旨の通知を捜索者端末110へ送信する。この通知には、引き継ぎ先人物に関する種々の情報が含まれる。引き継ぎ先人物に関する情報は、被発見物情報100に含める発見者10に関する情報と同様である。
<利用シーンの具体例>
 情報提供装置2000の理解をより容易にするために、情報提供装置2000が利用される具体的なシーンを例示する。ここで説明するシーンはあくまで例示であり、情報提供装置2000に利用シーンは以下で説明する例に限定されない。
 ここでは、親Aと子供Bがはぐれてしまったとする。親Aは、子供Bとはぐれてしまったことに気がついたため、自身の端末Taで捜索アプリケーションを起動し、子供Bを被発見物20として登録する。例えば、被捜索物画像として子供Bの顔画像を含む被捜索物情報60と、捜索者画像として親Aの顔画像を含む捜索者情報80とを対応づけた捜索情報50が、記憶部90に格納される。
 迷子の子供Bを発見した人物Cは、自身の端末Tcで照会アプリケーションを起動して子供Bの写真を撮り、照会リクエストを送信する。照会リクエストには、被発見物画像40として、子供Bの顔写真が含まれる。
 情報提供装置2000は、記憶部90に格納されている捜索情報50の中から、子供Bとマッチする被発見物20を検索する。その結果、子供Bの顔画像である被捜索物画像と、子供Bの顔画像である被発見物画像40との類似度が高いため、被発見物20とマッチする被捜索物が検出される。情報提供装置2000は、被捜索物画像として子供Bの顔画像を含む被捜索物情報60に対応づけられている捜索者情報80から、捜索者画像として、親Aの顔画像を取得する。そして、情報提供装置2000は、親Aの顔画像を含む確認リクエストを、照会リクエストの送信元である端末Tcへ送信する。
 人物Cは、端末Tcのディスプレイ装置に表示された親Aの顔画像を子供Bに見せる。親Aは子供Bの親であるため、子供Bは「自分の親である」という旨の回答をする。そこで人物Cは、端末Tcに表示されている確認画面を操作して、子供Bの情報を捜索者に提供することを許可する旨の回答を行う。これにより、端末Tcから情報提供装置2000へ、確認リクエストに対するレスポンスが送信される。
 確認リクエストに対するレスポンスを受信した情報提供装置2000は、親Aの端末Taへ、子供Bに関する情報である被発見物情報100を送信する。この被発見物情報100には、端末Tcの位置情報が含まれている。親Aは、被発見物情報100を閲覧することで、子供Bの位置を把握できる。そこで親Aは、被発見物情報100に示されている位置へ子供Bを迎えに行き、人物Cから子供Bを引き取る。
 なお、親Aと人物Cは、より確実に会えるようにするために、情報提供装置2000によって提供される掲示板を経由したメッセージのやりとり、チャットによるやりとり、又は音声通話によるやりとりなどを適宜行ってもよい。
 以上、実施の形態を参照して本願発明を説明したが、本願発明は上記実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
 なお、上述の例において、プログラムは、コンピュータに読み込まれた場合に、実施形態で説明された1又はそれ以上の機能をコンピュータに行わせるための命令群(又はソフトウェアコード)を含む。プログラムは、非一時的なコンピュータ可読媒体又は実体のある記憶媒体に格納されてもよい。限定ではなく例として、コンピュータ可読媒体又は実体のある記憶媒体は、random-access memory(RAM)、read-only memory(ROM)、フラッシュメモリ、solid-state drive(SSD)又はその他のメモリ技術、CD-ROM、digital versatile disc(DVD)、Blu-ray(登録商標)ディスク又はその他の光ディスクストレージ、磁気カセット、磁気テープ、磁気ディスクストレージ又はその他の磁気ストレージデバイスを含む。プログラムは、一時的なコンピュータ可読媒体又は通信媒体上で送信されてもよい。限定ではなく例として、一時的なコンピュータ可読媒体又は通信媒体は、電気的、光学的、音響的、またはその他の形式の伝搬信号を含む。
 上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
 (付記1)
 第1オブジェクトを含む第1画像を第1端末から取得する取得手段と、
 第2オブジェクトと第2端末とを対応づけた情報、及び前記第1画像を用いて、前記第1オブジェクトと同一の前記第2オブジェクトが存在するか否かを判定する判定手段と、
 前記第1オブジェクトと同一であると判定された前記第2オブジェクトに対応する前記第2端末へ、前記第1オブジェクトに関する情報を送信する送信手段と、を有する情報提供装置。
 (付記2)
 前記第1オブジェクトは被発見物であり、
 前記第2オブジェクトは被捜索物であり、
 前記第2オブジェクトに対応づけられている前記第2端末は、前記第2オブジェクトを捜索している捜索者の端末である、付記1に記載の情報提供装置。
 (付記3)
 前記送信手段は、
  捜索者に関する情報を含む確認リクエストを、前記第1端末へ送信し、
  前記第1端末から、前記捜索者が適切な捜索者であることを示す情報を受信した場合、前記第2端末に対して、前記第1オブジェクトに関する情報を送信する、付記2に記載の情報提供装置。
 (付記4)
 前記確認リクエストは、前記捜索者の画像と、前記捜索者以外の画像を含み、
 前記捜索者の画像が選択されたことを示す所定の入力を受け付けた場合、前記適切な捜索者であることを示す情報を受信したと判定する、付記3に記載の情報提供装置。
 (付記5)
 前記取得手段は、前記第1オブジェクトの位置を表す情報を取得し、
 前記送信手段は、前記第1オブジェクトに関する情報に、前記第1オブジェクトの位置を示す情報を含める、付記1から4いずれか一項に記載の情報提供装置。
 (付記6)
 前記取得手段は、前記第1画像と、前記第1オブジェクトを発見した発見者の識別情報とを対応づけて記憶部に格納し、
 前記発見者の識別情報と引き継ぎ先人物の識別情報とを示すリクエストを取得し、前記記憶部において前記第1画像に対応づける人物の識別情報を、前記引き継ぎ先人物の識別情報に変更する引き継ぎ処理手段を有する、付記1から5いずれか一項に記載の情報提供装置。
 (付記7)
 前記判定手段は、前記第1画像において所定の範囲に含まれるオブジェクトを、前記第1オブジェクトとして扱う、付記1から6いずれか一項に記載の情報提供装置。
 (付記8)
 第1オブジェクトを含む第1画像を第1端末から取得する取得ステップと、
 第2オブジェクトと第2端末とを対応づけた情報、及び前記第1画像を用いて、前記第1オブジェクトと同一の前記第2オブジェクトが存在するか否かを判定する判定ステップと、
 前記第1オブジェクトと同一であると判定された前記第2オブジェクトに対応する前記第2端末へ、前記第1オブジェクトに関する情報を送信する送信ステップと、を有する、コンピュータによって実行される情報提供方法。
 (付記9)
 前記第1オブジェクトは被発見物であり、
 前記第2オブジェクトは被捜索物であり、
 前記第2オブジェクトに対応づけられている前記第2端末は、前記第2オブジェクトを捜索している捜索者の端末である、付記8に記載の情報提供方法。
 (付記10)
 前記送信ステップにおいて、
  捜索者に関する情報を含む確認リクエストを、前記第1端末へ送信し、
  前記第1端末から、前記捜索者が適切な捜索者であることを示す情報を受信した場合、前記第2端末に対して、前記第1オブジェクトに関する情報を送信する、付記9に記載の情報提供方法。
 (付記11)
 前記確認リクエストは、前記捜索者の画像と、前記捜索者以外の画像を含み、
 前記捜索者の画像が選択されたことを示す所定の入力を受け付けた場合、前記適切な捜索者であることを示す情報を受信したと判定する、付記10に記載の情報提供方法。
 (付記12)
 前記取得ステップにおいて、前記第1オブジェクトの位置を表す情報を取得し、
 前記送信ステップにおいて、前記第1オブジェクトに関する情報に、前記第1オブジェクトの位置を示す情報を含める、付記8から11いずれか一項に記載の情報提供方法。
 (付記13)
 前記取得ステップにおいて、前記第1画像と、前記第1オブジェクトを発見した発見者の識別情報とを対応づけて記憶部に格納し、
 前記発見者の識別情報と引き継ぎ先人物の識別情報とを示すリクエストを取得し、前記記憶部において前記第1画像に対応づける人物の識別情報を、前記引き継ぎ先人物の識別情報に変更する引き継ぎ処理ステップを有する、付記8から12いずれか一項に記載の情報提供方法。
 (付記14)
 前記判定ステップにおいて、前記第1画像において所定の範囲に含まれるオブジェクトを、前記第1オブジェクトとして扱う、付記8から13いずれか一項に記載の情報提供方法。
 (付記15)
 第1オブジェクトを含む第1画像を第1端末から取得する取得ステップと、
 第2オブジェクトと第2端末とを対応づけた情報、及び前記第1画像を用いて、前記第1オブジェクトと同一の前記第2オブジェクトが存在するか否かを判定する判定ステップと、
 前記第1オブジェクトと同一であると判定された前記第2オブジェクトに対応する前記第2端末へ、前記第1オブジェクトに関する情報を送信する送信ステップと、をコンピュータに実行させるプログラムが格納されている非一時的なコンピュータ可読媒体。
 (付記16)
 前記第1オブジェクトは被発見物であり、
 前記第2オブジェクトは被捜索物であり、
 前記第2オブジェクトに対応づけられている前記第2端末は、前記第2オブジェクトを捜索している捜索者の端末である、付記15に記載のコンピュータ可読媒体。
 (付記17)
 前記送信ステップにおいて、
  捜索者に関する情報を含む確認リクエストを、前記第1端末へ送信し、
  前記第1端末から、前記捜索者が適切な捜索者であることを示す情報を受信した場合、前記第2端末に対して、前記第1オブジェクトに関する情報を送信する、付記16に記載のコンピュータ可読媒体。
 (付記18)
 前記確認リクエストは、前記捜索者の画像と、前記捜索者以外の画像を含み、
 前記捜索者の画像が選択されたことを示す所定の入力を受け付けた場合、前記適切な捜索者であることを示す情報を受信したと判定する、付記17に記載のコンピュータ可読媒体。
 (付記19)
 前記取得ステップにおいて、前記第1オブジェクトの位置を表す情報を取得し、
 前記送信ステップにおいて、前記第1オブジェクトに関する情報に、前記第1オブジェクトの位置を示す情報を含める、付記15から18いずれか一項に記載のコンピュータ可読媒体。
 (付記20)
 前記取得ステップにおいて、前記第1画像と、前記第1オブジェクトを発見した発見者の識別情報とを対応づけて記憶部に格納し、
 前記発見者の識別情報と引き継ぎ先人物の識別情報とを示すリクエストを取得し、前記記憶部において前記第1画像に対応づける人物の識別情報を、前記引き継ぎ先人物の識別情報に変更する引き継ぎ処理ステップを有する、付記15から19いずれか一項に記載のコンピュータ可読媒体。
 (付記21)
 前記判定ステップにおいて、前記第1画像において所定の範囲に含まれるオブジェクトを、前記第1オブジェクトとして扱う、付記15から20いずれか一項に記載のコンピュータ可読媒体。
10      発見者
20      被発見物
30      発見者端末
40      被発見物画像
50      捜索情報
60      被捜索物情報
80      捜索者情報
90      記憶部
100      被発見物情報
110      捜索者端末
120      確認画面
122      表示エリア
124      選択ボタン
126      選択ボタン
130      被発見物管理情報
140      記憶部
150      コード
1000     コンピュータ
1020     バス
1040     プロセッサ
1060     メモリ
1080     ストレージデバイス
1100     入出力インタフェース
1120     ネットワークインタフェース
2000     情報提供装置
2020     取得部
2040     判定部
2060     送信部
2080     引き継ぎ処理部

Claims (21)

  1.  第1オブジェクトを含む第1画像を第1端末から取得する取得手段と、
     第2オブジェクトと第2端末とを対応づけた情報、及び前記第1画像を用いて、前記第1オブジェクトと同一の前記第2オブジェクトが存在するか否かを判定する判定手段と、
     前記第1オブジェクトと同一であると判定された前記第2オブジェクトに対応する前記第2端末へ、前記第1オブジェクトに関する情報を送信する送信手段と、を有する情報提供装置。
  2.  前記第1オブジェクトは被発見物であり、
     前記第2オブジェクトは被捜索物であり、
     前記第2オブジェクトに対応づけられている前記第2端末は、前記第2オブジェクトを捜索している捜索者の端末である、請求項1に記載の情報提供装置。
  3.  前記送信手段は、
      捜索者に関する情報を含む確認リクエストを、前記第1端末へ送信し、
      前記第1端末から、前記捜索者が適切な捜索者であることを示す情報を受信した場合、前記第2端末に対して、前記第1オブジェクトに関する情報を送信する、請求項2に記載の情報提供装置。
  4.  前記確認リクエストは、前記捜索者の画像と、前記捜索者以外の画像を含み、
     前記捜索者の画像が選択されたことを示す所定の入力を受け付けた場合、前記適切な捜索者であることを示す情報を受信したと判定する、請求項3に記載の情報提供装置。
  5.  前記取得手段は、前記第1オブジェクトの位置を表す情報を取得し、
     前記送信手段は、前記第1オブジェクトに関する情報に、前記第1オブジェクトの位置を示す情報を含める、請求項1から4いずれか一項に記載の情報提供装置。
  6.  前記取得手段は、前記第1画像と、前記第1オブジェクトを発見した発見者の識別情報とを対応づけて記憶部に格納し、
     前記発見者の識別情報と引き継ぎ先人物の識別情報とを示すリクエストを取得し、前記記憶部において前記第1画像に対応づける人物の識別情報を、前記引き継ぎ先人物の識別情報に変更する引き継ぎ処理手段を有する、請求項1から5いずれか一項に記載の情報提供装置。
  7.  前記判定手段は、前記第1画像において所定の範囲に含まれるオブジェクトを、前記第1オブジェクトとして扱う、請求項1から6いずれか一項に記載の情報提供装置。
  8.  第1オブジェクトを含む第1画像を第1端末から取得する取得ステップと、
     第2オブジェクトと第2端末とを対応づけた情報、及び前記第1画像を用いて、前記第1オブジェクトと同一の前記第2オブジェクトが存在するか否かを判定する判定ステップと、
     前記第1オブジェクトと同一であると判定された前記第2オブジェクトに対応する前記第2端末へ、前記第1オブジェクトに関する情報を送信する送信ステップと、を有する、コンピュータによって実行される情報提供方法。
  9.  前記第1オブジェクトは被発見物であり、
     前記第2オブジェクトは被捜索物であり、
     前記第2オブジェクトに対応づけられている前記第2端末は、前記第2オブジェクトを捜索している捜索者の端末である、請求項8に記載の情報提供方法。
  10.  前記送信ステップにおいて、
      捜索者に関する情報を含む確認リクエストを、前記第1端末へ送信し、
      前記第1端末から、前記捜索者が適切な捜索者であることを示す情報を受信した場合、前記第2端末に対して、前記第1オブジェクトに関する情報を送信する、請求項9に記載の情報提供方法。
  11.  前記確認リクエストは、前記捜索者の画像と、前記捜索者以外の画像を含み、
     前記捜索者の画像が選択されたことを示す所定の入力を受け付けた場合、前記適切な捜索者であることを示す情報を受信したと判定する、請求項10に記載の情報提供方法。
  12.  前記取得ステップにおいて、前記第1オブジェクトの位置を表す情報を取得し、
     前記送信ステップにおいて、前記第1オブジェクトに関する情報に、前記第1オブジェクトの位置を示す情報を含める、請求項8から11いずれか一項に記載の情報提供方法。
  13.  前記取得ステップにおいて、前記第1画像と、前記第1オブジェクトを発見した発見者の識別情報とを対応づけて記憶部に格納し、
     前記発見者の識別情報と引き継ぎ先人物の識別情報とを示すリクエストを取得し、前記記憶部において前記第1画像に対応づける人物の識別情報を、前記引き継ぎ先人物の識別情報に変更する引き継ぎ処理ステップを有する、請求項8から12いずれか一項に記載の情報提供方法。
  14.  前記判定ステップにおいて、前記第1画像において所定の範囲に含まれるオブジェクトを、前記第1オブジェクトとして扱う、請求項8から13いずれか一項に記載の情報提供方法。
  15.  第1オブジェクトを含む第1画像を第1端末から取得する取得ステップと、
     第2オブジェクトと第2端末とを対応づけた情報、及び前記第1画像を用いて、前記第1オブジェクトと同一の前記第2オブジェクトが存在するか否かを判定する判定ステップと、
     前記第1オブジェクトと同一であると判定された前記第2オブジェクトに対応する前記第2端末へ、前記第1オブジェクトに関する情報を送信する送信ステップと、をコンピュータに実行させるプログラムが格納されている非一時的なコンピュータ可読媒体。
  16.  前記第1オブジェクトは被発見物であり、
     前記第2オブジェクトは被捜索物であり、
     前記第2オブジェクトに対応づけられている前記第2端末は、前記第2オブジェクトを捜索している捜索者の端末である、請求項15に記載のコンピュータ可読媒体。
  17.  前記送信ステップにおいて、
      捜索者に関する情報を含む確認リクエストを、前記第1端末へ送信し、
      前記第1端末から、前記捜索者が適切な捜索者であることを示す情報を受信した場合、前記第2端末に対して、前記第1オブジェクトに関する情報を送信する、請求項16に記載のコンピュータ可読媒体。
  18.  前記確認リクエストは、前記捜索者の画像と、前記捜索者以外の画像を含み、
     前記捜索者の画像が選択されたことを示す所定の入力を受け付けた場合、前記適切な捜索者であることを示す情報を受信したと判定する、請求項17に記載のコンピュータ可読媒体。
  19.  前記取得ステップにおいて、前記第1オブジェクトの位置を表す情報を取得し、
     前記送信ステップにおいて、前記第1オブジェクトに関する情報に、前記第1オブジェクトの位置を示す情報を含める、請求項15から18いずれか一項に記載のコンピュータ可読媒体。
  20.  前記取得ステップにおいて、前記第1画像と、前記第1オブジェクトを発見した発見者の識別情報とを対応づけて記憶部に格納し、
     前記発見者の識別情報と引き継ぎ先人物の識別情報とを示すリクエストを取得し、前記記憶部において前記第1画像に対応づける人物の識別情報を、前記引き継ぎ先人物の識別情報に変更する引き継ぎ処理ステップを有する、請求項15から19いずれか一項に記載のコンピュータ可読媒体。
  21.  前記判定ステップにおいて、前記第1画像において所定の範囲に含まれるオブジェクトを、前記第1オブジェクトとして扱う、請求項15から20いずれか一項に記載のコンピュータ可読媒体。
PCT/JP2022/008384 2022-02-28 2022-02-28 情報提供装置、情報提供方法、及び非一時的なコンピュータ可読媒体 WO2023162255A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/008384 WO2023162255A1 (ja) 2022-02-28 2022-02-28 情報提供装置、情報提供方法、及び非一時的なコンピュータ可読媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/008384 WO2023162255A1 (ja) 2022-02-28 2022-02-28 情報提供装置、情報提供方法、及び非一時的なコンピュータ可読媒体

Publications (1)

Publication Number Publication Date
WO2023162255A1 true WO2023162255A1 (ja) 2023-08-31

Family

ID=87765285

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/008384 WO2023162255A1 (ja) 2022-02-28 2022-02-28 情報提供装置、情報提供方法、及び非一時的なコンピュータ可読媒体

Country Status (1)

Country Link
WO (1) WO2023162255A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018142089A (ja) * 2017-02-27 2018-09-13 株式会社高山商事 捜索支援システム、及び捜索支援プログラム
JP2020022192A (ja) * 2019-10-24 2020-02-06 株式会社 ディー・エヌ・エー 本人確認のためのシステム、方法、及びプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018142089A (ja) * 2017-02-27 2018-09-13 株式会社高山商事 捜索支援システム、及び捜索支援プログラム
JP2020022192A (ja) * 2019-10-24 2020-02-06 株式会社 ディー・エヌ・エー 本人確認のためのシステム、方法、及びプログラム

Similar Documents

Publication Publication Date Title
US11250887B2 (en) Routing messages by message parameter
US11372608B2 (en) Gallery of messages from individuals with a shared interest
US10142351B1 (en) Retrieving contact information based on image recognition searches
US9959291B2 (en) Users tagging users in media online
US9098584B1 (en) Image search privacy protection techniques
US9077888B2 (en) Method and system for establishing autofocus based on priority
CN108897996B (zh) 标识信息关联方法及装置、电子设备及存储介质
US20120086792A1 (en) Image identification and sharing on mobile devices
KR20130139338A (ko) 얼굴 인식
CN103229126A (zh) 在计算设备之间移动信息
US9122910B2 (en) Method, apparatus, and system for friend recommendations
WO2019128568A1 (zh) 内容推送方法、装置及设备
TW201814552A (zh) 空間物件搜尋排序方法、系統與電腦可讀取儲存裝置
JP2013141215A (ja) 撮像装置で撮像された画像の選択方法、システム及び装置
WO2018223998A1 (zh) 业务过程的启动方法和装置
JP2013077110A (ja) サーバ装置、プログラム及び通信システム
WO2023162255A1 (ja) 情報提供装置、情報提供方法、及び非一時的なコンピュータ可読媒体
KR20170006778A (ko) 얼굴매칭을 이용한 인물사진 자동전송 방법 및 시스템
JP5743017B2 (ja) 画像管理装置及びプログラム
JP2007334629A (ja) Idカード発行システムおよび方法
KR20120080379A (ko) 디지털 카메라의 이미지 어노테이션 처리 방법 및 장치
JP7351048B2 (ja) ソーシャルネットワークサービス支援システム、ソーシャルネットワークサービス支援方法、ソーシャルネットワークサービス支援プログラムおよび端末装置
KR102618749B1 (ko) 명함 관리시스템
JP2005032163A (ja) 顔照合システム
JP2022012283A (ja) 情報処理装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22928779

Country of ref document: EP

Kind code of ref document: A1