WO2018163906A1 - 情報処理装置、情報処理システム及び情報処理プログラム - Google Patents

情報処理装置、情報処理システム及び情報処理プログラム Download PDF

Info

Publication number
WO2018163906A1
WO2018163906A1 PCT/JP2018/007174 JP2018007174W WO2018163906A1 WO 2018163906 A1 WO2018163906 A1 WO 2018163906A1 JP 2018007174 W JP2018007174 W JP 2018007174W WO 2018163906 A1 WO2018163906 A1 WO 2018163906A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
image
information processing
processing apparatus
spot
Prior art date
Application number
PCT/JP2018/007174
Other languages
English (en)
French (fr)
Inventor
岩本 隆
伊藤 誠
澄人 吉川
Original Assignee
株式会社ミックウェア
Kiパートナーズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ミックウェア, Kiパートナーズ株式会社 filed Critical 株式会社ミックウェア
Priority to JP2019504492A priority Critical patent/JP6989901B2/ja
Priority to US16/491,921 priority patent/US11294951B2/en
Publication of WO2018163906A1 publication Critical patent/WO2018163906A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/55Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3322Query formulation using system suggestions
    • G06F16/3323Query formulation using system suggestions using document space presentation or visualization, e.g. category, hierarchy or range presentation and selection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/51Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/5866Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, manually generated location and time information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • G06F16/432Query formulation
    • G06F16/434Query formulation using image data, e.g. images, photos, pictures taken by a user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/73Querying
    • G06F16/738Presentation of query results
    • G06F16/739Presentation of query results in form of a video summary, e.g. the video summary being a video sequence, a composite still image or having synthesized frames

Definitions

  • the present invention relates to an information processing apparatus, an information processing system, and an information processing program.
  • This application claims priority based on Japanese Patent Application No. 2017-41206 filed in Japan on March 6, 2017 and Japanese Patent Application No. 2017-41207 filed in Japan on March 6, 2017. Is incorporated herein by reference.
  • Non-Patent Document 1 Social Networking Service
  • Non-Patent Documents 1 and 2 the photographed image taken by the user can be disclosed to the outside via the network, but the photographed image disclosed to the outside can be used for other than viewing. There wasn't.
  • an object of the present invention is to provide an information processing apparatus, an information processing system, and an information processing program that can use a photographed image that has been released to the public for purposes other than viewing.
  • an information processing apparatus includes an acquisition unit, a storage unit, and a control unit.
  • the acquisition unit acquires image information added to the photographed image from the external information processing apparatus based on a preset acquisition condition with respect to the photographed image released to the outside by the external information processing apparatus.
  • the storage unit stores image information acquired by the acquisition unit.
  • the control unit classifies the image information stored in the storage unit based on a preset attribute condition.
  • the image information includes at least position information and time information added to the captured image.
  • the control unit classifies image information based on at least the position information and the time information.
  • an information processing apparatus includes the acquisition unit, the storage unit, and the control unit.
  • the control unit classifies image information based on at least the position information and the time information. Therefore, the control unit can collect image information based on the relationship between the shooting time and the position.
  • the acquisition condition is related information of a captured image stored in association with the captured image.
  • the acquisition unit may acquire a captured image from the external information processing apparatus based on the related information of the captured image stored in association with the captured image.
  • the acquisition unit acquires the captured image from the external information processing apparatus based on the related information of the captured image stored in association with the captured image, for example, a general term related to the captured image By using related information, the reliability of information can be improved.
  • the image information may include information related to a content account in the external information processing apparatus.
  • the user attribute information of the user who posted the photographed image to the content of the external information processing apparatus can be acquired, so that it is possible to collect information that can meet specific niche needs.
  • an information processing program causes a computer to execute an acquisition step, a storage step, and a classification step.
  • the computer obtains image information added to the photographed image from the external information processing apparatus based on a preset acquisition condition with respect to the photographed image released to the outside by the external information processing apparatus.
  • the computer stores the image information acquired by the acquiring unit.
  • the computer classifies the image information stored in the storage unit based on preset attribute conditions.
  • the image information includes at least position information and time information added to the captured image.
  • the computer classifies the image information based on at least the position information and the time information.
  • an information processing program includes the acquisition step, the storage step, and the classification step.
  • the classification step since the computer classifies the image information based on at least the position information and the time information, it is possible to collect the image information based on the relationship between the taken time and the position.
  • an information processing system includes an external information processing device and an information processing device.
  • the external information processing apparatus publishes the captured image captured and transmitted by the information processing terminal.
  • the information processing apparatus communicates with the information processing terminal and the external information processing apparatus.
  • the information processing apparatus includes an acquisition unit, a storage unit, a control unit, and a communication unit.
  • the acquisition unit acquires image information added to the captured image from the external information processing apparatus based on a predetermined acquisition condition for the captured image released to the outside by the external information processing apparatus.
  • the storage unit stores image information acquired by the acquisition unit.
  • the control unit classifies the image information stored in the storage unit based on a preset attribute condition.
  • the communication unit transmits the classified image information to the information processing terminal.
  • the image information includes at least position information and time information added to the captured image.
  • the control unit classifies image information based on at least the position information and the time information.
  • the information processing apparatus includes the acquisition unit, the storage unit, the control unit, and the communication unit.
  • the image information includes at least position information and time information added to the captured image. Since the control unit classifies the image information based on at least the position information and the time information, the image information can be collected based on the relationship between the captured time and the position.
  • an information processing apparatus includes an acquisition unit, a storage unit, a control unit, and a communication unit.
  • the acquisition unit acquires image information added to the photographed image from the external information processing apparatus based on a preset acquisition condition with respect to the photographed image released to the outside by the external information processing apparatus.
  • the storage unit stores image information acquired by the acquisition unit.
  • the control unit generates spot information based on the image information stored in the storage unit.
  • the communication unit outputs the spot information generated by the control unit to the information processing terminal.
  • the image information includes at least position information and time information added to the captured image.
  • the spot information is generated from image information based on at least the position information and the time information.
  • the information processing apparatus includes the acquisition unit, the storage unit, the control unit, and the communication unit.
  • the spot information is generated from image information based on at least the position information and the time information. Accordingly, the information processing terminal can confirm the spot information generated by collecting image information based on the relationship between the shooting time and the position.
  • the spot information may be update information.
  • the spot information is update information
  • the content of the spot information is changed so that the freshness of the information is always kept fresh as the latest information.
  • the spot information may be stored in the storage unit.
  • the communication unit may use the spot information as an aggregate of a plurality of pieces of image information and output position information of the aggregate to the information processing terminal.
  • the communication unit does not output all data of the image information from the information processing apparatus to the information processing terminal, and the position information is collected as one piece of information that is a collection of a plurality of pieces of image information. Information can be output to the information processing terminal. Accordingly, communication with the information processing terminal is facilitated, and use of the spot information is facilitated.
  • the spot information may be POI (Point Of Interest) information.
  • the spot information is suitable for a navigation function. Since the spot information is fresher than the POI information included in the normal navigation function with a low information update frequency, the spot information becomes highly reliable POI information.
  • the information processing apparatus, the information processing terminal, and the external information processing apparatus are connected so as to communicate with each other.
  • a storage unit is provided in the information processing apparatus.
  • the storage unit stores image information added to a captured image released to the outside by the external information processing apparatus.
  • a display unit that displays spot information is provided in the information processing terminal.
  • the spot information is generated based on image information stored in the storage unit.
  • the image information includes at least position information and time information added to the captured image.
  • the spot information is generated from image information based on at least the position information and the time information.
  • the spot information is stored in the storage unit.
  • the information processing apparatus is provided with the storage unit that stores image information added to a captured image that is externally disclosed by the external information processing apparatus.
  • the display unit is provided in the information processing terminal.
  • the display unit displays the spot information.
  • the spot information is generated based on image information stored in the storage unit.
  • the spot information is generated from image information based on at least the position information and the time information.
  • the spot information is stored in the storage unit.
  • the spot information is generated by collecting image information based on the relationship between the shooting time and the position. The spot information can be confirmed on an information processing terminal.
  • an information processing program causes a computer to execute an acquisition step, a storage step, a control step, and a communication step.
  • image information added to the photographed image is obtained from the external information processing apparatus based on a preset acquisition condition with respect to the photographed image released to the outside by the external information processing apparatus.
  • the image information acquired in the acquiring step is stored.
  • spot information is generated based on the image information stored in the storage step.
  • the communication step the spot information generated in the control step is output to the information processing terminal.
  • the image information includes at least position information and time information added to the captured image.
  • the spot information is generated from image information based on at least the position information and the time information.
  • the computer of the information processing apparatus is caused to execute an acquisition step, a storage step, a control step, and a communication step.
  • image information added to the photographed image is obtained from the external information processing apparatus based on a preset acquisition condition with respect to the photographed image released to the outside by the external information processing apparatus.
  • the storage step the image information acquired by the acquisition unit is stored.
  • spot information is generated based on the image information stored in the storage step.
  • the communication step the spot information generated in the control step is output to the information processing terminal. Since the spot information is generated from image information based on at least the position information and the time information, it can be confirmed by the information processing terminal.
  • an information processing program includes a storage step and a display step in a computer connected so that an information processing device, an information processing terminal, and an external information processing device can communicate with each other. Let it run.
  • the image information added to the photographed image released to the outside by the external information processing apparatus is stored in the information processing apparatus.
  • spot information generated based on the image information is displayed on the information processing terminal.
  • the image information includes at least position information and time information added to the captured image.
  • the spot information is generated from image information based on at least the position information and the time information.
  • the spot information is stored in the storage unit.
  • the image information added to the photographed image released to the outside by the external information processing apparatus is stored in the information processing apparatus.
  • spot information generated based on the image information is displayed on the information processing terminal. Since the spot information is classified and stored in the storage unit based on at least the position information and the time information, it can be confirmed by an information processing terminal.
  • an information processing apparatus an information processing system, and an information processing program that can use a photographed image that has been released to the public for purposes other than viewing.
  • the information processing system is configured such that the information processing device 1, the external information processing device 2, and the information processing terminal 3 used by the user can communicate with each other.
  • the information processing apparatus 1, the external information processing apparatus 2, and the information processing terminal 3 are connected by, for example, wirelessly.
  • the information processing apparatus 1 includes at least a control unit (hereinafter also referred to as a first control unit) 11, a first temporary storage unit 12, and a storage unit (hereinafter also referred to as a first storage unit). ) 13, a first display unit 14, a communication unit (hereinafter also referred to as a first communication unit) 15, a first input unit 16, and an acquisition unit (hereinafter also referred to as a first acquisition unit) 17. ing.
  • the first control unit 11 has at least a patrol acquisition function, an analysis function, and a classification function.
  • the patrol acquisition function has a function of acquiring an image from the external information processing apparatus 2.
  • the tour acquisition function is realized by executing a tour acquisition program on a computer.
  • the analysis function analyzes the image data acquired by the first acquisition unit 17.
  • the analysis function is realized by executing an analysis program on a computer.
  • the classification function classifies the image data acquired by the first acquisition unit 17.
  • the classification function is realized by executing a classification program on a computer.
  • the first control unit 11 operates based on, for example, a tour acquisition program, a classification program, or an analysis program stored in the first storage unit 13.
  • the first control unit 11 is configured by a CPU (Central Processing Unit).
  • the first control unit 11 generates spot information based on the image information stored in the first storage unit 13 (see below). Specifically, the first control unit 11 generates spot information from image information based on at least position information and time information. The first control unit 11 classifies the image information stored in the first storage unit 13 based on preset attribute conditions (such as time information and position information). The classification function according to the present embodiment classifies image information based on at least position information and time information, and further classifies image information based on a captured image (see the image file shown in FIG. 2). In this way, image information is classified, and a collection of image information collected by grouping based on respective preset attribute conditions is used as spot information. Therefore, the spot information is information on an aggregate including a plurality of pieces of image information (see spot information P1 to spot information P6 shown in FIGS. 7 and 8).
  • the first temporary storage unit 12 temporarily stores information processed by the first control unit 11.
  • a volatile memory such as a RAM is used.
  • the first temporary storage unit 12 temporarily stores information generated by the processing of the first control unit 11.
  • the first storage unit 13 is a storage that stores a cyclic acquisition program, an analysis program, a classification program, various information necessary for cyclic acquisition, analysis, and classification.
  • a nonvolatile memory such as a ROM (flash memory, HDD, or the like) is used.
  • the first storage unit 13 stores the image information acquired by the first acquisition unit 17 (see FIG. 2).
  • the first storage unit 13 stores a program and data of software (hereinafter also referred to as the software) for providing content to be disclosed to the outside (hereinafter also referred to as the content).
  • the software provides map service content.
  • storage part 13 memorize
  • the first display unit 14 displays a request to the information processing device 1 input to the first input unit 16 in order to manage the information processing device 1, for example.
  • the first display unit 14 may display map information.
  • the first display unit 14 generates, for example, spot information (based on time information in a range set in advance as attribute information and position information in a range set in advance as attribute information from multiple pieces of image information stored in the first storage unit 13.
  • the spot information P1 to spot information P6 shown in FIGS. 7 and 8 can be visualized as an aggregate of a plurality of image information and displayed on a map or the like.
  • the 1st display part 14 is not limited to the structure of the touchscreen which combined the display apparatus and the position input device, The structure only of a display apparatus may be sufficient.
  • the first communication unit 15 is connected so as to be able to communicate with the external information processing device 2 and the information processing terminal 3.
  • the first communication unit 15 transmits and receives captured images and information (image information) or spot information. Further, the first communication unit 15 outputs the spot information generated by the first control unit 11 to the information processing terminal 3.
  • the first communication unit 15 is configured to perform communication corresponding to a communication standard such as wireless communication, infrared communication, Wi-Fi (registered trademark), Bluetooth (registered trademark), or BLE.
  • the first input unit 16 receives a request for the information processing device 1.
  • the first input unit 16 acquires image information (see FIG. 2) from the external information processing device 2 to the first acquisition unit 17. Configured to be able to request.
  • input using the first display unit 14 which is a touch panel (character input or direct contact input to the corresponding segment of the first display unit 14), voice input unit ( There are voice input by (not shown), input by a physical key (not shown), or input by an external input device (not shown).
  • the first acquisition unit 17 acquires the captured image and the image information added to the captured image (see FIG. 2) from the external information processing apparatus 2 based on a predetermined acquisition condition. Specifically, the first acquisition unit 17 acquires a captured image based on related information of the captured image stored in association with the captured image in the external information processing apparatus 2.
  • the acquisition condition here is related information of the captured image stored in association with the captured image in the external information processing apparatus 2.
  • the image information includes at least position information and time information added to the image when the captured image is captured.
  • the image information includes only information relating to the captured image, and specifically includes time information and position information.
  • the 1st acquisition part 17 acquires the image file which added the said image information with the image information.
  • External information processing device 2 (2A, 2B) publishes the captured image transmitted from information processing terminal 3 via second communication unit 23 to the outside.
  • the external information processing apparatus 2 (2A, 2B) provides, for example, SNS.
  • SNS System for example, SNS.
  • two external information processing apparatuses 2A and 2B are used, but the present invention is not limited to this.
  • only one external information processing device 2 may be used, or three or more external information processing devices 2 may be used. Although one information processing terminal 3 is shown in FIG.
  • All the external information processing apparatuses 2 are provided with at least a second control unit 21, a second storage unit 22, and a second communication unit 23 in order to publish a photographed image to the outside. For this reason, in the present embodiment, the same reference numerals are given to corresponding components of the two external information processing apparatuses 2A and 2B.
  • the second control unit 21 has a public function for publicly displaying the photographed image.
  • the publishing function publishes photographed images received from the plurality of information processing terminals 3 via the second communication unit 23 to the outside.
  • the public function operates based on the public program stored in the second storage unit 22.
  • the second control unit 21 is configured by a CPU.
  • the second storage unit 22 is a storage for storing a public program and various information necessary for publicly displaying a photographed image.
  • a non-volatile memory such as a ROM (flash memory, HDD, or the like) is used.
  • the second storage unit 22 stores SNS contents (hereinafter, also referred to as external contents) that publish photographed images.
  • the second communication unit 23 is connected to the information processing apparatus 1 and the information processing terminal 3 so as to communicate with each other.
  • the second communication unit 23 transmits and receives captured images and information (image information).
  • the second communication unit 23 is configured to perform communication corresponding to a communication standard such as wireless communication, infrared communication, Wi-Fi (registered trademark), Bluetooth (registered trademark), or BLE.
  • the information processing terminal 3 includes at least a third control unit 31, a third temporary storage unit 32, a third storage unit 33, a third display unit 34, and a third communication unit 35.
  • a third output unit 36, a third input unit 37, and a third imaging unit 38 are provided.
  • the third control unit 31 controls various information processing operations. Specifically, a CPU is used as the third control unit 31.
  • the third temporary storage unit 32 temporarily stores information processed by the third control unit 31.
  • the third temporary storage unit 32 for example, a volatile memory such as a RAM is used.
  • the third temporary storage unit 32 temporarily stores information generated by the process of the third control unit 31.
  • the third storage unit 33 is a storage for storing various information processing programs and various information.
  • a nonvolatile memory such as a ROM (flash memory, HDD, or the like) is used.
  • the third storage unit 33 stores the captured image captured by the third capturing unit 38 and image information to be added to the captured image.
  • the third display unit 34 displays various information.
  • the 3rd display part 34 is comprised so that a picked-up image can be displayed in addition to various information.
  • the third display unit 34 displays spot information generated based on the image information stored in the first storage unit 13 of the information processing apparatus 1.
  • the 3rd display part 34 is not limited to the structure of a touch panel, The structure only of a display apparatus may be sufficient.
  • the 3rd communication part 35 is connected so that it can communicate with respect to the information processing apparatus 1 and the external information processing apparatus 2.
  • FIG. The third communication unit 35 transmits and receives captured images and information (image information).
  • the third communication unit 35 is configured to perform communication corresponding to a communication standard such as wireless communication, infrared communication, Wi-Fi (registered trademark), Bluetooth (registered trademark), or BLE.
  • the third output unit 36 displays data for displaying a captured image captured by the third imaging unit 38, the content provided by the information processing device 1, the external content (eg, SNS) provided by the external information processing device 2, and the like. Output to the third display unit 34.
  • the third output unit 36 may be configured to output data such as sound that does not correspond to the display on the third display unit 34 to the speaker.
  • the third input unit 37 is configured to instruct the third communication unit 35 to transmit the captured image and its image information to the external information processing apparatus 2.
  • the third input unit 37 is configured to instruct the third photographing unit 38 to perform photographing.
  • input using the third display unit 34 that is a touch panel (character input or direct contact input to the corresponding segment of the third display unit 34), or voice input unit
  • voice input by not shown
  • input by a physical key not shown
  • input by an external input device not shown
  • the third photographing unit 38 performs photographing using, for example, a photographing element.
  • the third photographing unit 38 stores the photographed photographed image in the third storage unit 33.
  • the captured image includes image information.
  • the image information includes at least captured time information and captured position information.
  • the image information includes captured angle information, captured image size, and the like.
  • the spot information according to the present embodiment generated by the information processing apparatus 1 is generated based on the image information, it is update information and also region information. Therefore, the spot information becomes POI (Point Of Interest) information that can be updated as needed.
  • POI Point Of Interest
  • the third control unit 31 of the information processing terminal 3 takes a photographed image by the third photographing unit 38 and selects the external information processing apparatus 2 for publishing the photographed image to the outside (step S101).
  • the selection here is not limited to selecting one of the two external information processing apparatuses 2A and 2B, and a plurality of information processing apparatuses 2 (2A and 2B) may be selected at the same time. In the present embodiment, the external information processing apparatus 2A is selected.
  • the third control unit 31 edits the captured image before transmitting the captured image to the external information processing apparatus 2A. Editing here is arbitrary, and the third control unit 31 may transmit the original captured image without editing (step S102). In the present embodiment, the third control unit 31 edits the captured image in S102. However, the present invention is not limited to this. Before the step S101 after the third captured unit 38 captures the captured image. The captured image may be edited in advance.
  • step S ⁇ b> 102 after finishing the editing of the captured image, the third control unit 31 transmits the captured image and the image information added to the captured image to the external information processing apparatus 2 ⁇ / b> A via the third communication unit 35.
  • a photographed image to be released to the outside is posted on the external content of the information processing apparatus 2A (step S103).
  • the second control unit 21 of the external information processing apparatus 2A discloses the posted captured image to the outside, and ends this process.
  • the information processing apparatus 1 acquires and stores image information of a photographed image released externally by the external information processing apparatus 2 (2A, 2B)
  • the captured image and the image information added to the captured image are acquired.
  • the present invention is not limited to this, and at least the image information may be acquired.
  • the worker of the information processing apparatus 1 inputs a request for acquiring image information from the external information processing apparatus 2 via the first input unit 16.
  • the first acquisition unit 17 makes an acquisition request by a cyclic acquisition program that is stored in the first storage unit 13 and is operation-controlled (executed) by the first control unit 11, and the external information processing device 2 (2A, 2A, In 2B), it is checked (cyclic search) whether or not there is a photographed image released to the outside (step S201).
  • the cyclic search is performed by setting a link related to a photographed image, a hash tag of a related vocabulary, or the like as a search condition, and whether or not the search condition is met.
  • step S201 If there is a captured image that can be acquired in step S201 (Yes in step S202), the first acquisition unit 17 acquires the captured image and image information of the captured image. If there is no captured image that can be acquired in step S201 (no step S202), the first acquisition unit 17 returns to step S201 and performs a cyclic search again.
  • Step S204 After acquiring the photographed image and the image information of the photographed image in step S202, if the image information does not include account information of external content that is externally disclosed by the external information processing apparatus 2 (No in step S203), 1 control part 11 attaches an identification number to image information (Step S204). Steps S201 to S202 so far are defined as acquisition steps.
  • step S202 when the captured image and the image information of the captured image are acquired in step S202 and the account information of the external content that the external information processing apparatus 2 discloses to the outside is included in the image information (Yes in step S203).
  • the first control unit 11 deletes the account information (step S205).
  • the first control unit 11 thereafter attaches an identification number to the image information (step S204).
  • the information processing apparatus 1 does not store the account information of the external content that is externally disclosed by the external information processing apparatus 2. Accordingly, personal information of the user included in the account information of the external content does not flow out from the information processing apparatus 1.
  • the first control unit 11 After assigning the identification number to the image information in step S204, the first control unit 11 stores the position information of the image information in the first storage unit 13 (step S206), and stores the time information in the first storage unit 13. (Step S207). The first control unit 11 may store the position information of the image information in the first storage unit 13 after storing the time information in the first storage unit 13.
  • step S206 and step S207 after storing the position information and time information of the image information in the first storage unit 13, the first control unit 11 stores the image file of the photographed image in the first storage unit 13 (step S208). ).
  • the first control unit 11 executes the captured image and the image information of the captured image based on the classification program (by executing the program). Classification is performed (step S209).
  • step S209 is defined as a classification step.
  • the first control unit 11 performs classification based on seasons such as spring, summer, autumn and winter, and classification based on time zones such as morning, afternoon, and night based on time information.
  • the first control unit 11 sets an area range of decimal latitude and longitude based on the position information, and classifies the spot area for each set area range.
  • the first control unit 11 may perform image processing on what is shown in the photographed image and analyze data of the image that identifies the subject to be photographed.
  • the first control unit 11 can perform classification based on the object after analyzing the image data.
  • the analysis of the image data is, for example, classification based on the object based on the degree of matching with the image information of landmarks stored in advance.
  • the first control unit 11 identifies the external information processing apparatus 2 (2A, 2B) that acquired the captured image, and performs classification for each external information processing apparatus 2 (2A, 2B). By such classification, the first control unit 11 generates spot information based on the image information stored in the storage step described later.
  • step S209 the categorization in step S209 is performed, and the first control unit 11 completes the storage of the captured image and the image information of the captured image in the first storage unit 13 (step S210).
  • FIG. 2 shows a captured image stored in the first storage unit 13 and image information of the captured image.
  • step S210 when there is other image information (Yes in step S211), the first control unit 11 returns to step S203.
  • the first control unit 11 ends the cyclic acquisition (step 212) and ends this process.
  • the first control unit 11 basically acquires image information continuously, so steps S201 to S211 are performed continuously. Further, steps S204 to S210 so far are defined as storage steps.
  • the first control unit 11 generates spot information based on the image information stored in the storage step (this generation process is defined as a control step).
  • the information processing apparatus 1 acquires the captured image acquired by the first acquisition unit 17 and stored in the first storage unit 13 and the image information of the captured image (hereinafter also referred to as the image information).
  • the operation to be reflected in the content to be released to the outside (the content) will be described with reference to FIG.
  • the step shown in FIG. 4 and the main step shown in FIG. 5 are separate steps, but may be a continuous step.
  • the step shown in FIG. 4 may be an operation of software that provides the content (the software).
  • the first acquisition unit 17 acquires the captured image and the image information added to the captured image.
  • the present invention is not limited to this, and only the image information may be acquired.
  • the first control unit 11 activates software that provides the content (step S301).
  • the first control unit 11 gives an instruction to acquire the image information acquired by the first acquisition unit 17 and stored in the first storage unit 13 (step S302).
  • the first control unit 11 acquires the captured image and the image information of the captured image from the first storage unit 13 (step S304).
  • step S303 the first control unit 11 executes step 303 continuously.
  • the first control unit 11 After acquiring the image information in step 304, the first control unit 11 reflects (duplicates) the image information in the content by storing the image information in the storage area related to the image information of the software in the first storage unit 13. (Step S305).
  • the first control unit 11 stores and reflects the image information, but the present invention is not limited to this.
  • the 1st control part 11 may have a reading function which goes to read the image information as needed, without performing Step S305.
  • step S305 If there is other image information after step S305 (Yes in step S306), the first control unit 11 returns to step S304 and acquires the other image information.
  • step S305 when there is no other image information (No in step S306), the first control unit 11 ends the software (S307) and ends this process.
  • the software provides map service content to be used using the information processing terminal 3.
  • the software displays spot information generated based on the image information of the data table shown in FIG.
  • the spot information generated based on the image information in the data table shown in FIG. 2 is point information.
  • the spot information is customer information indicating customer collection capability when the number of photographed images is regarded as the number of people gathered.
  • the customer attracting information here is represented by a number beside the star, and the larger number is the point information having the ability to attract customers.
  • the customer collection information is set, for example, to “1.0” when the number of photographed images is equal to or more than a predetermined number and “5.0” when the number of photographed images is the largest, and to increase the number of photographed images. Accordingly, the data is processed and displayed so that the number next to the star increases by “0.1”.
  • Dedicated software (hereinafter also referred to as dedicated software) for using the software of the information processing apparatus 1 is installed in the third storage unit 33 of the information processing terminal 3.
  • the third control unit 31 activates dedicated software (step S401).
  • step S401 the map information is displayed on the third display unit 34.
  • the setting condition (search condition) for outputting the spot information generated in the control step is input via the third input unit 37 (step S402)
  • the third control unit 31 receives the input setting.
  • a search is performed based on the conditions (step S403).
  • step S403 the spot information generated in the above control step is output to the information processing terminal 3 (defined as a communication step).
  • the setting conditions according to the present embodiment include a distance condition indicating a distance from the current position, a condition indicating a season such as spring, summer, autumn and winter, a condition indicating a specific month and day, and from sunrise to sunset and from sunset to sunrise.
  • Conditions indicating the state of the sun conditions indicating a time zone such as morning and afternoon, conditions indicating a specific detailed time, selection of the external information processing apparatuses 2A and 2B that acquired the image information, and selection of presence / absence of a captured image is there.
  • a setting condition is used.
  • the present invention is not limited to this, and any setting condition related to the shooting condition at the time of shooting a shot image may be used.
  • the shooting direction shooting angle
  • shooting conditions such as the presence or absence of a flash may be added.
  • step S403 if there is no spot information (shooting position) that matches the set condition (no step S404), the third control unit 31 returns to step S402, and when the set condition is input again, A search is performed based on the setting conditions (step S403).
  • the third control unit 31 displays the matching spot information on the third display unit 34. .
  • the third control unit 31 displays spot information P1 to spot information P6 on a map as shown in FIGS. 7 and 8, the content of the spot information is shown in an ellipse.
  • the numbers displayed together with the star marks in the ellipses shown in FIGS. 7 and 8 are indices proportional to the number of photographed images at the spot information photographing positions, and are shown in the range of 1.0 to 5.0.
  • the sun mark on the map shown in FIGS. 7 and 8 indicates spot information in the daytime from sunrise to sunset.
  • the moon mark on the map indicates spot information at night from sunset to sunrise.
  • the landmarks shown in FIG. 7 and FIG. 8 are famous mountain, city center tower, city center amusement park, and current position (house mark).
  • the 3rd control part 31 selects desired spot information from the spot information displayed on the map shown in FIG.7 and FIG.8 (step). S405).
  • the spot information selected here is information generated based on the image information stored in the storage step, and the third control unit 31 displays the spot information on the third display unit 34 (display step). Defined).
  • control part 31 complete
  • the information processing apparatus 1 it is possible to use a photographed image opened to the outside by the external information processing apparatus 2 other than viewing.
  • the first control unit 11 of the information processing apparatus 1 classifies the image information based on at least the position information and the time information. Therefore, based on the relationship between the captured time and the position. Image information can be collected.
  • since time information is also a classification target, it is also possible to collect time information that is often taken. Therefore, by acquiring detailed image information, more reliable information regarding the photographing spot can be obtained.
  • the first acquisition unit 17 acquires a captured image, it can perform image processing of the captured image. Therefore, the reliability of spot information can be further improved.
  • the first acquisition unit 17 acquires a captured image from the external information processing apparatus 2 based on the related information of the captured image stored in association with the captured image. Therefore, the reliability of spot information can be improved by using related information related to the photographed image, such as general-purpose terms (terms using hash tags).
  • the image information stored in the first storage unit 13 includes only information related to the captured image, and does not include personal information. Therefore, personal information does not leak from the acquired photographed image.
  • the information processing apparatus 1 executes an acquisition step, a storage step, and a classification step, and in the classification step, image information is classified based on at least position information and time information. . Therefore, the information processing apparatus 1 can collect image information based on the relationship between the shooting time and the position. As a result, it is possible to collect information on specific positions that are frequently disclosed to the outside by the external information processing apparatus 2 (external services such as SNS). Further, according to the present embodiment, since the image information is further classified based on the time information, it is possible to collect information on the time when the image is often taken. Therefore, by acquiring detailed image information, more reliable information regarding the photographing spot can be obtained.
  • the spot information is generated from the image information based on at least the position information and the time information.
  • the acquisition step of acquiring the image information added to the captured image by the external information processing device 2 in the computer of the information processing device 1 based on the preset acquisition condition, and the first acquisition unit 17 A storage step for storing the image information acquired in step S1, a control step for generating spot information based on the image information stored in the storage step, and a communication step for outputting the spot information generated in the control step to the information processing terminal 3
  • the spot information is generated from the image information based on at least the position information and the time information. As a result, the spot information generated based on the relationship between the captured time and position can be confirmed on the information processing terminal 3.
  • the user can display spot information on the third display unit 34 of the information processing terminal 3.
  • the user uses the information processing terminal 3 to collect spot information generated by collecting information (image information) on a specific position frequently released to the outside by the external information processing apparatus 2, and collecting the spot information. Can be grasped as. Therefore, the user can know at a glance at which position the spot information is large.
  • the first storage unit 13 that stores the image information added to the captured image by the external information processing apparatus 2 is provided in the information processing apparatus 1, and the image information stored in the first storage unit 13 is stored.
  • the information processing terminal 3 is provided with a third display unit 34 that displays the spot information generated based on the information.
  • the spot information is generated from the image information based on at least the position information and the time information, and is stored in the first storage unit 13.
  • the information processing device 1, the information processing terminal 3, and the external information processing device 2 are connected to the computer of the information processing system so that they can communicate with each other, and the external information processing device 2 is converted into a captured image.
  • a storage step of storing the added image information in the information processing device 1 and a display step of displaying spot information generated based on the image information stored in the storage step on the information processing terminal 3 are executed.
  • the image information is generated and stored in the first storage unit 13.
  • the spot information generated by collecting the image information based on the relationship between the shooting time and the position can be confirmed on the information processing terminal 3.
  • the spot information can be displayed on the third display unit 34 of the information processing terminal 3.
  • the user uses the information processing terminal 3 to collect spot information generated by collecting information (image information) on a specific position frequently released to the outside by the external information processing apparatus 2, and collecting the spot information. Can be grasped as. Therefore, the user can know at a glance at which position the spot information is large.
  • the image information stored in the first storage unit 13 includes at least position information and time information added to the captured image, and the first control unit 11 classifies image information based on at least position information and time information. Accordingly, the first control unit 11 can collect image information based on the relationship between the shooting time and the position.
  • the spot information is update information
  • the content of the spot information is changed so that the freshness of the information is always kept fresh as the latest information.
  • the spot information is stored in the first storage unit 13, the spot information that is an aggregate of a plurality of pieces of image information is generated in the information processing device 1 without depending on other devices (particularly the external information processing device 2). Easy to do.
  • the first communication unit 15 sets the spot information as an aggregate of a plurality of pieces of image information, and outputs position information of the aggregate to the information processing terminal 3. Therefore, the first communication unit 15 does not output all the data of the image information from the information processing apparatus 1 to the information processing terminal 3, and does not output the position information as one piece of information that is a collection of a plurality of pieces of image information. Information can be output to the information processing terminal 3. Therefore, communication between the information processing apparatus 1 and the information processing terminal 3 is easy, and the use of spot information is facilitated.
  • the external information processing apparatus 2 is applied as the outside.
  • the present invention is not limited to this.
  • the external information processing apparatus 1 and the information processing terminal 3 are not connected to the externally configured system. An information processing system can also be applied.
  • the image information may include user attribute information related to an external content account.
  • the user attribute information of the user who posted the photographed image to the external information processing apparatus 2 can be acquired, so that information that can meet specific niche needs (for example, needs of foreigners visiting Japan) can be obtained. Collecting can be done.
  • information on the user ID, gender, age, and nationality of the external content is acquired as the user attribute information.
  • the user attribute information is not limited to this, and hobby information may be arbitrarily set as the user attribute information.
  • the information processing apparatus 1 acquires and stores image information of a photographed image released externally by the external information processing apparatus 2 (2A, 2B)
  • the information processing apparatus 1 acquires a captured image and image information added to the captured image.
  • the present invention is not limited to this, and it is only necessary to acquire at least image information.
  • the worker of the information processing apparatus 1 inputs a request for acquiring image information from the external information processing apparatus 2 via the first input unit 16.
  • the first acquisition unit 17 makes an acquisition request by the cyclic acquisition program stored in the first storage unit 13 and controlled in operation by the first control unit 11, and the external information processing apparatus 2 (2A, 2B) It is checked (circular search) whether or not any of the photographed images disclosed to the outside is present (step S501).
  • the cyclic search here is the same as the cyclic search described with reference to FIG.
  • step S501 If there is a captured image that can be acquired in step S501 (Yes in step S502), the first acquisition unit 17 acquires the captured image and image information of the captured image. If there is no captured image that can be acquired in step S501 (no step S502), the first acquisition unit 17 returns to step S501 and performs a cyclic search again.
  • the first control unit 11 After acquiring the captured image and the image information of the captured image in step S502, the first control unit 11 stores, in the first storage unit 13, the account information of the external content that the external information processing apparatus 2 discloses to the outside (step S502). S503). Thereafter, the first controller 11 attaches an identification number to the image information (step S504).
  • the first control unit 11 After assigning the identification number to the image information in step S504, the first control unit 11 stores the position information of the image information in the first storage unit 13 (step S505), and stores the time information in the first storage unit 13. (Step S506).
  • step S506 after storing the position information and time information of the image information in the first storage unit 13, the first control unit 11 stores the image file of the photographed image in the first storage unit 13 (step S507).
  • the first control unit 11 executes the captured image and the image information of the captured image based on the classification program (by executing the program). Classification is performed (step S508).
  • the classification here is the same as the classification described with reference to FIG.
  • step S508 the categorization in step S508 is performed, and the first control unit 11 completes the storage of the captured image and the image information of the captured image in the first storage unit 13 (step S509).
  • FIG. 9 shows a captured image stored in the first storage unit 13 and image information of the captured image.
  • step S509 if there is other image information (Yes in step S510), the first control unit 11 returns to step S503. On the other hand, when there is no other image information (No in step S510), the first control unit 11 ends the cyclic acquisition (step 511) and ends this process. In this process, since the first control unit 11 basically acquires image information continuously while the information processing apparatus 1 is activated, steps S501 to S511 are continuously performed. .
  • the content of the software is a map service, but this map service may have a navigation function.
  • the map service can guide the user to the spot information on the map displayed on the third display unit 34 of the information processing terminal 3.
  • the navigation function may be stored in the third storage unit 33 of the information processing terminal 3 and controlled by the third control unit 31, stored in the first storage unit 13 of the information processing apparatus 1, and controlled by the first control unit 11. May be. That is, as long as the map and navigation can be displayed on the third display unit 34 of the information processing terminal 3, the navigation function itself may be provided by a system including the information processing device 1 and the information processing terminal 3.
  • the navigation function may be mounted on either the information processing apparatus 1 or the information processing terminal 3.
  • the navigation function may be stored in the storage unit of one of the information processing device 1 and the information processing terminal 3, and the navigation function may be controlled by the control unit of the other device.
  • the navigation function is divided and stored in both storage units of the information processing device 1 and the information processing terminal 3, and the navigation function is performed by the control unit of one of the devices or by the control unit of both devices. May be controlled.
  • the spot information is POI information, it is suitable for a navigation function. Since the spot information is fresher than the POI information included in the normal navigation function with a low information update frequency, the spot information is highly reliable POI information.
  • Dedicated software for using the software of the information processing apparatus 1 is installed in the third storage unit 33 of the information processing terminal 3.
  • the third control unit 31 activates dedicated software (step S601).
  • step S601 the map information is displayed on the third display unit 34.
  • setting conditions (search conditions) for outputting spot information are input via the third input unit 37 (step S602)
  • the third control unit 31 performs a search based on the input setting conditions. (Step S603).
  • the search here is the same as the search shown in FIG. 4, and the user attribute information may be included in the setting conditions. That is, in Japan, user attribute information such as whether or not it is information on foreigners visiting Japan may be added.
  • step S603 if there is no spot information (shooting position) that matches the set condition (no step S604), the third control unit 31 returns to step S602, and when the set condition is input again, A search is performed based on the setting conditions (step S603).
  • the third control unit 31 displays the matching spot information on the third display unit 34. . Specifically, the third control unit 31 displays spot information P1 to spot information P6 on the map as shown in FIGS.
  • the spot information P1 to spot information P6 and landmarks mentioned here are the same as the spot information shown in FIGS.
  • the 3rd control part 31 selects desired spot information from the spot information shown on the map displayed by search of setting conditions, such as FIG. 12, 13, (step S605).
  • the spot information may be displayed in consideration of the travel time of the selected route, for example.
  • the navigation function of the third control unit 31 may change the content of the spot information to be displayed from the daytime spot information to the nighttime spot information while moving from the current location to the transit point of the spot information.
  • the third control unit 31 performs navigation route setting with the desired spot information selected and displayed as a destination.
  • the downtown tower is set as the destination.
  • the 3rd control part 31 starts the navigation which selected the route which moves directly to a downtown area tower, or the navigation which selected the route via other spot information (step S606).
  • the third control unit 31 starts navigation in which a route from the current position to the city center tower is selected, which is indicated by a broken line in FIGS.
  • spot information P2 in FIG. 12 and spot information P5 in FIG. 13 indicated by a solid line in FIGS. Start navigation.
  • FIG. 12 shows an example of navigation via the spot information P2.
  • FIG. 13 shows an example of navigation via the spot information P5.
  • the third control unit 31 ends the navigation (step S607), ends the software (step S608), and ends the present process after ending navigation on the selected route (step S607).
  • the destination is the spot information on the map displayed on the third display unit 34 of the information processing terminal 3.
  • the navigation function is not limited to such specifications, and for example, navigation for selecting a waypoint other than the destination as shown in FIG. 14 may be used.
  • FIG. 14 a different process from the process shown in FIG.
  • Dedicated software for using the software of the information processing apparatus 1 is installed in the third storage unit 33 of the information processing terminal 3.
  • the third control unit 31 activates dedicated software (step S701).
  • step S701 the map information is displayed on the third display unit 34.
  • the map displayed here is map information centered on the current position.
  • the third control unit 31 performs navigation setting (step S702) and performs destination setting (step S703).
  • step S703 the third control unit 31 performs destination setting based on arbitrary information such as address information, telephone number information, the spot information, and keyword information.
  • the third control unit 31 sets the city center tower as the destination.
  • the third control unit 31 After the destination is set in step S703, the third control unit 31 performs route setting (step S704).
  • the route setting here is performed based on conditions such as general road priority, recommended route, distance priority, and time priority.
  • the third control unit 31 displays the selected route on a map and also has spot information in the vicinity of the route (information related to the position where the captured image was captured) (exist in step S705). ), Display spot information on the map.
  • the third control unit 31 performs a search based on the input setting condition to narrow down the spot information to be displayed on the map (step S709).
  • the setting conditions here are the same as the setting conditions (see S602) shown in FIG.
  • step S709 if there is no spot information (photographing position) that matches the set condition (no step S710), the third control unit 31 returns to step S708, and when the set condition is input again, the search is performed. Is performed (step S709).
  • the third control unit 31 displays the matching spot information on the third display unit 34.
  • the display of the spot information here is the same as the display of the spot information described in step S604 shown in FIG.
  • the 3rd control part 31 selects desired spot information as a waypoint setting from the spot information shown on the map displayed by search of setting conditions, such as FIG. 12, 13, (step S711).
  • step S711 the third control unit 31 sets a navigation route with the desired spot information selected and displayed as a destination, and starts navigation in which a route via the spot information is selected (step S712).
  • the third control unit 31 ends the navigation on the selected route (step S713), ends the software (step S714), and ends the present process.
  • the third control unit 31 displays the selected route on the map and does not display the spot information in the vicinity of the route (information related to the position where the photographed image is photographed) (step). (No in step S705), other waypoint selection is set.
  • the other waypoint selection setting here is a setting for selecting a waypoint based on arbitrary information such as address information other than spot information, telephone number information, and keyword information.
  • step S706 If no other waypoint selection is set (No in step S706), the third control unit 31 starts navigation directly to the destination as it is (step S712).
  • step S706 when setting for other waypoints is selected (Yes in step S706), the third control unit 31 makes the other settings (step S707) and starts navigation with other waypoints set (step S707). S712).
  • the information processing system of this embodiment is mainly different from the above-described embodiment in that the information processing apparatus 1 has an analysis function.
  • the analysis function analyzes a photographed image from a posted article related to a posted photograph posted to the SNS.
  • the description of the same configuration as that of the above-described embodiment will be omitted as appropriate.
  • the information processing system includes an information processing device 1, an external information processing device 2, and an information processing terminal 3, as shown in FIG.
  • the information processing terminal 3 is a terminal device used by the user.
  • the information processing terminal 3 includes a photographing function for photographing an image, a time counting function for measuring time, and a position measuring function for measuring a position.
  • the information processing device 1, the external information processing device 2, and the information processing terminal 3 are configured to be able to communicate with each other.
  • the external information processing apparatus 2 publishes the captured image transmitted from the information processing terminal 3 via the second communication unit 23 to the outside.
  • the external information processing device 2 publishes posted articles transmitted from the information processing terminal 3 via the second communication unit 23 to the outside.
  • the information processing apparatus 1 generates spot information based on the image information of the captured image and the posted article information of the posted article.
  • the posted article information is, for example, information on posted articles that the user posts to the SNS in association with the captured image.
  • the first control unit 11 has a patrol acquisition function, an analysis function, an analysis function, and a classification function.
  • the patrol acquisition function has a function of acquiring a captured image and a posted article from the external information processing apparatus 2.
  • the tour acquisition function is realized by executing a tour acquisition program on a computer.
  • the first control unit 11 controls the first acquisition unit 17 so that a captured image and a posted article can be acquired.
  • the first acquisition unit 17 acquires a photographed image from the external information processing apparatus 2 based on a preset acquisition condition with respect to the photographed image released to the outside by the external information processing apparatus 2.
  • the first acquisition unit 17 acquires the captured image and the image information added to the captured image from the external information processing device 2 based on the related information of the captured image stored in association with the captured image.
  • the first acquisition unit 17 acquires posted article information from the external information processing apparatus 2 based on a preset acquisition condition for a posted article released to the outside by the external information processing apparatus 2.
  • the acquisition condition is related information of a captured image stored in association with the captured image in the external information processing apparatus 2.
  • the acquisition condition is also posted article information related to the photographed image.
  • the image information includes position information and time information added to the captured image when the captured image is captured.
  • the image information may include the shooting direction in which the image was shot. That is, the first acquisition unit 17 acquires an image file in which image information is added to a captured image. Moreover, the 1st acquisition part 17 acquires the contribution article information relevant to an image file.
  • the analysis function analyzes the data of the image file acquired by the first acquisition unit 17.
  • data analysis is performed, for example, by pattern matching with data stored in advance.
  • data analysis is performed by determining the similarity of feature amounts between captured image data stored in advance and processing data obtained by performing image processing on the acquired captured image.
  • the analysis function is realized by executing an analysis program on a computer.
  • the analysis function analyzes post article data acquired by the first acquisition unit 17.
  • Data analysis is performed, for example, by performing morphological analysis on the posted article information and determining whether or not it matches a prestored word. Morphological analysis breaks sentences and phrases into the smallest meaningful units. For example, data analysis may be performed based on similarity between a word stored in advance and a feature word after performing morphological analysis on the posted article information.
  • the analysis function is realized by executing an analysis program on a computer.
  • the first acquisition unit 17 analyzes the captured image from the posted article related to the posted photo.
  • the first acquisition unit 17 performs morphological analysis on the acquired posted article information.
  • the first acquisition unit 17 estimates a subject to be captured of the captured image by machine learning according to a predetermined classification of words acquired by performing morphological analysis. For example, when the content of the posted article includes “found a beautiful sunset”, the first acquisition unit 17 acquires the words “beautiful”, “sunset”, and “discovery” by morphological analysis.
  • the 1st acquisition part 17 presumes that a subject is "sunset” where a position is ambiguous by judging similarity with a feature word recorded beforehand by machine learning.
  • the classification function classifies the data of the image file acquired by the first acquisition unit 17 based on the analysis of the captured image, the image information, and the posted article.
  • the classification function is realized by executing a classification program on a computer. That is, the first control unit 11 operates based on, for example, a tour acquisition program, a classification program, an analysis program, or an analysis program stored in the first storage unit 13.
  • the first control unit 11 generates spot information based on the image information and subject information stored in the first storage unit 13.
  • the subject information is information for estimating a subject to be generated generated from posted article information, for example.
  • the first control unit 11 generates spot information from image information and subject information.
  • the spot information is generated based on, for example, position information, time information, and subject information.
  • the first control unit 11 classifies the image information and subject information stored in the first storage unit 13 based on preset attribute conditions.
  • the attribute condition is, for example, time information, position information, and subject information.
  • the classification function according to the present embodiment classifies image files of captured images based on position information, time information, and subject information. In other words, the information processing apparatus 1 classifies captured images based on image information and posted article information.
  • the information processing apparatus 1 uses, as spot information, a collection of photographed images that are grouped and collected based on each preset attribute condition.
  • the information processing system according to the present embodiment publishes the photographed image and the posted article photographed by the information processing terminal 3 to the outside by the external information processing apparatus 2.
  • the external information processing apparatus 2 that publishes the photographed image taken by the third photographing unit 38 and the posted article to the SNS inputted by the third input unit 37 is selected. For example, after finishing editing the captured image, the information processing terminal 3 transmits the captured image with the image information added to the external information processing apparatus 2A via the third communication unit 35, and the external information processing apparatus 2A Post shot images to be released to the outside as content. Similarly, the information processing terminal 3 transmits the posted article information input in relation to the photographed image to the external information processing apparatus 2A via the third communication unit 35, and externally transmits the external content in the external information processing apparatus 2A. Post a post to be published on. The external information processing apparatus 2A publishes posted photographed images and posted articles related to the photographed images to the outside.
  • steps S220 and S221 are newly added to the steps performed by the information processing apparatus 1 in addition to the steps S201 to S212 of FIG. 4 described in the above embodiment.
  • the information processing apparatus 1 acquires image information of a captured image that is externally disclosed by the external information processing apparatus 2 as external content.
  • the information processing apparatus 1 stores the acquired image information.
  • the first acquisition unit 17 makes an acquisition request using a cyclic acquisition program whose operation is controlled by the first control unit 11.
  • the information processing apparatus 1 performs a cyclic acquisition process of image information that performs a cyclic search for whether or not there is a photographed image that has been disclosed to the outside by the external information processing apparatus 2 (S201).
  • the information processing apparatus 1 acquires a captured image and image information of the captured image when there is an acquired captured image (Yes in S202). If there is no captured image that can be acquired in the cyclic acquisition step (No in S202), the information processing apparatus 1 performs the image information acquisition step for performing a cyclic search again (S201).
  • the information processing apparatus 1 performs a subject information acquisition step of acquiring subject information from a posted article related to the photographed image in addition to the photographed image and the image information of the photographed image (S220).
  • the information processing apparatus 1 acquires only the captured image and the image information without acquiring the subject information.
  • the information processing apparatus 1 performs an account information determination step of determining whether or not the acquired image information or posted article information includes account information of external content that is externally disclosed by the external information processing apparatus 2. (S203). If the account information determination process includes external content account information (Yes in S203), the information processing apparatus 1 performs an account deletion process of deleting the account information (S205). After deleting the account information, the information processing apparatus 1 performs an identification number assigning step of adding an identification number to the image information (S204).
  • the information processing apparatus 1 performs a position information storage step of storing the position information included in the image information in the first storage unit 13 after assigning the identification number to the image information (S206).
  • the information processing apparatus 1 performs the time information storage step of storing the time information included in the image information in the first storage unit 13 after assigning the identification number to the image information (S207).
  • the information processing apparatus 1 performs a subject information storage step of storing subject information in the first storage unit 13 after assigning an identification number to the image information (S221).
  • the information processing apparatus 1 performs an image file storage step of storing the image file in the first storage unit 13 after assigning the identification number to the image information (S208).
  • the information processing apparatus 1 may appropriately change the order in which the position information of image information, time information, subject information, and image files are acquired or stored.
  • the first control unit 11 performs a categorizing step of classifying the image file based on the image information of the captured image and the subject information using the classification program (S209).
  • the first control unit 11 classifies whether the image information is a distant image obtained by photographing the subject from a distance based on the posted article information, for example. Further, the first control unit 11 classifies whether or not the position information of the subject is ambiguous like a sunset where the subject moves with time based on the posted article information, for example.
  • FIG. 16 illustrates an example of a data table indicating image information, subject information, and image files stored in the first storage unit 13.
  • the information processing apparatus 1 reflects the image information, subject information, and image file of the captured image acquired by the first acquisition unit 17 and stored in the first storage unit 13 in the content that the information processing apparatus 1 discloses to the outside. Let it finish.
  • the captured image released to the outside by the external information processing apparatus 2 can be used for purposes other than viewing.
  • the information processing apparatus 1 includes a first acquisition unit 17, a first storage unit 13, and a first control unit 11.
  • the first control unit 11 classifies image files based on subject information in addition to position information and time information. Since the information processing apparatus 1 classifies the image files based on the position information, the time information, and the subject information, the image file can be collected based on the relationship between the photographing time, the photographing position, and the subject information. . As a result, the information processing apparatus 1 can collect information on a specific position that the external information processing apparatus 2 frequently discloses to the outside in association with the subject information.
  • the information processing apparatus 1 can perform image processing even when the subject of a photograph posted to the SNS is in a distant place where the subject is photographed from a distance different from the location at which the photograph was photographed, or for a subject whose position of the subject is ambiguous such as the sunset Files can be properly classified.
  • the configuration of the present embodiment may be configured by appropriately combining the configurations of the above-described embodiments.
  • the present invention can be implemented in various other forms without departing from the spirit, gist, or main features. Therefore, the above-mentioned embodiment is only a mere illustration in all points, and should not be interpreted limitedly. That is, taking the above embodiment as an example, the present invention is an information processing apparatus, an information processing system, or an information processing program.
  • the present invention can be applied to an information processing apparatus, an information processing system, and an information processing program.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Library & Information Science (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Information Transfer Between Computers (AREA)
  • Processing Or Creating Images (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

情報処理装置(1)には、外部情報処理装置(2)が外部に公開した撮影画像に対して、予め設定した取得条件に基づき外部情報処理装置(2)から撮影画像に付加した画像情報を取得する第1取得部(17)と、取得部で取得した画像情報を記憶する第1記憶部(13)と、第1記憶部(13)で記憶した画像情報を、予め設定した属性条件に基づき分類する第1制御部(11)と、が設けられている。画像情報には、少なくとも、撮影画像に付加した位置情報及び時間情報が含まれている。第1制御部(11)は、少なくとも位置情報と時間情報とに基づき画像情報を分類する。

Description

情報処理装置、情報処理システム及び情報処理プログラム
 本発明は、情報処理装置、情報処理システム及び情報処理プログラムに関する。
 本願は、2017年3月6日に日本で出願された特願2017-41206号、および2017年3月6日に日本で出願された特願2017-41207号に基づき優先権を主張し、それらの内容をここに援用する。
 現在、SNS(Social Networking Service)などのネットワークサービスのコンテンツが多数開発されている(非特許文献1参照)。
"Instagram"、フェイスブック ジャパン株式会社、インターネット[URL;https://www.instagram.com] "Facebook"、フェイスブック ジャパン株式会社、インターネット[URL;https://ja-jp.facebook.com]
 ところで、非特許文献1,2のような技術では、ユーザが撮影した撮影画像を、ネットワークを介して外部に公開することはできるが、外部に公開した撮影画像を鑑賞以外に利用することはできなかった。
 そこで、上記課題を解決するために、本発明は、外部に公開した撮影画像を鑑賞以外にも利用することができる情報処理装置、情報処理システム及び情報処理プログラムを提供することを目的とする。
 上記課題を解決するために、本開示にかかる情報処理装置は、取得部と、記憶部と、制御部と、を備える。前記取得部は、外部情報処理装置が外部に公開した撮影画像に対して、予め設定した取得条件に基づき外部情報処理装置から撮影画像に付加した画像情報を取得する。前記記憶部は、前記取得部で取得した画像情報を記憶する。前記制御部は、前記記憶部で記憶した画像情報を、予め設定した属性条件に基づき分類する。前記画像情報には、少なくとも、撮影画像に付加した位置情報及び時間情報が含まれる。前記制御部は、少なくとも前記位置情報と前記時間情報とに基づき画像情報を分類する。
 本開示によれば、外部情報処理装置が外部に公開した撮影画像を鑑賞以外にも利用することができる。具体的には、本開示によれば、情報処理装置が、前記取得部と前記記憶部と前記制御部と、を備える。前記制御部は少なくとも前記位置情報と前記時間情報とに基づき画像情報を分類する。従って、前記制御部は、撮影した時間と位置との関係に基づく画像情報の収集を行うことができる。
 前記構成において、前記取得条件は、撮影画像に関連して記憶された撮影画像の関連情報である。前記取得部は、撮影画像に関連して記憶された撮影画像の関連情報に基づいて外部情報処理装置から撮影画像を取得してもよい。
 この場合、前記取得部は、撮影画像に関連して記憶された撮影画像の関連情報に基づいて外部情報処理装置から撮影画像を取得するので、撮影画像に関連した、例えば汎用的な用語などの関連情報を用いることで情報の信頼性を向上させることができる。
 前記構成において、前記画像情報には、外部情報処理装置におけるコンテンツのアカウントに関する情報が含まれてもよい。
 この場合、撮影画像を外部情報処理装置のコンテンツに投稿したユーザのユーザ属性情報を取得することができるので、特定のニッチなニーズに対しても応えられるような情報収集を行うことができる。
 上記課題を解決するために、本開示にかかる情報処理プログラムは、コンピュータに、取得ステップと、記憶ステップと、分類ステップと、を実行させる。前記取得ステップでは、コンピュータが、外部情報処理装置が外部に公開した撮影画像に対して、予め設定した取得条件に基づき外部情報処理装置から撮影画像に付加した画像情報を取得する。前記記憶ステップでは、コンピュータが、前記取得部で取得した画像情報を記憶する。前記分類ステップでは、コンピュータが、前記記憶部で記憶した画像情報を、予め設定した属性条件に基づき分類する。前記画像情報は、少なくとも、撮影画像に付加した位置情報及び時間情報を含む。前記分類ステップでは、コンピュータが、少なくとも前記位置情報と前記時間情報とに基づき画像情報を分類する。
 本開示によれば、外部情報処理装置が外部に公開した撮影画像を鑑賞以外にも利用することができる。具体的には、本開示によれば、情報処理プログラムが、前記取得ステップと前記記憶ステップと前記分類ステップとを有する。前記分類ステップでは、少なくとも前記位置情報と前記時間情報とに基づきコンピュータが画像情報を分類するので、撮影した時間と位置との関係に基づく画像情報の収集を行うことができる。
 上記課題を解決するために、本開示にかかる情報処理システムは、外部情報処理装置と、情報処理装置と、を備える。前記外部情報処理装置は、情報処理端末で撮影され伝送された撮影画像を外部に公開する。情報処理装置は、前記情報処理端末及び前記外部情報処理装置と通信する。前記情報処理装置は、取得部と、記憶部と、制御部と、通信部と、を有する。前記取得部は、前記外部情報処理装置が外部に公開した前記撮影画像に対して、予め設定した取得条件に基づき前記外部情報処理装置から前記撮影画像に付加した画像情報を取得する。前記記憶部は、前記取得部で取得した画像情報を記憶する。前記制御部は、前記記憶部で記憶した画像情報を、予め設定した属性条件に基づき分類する。前記通信部は、分類された画像情報を前記情報処理端末に伝送する。前記画像情報には、少なくとも、撮影画像に付加した位置情報及び時間情報が含まれる。前記制御部は、少なくとも前記位置情報と前記時間情報とに基づき画像情報を分類する。
 本開示によれば、外部情報処理装置が外部に公開した撮影画像を鑑賞以外にも利用することができる。具体的には、本開示によれば、前記情報処理装置は、前記取得部と前記記憶部と前記制御部と前記通信部とを有する。前記画像情報には、少なくとも、撮影画像に付加した位置情報及び時間情報が含まれる。前記制御部は、少なくとも前記位置情報と前記時間情報とに基づき画像情報を分類するので、撮影した時間と位置との関係に基づく画像情報の収集を行うことができる。
 上記課題を解決するために、本開示にかかる情報処理装置は、取得部と、記憶部と、制御部と、通信部と、を備える。前記取得部は、外部情報処理装置が外部に公開した撮影画像に対して、予め設定した取得条件に基づき前記外部情報処理装置から撮影画像に付加した画像情報を取得する。前記記憶部は、前記取得部で取得した画像情報を記憶する。前記制御部は、前記記憶部に記憶した画像情報に基づきスポット情報を生成する。前記通信部は、制御部が生成したスポット情報を情報処理端末に出力する。前記画像情報には、少なくとも、撮影画像に付加した位置情報及び時間情報が含まれる。前記スポット情報は、少なくとも前記位置情報と前記時間情報とに基づき画像情報から生成される。
 本開示によれば、前記外部情報処理装置が外部に公開した撮影画像を鑑賞以外にも利用することができる。具体的には、本開示によれば、情報処理装置は、前記取得部と前記記憶部と前記制御部と前記通信部と、を備える。前記スポット情報は、少なくとも前記位置情報と前記時間情報とに基づき画像情報から生成される。従って、撮影した時間と位置との関係に基づき画像情報を収集して生成した前記スポット情報を前記情報処理端末で確認することができる。
 前記構成において、前記スポット情報は、更新情報であってもよい。
 この場合、前記スポット情報は更新情報であるので、常に最新の情報として情報の鮮度を新鮮に保つよう前記スポット情報の内容が変更される。
 前記構成において、前記スポット情報は、前記記憶部に記憶されてもよい。
 この場合、他の装置に依存することなく前記情報処理装置において複数の画像情報の集合体であるスポット情報を生成することが容易になる。
 前記構成において、前記通信部は、前記スポット情報を複数の画像情報の集合体とし、前記集合体の位置情報を前記情報処理端末に出力してもよい。
 この場合、前記通信部は、画像情報の全てのデータを当該情報処理装置から前記情報処理端末に出力することなく、前記スポット情報を複数の画像情報の集合体としてまとめた1つの情報として、位置情報を含めて前記情報処理端末に出力することができる。従って、前記情報処理端末との通信がし易くなり、前記スポット情報の利用が容易となる。
 前記構成において、前記スポット情報は、POI(Point Of Interest)情報であってもよい。
 この場合、前記スポット情報は、ナビゲーション機能に好適である。前記スポット情報は、情報更新の頻度が少ない通常のナビゲーション機能に含まれるPOI情報に比べてより新鮮であるため、信頼性の高いPOI情報となる。
 上記課題を解決するために、本開示にかかる情報処理システムにおいては、情報処理装置と情報処理端末と外部情報処理装置とが通信できるように接続される。前記情報処理装置に記憶部が設けられる。前記記憶部は、前記外部情報処理装置が外部に公開した撮影画像に付加した画像情報を記憶する。スポット情報を表示する表示部が前記情報処理端末に設けられる。前記スポット情報は、前記記憶部に記憶された画像情報に基づき生成される。前記画像情報には、少なくとも、撮影画像に付加した位置情報及び時間情報が含まれる。前記スポット情報は、少なくとも前記位置情報と前記時間情報とに基づき画像情報から生成される。前記スポット情報は、前記記憶部に記憶される。
 本開示によれば、前記外部情報処理装置が外部に公開した撮影画像を鑑賞以外にも利用することができる。具体的には、本開示によれば、前記外部情報処理装置が外部に公開した撮影画像に付加した画像情報を記憶する前記記憶部が前記情報処理装置に設けられる。前記表示部が前記情報処理端末に設けられる。前記表示部は、前記スポット情報を表示する。前記スポット情報は、前記記憶部に記憶された画像情報に基づき生成される。前記スポット情報は、少なくとも前記位置情報と前記時間情報とに基づき画像情報から生成される。前記スポット情報は、前記記憶部に記憶される。前記スポット情報は、撮影した時間と位置との関係に基づき画像情報を収集して生成される。前記スポット情報は、情報処理端末で確認することができる。
 上記課題を解決するために、本開示にかかる情報処理プログラムは、コンピュータに、取得ステップと、記憶ステップと、制御ステップと、通信ステップとを、実行させる。前記取得ステップでは、外部情報処理装置が外部に公開した撮影画像に対して、予め設定した取得条件に基づき前記外部情報処理装置から撮影画像に付加した画像情報を取得する。前記記憶ステップでは、前記取得ステップで取得した画像情報を記憶する。前記制御ステップでは、前記記憶ステップで記憶した画像情報に基づきスポット情報を生成する。前記通信ステップでは、前記制御ステップで生成したスポット情報を前記情報処理端末に出力する。前記画像情報は、少なくとも、撮影画像に付加した位置情報及び時間情報を含む。前記スポット情報は、少なくとも前記位置情報と前記時間情報とに基づき画像情報から生成される。
 本開示によれば、前記外部情報処理装置が外部に公開した撮影画像を鑑賞以外にも利用することができる。具体的には、本開示によれば、前記情報処理装置のコンピュータに、取得ステップと、記憶ステップと、制御ステップと、通信ステップとを、実行させる。前記取得ステップでは、前記外部情報処理装置が外部に公開した撮影画像に対して、予め設定した取得条件に基づき前記外部情報処理装置から撮影画像に付加した画像情報を取得する。前記記憶ステップでは、前記取得部で取得した画像情報を記憶する。前記制御ステップでは、前記記憶ステップに記憶した画像情報に基づきスポット情報を生成する。前記通信ステップでは、前記制御ステップで生成したスポット情報を前記情報処理端末に出力する。前記スポット情報は、少なくとも前記位置情報と前記時間情報とに基づき画像情報から生成されるので、前記情報処理端末で確認することができる。
 上記課題を解決するために、本開示にかかる情報処理プログラムは、情報処理装置と情報処理端末と外部情報処理装置とが通信できるように接続されたコンピュータに、記憶ステップと、表示ステップと、を実行させる。前記記憶ステップでは、前記外部情報処理装置が外部に公開した撮影画像に付加した画像情報を、前記情報処理装置に記憶する。前記表示ステップでは、前記画像情報に基づき生成されたスポット情報を前記情報処理端末に表示する。前記画像情報は、少なくとも、撮影画像に付加した位置情報及び時間情報を含む。前記スポット情報は、少なくとも前記位置情報と前記時間情報とに基づき画像情報から生成される。前記スポット情報は、前記記憶部に記憶される。
 本開示によれば、前記外部情報処理装置が外部に公開した撮影画像を鑑賞以外にも利用することができる。具体的には、本開示によれば、前記情報処理装置と前記情報処理端末と前記外部情報処理装置とが通信できるように接続された情報処理システムのコンピュータに、記憶ステップと、表示ステップと、を実行させる。前記記憶ステップでは、前記外部情報処理装置が外部に公開した撮影画像に付加した画像情報を前記情報処理装置に記憶する。前記表示ステップでは、前記画像情報に基づき生成されたスポット情報を前記情報処理端末に表示する。前記スポット情報は、少なくとも前記位置情報と前記時間情報とに基づき分類して前記記憶部に記憶されるので、情報処理端末で確認することができる。
 本開示によれば、外部に公開した撮影画像を鑑賞以外にも利用することができる情報処理装置、情報処理システム及び情報処理プログラムを提供することができる。
本実施の形態にかかる、情報処理システムの概略構成を示すブロック図である。 本実施の形態にかかる、情報処理装置の記憶部に記憶する画像情報のデータテーブルを示す説明図である。 本実施の形態にかかる、情報処理端末で撮影した撮影画像を、外部情報処理装置から外部に公開する工程についてのフローチャートである。 本実施の形態にかかる、外部情報処理装置が外部に公開した撮影画像の画像情報を、情報処理装置が取得し記憶する工程についてのフローチャートである。 本実施の形態にかかる、情報処理装置が外部に公開するコンテンツに、撮影画像の画像情報を反映させる工程についてのフローチャートである。 本実施の形態にかかる、情報処理装置が外部に公開するコンテンツでのスポット情報を表示させる工程についてのフローチャートである。 図6に示す工程において情報処理装置が外部に公開するコンテンツを示す図である。 図6に示す工程において情報処理装置が外部に公開するコンテンツを示す図である。 本実施の他の形態にかかる、情報処理装置の記憶部に記憶する画像情報のデータテーブルを示す説明図である。 本実施の他の形態にかかる、外部情報処理装置が外部に公開した撮影画像の画像情報を、情報処理装置が取得し記憶する工程についてのフローチャートである。 本実施の他の形態にかかる、情報処理装置が外部に公開するコンテンツでのスポット情報及びルートを表示させる工程についてのフローチャートである。 図11に示す工程において情報処理装置が外部に公開するコンテンツを示す図である。 図11に示す工程において情報処理装置が外部に公開するコンテンツを示す図である。 本実施の他の形態にかかる、情報処理装置が外部公開するコンテンツでのスポット情報及びルートを表示させる工程についてのフローチャートである。 本実施の別の形態の情報システムにおいて、情報処理装置が撮影画像及び投稿記事を取得する工程について説明するフローチャートである。 本実施の別の形態の情報システムにおいて、情報処理装置が記憶するデータテーブルを示す説明図である。
 以下、本発明の実施の形態について図面を参照して説明する。
 本実施の形態にかかる情報処理システムでは、情報処理装置1と、外部情報処理装置2と、ユーザが使用する情報処理端末3とが通信できるように構成されている。情報処理装置1と外部情報処理装置2と情報処理端末3とは、例えば、無線により接続される。
 情報処理装置1には、図1に示すように、少なくとも、制御部(以下、第1制御部ともいう)11と、第1一時記憶部12と、記憶部(以下、第1記憶部ともいう)13と、第1表示部14と、通信部(以下、第1通信部ともいう)15と、第1入力部16と、取得部(以下、第1取得部ともいう)17とが設けられている。
 第1制御部11は、少なくとも、巡回取得機能と、分析機能と、分類機能と、を有している。巡回取得機能は、外部情報処理装置2から画像を取得する機能を有する。巡回取得機能は、巡回取得プログラムをコンピュータ上で実行することにより、実現される。分析機能は、第1取得部17で取得した画像のデータの分析を行う。分析機能は、分析プログラムをコンピュータ上で実行することにより、実現される。分類機能は、第1取得部17で取得した画像のデータの分類を行う。分類機能は、分類プログラムをコンピュータ上で実行することにより、実現される。第1制御部11は、例えば、第1記憶部13に記憶された巡回取得プログラム、分類プログラム、若しくは分析プログラムに基づき動作する。具体的には、第1制御部11は、CPU(Central Processing Unit)で構成されている。
 また、第1制御部11は、第1記憶部13に記憶した画像情報に基づきスポット情報を生成する(下記参照)。具体的には、第1制御部11は、スポット情報を、少なくとも位置情報と時間情報とに基づき画像情報から生成する。第1制御部11は、第1記憶部13で記憶した画像情報を、予め設定した属性条件(時間情報や位置情報など)に基づき分類する。本実施の形態にかかる分類機能は、少なくとも位置情報と時間情報とに基づき画像情報を分類し、さらに撮影画像(図2に示す画像ファイル参照)に基づき画像情報を分類する。このようにして画像情報を分類し、予め設定したそれぞれの属性条件に基づいてグループ化して収集した画像情報の集合体をスポット情報とする。そのため、スポット情報は、複数の画像情報が含まれた集合体の情報である(図7,図8に示すスポット情報P1~スポット情報P6参照)。
 第1一時記憶部12は、第1制御部11により処理される情報を一時的に記憶する。第1一時記憶部12には、例えば、RAM等の揮発性メモリが用いられる。また、第1一時記憶部12は、第1制御部11の処理により生成される情報を一時的に記憶する。
 第1記憶部13は、巡回取得プログラム、分析プログラム、分類プログラム、巡回取得と分析と分類とに必要な各種情報などを記憶するストレージである。第1記憶部13としては、例えば、ROM等の不揮発性メモリ(フラッシュメモリやHDD等)が用いられる。第1記憶部13は、第1取得部17で取得した画像情報を記憶する(図2参照)。第1記憶部13は、外部に公開するコンテンツ(以下、当該コンテンツともいう)を提供するためのソフトウェア(以下、当該ソフトウェアともいう)のプログラムとデータとを記憶している。具体的には、当該ソフトウェアは、地図サービスのコンテンツを提供する。また、第1記憶部13は、第1制御部11が生成したスポット情報を、複数の画像情報が含まれた集合体として記憶する。
 第1表示部14は、例えば、情報処理装置1を管理するために、第1入力部16に入力された情報処理装置1への要求を表示する。第1表示部14は、地図情報を表示してもよい。第1表示部14は、例えば、第1記憶部13に記憶した多数の画像情報から、属性情報として予め設定した範囲の時間情報及び予め設定した範囲の位置情報に基づいて生成されたスポット情報(図7,図8に示すスポット情報P1~スポット情報P6参照)を、複数の画像情報の集合体として可視化して地図などに表示できる。第1表示部14は、表示装置と位置入力装置とを組み合わせたタッチパネルの構成に限定されるものではなく、単に表示装置だけの構成であってもよい。
 第1通信部15は、外部情報処理装置2及び情報処理端末3に対して通信できるように接続される。第1通信部15は、撮影画像や情報(画像情報)、またはスポット情報を送受信する。また、第1通信部15は、第1制御部11で生成されたスポット情報を、情報処理端末3に出力する。具体的には、第1通信部15は、無線通信、赤外線通信、Wi-Fi(登録商標)、Bluetooth(登録商標)、BLE等の通信規格に対応した通信ができるように構成される。
 第1入力部16は、情報処理装置1に対する要求が入力されるものであり、本実施の形態では、第1取得部17に対して外部情報処理装置2から画像情報(図2参照)を取得するよう要求できるように構成される。本実施の形態にかかる第1入力部16による入力として、タッチパネルである第1表示部14を用いた入力(文字入力や第1表示部14の該当セグメントへの直接接触入力)、音声入力部(図示省略)による音声入力、物理キー(図示省略)による入力、若しくは外部入力機器(図示省略)による入力などがある。
 第1取得部17は、予め設定した取得条件に基づき外部情報処理装置2から撮影画像及び撮影画像に付加した画像情報(図2参照)を取得する。具体的には、第1取得部17は、外部情報処理装置2において撮影画像に関連して記憶された撮影画像の関連情報に基づいて撮影画像を取得する。ここでいう取得条件は、外部情報処理装置2において撮影画像に関連して記憶された撮影画像の関連情報である。画像情報には、図2に示すように、少なくとも、撮影画像を撮影した際に画像に付加した位置情報及び時間情報が含まれている。本実施の形態では、画像情報には、撮影画像に関する情報のみが含まれ、具体的には時間情報、位置情報が含まれている。第1取得部17は、画像情報とともに、当該画像情報を付加した画像ファイルを取得する。
 外部情報処理装置2(2A,2B)は、情報処理端末3から第2通信部23を介して送信された撮影画像を外部に公開する。外部情報処理装置2(2A,2B)は、例えばSNSなどを提供する。本実施の形態にかかる情報処理システムとしては、2つの外部情報処理装置2A,2Bが用いられているが、これに限定されるものではない。情報処理システムとしては、1つの外部情報処理装置2だけが用いられていてもよいし、3つ以上の外部情報処理装置2が用いられていてもよい。図1では、1つの情報処理端末3を示しているが、実際は複数存在する。
 全ての外部情報処理装置2には、撮影画像を外部に公開するために、少なくとも、第2制御部21と、第2記憶部22と、第2通信部23とが設けられている。そのため、本実施の形態では、2つの外部情報処理装置2A,2Bの対応する構成部材に同一符号を付す。
 第2制御部21は、撮影画像を外部に公開する公開機能を有している。公開機能は、複数の情報処理端末3から第2通信部23を介して受信した撮影画像を外部に公開する。第2制御部21においては、第2記憶部22に記憶された公開プログラムに基づいて、公開機能が動作する。具体的には、第2制御部21は、CPUで構成される。
 第2記憶部22は、公開プログラムや、撮影画像を外部に公開するのに必要な各種情報などを記憶するストレージである。第2記憶部22としては、例えば、ROM等の不揮発性メモリ(フラッシュメモリやHDD等)が用いられる。第2記憶部22には、撮影画像を公開するSNSのコンテンツ(以下、外部コンテンツともいう)が記憶されている。
 第2通信部23は、情報処理装置1及び情報処理端末3に対して通信できるように接続される。第2通信部23は、撮影画像や情報(画像情報)を送受信する。具体的には、第2通信部23は、無線通信、赤外線通信、Wi-Fi(登録商標)、Bluetooth(登録商標)、BLE等の通信規格に対応した通信ができるように構成される。
 情報処理端末3には、図1に示すように、少なくとも、第3制御部31と、第3一時記憶部32と、第3記憶部33と、第3表示部34と、第3通信部35と、第3出力部36と、第3入力部37と、第3撮影部38と、が設けられている。
 第3制御部31は、各種の情報処理動作を制御する。具体的には、第3制御部31としては、CPUが用いられる。
 第3一時記憶部32は、第3制御部31により処理される情報を一時的に記憶する。第3一時記憶部32としては、例えば、RAM等の揮発性メモリが用いられる。第3一時記憶部32は、第3制御部31の処理により生成される情報を一時的に記憶する。
 第3記憶部33は、各種情報処理プログラムや、各種情報などを記憶するストレージである。第3記憶部33としては、例えば、ROM等の不揮発性メモリ(フラッシュメモリやHDD等)が用いられる。第3記憶部33は、第3撮影部38で撮影した撮影画像、及び当該撮影画像に付加する画像情報を記憶する。
 第3表示部34は、各種情報を表示する。第3表示部34は、各種情報に加え、撮影画像を表示できるように構成されている。第3表示部34は、情報処理装置1の第1記憶部13に記憶した画像情報に基づき生成されたスポット情報を表示する。第3表示部34は、タッチパネルの構成に限定されるものではなく、単に表示装置だけの構成であってもよい。
 第3通信部35は、情報処理装置1及び外部情報処理装置2に対して通信できるように接続される。第3通信部35は、撮影画像や情報(画像情報)を送受信する。具体的には、第3通信部35は、無線通信、赤外線通信、Wi-Fi(登録商標)、Bluetooth(登録商標)、BLE等の通信規格に対応した通信ができるように構成される。
 第3出力部36は、第3撮影部38で撮影した撮影画像や、情報処理装置1が提供する当該コンテンツや、外部情報処理装置2が提供する外部コンテンツ(例えばSNS)などを表示するデータを第3表示部34へ出力する。第3出力部36は、第3表示部34での表示に対応しない音声などのデータをスピーカへ出力する構成でもよい。
 第3入力部37は、第3通信部35に対して外部情報処理装置2へ撮影画像やその画像情報を送信するよう指示できるように構成されている。第3入力部37は、第3撮影部38に対して撮影するよう指示できるように構成されている。本実施の形態にかかる第3入力部37による入力として、タッチパネルである第3表示部34を用いた入力(文字入力や第3表示部34の該当セグメントへの直接接触入力)や、音声入力部(図示省略)による音声入力、物理キー(図示省略)による入力、外部入力機器(図示省略)による入力などがある。
 第3撮影部38は、例えば、撮影素子を用いて撮影を行う。第3撮影部38は、撮影した撮影画像を第3記憶部33に記憶させる。撮影画像には、画像情報が含まれている。画像情報には、少なくとも撮影した時間情報、撮影した位置情報が含まれている。画像情報には、撮影した角度情報、撮影した画像サイズなどが含まれている。
 上記の通り、情報処理装置1で生成される本実施の形態にかかるスポット情報は、画像情報に基づき生成されるので、更新情報であり、地域情報でもある。そのため、スポット情報は、随時更新可能なPOI(Point Of Interest)情報となる。
 次に、本実施の形態にかかる情報処理システムの動作(情報処理装置1と外部情報処理装置2との関係、情報処理装置1と情報処理端末3との関係、外部情報処理装置2と情報処理端末3との関係)について、図2~図10を用いて説明する。
 まず、外部情報処理装置2と情報処理端末3との関係について、図3を用いて説明する。ここでは、情報処理端末3が撮影した撮影画像を、外部情報処理装置2が外部に公開する動作について説明する。
 情報処理端末3の第3制御部31は、第3撮影部38で撮影画像を撮り、撮った撮影画像を外部に公開するための外部情報処理装置2を選択する(ステップS101)。なお、ここでいう選択は2つの外部情報処理装置2A,2Bのいずれか一方を選択することに限定されず、複数の情報処理装置2(2A、2B)を同時に選択してもよい。本実施の形態では、外部情報処理装置2Aを選択する。
 ステップS101の後、第3制御部31は、外部情報処理装置2Aに撮影画像を送信する前に、撮影画像の編集を行う。ここでの編集は任意であって、第3制御部31は編集せずにオリジナルの撮影画像を送信してもよい(ステップS102)。本実施の形態では、第3制御部31は、撮影画像の編集をS102で行っているが、これに限定されるものではなく、第3撮影部38で撮影画像を撮った後のステップS101前に撮影画像の編集を事前に行ってもよい。
 ステップS102において、撮影画像の編集を終えた後に、第3制御部31は、第3通信部35を介して外部情報処理装置2Aに撮影画像及び、撮影画像に付加した画像情報を送信し、外部情報処理装置2Aの外部コンテンツにて外部に公開する撮影画像の投稿を行う(ステップS103)。投稿後に、外部情報処理装置2Aの第2制御部21は、投稿された撮影画像の外部への公開を行い、本工程を終了する。
 次に、情報処理装置1と外部情報処理装置2との関係について、図4を用いて説明する。ここでは、外部情報処理装置2(2A,2B)が外部コンテンツで外部に公開した撮影画像の画像情報を、情報処理装置1が取得し記憶する動作について説明する。本実施の形態では、撮影画像と当該撮影画像に付加した画像情報とを取得しているが、これに限定されるものではなく、少なくとも画像情報を取得していればよい。
 情報処理装置1の作業者は、外部情報処理装置2から画像情報を取得する要求を、第1入力部16を介して入力する。この入力動作により、第1取得部17は、第1記憶部13に記憶され第1制御部11にて動作制御(実行)する巡回取得プログラムによって取得要求を行い、外部情報処理装置2(2A,2B)のいずれかで外部に公開した撮影画像が有るか無いかをチェック(巡回サーチ)する(ステップS201)。ここでの巡回サーチは、撮影画像に関連するリンクや、関連する語彙のハッシュタグなどを検索条件として設定し、検索条件に一致するか否かによって行われる。
 ステップS201で取得可能な撮影画像があった場合(ステップS202で有)、第1取得部17は、撮影画像と当該撮影画像の画像情報を取得する。また、ステップS201で取得可能な撮影画像がない場合(ステップS202で無)、第1取得部17は、ステップS201に戻り再度、巡回サーチを行う。
 ステップS202で撮影画像と当該撮影画像の画像情報を取得した後、画像情報に、外部情報処理装置2が外部に公開する外部コンテンツのアカウント情報が含まれていない場合(ステップS203で無)、第1制御部11は、画像情報に識別番号を付す(ステップS204)。ここまでのステップS201~ステップS202までを取得ステップと定義する。
 一方、ステップS202で撮影画像と当該撮影画像の画像情報を取得し、画像情報に、外部情報処理装置2が外部に公開する外部コンテンツのアカウント情報が含まれている場合(ステップS203で有)、第1制御部11は、アカウント情報を削除する(ステップS205)。第1制御部11は、その後に画像情報に識別番号を付す(ステップS204)。このように、ステップS205でアカウント情報を削除することで、情報処理装置1には、外部情報処理装置2が外部に公開する外部コンテンツのアカウント情報が記憶されない。従って、外部コンテンツのアカウント情報に含まれるユーザの個人情報が、情報処理装置1から流出することはない。
 ステップS204において画像情報に識別番号を付した後、第1制御部11は、画像情報の位置情報を第1記憶部13に記憶し(ステップS206)、時間情報を第1記憶部13に記憶する(ステップS207)。第1制御部11は、時間情報を第1記憶部13に記憶した後に、画像情報の位置情報を第1記憶部13に記憶してもよい。
 ステップS206及びステップS207において、画像情報の位置情報及び時間情報を第1記憶部13に記憶した後、第1制御部11は、撮影画像の画像ファイルを第1記憶部13に記憶する(ステップS208)。
 ステップS208にて第1記憶部13に記憶した画像ファイルの画像情報に対して、第1制御部11は、分類プログラムに基づいて(プログラムを実行して)撮影画像及び当該撮影画像の画像情報の分類を行う(ステップS209)。本実施の形態では、ステップS209を分類ステップと定義する。本実施の形態では、第1制御部11は、例えば時間情報に基づいて、春夏秋冬などの季節による分類や、午前午後夜間などの時間帯による分類を行う。また、第1制御部11は、位置情報に基づいて、十進法の緯度や経度のエリア範囲を設定し、設定したエリア範囲毎にスポットエリアの分類を行う。さらに、第1制御部11は、撮影画像に写っているものに対して画像処理を行い、撮影の対象物を特定する画像のデータの分析を行ってもよい。第1制御部11は、画像のデータの分析を行った後、対象物による分類を行うことができる。画像のデータの分析とは、例えば、予め記憶されたランドマークの画像情報とのマッチングの度合いで対象物による分類を行うことである。また、第1制御部11は、撮影画像を入手した外部情報処理装置2(2A,2B)を特定し、外部情報処理装置2(2A,2B)ごとに分類を行う。このような分類により第1制御部11は、後述する記憶ステップで記憶した画像情報に基づきスポット情報を生成する。
 上記のようにステップS209のカテゴライズを行い、第1制御部11は、第1記憶部13への撮影画像及び当該撮影画像の画像情報の記憶を完了する(ステップS210)。図2に、第1記憶部13に記憶した撮影画像及び当該撮影画像の画像情報を示す。
 ステップS210の後、他の画像情報がある場合(ステップS211で有)、第1制御部11は、ステップS203に戻る。一方、他の画像情報が無い場合(ステップS211で無)、第1制御部11は、巡回取得を終了し(ステップ212)、本工程を終了する。本工程について、情報処理装置1が起動している間、第1制御部11は、基本的には連続して画像情報の取得を行うので、ステップS201~ステップS211を連続して行っている。また、ここまでのステップS204~ステップS210までを記憶ステップと定義する。第1制御部11は、記憶ステップで記憶した画像情報に基づきスポット情報を生成する(本生成工程を制御ステップと定義する)。
 次に、情報処理装置1において、第1取得部17が取得し第1記憶部13に記憶した撮影画像及び当該撮影画像の画像情報(以下、当該画像情報ともいう)を、情報処理装置1が外部に公開するコンテンツ(当該コンテンツ)に反映させる動作について、図5を用いて説明する。本実施の形態では、図4に示す工程と、図5に示す本工程とを別工程としているが、連続した工程であってもよい。または、図4に示す工程は、当該コンテンツを提供するソフトウェア(当該ソフトウェア)の動作であってもよい。本実施の形態では、第1取得部17が撮影画像と当該撮影画像に付加した画像情報とを取得しているが、これに限定されるものではなく、画像情報のみを取得してもよい。
 第1制御部11が、当該コンテンツを提供するソフトウェアを起動する(ステップS301)。
 ステップS301の後、第1制御部11は、第1取得部17が取得し第1記憶部13に記憶した当該画像情報を取得する指示を行う(ステップS302)。当該画像情報がある場合(ステップS303で有)、第1制御部11は、第1記憶部13から撮影画像及び当該撮影画像の画像情報を取得する(ステップS304)。
 一方、ステップS302の後、当該画像情報がない場合(ステップS303で無)、第1制御部11は、ステップ303を連続して実行する。
 ステップ304において当該画像情報を取得した後、第1制御部11は、当該画像情報を、第1記憶部13における当該ソフトウェアの画像情報に関する記憶領域に記憶することにより、当該コンテンツに反映(複製)させる(ステップS305)。本実施の形態では、第1制御部11が画像情報の記憶・反映を行っているが、これに限定されるものではない。第1制御部11は、ステップS305を行わずに、必要に応じて都度、当該画像情報を読み取りに行く読取機能を有してもよい。
 ステップS305の後、他に当該画像情報が有る場合(ステップS306で有)、第1制御部11は、ステップS304に戻り、他の当該画像情報の取得を行う。
 一方、ステップS305の後、他に当該画像情報が無い場合(ステップS306で無)、第1制御部11は、当該ソフトウェアを終了し(S307)、本工程を終了する。
 次に、情報処理装置1の当該ソフトウェアについて、図6~図8を用いて説明する。当該ソフトウェアは、情報処理端末3を用いて使用する地図サービスのコンテンツを提供する。当該ソフトウェアは、図2に示すデータテーブルの画像情報に基づいて生成されたスポット情報を表示する。図2に示すデータテーブルの画像情報に基づいて生成されたスポット情報は、地点情報である。さらに、スポット情報は、撮影画像の数を人が集まる数とみなせば、集客能力を示す集客情報であるとも言える。ここでいう集客情報は、図7及び図8に示すように、星の横に数字で表され、数字の大きい方が集客能力のある地点情報である。集客情報は、例えば、撮影画像が所定の数以上で最も少ない場合に「1.0」、撮影画像の数が最も多い場合に「5.0」と設定されて、撮影画像の数の増加に応じて星の横の数字が「0.1」単位で増加するように、データ処理されて表示される。
 情報処理端末3の第3記憶部33には、情報処理装置1の当該ソフトウェアを使用するための専用のソフトウェア(以下、専用ソフトウェアともいう)がインストールされている。
 最初に、第3制御部31が、専用ソフトウェアを起動する(ステップS401)。
 ステップS401の後、地図情報が第3表示部34に表示される。上記の制御ステップで生成したスポット情報を出力するための設定条件(検索条件)が、第3入力部37を介して入力されると(ステップS402)、第3制御部31は、入力された設定条件に基づいて検索を行う(ステップS403)。ステップS403では、上記の制御ステップで生成したスポット情報が情報処理端末3に出力される(通信ステップと定義する)。本実施の形態にかかる設定条件は、現在位置からの距離を示す距離条件、春夏秋冬などの季節を示す条件、具体的な月日を示す条件、日の出から日の入りまでと日の入りから日の出までとの太陽の状態を示す条件、午前午後夜間などの時間帯を示す条件、具体的な詳細時間を示す条件、画像情報を取得した外部情報処理装置2A,2Bの選択、および撮影画像の有無の選択である。本実施の形態では、このような設定条件となっているが、これに限定されずに、撮影画像の撮影時の撮影条件に関連する設定条件であればよく、例えば、撮影方向(撮影角度)や、フラッシュの有無等の撮影条件が追加されてもよい。
 ステップS403の検索の結果、設定条件に合致するスポット情報(撮影位置)が無い場合(ステップS404で無)、第3制御部31は、ステップS402に戻り、再度設定条件が入力されると、その設定条件に基づいて検索を行う(ステップS403)。
 一方、ステップS403の検索の結果、設定条件に合致するスポット情報(撮影位置)が有る場合(ステップS404で有)、第3制御部31は、合致するスポット情報を第3表示部34に表示する。具体的には、第3制御部31は、図7,図8に示すようにスポット情報P1~スポット情報P6を地図上に表示する。図7,図8では、スポット情報の内容を楕円内に示している。図7,図8に示す楕円中に星マークと共に表示した数字は、スポット情報の撮影位置における撮影画像の数に比例した指標であり、1.0~5.0の範囲で示す。図7,図8に示す地図上の太陽マークは、日の出から日の入りまでの日中におけるスポット情報であることを示す。一方、地図上の月マークは、日の入りから日の出までの夜間におけるスポット情報であることを示す。図7,図8に示すランドマークは、名山、都心タワー、都心遊園地、そして現在位置(家マーク)である。
 そして、ユーザの操作(第3入力部37による入力操作)に基づき、第3制御部31が、図7及び図8に示す地図上に表示されたスポット情報から所望のスポット情報を選択する(ステップS405)。ここで選択されたスポット情報は、上記の記憶ステップで記憶された画像情報に基づき生成された情報であり、第3制御部31は、このスポット情報を第3表示部34に表示する(表示ステップと定義する)。
 第3制御部31は、ステップS405で所望のスポット情報の表示を終了した後、当該ソフトウェアを終了し(ステップS406)、本工程を終了する。
 本実施の形態にかかる情報処理装置1によれば、外部情報処理装置2が外部に公開した撮影画像を鑑賞以外にも利用することができる。具体的には、本実施の形態によれば、情報処理装置1の第1制御部11は少なくとも位置情報と時間情報とに基づき画像情報を分類するので、撮影した時間と位置との関係に基づいて画像情報の収集を行うことができる。その結果、外部情報処理装置2(SNSなど外部サービス)が頻繁に外部に公開している特定位置の情報を収集することができる。本実施の形態によれば、さらに時間情報も分類対象となっているため、よく撮影されている時間の情報も収集することができる。従って、詳細な画像情報を取得することにより、撮影スポットに関するより信頼性のある情報を得ることができる。
 また、第1取得部17は、撮影画像を取得するので、撮影画像の画像処理を行うことができる。従って、さらにスポット情報の信頼性を向上させることができる。
 また、第1取得部17は、撮影画像に関連して記憶された撮影画像の関連情報に基づいて、外部情報処理装置2から撮影画像を取得する。従って、撮影画像に関連した、例えば汎用的な用語(ハッシュタグなどを利用した用語)などの関連情報を用いることにより、スポット情報の信頼性を向上させることができる。
 また、第1記憶部13に記憶される画像情報には、撮影画像に関する情報のみが含まれ、個人情報が含まれていない。従って、取得した撮影画像から個人情報が流出することはない。
 また、本実施の形態にかかる情報処理装置1の情報処理プログラムによれば、外部情報処理装置2が外部に公開した撮影画像を利用することができる。具体的には、本実施の形態によれば、情報処理装置1が、取得ステップと記憶ステップと分類ステップとを実行し、分類ステップでは、少なくとも位置情報と時間情報とに基づき画像情報を分類する。従って、情報処理装置1は、撮影した時間と位置との関係に基づいて画像情報の収集を行うことができる。その結果、外部情報処理装置2(SNSなど外部サービス)が頻繁に外部に公開している特定位置の情報を収集することができる。また本実施の形態によれば、さらに時間情報に基づいて画像情報を分類するため、よく撮影されている時間の情報も収集することができる。従って、詳細な画像情報を取得することにより、撮影スポットに関するより信頼性のある情報を得ることができる。
 また、本実施の形態によれば、スポット情報は、少なくとも位置情報と時間情報とに基づき画像情報から生成される。または、本実施の形態によれば、情報処理装置1のコンピュータに、外部情報処理装置2が撮影画像に付加した画像情報を予め設定した取得条件に基づき取得する取得ステップと、第1取得部17で取得した画像情報を記憶する記憶ステップと、記憶ステップで記憶した画像情報に基づきスポット情報を生成する制御ステップと、制御ステップで生成したスポット情報を情報処理端末3に出力する通信ステップとを実行させ、スポット情報は、少なくとも位置情報と時間情報とに基づき画像情報から生成される。その結果、撮影した時間と位置との関係に基づいて生成されたスポット情報を情報処理端末3で確認することができる。具体的には、ユーザはスポット情報を情報処理端末3の第3表示部34に表示することができる。また、ユーザは、情報処理端末3を用いて、外部情報処理装置2が頻繁に外部に公開している特定位置の情報(画像情報)を収集して生成したスポット情報を、画像情報の集合体として把握することができる。従って、ユーザは、どの位置でのスポット情報が多いかが一目でわかる。
 また、本実施の形態によれば、外部情報処理装置2が撮影画像に付加した画像情報を記憶する第1記憶部13が情報処理装置1に設けられ、第1記憶部13に記憶した画像情報に基づき生成されたスポット情報を表示する第3表示部34が情報処理端末3に設けられる。スポット情報は、少なくとも位置情報と時間情報とに基づき画像情報から生成されて、第1記憶部13に記憶される。または、本実施の形態によれば、情報処理装置1と情報処理端末3と外部情報処理装置2とが通信できるように接続された情報処理システムのコンピュータに、外部情報処理装置2が撮影画像に付加した画像情報を情報処理装置1に記憶する記憶ステップと、記憶ステップで記憶された画像情報に基づき生成されたスポット情報を情報処理端末3に表示する表示ステップとを実行させ、スポット情報は、少なくとも位置情報と時間情報とに基づき画像情報から生成されて第1記憶部13に記憶される。その結果、撮影した時間と位置との関係に基づき画像情報を収集して生成したスポット情報を情報処理端末3で確認することができる。具体的には、スポット情報を情報処理端末3の第3表示部34に表示することができる。また、ユーザは、情報処理端末3を用いて、外部情報処理装置2が頻繁に外部に公開している特定位置の情報(画像情報)を収集して生成したスポット情報を、画像情報の集合体として把握することができる。従って、ユーザは、どの位置でのスポット情報が多いかが一目でわかる。
 また、本実施の形態にかかる情報処理システムによれば、第1記憶部13に記憶される画像情報には、少なくとも、撮影画像に付加された位置情報及び時間情報が含まれ、第1制御部11は、少なくとも位置情報と時間情報とに基づき画像情報を分類する。従って、第1制御部11は、撮影した時間と位置との関係に基づいて画像情報の収集を行うことができる。
 また、スポット情報は更新情報であるので、常に最新の情報として情報の鮮度を新鮮に保つようスポット情報の内容が変更される。
 また、スポット情報は第1記憶部13に記憶されるので、他の装置(特に外部情報処理装置2)に依存することなく情報処理装置1において複数の画像情報の集合体であるスポット情報を生成することが容易になる。
 また、第1通信部15は、スポット情報を複数の画像情報の集合体とし、当該集合体の位置情報を情報処理端末3に出力する。従って、第1通信部15は、画像情報の全てのデータを情報処理装置1から情報処理端末3に出力することなく、スポット情報を複数の画像情報の集合体としてまとめた1つの情報として、位置情報を含めて情報処理端末3に出力することができる。従って、情報処理装置1と情報処理端末3との通信がし易く、スポット情報の利用が容易となる。
 本実施の形態では、外部として、外部情報処理装置2を適用しているが、これに限定されるものではなく、情報処理装置1や情報処理端末3と関係なく、システム構築されている外部の情報処理システムを適用することも可能である。
 本実施の形態では、撮影画像に関する情報のみが画像情報に含まれているが、これは好適な例であり、これに限定されない。図9に示すように、画像情報に、外部コンテンツのアカウントに関するユーザ属性情報が含まれていてもよい。この場合、撮影画像を外部情報処理装置2に投稿したユーザのユーザ属性情報を取得することができるので、特定のニッチなニーズ(例えば、訪日外国人のニーズ)に対しても応えられるような情報収集を行うことができる。図9に示す画像情報によれば、ユーザ属性情報として、外部コンテンツのユーザIDと性別と年齢と国籍の情報を取得している。しかし、ユーザ属性情報はこれに限定されず、趣味の情報などを任意にユーザ属性情報として設定してもよい。また、ユーザ属性情報が画像情報に含まれる場合、外部情報処理装置2が外部に公開した撮影画像の画像情報を情報処理装置1が取得し記憶する工程は、図4に示す工程に代えて、次の図10に示す工程となる。
 ユーザ属性情報が画像情報に含まれる場合の情報処理装置1と外部情報処理装置2との関係について、図10を用いて説明する。ここでは、外部情報処理装置2(2A,2B)が外部コンテンツで外部に公開した撮影画像の画像情報を、情報処理装置1が取得し記憶する動作について説明する。本実施の形態では、情報処理装置1は撮影画像と当該撮影画像に付加した画像情報とを取得しているが、これに限定されるものではなく、少なくとも画像情報を取得していればよい。
 情報処理装置1の作業者は、外部情報処理装置2から画像情報を取得する要求を、第1入力部16を介して入力する。この入力動作により、第1取得部17は、第1記憶部13に記憶され第1制御部11にて動作制御する巡回取得プログラムによって取得要求を行い、外部情報処理装置2(2A,2B)のいずれかで外部に公開した撮影画像が有るか無いかをチェック(巡回サーチ)する(ステップS501)。ここでの巡回サーチは、図4を用いて説明した巡回サーチと同様である。
 ステップS501で取得可能な撮影画像があった場合(ステップS502で有)、第1取得部17は、撮影画像と当該撮影画像の画像情報を取得する。ステップS501で取得可能な撮影画像がない場合(ステップS502で無)、第1取得部17は、ステップS501に戻り再度、巡回サーチを行う。
 ステップS502で撮影画像と当該撮影画像の画像情報を取得した後、第1制御部11は、外部情報処理装置2が外部に公開する外部コンテンツのアカウント情報を第1記憶部13に記憶する(ステップS503)。その後、第1制御部11は、画像情報に識別番号を付す(ステップS504)。
 ステップS504において画像情報に識別番号を付した後、第1制御部11は、画像情報の位置情報を第1記憶部13に記憶し(ステップS505)、時間情報を第1記憶部13に記憶する(ステップS506)。
 ステップS506において、画像情報の位置情報及び時間情報を第1記憶部13に記憶した後、第1制御部11は、撮影画像の画像ファイルを第1記憶部13に記憶する(ステップS507)。
 ステップS507にて第1記憶部13に記憶した画像ファイルの画像情報に対して、第1制御部11は、分類プログラムに基づいて(プログラムを実行して)撮影画像及び当該撮影画像の画像情報の分類を行う(ステップS508)。ここでいう分類は、図4を用いて説明した分類と同様である。
 上記のようにステップS508のカテゴライズを行い、第1制御部11は、第1記憶部13への撮影画像及び当該撮影画像の画像情報の記憶を完了する(ステップS509)。図9に、第1記憶部13に記憶した撮影画像及び当該撮影画像の画像情報を示す。
 ステップS509の後、他の画像情報がある場合(ステップS510で有)、第1制御部11は、ステップS503に戻る。一方、他の画像情報が無い場合(ステップS510で無)、第1制御部11は、巡回取得を終了し(ステップ511)、本工程を終了する。なお、本工程について、情報処理装置1が起動している間、第1制御部11は、基本的には連続して画像情報の取得を行うので、ステップS501~S511を連続して行っている。
 上記の実施の形態では、当該ソフトウェアのコンテンツは地図サービスであるが、この地図サービスはナビゲーション機能を有していてもよい。このようにナビゲーション機能を有することで、地図サービスは、情報処理端末3の第3表示部34に表示した地図上のスポット情報にユーザを誘導できる。ナビゲーション機能は、情報処理端末3の第3記憶部33に記憶され第3制御部31によって制御されてもよく、情報処理装置1の第1記憶部13に記憶され第1制御部11によって制御されてもよい。つまり、情報処理端末3の第3表示部34において地図及びナビゲーションの表示が可能であれば、ナビゲーション機能自体は、情報処理装置1と情報処理端末3によって構成されるシステムが有していればよく、情報処理装置1と情報処理端末3のどちらの装置にナビゲーション機能が搭載されてもよい。具体的には、情報処理装置1と情報処理端末3のいずれか一方の装置の記憶部にナビゲーション機能を記憶し、他方の装置の制御部によってナビゲーション機能を制御してもよい。または、情報処理装置1と情報処理端末3の両方の記憶部にナビゲーション機能を分割して記憶し、いずれか一方の装置の制御部によってもしくは両方の装置の制御部が協動して、ナビゲーション機能を制御してもよい。
 次に、当該ソフトウェアのコンテンツに、ナビゲーション機能を有した場合のナビゲーションシステムについて、図11~図13を用いて説明する。スポット情報は、POI情報であるので、ナビゲーション機能に好適である。スポット情報は、情報更新の頻度が少ない通常のナビゲーション機能に含まれるPOI情報に比べてより新鮮であるため、信頼性の高いPOI情報である。
 情報処理端末3の第3記憶部33には、情報処理装置1の当該ソフトウェアを使用するための専用ソフトウェアがインストールされている。
 最初に、第3制御部31が、専用ソフトウェアを起動する(ステップS601)。
 ステップS601の後、地図情報が第3表示部34に表示される。スポット情報を出力するための設定条件(検索条件)が、第3入力部37を介して入力されると(ステップS602)、第3制御部31は、入力された設定条件に基づいて検索を行う(ステップS603)。ここでいう検索は、図4に示す検索と同様であり、さらに上記のユーザ属性情報を設定条件に含めてもよい。つまり、日本国内であれば訪日外国人の情報であるか否かなどのユーザ属性情報を加えてもよい。
 ステップS603の検索の結果、設定条件に合致するスポット情報(撮影位置)が無い場合(ステップS604で無)、第3制御部31は、ステップS602に戻り、再度設定条件が入力されると、その設定条件に基づいて検索を行う(ステップS603)。
 一方、ステップS603の検索の結果、設定条件に合致するスポット情報(撮影位置)が有る場合(ステップS604で有)、第3制御部31は、合致するスポット情報を第3表示部34に表示する。具体的には、第3制御部31は、図12,図13に示すようにスポット情報P1~スポット情報P6を地図上に表示する。ここでいうスポット情報P1~スポット情報P6やランドマークは、図7,図8に示すスポット情報と同様である。
 そして、第3制御部31は、図12,13など設定条件の検索によって表示した地図上に示されたスポット情報から、所望のスポット情報を選択する(ステップS605)。スポット情報は、例えば、選択されたルートの移動時間を考慮して表示されてもよい。第3制御部31のナビゲーション機能は、現在地からスポット情報の経由地まで移動する途中で、表示するスポット情報の内容を日中のスポット情報から夜間のスポット情報に変更してもよい。
 ステップS605の後、第3制御部31は、選択表示した所望のスポット情報を目的地とするナビゲーションのルート設定を行う。図12,図13に示す地図では都心タワーが目的地として設定されている。そして、第3制御部31は、都心タワーに直接移動するルートを選択したナビゲーションを開始するか、他のスポット情報を経由するルートを選択したナビゲーションを開始する(ステップS606)。具体的には、都心タワーに直接移動する場合、第3制御部31は、図12,図13に破線で示す、現在位置から都心タワーへのルートを選択したナビゲーションを開始する。一方、他のスポット情報を経由する場合、図12,13に実線で示す、スポット情報(図12ではスポット情報P2、図13ではスポット情報P5)を経由した現在位置から都心タワーへのルートを選択したナビゲーションを開始する。図12は、スポット情報P2を経由するナビゲーションの例を示す。図13は、スポット情報P5を経由するナビゲーションの例を示す。
 そして、第3制御部31は、選択したルートでのナビゲーションを終了した後(ステップS607)、当該ソフトウェアを終了し(ステップS608)、本工程を終了する。
 上記の図11に示すナビゲーションでは、情報処理端末3の第3表示部34に表示した地図でのスポット情報を目的地とするナビゲーションとなっている。しかし、ナビゲーション機能はこのような仕様に限定されるものではなく、例えば図14に示すような目的地とは別に経由地を選択するためのナビゲーションであってもよい。図14に示す工程に関しては、図11に示す工程に対して異なる工程について説明し、同一の工程や内容についての説明を省略する。
 情報処理端末3の第3記憶部33には、情報処理装置1の当該ソフトウェアを使用するための専用ソフトウェアがインストールされている。
 図14に示すように、最初に、第3制御部31が専用ソフトウェアを起動する(ステップS701)。
 ステップS701の後、地図情報が第3表示部34に表示される。ここで表示される地図は、現在位置を中心とした地図情報である。この状態において、第3制御部31は、ナビゲーション設定を行い(ステップS702)、目的地設定を行う(ステップS703)。
 ステップS703では、第3制御部31は、住所情報や電話番号情報、上記スポット情報、キーワード情報など任意の情報に基づいて目的地設定を行う。本実施の形態では、第3制御部31は、都心タワーを目的地として設定する。
 ステップS703での目的地の設定の後、第3制御部31は、ルート設定を行う(ステップS704)。ここでいうルート設定は、一般道路優先、おすすめルート、距離優先、時間優先などの条件に基づいて行われる。
 ステップS704でのルート設定時、第3制御部31は、選択したルートを地図に表示するとともに、ルート近傍のスポット情報(撮影画像を撮影した位置に関連する情報)が有る場合(ステップS705で有)、スポット情報を地図に表示する。この時、第3制御部31は、地図に表示するスポット情報を絞るために、設定条件が入力されると(ステップS708)、入力された設定条件に基づいて検索を行う(ステップS709)。ここでいう設定条件は、図11に示す上記の設定条件(S602参照)と同様である。
 ステップS709の検索の結果、設定条件に合致するスポット情報(撮影位置)が無い場合(ステップS710で無)、第3制御部31は、ステップS708に戻り、再度設定条件が入力されると、検索を行う(ステップS709)。
 一方、ステップS709の検索の結果、設定条件に合致するスポット情報(撮影位置)が有る場合(ステップS710で有)、第3制御部31は、合致するスポット情報を第3表示部34に表示する。ここでいうスポット情報の表示は、図11に示すステップS604で説明したスポット情報の表示と同様である。
 そして、第3制御部31は、図12,13など設定条件の検索によって表示した地図上に示されたスポット情報から、経由地設定として所望のスポット情報を選択する(ステップS711)。
 ステップS711の後、第3制御部31は、選択表示した所望のスポット情報を目的地とするナビゲーションのルート設定を行い、スポット情報を経由するルートを選択したナビゲーションを開始する(ステップS712)。
 そして、第3制御部31は、選択したルートでのナビゲーションを終了した後(ステップS713)、当該ソフトウェアを終了し(ステップS714)、本工程を終了する。
 ところで、ステップS704でのルート設定時、第3制御部31は、選択したルートを地図に表示するとともに、ルート近傍のスポット情報(撮影画像を撮影した位置に関連する情報)を表示しない場合(ステップS705で無)、他の経由地選択の設定を行う。ここでいう他の経由地選択の設定とは、スポット情報以外の住所情報や電話番号情報、キーワード情報など任意の情報に基づいて経由地を選択する設定である。
 他の経由地選択の設定を行わない場合(ステップS706で無)、第3制御部31は、そのまま目的地に直行するナビゲーションを開始する(ステップS712)。
 一方、他の経由地選択の設定を行う場合(ステップS706で有)、第3制御部31は、当該他の設定を行い(ステップS707)、他の経由地を設定したナビゲーションを開始する(ステップS712)。
 以下、本発明の別の実施の形態について説明する。本実施の形態の情報処理システムは、情報処理装置1が解析機能を備えた点で主として上述の実施の形態と相違する。解析機能は、SNSへ投稿された投稿写真に関連する投稿記事から撮影画像を解析する。本実施の形態の情報処理システムでは、上述の実施の形態と同様の構成については、適宜に説明を省略する。
 本実施の形態に係る情報処理システムは、図1に示すように、情報処理装置1と、外部情報処理装置2と、情報処理端末3とを備えている。情報処理端末3は、ユーザが使用する端末機器である。情報処理端末3は、画像を撮影する撮影機能と、時刻を計時する計時機能と、位置を測定する位置測定機能とを備えている。情報処理装置1と外部情報処理装置2と情報処理端末3とは、相互に通信できるように構成されている。外部情報処理装置2は、情報処理端末3から第2通信部23を介して送信された撮影画像を外部に公開する。外部情報処理装置2は、情報処理端末3から第2通信部23を介して送信された投稿記事を外部に公開する。情報処理装置1は、撮影画像の画像情報及び投稿記事の投稿記事情報に基づいて、スポット情報を生成する。ここで、投稿記事情報とは、例えばユーザが撮影画像と関連してSNSへ投稿する投稿記事の情報である。
 情報処理装置1において、第1制御部11は、巡回取得機能と分析機能と解析機能と分類機能とを有している。巡回取得機能は、外部情報処理装置2から撮影画像と投稿記事とを取得する機能を有する。巡回取得機能は、巡回取得プログラムをコンピュータ上で実行することにより、実現される。
 より具体的には、第1制御部11は、撮影画像と投稿記事とを取得できるように第1取得部17を制御する。第1取得部17は、外部情報処理装置2で外部に公開した撮影画像に対して、予め設定した取得条件に基づき外部情報処理装置2から撮影画像を取得する。第1取得部17は、撮影画像に関連して記憶された撮影画像の関連情報に基づいて、外部情報処理装置2から撮影画像及び撮影画像に付加された画像情報を取得する。また、第1取得部17は、外部情報処理装置2で外部に公開した投稿記事に対して、予め設定した取得条件に基づき外部情報処理装置2から投稿記事情報を取得する。取得条件は、外部情報処理装置2において、撮影画像に関連して記憶された撮影画像の関連情報である。また、取得条件は、撮影画像に関連する投稿記事情報でもある。画像情報には、撮影画像を撮影した際に撮影画像に付加された位置情報及び時間情報が含まれている場合が多い。画像情報には、画像が撮影された撮影方向が含まれていてもよい。すなわち、第1取得部17は、画像情報が撮影画像に付加された画像ファイルを取得する。また、第1取得部17は、画像ファイルに関連する投稿記事情報を取得する。
 次に、分析機能は、第1取得部17で取得した画像ファイルのデータの分析を行う。データの分析は、画像情報の場合、例えば予め記憶されているデータとのパターンマッチングで行われる。また、データの分析は、撮影画像の場合、例えば予め記憶されている撮影画像のデータと、取得した撮影画像を画像処理した処理データとの特徴量の類似度を判定することで行われる。分析機能は、分析プログラムをコンピュータ上で実行することにより、実現される。
 解析機能は、第1取得部17で取得した投稿記事のデータの解析を行う。データの解析は、例えば投稿記事情報に形態素解析を行った上、予め記憶されている単語と一致するか否かで行われる。形態素解析は、文章及びフレーズを、意味を持つ最小の単位に分解する。データの解析は、例えば投稿記事情報に形態素解析を行った上、予め記憶されている単語と特徴単語の類似度で判定してもよい。解析機能は、解析プログラムをコンピュータ上で実行することにより、実現される。
 より具体的には、第1取得部17は、投稿写真に関連する投稿記事から撮影画像の解析を行う。第1取得部17は、取得した投稿記事情報に対して、形態素解析を行う。第1取得部17は、形態素解析を行って取得した単語を予め決められた分類にしたがって、機械学習により撮影画像の被写対象を推定する。第1取得部17は、例えば、投稿記事の内容が「綺麗な夕陽を発見」を含んでいる場合、形態素解析により「綺麗」、「夕陽」、「発見」の単語を取得する。第1取得部17は、予め記録された特徴語との類似度を機械学習で判定することで、被写体を位置が曖昧な「夕陽」であると推定する。
 分類機能は、第1取得部17で取得した画像ファイルのデータの分類を、撮影画像、画像情報及び投稿記事に対する、分析及び解析の結果に基づいて行う。分類機能は、分類プログラムをコンピュータ上で実行することにより、実現される。すなわち、第1制御部11は、例えば、第1記憶部13に記憶された巡回取得プログラム、分類プログラム、解析プログラム若しくは分析プログラムに基づき動作する。
 第1制御部11は、第1記憶部13に記憶した画像情報と被写体情報に基づきスポット情報を生成する。被写体情報とは、例えば、投稿記事情報から生成した被写対象を推定する情報である。第1制御部11は、スポット情報を画像情報及び被写体情報から生成する。スポット情報は、例えば位置情報と、時間情報と、被写体情報とに基づき生成される。第1制御部11は、第1記憶部13で記憶した画像情報と被写体情報とを、予め設定した属性条件に基づき分類する。属性条件は、例えば、時間情報と位置情報と被写体情報である。本実施の形態に係る分類機能は、位置情報と時間情報と被写体情報とに基づいて、撮影画像の画像ファイルを分類する。言い換えれば、情報処理装置1は、画像情報及び投稿記事情報で撮影画像を分類する。情報処理装置1は、予め設定されたそれぞれの属性条件に基づいて、グループ化して収集した撮影画像の集合体をスポット情報とする。
 次に、本実施の形態に係る情報処理システム全体の動作を説明する。
 まず、外部情報処理装置2と情報処理端末3との関係を説明する。本実施の形態に係る情報処理システムは、情報処理端末3で撮影した撮影画像及び投稿記事を、外部情報処理装置2により外部に公開する。
 情報処理端末3では、第3撮影部38で撮られた撮影画像と、第3入力部37で入力されたSNSへの投稿記事とを外部に公開する外部情報処理装置2が選択される。情報処理端末3は、例えば、撮影画像の編集を終えた後に、第3通信部35を介して外部情報処理装置2Aに画像情報が付与された撮影画像を送信し、外部情報処理装置2Aの外部コンテンツにて外部に公開する撮影画像の投稿を行う。同様に、情報処理端末3は、第3通信部35を介して外部情報処理装置2Aに撮影画像に関連して入力された投稿記事情報を送信し、外部情報処理装置2Aの外部コンテンツにて外部に公開する投稿記事の投稿を行う。外部情報処理装置2Aは、投稿された撮影画像、及び撮影画像に関連する投稿記事を外部に公開する。
 次に、情報処理装置1と外部情報処理装置2との関係について、図15に基づいて詳述する。図15に示すフローチャートでは、情報処理装置1が行う工程のうち、上述の実施の形態で説明した図4のS201からS212の各工程に加え、S220及びS221の工程が新たに追加されている。情報処理装置1は、外部情報処理装置2が外部コンテンツで外部に公開した撮影画像の画像情報を取得する。情報処理装置1は、取得した画像情報を記憶する。
 情報処理装置1において、第1取得部17は、第1制御部11にて動作制御する巡回取得プログラムによって取得要求を行う。情報処理装置1は、外部情報処理装置2で外部に公開した撮影画像が有るか無いかの巡回サーチをする、画像情報の巡回取得工程を行う(S201)。
 情報処理装置1は、巡回取得工程において、取得可能な撮影画像があった場合(S202で有)、撮影画像と当該撮影画像の画像情報を取得する。情報処理装置1は、巡回取得工程において、取得可能な撮影画像がない場合(S202で無)、再度、巡回サーチを行う画像情報の取得工程を行う(S201)。
 次に、情報処理装置1は、撮影画像と当該撮影画像の画像情報とに加え、撮影画像に関連する投稿記事から被写体情報を取得する被写体情報取得工程を行う(S220)。情報処理装置1は、投稿記事情報が含まれておらず、撮影画像と画像情報だけの場合(S220で無)、被写体情報を取得しないで、撮影画像と画像情報だけを取得する。
 続いて、情報処理装置1は、取得した画像情報若しくは投稿記事情報に、外部情報処理装置2が外部に公開する外部コンテンツのアカウント情報が含まれているか否かを判別するアカウント情報判別工程を行う(S203)。情報処理装置1は、アカウント情報判別工程で、外部コンテンツのアカウント情報が含まれている場合(S203で有)、アカウント情報を削除するアカウント削除工程を行う(S205)。情報処理装置1は、アカウント情報を削除した後、画像情報に識別番号を付す識別番号付与工程を行う(S204)。
 情報処理装置1は、画像情報に識別番号を付した後、画像情報に含まれる位置情報を第1記憶部13に記憶する位置情報記憶工程を行う(S206)。情報処理装置1は、画像情報に識別番号を付した後、画像情報に含まれる時間情報を第1記憶部13に記憶する時間情報記憶工程を行う(S207)。情報処理装置1は、画像情報に識別番号を付した後、被写体情報を第1記憶部13に記憶する被写体情報記憶工程を行う(S221)。情報処理装置1は、画像情報に識別番号を付した後、画像ファイルを第1記憶部13に記憶する画像ファイル記憶工程を行う(S208)。情報処理装置1は、画像情報の位置情報と、時間情報と、被写体情報と、画像ファイルとの取得、若しくは記憶をする順番を適宜に変更してもよい。
 第1制御部11は、分類プログラムにより、撮影画像の画像情報及び被写体情報に基づいて、画像ファイルの分類を行うカテゴライズ工程を行う(S209)。第1制御部11は、カテゴライズ工程において、例えば投稿記事情報に基づき画像情報が被写体を遠くから撮影した遠方画像であるか否かの分類を行う。また、第1制御部11は、例えば、投稿記事情報に基づいて、被写体が時間によって移動する夕陽のように被写体の位置情報が曖昧か否かの分類を行う。
 情報処理装置1は、カテゴライズ工程を行った後、撮影画像の画像情報、撮影画像の被写体情報及び撮影画像の画像ファイルの第1記憶部13への記憶を完了する(S210)。図16に、第1記憶部13に記憶した画像情報、被写体情報及び画像ファイルを示すデータテーブルの例を図示する。
 最後に、情報処理装置1は、第1取得部17が取得し第1記憶部13に記憶した撮影画像の画像情報、被写体情報及び画像ファイルを、情報処理装置1が外部に公開するコンテンツに反映させて、終了する。
 本実施の形態に係る別の情報処理システムによれば、外部情報処理装置2が外部に公開した撮影画像を鑑賞以外にも利用することができる。具体的には、情報処理装置1は、第1取得部17と、第1記憶部13と、第1制御部11とを備えている。第1制御部11は、位置情報と、時間情報とに加え、被写体情報に基づき画像ファイルを分類する。情報処理装置1は、位置情報と時間情報と被写体情報とに基づいて画像ファイルを分類するので、撮影した時間と撮影した位置と被写体の情報との関係に基づく画像ファイルの収集を行うことができる。その結果、情報処理装置1は、外部情報処理装置2が頻繁に外部に公開しているような特定位置の情報を、被写体情報と関連付けて収集することができる。情報処理装置1は、例えば、SNSへの投稿写真の被写体が写真を撮影した位置とは別の遠くから撮影した遠方にある場合、若しくは夕陽のように被写体の位置が曖昧な対象についても、画像ファイルを適切に分類することができる。
 なお、本実施の形態の構成は、上述した実施の形態の構成を適宜に組み合わせて構成してもよい。
 なお、本発明は、その精神や主旨または主要な特徴から逸脱することなく、他のいろいろな形で実施することができる。そのため、上述の実施形態はあらゆる点で単なる例示にすぎず、限定的に解釈してはならない。すなわち、上記の実施形態を例として、本発明は、情報処理装置、情報処理システム、または情報処理プログラムである。
 また、本発明の範囲は特許請求の範囲によって示すものであって、明細書本文には、なんら拘束されない。さらに、特許請求の範囲の均等範囲に属する変形や変更は、全て本発明の範囲内のものである。
 本発明は、情報処理装置、情報処理システム及び情報処理プログラムに適用できる。
1 情報処理装置
11 第1制御部
12 第1一時記憶部
13 第1記憶部
14 第1表示部
15 第1通信部
16 第1入力部
17 第1取得部
2(2A,2B) 外部情報処理装置
21 第2制御部
22 第2記憶部
23 第2通信部
3 情報処理端末
31 第3制御部
32 第3一時記憶部
33 第3記憶部
34 第3表示部
35 第3通信部
36 第3出力部
37 第3入力部
38 第3撮影部

Claims (13)

  1.  外部情報処理装置が外部に公開した撮影画像に対して、予め設定した取得条件に基づき前記外部情報処理装置から撮影画像に付加した画像情報を取得する取得部と、
     前記取得部で取得した画像情報を記憶する記憶部と、
     前記記憶部で記憶した画像情報を、予め設定した属性条件に基づき分類する制御部と、が設けられ、
     前記画像情報には、少なくとも、撮影画像に付加した位置情報及び時間情報が含まれ、
     前記制御部は、少なくとも前記位置情報と前記時間情報とに基づき画像情報を分類する
    情報処理装置。
  2.  前記取得条件は、撮影画像に関連して記憶された撮影画像の関連情報であり、
     前記取得部は、撮影画像に関連して記憶された撮影画像の関連情報に基づいて前記外部情報処理装置から撮影画像を取得する
    請求項1に記載の情報処理装置。
  3.  前記画像情報には、前記外部情報処理装置におけるコンテンツのアカウントに関する情報が含まれている
    請求項1又は請求項2に記載の情報処理装置。
  4. コンピュータに、
     外部情報処理装置で外部に公開した撮影画像に対して、予め設定した取得条件に基づき前記外部情報処理装置から撮影画像に付加した画像情報を取得する取得ステップと、
     前記取得ステップで取得した画像情報を記憶する記憶ステップと、
     前記記憶ステップで記憶した画像情報を、予め設定した属性条件に基づき分類する分類ステップと、を実行させ、
     前記画像情報は、少なくとも、撮影画像に付加した位置情報及び時間情報を含み、
     前記分類ステップは、少なくとも前記位置情報と前記時間情報とに基づき画像情報を分類する
    情報処理プログラム。
  5.  情報処理端末で撮影され伝送された撮影画像を外部に公開する外部情報処理装置と、前記情報処理端末及び前記外部情報処理装置と通信可能な情報処理装置と、を備え、
     前記情報処理装置は、前記外部情報処理装置が外部に公開した前記撮影画像に対して、予め設定した取得条件に基づき前記外部情報処理装置から前記撮影画像に付加した画像情報を取得する取得部と、
     前記取得部で取得した画像情報を記憶する記憶部と、
     前記記憶部で記憶した画像情報を、予め設定した属性条件に基づき分類する制御部と、
     分類された画像情報を前記情報処理端末に伝送する通信部と、
    を有しており、
     前記画像情報には、少なくとも、撮影画像に付加した位置情報及び時間情報が含まれ、
     前記制御部は、少なくとも前記位置情報と前記時間情報とに基づき画像情報を分類する
    情報処理システム。
  6.  外部情報処理装置が外部に公開した撮影画像に対して、予め設定した取得条件に基づき前記外部情報処理装置から撮影画像に付加した画像情報を取得する取得部と、
     前記取得部で取得した画像情報を記憶する記憶部と、
     前記記憶部に記憶した画像情報に基づきスポット情報を生成する制御部と、
     制御部で生成したスポット情報を情報処理端末に出力する通信部と、が設けられ、
     前記画像情報には、少なくとも、撮影画像に付加した位置情報及び時間情報が含まれ、
     前記スポット情報は、少なくとも前記位置情報と前記時間情報とに基づき画像情報から生成する
    情報処理装置。
  7.  前記スポット情報は、更新情報である
    ことを特徴とする請求項6に記載の情報処理装置。
  8.  前記スポット情報は、前記記憶部に記憶する
    請求項6または7に記載の情報処理装置。
  9.  前記通信部は、前記スポット情報を、複数の画像情報の集合体とし、前記集合体の位置情報を前記情報処理端末に出力する
    請求項6乃至8のうちいずれか1つに記載の情報処理装置。
  10.  前記スポット情報は、POI情報である
    請求項6乃至9のうちいずれか1つに記載の情報処理装置。
  11.  情報処理装置と情報処理端末と外部情報処理装置とが通信できるように接続され、
     前記外部情報処理装置が外部に公開した撮影画像に付加した画像情報を記憶する記憶部が前記情報処理装置に設けられ、
     前記記憶部に記憶した画像情報に基づき生成されたスポット情報を表示する表示部が前記情報処理端末に設けられ、
     前記画像情報には、少なくとも、撮影画像に付加した位置情報及び時間情報が含まれ、
     前記スポット情報は、少なくとも前記位置情報と前記時間情報とに基づき画像情報から生成して前記記憶部に記憶する
    情報処理システム。
  12. コンピュータに、
     外部情報処理装置が外部に公開した撮影画像に対して、予め設定した取得条件に基づき前記外部情報処理装置から撮影画像に付加した画像情報を取得する取得ステップと、
     前記取得ステップで取得した画像情報を記憶する記憶ステップと、
     前記記憶ステップに記憶した画像情報に基づきスポット情報を生成する制御ステップと、
     前記制御ステップで生成したスポット情報を情報処理端末に出力する通信ステップと、を実行させ、
     前記画像情報は、少なくとも、撮影画像に付加した位置情報及び時間情報を含み、
     前記スポット情報は、少なくとも前記位置情報と前記時間情報とに基づき画像情報から生成する
    情報処理プログラム。
  13. 情報処理装置と情報処理端末と外部情報処理装置とが通信できるように接続されたコンピュータに、
     前記外部情報処理装置が外部に公開した撮影画像に付加した画像情報を前記情報処理装置に記憶する記憶ステップと、
     前記記憶ステップに記憶した画像情報に基づき生成されたスポット情報を前記情報処理端末で表示する表示ステップと、を実行させ、
     前記画像情報は、少なくとも、撮影画像に付加した位置情報及び時間情報を含み、
     前記スポット情報は、少なくとも前記位置情報と前記時間情報とに基づき画像情報から生成して前記記憶部に記憶する
    情報処理プログラム。

     
PCT/JP2018/007174 2017-03-06 2018-02-27 情報処理装置、情報処理システム及び情報処理プログラム WO2018163906A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019504492A JP6989901B2 (ja) 2017-03-06 2018-02-27 情報処理装置、情報処理システム及び情報処理プログラム
US16/491,921 US11294951B2 (en) 2017-03-06 2018-02-27 Information processing device, information processing system, and information processing program

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2017-041207 2017-03-06
JP2017-041206 2017-03-06
JP2017041207 2017-03-06
JP2017041206 2017-03-06

Publications (1)

Publication Number Publication Date
WO2018163906A1 true WO2018163906A1 (ja) 2018-09-13

Family

ID=63448390

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/007174 WO2018163906A1 (ja) 2017-03-06 2018-02-27 情報処理装置、情報処理システム及び情報処理プログラム

Country Status (3)

Country Link
US (1) US11294951B2 (ja)
JP (1) JP6989901B2 (ja)
WO (1) WO2018163906A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113704538A (zh) * 2021-08-30 2021-11-26 北京百度网讯科技有限公司 数据处理方法、装置、电子设备及计算机存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001282813A (ja) * 2000-03-29 2001-10-12 Toshiba Corp マルチメディアデータ検索方法、インデックス情報提供方法、マルチメディアデータ検索装置、インデックスサーバ及びマルチメディアデータ検索サーバ
JP2003298991A (ja) * 2002-03-29 2003-10-17 Fuji Photo Film Co Ltd 画像整理方法および装置並びにプログラム
JP5456944B1 (ja) * 2013-05-16 2014-04-02 株式会社ビジョナリスト 画像ファイルクラスタリングシステム及び画像ファイルクラスタリングプログラム
JP2014153338A (ja) * 2013-02-14 2014-08-25 Alpine Electronics Inc 地図表示装置
JP2015036690A (ja) * 2013-08-16 2015-02-23 国立大学法人九州大学 ルート提示装置、移動端末、ルート提示方法、ルート表示方法、ルート提示プログラム及びルート表示プログラム
JP2016143269A (ja) * 2015-02-03 2016-08-08 日本電信電話株式会社 コンテンツ検索装置、コンテンツ検索方法、コンテンツ格納装置およびコンテンツ格納方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4356688B2 (ja) * 2005-12-07 2009-11-04 ソニー株式会社 撮像装置、およびデータ記録方法、データ表示制御方法、並びにコンピュータ・プログラム
JP2008047017A (ja) * 2006-08-21 2008-02-28 Sony Corp 情報処理装置および方法、並びにプログラム
BRPI0812782B1 (pt) * 2007-05-31 2019-01-22 Panasonic Corp aparelho de captura de imagem, aparelho de provisão de informação adicional e método para uso em um aparelho de provisão de informação adicional
JP4998543B2 (ja) * 2009-12-22 2012-08-15 カシオ計算機株式会社 測位装置、測位方法及びプログラム
JP2011244058A (ja) * 2010-05-14 2011-12-01 Sony Corp 情報処理装置、情報処理システム、及びプログラム
WO2012147256A1 (ja) * 2011-04-25 2012-11-01 パナソニック株式会社 画像処理装置
JP6068357B2 (ja) * 2012-03-14 2017-01-25 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America コンテンツ表示処理装置、コンテンツ表示処理方法、プログラム、及び集積回路
US9462054B2 (en) * 2014-02-27 2016-10-04 Dropbox, Inc. Systems and methods for providing a user with a set of interactivity features locally on a user device
US9787799B2 (en) * 2014-02-27 2017-10-10 Dropbox, Inc. Systems and methods for managing content items having multiple resolutions
WO2015145769A1 (ja) * 2014-03-28 2015-10-01 富士通株式会社 撮像装置、情報処理装置、撮影補助システム、撮影補助プログラム及び撮影補助方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001282813A (ja) * 2000-03-29 2001-10-12 Toshiba Corp マルチメディアデータ検索方法、インデックス情報提供方法、マルチメディアデータ検索装置、インデックスサーバ及びマルチメディアデータ検索サーバ
JP2003298991A (ja) * 2002-03-29 2003-10-17 Fuji Photo Film Co Ltd 画像整理方法および装置並びにプログラム
JP2014153338A (ja) * 2013-02-14 2014-08-25 Alpine Electronics Inc 地図表示装置
JP5456944B1 (ja) * 2013-05-16 2014-04-02 株式会社ビジョナリスト 画像ファイルクラスタリングシステム及び画像ファイルクラスタリングプログラム
JP2015036690A (ja) * 2013-08-16 2015-02-23 国立大学法人九州大学 ルート提示装置、移動端末、ルート提示方法、ルート表示方法、ルート提示プログラム及びルート表示プログラム
JP2016143269A (ja) * 2015-02-03 2016-08-08 日本電信電話株式会社 コンテンツ検索装置、コンテンツ検索方法、コンテンツ格納装置およびコンテンツ格納方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113704538A (zh) * 2021-08-30 2021-11-26 北京百度网讯科技有限公司 数据处理方法、装置、电子设备及计算机存储介质

Also Published As

Publication number Publication date
US11294951B2 (en) 2022-04-05
JP6989901B2 (ja) 2022-01-12
US20210133230A1 (en) 2021-05-06
JPWO2018163906A1 (ja) 2020-05-14

Similar Documents

Publication Publication Date Title
US9435657B2 (en) Navigation system with an itinerary planning mechanism and method of operation thereof
US9305024B2 (en) Computer-vision-assisted location accuracy augmentation
US20160371305A1 (en) Method, device and apparatus for generating picture search library, and picture search method, device and apparatus
US10216765B2 (en) Image based routing and confirmation
US9494440B2 (en) Generating travel routes for increased visual interest
KR101615892B1 (ko) 위치 기반의 여행용 빅데이터를 처리하기 위한 모바일 소셜 네트워크 서비스 시스템 및 그의 처리 방법
US20170153113A1 (en) Information processing apparatus, information processing method, and program
JP5334159B2 (ja) 電子地図上での写真表示方法及びシステム
JP5979771B1 (ja) 経路検索システム、経路検索装置、経路検索方法、プログラム、及び情報記憶媒体
JP6034229B2 (ja) 位置情報処理装置及び位置情報処理方法
JP2016050895A (ja) ランドマーク表示装置、方法、およびプログラム
JP7426176B2 (ja) 情報処理システム、情報処理方法、情報処理プログラム、およびサーバ
JP6989901B2 (ja) 情報処理装置、情報処理システム及び情報処理プログラム
US20170059338A1 (en) Generating Travel Routes for Increased Visual Interest
JP6376654B2 (ja) ルート提示装置、移動端末、ルート提示方法、ルート表示方法、ルート提示プログラム及びルート表示プログラム
KR102188008B1 (ko) 전자 기기, 교통 관련 컨텐츠 제공 방법 및 시스템
CN106803214B (zh) 旅程规划的方法及其电子装置
KR102247897B1 (ko) 전자 기기, 교통 관련 컨텐츠 제공 방법 및 시스템
KR20120107671A (ko) 전자 기기, 교통 관련 컨텐츠 제공 방법 및 시스템
KR102057933B1 (ko) 전자 기기, 서버 및 교통 정보 제공 방법
KR102335466B1 (ko) 전자 기기, 서버 및 교통 정보 제공 방법
KR102305136B1 (ko) 전자 기기, 서버 및 교통 정보 제공 방법
KR20120107670A (ko) 전자 기기, 서버 및 교통 정보 제공 방법
US11526569B2 (en) Generating directions and routes with personalized landmarks
KR20170000918A (ko) 테마경로 생성 장치 및 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18764772

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019504492

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18764772

Country of ref document: EP

Kind code of ref document: A1