WO2015194613A1 - 共有体験情報構築システム - Google Patents

共有体験情報構築システム Download PDF

Info

Publication number
WO2015194613A1
WO2015194613A1 PCT/JP2015/067549 JP2015067549W WO2015194613A1 WO 2015194613 A1 WO2015194613 A1 WO 2015194613A1 JP 2015067549 W JP2015067549 W JP 2015067549W WO 2015194613 A1 WO2015194613 A1 WO 2015194613A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
user
content
terminal device
shared experience
Prior art date
Application number
PCT/JP2015/067549
Other languages
English (en)
French (fr)
Inventor
新熊亮一
Original Assignee
国立大学法人京都大学
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 国立大学法人京都大学 filed Critical 国立大学法人京都大学
Priority to US15/320,090 priority Critical patent/US10165019B2/en
Priority to EP15809981.2A priority patent/EP3159801A4/en
Publication of WO2015194613A1 publication Critical patent/WO2015194613A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/40Support for services or applications
    • H04L65/401Support for services or applications wherein the services involve a main real-time session and one or more additional parallel real-time or time sensitive sessions, e.g. white board sharing or spawning of a subconference
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/01Social networking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/52Network services specially adapted for the location of the user terminal

Definitions

  • the present invention relates to a shared experience information construction system for constructing shared experience information indicating that content related to a predetermined experience is shared between users.
  • a plurality of portable terminals are connected by communication, a photographing portable terminal photographs an image as image data, creates index data from the image data, transmits it to another portable terminal, and other portable terminals.
  • the terminal creates shared image designation information for specifying the received image data from the received index data and returns it to the photographing mobile terminal, and the photographing portable terminal transmits the image data designated by the shared image designation information to another portable terminal.
  • An image sharing system for transmission is disclosed.
  • Patent Document 2 discloses a camera 100 capable of converting a subject image 33 into image data and displaying a QR code (registered trademark) on the storage destination of the image data on the display panel 8 and a QR code (registered trademark).
  • An image sharing system having a mobile phone 34 that accesses the storage location of the image 33 and acquires the data of the image 33 based on the image captured, decoded, and recorded in the recording unit 52 of the site server 51 is disclosed. ing.
  • Patent Document 3 discloses a digital content sharing system 10 that has a content server 21B that cooperates with a mobile phone 30B and that shares content with the content server 21A with which the mobile phone 30A cooperates, and the content server 21B. Provides the corresponding content from the content server 21B based on the content request when the mobile phone 30B receives the corresponding content request using the content reference information exchanged during the call with the mobile phone 30A. The content is received and shared with the content server 21A.
  • the content server 21A discloses a content sharing system that publishes shared content on a network.
  • Patent Document 4 during a call process between the mobile terminal 20 and the mobile terminal 22, the content ID is transmitted from one mobile terminal to the other mobile terminal, and both mobile terminals (the mobile terminal 20 and the mobile terminal) are transmitted.
  • the terminal 22 in order to display the content image of the content ID on each of the display unit 26 and the display unit 36, during the call processing between the mobile terminal 20 and the mobile terminal 22, images of the same content are respectively displayed.
  • An information sharing system that can be displayed on the display unit of a portable terminal and can share the same content during a call is disclosed.
  • the present invention has been made in view of the above-described technical background, and can share a shared user, a shared date and time, or a shared point with respect to content such as a shared image, and thus a sharing experience between users. It aims at providing the shared experience information construction system which can construct information.
  • the present invention provides an information terminal device of a first user, an information terminal device of a second user, and the information terminal devices of the first user and the second user via a network. And a server device connected to each other.
  • the information terminal device of the first user includes a content selection unit that selects content related to a predetermined experience by the first user, and information that identifies the content selected by the content selection unit.
  • a content identification information output unit to be output to the device; a first unique key generation unit that generates a unique key corresponding to the content selected by the content selection unit; information about a first user; the unique key generation unit And a first user information transmission unit that transmits information related to the unique key and the content to the server device via a network.
  • the information terminal device of the second user identifies the content input by the content identification information input unit for inputting information for identifying the content output from the information terminal device of the first user, and the content input by the content identification information input unit
  • a second unique key generation unit that generates a unique key corresponding to the information to be performed, information relating to the second user, a unique key generated by the unique key generation unit, and content input by the content identification information input unit
  • a second user information transmission unit configured to transmit information related to an input date and time and / or an input point of information to the server device via a network.
  • the server device includes a unique key collating unit for collating unique keys transmitted from the information terminal device of the first user and the information terminal device of the second user, and collating the unique key by the unique key collating unit.
  • the shared experience information constructing unit that constructs the shared experience information between the first user and the second user by associating the information regarding the two users, the information regarding the content, and the information regarding the sharing date and / or the shared point with each other. And shared experience information between the first user and the second user constructed by the shared experience information construction unit And a shared experience information storage unit.
  • the first user information transmission unit transmits information about the acquisition date and / or acquisition point of the content to the server device, and the server device has the content acquisition date and time acquired by the shared experience information construction unit.
  • the information regarding the acquisition point and / or the information regarding the date and time of sharing the content and / or the sharing point may be associated with each other.
  • the content identification information output unit is an attached display, and outputs information by displaying content identification information on the display
  • the second user information terminal device The content information input unit may be an attached photographing camera, and may be inputted by photographing information for identifying the content displayed on the display of the information terminal device of the first user.
  • the content identification information output unit is an attached speaker, and the information identifying the content is output by sound of the speaker, and the information terminal device of the second user is
  • the content information input unit may be an attached microphone, and may be input by recording information for identifying the content output by the sound of the speaker of the information terminal device of the first user.
  • the information terminal device of the first user transmits to the server device the output date and / or output point at which the first user information transmission unit outputs information for identifying the content with the information terminal device of the second user.
  • the server device includes an output date / time and / or an output point transmitted from the information terminal device of the first user and an input date / time transmitted from the information terminal device of the second user. In addition, it may be verified whether or not the input point is within a predetermined time and / or region.
  • the server device extracts a shared experience information stored in the shared experience information storage unit, and outputs the shared experience information extracted by the shared experience information extractor to a user information terminal device
  • a shared experience information output control unit may be provided.
  • the shared experience information extraction unit extracts shared experience information that matches the condition from the shared experience information stored in the shared experience information storage unit when a condition related to the shared experience information is specified by the user's information terminal device. May be.
  • the shared experience information extraction unit may extract the shared experience information stored in the shared experience information storage unit in a state of being processed into a predetermined format.
  • the shared experience information output control unit may display the shared experience information on the information terminal device of the user in order of content acquisition date and time.
  • the shared experience information output control unit may display shared experience information with a predetermined user on the information terminal device of the user.
  • the shared experience information output control unit may cause the information terminal device of the user to display the shared experience information on a predetermined map based on the content acquisition point and / or the shared point of the shared experience information. Good.
  • the sharing experience information output control unit may cause the user's information terminal device to output the number of times the content is shared at a predetermined point based on the sharing date and / or sharing point of the content included in the sharing experience information.
  • the sharing experience information output control unit may cause the user's information terminal device to output the number of times the content is shared in a predetermined period based on the sharing date and / or sharing point of the content included in the sharing experience information.
  • the shared experience information output control unit may output the shared experience information to the information terminal device of the user in a state where information related to the user is excluded.
  • the shared experience information extraction unit may group common shared experience information based on the acquisition date / time, acquisition point, sharing date / time and / or sharing point of the content included in the shared experience information.
  • FIG. It is a figure which shows the information terminal device of the 1st user and 2nd user which concern on Example 1.
  • FIG. It is a figure which shows the display screen of the share experience information which concerns on Example 2.
  • FIG. It is a figure which shows the display screen of the share experience information which concerns on Example 3.
  • FIG. It is a figure which shows the display screen of the share experience information which concerns on Example 4.
  • FIG. It is a figure which shows the display screen of the share experience information which concerns on Example 5.
  • FIG. It is a figure which shows the structure of grouping of shared experience information which concerns on Example 6.
  • FIG. 1 is a diagram showing the overall configuration of the system 1.
  • the system 1 includes an information terminal device 1 of a first user A, an information terminal device 2 of a second user B, and information on the first user A and the second user B.
  • a server device 3 connected to the terminal devices 1 and 2 via a network.
  • the information terminal device 1 of the first user A is described as the content output side
  • the information terminal device 2 of the second user B is described as the content input side.
  • the side and the input side may be reversed.
  • a description will be given between the information terminal device 1 of the first user A and the information terminal device 2 of the second user B, but there are actually many other user information terminal devices.
  • the information terminal devices 1 and 2 are portable information terminal devices connectable to the Internet, and examples thereof include a mobile phone device, a smartphone, or a tablet terminal that includes a touch panel display.
  • the users A and B use the telephone function and the mail function by the information terminal devices 1 and 2 and connect to the Internet to display various sites on the attached display.
  • the information terminal devices 1 and 2 have a built-in shooting camera function, take a picture of a person, an object, a landscape, etc. by a user operation, store the shot content image in the device, and display it on the display. Or send it to other users using the mail function or other communication functions.
  • the functions of the information terminal device 1 of the first user A and the information terminal device 2 of the second user B will be described in detail.
  • the various functions of the information terminal devices 1 and 2 often take the form of being executed by application programs downloaded to the information terminal devices 1 and 2 from the network.
  • the information terminal device 1 of the first user A includes a first input unit 11 that is used when selecting content.
  • the first input unit 11 includes various buttons provided on the information terminal device 1 and various buttons and icons displayed on the display.
  • the first user A operates the first input unit with a finger, for example, to connect to the Internet to access various sites, or to take pictures of people, objects, landscapes, etc. using the built-in camera function. Can be.
  • These site images and captured images displayed on the display of the information terminal device 1 are stored in the content cache 16 built in the device as content relating to the predetermined experience of the first user A.
  • the information terminal device 1 of the first user A includes a content selection unit 12 for selecting content related to a predetermined experience.
  • the content selection unit 12 selects predetermined content from the content cache 16 by various operations of the first input unit 11 by the first user A. For example, when the first user A displays a past site image or captured image on the display by operating the first input unit 11 and instructs the selection by the first input unit 11, the content selection unit 12 causes the predetermined site image to be displayed. Or a captured image is selected.
  • the information terminal device 1 of the first user A transmits information (hereinafter referred to as content identification information) for identifying the content selected by the content selection unit 12 to the second user B.
  • the content identification information output part 13 output to the information terminal device 2 is provided.
  • the content identification information output unit 13 outputs the content itself such as a site image or an image displayed on the display of the information terminal device 1 of the first user A as content identification information, or some other unique identification information Is output as content identification information.
  • the content identification information output unit 13 outputs the content identification information by displaying it on a display. Note that the content identification information output unit 13 may output the information by transmitting it directly or via a network to the information terminal device 2 of the second user B.
  • the information terminal device 1 of the first user A includes a first unique key generation unit 14 that generates a unique key corresponding to the content selected by the content selection unit 12.
  • the first unique key generation unit 14 may use all or part of image information of a site image or a photographed image as content as a unique key, or may use a prescribed image pattern corresponding to the content as a unique key.
  • the information terminal device 1 of the first user A uses the information related to the first user A, the unique key generated by the first unique key generation unit 14, and the content selection unit 12.
  • a first user information transmission unit 15 is provided that transmits information about the selected content (hereinafter referred to as content information) to the server device 3 via a network.
  • the first user information transmission unit 15 reads out information that can be specified by the first user A, such as the name and identification symbol of the first user A, from a memory (not shown) in the apparatus, and stores the information in the first user information transmission unit 15. 1 as information related to user A.
  • the first user information transmission unit 15 transmits the content itself selected by the content selection unit 12 as content information, or transmits a content pointer indicating the location of the content as content information.
  • the information terminal device 1 of the first user A acquires the acquisition date / time and / or acquisition point of the content by using a timer function, a navigation function, or the like built in the device, and the first user information transmission unit 15 May transmit information regarding the acquisition date and / or acquisition point of the content to the server device 3.
  • the information terminal device 1 of the first user A outputs content identification information with the information terminal device 2 of the second user B by using a timer function, a navigation function, or the like built in the device.
  • the output date / time and / or output point may be acquired, and the first user information transmission unit 15 may transmit information regarding the output date / time and / or output point of the content identification information to the server device 3.
  • the information terminal device 2 of the second user B includes a second input unit 21 as shown in FIG.
  • the second input unit 21 includes various buttons provided on the information terminal device 2 and various buttons and icons displayed on the display.
  • the information terminal device 2 of the second user B includes a content identification information input unit 22 for inputting the content identification information output from the information terminal device 1 of the first user A.
  • the content identification information input unit 22 inputs the content identification information displayed on the display of the information terminal device 1 of the first user A by directly photographing with a built-in photographing camera, or the first information terminal device. Or by receiving content identification information transmitted directly or via a network. Further, when the content identification information input unit 22 inputs the content identification information, the content identification information input unit 22 acquires the input date and / or the input point of the content identification information by using a timer function, a navigation function, or the like built in the apparatus.
  • the content identification information input unit 22 by the content identification information input unit 22 the content identification information has been input / output with the information terminal device 1 of the first user A, but the content is still shared. It is not in the state.
  • the information terminal device 2 of the second user B has a second unique key generation unit 23 that generates a unique key corresponding to the content identification information input by the content identification information input unit 22.
  • the second unique key generation unit 23 may use, as a unique key, all or part of image information of a site image or a photographed image that is content, or may use a prescribed image pattern corresponding to the content as a unique key.
  • the information terminal device 2 of the second user B includes information on the second user B, a unique key generated by the second unique key generation unit 23, and a content identification information input unit.
  • 22 includes a second user information transmission unit 24 that transmits information related to the input date and / or input point of the content identification information input by 22 to the server device 3 via the network.
  • the second user information transmitting unit 24 reads out information that can be specified by the second user B, such as the name and identification symbol of the second user B, from a memory (not shown) in the apparatus, and stores the information as the second user information. As user B information.
  • visual content such as a site image and a photographed image is exemplified as the content
  • audio content including music may be auditory content.
  • the server device 3 stores a processing server 30 that performs predetermined processing between the information terminal devices 1 and 2 of the users A and B, and a processing result in the processing server 30.
  • the cache server 50 includes a shared experience information database 41 of a first user A and a shared experience information database 42 of a second user B that store the shared experience information of each user A and B as a database.
  • the processing server 30 includes the first user A and the second user transmitted from the information terminal devices 1 and 2 of the first user A and the second user B via the network.
  • a user information receiving unit 301 that receives various types of information regarding B is provided. That is, the user information receiving unit 301 receives information, a unique key, and content information regarding the first user A transmitted from the information terminal device 1 of the first user A via the network, Information about the second user B, the unique key, the input date / time of the content identification information and / or the information about the input point transmitted from the information terminal device 2 of the user B of the user B via the network.
  • the processing server 30 includes the first user A and the second user B among the various information of the first user A and the second user B received by the user information receiving unit 301.
  • a unique key collating unit 302 for collating each unique key is provided. For example, when the unique key is the whole or part of the image information of the site image or the photographed image as the content, the unique key collating unit 302 performs image analysis on each image information, and the images match with a predetermined probability. Sometimes judge that the verification is successful. Further, when the unique key is a prescribed image pattern corresponding to the content, it is determined that the collation is successful when the prescribed image patterns match. Note that the unique key matching method is not limited to the above-described method, and other matching methods may be used.
  • the unique key collating unit 302 is the information terminal device of the first user A.
  • the output date / time and / or output point transmitted from 1 and the input date / time and / or input point transmitted from the information terminal device 2 of the second user B are within a predetermined time and / or region.
  • the unique key may be verified only when the verification is successful and the verification is successful.
  • the processing server 30 is provided with a shared experience information construction unit 303 for constructing shared experience information between the first user A and the second user B for predetermined content.
  • the shared experience information construction unit 303 when the unique key collation unit 302 successfully collates each unique key, and the input date and / or time of the content identification information transmitted from the information terminal device 2 of the second user B and / or
  • the input point is the content sharing date and / or sharing point.
  • Information relating to the first user A, information relating to the second user B, information relating to the content, and information relating to the sharing date and / or sharing location of the content are associated with each other. That is, sharing has not yet been confirmed at the point where the information terminal device 2 of the second user B has input the content identification information output from the first information terminal device. The sharing of content is confirmed with the construction of information.
  • the shared experience information construction unit 303 is information regarding the acquisition date / time and / or acquisition point of content.
  • the content sharing date and / or information on the sharing point may be associated with each other.
  • FIG. 4 shows an example of the structure of this shared experience information.
  • the content information is a content pointer
  • the user A has a link with the content pointer 1 whose source is confidence, and information on the acquisition date A1 and the acquisition point A1 of the content is added to the link.
  • the content pointer 1 has a link with the second user B who “shared” by the first user A, and information on the content sharing date B1 and the sharing point B1 is added to the link. ing.
  • FIG. 5 is another example of the structure of shared experience information.
  • the shared experience information related to the content pointer 1 and the shared experience information related to the content pointer 2 are integrated.
  • the second user B has a shared link (shared date B1 and shared point B1) only from the content pointer 1.
  • the other user C has a shared link from the content pointer 1 (shared date C1, shared point C1) and a shared link from the content pointer 2 (shared date C2, shared point C2).
  • the other user D has a shared link (shared date D1, shared point D1) from the content pointer 1, and a shared link (shared date D2, shared point D2) from the content pointer 2.
  • the user E has a shared link (shared date and time E2, shared point E2) only from the content pointer 2.
  • the shared experience information databases 41 and 42 store the shared experience information of the first user A and the second user B respectively constructed by the shared experience information construction unit 303 of the processing server 30.
  • the shared experience information databases 41 and 42 are divided for each user A and B, but may be a single shared experience information database.
  • step is abbreviated as “S”.
  • the first user A connects the Internet to access various sites by operating the first input unit 11 with, for example, a finger, or uses a built-in camera function to make a person, an object, a landscape, etc. Or shooting.
  • These site images and captured images displayed on the display of the information terminal device 1 of the first user A are assumed to be stored in the content cache 16 built in the device as content related to the user's predetermined experience. .
  • the content selection unit 12 selects predetermined content from the content cache 16 by various operations of the first input unit 11 by the user (S11).
  • the content identification information output unit 13 outputs information (content identification information) for identifying the content selected by the content selection unit 12 to the information terminal device 2 of the second user B (S12).
  • the first unique key generation unit 14 generates a unique key corresponding to the content selected by the content selection unit 12 (S13).
  • the first user information transmission unit 15 transmits the information about the first user A, the unique key generated by the first unique key generation unit 14, and the content information selected by the content selection unit 12 via the network. It transmits to the server apparatus 3 (S14).
  • the content identification information input unit 22 inputs the content identification information output from the information terminal device 1 of the first user A (S21).
  • the second unique key generation unit 23 generates a unique key corresponding to the content identification information input by the content identification information input unit 22 (S22).
  • the second user information transmission unit 24 inputs the information regarding the second user B, the unique key generated by the second unique key generation unit 23, and the content identification information input date and time input by the content identification information input unit 22. And / or the information regarding an input point is transmitted to the said server apparatus 3 via a network (S23).
  • the user information receiving unit 301 transmits the first user A and the second user A transmitted from the information terminal devices 1 and 2 of the first user A and the second user B via the network.
  • the user B receives various information (S31).
  • the unique key collating unit 302 collates each unique key among the user information received by the user information receiving unit 301 (S32).
  • the processing server 30 of the server device 3 has a function of presenting the constructed shared experience information to the user in addition to the function of constructing the shared experience information in the first embodiment.
  • the processing server 30 includes an authentication unit 304 for authenticating a user.
  • the authentication unit 304 authenticates the first user A with respect to information regarding the first user A transmitted from the information terminal device 1 of the first user A via the network.
  • the processing server 30 is provided with a condition designating unit 305 for designating conditions by the user.
  • the condition specifying unit 305 executes processing related to the condition specification with the information terminal device 1 of the first user A.
  • this condition specification for example, shared experience information with a predetermined user is specified, or shared experience information regarding a predetermined date and time is specified.
  • the processing server 30 is provided with a shared experience information extraction unit 306 that extracts shared experience information.
  • the shared experience information extraction unit 306 extracts shared experience information stored in the shared experience information database 41 of the first user A.
  • the shared experience information extraction unit 306 is configured so that the shared experience information stored in the shared experience information database 41 is specified when conditions regarding the shared experience information are specified by the information terminal device 1 of the first user A. To extract shared experience information that matches the conditions.
  • the shared experience information extraction unit 306 may extract the shared experience information extracted by the shared experience information extraction unit 306 in a state in which the shared experience information stored in the shared experience information database 41 is processed into a predetermined format.
  • the processing server 30 includes a shared experience information output control unit 307 that outputs the shared experience information extracted by the shared experience information extraction unit 306 to the information terminal of the first user A via the network. Is provided.
  • the shared experience information output control unit 307 displays, for example, the shared experience information on the user's information terminal device in the order of content acquisition (Example 2), or the shared experience information with a predetermined user is the user information. You may display on a terminal device (Example 3). Further, based on the content acquisition point and / or the sharing point included in the shared experience information, the shared experience information represented on a predetermined map may be displayed on the user's information terminal device (Example 4).
  • the content sharing frequency at a predetermined point is output to the user's information terminal device, or the content
  • the number of shares may be output to the user's information terminal device.
  • the shared experience information may be output to the user's information terminal device in a state where information related to the user is excluded (Example 5).
  • step is abbreviated as “S”.
  • the authentication unit 304 authenticates the first user A with respect to the information about the first user A transmitted from the information terminal of the first user A via the network (S41). .
  • the condition specifying unit 305 executes processing related to the condition specification with the information terminal of the first user A (S42).
  • the shared experience information extraction unit 306 shares shared experience information that matches the condition from the shared experience information stored in the shared experience information database 41. Is extracted (S43).
  • the sharing experience information output control unit 307 causes the sharing experience information extracted by the sharing experience information extraction unit 306 to be output to the information terminal of the first user A via the network (S44).
  • Example 1 In this embodiment, as shown in FIG. 9, a map displayed on the display of the information terminal device 1 of the first user A and a site image related to the store are used as the content related to the predetermined experience of the first user A. ing.
  • the content identification information output unit 13 outputs the site image by displaying the site image on the display as the content identification information. Then, in the information terminal device 2 of the second user B, the content identification information input unit 22 directly photographs the site image displayed on the display of the information terminal device 1 of the first user A with the built-in photographing camera. It is input by.
  • the first unique key generation unit 14 uses the entire or part of the image information of the site image displayed on the display as a unique key, or the site image A prescribed image pattern corresponding to is used as a unique key.
  • the second unique key generation unit 23 uses the whole or part of the image information of the site image taken by the imaging camera as a unique key, or the site. A specified image pattern corresponding to an image is used as a unique key.
  • the site image displayed on the display of the information terminal device 1 of the first user A is displayed between the information terminal device 1 of the first user A and the information terminal device 2 of the second user B.
  • Shared experience information between the first user A and the second user B can be constructed by an intuitive operation of shooting with the imaging camera of the information terminal device 2 of the user B.
  • the visual content such as the site image and the photographed image is exemplified as the content between the information terminal device 1 of the first user A and the information terminal device 2 of the second user B.
  • It may be audio content (including music). That is, in the information terminal device 1 of the first user A, the content identification information output unit 13 is an attached speaker, and outputs the content identification information by the sound of the speaker.
  • the content information input unit 22 is an attached microphone, and the content identification information output by the sound of the speaker of the information terminal device 1 of the first user A is recorded. To enter.
  • the shared experience information is displayed in the order of content acquisition date and time on the display of the information terminal device 1 of the first user A.
  • the sharing experience information output control unit 307 of the server device 3 follows the instruction from the information terminal device 1 of the first user A to share the sharing experience information of the first user A in the order of content acquisition date and time.
  • the information is displayed on the information terminal device 1.
  • the contents 1 and 2 are displayed together with the site image or the photographed image in the order of the acquisition dates and times A1 and A2.
  • the names B, C, and D of the users who performed sharing, the sharing dates and times B1, C1, and D1, and the sharing points B1, C1, and D1 are displayed.
  • the names C, D, and E of the users who performed sharing, the sharing dates C2, D2, and E2, and the sharing points C2, D2, and E2 are displayed.
  • the first user A can browse the shared experience information regarding each past content in time series.
  • Example 3 In the present embodiment, as shown in FIG. 11, shared experience information with a specific user is displayed on the display of the information terminal device 1 of the first user A.
  • the shared experience information output control unit 307 of the server device 3 sends the shared experience information with the specific user according to the instruction from the information terminal device 1 of the first user A to the user's information terminal device.
  • To display For example, shared experience information with a specific user C is collectively displayed on the display of the information terminal device 1 of the first user A.
  • the contents 1, 2 and the like shared with the user C are displayed together with the site image or the photographed image in the order of the respective sharing dates and times C1, C2.
  • the names B and D of the user B and the user D who shared, the sharing dates and times B1 and D1, and the sharing points B1 and D1 are displayed. Yes.
  • the names D and E of the user D and the user E who shared, the sharing dates and times D2 and E2, and the sharing points D2 and E2 are displayed in the display area of the content 2. Yes.
  • the first user A can browse the shared experience information with the user C in chronological order, limited to a specific user C.
  • Example 4 In the present embodiment, as shown in FIG. 12, the display of the shared experience information on a predetermined map is displayed on the display of the information terminal device 1 of the first user A.
  • the shared experience information output control unit 307 is a user information that represents the shared experience information on a predetermined map based on the content acquisition point and / or the shared point of the shared experience information. Display on the terminal device. For example, on the display of the information terminal device 1 of the first user A, the shared experience information related to the contents 1 and 2 is displayed on a predetermined map. At this time, in the content 1 display area, the site image of content 1 and the names B, C, and D of shared users are displayed in a balloon at the northeast corner of the first crossroads on the east side of “current location”. In the content 2 display area, a captured image of content 2 and shared user names C, D, and E are displayed in the southeastern portion of the first crossroad on the west side of “current location”.
  • Example 5 In this embodiment, as shown in FIG. 13, the number of times content is shared at a predetermined point is displayed on the display of the information terminal device 1 of the first user A with the user name removed.
  • the sharing experience information output control unit 307 causes the sharing experience information to be output to the information terminal device 1 of the first user A in a state where information related to the user is excluded. Also, the sharing experience information output control unit 307 sets the number of times content is shared at a predetermined point to the user's information terminal device based on the acquisition date / time, acquisition point, sharing date / time and / or sharing point of the content included in the sharing experience information. Output. For example, on the display of the information terminal device 1 of the first user A, the shared experience information related to the places 1 and 2 is displayed on the map.
  • shared experience information that maintains anonymity can be used. For example, when the current month is June, the location 1 and the location 2 have more shared experience information built in the location 2 in June. Therefore, it can be seen from June that there is an attractive place where a shared experience is desired, and the user can be guided to a more attractive place at that time.
  • the shared experience information extraction unit 306 acquires, in the shared experience information stored in a predetermined user's shared experience information database, the acquisition date / time, acquisition point, sharing date / time and / or sharing of the content included in the shared experience information. Groups users who have built a lot of shared experience information based on location. For example, in the shared experience information stored in the shared experience information database of the user A, when a lot of shared experience information is constructed with another user B, user C, and user D, the shared experience information extraction unit 306 automatically groups user B, user C, and user D on the shared experience information database of user A (for example, it may be named “good friend group”), and user A has a specific group (good friend group). To extract shared experience information.

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Tourism & Hospitality (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Multimedia (AREA)
  • Information Transfer Between Computers (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

 第1のユーザAの情報端末処理装置1では、第1のユーザにより所定の体験に関するコンテンツが選択されたあと、コンテンツ識別情報を第2のユーザBの情報端末装置3に対して出力し、それら各種情報をサーバ装置3に送信する。第2のユーザBの情報端末装置2では、コンテンツ識別情報を入力したあと、コンテンツ識別情報に対応する固有キーを生成し、コンテンツ識別情報の入力日時および/または入力地点に関する情報などをサーバ装置3に送信する。サーバ装置3では、各固有キーを照合した上で、コンテンツ識別情報の入力日時および/または入力地点をコンテンツの共有日時および/または共有地点とし、共有体験情報を構築してデータベース化する。

Description

共有体験情報構築システム
 本発明は、ユーザ同士の間において所定の体験に関するコンテンツを共有したことを示す共有体験情報を構築するための共有体験情報構築システムに関するものである。
 近年、インターネットや通信機器の発展および普及に伴って、様々なサービスが提供されており、その中で画像等のコンテンツに関する情報を共有するシステムが数多く提案されている。
 例えば、特許文献1には、複数の携帯端末が通信によって接続され、撮影携帯端末が画像を撮影し画像データとし、画像データからインデックスデータを作成して他の携帯端末へ送信し、他の携帯端末は受信したインデックスデータから、受信する画像データを指定する共有画像指定情報を作成して撮影携帯端末に返信し、撮影携帯端末は共有画像指定情報で指定された画像データを他の携帯端末へ送信する画像共有システムが開示されている。
 また、特許文献2には、被写体像33を画像データに変換すると共に、画像データの格納先に関するQRコード(登録商標)を表示パネル8に表示可能なカメラ100と、QRコード(登録商標)を撮像し、デコードして、サイトサーバー51の記録部52に記録されたに基づいて、画像33の格納先にアクセスし、画像33のデータを取得する携帯電話34とを有する画像共有システムが開示されている。
 また、特許文献3には、携帯電話30Aが連携するコンテンツサーバ21Aとの間でコンテンツを共有すると共に、携帯電話30Bと連携するコンテンツサーバ21Bを有するデジタルコンテンツ共有システム10であって、コンテンツサーバ21Bは、携帯電話30Bが携帯電話30Aとの通話の際に交換したコンテンツ参照情報を利用して該当するコンテンツ要求を受け付けた際に、前記コンテンツ要求に基づいてコンテンツサーバ21Bから対応するコンテンツの提供を受けてコンテンツサーバ21Aとの間でコンテンツを共有する。コンテンツサーバ21Aは、共有するコンテンツをネットワーク上で公開するコンテンツ共有システムが開示されている。
 また、特許文献4には、携帯端末20と携帯端末22との間の通話処理中に、一方の携帯端末から他方の携帯端末へコンテンツID送信するとともに、双方の携帯端末(携帯端末20及び携帯端末22)において、該コンテンツIDのコンテンツの画像を各々の表示部26及び表示部36へ表示するため、携帯端末20と携帯端末22との間の通話処理中に、同一のコンテンツの画像を各々の携帯端末の表示部に表示することができ、通話中に同一のコンテンツを共有することが可能となる情報共有システムが開示されている。
特開2010-86174号公報 特開2008-236159号公報 特開2008-158843号公報 特開2004-297250号公報
 しかしながら、従来の共有システムは、いずれも画像等のコンテンツ「そのもの」を共有するだけであって、どのユーザ同士の間で、どこで、いつ、画像等のコンテンツを共有したのかといった、画像等のコンテンツを共有した「こと」までも共有するものではなかった。このため共有した画像等のコンテンツを後から閲覧しても、そのコンテンツに関して共有を行ったユーザ、共有日時あるいは共有地点を特定することができず、ユーザ同士の共有体験情報を真の意味で共有しているものではなかった。
 本発明は、上述の技術的背景に鑑みてなされたものであり、共有した画像等のコンテンツに関して、共有を行ったユーザ、共有日時あるいは共有地点を共有することができ、ひいてはユーザ同士の共有体験情報を構築することが可能な共有体験情報構築システムを提供することを目的とする。
 本発明は、上記目的を達成するために、第1のユーザの情報端末装置と、第2のユーザの情報端末装置と、それら第1のユーザおよび第2のユーザの情報端末装置にネットワークを介して接続されたサーバ装置とを備える。第1のユーザの情報端末装置は、第1のユーザにより所定の体験に関するコンテンツが選択されるコンテンツ選択部と、該コンテンツ選択部により選択されたコンテンツを識別する情報を第2のユーザの情報端末装置に対して出力するコンテンツ識別情報出力部と、前記コンテンツ選択部により選択されたコンテンツに対応する固有キーを生成する第1固有キー生成部と、第1のユーザに関する情報、前記固有キー生成部により生成された固有キー、およびコンテンツに関する情報をネットワークを介して前記サーバ装置に送信する第1ユーザ情報送信部とを備える。第2のユーザの情報端末装置は、第1のユーザの情報端末装置から出力されたコンテンツを識別する情報を入力するコンテンツ識別情報入力部と、該コンテンツ識別情報入力部により入力されたコンテンツを識別する情報に対応する固有キーを生成する第2固有キー生成部と、第2のユーザに関する情報、前記固有キー生成部により生成された固有キー、コンテンツ識別情報入力部により入力されたコンテンツを識別する情報の入力日時および/または入力地点に関する情報をネットワークを介して前記サーバ装置に送信する第2ユーザ情報送信部とを備える。前記サーバ装置は、前記第1のユーザの情報端末装置と前記第2のユーザの情報端末装置から送信されてきた固有キーを照合する固有キー照合部と、該固有キー照合部により固有キーの照合が成功した場合に、第2の情報端末装置から送信されてきたコンテンツを識別する情報の入力日時および/または入力地点をコンテンツの共有日時および/または共有地点とし、第1のユーザに関する情報、第2のユーザに関する情報、コンテンツに関する情報、および共有日時および/または共有地点に関する情報を互いに関連付けることにより、第1のユーザと第2のユーザとの間における共有体験情報として構築する共有体験情報構築部と、該共有体験情報構築部により構築された第1のユーザと第2のユーザの間における共有体験情報を記憶する共有体験情報記憶部とを備える。
 前記第1の情報端末装置は、前記第1ユーザ情報送信部がコンテンツの取得日時および/または取得地点に関する情報をサーバ装置に送信し、前記サーバ装置は、共有体験情報構築部がコンテンツの取得日時および/または取得地点に関する情報と、コンテンツの共有日時および/または共有地点に関する情報とを互いに関連付けてもよい。
 前記第1のユーザの情報端末装置は、前記コンテンツ識別情報出力部が附属のディスプレイであって、コンテンツを識別する情報をディスプレイに表示することにより出力するとともに、前記第2のユーザの情報端末装置は、前記コンテンツ情報入力部が附属の撮影カメラであって、第1のユーザの情報端末装置のディスプレイに表示されたコンテンツを識別する情報を撮影することにより入力してもよい。
 前記第1のユーザの情報端末装置は、前記コンテンツ識別情報出力部が附属のスピーカであって、コンテンツを識別する情報をスピーカの音声により出力するとともに、前記第2のユーザの情報端末装置は、前記コンテンツ情報入力部が附属のマイクであって、第1のユーザの情報端末装置のスピーカの音声により出力されたコンテンツを識別する情報を録音することにより入力してもよい。
 前記第1のユーザの情報端末装置は、第1ユーザ情報送信部が第2のユーザの情報端末装置との間においてコンテンツを識別する情報を出力した出力日時および/または出力地点をサーバ装置に送信し、前記サーバ装置は、前記固有キー照合部が第1のユーザの情報端末装置から送信されてきた出力日時および/または出力地点と、第2のユーザの情報端末装置から送信されてきた入力日時および/または入力地点とが所定の時間および/または領域の範囲内である否かの照合を行ってもよい。
 前記サーバ装置は、前記共有体験情報記憶部に記憶されている共有体験情報を抽出する共有体験情報抽出部と、該共有体験情報抽出部により抽出された共有体験情報をユーザの情報端末装置に出力せしめる共有体験情報出力制御部とを備えてもよい。
 前記共有体験情報抽出部は、ユーザの情報端末装置によって共有体験情報に関する条件が指定された場合、前記共有体験情報記憶部に記憶されている共有体験情報から当該条件に一致する共有体験情報を抽出してもよい。
 前記共有体験情報抽出部は、前記共有体験情報記憶部に記憶されている共有体験情報を所定の形式に加工した状態で抽出してもよい。
 前記共有体験情報出力制御部は、共有体験情報をコンテンツの取得日時の順にユーザの情報端末装置に表示せしめてもよい。
 前記共有体験情報出力制御部は、所定のユーザとの間の共有体験情報をユーザの情報端末装置に表示せしめてもよい。
 前記共有体験情報出力制御部は、共有体験情報が有するコンテンツの取得地点および/または共有地点に基づいて、共有体験情報を所定の地図上に表したものをユーザの情報端末装置に表示せしめてもよい。
 前記共有体験情報出力制御部は、共有体験情報が有するコンテンツの共有日時および/または共有地点に基づいて、所定の地点におけるコンテンツの共有回数をユーザの情報端末装置に出力せしめてもよい。
 前記共有体験情報出力制御部は、共有体験情報が有するコンテンツの共有日時および/または共有地点に基づいて、所定の期間におけるコンテンツの共有回数をユーザの情報端末装置に出力せしめてもよい。
 前記共有体験情報出力制御部は、ユーザに関する情報を除いた状態で共有体験情報をユーザの情報端末装置に出力せしめてもよい。
 前記共有体験情報抽出部は、共有体験情報が有するコンテンツの取得日時、取得地点、共有日時および/または共有地点に基づいて、共通性がある共有体験情報をグループ化してもよい。
 本発明によれば、画像等のコンテンツを共有するだけでなく、その共有した画像等のコンテンツに関して、共有を行ったユーザ、共有日時あるいは共有地点を共有することができ、ひいてはユーザ同士の共有体験情報を構築することが可能となる。
本システムの全体構成を示す図である。 第1および第2のユーザの情報端末装置の機能的構成を示す図である。 サーバ装置の共有体験情報構築に係る機能的構成を示す図である。 サーバ装置の共有体験情報の構造の一例を示す図である。 サーバ装置の共有体験情報の構造の他の例を示す図である。 本システムによる共有体験情報の構築の動作を示すフローチャートである。 サーバ装置の共有体験情報提示に係る機能的構成を示す図である。 本システムによる共有体験情報の提示の動作を示すフローチャートである。 実施例1に係る第1のユーザおよび第2のユーザの情報端末装置を示す図である。 実施例2に係る共有体験情報の表示画面を示す図である。 実施例3に係る共有体験情報の表示画面を示す図である。 実施例4に係る共有体験情報の表示画面を示す図である。 実施例5に係る共有体験情報の表示画面を示す図である。 実施例6に係る共有体験情報のグループ化の構造を示す図である。
 <第1の実施形態>
 次に、本発明に係る共有体験情報構築システム1(以下、本システム1という)の第1の実施形態について図1~図6を参照しつつ説明する。 
 [全体構成]
 図1は、本システム1の全体構成を示す図である。本システム1は、図1に示すように、第1のユーザAの情報端末装置1と、第2のユーザBの情報端末装置2と、それら第1のユーザAおよび第2のユーザBの情報端末装置1、2にネットワークを介して接続されたサーバ装置3とを備える。
 なお、以下の説明では、説明の都合上、第1のユーザAの情報端末装置1をコンテンツの出力側とし、第2のユーザBの情報端末装置2をコンテンツの入力側として説明するが、出力側と入力側が互いに逆になってもよい。また、第1のユーザAの情報端末装置1と第2のユーザBの情報端末装置2の間について説明するが、ユーザの情報端末装置は実際にはその他にも多数存在している。
[情報端末装置の構成]
 前記情報端末装置1、2は、インターネットに接続可能な携帯式の情報端末装置であり、例えばタッチパネル式のディスプレイを備える携帯電話器、スマートフォン、あるいはタブレット端末が挙げられる。これにより各ユーザA、Bは、情報端末装置1、2により電話機能やメール機能を使用するほか、インターネットに接続して各種サイトを附属のディスプレイに表示せしめたりする。また、前記情報端末装置1、2は、撮影カメラ機能を内蔵しており、ユーザ操作により人物、物、風景などを撮影し、その撮影したコンテンツ画像を装置内に記憶した上で、ディスプレイに表示せしめたり、あるいはメール機能やその他の通信機能を活用して他のユーザに送信したりする。
 以下、第1のユーザAの情報端末装置1と第2のユーザBの情報端末装置2との機能に分けて具体的に説明することとする。なお、情報端末装置1、2の各種機能は、ネットワーク上から情報端末装置1、2にダウンロードされたアプリケーションプログラムにより実行される形態をとることが多い。
(第1のユーザAの情報端末装置1)
 前記第1のユーザAの情報端末装置1は、図2に示すように、コンテンツを選択する際に使用する第1入力部11を備える。この第1入力部11は、情報端末装置1に設けられた各種ボタン類や、ディスプレイに表示された各種ボタン類やアイコン類である。第1のユーザAは、該第1入力部を例えば指で操作することにより、インターネットに接続して各種サイトにアクセスしたり、内臓のカメラ機能を使用して人物、物、風景などを撮影したりすることができる。これら情報端末装置1のディスプレイに表示されたサイト画像や撮影画像などは、第1のユーザAの所定の体験に関するコンテンツとして装置に内蔵のコンテンツキャッシュ16内に記憶される。
 また、前記第1のユーザAの情報端末装置1は、図2に示すように、所定の体験に関するコンテンツを選択するためのコンテンツ選択部12を備える。このコンテンツ選択部12は、第1のユーザAによる第1入力部11の各種操作により、所定のコンテンツをコンテンツキャッシュ16から選択するものである。例えば、第1のユーザAは、過去のサイト画像や撮影画像を第1入力部11の操作によりディスプレイに表示せしめ、第1入力部11により選択を指示すると、コンテンツ選択部12により所定のサイト画像や撮影画像が選択される。
 また、前記第1のユーザAの情報端末装置1は、図2に示すように、コンテンツ選択部12により選択されたコンテンツを識別する情報(以下、コンテンツ識別情報という)を第2のユーザBの情報端末装置2に出力するコンテンツ識別情報出力部13を備える。このコンテンツ識別情報出力部13は、第1のユーザAの情報端末装置1のディスプレイに表示されたサイト画像や画像等のコンテンツそのものをコンテンツ識別情報として出力したり、あるいはその他の何らかの固有の識別情報をコンテンツ識別情報として出力したりする。また、コンテンツ識別情報出力部13は、コンテンツ識別情報をディスプレイに表示することにより出力する。なお、コンテンツ識別情報出力部13は、第2のユーザBの情報端末装置2に対して直接またはネットワークを介して送信することにより出力してもよい。
 また、前記第1のユーザAの情報端末装置1は、図2に示すように、コンテンツ選択部12により選択されたコンテンツに対応する固有キーを生成する第1固有キー生成部14を備える。この第1固有キー生成部14は、コンテンツであるサイト画像や撮影画像の全体または一部の画像情報を固有キーとしてもよいし、あるいはコンテンツに対応する規定の画像パターンを固有キーとしてもよい。
 また、前記第1のユーザAの情報端末装置1は、図2に示すように、第1のユーザAに関する情報、第1固有キー生成部14により生成された固有キー、およびコンテンツ選択部12により選択されたコンテンツに関する情報(以下、コンテンツ情報という)をネットワークを介して前記サーバ装置3に送信する第1ユーザ情報送信部15を備える。この第1ユーザ情報送信部15は、装置内のメモリ(図示略)から第1のユーザAの名前や識別記号など、何らか第1のユーザAが特定できる情報を読み出して、その情報を第1のユーザAに関する情報として送信する。また、第1ユーザ情報送信部15は、コンテンツ選択部12により選択されたコンテンツそのものをコンテンツ情報として送信したり、あるいはコンテンツの所在を示すコンテンツポインタをコンテンツ情報として送信したりする。
 なお、前記第1のユーザAの情報端末装置1は、装置に内蔵のタイマー機能やナビゲーション機能などを使用することによりコンテンツの取得日時および/または取得地点を取得し、第1ユーザ情報送信部15がそれらコンテンツの取得日時および/または取得地点に関する情報をサーバ装置3に送信するものとしてよい。
 また、前記第1のユーザAの情報端末装置1は、装置に内蔵のタイマー機能やナビゲーション機能などを使用することにより、第2のユーザBの情報端末装置2との間においてコンテンツ識別情報を出力した出力日時および/または出力地点を取得し、第1ユーザ情報送信部15がそれらコンテンツ識別情報の出力日時/および出力地点に関する情報をサーバ装置3に送信するものとしてもよい。
 (第2のユーザBの情報端末装置2)
 一方、前記第2のユーザBの情報端末装置2は、図2に示すように、第2入力部21を備える。この第2入力部21は、情報端末装置2に設けられた各種ボタン類や、ディスプレイに表示された各種ボタン類やアイコン類である。
 また、前記第2のユーザBの情報端末装置2は、図2に示すように、第1のユーザAの情報端末装置1から出力されたコンテンツ識別情報を入力するコンテンツ識別情報入力部22を備える。このコンテンツ識別情報入力部22は、第1のユーザAの情報端末装置1のディスプレイに表示されたコンテンツ識別情報を内蔵の撮影カメラにより直接撮影することにより入力したり、あるいは第1の情報端末装置から直接またはネットワークを介して送信されてきたコンテンツ識別情報を受信することにより入力したりする。また、コンテンツ識別情報入力部22は、コンテンツ識別情報を入力した際に、装置に内蔵のタイマー機能やナビゲーション機能などを使用することにより、コンテンツ識別情報の入力日時および/または入力地点を取得する。
 なお、このコンテンツ識別情報入力部22によるコンテンツ識別情報の入力段階では、第1のユーザAの情報端末装置1との間においてコンテンツ識別情報の出入力が完了したことになるが、コンテンツを未だ共有した状態ではない。
 また、前記第2のユーザBの情報端末装置2は、図2に示すように、コンテンツ識別情報入力部22により入力されたコンテンツ識別情報に対応する固有キーを生成する第2固有キー生成部23を備える。この第2固有キー生成部23は、コンテンツであるサイト画像や撮影画像の全体または一部の画像情報を固有キーとしてもよいし、あるいはコンテンツに対応する規定の画像パターンを固有キーとしてもよい。
 また、前記第2のユーザBの情報端末装置2は、図2に示すように、第2のユーザBに関する情報、第2固有キー生成部23により生成された固有キー、およびコンテンツ識別情報入力部22により入力されたコンテンツ識別情報の入力日時および/または入力地点に関する情報をネットワークを介して前記サーバ装置3に送信する第2ユーザ情報送信部24を備える。この第2ユーザ情報送信部24は、装置内のメモリ(図示略)から第2のユーザBの名前や識別記号など何らか第2のユーザBが特定できる情報を読み出して、その情報を第2のユーザBに関する情報として送信する。
 なお、本実施形態では、コンテンツとしてサイト画像や撮影画像などの視覚的なコンテンツを例示しているが、音声(音楽を含む)による聴覚的なコンテンツであってもよい。
[サーバ装置3の構成]
 前記サーバ装置3は、図1に示すように、各ユーザA、Bの情報端末装置1、2との間で所定の処理を行う処理サーバ30と、処理サーバ30における処理結果を記憶しておくキャッシュサーバ50と、各ユーザA、Bの共有体験情報をデータベースとして記憶する第1のユーザAの共有体験情報データベース41および第2のユーザBの共有体験情報データベース42とを備える。
 前記処理サーバ30は、図3に示すように、第1のユーザAおよび第2のユーザBの情報端末装置1、2からネットワークを介して送信されてきた第1のユーザAおよび第2のユーザBに関する各種情報を受信するユーザ情報受信部301を備える。すなわち、このユーザ情報受信部301は、第1のユーザAの情報端末装置1からネットワークを介して送信されてきた第1のユーザAに関する情報、固有キー、およびコンテンツ情報を受信するとともに、第2のユーザBの情報端末装置2からネットワークを介して送信されてきた第2のユーザBに関する情報、固有キー、コンテンツ識別情報の入力日時および/または入力地点に関する情報を受信する。
 前記処理サーバ30は、図3に示すように、ユーザ情報受信部301により受信された第1のユーザAおよび第2のユーザBの各種情報のうち、第1のユーザAおよび第2のユーザBの各固有キーを照合する固有キー照合部302が設けられている。この固有キー照合部302は、例えば固有キーがコンテンツであるサイト画像や撮影画像の全体または一部の画像情報である場合、各画像情報について画像分析を行い、各画像が所定の確率で一致したときに照合が成功した判断する。また、固有キーがコンテンツに対応する規定の画像パターンである場合、各規定の画像パターンが一致したときに照合が成功した判断する。なお、固有キーの照合方法については、上述の方法に限定されるものではなく、その他の照合方法であってもよい。
 なお、第1のユーザAの情報端末装置1からコンテンツ識別情報の出力日時および/または出力地点に関する情報が送信されてきた場合、前記固有キー照合部302は、第1のユーザAの情報端末装置1から送信されてきた出力日時および/または出力地点と、第2のユーザBの情報端末装置2から送信されてきた入力日時および/または入力地点とが所定の時間および/または領域の範囲内であるか否かの照合を行い、照合が成功した場合のみに固有キーを照合するものとしてもよい。
 前記処理サーバ30は、図3に示すように、所定のコンテンツについて第1のユーザAと第2のユーザBとの間における共有体験情報を構築する共有体験情報構築部303が設けられている。この共有体験情報構築部303は、固有キー照合部302により各固有キーの照合が成功した場合に、第2のユーザBの情報端末装置2から送信されてきたコンテンツ識別情報の入力日時および/または入力地点をコンテンツの共有日時および/または共有地点とする。そして、第1のユーザAに関する情報、第2のユーザBに関する情報、コンテンツに関する情報、およびコンテンツの共有日時および/または共有地点に関する情報とを互いに関連付ける。すなわち、第2のユーザBの情報端末装置2が第1の情報端末装置から出力されたコンテンツ識別情報を入力した地点では未だ共有が確定していなかったが、共有体験情報構築部303が共有体験情報を構築したことをもってコンテンツの共有が確定する。
 なお、第1のユーザAの情報端末装置1からコンテンツの取得日時および/または取得地点に関する情報が送信されてきた場合、前記共有体験情報構築部303はコンテンツの取得日時および/または取得地点に関する情報と、コンテンツの共有日時および/または共有地点に関する情報とを互いに関連付けるものとしてもよい。
 図4は、この共有体験情報の構造の一例である。なお、本例では、コンテンツ情報がコンテンツポインタである場合について例示する。図5に示すように、ユーザAは自信がソースであるコンテンツポインタ1とのリンクを有しており、該リンクにはコンテンツの取得日時A1および取得地点A1の情報が付加されている。また、コンテンツポインタ1は第1のユーザAが「共有」を行った第2のユーザBとのリンクを有しており、該リンクにはコンテンツの共有日時B1および共有地点B1の情報が付加されている。
 また、図5は、共有体験情報の構造の他の例である。図5に示すように、コンテンツポインタ1に関する共有体験情報とコンテンツポインタ2に関する共有体験情報とが統合されている。第2のユーザBは、コンテンツポインタ1のみからの共有のリンク(共有日時B1、共有地点B1)を有している。また、その他のユーザCは、コンテンツポインタ1からの共有のリンク(共有日時C1、共有地点C1)と、コンテンツポインタ2からの共有のリンク(共有日時C2、共有地点C2)を有している。また、その他のユーザDは、コンテンツポインタ1からの共有のリンク(共有日時D1、共有地点D1)と、コンテンツポインタ2からの共有のリンク(共有日時D2、共有地点D2)を有している。また、ユーザEは、コンテンツポインタ2のみからの共有のリンク(共有日時E2、共有地点E2)を有している。
 前記共有体験情報データベース41、42は、それぞれ前記処理サーバ30の共有体験情報構築部303により構築された第1のユーザAと第2のユーザBの各共有体験情報を記憶するものである。本実施形態では、共有体験情報データベース41、42は各ユーザA、Bごとに分かれているが、一つの共有体験情報データベースとしてもよい。
 [本システム1の共有体験情報構築の動作]
 次に、本システム1の動作について、図6に示すフローチャートを参照しつつ説明する。なお、以下の説明において、「ステップ」を「S」と略記する。
 なお、第1のユーザAは、第1入力部11を例えば指で操作することにより、インターネットに接続して各種サイトにアクセスしたり、内臓の撮影カメラ機能を使用して人物、物、風景などを撮影したりする。これら第1のユーザAの情報端末装置1のディスプレイに表示されたサイト画像や撮影画像などは、当該ユーザの所定の体験に関するコンテンツとして装置に内蔵のコンテンツキャッシュ16内に記憶されているものとする。
 まず、第1のユーザAの情報端末装置1において、コンテンツ選択部12が、ユーザによる第1入力部11の各種操作により、所定のコンテンツをコンテンツキャッシュ16から選択する(S11)。
 そして、コンテンツ識別情報出力部13が、コンテンツ選択部12により選択されたコンテンツを識別する情報(コンテンツ識別情報)を第2のユーザBの情報端末装置2に出力する(S12)。
 そして、第1固有キー生成部14が、コンテンツ選択部12により選択されたコンテンツに対応する固有キーを生成する(S13)。
 そして、第1ユーザ情報送信部15が、第1のユーザAに関する情報、第1固有キー生成部14により生成された固有キー、およびコンテンツ選択部12により選択されたコンテンツ情報をネットワークを介して前記サーバ装置3に送信する(S14)。
 一方、第2のユーザBの情報端末装置2において、コンテンツ識別情報入力部22が、第1のユーザAの情報端末装置1から出力されたコンテンツ識別情報を入力する(S21)。
 そして、第2固有キー生成部23が、コンテンツ識別情報入力部22により入力されたコンテンツ識別情報に対応する固有キーを生成する(S22)。
 そして、第2ユーザ情報送信部24が、第2のユーザBに関する情報、第2固有キー生成部23により生成された固有キー、およびコンテンツ識別情報入力部22により入力されたコンテンツ識別情報の入力日時および/または入力地点に関する情報をネットワークを介して前記サーバ装置3に送信する(S23)。
 而して、サーバ装置3において、ユーザ情報受信部301が、第1のユーザAおよび第2のユーザBの情報端末装置1、2からネットワークを介して送信されてきた第1ユーザAおよび第2のユーザBの各種情報を受信する(S31)。
 そして、固有キー照合部302が、ユーザ情報受信部301により受信された各ユーザ情報のうち、各固有キーを照合する(S32)。
 そして、共有体験情報構築部303が、固有キー照合部302により各固有キーの照合が成功した場合に、第2のユーザBの情報端末装置2から送信されてきたコンテンツ識別情報の入力日時および/または入力地点をコンテンツの共有日時および/または共有地点とする。そして、第1のユーザAに関する情報、第2のユーザBに関する情報、コンテンツに関する情報、およびコンテンツの共有日時および/または共有地点に関する情報、あるいはさらコンテンツの取得日時および/または取得地点とを互いに関連付けることにより、第1のユーザAと第2のユーザBにおける共有体験情報として構築する(S33)。
<第2の実施形態>
 次に、本発明に係る本システム1の第2の実施形態について図7~図8を参照しつつ説明する。
 本実施形態では、サーバ装置3の処理サーバ30は、第1の実施形態における共有体験情報を構築する機能に加えて、構築した共有体験情報をユーザに提示する機能を有する。
 なお、本実施形態では、第1のユーザAの要求に応じて第1のユーザAの共有体験情報を提示する場合について説明する。また、実施形態1と同様の機能については、同一の符号を付して、その説明を省略することとする。
[サーバ装置3の構成]
 前記処理サーバ30は、図7に示すように、ユーザを認証するための認証部304が設けられている。この認証部304は、第1のユーザAの情報端末装置1からネットワークを介して送信されてきた第1のユーザAに関する情報に関して当該第1のユーザAの認証を行うものである。
 前記処理サーバ30は、図7に示すように、ユーザによる条件の指定を行う条件指定部305が設けられている。この条件指定部305は、前記認証部304による第1のユーザAの認証が成功した場合、第1のユーザAの情報端末装置1との間において条件指定に係る処理を実行するものである。この条件指定に関しては、例えば所定のユーザとの間における共有体験情報を指定したり、所定の日時や地点に関する共有体験情報を指定したりする。
 前記処理サーバ30は、図7に示すように、共有体験情報を抽出する共有体験情報抽出部306が設けられている。この共有体験情報抽出部306は、第1のユーザAの共有体験情報データベース41に記憶されている共有体験情報を抽出するものである。特に本実施形態では、共有体験情報抽出部306は、第1のユーザAの情報端末装置1によって共有体験情報に関する条件が指定された場合、前記共有体験情報データベース41に記憶されている共有体験情報から当該条件に一致する共有体験情報を抽出する。また、共有体験情報抽出部306は、共有体験情報抽出部306が前記共有体験情報データベース41に記憶されている共有体験情報を所定の形式に加工した状態で抽出してもよい。
 前記処理サーバ30は、図7に示すように、共有体験情報抽出部306により抽出された共有体験情報をネットワークを介して第1のユーザAの情報端末に出力せしめる共有体験情報出力制御部307が設けられている。
 この共有体験情報出力制御部307は、例えば共有体験情報をコンテンツの取得の日時順にユーザの情報端末装置に表示せしめたり(実施例2)、所定のユーザとの間の共有体験情報をユーザの情報端末装置に表示せしめたりしてもよい(実施例3)。また、共有体験情報が有するコンテンツの取得地点および/または共有地点に基づいて、共有体験情報を所定の地図上に表したものをユーザの情報端末装置に表示せしめてもよい(実施例4)。さらに共有体験情報が有するコンテンツの取得日時、取得地点、共有日時および/または共有地点に基づいて、所定の地点におけるコンテンツの共有回数をユーザの情報端末装置に出力せしめたり、所定の期間におけるコンテンツの共有回数をユーザの情報端末装置に出力せしめたりしてもよい。さらにまた、共有体験情報をユーザに関する情報を除いた状態でユーザの情報端末装置に出力せしめてもよい(実施例5)。
 [本システム1の共有体験情報提示の動作]
 次に、本システム1の動作について、図8に示すフローチャートを参照しつつ説明する。なお、以下の説明において、「ステップ」を「S」と略記する。
 まず、サーバ装置3において、認証部304は、第1のユーザAの情報端末からネットワークを介して送信されてきた第1のユーザAに関する情報に関して当該第1のユーザAの認証を行う(S41)。
 そして、条件指定部305が、前記認証部304による第1のユーザAの認証が成功した場合、第1のユーザAの情報端末との間において条件指定に係る処理を実行する(S42)。
 そして、共有体験情報抽出部306が、ユーザの情報端末装置によって共有体験情報に関する条件が指定された場合、前記共有体験情報データベース41に記憶されている共有体験情報から当該条件に一致する共有体験情報を抽出する(S43)。
 そして、共有体験情報出力制御部307が、共有体験情報抽出部306により抽出された共有体験情報をネットワークを介して第1のユーザAの情報端末に出力せしめる(S44)
[実施例1]
 本実施例では、図9に示すように、第1のユーザAの所定の体験に関するコンテンツとして、第1のユーザAの情報端末装置1のディスプレイに表示された地図と店舗に関するサイト画像を使用している。
 具体的に説明すると、第1のユーザAの情報端末装置1において、コンテンツ識別情報出力部13は、サイト画像そのものをコンテンツ識別情報として、当該サイト画像をディスプレイに表示することにより出力している。そして、第2のユーザBの情報端末装置2において、コンテンツ識別情報入力部22は、第1のユーザAの情報端末装置1のディスプレイに表示された当該サイト画像を内蔵の撮影カメラにより直接撮影することにより入力している。
 また、第1のユーザAの情報端末装置1において、第1固有キー生成部14は、ディスプレイに表示されている当該サイト画像の全体または一部の画像情報を固有キーとしたり、あるいは当該サイト画像に対応する規定の画像パターンを固有キーとする。また、第2のユーザBの情報端末装置2において、第2固有キー生成部23は、撮像カメラで撮影した当該サイトのサイト画像の全体または一部の画像情報を固有キーとしたり、あるいは当該サイト画像に対応する規定の画像パターンを固有キーとする。これら各固有キーは、サーバ装置3の固有キー照合部302において互いに比較されることにより照合され、照合が成功した場合に第1のユーザAと第2のユーザBとの間における共有体験情報が構築される。
 このため第1のユーザAの情報端末装置1と第2のユーザBの情報端末装置2との間において、第1のユーザAの情報端末装置1のディスプレイで表示されたサイト画像を第2のユーザBの情報端末装置2の撮像カメラで撮影するという直観的な操作によって、第1のユーザAと第2のユーザBの間における共有体験情報を構築することができる。
 なお、本実施例では、第1のユーザAの情報端末装置1と第2のユーザBの情報端末装置2の間において、コンテンツとしてサイト画像や撮影画像などの視覚的なコンテンツを例示したが、音声(音楽を含む)による聴覚的なコンテンツであってもよい。すなわち、第1のユーザAの情報端末装置1は、コンテンツ識別情報出力部13が附属のスピーカであって、コンテンツ識別情報をスピーカの音声により出力する。また、第2のユーザBの情報端末装置2は、コンテンツ情報入力部22が附属のマイクであって、第1のユーザAの情報端末装置1のスピーカの音声により出力されたコンテンツ識別情報を録音することにより入力する。
 また、コンテンツが画像などの視覚的なものである場合には、第1のユーザAの情報端末装置1と第2のユーザBの情報端末装置2との間のコンテンツ識別情報の入出力も画像などの視覚的なものとするのが一般的であるが、規定の音声パターンなどの聴覚的なものを用いてもよい。一方、コンテンツが音声などの聴覚的なものである場合には、第1のユーザAの情報端末装置1と第2のユーザBの情報端末装置2との間のコンテンツ識別情報の入出力も音声などの聴覚的なものとするのが一般的であるが、既定の画像パターンなどの視覚的なものを用いてもよい。要は、コンテンツが視覚的なもの、あるいは聴覚的なものにかかわらず、第1のユーザAの情報端末装置1と第2のユーザBの情報端末装置2との間のコンテンツ識別情報の入出力は視覚的あるいは聴覚的なコンテンツ識別情報が適宜使用され、サーバ装置3における照合も適宜使用された視覚的あるいは聴覚的なコンテンツ識別情報から生成された各固有キーにより照合が行われる。
[実施例2]
 本実施例では、図10に示すように、第1のユーザAの情報端末装置1のディスプレイにおいて、共有体験情報がコンテンツの取得日時の順に表示される。
 具体的に説明すると、サーバ装置3の共有体験情報出力制御部307は、第1のユーザAの情報端末装置1からの指示に従って、共有体験情報をコンテンツの取得日時の順に第1のユーザAの情報端末装置1に表示せしめる。例えば、第1のユーザAの情報端末装置1のディスプレイにおいて、各コンテンツ1、2などがそれぞれの取得日時A1、A2の順にサイト画像または撮影画像とともに表示されている。また、コンテンツ1の表示エリアには、共有を行ったユーザの名称B、C、Dと、共有日時B1、C1、D1と、共有地点B1、C1、D1が表示されている。また、コンテンツ2の表示エリアには、共有を行ったユーザの名称C、D、Eと、共有日時C2、D2、E2と、共有地点C2、D2、E2が表示されている。
 このため第1のユーザAは、過去のコンテンツ毎に関する共有体験情報を時系列順に閲覧することができる。
[実施例3]
 本実施例では、図11に示すように、第1のユーザAの情報端末装置1のディスプレイにおいて、特定のユーザとの間の共有体験情報が表示される。
 具体的に説明すると、サーバ装置3の共有体験情報出力制御部307は、第1のユーザAの情報端末装置1からの指示に従って、特定のユーザとの間の共有体験情報をユーザの情報端末装置に表示せしめる。例えば、第1のユーザAの情報端末装置1のディスプレイにおいて、特定のユーザCとの間の共有体験情報がまとめて表示されている。このときユーザCとの間で共有したコンテンツ1、2などがそれぞれの共有日時C1、C2の順にサイト画像または撮影画像とともに表示される。また、コンテンツ1の表示エリアには、特定のユーザCの他に共有を行ったユーザBやユーザDの名称B、Dと、それら共有日時B1、D1と、共有地点B1、D1が表示されている。また、コンテンツ2の表示エリアには、特定のユーザCの他に共有を行ったユーザDやユーザEの名称D、Eと、それら共有日時D2、E2と、共有地点D2、E2が表示されている。
 このため第1のユーザAは、ある特定のユーザCに限定して、そのユーザCとの共有体験情報を時系列順に閲覧することができる。
[実施例4]
 本実施例では、図12に示すように、第1のユーザAの情報端末装置1のディスプレイにおいて、共有体験情報を所定の地図上に表したものが表示される。
 具体的に説明すると、前記共有体験情報出力制御部307は、共有体験情報が有するコンテンツの取得地点および/または共有地点に基づいて、共有体験情報を所定の地図上に表したものをユーザの情報端末装置に表示せしめる。例えば、第1のユーザAの情報端末装置1のディスプレイにおいて、コンテンツ1、2に関わる共有体験情報を所定の地図上に表したものが表示される。このときコンテンツ1の表示エリアでは、「現在地」の東側における第1十字路の北東角部にコンテンツ1のサイト画像と、共有したユーザの名称B、C、Dが吹き出し的に表示されている。また、コンテンツ2の表示エリアでは、「現在地」の西側における第1十字路の南東部にコンテンツ2の撮影画像と、共有したユーザの名称C、D、Eが表示されている。
 このため第1のユーザAは、現在地の近くで過去にどのような共有体験情報が構築されたのかや、どういった地域で多くの共有体験情報が構築されたかなどを直観的に閲覧することができる。
[実施例5]
 本実施例では、図13に示すように、第1のユーザAの情報端末装置1のディスプレイにおいて、ユーザ名が除かれた状態で、所定の地点におけるコンテンツの共有回数が表示される。
 具体的には、共有体験情報出力制御部307は、ユーザに関する情報を除いた状態で共有体験情報を第1のユーザAの情報端末装置1に出力せしめる。また、共有体験情報出力制御部307は、共有体験情報が有するコンテンツの取得日時、取得地点、共有日時および/または共有地点に基づいて、所定の地点におけるコンテンツの共有回数をユーザの情報端末装置に出力せしめる。例えば、第1のユーザAの情報端末装置1のディスプレイにおいて、場所1、2に関わる共有体験情報を地図上に表したものが表示される。このとき場所1の表示エリアでは、「現在地」の東側における第1十字路の北東角部に共有体験した月(4月、5月、6月)と各回数(10回、2回、2回)が表示される。また、場所2の表示エリアでは、「現在地」の西側における第1十字路の南東角部に共有体験した月(4月、5月、6月)と各回数(2回、2回、10回)が表示される。
 このため匿名性を維持した共有体験情報を活用することができる。例えば、現在が6月である場合、場所1と場所2では、場所2の方が6月に共有体験情報がより多く構築されている。よって、6月により共有体験を構築したい魅力的な場所があることが分かり、ユーザをその時のより魅力的な場所へと誘導することができる。
[実施例6]
 本実施例では、図14に示すように、コンテンツの取得日時、取得地点、共有日時、あるいは共有地点について共通性のあるユーザを自動的にグループ化する。
 具体的には、共有体験情報抽出部306は、所定のユーザの共有体験情報データベースに記憶されている共有体験情報において、共有体験情報が有するコンテンツの取得日時、取得地点、共有日時および/または共有地点に基づいて、共通性がある共有体験情報を多数構築しているユーザをグループ化する。例えば、ユーザAの共有体験情報データベースに記憶されている共有体験情報において、別のユーザB、ユーザC、ユーザDとの間に多くの共有体験情報を構築している場合、共有体験情報抽出部306はユーザAの共有体験情報データベース上で自動的にユーザB、ユーザCおよびユーザDをグループ化し(例えば、「仲良しグループ」などと名付けても良い)、ユーザAが特定のグループ(仲良しグループ)を指定して共有体験情報を抽出する。
 このため所定のユーザと別のユーザがグループ化されることにより、当該ユーザは複数のユーザとの共有体験情報を容易に選んで提示させたり、複数のユーザに対して一括で共有体験情報を紹介したりすることができる。
 以上、図面を参照して本発明の実施形態を説明したが、本発明は、図示した実施形態のものに限定されない。図示された実施形態に対して、本発明と同一の範囲内において、あるいは均等の範囲内において、種々の修正や変形を加えることが可能である。
1・・・ユーザAの情報端末装置
11・・・第1入力部
12・・・コンテンツ選択部
13・・・コンテンツ識別情報出力部
14・・・第1固有キー生成部
15・・・第1ユーザ情報送信部
16・・・コンテンツキャッシュ
2・・・ユーザBの情報端末装置
21・・・第2入力部
22・・・コンテンツ識別情報入力部
23・・・第2固有キー生成部
24・・・第2ユーザ情報送信部
3・・・サーバ装置
30・・・処理サーバ
301・・・ユーザ情報受信部
302・・・固有キー照合部
303・・・共有体験情報構築部
304・・・認証部
305・・・条件指定部
306・・・共有体験情報抽出部
307・・・共有体験情報出力制御部
41・・・ユーザAの共有体験情報データベース
42・・・ユーザBの共有体験情報データベース
50・・・キャッシュサーバ

Claims (15)

  1.  第1のユーザの情報端末装置と、第2のユーザの情報端末装置と、それら第1のユーザおよび第2のユーザの情報端末装置にネットワークを介して接続されたサーバ装置とを備え、
     第1のユーザの情報端末装置は、
     第1のユーザにより所定の体験に関するコンテンツが選択されるコンテンツ選択部と、
     該コンテンツ選択部により選択されたコンテンツを識別する情報を第2のユーザの情報端末装置に対して出力するコンテンツ識別情報出力部と、
     前記コンテンツ選択部により選択されたコンテンツに対応する固有キーを生成する第1固有キー生成部と、
     第1のユーザに関する情報、前記固有キー生成部により生成された固有キー、およびコンテンツに関する情報をネットワークを介して前記サーバ装置に送信する第1ユーザ情報送信部とを備え、
     第2のユーザの情報端末装置は、
     第1のユーザの情報端末装置から出力されたコンテンツを識別する情報を入力するコンテンツ識別情報入力部と、
     該コンテンツ識別情報入力部により入力されたコンテンツを識別する情報に対応する固有キーを生成する第2固有キー生成部と、
     第2のユーザに関する情報、前記固有キー生成部により生成された固有キー、コンテンツ識別情報入力部により入力されたコンテンツを識別する情報の入力日時および/または入力地点に関する情報をネットワークを介して前記サーバ装置に送信する第2ユーザ情報送信部とを備え、
     前記サーバ装置は、
     前記第1のユーザの情報端末装置と前記第2のユーザの情報端末装置から送信されてきた固有キーを照合する固有キー照合部と、
     該固有キー照合部により固有キーの照合が成功した場合に、第2の情報端末装置から送信されてきたコンテンツを識別する情報の入力日時および/または入力地点をコンテンツの共有日時および/または共有地点とし、第1のユーザに関する情報、第2のユーザに関する情報、コンテンツに関する情報、および共有日時および/または共有地点に関する情報を互いに関連付けることにより、第1のユーザと第2のユーザとの間における共有体験情報として構築する共有体験情報構築部と、
     該共有体験情報構築部により構築された第1のユーザと第2のユーザの間における共有体験情報を記憶する共有体験情報記憶部とを備えることを特徴とする共有体験情報構築システム。
  2.  前記第1の情報端末装置は、前記第1ユーザ情報送信部がコンテンツの取得日時および/または取得地点に関する情報をサーバ装置に送信し、
     前記サーバ装置は、共有体験情報構築部がコンテンツの取得日時および/または取得地点に関する情報と、コンテンツの共有日時および/または共有地点に関する情報とを互いに関連付ける請求項1に記載の共有体験情報構築システム。
  3.  前記第1のユーザの情報端末装置は、前記コンテンツ識別情報出力部が附属のディスプレイであって、コンテンツを識別する情報をディスプレイに表示することにより出力するとともに、
     前記第2のユーザの情報端末装置は、前記コンテンツ情報入力部が附属の撮影カメラであって、第1のユーザの情報端末装置のディスプレイに表示されたコンテンツを識別する情報を撮影することにより入力する請求項1に記載の共有体験情報構築システム。
  4.  前記第1のユーザの情報端末装置は、前記コンテンツ識別情報出力部が附属のスピーカであって、コンテンツを識別する情報をスピーカの音声により出力するとともに、
     前記第2のユーザの情報端末装置は、前記コンテンツ情報入力部が附属のマイクであって、第1のユーザの情報端末装置のスピーカの音声により出力されたコンテンツを識別する情報を録音することにより入力する請求項1に記載の共有体験情報構築システム。
  5.  前記第1のユーザの情報端末装置は、第1ユーザ情報送信部が第2のユーザの情報端末装置との間においてコンテンツを識別する情報を出力した出力日時および/または出力地点をサーバ装置に送信し、
     前記サーバ装置は、前記固有キー照合部が第1のユーザの情報端末装置から送信されてきた出力日時および/または出力地点と、第2のユーザの情報端末装置から送信されてきた入力日時および/または入力地点とが所定の時間および/または領域の範囲内である否かの照合を行う請求項1に記載の共有体験情報構築システム。
  6.  前記サーバ装置は、前記共有体験情報記憶部に記憶されている共有体験情報を抽出する共有体験情報抽出部と、該共有体験情報抽出部により抽出された共有体験情報をユーザの情報端末装置に出力せしめる共有体験情報出力制御部とを備える請求項1に記載の共有体験情報構築システム。
  7.  前記共有体験情報抽出部は、ユーザの情報端末装置によって共有体験情報に関する条件が指定された場合、前記共有体験情報記憶部に記憶されている共有体験情報から当該条件に一致する共有体験情報を抽出する請求項6に記載の共有体験情報構築システム。
  8.  前記共有体験情報抽出部は、前記共有体験情報記憶部に記憶されている共有体験情報を所定の形式に加工した状態で抽出する請求項に記載の共有体験情報構築システム。
  9.  前記共有体験情報出力制御部は、共有体験情報をコンテンツの取得日時の順にユーザの情報端末装置に表示せしめる請求項6に記載の共有体験情報構築システム。
  10.  前記共有体験情報出力制御部は、所定のユーザとの間の共有体験情報をユーザの情報端末装置に表示せしめる請求項6に記載の共有体験情報構築システム。
  11.  前記共有体験情報出力制御部は、共有体験情報が有するコンテンツの取得地点および/または共有地点に基づいて、共有体験情報を所定の地図上に表したものをユーザの情報端末装置に表示せしめる請求項6に記載の共有体験情報構築システム。
  12.  前記共有体験情報出力制御部は、共有体験情報が有するコンテンツの共有日時および/または共有地点に基づいて、所定の地点におけるコンテンツの共有回数をユーザの情報端末装置に出力せしめる請求項6に記載の共有体験情報構築システム。
  13.  前記共有体験情報出力制御部は、共有体験情報が有するコンテンツの共有日時および/または共有地点に基づいて、所定の期間におけるコンテンツの共有回数をユーザの情報端末装置に出力せしめる請求項6に記載の共有体験情報構築システム。
  14.  前記共有体験情報出力制御部は、ユーザに関する情報を除いた状態で共有体験情報をユーザの情報端末装置に出力せしめる請求項6に記載の共有体験情報構築システム。
  15.  前記共有体験情報抽出部は、共有体験情報が有するコンテンツの取得日時、取得地点、共有日時および/または共有地点に基づいて、共通性がある共有体験情報をグループ化する請求項6に記載の共有体験情報構築システム。
PCT/JP2015/067549 2014-06-19 2015-06-18 共有体験情報構築システム WO2015194613A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US15/320,090 US10165019B2 (en) 2014-06-19 2015-06-18 Shared experience information construction system
EP15809981.2A EP3159801A4 (en) 2014-06-19 2015-06-18 Shared experience information construction system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014125919A JP6191083B2 (ja) 2014-06-19 2014-06-19 共有体験情報構築システム
JP2014-125919 2014-06-19

Publications (1)

Publication Number Publication Date
WO2015194613A1 true WO2015194613A1 (ja) 2015-12-23

Family

ID=54935593

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/067549 WO2015194613A1 (ja) 2014-06-19 2015-06-18 共有体験情報構築システム

Country Status (4)

Country Link
US (1) US10165019B2 (ja)
EP (1) EP3159801A4 (ja)
JP (1) JP6191083B2 (ja)
WO (1) WO2015194613A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108494723A (zh) * 2018-01-26 2018-09-04 广州市和声信息技术有限公司 一种基于数据交换点的数据交换方法及系统
EP3828795A1 (en) * 2019-11-28 2021-06-02 Ricoh Company, Ltd. Information processing system, information processing apparatus, information processing method, and recording medium

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004234599A (ja) * 2003-02-03 2004-08-19 Nippon Telegr & Teleph Corp <Ntt> コンテンツ流通情報記録方法、コンテンツ流通情報記録装置、この方法のプログラム、このプログラムを記録した記録媒体
WO2014006903A1 (ja) * 2012-07-06 2014-01-09 パナソニック株式会社 コンテンツ制御方法、コンテンツ制御装置およびプログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1223530A3 (en) * 2001-01-10 2004-12-15 Fuji Photo Film Co., Ltd. System and method for offering and sharing digital content
JP2008140041A (ja) * 2006-11-30 2008-06-19 Fujifilm Corp 画像共有サーバ、システム、方法およびプログラム
US7870272B2 (en) * 2006-12-05 2011-01-11 Hewlett-Packard Development Company L.P. Preserving a user experience with content across multiple computing devices using location information
US8498979B1 (en) * 2012-01-09 2013-07-30 Wajam Internet Technologies Inc. System and method for semantic analysis of social network user activities
US20140365432A1 (en) * 2013-06-10 2014-12-11 Dropbox, Inc. Dropsite for shared content

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004234599A (ja) * 2003-02-03 2004-08-19 Nippon Telegr & Teleph Corp <Ntt> コンテンツ流通情報記録方法、コンテンツ流通情報記録装置、この方法のプログラム、このプログラムを記録した記録媒体
WO2014006903A1 (ja) * 2012-07-06 2014-01-09 パナソニック株式会社 コンテンツ制御方法、コンテンツ制御装置およびプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3159801A4 *

Also Published As

Publication number Publication date
US10165019B2 (en) 2018-12-25
US20170134449A1 (en) 2017-05-11
EP3159801A1 (en) 2017-04-26
EP3159801A4 (en) 2018-02-14
JP2016004502A (ja) 2016-01-12
JP6191083B2 (ja) 2017-09-06

Similar Documents

Publication Publication Date Title
CN104769589B (zh) 通信终端、信息处理装置、通信方法、信息处理方法、程序和通信系统
US20150288779A1 (en) Communication terminal, communication method, program, and communication system
JP2006293912A (ja) 情報表示システム、情報表示方法および携帯端末装置
US20150294137A1 (en) Image processing device, image processing method, and program
KR20120010567A (ko) 컨텐츠 시스템, 서버 및 이의 동작 방법
JP6191083B2 (ja) 共有体験情報構築システム
US11190472B2 (en) Changing display probability of posted information according to relationship disconnection request
JP2015018421A (ja) 端末装置、投稿情報送信方法、投稿情報送信プログラムおよび投稿情報共有システム
JP5788429B2 (ja) サーバシステム
US9369848B2 (en) Information distribution apparatus, information distribution method and program
KR20160133775A (ko) 통신정보 표시 및 접속기능이 구비된 모바일 장치 및 시스템과 그 방법
JP6159430B2 (ja) 決済システム、第一端末、第二端末、およびデータセンター
US20140244736A1 (en) File Sharing in a Social Network
JP6186165B2 (ja) 情報システム、第二端末装置、情報処理方法およびプログラム
JP2016110590A (ja) 画像処理装置、データ登録方法およびデータ登録プログラム
CN109040584A (zh) 一种互动拍摄的方法和装置
JP2014042231A (ja) プログラム、通信方法、及び通信装置
JP6324284B2 (ja) グループ学習システム
JP2014160963A (ja) 画像処理装置及びプログラム
JP2010277441A (ja) 携帯端末および顔識別システム
JP2016143142A (ja) 画像管理システム、画像管理装置、及びプログラム
JP2016184379A (ja) 通信を用いたご祈祷又はお祓いの実行及び記録システム
JP6124858B2 (ja) コンテンツシステム、サーバ装置及びサーバ装置の動作方法
TWI787408B (zh) 程式、資訊處理方法、及資訊處理終端
JP2013164745A (ja) 通信端末装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15809981

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 15320090

Country of ref document: US

REEP Request for entry into the european phase

Ref document number: 2015809981

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2015809981

Country of ref document: EP