WO2019021575A1 - 情報処理システム、情報処理装置、情報処理方法、および記録媒体 - Google Patents

情報処理システム、情報処理装置、情報処理方法、および記録媒体 Download PDF

Info

Publication number
WO2019021575A1
WO2019021575A1 PCT/JP2018/018318 JP2018018318W WO2019021575A1 WO 2019021575 A1 WO2019021575 A1 WO 2019021575A1 JP 2018018318 W JP2018018318 W JP 2018018318W WO 2019021575 A1 WO2019021575 A1 WO 2019021575A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
content
information
information processing
current position
Prior art date
Application number
PCT/JP2018/018318
Other languages
English (en)
French (fr)
Inventor
井原 圭吾
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to JP2019532385A priority Critical patent/JPWO2019021575A1/ja
Priority to CN201880048756.XA priority patent/CN110945489A/zh
Priority to US16/631,864 priority patent/US11388016B2/en
Priority to EP18838949.8A priority patent/EP3660688A4/en
Priority to KR1020197035211A priority patent/KR20200036811A/ko
Publication of WO2019021575A1 publication Critical patent/WO2019021575A1/ja
Priority to US17/746,612 priority patent/US12074723B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/02Details
    • H04L12/16Arrangements for providing special services to substations
    • H04L12/18Arrangements for providing special services to substations for broadcast or conference, e.g. multicast
    • H04L12/1845Arrangements for providing special services to substations for broadcast or conference, e.g. multicast broadcast or multicast in a specific location, e.g. geocast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/021Services related to particular areas, e.g. point of interest [POI] services, venue services or geofences
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0281Customer communication at a business location, e.g. providing product or service information, consulting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/02Details
    • H04L12/16Arrangements for providing special services to substations
    • H04L12/18Arrangements for providing special services to substations for broadcast or conference, e.g. multicast
    • H04L12/1859Arrangements for providing special services to substations for broadcast or conference, e.g. multicast adapted to provide push services, e.g. data channels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/61Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio
    • H04L65/612Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio for unicast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/2866Architectures; Arrangements
    • H04L67/30Profiles
    • H04L67/306User profiles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/52Network services specially adapted for the location of the user terminal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
    • H04N21/25808Management of client data
    • H04N21/25841Management of client data involving the geographical location of the client
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/266Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
    • H04N21/2668Creating a channel for a dedicated end-user group, e.g. insertion of targeted commercials based on end-user profiles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42202Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] environmental sensors, e.g. for detecting temperature, luminosity, pressure, earthquakes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0251Targeted advertisements
    • G06Q30/0261Targeted advertisements based on user location
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/535Tracking the activity of the user
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/54Presence management, e.g. monitoring or registration for receipt of user log-on information, or the connection status of the users
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W84/00Network topologies
    • H04W84/02Hierarchically pre-organised networks, e.g. paging networks, cellular networks, WLAN [Wireless Local Area Network] or WLL [Wireless Local Loop]
    • H04W84/10Small scale networks; Flat hierarchical networks
    • H04W84/12WLAN [Wireless Local Area Networks]

Definitions

  • the present disclosure relates to an information processing system, an information processing apparatus, an information processing method, and a recording medium.
  • Content delivery according to the user's situation is not limited to the situation only for the user, but it senses the situation of the person with the user, and delivers the content according to the situation to the user and the person with the user Is also proposed.
  • Patent Document 1 discloses a system for delivering useful content according to the crowded state and the psychological state (excitation state, sedation state, emotions state).
  • Patent Document 2 a system is disclosed that distributes appropriate content according to an area in which a plurality of people in a house live together, according to who is nearby.
  • Patent Document 3 a technology is disclosed that recognizes a congested area and an area that is not congested, and guides the user from the congested area to the not congested area.
  • JP 2014-134922 A JP, 2016-66173, A Japanese Patent Application Publication No. 2016-505190
  • a crowded place such as a queue at a popular shop or a vacation spot, a crowded train at commuting or attending school, a crowded place such as an event site or a train station, etc.
  • users often have negative emotions. If you had to endure an unpleasant situation, you had to wait for time to pass.
  • an information processing system an information processing apparatus, an information processing method, and a recording medium capable of distributing special content in order to alleviate a user's negative situation are proposed.
  • the predetermined area including at least the communication unit for receiving the current position information of the user and the position indicated by the current position information is an area that makes the staying person uncomfortable.
  • An information processing system comprising: a control unit that controls the communication unit so as to distribute specific content.
  • the server estimates that at least the communication unit for transmitting the current position information of the user to the server, and the predetermined area including the position indicated by the current position information is an area that makes the person who is staying uncomfortable. And controlling the communication unit to receive the specific content distributed to the user from the server, and an output unit for outputting the specific content acquired from the communication unit, And a control unit configured to control the output unit to output a specific content.
  • the processor determines that at least the reception of the current position information of the user by the communication unit and the predetermined area including the position indicated by the current position information is an area that makes the person who is staying offended. Then, an information processing method is proposed, which includes controlling the communication unit to distribute specific content to the user.
  • the computer is at least a communication unit for transmitting current position information of the user to the server, and a predetermined area including the position indicated by the current position information is an area that makes people uncomfortable Controlling the communication unit to receive the specific content delivered to the user from the server, and an output unit for outputting the specific content acquired through the communication unit from the server.
  • a recording medium is proposed in which a program for functioning as a control unit that controls the output unit to output the specific content is recorded.
  • an information processing system includes a control unit that controls to distribute specific content to the user when it is estimated that the user is arranged in a matrix based on current position information of the user. suggest.
  • FIG. 1 is a diagram for describing an overview of an information processing system according to an embodiment of the present disclosure.
  • the information processing system according to the present embodiment can deliver special content in order to alleviate the negative situation of the user.
  • the content to be distributed is an image, a moving image (video; drama, a movie, an animation, a short movie, and the like), an AR (Augmented Reality) image, music, and the like, and may be set in advance by the content provider.
  • content related to a matrix in which users are arranged may be distributed. More specifically, AR display information of characters appearing in a game in which users are lined up is distributed, and AR images 50 of characters are displayed when the user holds the user terminal 1 such as a tablet as shown in FIG. May be superimposed on an actual image (a through image captured by a camera provided in the user terminal 1). This allows the user to view and enjoy the content without having to endure the passing of time, even in a negative situation in line.
  • FIG. 2 is a diagram showing an example of the entire configuration of the information processing system according to the present embodiment.
  • the information processing system includes a user terminal 1, a server 2, a camera sensor 4A which is an example of a sensor device, a flow sensor 4B, and a content provider server 5 (5A to 5C). including.
  • the user terminal 1 is an information processing terminal used by a user, for example, a mobile terminal such as a tablet terminal, a smartphone, a mobile phone terminal, a notebook PC (personal computer), etc., or a wearable device (HMD, smart) worn on the user's body Eye glasses, smart watches, smart bands, smart necks, neck speakers, earring speakers, ear cuff speakers, etc. are assumed.
  • the user terminal 1 communicates with the server 2 via the network 3 to transmit and receive data.
  • the user terminal 1 measures the current position and transmits position information to the server 2.
  • the user terminal 1 receives the content from the server 2 and presents it to the user.
  • the server 2 performs special content distribution control according to the user's situation. Content and contents distribution conditions to be distributed are set in advance by the content provider server 5 (5A to 5C).
  • the server 2 is congested based on, for example, the information on the number of persons and people detected by the camera sensors 4A installed in large numbers in the city, and the number of terminals similarly detected by the flow sensors installed in large numbers in the city Identify places and places where processions are made. Then, based on the position information transmitted from the user terminal 1, for example, when the user is in a crowded place, it is assumed that the user has a negative emotion, so that the server 2 responds. Deliver special content to the congested area. In this case, only a specific user (a user who has registered as a user of this system, etc.) may receive the content so that the content can be received, or an unspecified number of people in the congested area can enjoy it. May be
  • FIG. 3 is a block diagram showing an example of the configuration of the user terminal 1 according to the present embodiment.
  • the user terminal 1 includes a control unit 10, a communication unit 11, an input unit 12, a position sensor 13, an output unit 14, and a storage unit 15.
  • the control unit 10 functions as an arithmetic processing unit and a control unit, and controls the overall operation in the user terminal 1 according to various programs.
  • the control unit 10 is realized by, for example, an electronic circuit such as a central processing unit (CPU) or a microprocessor.
  • the control unit 10 may include a ROM (Read Only Memory) that stores programs to be used, operation parameters, and the like, and a RAM (Random Access Memory) that temporarily stores parameters and the like that appropriately change.
  • ROM Read Only Memory
  • RAM Random Access Memory
  • the control unit 10 also functions as a user information management unit 101 and a content output control unit 102.
  • the user information management unit 101 manages user information. Specifically, the user information management unit 101 acquires the user ID and the preference information of the user and stores the information in the storage unit 15.
  • the content output control unit 102 controls the communication unit 11 to output the content received from the server 2 from the output unit 14.
  • the communication unit 11 is connected to the network 3 by wire or wirelessly, and transmits / receives data to / from the server 2 on the network.
  • the communication unit 11 is, for example, a wired / wireless LAN (Local Area Network), Wi-Fi (registered trademark), a mobile communication network (LTE (Long Term Evolution), 3G (third generation mobile communication system)) or the like. Communicate with the network 3
  • the communication unit 11 according to the present embodiment can continuously transmit current position information to the server 2. Further, the communication unit 11 according to the present embodiment receives the content from the server 2 that has determined that the current position is included in the unpleasant area.
  • the input unit 12 receives information input to the user terminal 1 from the outside.
  • the input unit 12 may be an operation input unit that receives an operation input by the user or a voice input unit that collects surrounding voices.
  • the operation input unit receives an operation instruction from the user, and outputs the content of the operation to the control unit 10.
  • the operation input unit may be a touch sensor, a pressure sensor, or a proximity sensor.
  • the operation input unit may be a physical configuration such as a button, a switch, and a lever.
  • the audio input unit is realized by a microphone, a microphone amplifier unit for amplifying and processing an audio signal obtained by the microphone, and an A / D converter for digital conversion to an audio signal, and the audio signal is output to the control unit 10 Do.
  • the input unit 12 may be various sensors for acquiring user status and surrounding environment information. Specifically, for example, motion sensors (acceleration sensor, gyro sensor, geomagnetic sensor, etc.), living body sensors (body temperature sensor, pulse sensor, heart rate sensor, blood pressure sensor, vein sensor, sweat sensor, respiration sensor, brain wave sensor, myoelectric potential Sensors, fingerprint sensors, etc.), environment sensors (temperature sensors, illuminance sensors, humidity sensors, etc.) are assumed.
  • motion sensors acceleration sensor, gyro sensor, geomagnetic sensor, etc.
  • living body sensors body temperature sensor, pulse sensor, heart rate sensor, blood pressure sensor, vein sensor, sweat sensor, respiration sensor, brain wave sensor, myoelectric potential Sensors, fingerprint sensors, etc.
  • environment sensors temperature sensors, illuminance sensors, humidity sensors, etc.
  • the position sensor 13 has a function of detecting the current position of the user terminal 1 based on an external acquisition signal.
  • the position sensor 13 is realized by a GPS (Global Positioning System) positioning unit, receives radio waves from GPS satellites, detects the position where the user terminal 1 is present, and detects the detected position information. Are output to the control unit 10. Further, the position sensor 13 detects the position by transmission / reception with, for example, Wi-Fi (registered trademark), Bluetooth (registered trademark), mobile phone, PHS, smart phone, etc. other than GPS, or by short distance communication, etc. May be
  • Wi-Fi registered trademark
  • Bluetooth registered trademark
  • the output unit 14 has a function of outputting information to be presented to the user.
  • the output unit 14 may be realized by an audio output unit or a display unit.
  • the audio output unit has a speaker that reproduces an audio signal and an amplifier circuit for the speaker.
  • the display unit is a display device that outputs an input screen of registration information, various operation screens, and the like.
  • the display unit may be, for example, a display device such as a liquid crystal display (LCD: Liquid Crystal Display) or an organic EL (Electro Luminescence) display etc.
  • the output unit 14 according to the present embodiment is the content output control unit 102. According to control, the specific content delivered from the server 2 is output and presented to the user.
  • the storage unit 15 is realized by a ROM (Read Only Memory) that stores a program used for processing of the control unit 10, calculation parameters, and the like, and a RAM (Random Access Memory) that temporarily stores parameters and the like that change appropriately.
  • the storage unit 15 according to the present embodiment stores user information such as a user ID.
  • the configuration of the user terminal 1 according to the present embodiment has been specifically described above.
  • the configuration of the user terminal 1 according to the present embodiment is not limited to the example shown in FIG.
  • a part of the configuration may be provided in the external device.
  • FIG. 4 is a block diagram showing an example of the configuration of the server 2 according to the present embodiment.
  • the server 2 includes a control unit 20, a communication unit 21, and a storage unit 22.
  • Control unit 20 The control unit 20 functions as an arithmetic processing unit and a control unit, and controls the overall operation in the server 2 according to various programs.
  • the control unit 20 is realized by, for example, an electronic circuit such as a central processing unit (CPU) or a microprocessor.
  • the control unit 20 may also include a ROM (Read Only Memory) that stores programs to be used, operation parameters, and the like, and a RAM (Random Access Memory) that temporarily stores parameters and the like that change appropriately.
  • ROM Read Only Memory
  • RAM Random Access Memory
  • the control unit 20 also functions as the content registration unit 201, the user management unit 202, the discomfort area determination unit 203, and the content distribution control unit 204.
  • the content registration unit 201 registers information (also referred to as distribution information) related to the content to be distributed in the content management DB 221 in response to a request from each content provider server 5.
  • the delivery information may include delivery conditions in addition to the content data to be delivered.
  • the user management unit 202 manages information (registration information) related to the user using the user management DB 222. Specifically, the user management unit 202 acquires the name of the user, various profiles, and the like from the user terminal 1 and stores the user name in the user management DB 222.
  • the discomfort area determination unit 203 determines an area estimated to be unpleasant for people who stay.
  • “discomfort” is negative emotion, and corresponds to “discomfort” shown by, for example, Russell's emotion ring model.
  • the emotional toroidal model is shown by a two-dimensional axis of "Activated / deactivated” and "Pleasant / Unpleasant”.
  • offensive (negative) emotions such as anger, irritability, boredom and depression are assumed. For example, if you are in a crowded area (area with many people in it, such as crowded trains, train stations, department stores, event venues, etc.) or in a long queue, users are bored or frustrated and uncomfortable It is assumed that it is an emotional feeling.
  • the unpleasant area determination unit 203 can determine whether the area is an area that makes people uncomfortable according to the congestion state (congestion degree). Specifically, based on the position information acquired from each user terminal 1, the information acquired from the camera sensor 4A, the information acquired from the human flow sensor 4B, etc., the unpleasant area determination unit 203 makes a crowded area or a long matrix To understand the area where is done, to determine the unpleasant area.
  • the area is a crowded area or an area in which a matrix is formed.
  • the unpleasant area determination unit 203 can check the crowded area and time zone in advance and accumulate it in the crowded area information DB (database) 223. It can be determined whether the area is an unpleasant area according to the band.
  • FIG. 5 shows an example of the crowded area information. As shown in FIG. 5, a congested time zone is set for each area (the area is designated by, for example, a plurality of latitude and longitude, and a polygon area surrounded by those points is a target). In addition, the degree of congestion at the time of congestion can also be set. In the example shown in FIG. 5, the congestion degree is represented by the average number of persons and the artificial density of the matrix.
  • the “area type” shown in FIG. 5 indicates what kind of store exists in the area (type of store, facility, event).
  • a camera sensor 4A or a people flow sensor 4B installed in various places such as a town or an event site to determine whether the place is actually crowded or a procession is made. From the camera sensor 4A and the people flow sensor 4B, information on the number of persons and the matrix is transmitted to the server 2 as congestion degree information related to the congestion degree.
  • the camera sensor 4A is provided with a motion capture function (person detection unit) that detects the shape of a person from a captured image, and can detect a person present in the vicinity.
  • FIG. 6 is a diagram for explaining detection of a person by the camera sensor 4A.
  • the camera sensor 4A detects a human body part such as a head, a hand, an arm or a foot from the captured image 40, and estimates the posture based on how each is moving. , Detect people.
  • the camera sensor 4A can transmit information on the detected person and the number of persons to the server 2. Further, as shown on the right of FIG.
  • the camera sensor 4A can also detect a plurality of persons from the captured image 41, recognize that they are arranged in a line from their postures and orientations, and detect a matrix. is there.
  • the camera sensor 4A can also acquire the length of a matrix by detecting the shape of a person.
  • whether or not the target users are lined up in the matrix can be determined by performing face recognition from the captured image acquired from the camera sensor 4A.
  • the face image of the user is registered in advance in the user management DB 222.
  • it can be determined based on a user ID (beacon ID) transmitted from the beacon, using an infrared beacon or the like worn by the user.
  • the server 2 can also calculate the remaining waiting time by determining at which position in the matrix the user is.
  • the human flow sensor 4B can receive radio waves to grasp the number of user terminals present in the vicinity.
  • the crowd flow sensor 4B has a Wi-Fi radio wave detection unit that intercepts a Wi-Fi radio wave transmitted from a Wi-Fi terminal such as a smartphone possessed by the user, and based on the detection result of the Wi-Fi radio wave Can detect how many users there are.
  • the human flow sensor 4B transmits information on the detected number of terminals to the server 2.
  • the server 2 records the measured values such as the actual number of persons and the length of the matrix thus transmitted from the camera sensor 4A and the people flow sensor 4B in the congestion area information DB 223 as congestion information, and the accuracy of the congestion information You may make it raise more.
  • the server 2 should grasp the congestion situation (how many people are there) of each area based on the present position information from each user terminal 1 Can.
  • the server 2 directly detects the emotion of the person in the specific area to determine the unpleasant area. May be For example, based on information detected by various sensors of the user terminal 1 possessed by the user, the server 2 may determine the unpleasant area based on whether the user feels unpleasant. More specifically, when the vibration sensor senses that the user is vibrating with a constant short rhythm such as “poor grunt", or if the microphone senses the sound of "tongue", “sigh” and "yawny” If it is determined that the user feels unpleasant (anger, irritability, boredom, depression, etc.), the area where the user is present is determined to be an unpleasant area.
  • the server 2 even if the user is acting with someone, the server 2 also makes the user uncomfortable if it is detected by the microphone that the situation in which the user does not emit voice for a long time (so-called silence) continues. You can judge that you are feeling.
  • a living body sensor it is possible to use a living body sensor to sense physical conditions such as an increase in heart rate, a decrease in skin temperature, and the like, thereby determining that the user is unhappy.
  • a living body sensor to sense physical conditions such as “a change in electroencephalogram” such as an increase in heart rate, a decrease in skin temperature, and the like, which makes it possible to determine that it is moody.
  • the content distribution control unit 204 is registered in the content management DB 221 for a specific or unspecified number of users who are in the place determined to be offensive areas by the offensive area determination unit 203, or users arranged in a matrix of offensive areas Distribute the content you The position of the user can be grasped based on the position information transmitted from the user terminal 1. Since it is presumed that the user staying in the unpleasant area has negative emotions, it is possible to relieve the negative situation by content distribution and make the user feel pleasant. Note that since it is possible to obtain special content when the user is in a crowded place or in a queue according to the present embodiment, it is assumed that the user changes into a positive emotion (pleasure situation).
  • the content Distributes content if the users are in crowded places or queued anyway, regardless of the actual emotions of the individual users. For example, among the users staying in the unpleasant area, the content is delivered to the user who actually has an unpleasant feeling by the above-mentioned method, and when the same user stays again in the same unpleasant area, the emotion of the user Content may be delivered regardless of the content.
  • the content distribution control unit 204 may further distribute the corresponding content when predetermined conditions such as the time zone and the degree of congestion are further satisfied.
  • the predetermined condition is a condition of content distribution set in advance by the content event person, and can be specified by, for example, location, area type (specific store, facility, location with event, etc.), time zone, congestion, etc. .
  • the communication unit 21 is connected to the network 3 by wire or wirelessly, and transmits / receives data to / from each user terminal 1 via the network 3.
  • the communication unit 21 communicates with the network 3 by, for example, a wired / wireless LAN (Local Area Network), Wi-Fi (Wireless Fidelity, registered trademark) or the like.
  • the communication unit 21 receives current position information from the user terminal 1 or receives analysis results (number of people information, number of terminals, etc.) based on sensor data or sensor data from the camera sensor 4A or the human flow sensor 4B. Do. Further, the communication unit 21 controls to transmit the content to the predetermined user terminal 1 according to the control of the content distribution control unit 204.
  • the storage unit 22 is realized by a ROM that stores programs used for processing of the control unit 20, calculation parameters, and the like, and a RAM that temporarily stores parameters and the like that change appropriately.
  • the storage unit 22 according to the present embodiment stores a content management DB (database) 221, a user management DB 222, and a congestion area information DB 223.
  • the content management DB 221 stores information related to the content registered by the content provider, such as content and distribution conditions.
  • the user management DB 222 stores user information including the user's name, user ID, profile and the like.
  • the congestion area information DB 223 stores information on congestion areas as shown in FIG.
  • the configuration of the server 2 according to the present embodiment has been specifically described above.
  • the configuration of the server 2 shown in FIG. 4 is an example, and the present embodiment is not limited to this.
  • an external device may have at least a part of the configuration of the server 2, or an information processing terminal (e.g., an information processing terminal having a relatively close communication distance to the user terminal 1). It may be realized by a so-called edge server or the like.
  • edge server or the like.
  • each configuration and each DB of the control unit 20 shown in FIG. 4 may be all provided in the user terminal 1, and the information processing system according to the present embodiment may be executed by the application of the user terminal 1.
  • FIG. 7 is a flowchart showing an operation process of user registration. As shown in FIG. 7, first, the user terminal 1 displays a user registration screen, and accepts an input of a user's name and various profiles (step S103).
  • the user terminal 1 acquires the face image of the user (step S106), and also acquires the beacon ID of the infrared beacon if the user is possessed (step S109).
  • the user registration screen 30 displays a field for registering a name, a face picture, an infrared beacon ID, and a genre of favorite content.
  • the facial photograph and the infrared beacon ID are used to determine whether the user is actually in a queue.
  • the user terminal 1 transmits the acquired user information to the server 2 (step S112).
  • the user management unit 202 of the server 2 registers the received user information in the user management DB 222 (step S115). At this time, the user management unit 202 allocates a unique user ID to manage user information.
  • user registration is not essential, and it is possible to distribute corresponding content to a user who has not performed user registration, even when the user is in the unpleasant area.
  • the content provider can register with the server 2 to distribute specific content when a predetermined area is congested or a matrix is formed.
  • the content registered for distribution may also be an advertisement.
  • FIG. 9 is a flowchart showing an operation process of content registration. As shown in FIG. 9, first, the content provider server 5 displays a content registration screen for the content provider, and accepts specification of content to be delivered and delivery conditions (step S123).
  • FIG. 10 shows an example of the content registration screen.
  • the content registration screen 35 it is possible to perform specification of content distribution conditions and registration of distribution content.
  • the following example is assumed as a condition for distributing content.
  • Area information a polygonal area surrounded by multiple latitudes and longitudes
  • Type of area ramen shop, amusement park, etc.
  • Time zone such as date and time, day of the week
  • Congestion 5 or more people in a queue, etc.
  • the content provider server 5 transmits the input distribution information to the server 2 (step S126).
  • the content registration unit 201 of the server 2 registers the received distribution information in the content management DB 221 (step S129).
  • the server 2 may distribute the corresponding content to the user terminal 1.
  • FIG. 11 shows an example of a content presentation screen displayed on the user terminal 1 at the time of content distribution.
  • “general content” distributed to unregistered users and “premium user content” distributed only to registered users are presented.
  • the “premium user content” may be visible only to registered users.
  • content that can be viewed by a premium user content that can be viewed from the previous continuation, recommended content from the remaining time of the procession, and recommended content from a favorite genre are presented. The user can select any content and view it on the user terminal 1.
  • privilege content may be presented such that characters related to the procession, such as characters of the theme park, game characters, event characters, etc., appear for the user arranged in the procession.
  • the character may be made to appear on the user terminal 1 possessed by the user, the signage installed near the procession, or the like. This will be described below with reference to FIGS. 12 to 15.
  • FIG. 12 is a view for explaining an example of distribution of character content according to the present embodiment.
  • an AR image 50 of a character may be displayed on the user terminal 1 and may be displayed superimposed on an actual image.
  • a comment such as "Thank you for arranging! May be output according to the voice of the character.
  • FIG. 13 is a diagram for explaining the case of distributing character content to a signage.
  • the server 2 distributes the content to a display device such as signage placed near the matrix. That is, as shown in FIG. 13, the character 52 is made to appear on the signage device 6 installed near the matrix L, and character voice is output such as "line me, thank you! It is possible to make In this case, content distribution can be performed equally to not only registered users but also all users in the vicinity.
  • the content may be distributed from the signage device 6 to the user terminals 1 in the vicinity.
  • a communication apparatus capable of delivering contents directly to the surrounding user terminals 1 is installed, and when it is determined that it is an unpleasant area, the surrounding user terminals from the communication apparatus Specific content may be distributed in order to mitigate negative situations.
  • the content can be equally distributed to not only the registered user but also all the users in the vicinity.
  • FIG. 14 is a diagram for explaining an example of use when the character is AR-displayed. As shown in FIG. 14, when the character is AR-displayed on the user terminal 1, the user can perform two-shot shooting with the AR image 53 of the character.
  • FIG. 15 is a diagram for explaining the case of distributing three-dimensional content as an example of AR content.
  • the user points at the position of each user and the camera of the user terminal 1 such as a smartphone
  • UWB Ultra Wide Band: ultra-wide band wireless communication
  • the same character can be displayed on the user terminals 1a and 1b of a plurality of users (three-dimensional content can be presented in two dimensions).
  • the display position and orientation of the three-dimensional content such as a character are adjusted in accordance with the position of each user and the orientation of the camera, and the motion and voice of the same character 55a and 55b simultaneously at the user terminals 1a and 1b of multiple users.
  • the character is displayed only on the user terminal of the user according to the action pattern of the user such as the number of times and time when the user is arranged in a matrix, or a comment matching the user's situation It is also possible to make them speak (such as "It's the third time you lined up!).
  • the server 2 determines the offensive area by registering the crowded time zone or the time zone in which the queue is possible as crowded area information. be able to.
  • FIG. 16 shows an example of the crowded area information of the ramen shop.
  • congestion degree information is registered every hour. Specifically, an average of 20 people will be registered in the morning time zone, and an average of 35 people will be registered in the daytime time zone, and an average of 30 people will be registered in the afternoon time zone. Name queuing is registered.
  • the unpleasant area determination unit 203 of the server 2 can determine that the area is the unpleasant area in the registered time zone.
  • the content distribution control unit 204 controls distribution of the corresponding content based on the registered congestion degree.
  • FIG. 17 shows an example of crowded area information of an amusement park. As shown in FIG. 17, the crowdedness level is registered for each time zone also for the amusement park.
  • the discomfort area determination unit 203 of the server 2 can determine that the area is the discomfort area in the registered time zone. Also, the content distribution control unit 204 controls distribution of the corresponding content based on the registered congestion degree.
  • FIGS. 18 and 19 are sequence diagrams showing content distribution processing according to the first example of this embodiment.
  • the user terminal 1 measures the current position (step S203).
  • Step S212 when user registration is not performed (Step S206 / No), the user terminal 1 transmits current position information to the server 2 (Step S212).
  • the measurement of the current position and the transmission to the server 2 may be performed by a dedicated application installed in the user terminal 1.
  • the unpleasant area determination unit 203 of the server 2 refers to the congested area information DB 223 and determines whether the place where the user is currently is congested based on the received position information and the current time (step S215). For example, if the current position of the user is in the area of the ramen shop shown in FIG. 16 and the current time is 9:00, the area is registered as a congested area, so the unpleasant area determination unit 203 is congested. (Congested area) is determined.
  • the content distribution control unit 204 acquires a list of contents corresponding to position information, time, and congestion degree from the content management DB 221 (step S221). ), The acquired list of contents (content list) is transmitted to the user terminal 1 (step S224). For example, in the “area of a ramen store”, when distribution information is registered such that the content is distributed when the congestion level is “a queue of 20 people or more on average”, the content distribution control unit 204 follows the distribution condition. , Get a list of relevant content.
  • the user terminal 1 selects an arbitrary content from the content list (step S227), and requests the server 2 to distribute the selected content (step S230).
  • the user terminal 1 may display a content presentation screen 37 as shown in FIG. 11 to make the user select any content from the content list.
  • the “premium user content” shown in FIG. 11 is not displayed here.
  • the server 2 transmits the content in response to the request (step S233), and the content is reproduced by the user terminal 1 (step S236).
  • the user terminal 1 transmits the current position information and the user ID to the server 2 (step S243).
  • the measurement of the current position and the transmission of the current position and the user ID to the server 2 may be performed by a dedicated application installed in the user terminal 1.
  • the content distribution control unit 204 of the server 2 acquires user information (viewing history, favorite genre, etc.) from the user management DB 222 based on the user ID (step S246).
  • the content distribution control unit 204 acquires a list of registered content that matches the received position information and current time (step S249). For example, if the current location of the user is in the area of a ramen shop and the congestion degree at the current time is a queue with an average of 20 people or more, a distributable content list matching such conditions is included in the content management DB 221 Acquire according to the distribution information registered in.
  • the content distribution control unit 204 extracts a list of contents in the middle of viewing based on the acquired content list and the user's viewing history (step S252). For example, since the viewing history of the content distributed and viewed at the time of the previous alignment is recorded in the user management DB 222, it is possible to grasp the content being viewed.
  • the term “in the middle of viewing” means not only in the middle of reproduction in a movie or drama, but also in the content created in the series, meaning that the middle of the series is included if season 1 has ended viewing.
  • the content distribution control unit 204 extracts a list of contents matching the user's favorite genre from the acquired content list (step S255).
  • the extraction of the content list in the middle of viewing and the extraction of the content list matching the favorite genre described above are positioned as a premium service implemented for the registered user.
  • the content distribution control unit 204 transmits the acquired content list, the content list in the middle of viewing, and the content list of the favorite genre to the user terminal 1 (step S258).
  • the user terminal 1 selects an arbitrary content from each content list (step S261), and requests the server 2 to distribute the selected content (step S264).
  • the user terminal 1 may display a content presentation screen 37 as shown in FIG. 11 to make the user select any content from the content list.
  • a list of contents in the middle of viewing (“listening from the previous continuation”) and a list of contents matching the genre of favorite (“Recommend from favorite genre”) are for premium users (registered users) Can be presented as
  • the “viewable content” corresponds to the content registered as “Distribute only registered users” in the content registration by the business operator described with reference to FIG. 10, and is included in the content list acquired in step S249.
  • "recommend from remaining time of matrix” shown in FIG. 11 is not displayed here, and will be described in the third embodiment.
  • the server 2 transmits the content in response to the request (step S 267), and the content is reproduced by the user terminal 1 (step S 270).
  • the camera sensor 4A and the crowd flow sensor 4B are installed in a downtown area, a vacation place, a commuter train vehicle, etc., and the case where the degree of congestion is actually measured based on these sensor data will be described.
  • a camera sensor 4A and a crowd flow sensor 4B are provided in a train, and it is possible to count the number of passengers (passengers and passengers) and calculate the degree of congestion in the car. Sensor data is transmitted to the server 2 as needed.
  • the server 2 When the user is in the congested area, the server 2 is in a negative situation based on the current position information transmitted from the user terminal 1 and the determination result of the congested area based on the sensor data. Can be mitigated by delivering the corresponding content. In addition, when there are many users of this system, since a present position is continuously transmitted from many users, the server 2 can also calculate the congestion degree of each area based on the positional information from all the users. It is.
  • FIGS. 20 to 22 are sequence diagrams showing content distribution processing according to this embodiment.
  • the crowd flow sensor 4B receives a Wi-Fi radio wave (step S303), and a Wi-Fi terminal (an information processing terminal that emits a Wi-Fi radio wave) in the vicinity. It is determined whether or not (1 or more) exists (step S306), and if there are (1 or more) terminals, the number of terminals present in the periphery is calculated (step S309).
  • the flow sensor 4B transmits the terminal number information to the server 2 (step S312). Transmission of the terminal number information may be performed continuously.
  • the camera sensor 4A installed at each location captures an image of the surroundings (step S313), and determines whether a person is included in the captured image (step S315). If a person is included, And calculate the number of people (step S318).
  • the camera sensor 4A can detect a person by using a motion capture function that detects the shape of a person from a captured image, and can calculate the number of people.
  • the camera sensor 4A transmits the number information to the server 2 (step S321).
  • the transmission of the number information can be performed continuously.
  • the calculation of the number of people based on the captured image is performed by the camera sensor 4A as an example here, the present embodiment is not limited to this, and the external device calculates the number of people based on the captured image acquired by the camera sensor 4A. Calculation may be performed.
  • the current number (number of people in the area) of the area may be summed up by the intermediate server based on captured images from a plurality of camera sensors 4A installed in a predetermined area, and may be output to the server 2.
  • the user terminal 1 measures the current position (step S324), and when the user is not registered (step S327 / No), transmits the current position information to the server 2 (step S330).
  • the measurement of the current position and the transmission to the server 2 may be performed by a dedicated application installed in the user terminal 1.
  • the server 2 calculates the total number of users who are at the same place based on the position information from each user terminal (step S333).
  • the unpleasant area determination unit 203 of the server 2 calculates the total number of users in a certain place calculated in step S333 and the number information of persons acquired from the camera sensor 4A installed in the place.
  • the largest numerical value is set as the number of people (congestion degree) of the place (step S336). Thereby, the congestion degree of the user's present location can be grasped.
  • the content distribution control unit 204 refers to the content management DB 221, and searches for content corresponding to the area type, time zone, and degree of congestion of the place (step S339). For example, if the current location of the user is in the area of "lan run land (amusement park)" and the current congestion degree is "90 people per 10 m square", a list of deliverable contents matching such conditions is The content management DB 221 is searched according to the distribution information registered in the management DB 221.
  • step S342 when there is registration of the corresponding content (step S342 / Yes), the content list is transmitted (step S345).
  • the user terminal 1 selects an arbitrary content from the content list (step S348), and requests the server 2 to distribute the selected content (step S351).
  • the server 2 transmits the content in response to the request (step S354), and the content is reproduced by the user terminal 1 (step S357).
  • the user terminal 1 transmits the current position information and the user ID to the server 2 (step S360).
  • the measurement of the current position and the transmission of the current position and the user ID to the server 2 may be performed by a dedicated application installed in the user terminal 1.
  • the unpleasant area determination unit 203 of the server 2 calculates the total number of users who are at the same place based on the position information from each user terminal 1 (step S363).
  • the unpleasant area determination unit 203 acquires the total number of users of a certain place calculated in step S363, the number of people information acquired from the camera sensor 4A installed in the place, and the crowded sensor 4B installed in the same place
  • the largest numerical value among the information on the number of terminals is set as the number of people (congestion degree) of the place (step S 366). Thereby, the congestion degree of the user's present location can be grasped.
  • the content distribution control unit 204 refers to the content management DB 221, and searches for content corresponding to the area type, time zone, and degree of congestion of the place (step S369).
  • the content distribution control unit 204 transmits the user information (viewing history or favorite genre) from the user management DB 222 based on the user ID. Etc.) (step S 375).
  • the content distribution control unit 204 acquires a list of registered content that matches the received position information and the current time (step S378).
  • the content distribution control unit 204 extracts a list of contents in the middle of viewing based on the acquired content list and the user's viewing history (step S381).
  • the content distribution control unit 204 extracts a list of contents matching the user's favorite genre from the acquired content list (step S384).
  • the extraction of the content list in the middle of viewing and the extraction of the content list matching the favorite genre described above are positioned as a premium service implemented for registered users, as in the first embodiment.
  • the content distribution control unit 204 transmits the acquired content list, the content list in the middle of viewing, and the content list of the favorite genre to the user terminal 1 (step S387).
  • the user terminal 1 selects an arbitrary content from each content list (step S390), and requests the server 2 to distribute the selected content (step S393).
  • the server 2 transmits the content in response to the request (step S396), and the content is reproduced by the user terminal 1 (step S399).
  • the camera sensor 4A detects a matrix, and continuously transmits the length of the matrix (how many people are lined up), the result of face recognition of people arranged in the matrix, and the like to the server 2.
  • the server 2 determines whether or not the user is in an area (congested area) where the matrix is completed from the current position information transmitted from the user terminal 1, and further determines whether the user is actually arranged in the matrix as a face recognition result. Judge based on.
  • the user's face recognition may be performed using a pre-registered user's face image.
  • the server 2 distributes the corresponding specific content to the user. For example, it is also possible to deliver content according to the remaining waiting time of the matrix.
  • FIGS. 24 to 26 are sequence diagrams showing content distribution processing according to this embodiment.
  • the camera sensor 4A installed at each location captures an image of the surroundings (step S403), analyzes the captured image, and determines whether or not a matrix of a plurality of persons has been detected (step S406) If the matrix can be detected, the faces of the persons arranged in the matrix are recognized, and each face feature amount data is acquired (step S409).
  • the camera sensor 4A detects a person by using a motion capture function that detects the shape of a person from a captured image, and when a plurality of persons are lined up, it is regarded as forming a row and a matrix is detected. it can.
  • the camera sensor 4A transmits the number information (or the length information of the matrix) of the matrix and the facial feature information of the people arranged in the matrix to the server 2 (step S412). These transmissions of information can take place continuously.
  • analysis of a captured image may be performed by an external device other than the camera sensor 4A.
  • the intermediate server may perform matrix calculation and face recognition in the area based on captured images from a plurality of camera sensors 4A installed in a predetermined area, and may output it to the server 2.
  • the unpleasant area determination unit 203 of the server 2 records the number information and face feature amount information of the matrix received from the camera sensor 4A in the congestion area information DB 223 (step S415).
  • the unpleasant area determination unit 203 calculates the moving speed of the matrix based on the history of the information related to the matrix received from the camera sensor 4A (step S418).
  • the user terminal 1 measures the current position (step S421), and when the user is registered (step S424 / Yes), transmits the current position information and the user ID to the server 2 (step S427).
  • the measurement of the current position and the transmission of the current position information and the user ID to the server 2 may be performed by a dedicated application installed in the user terminal 1.
  • the unpleasant area determination unit 203 of the server 2 determines whether or not there is a matrix in the place where the user is ( Step S430).
  • the discomfort area determination unit 203 determines whether the user is included in the persons arranged in the matrix (Step S433). Specifically, it is determined whether or not the user is actually arranged in the matrix based on the face feature amount information of the people arranged in the matrix and the face image of the user registered in advance.
  • matrix detection is performed based on a captured image captured by the camera sensor 4A, and it is determined by face recognition whether the user is actually arranged in a matrix or not. Without being limited to this, it is also possible to detect a matrix and to determine whether or not the users are actually arranged in a matrix based on position information from each user.
  • the unpleasant area determination unit 203 causes the plurality of users to And it is possible to detect the matrix. As a result, since the position of the matrix is known, the unpleasant area determination unit 203 can determine whether the user is arranged in the matrix in comparison with the current position information of the user.
  • the discomfort area determination unit 203 calculates the waiting time of the user based on the length of the matrix, the position of the user, and the moving speed of the matrix (step S436).
  • the content distribution control unit 204 refers to the content management DB 221, and searches for content corresponding to the area type, time zone, and congestion degree of the place (step S439).
  • step S442 when the corresponding content is registered (step S442 / Yes), the content distribution control unit 204 acquires a list of content from the content management DB 221 (step S445).
  • a list of contents having a length matching the waiting time is extracted from the acquired contents list (step S448).
  • the content of the length matching the waiting time is assumed to be, for example, video or music that is finished watching in the waiting time.
  • the content distribution control unit 204 of the server 2 acquires user information (viewing history, favorite genre, etc.) from the user management DB 222 based on the user ID (step S451).
  • the content distribution control unit 204 extracts a list of the contents in the middle of viewing based on the acquired content list and the viewing history of the user (step S454).
  • the content distribution control unit 204 extracts a list of contents matching the user's favorite genre from the acquired content list (step S457).
  • the extraction of the content list in the middle of viewing, the extraction of the content list meeting the waiting time, and the extraction of the content list matching the genre of preference described above are similar to the first and second embodiments for registered users. It is positioned as a premium service to be implemented.
  • the content distribution control unit 204 transmits the acquired content list, the content list meeting the waiting time, the content list in the middle of viewing, and the content list of the favorite genre to the user terminal 1 (step S460).
  • the user terminal 1 selects an arbitrary content from each content list (step S463), and requests the server 2 to distribute the selected content (step S466).
  • the server 2 transmits the content in response to the request (step S469), and the content is reproduced by the user terminal 1 (step S472).
  • the distribution of content may be distributed only to all users in crowded places, or to specific users (registered users, registered users who are actually lined up, etc.).
  • the content to be delivered to the server 2 is registered in advance by the content provider, but the present embodiment is not limited to this.
  • the determination result of the unpleasant area by the server 2 It may be presented to the user, and the content provider side may distribute the content to the offensive area.
  • a computer program for causing the hardware such as the CPU, ROM, and RAM built in the user terminal 1 or the server 2 described above to exhibit the function of the user terminal 1 or the server 2 can also be created.
  • a computer readable storage medium storing the computer program is also provided.
  • the present technology can also have the following configurations.
  • a control unit configured to control the communication unit to deliver a specific content to the user when it is determined that the predetermined area including the position indicated by the current position information is an area that makes the person staying there uncomfortable.
  • An information processing system comprising: (2) The control unit The information processing according to (1), wherein it is determined that the predetermined area including the position indicated by the current position information is an area that makes the person who is staying offensive based on a table in which at least the area and the congestion degree are associated. system.
  • the communication unit receives congestion degree information related to the area congestion degree;
  • the control unit The information processing system according to (1), wherein it is determined that the predetermined area including the position indicated by the current position information is an area that makes a person who is staying offensive, based on the congestion degree information.
  • the communication unit receives, from the imaging device around the current position of the user, information on the number of persons included in the video as the congestion degree information.
  • the communication unit receives, from the Wi-Fi radio wave detection unit around the current position of the user, the number of Wi-Fi terminals for which radio waves have been received as the congestion degree information. .
  • the information processing system according to (3) wherein the control unit sets the number of users located around the current position of the user as the congestion degree information.
  • the control unit If it is estimated that the user is arranged in a matrix based on the current position information of the user, The information processing system according to (3), wherein it is determined that the area in which the matrix including the position indicated by the current position information is created is an area that makes the staying person uncomfortable.
  • the communication unit is Receiving feature data of faces of a plurality of users forming a matrix captured by an imaging device around the current position of the user;
  • the control unit When there is feature data of the face of the user registered in advance among the feature data of the faces of the plurality of users forming the matrix, a matrix including the position indicated by the current position information of the user is created
  • the information processing system according to (7), wherein it is determined that the area where the user is staying is an area that makes the person who is staying uncomfortable.
  • the control unit When it is determined that the user is arranged in a matrix based on current position information of a plurality of users located in the vicinity of the user, a person whose area where the matrix including the position indicated by the current position information is created is The information processing system according to (7), wherein it is estimated that the area is annoying. (10) The control unit The information processing system according to any one of (7) to (9), which controls to distribute AR content related to the matrix to the user. (11) The control unit The information processing system according to any one of (7) to (10), which controls to distribute contents related to the matrix to display devices arranged around the user.
  • the display devices disposed around the user include display terminal devices owned by other users who are present around the user,
  • the control unit The information processing system according to (11), wherein control is performed to distribute AR content related to the matrix to display terminals owned by the user and other users.
  • the control unit According to any one of (7) to (12), the waiting time of the users arranged in a matrix is calculated based on the current position information of a plurality of users including the user, and the content matching the waiting time is selected. Information processing system as described.
  • the control unit Any one of the above (1) to (13), which controls the communication unit to deliver personalized content to the user based on user information indicating preferences of the user managed in units of users.
  • the control unit The communication unit is controlled to distribute the content from the continuation when the user has completed viewing to the middle of the content based on the viewing history of the content managed in units of users, the above (1)
  • the information processing system according to any one of (14) to (14).
  • the communication unit receives biological information of the user, The control unit When it is estimated that the user is uncomfortable based on the biometric information of the user, it is determined that the predetermined area including the position indicated by the current position information is the unpleasant area, and the specific content is distributed to the user.
  • the information processing system according to any one of (1) to (15), which controls the communication unit.
  • the specific content includes a content list, The information processing system according to any one of (1) to (9), wherein the control unit controls to distribute the content selected from the content list.
  • An output unit configured to output specific content acquired via the communication unit from the server, which is estimated to be an area that makes a person who is staying off the predetermined area including the position indicated by the current position information.
  • a control unit that controls the communication unit to receive the specific content distributed to the user from the server, and controls the output unit to output the specific content.
  • An information processing apparatus comprising: (19) Processor is At least receiving the user's current position information by the communication unit; Controlling the communication unit so as to deliver specific content to the user when it is determined that the predetermined area including the position indicated by the current position information is an area that makes the person who is staying offensive.
  • Information processing methods including: (20) Computer, At least a communication unit for transmitting the current position information of the user to the server; An output unit configured to output specific content acquired via the communication unit from the server, which is estimated to be an area that makes a person who is staying off the predetermined area including the position indicated by the current position information.
  • a control unit that controls the communication unit to receive the specific content distributed to the user from the server, and controls the output unit to output the specific content.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Business, Economics & Management (AREA)
  • General Engineering & Computer Science (AREA)
  • Strategic Management (AREA)
  • Human Computer Interaction (AREA)
  • Databases & Information Systems (AREA)
  • Tourism & Hospitality (AREA)
  • Economics (AREA)
  • Computer Graphics (AREA)
  • General Business, Economics & Management (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Marketing (AREA)
  • Development Economics (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Human Resources & Organizations (AREA)
  • Primary Health Care (AREA)
  • Remote Sensing (AREA)
  • Ecology (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Environmental Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Environmental & Geological Engineering (AREA)
  • Emergency Management (AREA)
  • Game Theory and Decision Science (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Information Transfer Between Computers (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Telephonic Communication Services (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】ユーザのネガティブな状況を和らげるために特別なコンテンツを配信することが可能な情報処理システム、情報処理装置、情報処理方法、および記録媒体を提供する。 【解決手段】本開示によれば、少なくとも、ユーザの現在位置情報を受信する通信部と、前記現在位置情報が示す位置を含む所定エリアが、滞在する人を不快にするエリアであると判定すると、前記ユーザに特定のコンテンツを配信するように、前記通信部を制御する制御部と、を備える、情報処理システムを提案する。

Description

情報処理システム、情報処理装置、情報処理方法、および記録媒体
 本開示は、情報処理システム、情報処理装置、情報処理方法、および記録媒体に関する。
 近年、ユーザの状況に応じてコンテンツが配信される技術が提案されている。ユーザ状況に応じたコンテンツの配信は、ユーザのみの状況に限らず、ユーザと一緒にいる人物の状況も感知して、ユーザおよびユーザと一緒にいる人物に、状況に応じたコンテンツ配信を行う技術も提案されている。
 例えば、家の中などで家族や友人と一緒にいる場合に、誰と一緒にいるかに応じて出力するコンテンツを選択したり、コンサート会場などで来場者全体の興奮度等に応じて盛り上げるコンテンツを出力することが可能である。
 より具体的には、例えば下記特許文献1では、密集状態と心理状況(興奮状態、鎮静状態、喜怒哀楽状態)に応じて有益なコンテンツを配信するシステムが開示されている。
 また、下記特許文献2では、家の中の複数人が同居するエリアに応じて、誰が近くにいるかに応じて、相応しいコンテンツを配信するシステムが開示されている。
 また、下記特許文献3では、混雑しているエリアとそうでないエリアを認識し、混雑しているエリアから混雑していないエリアにユーザを誘導する技術が開示されている。
特開2014-134922号公報 特開2016-66173号公報 特表2016-505190号公報
 上述したいずれもの技術も、ユーザが気心の知れた友人や同じアーティストのファン、同じ好みの人達などと一緒に居る際に所定のコンテンツを提示することで、前向きな心情が芽生えることを支援するものであるが、実際の日常生活では、多くの他人と空間および時間を共にするケースが多い。
 例えば、人気店や行楽地などでの行列や、通勤・通学時の満員電車、イベント会場や駅の構内等の混雑した場所などでは、ユーザはネガティブな感情を抱くことが多いが、このような場合は不快な状況を我慢して耐えて、時が過ぎるのを待つしかなかった。
 そこで、本開示では、ユーザのネガティブな状況を和らげるために特別なコンテンツを配信することが可能な情報処理システム、情報処理装置、情報処理方法、および記録媒体を提案する。
 本開示によれば、少なくとも、ユーザの現在位置情報を受信する通信部と、前記現在位置情報が示す位置を含む所定エリアが、滞在する人を不快にするエリアであると判定すると、前記ユーザに特定のコンテンツを配信するように、前記通信部を制御する制御部と、を備える、情報処理システムを提案する。
 本開示によれば、少なくとも、ユーザの現在位置情報をサーバに送信する通信部と、前記現在位置情報が示す位置を含む所定エリアが、滞在する人を不快にするエリアであると推定した前記サーバから、前記通信部を介して取得した特定のコンテンツを出力する出力部と、前記サーバから、前記ユーザに対して配信された前記特定のコンテンツを受信するように前記通信部を制御すると共に、当該特定のコンテンツを出力するように前記出力部を制御する制御部と、を備える、情報処理装置を提案する。
 本開示によれば、プロセッサが、少なくとも、ユーザの現在位置情報を通信部により受信することと、前記現在位置情報が示す位置を含む所定エリアが、滞在する人を不快にするエリアであると判定すると、前記ユーザに特定のコンテンツを配信するように、前記通信部を制御することと、を含む、情報処理方法を提案する。
 本開示によれば、コンピュータを、少なくとも、ユーザの現在位置情報をサーバに送信する通信部と、前記現在位置情報が示す位置を含む所定エリアが、滞在する人を不快にするエリアであると推定した前記サーバから、前記通信部を介して取得した特定のコンテンツを出力する出力部と、前記サーバから、前記ユーザに対して配信された前記特定のコンテンツを受信するように前記通信部を制御すると共に、当該特定のコンテンツを出力するように前記出力部を制御する制御部と、として機能させるためのプログラムが記録された、記録媒体を提案する。
 また、本開示によれば、ユーザの現在位置情報に基づき、当該ユーザが行列に並んでいると推定すると、当該ユーザに特定のコンテンツを配信するように制御する制御部を備える、情報処理システムを提案する。
 以上説明したように本開示によれば、ユーザのネガティブな状況を和らげるために特別なコンテンツを配信することが可能となる。
 なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の一実施形態による情報処理システムの概要について説明する図である。 本実施形態による情報処理システムの全体構成の一例を示す図である。 本実施形態によるユーザ端末の構成の一例を示すブロック図である。 本実施形態によるサーバの構成の一例を示すブロック図である。 本実施形態による混雑エリアの判定に用いられる混雑地域情報の一例を示す図である。 本実施形態によるカメラセンサによる人物の検出について説明する図である。 本実施形態によるユーザ登録の動作処理を示すフローチャートである。 本実施形態によるユーザ登録画面の一例を示す図である。 本実施形態によるコンテンツ登録の動作処理を示すフローチャートである。 本実施形態によるコンテンツ登録画面の一例を示す図である。 本実施形態によるコンテンツ配信時にユーザ端末で表示されるコンテンツ提示画面の一例を示す図である。 本実施形態によるキャラクターコンテンツの配信例(ユーザ端末)について説明する図である。 本実施形態によるキャラクターコンテンツの配信例(サイネージ)について説明する図である。 本実施形態によるキャラクターコンテンツの配信例(ツーショット撮影)について説明する図である。 本実施形態によるキャラクターコンテンツの配信例(3次元コンテンツ)について説明する図である。 本実施形態によるラーメン店の混雑地域情報の一例を示す図である。 本実施形態による遊園地の混雑地域情報の一例を示す図である。 本実施形態の第1の実施例によるコンテンツ配信処理を示すシーケンス図である。 本実施形態の第1の実施例によるコンテンツ配信処理を示すシーケンス図である。 本実施形態の第2の実施例によるコンテンツ配信処理を示すシーケンス図である。 本実施形態の第2の実施例によるコンテンツ配信処理を示すシーケンス図である。 本実施形態の第2の実施例によるコンテンツ配信処理を示すシーケンス図である。 本実施形態の第2の実施例によるコンテンツ配信処理を示すシーケンス図である。 本実施形態の第3の実施例によるコンテンツ配信処理を示すシーケンス図である。 本実施形態の第3の実施例によるコンテンツ配信処理を示すシーケンス図である。 本実施形態の第3の実施例によるコンテンツ配信処理を示すシーケンス図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 また、説明は以下の順序で行うものとする。
 1.本開示の一実施形態による情報処理システムの概要
 2.構成
  2-1.ユーザ端末1の構成
  2-2.サーバ2の構成
 3.登録処理
  3-1.ユーザ登録
  3-2.コンテンツ登録
 4.コンテンツの配信
  4-1.配信されるコンテンツの具体例
  4-2.コンテンツ配信の動作処理
  (4-2-1.第1の実施例:センサが設置されていない個所のコンテンツ配信)
  (4-2-2.第2の実施例:センサが設置されている個所の場合)
  (4-2-3.第3の実施例:行列を検知してコンテンツを配信する例)
 5.まとめ
 <<1.本開示の一実施形態による情報処理システムの概要>>
 図1は、本開示の一実施形態による情報処理システムの概要について説明する図である。本実施形態による情報処理システムは、ユーザのネガティブな状況を和らげるために特別なコンテンツを配信することが可能である。
 例えば、図1に示すように、新作ゲームの発売日等に人々が長い行列を作って順番待ちをしている際、並んでいる人達は退屈でネガティブな感情になることが推定される。この場合、本システムでは、ユーザが行列に並んでいることを検知すると、当該ユーザに特別なコンテンツを配信して、ユーザのネガティブな状況を和らげることが可能となる。
 配信されるコンテンツは、画像、動画(映像;ドラマ、映画、アニメ、ショートムービー等)、AR(Augmented Reality)画像、または音楽等であって、予めコンテンツ事業者により設定され得る。例えばユーザが並んでいる行列に関するコンテンツが配信されるようにしてもよい。より具体的には、ユーザが並んでいるゲームに登場するキャラクターのAR表示情報を配信し、図1に示すようにユーザがタブレット型等のユーザ端末1をかざした際に、キャラクターのAR画像50が実画像(ユーザ端末1に設けられたカメラにより撮像されたスルー画像)に重畳表示されるようにしてもよい。これによりユーザは、行列に並んでネガティブな状況になっている場合でも、時間が過ぎるのをひたすら耐えることなく、コンテンツを見て楽しむことができる。
 このように、本実施形態では、ユーザのネガティブな状況を和らげるために特別なコンテンツを配信することが可能となる。
 続いて、このような本実施形態による情報処理システムの全体構成について図2を参照して説明する。図2は、本実施形態による情報処理システムの全体構成の一例を示す図である。
 図2に示すように、本実施形態による情報処理システムは、ユーザ端末1と、サーバ2と、センサ装置の一例であるカメラセンサ4A、人流センサ4Bと、コンテンツ事業者サーバ5(5A~5C)を含む。
 ユーザ端末1は、ユーザが利用する情報処理端末であって、例えばタブレット端末、スマートフォン、携帯電話端末、ノートPC(パーソナルコンピュータ)等のモバイル端末や、ユーザの身体に装着するウェアラブル装置(HMD、スマートアイグラス、スマートウォッチ、スマートバンド、スマートネック、ネック型スピーカ、イヤリング型スピーカ、イヤカフ型スピーカ等)が想定される。ユーザ端末1は、ネットワーク3を介してサーバ2と通信接続しデータの送受信を行う。例えばユーザ端末1は、現在位置を測位し、位置情報をサーバ2に送信する。また、ユーザ端末1は、サーバ2からコンテンツを受信し、ユーザに提示する。
 サーバ2は、ユーザ状況に応じて特別なコンテンツの配信制御を行う。配信するコンテンツやコンテンツの配信条件は、コンテンツ事業者サーバ5(5A~5C)により予め設定される。
 サーバ2は、例えば街中に多数設置されているカメラセンサ4Aが検出した人物や人数情報や、同様に街中に多数設置されている人流センサが検出した端末数情報等に基づいて、混雑している場所や行列が出来ている場所等を把握する。そして、サーバ2は、ユーザ端末1から送信された位置情報に基づいて、例えばユーザが混雑している場所にいる場合は、ユーザがネガティブな感情になっていることが想定されるため、対応する特別なコンテンツを当該混雑地域に配信するようにする。この場合、特定のユーザ(本システムの利用者として登録したユーザ等)のみがコンテンツを受け取ることができるように配信してもよいし、当該混雑地域に居る不特定多数の人々が享受できるようにしてもよい。
 以上、本開示の一実施形態による情報処理システムについて説明した。続いて、本実施形態による情報処理システムに含まれる各装置の具体的な構成について図面を参照して説明する。
 <<2.構成>>
  <2-1.ユーザ端末1の構成>
 図3は、本実施形態によるユーザ端末1の構成の一例を示すブロック図である。図3に示すように、ユーザ端末1は、制御部10、通信部11、入力部12、位置センサ13、出力部14、および記憶部15を有する。
 制御部10は、演算処理装置および制御装置として機能し、各種プログラムに従ってユーザ端末1内の動作全般を制御する。制御部10は、例えばCPU(Central Processing Unit)、マイクロプロセッサ等の電子回路によって実現される。また、制御部10は、使用するプログラムや演算パラメータ等を記憶するROM(Read Only Memory)、及び適宜変化するパラメータ等を一時記憶するRAM(Random Access Memory)を含んでいてもよい。
 また、本実施形態による制御部10は、ユーザ情報管理部101およびコンテンツ出力制御部102としても機能する。
 ユーザ情報管理部101は、ユーザ情報の管理を行う。具体的には、ユーザ情報管理部101は、ユーザIDやユーザの嗜好情報を取得して記憶部15に格納する。
 コンテンツ出力制御部102は、通信部11によりサーバ2から受信したコンテンツを出力部14から出力するよう制御する。
 (通信部11)
 通信部11は、有線または無線によりネットワーク3と接続し、ネットワーク上のサーバ2とデータの送受信を行う。通信部11は、例えば有線/無線LAN(Local Area Network)、またはWi-Fi(登録商標)、携帯通信網(LTE(Long Term Evolution)、3G(第3世代の移動体通信方式))等によりネットワーク3と通信接続する。本実施形態による通信部11は、現在位置情報を継続的にサーバ2に送信し得る。また、本実施形態による通信部11は、現在位置が不快エリアに含まれると判定したサーバ2からコンテンツを受信する。
 (入力部12)
 入力部12は、外部からユーザ端末1への情報入力を受け付ける。例えば入力部12は、ユーザによる操作入力を受け付ける操作入力部や、周辺の音声を集音する音声入力部であってもよい。操作入力部は、ユーザによる操作指示を受付け、その操作内容を制御部10に出力する。操作入力部は、タッチセンサ、圧力センサ、若しくは近接センサであってもよい。あるいは、操作入力部は、ボタン、スイッチ、およびレバーなど、物理的構成であってもよい。また、音声入力部は、マイクロホンと、そのマイクロホンで得られた音声信号を増幅処理するマイクアンプ部と、音声信号にデジタル変換するA/D変換器により実現され、音声信号を制御部10に出力する。
 また、入力部12は、ユーザ状況や周辺の環境情報を取得する各種センサであってもよい。具体的には、例えば、モーションセンサ(加速度センサ、ジャイロセンサ、地磁気センサ等)、生体センサ(体温センサ、脈拍センサ、心拍センサ、血圧センサ、静脈センサ、発汗センサ、呼吸センサ、脳波センサ、筋電センサ、指紋センサ等)、環境センサ(温度センサ、照度センサ、湿度センサ等)が想定される。
 (位置センサ13)
 位置センサ13は、外部からの取得信号に基づいてユーザ端末1の現在位置を検知する機能を有する。具体的には、例えば位置センサ13は、GPS(Global Positioning System)測位部により実現され、GPS衛星からの電波を受信して、ユーザ端末1が存在している位置を検知し、検知した位置情報を制御部10に出力する。また、位置センサ13は、GPSの他、例えばWi-Fi(登録商標)、Bluetooth(登録商標)、携帯電話・PHS・スマートフォン等との送受信、または近距離通信等により位置を検知するものであってもよい。
 (出力部14)
 出力部14は、ユーザに提示する情報を出力する機能を有する。例えば出力部14は、音声出力部や、表示部により実現されてもよい。音声出力部は、音声信号を再生するスピーカと、スピーカに対するアンプ回路を有する。表示部は、登録情報の入力画面や、各種操作画面等を出力する表示装置である。この表示部は、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)、有機EL((Electro Luminescence)ディスプレイなどの表示装置であってもよい。本実施形態による出力部14は、コンテンツ出力制御部102の制御に従って、サーバ2から配信された特定のコンテンツを出力してユーザに提示する。
 (記憶部15)
 記憶部15は、制御部10の処理に用いられるプログラムや演算パラメータ等を記憶するROM(Read Only Memory)、および適宜変化するパラメータ等を一時記憶するRAM(Random Access Memory)により実現される。また、本実施形態による記憶部15は、ユーザID等のユーザ情報を格納する。
 以上、本実施形態によるユーザ端末1の構成について具体的に説明した。なお本実施形態によるユーザ端末1の構成は、図3に示す例に限定されない。例えば一部の構成が外部装置に設けられていてもよい。
  <2-2.サーバ2の構成>
 図4は、本実施形態によるサーバ2の構成の一例を示すブロック図である。図4に示すように、サーバ2は、制御部20、通信部21、および記憶部22を有する。
 (制御部20)
 制御部20は、演算処理装置および制御装置として機能し、各種プログラムに従ってサーバ2内の動作全般を制御する。制御部20は、例えばCPU(Central Processing Unit)、マイクロプロセッサ等の電子回路によって実現される。また、制御部20は、使用するプログラムや演算パラメータ等を記憶するROM(Read Only Memory)、及び適宜変化するパラメータ等を一時記憶するRAM(Random Access Memory)を含んでいてもよい。
 また、本実施形態による制御部20は、コンテンツ登録部201、ユーザ管理部202、不快エリア判定部203、およびコンテンツ配信制御部204としても機能する。
 コンテンツ登録部201は、各コンテンツ事業者サーバ5からの要求に応じて、配信するコンテンツに関する情報(配信情報とも称す)をコンテンツ管理DB221に登録する。配信情報には、配信するコンテンツデータの他、配信条件も含まれ得る。
 ユーザ管理部202は、ユーザに関する情報(登録情報)を、ユーザ管理DB222を用いて管理する。具体的には、ユーザ管理部202は、ユーザの名前や各種プロフィール等をユーザ端末1から取得し、ユーザ管理DB222に格納する。
 不快エリア判定部203は、滞在する人々を不快にすると推定されるエリアを判定する。ここで、「不快」とは、ネガティブな感情であって、例えばラッセルの感情円環モデルで示される「不快」が相当する。感情円環モデルは、「活性(Activated)・不活性(deactivated)」と「快(Pleasant)・不快(Unpleasant)」の2次元の軸で示されるものである。具体的には、不快な(ネガティブな)感情は、怒り、イライラ、退屈、憂鬱といったものが想定される。例えば混雑したエリア(多数の人々が密集しているエリア。例えば満員電車、駅の構内、デパート、イベント会場等)にいる場合や、長い行列に並んでいるときは、ユーザは退屈やイライラで不快な感情になっていることが想定される。
 したがって、不快エリア判定部203は、混雑状況(混雑度)に応じて、当該エリアが人々を不快にしているエリアであるか否かを判定することが可能である。具体的には、不快エリア判定部203は、各ユーザ端末1から取得した位置情報や、カメラセンサ4Aから取得した情報、および人流センサ4Bから取得した情報等に基づいて、混雑したエリアや長い行列が出来ているエリアを把握し、不快エリアを判定する。
 混雑しているエリア若しくは行列が出来ているエリアであるか否かは、例えば下記の方法により判定される。
 まず、街の人気店や遊園地、行楽地等において、混雑する場所および時間帯を予め調査し、混雑地域情報DB(データベース)223に蓄積しておくことで、不快エリア判定部203は、時間帯に応じて当該地域が不快エリアになっているか否かを判定することができる。ここで、図5に、混雑地域情報の一例を示す。図5に示すように、エリア毎に(エリアは、例えば複数の緯度経度で指定され、それらの点で囲まれた多角形の領域が対象となる)混雑する時間帯が設定されている。また、混雑時における混雑度も設定され得る。図5に示す例では、行列の平均人数や人工密度によって混雑度を表している。なお図5に示す「エリア種別」とは、当該エリアに何があるのか(どのような種別の店舗、施設、イベントがあるのか)を示すものである。
 次に、街中やイベント会場等、各所に設置されたカメラセンサ4Aや人流センサ4Bを用いて、実際にその個所が混雑している若しくは行列が出来ているかを判定する方法も考えられる。カメラセンサ4Aや人流センサ4Bからは、混雑度に関連する混雑度情報として、人数情報や行列に関する情報がサーバ2に送信される。
 カメラセンサ4Aには、撮像画像から人物の形状を検出するモーションキャプチャ機能(人検出部)が設けられ、これにより周辺に存在する人物を検出することができる。図6は、カメラセンサ4Aによる人物の検出について説明する図である。例えばカメラセンサ4Aは、図6左に示すように、撮像画像40から頭、手、腕、足等の人体の部位を検出し、それぞれがどのように動いているかに基づいて、姿勢を推定し、人物を検出する。これにより、カメラセンサ4Aは、検出した人物や人数に関する情報をサーバ2に送信することができる。また、カメラセンサ4Aは、図6右に示すように、撮像画像41から複数の人物を検出し、その姿勢や向きから、一列に並んでいることを認識し、行列を検出することも可能である。また、カメラセンサ4Aは、人物の形状検出により行列の長さも取得することができる。
 また、それらの行列の中に、対象となるユーザが並んでいるかどうかは、カメラセンサ4Aから取得した撮像画像から顔認識を行うことで判別可能である。この場合、ユーザの顔画像は予めユーザ管理DB222に登録されている。若しくは、ユーザが身に着けている赤外線ビーコン等を使用して、当該ビーコンから発信されるユーザID(ビーコンID)に基づいて判別することが可能である。また、サーバ2は、行列のどの位置にユーザが居るかを判断することで、残りの待ち時間を算出することも可能となる。
 人流センサ4Bは、電波を受信して周辺に存在するユーザ端末数を把握することができる。例えば人流センサ4Bは、ユーザが所持するスマートフォン等のWi-Fi端末から発信されるWi-Fi電波を傍受するWi-Fi電波検知部を有し、Wi-Fi電波の検知結果に基づいて、周辺にユーザが何人居るのかを検知することができる。人流センサ4Bは、検知した端末数の情報をサーバ2に送信する。
 なお、サーバ2は、このようにカメラセンサ4Aや人流センサ4Bから送信された実際の人数や行列の長さ等の測定値を、混雑情報として混雑地域情報DB223に記録し、混雑情報の精度をより高めるようにしてもよい。なお、各ユーザ端末1から現在位置情報がサーバ2に送信されている場合、サーバ2は、各ユーザ端末1からの現在位置情報に基づいて、各地域の混雑状況(何人いるか)を把握することができる。
 以上、不快エリアの判定について具体的に説明したが、本実施形態はこれに限定されず、サーバ2は、特定のエリアに居る人物の感情を直接的に検知して不快エリアを判定するようにしてもよい。例えば、サーバ2は、ユーザが所持するユーザ端末1の各種センサにより検知された情報に基づいて、ユーザが不快な感情になっているか否かに基づいて不快エリアを判定し得る。より具体的には、「貧乏ゆすり」など一定の短いリズムでユーザが振動していることが振動センサにより感知された場合や、「舌打ち」、「ため息」、「あくび」の音声をマイクロホンにより感知された場合は、ユーザが不快な感情(怒り、イライラ、退屈、憂鬱等)になっているため、当該ユーザが居るエリアを不快エリアと判定する。また、ユーザが誰かと行動を共にしているのもかかわらず、声を長時間発しない状況(いわゆる沈黙)が続いていることがマイクロホンにより感知された場合も、サーバ2は、ユーザが不快な感情になっていると判断できる。また、生体センサを用いて、心拍数が上がる、皮膚温度が下がるなどの体調を感知し、これにより不機嫌であると判断することも可能である。また、生体センサを用いて、心拍数が上がる、皮膚温度が下がる、「脳波の変化」などの体調を感知し、これにより不機嫌であると判断することも可能である。
 コンテンツ配信制御部204は、不快エリア判定部203により不快エリアと判定された場所に居る特定または不特定多数のユーザ、または不快エリアの行列に並んでいるユーザに、コンテンツ管理DB221に登録された対応するコンテンツを配信する。ユーザの位置は、ユーザ端末1から送信される位置情報に基づいて把握され得る。不快エリアに滞在しているユーザはネガティブな感情になっていることが推定されるため、コンテンツ配信によりネガティブな状況を和らげ、ユーザを楽しい気持ちにさせることが可能である。なお、本実施形態によって混雑した場所に居たり行列に並んでいると特別なコンテンツが得られるため、ユーザがポジティブな感情(快状況)に変化することが想定されるが、コンテンツ配信制御部204は、個々のユーザの実際の感情に関わらず、いずれにしてもユーザが混雑した場所に居たり行列に並んでいる場合にはコンテンツを配信する。例えば、不快エリアに滞在しているユーザのうち、上述した方法により実際に不快な感情を抱いているユーザにコンテンツを配信し、再度、同じ不快エリアに同ユーザが滞在したときには、そのユーザの感情に関わらずコンテンツを配信するようにしても構わない。
 なおコンテンツ配信制御部204は、さらに時間帯や混雑の程度等の所定の条件を満たす場合に、対応するコンテンツを配信するようにしてもよい。所定の条件とは、予めコンテンツ事象者が設定したコンテンツ配信の条件であって、例えば場所、地域の種別(特定の店舗、施設、イベントがある場所等)、時間帯、および混雑等により指定できる。
 (通信部21)
 通信部21は、有線または無線によりネットワーク3と接続し、ネットワーク3を介して各ユーザ端末1とデータの送受信を行う。通信部21は、例えば有線/無線LAN(Local Area Network)、またはWi-Fi(Wireless Fidelity、登録商標)等によりネットワーク3と通信接続する。例えば本実施形態による通信部21は、現在位置情報をユーザ端末1から受信したり、カメラセンサ4Aや人流センサ4Bからセンサデータまたはセンサデータに基づく解析結果(人数情報や端末数情報等)を受信したりする。また、通信部21は、コンテンツ配信制御部204の制御に従って、コンテンツを所定のユーザ端末1に送信するよう制御する。
 (記憶部22)
 記憶部22は、制御部20の処理に用いられるプログラムや演算パラメータ等を記憶するROM、および適宜変化するパラメータ等を一時記憶するRAMにより実現される。例えば本実施形態による記憶部22は、コンテンツ管理DB(データベース)221、ユーザ管理DB222、および混雑地域情報DB223を格納する。
 コンテンツ管理DB221には、コンテンツや配信条件等、コンテンツ事業者により登録されたコンテンツに関する情報が格納されている。
 ユーザ管理DB222には、ユーザの名前、ユーザID、プロファイル等を含むユーザ情報が格納されている。
 混雑地域情報DB223には、図5に示すような混雑地域に関する情報が格納されている。
 以上、本実施形態によるサーバ2の構成について具体的に説明した。なお図4に示すサーバ2の構成は一例であって、本実施形態はこれに限定されない。例えばサーバ2の少なくとも一部の構成が外部装置にあってもよいし、制御部20の各機能の少なくとも一部がユーザ端末1または通信距離が比較的ユーザ端末1に近い情報処理端末(例えば、いわゆるエッジサーバなど)により実現されてもよい。このように、サーバ2の各構成を適宜分散することで、リアルタイム性の向上や処理負担の軽減、さらにはセキュリティを担保することが可能となる。また、図4に示す制御部20の各構成および各DBを全てユーザ端末1に設け、本実施形態による情報処理システムをユーザ端末1のアプリケーションにより実行するようにしてもよい。
 <<3.登録処理>>
 続いて、本実施形態による情報処理システムにおける登録処理について図面を用いて具体的に説明する。
 <3-1.ユーザ登録>
 図7は、ユーザ登録の動作処理を示すフローチャートである。図7に示すように、まず、ユーザ端末1は、ユーザ登録画面を表示し、ユーザの名前や各種プロフィールの入力を受け付ける(ステップS103)。
 次に、ユーザ端末1は、ユーザの顔画像を取得し(ステップS106)、ユーザが所持していれば赤外線ビーコンのビーコンIDも取得する(ステップS109)。
 ここで、ユーザ登録画面の一例を図8に示す。図8に示すように、ユーザ登録画面30には、名前、顔写真、赤外線ビーコンID、好きなコンテンツのジャンルを登録する欄が表示されている。顔写真および赤外線ビーコンIDは、ユーザが実際に行列に並んでいるか否かを判定する際に用いられる。
 次いで、ユーザ端末1は、取得したユーザ情報をサーバ2に送信する(ステップS112)。
 そして、サーバ2のユーザ管理部202は、受信したユーザ情報をユーザ管理DB222に登録する(ステップS115)。この際、ユーザ管理部202は、ユニークなユーザIDを割り振ってユーザ情報の管理を行うようにする。
 以上、ユーザ登録処理について説明した。なお本実施形態によるコンテンツ配信を享受する際にユーザ登録は必須ではなく、ユーザ登録を行っていないユーザに対しても、不快エリアに居る際は対応するコンテンツを配信することが可能である。
 <3-2.コンテンツ登録>
 次に、コンテンツ事業者によるコンテンツの登録について図9を参照して説明する。コンテンツ事業者は、所定の地域が混雑したり行列ができた場合に、特定のコンテンツを配信するようサーバ2に登録することができる。配信様に登録するコンテンツは、広告を兼ねたものであってもよい。
 図9は、コンテンツ登録の動作処理を示すフローチャートである。図9に示すように、まず、コンテンツ事業者サーバ5は、コンテンツ事業者に対してコンテンツ登録画面を表示し、配信するコンテンツと配信条件の指定を受け付ける(ステップS123)。
 ここで、図10に、コンテンツ登録画面の一例を示す。図10に示すように、コンテンツ登録画面35では、コンテンツ配信条件の指定と、配信コンテンツの登録を行うことが可能である。コンテンツを配信する条件としては、例えば以下のような例が想定される。
・地域の区画情報(複数の緯度経度で囲まれた多角形のエリア)
・地域の種別(ラーメン店、遊園地など)
・年月日時分、曜日などの時間帯
・混雑度(待ち行列5名以上、など)
また、ユーザ登録したユーザのみに配信するか否かも選ぶことができる。
 次に、コンテンツ事業者サーバ5は、入力された配信情報をサーバ2に送信する(ステップS126)。
 そして、サーバ2のコンテンツ登録部201は、受信した配信情報をコンテンツ管理DB221に登録する(ステップS129)。
 以上、配信するコンテンツの登録処理について具体的に説明した。
 <<4.コンテンツの配信>>
 続いて、コンテンツの配信について図面を用いて具体的に説明する。
 <4-1.配信されるコンテンツの具体例>
 コンテンツの配信は、上述したように、例えば予め登録された各地域の混雑情報、若しくは、カメラセンサ4Aや人流センサ4Bにより実際に検知された情報に基づいて、各地域が混雑していることや、行列が出来ていることがサーバ2により判定された際に、当該地域の混雑状況が条件に合致する配信コンテンツが登録されている場合は、当該コンテンツの配信が行われる。
 また、ユーザ登録が行われている場合、ユーザ端末1から送信された各ユーザの位置情報や、周辺のカメラセンサ4Aにより取得された撮像画像の顔解析結果に基づいて、ユーザが混雑した地域に居る若しくは行列に並んでいると判断された場合に、サーバ2は対応するコンテンツをユーザ端末1に配信するようにしてもよい。
 ユーザ登録を行っているユーザの場合は、
・「ユーザ登録されているユーザにのみ配信」と指定されているコンテンツを視聴可能とする。
・前回の続きからコンテンツを視聴できる。
・行列に並んでいる場合、残りの並び時間に合致したコンテンツをオススメする。
・登録された好みのジャンルに合致したコンテンツをオススメする。
といった特典を設けてもよい。
 ここで、図11に、コンテンツ配信時にユーザ端末1で表示されるコンテンツ提示画面の一例を示す。図11に示すように、コンテンツ提示画面37には、未登録のユーザにも配信される「一般コンテンツ」と、登録しているユーザのみに配信される「プレミアムユーザ向けコンテンツ」が提示される。「プレミアムユーザ向けコンテンツ」は、登録ユーザにのみ見えるようにしてもよい。「プレミアムユーザ向けコンテンツ」には、プレミアムユーザが視聴可能なコンテンツ、前回の続きから視聴できるコンテンツ、行列の残り時間からのお勧めコンテンツ、好きなジャンルからのお勧めコンテンツが提示される。ユーザは任意のコンテンツを選択してユーザ端末1で視聴することが可能である。
 次いで、テーマパークでアトラクションやレストランの行列に並んでいる場合や、ゲームショップで特定のゲームソフトのために並んでいる場合、特定のイベントのために並んでいる場合等には、映像コンテンツのみでなく、当該テーマパークのキャラクターや、ゲームキャラクー、イベントキャラクター等、行列に関わるキャラクターが行列に並んでいるユーザのために登場するといった特典コンテンツを提示するようにしてもよい。
 例えば、ユーザが所持しているユーザ端末1や、行列の近くに設置されているサイネージ等にキャラクターを登場させてもよい。以下、図12~図15を参照して説明する。
 図12は、本実施形態によるキャラクターコンテンツの配信例について説明する図である。図12に示すように、ユーザ端末1に、キャラクターのAR画像50を表示させて、実画像に重畳表示させてもよい。また、キャラクターの音声により「並んでくれてありがとう!」等のコメントを出力させてもよい。
 図13は、サイネージにキャラクターコンテンツを配信する場合について説明する図である。例えばサーバ2は、ユーザの現在位置において行列が検出された場合に、当該行列の近くに配置されたサイネージ等の表示装置にコンテンツを配信する。すなわち、図13に示すように、行列Lの近くに設置されたサイネージ装置6に、キャラクター52を登場させ、「並んでくれてありがとー!」等、キャラクター音声を出力させて、行列待ちの退屈さを紛らわせることが可能である。この場合、登録しているユーザのみならず、周辺にいる全てのユーザに等しくコンテンツ配信を行うことができる。
 なお、サイネージ装置6から周辺のユーザ端末1にコンテンツを配信するようにしてもよい。例えばWi-Fiダイレクトや近接無線通信によりサイネージ装置6から周辺のユーザ端末1にコンテンツを配信することが可能である。また、サイネージ装置6ではなくとも、周辺のユーザ端末1にダイレクトにコンテンツを配信し得る通信装置(ホットスポット)を設置し、不快エリアであると判定された際に当該通信装置から周辺のユーザ端末1にネガティブな状況を和らげるために特定のコンテンツを配信するようにしてもよい。この場合も、登録しているユーザのみならず、周辺にいる全てのユーザに等しくコンテンツ配信を行うことができる。
 図14は、キャラクターがAR表示されている場合の利用例について説明する図である。図14に示すように、キャラクターがユーザ端末1にAR表示されている場合、ユーザは、キャラクターのAR画像53とツーショット撮影などを行うことが可能である。
 図15は、ARコンテンツの事例として、3次元コンテンツを配信する場合について説明する図である。例えば、UWB(Ultra Wide Band:超広帯域無線通信)などの技術により、センチメートル単位での高精細な測位が可能になった場合、各ユーザの位置とスマートフォン等のユーザ端末1のカメラをかざす向きに応じて正確なARコンテンツの表示位置、向きの制御が可能になる。例えば図15に示すように、同一のキャラクターを複数のユーザのユーザ端末1a、1bで表示させる(3次元コンテンツを2次元化して提示する)ことができる。この場合、それぞれのユーザの位置、カメラの向きに応じて、キャラクター等の3次元コンテンツの表示位置、向きを調整し、複数ユーザのユーザ端末1a、1bにおいて同時に同じキャラクター55a、55bの動きや音声を再生制御することで、現実空間への融合がよりリアルになり、複数ユーザでの共通体験が可能となる。
 また、ユーザ登録している場合、ユーザが行列に並んだ回数や時間など、そのユーザの行動パターンに応じて、そのユーザのユーザ端末のみにキャラクターを表示させたり、ユーザの状況に合致したコメントを発声させたり(「並んでくれたのは今日で3回目だね!」など)することも可能である。
 <4-2.コンテンツ配信の動作処理>
 次に、コンテンツ配信の動作処理について、複数の実施例を用いて説明する。
 (4-2-1.第1の実施例:センサが設置されていない個所のコンテンツ配信)
 まず、カメラセンサ4Aや人流センサ4Bが設置されていない個所におけるコンテンツ配信について説明する。この場合、サーバ2は、予め登録された混雑地域情報に基づいて、コンテンツの配信を行う。
 例えば、人気ラーメン店や遊園地等、予め混雑状況を取得できる場合は、混雑する時間帯や行列の出来る時間帯を混雑地域情報として登録しておくことで、サーバ2は不快エリアの判定を行うことができる。
 ここで、図16に、ラーメン店の混雑地域情報の一例を示す。図16に示すように、例えば人気ラーメン店のエリアにおいて、時間毎に混雑度情報が登録される。具体的には、朝の時間帯は平均20名の待ち行列となることが登録され、昼の時間帯には平均35名の待ち行列になることが登録され、午後の時間帯には平均30名の待ち行列になることが登録されている。これにより、サーバ2の不快エリア判定部203は、登録された時間帯は当該エリアが不快エリアであると判定することができる。また、コンテンツ配信制御部204は、登録された混雑度に基づいて、対応するコンテンツを配信制御する。
 図17には、遊園地の混雑地域情報の一例を示す。図17に示すように、遊園地についても時間帯毎に混雑度が登録されている。サーバ2の不快エリア判定部203は、登録された時間帯は当該エリアが不快エリアであると判定することができる。また、コンテンツ配信制御部204は、登録された混雑度に基づいて、対応するコンテンツを配信制御する。
 (動作処理)
 続いて、図18および図19を参照して本実施例による動作処理について説明する。図18および図19は、本実施形態の第1の実施例によるコンテンツ配信処理を示すシーケンス図である。
 図18に示すように、まず、ユーザ端末1は、現在位置を測定する(ステップS203)。
 次に、ユーザ端末1は、ユーザ登録がされていない場合(ステップS206/No)、現在位置情報をサーバ2に送信する(ステップS212)。なお現在地位置の測定およびサーバ2への送信は、ユーザ端末1にインストールされた専用アプリケーションにより実行されるようにしてもよい。
 次いで、サーバ2の不快エリア判定部203は、混雑地域情報DB223を参照し、受信した位置情報および現在時刻に基づいて、ユーザが現在居る場所が混雑しているか否か判定する(ステップS215)。例えばユーザの現在位置が、図16に示すラーメン店のエリア内であって、現在時刻が9:00の場合、当該エリアが混雑地域として登録されているため、不快エリア判定部203は、混雑している(混雑地域)と判定する。
 次に、混雑地域であると判定された場合(ステップS218/Yes)、コンテンツ配信制御部204は、位置情報、時刻、および混雑度に対応するコンテンツの一覧をコンテンツ管理DB221から取得し(ステップS221)、取得したコンテンツの一覧(コンテンツリスト)をユーザ端末1に送信する(ステップS224)。例えば、「ラーメン店のエリア」において、混雑度が「平均20名以上の待ち行列」の場合にこのコンテンツを配信するといった配信情報が登録されている場合、コンテンツ配信制御部204は、配信条件に従って、該当するコンテンツの一覧を取得する。
 次いで、ユーザ端末1は、コンテンツ一覧から任意のコンテンツを選択し(ステップS227)、選択したコンテンツの配信をサーバ2に要求する(ステップS230)。例えばユーザ端末1は、図11に示すようなコンテンツ提示画面37を表示してコンテンツ一覧から任意のコンテンツをユーザに選択させてもよい。なお図11に示す「プレミアムユーザ向けコンテンツ」は、ここでは表示されない。
 そして、サーバ2は、要求に応じてコンテンツを送信し(ステップS233)、ユーザ端末1でコンテンツが再生される(ステップS236)。
 次いで、図19を参照してユーザ登録されている場合のコンテンツ配信について説明する。
 ユーザ登録されている場合(ステップS206/Yes)、ユーザ端末1は、現在位置情報およびユーザIDをサーバ2に送信する(ステップS243)。なお現在地位置の測定およびサーバ2への現在位置とユーザIDの送信は、ユーザ端末1にインストールされた専用アプリケーションにより実行されるようにしてもよい。
 次に、サーバ2のコンテンツ配信制御部204は、ユーザIDに基づき、ユーザ管理DB222からユーザ情報(視聴履歴や好みのジャンル等)を取得する(ステップS246)。
 次いで、コンテンツ配信制御部204は、受信した位置情報および現在時間に合致する登録コンテンツの一覧を取得する(ステップS249)。例えば、ユーザの現在地が「ラーメン店のエリア」内であって、現在の時刻の混雑度が「平均20名以上の待ち行列」の場合、かかる条件にマッチする配信可能なコンテンツ一覧をコンテンツ管理DB221に登録されている配信情報に従って取得する。
 次に、コンテンツ配信制御部204は、取得したコンテンツ一覧とユーザの視聴履歴に基づいて、視聴途中のコンテンツの一覧を抽出する(ステップS252)。例えば前回並んでいた時に配信され視聴していたコンテンツの視聴履歴がユーザ管理DB222に記録されているため、視聴途中のコンテンツが把握できる。なお視聴途中とは、映画やドラマにおける再生途中の他、シリーズで作成されているコンテンツにおいて、シーズン1が視聴終了していた場合にはシーズン2等、シリーズにおける途中という意味も含まれる。
 また、コンテンツ配信制御部204は、取得したコンテンツ一覧の中から、ユーザの好みのジャンルに合致するコンテンツの一覧を抽出する(ステップS255)。
 以上説明した視聴途中のコンテンツ一覧の抽出や、好みのジャンルに合致するコンテンツ一覧の抽出は、登録ユーザに対して実施されるプレミアムサービスとして位置付けられる。
 続いて、コンテンツ配信制御部204は、取得したコンテンツ一覧、視聴途中のコンテンツ一覧、および好みのジャンルのコンテンツ一覧をユーザ端末1に送信する(ステップS258)。
 次に、ユーザ端末1は、各コンテンツ一覧から任意のコンテンツを選択し(ステップS261)、選択したコンテンツの配信をサーバ2に要求する(ステップS264)。例えばユーザ端末1は、図11に示すようなコンテンツ提示画面37を表示してコンテンツ一覧から任意のコンテンツをユーザに選択させてもよい。図11に示すように、視聴途中のコンテンツ一覧(「前回の続きから視聴」)や、好みのジャンルに合致するコンテンツ一覧(「お好きなジャンルからオススメ」)は、プレミアムユーザ(登録ユーザ)向けとして提示され得る。「視聴可能コンテンツ」は、図10を参照して説明した事業者側によるコンテンツ登録において、「登録ユーザのみ配信する」として登録されたコンテンツが該当し、上記ステップS249で取得されるコンテンツ一覧に含まれる。なお図11に示す「行列の残り時間からオススメ」は、ここでは表示されず、第3の実施例において説明する。
 そして、サーバ2は、要求に応じてコンテンツを送信し(ステップS267)、ユーザ端末1でコンテンツが再生される(ステップS270)。
 (4-2-2.第2の実施例:センサが設置されている個所の場合)
 次に、第2の実施例について説明する。第2の実施例では、繁華街や行楽地、通勤電車の車両内などにカメラセンサ4Aや人流センサ4Bが設置されており、これらのセンサデータに基づいて実際に混雑度を計測する場合について説明する。例えば、電車内にカメラセンサ4Aや人流センサ4Bが設けられ、乗車客の人数(乗降者)をカウントし、車内の混雑度を算出することが可能である。センサデータは、随時サーバ2に送信される。
 サーバ2は、ユーザ端末1から送信された現在位置情報と、上記センサデータに基づく混雑地域の判定結果に基づいて、ユーザが混雑地域に居る場合には、当該ユーザがネガティブな状況になっていることが推定されるため、対応するコンテンツを配信することで、緩和することができる。なお本システムの利用者が多い場合、多数のユーザから継続的に現在位置が送信されるため、サーバ2は、全ユーザからの位置情報に基づいて、各地域の混雑度を算出することも可能である。
 以下、図20~図22を参照して第2の実施例の動作処理について説明する。図20~図22は、本実施例によるコンテンツ配信処理を示すシーケンス図である。
 図20に示すように、まず、人流センサ4Bは、Wi-Fi電波を受信し(ステップS303)、周辺にWi-Fi端末(Wi-Fi電波を発する情報処理端末。本実施例ではユーザ端末1が相当する)が(1以上)存在するか否かを判断し(ステップS306)、端末が(1以上)存在する場合には、周辺に存在する端末数を算出する(ステップS309)。
 次に、人流センサ4Bは、端末数情報をサーバ2に送信する(ステップS312)。端末数情報の送信は継続的に行われ得る。
 次いで、各箇所に設置されたカメラセンサ4Aは、周囲を撮像し(ステップS313)、撮像画像に人物が含まれているか否かを判断し(ステップS315)、人物が含まれている場合には、人数の算出を行う(ステップS318)。例えばカメラセンサ4Aは、撮像画像から人物の形状を検出するモーションキャプチャ機能により人物の検出を行い、人数を算出することが可能である。
 次に、カメラセンサ4Aは、人数情報をサーバ2に送信する(ステップS321)。人数情報の送信は継続的に行われ得る。なお、ここでは一例として撮像画像に基づく人数の算出をカメラセンサ4Aで行っているが、本実施形態はこれに限定されず、カメラセンサ4Aにより取得された撮像画像に基づいて外部装置により人数の算出を行ってもよい。例えば、所定の地域内に設置された複数のカメラセンサ4Aからの撮像画像に基づいて中間サーバによりその地域の現在の人数(密集度合い)を集計してサーバ2に出力するようにしてもよい。
 次に、ユーザ端末1は、現在位置を測定し(ステップS324)、ユーザ登録がされていない場合は(ステップS327/No)、現在位置情報をサーバ2に送信する(ステップS330)。現在地位置の測定およびサーバ2への送信は、ユーザ端末1にインストールされた専用アプリケーションにより実行されるようにしてもよい。
 次いで、サーバ2は、各ユーザ端末からの位置情報に基づき、ある同じ場所にいるユーザの総数を算出する(ステップS333)。
 続いて、図20に示すように、サーバ2の不快エリア判定部203は、上記ステップS333で算出したある場所のユーザの総数と、当該場所に設置されたカメラセンサ4Aから取得した人数情報と、同場所に設置された人流センサ4Bから取得した端末数情報のうち、最大の数値を当該場所の人数(混雑度)とする(ステップS336)。これにより、ユーザの現在地の混雑度を把握することができる。
 次いで、コンテンツ配信制御部204は、コンテンツ管理DB221を参照し、当該場所のエリア種別、時間帯、および混雑度に対応するコンテンツを検索する(ステップS339)。例えば、ユーザの現在地が「ランランランド(遊園地)のエリア」内であって、現在の混雑度が「10メートル四方あたり90名」の場合に、かかる条件にマッチする配信可能なコンテンツ一覧をコンテンツ管理DB221に登録されている配信情報に従ってコンテンツ管理DB221から検索する。
 次に、該当するコンテンツの登録がある場合(ステップS342/Yes)、コンテンツの一覧を送信する(ステップS345)
 次いで、ユーザ端末1は、コンテンツ一覧から任意のコンテンツを選択し(ステップS348)、選択したコンテンツの配信をサーバ2に要求する(ステップS351)。
 そして、サーバ2は、要求に応じてコンテンツを送信し(ステップS354)、ユーザ端末1でコンテンツが再生される(ステップS357)。
 次いで、図22を参照してユーザ登録されている場合のコンテンツ配信について説明する。
 ユーザ登録されている場合(ステップS327/Yes、図20)、図22に示すように、ユーザ端末1は、現在位置情報およびユーザIDをサーバ2に送信する(ステップS360)。なお現在地位置の測定およびサーバ2への現在位置とユーザIDの送信は、ユーザ端末1にインストールされた専用アプリケーションにより実行されるようにしてもよい。
 次に、サーバ2の不快エリア判定部203は、各ユーザ端末1からの位置情報に基づき、ある同じ場所にいるユーザの総数を算出する(ステップS363)。
 次いで、不快エリア判定部203は、上記ステップS363で算出したある場所のユーザの総数と、当該場所に設置されたカメラセンサ4Aから取得した人数情報と、同場所に設置された人流センサ4Bから取得した端末数情報のうち、最大の数値を当該場所の人数(混雑度)とする(ステップS366)。これにより、ユーザの現在地の混雑度を把握することができる。
 次に、コンテンツ配信制御部204は、コンテンツ管理DB221を参照し、当該場所のエリア種別、時間帯、および混雑度に対応するコンテンツを検索する(ステップS369)。
 続いて、該当するコンテンツの登録がある場合(ステップS372/Yes)、図23に示すように、コンテンツ配信制御部204は、ユーザIDに基づき、ユーザ管理DB222からユーザ情報(視聴履歴や好みのジャンル等)を取得する(ステップS375)。
 次いで、コンテンツ配信制御部204は、受信した位置情報および現在時間に合致する登録コンテンツの一覧を取得する(ステップS378)。
 次に、コンテンツ配信制御部204は、取得したコンテンツ一覧とユーザの視聴履歴に基づいて、視聴途中のコンテンツの一覧を抽出する(ステップS381)。
 また、コンテンツ配信制御部204は、取得したコンテンツ一覧の中から、ユーザの好みのジャンルに合致するコンテンツの一覧を抽出する(ステップS384)。
 以上説明した視聴途中のコンテンツ一覧の抽出や、好みのジャンルに合致するコンテンツ一覧の抽出は、第1の実施例と同様に、登録ユーザに対して実施されるプレミアムサービスとして位置付けられる。
 続いて、コンテンツ配信制御部204は、取得したコンテンツ一覧、視聴途中のコンテンツ一覧、および好みのジャンルのコンテンツ一覧をユーザ端末1に送信する(ステップS387)。
 次に、ユーザ端末1は、各コンテンツ一覧から任意のコンテンツを選択し(ステップS390)、選択したコンテンツの配信をサーバ2に要求する(ステップS393)。
 そして、サーバ2は、要求に応じてコンテンツを送信し(ステップS396)、ユーザ端末1でコンテンツが再生される(ステップS399)。
 (4-2-3.第3の実施例:行列を検知してコンテンツを配信する例)
 次に、繁華街や行楽地、通勤電車の車両内等に設けられたカメラセンサ4Aにより行列を感知したか否かに応じてコンテンツ配信を行う場合について説明する。カメラセンサ4Aにより人物の形状が認識できるため、行列の長さや進み具合も把握することができる。
 カメラセンサ4Aは、行列の検出を行い、行列の長さ(何人並んでいるか)や、行列に並ぶ人々の顔認識結果等を、継続的にサーバ2に送信する。サーバ2は、ユーザ端末1から送信された現在位置情報から、ユーザが行列の出来ている地域(混雑地域)に居るか否かを判断し、さらに行列に実際に並んでいるかを顔認識結果に基づいて判断する。ユーザの顔認識は、事前に登録されているユーザの顔画像を用いて行われ得る。そして、サーバ2は、ユーザが行列に並んでいる際に、対応する特定のコンテンツを当該ユーザに配信する。例えば、行列の残りの待ち時間に応じたコンテンツを配信することも可能である。
 以下、図24~図26を参照して第3の実施例の動作処理について説明する。図24~図26は、本実施例によるコンテンツ配信処理を示すシーケンス図である。
 図24に示すように、まず、各箇所に設置されたカメラセンサ4Aは、周囲を撮像し(ステップS403)、撮像画像を解析して複数人物による行列が検出できたか否かを判断し(ステップS406)、行列が検出できた場合には、行列に並ぶ人物の顔を認識し、各顔特徴量データを取得する(ステップS409)。カメラセンサ4Aは、撮像画像から人物の形状を検出するモーションキャプチャ機能により人物の検出を行い、複数の人物が並んでいる場合には列を成しているとみなし、行列の検出を行うことができる。
 次に、カメラセンサ4Aは、行列の人数情報(または行列の長さ情報)および行列に並ぶ人々の顔特徴量情報をサーバ2に送信する(ステップS412)。これらの情報送信は継続的に行われ得る。なお、本実施例も第2の実施例と同様に、撮像画像の解析(ここでは行列の検出と顔認識)をカメラセンサ4A以外の外部装置で行ってもよい。例えば、所定の地域内に設置された複数のカメラセンサ4Aからの撮像画像に基づいて中間サーバによりその地域における行列の算出および顔認識を行い、サーバ2に出力するようにしてもよい。
 次いで、サーバ2の不快エリア判定部203は、カメラセンサ4Aから受信した行列の人数情報および顔特徴量情報を混雑地域情報DB223に記録する(ステップS415)。
 次に、不快エリア判定部203は、カメラセンサ4Aから受信し、記録した行列に関する情報の履歴に基づいて、行列の進む速度を算出する(ステップS418)。
 次いで、ユーザ端末1は、現在位置を測定し(ステップS421)、ユーザ登録がされている場合は(ステップS424/Yes)、現在位置情報およびユーザIDをサーバ2に送信する(ステップS427)。現在地位置の測定および現在位置情報およびユーザIDのサーバ2への送信は、ユーザ端末1にインストールされた専用アプリケーションにより実行されるようにしてもよい。
 次に、図25に示すように、サーバ2の不快エリア判定部203は、ユーザ端末1から送信された現在位置情報に基づいて、ユーザが居る場所に行列ができているか否かを判断する(ステップS430)。
 次いで、行列が出来ている場合(ステップS430/Yes)、不快エリア判定部203は、行列に並んでいる人の中にユーザが含まれているか否かを判断する(ステップS433)。具体的には、行列に並ぶ人たちの各顔特徴量情報と、事前に登録されたユーザの顔画像とに基づいて、ユーザが行列に実際に並んでいるか否かを判断する。なおここでは一例として、カメラセンサ4Aにより撮像された撮像画像に基づいて行列の検出を行い、さらに顔認識によりユーザが実際に行列に並んでいるか否かを判断しているが、本実施形態はこれに限定されず、各ユーザからの位置情報に基づいて行列の検出およびユーザが実際に行列に並んでいるか否かを判断することも可能である。すなわち、例えば各ユーザ端末1から送信される現在位置情報から各ユーザの位置が1cm単位等で詳細に把握できる場合、不快エリア判定部203は、各ユーザの位置に基づいて複数のユーザが列を成していることを認識し、行列の検出を行うことが可能である。これにより行列の位置が分かるため、不快エリア判定部203は、ユーザの現在位置情報と照らし合わせて、ユーザが行列に並んでいるか否かを判断することができる。
 次に、行列にユーザが含まれている場合(ステップS433/Yes)、不快エリア判定部203は、行列の長さとユーザの位置および行列の進む速度に基づき、ユーザの待ち時間を算出する(ステップS436)。
 次いで、コンテンツ配信制御部204は、コンテンツ管理DB221を参照し、当該場所のエリア種別、時間帯、および混雑度に対応するコンテンツを検索する(ステップS439)。
 次に、該当するコンテンツの登録がある場合(ステップS442/Yes)、コンテンツ配信制御部204は、コンテンツ管理DB221からコンテンツの一覧を取得する(ステップS445)。
 次いで、取得したコンテンツ一覧の中から、待ち時間に合致する長さのコンテンツの一覧を抽出する(ステップS448)。待ち時間に合致する長さのコンテンツとは、例えば待ち時間で視聴し終わる映像や音楽が想定される。
 続いて、図26に示すように、サーバ2のコンテンツ配信制御部204は、ユーザIDに基づき、ユーザ管理DB222からユーザ情報(視聴履歴や好みのジャンル等)を取得する(ステップS451)。
 次いで、コンテンツ配信制御部204は、取得したコンテンツ一覧とユーザの視聴履歴に基づいて、視聴途中のコンテンツの一覧を抽出する(ステップS454)。
 また、コンテンツ配信制御部204は、取得したコンテンツ一覧の中から、ユーザの好みのジャンルに合致するコンテンツの一覧を抽出する(ステップS457)。
 以上説明した視聴途中のコンテンツ一覧の抽出や、待ち時間に合ったコンテンツ一覧の抽出、好みのジャンルに合致するコンテンツ一覧の抽出は、第1、第2の実施例と同様に、登録ユーザに対して実施されるプレミアムサービスとして位置付けられる。
 次に、コンテンツ配信制御部204は、取得したコンテンツ一覧、待ち時間に合ったコンテンツ一覧、視聴途中のコンテンツ一覧、および好みのジャンルのコンテンツ一覧をユーザ端末1に送信する(ステップS460)。
 次に、ユーザ端末1は、各コンテンツ一覧から任意のコンテンツを選択し(ステップS463)、選択したコンテンツの配信をサーバ2に要求する(ステップS466)。
 そして、サーバ2は、要求に応じてコンテンツを送信し(ステップS469)、ユーザ端末1でコンテンツが再生される(ステップS472)。
 <<5.まとめ>>
 上述したように、本開示の実施形態による情報処理システムでは、ユーザのネガティブな状況を和らげるために特別なコンテンツを配信することが可能となる。
 具体的には、通勤電車内等の混雑している場所や、遊園地や人気店における行列に並んでいる際、人々はネガティブな感情になり易いため、本実施形態による情報処理システムは、このような場所に身を置いている人だけに提示される所定の特別なコンテンツを配信することで、ネガティブな状況を和らげ、楽しい気持ちにさせることが可能である。
 コンテンツの配信は、混雑している場所にいるユーザ全員、若しくは特定のユーザ(登録済みのユーザ、または実際に行列に並んでいる登録済みユーザ等)にのみに配信するようにしてもよい。
 また、本実施形態では、コンテンツ事業者によりサーバ2に配信するコンテンツが予め登録される旨を説明したが、本実施形態はこれに限定されず、例えばサーバ2による不快エリアの判定結果をコンテンツ事業者に提示し、コンテンツ事業者側で当該不快エリアへコンテンツ配信を行うようにしてもよい。
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本技術はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 例えば、上述したユーザ端末1、またはサーバ2に内蔵されるCPU、ROM、およびRAM等のハードウェアに、ユーザ端末1、またはサーバ2の機能を発揮させるためのコンピュータプログラムも作成可能である。また、当該コンピュータプログラムを記憶させたコンピュータ読み取り可能な記憶媒体も提供される。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 なお、本技術は以下のような構成も取ることができる。
(1)
 少なくとも、ユーザの現在位置情報を受信する通信部と、
 前記現在位置情報が示す位置を含む所定エリアが、滞在する人を不快にするエリアであると判定すると、前記ユーザに特定のコンテンツを配信するように、前記通信部を制御する制御部と、
を備える、情報処理システム。
(2)
 前記制御部は、
  少なくともエリアおよび混雑度が関連付けられたテーブルに基づいて、前記現在位置情報が示す位置を含む所定エリアが、滞在する人を不快にするエリアであると判定する、前記(1)に記載の情報処理システム。
(3)
 前記通信部により、エリアの混雑度に関連する混雑度情報を受信し、
 前記制御部は、
  前記混雑度情報に基づいて、前記現在位置情報が示す位置を含む所定エリアが、滞在する人を不快にするエリアであると判定する、前記(1)に記載の情報処理システム。
(4)
 前記通信部は、前記ユーザの現在位置周辺の撮像装置から、前記混雑度情報として、映像に含まれている人数の情報を受信する、前記(3)に記載の情報処理システム。
(5)
 前記通信部は、前記ユーザの現在位置周辺のWi-Fi電波検知部から、前記混雑度情報として、電波が受信されたWi-Fi端末数を受信する、前記(3)に記載の情報処理システム。
(6)
 前記制御部は、前記ユーザの現在位置周辺に位置するユーザの数を前記混雑度情報として設定する、前記(3)に記載の情報処理システム。
(7)
 前記制御部は、
  前記ユーザの現在位置情報に基づき、当該ユーザが行列に並んでいると推定すると、
前記現在位置情報が示す位置を含む行列が作られているエリアが、滞在する人を不快にするエリアであると判定する、前記(3)に記載の情報処理システム。
(8)
 前記通信部は、
  前記ユーザの現在位置周辺の撮像装置により撮影された行列を成している複数ユーザの顔の特徴データを受信し、
 前記制御部は、
  前記行列を成している複数ユーザの顔の特徴データの中に、予め登録されている前記ユーザの顔の特徴データがある場合、前記ユーザの現在位置情報が示す位置を含む行列が作られているエリアが滞在する人を不快にするエリアであると判定する、前記(7)に記載の情報処理システム。
(9)
 前記制御部は、
  前記ユーザの周辺に位置する複数ユーザの現在位置情報に基づき、当該ユーザが行列に並んでいると判断した場合、前記現在位置情報が示す位置を含む行列が作られているエリアが、滞在する人を不快にするエリアであると推定する、前記(7)に記載の情報処理システム。
(10)
 前記制御部は、
  前記ユーザに、前記行列に関わるARコンテンツを配信するように制御する、前記(7)~(9)のいずれか1項に記載の情報処理システム。
(11)
 前記制御部は、
  前記ユーザの周辺に配される表示装置に、前記行列に関わるコンテンツを配信するように制御する、前記(7)~(10)のいずれか1項に記載の情報処理システム。
(12)
 前記ユーザの周辺に配される表示装置には、前記ユーザの周辺に存在する他ユーザが所持する表示端末装置が含まれ、
 前記制御部は、
  前記ユーザおよび他ユーザが所持する表示端末装置に、前記行列に関わるARコンテンツを配信するように制御する、前記(11)に記載の情報処理システム。
(13)
 前記制御部は、
  前記ユーザを含む複数ユーザの現在位置情報に基づき、行列に並ぶ前記ユーザの待ち時間を算出し、当該待ち時間にマッチしたコンテンツを選定する、前記(7)~(12)のいずれか1項に記載の情報処理システム。
(14)
 前記制御部は、
  ユーザ単位で管理されているユーザの嗜好を示すユーザ情報に基づいて、前記ユーザに個人化されたコンテンツを配信するように、前記通信部を制御する、前記(1)~(13)のいずれか1項に記載の情報処理システム。
(15)
 前記制御部は、
  ユーザ単位で管理されているコンテンツの視聴履歴に基づいて、前記ユーザがコンテンツの途中まで視聴を完了しているときには、続きからコンテンツを配信するように、前記通信部を制御する、前記(1)~(14)のいずれか1項に記載の情報処理システム。
(16)
 前記通信部は、前記ユーザの生体情報を受信し、
 前記制御部は、
  前記ユーザの生体情報に基づき当該ユーザが不快であると推定した場合、前記現在位置情報が示す位置を含む所定エリアを、不快エリアであると判定し、前記ユーザに特定のコンテンツを配信するように、前記通信部を制御する、前記(1)~(15)のいずれか1項に記載の情報処理システム。
(17)
 前記特定のコンテンツは、コンテンツリストを含み、
 前記制御部は、前記コンテンツリストから選択されたコンテンツを配信するよう制御する、前記(1)~(9)のいずれか1項に記載の情報処理システム。
(18)
 少なくとも、ユーザの現在位置情報をサーバに送信する通信部と、
 前記現在位置情報が示す位置を含む所定エリアが、滞在する人を不快にするエリアであると推定した前記サーバから、前記通信部を介して取得した特定のコンテンツを出力する出力部と、
 前記サーバから、前記ユーザに対して配信された前記特定のコンテンツを受信するように前記通信部を制御すると共に、当該特定のコンテンツを出力するように前記出力部を制御する制御部と、
を備える、情報処理装置。
(19)
 プロセッサが、
 少なくとも、ユーザの現在位置情報を通信部により受信することと、
 前記現在位置情報が示す位置を含む所定エリアが、滞在する人を不快にするエリアであると判定すると、前記ユーザに特定のコンテンツを配信するように、前記通信部を制御することと、
を含む、情報処理方法。
(20)
 コンピュータを、
 少なくとも、ユーザの現在位置情報をサーバに送信する通信部と、
 前記現在位置情報が示す位置を含む所定エリアが、滞在する人を不快にするエリアであると推定した前記サーバから、前記通信部を介して取得した特定のコンテンツを出力する出力部と、
 前記サーバから、前記ユーザに対して配信された前記特定のコンテンツを受信するように前記通信部を制御すると共に、当該特定のコンテンツを出力するように前記出力部を制御する制御部と、
として機能させるためのプログラムが記録された、記録媒体。
(21)
 ユーザの現在位置情報に基づき、当該ユーザが行列に並んでいると推定すると、
 当該ユーザに特定のコンテンツを配信するように制御する制御部を備える、情報処理システム。
 1 ユーザ端末
 2 サーバ
 3 ネットワーク
 4A カメラセンサ
 4B 人流センサ
 5(5A~5C) コンテンツ事業者サーバ
 6 サイネージ装置
 10 制御部
  101 ユーザ情報管理部
  102 コンテンツ出力制御部
 11 通信部
 12 入力部
 13 位置センサ
 14 出力部
 15 記憶部
 20 制御部
  201 コンテンツ登録部
  202 ユーザ管理部
  203 不快エリア判定部
  204 コンテンツ配信制御部
 21 通信部
 22 記憶部
  221 コンテンツ管理DB
  222 ユーザ管理DB
  223 混雑地域情報DB

Claims (21)

  1.  少なくとも、ユーザの現在位置情報を受信する通信部と、
     前記現在位置情報が示す位置を含む所定エリアが、滞在する人を不快にするエリアであると判定すると、前記ユーザに特定のコンテンツを配信するように、前記通信部を制御する制御部と、
    を備える、情報処理システム。
  2.  前記制御部は、
      少なくともエリアおよび混雑度が関連付けられたテーブルに基づいて、前記現在位置情報が示す位置を含む所定エリアが、滞在する人を不快にするエリアであると判定する、請求項1に記載の情報処理システム。
  3.  前記通信部により、エリアの混雑度に関連する混雑度情報を受信し、
     前記制御部は、
      前記混雑度情報に基づいて、前記現在位置情報が示す位置を含む所定エリアが、滞在する人を不快にするエリアであると判定する、請求項1に記載の情報処理システム。
  4.  前記通信部は、前記ユーザの現在位置周辺の撮像装置から、前記混雑度情報として、映像に含まれている人数の情報を受信する、請求項3に記載の情報処理システム。
  5.  前記通信部は、前記ユーザの現在位置周辺のWi-Fi電波検知部から、前記混雑度情報として、電波が受信されたWi-Fi端末数を受信する、請求項3に記載の情報処理システム。
  6.  前記制御部は、前記ユーザの現在位置周辺に位置するユーザの数を前記混雑度情報として設定する、請求項3に記載の情報処理システム。
  7.  前記制御部は、
      前記ユーザの現在位置情報に基づき、当該ユーザが行列に並んでいると推定すると、
    前記現在位置情報が示す位置を含む行列が作られているエリアが、滞在する人を不快にするエリアであると判定する、請求項3に記載の情報処理システム。
  8.  前記通信部は、
      前記ユーザの現在位置周辺の撮像装置により撮影された行列を成している複数ユーザの顔の特徴データを受信し、
     前記制御部は、
      前記行列を成している複数ユーザの顔の特徴データの中に、予め登録されている前記ユーザの顔の特徴データがある場合、前記ユーザの現在位置情報が示す位置を含む行列が作られているエリアが滞在する人を不快にするエリアであると判定する、請求項7に記載の情報処理システム。
  9.  前記制御部は、
      前記ユーザの周辺に位置する複数ユーザの現在位置情報に基づき、当該ユーザが行列に並んでいると判断した場合、前記現在位置情報が示す位置を含む行列が作られているエリアが、滞在する人を不快にするエリアであると推定する、請求項7に記載の情報処理システム。
  10.  前記制御部は、
      前記ユーザに、前記行列に関わるARコンテンツを配信するように制御する、請求項7に記載の情報処理システム。
  11.  前記制御部は、
      前記ユーザの周辺に配される表示装置に、前記行列に関わるコンテンツを配信するように制御する、請求項7に記載の情報処理システム。
  12.  前記ユーザの周辺に配される表示装置には、前記ユーザの周辺に存在する他ユーザが所持する表示端末装置が含まれ、
     前記制御部は、
      前記ユーザおよび他ユーザが所持する表示端末装置に、前記行列に関わるARコンテンツを配信するように制御する、請求項11に記載の情報処理システム。
  13.  前記制御部は、
      前記ユーザを含む複数ユーザの現在位置情報に基づき、行列に並ぶ前記ユーザの待ち時間を算出し、当該待ち時間にマッチしたコンテンツを選定する、請求項7に記載の情報処理システム。
  14.  前記制御部は、
      ユーザ単位で管理されているユーザの嗜好を示すユーザ情報に基づいて、前記ユーザに個人化されたコンテンツを配信するように、前記通信部を制御する、請求項1に記載の情報処理システム。
  15.  前記制御部は、
      ユーザ単位で管理されているコンテンツの視聴履歴に基づいて、前記ユーザがコンテンツの途中まで視聴を完了しているときには、続きからコンテンツを配信するように、前記通信部を制御する、請求項1に記載の情報処理システム。
  16.  前記通信部は、前記ユーザの生体情報を受信し、
     前記制御部は、
      前記ユーザの生体情報に基づき当該ユーザが不快であると推定した場合、前記現在位置情報が示す位置を含む所定エリアを、不快エリアであると判定し、前記ユーザに特定のコンテンツを配信するように、前記通信部を制御する、請求項1に記載の情報処理システム。
  17.  前記特定のコンテンツは、コンテンツリストを含み、
     前記制御部は、前記コンテンツリストから選択されたコンテンツを配信するよう制御する、請求項1に記載の情報処理システム。
  18.  少なくとも、ユーザの現在位置情報をサーバに送信する通信部と、
     前記現在位置情報が示す位置を含む所定エリアが、滞在する人を不快にするエリアであると推定した前記サーバから、前記通信部を介して取得した特定のコンテンツを出力する出力部と、
     前記サーバから、前記ユーザに対して配信された前記特定のコンテンツを受信するように前記通信部を制御すると共に、当該特定のコンテンツを出力するように前記出力部を制御する制御部と、
    を備える、情報処理装置。
  19.  プロセッサが、
     少なくとも、ユーザの現在位置情報を通信部により受信することと、
     前記現在位置情報が示す位置を含む所定エリアが、滞在する人を不快にするエリアであると判定すると、前記ユーザに特定のコンテンツを配信するように、前記通信部を制御することと、
    を含む、情報処理方法。
  20.  コンピュータを、
     少なくとも、ユーザの現在位置情報をサーバに送信する通信部と、
     前記現在位置情報が示す位置を含む所定エリアが、滞在する人を不快にするエリアであると推定した前記サーバから、前記通信部を介して取得した特定のコンテンツを出力する出力部と、
     前記サーバから、前記ユーザに対して配信された前記特定のコンテンツを受信するように前記通信部を制御すると共に、当該特定のコンテンツを出力するように前記出力部を制御する制御部と、
    として機能させるためのプログラムが記録された、記録媒体。
  21.  ユーザの現在位置情報に基づき、当該ユーザが行列に並んでいると推定すると、
     当該ユーザに特定のコンテンツを配信するように制御する制御部を備える、情報処理システム。
PCT/JP2018/018318 2017-07-27 2018-05-11 情報処理システム、情報処理装置、情報処理方法、および記録媒体 WO2019021575A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2019532385A JPWO2019021575A1 (ja) 2017-07-27 2018-05-11 情報処理システム、情報処理装置、情報処理方法、および記録媒体
CN201880048756.XA CN110945489A (zh) 2017-07-27 2018-05-11 信息处理系统、信息处理装置、信息处理方法和记录介质
US16/631,864 US11388016B2 (en) 2017-07-27 2018-05-11 Information processing system, information processing device, information processing method, and recording medium
EP18838949.8A EP3660688A4 (en) 2017-07-27 2018-05-11 INFORMATION PROCESSING SYSTEM, DEVICE AND METHOD, AND RECORDING MEDIA
KR1020197035211A KR20200036811A (ko) 2017-07-27 2018-05-11 정보 처리 시스템, 정보 처리 장치, 정보 처리 방법 및 기록 매체
US17/746,612 US12074723B2 (en) 2017-07-27 2022-05-17 Information processing system, information processing device, information processing method, and recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-145236 2017-07-27
JP2017145236 2017-07-27

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US16/631,864 A-371-Of-International US11388016B2 (en) 2017-07-27 2018-05-11 Information processing system, information processing device, information processing method, and recording medium
US17/746,612 Continuation US12074723B2 (en) 2017-07-27 2022-05-17 Information processing system, information processing device, information processing method, and recording medium

Publications (1)

Publication Number Publication Date
WO2019021575A1 true WO2019021575A1 (ja) 2019-01-31

Family

ID=65041159

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/018318 WO2019021575A1 (ja) 2017-07-27 2018-05-11 情報処理システム、情報処理装置、情報処理方法、および記録媒体

Country Status (6)

Country Link
US (2) US11388016B2 (ja)
EP (1) EP3660688A4 (ja)
JP (1) JPWO2019021575A1 (ja)
KR (1) KR20200036811A (ja)
CN (1) CN110945489A (ja)
WO (1) WO2019021575A1 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021026594A (ja) * 2019-08-07 2021-02-22 パナソニックIpマネジメント株式会社 入場者ガイド方法および入場者ガイドシステム
WO2021033680A1 (ja) * 2019-08-21 2021-02-25 株式会社リクルート 順番管理システム、順番管理装置、およびプログラム
WO2021164907A1 (de) * 2020-02-21 2021-08-26 Vr Coaster Gmbh & Co. Kg Verfahren zum bereitstellen eines virtuell-reality-erlebnisses für mindestens einen fahrgast eines fahrgeschäfts sowie fahrgeschäft
JP2021128492A (ja) * 2020-02-13 2021-09-02 大日本印刷株式会社 コンテンツ利用管理装置、プログラム及びコンテンツ配信システム
WO2021193086A1 (ja) * 2020-03-25 2021-09-30 ソニーグループ株式会社 情報処理装置および方法、並びにプログラム
JP2023142228A (ja) * 2022-03-24 2023-10-05 株式会社ポケモン プログラム、方法、情報処理装置、システム
JP7364808B1 (ja) 2023-01-27 2023-10-18 Kddi株式会社 情報処理装置、情報処理方法及びプログラム
JP7408728B1 (ja) 2022-06-27 2024-01-05 デジタル・アドバタイジング・コンソーシアム株式会社 情報処理装置、情報処理方法、プログラム及びシステム
JP7518791B2 (ja) 2021-03-31 2024-07-18 ミサワホーム株式会社 宅内表示システム

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2019021575A1 (ja) * 2017-07-27 2020-06-11 ソニー株式会社 情報処理システム、情報処理装置、情報処理方法、および記録媒体
JP2021157674A (ja) * 2020-03-29 2021-10-07 インターマン株式会社 混雑確認システム
US11615620B2 (en) * 2020-05-15 2023-03-28 Johnson Controls Tyco IP Holdings LLP Systems and methods of enforcing distancing rules
JP7008757B2 (ja) * 2020-06-30 2022-01-25 東急株式会社 コンテンツ配信システム、コンテンツ配信装置、コンテンツ配信方法およびプログラム

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003219287A (ja) * 2002-01-25 2003-07-31 Sharp Corp 放送受信装置
JP2006155085A (ja) * 2004-11-26 2006-06-15 Olympus Corp コンテンツ配信方法、コンテンツ配信装置、情報端末装置、及びコンテンツ配信システム
JP2010220151A (ja) * 2009-03-19 2010-09-30 Nomura Research Institute Ltd コンテンツ配信システム、コンテンツ配信方法及びコンピュータプログラム
JP2012212365A (ja) * 2011-03-31 2012-11-01 Sony Corp 情報処理装置、混雑度マップ生成装置、情報処理方法、プログラム、及び記録媒体
JP2014134922A (ja) 2013-01-09 2014-07-24 Sony Corp 情報処理装置、情報処理方法およびプログラム
JP2016066173A (ja) 2014-09-24 2016-04-28 ソフトバンク株式会社 情報提供システム及び情報提供装置
JP2017005705A (ja) * 2015-06-15 2017-01-05 カシオ計算機株式会社 情報発信装置、情報発信方法、プログラム及び携帯端末
JP2017502437A (ja) * 2013-11-15 2017-01-19 ジェフ マクマヌス リミテッドJeff Mcmanus Ltd. リソースへのアクセスを管理するための装置及び方法
JP2017022505A (ja) * 2015-07-09 2017-01-26 株式会社リクルートホールディングス 混雑状況推定システムおよび混雑状況推定方法

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4942450B2 (ja) * 2006-10-20 2012-05-30 株式会社 ゼネテック スケジュール作成装置
JP5492007B2 (ja) * 2010-08-04 2014-05-14 日本放送協会 コンテンツサーバ、コンテンツ受信装置、属性鍵発行サーバ、ユーザ鍵発行サーバ、アクセス制御システム、コンテンツ配信プログラムおよびコンテンツ受信プログラム
JP2012248960A (ja) * 2011-05-25 2012-12-13 Sony Computer Entertainment Inc コンテンツ再生装置
JP5979503B2 (ja) * 2011-07-21 2016-08-24 パナソニックIpマネジメント株式会社 コンテンツ再生装置、コンテンツ再生方法及びコンテンツ配信システム
US20140222562A1 (en) 2013-02-04 2014-08-07 Qualcomm Incorporated Location based dynamic coupons
US10304325B2 (en) * 2013-03-13 2019-05-28 Arris Enterprises Llc Context health determination system
US20140295886A1 (en) * 2013-03-15 2014-10-02 Omesh Tickoo Geographical content addressing
JP6064728B2 (ja) * 2013-03-26 2017-01-25 東日本電信電話株式会社 情報提供システム、情報提供方法及びコンピュータプログラム
US20150088671A1 (en) * 2013-09-20 2015-03-26 Sony Corporation Providing customized entertainment based on wait time
US20160140095A1 (en) * 2014-11-18 2016-05-19 Samsung Electronics Co., Ltd. Device and method for managing reference information for provided content
US10332140B2 (en) * 2014-11-26 2019-06-25 Paypal, Inc. Line management based on user tolerance
US9841939B2 (en) * 2014-12-18 2017-12-12 Google Inc. Methods, systems, and media for presenting requested content on public display devices
US9775003B2 (en) * 2015-06-08 2017-09-26 CUSEUM, Inc. Location and activity aware media content delivery system
CN118605029A (zh) * 2016-01-19 2024-09-06 奇跃公司 利用映像的增强现实系统和方法
JPWO2019021575A1 (ja) * 2017-07-27 2020-06-11 ソニー株式会社 情報処理システム、情報処理装置、情報処理方法、および記録媒体

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003219287A (ja) * 2002-01-25 2003-07-31 Sharp Corp 放送受信装置
JP2006155085A (ja) * 2004-11-26 2006-06-15 Olympus Corp コンテンツ配信方法、コンテンツ配信装置、情報端末装置、及びコンテンツ配信システム
JP2010220151A (ja) * 2009-03-19 2010-09-30 Nomura Research Institute Ltd コンテンツ配信システム、コンテンツ配信方法及びコンピュータプログラム
JP2012212365A (ja) * 2011-03-31 2012-11-01 Sony Corp 情報処理装置、混雑度マップ生成装置、情報処理方法、プログラム、及び記録媒体
JP2014134922A (ja) 2013-01-09 2014-07-24 Sony Corp 情報処理装置、情報処理方法およびプログラム
JP2017502437A (ja) * 2013-11-15 2017-01-19 ジェフ マクマヌス リミテッドJeff Mcmanus Ltd. リソースへのアクセスを管理するための装置及び方法
JP2016066173A (ja) 2014-09-24 2016-04-28 ソフトバンク株式会社 情報提供システム及び情報提供装置
JP2017005705A (ja) * 2015-06-15 2017-01-05 カシオ計算機株式会社 情報発信装置、情報発信方法、プログラム及び携帯端末
JP2017022505A (ja) * 2015-07-09 2017-01-26 株式会社リクルートホールディングス 混雑状況推定システムおよび混雑状況推定方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3660688A4

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021026594A (ja) * 2019-08-07 2021-02-22 パナソニックIpマネジメント株式会社 入場者ガイド方法および入場者ガイドシステム
WO2021033680A1 (ja) * 2019-08-21 2021-02-25 株式会社リクルート 順番管理システム、順番管理装置、およびプログラム
JP2021033512A (ja) * 2019-08-21 2021-03-01 株式会社リクルート 順番管理システム、順番管理装置、およびプログラム
JP7419857B2 (ja) 2020-02-13 2024-01-23 大日本印刷株式会社 コンテンツ利用管理装置、プログラム及びコンテンツ配信システム
JP2021128492A (ja) * 2020-02-13 2021-09-02 大日本印刷株式会社 コンテンツ利用管理装置、プログラム及びコンテンツ配信システム
WO2021164907A1 (de) * 2020-02-21 2021-08-26 Vr Coaster Gmbh & Co. Kg Verfahren zum bereitstellen eines virtuell-reality-erlebnisses für mindestens einen fahrgast eines fahrgeschäfts sowie fahrgeschäft
WO2021193086A1 (ja) * 2020-03-25 2021-09-30 ソニーグループ株式会社 情報処理装置および方法、並びにプログラム
JP7518791B2 (ja) 2021-03-31 2024-07-18 ミサワホーム株式会社 宅内表示システム
JP2023142228A (ja) * 2022-03-24 2023-10-05 株式会社ポケモン プログラム、方法、情報処理装置、システム
JP7403568B2 (ja) 2022-03-24 2023-12-22 株式会社ポケモン プログラム、方法、情報処理装置、システム
JP7408728B1 (ja) 2022-06-27 2024-01-05 デジタル・アドバタイジング・コンソーシアム株式会社 情報処理装置、情報処理方法、プログラム及びシステム
JP7364808B1 (ja) 2023-01-27 2023-10-18 Kddi株式会社 情報処理装置、情報処理方法及びプログラム
JP2024106451A (ja) * 2023-01-27 2024-08-08 Kddi株式会社 情報処理装置、情報処理方法及びプログラム

Also Published As

Publication number Publication date
US11388016B2 (en) 2022-07-12
JPWO2019021575A1 (ja) 2020-06-11
EP3660688A1 (en) 2020-06-03
EP3660688A4 (en) 2020-11-11
US20220278864A1 (en) 2022-09-01
KR20200036811A (ko) 2020-04-07
US12074723B2 (en) 2024-08-27
CN110945489A (zh) 2020-03-31
US20200153648A1 (en) 2020-05-14

Similar Documents

Publication Publication Date Title
WO2019021575A1 (ja) 情報処理システム、情報処理装置、情報処理方法、および記録媒体
US10554870B2 (en) Wearable apparatus and methods for processing image data
US10965975B2 (en) Systems and methods for recognizing faces using non-facial information
WO2019116679A1 (ja) 情報処理装置、情報処理方法、およびプログラム
US9774690B2 (en) Information provision system, information provision device, information provision method, terminal device, and display method
CN110996796B (zh) 信息处理设备、方法和程序
US20200004291A1 (en) Wearable apparatus and methods for processing audio signals
CN109863532A (zh) 生成和显示在媒体覆盖中的定制头像
JP6692239B2 (ja) 情報処理装置、情報処理システム、端末装置、情報処理方法及び情報処理プログラム
US11651238B2 (en) Earpiece advisor
WO2018235379A1 (ja) サービス情報提供システムおよび制御方法
CN110214301B (zh) 信息处理设备、信息处理方法和程序
KR20220014254A (ko) 버스와 같은 차량에서 여행 가상현실 컨텐츠를 제공하는 방법 및 시스템
US20240013256A1 (en) Information providing apparatus, information providing system, information providing method, and non-transitory computer readable medium
US20240004471A1 (en) Information processing device, information processing method, program, and information processing system
US20240356772A1 (en) Information processing system, information processing device, information processing method, and recording medium
US20240029109A1 (en) Information providing apparatus, information providing system, information providing method, and non-transitory computer readable medium
US20240028123A1 (en) Information processing device, information processing method, program, and information processing system
EP4386687A1 (en) Information processing device, information processing method, and program
EP3792914A2 (en) Wearable apparatus and methods for processing audio signals
US20240295925A1 (en) Information processing device, information processing method, program, and information processing system
WO2021100515A1 (ja) 情報処理装置、及び情報処理方法
US20210082392A1 (en) Information processing device, information processing method, and program
JP2023123398A (ja) アバター実現方法、コンピュータプログラム及びコンピューティング装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18838949

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019532385

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2018838949

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2018838949

Country of ref document: EP

Effective date: 20200227