WO2013099629A1 - 情報処理装置及び方法 - Google Patents

情報処理装置及び方法 Download PDF

Info

Publication number
WO2013099629A1
WO2013099629A1 PCT/JP2012/082375 JP2012082375W WO2013099629A1 WO 2013099629 A1 WO2013099629 A1 WO 2013099629A1 JP 2012082375 W JP2012082375 W JP 2012082375W WO 2013099629 A1 WO2013099629 A1 WO 2013099629A1
Authority
WO
WIPO (PCT)
Prior art keywords
ring
group
information processing
information
unit
Prior art date
Application number
PCT/JP2012/082375
Other languages
English (en)
French (fr)
Inventor
勇志 岡
吉洋 中西
洋平 福馬
濱田 一規
健司 川口
豪紀 川内
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to JP2013551599A priority Critical patent/JP5884831B2/ja
Priority to US14/364,311 priority patent/US9992851B2/en
Priority to CN201280063730.5A priority patent/CN104169836B/zh
Publication of WO2013099629A1 publication Critical patent/WO2013099629A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/105Controlling the light source in response to determined parameters
    • H05B47/115Controlling the light source in response to determined parameters by determining the presence or movement of objects or living beings
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F21LIGHTING
    • F21VFUNCTIONAL FEATURES OR DETAILS OF LIGHTING DEVICES OR SYSTEMS THEREOF; STRUCTURAL COMBINATIONS OF LIGHTING DEVICES WITH OTHER ARTICLES, NOT OTHERWISE PROVIDED FOR
    • F21V33/00Structural combinations of lighting devices with other articles, not otherwise provided for
    • F21V33/0004Personal or domestic articles
    • F21V33/0008Clothing or clothing accessories, e.g. scarfs, gloves or belts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B7/00Radio transmission systems, i.e. using radiation field
    • H04B7/24Radio transmission systems, i.e. using radiation field for communication between two or more posts
    • H04B7/26Radio transmission systems, i.e. using radiation field for communication between two or more posts at least one of which is mobile
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72409User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72409User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
    • H04M1/724094Interfacing with a device worn on the user's body to provide access to telephonic functionalities, e.g. accepting a call, reading or composing a message
    • H04M1/724095Worn on the wrist, hand or arm
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72409User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
    • H04M1/72412User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories using two-way short-range wireless interfaces
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/175Controlling the light source by remote control
    • H05B47/19Controlling the light source by remote control via wireless transmission
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02BCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
    • Y02B20/00Energy efficient lighting technologies, e.g. halogen lamps or gas discharge lamps
    • Y02B20/40Control techniques providing energy savings, e.g. smart controller or presence detection

Definitions

  • the present technology relates to an information processing apparatus and method, and more particularly, to an information processing apparatus and method that can realize a new form of communication tool.
  • This technology has been made in view of such a situation, and makes it possible to realize a new form of communication tool.
  • An information processing apparatus includes a light emitting unit that emits light according to a light emission pattern that is specified by a combination of light emission parameters that indicate the characteristics of light emission, one or more other information processing apparatuses that include the light emitting unit, and the own apparatus. And a control unit that controls a light emission pattern of the light emitting unit based on a relationship between the group to which the light emitting device belongs and the own device or a relationship between the other device and another information processing device belonging to the group.
  • the external target is another information processing device that does not belong to the group, and includes at least the light emitting unit and the sensor unit, and the control unit is configured such that the group to which the device belongs belongs to the sensor unit of the external target.
  • the condition that the target is targeted by the external object is determined as the condition of the influence of the external object, and it is determined whether the condition of the external effect and the condition of the relationship are satisfied, and the light emitting unit
  • the light emission pattern can be controlled.
  • the external object is an imaging device that photographs a plurality of users of each of the own device and one or more other information processing devices belonging to the group, and the communication control unit is determined by the swell determination unit When the degree of swell is equal to or greater than the threshold value, a shooting start request can be transmitted to the imaging device so that shooting of the imaging device with the user of the device as a shooting target is started.
  • the swell determination unit is configured to generate the swell based on information indicating a degree of relevance or difference in synchrony of movements of a plurality of users' bodies or body parts, which is generated based on a detection result of the sensor unit. The degree can be determined.
  • the external object is a predetermined image of a user of the information processing apparatus belonging to the group or one or more of the other information processing apparatuses, from an imaging apparatus that captures a place where the group exists, and the imaging result of the imaging apparatus.
  • an external device that obtains a photographing result indicating a state of a time zone, and the communication control unit determines a time when the degree of the swell determined by the swell determination unit is equal to or greater than a threshold value by a user of the user's own device. It can be transmitted to the external device as acquisition information used when acquiring a photographing result indicating a state of a time zone including the time.
  • the communication control unit can also transmit the position of the device itself to the external device as the acquisition information.
  • the communication control unit receives information capable of specifying a light emission pattern of the light emitting unit of another information processing apparatus belonging to the group, and the control unit can specify the light emission pattern received by the communication control unit
  • the light emission pattern of the light emitting unit can be controlled based on the light emission pattern specified by the information.
  • the connecting part can connect a part of the part by elastic deformation of the material.
  • the information processing method according to the first aspect of the present technology is a method corresponding to the information processing apparatus according to the first aspect of the present technology described above.
  • FIG. 1 shows schematic structure of a ring. It is a perspective view of a ring. It is a figure which shows schematic structure of a board
  • An example of the configuration of a list of management information is shown.
  • An example of the configuration of a list of management information is shown. It is a flowchart explaining the flow of the process which SNS and a video management apparatus perform in cooperation. It is a figure explaining the 5th example of group control. It is a flowchart explaining the flow of a behavior control process. It is a figure which shows the selection method of a leader. It is a figure which shows a mode that a group expands. It is a state transition diagram which shows an example of the state which a ring can take. It is a figure showing a state transition until a group disappears.
  • An information processing apparatus to which the present technology is applied has a diameter suitable for being worn on a user's arm, such as a wristband, a bracelet, or the like, in which various sensors, wireless modules, light emitting elements, vibrators, and the like are incorporated.
  • a ring-type device (hereinafter abbreviated as a ring), which is worn on the user's arm.
  • the basic functions of the ring are light emission and vibration, but there are many patterns (substantially infinite) of these light emission and vibration.
  • Information obtained by the built-in sensor and information obtained from the outside in the form of communication It is possible to selectively switch according to various types of information.
  • a group consisting of a plurality of rings attached to respective arms of the plurality of users.
  • the control using at least a part of the plurality of rings is executed.
  • Such control is hereinafter referred to as group control.
  • group control For example, control of light emission and vibration of each of a plurality of rings in the group, and control based on light emission and vibration of each of the plurality of rings with respect to an object (information processing device such as a camera) other than the ring are examples of group control. It is.
  • each of a plurality of rings is based on the relationship between one or more other rings and the group to which the ring itself belongs and the ring itself, or the relationship between a predetermined other ring belonging to the group and the ring itself.
  • the light emission and vibration are controlled.
  • light emission and vibration of each of the plurality of rings are controlled based on the result of communication with an object other than the ring that does not belong to the group.
  • FIG. 1 is a diagram illustrating a schematic configuration of a ring 1 as an embodiment of an information processing apparatus to which the present technology is applied.
  • 1A is a front view of the ring 1.
  • the front surface is a surface when the arm to which the ring 1 is attached is viewed from the fingertip side of the hand.
  • the upper diagram in FIG. 1A is a top view of the ring 1 when the ring 1 is viewed in the direction of the arrow a.
  • 1A is a right side view of the ring 1 when the ring 1 is viewed in the direction of the arrow b.
  • the lower diagram in FIG. 1A is a bottom view of the ring 1 when the ring 1 is viewed in the direction of the arrow c.
  • 1A is a left side view of the ring 1 when the ring 1 is viewed in the direction of the arrow d.
  • FIG. 1B is a rear view of the ring 1.
  • a substrate 21 is embedded in the inner peripheral portion 1 a of the ring-shaped ring 1.
  • various sensors, a wireless module, a light emitting element, a vibration mechanism, and the like are mounted on the substrate 21.
  • a connecting portion 22 is provided at a position facing the substrate 21.
  • the connecting portion 22 opens and connects both ends of the circumferential portion constituting the side surface of the ring 1. That is, the user can pass the ring 1 through the arm by removing both ends of the connecting portion 22 or remove the ring 1 and can attach the ring 1 by connecting both ends of the connecting portion 22. it can.
  • the outer peripheral portion 1b of the ring 1 When viewed from the front or the back, the outer peripheral portion 1b of the ring 1 is circular, whereas the inner peripheral portion 1a is elliptical.
  • the reason why the outer peripheral portion 1b of the ring 1 is circular is to uniformly guide light from the light emitting element mounted on the substrate 21.
  • the reason why the inner peripheral portion 1a of the ring 1 is elliptical is to improve the wearing feeling of the ring 1 by adopting a shape that matches the shape of the user's arm.
  • FIG. 2 is a perspective view of the ring 1.
  • FIG. 2A is a perspective view of the ring 1 from a direction in which the substrate 21 can be visually recognized.
  • B of FIG. 2 is a perspective view of the ring 1 from a direction in which the connecting portion 22 can be visually recognized. As shown in FIG. 2, both ends of the circumferential portion of the ring 1 are connected at the connecting portion 22.
  • FIG. 3 is a diagram showing a schematic configuration of the substrate 21 mounted on the ring 1.
  • 3A is a front view of the substrate 21.
  • the front surface is a surface on which various sensors, wireless modules, light emitting elements, vibration mechanisms, and the like are mounted.
  • 3A is a top view of the substrate 21 when the substrate 21 is viewed in the direction of the arrow a.
  • 3A is a right side view of the substrate 21 when the substrate 21 is viewed in the direction of the arrow b.
  • the lower diagram in FIG. 3A is a bottom view of the substrate 21 when the substrate 21 is viewed in the direction of the arrow c.
  • the left side of FIG. 3A is a left side view of the substrate 21 when the substrate 21 is viewed in the direction of the arrow d.
  • FIG. 3B is a rear view of the substrate 21.
  • FIG. 3C is a perspective view of the substrate 21.
  • a CPU (Central Processing Unit) 31, a wireless module 32, a triaxial acceleration sensor 33, and an LED (Light Emitting Diode) 34 are mounted on the front surface of the substrate 21.
  • the wireless module 32 is disposed in a substantially central portion, and each of the four LEDs 34 is disposed near the four corners of the wireless module 32.
  • the CPU 31 is disposed at one end of the both ends of the substrate 21 in the longitudinal direction, and the triaxial acceleration sensor 33 is disposed at the other end.
  • the CPU 31 executes various processes according to a program or the like recorded in a built-in memory (a storage unit 88 in FIG. 1 described later).
  • the internal memory appropriately stores data necessary for the CPU 31 to execute various processes.
  • the wireless module 32 exchanges various types of information with other information processing apparatuses or other rings 1 through wireless communication.
  • the triaxial acceleration sensor 33 detects acceleration in three axial directions substantially orthogonal to each other, and supplies sensor information indicating the detection result to the CPU 31. That is, the triaxial acceleration sensor 33 detects a change in physical quantity, that is, acceleration caused by the user's operation.
  • the LED 34 emits light in a plurality of patterns according to the control of the CPU 31.
  • the light emission pattern is a combination of light emission parameters indicating the characteristics of light emission, that is, a combination of one or more elements among a plurality of elements including, for example, light quantity, light emission color, time of light emission interval, and time for which light emission continues. Identified.
  • the substrate 21 may be provided with a sensor for acquiring biological information such as a heart rate sensor, a blood pressure sensor, and a body temperature sensor. Further, the substrate 21 may be provided with a sensor for acquiring environmental information, such as a geomagnetic sensor, a pressure sensor, an air temperature sensor, a humidity sensor, a sound sensor, a video sensor, an ultraviolet sensor, and a radioactivity sensor.
  • a sensor for acquiring biological information such as a heart rate sensor, a blood pressure sensor, and a body temperature sensor.
  • environmental information such as a geomagnetic sensor, a pressure sensor, an air temperature sensor, a humidity sensor, a sound sensor, a video sensor, an ultraviolet sensor, and a radioactivity sensor.
  • a vibration mechanism 35 is mounted on the back surface of the substrate 21.
  • the vibration mechanism 35 vibrates in a plurality of patterns according to the control of the CPU 31.
  • the vibration pattern is specified by a combination of vibration parameters indicating the characteristics of the vibration, that is, a combination of one or more elements among a plurality of elements including, for example, the number of vibrations, the time between vibrations, and the time during which vibrations continue. .
  • the substrate 21 has a size that can be hidden by a logo or mark drawn on the surface of the ring 1, so that even if the main body of the ring 1 is transparent or translucent, the appearance is not impaired.
  • FIG. 4 is a cross-sectional view of the ring 1.
  • 4A is a cross-sectional view of the ring 1 taken along the line mm ′ in the diagram on the left side of FIG. 1A.
  • FIG. 4B is a cross-sectional view of the ring 1 taken along the line nn ′ in the diagram on the left side of FIG.
  • the main body 20 of the ring 1 has a three-layer structure of an inner light guide layer 41 and a reflection layer / diffusion layer 42 sandwiching the light guide layer 41 from the inner peripheral side and the outer peripheral side. is doing.
  • the light guide layer 41 guides the light emitted from the LEDs 34 of the substrate 21 to the entire ring 1 like the optical fiber cable.
  • the reflection / diffusion layer 42 reflects and diffuses the light guided by the light guide layer 41 of the substrate 21 to the outside of the ring 1.
  • the plurality of LEDs 34 are arranged in an axially symmetric position without a shield.
  • the light emitted from the LEDs 34 arranged in this way is guided to the entire body 20 of the ring 1 by the light guide layer 41 and diffused to the outside of the ring 1 by the reflection / diffusion layer 42.
  • a groove 20a is formed inside the connecting portion 22 of the ring 1, and a plurality of suction plates 43 made of iron or the like that are attracted to the magnet are formed at the bottom of the groove 20a (see FIG. 4).
  • a smaller number (two in the example of FIG. 4) of magnets 44 than the attracting plate 43 is fitted on the outer side of the connecting portion 22 of the ring 1 and fits into a groove 20 a provided on the inner side of the connecting portion 22. Is provided.
  • both ends of the circumferentially long portion of the ring 1 are connected by the attractive force that the magnet 44 attracts the attracting plate 43. Both ends are separated by applying a force larger than the adsorption force.
  • connection portion 22 allows the ring 1 to be attached to arms of various sizes from thin arms to thick arms.
  • connection portion 22 is not provided with a fastener or the like, it is easy for the user to wear and is easy to attach and detach, and the light from the LED 34 is guided and diffused without being blocked.
  • the light quantity at each of both ends of the ring 1 is weak, the light is added to the user's eyes as a result of the addition of the light quantity because the both ends are overlapped by the connecting part 22. Since it looks as if it is uniformly diffused, the appearance is improved.
  • the vibration mechanism 35 provided on the substrate 21 is provided so as to protrude from the inner peripheral portion of the ring 1. Thereby, since the vibration mechanism 35 is brought into contact with the user's arm, the vibration of the vibration mechanism 35 is easily conducted to the user's arm.
  • a synthetic resin such as polyurethane elastomer (RU-842A-CLR) can be employed.
  • Both the inner side and the outer side of the connecting portion 22 are transparent or translucent, but the outer side contains, for example, 5% of a diffusing material that diffuses light.
  • suction plate 43 for example, SUS430 can be adopted. Further, as a material of the magnet 44, for example, neodymium can be adopted.
  • the substrate 21 can be covered with a cover.
  • a cover material in this case, for example, aluminum can be adopted.
  • a spacer can be mounted between the cover and the vibration mechanism 35, and for example, PET can be adopted as the material of the spacer.
  • FIG. 5 is a diagram illustrating a schematic configuration of a ring 51 having a configuration different from that of the ring 1.
  • the ring 1 has a three-layer structure of the light guide layer 41 and the reflection / diffusion layer 42, whereas the ring 51 has a single-layer structure of only the light guide layer 61.
  • the connecting portion 22 of the ring 1 is provided with the magnet 44 and the suction plate 43, whereas the connecting portion 62 of the ring 51 is not provided with anything.
  • the connecting portion 62 is processed so that the inner end portion 60a and the outer end portion 60b come into contact with each other and overlap when the force is not applied to the main body 60 of the ring 51.
  • the main body 60 is elastically deformed so that the diameter of the circle formed by the main body 60 increases.
  • the main body 60 returns to the original position by the elastic force. That is, both ends of the connecting portion 62 are connected by elastic deformation of the material of the ring 51.
  • the material of the main body 60 the same polyurethane elastomer as that of the main body 20 can be employed.
  • the ring 51 can be attached to arms of various sizes by such a structure of the connecting portion 62.
  • the connecting portion 62 is not provided with a fastener or the like, it is easy for the user to wear and is easy to attach and detach, and the light from the LED 34 is guided without being blocked.
  • the light quantity in each of the both ends of the ring 51 is weakened, the light is added to the user's eyes as a result of the addition of the light quantity because the both ends are overlapped by the connecting part 62. Because it appears to shine evenly, the aesthetics of the appearance are improved.
  • the attracting plate 43, the magnet 44, the fastener, and the like are not provided in the connecting portion 62, the manufacturing cost can be suppressed.
  • the main body 60 of the ring 51 may have a three-layer structure like the ring 1.
  • the main body 20 of the ring 1 described above may have a one-layer structure, like the main body 60 of the ring 51.
  • the ring 1 will be described, but the present invention is also applicable to the ring 51.
  • FIG. 6 is a functional block diagram showing a functional configuration of the substrate 21 of FIG.
  • the substrate 21 includes a CPU 31, a wireless module 32, a triaxial acceleration sensor 33, an LED 34, and a vibration mechanism 35.
  • the substrate 21 may be provided with other sensors (not shown).
  • the sensor information acquisition part 81 mentioned later acquires the information detected from the other sensor which is not shown in figure.
  • the CPU 31 includes a sensor information acquisition unit 81, a rise determination unit 82, a behavior control unit 83, a communication control unit 84, a position information acquisition unit 85, a time information acquisition unit 86, a distance calculation unit 87, a storage unit 88, A target identification unit 89, a group formation unit 90, and a group information management unit 91 are included.
  • FIG. 7 is a diagram for explaining a first example of group control.
  • the group control of the first example of FIG. 7 includes, for example, a plurality of users until a plurality of users gather at the predetermined venue under the common purpose of participating in a predetermined event held at the predetermined venue. Control of light emission and vibration of the ring mounted on each of the user's arms is executed. In the first example, it is considered that a plurality of rings 1 heading for a predetermined venue form a group.
  • the user Uk wearing the ring 1-k (k is an arbitrary integer value of 1 or more) is heading to a venue where a predetermined event is held.
  • group control is performed to change the light emission and vibration patterns of the ring 1-k according to the number of other rings 1.
  • the storage unit 88 of the ring 1-k uses behavior information that defines the behavior of various patterns of light emission and vibration, and information including position information of a predetermined venue (hereinafter referred to as event information) in an arbitrary manner. It is assumed that it is acquired and stored in
  • the position information acquisition unit 85 of the ring 1-1 acquires the current position information of the ring 1-1 by using GPS (Global Positioning System).
  • the distance calculation unit 87 calculates the distance to the venue from the current location information of the ring 1-1 acquired by the location information acquisition unit 85 and the location information of the predetermined venue stored in the storage unit 88. To do. In this case, it is assumed that the distance calculation unit 87 calculates that the distance between the ring 1-1 and the venue is within a preset one kilometer.
  • the communication control unit 84 of the ring 1-1 starts acquiring the position information of the other ring 1 by the wireless module 32, and detects the number of the other rings 1 existing within a predetermined range.
  • the communication control unit 84 of the ring 1-1 determines the other ring 1 existing within the predetermined range from the acquired position information of the other ring 1-2 existing within the predetermined range. Is detected to be one.
  • the behavior control unit 83 of the ring 1-1 has a predetermined pattern according to the behavior information stored in the storage unit 88, for example, when the number of other rings 1 existing within a predetermined range is 5 or less. In the first pattern defined in the above, light emission and vibration occur.
  • the behavior control unit 83 of the ring 1-1 uses the number of other rings 1 existing within a predetermined range as the pattern of light emission and vibration from the first pattern in the upper side of FIG. Change to the second pattern prescribed in the case. As a result, the ring 1-1 emits light and vibrates in the second pattern. In this case, the second pattern of light emission and vibration is set so that the amount of light emission and the strength of vibration increase compared to the first pattern.
  • the behavior control unit 83 of the ring 1-1 determines the number of other rings 1 existing within a predetermined range from the second pattern of the second diagram from the top in FIG.
  • the pattern is changed to the third pattern defined in the case of 100 or more.
  • the ring 1-1 emits light and vibrates in the third pattern.
  • the third pattern of light emission and vibration is set so that the amount of light emission and the strength of vibration increase compared to the second pattern.
  • FIG. 8 is a flowchart for explaining the flow of behavior control processing.
  • the storage unit 88 stores event information.
  • the event information includes behavior information and position information of a predetermined venue.
  • the event information may be stored in advance in the storage unit 88 of the ring 1 or may be provided from the event organizer by any providing means.
  • step S12 the distance calculation unit 87 calculates the distance to a predetermined venue. That is, the distance calculation unit 87 calculates the distance to the venue from the current location information of the ring 1 acquired by the location information acquisition unit 85 and the location information of the predetermined venue stored in the storage unit 88.
  • step S13 the distance calculation unit 87 determines whether the distance from the current position of the ring 1 to the predetermined venue is within a predetermined range. For example, it is determined whether the distance from the current position of the ring 1 to a predetermined venue is within a preset one kilometer.
  • step S13 If the distance is not within the predetermined range, it is determined as NO in step S13, the process returns to step S12, and the subsequent processes are repeated. That is, until the distance is within the predetermined range, the loop processing of step S12 and step S13 is repeated.
  • Step S13 when the user wearing the ring 1 approaches the predetermined venue and the distance to the venue is within the predetermined range, it is determined as YES in Step S13, and the process proceeds to Step S14.
  • step S14 the communication control unit 84 acquires position information of another ring 1 existing within a predetermined range. That is, the communication control unit 84 starts to acquire the position information of the other ring 1 by the wireless module 32, and detects the number of other rings 1 existing within a predetermined range.
  • step S15 the behavior control unit 83 executes the behavior according to the behavior information stored in the storage unit 88.
  • the behavior information defines a light emission and vibration pattern that changes in accordance with the number of other rings 1 existing within a predetermined range.
  • the light emission amount and vibration intensity patterns defined in the behavior information are set so as to increase as the number of other rings 1 existing within a predetermined range increases.
  • step S16 the behavior control unit 83 determines whether the end of the process is instructed.
  • the instruction to end the process is not limited.
  • a user who wears the ring 1 may perform a predetermined operation instructing the end of the process.
  • predetermined information instructing the end of processing may be transmitted to the ring 1 by the event organizer.
  • step S16 If the end of the process is not instructed, it is determined as NO in step S16, the process returns to step S14, and the subsequent processes are repeated. That is, the loop process of steps S14 to S16 is repeated until the end of the process is instructed.
  • Step S16 Thereafter, when the end of the process is instructed, it is determined as YES in Step S16, and the behavior control process ends.
  • the light emission amount and the vibration intensity pattern change using the distance to the venue and the number of rings 1 existing within a predetermined range as parameters. That is, the light intensity of the ring 1 and the intensity of vibration increase as the venue approaches the venue, and the user's sense of expectation for the event and a sense of excitement of participating in the event gradually increase.
  • the user wearing the ring 1 can obtain sympathy and a sense of unity with other users in the surrounding area by observing that the ring 1 of the other users in the surrounding area also emits light and vibrates.
  • the user of the ring 1 can also obtain a sense of superiority with respect to other users who are not wearing the ring 1.
  • FIG. 9 is a diagram illustrating a second example of group control.
  • the group control of the second example of FIG. 9 is a group of a plurality of rings 1 mounted on each of a plurality of user arms, for example, in a venue where an event by a predetermined artist is performed. Control is performed in which a group in which leaders are selected from the ring 1 is formed.
  • group control of the second example when an artist wearing the ring 1 that does not belong to a group designates the group as a target, only the reader reacts to emit light and vibrate.
  • the method for selecting the leader is not particularly limited, but in this embodiment, an action that can express the user's mood uplift, that is, the excitement of the event, is detected by each of the plurality of rings 1 in the group, and the detection result is A method in which a leader is elected based on this is adopted.
  • the group formation unit 90 of the ring 1-k attached to the user Uk compares the degree of swell of the user Uk with the degree of swell of other users within a certain range. Then, a group is formed in which the ring 1 attached to the user with the highest degree of excitement is the leader.
  • the sensor information acquisition unit 81 the swell determination unit 82, the behavior control unit 83, the communication control unit 84, the position The information acquisition unit 85, the storage unit 88, the target identification unit 89, the group formation unit 90, and the group information management unit 91 function.
  • the sensor information acquisition unit 81 of the ring 1-k detects information (hereinafter referred to as motion information) indicating a change in physical quantity caused by the movement of the arm swing by the triaxial acceleration sensor 33.
  • the swell determination unit 82 of the ring 1-k recognizes the number of times the arm on which the ring 1-k is worn is swung from the motion information, and determines that the degree of swell is greater as the number of times increases.
  • the group forming unit 90 forms a group gr in which the leader exists by repeating the comparison between the degree of swell of the other ring 1 received by the communication control unit 84 and the degree of swell of itself. Details of the method for forming the group gr will be described later.
  • a group gr including rings 1-1 to 1-N is formed. Then, the user U4 wearing the ring 1-4 on his / her arm has performed the action that can express the most excitement (for example, swings many arms), so the degree of the excitement of the ring 1-4 becomes the largest, and the ring 1 ⁇ 4 is elected as the leader.
  • the most excitement for example, swings many arms
  • the artist UA wearing the ring 1-A on his arm designates a predetermined group gr in the venue as a target by a predetermined movement.
  • the predetermined movement the movement in which the artist UA swings the arm wearing the ring 1-A and points to the predetermined group gr as a target is employed.
  • the target specifying unit 89 of the ring 1-A specifies the coordinate value of the target group gr. Details of the specification of the coordinate value of the target by the target specifying unit 89 will be described later with reference to FIGS.
  • the nomination information including the target coordinate value and the behavior information is transmitted to the plurality of rings 1 existing in the venue by the communication control unit 84 of the ring 1-A.
  • the behavior control unit 83 of the ring 1 that has received the designation information reacts only when it is a leader of the group gr that is targeted, and controls the light emission and vibration of the pattern defined in the behavior information.
  • FIG. 10 is a configuration diagram of an information processing system in the second example of group control.
  • the information processing system 100 includes a ring 1-A and a plurality of rings belonging to each of the groups gr1 to grM (M is an integer value of 1 or more).
  • the group grk (k is an arbitrary integer value from 1 to M) is composed of a plurality of rings 1-1 to 1-N existing within a certain range.
  • Ring 1-A does not belong to any group gr. *
  • Ring 1-A and a plurality of rings 1 included in group gr are connected to each other by, for example, a multi-hop wireless LAN (Local Area Network) mesh network defined in IEEE802.11S.
  • LAN Local Area Network
  • FIG. 11 is a diagram showing a fixed terminal device for calculating the relative position between the rings 1.
  • fixed terminal apparatuses cp1 to cp3 are arranged apart from each other on the stage ST installed in the venue.
  • a fixed terminal device cp When it is not necessary to individually distinguish the fixed terminal devices cp1 to cp3, they are collectively referred to as a fixed terminal device cp.
  • the fixed terminal device cp is fixed at a predetermined position of the stage ST, and its position information is known.
  • the fixed terminal device cp is connected to a multi-hop wireless LAN mesh network in which the ring 1-A and a plurality of rings 1 are connected.
  • the position information acquisition unit 85 of the ring 1-A uses information obtained in wireless communication with the plurality of rings 1 and fixed terminal devices cp by the communication control unit 84 on the wireless LAN mesh network including the fixed terminal device cp. Thus, the coordinates of the relative positions of the ring 1-A and the plurality of rings 1 are calculated. That is, the position information acquisition unit 85 has three points based on the position of the fixed terminal device cp based on information such as electric field strength and delay time obtained by wireless communication with the fixed terminal device cp by the communication control unit 84. By performing surveying, the coordinates of the relative positions of the ring 1-A and the plurality of rings 1 are calculated. The calculated coordinates of the relative positions of the ring 1-A and the plurality of rings 1 are stored in the storage unit 88 of the ring 1-A.
  • the position information acquisition units 85 of the plurality of rings 1 included in the group gr also calculate the coordinates of the relative positions of the ring 1-A and the plurality of other rings 1, and store them in the storage unit 88.
  • the group forming unit 90 of the ring 1 forms a group gr composed of a plurality of rings 1 existing within a certain range.
  • the group forming unit 90 of the ring 1 stores the coordinate value of the formed group gr in the group information management unit 91 as its own coordinate value.
  • the coordinate values of the group gr are the coordinate value of the center position of the group gr (the position of the ring 1 existing in the center among the plurality of rings 1 in the group gr) and the range of the group gr (the group existing farthest from the center position). distance to ring 1 in gr).
  • the formation method of the group gr is not limited, for example, it is formed as follows.
  • the group forming unit 90 of the ring 1 stores the coordinate value acquired by the position information acquiring unit 85 through communication using the fixed terminal device cp in the group information managing unit 91 as an initial value of the coordinate value of the group gr. .
  • the group forming unit 90 stores a flag (hereinafter referred to as an affiliation flag) indicating whether or not it belongs to the group gr in the group information management unit 91.
  • the initial value of the affiliation flag is “does not belong”.
  • the group forming unit 90 stores in the group information management unit 91 a flag indicating whether or not it is a leader of the group gr (hereinafter referred to as a leader flag).
  • the initial value of the reader flag is “not a reader”.
  • the communication control unit 84 of the ring 1 searches for another ring 1 that can be paired, that is, another ring 1 that can establish wireless communication. Then, the group forming unit 90 of the ring 1 executes a change process of the following flag and its own coordinate value (that is, the coordinate value of the group gr) with the other ring 1 that can be paired.
  • the group forming unit 90 of the ring 1 determines the degree of mutual swell by the determination result by the swell determination unit 82 when the affiliation flag of the ring 1 and the affiliation flag of the other ring 1 are both “not belonging”. Use and compare. In this case, it is determined that the degree of swell is greater as the number of times the arm with the ring 1 is swung is increased.
  • the group forming unit 90 of the ring 1 with the higher degree of swell changes its own leader flag to “is a leader”.
  • the group forming unit 90 of the ring 1 having the smaller swell degree changes its reader flag to “not a leader”.
  • the group forming unit 90 of the ring 1 with the smaller degree of swell changes its coordinate value to the coordinate value of the group gr, that is, the coordinate value of the ring 1 with the higher degree of swell. Then, the group forming units 90 of both rings 1 change the belonging flag to “belongs”.
  • Such a process is repeated between a plurality of rings 1 existing within a certain range, thereby forming a group gr where the ring 1 as a leader exists.
  • the target specifying unit 89 uses the coordinate value of the relative position of the ring 1 stored in the storage unit 88, the direction of the group grk, and the distance to the group grk (hereinafter, the approximate coordinate value of the group grk (hereinafter referred to as “group grk”). (Referred to as target coordinate values).
  • group grk the approximate coordinate value of the group grk
  • Information including target coordinate values and behavior information determined in this way (hereinafter referred to as nomination information) is transmitted to a plurality of rings 1 existing in the venue.
  • FIG. 13 is a diagram for explaining the flow of the process of nominating the target (hereinafter referred to as the nomination process) among the processes executed by the ring 1-A attached to the arm of the artist UA.
  • FIG. 14 is a diagram for explaining the flow of the process of receiving a nomination from ring 1-A (hereinafter referred to as the nomination receiving process) among the processes executed by ring 1 on the audience side.
  • the target specifying unit 89 specifies a predetermined group gr as a target. That is, the target specifying unit 89 is set as the target from the direction information d, the motion information v acquired in Steps S32 and S33, and the coordinates of the relative positions of the plurality of rings 1 calculated in advance using the fixed terminal device cp. A target coordinate value of a predetermined group gr is specified.
  • step S35 the communication control unit 84 transmits the designation information to the plurality of rings 1 in the venue.
  • the designation information includes the target coordinate value and the behavior information. Thereby, the nomination process ends.
  • step S51 the group forming unit 90 forms a group gr in which one ring 1 serving as a leader exists by the above-described method of forming the group gr.
  • step S53 the group information management unit 91 determines whether the target coordinate value included in the nomination information matches its own coordinate value. That is, the group information management unit 91 determines whether or not the target coordinate value and the own coordinate value (that is, the coordinate value of the group gr) stored when the group gr is formed in the process of step S51 match. Specifically, when the difference between the target coordinate value and the coordinate value of the ring 1 (that is, the coordinate value of the group gr) is within a predetermined range, it is determined that they match.
  • Step S53 If the target coordinate value coincides with its own coordinate value, it is determined as YES in Step S53, and the process proceeds to Step S54. On the other hand, when the target coordinate value does not coincide with its own coordinate value, it is determined as NO in Step S53, and the process proceeds to Step S56. The processing after step S56 will be described later.
  • step S54 the group information management unit 91 determines whether it is a reader. That is, the group information management unit 91 determines whether the reader flag is “reader”.
  • step S54 If it is a reader, it is determined as YES in step S54, and the process proceeds to step S55. On the other hand, if it is not a reader, that is, if the reader flag is “not a reader”, it is determined as NO in step S54, and the process proceeds to step S56. The processing after step S56 will be described later.
  • step S55 the behavior control unit 83 executes the behavior according to the behavior information. That is, the behavior control unit 83 controls the behavior of the LED 34 and the vibration mechanism 35 so that the ring 1 emits light and vibrates according to a predetermined pattern defined in the behavior information included in the nomination information received in step S52. To do.
  • step S53 when it is determined NO in step S53 or step S54, the process proceeds to step S56.
  • the shape of the ring 1-A attached by the artist UA may be the ring shape described above or a stick shape.
  • the ring 1-A has a stick shape, it is held in the hand of the artist UA.
  • the operation of the ring 1-A of artist UA is basically the same as described above, but no position information is used.
  • the operation of the plurality of rings 1 on the audience side is basically the same as described above, but there is no concept of group gr or reader due to the characteristics of waves.
  • the wave is executed specifically as follows.
  • the ring 1 on the audience side Upon receiving this instruction, the ring 1 on the audience side emits light and vibrates in a predetermined pattern, subtracts the number of hops, and transmits an instruction including a unique ID and the number of pops to the other ring 1 on the audience side. To do.
  • the other ring 1 on the spectator side that has received this instruction emits and vibrates a predetermined pattern when the ID is new (for example, larger than the last received ID), and subtracts the number of hops.
  • an instruction having a unique ID and the number of pops is transmitted to another ring 1 on the other audience side.
  • the wave is realized by sequentially transmitting light emission and vibration in the ring 1 until the pop number becomes zero.
  • FIG. 15 is a diagram illustrating a third example of group control.
  • the degree of excitement is based on predetermined actions of a plurality of users whose rings 1 are worn on their arms. Determined.
  • the predetermined action for which the degree of excitement is determined is not particularly limited, but in the present embodiment, a plurality of users having the same type of ring 1 existing within a certain range on their arms perform synchronized movements. The action to be taken is adopted.
  • a plurality of rings 1 existing within a certain range form a group gr.
  • a shooting start request is transmitted from the ring 1 of the user who is determined to be excited in the group gr to the camera in the hall or the control device of the camera.
  • the camera starts shooting with the user and its surroundings as shooting targets, and information indicating the start of the shooting (hereinafter referred to as shooting start information) is transmitted from the camera or the control device of the camera.
  • shooting start information information indicating the start of the shooting
  • photography start information light-emits and vibrates.
  • the sensor information acquisition unit 81 When the group control of the third example of FIG. 15 is executed, among the functional configuration of the CPU 31 of FIG. 6, the sensor information acquisition unit 81, the swell determination unit 82, the behavior control unit 83, the communication control unit 84, the position The information acquisition unit 85 and the storage unit 88 function.
  • the communication control unit 84 of the ring 1 receives, by the wireless module 32, the motion information detected by the sensor information acquisition unit 81 of one or more other rings 1 existing within a certain range.
  • the swell determination unit 82 of the ring 1 is information (hereinafter referred to as “relationship”) indicating the degree of relevance or difference of the synchrony of movement among a plurality of users based on the received movement information of one or more other rings. (Referred to as information).
  • the relevance level or dissimilarity of movement synchrony refers to the relevance level or dissimilarity of movements of a plurality of users' bodies or body parts. That is, as the motions of the bodies or parts of the plurality of users match, the relevance of motion synchrony increases (that is, the difference in motion synchrony decreases).
  • the related information is information indicating whether or not each user's operation is consistent. As the synchronized movement, for example, a dance with the same rhythm, tempo, and pattern by a plurality of users can be employed.
  • the swell determination unit 82 of the ring 1 determines that the swell degree is higher as the degree of relevance of the operation between the plurality of users is higher from the generated relation information between the plurality of users existing within a certain range.
  • the calculation method of the related information is not particularly limited, but the calculation method described in JP 2011-87794 A is adopted in the present embodiment.
  • the rising determination unit 82 of the ring 1-1 attached to the user U1 generates related information based on the movement information from the other ring 1 within a certain range, and a plurality of users are obtained from the related information. The degree of swell is determined based on the recognition result.
  • the communication control unit 84 of the ring 1-1 transmits a photographing start request to a CCU (Camera Control Unit) that controls the camera 121.
  • the shooting start request includes the position information of the ring 1-1 acquired in advance by the position information acquisition unit 85 of the ring 1-1 by an arbitrary method.
  • FIG. 16 is a configuration diagram of an information processing system in the third example of group control.
  • the plurality of rings 1 and the CCU 122 are connected to each other by, for example, a multi-hop wireless LAN mesh network.
  • a communication method between the camera 121 and the CCU 122 is not particularly limited, and may be wired or wireless.
  • the imaging unit 141 has a mechanism for changing the direction of the optical axis (imaging direction) in addition to an optical system such as a lens and an imaging element.
  • the imaging unit 141 For example, the photographing is started after the direction of the optical axis is changed so as to be positioned at the center of the angle of view.
  • the imaging unit 141 changes the direction of the optical axis in the direction in which the specified imaging target exists.
  • the imaging unit 141 supplies shooting data obtained as a result of shooting to the conversion unit 142.
  • the communication control unit 143 instructs the imaging unit 141 to stop imaging, the imaging unit 141 stops imaging of the imaging target.
  • FIG. 18 is a diagram illustrating a flow of processing (hereinafter, referred to as a shooting request process) for transmitting a shooting request so as to be a shooting target of the camera 121 among the processes executed by the ring 1.
  • FIG. 19 is a diagram for explaining the flow of processing for controlling the camera 121 (hereinafter referred to as camera control processing) among the processing executed by the CCU 122.
  • FIG. 20 is a diagram for explaining a flow of processing (hereinafter referred to as shooting processing) for shooting a shooting target among the processing executed by the camera 121.
  • FIG. 21 is a diagram for explaining a processing relationship among the ring 1, the camera 121, and the CCU 122 of the information processing system 110.
  • the mutual processing relationship among the ring 1, the camera 121, and the CCU 122 in FIG. 21 can be easily understood by referring to the corresponding steps in FIGS.
  • a flowchart (corresponding to FIG. 18) illustrating an example of the shooting request process of the ring 1 is shown on the left side of FIG. 21, and a flowchart (corresponding to FIG. 19) illustrating an example of the camera control process of the CCU 122 is shown at the center.
  • On the right side a flowchart (corresponding to FIG. 20) for explaining an example of the photographing process of the camera 121 is shown.
  • step S72 the communication control unit 84 of the ring 1 acquires and transmits sensor information. That is, the communication control unit 84 receives and acquires the motion information detected by the sensor information acquisition unit 81 of one or more other rings 1 existing within a certain range by the wireless module 32. Then, the communication control unit 84 transmits the motion information acquired by the sensor information acquisition unit 81 thereof to one or more other rings 1 existing within a certain range.
  • step S73 the rising determination unit 82 of the ring 1 performs the rising determination. That is, the excitement determination unit 82 relates to the synchronization of motion among a plurality of users existing within a certain range based on the motion information of itself and one or more other rings 1 acquired in the process of step S72. Generate related information indicating the degree. Then, the upsurge determination unit 82 determines the upsurge degree from the related information.
  • step S74 the rising determination unit 82 of the ring 1 determines whether the determination result is equal to or greater than a threshold value. That is, the swell determination unit 82 determines whether the swell degree, which is the determination result of the swell determination, is equal to or greater than a preset threshold value.
  • step S76 the communication control unit 84 transmits an imaging start request to the CCU 122.
  • the imaging start request includes the position information of the ring 1 acquired by the position information acquisition unit 85 in the process of step S71.
  • step S91 in FIG. 19 the CCU 122 determines whether the imaging start request transmitted from the ring 1 in the process in step S76 in FIG. 18 has been received.
  • step S92 the CCU 122 transmits an instruction to change the shooting target to the camera 121. That is, the CCU 122 transmits, to the camera 121, an instruction to change the imaging target to the ring 1 indicated by the position information included in the imaging start request received in step S91.
  • step S101 of FIG. 20 the communication control unit 143 of the camera 121 determines whether the instruction to change the imaging target transmitted from the CCU 122 in the process of step S92 has been received.
  • Step S101 when an instruction to change the imaging target is received, it is determined as YES in Step S101, and the process proceeds to Step S102.
  • step S102 the imaging unit 141 of the camera 121 changes the shooting target to the ring 1 indicated by the position information included in the instruction to change the shooting target.
  • step S93 the CCU 122 transmits a shooting start instruction to the camera 121.
  • step S103 If the shooting start instruction is not received, it is determined as NO in step S103, the process returns to step S103, and the determination process of step S103 is repeated until the shooting start instruction is received.
  • step S93 in FIG. 19 the CCU 122 transmits shooting start information to the ring 1 in step S94.
  • the communication control unit 84 of the ring 1 determines whether or not the imaging start information transmitted from the CCU 122 in the process of step S94 in FIG. 19 has been received.
  • Step S77 when the imaging start information is received, it is determined as YES in Step S77, and the process proceeds to Step S78.
  • step S78 the behavior control unit 83 of the ring 1 executes the behavior according to the behavior information.
  • the behavior in this case is set so that the amount of emitted light and the strength of vibration are increased compared to the behavior executed in step S75. Thereby, the user can know the most exciting moment. Further, the user can know that he / she has been taken by the camera 121.
  • step S79 the communication control unit 84 of the ring 1 transmits a photographing stop request to the CCU 122 at a predetermined timing after photographing is performed. Thereby, the photographing request processing for the ring 1 is completed.
  • step S95 in FIG. 19 the CCU 122 determines whether or not the imaging stop request transmitted from the ring 1 in step S79 has been received.
  • step S95 If the photographing stop request is not received, it is determined as NO in step S95, the process returns to step S95, and the determination process in step S95 is repeated until the photographing stop request is received.
  • Step S95 After, when a photographing stop request is received, it is determined as YES in Step S95, and the process proceeds to Step S96.
  • step S ⁇ b> 96 the CCU 122 transmits an instruction to stop shooting to the camera 121. Thereby, the camera control process of the CCU 122 ends.
  • step S105 of FIG. 20 the communication control unit 143 of the camera 121 determines whether or not the photographing stop instruction transmitted from the CCU 122 in the process of step S96 of FIG. 19 has been received.
  • step S105 If the shooting stop instruction is not received, it is determined as NO in step S105, the process returns to step S105, and the determination process of step S106 is repeated until the shooting stop instruction is received.
  • Step S105 when an instruction to stop photographing is received, it is determined as YES in Step S105, and the process proceeds to Step S106.
  • step S ⁇ b> 106 the camera 121 stops shooting with the ring 1 as the shooting target. Thereby, the photographing process by the camera 121 ends.
  • the camera 121 can capture the moment when the user is most excited.
  • the camera 121 can target a user with a high degree of excitement and surrounding users, the audience can be informed of the excitement of the venue through the captured video.
  • the user wearing the ring 1 can know that the ring 1 emits light and vibrates, the user can be photographed by the camera 121, so that an appropriate facial expression can be created.
  • the user wearing the ring 1 can know that he / she has been photographed, the user can be more excited with the camera 121 in mind.
  • FIG. 22 is a diagram illustrating a fourth example of group control.
  • control 22 is roughly divided into control on the ring 1 side and control on the camera 121 and SNS (social network service) 171 side.
  • the information which shows the time (namely, the time which became excited) is acquired.
  • the communication control unit 84 of the ring 1-k sends the position information of the ring 1-k, the time information indicating the rising time, and the ring ID of the ring 1-k (hereinafter, this information is referred to as ring information) to the SNS 171. Send.
  • the SNS 171 stores the ring information as appropriate every time the ring information is transmitted from the ring 1.
  • FIG. 23 is a configuration diagram of an information processing system in the fourth example of group control.
  • the plurality of rings 1 and the SNS 171 are connected to each other by, for example, a multi-hop wireless LAN mesh network.
  • a communication method between the SNS 171 and the video management device 172 is not particularly limited, and is connected through, for example, the Internet. Further, the communication method between the video management device 172 and the camera 121 is not particularly limited, and may be wired or wireless.
  • SNS 171 manages user account information registered in advance. Details of the SNS 171 will be described later with reference to FIG.
  • the group forming unit 90 of the ring 1 searches for another ring 1 that can be paired, and executes the following flag and group ID change process with the other ring 1.
  • the group formation unit 90 of the ring 1 compares the group IDs of each other when the affiliation flags of the ring 1 and the other ring 1 are “not belonging” or “belonging”. As a result of the comparison of the group IDs, for example, when the group ID of the own group is larger, the group forming unit 90 of the ring 1 sets its own group ID to that of another ring 1 (that is, another ring 1 having a small group ID) Change to group ID. Furthermore, when the affiliation flag is “not belonging”, the group forming unit 90 of the ring 1 changes the affiliation flag to “belongs”.
  • FIG. 24 is a functional block diagram illustrating a functional configuration example of the SNS 171.
  • the communication control unit 191 controls wireless communication performed between the communication unit 192 such as a modem, the ring 1, and the video management device 172.
  • the imaging condition acquisition unit 146 acquires the imaging conditions detected by the detection unit 145 for each frame or field, for example.
  • video data for example, moving image data including a plurality of frames or fields
  • image capturing unit 141 was captured by a single camera 121 during a predetermined unit (for example, from a start instruction to an end instruction for capturing).
  • a predetermined unit for example, from a start instruction to an end instruction for capturing.
  • UMID Unique Material Identifier
  • the metadata generation unit 147 generates metadata including the shooting conditions acquired by the shooting condition acquisition unit 146 and the UMID generated by the shooting condition acquisition unit 146 in a format suitable for communication.
  • the communication control unit 211 controls communication performed between the communication unit 210 such as a modem, the camera 121, and the SNS 171. For example, when video data on which metadata is superimposed is transmitted from the camera 121, the communication control unit 211 causes the communication unit 210 to receive the video data.
  • the metadata extraction unit 212 extracts metadata from the video data received by the communication unit 210.
  • the metadata extraction unit 212 supplies the extracted metadata to the shooting target specifying unit 214 and supplies the video data to the read / write control unit 215.
  • the shooting location information storage unit 213 stores shooting location information.
  • the shooting location information is information indicating a location where the camera can shoot (for example, each location in the event venue). For example, in the present embodiment, the user (or its arm) in the venue where the predetermined event is performed. Since the attached ring 1) can be an object to be photographed, position information (seat number and latitude / longitude information) of each seat on which each user is seated is employed. Details of the shooting location information will be described below with reference to FIG.
  • the shooting location information includes the seat number of the venue seat and the latitude and longitude information of the seat.
  • the imaging target specifying unit 214 performs imaging for each segment data based on the metadata supplied from the metadata extraction unit 212 and the imaging location information stored in the imaging location information storage unit 213. Identify the target. In addition, since it is difficult to identify the user reflected in the classification data and the ring 1 itself using only the metadata and the shooting location information, the seat number predicted to be seated by the user is specified as the shooting target.
  • the read / write control unit 215 associates the video data supplied from the metadata extraction unit 212 with the shooting target specified by the shooting target specifying unit 214 in the video data storage unit 216 in file units (units that can be specified by UMID). Write (ie, remember). Further, the read / write control unit 215 retrieves and reads out the corresponding segment data from the video data storage unit 216 in response to a request for the segment data acquisition from the SNS 171, and transmits it to the SNS 171 via the communication unit 210.
  • the video data storage unit 216 stores video data associated with a shooting target in units of files. The management information of the stored video data will be described with reference to FIG.
  • FIG. 27 is a diagram showing management information of video data stored in the video data storage unit 216.
  • the video data stored in the video data storage unit 216 is managed in file units uniquely specified by the UMID.
  • a file with a predetermined UMID includes one or more pieces of classification data.
  • the UMID file contains only one actual video data, and this actual data is divided into one or more segment data and managed so that it can be read out in segment data units. Management information is stored in the video data storage unit 216 separately.
  • the management information in FIG. 27 includes a UMID, a time code, and a shooting target.
  • the time code is temporal information attached to each of a plurality of frames or fields constituting actual video data included in the file specified by the UMID, and is the first frame or field of the file.
  • the relative time with respect to the reference time is shown in the case where the reference time is the reference time.
  • the photographing target “around seat A15” is photographed at the position where the time code is “00: 01: 00: 05”.
  • the time code is “00: 20: 30: 20”
  • the subject to be photographed is “around seat B37”
  • the time code is “01: 10: 00: 17”. From the position, it can be seen that the subject to be photographed “around seat C22” is photographed.
  • the first segment data is the time “00: 01: 00: 05”.
  • This is video data showing a situation where “Seat A15 and its surroundings” were photographed.
  • the second segment data is video data indicating that “the vicinity of the seat B37” is captured at the time “00: 20: 30: 20”.
  • the third segment data is video data indicating that “the vicinity of the seat C22” is photographed at the time “01: 10: 00: 17”.
  • the shooting target of “around the seat Z33” is captured, and the time code is “01 : 02: 20: 21 ”, the subject around“ Seat Y21 ”is being shot, and the time code is“ 01: 10: 01: 12 ”where“ Seat X56 ” It can be seen that the subject is being photographed.
  • the following first to third division data are included in the file with the UMID “Y”.
  • the first classification data is the time “01: 01: 01: 15”.
  • the second segment data is video data indicating that “the vicinity of the seat Y21” is captured at the time “01: 02: 20: 21”.
  • the third segment data is video data indicating that “the vicinity of the seat X56” is captured at the time “01: 10: 01: 12”.
  • SNS 171 requests the video management apparatus 172 storing such management information to acquire predetermined segment data including the video that the user has been excited about. That is, the SNS 171 requests the video management device 172 to acquire the classification data using the date and time when the shooting target was shot and the shooting location (seat number) as search keys.
  • the read / write control unit 215 of the video management device 172 extracts the corresponding classification data from the video data stored in the video data storage unit 216 using the date and the shooting location as a search key.
  • the date and time when the shooting target was shot can be calculated from, for example, an 8-byte time stamp recorded in the UMID and the time code or the number of frames from the beginning of the file.
  • FIG. 28 is a diagram for explaining the flow of processing (hereinafter referred to as ring information transmission processing) for transmitting ring information to SNS 171 among the processing executed by ring 1.
  • FIG. 29 is a diagram for explaining the flow of processing for providing video data (hereinafter referred to as video data provision processing) among the processing executed by the SNS 171.
  • FIG. 30 is a diagram for explaining the flow of the process (hereinafter referred to as the shooting process) for shooting the shooting target among the processes executed by the camera 121.
  • FIG. 31 is a diagram for explaining the flow of processing (hereinafter referred to as video data management processing) in which video management device 172 manages video data.
  • FIG. 32 is a diagram for explaining a processing relationship among the ring 1, the SNS 171, the camera 121, and the video management apparatus 172 of the information processing system 160.
  • the mutual processing relationship among the ring 1, the SNS 171, the camera 121, and the video management apparatus 172 in FIG. 32 can be easily understood by referring to the corresponding steps in FIGS.
  • a flowchart (corresponding to FIG. 28) illustrating an example of ring information transmission processing of ring 1 is shown on the left side of FIG. 32, and a flowchart (example of video data providing processing of SNS 171) is illustrated second from the left (FIG. 32). Corresponding to 29). Also, a flowchart (corresponding to FIG.
  • FIG. 30 illustrating an example of the photographing process of the camera 121 is shown on the third from the left in FIG. 32, and an example of the video data management process of the video management device 172 is illustrated on the right side.
  • a flowchart (corresponding to FIG. 31) is shown.
  • the communication control unit 84 of the ring 1 requests the SNS 171 for authentication.
  • step S141 of FIG. 29 the communication control unit 191 of the SNS 171 determines whether an authentication request is made from the ring 1 in the process of step S121 of FIG.
  • step S141 If no authentication request is made, it is determined as NO in step S141, the process returns to step S141, and the determination process of step S141 is repeated until an authentication request is made.
  • step S141 if an authentication request is made from ring 1, it is determined as YES in step S141, and the process proceeds to step S142.
  • step S142 the authentication unit 193 executes ring 1 authentication processing.
  • step S143 the authentication unit 193 determines whether the ring 1 has been successfully authenticated.
  • step S143 If the authentication is not successful, it is determined as NO in step S143, the process returns to step S141, and the subsequent processes are repeated. That is, the loop processing of steps S141 to S143 is repeated until authentication is successful.
  • Step S143 After the authentication is successful, it is determined as YES in Step S143, and the process proceeds to Step S144. If the authentication is successful, information that the authentication is successful is transmitted to the ring 1.
  • the communication control unit 84 of the ring 1 determines whether the authentication in the SNS 171 is successful.
  • Step S122 If the authentication is not successful, that is, if the information indicating that the authentication is successful from the SNS 171 is not received, it is determined as NO in Step S122, the process returns to Step S121, and the subsequent processes are repeated. That is, the loop process of steps S121 and S122 is repeated until the authentication is successful.
  • step S143 After, when the authentication is successful, that is, when information indicating that the authentication transmitted from the SNS 171 is successful is received in the process of step S143, it is determined as YES in step S122, and the process proceeds to step S123. .
  • step S123 the group forming unit 90 of the ring 1 forms the group gr by the group gr forming method described above.
  • step S124 the sensor information acquisition unit 81 of the ring 1 acquires the sensor information from the ring 1 belonging to the same group and transmits it. That is, the communication control unit 84 receives and acquires the motion information detected by the sensor information acquisition unit 81 of one or more other rings 1 belonging to the same group by the wireless module 32. And the communication control part 84 transmits the motion information acquired by the own sensor information acquisition part 81 to one or more other rings 1 which belong to the same group.
  • step S125 the rising determination unit 82 of the ring 1 performs the rising determination. That is, the excitement determination unit 82 indicates the degree of relevance of motion synchronism among a plurality of users belonging to the same group based on the motion information of itself and one or more other rings 1 acquired in the process of step S124. Generate related information. Then, the upsurge determination unit 82 determines the upsurge degree from the related information.
  • step S126 the rising determination unit 82 of the ring 1 determines whether the determination result is equal to or greater than a threshold value. That is, the swell determination unit 82 determines whether the swell degree, which is the determination result of the swell determination, is equal to or greater than a preset threshold value.
  • step S126 If the determination result is not equal to or greater than the threshold value, it is determined as NO in step S126, the process returns to step S124, and the loop process of steps S124 to S126 is repeated until the determination result is equal to or greater than the threshold value.
  • step S126 if the determination result is equal to or greater than the threshold value, it is determined as YES in step S126, and the process proceeds to step S127.
  • step S127 the behavior control unit 83 executes the behavior defined by the behavior information stored in the storage unit 88 in advance.
  • step S1208 the position information acquisition unit 85 acquires the current position information of the ring 1, and the time information acquisition unit 86 acquires information indicating the time at which the determination result is equal to or greater than the threshold (that is, the time when the determination has risen). To do.
  • step S129 the communication control unit 84 transmits the ring information to the SNS 171. That is, the position information, time information, and ring ID acquired in step S128 are transmitted to SNS 171. Thereby, the ring information transmission process of ring 1 is completed.
  • step S144 of FIG. 29 the communication control unit 191 of the SNS 171 controls the communication unit 192 to receive the ring information transmitted from the ring 1 in the process of step S129 of FIG.
  • step S145 the storage control unit 194 of the SNS 171 controls the storage unit 195 to store the ring information received in the process of step S144.
  • step S161 in FIG. 30 the imaging unit 141 of the camera 121 photographs the inside of the venue during the event.
  • step S162 the conversion unit 142 of the camera 121 converts the shooting data obtained as a result of shooting in the process of step S161 into video data in a format suitable for communication.
  • step S163 the imaging condition acquisition unit 146 generates a UMID of the video data file.
  • step S164 the shooting condition acquisition unit 146 of the camera 121 acquires the shooting conditions detected by the detection unit 145.
  • step S165 the metadata generation unit 147 of the camera 121 generates metadata including the UMID generated in the process of step S163 and the shooting conditions acquired in the process of step S164.
  • step S166 the communication control unit 143 of the camera 121 superimposes the video data converted by the process of step S162 and the metadata generated by the process of step S165, and causes the communication unit 144 to transmit to the video management apparatus 172. Execute control.
  • step S181 in FIG. 31 the communication control unit 211 of the video management device 172 causes the communication unit 210 to receive the video data on which the metadata is superimposed transmitted from the camera 121 in the process in step S166 in FIG. .
  • step S182 the metadata extraction unit 212 of the video management device 172 extracts metadata from the video data received in the process of step S181.
  • the metadata extraction unit 212 supplies the extracted metadata to the shooting target specifying unit 214 and supplies the video data to the read / write control unit 215.
  • step S 183 the shooting target specifying unit 214 of the video management device 172 sets the classification data for each segment data based on the metadata supplied from the metadata extraction unit 212 and the shooting location information stored in the shooting location information storage unit 213. Specify the shooting target. That is, the seat number is specified as a subject to be photographed.
  • step S184 the read / write control unit 215 of the video management device 172 stores the video data supplied from the metadata extraction unit 212 in the video data storage unit 216 in association with the shooting target specified in the process of step S183.
  • step S146 of FIG. 29 the communication control unit 191 of the SNS 171 determines whether a predetermined video data acquisition request has been received from a terminal (not shown) such as a member belonging to the SNS 171.
  • step S146 If the predetermined video data acquisition request is not received, it is determined NO in step S146, the process returns to step S146, and the determination in step S146 is performed until the predetermined video data acquisition request is received. The process is repeated.
  • Step S146 After, when a predetermined video data acquisition request is received, it is determined as YES in Step S146, and the process proceeds to Step S147.
  • step S147 the communication control unit 191 of the SNS 171 transfers a video data acquisition request to the video management device 172.
  • step S185 of FIG. 31 the communication control unit 211 of the video management device 172 determines whether the video data acquisition request transmitted from the SNS 171 in the process of step S147 of FIG. 29 has been received.
  • step S185 If the video data acquisition request has not been received, it is determined as NO in step S185, and the process returns to step S185. Until the video data acquisition request is received, the determination process in step S185 is performed. Repeated.
  • step S185 YES is determined in step S185, and the process proceeds to step S186.
  • step S186 the read / write control unit 215 of the video management device 172 searches and reads out the corresponding video data (that is, segment data) according to the acquisition request received in the process of step S186, and via the communication unit 210. Send to SNS 171.
  • step S148 the communication control unit 191 of the SNS 171 receives the video data transmitted by the video management apparatus 172 in the process of step S186 in FIG.
  • the cooperation between the SNS 171 and the video management device 172 is performed according to the time and place for identifying a scene that has been excited during the event, but is not particularly limited thereto.
  • a keyword or the like indicating a scene that has risen during an event may be used as a tag, and the SNS 171 and the video management apparatus 172 may be linked with the tag.
  • the management information shown in FIG. 33 is held on the SNS 171 side, and the management information shown in FIG. 34 is held on the video management device 172 side.
  • FIG. 33 shows an example of the configuration of a list of management information held by the SNS 171.
  • a predetermined line includes management information indicating a scene of excitement during the event. That is, each time one piece of ring information is supplied from ring 1, one line is added, and management information generated based on the ring information is added to the added one line.
  • the time specified from the time information included in the ring information is added to the added one line.
  • the time stamp is stored in the “time stamp” item.
  • the position (latitude and longitude) specified from the position information included in the ring information is stored in the item of “GPS information” in the added one line.
  • the item “SNS account” stores the SNS account of each user in the group to which the ring 1 to which the ring information is sent belongs, but the storage method itself is not particularly limited, and a manual input method may be used. Alternatively, a method of automatically inputting based on the ring ID of the ring 1 belonging to the group may be used.
  • a keyword that allows an SNS member to recall such a lively scene corresponding to one line is added as a tag by an SNS administrator or user. Such a tag is stored in the “TAG information” in the one row.
  • FIG. 34 shows an example of the configuration of a list of management information held by the video management apparatus 172.
  • the management information list in FIG. 34 is a list in which only the item “TAG information” is added to each item in the management information list in FIG. For this reason, items other than “TAG information” have already been described with reference to FIG. 27, and thus description thereof is omitted here.
  • the item “TAG information” in FIG. 34 corresponds to “TAG information” included in the management information in FIG. 33 managed in the SNS 171 in FIG. Accordingly, since the storage contents of “TAG information” are notified from the SNS 171 at an appropriate timing, the item “TAG information” in FIG. 34 is updated manually or automatically according to the notification contents. Thereby, cooperation between the SNS 171 and the video management apparatus 172 is achieved by mutual “TAG information”.
  • FIG. 35 shows a flowchart of processing performed in cooperation between the SNS 171 and the video management apparatus 172 using the management information shown in FIGS.
  • a flowchart for explaining an example of the process of the SNS 171 is shown on the left side of FIG. 35, and a flowchart for explaining an example of the process of the video management apparatus 172 is shown on the right side of FIG.
  • step S201 the communication control unit 191 of the SNS 171 transmits a request for adding TAG information to the video management device 172.
  • step S221 the communication control unit 211 of the video management apparatus 172 receives the TAG information addition request transmitted from the SNS 171 in the process of step S201.
  • step S222 the communication control unit 211 of the video management device 172 determines whether the request for adding TAG information is valid.
  • step S222 If the request for adding TAG information is not valid, it is determined as NO in step S222, the process returns to step S221, and the subsequent processes are repeated. That is, the loop processing of steps S221 and S222 is repeated until a request for adding valid TAG information is made.
  • Step S222 After, when a request for adding valid TAG information is made, it is determined as YES in Step S222, and the process proceeds to Step S223.
  • step S223 the read / write control unit 215 adds TAG information to the management information.
  • step S202 when a request for acquisition of predetermined video data is made by a terminal such as a member belonging to the SNS 171, the communication control unit 191 of the SNS 171 transfers the request to the video management device 172.
  • step S224 the communication control unit 211 of the video management apparatus 172 receives the predetermined video data acquisition request transmitted from the SNS 171 in the process of step S202.
  • step S225 the read / write control unit 215 of the video management device 172 extracts predetermined video data corresponding to the request.
  • step S226 the communication control unit 211 of the video management device 172 transmits the predetermined video data extracted in the process of step S225 to the SNS 171.
  • step S203 the communication control unit 191 of the SNS 171 receives the predetermined video data transmitted by the video management device 172 in the process of step S226.
  • the communication control unit 191 of the SNS 171 transmits the predetermined video data to a terminal such as a member belonging to the SNS 171 that has requested acquisition. Thereby, the process performed in cooperation between the SNS 171 and the video management apparatus 172 ends.
  • the video data stored in the SNS and the video data stored in the video management apparatus are associated with each other, it is possible to easily search the video data of the climax scene.
  • the group gr is formed by only the plurality of rings 1.
  • the group gr may be formed by the SNS 171.
  • a method for forming the group gr using the SNS 171 will be described.
  • the communication control unit 84 of the ring 1 transmits its own location information acquired by the location information acquisition unit 85 to the SNS 171.
  • the SNS 171 recognizes adjacent rings 1, that is, a plurality of rings 1 existing within a certain range, from the position information received from the plurality of rings 1, and groups the plurality of rings 1 existing within the certain range into one group. formed as gr. Then, the SNS 171 generates a group ID of the group gr and transmits the group ID to the plurality of rings 1 included in the group gr.
  • the adjacent rings 1 are formed as one group gr by the SNS 171, it is not particularly limited to this.
  • a group gr may be formed for each ring 1 attached to a user who supports the predetermined team. That is, the rings 1 attached to users who support the same team may form one group gr. Further, for example, the rings 1 attached to a user who likes a predetermined player or a predetermined singer may form one group gr.
  • FIG. 36 is a diagram for explaining a fifth example of group control.
  • a virtual group is formed with a plurality of other rings 1 attached to each of a plurality of other users included in the video of the event displayed on the television receiver.
  • the ring 1 belonging to such a virtual group (that is, existing outside the event venue) is synchronized with another ring 1 existing in the event venue displayed on the television receiver, for example.
  • Control such as light emission and vibration is executed as an example of group control.
  • the event image includes an image in which the ring 1 attached to each of a plurality of users emits light and vibrates in a predetermined pattern.
  • the ring 1-k of the user Uk also emits light and vibrates in a predetermined pattern similar to the ring 1 of the user included in the event video.
  • the communication control unit 84 of the ring 1-k can identify the light emission and vibration patterns of other rings 1 of other users reflected on the television receiver TV by communicating with the television receiver TV.
  • Such information hereinafter referred to as other ring pattern specifying information. That is, in this case, the other ring pattern specifying information is broadcast.
  • the behavior control unit 83 of the ring 1-k identifies the light emission and vibration patterns of the other ring 1 by analyzing the other ring pattern identification information, and also issues the ring 1-k with the same pattern as the identified pattern. And control to vibrate.
  • the form of other ring pattern specifying information (including transmission form) and its analysis method are not particularly limited.
  • the other ring pattern specifying information may be transmitted through a transmission path (not shown) different from the broadcast.
  • a transmission path (not shown) different from the broadcast.
  • a mechanism that can synchronize broadcasting and communication on another transmission path is required.
  • the communication control unit 84 communicates with the television receiver TV and receives the broadcast signal as other ring pattern specifying information. May be.
  • the behavior control unit 83 performs analysis by performing various image processing on the video signal that is the other ring pattern specifying information, and specifies the light emission and vibration patterns of the other rings 1 based on the analysis result.
  • the ring 1-k may be controlled to emit and vibrate in the same pattern as the specified pattern.
  • FIG. 37 is a flowchart for explaining the flow of behavior control processing.
  • step S242 the behavior control unit 83 of the ring 1 executes the identified behavior. That is, the behavior control unit 83 analyzes the other ring pattern specifying information received in the process of step S241, specifies the light emission and vibration patterns of the other ring 1 based on the analysis result, and is the same pattern as the specified pattern. The behavior of is executed.
  • the user can watch the ring 1 attached to his arm execute the same behavior as the user at the venue by viewing the video of the event displayed on the television receiver. Therefore, the user can get a sense of unity with the user at the venue without going to the venue where the event is taking place. In addition, even when cheering or watching a game at a place other than the venue, the user can obtain a sense of realism similar to that of the user at the venue.
  • the ring 1 attached to the arm of each user Uk in front of the television receiver forms a group and affects the venue where the event is held via the television receiver and the network. You may be able to. In this case, for example, when the user Uk who is watching the video of the event displayed on the television receiver supports the user by shaking the arm on which the ring 1 is worn, the result is the display of the venue where the event is being performed. To affect.
  • each user Uk in front of the television receiver forms a group and can receive signals from the event venue.
  • each user Uk can receive the nomination of artist UA shown in the second example of the group control in front of the television receiver.
  • a leader is selected from a group formed of a plurality of rings 1.
  • a method for selecting a leader a method is adopted in which an action that can express excitement is detected by each of the plurality of rings 1 in the group, and a leader is selected based on the detection result.
  • the reader selection method is not particularly limited, and the method described with reference to FIGS. 38 to 40 may be employed.
  • FIG. 38 is a diagram showing a reader selection method.
  • one ring 1 is represented by a single circle, and a symbol in the circle represents the state of the ring 1.
  • the following first to third states are provided. That is, the first state is an initial state and is represented by the symbol i.
  • the second state is a reader state and is represented by a symbol L. It is assumed that there is only one ring 1 that can be in the leader state in the group gr.
  • the third state is a slave state and is indicated by a symbol S. Rings 1 that have left the initial state are all in the slave state if they cannot enter the leader state.
  • a square mark superimposed on a circle indicating the ring 1 indicates a value (hereinafter referred to as a sense value) indicated by sensor information of a sensor built in the ring 1.
  • the sense value is not particularly limited, it is assumed here that it is motion information detected by the triaxial acceleration sensor 33.
  • the magnitude of the sense value corresponds to the magnitude of the motion information described above.
  • the magnitude of the motion information corresponds to the degree of excitement. Therefore, the greater the sense value, the greater the degree of excitement. If a user with a higher degree of excitement has a reader qualification, it can be said that the greater the sense value, the more qualified the reader.
  • the ring 1-a in the initial state i is compared with the ring 1-b in the initial state i.
  • the sense value of ring 1-a is the value Y
  • the sense value of ring 1-b is the value X.
  • the value X is assumed to be larger than the value Y.
  • the state of the ring 1-b having a large sense value X transitions from the initial state i to the leader state L, and the ring having the small sense value Y
  • the state 1-a transitions from the initial state i to the slave state S.
  • the sense value of the ring 1-a that has transitioned to the slave state S is changed to a value X that is the sense value of the ring 1-b that has become a leader candidate.
  • both sense values are compared.
  • the state of the ring 1 with the larger sense value transitions to the reader state L, and the state of the ring 1 with the smaller sense value transitions to the slave state S.
  • the sense value of ring 1 in the slave state S is changed to the sense value of ring 1 in the leader state L.
  • the ring 1-c in the initial state i is compared with the ring 1-b in the reader state L that is a leader candidate.
  • the sense value of the ring 1-c is the value B and the sense value of the ring 1-b is the value X.
  • the state of the ring 1-c in the initial state i transitions from the initial state i to the slave state S.
  • the sense value of the ring 1-c in the slave state S is changed to the value X that is the sense value of the ring candidate 1-b that is a leader candidate.
  • the comparison of both sense values is executed regardless of the other state (that is, whether the other state is the reader state L or the slave state S). Not. Then, the state of the ring 1 in the initial state i transitions to the slave state S, and the sense value thereof is changed to the sense value of the other ring 1.
  • the ring 1-d in the slave state S and the ring 1-c in the slave state S are compared.
  • the sense value of the ring 1-d is the value A
  • the sense value of the ring 1-c is the value X.
  • the value X is assumed to be larger than the value A.
  • the sense value of the ring 1-d having the small sense value A is the value X which is the sense value of the ring 1-c having the large sense value X.
  • both sense values are compared, and as a result of comparison, the ring with the smaller sense value is compared.
  • the sense value of 1 is changed to the sense value of ring 1 with the larger sense value. Further, the state of the ring 1 having the smaller sense value transitions to the slave state S.
  • the ring 1-e in the leader state L which is a leader candidate
  • the ring 1-b in the leader state L which is a leader candidate
  • the sense value of ring 1-e is the value Z
  • the sense value of ring 1-b is the value X.
  • the value X is assumed to be larger than the value Z.
  • the state of the ring 1-e having a small sense value Z transitions from the reader state L to the slave state S. Then, the sense value of the ring 1-e that has transitioned to the slave state S is changed to a value X that is the sense value of the ring 1-b of the leader state L.
  • both sense values are compared, and as a result of comparison, the ring with the smaller sense value is compared.
  • the sense value of 1 is changed to the sense value of ring 1 with the larger sense value. Further, the state of the ring 1 having the smaller sense value transitions to the slave state S.
  • Each ring 1 periodically repeats such a state and change of the sense value with the ring 1 within a certain range.
  • the ring 1 detects another ring 1 in the vicinity and starts establishing a connection with the detected one or more other rings 1.
  • the ring 1 exchanges predetermined information including the state and the sense value with one or more other rings 1 in which the connection is successfully established, and the state and the sense value of each ring 1 are set as described above. Update.
  • the ring 1 detects another ring 1 that is close again, and starts an attempt to establish a connection with one or more detected rings 1.
  • the ring 1 exchanges predetermined information with one or more other rings 1 as described above, and updates its own state and sense value as described above.
  • the ring 1 discards the communication connection attempt.
  • a plurality of groups gr composed of one leader state ring 1 and a plurality of slave state S rings 1 are formed.
  • the sense values of the plurality of rings 1 in the same group gr are all the same value.
  • the sense value which the some ring 1 in the same group gr has is called a group sense value.
  • each ring 1 can be connected simultaneously with a plurality of rings 1 existing within a communicable range.
  • the number of rings 1 that can be connected depends on system constraints such as the storage capacity of the ring 1.
  • FIG. 39 is a diagram showing how the group expands.
  • the group gr1 and the group gr2 are formed in close proximity by repeating the comparison of the sense values between the plurality of rings 1.
  • the group gr1 includes a ring 1-f in the leader state L and a plurality of rings 1 in the slave state S.
  • the group gr2 includes a ring 1-g in the leader state L and a plurality of rings 1 in the slave state S.
  • the group sense value of the group gr1 is the value Y and the group sense value of the group gr1 is the value X.
  • the value Y is assumed to be larger than the value X.
  • the group sense values of the group gr1 and the group gr2 are compared. Specifically, for example, as shown in FIG. 39B, the sense values of the ring 1-h in the slave state S included in the group gr1 and the ring 1-g in the leader state L included in the group gr2 are compared.
  • the value Y that is the sense value of the ring 1-h is the group sense value of the group gr1
  • the value X that is the sense value of the ring 1-g is the group sense value of the group gr2.
  • the value Y that is the sense value of ring 1-h (that is, the group sense value of group gr1) is the sense value of ring 1-g. Since the value is larger than a certain value X (that is, the group sense value of the group gr2), the state of the ring 1-g transitions from the reader state L to the slave state S. Then, the sense value of the ring 1-g transitioned to the slave state S is changed from the value X to the value Y.
  • FIG. 40 is a state transition diagram illustrating an example of a state that the ring 1 can take in the above-described comparison of score values.
  • each state is represented in one rounded rectangular frame, and is identified by a code including “SI” drawn in the frame.
  • a state transition from one state to another state (including a case where the state remains the same) is executed when a predetermined condition (hereinafter referred to as a state transition condition) is satisfied.
  • a state transition condition is represented by adding a symbol including “C” to an arrow representing a transition from one state to another state in FIG.
  • Each ring 1 has the following information in the comparison of score values. That is, the ring 1 is the ring ID of the other ring 1 (maximum N) that currently establishes the connection, the group ID of the group gr to which it belongs, its own state (ie, the initial state i, the slave state S, Or reader status) information. Further, when the state of the ring 1 transitions to the leader state L, the ring 1 has information indicating the time since the transition to the leader state L. Further, the ring 1 has a first sensor value and a second sensor value as information of its own sensor value. The first sensor value is a sensor value disclosed in another ring 1, and the second sensor value is a sensor value that is updated in itself. That is, the second sensor value is updated when a certain time elapses, and is used as the first sensor value in the initial state.
  • the state SI1 is a state in which the ring 1 has not established a connection with another ring 1. If the connection with the other ring 1 is successfully established, the state of the ring 1 changes to the state SI2.
  • State SI2 is a state in which a connection between ring 1 and another ring 1 is established.
  • ring 1 When the state of the ring 1 is the initial state i, the state transits to the state SI11. In this case, ring 1 does not belong to any group gr.
  • both sense values are compared.
  • the state of the ring 1 having the larger sense value transitions from the initial state i to the reader state L.
  • the state of the ring 1 with the smaller sense value transitions from the initial state i to the slave state S.
  • the sense value and group ID of the ring 1 with the smaller sense value are changed to the sense value and group ID of the ring 1 with the larger sense value.
  • the ring 1 in the leader state L is generated.
  • the state transition condition C1 includes two conditions.
  • State SI12 is a state in which ring 1 is in the slave state S.
  • the state of the other ring 1 in which the connection is established is the initial state i
  • the comparison of both sense values is not performed, and the sense value and group ID of the other ring 1 are the same as the sense value of the ring 1 and Changed to group ID.
  • the state of the ring 1 remains in the state SI12.
  • State SI13 is a state in which ring 1 is in the leader state L.
  • the state of the other ring 1 in which the connection is established is the initial state i
  • the comparison of both sense values is not performed, and the sense value and group ID of the other ring 1 are the same as the sense value of the ring 1 and Changed to group ID.
  • the state of the ring 1 remains in the state SI13.
  • state SI13 when a certain time has elapsed since ring 1 transitioned to the leader state L, or when the power of ring 1 was turned off, the state of ring 1 transitions to the initial state i. In this case, the disappearance of the group gr is notified to all of a plurality of other rings 1 having the same group ID (that is, other rings 1 in the slave state S). As a result, the group gr having the leader disappears.
  • the state transition condition C4 that a fixed time has elapsed or the power is turned off after the ring 1 transits to the leader state L
  • the state 1 of the ring 1 is the initial state from the state SI13 in which the state is the leader state L. It changes to state SI11 which is i.
  • the state transition condition C5 that the disappearance of the group gr is notified is satisfied, and the state of the ring 1 transitions from the state SI12 that is the slave state S to the state SI11 that is the initial state i. To do.
  • the sense value and group ID of ring 1 included in the group gr are initialized, and the group gr disappears.
  • the state SI2 transits to the state SI1.
  • FIG. 41 is a diagram illustrating state transitions until the group gr disappears.
  • state SI21 a plurality of rings 1 are assembled.
  • the states of the plurality of rings 1 are all in the initial state i.
  • each ring 1 starts establishing a connection with another ring 1 and repeats comparison of sense values.
  • the ring 1-i and the ring 1-j that are in the leader state L are generated.
  • the sense value of ring 1-i is 15, and the sense value of ring 1-j is 10.
  • the sense value of the ring 1-i is larger, so the state of the ring 1-j transitions to the slave state S. Then, the sense value of the ring 1-j transitioned to the slave state S is changed to 15.
  • a group gr21 having ring 1-i as a leader is formed.
  • a group gr22 in which the ring 1-k is in the leader state L is formed at a position close to the group gr21.
  • the group sense value of the group gr21 is 15, and the group sense value of the group gr22 is 9.
  • the group sense values of the group gr21 and the group gr22 are compared. As a result of comparison, since the group sense value of the group gr22 is smaller than the group sense value of the group gr21, the leader of the group gr22 disappears, and the group sense value of the group gr22 is the group sense value of the group gr21. Changed to
  • an enlarged group gr31 is formed while taking in another group.
  • the leader of group gr31 is ring 1-i, and the group sense value is 15.
  • the fixed time until the group disappears is not particularly limited, and is set, for example, in minutes.
  • the series of processes described above can be executed by hardware or can be executed by software.
  • a program constituting the software is installed in the computer.
  • the computer includes, for example, a general-purpose personal computer capable of executing various functions by installing various programs by installing a computer incorporated in dedicated hardware.
  • the program executed by the computer can be provided by being recorded on a removable medium (not shown) such as a package medium.
  • the program can be provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting.
  • the program can also be provided from another information processing apparatus or another ring 12.
  • the program can be installed in the storage unit 88 by attaching the removable medium to a drive of another information processing apparatus, receiving the program via the wireless transmission medium, and the wireless module 32.
  • the program can be installed in the storage unit 88 in advance.
  • the program executed by the computer may be a program that is processed in time series in the order described in this specification, or in parallel or at a necessary timing such as when a call is made. It may be a program for processing.
  • Embodiments of the present technology are not limited to the above-described embodiments, and various modifications can be made without departing from the gist of the present technology.
  • the present technology can take a cloud computing configuration in which one function is shared by a plurality of devices via a network and is jointly processed.
  • the ring 1 itself behaves such as light emission and vibration, but the manner of behavior is not particularly limited to the above example. That is, the subject to behave may be the ring 1 itself worn by the user as in the above example, or a communication partner of the ring 1, such as a television receiver, a video deck, a game device, Electrical equipment such as lighting, electric shades, etc., and facilities of facilities such as private homes, stores, halls, and stadiums may be used. Further, the type of behavior may be light emission or vibration as in the above-described example, or other types such as video or sound. Further, in the case of the ring 1 including the soft actuator, a change in strength of tightening the arm can also be adopted as a kind of behavior. In this case, any plurality of types may be combined.
  • Excitement information is not limited to this.
  • a detection result that can determine physical excitement with respect to the user's event such as the user's heartbeat, blood pressure, and body temperature, can be adopted as the excitement information.
  • the predetermined action performed by the user of the ring 1 is stored in the ring 1 in advance even if the event organizer notifies the user in advance using an arbitrary transmission method. Also good.
  • the position information of the ring 1 itself is acquired by the position information acquisition unit 85 of the ring 1 by an arbitrary method.
  • the acquired position information is included in the shooting start request and transmitted to the CCU 122, and is used for specifying the shooting target of the camera 121.
  • the position information of the ring 1 was obtained using GPS.
  • the position may be acquired using, for example, Wi-Fi (wireless fidelity).
  • Wi-Fi wireless fidelity
  • a method for acquiring position information using Wi-Fi is not particularly limited.
  • the position information of the ring 1 using GPS or Wi-Fi may be acquired by a terminal device such as a smartphone capable of wireless communication with the ring 1. It is assumed that the terminal device is held by the user wearing the ring 1. The position information acquired by the terminal device may be transmitted to the ring 1 or other information processing device.
  • At least a part of the processing executed in the ring 1 may be executed in another information processing apparatus capable of wireless communication with the ring 1. Thereby, the processing load in the ring 1 is reduced. Further, all the information related to the processing in the above example may be set in advance for the ring 1. In this case, the ring 1 may be executed by appropriately selecting information from preset information.
  • a mobile terminal capable of executing the processing described in the present embodiment can be employed as an information processing apparatus to which the present technology is applied. In this case, it is desirable that the user communicate with the mobile terminal in hand.
  • each step described in the above flowchart can be executed by one device or can be shared by a plurality of devices.
  • the plurality of processes included in the one step can be executed by being shared by a plurality of apparatuses in addition to being executed by one apparatus.
  • this technique can also take the following structures.
  • a light emitting unit that emits light according to a light emission pattern specified by a combination of light emission parameters indicating characteristics of light emission; Based on the relationship between one or more other information processing devices having the light emitting unit and the own device and the own device, or the relationship between the other information processing device belonging to the group and the own device, An information processing apparatus comprising: a control unit that controls a light emission pattern of the light emitting unit.
  • a communication control unit for controlling wireless communication with the one or more other information processing apparatuses; The information processing apparatus according to (1), wherein the control unit controls a light emission pattern of the light emitting unit based on the relationship specified from a control result of the communication control unit.
  • a vibration unit that vibrates according to a vibration pattern specified by a combination of vibration parameters indicating characteristics of vibration The information processing apparatus according to (1) or (2), wherein the control unit controls a vibration pattern of the vibration unit based on the relationship.
  • the control unit controls a light emission pattern of the light emitting unit in consideration of an influence of an external target other than the group.
  • the communication control unit identifies, as the relationship, the number of the information processing devices existing within a certain range based on the position information of the other information processing device, The control unit controls the light emission pattern of the light emitting unit to be changed using the distance calculated by the distance calculating unit and the number specified by the communication control unit as parameters.
  • the information processing apparatus according to any one of 4).
  • the communication control unit controls other devices that do not belong to the group as the external target, and controls wireless communication with the external target;
  • the information processing unit according to any one of (1) to (5), wherein the control unit controls a light emission pattern of the light emitting unit based on a result of wireless communication with the external target under the control of the communication control unit. apparatus.
  • a sensor unit for detecting a change in physical quantity caused by the user's operation Based on the detection result of the sensor unit, further comprising a swell determination unit that determines the degree of swell of the user, The communication control unit transmits the degree of swell to the one or more other information processing apparatuses and receives the degree of swell of at least some users of the one or more other information processing apparatuses.
  • Control The control unit controls a light emission pattern of the light emitting unit based on the relationship indicated by the degree of the swell of at least a part of the own device and the one or more other information processing devices.
  • the information processing apparatus according to any one of 6).
  • the external object is another information processing apparatus that does not belong to the group, having at least the light emitting unit and the sensor unit.
  • the controller is The condition that the group to which the device belongs is targeted by the external object based on the detection result of the sensor unit of the external object, as a condition for the influence of the external object,
  • the information processing apparatus according to any one of (1) to (7), wherein whether or not the external influence condition and the relational condition are satisfied is determined, and a light emission pattern of the light emitting unit is controlled.
  • the information processing apparatus according to any one of (1) to (8), wherein the condition of the relationship is a condition that the degree of the swell of the apparatus is the largest in the group.
  • the external object is an imaging device that photographs a plurality of users of the own device belonging to the group and one or more of the other information processing devices,
  • the communication control unit causes the imaging device to start shooting of the imaging device whose shooting target is the user of the own device.
  • the information processing apparatus according to any one of (1) to (9), wherein a shooting start request is transmitted.
  • the communication control unit receives information indicating that shooting is started by the imaging device according to the shooting start request from the own device, The information processing apparatus according to any one of (1) to (10), wherein the control unit controls a light emission pattern of the light emitting unit based on the information received by the communication control unit.
  • the swell determination unit is configured to generate the swell based on information indicating a degree of relevance or difference in synchrony of movements of a plurality of users' bodies or body parts, which is generated based on a detection result of the sensor unit.
  • the information processing apparatus according to any one of (1) to (11), wherein a degree is determined.
  • the external object is An imaging device for photographing the location where the group exists; An external device that acquires a photographing result indicating a state of a predetermined time zone of a user of the information processing device belonging to the group or the one or more other information processing devices from the photographing result of the imaging device.
  • the communication control unit uses a time at which the degree of the swell determined by the swell determination unit is equal to or greater than a threshold when acquiring a photographing result indicating a state of a time zone including the time of the user of the own device.
  • the information processing apparatus according to any one of (1) to (12), which is transmitted as acquisition information to the external apparatus.
  • the information processing apparatus according to (13), wherein the communication control unit also transmits the position of the own apparatus to the external apparatus as the acquisition information.
  • the information processing apparatus according to (13) or (14), wherein the communication control unit also transmits an ID of the own apparatus to the external apparatus as the acquisition information.
  • the communication control unit receives information capable of specifying a light emission pattern of the light emitting unit of another information processing apparatus belonging to the group, The control unit controls a light emission pattern of the light emitting unit based on a light emission pattern specified by information that can specify the light emission pattern received by the communication control unit. Any one of (1) to (15) An information processing apparatus according to claim 1.
  • the information processing apparatus has a ring-shaped part attached to the user's arm, The information processing apparatus according to any one of (1) to (16), wherein the part is provided with a connecting portion that opens or connects a part thereof.
  • the coupling unit includes a magnet and a suction plate for connecting a part of the portion.
  • the connecting portion connects a part of the part by elastic deformation of a material.
  • This technology can be applied to information processing devices used as communication tools.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)
  • Optical Communication System (AREA)

Abstract

 本技術は、新たな形態のコミュニケーションツールを実現可能にする情報処理装置及び方法に関する。 LEDは、発光の特徴を示す発光パラメータの組み合わせで特定される発光パターンにしたがって発光する。挙動制御部は、LEDを有する1以上の他の情報処理装置及び自装置が属する群と、自装置との関係、又は、群に属する他の情報処理装置と自装置との関係に基づいて、LEDの発光パターンを制御する。本技術は、コミュニケーションツールとして用いられる情報処理装置に適用することができる。

Description

情報処理装置及び方法
 本技術は、情報処理装置及び方法に関し、特に、新たな形態のコミュニケーションツールを実現可能にする、情報処理装置及び方法に関する。
 人は、他者との共存無く生きていけない。このため、人は、他者と共に集団を形成し、集団に属していることを実感することで安心感を得、集団に属する他者と共感や一体感を覚えることを望む。
 そこで、集団に属していることを実感したり、集団に属する他者と共感や一体感を覚えたりするために、集団内で特有のコミュニケーションを図ることが多々ある。このために、コミュニケーションツールが利用されることも多々ある。
 近年、情報通信技術の著しい発展により、携帯電話機やスマートフォン等、高度で多機能なコミュニケーションツールが広く用いられるようになっている(例えば、特許文献1参照)。
特開2007-221355号公報
 しかしながら、携帯電話機やスマートフォン等自体は高度で多機能であっても、所定の集団内でのコミュニケーションで携帯電話機やスマートフォン等を利用する場合に、集団内のメンバーが、必ずしも、集団に属していることを実感したり、集団に属する他者と共感や一体感を覚えたりするわけではない。
 例えば、携帯電話機やスマートフォン等は、手入力等の身体の一部を使った操作が必要であり、集団全体で同一の動きをしたりして一体感を覚えたりする場合等には、このような操作は邪魔になる。
 このため、集団に属していることを実感したり、集団に属する他者と共感や一体感を覚えたりする目的に好適な、新たな形態のコミュニケーションツールの登場が要望されている。
 本技術は、このような状況に鑑みてなされたものであり、新たな形態のコミュニケーションツールを実現可能にするものである。
 本技術の一側面の情報処理装置は、発光の特徴を示す発光パラメータの組み合わせで特定される発光パターンにしたがって発光する発光部と、前記発光部を有する1以上の他の情報処理装置及び自装置が属する群と、前記自装置との関係、又は、前記群に属する他の情報処理装置と前記自装置との関係に基づいて、前記発光部の発光パターンを制御する制御部とを備える。
 前記1以上の他の情報処理装置との間の無線通信を制御する通信制御部をさらに備え、前記制御部は、前記通信制御部の制御結果から特定される前記関係に基づいて、前記発光部の発光パターンを制御することができる。
 振動の特徴を示す振動パラメータの組み合わせで特定される振動パターンにしたがって振動する振動部をさらに備え、前記制御部は、前記関係に基づいて、前記振動部の振動パターンを制御することができる。
 前記制御部は、前記群以外の外部対象の影響をさらに考慮して、前記発光部の発光パターンを制御することができる。
 前記群に属する前記情報処理装置及び1以上の前記他の情報処理装置の各々を装着した複数のユーザが所定位置に集合する過程において、前記所定位置と、前記情報処理装置の存在位置との間の距離を、前記外部対象として演算する距離演算部をさらに備え、前記通信制御部は、前記他の情報処理装置の位置情報に基づいて、一定の範囲内に存在する前記情報処理装置の数を、前記関係として特定し、前記制御部は、前記距離演算部により演算された前記距離と前記通信制御部により特定された前記数をパラメータにして、前記発光部の発光パターンを変化させるように制御することができる。
 前記通信制御部は、前記群に属さない他の装置を前記外部対象として、前記外部対象との無線通信を制御し、前記制御部は、前記通信制御部の制御による前記外部対象との無線通信の結果に基づいて、前記発光部の発光パターンを制御することができる。
 ユーザの動作に起因して生ずる物理量の変化を検出するセンサ部と、前記センサ部の検出結果に基づいて、ユーザの盛り上がりの度合いを判定する盛り上がり判定部をさらに備え、前記通信制御部は、前記盛り上がりの度合いを前記1以上の他の情報処理装置に送信すると共に、前記1以上の他の情報処理装置の少なくとも一部のユーザの前記盛り上がりの度合いを受信するように制御し、前記制御部は、自装置及び前記1以上の他の情報処理装置の少なくとも一部の前記盛り上がりの度合いにより示される前記関係に基づいて、前記発光部の発光パターンを制御することができる。
 前記外部対象は、前記発光部及び前記センサ部を少なくとも有する、前記群に属さない他の情報処理装置であり、前記制御部は、自装置が属する前記群が、前記外部対象の前記センサ部の検出結果に基づいて前記外部対象によりターゲットとされたという条件を、前記外部対象の影響の条件として、前記外部の影響の条件と、前記関係の条件とを満たすかを判定して、前記発光部の発光パターンを制御することができる。
 前記関係の条件は、自装置の前記盛り上がりの度合いが、前記群の中で最大であるという条件とすることができる。
 前記外部対象は、前記群に属する自装置及び1以上の前記他の情報処理装置の各々の複数のユーザを撮影する撮像装置であり、前記通信制御部は、前記盛り上がり判定部により判定された前記盛り上がりの度合いが閾値以上である場合、自装置のユーザを撮影対象とする前記撮像装置の撮影が開始されるように、前記撮像装置に撮影開始要求を送信することができる。
 前記通信制御部は、自装置からの前記撮影開始要求に従って前記撮像装置により撮影が開始されたことを示す情報を受信し、前記制御部は、前記通信制御部に受信された前記情報に基づいて、前記発光部の発光パターンを制御することができる。
 前記盛り上がり判定部は、前記センサ部の検出結果に基づいて生成された、複数のユーザの身体または身体の一部の動作の同調性の関連度又は相違度を示す情報に基づいて、前記盛り上がりの度合いを判定することができる。
 前記外部対象は、群が存在する場所を撮影する撮像装置と、前記撮像装置の撮影結果の中から、前記群に属する前記情報処理装置又は1以上の前記他の情報処理装置のユーザの所定の時間帯の様子を示す撮影結果を取得する外部の装置とであり、前記通信制御部は、前記盛り上がり判定部により判定された前記盛り上がりの度合いが閾値以上になった時刻を、自装置のユーザの前記時刻を含む時間帯の様子を示す撮影結果を取得する際に用いる取得用情報として前記外部の装置に送信することができる。
 前記通信制御部は、自装置の位置も、前記取得用情報として前記外部の装置に送信することができる。
 前記通信制御部は、自装置のIDも、前記取得用情報として前記外部の装置に送信することができる。
 前記通信制御部は、前記群に属する他の情報処理装置の前記発光部の発光パターンを特定可能な情報を受信し、前記制御部は、前記通信制御部に受信された前記発光パターンを特定可能な情報により特定された発光パターンに基づいて、前記発光部の発光パターンを制御することができる。
 前記情報処理装置は、前記ユーザの腕に取り付けられるリング形状の部位を有し、前記部位は、その一部を開放または接続する連結部を設けることができる。
 前記連結部は、前記部位の一部を接続するための磁石及び吸着板を有することができる。
 前記連結部は、素材の弾性変形により前記部位の一部を接続することができる。
 本技術の第1の側面の情報処理方法は、上述した本技術の第1の側面の情報処理装置に対応する方法である。
 本技術の第1の側面の情報処理装置及び方法においては、発光部が、発光の特徴を示す発光パラメータの組み合わせで特定される発光パターンにしたがって発光され、発光部を有する1以上の他の情報処理装置及び自装置が属する群と、前記自装置との関係、又は、前記群に属する他の情報処理装置と前記自装置との関係に基づいて、前記発光部の発光パターンが制御される。
 以上のごとく、本技術によれば、新たな形態のコミュニケーションツールを実現できる。
リングの概略構成を示す図である。 リングの斜視図である。 基板の概略構成を示す図である。 リングの断面図である。 リングの他の概略構成を示す図である。 基板の機能的構成を示す機能ブロック図である。 群制御の第1例を説明する図である。 挙動制御処理の流れについて説明するフローチャートである。 群制御の第2例を説明する図である。 群制御の第2例における情報処理システムの構成図である。 リング間の相対位置を演算するための固定端末装置を示す図である。 ターゲットの特定を示す図である。 指名処理の流れを説明するフローチャートである。 指名受け処理の流れを説明するフローチャートである。 群制御の第3例を説明する図である。 群制御の第3例における情報処理システムの構成図である。 カメラの機能的構成を示す機能ブロック図である。 撮影要求処理の流れを説明するフローチャートである。 カメラ制御処理の流れを説明するフローチャートである。 撮影処理の流れを説明するフローチャートである。 リング、カメラ、及びCCUの間の処理の関係について説明する図である。 群制御の第4例を説明する図である。 群制御の第4例における情報処理システムの構成図である。 SNSの機能的構成例を示す機能ブロック図である。 映像管理装置の機能的構成例を示す機能ブロック図である。 撮影場所情報のリストの構造を示す図である。 映像データの管理情報を示す図である。 リング情報送信処理の流れを説明するフローチャートである。 映像データ提供処理の流れを説明するフローチャートである。 撮影処理の流れを説明するフローチャートである。 映像データ管理処理の流れを説明するフローチャートである。 リング、SNS、カメラ、及び映像管理装置の間の処理の関係について説明する図である。 管理情報のリストの構成の一例を示している。 管理情報のリストの構成の一例を示している。 SNSと映像管理装置とが連携して行う処理の流れを説明するフローチャートである。 群制御の第5例を説明する図である。 挙動制御処理の流れを説明するフローチャートである。 リーダの選出手法を示す図である。 群が拡大する様子を示す図である。 リングが取り得る状態の一例を示す状態遷移図である。 群が消滅するまでの状態遷移を示す図である。
[本技術の概略]
 はじめに、本技術の理解を容易なものとすべく、本技術の概略について説明する。
 本技術が適用される情報処理装置は、各種センサ、ワイヤレスモジュール、発光素子、振動体等が内蔵された、リストバンド、ブレスレット等のようにユーザの腕に装着するのに好適な径を有する、リング型の装置(以下、リングと略称する)であり、ユーザの腕に装着されるものである。リングの基本機能は発光と振動であるが、これらの発光や振動のパターンは多数(実質的には無限通り)あり、内蔵されるセンサにより得られる情報や、外部から通信の形態で得られる情報等各種情報に応じて選択的に切り替えることができる。
 本技術では、このようなリングを装着した複数のユーザが所定の共通の目的の下集結した場合又は集結する予定がある場合、複数のユーザのそれぞれの腕に装着された複数のリングからなる群において、複数のリングの少なくとも一部を用いた制御が実行される。このような制御を、以下、群制御と称する。例えば、群内の複数のリングの各々の発光や振動の制御、リング以外の対象物(カメラ等の情報処理装置)に対する、複数のリングの各々の発光や振動に基づく制御が、群制御の一例である。
 例えば、群制御においては、1以上の他のリング及びリング自身が属する群とリング自身との関係、若しくは群に属する所定の他のリングとリング自身との関係に基づいて、複数のリングの各々の発光や振動が制御される。また、例えば、群制御においては、群に属さないリング以外の対象物との通信の結果に基づいて、複数のリングの各々の発光や振動が制御される。
 はじめに、このような群制御を実現するための個々のリングの構成について、図1乃至図5を参照して説明する。
[リングの概略構成]
 図1は、本技術が適用される情報処理装置の一実施形態としてのリング1の概略構成を示す図である。図1のAの中央の図は、リング1の正面図である。ここで、正面は、リング1が装着された腕を手の指先側からみた場合における面とされている。図1のAの上側の図は、矢印aの方向にリング1を見た場合のリング1の上面図である。図1のAの右側の図は、矢印bの方向にリング1を見た場合のリング1の右側面図である。図1のAの下側の図は、矢印cの方向にリング1を見た場合のリング1の下面図である。図1のAの左側の図は、矢印dの方向にリング1を見た場合のリング1の左側面図である。また、図1のBは、リング1の背面図である。
 図1に示されるように、リング形状のリング1の内周部1aには、基板21が埋設されている。詳細については図3を参照して後述するが、基板21には、各種センサ、ワイヤレスモジュール、発光素子、振動機構等が実装されている。また、基板21と対向する位置に、連結部22が設けられている。詳細については後述するが、連結部22は、リング1の側面を構成する周長部の両端部を開放したり接続したりする。すなわち、ユーザは、連結部22における両端部を開放することで、リング1を腕に通したり取り外したりすることができ、連結部22における両端部を連結させることで、リング1を装着することができる。
 正面又は背面からみて、リング1の外周部1bは円形となっているのに対して、内周部1aは楕円形となっている。リング1の外周部1bが円形であるのは、基板21に実装された発光素子からの光を均一に導光させるためである。リング1の内周部1aが楕円形であるのは、ユーザの腕の形状に合わせた形とすることで、リング1の装着感を向上させるためである。
[リングの斜視図]
 図2は、リング1の斜視図である。図2のAは、基板21が視認できる方向からのリング1の斜視図である。図2のBは、連結部22が視認できる方向からのリング1の斜視図である。図2に示されるように、連結部22においてリング1の周長部の両端部が連結される。
[基板の概略構成]
 図3は、リング1に実装される基板21の概略構成を示す図である。図3のAの中央の図は、基板21の正面図である。ここで、正面は、各種センサ、ワイヤレスモジュール、発光素子、振動機構等が実装されている面とされている。図3のAの上側の図は、矢印aの方向に基板21を見た場合の基板21の上面図である。図3のAの右側の図は、矢印bの方向に基板21を見た場合の基板21の右側面図である。図3のAの下側の図は、矢印cの方向に基板21を見た場合の基板21の下面図である。図3のAの左側の図は、矢印dの方向に基板21を見た場合の基板21の左側面図である。また、図3のBは、基板21の背面図である。また、図3のCは、基板21の斜視図である。
 図3のAに示されるように、基板21の正面には、CPU(Central Processing Unit)31、ワイヤレスモジュール32、3軸加速度センサ33、及びLED(Light Emitting Diode)34が実装されている。具体的には、基板21の正面において、略中央部にはワイヤレスモジュール32が配置されており、当該ワイヤレスモジュール32の四隅近傍には4つのLED34の各々が配置されている。また、基板21の長手方向の両端部のうち、一方の端部にはCPU31が配置され、他方の端部には3軸加速度センサ33が配置されている。
 CPU31は、内蔵メモリ(後述の図1の記憶部88)に記録されているプログラム等にしたがって各種の処理を実行する。内蔵メモリには、CPU31が各種の処理を実行する上において必要なデータ等も適宜記憶される。
 ワイヤレスモジュール32は、他の情報処理装置または他のリング1との間で各種情報を無線通信により授受する。
 3軸加速度センサ33は、相互に略直交する3軸方向の加速度を検出し、その検出結果を示すセンサ情報をCPU31に供給する。すなわち、3軸加速度センサ33は、ユーザの動作に起因して生ずる物理量、すなわち加速度の変化を検出する。
 LED34は、CPU31の制御にしたがって、複数のパターンで発光する。発光のパターンは、発光の特徴を示す発光パラメータの組み合せ、すなわち、例えば、光量、発光色、発光の間隔の時間、及び発光が継続する時間を含む複数の要素のうち1以上の要素の組み合わせで特定される。
 なお、図示はしないが、基板21には、心拍センサ、血圧センサ、体温センサ等の生体情報を取得するセンサが備えられてもよい。また、基板21には、地磁気センサ、圧力センサ、気温センサ、湿度センサ、音センサ、映像センサ、紫外線センサ、放射能センサ等、環境情報を取得するセンサが備えられてもよい。
 図3のBに示されるように、基板21の背面には、振動機構35が実装されている。振動機構35は、CPU31の制御にしたがって、複数のパターンで振動する。振動のパターンは、振動の特徴を示す振動パラメータの組み合わせ、すなわち、例えば、振動回数、振動の間隔の時間、振動が継続する時間を含む複数の要素のうち1以上の要素の組み合わせで特定される。
 なお、基板21は、リング1の表面に描かれるロゴやマークで隠せるサイズにすることで、リング1の本体が透明または半透明であっても、外観の美感を損なうことはない。
[リングの断面図]
 図4は、リング1の断面図である。図4のAは、図1のAの左側の図の線m-m’におけるリング1の断面図である。図4のBは、図1のAの左側の図の線n-n’におけるリング1の断面図である。
 図4のAに示されるように、リング1の本体20は内側の導光層41と、当該導光層41を内周側と外周側から挟み込む反射層兼拡散層42の3層構造を有している。
 導光層41は、基板21のLED34から発光される光を、光ファイバーケーブルと同様にリング1全体に導光する。
 反射層兼拡散層42は、基板21の導光層41により導光される光を、リング1の外側に反射及び拡散させる。
 図4のAに示されるように、複数のLED34は、軸対称の位置に、遮蔽物がない状態で配置される。このように配置されたLED34から発光される光は、導光層41によりリング1の本体20の全体に導光され、反射層兼拡散層42によって、リング1の外側に拡散される。
 図4のBに示されるように、リング1の連結部22の内側には溝20aが形成され、当該溝20aの底部には、磁石に吸着する鉄等の吸着板43が複数(図4の例では4つ)設けられている。また、リング1の連結部22の外側には、吸着板43よりも少数(図4の例では2つ)の磁石44が、連結部22の内側に設けられた溝20aに嵌まるサイズ及び形で設けられている。連結部22において、磁石44が、吸着板43を吸着する吸着力により、リング1の周長部の両端部が連結される。吸着力より大きい力を作用させることで、両端部は離間する。
 このような連結部22の構造により、リング1は、細い腕から太い腕まで様々なサイズの腕に装着が可能となる。また、連結部22には、留め具等が設けられていないため、ユーザにとって、装着感がよく、また、着脱が容易であると共に、LED34からの光が遮られることなく、導光かつ拡散される。さらに、リング1の両端部の各々における光量は弱くなるが、当該両端部が連結部22で重ねられることから光量が加算される結果、ユーザの目には、リング1の何れの場所でも光が均一に拡散されているように映るため、外観の美感が向上する。
 また、図4に示されるように、基板21に設けられた振動機構35は、リング1の内周部から突起するように設けられている。これにより、振動機構35がユーザの腕に接触されるので、振動機構35の振動が、ユーザの腕に伝導しやすくなる。
 リング1の本体20の素材として、例えばポリウレタンエラストマー(RU-842A-CLR)等の合成樹脂を採用することができる。連結部22の内側、外側はともに透明または半透明であるが、外側には光を拡散させる拡散材が例えば5%含有されている。
 吸着板43の素材として、例えばSUS430を採用することができる。また、磁石44の素材として、例えばネオジウムを採用することができる。
 なお、図示はしないが、基板21をカバーで覆うことも可能である。この場合のカバーの素材として、例えばアルミニウムを採用することができる。また、図示はしないが、当該カバーと振動機構35との間にスペーサを装着することができ、そのスペーサの素材として、例えばPETを採用することができる。
[リングの他の概略構成]
 図5は、リング1とは異なる構成のリング51の概略構成を示す図である。
 図5に示されるリング51の基本的な構成は、リング1と同様である。したがって、以下、リング51について、リング1との一致点の説明は省略し、その差異点のみを説明する。
 リング1が、導光層41と反射層兼拡散層42の3層構造を有しているのに対して、リング51は、導光層61のみの1層構造である。
 リング1の連結部22には、磁石44と吸着板43が設けられているのに対して、リング51の連結部62には、何も設けられていない。連結部62においては、リング51の本体60に力を加えないとき、内側の端部60aと外側の端部60bとが接触して重なるように加工されている。リング51を腕に装着するとき、本体60が形成する円の径が大きくなるように本体60が弾性変形される。円の中に腕を挿通した後、本体60に対する力を解除すると、本体60はその弾性力により元の位置に戻る。すなわち、リング51の素材の弾性変形により、連結部62における両端部が連結される。本体60の素材としては、本体20と同じポリウレタンエラストマーを採用することができる。
 このような連結部62の構造により、リング51は、様々なサイズの腕に装着が可能となる。また、連結部62には、留め具等が設けられていないため、ユーザにとって、装着感がよく、また、着脱が容易であると共に、LED34からの光が遮られることなく、導光される。また、リング51の両端部の各々における光量は弱くなるが、当該両端部が連結部62で重ねられることから光量が加算される結果、ユーザの目には、リング51の何れの場所でも光が均一に輝いているように映るため、外観の美感が向上する。さらに、連結部62には、吸着板43、磁石44、留め具等が設けられないため、製造コストを抑えることができる。
 なお、リング51の本体60は、リング1と同様に3層構造でもよい。同様に、上述したリング1の本体20は、リング51の本体60と同様に1層構造でもよい。また、以下においてはリング1について説明するが、リング51にも適用されることは勿論である。
[基板21の機能的構成例]
 図6は、図3の基板21の機能的構成を示す機能ブロック図である。
 基板21には、CPU31、ワイヤレスモジュール32、3軸加速度センサ33、LED34、及び振動機構35が備えられている。
 ワイヤレスモジュール32、3軸加速度センサ33、LED34、及び振動機構35については図3を参照して説明済みなので、その説明は省略する。なお、上述したように、基板21には、図示せぬ他のセンサが備えられてもよい。この場合、後述するセンサ情報取得部81は、図示せぬ他のセンサから検出された情報を取得する。
 CPU31は、機能的には、センサ情報取得部81、盛り上がり判定部82、挙動制御部83、通信制御部84、位置情報取得部85、時刻情報取得部86、距離演算部87、記憶部88、ターゲット特定部89、群形成部90、及び群情報管理部91を有している。
 これらの各機能については、図7乃至図37を参照して、本技術を適用したリング1を用いた群制御の第1例乃至第5例と共に後述する。
[群制御の第1例]
 始めに、図7と図8を参照して、本技術を適用したリング1を用いた群制御の第1例について説明する。
 図7は、群制御の第1例を説明する図である。
 図7の第1例の群制御としては、例えば所定の会場で開催される所定のイベントに参加するという共通の目的の下、当該所定の会場に複数のユーザが集結するまでの間、複数のユーザの腕のそれぞれに装着されたリングの発光や振動の制御が実行される。なお、第1例においては、所定の会場に向かう複数のリング1が群を形成しているとみなされる。
 図7の第1例の群制御が実行される場合には、図6のCPU31の機能的構成のうち、挙動制御部83、通信制御部84、位置情報取得部85、距離演算部87、及び記憶部88が機能する。
 例えば、リング1-k(kは1以上の任意の整数値)を装着したユーザUkは、所定のイベントが開催される会場に向かっているとする。この場合、一般的に、ユーザUkが会場に近づく程、所定のイベントに参加する他のユーザの数、すなわち、他のユーザの腕に装着された他のリング1の数が増加していく。そこで、図7の第1例では、他のリング1の数に応じて、リング1-kの発光や振動のパターンを変化させる群制御が実行される。なお、リング1-kの記憶部88は、発光や振動の各種パターンの挙動を規定する挙動情報、及び所定の会場の位置情報を含む情報(以下、イベント情報と称する)を、予め任意の手法で取得して記憶しているものとする。
 具体的には、図7の上側の図において、リング1-1を装着したユーザU1は、会場まで所定の距離、例えば1キロメートル以内の地点に到達したとする。すなわち、リング1-1の位置情報取得部85は、GPS(Global Positioning System)を利用して、現在のリング1-1の位置情報を取得する。そして、距離演算部87は、位置情報取得部85により取得された現在のリング1-1の位置情報と、記憶部88に記憶されている所定の会場の位置情報から、会場までの距離を演算する。この場合、距離演算部87によって、リング1-1と会場までの距離が、予め設定された1キロメートル以内であると演算されたとする。
 すると、リング1-1の通信制御部84は、ワイヤレスモジュール32により、他のリング1の位置情報の取得を開始して、所定の範囲内に存在する他のリング1の数を検出する。図7の上側の図では、リング1-1の通信制御部84は、取得した所定の範囲内に存在する他のリング1-2の位置情報から、所定の範囲内に存在する他のリング1の数が1つであることを検出する。そして、リング1-1の挙動制御部83は、記憶部88に記憶されている挙動情報にしたがった所定のパターン、例えば、所定の範囲内に存在する他のリング1の数が5以下の場合に規定される第1パターンで、発光及び振動する。
 図7の上から2番目の図に示すように、リング1-1を装着したユーザU1は、会場まで近づき、例えば会場まで500メートル以内の地点に到達したとする。この場合、会場に近づくにつれてユーザの数が増加することから、リング1-1の通信制御部84によって検出される他のリング1の数も増加する。そこで、リング1-1の挙動制御部83は、発光及び振動するパターンとして、図7の上側の図の第1パターンから、例えば所定の範囲内に存在する他のリング1の数が50以下の場合に規定される第2パターンに変更する。これにより、リング1-1は、第2パターンで発光及び振動する。この場合の発光及び振動の第2パターンは、第1パターンよりも、発光の光量や振動の強さが増すように設定されている。
 図7の下側の図に示すように、リング1-1を装着したユーザU1は、会場に到達、すなわち、会場まで0メートルの地点に到達したとする。この場合、会場には多くのユーザが存在することから、リング1-1によって検出される他のリング1の数も増加する。そこで、リング1-1の挙動制御部83は、発光及び振動するパターンとして、図7の上から2番目の図の第2パターンから、例えば所定の範囲内に存在する他のリング1の数が100以上の場合に規定される第3パターンに変更する。これにより、リング1-1は、第3パターンで発光及び振動する。この場合の発光及び振動の第3パターンは、第2パターンよりも、発光の光量や振動の強さが増すように設定されている。
[挙動制御処理]
 次に、群制御の第1例においてリング1が実行する処理のうち、所定の会場までの距離と他のリング1の数に応じて変化する挙動の制御の処理(以下、挙動制御処理と称する)の流れについて説明する。
 図8は、挙動制御処理の流れについて説明するフローチャートである。
 ステップS11において、記憶部88は、イベント情報を記憶する。上述したように、イベント情報には、挙動情報及び所定の会場の位置情報が含まれる。イベント情報は、予めリング1の記憶部88に記憶されていても、任意の提供手段でイベントの主催者から提供されてもよい。
 ステップS12において、距離演算部87は、所定の会場までの距離を演算する。すなわち、距離演算部87は、位置情報取得部85により取得された現在のリング1の位置情報と、記憶部88に記憶されている所定の会場の位置情報から、会場までの距離を演算する。
 ステップS13において、距離演算部87は、現在のリング1の位置から所定の会場までの距離が所定の範囲内になったかを判定する。例えば、現在のリング1の位置から所定の会場までの距離が、予め設定された1キロメートル以内になったか判定される。
 距離が所定の範囲内になっていない場合、ステップS13においてNOであると判定されて、処理はステップS12に戻され、それ以降の処理が繰り返される。すなわち、距離が所定の範囲内になるまでの間、ステップS12とステップS13のループ処理が繰り返される。
 その後、リング1を装着したユーザが所定の会場に近づいて、会場までの距離が所定の範囲内になった場合、ステップS13においてYESであると判定されて、処理はステップS14に進む。
 ステップS14において、通信制御部84は、所定の範囲内に存在する他のリング1の位置情報を取得する。すなわち、通信制御部84は、ワイヤレスモジュール32により、他のリング1の位置情報の取得を開始して、所定の範囲内に存在する他のリング1の数を検出する。
 ステップS15において、挙動制御部83は、記憶部88に記憶されている挙動情報にしたがった挙動を実行する。挙動情報には、所定の範囲内に存在する他のリング1の数に応じて変化する発光及び振動のパターンが規定されている。挙動情報に規定される発光の光量や振動の強さのパターンは、所定の範囲内に存在する他のリング1の数が多くなるほど、強くなるように設定されている。
 ステップS16において、挙動制御部83は、処理の終了が指示されたかを判定する。ここで、処理の終了の指示は限定されず、例えば、リング1を装着したユーザによって処理の終了を指示する所定の操作が行われてもよい。また例えば、イベントの主催者によって、処理の終了を指示する所定の情報が、リング1に送信されてもよい。
 処理の終了が指示されない場合、ステップS16においてNOであると判定されて、処理はステップS14に戻され、それ以降の処理が繰り返される。すなわち、処理の終了が指示されるまでの間、ステップS14乃至S16のループ処理が繰り返される。
 その後、処理の終了が指示された場合、ステップS16においてYESであると判定されて、挙動制御処理は終了する。
 このように、会場までの距離と所定の範囲内に存在するリング1の数をパラメータにして、発光の光量や振動の強さのパターンが変化する。すなわち、会場に近付くにつれてリング1の発光の光量や振動の強さが増すので、ユーザは、イベントへの期待感やイベントに参加するという高揚感が徐々に高まっていく。また、リング1を装着したユーザは、周囲の他のユーザのリング1も同様に発光及び振動しているのを見ることで、周囲の他のユーザとの共感や一体感を得ることができる。さらに、リング1のユーザは、リング1を装着していない他のユーザに対しては、優越感を得ることもできる。
[群制御の第2例]
 次に、図9乃至図14を参照して、本技術を適用したリング1を用いた群制御の第2例について説明する。
 図9は、群制御の第2例を説明する図である。
 図9の第2例の群制御としては、先ず、例えば所定のアーティストよるイベントが行われる会場において、複数のユーザの腕のそれぞれに装着された複数のリング1の群であって、当該複数のリング1の中からリーダが選出される群が形成される制御が実行される。次に第2例の群制御として、群に属さないリング1を装着したアーティストにより当該群がターゲットとして指名された場合、リーダのみが反応して発光及び振動する制御が実行される。
 リーダの選出手法は、特に限定されないが、本実施形態では、イベントに対するユーザの気分の高揚、すなわち盛り上がりを表わすことができる行動が、群内の複数のリング1の各々によって検出され、検出結果に基づいてリーダが選出される手法が採用される。具体的には、図9の第2例では、ユーザUkに装着されたリング1-kの群形成部90によって、ユーザUkの盛り上がり度合いと、一定の範囲内の他のユーザの盛り上がり度合いが比較され、最も盛り上がり度合いが大きいユーザに装着されたリング1をリーダとする群が形成される。
図9の第2例の群制御が実行される場合には、図6のCPU31の機能的構成のうち、センサ情報取得部81、盛り上がり判定部82、挙動制御部83、通信制御部84、位置情報取得部85、記憶部88、ターゲット特定部89、群形成部90、及び群情報管理部91が機能する。
 図9の第2例では、盛り上がり度合いを表わすことができる所定の行動として、ユーザUkがリング1-kを装着した腕を振ることが採用される。この場合、リング1-kのセンサ情報取得部81は、腕の振りの動きに伴い生ずる物理量の変化を示す情報(以下、動き情報と称する)を、3軸加速度センサ33により検出する。リング1-kの盛り上がり判定部82は、動き情報からリング1-kが装着された腕が振られた回数を認識し、当該回数が多いほど、盛り上がり度合いが大きいと判定する。群形成部90は、通信制御部84によって受信される他のリング1の盛り上がり度合いと、自身の盛り上がり度合いとの比較を繰り返すことにより、リーダが存在する群grを形成する。なお、群grの形成手法についての詳細は後述する。
 具体的には、図9に示されるように、リング1-1乃至リング1-Nを含む群grが形成される。そして、そのうちのリング1-4を腕に装着したユーザU4が、最も盛り上がりを表すことができる行動(例えば腕を多く振る)をしたため、リング1-4の盛り上がり度合いが最も大きくなり、リング1-4がリーダとして選出される。
 また、リング1-Aを腕に装着したアーティストUAは、所定の動きにより、会場内の所定の群grをターゲットとして指名する。図9の第2例では、所定の動きとして、アーティストUAが、リング1-Aを装着した腕を振り、所定の群grをターゲットとして指し示す動きが採用される。アーティストUAが所定の群grをターゲットとして指名すると、リング1-Aのターゲット特定部89は、ターゲットとされた群grの座標値を特定する。なお、ターゲット特定部89によるターゲットの座標値の特定についての詳細は、図11乃至図13を参照して後述する。
 そして、リング1-Aの通信制御部84によって、ターゲットの座標値と挙動情報を含む指名情報が、会場に存在する複数のリング1に送信される。指名情報を受信したリング1の挙動制御部83は、ターゲットとされた群grのリーダである場合にのみ反応して、挙動情報に規定されるパターンの発光及び振動を制御する。
 具体的には、図9に示されるように、リング1-Aが腕に装着されたアーティストUAが群grをターゲットとして指名すると、リング1-1乃至1-Nのうち、リーダとしてのリング1-4のみが反応して発光及び振動する。
[システム構成図]
 図10は、群制御の第2例における情報処理システムの構成図である。
 情報処理システム100は、リング1-A、及び群gr1乃至grM(Mは1以上の整数値)の各々に属する複数のリングから構成される。図10の左下に示されるように、群grk(kは1乃至Mのうち任意の整数値)は、一定の範囲内に存在する複数のリング1-1乃至1-Nから構成される。なお、以下、群gr1乃至grMやリング1-1乃至1-Nを個々に区別する必要がない場合、これらをまとめて群grまたはリング1と称する。また、リング1-Aは、いずれの群grにも属さないものとする。 
 リング1-Aと群grに含まれる複数のリング1は、例えば、IEEE802.11Sに規定されるマルチホップ無線LAN(Local Area Network)メッシュネットワークにより相互に接続されている。
[リング間の相対位置]
 リング1-Aと群grに含まれる複数のリング1は、予め、相互の相対位置を、例えば図11に示される固定端末装置を用いて演算する。
 図11は、リング1間の相対位置を演算するための固定端末装置を示す図である。
 図11に示されるように、会場に設置されているステージST上には、固定端末装置cp1乃至cp3が離間して配置されている。なお、以下、固定端末装置cp1乃至cp3を個々に区別する必要がない場合、これらをまとめて固定端末装置cpと称する。固定端末装置cpは、ステージSTの所定の位置に固定されており、その位置情報は既知であるものとする。また、固定端末装置cpは、リング1-Aと複数のリング1が接続されているマルチホップ無線LANメッシュネットワークに接続されている。
 リング1-Aの位置情報取得部85は、固定端末装置cpが含まれる無線LANメッシュネットワーク上で、通信制御部84による複数のリング1及び固定端末装置cpとの無線通信において得られる情報を用いることにより、リング1-Aと複数のリング1の相対位置の座標を演算する。すなわち、位置情報取得部85は、通信制御部84による固定端末装置cpとの無線通信により得られる、電界強度や遅延時間等の情報に基づいて、固定端末装置cpの位置を基準とした三点測量を行うことにより、リング1-Aと複数のリング1の相対位置の座標を演算する。演算されたリング1-Aと複数のリング1の相対位置の座標は、リング1-Aの記憶部88に記憶される。
 同様に、群grに含まれる複数のリング1の位置情報取得部85も、リング1-Aと複数の他のリング1の相対位置の座標を演算し、記憶部88に記憶する。
 次に、第2例の群grの形成手法の詳細について説明する。
 リング1の群形成部90は、一定の範囲内に存在する複数のリング1から構成される群grを形成する。リング1の群形成部90は、形成された群grの座標値を自身の座標値として群情報管理部91に記憶する。群grの座標値は、群grの中心位置(群gr内の複数のリング1のうち中心に存在するリング1の位置)の座標値と群grの範囲(中心位置から最も遠くに存在する群gr内のリング1までの距離)により規定される。群grの形成手法については限定されないが、例えば、次のようにして形成される。
 リング1の群形成部90は、位置情報取得部85が、固定端末装置cpを用いた通信により取得した自身の座標値を、群grの座標値の初期値として群情報管理部91に記憶する。
 また、群形成部90は、群grに属しているか否かを示すフラグ(以下、所属フラグと称する)を群情報管理部91に記憶する。なお、所属フラグの初期値は「属していない」である。さらに、群形成部90は、群grのリーダであるか否かを示すフラグ(以下、リーダフラグと称する)を群情報管理部91に記憶する。なお、リーダフラグの初期値は「リーダではない」である。
 リング1の通信制御部84は、ペアリングが可能な他のリング1、すなわち、無線通信を確立することができる他のリング1を検索する。そして、リング1の群形成部90は、ペアリング可能な他のリング1との間で、次のようなフラグ及び自身の座標値(すなわち群grの座標値)の変更処理を実行する。
 リング1の群形成部90は、自身の所属フラグと、他のリング1の所属フラグが何れも「属していない」で一致していた場合、相互の盛り上がり度合いを盛り上がり判定部82による判定結果を用いて比較する。この場合、リング1が装着された腕が振られた回数が多いほど、盛り上がり度合いが大きいと判定される。
 盛り上がり度合いの比較の結果、盛り上がり度合いが大きい方のリング1の群形成部90は、自身のリーダフラグを「リーダである」に変更する。一方、盛り上がり度合いが小さい方のリング1の群形成部90は、自身のリーダフラグを「リーダではない」に変更する。さらに、盛り上がり度合いが小さい方のリング1の群形成部90は、自身の座標値を、群grの座標値、すなわち盛り上がり度合いが大きい方のリング1の座標値に変更する。そして、双方のリング1の群形成部90は、所属フラグを「属している」に変更する。
 また、リング1の群形成部90は、自身の所属フラグと、他のリング1の所属フラグが何れも「属している」で一致していた場合、相互の座標値を比較する。相互の座標値の比較の結果、群grの範囲が重畳している場合には、相互の盛り上がり度合いが比較され、上述と同様の処理を実行する。つまり、盛り上がり度合いが大きい方のリーダフラグは「リーダである」と変更され、群grの座標値は自身の座標値のままとされる。小さい方のリーダフラグは「リーダではない」に変更され、自身の座標値は相手方の座標値(すなわち相手の群grの座標値)に変更される。一方、群grの座標値の比較の結果、群grの範囲が重畳していない場合には、双方のリング1の群形成部90は、いずれも処理を実行しない。
 また、リング1と他のリング1の所属フラグの一方が「属している」であり他方が「属していない」と異なっていた場合、所属フラグが「属していない」リング1の群形成部90は、自身の座標値(すなわち群grの座標値)を、他方のリング1の座標値に変更し、所属フラグを「属している」に変更する。
 このような処理が、一定の範囲内に存在する複数のリング1同士で繰り返されることにより、リーダであるリング1が存在する群grが形成される。
[ターゲットの特定]
 アーティストUAは、このようにして会場内に形成された複数の群grのうち、所定の群grをターゲットとして指名する。この場合、アーティストUAの腕に装着されたリング1-Aのターゲット特定部89は、ターゲットとされた群grの方向と、リング1-Aから群grまでの距離を演算し、その演算結果に基づいて、ターゲットとされた群grの座標値を特定する。
 図12は、ターゲットの特定を示す図である。
 アーティストUAが、リング1-Aが装着された腕を振り、所定の群grkをターゲットとして指し示す動きをすると、リング1-Aのセンサ情報取得部81は、図示せぬ地磁気センサから検出された方向情報dと、3軸加速度センサ33から検出された動き情報vを取得する。すると、リング1-Aのターゲット特定部89は、センサ情報取得部81により取得された方向情報dに基づいて、ターゲットとされた群grkの方向を演算する。また、リング1-Aのターゲット特定部89は、センサ情報取得部81により取得された動き情報vに基づいて、リング1-Aからターゲットとされた群grkまでの距離を演算する。動き情報vが大きい程、距離は長くなる。
 そして、ターゲット特定部89は、記憶部88に記憶されているリング1の相対位置の座標値、群grkの方向、及び群grkまでの距離を用いて、群grkのおおよその座標値(以下、ターゲット座標値と称する)を決定する。このようにして決定されたターゲット座標値と挙動情報を含む情報(以下、指名情報と称する)が、会場に存在する複数のリング1に送信される。
 複数のリング1の各々において、通信制御部84が指名情報を受信すると、群情報管理部91は、指名情報に含まれるターゲット座標値と、自身の座標値(すなわち群grの座標値)とが一致するか(誤差が所定の範囲内であるか)を判定する。複数のリング1のうち、座標値が一致したと判定されて、自身のリーダフラグが「リーダである」リング1については、挙動制御部83は、受信した指名情報に含まれる挙動情報に規定される挙動を実行する。一方、複数のリング1のうち、座標値が一致しないと判定されたリング1、または自身のリーダフラグが「リーダではない」リング1については、通信制御部84は、受信した指名情報を他のリング1に転送する。
[情報処理システム100の処理]
 次に、このような構成の情報処理システム100の処理の流れについて、図13と図14を参照して説明する。図13は、アーティストUAの腕に装着されたリング1-Aが実行する処理のうち、ターゲットを指名する処理(以下、指名処理と称する)の流れについて説明する図である。図14は、観客側のリング1が実行する処理のうち、リング1-Aから指名を受ける処理(以下、指名受け処理と称する)の流れについて説明する図である。
[指名処理]
 図13は、リング1-Aが実行する指名処理の流れを説明するフローチャートである。
 図13のステップS31において、センサ情報取得部81は、所定の動きを検出したかを判定する。すなわち、センサ情報取得部81は、リング1-Aが装着された腕が振られ、所定の群grを指し示す動きに伴い生ずる動き情報が3軸加速度センサ33センサにより検出されたかを判定する。
 所定の動きが検出されない場合、ステップS31においてNOであると判定されて、処理はステップS31に戻され、所定の動きが検出されるまでの間、ステップS31の判定処理が繰り返される。
 その後、所定の動きが検出された場合、ステップS31においてYESであると判定されて、処理はステップS32に進む。
 ステップS32において、センサ情報取得部81は、図示せぬ地磁気センサから検出された方向情報dを取得する。これにより、ターゲットとされた群grの方向が決定される。
 ステップS33において、センサ情報取得部81は、3軸加速度センサ33から検出された動き情報vを取得する。これにより、リング1-Aからターゲットとされた群grまでの距離が決定される。
 ステップS34において、ターゲット特定部89は、ターゲットとされた所定の群grを特定する。すなわち、ターゲット特定部89は、ステップS32,S33で取得した方向情報d、動き情報v、及び固定端末装置cpを用いて予め演算された複数のリング1の相対位置の座標から、ターゲットとされた所定の群grのターゲット座標値を特定する。
 ステップS35において、通信制御部84は、会場内の複数のリング1に対して、指名情報を送信する。なお、上述したように、指名情報には、ターゲット座標値と挙動情報が含まれる。これにより、指名処理は終了する。
[指名受け処理]
 図14は、リング1が実行する指名受け処理の流れを説明するフローチャートである。
 ステップS51において、群形成部90は、上述した群grの形成手法により、リーダである1個のリング1が存在する群grを形成する。
 ステップS52において、通信制御部84は、リング1-Aから指名情報を受信したかを判定する。
 指名情報が受信されない場合、ステップS52においてNOであると判定されて、処理はステップS52に戻され、指名情報を受信するまでの間、ステップS52の判定処理が繰り返される。
 その後、指名情報を受信した場合、ステップS52においてYESであると判定されて、処理はステップS53に進む。
 ステップS53において、群情報管理部91は、指名情報に含まれるターゲット座標値が自身の座標値と一致するかを判定する。すなわち、群情報管理部91は、ターゲット座標値と、ステップS51の処理において群grが形成されたときに記憶された自身の座標値(すなわち群grの座標値)が一致するかを判定する。具体的には、ターゲット座標値とリング1の座標値(すなわち群grの座標値)との差が、所定の範囲内であるとき、一致と判断される。
 ターゲット座標値が自身の座標値と一致する場合、ステップS53においてYESであると判定されて、処理はステップS54に進む。一方、ターゲット座標値が自身の座標値と一致しない場合、ステップS53においてNOであると判定されて、処理はステップS56に進む。なお、ステップS56以降の処理については後述する。
 ステップS54において、群情報管理部91は、リーダであるか判定する。すなわち、群情報管理部91は、リーダフラグが「リーダである」であるかを判定する。
 リーダである場合、ステップS54においてYESであると判定されて、処理はステップS55に進む。一方、リーダでない場合、すなわち、リーダフラグが「リーダではない」である場合、ステップS54においてNOであると判定されて、処理はステップS56に進む。なお、ステップS56以降の処理については後述する。
 ステップS55において、挙動制御部83は、挙動情報にしたがった挙動を実行する。すなわち、挙動制御部83は、ステップS52の処理において受信した指名情報に含まれる挙動情報に規定される所定のパターンにしたがって、リング1が発光及び振動するようにLED34及び振動機構35の挙動を制御する。
 これに対して、ステップS53またはステップS54においてNOであると判定された場合、処理はステップS56に進む。
 ステップS56において、通信制御部84は、ステップS52の処理でリング1-Aから受信した指名情報を他のリング1に転送する。これにより、すべてのリング1に対して指名情報が確実に送信される。以上により、指名受け処理は終了する。
 このように、ユーザにとっては、アーティストUAによる指名を受けてリング1が発光及び振動するためには、当該リング1が群grのリーダである必要がある。したがって、ユーザは、自身のリング1をリーダにするために、盛り上がり度合いが大きい行動(例えば腕を多く振る)を積極的に実行しようと試みる。この結果、ユーザに競争心が芽生え、イベントがより盛り上がる。さらに、ステージST上のアーティストUAから観客側の所定のユーザが指名されることにより、アーティストUAとユーザの一体感が生まれる。
 なお、アーティストUAによって装着されるリング1-Aの形状は、上述したリング型の形状であっても、スティック型の形状であってもよい。リング1-Aがスティック型の形状の場合は、アーティストUAの手に保持される。
 上述の第2例では、アーティストUAによって所定の群grがターゲットとして指名された場合、群grのリーダであるリング1のみが反応して発光及び振動する制御が実行された。しかしながら、第2例の群制御として、複数のリング1の発光及び振動のパターンを、既に発光及び振動をした他のリング1から指示があった場合に、自身のリング1が発光及び振動し、さらに別の他のリング1に発光及び振動を指示するというパターンにすることもできる。これにより、複数のリング1の発光及び振動が順次伝達していく、いわゆるウェーブを実現することができる。
 具体的には、アーティストUAのリング1-Aの動作は、上述の説明と基本的に同様であるが、位置情報は用いられない。また、観客側の複数のリング1の動作は、上述の説明と基本的に同様であるが、ウェーブという特性上、群grやリーダという概念は存在しない。
 ここで、ウェーブの規模、すなわち、伝達しながら順次発光及び振動するリング1の数(以下、ポップ数と称する)は、アーティストUAの腕の振りに応じて変化するものとする。すなわち、アーティストUAは、ウェーブの規模を大きくしたい場合、腕の振りを大きくすることになる。そこで、ポップ数は、アーティストUAのリング1-Aにおいて取得される腕の振りに伴い生ずる動き情報によって決定されるものとする。また、ウェーブを発生させるリング1の方向は、リング1-Aのセンサ情報取得部81により取得された方向情報dに基づいて演算される。
 また、アーティストUAが複数回繰り返してウェーブを発生させることができるように、アーティストUAからの各回のウェーブの指示(すなわち、観客側のリング1への発光及び振動の指示)には、他の回の指示と区別すべく、固有のIDが付される。すなわち、当該IDは、ウェーブ毎(すなわち、リング1の発光毎)に可算されて付されるものとする。
 ウェーブは、具体的に次のようにして実行される。
 先ず、アーティストUAのリング1-Aは、通信可能な観客側の複数のリング1に対して、固有のID、及びホップ数を含む指示を送信する。
 この指示を受信した観客側のリング1は、所定のパターンの発光及び振動をし、ホップ数を減算して、観客側の他のリング1に、固有のID、及びポップ数を含む指示を送信する。
 この指示を受信した観客側の他のリング1は、IDが新規である場合(例えば、最後に受け取ったIDよりも大きい場合)、所定のパターンの発光及び振動をし、ホップ数を減算して、さらに別の観客側の他のリング1に、固有のID、及びポップ数を持つ指示を送信する。
 このようにして、リング1における発光及び振動の伝達が、ポップ数が0になるまで順次行われることによって、ウェーブが実現される。
 なお、他のリング1からの固有のID及びポップ数を持つ指示は、既に発光及び振動を終了したリング1に対しても受信される場合がある。このような場合には、受信されたIDは新規でないと判定されるので、既に発光及び振動を終了したリング1が、再度発光及び振動をすることはない。このようにして、ウェーブが乱れることが防止される。
[群制御の第3例]
 次に、図15乃至図21を参照して、本技術を適用したリング1を用いた群制御の第3例について説明する。
 図15は、群制御の第3例を説明する図である。
 図15の第3例の群制御としては、先ず、例えば所定のイベントが行われている屋外の会場において、リング1が腕に装着された複数のユーザの所定の行動に基づいて、盛り上がり度合いが判定される。ここで、盛り上がり度合いが判定される所定の行動は、特に限定されないが、本実施形態では、一定の範囲内に存在する同種のリング1が腕に装着された複数のユーザが、同調した動きを実行する行動が採用される。なお、第3例においては、一定の範囲内に存在する複数のリング1が群grを形成しているとみなされる。
 次に、群grの中で盛り上がったと判定されたユーザのリング1から、会場内のカメラ又は当該カメラの制御装置等に対して撮影開始要求が送信される。これにより、カメラによって、当該ユーザとその周辺を撮影対象として撮影が開始され、当該撮影の開始を示す情報(以下、撮影開始情報と称する)がカメラ又は当該カメラの制御装置等から送信される。そして、当該撮影開始情報を受信したリング1が発光及び振動する。
 図15の第3例の群制御が実行される場合には、図6のCPU31の機能的構成のうち、センサ情報取得部81、盛り上がり判定部82、挙動制御部83、通信制御部84、位置情報取得部85、及び記憶部88が機能する。
 リング1の通信制御部84は、一定の範囲内に存在する他の1以上のリング1のセンサ情報取得部81によりそれぞれ検出された動き情報を、ワイヤレスモジュール32により受信する。リング1の盛り上がり判定部82は、受信された他の1以上のリングのそれぞれの動き情報に基づいて、複数のユーザ間での動きの同調性の関連度又は相違度を示す情報(以下、関連情報と称する)を生成する。
 動きの同調性の関連度又は相違度とは、複数のユーザの身体または身体の一部の動作の関連度又は相違度をいう。すなわち、複数のユーザの身体または身体の一部の動作が一致しているほど、動きの同調性の関連度が高くなる(すなわち、動きの同調性の相違度が低くなる。)このように、関連情報とは、各ユーザの動作が一致しているか否かを表わす情報である。同調した動きとしては、例えば、複数のユーザによる同一の、リズム、テンポ、及びパターンでのダンスを採用することができる。
 次に、リング1の盛り上がり判定部82は、生成された一定の範囲内に存在する複数のユーザ間の関連情報から、複数のユーザ間の動作の関連度が高いほど盛り上がり度合いが大きいと判定する。なお、関連情報の演算手法は特に限定されないが、本実施形態では特開2011-87794号公報に記載の演算手法が採用されている。
 具体的には、図15に示されるように、リング1-1を装着したユーザU1は、一定範囲内に存在する複数の他のユーザと同調した動きをしたものとする。この場合、ユーザU1に装着されたリング1-1の盛り上がり判定部82は、一定の範囲内の他のリング1からの動き情報に基づいて関連情報を生成し、当該関連情報から、複数のユーザ間の動作の関連度を認識し、認識結果に基づいて盛り上がり度合いを判定する。盛り上がったと判定された場合には、リング1-1の通信制御部84は、カメラ121を制御するCCU(Camera Control Unit)に撮影開始要求を送信する。なお、撮影開始要求には、予めリング1-1の位置情報取得部85により任意の手法で取得された、リング1-1の位置情報が含まれる。
 撮影開始要求を受信したCCUは、カメラ121に対して撮影対象の変更と撮影開始の指示を送信する。CCUからの指示を受信したカメラ121は、撮影対象を、撮影開始要求に含まれる位置情報で特定される位置に存在するリング1-1(結果として、リング1-1を腕に装着したユーザU1とその周辺のユーザになる)に変更して、撮影を開始する。これにより、カメラ121は、盛り上がっているユーザU1とその周辺を撮影することができる。すると、CCUは、リング1-1に対して、カメラ121により撮影対象として撮影が開始されたことを示す撮影開始情報を送信する。撮影開始情報を受信したリング1-1の挙動制御部83は、所定のパターンで発光及び振動を開始させる。これにより、ユーザU1は、自身(すなわち、リング1-1)がカメラ121の撮影対象とされたことを知得できる。
[システム構成図]
 図16は、群制御の第3例における情報処理システムの構成図である。
 情報処理システム110は、リング1-1乃至1-N、カメラ121、及びCCU122から構成される。
 複数のリング1とCCU122は、例えば、マルチホップ無線LANメッシュネットワークにより相互に接続されている。カメラ121とCCU122との通信手法は特に限定されず、有線であっても無線であってもよい。
 カメラ121は、群に属する複数のリング1の各々を腕に装着した複数のユーザを含む会場内を撮影する。カメラ121は、CCU122の制御にしたがって、撮影対象の撮影、撮影対象の変更、及び、撮影の開始または終了を行う。カメラ121の詳細については図17を参照して後述する。
 CCU122は、リング1からの要求にしたがって、カメラ121を制御する。また、CCU122は、リング1に対して撮影開始情報を受信する。
[カメラ121の機能的構成例]
 図17は、カメラ121の機能的構成を示す機能ブロック図である。
 カメラ121は、機能的には、撮像部141、変換部142、通信制御部143、通信部144、検出部145、撮影条件取得部146、メタデータ生成部147を有している。
 図15の第3例の群制御が実行される場合には、図17の機能的構成のうち、撮像部141、変換部142、通信制御部143、及び通信部144が機能する。他の機能的構成については、図22乃至図35を参照して、本技術を適用したリング1を用いた群制御の第4例と共に後述する。
 撮像部141は、レンズ等の光学系及び撮像素子の他、光軸の方向(撮影方向)を変化させる機構を有し、後述する通信制御部143から撮影の開始が指示されると、撮影対象が例えば画角の中心に位置するように光軸の方向を変化させた上で、撮影を開始する。また、撮像部141は、通信制御部143から撮影対象の変更が指示されると、指示された撮影対象が存在する方向に光軸の方向を変化させる。撮像部141は、撮影の結果得られる撮影データを変換部142に供給する。また、撮像部141は、通信制御部143から撮影の停止が指示されると、撮影対象の撮影を停止する。
 変換部142は、撮像部141から供給された撮影データを通信に適した形式に変換し、通信制御部143に供給する。
 通信制御部143は、通信部144を制御してCCU122から撮影対象の変更の指示を受信すると、撮像部141に対して撮影対象の変更を指示する。また、通信制御部143は、通信部144を制御してCCU122から撮影の開始または終了の指示を受信すると、撮像部141に対して撮影の開始または終了を指示する。また、通信制御部143は、変換部142から提供された撮影データを、通信部144から他の情報処理装置に送信する制御を実行する。
[情報処理システム110の処理]
 次に、情報処理システム110の処理の流れについて、図18乃至図21を参照して説明する。図18は、リング1が実行する処理のうち、カメラ121の撮影対象とされるように撮影要求を送信する処理(以下、撮影要求処理と称する)の流れについて説明する図である。図19は、CCU122が実行する処理のうち、カメラ121を制御する処理(以下、カメラ制御処理と称する)の流れについて説明する図である。図20は、カメラ121が実行する処理のうち、撮影対象を撮影する処理(以下、撮影処理と称する)の流れについて説明する図である。
 また、図21は、情報処理システム110のリング1、カメラ121、及びCCU122の間の処理の関係について説明する図である。図21のリング1、カメラ121、及びCCU122の相互の処理関係は、図18乃至図20の対応するステップを参照することで容易に理解することが可能である。図21の左側にはリング1の撮影要求処理の一例を説明するフローチャート(図18に対応する)が示され、中央にはCCU122のカメラ制御処理の一例を説明するフローチャート(図19に対応する)が示され、右側にはカメラ121の撮影処理の一例を説明するフローチャート(図20に対応する)が示されている。
 図18のステップS71において、リング1の位置情報取得部85は、現在の自身の位置情報を取得する。位置情報の取得の手法は特に限定されず、例えばGPSを利用して、現在のリング1の位置情報が取得される。取得された位置情報は、記憶部88に記憶される。
 ステップS72において、リング1の通信制御部84は、センサ情報を取得して、送信する。すなわち、通信制御部84は、一定の範囲内に存在する他の1以上のリング1のセンサ情報取得部81によりそれぞれ検出された動き情報を、ワイヤレスモジュール32により受信して取得する。そして、通信制御部84は、自身のセンサ情報取得部81により取得された動き情報を、一定の範囲内に存在する他の1以上のリング1に送信する。
 ステップS73において、リング1の盛り上がり判定部82は、盛り上がり判定を実行する。すなわち、盛り上がり判定部82は、ステップS72の処理で取得した自身及び他の1以上のリング1の動き情報に基づいて、一定の範囲内に存在する複数のユーザ間での動きの同調性の関連度を示す関連情報を生成する。そして、盛り上がり判定部82は、当該関連情報から、盛り上がり度合いを判定する。
 ステップS74において、リング1の盛り上がり判定部82は、判定結果が閾値以上であるかを判定する。すなわち、盛り上がり判定部82は、盛り上がり判定の判定結果である盛り上がり度合いが、予め設定された閾値以上であるかを判定する。
 判定結果が閾値以上でない場合、ステップS74においてNOであると判定されて、処理はステップS72に戻され、判定結果が閾値以上になるまでの間、ステップS72乃至S74のループ処理が繰り返される。
 その後、判定結果が閾値以上となった場合、ステップS74においてYESであると判定されて、処理はステップS75に進む。
 ステップS75において、挙動制御部83は、予め記憶部88に記憶されている挙動情報にしたがった挙動を実行する。すなわち、挙動制御部83は、記憶部88に記憶されている挙動情報に規定される所定のパターンにしたがって、リング1が発光及び振動するようにLED34及び振動機構35の挙動を制御する。
 ステップS76において、通信制御部84は、CCU122に対して撮影開始要求を送信する。撮影開始要求には、ステップS71の処理で位置情報取得部85により取得されたリング1の位置情報が含まれる。
 図19のステップS91において、CCU122は、図18のステップS76の処理でリング1から送信された撮影開始要求を受信したかを判定する。
 撮影開始要求が受信されない場合、ステップS91においてNOであると判定されて、処理はステップS91に戻され、撮影開始要求が受信されるまでの間、ステップS91の判定処理が繰り返される。
 その後、撮影開始要求が受信されると、ステップS91においてYESであると判定されて、処理はステップS92に進む。
 ステップS92において、CCU122は、カメラ121に対して撮影対象の変更の指示を送信する。すなわち、CCU122は、撮影対象をステップS91の処理で受信した撮影開始要求に含まれる位置情報により示されるリング1に変更する指示を、カメラ121に対して送信する。
 図20のステップS101において、カメラ121の通信制御部143は、ステップS92の処理でCCU122から送信された撮影対象の変更の指示を受信したかを判定する。
 撮影対象の変更の指示が受信されない場合、ステップS101においてNOであると判定されて、処理はステップS101に戻され、撮影対象の変更の指示が受信されるまでの間、ステップS101の判定処理が繰り返される。
 その後、撮影対象の変更の指示が受信されると、ステップS101においてYESであると判定されて、処理はステップS102に進む。
 ステップS102において、カメラ121の撮像部141は、撮影対象を撮影対象の変更の指示に含まれる位置情報により示されるリング1に変更する。
 図19のステップS92の処理の後、ステップS93において、CCU122は、カメラ121に対して撮影開始の指示を送信する。
 図20のステップS103において、カメラ121の通信制御部143は、図19のステップS93の処理でCCU122から送信された撮影開始の指示を受信したかを判定する。
 撮影開始の指示を受信しない場合、ステップS103においてNOであると判定されて、処理はステップS103に戻され、撮影開始の指示が受信されるまでの間、ステップS103の判定処理が繰り返される。
 その後、撮影開始の指示が受信されると、ステップS103においてYESであると判定されて、処理はステップS104に進む。
 ステップS104において、カメラ121の撮像部141は、ステップS102の処理で撮影対象としたリング1の撮影を開始する。これにより、カメラ121は、盛り上がり度合いが高いユーザとその周辺を撮影することができる。
 図19のステップS93の処理の後、ステップS94において、CCU122は、リング1に対して撮影開始情報を送信する。
 図18のステップS77において、リング1の通信制御部84は、図19のステップS94の処理でCCU122から送信された撮影開始情報を受信したかを判定する。
 撮影開始情報を受信しない場合、ステップS77においてNOであると判定されて、処理はステップS77に戻され、撮影開始情報が受信されるまでの間、ステップS77の判定処理が繰り返される。
 その後、撮影開始情報が受信されると、ステップS77においてYESであると判定されて、処理はステップS78に進む。
 ステップS78において、リング1の挙動制御部83は、挙動情報にしたがった挙動を実行する。この場合の挙動は、ステップS75において実行される挙動よりも、発光の光量や振動の強さが増すように設定されている。これにより、ユーザは、最も盛り上がっている瞬間を知得できる。また、ユーザは、自身がカメラ121の撮影対象とされたことを知得できる。
 ステップS79において、リング1の通信制御部84は、撮影が行われた後、所定のタイミングで、CCU122に対して撮影停止要求を送信する。これにより、リング1の撮影要求処理は終了する。
 図19のステップS95において、CCU122は、ステップS79の処理でリング1から送信された撮影停止要求を受信したかを判定する。
 撮影停止要求を受信しない場合、ステップS95においてNOであると判定されて、処理はステップS95に戻され、撮影停止要求が受信されるまでの間、ステップS95の判定処理が繰り返される。
 その後、撮影停止要求が受信されると、ステップS95においてYESであると判定されて、処理はステップS96に進む。
 ステップS96において、CCU122は、カメラ121に対して撮影停止の指示を送信する。これにより、CCU122のカメラ制御処理は終了する。
 図20のステップS105において、カメラ121に通信制御部143は、図19のステップS96の処理でCCU122から送信された撮影停止の指示を受信したかを判定する。
 撮影停止の指示を受信しない場合、ステップS105においてNOであると判定されて、処理はステップS105に戻され、撮影停止の指示が受信されるまでの間、ステップS106の判定処理が繰り返される。
 その後、撮影停止の指示が受信されると、ステップS105においてYESであると判定されて、処理はステップS106に進む。
 ステップS106において、カメラ121は、撮影対象をリング1とした撮影を停止する。これにより、カメラ121による撮影処理は終了する。
 このように、カメラ121は、ユーザが最も盛り上がった瞬間を撮影することができる。また、カメラ121は、盛り上がり度合いが高いユーザとその周辺のユーザを撮影対象とすることができるので、撮影した映像を通じて会場の盛り上がりを視聴者に伝えることができる。また、リング1を装着したユーザは、リング1が発光及び振動することにより、自身がカメラ121の撮影対象とされたことを知得できるので、適切な表情を作ることができる。さらに、リング1を装着したユーザは、自身が撮影対象とされたことを知得できるので、カメラ121を意識してより盛り上がることができる。
[群制御の第4例]
 次に、図22乃至図35を参照して、本技術を適用したリング1を用いた群制御の第4例について説明する。
 図22は、群制御の第4例を説明する図である。
 図22の第4例の群制御は、リング1側の制御と、カメラ121及びSNS(social network service)171側の制御とに大別される。
 先ずリング1側の制御としては、例えば所定のイベントが行われている会場において、複数のユーザの腕に装着された複数のリング1の群grが1以上形成され、当該1以上の群grの各々において、盛り上がり度合いが判定される制御が実行される。盛り上がり度合いが判定される所定の行動は、特に限定されないが、本実施形態では、同一の群gr内に存在する同種のリング1が腕に装着された複数のユーザが、同調した動きを実行する行動が採用される。
 このようにして群grの盛り上がり度合いの判定がイベント中の適当なタイミングで複数の群gr毎に繰り返し実行され、盛り上がり度合いが所定の閾値以上となると、群gr内のリング1のそれぞれの位置情報、盛り上がった時刻を示す時刻情報、及びリング1を特定可能な識別子(以下、リングIDと称する)がSNSを管理するサーバに送信され、SNS171のサーバにおいて記憶される制御が実行される。なお、以下説明の簡略上、特に断りのない限り、SNS171を管理するサーバを、単にSNS171と称する。
 図22の第4例の群制御のうち、リング1側の制御が実行される場合には、図6のCPU31の機能的構成のうち、センサ情報取得部81、盛り上がり判定部82、挙動制御部83、通信制御部84、位置情報取得部85、時刻情報取得部86、記憶部88、群形成部90、及び群情報管理部91が機能する。
 図22に示されるように、リング1の群形成部90は、所定の手法により群grを形成する。なお、群grの形成手法についての詳細は後述する。形成された群grに属するリング1-kを装着したユーザUkは、同一の群gr内に存在する複数の他のユーザと同調した動きをするものとする。この場合、リング1-kの盛り上がり判定部82は、群制御の第3例と同様に盛り上がり度合いを判定し、判定結果が閾値以上となった場合、群grが盛り上がっていると判定する。群grが盛り上がっていると判定されると、リング1-kの位置情報取得部85は、リング1-kの現在の位置情報を取得し、時刻情報取得部86は、盛り上がっていると判定された時刻(すなわち、盛り上がった時刻)を示す情報を取得する。リング1-kの通信制御部84は、リング1-kの位置情報、盛り上がった時刻を示す時刻情報、及びリング1-kのリングID(以下、これらの情報をリング情報と称する)をSNS171に送信する。
 次に、第4例の群制御のうち、カメラ121及びSNS171側の制御について説明する。
 先ず、イベントが行われている間、SNS171は、リング1からリング情報が送信されてくる毎に、当該リング情報を適宜記憶する。
 カメラ121は、イベント中に会場内の多数の場所(すなわち、群grが存在する場所を含む)を撮影して、撮影の結果得られる映像データを、撮影場所、撮影時刻等のメタデータを重畳して映像管理装置172に送信する。
 ここで、イベント中にカメラ121から映像管理装置172に送信される映像データは、複数の区分データにより管理されるものとする。この区分は、カメラ121側で撮影中に行われてもよいし、映像管理装置172や編集装置(図示せぬ)側で撮影後に行われてもよい。すなわち、イベント中の映像データは、複数の区分データから構成されるものとする。ただし、ここでいう複数の区分データとは、それぞれの実データが別ファイルとして分離されて記憶されて複数になっていることを意味するのみならず、その他例えば、実データとしては分離されずに記憶されているが、プレイリストのようなもので区分されて仮想的に複数の区分データが構成されていることも意味するものとする。
 映像管理装置172においては、予め会場の座席の位置情報等(後述する撮影場所情報)が記憶されているため、カメラ121から送信された映像データのメタデータから、会場の所定座席に着座したユーザ(或いはリング1)等の撮影対象が特定される。映像管理装置172は、特定した撮影対象の情報と映像データを関連付けて区分データ単位で記憶する。
 イベント終了後、SNS171に属するメンバー等は、撮影対象が映る映像であって、イベント中に盛り上がっていた様子を示す映像を視聴したいと所望した場合、自身の端末(図示せず)から、SNS171に対して、例えば撮影対象と盛り上がっていた時刻とを検索条件として、区分データの取得要求をする。
 SNS171は、この取得要求を受けると、映像管理装置172に当該要求を転送する。すると、映像管理装置172は、当該要求に該当する区分データを抽出して、SNS171に送信する。SNS171は、当該区分データを、取得要求をした端末に送信する。
[システム構成図]
 図23は、群制御の第4例における情報処理システムの構成図である。
 情報処理システム160は、リング1-1乃至1-N、SNS171、カメラ121、及び映像管理装置172から構成される。なお、リング1-1乃至1-Nは群grを構成する。
 複数のリング1とSNS171は、例えば、マルチホップ無線LANメッシュネットワークにより相互に接続されている。SNS171と映像管理装置172との通信手法は特に限定されず、例えばインターネットにより接続される。また、映像管理装置172とカメラ121との通信手法は特に限定されず、有線であっても無線であってもよい。
 SNS171は、予め登録されたユーザのアカウント情報を管理する。SNS171の詳細については図24を参照して後述する。
 カメラ121は、会場内を撮影する。カメラ121の詳細については後述する。
 映像管理装置172は、カメラ121により撮影された結果得られる映像データを区分データ単位で管理する。映像管理装置172の詳細については図25を参照して後述する。
 ここで、第4例の群grの形成手法の詳細について説明する。
 リング1の群形成部90は、自身のリングIDを、群grの群IDの初期値として群情報管理部91に記憶する。なお、群IDは、群grを特定可能な識別子である。また、群形成部90は、所属フラグを群情報管理部91に記憶する。なお、所属フラグの初期値は「属していない」である。
 リング1の群形成部90は、ペアリングが可能な他のリング1を検索して、当該他のリング1との間で、次のようなフラグ及び群IDの変更処理を実行する。
 リング1の群形成部90は、自身と他のリング1との各々の所属フラグが何れも「属していない」か「属している」で一致していた場合、相互の群IDを比較する。群IDの比較の結果、例えば自身の群IDの方が大きかった場合、リング1の群形成部90は、自身の群IDを他のリング1(すなわち、群IDが小さい他のリング1)の群IDに変更する。さらに、リング1の群形成部90は、所属フラグが「属していない」の場合には、当該所属フラグを「属している」に変更する。
 また、リング1の群形成部90は、自身の所属フラグが「属していない」である一方、他のリング1の所属フラグが「属している」である場合、自身の群IDを他のリング1(すなわち、所属フラグが「属している」であるリング1)の群IDに変更すると共に当該所属フラグを「属している」に変更する。このような処理が、一定の範囲内に存在する複数のリング1同士で繰り返されることにより、群grが形成される。
[SNS171の機能的構成例]
 図24は、SNS171の機能的構成例を示す機能ブロック図である。
 SNS171は、通信制御部191、通信部192、認証部193、記憶制御部194、記憶部195、及び解析部196を有している。
 通信制御部191は、モデム等の通信部192とリング1及び映像管理装置172との間で行われる無線通信を制御する。
 認証部193は、リング1を認証するための所定の認証処理を実行し、認証に成功した場合、通信部192とリング1との無線通信を開始させる。
 記憶制御部194は、記憶部195に対する各種情報の記憶を制御する。
 解析部196は、リング1及び映像管理装置172との間で送受信される情報、例えば後述する映像データの取得要求等のコマンドの解釈や解析をする。
[カメラ121の機能的構成例]
 第4例の群制御が実行される場合には、図17の機能的構成の全てが機能する。すなわち、撮像部141、変換部142、通信制御部143、通信部144、検出部145、撮影条件取得部146、及びメタデータ生成部147が機能する。なお、撮像部141、変換部142、通信制御部143、通信部144については図17を参照して説明済みなので、差異点のみを説明する。
 検出部145は、例えば、GPS、リアルタイムクロック、ジャイロセンサ、測距センサ等を含み、撮像部141が撮影対象を撮影しているときの撮影条件を検出する。
 撮影条件取得部146は、検出部145により検出された撮影条件を例えばフレーム又はフィールド毎に取得する。また、撮像部141が撮影した映像データ(例えば複数のフレーム又はフィールドからなる動画像のデータ)を、所定単位(例えば撮影の開始指示から終了指示までの間に1台のカメラ121により撮影された単位)毎にファイル化して、当該ファイルを特定可能なIDを生成する。なお、以下では、このようなファイルを特定可能なIDをUMID(Unique Material Identifier)と称する。
 メタデータ生成部147は、撮影条件取得部146により取得された撮影条件と撮影条件取得部146により生成されたUMIDを含むメタデータを、通信に適した形式で生成する。
 通信制御部143は、変換部142から供給された映像データをファイル単位で、メタデータ生成部147により生成されたメタデータ(すなわち、撮影条件とUMIDが含まれる)を重畳して、通信部144から映像管理装置172に送信させる制御を実行する。
[映像管理装置172の機能的構成例]
 図25は、映像管理装置172の機能的構成例を示す機能ブロック図である。
 映像管理装置172は、通信部210、通信制御部211、メタデータ抽出部212、撮影場所情報記憶部213、撮影対象特定部214、読み書き制御部215、及び映像データ記憶部216を有している。
 通信制御部211は、モデム等の通信部210とカメラ121及びSNS171との間で行われる通信を制御する。例えば通信制御部211は、メタデータが重畳された映像データがカメラ121から送信されてきた場合、当該映像データを通信部210に受信させる。
 メタデータ抽出部212は、通信部210に受信された映像データからメタデータを抽出する。メタデータ抽出部212は、抽出したメタデータを撮影対象特定部214に供給し、映像データを読み書き制御部215に供給する。
 撮影場所情報記憶部213は、撮影場所情報を記憶する。撮影場所情報とは、カメラの撮影可能な場所(例えばイベントの会場内の各場所)を示す情報であり、例えば本実施形態では、所定のイベントが行われた会場内のユーザ(又はその腕に装着されたリング1)が撮影対象になり得るので、各ユーザが着座した各々の座席の位置情報(座席番号と緯度経度情報)が採用される。以下、撮影場所情報の詳細について、図26を参照して説明する。
[撮影場所情報]
 図26は、撮影場所情報のリストの構造を示す図である。
 図26に示されるように、撮影場所情報には、会場の座席の座席番号と、当該座席の緯度経度情報が含まれる。
 例えば、図26の1行目から、座席番号でいうと「座席A15周辺」となる会場内の場所とは、緯度経度情報でいうと「緯度=+34.44.36.02 経度=+135.26.44.35」であることが分かる。また、図26の2行目から、座席番号でいうと「座席B37周辺」となる会場内の場所とは、緯度経度情報でいうと「緯度=+34.44.36.11 経度=+135.26.44.36」であることが分かる。また、図26の3行目から、座席番号でいうと「座席C22周辺」となる会場内の場所とは、緯度経度情報でいうと「緯度=+34.44.36.22 経度=+135.26.44.33」であることが分かる。
 図25の説明に戻り、撮影対象特定部214は、メタデータ抽出部212から供給されたメタデータと、撮影場所情報記憶部213に記憶されている撮影場所情報に基づいて、区分データ毎に撮影対象を特定する。なお、区分データに映りこんでいるユーザやリング1そのものの特定はメタデータ及び撮影場所情報だけでは困難であるので、当該ユーザが着座したと予測される座席番号が撮影対象として特定される。
 読み書き制御部215は、メタデータ抽出部212から供給された映像データを、撮影対象特定部214により特定された撮影対象と関連付けてファイル単位(UMIDで特定可能な単位)で映像データ記憶部216に書き込む(すなわち、記憶させる)。また、読み書き制御部215は、SNS171からの区分データの取得の要求に応じて、該当する区分データを映像データ記憶部216から検索して読み出し、通信部210を介してSNS171に送信する。
 映像データ記憶部216は、撮影対象が関連付けられた映像データをファイル単位で記憶する。記憶される映像データの管理情報について、図27を参照して説明する。
[映像データ]
 図27は、映像データ記憶部216に記憶される映像データの管理情報を示す図である。
 映像データ記憶部216に記憶された映像データは、UMIDで一意に特定されるファイル単位で管理される。所定のUMIDのファイルには、1以上の区分データが含まれている。ここで、UMIDのファイルには、映像の実データは1つだけ含まれており、この実データを1以上の区分データに区分して、区分データ単位での読み出しが可能になるように管理するための管理情報が別途映像データ記憶部216に記憶されている。
 この管理情報の一例が図27に示されている。図27の管理情報には、UMID、タイムコード、及び撮影対象が含まれている。
 ここで、タイムコードとは、UMIDで特定されるファイルに含まれる映像の実データを構成する複数のフレーム又はフィールド毎に付される時間的な情報であって、当該ファイルの先頭のフレーム又はフィールドの時刻を基準時刻とした場合における、基準時刻に対する相対的な時刻を示している。
 すなわち、図27の例では、ファイル内の区分データは、タイムコードで管理されている。
 具体的には例えば、図27に示されるように、UMIDが「X」のファイルにおいて、タイムコードが「00:01:00:05」の位置には、「座席A15周辺」の撮影対象が撮影されていること、タイムコードが「00:20:30:20」の位置には、「座席B37周辺」の撮影対象が撮影されていること、タイムコードが「01:10:00:17」の位置には、「座席C22周辺」の撮影対象が撮影されていることが分かる。
 したがって、これらの3つのタイムコードにより、次のような第1の区分データ乃至第3の区分データが、UMIDが「X」のファイルに含まれていることが分かる。すなわち、UMIDが「X」のファイルの撮影開始時刻を基準時刻0として、基準時刻に対する相対的な時刻換算でいうと、第1の区分データとは、「00:01:00:05」の時刻に「座席A15周辺」が撮影された様子を示す映像データである。第2の区分データとは、「00:20:30:20」の時刻に「座席B37周辺」が撮影された様子を示す映像データである。第3の区分データとは、「01:10:00:17」の時刻に「座席C22周辺」が撮影された様子を示す映像データである。
 また、例えば、UMIDが「Y」のファイルにおいて、タイムコードが「01:01:01:15」の位置には、「座席Z33周辺」の撮影対象が撮影されていること、タイムコードが「01:02:20:21」の位置には、「座席Y21周辺」の撮影対象が撮影されていること、タイムコードが「01:10:01:12」の位置には、「座席X56周辺」の撮影対象が撮影されていることが分かる。
 したがって、これらの3つのタイムコードにより、次のような第1の区分データ乃至第3の区分データが、UMIDが「Y」のファイルに含まれていることが分かる。すなわち、UMIDが「X」のファイルの撮影開始時刻を基準時刻0として、基準時刻に対する相対的な時刻換算でいうと、第1の区分データとは、「01:01:01:15」の時刻に「座席Z33周辺」が撮影された様子を示す映像データである。第2の区分データとは、「01:02:20:21」の時刻に「座席Y21周辺」が撮影された様子を示す映像データである。第3の区分データとは、「01:10:01:12」の時刻に「座席X56周辺」が撮影された様子を示す映像データである。
 このような管理情報が記憶されている映像管理装置172に対して、SNS171は、ユーザが盛り上がった映像が含まれる所定の区分データの取得を要求する。すなわち、SNS171は、映像管理装置172に対して、撮影対象が撮影された日時と撮影場所(座席番号)を検索キーとして、当該区分データの取得を要求する。
 すると、映像管理装置172の読み書き制御部215は、映像データ記憶部216に記憶されている映像データの中から、日時と撮影場所を検索キーとして、該当する区分データを抽出する。なお、撮影対象が撮影された日時は、例えば、UMIDに記録されている8バイトのタイムスタンプと、タイムコード若しくはファイルの先頭からのフレーム数とから算出することが可能である。
[情報処理システム160の処理]
 次に、情報処理システム160の処理の流れについて、図28乃至図32を参照して説明する。図28は、リング1が実行する処理のうち、SNS171にリング情報を送信する処理(以下、リング情報送信処理と称する)の流れについて説明する図である。図29は、SNS171が実行する処理のうち、映像データを提供する処理(以下、映像データ提供処理と称する)の流れについて説明する図である。図30は、カメラ121が実行する処理のうち、撮影対象を撮影する処理(以下、撮影処理と称する)の流れについて説明する図である。図31は、映像管理装置172が映像データを管理する処理(以下、映像データ管理処理)の流れについて説明する図である。
 また、図32は、情報処理システム160のリング1、SNS171、カメラ121、及び映像管理装置172の間の処理の関係について説明する図である。図32のリング1、SNS171、カメラ121、及び映像管理装置172の相互の処理関係は、図28乃至図31の対応するステップを参照することで容易に理解することが可能である。図32の左側にはリング1のリング情報送信処理の一例を説明するフローチャート(図28に対応する)が示され、左から2番目にはSNS171の映像データ提供処理の一例を説明するフローチャート(図29に対応する)が示されている。また、図32の左から3番目にはカメラ121の撮影処理の一例を説明するフローチャート(図30に対応する)が示され、右側には、映像管理装置172の映像データ管理処理の一例を説明するフローチャート(図31に対応する)が示されている。
 図28のステップS121において、リング1の通信制御部84は、SNS171に認証を要求する。
 図29のステップS141において、SNS171の通信制御部191は、図28のステップS121の処理でリング1から認証要求がされたかを判定する。
 認証要求がされない場合、ステップS141においてNOであると判定されて、処理はステップS141に戻され、認証要求がされるまでの間、ステップS141の判定処理が繰り返される。
 その後、リング1から認証要求がされた場合には、ステップS141においてYESであると判定されて、処理はステップS142に進む。
 ステップS142において、認証部193は、リング1の認証処理を実行する。
 ステップS143において、認証部193は、リング1の認証が成功したかを判定する。
 認証が成功しない場合、ステップS143においてNOであると判定されて、処理はステップS141に戻され、それ以降の処理が繰り返される。すなわち、認証が成功するまでの間、ステップS141乃至S143のループ処理が繰り返される。
 その後、認証が成功した場合、ステップS143においてYESであると判定されて、処理はステップS144に進む。なお、認証が成功した場合、認証が成功したという情報がリング1に送信される。
 図28のステップS122において、リング1の通信制御部84は、SNS171における認証が成功したかを判定する。
 認証が成功しない場合、すなわちSNS171からの認証が成功したという情報が受信されない場合、ステップS122においてNOであると判定されて、処理はステップS121に戻され、それ以降の処理が繰り返される。すなわち、認証が成功するまでの間、ステップS121,S122のループ処理が繰り返される。
 その後、認証が成功した場合、すなわちステップS143の処理でSNS171から送信された認証が成功したという情報が受信された場合には、ステップS122においてYESであると判定されて、処理はステップS123に進む。
 ステップS123において、リング1の群形成部90は、上述した群grの形成手法により、群grを形成する。
 ステップS124において、リング1のセンサ情報取得部81は、同一群に属するリング1からセンサ情報を取得して、送信する。すなわち、通信制御部84は、同一群に属する他の1以上のリング1のセンサ情報取得部81によりそれぞれ検出された動き情報を、ワイヤレスモジュール32により受信して取得する。そして、通信制御部84は、自身のセンサ情報取得部81により取得された動き情報を、同一群に属する他の1以上のリング1に送信する。
 ステップS125において、リング1の盛り上がり判定部82は、盛り上がり判定を実行する。すなわち、盛り上がり判定部82は、ステップS124の処理で取得した自身及び他の1以上のリング1の動き情報に基づいて、同一群に属する複数のユーザ間での動きの同調性の関連度を示す関連情報を生成する。そして、盛り上がり判定部82は、当該関連情報から、盛り上がり度合いを判定する。
 ステップS126において、リング1の盛り上がり判定部82は、判定結果が閾値以上であるかを判定する。すなわち、盛り上がり判定部82は、盛り上がり判定の判定結果である盛り上がり度合いが、予め設定された閾値以上であるかを判定する。
 判定結果が閾値以上でない場合、ステップS126においてNOであると判定されて、処理はステップS124に戻され、判定結果が閾値以上になるまでの間、ステップS124乃至S126のループ処理が繰り返される。
 その後、判定結果が閾値以上となった場合、ステップS126においてYESであると判定されて、処理はステップS127に進む。
 ステップS127において、挙動制御部83は、予め記憶部88に記憶されている挙動情報で規定される挙動を実行する。
 ステップS128において、位置情報取得部85は、リング1の現在の位置情報を取得し、時刻情報取得部86は、判定結果が閾値以上となった時刻(すなわち、盛り上がった時刻)を示す情報を取得する。
 ステップS129において、通信制御部84は、リング情報をSNS171に送信する。すなわち、ステップS128の処理で取得された位置情報、時刻情報、及びリングIDがSNS171に送信される。これにより、リング1のリング情報送信処理が終了する。
 図29のステップS144において、SNS171の通信制御部191は、通信部192を制御して、図28のステップS129の処理でリング1から送信されたリング情報を受信する。
 ステップS145において、SNS171の記憶制御部194は、記憶部195を制御して、ステップS144の処理で受信したリング情報を記憶する。
 ここで、図30の撮影処理について説明する。
 図30のステップS161において、カメラ121の撮像部141は、イベント中の会場内を撮影する。
 ステップS162において、カメラ121の変換部142は、ステップS161の処理で撮影された結果得られる撮影データを通信に適した形式の映像データに変換する。
 ステップS163において、撮影条件取得部146は、映像データのファイルのUMIDを生成する。
 ステップS164において、カメラ121の撮影条件取得部146は、検出部145が検出した撮影条件を取得する。
 ステップS165において、カメラ121のメタデータ生成部147は、ステップS163の処理で生成されたUMIDとステップS164の処理で取得された撮影条件を含むメタデータを生成する。
 ステップS166において、カメラ121の通信制御部143は、ステップS162の処理で変換された映像データとステップS165の処理で生成されたメタデータを重畳して、通信部144から映像管理装置172に送信させる制御を実行する。
 これにより、カメラ121の撮影処理は終了する。
 一方、図31のステップS181において、映像管理装置172の通信制御部211は、図30のステップS166の処理でカメラ121から送信された、メタデータが重畳された映像データを通信部210に受信させる。
 ステップS182において、映像管理装置172のメタデータ抽出部212は、ステップS181の処理で受信した映像データからメタデータを抽出する。メタデータ抽出部212は、抽出したメタデータを撮影対象特定部214に供給し、映像データを読み書き制御部215に供給する。
 ステップS183において、映像管理装置172の撮影対象特定部214は、メタデータ抽出部212から供給されたメタデータと、撮影場所情報記憶部213に記憶されている撮影場所情報に基づいて、区分データ毎に撮影対象を特定する。すなわち、座席番号が撮影対象として特定される。
 ステップS184において、映像管理装置172の読み書き制御部215は、メタデータ抽出部212から供給された映像データを、ステップS183の処理で特定された撮影対象と関連付けて映像データ記憶部216に記憶する。
 図29のステップS146において、SNS171の通信制御部191は、SNS171に属するメンバー等の図示せぬ端末から所定の映像データの取得要求を受信したかを判定する。
 所定の映像データの取得要求が受信されない場合、ステップS146においてNOであると判定されて、処理はステップS146に戻され、所定の映像データの取得要求が受信されるまでの間、ステップS146の判定処理が繰り返される。
 その後、所定の映像データの取得要求が受信された場合、ステップS146においてYESであると判定されて、処理はステップS147に進む。
 ステップS147において、SNS171の通信制御部191は、映像管理装置172に映像データの取得要求を転送する。
 図31のステップS185において、映像管理装置172の通信制御部211は、図29のステップS147の処理でSNS171から送信された映像データの取得要求を受信したかを判定する。
 映像データの取得要求が受信されていない場合、ステップS185においてNOであると判定されて、処理はステップS185に戻され、映像データの取得要求が受信されるまでの間、ステップS185の判定処理が繰り返される。
 その後、映像データの取得要求が受信された場合、ステップS185においてYESであると判定されて、処理はステップS186に進む。
 ステップS186において、映像管理装置172の読み書き制御部215は、ステップS186の処理で受信した取得要求に応じて、該当する映像データ(すなわち、区分データ)を検索して読み出し、通信部210を介してSNS171に送信する。
 これにより、映像管理装置172の映像データ管理処理は終了する。
 図29のステップS148において、SNS171の通信制御部191は、図31のステップS186の処理で映像管理装置172が送信した映像データを受信する。
 これにより、SNS171の映像データ提供処理は終了する。
 なお、上述の例では、SNS171と映像管理装置172との連携は、イベント中に盛り上がった場面を特定するための時刻と場所により行われたが、特にこれに限定されない。例えば、イベント中に盛り上がった場面を示すキーワード等をタグとして、当該タグにより、SNS171と映像管理装置172との連携が図られてもよい。
 この場合、SNS171側では図33に示される管理情報が保持されており、映像管理装置172側では図34に示される管理情報が保持されている。
 図33は、SNS171が保持する管理情報のリストの構成の一例を示している。
 図33の管理情報のリストにおいて、所定の1行には、イベント中の盛り上がりの一場面を示す管理情報が含まれている。すなわち、リング1から1つのリング情報が供給される毎に、1行が追加され、当該リング情報に基づいて生成される管理情報が、追加された1行に追記される。
 具体的には、新たなリング情報が供給されて1行が追加されると、当該リング情報に含まれる時刻情報から特定される時刻、すなわち盛り上がった時刻(日時)が、追加された1行の「タイムスタンプ」の項目に格納される。また、当該リング情報に含まれる位置情報から特定される位置(緯度経度)が、追加された1行の「GPS情報」の項目に格納される。なお、「SNSアカウント」の項目には、リング情報を送付したリング1が属する群における各ユーザのSNSアカウントが格納されるが、格納の手法自体は特に限定されず、手動入力の手法でもよいし、当該群に属するリング1のリングID等に基づいて自動的に入力する手法でもよい。
 また、SNSの管理者やユーザによって、例えば、このような1行に対応する盛り上がった場面をSNSのメンバーが想起できるようなキーワードがタグとして付される。このようなタグが、当該1行の「TAG情報」に格納される。
 図34は、映像管理装置172が保持する管理情報のリストの構成の一例を示している。
 図34の管理情報のリストは、図27の管理情報のリストの各項目に対して、「TAG情報」の項目のみが追加されたリストである。このため、「TAG情報」以外の項目については、図27を参照して説明済みであるので、ここではその説明は省略する。
 図34の「TAG情報」の項目は、図33のSNS171において管理されている図33の管理情報に含まれる「TAG情報」に対応している。したがって、適当なタイミングで、SNS171から「TAG情報」の格納内容が通知されるので、その通知内容にしたがって手動又は自動で、図34の「TAG情報」の項目が更新される。これにより、相互の「TAG情報」により、SNS171と映像管理装置172との間に連携が図られるようになる。
[タグを利用した処理]
 図35は、このような図33及び図34の管理情報を用いてSNS171と映像管理装置172とが連携して行う処理のフローチャートが示されている。図35の左側には、SNS171の処理の一例を説明するフローチャートが示され、図35の右側には、映像管理装置172の処理の一例を説明するフローチャートが示されている。
 ステップS201において、SNS171の通信制御部191は、映像管理装置172に対してTAG情報付加の要求を送信する。
 すると、ステップS221において、映像管理装置172の通信制御部211は、ステップS201の処理でSNS171から送信されたTAG情報付加の要求を受信する。
 ステップS222において、映像管理装置172の通信制御部211は、TAG情報付加の要求が正当かを判定する。
 TAG情報付加の要求が正当でない場合、ステップS222においてNOであると判定されて、処理はステップS221に戻され、それ以降の処理が繰り返される。すなわち、正当なTAG情報付加の要求がされるまでの間、ステップS221,S222のループ処理が繰り返される。
 その後、正当なTAG情報付加の要求がされた場合、ステップS222においてYESであると判定されて、処理はステップS223に進む。
 ステップS223において、読み書き制御部215は、管理情報にTAG情報を付加する。
 ステップS202において、SNS171の通信制御部191は、SNS171に属するメンバー等の端末によって所定の映像データの取得要求がされた場合、当該要求を映像管理装置172に転送する。
 すると、ステップS224において、映像管理装置172の通信制御部211は、ステップS202の処理でSNS171から送信された所定の映像データの取得要求を受信する。
 ステップS225において、映像管理装置172の読み書き制御部215は、当該要求に該当する所定の映像データを抽出する。
 ステップS226において、映像管理装置172の通信制御部211は、ステップS225の処理で抽出された所定の映像データをSNS171に送信する。
 すると、ステップS203において、SNS171の通信制御部191は、ステップS226の処理で映像管理装置172が送信した所定の映像データを受信する。SNS171の通信制御部191は、当該所定の映像データを、取得要求をしたSNS171に属するメンバー等の端末に送信する。これにより、SNS171と映像管理装置172とが連携して行う処理は終了する。
 このように、SNSに記憶されている映像データと、映像管理装置に記憶されている映像データとが、関連付けられているので、盛り上がりシーンの映像データを容易に検索することができる。
 なお、上述の群grの形成手法の例では、複数のリング1のみで群grが形成された。しかしながら、SNS171によって群grが形成されてもよい。SNS171による群grの形成手法について説明する。
 はじめに、リング1の通信制御部84は、位置情報取得部85により取得された自身の位置情報を、SNS171に送信する。
 SNS171は、複数のリング1から受信した位置情報から、近接するリング1同士、すなわち一定範囲内に存在する複数のリング1を認識し、当該一定範囲内に存在する複数のリング1を1つの群grとして形成する。そして、SNS171は、当該群grの群IDを生成し、当該群grに含まれる複数のリング1に当該群IDを送信する。
 このように、SNS171によって、近接するリング1同士が1つの群grとして形成されたが、特にこれに限定されない。例えば、所定のイベントが、チームに分かれて競うスポーツである場合には、所定のチームを応援するユーザに装着されたリング1毎に、群grが形成されてもよい。すなわち、同じチームを応援するユーザに装着されたリング1同士が1つの群grを形成するようにしてもよい。また例えば、所定の選手や所定の歌手をお気に入りとするユーザに装着されたリング1同士が1つの群grを形成するようにしてもよい。
[群制御の第5例]
 次に、図36と図37を参照して、本技術を適用したリング1を用いた群制御の第5例について説明する。
 図36は、群制御の第5例を説明する図である。
 図36の第5例では、例えばイベントに直接参加できないユーザであっても、腕にリング1を装着し、当該イベントの番組の映像をテレビジョン受像機等で視聴するだけで、当該リング1が、当該テレビジョン受像機に表示されたイベントの映像に含まれる、複数の他のユーザのそれぞれに装着された複数の他のリング1と仮想的な群が形成される。このような仮想的な群に属する(すなわち、イベントの会場外に存在する)リング1が、例えば、テレビジョン受像機で表示されているイベントの会場内に存在する他のリング1と同期して発光や振動をするといった制御が、群制御の一例として実行される。
 例えば、リング1-kを装着したユーザUkは、テレビジョン受像機に表示されるイベントの映像を視聴しているとする。この場合、イベントの映像には、複数のユーザのそれぞれに装着されたリング1が所定のパターンで発光及び振動する映像が含まれる。この場合、ユーザUkのリング1-kも、イベントの映像に含まれるユーザのリング1と同様の所定のパターンで発光及び振動する。
 図36の第5例の群制御が実行される場合には、図6のCPU31の機能的構成のうち、挙動制御部83、通信制御部84、及び記憶部88が機能する。
 具体的には、リング1-kの通信制御部84は、テレビジョン受像機TVと通信して、テレビジョン受像機TVに映る他のユーザの他のリング1の発光及び振動のパターンを特定可能な情報(以下、他リングパターン特定情報と称する)を受信する。つまり、この場合、他リングパターン特定情報は放送されてくる。リング1-kの挙動制御部83は、他リングパターン特定情報を解析することで、他のリング1の発光及び振動のパターンを特定し、特定したパターンと同一パターンで、リング1-kも発行及び振動するように制御する。
 他リングパターン特定情報の形態(伝送形態含む)及びその解析手法は、特に限定されない。
 例えば、他リングパターン特定情報は、放送とは別の伝送路(図示せず)で伝送されてきたものであってもよい。ただし、この場合、放送と、別の伝送路の通信との同期が図れる仕組みが必要になる。
 また例えば、他リングパターン特定情報は、放送信号に重畳されてきたものであってもよい。ただし、この場合、放送規格の変更が必要になる可能性がある。
 また例えば、テレビジョン受像機TVから放送信号をリング1に転送することができる場合、通信制御部84は、テレビジョン受像機TVと通信して、放送信号を、他リングパターン特定情報として受信してもよい。この場合、挙動制御部83は、他リングパターン特定情報である映像信号に対して各種画像処理を施すことで解析し、当該解析結果に基づいて他のリング1の発光及び振動のパターンを特定し、特定したパターンと同一パターンで、リング1-kも発光及び振動するように制御してもよい。
[挙動制御処理]
 次に、群制御の第5例においてリング1が実行する処理のうち、仮想的な群に属する他のリング1と同期して挙動を制御する処理(以下、挙動制御処理と称する)の流れについて説明する。
 図37は、挙動制御処理の流れを説明するフローチャートである。
 ステップS241において、リング1の通信制御部84は、他のリング1の他リングパターン特定情報を受信する。
 ステップS242において、リング1の挙動制御部83は、特定した挙動を実行する。すなわち、挙動制御部83は、ステップS241の処理で受信した他リングパターン特定情報を解析し、当該解析結果に基づいて他のリング1の発光及び振動のパターンを特定し、特定したパターンと同一パターンの挙動を実行する。
 これにより、挙動制御処理は終了する。
 このように、ユーザは、テレビジョン受像機に表示されるイベントの映像を視聴することで、腕に装着したリング1が、会場にいるユーザと同様の挙動を実行するのを見ることができる。したがって、ユーザは、イベントが行われている会場に行かなくても、会場にいるユーザと一体感を得ることができる。また、会場以外の場所での応援や観戦であっても、ユーザは、会場にいるユーザと同様の臨場感を得ることができる。
 なお、テレビジョン受像機の前の各ユーザUkの腕に装着されたリング1が一つの群を形成し、テレビジョン受像機およびネットワークを介して、イベントが行われている会場に影響を与えることができるようにしてもよい。この場合、例えば、テレビジョン受像機に表示されるイベントの映像を視聴しているユーザUkが、リング1が装着された腕を振って応援すると、その結果がイベントが行われている会場のディスプレイに影響を与える。
 また、テレビジョン受像機の前の各ユーザUkの腕に装着されたリング1が一つの群を形成し、イベント会場からの信号を受けることができる。これにより、各ユーザUkは、群制御の第2例で示した、アーティストUAの指名をテレビジョン受像機の前で受信することができる。
[リーダの選出手法]
 上述した群制御の第2例においては、複数のリング1から形成される群の中からリーダが選出された。この場合、リーダの選出手法としては、盛り上がりを表わすことができる行動が、群内の複数のリング1の各々によって検出され、検出結果に基づいてリーダが選出される手法が採用された。しかしながら、リーダの選出手法は特に限定されず、図38乃至図40を参照して説明する手法が採用されてもよい。
 図38は、リーダの選出手法を示す図である。
 図38において、1つのリング1は、1つの丸印で表されており、当該丸印内の符号は、リング1の状態を示している。このような状態として、次の第1の状態乃至第3の状態が設けられている。すなわち、第1の状態とは、初期状態であり、符号iで表現される。第2の状態とは、リーダ状態であり、符号Lで表現される。リーダ状態になれるリング1は、群grの中でただ1つであるものとする。第3の状態とは、スレーブ状態であり、符号Sで示される。初期状態を脱したリング1は、リーダ状態になれない場合、全てスレーブ状態になる。
 また、リング1を示す丸印に重畳されている四角印は、当該リング1に内蔵されているセンサのセンサ情報が示す値(以下、センス値と称する)を示している。センス値は特に限定されないが、ここでは、3軸加速度センサ33により検出された動き情報であるとする。センス値の大小は、上述の動き情報の大小と対応している。さらに、動き情報の大小は、盛り上がり度合いと対応している。したがって、センス値が大きくなる程、盛り上がり度合いが大きくなる。盛り上がり度合いが大きいユーザ程、リーダの資格があるとするならば、センス値が大きい程、リーダの資格があるといえる。
 そこで、2つのリング1は、それぞれに内蔵された2つの3軸加速度センサ33の各センス値を比較し、センス値が大きいリング1の方がリーダの資格があると判定する。より正確には当該リング1を腕に装着しているユーザの方がリーダの資格がある、すなわちリーダ候補であると判定される。この場合、リーダ候補になったユーザの腕に装着されたリング1は、リーダ状態Lとなり、リーダ候補から落選したユーザの腕に装着されたリング1は、スレーブ状態Sになる。このようなセンス値の2つのリング1の比較が、群grとされる範囲においていわゆる総当たり戦で実行される。そして、比較が進むほどリーダ候補は絞られていき、最終的には1人のリーダ候補だけが残り、そのリーダ候補がリーダになる。
 具体的には例えば図38のAに示されるように、先ず、初期状態iのリング1-aと、初期状態iのリング1-bとが比較されるものとする。ここで、リング1-aのセンス値は値Yであり、リング1-bのセンス値は値Xであるとする。そして、値Xは値Yよりも大きい値であるとする。
 この場合、リング1-aとリング1-bとの比較の結果、大きなセンス値Xを有するリング1-bの状態は、初期状態iからリーダ状態Lに遷移し、小さなセンス値Yを有するリング1-aの状態は、初期状態iからスレーブ状態Sに遷移する。そして、スレーブ状態Sに遷移したリング1-aのセンス値は、リーダ候補となったリング1-bのセンス値である値Xに変更される。
 すなわち、2つのリング1がどちらも初期状態iの場合には、双方のセンス値が比較される。そして、比較の結果、センス値が大きい方のリング1の状態はリーダ状態Lに遷移し、センス値が小さい方のリング1の状態はスレーブ状態Sに遷移する。そして、スレーブ状態Sのリング1のセンス値は、リーダ状態Lのリング1のセンス値に変更される。
 次に、図38のBに示されるように、初期状態iのリング1-cと、リーダ候補であるリーダ状態Lのリング1-bとが比較されるものとする。ここで、リング1-cのセンス値は値Bであり、リング1-bのセンス値は値Xであるとする。
 この場合、リング1-cとリング1-bとの比較の結果、初期状態iのリング1-cの状態は、初期状態iからスレーブ状態Sに遷移する。そして、スレーブ状態Sのリング1-cのセンス値は、リーダ候補であるリング1-bのセンス値である値Xに変更される。
 すなわち、リング1が初期状態iの場合には、他方の状態に関わらず(すなわち、他方の状態が、リーダ状態Lまたはスレーブ状態Sの何れであっても)、双方のセンス値の比較は実行されない。そして、初期状態iのリング1の状態はスレーブ状態Sに遷移し、そのセンス値は、他方のリング1のセンス値に変更される。
 次に、図38のCに示されるように、スレーブ状態Sのリング1-dと、スレーブ状態Sのリング1-cとが比較されるものとする。ここで、リング1-dのセンス値は値Aであり、リング1-cのセンス値は値Xであるとする。そして、値Xは値Aよりも大きい値であるとする。
 この場合、リング1-dとリング1-cとの比較の結果、小さなセンス値Aを有するリング1-dのセンス値は、大きなセンス値Xを有するリング1-cのセンス値である値Xに変更される。
 すなわち、一方のリング1がスレーブ状態Sであり、他方の状態がスレーブ状態Sである場合には、双方のセンス値が比較される。そして、比較の結果、センス値が小さい方のリング1のセンス値は、センス値が大きい方のリング1のセンス値に変更される。なお、双方の状態は遷移されない。
 なお、図示はしないが、リング1の状態がスレーブ状態Sであり、他方の状態がリーダ状態Lである場合にも、双方のセンス値が比較され、比較の結果、センス値が小さい方のリング1のセンス値は、センス値が大きい方のリング1のセンス値に変更される。また、センス値が小さい方のリング1の状態は、スレーブ状態Sに遷移する。
 次に、図38のDに示されるように、リーダ候補であるリーダ状態Lのリング1-eと、リーダ候補であるリーダ状態Lのリング1-bとが比較されるものとする。ここで、リング1-eのセンス値は値Zであり、リング1-bのセンス値は値Xであるとする。そして、値Xは値Zよりも大きい値であるとする。
 この場合、リング1-eとリング1-bとの比較の結果、小さなセンス値Zを有するリング1-eの状態は、リーダ状態Lからスレーブ状態Sに遷移する。そして、スレーブ状態Sに遷移したリング1-eのセンス値は、リーダ状態Lのリング1-bのセンス値である値Xに変更される。
 すなわち、一方のリング1がリーダ状態Lであり、他方の状態がリーダ状態Lである場合には、双方のセンス値が比較される。そして、比較の結果、他方のリング1のスコア値の方が大きい場合、リーダ状態Lのリング1の状態はスレーブ状態Sに遷移し、そのセンス値は、他方のリング1のセンス値に変更される。
 なお、図示はしないが、リング1の状態がリーダ状態Lであり、他方の状態がスレーブ状態Sである場合にも、双方のセンス値が比較され、比較の結果、センス値が小さい方のリング1のセンス値は、センス値が大きい方のリング1のセンス値に変更される。また、センス値が小さい方のリング1の状態は、スレーブ状態Sに遷移する。
 各リング1は、このような状態とセンス値の変更を、一定範囲内のリング1との間で定期的に繰り返す。
 はじめに、リング1は、近接する他のリング1を検出し、検出された1以上の他のリング1との間のコネクションの設立を開始する。コネクションの設立が成功すると、リング1は、コネクションの設立が成功した1以上の他方のリング1と、状態とセンス値を含む所定の情報を交換し、各自の状態やセンス値を上述のようにして更新する。
 更新後、一定時間が経過すると、リング1は、再度近接する他のリング1を検出し、検出された1以上のリング1との間のコネクションの設立の試みを開始する。コネクションの設立が成功すると、リング1は、上述のように1以上の他方のリング1との間で所定の情報を交換し、各自の状態やセンス値を上述のようにして更新する。これに対して、一定時間以内に、コネクションの設立が成功しない場合、リング1は、当該通信の接続の試みを破棄する。 
 上述したような比較が繰り返されることにより、1つのリーダ状態Lのリング1と複数のスレーブ状態Sのリング1からなる群grが複数形成される。また、同一群gr内の複数のリング1が有するセンス値は全て同一の値となる。なお、同一群gr内の複数のリング1が有するセンス値を群センス値と称する。
 また、上述したような比較が繰り返されることにより、所定の群は近接する群を取りこみながら、拡大していく。なお、各リング1は、通信可能な範囲内に存在する複数のリング1と同時に接続が可能であるとする。この場合、接続が可能なリング1の数は、リング1の記憶容量等、システムの制約に依存する。
 図39は、群が拡大する様子を示す図である。
 図39のAの左側に示されるように、複数のリング1の間でセンス値の比較が繰り返されることにより、群gr1と群gr2が近接する位置に形成されたとする。群gr1は、リーダ状態Lのリング1-fと、複数のスレーブ状態Sのリング1が含まれる。群gr2は、リーダ状態Lのリング1-gと、複数のスレーブ状態Sのリング1が含まれる。ここで、群gr1の群センス値は値Yであり、群gr1の群センス値は値Xであるとする。そして、値Yは値Xよりも大きい値であるとする。
 この場合、群gr1と群gr2の群センス値が比較される。具体的には、例えば、図39のBに示されるように、群gr1に含まれるスレーブ状態Sのリング1-hと群gr2に含まれるリーダ状態Lのリング1-gのセンス値が比較される。ここで、リング1-hのセンス値である値Yは、群gr1の群センス値であり、リング1-gのセンス値である値Xは、群gr2の群センス値である。
 リング1-hとリング1-gのセンス値の比較の結果、リング1-hのセンス値である値Y(すなわち、群gr1の群センス値)の方が、リング1-gのセンス値である値X(すなわち、群gr2の群センス値)よりも大きいことから、リング1-gの状態はリーダ状態Lからスレーブ状態Sに遷移する。そして、スレーブ状態Sに遷移されたリング1-gのセンス値は値Xから値Yに変更される。
 このように、所定の群gr(この場合、群gr2)の群センス値よりも、大きな群センス値を有する他の群gr(この場合、群gr1)が近接する場合、当該所定の群gr(この場合、群gr2)のリーダは消滅する。そして、群センス値が小さい方の所定の群grの群センス値(この場合、値X)は、他の群grの群センス値(この場合、値Y)に変更される。
 図39のBの比較が行われた結果、図39のAの右側に示されるように、群gr1と群gr2が合成されて新たな群gr11が形成される。この場合、群gr1のリーダが新たな群gr11のリーダとなり、群gr1の群センス値である値Yが新たな群gr11の群センス値となる。このように、所定の群は近接する群を取りこみながら、拡大していく。
[状態遷移図]
 図40は、上述したスコア値の比較においてリング1が取り得る状態の一例を示す状態遷移図である。
 図40において、各状態は1つの角丸長方形の枠内に表わされており、その枠に引かれた”SI”を含む符号により識別される。1つの状態から他の1つの状態への状態遷移(同一の状態に留まる場合も含む)は、所定の条件(以下、状態遷移条件と称する)が満たされると実行される。このような状態遷移条件は、図40において1つの状態から他の1つの状態への遷移を表わす矢印に、”C”を含む符号を付して表わしている。
 各リング1は、スコア値の比較において、次のような情報を有している。すなわち、リング1は、現在コネクションを設立している他のリング1(最大N個)のリングID、自身が所属する群grの群ID、自身の状態(すなわち、初期状態i、スレーブ状態S、またはリーダ状態)の情報を有している。また、リング1は、自身の状態がリーダ状態Lに遷移した場合、リーダ状態Lに遷移してからの時間を表わす情報を有している。また、リング1は、自身のセンサ値の情報として第1センサ値と第2センサ値を有している。第1センサ値は、他のリング1に開示するセンサ値であり、第2センサ値は、自身の中で更新されるセンサ値である。すなわち、第2センサ値は、一定時間経過すると更新されて、初期状態においては第1センサ値として用いられる。
 図40に示されるように、状態SI1は、リング1が他のリング1とコネクションを設立していない状態である。他のリング1とコネクションの設立が成功すると、リング1の状態が状態SI2に遷移する。
 状態SI2は、リング1と他のリング1との間のコネクションが設立されている状態である。
 リング1の状態が初期状態iである場合には、状態SI11に遷移する。この場合、リング1は何れの群grにも属していない。
 状態SI11において、コネクションが設立された他のリング1の状態がスレーブ状態Sまたはリーダ状態Lである場合、双方のセンス値の比較は実行されず、初期状態iのリング1の状態がスレーブ状態Sに遷移する。さらに、リング1のセンス値及び群IDは、他のリング1のセンス値及び群IDに変更される。
 いまの場合、他のリング1の状態がスレーブ状態Sまたはリーダ状態Lであるという状態遷移条件C1が満たされたと判定されて、リング1の状態が初期状態iである状態SI11からスレーブ状態Sである状態SI12に遷移する。
 一方、コネクションが設立された他のリング1の状態が初期状態iである場合、双方のセンス値が比較される。比較の結果、センス値が大きい方のリング1の状態が初期状態iからリーダ状態Lに遷移する。一方、センス値が小さい方のリング1の状態が初期状態iからスレーブ状態Sに遷移する。さらに、センス値が小さい方のリング1のセンス値及び群IDが、センス値が大きい方のリング1のセンス値及び群IDに変更される。これにより、リーダ状態Lのリング1が発生する。
 いまの場合、他のリング1の状態が初期状態iであって、リング1のセンス値が他のリング1のセンス値よりも大きいという状態遷移条件C2が満たされたと判定されて、リング1の状態が初期状態iである状態SI11からリーダ状態Lである状態SI13に遷移する。
 なお、他のリング1の状態が初期状態iであって、リング1のセンス値が他のリング1のセンス値よりも小さい場合にも、状態遷移条件C1が満たされたと判定されて、リング1の状態が初期状態iである状態SI11からスレーブ状態Sである状態SI12に遷移する。すなわち、状態遷移条件C1には、2つの条件が含まれる。
 状態SI12は、リング1がスレーブ状態Sである状態である。
 状態SI12において、コネクションが設立された他のリング1の状態がスレーブ状態Sまたはリーダ状態Lである場合、双方のセンス値が比較される。比較の結果、センス値が小さい方のリング1のセンス値及び群IDが、センス値が大きい方のリング1のセンス値及び群IDに変更される。なお、リング1の状態はスレーブ状態Sのままである。いまの場合、リング1の状態は、状態SI12に留まる。
 一方、コネクションが設立された他のリング1の状態が初期状態iである場合、双方のセンス値の比較は実行されず、他のリング1のセンス値及び群IDが、リング1のセンス値及び群IDに変更される。いまの場合、リング1の状態は、状態SI12に留まる。
 状態SI13は、リング1がリーダ状態Lである状態である。
 状態SI13において、コネクションが設立された他のリング1の状態がスレーブ状態Sまたはリーダ状態Lである場合、双方のセンス値が比較される。比較の結果、リング1のセンス値が他のリング1のセンス値よりも小さい場合、リング1の状態はリーダ状態Lからスレーブ状態Sに遷移する。また、リング1のセンス値及び群IDが、他のリング1のセンス値及び群IDに変更される。これにより、リーダが消滅する。一方、比較の結果、リング1のセンス値が他のリング1のセンス値よりも大きい場合、リング1の状態はリーダ状態Lのままである。このとき、他のリング1のセンス値及び群IDが、リング1のセンス値及び群IDに変更される。
 いまの場合、他のリング1よりもセンス値が小さいという状態遷移条件C3が満たされたと判定されて、リング1の状態がリーダ状態Lである状態SI13からスレーブ状態である状態SI12に遷移する。
 一方、コネクションが設立された他のリング1の状態が初期状態iである場合、双方のセンス値の比較は実行されず、他のリング1のセンス値及び群IDが、リング1のセンス値及び群IDに変更される。いまの場合、リング1の状態は、状態SI13に留まる。
 状態SI13において、リング1がリーダ状態Lに遷移してから一定時間が経過した場合、またはリング1の電源がオフにされた場合、リング1の状態が初期状態iに遷移する。この場合、同一の群IDを有する他の複数のリング1(すなわち、スレーブ状態Sである他のリング1)のすべてに対して、群grの消滅が通知される。これにより、リーダを有する群grが消滅する。
 いまの場合、リング1がリーダ状態Lに遷移してから一定時間が経過または電源オフという状態遷移条件C4が満たされたと判定されて、リング1の状態がリーダ状態Lである状態SI13から初期状態iである状態SI11に遷移する。
 また、状態SI12においては、群grの消滅が通知されたという状態遷移条件C5が満たされたと判定されて、リング1の状態がスレーブ状態Sである状態SI12から初期状態iである状態SI11に遷移する。これにより、群gr内に含まれるリング1のセンス値及び群IDは初期化され、群grが消滅する。
 状態SI2において、リング1と他のリング1とのコネクションが切断された場合、状態SI2から状態SI1に遷移する。
 次に、図40を用いて説明した群の消滅までの状態遷移を具体的に説明する。
[群grの消滅]
 図41は、群grが消滅するまでの状態遷移を示す図である。
 状態SI21において、複数のリング1が集合している。複数のリング1の状態は全て初期状態iである。
 状態SI22において、各リング1は、他のリング1との間のコネクションの設立を開始し、センス値の比較を繰り返す。比較が繰り返された結果、状態SI22においては、リーダ状態Lであるリング1-iとリング1-jが発生している。ここで、リング1-iのセンス値は15であり、リング1-jのセンス値は10であるとする。
 リング1-iとリング1-jの比較の結果、リング1-iのセンス値の方が大きいことから、リング1-jの状態はスレーブ状態Sに遷移する。そして、スレーブ状態Sに遷移したリング1-jのセンス値は15に変更される。
 状態SI23において、リング1-iをリーダとする群gr21が形成されている。また、群gr21に近接する位置に、リング1-kがリーダ状態Lである群gr22が形成されている。ここで、群gr21の群センス値は15であり、群gr22の群センス値は9であるとする。
 この場合、群gr21と群gr22の群センス値が比較される。比較の結果、群gr22の群センス値の方が、群gr21の群センス値よりも小さいので、群gr22のリーダは消滅し、群gr22の群センス値は、群gr21の群センス値である15に変更される。
 状態SI24において、他の群を取りこみながら拡大した群gr31が形成される。なお、群gr31のリーダはリング1-iであり、群センス値は15である。
 状態SI24において、群gr31のリーダであるリング1-iの状態がリーダ状態Lに変更されてから一定時間が経過した場合、またはリング1-iの電源がオフにされた場合、リング1-iのセンス値は初期状態iに初期化される。これにより、群gr31が消滅し、状態SI25から状態SI21に遷移する。
 なお、群が消滅するまでの一定時間は特に限定されず、例えば、分単位で設定される。
[本技術のプログラムへの適用]
 上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
 コンピュータ(図6のCPU31)が実行するプログラムは、例えば、パッケージメディア等としての図示せぬリムーバブルメディアに記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。当然、プログラムは、他の情報処理装置や他のリング12からも提供することができる。
 コンピュータでは、プログラムは、リムーバブルメディアを他の情報処理装置のドライブに装着し、無線の伝送媒体を介して、ワイヤレスモジュール32で受信し、記憶部88にインストールすることができる。その他、プログラムは、記憶部88に、あらかじめインストールしておくことができる。
 なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
 本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
 例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
 また、上述の例では、リング1自体が、発光や振動といった挙動を行っているが、挙動の仕方は、特に上述の例に限定されない。すなわち、挙動を行う対象は、上述の例のように、ユーザに身につけられたリング1自体であってもよいし、当該リング1の通信相手、例えばテレビジョン受像機、ビデオデッキ、ゲーム機器、照明、電動シェード等の電化製品、個人宅、店舗、ホール、スタジアム等の施設の設備であってもよい。また、挙動の種類は、上述の例のように発光や振動でもよいし、それ以外のもの、例えば映像や音響でもよい。また、ソフトアクチュエータを備えたリング1であれば、腕の締め付けの強度変化も、挙動の一種として採用することもできる。さらに、この場合、任意の複数の種類を組み合わせてもよい。
 また、上述の例では、盛り上がり情報として、動き情報、一定の範囲内に存在するリング1の数、一定の範囲内に存在する複数のユーザ間の関連情報が採用された場合について説明したが、盛り上がり情報はこれに限定されない。
 例えば、生体情報を取得するセンサが搭載されているリング1では、ユーザの心拍、血圧、体温等の、ユーザのイベントに対する身体的な盛り上がりを判断できる検出結果を、盛り上がり情報として採用することができる。
 また、上述の例において、リング1のユーザが実行する所定の行動は、任意の伝達手法で、イベントの主催者から各ユーザに対して予め告知されていても、予めリング1に記憶されていてもよい。
 また、上述の群制御の第3例においては、リング1自身の位置情報が、リング1の位置情報取得部85により任意の手法で取得された。取得された位置情報は、撮影開始要求に含められてCCU122に送信され、カメラ121の撮影対象の特定のために用いられた。しかしながら、取得された位置情報とともに、カメラ121による撮影時刻を関連付けて所定のファイルに記憶しておくことで、群制御の第4例で説明したSNS171との連携が可能となる。
 また、上述の例において、リング1の位置情報はGPSを利用して取得された。しかしながら、GPSが利用できない場合には、例えばWi-Fi(wireless fidelity)を利用して位置が取得されてもよい。Wi-Fiを利用した位置情報の取得の手法は特に限定されないが、例えば、PlaceEngine(クウジット株式会社の登録商標)を用いた位置情報の取得の手法がある。
 また、GPSやWi-Fiを利用したリング1の位置情報は、リング1と無線通信が可能なスマートフォン等の端末装置により取得されてもよい。なお、当該端末装置は、リング1を装着したユーザにより保持されているものとする。当該端末装置により取得された位置情報が、リング1やその他の情報処理装置に送信されてもよい。
 上述の例において、リング1において実行された処理のうち少なくとも一部は、リング1と無線通信が可能な他の情報処理装置において実行されてもよい。これにより、リング1における処理の負荷が軽減される。また、上述の例における処理に関する情報は、全て、予めリング1に設定されていてもよい。この場合、リング1は、予め設定された情報から適宜情報を選択して、実行することがある。
 なお、本技術が適用される情報処理装置として、本実施形態において説明した処理を実行可能なモバイル端末を採用することができる。この場合、ユーザがモバイル端末を手にとってコミュニケーションを図る形態が望ましい。
 また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
 さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
 なお、本技術は、以下のような構成もとることができる。
(1)
 発光の特徴を示す発光パラメータの組み合わせで特定される発光パターンにしたがって発光する発光部と、
 前記発光部を有する1以上の他の情報処理装置及び自装置が属する群と、前記自装置との関係、又は、前記群に属する他の情報処理装置と前記自装置との関係に基づいて、前記発光部の発光パターンを制御する制御部と
 を備える情報処理装置。
(2)
 前記1以上の他の情報処理装置との間の無線通信を制御する通信制御部をさらに備え、
 前記制御部は、前記通信制御部の制御結果から特定される前記関係に基づいて、前記発光部の発光パターンを制御する
 前記(1)に記載の情報処理装置。
(3)
 振動の特徴を示す振動パラメータの組み合わせで特定される振動パターンにしたがって振動する振動部をさらに備え、
 前記制御部は、前記関係に基づいて、前記振動部の振動パターンを制御する
 前記(1)または(2)に記載の情報処理装置。
(4)
 前記制御部は、前記群以外の外部対象の影響をさらに考慮して、前記発光部の発光パターンを制御する
 前記(1)乃至(3)のいずれかに記載の情報処理装置。
(5)
 前記群に属する前記情報処理装置及び1以上の前記他の情報処理装置の各々を装着した複数のユーザが所定位置に集合する過程において、前記所定位置と、前記情報処理装置の存在位置との間の距離を、前記外部対象として演算する距離演算部をさらに備え、
 前記通信制御部は、前記他の情報処理装置の位置情報に基づいて、一定の範囲内に存在する前記情報処理装置の数を、前記関係として特定し、
 前記制御部は、前記距離演算部により演算された前記距離と前記通信制御部により特定された前記数をパラメータにして、前記発光部の発光パターンを変化させるように制御する
 前記(1)乃至(4)のいずれかに記載の情報処理装置。
(6)
 前記通信制御部は、前記群に属さない他の装置を前記外部対象として、前記外部対象との無線通信を制御し、
 前記制御部は、前記通信制御部の制御による前記外部対象との無線通信の結果に基づいて、前記発光部の発光パターンを制御する
 前記(1)乃至(5)のいずれかに記載の情報処理装置。
(7)
 ユーザの動作に起因して生ずる物理量の変化を検出するセンサ部と、
 前記センサ部の検出結果に基づいて、ユーザの盛り上がりの度合いを判定する盛り上がり判定部をさらに備え、
 前記通信制御部は、前記盛り上がりの度合いを前記1以上の他の情報処理装置に送信すると共に、前記1以上の他の情報処理装置の少なくとも一部のユーザの前記盛り上がりの度合いを受信するように制御し、
 前記制御部は、自装置及び前記1以上の他の情報処理装置の少なくとも一部の前記盛り上がりの度合いにより示される前記関係に基づいて、前記発光部の発光パターンを制御する
 前記(1)乃至(6)のいずれかに記載の情報処理装置。
(8)
 前記外部対象は、前記発光部及び前記センサ部を少なくとも有する、前記群に属さない他の情報処理装置であり、
 前記制御部は、
  自装置が属する前記群が、前記外部対象の前記センサ部の検出結果に基づいて前記外部対象によりターゲットとされたという条件を、前記外部対象の影響の条件として、
  前記外部の影響の条件と、前記関係の条件とを満たすかを判定して、前記発光部の発光パターンを制御する
 前記(1)乃至(7)のいずれかに記載の情報処理装置。
(9)
 前記関係の条件は、自装置の前記盛り上がりの度合いが、前記群の中で最大であるという条件である
 前記(1)乃至(8)のいずれかに記載の情報処理装置。
(10)
 前記外部対象は、前記群に属する自装置及び1以上の前記他の情報処理装置の各々の複数のユーザを撮影する撮像装置であり、
 前記通信制御部は、前記盛り上がり判定部により判定された前記盛り上がりの度合いが閾値以上である場合、自装置のユーザを撮影対象とする前記撮像装置の撮影が開始されるように、前記撮像装置に撮影開始要求を送信する
 前記(1)乃至(9)のいずれかに記載の情報処理装置。
(11)
 前記通信制御部は、自装置からの前記撮影開始要求に従って前記撮像装置により撮影が開始されたことを示す情報を受信し、
 前記制御部は、前記通信制御部に受信された前記情報に基づいて、前記発光部の発光パターンを制御する
 前記(1)乃至(10)のいずれかに記載の情報処理装置。
(12)
 前記盛り上がり判定部は、前記センサ部の検出結果に基づいて生成された、複数のユーザの身体または身体の一部の動作の同調性の関連度又は相違度を示す情報に基づいて、前記盛り上がりの度合いを判定する
 前記(1)乃至(11)のいずれかに記載の情報処理装置。
(13)
 前記外部対象は、
  群が存在する場所を撮影する撮像装置と、
  前記撮像装置の撮影結果の中から、前記群に属する前記情報処理装置又は1以上の前記他の情報処理装置のユーザの所定の時間帯の様子を示す撮影結果を取得する外部の装置とであり、
 前記通信制御部は、前記盛り上がり判定部により判定された前記盛り上がりの度合いが閾値以上になった時刻を、自装置のユーザの前記時刻を含む時間帯の様子を示す撮影結果を取得する際に用いる取得用情報として前記外部の装置に送信する
 前記(1)乃至(12)のいずれかに記載の情報処理装置。
(14)
 前記通信制御部は、自装置の位置も、前記取得用情報として前記外部の装置に送信する
 前記(13)に記載の情報処理装置。
(15)
 前記通信制御部は、自装置のIDも、前記取得用情報として前記外部の装置に送信する
 前記(13)又は(14)に記載の情報処理装置。
(16)
 前記通信制御部は、前記群に属する他の情報処理装置の前記発光部の発光パターンを特定可能な情報を受信し、
 前記制御部は、前記通信制御部に受信された前記発光パターンを特定可能な情報により特定された発光パターンに基づいて、前記発光部の発光パターンを制御する
 前記(1)乃至(15)のいずれかに記載の情報処理装置。
(17)
 前記情報処理装置は、前記ユーザの腕に取り付けられるリング形状の部位を有し、
 前記部位は、その一部を開放または接続する連結部が設けられている
 前記(1)乃至(16)のいずれかに記載の情報処理装置。
(18)
 前記連結部は、前記部位の一部を接続するための磁石及び吸着板を有している
 前記(1)乃至(17)のいずれかに記載の情報処理装置。
(19)
 前記連結部は、素材の弾性変形により前記部位の一部を接続する
 前記(1)乃至(18)のいずれかに記載の情報処理装置。
 本技術は、コミュニケーションツールとして用いられる情報処理装置に適用することができる。
 1 リング, 21 基板, 22 連結部, 31 CPU, 32 ワイヤレスモジュール, 33 3軸加速度センサ, 34 LED, 35 振動機構, 43 吸着板, 44 磁石, 81 センサ情報取得部, 82 盛り上がり判定部, 83 挙動制御部, 84 通信制御部, 85 位置情報取得部, 86 時刻情報取得部, 87 距離演算部, 88 記憶部, 89 ターゲット特定部, 90 群形成部, 91 群情報管理部91, 121 カメラ, 122 CCU, 171 SNS, 172 映像管理装置

Claims (20)

  1.  発光の特徴を示す発光パラメータの組み合わせで特定される発光パターンにしたがって発光する発光部と、
     前記発光部を有する1以上の他の情報処理装置及び自装置が属する群と、前記自装置との関係、又は、前記群に属する他の情報処理装置と前記自装置との関係に基づいて、前記発光部の発光パターンを制御する制御部と
     を備える情報処理装置。
  2.  前記1以上の他の情報処理装置との間の無線通信を制御する通信制御部をさらに備え、
     前記制御部は、前記通信制御部の制御結果から特定される前記関係に基づいて、前記発光部の発光パターンを制御する
     請求項1に記載の情報処理装置。
  3.  振動の特徴を示す振動パラメータの組み合わせで特定される振動パターンにしたがって振動する振動部をさらに備え、
     前記制御部は、前記関係に基づいて、前記振動部の振動パターンを制御する
     請求項1に記載の情報処理装置。
  4.  前記制御部は、前記群以外の外部対象の影響をさらに考慮して、前記発光部の発光パターンを制御する
     請求項2に記載の情報処理装置。
  5.  前記群に属する前記情報処理装置及び1以上の前記他の情報処理装置の各々を装着した複数のユーザが所定位置に集合する過程において、前記所定位置と、前記情報処理装置の存在位置との間の距離を、前記外部対象として演算する距離演算部をさらに備え、
     前記通信制御部は、前記他の情報処理装置の位置情報に基づいて、一定の範囲内に存在する前記情報処理装置の数を、前記関係として特定し、
     前記制御部は、前記距離演算部により演算された前記距離と前記通信制御部により特定された前記数をパラメータにして、前記発光部の発光パターンを変化させるように制御する
     請求項4に記載の情報処理装置。
  6.  前記通信制御部は、前記群に属さない他の装置を前記外部対象として、前記外部対象との無線通信を制御し、
     前記制御部は、前記通信制御部の制御による前記外部対象との無線通信の結果に基づいて、前記発光部の発光パターンを制御する
     請求項4に記載の情報処理装置。
  7.  ユーザの動作に起因して生ずる物理量の変化を検出するセンサ部と、
     前記センサ部の検出結果に基づいて、ユーザの盛り上がりの度合いを判定する盛り上がり判定部をさらに備え、
     前記通信制御部は、前記盛り上がりの度合いを前記1以上の他の情報処理装置に送信すると共に、前記1以上の他の情報処理装置の少なくとも一部のユーザの前記盛り上がりの度合いを受信するように制御し、
     前記制御部は、自装置及び前記1以上の他の情報処理装置の少なくとも一部の前記盛り上がりの度合いにより示される前記関係に基づいて、前記発光部の発光パターンを制御する
     請求項6に記載の情報処理装置。
  8.  前記外部対象は、前記発光部及び前記センサ部を少なくとも有する、前記群に属さない他の情報処理装置であり、
     前記制御部は、
      自装置が属する前記群が、前記外部対象の前記センサ部の検出結果に基づいて前記外部対象によりターゲットとされたという条件を、前記外部対象の影響の条件として、
      前記外部の影響の条件と、前記関係の条件とを満たすかを判定して、前記発光部の発光パターンを制御する
     請求項7に記載の情報処理装置。
  9.  前記関係の条件は、自装置の前記盛り上がりの度合いが、前記群の中で最大であるという条件である
     請求項8に記載の情報処理装置。
  10.  前記外部対象は、前記群に属する自装置及び1以上の前記他の情報処理装置の各々の複数のユーザを撮影する撮像装置であり、
     前記通信制御部は、前記盛り上がり判定部により判定された前記盛り上がりの度合いが閾値以上である場合、自装置のユーザを撮影対象とする前記撮像装置の撮影が開始されるように、前記撮像装置に撮影開始要求を送信する
     請求項7に記載の情報処理装置。
  11.  前記通信制御部は、自装置からの前記撮影開始要求に従って前記撮像装置により撮影が開始されたことを示す情報を受信し、
     前記制御部は、前記通信制御部に受信された前記情報に基づいて、前記発光部の発光パターンを制御する
     請求項10に記載の情報処理装置。
  12.  前記盛り上がり判定部は、前記センサ部の検出結果に基づいて生成された、複数のユーザの身体または身体の一部の動作の同調性の関連度又は相違度を示す情報に基づいて、前記盛り上がりの度合いを判定する
     請求項11に記載の情報処理装置。
  13.  前記外部対象は、
      群が存在する場所を撮影する撮像装置と、
      前記撮像装置の撮影結果の中から、前記群に属する前記情報処理装置又は1以上の前記他の情報処理装置のユーザの所定の時間帯の様子を示す撮影結果を取得する外部の装置とであり、
     前記通信制御部は、前記盛り上がり判定部により判定された前記盛り上がりの度合いが閾値以上になった時刻を、自装置のユーザの前記時刻を含む時間帯の様子を示す撮影結果を取得する際に用いる取得用情報として前記外部の装置に送信する
     請求項7に記載の情報処理装置。
  14.  前記通信制御部は、自装置の位置も、前記取得用情報として前記外部の装置に送信する
     請求項13に記載の情報処理装置。
  15.  前記通信制御部は、自装置のIDも、前記取得用情報として前記外部の装置に送信する
     請求項14に記載の情報処理装置。
  16.  前記通信制御部は、前記群に属する他の情報処理装置の前記発光部の発光パターンを特定可能な情報を受信し、
     前記制御部は、前記通信制御部に受信された前記発光パターンを特定可能な情報により特定された発光パターンに基づいて、前記発光部の発光パターンを制御する
     請求項1に記載の情報処理装置。
  17.  前記情報処理装置は、前記ユーザの腕に取り付けられるリング形状の部位を有し、
     前記部位は、その一部を開放または接続する連結部が設けられている
     請求項1に記載の情報処理装置。
  18.  前記連結部は、前記部位の一部を接続するための磁石及び吸着板を有している
     請求項17に記載の情報処理装置。
  19.  前記連結部は、素材の弾性変形により前記部位の一部を接続する
     請求項18に記載の情報処理装置。
  20.  発光の特徴を示す発光パラメータの組み合わせで特定される発光パターンにしたがって発光する発光部を有する情報処理装置の情報処理方法において、
     前記情報処理装置が、
     発光の特徴を示す発光パラメータの組み合わせで特定される発光パターンにしたがって発光し、
     前記発光部を有する1以上の他の情報処理装置及び自装置が属する群と、前記自装置との関係、又は、前記群に属する他の情報処理装置と前記自装置との関係に基づいて、前記発光部の発光パターンを制御する
     ステップを含む情報処理方法。
PCT/JP2012/082375 2011-12-27 2012-12-13 情報処理装置及び方法 WO2013099629A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2013551599A JP5884831B2 (ja) 2011-12-27 2012-12-13 情報処理装置及び方法
US14/364,311 US9992851B2 (en) 2011-12-27 2012-12-13 Information processing apparatus, and method
CN201280063730.5A CN104169836B (zh) 2011-12-27 2012-12-13 信息处理设备和方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011286520 2011-12-27
JP2011-286520 2011-12-27

Publications (1)

Publication Number Publication Date
WO2013099629A1 true WO2013099629A1 (ja) 2013-07-04

Family

ID=48697121

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/082375 WO2013099629A1 (ja) 2011-12-27 2012-12-13 情報処理装置及び方法

Country Status (4)

Country Link
US (1) US9992851B2 (ja)
JP (1) JP5884831B2 (ja)
CN (1) CN104169836B (ja)
WO (1) WO2013099629A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014135000A (ja) * 2013-01-11 2014-07-24 Sony Computer Entertainment Inc 情報処理装置、情報処理方法、携帯端末、およびサーバ
EP2947968A3 (en) * 2014-05-02 2015-12-09 LG Electronics Inc. Lighting system and control method thereof
JP5883960B1 (ja) * 2015-02-13 2016-03-15 日本電信電話株式会社 イベント判定装置、イベント判定方法及びイベント判定プログラム
JP2019004927A (ja) * 2017-06-20 2019-01-17 カシオ計算機株式会社 電子機器、リズム情報報知方法及びプログラム
JP2020077094A (ja) * 2018-11-06 2020-05-21 日本放送協会 触覚情報提示システム

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3171578A1 (en) * 2015-11-18 2017-05-24 Siemens Aktiengesellschaft Method of improved finding someone or something within a larger group of people or things
EP3171246A1 (en) * 2015-11-18 2017-05-24 Siemens Aktiengesellschaft Method of improved finding someone or something within a larger group of people or things
DE112017001918T5 (de) * 2016-04-07 2018-12-20 Sony Corporation System, Endgerätevorrichtung, Verfahren und Aufzeichnungsmedium
KR101939627B1 (ko) * 2018-06-25 2019-01-17 주식회사 팬라이트 응원용 발광장치를 이용한 공연장에서의 공연연출 방법 및 이를 이용한 공연연출 시스템
JP7313189B2 (ja) * 2019-05-20 2023-07-24 シャープ株式会社 画像形成装置及び制御方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002280189A (ja) * 2002-04-22 2002-09-27 Ingusu:Kk 発光装飾具
JP2004039415A (ja) * 2002-07-03 2004-02-05 K-Tech Devices Corp パレード遠隔制御システム

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07244557A (ja) * 1994-03-04 1995-09-19 Matsushita Electric Ind Co Ltd 入力装置
US7080322B2 (en) * 1998-12-18 2006-07-18 Tangis Corporation Thematic response to a computer user's context, such as by a wearable personal computer
JP2003060745A (ja) * 2001-08-22 2003-02-28 Sony Corp 情報伝達装置、情報伝達方法及びモニタ装置
WO2005084534A1 (en) * 2003-09-03 2005-09-15 Life Patch International, Inc. Personal diagnostic devices and related methods
EP1524586A1 (en) * 2003-10-17 2005-04-20 Sony International (Europe) GmbH Transmitting information to a user's body
JP3954584B2 (ja) * 2004-03-02 2007-08-08 日本無線株式会社 発光制御システム
JP2005351994A (ja) * 2004-06-08 2005-12-22 Sony Corp コンテンツ配信サーバ,コンテンツ配信方法,プログラム
JP2007115412A (ja) * 2005-10-18 2007-05-10 Totoku Electric Co Ltd 演出方法、演出システム及び携帯型発光装置
JP2007221355A (ja) 2006-02-15 2007-08-30 Fujitsu Ltd 赤外線通信機能を有する携帯電話機
JP5045983B2 (ja) * 2006-06-30 2012-10-10 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP4609527B2 (ja) * 2008-06-03 2011-01-12 株式会社デンソー 自動車用情報提供システム
CN101410004A (zh) * 2008-11-25 2009-04-15 史晓东 一种新型电子信息功能首饰
JP3168514U (ja) * 2011-04-01 2011-06-16 鋒成科技股▲ふん▼有限公司 外部刺激で変化する分光器
KR101982645B1 (ko) * 2011-07-22 2019-08-28 가부시키가이샤 라판 크리에이트 발광 장치
CN103930851B (zh) 2011-11-15 2016-09-21 索尼公司 信息处理设备和方法
WO2013084742A1 (ja) * 2011-12-06 2013-06-13 ソニー株式会社 情報処理装置及び方法
US9205277B2 (en) * 2012-02-21 2015-12-08 Sharp Laboratories Of America, Inc. Color adaptive therapeutic light control system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002280189A (ja) * 2002-04-22 2002-09-27 Ingusu:Kk 発光装飾具
JP2004039415A (ja) * 2002-07-03 2004-02-05 K-Tech Devices Corp パレード遠隔制御システム

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014135000A (ja) * 2013-01-11 2014-07-24 Sony Computer Entertainment Inc 情報処理装置、情報処理方法、携帯端末、およびサーバ
US10291727B2 (en) 2013-01-11 2019-05-14 Sony Interactive Entertainment Inc. Information processing device, information processing method, portable terminal, and server
EP2947968A3 (en) * 2014-05-02 2015-12-09 LG Electronics Inc. Lighting system and control method thereof
US9655212B2 (en) 2014-05-02 2017-05-16 Lg Electronics Inc. Lighting system having a plurality of lighting devices and an integrated control module
JP5883960B1 (ja) * 2015-02-13 2016-03-15 日本電信電話株式会社 イベント判定装置、イベント判定方法及びイベント判定プログラム
JP2019004927A (ja) * 2017-06-20 2019-01-17 カシオ計算機株式会社 電子機器、リズム情報報知方法及びプログラム
US10511398B2 (en) 2017-06-20 2019-12-17 Casio Computer Co., Ltd. Electronic device for improving cooperation among a plurality of members
JP2020077094A (ja) * 2018-11-06 2020-05-21 日本放送協会 触覚情報提示システム
JP7245028B2 (ja) 2018-11-06 2023-03-23 日本放送協会 触覚情報提示システム

Also Published As

Publication number Publication date
US9992851B2 (en) 2018-06-05
JP5884831B2 (ja) 2016-03-15
CN104169836B (zh) 2017-05-10
CN104169836A (zh) 2014-11-26
JPWO2013099629A1 (ja) 2015-04-30
US20140333211A1 (en) 2014-11-13

Similar Documents

Publication Publication Date Title
JP5884831B2 (ja) 情報処理装置及び方法
US10925355B2 (en) Functional, socially-enabled jewelry and systems for multi-device interaction
JP6431233B1 (ja) 視聴ユーザからのメッセージを含む動画を配信する動画配信システム
JP7142113B2 (ja) 仮想ペットの表示方法及び装置、並びに、端末及びプログラム
JP5898378B2 (ja) 情報処理装置およびアプリケーション実行方法
CN110147231A (zh) 组合特效生成方法、装置及存储介质
CN106507207B (zh) 直播应用中互动的方法及装置
CN110495819A (zh) 机器人的控制方法、机器人、终端、服务器及控制系统
JP2018506397A (ja) マルチデバイス・インタラクションのための機能性、ソーシャル対応装身具およびシステム
TW201802663A (zh) 影像顯示裝置、話題選擇方法及程式
JP2019198053A (ja) アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する動画配信システム、動画配信方法及び動画配信プログラム
JP6728863B2 (ja) 情報処理システム
CN110506249A (zh) 信息处理设备、信息处理方法和记录介质
JP5915457B2 (ja) 制御システムおよびプログラム
US11223717B2 (en) Audience interaction system and method
US11972059B2 (en) Gesture-centric user interface
CN110860087B (zh) 虚拟对象控制方法、装置及存储介质
JP2016051675A (ja) 演出制御システム、通信端末および演出制御装置
US9990049B2 (en) Information presentation apparatus and information processing system
CN111544897B (zh) 基于虚拟场景的视频片段显示方法、装置、设备及介质
JP2019198060A (ja) アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する動画配信システム、動画配信方法及び動画配信プログラム
KR102661381B1 (ko) 액세서리의 장착이 가능한 로봇의 동작 제어 방법 및 장치
US11216233B2 (en) Methods and systems for replicating content and graphical user interfaces on external electronic devices
JP2020043578A (ja) アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する動画配信システム、動画配信方法及び動画配信プログラム
JP6592214B1 (ja) 視聴ユーザからのメッセージを含む動画を配信する動画配信システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12862320

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2013551599

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14364311

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12862320

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 12862320

Country of ref document: EP

Kind code of ref document: A1