WO2020145386A1 - 環境条件記憶装置、環境条件記憶方法、操作装置、及び環境認識装置 - Google Patents

環境条件記憶装置、環境条件記憶方法、操作装置、及び環境認識装置 Download PDF

Info

Publication number
WO2020145386A1
WO2020145386A1 PCT/JP2020/000662 JP2020000662W WO2020145386A1 WO 2020145386 A1 WO2020145386 A1 WO 2020145386A1 JP 2020000662 W JP2020000662 W JP 2020000662W WO 2020145386 A1 WO2020145386 A1 WO 2020145386A1
Authority
WO
WIPO (PCT)
Prior art keywords
tactile
environmental condition
environment
unit
tactile sensation
Prior art date
Application number
PCT/JP2020/000662
Other languages
English (en)
French (fr)
Inventor
奈帆子 中山
早苗 香川
数行 佐藤
隆太 上田
高橋 英之
石黒 浩
碧 高間
雄一郎 吉川
中村 泰
石原 尚
Original Assignee
ダイキン工業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2019207484A external-priority patent/JP7415139B2/ja
Application filed by ダイキン工業株式会社 filed Critical ダイキン工業株式会社
Priority to EP20738307.6A priority Critical patent/EP3910498A4/en
Priority to CN202080008521.5A priority patent/CN113272802A/zh
Priority to US17/420,947 priority patent/US11609635B2/en
Publication of WO2020145386A1 publication Critical patent/WO2020145386A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/906Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality

Definitions

  • the present disclosure relates to an environmental condition storage device, an environmental condition storage method, an operation device, and an environment recognition device.
  • Patent Document 1 Japanese Patent Laid-Open No. 2003-299013 discloses an experience information reproducing apparatus that allows a person who experiences the experience to re-experience the event.
  • Patent Document 1 it is not possible to reproduce the environment that reflects the sensory orientation that a person has internally.
  • the environmental condition storage device includes an environmental condition acquisition unit, a tactile information acquisition unit, and a storage unit.
  • the environmental condition acquisition unit acquires environmental conditions including at least one of temperature, humidity, wind, image, video, and sound.
  • the tactile information acquisition unit acquires tactile information that is information indicating a tactile feeling.
  • the storage unit stores the environmental condition and the tactile information in association with each other. For this reason, it is possible to generate an environment according to the tactile sensation that further reflects the sense orientation that a person has internally.
  • the environmental condition storage device is the environmental condition storage device according to the first aspect, and further includes a providing unit that provides a plurality of tactile sensations.
  • the tactile information acquisition unit acquires tactile information that is information indicating the selected tactile by recognizing the tactile selected by the user among the plurality of tactiles. Therefore, it is possible to generate an environment according to the tactile sensation.
  • An environmental condition storage device is the environmental condition storage device according to the second aspect, and is based on at least one of the number of tactile contact times provided by the providing unit and the tactile contact time provided by the providing unit. And recognize the tactile sensation selected by the user. For this reason, it is possible to more specifically grasp the human sense orientation based on the tactile sensation.
  • the environmental condition storage method is an environmental condition storage method for storing environmental conditions, and includes environmental conditions including at least one of temperature, humidity, wind, image, video, and sound, and information indicating a tactile sensation. It includes a first step of acquiring certain tactile information and a second step of associating the environmental condition and the tactile information with each other and storing them in the storage unit. Therefore, it is possible to generate an environment corresponding to a tactile sensation that is close to the sense of orientation that a person has internally.
  • An environmental condition storing method is the environmental condition storing method according to the fourth aspect, further including a third step of providing a tactile sensation and recognizing a tactile sensation selected by a user, and the first step is , And acquiring tactile information that is information indicating the selected tactile sensation by recognizing the tactile sensation selected in the third step. Therefore, it is possible to generate an environment according to the tactile sensation.
  • An environmental condition storing method is the environmental condition storing method according to the fifth aspect, in which the third step is performed by a user based on at least one of the number of contact times and contact time of a plurality of provided tactile sensations. This includes recognizing the selected tactile sensation. For this reason, it is possible to more specifically grasp the human sense orientation based on the tactile sensation.
  • An operating device is an operating device that operates an environment generating device that generates a predetermined environment in a target space based on environmental conditions, and includes a providing unit, a recognizing unit, a processing unit, and a communication unit. Equipped with.
  • the providing unit has one or a plurality of contact surfaces and provides a plurality of tactile sensations.
  • the recognition unit recognizes the tactile sensation selected by the user among the plurality of tactile sensations.
  • the processing unit determines the environmental condition according to the tactile sensation recognized by the recognition unit.
  • the communication unit transmits the environmental condition determined by the processing unit to the environment generation device. Therefore, it is possible to provide an operating device for generating a predetermined environment in the target space based on the tactile sensation.
  • An operating device is the operating device according to the seventh aspect, and the recognition unit further includes at least one of the number of tactile contact times provided by the providing unit and the tactile contact time provided by the providing unit. Recognize the tactile sensation selected by the user based on. For this reason, it is possible to more specifically grasp the human sense orientation based on the tactile sensation.
  • the operating device according to the ninth aspect is the operating device according to the seventh aspect or the eighth aspect, and the providing unit has a plurality of contact surfaces formed of different materials.
  • An operating device is the operating device according to the seventh aspect or the eighth aspect, in which the providing unit provides a plurality of different tactile sensations by vibrating one or a plurality of contact surfaces. ..
  • An operating device is the operating device according to the seventh aspect or the eighth aspect, in which the providing unit controls a temperature or humidity of one or a plurality of contact surfaces to provide a plurality of different tactile sensations. provide.
  • An operating device is the operating device according to the seventh aspect or the eighth aspect, in which the providing unit produces a plurality of different tactile sensations by generating a voltage or a current on one or a plurality of contact surfaces. provide.
  • An operating device is the operating device according to the seventh aspect or the eighth aspect, in which the providing unit provides a plurality of different tactile sensations by generating magnetic force on one or a plurality of contact surfaces. ..
  • a fourteenth aspect of the operation method is an operation method of operating an environment generation device that generates a predetermined environment in a target space based on environmental conditions, and provides a tactile sensation and then recognizes the tactile sensation selected by a user. And a step of determining an environmental condition according to the recognized tactile sensation, and a step of transmitting the determined environmental condition to the environment generation device. Therefore, it is possible to realize an operation method for generating a predetermined environment in the target space based on the tactile sensation.
  • the operation method according to the fifteenth aspect is the operation method according to the fourteenth aspect, wherein the step of recognizing the tactile sensation selected by the user includes the number of touches of the tactile sensation provided by the providing unit and the tactile sensation provided by the providing unit. Recognizing the tactile sensation selected by the user based on at least one of the contact times of. For this reason, it is possible to more specifically grasp the human sense orientation based on the tactile sensation.
  • the environment recognition device includes a providing unit, a recognition unit, and a processing unit.
  • the providing unit has one or a plurality of contact surfaces and provides a plurality of tactile sensations.
  • the recognition unit recognizes the tactile sensation selected by the user among the plurality of tactile sensations.
  • the processing unit determines the environmental condition according to the tactile sensation recognized by the recognition unit. Therefore, the environmental conditions for generating the predetermined environment in the target space can be classified based on the tactile sensation.
  • An environment recognition device is the environment recognition device according to the sixteenth aspect, wherein the recognition unit further includes a tactile contact frequency provided by the providing unit and a tactile contact time provided by the providing unit.
  • the tactile sensation selected by the user is recognized based on at least one. For this reason, it is possible to more specifically grasp the human sense orientation based on the tactile sensation.
  • FIG. 3 is a schematic diagram for explaining the configuration of the control device 20.
  • FIG. 5 is a schematic diagram for explaining information stored in a storage unit 21.
  • FIG. 6 is a flowchart for explaining the operation of the environment generation system 1.
  • It is a schematic diagram for demonstrating the structure of the environment production system 1 which concerns on the modification B.
  • 9 is a schematic diagram for explaining a configuration of a control device 20 according to modification B.
  • FIG. It is a schematic diagram for demonstrating a priority.
  • 9 is a flowchart illustrating a process of determining a priority.
  • 9 is a flowchart illustrating a process of determining a priority.
  • FIG. 3 is a schematic diagram for explaining a configuration of a first cluster classification device 50.
  • FIG. 6 is a flowchart for explaining the operation of the first cluster classification device 50. It is a schematic diagram for demonstrating the structure of the modification of the 1st cluster classification
  • 3 is a schematic diagram for explaining the configuration of a second cluster classification device 60.
  • FIG. 7 is a flowchart for explaining the operation of the second cluster classification device 60. It is a schematic diagram for explaining the configuration of a modified example of the second cluster classification device 60.
  • FIG. 6 is a schematic diagram for explaining the configuration of a tactile sensation selection device 80. 6 is a schematic diagram for explaining an example of the appearance of the tactile sensation selection device 80.
  • FIG. It is a schematic diagram which shows the structure of the operating device 85.
  • the matrix showing the evaluation result of the image (environment) automatically generated based on the tactile sensation is shown.
  • the matrix showing the evaluation result of the image (environment) automatically generated based on the tactile sensation is shown.
  • the environment generation system 1 includes an environment generation device 10 and a control device 20, as shown in FIG.
  • the environment generation device 10 is any device that can change the environment of the target space S to generate a predetermined environment. As a result of the environment generation device 10 changing the environment, the sensation of the user 5 in the target space S is specifically influenced.
  • the components of the environment generation device 10 include an air conditioner, a lighting device, a projector, a speaker, and an odor generator.
  • FIG. 1 illustrates a state in which the projector as the environment generation device 10 projects a large number of display objects R on the wall surface of the target space S to give a new appearance.
  • the interior of the room is changed by projection mapping.
  • a robot may be arranged in the target space S as the environment generation device 10, and in this case, the robot changes at least the color, action, shape, and sound of light emission.
  • the environment generation device 10 generates a predetermined environment in the target space S based on the environmental condition associated with the cluster described later.
  • “Environmental conditions” are parameters that characterize physical quantities that have a specific effect on the human body and/or mind.
  • the environmental condition is defined by a physical quantity (an example of the characteristic of the environmental condition) including at least one of temperature, humidity, wind, image, video, sound, and the like, and the configuration of the environment generation device 10 is accordingly defined. The device works. Then, the environment generation device 10 changes the environment, so that the human sense is given a specific influence.
  • Specific impact means an action that evokes a predetermined sensation in the five senses of User 5.
  • specific influences include feeling of sensation (sensitivity that enhances sensitivity to forgetfulness in daily life), tension (feeling that someone is watching when doing something), and inclusion.
  • Feeling a warm and peaceful feeling that envelops your heart
  • open feeling feeling like taking a deep breath in a spacious place
  • feeling of leaving the boat when you take a new step, you will be closely supported
  • travel feelings a little lonely but romantic feeling
  • any other environmental changes that evoke such sensations can be expressed by an arbitrary word, and may be expressed by a generally conceivable term such as “enjoyable environment”, “focusable environment”, or “open environment”.
  • the correspondence relationship between the specific influence and the environmental condition can be defined by aggregating impressions and the like of the user 5 existing in the target space S.
  • the control device 20 controls the environment generation device 10.
  • the control device 20 can be realized by any computer, and includes a storage unit 21, an input unit 22, a processing unit 23, a control unit 24, and an output unit 25, as shown in FIG.
  • each of the above-described functions is realized by reading a program stored in a storage device (ROM, RAM, etc.) into the CPU, GPU, etc. of the computer.
  • the control device 20 is not limited to this, and may be realized as hardware using an LSI (Large Scale Integration), an ASIC (Application Specific Integrated Circuit), an FPGA (Field-Programmable Gate Array), or the like.
  • the storage unit 21 stores various kinds of information, and is realized by an arbitrary storage device such as a memory and a hard disk.
  • the storage unit 21 stores the feature of the cluster and the environmental condition in association with each other.
  • the cluster is composed of a set of environmental conditions in a space represented by n-dimensional (n is the number of parameters of the environmental conditions) information.
  • the cluster is made up of regions including environmental conditions in a space represented by n-dimensional information.
  • a unique feature is set for each cluster.
  • the storage unit 21 stores, as n-dimensional information, information indicating a physical quantity including at least one of temperature, humidity, wind, image, video, sound, and the like.
  • a "fun environment” is set as the characteristic of the cluster 1
  • a "focusable environment” is set as the characteristic of the cluster 2
  • an "open environment” is set as the characteristic of the cluster 3.
  • a plurality of environmental conditions belong to each cluster.
  • the environmental conditions 1 to 3 belong to the cluster 1
  • the environmental conditions 4 to 6 belong to the cluster 2
  • the environmental conditions 7 to 9 belong to the cluster 3.
  • the cluster can be further subdivided to define a new cluster. Further, in the example shown in FIG.
  • a new cluster is created by the environmental conditions 7 and 8 among the environmental conditions 7 to 9 of the cluster 3 and the new environmental condition 10. May be defined.
  • This new cluster may be tagged with new features such as "bright environment”.
  • the input unit 22 receives input of various information via an arbitrary terminal device 30 having a keyboard, a mouse, a touch panel, and the like.
  • the input unit 22 receives an input corresponding to the characteristics of the cluster.
  • the input unit 22 receives an input corresponding to the characteristics of one cluster from a list displayed in an arbitrary format.
  • the terminal device 30 may be the tactile sensation selection device 80 shown in FIGS. 16 to 18 or an operation device 85 to which the tactile sensation selection device 80 is applied.
  • the processing unit 23 executes various types of information processing, and is realized by a processor such as a CPU or GPU and a memory. Specifically, the processing unit 23 has a function of selecting one of the environmental conditions belonging to the cluster. More specifically, the processing unit 23 randomly selects another environmental condition belonging to the same cluster under a predetermined condition. Further, when the predetermined condition is satisfied, the processing unit 23 changes the current environmental condition to another environmental condition within the same cluster.
  • the predetermined condition means, for example, a state in which a predetermined time has elapsed or a state in which a predetermined reaction is not obtained from the user 5 in the target space S.
  • the control unit 24 controls the environment generation device 10. Specifically, the control unit 24 extracts the environmental condition for controlling the environment generation device 10 from the storage unit 21 based on the characteristics of the cluster described above, and controls the environment generation device 10 based on this.
  • the output unit 25 outputs control information for controlling the environment generation device 10 according to the output destination. For example, when the output destination is the terminal device 30 of the user 5, the output unit 25 converts the display form according to the user interface of the terminal device 30 and outputs the control information.
  • FIG. 4 is a flowchart for explaining the operation of the environment generation system 1 according to this embodiment.
  • an input corresponding to the characteristics of the cluster for generating the environment of the target space S is accepted via the input unit 22 (S1).
  • a list such as a pull-down menu format in which a plurality of input information corresponding to the characteristics of the cluster is defined in advance is displayed.
  • the user 5 selects the input information corresponding to the feature of one cluster from the list via the terminal device 30.
  • “enjoyable environment”, “focusable environment”, “open environment”, etc. are displayed in a selectable state on the list.
  • the user 5 selects the “fun environment” via the terminal device 30.
  • the “fun environment” is input as a feature of the cluster by the input unit 22.
  • one of the environmental conditions belonging to the cluster is selected by the processing unit 23 (S2).
  • “environmental condition 1”, “environmental condition 2”, and “environmental condition 3” belong to the cluster 1 which is the “fun environment”, and one of these environmental conditions is the processing unit 23.
  • the processing unit 23 selects “environmental condition 1”.
  • the control of the environment generation device 10 is executed by the control unit 24 (S3).
  • the control unit 24 As a result, a predetermined environment is created in the target space S.
  • the environment generation device 10 is controlled based on the environmental condition 1.
  • the environment generating apparatus 10 is controlled until the control of the environment generating apparatus 10 is completed (S4).
  • the processing unit 23 selects another environmental condition belonging to the same cluster (S4-No, S5-Yes, S6).
  • one environmental condition is randomly selected from the other “environmental condition 2” and “environmental condition 3” belonging to the same cluster 1 by the processing unit 23.
  • “environmental condition 2” is selected by the processing unit 23.
  • the control of the environment generation device 10 is executed by the control unit 24 based on the other environmental condition selected by the processing unit 23 (S7).
  • the environment generation device 10 is controlled based on the environmental condition 2.
  • the environmental condition 2 is changed to the environmental condition 3, and the environment generation device 10 is controlled based on the environmental condition 3.
  • the control device 20 includes a plurality of clusters and clusters to which an environmental condition for constructing an environment having a specific influence on the human body and/or mind belongs. It is stored in the storage unit 21 in association with the features of. Then, the control device 20 controls the environment generation device 10 that generates the target space S in a predetermined environment in response to the reception of the input corresponding to the feature of the cluster. As a result, the control device 20 can build an environment that causes the user 5 to have various emotions.
  • control device 20 since the control device 20 according to the present embodiment controls the environment generation device 10 based on the environmental condition selected by the predetermined condition, a non-uniform environment can be constructed.
  • processing unit 23 selects another environment condition belonging to the same cluster under a predetermined condition, it is possible to prevent the user 5 in the target space S from acclimatizing to the predetermined environment.
  • the environmental condition 1 for generating “environment with high uplifting feeling” and the environmental condition for generating “environment with high happiness”. 2 belongs to the control device 20, by appropriately changing the environmental condition 1 and the environmental condition 2, the environment provides not only fun but also a feeling of uplifting and a feeling of happiness. can do.
  • the input unit 22 may also accept input by expressions associated with human senses, such as onomatopoeia and mimetic words including onomatopoeia and mimetic words related to tactile sensation.
  • the processing unit 23 analyzes by a predetermined algorithm and sets the characteristics of the cluster from the user's 5 sense input corresponding to the onomatopoeia/mimetic word. Further, the input unit 22 may receive an input based on a tactile sensation (material) by a tactile sensation selection device 80 described later.
  • an environment recognition device 70 including any biosensor, an imaging device, a recording device, a contact device, a robot, or any combination thereof is installed in the target space S.
  • the computer of the control device 20 further functions as the reaction acquisition unit 26, and the reaction acquisition unit 26 provides information on the physical condition, facial expression, action, behavior of the user 5 existing in the target space S.
  • reaction information indicating the reaction of the user 5 existing in the target space S is acquired.
  • the analysis unit 28 performs analysis such as facial expression analysis of the user based on the reaction information acquired by the reaction acquisition unit 26.
  • the processing unit 23 changes the environmental condition according to the analysis result by the analysis unit 28.
  • the characteristic of the cluster is "a fun environment”. Further, it is assumed that the analysis unit 28 analyzes the facial expression of the user 5 in the target space S. Then, when the image amount of the smiling face exceeds the predetermined amount in the analysis result by the analysis unit 28, the processing unit 23 expects the environment created under the current environmental conditions to the user 5 in the target space S. It is determined that the above influence is exerted, and control is performed so as to maintain the current environmental conditions. With such a configuration, it is possible to generate an environment according to the reaction of the user 5 existing in the target space S.
  • the environment recognition device 70 does not need to be fixed to the target space S, and may be a device worn by the user 5 such as a fitness tracker.
  • the processing unit 23 randomly changes to the next environmental condition after a lapse of a predetermined time, but the control device 20 according to the present embodiment is not limited to this.
  • the processing unit 23 of the control device 20 may change to the next environmental condition based on the priority when a predetermined time has elapsed.
  • the priority is set for each cluster as shown in FIG. Further, the priority can be downloaded and updated at any time.
  • the priority may be appropriately learned according to the usage status of the user 5. Furthermore, the priority may be appropriately learned based on the personal information of the user 5.
  • the processing unit 23 may have a function of determining the priority of the environmental condition described above.
  • the control device 20 further includes the reaction acquisition unit 26 described above.
  • the processing unit 23 has a function of determining the priority of the environmental condition belonging to each cluster based on the reaction information (information indicating the reaction of the user 5 existing in the target space S) acquired by the reaction acquisition unit 26. Have more.
  • the priority determination mode is selected in the control device 20 (T1).
  • the input corresponding to the characteristics of the cluster is accepted (T2).
  • the environment generation device 10 is controlled under a predetermined environmental condition N (T3, T4, T5).
  • the reaction acquisition unit 26 acquires the facial expression of the user 5 in the target space S as reaction information (T6).
  • the analysis unit 28 analyzes the reaction information (T7).
  • the analysis unit 28 analyzes the facial expression of the user 5.
  • the processing unit 23 determines whether or not a predetermined condition is satisfied based on the result of facial expression analysis (T8).
  • the processing unit 23 determines that the environment created under the current environmental condition N is within the target space S. It is determined that the user 5 has a specific influence, and the value of the priority is updated to be higher (T9). On the other hand, based on the result of the facial expression analysis and the like, the processing unit 23 determines that the environment generated under the current environmental condition N is the target space when the image amount of the smile does not exceed the predetermined amount (T8-No). It is determined that the user 5 within S is not specifically affected, and the priority value is not changed or updated to be low (T10).
  • the environment generation device 10 is controlled under the next environmental condition N+1 (T11-No, T12-Yes, T13, T4). After that, the priority of the environmental condition is updated until the priority determination mode is released. Then, the priorities converge according to the length of time in the priority determination mode.
  • determination or update of the priority may be performed in real time, or may be performed in batch to periodically analyze the reaction information acquired by the reaction acquisition unit 26.
  • the processing unit 23 may determine the priority of the environmental condition belonging to the cluster based on the number of times the environmental condition is selected. As a result, the priorities converge so as to select the environmental condition according to the user 5's intention according to the usage time of the control device 20 by the user 5.
  • the determination or update of the priority may be performed in real time or may be performed in batch to periodically analyze the information acquired by the reaction acquisition unit 26.
  • Modification F In the storage unit 21 described above, the characteristics of the cluster and the environmental conditions stored can be updated at any time. Further, the environment generation device 10 can be controlled based on the updated information.
  • the information stored in the storage unit 21 can be downloaded and updated at any time. For example, when a set of environmental conditions for a specific influence such as “the environment in which party air flows” is newly defined, it is possible to download and use the information in the storage unit 21.
  • the environmental conditions used in the environment generation system 1 described above can be classified using a cluster classification device.
  • the first cluster classification device 50 that sets the characteristics of the cluster afterwards and the second cluster classification device 60 that the characteristics of the cluster are set in advance will be described.
  • the first cluster classification device 50 (2-1) First Cluster Classification Device (2-1-1) Configuration of First Cluster Classification Device
  • the control device 20X controls the environment generation device 10 to generate a predetermined environment in the target space S.
  • the control device 20X has the same function as the control device 20 described above, the input unit 22X further has a function of inputting a predetermined environmental condition.
  • a subscript X is attached to a configuration of the control device 20X different from the control device 20.
  • FIG. 9 is a schematic diagram for explaining the configuration of the first cluster classification device 50.
  • the first cluster classification device 50 can be realized by any computer, and includes an environmental condition acquisition unit 51, a classification unit 52, a setting unit 53, and a storage unit 54.
  • each function of the first cluster classification device 50 is realized by reading a program stored in a storage device (ROM, RAM, etc.) into the CPU, GPU, etc. of the computer.
  • ROM Read Only Memory
  • RAM Random Access Memory
  • the present invention is not limited to this, and the first cluster classification device 50 may be realized as hardware using LSI (Large Scale Integration), ASIC (Application Specific Integrated Circuit), FPGA (Field-Programmable Gate Array), or the like. Good.
  • LSI Large Scale Integration
  • ASIC Application Specific Integrated Circuit
  • FPGA Field-Programmable Gate Array
  • first cluster classification device 50 and the control device 20X may not be separate and independent devices but may be integrated into the same device as a single unit.
  • the environmental condition acquisition unit 51 acquires environmental conditions for generating a predetermined environment in the target space S.
  • environmental conditions are appropriately input via the input unit 22X of the control device 20X, and the environment generation device 10 is controlled. Therefore, the environmental condition acquisition unit 51 acquires the environmental condition input by the input unit 22X of the control device 20X.
  • the classification unit 52 clusters the environmental conditions acquired by the environmental condition acquisition unit 51 based on the characteristics of the environmental conditions to generate a plurality of clusters.
  • a cluster includes a range of environmental conditions or a set of environmental conditions.
  • an optimal clustering method for example, K-means method
  • the classification unit 52 weights each of a plurality of environmental condition parameters (here, n physical quantities), and within a predetermined range on the n-dimensional space generated by each weighted parameter.
  • the environmental conditions at the distance of are set as the same cluster. For example, if there are two environmental condition parameters for convenience of explanation, each of the environmental conditions 1 to 9 is plotted in a two-dimensional space, as shown in FIG. In the example shown in FIG. 10, the classification unit 52 classifies these environmental conditions 1 to 9 so as to belong to a plurality of clusters 1 to 3.
  • the setting unit 53 receives an input of information via an arbitrary terminal device 30 or the like, and sets the characteristics of the cluster classified by the classification unit 52 based on the received information.
  • the feature of the cluster can be freely defined by the setter.
  • the setting unit 53 allows the setter to determine that the characteristics of cluster 1 are "fun environment", the characteristics of cluster 2 are “focusable environment”, and the characteristics of cluster 3 are The characteristics of each cluster can be set such as "an environment with a sense of openness”. Further, the characteristics of the cluster may be set by expressions using onomatopoeia/mimetic words related to the tactile sensation, such as smooth feeling (smoothness), rough feeling (roughness), and soft feeling (fluffy).
  • the cluster feature is set by attaching the language label as a tag. Note that, in setting the characteristics of each cluster, it is possible to attach only one tag, but it is also possible to attach multiple tags to one cluster. For example, the characteristics of one cluster may be set by a tag of “fun” and a tag of “open”.
  • the storage unit 54 stores the cluster, the characteristics of the cluster, and the environmental condition in association with each other. By writing the information stored in the storage unit 54 into an arbitrary storage device, the storage unit 21 of the control device 20 in the environment generation system 1 described above can be constructed.
  • the first cluster classification device 50 may also function as an environmental condition storage device including the functions of the storage device, as described below.
  • FIG. 11 is a flowchart for explaining the operation of the first cluster classification device 50.
  • the environment generation device 10 and the control device 20X are used by a plurality of users for a predetermined period without restriction.
  • Each user freely changes the environmental conditions using the terminal device 30, and changes the environment of the target space S using the environment generation device 10 and the control device 20X (X1).
  • the environmental condition may be freely changed by inputting a tactile sensation using the tactile sensation selection device 80 or the operation device 85 to which the tactile sensation selection device 80 is applied, which will be described later.
  • the environmental conditions used during the period in which the environment generation device 10 and the control device 20X are used are analyzed. Specifically, the plurality of environmental conditions are clustered by the classification unit 52 to generate one or more clusters (X2).
  • the configurator inputs information indicating the characteristics of each cluster using the terminal device 30 or the like.
  • the characteristics of each cluster are defined by the setter.
  • the setting unit 53 sets the characteristics of each cluster (X3).
  • a database associating the characteristics of the cluster with the environmental conditions is constructed and stored in the storage unit 54 (X4).
  • the first cluster classification device 50 includes the environmental condition acquisition unit 51, the classification unit 52, the setting unit 53, and the storage unit 54.
  • the environmental condition acquisition unit 51 acquires environmental conditions for generating a predetermined environment in the target space S.
  • the classification unit 52 classifies the environmental conditions into a plurality of clusters.
  • the setting unit 53 sets the characteristics of the cluster.
  • the storage unit 54 stores the feature of the cluster and the environmental condition in association with each other.
  • the first cluster classification device 50 classifies the environmental conditions into a plurality of clusters and receives the setting of the characteristics of the classified clusters. Since the first cluster classification device 50 has the above-described configuration, the setter can set the characteristics of the cluster after the fact. Then, based on this, it is possible to construct a database in which the characteristics of the cluster and the environmental conditions are associated with each other.
  • the first cluster classification device 50 classifies environmental conditions into predetermined clusters for model evaluation, and also generates models when environmental conditions are classified into new clusters.
  • the classification unit 52 of the first cluster classification device 50 adds a new cluster.
  • the feature of the cluster can be defined from the reaction of the user 5 existing in the target space S.
  • the environment recognition device 70 including any biosensor, an imaging device, a recording device, a contact device, a robot, or any combination thereof is installed in the target space S.
  • the computer of the first cluster classification device 50 further functions as the reaction acquisition unit 55, and the reaction acquisition unit 55 acquires reaction information indicating the reaction of the user 5 existing in the target space S.
  • the computer of the first cluster classification device 50 also functions as the analysis unit 56, and the analysis unit 56 analyzes the facial expression of the user 5 from the reaction information acquired by the reaction acquisition unit 55.
  • the setting unit 53 which also functions as a part of the processing unit, based on the analysis result by the analysis unit 56, for example, when the image amount of the smiling face exceeds a predetermined amount, the cluster corresponding to the environmental condition at that time is “a pleasant environment”. Characterize Then, the setting unit 53 stores the feature of the cluster and the environmental condition in the storage unit 54 in association with each other.
  • the environment recognition device 70 does not need to be fixed to the target space S, and may be a device such as a fitness tracker worn by the user 5.
  • control device 20X may be provided with the reaction acquisition unit 26 similarly to the control device 20 illustrated in FIG. 6, and changes the environmental condition according to the analysis result based on the reaction information acquired by the reaction acquisition unit 26. Or change the priority of environmental conditions.
  • the analysis result of the reaction information acquired from the reaction acquisition unit 55 of the first cluster classification device 50 described above is used for characterizing the cluster.
  • the configurator may accept the text input by the user 5 when defining the characteristics of the cluster.
  • the setting unit 53 analyzes the sentence by a predetermined algorithm and specifies the impression received by the user 5 from the sentence. Then, the setting unit 53 sets the identified impression as a feature of the cluster.
  • the attributes of the target space S can be reflected to define the characteristics of the cluster.
  • the characteristics of the cluster may be set by expressions using onomatopoeia/mimetic words related to the tactile sensation, such as smooth feeling (smoothness), rough feeling (roughness), and soft feeling (fluffy).
  • the setter when the setter defines the features of the cluster, he/she inputs the tactile sensation using the environment recognition device 70 to which the tactile sensation selection device 80 described later is applied, converts the input tactile sensation into a language label, and sets the feature of the cluster. You may.
  • Second Cluster Classification Device (2-2-1) Operation of Second Cluster Classification Device
  • the control device 20Y controls the environment generation device 10 to generate a predetermined environment in the target space S.
  • the control device 20Y has the same function as the control device 20 described above, except that the input unit 22Y can input a predetermined environmental condition.
  • a subscript Y is attached to a configuration of the control device 20Y different from the control device 20.
  • FIG. 13 is a schematic diagram for explaining the configuration of the second cluster classification device 60.
  • the second cluster classification device 60 can be realized by any computer and includes an environmental condition acquisition unit 61, a classification unit 62, and a storage unit 64.
  • each of the above-described functions is realized by reading a program stored in a storage device (ROM, RAM, etc.) into the CPU, GPU, etc. of the computer.
  • the second cluster classification device 60 is not limited to this, and may be realized as hardware using an LSI (Large Scale Integration), an ASIC (Application Specific Integrated Circuit), an FPGA (Field-Programmable Gate Array), or the like. Good.
  • the second cluster classification device 60 and the control device 20Y may not be separate and independent devices but may be integrated into the same device.
  • the environmental condition acquisition unit 61 acquires an environmental condition for generating a defined environment in which a concept is defined in the target space S in advance.
  • "Defined environment” includes “fun environment”, “focusable environment”, “open environment”, smooth feeling (smoothness), rough feeling (roughness), soft feeling (fluffy), and other onomatopoeia related to touch. Examples include words and mimetic words.
  • the “defined environment” may be defined by a tactile sensation. In this case, a "member having a smooth surface” or "a member having a rough surface” that can be physically felt is presented to the user as a concept of a defined environment.
  • the environmental condition acquisition unit 61 acquires environmental conditions from the input unit 22Y of the control device 20 described above.
  • the concept of the defined environment is presented to the user, and the user is further instructed to input the environmental condition that realizes the defined environment.
  • the user operates the terminal device 30, inputs the environmental condition via the input unit 22Y, controls the environment generation device 10, and attempts to generate the defined environment in the target space S.
  • the environmental condition acquisition unit 61 appropriately acquires the environmental conditions input by the operation of the terminal device 30 described above.
  • the classification unit 62 classifies the environmental conditions into predetermined clusters corresponding to the concept of the defined environment. For example, it includes a set of environmental conditions or an environmental condition input by each user via the input unit 22Y when a plurality of users are instructed to generate a “fun environment” as a predefined environment. Classify regions as identical clusters.
  • the classification unit 62 eliminates abnormal values according to a predetermined algorithm.
  • the storage unit 64 stores the concept of the defined environment and the environmental condition in association with each other.
  • the concept of a defined environment is treated as a feature of the cluster. Therefore, the storage unit 64 stores the feature of the cluster and the environmental condition in association with each other.
  • the second cluster classification device 60 may also function as an environmental condition storage device including the functions of the storage device, as described later.
  • FIG. 14 is a flowchart for explaining the operation of the second cluster classification device 60.
  • the concept of a defined environment is presented to a plurality of users (Y1), and the user is instructed to input environmental conditions that realize the environment.
  • the environment generation device 10 and the control device 20Y are used by each user for a predetermined period.
  • each user uses the terminal device 30 to change the environmental condition so as to match the concept of the defined environment through the control device 20Y, and uses the environment generation device 10 to define the defined environment in the target space S. (Y2).
  • the classification unit 62 eliminates abnormal values according to a predetermined algorithm and clusters a plurality of environmental conditions set by a plurality of users for each concept of a defined environment (Y3).
  • the classification unit 62 regards the defined environment as a feature of the cluster and associates the feature of the cluster with the environmental condition.
  • a database associating the characteristics of the cluster with the environmental conditions is constructed and stored in the storage unit 64 (Y4).
  • the second cluster classification device 60 includes the environmental condition acquisition unit 61, the classification unit 62, and the storage unit 64.
  • the environmental condition acquisition unit 61 acquires environmental conditions for generating a defined environment in which a concept is defined in the target space S in advance.
  • the classification unit 62 classifies the environmental conditions into predetermined clusters according to the concept of the defined environment.
  • the storage unit 64 stores the concept of the defined environment and the environmental condition in association with each other.
  • the second cluster classification device 60 clusters the environmental conditions in association with the defined environment. Since the second cluster classification device 60 has the above configuration, it is possible to perform clustering by collecting a plurality of environmental conditions in a situation in which the characteristics of the cluster are defined in advance. Then, based on this, it is possible to construct a database in which the characteristics of the cluster and the environmental conditions are associated with each other.
  • step Y3 by combining the first cluster classification device 50, it is possible to set a definition in which a characteristic of a predetermined dimension is further added to the defined environment.
  • the classifying unit 52 of the first cluster classifying apparatus 50 classifies a plurality of environmental conditions belonging to the concept of the defined environment that the classifying unit 62 of the second cluster classifying apparatus 60 has clustered into a plurality of new clusters.
  • the setting unit 53 of the first cluster classification device 50 sets new cluster features for these clusters.
  • the defined environment is a "fun environment”
  • multiple environmental conditions classified into this "fun environment” can be converted into a new cluster such as "high-excitement environment” or "euphoria environment”. Can be classified.
  • an ambiguously defined environment such as a “pleasant environment”
  • a more finely defined environment such as “higher feeling It is possible to collect environmental information corresponding to "high environment”, “high happiness environment”, etc.). Then, based on this, it is possible to construct a database in which the characteristics of the cluster and the environmental conditions are associated with each other.
  • the characteristics of the cluster can be defined by reflecting not only the concept of the defined environment but also the reaction of the user 5 existing in the target space S.
  • the environment recognition device 70 including any biosensor, an imaging device, a recording device, a contact device, a robot, or any combination thereof is installed in the target space S.
  • the computer of the second cluster classification device 60 further functions as the reaction acquisition unit 65, and the reaction acquisition unit 65 acquires reaction information indicating the reaction of the user 5 existing in the target space S.
  • the computer of the second cluster classification device 60 further functions as the analysis unit 66, and the analysis unit 66 performs facial expression analysis of the user 5 and the like from the reaction information acquired by the reaction acquisition unit 65.
  • the processing unit 68 determines that the concept of the defined environment is “a fun environment” and the image amount of the smile exceeds the predetermined amount, the cluster corresponding to the environmental condition at that time is determined. , "Enjoyable environment” is subdivided into “Enjoyable environment”. Then, the processing unit 68 stores the feature of the cluster and the environmental condition in the storage unit 64 in association with each other.
  • the environment recognition device 70 does not need to be fixed to the target space S, and may be a device worn by the user 5 such as a fitness tracker.
  • control device 20Y may be provided with the reaction acquisition unit 26 similarly to the control device 20 illustrated in FIG. 6, and changes the environmental condition according to the analysis result based on the reaction information acquired by the reaction acquisition unit 26. Or change the priority of environmental conditions.
  • analysis result of the reaction information acquired from the reaction acquisition unit 65 of the second cluster classification device 60 is used for cluster characterization (reclassification, etc.).
  • Tactile sensation selection device (3-1) Configuration The following tactile sensation selection device 80 can be used as part or all of the environment recognition device 70, the operation device 85, or the environmental condition storage devices 50 and 60.
  • the tactile sensation selection device 80 includes a providing unit 81 and a recognition unit 82.
  • the providing part 81 includes a plurality of contact parts 81a, 81b, 81c, 81d, 81e, 81f....
  • the tactile sensation selecting device 80 has a rectangular parallelepiped casing 80c, and has a plurality of contact portions 81a, 81b, 81c, 81d, 81e, 81f... On each surface. ..
  • FIG. 17 is a schematic diagram for explaining an example of the outer appearance of the tactile sensation selection device 80.
  • the providing unit 81 individually provides different tactile sensations when the user 5 makes contact.
  • different tactile sensations include smooth feeling (smooth feeling), rough feeling (rough feeling), and soft feeling (fluffy feeling). These tactile sensations can be realized by arranging snake skin, tatami mats, feathers, and the like, for example.
  • at least two contact parts of the providing part 81 are made of different materials.
  • contact portions 81a, 81b, 81c, 81d, 81e, 81f that generate two different tactile sensations are provided on each of the first surface F1, the second surface F2, and the third surface F3. ..
  • the evaluation axis for a predetermined sensation is determined for each surface, and two contact portions arranged on the same surface have different strengths.
  • the first surface F1 a rough feeling is realized
  • the right contact portion 81a has a strong rough feeling
  • the left contact portion 81b has a weak rough feeling.
  • the second surface F2 a smooth feeling is realized
  • the right contact portion 81c has a strong smooth feeling
  • the left contact portion 81d has a weak feeling.
  • the third surface F3, a soft feeling is realized, the front side contact portion 81e has a strong soft feeling, and the back side contact portion 81f has a weak feeling.
  • the tactile sensation selection device 80 includes the providing unit 81 and the recognition unit 82 described above.
  • the recognition unit 82 includes an arbitrary processor and memory.
  • the recognition unit 82 recognizes the tactile sensation selected by the user 5.
  • the recognition unit 82 recognizes the tactile sensation of the user 5 based on the contact portion with which the user 5 contacts. As a result, the tactile sensation corresponding to the state of the environment of the target space S in which the user 5 exists can be recognized.
  • the language selection device used had buttons with emotional words such as “tension”, “relaxed”, and “bright” displayed.
  • the tactile sensation selection device uses buttons that are made of materials that give the user multiple tactile sensations. Materials used were low-resilience urethane (providing a fluffy feel), paper (providing a dry feel), and gravel (providing a rugged feel). The reason why these three materials are selected as the tactile sensation selection device will be described later.
  • the video presented to the participants was generated using a statistical generation model.
  • the emotional words eg, relaxing
  • the impression of the image presented in the space (room) eg, “feeling relaxed”.
  • a predetermined image confirmed to be used was used. Even when the same language selection device or the same tactile sensation selection device was operated, different images were generated and presented each time based on the generation model corresponding to the tactile sensation or emotional word selected by the participant.
  • images that are generated and presented in the experiment are those that are associated with emotional words and tactile sensations by methods such as clustering. The verification of this association will be described later.
  • Control objectives include a relaxing room, a pensive room, a bright room, a tense room, an exciting room, an awe-inspiring room, and more (free description, eg, "inorganic room”). The item was set and the participant was asked to select one answer.
  • the participant After using the language selecting device and the tactile selecting device, the participant asked which one of the language selecting device and the tactile selecting device was “whether the room had the desired atmosphere” and “whether the operation was enjoyable”. I was asked to choose. In addition, participants were asked to respond to their impressions of using each selection device in a free description.
  • FIGS. 21 and 22 are graphs of experimental results for verifying the effect of environment generation based on tactile sensations.
  • FIG. 21 shows the response results of the participants to the control target such as "what kind of space did you want?" From the results shown in FIG. 21, it was found that the control target of the participant becomes more diverse when the tactile sensation selection device is used than when the language selection device is used.
  • FIG. 22 is a graph showing the responses of the participants about which selection device "was able to make the room have the desired atmosphere" and "whether the operation was enjoyable".
  • the tactile sense selection device when used, the participants can create a desired atmosphere in the space (room) rather than the language selection device (p ⁇ .05), and the selection device can be operated. It was shown to be fun (p ⁇ 0.01).
  • the tactile selection device made it easy to imagine the atmosphere.
  • participant were instructed to "choose one word suitable for describing this space (room)." Participants selected the most appropriate language (emotional words) from “excitement”, “brightness”, “relaxing”, “sadness”, “emergency”, and “respect”.
  • 23 and 24 show a matrix showing the evaluation results of the user with respect to the six types of tactile cluster images.
  • FIG. 23 shows six types of tactile cluster images presented to the participants (corresponding to the vertical axis in FIG. 23) and the tactile sensations that the participant evaluated as appropriate for the space (room) (corresponding to the horizontal axis in FIG. 23). ) Shows the matrix showing the correlation with. The darker the color (the larger the numerical value), the stronger (higher the correlation) the tactile cluster image presented to the participant and the tactile feeling that the participant evaluated as appropriate.
  • FIG. 24 shows six types of tactile cluster images presented to participants (corresponding to the vertical axis in FIG. 24) and emotional words that the participant evaluated as appropriate for the space (room) (corresponding to the horizontal axis in FIG. 24). ) Shows the matrix showing the correlation with. The darker the color (the larger the value), the stronger the relationship (higher correlation) between the tactile cluster image presented to the participant and the emotional word evaluated by the participant as appropriate.
  • a tactile sense selection device and a language selection device were prepared by associating the tactile sense (tactile material) and emotional words that are highly correlated with the tactile cluster image.
  • “Gotsu Gotsu” in the tactile cluster image has a high correlation with “tsutsurugu” in the tactile material, so when the tactile selecting device selects a material corresponding to “tsutsutsu”, the tactile cluster image “Gotsu Gotsu” is displayed. I tried to reproduce it in space.
  • “Gotsu Gotsu” in the tactile cluster image has a high correlation with “tension” in the emotional words, so in the case of a language selection device, the tactile cluster image “Gotsu Gotsu” appears in the space when selecting the emotional word “tension” To be reproduced.
  • the recognition part 82 detects the contact and makes a selection. Recognize the sense of touch made.
  • the recognition unit 82 for example, which contact unit 81a, 81b, 81c, 81d, 81e the user 5 uses based on the number of contact times and/or the contact time of the contact unit by the user 5 in the target space S. , 81f...
  • the tactile sensation corresponding to the state of the environment of the target space S is recognized to obtain information indicating the tactile sensation (tactile sensation information).
  • the operation device 85 includes, in addition to the tactile sensation selection device 80, a processing unit 83 including an arbitrary processor and memory, and a communication unit 84 which is an arbitrary communication interface.
  • the tactile information determined according to the contact condition of the plurality of contact portions 81 by the user 5 and other information is transmitted to another device via the arbitrary communication portion 84.
  • the operation device 85 and other devices connectable to the operation device 85 operate as a part of the environment generation system 1.
  • the processing unit 83 of the operation device 85 determines the environmental condition according to the tactile sensation recognized by the recognition unit 82. Specifically, the processing unit 83 causes the tactile sensation recognized by the recognition unit 82 to be based on the environmental condition associated with the tactile information stored in advance (for example, information stored in the same way as the environmental condition storage device described later). You may make it determine the environmental condition according to.
  • the determined environmental condition is transmitted to the environment generation device 10 via the communication unit 84 and controls the environment generation device 10. As a result, a predetermined environment is generated in the target space S based on the input tactile sensation.
  • the function of the processing unit 83 may be included in the environment generation device 10.
  • the operating device 85 transmits the tactile information to the environment generating device 10, and the environment generating device 10 determines the environmental condition according to the tactile feeling.
  • control devices 20, 20X, 20Y Other devices connectable to the operating device 85 are the control devices 20, 20X, 20Y (FIG. 6, FIG. 9, FIG. 12, FIG. 13, FIG. 15), and the operating device 85 is the control device 20, 20X, 20Y.
  • the tactile information may be transmitted to.
  • the tactile sensation selection device 80 may function as a part or all of the environment recognition device. By associating the tactile sensation analysis result recognized by the recognition unit 82 with the environmental condition, it is possible to determine the state of the environment of the target space S based on the tactile sensation selected by the user.
  • the tactile sensation selection device 80 includes a processing unit 83 (FIG. 18) including an arbitrary processor and memory.
  • the processing unit 83 determines the environmental condition associated with the tactile sensation recognized by the recognition unit 82. Accordingly, it is possible to determine the state of the environment of the target space S according to the tactile sensation input by the user.
  • the determined environmental conditions are output as reaction information to the first cluster classification device 50 (FIGS. 9 and 12) and the second cluster classification device 60 (FIGS. 13 and 15) via an arbitrary communication interface, for example. ..
  • the recognition unit 82 of the tactile sensation selection device 80 may operate as an environmental condition storage device in combination with the functions of the storage units 54 and 64 of the first cluster classification device 50 and the second cluster classification device 60 described above.
  • the environmental condition storage device is an environmental condition acquisition unit 51 or 61 that acquires an environmental condition including at least one of temperature, humidity, wind, image, video, and sound, and information indicating a tactile sensation.
  • a tactile information acquisition unit (recognition unit 82) that acquires tactile information, and a storage unit 54 or 64 that stores tactile information and environmental conditions in association with each other.
  • the environmental condition storage device may further include a providing unit 81 that provides a plurality of tactile sensations.
  • the environmental conditions stored in the environmental condition storage device belong to one or a plurality of clusters characterized based on, for example, tactile information, as in the above example.
  • the cluster is generated by collecting a plurality of environmental conditions corresponding to the tactile information, for example, by causing a plurality of users to create the environment conditions, and performing clustering.
  • Information in which tactile information is associated with environmental conditions is generated by clustering.
  • These pieces of information are stored in the storage device as a database.
  • the database is referred to, and one of the environmental conditions included in the cluster corresponding to the selected tactile sensation is selected as the control target.
  • a label corresponding to tactile information on the database is determined.
  • the language label may be “Mokomoko” or “soft feeling”, or any label that can be distinguished from other clusters such as numbers and symbols. Good.
  • the method of selecting the environmental condition in the cluster may be designated randomly, or may be selected or changed according to a predetermined priority.
  • the tactile sensation selection device 80 the tactile sensation can be recognized based on the contact portion with which the user has contacted, and the environment can be generated based on the recognized tactile sensation. Further, by using such a tactile sensation selection device 80 as part or all of the environment recognition device 70, the operation device 85, or the environmental condition storage device, the state of the environment of the target space S can be recognized based on the difference in tactile sensation. .. In addition, the tactile sensation selecting device 80 can recognize the state of the environment of the target space S based on the difference in the tactile sensation depending on the material by configuring the contact portion from different materials.
  • a plurality of environmental conditions corresponding to tactile information are preset by the user, etc., and stored in a storage device as a database.
  • the database is referred to, and the average value of a plurality of environmental conditions corresponding to the predetermined tactile sensation is set as the control target.
  • a statistically most existing environmental condition may be set as the control target.
  • the storage device may hold a preset table including a plurality of environmental conditions corresponding to tactile information.
  • the table is referred to, and one of the environmental conditions associated with the predetermined tactile sensation is selected as the control target.
  • the tactile information and the environmental condition may be associated with each other on a one-to-one basis.
  • the contact section 81 of the tactile sensation selection device 80 may be realized by the following configuration.
  • the user is allowed to select a tactile sensation based on the difference in tactile sensation caused by the vibration.
  • vibration can be generated on the contact surface. Thereby, it is possible to recognize the state of the environment of the target space S or generate the environment.
  • the user can select the tactile sensation based on the difference in the tactile sensation due to temperature and/or humidity.
  • the temperature of the contact surface can be changed. Thereby, it is possible to recognize the state of the environment of the target space S or generate the environment.
  • the user By causing different voltages and/or currents on the contact surfaces of at least two contact parts, the user is allowed to select the tactile sensation based on the difference in tactile sensation due to the voltage and/or current.
  • a contact portion having an electrode for applying a voltage can be adopted. Thereby, it is possible to recognize the state of the environment of the target space S or generate the environment.
  • the at least two contact portions may generate different magnetic forces on the contact surfaces due to movement of magnetic powder contained in the member.
  • a contact portion having a magnetic elastomer or a magnetic field generator whose rigidity changes according to an external magnetic field can be adopted.
  • the contact portion 81 may have any combination of the configurations described above. Thereby, it is possible to recognize the state of the environment of the target space S or generate the environment.
  • the number of contact parts according to the above example may be one.
  • the user may be allowed to select a tactile sensation close to his or her own feeling.
  • Input auxiliary device control of environment generation device
  • a builder application on a full-fledged computer that can create an environment with great precision, a simplified GUI on a touch panel that can be operated by children and seniors, and more intuitive touch
  • devices such as a tactile sensation selection device that can unconsciously generate an environment
  • the barriers for users to enter creative activities can be lowered to the utmost limit.
  • a new environment is actually created by the user in the ecosystem, which is mechanically sucked up and stored in the database. desirable.
  • the input assist device may be realized by installing a program in the terminal device 30.
  • An example of an interface that allows intuitive operation is shown below.
  • the input assisting device determines an environmental condition for moving a predetermined display object on the wall surface of the target space S via the projector constituting the environment generating device 10. It is configured to be able to. For example, when the user 5 operates the terminal device 30, the environment generation device 10 displays the display object R on the wall surface of the target space S (see FIGS. 1 and 5).
  • the function of the input assisting device is installed in the terminal device 30, and the number of points of the display object R, the moving direction, the moving speed, the size, the color, the shape, the arrangement of the points, the periodic movement, etc. It is configured to receive adjustment information for adjustment. Therefore, the user 5 can change the display mode of the display object R displayed on the wall surface of the target space S by inputting the adjustment information into the terminal device (input auxiliary device) 30.
  • the display object R is considered to give a positive impression to a person as it moves upward as compared to downward. Further, it is considered that the display object R gives a positive impression to a person as it moves to the right as compared to the left.
  • the terminal device 30 may include the tactile sensation selection device 80.
  • the parameter of the environmental condition can be changed according to the contact condition of the plurality of contact portions 81 of the tactile sensation selection device 80 by the user 5.
  • the contact condition includes, for example, which surface of the contact portion 81 the user 5 has touched, the strength of the touch when touching the surface, the direction of the touched surface, the frequency of touch, and the like.
  • the parameters of the environmental conditions can be changed to change the number of points, the moving direction, the size, the color, the shape, the arrangement of the points, the periodic movement, etc. of the display object R.
  • the input assist device can move a predetermined display object on the screen.
  • the environmental conditions can be determined according to the movement of the.
  • the environment generating device 10 can be controlled under the determined environmental conditions.
  • the input assist device adopts an interface having a configuration as shown in FIG.
  • a round display object Z1 is displayed in the area G1 on the right side of the screen of the input assist device.
  • the user 5 draws a curve Z2 in the area G2 on the left side of the screen shown in FIG. 19 with a mouse or a touch screen, it is displayed in the area G1 on the right side corresponding to this curve Z2.
  • the round display object Z1 moves up and down with one degree of freedom for a predetermined time.
  • the vertical axis indicates vertical movement and the horizontal axis indicates time.
  • the moving time of the round display object Z1 can be changed at any time.
  • anyone can intuitively create various movements.
  • the input assisting device using such an interface it becomes possible to extract and generate the environmental condition reflecting the sense shared by the group.
  • the present disclosure is not limited to the above embodiments as they are.
  • the present disclosure can be embodied by modifying the constituent elements within a range not departing from the gist of the present disclosure at the implementation stage. Further, the present disclosure can form various disclosures by appropriately combining a plurality of constituent elements disclosed in each of the above embodiments. For example, some components may be deleted from all the components shown in the embodiment. Further, the constituent elements may be appropriately combined with different embodiments.
  • Tactile sensation selection device 80c Casing, 81... Providing part, 81a, 81b, 81c, 81d, 81e, 81f... Contact part, 82... Recognition part (tactile information acquisition part), 83... Processing unit, 84... Communication unit, 85... Operating device

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

環境条件を記憶する環境条件記憶装置(50,60)は、環境条件取得部(51、61)と、触感情報取得部(82)と、記憶部(21,54,64)とを備える。環境条件取得部(51、61)は、温度、湿度、風、画像、映像、音響の少なくとも一つを含む環境条件を取得する。触感情報取得部(82)は、触感を示す情報である触感情報を取得する。記憶部(54,64)は、環境条件と触感情報とを関連付けて記憶する。

Description

環境条件記憶装置、環境条件記憶方法、操作装置、及び環境認識装置
 本開示は、環境条件記憶装置、環境条件記憶方法、操作装置、及び環境認識装置に関する。
 従来、自分の体験した環境を再現する装置が開発されている。例えば、特許文献1(特開2003-299013号公報)には、体験者が体験した出来事を臨場感をもって再体験することができる体験情報再現装置が開示されている。
 しかし、特許文献1においては、人が内的に有している感覚志向性を反映させた環境を再現することはできていない。
 第1の観点の環境条件記憶装置は、環境条件取得部と、触感情報取得部と、記憶部とを備える。環境条件取得部は、温度、湿度、風、画像、映像、音響の少なくとも一つを含む環境条件を取得する。触感情報取得部は、触感を示す情報である触感情報を取得する。記憶部は、環境条件と触感情報とを関連付けて記憶する。このため、人が内的に有している感覚志向性をより反映させた触感に応じた環境の生成が可能となる。
 第2の観点の環境条件記憶装置は、第1の観点の環境条件記憶装置であって、複数の触感を提供する提供部をさらに備える。触感情報取得部は、複数の触感のうちユーザーにより選択された触感を認識することで選択された触感を示す情報である触感情報を取得する。このため、触感に応じた環境の生成が可能となる。
 第3の観点の環境条件記憶装置は、第2の観点の環境条件記憶装置であって、提供部により提供される触感の接触回数及び提供部により提供される触感の接触時間の少なくとも一方に基づいて、ユーザーにより選択された触感を認識する。このため、触感に基づく人の感覚志向性をより具体的に把握することができる。
 第4の観点の環境条件記憶方法は、環境条件を記憶する環境条件記憶方法であって、温度、湿度、風、画像、映像、音響の少なくとも一つを含む環境条件と、触感を示す情報である触感情報とを取得する第1工程と、環境条件と触感情報とを関連付けて記憶部に記憶させる第2工程とを含む。このため、人が内的に有している感覚志向性に近い触感に対応する環境の生成が可能となる。
 第5の観点の環境条件記憶方法は、第4の観点の環境条件記憶方法であって、触感を提供した上でユーザーにより選択された触感を認識する第3工程をさらに含み、第1工程は、第3工程で選択された触感を認識することで選択された触感を示す情報である触感情報を取得することを含む。このため、触感に応じた環境の生成が可能となる。
 第6の観点の環境条件記憶方法は、第5の観点の環境条件記憶方法であって、第3工程は、提供された複数の触感の接触回数及び接触時間の少なくとも一方に基づいて、ユーザーにより選択された触感を認識することを含む。このため、触感に基づく人の感覚志向性をより具体的に把握することができる。
 第7の観点の操作装置は、環境条件に基づいて対象空間に所定の環境を生成する環境生成装置を操作する操作装置であって、提供部と、認識部と、処理部と、通信部とを備える。提供部は、一つ又は複数の接触面を有し、複数の触感を提供する。認識部は、複数の触感のうちユーザーにより選択された触感を認識する。処理部は、認識部により認識された触感に応じた環境条件を決定する。通信部は、処理部により決定された環境条件を環境生成装置に送信する。このため、触感に基づいて対象空間に所定の環境を生成するための操作装置を提供できる。
 第8の観点の操作装置は、第7の観点の操作装置であって、さらに、認識部は、提供部により提供される触感の接触回数及び提供部により提供される触感の接触時間の少なくとも一方に基づいて、ユーザーにより選択された触感を認識する。このため、触感に基づく人の感覚志向性をより具体的に把握することができる。
 第9の観点の操作装置は、第7の観点又は第8の観点の操作装置であって、提供部は、異なる材料により形成される複数の接触面を有する。
 第10の観点の操作装置は、第7の観点又は第8の観点の操作装置であって、提供部は、一つ又は複数の接触面に振動を生じさせることにより複数の異なる触感を提供する。
 第11の観点の操作装置は、第7の観点又は第8の観点の操作装置であって、提供部は、一つ又は複数の接触面の温度又は湿度を制御することにより複数の異なる触感を提供する。
 第12の観点の操作装置は、第7の観点又は第8の観点の操作装置であって、提供部は、一つ又は複数の接触面に電圧又は電流を生じさせることにより複数の異なる触感を提供する。
 第13の観点の操作装置は、第7の観点又は第8の観点の操作装置であって、提供部は、一つ又は複数の接触面に磁力を生じさせることにより複数の異なる触感を提供する。
 第14の観点の操作方法は、環境条件に基づいて対象空間に所定の環境を生成する環境生成装置を操作する操作方法であって、触感を提供した上で、ユーザーにより選択された触感を認識する工程と、認識された触感に応じた環境条件を決定する工程と、決定された環境条件を環境生成装置に送信する工程とを含む。このため、触感に基づいて対象空間に所定の環境を生成するための操作方法を実現できる。
 第15の観点の操作方法は、第14の観点の操作方法であって、ユーザーにより選択された触感を認識する工程は、提供部により提供される触感の接触回数及び提供部により提供される触感の接触時間の少なくとも一方に基づいて、ユーザーにより選択された触感を認識することを含む。このため、触感に基づく人の感覚志向性をより具体的に把握することができる。
 第16の観点の環境認識装置は、提供部と、認識部と、処理部とを備える。提供部は、一つ又は複数の接触面を有し、複数の触感を提供する。認識部は、複数の触感のうちユーザーにより選択された触感を認識する。処理部は、認識部により認識された触感に応じた環境条件を決定する。このため、対象空間に所定の環境を生成するための環境条件を触感に基づいて分類することができる。
 第17の観点の環境認識装置は、第16の観点の環境認識装置であって、さらに、認識部は、提供部により提供される触感の接触回数及び提供部により提供される触感の接触時間の少なくとも一方に基づいて、ユーザーにより選択された触感を認識する。このため、触感に基づく人の感覚志向性をより具体的に把握することができる。
環境生成システム1の構成を説明するための模式図である。 制御装置20の構成を説明するための模式図である。 記憶部21に記憶される情報を説明するための模式図である。 環境生成システム1の動作を説明するためのフローチャートである。 変形例Bに係る環境生成システム1の構成を説明するための模式図である。 変形例Bに係る制御装置20の構成を説明するための模式図である。 優先度を説明するための模式図である。 優先度を決定する処理を説明するためのフローチャートである。 優先度を決定する処理を説明するためのフローチャートである。 第1クラスタ分類装置50の構成を説明するための模式図である。 クラスタの概念を説明するための模式図である。 第1クラスタ分類装置50の動作を説明するためのフローチャートである。 第1クラスタ分類装置50の変形例の構成を説明するための模式図である。 第2クラスタ分類装置60の構成を説明するための模式図である。 第2クラスタ分類装置60の動作を説明するためのフローチャートである。 第2クラスタ分類装置60の変形例の構成を説明するための模式図である。 触感選択装置80の構成を説明するための模式図である。 触感選択装置80の外観の一例を説明するための模式図である。 操作装置85の構成を示す模式図である。 入力補助装置のインターフェースの一例を示す模式図である。 入力補助装置を用いた実験結果を示す図である。 触感に基づく環境生成の効果を検証した実験結果のグラフである。 触感に基づく環境生成の効果を検証した実験結果のグラフである。 触感に基づき自動生成された映像(環境)の評価結果を表すマトリックスを示す。 触感に基づき自動生成された映像(環境)の評価結果を表すマトリックスを示す。
 (1)環境生成システム
 (1-1)環境生成システムの構成
 本実施形態に係る環境生成システム1は、図1に示すように、環境生成装置10及び制御装置20を具備する。
 (1-1-1)環境生成装置
 環境生成装置10は、対象空間Sの環境を変化させて所定の環境を生成することが可能な任意の機器である。環境生成装置10が環境を変化させる結果として、対象空間S内のユーザー5の感覚に特定の影響が与えられる。具体的には、環境生成装置10の構成機器として、空気調和装置、照明装置、プロジェクター、スピーカー、匂い発生器等が挙げられる。例えば、図1では、環境生成装置10としてのプロジェクターが、対象空間Sの壁面に多数の表示物Rを投影して新たな見た目にしている様子を示している。換言すると、図1に示す例では、プロジェクションマッピングにより、部屋の内装を変化させている。また、環境生成装置10としてロボットを対象空間Sに配置してもよく、この場合、ロボットは、少なくとも発光する色、動作、形状、音を変化させる。
 詳しくは、環境生成装置10は、後述するクラスタに対応付けられた環境条件に基づいて、対象空間Sに所定の環境を生成する。
 「環境条件」は、人の身体及び/又は心に特定の影響を与える物理量を特徴付けるパラメータである。例えば、環境条件は、温度、湿度、風、画像、映像、音響等の少なくとも1つを含む物理量(環境条件の特徴の例)で定義されており、これに応じて、環境生成装置10の構成機器が動作する。そして、環境生成装置10が環境を変化させることにより、人の感覚に特定の影響が与えられる。
 「特定の影響」とは、ユーザー5の五感に所定の感覚が喚起される作用のことをいう。例えば、特定の影響としては、萌彩感(日常生活の忘れがちな感覚に対する感受性を高める感覚)、緊張感(何かしているときに誰かが見ていてやる気がでるような感覚)、包容感(心を包んでくれるような暖かく安らぎに満ちた感覚)、開放感(広々とした場所の中で深呼吸をしているような感覚)、船出感(新しい一歩を踏み出す時に寄り添って応援されるような感覚)、旅情感(少しさみしいけどロマンティックな感覚)、等の感覚が喚起される任意の環境変化が挙げられる。また、特定の影響は、任意の言葉で表現することができ、「楽しい環境」「集中できる環境」「開放感のある環境」といった一般的に観念できる用語で表現されるものでもよい。また、特定の影響は、「毛布に包まれるような空気が流れる環境」「パーティの空気が流れる環境」「虹色の空気が流れる環境」や、滑らかな感じ(ツルツル)、ざらつく感じ(ザラザラ)、柔らかい感じ(フワフワ)等、触感に関係する擬音語・擬態語といった、必ずしも概念が明確ではない用語で表現されるものでもよい。
 なお、特定の影響と環境条件との対応関係は、対象空間S内に存在するユーザー5が抱いた印象等を集計することにより定義できる。
 (1-1-2)制御装置
 制御装置20は、環境生成装置10を制御する。制御装置20は任意のコンピュータにより実現することができ、図2に示すように、記憶部21、入力部22、処理部23、制御部24、出力部25を備える。ここでは、コンピュータのCPU,GPU等に記憶装置(ROM,RAM等)に記憶されたプログラムが読み込まれることで、上記各機能が実現される。ただし、これに限らず、制御装置20は、LSI(Large Scale Integration),ASIC(Application Specific Integrated Circuit),FPGA(Field-Programmable Gate Array)等を用いてハードウェアとして実現されるものでもよい。
 記憶部21は、各種情報を記憶するものであり、メモリ及びハードディスク等の任意の記憶装置により実現される。ここでは、記憶部21は、クラスタの特徴と環境条件とを関連付けて記憶する。詳しくは、クラスタは、n次元(nは環境条件のパラメータの数)の情報で表現される空間における環境条件の集合からなる。或いは、クラスタは、n次元の情報で表現される空間における環境条件を含む領域からなる。そして、各クラスタには固有の特徴が設定されている。例えば、記憶部21には、図3に示すように、n次元の情報として、温度、湿度、風、画像、映像、音響等の少なくとも1つを含む物理量を示す情報が記憶される。これらの値が所定のクラスタリングの手法により、一のクラスタにグループ化され、クラスタの特徴が設定される。また、ここでいう、クラスタの特徴とは、上述した特定の影響に対応する。図3に示す例では、クラスタ1の特徴として「楽しい環境」、クラスタ2の特徴として「集中できる環境」、クラスタ3の特徴として「開放感のある環境」等が設定されている。また、各クラスタには、複数の環境条件が属している。図3に示す例では、クラスタ1に環境条件1~3が属し、クラスタ2に環境条件4~6が属し、クラスタ3に環境条件7~9が属している。また、クラスタをさらに細分化して新たなクラスタを定義することもできる。また、図3に示す例では、例えば新たな環境条件10が追加されると、クラスタ3の環境条件7~9のうち環境条件7、8と、新たな環境条件10とで、新たなクラスタを定義してもよい。この新たなクラスタは、「明るい環境」等新たな特徴のタグを付けてもよい。
 入力部22は、キーボード、マウス、タッチパネル等を有する任意の端末装置30を介して各種情報の入力を受け付ける。ここでは、入力部22は、クラスタの特徴に対応する入力を受け付ける。例えば、入力部22は、任意の形式で表示されたリストから一のクラスタの特徴に対応する入力を受け付ける。端末装置30は、図16から図18に示す触感選択装置80又は触感選択装置80を応用した操作装置85であってもよい。
 処理部23は、各種情報処理を実行するものであり、CPUやGPUといったプロセッサ及びメモリにより実現される。具体的には、処理部23は、クラスタに属する環境条件のうち、一の環境条件を選択する機能を有する。より詳しくは、処理部23は、所定の条件で、同一クラスタ内に属する他の環境条件をランダムに選択する。また、処理部23は、所定の条件を満たすと、現在の環境条件を、同一クラスタ内の他の環境条件に変更する。なお、所定の条件とは、例えば、所定時間が経過した状態や、対象空間S内のユーザー5から所定の反応が得られなかった状態をいう。
 制御部24は、環境生成装置10を制御する。具体的に、制御部24は、上述したクラスタの特徴に基づいて、環境生成装置10を制御するための環境条件を記憶部21から抽出し、これに基づいて環境生成装置10を制御する。
 出力部25は、環境生成装置10を制御するための制御情報を出力先に応じて出力する。例えば、出力部25は、出力先がユーザー5の端末装置30である場合、その端末装置30のユーザーインタフェースに応じた表示形態に変換して制御情報を出力する。
 (1-2)環境生成システムの動作
 図4は本実施形態に係る環境生成システム1の動作を説明するためのフローチャートである。
 まず、入力部22を介して、対象空間Sの環境を生成するためのクラスタの特徴に対応する入力が受け付けられる(S1)。ここでは、ユーザー5の端末装置30に、クラスタの特徴に対応する入力情報が予め複数定義されたプルダウンメニュー形式等のリストが表示される。続いて、ユーザー5により端末装置30を介して、そのリストの中から一のクラスタの特徴に対応する入力情報が選択される。図3に対応する例であれば、リスト上に、「楽しい環境」「集中できる環境」「開放感のある環境」等が選択可能な状態に表示される。ここでは、ユーザー5により端末装置30を介して「楽しい環境」が選択されるものとする。これにより、入力部22によりクラスタの特徴として「楽しい環境」が入力されることになる。
 次に、入力部22によるクラスタの特徴に対応する入力の受け付けに応じて、当該クラスタに属する環境条件のうち一の環境条件が処理部23により選択される(S2)。図3に対応する例では、「楽しい環境」であるクラスタ1には「環境条件1」「環境条件2」「環境条件3」が属しており、これらのうちから一の環境条件が処理部23によりランダムに選択される。ここでは、処理部23により、「環境条件1」が選択されるものとする。
 次に、処理部23により選択された環境条件に基づいて、環境生成装置10の制御が制御部24により実行される(S3)。これにより、対象空間Sに所定の環境が生成される。図3に示す例であれば、環境条件1に基づいて環境生成装置10が制御される。
 この後、環境生成装置10の制御が終了するまで、環境生成装置10が制御される(S4)。ここで、環境生成装置10の制御の終了前に、所定時間が経過した場合、処理部23により、同一クラスタに属する他の環境条件が選択される(S4-No,S5-Yes,S6)。図3に対応する例であれば、同一クラスタ1に属する他の「環境条件2」「環境条件3」のうち、一の環境条件が処理部23によりランダムに選択される。その結果として、ここでは「環境条件2」が処理部23により選択されるものとする。
 そして、処理部23により選択された他の環境条件に基づいて、環境生成装置10の制御が制御部24により実行される(S7)。図3に対応する例であれば、環境条件2に基づいて環境生成装置10が制御される。なお、さらに所定時間が経過した場合は、環境条件2から環境条件3に変更され、環境条件3に基づいて環境生成装置10が制御される。
 (1-3)特徴
 以上説明したように、本実施形態に係る制御装置20は、人の身体及び/又は心に特定の影響を与える環境を構築するための環境条件が属する複数のクラスタとクラスタの特徴とを関連付けて記憶部21に記憶する。そして、制御装置20は、対象空間Sを所定の環境に生成する環境生成装置10を、クラスタの特徴に対応する入力の受け付けに応じて制御する。結果として、制御装置20は、種々の感情をユーザー5に生起させる環境を構築することができる。
 また、本実施形態に係る制御装置20は、所定の条件で選択した環境条件に基づいて環境生成装置10を制御するので、画一的でない環境を構築できる。特に、処理部23が、所定の条件で、同一クラスタ内に属する他の環境条件を選択するので、対象空間S内のユーザー5が所定の環境に馴化するのを回避できる。
 例えば、本実施形態に係る制御装置20を用いることで、「楽しい環境」のクラスタに、「高揚感が高い環境」を生成する環境条件1と、「幸福感が高い環境」を生成する環境条件2とが属している場合、制御装置20は、環境条件1及び環境条件2を適宜変更することで、単に楽しいだけでなく、高揚感が高くなったり、幸福感が高くなったりする環境を提供することができる。
 (1-4)変形例
 (1-4-1)変形例A
 上記説明では、入力部22がクラスタの特徴に対応する入力を受け付ける際に、任意の形式で表示されたリストを利用しているが、本実施形態に係る制御装置20はこれに限定されるものではない。例えば、入力部22は、クラスタの特徴に対応する入力を受け付ける際に、ユーザー5による文章の入力を受け付けるものでもよい。この場合、処理部23が、所定のアルゴリズムにより文章解析し、ユーザー5による文章の入力からクラスタの特徴を設定する。
 また、入力部22は、触感に関係する擬音語・擬態語を含む擬音語・擬態語等、人の感覚に結びついた表現による入力を受け付けてもよい。この場合、処理部23が、所定のアルゴリズムにより解析し、ユーザー5による擬音語・擬態語に対応する感覚の入力からクラスタの特徴を設定する。また、入力部22は、後述する触感選択装置80により触感(素材)に基づく入力を受け付けてもよい。
 (1-4-2)変形例B
 上記説明では、処理部23は、所定時間が経過するとランダムに環境条件を変更するとしたが、本実施形態に係る制御装置20はこれに限定されるものではない。本実施形態に係る制御装置20は、所定時間に代えて、所定の条件を満たさない場合に環境条件を変更するものでもよい。
 例えば、図5に示すように、任意の生体センサ、撮像装置、録音装置、接触装置、ロボットのいずれか又はそれらの任意の組み合わせ等から構成される環境認識装置70を対象空間Sに設置する。そして、図6に示すように、制御装置20のコンピュータが反応取得部26としてさらに機能し、この反応取得部26が、対象空間Sに存在するユーザー5の体調、表情、行動、言動等の情報を環境認識装置70から収集し、対象空間Sに存在するユーザー5の反応を示す反応情報を取得する。解析部28は、反応取得部26により取得された反応情報に基づき、ユーザーの表情分析等の解析を行う。そして、処理部23は、解析部28による解析結果に応じて環境条件を変更する。
 具体的には、クラスタの特徴が「楽しい環境」であるとする。また、解析部28により対象空間S内のユーザー5の表情解析が行なわれるとする。そして、解析部28による解析結果において笑顔の画像量が所定量を超えていた場合には、処理部23は、現在の環境条件で生成された環境が、その対象空間S内のユーザー5に期待した影響を与えていると判定し、現在の環境条件を維持するように制御する。このような構成により、対象空間Sに存在するユーザー5の反応に応じた環境を生成することが可能となる。
 なお、環境認識装置70は、対象空間Sに固定されている必要はなく、フィットネストラッカー等のユーザー5に装着される装置でもよい。
 (1-4-3)変形例C
 上記説明では、処理部23が、所定時間が経過するとランダムに次の環境条件に変更するとしたが、本実施形態に係る制御装置20はこれに限定されるものではない。例えば、制御装置20の処理部23が、所定時間が経過したときに優先度に基づいて次の環境条件に変更するものでもよい。なお、優先度は、図7に示すように、クラスタ毎に設定される。また、優先度は、随時ダウンロードして更新することも可能である。
 また、優先度はユーザー5の使用状況に応じて適宜学習されるものでもよい。さらに、優先度はユーザー5の個人情報に基づいて適宜学習されるものでもよい。
 (1-4-4)変形例D
 本実施形態に係る制御装置20は、処理部23が、上述した環境条件の優先度を決定する機能を有していてもよい。具体的には、制御装置20が、上述した反応取得部26をさらに備える。また、処理部23が、反応取得部26により取得される反応情報(対象空間Sに存在するユーザー5の反応を示す情報)に基づいて、各クラスタに属する環境条件の優先度を決定する機能をさらに有する。
 優先度の決定について、図8に示すフローチャートを用いて説明する。
 まず、制御装置20において、優先度決定モードが選択される(T1)。次に、クラスタの特徴に対応する入力が受け付けられる(T2)。ここでは、クラスタの特徴として「楽しい環境」が入力されるものとする。そして、環境生成装置10が、所定の環境条件Nで制御される(T3,T4,T5)。優先度設定モードの際には、反応取得部26により、対象空間S内のユーザー5の表情等が反応情報として取得される(T6)。そして、解析部28により反応情報の解析が行なわれる(T7)。ここでは、解析部28によりユーザー5の表情解析等が行なわれる。処理部23は、表情解析等の結果に基づき、所定の条件を満たすか否かを判定する(T8)。ここでは、処理部23は、表情解析等の結果、例えば笑顔の画像量が所定量を超えていた場合(T8-Yes)、現在の環境条件Nで生成された環境が、その対象空間S内のユーザー5に特定の影響を与えていると判定し、優先度の値が高くなるように更新する(T9)。一方、処理部23は、表情解析等の結果に基づき、笑顔の画像量が所定量を超えていない場合には(T8-No)、現在の環境条件Nで生成された環境が、その対象空間S内のユーザー5に特定の影響を与えていないと判定し、優先度の値を変更しない、又は低くなるように更新する(T10)。そして、優先度決定モードの状態のままで、所定時間が経過すると、環境生成装置10が、次の環境条件N+1で制御される(T11-No,T12-Yes,T13,T4)。この後、優先度決定モードが解除されるまで、環境条件の優先度が更新される。そして、優先度が、優先度決定モードの時間の長さに応じて収束していく。
 なお、優先度の決定又は更新は、リアルタイム処理でもよいし、反応取得部26により取得した反応情報を定期的に解析するバッチ処理でもよい。
 (1-4-5)変形例E
 上記説明では、処理部23が、所定時間が経過するとランダムに環境条件を変更するとしたが、本実施形態に係る制御装置20はこれに限定されるものではない。例えば、ユーザー5による入力部22の操作により、任意のタイミングで環境条件を変更するものでもよい。
 さらに、本実施形態に係る制御装置20は処理部23が、環境条件の選択回数に基づいて、クラスタに属する環境条件の優先度を決定するものでもよい。これにより、ユーザー5による制御装置20の使用時間に応じて、ユーザー5の志向に応じた環境条件を選択するように優先度が収束する。なお、優先度の決定又は更新はリアルタイム処理でもよいし、反応取得部26により取得した情報を定期的に解析するバッチ処理でもよい。
 (1-4-6)変形例F
 上述した記憶部21において、記憶されるクラスタの特徴及び環境条件は随時更新可能である。また、更新された情報に基づいて環境生成装置10を制御することができる。
 具体的には、記憶部21に記憶される情報は随時ダウンロードして更新することが可能である。例えば、「パーティの空気が流れる環境」等の特定の影響に対する環境条件の集合が新たに定義された場合、それらの情報を記憶部21にダウンロードして利用することが可能である。
 (1-4-7)変形例G
 上記説明では、環境生成装置10と制御装置20とは別部材の装置としていたが、これらは同一の装置に一体として組み込まれるものでもよい。
 (2)クラスタ分類装置
 上述した環境生成システム1に用いられる環境条件は、クラスタ分類装置を用いて分類することができる。以下、クラスタの特徴を事後的に設定する第1クラスタ分類装置50と、クラスタの特徴が事前に設定されている第2クラスタ分類装置60とを説明する。
 (2-1)第1クラスタ分類装置
 (2-1-1)第1クラスタ分類装置の構成
 まず、第1クラスタ分類装置50の説明をする。前提として、制御装置20Xにより環境生成装置10が制御されて、対象空間Sに所定の環境が生成されるものとする。なお、制御装置20Xは上述した制御装置20と同様の機能を有するが、入力部22Xが所定の環境条件を入力する機能をさらに有している。説明の便宜上、制御装置20Xのうち制御装置20と異なる構成には添え字Xをつける。
 図9は第1クラスタ分類装置50の構成を説明するための模式図である。第1クラスタ分類装置50は任意のコンピュータにより実現することができ、環境条件取得部51と、分類部52と、設定部53と、記憶部54とを備える。ここでは、コンピュータのCPU,GPU等に記憶装置(ROM,RAM等)に記憶されたプログラムが読み込まれることで、第1クラスタ分類装置50の各機能が実現される。ただし、これに限らず、第1クラスタ分類装置50は、LSI(Large Scale Integration),ASIC(Application Specific Integrated Circuit),FPGA(Field-Programmable Gate Array)等を用いてハードウェアとして実現されるものでもよい。
 なお、第1クラスタ分類装置50と制御装置20Xとは別個独立した装置ではなく、同一の装置に一体として組み込まれるものでもよい。
 環境条件取得部51は、対象空間Sに所定の環境を生成するための環境条件を取得する。ここでは、端末装置30の操作により、制御装置20Xの入力部22Xを介して環境条件が適宜入力され、環境生成装置10が制御される。したがって、環境条件取得部51は、制御装置20Xの入力部22Xにより入力される環境条件を取得する。
 分類部52は、環境条件取得部51により取得された環境条件を環境条件の特徴に基づいてクラスタリングして、複数のクラスタを生成する。クラスタは、環境条件の範囲又は複数の環境条件の集合を含む。クラスタリングについては、最適なクラスタリング手法(例えば、K-means法)を適宜採用できる。具体的には、分類部52は、環境条件の複数のパラメータ(ここではn個の物理量とする)のそれぞれに重み付けをし、重み付けされた各パラメータが生成するn次元空間上で、所定範囲内の距離にある環境条件を同一のクラスタとして設定する。例えば、説明の便宜上、環境条件のパラメータが2つであるとすると、図10に示すように、各環境条件1~9は2次元空間上にプロットされる。図10に示す例では、分類部52により、これらの環境条件1~9が複数のクラスタ1~3に属するように分類される。
 設定部53は、任意の端末装置30等を介して情報の入力を受け付け、受け付けた情報に基づいて、分類部52により分類されたクラスタの特徴を設定する。ここでは、クラスタの特徴を設定者が自由に定義することができる。例えば、クラスタ1,2,3が存在するときに、設定部53の機能により設定者が、クラスタ1の特徴は「楽しい環境」、クラスタ2の特徴は「集中できる環境」、クラスタ3の特徴は「開放感がある環境」といった具合に各クラスタの特徴を設定できる。また、滑らかな感じ(ツルツル)、ざらつく感じ(ザラザラ)、柔らかい感じ(フワフワ)等、触感に関係する擬音語・擬態語による表現によってクラスタの特徴を設定してもよい。ここでは、クラスタの特徴の設定を、言語ラベルをタグとして貼り付けることで行う。なお、各クラスタの特徴の設定において、タグを1つだけ貼り付けることでも問題ないが、1つのクラスタに複数のタグを貼り付けることも可能である。例えば、1つのクラスタの特徴が、「楽しい」というタグと「開放的」というタグとによって設定されていてもよい。
 記憶部54は、クラスタとクラスタの特徴と環境条件とを関連付けて記憶する。この記憶部54に記憶された情報を任意の記憶装置に書き込むことで、上述した環境生成システム1における制御装置20の記憶部21を構築することができる。
 第1クラスタ分類装置50はまた、後述するように、上記記憶装置の機能を含む環境条件記憶装置として機能してもよい。
 (2-1-2)第1クラスタ分類装置の動作
 図11は第1クラスタ分類装置50の動作を説明するためのフローチャートである。
 まず、環境生成装置10及び制御装置20Xが、所定期間、複数のユーザーに制約なく使用される。各ユーザーは、端末装置30を用いて自由に環境条件を変更し、環境生成装置10及び制御装置20Xを用いて対象空間Sの環境を変化させる(X1)。なお、後述する触感選択装置80又は触感選択装置80を応用した操作装置85を用いて触感を入力することにより、環境条件を自由に変更してもよい。
 次に、環境生成装置10及び制御装置20Xが使用された期間に用いられた環境条件の解析が行なわれる。具体的には、複数の環境条件が分類部52によりクラスタリングされ、一以上のクラスタが生成される(X2)。
 そして、設定者が端末装置30等を用いて、各クラスタの特徴を示す情報を入力する。各クラスタの特徴は設定者により定義される。これを受けて、設定部53が各クラスタの特徴を設定する(X3)。
 これにより、クラスタの特徴と環境条件とを関連付けたデータベースが構築されて記憶部54に記憶される(X4)。
 上述したように、第1クラスタ分類装置50は、環境条件取得部51と、分類部52と、設定部53と、記憶部54とを備える。環境条件取得部51は、対象空間Sに所定の環境を生成するための環境条件を取得する。分類部52は、環境条件を複数のクラスタに分類する。設定部53は、クラスタの特徴を設定する。記憶部54は、クラスタの特徴と環境条件とを関連付けて記憶する。要するに、第1クラスタ分類装置50では、環境条件を複数のクラスタに分類し、分類したクラスタの特徴の設定を受け付ける。そして、上記構成を具備しているので、第1クラスタ分類装置50では、設定者が、事後的にクラスタの特徴を設定できる。そして、これに基づいてクラスタの特徴と環境条件とを関連付けたデータベースを構築することができる。
 補足すると、第1クラスタ分類装置50では、環境条件を所定のクラスタに分類してモデル評価を行なうとともに、環境条件が新たなクラスタに分類されるようになったときにはモデル生成を行なう。言い換えると、いずれの既存のクラスタにも分類できない環境条件がユーザーによって生成された場合に、第1クラスタ分類装置50の分類部52は、新たなクラスタを追加する。
 (2-1-3)変形例
 上記ステップX3において、設定者がクラスタの特徴を定義するのに代えて、対象空間Sに存在するユーザー5の反応からクラスタの特徴を定義することもできる。具体的には、任意の生体センサ、撮像装置、録音装置、接触装置、ロボットのいずれか又はそれらの任意の組み合わせ等から構成される環境認識装置70を対象空間Sに設置する。そして、図12に示すように、第1クラスタ分類装置50のコンピュータが反応取得部55としてさらに機能し、この反応取得部55が、対象空間Sに存在するユーザー5の反応を示す反応情報を取得する。また、第1クラスタ分類装置50のコンピュータは解析部56としてもさらに機能し、この解析部56が反応取得部55により取得された反応情報からユーザー5の表情分析等を行なう。処理部の一部としても機能する設定部53は、解析部56による解析結果に基づき、例えば笑顔の画像量が所定量を超えていた場合、そのときの環境条件に対応するクラスタは「楽しい環境」であると特徴付ける。そして、設定部53は、クラスタの特徴と環境条件とを関連付けて記憶部54に記憶する。なお、環境認識装置70は、対象空間Sに固定されている必要はなく、フィットネストラッカー等のユーザー5に装着される装置でもよい。
 なお、制御装置20Xは、図6に示す制御装置20と同様に反応取得部26を設けてもよく、反応取得部26により取得された反応情報に基づいた解析結果に応じて環境条件を変更したり、環境条件の優先度を変更したりする。一方、上述した第1クラスタ分類装置50の反応取得部55から取得する反応情報の解析結果は、クラスタの特徴付けに用いられる。
 また、上記ステップX3において、設定者がクラスタの特徴を定義する際に、ユーザー5による文章の入力を受け付けるものでもよい。この場合、設定部53が、所定のアルゴリズムにより文章解析し、ユーザー5が受けた印象を文章から特定する。そして、設定部53は、この特定した印象をクラスタの特徴として設定する。
 また、上記ステップX3において、設定者がクラスタの特徴を定義する際に、対象空間Sの属性を反映させて、クラスタの特徴を定義することもできる。例えば、対象空間Sの用途が、会議室、レストラン、ホスピス等と予め認識できる場合、これらの用途の情報がクラスタの特徴に反映される。要するに、クラスタの特徴として「楽しい会議室の環境」等と設定することができる。また、滑らかな感じ(ツルツル)、ざらつく感じ(ザラザラ)、柔らかい感じ(フワフワ)等、触感に関係する擬音語・擬態語による表現によってクラスタの特徴を設定してもよい。また設定者がクラスタの特徴を定義する際に、後述する触感選択装置80を応用した環境認識装置70を用いて触感を入力し、入力された触感を言語ラベルに変換してクラスタの特徴を設定してもよい。
 (2-2)第2クラスタ分類装置
 (2-2-1)第2クラスタ分類装置の動作
 次に、第2クラスタ分類装置60の説明をする。前提として、制御装置20Yにより環境生成装置10が制御されて、対象空間Sに所定の環境が生成されるものとする。なお、制御装置20Yは上述した制御装置20と同様の機能を有するが、入力部22Yが所定の環境条件を入力可能である点で相違する。説明の便宜上、制御装置20Yのうち制御装置20と異なる構成には添え字Yをつける。
 図13は第2クラスタ分類装置60の構成を説明するための模式図である。第2クラスタ分類装置60は任意のコンピュータにより実現することができ、環境条件取得部61と、分類部62と、記憶部64とを備える。ここでは、コンピュータのCPU,GPU等に記憶装置(ROM,RAM等)に記憶されたプログラムが読み込まれることで、上記各機能が実現される。ただし、これに限らず、第2クラスタ分類装置60は、LSI(Large Scale Integration),ASIC(Application Specific Integrated Circuit),FPGA(Field-Programmable Gate Array)等を用いてハードウェアとして実現されるものでもよい。
 なお、第2クラスタ分類装置60と制御装置20Yとは別個独立した装置ではなく、同一の装置に一体として組み込まれるものでもよい。
 環境条件取得部61は、予め概念が定義された定義済み環境を対象空間Sに生成するための環境条件を取得する。「定義済み環境」としては、「楽しい環境」「集中できる環境」「開放感のある環境」や、滑らかな感じ(ツルツル)、ざらつく感じ(ザラザラ)、柔らかい感じ(フワフワ)等触感に関係する擬音語・擬態語等が挙げられる。「定義済み環境」は、触感により定義されていてもよい。この場合、物理的に感じることができる「滑らかな面をもつ部材」や「ざらついた面をもつ部材」がユーザーに対して定義済み環境の概念として提示される。
 環境条件取得部61は、上述した制御装置20の入力部22Yから環境条件を取得する。ここでは、ユーザーに対して定義済み環境の概念が提示されて、さらにユーザーに対してその定義済み環境を実現するような環境条件を入力するように指示される。この指示を受けて、ユーザーは、端末装置30を操作し、入力部22Yを介して環境条件を入力して環境生成装置10を制御し、対象空間Sに定義済み環境を生成することを試みる。この際、環境条件取得部61は、上述した端末装置30の操作により入力された環境条件を適宜取得する。
 分類部62は、定義済み環境の概念に対応させて環境条件を所定のクラスタに分類する。例えば、複数のユーザーに対して定義済み環境として「楽しい環境」を生成するように指示が与えられたときの、各ユーザーが入力部22Yを介して入力した、環境条件の集合又は環境条件を含む領域を同一のクラスタとして分類する。なお、分類部62は、所定のアルゴリズムに従って異常値を排除する。
 記憶部64は、定義済み環境の概念と環境条件とを関連付けて記憶する。ここでは、定義済み環境の概念がクラスタの特徴として扱われる。したがって、記憶部64は、クラスタの特徴と環境条件とを関連付けて記憶する。この記憶部64に記憶された情報を任意の記憶装置に書き込むことで、上述した環境生成システム1における制御装置20の記憶部21を構築することができる。
 第2クラスタ分類装置60はまた、後述するように、上記記憶装置の機能を含む環境条件記憶装置として機能してもよい。
 (2-2-2)第2クラスタ分類装置の動作
 図14は第2クラスタ分類装置60の動作を説明するためのフローチャートである。
 まず、複数のユーザーに、定義済み環境の概念が提示され(Y1)、その環境を実現するような環境条件の入力が指示される。その後、環境生成装置10及び制御装置20Yが、所定期間、各ユーザーに使用される。ここでは、各ユーザーは、制御装置20Yを介して、定義済み環境の概念に一致するように端末装置30を用いて環境条件を変更し、環境生成装置10を用いて対象空間Sに定義済み環境を生成することを試みる(Y2)。
 次に、環境生成装置10が使用された期間に用いられた環境条件の解析が行なわれる。具体的には、分類部62が、所定のアルゴリズムに従って異常値を排除し、複数のユーザーによって設定された複数の環境条件を、定義済み環境の概念毎にクラスタリングする(Y3)。
 そして、分類部62が、定義済み環境をクラスタの特徴とみなして、クラスタの特徴と環境条件とを関連付ける。これにより、クラスタの特徴と環境条件とを関連付けたデータベースが構築され、記憶部64に記憶される(Y4)。
 上述したように、第2クラスタ分類装置60は、環境条件取得部61と、分類部62と、記憶部64と、を備える。環境条件取得部61は、予め概念が定義された定義済み環境を対象空間Sに生成するための環境条件を取得する。分類部62は、定義済み環境の概念に応じて環境条件を所定のクラスタに分類する。記憶部64は、定義済み環境の概念と環境条件とを関連付けて記憶する。要するに、第2クラスタ分類装置60では、定義済み環境に関連付けて環境条件がクラスタリングされる。そして、上記構成を具備しているので、第2クラスタ分類装置60では、事前にクラスタの特徴が定義付けられた状況で、複数の環境条件を収集してクラスタリングできる。そして、これに基づいてクラスタの特徴と環境条件とを関連付けたデータベースを構築することができる。
 (2-2-3)変形例
 上記ステップY3において、第1クラスタ分類装置50を組み合わせることで、定義済み環境に更に所定の次元の特徴を加えた定義を設定することができる。具体的には、第2クラスタ分類装置60の分類部62がクラスタリングした定義済み環境の概念に属する複数の環境条件を、第1クラスタ分類装置50の分類部52が新しい複数のクラスタに分類する。そして、第1クラスタ分類装置50の設定部53がそれらのクラスタに対して新たなクラスタの特徴を設定する。これにより、例えば、定義済み環境が「楽しい環境」であり、この「楽しい環境」に分類された複数の環境条件を、「高揚感の高い環境」「幸福感の高い環境」等の新しいクラスタに分類することができる。
 換言すると、第2クラスタ分類装置60に第1クラスタ分類装置50を組み合わせることで、曖昧に定義された環境(「楽しい環境」等)を提示した上で、より細かく定義された環境(「高揚感の高い環境」「幸福感の高い環境」等)に対応する環境情報を収集できる。そして、これに基づいてクラスタの特徴と環境条件とを関連付けたデータベースを構築することができる。
 また、上記ステップY3において、定義済み環境の概念だけでなく、対象空間Sに存在するユーザー5の反応を反映させてクラスタの特徴を定義することもできる。具体的には、任意の生体センサ、撮像装置、録音装置、接触装置、ロボットのいずれか又はそれらの任意の組み合わせ等から構成される環境認識装置70を対象空間Sに設置する。そして、図15に示すように、第2クラスタ分類装置60のコンピュータが反応取得部65としてさらに機能し、この反応取得部65が、対象空間Sに存在するユーザー5の反応を示す反応情報を取得する。また、第2クラスタ分類装置60のコンピュータは解析部66としてさらに機能し、この解析部66が反応取得部65により取得された反応情報からユーザー5の表情分析等を行なう。処理部68は、解析部66による解析結果に基づき、定義済み環境の概念が「楽しい環境」であり、笑顔の画像量が所定量を超えていた場合、そのときの環境条件に対応するクラスタは、「楽しい環境」を細分類化した「幸福感の高い環境」であると特徴付ける。そして、処理部68は、クラスタの特徴と環境条件とを関連付けて記憶部64に記憶する。なお、環境認識装置70は、対象空間Sに固定されている必要はなく、フィットネストラッカー等のユーザー5に装着される装置でもよい。
 なお、制御装置20Yは、図6に示す制御装置20と同様に反応取得部26を設けてもよく、反応取得部26により取得された反応情報に基づいた解析結果に応じて環境条件を変更したり、環境条件の優先度を変更したりする。一方、上述した第2クラスタ分類装置60の反応取得部65から取得する反応情報の解析結果は、クラスタの特徴付け(再分類化等)に用いられる。
 (3)触感選択装置
 (3-1)構成
 環境認識装置70、操作装置85又は環境条件記憶装置50、60の一部又は全部として、以下の触感選択装置80を用いることができる。
 触感選択装置80は、図16に示すように、提供部81と、認識部82とを備える。提供部81は、複数の接触部81a,81b,81c,81d,81e,81f・・・を備える。具体的には、触感選択装置80は、図17に示すように、直方体形状のケーシング80cを有し、各面に複数の接触部81a,81b,81c,81d,81e,81f・・・を有する。なお、図17は触感選択装置80の外観の一例を説明するための模式図である。
 提供部81は、ユーザー5が接触したときに異なる触感を個別に提供する。異なる触感の例としては、滑らかな感じ(ツルツル感)、ざらつく感じ(ザラザラ感)、柔らかい感じ(フワフワ感)等が挙げられる。これらの触感は、例えば、ヘビの皮、畳、羽毛等を配置することで実現できる。要するに、提供部81のうち少なくとも2つの接触部は、異なる材料から構成される。
 図17に示す例では、第1面F1,第2面F2,第3面F3のそれぞれに、2つの異なる触感を生じさせる接触部81a,81b,81c,81d,81e,81fが設けられている。ここでは、所定の感覚に対する評価軸が面毎に決められており、同一面に配置された2つの接触部で強弱が異なるものとなっている。例えば、第1面F1では、ざらつく感じが実現されており、右側の接触部81aはざらつく感じが強いものであり、左側の接触部81bはざらつく感じが弱いものとなっている。また、第2面F2では、滑らかな感じが実現されており、右側の接触部81cは滑らかな感じが強いものであり、左側の接触部81dは滑らかな感じが弱いものとなっている。また、第3面F3では、柔らかい感じが実現されており、手前側の接触部81eは柔らかい感じが強いものであり、奥側の接触部81fは柔らかい感じが弱いものとなっている。
 図18に示すように、触感選択装置80は、上述した提供部81と認識部82とを備える。認識部82は任意のプロセッサ及びメモリにより構成される。
 認識部82は、ユーザー5が選択した触感を認識する。認識部82は、ユーザー5が接触した接触部に基づいて、ユーザー5の触感を認識する。これにより、ユーザー5が存在する対象空間Sの環境の状態に相当する触感を認識することが可能となる。補足すると、個人の感覚を表現する際に、言語で表現することに比して、触感の選択で表現した方が、個人が内的に有している感覚志向性(感覚に対する志向の個人差)を正確に反映することがある。例えば、ユーザー5が周囲の環境から「暖かい」感情が喚起されたとしても、その「暖かい」感情が、毛布を触った時に感じる「暖かい」感情に類似しているのか、湯水に触れた時に感じる「暖かい」感情に類似しているのかまでは本人でさえ自覚できないことがあり、言葉では「暖かい」としか表現できないことがある。このような場合、複数の触感の選択を通じて「暖かい」感情を表現した方が、本人の感情を正確に表現できることがある。
 言語で表現することに比して、触感の選択で表現した方が、個人が内的に有している感覚志向性を環境生成に反映し得ることを、以下の実験を実施することにより具体的に検証した。
 (3-2)触感の選択に基づく環境生成評価実験
 環境を生成するシステムにおいて、ユーザーが環境を選択する際に、言語(感情語:例えば、「リラックス」)よりも触感(例えば、「モコモコ」した素材を触る)の方が、言語で表現しにくいような自身の状態を反映できるため、ユーザーが望んだ環境を実現することができるという仮説を立てた。本仮説を検証するために、入力される言語と環境との対応付けを行うための選択装置(以下,言語選択装置)と、触感と環境との対応付けを行うための選択装置(以下、触感選択装置)とを使用して、評価実験を行った。
 (3-2-1)実験の方法
 参加者は、17名の学生男女(男性10名、女性7名)であった。実験は、部屋の4面の壁に映像が投影可能な実験室で行った。参加者は、言語選択装置を用いる条件と触感選択装置を用いる条件の両条件に参加した。言語選択装置及び触感選択装置を用いる順番は、参加者間でカウンターバランスをとった。参加者には「ボタン(感情語又は触感)を押すことで空間(部屋)の映像を変えることが出来ます。ボタンを押す度に映像が変わります。映像は、押したボタン(感情語又は触感)(例えば、「リラックス」(感情語)又はモコモコした触感)に従ったものが投影されます。選択装置を操作して、あなたが満足する空間(部屋)になったら、決定ボタンを押してから退出してください」と教示した。参加者は、両条件ともに自分が満足する空間(部屋)になった時点で、ボタン(感情語又は触感)を押すのを止め、実験室から退出した。
 言語選択装置は、「緊張」、「リラックス」、「明るい」といった感情語が表示されたボタンが付いたものを用いた。
 触感選択装置は、ユーザーが複数の触感を感じる素材が、ボタンとして付いたものを用いた。素材は、低反発ウレタン(モコモコした触感を提供)、紙(サラサラした触感を提供)、砂利(ゴツゴツした触感を提供)を用いた。なお、触感選択装置としてこの3つの素材を選んだ理由については、後述する。
 参加者に提示した映像は、統計的な生成モデルを用いて生成されたものであった。事前調査により、参加者が選択した感情語(例えば、リラックス)・触感と、空間(部屋)に提示される映像の印象(例えば、「リラックスを感じる」)との間には、対応関係があることが確認された所定の映像を用いた。なお、同じ言語選択装置又は同じ触感選択装置の操作に対しても、参加者が選択した触感、もしくは感情語に対応した生成モデルに基づき毎回異なる映像を生成・提示した。
 なお、実験において生成・提示される映像は、クラスタリング等の手法により感情語及び触感に関連付けられたものが使用される。この関連付けの検証については後述する。
 (3-2-2)評価指標
 参加者には、言語選択装置を使用した直後及び触感選択装置を使用した直後に、「どのような空間にしたかったのか」といった制御目標について尋ねた。制御目標には、リラックスできる部屋、哀愁漂う部屋、気持ちが明るくなる部屋、緊張感がある部屋、興奮する部屋、畏敬の念を感じる部屋、その他(自由記述,例えば「無機質な部屋」)の複数の項目を設定し、参加者にはその中から1つ回答を選択させた。
 参加者には、言語選択装置及び触感選択装置を使用した後に、どちらの選択装置が「部屋を望んだ雰囲気にできたか」、「操作が楽しかったか」について、言語選択装置及び触感選択装置のいずれかを選択させた。さらに参加者には、それぞれの選択装置を使用した感想について自由記述で回答してもらった。
 (3-2-3)実験結果
 図21及び図22は、触感に基づく環境生成の効果を検証する実験結果のグラフである。図21は、「どのような空間にしたかったのか」といった制御目標に対する参加者の回答結果を示す。図21に示す結果から、言語選択装置よりも、触感選択装置を用いた方が、参加者の制御目標が多様になることが分かった。
 図22は、どちらの選択装置が「部屋を望んだ雰囲気にできたか」、「操作が楽しかったか」についての参加者の回答を示すグラフである。図22に示すように、言語選択装置よりも、触感選択装置を用いた方が、参加者は空間(部屋)を望んだ雰囲気にできており(p<.05)、かつ選択装置の操作が楽しいことが示された(p<.01)。また、それぞれの選択装置を使用した参加者の感想として、「触感選択装置は、雰囲気のイメージがしやすかった。言語選択装置では色や動きと自分の言語に対するイメージが合わないものあった」、「触感選択装置の方が、言語に引きずられずに気分に合わせて選べた」、「言語選択装置の方は少し感情と異なる空間があったように思えた。触感選択装置の方は部屋の空間と合っていると感じた」、「言語選択装置は自分がイメージした感情の部屋に近づけるのが難しい印象を受けた」等があった。以上のデータから、言語選択装置を用いたときよりも、触感選択装置を用いたときの方が、参加者が望んだイメージに近い空間(部屋)が実現できることが示された。
 以上の検証に基づき、環境に対して感じている個人の感覚を表現する際に、言語で表現することに比して、触感の選択で表現した方が、ユーザーが内的に有している感覚志向性をより正確に反映することが示された。
 (3-2-4)実験で用いた触感選択装置及び言語選択装置の説明
 触感選択装置及び言語選択装置を作成する前に予め、事前準備を行った。事前準備では、参加者に対して6種類の触感素材をテーマに、それに対応する映像を作成させた。その後、複数人から映像を収集し、それらの映像の特徴量を元にクラスタ分類し、映像を生成することで6種類の触感素材を空間に実現する映像を準備した(この映像を触感クラスタ映像という)。
 事前準備で作成した6種類の触感クラスタ映像を用いて、触感選択装置及び言語選択装置を作成するための実験を行った。この実験には事前準備とは異なる参加者が参画した。まず、10秒間部屋4面に、6種類の触感クラスタ映像のいずれかが提示され、参加者はそれを見るよう教示された。10秒後、参加者は目の前にある6種類の触感(「モフモフ」、「モコモコ」、「ゴツゴツ」、「ザラザラ」、「サラサラ」、「スルスル」の触感を提供する素材)から、「この空間(部屋)を表すのにふさわしい触感を1つ選ぶ」ように教示され、参加者は、映像が投影された空間にふさわしい触感を1つ選んだ。触感を提供する際には、触感素材が参加者に見えないようボックスに入れた状態で参加者に提供された。
 その後、参加者は「この空間(部屋)を表すのにふさわしい言葉を1つ選ぶ」ように教示された。参加者は、「興奮」、「明るい」、「リラックス」、「悲しみ」、「緊急」、「畏敬」の言語(感情語)から、最もふさわしいものを選択した。
 図23及び図24は、6種類の触感クラスタ映像に対するユーザーの評価結果を表すマトリックスを示す。
 図23は、参加者に提示された6種類の触感クラスタ映像(図23では縦軸に対応)と、参加者が、その空間(部屋)にふさわしいと評価した触感(図23では横軸に対応)との相関を示すマトリクスを示す。色が濃いほど(数値が大きいほど)、参加者に提示された触感クラスタ映像と、参加者がふさわしいと評価した触感との関連が強い(相関が高い)ことを示す。
 図24は、参加者に提示された6種類の触感クラスタ映像(図24では縦軸に対応)と、参加者がその空間(部屋)にふさわしいと評価した感情語(図24では横軸に対応)との相関を示すマトリクスを示す。色が濃いほど(数値が大きいほど)、参加者に提示された触感クラスタ映像と、参加者がふさわしいと評価した感情語との関連が強い(相関が高い)ことを示す。
 よって、触感クラスタ映像に対して相関が高い触感(触感素材)及び感情語を紐づけることで、触感選択装置及び言語選択装置を準備した。
 例えば、触感クラスタ映像のうち「GotsuGotsu」には触感素材のうち「ゴツゴツ」との相関が高いので、触感選択装置の場合には「ゴツゴツ」に対応する素材を選択すると触感クラスタ映像「GotsuGotsu」が空間に再現されるようにした。
 例えば、触感クラスタ映像のうち「GotsuGotsu」には感情語のうち「緊張」との相関が高いので、言語選択装置の場合には「緊張」という感情語を選択すると触感クラスタ映像「GotsuGotsu」が空間に再現されるようにした。
 (3-3)動作
 ユーザー5が、触感選択装置80の接触部81a,81b,81c,81d,81e,81f・・・のいずれかに接触すると、認識部82は、当該接触を検知し、選択された触感を認識する。本実施形態に係る認識部82では、例えば、対象空間S内のユーザー5による接触部の接触回数及び/又は接触時間等に基づいて、ユーザー5がどの接触部81a,81b,81c,81d,81e,81f・・・に対して、どのように接触したかを解析することで、対象空間Sの環境の状態に相当する触感を認識することにより、触感を示す情報(触感情報)を取得する。
 (3-4)応用
 認識部82による触感の解析結果を利用して、図18に示す操作装置85を構築することができる。操作装置85は、触感選択装置80に加えて、任意のプロセッサ及びメモリにより構成される処理部83と、任意の通信インターフェースである通信部84とを備える。ユーザー5による複数の接触部81の接触具合及びその他の情報に応じて決定された触感情報は、任意の通信部84を介して他の装置に送信される。操作装置85と操作装置85に接続可能な他の装置は、環境生成システム1の一部として動作する。
 操作装置85に接続可能な他の装置は、例えば、環境生成装置10(図1、図5)であり、操作装置85は、環境生成装置10の操作装置として機能してもよい。この場合、操作装置85の処理部83は、認識部82により認識された触感に応じた環境条件を決定する。具体的には、処理部83は、予め記憶された触感情報と関連付けられた環境条件(例えば、後述する環境条件記憶装置と同様に記憶された情報)に基づき、認識部82により認識された触感に応じた環境条件を決定するようにしてもよい。決定された環境条件は、通信部84を介して環境生成装置10に送信され、環境生成装置10を制御する。これにより、入力された触感に基づき対象空間Sに所定の環境が生成される。
 なお、上記処理部83の機能は、環境生成装置10が備えていてもよい。この場合、操作装置85は環境生成装置10に触感情報を送信し、環境生成装置10により触感に応じた環境条件を決定する。
 操作装置85に接続可能な他の装置は、制御装置20,20X,20Y(図6、図9、図12、図13、図15)であり、操作装置85は、制御装置20,20X,20Yに触感情報を送信してもよい。
 触感選択装置80は、環境認識装置の一部又は全部として機能してもよい。認識部82により認識される触感の解析結果と環境条件とを関連付けることで、ユーザーが選択した触感に基づいて、対象空間Sの環境の状態を決定することが可能となる。この場合、触感選択装置80は、任意のプロセッサ及びメモリにより構成される処理部83(図18)を含む。処理部83は、認識部82により認識された触感に関連付けられた環境条件を決定する。これにより、ユーザーにより入力された触感に応じた対象空間Sの環境の状態を決定することができる。決定された環境条件は、例えば、任意の通信インターフェースを介して第1クラスタ分類装置50(図9、図12)及び第2クラスタ分類装置60(図13、図15)に反応情報として出力される。
 触感選択装置80のうち認識部82は、上述した第1クラスタ分類装置50や第2クラスタ分類装置60の記憶部54,64の機能と組み合わせて、環境条件記憶装置として動作してもよい。
 具体的には、環境条件記憶装置は、例えば、温度、湿度、風、画像、映像、音響の少なくとも一つを含む環境条件を取得する環境条件取得部51又は61と、触感を示す情報である触感情報を取得する触感情報取得部(認識部82)と、触感情報と環境条件とを関連付けて記憶する記憶部54又は64とを備える。環境条件記憶装置はさらに、複数の触感を提供する提供部81をさらに備えてもよい。
 環境条件記憶装置に記憶される環境条件は、上述した例と同様に、例えば触感情報に基づき特徴付けられた一つ又は複数のクラスタに属する。クラスタは、触感情報に対応する複数の環境条件を、例えば複数のユーザーに作成させる等して収集し、クラスタリングすることにより生成される。クラスタリングにより、触感情報と環境条件とを関連付けた情報が生成される。これらの情報は、データベースとして記憶装置に蓄積される。ユーザーが所定の触感を選択したとき、当該データベースが参照され、選択された触感に対応するクラスタに含まれる環境条件の1つが、制御目標として選ばれる。触感情報と環境条件を対応させるために、データベース上の触感情報に対応するラベルを決めておく。例えば、モコモコとした触感の場合には、「モコモコ」や「柔らかい感じ」という言語ラベルであってもいいし、数字や記号等他のクラスタとの区別がつくような任意のラベルであってもよい。上述した例のように、クラスタの中の環境条件の選び方はランダムに指定されてもよいし、所定の優先度に応じて選択又は変更されてもよい。
 (3-5)特徴
 触感選択装置80によれば、ユーザーが接触した接触部に基づいて触感を認識し、認識した触感に基づき環境を生成することができる。さらに、このような触感選択装置80を、環境認識装置70、操作装置85又は環境条件記憶装置の一部又は全部として用いることで、触感の違いに基づいて対象空間Sの環境の状態を認識できる。また、触感選択装置80は、接触部を異なる材料から構成することで、材料による触感の違いに基づいて対象空間Sの環境の状態を認識することができる。
 (3-6)その他触感情報と環境条件の関連付け
 上述した例において、クラスタリングを用いて触感情報と環境条件とを関連付けているがこれに限定されない。例えば、次のような方法を用いてもよい。
 例えば、触感情報に対応する複数の環境条件を、ユーザーが決める等して予め設定し、データベースとして記憶装置に記憶しておく。ユーザーが所定の触感を選択した場合、データベースを参照し、その所定の触感に対応する複数の環境条件の平均値を制御目標とする。この場合、平均値に代えて、統計的に最も多く存在する環境条件を制御目標としてもよい。
 或いは、記憶装置は、予め設定された、触感情報に対応する複数の環境条件を含むテーブルを保持してもよい。ユーザーが所定の触感を選択した場合、テーブルを参照し、その所定の触感に関連付けられた環境条件の1つが制御目標として選択される。
 触感情報と環境条件とは1対1で関連付けられていてもよい。
 (3-7)接触部の変形例
 触感選択装置80の接触部81は、次の構成により実現されてもよい。
 例えば、少なくともの2つの接触部の接触面に異なる振動を生じさせることで、振動による触感の違いに基づいてユーザーに触感を選択させる。例えば、電圧を力に変換する圧電素子を有する接触部であれば、接触面に振動を生じさせることができる。これにより、対象空間Sの環境の状態の認識或いは環境の生成を行うことができる。
 少なくともの2つの接触部の接触面に異なる温度及び/又は湿度を生じさせることで、温度及び/又は湿度による触感の違いに基づいてユーザーに触感を選択させる。例えば、ペルチェ素子を有する接触部であれば、接触面の温度を変えることができる。これにより、対象空間Sの環境の状態の認識或いは環境の生成を行うことができる。
 少なくともの2つの接触部の接触面に、異なる電圧及び/又は電流を生じさせることで、電圧及び/又は電流による触感の違いに基づいてユーザーに触感を選択させる。例えば、電圧を印加させる電極を有する接触部を採用することができる。これにより、対象空間Sの環境の状態の認識或いは環境の生成を行うことができる。
 少なくともの2つの接触部の接触面に異なる磁力を生じさせることで、磁力による触感の違いに基づいてユーザーに触感を選択させる。例えば、少なくとも2つの接触部は、部材に入っている磁粉が動くこと等で異なる磁力を接触面に生じさせるものでもよい。或いは、外部磁場に応じて剛性が変化する磁性エラストマや磁場生成装置を有する接触部を採用することができる。なお、接触部81は、上述した構成の任意の組み合わせを有するものでもよい。これにより、対象空間Sの環境の状態の認識或いは環境の生成を行うことができる。
 また、上記例に係る接触部は一つであってもよい。例えば、単一の接触部の接触面において、温度/及び又は湿度、電圧及び/又は電流、又は磁力を変更することによって、ユーザーが自身の感覚に近い触感を選択できるようにしてもよい。
 (4)入力補助装置(環境生成装置の制御)
 “今はこのような環境を受け取りたい気分である”ということを、ユーザーが自ら環境を創り出すことで表現していくような手段があれば、ユーザーの感覚により近い環境を生成することが可能である。このため、ユーザーが作成した環境を常にネットワークで共有されたデータベースに貯蓄し、新しい生成モデルの獲得に利用していくデザインが必要になる。しかし、専門性の低い一般ユーザーに複雑な環境を一から作成することを要求するシステムは現実的ではない。そこで、共通の環境のプロトコルを設定した上で、環境を作成する手段として、次のような手段が考えられる。例えば、非常に緻密に環境を作成することが可能な本格的なコンピュータ上におけるビルダーアプリケーション、それを子供や高齢者でも操作可能にタッチパネル上でGUIに簡略化したもの、さらに直感的に触ることで無意識的に環境を生成可能な触感選択装置、等幅広い種類が考えられる。これらの環境を生成する手段を用意することで、ユーザーが創造活動に参入する障壁を極限まで下げることができる。そして、多様なユーザーがネットワークを介して生成モデル群を共有したエコシステムを構築することで、持続的に生成モデルを増やしていくことを試みる。理想的には、ユーザーが自ら創作活動を行っている自覚が無い状態で、実はユーザーにより新しい環境がエコシステムの中で生み出され、それをデータベースに機械的に吸い上げ貯蔵されていくような形が望ましい。このように、見知らぬ他人が作成した新しいタイプの環境に接することで、ユーザーの中に潜在的にある創造性が活性化される。そこにまた新しい創造の種が生まれるというセレンディピティの連鎖が生じていく開放性が高いエコシステムを構築することができれば、持続的に新しい生成モデルを獲得し続けることが可能になる。
 上記を踏まえ、上述した端末装置30において制御装置20X,20Yに環境条件を入力する際に、直感的操作が可能なインターフェースを有する入力補助装置の例について説明する。なお、入力補助装置は、端末装置30にプログラムがインストールされることにより実現されるものでもよい。直感的な操作が可能なインターフェースの例を以下に示す。
 (4-1)第1の例
 第1の例として、入力補助装置は、環境生成装置10を構成するプロジェクターを介して、対象空間Sの壁面に所定の表示物を動かすための環境条件を決定できるように構成されている。例えば、ユーザー5による端末装置30の操作により、環境生成装置10が、対象空間Sの壁面に表示物Rを表示する(図1,5参照)。ここで、端末装置30には、入力補助装置の機能がインストールされており、表示物Rの点の数・動く方向・動く速さ・大きさ・色彩・形状・点の配置・周期運動等を調整するための調整情報を受け付けるように構成されている。したがって、ユーザー5は、端末装置(入力補助装置)30に上記調整情報を入力することで、対象空間Sの壁面に表示される表示物Rの表示態様を変更することができる。
 なお、表示物Rは下方向に比して、上方向に動くほど、ポジティブな印象を人に与えると考えられている。また、表示物Rは左方向に比して右方向に動くほど、ポジティブな印象を人に与えると考えられている。
 端末装置30は、触感選択装置80を含んでいてもよい。この場合、上述したように、ユーザー5による触感選択装置80の複数の接触部81の接触具合に応じて、環境条件のパラメータを変更することができる。接触具合は、例えば、ユーザー5が接触部81のどの面に触ったのか、面を触ったときの触り方の強弱、触った面の方向、触った頻度等を含む。これらの接触具合に基づき、環境条件のパラメータを変更して、表示物Rの点の数・動く方向・大きさ・色彩・形状・点の配置・周期運動等を変更することができる。
 (4-2)第2の例
 (4-2-1)画面インターフェース
 第2の例として、入力補助装置は、画面上で、所定の表示物を動かすことが可能になっており、この表示物の動きに対応して環境条件を決定できるように構成されている。また、決定した環境条件で環境生成装置10を制御できるように構成されている。
 例えば、入力補助装置は、図19に示すような構成のインターフェースを採用する。ここでは、入力補助装置の画面の右側の領域G1に、丸い表示物Z1が表示される。そして、このインターフェースでは、ユーザー5が、図19に示す画面の左側の領域G2の中にマウスやタッチスクリーン等で曲線Z2を描画すると、この曲線Z2に対応して、右側の領域G1に表示される丸い表示物Z1が一自由度で上下に所定時間動くようになっている。なお、図19に示す左側の領域G2は縦軸が上下運動を示し、横軸が時間を示している。また、下部のスクロールバーG3の長さを変更することで、丸い表示物Z1の動く時間を随時変更できる。このようなインターフェースであれば、誰でも直感的に様々な動きを創造することが可能となる。結果として、このようなインターフェースを用いた入力補助装置を用いることで、集団で共有されている感覚を反映した環境条件の抽出・生成が可能になる。
 (4-2-2)実験例
 入力補助装置による環境条件の分類について実験例を用いて補足する。
 本実験では、成人参加者53名それぞれに、「P1:幸せそうな生き物の動き」「P2:悲しそうな生き物の動き」「P3:リラックスした生き物の動き」「P4:緊張している生き物の動き」「P5:非生物的な動き」の5つの動きを、先入観を与えないようにして、自由な発想で入力補助装置を用いて曲線で表現するように、曲線の作成を指示した。
 そして、各参加者が5つの動きをイメージして作成した曲線を波形とみなしてそれぞれ個別にフーリエ変換を実行した。それぞれの動きの種類ごとに53人の参加者のパワースペクトラムの平均を求めると、図20に示すような結果が得られた。この結果から把握されるように、各人が全く自由に先入観無く、所定のイメージに対応させて動きのデザインを行ったのにもかかわらず、動きの種類ごとに参加者間で共通する特徴がパワースペクトラム上に観測された。これは直感的なデザインを多くの参加者が行う中で、個人間で共有されている感覚志向性が抽出できていることを示唆している。
 したがって、上述したような直感的なインターフェースを用いた入力補助装置を利用することで、個人間で共有されている感覚志向性が反映された環境を生成するための環境条件のクラスタの設定が容易になる。
 <他の実施形態>
 以上、実施形態を説明したが、特許請求の範囲の趣旨及び範囲から逸脱することなく、形態や詳細の多様な変更が可能なことが理解されるであろう。
 本開示は、上記各実施形態そのままに限定されるものではない。本開示は、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、本開示は、上記各実施形態に開示されている複数の構成要素の適宜な組み合わせにより種々の開示を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素は削除してもよい。さらに、異なる実施形態に構成要素を適宜組み合わせてもよい。
1…環境生成システム、5…ユーザー、10…環境生成装置、20,20X,20Y…制御装置、21… 記憶部、22,22X,22Y…入力部、23…処理部、24…制御部、25…出力部、26…反応取得部、28…解析部、30…端末装置、50…第1クラスタ分類装置、51…環境条件取得部、52…分類部、53…設定部、54…記憶部、55…反応取得部、56…解析部、60…第2クラスタ分類装置、61…環境条件取得部、62…分類部、64…記憶部、65…反応取得部、66…解析部、68…処理部、70…環境認識装置、80…触感選択装置、80c ケーシング、81…提供部、81a,81b,81c,81d,81e,81f…接触部、82…認識部(触感情報取得部)、83…処理部、84…通信部、85…操作装置
特開2003-299013号公報

Claims (17)

  1.  環境条件を記憶する環境条件記憶装置であって、
     温度、湿度、風、画像、映像、音響の少なくとも一つを含む環境条件を取得する環境条件取得部(51、61)と、
     触感を示す情報である触感情報を取得する触感情報取得部(82)と、
     前記環境条件と前記触感情報とを関連付けて記憶する記憶部(21,54,64)と、
    を備える環境条件記憶装置(50,60)。
  2.  複数の触感を提供する提供部(81)をさらに備え、
     前記触感情報取得部(82)は、前記複数の触感のうちユーザーにより選択された触感を認識することで前記選択された触感を示す情報である前記触感情報を取得する、
    請求項1に記載の環境条件記憶装置(50,60)。
  3.  さらに、
     前記触感情報取得部(82)は、前記提供部(81)により提供される触感の接触回数及び前記提供部(81)により提供される触感の接触時間の少なくとも一方に基づいて、前記ユーザーにより選択された触感を認識する、
    請求項2に記載の環境条件記憶装置(50,60)。
  4.  環境条件を記憶する環境条件記憶方法であって、
     温度、湿度、風、画像、映像、音響の少なくとも一つを含む環境条件と、触感を示す情報である触感情報とを取得する第1工程と、
     前記環境条件と前記触感情報とを関連付けて記憶部(21,54,64)に記憶させる第2工程と、
    を含む、環境条件記憶方法。
  5.  触感を提供した上で、ユーザーにより選択された触感を認識する第3工程をさらに含み、
     前記第1工程は、前記第3工程で選択された触感を認識することで前記選択された触感を示す情報である触感情報を取得することを含む、
    請求項4に記載の環境条件記憶方法。
  6.  前記第3工程は、前記提供された複数の触感の接触回数及び接触時間の少なくとも一方に基づいて、前記ユーザーにより選択された触感を認識することを含む、
    請求項5に記載の環境条件記憶方法。
  7.  環境条件に基づいて対象空間(S)に所定の環境を生成する環境生成装置(10)を操作する操作装置(85)であって、
     一つ又は複数の接触面を有し、複数の触感を提供する提供部(81)と、
     前記複数の触感のうちユーザーにより選択された触感を認識する認識部(82)と、
     前記認識部により認識された触感に応じた環境条件を決定する処理部(83)と、
     前記処理部により決定された環境条件を前記環境生成装置に送信する通信部(84)と、
    を備える、操作装置(85)。
  8.  さらに、
     前記認識部(82)は、前記提供部(81)により提供される触感の接触回数及び前記提供部(81)により提供される触感の接触時間の少なくとも一方に基づいて、前記ユーザーにより選択された触感を認識する、
    請求項7に記載の操作装置(85)。
  9.  前記提供部(81)は、異なる材料により形成される複数の接触面を有する、
     請求項7又は8に記載の操作装置(85)。
  10.  前記提供部(81)は、前記一つ又は複数の接触面に振動を生じさせることにより複数の異なる触感を提供する、
     請求項7又は8に記載の操作装置(85)。
  11.  前記提供部(81)は、前記一つ又は複数の接触面の温度又は湿度を制御することにより複数の異なる触感を提供する、
     請求項7又は8に記載の操作装置(85)。
  12.  前記提供部(81)は、前記一つ又は複数の接触面に電圧又は電流を生じさせることにより複数の異なる触感を提供する、
     請求項7又は8に記載の操作装置(85)。
  13.  前記提供部(81)は、前記一つ又は複数の接触面に磁力を生じさせることにより複数の異なる触感を提供する、
     請求項7又は8に記載の操作装置(85)。
  14.  環境条件に基づいて対象空間(S)に所定の環境を生成する環境生成装置(10)を操作する操作方法であって、
     触感を提供した上で、ユーザーにより選択された触感を認識する工程と、
     前記認識された触感に応じた環境条件を決定する工程と
     前記決定された環境条件を前記環境生成装置(10)に送信する工程と、
    を含む、操作方法。
  15.  前記ユーザーにより選択された触感を認識する工程は、前記提供部(81)により提供される触感の接触回数及び前記提供部(81)により提供される触感の接触時間の少なくとも一方に基づいて、前記ユーザーにより選択された触感を認識することを含む、
    請求項14に記載の操作方法。
  16.  一つ又は複数の接触面を有し、複数の触感を提供する提供部(81)と、
     前記複数の触感のうちユーザーにより選択された触感を認識する認識部(82)と、
     前記認識部により認識された触感に応じた環境条件を決定する処理部(83)と、
    を備える、
    環境認識装置(70)。
  17.  さらに、
     前記認識部(82)は、前記提供部(81)により提供される触感の接触回数及び前記提供部(81)により提供される触感の接触時間の少なくとも一方に基づいて、前記ユーザーにより選択された触感を認識する、
    請求項16に記載の環境認識装置(70)。
PCT/JP2020/000662 2019-01-11 2020-01-10 環境条件記憶装置、環境条件記憶方法、操作装置、及び環境認識装置 WO2020145386A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP20738307.6A EP3910498A4 (en) 2019-01-11 2020-01-10 DEVICE AND METHOD FOR STORING ENVIRONMENTAL STATES, OPERATING DEVICE AND ENVIRONMENTAL RECOGNITION DEVICE
CN202080008521.5A CN113272802A (zh) 2019-01-11 2020-01-10 环境条件存储装置、环境条件存储方法、操作装置和环境识别装置
US17/420,947 US11609635B2 (en) 2019-01-11 2020-01-10 Environmental condition storage device, environmental condition storage method, operation device, and environment recognition device

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2019-003124 2019-01-11
JP2019003124 2019-01-11
JP2019-207484 2019-11-15
JP2019207484A JP7415139B2 (ja) 2019-01-11 2019-11-15 環境条件記憶装置、環境条件記憶方法、操作装置、及び環境認識装置

Publications (1)

Publication Number Publication Date
WO2020145386A1 true WO2020145386A1 (ja) 2020-07-16

Family

ID=71521361

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/000662 WO2020145386A1 (ja) 2019-01-11 2020-01-10 環境条件記憶装置、環境条件記憶方法、操作装置、及び環境認識装置

Country Status (2)

Country Link
US (1) US11609635B2 (ja)
WO (1) WO2020145386A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003299013A (ja) 2002-03-29 2003-10-17 Fuji Photo Film Co Ltd 体験情報再現装置
JP2008508579A (ja) * 2004-07-30 2008-03-21 トレフツ、エルマー 環境状態に応じてユーザに警告するシステム及び装置
WO2017175867A1 (ja) * 2016-04-07 2017-10-12 国立研究開発法人科学技術振興機構 触覚情報変換装置、触覚情報変換方法、および、触覚情報変換プログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10152116B2 (en) * 2011-04-26 2018-12-11 The Regents Of The University Of California Systems and devices for recording and reproducing senses
JP2014146248A (ja) * 2013-01-30 2014-08-14 Sony Corp 表示制御装置、表示制御方法およびプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003299013A (ja) 2002-03-29 2003-10-17 Fuji Photo Film Co Ltd 体験情報再現装置
JP2008508579A (ja) * 2004-07-30 2008-03-21 トレフツ、エルマー 環境状態に応じてユーザに警告するシステム及び装置
WO2017175867A1 (ja) * 2016-04-07 2017-10-12 国立研究開発法人科学技術振興機構 触覚情報変換装置、触覚情報変換方法、および、触覚情報変換プログラム

Also Published As

Publication number Publication date
US11609635B2 (en) 2023-03-21
US20220066561A1 (en) 2022-03-03

Similar Documents

Publication Publication Date Title
CN109789550B (zh) 基于小说或表演中的先前角色描绘的社交机器人的控制
Ball et al. Emotion and personality in a conversational agent
Black Where bodies end and artefacts begin: Tools, machines and interfaces
Reybrouck A biosemiotic and ecological approach to music cognition: event perception between auditory listening and cognitive economy
Scherer et al. A generic framework for the inference of user states in human computer interaction: How patterns of low level behavioral cues support complex user states in HCI
WO2005093650A1 (ja) 意志発現モデル装置、心理効果プログラム、意志発現シミュレ-ション方法
Dos Santos et al. Behavioral persona for human-robot interaction: a study based on pet robot
Yannakakis Preference learning for affective modeling
Demiris et al. Information processing in the mirror neuron system in primates and machines
Bongers et al. Towards a Multimodal Interaction Space: categorisation and applications
Rehm et al. Developing a new brand of culturally-aware personal robots based on local cultural practices in the Danish health care system
Giordano et al. Design of vibrotactile feedback and stimulation for music performance
Rincon et al. Social emotional model
JP6631746B1 (ja) クラスタ分類装置、環境生成装置及び環境生成システム
WO2020145386A1 (ja) 環境条件記憶装置、環境条件記憶方法、操作装置、及び環境認識装置
Whalley Software Agents in Music and Sound Art Research/Creative Work: current state and a possible direction
JP7415139B2 (ja) 環境条件記憶装置、環境条件記憶方法、操作装置、及び環境認識装置
Mohd Tuah et al. The characteristics and application of anthropomorphic interface: A design spectrum
Leon et al. Emotion-oriented eCommerce systems
Duffy Digital Human Modeling and Applications in Health, Safety, Ergonomics and Risk Management. Human Communication, Organization and Work: 11th International Conference, DHM 2020, Held as Part of the 22nd HCI International Conference, HCII 2020, Copenhagen, Denmark, July 19–24, 2020, Proceedings, Part II
Wei et al. Mediated Social Touch With Mobile Devices: A Review of Designs and Evaluations
Bucci Building believable robots: an exploration of how to make simple robots look, move, and feel right
Kozel ‘Revealing Practices’ Heidegger's techne interpreted through performance in responsive systems
Zomer Shaping proactivity: Designing interactions with proactive ambient artefacts
Perikos et al. Embodied coversational agents: A methodology for learning to express facial emotions

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20738307

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2020738307

Country of ref document: EP

Effective date: 20210811