WO2020174886A1 - 評価システム、空間の設計支援システム、評価方法及びプログラム - Google Patents

評価システム、空間の設計支援システム、評価方法及びプログラム Download PDF

Info

Publication number
WO2020174886A1
WO2020174886A1 PCT/JP2020/000419 JP2020000419W WO2020174886A1 WO 2020174886 A1 WO2020174886 A1 WO 2020174886A1 JP 2020000419 W JP2020000419 W JP 2020000419W WO 2020174886 A1 WO2020174886 A1 WO 2020174886A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
evaluation
model
human
environment
Prior art date
Application number
PCT/JP2020/000419
Other languages
English (en)
French (fr)
Inventor
ハリーシュ プティーヤ ヴィーティル
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Priority to JP2021501671A priority Critical patent/JP7236641B2/ja
Priority to CN202080016310.6A priority patent/CN113474824A/zh
Priority to US17/432,661 priority patent/US11557101B2/en
Priority to EP20763260.5A priority patent/EP3933784A4/en
Publication of WO2020174886A1 publication Critical patent/WO2020174886A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/10Geometric CAD
    • G06F30/13Architectural design, e.g. computer-aided architectural design [CAAD] related to design of buildings, bridges, landscapes, production plants or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/04Architectural design, interior design

Definitions

  • Evaluation system space design support system, evaluation method and program
  • the present disclosure relates generally to an evaluation system, a space design support system, an evaluation method and a program, and more specifically, an evaluation system for evaluating the state of a human model composed of human model data, and a space evaluation system.
  • Design support system, evaluation method and program are specifically designed to evaluate the state of a human model composed of human model data.
  • Patent Document 1 describes an article design support apparatus that simulates movements in a virtual space using a virtual model of an article by a digital human, which is a human model provided in a virtual space.
  • Patent Document 1 the type of movement of a human model when using a virtual model of an article is specified, and the load that acts on the target part of the human model when the human model performs the specified movement. To calculate. The calculated load is displayed on the monitor device.
  • Patent Document 1 Japanese Unexamined Patent Publication No. 2 0 1 3 _ 1 2 7 6 54
  • the present disclosure has been made in view of the above circumstances, and an object thereof is to provide an evaluation system, a space design support system, an evaluation method, and a program capable of improving the accuracy of evaluation of a human model state. To do.
  • An evaluation system includes a first acquisition unit, a second acquisition unit, and an evaluation unit. ⁇ 02020/174886 2 ⁇ (:171?2020/000419
  • the first acquisition unit acquires model information.
  • the model information is information about a human model placed in the virtual space.
  • the human model consists of human model data.
  • the second acquisition unit acquires environmental information.
  • the environment information is information about an environment that is associated with the virtual space and can exert a specific action on the human model.
  • the evaluation unit evaluates the state of the human model based on the model information and the environment information.
  • a space design support system includes the evaluation system and a display device.
  • the presenting unit causes the display device to display a presenting screen representing the evaluation result of the evaluating unit and including the human model.
  • An evaluation method includes a first acquisition step, a second acquisition step, and an evaluation step.
  • the first acquisition step is a step of acquiring model information.
  • the model information is information about a human model arranged in the virtual space.
  • the human model consists of human model data.
  • the second acquisition step is a step of acquiring environment information.
  • the environment information is information related to the environment that is associated with the virtual space and may exert a specific action on the human model.
  • the evaluation step is a step of evaluating the state of the human model based on the model information and the environment information.
  • a program according to an aspect of the present disclosure is a program for causing one or more processors to execute the evaluation method.
  • FIG. 1 is a conceptual diagram schematically showing a virtual space used in the evaluation system according to the first embodiment.
  • FIG. 2 is a block diagram showing a schematic configuration of the above-mentioned evaluation system.
  • Fig. 3 is a flow chart showing an operation example of the above-mentioned evaluation system.
  • FIG. 4 is a conceptual diagram schematically showing a virtual space, showing an example of a specific operation of the above-mentioned evaluation system. ⁇ 02020/174886 3 ⁇ (: 171?2020/000419
  • FIG. 5 is a schematic diagram schematically showing a real space showing an example of use of the above evaluation system.
  • FIG. 6 is a conceptual diagram schematically showing a virtual space, showing an example of a specific operation of the above evaluation system.
  • FIG. 7 is a conceptual diagram schematically showing a virtual space used in the evaluation system according to the second embodiment.
  • the evaluation system 1 is a human model. This is a system for evaluating the state 1.
  • the “human model” referred to in this disclosure consists of data that can be processed by one or more processors. As an example, as shown in FIG. 1, it is a virtual model that imitates a person in a real space. It is located at V 3 1.
  • the “virtual space” referred to in this document is a virtual space that consists of data that can be processed by one or more processors and that is simulated by a computer system and reproduced by a computer system.
  • the virtual space V 3 1 is a space that imitates a specific real room. In other words, the virtual space V31 does not actually exist in the real space (real space) and does not have any substance.
  • the evaluation result obtained by such an evaluation system 1 can be used for, for example, designing a facility (including a building), reforming the facility, evaluating the facility, marketing in the building industry, and technical research and technical development. Is.
  • the evaluation result can be used, for example, for space design of facilities and equipment design. This will facilitate facility space design and equipment design.
  • “Reform” includes not only repair of facilities that have deteriorated due to deterioration over time, but also renovation (renovat i on) to add new functions to facilities and improve usability. ..
  • the “reform” in the present disclosure includes, for example, replacement of equipment, addition of equipment, change of floor plan and redesign.
  • the evaluation system 1 includes a first acquisition unit 11, a second acquisition unit 12 and an evaluation unit 13.
  • the first acquisition unit 11 acquires the model information D 1.
  • the model information D 1 is information about the human model H M 1 arranged in the virtual space V S 1.
  • the human model H M 1 consists of human model data.
  • the second acquisition unit 1 2 acquires the environmental information D 2.
  • the environment information D 2 is information related to the environment that is associated with the virtual space V S 1 and may exert a specific action on the human model H M 1.
  • the evaluation unit 13 evaluates the state of the human model H M 1 based on the model information D 1 and the environmental information D 2.
  • the human model H M is, in the evaluation system 1 according to the present embodiment, the human model H M
  • the evaluation of the state of 1 reflects the environment that is associated with the virtual space V S 1 and can exert a specific action on the human model H M 1.
  • various environments such as temperature (heat) and lighting (light) have a specific effect on a person who actually exists in the real space. Then, due to the effect of the environment on the person, for example, the comfort of the person changes.
  • the evaluation system 1 also applies such an environment-based evaluation to the virtual space VS 1 in which the human model HM 1 is placed, so that the state of the human model HM 1 can be approximated to that of a real “person”. Can be evaluated.
  • the term “facility” as used in this disclosure includes non-residential facilities such as offices, factories, buildings, shops, schools, welfare facilities or hospitals, and residential facilities such as single-family homes, condominiums, or individual dwelling units of condominiums.
  • Non-residential facilities include theaters, movie theaters, public halls, playgrounds, complex facilities, restaurants, department stores, hotels, inns, kindergartens, libraries, museums, art galleries, underground malls, stations and airports.
  • the term “facility” as used in this disclosure includes not only buildings (buildings) but also outdoor facilities such as stadiums, gardens, parking lots, grounds, and parks.
  • the evaluation system 1 evaluates the human models 1 to 1 IV! 1 arranged in the virtual space V 3 1 corresponding to a facility (here, an office).
  • the virtual space V 31 is a space that imitates the internal space (indoor space) of the facility (here, the office), that is, a space that virtually reproduces the facility.
  • the "state” of the human models 1 to 1 IV! 1 in the present disclosure is the human model. It means the mental or physical state of a “person” when is replaced with the actual “person”.
  • the “state” in the present disclosure includes, for example, comfort (including comfort and discomfort), load (burden) on each part of the body, and health condition.
  • comfort including comfort and discomfort
  • load burden
  • “comfort” is defined as a human model. It is the target of the evaluation.
  • the "environment” in the present disclosure means an element (thing) that can exert a specific action on a person who actually exists in a real space (real space).
  • “environment” includes one or more of the following: temperature (heat), lighting (light), sound, odor and air quality.
  • the environment also includes a combination of elements, such as temperature and lighting.
  • the "specific action" in the present disclosure means that a person who actually exists in the real space (real space) causes a physical change or does not have any effect due to the environment as described above. ⁇ 02020/174886 6 ⁇ (: 171?2020/000419
  • the environment such as the temperature (heat) in the real space can be specified for a person who actually exists in the real space by changing the temperature of the skin or giving a feeling of hot or cold. Can have the effect of.
  • the evaluation system 1 includes the first acquisition unit 11, the second acquisition unit 12, and the evaluation unit 13 as described above.
  • the evaluation system 1 includes the presentation unit 14 and the adjustment unit 1 in addition to the first acquisition unit 11, the second acquisition unit 12 and the evaluation unit 13. Further equipped with 5.
  • the evaluation system 1 is configured to be able to communicate with each of the model generation unit 2, the environment generation unit 3, the database 4, the information terminal 5 and the display device 6. .
  • the term “communicable” as used in the present disclosure means that signals can be transmitted and received directly by a suitable communication method such as wired communication or wireless communication, or indirectly through a network or a relay. That is, the evaluation system 1 can exchange signals with each of the model generation unit 2, the environment generation unit 3, the database 4, the information terminal 5, and the display device 6.
  • the evaluation system 1 includes one or more processors and
  • the main configuration is a computer system (including servers and cloud computing) that has one or more memories.
  • the processor realizes the functions of the evaluation system 1 by executing the program recorded in the memory.
  • the program may be recorded in a memory in advance, may be recorded in a non-transitory recording medium such as a memory card and provided, or may be provided through a telecommunication line.
  • the above program is a program for causing one or more processors to function as the evaluation system 1.
  • the first acquisition unit 11 acquires the model information port 1 as described above.
  • the model information port 1 is information about the human models 1 to 1 1 ⁇ /1 1 arranged in the virtual space V 3 1.
  • Human model 1 consists of a person's model day.
  • the virtual space V 3 1 ⁇ 02020/174886 7 ⁇ (: 171?2020/000419
  • the human model 1 to 1 1 ⁇ /1 1 is a model that virtually reproduces the "people" present in the internal space of the office as a facility. Is.
  • the second acquisition unit 12 acquires the environment information port 2 as described above.
  • the environment information port 2 is information related to the environment that is associated with the virtual space V 31 and that can exert a specific action on the Human models 1 to 1 IV! 1.
  • the environment information port 2 is information about an environment that can exert a specific action on the human model in the virtual space V 31 that virtually reproduces the internal space (indoor space) of the office as a facility. is there.
  • the environmental information port 2 is a human model. It is assumed that it contains information about temperature and/or lighting that can affect 1.
  • environmental information 2 is a human model. Assume that it contains information about the environment due to factors emanating from 1 (eg heat).
  • the evaluation unit 13 uses the human model based on the model information port 1 and the environmental information port 2. Evaluate the condition of 1.
  • the state of the human models 1 to 1 IV! 1 evaluated by the evaluation unit 13 is “comfort”.
  • the evaluation unit 13 is a human model Evaluate the comfort of "person” when "" is replaced with the actual "person” based on model information mouth 1 and environmental information mouth 2. For more information about the evaluation of the state (comfort), see the section “(3) Behavior”.
  • the presenting unit 14 presents the evaluation result of the evaluating unit 13 to the user II 1 (see FIG. 5).
  • the presentation unit 14 realizes the presentation to the user II 1 by displaying the evaluation result of the evaluation unit 13 on the display device 6.
  • the presentation unit 14 transmits result information indicating the evaluation result of the evaluation unit 13 to the display device 6 regularly, irregularly, or in response to a request from the display device 6. By doing so, the evaluation result of the evaluation unit 13 is displayed on the display device 6.
  • the presentation unit 14 represents the evaluation result of the evaluation unit 13
  • the “screen” of the presentation screen m 1 etc. referred to in is the image (including text, graphs, icons, etc.) displayed on the display device 6.
  • the presentation unit 14 causes the display device 6 to display a presentation screen I m 1 indicating the evaluation result of the evaluation unit 13. Then, this presentation screen m 1 includes the human model HM 1.
  • the presentation unit 14 is configured to change the display mode of the human model H M 1 on the presentation screen I m 1 according to the evaluation result of the evaluation unit 13.
  • the “display mode” in the present disclosure includes display color, movement (including deformation), brightness (including luminance), line type (including line thickness and solid line/broken line, etc.), shape, and the like. .. That is, the display mode (color, etc.) of the human model H M 1 included in the presentation screen m 1 changes according to the evaluation result of the evaluation unit 13.
  • the presentation screen m 1 is an augmented reality region R 1 (FIG. 5) in which the human model HM 1 is displayed in a superimposed manner on the real space or an image of the real space seen by the user U 1.
  • Reference is included. That is, the presentation unit 14 displays at least the human model HM 1 of the presentation screen m 1 by superimposing it on the real space (or the image of the real space) to display the so-called augmented reality (AR: Augmented Rea). li ty) Display is realized.
  • AR Augmented Rea
  • li ty Augmented Rea
  • the adjustment unit 15 determines at least one of the number and the arrangement of the virtual facilities V E1 to V E3 (see FIG. 1) in the virtual space V S1.
  • the virtual facilities V E 1 to V E 3 adjust the environment corresponding to the environmental information D 2.
  • the number of virtual facilities V E 1 to V E 3 can be arbitrarily set within a range of 0 or more and a predetermined upper limit value (for example, 100).
  • a predetermined upper limit value for example, 100.
  • any coordinate position and any orientation in the virtual space V S 1 can be set.
  • the virtual equipments VE 1 to VE 3 are data that can be processed by one or more processors, like the human model HM 1, and are virtual models that model the equipments that are arranged in the virtual space VS 1. .. That is, the virtual facilities VE 1 to VE 3 are virtual models that are set to exist in the virtual space VS 1, and It does not actually exist in (real space) and is not accompanied by substance.
  • the “equipment” mentioned here is equipment (including equipment, instruments, devices and systems) that contributes to the formation of the environment, and may be either stationary or portable.
  • the virtual equipment VE 1 to VE 3 are, for example, air conditioning equipment that adjusts (including generation of) “temperature” which is one element of the environment, heaters and ventilation windows, or “lighting” which is one element of the environment. It corresponds to lighting equipment and lighting windows that are adjusted (including generation).
  • the evaluation system 1 further includes a communication unit 16, an input unit 17 and a storage unit 18 and the like.
  • the communication unit 16 has a communication function with each of the model generation unit 2, the environment generation unit 3, the database 4, the information terminal 5 and the display device 6.
  • the communication unit 16 is capable of bidirectional communication with each of the model generation unit 2, the environment generation unit 3, the database 4, the information terminal 5 and the display device 6, for example, via a network. Is.
  • the input unit 17 receives input of an input signal according to the operation of the user U 1.
  • the evaluation system 1 can accept the operation of the user U 1.
  • the input unit 17 receives, as an example, an input of an input signal generated in the information terminal 5.
  • the storage unit 18 stores, for example, the model information D 1 acquired by the first acquisition unit 11 and the environment information D 2 acquired by the second acquisition unit 12. Further, the storage unit 18 further stores information and the like necessary for the calculation in the evaluation unit 13 and the like.
  • the storage unit 18 includes a rewritable non-volatile memory such as an EEPROM (Electrical Erasab le Program Read-On Memory).
  • the model generation unit 2 generates model information D 1.
  • the model generation unit 2 outputs the generated model information D 1 to the evaluation system 1 (first acquisition unit 11) regularly, irregularly, or as a response to a request from the evaluation system 1. ..
  • the model generation unit 2 may select arbitrary model information D 1 from a plurality of types of model information D 1 generated in advance and output it to the evaluation system 1.
  • the model information D 1 includes at least information for the human model HM 1 to form a shape imitating a human body.
  • the model information D 1 is, for example, ⁇ 02020/174886 10 box (: 171?2020/000419
  • model information port 1 contains information for each part such as chest, abdomen, legs and arms, and information for each organ such as eyes, ears, nose and mouth. Further, the model information port 1 contains information for each tissue such as bone, muscle, blood and skin.
  • the human model 1 has a skeleton and joints that are similar to the human body or have a simplified form of the human body, and can perform actions in the same manner as the human body. Therefore, the human model For 1, for example, it is possible to specify postures such as standing and sitting, and to specify actions (behavior) such as walking, raising arms, and gripping articles. Information on the postures and movements of these human models 1 to 1 IV! 1 is also included in Model Information Port 1.
  • the model information port 1 is a human model.
  • 1 includes unique attribute information. Attribute information is the human model Age (or age group), sex, body type (including obesity, etc.), hobbies and preferences (including heat/coldness, etc.), height, weight, gender, and presence/absence of disability of 1 person Information indicating the location of the disorder, the amount of activity (including heart rate), the clothing level, etc.
  • the human model According to the attribute information, 1 can be classified into, for example, a model imitating a “hot” man in his 20s and a model imitating a “cold” woman in his 60s.
  • the evaluation unit 13 changes the evaluation of the states of the human models 1 to 1 IV! 1 according to the attribute information. That is, the evaluation result of the evaluation unit 13 changes according to the attribute information of the model information port 1.
  • the environment generation unit 3 generates the environment information port 2.
  • the environment generation unit 3 outputs the generated environment information 0 2 to the evaluation system 1 (second acquisition unit 12) periodically, irregularly, or as a response to a request from the evaluation system 1. To do.
  • the environment generation unit 3 may select arbitrary environmental information 0 2 from a plurality of types of environmental information ports 2 generated in advance and output it to the evaluation system 1.
  • the environmental information port 2 contains at least information for the virtual space V 31 to form a shape that simulates the internal space (indoor space) of the facility (here, the office).
  • environmental information 2 includes three-dimensional data such as BIM (Bu i ld i ng Informat i on Mode li ng).
  • the environmental information D 2 includes, for example, information on each part such as floors, walls and ceilings, and information on attributes and materials.
  • the environment information D2 includes information on the virtual facilities V E1 to V E3 to be arranged in the virtual space V S1. That is, when the facility for adjusting the environment is installed (introduced) in the facility equivalent to the virtual space VS 1 (here, the office), the information about the virtual facilities VE 1 to VE 3 corresponding to this facility is the environmental information D. Included in 2.
  • the information on the virtual facilities V E1 to V E3 is information such as the type (air conditioning facility/lighting facility, etc.), number and arrangement (coordinate position and orientation in the virtual space V S1) of the virtual facilities V E1 to V E3. For more information about environmental information D 2, see “(3) Operation”.
  • At least one of the model information D 1 and the environment information D 2 changes with time. That is, at least one of the model information D 1 generated by the model generation unit 2 and the environment information D 2 generated by the environment generation unit 3 is not static information but dynamic information. ..
  • both the model information D 1 and the environment information D 2 are dynamic information that changes with time.
  • each of the model information D 1 and the environment information D 2 is automatically updated using, for example, machine learning.
  • the environmental information D2 the amount of solar radiation and the outside temperature in the facility (here, the office) corresponding to the virtual space VS1 change from moment to moment, so the environment should be tracked to follow this change. It is preferable that information D 2 changes.
  • the database 4 mainly stores information used for evaluation by the evaluation unit 13.
  • Database 4 provides information such as the evaluation index of the effect of facilities (including buildings) on people, such as air quality (A ir), temperature (Temp), lighting (L i ght), And each sound (Sound) are stored.
  • the database 4 receives the request signal from the evaluation system 1, it outputs the matching result corresponding to the request signal to the evaluation system 1.
  • Information stored in database 4 Unlike the model information D 1 and the environmental information D 2, the information is static information that does not change over time.
  • the information terminal 5 mainly has a computer system having one or more processors and one or more memories.
  • the processor realizes the function of the information terminal 5 by executing the program recorded in the memory.
  • the program may be recorded in a memory in advance, may be recorded in a non-transitory recording medium such as a memory card and provided, or may be provided through a telecommunication line.
  • the program is a program for causing the computer system to function as the information terminal 5.
  • the information terminal 5 includes a user interface 5 1.
  • the information terminal 5 is a tablet terminal owned by the user U 1.
  • the user interface 51 has a function of accepting the operation of the user U 1 and a function of presenting information to the user U 1.
  • the user interface 51 is realized by a touch panel display. Therefore, the information terminal 5 determines that the object such as the button is operated by detecting the operation (tap, swipe, drag, etc.) of the object such as the button on each screen displayed on the touch panel display. .. That is, the information terminal 5 displays a screen on a liquid crystal display, an organic EL (Electro Luminescence) display, or the like included in the touch panel display.
  • an organic EL Electro Luminescence
  • the display device 6 is realized by an image display device such as a liquid crystal display or an organic EL display.
  • the display device 6 is a head mounted display (HMD: Head Mounted Display) that the user U 1 wears on his/her head.
  • HMD Head Mounted Display
  • the human model H M 1 can be overlaid and displayed on the real space visible to the user U 1.
  • FIG. 3 is a flow chart showing an example of the operation of the evaluation system 1.
  • the first acquisition unit 11 acquires the model information port 1 from the model generation unit 2 (3 1), and the second acquisition unit 12 acquires from the environment generation unit 3.
  • the evaluation system 1 determines whether or not there is a change (including movement, addition, and deletion) of the virtual equipment Vm 1 to m 3 (33).
  • the environment information 0 2 acquired by the evaluation system 1 from the environment generation unit 3 includes information about the virtual facilities V_ 1 to 3; however, in the evaluation system 1, for example, the operation of the user II 1 is performed.
  • the user II 1 uses the user interface 5 1 of the information terminal 5 to perform the operation for changing the virtual equipment V 1 to 3 on the browser screen, for example. It is possible to change the numbers from 1 to 3.
  • the evaluation system 1 receives the input signal according to this operation, and the evaluation system 1 changes the virtual equipment V 1 1 V 3 (3 3 : Judge 6 3).
  • the process 3 4 is skipped.
  • the evaluation system 1 uses the model information port 1 and the environment information port in the evaluation unit 13.
  • the evaluation system 1 forms the virtual space V 3 1 based on the environment information port 2 and the virtual space V 3 1 based on the model information port 1. ⁇ 02020/174886 14 ⁇ (: 171?2020/000419
  • the human model in which the environment of the virtual space V 3 1 is installed in the virtual space V 3 1 Calculate the specific effect on 1 (35).
  • the human model Assuming that the environment that exerts a specific action on 1 is “temperature”, the evaluation unit 13 The index value corresponding to the skin temperature is calculated for each part.
  • the evaluation system 1 queries the database 4 using the calculation result of processing 35 (36). At this time, the database 4 receives the request signal from the evaluation system 1 and outputs the matching result corresponding to the request signal to the evaluation system 1 using at least the calculation result of the process 35.
  • Human model Assuming that the environment that exerts a specific effect on 1 is “temperature”, we can use the human model from the database 4 to the evaluation system 1. An evaluation value indicating the aptitude according to the temperature is output for each part of.
  • the evaluation system 1 uses the human model based on the matching result (including the evaluation value) from the database. Evaluate condition 1 (37).
  • “comfort” is taken as the state of the human model !! IV! 1 for evaluation, so at this time, the evaluation unit 13 determines that the human model! Calculate the evaluation value that represents the comfort of each part.
  • the evaluation system 1 When the evaluation of the states of the human models 1 to 1 IV! 1 is completed, the evaluation system 1 causes the presentation unit 14 to display the evaluation result on the display device 6, thereby allowing the evaluation result to the user II 1. Is presented (38).
  • the flow chart of FIG. 3 is merely an example of the operation of the evaluation system 1, and the processing may be appropriately omitted or added, or the order of the processing may be appropriately changed.
  • the first acquisition unit 11 acquires the model information 0 1 from the model generation unit 2 (3 1)
  • the second acquisition unit 12 acquires the environment information 0 2 from the environment generation unit 3.
  • the order of (32) may be reversed.
  • FIG. 4 is a conceptual diagram schematically showing the virtual space V 3 1.
  • the standing human models 1 to 1 1 ⁇ /1 1 are placed at a coordinate position near the center of the virtual space V 3 1.
  • virtual equipment V day 1 corresponding to air conditioning equipment
  • virtual equipment V day 2 corresponding to windows (ventilation window, daylighting window)
  • two virtual equipment corresponding to lighting equipment respectively.
  • Equipment V 3 and are installed in virtual space V 3 1.
  • the environment information 0 2 used for the evaluation by the evaluation unit 13 relates to the environment of the peripheral area 8 1 set around the human models 1 to 1 IV! 1 in the virtual space V 3 1.
  • the surrounding area 8 here is a human model. It may be set to around 1, and as an example, the human model can be converted to a real space. It is set in the range of several dozens from the surface of 1 (corresponding to skin).
  • the peripheral area 8 is a human model. Human model to cover the whole of 1 It is set along the surface shape of 1.
  • the human model As for the “temperature” that exerts a specific action on it is preferable to pay attention to the temperature of the peripheral area 1 to obtain the action on humans.
  • the information on the environment (temperature) of the peripheral area 81 is obtained as follows, for example.
  • the position of the peripheral area 81 can be specified from the information of the positions of the human models 1 to 1 1 ⁇ /1 1 in the virtual space V 3 1. That is, the peripheral area 1 is set at a coordinate position in the virtual space V 3 1.
  • the virtual space V 3 1 has a plurality of virtual equipments V 1 to 3 so that the temperature at each position in the virtual space V 3 1 is Affected by V 1 to 3.
  • virtual equipment V_mi which corresponds to air conditioning equipment, emits heat ⁇ 1 by outputting warm air.
  • the virtual facility V 2 that corresponds to a window that functions as a daylighting window has heat generated by radiation equivalent to sunlight (sunlight). ⁇ 02020/174886 16 ⁇ (: 171?2020/000419
  • the virtual facility V 2 corresponding to a window also functions as a ventilation window, so that the transfer of heat 0 3 (heat exchange between the virtual space 1 and the outside) by ventilation or convection is realized.
  • the virtual equipment 3 corresponding to the lighting equipment emits heat 0 4 when turned on.
  • the main factors that determine the environment of "temperature” are the heat emitted from the heat source equipment (including air conditioning equipment, lighting equipment, and other electrical equipment) 0 1, 0 4, and the sun.
  • heat 0 2 that is radiant heat such as light
  • heat 0 3 that is caused by ventilation or convection.
  • heat transfer through walls or windows due to heat conduction, heat transfer due to convection in the virtual space V 31 and heat transfer due to evaporation, etc. Environment can be determined.
  • the environment information port 2 includes information related to the environment caused by the elements (for example, heat) emitted from the human models 1 to 1 IV! 1.
  • the human model The heat generated from 1 is also taken into account to determine the environment (temperature) of the surrounding area 81. Heat emitted from the human model 1-1 1 ⁇ / 1 1, from the attribute information included in the model information outlet 1 can be accurately obtained.
  • the human model When the activity amount of 1 (physical activity level) increases, the human model The amount of metabolic fever emitted from 1 increases.
  • clothing can have a heat insulating or heat shielding effect, so for example, the higher the clothing level, the more human model The higher the heat insulation effect of the clothing worn by 1, the smaller the amount of heat emitted from the human model 1 to 1 IV! 1.
  • the peripheral area 81 the amount of heat that moves between the outside (virtual space V3 1 side) area and the inside (human model 1 to 1 IV! 1 side) area moves.
  • the heat quantity entering and exiting the peripheral area 81 can be obtained by combining the heat quantity and.
  • the evaluation unit 13 can calculate the environment (temperature) of the surrounding area 1. Then, the evaluation unit 13 determines that the surrounding area ⁇ 02020/174886 17 ⁇ (: 171?2020/000419
  • the temperature of 81 is calculated as an index value corresponding to the temperature of the skin for each part of the human models 1 to 1 IV! 1.
  • the evaluation unit 13 is a human model.
  • the "comfort" of the human model 1 to 1 IV! 1 is evaluated from the index value corresponding to the skin temperature for each part 1.
  • the evaluation result (comfort level) thus obtained also changes depending on the attribute information (activity, clothing level, etc.) included in the model information port 1.
  • the evaluation unit 13 changes the evaluation of the states of the human models 1 to 1 1 ⁇ /1 1 according to the attribute information included in the model information port 1.
  • thermal comfort In evaluating the temperature-based comfort, it is also preferable to consider the following factors that affect the thermal comfort.
  • factors affecting thermal comfort are atmospheric heat, average radiant temperature, wind speed, and humidity.
  • Atmospheric heat (temperature) can be estimated by calculating the temperature of the surrounding area 81 in the virtual space V 31 as described above.
  • the average radiation temperature can be estimated by calculating the weighted average temperature of all exposed surfaces in the room in virtual space V 31.
  • the wind speed (or air flow) can be estimated by quantifying the speed and direction of movement of indoor air in the virtual space V 31.
  • Humidity Humidity (or relative humidity) is the virtual space It can be estimated by calculating the water content in 1.
  • Activity levels physical activity levels
  • clothing levels can also affect thermal comfort.
  • Parity System 1 by combining at least one of the average radiation temperature, wind speed, humidity, activity level and clothing level in addition to atmospheric heat, the evaluation unit It is possible to improve the accuracy of the comfort evaluation of the human models 1 to 1 IV! 1 in 1 3. Where activity and clothing levels were used ⁇ 02020/174886 18 ⁇ (: 171?2020/000419
  • the evaluation unit 13 determines the human model according to the attribute information included in the model information port 1. It will change the evaluation of the state of 1.
  • FIG. 5 is a conceptual diagram schematically showing the physical space 3 1.
  • user II 1 stands near the center of real space 3 1.
  • sitting human models 1 to 1 IV! 1 are arranged near the wall of the virtual space 31.
  • virtual equipment V day 1 corresponding to the air conditioning equipment is installed in the virtual sky in addition to the air conditioning equipment actually installed in the real space 31.
  • the presentation unit 14 presents the evaluation result of the evaluation unit 13 to the user 11 1 by displaying it on the display device 6.
  • the presentation unit 14 represents the evaluation result of the evaluation unit 13 and also includes the presentation screen including the human models 1 to 1 IV! 1.
  • the display device 6 is a head mount display that the user II 1 wears on his/her head and uses it. Therefore, from the viewpoint of the user II 1 (within the balloon), the human model is displayed in the real space 6 3 1. It is possible to display by overlapping. As a result, from the perspective of the user 11 1, the human model is overlaid on the real space 3 1. 1 is displayed, the presentation screen in augmented reality display 1 is displayed.
  • the presentation screen displayed on the presentation unit 14 1 includes an extended real region 8 1 in which the human models 1 to 1 IV! 1 are displayed in a superimposed manner on the real space 8 3 1 seen by the user II 1.
  • user II 1 actually exists in real space 3 1. ⁇ 02020/174886 19 ⁇ (: 171?2020/000419
  • the human model 1 can be visually recognized like a human being, and the evaluation system 1 can more realistically present the evaluation results of the states of the human models 1 to 1 IV! 1 to the user II 1.
  • the augmented reality region 1 has a human model
  • virtual facility V 1 and heat 0 1 (warm air) emitted from virtual facility V 1 are displayed.
  • the user II 1 can visually confirm the effect of actually installing the equipment (here, the air conditioning equipment) corresponding to the virtual equipment V_mi 1 in the real space 3 1.
  • the presentation unit 14 displays the presentation screen according to the evaluation result of the evaluation unit 13 (here, the comfort level).
  • the display state of the human model 1 to 1 IV! 1 in 1 is changed.
  • the human model Of the 1 the temperature of the part ⁇ 3 1 where the heat 0 1 emitted from the virtual facility V day 1 directly hits is much higher than the appropriate temperature, so the comfort level of that part ⁇ 3 1 is higher than that of other parts.
  • the human model In the part ⁇ 3 1 (around the left shoulder) where the heat 0 1 emitted from the virtual facility V day 1 directly hits the display color is different from the other parts.
  • the display mode of the human models 1 to 1 IV! 1 in the presented image changes according to the evaluation result of the evaluation unit 13 so that the user II 1 can easily grasp the evaluation result of the evaluation unit 13. Become.
  • FIG. 6 is a conceptual diagram schematically showing the virtual space V 3 1.
  • the standing human models 1 to 1 1 ⁇ /1 1 are placed at a coordinate position near the center of the virtual space V 3 1.
  • virtual equipment V day 1 corresponding to air conditioning equipment
  • virtual equipment V day 2 corresponding to windows (ventilation window, daylighting window)
  • two virtual equipment corresponding to lighting equipment respectively.
  • Equipment V 3 and are installed in virtual space V 3 1.
  • the human model !! IV! 1 has a field of view. ⁇ 02020/174886 20 ((171?2020/000419
  • the corresponding viewing area 82 is shown in the balloon.
  • the human model 1 to 1 IV! 1 becomes particularly dominant. Therefore, even if the “illumination” exerts a specific action on the human model 1 to 1 IV! 1, the human model It is preferable to find the effect on humans by focusing on the brightness (illuminance) and light color of the first field of view (field of view 2).
  • information about the environment (illumination) of the visual field area 82 corresponding to the visual fields of the human models 1 to 1 IV! 1 is obtained as follows, for example.
  • the visual field area 8 corresponding to the visual field of 1 is virtual.
  • each virtual equipment 3 outputs light !_ 1 when turned on.
  • virtual equipment V day 3 on the side closer to virtual equipment V day 2 emits light !_ 1 on the desk in view area 8 2.
  • the virtual facility V2 which corresponds to a window that functions as a daylighting window, also captures sunlight (sunlight), so Output light within 1.
  • the reflection or absorption of light on walls, floors, or ceilings, and the shadows caused by the blocking of objects with objects can also determine the “illumination” environment of the virtual space 31.
  • the evaluation unit 13 can calculate the brightness (illuminance) and light color in the visual field area 82 as index values.
  • the evaluation unit 13 evaluates "comfort" as the state of the human models 1 to 1 IV! 1 from the index values corresponding to the brightness (illuminance) and the light color in the visual field area 82.
  • the degree of comfort that represents comfort is high (that is, it is close to “comfort”).
  • the comfort level representing the comfort level becomes lower (that is, closer to “discomfort”).
  • the appropriate illuminance is appropriately determined depending on, for example, the use of the facility that the virtual space V 3 1 imitates. As an example, the appropriate illuminance is set relatively high in offices and set relatively low in restaurants and other stores.
  • the appropriate color temperature is appropriately determined depending on, for example, the use of the facility where the virtual space V 31 is used. As an example, the appropriate color temperature is set relatively high for offices and relatively low for restaurants and other stores.
  • Embodiment 1 is only one of the various embodiments of the present disclosure.
  • the first embodiment can be variously modified according to the design and the like as long as the object of the present disclosure can be achieved.
  • Each drawing described in the present disclosure is a schematic drawing, and the size and thickness of each constituent element in each drawing do not necessarily reflect the actual dimensional ratio.
  • the same function as that of the evaluation system 1 according to the first embodiment may be embodied in an evaluation method, a computer program, or a non-transitory recording medium recording the computer program.
  • the evaluation method according to one aspect includes a first acquisition step (corresponding to “3 1” in FIG. 3), a second acquisition step (corresponding to “3 2” in FIG. 3), and an evaluation step (“3 3” in FIG. 3). Equivalent to 5 to 37”) and.
  • the first acquisition step is a step of acquiring the model information port 1.
  • Model information port 1 is a human model consisting of model data of a person placed in virtual space V 31. Is information about.
  • the second acquisition step is the step of acquiring the environmental information outlet 2.
  • the environment information port 2 is associated with the virtual space V 3 1 and relates to an environment that can exert a specific action on the human model !! IV! 1.
  • the evaluation step is a step of evaluating the state of the human model HM 1 based on the model information D 1 and the environmental information D 2.
  • a (computer) program according to one aspect is a program for causing one or more processors to execute the above-described evaluation method.
  • the evaluation system 1 in the present disclosure includes a computer system.
  • the computer system mainly consists of a processor and memory as hardware.
  • the processor executes the program recorded in the memory of the computer system, the function as the evaluation system 1 according to the present disclosure is realized.
  • the program may be pre-recorded in the memory of the computer system, may be provided through a telecommunication line, or may be recorded in a non-transitory recording medium such as a computer system-readable memory card, optical disk, hard disk drive, etc. May be provided.
  • a computer system processor is composed of one or more electronic circuits including a semiconductor integrated circuit (C) or a large scale integrated circuit (LS I ).
  • the integrated circuit such as C or LS I referred to here depends on the degree of integration, and is called a system LSI, VLS I (Very Large Scale Integration), or ULSI (Ultra Large Scale Integration). including. Furthermore, it is possible to reconfigure the F-PGA (Field-Programmable Gate Array), which is programmed after the manufacturing of LS ⁇ , or the reconfiguration of the junction relation inside LS I or the reconfiguration of the circuit section inside LS I
  • the chair can also be used as a processor.
  • the plurality of electronic circuits may be integrated in one chip, or may be distributed and provided in the plurality of chips.
  • the plurality of chips may be integrated in one device, or may be distributed and provided in the plurality of devices.
  • a computer system includes a microcontroller that has one or more processors and one or more memories. Therefore, the microcontroller is also composed of one or more electronic circuits including semiconductor integrated circuits or large-scale integrated circuits. ⁇ 02020/174886 23 ((171?2020/000419
  • the evaluation system 1 it is not an essential configuration of the evaluation system 1 that at least a part of the functions of the evaluation system 1 are integrated in one casing, and the constituent elements of the evaluation system 1 are multiple casings. It may be provided dispersed in the body.
  • the first acquisition unit 11 and the second acquisition unit 12 of the evaluation system 1 may be provided in a housing different from that of the evaluation unit 13.
  • at least part of the functions of the evaluation system 1, for example, the functions of the evaluation unit 13 may be realized by a cloud (cloud computing) or the like.
  • At least a part of the functions distributed in the plurality of devices may be integrated in one housing.
  • the functions distributed between the evaluation system 1 and the database 4 may be integrated in one housing.
  • the evaluation system 1 does not include the model generation unit 2, the environment generation unit 3, the database 4, the information terminal 5 and the display device 6 as constituent elements.
  • the model generation unit 2, the environment generation unit 3, the database 4, the information terminal 5, and the display device 6 may be included in the components of the evaluation system 1.
  • the evaluation system 1 may include a model generation unit 2 and an environment generation unit 3.
  • the input unit 17 may be configured to receive the input signal input according to the operation of the user II 1, and it is not essential to receive the input signal input generated by the information terminal 5.
  • the input unit 17 may accept an input signal input from an input device such as a touch panel display, a keyboard, a pointing device, or a voice input.
  • the environmental information port 2 is a human model. Not only the temperature and lighting that can affect 1), but in addition to or instead of at least one of temperature and lighting, sound (including machine operation sound, voice and noise, etc.), odor, air quality, etc. May contain one or more of these elements. For example, if the environmental information port 2 includes information about “sound” that can affect the human model 1, the virtual equipment ⁇ 02020/174886 24 ((171?2020/000419
  • V V 1 to V 3 there is equipment equivalent to a TV receiver, speaker, etc. that adjusts (including generation of) “sound”.
  • both the model information port 1 and the environment information 0 2 are dynamic information that changes over time.
  • Either one of the information ports 2 may be static information that does not change over time.
  • both the model information port 1 and the environment information 0 2 may be static information that does not change over time.
  • the evaluation result of the evaluation unit 13 is not limited to the configuration presented to the user II 1 by the presentation unit 14 and may be output in a mode other than the presentation to the user II 1.
  • a mode of output other than the presentation to the user 1) there are means such as output by communication (including output as verbal data), writing to a non-transitory recording medium, and printout.
  • the manner of presentation to the user II 1 by the presentation unit 14 is not limited to the display, and for example, transmission to the information terminal 5, sound (including voice and alarm sound, etc.), optical output ( (Including blinking) and printing out.
  • the presentation screen I 1 displayed by the presentation unit 14 need only include the augmented reality area 1, and may further include a display area other than the augmented reality area 1. That is, the presentation screen 1 may include an augmented reality area 1 for displaying an augmented reality display and an area for performing a normal display that is not an augmented reality display.
  • the display device 6 is a head mount display, but the present invention is not limited to this example, and the display device 6 may be, for example, a smartphone or a tablet terminal. Even in this case, for example, with the camera of the display device 6,
  • the augmented reality display may be realized by capturing 1 and superimposing the obtained human space 1 to 1 IV! 1 on the obtained image of the physical space 31. That is, the presentation screen It suffices if the “image” includes the augmented reality region 1 in which the human models 1 to 1 IV! 1 are superimposed and displayed. Moreover, the presentation screen 1 does not include the augmented reality region 1. ⁇ 02020/174886 25 ⁇ (: 171?2020/000419
  • the evaluation system 1 is different from the first embodiment in that a plurality of human models 1 to 1 IV! 1 and 1 to 1 IV! 2 are arranged in the virtual space 31. It differs from the evaluation system 1 concerned.
  • the same components as those in the first embodiment will be designated by the same reference numerals and the description thereof will be appropriately omitted.
  • One human model, 1-1 ⁇ IV! 1, is a virtual space It is placed in an upright position at a coordinate position near the center of 1.
  • the other human model is placed in a sitting position near the wall of virtual space 31.
  • the acquisition unit 11 can acquire the model information port 1. Then, the evaluation system 1 uses multiple human models like this. Based on the model information port 1 and the environmental information port 2 individually acquired for each of the and, the evaluation unit 13 evaluates the state (for example, comfort).
  • the evaluation result in this case is It is preferable that each of 1 to 1 IV! 2 is presented in a distinguishable manner.
  • the environmental information port 2 is a plurality of human models.
  • Mutual information is included as information about the environment that can exert a specific action on the first model consisting of one of the human models.
  • Mutual information is based on multiple human models At least one Human model other than the first of 1 to 1 IV! 2 Is information related to. For example, ⁇ 02020/174886 26 ⁇ (: 171?2020/000419
  • Man model We assume that one of the human models 1 ⁇ 1 IV! 1 is the first model.
  • the first model (human model 1)
  • Mutual information related to Human models 1 to 1 IV! 2 other than the first model is included in the environmental information section 2 as information on the environment that can exert a specific effect on 1).
  • environmental information 2 is the first model (human model).
  • environmental information 2 is the first model (human model).
  • Such interaction is reproduced by including mutual information related to the human models 1 to 1 IV! 2 other than the first model as information that can exert a specific effect on the interaction.
  • the human model When the environment that exerts a specific action on is "temperature", the human model The heat generated from the first model (human model) 1) can have a specific effect on. Therefore,
  • the first model (human model) By including it in the environmental information section 2 used for the evaluation of 1), the human model Interactions between each other can be included in the evaluation performed by the evaluation section 13.
  • the evaluation system 1 becomes a human model.
  • the human model 1 is assumed to be the first model, but the Human model 1 to 1 IV! 2 may be used as the first model.
  • the mutual information related to the human models 1 to 1 IV! 1 other than the first model is the information about the environment that may exert a specific action on the first model (human model 1 to 1 IV! 2).
  • the environmental information outlet 2 includes mutual information, and the environmental information outlet 2 may not include mutual information.
  • a plurality of human models are included in the virtual space V31. ⁇ 02020/174886 27 ⁇ (: 171?2020/000419
  • 1 to 1 IV! 2 may be arranged, for example, three or more human models 1 to 1 IV! 1 may be arranged in the virtual space V 31.
  • the evaluation system (1) includes the first acquisition unit (11), the second acquisition unit (1 2), and the evaluation unit (1 3).
  • the first acquisition unit (11) acquires model information (mouth 1).
  • Model information (mouth 1) is a human model placed in virtual space (31) This is information related to. Human model Is a person's model de evening.
  • the second acquisition unit (1 2) acquires environmental information (0 2).
  • Environmental information (Mouth 2) is associated with the virtual space (3 1). It is information about the environment that can have a specific effect on.
  • the evaluation unit (1 3) uses the human model based on the model information (mouth 1) and the environmental information (mouth 2). Evaluate the state of.
  • the human model is associated with the virtual space (3 1) for the evaluation of the state of 1 ,1 ⁇ 1 IV! 2).
  • 1 ,1 ⁇ 1 IV! 2) reflects the environment that can exert a specific action.
  • various environments such as temperature (heat) and lighting (light) have a specific effect on a person who is actually present in the real space ([3 ⁇ 4 3 1]).
  • the evaluation system (1) uses the human model (1 ⁇ 1 By applying it to the virtual space (3 1) where is placed, the human model The state of can be evaluated.
  • the human model There is an advantage that it is possible to improve the accuracy of evaluation of the state of.
  • At least one of the model information (mouth 1) and the environmental information (mouth 2) changes with time. ⁇ 02020/174886 28 ⁇ (: 171?2020/000419
  • the state of the human model (1 to 1 IV! 1, 1 to 1 IV! 2) can be evaluated based on the dynamic information that changes with time.
  • the evaluation system (1) according to the third aspect further includes a presenting unit (14) in the first or second aspect.
  • the presentation unit (1 4) presents the evaluation result of the evaluation unit (1 3) to the user (II 1).
  • the user (111) can use the evaluation result for, for example, designing a facility, reforming the facility, evaluating the facility, marketing in the building industry, and technical research and technological development. ..
  • the presentation unit (1 4) represents the evaluation result of the evaluation unit (1 3) and the human model (1 to 1 IV ! 1,
  • the evaluation result of the evaluation section (1 3) is presented by displaying the presentation screen (1) that includes.
  • the presentation unit (1 4) displays the human model in the presentation screen (1) according to the evaluation result of the evaluation unit (1 3).
  • the display mode of is changed.
  • the user (111) is a human model
  • the presentation screen ([1]) includes the augmented reality region ([3 ⁇ 41).
  • Augmented reality region ([3 ⁇ 4 1) is the real space seen by the user (II 1).
  • real space Image of human model Is an area for overlapping and displaying.
  • the user (II 1) is 1) Like a real person, a human model Can be seen. Therefore, the evaluation system (1) is a human model. It is possible to present to the user (II 1) more realistically the evaluation results of this condition.
  • the human model is set in the virtual space (31). Is compound ⁇ 02020/174886 29 ⁇ (: 171?2020/000419
  • the first acquisition unit (1 1) consists of multiple human models.
  • Model information (Mouth 1) can be obtained for each of the above.
  • a plurality of human models About, the state can be evaluated collectively.
  • the environmental information is the mutual information as the information about the environment that may exert a specific action on the first model.
  • the first model is multiple human models Human model of 1 of Consists of.
  • Mutual information consists of multiple human models At least one human model other than the first model of Is information related to.
  • the interaction between humans which can occur when a plurality of people exist in one space, is calculated by the human model. It can be reproduced in the evaluation of the condition.
  • the model information (mouth 1) is a human model. Includes attribute information unique to.
  • the evaluation unit (1 3) uses the human model according to the attribute information. Change the evaluation of the state of.
  • human-specific conditions such as age, sex, body type, hobbies and preferences, height, weight, sex, presence/absence of disability, location of disability, activity level, and clothing level of the human model are Can be reflected in the evaluation of the state of.
  • the environmental information is the human model in the virtual space (31). Includes information about the environment of the surrounding area (81) set around the.
  • the human model 1 ,1 ⁇ 1 IV! 2 The environment of the surrounding area (8 1) that has a large effect on human model It can be reflected in the evaluation of the condition. ⁇ 02020/174886 30 ((171?2020/000419
  • the environmental information is a human model. Contains information about the environment resulting from the elements emitted by.
  • the human model describes the impact of itself on the environment. Can be reflected in the evaluation of the state of.
  • the environmental information is a human model. Includes information about temperature and/or lighting that can affect
  • At least one of the temperature and the illumination that easily exerts a specific action on a person is calculated by the human model. Can be reflected in the evaluation of the state of.
  • an adjustment unit (15) determines at least one of the number and the arrangement of the virtual equipment ( ⁇ M 1 to M 3) for adjusting the environment corresponding to the environmental information (0 2) in the virtual space (1).
  • a space design support system includes an evaluation system (1) according to the fourth or fifth aspect, and a display device (6).
  • the presentation unit (1 4) displays the presentation screen (1) on the display device (6).
  • the human model 1 ,1 ⁇ 1 IV! 2 There is an advantage that the accuracy of the evaluation of the state can be improved.
  • the virtual space (31) is a space simulating a real space.
  • the presentation unit (1 4) is a human model in the virtual space (3 1). Display the presentation screen (I ⁇ ! 1) according to the evaluation result of the state on the display device (6). ⁇ 02020/174886 31 ((171?2020/000419
  • the user (111) is a human model
  • the evaluation method includes a first acquisition step, a second acquisition step, and an evaluation step.
  • the first acquisition step is the step of acquiring the model information (mouth 1).
  • Model information (Mouth 1) is stored in virtual space (31) Is information about. Huh Data.
  • the second acquisition step is the step of acquiring the environmental information (mouth 2).
  • the environmental information (mouth 2) is associated with the virtual space (31) and is a human model. , Is information about the environment that can exert a specific action on.
  • the evaluation step is based on the model information (Mouth 1) and the environmental information (Mouth 2). Is a step of evaluating the state of.
  • the human model is associated with the virtual space (31) to evaluate the state of 1, 1 ⁇ 1 IV! 2).
  • 1 ,1 ⁇ 1 IV! 2) reflects the environment that can exert a specific action.
  • various environments such as temperature (heat) and lighting (light) have a specific effect on a person who actually exists in the real space ([3 ⁇ 431).
  • the human model By applying it even in the virtual space (31) where 1 and are arranged, the human model can be made in a form closer to that of a real “person”. Can evaluate the state of.
  • the human model There is an advantage that it is possible to improve the accuracy of evaluation of the state of.
  • a program according to a sixteenth aspect is a program for causing one or more processors to execute the evaluation method according to the fifteenth aspect.
  • the evaluation of the states of the human model 1, 1 to 1 IV! 2) is associated with the virtual space (31), and the human model 1, ! ⁇ 02020/174886 32 ((171?2020/000419
  • IV! 2 is reflected in the environment that may have a specific effect on.
  • various environments such as temperature (heat) and lighting (light) have a specific effect on a person who is actually present in the real space ([3 ⁇ 4 3 1]).
  • the human model By applying it to the virtual space (3 1) in which the and are arranged, the human model The state of can be evaluated. As a result, the human model There is an advantage that it is possible to improve the accuracy of evaluation of the state of.
  • various configurations (including modified examples) of the evaluation system (1) according to the first and second embodiments can be embodied by an evaluation method or a program.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Air Conditioning Control Device (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

ヒューマンモデルの状態の評価の精度の向上を図ることが可能な評価システム、空間の設計支援システム、評価方法及びプログラムを提供する。評価システム(1)は、第1取得部(11)と、第2取得部(12)と、評価部(13)と、を備える。第1取得部(11)は、モデル情報(D1)を取得する。モデル情報(D1)は、仮想空間に配置される人のモデルデータからなるヒューマンモデルに関する情報である。第2取得部(12)は、環境情報(D2)を取得する。環境情報(D2)は、仮想空間に対応付けられておりヒューマンモデルに対して特定の作用を及ぼし得る環境に関する情報である。評価部(13)は、モデル情報(D1)と環境情報(D2)とに基づいて、ヒューマンモデルの状態を評価する。

Description

\¥0 2020/174886 1 ?<:17 2020 /000419 明 細 書
発明の名称 :
評価システム、 空間の設計支援システム、 評価方法及びプログラム
技術分野
[0001 ] 本開示は、 一般に評価システム、 空間の設計支援システム、 評価方法及び プログラムに関し、 より詳細には、 人のモデルデータからなるヒューマンモ デルの状態の評価を行うための評価システム、 空間の設計支援システム、 評 価方法及びプログラムに関する。
背景技術
[0002] 特許文献 1 には、 仮想空間に設けたヒューマンモデルであるデジタルヒュ —マンにより物品の仮想モデルを使用する動きのシミュレーションを仮想空 間において行う物品設計支援装置が記載されている。
[0003] 特許文献 1 においては、 物品の仮想モデルを使用する際のヒューマンモデ ルの動きの種類を指定し、 ヒューマンモデルが指定された動きを行う際の、 ヒューマンモデルの着目部位に作用する負荷を算出する。 算出された負荷は 、 モニタ装置に表示される。
先行技術文献
特許文献
[0004] 特許文献 1 :特開 2 0 1 3 _ 1 2 7 6 5 4号公報
発明の概要
[0005] 上述したようなヒューマンモデルを用いた評価については、 より人 (人体 ) に近い評価を得ること、 つまりヒューマンモデルの状態の評価の精度の向 上を図ることが望まれる。
[0006] 本開示は上記事由に鑑みてなされ、 ヒューマンモデルの状態の評価の精度 の向上を図ることが可能な評価システム、 空間の設計支援システム、 評価方 法及びプログラムを提供することを目的とする。
[0007] 本開示の一態様に係る評価システムは、 第 1取得部と、 第 2取得部と、 評 \¥02020/174886 2 卩(:171?2020/000419
価部と、 を備える。 前記第 1取得部は、 モデル情報を取得する。 前記モデル 情報は、 仮想空間に配置されるヒューマンモデルに関する情報である。 前記 ヒューマンモデルは、 人のモデルデータからなる。 前記第 2取得部は、 環境 情報を取得する。 前記環境情報は、 前記仮想空間に対応付けられており前記 ヒューマンモデルに対して特定の作用を及ぼし得る環境に関する情報である 。 前記評価部は、 前記モデル情報と前記環境情報とに基づいて、 前記ヒュー マンモデルの状態を評価する。
[0008] 本開示の一態様に係る空間の設計支援システムは、 前記評価システムと、 表示装置と、 を備える。 前記提示部は、 前記評価部の評価結果を表し、 かつ 前記ヒューマンモデルを含む提示画面を、 前記表示装置に表示させる。
[0009] 本開示の一態様に係る評価方法は、 第 1取得ステップと、 第 2取得ステッ プと、 評価ステップと、 を有する。 前記第 1取得ステップは、 モデル情報を 取得するステップである。 前記モデル情報は、 仮想空間に配置されるヒュー マンモデルに関する情報である。 前記ヒューマンモデルは、 人のモデルデー 夕からなる。 前記第 2取得ステップは、 環境情報を取得するステップである 。 前記環境情報は、 前記仮想空間に対応付けられており前記ヒューマンモデ ルに対して特定の作用を及ぼし得る環境に関する情報である。 前記評価ステ ップは、 前記モデル情報と前記環境情報とに基づいて、 前記ヒューマンモデ ルの状態を評価するステップである。
[0010] 本開示の一態様に係るプログラムは、 前記評価方法を、 1以上のプロセッ サに実行させるためのプログラムである。
図面の簡単な説明
[001 1] [図 1]図 1は、 実施形態 1 に係る評価システムで用いる仮想空間を模式的に表 す概念図である。
[図 2]図 2は、 同上の評価システムの概略構成を示すブロック図である。
[図 3]図 3は、 同上の評価システムの動作例を示すフローチヤートである。
[図 4]図 4は、 同上の評価システムの具体動作例を示し、 仮想空間を模式的に 表す概念図である。 \¥02020/174886 3 卩(:171?2020/000419
[図 5]図 5は、 同上の評価システムの使用例を示す現実空間を模式的に表す概 念図である。
[図 6]図 6は、 同上の評価システムの具体動作例を示し、 仮想空間を模式的に 表す概念図である。
[図 7]図 7は、 実施形態 2に係る評価システムで用いる仮想空間を模式的に表 す概念図である。
発明を実施するための形態
[0012] (実施形態 1)
(1) 概要
本実施形態に係る評価システム 1の概要について、 図 1及び図 2を参照し て説明する。
[0013] 評価システム 1は、 ヒューマンモデル
Figure imgf000005_0001
1の状態の評価を行うためのシ ステムである。 本開示でいう 「ヒューマンモデル」 は、 1以上のプロセッサ で処理可能なデータからなり、 一例として、 図 1 に示すように、 現実空間で の人を摸した仮想的なモデルであって、 仮想空間 V 3 1 に配置される。 本開 示でいう 「仮想空間」 は、 1以上のプロセッサで処理可能なデータからなり 、 現実空間を模擬してコンピュータシステムにて再現される仮想的な空間で ある。 一例として、 仮想空間 V 3 1は、 実在する特定の室内を模した空間で ある。 つまり、 仮想空間 V 3 1は、 現実空間 (実空間) に実在するわけでは なく、 実体を伴わない。 また、 ヒューマンモデル 1~1 IV! 1は、 このような仮想
1 に存在するように設定された仮想的なモデルであって、 現実空間 (実空間) に実在するわけではなく、 実体を伴わない。
[0014] このような評価システム 1で得られる評価結果は、 例えば、 施設 (建物を 含む) の設計、 施設のリフォーム、 施設の評価、 建築業界のマーケティング 、 並びに技術調査及び技術開発等に利用可能である。 すなわち、 仮想空間 V 3 1 に配置するヒューマンモデル 1の状態を評価することで、 その評価 結果を、 例えば、 施設の空間設計及び設備設計等に利用することができる。 これにより、 施設の空間設計及び設備設計等が容易になる。 本開示でいう 「 リフォーム」 は、 経年劣化等により劣化した施設の修繕だけでなく、 施設に 新たな機能を追加したり、 使い勝手を向上したりするために行うリノべーシ ヨン (renovat i on) を含んでいる。 本開示でいう 「リフォーム」 には、 一例 として、 設備の交換、 設備の追加、 間取りの変更及び模様替え等が含まれて いる。
[0015] 本実施形態に係る評価システム 1は、 図 2に示すように、 第 1取得部 1 1 と、 第 2取得部 1 2と、 評価部 1 3と、 を備えている。 第 1取得部 1 1は、 モデル情報 D 1 を取得する。 モデル情報 D 1は、 仮想空間 V S 1 に配置され るヒューマンモデル H M 1 に関する情報である。 ヒューマンモデル H M 1は 、 人のモデルデータからなる。 第 2取得部 1 2は、 環境情報 D 2を取得する 。 環境情報 D 2は、 仮想空間 V S 1 に対応付けられておりヒューマンモデル H M 1 に対して特定の作用を及ぼし得る環境に関する情報である。 評価部 1 3は、 モデル情報 D 1 と環境情報 D 2とに基づいて、 ヒューマンモデル H M 1の状態を評価する。
[0016] すなわち、 本実施形態に係る評価システム 1では、 ヒューマンモデル H M
1の状態の評価に、 仮想空間 V S 1 に対応付けられておりヒューマンモデル H M 1 に対して特定の作用を及ぼし得る環境が反映される。 例えば、 現実空 間 (実空間) においては、 温度 (熱) 及び照明 (光) といった様々な環境が 、 現実空間に実在する人に対して特定の作用を及ぼす。 そして、 環境が人に 及ぼす作用により、 例えば、 人の快適性等が変化する。 評価システム 1では 、 このような環境を加味した評価を、 ヒューマンモデル H M 1が配置される 仮想空間 V S 1 においても適用することで、 現実の 「人」 により近い形で、 ヒューマンモデル H M 1の状態を評価できる。 結果的に、 ヒューマンモデル H M 1の状態の評価の精度の向上を図ることが可能である、 という利点があ る。
[0017] (2) 詳細
以下、 本実施形態に係る評価システム 1の構成について、 図 1及び図 2を 参照して詳しく説明する。 \¥02020/174886 5 卩(:171?2020/000419
[0018] (2 . 1) 前提
以下では、 評価システム 1の評価結果が、 施設 (建物を含む) の設計に利 用される場合を想定する。 本開示でいう 「施設」 は、 オフィス、 工場、 ビル 、 店舗、 学校、 福祉施設又は病院等の非住宅施設、 及び戸建住宅、 集合住宅 、 又は集合住宅の各住戸等の住宅施設を含む。 非住宅施設には、 劇場、 映画 館、 公会堂、 遊技場、 複合施設、 飲食店、 百貨店、 ホテル、 旅館、 幼稚園、 図書館、 博物館、 美術館、 地下街、 駅及び空港等も含む。 さらには、 本開示 でいう 「施設」 には、 建物 (建造物) だけでなく、 球場、 庭、 駐車場、 グラ ンド及び公園等の屋外施設を含む。
[0019] 本実施形態では特に、 施設であるオフィスとして利用される室内の設計に 、 評価システム 1の評価結果が利用される場合を例として説明する。 よって 、 本実施形態では、 評価システム 1は、 施設 (ここではオフィス) に相当す る仮想空間 V 3 1 に配置されるヒューマンモデル 1~1 IV! 1 について評価を行う 。 ここで、 仮想空間 V 3 1は、 施設 (ここではオフィス) の内部空間 (室内 空間) を摸した空間、 つまり施設を仮想的に再現した空間である。
[0020] また、 本開示でいうヒューマンモデル 1~1 IV! 1の 「状態」 は、 ヒューマンモ デル
Figure imgf000007_0001
を現実の 「人」 と置き換えた場合における、 「人」 の精神的又は 身体的な状態を意味する。 本開示でいう 「状態」 は、 例えば、 快適性 (快適 度及び不快度を含む) 、 身体の各部への負荷 (負担) 、 及び健康状態等を含 む。 本実施形態では一例として、 「快適性」 を、 ヒューマンモデル
Figure imgf000007_0002
の 状態として評価の対象とする。
[0021 ] また、 本開示でいう 「環境」 は、 現実空間 (実空間) に実在する人に対し て特定の作用を及ぼし得る要素 (事物) を意味する。 一例として、 「環境」 は、 温度 (熱) 、 照明 (光) 、 音、 匂い及び空気質等のうちの 1以上の要素 を含む。 環境は、 例えば、 温度及び照明のように、 複数の要素の組み合わせ も含む。
[0022] また、 本開示でいう 「特定の作用」 は、 上述したような環境により、 現実 空間 (実空間) に実在する人に対して、 物理的な変化を生じさせたり、 何ら \¥02020/174886 6 卩(:171?2020/000419
かの感覚又は刺激等を与えたりすることを意味する。 一例として、 現実空間 における温度 (熱) といった環境は、 現実空間に実在する人に対して、 皮膚 の温度変化を生じさせたり、 暑い又は寒いといった感覚を与えたりすること で、 人に対して特定の作用を及ぼし得る。
[0023] (2 . 2) 構成
本実施形態に係る評価システム 1は、 上述した通り、 第 1取得部 1 1 と、 第 2取得部 1 2と、 評価部 1 3と、 を備えている。 また、 本実施形態では、 評価システム 1は、 図 2に示すように、 第 1取得部 1 1、 第 2取得部 1 2及 び評価部 1 3に加えて、 提示部 1 4及び調整部 1 5を更に備えている。
[0024] さらに、 本実施形態では、 評価システム 1は、 モデル生成部 2、 環境生成 部 3、 データべース 4、 情報端末 5及び表示装置 6の各々と、 通信可能に構 成されている。 本開示でいう 「通信可能」 とは、 有線通信又は無線通信の適 宜の通信方式により、 直接的、 又はネッ トワーク若しくは中継器等を介して 間接的に、 信号を授受できることを意味する。 すなわち、 評価システム 1は 、 モデル生成部 2、 環境生成部 3、 データべース 4、 情報端末 5及び表示装 置 6の各々との間で、 互いに信号を授受することができる。
[0025] 本実施形態では一例として、 評価システム 1は、 1以上のプロセッサ及び
1以上のメモリを有するコンビュータシステム (サーバ、 クラウドコンピュ —ティングを含む) を主構成とする。 プロセッサは、 メモリに記録されてい るプログラムを実行することにより、 評価システム 1の機能を実現する。 プ ログラムは、 予めメモリに記録されていてもよいし、 メモリカードのような 非一時的記録媒体に記録されて提供されたり、 電気通信回線を通して提供さ れたりしてもよい。 言い換えれば、 上記プログラムは、 1以上のプロセッサ を、 評価システム 1 として機能させるためのプログラムである。
[0026] 第 1取得部 1 1は、 上述したように、 モデル情報口 1 を取得する。 モデル 情報口 1は、 上述したように、 仮想空間 V 3 1 に配置されるヒューマンモデ ル1~1 1\/1 1 に関する情報である。 ヒューマンモデル
Figure imgf000008_0001
1は、 人のモデルデー 夕からなる。 本実施形態では、 仮想空間 V 3 1は、 施設としてのオフィスの \¥02020/174886 7 卩(:171?2020/000419
内部空間 (室内空間) を仮想的に再現した空間であるので、 ヒューマンモデ ル1~1 1\/1 1は、 施設としてのオフィスの内部空間に存在する 「人」 を仮想的に 再現したモデルである。
[0027] 第 2取得部 1 2は、 上述したように、 環境情報口 2を取得する。 環境情報 口 2は、 上述したように、 仮想空間 V 3 1 に対応付けられており、 かつヒュ —マンモデル 1~1 IV! 1 に対して特定の作用を及ぼし得る環境に関する情報であ る。 本実施形態では、 環境情報口 2は、 施設としてのオフィスの内部空間 ( 室内空間) を仮想的に再現した仮想空間 V 3 1 において、 ヒューマンモデル に対して特定の作用を及ぼし得る環境に関する情報である。 本実施形 態では一例として、 環境情報口 2は、 ヒューマンモデル
Figure imgf000009_0001
1 に対して作用 を及ぼし得る温度及び照明の少なくとも一方に関する情報を含むことと仮定 する。 また、 環境情報口 2は、 ヒューマンモデル
Figure imgf000009_0002
1から発せられる要素 (例えば熱) に起因する環境に関する情報を含むことと仮定する。
[0028] 評価部 1 3は、 上述したように、 モデル情報口 1 と環境情報口 2とに基づ いて、 ヒューマンモデル
Figure imgf000009_0003
1の状態を評価する。 本実施形態では、 一例と して、 評価部 1 3にて評価されるヒューマンモデル 1~1 IV! 1の状態は 「快適性 」 である。 つまり、 評価部 1 3は、 ヒューマンモデル
Figure imgf000009_0004
を現実の 「人」 と置き換えた場合における、 「人」 の快適性を、 モデル情報口 1 と環境情報 口 2とに基づいて評価する。 状態 (快適性) の評価について詳しくは、 「 ( 3) 動作」 の欄で説明する。
[0029] 提示部 1 4は、 評価部 1 3の評価結果をユーザ II 1 (図 5参照) に提示す る。 本実施形態では、 提示部 1 4は、 評価部 1 3の評価結果を、 表示装置 6 に表示することによって、 ユーザ II 1への提示を実現する。 具体的には、 提 示部 1 4は、 定期的に、 不定期に、 又は表示装置 6からの要求への応答とし て、 評価部 1 3の評価結果を表す結果情報を表示装置 6に送信することで、 表示装置 6に評価部 1 3の評価結果を表示する。
[0030] 本実施形態では、 提示部 1 4は、 評価部 1 3の評価結果を表し、 かつヒュ
—マンモデル ! ! IV! 1 を含む提示画面丨 1 (図 5参照) を表示する。 本開示 でいう提示画面丨 m 1等の 「画面」 は、 表示装置 6に映し出される像 (テキ スト、 グラフ及びアイコン等を含む) である。 つまり、 提示部 1 4によって 、 表示装置 6には、 評価部 1 3の評価結果を表す提示画面 I m 1が表示され る。 そして、 この提示画面丨 m 1 には、 ヒューマンモデル H M 1が含まれて いる。
[0031 ] ここで、 提示部 1 4は、 評価部 1 3の評価結果に応じて提示画面 I m 1 に おけるヒューマンモデル H M 1の表示態様を変化させるように構成されてい る。 本開示でいう 「表示態様」 は、 表示の色、 動き (変形を含む) 、 明るさ (輝度を含む) 、 線種 (線の太さ及び実線/破線等を含む) 及び形状等を含 む。 つまり、 提示画面丨 m 1 に含まれているヒューマンモデル H M 1の表示 態様 (色等) は、 評価部 1 3の評価結果に応じて変化する。
[0032] さらに、 本実施形態では、 提示画面丨 m 1は、 ユーザ U 1の目に映る現実 空間又は現実空間の画像に、 ヒューマンモデル H M 1 を重ねて表示する拡張 現実領域 R 1 (図 5参照) を含む。 すなわち、 提示部 1 4は、 提示画面丨 m 1のうち、 少なくともヒューマンモデル H M 1 については、 現実空間 (又は 現実空間の画像) に重畳させて表示することにより、 いわゆる拡張現実 ( A R : Augmented Rea l i ty) 表示を実現する。 提示画面丨 m 1 について詳しくは 、 「 (3) 動作」 の欄で説明する。
[0033] 調整部 1 5は、 仮想設備 V E 1〜 V E 3 (図 1参照) の仮想空間 V S 1 に おける個数及び配置の少なくとも一方を決定する。 仮想設備 V E 1〜 V E 3 は、 環境情報 D 2に対応する環境を調整する。 ここで、 仮想設備 V E 1〜 V E 3の個数は、 0個以上、 所定の上限値 (例えば 1 0 0個) 以下の範囲で任 意に設定可能である。 また、 仮想設備 V E 1〜 V E 3の配置については、 仮 想空間 V S 1 における任意の座標位置、 かつ任意の向きを設定可能である。
[0034] 仮想設備 V E 1〜 V E 3は、 ヒューマンモデル H M 1 と同様に、 1以上の プロセッサで処理可能なデータからなり、 仮想空間 V S 1 に配置される設備 を摸した仮想的なモデルである。 つまり、 仮想設備 V E 1〜 V E 3は、 仮想 空間 V S 1 に存在するように設定された仮想的なモデルであって、 現実空間 (実空間) に実在するわけではなく、 実体を伴わない。 ここでいう 「設備」 は、 環境の形成に寄与する設備 (機器、 器具、 装置及びシステムを含む) で あって、 据置型/可搬型のいずれであってもよい。 仮想設備 V E 1〜 V E 3 は、 一例として、 環境の一要素である 「温度」 を調整 (発生を含む) する空 調設備、 ヒータ及び換気窓等、 又は環境の一要素である 「照明」 を調整 (発 生を含む) する照明設備及び採光窓等の設備に相当する。
[0035] また、 本実施形態では、 評価システム 1は、 通信部 1 6、 入力部 1 7及び 記憶部 1 8等を更に備える。
[0036] 通信部 1 6は、 モデル生成部 2、 環境生成部 3、 データべース 4、 情報端 末 5及び表示装置 6の各々との通信機能を有する。 通信部 1 6は、 モデル生 成部 2、 環境生成部 3、 データべース 4、 情報端末 5及び表示装置 6の各々 との間で、 例えば、 ネッ トワークを介して双方向の通信が可能である。
[0037] 入力部 1 7は、 ユーザ U 1の操作に応じた入力信号の入力を受け付ける。
すなわち、 評価システム 1は、 ユーザ U 1の操作を受け付けることが可能で ある。 入力部 1 7は、 一例として、 情報端末 5で発生する入力信号の入力を 受け付ける。
[0038] 記憶部 1 8は、 例えば、 第 1取得部 1 1が取得したモデル情報 D 1、 及び 第 2取得部 1 2が取得した環境情報 D 2等を記憶する。 また、 記憶部 1 8は 、 評価部 1 3等での演算に必要な情報等を更に記憶する。 記憶部 1 8は、 E E P R O M (E lect r i ca l ly Erasab le Prog rammab le Read-On ly Memory) のよ うな書き換え可能な不揮発性メモリを含む。
[0039] モデル生成部 2は、 モデル情報 D 1 を生成する。 モデル生成部 2は、 生成 したモデル情報 D 1 を、 評価システム 1 (第 1取得部 1 1) に対して、 定期 的に、 不定期に、 又は評価システム 1からの要求への応答として出力する。 モデル生成部 2は、 予め生成されている複数種類のモデル情報 D 1の中から 、 任意のモデル情報 D 1 を選択して、 評価システム 1 に出力してもよい。 モ デル情報 D 1は、 少なくともヒューマンモデル H M 1が人体を模した形状を 成すための情報を含んでいる。 ここで、 モデル情報 D 1は、 例えば、 頭部、 \¥02020/174886 10 卩(:171?2020/000419
胸部、 腹部、 脚部及び腕部等の部位ごとの情報、 目、 耳、 鼻及び口等の器官 ごとの情報を含んでいる。 さらに、 モデル情報口 1は、 骨、 筋肉、 血液及び 皮膚等の組織ごとの情報を含んでいる。
[0040] さらに、 ヒューマンモデル
Figure imgf000012_0001
1は、 人体と同様又は人体を簡素化した形 の骨格及び関節を有しており、 人体と同様に、 動作を行うことが可能である 。 そのため、 ヒューマンモデル
Figure imgf000012_0002
1 については、 例えば、 立位及び座位等 の姿勢を指定したり、 歩行、 腕上げ、 物品の把持等の動作 (行動) を指定し たりすることが可能である。 これらのヒューマンモデル 1~1 IV! 1の姿勢及び動 作等に関する情報も、 モデル情報口 1 に含まれている。
[0041 ] また、 本実施形態では、 モデル情報口 1は、 ヒューマンモデル
Figure imgf000012_0003
1 に固 有の属性情報を含んでいる。 属性情報は、 ヒューマンモデル
Figure imgf000012_0004
1が摸して いる 「人」 の年齢 (又は年齢層) 、 性別、 体型 (肥満度等を含む) 、 趣味嗜 好 (暑がり/寒がり等を含む) 、 身長、 体重、 性別、 障害の有無、 障害の箇 所、 活動量 (心拍数を含む) 及び衣類レベル等を表す情報である。 つまり、 ヒューマンモデル
Figure imgf000012_0005
1は、 その属性情報によって、 一例として、 2 0代の 「暑がり」 の男性を模したモデル、 6 0代の 「寒がり」 の女性を模したモデ ルに分類され得る。 例えば、 年齢、 性別及び体型等によれば、 ヒューマンモ デル 1~1 IV! 1の手が届く範囲、 及び関節の可動域等が規定される。 詳しくは 「 (3) 動作」 の欄で説明するが、 評価部 1 3は、 属性情報に応じてヒューマ ンモデル 1~1 IV! 1の状態の評価を変える。 つまり、 評価部 1 3の評価結果は、 モデル情報口 1の属性情報に応じて変化する。
[0042] 環境生成部 3は、 環境情報口 2を生成する。 環境生成部 3は、 生成した環 境情報 0 2を、 評価システム 1 (第 2取得部 1 2) に対して、 定期的に、 不 定期に、 又は評価システム 1からの要求への応答として出力する。 環境生成 部 3は、 予め生成されている複数種類の環境情報口 2の中から、 任意の環境 情報 0 2を選択して、 評価システム 1 に出力してもよい。 環境情報口 2は、 少なくとも仮想空間 V 3 1が施設 (ここではオフィス) の内部空間 (室内空 間) を摸した形状を成すための情報を含んでいる。 一例として、 環境情報口 2は、 B I M (Bu i ld i ng Informat i on Mode l i ng) 等の三次元データを含んで いる。 ここで、 環境情報 D 2は、 例えば、 床、 壁及び天井等の部位ごとの情 報、 並びに属性及び材質等に関する情報を含んでいる。
[0043] さらに、 環境情報 D 2は、 仮想空間 V S 1 に配置すべき仮想設備 V E 1〜 V E 3に関する情報を含んでいる。 つまり、 仮想空間 V S 1 に相当する施設 (ここではオフィス) に環境を調整する設備が設置 (導入) されている場合 、 この設備に相当する仮想設備 V E 1〜 V E 3に関する情報が、 環境情報 D 2に含まれる。 仮想設備 V E 1〜 V E 3に関する情報は、 仮想設備 V E 1〜 V E 3の種別 (空調設備/照明設備等) 、 個数及び配置 (仮想空間 V S 1 に おける座標位置及び向き) 等の情報である。 環境情報 D 2について詳しくは 、 「 (3) 動作」 の欄で説明する。
[0044] ところで、 本実施形態では、 モデル情報 D 1 と環境情報 D 2との少なくと も一方は、 時間経過に伴って変化する。 すなわち、 モデル生成部 2で生成さ れるモデル情報 D 1 と、 環境生成部 3で生成される環境情報 D 2と、 の少な くとも一方は、 静的な情報ではなく、 動的な情報である。 本実施形態では一 例として、 モデル情報 D 1 と環境情報 D 2との両方が、 時間経過に伴って変 化する動的な情報であることと仮定する。 モデル情報 D 1及び環境情報 D 2 の各々の更新は、 例えば、 機械学習等を利用して、 自動的に行われることが 好ましい。 一例として、 環境情報 D 2については、 仮想空間 V S 1 に相当す る施設 (ここではオフィス) における日射量及び外気温等は、 時々刻々と変 化するので、 この変化を追従するように、 環境情報 D 2が変化することが好 ましい。
[0045] データべース 4は、 主として評価部 1 3での評価に用いられる情報を格納 する。 一例として、 データべース 4は、 施設 (建物を含む) が人に及ぼす影 響についての評価指数等の情報を、 空気質 (A i r) 、 温度 (Temp) 、 照明 (L i ght) 、 及び音 (Sound) の各々について格納している。 これにより、 データ ベース 4は、 評価システム 1からの要求信号を受けると、 要求信号に応じた 照合結果を評価システム 1 に出力する。 データべース 4に格納されている情 報は、 モデル情報 D 1及び環境情報 D 2とは異なり、 時間経過に伴って変化 しない静的な情報である。
[0046] 情報端末 5は、 1以上のプロセッサ及び 1以上のメモリを有するコンピュ —タシステムを主構成とする。 プロセッサは、 メモリに記録されているプロ グラムを実行することにより、 情報端末 5の機能を実現する。 プログラムは 、 予めメモリに記録されていてもよいし、 メモリカードのような非一時的記 録媒体に記録されて提供されたり、 電気通信回線を通して提供されたりして もよい。 言い換えれば、 上記プログラムは、 コンピュータシステムを、 情報 端末 5として機能させるためのプログラムである。
[0047] 情報端末 5は、 ユーザインタフヱース 5 1 を含んでいる。 本実施形態では 一例として、 情報端末 5は、 ユーザ U 1が所有するタブレッ ト端末である。 ユーザインタフェース 5 1は、 ユーザ U 1の操作を受け付ける機能、 及びユ —ザ U 1 に情報を提示する機能を有している。 本実施形態では、 ユーザイン タフェース 5 1は、 タッチパネルディスプレイにて実現される。 そのため、 情報端末 5は、 タッチパネルディスプレイに表示される各画面上でのボタン 等のオブジェクトの操作 (タップ、 スワイプ、 ドラッグ等) を検出すること をもって、 ボタン等のオブジェクトが操作されたことと判断する。 つまり、 情報端末 5は、 タッチパネルディスプレイに含まれる、 例えば、 液晶ディス プレイ、 有機 E L (E lect ro Lum i nescence) ディスプレイ等に、 画面を表示 する。
[0048] 表示装置 6は、 例えば、 液晶ディスプレイ、 有機 E Lディスプレイ等の画 像表示装置により実現される。 本実施形態では一例として、 表示装置 6は、 ユーザ U 1が頭部に装着して使用するへッ ドマウントディスプレイ ( H M D : Head Mounted D i sp lay) である。 これにより、 上述したように、 提示部 1 4が拡張現実表示を行うに際して、 ユーザ U 1の目に映る現実空間に、 ヒュ —マンモデル H M 1 を重ねて表示することが可能である。
[0049] ( 3 ) 動作
次に、 本実施形態に係る評価システム 1の動作、 つまり本実施形態に係る \¥02020/174886 13 卩(:171?2020/000419
評価方法について説明する。
[0050] (3 . 1) 基本動作
図 3は、 評価システム 1の動作の一例を示すフローチヤートである。
[0051 ] すなわち、 評価システム 1は、 まずは第 1取得部 1 1 にてモデル生成部 2 からモデル情報口 1 を取得し (3 1) 、 第 2取得部 1 2にて環境生成部 3か ら環境情報口 2を取得する (3 2) 。
[0052] 次に、 評価システム 1は、 仮想設備 V巳 1〜 巳 3の変更 (移動、 追加及 び消去を含む) の有無を判断する (3 3) 。 つまり、 評価システム 1が環境 生成部 3から取得した環境情報 0 2には、 仮想設備 V巳 1〜 巳 3に関する 情報が含まれているが、 評価システム 1 においては、 例えば、 ユーザ II 1の 操作に従って、 仮想設備
Figure imgf000015_0001
一例として、 ユーザ II 1は、 情報端末 5のユーザインタフエース 5 1 を用いて、 例えば、 ブラウザ画面上で、 仮想設備 V巳 1〜 巳 3の変更のための操作をすること で、 仮想設備 V巳 1〜 巳 3を変更することが可能である。 仮想設備 V巳 1 〜 \! 3の変更のための操作がされると、 この操作に応じた入力信号を受け て、 評価システム 1は、 仮想設備 V巳 1 V巳 3の変更あり (3 3 : 丫 6 3 ) と判断する。
[0053] 仮想設備 V巳 1〜 V巳 3の変更があれば (3 3 : 丫 6 3) 、 評価システム
1は、 調整部 1 5にて、 仮想設備 V巳 1 ~ V巳 3の仮想空間 V 3 1 における 個数及び配置の少なくとも一方を調整した上で、 環境情報口 2の更新を行う (3 4) 。 つまり、 更新後の環境情報口 2は、 環境生成部 3から取得した環 境情報口 2をべースにして、 仮想設備 V巳 1〜 巳 3の個数及び配置の少な くとも一方が変更された情報である。 一方、 仮想設備 V巳 1〜 巳 3の変更 が無ければ (3 3 : N 0) 、 処理 3 4はスキップする。
[0054] 次に、 評価システム 1は、 評価部 1 3にて、 モデル情報口 1 と環境情報口
2とに基づいて、 ヒューマンモデル 1~1 IV! 1の状態を評価するための処理 3 5 〜3 7を実行する。 具体的には、 評価システム 1は、 環境情報口 2に基づい て仮想空間 V 3 1 を形成し、 かつモデル情報口 1 に基づいて仮想空間 V 3 1 \¥02020/174886 14 卩(:171?2020/000419
内にヒューマンモデル 1~1 IV! 1 を配置する。 そして、 モデル情報口 1及び環境 情報 0 2の両方に基づいて、 仮想空間 V 3 1の環境が仮想空間 V 3 1 に設置 したヒューマンモデル
Figure imgf000016_0001
1 に及ぼす特定の作用を演算する (3 5) 。 この とき、 ヒューマンモデル
Figure imgf000016_0002
1 に特定の作用を及ぼす環境が 「温度」 である とすれば、 評価部 1 3は、 例えば、 ヒューマンモデル
Figure imgf000016_0003
1の部位ごとに皮 膚の温度に相当する指標値を演算する。
[0055] 評価システム 1は、 処理 3 5の演算結果を用いて、 データべース 4に問い 合わせを行う (3 6) 。 このとき、 データべース 4では、 評価システム 1か らの要求信号を受け、 少なくとも処理 3 5の演算結果を用いて、 要求信号に 応じた照合結果を評価システム 1 に出力する。 ヒューマンモデル
Figure imgf000016_0004
1 に特 定の作用を及ぼす環境が 「温度」 であるとすれば、 データべース 4から評価 システム 1 に対して、 ヒューマンモデル
Figure imgf000016_0005
の部位ごとに温度に応じた快 適性を表す評価値が出力される。
[0056] そして、 評価システム 1は、 データベースからの照合結果 (評価値を含む ) に基づいて、 ヒューマンモデル
Figure imgf000016_0006
1の状態の評価を行う (3 7) 。 本実 施形態では、 「快適性」 を、 ヒューマンモデル ! ! IV! 1の状態として評価の対 象とするので、 このとき、 評価部 1 3は、 ヒューマンモデル
Figure imgf000016_0007
1の部位ご との快適性を表す評価値を算出する。
[0057] ヒューマンモデル 1~1 IV! 1の状態の評価が完了すると、 評価システム 1は、 提示部 1 4にて、 評価結果を表示装置 6に表示することによって、 ユーザ II 1への評価結果の提示を行う (3 8) 。
[0058] 図 3のフローチヤートは、 評価システム 1の動作の一例に過ぎず、 処理を 適宜省略又は追加してもよいし、 処理の順番が適宜変更されていてもよい。 例えば、 第 1取得部 1 1 にてモデル生成部 2からモデル情報 0 1 を取得する 処理 (3 1) と、 第 2取得部 1 2にて環境生成部 3から環境情報 0 2を取得 する処理 ( 3 2) とは、 順番が逆であってもよい。
[0059] (3 . 2) 第 1の具体動作例
次に、 ヒューマンモデル 1 に特定の作用を及ぼす環境が 「温度」 であ \¥02020/174886 15 卩(:171?2020/000419
る場合を例として、 評価システム 1の具体動作例について、 図 4を参照して 説明する。 図 4は、 仮想空間 V 3 1 を模式的に表す概念図である。 図 4の例 では、 仮想空間 V 3 1の中央付近のある座標位置に、 立位のヒューマンモデ ル1~1 1\/1 1が配置されている。 また、 図 4の例では、 空調設備に相当する仮想 設備 V日 1 と、 窓 (換気窓、 採光窓) に相当する仮想設備 V日 2と、 それぞ れ照明装置に相当する 2個の仮想設備 V巳 3と、 が仮想空間 V 3 1 に設置さ れている。
[0060] ここにおいて、 評価部 1 3での評価に用いられる環境情報 0 2は、 仮想空 間 V 3 1 においてヒューマンモデル 1~1 IV! 1の周辺に設定される周辺エリア八 1の環境に関する情報を含んでいる。 ここでいう周辺エリア八 1は、 ヒュー マンモデル
Figure imgf000017_0001
1の周辺に設定されていればよく、 一例として、 実空間換算 でヒューマンモデル
Figure imgf000017_0002
1の表面 (皮膚に相当) から数十 程度の範囲に 設定される。 本実施形態では一例として、 周辺エリア八 1は、 ヒューマンモ デル
Figure imgf000017_0003
1の全体を覆うように、 ヒューマンモデル
Figure imgf000017_0004
1の表面形状に沿つ て設定されている。
[0061 ] すなわち、 人に特定の作用を及ぼす 「温度」 の中でも、 特に支配的になる のは、 人の周辺の空間の温度である。 そのため、 ヒューマンモデル
Figure imgf000017_0005
に 特定の作用を及ぼす 「温度」 としても、 周辺エリア 1の温度に着目して、 人に及ぼす作用を求めることが好ましい。 本実施形態では、 周辺エリア八 1 の環境 (温度) に関する情報を、 例えば、 以下のようにして求める。
[0062] まず、 周辺エリア八 1の位置は、 仮想空間 V 3 1 におけるヒューマンモデ ル1~1 1\/1 1の位置の情報から特定可能である。 つまり、 仮想空間 V 3 1のある 座標位置に、 周辺エリア 1が設定される。
[0063] 図 4に示すように、 仮想空間 V 3 1 には、 複数の仮想設備 V巳 1 ~ 巳 3 が存在するため、 仮想空間 V 3 1内の各位置での温度は、 これら仮想設備 V 巳 1〜 巳 3の影響を受ける。 例えば、 空調設備に相当する仮想設備 V巳 1 は、 温風を出力することで熱〇 1 を放出する。 また、 採光窓として機能する 窓に相当する仮想設備 V巳 2は、 太陽光 (日光) に相当する放射による熱〇 \¥02020/174886 16 卩(:171?2020/000419
2を仮想空間 V 3 1 に取り込む。 さらに、 窓に相当する仮想設備 V巳 2は、 換気窓としても機能するので、 換気又は対流による熱 0 3の移動 (仮想空間 1 と外部との間の熱交換) を実現する。 また、 照明設備に相当する仮想 設備 巳 3は、 点灯時に熱 0 4を放出する。 このように、 「温度」 という環 境を決定する主たる要素としては、 熱源となる設備機器 (空調設備、 照明設 備及びその他の電気機器を含む) から放出される熱 0 1 , 0 4、 太陽光等の 放射熱に当たる熱 0 2、 及び換気又は対流等に起因した熱 0 3の移動等があ る。 さらには、 熱伝導により壁又は窓等を通過する熱の移動、 仮想空間 V 3 1内での対流による熱の移動、 及び蒸発等による熱の移動等も、 仮想空間 V 3 1の 「温度」 という環境を決定し得る。
[0064] また、 人体も熱を放出するので、 ヒューマンモデル 1~1 IV! 1 についても同様 に、 ヒューマンモデル 1~1 IV! 1から発せられる熱を加味することが好ましい。 本実施形態では、 上述したように、 環境情報口 2は、 ヒューマンモデル 1~1 IV! 1から発せられる要素 (例えば熱) に起因する環境に関する情報を含んでい る。 言い換えれば、 ヒューマンモデル
Figure imgf000018_0001
1から発せられる熱についても、 周辺エリア八 1の環境 (温度) を求めるために加味される。 ヒューマンモデ ル1~1 1\/1 1から発せられる熱量は、 モデル情報口 1 に含まれる属性情報から、 精度よく求めることが可能である。 例えば、 ヒューマンモデル
Figure imgf000018_0002
1の活動 量 (身体活動レベル) が大きくなると、 ヒューマンモデル
Figure imgf000018_0003
1から発する 代謝熱の熱量が大きくなる。 さらに、 衣類は断熱又は遮熱効果を発揮し得る ので、 例えば、 衣類レベルが大きいほど、 つまりヒューマンモデル
Figure imgf000018_0004
1が 着ている衣類の断熱効果が高くなるほど、 ヒューマンモデル 1~1 IV! 1から発せ られる熱量は小さくなる。
[0065] よって、 周辺エリア八 1 において、 外側 (仮想空間 V 3 1側) 領域との間 で移動する熱量と、 内側 (ヒューマンモデル 1~1 IV! 1側) 領域との間で移動す る熱量と、 を合成することにより、 周辺エリア八 1 に出入りする熱量が求ま る。 その結果、 評価部 1 3では、 周辺エリア 1の環境 (温度) を、 算出す ることが可能である。 そして、 評価部 1 3は、 このように求まる周辺エリア \¥02020/174886 17 卩(:171?2020/000419
八 1の温度を、 ヒューマンモデル 1~1 IV! 1の部位ごとに皮膚の温度に相当する 指標値として演算する。
[0066] 評価部 1 3は、 ヒューマンモデル
Figure imgf000019_0001
1の部位ごとに皮膚の温度に相当す る指標値から、 ヒューマンモデル 1~1 IV! 1の状態としての 「快適性」 を評価す る。 このとき、 基本的には、 周辺エリア八 1の温度が、 ヒューマンモデル 1~1 IV! 1の部位ごとに決められている適正温度に近づくほどに、 快適性を表す快 適度は高く (つまり 「快適」 に近く) なる。 一方、 周辺エリア八 1の温度が 、 ヒューマンモデル 1~1 IV! 1の部位ごとに決められている適正温度から離れる ほどに、 快適性を表す快適度は低く (つまり 「不快」 に近く) なる。
[0067] このようにして求まる評価結果 (快適度) は、 モデル情報口 1 に含まれる 属性情報 (活動量、 衣類レベル等) によっても変化する。 言い換えれば、 評 価部 1 3は、 モデル情報口 1 に含まれる属性情報に応じて、 ヒューマンモデ ル1~1 1\/1 1の状態の評価を変えることになる。
[0068] また、 温度に基づく快適性を評価するに当たっては、 熱的快適性に影響す る以下の要因を考慮することも好ましい。 熱的快適性に影響する要因の例と しては、 大気熱、 平均放射温度、 風速、 及び湿度等がある。 大気熱 (気温) は、 上述したように、 仮想空間 V 3 1 における周辺エリア八 1の温度を求め ることで推定可能である。 平均放射温度は、 仮想空間 V 3 1 における室内の 全ての露出面の加重平均温度を算出することで推定可能である。 風速 (又は 気流) は、 仮想空間 V 3 1 における室内の空気の移動の速度及び方向を定量 化することで推定可能である。 湿度 (又は相対湿度) は、 仮想空間
Figure imgf000019_0002
1 に おける水分量を算出することで推定可能である。 さらには、 上述したヒュー マンモデル
Figure imgf000019_0003
の活動量 (身体活動レベル) 及び衣類レベルについても、 熱的快適性に影響し得る。
[0069] よって、 |平価シス丁ム 1では、 大気熱に加えて、 平均放射温度、 風速、 湿 度、 活動量及び衣類レベルのうち、 少なくとも 1つの情報を組み合わせて用 いることにより、 評価部 1 3での、 ヒューマンモデル 1~1 IV! 1の快適性の評価 の精度の向上を図ることができる。 ここで、 活動量及び衣類レベルを用いた \¥02020/174886 18 卩(:171?2020/000419
場合にも、 評価部 1 3は、 モデル情報口 1 に含まれる属性情報に応じて、 ヒ ューマンモデル
Figure imgf000020_0001
1の状態の評価を変えることになる。
[0070] (3 . 3) 提示例
次に、 ヒューマンモデル
Figure imgf000020_0002
1 に特定の作用を及ぼす環境が 「温度」 であ る場合を例として、 提示部 1 4による提示の態様の具体例について、 図 5を 参照して説明する。 図 5は、 現実空間 3 1 を模式的に表す概念図である。 図 5の例では、 現実空間 3 1の中央付近に、 ユーザ II 1が立っている。 さ らに、 図 5の例では、 仮想空間 3 1の壁際に、 座位のヒューマンモデル 1~1 IV! 1が配置されている。 また、 図 5の例では、 現実空間 3 1 に実際に設置 されている空調設備とは別に、 空調設備に相当する仮想設備 V日 1が仮想空 に設置されている。 また、 図 5の例では、 現実空間
Figure imgf000020_0003
内に、 ヒ ューマンモデル 1~1 IV! 1及び仮想設備 V巳 1 を想像線 ( 2点鎖線) で示してい るが、 これらは説明のために表記しているに過ぎず、 ヒューマンモデル
Figure imgf000020_0004
1及び仮想設備 V巳 1は現実空間 3 1 に実在しない。 また、 図 5の例では 、 ユーザ II 1の目に映る映像を吹出し内に示している。
[0071 ] 本実施形態では、 上述したように、 提示部 1 4は、 評価部 1 3の評価結果 を、 表示装置 6に表示することによってユ _ザ11 1 に提示する。 ここで、 図 5の吹出し内に示すように、 提示部 1 4は、 評価部 1 3の評価結果を表し、 かつヒューマンモデル 1~1 IV! 1 を含む提示画面丨
Figure imgf000020_0005
1 を表示装置 6に表示する 。 本実施形態では、 表示装置 6は、 ユーザ II 1が頭部に装着して使用するへ ッ ドマウントディスプレイであるので、 ユーザ II 1の目線 (吹出し内) では 、 現実空間 6 3 1 にヒューマンモデル
Figure imgf000020_0006
を重ねて表示することが可能で ある。 これにより、 ユーザ 11 1から見ると、 現実空間 3 1 に重ねてヒュー マンモデル
Figure imgf000020_0007
1が表示される、 拡張現実表示にて提示画面丨
Figure imgf000020_0008
1の表示が 行われる。
[0072] このように、 提示部 1 4に表示される提示画面丨
Figure imgf000020_0009
1は、 ユーザ II 1の目 に映る現実空間 8 3 1 に、 ヒューマンモデル 1~1 IV! 1 を重ねて表示する拡張現 実領域 8 1 を含んでいる。 その結果、 ユーザ II 1は、 現実空間 3 1 に実在 \¥02020/174886 19 卩(:171?2020/000419
する人のように、 ヒューマンモデル 1 を視認することができ、 評価シス テム 1は、 ヒューマンモデル 1~1 IV! 1の状態の評価結果をよりリアルにユーザ II 1 に提示できる。
[0073] さらに、 図 5の例では、 拡張現実領域 1 には、 ヒューマンモデル
Figure imgf000021_0001
に加えて、 仮想設備 V巳 1、 及び仮想設備 V巳 1から放出される熱 0 1 (温 風) が表示されている。 これにより、 ユーザ II 1は、 仮想設備 V巳 1 に相当 する設備 (ここでは空調設備) を、 現実空間 3 1 に実際に設置した場合の 効果を、 視覚的に確認することが可能である。
[0074] また、 本実施形態では、 提示部 1 4は、 評価部 1 3の評価結果 (ここでは 快適度) に応じて提示画面丨
Figure imgf000021_0002
1 におけるヒューマンモデル 1~1 IV! 1の表示態 様を変化させている。 図 5の例では、 ヒューマンモデル
Figure imgf000021_0003
1のうち、 仮想 設備 V日 1から放出される熱 0 1が直接的に当たる部位<3 1の温度が適正温 度を大きく上回っているため、 その部位<3 1の快適度が他の部位に比べて低 い。 このような評価結果により、 図 5の例では、 ヒューマンモデル
Figure imgf000021_0004
の うち仮想設備 V日 1から放出される熱 0 1が直接的に当たる部位<3 1 (左肩 周辺) にあっては、 他の部位と表示色が異なっている。 このように、 提示画 におけるヒューマンモデル 1~1 IV! 1の表示態様が、 評価部 1 3の評価 結果に応じて変化することで、 ユーザ II 1は、 評価部 1 3の評価結果を捉え やすくなる。
[0075] (3 . 4) 第 2の具体動作例
次に、 ヒューマンモデル 1~1 IV! 1 に特定の作用を及ぼす環境が 「照明」 であ る場合を例として、 評価システム 1の具体動作例について、 図 6を参照して 説明する。 図 6は、 仮想空間 V 3 1 を模式的に表す概念図である。 図 6の例 では、 仮想空間 V 3 1の中央付近のある座標位置に、 立位のヒューマンモデ ル1~1 1\/1 1が配置されている。 また、 図 6の例では、 空調設備に相当する仮想 設備 V日 1 と、 窓 (換気窓、 採光窓) に相当する仮想設備 V日 2と、 それぞ れ照明装置に相当する 2個の仮想設備 V巳 3と、 が仮想空間 V 3 1 に設置さ れている。 また、 図 6の例では、 ヒューマンモデル ! ! IV! 1の視野 (視界) に \¥02020/174886 20 卩(:171?2020/000419
相当する視野エリア八 2を吹出し内に示している。
[0076] 人に特定の作用を及ぼす 「照明」 の中でも、 特に支配的になるのは、 人の 視野内の明るさ (照度) 及び光色である。 そのため、 ヒューマンモデル 1~1 IV! 1 に特定の作用を及ぼす 「照明」 としても、 ヒューマンモデル
Figure imgf000022_0001
1の視野 (視野エリア 2) の明るさ (照度) 及び光色に着目して、 人に及ぼす作用 を求めることが好ましい。 本実施形態では、 ヒューマンモデル 1~1 IV! 1の視野 に相当する視野エリア八 2の環境 (照明) に関する情報を、 例えば、 以下の ようにして求める。
[0077] まず、 ヒューマンモデル
Figure imgf000022_0002
1の視野に相当する視野エリア八 2は、 仮想
1 におけるヒューマンモデル 1~1 IV! 1の位置、 及びヒューマンモデル 1の頭部の向きの情報から特定可能である。 つまり、 仮想空間
Figure imgf000022_0003
1の ある座標位置を起点とした、 ある方向の領域が、 視野エリア 2と推定され る。
[0078] 図 6に示すように、 仮想空間 V 3 1 には、 照明装置に相当する 2個の仮想 設備 巳 3が存在するため、 仮想空間 V 3 1内の各位置での明るさ (照度) 及び光色は、 少なくとも 2個の仮想設備 V巳 3の影響を受ける。 つまり、 各 仮想設備 巳 3は、 点灯することによって光 !_ 1 を出力する。 2個の仮想設 備 日 3のうち、 仮想設備 V日 2に近い側の仮想設備 V日 3にあっては、 視 野エリア八 2内の机上に光 !_ 1 を照射する。 また、 図 6の例では、 採光窓と して機能する窓に相当する仮想設備 V巳 2についても、 太陽光 (日光) を取 り込むという点で、 仮想空間
Figure imgf000022_0004
1内に光を出力する。 さらには、 壁、 床又 は天井等での光の反射又は吸収、 及び物体での物体の遮蔽によって生じる影 等も、 仮想空間 3 1の 「照明」 という環境を決定し得る。
[0079] 上記より、 評価部 1 3では、 視野エリア八 2における明るさ (照度) 及び 光色を、 指標値として算出することが可能である。 評価部 1 3は、 視野エリ ア八 2における明るさ (照度) 及び光色に相当する指標値から、 ヒューマン モデル 1~1 IV! 1の状態としての 「快適性」 を評価する。
[0080] このとき、 基本的には、 視野エリア八 2の明るさが、 適正照度に近づくほ \¥02020/174886 21 卩(:171?2020/000419
どに、 快適性を表す快適度は高く (つまり 「快適」 に近く) なる。 一方、 視 野エリア 2の明るさが、 適正照度から離れるほどに、 快適性を表す快適度 は低く (つまり 「不快」 に近く) なる。 適正照度は、 例えば、 仮想空間 V 3 1が模している施設の用途によって適宜決定されることが好ましい。 一例と して、 オフィスであれば適正照度は比較的高く、 レストラン等の店舗であれ ば適正照度は比較的低く設定される。
[0081 ] 同様に、 視野エリア 2の光色が、 適正色温度に近づくほどに、 快適性を 表す快適度は高く (つまり 「快適」 に近く) なる。 一方、 視野エリア八 2の 明るさが、 適正色温度から離れるほどに、 快適性を表す快適度は低く (つま り 「不快」 に近く) なる。 適正色温度は、 例えば、 仮想空間 V 3 1が摸して いる施設の用途によって適宜決定されることが好ましい。 一例として、 オフ ィスであれば適正色温度は比較的高く、 レストラン等の店舗であれば適正色 温度は比較的低く設定される。
[0082] (4) 変形例
実施形態 1は、 本開示の様々な実施形態の一つに過ぎない。 実施形態 1は 、 本開示の目的を達成できれば、 設計等に応じて種々の変更が可能である。 本開示において説明する各図は、 模式的な図であり、 各図中の各構成要素の 大きさ及び厚さそれそれの比が、 必ずしも実際の寸法比を反映しているとは 限らない。 また、 実施形態 1 に係る評価システム 1 と同様の機能は、 評価方 法、 コンビュータプログラム、 又はコンビュータプログラムを記録した非一 時的記録媒体等で具現化されてもよい。 一態様に係る評価方法は、 第 1取得 ステップ (図 3の 「3 1」 に相当) と、 第 2取得ステップ (図 3の 「3 2」 に相当) と、 評価ステップ (図 3の 「3 5〜3 7」 に相当) と、 を有する。 第 1取得ステップは、 モデル情報口 1 を取得するステップである。 モデル情 報口 1は、 仮想空間 V 3 1 に配置される人のモデルデータからなるヒューマ ンモデル
Figure imgf000023_0001
に関する情報である。 第 2取得ステップは、 環境情報口 2を 取得するステップである。 環境情報口 2は、 仮想空間 V 3 1 に対応付けられ ておりヒューマンモデル ! ! IV! 1 に対して特定の作用を及ぼし得る環境に関す る情報である。 評価ステップは、 モデル情報 D 1 と環境情報 D 2とに基づい て、 ヒューマンモデル H M 1の状態を評価するステップである。 一態様に係 る (コンピュータ) プログラムは、 上記の評価方法を、 1以上のプロセッサ に実行させるためのプログラムである。
[0083] 以下、 実施形態 1の変形例を列挙する。 以下に説明する変形例は、 適宜組 み合わせて適用可能である。
[0084] 本開示における評価システム 1は、 コンビュータシステムを含んでいる。
コンビュータシステムは、 ハードウエアとしてのプロセッサ及びメモリを主 構成とする。 コンビュータシステムのメモリに記録されたプログラムをプロ セッサが実行することによって、 本開示における評価システム 1 としての機 能が実現される。 プログラムは、 コンビュータシステムのメモリに予め記録 されてもよく、 電気通信回線を通じて提供されてもよく、 コンピュータシス テムで読み取り可能なメモリカード、 光学ディスク、 ハードディスクドライ ブ等の非一時的記録媒体に記録されて提供されてもよい。 コンピュータシス テムのプロセッサは、 半導体集積回路 (丨 C) 又は大規模集積回路 (LS I ) を含む 1ないし複数の電子回路で構成される。 ここでいう 丨 C又は LS I 等の集積回路は、 集積の度合いによって呼び方が異なっており、 システム L S I、 VLS I (Very Large Scale Integration) 、 又は U L S I (Ultra L arge Scale Integration) と呼ばれる集積回路を含む。 さらに、 LS 丨の製 造後にプログラムされる、 F PGA (Field-Programmable Gate Array) 、 又 は LS I 内部の接合関係の再構成若しくは LS I 内部の回路区画の再構成が 可能な論理デ/《イスについても、 プロセッサとして採用することができる。 複数の電子回路は、 1つのチップに集約されていてもよいし、 複数のチップ に分散して設けられていてもよい。 複数のチップは、 1つの装置に集約され ていてもよいし、 複数の装置に分散して設けられていてもよい。 ここでいう コンピュータシステムは、 1以上のプロセッサ及び 1以上のメモリを有する マイクロコントローラを含む。 したがって、 マイクロコントローラについて も、 半導体集積回路又は大規模集積回路を含む 1ないし複数の電子回路で構 \¥02020/174886 23 卩(:171?2020/000419
成される。
[0085] また、 評価システム 1の少なくとも一部の機能が、 1つの筐体内に集約さ れていることは評価システム 1 に必須の構成ではなく、 評価システム 1の構 成要素は、 複数の筐体に分散して設けられていてもよい。 例えば、 評価シス テム 1のうちの第 1取得部 1 1及び第 2取得部 1 2は、 評価部 1 3とは別の 筐体に設けられていてもよい。 さらに、 評価システム 1の少なくとも一部の 機能、 例えば、 評価部 1 3の機能がクラウド (クラウドコンピューティング ) 等によって実現されてもよい。
[0086] 反対に、 実施形態 1 において、 複数の装置に分散されている少なくとも一 部の機能が、 1つの筐体内に集約されていてもよい。 例えば、 評価システム 1 とデータべース 4とに分散されている機能が、 1つの筐体内に集約されて いてもよい。
[0087] 実施形態 1では、 評価システム 1は、 モデル生成部 2、 環境生成部 3、 デ —タベース 4、 情報端末 5及び表示装置 6を構成要素に含まない。 ただし、 モデル生成部 2、 環境生成部 3、 データべース 4、 情報端末 5及び表示装置 6の少なくとも 1つは、 評価システム 1の構成要素に含まれていてもよい。 一例として、 評価システム 1は、 モデル生成部 2及び環境生成部 3を含んで いてもよい。
[0088] また、 入力部 1 7は、 ユーザ II 1の操作に応じた入力信号の入力を受け付 ける構成であればよく、 情報端末 5で発生する入力信号の入力を受け付ける ことは必須でない。 例えば、 入力部 1 7は、 タッチパネルディスプレイ、 キ —ボード、 ポインティングデバイス又は音声入力等の入カデバイスから、 入 力信号の入力を受け付けてもよい。
[0089] また、 環境情報口 2は、 ヒューマンモデル
Figure imgf000025_0001
1 に対して作用を及ぼし得 る温度及び照明に限らず、 温度及び照明の少なくとも一方に加えて又は代え て、 音 (機械の動作音、 音声及び騒音等を含む) 、 匂い、 空気質等のうちの 1以上の要素を含んでもよい。 例えば、 環境情報口 2が、 ヒューマンモデル 1 に対して作用を及ぼし得る 「音」 に関する情報を含む場合、 仮想設備 \¥02020/174886 24 卩(:171?2020/000419
V巳 1〜 巳 3の一例として、 「音」 を調整 (発生を含む) するテレビ受像 機、 スピーカ等に相当する設備がある。
[0090] また、 実施形態 1では、 モデル情報口 1 と環境情報 0 2との両方が、 時間 経過に伴って変化する動的な情報である場合について説明したが、 モデル情 報口 1 と環境情報口 2とのいずれか一方は、 時間経過に伴って変化しない静 的な情報であってもよい。 さらに、 モデル情報口 1 と環境情報 0 2との両方 が、 時間経過に伴って変化しない静的な情報であってもよい。
[0091 ] また、 評価部 1 3の評価結果は、 提示部 1 4によってユーザ II 1 に提示さ れる構成に限らず、 ユーザリ 1への提示以外の態様で出力されてもよい。 ユ _ザ1) 1への提示以外の出力の態様としては、 例えば、 通信による出力 (口 グデータとしての出力を含む) 、 非一時的記録媒体への書き出し、 及びプリ ントアウト等の手段がある。
[0092] また、 提示部 1 4によるユーザ II 1への提示の態様についても、 表示に限 らず、 例えば、 情報端末 5への送信、 音 (音声及びアラーム音等を含む) 、 光出力 (点滅等を含む) 及びプリントアウト等の手段がある。
[0093] また、 提示部 1 4が表示する提示画面 I 1は、 拡張現実領域 1 を含ん でいればよく、 拡張現実領域 1以外の表示領域を更に含んでいてもよい。 つまり、 提示画面丨 1は、 拡張現実表示をするための拡張現実領域 1 と 、 拡張現実表示ではない通常の表示を行うための領域と、 を含んでいてもよ い。
[0094] また、 実施形態 1では、 表示装置 6はヘッ ドマウントディスプレイである が、 この例に限らず、 表示装置 6は、 例えば、 スマートフォン又はタブレッ 卜端末であってもよい。 この場合でも、 例えば、 表示装置 6のカメラで現実
1 を撮像し、 得られた現実空間 3 1の画像にヒューマンモデル 1~1 IV! 1 を重ねることで、 拡張現実表示を実現してもよい。 すなわち、 提示画面
Figure imgf000026_0001
「画 像」 に、 ヒューマンモデル 1~1 IV! 1 を重ねて表示する拡張現実領域 1 を含ん でいればよい。 さらに、 提示画面丨 1は、 拡張現実領域 1 を含まなくて \¥02020/174886 25 卩(:171?2020/000419
もよい。
[0095] (実施形態 2)
本実施形態に係る評価システム 1は、 図 7に示すように、 仮想空間 3 1 に複数のヒューマンモデル 1~1 IV! 1 , 1~1 IV! 2が配置される点で、 実施形態 1 に 係る評価システム 1 と相違する。 以下、 実施形態 1 と同様の構成については 共通の符号を付して適宜説明を省略する。
[0096] すなわち、 実施形態 1では、 仮想空間
Figure imgf000027_0001
1 に 1つのヒューマンモデル 1~1 IV! 1が配置されるのに対し、 本実施形態では、 仮想空間 V 3 1 にはヒューマ ンモデル
Figure imgf000027_0002
1~1 IV! 2が複数配置されている。 さらに、 本実施形態では、 第 1取得部 1 1は、 複数のヒューマンモデル
Figure imgf000027_0003
の各々について モデル情報口 1 を取得可能に構成されている。
[0097] 図 7の例では、 仮想空間
Figure imgf000027_0004
ヒューマンモデル
Figure imgf000027_0005
2が配置されている。 一方のヒューマンモデル 1~1 IV! 1は、 仮想空間
Figure imgf000027_0006
1の 中央付近のある座標位置に立位で配置されている。 他方のヒューマンモデル 仮想空間 3 1の壁際に、 座位にて配置されている。
[0098] 本実施形態に係る評価システム 1では、 このような立位のヒューマンモデ ル1~1 1\/1 1 と、 座位のヒューマンモデル 1~1 IV! 2と、 の各々について、 第 1取得 部 1 1 にて、 モデル情報口 1 を取得可能である。 そして、 評価システム 1は 、 このような複数のヒューマンモデル
Figure imgf000027_0007
, の各々について、 個別 に取得したモデル情報口 1 と環境情報口 2とに基づいて、 評価部 1 3にて、 その状態 (例えば快適性) を評価する。 この場合の評価結果は、 複数のヒュ
Figure imgf000027_0008
1~1 IV! 2の各々について、 区別可能に提示されることが 好ましい。
[0099] ここで、 環境情報口 2は、 複数のヒューマンモデル
Figure imgf000027_0009
, のうち の 1つのヒューマンモデルからなる第 1モデルに対して特定の作用を及ぼし 得る環境に関する情報として、 相互情報を含む。 相互情報は、 複数のヒュー マンモデル
Figure imgf000027_0010
1~1 IV! 2のうちの第 1モデル以外の少なくとも 1つのヒュ —マンモデル
Figure imgf000027_0011
に関連する情報である。 例えば、 複数のヒュー \¥02020/174886 26 卩(:171?2020/000419
マンモデル
Figure imgf000028_0001
のうちの 1つのヒューマンモデル 1~1 IV! 1 を第 1モ デルと仮定する。 この場合、 第 1モデル (ヒューマンモデル
Figure imgf000028_0002
1) に対し て特定の作用を及ぼし得る環境に関する情報として、 第 1モデル以外のヒュ —マンモデル 1~1 IV! 2に関連する相互情報が、 環境情報口 2に含まれる。
[0100] すなわち、 例えば、 1つの空間に複数の人が存在する場合には、 例えば、 温度、 照明、 音、 匂い及び空気質等の種々の環境の要素に関して、 複数の人 が相互に作用を及ぼし得る。 そこで、 環境情報口 2が、 第 1モデル (ヒュー マンモデル
Figure imgf000028_0003
に対して特定の作用を及ぼし得る情報として、 第 1モデ ル以外のヒューマンモデル 1~1 IV! 2に関連する相互情報を含むことで、 このよ うな相互作用を再現する。 一例として、 ヒューマンモデル
Figure imgf000028_0004
に 特定の作用を及ぼす環境が 「温度」 である場合、 ヒューマンモデル
Figure imgf000028_0005
か ら発せられる熱は、 第 1モデル (ヒューマンモデル
Figure imgf000028_0006
1) に対して特定の 作用を及ぼし得る。 そこで、
Figure imgf000028_0007
連する相互情報を、 第 1モデル (ヒューマンモデル
Figure imgf000028_0008
1) の評価に用いら れる環境情報口 2に含めることで、 ヒューマンモデル
Figure imgf000028_0009
同士の 相互作用を、 評価部 1 3での評価に含めることができる。
[0101 ] これにより、 例えば、 評価システム 1が、 ヒューマンモデル
Figure imgf000028_0010
2の状態として快適性を評価する場合において、 複数の人が密集することに よって人が感じる快適度の低下を、 評価結果に反映することができる。
[0102] 上記説明では、 ヒューマンモデル
Figure imgf000028_0011
1 を第 1モデルと仮定したが、 ヒュ —マンモデル 1~1 IV! 2を第 1モデルとしてもよい。 この場合、 第 1モデル (ヒ ューマンモデル 1~1 IV! 2) に対して特定の作用を及ぼし得る環境に関する情報 として、 第 1モデル以外のヒューマンモデル 1~1 IV! 1 に関連する相互情報が、 環境情報口 2に含まれる。
[0103] また、 実施形態 2に係る評価システム 1 において、 環境情報口 2が相互情 報を含むことは必須の構成ではなく、 環境情報口 2は相互情報を含まなくて もよい。
[0104] また、 実施形態 2において、 仮想空間 V 3 1 には複数のヒューマンモデル \¥02020/174886 27 卩(:171?2020/000419
1~1 IV! 2が配置されていればよいので、 仮想空間 V 3 1 には、 例えば 、 3つ以上のヒューマンモデル 1~1 IV! 1が配置されてもよい。
[0105] 実施形態 2で説明した種々の構成 (変形例を含む) は、 実施形態 1で説明 した種々の構成 (変形例を含む) と適宜組み合わせて採用可能である。
[0106] (まとめ)
以上説明したように、 第 1の態様に係る評価システム ( 1) は、 第 1取得 部 (1 1) と、 第 2取得部 (1 2) と、 評価部 (1 3) と、 を備える。 第 1 取得部 (1 1) は、 モデル情報 (口 1) を取得する。 モデル情報 (口 1) は 、 仮想空間 ( 3 1) に配置されるヒューマンモデル
Figure imgf000029_0001
に 関する情報である。 ヒューマンモデル
Figure imgf000029_0002
は、 人のモデルデ —夕からなる。 第 2取得部 (1 2) は、 環境情報 (0 2) を取得する。 環境 情報 (口 2) は、 仮想空間 ( 3 1) に対応付けられておりヒューマンモデ ル
Figure imgf000029_0003
に対して特定の作用を及ぼし得る環境に関する情報で ある。 評価部 (1 3) は、 モデル情報 (口 1) と環境情報 (口 2) とに基づ いて、 ヒューマンモデル
Figure imgf000029_0004
の状態を評価する。
[0107] この態様によれば、 ヒューマンモデル
Figure imgf000029_0005
1 , 1~1 IV! 2) の状態の評価に 、 仮想空間 ( 3 1) に対応付けられておりヒューマンモデル
Figure imgf000029_0006
1 , 1~1 IV! 2) に対して特定の作用を及ぼし得る環境が反映される。 例えば、 現実空 間 においては、 温度 (熱) 及び照明 (光) といった様々な環境が 、 現実空間 ([¾ 3 1) に実在する人に対して特定の作用を及ぼす。 そして、 環境が人に及ぼす作用により、 例えば、 人の快適性等が変化する。 評価シス テム (1) では、 このような環境を加味した評価を、 ヒューマンモデル (1~1
Figure imgf000029_0007
が配置される仮想空間 ( 3 1) においても適用することで 、 現実の 「人」 により近い形で、 ヒューマンモデル
Figure imgf000029_0008
の状 態を評価できる。 結果的に、 ヒューマンモデル
Figure imgf000029_0009
の状態の 評価の精度の向上を図ることが可能である、 という利点がある。
[0108] 第 2の態様に係る評価システム (1) では、 第 1の態様において、 モデル 情報 (口 1) と環境情報 (口 2) との少なくとも一方は、 時間経過に伴って \¥02020/174886 28 卩(:171?2020/000419
変化する。
[0109] この態様によれば、 時間経過に伴って変化する動的な情報を、 ヒューマン モデル ( 1~1 IV! 1 , 1~1 IV! 2) の状態を評価できる。
[0110] 第 3の態様に係る評価システム (1) は、 第 1又は 2の態様において、 提 示部 (1 4) を更に備える。 提示部 (1 4) は、 評価部 (1 3) の評価結果 をユーザ (II 1) に提示する。
[0111] この態様によれば、 ユーザ (111) は、 評価結果を、 例えば、 施設の設計 、 施設のリフォーム、 施設の評価、 建築業界のマーケティング、 並びに技術 調査及び技術開発等に利用可能である。
[0112] 第 4の態様に係る評価システム ( 1) では、 第 3の態様において、 提示部 (1 4) は、 評価部 (1 3) の評価結果を表し、 かつヒューマンモデル (1~1 IV! 1 ,
Figure imgf000030_0001
を含む提示画面 (丨 1) を表示することで、 評価部 (1 3 ) の評価結果を提示する。 提示部 (1 4) は、 評価部 (1 3) の評価結果に 応じて提示画面 (丨 1) におけるヒューマンモデル
Figure imgf000030_0002
の 表示態様を変化させる。
[0113] この態様によれば、 ユーザ (111) は、 ヒューマンモデル
Figure imgf000030_0003
2) の状態の評価結果を、 ヒューマンモデル (HM 1 ,
Figure imgf000030_0004
の表示態様 から視覚的に理解しやすくなる。
[0114] 第 5の態様に係る評価システム ( 1) では、 第 4の態様において、 提示画 面 (丨 1) は、 拡張現実領域 ([¾ 1) を含む。 拡張現実領域 ([¾ 1) は、 ユーザ (II 1) の目に映る現実空間
Figure imgf000030_0005
又は現実空間
Figure imgf000030_0006
の画 像に、 ヒューマンモデル
Figure imgf000030_0007
を重ねて表示する領域である。
[0115] この態様によれば、 ユーザ (II 1) は、 現実空間
Figure imgf000030_0008
1) に実在する人 のように、 ヒューマンモデル
Figure imgf000030_0009
を視認することができる。 よって、 評価システム (1) は、 ヒューマンモデル
Figure imgf000030_0010
の状 態の評価結果をよりリアルにユーザ (II 1) に提示できる。
[0116] 第 6の態様に係る評価システム (1) では、 第 1〜 5のいずれかの態様に おいて、 仮想空間 ( 31) にはヒューマンモデル
Figure imgf000030_0011
が複 \¥02020/174886 29 卩(:171?2020/000419
数配置される。 第 1取得部 (1 1) は、 複数のヒューマンモデル
Figure imgf000031_0001
の各々についてモデル情報 (口 1) を取得可能である。
[0117] この態様によれば、 複数のヒューマンモデル
Figure imgf000031_0002
について 、 まとめて状態の評価を行うことができる。
[0118] 第 7の態様に係る評価システム ( 1) では、 第 6の態様において、 環境情 報 (口 2) は、 第 1モデルに対して特定の作用を及ぼし得る環境に関する情 報として、 相互情報を含む。 第 1モデルは、 複数のヒューマンモデル
Figure imgf000031_0003
1 , のうちの 1つのヒューマンモデル
Figure imgf000031_0004
からなる 。 相互情報は、 複数のヒューマンモデル
Figure imgf000031_0005
のうちの第 1モ デル以外の少なくとも 1つのヒューマンモデル
Figure imgf000031_0006
に関連す る情報である。
[0119] この態様によれば、 1つの空間に複数の人が存在する場合に起こり得る人 同士の相互作用を、 ヒューマンモデル
Figure imgf000031_0007
の状態の評価にお いても再現することができる。
[0120] 第 8の態様に係る評価システム (1) では、 第 1〜 7のいずれかの態様に おいて、 モデル情報 (口 1 ) は、 ヒューマンモデル
Figure imgf000031_0008
に固 有の属性情報を含む。 評価部 (1 3) は、 属性情報に応じてヒューマンモデ ル
Figure imgf000031_0009
の状態の評価を変える。
[0121] この態様によれば、 人の年齢、 性別、 体型、 趣味嗜好、 身長、 体重、 性別 、 障害の有無、 障害の箇所、 活動量及び衣類レベル等の人に固有の条件を、 ヒューマンモデル
Figure imgf000031_0010
の状態の評価に反映できる。
[0122] 第 9の態様に係る評価システム ( 1) では、 第 1〜 7のいずれかの態様に おいて、 環境情報 (口 2) は、 仮想空間 ( 31) においてヒューマンモデ ル
Figure imgf000031_0011
の周辺に設定される周辺エリア (八 1) の環境に関す る情報を含む。
[0123] この態様によれば、 ヒューマンモデル
Figure imgf000031_0012
1 , 1~1 IV! 2) への影響の大き い周辺エリア (八 1) の環境を、 ヒューマンモデル
Figure imgf000031_0013
の状 態の評価に反映できる。 \¥02020/174886 30 卩(:171?2020/000419
[0124] 第 1 0の態様に係る評価システム (1) では、 第 9の態様において、 環境 情報 (口 2) は、 ヒューマンモデル
Figure imgf000032_0001
から発せられる要素 に起因する環境に関する情報を含む。
[0125] この態様によれば、 ヒューマンモデル
Figure imgf000032_0002
自体が環境に与 える影響を、 ヒューマンモデル
Figure imgf000032_0003
の状態の評価に反映でき る。
[0126] 第 1 1の態様に係る評価システム (1) では、 第 1〜 1 0のいずれかの態 様において、 環境情報 (口 2) は、 ヒューマンモデル
Figure imgf000032_0004
に 対して作用を及ぼし得る温度及び照明の少なくとも一方に関する情報を含む
[0127] この態様によれば、 人に特定の作用を及ぼしやすい温度及び照明の少なく とも一方を、 ヒューマンモデル
Figure imgf000032_0005
の状態の評価に反映でき る。
[0128] 第 1 2の態様に係る評価システム (1) では、 第 1〜 1 1のいずれかの態 様において、 調整部 (1 5) を更に備える。 調整部 (1 5) は、 環境情報 ( 0 2) に対応する環境を調整する仮想設備 (▽巳 1〜 巳 3) の仮想空間 ( 1) における個数及び配置の少なくとも一方を決定する。
[0129] この態様によれば、 仮想空間 ( 3 1) 中に配置される仮想設備 ( 巳 1 〜 巳 3) の個数及び配置を変更できる。
[0130] 第 1 3の態様に係る空間の設計支援システムは、 第 4又は 5の態様に係る 評価システム (1) と、 表示装置 (6) と、 を備える。 提示部 (1 4) は、 提示画面 (丨 1) を表示装置 (6) に表示させる。
[0131 ] この態様によれば、 ヒューマンモデル
Figure imgf000032_0006
1 , 1~1 IV! 2) の状態の評価の 精度の向上を図ることが可能である、 という利点がある。
[0132] 第 1 4の態様に係る空間の設計支援システムは、 第 1 3の態様において、 仮想空間 ( 3 1) は現実空間を模擬した空間である。 提示部 (1 4) は、 仮想空間 ( 3 1) におけるヒューマンモデル
Figure imgf000032_0007
の状態の 評価結果に応じた提示画面 ( I 〇! 1) を表示装置 (6) に表示させる。 \¥02020/174886 31 卩(:171?2020/000419
[0133] この態様によれば、 ユーザ (111) は、 ヒューマンモデル
Figure imgf000033_0001
2) の状態の評価結果を、 ヒューマンモデル (HM 1 ,
Figure imgf000033_0002
の表示態様 から視覚的に理解しやすくなる。
[0134] 第 1 5の態様に係る評価方法は、 第 1取得ステップと、 第 2取得ステップ と、 評価ステップと、 を有する。 第 1取得ステップは、 モデル情報 (口 1) を取得するステップである。 モデル情報 (口 1) は、 仮想空間 ( 31) に
Figure imgf000033_0003
に関する情報である。 ヒュ
Figure imgf000033_0004
ルデータからなる。 第 2取得 ステップは、 環境情報 (口 2) を取得するステップである。 環境情報 (口 2 ) は、 仮想空間 ( 31) に対応付けられておりヒューマンモデル
Figure imgf000033_0005
, に対して特定の作用を及ぼし得る環境に関する情報である。 評価 ステップは、 モデル情報 (口 1) と環境情報 (口 2) とに基づいて、 ヒュー マンモデル
Figure imgf000033_0006
の状態を評価するステップである。
[0135] この態様によれば、 ヒューマンモデル
Figure imgf000033_0007
1 , 1~1 IV! 2) の状態の評価に 、 仮想空間 ( 31) に対応付けられておりヒューマンモデル
Figure imgf000033_0008
1 , 1~1 IV! 2) に対して特定の作用を及ぼし得る環境が反映される。 例えば、 現実空 間 においては、 温度 (熱) 及び照明 (光) といった様々な環境が 、 現実空間 ([¾31) に実在する人に対して特定の作用を及ぼす。 そして、 環境が人に及ぼす作用により、 例えば、 人の快適性等が変化する。 上記評価 方法では、 このような環境を加味した評価を、 ヒューマンモデル
Figure imgf000033_0009
1 , が配置される仮想空間 ( 31) においても適用することで、 現実 の 「人」 により近い形で、 ヒューマンモデル
Figure imgf000033_0010
の状態を評 価できる。 結果的に、 ヒューマンモデル
Figure imgf000033_0011
の状態の評価の 精度の向上を図ることが可能である、 という利点がある。
[0136] 第 1 6の態様に係るプログラムは、 第 1 5の態様に係る評価方法を、 1以 上のプロセッサに実行させるためのプログラムである。
[0137] この態様によれば、 ヒューマンモデル 1 , 1~1 IV! 2) の状態の評価に 、 仮想空間 ( 31) に対応付けられておりヒューマンモデル 1 , !! \¥02020/174886 32 卩(:171?2020/000419
IV! 2) に対して特定の作用を及ぼし得る環境が反映される。 例えば、 現実空 間 においては、 温度 (熱) 及び照明 (光) といった様々な環境が 、 現実空間 ([¾ 3 1) に実在する人に対して特定の作用を及ぼす。 そして、 環境が人に及ぼす作用により、 例えば、 人の快適性等が変化する。 上記プロ グラムでは、 このような環境を加味した評価を、 ヒューマンモデル
Figure imgf000034_0001
, が配置される仮想空間 ( 3 1 ) においても適用することで、 現 実の 「人」 により近い形で、 ヒューマンモデル
Figure imgf000034_0002
の状態を 評価できる。 結果的に、 ヒューマンモデル
Figure imgf000034_0003
の状態の評価 の精度の向上を図ることが可能である、 という利点がある。
[0138] 上記態様に限らず、 実施形態 1及び実施形態 2に係る評価システム ( 1) の種々の構成 (変形例を含む) は、 評価方法又はプログラムにて具現化可能 である。
[0139] 第 2〜 1 2の態様に係る構成については、 評価システム (1) に必須の構 成ではなく、 適宜省略可能である。
符号の説明
[0140] 1 評価システム
1 1 第 1取得部
1 2 第 2取得部
1 3 評価部
1 4 提示部
1 5 調整部
八 1 周辺エリア
〇 1 モデル情報
〇 2 環境情報
Figure imgf000034_0004
ヒューマンモデル
I ^ 1 提示画面
8 1 拡張現実領域
現実空間 \¥02020/174886 33 卩(:17 2020 /000419
II 1 ューザ
▽31 仮想空間
巳 1〜 日 3 仮想設備

Claims

\¥02020/174886 34 2020/000419
請求の範囲
[請求項'! ] 仮想空間に配置される人のモデルデータからなるヒューマンモデル に関するモデル情報を取得する第 1取得部と、
前記仮想空間に対応付けられており前記ヒューマンモデルに対して 特定の作用を及ぼし得る環境に関する環境情報を取得する第 2取得部 と、
前記モデル情報と前記環境情報とに基づいて、 前記ヒューマンモデ ルの状態を評価する評価部と、 を備える、
評価システム。
[請求項 2] 前記モデル情報と前記環境情報との少なくとも一方は、 時間経過に 伴って変化する、
請求項 1 に記載の評価システム。
[請求項 3] 前記評価部の評価結果をユーザに提示する提示部を更に備える、 請求項 1又は 2に記載の評価システム。
[請求項 4] 前記提示部は、
前記評価部の評価結果を表し、 かつ前記ヒューマンモデルを含む 提示画面を表示することで、 前記評価部の評価結果を提示し、
前記評価部の評価結果に応じて前記提示画面における前記ヒュー マンモデルの表示態様を変化させる、
請求項 3に記載の評価システム。
[請求項 5] 前記提示画面は、 前記ユーザの目に映る現実空間又は前記現実空間 の画像に、 前記ヒューマンモデルを重ねて表示する拡張現実領域を含 む、
請求項 4に記載の評価システム。
[請求項 6] 前記仮想空間には前記ヒューマンモデルが複数配置され、
前記第 1取得部は、 前記複数のヒューマンモデルの各々について前 記モデル情報を取得可能である、
請求項 1〜 5のいずれか 1項に記載の評価システム。 \¥0 2020/174886 35 卩(:171? 2020 /000419
[請求項· 7] 前記環境情報は、 前記複数のヒューマンモデルのうちの 1つのヒュ
—マンモデルからなる第 1モデルに対して特定の作用を及ぼし得る環 境に関する情報として、 前記複数のヒューマンモデルのうちの前記第 1モデル以外の少なくとも 1つのヒューマンモデルに関連する相互情 報を含む、
請求項 6に記載の評価システム。
[請求項 8] 前記モデル情報は、 前記ヒューマンモデルに固有の属性情報を含み 前記評価部は、 前記属性情報に応じて前記ヒューマンモデルの状態 の評価を変える、
請求項 1〜 7のいずれか 1項に記載の評価システム。
[請求項 9] 前記環境情報は、 前記仮想空間において前記ヒューマンモデルの周 辺に設定される周辺エリァの環境に関する情報を含む、
請求項 1〜 7のいずれか 1項に記載の評価システム。
[請求項 10] 前記環境情報は、 前記ヒューマンモデルから発せられる要素に起因 する環境に関する情報を含む、
請求項 9に記載の評価システム。
[請求項 1 1 ] 前記環境情報は、 前記ヒューマンモデルに対して作用を及ぼし得る 温度及び照明の少なくとも一方に関する情報を含む、 請求項 1〜 1 0のいずれか 1項に記載の評価システム。
[請求項 12] 前記環境情報に対応する環境を調整する仮想設備の前記仮想空間に おける個数及び配置の少なくとも一方を決定する調整部を更に備える 請求項 1〜 1 1のいずれか 1項に記載の評価システム。
[請求項 13] 請求項 4又は 5に記載の評価システムと、
表示装置と、 を備え、
前記提示部は、 前記提示画面を前記表示装置に表示させる、 空間の設計支援システム。 \¥02020/174886 36 卩(:171?2020/000419
[請求項 14] 前記仮想空間は現実空間を模擬した空間であり、
前記提示部は、 前記仮想空間における前記ヒューマンモデルの状態 の評価結果に応じた前記提示画面を前記表示装置に表示させる、 請求項 1 3に記載の空間の設計支援システム。
[請求項 15] 仮想空間に配置される人のモデルデ _夕からなるヒューマンモデル に関するモデル情報を取得する第 1取得ステツプと、 前記仮想空間に対応付けられており前記ヒューマンモデルに対して 特定の作用を及ぼし得る環境に関する環境情報を取得する第 2取得ス テツプと、
前記モデル情報と前記環境情報とに基づいて、 前記ヒューマンモデ ルの状態を評価する評価ステツプと、 を有する、
評価方法。
[請求項 16] 請求項 1 5に記載の評価方法を、 1以上のプロセッサに実行させる ためのプログラム。
PCT/JP2020/000419 2019-02-25 2020-01-09 評価システム、空間の設計支援システム、評価方法及びプログラム WO2020174886A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2021501671A JP7236641B2 (ja) 2019-02-25 2020-01-09 評価システム、空間の設計支援システム、評価方法及びプログラム
CN202080016310.6A CN113474824A (zh) 2019-02-25 2020-01-09 评价系统、空间设计支持系统、评价方法和程序
US17/432,661 US11557101B2 (en) 2019-02-25 2020-01-09 Estimation system, space design support system, estimation method, and program
EP20763260.5A EP3933784A4 (en) 2019-02-25 2020-01-09 EVALUATION SYSTEM, ROOM DESIGN ASSISTANCE SYSTEM, EVALUATION PROCEDURE AND PROGRAM

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019032066 2019-02-25
JP2019-032066 2019-02-25

Publications (1)

Publication Number Publication Date
WO2020174886A1 true WO2020174886A1 (ja) 2020-09-03

Family

ID=72239349

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/000419 WO2020174886A1 (ja) 2019-02-25 2020-01-09 評価システム、空間の設計支援システム、評価方法及びプログラム

Country Status (5)

Country Link
US (1) US11557101B2 (ja)
EP (1) EP3933784A4 (ja)
JP (1) JP7236641B2 (ja)
CN (1) CN113474824A (ja)
WO (1) WO2020174886A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023127403A1 (ja) * 2021-12-27 2023-07-06 パナソニックホールディングス株式会社 Vr臨場感向上システムおよびvr臨場感向上プログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002373181A (ja) * 2001-06-13 2002-12-26 Honda Motor Co Ltd 温熱環境シミュレーション装置
JP2013127654A (ja) 2010-03-09 2013-06-27 Panasonic Electric Works Co Ltd 物品設計支援装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101826129A (zh) * 2010-04-17 2010-09-08 中山大学 基于增强现实的虚拟测量原理及方法
KR101387148B1 (ko) * 2012-05-30 2014-04-24 에이알비전 (주) 가상 인체 모델을 이용한 작업성 평가방법
CN103886117B (zh) * 2012-12-20 2016-08-24 上海工程技术大学 一种提高三维试衣软件中虚拟人体建模精度的方法
US20160124405A1 (en) 2014-10-31 2016-05-05 General Electric Company Thermal optimization of an imaging scan room
CN106447053B (zh) * 2016-09-05 2021-03-12 北京航空航天大学 一种基于虚拟环境下维修空间的定量评价方法及系统

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002373181A (ja) * 2001-06-13 2002-12-26 Honda Motor Co Ltd 温熱環境シミュレーション装置
JP2013127654A (ja) 2010-03-09 2013-06-27 Panasonic Electric Works Co Ltd 物品設計支援装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
HIDEAKI IIJIMA , RYO WATANABE , KENSUKE NAGAMURA , HIDETO TAKAYAMA: "Dynamical simulation based on piecewise model of passenger compartment temperature considering external environment passenger and air conditioning", JOURNAL OF THE SYSTEM CONTROL INFORMATION SOCIETY, vol. 51, no. 1, 31 January 2007 (2007-01-31), pages 10 - 20, XP055735235, ISSN: 1342-5668, DOI: 10.5687/iscie.20.10 *
See also references of EP3933784A4

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023127403A1 (ja) * 2021-12-27 2023-07-06 パナソニックホールディングス株式会社 Vr臨場感向上システムおよびvr臨場感向上プログラム

Also Published As

Publication number Publication date
EP3933784A4 (en) 2022-03-30
JP7236641B2 (ja) 2023-03-10
JPWO2020174886A1 (ja) 2021-12-23
US20220165038A1 (en) 2022-05-26
US11557101B2 (en) 2023-01-17
CN113474824A (zh) 2021-10-01
EP3933784A1 (en) 2022-01-05

Similar Documents

Publication Publication Date Title
US11144680B2 (en) Methods for determining environmental parameter data of a real object in an image
US5590062A (en) Simulator for producing various living environments mainly for visual perception
US10573077B2 (en) Smart mirror for location-based augmented reality
JP7121811B2 (ja) 三次元空間の眺めを表示させる方法、装置、及び記憶媒体
Zhu et al. Potential and challenges of immersive virtual environments for occupant energy behavior modeling and validation: A literature review
CN106055762A (zh) 一种家居装修设计系统及方法
CN114972726A (zh) 捕获房间中信息以用于建筑物的可用性评估的自动化指示
JP6629528B2 (ja) 仮想現実表示システム、仮想現実表示方法及びコンピュータプログラム
JP3105131B2 (ja) 視覚を中心とした擬似体験装置
CN109478304A (zh) 优化患者房间的建筑物系统控制以改善患者结果的系统和方法
Racz et al. VR aided architecture and interior design
WO2016203770A1 (ja) 画像処理システム、方法、及びプログラム
WO2020174886A1 (ja) 評価システム、空間の設計支援システム、評価方法及びプログラム
US20200318371A1 (en) Tetris house designing system
JP7287509B2 (ja) 現在空間及び媒体内の品目情報を表示する方法及び装置
TW202336563A (zh) 用於經由人工實境裝置和實體裝置互動之方法和系統
JP2023067771A (ja) 情報処理システム、プログラム及び情報処理方法
JP2018163453A (ja) 印象量推定方法、印象量推定装置、及び建物設計方法
He et al. Calibrating lighting simulation with panoramic high dynamic range imaging
JP7287910B2 (ja) 設計支援装置
WO2022137734A1 (ja) 表示システム、表示方法及びプログラム
WO2024071257A1 (ja) プログラム、情報処理方法、及び情報処理装置
CN111882651B (zh) 一种空间光线的处理方法、装置、电子设备及存储介质
WO2016203772A1 (ja) 画像処理システム、方法、及びプログラム
JP7403065B2 (ja) データ生成システム、データ生成方法及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20763260

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021501671

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2020763260

Country of ref document: EP

Effective date: 20210927