WO2023127649A1 - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
WO2023127649A1
WO2023127649A1 PCT/JP2022/047150 JP2022047150W WO2023127649A1 WO 2023127649 A1 WO2023127649 A1 WO 2023127649A1 JP 2022047150 W JP2022047150 W JP 2022047150W WO 2023127649 A1 WO2023127649 A1 WO 2023127649A1
Authority
WO
WIPO (PCT)
Prior art keywords
emotion
analysis target
image
viewing
analysis
Prior art date
Application number
PCT/JP2022/047150
Other languages
English (en)
French (fr)
Inventor
司 本田
剛和 長田
Original Assignee
株式会社ジオクリエイツ
株式会社エスウッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ジオクリエイツ, 株式会社エスウッド filed Critical 株式会社ジオクリエイツ
Publication of WO2023127649A1 publication Critical patent/WO2023127649A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics

Definitions

  • the present invention relates to an information processing device, an information processing method, and a program for outputting information related to an image showing the state of a space.
  • a known technique is to calculate the green coverage ratio, which is the area ratio of plants such as trees in the field of view reflected by the human eye.
  • Japanese Patent Application Laid-Open No. 2002-201002 discloses a technique for calculating a ratio of the amount of green vision to image data representing a predetermined space as the green visibility rate.
  • the present invention has been made in view of these points, and aims to make it possible to comprehend the feelings of the viewer who visually recognizes the space indicated by the image data.
  • an image acquisition unit that acquires analysis target image data representing a state of an analysis target space, and an analysis target image represented by the analysis target image data by analyzing the analysis target image data a position in the reference space image, a combination of the hue and texture at the position, and a reference space corresponding to the reference space image; a storage unit that stores first analysis data associated with a person's emotion; a position of each of the plurality of regions identified by the image analysis unit in the first analysis data; By specifying a position in the reference space image where the degree of correlation with the corresponding combination of hue and texture is equal to or greater than a threshold value and the combination of hue and texture at that position, the viewer's emotion at the time of viewing in the analysis target space is determined. and an output unit for outputting information indicating the viewing emotion in association with the analysis target image.
  • the position visually recognized by the viewer in the reference space is associated with the viewer's emotion
  • the emotion specifying unit refers to the first analysis data.
  • the output unit may output information indicating the emotion at the time of viewing in association with the position in the analysis target image.
  • the storage unit further stores second analysis data in which a position in the reference space image, a hue at the position, and an emotion of the viewer of the reference space image are associated, and the emotion identification unit stores the For the first region in the analysis target image, by referring to the first analysis data, based on the relationship between the position of the first region and the combination of hue and texture corresponding to the first region and specifying the first emotion of the viewer of the analysis target image, and referring to the second analysis data for a second area different from the first area, thereby determining the position of the second area and the A second emotion of the viewer of the image to be analyzed is specified based on the relationship with the hue corresponding to the second region, and the emotion at the time of viewing is determined by averaging the first emotion and the second emotion. may be specified.
  • the image data to be analyzed includes depth information associated with pixels, and the emotion specifying unit sets a region in which the depth indicated by the depth information is less than the threshold as the first region, and the depth indicated by the depth information is the threshold.
  • the above area may be the second area.
  • the emotion specifying unit may specify the emotion at the time of visual recognition by weighting the first emotion more than the second emotion and averaging them.
  • the emotion identifying unit may identify the emotion at the time of viewing further based on the ratio of the green area in the analysis target image and the ratio of the brown area in the analysis target image.
  • the image acquisition unit acquires the analysis target image data corresponding to each of the plurality of analysis target spaces
  • the emotion specifying unit acquires the emotion at the time of viewing in the analysis target space corresponding to each of the plurality of analysis target image data.
  • the output unit specifies, in areas corresponding to each of the plurality of analysis target images on a floor map corresponding to a space including the plurality of analysis target spaces corresponding to the plurality of analysis target images, the plurality of analysis target images Information indicating the emotion at viewing corresponding to each target image may be output.
  • the output unit may output information indicating the emotion at the time of viewing to a region on the floor map corresponding to the image to be analyzed in which the emotion at the time of viewing indicates a predetermined emotion.
  • the image acquisition unit acquires a plurality of the analysis target image data representing states of viewing the analysis target space from different positions
  • the emotion identification unit acquires an analysis target corresponding to each of the plurality of analysis target image data.
  • the emotion when viewing the space may be specified, and the emotion when viewing the space corresponding to the space to be analyzed may be specified by averaging a plurality of the specified emotions when viewing the space.
  • the storage unit stores a machine learning model that outputs the viewer's emotion in the reference space image as the first analysis data. may be stored as
  • a computer executes a step of obtaining analysis target image data representing a state of an analysis target space, and analyzing the analysis target image data to obtain the analysis target image data representing A step of identifying hues and textures in association with each of a plurality of regions in an image to be analyzed, a position in a reference space image, a combination of hues and textures at the positions, and a reference space corresponding to the reference space image.
  • the degree of correlation between the position of each of the plurality of identified regions and the combination of hue and texture corresponding to the plurality of regions is a threshold value or more.
  • the computer includes an image acquiring unit for acquiring analysis target image data representing the state of the analysis target space, and analyzing the analysis target image data to obtain the analysis indicated by the analysis target image data.
  • An image analysis unit that identifies hues and textures in association with each of a plurality of regions in a target image, a position in a reference space image, a combination of hue and texture at that position, and a reference space corresponding to the reference space image.
  • FIG. 4 is a diagram for explaining processing for identifying hues and textures of multiple regions;
  • FIG. 4 is a diagram for explaining a first area and a second area in an image to be analyzed;
  • FIG. 10 is a schematic diagram in which a comfort level heat map is superimposed on an image to be analyzed;
  • It is an example of an image to be analyzed.
  • It is an example of a floor map superimposed on the feeling at the time of viewing. It is an example of a sequence executed by an information processing system.
  • FIG. 1 is a diagram for explaining an outline of an information processing system S.
  • the information processing system S is a system that provides a user with information indicating an emotion presumed to be felt by a viewer who views a predetermined space.
  • the users are, for example, designers and architects who design houses, offices, shops, parks, gardens, theme parks, and the like.
  • a viewer is, for example, a person who is assumed to use a residence or facility designed by the user.
  • the predetermined space will be referred to as an analysis target space.
  • the emotions of the viewer who sees the analysis target space differ depending on whether the analysis target space contains plants or wood, or if it contains metal or concrete. .
  • the viewing emotion changes according to the hue of the object included in the space to be analyzed and the texture of the surface of the object (that is, texture). Therefore, the information processing system S estimates the viewing emotion based on the combination of the hue and texture in the analysis target space represented by the analysis target image viewed by the viewer, or the position at which the analysis target space is viewed.
  • the information processing system S includes an image providing device 1, an administrator terminal 2, a viewing terminal 3, and an information processing device 4.
  • the image providing device 1, the administrator terminal 2, the viewing terminal 3, and the information processing device 4 transmit and receive various data via a network N such as the Internet.
  • the analysis target image representing the state of the analysis target space is, for example, an image for previewing real estate when purchasing or leasing real estate such as a house or office, or an image for purchasing products such as a store or showroom that sells products. It is an image showing a space, or an image showing a space where experience services are received, such as a tourist spot, a theme park, or a museum.
  • the image to be analyzed may be an image of an indoor space or an image of an outdoor space. Note that the image to be analyzed may be a virtual reality image (VR image) created by actually photographing an outdoor space or a space inside a building, or an image created using computer graphics technology. may
  • VR image virtual reality image
  • the image providing device 1 is a server that stores one or more pieces of analysis target image data to be viewed by a viewer using the information processing system S.
  • the image providing device 1 is managed, for example, by a business operator who operates a design office, a housing exhibition hall, a real estate company, or a store that sells products.
  • the image providing device 1 provides the viewing terminal 3 with one or more analysis target images in a manner that can be viewed by the viewer.
  • the image providing apparatus 1 may specify the analysis target image selected by the viewer after displaying the thumbnail images of the plurality of analysis target images on the viewing terminal 3 .
  • the image providing device 1 may acquire information indicating the position designated by the viewer on the viewing terminal 3 from the viewing terminal 3 .
  • the administrator terminal 2 is a computer used by an administrator who manages the image providing device 1 or a plurality of images to be analyzed.
  • the administrator terminal 2 uploads a plurality of analysis target images stored by the administrator to the image providing apparatus 1 via the network N.
  • the browsing terminal 3 may function as the administrator terminal 2 , and the user using the administrator terminal 2 may upload the analysis target image to the image providing apparatus 1 .
  • the viewing terminal 3 is a terminal used by the viewer to view one or more analysis target images and to display the viewer's emotion when viewing the analysis target space, and is, for example, a computer, a smartphone, or a tablet.
  • the viewing terminal 3 may be a terminal owned by the viewer, or may be a terminal installed in a design office, a real estate company, a housing exhibition hall, or a store.
  • the viewing terminal 3 receives analysis target image data representing an analysis target image from the image providing apparatus 1, and displays the analysis target image based on the received analysis target image data on the display.
  • a user who allows a viewer to view the image to be analyzed may use the viewing terminal 3 together with the viewer.
  • the viewing terminal 3 displays one or more analysis target images in a state that the viewer can select. For example, when the viewer selects one analysis target image from among the plurality of analysis target images, the viewing terminal 3 displays the selected analysis target image 6 .
  • the browsing terminal 3 may display the analysis target images one by one, and switch the analysis target images to be displayed according to the viewer's selection of an icon for switching the analysis target images to be displayed. For example, when the analysis target image is an image captured by an omnidirectional camera, the viewing terminal 3 may change the viewing direction of the displayed analysis target image based on the viewer's operation.
  • the viewing terminal 3 stores analysis target image identification information (hereinafter referred to as “analysis target image ID”) for identifying one or more analysis target images selected from a plurality of analysis target images by the viewer. 4 (see FIG. 1 (1)).
  • analysis target image ID analysis target image identification information
  • the browsing terminal 3 may transmit the captured image captured based on the viewer's operation to the information processing device 4 as the analysis target image.
  • the viewing terminal 3 may transmit CG images of indoors such as houses, offices, and stores, and facilities such as parks, gardens, and theme parks, which are created using computer graphics technology, as images to be analyzed. .
  • the information processing device 4 is a computer that identifies the viewer's viewing emotion when viewing the analysis target space indicated by the analysis target image 6 identified by the analysis target image ID received from the viewing terminal 3 .
  • the information processing device 4 estimates the viewing emotion based on the combination of hue and texture in the analysis target space indicated by the analysis target image 6 (see FIG. 1(2)).
  • the information processing device 4 transmits, to the viewing terminal 3, a heat map 7 representing, for example, the intensity of the emotion at the time of viewing, as information indicating the specified emotion at the time of viewing (see (3) in FIG. 1).
  • the browsing terminal 3 superimposes the heat map 7 on the analysis target image 6 and displays it on the display. By doing so, the user or the viewer can grasp the feeling at the time of viewing when the viewer visually recognizes the analysis target space.
  • the information processing device 4 mainly exemplifies the operation in the case of transmitting the viewing emotion to the viewing terminal 3 .
  • FIG. 2 is a diagram showing the configuration of the information processing device 4.
  • the information processing device 4 has a communication section 41 , a storage section 42 and a control section 43 .
  • the control unit 43 has an image acquisition unit 431 , an image analysis unit 432 , an emotion identification unit 433 and an output unit 434 .
  • the communication unit 41 has a communication interface for transmitting and receiving data to and from the image providing device 1, the administrator terminal 2, or the viewing terminal 3 via the network N.
  • the communication unit 41 inputs the analysis target image data received from the image providing device 1 and the analysis target image ID, the viewing state information, or the biological information received from the viewing terminal 3 to the image acquisition unit 431 .
  • the communication unit 41 transmits information indicating the emotion at viewing input from the output unit 434 to the viewing terminal 3 .
  • the storage unit 42 includes storage media such as ROM (Read Only Memory), RAM (Random Access Memory), and hard disk.
  • the storage unit 42 stores the analysis target image data received from the image providing apparatus 1 in association with the analysis target image ID for identifying the analysis target image data.
  • the storage unit 42 also stores programs executed by the control unit 43 .
  • the storage unit 42 stores the first analysis data used to identify the viewer's feeling when viewing the space to be analyzed.
  • the position in the reference space image, the combination of hue and texture at the position, and the viewer's emotion (viewing emotion) in the reference space corresponding to the reference space image are associated. ing.
  • FIG. 3 is an example of the reference space image 5.
  • the reference spatial image 5 in FIG. 3 is divided into a plurality of regions.
  • the reference spatial image 5 of this embodiment is divided into nine regions of 3 rows and 3 columns.
  • the position of each region is represented by two-dimensional coordinates indicating, for example, the row (X) position and the column (Y) position.
  • the positions of the regions are (1, 1), (1, 2), (1, 3), (2, 1), (2, 2), ( 2, 3), (3, 1), (3, 2), (3, 3).
  • the size of the area is arbitrary.
  • FIG. 4 is an example of the first analysis data.
  • each region in the reference space, the hue and texture of the region, and the emotion when viewing the region are associated.
  • the position visually recognized by the viewer in the reference space may be associated with the feeling at the time of viewing the position.
  • Hue is an index that indicates the difference in color aspect.
  • a hue is expressed in an RGB color space using three primary colors, for example, Red (R), Green (G), and Blue (B).
  • Hue may be represented using the HSV color space or the HLS color space.
  • Textture is an index that indicates the texture and feel of the surface of an object.
  • indices indicating the texture of the surface of an object include, but are not limited to, “vegetable”, “wood grain”, and “metallic”.
  • the index indicating the texture of the surface may be smoothness or surface roughness, which is an index indicating the unevenness of the surface of the object, or may indicate a design or pattern appearing on the surface.
  • the viewing emotion is an index of the emotion felt by the viewer viewing the reference space represented by the reference space image 5.
  • the emotion felt by the viewer who visually recognizes the reference space is measured in advance by experiments.
  • the viewer's emotion is measured, for example, based on the physiological state including at least one of electroencephalograms and heartbeats of the viewer who views a predetermined position in the reference space.
  • the viewer's emotions are represented by, for example, the degree of comfort and the degree of arousal using the Russell annulus model.
  • the viewer's emotion is that the greater the amount of alpha waves in the brain waves of the viewer who viewed the reference space, the more relaxed and comfortable the viewer who viewed the reference space (that is, the viewer's comfort level high).
  • the first analysis data indicates that the hue at the position [2, 1] of the reference space image is [green (59, 175, 177)] and the texture is [botanical]. It is shown.
  • the first analysis data indicates that the comfort level is [7] and the arousal level is [4] as the emotions felt by the viewer who visually recognizes the position [2, 1] of the reference space image. ing.
  • the emotions of the viewer who visually recognized the [green (59, 175, 117)] and [vegetative] space at position [2, 1] were [7] for comfort and [4] for arousal. ] (in a relaxed state).
  • the storage unit 42 may store viewer emotions in association with each of a plurality of reference space images. In this case, the storage unit 42 associates and stores the viewer's emotion with each of the plurality of positions of each reference space image.
  • the storage unit 42 may store the machine learning model as the first analysis data.
  • the first learning model which is the first analysis data, is a model generated by executing known machine learning processing using a plurality of reference space images.
  • the first learning model is a model that, when a position in a reference spatial image and a combination of hue and texture at that position are input, outputs an emotion when viewing the reference spatial image. That is, in the first learning model, the position in the reference space image and the combination of hue and texture at the position are the explanatory variables, and the emotion at the time of viewing is the objective variable.
  • the information processing device 4 uses the first learning model to predict the viewing emotion from the position and the combination of hue and texture at the position.
  • a learning model is, for example, a neural network.
  • the machine learning process is, for example, error backpropagation.
  • the storage unit 42 stores the second analysis data in which the position in the reference space image, the hue at the position, and the emotion of the viewer of the reference space image are associated with each other.
  • FIG. 5 is an example of the second analysis data.
  • the second analysis data does not have a texture associated with the position in the reference space image and the viewing emotion.
  • the emotion at the time of viewing at the position (2, 1) of the second analysis data is the emotion at the time of viewing of the first analysis data (comfort level [7], arousal level [4] (see FIG. 4 )), the degree of comfort is [7] and the degree of alertness is [7].
  • the second analysis data may be a learning model, similar to the first analysis data.
  • the second learning model of the second analysis data is a model that outputs the emotion when viewing the reference space image when the position in the reference space image and the hue at the position are input. That is, in the second learning model, the position in the reference space image and the hue at the position are the explanatory variables, and the emotion at the time of viewing is the objective variable.
  • the control unit 43 is, for example, a CPU (Central Processing Unit).
  • the control unit 43 functions as an image acquisition unit 431 , an image analysis unit 432 , an emotion identification unit 433 and an output unit 434 by executing programs stored in the storage unit 42 .
  • the image acquisition unit 431 acquires various information received by the communication unit 41 .
  • the image acquisition unit 431 acquires analysis target image data representing states of one or more analysis target spaces selected by a user or a viewer. Specifically, the image acquisition unit 431 acquires analysis target image data corresponding to the analysis target image ID transmitted by the viewing terminal 3 .
  • FIG. 6 is an example of the image 6 to be analyzed.
  • the image acquisition unit 431 inputs the analysis target image data identified by the acquired analysis target image ID to the image analysis unit 432 . Specifically, the image acquisition unit 431 acquires the analysis target image data identified by the acquired analysis target image ID from the image providing apparatus 1 and inputs the acquired analysis target image data to the image analysis unit 432 . When the browsing terminal 3 transmits a plurality of analysis target image IDs, the image acquisition unit 431 acquires the analysis target image data corresponding to each analysis target image ID from the image providing device 1, and collects the acquired analysis target image data. is input to the image analysis unit 432 .
  • the image analysis unit 432 identifies the hue and texture in the analysis target space represented by the analysis target image 6 by analyzing the analysis target image data. For example, the image analysis unit 432 identifies hues and textures in association with each of a plurality of regions in the analysis target image 6 indicated by the analysis target image data.
  • FIG. 7 is a diagram for explaining the process of identifying hues and textures of multiple regions.
  • the image 6 to be analyzed is divided into nine regions of 3 rows and 3 columns.
  • Identification information for specifying the position is set in the nine areas from the upper left to the lower right.
  • the identification information for specifying the position is (1, 1), (1, 2), (1, 3), (2, 1), (2, 2), ( 2, 3), (3, 1), (3, 2), (3, 3).
  • the image analysis unit 432 identifies the hue of each area. For example, the image analysis unit 432 identifies the hue of each of the plurality of pixels included in each region, and identifies the average value or median value of the hues of the plurality of pixels as the hue of the region. For example, the image analysis unit 432 identifies the average value of the hues of a plurality of pixels included in the region at position (1, 1) as the hue of the region.
  • the image analysis unit 432 identifies the texture of each area.
  • the image analysis unit 432 identifies the texture of each region by extracting features of each region using, for example, multiple mask patterns. Note that the process of specifying the texture by the image analysis unit 432 is not limited to the above process.
  • the emotion identification unit 433 identifies the emotion at the time of viewing of the viewer who visually recognizes the analysis target space. Specifically, first, the emotion specifying unit 433 first determines, in the first analysis data, the position of each region of the spatial image to be analyzed, the combination of the hue and texture at that position, and the Determine the degree of correlation between a location and the combination of hue and texture at that location. Then, the emotion identifying unit 433 identifies a position in the reference space image having a degree of correlation equal to or greater than a threshold value and an emotion at the time of viewing corresponding to the combination of hue and texture at the position as the emotion at the time of viewing of the viewer in the space to be analyzed. do.
  • the threshold value of the degree of correlation is determined in advance by experiments or the like.
  • the emotion specifying unit 433 determines that the analysis target image 6 has a degree of correlation with the combination of the hue [brown] and the texture [wood grain] at the position (1, 3) of the reference space image 5 that is equal to or greater than the threshold value. identify the area of If the hue at the position (2, 3) of the analysis target image 6 is [brown] and the texture is [wood grain], the emotion specifying unit 433 , the degree of correlation with the area at the position (2, 3) of the analysis target image 6 is determined to be greater than or equal to the threshold.
  • the emotion specifying unit 433 determines the emotion at the time of viewing the region of the position (2, 3) of the analysis target image 6 as the emotion at the time of viewing corresponding to the position (1, 3) of the reference space image 5 (comfort level [8] , arousal [8]) (see FIG. 4).
  • the emotion specifying unit 433 specifies the viewing emotion of the analysis target space corresponding to the analysis target spatial image by inputting the analysis target spatial image into the learning model. Specifically, the emotion specifying unit 433 inputs the position of each region of the analysis target space image and the combination of the hue and texture at the position to the learning model, thereby obtaining the analysis target space corresponding to the analysis target space image. identify the emotion at the time of viewing. In this way, the emotion specifying unit 433 can specify the emotion at the time of viewing with higher accuracy by using a learning model that specifies the emotion at the time of viewing by inputting a combination of hue and texture.
  • the emotion identification unit 433 may identify an emotion for each viewing position of the viewer with respect to the analysis target space. For example, the emotion identifying unit 433 identifies the emotion at viewing in association with the viewing position of the viewer in the analysis target space by referring to the first analysis data. Specifically, the emotion specifying unit 433 specifies the emotion at viewing of each viewing position on the assumption that each position in the space to be analyzed is viewed by the viewer. As a specific example, the emotion specifying unit 433 associates the position (1, 1) of the analysis target image with the position (1, 1) of the analysis target image 6, and assumes that the viewer views the position (1, 1) of the analysis target image 6. Identify emotions. By doing so, the emotion specifying unit 433 can specify the emotion assumed to be felt by a viewer who plans to use a house or facility designed by the user when viewing a predetermined position in the analysis target space.
  • the emotion specifying unit 433 may specify the viewing position of the viewer in the analysis space image corresponding to the analysis target space, and specify the viewing emotion in association with the specified viewing position. For example, while the viewer is wearing goggles having a camera that captures the eyes of the viewer and a display that displays the image to be analyzed, the emotion identification unit 433 detects the image to be analyzed displayed on the display. A viewing position is specified based on the position of the eye of the viewer. Then, the emotion specifying unit 433 specifies the emotion at viewing at the specified viewing position. By doing so, the emotion specifying unit 433 can specify an emotion assumed to be felt by the viewer when viewing the image at the viewing position.
  • the emotion specifying unit 433 specifies the viewing emotion according to the depth of the analysis target space. For example, the emotion specifying unit 433 specifies the emotion at the time of viewing based on the combination of hue and texture in the front region of the analysis target space, and specifies the emotion at the time of viewing based only on the hue in the back region.
  • the analysis target image data includes depth information associated with pixels. In other words, depth information is associated with each pixel included in the analysis target image data. The depth is, for example, a numerical value indicating a position in the depth direction of the analysis target space, and the larger the numerical value, the deeper the pixel in the analysis space.
  • the emotion specifying unit 433 defines a region where the depth indicated by the depth information is less than the depth threshold for distinguishing between the near side and the far side as the first region, which is the near side area of the analysis target space.
  • the emotion specifying unit 433 sets a region whose depth indicated by the depth information is equal to or greater than the depth threshold as a second region different from the first region.
  • the depth threshold is, for example, an intermediate value between the maximum value and the minimum value of depth indicated by the depth information of each pixel included in the analysis target image data, but is not limited to this.
  • FIG. 8 is a diagram for explaining the first area A and the second area B in the analysis target image 6.
  • FIG. A first area A shown in FIG. 8 is an area that includes only pixels that are less than the depth threshold.
  • a second region B is a region that includes only pixels that are equal to or greater than the depth threshold. That is, the first area A of the image 6 to be analyzed is located in front of the second area B. As shown in FIG.
  • the emotion specifying unit 433 refers to the first analysis data to determine the relationship between the position of the first region A and the combination of the hue and texture corresponding to the first region A. Based on this, the first emotion of the viewer of the image to be analyzed is identified. For example, the emotion identifying unit 433 identifies the first emotion of the viewer of the image to be analyzed by inputting the position of the first area A and the combination of the hue and texture of the first area A into the first learning model. do.
  • the emotion specifying unit 433 refers to the second analysis data to determine the target of analysis based on the relationship between the position of the second region B and the hue corresponding to the second region B. Identify the second emotion of the viewer of image 6 .
  • the emotion specifying unit 433 specifies the viewing emotion based on the first emotion and the second emotion. For example, the emotion identification unit 433 identifies the emotion at viewing by averaging the first emotion and the second emotion. Moreover, the emotion specifying unit 433 may specify the median value between the first emotion and the second emotion as the emotion at viewing. By doing so, the emotion specifying unit 433 can determine the emotion that the viewer has when viewing the front region where the color and surface texture of the object are visible, and the depth region where the texture is difficult to recognize and only the color can be visually recognized. It is possible to specify the emotion at the time of viewing that reflects the emotion that the viewer has when viewing.
  • the emotion specifying unit 433 weights the first emotion more than the second emotion and averages the A viewing emotion may be specified. By doing so, the emotion specifying unit 433 can weight the emotion when the viewer views the front of the analysis target space more heavily than the emotion when the viewer views the back of the analysis target space. As a result, the emotion identification unit 433 can identify the emotion at viewing including the influence of the distance.
  • the emotion identifying unit 433 further determines the proportion of green regions in the analysis target image 6 (hereinafter referred to as “green visibility ratio”) and the proportion of brown regions in the analysis target image 6 (hereinafter referred to as “wood coverage ratio”). to identify the emotion at viewing.
  • green visibility ratio the proportion of green regions in the analysis target image 6
  • wood coverage ratio the proportion of brown regions in the analysis target image 6
  • the feeling specifying unit 433 specifies a higher degree of comfort as the green coverage increases in the range from 0% to a predetermined value, and specifies a lower comfort as the green coverage increases beyond the predetermined value. .
  • the comfort level with respect to the green coverage draws an upward convex graph.
  • the emotion specifying unit 433 specifies at least one of the comfort level and the arousal level with respect to the tree coverage rate, similarly to the green coverage rate.
  • the predetermined value of the tree coverage ratio is different, it may be the same as the predetermined value of the green coverage ratio.
  • the emotion specifying unit 433 can specify the emotion at the time of viewing according to the ratio of plants and the ratio of wood to the entire analysis target space.
  • the emotion specifying unit 433 specifies the emotion at the time of viewing of one analysis target space by specifying the emotion at the time of viewing each of a plurality of analysis target images corresponding to one analysis target space.
  • One analysis target space is, for example, an indoor living room, kitchen, dining room, and bedroom.
  • the image acquisition unit 431 acquires a plurality of analysis target image data representing a state in which one analysis target space is viewed from different positions.
  • the image acquisition unit 431 acquires, as analysis target image data, a plurality of captured images in which at least one of the positions and orientations in which one analysis target space is captured is different.
  • the image analysis unit 432 identifies the hue and texture of each region of the analysis target image corresponding to each analysis target image data.
  • the emotion specifying unit 433 specifies the viewing emotion of the analysis target space corresponding to each of the plurality of analysis target image data. Specifically, the emotion identifying unit 433 inputs the hue and texture of each region of each analysis target image data to the first learning model, thereby identifying a plurality of viewing emotions corresponding to each analysis target image data. . Then, the emotion specifying unit 433 specifies an emotion at viewing corresponding to one analysis target space based on the plurality of specified emotions at viewing. For example, the emotion specifying unit 433 specifies an averaged value of a plurality of emotions at viewing or a median value of a plurality of emotions at viewing as the emotion at viewing corresponding to one analysis target space.
  • the emotion specifying unit 433 weights each viewing emotion according to the importance of the analysis target image data corresponding to the viewing emotion, and then averages a plurality of viewing emotions to perform one analysis.
  • a viewing emotion corresponding to the target space may be specified.
  • the emotion specifying unit 433 adds the analysis target image data showing the state of viewing one analysis target space from a position frequently viewed by the viewer to one of the positions from a position less frequently viewed by the viewer.
  • a larger weight than the analysis object image data showing the state of visually recognizing the analysis object space is weighted and averaged.
  • the emotion identification unit 433 can appropriately identify the emotion that the viewer has when spending time in one analysis target space.
  • the output unit 434 outputs information indicating the viewing emotion in association with the analysis target image 6 .
  • the output unit 434 outputs information for superimposing the viewing emotion on the analysis target image 6 and displaying it.
  • the output unit 434 outputs to the viewing terminal 3 information for superimposing and displaying a heat map of the emotional comfort level at the time of visual recognition on the image to be analyzed.
  • FIG. 9 is a schematic diagram in which the comfort level heat map 7 is superimposed on the image 6 to be analyzed. Areas displayed in white in FIG. 9 are areas where the degree of comfort is higher than other areas. Areas displayed in black in FIG. 9 are areas where the degree of comfort is lower than other areas. By doing so, it becomes easier for the user to grasp where in the analysis target space the comfort level will be high when the viewer looks.
  • the output unit 434 may output a radar chart expressing a plurality of items indicating the emotion at the time of viewing on a regular polygon as the information indicating the emotion at the time of viewing.
  • the plurality of items indicating the viewing emotion are, for example, types of emotion. Emotion types are, for example, relaxation, concentration, contentment, fatigue, and productivity.
  • the output unit 434 transmits information for displaying the radar chart indicating the emotion at the time of viewing together with the image 6 to be analyzed. By doing so, it becomes easier for the user to grasp what emotions the viewer who visually recognizes the analysis target space corresponding to the analysis target image 6 feels.
  • the information processing device 4 identifies the emotions at the time of visual recognition of a plurality of analysis target spaces included in one space, associates the identified emotions at the time of visual recognition with a map of the one space (hereinafter referred to as "floor map"), Display on terminal 2.
  • floor map a map of the one space
  • the image acquisition unit 431 acquires analysis target image data corresponding to each of a plurality of analysis target spaces included in one space. For example, the image acquisition unit 431 acquires, as analysis target image data, a plurality of captured images obtained by capturing a plurality of analysis target spaces. Further, the image acquisition unit 431 may acquire one analysis target image data representing a plurality of analysis target spaces. For example, the image acquisition unit 431 acquires a 360-degree image created by synthesizing a plurality of captured images obtained by capturing an omnidirectional image of one space from a predetermined position on a computer. Further, the image acquisition unit 431 may acquire a plurality of images obtained by dividing a 360-degree image by predetermined angles as a plurality of analysis target image data.
  • FIG. 10 is an example of the image 8 to be analyzed. The analysis target image 8 in FIG. 10 corresponds to each of a plurality of analysis target spaces included in one space.
  • the emotion specifying unit 433 specifies the viewing emotion of the analysis target space corresponding to each of the plurality of analysis target image data. Specifically, the emotion identifying unit 433 identifies the emotion at viewing of each piece of analysis-target image data by inputting a plurality of analysis-target image data into the first learning model.
  • the output unit 434 outputs to the viewing terminal 3 information for superimposing viewing emotions on a floor map corresponding to one space including a plurality of analysis target spaces corresponding to a plurality of analysis target images. Specifically, the output unit 434 outputs information indicating the viewing emotion corresponding to each of the plurality of analysis target images to regions corresponding to each of the plurality of analysis target images on the floor map.
  • FIG. 11 is an example of a floor map on which the emotion at the time of viewing is superimposed. The shaded area in FIG. 11 indicates the degree of comfort when the viewer visually recognizes the area. The darker the shade, the higher the comfort level. For example, areas 71 and 72 are more comfortable than areas 70, 73, 74 and 75. FIG. Region 70 has a higher comfort level than regions 73, 74 and 75.
  • the user who sees the floor map superimposed with the viewer's emotions will be able to easily grasp where in the floor the viewer will feel comfortable.
  • the user since the user can grasp which part of the floor the viewer is uncomfortable with, it can be used to improve the environment of the floor.
  • FIG. 12 is an example of a sequence executed by the information processing system S.
  • the sequence of FIG. 12 is executed, for example, when an instruction to start the process of identifying the emotion at viewing is transmitted from the viewing terminal 3 .
  • the image providing device 1 transmits a plurality of image data to the viewing terminal 3 that has transmitted an instruction to start the process of identifying the emotion at viewing (step S1). For example, the image providing device 1 transmits to the viewing terminal 3 a plurality of image data in which the inside of a store that sells products is captured at different positions and orientations.
  • the viewing terminal 3 displays a plurality of images corresponding to the plurality of image data transmitted from the image providing device 1 on the display.
  • the viewer selects an image that specifies the feeling at the time of viewing from among the plurality of images displayed on the viewing terminal 3 .
  • the viewing terminal 3 accepts selection of an image that identifies the emotion at viewing from among the plurality of images (step S2).
  • the viewing terminal 3 transmits an analysis target image ID for identifying the analysis target image to the information processing device 4 (step S3).
  • the information processing device 4 identifies the hue and texture of the analysis target image corresponding to the analysis target image data identified by the analysis target image ID transmitted from the viewing terminal 3 (step S4). Specifically, the information processing device 4 identifies the positions of the plurality of regions of the image to be analyzed and the combination of hue and texture in each region.
  • the information processing device 4 identifies the emotion when viewing the analysis target image for which the hue and texture have been identified (step S5). Specifically, the information processing device 4 specifies the emotion at viewing of each area by inputting the position of each area and the combination of the hue and texture of each area into the first learning model.
  • the information processing device 4 outputs the viewing emotion to the viewing terminal 3 in association with the analysis target image 6 (step S6).
  • the output unit 434 outputs information for superimposing the viewing emotion on the analysis target image for display.
  • the output unit 434 outputs to the viewing terminal 3 information for superimposing and displaying a heat map of the emotional comfort level at the time of visual recognition on the image to be analyzed.
  • the viewing terminal 3 displays the viewing emotion specified by the information processing device 4 on the display (step S7). Specifically, the browsing terminal 3 superimposes a heat map of the comfort level of the feeling when viewing the image on the analysis target image and displays it on the display (see FIG. 9).
  • the information processing device 4 not only transmits the emotion at the time of viewing to the viewing terminal 3, but also displays the emotion at the time of viewing on the display of the administrator terminal 2, prints it on a print medium such as paper, and displays it on the viewing terminal 3. may be transmitted to an external device (for example, the administrator terminal 2) different from that.
  • the information processing device 4 provides a third image in which a position in the reference space image, a combination of hue and texture at the position, and a viewer's emotion in the reference space corresponding to the reference space image are associated with each other.
  • 1 Stores data for analysis.
  • the information processing device 4 identifies the hue and texture of each region in the analysis target image indicated by the analysis target image data by analyzing the analysis target image data representing the state of the analysis target space.
  • the information processing device 4 determines, in the first analysis data, the positions in the reference space image corresponding to the combinations of the positions of the plurality of regions and the hue and texture corresponding to each region, and the hue and texture at the positions. to identify the viewer's feeling when viewing the space to be analyzed.
  • the information processing device 4 outputs information indicating the viewing emotion in association with the analysis target image.
  • the information processing device 4 allows a viewer estimated to hold the space of the hue and texture of the analysis target image whose correlation with the combination of the hue and texture of the reference space image is equal to or greater than the threshold value. You can identify the emotion of the moment.
  • the information processing device 4 can provide the user, who is a designer or an architect, with information indicating the viewer's feeling when viewing the analysis target space indicated by the analysis target image data. Then, the user who has been provided with the viewing emotion can grasp the emotion that the viewer is expected to have when viewing, for example, the analysis target space designed by the user himself/herself.
  • the user can design a space that makes the user feel comfortable and allows them to concentrate by confirming the emotion at the time of viewing the analysis target space whose layout has been changed with reference to the emotion at the time of viewing.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Tourism & Hospitality (AREA)
  • Economics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Image Analysis (AREA)

Abstract

情報処理装置4は、解析対象空間を表す解析対象画像を取得する画像取得部431と、解析対象画像を解析することにより、解析対象画像内の複数の領域それぞれに関連付けて色相とテクスチャとを特定する画像解析部432と、基準空間画像における位置と、当該位置における色相とテクスチャとの組み合わせと、当該基準空間画像の視認者感情と、が関連付けられた第1解析用データを記憶する記憶部42と、第1解析用データにおいて、特定した各領域それぞれの位置と、各領域に対応する色相とテクスチャとの組み合わせとの相関度が閾値以上の基準空間画像の位置と、当該位置における色相とテクスチャとの組み合わせに基づき、解析対象空間の視認者の視認時感情を特定する感情特定部433と、解析対象画像に関連付けて視認時感情を出力する出力部434と、を有する。

Description

情報処理装置、情報処理方法及びプログラム
 本発明は、空間の様子を示す画像に関する情報を出力する情報処理装置、情報処理方法及びプログラムに関する。
 人の眼に映る視野内に占める樹木など植物の面積割合である緑視率を算出する技術が知られている。特許文献1には、所定空間を示す画像データに対する緑視量の割合を緑視率として算出する技術が開示されている。
特開2010-272097号公報
 しかしながら、画像データの緑視率が算出されたとしても、当該画像データが示す空間を視認した視認者が当該空間に対してどのような印象を持つかを把握できるようにすることはできなかった。
 そこで、本発明はこれらの点に鑑みてなされたものであり、画像データが示す空間を視認した視認者が抱く感情を把握できるようにことを目的とする。
 本発明の第1の態様においては、解析対象空間の状態を表す解析対象画像データを取得する画像取得部と、前記解析対象画像データを解析することにより、前記解析対象画像データが示す解析対象画像内の複数の領域それぞれに関連付けて色相とテクスチャとを特定する画像解析部と、基準空間画像における位置と、当該位置における色相とテクスチャとの組み合わせと、当該基準空間画像に対応する基準空間の視認者の感情と、が関連付けられた第1解析用データを記憶する記憶部と、前記第1解析用データにおいて、前記画像解析部が特定した前記複数の領域それぞれの位置と、前記複数の領域に対応する色相とテクスチャとの組み合わせとの相関度が閾値以上の前記基準空間画像における位置と、当該位置における色相とテクスチャとの組み合わせを特定することにより、前記解析対象空間の視認者の視認時感情を特定する感情特定部と、前記解析対象画像に関連付けて前記視認時感情を示す情報を出力する出力部と、を有する情報処理装置を提供する。
 前記第1解析用データにおいては、前記基準空間の視認者が視認している位置と当該視認者の感情とが関連付けられており、前記感情特定部は、前記第1解析用データを参照することにより、前記解析対象空間の視認者の視認位置に関連付けて前記視認時感情を特定し、前記出力部は、前記解析対象画像における位置に関連付けて前記視認時感情を示す情報を出力してもよい。
 前記記憶部は、基準空間画像における位置と、当該位置における色相と、当該基準空間画像の視認者の感情と、が関連付けられた第2解析用データをさらに記憶し、前記感情特定部は、前記解析対象画像における第1領域に対しては、前記第1解析用データを参照することにより、前記第1領域の位置と前記第1領域に対応する色相とテクスチャとの組み合わせとの関係に基づいて、前記解析対象画像の視認者の第1感情を特定し、前記第1領域と異なる第2領域に対しては、前記第2解析用データを参照することにより、前記第2領域の位置と前記第2領域に対応する色相との関係に基づいて、前記解析対象画像の視認者の第2感情を特定し、前記第1感情と前記第2感情とを平均化することにより前記視認時感情を特定してもよい。
 前記解析対象画像データは、画素に関連付けられた深度情報を含み、前記感情特定部は、前記深度情報が示す深度が閾値未満の領域を前記第1領域とし、前記深度情報が示す深度が前記閾値以上の領域を前記第2領域としてもよい。
 前記感情特定部は、前記第1感情に前記第2感情よりも大きな重みづけをして平均化することにより前記視認時感情を特定してもよい。
 前記感情特定部は、前記解析対象画像における緑色の領域の割合と、前記解析対象画像における茶色の領域の割合とにさらに基づいて、前記視認時感情を特定してもよい。
 前記画像取得部は、複数の前記解析対象空間それぞれに対応する前記解析対象画像データを取得し、前記感情特定部は、複数の前記解析対象画像データそれぞれに対応する解析対象空間の前記視認時感情を特定し、前記出力部は、複数の前記解析対象画像に対応する複数の前記解析対象空間を含む空間に対応するフロアマップにおける複数の前記解析対象画像それぞれに対応する領域に、複数の前記解析対象画像それぞれに対応する前記視認時感情を示す情報を出力してもよい。
 前記出力部は、前記フロアマップにおける、前記視認時感情が所定の感情を示す前記解析対象画像に対応する領域に、前記視認時感情を示す情報を出力してもよい。
 前記画像取得部は、それぞれ異なる位置から前記解析対象空間を視認した状態を示す複数の前記解析対象画像データを取得し、前記感情特定部は、前記複数の解析対象画像データそれぞれに対応する解析対象空間の視認時感情を特定し、特定した複数の前記視認時感情を平均化することにより、前記解析対象空間に対応する前記視認時感情を特定してもよい。
 前記記憶部は、基準空間画像における位置と、当該位置における色相とテクスチャとの組み合わせと、が入力されると当該基準空間画像の視認者の感情を出力する機械学習モデルを前記第1解析用データとして記憶してもよい。
 本発明の第2の態様においては、コンピュータが実行する、解析対象空間の状態を表す解析対象画像データを取得するステップと、前記解析対象画像データを解析することにより、前記解析対象画像データが示す解析対象画像内の複数の領域それぞれに関連付けて色相とテクスチャとを特定するステップと、基準空間画像における位置と、当該位置における色相とテクスチャとの組み合わせと、当該基準空間画像に対応する基準空間の視認者の感情と、が関連付けられた第1解析用データにおいて、特定した前記複数の領域それぞれの位置と、前記複数の領域に対応する色相とテクスチャとの組み合わせとの相関度が閾値以上の前記基準空間画像における位置と、当該位置における色相とテクスチャとの組み合わせを特定することにより、前記解析対象空間の視認者の視認時感情を特定するステップと、前記解析対象画像に関連付けて前記視認時感情を示す情報を出力するステップと、を有する情報処理方法を提供する。
 本発明の第3の態様においては、コンピュータに、解析対象空間の状態を表す解析対象画像データを取得する画像取得部、前記解析対象画像データを解析することにより、前記解析対象画像データが示す解析対象画像内の複数の領域それぞれに関連付けて色相とテクスチャとを特定する画像解析部、基準空間画像における位置と、当該位置における色相とテクスチャとの組み合わせと、当該基準空間画像に対応する基準空間の視認者の感情と、が関連付けられた第1解析用データにおいて、前記画像解析部が特定した前記複数の領域それぞれの位置と、前記複数の領域に対応する色相とテクスチャとの組み合わせとの相関度が閾値以上の前記基準空間画像における位置と、当該位置における色相とテクスチャとの組み合わせを特定することにより、前記解析対象空間の視認者の視認時感情を特定する感情特定部、及び前記解析対象画像に関連付けて前記視認時感情を示す情報を出力する出力部、としての機能を実現させるためのプログラムを提供する。
 本発明によれば、画像データが示す空間を視認した視認者が抱く感情を把握できるようになるという効果を奏する。
情報処理システムの概要を説明するための図である。 情報処理装置の構成を示す図である。 基準空間画像の例である。 第1解析用データの一例である。 第2解析用データの一例である。 解析対象画像の一例である。 複数の領域の色相とテクスチャとを特定する処理を説明するための図である。 解析対象画像における第1領域と第2領域を説明するための図である。 快適度のヒートマップを解析対象画像に重畳させた模式図である。 解析対象画像の一例である。 視認時感情を重畳させたフロアマップの一例である。 情報処理システムが実行するシーケンスの一例である。
[情報処理システムSの概要]
 図1は、情報処理システムSの概要を説明するための図である。情報処理システムSは、所定の空間を視認した視認者が抱くと推定される感情を示す情報をユーザに提供するシステムである。ユーザは、例えば、住宅、オフィス、店舗、公園、庭園及びテーマパーク等を設計する設計者や建築家である。視認者は、例えばユーザが設計した住居や施設を利用すると想定される人である。以下、所定の空間を解析対象空間という。
 解析対象空間を視認した視認者が抱く感情(以下「視認時感情」という。)は、解析対象空間に植物や木材が含まれている場合と、金属やコンクリートが含まれている場合とで異なる。つまり、視認時感情は、解析対象空間に含まれる物体の色相及び物体の表面の質感(すなわちテクスチャ)に応じて変化する。そこで、情報処理システムSは、視認者が視認した解析対象画像で表される解析対象空間における色相及びテクスチャの組み合わせ、又は解析対象空間を視認した位置等に基づいて視認時感情を推定する。
 情報処理システムSは、画像提供装置1と、管理者端末2と、閲覧端末3と、情報処理装置4と、を備える。画像提供装置1、管理者端末2、閲覧端末3及び情報処理装置4は、インターネット等のネットワークNを介して各種のデータを送受信する。
 解析対象空間の状態を表す解析対象画像は、例えば、住宅やオフィス等の不動産の購入若しくは賃貸に際して不動産を内覧するための画像、商品を販売する店舗若しくはショールーム等のように商品を購入するための空間を示す画像、又は観光地、テーマパーク若しくは博物館等のように体験サービスを受ける空間を示す画像である。解析対象画像は、屋内の空間の画像でもよく、屋外の空間の画像であってもよい。なお、解析対象画像は例えば屋外や建物内の空間が実際に撮影されることにより作成された仮想現実画像(VR画像)であってもよく、コンピュータグラフィックス技術を用いて作成された画像であってもよい。
 画像提供装置1は、情報処理システムSを利用する視認者に視認させる一以上の解析対象画像データを記憶しているサーバである。画像提供装置1は、例えば、設計事務所、住宅展示場、不動産会社、又は商品を販売する店舗を運営する事業者により管理されている。
 画像提供装置1は、一以上の解析対象画像を視認者が閲覧可能な態様で閲覧端末3に提供する。画像提供装置1は、複数の解析対象画像のサムネイル画像を閲覧端末3に表示させた後に、視認者により選択された解析対象画像を特定してもよい。画像提供装置1は、視認者が閲覧端末3において指定した位置を示す情報を閲覧端末3から取得してもよい。
 管理者端末2は、画像提供装置1又は複数の解析対象画像を管理する管理者が使用するコンピュータである。管理者端末2は、管理者により格納された複数の解析対象画像を、ネットワークNを介して画像提供装置1にアップロードする。閲覧端末3が管理者端末2として機能し、管理者端末2を使用するユーザが解析対象画像を画像提供装置1にアップロードしてもよい。
 閲覧端末3は、視認者が一以上の解析対象画像を閲覧したり、解析対象空間の視認時感情を表示したりするために用いられる端末であり、例えばコンピュータ、スマートフォン又はタブレットである。閲覧端末3は、視認者が所有する端末であってもよく、設計事務所、不動産会社、住宅展示場又は店舗に設置された端末であってもよい。閲覧端末3は、解析対象画像を示す解析対象画像データを画像提供装置1から受信し、受信した解析対象画像データに基づく解析対象画像をディスプレイに表示する。視認者に解析対象画像を見てもらうユーザが、視認者とともに閲覧端末3を使用してもよい。
 視認者又はユーザが閲覧端末3で所定の操作をすると、閲覧端末3は、視認者が選択可能な状態で一以上の解析対象画像を表示する。例えば、閲覧端末3は、複数の解析対象画像のうちの1枚の解析対象画像を視認者が選択すると、選択された解析対象画像6を表示する。閲覧端末3は、解析対象画像を1枚ずつ表示し、表示する解析対象画像を切り替えるためのアイコンを視認者が選択したことに応じて、表示する解析対象画像を切り替えてもよい。解析対象画像が、例えば全方位カメラで撮影された画像である場合、閲覧端末3は、視認者の操作に基づいて、表示する解析対象画像の視認方向を変化させてもよい。
 閲覧端末3は、例えば、視認者が複数の解析対象画像から選択した一以上の解析対象画像を識別するための解析対象画像識別情報(以下、「解析対象画像ID」という。)を情報処理装置4に送信する(図1(1)参照)。なお、閲覧端末3は、視認者の操作に基づいて撮像した撮像画像を解析対象画像として情報処理装置4に送信してもよい。また、閲覧端末3は、コンピュータグラフィックス技術を用いて作成された、住宅やオフィス、店舗等の屋内や公園、庭園、及びテーマパーク等の施設のCG画像を解析対象画像として送信してもよい。
 情報処理装置4は、閲覧端末3から受信した解析対象画像IDで識別される解析対象画像6が示す解析対象空間を視認者が視認したときの視認時感情を特定するコンピュータである。情報処理装置4は、解析対象画像6が示す解析対象空間における色相及びテクスチャの組み合わせに基づいて視認時感情を推定する(図1(2)参照)。
 そして、情報処理装置4は、特定した視認時感情を示す情報として、例えば視認時感情の強弱を表すヒートマップ7を閲覧端末3に送信する(図1(3)を参照)。閲覧端末3は、解析対象画像6にヒートマップ7を重畳させてディスプレイに表示する。このようにすることで、ユーザ又は視認者は、解析対象空間を視認者が視認したときの視認時感情を把握できる。以下の説明においては、情報処理装置4が、視認時感情を閲覧端末3に送信する場合の動作を主に例示する。
[情報処理装置4の構成]
 図2は、情報処理装置4の構成を示す図である。情報処理装置4は、通信部41と、記憶部42と、制御部43と、を有する。制御部43は、画像取得部431と、画像解析部432と、感情特定部433と、出力部434と、を有する。
 通信部41は、ネットワークNを介して画像提供装置1、管理者端末2又は閲覧端末3との間でデータを送受信するための通信インターフェースを有する。通信部41は、画像提供装置1から受信した解析対象画像データ、及び閲覧端末3から受信した解析対象画像ID、視認状態情報又は生体情報を画像取得部431に入力する。また、通信部41は、出力部434から入力された視認時感情を示す情報を閲覧端末3に向けて送信する。
 記憶部42は、ROM(Read Only Memory)、RAM(Random Access Memory)及びハードディスク等の記憶媒体を含む。記憶部42は、画像提供装置1から受信した解析対象画像データを、解析対象画像データを識別するための解析対象画像IDに関連付けて記憶する。また、記憶部42は、制御部43が実行するプログラムを記憶する。
 記憶部42は、解析対象空間の視認者の視認時感情の特定に用いられる第1解析用データを記憶する。第1解析用データにおいては、基準空間画像における位置と、当該位置における色相とテクスチャとの組み合わせと、当該基準空間画像に対応する基準空間の視認者の感情(視認時感情)と、が関連付けられている。
 図3は、基準空間画像5の例である。図3の基準空間画像5は、複数の領域に分割されている。本実施形態の基準空間画像5は、3行3列の9つの領域に分割されている。各領域の位置は、例えば行(X)の位置と列(Y)の位置を示す2次元座標で表される。具体的には、各領域の位置は、左上から右下に向かって、(1,1)、(1,2)、(1,3)、(2,1)、(2,2)、(2,3)、(3,1)、(3,2)、(3,3)と設定されている。なお、基準空間画像5を分割する場合、上記の方法に限らず、任意の数及び配置の領域に分割できる。また、領域の大きさも任意である。
 図4は、第1解析用データの一例である。第1解析用データにおいては、基準空間の各領域と、当該領域の色相及びテクスチャと、当該領域の視認時感情とが関連付けられている。第1解析用データにおいては、基準空間の視認者が視認している位置と当該位置を視認したときの視認時感情とが関連付けられていてもよい。
 色相は、色の様相の相違を示す指標である。色相は、例えばRed(R)、Green(G)、Blue(B)の三原色を用いるRGB色空間で表される。色相は、HSV色空間又はHLS色空間を用いて表されてもよい。
 テクスチャは、物の表面の質感、手触りなどを示す指標である。物の表面の質感を示す指標は例えば「植物的」「木目調」「金属的」であるが、これに限定するものではない。表面の質感を示す指標は、物の表面の凹凸を表す指標である平滑度又は表面粗さであってもよく、表面に表れている模様やパターンを示すものであってもよい。
 視認時感情は、基準空間画像5が表す基準空間を視認した視認者が抱いた感情の指標である。基準空間を視認した視認者が抱いた感情は、予め実験により測定されている。視認者の感情は、例えば基準空間の所定位置を視認した視認者の脳波及び心拍のうちの少なくとも一方を含む生理状態に基づいて測定される。視認者の感情は、例えばラッセル円環モデルを用いた快適度及び覚醒度で表される。一例を挙げると、視認者の感情は、基準空間を視認した視認者の脳波におけるα波の量が多いほど、基準空間を視認した視認者がリラックスして快適である(すなわち視認者の快適度が高い)と推定される。また、視認者の感情は、基準空間を視認した視認者の脳波におけるβ波の量が多いほど、基準空間を視認した視認者が集中している(すなわち視認者の覚醒度が高い)と推定される。
 具体例を挙げると、第1解析用データには、基準空間画像の位置[2,1]における色相は[緑(59,175,177)]であり、テクスチャは[植物的]であることが示されている。そして、第1解析用データには、基準空間画像の位置[2,1]を視認した視認者が抱いた感情として、快適度が[7]、覚醒度が[4]であることが示されている。言い換えると、[緑(59,175,117)]で[植物的]な位置[2,1]の空間を視認した視認者の感情が、快適度が[7]であり、覚醒度が[4]である(リラックス状態である)ことが示されている。
 記憶部42は、複数の基準空間画像毎に視認者感情を関連付けて記憶してもよい。この場合、記憶部42は、各基準空間画像の複数の位置それぞれに、視認者感情を関連付けて記憶する。
 記憶部42は、機械学習モデルを第1解析用データとして記憶してもよい。例えば、第1解析用データである第1学習モデルは、複数の基準空間画像を用いて既知の機械学習処理を実行することによって生成されたモデルである。具体的には、第1学習モデルは、基準空間画像における位置と、当該位置における色相とテクスチャとの組み合わせと、が入力されると当該基準空間画像の視認時感情を出力するモデルである。すなわち、第1学習モデルにおいて、基準空間画像における位置と、当該位置における色相とテクスチャとの組み合わせとが説明変数であり、視認時感情が目的変数である。情報処理装置4は、第1学習モデルを用いて、位置と、当該位置における色相とテクスチャとの組み合わせとから視認時感情を予測する。学習モデルは、例えば、ニューラルネットワークである。機械学習処理は、例えば、誤差逆伝播法である。
 なお、物体の色と表面の質感がわかる状態で視認したときに視認者が抱く感情と、質感がなく色のみを視認したときに視認者が抱く感情とは異なる。そのため、記憶部42は、基準空間画像における位置と、当該位置における色相と、当該基準空間画像の視認者の感情と、が関連付けられた第2解析用データを記憶する。
 図5は、第2解析用データの一例である。第2解析用データには、第1解析用データと異なり、基準空間画像における位置及び視認時感情にテクスチャが関連付けられていない。具体例を挙げると、第2解析用データの位置(2,1)における視認時感情は、第1解析用データの視認時感情(快適度[7]、覚醒度[4](図4を参照))と異なり、快適度[7]、覚醒度[7]である。
 なお、第2解析用データは、第1解析用データと同様に、学習モデルであってもよい。この場合、第2解析用データの第2学習モデルは、基準空間画像における位置と、当該位置における色相と、が入力されると当該基準空間画像の視認時感情を出力するモデルである。すなわち、第2学習モデルにおいて、基準空間画像における位置と、当該位置における色相とが説明変数であり、視認時感情が目的変数である。
 制御部43は、例えばCPU(Central Processing Unit)である。制御部43は、記憶部42に記憶されたプログラムを実行することにより、画像取得部431、画像解析部432、感情特定部433及び出力部434として機能する。
 画像取得部431は、通信部41が受信した各種の情報を取得する。画像取得部431は、ユーザ又は視認者が選択した一以上の解析対象空間の状態を表す解析対象画像データを取得する。具体的には、画像取得部431は、閲覧端末3が送信した解析対象画像IDに対応する解析対象画像データを取得する。図6は、解析対象画像6の一例である。
 画像取得部431は、取得した解析対象画像IDで識別される解析対象画像データを画像解析部432に入力する。具体的には、画像取得部431は、取得した解析対象画像IDで識別される解析対象画像データを画像提供装置1から取得し、取得した解析対象画像データを画像解析部432に入力する。画像取得部431は、閲覧端末3が複数の解析対象画像IDを送信した場合、各解析対象画像IDに対応する解析対象画像データを画像提供装置1から取得し、取得した複数の解析対象画像データを画像解析部432に入力する。
 画像解析部432は、解析対象画像データを解析することにより、解析対象画像6が表す解析対象空間における色相とテクスチャを特定する。例えば、画像解析部432は、解析対象画像データが示す解析対象画像6内の複数の領域それぞれに関連付けて色相とテクスチャとを特定する。
 図7は、複数の領域の色相とテクスチャとを特定する処理を説明するための図である。図7に示すように、解析対象画像6は、3行3列の9つの領域に分割されている。9つの領域には、左上から右下に向かって位置を特定するための識別情報が設定されている。位置を特定するための識別情報は、例えば左上から右下に向かって、(1,1)、(1,2)、(1,3)、(2,1)、(2,2)、(2,3)、(3,1)、(3,2)、(3,3)と設定されている。
 画像解析部432は、各領域の色相を特定する。例えば、画像解析部432は、各領域に含まれている複数の画素それぞれの色相を特定し、複数の画素の色相の平均値又は中央値を領域の色相として特定する。一例を挙げると、画像解析部432は、位置(1,1)の領域に含まれている複数の画素の色相の平均値を領域の色相として特定する。
 画像解析部432は、各領域のテクスチャを特定する。画像解析部432は、例えば複数のマスクパターンを用いて各領域の特徴を抽出することにより、各領域のテクスチャを特定する。なお、画像解析部432がテクスチャを特定する処理は、上記の処理に限定するものではない。
 感情特定部433は、解析対象空間を視認する視認者の視認時感情を特定する。具体的には、まず、感情特定部433は、第1解析用データにおいて、解析対象空間画像の各領域の位置と、当該位置の色相とテクスチャとの組み合わせと、基準空間画像5の各領域の位置と当該位置の色相とテクスチャとの組み合わせとの相関度を特定する。そして、感情特定部433は、相関度が閾値以上の基準空間画像における位置と、当該位置における色相とテクスチャとの組み合わせに対応する視認時感情を、解析対象空間の視認者の視認時感情として特定する。相関度の閾値は、実験などによって予め定められている。
 具体例を挙げると、感情特定部433は、基準空間画像5の位置(1,3)における色相[茶]とテクスチャ[木目調]との組み合わせとの相関度が閾値以上である解析対象画像6の領域を特定する。感情特定部433は、解析対象画像6の位置(2,3)の色相が[茶]であり、テクスチャが[木目調]であれば、基準空間画像5の位置(1,3)の領域と、解析対象画像6の位置(2,3)の領域との相関度が閾値以上であると判定する。そして、感情特定部433は、解析対象画像6の位置(2,3)の領域の視認時感情を、基準空間画像5の位置(1,3)に対応する視認時感情(快適度[8]、覚醒度[8])であると特定する(図4を参照)。
 感情特定部433は、第1解析用データが学習モデルである場合、解析対象空間画像を学習モデルに入力することにより、解析対象空間画像に対応する解析対象空間の視認時感情を特定する。具体的には、感情特定部433は、解析対象空間画像の各領域の位置と、当該位置における色相とテクスチャとの組み合わせを学習モデルに入力することにより、解析対象空間画像に対応する解析対象空間の視認時感情を特定する。このように、感情特定部433は、色相とテクスチャとの組み合わせを入力することにより視認時感情を特定する学習モデルを用いることで、視認時感情を、より精度よく特定できる。
 感情特定部433は、解析対象空間に対する視認者の視認位置ごとに感情を特定してもよい。例えば、感情特定部433は、第1解析用データを参照することにより、解析対象空間の視認者の視認位置に関連付けて視認時感情を特定する。具体的には、感情特定部433は、解析対象空間の各位置を視認者が視認したと仮定して、各視認位置の視認時感情を特定する。具体例を挙げると、感情特定部433は、解析対象画像の位置(1,1)に関連付けて、解析対象画像6の位置(1,1)を視認者が視認したと仮定したときの視認時感情を特定する。このようにすることで、感情特定部433は、ユーザが設計した住居や施設を利用する予定の視認者が、解析対象空間の所定位置を視認したときに抱くと想定される感情を特定できる。
 また、感情特定部433は、解析対象空間に対応する解析空間画像における視認者の視認位置を特定し、特定した視認位置に関連付けて視認時感情を特定してもよい。例えば、感情特定部433は、視認者の眼を撮影するカメラと、解析対象画像を表示するディスプレイとを有するゴーグルを視認者が装着している状態で、ディスプレイに表示されている解析対象画像と視認者の瞳の位置とに基づいて視認位置を特定する。そして、感情特定部433は、特定した視認位置の視認時感情を特定する。このようにすることで、感情特定部433は、視認者が視認位置の画像を視認したときに抱くと想定される感情を特定できる。
 感情特定部433は、解析対象空間の奥行に応じた視認時感情を特定する。例えば、感情特定部433は、解析対象空間の手前の領域において色相及びテクスチャの組み合わせに基づく視認時感情を特定し、奥の領域において色相のみに基づいて視認時感情を特定する。この場合、解析対象画像データは、画素に関連付けられた深度情報を含む。言い換えると、解析対象画像データに含まれる各画素には、深度情報が関連付けられている。深度は、例えば解析対象空間の奥行方向の位置を示す数値であり、数値が大きいほど当該画素が解析空間の奥の領域に存在することを示す。
 感情特定部433は、深度情報が示す深度が、手前と奥とを区別するための深度閾値未満の領域を解析対象空間の手前の領域である第1領域とする。感情特定部433は、深度情報が示す深度が深度閾値以上の領域を、第1領域と異なる第2領域とする。深度閾値は、例えば解析対象画像データに含まれる各画素の深度情報が示す深度の最大値及び最小値の中間値であるが、これに限定するものではない。
 図8は、解析対象画像6における第1領域Aと第2領域Bを説明するための図である。図8に示す第1領域Aは、深度閾値未満である画素のみが含まれる領域である。第2領域Bは、深度閾値以上である画素のみが含まれる領域である。すなわち、解析対象画像6の第1領域Aは、第2領域Bよりも手前に位置している。
 感情特定部433は、第1領域Aに対しては、第1解析用データを参照することにより、第1領域Aの位置と第1領域Aに対応する色相とテクスチャとの組み合わせとの関係に基づいて、解析対象画像の視認者の第1感情を特定する。例えば、感情特定部433は、第1領域Aの位置と、第1領域Aの色相及びテクスチャの組み合わせとを第1学習モデルに入力することにより、解析対象画像の視認者の第1感情を特定する。
 感情特定部433は、第2領域Bに対しては、第2解析用データを参照することにより、第2領域Bの位置と第2領域Bに対応する色相との関係に基づいて、解析対象画像6の視認者の第2感情を特定する。
 そして、感情特定部433は、第1感情と第2感情とに基づいて視認時感情を特定する。例えば、感情特定部433は、第1感情と第2感情とを平均化することにより視認時感情を特定する。また、感情特定部433は、第1感情と第2感情との中央値を視認時感情として特定してもよい。このようにすることで、感情特定部433は、物体の色と表面の質感がわかる手前の領域を視認したときに視認者が抱く感情と、質感がわかりづらく色のみを視認できる奥の領域を視認したときに視認者が抱く感情とが反映された視認時感情を特定できる。
 解析対象空間における奥の領域よりも手前の領域の方が視認時感情に対する影響が大きいので、感情特定部433は、第1感情に第2感情よりも大きな重みづけをして平均化することにより視認時感情を特定してもよい。このようにすることで、感情特定部433は、視認者が解析対象空間の手前を視認したときの感情を、解析対象空間の奥を視認したときの感情よりも大きく重みづけできる。その結果、感情特定部433は、距離の影響を含めた視認時感情を特定できる。
 感情特定部433は、解析対象画像6における緑色の領域の割合(以下「緑視率」という)と、解析対象画像6における茶色の領域の割合(以下「木視率」という)とにさらに基づいて、視認時感情を特定してもよい。例えば、感情特定部433は、緑視率が0%から所定値までの間において緑視率が大きくなるほど高い快適度を特定し、所定値以降において緑視率が大きくなるほど低い快適度を特定する。言い換えると、緑視率に対する快適度は、上に凸のグラフを描く。なお、感情特定部433は、緑視率と同様に、木視率に対する快適度及び覚醒度の少なくともいずれかを特定する。木視率の所定値は、異なるものとするが、緑視率の所定値と同じであってもよい。これにより、感情特定部433は、解析対象空間全体に対する植物の比率、及び木材の比率に応じた視認時感情を特定できる。
 感情特定部433は、一の解析対象空間に対応する複数の解析対象画像それぞれの視認時感情を特定することにより、一の解析対象空間の視認時感情を特定する。一の解析対象空間は、例えば屋内のリビング、キッチン、ダイニング及び寝室等である。この場合、画像取得部431は、それぞれ異なる位置から一の解析対象空間を視認した状態を示す複数の解析対象画像データを取得する。言い換えると、画像取得部431は、一の解析対象空間を撮像した位置及び向きのうちの少なくとも一方が異なる複数の撮像画像を解析対象画像データとして取得する。
 次に、画像解析部432は、各解析対象画像データに対応する解析対象画像の各領域の色相とテクスチャを特定する。続いて、感情特定部433は、複数の解析対象画像データそれぞれに対応する解析対象空間の視認時感情を特定する。具体的には、感情特定部433は、各解析対象画像データの各領域の色相とテクスチャを第1学習モデルに入力することにより、各解析対象画像データに対応する複数の視認時感情を特定する。そして、感情特定部433は、特定した複数の視認時感情に基づいて一の解析対象空間に対応する視認時感情を特定する。例えば、感情特定部433は、複数の視認時感情を平均化した値、又は複数の視認時感情の中央値を一の解析対象空間に対応する視認時感情として特定する。
 また、感情特定部433は、各視認時感情に当該視認時感情に対応する解析対象画像データの重要度に応じた重みづけをした後の複数の視認時感情を平均化することにより一の解析対象空間に対応する視認時感情を特定してもよい。具体的には、感情特定部433は、視認者が視認する頻度が高い位置から一の解析対象空間を視認した状態を示す解析対象画像データに、視認者が視認する頻度が低い位置から一の解析対象空間を視認した状態を示す解析対象画像データよりも大きな重み付けをして平均化する。このようにすることで、感情特定部433は、視認者が一の解析対象空間で過ごす場合に抱く感情を適切に特定できる。
 出力部434は、解析対象画像6に関連付けて視認時感情を示す情報を出力する。例えば、出力部434は、解析対象画像6に視認時感情を重畳させて表示させるための情報を出力する。具体的には、出力部434は、視認時感情の快適度のヒートマップを解析対象画像に重畳させて表示させるための情報を閲覧端末3に出力する。
 図9は、快適度のヒートマップ7を解析対象画像6に重畳させた模式図である。図9の白く表示された領域は、快適度が他の領域よりも高い領域である。図9の黒く表示された領域は、快適度が他の領域よりも低い領域である。このようにすることで、ユーザは、解析対象空間のどこを視認者が見たときに快適度が高くなるかを把握しやすくなる。
 出力部434は、視認時感情を示す情報として、視認時感情を示す複数の項目を正多角形上に表現したレーダーチャートを出力してもよい。視認時感情を示す複数の項目は、例えば、感情の種類である。感情の種類は、例えばリラックス、集中、満足、疲れ、及び生産性である。出力部434は、解析対象画像6とともに視認時感情を示すレーダーチャートを表示させるための情報を送信する。このようにすることで、ユーザは、解析対象画像6に対応する解析対象空間を視認した視認者がどのような感情を抱くかを把握しやすくなる。
(視認時感情をフロアマップに重畳させて表示する処理)
 複数の解析対象空間を含む一の空間において、複数の解析対象空間それぞれに対応する視認時感情をユーザが知りたい場合がある。一の空間は、例えばデパート、ショッピングモールなどの商業施設、病院や役所などの公共施設である。複数の解析対象空間は、例えばデパートであれば、デパートに入店している複数の店舗、及び休憩スペースである。情報処理装置4は、一の空間に含まれる複数の解析対象空間の視認時感情を特定し、特定した視認時感情を一の空間の地図(以下「フロアマップ」という。)に関連付けて管理者端末2に表示させる。以下、視認時感情をフロアマップに重ねて表示する処理を具体的に説明する。
 画像取得部431は、一の空間に含まれる複数の解析対象空間それぞれに対応する解析対象画像データを取得する。例えば、画像取得部431は、複数の解析対象空間それぞれを撮像した複数の撮像画像を解析対象画像データとして取得する。また、画像取得部431は、複数の解析対象空間を示す一の解析対象画像データを取得してもよい。例えば、画像取得部431は、一の空間を所定の位置から全方位撮像した複数の撮像画像をコンピュータ上で合成処理されることにより作成された360度画像を取得する。また、画像取得部431は、360度が像を所定角度毎に分割した複数の画像を複数の解析対象画像データとして取得してもよい。図10は、解析対象画像8の一例である。図10の解析対象画像8は、一の空間に含まれる複数の解析対象空間それぞれに対応している。
 感情特定部433は、複数の解析対象画像データそれぞれに対応する解析対象空間の視認時感情を特定する。具体的には、感情特定部433は、複数の解析対象画像データを第1学習モデルに入力することにより、各解析対象画像データの視認時感情を特定する。
 出力部434は、複数の解析対象画像に対応する複数の解析対象空間を含む一の空間に対応するフロアマップに視認時感情を重畳させて表示するための情報を閲覧端末3に出力する。具体的には、出力部434は、フロアマップにおける複数の解析対象画像それぞれに対応する領域に、複数の解析対象画像それぞれに対応する視認時感情を示す情報を出力する。図11は、視認時感情を重畳させたフロアマップの一例である。図11の網掛けした領域は、当該領域を視認者が視認したときの快適度を示す。網掛けが濃くなるほど快適度は高い。例えば、領域71及び領域72の快適度は、領域70、領域73、領域74及び領域75よりも高い。領域70の快適度は、領域73、領域74及び領域75よりも高い。
 このようにすることで、視認時感情が重畳されたフロアマップを見たユーザは、フロア内のどこを見たときに視認者が快適になるかを把握しやすくなる。また、ユーザは、フロア内のどこを見たときに視認者が快適でなくなるかを把握できるので、フロアの環境改善に活用できる。
[情報処理システムSが実行するシーケンス]
 図12は、情報処理システムSが実行するシーケンスの一例である。図12のシーケンスは、例えば閲覧端末3から視認時感情を特定する処理を開始する指示が送信されたら実行される。
 まず、画像提供装置1は、視認時感情を特定する処理を開始する指示を送信した閲覧端末3に、複数の画像データを送信する(ステップS1)。例えば、画像提供装置1は、商品を販売する店舗内を撮像した位置及び向きがそれぞれ異なる複数の画像データを閲覧端末3に送信する。
 閲覧端末3は、画像提供装置1から送信された複数の画像データに対応する複数の画像をディスプレイに表示する。視認者は、閲覧端末3に表示された複数の画像のうち、視認時感情を特定する画像を選択する。閲覧端末3は、複数の画像のうち、視認時感情を特定する画像の選択を受け付ける(ステップS2)。閲覧端末3は、解析対象画像を識別するための解析対象画像IDを情報処理装置4に送信する(ステップS3)。
 情報処理装置4は、閲覧端末3から送信された解析対象画像IDで識別される解析対象画像データに対応する解析対象画像の色相とテクスチャを特定する(ステップS4)。具体的には、情報処理装置4は、解析対象画像の複数の領域の位置と、各領域における色相とテクスチャとの組み合わせとを特定する。
 続いて、情報処理装置4は、色相とテクスチャを特定した解析対象画像の視認時感情を特定する(ステップS5)。具体的には、情報処理装置4は、各領域の位置と、各領域の色相とテクスチャとの組み合わせとを第1学習モデルに入力することにより、各領域の視認時感情を特定する。
 情報処理装置4は、解析対象画像6に関連付けて視認時感情を閲覧端末3に出力する(ステップS6)。例えば、出力部434は、解析対象画像に視認時感情を重畳させて表示させるための情報を出力する。具体的には、出力部434は、視認時感情の快適度のヒートマップを解析対象画像に重畳させて表示させるための情報を閲覧端末3に出力する。
 閲覧端末3は、情報処理装置4が特定した視認時感情をディスプレイに表示する(ステップS7)。具体的には、閲覧端末3は、視認時感情の快適度のヒートマップを解析対象画像に重畳させてディスプレイに表示させる(図9を参照)。
 なお、情報処理装置4は、視認時感情を閲覧端末3に送信するだけでなく、視認時感情を管理者端末2のディスプレイに表示したり、紙などの印刷媒体に印刷したり、閲覧端末3と異なる外部装置(例えば管理者端末2)に送信したりしてもよい。
[情報処理装置4の効果]
 以上説明したとおり、情報処理装置4は、基準空間画像における位置と、当該位置における色相とテクスチャとの組み合わせと、当該基準空間画像に対応する基準空間の視認者の感情と、が関連付けられた第1解析用データを記憶している。まず、情報処理装置4は、解析対象空間の状態を表す解析対象画像データを解析することにより、解析対象画像データが示す解析対象画像内の各領域の色相とテクスチャを特定する。次に、情報処理装置4は、第1解析用データにおいて、複数の領域の位置と各領域に対応する色相とテクスチャとの組み合わせに対応する基準空間画像における位置と、当該位置における色相とテクスチャとの組み合わせを特定して解析対象空間の視認者の視認時感情を特定する。そして、情報処理装置4は、解析対象画像に関連付けて視認時感情を示す情報を出力する。
 このように、情報処理装置4は、基準空間画像の色相及びテクスチャの組み合わせと相関度が閾値以上である解析対象画像の色相及びテクスチャの空間を視認したときに抱くと推定される視認者の視認時感情を特定できる。その結果、情報処理装置4は、解析対象画像データが示す解析対象空間を視認した視認者の視認時感情を示す情報を、設計者や建築家であるユーザに提供できる。そして、視認時感情の提供を受けたユーザは、例えばユーザ自身が設計した解析対象空間を視認者が視認したときに抱くと想定される感情を把握できる。さらに、ユーザは、視認時感情を参考にレイアウトを変更した解析対象空間の視認時感情を確認することで、ユーザが快適になったり集中できたりする空間を設計できるようになる。
 以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されず、その要旨の範囲内で種々の変形及び変更が可能である。例えば、装置の全部又は一部は、任意の単位で機能的又は物理的に分散・統合して構成することができる。また、複数の実施の形態の任意の組み合わせによって生じる新たな実施の形態も、本発明の実施の形態に含まれる。組み合わせによって生じる新たな実施の形態の効果は、もとの実施の形態の効果を併せ持つ。
S 情報処理システム
1 画像提供装置
2 管理者端末
3 閲覧端末
4 情報処理装置
41 通信部
42 記憶部
43 制御部
431 画像取得部
432 画像解析部
433 感情特定部
434 出力部

Claims (12)

  1.  解析対象空間の状態を表す解析対象画像データを取得する画像取得部と、
     前記解析対象画像データを解析することにより、前記解析対象画像データが示す解析対象画像内の複数の領域それぞれに関連付けて色相とテクスチャとを特定する画像解析部と、
     基準空間画像における位置と、当該位置における色相とテクスチャとの組み合わせと、当該基準空間画像に対応する基準空間の視認者の感情と、が関連付けられた第1解析用データを記憶する記憶部と、
     前記第1解析用データにおいて、前記画像解析部が特定した前記複数の領域それぞれの位置と、前記複数の領域に対応する色相とテクスチャとの組み合わせとの相関度が閾値以上の前記基準空間画像における位置と、当該位置における色相とテクスチャとの組み合わせを特定することにより、前記解析対象空間の視認者の視認時感情を特定する感情特定部と、
     前記解析対象画像に関連付けて前記視認時感情を示す情報を出力する出力部と、
     を有する情報処理装置。
  2.  前記第1解析用データにおいては、前記基準空間の視認者が視認している位置と当該視認者の感情とが関連付けられており、
     前記感情特定部は、前記第1解析用データを参照することにより、前記解析対象空間の視認者の視認位置に関連付けて前記視認時感情を特定し、
     前記出力部は、前記解析対象画像における位置に関連付けて前記視認時感情を示す情報を出力する、
     請求項1に記載の情報処理装置。
  3.  前記記憶部は、基準空間画像における位置と、当該位置における色相と、当該基準空間画像の視認者の感情と、が関連付けられた第2解析用データをさらに記憶し、
     前記感情特定部は、前記解析対象画像における第1領域に対しては、前記第1解析用データを参照することにより、前記第1領域の位置と前記第1領域に対応する色相とテクスチャとの組み合わせとの関係に基づいて、前記解析対象画像の視認者の第1感情を特定し、前記第1領域と異なる第2領域に対しては、前記第2解析用データを参照することにより、前記第2領域の位置と前記第2領域に対応する色相との関係に基づいて、前記解析対象画像の視認者の第2感情を特定し、前記第1感情と前記第2感情とを平均化することにより前記視認時感情を特定する、
     請求項1又は2に記載の情報処理装置。
  4.  前記解析対象画像データは、画素に関連付けられた深度情報を含み、
     前記感情特定部は、前記深度情報が示す深度が閾値未満の領域を前記第1領域とし、前記深度情報が示す深度が前記閾値以上の領域を前記第2領域とする、
     請求項3に記載の情報処理装置。
  5.  前記感情特定部は、前記第1感情に前記第2感情よりも大きな重みづけをして平均化することにより前記視認時感情を特定する、
     請求項4に記載の情報処理装置。
  6.  前記感情特定部は、前記解析対象画像における緑色の領域の割合と、前記解析対象画像における茶色の領域の割合とにさらに基づいて、前記視認時感情を特定する、
     請求項1又は2に記載の情報処理装置。
  7.  前記画像取得部は、複数の前記解析対象空間それぞれに対応する前記解析対象画像データを取得し、
     前記感情特定部は、複数の前記解析対象画像データそれぞれに対応する解析対象空間の前記視認時感情を特定し、
     前記出力部は、複数の前記解析対象画像に対応する複数の前記解析対象空間を含む空間に対応するフロアマップにおける複数の前記解析対象画像それぞれに対応する領域に、複数の前記解析対象画像それぞれに対応する前記視認時感情を示す情報を出力する、
     請求項1又は2に記載の情報処理装置。
  8.  前記出力部は、前記フロアマップにおける、前記視認時感情が所定の感情を示す前記解析対象画像に対応する領域に、前記視認時感情を示す情報を出力する、
     請求項7に記載の情報処理装置。
  9.  前記画像取得部は、それぞれ異なる位置から前記解析対象空間を視認した状態を示す複数の前記解析対象画像データを取得し、
     前記感情特定部は、前記複数の解析対象画像データそれぞれに対応する解析対象空間の視認時感情を特定し、特定した複数の前記視認時感情を平均化することにより、前記解析対象空間に対応する前記視認時感情を特定する、
     請求項1又は2に記載の情報処理装置。
  10.  前記記憶部は、基準空間画像における位置と、当該位置における色相とテクスチャとの組み合わせと、が入力されると当該基準空間画像の視認者の感情を出力する機械学習モデルを前記第1解析用データとして記憶する、
     請求項1又は2に記載の情報処理装置。
  11.  コンピュータが実行する、
     解析対象空間の状態を表す解析対象画像データを取得するステップと、
     前記解析対象画像データを解析することにより、前記解析対象画像データが示す解析対象画像内の複数の領域それぞれに関連付けて色相とテクスチャとを特定するステップと、
     基準空間画像における位置と、当該位置における色相とテクスチャとの組み合わせと、当該基準空間画像に対応する基準空間の視認者の感情と、が関連付けられた第1解析用データにおいて、特定した前記複数の領域それぞれの位置と、前記複数の領域に対応する色相とテクスチャとの組み合わせとの相関度が閾値以上の前記基準空間画像における位置と、当該位置における色相とテクスチャとの組み合わせを特定することにより、前記解析対象空間の視認者の視認時感情を特定するステップと、
     前記解析対象画像に関連付けて前記視認時感情を示す情報を出力するステップと、
     を有する情報処理方法。
  12.  コンピュータに、
     解析対象空間の状態を表す解析対象画像データを取得する画像取得部、
     前記解析対象画像データを解析することにより、前記解析対象画像データが示す解析対象画像内の複数の領域それぞれに関連付けて色相とテクスチャとを特定する画像解析部、
     基準空間画像における位置と、当該位置における色相とテクスチャとの組み合わせと、当該基準空間画像に対応する基準空間の視認者の感情と、が関連付けられた第1解析用データにおいて、前記画像解析部が特定した前記複数の領域それぞれの位置と、前記複数の領域に対応する色相とテクスチャとの組み合わせとの相関度が閾値以上の前記基準空間画像における位置と、当該位置における色相とテクスチャとの組み合わせを特定することにより、前記解析対象空間の視認者の視認時感情を特定する感情特定部、及び
     前記解析対象画像に関連付けて前記視認時感情を示す情報を出力する出力部、
     としての機能を実現させるためのプログラム。
PCT/JP2022/047150 2021-12-28 2022-12-21 情報処理装置、情報処理方法及びプログラム WO2023127649A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021-213694 2021-12-28
JP2021213694 2021-12-28

Publications (1)

Publication Number Publication Date
WO2023127649A1 true WO2023127649A1 (ja) 2023-07-06

Family

ID=86998965

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/047150 WO2023127649A1 (ja) 2021-12-28 2022-12-21 情報処理装置、情報処理方法及びプログラム

Country Status (1)

Country Link
WO (1) WO2023127649A1 (ja)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007029455A1 (ja) * 2005-09-07 2007-03-15 Pioneer Corporation 風景単調度演算装置及び方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007029455A1 (ja) * 2005-09-07 2007-03-15 Pioneer Corporation 風景単調度演算装置及び方法

Similar Documents

Publication Publication Date Title
RU2668408C2 (ru) Устройства, системы и способы виртуализации зеркала
GB2564745B (en) Methods for generating a 3D garment image, and related devices, systems and computer program products
Yuan et al. A mixed reality virtual clothes try-on system
DE102013203667B4 (de) Kabine zum Ausprobieren eines oder mehrerer Bekleidungsstücke
Steptoe et al. Presence and discernability in conventional and non-photorealistic immersive augmented reality
CN109840825A (zh) 基于用户的物理特征的推荐系统
EP3745352B1 (en) Methods and systems for determining body measurements and providing clothing size recommendations
US11126845B1 (en) Comparative information visualization in augmented reality
JP7342366B2 (ja) アバター生成システム、アバター生成方法、およびプログラム
CN110377149A (zh) 场景分类
Liang et al. Functional workspace optimization via learning personal preferences from virtual experiences
WO2018216602A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2015219892A (ja) 視線分析システムおよび視線分析装置
CN111767817A (zh) 一种服饰搭配方法、装置、电子设备及存储介质
JP6359253B2 (ja) 感情抽出方法、感情抽出プログラム、感情抽出装置、及び建築物設計方法
WO2023127649A1 (ja) 情報処理装置、情報処理方法及びプログラム
JP2017146762A (ja) 画像表示型シミュレーションサービス提供システム及び画像表示型シミュレーションサービス提供方法
Sato et al. suGATALOG: Fashion coordination system that supports users to choose everyday fashion with clothed pictures
KR102477231B1 (ko) 응시 대상 관심도 검출 장치 및 방법
JP6755529B1 (ja) 情報処理方法、情報処理装置、及び制御プログラム
WO2019208152A1 (ja) 情報処理装置及びプログラム
JP2003077001A (ja) 顔画像通信装置およびプログラム
US20200184675A1 (en) Positioning Method and Reality Presenting Device
JP7361254B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP6802549B1 (ja) 情報処理方法、情報処理装置、及び制御プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22915872

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2023570908

Country of ref document: JP

Kind code of ref document: A