WO2023228931A1 - 情報処理システム、情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理システム、情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
WO2023228931A1
WO2023228931A1 PCT/JP2023/019075 JP2023019075W WO2023228931A1 WO 2023228931 A1 WO2023228931 A1 WO 2023228931A1 JP 2023019075 W JP2023019075 W JP 2023019075W WO 2023228931 A1 WO2023228931 A1 WO 2023228931A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
virtual space
information
unit
data
Prior art date
Application number
PCT/JP2023/019075
Other languages
English (en)
French (fr)
Inventor
司 本田
Original Assignee
株式会社ジオクリエイツ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ジオクリエイツ filed Critical 株式会社ジオクリエイツ
Publication of WO2023228931A1 publication Critical patent/WO2023228931A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range

Definitions

  • the present invention relates to an information processing system, an information processing device, an information processing method, and a program.
  • a system that outputs information indicating the reaction of a user who views an image in a virtual reality space or an augmented reality space (hereinafter referred to as a "virtual space image”) (see, for example, Patent Document 1).
  • Conventional systems can output information indicating changes in reactions while the user is viewing a virtual space image.
  • a designer or provider of a virtual space image (hereinafter referred to as a "designer, etc.") can improve the virtual space image by understanding changes in user reactions.
  • designers and the like can recognize how a user will react when a virtual space image has features, just by understanding changes in a user's reaction. Therefore, there is a problem in that it is difficult for designers and the like to understand how to change the virtual space image.
  • an object of the present invention is to make it easier for designers of virtual space images to improve virtual space images.
  • An information processing system includes an information terminal and an information processing device capable of communicating with the information terminal, and the information terminal includes an operation reception unit that receives a user's operation, and an operation reception unit that receives a user's operation.
  • the information processing device includes a data acquisition unit that acquires display state data for specifying the virtual space image that the user is viewing, and a data acquisition unit that acquires display state data for identifying the virtual space image that the user is viewing, and a data acquisition unit that acquires display state data for identifying the virtual space image that the user is viewing, based on the display state data.
  • a gaze identification unit that identifies a gaze point at which the person gazed at at least a portion of the virtual space image for a predetermined period of time or more; and a point in time when the virtual space image displayed on the information terminal included a predetermined characteristic. and an output unit that associates and outputs the gaze time and the feature occurrence time.
  • the data acquisition unit acquires end data indicating that the user has finished viewing the virtual space image from the information terminal, and the output unit associates the end data with the gaze point and the characteristic occurrence point, Information indicating the viewing end point indicated by the data may be output.
  • the output unit may output state data indicating a result of estimating the biological state of the user based on the gaze point and the characteristic occurrence point.
  • the feature specifying unit may specify a point in time when the feature occurs, where the composition of the virtual space image displayed on the information terminal includes a one-point perspective composition.
  • the feature specifying unit may specify the time point at which the feature occurs, which includes at least one of the type, size, or position of guidance information indicating a course along which the user can move in the virtual space image.
  • the gaze identification unit may identify a time point at which the user gazed at the guidance information.
  • the gaze identification unit may identify the guidance information that has been gazed at for a longer period of time from among the plurality of pieces of guidance information.
  • the feature specifying unit specifies the proportion of time each of the plurality of objects is displayed in the virtual space image displayed within a predetermined time including the gaze point, and the output unit associates the objects with the virtual space image. information indicating the proportion of the time may be output.
  • the output unit may output information indicating a time period during which the user continued viewing the virtual space image.
  • the information processing device may further include a storage unit that stores an attribute of the user, and the output unit may output the gaze point and the characteristic occurrence point in association with the user's attribute. .
  • the output unit may display, on the same time axis, a plurality of images showing in chronological order the point of view of the gaze and the point of occurrence of the characteristic when the user continued viewing the virtual space image for different times. good.
  • An information processing device includes a data acquisition unit that acquires display state data for identifying a virtual space image that is viewed by a user and whose display area and display orientation change according to the user's operation. , a gaze specifying unit that identifies a gaze point at which the user gazes at at least a portion of the virtual space image for a predetermined period of time or longer; It has a feature specifying unit that specifies a feature occurrence time point, which is a time point at which the feature was included, and an output unit that associates and outputs the gaze time point and the feature occurrence time point.
  • An information processing method is performed by a computer and acquires display state data for identifying a virtual space image that is viewed by a user and whose display area and display orientation change according to the user's operation. identifying a gaze point at which the user gazed at at least a portion of the virtual space image for a predetermined period of time or longer; and a step of correlating and outputting the gazing time and the feature occurrence time.
  • a program includes a step of causing a computer to acquire display state data for specifying a virtual space image that a user is viewing and whose display area and display orientation change according to the user's operation; identifying a gaze point at which the user gazed at at least a portion of the virtual space image for a predetermined period of time or more; and a step of specifying a gaze point at which the user gazed at at least a portion of the virtual space image for a predetermined period of time or more; and a step in which the virtual space image displayed on the information terminal used by the user includes a predetermined characteristic.
  • This is a program for executing the steps of specifying a feature occurrence time point, which is a time point at which the gaze point was being made, and outputting the correlation between the gaze time point and the feature occurrence time point.
  • FIG. 1 is a diagram showing an overview of an information processing system S.
  • FIG. FIG. 2 is a diagram schematically showing the entire virtual space image data.
  • 2 is a diagram showing an example of a virtual space image viewed by a user U.
  • FIG. 1 is a diagram showing the configuration of an information terminal 1.
  • FIG. 1 is a diagram showing the configuration of an information processing device 2.
  • FIG. 3 is a diagram illustrating an example of a screen including information output by an output unit 234.
  • FIG. It is a figure which shows the example of the screen on which the estimation result of a biological condition was displayed.
  • FIG. 7 is a diagram illustrating an example of an image that shows, in chronological order, the viewing time point (broken line) and the time point at which a predetermined feature was included (solid line) when viewing durations are different.
  • FIG. 1 is a diagram showing an overview of an information processing system S1.
  • 3 is a diagram showing an example of a screen displayed on the information terminal 1.
  • FIG. 1 is a diagram showing the configuration of an information terminal 1.
  • FIG. 3 is a diagram showing an example of recommended state data.
  • FIG. 3 is a diagram showing an example of recommended state data.
  • 1 is a diagram showing the configuration of an information processing device 2.
  • FIG. 2 is a sequence diagram showing an example of the flow of processing in the information processing system S1.
  • FIG. 2 is a diagram showing an overview of an information processing system S2.
  • FIG. 4 is a diagram showing the configuration of an information processing device 4.
  • FIG. 1 is a diagram showing an overview of the information processing system S.
  • the information processing system S presents a virtual space image to the user U, and determines a point in time when the user U gazes while the user U is viewing the virtual space image, and a predetermined time point in the virtual space image that the user U is viewing.
  • This is a system that allows designers of virtual space image data to understand the point in time when a feature was included.
  • the predetermined characteristics of the virtual space image include that the virtual space image includes a predetermined composition (for example, a one-point perspective composition or a two-point perspective composition), and that the virtual space image includes an image of a predetermined object.
  • the virtual space image includes route guidance information, or the ratio of a predetermined color in the virtual space image is greater than or equal to a threshold value.
  • Virtual space image data is, for example, image data representing a three-dimensional space created by computer graphics, but even if virtual space image data includes image data generated by photographing a real subject. good. Further, the virtual space image data may include augmented reality image data.
  • the virtual space image data is configured such that the displayed area changes when the user U operates the terminal on which the virtual space image is displayed, for example. That is, the virtual space image data corresponds to an area larger than the image area that can be displayed on the terminal used by the user U.
  • the virtual space image data is image data that virtually shows a space in which the user U can move the viewing position, such as an event venue, a cityscape, or the inside of a building.
  • the event organizer who is the provider of the virtual space image data wants the user U to see as many areas as possible. For example, if an event organizer wants to advertise a product, he wants the user U to proceed to an area where the product is being explained. However, depending on the configuration of the virtual space image data, the user U may not know the direction in which to proceed, or may lose interest midway through, and thus end viewing the virtual space image.
  • the information processing system S outputs the point in time when the user U gazed at the virtual space image and the characteristics of the virtual space image that change while the user U is looking at the virtual space image. It is possible for a designer of image data and the like to easily understand what characteristics the virtual space image has that the user U has gazed at. Further, the information processing system S outputs information indicating the point in time when the user U finishes viewing the virtual space image in association with information indicating the point in time when the user U gazed at the virtual space image and information indicating the characteristics of the virtual space image. You can also do that.
  • designers, etc. can determine how the virtual space image is configured to help the user U finish viewing, and how the virtual space image is configured to help the user U. You can understand whether it is easy to continue browsing. As a result, designers of virtual space images and the like can easily improve virtual space image data.
  • the information processing system S includes an information terminal 1, an information processing device 2, and an output terminal 3.
  • the information terminal 1, the information processing device 2, and the output terminal 3 are connected to a network N and can transmit and receive data with other devices.
  • the information terminal 1 is a terminal used by the user U to view virtual space images, and is, for example, a personal computer, a tablet, a smartphone, or a glasses-shaped or goggle-shaped terminal.
  • the information terminal 1 displays a virtual space image based on virtual space image data received from the information processing device 2 via the network N on a display.
  • the information terminal 1 changes the position and orientation of the virtual space image displayed on the display out of the virtual space image data.
  • the information terminal 1 transmits display state data indicating the position and orientation in the virtual space image data of the area of the virtual space image being displayed on the display to the information processing device 2.
  • the display state data is data including, for example, information indicating the position where the information terminal 1 is displaying in the spatial image data and the orientation of the user U, and is associated with time.
  • the display state data may be data obtained by capturing a screen on which the information terminal 1 is displaying a virtual space image. In this case, the time is associated with the captured data. Note that the time is represented by, for example, the elapsed time since the user U started viewing the virtual space image.
  • the position in the virtual space image data is represented by three-dimensional coordinates or two-dimensional coordinates based on the origin of the three-dimensional space represented by the virtual space image data.
  • the origin of the three-dimensional space is, for example, the position where the user U starts viewing the virtual space image (that is, the position where the user U starts moving forward).
  • the position in the virtual space image data is, for example, the coordinates of the virtual space image data corresponding to the center position of the display.
  • the virtual space image data may include predetermined information included in the virtual space image data or coordinates indicating the position of a predetermined object as metadata.
  • the metadata includes, for example, the coordinates of a position where guidance information such as a sign or an advertisement is displayed.
  • the metadata may include coordinates of a position where the object is displayed in association with the type of the object.
  • the orientation in the virtual space image data is expressed by the orientation of the three-dimensional space represented by the virtual space image data with respect to the reference orientation.
  • the reference orientation is, for example, the orientation of the virtual space image displayed on the display before the user U performs an operation to change the display position and orientation of the virtual space image.
  • the information processing device 2 provides virtual space image data to the information terminal 1. Furthermore, based on the display state data received from the information terminal 1, the information processing device 2 associates and outputs the time point at which the user U gazed and the features in the virtual space image viewed by the user U. The information processing device 2 outputs, for example, to the output terminal 3 via the network N, information indicating the gaze point and the point in time when the virtual space image including predetermined features is displayed.
  • FIG. 2 is a diagram schematically showing the entire virtual space image data.
  • the virtual space image data shown in FIG. 2(a) shows the layout of the event venue viewed from above.
  • the shaded areas in FIG. 2 are buildings, billboards, signage, etc.
  • FIG. 2(b) shows that the user U moves within the event venue along the route indicated by the broken line in response to the user's U operation.
  • FIG. 3 is a diagram showing an example of a virtual space image viewed by the user U.
  • FIG. 3(a) is a virtual space image that the user U views at point A in FIG. 2(b), with the user U facing in the direction of the arrow.
  • FIG. 3(b) is a virtual space image that the user U views at point B in FIG. 2(b), with the user U facing in the direction of the arrow.
  • FIG. 3(c) is a virtual space image that the user U views at point C in FIG. 2(b), with the user U facing in the direction of the arrow.
  • the object marked with the symbol K in FIG. 3(b) is an example of guidance information that indicates the direction of travel to the user U.
  • information indicating, for example, the details of an event being held at a location in the direction of the object or the direction in which the user U should proceed is written.
  • FIG. 4 is a diagram showing the configuration of the information terminal 1.
  • the information terminal 1 includes a communication section 11, a display section 13, an operation section 14, a storage section 15, and a control section 16.
  • the control unit 16 includes a data acquisition unit 161, an operation reception unit 162, and a display processing unit 163.
  • the communication unit 11 has a communication interface for transmitting and receiving data to and from the information processing device 2 via the network N.
  • the communication unit 11 receives virtual space image data transmitted from the information processing device 2, for example, and inputs the received virtual space image data to the data acquisition unit 161.
  • the communication unit 11 also acquires display state data indicating the position and orientation of the virtual space image displayed on the display unit 13 from the display processing unit 163, associates the display state data with time, and transmits the display state data to the information processing device 2. .
  • the communication unit 11 may transmit captured data of the virtual space image displayed on the display unit 13 to the information processing device 2 in association with time as display state data.
  • the display unit 13 is a display that displays various information.
  • the display unit 13 displays, for example, a virtual space image based on virtual space image data.
  • the operation unit 14 is a device that receives operations from the user U, and includes, for example, a keyboard and a mouse.
  • the operation unit 14 inputs data indicating the content of the operation by the user U to the operation reception unit 162.
  • the storage unit 15 includes storage media such as ROM (Read Only Memory), RAM (Random Access Memory), and SSD (Solid State Drive).
  • the storage unit 15 stores programs executed by the control unit 16. Furthermore, the storage unit 15 temporarily stores virtual space image data, display state data, and the like. For example, the storage unit 15 stores display state data in association with the elapsed time since the user U started viewing the virtual space image.
  • the control unit 16 includes a CPU (Central Processing Unit).
  • the control unit 16 functions as a data acquisition unit 161, an operation reception unit 162, and a display processing unit 163 by executing a program stored in the storage unit 15.
  • the data acquisition unit 161 acquires virtual space image data transmitted from the information processing device 2.
  • the data acquisition unit 161 stores the acquired virtual space image data in the storage unit 15.
  • the data acquisition unit 161 may input the acquired virtual space image data to the display processing unit 163.
  • the operation reception unit 162 accepts the operation performed by the user U on the operation unit 14. Specifically, the operation reception unit 162 receives the coordinates indicating the position where the user U touches the display unit 13 or clicks the mouse while the virtual space image is displayed on the display unit 13, for example. It is accepted as the content of U's operation.
  • the display processing unit 163 causes the display unit 13 to display a virtual space image based on the virtual space image data.
  • the display processing unit 163 changes the display area and display orientation of the virtual space image data provided from the information processing device 2 based on the user U's operation received by the operation reception unit 162, for example, thereby changing the virtual space image.
  • a virtual space image corresponding to some image data of the data is displayed.
  • FIG. 5 is a diagram showing the configuration of the information processing device 2.
  • the information processing device 2 includes a communication section 21, a storage section 22, and a control section 23.
  • the control unit 23 includes a data acquisition unit 231 , a gaze identification unit 232 , a feature identification unit 233 , and an output unit 234 .
  • the communication unit 21 has a communication interface for transmitting and receiving data to and from the information terminal 1 and the output terminal 3 via the network N.
  • the communication unit 21 inputs the received data to the data acquisition unit 231.
  • the communication unit 21 also transmits data input from the output unit 234.
  • the storage unit 22 includes storage media such as ROM, RAM, and SSD.
  • the storage unit 22 stores programs executed by the control unit 23. Furthermore, the storage unit 22 stores virtual space image data.
  • the storage unit 22 stores display state data acquired by the data acquisition unit 231 via the communication unit 21 in association with the user U.
  • the control unit 23 has a CPU, and functions as a data acquisition unit 231, a gaze identification unit 232, a feature identification unit 233, and an output unit 234 by executing a program stored in the storage unit 22.
  • the data acquisition unit 231 acquires display state data for identifying the virtual space image that the user U is viewing from the information terminal 1 via the communication unit 21.
  • the data acquisition unit 231 stores the acquired display state data in the storage unit 22 in association with the user U.
  • the data acquisition unit 231 may cause the storage unit 22 to store display state data in association with the elapsed time since the user U started viewing the virtual space image data.
  • the data acquisition unit 231 may acquire end data from the information terminal 1 indicating that the user U has finished viewing the virtual space image.
  • the gaze identification unit 232 identifies a gaze point at which the user U who is viewing the virtual space image gazes at at least a portion of the virtual space image for a predetermined period of time or more.
  • the predetermined time is the minimum time for which it is assumed that the user U does not move the virtual space image when the virtual space image in which the user U is interested is displayed, and is, for example, 3 seconds.
  • the predetermined time may be a time that can be set by a designer or the like via an external device such as the output terminal 3, or may be a fixed time.
  • the gaze specifying unit 232 compares the positions and orientations indicated by a plurality of pieces of display state data corresponding to a plurality of times, thereby determining whether the user U has stopped at the same position facing the same direction for a predetermined period of time. , it is specified that the user U is gazing at the point in time.
  • the display state data is image data captured by the information terminal 1
  • the gaze specifying unit 232 determines whether the user U is gazing when a plurality of captured data corresponding to a plurality of times are the same for a predetermined period of time. Identify the point in time.
  • the gaze identification unit 232 may identify the position that the user U gazed at in the virtual space image data. For example, the gaze specifying unit 232 identifies the central position of the virtual space image displayed on the information terminal 1 at the time point specified as the gaze point, as the position at which the user U is gazing. When the information terminal 1 has a function of detecting the line of sight of the user U, the gaze identification unit 232 may specify the position of the line of sight of the user U detected by the information terminal 1 at the time of gaze as the position at which the user U gazed. .
  • the gaze identification unit 232 may identify the point in time when the user U gazed at the guidance information. For example, the gaze specifying unit 232 specifies the coordinates indicating the position of the guidance information by referring to the metadata of the virtual space image data, and determines whether the guidance information is included within a predetermined range from the center position of the display of the information terminal 1. The point in time is specified as the point in time when the user U gazed at the guidance information.
  • This predetermined range is a range in which the user U who is looking at the display of the information terminal 1 from the front can clearly view the guide information, and is, for example, a range within a radius of 5 cm from the center position.
  • the gaze identification unit 232 may identify the guidance information that has been gazed at for a longer period of time from among the plurality of pieces of guidance information.
  • the gaze identification unit 232 may identify one or more pieces of guidance information whose gazed time is equal to or longer than a threshold value as the gazed guidance information.
  • the feature identification unit 233 identifies a feature occurrence time point, which is a time point at which a predetermined feature was included in the virtual space image displayed on the information terminal 1 used by the user U. For example, the feature identifying unit 233 determines the point in time when the composition of the virtual space image displayed on the information terminal 1 was a one-point perspective composition by analyzing the shape of an object included in the virtual space image indicated by the display state data. Specify as the point in time when the characteristic occurs. The feature identifying unit 233 identifies a time point at which at least one of the type, size, or position of the guide information indicating a course along which the user U can move in the virtual space image is included as the time point at which the feature occurs. You can.
  • the feature specifying unit 233 may specify the proportion of time each of the plurality of objects is displayed in the virtual space image displayed within a predetermined time including the point of gaze.
  • the plurality of objects are, for example, passages, intersections, guidance information, green areas (for example, grass or tree leaves), brown areas (for example, tree trunks or branches), and landmarks.
  • This predetermined time is, for example, the time during which the user U continues to gaze at the same position. This predetermined time may be the time from when the user U starts viewing the virtual space image until the user U finishes viewing the virtual space image. This predetermined time may be a period from the point of view immediately before the point in time when the user U finishes viewing the virtual space image to the point in time when the viewing ends.
  • the output unit 234 outputs the gaze time point specified by the gaze specifying unit 232 and the feature occurrence time point specified by the feature specifying unit 233 in association with each other.
  • the output unit 234 transmits information indicating the gaze point and information indicating the characteristic occurrence point to the output terminal 3, for example via the communication unit 21.
  • the output unit 234 may output information indicating the viewing end time indicated by the end data acquired from the information terminal 1 by the data acquisition unit 231 in association with the gaze time and the feature occurrence time.
  • FIG. 6 is a diagram showing an example of a screen including information output by the output unit 234.
  • FIG. 6 includes a region R1, a region R2, a region R3, a region R4, and a region R5.
  • the output unit 234 displays the screen shown in FIG. 6 on the output terminal 3, the output unit 234 can change the information included in the screen according to the operation performed by the designer or the like on the output terminal 3.
  • the area R1 is an area where a plurality of thumbnail images of a plurality of virtual space images having different elapsed times since the user U started viewing the virtual space images are displayed.
  • the plurality of thumbnail images correspond to, for example, a virtual space image that the user U was viewing at a time that is a multiple of a predetermined time (for example, 20 seconds) after the viewing start point.
  • a designer or the like using the output terminal 3 can change the information displayed in other areas by selecting one thumbnail image from the plurality of thumbnail images displayed in the area R1.
  • Area R2 is an area where a virtual space image corresponding to a thumbnail image selected by a designer or the like is displayed.
  • a virtual space image corresponding to the elapsed time specified by the designer or the like may be displayed in the region R2.
  • a plurality of thumbnail images may be displayed in chronological order in the area R2.
  • the output unit 234 may display a thumbnail image having characteristics specified by a designer or the like in a manner different from other thumbnail images.
  • the output unit 234 causes the output terminal 3 to display a thumbnail image containing, for example, guide information surrounded by a frame.
  • the output unit 234 may display a thumbnail image of the virtual space image corresponding to the time point at which the feature occurrence time point and the gaze time point overlap in the region R2. By displaying such a thumbnail image by the output unit 234, the designer etc. can easily understand what kind of features the user U has gazed at on the virtual space image.
  • the area R3 is an area where an image indicating a gaze point and a characteristic occurrence point within a predetermined time from the elapsed time corresponding to the thumbnail image selected by the designer or the like is displayed.
  • the horizontal axis in region R3 corresponds to the elapsed time since user U started viewing the virtual space image corresponding to the selected thumbnail image.
  • the vertical axis in region R3 corresponds to the strength of gaze by user U and the strength of a predetermined feature indicated by the virtual space image.
  • a broken line E in region R3 indicates the point in time when user U finishes viewing.
  • the mountain indicated by the broken line in region R3 in FIG. 6 indicates the gaze point.
  • the longer the peak duration of the mountain the longer the duration of the gaze state.
  • the peak indicated by the solid line in region R3 indicates the time point at which the feature occurs.
  • the form of the image indicating the gaze point and the feature occurrence time is not limited to the form shown in FIG. 6, but may be arbitrary.
  • the output unit 234 may output information indicating the viewing duration (for example, a broken line with symbol E) in association with the gaze point or the feature occurrence point.
  • the designer etc. can grasp the correlation between the time that the user U continued browsing, the tendency of the user U to gaze, and the tendency of the characteristics of the virtual space image. It becomes easier.
  • the output unit 234 may be configured to change the type of feature for which the time of feature occurrence is to be output, based on settings by a designer or the like. Specifically, when “single point perspective composition" is selected as a feature, the output unit 234 causes the output terminal 3 to display the image shown in area R3 in FIG. When “two-point perspective composition” is selected as a feature, the output unit 234 displays an image indicating the point in time when the two-point perspective composition was specified by the feature specifying unit 233 in area R3.
  • the output unit 234 may simultaneously display images indicating the times when each of the plurality of features was specified by the feature specifying unit 233 in a different manner in the region R3. That is, the output unit 234 may display a plurality of types of feature occurrence points corresponding to a plurality of different features in a different manner for each type of feature in the region R3. The output unit 234 displays the points at which a plurality of different features occur on the same time axis as the point of view, making it easier for the designer etc. to grasp the features of the virtual space image that are easy for the user U to look at. Become.
  • Region R4 indicates the number of times the user U gazed at the virtual space image during a predetermined period (for example, the time corresponding to the image shown in region R3), the number of times a predetermined feature was identified in the virtual space image, and the number of times the user U viewed the virtual space image. This is the area where the continuous time is displayed.
  • the output unit 234 further outputs information indicating how long the user U continued to view the virtual space image in association with the number of times the user U gazed or the number of times the predetermined feature was included in the virtual space image. You can also output it.
  • Area R5 is an area where information indicating the proportion of time that various objects were included in the virtual space image viewed by user U is displayed. As shown in FIG. 6, the output unit 234 outputs information indicating the time ratio in association with the virtual space image. In the area R5, for example, the rate at which each object is displayed within the time corresponding to the image shown in the area R3 is displayed.
  • the area R5 may display the percentage of each object displayed in the time range specified by the designer or the like.
  • the proportion of each object displayed in a predetermined time range immediately before the user U finishes viewing the virtual space image and the proportion of each object displayed in other time ranges are simultaneously displayed. may be done. Displaying such information makes it easier for designers and the like to understand what kind of virtual space image the user U is viewing and the probability that the user U will stop viewing is high.
  • the output unit 234 may output state data indicating the result of estimating the biological state of the user U based on the gaze point and the feature occurrence point.
  • the biological condition is, for example, brain waves, heart rate, or sweat amount.
  • the output unit 234 outputs, for example, state data indicating a predetermined biological state in a time zone where the number of gazes per unit time is large.
  • the predetermined biological state is, for example, a state in which ⁇ waves are occurring in the user U's brain waves.
  • a state in which ⁇ waves are occurring is a state in which brain waves with a frequency of 4 Hz or more but less than 8 Hz are occurring. It is known that the ⁇ waves have a correlation with the state of spatial perception, and it is thought that the user U is likely to remember the image he/she is viewing at a time when the ⁇ waves are large.
  • FIG. 7 is a diagram showing an example of a screen on which the estimation results of the biological condition are displayed.
  • FIG. 7 includes a region R6 indicating the estimated biological condition.
  • the level of the theta wave is high in the time period when the frequency of gaze is equal to or higher than the threshold and the time of gaze overlaps with the time when the virtual space image includes a one-point perspective composition. It is shown that.
  • the output unit 234 outputs such state data, the designer etc. can grasp the biological state of the user U while the user U is viewing the virtual space image, so the designer etc. can take the biological state into consideration. This makes it possible to improve the virtual space image.
  • the output unit 234 outputs state data indicating the estimation result that the ⁇ wave is generated during the time period when the point of gaze overlaps with the point in time when the virtual space image includes a one-point perspective composition.
  • the virtual space image at the time the theta waves are occurring includes an image of guidance information indicating the course, an image of a passage, an image of a landmark, etc.
  • the user U will continue to view the virtual space image for a long time and will be able to memorize it easily. Therefore, by knowing the generation state of the ⁇ waves, it becomes easier for designers and the like to improve the virtual space image data so that the user U can continue to view and memorize the virtual space image for a long time.
  • the output unit 234 When the user U is wearing a device that measures the biological condition, and the data acquisition unit 231 acquires data indicating the measured biological condition via the information terminal 1, for example, the output unit 234 outputs the estimated biological condition.
  • the measured biological condition may be displayed at the same time as the condition.
  • the output unit 234 inputs the data indicating the estimated biological condition to a machine learning model that has undergone deep learning using data indicating the estimated biological condition and data indicating the measured biological condition as training data, and performs the machine learning. Data indicating the biological state after correction in the model may be output.
  • FIG. 7 includes a region R6 instead of the region R2 in FIG. 6, the region R2 may also be included in FIG.
  • a virtual space image at a time when the subject is in a predetermined biological state may be displayed in area R2.
  • the output unit 234 displays the virtual space image at the time when the ⁇ wave is at a high level in the region R2.
  • the output unit 234 outputs the virtual space image at the time when the biological condition is in a predetermined state, making it easier for designers etc. to understand the relationship between the biological condition and the virtual space image, and improving the virtual space image. It becomes easier.
  • the output unit 234 may output the estimation result of the biological state using a machine learning model that outputs the biological state by inputting the information indicating the gaze point and the information indicating the feature occurrence point.
  • the machine learning model calculates the time points at which a large number of users U viewed the virtual space images while measuring their biological conditions, the points in time when the virtual space images include predetermined features, and the biological condition values for each time ( This is a model created by deep learning using a combination of levels of (for example, ⁇ waves) as training data.
  • the output unit 234 inputs information indicating the gaze point as displayed in region R3 and information indicating the feature occurrence point into the machine learning model, and outputs the estimation result of the biological state output from the machine learning model. Output.
  • the output unit 234 may output the gazing time point and the characteristic occurrence time point in association with the attributes of the user U stored in the storage unit 22.
  • the designer etc. can easily create virtual space image data suitable for each of the plurality of attributes of the user U.
  • the output unit 234 may display, on the same time axis, a plurality of images showing in chronological order the gazing time point and the feature occurrence time point when the user U continues to view the virtual space image for different times.
  • FIG. 8 is a diagram illustrating an example of an image showing the gaze point (broken line) and feature occurrence point (solid line) in chronological order when the viewing durations are different.
  • FIG. 8 shows the gaze points and the like when users U of the same attribute view different virtual space images.
  • the broken line H in FIG. 8 indicates the average viewing duration time.
  • FIG. 8(a) shows that the viewing time was the longest compared to FIG. 8(b) and FIG. 8(c).
  • FIG. 8(c) shows that the viewing time was the shortest.
  • the output unit 234 may output the results of identifying the occurrence patterns of each of the plurality of features of the virtual space image whose viewing duration is longer than the average viewing duration. As an example, the output unit 234 outputs, as a result of identifying the occurrence pattern, an interval between positions where a predetermined feature is included in the virtual space image data whose viewing duration is longer than the average viewing duration.
  • the output unit 234 uses a machine learning model created by performing deep learning on occurrence patterns of a plurality of predetermined features of a large number of virtual space images whose viewing duration is longer than the average viewing duration as training data. , a measure for improving the virtual space image may be output.
  • the machine learning model calculates the average browsing duration when data indicating a point in time when a predetermined feature was included is input. Outputs data indicating a point in time that is longer than time and is closest to the input data and includes a predetermined feature.
  • the output unit 234 outputs information indicating the difference between the data input to the machine learning model and the data output by the machine learning model, allowing designers etc. to know how to modify the virtual space image data. It becomes easier to understand whether there is a possibility of extending the viewing duration.
  • the output unit 234 may output statistical information as a result of a large number of users U viewing the virtual space image.
  • the output unit 234 may output the average number of gazes and the average viewing duration when one virtual space image is viewed by a plurality of users U.
  • the output unit 234 may output a correlation diagram in which the number of gazes and the viewing duration are plotted on the vertical and horizontal axes.
  • the output unit 234 also outputs user U's movement route, stay time at each point, user U's biological condition, user U's looking angle (same as The range of directions changed at each point may also be displayed. Furthermore, based on the movement of the user U, the output unit 234 changes the state of the user U into a selection stage in which the user U does not know how to proceed, a progress stage in which the user understands the direction to proceed, and a state in which the user U is gazing at an object. It is also possible to output the results classified into different stages.
  • FIG. 9 is a diagram showing an overview of the information processing system S1.
  • the information processing system S1 is a system that displays data indicating the state of the user U, superimposed on the spatial image that the user U is viewing.
  • the spatial image may be an image of the space that the user U is actually viewing, or may be an image of a metaverse including a virtual reality image (VR image) created by a computer.
  • VR image virtual reality image
  • the data indicating the state of the user U is, for example, biometric information image data indicating a change in the value of the biometric information of the user U over time, or state data specified based on the biometric information image data.
  • the biological information includes, for example, the user U's heart rate, brain waves, perspiration, skin potential measured by the measuring device M, the user's U's line of sight, or the content of a mouse or keyboard operation that sets a screen range that indicates the range of the user's U's line of sight. This is information based on, for example, image information of a graph.
  • the state of the user U may be what the user U is feeling while viewing the spatial image, which is identified based on the user U's biological information, or the state of the mind and body of the user U.
  • the user U's state is, for example, relaxed, nervous, concentrated, or excited.
  • the information terminal 1 displays, for example, the state of the user U identified by the information processing device 2 based on the biometric information image data, superimposed on the spatial image.
  • the user U viewing the spatial image can grasp his or her own status. It becomes possible to judge whether it is suitable for user U. If the user U determines that the spatial image he is viewing is not suitable for him, he can change it to a spatial image suitable for him.
  • Such information processing system S1 is suitable for displaying an image of one's own avatar on the metaverse.
  • the information processing system S1 includes an information terminal 1, an information processing device 2, and an output terminal 3.
  • the information terminal 1, the information processing device 2, and the output terminal 3 are connected to a network N and can transmit and receive data with other devices.
  • the information terminal 1 is a terminal used by the user U to view spatial images, and is, for example, a personal computer, a tablet, a smartphone, or a glasses-shaped or goggle-shaped terminal.
  • the information terminal 1 acquires biological information from a measuring device M worn by the user U, for example.
  • the information terminal 1 displays biometric information image data indicating changes in biometric information values over time together with spatial image data.
  • the biological information image data is, for example, an augmented reality image (AR image).
  • the information terminal 1 transmits biological information image data and spatial image data to the information processing device 2.
  • the information processing device 2 identifies the state of the user U based on the user U's biometric information image data displayed on the information terminal 1. For example, when biometric information image data is input, the information processing device 2 specifies the state of the user U by inputting the biometric information image data into a machine learning model that outputs data indicating the user's U state. The information processing device 2 transmits state data indicating the specified state to the information terminal 1. The information terminal 1 that has received the status data displays the status data together with the spatial image data.
  • FIG. 10 is a diagram showing an example of a screen displayed on the information terminal 1. Spatial image data is displayed in the region R11, biological information image data is displayed in the region R12, and status data transmitted from the information processing device 2 is displayed in the region R13. User U can understand his own condition by looking at the biometric information image data displayed in area R12, but he can objectively understand his own condition by looking at the condition data displayed in area R13. can do.
  • a "change" icon for receiving an operation from the user U to change the aspect of the spatial image is displayed in the region R11.
  • the aspect of the spatial image displayed in the region R1 is changed.
  • the aspects of the spatial image include, for example, the hue, saturation, brightness, degree of unevenness, shape, or arrangement of floors, walls, ceilings, furniture, etc.
  • the information terminal 1 may display a plurality of candidates for changed spatial images or may display a recommended spatial image in response to the selection of the "change" icon.
  • the method for selecting an icon may be gaze, blinking, wink, etc. using eye tracking, or gestures using hand tracking.
  • a "registration" icon for registering the displayed spatial image as a favorite image of the user U is displayed in the region R11.
  • the information terminal 1 stores the displayed spatial image as a favorite image of the user U, or transmits the spatial image to the information processing device 2.
  • the brightness of the spatial image displayed in region R11 is high, and region R13 shows a state of low relaxation and high tension. If the spatial image displayed in area R1 is an image of the living room, and user U feels that he or she would like to relax in the living room, when user U selects the "Change" icon, information terminal 1 changes to area R13. The spatial image is changed in such a manner that the displayed state of the user U may change.
  • FIG. 10(b) shows a screen on which a spatial image whose brightness is lower than the spatial image displayed in FIG. 10(a) is displayed.
  • a spatial image whose brightness is lower than the spatial image displayed in FIG. 10(a) is displayed.
  • regions R12 shows that the degree of relaxation is high.
  • User U can register the spatial image displayed in FIG. 10(b) by selecting the "registration" icon.
  • the aspect of the spatial image may be indicated by hue and saturation instead of or in addition to brightness.
  • the information terminal 1 may transmit the displayed spatial image data to the information processing device 2.
  • the information processing device 2 may output the state data and the spatial image data in association with each other to a device other than the information terminal 1.
  • the information processing device 2 may, for example, transmit state data and spatial image data in association with each other to an output terminal 3 different from the information terminal 1, or may associate state data and spatial image data and print them.
  • the output terminal 3 is a computer used by a person (hereinafter referred to as a "designer, etc.") who designs buildings, spaces, or image data thereof, such as a designer, researcher, or marketer. By displaying the state data and spatial image data in association with each other on the output terminal 3, the designer etc. can grasp what kind of impression the user U has about what kind of space. It can be utilized.
  • FIG. 11 is a diagram showing the configuration of the information terminal 1.
  • the information terminal 1 includes a display section 13 , an operation section 14 , a storage section 15 , a control section 16 , a first communication section 17 , and a second communication section 18 .
  • the control unit 16 includes an operation reception unit 162, a display processing unit 163, a biological information acquisition unit 164, a status data acquisition unit 165, and a data transmission unit 166.
  • the first communication unit 17 has a communication interface for transmitting and receiving data to and from the measuring instrument M.
  • the first communication unit 17 has a wireless communication interface such as Bluetooth (registered trademark) or Wi-Fi (registered trademark).
  • the first communication unit 17 inputs the biological information received from the measuring device M to the biological information acquisition unit 164.
  • the second communication unit 18 has a communication interface for transmitting and receiving data to and from the information processing device 2 via the network N.
  • the second communication unit 18 transmits, for example, biological information image data and spatial image data input from the data transmission unit 166 to the information processing device 2, and inputs state data received from the information processing device 2 to the state data acquisition unit 165. do.
  • the display unit 13 is a display that displays various information.
  • the display unit 13 displays, for example, a spatial image based on spatial image data.
  • the display unit 13 also creates biometric information image data based on the biometric information of the user U viewing the spatial image, and displays the biometric information image based on the created biometric information image data.
  • the display unit 13 displays text based on the status data.
  • the operation unit 14 is a device that receives operations from the user U, and includes, for example, a keyboard and a mouse.
  • the operation unit 14 inputs data indicating the content of the operation by the user U to the operation reception unit 162.
  • the storage unit 15 includes storage media such as ROM, RAM, and SSD.
  • the storage unit 15 stores programs executed by the control unit 16. Furthermore, the storage unit 15 temporarily stores spatial image data, biological information, biological information image data, and the like.
  • the storage unit 15 stores, for example, biometric information image data and spatial image data displayed on the display unit 13 at that time in association with the time when the biometric information was acquired.
  • the storage unit 15 stores recommended state data used by the display processing unit 163 to change the aspect of the spatial image displayed on the display unit 13.
  • the recommended state data is data in which information for identifying a spatial image (for example, a spatial image name) is associated with a state that is recommended as the state of the user who viewed the spatial image.
  • FIG. 12 and 13 are diagrams showing examples of recommended state data.
  • a recommendation state of "surprise level: high” is associated with the spatial image of the entrance.
  • a recommended state of "relaxation level: high” is associated with the spatial image of the living room.
  • a plurality of recommended states may be associated with one spatial image name.
  • the recommended state data may be written in the application software program executed by the control unit 16, but the state desired in each space may differ depending on the user U. Therefore, the storage unit 15 may store recommended states for each spatial image set by the user U via the operation unit 14. Further, the recommended state data may include data indicating a non-recommended state instead of a recommended state.
  • the recommended state data may include, in association with the spatial image name, a numerical value indicating the allowable range of the score indicating the state of the user U who viewed the spatial image.
  • a numerical value indicating the allowable range of the score indicating the state of the user U who viewed the spatial image.
  • the score required for "degree of surprise” is “8 or more”
  • the score required for "degree of openness” is “5 or more”
  • the score required for other states is “8 or more”.
  • the score given is arbitrary. In this way, since the recommended state data includes data indicating the allowable range for each state type, it becomes easier to reflect the preferences of the user U for each space.
  • the storage unit 15 may store data indicating a trend in the relationship between the aspect of the spatial image and the state of the user U.
  • the storage unit 15 stores information such as a tendency for the user U to feel calmer when viewing a spatial image with low brightness than when viewing a spatial image with high brightness, or a tendency for the user U to feel calm when viewing a spatial image with low brightness.
  • Data indicating a tendency to feel calmer when viewing a spatial image of a composition than when viewing a spatial image of a two-point perspective composition is stored. This data is used when the display processing unit 163 changes the aspect of the spatial image displayed.
  • the control unit 16 has a CPU.
  • the control unit 16 functions as an operation reception unit 162, a biological information acquisition unit 164, a status data acquisition unit 165, a display processing unit 163, and a data transmission unit 166 by executing a program stored in the storage unit 15.
  • the operation reception unit 162 accepts the operation of the user U based on the data input from the operation unit 14.
  • the operation reception unit 162 notifies an appropriate processing unit in the control unit 16 of the content of the received operation. For example, the operation reception unit 162 notifies the display processing unit 163 that the operation for selecting the "change" icon shown in FIG. 10 by the user U has been received. Further, the operation reception unit 162 notifies the display processing unit 163 that an operation for selecting one candidate from among the plurality of candidates for the changed spatial image displayed on the display unit 13 has been received.
  • the method for selecting an icon may be gaze, blinking, wink, etc. using eye tracking, or gestures using hand tracking.
  • the biometric information acquisition unit 164 acquires biometric information of the user viewing the spatial image on the information terminal 1 via the first communication unit 17.
  • the biological information acquisition unit 164 inputs the acquired biological information to the display processing unit 163.
  • the status data acquisition unit 165 acquires status data output by the information processing device 2 via the second communication unit 18.
  • the status data acquisition unit 165 inputs the acquired status data to the display processing unit 163.
  • the display processing unit 163 displays various information on the display unit 13 by creating screen data to be displayed on the display unit 13.
  • the display processing unit 163 causes the display unit 13 to display a virtual image based on the virtual image data stored in the storage unit 15, for example.
  • the display processing unit 163 displays a biometric information image based on biometric information superimposed on the spatial image.
  • the display processing unit 163 causes the display unit 13 to display text or an image based on the acquired status data superimposed on the spatial image.
  • the display processing unit 163 may display the biometric information image of the user U in real time, or may display an image showing the biometric information of a predetermined time in the past (for example, several seconds set by the user U).
  • the display processing unit 163 When the state data acquired by the state data acquisition unit 165 indicates a predetermined state corresponding to changing the spatial image data, the display processing unit 163 responds to an updated spatial image that is different from the spatial image currently being displayed. Display the updated spatial image data.
  • the predetermined state is, for example, a state different from the recommended state indicated by the recommended state data stored in the storage unit 15 in association with the spatial image name.
  • the display processing unit 163 changes the aspect of the spatial image so that the state indicated by the state data approaches the state indicated by the recommended state data, or updates the spatial image to another spatial image.
  • the display processing unit 163 changes the brightness of the spatial image or changes the composition by, for example, referring to data stored in the storage unit 15 that indicates the tendency of the relationship between the aspect of the spatial image and the state of the user U. I do things.
  • the display processing unit 163 may continue changing the aspect of the spatial image until the state indicated by the state data falls within the allowable range indicated by the recommended state data.
  • the display processing unit 163 After displaying the status data acquired by the status data acquisition unit 165 on the display unit 13, the display processing unit 163 displays one or more update spaces in which the status indicated by the status data may approach the status indicated by the recommended status data. Image candidates may be displayed.
  • the display processing unit 163 determines an updated spatial image candidate by referring to data stored in the storage unit 15 that indicates the tendency of the relationship between the aspect of the spatial image and the state of the user U. As an example, when it is necessary to increase the level of calmness, the display processing unit 163 determines a spatial image whose brightness is lower than the spatial image that was being displayed as an update spatial image candidate.
  • the display processing unit 163 After displaying the one or more updated spatial image candidates, the display processing unit 163 responds to the operation reception unit 162 receiving an operation for selecting one updated spatial image candidate from the one or more updated spatial image candidates. An updated spatial image corresponding to the selected updated spatial image candidate may be displayed. By operating the display processing unit 163 in this manner, the state of the user U becomes the recommended state, and the display unit 13 can display a spatial image in a manner that the user U prefers.
  • the display processing unit 163 may display the image of the user U's avatar superimposed on the spatial image that is the image of the metaverse.
  • the display processing unit 163 displays, for example, an image of an avatar wearing clothing of a color selected by the user U, and a biometric information image or status data together with a spatial image.
  • the display processing unit 163 displays the image of the avatar of the user U and the biometric information image or state data so that the state of the user U becomes appropriate when the avatar selected by the user is displayed on the metaverse. , it becomes possible to adjust the image of the avatar or the image of the metaverse.
  • the data transmission unit 166 transmits biometric information image data corresponding to the biometric information image to the information processing device 2. For example, the data transmitting unit 166 cuts out the biometric information image data displayed in area R2 in FIG. 10 from the screen displayed on the display unit 13 and transmits the cut out biometric information image data to the information processing device 2. do. Since the size of the biometric information image data is smaller than the virtual space image data, the amount of data transmitted to the information processing device 2 can be reduced by the data transmitter 166 operating in this manner.
  • the data transmitting unit 166 may transmit the biometric information image data and the spatial image data corresponding to the spatial image in which the biometric information image corresponding to the biometric information image data is displayed to the information processing device 2.
  • the data transmitting unit 166 normally transmits only biometric information image data to the information processing device 2, and when receiving a request for spatial image data from the information processing device 2, the data transmitting unit 166 transmits biometric information corresponding to the biometric information image data to the measuring device.
  • the spatial image data displayed on the display unit 13 at the time of acquisition by M may be read from the storage unit 15, and the read spatial image data may be transmitted to the information processing device 2.
  • the data transmitting unit 166 may transmit spatial image data with the avatar image deleted to the information processing device 2.
  • the data transmitting unit 166 transmits spatial image data that does not include an avatar image to the information processing device 2, so that a designer or the like who views the spatial image data output by the information processing device 2 can avoid the influence of the avatar image. It becomes possible to evaluate and analyze spatial image data without receiving any data.
  • FIG. 14 is a diagram showing the configuration of the information processing device 2A.
  • the information processing device 2 includes a communication section 21, a storage section 22, and a control section 23.
  • the control unit 23 includes a data acquisition unit 231, a state identification unit 235, an output unit 234, and a data request unit 236.
  • the communication unit 21 has a communication interface for transmitting and receiving data to and from the information terminal 1 and the output terminal 3 via the network N.
  • the communication unit 21 inputs the received data to the data acquisition unit 231.
  • the communication unit 21 also transmits data input from the output unit 234 and the data request unit 236.
  • the storage unit 22 includes storage media such as ROM, RAM, and SSD.
  • the storage unit 22 stores programs executed by the control unit 23.
  • the storage unit 22 also stores data used to identify the state of the user U based on the biometric information image data.
  • the data is, for example, data in which the waveform characteristics of the biometric information indicated by the biometric information image data are associated with the state of the user U.
  • the data may be a machine learning model that outputs data indicating the state of the user U when biometric information image data is input.
  • the storage unit 22 may store attributes of the user U in association with user identification information for identifying the user U.
  • the attributes of the user U are, for example, age, gender, family composition, or area of residence.
  • the control unit 23 has a CPU, and functions as a data acquisition unit 231, a state identification unit 235, an output unit 234, and a data request unit 236 by executing a program stored in the storage unit 22.
  • the data acquisition unit 231 acquires biological information image data from the information terminal 1 via the communication unit 21.
  • the data acquisition unit 231 acquires biometric information image data in association with the user identification information of the user U, for example.
  • the data acquisition section 231 inputs the acquired biological information image data to the state identification section 235 and the output section 234.
  • the data acquisition unit 231 may acquire spatial image data displayed on the information terminal 1 via the communication unit 21.
  • the data acquisition unit 231 may acquire biological information image data and spatial image data in association with each other, and after acquiring the biological information image data, the biological information corresponding to the biological information image data is acquired by the measuring instrument M.
  • the spatial image data displayed on the information terminal 1 may be acquired at the time when the information terminal 1 is displayed.
  • the state identification unit 235 identifies the state of the user U based on the biometric information image data.
  • the state identifying unit 235 identifies, in the storage unit 22, the state associated with the waveform characteristics of the biometric information indicated by the biometric information image data as the state of the user U.
  • the state specifying unit 235 inputs the biometric information image data into a machine learning model learned in advance using a set of a large number of biometric information image data and the state of the user U as teacher data, and determines the state output from the machine learning model.
  • the state of user U may be identified based on data indicating.
  • the state identification unit 235 notifies the output unit 234 of the identified user's state.
  • the output unit 234 outputs status data indicating the status of the user U identified by the status identifying unit 235.
  • the output unit 234 transmits the state data of the user U to the information terminal 1 used by the user U, for example, via the communication unit 21.
  • the output unit 234 may transmit the state data of the user U to the output terminal 3 via the communication unit 21.
  • the output unit 234 outputs status data indicating the status of the user identified based on the biometric information image data corresponding to the biometric information acquired at the time the spatial image data was displayed, in association with the spatial image data. You may. That is, the output unit 234 outputs the state data and the spatial image data displayed on the information terminal 1 at the time when the biometric information corresponding to the biometric information image data used to identify the state data was acquired by the measuring instrument M. It may also be transmitted in association with. By outputting state data and spatial image data in association with each other by the output unit 234, a designer or the like who checks these data can easily understand what state the user U will be in in each space.
  • the output unit 234 identifies the attribute corresponding to the user identification information associated with the biometric information image data acquired by the data acquisition unit 231, and identifies the attribute corresponding to the biometric information image data. Spatial image data corresponding to the spatial image displayed at the time the biometric information was acquired, status data, and identified attributes may be output in association with each other.
  • the output unit 234 outputs the spatial image data and state data in association with the attributes of the user U, so that a designer or the like who checks these data can determine how each space feels depending on the attributes of the user U. It will be easier to understand how they differ.
  • the output unit 234 outputs one or more spatial image data transmitted in association with one or more biological information image data corresponding to each type of user U's state in association with the state type indicated by the state data. You may. As an example, when a designer or the like performs an operation to understand an example of a space where a person can relax, the output unit 234 outputs biological information image data that the state identifying unit 235 identifies as corresponding to a relaxed state. One or more spatial image data associated with is selected, and the selected spatial image data is output as a space that is easy to relax.
  • the output unit 234 outputs various states of the user U identified by the state identification unit 235 using the biological information image data acquired by the data acquisition unit 231 from the plurality of information terminals 1.
  • a plurality of spatial image data associated with a plurality of biological information image data identified as corresponding to a relaxed state of the user U may be selected.
  • the output unit 234 may output a plurality of spatial image data in association with the attributes of the user U and the type of state.
  • the output unit 234 classifies the plurality of biometric information image data corresponding to the state set by the designer or the like by the attribute of the user U of the information terminal 1 that transmitted the biometric information image data. Then, the output unit 234 selects a plurality of spatial image data corresponding to a plurality of biological information image data for each classified attribute.
  • the output unit 234 When the output unit 234 outputs spatial image data corresponding to a predetermined state, if the data acquisition unit 231 continues to acquire spatial image data together with biological information image data, the amount of data flowing through the network N increases and the data acquisition The processing load on the unit 231 also increases. Therefore, when the state identifying section 235 identifies that the state of the user U has reached a predetermined state, the data requesting section 236 acquires biometric information corresponding to the biometric information image data in which the predetermined state has been identified. Request data for requesting spatial image data corresponding to the spatial image that was being displayed at the time of display is transmitted to the information terminal 1.
  • This predetermined state is, for example, a state set by a designer or the like, or a state after a change occurs in the user U's state.
  • the request data includes, for example, an ID or a time stamp as information for identifying the biometric information image data.
  • the information terminal 1 In response to receiving the request data, the information terminal 1 reads from the storage unit 15 the spatial image data that was displayed at the time when the biometric information corresponding to the biometric information image data indicated by the request data was acquired, and stores the data.
  • the transmitter 166 transmits the read spatial image data.
  • the output unit 234 outputs the spatial image data transmitted by the information terminal 1 in response to the data request unit 236 transmitting the request data to the information terminal 1 in association with state data indicating a predetermined state.
  • FIG. 15 is a sequence diagram showing an example of the flow of processing in the information processing system S1.
  • the sequence diagram shown in FIG. 15 illustrates a case where status data is displayed on the information terminal 1.
  • the sequence diagram shown in FIG. 15 starts from a state in which the user U is viewing a spatial image.
  • the biological information acquisition unit 164 acquires the biological information of the user U from the measuring instrument M. (S12).
  • the display processing unit 163 creates biometric information image data based on the biometric information, and displays the biometric information image on the display unit 13 (S13).
  • the data transmitting unit 166 transmits the biometric information image data to the information processing device 2 (S14).
  • the state identification unit 235 analyzes the biological information image data received from the information terminal 1 (S21), and identifies the state of the user U (S22).
  • the output unit 234 outputs the specified state data (S23). In the example shown in FIG. 15, the output unit 234 transmits the status data to the information terminal 1, but the output unit 234 may also transmit the status data to the output terminal 3.
  • the display processing unit 163 displays the status data on the display unit 13 (S15).
  • the data requesting unit 236 monitors whether the state identified by the state specifying unit 235 is a predetermined state (S24). When the data requesting unit 236 determines that the state identified by the state specifying unit 235 is a predetermined state (YES in S24), the data requesting unit 236 transmits request data for requesting spatial image data to the information terminal 1 (S25). .
  • the data transmitting unit 166 identifies the spatial image data that was displayed on the display unit 13 at the time specified based on the request data by referring to the spatial image data stored in the storage unit 15 (S16), The identified spatial image data is transmitted to the information processing device 2 (S17).
  • the output unit 234 associates and outputs the spatial image data and state data (S26).
  • the operation reception unit 162 monitors whether an operation for changing the spatial image has been performed in the information terminal 1 (S18).
  • the display processing unit 163 displays the spatial image data displayed at that time and the status data. Based on the state indicated by , the spatial image data is updated so that the state of the user U is improved (S19).
  • the information terminal 1 in the information processing system S1 transmits biometric information image data indicating the waveform of biometric information acquired while the user U is viewing the spatial image to the information processing device 2, and processes the information.
  • the device 2 identifies the state of the user U based on the biological information image data and creates state data.
  • the information terminal 1 enables the user U to objectively grasp his/her own status while viewing the spatial image. .
  • Such information processing system S1 is suitable for use in displaying one's own avatar on the metaverse.
  • the information processing device 2 identifies the state of the user U by analyzing the biometric information image data displayed on the information terminal 1. Therefore, the information processing device 2 can identify the state of the user U even when biological information cannot be directly acquired from the measuring device M.
  • the information processing device 2 acquires the spatial image data from the information terminal 1, associates the acquired spatial image data with the state data, and outputs the associated information. By outputting such data from the information processing device 2, it becomes easier for a designer or the like to understand what kind of spatial image is desirable.
  • the information processing device 2 can reduce the amount of data received compared to the case where spatial image data is always transmitted from the information terminal 1 to the information processing device 2. It is also possible to reduce the processing load on the information processing device 2.
  • the technology according to this embodiment allows a user who views a real space or a virtual space (including a metaverse space) to actively take an interest in the space that he or she experiences without relying on a space designer. This is suitable for allowing users to contribute to improving the space themselves.
  • FIG. 16 is a diagram showing an overview of the information processing system S2.
  • the information processing system S2 includes an information processing device 4 instead of the information processing device 2 in the information processing system S1, and the information processing device 4 transmits spatial image data to the information terminal 1. Then, while the user U is viewing the spatial image, the measuring device M transmits the biological information to the information processing device 4 via the network N.
  • the information processing device 4 identifies the state of the user U based on the received biometric information and transmits the state data to the information terminal 1.
  • the information processing device 4 may transmit biometric information image data to the information terminal 1. With such a configuration, the information terminal 1 can display the state of the user U while displaying the spatial image as shown in FIG. 10.
  • FIG. 17 is a diagram showing the configuration of the information processing device 4.
  • the information processing device 4 includes a communication section 41, a storage section 42, and a control section 43.
  • the communication unit 41 corresponds to the communication unit 21 in the information processing device 2 shown in FIG. 14, and the storage unit 42 corresponds to the storage unit 22 in the information processing device 2.
  • the storage unit 42 stores spatial image data to be displayed on the information terminal 1.
  • the output unit 433 (described later) transmits spatial image data
  • the storage unit 42 stores information indicating the destination of the spatial image data (for example, identification information of the information terminal 1 or identification information of the user U) and the transmission time. Stored in association with image data.
  • the storage unit 42 may store recommended state data stored in the storage unit 15 of the information terminal 1 in the information processing system S1, and data indicating a tendency of the relationship between the aspect of the spatial image and the state of the user U.
  • the control unit 43 has a CPU corresponding to the control unit 23 in the information processing device 2, and by executing the program stored in the storage unit 42, the biological information acquisition unit 431, the state identification unit 432, and the output unit 433.
  • the biological information acquisition unit 431 acquires the biological information transmitted by the measuring device M via the communication unit 41. That is, the biological information acquisition unit 431 acquires the biological information of the user U who is viewing the spatial image data displayed on the information terminal 1. The biological information acquisition unit 431 inputs the acquired biological information to the state identification unit 432.
  • the state identification unit 432 has the same function as the state identification unit 235 in the information processing device 2, and identifies the state of the user U based on the biometric information input from the biometric information acquisition unit 431.
  • the state identification unit 432 inputs state data indicating the identified state to the output unit 433.
  • the output unit 433 has a function equivalent to that of the display processing unit 163 in the information processing system S1. Specifically, the output unit 433 causes the information terminal 1 to display the spatial image data by transmitting the spatial image data. The output unit 433 also outputs state data indicating the state of the user U identified by the state identifying unit 432 and spatial image data displayed on the information terminal 1 at the time when the biometric information corresponding to the state data was acquired. Output in association. For example, the output unit 433 causes the information terminal 1 to display the status of the user U while the user U is viewing the spatial image by transmitting the status data input from the status identification unit 432 to the information terminal 1. be able to.
  • the output unit 433 may change the spatial image data to be displayed on the information terminal 1 based on the state of the user U identified by the state identifying unit 432. Specifically, similar to the display processing unit 163 in the information processing system S1, using the recommended state data stored in the storage unit 42 and data indicating the tendency of the relationship between the aspect of the spatial image and the state of the user U. , the form of the spatial image data may be changed so that the state of the user U approaches the recommended state.
  • the output unit 433 may associate the spatial image data and the state data and output them to the output terminal 3. In this case, the output unit 433 identifies the spatial image data stored in the storage unit 42 in association with the time when the biological information acquisition unit 431 acquired the biological information, and outputs the spatial image data in association with the status data. Send to terminal 3. Similarly to the information processing system S1, the output unit 433 may output spatial image data and state data in further association with the attributes of the user U.
  • the information processing device 4 may cause the information terminal 1 connected to the information processing device 4 without going through the network N to display the spatial image data and at least one of the biological information image data and the state data.
  • the information processing device 4 is a computer used by the user U, and the information processing device 4 may display spatial image data and at least one of biological information image data and status data on a display.
  • the information processing device 4 also acquires biometric information of a plurality of users U from the information terminal 1 used by the plurality of users U, and collects biometric information of a plurality of users U viewing the same spatial image.
  • Information image data may be transmitted to multiple information terminals 1 used by multiple users U viewing the same spatial image.
  • each information terminal 1 displays a plurality of biological information image data corresponding to a plurality of users U transmitted from the information processing device 4 in a superimposed manner on the spatial image data. By displaying such a screen on the information terminal 1, the user U can compare his or her own condition with that of another person.
  • the information processing device 4 may transmit a plurality of biological information image data corresponding to a plurality of users U to the output terminal 3.
  • the output terminal 3 displays a plurality of biological information image data superimposed on the spatial image data.
  • image data of a graph based on heart rate or brain waves was mainly illustrated as biological information image data, but biological information image data may also be image data indicating the position of the user's U's line of sight.
  • the image data indicating the position of the user U's line of sight is, for example, a heat map image in which the color or pattern differs depending on the area where the user U is looking for a long time and the area where the user U is looking at the space image for a short time. It is data.
  • the measuring device M is, for example, a glasses-type or goggle-type terminal, and by specifying the direction of the user's U's line of sight using a sensor included in the terminal, the area that the user U is looking at is specified. By looking at the heat map image, the user U can understand which region of the spatial image he or she tends to see most.
  • the information processing device 2 or the information processing device 4 may output spatial image data overlaid with heat map image data to the output terminal 3. This makes it possible for designers and the like to design a spatial image by considering areas that the user U tends to pay attention to.
  • the information processing device 2 or the information processing device 4 can analyze the areas that the user U tends to look at, or determine the user U's emotions based on the tendency of the user U's line of sight movement. You may also perform an analysis and output the analyzed results. This makes it easier for designers and the like to design spatial images in consideration of emotions.
  • An information processing system includes an information terminal and an information processing device capable of communicating with the information terminal, and the information terminal includes biological information of a user viewing a spatial image on the information terminal.
  • a display processing unit that causes the information terminal to display a biometric information image based on the biometric information over the spatial image, and a display processing unit that displays biometric information image data corresponding to the biometric information image on the information terminal;
  • a data transmitting unit that transmits data to a processing device;
  • the information processing device includes a data acquisition unit that acquires the biological information image data from the information terminal; and a data acquisition unit that acquires the biological information image data from the information terminal;
  • the information processing apparatus may include a state specifying section that specifies the state of the user, and an output section that outputs state data indicating the state of the user specified by the state specifying section.
  • the output unit transmits the status data to the information terminal
  • the information terminal further includes a status data acquisition unit that acquires the status data output by the output unit, and the display processing unit transmits the status data to the information terminal.
  • the status data may be displayed superimposed on the image.
  • the display processing unit When the state data acquired by the state data acquisition unit indicates a predetermined state corresponding to a case where the spatial image is changed, the display processing unit generates an updated spatial image different from the spatial image currently being displayed. may be displayed.
  • the information terminal further includes an operation reception unit that receives an operation from the user, and the display processing unit displays one or more updated spatial image candidates after displaying the status data acquired by the status data acquisition unit. and displaying an updated spatial image corresponding to the selected updated spatial image candidate in response to the operation reception unit receiving an operation for selecting one updated spatial image candidate from the one or more updated spatial image candidates. It may be displayed.
  • the information processing device further includes a storage unit that stores attributes of the user in association with user identification information for identifying the user, and the data acquisition unit stores the biometric information image in association with the user identification information. acquiring the data, the output unit identifies the attribute corresponding to the user identification information associated with the biometric information image data acquired by the data acquisition unit by referring to the storage unit, and Spatial image data corresponding to the spatial image displayed at the time when the biological information corresponding to the information image data was acquired, the state data, and the identified attribute may be output in association with each other.
  • the data transmitting unit transmits the biometric information image data and spatial image data corresponding to the spatial image in which the biometric information image corresponding to the biometric information image data is displayed to the information processing device, and outputs the biometric information image data.
  • the state data indicating the state of the user identified based on the biometric information image data corresponding to the biometric information acquired at the time when the spatial image data was displayed, in association with the spatial image data may be output.
  • the data transmitting unit transmits the biometric information image data and spatial image data corresponding to the spatial image in which the biometric information image corresponding to the biometric information image data is displayed to the information processing device, and outputs the biometric information image data. outputting the one or more spatial image data transmitted in association with the type of state indicated by the state data and the one or more biological information image data corresponding to the user's state of each of the types; You may.
  • the information processing device may acquire the biometric information corresponding to the biometric information image data in which the predetermined state has been identified, when the state identification unit identifies that the user's state has become a predetermined state.
  • the output unit further includes a data request unit that transmits request data to the information terminal for requesting spatial image data corresponding to the spatial image that was being displayed at the time when the data request unit has received the spatial image data.
  • the spatial image data transmitted by the information terminal in response to transmitting the request data to the information terminal may be output in association with the state data indicating the predetermined state.
  • An information processing device includes an output unit that displays the spatial image data on an information terminal by transmitting the spatial image data, and an output unit that displays the spatial image data displayed on the information terminal.
  • the output unit includes a biometric information acquisition unit that acquires biometric information of the user, and a state identification unit that identifies the user's state based on the biometric information, and the output unit is configured to display information about the user identified by the state identification unit.
  • the state data indicating the state of the information terminal may be associated with the spatial image data displayed on the information terminal at the time when the biometric information corresponding to the state data is acquired and output to the information terminal.
  • An information processing method includes the step of displaying the spatial image data on an information terminal by transmitting the spatial image data, executed by a computer; and the step of displaying the spatial image data on the information terminal. a step of acquiring biometric information of a user who is viewing the screen; a step of identifying a state of the user based on the biometric information; a step of obtaining state data indicating the state of the identified user; The method may also include the step of correlating the spatial image data displayed on the information terminal at the time when the biometric information is acquired and outputting it to the information terminal.
  • a program includes the step of displaying the spatial image data on an information terminal by transmitting the spatial image data to a computer, and viewing the spatial image data displayed on the information terminal. a step of acquiring biometric information of a user; a step of identifying a state of the user based on the biometric information; and obtaining state data indicating the identified state of the user and the biometric information corresponding to the state data. and outputting the spatial image data to the information terminal in association with the spatial image data that was being displayed on the information terminal at the time of displaying the spatial image data.

Abstract

情報処理装置2は、ユーザUが見ている、ユーザUの操作により表示領域及び表示向きが変化する仮想空間画像を特定するための表示状態データを取得するデータ取得部231と、ユーザUが仮想空間画像の少なくとも一部を所定時間以上にわたって注視した時点である注視時点を特定する注視特定部232と、ユーザUが使用する情報端末1に表示された仮想空間画像に所定の特徴が含まれていた時点である特徴発生時点を特定する特徴特定部233と、注視時点と特徴発生時点とを関連付けて出力する出力部234と、を有する。

Description

情報処理システム、情報処理装置、情報処理方法及びプログラム
 本発明は、情報処理システム、情報処理装置、情報処理方法及びプログラムに関する。
 従来、仮想現実空間又は拡張現実空間の画像(以下、「仮想空間画像」という)を見たユーザの反応を示す情報を出力するシステムが知られている(例えば、特許文献1を参照)。
国際公開第2020/032339号
 従来のシステムでは、ユーザが仮想空間画像を見ている間の反応の変化を示す情報を出力することができる。仮想空間画像の設計者又は提供者(以下、「設計者等」という)は、ユーザの反応の変化を把握することで、仮想空間画像を改善することができる。しかしながら、設計者等は、ユーザの反応の変化を把握するだけでは、仮想空間画像にどのような特徴がある場合にユーザがどのような反応を示すかを認識することが困難である。したがって、設計者等が、どのように仮想空間画像を変更すればよいかを把握しづらいという問題があった。
 そこで、本発明はこれらの点に鑑みてなされたものであり、仮想空間画像の設計者等が仮想空間画像を改善しやすくすることを目的とする。
 本発明の第1の態様の情報処理システムは、情報端末と、前記情報端末と通信可能な情報処理装置と、を備え、前記情報端末は、ユーザの操作を受け付ける操作受付部と、前記操作受付部が受け付けた前記ユーザの操作に基づいて、前記情報処理装置から提供される仮想空間画像データの表示領域及び表示向きを変化させることにより仮想空間画像を表示する表示処理部と、を有し、前記情報処理装置は、前記ユーザが見ている前記仮想空間画像を特定するための表示状態データを取得するデータ取得部と、前記表示状態データに基づいて、前記仮想空間画像を見ている前記ユーザが前記仮想空間画像の少なくとも一部を所定時間以上にわたって注視した時点である注視時点を特定する注視特定部と、前記情報端末に表示された前記仮想空間画像に所定の特徴が含まれていた時点である特徴発生時点を特定する特徴特定部と、前記注視時点と前記特徴発生時点とを関連付けて出力する出力部と、を有する。
 前記データ取得部は、前記ユーザが前記仮想空間画像の閲覧を終了したことを示す終了データを前記情報端末から取得し、前記出力部は、前記注視時点及び前記特徴発生時点に関連付けて、前記終了データが示す閲覧終了時点を示す情報を出力してもよい。
 前記出力部は、前記注視時点及び前記特徴発生時点に基づいて前記ユーザの生体状態を推定した結果を示す状態データを出力してもよい。
 前記特徴特定部は、前記情報端末に表示された前記仮想空間画像の構図が一点透視の構図を含む前記特徴発生時点を特定してもよい。
 前記特徴特定部は、前記ユーザが前記仮想空間画像において移動することができる進路を示す案内情報の種別、大きさ又は位置のうち、少なくともいずれかを含む前記特徴発生時点を特定してもよい。
 前記注視特定部は、前記ユーザが前記案内情報を注視した時点を特定してもよい。
 前記仮想空間画像に複数の前記案内情報が含まれている場合、前記注視特定部は、複数の前記案内情報のうち、より長い時間にわたって注視された前記案内情報を特定してもよい。
 前記特徴特定部は、前記注視時点を含む所定の時間内に表示された前記仮想空間画像に複数の物体それぞれが表示された時間の割合を特定し、前記出力部は、前記仮想空間画像に関連付けて前記時間の割合を示す情報を出力してもよい。
 前記出力部は、前記ユーザが前記仮想空間画像の閲覧を継続した時間を示す情報を出力してもよい。
 前記情報処理装置は、前記ユーザの属性を記憶する記憶部をさらに有し、前記出力部は、前記ユーザの属性に関連付けて、前記注視時点と前記特徴発生時点とを関連付けて出力してもよい。
 前記出力部は、前記ユーザが前記仮想空間画像の閲覧を継続した時間が異なる場合における前記注視時点と、前記特徴発生時点と、を時系列で示す複数の画像を同じ時間軸で表示してもよい。
 本発明の第2の態様の情報処理装置は、ユーザが見ている、前記ユーザの操作により表示領域及び表示向きが変化する仮想空間画像を特定するための表示状態データを取得するデータ取得部と、前記ユーザが前記仮想空間画像の少なくとも一部を所定時間以上にわたって注視した時点である注視時点を特定する注視特定部と、前記ユーザが使用する情報端末に表示された前記仮想空間画像に所定の特徴が含まれていた時点である特徴発生時点を特定する特徴特定部と、前記注視時点と前記特徴発生時点とを関連付けて出力する出力部と、を有する。
 本発明の第3の態様の情報処理方法は、コンピュータが実行する、ユーザが見ている、前記ユーザの操作により表示領域及び表示向きが変化する仮想空間画像を特定するための表示状態データを取得するステップと、前記ユーザが前記仮想空間画像の少なくとも一部を所定時間以上にわたって注視した時点である注視時点を特定するステップと、前記ユーザが使用する情報端末に表示された前記仮想空間画像に所定の特徴が含まれていた時点である特徴発生時点を特定するステップと、前記注視時点と前記特徴発生時点とを関連付けて出力するステップと、を有する。
 本発明の第4の態様のプログラムは、コンピュータに、ユーザが見ている、前記ユーザの操作により表示領域及び表示向きが変化する仮想空間画像を特定するための表示状態データを取得するステップと、前記ユーザが前記仮想空間画像の少なくとも一部を所定時間以上にわたって注視した時点である注視時点を特定するステップと、前記ユーザが使用する情報端末に表示された前記仮想空間画像に所定の特徴が含まれていた時点である特徴発生時点を特定するステップと、前記注視時点と前記特徴発生時点とを関連付けて出力するステップと、を実行させるためのプログラムである。
 本発明によれば、仮想空間画像の設計者等が仮想空間画像を改善しやすくなるという効果を奏する。
情報処理システムSの概要を示す図である。 仮想空間画像データの全体を模式的に示す図である。 ユーザUが見る仮想空間画像の例を示す図である。 情報端末1の構成を示す図である。 情報処理装置2の構成を示す図である。 出力部234が出力する情報を含む画面の例を示す図である。 生体状態の推定結果が表示された画面の例を示す図である。 それぞれ閲覧継続時間が異なる場合における注視時点(破線)と所定の特徴が含まれていた時点(実線)とを時系列で示す画像の例を示す図である。 情報処理システムS1の概要を示す図である。 情報端末1に表示された画面の例を示す図である。 情報端末1の構成を示す図である。 推奨状態データの例を示す図である。 推奨状態データの例を示す図である。 情報処理装置2の構成を示す図である。 情報処理システムS1における処理の流れの一例を示すシーケンス図である。 情報処理システムS2の概要を示す図である。 情報処理装置4の構成を示す図である。
<第1実施形態>
[情報処理システムSの概要]
 図1は、情報処理システムSの概要を示す図である。情報処理システムSは、ユーザUに仮想空間画像を提示して、ユーザUが仮想空間画像を閲覧している間にユーザUが注視した時点と、ユーザUが見ている仮想空間画像に所定の特徴が含まれていた時点と、を仮想空間画像データの設計者等が把握できるようにするためのシステムである。仮想空間画像の所定の特徴は、仮想空間画像に所定の構図(例えば一点透視の構図又は二点透視の構図)が含まれていること、仮想空間画像に所定の物体の画像が含まれていること、仮想空間画像に進路案内の情報が含まれていること、又は仮想空間画像における所定の色の割合が閾値以上であることの少なくともいずれかである。
 仮想空間画像データは、例えばコンピュータグラフィックスにより作成された三次元空間を表す画像データであるが、仮想空間画像データに、現実の被写体を撮影することにより生成された画像データが含まれていてもよい。また、仮想空間画像データは、拡張現実画像データを含んでもよい。
 仮想空間画像データは、例えば、仮想空間画像が表示される端末をユーザUが操作することにより、表示される領域が変化するように構成されている。すなわち、仮想空間画像データは、ユーザUが使用する端末に表示可能な画像領域よりも大きな領域に対応している。仮想空間画像データは、例えば、イベント会場、街並み、建物の内部のように、ユーザUが閲覧する位置を移動することができる空間を仮想的に示す画像データである。
 一例として、仮想空間画像データが、イベント会場の空間を示す画像データである場合、仮想空間画像データの提供者であるイベントの主催者としては、できるだけ多くのエリアをユーザUに見てもらいたい。例えば、イベントの主催者が商品の宣伝をしたいという場合、商品の説明を行っているエリアまでユーザUに進んでもらいたい。しかしながら、仮想空間画像データの構成によっては、ユーザUが進むべき方向がわからなくなったり、ユーザUが途中で興味を失ったりすることにより、仮想空間画像の閲覧を終了してしまうことがある。
 情報処理システムSは、ユーザUが仮想空間画像を見ている間にユーザUが注視した時点と、ユーザUが見ている間に変化する仮想空間画像の特徴と、を出力するので、仮想空間画像データの設計者等が、ユーザUがどのような特徴を持つ仮想空間画像を注視したかを把握しやすくすることができる。また、情報処理システムSは、ユーザUが仮想空間画像を注視した時点を示す情報及び仮想空間画像の特徴を示す情報に関連付けて、ユーザUが仮想空間画像の閲覧終了時点を示す情報を出力することもできる。
 設計者等は、これらの情報を見ることで、仮想空間画像がどのように構成されているとユーザUが閲覧を終了しやすくなり、仮想空間画像がどのように構成されているとユーザUが閲覧を継続しやすいかを把握できる。その結果、仮想空間画像の設計者等が仮想空間画像データを改善しやすくなる。
 以下、図1を参照しながら、情報処理システムSの概要を説明する。情報処理システムSは、情報端末1と、情報処理装置2と、出力端末3と、を備える。情報端末1、情報処理装置2及び出力端末3は、ネットワークNに接続されており、他の装置との間でデータを送受信することができる。
 情報端末1は、ユーザUが仮想空間画像を見るために使用する端末であり、例えばパーソナルコンピュータ、タブレット、スマートフォン、又は眼鏡形状若しくはゴーグル形状の端末である。情報端末1は、ネットワークNを介して情報処理装置2から受信した仮想空間画像データに基づく仮想空間画像をディスプレイに表示する。
 情報端末1は、ユーザUの操作に基づいて、仮想空間画像データのうち、ディスプレイに表示する仮想空間画像の位置及び向きを変化させる。情報端末1は、ディスプレイに表示している仮想空間画像の領域の仮想空間画像データにおける位置及び向きを示す表示状態データを情報処理装置2に送信する。表示状態データは、例えば、空間画像データにおける情報端末1が表示している位置、及びユーザUの向きを示す情報を含むデータであり、時刻に関連付けられている。表示状態データは、情報端末1が仮想空間画像を表示している画面をキャプチャしたデータであってもよい。この場合、キャプチャしたデータに時刻が関連付けられている。なお、時刻は、例えば、ユーザUが仮想空間画像の閲覧を開始してからの経過時間により表される。
 仮想空間画像データにおける位置は、仮想空間画像データが表す三次元空間の原点を基準とする三次元座標又は二次元座標により表される。三次元空間の原点は、例えば、仮想空間画像をユーザUが見始める位置(すなわち、ユーザUが進み始める位置)である。仮想空間画像データにおける位置は、例えば、ディスプレイの中央位置に対応する仮想空間画像データの座標である。
 仮想空間画像データには、仮想空間画像データに含まれる所定の情報又は所定の物体の位置を示す座標がメタデータとして含まれていてもよい。当該メタデータには、例えば、標識(すなわちサイン)又は広告等の案内情報が表示される位置の座標が含まれている。当該メタデータには、物体の種別に関連付けて当該物体が表示される位置の座標が含まれていてもよい。
 仮想空間画像データにおける向きは、仮想空間画像データが表す三次元空間の基準向きに対する向きにより表される。基準向きは、例えばユーザUが仮想空間画像の表示位置及び向きを変化させる操作をする前にディスプレイに表示された仮想空間画像の向きである。
 情報処理装置2は、仮想空間画像データを情報端末1に提供する。また、情報処理装置2は、情報端末1から受信した表示状態データに基づいて、ユーザUが注視した時点と、ユーザUが閲覧した仮想空間画像における特徴と、を関連付けて出力する。情報処理装置2は、例えば、ネットワークNを介して出力端末3に注視時点と所定の特徴を含む仮想空間画像が表示された時点とを示す情報を出力する。
 図2は、仮想空間画像データの全体を模式的に示す図である。図2(a)に示す仮想空間画像データはイベント会場を上方から見たレイアウトを示している。図2における斜線の領域は、建物、看板、サイネージ等である。図2(b)は、ユーザUの操作に伴ってユーザUが破線に示すルートでイベント会場内を移動したことを示している。
 図3は、ユーザUが見る仮想空間画像の例を示す図である。図3(a)は、図2(b)におけるA地点で矢印の向きにユーザUが向いた状態でユーザUが見る仮想空間画像である。図3(b)は、図2(b)におけるB地点で矢印の向きにユーザUが向いた状態でユーザUが見る仮想空間画像である。図3(c)は、図2(b)におけるC地点で矢印の向きにユーザUが向いた状態でユーザUが見る仮想空間画像である。
 図3(b)における符号Kが付された物体は、ユーザUに進行方向を示す案内情報の一例である。符号Kに付された物体には、例えば当該物体の方向にある場所で開催されているイベントの内容、又はユーザUが進むべき向きを示す情報が記載されている。
[情報端末1の構成]
 図4は、情報端末1の構成を示す図である。情報端末1は、通信部11と、表示部13と、操作部14と、記憶部15と、制御部16と、を有する。制御部16は、データ取得部161と、操作受付部162と、表示処理部163と、を有する。
 通信部11は、ネットワークNを介して情報処理装置2との間でデータを送受信するための通信インターフェースを有する。通信部11は、例えば情報処理装置2から送信された仮想空間画像データを受信し、受信した仮想空間画像データをデータ取得部161に入力する。また、通信部11は、表示部13に表示された仮想空間画像の位置及び向きを示す表示状態データを表示処理部163から取得し、表示状態データを時刻に関連付けて情報処理装置2に送信する。通信部11は、表示部13に表示された仮想空間画像がキャプチャされたデータを表示状態データとして時刻に関連付けて情報処理装置2に送信してもよい。
 表示部13は、各種の情報を表示するディスプレイである。表示部13は、例えば仮想空間画像データに基づく仮想空間画像を表示する。
 操作部14は、ユーザUの操作を受けるデバイスであり、例えばキーボード及びマウスを有する。操作部14は、ユーザUの操作内容を示すデータを操作受付部162に入力する。
 記憶部15は、ROM(Read Only Memory)、RAM(Random Access Memory)及びSSD(Solid State Drive)等の記憶媒体を有する。記憶部15は、制御部16が実行するプログラムを記憶する。また、記憶部15は、仮想空間画像データ及び表示状態データ等を一時的に記憶する。記憶部15は、例えば、ユーザUが仮想空間画像を見始めてからの経過時間に関連付けて表示状態データを記憶する。
 制御部16は、CPU(Central Processing Unit)を有する。制御部16は、記憶部15に記憶されたプログラムを実行することにより、データ取得部161、操作受付部162及び表示処理部163として機能する。
 データ取得部161は、情報処理装置2から送信された仮想空間画像データを取得する。データ取得部161は、取得した仮想空間画像データを記憶部15に記憶する。データ取得部161は、取得した仮想空間画像データを表示処理部163に入力してもよい。
 操作受付部162は、操作部14において行われたユーザUの操作を受け付ける。具体的には、操作受付部162は、例えば、表示部13に仮想空間画像が表示された状態でユーザUが表示部13にタッチしたり、マウスをクリックしたりした位置を示す座標を、ユーザUの操作の内容として受け付ける。
 表示処理部163は、仮想空間画像データに基づく仮想空間画像を表示部13に表示させる。表示処理部163は、例えば、操作受付部162が受け付けたユーザUの操作に基づいて、情報処理装置2から提供される仮想空間画像データの表示領域及び表示向きを変化させることにより、仮想空間画像データの一部の画像データに対応する仮想空間画像を表示する。
[情報処理装置2の構成]
 図5は、情報処理装置2の構成を示す図である。情報処理装置2は、通信部21と、記憶部22と、制御部23と、を有する。制御部23は、データ取得部231と、注視特定部232と、特徴特定部233と、出力部234と、を有する。
 通信部21は、ネットワークNを介して情報端末1及び出力端末3とデータを送受信するための通信インターフェースを有する。通信部21は、受信したデータをデータ取得部231に入力する。また、通信部21は、出力部234から入力されたデータを送信する。
 記憶部22は、ROM、RAM及びSSD等の記憶媒体を有する。記憶部22は、制御部23が実行するプログラムを記憶する。また、記憶部22は仮想空間画像データを記憶する。記憶部22は、通信部21を介してデータ取得部231が取得した表示状態データをユーザUに関連付けて記憶する。
 制御部23は、CPUを有しており、記憶部22に記憶されたプログラムを実行することにより、データ取得部231、注視特定部232、特徴特定部233及び出力部234として機能する。
 データ取得部231は、通信部21を介して、情報端末1から、ユーザUが見ている仮想空間画像を特定するための表示状態データを取得する。データ取得部231は、取得した表示状態データをユーザUに関連付けて記憶部22に記憶させる。データ取得部231は、ユーザUが仮想空間画像データの閲覧を開始してからの経過時間に関連付けて表示状態データを記憶部22に記憶させてもよい。データ取得部231は、ユーザUが仮想空間画像の閲覧を終了したことを示す終了データを情報端末1から取得してもよい。
 注視特定部232は、表示状態データに基づいて、仮想空間画像を見ているユーザUが仮想空間画像の少なくとも一部を所定時間以上にわたって注視した時点である注視時点を特定する。所定時間は、ユーザUが関心を示している仮想空間画像が表示されている場合にユーザUが仮想空間画像を動かさないことが想定される時間の最小値であり、例えば3秒である。所定時間は、出力端末3等の外部装置を介して設計者等が設定できる時間であってもよく、固定された時間であってもよい。
 注視特定部232は、複数の時刻に対応する複数の表示状態データが示す位置及び向きを比較することにより、ユーザUが同じ位置で同じ向きを向いた状態で所定時間にわたって停止している場合に、ユーザUが注視している時点であることを特定する。表示状態データが、情報端末1においてキャプチャされた画像データである場合、注視特定部232は、複数の時刻に対応する複数のキャプチャデータが所定時間にわたって同一である場合に、ユーザUが注視している時点であることを特定する。
 注視特定部232は、仮想空間画像データにおいてユーザUが注視した位置を特定してもよい。注視特定部232は、例えば、注視時点であると特定した時点で情報端末1に表示された仮想空間画像の中央位置をユーザUが注視している位置として特定する。情報端末1がユーザUの視線を検出する機能を有する場合、注視特定部232は、注視時点で情報端末1が検出したユーザUの視線の位置をユーザUが注視した位置として特定してもよい。
 注視特定部232は、ユーザUが案内情報を注視した時点を特定してもよい。注視特定部232は、例えば、仮想空間画像データのメタデータを参照することにより案内情報の位置を示す座標を特定し、案内情報が情報端末1のディスプレイの中央位置から所定範囲内に含まれている時点を、ユーザUが案内情報を注視した時点として特定する。この所定範囲は、情報端末1のディスプレイを正面から見ているユーザUが案内情報を鮮明に視認が可能な範囲であり、例えば中央位置から半径5cmの範囲である。
 仮想空間画像に複数の案内情報が含まれている場合、注視特定部232は、複数の案内情報のうち、より長い時間にわたって注視された案内情報を特定してもよい。注視特定部232は、仮想空間画像に複数の案内情報が含まれている場合、注視された時間が閾値以上の1以上の案内情報を注視された案内情報として特定してもよい。
 特徴特定部233は、ユーザUが使用する情報端末1に表示された仮想空間画像に所定の特徴が含まれていた時点である特徴発生時点を特定する。特徴特定部233は、例えば、表示状態データが示す仮想空間画像に含まれる物体の形状を解析することにより、情報端末1に表示された仮想空間画像の構図が一点透視の構図であった時点を特徴発生時点として特定する。特徴特定部233は、ユーザUが仮想空間画像において移動することができる進路を示す案内情報の種別、大きさ又は位置のうち、少なくともいずれかが含まれていた時点を、特徴発生時点として特定してもよい。
 特徴特定部233は、注視時点を含む所定の時間内に表示された仮想空間画像に複数の物体それぞれが表示された時間の割合を特定してもよい。複数の物体は、例えば、通路、交差点、案内情報、緑色の領域(例えば草地又は樹木の葉)、茶色の領域(例えば樹木の幹又は枝)、ランドマークである。この所定の時間は、例えばユーザUが継続して同じ位置を注視している時間である。この所定の時間は、ユーザUが仮想空間画像の閲覧を開始してから閲覧を終了するまでの時間であってもよい。この所定の時間は、ユーザUが仮想空間画像の閲覧を終了した時点の直前の注視時点から閲覧の終了時点までの間であってもよい。
 出力部234は、注視特定部232が特定した注視時点と、特徴特定部233が特定した特徴発生時点と、を関連付けて出力する。出力部234は、例えば通信部21を介して、注視時点を示す情報と、特徴発生時点を示す情報と、を出力端末3に送信する。出力部234は、注視時点及び特徴発生時点に関連付けて、データ取得部231が情報端末1から取得した終了データが示す閲覧終了時点を示す情報を出力してもよい。
 図6は、出力部234が出力する情報を含む画面の例を示す図である。図6には、領域R1、領域R2、領域R3、領域R4及び領域R5が含まれている。出力部234が図6に示す画面を出力端末3に表示させる場合、出力部234は、出力端末3において行われた設計者等の操作に応じて、画面に含める情報を変化させることができる。
 領域R1は、ユーザUが仮想空間画像の閲覧を開始してからの経過時間がそれぞれ異なる複数の仮想空間画像の複数のサムネイル画像が表示される領域である。複数のサムネイル画像は、例えば、閲覧開始時点から所定の時間(例えば20秒)の倍数の時間が経過した時点でユーザUが閲覧していた仮想空間画像に対応する。出力端末3を使用する設計者等は、領域R1に表示される複数のサムネイル画像から1つのサムネイル画像を選択することにより、他の領域に表示される情報を変更することができる。
 領域R2は、設計者等が選択したサムネイル画像に対応する仮想空間画像が表示される領域である。領域R2には、設計者等が指定した経過時間に対応する仮想空間画像が表示されてもよい。また、領域R2には複数のサムネイル画像が時系列で表示されてもよい。この際、出力部234は、設計者等によって指定された特徴を有するサムネイル画像を他のサムネイル画像と異なる態様で表示するようにしてもよい。出力部234は、例えば案内情報が含まれるサムネイル画像を、枠で囲んだ状態で出力端末3に表示させる。
 出力部234は、特徴発生時点と注視時点とが重なっている時点に対応する仮想空間画像のサムネイル画像を領域R2に表示させてもよい。出力部234がこのようなサムネイル画像を表示させることで、設計者等は、ユーザUがどのような特徴が含まれている仮想空間画像を注視したのかを把握しやすくなる。
 領域R3は、設計者等により選択されたサムネイル画像に対応する経過時間から所定の時間内における注視時点と特徴発生時点とを示す画像が表示される領域である。領域R3における横軸は、選択されたサムネイル画像に対応する仮想空間画像の閲覧をユーザUが開始してからの経過時間に対応する。領域R3における縦軸は、ユーザUによる注視の強さ、及び仮想空間画像が示す所定の特徴の強さに対応する。領域R3における破線Eは、ユーザUが閲覧を終了した時点を示している。
 ユーザUが仮想空間画像の位置を変化させる速度が小さいほど注視の強さが大きい。また、仮想空間画像に所定の特徴が表れている度合いが強いほど、所定の特徴の強さが大きい。一例として、一点透視の構図を示す輪郭線が長いほど、一点透視の構図という特徴の強さが大きい。案内情報の大きさが大きいほど、案内情報が含まれるという特徴の強さが大きい。
 図6の領域R3における破線が示す山は注視時点を示している。山のピークの継続時間が長いほど、注視状態の継続時間が長い。領域R3における実線が示す山は特徴発生時点を示している。注視時点及び特徴発生時点を示す画像の態様は図6に示す態様に限らず任意である。
 領域R3に示すように、出力部234は、注視時点又は特徴発生時点に関連付けて、閲覧継続時間を示す情報(例えば符号Eの破線)を出力してもよい。出力部234がこのような情報を出力することで、設計者等が、ユーザUが閲覧を継続した時間と、ユーザUが注視した傾向と、仮想空間画像の特徴の傾向との相関関係を把握しやすくなる。
 出力部234は、設計者等による設定により、特徴発生時点を出力する対象とする特徴の種別を変更するように構成されていてもよい。具体的には、「一点透視の構図」が特徴として選択された場合、出力部234は図6の領域R3に示す画像を出力端末3に表示させる。「二点透視の構図」が特徴として選択された場合、出力部234は、二点透視の構図が特徴特定部233により特定された時点を示す画像を領域R3に表示させる。
 出力部234は、複数の特徴それぞれが特徴特定部233により特定された時点を示す画像を、それぞれ異なる態様で同時に領域R3に表示させてもよい。すなわち、出力部234は、複数の異なる特徴に対応する複数の種類の特徴発生時点を、特徴の種類ごとに異なる態様で領域R3に表示させてもよい。出力部234が、このように複数の異なる特徴が発生した時点を注視時点と同じ時間軸上に表示させることで、設計者等が、ユーザUが注視しやすい仮想空間画像の特徴を把握しやすくなる。
 領域R4は、所定の期間(例えば領域R3に示す画像に対応する時間)においてユーザUが仮想空間画像を注視した回数、仮想空間画像において所定の特徴が特定された回数、及びユーザUが閲覧を継続した時間が表示される領域である。このように、出力部234は、ユーザUが注視した回数又は所定の特徴が仮想空間画像に含まれていた回数に関連付けて、ユーザUが仮想空間画像の閲覧を継続した時間を示す情報をさらに出力してもよい。
 領域R5は、ユーザUが閲覧した仮想空間画像に各種の物体が含まれていた時間の割合を示す情報が表示される領域である。図6に示すように、出力部234は、仮想空間画像に関連付けて、時間の割合を示す情報を出力する。領域R5には、例えば、領域R3に示す画像に対応する時間内に各物体が表示された割合が表示される。
 領域R5には、設計者等に指定された時間範囲において各物体が表示された割合が表示されてもよい。領域R5には、ユーザUが仮想空間画像の閲覧を終了した時点の直前の所定の時間範囲において各物体が表示された割合と、他の時間範囲において各物体が表示された割合とが同時に表示されてもよい。このような情報が表示されることで、設計者等は、どのような仮想空間画像をユーザUが見ている場合にユーザUが閲覧を中止する確率が高いかを把握しやすくなる。
 出力部234は、注視時点と特徴発生時点とに基づいてユーザUの生体状態を推定した結果を示す状態データを出力してもよい。生体状態は、例えば、脳波、心拍数又は発汗量である。出力部234は、例えば、単位時間あたりの注視回数が多い時間帯において所定の生体状態になっているという推定結果を示す状態データを出力する。所定の生体状態は、例えば、ユーザUの脳波にθ波が発生しているという状態である。θ波が発生している状態は、4Hz以上8Hz未満の脳波が発生している状態である。θ波は、空間の認知の状況と相関性を有することが知られており、ユーザUは、θ波が大きい時点で見ている画像を記憶しやすいと考えられる。
 図7は、生体状態の推定結果が表示された画面の例を示す図である。図7には、推定された生体状態を示す領域R6が含まれている。図7においては、注視の頻度が閾値以上であり、かつ注視時点と、仮想空間画像に一点透視の構図が含まれている時点とが重なっている時間帯にθ波のレベルが高くなっていることを示している。出力部234がこのような状態データを出力することで、設計者等は、ユーザUが仮想空間画像を閲覧している間のユーザUの生体状態を把握することができるので、生体状態を考慮して仮想空間画像を改善することが可能になる。
 出力部234は、例えば、注視時点と、仮想空間画像に一点透視の構図が含まれている時点とが重なっている時間帯にθ波が発生しているという推定結果を示す状態データを出力してもよい。ユーザUにθ波が発生している場合、θ波が発生している時点の仮想空間画像に進路を示す案内情報の画像、通路の画像、又はランドマークの画像等が含まれていれば、ユーザUが仮想空間画像を長時間にわたって見続けて記憶し易くなる蓋然性が高い。したがって、θ波の発生状態を知ることで、ユーザUが仮想空間画像を長時間にわたって見続けて記憶しやすくなるように、設計者等が仮想空間画像データを改善しやすくなる。
 ユーザUが、生体状態を測定する装置を装着しており、例えば情報端末1を介して、データ取得部231が測定された生体状態を示すデータを取得した場合、出力部234は、推定した生体状態とともに測定された生体状態を同時に表示させてもよい。出力部234がこのように動作することで、設計者等が、推定された生体状態と実際の生体状態との違いを把握することができる。その結果、設計者等が、ユーザUが生体状態を測定する装置を装着していない場合であっても、推定された生体状態に基づいて、実際の生体状態を把握しやすくなる。
 出力部234は、推定された生体状態を示すデータと測定された生体状態を示すデータとを教師データとして深層学習した機械学習モデルに、推定された生体状態を示すデータを入力し、当該機械学習モデルにおいて補正された後の生体状態を示すデータを出力してもよい。
 なお、図7においては、図6における領域R2に代えて領域R6が含まれているが、図7に領域R2が含まれていてもよい。この場合、所定の生体状態になっている時点における仮想空間画像が領域R2に表示されてもよい。例えば、出力部234は、θ波が高いレベルになっている時点における仮想空間画像を領域R2に表示させる。生体状態が所定の状態である時点における仮想空間画像を出力部234が出力することで、設計者等が、生体状態と仮想空間画像との関係性を把握しやすくなり、仮想空間画像を改善しやすくなる。
 出力部234は、注視時点を示す情報と、特徴発生時点を示す情報と、を入力することにより、生体状態を出力する機械学習モデルを用いて生体状態の推定結果を出力してもよい。当該機械学習モデルは、生体状態を測定しながら仮想空間画像を閲覧した多数のユーザUが注視した時点と、仮想空間画像に所定の特徴が含まれている時点と、時間ごとの生体状態値(例えばθ波)のレベルと、の組み合わせを教師データとして深層学習することにより作成されたモデルである。出力部234は、領域R3に表示されているような注視時点を示す情報と、特徴発生時点を示す情報と、を機械学習モデルに入力し、機械学習モデルから出力される生体状態の推定結果を出力する。
 ところで、注視時点と特徴発生時点との関係は、ユーザUの属性(例えば、性別、年齢、職業)によって異なると考えられる。そこで、出力部234は、記憶部22に記憶されたユーザUの属性に関連付けて、注視時点と特徴発生時点と、を関連付けて出力してもよい。出力部234がこのように構成されていることで、設計者等は、ユーザUの複数の属性それぞれに適した仮想空間画像データを作成しやすくなる。
 設計者等が、ユーザUが途中で閲覧を中止しづらい仮想空間画像データを作成できるようにするためには、設計者等が、ユーザUが短時間で閲覧を中止した場合の注視時点とユーザUが長時間にわたって閲覧を継続した場合の注視時点とを比較できることが望ましい。そこで、出力部234は、ユーザUが仮想空間画像の閲覧を継続した時間が異なる場合における注視時点と特徴発生時点と、を時系列で示す複数の画像を同じ時間軸で表示してもよい。
 図8は、それぞれ閲覧継続時間が異なる場合における注視時点(破線)と特徴発生時点(実線)とを時系列で示す画像の例を示す図である。図8は、それぞれ異なる仮想空間画像を同じ属性のユーザUが閲覧した場合の注視時点等を示している。図8における破線Hは、平均的な閲覧継続時間を示している。図8(a)は、図8(b)、図8(c)に比べて最も閲覧時間が長かったことを示している。図8(c)は、最も閲覧時間が短かったことを示している。
 所定の特徴が一点透視の構図を含むことである場合、図8(a)、図8(b)、図8(c)を比較することにより、設計者等は、一点透視の構図を多く含むようにすることが望ましいということを把握することができる。ただし、設計者等がこれらの図を比較するだけでは、閲覧継続時間との相関性がある要因を見落とす可能性がある。そこで、出力部234は、閲覧継続時間が平均的な閲覧継続時間よりも長い仮想空間画像の複数の特徴それぞれの発生パターンを特定した結果を出力してもよい。一例として、出力部234は、閲覧継続時間が平均的な閲覧継続時間よりも長い仮想空間画像データにおいて所定の特徴が含まれる位置の間隔を、発生パターンを特定した結果として出力する。
 出力部234は、閲覧継続時間が平均的な閲覧継続時間よりも長い多数の仮想空間画像の所定の複数の特徴の発生パターンを教師データとして深層学習することにより作成された機械学習モデルを用いて、仮想空間画像の改善策を出力してもよい。当該機械学習モデルは、例えば、図8(b)、図8(c)のように、所定の特徴が含まれていた時点を示すデータが入力されると、閲覧継続時間が平均的な閲覧継続時間よりも長く、かつ入力されたデータに最も近い、所定の特徴が含まれていた時点を示すデータを出力する。出力部234が機械学習モデルに入力されたデータと、機械学習モデルが出力したデータとの差分を示す情報を出力することで、設計者等は、仮想空間画像データをどのように修正することで閲覧継続時間を延ばせる可能性があるかを把握しやすくなる。
 なお、出力部234は、多数のユーザUが仮想空間画像を閲覧した結果の統計情報を出力してもよい。一例として、出力部234は、1つの仮想空間画像を複数のユーザUが閲覧した場合の注視回数の平均値と、閲覧継続時間の平均値を出力してもよい。また、出力部234は、注視回数と閲覧継続時間を縦軸と横軸にプロットした相関図を出力してもよい。このような統計情報を設計者等が把握することで、設計者等は、多数のユーザUの閲覧継続時間が長くなるように仮想空間画像データを改善しやすくなる。
 また、出力部234は、図2に示したような仮想空間画像に対応するレイアウト図に、ユーザUの移動経路、各地点での滞在時間、ユーザUの生体状態、ユーザUの見回し角度(同じ地点で変えた向きの範囲)を表示させてもよい。さらに、出力部234は、ユーザUの動きに基づいて、ユーザUの状態を、どのように進めばよいかを把握していない選択段階、進むべき方向を把握した進行段階、目的物を注視している到達段階に分類した結果を出力してもよい。
<第2実施形態>
[情報処理システムS1の概要]
 図9は、情報処理システムS1の概要を示す図である。情報処理システムS1は、ユーザUが見ている空間画像に重ねて、ユーザUの状態を示すデータを表示するシステムである。空間画像は、ユーザUが実際に見ている空間の画像であってもよく、コンピュータにより作成された仮想現実画像(VR画像)を含むメタバースの画像であってもよい。
 ユーザUの状態を示すデータは、例えば、時間の経過に伴うユーザUの生体情報の値の変化を示す生体情報画像データ、又は生体情報画像データに基づいて特定された状態データである。生体情報は、例えば測定器Mにより測定されるユーザUの心拍数、脳波、発汗、皮膚電位、ユーザUの視線、又はユーザUの視線の範囲を示す画面範囲を設定するマウス若しくはキーボードの操作内容に基づく情報であり、例えばグラフの画像情報である。ユーザUの状態は、ユーザUの生体情報に基づいて特定される、ユーザUが空間画像を見ている間に感じていること、又はユーザUの心身の状態であってもよい。ユーザUの状態は、例えば、リラックスしている状態、緊張している状態、集中している状態、又は興奮している状態である。
 情報端末1は、例えば、情報処理装置2が生体情報画像データに基づいて特定したユーザUの状態を空間画像に重ねて表示する。ユーザUが見ている空間画像に重ねてユーザUの状態が表示されることにより、空間画像を見ているユーザUが自分自身の状態を把握できるので、ユーザUは、見ている空間画像がユーザUに適しているかどうかを判断することが可能になる。ユーザUは、見ている空間画像が自身に適していないと判断した場合に、自身に適した空間画像に変更することができる。このような情報処理システムS1は、メタバースに自身のアバターの画像を表示させる場合に好適である。
 図9に示すように、情報処理システムS1は、情報端末1と、情報処理装置2と、出力端末3と、を備える。情報端末1、情報処理装置2及び出力端末3は、ネットワークNに接続されており、他の装置との間でデータを送受信することができる。
 情報端末1は、ユーザUが空間画像を見るために使用する端末であり、例えばパーソナルコンピュータ、タブレット、スマートフォン、又は眼鏡形状若しくはゴーグル形状の端末である。情報端末1は、例えばユーザUが装着した測定器Mから生体情報を取得する。情報端末1は、時間の経過に伴う生体情報の値の変化を示す生体情報画像データを空間画像データとともに表示する。生体情報画像データは、例えば拡張現実画像(AR画像)である。情報端末1は、生体情報画像データ及び空間画像データを情報処理装置2に送信する。
 情報処理装置2は、情報端末1に表示されるユーザUの生体情報画像データに基づいてユーザUの状態を特定する。情報処理装置2は、例えば、生体情報画像データが入力されると、ユーザUの状態を示すデータを出力する機械学習モデルに生体情報画像データを入力することによりユーザUの状態を特定する。情報処理装置2は、特定した状態を示す状態データを情報端末1に送信する。状態データを受信した情報端末1は、空間画像データとともに状態データを表示する。
 図10は、情報端末1に表示された画面の例を示す図である。領域R11には空間画像データが表示されており、領域R12には生体情報画像データが表示されており、領域R13には、情報処理装置2から送信された状態データが表示されている。ユーザUは、領域R12に表示された生体情報画像データを見ることによっても自分自身の状態を把握できるが、領域R13に表示された状態データを見ることにより、客観的に自分自身の状態を把握することができる。
 領域R11には、空間画像の態様を変更するための操作をユーザUから受けるための「変更」アイコンが表示されている。ユーザUが「変更」アイコンを選択することにより、領域R1に表示される空間画像の態様が変更される。空間画像の態様は、例えば、床・壁・天井・家具等の、色相・彩度・明度、凹凸度合い、形状又は配置等である。情報端末1は、「変更」アイコンが選択されたことに応じて、変更後の空間画像の複数の候補を表示してもよく、推奨される空間画像を表示してもよい。また、アイコンを選択する方法は、クリック、タップ以外に、アイトラッキングによる注視・瞬き・ウインク等、又はハンドトラッキングによるジェスチャー等であってもよい。
 また、領域R11には、表示されている空間画像を、ユーザUのお気に入りの画像として登録するための「登録」アイコンが表示されている。情報端末1は、「登録」アイコンが選択された場合、表示されている空間画像を、ユーザUのお気に入りの画像として記憶したり、空間画像を情報処理装置2に送信したりする。
 図10(a)に示す例においては、領域R11に表示された空間画像の明度が高く、領域R13には、リラックス度が低く、緊張度が高いという状態が示されている。領域R1に表示されている空間画像がリビングの画像であり、ユーザUがリビングではリラックスしたいと感じている場合、ユーザUが「変更」アイコンを選択することにより、情報端末1は、領域R13に表示されているユーザUの状態が変化する可能性がある態様に空間画像を変更する。
 図10(b)は、図10(a)に表示されている空間画像よりも明度が低い空間画像が表示された画面を示している。この状態で、領域R12に表示されている生体情報の変動が小さくなっており、領域R13には、リラックス度が高くなっていることが示されている。ユーザUは、「登録」アイコンを選択することにより、図10(b)に表示された空間画像を登録することができる。なお、空間画像の態様は、明度に代えて、又は明度とともに、色相・彩度により示されてもよい。
 情報端末1は、表示した空間画像データを情報処理装置2に送信してもよい。そして、情報処理装置2は、情報端末1以外の装置に状態データと空間画像データとを関連付けて出力してもよい。情報処理装置2は、例えば情報端末1と異なる出力端末3に状態データと空間画像データとを関連付けて送信したり、状態データと空間画像データとを関連付けて印刷したりしてもよい。出力端末3は、例えばデザイナー、研究者又はマーケターのように建物や空間、又はこれらの画像データを設計する人(以下、「設計者等」という)が使用するコンピュータである。出力端末3が状態データと空間画像データとを関連付けて表示することで、設計者等は、どのような空間に対してユーザUがどのような印象を持つかを把握することができ、設計に活用することができる。
[情報端末1の構成]
 図11は、情報端末1の構成を示す図である。情報端末1は、表示部13と、操作部14と、記憶部15と、制御部16と、第1通信部17と、第2通信部18と、を有する。制御部16は、操作受付部162と、表示処理部163と、生体情報取得部164と、状態データ取得部165と、データ送信部166と、を有する。
 第1通信部17は、測定器Mとの間でデータを送受信するための通信インターフェースを有する。第1通信部17は、例えばBluetooth(登録商標)又はWi-Fi(登録商標)のような無線通信インターフェースを有する。第1通信部17は、測定器Mから受信した生体情報を生体情報取得部164に入力する。
 第2通信部18は、ネットワークNを介して情報処理装置2との間でデータを送受信するための通信インターフェースを有する。第2通信部18は、例えばデータ送信部166から入力された生体情報画像データ及び空間画像データを情報処理装置2に送信し、情報処理装置2から受信した状態データを状態データ取得部165に入力する。
 表示部13は、各種の情報を表示するディスプレイである。表示部13は、例えば空間画像データに基づく空間画像を表示する。また、表示部13は、空間画像を見ているユーザUの生体情報に基づく生体情報画像データを作成し、作成した生体情報画像データに基づく生体情報画像を表示する。さらに、表示部13は、第1通信部17が状態データを情報処理装置2から受信した場合、状態データに基づくテキストを表示する。
 操作部14は、ユーザUの操作を受けるデバイスであり、例えばキーボード及びマウスを有する。操作部14は、ユーザUの操作内容を示すデータを操作受付部162に入力する。
 記憶部15は、ROM、RAM及びSSD等の記憶媒体を有する。記憶部15は、制御部16が実行するプログラムを記憶する。また、記憶部15は、空間画像データ、生体情報、生体情報画像データ等を一時的に記憶する。記憶部15は、例えば、生体情報が取得された時刻に関連付けて、生体情報画像データ、及び当該時刻に表示部13に表示されていた空間画像データを記憶する。
 さらに、記憶部15は、表示処理部163が表示部13に表示する空間画像の態様を変更するために用いる推奨状態データを記憶する。推奨状態データは、空間画像を識別するための情報(例えば空間画像名)と、空間画像を見たユーザの状態として推奨される状態とが関連付けられたデータである。
 図12及び図13は、推奨状態データの例を示す図である。図12に示す例において、玄関の空間画像に「驚き度:高」という推奨状態が関連付けられている。また、リビングの空間画像に「リラックス度:高」という推奨状態が関連付けられている。推奨状態データにおいては、1つの空間画像名に複数の推奨状態が関連付けられていてもよい。
 推奨状態データは、制御部16が実行するアプリケーションソフトウェアのプログラムに記述されていてもよいが、各空間においてどのような状態になりたいかという点は、ユーザUによって異なり得る。そこで、記憶部15は、操作部14を介してユーザUにより設定された空間画像別の推奨状態を記憶してもよい。また、推奨状態データは、推奨状態ではなく、推奨されない状態を示すデータを含んでもよい。
 図13に示すように、推奨状態データは、空間画像名に関連付けて、空間画像を見たユーザUの状態を示すスコアの許容範囲を示す数値を含んでもよい。図13に示す例において、玄関においては、「驚き度」に要求されるスコアが「8以上」であり、「開放度」に要求されるスコアが「5以上」であり、その他の状態に要求されるスコアは任意になっている。このように、推奨状態データが、状態の種別ごとに許容される範囲を示すデータを含んでいることで、空間ごとにユーザUの好みを反映させやすくなる。
 さらに、記憶部15は、空間画像の態様とユーザUの状態との関係の傾向を示すデータを記憶してもよい。一例として、記憶部15は、明度が低い空間画像をユーザUが見た場合に、明度が高い空間画像をユーザUが見た場合よりも落ち着きを感じやすいといった傾向、又はユーザUが一点透視の構図の空間画像を見た場合に、二点透視の構図の空間画像を見た場合よりも落ち着きを感じやすいといった傾向を示すデータを記憶する。このデータは、表示処理部163が表示する空間画像の態様を変更する場合に用いられる。
 制御部16は、CPUを有する。制御部16は、記憶部15に記憶されたプログラムを実行することにより、操作受付部162、生体情報取得部164、状態データ取得部165、表示処理部163及びデータ送信部166として機能する。
 操作受付部162は、操作部14から入力されるデータに基づいて、ユーザUの操作を受け付ける。操作受付部162は、受け付けた操作の内容を、制御部16内の適切な処理部に通知する。操作受付部162は、例えば、図10に示した「変更」アイコンをユーザUが選択する操作を受け付けたことを表示処理部163に通知する。また、操作受付部162は、表示部13に表示された変更後の空間画像の複数の候補から1つの候補を選択する操作を受け付けたことを表示処理部163に通知する。アイコンを選択する方法は、クリック、タップ以外に、アイトラッキングによる注視・瞬き・ウインク等、又はハンドトラッキングによるジェスチャー等であってもよい。
 生体情報取得部164は、第1通信部17を介して、情報端末1において空間画像を見ているユーザの生体情報を取得する。生体情報取得部164は、取得した生体情報を表示処理部163に入力する。
 状態データ取得部165は、第2通信部18を介して、情報処理装置2が出力した状態データを取得する。状態データ取得部165は、取得した状態データを表示処理部163に入力する。
 表示処理部163は、表示部13に表示するための画面データを作成することにより、各種の情報を表示部13に表示させる。表示処理部163は、例えば、記憶部15に記憶された仮想画像データに基づく仮想画像を表示部13に表示させる。また、表示処理部163は、図10に示すように、空間画像に重ねて生体情報に基づく生体情報画像を表示させる。さらに、表示処理部163は、状態データ取得部165が第2通信部18を介して状態データを取得した場合、取得した状態データに基づくテキスト又は画像を空間画像に重ねて表示部13に表示させる。表示処理部163は、リアルタイムでユーザUの生体情報画像を表示させてもよく、過去の所定の時間(例えばユーザUにより設定された数秒間)の生体情報を示す画像を表示させてもよい。
 表示処理部163は、状態データ取得部165が取得した状態データが、空間画像データを変更する場合に対応する所定の状態を示している場合に、表示中の空間画像と異なる更新空間画像に対応する更新空間画像データを表示させる。所定の状態は、例えば、空間画像名に関連付けて記憶部15に記憶された推奨状態データが示す推奨状態と異なる状態である。
 表示処理部163は、推奨状態データが示す状態に状態データが示す状態を近づけるように空間画像の態様を変更したり、空間画像を他の空間画像に更新したりする。表示処理部163は、例えば、記憶部15に記憶された空間画像の態様とユーザUの状態との関係の傾向を示すデータを参照することにより、空間画像の明度を変更したり、構図を変更したりする。表示処理部163は、状態データが示す状態が、推奨状態データが示す許容範囲になるまで空間画像の態様の変更を継続してもよい。
 表示処理部163は、状態データ取得部165が取得した状態データを表示部13に表示させた後に、推奨状態データが示す状態に状態データが示す状態が近づく可能性がある、一以上の更新空間画像候補を表示させてもよい。表示処理部163は、記憶部15に記憶された空間画像の態様とユーザUの状態との関係の傾向を示すデータを参照することにより更新空間画像候補を決定する。一例として、落ち着き度を高める必要がある場合、表示処理部163は、表示していた空間画像よりも明度が低い空間画像を更新空間画像候補に決定する。
 表示処理部163は、一以上の更新空間画像候補を表示させた後に、一以上の更新空間画像候補から一つの更新空間画像候補を選択する操作を操作受付部162が受け付けたことに応じて、選択された更新空間画像候補に対応する更新空間画像を表示させてもよい。表示処理部163がこのように動作することで、ユーザUの状態が推奨状態になるとともに、ユーザUが好む態様の空間画像を表示部13に表示させることができる。
 表示処理部163は、ユーザUのアバターの画像を、メタバースの画像である空間画像に重ねて表示させてもよい。表示処理部163は、例えばユーザUにより選択された色の服装を装着したアバターの画像と、生体情報画像又は状態データとを、空間画像とともに表示させる。表示処理部163がユーザUのアバターの画像と生体情報画像又は状態データとを表示させることで、自身が選択したアバターがメタバースに表示される場合にユーザUの状態が適切な状態になるように、アバターの画像又はメタバースの画像を調整することが可能になる。
 データ送信部166は、生体情報画像に対応する生体情報画像データを情報処理装置2に送信する。データ送信部166は、例えば、表示部13に表示されている画面から、図10の領域R2に表示されている生体情報画像データを切り出して、切り出した生体情報画像データを情報処理装置2に送信する。仮想空間画像データに比べて生体情報画像データのサイズは小さいので、データ送信部166がこのように動作することで、情報処理装置2に送信するデータ量を少なくすることができる。
 データ送信部166は、生体情報画像データと、当該生体情報画像データに対応する生体情報画像が表示された空間画像に対応する空間画像データとを情報処理装置2に送信してもよい。データ送信部166は、通常は生体情報画像データのみを情報処理装置2に送信し、情報処理装置2から空間画像データの要求を受けた場合に、生体情報画像データに対応する生体情報を測定器Mが取得した時点で表示部13に表示されていた空間画像データを記憶部15から読み出して、読み出した空間画像データを情報処理装置2に送信してもよい。
 また、データ送信部166は、アバターの画像が空間画像に重ねて表示されている場合に、アバターの画像を削除した状態の空間画像データを情報処理装置2に送信してもよい。データ送信部166が、アバターの画像が含まれていない空間画像データを情報処理装置2に送信することで、情報処理装置2が出力する空間画像データを見る設計者等が、アバター画像の影響を受けずに空間画像データを評価したり解析したりすることが可能になる。
[情報処理装置2の構成]
 図14は、情報処理装置2Aの構成を示す図である。情報処理装置2は、通信部21と、記憶部22と、制御部23と、を有する。制御部23は、データ取得部231と、状態特定部235と、出力部234と、データ要求部236と、を有する。
 通信部21は、ネットワークNを介して情報端末1及び出力端末3とデータを送受信するための通信インターフェースを有する。通信部21は、受信したデータをデータ取得部231に入力する。また、通信部21は、出力部234及びデータ要求部236から入力されたデータを送信する。
 記憶部22は、ROM、RAM及びSSD等の記憶媒体を有する。記憶部22は、制御部23が実行するプログラムを記憶する。また、記憶部22は、生体情報画像データに基づいてユーザUの状態を特定するために用いるデータを記憶する。当該データは、例えば、生体情報画像データが示す生体情報の波形の特徴とユーザUの状態とが関連付けられたデータである。当該データは、生体情報画像データが入力されるとユーザUの状態を示すデータを出力する機械学習モデルであってもよい。
 また、記憶部22は、ユーザUを識別するためのユーザ識別情報に関連付けてユーザUの属性を記憶してもよい。ユーザUの属性は、例えば、年齢、性別、家族構成又は居住地域である。
 制御部23は、CPUを有しており、記憶部22に記憶されたプログラムを実行することにより、データ取得部231、状態特定部235、出力部234及びデータ要求部236として機能する。
 データ取得部231は、通信部21を介して、情報端末1から生体情報画像データを取得する。データ取得部231は、例えば、ユーザUのユーザ識別情報に関連付けて生体情報画像データを取得する。データ取得部231は、取得した生体情報画像データを状態特定部235及び出力部234に入力する。
 データ取得部231は、通信部21を介して、情報端末1に表示された空間画像データを取得してもよい。データ取得部231は、生体情報画像データと空間画像データとを関連付けて取得してもよく、生体情報画像データを取得した後に、当該生体情報画像データに対応する生体情報が測定器Mにより取得された時点で情報端末1に表示された空間画像データを取得してもよい。
 状態特定部235は、生体情報画像データに基づいてユーザUの状態を特定する。状態特定部235は、記憶部22において、生体情報画像データが示す生体情報の波形の特徴に関連付けられた状態を、ユーザUの状態として特定する。状態特定部235は、予め、多数の生体情報画像データとユーザUの状態とのセットを教師データとして用いて学習した機械学習モデルに生体情報画像データを入力し、機械学習モデルから出力される状態を示すデータに基づいてユーザUの状態を特定してもよい。状態特定部235は、特定したユーザの状態を出力部234に通知する。
 出力部234は、状態特定部235が特定したユーザUの状態を示す状態データを出力する。出力部234は、例えば、通信部21を介して、ユーザUが使用する情報端末1に対してユーザUの状態データを送信する。出力部234は、通信部21を介して、出力端末3に対してユーザUの状態データを送信してもよい。
 出力部234は、空間画像データに関連付けて、当該空間画像データが表示されていた時点で取得された生体情報に対応する生体情報画像データに基づいて特定されたユーザの状態を示す状態データを出力してもよい。すなわち、出力部234は、状態データと、当該状態データの特定に用いられた生体情報画像データに対応する生体情報が測定器Mにより取得された時点で情報端末1に表示されていた空間画像データとを関連付けて送信してもよい。出力部234が状態データと空間画像データとを関連付けて出力することで、これらのデータを確認する設計者等が、それぞれの空間においてユーザUがどのような状態になるかを把握しやすくなる。
 ユーザUの属性によって、空間を見たユーザUの感じ方が異なるという場合がある。そこで、出力部234は、記憶部22を参照することにより、データ取得部231が取得した生体情報画像データに関連付けられたユーザ識別情報に対応する属性を特定し、当該生体情報画像データに対応する生体情報が取得された時点で表示されていた空間画像に対応する空間画像データと、状態データと、特定した属性とを関連付けて出力してもよい。出力部234が、ユーザUの属性に関連付けて、空間画像データと状態データとを出力することで、これらのデータを確認する設計者等が、ユーザUの属性によって、それぞれの空間における感じ方がどのように異なるかを把握しやすくなる。
 ところで、設計者等には、ユーザUが所定の状態になりやすい空間がどのような空間であるかを把握したいというニーズがある。そこで、出力部234は、状態データが示す状態の種別に関連付けて、それぞれの種別のユーザUの状態に対応する一以上の生体情報画像データに関連付けて送信された一以上の空間画像データを出力してもよい。一例として、設計者等が、人がリラックスできる空間の例を把握するための操作を行った場合、出力部234は、状態特定部235がリラックスした状態に対応することを特定した生体情報画像データに関連付けられた一以上の空間画像データを選択し、リラックスしやすい空間として、選択した空間画像データを出力する。
 ユーザUの個性によるばらつきを抑制するために、出力部234は、複数の情報端末1からデータ取得部231が取得した生体情報画像データを用いて状態特定部235が特定したさまざまなユーザUの状態のうち、ユーザUがリラックスした状態に対応することを特定した複数の生体情報画像データに関連付けられた複数の空間画像データを選択してもよい。設計者等は、このような複数の空間画像データを見ることで、多数のユーザUがリラックスしやすい空間がどのような空間であるかを把握しやすくなる。
 ユーザUの属性によって傾向が異なるという可能性があるので、出力部234は、ユーザUの属性と状態の種別とに関連付けて複数の空間画像データを出力してもよい。この場合、出力部234は、設計者等が設定した状態に対応する複数の生体情報画像データを、生体情報画像データを送信した情報端末1のユーザUの属性ごとに分類する。そして、出力部234は、分類した属性ごとに、複数の生体情報画像データに対応する複数の空間画像データを選択する。
 出力部234が、所定の状態に対応する空間画像データを出力する場合、データ取得部231が生体情報画像データとともに空間画像データを取得し続けると、ネットワークNを流れるデータが多くなるとともに、データ取得部231の処理の負荷も増大してしまう。そこで、データ要求部236は、状態特定部235がユーザUの状態が所定の状態になったことを特定した場合に、所定の状態が特定された生体情報画像データに対応する生体情報が取得された時点で表示されていた空間画像に対応する空間画像データを要求するための要求データを情報端末1に送信する。
 この所定の状態は、例えば、設計者等によって設定された状態、又はユーザUの状態に変化が生じた後の状態である。要求データには、例えば、生体情報画像データを識別するための情報として、ID又はタイムスタンプが含まれている。
 情報端末1は、要求データを受信したことに応じて、要求データが示す生体情報画像データに対応する生体情報が取得された時刻に表示していた空間画像データを記憶部15から読み出して、データ送信部166が、読み出した空間画像データを送信する。出力部234は、データ要求部236が要求データを情報端末1に送信したことに応じて情報端末1が送信した空間画像データを、所定の状態を示す状態データに関連付けて出力する。情報端末1及び情報処理装置2がこのように構成されていることで、情報端末1と情報処理装置2との間で送受信される空間画像データの量を少なくすることができ、ネットワークN、情報端末1及び情報処理装置2の負荷を軽減することができる。
[情報処理システムS1における処理の流れ]
 図15は、情報処理システムS1における処理の流れの一例を示すシーケンス図である。図15に示すシーケンス図においては、状態データが情報端末1に表示される場合を例示している。図15に示すシーケンス図は、ユーザUが空間画像を見ている状態から開始している。
 情報端末1においては、表示処理部163が空間画像データに基づく空間画像を表示部13に表示させている間に(S11)、生体情報取得部164が測定器MからユーザUの生体情報を取得する(S12)。表示処理部163は、生体情報に基づく生体情報画像データを作成し、生体情報画像を表示部13に表示させる(S13)。また、データ送信部166は、生体情報画像データを情報処理装置2に送信する(S14)。
 情報処理装置2においては、情報端末1から受信した生体情報画像データを状態特定部235が解析し(S21)、ユーザUの状態を特定する(S22)。出力部234は、特定した状態データを出力する(S23)。図15に示す例において、出力部234は状態データを情報端末1に送信しているが、出力部234は、状態データを出力端末3に送信してもよい。状態データ取得部165が状態データを取得すると、表示処理部163は状態データを表示部13に表示させる(S15)。
 S11からS15までの処理が行われている間、データ要求部236は、状態特定部235が特定した状態が所定の状態であるかどうかを監視する(S24)。データ要求部236は、状態特定部235が特定した状態が所定の状態であると判定した場合(S24においてYES)、空間画像データを要求するための要求データを情報端末1に送信する(S25)。
 データ送信部166は、記憶部15に記憶された空間画像データを参照することにより、要求データに基づいて特定される時刻において表示部13に表示されていた空間画像データを特定し(S16)、特定した空間画像データを情報処理装置2に送信する(S17)。出力部234は、空間画像データと状態データとを関連付けて出力する(S26)。
 表示部13に空間画像データが表示されている間、情報端末1においては、空間画像を変更するための操作が行われたことを操作受付部162が監視する(S18)。空間画像の態様を変更するための操作が行われたことを操作受付部162が検出した場合(S18においてYES)、表示処理部163は、その時点で表示している空間画像データと、状態データが示している状態とに基づいて、ユーザUの状態が改善するように空間画像データを更新する(S19)。
[情報処理システムS1による効果]
 従来のシステムでは、仮想現実空間や拡張現実画像が表示された空間等の仮想空間を見ているユーザ以外の人(例えばデザイナー、研究者又はマーケター)が、ユーザの反応を知ることはできたが、ユーザ(例えば仮想空間を見るだけのユーザ、及び仮想空間の制作関与しているデザイナー、研究者又はマーケターを含む)が、空間を見ている間の自分自身の状態を客観的に把握することができないという問題があった。
 これに対して、情報処理システムS1における情報端末1は、ユーザUが空間画像を見ている間に取得された生体情報の波形を示す生体情報画像データを情報処理装置2に送信し、情報処理装置2は、生体情報画像データに基づいてユーザUの状態を特定して状態データを作成する。情報端末1は、情報処理装置2から受信した状態データを空間画像とともに表示させることで、ユーザUが、空間画像を見ている間の自分自身の状態を客観的に把握することが可能になる。その結果、ユーザUが自身に適した空間画像に切り替えることが可能になる。このような情報処理システムS1は、自身のアバターをメタバースに表示させる用途に好適である。
 また、情報処理システムS1においては、情報処理装置2が、情報端末1に表示された生体情報画像データを解析することにより、ユーザUの状態を特定する。したがって、情報処理装置2は、測定器Mから生体情報を直接取得することができない場合であっても、ユーザUの状態を特定することができる。
 そして、情報処理装置2は、情報端末1から空間画像データを取得して、取得した空間画像データと状態データとを関連付けて出力する。情報処理装置2がこのようなデータを出力することで、設計者等が、どのような空間画像にすることが望ましいかを把握しやすくなる。また、情報処理装置2は、所定の状態を検出した場合に空間画像データを取得することで、空間画像データを常に情報端末1から情報処理装置2に送信する場合に比べて、データの受信量を少なくすることができ、情報処理装置2の処理の負荷を軽くすることもできる。
 本実施形態に係る技術は、現実の空間、仮想空間(メタバース空間を含む)を見るユーザが、空間のデザイナーに頼らずに自身が体験する空間に対して積極的に能動的に関心を持ち、ユーザ自身が空間を改良することに寄与できるようにする際に好適である。
[情報処理システムS2の概要]
 図16は、情報処理システムS2の概要を示す図である。情報処理システムS2は、情報処理システムS1における情報処理装置2に代えて情報処理装置4を有しており、情報処理装置4が、空間画像データを情報端末1に送信する。そして、ユーザUが空間画像を見ている間に、測定器MがネットワークNを介して情報処理装置4に生体情報を送信する。情報処理装置4は、受信した生体情報に基づいてユーザUの状態を特定し、状態データを情報端末1に送信する。情報処理装置4は、生体情報画像データを情報端末1に送信してもよい。このような構成により、情報端末1は、図10に示したように空間画像を表示中にユーザUの状態を表示することができる。
 図17は、情報処理装置4の構成を示す図である。情報処理装置4は、通信部41と、記憶部42と、制御部43と、を有する。
 通信部41は、図14に示した情報処理装置2における通信部21に対応しており、記憶部42は、情報処理装置2における記憶部22に対応している。記憶部42は、情報端末1に表示させる空間画像データを記憶している。記憶部42は、後述する出力部433が空間画像データを送信した場合、空間画像データの送信先を示す情報(例えば情報端末1の識別情報又はユーザUの識別情報)と、送信時刻とを空間画像データに関連付けて記憶する。
 記憶部42は、情報処理システムS1における情報端末1の記憶部15が記憶する推奨状態データ、及び空間画像の態様とユーザUの状態との関係の傾向を示すデータを記憶してもよい。
 制御部43は、情報処理装置2における制御部23に対応するCPUを有しており、記憶部42に記憶されたプログラムを実行することにより、生体情報取得部431、状態特定部432及び出力部433として機能する。
 生体情報取得部431は、通信部41を介して、測定器Mが送信した生体情報を取得する。すなわち、生体情報取得部431は、情報端末1に表示された空間画像データを見ているユーザUの生体情報を取得する。生体情報取得部431は、取得した生体情報を状態特定部432に入力する。
 状態特定部432は、情報処理装置2における状態特定部235と同等の機能を有しており、生体情報取得部431から入力された生体情報に基づいて、ユーザUの状態を特定する。状態特定部432は、特定した状態を示す状態データを出力部433に入力する。
 出力部433は、情報処理システムS1における表示処理部163が有していた機能と同等の機能を有する。具体的には、出力部433は、空間画像データを送信することにより、空間画像データを情報端末1に表示させる。また、出力部433は、状態特定部432が特定したユーザUの状態を示す状態データと、当該状態データに対応する生体情報が取得された時点で情報端末1に表示されていた空間画像データとを関連付けて出力する。出力部433は、例えば、状態特定部432から入力された状態データを情報端末1に送信することで、ユーザUが空間画像を見ている間に、ユーザUの状態を情報端末1に表示させることができる。
 出力部433は、状態特定部432が特定したユーザUの状態に基づいて、情報端末1に表示させる空間画像データを変更してもよい。具体的には、情報処理システムS1における表示処理部163と同様に、記憶部42に記憶された推奨状態データ、及び空間画像の態様とユーザUの状態との関係の傾向を示すデータを用いて、ユーザUの状態を推奨状態に近づけるように空間画像データの態様を変更してもよい。
 出力部433は、空間画像データと状態データとを関連付けて出力端末3に出力してもよい。この場合、出力部433は、生体情報取得部431が生体情報を取得した時刻に関連付けて記憶部42に記憶された空間画像データを特定し、特定した空間画像データと状態データとを関連付けて出力端末3に送信する。情報処理システムS1と同様に、出力部433は、ユーザUの属性にさらに関連付けて、空間画像データと状態データとを出力してもよい。
 なお、情報処理装置4は、ネットワークNを介することなく情報処理装置4に接続された情報端末1に、空間画像データと、生体情報画像データ又は状態データの少なくともいずれかと、を表示させてもよい。また、情報処理装置4が、ユーザUが使用するコンピュータであり、情報処理装置4は、空間画像データと、生体情報画像データ又は状態データの少なくともいずれかと、をディスプレイに表示させてもよい。
 また、情報処理装置4は、複数のユーザUが使用する情報端末1から、複数のユーザUの生体情報を取得し、同じ空間画像を見ている複数のユーザUの生体情報を示す複数の生体情報画像データを、同じ空間画像を見ている複数のユーザUが使用している複数の情報端末1に送信してもよい。この場合、それぞれの情報端末1は、情報処理装置4から送信された複数のユーザUに対応する複数の生体情報画像データを空間画像データに重ねて表示する。情報端末1がこのような画面を表示することで、ユーザUは、自身の状態と他の人の状態とを比較することが可能になる。
 情報処理装置4は、複数のユーザUに対応する複数の生体情報画像データを出力端末3に送信してもよい。この場合、出力端末3は、複数の生体情報画像データを空間画像データに重ねて表示する。出力端末3がこのような画面を表示することで、設計者等は、空間画像を見た複数のユーザUがどのように状態になるかを把握することができるので、多くのユーザUを考慮して空間画像を設計することが可能になる。
[情報処理システムS2による効果]
 情報処理システムS2においても、情報処理システムS1と同様に、ユーザUが空間画像を見ている間のユーザUの状態が情報端末1に表示されるので、ユーザUが、空間画像を見ている間の自分自身の状態を客観的に把握することが可能になる。情報処理システムS2においては、情報処理装置4が、空間画像データを情報端末1に提供するとともに、取得した生体情報に基づいて特定した状態データを情報端末1に提供するので、情報端末1が生体情報を取得したり、空間画像データを予め記憶したりする機能を有していない汎用的なコンピュータであっても情報処理システムS1と同様の効果を得ることができる。
[変形例]
 以上の説明においては、生体情報画像データとして、心拍数又は脳波に基づくグラフの画像データを主に例示したが、生体情報画像データは、ユーザUの視線の位置を示す画像データであってもよい。ユーザUの視線の位置を示す画像データは、例えば、空間画像においてユーザUが見ている時間が長い領域と、ユーザUが見ている時間が短い領域とによって色又は模様が異なるヒートマップ画像のデータである。この場合、測定器Mは例えば眼鏡型又はゴーグル型の端末であり、当該端末が有するセンサーによりユーザUの視線の方向を特定することにより、ユーザUが見ている領域が特定される。ユーザUは、ヒートマップ画像を見ることで、自身が空間画像のどの領域を見る傾向が強いかを把握することができる。
 情報処理装置2又は情報処理装置4は、ヒートマップ画像データを重ねた空間画像データを出力端末3に出力してもよい。これにより、設計者等は、ユーザUが注目しやすい領域を考慮して空間画像を設計することが可能になる。また、情報処理装置2又は情報処理装置4は、ヒートマップ画像データを解析することにより、ユーザUが見る傾向が強い領域を解析したり、ユーザUの視線の動きの傾向によりユーザUの感情を解析したりして、解析した結果を出力してもよい。これにより、設計者等は、感情を考慮して空間画像を設計しやすくなる。
(付記)
 本発明の他の態様の情報処理システムは、情報端末と、前記情報端末と通信可能な情報処理装置と、を備え、前記情報端末は、前記情報端末において空間画像を見ているユーザの生体情報を取得する生体情報取得部と、前記情報端末に、前記空間画像に重ねて前記生体情報に基づく生体情報画像を表示させる表示処理部と、前記生体情報画像に対応する生体情報画像データを前記情報処理装置に送信するデータ送信部と、を有し、前記情報処理装置は、前記情報端末から前記生体情報画像データを取得するデータ取得部と、前記生体情報画像データに基づいて、前記ユーザの状態を特定する状態特定部と、前記状態特定部が特定した前記ユーザの状態を示す状態データを出力する出力部と、を有してもよい。
 前記出力部は、前記状態データを前記情報端末に送信し、前記情報端末は、前記出力部が出力した前記状態データを取得する状態データ取得部をさらに有し、前記表示処理部は、前記空間画像に重ねて前記状態データを表示させてもよい。
 前記表示処理部は、前記状態データ取得部が取得した前記状態データが、前記空間画像を変更する場合に対応する所定の状態を示している場合に、表示中の前記空間画像と異なる更新空間画像を表示させてもよい。
 前記情報端末は、前記ユーザの操作を受け付ける操作受付部をさらに有し、前記表示処理部は、前記状態データ取得部が取得した前記状態データを表示させた後に、一以上の更新空間画像候補を表示させ、前記一以上の更新空間画像候補から一つの更新空間画像候補を選択する操作を前記操作受付部が受け付けたことに応じて、選択された前記更新空間画像候補に対応する更新空間画像を表示させてもよい。
 前記情報処理装置は、前記ユーザを識別するためのユーザ識別情報に関連付けて前記ユーザの属性を記憶する記憶部をさらに有し、前記データ取得部は、前記ユーザ識別情報に関連付けて前記生体情報画像データを取得し、前記出力部は、前記記憶部を参照することにより、前記データ取得部が取得した前記生体情報画像データに関連付けられた前記ユーザ識別情報に対応する前記属性を特定し、前記生体情報画像データに対応する前記生体情報が取得された時点で表示されていた前記空間画像に対応する空間画像データと、前記状態データと、特定した前記属性とを関連付けて出力してもよい。
 前記データ送信部は、前記生体情報画像データと、当該生体情報画像データに対応する前記生体情報画像が表示された前記空間画像に対応する空間画像データとを前記情報処理装置に送信し、前記出力部は、前記空間画像データに関連付けて、当該空間画像データが表示されていた時点で取得された生体情報に対応する前記生体情報画像データに基づいて特定された前記ユーザの状態を示す前記状態データを出力してもよい。
 前記データ送信部は、前記生体情報画像データと、当該生体情報画像データに対応する前記生体情報画像が表示された前記空間画像に対応する空間画像データとを前記情報処理装置に送信し、前記出力部は、前記状態データが示す状態の種別に関連付けて、それぞれの前記種別の前記ユーザの状態に対応する一以上の前記生体情報画像データに関連付けて送信された一以上の前記空間画像データを出力してもよい。
 前記情報処理装置は、前記状態特定部が前記ユーザの状態が所定の状態になったことを特定した場合に、前記所定の状態が特定された前記生体情報画像データに対応する前記生体情報が取得された時点で表示されていた前記空間画像に対応する空間画像データを要求するための要求データを前記情報端末に送信するデータ要求部をさらに有し、前記出力部は、前記データ要求部が前記要求データを前記情報端末に送信したことに応じて前記情報端末が送信した前記空間画像データを、前記所定の状態を示す前記状態データに関連付けて出力してもよい。
 本発明の他の態様の情報処理装置は、空間画像データを送信することにより、前記空間画像データを情報端末に表示させる出力部と、前記情報端末に表示された前記空間画像データを見ているユーザの生体情報を取得する生体情報取得部と、前記生体情報に基づいて、前記ユーザの状態を特定する状態特定部と、を有し、前記出力部は、前記状態特定部が特定した前記ユーザの状態を示す状態データと、当該状態データに対応する前記生体情報が取得された時点で前記情報端末に表示されていた前記空間画像データとを関連付けて前記情報端末に出力してもよい。
 本発明の他の態様の情報処理方法は、コンピュータが実行する、空間画像データを送信することにより、前記空間画像データを情報端末に表示させるステップと、前記情報端末に表示された前記空間画像データを見ているユーザの生体情報を取得するステップと、前記生体情報に基づいて、前記ユーザの状態を特定するステップと、特定した前記ユーザの状態を示す状態データと、当該状態データに対応する前記生体情報が取得された時点で前記情報端末に表示されていた前記空間画像データとを関連付けて前記情報端末に出力するステップと、を有してもよい。
 本発明の他の態様のプログラムは、コンピュータに、空間画像データを送信することにより、前記空間画像データを情報端末に表示させるステップと、前記情報端末に表示された前記空間画像データを見ているユーザの生体情報を取得するステップと、前記生体情報に基づいて、前記ユーザの状態を特定するステップと、特定した前記ユーザの状態を示す状態データと、当該状態データに対応する前記生体情報が取得された時点で前記情報端末に表示されていた前記空間画像データとを関連付けて前記情報端末に出力するステップと、を実行させてもよい。
 以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されず、その要旨の範囲内で種々の変形及び変更が可能である。例えば、装置の全部又は一部は、任意の単位で機能的又は物理的に分散・統合して構成することができる。また、複数の実施の形態の任意の組み合わせによって生じる新たな実施の形態も、本発明の実施の形態に含まれる。組み合わせによって生じる新たな実施の形態の効果は、もとの実施の形態の効果を併せ持つ。
1 情報端末
2 情報処理装置
3 出力端末
4 情報処理装置
11 通信部
13 表示部
14 操作部
15 記憶部
16 制御部
17 第1通信部
18 第2通信部
21 通信部
22 記憶部
23 制御部
41 通信部
42 記憶部
43 制御部
161 データ取得部
162 操作受付部
163 表示処理部
164 生体情報取得部
165 状態データ取得部
166 データ送信部
231 データ取得部
232 注視特定部
233 特徴特定部
234 出力部
235 状態特定部
236 データ要求部
431 生体情報取得部
432 状態特定部
433 出力部

Claims (14)

  1.  情報端末と、前記情報端末と通信可能な情報処理装置と、を備え、
     前記情報端末は、
      ユーザの操作を受け付ける操作受付部と、
      前記操作受付部が受け付けた前記ユーザの操作に基づいて、前記情報処理装置から提供される仮想空間画像データの表示領域及び表示向きを変化させることにより仮想空間画像を表示する表示処理部と、
     を有し、
     前記情報処理装置は、
      前記ユーザが見ている前記仮想空間画像を特定するための表示状態データを取得するデータ取得部と、
      前記表示状態データに基づいて、前記仮想空間画像を見ている前記ユーザが前記仮想空間画像の少なくとも一部を所定時間以上にわたって注視した時点である注視時点を特定する注視特定部と、
      前記情報端末に表示された前記仮想空間画像に所定の特徴が含まれていた時点である特徴発生時点を特定する特徴特定部と、
      前記注視時点と前記特徴発生時点とを関連付けて出力する出力部と、
     を有する情報処理システム。
  2.  前記データ取得部は、前記ユーザが前記仮想空間画像の閲覧を終了したことを示す終了データを前記情報端末から取得し、
     前記出力部は、前記注視時点及び前記特徴発生時点に関連付けて、前記終了データが示す閲覧終了時点を示す情報を出力する、
     請求項1に記載の情報処理システム。
  3.  前記出力部は、前記注視時点及び前記特徴発生時点に基づいて前記ユーザの生体状態を推定した結果を示す状態データを出力する、
     請求項1に記載の情報処理システム。
  4.  前記特徴特定部は、前記情報端末に表示された前記仮想空間画像の構図が一点透視の構図を含む前記特徴発生時点を特定する、
     請求項1に記載の情報処理システム。
  5.  前記特徴特定部は、前記ユーザが前記仮想空間画像において移動することができる進路を示す案内情報の種別、大きさ又は位置のうち、少なくともいずれかを含む前記特徴発生時点を特定する、
     請求項1に記載の情報処理システム。
  6.  前記注視特定部は、前記ユーザが前記案内情報を注視した時点を特定する、
     請求項5に記載の情報処理システム。
  7.  前記仮想空間画像に複数の前記案内情報が含まれている場合、前記注視特定部は、複数の前記案内情報のうち、より長い時間にわたって注視された前記案内情報を特定する、
     請求項6に記載の情報処理システム。
  8.  前記特徴特定部は、前記注視時点を含む所定の時間内に表示された前記仮想空間画像に複数の物体それぞれが表示された時間の割合を特定し、
     前記出力部は、前記仮想空間画像に関連付けて前記時間の割合を示す情報を出力する、
     請求項1に記載の情報処理システム。
  9.  前記出力部は、前記ユーザが前記仮想空間画像の閲覧を継続した時間を示す情報を出力する、
     請求項1に記載の情報処理システム。
  10.  前記情報処理装置は、前記ユーザの属性を記憶する記憶部をさらに有し、
     前記出力部は、前記ユーザの属性に関連付けて、前記注視時点と前記特徴発生時点とを関連付けて出力する、
     請求項1に記載の情報処理システム。
  11.  前記出力部は、前記ユーザが前記仮想空間画像の閲覧を継続した時間が異なる場合における前記注視時点と、前記特徴発生時点と、を時系列で示す複数の画像を同じ時間軸で表示する、
     請求項1に記載の情報処理システム。
  12.  ユーザが見ている、前記ユーザの操作により表示領域及び表示向きが変化する仮想空間画像を特定するための表示状態データを取得するデータ取得部と、
     前記ユーザが前記仮想空間画像の少なくとも一部を所定時間以上にわたって注視した時点である注視時点を特定する注視特定部と、
     前記ユーザが使用する情報端末に表示された前記仮想空間画像に所定の特徴が含まれていた時点である特徴発生時点を特定する特徴特定部と、
     前記注視時点と前記特徴発生時点とを関連付けて出力する出力部と、
     を有する情報処理装置。
  13.  コンピュータが実行する、
     ユーザが見ている、前記ユーザの操作により表示領域及び表示向きが変化する仮想空間画像を特定するための表示状態データを取得するステップと、
     前記ユーザが前記仮想空間画像の少なくとも一部を所定時間以上にわたって注視した時点である注視時点を特定するステップと、
     前記ユーザが使用する情報端末に表示された前記仮想空間画像に所定の特徴が含まれていた時点である特徴発生時点を特定するステップと、
     前記注視時点と前記特徴発生時点とを関連付けて出力するステップと、
     を有する情報処理方法。
  14.  コンピュータに、
     ユーザが見ている、前記ユーザの操作により表示領域及び表示向きが変化する仮想空間画像を特定するための表示状態データを取得するステップと、
     前記ユーザが前記仮想空間画像の少なくとも一部を所定時間以上にわたって注視した時点である注視時点を特定するステップと、
     前記ユーザが使用する情報端末に表示された前記仮想空間画像に所定の特徴が含まれていた時点である特徴発生時点を特定するステップと、
     前記注視時点と前記特徴発生時点とを関連付けて出力するステップと、
     を実行させるためのプログラム。

     
PCT/JP2023/019075 2022-05-26 2023-05-23 情報処理システム、情報処理装置、情報処理方法及びプログラム WO2023228931A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
PCT/JP2022/021503 WO2023228342A1 (ja) 2022-05-26 2022-05-26 情報処理システム、情報処理装置、情報処理方法及びプログラム
JPPCT/JP2022/021503 2022-05-26

Publications (1)

Publication Number Publication Date
WO2023228931A1 true WO2023228931A1 (ja) 2023-11-30

Family

ID=88918744

Family Applications (2)

Application Number Title Priority Date Filing Date
PCT/JP2022/021503 WO2023228342A1 (ja) 2022-05-26 2022-05-26 情報処理システム、情報処理装置、情報処理方法及びプログラム
PCT/JP2023/019075 WO2023228931A1 (ja) 2022-05-26 2023-05-23 情報処理システム、情報処理装置、情報処理方法及びプログラム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/021503 WO2023228342A1 (ja) 2022-05-26 2022-05-26 情報処理システム、情報処理装置、情報処理方法及びプログラム

Country Status (1)

Country Link
WO (2) WO2023228342A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015046089A (ja) * 2013-08-29 2015-03-12 ソニー株式会社 情報処理装置および情報処理方法
WO2016189633A1 (ja) * 2015-05-25 2016-12-01 株式会社ジオクリエイツ 認知度算出装置、認知度算出方法及び認知度算出プログラム
JP2018200566A (ja) * 2017-05-26 2018-12-20 株式会社コロプラ ヘッドマウントデバイスと通信可能なコンピュータによって実行されるプログラム、当該プログラムを実行するための情報処理装置、およびヘッドマウントデバイスと通信可能なコンピュータによって実行される方法
WO2020032239A1 (ja) * 2018-08-09 2020-02-13 株式会社ジオクリエイツ 情報出力装置、設計支援システム、情報出力方法及び情報出力プログラム
JP2021128714A (ja) * 2020-02-17 2021-09-02 株式会社ジオクリエイツ 調整装置及び調整方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3824848B2 (ja) * 2000-07-24 2006-09-20 シャープ株式会社 通信装置および通信方法
JP4608858B2 (ja) * 2003-08-12 2011-01-12 ソニー株式会社 感情の可視化装置および感情の可視化方法、感情の可視化出力物
JP6226288B2 (ja) * 2013-04-09 2017-11-08 パナソニックIpマネジメント株式会社 印象評価装置及び印象評価方法
JP6952257B2 (ja) * 2016-07-15 2021-10-20 パナソニックIpマネジメント株式会社 コンテンツ提示のための情報処理装置、情報処理装置の制御方法、及び制御プログラム
WO2018034113A1 (ja) * 2016-08-16 2018-02-22 株式会社デイジー コンテンツ提供システム、コンテンツ提供方法、及びコンテンツ提供システム用のプログラム
JP6150935B1 (ja) * 2016-12-14 2017-06-21 株式会社アイディアヒューマンサポートサービス 情報処理システム、情報処理方法、および情報処理プログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015046089A (ja) * 2013-08-29 2015-03-12 ソニー株式会社 情報処理装置および情報処理方法
WO2016189633A1 (ja) * 2015-05-25 2016-12-01 株式会社ジオクリエイツ 認知度算出装置、認知度算出方法及び認知度算出プログラム
JP2018200566A (ja) * 2017-05-26 2018-12-20 株式会社コロプラ ヘッドマウントデバイスと通信可能なコンピュータによって実行されるプログラム、当該プログラムを実行するための情報処理装置、およびヘッドマウントデバイスと通信可能なコンピュータによって実行される方法
WO2020032239A1 (ja) * 2018-08-09 2020-02-13 株式会社ジオクリエイツ 情報出力装置、設計支援システム、情報出力方法及び情報出力プログラム
JP2021128714A (ja) * 2020-02-17 2021-09-02 株式会社ジオクリエイツ 調整装置及び調整方法

Also Published As

Publication number Publication date
WO2023228342A1 (ja) 2023-11-30

Similar Documents

Publication Publication Date Title
US10019779B2 (en) Browsing interface for item counterparts having different scales and lengths
KR101680995B1 (ko) 생물 물리학적 신호의 수집된 시간적 및 공간적 패턴에 기초한 뇌-컴퓨터 인터페이스(bci) 시스템
Trepkowski et al. The effect of narrow field of view and information density on visual search performance in augmented reality
JP2016146173A (ja) 刺激提示システム、刺激提示方法、コンピュータ、および制御方法
JP2004110548A (ja) ユーザビリティ評価支援装置および方法
JP2022048219A (ja) 感情推定装置、感情推定システム及び感情推定用情報格納部の構築装置
US10026176B2 (en) Browsing interface for item counterparts having different scales and lengths
US10832483B2 (en) Apparatus and method of monitoring VR sickness prediction model for virtual reality content
WO2016123777A1 (zh) 一种基于生物特征的对象呈现、推荐方法和装置
CN110753514A (zh) 基于隐式采集的计算机交互的睡眠监测
JP7422362B2 (ja) コンテンツ提供システム及びコンテンツ提供方法
KR20220017120A (ko) Vr을 이용한 헬스케어 서비스와 이에 대한 맞춤형 광고 콘텐츠 및 광고를 제공하는 장치 및 방법
US20130052621A1 (en) Mental state analysis of voters
WO2023228931A1 (ja) 情報処理システム、情報処理装置、情報処理方法及びプログラム
KR101916864B1 (ko) 드레스 코드 평가 방법, 장치 및 시스템
EP4307206A1 (en) Content recommendation system, content recommendation method, content library, method for generating content library, and target input user interface
Navalpakkam et al. Eye tracking: a brief introduction
Chiu et al. Redesigning the user interface of a healthcare management system for the elderly with a systematic usability testing method
JP7253325B2 (ja) 情報処理装置、プログラム、及び、情報処理方法
JP2018190176A (ja) 画像表示装置、肌状態サポートシステム、画像表示プログラム及び画像表示方法
KR20220017590A (ko) Vr 신체검사를 기반으로 한 의료정보의 제공과 의료정보 결과에 따라 맞춤형 광고 콘텐츠를 서비스 하는 방법 및 장치
JP2004102868A (ja) ユーザビリティ評価支援装置
Xu et al. A Qualitative Exploration of a User-Centered Model for Smartwatch Comfort Using Grounded Theory
EP3893091A1 (en) Controlling a data inspection by a user
Mussgnug Quantitative Usability Testing in User-Centered Product Development with Mobile Eye Tracking

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23811803

Country of ref document: EP

Kind code of ref document: A1