WO2020049510A1 - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
WO2020049510A1
WO2020049510A1 PCT/IB2019/057518 IB2019057518W WO2020049510A1 WO 2020049510 A1 WO2020049510 A1 WO 2020049510A1 IB 2019057518 W IB2019057518 W IB 2019057518W WO 2020049510 A1 WO2020049510 A1 WO 2020049510A1
Authority
WO
WIPO (PCT)
Prior art keywords
event
similarity
events
category
data
Prior art date
Application number
PCT/IB2019/057518
Other languages
English (en)
French (fr)
Inventor
望月理香
Original Assignee
日本電信電話株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電信電話株式会社 filed Critical 日本電信電話株式会社
Priority to US17/270,168 priority Critical patent/US20210170228A1/en
Publication of WO2020049510A1 publication Critical patent/WO2020049510A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B24/00Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
    • A63B24/0003Analysing the course of a movement or motion sequences during an exercise or trainings sequence, e.g. swing for golf or tennis
    • A63B24/0006Computerised comparison for qualitative assessment of motion sequences or the course of a movement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/907Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B24/00Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
    • A63B24/0062Monitoring athletic performances, e.g. for determining the work of a user on an exercise apparatus, the completed jogging or cycling distance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/901Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/907Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/908Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B24/00Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
    • A63B24/0003Analysing the course of a movement or motion sequences during an exercise or trainings sequence, e.g. swing for golf or tennis
    • A63B24/0006Computerised comparison for qualitative assessment of motion sequences or the course of a movement
    • A63B2024/0012Comparing movements or motion sequences with a registered reference
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B24/00Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
    • A63B24/0062Monitoring athletic performances, e.g. for determining the work of a user on an exercise apparatus, the completed jogging or cycling distance
    • A63B2024/0071Distinction between different activities, movements, or kind of sports performed

Definitions

  • the present invention relates to an information processing device, an information processing method, and a program.
  • Non-Patent Document 1 a method is adopted in which the action of the actor and the intended action are superimposed to approach the intended action and encourage the user to improve (for example, Non-Patent Document 1).
  • the inventor of the present application considered that if an event such as a certain operation can be compared with another event, it is possible to intuitively convey the certain event such as an operation.
  • the prior art does not consider an effective mechanism for expressing a certain event as another event.
  • the present invention has been made in view of the above points, and has as its object to provide a mechanism for enabling a certain event to be compared with another event.
  • the information processing apparatus stores data including quantitative information regarding the first event and subjective information regarding the first event.
  • a first storage unit that stores data including the first event in association with each of the first events based on each data of the first events related to each combination of the first events.
  • a calculation unit that calculates a value of an index indicating the similarity between them.
  • a mechanism can be provided to allow one event to be compared to another.
  • FIG. 1 is a diagram illustrating a configuration example of a system according to an embodiment of the present invention.
  • FIG. 2 is a diagram illustrating a hardware configuration example of an understanding support device 10 according to the embodiment of the present invention. It is a figure showing an example of functional composition of understanding support device 10 in an embodiment of the invention. It is a flowchart for demonstrating an example of the processing procedure of a prior process. It is a figure showing the example of composition of category table T1. It is a figure showing the example of composition of quantitative data table T2. It is a figure showing the example of composition of subjective data table T3. It is a figure showing the example of composition of similarity reinforcement element table T4. It is a figure showing an example of an input screen of quantitative data, subjective data, and similarity enhancement factor data.
  • FIG. 4 is a diagram illustrating a configuration example of a similarity DB 122. It is a figure for explaining the item with strong correlation with subjective data among the items of quantitative data.
  • 6 is a flowchart illustrating an example of a processing procedure of a presentation process of an expression. It is a figure showing the example of composition of known information table T5. It is a figure showing the example of composition of quantitative data table T2 corresponding to the event whose category is "route”.
  • FIG. 14 is a diagram showing a configuration example of a subjective data table T3 corresponding to an event whose category is “route”.
  • FIG. 14 is a diagram illustrating a configuration example of a similarity enhancement element table T4 corresponding to an event whose category is “path”.
  • FIG. 14 is a diagram illustrating a configuration example of a similarity enhancement element table T4 corresponding to an event whose category is “spicy dish”.
  • FIG. 1 is a diagram illustrating a configuration example of a system according to an embodiment of the present invention.
  • the understanding support apparatus 10 is connected to one or more user terminals 20 via a network N1 such as the Internet.
  • the user terminal 20 may be connected to the network N1 via a wireless line or the like.
  • the understanding support device 10 may notify a user of an event that the user wants to know or wants to learn (hereinafter, referred to as a “target event”) and is known to the user (hereinafter, “known event”).
  • target event an event that the user wants to know or wants to learn
  • known event an event that the user wants to know or wants to learn
  • This is one or more computers that support the user's sensible understanding of the target event by presenting an expression compared to the event.
  • the understanding support device 10 outputs, for example, an expression such as “shake a badminton racket”.
  • the user terminal 20 is used for inputting (identifying) information indicating a target event, such as a smartphone, tablet, PC (Personal Computer), or smart speaker owned by the user, and outputting a known event similar to the target event.
  • a target event such as a smartphone, tablet, PC (Personal Computer), or smart speaker owned by the user
  • each event is specified by a category and a name.
  • the user inputs the category and name of the target event to the user terminal 20 as information indicating the target event.
  • the category is a concept at the highest level in the event classification structure in the present embodiment. That is, events are roughly classified by category.
  • the name is a concept that subdivides the category and corresponds to the event one-to-one. That is, the name is defined by the granularity corresponding to the event.
  • each event may be defined by three hierarchies of a large classification, a middle classification, and a small classification.
  • FIG. 2 is a diagram illustrating a hardware configuration example of the understanding support device 10 according to the embodiment of the present invention. 2 includes a drive device 100, an auxiliary storage device 102, a memory device 103, a CPU 104, an interface device 105, and the like, which are mutually connected by a bus B.
  • the program for realizing the processing in the understanding support device 10 is provided by a recording medium 101 such as a CD-ROM.
  • a recording medium 101 such as a CD-ROM.
  • the program is installed from the recording medium 101 to the auxiliary storage device 102 via the drive device 100.
  • the program need not always be installed from the recording medium 101, and may be downloaded from another computer via a network.
  • the auxiliary storage device 102 stores installed programs and also stores necessary files and data.
  • the memory device 103 reads out the program from the auxiliary storage device 102 and stores it when an instruction to start the program is issued.
  • the CPU 104 executes functions related to the understanding support device 10 according to a program stored in the memory device 103.
  • the interface device 105 is used as an interface for connecting to a network.
  • FIG. 3 is a diagram illustrating an example of a functional configuration of the understanding support device 10 according to the embodiment of the present invention.
  • the understanding support device 10 includes an event record generation unit 11, a quantitative data input unit 12, a subjective data input unit 13, a similarity enhancement element input unit 14, a similarity evaluation unit 15, an event input unit 16, and a similar event extraction. It has a unit 17 and an output unit 18. These units are realized by a process that causes the CPU 104 to execute one or more programs installed in the understanding support device 10.
  • the understanding support device 10 also uses a database (storage unit) such as an association DB 121, a similarity DB 122, and a known information DB 123.
  • These databases can be realized using, for example, a storage device that can be connected to the auxiliary storage device 102 or the understanding support device 10 via a network.
  • the event record generation unit 11 registers, for example, the category and name of each event that can be selected by the user in the association DB 121 according to an operation by the service provider.
  • the quantitative data input unit 12 inputs quantitative data on the event for each event (for each category and name) whose category and name are registered in the association DB 121, and associates the quantitative data with the category and name of the event. Registered in the association DB 121.
  • the quantitative data is, for example, an objective observation or measurement of an event such as a wrist angle or an arm angle of a certain motion or a pungency value obtained by a taste sensor for a certain dish. Refers to data that contains quantitative information. It is preferable that the input quantitative data is an ideal value of the event as much as possible (a professional operation for an operation, an average value of all for taste, etc.).
  • the average value of all people and the presence / absence (for example, the average value of the feeling of fatigue of amateurs and the hot pot (hot food)) are higher than the values related to professionals. General location) is preferred.
  • the subjective data input unit 13 inputs subjective data related to the event for each event (for each category and name) whose category and name are registered in the association DB 121, and associates the subjective data with the category and name of the event. Registered in the association DB 121.
  • the subjective data is, for example, data including subjective information such as a feeling of a person who actually experienced the event, such as a feeling of fatigue during a certain operation or a sticky feeling felt when eating something.
  • the similarity enhancement element input unit 14 receives, for each event (for each category and name) whose category and name are registered in the association DB 121, the similarity enhancement element data related to the event, and inputs the similarity enhancement element data.
  • the event is registered in the association DB 121 in association with the category and name of the event.
  • the similarity enhancing element data is, for example, a characteristic of a tool used for the operation (for example, the shape of a badminton racket, etc.) or a duration of the operation (ending in an instant if the event is related to the operation). Or an operation that repeats over several minutes like a fan) is an example.
  • the information such as the social positioning of the food, such as whether it is a delicacy or not, should match.
  • the information included in the similarity enhancement factor data is information other than the information included in the quantitative data or the information included in the subjective data, and it is determined that the information matches in order to determine the similarity between events.
  • the information may be any information that affects the information, and the information included in the similarity enhancement element data is not limited to the predetermined information.
  • the association DB 121 stores, for each event (for each category and name), quantitative data, subjective data, and similarity enhancement element data relating to the event in association with each other.
  • the similarity evaluation unit 15 calculates, for each combination of events (combination of two events) whose category and name are registered in the association DB 121, quantitative data, subjective data, and similarity enhancement element data of each event related to the combination.
  • An index value (hereinafter, referred to as “similarity”) indicating the similarity between the events is calculated, and the calculated similarity is registered in the similarity DB 122 in association with the combination. Therefore, the similarity DB 122 stores the similarity calculated for each combination of events by the similarity evaluation unit 15 for each combination.
  • the similarity enhancement element data is not essential. That is, a mode in which the similarity enhancement element data is not used may be adopted.
  • the event input unit 16 receives (inputs), from the user terminal 20 of a certain user, the category and name of an event (target event) that the user wants to present with a sense of degree, and receives the received category and name.
  • the name is output to the similar event extraction unit 17.
  • the similar event extracting unit 17 receives the category and name of the target event from the event input unit 16 as an input, and performs the combination with the target event based on the similarity stored in the similarity DB 122 for the combination with the input target event. Some or all of the events related to are extracted as similar events to the target event.
  • the similarity extraction unit refers to the information stored in the known information DB 123 and narrows down events to be extracted as similar events to events that are known to the user. That is, the known information DB 123 stores, for each combination of category and name (that is, for each event), flag information indicating whether or not the event is known to each user.
  • the known definition may include not only what is known as knowledge but also what is actually experienced. Further, the known definition may be arbitrarily determined by the service provider.
  • the similar event extracting unit 17 outputs the extracted similar event.
  • the output unit 18 receives the similar event extracted by the similar event extracting unit 17 as an input, and outputs the similar event as an output of the device.
  • FIG. 4 is a flowchart for explaining an example of the procedure of the pre-processing.
  • step S101 the event record generation unit 11 registers, for example, the category and name of each of a plurality of events that can be selected by the user in the category table T1 of the association DB 121 according to the operation by the service provider.
  • FIG. 5 is a diagram showing a configuration example of the category table T1.
  • a category table T1 is a table in which a column is assigned to each category and a list of names belonging to each category is stored in a row direction. Therefore, in step S101, each category is registered in the column direction of the category table T1, and a list of names for each category is registered in the row direction of each category.
  • the list of categories and names belonging to the categories may be cited from, for example, a dictionary or a book.
  • a service provider or the like may create the category table T1 in advance by quoting from a dictionary or a book, or may use electronic data of the dictionary or the book and automatically calculate the difference when updating the data. You may make it quote and register as an item of a name.
  • the quantitative data input unit 12 inputs quantitative data on the event for each event (for each category and name) registered in the category table T1, and associates the quantitative data with the category and name of the event. It is registered in the quantitative data table T2 of the association DB 121 (S102).
  • the input of the quantitative data may be performed manually by a service provider or the like, or may be performed based on automatic acquisition by a sensor or the like.
  • FIG. 6 is a diagram showing a configuration example of the quantitative data table T2.
  • the quantitative data table T2 in FIG. 6 is a quantitative data table T2 corresponding to the category “operation”. That is, the quantitative data table T2 is generated for each category. This is because the configuration of quantitative data (items (type) of quantitative data, number of items, and the like) may be different for each category. This is the same for the subjective data and the similarity enhancement element data.
  • the quantitative data table T2 includes, for each name (that is, for each event) registered in the category table T1 (FIG. 5) for the category “operation”, each quantitative data relating to the event as one item. It is configured so that it can be registered.
  • the category table T1 for the category “motion”
  • “wrist angle”, “arm angle”, “grip strength”, and the like are items that constitute quantitative data.
  • one or more items are set for one category.
  • FIG. 6 shows an example in which the “wrist angle” and “arm angle” are, for example, time-series waveform data measured by a sensor as quantitative data.
  • the waveforms of the items of “wrist angle” and “arm angle” are graphs in which the horizontal axis indicates time and the vertical axis indicates wrist angle or arm angle.
  • Each item of quantitative data of each category may be set by a service provider or the like before input of quantitative data is performed, for example.
  • the subjective data input unit 13 receives subjective data related to the event and associates the subjective data with the category and name of the event. It is registered in the subjective data table T3 of the association DB 121 (S103).
  • the input of the subjective data may be performed manually by a service provider or the like, or may be performed based on automatic acquisition by a sensor or the like.
  • FIG. 7 is a diagram showing a configuration example of the subjective data table T3.
  • the subjective data table T3 in FIG. 7 is a subjective data table T3 corresponding to the category “operation”. That is, the subjective data table T3 is also generated for each category. This is because the configuration of the subjective data may be different for each category.
  • the subjective data table T3 includes, for each name (that is, for each event) registered in the category table T1 (FIG. 5) for the category “operation”, each subjective data relating to the event as one item. It is configured so that it can be registered.
  • the category “motion” includes items such as “fatigue”, “concentration”, and “enjoyment” which constitute the subjective data.
  • one or more items are set for one category for the subjective data.
  • FIG. 7 shows an example in which the value of each item of the subjective data is evaluated by a numerical value in the range of 0.0 to 1.0.
  • the items of the subjective data of each category may be set by, for example, a service provider before the input of the subjective data is performed.
  • the similarity-enhancing element input unit 14 receives similarity-enhancing element data related to the event and inputs the similarity-enhancing element data to the event. Is registered in the similarity enhancement element table T4 of the association DB 121 in association with the category and name (S104).
  • the input of the similarity enhancement element data may be performed manually by a service provider or the like, or may be performed based on automatic acquisition by a sensor or the like. However, there may be an event in which the similarity enhancement element data is not input. That is, 0 or more may be input as the similarity enhancement element data for each event.
  • FIG. 8 is a diagram showing a configuration example of the similarity enhancement element table T4.
  • the similarity enhancement element table T4 in FIG. 8 is a similarity enhancement element table T4 corresponding to the category “operation”. That is, the similarity enhancement element table T4 is also generated for each category. This is because the configuration of the similarity enhancement element data may differ for each category.
  • the similarity enhancing element table T4 includes, for each name (that is, for each event) registered in the category table T1 (FIG. 5) for the category “operation”, each similarity enhancing element data relating to the event. Is configured to be able to be registered as one item.
  • “characteristics of a tool” and “duration” are items constituting similarity enhancement element data.
  • the “characteristic of the tool” is the characteristic of the tool used for the motion, and in the example of FIG. 8, is configured by three items of “hardness”, “length”, and “material”.
  • “Hardness” is the hardness of a tool.
  • Length is the length of the tool.
  • “Material” is the material of the part that touches the user's hand. “Duration” is the duration of the operation. What period is set as the duration may be set as appropriate for each name (that is, for each event). For example, “waving a badminton racket” may be the time of one swing or the swing of a predetermined number of repetitions.
  • the information may be input, for example, via a screen as shown in FIG.
  • FIG. 9 is a diagram showing an example of an input screen for quantitative data, subjective data, and similarity enhancing element data.
  • the input screen 510 includes a category selection menu 511, a name selection menu 512, a quantitative data input area 513, a subjective data input area 514, a similarity enhancement element data input area 515, and the like.
  • the category selection menu 511 is a pull-down menu in which categories registered in the column direction of the category table T1 (FIG. 5) are selected.
  • FIG. 9 shows a state in which “operation” is selected.
  • the name selection menu 512 is a pull-down menu in which the names registered in the row direction of the category table T1 (FIG. 5) for the category selected in the category selection menu 511 are selected.
  • FIG. 9 shows a state in which “bake a badminton racket” is selected from the names belonging to the “action” category.
  • the quantitative data input area 513 is used to receive the input of the value of each item of the quantitative data with respect to the event relating to “action” selected in the category selection menu 511 and “shake badminton racket” selected in the name selection menu 512. Area.
  • FIG. 9 shows a state in which the items of the quantitative data corresponding to the category “operation” are displayed. Which item of quantitative data corresponds to the category “operation” can be specified based on the quantitative data table T2.
  • the subjective data input area 514 is used to receive the input of the value of each item of the subjective data for the event relating to “action” selected in the category selection menu 511 and “shake badminton racket” selected in the name selection menu 512. Area.
  • FIG. 9 shows a state in which the items of the subjective data corresponding to the category “operation” are displayed. Which subjective data item corresponds to the category “operation” can be specified based on the subjective data table T3.
  • the similarity enhancement element data input area 515 includes items of similarity enhancement element data for an event related to “action” selected in the category selection menu 511 and “shake badminton racket” selected in the name selection menu 512. This is an area for receiving a value input.
  • FIG. 9 shows a state in which the items of the similarity enhancement element data corresponding to the category “operation” are displayed. .
  • the item of the similarity enhancement element data corresponding to the category “operation” can be specified based on the similarity enhancement element table T4.
  • the similarity evaluation unit 15 determines, for each combination with all other events (that is, for each combination of two events), The similarity between events is calculated, and the calculated similarity is registered in the similarity DB 122 in association with the combination (S105).
  • FIG. 10 is a diagram showing a configuration example of the similarity DB 122.
  • events combinations of categories and names
  • the similarity calculated for the combination is calculated.
  • the degree is stored.
  • the similarity between the same events for example, “MAX” indicating the maximum value of the similarity is stored.
  • the similarity may be calculated by a method capable of calculating the overall similarity of a plurality of items, such as cosine similarity.
  • the similarity sim may be calculated based on the following equation.
  • x an array of item values relating to one event (hereinafter, referred to as “event X”)
  • y an array of item values relating to the other event (hereinafter, referred to as “event Y”)
  • x i i-th in x
  • Item value y i Value of the i-th item in y
  • N number i of common items between items related to event X and items related to event Y: i to N
  • the array of item values means an array of values of each item of quantitative data, values of each item of subjective data, and values of each item of similarity enhancement element data.
  • the order of the items in the parameter array at x is the same as the order of the items in the parameter array at y.
  • x i and y i are values of the same item (for example, “wrist angle” in subjective data).
  • the similarity evaluation unit 15 determines the representative value such as a peak value.
  • the values may be substituted for x i and y i .
  • the calculation result of each parameter may be substituted into each variable by subdividing (dividing) into n variables.
  • similarity evaluating section 15, x i, each of the waveforms y i Fourier transform, may be substituted for each spectral value x i, the y i.
  • similarity evaluating section 15, by using the numerical software MATLAB, etc. may be determined by the function xcorr () like a cross-correlation between the waveform of the waveform and y i of x i.
  • similarity evaluating section 15, for x i and y i without substituting the equation shown in Equation 1, with respect to the similarity calculated based on the number 1 with respect to other items, x i
  • the cross-correlation calculated for y i may be used to calculate the final similarity between event X and event Y.
  • the respective configurations of the quantitative data, the subjective data, and the similarity enhancement element data are common within the same category, and therefore, in the present embodiment, the event X and the event Y are the same. If it is a category event, x and y are composed of the same array of items. However, when either one of x i and y i is null, the i-th item may be excluded from the calculation.
  • the similarity evaluation unit 15 extracts a common item between the item relating to the event X and the item relating to the event Y, and arranges the extracted common items in the same order.
  • the array of values may be x
  • the array of values of each common item of the event Y may be y.
  • the similarity evaluation unit 15 may set the similarity between the event X and the event Y to a minimum value (for example, 0).
  • the similarity evaluation unit 15 the value of each item may be substituted for x i or y i after relativizing (or normalized) between 0 and 1 inclusive.
  • all of the common items between the event X and the event Y may be used for calculating the similarity, or only some of the common items may be used for calculating the similarity.
  • the items used for calculating the similarity may be selected in advance by the service provider. In this case, the service provider selects one or more items from the quantitative data and the subjective data, and selects zero or more items from the similarity enhancement factor data. For example, an item that the service provider wants to prioritize may be selected as a target for use in calculating the similarity. Further, when the event X and the event Y are in the same category, only the items of which the value is input in the event having the smallest number of the input items in the event in the category are used for calculating the similarity.
  • the service provider supplies flag information indicating that the item is a calculation element of the similarity to the part of the common items. May be provided. Specifically, of the items in the quantitative data table T2 (FIG. 6), the subjective data table T3 (FIG. 7), and the similarity enhancement element table T4 (FIG. 8), the item selected as the similarity calculation element May be given flag information.
  • the flag information may be given to only one item, or may be given to a plurality of items as information that indicates the order of importance.
  • the flag information may not be given to all the items, or the flag information may be given to one or more items as information that indicates the order of importance.
  • the similarity evaluation unit 15 calculates the similarity by weighting each item such that the item to which the flag information is added is more important than the item to which the flag information is not added. Good. For example, the similarity evaluation unit 15 may calculate the similarity using only the item to which the flag information is added. Further, when a plurality of items are weighted as information that indicates the order of importance, the similarity evaluation unit 15 may calculate the similarity by assigning weights so that the weight of the item to be weighted is increased.
  • the similarity evaluation unit 15 may use only one or more items having a strong correlation with the subjective data among the common items of the event X and the event Y for calculating the similarity. By doing so, it is possible to more strongly consider the impression received by a person regarding the similarity between events. That is, each person may have a different impression even if the degree of the operation itself is similar.
  • FIG. 11 is a diagram for explaining an item having a strong correlation with the subjective data among the items of the quantitative data.
  • FIG. 11 shows an example in which subjective data of a plurality of persons such as Mr. A, Mr. B, Mr. C are collected, and a correlation is calculated for each item of quantitative data between the subjective data of the plural persons. ing.
  • Correlation with fatigue 0.5
  • Correlation with concentration 0.5
  • Correlation with fun 0.4
  • the threshold value for the correlation is 0.7 and an item that is equal to or greater than the threshold value is selected, in the example of FIG. 11, “the angle of the wrist” and the “angle of the arm” are the calculation elements of the similarity, "Grip strength" is excluded from the calculation factor.
  • the item having a relatively high correlation with the subjective data may be selected by the similarity evaluation unit 15 when calculating the similarity.
  • the number of selected items may be set in advance by the service provider.
  • one or more items having a relatively high correlation with the subjective data are selected in advance by the service provider, and flag information for identifying the selected item is added to the subjective data table T3. Good.
  • the calculation of the similarity (weighting or the like) when the flag information is added may be as described above.
  • the similarity evaluation unit 15 may calculate the similarity by weighting each common item of the quantitative data, the subjective data, and the similarity enhancing element data based on the specificity of each common item.
  • the weighting method may be as described above.
  • An item with high specificity refers to an item that includes a rare value (or characteristic value).
  • the similarity evaluation unit 15 calculates the specificity of each item according to the following procedures (1) to (3). (1) The similarity evaluation unit 15 determines each value of each item for each of the quantitative data table T2 (FIG. 6), the subjective data table T3 (FIG. 7), and the similarity enhancement element table T4 (FIG. 8) of the same category.
  • an index value (hereinafter, referred to as “specificity”) that quantifies the rarity (specificity) is calculated.
  • the similarity evaluation unit 15 determines a unique value for each item for each of “hardness”, “length”, “material”, and “duration”. Calculate the degree. For example, for “material”, the similarity evaluation unit 15 calculates the specificity for each of “skin”, “plastic”, “rope”, and the like.
  • the specificity may be a numerical value that indicates how unusual (characteristic) the value is in the item.
  • the specificity may be calculated based on the absolute value of the difference from the average value of the value of the item, the low appearance frequency of the item (for example, the reciprocal of the appearance frequency), or the like. Therefore, for example, in “material”, if the appearance frequency of “skin” is low, the specificity of “skin” increases, and if the appearance frequency of “plastic” is high, the specificity of “plastic” decreases.
  • the similarity evaluation unit 15 specifies the maximum value of the specificity calculated for each item for each item for each item.
  • the similarity evaluation unit 15 determines the weight of each item by comparing the maximum value of each item. For example, the similarity evaluation unit 15 selects some items as calculation elements of the similarity.
  • an item whose maximum specificity is equal to or more than a threshold value (for example, 0.8 when the maximum specificity that can be taken in each item is 1 and the minimum value is normalized to 0, etc.) is: It may be selected as the calculation element. Alternatively, the top n items having the highest value may be selected as the calculation elements. Note that, when the specificity is calculated based on the appearance frequency, the specificity that can be taken is 0 when all occurrences are present, and a ratio according to the number of appearances. For example, when the specificity is calculated based on the number of appearances of “rope” in the item “tool material” at T4 in FIG.
  • a threshold value for example, 0.8 when the maximum specificity that can be taken in each item is 1 and the minimum value is normalized to 0, etc.
  • the specificity 1 ⁇ (the number of appearances / the number of appearances when all occurrences occur) ) Is calculated by an equation such that the smaller the number of appearances, the higher the specificity.
  • the specificity is calculated from the difference from the average value, the case where the difference is 0 is set to 0, and the limit value farthest from the average is set to 1.
  • the maximum value or the average value of the values recorded as “arm angle” is used.
  • FIG. 12 is a flowchart for explaining an example of the processing procedure of the presentation processing of expressions.
  • the event input unit 16 presents, for example, a degree sense such as “single stroke of drum” from the user terminal 20 of a certain user (hereinafter, referred to as “target user”).
  • the input of the category and the name in the user terminal 20 may be performed by, for example, selecting a category from a category pull-down menu on a predetermined screen and selecting a name from a name pull-down menu.
  • the user terminal 20 transmits a character string indicating the selected category and name to the understanding support device 10.
  • the category and name of the target event may be input as a free-form character string on a predetermined screen displayed on the user terminal 20, for example. In this case, the user terminal 20 transmits the input free-form character string to the understanding support device 10.
  • the user terminal 20 may list and output the categories and names as options.
  • the user may input the category and name of the target event by speaking any one of the listed categories and names.
  • the user may utter the category and name of the target event to the user terminal 20 in a free format without listing the category and name voices as options.
  • the user terminal 20 transmits the input voice to the understanding support device 10.
  • the event input unit 16 of the understanding support device 10 receives the character string or the voice input as described above in the user terminal 20 from the user terminal 20. When a voice is received, the event input unit 16 converts the received voice into a character string by executing voice recognition on the voice.
  • the received character string or the character string converted from the voice is referred to as “input character string”.
  • the event input unit 16 analyzes the input character string and specifies a category (hereinafter, referred to as “target category”) and a name (hereinafter, referred to as “target name”) of the target event (S202).
  • target category a category
  • target name a name of the target event
  • the event input unit 16 specifies the category and the name as a target category and a target name.
  • the event input unit 16 specifies a category and a name matching the input character string or a category and a name most similar to the input character string as a target category and a target name.
  • a name identification setting file is prepared in advance, and if “eating”, “softness”, “hardness”, etc. are input character strings, they are collected into a category “texture”. May be extracted. The same applies to names.
  • the event input unit 16 inputs the identification information of the target user (hereinafter, referred to as “target user ID”), the target category, and the target name to the similar event extraction unit 17.
  • the target user ID may be received from the user terminal 20 before step S201, or may be received from the user terminal 20 in step S201.
  • the similar event extraction unit 17 stores an event known to the target user (hereinafter referred to as a “known event”) in the known information table T5 registered in the known information DB 123 for each user ID. It is extracted from the known information table T5 corresponding to the target user ID (S203).
  • a known event an event known to the target user
  • FIG. 13 is a diagram showing a configuration example of the known information table T5.
  • the known information table T5 of FIG. 13 shows the known information table T5 of the target user.
  • the known information table T5 stores, for each combination of a category and a name (that is, for each event), a “known flag” that is flag information indicating whether or not the event is known to the target user. Have been. Regarding the “known flag”, “1” indicates that it is known, and “0” indicates that it is unknown.
  • the registration of the “known flag” in the known information table T5 for each event may be performed in advance from the user terminal 20 or the like by the user manually. Alternatively, the information may be automatically registered using a user log, such as estimating knowledge from a search log of the user. Alternatively, the known information table T5 of each user may not be registered in the known information DB 123 in advance.
  • the known information table T5 may be stored in the user terminal 20. In this case, the user terminal 20 uploads the known information table T5 stored in its own terminal to the understanding support device 10 at an arbitrary timing of each user (for example, the timing of step S201 in FIG. 12), The known information table T5 may be registered in the known information DB 123.
  • step S203 the similar event extraction unit 17 determines that the value of the “known flag” is “1”, that is, the combination of the known category and name (that is, the event), Are extracted as categories and names of known events.
  • the similar event extraction unit 17 acquires the similarity between each of the extracted known events and the target event from the similarity DB 122 (FIG. 10) (S204). Specifically, the similar event extraction unit 17 acquires the similarity stored in the similarity DB 122 for the combination of the category and name of the known event and the target category and target name.
  • the similar event extraction unit 17 extracts some or all known events in descending order of the acquired similarity (S205).
  • the similar event extraction unit 17 may extract n (up to n) known events in descending order of similarity.
  • the similarity is an index whose value increases as the similarity increases. If an index whose value decreases as the degree of similarity increases is set as the degree of similarity, n pieces of known information may be extracted in ascending order of the acquired degree of similarity.
  • n is an integer of 1 or more, and may be set in advance, or may be specified by the target user when the target event is input. Alternatively, n may be fixed to 1. Alternatively, all known events whose similarity is equal to or larger than a threshold may be extracted.
  • the similar event extracting unit 17 inputs the extracted known event (hereinafter, referred to as “similar event”) to the output unit 18.
  • the output unit 18 outputs the similar event input from the similar event extraction unit 17 (S206).
  • the output unit 18 transmits information indicating the similar event to the user terminal 20.
  • the method of expressing the information indicating the similar event may be arbitrary.
  • the output unit 18 may output the similarity to the target event together with the category name and name of each similar event.
  • the output unit 18 may output a diagram in which the target events are arranged at the center and the category names and names of the similar events are arranged radially around the target events according to the similarity.
  • the output unit 18 may output one image indicating a similar event.
  • the association DB 121 may store an image indicating an event associated with each name (that is, each event) registered in the category table T1 (FIG. 5).
  • an event whose category is “operation” is mainly described.
  • an event applicable in the second embodiment is not limited to an event relating to “operation”.
  • a route may be an event.
  • the degree of fatigue of the route can be presented as a route known to the user.
  • the tables shown in FIGS. 14 to 16 are registered in the association DB 121, and these tables may be used.
  • FIG. 14 is a diagram showing a configuration example of the quantitative data table T2 corresponding to an event whose category is “route”.
  • FIG. 15 is a diagram illustrating a configuration example of the subjective data table T3 corresponding to an event whose category is “route”.
  • FIG. 16 is a diagram illustrating a configuration example of the similarity enhancement element table T4 corresponding to an event whose category is “path”.
  • a spicy dish is taken as an event.
  • the degree of spiciness of a dish unknown to the user can be presented by comparing it with a dish that the user has eaten.
  • the tables shown in FIGS. 17 to 19 are registered in the association DB 121, and these tables may be used.
  • FIG. 17 is a diagram illustrating a configuration example of the quantitative data table T2 corresponding to an event whose category is “spicy dish”.
  • FIG. 18 is a diagram illustrating a configuration example of a subjective data table T3 corresponding to an event whose category is “spicy food”.
  • FIG. 19 is a diagram illustrating a configuration example of the similarity enhancement element table T4 corresponding to the event whose category is “spicy dish”.
  • the similarity between events is calculated based on quantitative data and subjective data on each event.
  • the similarity can be used as a criterion for selecting another event when a certain event is compared with another event. This is because similar events are considered to be suitable as an analogy to each other. Therefore, according to the present embodiment, a mechanism for enabling a certain event to be compared with another event can be provided.
  • the similarity is further calculated using the similarity enhancement element data.
  • the accuracy of the similarity can be increased.
  • a certain event (target event) is input by the user
  • a similar event is output based on the degree of similarity with the event. Therefore, it is possible to support the user's understanding of the target event by the parable expression by another event.
  • an event known to the user is output as a similar event to the target event.
  • the sense of the degree of the target event For example, when practicing musical instruments, etc., beginners are informed of the strength of the skilled person, for the first time the taste (spiciness level) / texture (hardness level) of the food they are looking at, or when an earthquake visits foreign visitors to Japan In situations where the urgency of news is to be conveyed, it is possible to easily convey the sense of degree (sensory tips such as body movements, criteria for judging whether or not food is not good, seriousness of events, etc.).
  • the understanding support device 10 is an example of an information processing device.
  • the association DB 121 is an example of a first storage unit.
  • the similarity evaluation unit 15 is an example of a calculation unit.
  • the similarity DB 122 is an example of a second storage unit.
  • the event input unit 16 is an example of an input unit.
  • the similar event extraction unit 17 is an example of an extraction unit.
  • the known information DB 123 is an example of a third storage unit.
  • An event in which a category name and a name are registered in the category table T1 is an example of a first event.
  • the target event is an example of a second event.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Library & Information Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Software Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

情報処理装置は、複数の第1の事象のそれぞれごとに、当該第1の事象に関する定量的な情報を含むデータと、当該第1の事象に関する主観的な情報を含むデータとを対応付けて記憶する第1の記憶部と、前記第1の事象の組み合わせごとに当該組み合わせに係る前記各第1の事象の前記各データに基づいて、当該各第1の事象の間の類似性を示す指標の値を算出する算出部と、を有する。

Description

情報処理装置、情報処理方法及びプログラム
 本発明は、情報処理装置、情報処理方法及びプログラムに関する。
 或る事象(例えば、或るスポーツの特定の技や楽器の演奏方法等)の習得に努力している人や、当該事象を知らない人等に対して、当該事象を感覚的に伝えることができれば、当該事象の習得や理解等を効果的に支援することができる。
 従来技術では、行為者の動作と目的とする動作を重畳させることで目的動作へ近づき上達を促す方法が取られている(例えば、非特許文献1)。
"中村 祐基,柳井 香史朗,中川 純希,温 文,山川 博司,山下 淳,淺間 一(2015)重畳映像を用いた動作学習支援システムにおける映像提示視点の自動決定.サービス学会第3回国内大会講演論文集,pp.236−240,金沢,April 2015.(査読付き口頭発表)
 一方、本願発明者は、或る動作等の事象を他の事象によってたとえることができれば、当該或る動作等の事象を感覚的に伝えることが可能であると考えた。しかし、従来技術では、或る事象を他の事象にたとえて表現するための効果的な仕組みは検討されていない。
 本発明は、上記の点に鑑みてなされたものであって、或る事象を他の事象でたとえることを可能にするための仕組みを提供することを目的とする。
 そこで上記課題を解決するため、情報処理装置は、複数の第1の事象のそれぞれごとに、当該第1の事象に関する定量的な情報を含むデータと、当該第1の事象に関する主観的な情報を含むデータとを対応付けて記憶する第1の記憶部と、前記第1の事象の組み合わせごとに当該組み合わせに係る前記各第1の事象の前記各データに基づいて、当該各第1の事象の間の類似性を示す指標の値を算出する算出部と、を有する。
 或る事象を他の事象でたとえることを可能にするための仕組みを提供することができる。
本発明の実施の形態におけるシステムの構成例を示す図である。 本発明の実施の形態における理解支援装置10のハードウェア構成例を示す図である。 本発明の実施の形態における理解支援装置10の機能構成例を示す図である。 事前処理の処理手順の一例を説明するためのフローチャートである。 カテゴリテーブルT1の構成例を示す図である。 定量データテーブルT2の構成例を示す図である。 主観データテーブルT3の構成例を示す図である。 類似性強化要素テーブルT4の構成例を示す図である。 定量データ、主観データ及び類似性強化要素データの入力画面の一例を示す図である。 類似度DB122の構成例を示す図である。 定量データの項目のうち主観データとの相関が強い項目を説明するための図である。 たとえ表現の提示処理の処理手順の一例を説明するためのフローチャートである。 既知情報テーブルT5の構成例を示す図である。 カテゴリが「経路」である事象に対応する定量データテーブルT2の構成例を示す図である。 カテゴリが「経路」である事象に対応する主観データテーブルT3の構成例を示す図である。 カテゴリが「経路」である事象に対応する類似性強化要素テーブルT4の構成例を示す図である。 カテゴリが「辛い料理」である事象に対応する定量データテーブルT2の構成例を示す図である。 カテゴリが「辛い料理」である事象に対応する主観データテーブルT3の構成例を示す図である。 カテゴリが「辛い料理」である事象に対応する類似性強化要素テーブルT4の構成例を示す図である。
[第1の実施形態]
 以下、図面に基づいて本発明の実施の形態を説明する。図1は、本発明の実施の形態におけるシステムの構成例を示す図である。図1において、理解支援装置10は、1以上の利用者端末20とインターネット等のネットワークN1を介して接続される。利用者端末20は、無線回線等を経由して、ネットワークN1に接続されてもよい。
 理解支援装置10は、例えば、利用者に対して、当該利用者が知りたい事象又は習得したい事象等(以下、「対象事象」とする)について、当該利用者にとって既知の事象(以下、「既知事象」という。)によってたとえた表現を提示することで、当該利用者による対象事象に関する感覚的な理解を支援する1以上のコンピュータである。例えば、ドラムのシングルストロークという技を練習している利用者が、ドラムのシングルストロークという事象を対象事象として入力した場合、当該利用者にとってバドミントンのラケットを振ることが既知事象であり、バドミントンのラケットを振ることとドラムのシングルストロークとが類似した動作であれば、理解支援装置10は、例えば、「バドミントンのラケットを振る」といったたとえ表現を出力する。
 利用者端末20は、利用者が所有するスマートフォン、タブレット、PC(Personal Computer)、又はスマートスピーカ等、対象事象を示す(特定する)情報の入力、及び対象事象に類似する既知事象の出力に利用される端末である。本実施の形態において、各事象は、カテゴリ及び名称によって特定されることとする。換言すれば、利用者は、対象事象のカテゴリ及び名称を、対象事象を示す情報として利用者端末20に入力する。カテゴリとは、本実施の形態において、事象の分類構造において最上位における概念である。すなわち、事象は、カテゴリによって大別される。名称は、カテゴリを細分化して、事象と一対一に対応する概念である。すなわち、名称は、事象に対応した粒度で定義される。このように、本実施の形態では、事象は、カテゴリ及び名称の2階層によって分類される例が示されるが、事象の分類方法は、これに限定されない。例えば、各事象が、大分類、中分類、小分類の3階層によって定義されてもよい。
 図2は、本発明の実施の形態における理解支援装置10のハードウェア構成例を示す図である。図2の理解支援装置10は、それぞれバスBで相互に接続されているドライブ装置100、補助記憶装置102、メモリ装置103、CPU104、及びインタフェース装置105等を有する。
 理解支援装置10での処理を実現するプログラムは、CD−ROM等の記録媒体101によって提供される。プログラムを記憶した記録媒体101がドライブ装置100にセットされると、プログラムが記録媒体101からドライブ装置100を介して補助記憶装置102にインストールされる。但し、プログラムのインストールは必ずしも記録媒体101より行う必要はなく、ネットワークを介して他のコンピュータよりダウンロードするようにしてもよい。補助記憶装置102は、インストールされたプログラムを格納すると共に、必要なファイルやデータ等を格納する。
 メモリ装置103は、プログラムの起動指示があった場合に、補助記憶装置102からプログラムを読み出して格納する。CPU104は、メモリ装置103に格納されたプログラムに従って理解支援装置10に係る機能を実行する。インタフェース装置105は、ネットワークに接続するためのインタフェースとして用いられる。
 図3は、本発明の実施の形態における理解支援装置10の機能構成例を示す図である。図3において、理解支援装置10は、事象レコード生成部11、定量データ入力部12、主観データ入力部13、類似性強化要素入力部14、類似性評価部15、事象入力部16、類似事象抽出部17及び出力部18等を有する。これら各部は、理解支援装置10にインストールされた1以上のプログラムが、CPU104に実行させる処理により実現される。理解支援装置10は、また、対応付けDB121、類似度DB122及び既知情報DB123等のデータベース(記憶部)を利用する。これら各データベースは、例えば、補助記憶装置102、又は理解支援装置10にネットワークを介して接続可能な記憶装置等を用いて実現可能である。
 事象レコード生成部11は、例えば、サービス提供者による操作に応じ、利用者が選択可能な各事象のカテゴリ及び名称を対応付けDB121に登録する。
 定量データ入力部12は、カテゴリ及び名称が対応付けDB121に登録された事象ごと(カテゴリ及び名称ごと)に、当該事象に関する定量データを入力とし、当該定量データを当該事象のカテゴリ及び名称に対応付けて対応付けDB121に登録する。本実施の形態において、定量データとは、例えば、或る動作の手首の角度や腕の角度や、或る料理について味覚センサで取得した辛味値など、事象について客観的に観測又は計測等が可能な定量的な情報を含むデータをいう。入力される定量データは、可能な限り事象の理想値(動作であればプロの動作、味覚であれば万人の平均値など)であることが好ましい。この点は、後述される主観データ及び類似性強化要素データについては、プロに関する値よりも、万人の平均値や有無など(例えば、素人の疲労感の平均値や火鍋(辛い料理)を食べる一般的な場所)の方が好ましい。
 主観データ入力部13は、カテゴリ及び名称が対応付けDB121に登録された事象ごと(カテゴリ及び名称ごと)に、当該事象に関する主観データを入力とし、当該主観データを当該事象のカテゴリ及び名称に対応付けて対応付けDB121に登録する。本実施の形態において、主観データとは、例えば、或る動作時の疲労感や、ものを食べた時に感じるネバネバ感など、事象を実際に体験した人の感想等の主観的な情報を含むデータをいう。
 類似性強化要素入力部14は、カテゴリ及び名称が対応付けDB121に登録された事象ごと(カテゴリ及び名称ごと)に、当該事象に関する類似性強化要素データを入力とし、当該類似性強化要素データを当該事象のカテゴリ及び名称に対応付けて対応付けDB121に登録する。本実施の形態において、類似性強化要素データとは、例えば、動作に関する事象であれば、動作に利用される道具の特性(例えば、バドミントンのラケットの形状等)や動作の継続時間(一瞬で終わる動作なのか、うちわのように数分にわたり繰り返し行う動作なのか)等が一例であり、料理に関する事象であれば、珍味であるかどうか等の食べ物の社会的位置づけなど、当該情報が一致していることが事象間の類似性の判定に影響する情報を含むデータをいう。なお、類似性強化要素データに含まれる情報は、定量データに含まれる情報又は主観データに含まれる情報以外の情報であって、当該情報が一致していることが事象間の類似性の判定に影響する情報であればよく、類似性強化要素データに含まれる情報は所定の情報に限定されない。
 上記より明らかなように、対応付けDB121は、事象ごと(カテゴリ及び名称ごと)に、当該事象に関する定量データ、主観データ及び類似性強化要素データを対応付けて記憶する。
 類似性評価部15は、カテゴリ及び名称が対応付けDB121に登録された事象の組み合わせ(2つの事象の組み合わせ)ごとの、当該組み合わせに係る各事象の定量データ、主観データ及び類似性強化要素データを入力とし、カテゴリ及び名称が対応付けDB121に登録された事象の組み合わせ(2つの事象の組み合わせ)ごとに、当該組み合わせに係る各事象の定量データ、主観データ及び類似性強化要素データに基づいて、当該各事象の間の類似性を示す指標の値(以下、「類似度」という。)を算出し、算出された類似度を当該組み合わせに対応付けて類似度DB122に登録する。したがって、類似度DB122は、類似性評価部15が事象の組み合わせごとに算出して類似度を、当該組み合わせごとに記憶する。なお、類似度の算出において、類似性強化要素データは必須ではない。すなわち、類似性強化要素データが使用されない形態が採用されてもよい。
 事象入力部16は、或る利用者の利用者端末20から、当該利用者が程度感覚をたとえて提示してほしい事象(対象事象)のカテゴリ及び名称を受信(入力)し、受信したカテゴリ及び名称を類似事象抽出部17へ出力する。
 類似事象抽出部17は、事象入力部16からの対象事象のカテゴリ及び名称を入力とし、入力された対象事象との組み合わせについて類似度DB122に記憶された類似度に基づいて、対象事象との組み合わせに係る事象のうちの一部又は全部の事象を、対象事象に対する類似事象として抽出する。この際、類似度抽出部は、既知情報DB123に記憶された情報を参照して、類似事象として抽出する事象を、利用者にとって既知である事象に絞り込む。すなわち、既知情報DB123には、カテゴリ及び名称の組み合わせごと(すなわち、事象ごと)に、各利用者にとって当該事象が既知であるか否かを示すフラグ情報が記憶されている。既知の定義には、知識として知っていることのみならず、実際に経験したこと等が含まれてもよい。また、既知の定義は、サービス提供者によって任意に決定されてもよい。類似事象抽出部17は、抽出した類似事象を出力する。
 出力部18は、類似事象抽出部17によって抽出された類似事象を入力とし、装置の出力として出力する。
 以下、理解支援装置10が実行する処理手順について説明する。図4は、事前処理の処理手順の一例を説明するためのフローチャートである。
 ステップS101において、事象レコード生成部11は、例えば、サービス提供者による操作に応じ、利用者が選択可能な複数の事象のそれぞれのカテゴリ及び名称を対応付けDB121のカテゴリテーブルT1に登録する。
 図5は、カテゴリテーブルT1の構成例を示す図である。図5において、カテゴリテーブルT1は、カテゴリごとに列が割り当てられ、各カテゴリに属する名称の一覧を行方向に記憶するテーブルである。したがって、ステップS101では、各カテゴリがカテゴリテーブルT1列方向に登録され、カテゴリごとの名称の一覧が、各カテゴリの行方向に登録される。なお、カテゴリ及び当該カテゴリに属する名称の一覧は、例えば、辞書や書籍等から引用されてもよい。具体的には、サービス提供者などが辞書や書籍等から引用して事前にカテゴリテーブルT1を作成しておいてもよいし、辞書や書籍の電子データを利用し、データ更改時には自動で差分を引用して名称の項目として登録されるようにしてもよい。
 続いて、定量データ入力部12は、カテゴリテーブルT1に登録された事象ごと(カテゴリ及び名称ごと)に、当該事象に関する定量データを入力とし、当該定量データを当該事象のカテゴリ及び名称に対応付けて対応付けDB121の定量データテーブルT2に登録する(S102)。なお、定量データの入力は、サービス提供者等による手入力によって行われてもよいし、センサ等による自動取得に基づいて行われてもよい。
 図6は、定量データテーブルT2の構成例を示す図である。図6の定量データテーブルT2は、カテゴリ「動作」に対応する定量データテーブルT2である。すなわち、定量データテーブルT2は、カテゴリ別に生成される。カテゴリごとに定量データの構成(定量データの項目(種別)や項目の個数等)が異なる可能性が有るからである。この点については、主観データ及び類似性強化要素データについても同様である。
 図6において、定量データテーブルT2は、カテゴリ「動作」に対してカテゴリテーブルT1(図5)に登録されている名称ごと(すなわち、事象ごと)に、当該事象に関する各定量データが1つの項目として登録可能なように構成されている。図6の例では、カテゴリ「動作」について、「手首の角度」、「腕の角度」及び「握力」等が定量データを構成する項目である例が示されている。本実施の形態では、1つのカテゴリに対して1以上の項目が設定される。図6では、「手首の角度」及び「腕の角度」については、例えば、センサによって計測された時系列の波形データが定量データとされる例が示されている。すなわち、「手首の角度」及び「腕の角度」の項目の波形は、横軸が時間を示し縦軸が手首の角度又は腕の角度を示すグラフである。なお、各カテゴリの定量データの各項目は、例えば、定量データの入力が行われる前までにサービス提供者等によって設定されればよい。
 続いて、主観データ入力部13は、カテゴリテーブルT1に登録された事象ごと(カテゴリ及び名称ごと)に、当該事象に関する主観データを入力とし、当該主観データを当該事象のカテゴリ及び名称に対応付けて対応付けDB121の主観データテーブルT3に登録する(S103)。なお、主観データの入力は、サービス提供者等による手入力によって行われてもよいし、センサ等による自動取得に基づいて行われてもよい。
 図7は、主観データテーブルT3の構成例を示す図である。図7の主観データテーブルT3は、カテゴリ「動作」に対応する主観データテーブルT3である。すなわち、主観データテーブルT3も、カテゴリ別に生成される。カテゴリごとに主観データの構成が異なる可能性が有るからである。
 図7において、主観データテーブルT3は、カテゴリ「動作」に対してカテゴリテーブルT1(図5)に登録されている名称ごと(すなわち、事象ごと)に、当該事象に関する各主観データが1つの項目として登録可能なように構成されている。図7の例では、カテゴリ「動作」について、「疲労感」、「集中度」及び「楽しさ」等が主観データを構成する項目である例が示されている。本実施の形態では、主観データについては、1つのカテゴリに対して1以上の項目が設定される。図7では、0.0~1.0の範囲の数値によって、主観データ各項目の値が評価される例が示されている。なお、各カテゴリの主観データの項目は、例えば、主観データの入力が行われる前までにサービス提供者等によって設定されればよい。
 続いて、類似性強化要素入力部14は、カテゴリテーブルT1に登録された事象ごと(カテゴリ及び名称ごと)に、当該事象に関する類似性強化要素データを入力とし、当該類似性強化要素データを当該事象のカテゴリ及び名称に対応付けて対応付けDB121の類似性強化要素テーブルT4に登録する(S104)。なお、類似性強化要素データの入力は、サービス提供者等による手入力によって行われてもよいし、センサ等による自動取得に基づいて行われてもよい。但し、類似性強化要素データが入力されない事象が有ってもよい。すなわち、各事象について、類似性強化要素データは0以上が入力されればよい。
 図8は、類似性強化要素テーブルT4の構成例を示す図である。図8の類似性強化要素テーブルT4は、カテゴリ「動作」に対応する類似性強化要素テーブルT4である。すなわち、類似性強化要素テーブルT4も、カテゴリ別に生成される。カテゴリごとに類似性強化要素データの構成が異なる可能性が有るからである。
 図8において、類似性強化要素テーブルT4は、カテゴリ「動作」に対してカテゴリテーブルT1(図5)に登録されている名称ごと(すなわち、事象ごと)に、当該事象に関する各類似性強化要素データが1つの項目として登録可能なように構成されている。図8の例では、カテゴリ「動作」について、「道具の特性」及び「継続時間」等が類似性強化要素データを構成する項目である例が示されている。「道具の特性」とは、動作に利用される道具の特性であり、図8の例では、「固さ」、「長さ」、「素材」の3項目によって構成されている。「固さ」は、道具の固さである。「長さ」は、道具の長さである。「素材」は、利用者の手に触れる部分の素材である。「継続時間」は、動作の継続時間である。名称ごと(すなわち、事象ごと)に、どのような期間を継続時間とするかは適宜設定されればよい。例えば、「バドミントンのラケットを振る」については、1回の素振りの時間であってもよいし、所定回数の繰り返しの素振りの時間であってもよい。
 なお、定量データ、主観データ及び類似性強化要素データがサービス提供者の手入力によって行われる場合、例えば、図9に示されるような画面を介してこれらの情報が入力されてもよい。
 図9は、定量データ、主観データ及び類似性強化要素データの入力画面の一例を示す図である。図9において、入力画面510は、カテゴリ選択メニュー511、名称選択メニュー512、定量データ入力領域513、主観データ入力領域514、及び類似性強化要素データ入力領域515等を含む。
 カテゴリ選択メニュー511は、カテゴリテーブルT1(図5)の列方向に登録されたカテゴリを選択肢とするプルダウンメニューである。図9では、「動作」が選択された状態が示されている。
 名称選択メニュー512は、カテゴリ選択メニュー511において選択されたカテゴリに対してカテゴリテーブルT1(図5)の行方向に登録された名称を選択肢とするプルダウンメニューである。図9では、「動作」のカテゴリに属する名称のうち「バドミントンのラケットを振る」が選択された状態が示されている。
 定量データ入力領域513は、カテゴリ選択メニュー511において選択された「動作」及び名称選択メニュー512において選択された「バドミントンのラケットを振る」に係る事象に対する定量データの各項目の値の入力を受け付けるための領域である。本実施の形態において、定量データの項目は、カテゴリ別に設定されるため、図9では、カテゴリ「動作」に対応する定量データの項目が表示された状態が示されている。カテゴリ「動作」対応する定量データの項目がいずれであるかは、定量データテーブルT2に基づいて特定可能である。
 主観データ入力領域514は、カテゴリ選択メニュー511において選択された「動作」及び名称選択メニュー512において選択された「バドミントンのラケットを振る」に係る事象に対する主観データの各項目の値の入力を受け付けるための領域である。本実施の形態において、主観データの項目は、カテゴリ別に設定されるため、図9では、カテゴリ「動作」に対応する主観データの項目が表示された状態が示されている。カテゴリ「動作」対応する主観データの項目がいずれであるかは、主観データテーブルT3に基づいて特定可能である。
 類似性強化要素データ入力領域515は、カテゴリ選択メニュー511において選択された「動作」及び名称選択メニュー512において選択された「バドミントンのラケットを振る」に係る事象に対する類似性強化要素データの各項目の値の入力を受け付けるための領域である。本実施の形態において、類似性強化要素データの項目は、カテゴリ別に設定されるため、図9では、カテゴリ「動作」に対応する類似性強化要素データの項目が表示された状態が示されている。カテゴリ「動作」対応する類似性強化要素データの項目がいずれであるかは、類似性強化要素テーブルT4に基づいて特定可能である。
 なお、同じカテゴリに属する全ての名称(事象)について、定量データの項目の構成、主観データの項目の構成、及び類似性強化要素データの項目の構成が完全に一致するとは限らない。したがって、名称(事象)によっては、定量データ、主観データ、類似性強化要素データの一部の項目が入力されなくてもよい(又はnullが入力されてもよい)。
 なお、図6に示される主観データ(「手首の角度」、「腕の角度」)のように、波形データ等のようなデータの場合には、波形の形状を特定可能な情報が記録されたファイルの読み込みが可能とされてもよい。
 続いて、類似性評価部15は、カテゴリテーブルT1(図5)に登録された各事象について、他の全ての事象との組み合わせごと(すなわち、2つの事象の組み合わせごと)に、当該組み合わせに係る事象の間の類似度を算出し、算出した類似度を当該組み合わせに対応付けて類似度DB122に登録する(S105)。
 図10は、類似度DB122の構成例を示す図である。図10において、類似度DB122には、行方向及び列方向に各事象(カテゴリ及び名称の組み合わせ)が配列され、各行の事象と各列の事象との組み合わせごとに、当該組み合わせについて算出された類似度が記憶される。なお、同じ事象同士の類似度は、例えば、類似度の最高値を示す「MAX」が記憶される。
 なお、類似度は、例えば、コサイン類似度等のように複数項目の総合的な類似度が算出可能な方法によって算出されてもよい。例えば、以下の式に基づいて類似度simが算出されてもよい。
Figure JPOXMLDOC01-appb-M000001
但し、
x:一方の事象(以下、「事象X」という。)に関する項目の値の配列
y:他方の事象(以下、「事象Y」という。)に関する項目の値の配列
:xにおけるi番目の項目の値
:yにおけるi番目の項目の値
Λ:分母が0となるのを避けるための定数(例えば、1等)
N:事象Xに関する項目と事象Yに関する項目との共通項目の個数
i:1~N
 なお、項目の値の配列とは、定量データの各項目の値、主観データの各項目の値、類似性強化要素データの各項目の値の配列をいう。また、xにおけるパラメータの配列における項目の並び順と、yにおけるパラメータの配列における項目の並び順とは同じである。例えばxとyとは、同じ項目(例えば、主観データの「手首の角度」)の値である。
 x、yが、図6の主観データの「手首の角度」や「腕の角度」のように、波形のような系列データである場合、類似性評価部15は、ピーク値等の代表値をx、yに代入してもよい。又は、類似性評価部15は、x、yそれぞれのピーク値、同相性、分散、平均値など波形の特徴を表すパラメータのうちn個のパラメータを計算し、x、yそれぞれをn個の変数に細分化(分割)して、各変数に各パラメータの計算結果を代入してもよい。又は、類似性評価部15は、x、yのそれぞれの波形をフーリエ変換し、それぞれのスペクトル値をx、yに代入してもよい。又は、類似性評価部15は、MATLAB等の数値計算ソフトを利用して、xの波形とyの波形との相互相関を関数xcorr()等により求めてもよい。この場合、類似性評価部15は、x及びyについては、数1に示した式に代入せずに、他の項目に関して数1に基づいて算出された類似度に対して、x及びyについて計算された相互相関を加算することで、事象Xと事象Yとの最終的な類似度を算出してもよい。
 また、x、yが、図8の類似性強化要素データの「素材」のように、数値化されていない項目の値である場合には、類似性評価部15は、x=yであれば、x=1、y=1とし、x≠yであれば、x=0、y=0として数値化してもよい。
 本実施の形態では、定量データ、主観データ及び類似性強化要素データのそれぞれの構成は、同一カテゴリの範囲内で共通だからである、したがって、本実施の形態では、事象Xと事象Yとが同じカテゴリの事象であれば、xとyとは同じ項目の配列で構成される。但し、x及びyのいずれか一方の値が空(null)である場合、i番目の項目は、計算の対象外とされてもよい。
 一方、事象Xと事象Yとが異なるカテゴリの事象であれば、xとyとが同じ項目の配列で構成されるとは限らない。この場合、類似性評価部15は、事象Xに関する項目と事象Yに関する項目との間で共通項目を抽出し、抽出された共通項目を同じ順番で配列した場合の事象Xの当該各共通項目の値の配列をxとし、事象Yの当該各共通項目の値の配列をyとすればよい。事象Xと事象Yとの間で共通の項目が一つも無い場合、類似性評価部15は、事象Xと事象Yとの類似度を最低値(例えば、0)にすればよい。
 なお、類似性評価部15は、各項目の値を、0以上1以下の間に相対化(又は正規化)した後でx又はyに代入してもよい。
 また、事象Xと事象Yとの間での共通項目の全てが類似度の計算に利用されてもよいし、共通項目の一部のみが類似度の計算に利用されてもよい。類似度の計算に利用する項目は、サービス提供者が事前に選択してもよい。この場合、サービス提供者は、定量データ及び主観データからは1以上の項目を選択し、類似性強化要素データからは0以上の項目を選択する。例えば、サービス提供者が重視したい項目が、類似度の計算の利用対象として選択されてもよい。また、事象Xと事象Yとが同一カテゴリの場合には、当該カテゴリ内の事象において、値が入力されている項目数が最小の事象において値が入力されている項目のみが類似度の計算に利用されてもよいし、当該カテゴリ内の全ての事象について値が入力されている項目のみが類似度の計算に利用されてもよい。なお、類似度の計算に利用される項目が共通項目の一部に限定される場合、当該一部の項目に対して、類似度の計算要素であることを示すフラグ情報が、サービス提供者によって付与されてもよい。具体的には、定量データテーブルT2(図6)、主観データテーブルT3(図7)、類似性強化要素テーブルT4(図8)のそれぞれの項目のうち、類似度の計算要素として選択された項目にフラグ情報が付与されてもよい。なお、定量データ及び主観データについては、フラグ情報は、1項目のみに付与されてもよいし、重視したい順番が分かる情報として複数の項目に付与されてもよい。類似性強化要素データについては、全ての項目に対してフラグ情報が付与されなくてもよいし、重視したい順番が分かる情報として1以上の項目にフラグ情報が付与されてもよい。この場合、類似性評価部15は、フラグ情報が付与された項目の方が、フラグ情報が付与されていない項目よりも重視されるように項目ごとに重み付けをして類似度を計算してもよい。例えば、類似性評価部15は、フラグ情報が付与された項目のみを用いて類似度を算出してもよい。また、重視したい順番が分かる情報として複数項目に重み付けがなされている場合には、類似性評価部15は、重視したいものほど重みが大きくなるように重み付けして類似度を算出してもよい。
 また、類似性評価部15は、主観データについては、事象Xと事象Yとの共通項目のうち、主観データとの相関が強い1以上の項目のみを類似度の計算に利用してもよい。そうすることで、事象間の類似度について、人が受ける印象をより強く考慮することができる。すなわち、動作等の程度そのものが似ていても各人は異なる印象を抱く場合があるからである。
 図11は、定量データの項目のうち主観データとの相関が強い項目を説明するための図である。図11には、Aさん、Bさん、Cさん等、複数人の主観データが収集され、当該複数人の主観データとの間で、定量データの各項目について相関が計算された例が示されている。
 図11の例では、事象「バドミントンのラケットを振る」の定量データの項目のうち、「手首の角度」についての主観データとの相関は以下の通りであることが示されている。
疲労感との相関:0.9
集中度との相関:0.2
楽しさとの相関:0.3
 また、事象「バドミントンのラケットを振る」の定量データの項目のうち、「腕の角度」についての主観データとの相関は以下の通りであることが示されている。
疲労感との相関:0.7
集中度との相関:0.2
楽しさとの相関:0.3
 更に、「バドミントンのラケットを振る」の定量データの項目のうち、「握力」についての主観データとの相関は以下の通りであることが示されている。
疲労感との相関:0.5
集中度との相関:0.5
楽しさとの相関:0.4
 例えば、相関に対する閾値が0.7であり、閾値以上である項目が選択される場合、図11の例では、「手首の角度」及び「腕の角度」が類似度の計算要素とされ、「握力」は当該計算要素から除外される。
 なお、定量データの項目うち、主観データとの相関が相対的に高い項目は、類似性評価部15が、類似度の計算時に選定してもよい。この場合、選定される項目数は、予めサービス提供者によって設定されてもよい。又は、主観データとの相関が相対的に高い項目は例えば、サービス提供者によって予め1以上選定され、選定された項目を識別するためのフラグ情報が、主観データテーブルT3に対して付与されてもよい。フラグ情報が付与された場合の類似度の計算(重み付け等)については、上記した通りでよい。
 また、類似性評価部15は、定量データ、主観データ及び類似性強化要素データの各共通項目について、各共通項目の特異性に基づいて重み付けを行って類似度を算出してもよい。重み付けの方法は、上記した通りでよい。特異性が高い項目とは、珍しい値(又は特徴的な値)を含む項目をいう。例えば、類似性評価部15は、各項目の特異性を以下の(1)~(3)の手順で計算する。
(1)類似性評価部15は、同一カテゴリの定量データテーブルT2(図6)、主観データテーブルT3(図7)、類似性強化要素テーブルT4(図8)ごとに、各項目の各値について、珍しさ(特異性)を数値化した指標値(以下、「特異度」という。)を計算する。例えば、図8の類似性強化要素テーブルT4を例にすると、類似性評価部15は、「固さ」、「長さ」、「素材」、「継続時間」ごとに、各項目の値について特異度を計算する。例えば、「素材」については、類似性評価部15は、「皮」、「プラスチック」、「縄」等のそれぞれについて特異度を計算する。特異度は、当該値が当該項目の中でどの程度珍しいか(特徴的であるか)が数値化されたものであればよい。例えば、当該項目の値の平均値からの差分の絶対値や、当該項目における出現頻度の低さ(例えば、出現頻度の逆数)等によって特異度が計算されてもよい。したがって、例えば、「素材」において、「皮」の出現頻度が低ければ、「皮」の特異度は高くなり、「プラスチック」の出現頻度が高ければ、「プラスチック」の特異度は低くなる。
(2)類似性評価部15は、各項目について値ごとに計算した特異度について、項目ごとに最大値を特定する。
(3)類似性評価部15は、項目ごとの最大値を比較して、各項目の重み付けを決定する。例えば、類似性評価部15は、一部の項目を類似度の計算要素として選択する。具体的には、特異度の最大値が閾値(例えば、各項目において取り得る特異度の最大値を1とし、最小値を0として正規化した場合の0.8等)以上である項目が、当該計算要素として選択されてもよい。又は、最大値が上位n個の項目が、当該計算要素として選択されてもよい。なお、取り得る特異度とは、出現頻度で特異度を計算する場合は、全てに出現した場合を0とし、出現した回数に応じた割合とする。例えば、図8のT4で“道具の素材”という項目における”縄”について出現回数に基づいて特異度を計算する場合は、例えば特異度=1−(出現回数/全てに出現した場合の出現回数)等のように出現回数が少ないほど特異度が高くなるような式により計算する。また、平均値からの差分で特異度を計算する場合は、差分0の場合を0とし、平均から最も離れた限界値を1とする。例えば、図6のT2で“腕の角度”という項目について平均値からの差分で特異度を計算する場合は、“腕の角度”として記録された値の最大値や平均値を利用して、該当する項目(例えば“バドミントンのラケットを振る”)の“腕の角度”と全項目の“腕の角度”の平均値との差分が0の場合を0とし、人間が動作可能な“腕の角度”の最大角度、または/および、最小角度の場合が1となるような式により計算する。
 図12は、たとえ表現の提示処理の処理手順の一例を説明するためのフローチャートである。
 ステップS201において、事象入力部16は、或る利用者(以下、「対象利用者」という。)の利用者端末20から、例えば、「ドラムのシングルストローク」等、程度感覚をたとえて提示してほしい事象(対象事象」)のカテゴリ及び名称を受信(入力)する。利用者端末20における当該カテゴリ及び当該名称の入力は、例えば、所定の画面のカテゴリ用のプルダウンメニューからのカテゴリの選択と、名称用のプルダウンメニューからの名称の選択とによって行われてもよい。この場合、利用者端末20は、選択されたカテゴリ及び名称を示す文字列を理解支援装置10へ送信する。又は、対象事象のカテゴリ及び名称は、例えば、利用者端末20に表示される所定の画面に対して、自由形式の文字列として入力されてもよい。この場合、利用者端末20は、入力された自由形式の文字列を理解支援装置10へ送信する。
 又は、利用者端末20がスマートスピーカである場合には、利用者端末20が、選択肢としてのカテゴリ及び名称を列挙して音声出力してもよい。この場合、利用者は、列挙されたカテゴリ及び名称の中からいずれかのカテゴリ及び名称を発声することで、対象事象のカテゴリ及び名称を入力してもよい。若しくは、選択肢としてのカテゴリ及び名称の音声は列挙されずに、利用者が、対象事象のカテゴリ及び名称を自由形式で利用者端末20に発声してもよい。いずれの場合であっても、利用者端末20は、入力された音声を理解支援装置10へ送信する。
 理解支援装置10の事象入力部16は、利用者端末20において上記のように入力された文字列又は音声を利用者端末20から受信する。音声が受信された場合、事象入力部16は、当該音声について音声認識を実行することで、受信された音声を文字列に変換する。以下、受信された文字列、又は音声から変換された文字列を「入力文字列」という。
 続いて、事象入力部16は、入力文字列を解析して、対象事象のカテゴリ(以下、「対象カテゴリ」という。)及び名称(以下、「対象名称」という。)を特定する(S202)。入力文字列が、選択肢から選択されたカテゴリ及び名称を含む場合、事象入力部16は、当該カテゴリ及び当該名称を、対象カテゴリ、対象名称として特定する。入力文字列が自由形式である場合、事象入力部16は、入力文字列に合致するカテゴリ及び名称又は入力文字列に最も類似のカテゴリ及び名称を、対象カテゴリ、対象名称として特定する。類似のカテゴリは、例えば、事前に名寄せ設定ファイルを用意し、「食べた感じ」、「柔らかさ」、「固さ」等が入力文字列であれば「食感」というカテゴリに集約する、等の方法により抽出されてもよい。名称についても同様である。
 なお、事象入力部16は、対象利用者の識別情報(以下「対象利用者ID」という。)と、対象カテゴリ及び対象名称を類似事象抽出部17へ入力する。対象利用者IDは、ステップS201の前に利用者端末20から受信されてもよいし、ステップS201において利用者端末20から受信されてもよい。
 続いて、類似事象抽出部17は、対象利用者にとって既知である事象(以下、「既知事象」という。)を、既知情報DB123に利用者IDごとに登録されている既知情報テーブルT5のうち、対象利用者IDに対応する既知情報テーブルT5から抽出する(S203)。
 図13は、既知情報テーブルT5の構成例を示す図である。図13の既知情報テーブルT5は、対象利用者の既知情報テーブルT5を示す。
 図13において、既知情報テーブルT5には、カテゴリ及び名称の組み合わせごと(すなわち、事象ごと)に、対象利用者にとって当該事象が既知であるか否かを示すフラグ情報である「既知フラグ」が記憶されている。「既知フラグ」について、「1」は、既知であることを示し、「0」は、未知であることを示す。
 各事象についての既知情報テーブルT5への「既知フラグ」の登録は、利用者自身の手動により、利用者端末20等から事前に行われてもよい。又は、利用者の検索ログから知識を推定するなど利用者のログを用いて自動登録されてもよい。又は、各利用者の既知情報テーブルT5は、予め既知情報DB123に登録されていなくてもよい。例えば、利用者端末20に既知情報テーブルT5が保存されていてもよい。この場合、各利用者の任意のタイミング(例えば、図12のステップS201のタイミング等)で、利用者端末20が、自端末に保存されている既知情報テーブルT5を理解支援装置10へアップロードし、当該既知情報テーブルT5が既知情報DB123へ登録されてもよい。
 いずれの場合であっても、ステップS203において、類似事象抽出部17は、「既知フラグ」の値が「1」、即ち、既知であるカテゴリ及び名称の組み合わせ(すなわち、事象)を、対象利用者の既知事象のカテゴリ及び名称として抽出する。
 続いて、類似事象抽出部17は、抽出した各既知事象と対象事象との類似度を類似度DB122(図10)から取得する(S204)。具体的には、類似事象抽出部17は、既知事象のカテゴリ及び名称と、対象カテゴリ及び対象名称との組み合わせに対して類似度DB122に記憶されている類似度を取得する。
 続いて、類似事象抽出部17は、取得した類似度の降順に、一部又は全部の既知事象を抽出する(S205)。例えば、類似事象抽出部17は、類似度の降順にn件(n番目までの)既知事象を抽出してもよい。なお、本実施の形態では、類似度は、類似しているほど値が高くなる指標である。仮に、類似しているほど値が小さくなる指標を類似度とする場合には、取得した類似度の昇順にn件の既知情報が抽出されればよい。nは、1以上の整数であり、予め設定されていてもよいし、対象利用者によって対象事象の入力時に指定されてもよい。又は、n=1に固定されていてもよい。又は、類似度が閾値以上である全ての既知事象が抽出されてもよい。類似事象抽出部17は、抽出した既知事象(以下、「類似事象」という。)を出力部18へ入力する。
 続いて、出力部18は、類似事象抽出部17から入力された類似事象を出力する(S206)。本実施の形態では、出力部18は、当該類似事象を示す情報を利用者端末20へ送信する。類似事象を示す情報の表現方法は任意でよい。例えば、出力部18は、各類似事象のカテゴリ名及び名称と共に、対象事象との類似度を出力してもよい。又は、出力部18は、対象事象を中心に配置し、対象事象の周囲に、類似度に応じて類似事象のカテゴリ名及び名称が放射線状に配置された図を出力してもよい。又は、出力部18は、類似事象を示す画像を一出力してもよい。この場合、例えば、対応付けDB121において、カテゴリテーブルT1(図5)に登録されている各名称(すなわち、各事象)に関連付けられて当該名称に係る事象を示す画像が記憶されていてもよい。
[第2の実施形態]
 次に、第2の実施の形態について説明する。第2の実施の形態では上記の第1の実施の形態と異なる点について説明する。第2の実施の形態において特に言及されない点については、第1の実施の形態と同様でもよい。
 上記の第1の実施の形態では、主に、カテゴリが「動作」である事象について説明したが、第2の実施の形態において適用可能な事象は、「動作」に関する事象に限られない。例えば、経路が事象とされてもよい。そうすることで、道案内ナビゲーションアプリ等で経路を案内する際に、当該経路の疲労度等を、利用者にとって既知の経路でたとえて提示することができる。この場合、対応付けDB121には、例えば、図14~図16に示されるテーブルが登録され、これらのテーブルが利用されてもよい。
 すなわち、図14は、カテゴリが「経路」である事象に対応する定量データテーブルT2の構成例を示す図である。また、図15は、カテゴリが「経路」である事象に対応する主観データテーブルT3の構成例を示す図である。更に、図16は、カテゴリが「経路」である事象に対応する類似性強化要素テーブルT4の構成例を示す図である。
[第3の実施形態]
 次に、第3の実施の形態について説明する。第3の実施の形態では上記の第1又は第2の実施の形態と異なる点について説明する。第3の実施の形態において特に言及されない点については、第1又は第2の実施の形態と同様でもよい。
 第3の実施の形態では、辛い料理が事象とされる。そうすることで、利用者にとって未知である料理の辛さ度合いを、利用者が食べたことがある料理でたとえて提示することができる。この場合、対応付けDB121には、例えば、図17~図19に示されるテーブルが登録され、これらのテーブルが利用されてもよい。
 すなわち、図17は、カテゴリが「辛い料理」である事象に対応する定量データテーブルT2の構成例を示す図である。また、図18は、カテゴリが「辛い料理」である事象に対応する主観データテーブルT3の構成例を示す図である。更に、図19は、カテゴリが「辛い料理」である事象に対応する類似性強化要素テーブルT4の構成例を示す図である。
 上述したように、本実施の形態によれば、各事象に関する定量データ及び主観データに基づいて、事象間の類似度が算出される。当該類似度は、或る事象を他の事象にたとえる際に、当該他の事象を選択するための基準とすることができる。類似している事象同士は、お互いに他方のたとえとして適していると考えられるからである。したがって、本実施の形態によれば、或る事象を他の事象でたとえることを可能にするための仕組みを提供することができる。
 また、本実施の形態では、更に、類似性強化要素データを用いて類似度が算出される。類似性強化要素データが用いられることで、類似度の精度を高めることができる。
 また、本実施の形態では、利用者によって或る事象(対象事象)が入力されると、当該事象との類似度に基づいて、類似事象が出力される。したがって、対象事象について、他の事象によるたとえ表現によって、当該利用者による対象事象の理解を支援することができる。
 また、本実施の形態では、利用者にとって既知の事象が、対象事象に対する類似事象として出力される。利用者の日常生活における既知の類似体験・知識を類似事象として利用者に提示することで、対象事象の程度感覚を分かり易く伝えることができる。例えば、楽器等の練習時に初心者に対して熟練者の力の入れ具合を伝える場面、初めて見る食べ物の味(辛さ度合)/食感(固さ度合)を伝える場面、訪日外国人に地震などニュースの緊急性を伝える場面などにおいて、程度感覚(身体動作のような感覚的なコツ、苦手な食べ物か否かの判断基準、出来事の深刻さ等)を分かり易く伝えることができる。
 なお、本実施の形態において、理解支援装置10は、情報処理装置の一例である。対応付けDB121は、第1の記憶部の一例である。類似性評価部15は、算出部の一例えある。類似度DB122は、第2の記憶部の一例である。事象入力部16は、入力部の一例である。類似事象抽出部17は、抽出部の一例である。既知情報DB123は、第3の記憶部の一例である。カテゴリテーブルT1にカテゴリ名及び名称が登録されている事象は、第1の事象の一例である。対象事象は、第2の事象の一例である。
 以上、本発明の実施の形態について詳述したが、本発明は斯かる特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。
10     理解支援装置
11     事象レコード生成部
12     定量データ入力部
13     主観データ入力部
14     類似性強化要素入力部
15     類似性評価部
16     事象入力部
17     類似事象抽出部
18     出力部
20     利用者端末
100    ドライブ装置
101    記録媒体
102    補助記憶装置
103    メモリ装置
104    CPU
105    インタフェース装置
121    対応付けDB
122    類似度DB
123    既知情報DB
B      バス

Claims (7)

  1.  複数の第1の事象のそれぞれごとに、当該第1の事象に関する定量的な情報を含むデータと、当該第1の事象に関する主観的な情報を含むデータとを対応付けて記憶する第1の記憶部と、
     前記第1の事象の組み合わせごとに当該組み合わせに係る前記各第1の事象の前記各データに基づいて、当該各第1の事象の間の類似性を示す指標の値を算出する算出部と、
    を有することを特徴とする情報処理装置。
  2.  前記第1の記憶部は、更に、前記複数の第1の事象のそれぞれごとに、前記定量的な情報又は前記主観的な情報以外の情報を含むデータであって、前記第1の事象の間で当該情報が一致することにより当該第1の事象の間の類似性に影響する情報を含むデータを記憶し、
     前記算出部は、更に、前記第1の事象の組み合わせごとに当該組み合わせに係る前記各第1の事象の前記類似性に影響する情報を含むデータに基づいて、前記指標の値を算出する、
    ことを特徴とする請求項1記載の情報処理装置。
  3.  前記算出部は、前記各データの項目ごとに、当該項目の特異性に基づく重み付けを行って、前記指標の値を算出する、
    ことを特徴とする請求項1又は2記載の情報処理装置。
  4.  前記算出部が前記組み合わせごとに算出した前記指標の値を、前記組み合わせごとに記憶する第2の記憶部を有し、
     利用者から第2の事象を示す情報を入力する入力部と、
     前記第2の事象との組み合わせについて前記第2の記憶部に記憶された類似度に基づいて、前記第2の事象との組み合わせに係る前記第1の事象のうちの一部又は全部の前記第1の事象を抽出する抽出部と、
     前記抽出部が抽出した前記第1の事象を示す情報を出力する出力部と、
    を有することを特徴とする請求項1乃至3いずれか一項記載の情報処理装置。
  5.  前記第1の事象ごとに、前記利用者にとって当該第1の事象が既知であるか否かを示す情報を記憶した第3の記憶部を有し、
     前記抽出部は、前記第3の記憶部を参照して、前記第2の記憶部に前記指標の値が記憶された前記組み合わせのうち、前記第2の事象との前記組み合わせであって、前記利用者にとって既知である前記第1の事象との組み合わせの中から、前記指標の値に基づいて一部又は全部の前記組み合わせを抽出する、
    ことを特徴とする請求項4記載の情報処理装置。
  6.  複数の第1の事象のそれぞれごとに、当該第1の事象に関する定量的な情報を含むデータと、当該第1の事象に関する主観的な情報を含むデータとを対応付けて第1の記憶部に記憶する記憶手順と、
     前記第1の事象の組み合わせごとに当該組み合わせに係る前記各第1の事象の前記各データに基づいて、当該各第1の事象の間の類似性を示す指標の値を算出する算出手順と、
    をコンピュータが実行することを特徴とする情報処理方法。
  7.  請求項1乃至5いずれか一項記載の各部としてコンピュータを機能させることを特徴とするプログラム。
PCT/IB2019/057518 2018-09-03 2019-09-06 情報処理装置、情報処理方法及びプログラム WO2020049510A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/270,168 US20210170228A1 (en) 2018-09-03 2019-09-06 Information processing apparatus, information processing method and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-164651 2018-09-03
JP2018164651A JP7135607B2 (ja) 2018-09-03 2018-09-03 情報処理装置、情報処理方法及びプログラム

Publications (1)

Publication Number Publication Date
WO2020049510A1 true WO2020049510A1 (ja) 2020-03-12

Family

ID=69722260

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/IB2019/057518 WO2020049510A1 (ja) 2018-09-03 2019-09-06 情報処理装置、情報処理方法及びプログラム

Country Status (3)

Country Link
US (1) US20210170228A1 (ja)
JP (1) JP7135607B2 (ja)
WO (1) WO2020049510A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112565842A (zh) * 2020-12-04 2021-03-26 广州视源电子科技股份有限公司 信息处理方法、装置及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011180691A (ja) * 2010-02-26 2011-09-15 Nomura Research Institute Ltd ファッションアイテムチェックシステム、方法及びコンピュータプログラム
WO2017109839A1 (ja) * 2015-12-21 2017-06-29 富士通株式会社 設計データ抽出プログラム、設計データ抽出方法および設計データ抽出装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4622199B2 (ja) 2001-09-21 2011-02-02 日本ビクター株式会社 楽曲検索装置及び楽曲検索方法
US7771320B2 (en) * 2006-09-07 2010-08-10 Nike, Inc. Athletic performance sensing and/or tracking systems and methods
FI20065777L (fi) * 2006-12-07 2008-06-08 Base Vision Oy Menetelmä ja mittauslaite liikesuoritusta varten
JP5422284B2 (ja) 2009-07-17 2014-02-19 共同印刷株式会社 利用者情報提供システム及び利用者情報提供方法
US8961185B2 (en) * 2011-08-19 2015-02-24 Pulson, Inc. System and method for reliably coordinating musculoskeletal and cardiovascular hemodynamics
EP3065094A4 (en) 2013-10-31 2016-09-07 Fujitsu Ltd METHOD, DEVICE AND PROGRAM FOR PRESENTING INFORMATION
EP2887236A1 (en) * 2013-12-23 2015-06-24 D square N.V. System and method for similarity search in process data
JP6280847B2 (ja) 2014-09-10 2018-02-14 日本電信電話株式会社 味覚推定装置および味覚推定方法、ランキング装置およびランキング方法、味覚推定プログラムおよびランキングプログラム
JP6488753B2 (ja) 2015-02-20 2019-03-27 日本電気株式会社 情報処理方法
JP2018124729A (ja) 2017-01-31 2018-08-09 Kpmgコンサルティング株式会社 マッチング測定装置、方法およびプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011180691A (ja) * 2010-02-26 2011-09-15 Nomura Research Institute Ltd ファッションアイテムチェックシステム、方法及びコンピュータプログラム
WO2017109839A1 (ja) * 2015-12-21 2017-06-29 富士通株式会社 設計データ抽出プログラム、設計データ抽出方法および設計データ抽出装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
MOCHIZUKI, RIKA ET AL.: "Evaluation about personalized metaphor agent system", LECTURE PROCEEDINGS OF THE 12TH FORUM ON INFORMATION TECHNOLOGY, FIT 2013, vol. 4, 20 August 2013 (2013-08-20), pages 137 - 144 *

Also Published As

Publication number Publication date
US20210170228A1 (en) 2021-06-10
JP2020038448A (ja) 2020-03-12
JP7135607B2 (ja) 2022-09-13

Similar Documents

Publication Publication Date Title
CN106484777B (zh) 一种多媒体数据处理方法以及装置
JPWO2017187712A1 (ja) 情報処理装置
JP6908045B2 (ja) 音声処理装置、音声処理方法、およびプログラム
JP6728621B2 (ja) 成功支援システム、情報処理装置、方法およびプログラム
WO2022127042A1 (zh) 基于语音识别的考试作弊识别方法、装置及计算机设备
JP2010054568A (ja) 感情識別装置、感情識別方法およびプログラム
CN112309365A (zh) 语音合成模型的训练方法、装置、存储介质以及电子设备
JP2024020321A (ja) 精神・神経系疾患を推定する装置
CN112349380A (zh) 基于云计算的健身指导方法、装置、设备及存储介质
CN113243918A (zh) 基于多模态隐匿信息测试的风险检测方法及装置
WO2020049510A1 (ja) 情報処理装置、情報処理方法及びプログラム
JP5083951B2 (ja) 音声処理装置およびプログラム
JP6656570B2 (ja) クロスモーダル感覚分析システム、提示情報決定システム、情報提示システム、クロスモーダル感覚分析プログラム、提示情報決定プログラムおよび情報提示プログラム
CN110781327A (zh) 图像搜索方法、装置、终端设备及存储介质
US20230190159A1 (en) Mood forecasting method, mood forecasting apparatus and program
JP6081966B2 (ja) 情報検索装置、情報検索プログラム、および情報検索システム
CN107944056B (zh) 多媒体文件的识别方法、装置、终端及存储介质
JP6855021B2 (ja) 広告システム及び広告方法
JP2019211689A (ja) 認識装置、認識システム、端末装置、サーバ装置、方法及びプログラム
JPWO2016063403A1 (ja) データ分析システム、データ分析方法、およびデータ分析プログラム
US20230342549A1 (en) Learning apparatus, estimation apparatus, methods and programs for the same
Kozan et al. Express prediction of external distinctive features of person using the program of dermatoglyphics for prediction
WO2024013977A1 (ja) 意見出力装置、意見出力方法及びプログラム
WO2022176294A1 (ja) 情報処理装置、情報処理方法、照合システム、プログラム及び記録媒体
CN112927681B (zh) 因人而异地识别语音的人工智能心理机器人和方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19858590

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19858590

Country of ref document: EP

Kind code of ref document: A1