WO2024004993A1 - 情報処理方法、情報処理システム、情報処理装置及びプログラム - Google Patents

情報処理方法、情報処理システム、情報処理装置及びプログラム Download PDF

Info

Publication number
WO2024004993A1
WO2024004993A1 PCT/JP2023/023742 JP2023023742W WO2024004993A1 WO 2024004993 A1 WO2024004993 A1 WO 2024004993A1 JP 2023023742 W JP2023023742 W JP 2023023742W WO 2024004993 A1 WO2024004993 A1 WO 2024004993A1
Authority
WO
WIPO (PCT)
Prior art keywords
information processing
odor
processing method
data
information
Prior art date
Application number
PCT/JP2023/023742
Other languages
English (en)
French (fr)
Inventor
広明 松岡
Original Assignee
株式会社レボーン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社レボーン filed Critical 株式会社レボーン
Publication of WO2024004993A1 publication Critical patent/WO2024004993A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services

Definitions

  • the present invention relates to an information processing method, an information processing system, an information processing device, and a program.
  • the corresponding smell when visualizing a smell, the corresponding smell may be expressed in words. In this case, it is required to accurately express the smell by limiting the words used within a certain range.
  • the present invention provides an information processing method, an information processing system, an information processing device, and a program that allow a person to easily recognize the results of odor determination and identification.
  • an information processing method executed by an information processing system includes a first acquisition step, a identification step, and a presentation step.
  • target data is acquired.
  • the target data is odor data detected from the evaluation target by a sensor.
  • identifying step a correlation between the target data and at least a portion of the reference data is identified.
  • the reference data is odor data based on a plurality of predetermined reference odors.
  • presentation step odor information is presented. Odor information is information that visualizes target data based on a correlation and using reference data that specifies the correlation as an index.
  • FIG. 1 is a diagram showing a configuration example of a system 100 according to an embodiment of the present invention.
  • 1 is a diagram showing the configuration of an information processing device 1.
  • FIG. 3 is a diagram showing the configuration of an information processing terminal 3.
  • FIG. 3 is a diagram showing the configuration of a detection device 4.
  • FIG. 3 is a diagram showing the configuration of a detection device 5.
  • FIG. 1 is a block diagram showing a functional configuration of an information processing device 1.
  • FIG. FIG. 3 is an activity diagram showing the flow of generating reference data. It is a diagram showing an example of an aroma wheel.
  • FIG. 3 is a diagram showing an example of a reference odor used for evaluation by an evaluator. It is a figure showing an example of evaluation by an evaluator.
  • FIG. 3 is an activity diagram showing the flow of odor information presentation.
  • FIG. 3 is a diagram showing an example of odor information presented in a radar chart.
  • FIG. 3 is a diagram illustrating an example of odor information presented using circles.
  • FIG. 3 is a diagram showing an example of presenting odor information using objects.
  • FIG. 3 is a diagram showing an example of presenting odor information using an illustration image.
  • FIG. 3 is a diagram showing an example of presentation information that visualizes changes in odor over time.
  • FIG. 3 is a diagram showing an example of presentation information that visualizes changes in odor over time.
  • FIG. 3 is a diagram showing an example of presentation information that visualizes changes in odor over time.
  • FIG. 3 is a diagram showing an example of presentation information that visualizes changes in odor over time.
  • the program for realizing the software appearing in this embodiment may be provided as a non-transitory computer-readable medium, or may be downloaded from an external server.
  • the program may be provided in a manner that allows the program to be started on an external computer and the function thereof is realized on the client terminal (so-called cloud computing).
  • the term "unit” may include, for example, a combination of hardware resources implemented by circuits in a broad sense and software information processing that can be concretely implemented by these hardware resources.
  • various types of information are handled in this embodiment, and these information include, for example, the physical value of a signal value representing voltage and current, and the signal value as a binary bit collection consisting of 0 or 1. It is expressed by high and low levels or quantum superposition (so-called quantum bits), and communication and calculations can be performed on circuits in a broad sense.
  • a circuit in a broad sense is a circuit realized by at least appropriately combining a circuit, a circuit, a processor, a memory, and the like.
  • ASIC Application Specific Integrated Circuit
  • SPLD Simple Programmable Logic Device
  • CPLD Complex Programmable Logic Device
  • FPGA field programmable gate array
  • FIG. 1 is a diagram showing an example configuration of a system 100 according to an embodiment of the present invention.
  • the system 100 is configured such that an information processing device 1 is connected to a network 2.
  • An information processing terminal 3 is connected to the network 2, and a detection device 4 is connected to a part of the information processing terminal 3.
  • a detection device 5 is connected to the network 2 .
  • the information processing terminal 3 and the detection device 5 only need to be connectable to the network 2 as needed, and do not need to be connected all the time.
  • the information processing device 1 performs visualization of odors detected by the sensors of the detection device 4 and the detection device 5, and odors evaluated by humans.
  • the network 2 is a network that enables communication between the information processing device 1, the information processing terminal 3, and the detection device 5, and includes, for example, the Internet.
  • the information processing terminal 3 is a tablet, a smartphone, or a computer, and communicates with the information processing device 1 and controls the detection device 4.
  • the detection device 4 has a sensor and detects odor.
  • the detection device 5 is configured to detect odors and to be able to communicate with the information processing device 1 without going through the information processing terminal 3.
  • FIG. 2 is a diagram showing the configuration of the information processing device 1.
  • the information processing device 1 includes a processing section 11, a storage section 12, a temporary storage section 13, an external device connection section 14, and a communication section 15, and these components are electrically connected via a communication bus 16 inside the information processing device 1 .
  • the processing unit 11 is realized by, for example, a central processing unit (CPU), operates according to a predetermined program stored in the storage unit 12, and realizes various functions.
  • CPU central processing unit
  • the storage unit 12 is a nonvolatile storage medium that stores various information. This is realized, for example, by a storage device such as a hard disk drive (HDD) or a solid state drive (SSD). Note that the storage unit 12 can also be arranged in another device that can communicate with the information processing device 1.
  • a storage device such as a hard disk drive (HDD) or a solid state drive (SSD).
  • HDD hard disk drive
  • SSD solid state drive
  • the storage unit 12 can also be arranged in another device that can communicate with the information processing device 1.
  • the temporary storage unit 13 is a volatile storage medium. This is realized by, for example, a memory such as a random access memory (RAM), and stores information (arguments, arrays, etc.) temporarily required when the processing unit 11 operates.
  • a memory such as a random access memory (RAM)
  • RAM random access memory
  • the external device connection section 14 is a connection section compliant with standards such as Universal Serial Bus (USB) and High-Definition Multimedia Interface (HDMI (registered trademark)), and is 4, an input device such as a keyboard, and a display device such as a monitor can be connected.
  • USB Universal Serial Bus
  • HDMI High-Definition Multimedia Interface
  • the communication unit 15 is, for example, a communication means based on the local area network (LAN) standard, and realizes communication between the information processing device 1 and a local area network or a network 2 such as the Internet via the local area network. do.
  • LAN local area network
  • the information processing device 1 can be configured using multiple computers or configured as an information processing system. is also possible.
  • FIG. 3 is a diagram showing the configuration of the information processing terminal 3.
  • the information processing terminal 3 includes a processing section 31, a storage section 32, a temporary storage section 33, an external device connection section 34, a communication section 35, an input section 36, and a display section 37. These components are electrically connected via an information communication bus 38 inside the information processing terminal 3.
  • the processing unit 31 is realized by, for example, a central processing unit, operates according to a predetermined program stored in the storage unit 32, and realizes various functions.
  • the storage unit 32 is a nonvolatile storage medium that stores various information.
  • the temporary storage unit 33 is a volatile storage medium. This is realized by, for example, a memory such as a random access memory, and temporarily stores information (arguments, arrays, etc.) required when the processing unit 21 operates.
  • the external device connection section 34 is a connection section compliant with standards such as Universal Serial Bus and Bluetooth (registered trademark), and enables connection of the detection device 4 and the like.
  • the communication unit 35 is, for example, a communication means conforming to the local area network standard, and realizes communication between the information processing device 1 and the local area network or the network 2 such as the Internet via the local area network.
  • the communication unit 35 also includes communication means that can communicate via a mobile phone network.
  • the input unit 36 accepts operation input.
  • the display unit 37 displays information and the like on the screen. Note that the input section 36 and the display section 37 may be integrated as a touch panel.
  • FIG. 4 is a diagram showing the configuration of the detection device 4. As shown in FIG. As shown in the figure, the detection device 4 includes a connection section 41, a control section 42, and a detection section 43.
  • the connection unit 41 complies with standards such as Universal Serial Bus and Bluetooth (registered trademark), and enables connection of the information processing terminal 3 and the like.
  • the control unit 42 controls the operation of the detection unit 43 and exchanges information with the information processing terminal 3 and the like.
  • the detection unit 43 has a sensor that detects odor.
  • the sensor included in the detection unit 43 is, for example, a sensor that detects gases such as carbon dioxide, carbon monoxide, methane, butane, and ammonia, or a plurality of crystal oscillator sensors, and each crystal oscillator sensor has a non-specific It has a quartz crystal resonator formed of a thin film that has an adsorption property, and different compounds are deposited on each crystal resonator.
  • the compounds to be deposited are, for example, D-phenylalanine, D-tyrosine, DL-sestidine, D-glucose, adenine, polyethylene, and the like.
  • the resonant frequency changes due to the attachment of odor components, and since the degree of attachment of odor components differs depending on the compound, each crystal resonator sensor can detect different odors.
  • FIG. 5 is a diagram showing the configuration of the detection device 5. As shown in FIG. As shown in the figure, the detection device 5 includes a communication section 51, a control section 52, a detection section 53, a display section 55, and an input section 54.
  • the communication unit 51 is, for example, a communication means conforming to the local area network standard, and realizes communication between the detection device 5 and the local area network or the network 2 such as the Internet via the local area network. Furthermore, the communication unit 51 may also include communication means that can communicate via a mobile phone network.
  • the control unit 52 controls the operation of the detection unit 53 and exchanges information with the information processing device 1 and the like.
  • the detection unit 53 like the detection unit 43, includes a sensor that detects odor.
  • the input unit 54 accepts operation input.
  • the display unit 55 displays information and the like on the screen. Note that the input section 54 and the display section 55 may be integrated as a touch panel.
  • FIG. 6 is a block diagram showing the functional configuration of the information processing device 1.
  • the information processing device 1 includes an acquisition section 101, a generation section 102, a storage section 103, a specification section 104, and a presentation section 105.
  • the acquisition unit 101 executes a first acquisition step and a second acquisition step.
  • the generation unit 102 executes the generation step, and the storage unit 103 stores the reference data, evaluation conditions, etc. generated in the generation step.
  • the specifying unit 104 executes the specifying step, and the presenting unit 105 executes the presenting step.
  • the information processing device 1 includes at least one processor, for example, the processing unit 11, which is capable of executing a program to perform each step of an information processing method, which will be described later, such as an acquisition step, a identification step, and a presentation step.
  • the processing unit 11 which is capable of executing a program to perform each step of an information processing method, which will be described later, such as an acquisition step, a identification step, and a presentation step.
  • each of the functional units shown in FIG. 6 can be configured to function in a separate computer.
  • the information processing system in this case includes at least one processor capable of executing a program to perform each step of the information processing method.
  • Each functional unit is realized by a program that causes a computer to function as the information processing device 1, and the program causes at least one computer to execute each step of the information processing method described below.
  • This information processing method includes a first acquisition step, a identification step, a presentation step, a second acquisition step, and a generation step.
  • the flow of information processing will be explained, but the explanation will be made separately for the generation of reference data and the evaluation of odor. Both processes do not need to be performed consecutively, and may be performed at any timing.
  • the reference data is odor data based on a plurality of predetermined reference odors.
  • FIG. 7 is an activity diagram showing the flow of generating reference data.
  • A101 a set of a plurality of odor data detected from each of the reference odors by a sensor is obtained (A101).
  • the sensor is provided in the detection device 4 or the detection device 5.
  • the reference odor does not represent an odor component such as ammonia, but is an odor that indicates an article or its condition, and usually contains a plurality of odor components.
  • Standard odors are defined not at the elemental level, but according to the target product, etc., and define the odor quality characteristics of each odor in just the right amount and in the least, and with less overlap.
  • the standard odors for sake are berry, cherry, pineapple, apple, peach, grape, muscat, sultana raisin, banana, fig, melon, alcohol, pear, lychee, green apple, fresh green, fern, and hay.
  • the reference data is preferably based on a commercially available reference odor or an existing reference odor.
  • Commercially available standard odors include, for example, those corresponding to the aromas of wine, beer, whiskey, Japanese sake, brandy, and the like.
  • the standard odor names are fruit, green, fat/oil, brown, sour, citrus, other, sulfur, earth, spice, phenol, metallic, fungi, wood, animal odor, incense, flower, etc. Can be classified.
  • the reference odor can be represented, for example, as an aroma wheel shown in FIG. FIG. 8 is a diagram showing an example of an aroma wheel.
  • reference data is generated based on the characteristics of the odor data acquired in the second acquisition step (A102).
  • This reference data is generated by, for example, learning the characteristics of each reference odor by machine learning, and using the learned model as the reference data.
  • the reference data is generated by evaluation by a person, for example, an evaluator
  • odor data detected from the reference object by the sensor and the evaluation for the reference object are obtained (A103).
  • the reference target can be any item, but when generating standard data for sake, any sake is the standard target, and when generating standard data for wine, any wine is the standard target. It is desirable that the product be in accordance with the standard data to be generated.
  • the sensor is provided in the detection device 4 or the detection device 5.
  • the evaluation represents the odor of the reference object by the intensity of each reference odor. Note that when the standard data is generated through evaluation by an evaluator, the evaluator does not need to evaluate all of the standard odors shown in FIG. 8, and as shown in FIG. , the evaluation may be performed using only the reference odor classified as fruit.
  • FIG. 9 is a diagram showing an example of a reference odor used for evaluation by an evaluator.
  • 10 to 12 are diagrams showing examples of evaluation by an evaluator.
  • different brands of sake are used as reference targets, and the intensity of the reference odor is expressed as a percentage of the area within the circle.
  • reference data is generated based on the odor data acquired in the second acquisition step and the evaluation (A104).
  • This reference data is generated by, for example, learning the relationship between the odor data of the reference object and the strength of each reference odor by machine learning, and using the learned model as the reference data.
  • the reference data can include changes in the odor of the reference object over time.
  • the change in odor over time will be explained.
  • the smell and taste of wine, fragrances, etc. are not constant and change due to differences in the volatilization time of each substance, so these cannot be expressed using odor data that shows the odor at a certain point in time. Therefore, by including temporal changes in odor in the reference data, these changes can be reflected in visualization, expanding the range of odor expression.
  • Changes in odor over time are not limited to the volatilization of substances, but can also be due to the progress of fermentation and putrefaction, so odor can also be used to manage fermentation and food management, and this change in odor can be visualized.
  • a collection of odor data that includes changes over time includes changes in odor due to human actions, such as when a person drinks wine that is being poured into a glass, and when the glass is filled with wine. , including changes such as when the glass is empty.
  • FIG. 13 is an activity diagram showing the flow of odor information presentation.
  • evaluation conditions are acquired as a first acquisition step (A201).
  • the evaluation conditions are the type of evaluation target and the designation of the person to whom odor information is to be presented; for example, "present wine evaluation to developers" or "present sake evaluation to consumers”. etc. correspond to evaluation conditions. Note that the acquisition of evaluation conditions can also be omitted.
  • target data is acquired (A202).
  • the target data is odor data detected from the evaluation target by a sensor, and the sensor is provided in the detection device 4 or the detection device 5.
  • the correlation between the target data and at least a portion of the reference data is identified (A203). Specifically, the rate at which each of the reference odors of the reference data is included in the target data is specified.
  • the reason for identifying correlations with at least some of the standard data is that the number of required standard data differs depending on the object of odor information presentation.For example, for developers, it is necessary to identify correlations with all standard odors. However, for consumers, the correlation with some standard odors such as fruit odors will be identified.
  • the identification step the correlation between the reference data corresponding to the odor information presentation target out of the reference data and the target data is identified. Furthermore, since there are multiple types of standard data, such as those for wine and sake, the standard data that corresponds to the evaluation target is used. That is, in the identification step, the correlation between the reference data corresponding to the evaluation target out of the reference data and the target data is identified.
  • the correlation between the target data and the reference data is to specify the proportion of each of the reference odors of the reference data included in the target data. Furthermore, when the reference data includes a change over time in the odor of the reference object, in the identifying step, the target data and the reference data are compared, and a reference object similar to the target data is identified.
  • odor information is generated (A204), and the generated odor information is presented (A205).
  • the odor information is information obtained by visualizing target data based on the correlation identified in the identification step and using the reference data for which the correlation was identified as an index. Note that a specific example of the odor information will be described later.
  • the evaluation result by a person such as an evaluator is acquired (A206), and as a presentation step, odor information is generated (A204), and the generated odor information is presented. (A205).
  • FIG. 14 is a diagram showing an example of presenting odor information in the form of a radar chart.
  • odor information is presented in the form of a radar chart representing the intensity of the reference odor using the reference odor as an index.
  • FIG. 15 is a diagram showing an example of odor information presented using circles.
  • odor information is presented as a set of divided circles, which are divided into circles according to the intensity of the reference odor.
  • FIG. 16 is a diagram showing an example of presenting odor information using objects.
  • the odor information is an image in which objects of colors determined for each reference odor are arranged.
  • the size of the object may vary depending on the intensity, proportion, etc. of the reference odor included in the evaluation target.
  • the color shading of the object may vary depending on the intensity, proportion, etc. of the reference odor included in the evaluation target.
  • the odor information may be represented by the number of objects according to the strength, proportion, etc. of the reference odor included in the evaluation target, and, for example, a painterly image such as pointillism may be presented.
  • FIG. 17 is a diagram showing an example of presenting odor information using an illustration image.
  • the odor information includes an illustration image corresponding to the specific pattern.
  • the background of the illustration image may be the above-described painterly image.
  • a photographed image may be used instead of an illustration image.
  • the target data includes a pattern similar to the smells of "roses" and "grapes,” so the odor information includes images of "roses" and "grapes.” .
  • FIGS. 18 to 20 are diagrams showing examples of presentation information that visualizes changes in odor over time.
  • the odor information includes information that visualizes changes in the odor of the reference object over time.
  • the change in odor over time will be explained.
  • the smell and taste of wine, fragrances, etc. are not constant and change due to differences in the volatilization time of each substance, so these cannot be expressed using odor data that shows the odor at a certain point in time. Therefore, by including temporal changes in odor in the reference data, these changes can be reflected in visualization, expanding the range of odor expression.
  • Changes in odor over time are not limited to the volatilization of substances, but can also be due to the progress of fermentation and putrefaction, so odor can also be used to manage fermentation and food management, and this change in odor can be visualized. If it is possible to do this, it will be possible for many people to engage in these tasks.
  • a collection of odor data that includes changes over time includes changes in odor due to human actions, such as when a person drinks wine that is being poured into a glass, and when the glass is filled with wine. , including changes such as when the glass is empty.
  • odor information is expressed as a slide image or video.
  • the odor information shown in Figure 18 indicates a smell associated with "apple” when the glass is filled with wine
  • the odor information shown in Figure 19 indicates that the glass is full of wine. In its remaining state, it exhibits an odor reminiscent of "melon.”
  • the odor information shown in FIG. 20 indicates an odor associated with "Muscat" when the glass is empty. Note that the odor information may not directly correspond to the odor, but may be associated with the odor, such as a landscape painting or a landscape photograph.
  • An information processing method executed by an information processing system comprising a first acquisition step, a specifying step, and a presentation step, in which the first acquisition step acquires target data;
  • the data is odor data detected from the evaluation target by a sensor, and in the identifying step, a correlation between the target data and at least a part of reference data is identified, and the reference data is based on a plurality of predetermined criteria.
  • the odor data is based on odor, and in the presentation step, odor information is presented, and the odor information is information obtained by visualizing the target data based on the correlation and using the reference data that specified the correlation as an index.
  • Information processing method executed by an information processing system, comprising a first acquisition step, a specifying step, and a presentation step, in which the first acquisition step acquires target data;
  • the data is odor data detected from the evaluation target by a sensor, and in the identifying step, a correlation between the target data and at least a part of reference data is identified, and the reference data is based on
  • the identifying step the correlation between the reference data corresponding to the evaluation target among the reference data and the target data is determined. Information processing method to identify.
  • odor information is a radar chart representing the intensity of the reference odor using the reference odor as an index.
  • the odor information is a set of divided circles obtained by dividing a circle according to the intensity of the reference odor. Method.
  • the odor information An information processing method that includes images corresponding to patterns.
  • the reference data includes a change in odor of a reference object over time
  • the target data and the reference An information processing method in which a reference object similar to the target data is identified by comparing data with the target data, and the odor information includes information visualizing a change in odor of the reference object over time.
  • An information processing system comprising at least one device, which is capable of executing a program to perform each step of the information processing method according to any one of (1) to (14) above.
  • An information processing system that includes one processor.
  • Information processing apparatus comprising at least one processor capable of executing a program so as to perform each step of the information processing method according to any one of (1) to (14) above. Processing equipment.

Landscapes

  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Stored Programmes (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】においの判定や識別を行った結果を、人に容易に認識させることのできる情報処理方法、情報処理システム、情報処理装置及びプログラムを提供する。 【解決手段】本発明の一態様によれば、情報処理システムによって実行される情報処理方法が提供される。この情報処理方法は、第1の取得ステップと、特定ステップと、提示ステップとを備える。第1の取得ステップでは、対象データを取得する。対象データは、センサにより評価対象から検出されたにおいデータである。特定ステップでは、対象データと、基準データの少なくとも一部との相関を特定する。基準データは、予め定めた複数の基準臭に基づくにおいデータである。提示ステップでは、におい情報を提示する。におい情報は、相関に基づいて、該相関を特定した基準データを指標として対象データを可視化した情報である。

Description

情報処理方法、情報処理システム、情報処理装置及びプログラム
 本発明は、情報処理方法、情報処理システム、情報処理装置及びプログラムに関する。
 一般に、においは、視覚により確認できるものではないが、これを可視化するための技術が提案されている(例えば、特許文献1を参照)。また、においから物体を識別するための技術も提案されている(例えば、特許文献2を参照)。
特開2021-76458号公報 WO2020/116490
 ところで、においを可視化する際には、該当するにおいを言葉で表す場合がある。この場合に、用いる言葉を一定の範囲に限ることで、においを的確に表現することが求められている。
 本発明では上記事情を鑑み、においの判定や識別を行った結果を、人に容易に認識させることのできる情報処理方法、情報処理システム、情報処理装置及びプログラムを提供することとした。
 本発明の一態様によれば、情報処理システムによって実行される情報処理方法が提供される。この情報処理方法は、第1の取得ステップと、特定ステップと、提示ステップとを備える。第1の取得ステップでは、対象データを取得する。対象データは、センサにより評価対象から検出されたにおいデータである。特定ステップでは、対象データと、基準データの少なくとも一部との相関を特定する。基準データは、予め定めた複数の基準臭に基づくにおいデータである。提示ステップでは、におい情報を提示する。におい情報は、相関に基づいて、該相関を特定した基準データを指標として対象データを可視化した情報である。
 本発明の一態様によれば、においを視覚で認識させることが可能となる。
本発明の実施形態に係るシステム100の構成例を示した図である。 情報処理装置1の構成を示した図である。 情報処理端末3の構成を示した図である。 検出装置4の構成を示した図である。 検出装置5の構成を示した図である。 情報処理装置1の機能的な構成を示すブロック図である。 基準データの生成の流れを示すアクティビティ図である。 アロマホイールの例を示した図である。 評価士による評価に用いる基準臭の例を示した図である。 評価士による評価例を示した図である。 評価士による評価例を示した図である。 評価士による評価例を示した図である。 におい情報の提示の流れを示すアクティビティ図である。 におい情報をレーダーチャートで提示した例を示した図である。 におい情報を、円を用いて提示した例を示した図である。 オブジェクトを用いて、におい情報を提示した例を示した図である。 イラストイメージを用いて、におい情報を提示した例を示した図である。 においの経時変化を可視化した提示情報の例を示した図である。 においの経時変化を可視化した提示情報の例を示した図である。 においの経時変化を可視化した提示情報の例を示した図である。
 以下、図面を用いて本発明の実施形態について説明する。以下に示す実施形態中で示した各種特徴事項は、互いに組み合わせ可能である。
 ところで、本実施形態に登場するソフトウェアを実現するためのプログラムは、コンピュータが読み取り可能な非一時的な記録媒体(Non-Transitory Computer-Readable Medium)として提供されてもよいし、外部のサーバからダウンロード可能に提供されてもよいし、外部のコンピュータで当該プログラムを起動させてクライアント端末でその機能を実現(いわゆるクラウドコンピューティング)するように提供されてもよい。
 また、本実施形態において「部」とは、例えば、広義の回路によって実施されるハードウェア資源と、これらのハードウェア資源によって具体的に実現されうるソフトウェアの情報処理とを合わせたものも含みうる。また、本実施形態においては様々な情報を取り扱うが、これら情報は、例えば電圧・電流を表す信号値の物理的な値、0又は1で構成される2進数のビット集合体としての信号値の高低、又は量子的な重ね合わせ(いわゆる量子ビット)によって表され、広義の回路上で通信・演算が実行されうる。
 また、広義の回路とは、回路(Circuit)、回路類(Circuitry)、プロセッサ(Processor)、及びメモリ(Memory)等を少なくとも適当に組み合わせることによって実現される回路である。すなわち、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、及びフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))等を含むものである。
1.全体構成
 図1は、本発明の実施形態に係るシステム100の構成例を示した図である。同図に示すように、システム100は、情報処理装置1がネットワーク2に接続されて構成される。ネットワーク2には、情報処理端末3が接続され、情報処理端末3の一部には、検出装置4が接続されている。また、ネットワーク2には、検出装置5が接続されている。なお、ネットワーク2に接続される情報処理端末3の数と、検出装置4の数、検出装置5の数に制限はなく、情報処理端末3と検出装置5とのいずれか1つのみが、ネットワーク2に接続されていればよい。なお、情報処理端末3と、検出装置5は、必要に応じてネットワーク2に接続可能であればよく、常時接続されている必要はない。
 情報処理装置1は、検出装置4や検出装置5が有するセンサにより検出したにおいや、人が評価したにおいの可視化等を行う。ネットワーク2は、情報処理装置1と、情報処理端末3、検出装置5とを通信可能にするネットワークであり、例えば、インターネットを含むものである。情報処理端末3は、タブレット、スマートフォンやコンピュータであり、情報処理装置1との通信と検出装置4の制御とを行う。検出装置4は、センサを有しており、においの検出を行う。検出装置5は、検出装置4と同様に、においの検出を行うとともに、情報処理端末3を介することなく情報処理装置1との通信が可能な構成となっている。
2.情報処理装置1の構成
 次に、情報処理装置1の構成について説明する。図2は、情報処理装置1の構成を示した図である。同図に示すように、情報処理装置1は、処理部11と、記憶部12と、一時記憶部13と、外部装置接続部14と、通信部15とを有しており、これらの構成要素が情報処理装置1の内部において通信バス16を介して電気的に接続されている。
 処理部11は、例えば、中央処理装置(Central Processing Unit:CPU)により実現されるもので、記憶部12に記憶された所定のプログラムに従って動作し、種々の機能を実現する。
 記憶部12は、様々な情報を記憶する不揮発性の記憶媒体である。これは、例えばハードディスクドライブ(Hard Disk Drive:HDD)やソリッドステートドライブ(Solid State Drive:SSD)等のストレージデバイスにより実現される。なお、記憶部12は、情報処理装置1と通信可能な別の装置に配するようにすることも可能である。
 一時記憶部13は、揮発性の記憶媒体である。これは、例えばランダムアクセスメモリ(Random Access Memory:RAM)等のメモリにより実現され、処理部11が動作する際に一時的に必要な情報(引数、配列等)を記憶する。
 外部装置接続部14は、例えばユニバーサルシリアルバス(Universal Serial Bus:USB)や高精細度マルチメディアインターフェース(High-Definition Multimedia Interface:HDMI(登録商標))といった規格に準じた接続部であり、検出装置4やキーボード等の入力装置、モニタ等の表示装置を接続可能としている。
 通信部15は、例えばローカルエリアネットワーク(Local Area Network:LAN)規格に準じた通信手段であり、情報処理装置1とローカルエリアネットワークやこれを介したインターネット等のネットワーク2との間の通信を実現する。
 なお、情報処理装置1には、汎用のサーバ向けのコンピュータやパーソナルコンピュータ等を利用することが可能であり、複数のコンピュータを用いて情報処理装置1を構成したり、情報処理システムとして構成することも可能である。
3.情報処理端末3の構成
 図3は、情報処理端末3の構成を示した図である。同図に示すように、情報処理端末3は、処理部31と、記憶部32と、一時記憶部33と、外部装置接続部34と、通信部35と、入力部36と、表示部37とを有しており、これらの構成要素が情報処理端末3の内部において情通信バス38を介して電気的に接続されている。
 処理部31は、例えば、中央処理装置により実現されるもので、記憶部32に記憶された所定のプログラムに従って動作し、種々の機能を実現する。
 記憶部32は、様々な情報を記憶する不揮発性の記憶媒体である。
 一時記憶部33は、揮発性の記憶媒体である。これは、例えばランダムアクセスメモリ等のメモリにより実現され、処理部21が動作する際に一時的に必要な情報(引数、配列等)を記憶する。
 外部装置接続部34は、例えばユニバーサルシリアルバスやブルートゥース(登録商標)といった規格に準じた接続部であり、検出装置4等を接続可能にする。
 通信部35は、例えばローカルエリアネットワーク規格に準じた通信手段であり、情報処理装置1とローカルエリアネットワークやこれを介したインターネット等のネットワーク2との間の通信を実現する。また、通信部35は、携帯電話網を介して通信可能な通信手段も含む。
 入力部36は、操作入力を受け付ける。表示部37は、情報等を画面表示する。なお、入力部36と表示部37は、タッチパネルとして一体化されていてもよい。
 なお、情報処理端末3には、汎用のスマートフォンやタブレット端末、ノートPC等を利用することが可能である。
4.検出装置4の構成
 図4は、検出装置4の構成を示した図である。同図に示すように、検出装置4は、接続部41と、制御部42と、検出部43とを有している。
 接続部41は、例えばユニバーサルシリアルバスやブルートゥース(登録商標)といった規格に準じたものであり、情報処理端末3等を接続可能にする。制御部42は、検出部43の動作を制御するとともに、情報処理端末3等との間で情報の授受を行う。検出部43は、においを検出するセンサを有している。検出部43が有するセンサは、例えば、二酸化炭素、一酸化炭素、メタン、ブタン、アンモニア等のガスを検知するセンサや、複数の水晶振動子センサであり、各々の水晶振動子センサは、非特異的吸着性を有する薄膜により形成された水晶振動子を有し、それぞれ異なる化合物が蒸着されている。蒸着される化合物は、例えば、Dフェニルアラニン、D-チロシン、DL-セスチジン、Dグルコース、アデニン、ポリエチレン等である。これらは、いずれも、匂いの成分の付着により、共振周波数が変化するもので、匂い成分の付着具合は、化合物によって異なるため、水晶振動子センサの各々が異なる匂いを検知することができる。
5.検出装置5の構成
 図5は、検出装置5の構成を示した図である。同図に示すように、検出装置5は、通信部51と、制御部52と、検出部53と、表示部55と、入力部54とを有している。
 通信部51は、例えばローカルエリアネットワーク規格に準じた通信手段であり、検出装置5とローカルエリアネットワークやこれを介したインターネット等のネットワーク2との間の通信を実現する。また、通信部51は、携帯電話網を介して通信可能な通信手段も含むようにしてもよい。
 制御部52は、検出部53の動作を制御するとともに、情報処理装置1等との間で情報の授受を行う。検出部53は、検出部43と同様に、においを検出するセンサを有している。
 入力部54は、操作入力を受け付ける。表示部55は、情報等を画面表示する。なお、入力部54と表示部55は、タッチパネルとして一体化されていてもよい。
6.情報処理装置1の機能的構成
 次に、情報処理装置1の機能について説明する。図6は、情報処理装置1の機能的な構成を示すブロック図である。同図に示すように、情報処理装置1は、取得部101と、生成部102と、記憶部103と、特定部104と、提示部105とを備える。取得部101は、第1の取得ステップと第2の取得ステップを実行する。生成部102は、生成ステップを実行し、記憶部103は、生成ステップで生成された基準データや評価条件等を記憶する。特定部104は特定ステップを実行し、提示部105は提示ステップを実行する。情報処理装置1は、後述する情報処理方法の各ステップである、取得ステップ、特定ステップ、提示ステップがなされるようにプログラムを実行可能な、少なくとも1つのプロセッサ、例えば処理部11を備える。なお、前述したように、情報処理装置1は、複数のコンピュータで構成することができるため、図6に示した各機能部は、それぞれ別のコンピュータで機能するように構成することができる。この場合の情報処理システムでは、情報処理方法の各ステップがなされるようにプログラムを実行可能な、少なくとも1つのプロセッサを備えることとなる。各機能部は、コンピュータを情報処理装置1として機能させるプログラムにより実現されるもので、当該プログラムは、少なくとも1つのコンピュータに、後述する情報処理方法の各ステップを実行させる。
7.情報処理装置1の情報処理方法
 続いて、情報処理装置1が実行する情報処理方法について説明する。この情報処理方法は、第1の取得ステップと、特定ステップと、提示ステップと、第2の取得ステップと、生成ステップとを備える。ここで、情報処理の流れについて説明するが、説明は、基準データの生成と、においの評価と分けて行う。両者の処理は、連続して行う必要はなく、それぞれ、任意のタイミングで行ってもよい。
 まず、基準データの生成の流れを説明する。基準データは、予め定めた複数の基準臭に基づくにおいデータである。図7は、基準データの生成の流れを示すアクティビティ図である。基準臭を用いて基準データを生成する場合、第2の取得ステップとして、センサにより基準臭のそれぞれから検出された複数のにおいデータの集合を取得する(A101)。センサは、検出装置4又は検出装置5に備えられたものである。また、基準臭は、アンモニア等のにおいの成分を表すものではなく、物品やその状態を示すにおいであり、通常、複数のにおい成分を含むものである。
 基準臭は、元素レベルではなく、対象となる商材等に応じて、それぞれのにおいが持っているにおい質の特徴を過不足なく、かつ重複を少なく定義したものである。例えば、日本酒を対象とした場合の基準臭は、ベリー、さくらんぼ、パイナップル、りんご、桃、グレープ、マスカット、サルタナレーズン、バナナ、いちじく、メロン、アルコール、洋梨、ライチ、青リンゴ、フレッシュグリーン、シダ、干し草、野菜、青草、ワキシー、バター、クリーミィ、ファッティ、ロースト、穀物、カラメル、ナッツ、発酵酸臭、乳製品、酸臭、ライム、橙皮、レモン、ミネラル、プラスチック、ゴム様、硫黄臭、段ボール、アーシー、セイボリースパイス、スイートスパイス、燻臭、薬臭、メタリック、きのこ、ウッディ、アニマリック、オリエンタル、フローラル等である。また、基準データとしては、市販の基準臭、既存の基準臭に基づくものであることが望ましい。市販の基準臭としては、例えば、ワイン、ビール、ウィスキー、日本酒、ブランデー等の香りに対応したものが存在する。基準臭の名称は、果実、グリーン、脂/油、ブラウン、酸臭、柑橘、その他、硫黄、土、スパイス、フェノール、金属臭、菌類、木質、動物臭、インセンス、花等の名称毎に分類することができる。基準臭は、例えば、図8に示すアロマホイールとして表すことができる。図8は、アロマホイールの例を示した図である。
 続いて、生成ステップとして、第2の取得ステップで取得したにおいデータの特徴に基づいて基準データを生成する(A102)。この基準データの生成は、例えば、機械学習により、各基準臭の特徴を学習し、その学習済みモデルを基準データとすることで行われる。
 また、人、例えば、評価士による評価により基準データを生成する場合、第2の取得ステップとして、センサにより基準対象から検出されたにおいデータと、該基準対象に対する評価とを取得する(A103)。基準対象は、任意の物品でよいが、日本酒用の基準データを生成する場合には、任意の日本酒を基準対象とし、ワイン用の基準データを生成する場合には、任意のワインを基準対象とするなど、生成する基準データに応じた物品であることが望ましい。センサは、検出装置4又は検出装置5に備えられたものである。また、評価は、基準対象のにおいを基準臭のそれぞれの強度により表したものである。なお、評価士による評価により基準データを生成する場合、評価士は、図8に示した基準臭の全てについて評価する必要はなく、図9に示すように、図8に示した基準臭のうち、果実に分類される基準臭のみで評価を行ってもよい。図9は、評価士による評価に用いる基準臭の例を示した図である。
 図10乃至図12は、評価士による評価例を示した図である。これらの図では、それぞれ、銘柄の異なる日本酒を基準対象としたもので、基準臭の強度を円中の面積の割合で表したものである。
 続いて、生成ステップとして、第2の取得ステップで取得したにおいデータと、評価とに基づいて基準データを生成する(A104)。この基準データの生成は、例えば、機械学習により、基準対象のにおいデータと各基準臭の強さとの関係を学習し、その学習済みモデルを基準データとすることで行われる。
 ところで、基準データは、基準物体のにおいの経時変化を含むようにすることができる。ここで、においの経時変化について説明する。例えば、ワインや香料等は、物質毎の揮発時間の違いにより、においや味が一定ではなく変化するため、ある時点でのにおいを示すにおいデータではこれらを表現することができない。このため、においの時間変化も基準データに含めることで、その変化も可視化に反映でき、においの表現の幅が広がることになる。においの経時変化は、物質の揮発に限らず、発酵や腐敗の進行を理由とする場合もあるため、発酵の管理や、食料の管理にもにおいを用いることができ、このにおいの変化を可視化することができれば、多くの人が、これらの作業に従事することも可能となる。なお、経時変化を含むにおいデータの集合には、人の行為に伴うにおいの変化、例えば、グラスに注がれているワインを人が飲んだ場合に、ワインがグラスに満たされている状態と、グラスが空になった状態といった変化も含む。
 次に、基準データに基づくにおいの評価と、におい情報の提示について説明する。図13は、におい情報の提示の流れを示すアクティビティ図である。まず、におい情報の提示に際して、第1の取得ステップとして、評価条件を取得する(A201)。評価条件は、評価対象の種別や、におい情報を提示する対象者の指定であり、例えば、「ワインの評価を開発者向けに提示する」や、「日本酒の評価を消費者向けに提示する」等が評価条件に相当する。なお、評価条件の取得は省略することも可能である。
 続いて、第1の取得ステップとして、対象データを取得する(A202)。対象データは、センサにより評価対象から検出されたにおいデータであり、センサは、検出装置4又は検出装置5に備えられたものである。そして、特定ステップでは、対象データと、基準データの少なくとも一部との相関を特定する(A203)。具体的には、対象データに、基準データの基準臭のそれぞれが含まれる割合を特定する。基準データの少なくとも一部との相関を特定するのは、におい情報の提示対象により、必要となる基準データの数が異なるためで、例えば、開発者向けには全ての基準臭との相関を特定し、消費者向けには、果実臭等の基準臭の一部との相関を特定する。つまり、特定ステップでは、基準データのうちにおい情報の提示対象に応じた基準データと、対象データとの相関を特定することとなる。また、基準データは、ワイン用、日本酒用など、複数種類が存在するため、これらのうち、評価対象に応じた基準データを用いることになる。つまり、特定ステップでは、基準データのうち評価対象に応じた基準データと、対象データとの相関を特定することとなる。
 対象データと基準データとの相関は、具体的には、対象データに、基準データの基準臭のそれぞれが含まれる割合を特定することである。また、基準データが基準物体のにおいの経時変化を含む場合には、特定ステップでは、対象データと基準データとを比較し、該対象データと類似する基準物体を特定する。
 次に、提示ステップとして、におい情報を生成し(A204)、生成したにおい情報を提示する(A205)。におい情報は、特定ステップで特定した相関に基づいて、その相関を特定した基準データを指標として対象データを可視化した情報である。なお、におい情報の具体例については後述する。
 また、情報処理装置1では、第3の取得ステップとして、評価士等の人による評価結果を取得し(A206)、提示ステップとして、におい情報を生成し(A204)、生成したにおい情報を提示する(A205)、ようにすることもできる。
 ここで、におい情報の提示例を数例説明する。図14は、におい情報をレーダーチャートで提示した例を示した図である。同図では、におい情報は、基準臭を指標として、その基準臭の強さを表すレーダーチャートで提示される。
 図15は、におい情報を、円を用いて提示した例を示した図である。同図では、におい情報は、円を基準臭の強さに応じて分割した分割円の集合で提示される。
 図16は、オブジェクトを用いて、におい情報を提示した例を示した図である。同図に示す例では、におい情報は、基準臭毎に定めた色のオブジェクトを配置した画像である。このとき、オブジェクトの大きさは、評価対象に含まれる基準臭の強さや割合等に応じて異なるようにしてもよい。また、オブジェクトの色の濃淡は、評価対象に含まれる基準臭の強さや割合等に応じて異なるようにしてもよい。また、におい情報を、評価対象に含まれる基準臭の強さや割合等に応じたオブジェクトの数で表し、例えば、点描画のように絵画風な画像を提示するようにしてもよい。
 図17は、イラストイメージを用いて、におい情報を提示した例を示した図である。同図に示す例では、におい情報は、対象データに、基準臭の組み合わせの特定パターンが含まれる場合に、その特定パターンに対応するイラストイメージ画像を含むようにしたものである。このとき、イラストイメージの背景は、上述した絵画風の画像であってもよい。また、イラストイメージに変えて、写真撮影したイメージを用いるようにしてもよい。なお、同図に示した例では、対象データに、「ばら」と「ぶどう」のにおいと類似するパターンが含まれているため、におい情報に「ばら」と「ぶどう」のイメージを含めている。
 図18乃至図20は、においの経時変化を可視化した提示情報の例を示した図である。これらの図では、におい情報は、基準物体のにおいの経時変化を可視化した情報を含むようにしている。ここで、においの経時変化について説明する。例えば、ワインや香料等は、物質毎の揮発時間の違いにより、においや味が一定ではなく変化するため、ある時点でのにおいを示すにおいデータではこれらを表現することができない。このため、においの時間変化も基準データに含めることで、その変化も可視化に反映でき、においの表現の幅が広がることになる。においの経時変化は、物質の揮発に限らず、発酵や腐敗の進行を理由とする場合もあるため、発酵の管理や、食料の管理にもにおいを用いることができ、このにおいの変化を可視化することができれば、多くの人が、これらの作業に従事することも可能となる。なお、経時変化を含むにおいデータの集合には、人の行為に伴うにおいの変化、例えば、グラスに注がれているワインを人が飲んだ場合に、ワインがグラスに満たされている状態と、グラスが空になった状態といった変化も含む。
 においの経時変化を可視化する場合、におい情報は、スライド画像又は動画で表現される。例えば、図18に示したにおい情報は、ワインがグラスに満たされている状態で、「りんご」が連想されるにおいを示しており、図19に示したにおい情報は、ワインがグラスに少しだけ残されている状態で、「メロン」が連想されるにおいを示している。また、図20に示したにおい情報は、グラスが空になった状態で、「マスカット」が連想されるにおいを示している。なお、におい情報には、においに直接対応するものではなく、においから連想されるもの、例えば、風景画、風景写真等を用いてもよい。
8.その他
 本発明は、次に記載の各態様で提供されてもよい。
(1)情報処理システムによって実行される情報処理方法であって、第1の取得ステップと、特定ステップと、提示ステップとを備え、前記第1の取得ステップでは、対象データを取得し、前記対象データは、センサにより評価対象から検出されたにおいデータであり、前記特定ステップでは、前記対象データと、基準データの少なくとも一部との相関を特定し、前記基準データは、予め定めた複数の基準臭に基づくにおいデータであり、前記提示ステップでは、におい情報を提示し、前記におい情報は、前記相関に基づいて、該相関を特定した前記基準データを指標として前記対象データを可視化した情報である情報処理方法。
(2)上記(1)に記載の情報処理方法において、第2の取得ステップと、生成ステップとを備え、前記第2の取得ステップでは、センサにより前記基準臭のそれぞれから検出された複数のにおいデータの集合を取得し、前記生成ステップでは、前記第2の取得ステップで取得したにおいデータの特徴に基づいて前記基準データを生成する情報処理方法。
(3)上記(1)に記載の情報処理方法において、第2の取得ステップと、生成ステップとを備え、前記第2の取得ステップでは、センサにより基準対象から検出されたにおいデータと、該基準対象に対する評価とを取得し、前記評価は、前記基準対象のにおいを前記基準臭のそれぞれの強度により表したものであり、前記生成ステップでは、前記第2の取得ステップで取得したにおいデータと、前記評価とに基づいて前記基準データを生成する情報処理方法。
(4)上記(1)乃至(3)のいずれか1つに記載の情報処理方法において、前記基準臭は、複数のにおい成分を含む情報処理方法。
(5)上記(1)乃至(4)のいずれか1つに記載の情報処理方法において、前記特定ステップでは、前記基準データのうち前記におい情報の提示対象に応じた基準データと、前記対象データとの相関を特定する情報処理方法。
(6)上記(1)乃至(5)のいずれか1つに記載の情報処理方法において、前記特定ステップでは、前記基準データのうち前記評価対象に応じた基準データと、前記対象データとの相関を特定する情報処理方法。
(7)上記(1)乃至(6)のいずれか1つに記載の情報処理方法において、前記におい情報は、前記基準臭を指標として該基準臭の強さを表すレーダーチャートである情報処理方法。
(8)上記(1)乃至(6)のいずれか1つに記載の情報処理方法において、前記におい情報は、円を前記基準臭の強さに応じて分割した分割円の集合である情報処理方法。
(9)上記(1)乃至(7)のいずれか1つに記載の情報処理方法において、前記におい情報は、前記基準臭毎に定めた色のオブジェクトを配置した画像である情報処理方法。
(10)上記(9)に記載の情報処理方法において、前記オブジェクトの大きさは、前記評価対象に含まれる前記基準臭の強さに応じて異なる情報処理方法。
(11)上記(9)又は(10)に記載の情報処理方法において、前記オブジェクトの色の濃淡は、前記評価対象に含まれる前記基準臭の強さに応じて異なる情報処理方法。
(12)上記(8)乃至(11)のいずれか1つに記載の情報処理方法において、前記におい情報は、前記対象データに、前記基準臭の組み合わせの特定パターンが含まれる場合に、該特定パターンに対応するイメージ画像を含む情報処理方法。
(13)上記(1)乃至(12)のいずれか1つに記載の情報処理方法において、前記基準データは、基準物体のにおいの経時変化を含み、前記特定ステップでは、前記対象データと前記基準データとを比較し、該対象データと類似する基準物体を特定し、前記におい情報は、前記基準物体のにおいの経時変化を可視化した情報を含む情報処理方法。
(14)上記(13)に記載の情報処理方法において、前記におい情報は、スライド画像又は動画である情報処理方法。
(15)少なくとも1つの装置からなる情報処理システムであって、上記(1)乃至(14)のいずれか1つに記載の情報処理方法の各ステップがなされるようにプログラムを実行可能な、少なくとも1つのプロセッサを備える情報処理システム。
(16)情報処理装置であって、上記(1)乃至(14)のいずれか1つに記載の情報処理方法の各ステップがなされるようにプログラムを実行可能な、少なくとも1つのプロセッサを備える情報処理装置。
(17)プログラムであって、少なくとも1つのコンピュータに、上記(1)乃至(14)のいずれか1つに記載の情報処理方法の各ステップを実行させるプログラム。
 もちろん、この限りではない。
1:情報処理装置,2:ネットワーク,3:情報処理端末,4:検出装置,5:検出装置,11:処理部,12:記憶部,13:一時記憶部,14:外部装置接続部,15:通信部,16:通信バス,21:処理部,31:処理部,32:記憶部,33:一時記憶部,34:外部装置接続部,35:通信部,36:入力部,37:表示部,38:情通信バス,41:接続部,42:制御部,43:検出部,51:通信部,52:制御部,53:検出部,54:入力部,55:表示部,100:システム,101:取得部,102:生成部,103:記憶部,104:特定部,105:提示部

Claims (17)

  1.  情報処理システムによって実行される情報処理方法であって、
     第1の取得ステップと、特定ステップと、提示ステップとを備え、
     前記第1の取得ステップでは、対象データを取得し、
      前記対象データは、センサにより評価対象から検出されたにおいデータであり、
     前記特定ステップでは、前記対象データと、基準データの少なくとも一部との相関を特定し、
      前記基準データは、予め定めた複数の基準臭に基づくにおいデータであり、
     前記提示ステップでは、におい情報を提示し、
      前記におい情報は、前記相関に基づいて、該相関を特定した前記基準データを指標として前記対象データを可視化した情報である
     情報処理方法。
  2.  請求項1に記載の情報処理方法において、
     第2の取得ステップと、生成ステップとを備え、
     前記第2の取得ステップでは、センサにより前記基準臭のそれぞれから検出された複数のにおいデータの集合を取得し、
     前記生成ステップでは、前記第2の取得ステップで取得したにおいデータの特徴に基づいて前記基準データを生成する
     情報処理方法。
  3.  請求項1に記載の情報処理方法において、
     第2の取得ステップと、生成ステップとを備え、
     前記第2の取得ステップでは、センサにより基準対象から検出されたにおいデータと、該基準対象に対する評価とを取得し、
      前記評価は、前記基準対象のにおいを前記基準臭のそれぞれの強度により表したものであり、
     前記生成ステップでは、前記第2の取得ステップで取得したにおいデータと、前記評価とに基づいて前記基準データを生成する
     情報処理方法。
  4.  請求項1乃至請求項3のいずれか1項に記載の情報処理方法において、
     前記基準臭は、複数のにおい成分を含む
     情報処理方法。
  5.  請求項1乃至請求項4のいずれか1項に記載の情報処理方法において、
     前記特定ステップでは、前記基準データのうち前記におい情報の提示対象に応じた基準データと、前記対象データとの相関を特定する
     情報処理方法。
  6.  請求項1乃至請求項5のいずれか1項に記載の情報処理方法において、
     前記特定ステップでは、前記基準データのうち前記評価対象に応じた基準データと、前記対象データとの相関を特定する
     情報処理方法。
  7.  請求項1乃至請求項6のいずれか1項に記載の情報処理方法において、
     前記におい情報は、前記基準臭を指標として該基準臭の強さを表すレーダーチャートである
     情報処理方法。
  8.  請求項1乃至請求項6のいずれか1項に記載の情報処理方法において、
     前記におい情報は、円を前記基準臭の強さに応じて分割した分割円の集合である
     情報処理方法。
  9.  請求項1乃至請求項7のいずれか1項に記載の情報処理方法において、
     前記におい情報は、前記基準臭毎に定めた色のオブジェクトを配置した画像である
     情報処理方法。
  10.  請求項9に記載の情報処理方法において、
     前記オブジェクトの大きさは、前記評価対象に含まれる前記基準臭の強さに応じて異なる
     情報処理方法。
  11.  請求項9又は請求項10に記載の情報処理方法において、
     前記オブジェクトの色の濃淡は、前記評価対象に含まれる前記基準臭の強さに応じて異なる
     情報処理方法。
  12.  請求項8乃至請求項11のいずれか1項に記載の情報処理方法において、
     前記におい情報は、前記対象データに、前記基準臭の組み合わせの特定パターンが含まれる場合に、該特定パターンに対応するイメージ画像を含む
     情報処理方法。
  13.  請求項1乃至請求項12のいずれか1項に記載の情報処理方法において、
     前記基準データは、基準物体のにおいの経時変化を含み、
     前記特定ステップでは、前記対象データと前記基準データとを比較し、該対象データと類似する基準物体を特定し、
     前記におい情報は、前記基準物体のにおいの経時変化を可視化した情報を含む
     情報処理方法。
  14.  請求項13に記載の情報処理方法において、
     前記におい情報は、スライド画像又は動画である
     情報処理方法。
  15.  少なくとも1つの装置からなる情報処理システムであって、
     請求項1乃至請求項14のいずれか1項に記載の情報処理方法の各ステップがなされるようにプログラムを実行可能な、少なくとも1つのプロセッサを備える
    情報処理システム。
  16.  情報処理装置であって、
     請求項1乃至請求項14のいずれか1項に記載の情報処理方法の各ステップがなされるようにプログラムを実行可能な、少なくとも1つのプロセッサを備える
    情報処理装置。
  17.  プログラムであって、
     少なくとも1つのコンピュータに、請求項1乃至請求項14のいずれか1項に記載の情報処理方法の各ステップを実行させる
     プログラム。
PCT/JP2023/023742 2022-06-28 2023-06-27 情報処理方法、情報処理システム、情報処理装置及びプログラム WO2024004993A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022103414 2022-06-28
JP2022-103414 2022-06-28

Publications (1)

Publication Number Publication Date
WO2024004993A1 true WO2024004993A1 (ja) 2024-01-04

Family

ID=89383116

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/023742 WO2024004993A1 (ja) 2022-06-28 2023-06-27 情報処理方法、情報処理システム、情報処理装置及びプログラム

Country Status (1)

Country Link
WO (1) WO2024004993A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003315298A (ja) * 2002-02-19 2003-11-06 Shimadzu Corp におい測定装置
JP2017190982A (ja) * 2016-04-12 2017-10-19 日本電子株式会社 質量分析装置および画像生成方法
JP2018031882A (ja) * 2016-08-24 2018-03-01 花王株式会社 香気変動表示方法及び情報処理装置
JP2021071348A (ja) * 2019-10-30 2021-05-06 株式会社東芝 情報処理装置、情報処理方法及びプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003315298A (ja) * 2002-02-19 2003-11-06 Shimadzu Corp におい測定装置
JP2017190982A (ja) * 2016-04-12 2017-10-19 日本電子株式会社 質量分析装置および画像生成方法
JP2018031882A (ja) * 2016-08-24 2018-03-01 花王株式会社 香気変動表示方法及び情報処理装置
JP2021071348A (ja) * 2019-10-30 2021-05-06 株式会社東芝 情報処理装置、情報処理方法及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
HAYASHI KENSHI: "Visualization of Space and Quality of Smells Using Two-Dimensional Chemical Sensors", KYUSHU UNIVERSITY INSTITUTIONAL REPOSITOR, 10 August 2018 (2018-08-10), XP093122616, Retrieved from the Internet <URL:https://catalog.lib.kyushu-u.ac.jp/opac_download_md/1937147/Prof.Hayashi.20180810.pdf> [retrieved on 20240123] *

Similar Documents

Publication Publication Date Title
Yang et al. Application of sensory descriptive analysis and consumer studies to investigate traditional and authentic foods: A review
Suwonsichon The importance of sensory lexicons for research and development of food products
US9230194B2 (en) Training image sampling
CN107992583B (zh) 信息推送方法及信息推送装置、设备和存储介质
Forbes et al. Content-boosted matrix factorization for recommender systems: experiments with recipe recommendation
US10395120B2 (en) Method, apparatus, and system for identifying objects in video images and displaying information of same
US9489377B1 (en) Inferring recipe difficulty
CN107092608B (zh) 一种目标对象的搜索、推荐方法和设备
Seisonen et al. The current practice in the application of chemometrics for correlation of sensory and gas chromatographic data
Meyners Temporal liking and CATA analysis of TDS data on flavored fresh cheese
US20130149679A1 (en) System and methods for virtual cooking with recipe optimization
Nambu et al. Visual-olfactory display using olfactory sensory map
Sun et al. Curious objects: How visual complexity guides attention and engagement
US20130149677A1 (en) System and methods for virtual cooking with food pairing
CN112329509A (zh) 食材过期提醒方法、装置、智能冰箱和存储介质
Sánchez et al. Determination of the masking effect of the ‘zapateria’defect in flavoured stuffed olives using E-nose
CN110953838B (zh) 一种冰箱内食材采买提示方法、存储介质和冰箱
WO2024004993A1 (ja) 情報処理方法、情報処理システム、情報処理装置及びプログラム
WO2018165671A1 (en) Methods and systems for determining an internal property of a food product
Vishne et al. Distinct ventral stream and prefrontal cortex representational dynamics during sustained conscious visual perception
Hernández-Mora et al. Consumer studies: Beyond acceptability—a case study with beer
Boniecki et al. SOFM-type artificial neural network for the non-parametric quality-based classification of potatoes
CA2993010C (en) Analyzing user access of media for meal plans
Hamel et al. Does color influence eye movements while exploring videos?
Gold Information processing correlates of a size-contrast illusion

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23831433

Country of ref document: EP

Kind code of ref document: A1