WO2021059642A1 - 情報処理装置、制御方法、プログラム - Google Patents

情報処理装置、制御方法、プログラム Download PDF

Info

Publication number
WO2021059642A1
WO2021059642A1 PCT/JP2020/025472 JP2020025472W WO2021059642A1 WO 2021059642 A1 WO2021059642 A1 WO 2021059642A1 JP 2020025472 W JP2020025472 W JP 2020025472W WO 2021059642 A1 WO2021059642 A1 WO 2021059642A1
Authority
WO
WIPO (PCT)
Prior art keywords
odor
source
nose
user
control unit
Prior art date
Application number
PCT/JP2020/025472
Other languages
English (en)
French (fr)
Inventor
英佑 藤縄
哲男 池田
真秀 林
晴彦 矢田
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Publication of WO2021059642A1 publication Critical patent/WO2021059642A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61LMETHODS OR APPARATUS FOR STERILISING MATERIALS OR OBJECTS IN GENERAL; DISINFECTION, STERILISATION OR DEODORISATION OF AIR; CHEMICAL ASPECTS OF BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES; MATERIALS FOR BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES
    • A61L9/00Disinfection, sterilisation or deodorisation of air
    • A61L9/015Disinfection, sterilisation or deodorisation of air using gaseous or vaporous substances, e.g. ozone
    • A61L9/04Disinfection, sterilisation or deodorisation of air using gaseous or vaporous substances, e.g. ozone using substances evaporated in the air without heating
    • A61L9/12Apparatus, e.g. holders, therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61LMETHODS OR APPARATUS FOR STERILISING MATERIALS OR OBJECTS IN GENERAL; DISINFECTION, STERILISATION OR DEODORISATION OF AIR; CHEMICAL ASPECTS OF BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES; MATERIALS FOR BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES
    • A61L9/00Disinfection, sterilisation or deodorisation of air
    • A61L9/14Disinfection, sterilisation or deodorisation of air using sprayed or atomised substances including air-liquid contact processes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer

Definitions

  • This technology relates to an information processing device that controls the output of an odor when the user perceives an odor from a virtual odor source, a control method thereof, and a technical field of a program.
  • VR Virtual Reality
  • AR Augmented Reality
  • AR space augmented reality space
  • a virtually generated object is superimposed on an image from an image pickup device directed to the real space, as if the virtual object exists in the real space reflected in the image.
  • User experience is provided.
  • AR technology there is one that projects an image of a virtual object onto a real space by a projector device to provide a user experience as if the virtual object exists in the real space.
  • an AR technology it is considered to provide an olfactory user experience in addition to a visual user experience.
  • Patent Document 1 presents an olfactory sensation to each user by detecting the position of the nose of a plurality of users who view an image and deforming a nozzle according to each user to emit fragrance. The technology to be performed is disclosed.
  • Patent Document 1 is a technique for causing a plurality of users who see a virtual object in a display to perceive an odor, and although the position of the nose of each user is detected, the position of the virtual object is detected. Not. Therefore, when the technique of Patent Document 1 is applied to the AR space, it is difficult to express that the target odor is scented from a virtual object (virtual odor source). In other words, it is difficult to accurately express the phenomenon in the real world that the odor is transmitted from the odor source, and it is difficult to enhance the user's immersive feeling in the AR space.
  • a virtual object virtual odor source
  • This technology was made in view of the above circumstances, and aims to enhance the user's immersive feeling in the AR space regarding the presentation of olfaction.
  • the information processing device outputs an odor based on the positional relationship between a setting unit that sets a virtual odor source at a predetermined position corresponding to the real space and the position of the odor source and the user's nose. It includes a control unit that performs control. By controlling the output of the odor based on the positional relationship between the position of the user's nose and the odor source as described above, it is possible to express that the odor is being scented from the odor source.
  • control unit controls the intensity of the odor according to the distance between the odor source and the position of the nose. This makes it possible for the user to perceive the odor with an appropriate intensity according to the distance from the odor source, such as increasing the intensity of the odor when the position of the nose is located near the odor source. ..
  • control unit sets the odor presentation position on a straight line passing through the nose position and the odor source. This makes it possible to transmit the odor from the direction in which the odor source exists to the position of the nose.
  • control unit sets a presentation position of the odor based on the position of the nose and the position of the odor source, and controls to output the odor to the presentation position. It is conceivable that the configuration is such that This makes it possible to present the odor at a position appropriate for expressing that the odor is being emitted from the odor source.
  • the control unit controls the intensity of the odor output to the presentation position according to the positional relationship between the presentation position, the nose position, and the odor source. Is conceivable. As a result, even if the presentation position is set to a position different from the odor source, the user is made to perceive the odor with an appropriate intensity based on the positional relationship of the presentation position, the nose position, and the odor source. Is possible.
  • the control unit determines whether or not the odor source exists within the presentable range, which is the range in which the odor presenting device can present the odor to the user. Based on the determination result, it is conceivable that the odor presenting position is set by the odor presenting device. This makes it possible to set an appropriate odor presentation position depending on whether the odor source is within the presentable range or not. That is, even when the odor source is located outside the presentable range due to the narrow presentable range or the like, it is possible to appropriately control the output of the odor.
  • the control unit determines that the odor source does not exist within the presentable range
  • the straight line passing through the nose position and the odor source is described. It is conceivable that the presentation position is set based on the result of determining whether or not it overlaps with the presentable range. As a result, even if the odor source is not within the presentable range and the odor presentation position cannot be set to the odor source position, the straight line passing between the nose position and the odor source should overlap with the presentable range. For example, it is possible to set the presentation position on the straight line.
  • the control unit when the control unit determines that the straight line overlaps with the presentable range, the control unit sets the presenting position at a position on the straight line within the presentable range. It is conceivable that the configuration is such that This makes it possible to transmit the odor from the direction in which the odor source exists to the nose position even when the odor source is located outside the range in which the odor can be presented.
  • the control unit determines that the straight line does not overlap with the presentable range
  • the control unit is set to a position that minimizes the distance from the straight line within the presentable range.
  • the presentation position is set. As a result, if the odor source is outside the presentable range of the odor and the straight line passing through the nose position and the odor source does not overlap the presentable range, the position is as close as possible to the straight line within the presentable range.
  • the presentation position is set.
  • the control unit has a configuration in which the presentation position on the straight line is changed according to a condition.
  • the presentation position is set close to the position of the nose on the straight line to accelerate the timing at which the odor from the odor source is perceived, and under other conditions, the position of the nose on the straight line. It is possible to set the presentation position at a position far from the odor source and delay the timing at which the odor from the odor source is perceived.
  • the control unit controls the intensity of the odor according to the direction of the user's nose with respect to the odor source.
  • the direction of the odor source can be specified by the user sniffing the odor while changing the direction of the nose. At this time, the direction of the odor source is perceived as a direction in which the intensity of the odor is high. Therefore, by controlling the intensity of the odor according to the direction of the nose with respect to the odor source as described above, it is possible to make the user perceive the direction of the odor source.
  • the control unit outputs an odor based on the result of determining whether or not the nose position is within the odor effect range defined for the odor source. It is conceivable to have a configuration for controlling. This makes it possible to prevent the output of the odor when the position of the nose is not within the effective range of the odor by the odor source.
  • control unit is configured to control the output of the odor intermittently within the odor presentation period from the odor source. This eliminates the need to continuously perform the odor output operation of the odor presenting device during the odor presenting period.
  • the control unit has a configuration in which the odor source is duplicated in response to the detection of a predetermined gesture for the odor source by the user.
  • the odor source associated with the instruction information of following the touched finger position is duplicated according to the gesture of touching the odor source, or the odor source is fanned according to the gesture of fanning the odor source by hand. It is possible to duplicate an odor source associated with instruction information for moving in a direction.
  • control unit may be configured to follow the position of the odor source duplicated in response to the detection of the gesture to the part of the user who touches the odor source. Conceivable. As a result, for example, when the user touches the odor source, the odor source is duplicated at the part of the user who touches the odor source, and the duplicated odor source is also moved according to the movement of the part. That is, it is reproduced that the odor of the odor source is transferred to the portion where the odor source is touched.
  • the control unit duplicates the odor source in response to the detection of the gesture that the user manually fans the odor source, and the duplicated odor source is used as the duplicated odor source. It is conceivable that the device is moved in the direction of fanning by hand. This makes it possible to reproduce that the scent moves in the direction of the fan when the scent source is fanned.
  • control unit may be configured to stop presenting the odor of the duplicated odor source in response to the detection of a predetermined gesture by the user. Conceivable. This makes it possible to stop the presentation of the odor about the duplicated odor source according to the intention of the user.
  • the control unit outputs the type of odor or the type of odor to be output to the presenting device according to the change of the image superimposed and projected on the object in the real space set as the odor source. It is conceivable that the structure changes the intensity of the odor. This makes it possible to change the type and intensity of the odor in conjunction with the visual indication of changes in the type and state of the object as a virtual odor source.
  • a virtual odor source is set at a predetermined position corresponding to the real space, and the odor output control is performed based on the positional relationship between the odor source and the position of the user's nose. This is the control method to be performed. Even with such a control method, the same operation as that of the information processing apparatus according to the present technology can be obtained.
  • the program according to the present technology is a program that can be read by a computer device, sets a virtual odor source at a predetermined position corresponding to the real space, and positions the odor source and the position of the user's nose. It is a program that causes the computer device to execute a process of controlling the output of an odor based on the relationship. Such a program makes it possible to realize the information processing apparatus according to the present technology described above.
  • FIG. 1 shows a configuration example of an AR (Augmented Reality) system 50 including an information processing device (smell control processing unit 1) as an embodiment according to the present technology.
  • the AR system 50 includes an odor control processing unit 1, an input unit 2, a recognition processing unit 3, an image generation unit 4, an image output unit 5, and an odor presentation device 6.
  • the input unit 2 has an image sensor, a depth sensor, a touch sensor, and the like, and obtains detection information for recognizing the position of a user or an object in real space, and a state such as posture or movement.
  • an image sensor capable of acquiring a two-dimensional image a sensor having sensitivity to visible light, a sensor having sensitivity to infrared light, and the like can be used.
  • a depth sensor capable of acquiring three-dimensional information a sensor using a stereo camera, a sensor for distance measurement by a ToF (Time of Flight) method, a structured light (structured light) method, or the like can be used.
  • An ultrasonic sensor or the like can also be used as a sensor for acquiring the position and state of an object.
  • the touch sensor is provided as a touch panel on the screen of the display device when the image output unit 5 described later is a display device that displays information on a liquid crystal panel, an organic EL panel, or the like.
  • the recognition processing unit 3 is configured as an arithmetic processing unit that inputs the detection information obtained by the input unit 2 and recognizes the position of the user or an object, and the state such as posture and movement.
  • a marker image or a machine learning database learned in advance from the image to be recognized is generally used to specify a two-dimensional position in the image.
  • the recognition process using the three-dimensional information it is common to specify the three-dimensional position of the target by using a machine learning database learned by the shape of the recognition target.
  • the recognition processing unit 3 has a recognition function for a specific part such as a user's hand or face.
  • the recognition processing unit 3 in this example has a function of recognizing the position of the user's nose.
  • the recognition of the nose may be impossible due to the influence of noise or the like included in the detection information of the input unit 2.
  • the recognized face position for example, the center position of the face
  • the position of the nose is estimated from other recognized parts.
  • the position of the user's nose is not limited to strictly representing the position of the nose itself, but is a concept that includes a position that can be regarded as the position of the nose, such as the position of the face.
  • the "nose position” may be referred to as the "nose position”.
  • the recognition processing unit 3 in this example recognizes the gesture and the operation input by the user.
  • the gesture by the user for example, a gesture of touching a specific object in the real space, a gesture of fanning by hand, or the like can be recognized.
  • the operation input the presence / absence of the operation input by touching the image of the operator such as a button displayed by the image output unit 5 described later is recognized.
  • the presence / absence of an operation input is recognized depending on whether or not the user's finger is positioned at the position where the image of the operator is displayed.
  • the recognition processing unit 3 when the recognition processing unit 3 recognizes an object, a user's hand, or a nose, the recognition processing unit 3 generates management information for managing each object.
  • 2 to 4 show examples of such management information
  • FIG. 2 shows examples of hand management information
  • FIG. 3 shows examples of nose management information
  • FIG. 4 shows examples of object management information.
  • the recognition processing unit 3 allocates a hand ID, a nose ID, and an object ID, respectively. Each ID is assigned when it is recognized, and the same ID is assigned until the target is lost.
  • position and state information is associated with the hand ID.
  • the position of the fingertip of a specific finger for example, the index finger
  • the state information is information for identifying the state of the hand, including the gesture described above.
  • the information of the state is identified from the states defined by the definition information of FIG. 27, which will be described later, and the corresponding number information is stored.
  • the recognition of the hand state can be performed, for example, by using a model in which the posture information of the hand obtained from the two-dimensional image or the three-dimensional image is learned in advance for each type. Only one hand condition is assigned to each hand.
  • position information is associated with the nose ID.
  • a common hand ID and nose ID can also be used.
  • position information, shape information, and recognition result information are associated with the object ID.
  • shape information contour information is used in the case of two-dimensional recognition
  • mesh information is used in the case of three-dimensional recognition.
  • the recognition result information is information representing the result of the object recognition process, and stores information representing the type of the recognized object. The information of this recognition result differs depending on the recognition method used. For example, if it is recognized as pizza using general image recognition, the text data "pizza" is stored. Alternatively, when clustering from a limited database, assign an integer label to each cluster (for example, 0: pizza, 1: spaghetti, 2: dish, 3: folk, 4: knife, etc.) and respond according to the recognition result. Store the integer to be.
  • the image generation unit 4 generates an image including graphics such as a virtual object to be presented to the user based on the information of the type, position, and state of the object recognized by the recognition processing unit 3. Further, the image generation unit 4 can also generate an image including a GUI (Graphical User Interface) such as the above-mentioned operation buttons.
  • GUI Graphic User Interface
  • the image output unit 5 outputs image information for visually perceiving the AR space to the user based on the image generated by the image generation unit 4.
  • the image output unit 5 is configured as, for example, a projector device or a display device that projects an image onto a real space.
  • a display device a form as a head-mounted display (see-through type) can also be adopted.
  • the odor control processing unit 1 executes processing for realizing the odor presentation method as an embodiment described later, for example, a CPU (Central Processing Unit), a ROM (Read Only Memory), and a RAM (Random Access Memory). It is equipped with a microcomputer or the like having the above.
  • the odor control processing unit 1 performs processing based on the information recognized by the recognition processing unit 3, and controls the odor output operation by the odor presenting device 6 based on the processing result.
  • the odor control processing unit 1 is connected to the image generation unit 4, and it is possible to share a part of the processing results with the image generation unit 4.
  • the odor control processing unit 1 has various functions shown as an odor object generation unit 11, an odor object control unit 12, an odor object update unit 13, and an odor presentation control unit 14 in the figure.
  • the odor object generation unit 11 generates the odor object Os based on the information recognized by the recognition processing unit 3 and the odor generation object definition information described later.
  • the odor object Os treats a virtual odor source as an object, and is regarded as a virtual existence on a computer.
  • the odor object Os is an object managed by the odor object management information (see FIG. 26) for managing the characteristics (for example, the type and intensity of the odor) of the target odor source.
  • the odor object generation unit 11 finds that if there is an object satisfying the recognition condition defined in the odor generation object definition information described above, the object is the odor object Os as the odor generation object.
  • Smell object management information that describes the ID (object ID) and position information of the object, and the odor characteristic information (smell type, intensity, etc.) stored in the odor generating object definition information so as to be managed as. Generate. The details of the odor generating object definition information and the odor object management information will be described later.
  • the odor object control unit 12 controls the behavior of the odor object Os according to the state of the hand and the positional relationship between the hand and the odor object Os, using the information of the user's hand recognized by the recognition processing unit 3.
  • the odor object update unit 13 updates the odor object management information. For example, the position of the odor object Os is updated, the odor object Os whose duration (duration of odor) described later has expired, and the odor object Os for the odor generating object that is no longer recognized by the recognition processing unit 3 are discarded. Perform processing, etc.
  • the odor presentation control unit 14 serves as an odor intensity and an odor output destination output by the odor presentation device 6 based on the information on the nose position of the user recognized by the recognition processing unit 3 and the information on the position of the odor object Os.
  • the coordinates (that is, the coordinates at which the odor is presented) are calculated and output to the odor presenting device 6.
  • the odor presenting device 6 outputs an odor based on the set odor intensity and coordinate information.
  • the odor presenting device 6 of this example has one or more odor output units that output odors with respect to designated coordinates, and one or more cartridges that store odor source substances that are substances that are sources of odors.
  • the odor source substance it is common to prepare cartridges for each type of odor to be used.
  • a method of presenting an odor for example, a method of transmitting an odor source substance on wind pressure or ultrasonic waves can be adopted.
  • a method of presenting an odor at a short distance a method of injecting a liquid containing an odor source substance into a mist can also be used.
  • a plurality of odor presenting devices 6 may be provided in the AR system 50.
  • the odor presenting device 6 may be provided for each user.
  • FIG. 5 shows an example of a specific form of the AR system 50.
  • FIG. 5A illustrates a form of an AR system 50 provided with a projector device such as a pendant light or a desk stand light that projects an image from above on a stage such as a table on which an object is arranged.
  • the projector device and various sensors of the input unit 2 are fixed above the stage. Since the projection is performed from above, it is possible to superimpose information on the actual object.
  • the odor presenting device 6 is similarly arranged above the object, and the odor presenting can be performed in the vicinity of the object. Although it is on the table in the figure, it does not necessarily have to be on the table.
  • FIG. 5B shows the presentation of images and odors from below the stage surface where the object exists. Images are presented by projecting from the back side or using a display device having a screen on the stage surface.
  • a method of installing an odor presenting device 6 that outputs a gas containing an odor source substance below the stage surface and presenting the odor from a spout opened on the stage surface can be mentioned.
  • FIG. 5C is a method of projecting an image and outputting an odor from above as shown in FIG. 5A, and the projection direction of the image and the output direction of the odor are variable by a pan / tilt head or the like.
  • FIG. 5D shows a form in which the odor presenting device 6 is connected to a portable terminal such as a smartphone terminal or a tablet terminal.
  • a portable terminal such as a smartphone terminal or a tablet terminal.
  • an AR image an image for perceiving the AR space
  • the AR image is displayed by the display device of the portable terminal. Display on.
  • a touch panel (touch sensor) of the input unit 2 may be provided on the stage.
  • the first example is a method suitable for promoting perfume.
  • a user who wants to purchase a product usually reads the label of the product to check the type, then empties the bottle and attaches it to his or her arm to check the scent.
  • the image of the scent of the product is displayed in an easy-to-understand manner by projection, and the scent can be confirmed more easily by a simple interaction such as a user's touch.
  • FIG. 6 shows a schematic diagram of the AR system 50 in the case of the first example.
  • a projector device image output unit 5
  • a sensor input unit 2
  • an odor presenting device 6 are arranged on the ceiling above the stage on which a sample of a product imitating a perfume bottle is arranged.
  • the projector device and the sensor are supported from the ceiling via a swing mechanism, and the image projection direction and the sensing direction are variable.
  • the odor presenting device 6 for example, the direction of the odor output nozzle is variable and the odor output direction is variable.
  • the product samples on the stage are each in the shape of a perfume bottle, but in this example, these samples do not actually generate odors.
  • these product samples are treated as virtual odor generating objects.
  • each product sample is treated as an odor generating object having a different odor type.
  • each product sample having a different shape and pattern is used so that the difference between each product sample can be identified on the AR system 50 side (image recognition unit 4).
  • an image for visually expressing what kind of odor it smells is projected on each product sample, for example, as illustrated in FIG. Specifically, in the example of FIG. 7, an image showing the image color of the scent of each perfume and the name of the scent is projected.
  • the above-mentioned odor object Os is generated for each product sample.
  • the odor is not presented to the user only by generating the odor object Os in this way.
  • an "effect range" is defined for each odor generating object, and when the distance between the odor object Os and the user's nose position is within this effect range, the odor is presented to the user. Further, within the effective range, the intensity of the presented odor is changed according to the distance between the odor object Os and the user's nose position.
  • FIG. 8 is a diagram showing an example of such a change in odor intensity according to a distance.
  • the nose position When the nose position is outside the effective range of the odor object Os as shown in FIG. 8C, the odor is not presented, and as shown in FIGS. 8B and 8A, the nose position gradually approaches the object Os. , Gradually increase the intensity of the presented odor.
  • the odor object Os is duplicated on the touched finger. Therefore, when the finger is brought close to its own nose position, an odor is presented according to the distance between the finger and the nose position (see FIG. 10). Specifically, in this case as well, the closer the distance is, the stronger the odor presented.
  • a predetermined image may be projected onto the finger to which the scent object Os is associated, as illustrated in FIG.
  • the scent object Os when the finger on which the scent object Os is duplicated is brought close to the face of another person, the scent is similarly presented to that person. Further, when the duplicated finger of the scent object Os is pointed at the face of another person, the scent may be presented to the other person. In this way, it is possible to intuitively share the scent not only with yourself but also with those around you.
  • the scent object Os is duplicated in the vicinity of the user's nose position, and the user can quickly smell the scent.
  • the duration of the odor object Os generated by the double tap is set to a relatively short time (for example, 1 second or the like). That is, the odor object Os generated by double tapping is discarded in a relatively short time.
  • the second example is an example of an odor presentation method related to menu selection in a restaurant such as a restaurant.
  • the odor to be presented is determined based on the information indicating the state of the dish. Specifically, the intensity and type of odor to be presented are changed and presented to the user based on the information indicating the dish.
  • FIG. 15 is a schematic diagram of the AR system 50 in the second example.
  • a projector device (image output unit 5) and a sensor (input unit 2) are fixed above the table on which the object is arranged, and an image can be projected on the table.
  • the odor presenting device 6 is installed as many as the number of seats above the position where the meal is placed (in front of the seat) on the table, and is capable of presenting the odor at the position of the meal.
  • FIG. 16 is an explanatory diagram of an effect example when selecting a risotto menu.
  • the appearance of the risotto is expressed by superimposing and projecting an image on the raw rice before cooking, which is placed on a plate placed in front of the customer.
  • an image of tomato color and rice gloss is projected onto the raw rice placed on a plate to express the appearance of tomato risotto, or basil color and rice gloss.
  • An example of expressing the appearance of basil risotto by superimposing and projecting the image of is shown.
  • the superimposed images can be switched according to the passage of time or according to a selection operation (gesture may be used) by the user.
  • FIG. 17 is an explanatory diagram of an example of production when the steak is grilled and the sauce is selected.
  • a plate with raw meat before cooking is placed in front of the customer, the texture of the roasted meat is projected onto it and the smell of the roasted meat is presented.
  • a button for selecting the degree of baking such as rare, medium rare, and well-done is projected by the projector device, and the user touches any button.
  • the image and odor change according to the degree of baking. Basically, the stronger the degree of burning, the darker the color of the image, and the parameter of the odor intensity of the odor-generating object also increases proportionally.
  • the odor generating objects are defined for the types of dishes (menus) to be produced.
  • the second example defines at least two types of odor-generating objects, risotto and steak.
  • the recognition of each odor-generating object is performed including not only the matching result for the foodstuff placed on the plate but also the matching result for the shape of the plate. Thereby, for example, it is possible to prevent the reaction with the photograph of the menu table.
  • the third example is to project an image and present an odor to a dish that the user actually eats.
  • FIG. 19 shows an example of projecting an image of Parmesan cheese and presenting an odor on meat sauce pasta.
  • First put the meat sauce pasta in front of the user.
  • By projecting the texture of Parmesan cheese onto this meat sauce pasta it is possible to visually express the state in which the meat sauce pasta is covered with pulsed mezan cheese.
  • an image as an adjustment operator for example, a slider
  • the amount of cheese projected and the intensity of the cheese odor are changed according to the operation of this adjustment operator.
  • the odor object Os is generated at the recognized cooking position, and the intensity of the odor changes according to the distance between the odor object Os and the user's nose position.
  • FIG. 21 schematically illustrates this.
  • the user may want to deliver the scent to other users.
  • a gesture of manually fanning the odor generating object is performed.
  • the scent object Os that moves in the fanned direction at a predetermined speed is duplicated, and the scent can be presented to other users.
  • the odor presentation to the user existing on the fanned direction side is performed by the odor presenting device 6 arranged on the user side.
  • the odor object Os of the odor generating object is duplicated, and the speed in the fanned direction is set in the duplicated odor object Os.
  • the duration is set to, for example, 5 seconds.
  • the position of the duplicated odor object Os in the odor object update unit 13 described above moves according to this speed, and as the user approaches the user on the fanned direction side, the intensity of the odor presented to the user is increased. I will go.
  • the duration elapses this odor object Os is destroyed. For example, even when sitting around four people instead of two, it is possible to select which user the scent is delivered to by changing the direction of fanning.
  • FIG. 23 schematically shows the odor generating object definition information.
  • this definition information is prepared and used for each odor-generating object to be identified.
  • the odor generating object definition information is information in which each information of recognition condition, odor type, intensity, transition possibility, and effect range is associated with each other.
  • the recognition condition is a condition for the odor object generation unit 11 described above to extract an object as a corresponding odor generation object from the objects recognized by the recognition processing unit 3.
  • the recognition condition information is stored as recognition condition information.
  • the type of odor is information indicating the type of odor generated from a virtual odor generating object.
  • the type of odor does not necessarily have to be single for each object, and there may be multiple types of odors.
  • Strength is information that represents the strength of each odor. For example, even if the same odor type is used, if the odor is to be perceived with about half the intensity, the value of this intensity is halved. Since each scent is defined, it has as many elements as the type of scent.
  • the transition possibility is flag information that defines whether or not the odor object Os generated for the corresponding odor generating object transitions by a touch operation. If the flag as the transition possibility is not set, the position of the odor object Os basically stays at the position of the odor generating object, and if the flag is set, as in the first example described above. It is possible to duplicate the odor object Os at the position of the touched hand by touch operation, or to duplicate and move the odor object Os according to the gesture of fanning the odor generating object as in the second and third examples. ..
  • the effect range defines the range in which the odor is presented to the user for the odor object Os generated for the corresponding odor generating object. As described above, the odor is presented to the user on condition that the position of the user's nose is within this range of effect.
  • FIG. 24 shows an example of the odor-generating object definition information corresponding to the case of the first example
  • FIG. 25 shows an example of the odor-generating object definition information corresponding to the cases of the second example and the third example, respectively.
  • image and shape information for each product for expressing the pattern and shape of each product are stored.
  • the values of strength and effect range are merely examples, and are not limited to these values.
  • the effective range is set to 100 mm, which is relatively short, in consideration of the fact that the perfume sales floor is a public place.
  • the recognition conditions include an image of raw rice, information representing the shape of the dish on which the raw rice is placed, and raw meat.
  • Information representing the shape of the dish on which the pasta is placed is stored.
  • Information on basil, tomato, etc. is stored as information on the type of odor for raw rice. As described above, the switching of the odors of basil and tomato is performed according to the user's operation or the like. In addition, as information on the strength against raw rice, values corresponding to each type of odor such as basil and tomato are stored.
  • Information on roasted meat is stored as information on the type of odor for raw meat.
  • the intensity of the odor is changed according to the degree of roasting as in the above-mentioned example
  • the value of the strength for each degree of roasting is stored as information on the strength with respect to the raw meat.
  • the value of the effect range related to cooking is 500 mm as shown in the figure, which is wider than in the case of the first example.
  • FIG. 26 shows an example of odor object management information for managing the odor object Os.
  • the odor object management information is managed by, for example, a variable array.
  • the odor object management information is information to which each information of odor type, object ID, hand ID, position, velocity, strength, transition possibility, effect range, and duration is associated.
  • the odor object Os is generated from the odor generating object, the odor type, transition possibility, effect range, and intensity are inherited from the corresponding odor generating object definition information as they are.
  • the object ID stores the object ID of the target odor generating object when the odor object management information is generated for the odor generating object.
  • the object ID is not stored in the object management information generated when the odor object Os is duplicated on the finger touched by the touch operation on the odor generating object as in the case of the first example.
  • the hand ID corresponding to the touched finger is stored as the hand ID information.
  • the position information stores the position information of the target odor generating object.
  • the position information of the hand corresponding to the touched finger is stored as the position information.
  • the position information is sequentially updated according to the moving speed of the odor object Os.
  • the speed information is stored as information indicating the moving speed of the scent object Os when the scent object management information is generated in association with the fanning gesture.
  • a fixed value may be used for this speed, or it may be variable according to the fan speed or the like.
  • FIG. 27 illustrates the operation definition information of the odor object.
  • This operation definition information is information that defines the operation content for the odor object Os that the odor object control unit 12 should perform for each hand state recognized by the recognition processing unit 3.
  • the hand state is managed by the hand management information (see FIG. 2) generated by the recognition processing unit 3, and the recognized state is represented by the number information.
  • Number 0 is "hover state”
  • number 1 is "touch”
  • number 2 is “double tap”
  • number 3 is "fan”.
  • the "hover state” of the number 0 is a state in which the hand is floating without touching anything and does not correspond to any of the other numbers (1 to 3).
  • the number 1 "touch” means a state in which the hand touches the odor generating object once
  • the number 2 "double tap” means a state in which the hand touches the odor generating object twice within a predetermined time.
  • the number 3 "fan” means a state in which an odor-generating object is fanned by hand.
  • the operation definition information information indicating the operation content for the odor object Os that should be performed by the odor object control unit 12 for each of these states is stored.
  • the operation content for "hover” is "do nothing".
  • the operation content for "tap” is that the odor object Os is duplicated, the hand ID of the touched hand is stored, and the transition possibility is set to "none". However, if there is already an odor object Os having the same hand ID, or if the odor object Os for the touched odor generating object has no transition possibility, the odor object Os is not duplicated.
  • the operation content for "double tap” duplicates the odor object Os, stores the position of the nose with the same ID as the double-tapped hand as position information, and stores information representing a predetermined time as duration information. It is the content.
  • the operation content of "fan” is to duplicate the odor object Os, store the speed information, and set the transition possibility to "none". At this time, for the duration, for example, information of a predetermined time predetermined for each application is stored. At this time, if there is another odor object Os in which the same hand ID is stored, the odor object Os is discarded.
  • the existing odor object Os is discarded as the odor object Os moving in the fanned direction, while a new odor object Os is generated. It will be. If there is another scent object Os in which the same hand ID is stored, a method of not duplicating the scent object even if the "fanning" gesture is detected can be adopted.
  • FIGS. 28 to 31 An example of a specific processing procedure to be executed in order to realize the odor presentation method as an embodiment will be described with reference to the flowcharts of FIGS. 28 to 31.
  • the processes shown in FIGS. 28 to 31 are executed by the CPU of the odor control processing unit 1 based on a program stored in a predetermined storage device such as a ROM described above.
  • FIG. 28 is a flowchart showing a process executed by the odor control processing unit 1 (CPU) as the odor object generation unit 11 described above.
  • the odor control processing unit 1 extracts an odor generating object from the recognized object in step S101. That is, from the object recognized by the recognition processing unit 3 based on the object management information (see FIG. 4) generated by the recognition processing unit 3 for each recognition object and the odor generating object definition information described with reference to FIGS. 23 to 25. , An object that meets the recognition conditions defined in the odor generating object definition information is extracted as an odor generating object.
  • the odor control processing unit 1 In response to the extraction of the odor-generating object in step S101, the odor control processing unit 1 repeats the processing after step S102 for all the odor-generating objects by the loop processing LP1. In step S102, the odor control processing unit 1 determines whether or not the odor object Os corresponding to the odor generating object exists. That is, it is determined whether or not there is an odor object Os whose object ID is the same as the object ID of the odor generating object to be processed and is stored in the odor object management information.
  • step S102 If it is determined in step S102 that the odor object Os corresponding to the odor generating object does not exist, the odor control processing unit 1 proceeds to step S103 to generate the odor object Os. That is, the information on the type, transition possibility, effect range, and intensity of the odor stored in the definition information of the odor generating object to be processed is inherited, and the object ID of the odor generating object to be processed is used as the object ID. Generate the stored odor object management information. At this time, as the duration information in the newly generated odor object management information, for example, information representing a predetermined time predetermined for each application is stored.
  • step S102 when it is determined in step S102 that the odor object Os corresponding to the odor generating object exists, the odor control processing unit 1 proceeds to step S104 to acquire the odor object Os. That is, if there is existing odor object management information that matches the physical ID, the odor object management information is acquired.
  • the odor control processing unit 1 proceeds to the process in step S105 in response to the execution of the process in step S103 or S104.
  • step S105 the odor control processing unit 1 converts the position information in the odor object management information obtained in step S103 or S104 into the position information of the odor generating object to be processed, as a process of updating the parameters of the odor object Os. Perform the update process.
  • FIG. 29 is a flowchart showing a process executed by the odor control processing unit 1 as the odor object control unit 12 described above.
  • the odor control processing unit 1 extracts the user's hand. That is, the hand management information (see FIG. 2) generated by the recognition processing unit 3 is acquired.
  • step S201 the odor control processing unit 1 executes the loop processing LP3 for all the extracted hands by the loop processing LP2.
  • the processing after step S202 is repeatedly executed for all the odor objects Os.
  • step S202 the odor control processing unit 1 determines whether or not the hand ID and the hand ID of the odor object Os match. That is, it is determined whether or not the hand ID associated with the hand to be processed matches the hand ID in the odor object management information for the odor object Os to be processed.
  • the odor control processing unit 1 proceeds to step S203 and updates the position of the odor object Os to the position of the hand. That is, the position information in the odor object management information about the odor object Os to be processed is updated with the information on the position of the hand to be processed. As a result, the position of the odor object Os in which the hand ID information is stored, that is, the odor object Os duplicated by touching the odor generating object is updated to the position of the touched hand.
  • step S202 determines whether or not the hand ID and the hand ID of the odor object Os do not match. If it is determined in step S202 that the hand ID and the hand ID of the odor object Os do not match, the odor control processing unit 1 proceeds to step S204 and determines whether or not the distance between the hand and the odor object Os is close. To do. Specifically, it is determined whether or not the distance between the hand and the odor object Os is within the effect range of the odor object Os.
  • the odor control processing unit 1 proceeds to step S205 and proceeds to step S205 to proceed to the odor object Os.
  • Perform the process of operating That is, the odor object Os is operated based on the state information stored in the management information of the hand to be processed and the operation definition information shown in FIG. 27. For example, in the case of hover, no operation is performed.
  • the odor object Os is duplicated, the position of the nose with the same ID as the double-tapped hand is stored as the position information, and the information representing a predetermined time is stored as the duration information.
  • the operation of the contents defined for the state of the hand specified from the management information of the hand is performed.
  • the odor object Os is discarded according to the gesture of fanning by hand as illustrated in FIG. 13 of the first example, it is realized by storing the information corresponding to the operation definition information.
  • step S204 when the determination result that the distance between the hand and the odor object Os is not close is obtained in step S204, the odor control processing unit 1 finishes one loop processing by the loop processing LP3.
  • the odor control processing unit 1 also completes one loop process by the loop process LP3 even when the process of step S203 or S205 is executed.
  • FIG. 30 is a flowchart showing a process executed by the odor control processing unit 1 as the odor object updating unit 13 described above.
  • the odor control processing unit 1 acquires the odor object Os from the previous frame.
  • the frame referred to here means an execution cycle of each process when the odor control processing unit 1 repeatedly executes each process of FIGS. 28 to 31.
  • the process of step S301 is a process of acquiring the odor object Os (smell object management information) existing in the frame immediately before the current frame.
  • the odor control processing unit 1 In response to the execution of the process of step S301, the odor control processing unit 1 repeatedly executes the processes of step S302 and subsequent steps for all the odor objects Os by the loop process LP4. In step S302, the odor control processing unit 1 determines whether or not "current time-generation time ⁇ duration".
  • the generation time is the time when the odor object Os to be processed is generated, and is the information managed by the odor control processing unit 1.
  • the process of step S302 is a process of determining whether or not the elapsed time from the generation time to the current time is within the duration of the odor object Os to be processed.
  • step S302 If it is determined in step S302 that "current time-generation time ⁇ duration" (within the duration), the odor control processing unit 1 proceeds to step S303 and updates the position of the odor object Os according to the speed. To do.
  • the process of step S303 if the speed information is not stored in the odor object management information, the position is not updated.
  • step S302 determines whether "current time-generation time ⁇ duration" (the duration is exceeded). If it is determined in step S302 that "current time-generation time ⁇ duration" (the duration is exceeded), the odor control processing unit 1 proceeds to step S303 to discard the odor object Os.
  • FIG. 31 is a flowchart showing a process executed by the odor control processing unit 1 as the odor presentation control unit 14 described above.
  • the odor control processing unit 1 extracts the user's nose position. That is, all the nose positions managed by the nose management information (see FIG. 3) generated by the recognition processing unit 3 are acquired.
  • the odor control processing unit 1 executes the loop processing LP6 for all the extracted nose positions by the loop processing LP5.
  • the processing after step S402 is repeatedly executed for all the odor objects Os.
  • step S402 the odor control processing unit 1 determines whether or not the distance between the nose position and the odor object Os is within the effective range. That is, whether or not the distance between the nose position to be processed and the position of the odor object Os to be processed is within the value indicated by the information of the effect range stored in the management information of the odor object Os. judge. If the distance between the nose position and the odor object Os is not within the effective range, the odor control processing unit 1 finishes one loop processing by the loop processing LP6. That is, the odor related to the odor object Os is not presented for the nose position that is not within the effect range of the odor object Os.
  • step S402 when it is determined in step S402 that the distance between the nose position and the odor object Os is within the effective range, the odor control processing unit 1 proceeds to step S403 and presents the odor according to the positional relationship between the nose position and the odor object Os. This process is performed, and one loop process by the loop process LP6 is completed.
  • step S403 the intensity of the odor to be output is determined according to the position of the nose and the position of the odor object Os. Specifically, the closer the nose position and the odor object Os are, the stronger the odor intensity is.
  • the value of the intensity stored in the odor object management information is used as the basis.
  • the odor presentation position (the position where the odor is output) is the position of the odor object Os. Further, when a plurality of odor presenting devices 6 are used, the odor presenting device 6 at the position closest to the set odor presenting position is selected as the odor presenting device 6 to be controlled. In the process of step S403, the odor presenting device 6 to be controlled is instructed so that the odor with the determined intensity is output to the determined odor presenting position.
  • the odor presenting device 6 is instructed to output a type of odor corresponding to the odor object Os.
  • a type of odor corresponding to the odor object Os For example, in the case of the presentation method as the first example or the third example described above, only one type of odor is associated with the odor object management information (see FIGS. 24 and 25). ), In the process of step S403, the odor type information stored in the management information of the target odor object Os may be indicated.
  • a plurality of information such as basil / tomato, wasabi soy sauce / gravy sauce, etc. are stored as the odor type information in the odor object management information.
  • the switching of these odor types should be switched according to a predetermined switching condition such as a selection operation by the user, and in the process of step S403, the odor object Os, which is the target of odor output, is switched.
  • a predetermined switching condition such as a selection operation by the user
  • the odor object Os which is the target of odor output
  • the odor presenting device 6 that controls the odor type information selected according to such a switching condition is instructed.
  • FIG. 32 is an explanatory diagram thereof.
  • the type of odor presented to the user who eats shaved ice is sequentially switched, for example, strawberry, melon, mango, and so on.
  • FIG. 33 shows a schematic explanatory diagram of the system.
  • the AR system 50 in this case is in the form of using a smartphone, and a small odor presenting device 6 is attached to the smartphone.
  • the odor presenting device 6 is capable of outputting an odor to the side facing the screen of the smartphone.
  • the camera image is previewed, and when an object as a virtual treasure box with a marker is photographed, the AR image is superimposed on the object.
  • the contents cannot be known only by appearance, but as the scent is approached, the scent is presented by the scent presenting device 6, and it is possible to estimate what the contents are, which can be used as a material for determining whether to open the virtual treasure box or not. ..
  • the scent of gunpowder is assigned to the object with the marker of "A” as shown in FIG. 34, and the scent of metal (smell of coin) is assigned to the object with the marker of "B” as shown in FIG.
  • the effective range is wide, such as 1000 mm.
  • the scent of gunpowder is scented
  • the scent of metal is scented.
  • the above configuration has an advantage that it is possible to prevent such an erroneous presentation of the odor to a third party.
  • a smartphone has been given above, a tablet terminal, AR glasses, a see-through type head-mounted display, and the like can also be applied by attaching the odor presenting device 6.
  • FIG. 36 is a diagram showing an example of odor object management information used in the first modification.
  • the difference from the odor object management information shown in FIG. 26 is that the items of invalid time and output time are added.
  • the invalid time defines the interval time of the odor output in order to realize the intermittent odor output, and once the odor is output, the odor object Os is temporarily invalidated over this invalid time. And an interval period of odor output is formed.
  • the output time stores information on the time when the odor was output for the odor object Os managed by the odor object management information. This output time information is stored in the corresponding odor object management information when the odor presentation control unit 14 controls the odor output.
  • FIG. 37 is a flowchart showing an example of a processing procedure to be executed by the odor control processing unit 1 (CPU) in the first modification. Specifically, the process executed by the odor object update unit 13 of the odor control processing unit 1 in the first modification is shown. The difference from the processing of the odor object updating unit 13 shown in FIG. 30 is that the processing after step S310 is executed in response to the processing of step S303 being executed. Specifically, the odor control processing unit 1 in this case determines in step S310 whether or not the odor object Os is invalid. That is, it is determined whether or not the odor object Os is temporarily invalidated as the odor output process (see step S403) is executed for the odor object Os to be processed. If it is determined that the device is not invalid, the odor control processing unit 1 finishes one loop processing by the loop processing LP4.
  • step S311 determines whether or not "current time-output time ⁇ invalid time". This corresponds to determining whether or not the elapsed time from the immediately preceding output time is equal to or longer than the invalid time as the interval period. If “current time-output time ⁇ invalid time”, the odor control processing unit 1 proceeds to step S312, performs a process of activating the odor object Os to be processed, and performs one loop process by the loop process LP4. Finish. If “current time-output time ⁇ invalid time”, the odor control processing unit 1 passes the processing of step S312 and ends one loop processing by the loop processing LP4.
  • Second modification> In the above description, assuming that the odor object Os is within the odor presentable range (hereinafter referred to as "presentable range As") by the odor presenting device 6, the odor presenting position is set to the position of the odor object Os. However, depending on the system configuration and the like, it may not be guaranteed that the odor object Os exists within the presentable range As.
  • the second modification proposes a coping method in such a case.
  • FIG. 38 is a diagram schematically showing the range As that can be presented by the odor presenting device 6.
  • the presentable range As is illustrated as a quadrangular pyramid-shaped range having the output point of the odor by the odor presenting device 6 as the apex.
  • the odor presenting device 6 can output an odor to the presenting position by setting an arbitrary position within the presentable range As as the odor presenting position.
  • the odor presentation position can be set to an arbitrary coordinate position in the three-dimensional space as the presentable range As.
  • the odor presentation position will be referred to as “presentation position s”.
  • FIG. 39 is a diagram illustrating a case where the odor object Os is within the presentable range As by the odor presenting device 6.
  • the odor control processing unit 1 sets the presentation position s at the position of the odor object Os (for example, the center position of the odor object Os).
  • position o the position of the odor object Os will be referred to as “position o”.
  • FIG. 40 and 41 are explanatory views when the odor object Os does not exist within the presentable range As. If the odor object Os does not exist in the presentable range As, whether or not the straight line Ls passing through the user's nose position n and the odor object Os (passing the position o) overlaps with the presentable range As.
  • the presentation position s is set based on the result of determining.
  • FIG. 40 illustrates a case where the straight line Ls overlaps with the presentable range As. In this case, the presentation position s is set at a position on the straight line Ls within the presentable range As. As a result, even when the odor object Os is located outside the presentable range As, the odor can be transmitted from the direction in which the odor object Os exists to the nose position n.
  • FIG. 41 illustrates a case where the straight line Ls does not overlap with the presentable range As.
  • the presentation position s is set at a position that minimizes the distance from the straight line Ls within the presentable range As.
  • the presentation position s is set as close as possible to the straight line Ls within the presentable range As. .. Therefore, the odor can be transmitted to the nose position n from a direction as close as possible to the direction in which the odor source exists.
  • the positional relationship between the position o of the odor object Os and the nose position n is vector on ⁇ ⁇ (“ ⁇ ⁇ ” means that “ ⁇ ” is positioned at the upper part of the immediately preceding character string), the presentation position s and the nose position n.
  • the intensity of the odor of the odor object Os is set to "Ps", and the attenuation rate of the odor is set to A (x ⁇ ⁇ ).
  • the intensity Po of the odor output to the presentation position s is obtained by the following [Equation 1].
  • Po ⁇ 0. For example, when the presentation position s is closer to the nose position n than the position o of the odor object Os, basically A (sn ⁇ ⁇ )> A (on ⁇ ⁇ ), and the intensity Po is smaller than the intensity Ps.
  • the presentation position s cannot be set on the straight line Ls
  • the direction of the odor source can be specified by the user sniffing the odor while changing the direction of the nose. At this time, the direction of the odor source is perceived as a direction in which the intensity of the odor is high. Therefore, by controlling the intensity of the odor according to the direction of the nose with respect to the odor source as described above, it is possible to make the user perceive the direction of the odor source.
  • FIG. 43A shows a case where the deviation between the direction in which the odor object Os exists and the direction of the nose is 90 degrees
  • FIG. 43B shows the case where the direction in which the odor object Os exists and the direction of the nose coincide with each other.
  • the direction of the nose is not limited to detecting the direction of the part recognized as the nose strictly, and information that can be regarded as the direction of the nose is used, such as diverting the result of detecting the direction of the face. Just do it.
  • FIG. 45 is a flowchart showing an example of a processing procedure to be executed by the odor control processing unit 1 (CPU) in the second modification. Specifically, it shows the process executed by the odor presentation control unit 14 of the odor control processing unit 1 in the second modification. Note that FIG. 45 shows the processing on the premise that the output of the odor is intermittently executed as in the first modification.
  • the odor control processing unit 1 performs the process of extracting the user's nose position in step S401, and then executes the processes after step S410 for all the effective odor objects Os by the loop process LP7.
  • the effective odor object Os means an odor object Os other than the odor object Os in a temporarily disabled state when the intermittent odor output described in the first modification is performed.
  • step S410 the odor control processing unit 1 determines whether or not one or more noses are within the effect range of the odor object Os. If one or more noses are not within the effective range of the odor object Os, the odor control processing unit 1 finishes one loop processing by the loop processing LP7. That is, in this case, the odor output processing (S417) related to the odor object Os that is the processing target is not executed.
  • the odor control processing unit 1 proceeds to step S411 to determine the odor presenting device 6 to be used and the target user to be presented by the device. Specifically, for each user existing within the effect range of the odor object Os, the odor presenting device 6 that is closest and can present the odor possessed by the odor object Os is selected.
  • this processing for example, when there are two odor presenting devices 6 1 and 2, and there are three corresponding users A, B, and C, 1 presents odor to users A and B, and 2 presents odor to user C. , Etc. can be determined.
  • the odor control processing unit 1 executes the processing after step S412 for all the odor presenting devices 6 to be used by the loop processing LP8.
  • the odor control processing unit 1 records the output time in the odor object Os. That is, the current time is stored as the output time in the odor object management information as shown in FIG. 36 above, which is generated for the odor object Os to be processed.
  • step S413 the odor control processing unit 1 executes a process for determining the optimum odor presentation position.
  • the presentation position s is determined by the method described in FIGS. 39 to 41 above. As a specific procedure, first, it is determined whether or not the position o of the odor object Os to be processed is within the presentable range As by the odor presenting device 6 to be processed. When it is determined that the position o is within the presentable range As, the presentation position s is set to the position o (see FIG. 39).
  • the presentation position s is set based on. Specifically, when it is determined that the straight line Ls overlaps with the presentable range As, the presentation position s is set at a position on the straight line Ls within the presentable range As. On the other hand, when it is determined that the straight line Ls does not overlap with the presentable range As, the presentation position s is set at a position within the presentable range As that minimizes the distance from the straight line Ls.
  • the presentation position s is set on the straight line Ls, basically, a position close to the odor object Os is selected.
  • the odor control processing unit 1 calculates the odor intensity Po according to the positional relationship between the presentation position s and the user's nose position n in step S414. Specifically, in this example, the intensity Po is calculated by the above [Equation 1].
  • step S415 the odor control processing unit 1 determines whether or not to change the intensity Po according to the direction. Specifically, in this example, it is determined whether or not the presentation position o cannot be set on the straight line Ls as shown in FIG. 41.
  • the odor control processing unit 1 proceeds to step S416 and recalculates the odor intensity Po according to the direction (e ⁇ ⁇ ) of the user's nose with respect to the odor object Os. Specifically, the intensity Po'is calculated by the above [Equation 2].
  • step S415 When it is determined in step S415 that the intensity Po is not changed according to the direction, or when the recalculation process of step S416 is executed, the odor control processing unit 1 proceeds to step S417 to output the odor with the calculated intensity. Execute the process. That is, an instruction is given to the odor presenting device 6 to be processed so that the odor according to the calculated intensity Po or intensity Po'is output at the determined presentation position s. In response to the execution of the process of step S417, the odor control processing unit 1 finishes one loop process by the loop process LP8.
  • the common odor presenting device 6 presents the odor from the common odor object Os to a plurality of users.
  • the presentation position s is set at a position based on the difference in distance from the nose position n for each user to the position o of the odor object Os.
  • FIG. 46 shows an example of setting the presentation position s when the number of users is 2.
  • the straight line L1 connecting the nose position n1 and the position o of one user the straight line L2 connecting the nose position n2 and the position o of the other user, and the straight line L2 connecting the nose position n1 and the nose position n2.
  • a triangle with three sides is formed by L3.
  • the presentation position s is taken on the straight line L3.
  • the distance from the nose position n1 and the distance from the nose position n2 are set on a straight line Ls'passing the position o from the point Pc where the ratio is p: q.
  • the presentation position s is set at a position where the distance from the odor object Os on the straight line Ls is within a predetermined value, and under another condition, the distance from the odor object Os on the straight line Ls is predetermined.
  • the presentation position s is set at a position larger than the value.
  • the visual effect to be perceived by the user together with the presentation of the odor is not limited to the specific examples given so far.
  • FIGS. 47 and 48 by displaying a specific image only on the odor generating object that is presenting the odor, the user can easily determine which odor generating object the odor is presented from. It can also be grasped by.
  • FIGS. 47 and 48 an application example to the case of the first example described above is shown.
  • a specific cloud-shaped image is displayed only on the odor-generating object (green perfume bottle in the example of the figure) that is presenting the odor
  • FIG. 48 only the odor-generating object that is presenting the odor is displayed from the center of the object.
  • An example of displaying a gradation image in which the color gradually fades toward the outside is shown.
  • a virtual object is treated as a virtual odor generating object instead of the real object. It can also be treated as an object. That is, the position where the virtual odor source is set is not limited to the position in the real space where the real object exists, and can be, for example, the position of the virtual object existing in the virtual space imitating the real space. In this sense, the setting position of the virtual odor source in the present technology may be a predetermined position corresponding to the real space.
  • step S101 When treating a virtual object as a virtual odor generating object, since the system internally grasps the position of the virtual object, the process of extracting the odor generating object from the recognized object as in step S101 (FIG. 28). No need to do.
  • the "position" information in the odor object management information for the odor generating object the information on the position of the corresponding virtual object that is internally grasped may be stored.
  • the program of the embodiment is a program that causes a computer device such as a CPU to execute the processing as the odor control processing unit 1.
  • the program of the embodiment is a program that can be read by a computer device, and performs a process of setting a virtual odor source and controlling the output of the odor based on the positional relationship between the odor source and the user's nose position. It is a program to be executed by the device. That is, this program corresponds to, for example, a program that causes a computer device to execute the processes described with reference to FIGS. 28 to 31 and the like.
  • Such a program can be stored in advance in a storage medium that can be read by a computer device, for example, a ROM, an SSD (Solid State Drive), an HDD (Hard Disk Drive), or the like. Alternatively, it can be temporarily or permanently stored (stored) in a removable storage medium such as a semiconductor memory, a memory card, an optical disk, a magneto-optical disk, or a magnetic disk. Further, such a removable storage medium can be provided as so-called package software. In addition to installing such a program from a removable storage medium on a personal computer or the like, download it from a download site to a required information processing device such as a smartphone via a network such as a LAN (Local Area Network) or the Internet. You can also.
  • a LAN Local Area Network
  • the information processing device as an embodiment is a setting unit (smell object generation unit 11) that sets a virtual odor source (smell object Os) at a predetermined position corresponding to the real space.
  • a control unit smell presentation control unit 14 and the like that controls the output of the odor based on the positional relationship between the odor source and the position of the user's nose.
  • the predetermined position corresponding to the real space may be a predetermined position in the real space or a predetermined position in the virtual space corresponding to the real space.
  • the control unit controls the intensity of the odor according to the distance between the odor source and the position of the nose (from step S403 in FIG. 31 and step S414 in FIG. 45). See S417).
  • the control unit sets the odor presentation position on a straight line (Ls) passing through the nose position and the odor source (see FIG. 40).
  • the position of the odor source to be set may be set within the odor presentable range or may be outside the presentable range. This makes it possible to transmit the odor to the position of the nose from the direction in which the odor source exists (that is, the object set as the virtual odor source). Therefore, it is possible to appropriately express that the odor is coming from the odor source, and it is possible to enhance the user's immersive feeling in the AR space.
  • the control unit sets the presentation position (same as above) based on the nose position and the position of the odor source, and controls to output the odor to the presentation position. (See steps S403 of FIG. 31 and steps S413 to S417 of FIG. 45). This makes it possible to present the odor at a position appropriate for expressing that the odor is being emitted from the odor source. Therefore, it is possible to enhance the user's immersive feeling in the AR space.
  • the control unit controls the intensity of the odor output to the presentation position according to the positional relationship between the presentation position, the nose position, and the odor source (see FIG. 42). ).
  • the control unit controls the intensity of the odor output to the presentation position according to the positional relationship between the presentation position, the nose position, and the odor source (see FIG. 42). ).
  • the control unit determines whether or not the odor source exists within the presentable range (As), which is the range in which the odor presenting device can present the odor to the user. Based on the result of determining the above, the odor presentation position by the odor presenting device is set (see step S414 of FIG. 45). This makes it possible to set an appropriate odor presentation position depending on whether the odor source is within the presentable range or not. That is, even when the odor source is located outside the presentable range due to the narrow presentable range or the like, it is possible to appropriately control the output of the odor. Therefore, it is not necessary to presuppose the use of the odor presenting device having a wide range of presentation, and the restrictions on the odor presenting device that can be used can be relaxed.
  • the control unit determines that the odor source does not exist within the presentable range
  • the straight line passing through the nose position and the odor source overlaps with the presentable range.
  • the presentation position is set based on the result of determining whether or not to do so (see step S414 in FIG. 45).
  • the straight line passing between the nose position and the odor source should overlap with the presentable range.
  • the control unit when the control unit determines that the straight line overlaps with the presentable range, the control unit sets the presenting position at a position on the straight line within the presentable range. This makes it possible to transmit the odor from the direction in which the odor source exists to the nose position even when the odor source is located outside the range in which the odor can be presented. Therefore, the accuracy of odor expression can be improved.
  • the control unit when the control unit determines that the straight line does not overlap with the presentable range, the control unit sets the presenting position at a position that minimizes the distance from the straight line within the presentable range. ing.
  • the control unit sets the presenting position at a position that minimizes the distance from the straight line within the presentable range. ing.
  • the odor source is outside the presentable range of the odor and the straight line passing through the nose position and the odor source does not overlap the presentable range, the position is as close as possible to the straight line within the presentable range.
  • the presentation position is set. Therefore, the odor can be transmitted to the position of the nose from a direction as close as possible to the direction in which the odor source exists, and the accuracy of the odor expression can be improved.
  • the control unit changes the presentation position on the straight line according to the conditions.
  • the presentation position is set close to the position of the nose on the straight line to accelerate the timing at which the odor from the odor source is perceived, and under other conditions, the position of the nose on the straight line. It is possible to set the presentation position at a position far from the odor source and delay the timing at which the odor from the odor source is perceived. Therefore, it is possible to adjust the timing at which the odor from the odor source is perceived according to the conditions, and it is possible to realize an appropriate odor presentation according to the conditions.
  • the control unit controls the intensity of the odor according to the direction of the user's nose with respect to the odor source (see step S416 of FIG. 45).
  • the direction of the odor source can be specified by the user sniffing the odor while changing the direction of the nose. At this time, the direction of the odor source is perceived as a direction in which the intensity of the odor is high. Therefore, by controlling the intensity of the odor according to the direction of the nose with respect to the odor source as described above, it is possible to make the user perceive the direction of the odor source.
  • the presentation position when the presentation position is set on a straight line passing through the nose position and the odor source, the user can appropriately perceive the direction of the odor source, but the presentation position cannot be set on the straight line.
  • the method of controlling the intensity of the odor according to the direction of the nose as described above is a suitable method applied when the presentation position cannot be set on a straight line in this way.
  • the control unit controls the output of the odor based on the result of determining whether or not the position of the nose is within the effective range of the odor defined for the odor source. This is done (see processing in FIGS. 31 and 45). This makes it possible to prevent the output of the odor when the position of the nose is not within the effective range of the odor by the odor source. Therefore, even though the position of the nose is far from the odor source, it is possible to prevent the odor output operation from being performed indiscriminately, which reduces the power consumption of the odor presenting device and reduces the odor output. It is possible to prevent waste of the odor source substance used.
  • control unit controls so that the odor is output intermittently within the odor presentation period from the odor source (see the first modification). ). This eliminates the need to continuously perform the odor output operation of the odor presenting device during the odor presenting period. Therefore, it is possible to reduce the power consumption of the odor presenting device and prevent the waste of the odor source substance used for the odor output.
  • the control unit duplicates the odor source in response to the detection of the user's predetermined gesture with respect to the odor source (see step S205 of FIG. 29). ).
  • the odor source associated with the instruction information of following the touched finger position is duplicated according to the gesture of touching the odor source, or the odor source is fanned according to the gesture of fanning the odor source by hand. It is possible to duplicate an odor source associated with instruction information for moving in a direction. Therefore, it is possible to appropriately control the odor according to the user's gesture with respect to the odor source.
  • the control unit makes the position of the duplicated odor source follow the part of the user who touches the odor source in response to the detection of the gesture (step S205 in FIG. 29). reference).
  • the odor source is duplicated at the part of the user who touches the odor source, and the duplicated odor source is also moved according to the movement of the part. That is, it is reproduced that the odor of the odor source is transferred to the portion where the odor source is touched. Therefore, it is possible to appropriately control the odor according to the user's gesture with respect to the odor source.
  • the control unit duplicates the odor source in response to the detection of the gesture that the user manually fans the odor source, and manually fans the duplicated odor source. It is moving in the direction (see step S205 in FIG. 29). This makes it possible to reproduce that the scent moves in the direction of the fan when the scent source is fanned. Therefore, it is possible to appropriately control the odor according to the user's gesture with respect to the odor source.
  • control unit stops presenting the odor of the duplicated odor source in response to the detection of a predetermined gesture by the user (step S205 in FIG. 29). See). This makes it possible to stop the presentation of the odor about the duplicated odor source according to the intention of the user. Therefore, it is possible to control the odor appropriately according to the intention of the user.
  • the control unit outputs the type or odor of the odor to the presenting device according to the change of the image superimposed and projected on the object in the real space set as the odor source.
  • the strength is changed (see FIGS. 16 to 20, etc.). This makes it possible to change the type and intensity of the odor in conjunction with the visual indication of changes in the type and state of the object as a virtual odor source. Therefore, by linking the olfactory effect with the visual effect, it is possible to enhance the user's immersive feeling in the AR space.
  • control method as an embodiment is a control in which a virtual odor source is set at a predetermined position corresponding to the real space, and the odor output is controlled based on the positional relationship between the odor source and the position of the user's nose.
  • the method Even with such a control method as an embodiment, the same operations and effects as those of the information processing apparatus as the above-described embodiment can be obtained.
  • the program of the embodiment is a program that can be read by a computer device, sets a virtual odor source at a predetermined position corresponding to the real space, and determines the positional relationship between the odor source and the position of the user's nose. It is a program that causes a computer device to execute a process of controlling the output of an odor based on the above. With such a program, the information processing apparatus as the above-described embodiment can be realized.
  • a setting unit that sets a virtual odor source at a predetermined position corresponding to the real space An information processing device including a control unit that controls odor output based on the positional relationship between the odor source and the position of the user's nose.
  • the control unit The information processing device according to (1), wherein the intensity of the odor is controlled according to the distance between the odor source and the position of the nose.
  • the control unit The information processing device according to (1) or (2), wherein the odor presentation position is set on a straight line passing through the nose position and the odor source.
  • the control unit The information according to any one of (1) to (3) above, wherein the presentation position of the odor is set based on the position of the nose and the position of the odor source, and the output of the odor is controlled to the presentation position. Processing equipment.
  • the control unit The information processing apparatus according to (3) or (4), wherein the intensity of the odor output to the presentation position is controlled according to the positional relationship between the presentation position, the nose position, and the odor source.
  • the control unit Based on the result of determining whether or not the odor source exists within the presentable range, which is the range in which the odor presenting device can present the odor to the user, the odor presenting position by the odor presenting device.
  • the information processing apparatus according to any one of (1) to (5) above.
  • the control unit When it is determined that the odor source does not exist within the presentable range, it is determined based on the result of determining whether or not the straight line passing through the nose position and the odor source overlaps with the presentable range.
  • the information processing device according to (6) above, which sets the presentation position.
  • the control unit The information processing apparatus according to (7), wherein when it is determined that the straight line overlaps with the presentable range, the presenting position is set at a position on the straight line within the presentable range. (9)
  • the control unit When it is determined that the straight line does not overlap with the presentable range, the presenting position is set at a position that minimizes the distance from the straight line within the presentable range.
  • the present invention (7) or (8). Information processing device.
  • the control unit The information processing apparatus according to (3) or (7), wherein the presentation position on the straight line is changed according to conditions.
  • the control unit The information processing device according to any one of (1) to (10), wherein the intensity of the odor is controlled according to the direction of the user's nose with respect to the odor source.
  • the control unit The odor output is controlled based on the result of determining whether or not the position of the nose is within the odor effect range defined for the odor source. The description in any one of (1) to (11). Information processing equipment.
  • the control unit The information processing apparatus according to any one of (1) to (11) above, wherein the output of the odor is controlled to be intermittently performed within the odor presentation period from the odor source.
  • the control unit The information processing device according to any one of (1) to (13) above, which replicates the odor source in response to the detection of the user's predetermined gesture with respect to the odor source.
  • the control unit The information processing device according to (14), wherein the position of the odor source duplicated in response to the detection of the gesture is made to follow the part of the user who touches the odor source.
  • the control unit In the above (14) or (15), the user duplicates the odor source in response to the detection of the gesture of fanning the odor source by hand, and moves the duplicated odor source in the direction of fanning by the hand.
  • the control unit The information processing apparatus according to any one of (14) to (16), which stops presenting an odor to the duplicated odor source in response to the detection of a predetermined gesture by the user.
  • the control unit Any of the above (1) to (17), the type of odor or the intensity of the odor to be output to the presenting device is changed according to the change of the image superimposed and projected on the object in the real space set as the odor source.
  • Smell control processing unit 2 Input unit 3
  • Recognition processing unit 4 Image generation unit 5
  • Image output unit 6 Smell presentation device 11
  • Smell object generation unit 12 Smell object control unit 13
  • Smell object update unit 14 Smell presentation control unit 50

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Animal Behavior & Ethology (AREA)
  • Theoretical Computer Science (AREA)
  • Epidemiology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

臭覚提示に関し、AR空間に対するユーザの没入感を高める。 本技術に係る情報処理装置は、実空間に対応する所定の位置に仮想的な匂い源を設定する設定部と、匂い源とユーザの鼻の位置との位置関係に基づいて、匂いの出力制御を行う制御部とを備えている。ユーザの鼻の位置と匂い源との位置関係に基づき匂いの出力制御を行うことで、匂い源から匂っているということを表現することが可能とされる。

Description

情報処理装置、制御方法、プログラム
 本技術は、仮想的な匂い源からの匂いをユーザに知覚させる際における匂いの出力制御を行う情報処理装置とその制御方法、及びプログラムの技術分野に関する。
 人工的に構築される仮想空間をユーザに知覚させるVR(Virtual Reality:仮想現実)技術が実用化されている。そして、近年では、VR技術を進展させたAR(Augmented Reality:拡張現実)技術の普及が進んでいる。AR技術は、実空間を部分的に改変することにより構築される拡張現実空間(AR空間)をユーザに提示する。例えば、AR技術では、仮想的に生成されるオブジェクト(仮想物体)が、実空間に向けられる撮像装置からの画像に重畳されて、画像に映る実空間にあたかも仮想物体が存在しているかのようなユーザ体験が提供される。或いは、AR技術としては、プロジェクタ装置により仮想物体の画像を実空間上に投影して、実空間に仮想物体が存在しているかのようなユーザ体験を提供するものもある。
 AR技術としては、視覚的なユーザ体験のほか、臭覚的なユーザ体験を提供することも考えられている。
 関連する先行技術として、下記特許文献1には、映像を見る複数のユーザの鼻の位置を検出し、それぞれのユーザに合わせてノズルを変形させて芳香出射を行うことで各ユーザに臭覚提示を行う技術が開示されている。
特開2009-90159号公報
 上記特許文献1に記載の技術は、ディスプレイ内の仮想物体を見る複数のユーザに匂いを知覚させる技術であって、各ユーザの鼻の位置を検出しているものの、仮想物体の位置は検出していない。
 このため、特許文献1の技術をAR空間に適用しようとした場合には、対象とする匂いが、仮想物体(仮想的な匂い源)から匂っているということを表現することが困難となる。換言すれば、匂い源から匂いが伝達されてくるという実世界における現象を正確に表現することが困難とされ、ユーザのAR空間への没入感を高めることが困難となる。
 本技術は上記事情に鑑み為されたものであり、臭覚提示に関し、AR空間に対するユーザの没入感を高めることを目的とする。
 本技術に係る情報処理装置は、実空間に対応する所定の位置に仮想的な匂い源を設定する設定部と、前記匂い源とユーザの鼻の位置との位置関係に基づいて、匂いの出力制御を行う制御部と、を備えるものである。
 上記のようにユーザの鼻の位置と匂い源との位置関係に基づき匂いの出力制御を行うことで、匂い源から匂っているということを表現することが可能とされる。
 上記した本技術に係る情報処理装置においては、前記制御部は、前記匂い源と前記鼻の位置との距離に応じて、前記匂いの強度を制御する構成とすることが考えられる。
 これにより、鼻の位置が匂い源の近くに位置している場合には匂いの強度を大きくする等、匂い源との距離に応じた適切な強度による匂いをユーザに知覚させることが可能となる。
 上記した本技術に係る情報処理装置においては、前記制御部は、前記鼻の位置と前記匂い源とを通過する直線上に前記匂いの提示位置を設定する構成とすることが考えられる。
 これにより、匂い源が存在する方向から鼻の位置に匂いを伝達することが可能とされる。
 上記した本技術に係る情報処理装置においては、前記制御部は、前記鼻の位置と前記匂い源の位置とに基づいて前記匂いの提示位置を設定し、前記提示位置に前記匂いを出力する制御を行う構成とすることが考えられる。
 これにより、匂い源から匂っているということを表現する上で適切とされる位置に匂いの提示を行うことが可能とされる。
 上記した本技術に係る情報処理装置においては、前記制御部は、前記提示位置に出力する匂いの強度を、前記提示位置と前記鼻の位置と前記匂い源との位置関係に応じて制御する構成とすることが考えられる。
 これにより、提示位置が匂い源とは異なる位置に設定される場合であっても、提示位置、鼻の位置、匂い源の三者の位置関係に基づいて適切な強度による匂いをユーザに知覚させることが可能とされる。
 上記した本技術に係る情報処理装置においては、前記制御部は、匂い提示装置が前記ユーザに匂いを提示することが可能な範囲である提示可能範囲内に前記匂い源が存在するか否かを判定した結果に基づいて、前記匂い提示装置による前記匂いの提示位置を設定する構成とすることが考えられる。
 これにより、匂い源が提示可能範囲内にある場合とない場合とで、それぞれ適切な匂いの提示位置を設定することが可能とされる。すなわち、提示可能範囲が狭いこと等に起因して匂い源が提示可能範囲外に位置されてしまう場合であっても、適切な匂いの出力制御を行うことが可能とされる。
 上記した本技術に係る情報処理装置においては、前記制御部は、前記提示可能範囲内に前記匂い源が存在しないと判定した場合は、前記鼻の位置と前記匂い源とを通過する直線が前記提示可能範囲と重複するか否かを判定した結果に基づいて、前記提示位置の設定を行う構成とすることが考えられる。
 これにより、匂い源が提示可能範囲内になく匂いの提示位置を匂い源の位置に設定できない場合であっても、鼻の位置と匂い源とを通過する直線が提示可能範囲と重複していれば、該直線上に提示位置を設定することが可能とされる。
 上記した本技術に係る情報処理装置においては、前記制御部は、前記直線が前記提示可能範囲と重複すると判定した場合は、前記提示可能範囲内における前記直線上となる位置に前記提示位置を設定する構成とすることが考えられる。
 これにより、匂い源が匂いの提示可能範囲外に位置する場合であっても、匂い源が存在する方向から鼻位置に匂いが伝達されるようにすることが可能とされる。
 上記した本技術に係る情報処理装置においては、前記制御部は、前記直線が前記提示可能範囲と重複しないと判定した場合は、前記提示可能範囲内における前記直線との距離を最小とする位置に前記提示位置を設定する構成とすることが考えられる。
 これにより、匂い源が匂いの提示可能範囲外に存在し且つ鼻の位置と匂い源とを通過する直線が提示可能範囲と重複しない場合には、提示可能範囲内において該直線にできるだけ近い位置に提示位置が設定される。
 上記した本技術に係る情報処理装置においては、前記制御部は、前記直線上における前記提示位置を条件に応じて変更する構成とすることが考えられる。
 これにより、所定の条件下においては直線上における鼻の位置に近い位置に提示位置を設定して匂い源からの匂いが知覚されるタイミングを早めたり、別の条件下では直線上における鼻の位置から遠い位置に提示位置を設定して匂い源からの匂いが知覚されるタイミングを遅めたりするといったことが可能とされる。
 上記した本技術に係る情報処理装置においては、前記制御部は、前記匂い源に対する前記ユーザの鼻の向きに応じて匂いの強度を制御する構成とすることが考えられる。
 実世界において、匂い源の方向は、ユーザが鼻の向きを変えながら匂いを嗅ぐことで特定可能とされるが、このとき、匂い源の方向は、匂いの強度が高い方向として知覚される。このため、上記のように匂い源に対する鼻の向きに応じて匂いの強度を制御することで、匂い源の方向をユーザに知覚させることが可能となる。
 上記した本技術に係る情報処理装置においては、前記制御部は、前記鼻位置が前記匂い源に対して定められた匂いの効果範囲内にあるか否かを判定した結果に基づいて匂いの出力制御を行う構成とすることが考えられる。
 これにより、鼻の位置が匂い源による匂いの効果範囲内に存在しない場合には匂いの出力が行われないようにすることが可能とされる。
 上記した本技術に係る情報処理装置においては、前記制御部は、前記匂い源からの匂いの提示期間内において、匂いの出力が間欠的に行われるように制御する構成とすることが考えられる。
 これにより、匂いの提示期間中に匂い提示装置の匂い出力動作を連続的に行う必要がなくなる。
 上記した本技術に係る情報処理装置においては、前記制御部は、前記ユーザによる前記匂い源に対する所定のジェスチャが検出されたことに応じて前記匂い源を複製する構成とすることが考えられる。
 これにより、例えば匂い源をタッチするジェスチャに応じて、タッチした指の位置に追従することの指示情報を対応付けた匂い源を複製したり、匂い源を手で扇ぐジェスチャに応じて、扇いだ方向に移動することの指示情報を対応付けた匂い源を複製するといったことが可能とされる。
 上記した本技術に係る情報処理装置においては、前記制御部は、前記ジェスチャの検出に応じて複製した匂い源の位置を、前記匂い源をタッチした前記ユーザの部位に追従させる構成とすることが考えられる。
 これにより、例えばユーザが匂い源をタッチした場合には、該匂い源をタッチしたユーザの部位に匂い源が複製され、該部位の動きに追従して該複製した匂い源も移動される。すなわち、匂い源をタッチした部位に該匂い源の匂いが移ることが再現される。
 上記した本技術に係る情報処理装置においては、前記制御部は、前記ユーザが前記匂い源を手で扇ぐジェスチャが検出されたことに応じて前記匂い源を複製し、該複製した匂い源を前記手で扇いだ方向に移動させる構成とすることが考えられる。
 これにより、匂い源を扇いだ際に扇いだ方向に匂いが移動することを再現可能となる。
 上記した本技術に係る情報処理装置においては、前記制御部は、前記ユーザによる所定のジェスチャが検出されたことに応じて、前記複製した匂い源についての匂いの提示を停止する構成とすることが考えられる。
 これにより、ユーザの意思に応じて、複製した匂い源についての匂いの提示を停止することが可能とされる。
 上記した本技術に係る情報処理装置においては、前記制御部は、前記匂い源として設定された実空間上の物体に重畳投影される画像の変化に応じて、提示装置に出力させる匂いの種類又は匂いの強度を変化させる構成とすることが考えられる。
 これにより、仮想的な匂い源としての物体の種類や状態の変化が視覚的に示されることに連動して、匂いの種類や強度を変化させることが可能とされる。
 また、本技術に係る制御方法は、実空間に対応する所定の位置に仮想的な匂い源を設定し、前記匂い源とユーザの鼻の位置との位置関係に基づいて、匂いの出力制御を行う制御方法である。
 このような制御方法によっても、上記した本技術に係る情報処理装置と同様の作用が得られる。
 また、本技術に係るプログラムは、コンピュータ装置が読み取り可能なプログラムであって、実空間に対応する所定の位置に仮想的な匂い源を設定し、前記匂い源とユーザの鼻の位置との位置関係に基づいて、匂いの出力制御を行う処理を、前記コンピュータ装置に実行させるプログラムである。
 このようなプログラムにより、上記した本技術に係る情報処理装置を実現することが可能となる。
実施形態としての情報処理装置を含んで構成されるARシステムの構成例を示した図である。 実施形態における手の管理情報の例を示した図である。 実施形態における鼻の管理情報の例を示した図である。 実施形態における物体の管理情報の例を示した図である。 実施形態としてのARシステムの具体的な形態の例を示した図である。 実施形態としての匂い提示手法の第一例におけるARシステムの模式図である。 第一例における商品サンプルに対する投影画像の例を示した図である。 第一例における距離に応じた匂いの強度変化の例を示した図である。 タッチした指に匂いオブジェクトが複製されることの説明図である。 指と鼻位置との距離に応じて匂いが提示されることの説明図である。 指に香りが付着したことを表す投影画像の例を示した図である。 匂いオブジェクトが複製された指を他人の顔に近づけた際の様子を示した図である。 指の匂いを消す方法についての説明図である。 迅速に香りを試したい場合に対応した匂いの提示手法の例を説明するための図である。 実施形態としての匂い提示手法の第二例におけるARシステムの模式図である。 第二例における画像による演出の例を示した図である。 第二例においてステーキの焼き方やソースの選択をする際の演出例の説明図である。 第二例における焼き加減を選択するためのボタンの提示例を示した図である。 第三例における画像投影と匂い提示の例を示した図である。 第三例における調整操作子の例を示した図である。 第二例や第三例における距離に応じた匂いの強度変化の例を示した図である。 匂い発生物体を手で扇ぐジェスチャに応じた匂い提示の例を示した図である。 匂い発生物体定義情報を模式的に表した図である。 第一例の場合に対応した匂い発生物体定義情報の例を示した図である。 第二例及び第三例の場合に対応した匂い発生物体定義情報の例を示した図である。 匂いオブジェクト管理情報の例を示である。 匂いオブジェクトの操作定義情報を例示した図である。 オブジェクト生成部の処理を示したフローチャートである。 匂いオブジェクト制御部の処理を示したフローチャートである。 匂いオブジェクト更新部の処理を示したフローチャートである。 匂い提示制御部の処理を示したフローチャートである。 かき氷の味を変える匂い提示手法についての説明図である。 匂い提示を利用した宝探しゲームに適用する場合のARシステムの概要説明図である。 図33に示すシステムの動作例を説明するための図である。 同じく、図33に示すシステムの動作例を説明するための図である。 第一変形例で用いる匂いオブジェクト管理情報の例を示した図である。 第一変形例における匂い制御処理部が実行すべき処理手順の例を示したフローチャートである。 匂い提示装置による匂いの提示可能範囲を模式的に表した図である。 匂いオブジェクトが匂いの提示可能範囲内にある場合を例示した図である。 鼻位置から匂いオブジェクトを通過する直線上に匂いの提示位置を設定する例を示した図である。 鼻位置から匂いオブジェクトを通過する直線が匂いの提示可能範囲と重複しない場合を例示した図である。 第二変形例における匂いの強度の計算手法を説明するための図である。 鼻の向きに応じた匂いの強度の制御例を説明するための図である。 同じく、鼻の向きに応じた匂いの強度の制御例を説明するための図である。 第二変形例における情報処理装置が実行すべき処理手順の例を示したフローチャートである。 複数のユーザに対し共通の匂いオブジェクトからの匂いを提示する場合における匂いの提示位置の決定手法についての説明図である。 何れの匂い発生物体からの匂いが提示されているかを明示するための画像投影の例を示した図である。 同じく、何れの匂い発生物体からの匂いが提示されているかを明示するための画像投影の例を示した図である。
 以下、添付図面を参照し、本技術に係る実施形態を次の順序で説明する。

<1.実施形態としてのARシステムの構成>
<2.実施形態としての匂い提示手法>
(2-1.第一例)
(2-2.第二例)
(2-3.第三例)
<3.定義情報及び管理情報について>
<4.処理手順>
<5.匂い提示の変形例>
<6.第一変形例>
<7.第二変形例>
<8.その他変形例>
<9.プログラム及び記憶媒体>
<10.実施形態のまとめ>
<11.本技術>
<1.実施形態としてのARシステムの概要>

 図1は、本技術に係る実施形態としての情報処理装置(匂い制御処理部1)を含んで構成されるAR(Augmented Reality:拡張現実)システム50の構成例を示している。
 図示のようにARシステム50は、匂い制御処理部1、入力部2、認識処理部3、画像生成部4、画像出力部5、及び匂い提示装置6を備えている。
 入力部2は、イメージセンサ、デプスセンサ、タッチセンサなどを有し、実空間におけるユーザや物体の位置、及び姿勢や動きなどの状態を認識するための検出情報を得る。
 二次元の画像を取得することが可能なイメージセンサとしては、可視光に感度を有するセンサ、赤外光に感度を有するセンサなどを用いることができる。三次元情報を取得することが可能なデプスセンサとしては、ステレオカメラを用いたものやToF(Time of Flight)方式やストラクチャードライト(構造化光)方式による測距用のセンサなどを用いることができる。なお、物体の位置や状態を取得するセンサとしては超音波センサなどを用いることもできる。
 なお、タッチセンサは、後述する画像出力部5が液晶パネルや有機ELパネル等に情報表示を行うディスプレイ装置とされる場合において、該ディスプレイ装置の画面上にタッチパネルとして設けられる。
 認識処理部3は、入力部2で得られた検出情報を入力し、ユーザや物体の位置、及び姿勢や動きなどの状態を認識する演算処理装置として構成される。
 二次元画像を用いた認識処理としては、マーカ画像や、事前に認識対象の画像で学習した機械学習データベースを用いて、画像中の二次元の位置を特定するものが一般的である。三次元情報を用いた認識処理としては、認識対象の形状で学習した機械学習データベースを用いて、対象の三次元位置を特定するものが一般的である。
 本例において、認識処理部3は、ユーザの手や顔といった特定部位の認識機能を有する。特に、本例における認識処理部3は、ユーザの鼻の位置の認識機能を有している。
 ここで、鼻の認識は、入力部2の検出情報に含まれるノイズ等の影響により不能となる場合もある。そのような場合、ユーザの顔が認識されていれば、認識された顔の位置(例えば顔の中心位置)を鼻の位置とする。また、顔が認識できない場合には、鼻の位置は、認識されている他の部位から推定される位置とする。
 本明細書において、ユーザの鼻の位置としては、厳密に鼻そのものの位置を表すことに限らず、顔の位置等、鼻の位置としてみなすことのできる位置も包含する概念である。なお以下、「鼻の位置」は「鼻位置」と表記することもある。
 また、本例における認識処理部3は、ユーザによるジェスチャや操作入力についての認識を行う。
 本例において、ユーザによるジェスチャとしては、例えば実空間上における特定の物体をタッチするジェスチャや、手で扇ぐジェスチャ等を認識可能とされている。
 操作入力としては、後述する画像出力部5により表示させたボタン等の操作子の画像に触れることによる操作入力の有無を認識する。例えば、該操作子の画像を表示した位置にユーザの指が位置したか否かにより操作入力の有無を認識する。
 ここで、認識処理部3は、物体やユーザの手、鼻を認識した場合には、それぞれのオブジェクトを管理するための管理情報を生成する。
 図2から図4はそれらの管理情報の例を示しており、図2は手の管理情報、図3は鼻の管理情報、図4は物体の管理情報の例をそれぞれ示す。
 先ず前提として、ユーザの手、鼻や物体が認識された場合、認識処理部3は、それぞれ手ID、鼻ID、物体IDを割り振る。それぞれのIDは認識された時点で割り振られ、対象を見失うまでは同じIDが割り振られる。
 図2に示す手の管理情報においては、手IDに対し、位置と状態の情報が対応付けられている。手の位置の情報としては、認識した手における各指のうち特定の指(例えば人差し指等)の指先の位置が割り当てられる。なお、一つの手に対して複数の指先が認識される場合は、手の管理情報の子情報として同一フォーマットで指の管理情報を用意し、それぞれのIDを0,1,2、・・・としてまとめて管理する。
 状態の情報は、上述したジェスチャを含む、手の状態を識別するための情報である。本例では、該状態の情報は、後述する図27の定義情報で定義された状態のうちから識別され、対応する番号情報が格納される。
 ここで、手の状態の認識は、例えば二次元画像や三次元画像から得られる手の姿勢情報を予め種類ごとに学習したモデルを用いて行うことができる。手の状態は各手について一つだけ割り振られる。
 図3に示す鼻の管理情報においては、鼻IDに対し位置の情報が対応付けられる。
 なお、共通のユーザに属する手と鼻については、共通の手ID、鼻IDを用いることもできる。
 図4に示す物体の管理情報においては、物体IDに対し位置の情報、形状の情報、及び認識結果の情報が対応付けられる。
 形状の情報は、二次元での認識の場合は輪郭情報、三次元での認識の場合はメッシュ情報が用いられる。
 認識結果の情報は、物体認識処理の結果を表す情報であり、認識された物体の種別を表す情報を格納する。この認識結果の情報は、使用する認識方式によって異なる。例えば、一般画像認識を用いてピザと認識されたら”pizza”というテキストデータを格納する。或いは、限られたデータベースの中からクラスタリングする場合、それぞれのクラスタに整数ラベルを付け(例えば、0:pizza, 1:spaghetti, 2: dish, 3: folk, 4: knifeなど)、認識結果によって対応する整数を格納する。
 説明を図1に戻す。
 画像生成部4は、認識処理部3により認識された物体の種類や位置、状態の情報に基づき、ユーザに提示すべき仮想物体等のグラフィックスを含む画像を生成する。また、画像生成部4は、前述した操作用のボタン等のGUI(Graphical User Interface)を含む画像を生成することもできる。
 画像出力部5は、画像生成部4が生成した画像に基づき、ユーザに対してAR空間を視覚的に知覚させるための画像情報を出力する。画像出力部5としては、例えば、実空間に対し画像を投影するプロジェクタ装置やディスプレイ装置などとして構成される。ここで、ディスプレイ装置としては、ヘッドマウントディスプレイ(シースルータイプ)としての形態も採り得る。
 匂い制御処理部1は、後述する実施形態としての匂い提示手法を実現するための処理を実行するものであり、例えばCPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等を有したマイクロコンピュータ等を備えている。
 匂い制御処理部1は、認識処理部3により認識された情報を基に処理を行い、処理結果に基づき匂い提示装置6による匂いの出力動作を制御する。
 本例では、匂い制御処理部1は画像生成部4と接続されており、一部の処理結果を画像生成部4と共有することが可能とされている。
 匂い制御処理部1は、図中に匂いオブジェクト生成部11、匂いオブジェクト制御部12、匂いオブジェクト更新部13、匂い提示制御部14として示す各種の機能を有している。
 匂いオブジェクト生成部11は、認識処理部3により認識された情報と、後述する匂い発生物体定義情報とに基づき、匂いオブジェクトOsを生成する。
 ここで、匂いオブジェクトOsとは、仮想的な匂い源をオブジェクトとして扱うものであり、計算機上の仮想的な存在とされる。匂いオブジェクトOsは、対象とする匂い源の特性(例えば、匂いの種類や強度等)等を管理するための匂いオブジェクト管理情報(図26参照)によって管理されるオブジェクトとされる。
 本例のARシステム50では、実空間上に配置された特定の実物体を仮想的な匂い源として扱う、すなわち、仮想的に匂いを発生する物体として扱うように定められている。匂いオブジェクト生成部11は、認識処理部3による物体認識の結果、上述した匂い発生物体定義情報に定義されている認識条件を満たす物体がある場合は、該物体が匂い発生物体としての匂いオブジェクトOsとして管理されるように、該物体のID(物体ID)や位置の情報、及び匂い発生物体定義情報に格納される匂いの特性情報(匂いの種類や強度等)を記述した匂いオブジェクト管理情報を生成する。
 なお、匂い発生物体定義情報や匂いオブジェクト管理情報の詳細については後に改めて説明する。
 匂いオブジェクト制御部12は、認識処理部3により認識されたユーザの手の情報を用いて、手の状態や手と匂いオブジェクトOsとの位置関係に応じて匂いオブジェクトOsの振る舞いを制御する。
 匂いオブジェクト更新部13は、匂いオブジェクト管理情報の更新を行う。例えば、匂いオブジェクトOsの位置を更新したり、後述する持続時間(匂いの持続時間)が終了した匂いオブジェクトOsや、認識処理部3で認識されなくなった匂い発生物体についての匂いオブジェクトOsを破棄する処理等を行う。
 匂い提示制御部14は、認識処理部3により認識されたユーザの鼻位置の情報と匂いオブジェクトOsの位置の情報とに基づき、匂い提示装置6が出力する匂いの強度や匂いの出力先となる座標(すなわち匂いの提示位置となる座標)を計算し、匂い提示装置6に出力する。
 なお、匂い制御処理部1が有する匂いオブジェクト生成部11、匂いオブジェクト制御部12、匂いオブジェクト更新部13、及び匂い提示制御部14についての具体的な処理内容については後に改めて説明する。
 匂い提示装置6は、設定された匂いの強度及び座標の情報に基づいて匂いを出力する。
 本例の匂い提示装置6は、匂いを指定された座標に対して出力する匂い出力部と、匂いの源となる物質である匂い源物質を貯留したカートリッジとをそれぞれ一つ以上持つ。
 ここで、匂い源物質は、使用する匂いの種類分だけカードリッジを用意するのが一般的である。匂いを提示する手法としては、例えば、匂い源物質を風圧や超音波に乗せて送出する手法を採ることができる。なお、匂いを近距離に提示する手法としては、匂い源物質を含む液体を霧状に噴射する手法も利用可能である。
 なお、図示による説明は省略するが、匂い提示装置6は、ARシステム50内に複数設けることもできる。例えば、匂いの提示対象となるユーザが複数人であることを想定したシステムにおいては、ユーザごとに匂い提示装置6を設けた構成とすることもできる。或いは、複数の匂い提示装置6のうち、匂いの提示対象とするユーザの位置に応じた匂い提示装置6を適宜選択しながら匂い提示を行う構成を採ることもできる。
 図5は、ARシステム50の具体的な形態の例を示している。
 図5Aは、物体が配置されるテーブル等のステージの上方にペンダントライトやデスクスタンドライトのような上から画像を投影するプロジェクタ装置を備えたARシステム50の形態を例示したものである。この場合、ステージの上方にはプロジェクタ装置と入力部2の各種センサとが固定される。上方からプロジェクションするため、実物体へ情報を重畳することが可能である。また、この場合、匂い提示装置6が同様に物体の上方に配置されており、物体の付近で匂い提示が可能である。図ではテーブルの上となっているが、必ずしもテーブルの上でなくて良い。
 図5Bは、画像や匂いの提示を物体が存在するステージ面の下方から行うものである。画像の提示としては、裏側からプロジェクションするものや、ステージ面上に画面を有するディスプレイ装置を使うものなどがある。匂いの提示としては、匂い源物質を含む気体を出力する匂い提示装置6をステージ面の下方に設置し、ステージ面に開けた噴出口から匂いを提示する手法を挙げることができる。
 図5Cは、図5Aのような上方から画像の投影及び匂いの出力を行う方式で且つ、画像の投影方向や匂いの出力方向をパン・チルト雲台などで可変としたものである。
 図5Dは、スマートフォン端末やタブレット端末等の携帯型端末に匂い提示装置6を接続した形態である。この場合は、携帯型端末が有するカメラによる撮像画像に仮想物体を表す画像を重畳させてAR画像(AR空間を知覚させるための画像)を生成し、このAR画像を携帯型端末が有するディスプレイ装置に表示する。
 なお、図5Aや図5Bのようにテーブル等のステージを用いる形態の場合、該ステージ上に入力部2のタッチパネル(タッチセンサ)を設けた構成とすることもできる。
<2.実施形態としての匂い提示手法>
(2-1.第一例)

 以下、実施形態としての匂い提示手法の例について説明する。
 第一例は、香水の販促に好適な手法である。
 香水の売り場において、商品を購入したいと考えるユーザは、通常、商品のラベルを読んで種類を確認し、瓶を空けて自らの腕などに付けて香りを確かめるという手順を踏む。
 これに対し、第一例では、プロジェクションによって商品の香りのイメージを分かりやすく表示し、またユーザのタッチ等の手軽なインタラクションによってより簡単に香りを確かめることが可能となるようにする。
 図6に、第一例の場合におけるARシステム50の模式図を示す。香水瓶を模した商品のサンプルが配置されたステージの上部の天井にプロジェクタ装置(画像出力部5)、センサ(入力部2)、及び匂い提示装置6が配置されている。この場合、プロジェクタ装置及びセンサは、首振り機構を介して天井から支持され、画像投影方向やセンシング方向が可変とされている。匂い提示装置6は、例えば匂いの出力ノズルの向きが可変とされて匂いの出力方向が可変とされている。
 ステージ上の商品サンプルは、それぞれ香水瓶の形状をしているが、本例ではこれらサンプルは実際に匂いを発生するものではない。本例では、これらの商品サンプルを仮想的な匂い発生物体として扱う。
 第一例において、それぞれの商品サンプルは匂いの種類が異なる匂い発生物体として扱われるようにする。それぞれの商品サンプルの違いをARシステム50側(画像認識部4)で識別可能となるように、本例では、各商品サンプルとしてそれぞれ形状及び模様が異なるものを用いている。
 このとき、それぞれの商品サンプルには、例えば図7に例示するようにどのような匂いがするかを視覚的に表すための画像を投影する。具体的に、図7の例では、各香水の匂いのイメージカラーと匂いの名称を表す画像を投影している。
 このような画像投影を行うことで、それぞれの商品がどのような匂いがするかをユーザに把握させることができると共に、それらの商品に対して何らかのインタラクションが可能であることを認識させることができる。
 各商品サンプルがそれぞれ匂い発生物体として認識されることで、前述した匂いオブジェクトOsが商品サンプルごとに生成される。
 本例では、このように匂いオブジェクトOsが生成されたのみでは、ユーザに対する匂いの提示は行われない。本例では、匂い発生物体ごとに「効果範囲」が定められており、匂いオブジェクトOsとユーザの鼻位置との距離がこの効果範囲内である場合に、ユーザに対する匂いの提示が行われる。
 また、効果範囲内においては、匂いオブジェクトOsとユーザの鼻位置との距離に応じて、提示する匂いの強度を変化させる。
 図8は、このような距離に応じた匂いの強度変化の例を示した図である。
 図8Cに示すように鼻位置が匂いオブジェクトOsの効果範囲外にある状態では、匂い提示は行われず、図8B、図8AのようにオブジェクトOsに対して鼻位置が徐々に近づくことに応じて、提示する匂いの強度を徐々に強くする。
 また、第一例において、図9に示すようにユーザが手で直接商品サンプルをタッチすると、タッチした指に匂いオブジェクトOsが複製される。そのため、その指を自らの鼻位置に近づけると、その指と鼻位置との距離に応じて匂いが提示される(図10参照)。具体的にこの場合も、距離が近くなるほど提示される匂いが強くなるようにする。
 このとき、指に香りが付着した、ということをユーザに知らせるため、図11に例示するように、匂いオブジェクトOsが対応付けられた指に対して所定の画像を投影しても良い。
 また、図12のように、匂いオブジェクトOsが複製された指を他人の顔に近づけた際も、その人に対して同様に匂いが提示される。また、匂いオブジェクトOsが複製された指を他人の顔に向けた場合に、該他人に匂いを提示してもよい。このように、自分だけでなく、周りの人に香りを直感的に共有することが可能である。
 ここで、指の匂いを消したいときは、図13のように、複製元となった匂い発生物体とは別の物体(例えばテーブルなど)をタッチするか、手で扇ぐジェスチャを行う。これにより、手に複製された匂いオブジェクトOsが破棄され、無効化される。すなわち、それ以降は、指を鼻位置に近づけても匂いが提示されなくなる。
 また、迅速に香りを試したい場合には、図14のように、商品サンプルをダブルタップする。これにより、ユーザの鼻位置の近傍位置に匂いオブジェクトOsが複製され、ユーザは迅速に香りを嗅ぐことができる。
 このとき、ダブルタップで生成された匂いオブジェクトOsは、その持続時間が比較的短時間(例えば、1秒等)に設定される。すなわち、ダブルタップで生成された匂いオブジェクトOsは比較的短時間で破棄される。
 上述した手に付いた匂いを嗅ぐ場合には、ユーザは手を動かすことで自らの意思で匂いを嗅ぐか嗅がないかの選択ができるが、図14の提示例では鼻位置近傍に直接的に匂い提示が行われるため、ユーザはそのような選択ができない。このため、上記のように持続時間を短くすることが有効である。
(2-2.第二例)

 第二例は、レストラン等の飲食店でのメニュー選びに係る匂い提示手法の例である。本例では、メニュー選びにおいて、料理の状態を示す情報に基づいて提示する匂いを決定する。具体的には、料理を示す情報に基づいて、提示する匂いの強度や種類を変更してユーザに提示する。
 図15は、第二例におけるARシステム50の模式図である。
 物体が配置されるテーブルの上方にプロジェクタ装置(画像出力部5)とセンサ(入力部2)が固定されており、テーブル上に画像を投影可能とされている。匂い提示装置6は、テーブルの上で食事が置かれる位置(座席の前方)の上方に、座席の数だけ設置されており、食事の位置に匂いを提示可能とされている。
 画像による演出としては、図16に例示するように、皿の上に置かれた食品に画像を重畳投影し、食品の見た目を変えることが可能とされる。
 第二例では、このように食品に重畳投影される画像に合わせて、匂いを提示することで、注文するメニューのイメージを把握し易くしてメニュー選びの支援を行う。
 図16では、リゾットのメニュー選択をする際の演出例の説明図である。
 この演出例では、客の前に置かれた皿の上に盛られた調理前の生米に対して画像を重畳投影して、リゾットの見た目を表現する。具体的に、図16の例では、皿に盛られた生米に対しトマトの色や米のツヤの画像を投影して、トマトリゾットの見た目を表現したり、或いはバジルの色や米のツヤの画像を重畳投影してバジルリゾットの見た目を表現する例を示している。このとき、重畳する画像の切り替えは、時間経過に応じて行ったり、ユーザによる選択操作(ジェスチャでもよい)に応じて行うことができる。
 そして、トマトリゾット用の画像を投影する間には、匂い提示装置6によってトマトの匂いを提示し、バジルリゾット用の画像を投影する間にはバジルの匂いを提示する。
 このように演出することによって、ただ面白いだけでなく、客は単純にメニュー表から選ぶよりもリアリティをもってこれから提供される料理を確認することができるというメリットが有る。
 図17は、ステーキの焼き方やソースの選択をする際の演出例の説明図である。
 先ず、客の前に調理前の生肉が置いた皿が置かれると、それに対して、焼いた肉のテクスチャを投影すると共に、焼いた肉の匂いを提示する。
 このとき、客の前には、例えば図18に示すような形態により、レア、ミディアムレア、ウェルダン等の焼き加減を選択するためのボタンをプロジェクタ装置により投影し、ユーザが任意のボタンをタッチ操作すると、焼き加減に対応する画像、匂いに変化する。
 画像は、基本的に焼き加減が強いほど色が濃くなり、また匂い発生物体の匂いの強さのパラメータもそれに比例して大きくなる。
 焼き加減を決めたら、次にソース選択に移り、今度はソースの種類に対応するボタンを用意し、選択操作されたボタンに応じたソースの画像と匂いを提示する。
 上記のような演出例により、詳しくないと分かりにくいような調理方法の選択をインタラクティブかつリアリティを持って行うことができ、客にとって楽しく、また納得しながら行うことができるようになる。
 ここで、第二例においては、演出する料理(メニュー)の種類の分だけ匂い発生物体を定義する。具体的に、第二例では、少なくともリゾットとステーキという二種類の匂い発生物体を定義する。このとき、各匂い発生物体の認識は、皿の上に置かれた食材についてのマッチング結果のみでなく、皿の形状のマッチング結果も含めて行う。これにより、例えばメニュー表の写真に反応してしまうことの防止を図ることができる。
(2-3.第三例)

 第三例は、ユーザが実際に食べる料理に対して画像投影と匂いの提示を行うものである。
 図19では、ミートソースパスタにパルメザンチーズの画像投影と匂い提示を行う例を示している。
 先ず、ユーザの前にミートソースパスタを置く。このミートソースパスタに対しパルメザンチーズのテクスチャを投影することで、ミートソースパスタにパルスメザンチーズがかけられた状態を視覚的に表現することができる。
 このとき、ユーザの前には、例えば図20に示すような形態によりチーズの量の調整操作子(例えば、スライダーなど)としての画像を投影しておく。
 この調整操作子が操作されたことに応じ、投影されるチーズの量と、チーズの匂いの強さを変化させる。
 このようにすることで、実際はチーズが無い環境であってもチーズをかけた際の味を堪能できると共に、チーズの量を自由に調整して、味の変化を楽しむことが可能となる。
 ここで、第二例及び第三例においては、認識された料理の位置に匂いオブジェクトOsが生成され、匂いオブジェクトOsとユーザの鼻位置との距離に応じて匂いの強さが変化する。図21は、このことを模式的に表している。
 また、第二例及び第三例において、ユーザは、他のユーザに対して匂いを届けたいと考えることもある。そのような場合は、図22のように、匂い発生物体を手で扇ぐジェスチャを行う。これにより、扇いだ方向に所定の速度で移動する匂いオブジェクトOsが複製され、他のユーザに対し匂いを提示することができる。このとき、扇いだ方向側に存在するユーザに対する匂い提示は、該ユーザ側に配置された匂い提示装置6によって行われる。
 ここで、内部処理としては、匂い発生物体を手で扇ぐジェスチャが検出された場合に、該匂い発生物体の匂いオブジェクトOsが複製され、複製された匂いオブジェクトOsに扇いだ方向に対する速度が設定される。また、このとき持続時間を例えば5秒等とする。前述した匂いオブジェクト更新部13でこの速度に応じて複製された匂いオブジェクトOsの位置が移動していき、扇いだ方向側に居るユーザに近づくにつれて、該ユーザに提示する匂いの強度が高められていく。その後、持続時間が経過すると、この匂いオブジェクトOsは破棄される。例えば、2人でなく、4人で囲んで座っている場合も、扇ぐ方向を変えることで、どのユーザに匂いを届けるかを選択できる。
<3.匂い源の管理情報について>

 図23は、匂い発生物体定義情報を模式的に表している。
 各アプリケーションにおいて、それぞれ識別したい匂い発生物体ごとに、この定義情報を用意し用いることになる。
 図示のように匂い発生物体定義情報は、認識条件、匂いの種類、強さ、遷移可能性、効果範囲の各情報を対応付けた情報とされる。
 各項目の説明を以下に示す。
 認識条件は、前述した匂いオブジェクト生成部11が、認識処理部3で認識された物体の中から該当する匂い発生物体としての物体を抽出するための条件である。例えば、前述した第一例の場合には、シトラスの商品サンプルであれば、該シトラスの商品サンプルの形状や模様を表す情報が認識条件の情報として格納される。
 匂いの種類は、仮想的な匂い発生物体から発生させる匂いの種類を表す情報である。それぞれの物体に対して必ずしも匂いの種類は単一でなくてもよく、複数あってもよい。
 強さは、それぞれの匂いの強度を表す情報である。例えば、同じ匂いの種類を用いるとしても、半分くらいの強度で匂いを知覚させたい場合は、この強さの値を半分にする。各匂いについて定義するので、匂いの種類と同じ数だけ要素を持つ。
 遷移可能性は、該当する匂い発生物体について生成する匂いオブジェクトOsが、タッチ操作によって遷移するかどうかを規定するフラグ情報である。この遷移可能性としてのフラグが立っていない場合は、基本的に匂いオブジェクトOsの位置は匂い発生物体の位置に留まることになり、該フラグが立っている場合は、上述した第一例のようにタッチ操作によって匂いオブジェクトOsをタッチした手の位置に複製したり、第二例及び第三例のように匂い発生物体を扇ぐジェスチャに応じて匂いオブジェクトOsを複製して動かすことが可能となる。
 効果範囲は、該当する匂い発生物体について生成される匂いオブジェクトOsについて、ユーザに対する匂い提示を行う範囲を定めたものである。前述のように、ユーザの鼻位置がこの効果範囲内にあることを条件として、ユーザに対する匂いの提示が行われる。
 図24は、第一例の場合に対応した匂い発生物体定義情報の例を、図25は、第二例及び第三例の場合に対応した匂い発生物体定義情報の例をそれぞれ示している。
 図24では、シトラス系、グリーン系、フローラル系の三つの商品を扱うため、認識条件としては、各商品の模様や形状を表すための商品ごとの画像及び形状の情報が格納される。
 なお、図中において、強さや効果範囲の値についてはあくまで一例を示したものに過ぎず、これらの数値に限定されるものではない。図示の例では、香水の売場がパブリックな場であることを考慮して、効果範囲は100mmと比較的短めに設定してある。
 図25では、少なくともリゾット、生肉、焼いた肉、及びミートソースパスタの識別を可能とするために、認識条件としては、生米の画像と該生米が置かれる皿の形状を表す情報、生肉の画像と該生肉が置かれる皿の形状を表す情報、焼いた肉(生肉に焼き加減を表す画像を投影した状態)の画像と該肉が置かれる皿の形状を表す情報、ミートソースパスタの画像と該パスタが盛られる皿の形状を表す情報がそれぞれ格納される。
 生米に対する匂いの種類の情報としては、バジル、トマトなどの情報が格納されている。前述のように、これらバジルやトマトの匂いの切り替えは、ユーザ操作などに応じて行われる。また、生米に対する強さの情報としては、バジル、トマト等の匂いの種類ごとに対応する値が格納されている。
 生肉に対する匂いの種類の情報としては、焼いた肉の情報が格納されている。
 ここで、前述の例のように焼き加減に応じて匂いの強度を変化させる場合には、生肉に対する強さの情報として焼き加減ごとの強さの値を格納しておく。
 焼いた肉に対する匂いの種類の情報としては、わさび醤油やグレービーソース等の各ソースの匂いを表す情報が格納されている。また、焼いた肉に対する強さの情報としては、これらの匂いの種類ごとに対応する値が格納されている。
 ミートソースパスタに対する匂いの種類の情報としては、チーズの匂いを表す情報が格納されている。
 なお、本例では、料理に関する効果範囲の値としては図示のように500mmと第一例の場合よりも広くしている。
 図26は、匂いオブジェクトOsを管理するための匂いオブジェクト管理情報の例を示している。
 匂いオブジェクトOsは、同時に複数個存在し得る。匂いオブジェクト管理情報は、例えば、可変配列などで管理される。
 図示のように匂いオブジェクト管理情報は、匂いの種類、物体ID、手ID、位置、速度、強さ、遷移可能性、効果範囲、及び持続時間の各情報が対応付けられる情報とされる。
 ここで、匂いオブジェクトOsは、匂い発生物体から生成されるため、匂いの種類、遷移可能性、効果範囲、及び強さについては、対応する匂い発生物体定義情報からそのまま引き継がれる。
 物体IDは、当該匂いオブジェクト管理情報が匂い発生物体を対象として生成される場合において、対象とする匂い発生物体の物体IDが格納される。
 ここで、第一例の場合のように匂い発生物体に対するタッチ操作に伴いタッチした指に匂いオブジェクトOsを複製する場合に生成するオブジェクト管理情報では、物体IDは格納されない。この場合に生成されるオブジェクト管理情報には、手IDの情報として、タッチした指に対応する手IDが格納される。
 位置の情報は、当該匂いオブジェクト管理情報が匂い発生物体を対象として生成される場合には、対象とする匂い発生物体の位置の情報が格納される。当該匂いオブジェクト管理情報が匂い発生物体に対するタッチ操作に伴い生成される場合、位置の情報としてはタッチした指に対応する手の位置の情報が格納される。また、当該匂いオブジェクト管理情報が扇ぐジェスチャに伴い生成される場合、位置の情報は匂いオブジェクトOsの移動速度に応じて逐次更新される。
 速度の情報は、当該匂いオブジェクト管理情報が扇ぐジェスチャに伴い生成される場合において、匂いオブジェクトOsの移動速度を表す情報として格納される。この速度については固定値を用いてもよいし、扇ぐ速度等に応じて可変とすることもできる。
 図27は、匂いオブジェクトの操作定義情報を例示している。
 この操作定義情報は、認識処理部3が認識する手の状態ごとに、匂いオブジェクト制御部12が行うべき匂いオブジェクトOsへの操作内容を定義した情報である。
 前述のように手の状態は、認識処理部3が生成する手の管理情報(図2参照)で管理され、認識された状態は番号情報で表される。番号0は「ホバー状態」、番号1は「タッチ」、番号2は「ダブルタップ」、番号3は「扇ぐ」である。番号0の「ホバー状態」は、手がどこにも触れず浮いており且つ他の番号(1~3)の何れの状態にも該当しない状態である。番号1の「タッチ」は、手が匂い発生物体に1度触れる状態、番号2の「ダブルタップ」は手が匂い発生物体に対し所定時間内に2度触れる状態を意味する。番号3の「扇ぐ」は、手で匂い発生物体を扇ぐ状態を意味する。
 操作定義情報では、これらの各状態に対して匂いオブジェクト制御部12が行うべき匂いオブジェクトOsへの操作内容を表す情報が格納されている。「ホバー」に対する操作内容は、「何もしない」である。「タップ」に対する操作内容は、匂いオブジェクトOsを複製し、タッチした手の手IDを格納し、遷移可能性を「無し」にするという内容である。但し、既に同じ手IDをもつ匂いオブジェクトOsが存在する場合や、タッチした匂い発生物体についての匂いオブジェクトOsが遷移可能性「無し」の場合には、匂いオブジェクトOsの複製は行わない。
 「ダブルタップ」に対する操作内容は、匂いオブジェクトOsを複製し、位置の情報としてダブルタップした手と同じIDによる鼻の位置を格納すると共に、持続時間の情報として所定の時間を表す情報を格納するという内容である。
 「扇ぐ」の操作内容は、匂いオブジェクトOsを複製し、速度の情報を格納すると共に、遷移可能性を「無し」にするという内容である。このとき、持続時間については例えばアプリケーションごとに予め定められた所定の時間の情報を格納する。また、このとき、他に同じ手IDが格納された匂いオブジェクトOsが存在している場合には、該匂いオブジェクトOsを破棄する。これにより、同じ手によって扇ぐ動作が複数回行われた場合において、扇いだ方向に移動する匂いオブジェクトOsとしては、既存の匂いオブジェクトOsが破棄される一方で、新たな匂いオブジェクトOsが生成されることになる。なお、他に同じ手IDが格納された匂いオブジェクトOsが存在している場合には、「扇ぐ」ジェスチャが検出されても、匂いオブジェクトを複製しないという手法を採ることもできる。
<4.処理手順>

 図28から図31のフローチャートを参照して、実施形態としての匂い提示手法を実現するために実行すべき具体的な処理手順の例を説明する。
 なお、図28から図31に示す処理は、匂い制御処理部1のCPUが前述したROM等の所定の記憶装置に記憶されたプログラムに基づき実行するものである。
 図28は、匂い制御処理部1(CPU)が前述した匂いオブジェクト生成部11として実行する処理を示したフローチャートである。
 先ず、匂い制御処理部1はステップS101で、認識された物体から匂い発生物体を抽出する。すなわち、認識処理部3が認識物体ごとに生成する物体の管理情報(図4参照)と、図23から図25で説明した匂い発生物体定義情報とに基づき、認識処理部3が認識した物体から、匂い発生物体定義情報で定義される認識条件に合致する物体を匂い発生物体として抽出する。
 ステップS101で匂い発生物体を抽出したことに応じ、匂い制御処理部1はループ処理LP1により、全ての匂い発生物体についてステップS102以降の処理を繰り返す。
 ステップS102で匂い制御処理部1は、匂い発生物体に対応する匂いオブジェクトOsが存在するか否かを判定する。すなわち、処理対象としている匂い発生物体の物体IDと同一の物体IDが匂いオブジェクト管理情報に格納された匂いオブジェクトOsが存在するか否かを判定する。
 ステップS102において、匂い発生物体に対応する匂いオブジェクトOsが存在しないと判定した場合、匂い制御処理部1はステップS103に進んで匂いオブジェクトOsを生成する。すなわち、処理対象としている匂い発生物体の定義情報に格納された匂いの種類、遷移可能性、効果範囲、及び強さの情報を引き継ぐと共に、物体IDとして処理対象としている匂い発生物体の物体IDを格納した匂いオブジェクト管理情報を生成する。このとき、新たに生成する匂いオブジェクト管理情報における持続時間の情報としては、例えばアプリケーションごとに予め定められた所定の時間を表す情報を格納する。
 一方、ステップS102において匂い発生物体に対応する匂いオブジェクトOsが存在すると判定した場合、匂い制御処理部1はステップS104に進んで匂いオブジェクトOsを取得する。すなわち、物理IDが一致する既存の匂いオブジェクト管理情報がある場合には、該匂いオブジェクト管理情報を取得する。
 ステップS103又はS104の処理を実行したことに応じ、匂い制御処理部1はステップS105に処理を進める。ステップS105で匂い制御処理部1は、匂いオブジェクトOsのパラメータを更新する処理として、ステップS103又はS104で得た匂いオブジェクト管理情報における位置の情報を、処理対象としている匂い発生物体の位置の情報に更新する処理を行う。
 図29は、匂い制御処理部1が前述した匂いオブジェクト制御部12として実行する処理を示したフローチャートである。
 ステップS201で匂い制御処理部1は、ユーザの手を抽出する。すなわち、認識処理部3が生成する手の管理情報(図2参照)を取得する。
 ステップS201の処理を実行したことに応じ、匂い制御処理部1はループ処理LP2により、抽出した全ての手についてループ処理LP3を実行する。
 ループ処理LP3では、ステップS202以降の処理を全ての匂いオブジェクトOsについて繰り返し実行する。
 ステップS202で匂い制御処理部1は、手のIDと匂いオブジェクトOsの手IDが一致しているか否かを判定する。すなわち、処理対象としている手に対応付けられた手IDと、処理対象としている匂いオブジェクトOsについての匂いオブジェクト管理情報における手IDとが一致しているか否かを判定する。
 手のIDと匂いオブジェクトOsの手IDが一致していると判定した場合、匂い制御処理部1はステップS203に進み、匂いオブジェクトOsの位置を手の位置に更新する。すなわち、処理対象としている匂いオブジェクトOsについての匂いオブジェクト管理情報における位置の情報を、処理対象としている手の位置の情報に更新する。これにより、手IDの情報が格納された匂いオブジェクトOs、すなわち匂い発生物体をタッチしたことで複製された匂いオブジェクトOsの位置が、タッチした手の位置に更新される。
 一方、ステップS202で手のIDと匂いオブジェクトOsの手IDが一致していないと判定した場合、匂い制御処理部1はステップS204に進んで手と匂いオブジェクトOsの距離が近いか否かを判定する。具体的には、手と匂いオブジェクトOsの距離が、匂いオブジェクトOsの効果範囲内か否かを判定する。
 手と匂いオブジェクトOsの距離が匂いオブジェクトOsの効果範囲内であり、手と匂いオブジェクトOsの距離が近いとの判定結果を得た場合、匂い制御処理部1はステップS205に進んで匂いオブジェクトOsを操作する処理を行う。すなわち、処理対象としている手の管理情報に格納される状態の情報と、図27に示した操作定義情報とに基づき、匂いオブジェクトOsを操作する処理を行う。例えば、ホバーの場合は何らの操作も行わない。或いは、ダブルタップの場合は、匂いオブジェクトOsを複製し、位置の情報としてダブルタップした手と同じIDによる鼻の位置を格納すると共に持続時間の情報として所定の時間を表す情報を格納するといったように、手の管理情報から特定される手の状態に対し定義された内容の操作を行う。
 なお、第一例の図13で例示したように手で扇ぐジェスチャに応じて匂いオブジェクトOsを破棄する場合には、操作定義情報に該当する情報を格納しておくことで実現する。
 一方、ステップS204において手と匂いオブジェクトOsの距離が近くないとの判定結果を得た場合、匂い制御処理部1はループ処理LP3による1回分のループ処理を終える。なお、匂い制御処理部1は、ステップS203又はS205の処理を実行した場合にもループ処理LP3による1回分のループ処理を終える。
 図30は、匂い制御処理部1が前述した匂いオブジェクト更新部13として実行する処理を示したフローチャートである。
 ステップS301で匂い制御処理部1は、前フレームからの匂いオブジェクトOsを取得する。ここで言うフレームとは、匂い制御処理部1が図28から図31の各処理を繰り返し実行する上での各処理の実行周期を意味するものである。ステップS301の処理は、現在のフレームの直前フレームにおいて存在している匂いオブジェクトOs(匂いオブジェクト管理情報)を取得する処理となる。
 ステップS301の処理を実行したことに応じ、匂い制御処理部1はループ処理LP4により全ての匂いオブジェクトOsについてステップS302以降の処理を繰り返し実行する。
 ステップS302で匂い制御処理部1は、「現在時刻-生成時刻≦持続時間」であるか否かを判定する。ここで、生成時刻とは、処理対象としている匂いオブジェクトOsを生成した時刻であり、匂い制御処理部1が管理している情報である。ステップS302の処理は、生成時刻から現在時刻までの経過時間が、処理対象としている匂いオブジェクトOsの持続時間以内であるか否かを判定する処理となる。
 ステップS302において、「現在時刻-生成時刻≦持続時間」である(持続時間以内である)と判定した場合、匂い制御処理部1はステップS303に進んで匂いオブジェクトOsの位置を速度に応じて更新する。ここで、ステップS303の処理では、匂いオブジェクト管理情報に速度の情報が格納されていない場合には、位置の更新は行わない。
 一方、ステップS302において「現在時刻-生成時刻≦持続時間」である(持続時間をオーバーしている)と判定した場合、匂い制御処理部1はステップS303に進んで匂いオブジェクトOsを破棄する。
 図31は、匂い制御処理部1が前述した匂い提示制御部14として実行する処理を示したフローチャートである。
 ステップS401で匂い制御処理部1は、ユーザの鼻位置を抽出する。すなわち、認識処理部3が生成する鼻の管理情報(図3参照)で管理されている全ての鼻位置を取得する。
 ステップS401の処理を実行したことに応じ、匂い制御処理部1はループ処理LP5により、抽出した全ての鼻位置についてループ処理LP6を実行する。
 ループ処理LP6では、ステップS402以降の処理を全ての匂いオブジェクトOsについて繰り返し実行する。
 ステップS402で匂い制御処理部1は、鼻位置と匂いオブジェクトOsの距離が効果範囲内か否かを判定する。すなわち、処理対象としている鼻位置と、処理対象としている匂いオブジェクトOsの位置との離間距離が、該匂いオブジェクトOsの管理情報に格納された効果範囲の情報が示す値以内であるか否かを判定する。
 鼻位置と匂いオブジェクトOsの距離が効果範囲内でなければ、匂い制御処理部1はループ処理LP6による1回分のループ処理を終える。すなわち、匂いオブジェクトOsの効果範囲内でない鼻位置については、該匂いオブジェクトOsに係る匂いの提示は行われない。
 一方、ステップS402で鼻位置と匂いオブジェクトOsの距離が効果範囲内であると判定した場合、匂い制御処理部1はステップS403に進んで鼻位置と匂いオブジェクトOsの位置関係に応じて匂いを提示するための処理を行い、ループ処理LP6による1回分のループ処理を終える。
 ここで、ステップS403の処理では、鼻位置と匂いオブジェクトOsの位置に応じて出力する匂いの強度を決定する。具体的には、鼻位置と匂いオブジェクトOsとの距離が近いほど、匂いの強度が高まるようにする。ここで、強度を決定する上では、匂いオブジェクト管理情報に格納された強度の値を基礎とする。
 また、本例では、匂いの提示位置(匂いの出力先となる位置)は、匂いオブジェクトOsの位置とする。さらに、匂い提示装置6を複数用いる場合には、設定した匂いの提示位置に対して最も近い位置の匂い提示装置6を制御対象の匂い提示装置6として選択する。
 ステップS403の処理では、決定した匂いの提示位置に、決定した強度による匂いが出力されるように、制御対象とする匂い提示装置6に指示を行う。
 また、ステップS403の処理では、匂い提示装置6に対し、匂いオブジェクトOsに応じた種類の匂いを出力させる指示を行う。例えば、先に説明した第一例や第三例としての提示手法の場合には、匂いオブジェクト管理情報には匂いの種類が一つのみ対応づけられることになるため(図24、図25を参照)、ステップS403の処理では、対象としている匂いオブジェクトOsの管理情報に格納されている匂いの種類の情報を指示すればよい。
 これに対し、第二例としての提示手法の場合には、匂いオブジェクト管理情報における匂いの種類の情報として例えばバジル/トマトやわさび醤油/グレービーソース等、複数の情報が格納されることになる。前述のように、これら匂いの種類の切り替えは、ユーザによる選択操作等の所定の切り替え条件に応じて切り替えられるべきものであり、ステップS403の処理では、匂いの出力対象とされる匂いオブジェクトOsの管理情報に格納された複数の匂いの種類の情報のうち、このような切り替え条件に応じて選択した匂いの種類の情報を制御対象とする匂い提示装置6に指示する。これにより、第二例で説明したようなトマトリゾットの匂いからバジルリゾットの匂いへの切り替えや、ステーキのソースの匂いの切り替えを実現することができる。
<5.匂い提示の変形例>

 ここで、前述した第三例に似た例として、かき氷の味を変える匂い提示手法を挙げることができる。図32は、その説明図である。
 具体的には、かき氷を食するユーザに対し、提示する匂いの種類を例えばイチゴ、メロン、マンゴー、・・・のように順次切り替えていく。このとき、例えばかき氷の形状の認識結果を用いてユーザの食べ進み具合を判断し、例えば1/4等の所定量を食べる終えるごとに自動的に提示する匂いの種類を切り替えることも可能である。
 また、スマートフォンのARと匂い提示を組み合わせた以下のような宝探しゲームを実現することも可能である。
 図33にシステムの概要説明図を示す。
 この場合のARシステム50はスマートフォンを用いた形態とされ、該スマートフォンに小型の匂い提示装置6が装着されている。この匂い提示装置6は、スマートフォンの画面に対向する側に匂いを出力することが可能とされている。
 また、スマートフォンのアプリでは、カメラ画像がプレビューされており、マーカのついた仮想宝箱としての物体を写すと、該物体に対しAR画像が重畳される。中身は見た目だけではわからないが、近づいていくと匂い提示装置6から匂いが提示されて、中身が何であるかの推定が可能となり、仮想宝箱を開けるか開けないかの判断材料とすることができる。
 図34、図35を参照し、具体的な動作例を説明する。
 図34に示すような「A」のマーカのついた物体に火薬の匂いを、図35に示すような「B」のマーカのついた物体に金属の匂い(コインの匂い)を割り当てる。効果範囲は広めに1000mmなどとする。「A」の物体に近づくと火薬の匂いが、「B」の物体に近づくと金属の匂いがして、注意深く匂いを嗅ぎ分けたユーザは「B」の方に宝があると判断できる。
 このようにスマートフォン等の個人端末に匂い提示装置6を適用する利点として、例えばこのゲームをパブリックな街中でプレイする場合に空間側に匂い提示装置6を配置すると、該ゲームをプレイ中でない第三者にまで匂いが提示されてしまうが、上記構成ではそのような第三者への匂いの誤提示の防止を図ることができるという利点がある。
 なお、上記ではスマートフォンを用いる例を挙げたが、タブレット端末やARグラス、シースルー型のヘッドマウントディスプレイなども匂い提示装置6を装着することで適用可能である。
<6.第一変形例>

 上記では、匂いの提示期間(匂いを提示する条件が成立している期間)に匂いの出力を連続的に行う例を挙げたが、匂い提示期間において、匂いの出力を間欠的に行うようにすることもできる。
 図36は、第一変形例で用いる匂いオブジェクト管理情報の例を示した図である。
 図26に示した匂いオブジェクト管理情報との差異点は、無効時間と出力時刻の項目が追加された点である。
 無効時間は、間欠的な匂いの出力を実現する上で匂い出力のインターバル時間を定めたものであり、一旦匂いの出力を行った後は、この無効時間にわたって匂いオブジェクトOsが一時的に無効化され、匂い出力のインターバル期間が形成される。
 出力時刻は、当該匂いオブジェクト管理情報で管理される匂いオブジェクトOsについて匂い出力を行った時刻の情報を格納するものである。この出力時刻の情報は、匂い提示制御部14が匂いの出力制御を行った際に、該当する匂いオブジェクト管理情報に格納する。
 図37は、第一変形例における匂い制御処理部1(CPU)が実行すべき処理手順の例を示したフローチャートである。具体的には、第一変形例における匂い制御処理部1の匂いオブジェクト更新部13が実行する処理を示している。
 図30に示した匂いオブジェクト更新部13の処理との差異点は、ステップS303の処理を実行したことに応じ、ステップS310以降の処理を実行する点である。
 具体的に、この場合の匂い制御処理部1はステップS310で、匂いオブジェクトOsが無効になっているか否かを判定する。すなわち、処理対象としている匂いオブジェクトOsについて匂いの出力処理(ステップS403参照)が実行されたことに伴い、匂いオブジェクトOsが一時的に無効化された状態となっている否かを判定する。
 無効になっていないと判定した場合、匂い制御処理部1はループ処理LP4による1回分のループ処理を終える。
 一方、無効になっていると判定した場合、匂い制御処理部1はステップS311に進み、「現在時刻-出力時刻≧無効時間」であるか否かを判定する。これは、直前の出力時刻からの経過時間がインターバル期間としての無効時間以上となったか否かを判定していることに相当する。
 「現在時刻-出力時刻≧無効時間」であれば、匂い制御処理部1はステップS312に進み、処理対象としている匂いオブジェクトOsを有効化する処理を行い、ループ処理LP4による1回分のループ処理を終える。
 「現在時刻-出力時刻≧無効時間」でなければ、匂い制御処理部1はステップS312の処理をパスして、ループ処理LP4による1回分のループ処理を終える。
 上記のような処理により、匂いの提示期間内における間欠的な匂いの出力が実現される。
<7.第二変形例>

 これまでの説明では、匂い提示装置6による匂いの提示可能範囲(以下「提示可能範囲As」と表記する)内に匂いオブジェクトOsがあることを前提として、匂いの提示位置を匂いオブジェクトOsの位置とする例を挙げたが、システムの構成等によっては、匂いオブジェクトOsが提示可能範囲As内に存在することが保証されない場合もある。
 第二変形例は、そのような場合の対処法を提案するものである。
 図38から図44を参照し、第二変形例としての匂い提示手法について説明する。
 図38は、匂い提示装置6による提示可能範囲Asを模式的に表した図である。
 この図では、提示可能範囲Asは、匂い提示装置6による匂いの出力点を頂点とした四角錐状の範囲であるものとして例示している。匂い提示装置6は、このような提示可能範囲As内の任意の位置を匂いの提示位置として、該提示位置に対する匂いの出力を行うことが可能とされている。このとき、匂いの提示位置については、提示可能範囲Asとしての三次元空間上の任意の座標位置に設定可能とされている。
 なお、以下、匂いの提示位置については「提示位置s」と表記する。
 図39は、匂いオブジェクトOsが匂い提示装置6による提示可能範囲As内にある場合を例示した図である。
 図示のように匂い制御処理部1は、匂いオブジェクトOsが提示可能範囲As内にある場合には、匂いオブジェクトOsの位置(例えば匂いオブジェクトOsの中心位置等)に提示位置sを設定する。
 なお、以下、匂いオブジェクトOsの位置については「位置o」と表記する。
 図40、図41は、匂いオブジェクトOsが提示可能範囲As内に存在しない場合の説明図である。
 提示可能範囲As内に匂いオブジェクトOsが存在しない場合には、ユーザの鼻位置nと匂いオブジェクトOsとを通過する(位置oを通過する)直線Lsが、提示可能範囲Asと重複するか否かを判定した結果に基づいて提示位置sの設定を行う。
 図40では、直線Lsが提示可能範囲Asと重複する場合を例示している。この場合には、提示可能範囲As内における直線Ls上となる位置に提示位置sを設定する。
 これにより、匂いオブジェクトOsが提示可能範囲As外に位置する場合であっても、匂いオブジェクトOsが存在する方向から鼻位置nに匂いが伝達されるようにすることが可能とされる。
 図41は、直線Lsが提示可能範囲Asと重複しない場合を例示している。この場合には、提示可能範囲As内における直線Lsとの距離を最小とする位置に提示位置sを設定する。
 これにより、匂いオブジェクトOsが提示可能範囲As外に存在し且つ直線Lsが提示可能範囲Asと重複しない場合には、提示可能範囲As内において直線Lsにできるだけ近い位置に提示位置sが設定される。従って、匂い源が存在する方向になるべく近い方向から鼻位置nに匂いが伝達されるようにすることができる。
 ここで、ユーザに知覚させる匂いの強度は、提示位置sと鼻位置nと匂いオブジェクトOsとの位置関係に応じて制御することが望ましい。
 図42を参照し、具体的な匂いの強度の計算手法について説明する。
 匂いオブジェクトOsの位置oと鼻位置nとの位置関係をベクトルon^→(「^→」は「→」を直前文字列の上部に位置させることを意味する)、提示位置sと鼻位置nとの位置関係をベクトルsn^→として扱う。また、匂いオブジェクトOsの匂いの強度を「Ps」とし、匂いの減衰率をA(x^→)とする。
 このとき、提示位置sに出力する匂いの強度Poは、下記[式1]により求める。

Figure JPOXMLDOC01-appb-M000001

 ただし、Po≧0である。
 これは、例えば提示位置sが匂いオブジェクトOsの位置oより鼻位置nの近くにあるときは、基本的にA(sn^→)>A(on^→)となり、強度Poを強度Psより小さくして出力することで、実際の匂いオブジェクトOsの位置よりも鼻位置nに近い位置で匂い提示したことによりユーザの感じる匂いの強さが強くなってしまうことの防止を図ることができる。つまりその結果、匂いオブジェクトOsの位置から匂いが発生しているときの匂いの強さをユーザに正しく知覚させることができる。
 なお、匂いオブジェクトOsの位置oが提示位置sと一致する場合には、Po=Psとする。
 ここで、先の図41では、直線Ls上に提示位置sを設定できない場合について説明したが、直線Ls上に提示位置sを設定できない場合には、匂いオブジェクトOsに対するユーザの鼻の向きに応じて匂いの強度を制御することも可能である。
 実世界において、匂い源の方向は、ユーザが鼻の向きを変えながら匂いを嗅ぐことで特定可能とされるが、このとき、匂い源の方向は、匂いの強度が高い方向として知覚される。このため、上記のように匂い源に対する鼻の向きに応じて匂いの強度を制御することで、匂い源の方向をユーザに知覚させることが可能となる。
 図43及び図44を参照し、鼻の向きに応じた匂いの強度の制御例を説明する。
 基本的には、匂いオブジェクトOsが存在する方向に対する鼻の向きのずれが少ないほど、出力する匂いの強度Poを高めるようにする。
 図43に示すようにユーザの鼻の向きを単位ベクトルe^→で表す。このとき、下記[式2]のように強度Poを補正した強度Po’を求める。

Figure JPOXMLDOC01-appb-M000002

 ただし、Po’≧0である。
 図43は、[式2]における係数a、係数bをa=0.5、b=1とした場合に計算される強度Po’の例を示している。図43Aは匂いオブジェクトOsが存在する方向と鼻の向きとのずれが90度の場合、図43Bは匂いオブジェクトOsが存在する方向と鼻の向きとが一致している場合をそれぞれ示している。
 ここで、鼻の向きは、厳密に鼻と認識した部位の向きを検出することに限らず、顔の向きの検出を行った結果を流用する等、鼻の向きとしてみなすことのできる情報を用いればよい。
 図45は、第二変形例における匂い制御処理部1(CPU)が実行すべき処理手順の例を示したフローチャートである。具体的には、第二変形例における匂い制御処理部1の匂い提示制御部14が実行する処理を示している。
 なお、この図45では、先の第一変形例のように匂いの出力を間欠的に実行することを前提とした場合の処理を示している。
 この場合の匂い制御処理部1は、ステップS401でユーザの鼻位置を抽出する処理を行った上で、ループ処理LP7により、ステップS410以降の処理を全ての有効な匂いオブジェクトOsについて実行する。
 ここで、有効な匂いオブジェクトOsとは、第一変形例において説明した間欠的な匂い出力を行う場合における一時的に無効化されている状態の匂いオブジェクトOs以外の匂いオブジェクトOsを意味する。
 ステップS410で匂い制御処理部1は、1つ以上の鼻が匂いオブジェクトOsの効果範囲内に存在するか否かを判定する。1つ以上の鼻が匂いオブジェクトOsの効果範囲内に存在していなければ、匂い制御処理部1はループ処理LP7による1回分のループ処理を終える。つまりこの場合、処理対象とされた匂いオブジェクトOsに係る匂いの出力処理(S417)は実行されない。
 1つ以上の鼻が匂いオブジェクトOsの効果範囲内に存在していれば、匂い制御処理部1はステップS411に進み、使用する匂い提示装置6とその装置で提示する対象ユーザを決定する。具体的には、匂いオブジェクトOsの効果範囲内に存在するそれぞれのユーザについて、最も近く、且つ匂いオブジェクトOsの持つ匂いを提示可能な匂い提示装置6を選択する。この処理によって、例えば匂い提示装置6が1,2の二つ、該当するユーザがA,B,Cの三人いた場合に、1でユーザA,Bに匂い提示、2でユーザCに匂い提示、などのように決定することができる。
 ステップS411の処理を実行したことに応じ、匂い制御処理部1はループ処理LP8により、ステップS412以降の処理を全ての使用する匂い提示装置6について実行する。
 先ず、ステップS412で匂い制御処理部1は、匂いオブジェクトOsに出力時刻を記録する。すなわち、処理対象としている匂いオブジェクトOsについて生成されている、先の図36に示したような匂いオブジェクト管理情報における出力時刻として、現在時刻を格納する。
 ステップS412に続くステップS413で匂い制御処理部1は、最適な匂い提示位置を決定するための処理を実行する。
 ここで、このステップS413では、先の図39から図41で説明した手法により提示位置sを決定する。具体的な手順としては、先ず、処理対象としている匂いオブジェクトOsの位置oが、処理対象としている匂い提示装置6による提示可能範囲As内にあるか否かを判定する。位置oが提示可能範囲As内であると判定した場合は、提示位置sを位置oに設定する(図39参照)。
 位置oが提示可能範囲As内でないと判定した場合は、鼻位置nから匂いオブジェクトOsを通過する(位置oを通過する)直線Lsが、提示可能範囲Asと重複するか否かを判定した結果に基づいて提示位置sの設定を行う。具体的に、直線Lsが提示可能範囲Asと重複すると判定した場合は、提示可能範囲As内における直線Ls上となる位置に提示位置sを設定する。一方、直線Lsが提示可能範囲Asと重複しないと判定した場合は、提示可能範囲As内における直線Lsとの距離を最小とする位置に提示位置sを設定する。
 ここで、直線Ls上に提示位置sを設定する場合、基本的には、匂いオブジェクトOsに近い位置を選択する。
 ステップS413の処理を実行したことに応じ、匂い制御処理部1はステップS414で提示位置sとユーザの鼻位置nとの位置関係に応じて匂いの強度Poを計算する。具体的に本例では、先の[式1]により強度Poを計算する。
 なお、ステップS413で提示位置sを匂いオブジェクトOsの位置oに設定した場合は、Po=Psである。
 ステップS414に続くステップS415で匂い制御処理部1は、向きに応じて強度Poを変化させるか否かを判定する。具体的に、本例では、図41のように直線Ls上に提示位置oを設定できなかった場合であるか否かを判定する。
 向きに応じて強度Poを変化させる場合、匂い制御処理部1はステップS416に進み、匂いオブジェクトOsに対するユーザの鼻の向き(e^→)に応じて匂いの強度Poを再計算する。具体的には、先の[式2]により強度Po’を計算する。
 ステップS415で向きに応じて強度Poを変化させないと判定した場合、又はステップS416の再計算処理を実行した場合、匂い制御処理部1はステップS417に進み、計算した強度で匂いを出力するための処理を実行する。すなわち、処理対象としている匂い提示装置6に対し、決定した提示位置sに計算した強度Po又は強度Po’による匂いが出力されるようにするための指示を行う。
 このステップS417の処理を実行したことに応じ、匂い制御処理部1はループ処理LP8による1回分のループ処理を終える。
 ここで、図46に例示するように、共通の匂い提示装置6によって、複数のユーザに対し、共通の匂いオブジェクトOsからの匂いを提示する場合が考えられる。
 このような場合には、ユーザごとの鼻位置nから匂いオブジェクトOsの位置oまでの距離の差に基づく位置に提示位置sを設定する。具体的に、図46では、ユーザの数が2である場合の提示位置sの設定例を示している。この場合には、一方のユーザの鼻位置n1と位置oとを結ぶ直線L1と、他方のユーザの鼻位置n2と位置oとを結ぶ直線L2と、鼻位置n1と鼻位置n2とを結ぶ直線L3による三辺を有する三角形が形成される。直線L1の長さ(鼻位置n1から位置oまでの距離)をp、直線L2の長さ(鼻位置n2から位置oまでの距離)をqとしたとき、提示位置sは、直線L3上にとり得る点のうち、鼻位置n1からの距離と鼻位置n2からの距離の比率がp:qとなる点Pcから位置oを通過する直線Ls’上に設定する。このようにすることで、複数のユーザに対して、匂いの方向性を正しく表現することができる。
<8.その他変形例>

 ここで、上記では、直線Ls上に提示位置sを設定する際には、匂いオブジェクトOsに近い位置を選択することについて言及したが、直線Ls上の何れの位置を提示位置sとするかは、条件に応じて変更することもできる。
 例えば、レストランでのメニュー選びでは、匂いオブジェクトOsからの匂いが知覚されるタイミングが遅いと、ユーザが違和感や苛立ちを覚えることになりかねず、そのようなケースでは匂いオブジェクトOsからの匂いを早く知覚させることが望ましいと考えられる。一方で、匂いオブジェクトOsの種類や匂いオブジェクトOsが置かれる環境等によっては、匂いオブジェクトOsからの匂いが早く知覚されることが不自然であったり不都合であったりすることも想定され得る。
 そこで、上記のように直線Ls上の何れの位置を提示位置sとするかを、所定の条件に応じて変更する。例えば、所定の条件下では直線上Lsにおける匂いオブジェクトOsからの距離が所定値以内となる位置に提示位置sを設定し、別の条件下では、直線上Lsにおける匂いオブジェクトOsからの距離が所定値よりも大きくなる位置に提示位置sを設定する。これにより、条件に応じて匂いオブジェクトOsからの匂いが知覚されるタイミングの調整を行うことが可能となり、条件に応じた適切な匂い提示を実現することができる。
 また、匂いの提示と共にユーザに知覚させる視覚的効果については、これまでに挙げた具体例に限定されない。
 例えば、図47や図48に例示するように、匂い提示を行っている匂い発生物体にのみ特定の画像を表示することで、何れの匂い発生物体からの匂いが提示されているかをユーザが容易に把握できるようにすることもできる。これら図47、図48では、先に説明した第一例の場合への適用例を示している。図47では匂い提示を行っている匂い発生物体(図の例ではグリーンの香水瓶)にのみ雲形状の特定画像を表示し、図48では匂い提示を行っている匂い発生物体にのみ物体中心から外側に向けて徐々に色が薄くなるグラデーション画像を表示する例を示している。
 ここで、これまでの説明では、実空間に存在する実物体を仮想的な匂い発生物体(仮想的な匂い源)として扱う例を挙げたが、実物体ではなく仮想物体を仮想的な匂い発生物体として扱うこともできる。すなわち、仮想的な匂い源を設定する位置は、実物体が存在する実空間における位置に限らず、例えば実空間を模した仮想空間において存在する仮想物体の位置とすることもできる。この意味で、本技術において仮想的な匂い源の設定位置は、実空間に対応する所定の位置とすればよい。
 仮想物体を仮想的な匂い発生物体として扱う場合、仮想物体の位置はシステムが内部的に把握しているため、ステップS101(図28)のような認識された物体から匂い発生物体を抽出する処理を行う必要はなくなる。この場合の匂い発生物体に対する匂いオブジェクト管理情報での「位置」の情報としては、内部的に把握されている該当する仮想物体の位置の情報を格納すればよい。
<9.プログラム及び記憶媒体>

 以上、実施形態としての情報処理装置(匂い制御処理部1)を説明してきたが、実施形態のプログラムは、匂い制御処理部1としての処理をCPU等のコンピュータ装置に実行させるプログラムである。
 実施形態のプログラムは、コンピュータ装置が読み取り可能なプログラムであって、仮想的な匂い源を設定し、匂い源とユーザの鼻位置との位置関係に基づいて匂いの出力制御を行う処理を、コンピュータ装置に実行させるプログラムである。
 すなわち、このプログラムは、例えばコンピュータ装置に図28から図31等により説明した処理を実行させるプログラムに相当する。
 このようなプログラムは、コンピュータ装置が読み取り可能な記憶媒体、例えばROMやSSD(Solid State Drive)、HDD(Hard Disk Drive)等に予め記憶しておくことができる。或いはまた、半導体メモリ、メモリーカード、光ディスク、光磁気ディスク、磁気ディスク等のリムーバブル記憶媒体に、一時的又は永続的に格納(記憶)しておくことができる。またこのようなリムーバブル記憶媒体は、いわゆるパッケージソフトウェアとして提供することができる。
 また、このようなプログラムは、リムーバブル記憶媒体からパーソナルコンピュータ等にインストールする他、ダウンロードサイトから、LAN(Local Area Network)、インターネット等のネットワークを介してスマートフォン等の所要の情報処理装置にダウンロードすることもできる。
<10.実施形態のまとめ>

 上記のように実施形態としての情報処理装置(匂い制御処理部1)は、実空間に対応する所定の位置に仮想的な匂い源(匂いオブジェクトOs)を設定する設定部(匂いオブジェクト生成部11)と、匂い源とユーザの鼻の位置との位置関係に基づいて、匂いの出力制御を行う制御部(匂い提示制御部14等)と、を備えるものである。なお、前述のように、実空間に対応する所定の位置は、実空間における所定の位置でもよいし、実空間に対応する仮想空間における所定の位置でもよい。
 上記のようにユーザの鼻の位置と匂い源との位置関係に基づき匂いの出力制御を行うことで、匂い源から匂っているということを表現することが可能とされる。
 従って、AR空間に対するユーザの没入感を高めることができる。
 また、実施形態としての情報処理装置においては、制御部は、匂い源と鼻の位置との距離に応じて、匂いの強度を制御している(図31のステップS403、図45のステップS414からS417を参照)。
 これにより、鼻の位置が匂い源の近くに位置している場合には匂いの強度を大きくする等、匂い源との距離に応じた適切な強度による匂いをユーザに知覚させることが可能となる。
 従って、匂い源との距離感を適切に表現することができ、ユーザのAR空間への没入感を高めることができる。
 さらに、実施形態としての情報処理装置においては、制御部は、鼻の位置と匂い源とを通過する直線(同Ls)上に匂いの提示位置を設定している(図40参照)。このとき、設定される匂い源の位置は、匂いの提示可能範囲内に設定されてもよいし、提示可能範囲外とされてもよい。
 これにより、匂い源が存在する方向(つまり仮想的な匂い源として設定した物体)から鼻の位置に匂いを伝達することが可能とされる。
 従って、匂い源から匂っているということを適切に表現することができ、AR空間に対するユーザの没入感を高めることができる。
 さらにまた、実施形態としての情報処理装置においては、制御部は、鼻位置と匂い源の位置とに基づいて提示位置(同s)を設定し、提示位置に匂いを出力する制御を行っている(図31のステップS403、図45のステップS413からS417を参照)。
 これにより、匂い源から匂っているということを表現する上で適切とされる位置に匂いの提示を行うことが可能とされる。
 従って、AR空間に対するユーザの没入感を高めることができる。
 また、実施形態としての情報処理装置においては、制御部は、提示位置に出力する匂いの強度を、提示位置と鼻の位置と匂い源との位置関係に応じて制御している(図42参照)。
 これにより、提示位置が匂い源とは異なる位置に設定される場合であっても、提示位置、鼻の位置、匂い源の三者の位置関係に基づいて適切な強度による匂いをユーザに知覚させることが可能とされる。
 従って、匂い源からの匂いの表現の正確性向上を図ることができる。
 さらに、実施形態としての情報処理装置においては、制御部は、匂い提示装置がユーザに匂いを提示することが可能な範囲である提示可能範囲(同As)内に匂い源が存在するか否かを判定した結果に基づいて、匂い提示装置による匂いの提示位置を設定している(図45のステップS414を参照)。
 これにより、匂い源が提示可能範囲内にある場合とない場合とで、それぞれ適切な匂いの提示位置を設定することが可能とされる。すなわち、提示可能範囲が狭いこと等に起因して匂い源が提示可能範囲外に位置されてしまう場合であっても、適切な匂いの出力制御を行うことが可能とされる。
 従って、提示可能範囲の広い匂い提示装置の使用を前提とする必要がなくなり、使用可能な匂い提示装置の制約の緩和を図ることができる。
 さらにまた、実施形態としての情報処理装置においては、制御部は、提示可能範囲内に匂い源が存在しないと判定した場合は、鼻の位置と匂い源とを通過する直線が提示可能範囲と重複するか否かを判定した結果に基づいて、提示位置の設定を行っている(図45のステップS414を参照)。
 これにより、匂い源が提示可能範囲内になく匂いの提示位置を匂い源の位置に設定できない場合であっても、鼻の位置と匂い源とを通過する直線が提示可能範囲と重複していれば、該直線上に提示位置を設定することが可能とされる。
 従って、匂い源が匂いの提示可能範囲外に位置する場合であっても、匂い源が存在する方向から鼻の位置に匂いが伝達されるようにすることができ、匂いの表現の正確性向上を図ることができる。
 また、実施形態としての情報処理装置においては、制御部は、直線が提示可能範囲と重複すると判定した場合は、提示可能範囲内における直線上となる位置に提示位置を設定している。
 これにより、匂い源が匂いの提示可能範囲外に位置する場合であっても、匂い源が存在する方向から鼻位置に匂いが伝達されるようにすることが可能とされる。
 従って、匂いの表現の正確性向上を図ることができる。
 さらに、実施形態としての情報処理装置においては、制御部は、直線が提示可能範囲と重複しないと判定した場合は、提示可能範囲内における直線との距離を最小とする位置に提示位置を設定している。
 これにより、匂い源が匂いの提示可能範囲外に存在し且つ鼻の位置と匂い源とを通過する直線が提示可能範囲と重複しない場合には、提示可能範囲内において該直線にできるだけ近い位置に提示位置が設定される。
 従って、匂い源が存在する方向になるべく近い方向から鼻の位置に匂いが伝達されるようにすることができ、匂いの表現の正確性向上を図ることができる。
 さらにまた、実施形態としての情報処理装置においては、制御部は、直線上における提示位置を条件に応じて変更している。
 これにより、所定の条件下においては直線上における鼻の位置に近い位置に提示位置を設定して匂い源からの匂いが知覚されるタイミングを早めたり、別の条件下では直線上における鼻の位置から遠い位置に提示位置を設定して匂い源からの匂いが知覚されるタイミングを遅めたりするといったことが可能とされる。
 従って、条件に応じて匂い源からの匂いが知覚されるタイミングの調整を行うことが可能となり、条件に応じた適切な匂い提示を実現することができる。
 また、実施形態としての情報処理装置においては、制御部は、匂い源に対するユーザの鼻の向きに応じて匂いの強度を制御している(図45のステップS416を参照)。
 実世界において、匂い源の方向は、ユーザが鼻の向きを変えながら匂いを嗅ぐことで特定可能とされるが、このとき、匂い源の方向は、匂いの強度が高い方向として知覚される。このため、上記のように匂い源に対する鼻の向きに応じて匂いの強度を制御することで、匂い源の方向をユーザに知覚させることが可能となる。
 ここで、提示位置を鼻の位置と匂い源とを通過する直線上に設定した場合にはユーザに匂い源の方向を適切に知覚させることができるが、提示位置を該直線上に設定できない場合もある。上記のように鼻の向きに応じて匂いの強度を制御する手法は、このように提示位置を直線上に設定できない場合に適用して好適な手法である。
 さらに、実施形態としての情報処理装置においては、制御部は、鼻の位置が匂い源に対して定められた匂いの効果範囲内にあるか否かを判定した結果に基づいて匂いの出力制御を行っている(図31、図45の処理を参照)。
 これにより、鼻の位置が匂い源による匂いの効果範囲内に存在しない場合には匂いの出力が行われないようにすることが可能とされる。
 従って、鼻の位置が匂い源に対して遠くに位置しているにも拘わらず匂いの出力動作が無闇に行われてしまうことの防止が図られ、匂い提示装置の消費電力削減や匂い出力に用いられる匂い源物質の浪費防止を図ることができる。
 さらにまた、実施形態としての情報処理装置においては、制御部は、匂い源からの匂いの提示期間内において、匂いの出力が間欠的に行われるように制御している(第一変形例を参照)。
 これにより、匂いの提示期間中に匂い提示装置の匂い出力動作を連続的に行う必要がなくなる。
 従って、匂い提示装置の消費電力削減や匂い出力に用いられる匂い源物質の浪費防止を図ることができる。
 また、実施形態としての情報処理装置においては、制御部は、匂い源に対して、ユーザの所定のジェスチャが検出されたことに応じて匂い源を複製している(図29のステップS205を参照)。
 これにより、例えば匂い源をタッチするジェスチャに応じて、タッチした指の位置に追従することの指示情報を対応付けた匂い源を複製したり、匂い源を手で扇ぐジェスチャに応じて、扇いだ方向に移動することの指示情報を対応付けた匂い源を複製するといったことが可能とされる。
 従って、匂い源に対するユーザのジェスチャに応じた適切な匂いの制御を行うことができる。
 さらに、実施形態としての情報処理装置においては、制御部は、ジェスチャの検出に応じて複製した匂い源の位置を、匂い源をタッチしたユーザの部位に追従させている(図29のステップS205を参照)。
 これにより、例えばユーザが匂い源をタッチした場合には、該匂い源をタッチしたユーザの部位に匂い源が複製され、該部位の動きに追従して該複製した匂い源も移動される。すなわち、匂い源をタッチした部位に該匂い源の匂いが移ることが再現される。
 従って、匂い源に対するユーザのジェスチャに応じた適切な匂いの制御を行うことができる。
 さらにまた、実施形態としての情報処理装置においては、制御部は、ユーザが匂い源を手で扇ぐジェスチャが検出されたことに応じて匂い源を複製し、該複製した匂い源を手で扇いだ方向に移動させている(図29のステップS205を参照)。
 これにより、匂い源を扇いだ際に扇いだ方向に匂いが移動することを再現可能となる。
 従って、匂い源に対するユーザのジェスチャに応じた適切な匂いの制御を行うことができる。
 また、実施形態としての情報処理装置においては、制御部は、ユーザによる所定のジェスチャが検出されたことに応じて、複製した匂い源についての匂いの提示を停止している(図29のステップS205を参照)。
 これにより、ユーザの意思に応じて、複製した匂い源についての匂いの提示を停止することが可能とされる。
 従って、ユーザの意思に応じた適切な匂いの制御を行うことができる。
 さらに、実施形態としての情報処理装置においては、制御部は、匂い源として設定された実空間上の物体に重畳投影される画像の変化に応じて、提示装置に出力させる匂いの種類又は匂いの強度を変化させている(図16から図20等を参照)。
 これにより、仮想的な匂い源としての物体の種類や状態の変化が視覚的に示されることに連動して、匂いの種類や強度を変化させることが可能とされる。
 従って、臭覚的効果を視覚的効果に連動させることにより、ユーザのAR空間への没入感を高めることができる。
 また、実施形態としての制御方法は、実空間に対応する所定の位置に仮想的な匂い源を設定し、匂い源とユーザの鼻の位置との位置関係に基づいて匂いの出力制御を行う制御方法である。
 このような実施形態としての制御方法によっても、上記した実施形態としての情報処理装置と同様の作用及び効果を得ることができる。
 また、実施形態のプログラムは、コンピュータ装置が読み取り可能なプログラムであって、実空間に対応する所定の位置に仮想的な匂い源を設定し、匂い源とユーザの鼻の位置との位置関係に基づいて匂いの出力制御を行う処理を、コンピュータ装置に実行させるプログラムである。
 このようなプログラムにより、上記した実施形態としての情報処理装置を実現することができる。
 なお、本明細書に記載された効果はあくまでも例示であって限定されるものではなく、また他の効果があってもよい。
<11.本技術>

 なお本技術は以下のような構成も採ることができる。
(1)
実空間に対応する所定の位置に仮想的な匂い源を設定する設定部と、
 前記匂い源とユーザの鼻の位置との位置関係に基づいて、匂いの出力制御を行う制御部と、を備える
 情報処理装置。
(2)
 前記制御部は、
 前記匂い源と前記鼻の位置との距離に応じて、前記匂いの強度を制御する
 前記(1)に記載の情報処理装置。
(3)
 前記制御部は、
 前記鼻の位置と前記匂い源とを通過する直線上に前記匂いの提示位置を設定する
 前記(1)又は(2)に記載の情報処理装置。
(4)
 前記制御部は、
 前記鼻の位置と前記匂い源の位置とに基づいて前記匂いの提示位置を設定し、前記提示位置に前記匂いを出力する制御を行う
 前記(1)から(3)の何れかに記載の情報処理装置。
(5)
 前記制御部は、
 前記提示位置に出力する匂いの強度を、前記提示位置と前記鼻の位置と前記匂い源との位置関係に応じて制御する
 前記(3)又は(4)に記載の情報処理装置。
(6)
 前記制御部は、
 匂い提示装置が前記ユーザに匂いを提示することが可能な範囲である提示可能範囲内に前記匂い源が存在するか否かを判定した結果に基づいて、前記匂い提示装置による前記匂いの提示位置を設定する
 前記(1)から(5)の何れかに記載の情報処理装置。
(7)
 前記制御部は、
 前記提示可能範囲内に前記匂い源が存在しないと判定した場合は、前記鼻の位置と前記匂い源とを通過する直線が前記提示可能範囲と重複するか否かを判定した結果に基づいて、前記提示位置の設定を行う
 前記(6)に記載の情報処理装置。
(8)
 前記制御部は、
 前記直線が前記提示可能範囲と重複すると判定した場合は、前記提示可能範囲内における前記直線上となる位置に前記提示位置を設定する
 前記(7)に記載の情報処理装置。
(9)
 前記制御部は、
 前記直線が前記提示可能範囲と重複しないと判定した場合は、前記提示可能範囲内における前記直線との距離を最小とする位置に前記提示位置を設定する
 前記(7)又は(8)に記載の情報処理装置。
(10)
 前記制御部は、
 前記直線上における前記提示位置を条件に応じて変更する
 前記(3)又は(7)に記載の情報処理装置。
(11)
 前記制御部は、
 前記匂い源に対する前記ユーザの鼻の向きに応じて匂いの強度を制御する
 前記(1)から(10)の何れかに記載の情報処理装置。
(12)
 前記制御部は、
 前記鼻の位置が前記匂い源に対して定められた匂いの効果範囲内にあるか否かを判定した結果に基づいて匂いの出力制御を行う
 前記(1)から(11)の何れかに記載の情報処理装置。
(13)
 前記制御部は、
 前記匂い源からの匂いの提示期間内において、匂いの出力が間欠的に行われるように制御する
 前記(1)から(11)の何れかに記載の情報処理装置。
(14)
 前記制御部は、
 前記匂い源に対して、前記ユーザの所定のジェスチャが検出されたことに応じて前記匂い源を複製する
 前記(1)から(13)の何れかに記載の情報処理装置。
(15)
 前記制御部は、
 前記ジェスチャの検出に応じて複製した匂い源の位置を、前記匂い源をタッチした前記ユーザの部位に追従させる
 前記(14)に記載の情報処理装置。
(16)
 前記制御部は、
 前記ユーザが前記匂い源を手で扇ぐジェスチャが検出されたことに応じて前記匂い源を複製し、該複製した匂い源を前記手で扇いだ方向に移動させる
 前記(14)又は(15)に記載の情報処理装置。
(17)
 前記制御部は、
 前記ユーザによる所定のジェスチャが検出されたことに応じて、前記複製した匂い源についての匂いの提示を停止する
 前記(14)から(16)の何れかに記載の情報処理装置。
(18)
 前記制御部は、
 前記匂い源として設定された実空間上の物体に重畳投影される画像の変化に応じて、提示装置に出力させる匂いの種類又は匂いの強度を変化させる
 前記(1)から(17)の何れかに記載の情報処理装置。
 1 匂い制御処理部
 2 入力部
 3 認識処理部
 4 画像生成部
 5 画像出力部
 6 匂い提示装置
 11 匂いオブジェクト生成部
 12 匂いオブジェクト制御部
 13 匂いオブジェクト更新部
 14 匂い提示制御部
 50 ARシステム
 Os 匂いオブジェクト
 As 提示可能範囲
 n 鼻位置
 o 匂いオブジェクトの位置
 s 提示位置

Claims (20)

  1.  実空間に対応する所定の位置に仮想的な匂い源を設定する設定部と、
     前記匂い源とユーザの鼻の位置との位置関係に基づいて、匂いの出力制御を行う制御部と、を備える
     情報処理装置。
  2.  前記制御部は、
     前記匂い源と前記鼻の位置との距離に応じて、前記匂いの強度を制御する
     請求項1に記載の情報処理装置。
  3.  前記制御部は、
     前記鼻の位置と前記匂い源とを通過する直線上に前記匂いの提示位置を設定する
     請求項1に記載の情報処理装置。
  4.  前記制御部は、
     前記鼻の位置と前記匂い源の位置とに基づいて前記匂いの提示位置を設定し、前記提示位置に前記匂いを出力する制御を行う
     請求項1に記載の情報処理装置。
  5.  前記制御部は、
     前記提示位置に出力する匂いの強度を、前記提示位置と前記鼻の位置と前記匂い源との位置関係に応じて制御する
     請求項3に記載の情報処理装置。
  6.  前記制御部は、
     匂い提示装置が前記ユーザに匂いを提示することが可能な範囲である提示可能範囲内に前記匂い源が存在するか否かを判定した結果に基づいて、前記匂い提示装置による前記匂いの提示位置を設定する
     請求項1に記載の情報処理装置。
  7.  前記制御部は、
     前記提示可能範囲内に前記匂い源が存在しないと判定した場合は、前記鼻の位置と前記匂い源とを通過する直線が前記提示可能範囲と重複するか否かを判定した結果に基づいて、前記提示位置の設定を行う
     請求項6に記載の情報処理装置。
  8.  前記制御部は、
     前記直線が前記提示可能範囲と重複すると判定した場合は、前記提示可能範囲内における前記直線上となる位置に前記提示位置を設定する
     請求項7に記載の情報処理装置。
  9.  前記制御部は、
     前記直線が前記提示可能範囲と重複しないと判定した場合は、前記提示可能範囲内における前記直線との距離を最小とする位置に前記提示位置を設定する
     請求項7に記載の情報処理装置。
  10.  前記制御部は、
     前記直線上における前記提示位置を条件に応じて変更する
     請求項3に記載の情報処理装置。
  11.  前記制御部は、
     前記匂い源に対する前記ユーザの鼻の向きに応じて匂いの強度を制御する
     請求項1に記載の情報処理装置。
  12.  前記制御部は、
     前記鼻の位置が前記匂い源に対して定められた匂いの効果範囲内にあるか否かを判定した結果に基づいて匂いの出力制御を行う
     請求項1に記載の情報処理装置。
  13.  前記制御部は、
     前記匂い源からの匂いの提示期間内において、匂いの出力が間欠的に行われるように制御する
     請求項1に記載の情報処理装置。
  14.  前記制御部は、
     前記匂い源に対して、前記ユーザの所定のジェスチャが検出されたことに応じて前記匂い源を複製する
     請求項1に記載の情報処理装置。
  15.  前記制御部は、
     前記ジェスチャの検出に応じて複製した匂い源の位置を、前記匂い源をタッチした前記ユーザの部位に追従させる
     請求項14に記載の情報処理装置。
  16.  前記制御部は、
     前記ユーザが前記匂い源を手で扇ぐジェスチャが検出されたことに応じて前記匂い源を複製し、該複製した匂い源を前記手で扇いだ方向に移動させる
     請求項14に記載の情報処理装置。
  17.  前記制御部は、
     前記ユーザによる所定のジェスチャが検出されたことに応じて、前記複製した匂い源についての匂いの提示を停止する
     請求項14に記載の情報処理装置。
  18.  前記制御部は、
     前記匂い源として設定された実空間上の物体に重畳投影される画像の変化に応じて、提示装置に出力させる匂いの種類又は匂いの強度を変化させる
     請求項1に記載の情報処理装置。
  19.  実空間に対応する所定の位置に仮想的な匂い源を設定し、前記匂い源とユーザの鼻の位置との位置関係に基づいて、匂いの出力制御を行う
     制御方法。
  20.  コンピュータ装置が読み取り可能なプログラムであって、
     実空間に対応する所定の位置に仮想的な匂い源を設定し、前記匂い源とユーザの鼻の位置との位置関係に基づいて、匂いの出力制御を行う処理を、前記コンピュータ装置に実行させる
     プログラム。
PCT/JP2020/025472 2019-09-25 2020-06-29 情報処理装置、制御方法、プログラム WO2021059642A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-174327 2019-09-25
JP2019174327 2019-09-25

Publications (1)

Publication Number Publication Date
WO2021059642A1 true WO2021059642A1 (ja) 2021-04-01

Family

ID=75164963

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/025472 WO2021059642A1 (ja) 2019-09-25 2020-06-29 情報処理装置、制御方法、プログラム

Country Status (1)

Country Link
WO (1) WO2021059642A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150351518A1 (en) * 2013-09-26 2015-12-10 Lg Electronics Inc. Digital device and method for controlling the same
WO2016199451A1 (ja) * 2015-06-12 2016-12-15 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置
WO2017094284A1 (ja) * 2015-11-30 2017-06-08 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置
JP2019139465A (ja) * 2018-02-09 2019-08-22 ソニー株式会社 制御装置、制御方法及びプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150351518A1 (en) * 2013-09-26 2015-12-10 Lg Electronics Inc. Digital device and method for controlling the same
WO2016199451A1 (ja) * 2015-06-12 2016-12-15 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置
WO2017094284A1 (ja) * 2015-11-30 2017-06-08 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置
JP2019139465A (ja) * 2018-02-09 2019-08-22 ソニー株式会社 制御装置、制御方法及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
NARUMI TAKUJI, TANIKAWA TOMOHIRO, HIROSE MICHITAKA: "3.2 Cookie Recognition Part'', 3.2 Visual Information Superimposing Part'', ''3.4 Olfactory Information Superimposing Part", META COOKIE: A MIXED-REALITY COOKIE WHICH CHANGES ITS TASTE, 6 June 2013 (2013-06-06), pages 1 - 2, XP055808899, Retrieved from the Internet <URL:http://www.interaction-ipsj.org/archives/paper2010/demo/0124/0124.pdf> [retrieved on 20200729] *

Similar Documents

Publication Publication Date Title
JP6906580B2 (ja) ビューポートベースの拡張現実触覚効果のシステム、方法及び非一時的コンピュータ可読媒体
US10732721B1 (en) Mixed reality glasses used to operate a device touch freely
US10417825B2 (en) Interactive cubicle and method for determining a body shape
US20180356898A1 (en) Sessionless pointing user interface
US10341642B2 (en) Display device, control method, and control program for stereoscopically displaying objects
US10444876B2 (en) Human-computer interface device and system
US10453259B2 (en) Information processing device, client device, information processing method, and program
EP3599532A2 (en) A system for importing user interface devices into virtual/augmented reality
US20150356788A1 (en) Information processing device, client device, information processing method, and program
US10691397B1 (en) Mobile computing device used to operate different external devices
KR20170012422A (ko) 레이더-기반 제스처 인식
JP2012527847A (ja) 台所及び家庭用器具のコントロール
WO2021259341A1 (zh) 交互系统、交互方法和机器可读存储介质
US20050014560A1 (en) Method and system for simulating interaction with a pictorial representation of a model
EP1839109A1 (en) Computer-implemented method and system for giving a user an impression of tactile feedback
WO2021059642A1 (ja) 情報処理装置、制御方法、プログラム
JP2021189674A (ja) コンピュータプログラム、サーバ装置、端末装置、及び方法
CN114007709A (zh) 在物理领域中与客户交互的数字角色
WO2019244437A1 (ja) 情報処理装置、情報処理方法及びプログラム
US20230143099A1 (en) Breathing rhythm restoration systems, apparatuses, and interfaces and methods for making and using same
KR20150077152A (ko) 음식 및 테이블 스타일링을 위한 장치 및 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20867044

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20867044

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP