JP2011096171A - Multisensory interaction system - Google Patents

Multisensory interaction system Download PDF

Info

Publication number
JP2011096171A
JP2011096171A JP2009251845A JP2009251845A JP2011096171A JP 2011096171 A JP2011096171 A JP 2011096171A JP 2009251845 A JP2009251845 A JP 2009251845A JP 2009251845 A JP2009251845 A JP 2009251845A JP 2011096171 A JP2011096171 A JP 2011096171A
Authority
JP
Japan
Prior art keywords
user
virtual object
reaction force
information
presenting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009251845A
Other languages
Japanese (ja)
Other versions
JP5477740B2 (en
Inventor
Hiroshi Ando
広志 安藤
Dong Wook Kim
ドンウク キム
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Information and Communications Technology
Original Assignee
National Institute of Information and Communications Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute of Information and Communications Technology filed Critical National Institute of Information and Communications Technology
Priority to JP2009251845A priority Critical patent/JP5477740B2/en
Publication of JP2011096171A publication Critical patent/JP2011096171A/en
Application granted granted Critical
Publication of JP5477740B2 publication Critical patent/JP5477740B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To give a user higher realistic sensation and actual sensation for a virtual object, by presenting four pieces of sensation information to a user by closely linking them. <P>SOLUTION: A multisensory interaction system 10 includes a computer 12 for performing the whole control, and gives a user the sensation, which the virtual object really exists, by integrating the two or more pieces of sensation information and presenting them to a user. A three-dimensional monitor 14 displays the stereoscopic video image of the virtual object. A tactile sensation device 18 receives an operation by a user and gives reaction force generated by touching the virtual object to the user. A headphone 16 and an olfactory sensation display 20 present sound and smell to the user, corresponding to the reaction force from the virtual object, that is, in conjunction with force actively given to the virtual object by the user. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

この発明は多感覚インタラクションシステムに関し、特にたとえば、複数の感覚情報を統合して提示することによって仮想物体が実在している感覚をユーザに与える、多感覚インタラクションシステムに関する。   The present invention relates to a multisensory interaction system, and more particularly to a multisensory interaction system that gives a user a sense of existence of a virtual object by integrating and presenting a plurality of sensory information.

従来の多感覚インタラクションシステムの一例が特許文献1に開示されている。特許文献1のシステムは、3D表示部、力覚提示部および音出力部を備え、ユーザの動作に合わせて接触音をリアルタイムで生成している。そして、視覚、聴覚および触覚の3つの感覚情報を統合して提示することによって、仮想物体が実在している感覚をユーザに与えている。   An example of a conventional multisensory interaction system is disclosed in Patent Document 1. The system of Patent Literature 1 includes a 3D display unit, a force sense presentation unit, and a sound output unit, and generates a contact sound in real time according to the user's operation. Then, by integrating and presenting the three sensory information of visual, auditory, and tactile senses, the user is given a sense that the virtual object actually exists.

一方、視聴覚情報に加えて嗅覚情報を提示するシステムも数多く提案されている。たとえば、非特許文献1には、画面上に表示された風船に向かって手をかざすと、それに合わせて風船が割れて香りが提示されるシステムが開示されている。
特開2009−205626号公報 [G06T 17/40] http://www.iwata-kaori.jp/ 「磐田市香りの博物館」
On the other hand, many systems that present olfactory information in addition to audiovisual information have been proposed. For example, Non-Patent Document 1 discloses a system in which when a hand is held over a balloon displayed on a screen, the balloon is broken and the scent is presented accordingly.
JP 2009-205626 A [G06T 17/40] http://www.iwata-kaori.jp/ “Manda Scent Museum”

人間は、視覚、聴覚、嗅覚、味覚および触覚のいわゆる五感を総合的に用いて、外界からの情報を獲得している。したがって、仮想物体が実在している感覚をユーザに与えるためには、より多くの感覚情報を緊密に連携させて提示することが望ましい。しかしながら、特許文献1の技術では、視覚、聴覚および触覚の3つの感覚情報を統合して提示するだけであるので、臨場感や現実感という点においては、十分とは言えない。また、非特許文献1の技術では、触覚情報の提示は行われておらず、仮想物体が実在している感覚をユーザに与えることができない。   Humans acquire information from the outside world by comprehensively using the so-called five senses of vision, hearing, smell, taste and touch. Therefore, in order to give the user a sense that the virtual object actually exists, it is desirable to present more sensory information in close cooperation. However, since the technique of Patent Document 1 simply presents three sensory information of vision, hearing, and tactile sense, it is not sufficient in terms of realism and realism. Further, in the technique of Non-Patent Document 1, tactile information is not presented, and the user cannot be given a sense that a virtual object is actually present.

それゆえに、この発明の主たる目的は、新規な、多感覚インタラクションシステムを提供することである。   Therefore, the main object of the present invention is to provide a novel multisensory interaction system.

この発明の他の目的は、より高い臨場感や現実感をユーザに与えることができる、多感覚インタラクションシステムを提供することである。   Another object of the present invention is to provide a multisensory interaction system capable of giving a user a higher sense of reality and realism.

この発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明などは、本発明の理解を助けるために後述する実施の形態との対応関係を示したものであって、この発明を何ら限定するものではない。   The present invention employs the following configuration in order to solve the above problems. Note that reference numerals in parentheses and supplementary explanations indicate correspondence with embodiments described later in order to help understanding of the present invention, and do not limit the present invention.

第1の発明は、複数の感覚情報を統合して提示することによって仮想物体が実在している感覚をユーザに与える多感覚インタラクションシステムであって、仮想物体の映像を提示する視覚情報提示手段、ユーザによる操作を受け付け仮想物体からの反力を提示する触覚情報提示手段、および反力に応じて匂いを提示する嗅覚情報提示手段を備える、多感覚インタラクションシステムである。   1st invention is the multisensory interaction system which gives a user the sense that the virtual object exists by unifying and presenting a plurality of sensory information, visual information presenting means for presenting the video of the virtual object, It is a multisensory interaction system including tactile information presenting means for accepting an operation by a user and presenting a reaction force from a virtual object, and an olfactory information presenting means for presenting an odor according to the reaction force.

第1の発明では、多感覚インタラクションシステム(10)は、視覚情報提示手段(12,14,22,24,26)を備え、視覚情報提示手段は、仮想物体の映像、つまり視覚情報をユーザに提示する。触覚情報提示手段(12,18,30)は、ユーザの操作を受け付ける操作部(30)を含み、操作部の位置および仮想物体(対象物)の物性などに応じて、操作部が仮想物体に触れることによって生じる反力を算出し、操作部を操作するユーザにその反力、つまり触覚情報を与える。嗅覚情報提示手段(12,20,32)は、ユーザの能動的な動作に伴って触覚情報提示手段によって提示される反力に応じて、ユーザに匂い、つまり嗅覚情報を提示する。たとえば、反力が臨界値を超えたときにユーザに匂いを提示したり、反力の大きさに比例させて匂いの強度や時間の長短を変えてユーザに匂いを提示したりする。   In the first invention, the multisensory interaction system (10) includes visual information presenting means (12, 14, 22, 24, 26), and the visual information presenting means provides a video of a virtual object, that is, visual information to the user. Present. The tactile information presentation means (12, 18, 30) includes an operation unit (30) that accepts a user operation, and the operation unit is changed to a virtual object according to the position of the operation unit and the physical properties of the virtual object (target object). The reaction force generated by touching is calculated, and the reaction force, that is, tactile information is given to the user who operates the operation unit. The olfactory information presenting means (12, 20, 32) presents an odor, that is, olfactory information to the user according to the reaction force presented by the tactile information presenting means in accordance with the user's active movement. For example, when the reaction force exceeds a critical value, the scent is presented to the user, or the scent is presented to the user by changing the intensity of the scent or the length of time in proportion to the magnitude of the reaction force.

第1の発明によれば、視覚情報および触覚情報に加えて嗅覚情報を連動させてユーザに提示するので、仮想物体が実在しているような感覚を高い臨場感や現実感でユーザに与えることができる。また、ユーザの能動的な動作に伴って嗅覚情報を提示するので、ユーザは嗅覚情報を意識し易くなり、嗅覚情報によって臨場感を高める効果がより有効なものとなる。   According to the first invention, in addition to the visual information and the tactile information, the olfactory information is presented to the user in an interlocked manner, so that a sense that a virtual object is actually present is given to the user with a high sense of reality and realism. Can do. In addition, since the olfactory information is presented in accordance with the user's active action, the user can easily become aware of the olfactory information, and the effect of enhancing the sense of reality by the olfactory information becomes more effective.

第2の発明は、第1の発明に従属し、視覚情報提示手段は、仮想物体の立体映像を提示する。   A second invention is dependent on the first invention, and the visual information presentation means presents a stereoscopic image of the virtual object.

第2の発明では、視覚情報提示手段(12,14,22,24,26)は、仮想物体の立体映像をユーザに提示する。つまり、視覚情報を現実世界により近い状態でユーザに提示する。したがって、より高い臨場感や現実感をユーザに与えることができる。   In the second invention, the visual information presenting means (12, 14, 22, 24, 26) presents a stereoscopic image of the virtual object to the user. That is, visual information is presented to the user in a state closer to the real world. Therefore, a higher sense of reality and realism can be given to the user.

第3の発明は、第1または第2の発明に従属し、反力に応じて音を提示する聴覚情報提示手段をさらに備える。   A third invention is dependent on the first or second invention, and further includes auditory information presenting means for presenting sound according to reaction force.

第3の発明では、聴覚情報提示手段(12,16)をさらに備える。聴覚情報提示手段は、ユーザの能動的な動作に伴って触覚情報提示手段(12,18,30)によって提示される反力に応じて、ユーザに音、つまり聴覚情報を提示する。   In 3rd invention, an auditory information presentation means (12, 16) is further provided. The auditory information presenting means presents sound, that is, auditory information to the user according to the reaction force presented by the tactile information presenting means (12, 18, 30) in accordance with the user's active movement.

第3の発明によれば、視覚、聴覚、触覚および嗅覚の4つの感覚情報を連携させてユーザに提示するので、より高い臨場感や現実感をユーザに与えることができる。   According to the third aspect of the invention, the four sense information of vision, hearing, touch, and smell are presented to the user in association with each other, so that a higher sense of reality and realism can be given to the user.

第4の発明は、第1ないし第3のいずれかの発明に従属し、視覚情報提示手段は、反力に応じて仮想物体の形状を変化させて提示し、嗅覚情報提示手段は、仮想物体が形状変化したときに匂いを提示する。   The fourth invention is dependent on any one of the first to third inventions, the visual information presenting means changes the shape of the virtual object according to the reaction force, and the olfactory information presenting means is the virtual object. Presents an odor when the shape changes.

第4の発明では、視覚情報提示手段(12,14,22,24,26)は、ユーザの能動的な動作に伴って触覚情報提示手段(12,18,30)によって提示される反力に応じて、仮想物体の形状を変化させて提示する。嗅覚情報提示手段(12,20,32)は、仮想物体が形状変化したとき、たとえば、仮想物体が破裂したり、窪んだりしたときに匂いを提示する。   In the fourth invention, the visual information presenting means (12, 14, 22, 24, 26) reacts with the reaction force presented by the tactile information presenting means (12, 18, 30) in accordance with the active movement of the user. In response, the virtual object shape is changed and presented. The olfactory information presenting means (12, 20, 32) presents an odor when the shape of the virtual object is changed, for example, when the virtual object is ruptured or depressed.

第4の発明によれば、視覚、触覚および嗅覚の3つの感覚情報がより緊密に連携してユーザに提示されるので、より高い臨場感や現実感をユーザに与えることができる。   According to the fourth aspect of the invention, the three sensory information of vision, touch, and smell are presented to the user in closer cooperation, so that a higher sense of reality and reality can be given to the user.

第5の発明は、第1ないし第4のいずれかの発明に従属し、視覚情報提示手段は、匂いの発生を想起させる効果映像をさらに提示する。   The fifth invention is dependent on any one of the first to fourth inventions, and the visual information presenting means further presents an effect image reminiscent of the generation of an odor.

第5の発明では、視覚情報提示手段(12,14,22,24,26)は、たとえば仮想物体からユーザに向かって飛んでくる放射状の線のような、匂いの発生を想起させる効果映像を表示する。   In the fifth invention, the visual information presenting means (12, 14, 22, 24, 26) displays an effect image reminiscent of the generation of an odor, such as a radial line flying from a virtual object toward the user. indicate.

第5の発明によれば、効果映像を表示することによって、ユーザの注意力が増すので、ユーザは嗅覚情報をより強く感じることができ、嗅覚情報によって臨場感を高める効果がより有効なものとなる。   According to the fifth invention, since the user's attention is increased by displaying the effect image, the user can feel the olfactory information more strongly, and the effect of enhancing the sense of reality by the olfactory information is more effective. Become.

第1の発明によれば、視覚情報および触覚情報に加えて嗅覚情報を連動させてユーザに提示するので、仮想物体が実在しているような感覚を高い臨場感や現実感でユーザに与えることができる。また、ユーザの能動的な動作に伴って嗅覚情報を提示するので、ユーザは匂いを意識し易くなり、嗅覚情報によって臨場感を高める効果がより有効なものとなる。   According to the first invention, in addition to the visual information and the tactile information, the olfactory information is presented to the user in an interlocked manner, so that a sense that a virtual object is actually present is given to the user with a high sense of reality and realism. Can do. In addition, since the olfactory information is presented in accordance with the user's active action, the user can easily be aware of the odor, and the effect of enhancing the sense of reality by the olfactory information becomes more effective.

また、第3の発明によれば、視覚、聴覚、触覚および嗅覚の4つの感覚情報を緊密に連携させてユーザに提示するので、より高い臨場感や現実感をユーザに与えることができる。   Further, according to the third invention, since the four sensory information of visual, auditory, tactile and olfactory senses are closely linked to each other and presented to the user, a higher sense of reality and realism can be given to the user.

この発明の上述の目的、その他の目的、特徴および利点は、図面を参照して行う後述の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features, and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

この発明の一実施例の多感覚インタラクションシステムをユーザが体験している様子を示す図解図である。It is an illustration figure which shows a mode that the user is experiencing the multisensory interaction system of one Example of this invention. この発明の一実施例の多感覚インタラクションシステムの構成を示すブロック図である。It is a block diagram which shows the structure of the multisensory interaction system of one Example of this invention. 図2のコンピュータのメモリのメモリマップを示す図解図である。FIG. 3 is an illustrative view showing a memory map of a memory of the computer of FIG. 2. 図2の多感覚インタラクションシステムの動作を説明するための図解図である。It is an illustration figure for demonstrating operation | movement of the multisensory interaction system of FIG. 図2のコンピュータのCPUが実行する全体処理の一例を示すフロー図である。It is a flowchart which shows an example of the whole process which CPU of the computer of FIG. 2 performs. 図2のコンピュータのCPUが実行する全体処理の他の一例を示すフロー図である。It is a flowchart which shows another example of the whole process which CPU of the computer of FIG. 2 performs.

図1を参照して、この発明の一実施例である多感覚インタラクションシステム10(以下、単に「システム10」という。)は、3次元モニタ14、ヘッドホン16、触覚デバイス18および嗅覚ディスプレイ20を備え、視覚、聴覚、触覚および嗅覚の4つの感覚情報を統合してユーザに提示することによって、仮想物体が実在しているような感覚をユーザに与える。   Referring to FIG. 1, a multisensory interaction system 10 (hereinafter simply referred to as “system 10”) according to an embodiment of the present invention includes a three-dimensional monitor 14, headphones 16, a tactile device 18, and an olfactory display 20. By integrating and presenting to the user the four sensory information of vision, hearing, touch and smell, the user is given a sensation that the virtual object is actually present.

図2は、システム10の構成を示すブロック図である。図2に示すように、システム10は、全体制御を実行するコンピュータ12を備え、このコンピュータ12には、3次元モニタ14、ヘッドホン16、触覚デバイス18および嗅覚ディスプレイ20等が接続される。   FIG. 2 is a block diagram showing the configuration of the system 10. As shown in FIG. 2, the system 10 includes a computer 12 that performs overall control, and the computer 12 is connected to a three-dimensional monitor 14, headphones 16, a tactile device 18, an olfactory display 20, and the like.

3次元モニタ14は、仮想物体(対象物)の立体映像(視覚情報)をユーザに提示するものであり、ディスプレイ22、ハーフミラー24および液晶シャッタメガネ26を含む。この3次元モニタ14では、コンピュータ12からの信号に基づいてディスプレイ22に仮想物体の映像22a(図1参照)が表示され、その映像22aはハーフミラー24によって反射される。また、液晶シャッタメガネ26は、エミッタ28を介して送られるコンピュータ12からの信号に基づいて左右視差が生じるように制御される。この液晶シャッタメガネ26を装着したユーザは、ハーフミラー24を介して仮想物体の立体映像を見ることができる。   The three-dimensional monitor 14 presents a stereoscopic image (visual information) of a virtual object (target object) to the user, and includes a display 22, a half mirror 24, and liquid crystal shutter glasses 26. In the three-dimensional monitor 14, a virtual object image 22 a (see FIG. 1) is displayed on the display 22 based on a signal from the computer 12, and the image 22 a is reflected by the half mirror 24. Further, the liquid crystal shutter glasses 26 are controlled so as to generate a left / right parallax based on a signal from the computer 12 sent via the emitter 28. A user wearing the liquid crystal shutter glasses 26 can view a stereoscopic image of the virtual object through the half mirror 24.

ヘッドホン16は、コンピュータ12からの信号に基づいて音(聴覚情報)を出力する。ただし、ヘッドホン16の代わりに、或いはヘッドホン16と共に、スピーカによってユーザに音を提示してもよい。   The headphones 16 output sound (auditory information) based on signals from the computer 12. However, the sound may be presented to the user by a speaker instead of the headphone 16 or together with the headphone 16.

触覚デバイス18は、コンピュータ12と双方向に連動して、仮想物体に触れたユーザにその反力(感触、触覚情報)を提示するものである。触覚デバイス18は、ユーザによる操作を受け付けるペン型の操作部30を含み(図1では操作部30以外の部分は省略している)、操作部30には、その位置および仮想物体の物性(硬さや風合い)等に応じた反力が与えられる。この操作部30を操作するユーザは、仮想物体を疑似的に触ることができ、仮想物体に外力を与えることができる。触覚デバイス18としては、たとえば、Phantom(登録商標)Premium1.5を用いることができる。ただし、触覚デバイス18の種類はこれに限定されず、たとえば、グローブ型の操作部を有する触覚デバイスを用いてもよい。   The tactile device 18 is interactively linked to the computer 12 and presents the reaction force (feeling, tactile information) to the user who has touched the virtual object. The tactile device 18 includes a pen-type operation unit 30 that accepts an operation by a user (a portion other than the operation unit 30 is omitted in FIG. 1). The operation unit 30 includes a position and a physical property (hardness of a virtual object). A reaction force according to the sheath texture) is given. A user who operates the operation unit 30 can artificially touch the virtual object and can apply an external force to the virtual object. As the tactile device 18, for example, Phantom (registered trademark) Premium 1.5 can be used. However, the type of the tactile device 18 is not limited to this, and for example, a tactile device having a globe-type operation unit may be used.

嗅覚ディスプレイ20は、コントローラ32を介して送られるコンピュータ12からの信号に基づいて、ユーザに匂い(香り、嗅覚情報)を提示する。コントローラ32は、コンピュータ12から送られてくる指示信号に応じて嗅覚ディスプレイ20を駆動するためのPIC(Peripheral Interface Controller)マイコン34およびMOS-FET36を含み、嗅覚ディスプレイ20は、コントローラ32からの指示に従って時空間制御可能に匂いを放出する。嗅覚ディスプレイ20としては、公知のものを用いることができる。たとえば、香料を封入したマイクロカプセルを破壊して芳香を発生させ、その芳香を送風ファンによって運ぶマイクロカプセル方式のものを採用することもできるし、タンクに充填した香料をタンクの微小な孔から放出するインクジェット方式のものを採用することもできる。   The olfactory display 20 presents a scent (fragrance, olfactory information) to the user based on a signal from the computer 12 sent via the controller 32. The controller 32 includes a PIC (Peripheral Interface Controller) microcomputer 34 and a MOS-FET 36 for driving the olfactory display 20 in accordance with an instruction signal sent from the computer 12, and the olfactory display 20 follows the instruction from the controller 32. Smell is emitted in a space-time controllable manner. As the olfactory display 20, a known one can be used. For example, it is possible to adopt a microcapsule type that breaks microcapsules encapsulating fragrance to generate fragrance and transports the fragrance with a blower fan, or releases the fragrance filled in the tank from the minute holes of the tank It is also possible to adopt an ink jet method.

コンピュータ12は、上述のようにシステム10の全体制御を実行し、3次元モニタ14、ヘッドホン16、触覚デバイス18および嗅覚ディスプレイ20を連動させるための制御装置として機能する。コンピュータ12は、パーソナルコンピュータのような汎用のコンピュータであり、CPU38、メモリ40、モニタ等の表示装置(図示せず)、およびキーボードやマウス等の入力装置(図示せず)などを備える。CPU38は、コンピュータ12(システム10)の動作の全体制御を実行し、メモリ40は、CPU38が処理を行うためのデータおよびプログラムを記憶すると共に、ワーキングメモリやレジスタ等として利用される。   The computer 12 performs overall control of the system 10 as described above, and functions as a control device for interlocking the three-dimensional monitor 14, the headphones 16, the tactile device 18, and the olfactory display 20. The computer 12 is a general-purpose computer such as a personal computer, and includes a CPU 38, a memory 40, a display device (not shown) such as a monitor, and an input device (not shown) such as a keyboard and a mouse. The CPU 38 performs overall control of the operation of the computer 12 (system 10), and the memory 40 stores data and programs for the CPU 38 to perform processing, and is used as a working memory, a register, and the like.

詳しくは図3に示すように、メモリ40は、データ記憶部50およびプログラム記憶部52を含む。データ記憶部50には、仮想物体の立体形状を表す形状データ54、仮想物体の硬さ(柔らかさ)、脆さおよび風合い等を表す物性データ56、各種の音データ58、およびその他の必要なデータが適宜格納される。また、プログラム記憶部52には、視覚情報を提示するための視覚プログラム60、触覚情報を提示するための触覚プログラム62、聴覚情報を提示するための聴覚プログラム64、嗅覚情報を提示するための嗅覚プログラム66、およびその他の必要なプログラムが適宜格納される。   Specifically, as shown in FIG. 3, the memory 40 includes a data storage unit 50 and a program storage unit 52. The data storage unit 50 includes shape data 54 representing the three-dimensional shape of the virtual object, physical property data 56 representing the hardness (softness), brittleness and texture of the virtual object, various sound data 58, and other necessary data. Data is stored as appropriate. The program storage unit 52 also has a visual program 60 for presenting visual information, a tactile program 62 for presenting tactile information, an auditory program 64 for presenting auditory information, and an olfactory sense for presenting olfactory information. The program 66 and other necessary programs are stored as appropriate.

具体的には、視覚プログラム60は、形状データ54等に基づいて、仮想物体の立体映像を生成するためのプログラムである。また、仮想物体に操作部30が接触したときに、操作部30の位置、形状データ54および物性データ56等に基づいて、仮想物体がどのように変形(状態変化)するかを算出し、変形した仮想物体の立体映像を生成するためのプログラムである。   Specifically, the visual program 60 is a program for generating a stereoscopic image of a virtual object based on the shape data 54 and the like. In addition, when the operation unit 30 comes into contact with the virtual object, it calculates how the virtual object deforms (changes state) based on the position of the operation unit 30, the shape data 54, the physical property data 56, and the like, This is a program for generating a stereoscopic image of the virtual object.

触覚プログラム62は、操作部30の位置および物性データ56等に基づいて、仮想物体が操作部30(つまりユーザ)に与える反力(感触)を算出するためのプログラムである。   The tactile sense program 62 is a program for calculating the reaction force (feel) that the virtual object gives to the operation unit 30 (that is, the user) based on the position of the operation unit 30 and the physical property data 56 and the like.

聴覚プログラム64は、触覚デバイス18を利用して行われる仮想物体へのユーザの働きかけに応じて、つまり仮想物体からの反力や仮想物体の状態に応じて、データ記憶部50の音データ58から適宜の音データを選択するためのプログラムである。   The auditory program 64 is obtained from the sound data 58 of the data storage unit 50 according to the user's action on the virtual object performed using the tactile device 18, that is, according to the reaction force from the virtual object or the state of the virtual object. This is a program for selecting appropriate sound data.

嗅覚プログラム66は、触覚デバイス18を利用して行われる仮想物体へのユーザの働きかけに応じて、つまり仮想物体からの反力や仮想物体の状態に応じて、嗅覚ディスプレイ20から匂いを放出するための指示信号を生成するためのプログラムである。   The olfactory program 66 releases an odor from the olfactory display 20 in accordance with the user's action on the virtual object performed using the tactile device 18, that is, in accordance with the reaction force from the virtual object or the state of the virtual object. This is a program for generating the instruction signal.

このような構成のシステム10では、3次元モニタ14によって仮想物体の立体映像をユーザに提示する。たとえば、複数の対象物から任意の対象物をユーザが選択できるようにしておき、ユーザが選択した対象物を仮想物体として、その立体映像を表示する。そして、触覚デバイス18によってユーザの操作を受け付け、その操作に応じた反力をユーザに与える。具体的には、触覚デバイス18は、操作部30の位置を測定し、そのデータ(位置情報)をコンピュータ12に出力する。コンピュータ12に出力されたデータは、メモリ40に記憶された仮想物体の物性データ56等と共にコンピュータ12内部のプログラムによって処理された後、触覚デバイス18にフィードバックされ、仮想物体の状態に応じた反力が操作部30に与えられる。これによって、操作部30を操作するユーザは、仮想物体に実際に触れているような感覚を得ることができ、仮想物体の硬さ(柔らかさ)、重さ、および表面のざらつき感などを感じることができる。   In the system 10 having such a configuration, the stereoscopic image of the virtual object is presented to the user by the three-dimensional monitor 14. For example, the user can select an arbitrary object from a plurality of objects, and the stereoscopic image is displayed using the object selected by the user as a virtual object. And a user's operation is received by the tactile device 18, and the reaction force according to the operation is given to a user. Specifically, the haptic device 18 measures the position of the operation unit 30 and outputs the data (position information) to the computer 12. The data output to the computer 12 is processed by a program in the computer 12 together with the physical property data 56 of the virtual object stored in the memory 40, and then fed back to the tactile device 18, where the reaction force according to the state of the virtual object Is given to the operation unit 30. As a result, the user who operates the operation unit 30 can obtain a sense of actually touching the virtual object, and feels the hardness (softness), weight, and surface roughness of the virtual object. be able to.

また、システム10では、嗅覚ディスプレイ20から匂いを提示するときのトリガ(きっかけ)として触覚デバイス18を用い、ユーザによる触覚デバイス18の操作状況に応じて、嗅覚ディスプレイ20からの匂いの提示を制御する。具体的には、触覚デバイス18を利用して行われる仮想物体へのユーザの触行動(働きかけ)に応じて(或いはその触行動によって変化する仮想物体の状態に応じて)、コンピュータ12内部で処理された指示信号がコントローラ32に出力される。コントローラ32は、PICマイコン34に組み込まれているプログラムによってMOS-FET36経由で嗅覚ディスプレイ20を制御する。これによって、ユーザは、触覚デバイス18によって提示される仮想物体に触れた感触(反力)、および3次元モニタ14によって提示される仮想物体の状態(形状)に適した匂いを感じることができる。   Further, in the system 10, the tactile device 18 is used as a trigger when the smell is presented from the olfactory display 20, and the presentation of the odor from the olfactory display 20 is controlled according to the operation state of the tactile device 18 by the user. . Specifically, processing is performed inside the computer 12 according to the user's tactile action (action) on the virtual object performed using the tactile device 18 (or according to the state of the virtual object that changes according to the tactile action). The indicated instruction signal is output to the controller 32. The controller 32 controls the olfactory display 20 via the MOS-FET 36 according to a program incorporated in the PIC microcomputer 34. As a result, the user can feel a touch (reaction force) of touching the virtual object presented by the haptic device 18 and an odor suitable for the state (shape) of the virtual object presented by the three-dimensional monitor 14.

同様に、システム10では、ヘッドホン16から音を提示するときのトリガとして触覚デバイス18を用い、触覚デバイス18の操作状況に応じて、ヘッドホン16からの音の提示を制御する。これによって、ユーザは、仮想物体に触れた感触および仮想物体の立体映像の状態に適した音を聞くことができる。   Similarly, in the system 10, the tactile device 18 is used as a trigger when presenting sound from the headphones 16, and the presentation of sound from the headphones 16 is controlled according to the operation state of the tactile device 18. Accordingly, the user can hear a sound suitable for the touch of the virtual object and the state of the stereoscopic video of the virtual object.

このようにして、システム10は、視覚、聴覚、触覚および嗅覚の4つの感覚情報を有機的に連携させてユーザに提示し、あたかも仮想物体が実在しているような感覚を高い臨場感でユーザに与える。   In this way, the system 10 organically links the four sensory information of visual, auditory, tactile, and olfactory information to the user and presents the user with a sensation as if the virtual object actually exists. To give.

以下には、仮想物体の具体例を挙げて、システム10の動作を説明する。たとえば、仮想物体として提示される対象物が風船であって、内部に香りを封じ込めた風船を割るという行為を疑似体験できるシステム10の場合を想定する。先ず、図4(A)に示すように、3次元モニタ14によって風船の立体映像が表示される。この際、ユーザが操作部30を操作して、風船の立体映像に操作部30を近づけると、操作部30の立体映像も3次元モニタ14によって表示される。   Hereinafter, the operation of the system 10 will be described with a specific example of a virtual object. For example, assume a case in which the object presented as a virtual object is a balloon and the system 10 can simulate the act of breaking a balloon containing a scent inside. First, as shown in FIG. 4A, a three-dimensional image of a balloon is displayed on the three-dimensional monitor 14. At this time, when the user operates the operation unit 30 to bring the operation unit 30 close to the balloon three-dimensional image, the three-dimensional image of the operation unit 30 is also displayed on the three-dimensional monitor 14.

次に、ユーザが操作部30を風船にさらに近づけ、図4(B)に示すように、操作部30と風船とが接触すると、風船独特のツルツル感や柔らかさ、弾力などの感触が触覚デバイス18によってユーザに与えられる。このとき、操作部30と風船との接触状況(位置関係)に応じた反力がユーザに与えられると共に、風船が変形する様子が表示される。また、これと同時に、操作部30と風船との接触音や風船が軋む音、或いは適宜な効果音などの音がヘッドホン16から出力される。   Next, when the user brings the operation unit 30 closer to the balloon and the operation unit 30 and the balloon come into contact with each other as shown in FIG. 4B, the touch such as the smoothness, softness, and elasticity unique to the balloon is obtained. 18 to the user. At this time, a reaction force corresponding to the contact state (positional relationship) between the operation unit 30 and the balloon is given to the user, and a state in which the balloon is deformed is displayed. At the same time, the headphone 16 outputs a sound such as a contact sound between the operation unit 30 and the balloon, a sound of the balloon, or an appropriate sound effect.

そして、触覚デバイス18によって与えられる反力に対抗して、ユーザが所定値より強い外力を風船に与えると(つまり風船の窪み変形が限界となる臨界値に反力が達すると)、図4(C)に示すように、風船が破裂する様子が表示され、ユーザに与えられていた風船の感触はなくなる。また、これと同時に、風船の破裂音がヘッドホン16から出力され、風船内に閉じ込めていたと仮定している匂いが嗅覚ディスプレイ20から実際に放出される。   When the user applies an external force stronger than a predetermined value to the balloon against the reaction force applied by the tactile device 18 (that is, when the reaction force reaches a critical value at which the deformation of the balloon is limited), FIG. As shown in C), the balloon bursting is displayed and the feeling of the balloon given to the user is lost. At the same time, a balloon burst sound is output from the headphones 16, and an odor assumed to be confined in the balloon is actually emitted from the olfactory display 20.

このように、4つの感覚情報を連動してユーザに提示することによって、ユーザは、仮想の風船が実際に存在しているかのような感覚を受け、風船を割るという疑似体験を嗅覚情報を伴って高い臨場感で経験できる。   In this way, by presenting the four sensory information in conjunction with the user, the user receives a sensation as if a virtual balloon actually exists, and the pseudo experience of breaking the balloon is accompanied by olfactory information. And experience it with a high sense of realism.

なお、嗅覚ディスプレイ20から匂いを提示するときには、図4(D)に示すように、匂いの発生を想起させる効果映像を3次元モニタ14によって表示するとよい。たとえば、破裂した風船からユーザに向かってくる放射状の点や線などを表示するとよい。これによって、ユーザは、破裂した風船から何かが向かってきていることが分かり、注意力が増す(意識する)ので、匂いをより強く感じることができる。   When presenting an odor from the olfactory display 20, as shown in FIG. 4D, an effect image that reminds the generation of the odor may be displayed on the three-dimensional monitor 14. For example, a radial point or line coming from the ruptured balloon toward the user may be displayed. As a result, the user knows that something is coming from the ruptured balloon and his attention is increased (conscious), so that the user can feel the smell more strongly.

また、仮想物体が風船の場合には、ユーザが所定値より強い外力を風船に与えたときに、つまり触覚デバイス18による反力が臨界値に達したときに、嗅覚ディスプレイ20によって匂いを提示しているが、これに限定されず、嗅覚ディスプレイ20による匂いの提示は、触覚デバイス18による反力の大きさ等に応じて直線的或いは段階的に変化をつけて行うこともできる。たとえば、仮想物体がレモンの場合には、触覚デバイス18によってレモンを絞ったり押したりする等の物理的な操作を行うときに、絞り具合などの操作状況に応じて、嗅覚ディスプレイ20による匂いの提示に強弱や時間の長短をつけるとよい。たとえば、ユーザによるレモンの絞り具合(押し具合)が小さいときには、送風ファンの風量を小さくして弱い匂いを短時間提示し、ユーザによるレモンの絞り具合(押し具合)が大きいときには、送風ファンの風量を大きくして強い匂いを長時間提示するとよい。   When the virtual object is a balloon, when the user gives an external force stronger than a predetermined value to the balloon, that is, when the reaction force by the tactile device 18 reaches a critical value, the olfactory display 20 presents an odor. However, the present invention is not limited to this, and the presentation of the scent by the olfactory display 20 can be performed linearly or stepwise according to the magnitude of the reaction force by the tactile device 18 or the like. For example, when the virtual object is a lemon, when a physical operation such as squeezing or pushing the lemon by the tactile device 18 is performed, an odor display by the olfactory display 20 is performed according to the operation state such as the squeezing condition. It is good to add strength and weakness to the time. For example, when the user's squeezing degree (pressing condition) of lemon is small, the air volume of the blower fan is reduced and a weak smell is presented for a short time. It is better to present a strong smell for a long time with a large.

同様に、触覚デバイス18による反力の大きさ等に応じて(たとえば比例させて)、ヘッドホン16からの音の提示に強弱(大小)や時間の長短をつけることもできる。   Similarly, depending on the magnitude of the reaction force by the tactile device 18 or the like (for example, in proportion), the presentation of sound from the headphones 16 can be made strong (large or small) or lengthy.

続いて、上述のようなシステム10の動作の一例をフロー図を用いて説明する。具体的には、図2に示したコンピュータ12のCPU38が、図5に示すフロー図に従って全体処理を実行する。なお、図5に示すフロー図では、具体例として、仮想物体として提示される対象物が風船である場合(図4参照)を想定して説明する。   Next, an example of the operation of the system 10 as described above will be described using a flowchart. Specifically, the CPU 38 of the computer 12 shown in FIG. 2 executes the entire process according to the flowchart shown in FIG. In the flowchart shown in FIG. 5, a specific example will be described assuming that the object presented as a virtual object is a balloon (see FIG. 4).

図5を参照して、コンピュータ12のCPU38は、ステップS1で、風船の立体映像を表示する。すなわち、形状データ54等に基づく仮想物体の立体映像を生成するための信号を、3次元モニタ14のディスプレイ22および液晶シャッタメガネ26(エミッタ28)に出力し、3次元モニタ14に風船の立体画像を表示させる。   With reference to FIG. 5, CPU38 of the computer 12 displays the three-dimensional image of a balloon by step S1. That is, a signal for generating a stereoscopic image of a virtual object based on the shape data 54 or the like is output to the display 22 of the three-dimensional monitor 14 and the liquid crystal shutter glasses 26 (emitter 28), and the stereoscopic image of the balloon is output to the three-dimensional monitor 14. Is displayed.

次のステップS3では、風船に操作部30が接触しているか否かを判断する。すなわち、触覚デバイス18から入力される操作部30の位置情報および形状データ54等に基づいて、風船と操作部30とが接触しているか否かを判断する。ステップS3で“NO”の場合、すなわち風船と操作部30とが接触していない場合には、ステップS5に進む。ステップS5では、全体処理の終了であるかどうかを判断する。たとえば、ユーザからの終了命令がコンピュータ12の入力装置から入力されたかどうかによって判断する。ステップS5で“NO”の場合、すなわち全体処理の終了でない場合には、ステップS3に戻る。一方、ステップS5で“YES”の場合、たとえばユーザからの終了命令が入力された場合には、全体処理を終了する。   In the next step S3, it is determined whether or not the operation unit 30 is in contact with the balloon. That is, it is determined whether the balloon and the operation unit 30 are in contact with each other based on the position information of the operation unit 30 input from the tactile device 18 and the shape data 54. If “NO” in the step S3, that is, if the balloon and the operation unit 30 are not in contact with each other, the process proceeds to a step S5. In step S5, it is determined whether or not the entire process is completed. For example, the determination is made based on whether an end command from the user is input from the input device of the computer 12. If “NO” in the step S5, that is, if the entire process is not finished, the process returns to the step S3. On the other hand, if “YES” in the step S5, for example, if an end command is input from the user, the entire processing is ended.

また、ステップS3で“YES”の場合、すなわち風船と操作部30とが接触している場合には、ステップS7に進む。ステップS7では、風船が操作部30に与える反力を算出する。すなわち、操作部30の位置情報および物性データ56等に基づいて、風船が操作部30(つまりユーザ)に与える反力の大きさを算出する。   If “YES” in the step S3, that is, if the balloon and the operation unit 30 are in contact with each other, the process proceeds to a step S7. In step S <b> 7, the reaction force that the balloon applies to the operation unit 30 is calculated. That is, the magnitude of the reaction force that the balloon gives to the operation unit 30 (that is, the user) is calculated based on the position information of the operation unit 30 and the physical property data 56 and the like.

次のステップS9では、ステップS7で算出した反力が臨界値以内かどうかを判別する。すなわち、風船が割れるだけの外力がユーザから風船に与えられたかどうかを判断する。   In the next step S9, it is determined whether or not the reaction force calculated in step S7 is within a critical value. That is, it is determined whether or not an external force enough to break the balloon is given to the balloon by the user.

ステップS9で“YES”の場合、すなわち反力が臨界値以内の場合には、ステップS11に進む。ステップS11では、風船の立体映像を変形させると共に、操作部30に反力を与え、接触音を出力する。すなわち、反力に応じて風船がどのように変形するかを算出し、変形した風船の立体映像を表示するための信号を3次元モニタ14に出力し、3次元モニタ14に変形した風船の立体画像を表示させる。また、算出した反力で動作するための信号を触覚デバイス18に出力し、触覚デバイス18の操作部30からユーザに反力を与える。さらに、反力に応じた接触音を音データ58から選択または合成し、その接触音を出力するための信号をヘッドホン16に出力し、ヘッドホン16から反力に応じた接触音を出力させる。ステップS11の処理が終了すると、ステップS3に戻る。   If “YES” in the step S9, that is, if the reaction force is within the critical value, the process proceeds to a step S11. In step S11, the stereoscopic image of the balloon is deformed, a reaction force is applied to the operation unit 30, and a contact sound is output. That is, how the balloon is deformed according to the reaction force is calculated, a signal for displaying the deformed balloon stereoscopic image is output to the three-dimensional monitor 14, and the balloon balloon deformed to the three-dimensional monitor 14 is output. Display an image. In addition, a signal for operating with the calculated reaction force is output to the haptic device 18, and a reaction force is applied to the user from the operation unit 30 of the haptic device 18. Further, a contact sound corresponding to the reaction force is selected or synthesized from the sound data 58, a signal for outputting the contact sound is output to the headphones 16, and the contact sound corresponding to the reaction force is output from the headphones 16. When the process of step S11 ends, the process returns to step S3.

一方、ステップS9で“NO”の場合、すなわち反力が臨界値を超える場合には、ステップS13に進む。ステップS13では、風船を破裂させると共に、破裂音を出力し、匂いを提示する。すなわち、風船が破裂する様子を表示するための信号を3次元モニタ14に出力し、3次元モニタ14に風船が破裂する様子を表示させる。また、破裂音を音データ58から選択または合成し、その破裂音を出力するための信号をヘッドホン16に出力し、ヘッドホン16から破裂音を出力させる。さらに、嗅覚ディスプレイ20から匂いを放出するための指示信号を生成し、コントローラ32に出力する。コントローラ32は、その指示信号に従って嗅覚ディスプレイ20を制御し、嗅覚ディスプレイ20から匂いを放出させる。ステップS13の処理が終了すると、全体処理を終了する。   On the other hand, if “NO” in the step S9, that is, if the reaction force exceeds the critical value, the process proceeds to a step S13. In step S13, the balloon is ruptured, a burst sound is output, and an odor is presented. That is, a signal for displaying the state of the balloon bursting is output to the three-dimensional monitor 14 and the state of the balloon bursting is displayed on the three-dimensional monitor 14. Further, a plosive sound is selected or synthesized from the sound data 58, a signal for outputting the plosive sound is output to the headphones 16, and a plosive sound is output from the headphones 16. Further, an instruction signal for releasing an odor from the olfactory display 20 is generated and output to the controller 32. The controller 32 controls the olfactory display 20 in accordance with the instruction signal, and releases the odor from the olfactory display 20. When the process of step S13 ends, the entire process ends.

次に、他の具体例として、図6に示すフロー図を参照して、仮想物体として提示される対象物がレモンである場合について説明する。この場合にも、図2に示したコンピュータ12のCPU38が、図6に示すフロー図に従って全体処理を実行する。なお、ステップS21−27の処理は、仮想物体がレモンであることを除いて、図5のステップS1−7の処理と同様であるので、説明は省略する。   Next, as another specific example, a case where the target object presented as a virtual object is a lemon will be described with reference to the flowchart shown in FIG. Also in this case, the CPU 38 of the computer 12 shown in FIG. 2 executes the entire process according to the flowchart shown in FIG. Note that the processing in step S21-27 is the same as the processing in step S1-7 in FIG. 5 except that the virtual object is a lemon, and a description thereof will be omitted.

図6を参照して、コンピュータ12のCPU38は、ステップS29において、ステップS27で算出した反力がレモンを変形させるための閾値以上かどうかを判別する。すなわち、レモンが変形するだけの外力がユーザからレモンに与えられたかどうかを判断する。なお、ここでは、レモンの変形をきっかけにして効果音および匂いを提示するために、レモンが変形を開始する反力の閾値と、効果音や匂いの提示を開始する反力の閾値とを同じに設定しているが、これらの閾値は、映像、音および匂いで別々に設定してもかまわない。   Referring to FIG. 6, CPU 38 of computer 12 determines in step S29 whether or not the reaction force calculated in step S27 is greater than or equal to a threshold value for deforming lemon. That is, it is determined whether or not an external force enough to deform the lemon is given to the lemon by the user. Here, in order to present the sound effect and scent by using the deformation of the lemon, the reaction force threshold at which the lemon starts to deform is the same as the reaction force threshold at which the sound effect or scent starts to be presented. However, these threshold values may be set separately for video, sound, and smell.

ステップS29で“NO”の場合、すなわち反力がレモンを変形させるための閾値以内の場合には、ステップS31に進む。ステップS31では、操作部30に反力を与える。すなわち、算出した反力で動作するための信号を触覚デバイス18に出力し、触覚デバイス18の操作部30からユーザに反力を与える。ステップS31の処理が終了するとステップS23に戻る。   If “NO” in the step S29, that is, if the reaction force is within the threshold value for deforming the lemon, the process proceeds to the step S31. In step S31, a reaction force is applied to the operation unit 30. That is, a signal for operating with the calculated reaction force is output to the haptic device 18, and a reaction force is applied to the user from the operation unit 30 of the haptic device 18. When the process of step S31 ends, the process returns to step S23.

一方、ステップS29で“YES”の場合、すなわち反力がレモンを変形させるための閾値を超える場合には、ステップS33に進む。ステップS33では、レモンを変形させると共に、操作部30に反力を与え、効果音を出力し、反力の大きさに比例した強さの匂いを提示する。すなわち、変形したレモンの立体映像を表示するための信号を3次元モニタ14に出力し、算出した反力で動作するための信号を触覚デバイス18に出力し、効果音を出力するための信号をヘッドホン16に出力する。また、反力の大きさに比例させて(或いは段階的に)匂いの強弱(たとえば送風ファンの風量の強弱によって調整)を決定し、その強さの匂いを提示するための指示信号を生成してコントローラ32に出力する。また、匂いの強弱と共に、または代わりに、反力の大きさに比例させて匂いを提示する時間の長短を決定し、その時間の長さだけ匂いを提示するための指示信号を生成してコントローラ32に出力するようにしてもよい。なお、効果音を出力するときにも、反力の大きさに比例させて音量或いは音の種類を変化させるようにしてもよい。ステップS33の処理が終了するとステップS23に戻る。   On the other hand, if “YES” in the step S29, that is, if the reaction force exceeds a threshold value for deforming the lemon, the process proceeds to a step S33. In step S33, the lemon is deformed, a reaction force is applied to the operation unit 30, a sound effect is output, and an odor with a strength proportional to the magnitude of the reaction force is presented. That is, a signal for displaying the deformed lemon stereoscopic image is output to the three-dimensional monitor 14, a signal for operating with the calculated reaction force is output to the tactile device 18, and a signal for outputting a sound effect is output. Output to the headphones 16. In addition, the intensity of the odor (adjusted according to the intensity of the air flow of the blower fan, for example) is determined in proportion to the magnitude of the reaction force (or stepwise), and an instruction signal for presenting the odor of that intensity is generated. To the controller 32. Also, with or without the intensity of the odor, or instead, the controller determines the length of time to present the odor in proportion to the magnitude of the reaction force, and generates an instruction signal for presenting the odor for that length of time. 32 may be output. Note that when outputting a sound effect, the volume or the type of sound may be changed in proportion to the magnitude of the reaction force. When the process of step S33 ends, the process returns to step S23.

この実施例によれば、視覚情報に対してユーザが働きかけることで提示される触覚情報と連動させて、聴覚情報および嗅覚情報を提示する、つまり4つの感覚情報を緊密に連携させてユーザに提示するので、仮想物体に対するより高い臨場感や現実感をユーザに与えることができ、リアルなバーチャル環境を形成できる。特に、触覚情報と連動させて嗅覚情報を提示する、つまりユーザの能動的な動作に伴って匂いを提示するので、ユーザは匂いを意識し易くなり、匂いによって臨場感を高める効果がより有効なものとなる。したがって、この実施例のシステム10は、能動的な操作によって効率的な教育が可能な環境、たとえば、博物館における重要文化財に触れる疑似体験や、危険な機器操作訓練用のシミュレータに好適に利用できる。   According to this embodiment, the auditory information and the olfactory information are presented in conjunction with the tactile information presented by the user acting on the visual information, that is, the four sensory information is closely linked to the user. Therefore, it is possible to give the user a higher sense of reality and realism with respect to the virtual object, and form a realistic virtual environment. In particular, the olfactory information is presented in conjunction with the tactile information, that is, the scent is presented in accordance with the user's active action, so the user is more conscious of the scent, and the effect of enhancing the sense of reality by the scent is more effective It will be a thing. Therefore, the system 10 of this embodiment can be suitably used for an environment where efficient education is possible by active operation, for example, a simulated experience of touching an important cultural property in a museum or a simulator for dangerous equipment operation training. .

なお、上述の実施例では、4つの感覚情報を統合してユーザに提示するようにしたが、対象物によっては、実空間において人が物理的に働きかけても(力を加えても)音が発生しないものもあるので、このような対象物を仮想物体とする場合には、音情報の提示を省略してもよい。ただし、実際には音が発生しない場合でも、効果音を付加することによって仮想物体に対する臨場感や現実感を高めることができる。また、実際に音が発生する場合であっても、実際の音とは異なる効果音を提示することもできる。   In the above-described embodiment, the four sensory information is integrated and presented to the user. However, depending on the object, even if a person physically works in real space (even if force is applied), a sound is generated. Since some objects do not occur, presentation of sound information may be omitted when such an object is a virtual object. However, even when no sound is actually generated, by adding a sound effect, it is possible to enhance the sense of reality and realism of the virtual object. Further, even when sound is actually generated, a sound effect different from the actual sound can be presented.

また、上述の実施例では、より高い臨場感や現実感をユーザに与えるために、視覚情報として仮想物体の立体映像を提示するようにしたが、平面映像(2D映像)をユーザに提示するようにしてもかまわない。   In the above-described embodiment, a stereoscopic image of a virtual object is presented as visual information in order to give a higher sense of reality and realism to the user. However, a planar image (2D image) is presented to the user. It doesn't matter.

さらに、上述の実施例では、仮想物体からの反力が臨界値や閾値を超えたときに嗅覚ディスプレイから匂いを提示するようにしているが、これに限定されない。たとえば、反力が発生した時点、つまり仮想物体に操作部30(ユーザ)が触れるだけで匂いを提示することもできる。また、仮想物体を押すという動作ではなく、仮想物体をこするという動作に応じて匂いを提示するようにしてもよい。たとえば、仮想物体を激しくこすると仮想物体から火が出る映像を表示し、その火に合わせて匂いや音を提示するようなことが考えられる。   Furthermore, in the above-described embodiment, the scent is presented from the olfactory display when the reaction force from the virtual object exceeds a critical value or threshold, but the present invention is not limited to this. For example, it is possible to present an odor when the reaction force is generated, that is, when the operation unit 30 (user) touches the virtual object. Further, the scent may be presented in accordance with an operation of rubbing the virtual object instead of an operation of pressing the virtual object. For example, when a virtual object is rubbed violently, an image of fire coming out of the virtual object is displayed, and an odor or sound is presented in accordance with the fire.

また、上述の実施例では、1つの仮想物体を3次元モニタ14に表示する場合を例示しているが、複数の仮想物体を同時に3次元モニタ14に表示することもできる。たとえば、大きさの異なる2つの風船を表示し、大きな風船を触ったときにはその反力は大きく、それを割ったときには大きな破裂音と強い匂いとを提示し、小さな風船を触ったときにはその反力は小さく、それを割ったときには小さな破裂音と弱い匂いとを提示するようなことが考えられる。   In the above-described embodiment, the case where one virtual object is displayed on the three-dimensional monitor 14 is illustrated, but a plurality of virtual objects can be displayed on the three-dimensional monitor 14 at the same time. For example, when two balloons of different sizes are displayed and the large balloon is touched, the reaction force is large. When the balloon is broken, a large popping sound and a strong smell are presented. When the small balloon is touched, the reaction force is displayed. Is small, and when it is broken, a small pop and a weak smell may be presented.

10 …多感覚インタラクションシステム
12 …コンピュータ
14 …3次元モニタ
16 …ヘッドホン
18 …触覚デバイス
20 …嗅覚ディスプレイ
30 …操作部
38 …コンピュータのCPU
40 …コンピュータのメモリ
DESCRIPTION OF SYMBOLS 10 ... Multisensory interaction system 12 ... Computer 14 ... Three-dimensional monitor 16 ... Headphone 18 ... Tactile device 20 ... Olfactory display 30 ... Operation part 38 ... CPU of computer
40: Computer memory

Claims (5)

複数の感覚情報を統合して提示することによって、仮想物体が実在している感覚をユーザに与える多感覚インタラクションシステムであって、
前記仮想物体の映像を提示する視覚情報提示手段、
前記ユーザによる操作を受け付け、前記仮想物体からの反力を提示する触覚情報提示手段、および
前記反力に応じて匂いを提示する嗅覚情報提示手段を備える、多感覚インタラクションシステム。
A multisensory interaction system that gives users a sense of the existence of virtual objects by integrating and presenting multiple sensory information,
Visual information presentation means for presenting an image of the virtual object;
A multisensory interaction system comprising: tactile information presenting means for accepting an operation by the user and presenting a reaction force from the virtual object; and an olfactory information presenting means for presenting an odor according to the reaction force.
前記視覚情報提示手段は、前記仮想物体の立体映像を提示する、請求項1記載の多感覚インタラクションシステム。   The multisensory interaction system according to claim 1, wherein the visual information presentation unit presents a stereoscopic image of the virtual object. 前記反力に応じて音を提示する聴覚情報提示手段をさらに備える、請求項1または2記載の多感覚インタラクションシステム。   The multisensory interaction system according to claim 1, further comprising auditory information presentation means for presenting sound according to the reaction force. 前記視覚情報提示手段は、前記反力に応じて前記仮想物体の形状を変化させて提示し、
前記嗅覚情報提示手段は、前記仮想物体が形状変化したときに前記匂いを提示する、請求項1ないし3のいずれかに記載の多感覚インタラクションシステム。
The visual information presenting means changes and presents the shape of the virtual object according to the reaction force,
The multisensory interaction system according to any one of claims 1 to 3, wherein the olfactory information presentation unit presents the odor when the shape of the virtual object changes.
前記視覚情報提示手段は、前記匂いの発生を想起させる効果映像をさらに提示する、請求項1ないし4のいずれかに記載の多感覚インタラクションシステム。   The multisensory interaction system according to any one of claims 1 to 4, wherein the visual information presentation unit further presents an effect image reminiscent of the generation of the odor.
JP2009251845A 2009-11-02 2009-11-02 Multisensory interaction system Expired - Fee Related JP5477740B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009251845A JP5477740B2 (en) 2009-11-02 2009-11-02 Multisensory interaction system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009251845A JP5477740B2 (en) 2009-11-02 2009-11-02 Multisensory interaction system

Publications (2)

Publication Number Publication Date
JP2011096171A true JP2011096171A (en) 2011-05-12
JP5477740B2 JP5477740B2 (en) 2014-04-23

Family

ID=44112979

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009251845A Expired - Fee Related JP5477740B2 (en) 2009-11-02 2009-11-02 Multisensory interaction system

Country Status (1)

Country Link
JP (1) JP5477740B2 (en)

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013254398A (en) * 2012-06-08 2013-12-19 Univ Of Electro-Communications Portable terminal set, jacket for portable terminal, portable terminal, information processing system, and program
WO2014034653A1 (en) * 2012-08-28 2014-03-06 Necカシオモバイルコミュニケーションズ株式会社 Electronic apparatus, control method thereof, and program
JP2014109818A (en) * 2012-11-30 2014-06-12 Hiroshima Univ Force sense presentation system
JP2014160307A (en) * 2013-02-19 2014-09-04 Ntt Docomo Inc Display device
JP2015109092A (en) * 2014-12-17 2015-06-11 京セラ株式会社 Display device
US9275608B2 (en) 2011-06-28 2016-03-01 Kyocera Corporation Display device
US9619048B2 (en) 2011-05-27 2017-04-11 Kyocera Corporation Display device
WO2017061178A1 (en) * 2015-10-05 2017-04-13 アルプス電気株式会社 Haptic reproduction device
JPWO2017094284A1 (en) * 2015-11-30 2018-03-08 株式会社ソニー・インタラクティブエンタテインメント Information processing device
JP2019153124A (en) * 2018-03-05 2019-09-12 株式会社スクウェア・エニックス Video display system, video display method, and video display program
CN110347254A (en) * 2019-07-03 2019-10-18 死海旅游度假有限公司 Cultural display systems based on 4D analogue technique
JP2020160874A (en) * 2019-03-27 2020-10-01 株式会社Subaru Contactless operation device of vehicle, and vehicle
WO2021049082A1 (en) * 2019-09-10 2021-03-18 株式会社東海理化電機製作所 Control device, control method, and program
JP2021140625A (en) * 2020-03-09 2021-09-16 Kddi株式会社 Force sense presentation system, controller, and program
JP2021193575A (en) * 2016-01-13 2021-12-23 イマージョン コーポレーションImmersion Corporation System and method for haptically-enabled neural interface
US11357999B2 (en) 2019-06-11 2022-06-14 Lg Display Co., Ltd. Electronic device
WO2022180770A1 (en) * 2021-02-26 2022-09-01 享 山中 Program, information processing device, and information processing method
WO2022230264A1 (en) * 2021-04-26 2022-11-03 ソニーグループ株式会社 Information processing device, information processing method, and program
WO2023153232A1 (en) * 2022-02-08 2023-08-17 ソニーグループ株式会社 Information processing device, information processing method, and program
WO2023189422A1 (en) * 2022-03-30 2023-10-05 株式会社栗本鐵工所 Control device, control method, haptic presentation system, and program product

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0869449A (en) * 1994-08-26 1996-03-12 Matsushita Electric Works Ltd Simulation device for bodily feeling three-dimensional body
JPH10153946A (en) * 1996-11-25 1998-06-09 Mitsubishi Electric Corp Sensation information presenting device
JP2000035973A (en) * 1996-06-11 2000-02-02 Masanobu Kujirada Remote odor generation system
JP2000207578A (en) * 1998-11-09 2000-07-28 Sony Corp Information processor and information processing method and providing medium
JP2000250688A (en) * 1999-02-25 2000-09-14 Atsushi Matsushita Realizable virtual space system
JP2001349739A (en) * 2000-06-06 2001-12-21 Denso Corp On-vehicle guide apparatus
WO2005066918A1 (en) * 2003-12-26 2005-07-21 Seijiro Tomita Simulation device and data transmission/reception method for simulation device
JP2007079620A (en) * 2005-09-09 2007-03-29 Tokai Univ Smell presentation system
WO2009035100A1 (en) * 2007-09-14 2009-03-19 National Institute Of Advanced Industrial Science And Technology Virtual reality environment creating device, and controller device

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0869449A (en) * 1994-08-26 1996-03-12 Matsushita Electric Works Ltd Simulation device for bodily feeling three-dimensional body
JP2000035973A (en) * 1996-06-11 2000-02-02 Masanobu Kujirada Remote odor generation system
JPH10153946A (en) * 1996-11-25 1998-06-09 Mitsubishi Electric Corp Sensation information presenting device
JP2000207578A (en) * 1998-11-09 2000-07-28 Sony Corp Information processor and information processing method and providing medium
JP2000250688A (en) * 1999-02-25 2000-09-14 Atsushi Matsushita Realizable virtual space system
JP2001349739A (en) * 2000-06-06 2001-12-21 Denso Corp On-vehicle guide apparatus
WO2005066918A1 (en) * 2003-12-26 2005-07-21 Seijiro Tomita Simulation device and data transmission/reception method for simulation device
JP2007079620A (en) * 2005-09-09 2007-03-29 Tokai Univ Smell presentation system
WO2009035100A1 (en) * 2007-09-14 2009-03-19 National Institute Of Advanced Industrial Science And Technology Virtual reality environment creating device, and controller device

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9619048B2 (en) 2011-05-27 2017-04-11 Kyocera Corporation Display device
US9275608B2 (en) 2011-06-28 2016-03-01 Kyocera Corporation Display device
US9501204B2 (en) 2011-06-28 2016-11-22 Kyocera Corporation Display device
JP2013254398A (en) * 2012-06-08 2013-12-19 Univ Of Electro-Communications Portable terminal set, jacket for portable terminal, portable terminal, information processing system, and program
WO2014034653A1 (en) * 2012-08-28 2014-03-06 Necカシオモバイルコミュニケーションズ株式会社 Electronic apparatus, control method thereof, and program
JP2014044662A (en) * 2012-08-28 2014-03-13 Nec Casio Mobile Communications Ltd Electronic apparatus, control method thereof, and program
JP2014109818A (en) * 2012-11-30 2014-06-12 Hiroshima Univ Force sense presentation system
JP2014160307A (en) * 2013-02-19 2014-09-04 Ntt Docomo Inc Display device
JP2015109092A (en) * 2014-12-17 2015-06-11 京セラ株式会社 Display device
WO2017061178A1 (en) * 2015-10-05 2017-04-13 アルプス電気株式会社 Haptic reproduction device
JPWO2017061178A1 (en) * 2015-10-05 2018-06-28 アルプス電気株式会社 Tactile reproduction device
JPWO2017094284A1 (en) * 2015-11-30 2018-03-08 株式会社ソニー・インタラクティブエンタテインメント Information processing device
JP2021193575A (en) * 2016-01-13 2021-12-23 イマージョン コーポレーションImmersion Corporation System and method for haptically-enabled neural interface
JP2019153124A (en) * 2018-03-05 2019-09-12 株式会社スクウェア・エニックス Video display system, video display method, and video display program
JP2020160874A (en) * 2019-03-27 2020-10-01 株式会社Subaru Contactless operation device of vehicle, and vehicle
JP7377615B2 (en) 2019-03-27 2023-11-10 株式会社Subaru Non-contact operating devices for vehicles, and vehicles
US11357999B2 (en) 2019-06-11 2022-06-14 Lg Display Co., Ltd. Electronic device
CN110347254B (en) * 2019-07-03 2023-04-07 小井峪国际文化艺术交易中心(山西)有限公司 Culture display system based on 4D simulation technology
CN110347254A (en) * 2019-07-03 2019-10-18 死海旅游度假有限公司 Cultural display systems based on 4D analogue technique
JP2021044648A (en) * 2019-09-10 2021-03-18 株式会社東海理化電機製作所 Control device, control method, and program
WO2021049082A1 (en) * 2019-09-10 2021-03-18 株式会社東海理化電機製作所 Control device, control method, and program
JP2021140625A (en) * 2020-03-09 2021-09-16 Kddi株式会社 Force sense presentation system, controller, and program
JP7264844B2 (en) 2020-03-09 2023-04-25 Kddi株式会社 Haptic presentation system, controller and program
WO2022180770A1 (en) * 2021-02-26 2022-09-01 享 山中 Program, information processing device, and information processing method
WO2022230264A1 (en) * 2021-04-26 2022-11-03 ソニーグループ株式会社 Information processing device, information processing method, and program
WO2023153232A1 (en) * 2022-02-08 2023-08-17 ソニーグループ株式会社 Information processing device, information processing method, and program
WO2023189422A1 (en) * 2022-03-30 2023-10-05 株式会社栗本鐵工所 Control device, control method, haptic presentation system, and program product

Also Published As

Publication number Publication date
JP5477740B2 (en) 2014-04-23

Similar Documents

Publication Publication Date Title
JP5477740B2 (en) Multisensory interaction system
JP6840702B2 (en) Friction Modulation for 3D Relief in Tactile Devices
Coburn et al. A review of the capabilities of current low-cost virtual reality technology and its potential to enhance the design process
Kovács et al. Application of immersive technologies for education: State of the art
US9619034B2 (en) Overlaying of haptic effects
JP4736771B2 (en) Sound effect generating device, sound effect generating method, and computer program
US20050248549A1 (en) Hand-held haptic stylus
JP6670361B2 (en) A user interface for a user to select an acoustic object to render and / or a method of rendering a user interface for a user to select an acoustic object to render
CN106445157B (en) Method and device for adjusting picture display direction
Ritsos et al. Standards for augmented reality: A user experience perspective
Peiris et al. LiquidReality: wetness sensations on the face for virtual reality
Avanzini et al. Integrating physically based sound models in a multimodal rendering architecture
Seibert An exploratory study on virtual reality head mounted displays and their impact on player presence
Tominaga et al. " Friend Park"-expression of the wind and the scent on virtual space
Johnsor et al. Shapes: A multi-sensory environment for the B/VI and hearing impaired community
Nemec et al. Haptic and spatial audio based navigation of visually impaired users in virtual environment using low cost devices
JP2000047565A (en) Touch simulation device for object
Arnab et al. Touching artefacts in an ancient world on a browser-based platform
Fernandez “Through the looking glass: envisioning new library technologies” an experience you can feel: haptic technology
Kim Multimodal Interaction with Mid-Air Haptics
WO2023105706A1 (en) Tactile presentation device and control method
Bhoi et al. Holographic Interaction with Ultra Haptics Technology
Scheibler et al. User experience evaluation focused on viewpoints and embodiment
Bordegoni et al. Multisensory Interaction in eXtended Reality
Hirose et al. Material Texture Design: Texture Representation System Utilizing Pseudo-Attraction Force Sensation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120924

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130501

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130507

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130618

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140128

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140131

R150 Certificate of patent or registration of utility model

Ref document number: 5477740

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees