JP2011096171A - Multisensory interaction system - Google Patents
Multisensory interaction system Download PDFInfo
- Publication number
- JP2011096171A JP2011096171A JP2009251845A JP2009251845A JP2011096171A JP 2011096171 A JP2011096171 A JP 2011096171A JP 2009251845 A JP2009251845 A JP 2009251845A JP 2009251845 A JP2009251845 A JP 2009251845A JP 2011096171 A JP2011096171 A JP 2011096171A
- Authority
- JP
- Japan
- Prior art keywords
- user
- virtual object
- reaction force
- information
- presenting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
この発明は多感覚インタラクションシステムに関し、特にたとえば、複数の感覚情報を統合して提示することによって仮想物体が実在している感覚をユーザに与える、多感覚インタラクションシステムに関する。 The present invention relates to a multisensory interaction system, and more particularly to a multisensory interaction system that gives a user a sense of existence of a virtual object by integrating and presenting a plurality of sensory information.
従来の多感覚インタラクションシステムの一例が特許文献1に開示されている。特許文献1のシステムは、3D表示部、力覚提示部および音出力部を備え、ユーザの動作に合わせて接触音をリアルタイムで生成している。そして、視覚、聴覚および触覚の3つの感覚情報を統合して提示することによって、仮想物体が実在している感覚をユーザに与えている。
An example of a conventional multisensory interaction system is disclosed in
一方、視聴覚情報に加えて嗅覚情報を提示するシステムも数多く提案されている。たとえば、非特許文献1には、画面上に表示された風船に向かって手をかざすと、それに合わせて風船が割れて香りが提示されるシステムが開示されている。
人間は、視覚、聴覚、嗅覚、味覚および触覚のいわゆる五感を総合的に用いて、外界からの情報を獲得している。したがって、仮想物体が実在している感覚をユーザに与えるためには、より多くの感覚情報を緊密に連携させて提示することが望ましい。しかしながら、特許文献1の技術では、視覚、聴覚および触覚の3つの感覚情報を統合して提示するだけであるので、臨場感や現実感という点においては、十分とは言えない。また、非特許文献1の技術では、触覚情報の提示は行われておらず、仮想物体が実在している感覚をユーザに与えることができない。
Humans acquire information from the outside world by comprehensively using the so-called five senses of vision, hearing, smell, taste and touch. Therefore, in order to give the user a sense that the virtual object actually exists, it is desirable to present more sensory information in close cooperation. However, since the technique of
それゆえに、この発明の主たる目的は、新規な、多感覚インタラクションシステムを提供することである。 Therefore, the main object of the present invention is to provide a novel multisensory interaction system.
この発明の他の目的は、より高い臨場感や現実感をユーザに与えることができる、多感覚インタラクションシステムを提供することである。 Another object of the present invention is to provide a multisensory interaction system capable of giving a user a higher sense of reality and realism.
この発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明などは、本発明の理解を助けるために後述する実施の形態との対応関係を示したものであって、この発明を何ら限定するものではない。 The present invention employs the following configuration in order to solve the above problems. Note that reference numerals in parentheses and supplementary explanations indicate correspondence with embodiments described later in order to help understanding of the present invention, and do not limit the present invention.
第1の発明は、複数の感覚情報を統合して提示することによって仮想物体が実在している感覚をユーザに与える多感覚インタラクションシステムであって、仮想物体の映像を提示する視覚情報提示手段、ユーザによる操作を受け付け仮想物体からの反力を提示する触覚情報提示手段、および反力に応じて匂いを提示する嗅覚情報提示手段を備える、多感覚インタラクションシステムである。 1st invention is the multisensory interaction system which gives a user the sense that the virtual object exists by unifying and presenting a plurality of sensory information, visual information presenting means for presenting the video of the virtual object, It is a multisensory interaction system including tactile information presenting means for accepting an operation by a user and presenting a reaction force from a virtual object, and an olfactory information presenting means for presenting an odor according to the reaction force.
第1の発明では、多感覚インタラクションシステム(10)は、視覚情報提示手段(12,14,22,24,26)を備え、視覚情報提示手段は、仮想物体の映像、つまり視覚情報をユーザに提示する。触覚情報提示手段(12,18,30)は、ユーザの操作を受け付ける操作部(30)を含み、操作部の位置および仮想物体(対象物)の物性などに応じて、操作部が仮想物体に触れることによって生じる反力を算出し、操作部を操作するユーザにその反力、つまり触覚情報を与える。嗅覚情報提示手段(12,20,32)は、ユーザの能動的な動作に伴って触覚情報提示手段によって提示される反力に応じて、ユーザに匂い、つまり嗅覚情報を提示する。たとえば、反力が臨界値を超えたときにユーザに匂いを提示したり、反力の大きさに比例させて匂いの強度や時間の長短を変えてユーザに匂いを提示したりする。 In the first invention, the multisensory interaction system (10) includes visual information presenting means (12, 14, 22, 24, 26), and the visual information presenting means provides a video of a virtual object, that is, visual information to the user. Present. The tactile information presentation means (12, 18, 30) includes an operation unit (30) that accepts a user operation, and the operation unit is changed to a virtual object according to the position of the operation unit and the physical properties of the virtual object (target object). The reaction force generated by touching is calculated, and the reaction force, that is, tactile information is given to the user who operates the operation unit. The olfactory information presenting means (12, 20, 32) presents an odor, that is, olfactory information to the user according to the reaction force presented by the tactile information presenting means in accordance with the user's active movement. For example, when the reaction force exceeds a critical value, the scent is presented to the user, or the scent is presented to the user by changing the intensity of the scent or the length of time in proportion to the magnitude of the reaction force.
第1の発明によれば、視覚情報および触覚情報に加えて嗅覚情報を連動させてユーザに提示するので、仮想物体が実在しているような感覚を高い臨場感や現実感でユーザに与えることができる。また、ユーザの能動的な動作に伴って嗅覚情報を提示するので、ユーザは嗅覚情報を意識し易くなり、嗅覚情報によって臨場感を高める効果がより有効なものとなる。 According to the first invention, in addition to the visual information and the tactile information, the olfactory information is presented to the user in an interlocked manner, so that a sense that a virtual object is actually present is given to the user with a high sense of reality and realism. Can do. In addition, since the olfactory information is presented in accordance with the user's active action, the user can easily become aware of the olfactory information, and the effect of enhancing the sense of reality by the olfactory information becomes more effective.
第2の発明は、第1の発明に従属し、視覚情報提示手段は、仮想物体の立体映像を提示する。 A second invention is dependent on the first invention, and the visual information presentation means presents a stereoscopic image of the virtual object.
第2の発明では、視覚情報提示手段(12,14,22,24,26)は、仮想物体の立体映像をユーザに提示する。つまり、視覚情報を現実世界により近い状態でユーザに提示する。したがって、より高い臨場感や現実感をユーザに与えることができる。 In the second invention, the visual information presenting means (12, 14, 22, 24, 26) presents a stereoscopic image of the virtual object to the user. That is, visual information is presented to the user in a state closer to the real world. Therefore, a higher sense of reality and realism can be given to the user.
第3の発明は、第1または第2の発明に従属し、反力に応じて音を提示する聴覚情報提示手段をさらに備える。 A third invention is dependent on the first or second invention, and further includes auditory information presenting means for presenting sound according to reaction force.
第3の発明では、聴覚情報提示手段(12,16)をさらに備える。聴覚情報提示手段は、ユーザの能動的な動作に伴って触覚情報提示手段(12,18,30)によって提示される反力に応じて、ユーザに音、つまり聴覚情報を提示する。 In 3rd invention, an auditory information presentation means (12, 16) is further provided. The auditory information presenting means presents sound, that is, auditory information to the user according to the reaction force presented by the tactile information presenting means (12, 18, 30) in accordance with the user's active movement.
第3の発明によれば、視覚、聴覚、触覚および嗅覚の4つの感覚情報を連携させてユーザに提示するので、より高い臨場感や現実感をユーザに与えることができる。 According to the third aspect of the invention, the four sense information of vision, hearing, touch, and smell are presented to the user in association with each other, so that a higher sense of reality and realism can be given to the user.
第4の発明は、第1ないし第3のいずれかの発明に従属し、視覚情報提示手段は、反力に応じて仮想物体の形状を変化させて提示し、嗅覚情報提示手段は、仮想物体が形状変化したときに匂いを提示する。 The fourth invention is dependent on any one of the first to third inventions, the visual information presenting means changes the shape of the virtual object according to the reaction force, and the olfactory information presenting means is the virtual object. Presents an odor when the shape changes.
第4の発明では、視覚情報提示手段(12,14,22,24,26)は、ユーザの能動的な動作に伴って触覚情報提示手段(12,18,30)によって提示される反力に応じて、仮想物体の形状を変化させて提示する。嗅覚情報提示手段(12,20,32)は、仮想物体が形状変化したとき、たとえば、仮想物体が破裂したり、窪んだりしたときに匂いを提示する。 In the fourth invention, the visual information presenting means (12, 14, 22, 24, 26) reacts with the reaction force presented by the tactile information presenting means (12, 18, 30) in accordance with the active movement of the user. In response, the virtual object shape is changed and presented. The olfactory information presenting means (12, 20, 32) presents an odor when the shape of the virtual object is changed, for example, when the virtual object is ruptured or depressed.
第4の発明によれば、視覚、触覚および嗅覚の3つの感覚情報がより緊密に連携してユーザに提示されるので、より高い臨場感や現実感をユーザに与えることができる。 According to the fourth aspect of the invention, the three sensory information of vision, touch, and smell are presented to the user in closer cooperation, so that a higher sense of reality and reality can be given to the user.
第5の発明は、第1ないし第4のいずれかの発明に従属し、視覚情報提示手段は、匂いの発生を想起させる効果映像をさらに提示する。 The fifth invention is dependent on any one of the first to fourth inventions, and the visual information presenting means further presents an effect image reminiscent of the generation of an odor.
第5の発明では、視覚情報提示手段(12,14,22,24,26)は、たとえば仮想物体からユーザに向かって飛んでくる放射状の線のような、匂いの発生を想起させる効果映像を表示する。 In the fifth invention, the visual information presenting means (12, 14, 22, 24, 26) displays an effect image reminiscent of the generation of an odor, such as a radial line flying from a virtual object toward the user. indicate.
第5の発明によれば、効果映像を表示することによって、ユーザの注意力が増すので、ユーザは嗅覚情報をより強く感じることができ、嗅覚情報によって臨場感を高める効果がより有効なものとなる。 According to the fifth invention, since the user's attention is increased by displaying the effect image, the user can feel the olfactory information more strongly, and the effect of enhancing the sense of reality by the olfactory information is more effective. Become.
第1の発明によれば、視覚情報および触覚情報に加えて嗅覚情報を連動させてユーザに提示するので、仮想物体が実在しているような感覚を高い臨場感や現実感でユーザに与えることができる。また、ユーザの能動的な動作に伴って嗅覚情報を提示するので、ユーザは匂いを意識し易くなり、嗅覚情報によって臨場感を高める効果がより有効なものとなる。 According to the first invention, in addition to the visual information and the tactile information, the olfactory information is presented to the user in an interlocked manner, so that a sense that a virtual object is actually present is given to the user with a high sense of reality and realism. Can do. In addition, since the olfactory information is presented in accordance with the user's active action, the user can easily be aware of the odor, and the effect of enhancing the sense of reality by the olfactory information becomes more effective.
また、第3の発明によれば、視覚、聴覚、触覚および嗅覚の4つの感覚情報を緊密に連携させてユーザに提示するので、より高い臨場感や現実感をユーザに与えることができる。 Further, according to the third invention, since the four sensory information of visual, auditory, tactile and olfactory senses are closely linked to each other and presented to the user, a higher sense of reality and realism can be given to the user.
この発明の上述の目的、その他の目的、特徴および利点は、図面を参照して行う後述の実施例の詳細な説明から一層明らかとなろう。 The above object, other objects, features, and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.
図1を参照して、この発明の一実施例である多感覚インタラクションシステム10(以下、単に「システム10」という。)は、3次元モニタ14、ヘッドホン16、触覚デバイス18および嗅覚ディスプレイ20を備え、視覚、聴覚、触覚および嗅覚の4つの感覚情報を統合してユーザに提示することによって、仮想物体が実在しているような感覚をユーザに与える。
Referring to FIG. 1, a multisensory interaction system 10 (hereinafter simply referred to as “
図2は、システム10の構成を示すブロック図である。図2に示すように、システム10は、全体制御を実行するコンピュータ12を備え、このコンピュータ12には、3次元モニタ14、ヘッドホン16、触覚デバイス18および嗅覚ディスプレイ20等が接続される。
FIG. 2 is a block diagram showing the configuration of the
3次元モニタ14は、仮想物体(対象物)の立体映像(視覚情報)をユーザに提示するものであり、ディスプレイ22、ハーフミラー24および液晶シャッタメガネ26を含む。この3次元モニタ14では、コンピュータ12からの信号に基づいてディスプレイ22に仮想物体の映像22a(図1参照)が表示され、その映像22aはハーフミラー24によって反射される。また、液晶シャッタメガネ26は、エミッタ28を介して送られるコンピュータ12からの信号に基づいて左右視差が生じるように制御される。この液晶シャッタメガネ26を装着したユーザは、ハーフミラー24を介して仮想物体の立体映像を見ることができる。
The three-
ヘッドホン16は、コンピュータ12からの信号に基づいて音(聴覚情報)を出力する。ただし、ヘッドホン16の代わりに、或いはヘッドホン16と共に、スピーカによってユーザに音を提示してもよい。
The
触覚デバイス18は、コンピュータ12と双方向に連動して、仮想物体に触れたユーザにその反力(感触、触覚情報)を提示するものである。触覚デバイス18は、ユーザによる操作を受け付けるペン型の操作部30を含み(図1では操作部30以外の部分は省略している)、操作部30には、その位置および仮想物体の物性(硬さや風合い)等に応じた反力が与えられる。この操作部30を操作するユーザは、仮想物体を疑似的に触ることができ、仮想物体に外力を与えることができる。触覚デバイス18としては、たとえば、Phantom(登録商標)Premium1.5を用いることができる。ただし、触覚デバイス18の種類はこれに限定されず、たとえば、グローブ型の操作部を有する触覚デバイスを用いてもよい。
The
嗅覚ディスプレイ20は、コントローラ32を介して送られるコンピュータ12からの信号に基づいて、ユーザに匂い(香り、嗅覚情報)を提示する。コントローラ32は、コンピュータ12から送られてくる指示信号に応じて嗅覚ディスプレイ20を駆動するためのPIC(Peripheral Interface Controller)マイコン34およびMOS-FET36を含み、嗅覚ディスプレイ20は、コントローラ32からの指示に従って時空間制御可能に匂いを放出する。嗅覚ディスプレイ20としては、公知のものを用いることができる。たとえば、香料を封入したマイクロカプセルを破壊して芳香を発生させ、その芳香を送風ファンによって運ぶマイクロカプセル方式のものを採用することもできるし、タンクに充填した香料をタンクの微小な孔から放出するインクジェット方式のものを採用することもできる。
The
コンピュータ12は、上述のようにシステム10の全体制御を実行し、3次元モニタ14、ヘッドホン16、触覚デバイス18および嗅覚ディスプレイ20を連動させるための制御装置として機能する。コンピュータ12は、パーソナルコンピュータのような汎用のコンピュータであり、CPU38、メモリ40、モニタ等の表示装置(図示せず)、およびキーボードやマウス等の入力装置(図示せず)などを備える。CPU38は、コンピュータ12(システム10)の動作の全体制御を実行し、メモリ40は、CPU38が処理を行うためのデータおよびプログラムを記憶すると共に、ワーキングメモリやレジスタ等として利用される。
The
詳しくは図3に示すように、メモリ40は、データ記憶部50およびプログラム記憶部52を含む。データ記憶部50には、仮想物体の立体形状を表す形状データ54、仮想物体の硬さ(柔らかさ)、脆さおよび風合い等を表す物性データ56、各種の音データ58、およびその他の必要なデータが適宜格納される。また、プログラム記憶部52には、視覚情報を提示するための視覚プログラム60、触覚情報を提示するための触覚プログラム62、聴覚情報を提示するための聴覚プログラム64、嗅覚情報を提示するための嗅覚プログラム66、およびその他の必要なプログラムが適宜格納される。
Specifically, as shown in FIG. 3, the
具体的には、視覚プログラム60は、形状データ54等に基づいて、仮想物体の立体映像を生成するためのプログラムである。また、仮想物体に操作部30が接触したときに、操作部30の位置、形状データ54および物性データ56等に基づいて、仮想物体がどのように変形(状態変化)するかを算出し、変形した仮想物体の立体映像を生成するためのプログラムである。
Specifically, the
触覚プログラム62は、操作部30の位置および物性データ56等に基づいて、仮想物体が操作部30(つまりユーザ)に与える反力(感触)を算出するためのプログラムである。
The
聴覚プログラム64は、触覚デバイス18を利用して行われる仮想物体へのユーザの働きかけに応じて、つまり仮想物体からの反力や仮想物体の状態に応じて、データ記憶部50の音データ58から適宜の音データを選択するためのプログラムである。
The
嗅覚プログラム66は、触覚デバイス18を利用して行われる仮想物体へのユーザの働きかけに応じて、つまり仮想物体からの反力や仮想物体の状態に応じて、嗅覚ディスプレイ20から匂いを放出するための指示信号を生成するためのプログラムである。
The
このような構成のシステム10では、3次元モニタ14によって仮想物体の立体映像をユーザに提示する。たとえば、複数の対象物から任意の対象物をユーザが選択できるようにしておき、ユーザが選択した対象物を仮想物体として、その立体映像を表示する。そして、触覚デバイス18によってユーザの操作を受け付け、その操作に応じた反力をユーザに与える。具体的には、触覚デバイス18は、操作部30の位置を測定し、そのデータ(位置情報)をコンピュータ12に出力する。コンピュータ12に出力されたデータは、メモリ40に記憶された仮想物体の物性データ56等と共にコンピュータ12内部のプログラムによって処理された後、触覚デバイス18にフィードバックされ、仮想物体の状態に応じた反力が操作部30に与えられる。これによって、操作部30を操作するユーザは、仮想物体に実際に触れているような感覚を得ることができ、仮想物体の硬さ(柔らかさ)、重さ、および表面のざらつき感などを感じることができる。
In the
また、システム10では、嗅覚ディスプレイ20から匂いを提示するときのトリガ(きっかけ)として触覚デバイス18を用い、ユーザによる触覚デバイス18の操作状況に応じて、嗅覚ディスプレイ20からの匂いの提示を制御する。具体的には、触覚デバイス18を利用して行われる仮想物体へのユーザの触行動(働きかけ)に応じて(或いはその触行動によって変化する仮想物体の状態に応じて)、コンピュータ12内部で処理された指示信号がコントローラ32に出力される。コントローラ32は、PICマイコン34に組み込まれているプログラムによってMOS-FET36経由で嗅覚ディスプレイ20を制御する。これによって、ユーザは、触覚デバイス18によって提示される仮想物体に触れた感触(反力)、および3次元モニタ14によって提示される仮想物体の状態(形状)に適した匂いを感じることができる。
Further, in the
同様に、システム10では、ヘッドホン16から音を提示するときのトリガとして触覚デバイス18を用い、触覚デバイス18の操作状況に応じて、ヘッドホン16からの音の提示を制御する。これによって、ユーザは、仮想物体に触れた感触および仮想物体の立体映像の状態に適した音を聞くことができる。
Similarly, in the
このようにして、システム10は、視覚、聴覚、触覚および嗅覚の4つの感覚情報を有機的に連携させてユーザに提示し、あたかも仮想物体が実在しているような感覚を高い臨場感でユーザに与える。
In this way, the
以下には、仮想物体の具体例を挙げて、システム10の動作を説明する。たとえば、仮想物体として提示される対象物が風船であって、内部に香りを封じ込めた風船を割るという行為を疑似体験できるシステム10の場合を想定する。先ず、図4(A)に示すように、3次元モニタ14によって風船の立体映像が表示される。この際、ユーザが操作部30を操作して、風船の立体映像に操作部30を近づけると、操作部30の立体映像も3次元モニタ14によって表示される。
Hereinafter, the operation of the
次に、ユーザが操作部30を風船にさらに近づけ、図4(B)に示すように、操作部30と風船とが接触すると、風船独特のツルツル感や柔らかさ、弾力などの感触が触覚デバイス18によってユーザに与えられる。このとき、操作部30と風船との接触状況(位置関係)に応じた反力がユーザに与えられると共に、風船が変形する様子が表示される。また、これと同時に、操作部30と風船との接触音や風船が軋む音、或いは適宜な効果音などの音がヘッドホン16から出力される。
Next, when the user brings the
そして、触覚デバイス18によって与えられる反力に対抗して、ユーザが所定値より強い外力を風船に与えると(つまり風船の窪み変形が限界となる臨界値に反力が達すると)、図4(C)に示すように、風船が破裂する様子が表示され、ユーザに与えられていた風船の感触はなくなる。また、これと同時に、風船の破裂音がヘッドホン16から出力され、風船内に閉じ込めていたと仮定している匂いが嗅覚ディスプレイ20から実際に放出される。
When the user applies an external force stronger than a predetermined value to the balloon against the reaction force applied by the tactile device 18 (that is, when the reaction force reaches a critical value at which the deformation of the balloon is limited), FIG. As shown in C), the balloon bursting is displayed and the feeling of the balloon given to the user is lost. At the same time, a balloon burst sound is output from the
このように、4つの感覚情報を連動してユーザに提示することによって、ユーザは、仮想の風船が実際に存在しているかのような感覚を受け、風船を割るという疑似体験を嗅覚情報を伴って高い臨場感で経験できる。 In this way, by presenting the four sensory information in conjunction with the user, the user receives a sensation as if a virtual balloon actually exists, and the pseudo experience of breaking the balloon is accompanied by olfactory information. And experience it with a high sense of realism.
なお、嗅覚ディスプレイ20から匂いを提示するときには、図4(D)に示すように、匂いの発生を想起させる効果映像を3次元モニタ14によって表示するとよい。たとえば、破裂した風船からユーザに向かってくる放射状の点や線などを表示するとよい。これによって、ユーザは、破裂した風船から何かが向かってきていることが分かり、注意力が増す(意識する)ので、匂いをより強く感じることができる。
When presenting an odor from the
また、仮想物体が風船の場合には、ユーザが所定値より強い外力を風船に与えたときに、つまり触覚デバイス18による反力が臨界値に達したときに、嗅覚ディスプレイ20によって匂いを提示しているが、これに限定されず、嗅覚ディスプレイ20による匂いの提示は、触覚デバイス18による反力の大きさ等に応じて直線的或いは段階的に変化をつけて行うこともできる。たとえば、仮想物体がレモンの場合には、触覚デバイス18によってレモンを絞ったり押したりする等の物理的な操作を行うときに、絞り具合などの操作状況に応じて、嗅覚ディスプレイ20による匂いの提示に強弱や時間の長短をつけるとよい。たとえば、ユーザによるレモンの絞り具合(押し具合)が小さいときには、送風ファンの風量を小さくして弱い匂いを短時間提示し、ユーザによるレモンの絞り具合(押し具合)が大きいときには、送風ファンの風量を大きくして強い匂いを長時間提示するとよい。
When the virtual object is a balloon, when the user gives an external force stronger than a predetermined value to the balloon, that is, when the reaction force by the
同様に、触覚デバイス18による反力の大きさ等に応じて(たとえば比例させて)、ヘッドホン16からの音の提示に強弱(大小)や時間の長短をつけることもできる。
Similarly, depending on the magnitude of the reaction force by the
続いて、上述のようなシステム10の動作の一例をフロー図を用いて説明する。具体的には、図2に示したコンピュータ12のCPU38が、図5に示すフロー図に従って全体処理を実行する。なお、図5に示すフロー図では、具体例として、仮想物体として提示される対象物が風船である場合(図4参照)を想定して説明する。
Next, an example of the operation of the
図5を参照して、コンピュータ12のCPU38は、ステップS1で、風船の立体映像を表示する。すなわち、形状データ54等に基づく仮想物体の立体映像を生成するための信号を、3次元モニタ14のディスプレイ22および液晶シャッタメガネ26(エミッタ28)に出力し、3次元モニタ14に風船の立体画像を表示させる。
With reference to FIG. 5, CPU38 of the
次のステップS3では、風船に操作部30が接触しているか否かを判断する。すなわち、触覚デバイス18から入力される操作部30の位置情報および形状データ54等に基づいて、風船と操作部30とが接触しているか否かを判断する。ステップS3で“NO”の場合、すなわち風船と操作部30とが接触していない場合には、ステップS5に進む。ステップS5では、全体処理の終了であるかどうかを判断する。たとえば、ユーザからの終了命令がコンピュータ12の入力装置から入力されたかどうかによって判断する。ステップS5で“NO”の場合、すなわち全体処理の終了でない場合には、ステップS3に戻る。一方、ステップS5で“YES”の場合、たとえばユーザからの終了命令が入力された場合には、全体処理を終了する。
In the next step S3, it is determined whether or not the
また、ステップS3で“YES”の場合、すなわち風船と操作部30とが接触している場合には、ステップS7に進む。ステップS7では、風船が操作部30に与える反力を算出する。すなわち、操作部30の位置情報および物性データ56等に基づいて、風船が操作部30(つまりユーザ)に与える反力の大きさを算出する。
If “YES” in the step S3, that is, if the balloon and the
次のステップS9では、ステップS7で算出した反力が臨界値以内かどうかを判別する。すなわち、風船が割れるだけの外力がユーザから風船に与えられたかどうかを判断する。 In the next step S9, it is determined whether or not the reaction force calculated in step S7 is within a critical value. That is, it is determined whether or not an external force enough to break the balloon is given to the balloon by the user.
ステップS9で“YES”の場合、すなわち反力が臨界値以内の場合には、ステップS11に進む。ステップS11では、風船の立体映像を変形させると共に、操作部30に反力を与え、接触音を出力する。すなわち、反力に応じて風船がどのように変形するかを算出し、変形した風船の立体映像を表示するための信号を3次元モニタ14に出力し、3次元モニタ14に変形した風船の立体画像を表示させる。また、算出した反力で動作するための信号を触覚デバイス18に出力し、触覚デバイス18の操作部30からユーザに反力を与える。さらに、反力に応じた接触音を音データ58から選択または合成し、その接触音を出力するための信号をヘッドホン16に出力し、ヘッドホン16から反力に応じた接触音を出力させる。ステップS11の処理が終了すると、ステップS3に戻る。
If “YES” in the step S9, that is, if the reaction force is within the critical value, the process proceeds to a step S11. In step S11, the stereoscopic image of the balloon is deformed, a reaction force is applied to the
一方、ステップS9で“NO”の場合、すなわち反力が臨界値を超える場合には、ステップS13に進む。ステップS13では、風船を破裂させると共に、破裂音を出力し、匂いを提示する。すなわち、風船が破裂する様子を表示するための信号を3次元モニタ14に出力し、3次元モニタ14に風船が破裂する様子を表示させる。また、破裂音を音データ58から選択または合成し、その破裂音を出力するための信号をヘッドホン16に出力し、ヘッドホン16から破裂音を出力させる。さらに、嗅覚ディスプレイ20から匂いを放出するための指示信号を生成し、コントローラ32に出力する。コントローラ32は、その指示信号に従って嗅覚ディスプレイ20を制御し、嗅覚ディスプレイ20から匂いを放出させる。ステップS13の処理が終了すると、全体処理を終了する。
On the other hand, if “NO” in the step S9, that is, if the reaction force exceeds the critical value, the process proceeds to a step S13. In step S13, the balloon is ruptured, a burst sound is output, and an odor is presented. That is, a signal for displaying the state of the balloon bursting is output to the three-
次に、他の具体例として、図6に示すフロー図を参照して、仮想物体として提示される対象物がレモンである場合について説明する。この場合にも、図2に示したコンピュータ12のCPU38が、図6に示すフロー図に従って全体処理を実行する。なお、ステップS21−27の処理は、仮想物体がレモンであることを除いて、図5のステップS1−7の処理と同様であるので、説明は省略する。
Next, as another specific example, a case where the target object presented as a virtual object is a lemon will be described with reference to the flowchart shown in FIG. Also in this case, the
図6を参照して、コンピュータ12のCPU38は、ステップS29において、ステップS27で算出した反力がレモンを変形させるための閾値以上かどうかを判別する。すなわち、レモンが変形するだけの外力がユーザからレモンに与えられたかどうかを判断する。なお、ここでは、レモンの変形をきっかけにして効果音および匂いを提示するために、レモンが変形を開始する反力の閾値と、効果音や匂いの提示を開始する反力の閾値とを同じに設定しているが、これらの閾値は、映像、音および匂いで別々に設定してもかまわない。
Referring to FIG. 6,
ステップS29で“NO”の場合、すなわち反力がレモンを変形させるための閾値以内の場合には、ステップS31に進む。ステップS31では、操作部30に反力を与える。すなわち、算出した反力で動作するための信号を触覚デバイス18に出力し、触覚デバイス18の操作部30からユーザに反力を与える。ステップS31の処理が終了するとステップS23に戻る。
If “NO” in the step S29, that is, if the reaction force is within the threshold value for deforming the lemon, the process proceeds to the step S31. In step S31, a reaction force is applied to the
一方、ステップS29で“YES”の場合、すなわち反力がレモンを変形させるための閾値を超える場合には、ステップS33に進む。ステップS33では、レモンを変形させると共に、操作部30に反力を与え、効果音を出力し、反力の大きさに比例した強さの匂いを提示する。すなわち、変形したレモンの立体映像を表示するための信号を3次元モニタ14に出力し、算出した反力で動作するための信号を触覚デバイス18に出力し、効果音を出力するための信号をヘッドホン16に出力する。また、反力の大きさに比例させて(或いは段階的に)匂いの強弱(たとえば送風ファンの風量の強弱によって調整)を決定し、その強さの匂いを提示するための指示信号を生成してコントローラ32に出力する。また、匂いの強弱と共に、または代わりに、反力の大きさに比例させて匂いを提示する時間の長短を決定し、その時間の長さだけ匂いを提示するための指示信号を生成してコントローラ32に出力するようにしてもよい。なお、効果音を出力するときにも、反力の大きさに比例させて音量或いは音の種類を変化させるようにしてもよい。ステップS33の処理が終了するとステップS23に戻る。
On the other hand, if “YES” in the step S29, that is, if the reaction force exceeds a threshold value for deforming the lemon, the process proceeds to a step S33. In step S33, the lemon is deformed, a reaction force is applied to the
この実施例によれば、視覚情報に対してユーザが働きかけることで提示される触覚情報と連動させて、聴覚情報および嗅覚情報を提示する、つまり4つの感覚情報を緊密に連携させてユーザに提示するので、仮想物体に対するより高い臨場感や現実感をユーザに与えることができ、リアルなバーチャル環境を形成できる。特に、触覚情報と連動させて嗅覚情報を提示する、つまりユーザの能動的な動作に伴って匂いを提示するので、ユーザは匂いを意識し易くなり、匂いによって臨場感を高める効果がより有効なものとなる。したがって、この実施例のシステム10は、能動的な操作によって効率的な教育が可能な環境、たとえば、博物館における重要文化財に触れる疑似体験や、危険な機器操作訓練用のシミュレータに好適に利用できる。
According to this embodiment, the auditory information and the olfactory information are presented in conjunction with the tactile information presented by the user acting on the visual information, that is, the four sensory information is closely linked to the user. Therefore, it is possible to give the user a higher sense of reality and realism with respect to the virtual object, and form a realistic virtual environment. In particular, the olfactory information is presented in conjunction with the tactile information, that is, the scent is presented in accordance with the user's active action, so the user is more conscious of the scent, and the effect of enhancing the sense of reality by the scent is more effective It will be a thing. Therefore, the
なお、上述の実施例では、4つの感覚情報を統合してユーザに提示するようにしたが、対象物によっては、実空間において人が物理的に働きかけても(力を加えても)音が発生しないものもあるので、このような対象物を仮想物体とする場合には、音情報の提示を省略してもよい。ただし、実際には音が発生しない場合でも、効果音を付加することによって仮想物体に対する臨場感や現実感を高めることができる。また、実際に音が発生する場合であっても、実際の音とは異なる効果音を提示することもできる。 In the above-described embodiment, the four sensory information is integrated and presented to the user. However, depending on the object, even if a person physically works in real space (even if force is applied), a sound is generated. Since some objects do not occur, presentation of sound information may be omitted when such an object is a virtual object. However, even when no sound is actually generated, by adding a sound effect, it is possible to enhance the sense of reality and realism of the virtual object. Further, even when sound is actually generated, a sound effect different from the actual sound can be presented.
また、上述の実施例では、より高い臨場感や現実感をユーザに与えるために、視覚情報として仮想物体の立体映像を提示するようにしたが、平面映像(2D映像)をユーザに提示するようにしてもかまわない。 In the above-described embodiment, a stereoscopic image of a virtual object is presented as visual information in order to give a higher sense of reality and realism to the user. However, a planar image (2D image) is presented to the user. It doesn't matter.
さらに、上述の実施例では、仮想物体からの反力が臨界値や閾値を超えたときに嗅覚ディスプレイから匂いを提示するようにしているが、これに限定されない。たとえば、反力が発生した時点、つまり仮想物体に操作部30(ユーザ)が触れるだけで匂いを提示することもできる。また、仮想物体を押すという動作ではなく、仮想物体をこするという動作に応じて匂いを提示するようにしてもよい。たとえば、仮想物体を激しくこすると仮想物体から火が出る映像を表示し、その火に合わせて匂いや音を提示するようなことが考えられる。 Furthermore, in the above-described embodiment, the scent is presented from the olfactory display when the reaction force from the virtual object exceeds a critical value or threshold, but the present invention is not limited to this. For example, it is possible to present an odor when the reaction force is generated, that is, when the operation unit 30 (user) touches the virtual object. Further, the scent may be presented in accordance with an operation of rubbing the virtual object instead of an operation of pressing the virtual object. For example, when a virtual object is rubbed violently, an image of fire coming out of the virtual object is displayed, and an odor or sound is presented in accordance with the fire.
また、上述の実施例では、1つの仮想物体を3次元モニタ14に表示する場合を例示しているが、複数の仮想物体を同時に3次元モニタ14に表示することもできる。たとえば、大きさの異なる2つの風船を表示し、大きな風船を触ったときにはその反力は大きく、それを割ったときには大きな破裂音と強い匂いとを提示し、小さな風船を触ったときにはその反力は小さく、それを割ったときには小さな破裂音と弱い匂いとを提示するようなことが考えられる。
In the above-described embodiment, the case where one virtual object is displayed on the three-
10 …多感覚インタラクションシステム
12 …コンピュータ
14 …3次元モニタ
16 …ヘッドホン
18 …触覚デバイス
20 …嗅覚ディスプレイ
30 …操作部
38 …コンピュータのCPU
40 …コンピュータのメモリ
DESCRIPTION OF
40: Computer memory
Claims (5)
前記仮想物体の映像を提示する視覚情報提示手段、
前記ユーザによる操作を受け付け、前記仮想物体からの反力を提示する触覚情報提示手段、および
前記反力に応じて匂いを提示する嗅覚情報提示手段を備える、多感覚インタラクションシステム。 A multisensory interaction system that gives users a sense of the existence of virtual objects by integrating and presenting multiple sensory information,
Visual information presentation means for presenting an image of the virtual object;
A multisensory interaction system comprising: tactile information presenting means for accepting an operation by the user and presenting a reaction force from the virtual object; and an olfactory information presenting means for presenting an odor according to the reaction force.
前記嗅覚情報提示手段は、前記仮想物体が形状変化したときに前記匂いを提示する、請求項1ないし3のいずれかに記載の多感覚インタラクションシステム。 The visual information presenting means changes and presents the shape of the virtual object according to the reaction force,
The multisensory interaction system according to any one of claims 1 to 3, wherein the olfactory information presentation unit presents the odor when the shape of the virtual object changes.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009251845A JP5477740B2 (en) | 2009-11-02 | 2009-11-02 | Multisensory interaction system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009251845A JP5477740B2 (en) | 2009-11-02 | 2009-11-02 | Multisensory interaction system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011096171A true JP2011096171A (en) | 2011-05-12 |
JP5477740B2 JP5477740B2 (en) | 2014-04-23 |
Family
ID=44112979
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009251845A Expired - Fee Related JP5477740B2 (en) | 2009-11-02 | 2009-11-02 | Multisensory interaction system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5477740B2 (en) |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013254398A (en) * | 2012-06-08 | 2013-12-19 | Univ Of Electro-Communications | Portable terminal set, jacket for portable terminal, portable terminal, information processing system, and program |
WO2014034653A1 (en) * | 2012-08-28 | 2014-03-06 | Necカシオモバイルコミュニケーションズ株式会社 | Electronic apparatus, control method thereof, and program |
JP2014109818A (en) * | 2012-11-30 | 2014-06-12 | Hiroshima Univ | Force sense presentation system |
JP2014160307A (en) * | 2013-02-19 | 2014-09-04 | Ntt Docomo Inc | Display device |
JP2015109092A (en) * | 2014-12-17 | 2015-06-11 | 京セラ株式会社 | Display device |
US9275608B2 (en) | 2011-06-28 | 2016-03-01 | Kyocera Corporation | Display device |
US9619048B2 (en) | 2011-05-27 | 2017-04-11 | Kyocera Corporation | Display device |
WO2017061178A1 (en) * | 2015-10-05 | 2017-04-13 | アルプス電気株式会社 | Haptic reproduction device |
JPWO2017094284A1 (en) * | 2015-11-30 | 2018-03-08 | 株式会社ソニー・インタラクティブエンタテインメント | Information processing device |
JP2019153124A (en) * | 2018-03-05 | 2019-09-12 | 株式会社スクウェア・エニックス | Video display system, video display method, and video display program |
CN110347254A (en) * | 2019-07-03 | 2019-10-18 | 死海旅游度假有限公司 | Cultural display systems based on 4D analogue technique |
JP2020160874A (en) * | 2019-03-27 | 2020-10-01 | 株式会社Subaru | Contactless operation device of vehicle, and vehicle |
WO2021049082A1 (en) * | 2019-09-10 | 2021-03-18 | 株式会社東海理化電機製作所 | Control device, control method, and program |
JP2021140625A (en) * | 2020-03-09 | 2021-09-16 | Kddi株式会社 | Force sense presentation system, controller, and program |
JP2021193575A (en) * | 2016-01-13 | 2021-12-23 | イマージョン コーポレーションImmersion Corporation | System and method for haptically-enabled neural interface |
US11357999B2 (en) | 2019-06-11 | 2022-06-14 | Lg Display Co., Ltd. | Electronic device |
WO2022180770A1 (en) * | 2021-02-26 | 2022-09-01 | 享 山中 | Program, information processing device, and information processing method |
WO2022230264A1 (en) * | 2021-04-26 | 2022-11-03 | ソニーグループ株式会社 | Information processing device, information processing method, and program |
WO2023153232A1 (en) * | 2022-02-08 | 2023-08-17 | ソニーグループ株式会社 | Information processing device, information processing method, and program |
WO2023189422A1 (en) * | 2022-03-30 | 2023-10-05 | 株式会社栗本鐵工所 | Control device, control method, haptic presentation system, and program product |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0869449A (en) * | 1994-08-26 | 1996-03-12 | Matsushita Electric Works Ltd | Simulation device for bodily feeling three-dimensional body |
JPH10153946A (en) * | 1996-11-25 | 1998-06-09 | Mitsubishi Electric Corp | Sensation information presenting device |
JP2000035973A (en) * | 1996-06-11 | 2000-02-02 | Masanobu Kujirada | Remote odor generation system |
JP2000207578A (en) * | 1998-11-09 | 2000-07-28 | Sony Corp | Information processor and information processing method and providing medium |
JP2000250688A (en) * | 1999-02-25 | 2000-09-14 | Atsushi Matsushita | Realizable virtual space system |
JP2001349739A (en) * | 2000-06-06 | 2001-12-21 | Denso Corp | On-vehicle guide apparatus |
WO2005066918A1 (en) * | 2003-12-26 | 2005-07-21 | Seijiro Tomita | Simulation device and data transmission/reception method for simulation device |
JP2007079620A (en) * | 2005-09-09 | 2007-03-29 | Tokai Univ | Smell presentation system |
WO2009035100A1 (en) * | 2007-09-14 | 2009-03-19 | National Institute Of Advanced Industrial Science And Technology | Virtual reality environment creating device, and controller device |
-
2009
- 2009-11-02 JP JP2009251845A patent/JP5477740B2/en not_active Expired - Fee Related
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0869449A (en) * | 1994-08-26 | 1996-03-12 | Matsushita Electric Works Ltd | Simulation device for bodily feeling three-dimensional body |
JP2000035973A (en) * | 1996-06-11 | 2000-02-02 | Masanobu Kujirada | Remote odor generation system |
JPH10153946A (en) * | 1996-11-25 | 1998-06-09 | Mitsubishi Electric Corp | Sensation information presenting device |
JP2000207578A (en) * | 1998-11-09 | 2000-07-28 | Sony Corp | Information processor and information processing method and providing medium |
JP2000250688A (en) * | 1999-02-25 | 2000-09-14 | Atsushi Matsushita | Realizable virtual space system |
JP2001349739A (en) * | 2000-06-06 | 2001-12-21 | Denso Corp | On-vehicle guide apparatus |
WO2005066918A1 (en) * | 2003-12-26 | 2005-07-21 | Seijiro Tomita | Simulation device and data transmission/reception method for simulation device |
JP2007079620A (en) * | 2005-09-09 | 2007-03-29 | Tokai Univ | Smell presentation system |
WO2009035100A1 (en) * | 2007-09-14 | 2009-03-19 | National Institute Of Advanced Industrial Science And Technology | Virtual reality environment creating device, and controller device |
Cited By (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9619048B2 (en) | 2011-05-27 | 2017-04-11 | Kyocera Corporation | Display device |
US9275608B2 (en) | 2011-06-28 | 2016-03-01 | Kyocera Corporation | Display device |
US9501204B2 (en) | 2011-06-28 | 2016-11-22 | Kyocera Corporation | Display device |
JP2013254398A (en) * | 2012-06-08 | 2013-12-19 | Univ Of Electro-Communications | Portable terminal set, jacket for portable terminal, portable terminal, information processing system, and program |
WO2014034653A1 (en) * | 2012-08-28 | 2014-03-06 | Necカシオモバイルコミュニケーションズ株式会社 | Electronic apparatus, control method thereof, and program |
JP2014044662A (en) * | 2012-08-28 | 2014-03-13 | Nec Casio Mobile Communications Ltd | Electronic apparatus, control method thereof, and program |
JP2014109818A (en) * | 2012-11-30 | 2014-06-12 | Hiroshima Univ | Force sense presentation system |
JP2014160307A (en) * | 2013-02-19 | 2014-09-04 | Ntt Docomo Inc | Display device |
JP2015109092A (en) * | 2014-12-17 | 2015-06-11 | 京セラ株式会社 | Display device |
WO2017061178A1 (en) * | 2015-10-05 | 2017-04-13 | アルプス電気株式会社 | Haptic reproduction device |
JPWO2017061178A1 (en) * | 2015-10-05 | 2018-06-28 | アルプス電気株式会社 | Tactile reproduction device |
JPWO2017094284A1 (en) * | 2015-11-30 | 2018-03-08 | 株式会社ソニー・インタラクティブエンタテインメント | Information processing device |
JP2021193575A (en) * | 2016-01-13 | 2021-12-23 | イマージョン コーポレーションImmersion Corporation | System and method for haptically-enabled neural interface |
JP2019153124A (en) * | 2018-03-05 | 2019-09-12 | 株式会社スクウェア・エニックス | Video display system, video display method, and video display program |
JP2020160874A (en) * | 2019-03-27 | 2020-10-01 | 株式会社Subaru | Contactless operation device of vehicle, and vehicle |
JP7377615B2 (en) | 2019-03-27 | 2023-11-10 | 株式会社Subaru | Non-contact operating devices for vehicles, and vehicles |
US11357999B2 (en) | 2019-06-11 | 2022-06-14 | Lg Display Co., Ltd. | Electronic device |
CN110347254B (en) * | 2019-07-03 | 2023-04-07 | 小井峪国际文化艺术交易中心(山西)有限公司 | Culture display system based on 4D simulation technology |
CN110347254A (en) * | 2019-07-03 | 2019-10-18 | 死海旅游度假有限公司 | Cultural display systems based on 4D analogue technique |
JP2021044648A (en) * | 2019-09-10 | 2021-03-18 | 株式会社東海理化電機製作所 | Control device, control method, and program |
WO2021049082A1 (en) * | 2019-09-10 | 2021-03-18 | 株式会社東海理化電機製作所 | Control device, control method, and program |
JP2021140625A (en) * | 2020-03-09 | 2021-09-16 | Kddi株式会社 | Force sense presentation system, controller, and program |
JP7264844B2 (en) | 2020-03-09 | 2023-04-25 | Kddi株式会社 | Haptic presentation system, controller and program |
WO2022180770A1 (en) * | 2021-02-26 | 2022-09-01 | 享 山中 | Program, information processing device, and information processing method |
WO2022230264A1 (en) * | 2021-04-26 | 2022-11-03 | ソニーグループ株式会社 | Information processing device, information processing method, and program |
WO2023153232A1 (en) * | 2022-02-08 | 2023-08-17 | ソニーグループ株式会社 | Information processing device, information processing method, and program |
WO2023189422A1 (en) * | 2022-03-30 | 2023-10-05 | 株式会社栗本鐵工所 | Control device, control method, haptic presentation system, and program product |
Also Published As
Publication number | Publication date |
---|---|
JP5477740B2 (en) | 2014-04-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5477740B2 (en) | Multisensory interaction system | |
JP6840702B2 (en) | Friction Modulation for 3D Relief in Tactile Devices | |
Coburn et al. | A review of the capabilities of current low-cost virtual reality technology and its potential to enhance the design process | |
Kovács et al. | Application of immersive technologies for education: State of the art | |
US9619034B2 (en) | Overlaying of haptic effects | |
JP4736771B2 (en) | Sound effect generating device, sound effect generating method, and computer program | |
US20050248549A1 (en) | Hand-held haptic stylus | |
JP6670361B2 (en) | A user interface for a user to select an acoustic object to render and / or a method of rendering a user interface for a user to select an acoustic object to render | |
CN106445157B (en) | Method and device for adjusting picture display direction | |
Ritsos et al. | Standards for augmented reality: A user experience perspective | |
Peiris et al. | LiquidReality: wetness sensations on the face for virtual reality | |
Avanzini et al. | Integrating physically based sound models in a multimodal rendering architecture | |
Seibert | An exploratory study on virtual reality head mounted displays and their impact on player presence | |
Tominaga et al. | " Friend Park"-expression of the wind and the scent on virtual space | |
Johnsor et al. | Shapes: A multi-sensory environment for the B/VI and hearing impaired community | |
Nemec et al. | Haptic and spatial audio based navigation of visually impaired users in virtual environment using low cost devices | |
JP2000047565A (en) | Touch simulation device for object | |
Arnab et al. | Touching artefacts in an ancient world on a browser-based platform | |
Fernandez | “Through the looking glass: envisioning new library technologies” an experience you can feel: haptic technology | |
Kim | Multimodal Interaction with Mid-Air Haptics | |
WO2023105706A1 (en) | Tactile presentation device and control method | |
Bhoi et al. | Holographic Interaction with Ultra Haptics Technology | |
Scheibler et al. | User experience evaluation focused on viewpoints and embodiment | |
Bordegoni et al. | Multisensory Interaction in eXtended Reality | |
Hirose et al. | Material Texture Design: Texture Representation System Utilizing Pseudo-Attraction Force Sensation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120924 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130501 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130507 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130618 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140128 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140131 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5477740 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |