JP2003099177A - Method for preparing haptic information and method for presenting haptic information and its device - Google Patents

Method for preparing haptic information and method for presenting haptic information and its device

Info

Publication number
JP2003099177A
JP2003099177A JP2001289301A JP2001289301A JP2003099177A JP 2003099177 A JP2003099177 A JP 2003099177A JP 2001289301 A JP2001289301 A JP 2001289301A JP 2001289301 A JP2001289301 A JP 2001289301A JP 2003099177 A JP2003099177 A JP 2003099177A
Authority
JP
Japan
Prior art keywords
information
tactile information
tactile
feature
source
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001289301A
Other languages
Japanese (ja)
Inventor
Kazuyuki Tsukamoto
一之 塚本
Shin Takeuchi
伸 竹内
Katsumi Sakamaki
克己 坂巻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2001289301A priority Critical patent/JP2003099177A/en
Publication of JP2003099177A publication Critical patent/JP2003099177A/en
Pending legal-status Critical Current

Links

Landscapes

  • Position Input By Displaying (AREA)
  • Details Of Audible-Bandwidth Transducers (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a method and device for presenting haptic information for preparing and presenting temporally changing various haptic information. SOLUTION: A source information feature extracting means 102 extracts the features of the time change of temporally changing source information (picture information or voice information). A haptic information preparation means 103 prepares the haptic information according to the features of the source information extracted by the source information feature extracting means 102. A haptic information presenting part 101 and a driving mechanism part 110 present the haptic information prepared by the haptic information preparation means 103.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、触覚情報を作成・
提示する方法、および、触覚情報を提示する装置に関す
るものである。
FIELD OF THE INVENTION The present invention creates tactile information.
The present invention relates to a presentation method and an apparatus for presenting tactile information.

【0002】[0002]

【従来の技術】パーソナルコンピュータ等の情報処理装
置は、各種の情報や指示の入力を受け付ける入力装置
(例えば、キーボード、マウス、など)と接続され、ま
た、各種の情報を出力する出力装置(例えば、画像表示
装置、音声出力装置、など)と接続されて用いられる。
入力装置により入力されるものは、一般に、操作者がキ
ーボードで入力した文字情報、操作者がマウスなどのポ
インティングデバイスで入力した位置情報、或いは、操
作者が入力した指示または要求である。一方、出力装置
により出力される情報は、一般に、操作者の視覚に対し
て刺激を与える画像情報や、操作者の聴覚に対して刺激
を与える音声情報である。そして、情報処理装置は、例
えば、入力装置が入力した各種の情報や指示を受け取
り、これに基づいて処理を行い、その処理結果を出力装
置より出力させる。
2. Description of the Related Art An information processing device such as a personal computer is connected to an input device (for example, a keyboard, a mouse, etc.) that receives input of various information and instructions, and an output device for outputting various information (for example, , Image display devices, audio output devices, etc.).
What is input by the input device is generally character information input by the operator using the keyboard, position information input by the operator using a pointing device such as a mouse, or an instruction or request input by the operator. On the other hand, the information output by the output device is generally image information that stimulates the visual sense of the operator or audio information that stimulates the auditory sense of the operator. Then, the information processing apparatus receives, for example, various information and instructions input by the input apparatus, performs processing based on the information, and outputs the processing result from the output apparatus.

【0003】ところで、近年では、操作者の触覚に対し
て刺激を与える出力装置(触覚情報提示装置)が提案さ
れている。例えば、従来の触覚情報提示装置は、記憶手
段により触覚情報データを予め記憶しておき、この触覚
情報データを記憶手段から読み出して、これに基づいて
操作者に対して触覚情報を提示するものである。また、
例えば、文献「池井他、“触覚ディスプレイにおける多
階調表示”、日本機械学会、ロボティクス・メカトロニ
クス講演会、'95講演論文集、Vol.1.A、No.95-17、pp.1
05-108 (1995)」に記載された触覚情報提示装置は、画
像表示装置の画面においてカーソルが指し示すオブジェ
クトのテクスチャに基づいて触覚情報を作成して、この
触覚情報を提示するものである。このように、出力装置
から画像情報や音声情報の他に触覚情報も出力されるこ
とで、操作者にとって操作が判り易いものとなり、操作
者に操作の楽しさを与えることができ、情報処理装置の
ユーザインターフェイスの向上が期待されている。
By the way, in recent years, an output device (tactile information presenting device) for giving a stimulus to the sense of touch of an operator has been proposed. For example, a conventional tactile information presentation device is a device that stores tactile information data in advance by a storage unit, reads this tactile information data from the storage unit, and presents tactile information to an operator based on this. is there. Also,
For example, the document “Ikeyi et al.,“ Multi-gradation display on tactile displays ”, The Japan Society of Mechanical Engineers, Robotics and Mechatronics Lecture, '95 Proceedings, Vol.1.A, No.95-17, pp.1
The tactile information presenting device described in "05-108 (1995)" creates tactile information based on the texture of the object pointed by the cursor on the screen of the image display device, and presents this tactile information. As described above, since the output device outputs the tactile information in addition to the image information and the voice information, the operator can easily understand the operation, and the operator can enjoy the operation. Is expected to improve the user interface.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、従来の
触覚情報提示装置では、記憶手段により触覚情報データ
を予め記憶しておくことは簡易ではあるが、記憶手段の
容量の制約に因り、提示可能な触覚情報の種類が限られ
る。また、従来の触覚情報提示装置では、画像表示装置
の画面においてカーソルが指し示すオブジェクトのテク
スチャに基づいて触覚情報を作成することも簡易ではあ
るが、静止画像に基づいて触覚情報を作成することがで
きるものの、動画像に基づいて触覚情報を作成すること
ができない。さらに、従来の触覚情報提示装置は、時間
的に変化する触覚情報を作成してこれを提示することは
困難であった。
However, in the conventional tactile information presentation device, although it is easy to store the tactile information data in advance by the storage means, it is possible to present the tactile information data due to the limitation of the capacity of the storage means. The types of tactile information are limited. Further, in the conventional tactile information presentation device, although it is easy to create the tactile information based on the texture of the object pointed by the cursor on the screen of the image display device, the tactile information can be created based on the still image. However, tactile information cannot be created based on moving images. Furthermore, it is difficult for the conventional tactile information presentation device to create and present tactile information that changes with time.

【0005】本発明は、上記問題点を解消する為になさ
れたものであり、時間的に変化する多様な触覚情報を作
成する触覚情報作成方法、ならびに、このような触覚情
報を作成し提示する触覚情報提示方法および装置を提供
することを目的とする。
The present invention has been made in order to solve the above-mentioned problems, and a tactile information creating method for creating various tactile information that changes with time, and creating and presenting such tactile information. An object of the present invention is to provide a tactile information presentation method and device.

【0006】[0006]

【課題を解決するための手段】本発明に係る触覚情報作
成方法は、時間的に変化する源情報の時間変化の特徴を
抽出する源情報特徴抽出ステップと、この源情報特徴抽
出ステップにおいて抽出された源情報の特徴に応じて触
覚情報を作成する触覚情報作成ステップと、を備えるこ
とを特徴とする。本発明に係る触覚情報提示方法は、上
記の本発明に係る触覚情報作成方法を含み、この触覚情
報作成方法により作成された触覚情報を提示する触覚情
報提示ステップを備えることを特徴とする。また、本発
明に係る触覚情報提示装置は、時間的に変化する源情報
の時間変化の特徴を抽出する源情報特徴抽出手段と、こ
の源情報特徴抽出手段により抽出された源情報の特徴に
応じて触覚情報を作成する触覚情報作成手段と、この触
覚情報作成手段により作成された触覚情報を提示する触
覚情報提示手段と、を備えることを特徴とする。
A tactile information creating method according to the present invention includes a source information feature extracting step for extracting a feature of time change of source information that changes with time, and a source information feature extracting step for extracting the feature. And a tactile information creating step of creating tactile information according to the characteristics of the source information. A tactile information presenting method according to the present invention is characterized by including the tactile information creating method according to the present invention described above, and including a tactile information presenting step of presenting the tactile information created by the tactile information creating method. Further, the tactile information presenting apparatus according to the present invention responds to a source information feature extraction unit that extracts a time-varying feature of source information that changes with time, and a source information feature extracted by the source information feature extraction unit. And a tactile information presenting means for presenting the tactile information produced by the tactile information producing means.

【0007】本発明によれば、源情報特徴抽出ステップ
において(源情報特徴抽出手段により)、時間的に変化
する源情報の時間変化の特徴が抽出され、触覚情報作成
ステップにおいて(触覚情報作成手段により)、この源
情報の特徴に応じて触覚情報が作成される。そして、触
覚情報提示ステップにおいて(触覚情報提示手段によ
り)、この作成された触覚情報が提示される。このよう
に、時間的に変化する源情報の時間変化の特徴に応じて
触覚情報が作成されることにより、記憶手段の容量の制
約を受けることなく、提示可能な触覚情報の種類が拡大
される。また、このことにより、時間的に変化する触覚
情報が作成され提示され得る。
According to the present invention, in the source information feature extraction step (source information feature extraction means), a temporal change characteristic of the source information that changes with time is extracted, and in the tactile information creation step (tactile information creation means). ), Tactile information is created according to the characteristics of this source information. Then, in the tactile information presenting step (by the tactile information presenting means), the created tactile information is presented. As described above, since the tactile information is created according to the temporal change feature of the source information that changes with time, the types of tactile information that can be presented are expanded without being restricted by the capacity of the storage unit. . Also, this allows tactile information that changes with time to be created and presented.

【0008】また、本発明に係る触覚情報作成方法、触
覚情報提示方法または触覚情報提示装置では、源情報は
画像表示装置の画面に出力される画像情報であるのが好
適であり、この場合、画面中の所望の位置における画像
情報の時間変化の特徴を抽出してもよいし、画面中の特
定領域内における画像情報の時間変化の特徴を抽出して
もよいし、画面に表示された特定オブジェクトの時間変
化の特徴を抽出してもよい。また、源情報は音声出力装
置より出力される音声情報であるのも好適である。
Further, in the tactile information creating method, the tactile information presenting method or the tactile information presenting apparatus according to the present invention, it is preferable that the source information is image information output on the screen of the image display apparatus. The characteristics of the time change of the image information at a desired position on the screen may be extracted, the characteristics of the time change of the image information within a specific area on the screen may be extracted, or the characteristics displayed on the screen may be specified. You may extract the characteristic of the time change of an object. It is also preferable that the source information is audio information output from the audio output device.

【0009】また、本発明に係る触覚情報作成方法、触
覚情報提示方法または触覚情報提示装置では、源情報特
徴抽出ステップにおいて(源情報特徴抽出手段が)源情
報の時間変化の周波数を変換して特徴を抽出するのが好
適である。特に、周波数を低く変換するのが好適であ
る。この場合には、呈示されるべき触覚情報の変化の周
波数が変化することで、触覚情報呈示手段における可動
部の運動が追随可能となり、操作者に呈示される触覚情
報として適切なものとなり得る。
Further, in the tactile information creating method, tactile information presenting method or tactile information presenting apparatus according to the present invention, the source information feature extracting step (the source information feature extracting means) converts the frequency of the time change of the source information. It is preferable to extract the features. In particular, it is preferable to convert the frequency to low. In this case, by changing the frequency of the change of the tactile information to be presented, the movement of the movable part in the tactile information presenting means can be followed, which can be appropriate as the tactile information presented to the operator.

【0010】また、本発明に係る触覚情報作成方法、触
覚情報提示方法または触覚情報提示装置では、源情報特
徴抽出ステップにおいて(源情報特徴抽出手段が)源情
報の時間変化の複数の特徴を抽出し、触覚情報作成ステ
ップにおいて(触覚情報作成手段が)複数の特徴に応じ
て複数の触覚情報を作成するのが好適である。この場合
には、呈示される触覚情報が多様なものとなる。
Further, in the tactile information creating method, the tactile information presenting method or the tactile information presenting apparatus according to the present invention, the source information feature extracting step (the source information feature extracting means) extracts a plurality of features of the time variation of the source information. However, it is preferable that the tactile information creating step creates a plurality of tactile information according to a plurality of characteristics (by the tactile information creating means). In this case, the presented tactile information becomes various.

【0011】[0011]

【発明の実施の形態】以下、添付図面を参照して本発明
の実施の形態を詳細に説明する。なお、図面の説明にお
いて同一の要素には同一の符号を付し、重複する説明を
省略する。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described in detail below with reference to the accompanying drawings. In the description of the drawings, the same elements will be denoted by the same reference symbols, without redundant description.

【0012】図1は、本実施形態に係る触覚情報提示装
置10を含む情報処理システム1の概観図である。この
情報処理システム1は、本体50の他に、触覚情報呈示
装置10、キーボード20、画像表示装置30および音
声出力装置40を備える。触覚情報呈示装置10は、従
来のマウスと同様に操作者の手により操作されるもの
で、入力および出力の双方の機能を有する。すなわち、
触覚情報呈示装置10は、従来のマウスと同様にポイン
ティングデバイスとして用いられる他、触覚情報呈示部
101を介して操作者の指に対して触覚情報を呈示する
ことができる。キーボード20は文字入力等に用いられ
る。画像表示装置30は、オブジェクト32を含む表示
内容31を表示するとともに、触覚情報呈示装置10の
ポインティング機能により指定された位置にカーソル3
3を表示し、触覚情報呈示装置10のポインティング機
能により指定された方向に表示内容31をスクロールさ
せ、また、キーボード20により入力された文字を表示
する。音声出力装置40は、音声情報を出力する装置で
あって、例えば音楽や人の声を出力するスピーカであ
る。本体50は、CPU、ROMおよびRAM等を含
み、触覚情報呈示装置10、キーボード20、画像表示
装置30および音声出力装置40による各種の情報など
の入出力を制御・演算する。
FIG. 1 is a schematic view of an information processing system 1 including a tactile information presentation device 10 according to this embodiment. The information processing system 1 includes a main body 50, a tactile information presentation device 10, a keyboard 20, an image display device 30, and a voice output device 40. The tactile information presentation device 10 is operated by an operator's hand like a conventional mouse, and has both input and output functions. That is,
The tactile information presenting apparatus 10 is used as a pointing device like a conventional mouse, and can present tactile information to a finger of an operator via the tactile information presenting unit 101. The keyboard 20 is used for inputting characters and the like. The image display device 30 displays the display content 31 including the object 32, and displays the cursor 3 at the position designated by the pointing function of the tactile information presentation device 10.
3 is displayed, the display content 31 is scrolled in the direction designated by the pointing function of the tactile information presentation device 10, and the characters input by the keyboard 20 are displayed. The voice output device 40 is a device that outputs voice information, and is, for example, a speaker that outputs music or a human voice. The main body 50 includes a CPU, a ROM, a RAM, and the like, and controls input / output of various types of information by the tactile information presentation device 10, the keyboard 20, the image display device 30, and the audio output device 40.

【0013】図2は、本実施形態に係る触覚情報提示装
置10の説明図である。この図は、一部が断面図として
示されており、他の部分がブロック図として示されてい
る。この触覚情報呈示装置10は、触覚情報呈示部10
1の他、源情報特徴抽出手段102、触覚情報作成手段
103、駆動機構部110、制御部120および変位検
出部130を有している。これらのうち、駆動機構部1
10、制御部120および変位検出部130それぞれ
は、触覚情報呈示装置10の筐体の内部に収納されてい
る。触覚情報呈示部101は、触覚情報呈示装置10の
筐体の上部に設けられている。また、源情報特徴抽出手
段102および触覚情報作成手段103それぞれは、触
覚情報呈示装置10の筐体の内部に存在していてもよい
し、CD−ROMやMOなどのコンピュータ読み取り可
能な記録媒体に記憶され、本体50内にインストールす
ることでドライバソフトとして作動するように構成され
てもよい。
FIG. 2 is an explanatory diagram of the tactile information presentation device 10 according to this embodiment. In this figure, a part is shown as a cross-sectional view and the other part is shown as a block diagram. This tactile information presentation device 10 includes a tactile information presentation unit 10
1, the source information feature extracting unit 102, the tactile information creating unit 103, the drive mechanism unit 110, the control unit 120, and the displacement detecting unit 130 are included. Of these, the drive mechanism unit 1
10, the control unit 120, and the displacement detection unit 130 are housed inside the housing of the tactile information presentation device 10. The tactile information presenting unit 101 is provided on the top of the housing of the tactile information presenting apparatus 10. Further, each of the source information feature extraction means 102 and the tactile information creation means 103 may be present inside the housing of the tactile information presentation device 10, or in a computer-readable recording medium such as a CD-ROM or MO. It may be stored and installed in the main body 50 to operate as driver software.

【0014】変位検出部130は、触覚情報呈示装置1
0の筐体の底部の中央付近に設けられている。この変位
検出部130は、従来のマウスの場合と同様に、回転自
在なボールおよびエンコーダ(何れも図示せず)を有し
ていて、基準面(例えば机上面やマウスパッド)上を触
覚情報呈示装置10が移動することによるボールの回転
の方向および量をエンコーダにより検出することで、基
準面に対する触覚情報呈示装置10の2次元的な変位
(変位方向および変位量)を検出する。以下では、基準
面に平行な面にX軸およびY軸を設定し、これらに垂直
な方向にZ軸を設定して、XYZ直交座標系を想定す
る。すなわち、変位検出部130は、XY平面上におけ
る触覚情報呈示装置10の2次元的な変位を検出する。
The displacement detecting section 130 is a tactile information presenting apparatus 1.
It is provided in the vicinity of the center of the bottom of the 0 case. The displacement detection unit 130 has a rotatable ball and an encoder (neither is shown), as in the case of a conventional mouse, and provides tactile information on a reference plane (for example, a desk top surface or a mouse pad). The two-dimensional displacement (displacement direction and displacement amount) of the tactile information presentation device 10 with respect to the reference plane is detected by detecting the direction and amount of rotation of the ball caused by the movement of the device 10 by the encoder. Below, an X-axis and a Y-axis are set in a plane parallel to the reference plane, and a Z-axis is set in a direction perpendicular to these, and an XYZ orthogonal coordinate system is assumed. That is, the displacement detector 130 detects a two-dimensional displacement of the tactile information presentation device 10 on the XY plane.

【0015】触覚情報呈示部101は、触覚情報呈示装
置10の筐体の上部にあり、駆動機構部110と接続さ
れている。駆動機構部110は、触覚情報呈示装置10
の筐体に対して触覚情報呈示部101を変位させる。触
覚情報呈示部101は、或る方向(例えば、X軸方向、
Y軸方向およびZ軸方向の何れか)のみの1次元の変位
が可能であってもよいし、或る平面(例えばXY平面)
上に2次元の変位が可能であってもよいし、また、3次
元の変位が可能であってもよい。すなわち、触覚情報呈
示部101および駆動機構部110は、変位、振動およ
び力などの触覚情報を呈示する触覚情報呈示手段として
作用する。
The tactile information presenting unit 101 is located above the housing of the tactile information presenting apparatus 10 and is connected to the drive mechanism unit 110. The drive mechanism unit 110 includes the tactile information presentation device 10
The tactile information presenting unit 101 is displaced with respect to the casing. The haptic information presentation unit 101 uses a certain direction (for example, the X-axis direction,
It may be possible to perform one-dimensional displacement only in either the Y-axis direction or the Z-axis direction, or a certain plane (for example, XY plane)
Two-dimensional displacement may be possible or three-dimensional displacement may be possible. That is, the tactile information presenting unit 101 and the drive mechanism unit 110 act as a tactile information presenting unit that presents tactile information such as displacement, vibration, and force.

【0016】制御部120は、変位検出部130による
変位検出結果を本体50に通知し、また、触覚情報作成
手段103により作成された触覚情報に基づいて駆動機
構部110を制御して触覚情報呈示部101に触覚情報
を呈示させる。源情報特徴抽出手段102は、時間的に
変化する源情報の時間変化の特徴を抽出する。触覚情報
作成手段103は、この源情報特徴抽出手段102によ
り抽出された源情報の特徴に応じて触覚情報を作成す
る。そして、触覚情報呈示部101および駆動機構部1
10は、この触覚情報作成手段103により作成された
触覚情報を提示する。ここで、時間的に変化する源情報
とは、画像表示装置30の画面に出力される画像情報
(例えば、MPEGやAVIなどの形式の動画や、GI
F形式のアニメーションなど)であり、或いは、音声出
力装置40より出力される音声情報(例えば音楽や人の
声など)である。
The control unit 120 notifies the main body 50 of the displacement detection result of the displacement detection unit 130, and controls the drive mechanism unit 110 based on the tactile information created by the tactile information creating unit 103 to present the tactile information. The unit 101 is caused to present tactile information. The source information feature extraction unit 102 extracts a feature of time-varying source information that changes with time. The tactile information creating means 103 creates tactile information according to the feature of the source information extracted by the source information feature extracting means 102. Then, the tactile information presentation unit 101 and the drive mechanism unit 1
10 presents the tactile information created by this tactile information creating means 103. Here, the source information that changes with time means image information output on the screen of the image display device 30 (for example, a moving image in a format such as MPEG or AVI, or GI).
F format animation) or audio information (for example, music or human voice) output from the audio output device 40.

【0017】次に、本実施形態に係る触覚情報呈示装置
10の駆動機構部110の詳細について図3〜図5を用
いて説明する。以下に説明する駆動機構部110は、触
覚情報呈示部102をXY平面に平行な方向に2次元移
動させることができるものである。
Next, details of the drive mechanism section 110 of the tactile information presenting apparatus 10 according to the present embodiment will be described with reference to FIGS. The drive mechanism unit 110 described below is capable of moving the tactile information presenting unit 102 two-dimensionally in a direction parallel to the XY plane.

【0018】図3は、本実施形態に係る触覚情報呈示装
置10の駆動機構部110の概略構成図である。同図
(a)は平面図であり、同図(b)は同図(a)中にお
けるA−A線での断面図である。駆動機構部110は、
側縁部が上方に突出した略板状の固定部材111と、こ
の固定部材111に対してXY平面に平行な方向に移動
可能な可動部材112と、固定部材111の側縁部と可
動部材112との間に両者を連結する弾性部材115A
〜115Dとを有する。固定部材111は触覚情報呈示
装置10の筐体と固定されており、可動部材112は触
覚情報呈示部102と固定されている。したがって、固
定部材111に対して可動部材112が変位することに
より、触覚情報呈示装置10の筐体に対して触覚情報呈
示部102が変位することになる。弾性部材115A〜
115Dそれぞれは、弾性を有する樹脂やバネなどであ
り、可動部材112の周囲の4個所に設けられており、
一端が可動部材112に接合され、他端が固定部材11
1の側縁部に接合されている。
FIG. 3 is a schematic configuration diagram of the drive mechanism section 110 of the tactile information presentation device 10 according to this embodiment. The figure (a) is a top view, the figure (b) is sectional drawing in the AA line in the figure (a). The drive mechanism unit 110 is
A substantially plate-shaped fixed member 111 having a side edge protruding upward, a movable member 112 movable in a direction parallel to the XY plane with respect to the fixed member 111, a side edge of the fixed member 111, and a movable member 112. Elastic member 115A for connecting the two between
~ 115D. The fixed member 111 is fixed to the housing of the tactile information presentation device 10, and the movable member 112 is fixed to the tactile information presentation unit 102. Therefore, when the movable member 112 is displaced with respect to the fixed member 111, the tactile information presentation unit 102 is displaced with respect to the housing of the tactile information presentation device 10. Elastic member 115A to
Each of 115D is a resin or spring having elasticity, and is provided at four positions around the movable member 112.
One end is joined to the movable member 112 and the other end is the fixed member 11.
1 is joined to the side edge portion.

【0019】また、可動部材112には4つのコイル1
16A〜116Dが固定されている。同図(a)の平面
図において、中心を原点とし、右方向をX軸方向とし、
上方向をY軸方向とすると、コイル116AはX座標値
が正の領域にX軸をまたいで設けられており、コイル1
16BはX座標値が負の領域にX軸をまたいで設けられ
ており、コイル116CはY座標値が正の領域にY軸を
またいで設けられており、また、コイル116DはY座
標値が負の領域にY軸をまたいで設けられている。
The movable member 112 has four coils 1
16A to 116D are fixed. In the plan view of FIG. 7A, the center is the origin, the right direction is the X-axis direction,
Assuming that the upward direction is the Y-axis direction, the coil 116A is provided in the region where the X coordinate value is positive, across the X-axis.
16B is provided in the region where the X coordinate value is negative across the X axis, the coil 116C is provided in the region where the Y coordinate value is positive across the Y axis, and the coil 116D is provided in the region where the Y coordinate value is It is provided across the Y axis in the negative region.

【0020】図4は、本実施形態に係る触覚情報呈示装
置10の駆動機構部110における触刺激呈示機構を説
明する平面図である。固定部材111には4つの磁石1
17A〜117Dが固定されている。磁石117Aは、
X座標値が正であってY座標値も正である領域に、その
磁束がコイル116Aおよび116Dの双方を貫くよう
に設けられている。磁石117Bは、X座標値が負であ
ってY座標値が正である領域に、その磁束がコイル11
6Bおよび116Dの双方を貫くように設けられてい
る。磁石117Cは、X座標値が負であってY座標値も
負である領域に、その磁束がコイル116Bおよび11
6Cの双方を貫くように設けられている。また、磁石1
17Dは、X座標値が正であってY座標値が負である領
域に、その磁束がコイル116Aおよび116Cの双方
を貫くように設けられている。これらのうち磁石117
Aおよび117Cそれぞれは、可動部材112に対向す
る側がS極となるように配置され、磁石117Bおよび
117Dそれぞれは、可動部材112に対向する側がN
極となるように配置されている。
FIG. 4 is a plan view for explaining the tactile stimulus presentation mechanism in the drive mechanism section 110 of the tactile information presentation device 10 according to this embodiment. There are four magnets 1 on the fixing member 111.
17A to 117D are fixed. The magnet 117A is
The magnetic flux penetrates both coils 116A and 116D in a region where the X coordinate value is positive and the Y coordinate value is also positive. The magnet 117B has a magnetic flux in the region where the X coordinate value is negative and the Y coordinate value is positive, and
It is provided so as to penetrate both 6B and 116D. The magnet 117C has its magnetic flux in the regions where the X coordinate value is negative and the Y coordinate value is also negative, and
It is provided so as to penetrate both 6C. Also, magnet 1
17D is provided in a region where the X coordinate value is positive and the Y coordinate value is negative so that its magnetic flux penetrates both coils 116A and 116C. Of these, the magnet 117
Each of A and 117C is arranged so that the side facing the movable member 112 has an S pole, and each of the magnets 117B and 117D has an N side on the side facing the movable member 112.
It is arranged so that it may become a pole.

【0021】コイル116A〜116Dと磁石117A
〜117Dとの間の相対的な位置関係について換言すれ
ば以下のとおりである。コイル116Aは、磁石117
Aおよび117Dそれぞれが作る磁界に対して、X軸と
平行な方向に電流が横切るように設けられている。コイ
ル116Bは、磁石117Bおよび117Cそれぞれが
作る磁界に対して、X軸と平行な方向に電流が横切るよ
うに設けられている。コイル116Cは、磁石117C
および117Dそれぞれが作る磁界に対して、Y軸と平
行な方向に電流が横切るように設けられている。また、
コイル116Dは、磁石117Aおよび117Bそれぞ
れが作る磁界に対して、Y軸と平行な方向に電流が横切
るように設けられている。
Coils 116A-116D and magnet 117A
In other words, the relative positional relationship between the first and the second positions 117 to 117D is as follows. The coil 116A has a magnet 117
A current is provided so as to cross a magnetic field generated by each of A and 117D in a direction parallel to the X axis. The coil 116B is provided so that the current crosses the magnetic fields generated by the magnets 117B and 117C, respectively, in the direction parallel to the X axis. The coil 116C is a magnet 117C.
And 117D, a current is provided so as to cross the magnetic field created by each of them and in the direction parallel to the Y axis. Also,
The coil 116D is provided so that the current crosses the magnetic fields generated by the magnets 117A and 117B, respectively, in the direction parallel to the Y axis.

【0022】コイル116A〜116Dそれぞれは、銅
線を用いてもよいし、また、軽量化のために、銅メッキ
されたアルミニウム線を用いるのも好適である。磁石1
17A〜117Dそれぞれは、保磁力および残留磁束密
度が大きいものが好ましく、例えばネオジ磁石が好適で
ある。
Copper wires may be used for each of the coils 116A to 116D, and it is also preferable to use copper-plated aluminum wires for weight reduction. Magnet 1
Each of 17A to 117D preferably has a large coercive force and residual magnetic flux density, and for example, a neodymium magnet is suitable.

【0023】触刺激呈示手段151は、触覚情報呈示装
置10内の前述した制御部120からの指示を受けて、
コイル116A〜116Dそれぞれに対して独立に電流
を流すことができる。そして、コイル116A〜116
Dそれぞれに流れる電流の大きさ及び方向と、磁石11
7A〜117Dそれぞれが作る磁界との間で、フレミン
グの左手の法則に応じた相互作用が生じる。これに因
り、コイル116A〜116Dそれぞれに推力が生じ
て、これらの推力と弾性部材115A〜115Dそれぞ
れの応力とに応じて、固定部材111に対して可動部材
112が移動する。そして、この可動部材112が変位
することにより、触覚情報呈示部102が変位して、こ
の触覚情報呈示部102上に触れている操作者の指など
に触刺激が呈示される。
The tactile stimulus presenting means 151 receives an instruction from the above-mentioned control section 120 in the tactile information presenting apparatus 10,
A current can be independently applied to each of the coils 116A to 116D. And the coils 116A-116
The magnitude and direction of the current flowing through each D, and the magnet 11
Interactions according to Fleming's left-hand rule occur with the magnetic fields generated by 7A to 117D. As a result, thrust is generated in each of the coils 116A to 116D, and the movable member 112 moves with respect to the fixed member 111 according to these thrusts and the stress of each of the elastic members 115A to 115D. When the movable member 112 is displaced, the tactile information presenting unit 102 is displaced, and tactile stimulus is presented to the finger or the like of the operator touching the tactile information presenting unit 102.

【0024】図5は、本実施形態に係る触覚情報呈示装
置10の駆動機構部110における固定部材111と可
動部材112との間の相対的変位を検出する機構を説明
する断面図である。コイル116A〜116Dが固定さ
れた可動部材112の下面中央に発光素子113が設け
られている。この発光素子113は、可動部材112の
重心位置(すなわちコイル116A〜116Dに囲まれ
た領域の中心位置)であって、コイル116A〜116
Dの下面より高い位置に設けられていて、下方の固定部
材111に向けて光を出力する。発光素子113とし
て、例えば、発光ダイオードまたは半導体レーザ光源が
用いられる。
FIG. 5 is a cross-sectional view for explaining a mechanism for detecting relative displacement between the fixed member 111 and the movable member 112 in the drive mechanism section 110 of the tactile information presentation device 10 according to this embodiment. The light emitting element 113 is provided in the center of the lower surface of the movable member 112 to which the coils 116A to 116D are fixed. The light emitting element 113 is at the center of gravity of the movable member 112 (that is, the center position of the area surrounded by the coils 116A to 116D), and the coils 116A to 116D.
It is provided at a position higher than the lower surface of D and outputs light toward the lower fixing member 111. As the light emitting element 113, for example, a light emitting diode or a semiconductor laser light source is used.

【0025】一方、磁石117A〜117Dが固定され
た固定部材111の上面中央に受光センサ114が設け
られている。この受光センサ114は、磁石117A〜
117Dに囲まれた領域の中心位置であって、磁石11
7A〜117Dの上面より低い位置に設けられていて、
発光素子113から出力された光を受光し、当該受光面
上における光の入射位置に応じた値の電気信号を出力す
る。受光センサ114として、4分割型フォトダイオー
ド、4分割型フォトトランジスタ、または、2次元光学
的位置検出素子(PSD: position sensitive detecto
r)が用いられる。また、4分割型フォトダイオードや
4分割型フォトトランジスタは、1チップ上に形成され
たものであってもよいし、別チップのものが配列された
ものであってもよい。
On the other hand, a light receiving sensor 114 is provided at the center of the upper surface of the fixing member 111 to which the magnets 117A to 117D are fixed. The light receiving sensor 114 includes magnets 117A to
At the center of the area surrounded by 117D, the magnet 11
7A-117D is provided at a position lower than the upper surface,
The light output from the light emitting element 113 is received, and an electric signal having a value corresponding to the incident position of the light on the light receiving surface is output. As the light receiving sensor 114, a four-division photodiode, a four-division phototransistor, or a two-dimensional optical position detection element (PSD: position sensitive detecto)
r) is used. The 4-division photodiode or 4-division phototransistor may be formed on one chip, or may be arranged on another chip.

【0026】次に、以上のように構成される本実施形態
に係る触覚情報呈示装置10の動作を説明するととも
に、本実施形態に係る触覚情報作成方法および触覚情報
提示方法について説明する。図6は、本実施形態に係る
触覚情報呈示装置10の概略動作(触覚情報作成方法お
よび触覚情報提示方法)を説明するフローチャートであ
る。ステップS1では、時間的に変化する源情報(画像
表示装置30に表示されている画像情報、または、音声
出力装置40より出力されている音声情報)の特徴が源
情報特徴抽出手段102により抽出される。ステップS
2では、ステップS1において源情報特徴抽出手段10
2により抽出された源情報の特徴に応じて、呈示すべき
触覚情報が触覚情報作成手段103により作成される。
Next, the operation of the tactile information presenting apparatus 10 according to the present embodiment configured as described above will be described, and the tactile information creating method and tactile information presenting method according to the present embodiment will be described. FIG. 6 is a flowchart for explaining a general operation (a tactile information creating method and a tactile information presenting method) of the tactile information presenting apparatus 10 according to the present embodiment. In step S1, the source information feature extracting means 102 extracts the features of the source information (image information displayed on the image display device 30 or the audio information output from the audio output device 40) that change with time. It Step S
2, the source information feature extraction means 10 in step S1
The tactile information to be presented is created by the tactile information creating means 103 according to the characteristics of the source information extracted in 2.

【0027】そして、ステップS3では、この作成され
た触覚情報が制御部120へ送られ、この触覚情報に基
づいて制御部120により駆動機構部120が制御され
る。すなわち、ステップS1において触覚情報作成手段
103により作成され触覚情報は、駆動機構部120お
よび触覚情報呈示部101を含む触覚情報提示手段によ
り、触覚情報呈示部101に触れている操作者の指など
に対して呈示される。このとき、触覚情報呈示部101
により呈示される触覚情報は、触覚情報呈示部101の
変位量、触覚情報呈示部101が変位しようとする力、
および、触覚情報呈示部101の振動の振幅の、何れに
より表されてもよい。これらステップS1〜S3は、終
了指示があるまで繰り返し行われる。
Then, in step S3, the generated tactile information is sent to the control unit 120, and the control unit 120 controls the drive mechanism unit 120 based on the tactile information. That is, the tactile information created by the tactile information creating unit 103 in step S1 is applied to the finger or the like of the operator touching the tactile information presenting unit 101 by the tactile information presenting unit including the drive mechanism unit 120 and the tactile information presenting unit 101. To be presented. At this time, the tactile information presenting unit 101
The tactile information presented by is the displacement amount of the tactile information presenting unit 101, the force with which the tactile information presenting unit 101 is about to be displaced,
It may be represented by any one of the amplitude of vibration of the tactile information presenting unit 101. These steps S1 to S3 are repeated until an end instruction is given.

【0028】次に、本実施形態に係る触覚情報呈示装置
10の動作(触覚情報作成方法および触覚情報提示方
法)の具体的な実施例について説明する。
Next, a specific example of the operation of the tactile information presenting apparatus 10 according to the present embodiment (a tactile information creating method and a tactile information presenting method) will be described.

【0029】第1実施例は、源情報が画像情報であっ
て、画像表示装置30の画面中のカーソル33の位置に
おける画像情報の時間変化の特徴が抽出されるものであ
る。この第1実施例では、画像表示装置30の画面にお
いてカーソル33の位置が固定されていて、その画面に
表示される表示内容31において特定オブジェクト32
が動いている。このような場合、ポインティングデバイ
スを兼ねている触覚情報呈示装置10が操作者により操
作され、触覚情報呈示装置10の変位検出部130によ
る変位検出結果に基づいて、画像表示装置30の画面中
の何れかの位置にカーソル33が置かれる。
In the first embodiment, the source information is image information, and the characteristic of the time change of the image information at the position of the cursor 33 on the screen of the image display device 30 is extracted. In the first embodiment, the position of the cursor 33 is fixed on the screen of the image display device 30, and the specific object 32 is displayed in the display content 31 displayed on the screen.
Is moving. In such a case, the tactile information presenting apparatus 10 also serving as a pointing device is operated by the operator, and any one of the screens of the image display apparatus 30 is displayed based on the displacement detection result by the displacement detecting unit 130 of the tactile information presenting apparatus 10. The cursor 33 is placed at that position.

【0030】第1実施例のステップS1では、画像表示
装置30の画面におけるカーソル33の位置が検出さ
れ、そのカーソル33の位置における画像情報の特徴が
源情報特徴抽出手段102により抽出される。カーソル
33の位置における画像情報の特徴とは、例えば、その
位置の画素のRGBの色情報に基づくものであり、R
(レッド),G(グリーン)およびB(ブルー)のうち
の1または複数の色情報であってもよいし、R,Gおよ
びBのうち何れか2以上の色情報に基づいて求められる
もの(例えば色情報間の偏差や平均値)であってもよ
く、また、或る基準値(例えば、初期値、操作者が設定
した設定値)からの色情報の偏差を上記特徴としてもよ
いし、色情報の時間的な微分値を上記特徴としてもよ
い。
In step S1 of the first embodiment, the position of the cursor 33 on the screen of the image display device 30 is detected, and the characteristic of the image information at the position of the cursor 33 is extracted by the source information characteristic extracting means 102. The characteristic of the image information at the position of the cursor 33 is, for example, based on the RGB color information of the pixel at that position, and R
It may be one or a plurality of color information of (red), G (green) and B (blue), or information obtained based on any two or more color information of R, G and B ( For example, it may be a deviation between color information or an average value), or the deviation of the color information from a certain reference value (for example, an initial value, a set value set by the operator) may be the above characteristic, The above-mentioned feature may be a temporal differential value of color information.

【0031】第1実施例のステップS2では、ステップ
S1において抽出された源情報の特徴に応じて、呈示す
べき触覚情報が触覚情報作成手段103により作成され
る。例えば、源情報の特徴が基準値からの或る色情報の
偏差であれば、その偏差の大きさに応じた変位を触覚情
報呈示部101に与えるような触覚情報が作成される。
また、例えば、源情報の特徴が基準値からの或る2つの
色情報の偏差であれば、各々の偏差の大きさに応じた2
軸方向(x軸方向、y軸方向)それぞれの変位を触覚情
報呈示部101に与えるような触覚情報が作成される。
In step S2 of the first embodiment, the tactile information to be presented is created by the tactile information creating means 103 according to the characteristics of the source information extracted in step S1. For example, if the characteristic of the source information is the deviation of a certain color information from the reference value, the tactile information that gives a displacement according to the magnitude of the deviation to the tactile information presenting unit 101 is created.
Further, for example, if the characteristic of the source information is the deviation of certain two color information from the reference value, then 2 depending on the magnitude of each deviation.
Tactile information is created such that displacements in the axial directions (x-axis direction and y-axis direction) are given to the tactile information presentation unit 101.

【0032】そして、第1実施例のステップS3では、
ステップS2において作成された触覚情報が、駆動機構
部110を介して触覚情報呈示部101により、この触
覚情報呈示部101に触れている操作者の指先などに対
して提示される。また、ステップS2において2軸方向
それぞれの変位を与えるような触覚情報が作成された場
合、ステップS3では、触覚情報呈示部101によりx
軸方向およびy軸方向それぞれで異なる触覚情報が呈示
される。以上のステップS1〜S3が繰り返し行われ
る。これにより、画像表示装置30の画面に表示される
表示内容31において特定オブジェクト32が動くにし
たがって、その動きに応じた触覚情報が触覚情報呈示部
101を介して操作者の指先などに提示される。
Then, in step S3 of the first embodiment,
The tactile information created in step S2 is presented by the tactile information presenting unit 101 via the drive mechanism unit 110 to the fingertip of the operator touching the tactile information presenting unit 101. Further, when the tactile information that gives the displacement in each of the two axial directions is created in step S2, x is set by the tactile information presenting unit 101 in step S3.
Different tactile information is presented in each of the axial direction and the y-axis direction. The above steps S1 to S3 are repeated. As a result, as the specific object 32 moves in the display content 31 displayed on the screen of the image display device 30, tactile information corresponding to the movement is presented to the operator's fingertip or the like via the tactile information presenting unit 101. .

【0033】なお、源情報の特徴の変化が速いと、触覚
情報呈示部101により呈示されるべき触覚情報の変化
も速くなって、この速い変化に対して触覚情報呈示部1
01の運動が追随できなくなったり、或いは、操作者に
呈示される触覚情報として不適切であったりする場合が
ある。このような場合には、ステップS1において源情
報の時間変化の周波数を低周波数のものに変換して特徴
を抽出するのが好適である。例えば、画像表示装置30
に表示される画像情報は毎秒30枚または毎秒15枚の
フレームレートで変化するが、数フレーム毎にステップ
S1〜S3の繰り返しが行われるようにすればよく、ま
た、この繰り返しの頻度が操作者により設定され得るの
も好適である。
When the feature of the source information changes quickly, the tactile information presenting unit 101 also changes the tactile information fast, and the tactile information presenting unit 1 responds to the fast change.
There are cases where the motion of 01 cannot follow, or it is inappropriate as the tactile information presented to the operator. In such a case, in step S1, it is preferable to convert the frequency of the time change of the source information into a low frequency one to extract the feature. For example, the image display device 30
The image information displayed on the screen changes at a frame rate of 30 frames per second or 15 frames per second, but it suffices if steps S1 to S3 are repeated every several frames, and the frequency of this repetition is determined by the operator. It is also preferable that it can be set by

【0034】第2実施例は、源情報が画像情報であっ
て、画像表示装置30の画面中の特定領域内における画
像情報の時間変化の特徴が抽出されるものである。この
第2実施例では、画像表示装置30の画面に表示される
表示内容31において特定オブジェクト32が動いてい
る。また、画像表示装置30の画面において特定領域が
指定されている。この特定領域の指定に際しては、例え
ば、ポインティングデバイスを兼ねている触覚情報呈示
装置10が操作者により操作され、触覚情報呈示装置1
0の変位検出部130による変位検出結果に基づいて、
画像表示装置30の画面中の何れかの位置にカーソル3
3が置かれ、このカーソル33の位置を中心とする一定
の領域が上記特定領域として指定される。或いは、操作
者による触覚情報呈示装置10の操作により上記特定領
域の境界が指定されてもよい。また、画面全体が上記特
定領域とされてもよい。
In the second embodiment, the source information is the image information, and the feature of the temporal change of the image information in the specific area on the screen of the image display device 30 is extracted. In the second embodiment, the specific object 32 is moving in the display content 31 displayed on the screen of the image display device 30. Further, a specific area is designated on the screen of the image display device 30. When designating this specific region, for example, the tactile information presenting apparatus 10 which also functions as a pointing device is operated by the operator, and the tactile information presenting apparatus 1 is operated.
Based on the displacement detection result by the displacement detection unit 130 of 0,
Cursor 3 at any position on the screen of the image display device 30
3 is placed, and a certain area centered on the position of the cursor 33 is designated as the specific area. Alternatively, the boundary of the specific area may be designated by the operation of the tactile information presentation device 10 by the operator. Further, the entire screen may be the specific area.

【0035】第2実施例のステップS1では、画像表示
装置30の画面における上記特定領域内における画像情
報の特徴が源情報特徴抽出手段102により抽出され
る。特定領域内における画像情報の特徴とは、例えば、
その特定領域内の全画素のRGBの色情報に基づくもの
であり、その特定領域内のR(レッド),G(グリー
ン)およびB(ブルー)のうちの1または複数の色情報
の平均値であってもよいし、その特定領域内のR,Gお
よびBのうち何れか2以上の色情報に基づいて求められ
るもの(例えば色情報間の偏差や平均値)であってもよ
く、また、或る基準値(例えば、初期値、操作者が設定
した設定値)からの色情報の偏差を上記特徴としてもよ
いし、色情報の時間的な微分値を上記特徴としてもよ
い。
In step S1 of the second embodiment, the source information feature extraction means 102 extracts the features of the image information in the specific area on the screen of the image display device 30. The characteristics of the image information in the specific area are, for example,
It is based on RGB color information of all pixels in the specific area, and is an average value of one or more color information of R (red), G (green), and B (blue) in the specific area. It may be present, or may be obtained based on any two or more color information of R, G and B in the specific area (for example, deviation or average value between color information), A deviation of the color information from a certain reference value (for example, an initial value or a set value set by the operator) may be the characteristic, or a temporal differential value of the color information may be the characteristic.

【0036】第2実施例のステップS2およびS3それ
それの内容は、第1実施例の場合と同様である。以上の
ステップS1〜S3が繰り返し行われる。これにより、
画像表示装置30の画面に表示される表示内容31にお
いて特定オブジェクト32が動くにしたがって、その動
きに応じた触覚情報が触覚情報呈示部101を介して操
作者の指先などに提示される。なお、第2実施例でも、
第1実施例の場合と同様に、ステップS1において源情
報の時間変化の周波数を低周波数のものに変換して特徴
を抽出するのが好適であり、また、ステップS1〜S3
の繰り返しの頻度が操作者により設定され得るのが好適
である。
The contents of steps S2 and S3 of the second embodiment are similar to those of the first embodiment. The above steps S1 to S3 are repeated. This allows
As the specific object 32 moves in the display content 31 displayed on the screen of the image display device 30, the tactile information corresponding to the movement is presented to the operator's fingertip or the like via the tactile information presenting unit 101. In addition, also in the second embodiment,
As in the case of the first embodiment, it is preferable to convert the frequency of the time change of the source information into the low frequency one to extract the characteristic in step S1, and also to extract the features.
It is preferable that the frequency of repetition of the above can be set by the operator.

【0037】第3実施例は、源情報が画像情報であっ
て、画像表示装置30の画面に表示された特定オブジェ
クトの時間変化の特徴が抽出されるものである。この第
3実施例では、画像表示装置30の画面に表示される表
示内容31において特定オブジェクト32が動いてい
る。画面の表示内容31において動いているオブジェク
トが複数存在する場合には、例えば、それらのうち最大
面積のものが自動的に識別され、それらのうち動きが最
も速いものが自動的に識別され、或いは、操作者の選択
により何れかのオブジェトが選択されて、この識別また
は選択されたものが上記の特定オブジェクトとされる。
In the third embodiment, the source information is image information, and the characteristic of the temporal change of the specific object displayed on the screen of the image display device 30 is extracted. In the third embodiment, the specific object 32 is moving in the display content 31 displayed on the screen of the image display device 30. When there are a plurality of moving objects in the display content 31 of the screen, for example, the one having the largest area is automatically identified, and the one having the fastest movement is automatically identified, or Any object is selected by the operator's selection, and the object identified or selected is set as the specific object.

【0038】第3実施例のステップS1では、画像表示
装置30の画面における特定オブジェクト内における画
像情報の特徴が源情報特徴抽出手段102により抽出さ
れる。特定オブジェクト内における画像情報の特徴と
は、例えば、その特定オブジェクト内のR(レッド),
G(グリーン)およびB(ブルー)のうちの1または複
数の色情報の平均値であってもよいし、その特定オブジ
ェクト内のR,GおよびBのうち何れか2以上の色情報
に基づいて求められるもの(例えば色情報間の偏差や平
均値)であってもよいし、その特定オブジェクトの大き
さであってもよいし、その特定オブジェクトの動きの速
さであってもよく、また、或る基準値(例えば、初期
値、操作者が設定した設定値)からの色情報・大きさ・
速さの偏差を上記特徴としてもよいし、色情報・大きさ
・速さの時間的な微分値を上記特徴としてもよい。さら
にまた、その特定オブジェクトの軌跡を上記特徴として
もよい。
In step S1 of the third embodiment, the source information feature extraction means 102 extracts the feature of the image information in the specific object on the screen of the image display device 30. The feature of the image information in the specific object is, for example, R (red) in the specific object,
It may be an average value of one or more color information of G (green) and B (blue), or based on any two or more color information of R, G and B in the specific object. It may be what is required (for example, the deviation or average value between color information), the size of the specific object, or the speed of movement of the specific object. Color information / size from a certain reference value (for example, initial value, setting value set by the operator)
The deviation of speed may be the above characteristics, or the temporal differential value of color information, size, and speed may be the above characteristics. Furthermore, the trajectory of the specific object may be the above feature.

【0039】第3実施例のステップS2およびS3それ
それの内容は、第1実施例の場合と同様である。以上の
ステップS1〜S3が繰り返し行われる。これにより、
画像表示装置30の画面に表示される表示内容31にお
いて特定オブジェクト32が動くにしたがって、その動
きに応じた触覚情報が触覚情報呈示部101を介して操
作者の指先などに提示される。なお、第3実施例でも、
第1実施例の場合と同様に、ステップS1において源情
報の時間変化の周波数を低周波数のものに変換して特徴
を抽出するのが好適であり、また、ステップS1〜S3
の繰り返しの頻度が操作者により設定され得るのが好適
である。
The contents of steps S2 and S3 of the third embodiment are similar to those of the first embodiment. The above steps S1 to S3 are repeated. This allows
As the specific object 32 moves in the display content 31 displayed on the screen of the image display device 30, the tactile information corresponding to the movement is presented to the operator's fingertip or the like via the tactile information presenting unit 101. In addition, also in the third embodiment,
As in the case of the first embodiment, it is preferable to convert the frequency of the time change of the source information into the low frequency one to extract the characteristic in step S1, and also to extract the features.
It is preferable that the frequency of repetition of the above can be set by the operator.

【0040】第4実施例は、源情報が音声情報であっ
て、その音声情報の時間変化の特徴が抽出されるもので
ある。この第4実施例のステップS1では、音声出力装
置40から出力される音声情報の特徴が源情報特徴抽出
手段102により抽出される。音声情報の特徴とは、例
えば、その音声の全体のパワーであってもよいし、その
音声の特定周波数のパワーであってもよいし、その音声
のスペクトルにおける最大パワーであってもよいし、そ
の音声のスペクトルにおける最大パワーの周波数であっ
てもよいし、その音声のスペクトルにおける中心周波数
であってもよく、また、或る基準値(例えば、初期値、
操作者が設定した設定値)からのパワー・周波数の偏差
を上記特徴としてもよいし、パワー・周波数の時間的な
微分値を上記特徴としてもよい。
In the fourth embodiment, the source information is voice information, and the feature of the time change of the voice information is extracted. In step S1 of the fourth embodiment, the source information feature extraction means 102 extracts the features of the voice information output from the voice output device 40. The characteristic of the voice information may be, for example, the entire power of the voice, the power of a specific frequency of the voice, or the maximum power in the spectrum of the voice, It may be the frequency of maximum power in the spectrum of the voice, it may be the center frequency in the spectrum of the voice, and a certain reference value (for example, an initial value,
The deviation of the power / frequency from the set value set by the operator may be the above characteristic, or the temporal differential value of the power / frequency may be the above characteristic.

【0041】第4実施例のステップS2およびS3それ
それの内容は、第1実施例の場合と同様である。以上の
ステップS1〜S3が繰り返し行われる。これにより、
音声出力装置40から出力される音声情報にしたがって
触覚情報が触覚情報呈示部101を介して操作者の指先
などに提示される。
The contents of steps S2 and S3 of the fourth embodiment are similar to those of the first embodiment. The above steps S1 to S3 are repeated. This allows
Tactile information is presented to the operator's fingertip or the like via the tactile information presenting unit 101 according to the audio information output from the audio output device 40.

【0042】なお、第4実施例でも、第1実施例の場合
と同様に、ステップS1において源情報の時間変化の周
波数を低周波数のものに変換して特徴を抽出するのが好
適であり、また、ステップS1〜S3の繰り返しの頻度
が操作者により設定され得るのが好適である。特に、第
4実施例では、音声情報の或る特定周波数と同一の周波
数で、且つ、その特定周波数のパワーに応じた変位量
で、触覚情報呈示部101が変位するようにしてもよい
が、これでは、触覚情報呈示部101により呈示される
べき触覚情報の変化も速くなって、この速い変化に対し
て触覚情報呈示部101の運動が追随できなくなった
り、或いは、操作者に呈示される触覚情報として不適切
であったりする場合がある。そこで、第4実施例では、
ステップS1において音声情報の特定周波数を低周波数
のものに変換するのが好適であり、その変換の程度が操
作者により設定され得るのも好適である。例えば、男性
の話声の平均周波数は約500Hzであり、女性の話声
の平均周波数は約800Hzであるから、この話声(音
声情報)の周波数を50分の1程度に低くするのが好適
である。このような周波数変換は、音声情報をフーリエ
変換して周波数解析を行い、各周波数を一定比率で小さ
くし、フーリエ逆変換することで可能である。
In the fourth embodiment, as in the case of the first embodiment, it is preferable to convert the frequency of the time change of the source information into the low frequency one in step S1 to extract the characteristic. Further, it is preferable that the operator can set the frequency of repeating steps S1 to S3. In particular, in the fourth embodiment, the tactile information presenting unit 101 may be displaced at the same frequency as a certain specific frequency of voice information and at a displacement amount according to the power of the specific frequency. As a result, the change of the tactile information to be presented by the tactile information presenting unit 101 becomes faster, and the movement of the tactile information presenting unit 101 cannot follow the fast change, or the tactile information presented to the operator is increased. It may be inappropriate as information. Therefore, in the fourth embodiment,
In step S1, it is preferable that the specific frequency of the voice information is converted to a low frequency, and it is also preferable that the degree of the conversion can be set by the operator. For example, the average frequency of a male voice is about 500 Hz, and the average frequency of a female voice is about 800 Hz. Therefore, it is preferable to reduce the frequency of this voice (voice information) to about 1/50. Is. Such frequency conversion can be performed by performing Fourier transform on the voice information to perform frequency analysis, reducing each frequency at a constant ratio, and performing inverse Fourier transform.

【0043】また、源情報(音声情報)の時間変化の特
徴と所定パターン(例えば、人の声、楽器の音、メロデ
ィ)との間でパターンマッチングを行い、そのパターン
マッチングで得られた情報に基づいて、それに対応する
触覚情報を提示するのも好適である。
Further, pattern matching is performed between the characteristic of the time change of the source information (voice information) and a predetermined pattern (for example, human voice, musical instrument sound, melody), and the information obtained by the pattern matching is used. It is also preferable to present the tactile information corresponding thereto based on the above.

【0044】[0044]

【発明の効果】以上、詳細に説明したとおり、時間的に
変化する源情報の時間変化の特徴が抽出され、この源情
報の特徴に応じて触覚情報が作成され、そして、この作
成された触覚情報が提示される。このように、時間的に
変化する源情報の時間変化の特徴に応じて触覚情報が作
成されることにより、記憶手段の容量の制約を受けるこ
となく、提示可能な触覚情報の種類が拡大される。ま
た、このことにより、時間的に変化する触覚情報が作成
され提示され得る。
As described above in detail, the time-varying characteristic of the source information that changes with time is extracted, tactile information is created according to the characteristic of the source information, and the created tactile information is generated. Information is presented. As described above, since the tactile information is created according to the temporal change feature of the source information that changes with time, the types of tactile information that can be presented are expanded without being restricted by the capacity of the storage unit. . Also, this allows tactile information that changes with time to be created and presented.

【図面の簡単な説明】[Brief description of drawings]

【図1】本実施形態に係る触覚情報提示装置10を含む
情報処理システム1の概観図である。
FIG. 1 is a schematic view of an information processing system 1 including a haptic information presentation device 10 according to this embodiment.

【図2】本実施形態に係る触覚情報提示装置10の説明
図である。
FIG. 2 is an explanatory diagram of a tactile information presentation device 10 according to the present embodiment.

【図3】本実施形態に係る触覚情報呈示装置10の駆動
機構部110の概略構成図である。
FIG. 3 is a schematic configuration diagram of a drive mechanism unit 110 of the tactile information presentation device 10 according to the present embodiment.

【図4】本実施形態に係る触覚情報呈示装置10の駆動
機構部110における触刺激呈示機構を説明する平面図
である。
FIG. 4 is a plan view illustrating a tactile stimulus presentation mechanism in a drive mechanism unit 110 of the tactile information presentation device 10 according to the present embodiment.

【図5】本実施形態に係る触覚情報呈示装置10の駆動
機構部110における固定部材111と可動部材112
との間の相対的変位を検出する機構を説明する断面図で
ある。
FIG. 5 shows a fixed member 111 and a movable member 112 in the drive mechanism section 110 of the tactile information presentation device 10 according to the present embodiment.
It is sectional drawing explaining the mechanism which detects the relative displacement between and.

【図6】本実施形態に係る触覚情報呈示装置10の概略
動作を説明するフローチャートである。
FIG. 6 is a flowchart illustrating a schematic operation of the tactile information presentation device 10 according to the present embodiment.

【符号の説明】[Explanation of symbols]

1…情報処理システム、10…触覚情報呈示装置、20
…キーボード、30…画像表示装置、40…音声出力装
置、50…本体、101…触覚情報呈示部、102…源
情報特徴抽出手段、103…触覚情報作成手段、110
…駆動機構部、111…固定部材、112…可動部材、
113…発光素子、114…受光センサ、115A〜1
15D…弾性部材、116A〜116D…コイル、11
7A〜117D…磁石、120…制御部、130…変位
検出部。
DESCRIPTION OF SYMBOLS 1 ... Information processing system, 10 ... Tactile information presentation apparatus, 20
... keyboard, 30 ... image display device, 40 ... audio output device, 50 ... main body, 101 ... tactile information presenting section, 102 ... source information feature extracting means, 103 ... tactile information creating means, 110
... drive mechanism section, 111 ... fixed member, 112 ... movable member,
113 ... Light emitting element, 114 ... Light receiving sensor, 115A to 1
15D ... Elastic member, 116A to 116D ... Coil, 11
7A-117D ... Magnet, 120 ... Control part, 130 ... Displacement detection part.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 坂巻 克己 神奈川県足柄上郡中井町境430グリーンテ クなかい 富士ゼロックス株式会社内 Fターム(参考) 5B087 BC02 BC11 BC26 DJ00 5D015 FF00 5D017 AA11 5E501 AA02 BA05 CB09 FA14 FA32 FA46    ─────────────────────────────────────────────────── ─── Continued front page    (72) Inventor Katsumi Sakamaki             430 Sakai, Nakai-cho, Ashigarakami-gun, Kanagawa Prefecture             Kunakai Fuji Xerox Co., Ltd. F-term (reference) 5B087 BC02 BC11 BC26 DJ00                 5D015 FF00                 5D017 AA11                 5E501 AA02 BA05 CB09 FA14 FA32                       FA46

Claims (19)

【特許請求の範囲】[Claims] 【請求項1】 時間的に変化する源情報の時間変化の特
徴を抽出する源情報特徴抽出ステップと、この源情報特
徴抽出ステップにおいて抽出された前記源情報の特徴に
応じて触覚情報を作成する触覚情報作成ステップと、を
備えることを特徴とする触覚情報作成方法。
1. A source information feature extraction step of extracting a time-varying feature of source information that changes with time, and tactile information is created according to the feature of the source information extracted in this source information feature extraction step. A tactile information creating step, comprising: a tactile information creating step.
【請求項2】 前記源情報は画像表示装置の画面に出力
される画像情報である、ことを特徴とする請求項1記載
の触覚情報作成方法。
2. The tactile information creating method according to claim 1, wherein the source information is image information output on a screen of an image display device.
【請求項3】 前記源情報特徴抽出ステップにおいて前
記画面中の所望の位置における画像情報の時間変化の特
徴を抽出する、ことを特徴とする請求項2記載の触覚情
報作成方法。
3. The tactile information creating method according to claim 2, wherein in the source information feature extracting step, a feature of temporal change of image information at a desired position on the screen is extracted.
【請求項4】 前記源情報特徴抽出ステップにおいて前
記画面中の特定領域内における画像情報の時間変化の特
徴を抽出する、ことを特徴とする請求項2記載の触覚情
報作成方法。
4. The tactile information creating method according to claim 2, wherein in the source information feature extracting step, a feature of temporal change of image information in a specific area on the screen is extracted.
【請求項5】 前記源情報特徴抽出ステップにおいて前
記画面に表示された特定オブジェクトの時間変化の特徴
を抽出する、ことを特徴とする請求項2記載の触覚情報
作成方法。
5. The tactile information creating method according to claim 2, wherein in the source information feature extracting step, a feature of temporal change of the specific object displayed on the screen is extracted.
【請求項6】 前記源情報は音声出力装置より出力され
る音声情報である、ことを特徴とする請求項1記載の触
覚情報作成方法。
6. The tactile information creating method according to claim 1, wherein the source information is audio information output from an audio output device.
【請求項7】 前記源情報特徴抽出ステップにおいて前
記源情報の時間変化の周波数を変換して特徴を抽出す
る、ことを特徴とする請求項1記載の触覚情報作成方
法。
7. The tactile information creating method according to claim 1, wherein, in the source information feature extracting step, a feature is extracted by converting a frequency of a time change of the source information.
【請求項8】 前記源情報特徴抽出ステップにおいて前
記源情報の時間変化の複数の特徴を抽出し、前記触覚情
報作成ステップにおいて前記複数の特徴に応じて複数の
触覚情報を作成する、ことを特徴とする請求項1記載の
触覚情報作成方法。
8. The source information feature extracting step extracts a plurality of characteristics of the time change of the source information, and the tactile information creating step creates a plurality of tactile information according to the plurality of characteristics. The tactile information creating method according to claim 1.
【請求項9】 請求項1〜8の何れか1項に記載の触覚
情報作成方法を含み、この触覚情報作成方法により作成
された前記触覚情報を提示する触覚情報提示ステップを
備える、ことを特徴とする触覚情報提示方法。
9. The tactile information creating method according to claim 1, further comprising a tactile information presenting step of presenting the tactile information created by the tactile information creating method. A method for presenting tactile information.
【請求項10】 請求項8記載の触覚情報作成方法をコ
ンピュータに実行させるためのプログラムを記録したコ
ンピュータ読み取り可能な記録媒体。
10. A computer-readable recording medium recording a program for causing a computer to execute the tactile information creating method according to claim 8.
【請求項11】 請求項9記載の触覚情報提示方法をコ
ンピュータに実行させるためのプログラムを記録したコ
ンピュータ読み取り可能な記録媒体。
11. A computer-readable recording medium recording a program for causing a computer to execute the tactile information presentation method according to claim 9.
【請求項12】 時間的に変化する源情報の時間変化の
特徴を抽出する源情報特徴抽出手段と、この源情報特徴
抽出手段により抽出された前記源情報の特徴に応じて触
覚情報を作成する触覚情報作成手段と、この触覚情報作
成手段により作成された前記触覚情報を提示する触覚情
報提示手段と、を備えることを特徴とする触覚情報提示
装置。
12. A source information feature extracting means for extracting a feature of the source information that changes with time, and tactile information according to the feature of the source information extracted by the source information feature extracting means. A tactile information presenting device comprising: tactile information creating means; and tactile information presenting means for presenting the tactile information created by the tactile information creating means.
【請求項13】 前記源情報は画像表示装置の画面に出
力される画像情報である、ことを特徴とする請求項12
記載の触覚情報提示装置。
13. The source information is image information output on a screen of an image display device.
The described tactile information presentation device.
【請求項14】 前記源情報特徴抽出手段は前記画面中
の所望の位置における画像情報の時間変化の特徴を抽出
する、ことを特徴とする請求項13記載の触覚情報提示
装置。
14. The tactile information presenting apparatus according to claim 13, wherein the source information feature extracting means extracts a feature of temporal change of image information at a desired position on the screen.
【請求項15】 前記源情報特徴抽出手段は前記画面中
の特定領域内における画像情報の時間変化の特徴を抽出
する、ことを特徴とする請求項13記載の触覚情報提示
装置。
15. The tactile information presenting apparatus according to claim 13, wherein the source information feature extracting means extracts a feature of a temporal change of image information in a specific area on the screen.
【請求項16】 前記源情報特徴抽出手段は前記画面に
表示された特定オブジェクトの時間変化の特徴を抽出す
る、ことを特徴とする請求項13記載の触覚情報提示装
置。
16. The tactile information presenting apparatus according to claim 13, wherein the source information feature extracting means extracts a feature of temporal change of the specific object displayed on the screen.
【請求項17】 前記源情報は音声出力装置より出力さ
れる音声情報である、ことを特徴とする請求項12記載
の触覚情報提示装置。
17. The tactile information presentation device according to claim 12, wherein the source information is audio information output from an audio output device.
【請求項18】 前記源情報特徴抽出手段は前記源情報
の時間変化の周波数を変換して特徴を抽出する、ことを
特徴とする請求項12記載の触覚情報提示装置。
18. The tactile information presentation device according to claim 12, wherein the source information feature extracting means converts a frequency of a time change of the source information to extract a feature.
【請求項19】 前記源情報特徴抽出手段は前記源情報
の時間変化の複数の特徴を抽出し、前記触覚情報作成手
段は前記複数の特徴に応じて複数の触覚情報を作成し、
前記触覚情報提示手段は前記複数の触覚情報を提示す
る、ことを特徴とする請求項12記載の触覚情報提示装
置。
19. The source information feature extracting means extracts a plurality of features of the time variation of the source information, and the tactile information creating means creates a plurality of tactile information according to the plurality of features,
13. The tactile information presenting device according to claim 12, wherein the tactile information presenting means presents the plurality of tactile information.
JP2001289301A 2001-09-21 2001-09-21 Method for preparing haptic information and method for presenting haptic information and its device Pending JP2003099177A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001289301A JP2003099177A (en) 2001-09-21 2001-09-21 Method for preparing haptic information and method for presenting haptic information and its device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001289301A JP2003099177A (en) 2001-09-21 2001-09-21 Method for preparing haptic information and method for presenting haptic information and its device

Publications (1)

Publication Number Publication Date
JP2003099177A true JP2003099177A (en) 2003-04-04

Family

ID=19111813

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001289301A Pending JP2003099177A (en) 2001-09-21 2001-09-21 Method for preparing haptic information and method for presenting haptic information and its device

Country Status (1)

Country Link
JP (1) JP2003099177A (en)

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006268230A (en) * 2005-03-23 2006-10-05 Fuji Xerox Co Ltd Information processing apparatus and data presentation method for information processing apparatus
US7420547B2 (en) 2003-04-16 2008-09-02 Alpine Electronics, Inc. Method and apparatus for matching tactile sensation to the contents of a display
JP2008305109A (en) * 2007-06-06 2008-12-18 Tokyo Institute Of Technology Information processor, program and computer readable recording medium
JP2011070600A (en) * 2009-09-28 2011-04-07 Kyocera Corp Input device
KR20110130469A (en) * 2009-03-12 2011-12-05 임머숀 코퍼레이션 Systems and methods for a texture engine
KR20130140578A (en) * 2012-06-14 2013-12-24 임머숀 코퍼레이션 Haptic effect conversion system using granular synthesis
JP2014194765A (en) * 2013-03-15 2014-10-09 Immersion Corp Method and apparatus to generate haptic feedback based on video content analysis
WO2014174793A1 (en) * 2013-04-25 2014-10-30 株式会社デンソー Input device
JP2015036838A (en) * 2013-08-12 2015-02-23 富士通コンポーネント株式会社 Kvm switch and kvm system
EP2846219A1 (en) * 2013-09-06 2015-03-11 Immersion Corporation Haptic conversion system using frequency shifting
JP2015167023A (en) * 2009-03-12 2015-09-24 イマージョン コーポレーションImmersion Corporation Systems and methods for texture engine
JP2017068874A (en) * 2012-02-03 2017-04-06 イマージョン コーポレーションImmersion Corporation Sound to haptic effect conversion system using waveform
US9746923B2 (en) 2009-03-12 2017-08-29 Immersion Corporation Systems and methods for providing features in a friction display wherein a haptic effect is configured to vary the coefficient of friction
US9898085B2 (en) 2013-09-06 2018-02-20 Immersion Corporation Haptic conversion system using segmenting and combining
KR20180021235A (en) * 2009-03-12 2018-02-28 임머숀 코퍼레이션 Systems and methods for a texture engine
EP3336659A1 (en) * 2016-12-14 2018-06-20 Immersion Corporation Automatic haptic generation based on color features and motion analysis
US10055950B2 (en) 2011-02-11 2018-08-21 Immersion Corporation Sound to haptic effect conversion system using waveform
JP2019003700A (en) * 2013-03-05 2019-01-10 イマージョン コーポレーションImmersion Corporation Automatic fitting of haptic effects
JP2019012574A (en) * 2013-09-06 2019-01-24 イマージョン コーポレーションImmersion Corporation Spatialized haptic feedback based on dynamically scaled values
US10466792B2 (en) 2009-03-12 2019-11-05 Immersion Corporation Systems and methods for friction displays and additional haptic effects
US10564721B2 (en) 2009-03-12 2020-02-18 Immersion Corporation Systems and methods for using multiple actuators to realize textures
US10620707B2 (en) 2009-03-12 2020-04-14 Immersion Corporation Systems and methods for interfaces featuring surface-based haptic effects

Cited By (55)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7420547B2 (en) 2003-04-16 2008-09-02 Alpine Electronics, Inc. Method and apparatus for matching tactile sensation to the contents of a display
JP2006268230A (en) * 2005-03-23 2006-10-05 Fuji Xerox Co Ltd Information processing apparatus and data presentation method for information processing apparatus
JP4513620B2 (en) * 2005-03-23 2010-07-28 富士ゼロックス株式会社 Information processing apparatus and data presentation method in information processing apparatus
JP2008305109A (en) * 2007-06-06 2008-12-18 Tokyo Institute Of Technology Information processor, program and computer readable recording medium
KR102051180B1 (en) * 2009-03-12 2019-12-02 임머숀 코퍼레이션 Systems and methods for a texture engine
US10073527B2 (en) 2009-03-12 2018-09-11 Immersion Corporation Systems and methods for providing features in a friction display including a haptic effect based on a color and a degree of shading
KR101992070B1 (en) 2009-03-12 2019-06-21 임머숀 코퍼레이션 Systems and methods for a texture engine
JP2019023892A (en) * 2009-03-12 2019-02-14 イマージョン コーポレーションImmersion Corporation System and method for texture engine
US10466792B2 (en) 2009-03-12 2019-11-05 Immersion Corporation Systems and methods for friction displays and additional haptic effects
KR20110130469A (en) * 2009-03-12 2011-12-05 임머숀 코퍼레이션 Systems and methods for a texture engine
KR102003426B1 (en) * 2009-03-12 2019-07-24 임머숀 코퍼레이션 Systems and methods for a texture engine
US10564721B2 (en) 2009-03-12 2020-02-18 Immersion Corporation Systems and methods for using multiple actuators to realize textures
KR20180021235A (en) * 2009-03-12 2018-02-28 임머숀 코퍼레이션 Systems and methods for a texture engine
US9874935B2 (en) 2009-03-12 2018-01-23 Immersion Corporation Systems and methods for a texture engine
US10747322B2 (en) 2009-03-12 2020-08-18 Immersion Corporation Systems and methods for providing features in a friction display
US10620707B2 (en) 2009-03-12 2020-04-14 Immersion Corporation Systems and methods for interfaces featuring surface-based haptic effects
JP2015167023A (en) * 2009-03-12 2015-09-24 イマージョン コーポレーションImmersion Corporation Systems and methods for texture engine
US9746923B2 (en) 2009-03-12 2017-08-29 Immersion Corporation Systems and methods for providing features in a friction display wherein a haptic effect is configured to vary the coefficient of friction
KR20160110547A (en) * 2009-03-12 2016-09-21 임머숀 코퍼레이션 Systems and methods for a texture engine
JP2011070600A (en) * 2009-09-28 2011-04-07 Kyocera Corp Input device
US10431057B2 (en) 2011-02-11 2019-10-01 Immersion Corporation Method, system, and device for converting audio signal to one or more haptic effects
US10055950B2 (en) 2011-02-11 2018-08-21 Immersion Corporation Sound to haptic effect conversion system using waveform
JP2017068874A (en) * 2012-02-03 2017-04-06 イマージョン コーポレーションImmersion Corporation Sound to haptic effect conversion system using waveform
US10082874B2 (en) 2012-06-14 2018-09-25 Immersion Corporation Haptic effect conversion system using granular synthesis
US9733710B2 (en) 2012-06-14 2017-08-15 Immersion Corporation Haptic effect conversion system using granular synthesis
US10606358B2 (en) 2012-06-14 2020-03-31 Immersion Corporation Haptic effect conversion system using granular synthesis
KR102169205B1 (en) * 2012-06-14 2020-10-22 임머숀 코퍼레이션 Haptic effect conversion system using granular synthesis
KR20130140578A (en) * 2012-06-14 2013-12-24 임머숀 코퍼레이션 Haptic effect conversion system using granular synthesis
JP2014002729A (en) * 2012-06-14 2014-01-09 Immersion Corp Haptic conversion system using granular synthesis
JP2019003700A (en) * 2013-03-05 2019-01-10 イマージョン コーポレーションImmersion Corporation Automatic fitting of haptic effects
US10482608B2 (en) 2013-03-15 2019-11-19 Immersion Corporation Method and apparatus to generate haptic feedback from video content analysis
JP2014194765A (en) * 2013-03-15 2014-10-09 Immersion Corp Method and apparatus to generate haptic feedback based on video content analysis
JP2019036351A (en) * 2013-03-15 2019-03-07 イマージョン コーポレーションImmersion Corporation Method and apparatus to generate haptic feedback based on video content analysis
US9911196B2 (en) 2013-03-15 2018-03-06 Immersion Corporation Method and apparatus to generate haptic feedback from video content analysis
WO2014174793A1 (en) * 2013-04-25 2014-10-30 株式会社デンソー Input device
JP2014217176A (en) * 2013-04-25 2014-11-17 株式会社デンソー Input device
CN105144556A (en) * 2013-04-25 2015-12-09 株式会社电装 Input device
JP2015036838A (en) * 2013-08-12 2015-02-23 富士通コンポーネント株式会社 Kvm switch and kvm system
US20150070261A1 (en) * 2013-09-06 2015-03-12 Immersion Corporation Haptic Conversion System Using Frequency Shifting
EP3575931A1 (en) * 2013-09-06 2019-12-04 Immersion Corporation Haptic conversion system using frequency shifting
JP2019109943A (en) * 2013-09-06 2019-07-04 イマージョン コーポレーションImmersion Corporation Haptic transformation system using frequency shift
JP2019012574A (en) * 2013-09-06 2019-01-24 イマージョン コーポレーションImmersion Corporation Spatialized haptic feedback based on dynamically scaled values
CN110413118A (en) * 2013-09-06 2019-11-05 意美森公司 Use the haptic conversion of frequency displacement
JP2019145171A (en) * 2013-09-06 2019-08-29 イマージョン コーポレーションImmersion Corporation Haptic conversion system using segmenting and combining
KR102310668B1 (en) * 2013-09-06 2021-10-12 임머숀 코퍼레이션 Haptic conversion system using frequency shifting
EP2846219A1 (en) * 2013-09-06 2015-03-11 Immersion Corporation Haptic conversion system using frequency shifting
US10553083B2 (en) 2013-09-06 2020-02-04 Immersion Corporation Spatialized haptic feedback based on dynamically scaled values
US10909821B2 (en) 2013-09-06 2021-02-02 Immersion Corporation Spatialized haptic feedback based on dynamically scaled values
US10599218B2 (en) * 2013-09-06 2020-03-24 Immersion Corporation Haptic conversion system using frequency shifting
US9898085B2 (en) 2013-09-06 2018-02-20 Immersion Corporation Haptic conversion system using segmenting and combining
JP2015053038A (en) * 2013-09-06 2015-03-19 イマージョン コーポレーションImmersion Corporation Haptic conversion system using frequency shifting
KR20150028737A (en) * 2013-09-06 2015-03-16 임머숀 코퍼레이션 Haptic conversion system using frequency shifting
US10101813B2 (en) 2016-12-14 2018-10-16 Immersion Corporation Automatic haptic generation based on color features and motion analysis
EP3336659A1 (en) * 2016-12-14 2018-06-20 Immersion Corporation Automatic haptic generation based on color features and motion analysis
CN108227915A (en) * 2016-12-14 2018-06-29 意美森公司 It is generated based on the automatic tactile of color characteristic and motion analysis

Similar Documents

Publication Publication Date Title
JP2003099177A (en) Method for preparing haptic information and method for presenting haptic information and its device
KR102276173B1 (en) Haptic effect generation for space-dependent content
JP6840702B2 (en) Friction Modulation for 3D Relief in Tactile Devices
CN106355153B (en) A kind of virtual objects display methods, device and system based on augmented reality
US6747631B1 (en) Information perception apparatus, information transmission system, and memory medium in which program for controlling information perception apparatus is stored
JP5496032B2 (en) Tactile sensation presentation apparatus and control method for tactile sensation presentation apparatus
US10474238B2 (en) Systems and methods for virtual affective touch
CN107831892B (en) Virtual object three-dimensional shape reproduction method based on fingerstall type device
US20080303784A1 (en) Information processing apparatus and computer-readable storage medium
EP3367216A1 (en) Systems and methods for virtual affective touch
JP2011081557A (en) Information processor, method of processing information, and program
US10809870B2 (en) Information processing apparatus and information processing method
JP2000207114A (en) Force sense presenting method and force sense pen tablet
CN114296627B (en) Content display method, device, equipment and storage medium
JP2016207128A (en) Input device, and electronic apparatus
KR20140078083A (en) Method of manufacturing cartoon contents for augemented reality and apparatus performing the same
Sawada et al. Tactoglove: displaying tactile sensations in tacto-gestural interaction
JP4244784B2 (en) Driving force generator
JP2003263271A (en) Information-sensing device, information transmission system, recording medium storing program for controlling the information-sensing device
Sawada et al. Tactile pad for the presentation of tactile sensation from moving pictures
Ziat et al. Enhancing visuospatial map learning through action on cellphones
JP4513620B2 (en) Information processing apparatus and data presentation method in information processing apparatus
Asai et al. Revisiting gradient-based haptic rendering for lateral force feedback in SPIDAR-mouse
KR20220003378A (en) Display apparatus and controlling method thereof
JP2002342019A (en) Input device and information processing system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040917

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060922

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060926

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061127

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070925