JP5057285B2 - Tactile visual expression method and tactile visual expression device - Google Patents

Tactile visual expression method and tactile visual expression device Download PDF

Info

Publication number
JP5057285B2
JP5057285B2 JP2007212685A JP2007212685A JP5057285B2 JP 5057285 B2 JP5057285 B2 JP 5057285B2 JP 2007212685 A JP2007212685 A JP 2007212685A JP 2007212685 A JP2007212685 A JP 2007212685A JP 5057285 B2 JP5057285 B2 JP 5057285B2
Authority
JP
Japan
Prior art keywords
tactile
information
force
environment
analysis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007212685A
Other languages
Japanese (ja)
Other versions
JP2008250978A (en
Inventor
潔 大石
誠一郎 桂
航平 入江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nagaoka University of Technology
Original Assignee
Nagaoka University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nagaoka University of Technology filed Critical Nagaoka University of Technology
Priority to JP2007212685A priority Critical patent/JP5057285B2/en
Publication of JP2008250978A publication Critical patent/JP2008250978A/en
Application granted granted Critical
Publication of JP5057285B2 publication Critical patent/JP5057285B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、触覚情報を視覚的に表現し得る触覚の視覚的表現方法および触覚の視覚的表現装置に関する。   The present invention relates to a tactile visual expression method and a tactile visual expression device capable of visually expressing tactile information.

人間の持つ感覚のなかで、機械と人間、若しくは遠隔地に存在する人間と人間との間を結ぶ重要な感覚として、視覚,聴覚,触覚が挙げられる。視覚や聴覚に対応する画像や音声の処理技術は、情報通信工学の発展とともにインターフェースとして急速に広まり、産業の基盤技術として欠かせないものとなっている。例えば、写真,テレビ,電話,蓄音機等の発明により、視覚や聴覚に関する情報の伝送や、保存や、再生が可能となり、さらにはビデオカメラやテレビにより、視覚および聴覚情報の放送も可能になった。これは、あたかも人間が持つ視覚や聴覚が、時間と空間を越えたように感じさせることと等価であるといえる。現在では、そうした視覚や聴覚情報の解析や加工を取り扱うディジタル信号処理技術の開発も、日々進歩している。   Among human senses, visual, auditory, and tactile sensations are important senses that connect machines and humans, or humans and humans that exist in remote places. Image and sound processing technologies that correspond to vision and hearing are rapidly spreading as interfaces with the development of information and communication engineering, and are indispensable as industrial basic technologies. For example, the invention of photography, television, telephones, phonographs, etc. enabled the transmission, storage, and playback of information related to vision and hearing, and the broadcasting of vision and hearing information was also possible using video cameras and televisions. . This is equivalent to making the human sense of vision and hearing transcend time and space. Currently, the development of digital signal processing technology that handles the analysis and processing of such visual and auditory information is progressing day by day.

一方、感覚情報の一つを担う触覚情報は、視覚や聴覚の情報に次ぐ新たなマルチメディア情報として、これを伝送して保存し、人工的に再現する技術の開発が求められている。そのため、マスターシステムとスレーブシステムとによるロボットシステム間の遠隔操作や、動かしている位置とその位置での各種情報を触覚を介して表示するようなハプティック(触覚)ディスプレイは、触覚情報を扱う技術として多くの研究が行なわれている。   On the other hand, tactile information, which is one of sensory information, is required to be developed as a new multimedia information next to visual and auditory information, transmitted and stored, and artificially reproduced. Therefore, remote control between the robot system by the master system and slave system, and the haptic (tactile) display that displays the moving position and various information at the position through the tactile sense are technologies for handling tactile information. A lot of research has been done.

しかしながら、上述した視覚や聴覚に関する情報は受動的で、単方向性の感覚情報であるのに対し、触覚情報は実世界における「作用・反作用の法則」に束縛される双方向性の感覚情報であり、しかも接触対象である環境に能動的に接触することで、初めてその情報が得られるので、モデルベースやヴァーチャルリアリティを応用した触覚情報の再現は行なわれているものの、実世界における触覚情報の取得は困難である。   However, the visual and auditory information described above is passive and unidirectional sensory information, whereas tactile information is bidirectional sensory information that is bound by the “law of action and reaction” in the real world. Yes, the information can be obtained for the first time by actively touching the environment that is the object of contact, so the haptic information is reproduced using the model base and virtual reality, but the haptic information in the real world has been reproduced. Acquisition is difficult.

こうした実世界における触覚情報の抽出や再現を行なう実世界ハプティクスとして、例えば非特許文献1には、実世界における遠隔地からのバイラテラル力覚フィードバックの制御手法が提案されている。また別な非特許文献2には、多方向のシステム間で力覚情報のやり取りを可能にするマルチラテラル触覚伝送技術が提案されている。   As a real world haptic for extracting and reproducing tactile information in the real world, for example, Non-Patent Document 1 proposes a control method for bilateral force feedback from a remote place in the real world. Another non-patent document 2 proposes a multilateral tactile transmission technology that enables the exchange of haptic information between multidirectional systems.

このように、実世界における触覚情報の抽出や再現に関し、様々な研究が行なわれているが、そこで取得した触覚情報を視覚的に表現する技術は、生産工学や低侵襲性外科医療の分野で望まれてはいるものの、開発がなされてはおらず、実用化に至っていない。例えば触覚情報を視覚的に表現する一手法として、力覚センサや、非特許文献3で提案された反力推定オブザーバなどで得られたデータを、時系列順に表示することが考えられるが、この場合には接触する環境が、「つるつる」や「ざらざら」するといった定性的な表現でしか評価を行なうことができない。そのため双方向性を有する実世界における触覚情報を扱う基本概念として、触覚情報をより直感的且つ定量的に評価できる装置や方法が求められていた。
下野 誠通,桂 誠一郎,大西 公平(T.Shimono,S.Katsura,K.Ohnishi)、「環境モデルに基づく実世界力覚情報再現のための双方向モーションコントロール(Bilateral Motion Control for Reproduction of Real World Force Sensation based on the Environmental Model)」、電気学会 産業応用部門誌(IEEJ Transactions on Industry Applications)、第126−D巻第8号(Vol.126-D,No.8)、pp.1059−1068、2006年8月(August,2006) 桂 誠一郎,松本 雄一,大西 公平(S.Katsura,Y.Matsumoto,K.Ohnishi)、「マルチラテラル制御による「作用・反作用の法則」の実現(Realization of "Law of Action and Reaction" by Multilateral Control)、米国電気電子学会 産業電子工学論文誌(IEEE Transactions on Industrial Electronics)、第52巻第5号(Vol.52,No.5)、pp.1196−1205,2005年10月(October,2005) 村上 俊之,郁 方銘,大西 公平(T.Murakami,F.Yu,K.Ohnishi)、「多自由度マニピュレータにおけるトルクセンサレス制御(Torque Sensorless Control in Multidegree-of-freedom Manipulator)」、米国電気電子学会 産業電子工学論文誌(IEEE Transactions on Industrial Electronics)、第40巻第2号(Vol.40,No.2)、pp.259−265、1993年4月(April,1993)
As described above, various researches have been conducted on the extraction and reproduction of tactile information in the real world. The technology for visually expressing the acquired tactile information is in the fields of production engineering and minimally invasive surgical medicine. Although it is desired, it has not been developed and has not been put into practical use. For example, as a technique for visually expressing tactile information, it is conceivable to display data obtained by a force sensor or a reaction force estimation observer proposed in Non-Patent Document 3 in chronological order. In some cases, the evaluation can be made only with a qualitative expression such as “smooth” or “rough” in the contact environment. Therefore, as a basic concept for handling tactile information in the real world having bidirectionality, there has been a demand for an apparatus and method that can more intuitively and quantitatively evaluate tactile information.
Satoshi Shimono, Seiichiro Katsura, Hiroshi Onishi (T. Shimono, S. Katsura, K. Ohnishi), “Bilateral Motion Control for Reproduction of Real World Force Sensation based on the Environmental Model ”, IEEJ Transactions on Industry Applications, Vol. 126-D No. 8 (Vol.126-D, No.8), pp. 1059-1068, August 2006 (August, 2006) Seiichiro Katsura, Yuichi Matsumoto, Hiroshi Onishi (S. Katsura, Y. Matsumoto, K. Ohnishi), “Realization of“ Law of Action and Reaction ”by Multilateral Control” IEEE Transactions on Industrial Electronics, Vol.52, No.5 (Vol.52, No.5), pp. 1196–1205, October 2005 (October, 2005) Toshiyuki Murakami, Minakata Tsuji, Hiroshi Onishi (T. Murakami, F. Yu, K. Ohnishi), “Torque Sensorless Control in Multidegree-of-freedom Manipulator” IEEE Transactions on Industrial Electronics, Vol. 40 No. 2 (Vol.40, No.2), pp. 259-265, April 1993 (April, 1993)

本発明は上記の問題点に鑑みなされたもので、その目的は、それまで定性的な表現しかできなかった触覚情報を、より直感的且つ定量的に表現することが可能な触覚の視覚的表現方法および触覚の視覚的表現装置を提供することにある。   The present invention has been made in view of the above-mentioned problems, and its purpose is to provide a visual expression of haptics that can more intuitively and quantitatively express haptic information that could only be qualitatively expressed so far. It is to provide a method and a tactile visual representation device.

上記課題を解決するために、本発明における触覚の視覚的表現方法は、環境への接触動作により生じた時系列な力と位置の触覚情報を取得し、前記取得した前記触覚情報を時間領域と位置領域で解析処理し、この解析処理結果は、前記触覚情報に含まれる時間と力との関係を、周波数と振幅との関係を示す周波数解析データに変換する時間領域の解析と、前記周波数解析データを、前記環境の表面形状に基づき空間上に配置する空間領域の解析とにより得られ、前記空間上に配置された前記周波数解析データから、どの位置でどのような周波数成分の特性を有するのかを、前記環境の表面形状に応じた複数の位置上に、所定範囲の周波数における振幅の度合で表示手段に可視化して表示させることを特徴とする。 In order to solve the above problems, a visual expression method for tactile sensation according to the present invention acquires time-series force and position tactile information generated by a contact operation with an environment, and uses the acquired tactile information as a time domain. Analysis processing is performed in the position domain, and the result of the analysis process is a time domain analysis for converting the relationship between time and force included in the haptic information into frequency analysis data indicating the relationship between frequency and amplitude, and the frequency analysis. What frequency component characteristics are obtained at which position from the frequency analysis data obtained by analyzing the spatial domain in which the data is arranged in the space based on the surface shape of the environment Is visualized and displayed on a plurality of positions according to the surface shape of the environment on the display means at a degree of amplitude in a predetermined range of frequencies .

この場合前記取得した触覚情報を前記取得した触覚情報をフーリエ変換またはウェーブレット変換またはコサイン変換により、前記時間領域または前記空間領域で解析処理するのが好ましい。 In this case, by a Fourier transform or a wavelet transform or a cosine transform tactile information of the acquired touch information and the acquired, preferably analysis in the time domain or the spatial domain.

また、前記環境に可動体が接触したときの反力を反力オブザーバで推定し、前記力の触覚情報を、前記反力オブザーバからの反力推定値として取得するのが好ましい。  Further, it is preferable that a reaction force when the movable body comes into contact with the environment is estimated by a reaction force observer, and the tactile information of the force is obtained as an estimated reaction force value from the reaction force observer.

上記方法に対応するように、本発明における触覚の視覚的表現装置は、環境への接触動作により生じた時系列な力と位置の触覚情報を取得する手段と、前記取得した触覚情報を時間領域と位置領域で解析処理する処理手段とを備え、前記処理手段による解析処理結果を、表示手段に可視化して表示させる構成としている。 Corresponding to the above method, the visual expression device for tactile sensation according to the present invention includes means for acquiring tactile information of time series force and position generated by the contact operation with the environment, And processing means for performing analysis processing in the position region, and the analysis processing result by the processing means is visualized and displayed on the display means.

この場合の前記処理手段は、位置に対応して前記触覚情報を周波数解析した周波数解析データを、前記解析処理結果として生成するものであり、前記周波数解析データから、前記触覚情報がどの位置でどのような周波数特性を有するのかを、前記表示手段に可視化して表示させる構成とするのが好ましい。   In this case, the processing means generates frequency analysis data obtained by frequency analysis of the haptic information corresponding to a position as a result of the analysis processing. From the frequency analysis data, the position of the haptic information at which position It is preferable that the display means visualize and display whether such frequency characteristics are present.

また前記処理手段は、前記取得した触覚情報をフーリエ変換またはウェーブレット変換またはコサイン変換により、時間領域または位置領域で解析処理するものであることが好ましい。   Further, it is preferable that the processing means analyzes the acquired tactile information in a time domain or a position domain by Fourier transform, wavelet transform, or cosine transform.

上記請求項1の方法および請求項の装置によれば、環境への接触動作により生じた時系列な力と位置の触覚情報をそのまま単に時系列的に表示させるのではなく、触覚情報に含まれる時間と力との関係を、周波数と振幅との関係を示す周波数解析データに変換する時間領域の解析と、この周波数解析データを、環境の表面形状に基づき空間上に配置する空間領域の解析とにより、取得した触覚情報に時間領域と位置領域で解析処理を施すことで、解析処理結果を位置的に配置して、例えば触覚情報の特徴的な周波数について、色や濃淡による可視化表示を表示手段に行なわせることが可能になる。そのため、従来のような定性的な表現しかできなかった触覚情報を、表示手段からの可視化表示を通して、より直感的かつ定量的に表現することが可能になる。 The apparatus according to the method and claim 4 the first aspect, the tactile information of the time-series force and position caused by the contact operation to the environment, instead of being directly simply chronologically display, tactile information Time domain analysis that converts the relationship between time and force included in the frequency into frequency analysis data that indicates the relationship between frequency and amplitude, and this frequency analysis data is placed in space based on the surface shape of the environment By analyzing the acquired tactile information in the time domain and the position domain, the analysis processing results are arranged in a positional manner. For example, the characteristic frequency of the tactile information is visualized by color and shading. Can be displayed on the display means. Therefore, tactile information that could only be qualitatively expressed as in the past can be expressed more intuitively and quantitatively through visualization display from the display means.

また特に、取得した触覚情報から、位置に対応して触覚情報を周波数解析した周波数解析データを生成することで、当該触覚情報がどの位置でどのような周波数特性を有するのかを、表示手段に可視化して表示させることができ、環境の表面形状に応じた複数の位置上に、振幅レベルの程度を例えば色や濃淡で可視化することで、触覚情報をより定量的に表現することが可能になる。 In particular , by generating frequency analysis data obtained by frequency analysis of the haptic information corresponding to the position from the acquired haptic information, it is possible to visualize on the display means what frequency characteristics the haptic information has at which position. It is possible to display the tactile information more quantitatively by visualizing the degree of the amplitude level, for example, by color or shading on a plurality of positions according to the surface shape of the environment. .

上記請求項の方法および請求項の装置によれば、画像や音声信号処理などの分野で研究開発が進んでいるフーリエ変換またはウェーブレット変換またはコサイン変換を採用することで、触覚情報の時間領域や位置領域における解析処理を容易に行なうことが可能になる。 According to the method of claim 2 and the apparatus of claim 5 , the time domain of tactile information is obtained by adopting Fourier transform, wavelet transform, or cosine transform, which has been researched and developed in the fields of image and audio signal processing. It is possible to easily perform analysis processing in the position area.

上記請求項3の方法および請求項6の装置によれば、力の触覚情報として、環境への接触動作により生じた反力を、力覚センサを用いずに反力オブザーバで推定できる。  According to the method of claim 3 and the apparatus of claim 6, the reaction force generated by the contact operation with the environment can be estimated by the reaction force observer without using the force sensor as the force tactile information.

本発明における好適な実施の形態について、添付図面を参照して説明する。なお、以下に説明する実施の形態は、特許請求の範囲に記載された本発明の内容を限定するものではない。また、以下に説明される構成の全てが、本発明の必須要件であるとは限らない。   Preferred embodiments of the present invention will be described with reference to the accompanying drawings. The embodiments described below do not limit the contents of the present invention described in the claims. In addition, all of the configurations described below are not necessarily essential requirements of the present invention.

図1は、本発明の好適な一実施例を示す装置の機能的構成を示している。同図において、1は外部から取得した触覚情報を視覚情報化する装置本体であって、これは演算処理機能を有する例えばコンピュータなどにより構成される。装置本体1は、ある時間における力と位置の触覚情報を取得する手段である入力手段2と、入力手段2で取得した触覚情報を時間領域と位置領域すなわち空間領域でそれぞれ解析処理する処理手段3と、処理手段3で得られた空間位置毎の周波数析データを記憶する記憶手段4と、画面(ディスプレイ)やプリンタなどの視覚的な表示手段5と、後述するリニアモータ12の駆動を制御するモータ制御手段6と、を備えて構成される。 FIG. 1 shows the functional configuration of an apparatus showing a preferred embodiment of the present invention. In the figure, reference numeral 1 denotes an apparatus main body that converts tactile information acquired from the outside into visual information, and is constituted by, for example, a computer having an arithmetic processing function. The apparatus main body 1 includes an input unit 2 that is a unit that acquires tactile information of force and position at a certain time, and a processing unit 3 that analyzes the tactile information acquired by the input unit 2 in a time region and a position region, that is, a spatial region. When a storage unit 4 for storing the frequency analysis data of the obtained spatial each position in the processing means 3, a visual display means 5 such as a screen (display) and a printer, the drive of the linear motor 12 to be described later controls And a motor control means 6 for performing the configuration.

また、ここでは環境Eへの接触動作により生じた反作用力情報を抽出するために、環境Eに接触する可動体としての軸体11と、この軸体11を一方向に動かすリニアモータ12とによるアクチュエータ13を構成すると共に、リニアモータ12ひいては軸体11の位置と加速度をそれぞれ監視する検知手段14が、エネルギーを動力に変換するアクチュエータ13に取付けられ、この検知手段14で得られた位置検知信号と加速度検知信号を、前記モータ制御手段6に組み込まれた位置・加速度統合型の外乱オブザーバ(PAIDO)15と、反力(推定)オブザーバ16にそれぞれ送出することにより、リニアモータ12が受ける外乱力と反作用力を、力覚センサを用いずに、外乱オブザーバ15と反力オブザーバ16で各々推定するように構成している。これによりモータ制御手段6は、外乱オブザーバ15で得られた推定外乱力と、反力オブザーバ16で得られた推定反作用力とを加味した電流指令信号を生成し、これをリニアモータ12に送出するようになっている。   Further, here, in order to extract reaction force information generated by the contact operation with the environment E, the shaft body 11 as a movable body that contacts the environment E and the linear motor 12 that moves the shaft body 11 in one direction are used. A detection means 14 that constitutes the actuator 13 and that monitors the position and acceleration of the linear motor 12 and thus the shaft body 11 is attached to the actuator 13 that converts energy into power, and the position detection signal obtained by the detection means 14 And the acceleration detection signal are transmitted to a position / acceleration integrated disturbance observer (PAIDO) 15 and a reaction force (estimation) observer 16 incorporated in the motor control means 6, respectively, and thereby the disturbance force received by the linear motor 12 The reaction force is estimated by the disturbance observer 15 and the reaction force observer 16 without using a force sensor. It is configured to. Thus, the motor control means 6 generates a current command signal that takes into account the estimated disturbance force obtained by the disturbance observer 15 and the estimated reaction force obtained by the reaction force observer 16, and sends this to the linear motor 12. It is like that.

前記入力手段2は、ある時間において、どの位置でどのような力が生じているのかという触覚情報を最終的に取得し、後段の処理手段3に出力できれば、どのような構成であってもよい。上述したモータ制御手段6による力制御系では、駆動源であるリニアモータ12により可動する可動体としての軸体11が、接触対象である環境Eに接触したときに受ける力(反力)を、反力オブザーバ16からの反力推定値として取り込むと共に、その力を環境Eのどの位置で受けたのかという情報を、図示しない位置検知手段から入力手段2が取り込んでもよい。この場合、入力手段2に備えた計時手段2Aの時間カウントを利用して、ある時間における力と位置を特定する触覚情報を取得する構成であってもよい。また、反力オブザーバ16からの反力推定値に代わって、アクチュエータ13に取付けられた力覚センサからの検知出力により、反力を取り込んでもよい。   The input unit 2 may have any configuration as long as it can finally acquire tactile information on what position and what force is generated at a certain time and output it to the processing unit 3 at the subsequent stage. . In the force control system by the motor control means 6 described above, the force (reaction force) received when the shaft body 11 as a movable body that is movable by the linear motor 12 that is a driving source contacts the environment E that is a contact target, The input means 2 may take in information as to which position of the environment E the force is received from the reaction force observer 16 from a position detection means (not shown). In this case, the configuration may be such that the tactile information specifying the force and position at a certain time is acquired by using the time count of the time measuring means 2A provided in the input means 2. Further, instead of the estimated reaction force from the reaction force observer 16, the reaction force may be captured by a detection output from a force sensor attached to the actuator 13.

また、別な例として、キーボードやマウスなどの操作手段17を入力手段2に接続し、この操作手段17から操作入力された各時間毎の時系列な力と位置の各データを、そのまま触覚情報として入力手段2が取り込んでもよく、さらに別な例として、時系列な力と位置の触覚情報を記憶した外部媒体18を入力手段2に接続し、外部媒体18から読み出した触覚情報を入力手段2が取り込む構成であってもよい。この場合、上述した計時手段2Aを入力手段2に組み込む必要はない。   As another example, an operation means 17 such as a keyboard or a mouse is connected to the input means 2, and each time-series force and position data input from the operation means 17 is directly used as tactile information. As another example, an external medium 18 that stores time-series force and position haptic information is connected to the input means 2, and the haptic information read from the external medium 18 is input to the input means 2. May be configured to capture. In this case, it is not necessary to incorporate the time measuring means 2A described above into the input means 2.

ここで、処理手段3が必要とする触覚情報は、同じ時間における力と位置の各情報を含んでいて、時間的に同期しているものであってもよいし、違う時間における力と位置の各情報を含んでいて、時間的に非同期なものであってもよい。   Here, the tactile information required by the processing means 3 includes information on the force and position at the same time, and may be synchronized in time, or the force and position at different times. Each information may be included and may be asynchronous in time.

処理手段3は、入力手段2で取得した触覚情報を時間領域で解析する時間領域解析部21と、当該触覚情報を空間領域で解析する空間領域解析部22とを備えて構成される。時間領域解析部21は、入力手段2で取得した触覚情報を時間領域で周波数解析して、触覚情報に含まれる時間と力との関係を、周波数と振幅(振動レベル)との関係を示す周波数析データに変換できれば、どのような構成であってもよい。こうした周波数解析は、画像や音声信号処理などの分野で研究開発が進んでおり、高速フーリエ変換(FFT)やウェーブレット変換を用いた手法が例として挙げられる。そこで、本実施例における時間領域解析部21は、内蔵するFFTやウェーブレット変換による変換機能を用いて、触覚情報の時間領域としての解析を行ない、特徴的な周波数成分を抽出した周波数析データを取得できるようになっている。 The processing unit 3 includes a time domain analysis unit 21 that analyzes the haptic information acquired by the input unit 2 in the time domain, and a spatial domain analysis unit 22 that analyzes the haptic information in the spatial domain. The time domain analysis unit 21 performs frequency analysis on the tactile information acquired by the input unit 2 in the time domain, and shows the relationship between time and force included in the tactile information, and the frequency indicating the relationship between frequency and amplitude (vibration level). if converted into analysis data may be any configuration. Such frequency analysis has been researched and developed in fields such as image and audio signal processing, and examples include a technique using fast Fourier transform (FFT) and wavelet transform. Therefore, the time domain analysis unit 21 in this embodiment, by using the conversion function by FFT or wavelet transform that incorporates performs analysis as time domain tactile information, the frequency analysis data obtained by extracting the characteristic frequency components It can be acquired.

一方、空間領域解析部22は、空間領域を小空間に分割して数値解析を行なうもので、これを実現する手法としては、有限要素法がよく知られている。そこで本実施例の空間領域解析部22は、内蔵する有限要素法の変換機能によって、実世界空間を小空間に分割して抽出された触覚情報を時間領域で解析し、その結果を2次元空間に投影できるように、実世界空間上の位置と関連付けできるようになっている。なお、固定した一乃至複数の点の位置に関係する触覚情報の場合は、この空間領域解析部22による解析を省略してもよい。   On the other hand, the space region analysis unit 22 performs numerical analysis by dividing the space region into small spaces, and a finite element method is well known as a method for realizing this. Therefore, the space domain analysis unit 22 of the present embodiment analyzes the tactile information extracted by dividing the real world space into small spaces by the built-in finite element method conversion function in the time domain, and the result is a two-dimensional space. It can be associated with a position in the real world space so that it can be projected onto the screen. Note that in the case of tactile information related to the position of one or more fixed points, the analysis by the space region analysis unit 22 may be omitted.

処理手段3は、時間領域解析部21による解析結果と、空間領域解析部22による解析結果とを統合することで、小空間の各位置に対応した周波数析データを取得し、これを記憶手段4に記憶させる。この場合、時間領域解析部21による周波数解析に続いて、空間領域解析部22による空間解析を行なう構成としてもよいし、逆に空間解析に続いて周波数解析を行なう構成としてもよい。さらには、周波数解析と空間解析を並行して行なう構成としてもよいし、接触位置が固定していて空間解析が不要な場合は、空間領域解析部22の構成を省略してもよい。 Processing means 3, and the analysis result of the time domain analysis unit 21, by integrating the analysis result of the spatial domain analysis unit 22 obtains the frequency analysis data corresponding to each position of the small space, which storage means 4 is stored. In this case, a configuration in which the space analysis by the space domain analysis unit 22 is performed following the frequency analysis by the time domain analysis unit 21, or a configuration in which the frequency analysis is performed following the space analysis. Furthermore, it is good also as a structure which performs a frequency analysis and a space analysis in parallel, and when a contact position is fixed and a space analysis is unnecessary, the structure of the space area analysis part 22 may be abbreviate | omitted.

なお、ここに提示され、またはここに提示されていない周知の各種変換機能を単独または複数組み合わせて、同様の処理手段3を実現してもよい。例えば時間領域解析部21に内蔵する変換機能として、例えばFFT以外のフーリエ変換や、ウェーブレット変換や、コサイン変換を採用してもよい。ここでいうフーリエ変換とは、離散フーリエ変換や、短時間フーリエ変換などを含み、コサイン変換は、特殊な離散フーリエ変換である離散コサイン変換や、離散コサイン変換の一手法である変形離散コサイン変換などを含む。また、ウェーブレット変換とは、連続ウェーブレット変換や、離散ウェーブレット変換などを含む。   In addition, you may implement | achieve the same process means 3 by combining well-known various conversion functions which are shown here or are not shown here individually or in combination. For example, as a conversion function built in the time domain analysis unit 21, for example, Fourier transform other than FFT, wavelet transform, or cosine transform may be employed. The Fourier transform here includes a discrete Fourier transform, a short-time Fourier transform, and the like. The cosine transform is a discrete cosine transform that is a special discrete Fourier transform, a modified discrete cosine transform that is a method of the discrete cosine transform, and the like. including. The wavelet transform includes continuous wavelet transform and discrete wavelet transform.

また、上記処理手段3は、記憶手段4に保存される各位置に対応した周波数分析データを読み出して、触覚情報を写真のように可視化して表示手段5で表示できるように、当該表示手段5を制御する表示制御手段としての機能を備えている。このような触覚情報を可視化する新たな表現技術を、ここでは「ハプトグラフ(Haptograph)」と表現して以後説明する。表示手段5により表示される「ハプトグラフ」は、入力手段2で取得した触覚情報に対し、処理手段3で高速フーリエ変換やウェーブレット変換のような周波数解析を施し、これを例えば軸体11に接触する環境Eの表面形状に基づき空間的に配置することで、どの位置にどのような周波数成分の振幅レベル(スペクトル)が存在するのかを、振幅レベルの強弱に応じた異なる色や濃淡(グラデーション)で、表示手段5に可視化表現させることが可能になる。   The processing means 3 reads out the frequency analysis data corresponding to each position stored in the storage means 4, visualizes the tactile information like a photograph, and displays it on the display means 5. It has a function as a display control means for controlling. A new expression technique for visualizing such tactile information will be described as “Haptograph”. The “haptograph” displayed by the display unit 5 performs frequency analysis such as fast Fourier transform or wavelet transform on the tactile information acquired by the input unit 2 and touches the shaft body 11, for example. By spatially arranging them based on the surface shape of the environment E, it is possible to indicate which frequency component amplitude level (spectrum) exists at which position in different colors and shades (gradations) according to the amplitude level. The display means 5 can be visualized.

因みに「Hapto」とは、ギリシャ語で「触れる」の意味であり、触覚を写真のように視覚化することから「Haptograph」と命名している。本実施例でのハプトグラフは、接触する環境Eの表面から受ける触覚情報を、2次元空間上に配置したものとして定義する。勿論この配置は、1次元または3次元以上であっても構わない。ハプトグラフを用いることで、触覚情報を写真や図のように視覚的に捉えることが可能になるので、より直感的に触覚を認識できるようになる。また、触覚情報を時間領域解析部21で周波数解析し、それによりスペクトルの大きさを例えば色の違いや濃淡で可視化するため、触覚の定量的な評価や比較を行なうことも可能である。   By the way, “Hapto” means “touch” in Greek and is named “Haptograph” because it visualizes the sense of touch like a photograph. The haptograph in the present embodiment is defined as the tactile information received from the surface of the environment E in contact with the haptic information arranged in a two-dimensional space. Of course, this arrangement may be one-dimensional or three-dimensional or more. By using a haptograph, tactile information can be visually perceived like a photograph or a figure, so that the tactile sense can be recognized more intuitively. In addition, frequency analysis of the tactile information is performed by the time domain analysis unit 21, and thereby the magnitude of the spectrum is visualized by, for example, color difference or shading, so that tactile sense can be quantitatively evaluated and compared.

前記空間領域解析部22で分割した空間の数は、画像でいえばピクセル(画素)に相当し、分割数は触覚情報の分解能となる。当然、分割数が多ければ詳細な触覚情報を埋め込むことができるが、後述する記憶手段4で保存すべきデータ量も増加する。一つの指標としては、人間が最も触覚を必要とする指先の分解能にあわせて、空間領域解析部22で分割する空間の数を設定するのが好ましい。人間が皮膚に2つの触刺激を受けた時に、その刺激がそれぞれ別の点であると識別できるもっとも短い距離が、成人の人差し指の先端では約2.5mm程度であるといわれている。空間の分割方法や分割数は任意であるが、人間の持つ触覚に対する分解能よりも細かい小空間で、表示手段5による「ハプトグラフ」を表現することが、人間支援の観点から理想的である。さらに、空間領域解析部22で分割した小空間を、離散的な点列で構成したハプトグラフだけでなく、小空間を連続的な線と捉えることで、なで動作によるハプトグラフの作成も可能である。   The number of spaces divided by the space region analysis unit 22 corresponds to pixels in the case of an image, and the number of divisions is the resolution of tactile information. Of course, if the number of divisions is large, it is possible to embed detailed tactile information, but the amount of data to be stored in the storage means 4 described later also increases. As one index, it is preferable to set the number of spaces to be divided by the space region analysis unit 22 in accordance with the resolution of the fingertip that most requires a tactile sensation. When a human receives two tactile stimuli on the skin, the shortest distance at which the stimuli can be identified as different points is said to be about 2.5 mm at the tip of an adult index finger. Although the space division method and the number of divisions are arbitrary, it is ideal from the viewpoint of human support to express the “hapt graph” by the display means 5 in a small space finer than the resolution of human touch. Furthermore, it is possible to create a haptograph by stroking the small space divided by the space region analysis unit 22 as a continuous line as well as a haptograph composed of discrete point sequences. .

次に、上記構成に基づき、本実施例における触覚の視覚的表現方法の各手順を、図2のフローチャートを参照して説明する。装置本体1を起動させ、処理動作を開始させると、入力手段2はステップS2において、後段の処理手段3に送出するための触覚情報を取得する。この触覚情報の取得には、必要に応じてステップS1の接触動作が先に行なわれる。   Next, based on the above configuration, each procedure of the tactile visual expression method in this embodiment will be described with reference to the flowchart of FIG. When the apparatus main body 1 is activated and the processing operation is started, the input unit 2 acquires tactile information to be sent to the subsequent processing unit 3 in step S2. For obtaining the tactile information, the contact operation in step S1 is performed first as necessary.

具体的には、例えば図1において、モータ制御手段6によりアクチュエータ13を力制御する構成では、モータ制御手段6からの電流指令信号によりリニアモータ12を駆動させ、このリニアモータ12に取付けられた軸体11を環境Eに接触させることで、ステップS1の接触動作が行なわれる。また、ここではリニアモータ12が受ける外乱力と反作用力(外力)の各値が、モータ制御手段6に備えた好ましくは位置・加速度統合型の外乱オブザーバ15と、反力オブザーバ16とによりそれぞれ推定され、これらの推定値によってリニアモータ12が力制御されると共に、軸体11が受ける反作用力の推定値が、力の情報として反力オブザーバ16から入力手段2に出力される。   Specifically, for example, in FIG. 1, in the configuration in which the actuator 13 is force-controlled by the motor control means 6, the linear motor 12 is driven by a current command signal from the motor control means 6, and the shaft attached to the linear motor 12 By bringing the body 11 into contact with the environment E, the contact operation in step S1 is performed. Also, here, the values of disturbance force and reaction force (external force) received by the linear motor 12 are estimated by a preferably position / acceleration integrated disturbance observer 15 and reaction force observer 16 provided in the motor control means 6, respectively. Then, the force of the linear motor 12 is controlled by these estimated values, and the estimated value of the reaction force received by the shaft body 11 is output from the reaction force observer 16 to the input means 2 as force information.

また、上記ステップS1の接触動作に伴う環境Eと軸体11との接触位置は、これを図示しない位置センサで検知して、入力手段2に出力してもよいし、予め接触位置が判っている場合には、その位置情報を入力手段2が取り込んでもよい。例えば環境Eや軸体11が不規則に動いていて、接触位置が定まらない場合には、位置センサの検知出力を入力手段2が位置の情報として取り込むのが好ましい。逆に、例えば環境Eまたはアクチュエータ13をX−Yテーブルなどに取付けて、モータ制御手段6からX−Yテーブルに出力される制御信号により、決められた位置で軸体11を環境Eに接触させる場合、モータ制御手段6からの前記制御信号を利用して、入力手段2が位置の情報を取り込めば、上記位置センサを不要にすることができる。さらに、軸体11が環境Eに接触しない場合には、例えば軸体11の先端位置を、入力手段2が位置の情報として取り込んでもよく、要は前記力の情報と共に位置の情報が入力手段2に取り込まれればよい。   Further, the contact position between the environment E and the shaft body 11 associated with the contact operation in step S1 may be detected by a position sensor (not shown) and output to the input means 2, or the contact position is known in advance. If there is, the input means 2 may capture the position information. For example, when the environment E or the shaft body 11 moves irregularly and the contact position cannot be determined, it is preferable that the input means 2 captures the detection output of the position sensor as position information. Conversely, for example, the environment E or the actuator 13 is attached to an XY table or the like, and the shaft body 11 is brought into contact with the environment E at a predetermined position by a control signal output from the motor control means 6 to the XY table. In this case, if the input unit 2 takes in position information using the control signal from the motor control unit 6, the position sensor can be made unnecessary. Further, when the shaft body 11 does not contact the environment E, for example, the tip position of the shaft body 11 may be taken in by the input means 2 as position information. In short, the position information is input together with the force information. As long as it is taken in.

ステップS2において、入力手段2は取り込まれた力と位置の情報の経時的な変化を触覚情報として取得するために、内蔵する計時手段2Aの時計カウントを用いて、時間と力および時間と位置とを関連付ける。因みに、入力手段2に取り込まれる力や位置の情報に、予め時間情報が関連付けられている場合は、これをそのまま触覚情報として取得することができる。また、検知手段14に代わり操作手段17や外部媒体18から直接触覚情報を取得する場合には、ステップS1の手順を省略することも可能である。   In step S2, the input means 2 uses the clock count of the built-in time measuring means 2A to acquire time-dependent changes in the captured force and position information as tactile information, and Associate. Incidentally, when time information is associated in advance with the information on the force and position taken into the input means 2, it can be acquired as it is as tactile information. Further, when the direct contact sense information is acquired from the operation means 17 or the external medium 18 instead of the detection means 14, the procedure of step S1 can be omitted.

こうして、ステップS2において触覚情報が得られると、処理手段3の時間領域解析部21は、触覚情報に含まれる時間と力との関係から、これをFFTやウェーブレット変換などの周波数解析手法を用いて、触覚情報の時間領域としての解析を行なう(ステップS3)。こうした周波数解析を施すと、ある期間に生じる力(反作用力)の情報から、それがどのような周波数特性を有するのかという周波数解析データを得ることができる。   Thus, when tactile information is obtained in step S2, the time domain analysis unit 21 of the processing means 3 uses the time and force included in the tactile information, and this is analyzed using a frequency analysis method such as FFT or wavelet transform. The tactile information is analyzed as a time domain (step S3). When such frequency analysis is performed, frequency analysis data indicating what frequency characteristics it has can be obtained from information on force (reaction force) generated during a certain period.

次のステップS4において、処理手段3の空間領域解析部22は、時間領域解析部21により求められた周波数解析データを、軸体11が接触する環境Eの表面形状に基づき、空間上に配置する空間解析を行なう。具体的には、環境Eと軸体11との接触位置が刻々と変化する場合、単に時間領域解析部21により周波数解析を行なうだけでは、その変化する接触位置上での周波数解析データしか取得することができない。そこで、ステップS3で求めた周波数解析データに対し、さらに空間領域解析部22で例えば有限要素法による空間解析を施すことにより、固定した位置での周波数解析データを得ることができる。   In the next step S4, the space domain analysis unit 22 of the processing unit 3 arranges the frequency analysis data obtained by the time domain analysis unit 21 in the space based on the surface shape of the environment E with which the shaft body 11 contacts. Perform spatial analysis. Specifically, when the contact position between the environment E and the shaft body 11 changes every moment, only frequency analysis data on the changed contact position is acquired simply by performing frequency analysis by the time domain analysis unit 21. I can't. Therefore, the frequency analysis data at the fixed position can be obtained by performing spatial analysis by the finite element method, for example, on the frequency analysis data obtained in step S3 by the spatial domain analysis unit 22.

なお、処理手段3からの前記制御信号により、環境Eと軸体11との接触位置を固定して、検知手段14から力の情報を取り込む場合は、その力の情報に対応する接触位置の情報が、入力手段2から処理手段3に与えられることで、ステップS3で求めた周波数解析データと接触位置とを、空間領域解析部22による空間解析を行なわずに、時間領域処理部21だけで関連付けることができる。そしてこの場合は、ステップS1〜ステップS3の各手順が終了した時点で、軸体11を環境Eの別な位置に接触動作させるために、ステップS1の手順に戻すことにより、様々な固定した接触位置での周波数解析データを得ることができる。また、一点の位置だけの周波数解析データを得る場合には、ステップS1の手順に戻ることなく、次のステップS5の手順が行なわれる。   In the case where the contact position between the environment E and the shaft body 11 is fixed by the control signal from the processing means 3 and the force information is taken in from the detection means 14, the information on the contact position corresponding to the force information. Is provided from the input means 2 to the processing means 3, and the frequency analysis data obtained in step S3 and the contact position are associated with each other only by the time domain processing unit 21 without performing spatial analysis by the spatial domain analysis unit 22. be able to. And in this case, when each procedure of step S1-step S3 is complete | finished, in order to make the shaft body 11 contact-operate to another position of the environment E, by returning to the procedure of step S1, various fixed contact is carried out. Frequency analysis data at the position can be obtained. When obtaining frequency analysis data for only one position, the procedure of the next step S5 is performed without returning to the procedure of step S1.

こうして空間領域解析部22が、実空間の位置に対応した周波数解析データを処理手段3の解析処理結果として生成すると、次のステップS5で解析処理結果を記憶手段4に保存し、さらにはこの記憶手段4から解析処理結果を読み出して、処理手段3に備えた表示制御手段が、前述した「ハプトグラフ」を表示手段5に表示させ、一連の処理を終了する。   When the space region analysis unit 22 thus generates frequency analysis data corresponding to the position in the real space as the analysis processing result of the processing means 3, the analysis processing result is stored in the storage means 4 in the next step S5, and further this storage The analysis processing result is read out from the means 4, and the display control means provided in the processing means 3 displays the above-mentioned "hapt graph" on the display means 5, and the series of processing ends.

ここで、表示手段5の表示形態は、「ハプトグラフ」の概念を逸脱しない限り、どのようなものであっても構わない。例えば、環境Eの表面形状に応じた一乃至複数の位置上に、所定範囲の周波数におけるスペクトルの度合を、線,色,濃淡などで可視化させてもよい。また、点在する固定した位置の周波数解析データ間を直線などで補間し、メッシュ状に繋いで連続的に表示させてもよい。さらに、一つの決められた位置において、どのような周波数成分でどのような強さのスペクトルが存在するのかを、表示手段5により色などで可視化表示させてもよい。   Here, the display form of the display means 5 may be any form as long as it does not deviate from the concept of “haptograph”. For example, the degree of spectrum in a predetermined range of frequencies may be visualized by lines, colors, shading, etc. on one or more positions corresponding to the surface shape of the environment E. Alternatively, the frequency analysis data at fixed positions that are scattered may be interpolated with a straight line or the like, and may be continuously displayed in a mesh form. Furthermore, what kind of frequency component and what intensity spectrum is present at one determined position may be visualized and displayed by the display means 5 using a color or the like.

以上のように本実施例では、一乃至複数の固定した位置と、時系列な力の触覚情報を入力手段2により取得し、この入力手段2で取得した触覚情報を、処理手段3により時間領域で解析処理し、さらに処理手段3によって得た解析処理結果を、表示手段5に可視化して表示させる方法と装置を提供している。   As described above, in this embodiment, one or a plurality of fixed positions and time-series force tactile information are acquired by the input unit 2, and the tactile information acquired by the input unit 2 is acquired by the processing unit 3 in the time domain. And a method and apparatus for visualizing and displaying the analysis processing result obtained by the processing means 3 on the display means 5.

これは、同じ位置で環境Eに接触動作を行なわせる場合や、同じ位置についての時系列的な力の情報を、操作手段17や外部媒体18から触覚情報として取り込む場合を想定している。つまり、触覚情報をそのまま単に時系列的に表示させるのではなく、取得した触覚情報に時間領域で解析処理を施すことで、例えば触覚情報の特徴的な周波数について、色や濃淡による可視化表示を表示手段5に行なわせることが可能になる。そのため、従来のような定性的な表現しかできなかった触覚情報を、表示手段5からの可視化表示を通して、より直感的かつ定量的に表現することが可能になる。   This assumes the case where the environment E performs a contact operation at the same position, or the case where time-series force information about the same position is captured as tactile information from the operation means 17 or the external medium 18. In other words, the tactile information is not simply displayed in time series, but the acquired tactile information is subjected to analysis processing in the time domain. It becomes possible to make the means 5 perform. Therefore, tactile information that could only be qualitatively expressed as before can be expressed more intuitively and quantitatively through visualization display from the display means 5.

また、特にここでの触覚情報が、一点だけの位置と、この位置に対応する時系列な力の情報である場合には、固定した同じ位置で、触覚情報がどのような特徴的な周波数を有するのかを、表示手段5に可視化表示させることが可能になる。   In particular, if the tactile information here is only a single point and time-series force information corresponding to this position, what characteristic frequency the tactile information has at the same fixed position. It is possible to visualize on the display means 5 whether or not it has.

また、この場合の前記処理手段3からの解析処理結果は、触覚情報を周波数解析して得た周波数解析データを生成することで得られ、この周波数解析データから、触覚情報がどのような周波数特性を有しているのかを、表示手段5に可視化して表示させている。   Further, the analysis processing result from the processing means 3 in this case is obtained by generating frequency analysis data obtained by frequency analysis of the tactile information, and the frequency characteristics of the tactile information from the frequency analysis data are obtained. Is displayed and displayed on the display means 5.

こうすると、入力手段2で取得した触覚情報から、この触覚情報を周波数解析した周波数解析データを生成することで、触覚情報がどのような周波数特性を有するのかを、表示手段5に可視化して表示させることができ、振幅レベルの程度を例えば色や濃淡で可視化することで、触覚情報をより定量的に表現することが可能になる。   In this way, by generating frequency analysis data obtained by frequency analysis of the haptic information from the haptic information acquired by the input means 2, the frequency characteristics of the haptic information are visualized and displayed on the display means 5. By visualizing the degree of the amplitude level with, for example, color or shading, it becomes possible to express tactile information more quantitatively.

また、環境Eとの接触位置が規則的または不規則に移動する場合や、複数の位置について、それぞれ時系列的な力の情報を、操作手段17や外部媒体18から触覚情報として取り込む場合には、環境Eへの接触動作により生じた時系列な力と位置の触覚情報を入力手段2により取得し、この入力手段2で取得した触覚情報を、処理手段3により時間領域と三次元的な位置領域である空間領域で解析処理し、この解析処理結果は、触覚情報に含まれる時間と力との関係を、周波数と振幅との関係を示す周波数解析データに変換する時間領域の解析と、当該周波数解析データを、環境Eの表面形状に基づき空間上に配置する空間領域の解析とにより得られ、さらに処理手段3によって得た解析処理結果を、空間上に配置された前記周波数解析データから、どの位置でどのような周波数成分の特性を有するのかを、環境Eの表面形状に応じた複数の位置上に、所定範囲の周波数における振幅の度合で表示手段5に可視化して表示させる方法や装置を採用するのが好ましい。 Also, when the contact position with the environment E moves regularly or irregularly, or when information of force in time series for each of a plurality of positions is acquired as tactile information from the operation means 17 or the external medium 18. The time-series force and position tactile information generated by the contact operation with the environment E is acquired by the input means 2, and the tactile information acquired by the input means 2 is processed by the processing means 3 in the time domain and the three-dimensional position. Analyzing processing is performed in a spatial domain, and the analysis processing result is obtained by analyzing the time domain by converting the relationship between time and force included in the tactile information into frequency analysis data indicating the relationship between frequency and amplitude, frequency analysis data, obtained by the analysis of the spatial region located in a space on the basis of the surface shape of the environment E, the analysis results obtained by the addition processing unit 3, the frequency analysis data which is arranged in a space Method from, or has a characteristic of any frequency component at any position, a plurality of on the position corresponding to the surface shape of the environment E, and displays visualized on the display unit 5 in the degree of amplitude at the frequency of the predetermined range It is preferable to employ a device.

この場合、環境Eへの接触動作により生じた時系列な力と位置の前記触覚情報をそのまま単に時系列的に表示させるのではなく、触覚情報に含まれる時間と力との関係を、周波数と振幅との関係を示す周波数解析データに変換する時間領域の解析と、この周波数解析データを、環境の表面形状に基づき空間上に配置する空間領域の解析とにより、取得した触覚情報に時間領域と空間領域で解析処理を施すことで、解析処理結果を空間的に配置して、例えば触覚情報の特徴的な周波数について、色や濃淡による可視化表示を表示手段5に行なわせることが可能になる。そのため、従来のような定性的な表現しかできなかった触覚情報を、表示手段5からの可視化表示を通して、より直感的かつ定量的に表現することが可能になる。 In this case, the tactile information of the position and sequence of force when generated by the contact operation to the environment E, it not simply be chronologically displayed, the relationship between the time and the force that is included in the tactile information, frequency Analysis of the time domain to convert to frequency analysis data indicating the relationship between the amplitude and the amplitude, and analysis of the spatial domain in which this frequency analysis data is placed in space based on the surface shape of the environment By performing analysis processing in the spatial domain, it is possible to arrange the analysis processing results spatially and to cause the display means 5 to visualize and display, for example, the characteristic frequency of the tactile information by color and shading. . Therefore, tactile information that could only be qualitatively expressed as before can be expressed more intuitively and quantitatively through visualization display from the display means 5.

また特に、入力手段2で取得した触覚情報から、位置に対応して触覚情報を周波数解析した周波数解析データを生成することで、どの位置でどのような周波数特性を有するのかを、表示手段5に可視化して表示させることができ、環境Eの表面形状に応じた複数の位置上に、振幅レベルの程度を例えば色や濃淡で可視化することで、触覚情報をより定量的に表現することが可能になる。 In particular , by generating frequency analysis data obtained by frequency-analyzing the haptic information corresponding to the position from the haptic information acquired by the input means 2, the display means 5 indicates what frequency characteristics are present at which position. It can be visualized and displayed, and the degree of amplitude level can be visualized in multiple positions according to the surface shape of the environment E, for example, by color and shading, so that tactile information can be expressed more quantitatively. become.

さらに本実施例の処理手段3は、入力手段2で取得した触覚情報を高速フーリエ変換またはウェーブレット変換またはコサイン変換により時間領域または空間領域で解析処理し、また有限要素法を用いた変換により空間領域で解析処理している。つまり、画像や音声信号処理などの分野で研究開発が進んでいるフーリエ変換またはウェーブレット変換またはコサイン変換や、空間領域を小空間に分割して数値解析を行なう手法としてよく知られている有限要素法を採用することで、触覚情報の時間領域や空間領域における解析処理を容易に行なうことが可能になる。   Furthermore, the processing means 3 of the present embodiment analyzes the haptic information acquired by the input means 2 in the time domain or the spatial domain by fast Fourier transform, wavelet transform, or cosine transform, and in the spatial domain by transformation using the finite element method. Analyzing process. In other words, the Fourier transform, wavelet transform, or cosine transform, which has been researched and developed in fields such as image and audio signal processing, and the finite element method that is well known as a method for numerical analysis by dividing a spatial domain into small spaces By adopting, it becomes possible to easily perform analysis processing in the time domain and the spatial domain of tactile information.

また本実施例では、環境Eに可動体である軸体11が接触したときの反力を反力オブザーバ16で推定し、前記力の触覚情報を、反力オブザーバ16からの反力推定値として取得している。 In the present embodiment , the reaction force when the shaft 11 that is a movable body contacts the environment E is estimated by the reaction force observer 16, and the tactile information of the force is used as the reaction force estimation value from the reaction force observer 16. Have acquired.

この場合、力の触覚情報として、環境Eへの接触動作により生じた反力を、力覚センサを用いずに反力オブザーバ16で推定できる。  In this case, as force tactile information, the reaction force generated by the contact operation with the environment E can be estimated by the reaction force observer 16 without using a force sensor.

その他、本実施例では、処理手段3からの解析処理結果を保存する記憶手段4を備えており、この記憶手段4に保存した解析処理結果を読み出すことにより、表示手段4に解析処理結果を可視化して表示させるようになっている。   In addition, in the present embodiment, a storage unit 4 for storing the analysis processing result from the processing unit 3 is provided, and the analysis processing result is visualized on the display unit 4 by reading the analysis processing result stored in the storage unit 4. To be displayed.

つまり、解析処理結果をそのまま表示手段5に可視化表示させるのではなく、記憶手段4に一旦保存してから可視化表示させることで、それまで記憶手段4に蓄積保存されていた解析処理結果を任意に読み出して、これを表示手段5で可視化表示させることが可能になる。   In other words, the analysis processing result is not displayed on the display unit 5 as it is, but is temporarily stored in the storage unit 4 and then displayed on the display unit 5 so that the analysis processing result accumulated and stored in the storage unit 4 can be arbitrarily set. It is possible to read out and visualize this on the display means 5.

また、上述した時系列的な力の情報が、特にある時間における力制御系を構成した可動体(軸体11)の反作用力の情報である場合、こうした反作用力には、軸体11が接触する環境Eの剛性や、粘性や、質量などの諸情報が含まれていることから、当該反作用力を時間領域で解析処理すれば、接触する環境Eの違いや触覚情報の特徴を表示手段5に可視化して表現させることが可能になる。   In addition, when the time-series force information described above is information on the reaction force of the movable body (shaft body 11) that constitutes the force control system at a certain time, the shaft body 11 contacts the reaction force. Since various information such as rigidity, viscosity, and mass of the environment E to be processed is included, if the reaction force is analyzed in the time domain, the difference in the environment E in contact and the characteristics of the tactile information are displayed. Can be visualized and expressed.

なお、本発明は上記実施例に限定されるものではなく、本発明の要旨の範囲において種々の変形実施が可能である。   In addition, this invention is not limited to the said Example, A various deformation | transformation implementation is possible in the range of the summary of this invention.

上記実施例で提示した「ハプトグラフ」により、触覚の空間情報と時間情報の双方を埋め込んで、これを視覚化(可視化)することが可能になるため、それまで「つるつる」や「ざらざら」といった定性的な表現に代わり、触覚をより直感的且つ定量的に表現することが可能になる。さらに、上記実施例における表示手段5と表示制御手段は、インターネットや放送などの有線または無線通信手段によって遠隔地に配置されていてもよく、その場合は触覚情報を遠隔地に配信する際に、視覚化された情報を処理手段3から送り出すことで、どの場所にあっても直感的かつ定量的に触覚を共有することができる。さらに、ここで提案する「ハプトグラフ」は、処理手段3から表示手段5に視覚化表示情報を配信するに際し、情報の圧縮や保存フォーマットに関する標準規格を策定することにつながり、その産業上の応用は計り知れないものとなり得る。   The “hapt graph” presented in the above example embeds both spatial and temporal information of haptics and makes it possible to visualize them (visualization). It is possible to express the sense of touch more intuitively and quantitatively instead of a typical expression. Further, the display means 5 and the display control means in the above embodiment may be arranged at a remote place by wired or wireless communication means such as the Internet or broadcast, and in that case, when delivering tactile information to the remote place, By sending the visualized information from the processing means 3, it is possible to share the sense of touch intuitively and quantitatively at any location. Furthermore, the “haptograph” proposed here leads to the formulation of standards for compression and storage format of information when the visualization display information is distributed from the processing means 3 to the display means 5, and its industrial application is It can be immeasurable.

本発明の一実施例における触覚の視覚的表現装置に関し、その全体構成を示すブロック図である。1 is a block diagram showing an overall configuration of a tactile visual expression device according to an embodiment of the present invention. 同上、図1における触覚の視覚的表現装置が実行する処理手順をあらわしたフローチャートである。3 is a flowchart showing a processing procedure executed by the tactile visual expression device in FIG.

2 入力手段(時系列な力の触覚情報を取得する手段)
3 処理手段
5 表示手段
軸体(可動体)
16 反力オブザーバ
21 時間領域解析部
22 空間領域解析部
2 Input means (means for acquiring tactile information of time-series force)
3 Processing means 5 Display means 1 Single axis body (movable body)
16 Reaction force observer
21 Time domain analysis part
22 Spatial domain analysis

Claims (6)

環境への接触動作により生じた時系列な力と位置の触覚情報を取得し、
前記取得した前記触覚情報を時間領域と位置領域で解析処理し、
この解析処理結果は、前記触覚情報に含まれる時間と力との関係を、周波数と振幅との関係を示す周波数解析データに変換する時間領域の解析と、
前記周波数解析データを、前記環境の表面形状に基づき空間上に配置する空間領域の解析とにより得られ、
前記空間上に配置された前記周波数解析データから、どの位置でどのような周波数成分の特性を有するのかを、前記環境の表面形状に応じた複数の位置上に、所定範囲の周波数における振幅の度合で表示手段に可視化して表示させることを特徴とする触覚の視覚的表現方法。
Obtain tactile information of time-series force and position generated by the contact action to the environment ,
Analyzing the acquired tactile information in a time domain and a position domain,
This analysis processing result is a time domain analysis that converts the relationship between time and force included in the tactile information into frequency analysis data indicating the relationship between frequency and amplitude,
The frequency analysis data is obtained by analysis of a spatial region arranged on the space based on the surface shape of the environment,
From the frequency analysis data arranged in the space, the position of what frequency component has characteristics and the degree of amplitude at a predetermined range of frequencies on a plurality of positions according to the surface shape of the environment. tactile visual representation wherein the displaying visualized on the display unit in.
前記取得した触覚情報をフーリエ変換またはウェーブレット変換またはコサイン変換により、前記時間領域または前記空間領域で解析処理することを特徴とする請求項記載の触覚の視覚的表現方法。 By a Fourier transform or a wavelet transform or a cosine transform tactile information the acquired tactile visual representation method according to claim 1, wherein the analyzing process by the time domain or the spatial domain. 前記環境に可動体が接触したときの反力を反力オブザーバで推定し、
前記力の触覚情報を、前記反力オブザーバからの反力推定値として取得することを特徴とする請求項または記載の触覚の視覚的表現方法。
Estimate the reaction force when the movable body contacts the environment with a reaction force observer,
Tactile information of the force, the tactile visual representation method according to claim 1 or 2, wherein the obtaining as a reaction force estimate from the reaction force observer.
環境への接触動作により生じた時系列な力と位置の触覚情報を取得する手段と、
前記取得した触覚情報を時間領域と位置領域で解析処理する処理手段とを備え、
前記処理手段は、前記触覚情報に含まれる時間と力との関係を、周波数と振幅との関係を示す周波数解析データに変換する時間領域解析部と、前記周波数解析データを、前記環境の表面形状に基づき空間上に配置して、前記解析処理の結果を得る空間領域解析部とを備え、
前記空間上に配置された前記周波数解析データから、どの位置でどのような周波数成分の特性を有するのかを、前記環境の表面形状に応じた複数の位置上に、所定範囲の周波数における振幅の度合で表示手段に可視化して表示させる構成としたことを特徴とする触覚の視覚的表現装置。
Means for obtaining tactile information of time-series force and position generated by contact operation with the environment ;
Processing means for analyzing the acquired tactile information in a time domain and a position domain,
The processing means includes a time domain analysis unit that converts a relationship between time and force included in the tactile information into frequency analysis data indicating a relationship between frequency and amplitude, and the frequency analysis data is converted into a surface shape of the environment. And a space region analysis unit that obtains the result of the analysis processing, arranged in space based on
From the frequency analysis data arranged in the space, the position of what frequency component has characteristics and the degree of amplitude at a predetermined range of frequencies on a plurality of positions according to the surface shape of the environment. in tactile visual representation apparatus being characterized in that the arrangement for showing visualized images on the display means.
前記処理手段は、前記取得した触覚情報をフーリエ変換またはウェーブレット変換またはコサイン変換により、前記時間領域解析部または前記位置領域解析部で解析処理するものであることを特徴とする請求項記載の触覚の視覚的表現装置。 The processing means, by a Fourier transform or a wavelet transform or a cosine transform the acquired touch information, tactile claim 4, wherein the is to analysis in the time domain analysis unit or the location area analyzer Visual expression device. 前記環境に可動体が接触したときの反力を推定する反力オブザーバを更に備え、
前記力の触覚情報を、前記反力オブザーバからの反力推定値として取得する構成としたことを特徴とする請求項または記載の触覚の視覚的表現装置。
A reaction force observer for estimating a reaction force when a movable body comes into contact with the environment;
Tactile information of the force, the fact that a configuration for acquiring a reaction force estimate tactile visual representation apparatus according to claim 4 or 5, wherein from the reaction force observer.
JP2007212685A 2007-03-05 2007-08-17 Tactile visual expression method and tactile visual expression device Expired - Fee Related JP5057285B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007212685A JP5057285B2 (en) 2007-03-05 2007-08-17 Tactile visual expression method and tactile visual expression device

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2007054167 2007-03-05
JP2007054167 2007-03-05
JP2007212685A JP5057285B2 (en) 2007-03-05 2007-08-17 Tactile visual expression method and tactile visual expression device

Publications (2)

Publication Number Publication Date
JP2008250978A JP2008250978A (en) 2008-10-16
JP5057285B2 true JP5057285B2 (en) 2012-10-24

Family

ID=39975789

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007212685A Expired - Fee Related JP5057285B2 (en) 2007-03-05 2007-08-17 Tactile visual expression method and tactile visual expression device

Country Status (1)

Country Link
JP (1) JP5057285B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009279699A (en) * 2008-05-21 2009-12-03 Nagaoka Univ Of Technology Position-force reproducing method and position-force reproducing device
US9746923B2 (en) * 2009-03-12 2017-08-29 Immersion Corporation Systems and methods for providing features in a friction display wherein a haptic effect is configured to vary the coefficient of friction
JP5257896B2 (en) * 2009-05-22 2013-08-07 国立大学法人電気通信大学 Slip detection device and method
KR101194078B1 (en) 2010-04-23 2012-10-24 가천대학교 산학협력단 Apparatus for converting visual information into information of tactual sense for visuallly impaired people

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4096376B2 (en) * 1996-07-09 2008-06-04 セイコーエプソン株式会社 Relaxation instruction equipment
US6054992A (en) * 1997-09-19 2000-04-25 Mitsubishi Electric Information Technology Center America, Inc. cutting, jointing and tearing volumetric objects
JP3632397B2 (en) * 1997-09-24 2005-03-23 セイコーエプソン株式会社 Pulse diagnosis support device
JP3730435B2 (en) * 1999-03-26 2006-01-05 株式会社東芝 Waveform signal analyzer
JP4348577B2 (en) * 1999-08-17 2009-10-21 ソニー株式会社 Motion capture device using myoelectric potential information and control method thereof, as well as electrical stimulation device, force-tactile sensation display device using the same, and control method thereof
JP2001133300A (en) * 1999-11-04 2001-05-18 Sony Corp Apparatus and method for recognizing action, and apparatus of presenting inner force sensor, and its control method
JP2005043385A (en) * 2002-06-26 2005-02-17 Naoya Asamura Tactile sensation display and tactile sensation presentation method
JP2006058973A (en) * 2004-08-17 2006-03-02 Sony Corp Tactile information creation apparatus and tactile information creation method
JP2006292454A (en) * 2005-04-07 2006-10-26 Matsushita Electric Ind Co Ltd Feel inspection method and its device
JP4632202B2 (en) * 2005-07-06 2011-02-16 独立行政法人産業技術総合研究所 Tactile sensor

Also Published As

Publication number Publication date
JP2008250978A (en) 2008-10-16

Similar Documents

Publication Publication Date Title
EP3343329B1 (en) Haptic effect generation for space-dependent content
US20160239087A1 (en) Content-aware haptic system and associated control method
Culbertson et al. Modeling and rendering realistic textures from unconstrained tool-surface interactions
US8711118B2 (en) Interactivity model for shared feedback on mobile devices
Petzold et al. A study on visual, auditory, and haptic feedback for assembly tasks
CN105190518A (en) Providing multi-dimensional haptic touch screen interaction
US8988445B2 (en) Systems and methods for capturing and recreating the feel of surfaces
EP2846221A1 (en) Method, system and computer program product for transforming haptic signals
JP2009276996A (en) Information processing apparatus, and information processing method
EP3674850A1 (en) Haptic signal conversion system
CN102668556A (en) Medical support apparatus, medical support method, and medical support system
JP5057285B2 (en) Tactile visual expression method and tactile visual expression device
Cha et al. A Framework for Haptic Broadcasting.
US11157084B2 (en) Touch enabling process, haptic accessory, and core haptic engine to enable creation and delivery of tactile-enabled experiences with virtual objects
US20230273685A1 (en) Method and Arrangement for Handling Haptic Feedback
JP2009279699A (en) Position-force reproducing method and position-force reproducing device
CN105549892A (en) Augmented reality information display method and apparatus
JP5158562B2 (en) Tactile analysis method and tactile analysis device
Andrews et al. Interactive scanning of haptic textures and surface compliance
JP5211580B2 (en) Tactile analysis method and tactile analysis device
Sawada et al. Tactile pen for presenting texture sensation from touch screen
JP2009276970A (en) Haptic visualization method and haptic visualization device
JP7345387B2 (en) Tactile sensation presentation system, local terminal and server device of the tactile sensation presentation system, tactile sensation presentation method, and tactile sensation presentation program
JP7252916B2 (en) Haptic sensation presentation method, system and program
CN110869881A (en) Virtual interaction method, entity robot, display terminal and system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100803

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120308

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120709

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150810

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120722

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees