JP2007034439A - 触力覚検索システムおよび触力覚検索プログラム - Google Patents
触力覚検索システムおよび触力覚検索プログラム Download PDFInfo
- Publication number
- JP2007034439A JP2007034439A JP2005213473A JP2005213473A JP2007034439A JP 2007034439 A JP2007034439 A JP 2007034439A JP 2005213473 A JP2005213473 A JP 2005213473A JP 2005213473 A JP2005213473 A JP 2005213473A JP 2007034439 A JP2007034439 A JP 2007034439A
- Authority
- JP
- Japan
- Prior art keywords
- haptic
- sense
- parameter
- input
- tactile force
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
【課題】 人が過去に体験した触力覚を記憶および再現提示すること。
【解決手段】 触力覚検索システム100は、人が過去に体験した触力覚を入力するための接触部21およびパラメータ検出部23と、人に触力覚を体験させる事象を発生する接触部21および駆動制御部22と、接触部21およびパラメータ検出部23に入力された触力覚を記憶する触力覚データベース50と、触力覚データベース50に記憶された触力覚のうちから所定の条件に一致する触力覚を抽出し、接触部21および駆動制御部22を制御して、抽出された触力覚を人に体験させる事象を発生させる比較抽出部12と、を備える。
【選択図】 図1
【解決手段】 触力覚検索システム100は、人が過去に体験した触力覚を入力するための接触部21およびパラメータ検出部23と、人に触力覚を体験させる事象を発生する接触部21および駆動制御部22と、接触部21およびパラメータ検出部23に入力された触力覚を記憶する触力覚データベース50と、触力覚データベース50に記憶された触力覚のうちから所定の条件に一致する触力覚を抽出し、接触部21および駆動制御部22を制御して、抽出された触力覚を人に体験させる事象を発生させる比較抽出部12と、を備える。
【選択図】 図1
Description
この発明は触力覚検索システムおよび触力覚検索プログラムに関し、詳しくは、人が過去に体験した触力覚を記憶および再現提示する触力覚検索システムおよび触力覚検索プログラムに関する。
現在、人の視覚および聴覚に代わるセンサとして、カメラ、マイクが知られている。さらに、カメラで撮像された画像を出力する表示モニタ、スピーカで集音された音声を出力するスピーカが存在する。味覚および臭覚についても、味覚センサと味再生装置、においセンサとにおい再生装置が存在する。
五感のうち触覚は、狭義の触覚と力覚とを含む。狭義の触覚は、能動的な感覚であり、たとえば、人が静止物に触れて感じる肌触り、柔らかさ等の感覚をいう。力覚は、受動的な感覚であり、たとえば、人が動物体に触れていて感じる手ごたえ等の感覚をいう。ここでは、単に触覚というときは、狭義の触覚を示し、触覚と力覚とを総称して触力覚という。
特開2004−278733号公報(特許文献1)には、物体の動きを再現する触力覚ディスプレイが記載されている。また、電気刺激により触覚を提示する触覚ディスプレイが開発されている(たとえば、非特許文献1)。非特許文献1に記載の触覚ディスプレイは、内部に微細な帯状電極を有する2枚のフィルムからなる。これら2枚のフィルムが超薄型静電アクチュエータを構成する。一方のフィルム(固定子)は、ベース台に固定されており、他方のフィルム(移動子)はミニチュアリニアガイドで案内され、左右に移動可能となっている。操作者は移動子フィルム上に直接指をおき、移動子フィルムを指と共に左右に動かすことで、静電アクチュエータの発生する推力を指先に感じ、その結果として、特定の表面性状を知覚するものである。
しかしながら、触力覚を体験させるためのディスプレイは存在するが、触力覚により得られる主観的な体験を、記録、検索および再生するハードウェアは今のところ存在しない。これは、触力覚を人が知覚する原理の解明が、未だ明確にはされていないことによる。触力覚は、一つの単純な感覚ではなく、様々な受容器で感じられる複合的な感覚である。すなわち、触力覚は、皮膚で感じる摩擦感、温湿感、痛感、力の負荷などを感じる運動感覚が複合したものである。換言すれば、触力覚を知覚した体験は、複合的な感覚で得られるものであり、また、主観的なものである。従来のセンサでは単一的で客観的な値が得られるのみであり、触力覚のように複合的で主観的な感覚を取り扱うハードウェアは今のところ存在しない。
特開2004−278733号公報
山本、高崎、樋口、"超薄型静電アクチュエータを用いた触感インターフェース"、[online]、[平成17年7月1日検索]、インターネット<URL: http://www.intellect.pe.u-tokyo.ac.jp/research/es_tactile/es_tactile_j.html>
この発明は上述した問題点を解決するためになされたもので、この発明の目的の一つは、人が過去に体験した触力覚を記憶および再現提示可能な触力覚検索システムおよび触力覚検索プログラムを提供することである。
この発明の他の目的は、触力覚をキーにして記録された触力覚を検索することが可能な触力覚検索装置および触力覚検索プログラムを提供することである。
上述した目的を達成するためにこの発明のある局面によれば、触力覚検索システムは、人が過去に体験した触力覚を入力するための触力覚入力手段と、人に触力覚を体験させる事象を発生する触力覚出力手段と、触力覚入力手段に入力された触力覚を記憶する記憶手段と、記憶手段に記憶された触力覚のうちから所定の条件を満たす触力覚を抽出する抽出手段と、触力覚出力手段を制御して、抽出手段により抽出された触力覚を人に体験させる事象を発生させる制御手段と、を備える。
この発明に従えば、人が過去に体験した触力覚が入力されると、入力された触力覚が記憶されるので、人が過去に体験した触力覚を記憶しておくことができる。また、記憶された触力覚のうちから所定の条件を満たす触力覚が抽出され、抽出された触力覚を人に体験させる事象が発生される。このため、人が過去に体験した触力覚を記憶および再現提示可能な触力覚検索システムを提供することができる。
好ましくは、抽出手段は、記憶手段に記憶された触力覚のうちから触力覚入力手段に入力された触力覚に類似する触力覚を抽出する。
この発明に従えば、入力された触力覚に類似する触力覚が、記憶された触力覚のうちから抽出されて、その触力覚を人に体験させる事象が発生される。このため、触力覚をキーにして記録された触力覚を検索することが可能な触力覚検索装置を提供することができる。
好ましくは、事象を識別する事象識別情報が入力される事象識別情報入力手段をさらに備え、記憶手段は、触力覚入力手段に入力された触力覚を事象識別情報入力手段に入力された事象識別情報と関連付けて記憶し、抽出手段は、事象識別情報入力手段に入力された事象識別情報に一致する事象識別情報と関連付けられた触力覚を抽出する。
この発明に従えば、事象識別情報が入力されると、その事象識別情報と関連付けて記憶された触力覚を人に体験させる事象が発生される。このため、人が過去に感じた触力覚を生じさせた事象をキーにして触力覚を検索し、再現することが可能な触力覚検索装置を提供することができる。
好ましくは、触力覚出力手段は、人が接触可能な接触部と、パラメータが与えられると与えられたパラメータに従って接触部を駆動させる駆動制御手段とを含み、触力覚入力手段は、接触部が人によって移動されることに応じて、触力覚出力手段が接触部の移動を再現するために必要なパラメータを検出するパラメータ検出手段を含み、記憶手段は、パラメータ検出手段により検出されたパラメータを触力覚として記憶する。
この発明に従えば、触力覚出力手段の接触部が人によって移動されることに応じて、該接触部の移動を再現するために必要なパラメータが検出され、検出されたパラメータが触力覚として記憶されるので、触力覚を定量的に記憶することができる。
好ましくは、触力覚出力手段は、人が接触可能な接触部と、パラメータが与えられると与えられたパラメータに従って接触部を駆動させる駆動制御手段とを含み、触力覚入力手段は、駆動制御手段にパラメータを与えるパラメータ付与手段と、所定の指示が入力されると、パラメータ付与手段が駆動制御手段に与えたパラメータを人が感じた触力覚として決定するパラメータ決定手段を含み、記憶手段は、パラメータ検出手段により決定されたパラメータを触力覚として記憶する。
この発明に従えば、接触部がパラメータに従って駆動され、所定の指示が入力された時点で、駆動制御手段に与えたパラメータが、人が感じた触力覚として記憶される。このため、触力覚を定量的に記憶することができる。
この発明の他の局面によれば、触力覚検索プログラムは、人が過去に体験した触力覚を入力するための触力覚入力手段と、人に触力覚を体験させる事象を発生する触力覚出力手段とに接続されたコンピュータで実行される触力覚検索プログラムであって、触力覚入力手段に入力された触力覚を記憶するステップと、記憶された触力覚のうちから所定の条件を満たす触力覚を抽出するステップと、触力覚出力手段を制御して、抽出された触力覚を人に体験させる事象を発生させるステップと、をコンピュータに実行させる。
この発明に従えば、人が過去に体験した触力覚を記憶および再現提示可能な触力覚検索プログラムを提供することができる。
また、記憶された触力覚のうちから入力された触力覚に類似する触力覚を抽出すれば、抽出された触力覚を人に体験させる事象が発生されるので、触力覚をキーにして記録された触力覚を検索することが可能な触力覚検索プログラムを提供することができる。
この発明のさらに他の局面によれば、触力覚検索プログラムは、人が過去に体験した触力覚を入力するための触力覚入力手段と接続されたコンピュータで実行される触力覚検索プログラムであって、触力覚出力手段は、人が接触可能な接触部と、パラメータが与えられると与えられたパラメータに従って接触部を駆動させる駆動制御手段とを含み、駆動制御手段にパラメータを与えるステップと、所定の指示が入力されると、駆動制御手段に与えたパラメータを人が感じた触力覚として決定するステップと、触力覚として決定されたパラメータを記憶するステップと、記憶された触力覚のうちから所定の条件を満たす触力覚を抽出するステップと、触力覚出力手段を制御して、抽出された触力覚を人に体験させる事象を発生させるステップと、をコンピュータに実行させる。
この発明に従えば、人が過去に体験した触力覚を記憶および再現提示可能な触力覚検索プログラムを提供することができる。
以下、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがってそれらについての詳細な説明は繰返さない。
人は過去の体験で感じた触力覚を記憶しているが、触力覚を言葉で表現したとしても一意に表すことが難しく、触力覚を他人に伝達することはできない。また、人が感じる触力覚を検出するセンサが存在しないためにコンピュータで処理することができない。本実施の形態における触力覚検索システムは、人の触力覚をセンサとして用い、触力覚ディスプレイを用いることにより、触力覚をコンピュータに記憶し、触力覚をキーとして検索し、および触力覚を感じさせる事象を再現することを可能とする。
図1は、人が感じた触力覚を、触力覚ディスプレイを用いて入力する方法を説明するための図である。図1を参照して、人が竿で鯛を釣った体験を記憶している。この体験で感じた触力覚は、竿で感じ取られ、その体験の要素には鯛が針にかかったときの引き具合、つり上げる際の魚の暴れ具合、重さ、手応え等がある。この体験によって得られる触力覚を言葉に表現したとしても、たとえば「あの魚はぐいっときてガーっと引っ張られて、ふっと抜けるようにつれた」といった擬態語または擬音語を用いた表現になってしまい、言葉のみで触力覚を正確に伝達することはできない。また、人に伝達する際には、言葉とジェスチャとを組み合わせる程度しかできず、触力覚を正確に人に伝えることはできない。これに対して、本実施の形態における触力覚検索システムは、人が竿で鯛を釣った体験で得られた触力覚を思い出しながら、触力覚ディスプレイを操作して体験した触力覚を入力するものである。
また、触覚ディスプレイは、パラメータが与えられると表面形状を再現するが、人が過去に物に触れた体験で得られた触覚を入力することができない。本実施の形態における触力覚検索システムは、人がいくつかのパラメータを順に触覚ディスプレイに与えて触覚ディスプレイに表面形状を再現させ、触覚を体験しながらパラメータを変化させて自分が記憶している触覚に近づけていき、最終的に触覚の入力を可能とするものである。
<第1の実施の形態>
図2は、本発明の第1の実施の形態における触力覚検索システムの機能の概要を示す機能ブロック図である。図2を参照して、触力覚検索システム100は、触力覚ディスプレイ20と、触力覚ディスプレイ20を制御する制御部10と、ユーザによる操作の入力を受付ける入力部30と、触力覚データベース50と、表示部40と、外部記録装置60とを含む。
図2は、本発明の第1の実施の形態における触力覚検索システムの機能の概要を示す機能ブロック図である。図2を参照して、触力覚検索システム100は、触力覚ディスプレイ20と、触力覚ディスプレイ20を制御する制御部10と、ユーザによる操作の入力を受付ける入力部30と、触力覚データベース50と、表示部40と、外部記録装置60とを含む。
触力覚ディスプレイ20は、接触部21と、接触部21を駆動するための駆動制御部22と、接触部21の駆動に対応するパラメータを検出するパラメータ検出部23と、編集部24とを含む。接触部21は、3次元空間で自由に移動可能である。駆動制御部22には、制御部10からパラメータが与えられる。駆動制御部22は、与えられるパラメータに従って接触部21を駆動させる。駆動制御部22に与えられるパラメータは、接触部21を駆動させるために用いられ、接触部21の駆動方法を定義する。パラメータは、たとえば、接触部21の姿勢を制御するパラメータ、接触部21を移動させるパラメータを含む。移動させるパラメータには、たとえば、位置、移動方向、移動する速さ、加速度およびこれらを加える時間などを含む。したがって、パラメータは、複数が存在し、複数のパラメータの組み合わせで、人に触力覚を体験させるための接触部21の一つの動きが定まる。
パラメータ検出部23は、接触部21の動きを検出するセンサである。接触部21の可動方向ごとに、ここでは3次元の各方向の位置、速度、加速度を検出するセンサを備えている。また3次元の各方向の反力を検出する力センサを備えるようにしてもよい。ユーザが、過去に体験した触力覚を思い出しながらその触力覚を、接触部21を移動させることにより再現すると、パラメータ検出部23は、接触部21が受けた力を検出する。そして、受けた力で接触部21を動かすために必要なパラメータを出力する。パラメータは時間を要素に持ち、位置の時間的な変化、力の時間的な変化を含んでもよい。触力覚ディスプレイ20は、パラメータ検出部23を備えることにより、触力覚を入力することが可能な触力覚入力装置でもある。
編集部24は、パラメータ検出部23が出力するパラメータを編集する。具体的には、パラメータ検出部23が出力するパラメータを駆動制御部22に与える。駆動制御部22は、与えられたパラメータに従って接触部21を駆動させる。接触部21に触れたユーザは、接触部21の動きを感じ、触力覚として認識する。そして、ユーザが、接触部21に触れて認識する触力覚と、ユーザが記憶している過去の触力覚とを比較して、その比較結果を編集部24に入力する。比較結果には、(1)接触部21に触れて認識する触力覚と、ユーザが記憶している触力覚とが一致すると判断した比較結果と、(2)接触部21に触れて認識する触力覚と、ユーザが記憶している触力覚とが一致しないと判断した比較結果とがある。編集部24は、入力された比較結果が、一致しないと判断した比較結果の場合、ユーザによる触力覚の入力を再度受付ける。具体的には、ユーザが過去に体験した触力覚を思い出しながらその触力覚を、接触部21を移動させることにより再現するのである。このユーザによる触力覚の入力は、一致すると判断した比較結果が入力されるまで繰り返される。編集部24は、入力された比較結果が、一致すると判断した比較結果の場合、パラメータ検出部23に対して、パラメータを制御部10に出力する指示を出力する。パラメータ検出部23は、編集部24から入力される指示に従って、パラメータを制御部10に出力する。
入力部30は、事象識別情報入力部31と、ユーザ識別情報入力部32とを含む。入力部30は、触力覚検索システム100を使用するユーザとのユーザインターフェイスであり、ユーザによる操作の入力を受付ける。ユーザ識別情報入力部31は、触力覚検索システム100を使用するユーザを識別するためのユーザ識別情報の入力を受付け、入力されたユーザ識別情報を制御部10に出力する。事象識別情報入力部31は、ユーザが過去に経験した触力覚を生じさせた事象を識別するための事象識別情報の入力を受付け、入力された事象識別情報を制御部10に出力する。
外部記録装置60は、それに装着されたCD−ROM(Compact Disc−Read Only Memory)61等の記録媒体にアクセスする。制御部10は、CD−ROM61に記録された触力覚入力プログラムおよび触力覚検索プログラムをロードして実行する。
本実施の形態における触力覚検索システム100では、触力覚検索システム100のユーザは、自己が過去に体験した触力覚を生じさせた事象を特定するための事象識別情報を入力部30に入力しておく。ここでは竿で鯛を釣ったユーザの触力覚を例に説明する。竿で鯛を釣ったときに触力覚を生じさせた事象に対する事象識別情報として「竿で鯛を釣る」という事象識別情報が入力される。
一方、ユーザが触力覚ディスプレイ20の接触部21に触れて、自己が過去に体験した触力覚を生じさせた事象を再現する。これにより、接触部21が移動され、この移動に伴ってパラメータ検出部23でパラメータが検出される。ここでは、事象識別情報入力部31に「竿で鯛を釣る」という事象識別情報が入力されたので、ユーザは、竿で鯛を釣ったときに経験した触力覚を思い出しながら、その時の竿の動きを接触部21で再現する。これにより、ユーザが過去に竿で鯛を釣ったときに経験した触力覚が、定量的なパラメータに変換される。
制御部10は、記憶部11と、比較抽出部12とを含む。記憶部11は、パラメータ検出部23からパラメータが入力され、入力部30の事象識別情報入力部31から事象識別情報が入力され、ユーザ識別情報入力部32からユーザ識別情報が入力される。記憶部11は、入力されたパラメータと、事象識別情報と、ユーザ識別情報とを関連付けて触力覚データベース50に記憶する。これにより、ユーザが過去に経験した触力覚が触力覚データベース50に記憶される。
図3は、触力覚データのフォーマットの一例を示す図である。触力覚データは、ユーザ識別情報と、事象識別情報と、パラメータとを含む。このため、触力覚データベース50は、ユーザ毎に、事象とパラメータとを関連付けた触力覚データを記憶する。人の触力覚には個人差があるため、二人が同じ事象を体験して感じた触力覚が異なる場合がある。このため、本実施の形態における触力覚データベース50では、触力覚データにユーザ識別情報を含めて、個人別に記憶するようにしている。
図2に戻って、制御部10は、比較抽出部12をさらに含む。比較抽出部12は、パラメータ検出部23からパラメータが入力される場合と、事象識別情報入力部31から事象識別情報が入力される場合とがある。比較抽出部12は、パラメータが入力されると、入力されたパラメータをキーにして触力覚データベース50を検索し、事象識別情報を抽出する。そして、抽出した事象識別情報を表示部40に表示させる。これにより、ユーザが接触部21を操作して、過去に体験した触力覚を入力することにより、その触力覚を感じさせた事象を特定する事象識別情報が表示部40に表示される。パラメータをキーにした触力覚データベース50の検索は、触力覚データを順に選択し、選択した触力覚データのパラメータとキーとなるパラメータとを比較する。比較の結果、両者が類似する場合には、その触力覚データの事象識別情報を抽出するのである。類似の判断は、たとえば、2つのパラメータの距離が所定のしきい値以内であれば類似すると判定するようにすればよい。2つのパラメータの距離は、たとえばパラメータ空間内で2点間のユークリド距離を求めるようにすればよい。複数の事象識別情報が抽出される場合があり得るが、その場合には複数の事象識別情報が表示部40に表示される。たとえば、ユーザが、竿で鯛を釣った経験があり、その触力覚を身体で覚えているけれども魚の種類を忘れてしまったような場合、身体で覚えている触力覚を入力すれば、竿で鯛を釣るとの事象識別情報が表示部40に表示されるので、ユーザは、触力覚を生じさせた事象を思い出すまたは確認することができる。
比較抽出部12は、事象識別情報が入力されると、入力された事象識別情報をキーにして触力覚データベース50を検索し、パラメータを抽出する。そして、抽出したパラメータを駆動制御部22に出力する。これにより、入力された事象識別情報で特定される事象が接触部21により再現される。事象識別情報をキーにした触力覚データベース50の検索は、触力覚データを順に選択し、選択した触力覚データの事象識別情報とキーとなる事象識別情報とを比較する。比較の結果、両者が一致する場合には、その触力覚データのパラメータを抽出するのである。たとえば、ユーザが、竿で鯛を釣った経験がない場合、竿で鯛を釣るとの事象識別情報を事象識別情報入力部31に入力すれば、ユーザはその触力覚を接触部21で体験することができる。このため、触力覚を他人に伝達することができる。
図4は、第1の実施の形態における触力覚検索システムの制御部で実行される触力覚入力処理の流れを示すフローチャートである。この触力覚入力処理は、CD−ROM61に記録された触力覚入力プログラムが制御部10にロードされて、実行されることにより実現される処理である。図4を参照して、まず、触力覚検索システム100を使用するユーザのユーザ識別情報が入力される(ステップS01)。次に、事象識別情報が入力される(ステップS02)。ここでは、竿で鯛を釣ったときに触力覚を生じさせた事象に対する事象識別情報「竿で鯛を釣る」が入力されたとする。次に、パラメータが制御部10に入力される(ステップS03)。このパラメータは、ユーザが接触部21を操作して、過去に竿で鯛を釣ったときに感じた触力覚を生じさせた事象を再現することにより入力される。再現される事象は、ここでは竿から伝わる力を含む竿の動きである。ユーザによる接触部21の操作に伴って、パラメータ検出部23でパラメータが検出され、検出されたパラメータが制御部10に入力される。なお、一度の入力で触力覚を生じさせた事象を再現することができなかった場合には、事象が再現されるまでステップS03が繰り返されることになる。ステップS04では、ステップS01で入力されたユーザ識別情報と、ステップS02で入力された事象識別情報と、ステップS03で入力されたパラメータとを関連付けた触力覚データを生成する。そして、生成した触力覚データを触力覚データベース50に記憶する(ステップS05)。
図5は、第1の実施の形態における触力覚検索システムの制御部で実行される触力覚検索処理の流れを示すフローチャートである。この触力覚検索処理は、CD−ROM61に記録された触力覚検索プログラムが制御部10にロードされて、実行されることにより実現される処理である。図5を参照して、まず、事象識別情報が入力されたか否かが判断される(ステップS11)。事象識別情報が入力されればステップS12に進むが、そうでなければステップS15に進む。ステップS12では、入力された事象識別情報をキーにして、触力覚データベース50を検索する。そして、パラメータが抽出されたか否かがが判断される(ステップS13)。この判断は、入力された事象識別情報に一致する事象識別情報を含む触力覚データが抽出されたか否かによる。パラメータが抽出されたならステップS14に進むが、そうでなければ処理を終了する。ステップS14では、抽出されたパラメータを駆動制御部22に出力する。これにより、ステップS11で入力された事象識別情報で特定される事象が接触部21により再現される。ステップS14の後、処理を終了する。
ステップS15では、パラメータが入力されたか否かが判断される(ステップS11)。パラメータが入力されればステップS16に進むが、そうでなければ処理を終了する。
パラメータの入力は、パラメータ検出部23からパラメータが入力されたか否かにより判断される。ステップS16では、入力されたパラメータをキーにして、触力覚データベース50を検索する。そして、事象識別情報が抽出されたか否かが判断される(ステップS17)。この判断は、入力されたパラメータに類似するパラメータを含む触力覚データが抽出されたか否かによる。事象識別情報が抽出されたならステップS18に進むが、そうでなければ処理を終了する。ステップS18では、抽出された事象識別情報を表示部40に出力して表示させる。そして、ステップS15で入力されたパラメータを駆動制御部22に出力する(ステップS19)。これにより、ステップS15で入力されたパラメータに従って接触部21が駆動される。このようにして、ユーザが接触部21を操作して過去に体験した触力覚を入力することにより、その触力覚を感じさせた事象を特定する事象識別情報が表示部40に表示される。
パラメータの入力は、パラメータ検出部23からパラメータが入力されたか否かにより判断される。ステップS16では、入力されたパラメータをキーにして、触力覚データベース50を検索する。そして、事象識別情報が抽出されたか否かが判断される(ステップS17)。この判断は、入力されたパラメータに類似するパラメータを含む触力覚データが抽出されたか否かによる。事象識別情報が抽出されたならステップS18に進むが、そうでなければ処理を終了する。ステップS18では、抽出された事象識別情報を表示部40に出力して表示させる。そして、ステップS15で入力されたパラメータを駆動制御部22に出力する(ステップS19)。これにより、ステップS15で入力されたパラメータに従って接触部21が駆動される。このようにして、ユーザが接触部21を操作して過去に体験した触力覚を入力することにより、その触力覚を感じさせた事象を特定する事象識別情報が表示部40に表示される。
<第2の実施の形態>
図6は、第2の実施の形態における触力覚検索システムの機能の概要を示す機能ブロック図である。図6を参照して、触力覚検索システム100Aは、第1の実施の形態における触力覚検索システム100と異なるところは、触力覚ディスプレイ20Aがパラメータ検出部23および編集部24を備えていない点、制御部10Aがパラメータ決定部13を備えている点、および入力部Aが比較結果入力部33を備えている点である。その他の構成は、第1の実施の形態における触力覚検索システム100と同じなので、ここでは異なる点を主に説明する。ここでは、説明を簡単にするために、人が過去に革製品に触れた触覚を記憶しており、その触覚を入力する場合を例に説明する。
図6は、第2の実施の形態における触力覚検索システムの機能の概要を示す機能ブロック図である。図6を参照して、触力覚検索システム100Aは、第1の実施の形態における触力覚検索システム100と異なるところは、触力覚ディスプレイ20Aがパラメータ検出部23および編集部24を備えていない点、制御部10Aがパラメータ決定部13を備えている点、および入力部Aが比較結果入力部33を備えている点である。その他の構成は、第1の実施の形態における触力覚検索システム100と同じなので、ここでは異なる点を主に説明する。ここでは、説明を簡単にするために、人が過去に革製品に触れた触覚を記憶しており、その触覚を入力する場合を例に説明する。
第2の実施の形態における触力覚検索システム100Aにおいて、接触部21は、電気刺激により触覚を生じさせる方式が採用される。この場合、接触部21に与えるパラメータは電圧振幅、位相を含む。
制御部10Aのパラメータ決定部13は、触力覚ディスプレイ20Aの駆動制御部22にパラメータを与える。駆動制御部22は、与えられたパラメータに従って接触部21を駆動させる。接触部21に触れたユーザは、接触部21に触れた感覚を触覚として認識する。
そして、ユーザが、接触部21に触れて認識する触覚と、ユーザが記憶している過去の触覚、ここでは革製品に触れたときに認識した触覚とを比較して、その比較結果を比較結果入力部33に入力する。比較結果には、(1)接触部21に触れて認識する触覚と、ユーザが記憶している触覚とが一致すると判断した比較結果と、(2)接触部21に触れて認識する触覚と、ユーザが記憶している触覚とが一致しないと判断した比較結果とがある。比較結果入力部33は、入力された比較結果をパラメータ決定部13に出力する。
パラメータ決定部13は、比較結果入力部33から入力された比較結果が、一致すると判断した比較結果の場合、触力覚ディスプレイ20Aに与えたパラメータを記憶部11に出力する。記憶部11は、パラメータ決定部13からパラメータが入力され、入力部30Aの事象識別情報入力部31から事象識別情報が入力され、ユーザ識別情報入力部32からユーザ識別情報が入力される。記憶部11は、入力されたパラメータと、事象識別情報と、ユーザ識別情報とを関連付けて触力覚データベース50に記憶する。これにより、ユーザが過去に経験した触覚が触力覚データベース50に記憶される。
パラメータ決定部13は、比較結果入力部33から入力された比較結果が、一致しないと判断した比較結果の場合、新たなパラメータを生成して触力覚ディスプレイ20Aに与える。パラメータ決定部13は、先に触力覚ディスプレイ20Aに与えたパラメータと入力された比較結果とに基づいて、次に触力覚ディスプレイ20Aに出力するための新たなパラメータを生成する。パラメータ決定部13では、比較結果入力部33に一致すると判断した比較結果が入力されるまで、新たなパラメータを生成して触力覚ディスプレイ20Aに与える。
触力覚ディスプレイ20Aに与えるパラメータは、複数種類が準備されている。このためパラメータ決定部13では、複数種類のパラメータのうちから各種類のパラメータを決定して1組のパラメータを生成し、生成した1組のパラメータを出力する。新たなパラメータの生成は、たとえば、二分割探索法を用いて生成される。これにより、パラメータ決定部13でパラメータを生成する回数を少なくすることができ、目標とするパラメータに早期にたどり着くことができる。
また、制御部10Aにパラメータを変化させるための入力スイッチを接続して、ユーザがその入力スイッチを操作することにより、新たなパラメータを定めるようにしてもよい。さらに、ユーザによる指示と、二分割探索法とを併用するようにしてもよい。なお、ここでは二分割探索法を用いる例を説明するが、最適なパラメータを求めるための手法はこれに限定されるものではなく、他にも多く知られている探索手法を用いてもよい。
制御部10Aがパラメータ決定部13を有することにより、触力覚ディスプレイ20Aと、パラメータ決定部13と、比較結果入力部33とで、触覚を入力することが可能な触力覚入力装置が構成される。
図7は、第2の実施の形態における触力覚検索システムの制御部で実行される触力覚入力処理の流れを示すフローチャートである。図7を参照して、図4に示した触力覚入力処理と異なる点は、ステップS03に代えてステップS06からステップS09が実行される点である。ステップS06では、パラメータが選択され、次のステップS07で、選択されたパラメータが触力覚ディスプレイ20Aに出力される。これにより、ユーザは、触力覚ディスプレイ20Aの接触部21に触れて触覚を認識する。ユーザは、接触部21に触れて認識された触覚と、過去に革製品に触れたときに認識した触覚とが同じか否かを比較する。そして、ユーザにより、その比較結果が入力される(ステップS08)。ステップS09では、比較結果が、ユーザが触力覚ディスプレイ20Aにより再現される接触部21の表面形状から感じる触覚が、過去に革製品に触れたときに認識した触覚と一致することを示すか否かが判断される。一致するとされた場合にはステップS04に進み、そうでなければステップS06に戻る。
ステップS06に戻る場合、次に行われるステップS06では、先にステップS06が実行されて選択されたパラメータと、ステップS08で入力された比較結果とに基づいて、二分割探索法を用いて次のパラメータが選択される。
ステップS04では、ステップS01で入力されたユーザ識別情報と、ステップS02で入力された事象識別情報と、ステップS06で最後に選択されたパラメータとを関連付けた触力覚データを生成する。そして、生成した触力覚データを触力覚データベース50に記憶する(ステップS05)。
図8は、第2の実施の形態における触力覚検索システムの制御部で実行される触力覚検索処理の流れを示すフローチャートである。図8を参照して、図5に示した第1の実施の形態における触力覚検索システムと異なる点は、ステップS15とステップS16との間にステップS06〜ステップS09が実行される点である。このステップS06〜ステップS09は、図7に示した触力覚入力処理のステップS06〜ステップS09の処理とそれぞれ同じである。ステップS15では、パラメータの入力か、事象識別情報の入力かのいずれかが判断される。そして、パラメータの入力と判断された場合にステップS06に進む。ステップS06〜ステップS09については上述したのと同じなのでここでは説明を繰り返さない。
以上説明したように本実施の形態における触力覚検索システム100によれば、ユーザが過去に体験した触力覚を生じさせた事象と同じ事象を触力覚ディスプレイ20,20Aに出力にさせるためのパラメータが、ユーザが過去に体験した触力覚を生じさせた事象と関連付けてユーザごとに記憶される。このため、人が過去に体験した触力覚を、複合的な感覚を取り扱うことなく、定量的なパラメータで記憶することが可能となる。
また、触力覚は、人の主観的な感覚であるが、これを定量的なパラメータで記憶することにより、触力覚を客観的なものとして取り扱うことができる。このため、ある人が感じた触力覚を、他人に正確に伝達することができる。さらに、事象とパラメータとの組をデータベース化することにより、このデータベースを用いて、触力覚をキーにして事象を抽出することが可能となる。たとえば、革製品に触れる事象と、その革製品に触れて感じる触覚に対するパラメータとを含む触力覚データをデータベース化しておけば、触覚をキーにして、キーとなる触覚が得られる革製品を抽出することができる。
さらに、触力覚をキーにして事象を抽出することにより、たとえば、「その手触りに近いものは羊のスエード、仔牛のスエードの順になります。」などの検索結果を表示することができる。さらに、触力覚と製品とを関連付けることにより「この感覚に近い羊のスエードを使った製品は、製品Aです。」などの検索結果を表示することができる。
上述した触力覚検索システム100,100Aにおける制御部10,10Aと、入力部30,30Aと、触力覚データベース50と、表示部40と、外部記録装置60とは、一般的なコンピュータで実現することが可能である。コンピュータのハード構成およびその機能は周知なのでここでは説明を繰り返さないが、制御部10,10Aは中央演算装置(CPU)に、入力部30,30Aはキーボードまたはマウスなどのポインティングデバイスに、触力覚データベース50は磁気記録装置または半導体メモリに、表示部40は表示用ディスプレイに、外部記録装置60はCD−ROMドライブにそれぞれ相当する。
なお、本実施の形態においては触力覚検索システム100,100Aについて説明したが、図4および図7に示した触力覚入力処理、図5および図8に示した触力覚検索処理を触力覚検索システム100に実行させる方法、または、コンピュータに実行させるための触力覚入力プログラムおよび触力覚検索プログラムとして発明を捉えることができるのはいうまでもない。
触力覚入力プログラムおよび触力覚検索プログラムを記憶する記録媒体としては、CD−ROMに限らず、フレキシブルディスク、カセットテープ、光ディスク(MO(Magnetic Optical Disc/MD(Mini Disc)/DVD(Digital Versatile Disc))、ICカード(メモリカードを含む)、光カード、マスクROM、EPROM、EEPROMなどの半導体メモリ等の固定的にプログラムを担持する媒体でもよい。また、ここでいうプログラムは、制御部10により直接実行可能なプログラムだけでなく、ソースプログラム形式のプログラム、圧縮処理されたプログラム、暗号化されたプログラム等を含む。
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
10,10A 制御部、11 記憶部、12 比較抽出部、13 パラメータ決定部、20,20A 触力覚ディスプレイ、21 接触部、22 駆動制御部、23 パラメータ検出部、30,30A 入力部、31 事象識別情報入力部、32 ユーザ識別情報入力部、33 比較結果入力部、40 表示部、50 触力覚データベース、60 外部記録装置、100,100A 触力覚検索システム。
Claims (7)
- 人が過去に体験した触力覚を入力するための触力覚入力手段と、
人に触力覚を体験させる事象を発生する触力覚出力手段と、
前記触力覚入力手段に入力された触力覚を記憶する記憶手段と、
前記記憶手段に記憶された触力覚のうちから所定の条件を満たす触力覚を抽出する抽出手段と、
前記触力覚出力手段を制御して、前記抽出手段により抽出された触力覚を人に体験させる事象を発生させる制御手段と、を備えた触力覚検索システム。 - 前記抽出手段は、前記記憶手段に記憶された触力覚のうちから前記触力覚入力手段に入力された触力覚に類似する触力覚を抽出する、請求項1に記載の触力覚検索システム。
- 事象を識別する事象識別情報が入力される事象識別情報入力手段をさらに備え、
前記記憶手段は、前記触力覚入力手段に入力された触力覚を前記事象識別情報入力手段に入力された事象識別情報と関連付けて記憶し、
前記抽出手段は、前記事象識別情報入力手段に入力された事象識別情報に一致する事象識別情報と関連付けられた触力覚を抽出する、請求項1に記載の触力覚検索システム。 - 前記触力覚出力手段は、人が接触可能な接触部と、
パラメータが与えられると与えられたパラメータに従って前記接触部を駆動させる駆動制御手段とを含み、
前記触力覚入力手段は、前記接触部が人によって移動されることに応じて、前記触力覚出力手段が前記接触部の移動を再現するために必要なパラメータを検出するパラメータ検出手段を含み、
前記記憶手段は、前記パラメータ検出手段により検出されたパラメータを触力覚として記憶する、請求項1に記載の触力覚検索システム。 - 前記触力覚出力手段は、人が接触可能な接触部と、
パラメータが与えられると与えられたパラメータに従って前記接触部を駆動させる駆動制御手段とを含み、
前記触力覚入力手段は、前記駆動制御手段にパラメータを与えるパラメータ付与手段と、
所定の指示が入力されると、前記パラメータ付与手段が前記駆動制御手段に与えたパラメータを人が感じた触力覚として決定するパラメータ決定手段を含み、
前記記憶手段は、前記パラメータ検出手段により決定されたパラメータを触力覚として記憶する、請求項1に記載の触力覚検索システム。 - 人が過去に体験した触力覚を入力するための触力覚入力手段と、人に触力覚を体験させる事象を発生する触力覚出力手段とに接続されたコンピュータで実行される触力覚検索プログラムであって、
前記触力覚入力手段に入力された触力覚を記憶するステップと、
前記記憶された触力覚のうちから所定の条件を満たす触力覚を抽出するステップと、
前記触力覚出力手段を制御して、前記抽出された触力覚を人に体験させる事象を発生させるステップと、をコンピュータに実行させる触力覚検索プログラム。 - 人が過去に体験した触力覚を入力するための触力覚入力手段と接続されたコンピュータで実行される触力覚検索プログラムであって、
前記触力覚出力手段は、人が接触可能な接触部と、
パラメータが与えられると与えられたパラメータに従って前記接触部を駆動させる駆動制御手段とを含み、
前記駆動制御手段にパラメータを与えるステップと、
所定の指示が入力されると、前記駆動制御手段に与えたパラメータを人が感じた触力覚として決定するステップと、
前記触力覚として決定されたパラメータを記憶するステップと、
前記記憶された触力覚のうちから所定の条件を満たす触力覚を抽出するステップと、
前記触力覚出力手段を制御して、前記抽出された触力覚を人に体験させる事象を発生させるステップと、をコンピュータに実行させる触力覚検索プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005213473A JP2007034439A (ja) | 2005-07-22 | 2005-07-22 | 触力覚検索システムおよび触力覚検索プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005213473A JP2007034439A (ja) | 2005-07-22 | 2005-07-22 | 触力覚検索システムおよび触力覚検索プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007034439A true JP2007034439A (ja) | 2007-02-08 |
Family
ID=37793666
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005213473A Pending JP2007034439A (ja) | 2005-07-22 | 2005-07-22 | 触力覚検索システムおよび触力覚検索プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007034439A (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009008837A (ja) * | 2007-06-27 | 2009-01-15 | National Institute Of Information & Communication Technology | 立体ディスプレイ |
JP2015187862A (ja) * | 2014-03-19 | 2015-10-29 | イマージョン コーポレーションImmersion Corporation | 触覚効果を与えるシステム及び方法 |
JP2016537701A (ja) * | 2013-10-25 | 2016-12-01 | インテル コーポレイション | ユーザ体験をキャプチャおよび生成するための装置及び方法 |
WO2019194037A1 (ja) * | 2018-04-03 | 2019-10-10 | キヤノン株式会社 | 電子機器、電子機器の制御方法およびプログラム |
WO2020209185A1 (ja) * | 2019-04-10 | 2020-10-15 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
US11442340B2 (en) | 2018-04-03 | 2022-09-13 | Canon Kabushiki Kaisha | Electronic apparatus, electronic apparatus control method and storage medium |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07146751A (ja) * | 1993-05-11 | 1995-06-06 | Matsushita Electric Ind Co Ltd | 力覚呈示デバイス、データ入力デバイス、及びデータ入力装置 |
JP2001100880A (ja) * | 1999-09-30 | 2001-04-13 | Fuji Xerox Co Ltd | 情報記憶装置および情報提示装置 |
JP2002132487A (ja) * | 2000-10-25 | 2002-05-10 | Oki Electric Ind Co Ltd | 遠隔作業支援システム |
JP2004021820A (ja) * | 2002-06-19 | 2004-01-22 | Seiko Epson Corp | 画像・触覚情報入力装置、画像・触覚情報入力方法および画像・触覚情報入力プログラム |
-
2005
- 2005-07-22 JP JP2005213473A patent/JP2007034439A/ja active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07146751A (ja) * | 1993-05-11 | 1995-06-06 | Matsushita Electric Ind Co Ltd | 力覚呈示デバイス、データ入力デバイス、及びデータ入力装置 |
JP2001100880A (ja) * | 1999-09-30 | 2001-04-13 | Fuji Xerox Co Ltd | 情報記憶装置および情報提示装置 |
JP2002132487A (ja) * | 2000-10-25 | 2002-05-10 | Oki Electric Ind Co Ltd | 遠隔作業支援システム |
JP2004021820A (ja) * | 2002-06-19 | 2004-01-22 | Seiko Epson Corp | 画像・触覚情報入力装置、画像・触覚情報入力方法および画像・触覚情報入力プログラム |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009008837A (ja) * | 2007-06-27 | 2009-01-15 | National Institute Of Information & Communication Technology | 立体ディスプレイ |
JP2016537701A (ja) * | 2013-10-25 | 2016-12-01 | インテル コーポレイション | ユーザ体験をキャプチャおよび生成するための装置及び方法 |
JP2015187862A (ja) * | 2014-03-19 | 2015-10-29 | イマージョン コーポレーションImmersion Corporation | 触覚効果を与えるシステム及び方法 |
WO2019194037A1 (ja) * | 2018-04-03 | 2019-10-10 | キヤノン株式会社 | 電子機器、電子機器の制御方法およびプログラム |
US11442340B2 (en) | 2018-04-03 | 2022-09-13 | Canon Kabushiki Kaisha | Electronic apparatus, electronic apparatus control method and storage medium |
WO2020209185A1 (ja) * | 2019-04-10 | 2020-10-15 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
JP7484899B2 (ja) | 2019-04-10 | 2024-05-16 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、及びプログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111226288B (zh) | 用于对外科手术视频分段的系统和方法 | |
Florence et al. | Emotional detection and music recommendation system based on user facial expression | |
JP6062547B2 (ja) | 拡張現実を制御するための方法および装置 | |
US7590948B2 (en) | Display information selection apparatus and method, program and recording medium | |
US20200126661A1 (en) | Augmented reality for predictive workflow in an operating room | |
Ding et al. | Service robot system with integration of wearable Myo armband for specialized hand gesture human–computer interfaces for people with disabilities with mobility problems | |
JP2007034439A (ja) | 触力覚検索システムおよび触力覚検索プログラム | |
CN102193627A (zh) | 信息处理装置和方法、以及程序 | |
US11881209B2 (en) | Electronic device and control method | |
KR102222911B1 (ko) | 로봇 상호작용 시스템 및 그를 위한 프로그램 | |
Ding et al. | An adaptive hidden Markov model-based gesture recognition approach using Kinect to simplify large-scale video data processing for humanoid robot imitation | |
CN111314771B (zh) | 一种视频播放方法及相关设备 | |
KR20200056287A (ko) | 시각적 특성을 기초로 한 햅틱 효과 생성 시스템 및 방법 | |
Maas et al. | Biron, what's the topic? a multi-modal topic tracker for improved human-robot interaction | |
WO2008056548A1 (fr) | Dispositif d'estimation cible et procédé d'estimation cible | |
JP7071717B2 (ja) | イベント系列抽出装置、イベント系列抽出方法およびイベント抽出プログラム | |
JPWO2020026799A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
WO2019201822A1 (en) | Tangible mobile game programming environment for non-specialists | |
KR102616505B1 (ko) | 사용자 행동 기반의 실감 학습 콘텐츠 제공 방법 | |
WO2022009504A1 (ja) | 情報検索装置 | |
JP2009075937A (ja) | 機器動作設定装置 | |
EP3933599A1 (en) | Machine learning pipeline | |
Tzanetakis et al. | Assistive music browsing using self-organizing maps | |
JP2018055232A (ja) | コンテンツ提供装置、コンテンツ提供方法、及びプログラム | |
Shree et al. | A Virtual Assistor for Impaired People by using Gestures and Voice |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080326 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100422 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100511 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20100914 |