JP3727490B2 - Tactile information transmission device - Google Patents
Tactile information transmission device Download PDFInfo
- Publication number
- JP3727490B2 JP3727490B2 JP18977999A JP18977999A JP3727490B2 JP 3727490 B2 JP3727490 B2 JP 3727490B2 JP 18977999 A JP18977999 A JP 18977999A JP 18977999 A JP18977999 A JP 18977999A JP 3727490 B2 JP3727490 B2 JP 3727490B2
- Authority
- JP
- Japan
- Prior art keywords
- tactile
- presentation
- category
- selection object
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は触覚情報伝達装置に関し、特に、ディジタル信号によりサービスを提供する統合ディジタル放送(ISDB;Integrated Service Digital Broadcasting)で使われる見出し画面などの視覚的な選択項目から情報にアクセスする際に、視覚的選択オブジェクトを触覚的選択オブジェクトに変換して手指や他の部位の触覚受容器(皮膚感覚)に伝える触覚情報伝達装置に関する。
【0002】
【従来の技術】
現在、バーチャル・リアリティ技術の進展とともに触覚受容器への力感覚フィードバックの研究が盛んになりつつある。例えばテレビジョンの衛星放送などにおいて、画面上の2次元画像情報を触覚や視覚、聴覚のマルチ・モーダルに呈示し、画像から得られる情報にアクセスする研究開発事例は少ない。
【0003】
従来、視覚障害者のための感覚代行として、画像の輪郭情報を抽出し、触覚受容器への2次元または3次元図形情報の伝達を目的とした情報伝達装置の研究が行われている。たとえば「オプタコン」や「TVSS(Tactile Vision Substitution System)」(「視覚障害とその代行技術」、市川他、名古屋大学出版、「生体情報工学」星宮他、共立出版など)などの研究が行われている。
【0004】
いずれの研究も光電変換して得られた画像情報から2値化した情報を抽出して2次元配列の触覚刺激素子を駆動し、当該素子の振動により手指や背中に刺激を呈示するものである。また3次元触覚ディスプレイでは、「盲人用3次元情報表示装置」(医療福祉機器技術研究開発成果報告書)のように2次元上に配置された触覚刺激素子がコンピュータで作成された物体のデータに対応してステッピング・モータにより上下に駆動され、3次元形状を擬似的に呈示する。
【0005】
さらに、コンピュータのGUI(Graphical User Interface)環境を視覚障害者に伝えるため、音声によるGUI画面読み上げソフトが開発されている(「95READER(商標)」、「視覚障害者用Windows画面読み上げソフトウェアの開発とその評価」、渡辺、岡田、ヒューマン・インタフェース68−7)。
【0006】
また上記と同様のGUI環境伝達を、触覚、聴覚のマルチ・モーダルで達成することを目的とした研究が行われている(「触覚ピン・ディスプレイ付きポインティング・デバイスの提案」)。このデバイスは、タッチパネル付きLCD画面に触れることにより、その位置に表示された対話部品の情報を音声で出力する。さらに、タッチパネル上に触覚ディスプレイを搭載し、触覚受容器で対話部品に触れることができる。触覚ディスプレイはたとえば8×8本のピンを2次元に配列し、1本のピンを画面の1ドットに対応させる構成とし、現在のポインティグ座標を中心に8×8ドットの範囲の情報を呈示することが可能である。触覚ディスプレイは絶対座標系としてタッチパネル上で動かすことができ、広範囲の画面情報の触知を可能とする。
【0007】
また、最近のバーチャル・リアティ技術のうち触覚フィードバックでは、たとえば「PHAMTOM」(Sensable Technologies,Inc商標)のような触覚インタフェースを用いて3次元形状やテクスチャの表現が可能である。この装置は、コンピュータ上で作成された3次元図形の空間的情報を、機械的な反力で触覚受容器にフィードバックするものである。「PHAMTOM」を用いたアプリケーションには、仮想的なスイッチを呈示して、これを押下すると画面が切り替わったり、呈示された仮想物体の形状や状態を変えることが可能なものがある。
【0008】
【発明が解決しようとする課題】
現在、視覚障害者がGUI環境においてコンピュータを操作できる有効な手段は確立されていない。また、ISDBの見出し画面を視覚障害者に伝える技術は知られておらず、如何にして画面情報を伝達するかが大きな研究課題となっている。
【0009】
前記従来技術のうちで、「95READER」など音声によるGUI画面読み上げは視覚障害者に有効な手段である。しかし、音声自体は時系列な情報呈示であり、読み上げによって画面上の選択オブジェクトの迅速な検索を行うことは困難であること、画面全体の選択オブジェクトの把握が困難であること等の問題がある。
【0010】
一方、GUI環境であるISDB見出し項目やコンピュータが表示するアイコンを触覚受容器に呈示することは上記問題解決のために有効であるが、画面中で多くの選択オブジェクトを呈示する必要がある。従来技術で前出した「オプタコン」や「TVSS」、あるいは「盲人用3次元情報表示装置」、「触覚ピン・ディスプレイ付きポインティング・デバイス」の触覚呈示装置は、いずれも触覚を刺激するピン等を剣山のように2次元配置している。この場合、1画素を表すドットの間隔には実装上、大きさおよび実装密度に限界がある。すなわち、ドット間隔が大きくなれば図形形状の正確な呈示が困難であり、小さなディスプレイでは呈示できる選択オブジェクト数が制限される。
【0011】
これに対して、従来技術の「PHAMTOM」は微細形状の呈示が可能であり、図形形状を正確に呈示する触覚フィードバック・デバイスとして有効である。しかしながら、人間が触覚受容器で認識できる形状には限界が存在するため、呈示される図形が余りに小さくなると使用者の認識限界を超えるという別の問題が生じる。
【0012】
また、従来技術で、「PHAMTOM」を用いて構成した仮想スイッチを押下することにより次の処理に移行するシーケンスは本発明の利用分野に類似するが、ISDBの見出し画面のような視覚的選択オブジェクトを触覚受容器に呈示することで情報にアクセスすることは考慮していない。すなわち、ISDBなどの選択オブジェクトの持つ属性や番組のカテゴリによっては選択オブジェクトを短時間で探索するのに問題がある。
【0013】
さらに、視覚障害者に選択オブジェクトを伝えるには、従来技術の「触覚ピン・ディスプレイ付きポインティング・デバイス」のように触覚刺激とともに音声や点字で出力して使用者に選択させることも可能である。この方式は単にオブジェクトの有無を呈示するもので、選択オブジェクトが持つカテゴリに基づいて短時間で探索する方式ではない。
【0014】
このように、いずれの従来方式も選択オブジェクトを高速に探索するには困難を伴うという課題がある。
【0015】
本発明は上記の課題に鑑みてなされたものであって、その主たる目的は、視覚、聴覚、触覚のマルチ・モーダルでISDBの見出し画面などの視覚的選択オブジェクトから番組情報等へのアクセスを迅速に行える触覚情報伝達装置を提供することにある。詳細には、本発明は次に列記する各目的を達成することを目指すものである。
【0016】
本発明の第1の目的は、見出し画面など視覚的選択オブジェクトを触覚的選択オブジェクトに変換して触覚受容器に呈示する際に、少ない呈示範囲に多くの選択オブジェクトを呈示でき、かつ、呈示する立体形状や表面テクスチャ、摩擦、呈示高さなどを呈示パラメータとすることで、認識し易く迅速な探索が可能な呈示方法を実施できる触覚情報伝達装置を提供することである。
【0017】
本発明の第2の目的は、視覚的選択オブジェクトの情報を触覚的選択オブジェクトに変換して触覚受容器に呈示する際に、選択オブジェクトの持つ属性性質を即座に認知可能な呈示方法を実施できる触覚情報伝達装置を提供することである。
【0018】
本発明の第3の目的は、見出し画面などの選択オブジェクトに触れることにより項目の内容を音声や点字などのマルチ・モーダルで呈示でき、かつ、選択オブジェクトを押下することにより項目の番組内容にアクセス可能な呈示方法を実施できる触覚情報伝達装置を提供することである。
【0019】
【課題を解決するための手段】
上記課題を解決するために本発明の一態様は、種々の選択項目を表わす視覚的選択オブジェクトを仮想的な三次元的特徴を有する触覚的選択オブジェクトに変換する変換手段と、使用者が装着する刺激生成手段に当該特徴に応じた触覚刺激を出力する出力手段を備えた触覚情報伝達装置であって、前記変換手段は、前記視覚的選択オブジェクトが表す選択項目のカテゴリ情報に基づき前記視覚的選択オブジェクトをカテゴリ毎に分類する分類手段と、前記分類した前記カテゴリ毎に前記触覚的選択オブジェクトの三次元的特徴のいずれかに応じた第1の触覚呈示パラメータを設定し、さらに、該パラメータが設定された各カテゴリについて前記三次元的特徴の前記いずれか以外のものに応じて第2の触覚呈示パラメータを設定する設定手段とを備え、前記出力手段により、前記第1の触覚呈示パラメータにしたがってカテゴリ毎に異なる触覚刺激を出力し、さらに、前記第2の触覚呈示パラメータにしたがって同一カテゴリ内の選択オブジェクト毎に異なる触覚刺激を出力する。
【0020】
ここで、前記変換手段は前記視覚的選択オブジェクトを入力する手段を備え、前記分類手段は、前記視覚的選択オブジェクトの特徴と、画面上の表示の特徴と、前記選択項目の前記カテゴリ情報を抽出する手段と、前記カテゴリ情報に基づき前記視覚的選択オブジェクトをカテゴリ毎に分類する手段を備え、前記設定手段により、前記分類された前記視覚的選択オブジェクトについて、前記触覚的選択オブジェクトの前記三次元的特徴に応じた前記触覚刺激を使用者に呈示するための前記第1および第2の触覚呈示パラメータを設定し、前記出力手段は、前記設定したパラメータに応じて触覚呈示データを作成する手段と、前記刺激生成手段の出力を前記触覚呈示データに基づいて制御することで、前記使用者に前記触覚刺激を呈示する刺激手段とを備えるものであってよい。
【0021】
ここで、前記第1の触覚呈示パラメータは、前記触覚的選択オブジェクトの立体形状、表面粗さ、摩擦特性、呈示高さのいずれかを表し、前記第2の触覚呈示パラメータは、該立体形状、該表面粗さ、該摩擦特性、該呈示高さのうち該いずれか以外のものを表すものであってよい。
【0022】
ここで、前記視覚的選択オブジェクトはISDBデータから得られる見出し画面に表示される見出し項目を含む視覚的設定オブジェクトであり、前記刺激生成手段の位置に応じた画面上の位置にポインタを重畳する重畳手段と、前記ポインタがどの視覚的設定オブジェクトの表示範囲に存在するかを検出するポインタ検出手段と、前記表示範囲に該当する前記見出し項目が押下されたことを検出する押下検出手段と、前記刺激生成手段の移動に同期して、当該移動位置を前記見出し画面に前記ポインタにより表示する表示手段とをさらに有し、前記出力手段は、前記移動にしたがい、前記視覚的選択オブジェクトを変換した前記触覚的選択オブジェクトに応じた触覚刺激をフィードバックし、前記刺激生成手段が前記見出し項目の選択オブジェクト内に存在する時は前記見出し項目のタイトル情報を出力し、前記刺激生成手段で見出し項目の選択オブジェクトを押下したときには見出し項目の階層下の内容を出力するものであってよい。
【0025】
【作用】
上記構成とした本発明によれば、ISDBの見出し画面などの選択オブジェクトの情報から、見出し項目を選択する触覚的な選択オブジェクトを構成することにより、視覚、聴覚、触覚のマルチ・モーダルで情報にアクセスすることを可能とする。
【0026】
具体的には、視覚的な選択オブジェクトの情報から、選択オブジェクトの属性や性質、機能等の特徴、すなわち、番組のタイトルや番組のジャンル、あるいは画面上に表示する位置のデータなどを抽出して、抽出された選択オブジェクトの属性、性質、機能により選択オブジェクトを分類し、分類したカテゴリに対応して立体形状や表面粗さ、摩擦、呈示高さなどの触覚呈示パラメータを設定して、選択オブジェクトを触覚受容器に機械的な力でフィードバックして、機械的な力などの刺激を受ける使用者の手指など、触覚呈示部の位置を視覚的な位置に対応して画面上に表示して、画面上の選択オブジェクトに触れたことを検出し、見出し項目のタイトルを音声あるいは点字などで表示して、仮想的なスイッチが押下されたことを検出し、見出し項目の内容を表示することを可能とする。
【0027】
【発明の実施の形態】
以下、添付図面を参照し、本発明の実施形態を詳細に説明する。
【0028】
まず、図1乃至図2を参照して本発明のISDB見出し画面などの視覚的選択オブジェクトを触覚的選択オブジェクトに変換して呈示する方法を概念的に説明する。
【0029】
図1はISDBでサービスされる見出し画面の項目を模式的に表した例で、それぞれ番組のカテゴリ別に記号で表している。
【0030】
見出し画面10には、各種見出し項目の視覚的選択オブジェクトV1〜V8(映像)、T1(天気)、N1〜N6(ニュース)、E1(番組表)、S1〜S4(リソース切替)が表示されている。
【0031】
図2(a)〜(d)は、見出し画面10中の上記選択オブジェクトを触覚的選択オブジェクトに変換して呈示する方法の例を示す。
【0032】
図2(a)は上記選択オブジェクトを忠実に変換した触覚的選択オブジェクト(触覚情報)を示す。図2(a)に開示された2次元形状が正方形、長方形および略長方形の各凸型形状は、図1中のそれぞれの見出し項目の輪郭で囲まれた部分を、仮想的な立体(3次元)形状、すなわち触覚的選択オブジェクトとして呈示した例である。
【0033】
また図2(b)〜図2(d)は、それぞれの選択オブジェクトを同一サイズで表して空間的な触覚情報密度を低くできるようにした、図2(a)の単純な凸型形状を改変してカテゴリを区別できるようにした各種呈示方法の例を示している。
【0034】
図2(b)〜図2(d)を参照して、前記呈示方法を用いて触覚受容器に視覚的選択オブジェクトを呈示する具体的について説明する。
【0035】
図2(b)は、サイズが同一で異なる立体形状の触覚的選択オブジェクトに変換して視覚的選択オブジェクトを呈示する方法を示す。
【0036】
ここに開示した例では、見出し画面の選択オブジェクトの中で、映像V1〜V8を立方体の選択オブジェクト231〜238、ニュースN1〜N6を球体の選択オブジェクト241〜246、リソース切替S1〜S4を直方体の選択オブジェクト251〜254に変換する。使用者が画面に対応した触/力覚呈示装置で見出し画面に対応した立体形状の選択オブジェクトに触れ、その形状を認識することにより、認識形状に応じて即座に番組のカテゴリを知ることができる。
【0037】
図2(c)は、形状が同一で、それぞれ異なった表面粗さや摩擦力の触覚的選択オブジェクトに変換して視覚的選択オブジェクトを呈示する方法を示す。
【0038】
ここに開示した例では、形状は立方体に統一し、そのテクスチャが異なる各触覚的選択オブジェクトに変換している。すなわち、映像V1〜V8を表面粗さの大きな選択オブジェクト261〜268、ニュースN1〜N6を中程度の表面粗さの選択オブジェクト271〜276、リソース切替S1〜S4を小さな表面粗さの選択オブジェクト281〜284に変換する。この場合は触覚的選択オブジェクトの形状認識が不要であり、単に表面粗さの触感(テクスチャ)のみにより選択オブジェクトのカテゴリの違いを検出することができるため、高速の情報選択を期待できる。
【0039】
図2(d)は、表面粗さが等しく、立体形状の高さが異なる触覚的選択オブジェクトに変換して視覚的選択オブジェクトを呈示する方法を示す。
【0040】
ここに開示した例は図2(c)において画面垂直方向の点線部d−d’の断面を表し、リソース切替S1〜S4の選択オブジェクト281〜284の呈示高さ291を、天気T1の選択オブジェクト288および番組表E1の選択オブジェクト289の呈示高さ292と変えることでカテゴリを区別できるようにしている。当該区別方法は、2次元形状が等しい選択オブジェクトについても3次元の呈示高さを変える方法を示唆するものである。
【0041】
ここで、図2(b)〜図2(d)における選択オブジェクトの位置は、図2(a)の相対的な位置とは異なり如何なる方向に整列、配置させてもよい。
【0042】
図2(b)〜図2(d)を参照して説明したカテゴリ区別可能な各種呈示方法の組み合わせにより選択オブジェクトのカテゴリ情報を呈示してから、さらに同一のカテゴリ内でそれぞれの選択オブジェクトに序列や種類を指定する方法について、以下に図3〜図6を参照して説明する。
【0043】
図3〜図5は、第1のパラメータとして既に開示された表面粗さでカテゴリ分類を行い、ここで開示される第2のパラメータでカテゴリ内の序列や種類を指定する例を示す。
【0044】
図3は同一の大きさを持つ立方体300の四隅を切欠いて指定する方法を開示している。
【0045】
表面粗さが同一の立方体301〜305の四隅をそれぞれ2進数(BCDコード)に対応させ、切欠きを付与される立方体301〜305を4ビットの2進数に対応させることにより、最大16(=24)の序列の指定が可能である。したがって、使用者はまず表面粗さでカテゴリ1であることを検出し、次に例えば右上隅のみ切欠かれた場合には“0001”に対応させてカテゴリ1−1であることを検出し、右下隅のみ切欠かれた場合には“0010”に対応させてカテゴリ1−2であることを検出する等、同一カテゴリ内の序列や種類を検出できる。ここでは、切欠き位置の組み合わせが第2のパラメータである。
【0046】
また、図4は表面粗さが同一で2次元形状も同一の立方体401〜405について、その高さの違いにより同一カテゴリ内の序列や種類を指定する例を開示している。
【0047】
使用者はまず表面粗さでカテゴリ1であることを検出し、次に例えば立方体401は高さゼロに対応させてカテゴリ1−1であることを検出し、例えば立方体402は高さ410(>0)に対応させてカテゴリ1−2であることを検出する等、同一カテゴリ内の序列や種類を検出できる。ここでは、高さが第2のパラメータである。
【0048】
同様に、図5は表面粗さが同一の立体501〜505について、その形状の違いにより同一カテゴリ内の序列や種類を指定する例を開示している。
【0049】
図5において例えば直方体501、横方向の立方体502、縦方向の立方体503、3角柱504、球体505の順にプライオリティを持たせておき、使用者はまず表面粗さでカテゴリ1であることを検出し、次にその形状に対応させて例えばカテゴリ1−1〜カテゴリ1−5であることを検出し、同一カテゴリ内の序列や種類を検出できる。ここでは、3次元形状が第2のパラメータである。
【0050】
一方、図6は第1のパラメータとして既に開示された形状でカテゴリ分類し、既に開示された表面粗さを第2のパラメータとしてカテゴリ内の序列を指定した例を示す。
【0051】
図6は、例えば同一形状の球体601〜605について、その表面粗さの違いにより同一カテゴリ内の序列や種類を指定する例を開示している。球体601は最も表面粗さが小さく、球体605は最も表面粗さが大きく、ハッチングの粗さが表面粗さに対応している。使用者はまず球体であることでカテゴリ1であることを検出し、次にその表面粗さに対応させて例えばカテゴリ1−1〜カテゴリ1−5であることを検出し、同一カテゴリ内の序列や種類を検出できる。
【0052】
図3〜図6のような方法で同一カテゴリ内の序列を指定することにより、たとえば図1が示す番組のカテゴリ種別において、映像V1〜V8に対応したチャンネル指定や天気T1に対応した地域指定など、同一カテゴリ内での指定を触覚のみで選択的に行うことができる。
【0053】
以下に、請求項1〜4に記載の本発明装置を利用した具体的な情報伝達方法を図面に従い説明する。
【0054】
図7はISDBの見出し画面などの視覚的選択オブジェクトを触覚的選択オブジェクトに変換して、触/力覚呈示装置を用いて視覚障害者等、使用者の触覚受容器に刺激を呈示する方法の実施を可能とする触覚情報伝達装置の一実施形態のハードウェア構成例を示す。
【0055】
図7において、視覚的選択オブジェクト・データ部71は、視覚的選択オブジェクトの属性・性質、機能、内容等の特徴、画面に表示される視覚的選択オブジェクトの位置、形状、色などに関するオブジェクト情報を格納する。選択オブジェクト・パラメータ抽出部72は、視覚的選択オブジェクト・データ部71からこれらオブジェクト情報を検出して抽出する。触覚呈示位置設定部73は、触覚呈示部(図示せず)の3次元空間における位置を設定する機能を有する。
【0056】
触覚呈示部は使用者が装着可能に、触/力覚呈示装置80の出力部として設けられ、選択オブジェクトの画面表示位置に対応して使用者の触覚受容器に刺激を呈示する。刺激の呈示はピン振動等の機械的刺激を与える従来方式によって行うことができるが、触/力覚呈示装置80には、仮想物体の立体形状や表面のテクスチャを触覚受容器に触・圧覚、反力を与えて表現できるタイプを使用することが好ましい。
【0057】
選択オブジェクト・カテゴリ分類部74は、選択オブジェクト・パラメータ抽出部72において、選択オブジェクトの属性・性質、機能、内容などで同一のカテゴリ毎に分類する。触覚呈示パラメータ設定部75は、カテゴリ分類された選択オブジェクトについて、立体形状、表面粗さ・摩擦などによる触感(テクスチャ)、あるいは呈示高さを第2のパラメータに設定する。
【0058】
コンピュータ70はCPU,RAM,ROM,補助記憶装置(ハードディスク・ドライブ、CD−ROMドライブ等)を備えた一般的な構成であり、コンピュータ70が処理を司る触覚呈示選択オブジェクト・データ作成部77は触覚呈示パラメータ設定部75で設定されたパラメータに従い、選択オブジェクトの空間的な触覚呈示データを作成する。
【0059】
触覚呈示駆動部79はコンピュータ70の制御に従って触/力覚呈示装置80を駆動し、触/力覚呈示装置80は触覚呈示部により触覚受容器に触覚情報(触覚刺激)を呈示する。触覚呈示位置検出部81は、触/力覚呈示装置80に備え付けられた角度センサを含んで構成され、触覚呈示部の空間位置を検出する。コンピュータ70が処理を司る触覚呈示出力制御部78は、触覚呈示位置設定部73、触覚呈示選択オブジェクト・データ作成部77、および触覚呈示位置検出部81から得られる触覚受容器に呈示する触覚呈示データに従い、触/力覚呈示装置80の出力を制御して使用者の受容器に刺激情報を与える。
【0060】
以下、本発明に係る触覚情報伝達装置の動作について具体的に説明する。
【0061】
図7において、視覚的選択オブジェクト・データ部71が格納する選択オブジェクトの各オブジェクト情報は、その選択オブジェクトが画面上で表示されるべき位置情報や、その属性・性質、機能、内容などの特徴情報を選択オブジェクト・パラメータ抽出部72によって抽出される。触覚呈示位置設定部73は、選択オブジェクト・パラメータ抽出部72から得られた選択オブジェクトの位置情報に基づいて、触/力覚呈示装置80が呈示可能な適切な3次元空間位置を設定する。
【0062】
また選択オブジェクト・パラメータ抽出部72により抽出された選択オブジェクトの属性・性質などに関する情報は、選択オブジェクト・カテゴリ分類部74においてそれぞれの選択オブジェクトの持つデータが解読され、所望のカテゴリに分類される。
【0063】
触覚呈示パラメータ設定部75は、分類されたそれぞれのカテゴリ毎に適切な立体形状、表面粗さ・摩擦力、呈示高さのパラメータを設定する。さらに触覚呈示選択オブジェクト・データ作成部77では、それぞれの選択オブジェクトについて触覚呈示パラメータ設定部75で設定された値を基に、触/力覚呈示装置80が触覚受容器に反力を返すべき3次元位置に対応した触覚呈示データを作成する。
【0064】
視覚的選択オブジェクト(格納したオブジェクト情報)からこのようなデータ生成によって触覚的選択オブジェクトに変換された選択オブジェクトは、触覚呈示位置情報設定部73が設定した空間位置に仮想的立体として存在することになる。
【0065】
仮想的な選択オブジェクトを実際に触覚により探索する動作は、以下のように行うことができる。
【0066】
まず、触覚受容器が分布した手指を前述した触覚呈示部に装着、固定し、触覚呈示部を移動させる。この移動にしたがい、触覚呈示位置検出部81が触覚呈示部の空間的な位置を検出し、検出位置は触覚呈示出力制御部78において触覚呈示選択オブジェクト・データ作成部77が作成した空間位置の触覚呈示データと比較される。そして、触覚呈示出力制御部78を用いたフィードバック制御により触覚呈示駆動部79を駆動して触/力覚呈示装置80による反力を制御することにより、あたかも選択オブジェクトが存在するような感覚を手指に与え、その立体形状や触感により選択オブジェクトを認識させることができる。後述の仮想スイッチ(選択オブジェクト)を押下させることもできる。
【0067】
上記したように、視覚的オブジェクトを各種の触覚呈示パラメータで表される触覚的オブジェクトに変換し、手指などの触覚受容器を働かすことにより空間位置の呈示情報に対応した仮想的な選択オブジェクトの触感が得られ、選択オブジェクトを実際に探索、押下することができる。
【0068】
これにより、見出し画面など視覚的選択オブジェクトを触覚的選択オブジェクトに変換して触覚受容器に呈示する際に、少ない呈示範囲に多くの選択オブジェクトを呈示でき、かつ、呈示する立体形状や表面テクスチャ、摩擦、呈示高さなどを呈示パラメータとすることで、認識し易く迅速な探索を行うことができ、選択オブジェクトの持つ属性性質を即座に認知させることができる。
【0069】
次に、本発明の一実施形態におけるISDB見出し画面情報の触覚情報伝達および情報アクセス方法について詳細に説明する。
【0070】
図8は本発明の請求項6に示す、ISDBの見出し画面を番組のジャンルで分類し、触覚受容器に呈示するためのハードウェアとそのソフトウェア構成を示すブロック構成図である。図8において、図7中の構成要素と同一構成要素には同一符号を付し、その説明を適宜省略する。
【0071】
ISDBデータ受信部801は、外部から見出し画面情報等のISDBデータを受信/入力する。見出し画面インデックス情報抽出部802は、ISDBの見出し画面情報を抽出する。触覚呈示位置設定部73は、触/力覚呈示装置80の触覚呈示位置を設定する。番組カテゴリ分類部804は、見出し画面インデックス情報抽出部802において、番組のカテゴリ情報に従い選択オブジェクトを分類する。触覚呈示パラメータ設定部75は、番組カテゴリ分類部804で分類された選択オブジェクトに適切な立体形状、表面粗さ、摩擦力、呈示高さなどのパラメータを設定する。
【0072】
触覚呈示選択オブジェクト・データ作成部77は、触覚呈示パラメータ設定部75で設定されたパラメータから仮想スイッチ機能を持った立体的な選択オブジェクトを作成し、これにより実際に2/3次元の触覚刺激呈示を行うことができる。触覚呈示出力制御部78は、触覚呈示位置設定部73、触覚呈示オブジェクト・データ作成部77、および触覚呈示位置検出部81から得られる触覚受容器に呈示する触覚呈示データに従い、触/力覚呈示装置80の出力を制御する。触覚呈示駆動部79は、触/力覚呈示装置80を駆動して移動させる。触覚呈示位置検出部81は、触/力覚呈装置80の触覚呈示部の空間位置を検出する。
【0073】
812〜814は見出し項目および番組内容のメモリ部を示す。見出し項目メモリ812は、見出し項目のタイトル情報を記憶する。番組情報メモリ813は、タイトルから選択された番組の内容を記憶する。画面位置情報メモリ814は、見出し項目の選択オブジェクトが画面上で表示される位置情報を記憶する。見出し項目情報出力部815は、見出し項目メモリ812から見出し項目の選択オブジェクトのタイトル情報を読み出し、出力する。番組内容出力部816は、番組情報メモリ813から番組の内容を読み出し、出力する。
【0074】
音声合成装置817は項目情報出力部815の見出し項目内容のテキスト・データの出力装置であり、当該テキスト・データに応じた合成音声を出力する。点字ディスプレイ装置818は番組内容出力部816の見出し項目内容のテキスト・データの出力装置であり、当該テキスト・データに応じた刺激を所定の点字方式により呈示する。
【0075】
触覚呈示/画面位置比較検出部819は、触覚呈示位置検出部81が検出した選択オブジェクトの触覚呈示位置と画面位置情報メモリ814からの画面表示位置を比較し、誤差信号を出力する。ポインタ重畳位置設定部820は、触覚呈示/画面位置比較検出部819から出力された誤差信号に基づいて画面上に重畳するポインタの位置設定を行う。選択オブジェクト押下検出部823は、触覚呈示オブジェクト・データ作成部77からの触覚呈示データと触覚呈示位置検出部81が検出した選択オブジェクトの触覚呈示位置を比較し、これにより、触覚刺激呈示された見出し項目の選択オブジェクトが押下されたことを検出する。
【0076】
モニタ装置822は表示画面を備えている。ポインタ重畳部821は、ポインタ重畳位置設定部820で設定された表示画面上の位置に、たとえば矢印などのポインタを重畳してISDBの見出し画面に表示させる。
【0077】
コンピュータ800はCPU,RAM,ROM,補助記憶装置(ハードディスク・ドライブ、CD−ROMドライブ等)を備えた一般的な構成であり、コンピュータ800が触覚呈示選択オブジェクトデータ作成部77、触覚呈示出力制御部78、各メモリ部812〜814、項目情報出力部815、番組内容出力部816、触覚呈示/画面位置比較検出部819、ポインタ重畳位置設定部820、選択オブジェクト押下検出部823の処理を司る。
【0078】
図9,図10は図8のハードウェアを動作させるソフトウェアの処理の流れを示すフローチャートである。
【0079】
以下、本実施の形態の動作例について図8、図9,図10、および図1を参照して説明する。
【0080】
ISDBデータ受信部801で受信されたISDB見出し画面10などの映像は、モニタ装置22に常時表示される。
【0081】
図9において、まず、ISDBデータ受信部801が受信したISDBデータから、見出し画面インデックス情報抽出部802により、データ信号をISDB見出し画面10のインデックス情報として抽出する(ST1)。抽出されたデータ信号について、次の3つのプロセスが実行される。
【0082】
一つ目のプロセスはST2〜ST4に示す処理である。すなわち、まず番組カテゴリ分類部804により、見出し項目の選択オブジェクトを番組内容などのカテゴリ別に分類する。続いて触覚呈示パラメータ設定部75により、それぞれ分類された見出し項目の選択オブジェクトについてカテゴリ別に触覚刺激呈示時の立体形状、表面粗さ・摩擦力、呈示高さなどのパラメータを設定する。さらに、触覚呈示選択オブジェクト・データ作成部77により、パラメータを設定された見出し項目の選択オブジェクトを実際に触覚受容器に機械的な反力を与え呈示するための立体的な選択オブジェクトの触覚呈示データを作成し、メモリに格納する。
【0083】
2つ目のプロセスはST5〜ST6に示す処理である。すなわち、まず選択オブジェクトをモニタ装置22の表示画面に表示する際の見出し項目の位置情報を画面位置情報メモリ814に格納する。続いて触覚呈示位置設定部73により、見出し項目の選択オブジェクトに対応して触覚呈示情報を設定し、触/力覚呈示装置80が有効な空間領域で触覚刺激を呈示する位置を設定する。
【0084】
3つ目のプロセスはST7,ST8に示す処理である。すなわち、見出し項目の選択オブジェクトのタイトルを表すテキスト・データを番組情報メモリ813に格納する。さらに、そのタイトルの階層下の内容も番組情報メモリ813に格納する。上記3プロセスの実行順序は、上記順序に限定されない。
【0085】
以上で、受信ISDBデータなどから触覚刺激呈示に関係するデータの設定が終了する。設定に続いて、図10のステップST10〜ST13に示すシーケンスにしたがって触/力覚呈示装置80による触覚刺激呈示動作が行われる。
【0086】
触/力覚呈示装置80において、手指の動きに伴い触覚呈示部が変位するとその移動位置を触覚呈示部位置検出部811により検出する(ST10)。触覚呈示部の位置が移動したかを判断し(ST11)、当該移動を検出したときは移動した触覚刺激呈示位置とオブジェクト出力との対応を判断する(ST12)。すなわち、その移動位置を、触覚呈示位置設定部73によりST6で設定された見出し項目の選択オブジェクトの位置情報、および触覚呈示選択オブジェクト・データ作成部77によりST4で作成された見出し項目の選択オブジェクトの触覚情報から得られる触覚呈示データを比較し、対応がとれていれば、触/力覚呈示装置80の触覚呈示部の位置に対応した反力を与えるように触覚呈示出力制御部78によるフィードバック制御を行う(ST13)。
【0087】
上記フィードバック制御を行う一方で、触覚呈示部の位置が移動したことに伴い、画面表示側では触覚呈示部が表示画面上の位置と一致するような制御がST12,ST13と並列的に行われる。すなわち、ステップST11において触覚呈示部が移動したときはST14でST5とST6の処理結果を用い、触覚呈示選択オブジェクト・データ作成部77で作成された選択オブジェクトの画面上の表示位置と、触/力覚呈示装置80の触覚呈示部の空間的な触覚呈示位置を比較する。
【0088】
触覚呈示/画面位置比較検出部819において、触覚呈示部の画面上での位置を示すポインタの画面上の位置と、3次元空間内の触覚呈示部の位置との差分を検出し(ST15)、差がなければST24に進んでST14と同様の処理を行う。差があればポインタ重畳位置設定部820、ポインタ重畳部821にて画面上のポインタ位置を制御してポインタの表示を行って(ST16)、ST24に進む。
【0089】
これにより、常に触/力覚呈示装置80で、触覚呈示部を移動したときに、触覚的には見出し項目の選択オブジェクトに触れることができ、視覚的にはそれに同期した動きにより仮想的に空間上に存在する見出し項目の選択オブジェクトを確認することができる。
【0090】
続いて、見出し項目からその内容にアクセスするシーケンスを図10のST24〜ST36に従い説明する。
【0091】
ポインタ位置を制御して表示したときの画面上のポインタ位置と触覚刺激呈示の位置から、触覚呈示部位置、すなわちポインタ位置が見出し項目の選択オブジェクトの表示範囲(仮想スイッチ位置)に存在するか否かの判断を行う(ST24,25)。ここで当該範囲内に在るときは見出し項目メモリから該当する見出し項目のテキスト・データを用い、音声合成装置817あるいは点字ディスプレイ装置818により音声または点字刺激で出力する(ST26)。当該範囲内になければST10に戻る。
【0092】
また、触覚呈示部が選択オブジェクトの範囲内に存在し、かつ選択オブジェクト押下検出部823により選択オブジェクト(仮想スイッチ)の押下が検出されたときは(ST35)、番組情報メモリ813に格納した見出し項目の階層下にある内容のテキスト・データを音声合成装置817あるいは点字ディスプレイ装置818に出力し、当該テキスト・データを用いた出力を行う(ST36)。押下が検出されなければST10に戻る。
【0093】
以上、視覚的選択オブジェクトを触覚に伝達する場合の、触覚受容器への情報伝達(刺激呈示)に関する本発明の実施形態を説明した。
【0094】
本実施形態によれば、選択オブジェクトの属性や性質を表す付加情報から選択オブジェクトの画面上の位置情報や表示形式、あるいは選択オブジェクトのタイトルや番組内容などの分類情報を検出し、番組内容の分類による触覚受容器への呈示には、カテゴリ毎に区別された立体形状や表面粗さ、摩擦、呈示高さなどの特性を有する選択オブジェクトに変換して触覚受容器に呈示するとともに使用者が選択オブジェクトに触れたとき画面上にはその位置を矢印や手などの記号で表示し、見出し項目の内容を音声あるいは点字で出力する。また、選択オブジェクトを押下することにより当該見出し項目が選択され、階層下に蓄えられた番組内容のデータにアクセスすることができる。
【0095】
これにより、視覚障覚者や盲ろう者が、画面を触れながら統合ディジタル放送の見出し画面などの視覚的選択オブジェクトから情報にアクセスすることを可能とする他、健常者が画面を見ながら視覚と同時に触覚受容器にも情報が与えられるマルチ・モーダル呈示により、選択オブジェクトの高速探索が可能になるなど、障害者・健常者に使い易い情報アクセスのインタフェースを提供することができる。
【0096】
なお上記実施形態ではISDBの見出し画面など視覚的選択オブジェクトから触覚的な仮想スイッチ機能を有するオブジェクトに変換して触覚受容器に呈示し、情報にアクセスする方法を説明したが、コンピュータのアイコンなどの触覚呈示方法として適用することも可能である。
【0097】
また上記実施形態では、触/力覚呈示装置を用いて視覚的選択オブジェクトを3次元的に触覚呈示する例を実施したが、表面粗さや形状によって視覚的選択オブジェクトを触覚呈示する別の方法として、マイクロマシンやその他微小アクチュエータなどの手段を用いた構成により2次元的に触覚受容器に呈示する方法もあり、当該方法にも本発明を適用できることは自明である。
【0098】
この2次元の触覚呈示方法は、機械的スイッチまたは導電性スイッチによる押しボタンを備えたリモート・コントロール装置を、例えば図11に示すように構成することでも実施できる。
【0099】
図11において、リモート・コントロール装置1100はISDBを受信して図1の見出し画面を表示可能なテレビジョン受像機のリモコン装置であり、上記スイッチによる押しボタン1101〜1122を夫々所定位置に備えている。このボタン設置位置は、見出し画面中の見出し項目表示位置と1対1で対応している。
【0100】
さらに、押しボタン1101〜1108は図1中の各種見出し項目の視覚的選択オブジェクトV1〜V8(映像)に、押しボタン1109〜1112は視覚的選択オブジェクトS1〜S4(リソース切替)に、押しボタン1113〜1120は視覚的選択オブジェクトN1〜N6(ニュース)に、押しボタン1121はE1(番組表)に、押しボタン1122に夫々対応するよう見出し項目ごとに異なる表面粗さに、そのボタン表面の触感を形成されている。図11中の各種ハッチングは図2(c)中のハッチングと同様の表面粗さを示している。
【0101】
このように、複数の見出し項目をもつ見出し画面と対応させて見出し項目ごとに押しボタン1101〜1122の触感を形成することで、押しボタンを複数備えたリモート・コントロール装置であっても、押しボタン1101〜1122に触れたときの触感により当該ボタンが示す見出し項目を使用者に知らせて、迅速な選択を可能とすることができる。表面粗さの設定は番組のジャンルごと、またはチャンネル切替などの操作機能別に行うことができる。
【0102】
【発明の効果】
以上説明したように本発明によれば、視覚的なオブジェクト情報を探索する場合、視覚的選択オブジェクトを仮想的な三次元的特徴を有する触覚的選択オブジェクトの特徴に応じた触覚情報に変換して使用者の触覚受容器に呈示するので、視覚障覚者等の使用者がISDBやコンピュータのGUI環境において見出し画面あるいはアイコンから所望の情報にアクセスすることを可能とすることができる。
【0103】
また、選択オブジェクトの触覚呈示において、選択オブジェクトの有する属性・性質あるいは機能や内容等の特徴をカテゴリで分類し、カテゴリに応じて立体形状や表面粗さ、摩擦などのテクスチャあるいは呈示高さなどを設定することにより短時間に選択オブジェクトのカテゴリが認識され、かつ呈示条件を組み合わせることで同一カテゴリ中で序列を指定することができ、ひいては触覚のみにより選択オブジェクトを認知することを可能とする他、視覚と同期してマルチ・モーダルに呈示することにより、視覚障害者、晴眼者を問わず選択オブジェクトへの迅速な探索を可能とし、使い易い情報アクセスのインタフェースを期待することができる。
【図面の簡単な説明】
【図1】ISDBでサービスされる見出し画面の項目を模式的に表す説明図である。
【図2】見出し画面中の選択オブジェクトを触覚的選択オブジェクトに変換して呈示する方法の例を表す説明図である。
【図3】第1のパラメータと第2のパラメータを組み合わせて同一カテゴリ内の序列や種類を指定する例を示す説明図である。
【図4】第1のパラメータと第2のパラメータを組み合わせて同一カテゴリ内の序列や種類を指定する例を示す説明図である。
【図5】第1のパラメータと第2のパラメータを組み合わせて同一カテゴリ内の序列や種類を指定する例を示す説明図である。
【図6】第1のパラメータと第2のパラメータを組み合わせて同一カテゴリ内の序列や種類を指定する例を示す説明図である。
【図7】本発明に係る触覚情報伝達装置の一実施形態のハードウェア構成例を示すブロック図である。
【図8】本発明に係る触覚情報伝達装置の別の実施形態のハードウェア構成例を示すブロック図である。
【図9】上記別の実施形態のハードウェアを動作させるソフトウェアの処理の流れを示すフローチャートである。
【図10】上記別の実施形態のハードウェアを動作させるソフトウェアの処理の流れを示すフローチャートである。
【図11】リモート・コントロール装置を備えたテレビジョン装置に本発明を適用した一変形例を示す説明図である。
【符号の説明】
70,800コンピュータ
71 視覚的選択オジェクト・データ部
72 選択オブジェクト・パラメータ抽出部
73 触覚呈示位置設定部
74 選択オブジェクト・カテゴリ分類部
75 触覚呈示パラメータ設定部
77 触覚呈示選択オブジェクト・データ作成部
78 触覚呈示出力制御部
79 触覚呈示駆動部
80 触/力覚呈示装置
81 触覚呈示位置検出部
801 ISDBデータ受信部
802 見出し画面インデックス情報抽出部
804 番組カテゴリ分類部
812 見出し項目メモリ
813 番組情報メモリ
814 画面位置情報メモリ
815 見出し項目情報出力部
816 番組内容出力部
817 音声合成装置
818 点字ディスプレイ装置
819 触覚呈示/画面位置比較検出部
820 ポインタ重畳位置設定部
821 ポインタ重畳部
822 モニタ装置
823 選択オブジェクト押下検出部[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a tactile information transmission device, and in particular, when accessing information from a visual selection item such as a heading screen used in ISDB (Integrated Service Digital Broadcasting) that provides a service by a digital signal. The present invention relates to a tactile information transmission device that converts a target selection object into a tactile selection object and transmits it to a tactile receptor (skin sensation) in a finger or other part.
[0002]
[Prior art]
Currently, research on force feedback to tactile receptors is becoming more active with the progress of virtual reality technology. For example, in television satellite broadcasting, there are few examples of research and development in which two-dimensional image information on the screen is presented in a multi-modal manner such as tactile sensation, visual sense, and auditory sense, and information obtained from the image is accessed.
[0003]
2. Description of the Related Art Conventionally, as a sensory substitute for visually impaired persons, research has been conducted on information transmission devices that extract image contour information and transmit two-dimensional or three-dimensional graphic information to a tactile receptor. For example, research such as “Optacone” and “TVSS (Tactile Vision Substitution System)” (“Visual impairment and its substitution technology”, Ichikawa et al., Nagoya University Press, “Bioinformatics” Hoshimiya et al., Kyoritsu Press, etc.) Yes.
[0004]
In both studies, binarized information is extracted from image information obtained by photoelectric conversion to drive a two-dimensional array of tactile stimulation elements, and the stimulation of the fingers and back is presented by the vibration of the elements. . In the 3D tactile display, the tactile stimulation elements arranged in 2D, such as “3D information display device for blind persons” (medical welfare equipment technology research and development report), are used as computer-generated object data. Correspondingly, it is driven up and down by a stepping motor to present a three-dimensional shape in a pseudo manner.
[0005]
Furthermore, in order to convey the GUI (Graphical User Interface) environment of a computer to a visually impaired person, voice-based GUI screen reading software has been developed (“95READER (trademark)”, “Windows Screen Reading Software for Visually Impaired and Its Evaluation ", Watanabe, Okada, Human Interface 68-7).
[0006]
In addition, research aimed at achieving the same GUI environment transmission as above with tactile and auditory multi-modality has been conducted ("Proposal of pointing device with tactile pin display"). By touching the LCD screen with a touch panel, this device outputs information on the interactive component displayed at that position by voice. In addition, a tactile display is mounted on the touch panel, and interactive parts can be touched with a tactile receptor. The tactile display has, for example, a configuration in which 8 × 8 pins are arranged two-dimensionally, and one pin corresponds to one dot on the screen, and presents information in a range of 8 × 8 dots centering on the current pointing coordinates. It is possible. The tactile display can be moved on the touch panel as an absolute coordinate system, enabling a wide range of screen information to be touched.
[0007]
Further, in the recent virtual reality technology, haptic feedback can express a three-dimensional shape and texture using a haptic interface such as “PHAMTOM” (Sensable Technologies, Inc.). This device feeds back spatial information of a three-dimensional figure created on a computer to a tactile receptor by a mechanical reaction force. Some applications using “PHAMTOM” present a virtual switch that can be pressed to change the screen or change the shape or state of the presented virtual object.
[0008]
[Problems to be solved by the invention]
At present, an effective means by which a visually impaired person can operate a computer in a GUI environment has not been established. In addition, there is no known technique for transmitting a headline screen of ISDB to a visually impaired person, and how to transmit screen information is a major research subject.
[0009]
Among the prior arts, reading out the GUI screen by voice such as “95READER” is an effective means for the visually impaired. However, the voice itself is a time-series information presentation, and it is difficult to quickly search for a selected object on the screen by reading, and it is difficult to grasp the selected object on the entire screen. .
[0010]
On the other hand, presenting an ISDB heading item that is a GUI environment or an icon displayed by a computer to a tactile receptor is effective for solving the above problem, but it is necessary to present many selected objects on the screen. The tactile presentation devices such as “Optacon”, “TVSS”, “Three-dimensional information display device for blind people”, and “Pointing device with tactile pin / display” described above in the prior art are all equipped with pins that stimulate tactile sense. It is two-dimensionally arranged like Kenzan. In this case, there is a limit in the size and mounting density of the dot interval representing one pixel in mounting. That is, if the dot interval is large, it is difficult to accurately present a graphic shape, and the number of selected objects that can be presented is limited on a small display.
[0011]
On the other hand, “PHAMTOM” of the prior art is capable of presenting a fine shape and is effective as a tactile feedback device that accurately presents a graphic shape. However, since there is a limit to the shape that humans can recognize with the tactile receptor, another problem arises that if the displayed figure becomes too small, the recognition limit of the user is exceeded.
[0012]
In addition, the sequence of shifting to the next processing by pressing a virtual switch configured using “PHAMTOM” in the prior art is similar to the field of use of the present invention, but a visual selection object such as an ISDB heading screen. It is not considered to access information by presenting to the tactile receptor. That is, there is a problem in searching for the selected object in a short time depending on the attribute of the selected object such as ISDB or the category of the program.
[0013]
Furthermore, in order to convey a selection object to a visually impaired person, it is also possible to output by voice or Braille together with a tactile stimulus as in the prior art “pointing device with a tactile pin display” and allow the user to make a selection. This method merely presents the presence or absence of an object, and is not a method for searching in a short time based on the category of the selected object.
[0014]
Thus, any of the conventional methods has a problem that it is difficult to search for a selected object at high speed.
[0015]
The present invention has been made in view of the above-mentioned problems, and its main purpose is to quickly access program information and the like from a visually selected object such as an ISDB heading screen in multi-modal visual, auditory, and tactile senses. It is an object of the present invention to provide a tactile information transmission device that can be used in the future. Specifically, the present invention aims to achieve each of the objects listed below.
[0016]
A first object of the present invention is to present and present many selection objects in a small presentation range when a visual selection object such as a heading screen is converted into a tactile selection object and presented to a tactile receptor. It is an object of the present invention to provide a tactile information transmission device that can implement a presentation method that is easy to recognize and allows a quick search by using a three-dimensional shape, surface texture, friction, presentation height, and the like as presentation parameters.
[0017]
The second object of the present invention is to implement a presentation method capable of immediately recognizing the attribute property of a selected object when the information of the visually selected object is converted into a tactile selected object and presented to the tactile receptor. It is to provide a tactile information transmission device.
[0018]
A third object of the present invention is to present the contents of an item in multi-modal manner such as voice or Braille by touching a selected object such as a heading screen, and to access the program contents of the item by pressing the selected object. It is an object of the present invention to provide a tactile information transmission device that can implement a possible presentation method.
[0019]
[Means for Solving the Problems]
In order to solve the above problems, according to one aspect of the present invention, a conversion means for converting a visual selection object representing various selection items into a tactile selection object having virtual three-dimensional characteristics, and a user wears the conversion means. A tactile information transmission device comprising an output means for outputting a tactile stimulus corresponding to the feature to a stimulus generation means, wherein the conversion means is based on category information of a selection item represented by the visual selection object. Classifying means for classifying an object for each category, a first tactile presentation parameter corresponding to any one of the three-dimensional features of the tactile selection object is set for each of the classified categories, and the parameter is set Setting means for setting a second tactile sensation presentation parameter in accordance with a category other than the one of the three-dimensional features for each category And the output means outputs different haptic stimuli for each category according to the first haptic presentation parameter, and further outputs different haptic stimuli for each selected object in the same category according to the second haptic presentation parameter. To do.
[0020]
Here, the conversion means includes means for inputting the visual selection object, and the classification means extracts the characteristics of the visual selection object, the display characteristics on the screen, and the category information of the selection items. And means for classifying the visual selection object for each category based on the category information, and the setting means determines the three-dimensional of the tactile selection object for the classified visual selection object. Setting the first and second tactile sensation presentation parameters for presenting the tactile stimulation according to characteristics to a user, and the output means creates tactile sensation presentation data according to the set parameters; Stimulus that presents the tactile stimulus to the user by controlling the output of the stimulus generation means based on the tactile sense presentation data It may be one and a stage.
[0021]
Here, the first tactile sensation presentation parameter represents any one of a three-dimensional shape, a surface roughness, a friction characteristic, and a presentation height of the tactile selection object, and the second tactile presentation parameter represents the three-dimensional shape, Any one of the surface roughness, the friction characteristic, and the display height may be represented.
[0022]
Here, the visual selection object is a visual setting object including a heading item displayed on a heading screen obtained from ISDB data, and a superimposition that superimposes a pointer on a position on the screen according to the position of the stimulus generation means Means, pointer detection means for detecting in which display range of the visual setting object the pointer exists, pressing detection means for detecting that the heading item corresponding to the display range is pressed, and the stimulus Display means for displaying the movement position on the heading screen by the pointer in synchronization with the movement of the generation means, and the output means converts the visual selection object according to the movement. A tactile stimulus corresponding to the target selection object is fed back, and the stimulus generation means selects the heading item selection object. When present in the transfected outputs title information of the title item may be one for outputting the contents of the next lower layer heading fields when pressing the selected object heading entry by said stimulus generating means.
[0025]
[Action]
According to the present invention configured as described above, by constructing a tactile selection object for selecting a heading item from information of a selection object such as an ISDB heading screen, the information can be converted into multi-modal information such as visual, auditory, and tactile information. Allows access.
[0026]
Specifically, from the information of the visual selection object, the characteristics of the selection object such as attributes, properties, functions, etc., that is, the program title, the program genre, or the position data displayed on the screen are extracted. The selected object is classified according to the attribute, nature, and function of the extracted selected object, and the tactile presentation parameters such as solid shape, surface roughness, friction, and presentation height are set according to the classified category, and the selected object is selected. Is fed back to the tactile receptor with mechanical force, and the position of the tactile presentation part, such as the user's finger receiving a stimulus such as mechanical force, is displayed on the screen corresponding to the visual position, Detects that the selected object on the screen has been touched, displays the title of the heading item in voice or Braille, etc., detects that the virtual switch has been pressed, Making it possible to display the contents of the item out.
[0027]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
[0028]
First, a method of presenting a visually selected object such as an ISDB heading screen according to the present invention by converting it to a tactile selected object will be conceptually described with reference to FIGS.
[0029]
FIG. 1 is an example schematically showing items of a heading screen serviced by ISDB, and each item is represented by a symbol for each program category.
[0030]
The headline screen 10 displays visually selected objects V1 to V8 (video), T1 (weather), N1 to N6 (news), E1 (program guide), and S1 to S4 (resource switching) for various headline items. Yes.
[0031]
FIGS. 2A to 2D show an example of a method of presenting the selected object in the heading screen 10 after converting it into a tactile selected object.
[0032]
FIG. 2A shows a tactile selection object (haptic information) obtained by faithfully converting the selection object. Each convex shape having a two-dimensional shape disclosed in FIG. 2 (a) is a square, a rectangle, and a substantially rectangular shape. A portion surrounded by the outline of each heading item in FIG. ) An example presented as a shape, that is, a tactile selection object.
[0033]
2 (b) to 2 (d) modify the simple convex shape of FIG. 2 (a) in which each selected object is represented by the same size to reduce the spatial tactile information density. Thus, examples of various presentation methods in which categories can be distinguished are shown.
[0034]
With reference to FIG.2 (b)-FIG.2 (d), the specific which presents a visually selected object to a tactile receptor using the said presentation method is demonstrated.
[0035]
FIG. 2B shows a method of presenting a visually selected object by converting it into a tactile selection object having the same size and different three-dimensional shape.
[0036]
In the example disclosed here, among the selection objects on the headline screen, the images V1 to V8 are cube selection objects 231 to 238, the news N1 to N6 are sphere selection objects 241 to 246, and the resource switching S1 to S4 are cuboids. The selected objects 251 to 254 are converted. The user can immediately know the program category according to the recognized shape by touching the selected object having the three-dimensional shape corresponding to the heading screen with the tactile / force sense presentation device corresponding to the screen and recognizing the shape. .
[0037]
FIG. 2C shows a method of presenting a visually selected object by converting it into a tactile selected object having the same shape and different surface roughness and frictional force.
[0038]
In the example disclosed here, the shape is unified into a cube, and the tactile selection objects having different textures are converted. That is, videos V1 to V8 are selected
[0039]
FIG. 2D shows a method of presenting a visually selected object by converting it into a tactile selected object having the same surface roughness and different three-dimensional shape.
[0040]
The example disclosed here represents a cross section of a dotted line part dd ′ in the vertical direction of the screen in FIG. 2C, and the
[0041]
Here, the position of the selected object in FIGS. 2B to 2D may be aligned and arranged in any direction, unlike the relative position in FIG.
[0042]
The category information of the selected object is presented by a combination of various category distinguishable presentation methods described with reference to FIG. 2B to FIG. 2D, and the selected object is further ranked in the same category. A method for designating and the type will be described below with reference to FIGS.
[0043]
3 to 5 show an example in which category classification is performed with the surface roughness already disclosed as the first parameter, and the order and type within the category are specified with the second parameter disclosed here.
[0044]
FIG. 3 discloses a method for designating a cube 300 having the same size by cutting four corners.
[0045]
By making the four corners of the
[0046]
FIG. 4 discloses an example in which the ranks and types in the same category are specified for
[0047]
The user first detects that the surface roughness is category 1, then detects, for example, that the
[0048]
Similarly, FIG. 5 discloses an example in which the ranks and types in the same category are specified for
[0049]
In FIG. 5, for example, a
[0050]
On the other hand, FIG. 6 shows an example in which category classification is performed with the shape already disclosed as the first parameter, and the rank within the category is specified with the surface roughness already disclosed as the second parameter.
[0051]
FIG. 6 discloses an example in which, for example,
[0052]
By designating the rank within the same category by the method as shown in FIGS. 3 to 6, for example, in the category type of the program shown in FIG. 1, channel designation corresponding to videos V1 to V8, area designation corresponding to weather T1, etc. The designation within the same category can be selectively performed only by tactile sense.
[0053]
Hereinafter, a specific information transmission method using the apparatus of the present invention according to claims 1 to 4 will be described with reference to the drawings.
[0054]
FIG. 7 shows a method of converting a visual selection object such as an ISDB heading screen into a tactile selection object and presenting a stimulus to a tactile receptor of a user such as a visually handicapped person using a tactile / force sense presentation device. The example of a hardware configuration of one Embodiment of the tactile-information transmission apparatus which enables implementation is shown.
[0055]
In FIG. 7, a visual selection
[0056]
The tactile sense presenting unit is provided as an output unit of the tactile / force
[0057]
The selected object /
[0058]
The
[0059]
The tactile
[0060]
Hereinafter, the operation of the tactile information transmission device according to the present invention will be described in detail.
[0061]
In FIG. 7, each object information of the selected object stored in the visually selected object /
[0062]
In addition, the information regarding the attribute / property of the selected object extracted by the selected object /
[0063]
The tactile sensation presentation
[0064]
The selected object converted from the visually selected object (stored object information) into the tactile selected object by such data generation exists as a virtual solid at the spatial position set by the tactile presentation position
[0065]
The operation of actually searching for a virtual selection object by touch can be performed as follows.
[0066]
First, a finger with distributed tactile receptors is attached and fixed to the above-described tactile presentation unit, and the tactile presentation unit is moved. In accordance with this movement, the tactile presentation
[0067]
As described above, the tactile sensation of the virtual selection object corresponding to the presentation information of the spatial position by converting the visual object into a tactile object represented by various tactile presentation parameters and using tactile receptors such as fingers. Can be obtained, and the selected object can be actually searched and pressed.
[0068]
As a result, when a visual selection object such as a heading screen is converted into a tactile selection object and presented to a tactile receptor, a large number of selection objects can be presented in a small presentation range, and a three-dimensional shape or surface texture to be presented, By using friction, presentation height, and the like as presentation parameters, it is possible to perform a quick search that is easy to recognize, and to immediately recognize the attribute properties of the selected object.
[0069]
Next, a tactile information transmission and information access method for ISDB header screen information according to an embodiment of the present invention will be described in detail.
[0070]
FIG. 8 is a block diagram showing the hardware and software configuration for classifying the ISDB header screen according to the program genre and presenting it on the tactile receptor according to claim 6 of the present invention. In FIG. 8, the same components as those in FIG. 7 are denoted by the same reference numerals, and the description thereof is omitted as appropriate.
[0071]
The ISDB
[0072]
The tactile sensation presentation object
[0073]
[0074]
The
[0075]
The tactile sense presentation / screen position
[0076]
The
[0077]
The
[0078]
9 and 10 are flowcharts showing the flow of software processing for operating the hardware of FIG.
[0079]
Hereinafter, an operation example of the present embodiment will be described with reference to FIG. 8, FIG. 9, FIG. 10, and FIG.
[0080]
Videos such as the ISDB header screen 10 received by the ISDB
[0081]
In FIG. 9, first, a data signal is extracted as index information of the ISDB header screen 10 from the ISDB data received by the
[0082]
The first process is the process shown in ST2 to ST4. That is, first, the program
[0083]
The second process is the process shown in ST5 to ST6. That is, first, the position information of the heading item when the selected object is displayed on the display screen of the monitor device 22 is stored in the screen
[0084]
The third process is the process shown in ST7 and ST8. That is, text data representing the title of the selected item of the heading item is stored in the
[0085]
This completes the setting of data related to tactile stimulus presentation from the received ISDB data. Following the setting, a tactile stimulus presentation operation by the tactile / force
[0086]
In the tactile / force
[0087]
While the above feedback control is performed, a control is performed in parallel with ST12 and ST13 so that the position of the tactile presenting unit coincides with the position on the display screen on the screen display side as the position of the tactile presenting unit is moved. That is, when the tactile sensation presentation unit moves in step ST11, the processing results of ST5 and ST6 are used in ST14, the display position of the selected object created by the haptic presentation selection object
[0088]
The tactile sensation presentation / screen position
[0089]
Accordingly, when the tactile
[0090]
Next, a sequence for accessing the contents from the heading item will be described according to ST24 to ST36 in FIG.
[0091]
From the pointer position on the screen when the pointer position is controlled and the tactile stimulus presentation position, whether or not the position of the tactile sensation presenting part, that is, the pointer position, is within the display range (virtual switch position) of the selected item of the heading item (ST24, 25). Here, when it is within the range, the text data of the corresponding heading item is used from the heading item memory, and is output by voice or braille stimulation by the
[0092]
When the tactile sense presenting unit is within the range of the selected object and the selection object pressing
[0093]
The embodiment of the present invention related to information transmission (stimulus presentation) to the tactile receptor when the visually selected object is transmitted to the tactile sensation has been described above.
[0094]
According to the present embodiment, classification information such as position information and display format of the selected object on the screen, or title and program content of the selected object is detected from the additional information representing the attribute and property of the selected object, and the program content is classified. In the presentation to the tactile receptor, the three-dimensional shape, surface roughness, friction, presentation height, etc., which are distinguished for each category, are converted into a selected object and presented to the tactile receptor and selected by the user. When an object is touched, its position is displayed on the screen by a symbol such as an arrow or a hand, and the contents of the heading item are output by voice or Braille. In addition, by depressing the selection object, the heading item is selected, and the program content data stored under the hierarchy can be accessed.
[0095]
This enables visually impaired people and deafblind people to access information from visually selected objects such as integrated digital broadcasting headline screens while touching the screen. At the same time, it is possible to provide an information access interface that is easy to use for handicapped and healthy persons, such as a high-speed search for selected objects by multi-modal presentation in which information is also given to the tactile receptors.
[0096]
In the above embodiment, a method of accessing information by converting a visually selected object such as an ISDB heading screen into an object having a tactile virtual switch function and presenting it to the tactile receptor has been described. It is also possible to apply as a tactile sense presentation method.
[0097]
In the above embodiment, an example in which a visually selected object is presented in a three-dimensional manner using a tactile / force sense presenting apparatus has been implemented. However, as another method for presenting a visually selected object by surface roughness and shape, There is also a method of presenting the tactile receptor in a two-dimensional manner by a configuration using means such as a micromachine and other microactuators, and it is obvious that the present invention can be applied to this method.
[0098]
This two-dimensional tactile sensation presentation method can also be implemented by configuring a remote control device having a push button by a mechanical switch or a conductive switch as shown in FIG. 11, for example.
[0099]
In FIG. 11, a
[0100]
Further, the
[0101]
In this way, even if the remote control device includes a plurality of push buttons by forming the tactile sensation of the
[0102]
【The invention's effect】
As described above, according to the present invention, when searching for visual object information, the visual selection object is converted into tactile information corresponding to the characteristics of the tactile selection object having virtual three-dimensional characteristics. Since it is presented on the tactile receptor of the user, it is possible for a user such as a visually impaired person to access desired information from a headline screen or an icon in the GUI environment of ISDB or a computer.
[0103]
Also, in the tactile presentation of the selected object, the attributes, properties, functions, contents, etc. of the selected object are classified by category, and the three-dimensional shape, surface roughness, friction texture, etc. or presentation height etc. are classified according to the category. By setting, the category of the selected object can be recognized in a short time, and the order can be specified in the same category by combining the presentation conditions, so that the selected object can be recognized only by tactile sense, By presenting in a multi-modal manner in synchronism with the visual sense, it is possible to quickly search for a selected object regardless of a visually impaired person or a sighted person, and an easy-to-use information access interface can be expected.
[Brief description of the drawings]
FIG. 1 is an explanatory diagram schematically showing items on a heading screen serviced by ISDB.
FIG. 2 is an explanatory diagram showing an example of a method of converting a selection object in a heading screen into a tactile selection object and presenting it.
FIG. 3 is an explanatory diagram showing an example of specifying an order or type in the same category by combining the first parameter and the second parameter.
FIG. 4 is an explanatory diagram showing an example of specifying an order or type in the same category by combining the first parameter and the second parameter.
FIG. 5 is an explanatory diagram showing an example of specifying an order or type in the same category by combining the first parameter and the second parameter.
FIG. 6 is an explanatory diagram showing an example of specifying an order or type in the same category by combining the first parameter and the second parameter.
FIG. 7 is a block diagram illustrating a hardware configuration example of an embodiment of a haptic information transmission device according to the present invention.
FIG. 8 is a block diagram illustrating a hardware configuration example of another embodiment of the haptic information transmission apparatus according to the present invention.
FIG. 9 is a flowchart showing a flow of processing of software for operating the hardware of the another embodiment.
FIG. 10 is a flowchart showing a flow of software processing for operating the hardware of another embodiment.
FIG. 11 is an explanatory diagram showing a modified example in which the present invention is applied to a television device provided with a remote control device.
[Explanation of symbols]
70,800 computers
71 Visual selection object data part
72 Selected Object / Parameter Extraction Unit
73 Tactile Presentation Position Setting Unit
74 Selected object category classification part
75 Tactile presentation parameter setting section
77 Tactile presentation selection object data creation part
78 Tactile presentation output controller
79 Tactile presentation drive unit
80 Touch / force display device
81 Tactile sense position detection unit
801 ISDB data receiver
802 Headline screen index information extraction unit
804 Program category classification section
812 Heading item memory
813 Program information memory
814 Screen position information memory
815 Heading item information output section
816 Program content output section
817 Voice Synthesizer
818 Braille display device
819 Tactile display / screen position comparison detection unit
820 Pointer superimposed position setting unit
821 Pointer overlay
822 Monitor device
823 Selection object pressing detection unit
Claims (4)
前記変換手段は、前記視覚的選択オブジェクトが表す選択項目のカテゴリ情報に基づき前記視覚的選択オブジェクトをカテゴリ毎に分類する分類手段と、前記分類した前記カテゴリ毎に前記触覚的選択オブジェクトの三次元的特徴のいずれかに応じた第1の触覚呈示パラメータを設定し、さらに、該パラメータが設定された各カテゴリについて前記三次元的特徴の前記いずれか以外のものに応じて第2の触覚呈示パラメータを設定する設定手段とを備え、
前記出力手段により、前記第1の触覚呈示パラメータにしたがってカテゴリ毎に異なる触覚刺激を出力し、さらに、前記第2の触覚呈示パラメータにしたがって同一カテゴリ内の選択オブジェクト毎に異なる触覚刺激を出力する
ことを特徴とする触覚情報伝達装置。A conversion means for converting a visual selection object representing various selection items into a tactile selection object having a virtual three-dimensional feature, and a tactile stimulus corresponding to the feature are output to a stimulus generation means worn by the user. A tactile information transmission device comprising an output means,
The converting means includes classification means for classifying the visual selection object for each category based on category information of a selection item represented by the visual selection object, and three-dimensional of the tactile selection object for each of the classified categories. A first tactile sensation presentation parameter corresponding to one of the features is set, and a second tactile sensation presentation parameter is set for each category in which the parameter is set according to one of the three-dimensional features other than the one described above. Setting means for setting,
The output means outputs a different haptic stimulus for each category according to the first tactile presentation parameter, and further outputs a different haptic stimulus for each selected object in the same category according to the second tactile presentation parameter. A tactile information transmission device characterized by the above.
前記変換手段は前記視覚的選択オブジェクトを入力する手段を備え、
前記分類手段は、前記視覚的選択オブジェクトの特徴と、画面上の表示の特徴と、前記選択項目の前記カテゴリ情報を抽出する手段と、前記カテゴリ情報に基づき前記視覚的選択オブジェクトをカテゴリ毎に分類する手段を備え、
前記設定手段により、前記分類された前記視覚的選択オブジェクトについて、前記触覚的選択オブジェクトの前記三次元的特徴に応じた前記触覚刺激を使用者に呈示するための前記第1および第2の触覚呈示パラメータを設定し、
前記出力手段は、前記設定したパラメータに応じて触覚呈示データを作成する手段と、前記刺激生成手段の出力を前記触覚呈示データに基づいて制御することで、前記使用者に前記触覚刺激を呈示する刺激手段とを備える
ことを特徴とする触覚情報伝達装置。In claim 1,
The converting means comprises means for inputting the visual selection object;
The classifying means classifies the visual selection object for each category based on the category information based on the category information, characteristics of the visual selection object, display characteristics on the screen, and means for extracting the category information of the selection item. Means to
The first and second tactile presentations for presenting the tactile stimulus according to the three-dimensional characteristics of the tactile selection object to the user for the classified visual selection objects by the setting means. Set the parameters,
The output means presents the tactile stimulus to the user by controlling the output of the tactile presentation data based on the tactile presentation data and means for creating tactile sense presentation data according to the set parameters. A tactile information transmission device comprising a stimulation means.
前記第1の触覚呈示パラメータは、前記触覚的選択オブジェクトの立体形状、表面粗さ、摩擦特性、呈示高さのいずれかを表し、前記第2の触覚呈示パラメータは、該立体形状、該表面粗さ、該摩擦特性、該呈示高さのうち該いずれか以外のものを表すことを特徴とする触覚情報伝達装置。In claim 2,
The first tactile sensation presentation parameter represents any one of a three-dimensional shape, a surface roughness, a friction characteristic, and a presentation height of the tactile selection object, and the second tactile sensation presentation parameter represents the three-dimensional shape, the surface roughness. A tactile information transmission device characterized by expressing any of the friction characteristics and the presentation height other than the above.
前記視覚的選択オブジェクトはISDBデータから得られる見出し画面に表示される見出し項目を含む視覚的設定オブジェクトであり、
前記刺激生成手段の位置に応じた画面上の位置にポインタを重畳する重畳手段と、
前記ポインタがどの視覚的設定オブジェクトの表示範囲に存在するかを検出するポインタ検出手段と、
前記表示範囲に該当する前記見出し項目が押下されたことを検出する押下検出手段と、
前記刺激生成手段の移動に同期して、当該移動位置を前記見出し画面に前記ポインタにより表示する表示手段とをさらに有し、
前記出力手段は、前記移動にしたがい、前記視覚的選択オブジェクトを変換した前記触覚的選択オブジェクトに応じた触覚刺激をフィードバックし、前記刺激生成手段が前記見出し項目の選択オブジェクト内に存在する時は前記見出し項目のタイトル情報を出力し、前記刺激生成手段で見出し項目の選択オブジェクトを押下したときには見出し項目の階層下の内容を出力する
ことを特徴とする触覚情報伝達装置。In claim 2,
The visual selection object is a visual setting object including a heading item displayed on a heading screen obtained from ISDB data,
Superimposing means for superimposing a pointer on a position on the screen according to the position of the stimulus generating means;
Pointer detection means for detecting in which visual setting object the display range of the pointer exists;
A pressing detection means for detecting that the heading item corresponding to the display range is pressed;
In synchronization with the movement of the stimulus generating means, further comprising a display means for displaying the movement position on the header screen by the pointer,
The output means feeds back a tactile stimulus according to the tactile selection object obtained by converting the visual selection object according to the movement, and when the stimulus generation means exists in the selection object of the heading item, A tactile information transmission device that outputs title information of a heading item, and outputs the contents under the heading item when a selection object of the heading item is pressed by the stimulus generation means.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP18977999A JP3727490B2 (en) | 1999-07-02 | 1999-07-02 | Tactile information transmission device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP18977999A JP3727490B2 (en) | 1999-07-02 | 1999-07-02 | Tactile information transmission device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2001022267A JP2001022267A (en) | 2001-01-26 |
JP3727490B2 true JP3727490B2 (en) | 2005-12-14 |
Family
ID=16247073
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP18977999A Expired - Fee Related JP3727490B2 (en) | 1999-07-02 | 1999-07-02 | Tactile information transmission device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3727490B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007171300A (en) * | 2005-12-19 | 2007-07-05 | Univ Of Tokyo | Identification method and electronic device |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2467461B (en) | 2007-09-14 | 2012-03-07 | Nat Inst Of Advanced Ind Scien | Virtual reality environment generating apparatus and controller apparatus |
WO2009035100A1 (en) * | 2007-09-14 | 2009-03-19 | National Institute Of Advanced Industrial Science And Technology | Virtual reality environment creating device, and controller device |
JP5448427B2 (en) * | 2008-11-27 | 2014-03-19 | 三菱電機株式会社 | Input device |
JP5766398B2 (en) * | 2009-12-21 | 2015-08-19 | 京セラ株式会社 | Tactile presentation device |
US9436280B2 (en) | 2010-01-07 | 2016-09-06 | Qualcomm Incorporated | Simulation of three-dimensional touch sensation using haptics |
JP5856518B2 (en) | 2012-03-28 | 2016-02-09 | 京セラ株式会社 | Portable terminal device and control method |
US20130311881A1 (en) * | 2012-05-16 | 2013-11-21 | Immersion Corporation | Systems and Methods for Haptically Enabled Metadata |
CN108461015B (en) * | 2018-06-29 | 2019-11-22 | 华中科技大学 | A kind of three-dimensional electric touch epidermis electronic system for Braille reading |
-
1999
- 1999-07-02 JP JP18977999A patent/JP3727490B2/en not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007171300A (en) * | 2005-12-19 | 2007-07-05 | Univ Of Tokyo | Identification method and electronic device |
Also Published As
Publication number | Publication date |
---|---|
JP2001022267A (en) | 2001-01-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20230266859A1 (en) | Eclipse cursor for virtual content in mixed reality displays | |
US20200409529A1 (en) | Touch-free gesture recognition system and method | |
US11520477B2 (en) | Augmented reality scrollbar | |
US10540941B2 (en) | Eclipse cursor for mixed reality displays | |
EP3639117B1 (en) | Hover-based user-interactions with virtual objects within immersive environments | |
US6278441B1 (en) | Tactile interface system for electronic data display system | |
Freeman et al. | Multimodal feedback in HCI: haptics, non-speech audio, and their applications | |
US20040240709A1 (en) | Method and system for controlling detail-in-context lenses through eye and position tracking | |
EP0767418A1 (en) | Image controlling device and image controlling method | |
US20100100853A1 (en) | Motion controlled user interface | |
CN103154858A (en) | Operation input apparatus, operation input method, and program | |
JP3727490B2 (en) | Tactile information transmission device | |
US20220230432A1 (en) | Interfaces, systems and apparatuses for constructing 3d ar environment overlays, and methods for making and using same | |
Slay et al. | Interaction Modes for Augmented Reality Visualization. | |
Kawai et al. | Interactive tactile display system: a support system for the visually disabled to recognize 3D objects | |
US9791932B2 (en) | Semaphore gesture for human-machine interface | |
JP2009140105A (en) | Tactile sense presentation device and tactile sense presentation method | |
Azzag et al. | Vrminer: A tool for multimedia database mining with virtual reality | |
US10915242B1 (en) | Interface to computer and other display information | |
EP3321843A1 (en) | A centralized traffic control system, and a method in relation with the system | |
Lucas et al. | Resizing beyond widgets: object resizing techniques for immersive virtual environments | |
Piumsomboon | Natural hand interaction for augmented reality. | |
Kim et al. | Development of dynamically re-formable input device in tactile and visual interaction | |
Freeman et al. | in HCl: Haptics, Non-Speech Audio, and Their Applications | |
Boritz | The effectiveness of three dimensional interaction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20040422 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050419 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050620 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20050620 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20050913 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20050928 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091007 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101007 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111007 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121007 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121007 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131007 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20141007 Year of fee payment: 9 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |