JPWO2016181469A1 - シミュレーションシステム - Google Patents

シミュレーションシステム Download PDF

Info

Publication number
JPWO2016181469A1
JPWO2016181469A1 JP2017517492A JP2017517492A JPWO2016181469A1 JP WO2016181469 A1 JPWO2016181469 A1 JP WO2016181469A1 JP 2017517492 A JP2017517492 A JP 2017517492A JP 2017517492 A JP2017517492 A JP 2017517492A JP WO2016181469 A1 JPWO2016181469 A1 JP WO2016181469A1
Authority
JP
Japan
Prior art keywords
article
vibration
pointer
operation terminal
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017517492A
Other languages
English (en)
Inventor
幸宏 陽奥
幸宏 陽奥
遠藤 康浩
康浩 遠藤
祐 中山
祐 中山
鈴木 達也
達也 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Publication of JPWO2016181469A1 publication Critical patent/JPWO2016181469A1/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0325Detection arrangements using opto-electronic means using a plurality of light emitters or reflectors or a plurality of detectors forming a reference frame from which to derive the orientation of the object, e.g. by triangulation or on the basis of reference deformation in the picked up image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/033Indexing scheme relating to G06F3/033
    • G06F2203/0331Finger worn pointing device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0384Wireless input, i.e. hardware and software details of wireless interface arrangements for pointing devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

リアリティのある触感を提供できるシミュレーションシステムを提供する。シミュレーションシステムは、複数の可動素子を有し、利用者が移動させることによって表示部に表示されるポインタの位置を操作する操作端末機と、物品データと、複数の可動素子を振動させる振動パターンであって、物品の各部位又は材質の触感に応じた振動パターンを表す振動データとを格納するデータ格納部と、操作端末機の位置及び姿勢を検出する第1検出部と、位置及び姿勢に基づき、表示部に表示されるポインタの座標を検出する第2検出部と、物品データに含まれる座標と、第2検出部によって検出されるポインタの座標とに基づき、表示部に表示される物品にポインタが接触したかどうかを判定する判定部と、ポインタが物品に接触したと判定されると、ポインタに接触した物品の部位又は材質に振動データで対応する振動パターンで複数の可動素子を駆動する駆動制御部とを含む。

Description

本発明は、シミュレーションシステムに関する。
従来より、ユーザに仮想物体との接触を知覚させる接触提示装置であって、ユーザに装着される複数の刺激発生手段と、ユーザと仮想物体の異なる面が接触した場合に、前記刺激発生手段で異なる刺激を発生させるように制御を行う制御部を備えることを特徴とする接触提示装置がある(例えば、特許文献1参照)。
特開2008−108054号公報
ところで、従来の接触提示装置は、仮想物体の凸部、角部、又はエッジ等に接触した触感を提供することはできない。また、仮想物体の材質による触感を提供することはできない。すなわち、従来の接触提示装置は、リアリティのある触感を提供することができない。
そこで、リアリティのある触感を提供できるシミュレーションシステムを提供することを目的とする。
本発明の実施の形態のシミュレーションシステムは、物品の形状と座標を表す物品データに基づいて前記物品の画像を表示する表示部と、複数の可動素子を有し、利用者が手に持ちながら移動させることによって前記表示部に表示されるポインタの位置を操作する操作端末機と、前記物品データと、前記複数の可動素子を振動させる振動パターンであって、前記物品の各部位又は材質の触感に応じた振動パターンを表す振動データとを格納するデータ格納部と、前記操作端末機の位置及び姿勢を検出する第1検出部と、前記第1検出部によって検出される前記位置及び姿勢に基づき、前記表示部に表示される前記ポインタの座標を検出する第2検出部と、前記物品データに含まれる座標と、前記第2検出部によって検出される前記ポインタの座標とに基づき、前記表示部に表示される前記物品に、前記ポインタが接触したかどうかを判定する判定部と、前記判定部によって前記ポインタが前記物品に接触したと判定されると、前記ポインタに接触した前記物品の部位又は材質に前記振動データで対応する前記振動パターンで前記複数の可動素子を駆動する駆動制御部とを含む。
リアリティのある触感を提供できるシミュレーションシステムを提供することができる。
実施の形態1のシミュレーションシステムを示す図である。 実施の形態1の処理装置が適用されるコンピュータシステムの斜視図である。 コンピュータシステムの本体部内の要部の構成を説明するブロック図である。 操作端末機を示す斜視図である。 振動モータを示す図である。 操作端末機の電気系の構成を示す図である。 振動データを示す図である。 形状データを示す図である。 物品の画像の一例を示す図である。 スクリーンに投影される画像の中におけるポインタの座標の時間変化の一例を示すデータである。 実施の形態1の処理装置が実行する処理を示すフローチャートである。 物品にポインタが接触した場合の触感の提供の仕方を示す図である。 ポインタで触れる物品の部位と、振動パターンとの関係を表す図である。 ポインタで触れる物品の部位と、振動パターンとの関係を表す図である。 ポインタで触れる物品の材質と、振動パターンとの関係を表す図である。 ポインタで触れる物品の材質と、振動パターンとの関係を表す図である。 実施の形態1の変形例を示す図である。 実施の形態1の変形例を示す図である。 実施の形態1の変形例を示す図である。 実施の形態1の変形例を示す図である。 実施の形態1の変形例を示す図である。 操作端末機の電気系の構成を示す図である。 実施の形態2の操作端末機を示す斜視図である。 実施の形態2の振動データを示す図である。 実施の形態1の処理装置が実行する処理を示すフローチャートである。 ポインタで触れる物品の部位と、振動パターンとの関係を表す図である。 ポインタで触れる物品の材質と、振動パターンとの関係を表す図である。 実施の形態2の変形例を示す図である。 実施の形態2の変形例を示す図である。 実施の形態2の変形例を示す図である。 実施の形態2の変形例を示す図である。 実施の形態2の変形例を示す図である。 実施の形態2の変形例を示す図である。
以下、本発明のシミュレーションシステムを適用した実施の形態について説明する。
<実施の形態1>
図1は、実施の形態1のシミュレーションシステム100を示す図である。
シミュレーションシステム100は、スクリーン110A、投影装置110B、3D(3 Dimension)眼鏡110C、処理装置120、操作端末機130、及び位置計測装置140を含む。
実施の形態1シミュレーションシステム100は、例えば、組み立て作業性を仮想空間において把握するため組立支援システムに適用することができる。組立支援システムでは、例えば、CPU(Central Processing Unit:中央演算処理装置)モジュール、メモリモジュール、通信モジュール、又はコネクタ等の電子部品をマザーボード等に組み付ける作業を仮想空間で模擬的に行うことができる。
しかしながら、実施の形態1シミュレーションシステム100は、組立支援システムに限らず、三次元空間での作業性を確認する様々なシステムに適用することができる。
スクリーン110Aは、例えば、プロジェクタ用スクリーンを用いることができる。スクリーン110Aのサイズは、用途に応じて適宜設定すればよい。スクリーン110Aには、投影装置110Bによって投影される画像が表示される。ここでは、物品111及び112の画像がスクリーン110Aに表示されていることとする。
投影装置110Bは、スクリーン110Aに画像を投影できる装置であればよく、例えば、プロジェクタを用いることができる。投影装置110Bは、ケーブル110B1によって処理装置120に接続されており、処理装置120から入力される画像をスクリーン110Aに投影する。ここでは、投影装置110Bは、3D画像(立体視の画像)をスクリーン110Aに投影できるタイプのものである。
なお、スクリーン110Aと投影装置110Bは、表示部の一例である。
3D眼鏡110Cは、シミュレーションシステム100を利用する利用者が装着する。3D眼鏡110Cは、投影装置110Bによってスクリーン110Aに投影される画像を3D画像に変換できる眼鏡であればよく、例えば、入射光を偏光する偏光眼鏡、又は、液晶シャッターを有する液晶シャッター眼鏡を用いることができる。
なお、スクリーン110A及び投影装置110Bの代わりに、例えば、液晶ディスプレイパネルを用いてもよい。また、3D眼鏡110Cが不要な場合は、3D眼鏡110Cを用いなくてもよい。また、スクリーン110A及び投影装置110Bの代わりに、ヘッドマウントディスプレイを用いてもよい。
処理装置120は、位置検出部121、接触判定部122、映像出力部123、データ保持部124、駆動制御部125、及び通信部126を有する。処理装置120は、例えば、メモリを有するコンピュータによって実現される。
位置検出部121は、位置計測装置140から入力される画像データに対してパターンマッチング等の画像処理を行い、操作端末機130の位置と姿勢を検出する。操作端末機130の位置は、3次元座標における座標値で表され、姿勢は、3次元座標の3軸方向に対する角度で表される。
位置検出部121は、3次元座標における座標値をスクリーン110Aに投影される画像の中の座標に変換し、ポインタ130Aの位置を表す座標として出力する。位置検出部121は、第2検出部の一例である。
なお、操作端末機130の位置と姿勢の検出は、位置計測装置140で行ってもよい。
接触判定部122は、スクリーン110Aに投影される物品111又は112の画像と、スクリーン110Aに表示される操作端末機130のポインタ130Aとが接触したかどうかを判定する。
接触判定部122は、スクリーン110Aに投影される物品111又は112の形状及び位置を表すデータと、ポインタ130Aの位置を表すデータとを用いて、物品111又は112の画像と、ポインタ130Aとが接触したかどうかを判定する。接触判定部122は、判定部の一例である。
映像出力部123の出力端子は、ケーブル110B1によって投影装置110Bに接続されている。映像出力部123は、データ保持部124に保持される物品111及び112の物品データによって特定される画像を投影装置110Bに出力し、スクリーン110Aに表示させる。
また、映像出力部123は、投影装置110Bにポインタ130Aを表示させる。スクリーン110Aに表示される画像内におけるポインタ130Aの位置は、位置検出部121で検出される操作端末機130の位置と姿勢によって決まる。
データ保持部124は、物品111及び112の座標と形状を表す物品データ、物品111及び112の触感に応じた振動パターンを表す振動データ、及びポインタ130Aの画像データ等のデータを保持する。データ保持部124は、メモリによって実現され、データ格納部の一例である。
駆動制御部125は、接触判定部122によって物品111又は112の画像と、ポインタ130Aとが接触したと判定されると、ポインタ130Aが接触した物品111又は112の部位の触感に応じた振動パターンの駆動信号を出力する。この駆動信号は、操作端末機130の振動素子を駆動する信号である。
通信部126は、操作端末機130と無線通信を行う通信部であり、例えば、Bluetooth(登録商標)又はWiFi(Wireless Fidelity)等の規格で無線通信を行うことができる。通信部126は、駆動制御部125によって生成される駆動信号を操作端末機130に送信する。なお、通信部126は、操作端末機130と有線通信を行う通信部であってもよい。
操作端末機130は、シミュレーションシステム100を利用する利用者が手に保持し、スクリーン110Aに表示されるポインタ130Aの位置をコントロールする端末機である。操作端末機130は、マーカ132と振動素子133R及び133Lとを有する。
マーカ132は、複数の球体を有し、位置計測装置140から照射される赤外線を様々な方向に反射させる。マーカ132は、位置計測装置140による操作端末機130の位置検出に用いられる。
振動素子133R及び133Lは、それぞれ、操作端末機130の右側及び左側に振動を発生させるために設けられている。また、振動素子133R及び133Lは、駆動制御部125によって生成される駆動信号が表す物品111又は112の触感に応じた振動パターンによって駆動される。振動素子133R及び133Lは、可動素子の一例である。
なお、操作端末機130の詳細については後述する。
位置計測装置140は、赤外線カメラ140A及び140Bを有し、それぞれ、ケーブル141A及び141Bによって位置検出部121に接続されている。赤外線カメラ140A及び140Bは、赤外線を操作端末機130に照射し、マーカ132で反射された反射光を撮影する。位置計測装置140は、赤外線カメラ140A及び140Bが出力する画像データを位置検出部121に転送する。位置計測装置140は、第1検出部の一例である。
図2は、実施の形態1の処理装置120が適用されるコンピュータシステムの斜視図である。図2に示すコンピュータシステム10は、本体部11、ディスプレイ12、キーボード13、マウス14、及びモデム15を含む。
本体部11は、CPU(Central Processing Unit:中央演算装置)、HDD(Hard Disk Drive:ハードディスクドライブ)、及びディスクドライブ等を内蔵する。ディスプレイ12は、本体部11からの指示により画面12A上に解析結果等を表示する。ディスプレイ12は、例えば、液晶モニタであればよい。キーボード13は、コンピュータシステム10に種々の情報を入力するための入力部である。マウス14は、ディスプレイ12の画面12A上の任意の位置を指定する入力部である。モデム15は、外部のデータベース等にアクセスして他のコンピュータシステムに記憶されているプログラム等をダウンロードする。
コンピュータシステム10に処理装置120としての機能を持たせるプログラムは、ディスク17等の可搬型記録媒体に格納されるか、モデム15等の通信装置を使って他のコンピュータシステムの記録媒体16からダウンロードされ、コンピュータシステム10に入力されてコンパイルされる。
コンピュータシステム10に処理装置120としての機能を持たせるプログラムは、コンピュータシステム10を処理装置120として動作させる。このプログラムは、例えばディスク17等のコンピュータ読み取り可能な記録媒体に格納されていてもよい。コンピュータ読み取り可能な記録媒体は、ディスク17、ICカードメモリ、フロッピー(登録商標)ディスク等の磁気ディスク、光磁気ディスク、CD−ROM、USB(Universal Serial Bus)メモリ等の可搬型記録媒体に限定されるものではない。コンピュータ読み取り可能な記録媒体は、モデム15又はLAN等の通信装置を介して接続されるコンピュータシステムでアクセス可能な各種記録媒体を含む。
図3は、コンピュータシステム10の本体部11内の要部の構成を説明するブロック図である。本体部11は、バス20によって接続されたCPU21、RAM又はROM等を含むメモリ部22、ディスク17用のディスクドライブ23、及びハードディスクドライブ(HDD)24を含む。実施の形態1では、ディスプレイ12、キーボード13、及びマウス14は、バス20を介してCPU21に接続されているが、これらはCPU21に直接的に接続されていてもよい。また、ディスプレイ12は、入出力画像データの処理を行う周知のグラフィックインタフェース(図示せず)を介してCPU21に接続されていてもよい。
コンピュータシステム10において、キーボード13及びマウス14は、処理装置120の入力部である。ディスプレイ12は、処理装置120に対する入力内容等を画面12A上に表示する表示部である。
なお、コンピュータシステム10は、図2及び図3に示す構成のものに限定されず、各種周知の要素を付加してもよく、又は代替的に用いてもよい。
図4は、操作端末機130を示す斜視図である。
操作端末機130は、筐体131、マーカ132、振動素子133R、133L、ボタン134、及びガイドバー135を有する。
操作端末機130は、ポインタ130Aの位置の指標となるガイドバー135をスクリーン110Aに向けて利用者が手で持つため、スクリーン110Aに向いた利用者にとって右側に振動素子133Rが位置し、左側に振動素子133Lが位置する。
また、以下では、左右を表す場合には、ガイドバー135をスクリーン110Aに向けて操作端末機130を保持し、スクリーン110Aを向く利用者を基準に左右の位置関係を表すこととする。
また、筐体131の振動素子133R、133Lが設けられる面を上面と称し、ガイドバー135が取り付けられる側を前側と称す。
筐体131は、筐体部131R及び131Lと、遮断部131Aとを有する。筐体部131R及び131Lには、それぞれ、振動素子133R及び133Lが配設されている。筐体部131R及び131Lは、振動素子133R及び133Lが配設される基板部の一例である。
また、筐体部131Rと筐体部131Lとは、お互いの振動が伝達されないように遮断部131Aによって固定されている。
すなわち、筐体部131Rと筐体部131Lとは、分断されており、互いの間は遮断部131Aによって接続されている。
筐体部131R及び131Lは、例えば、樹脂製であり、利用者が手に持つのにちょうど良いサイズを有する。遮断部131Aは、例えば、防振構造を有するゴム部材であり、減衰比の高い防振ゴムを用いることができる。
遮断部131Aは、振動素子133Rが駆動された場合に筐体部131Rに生じる振動が筐体部131Lに伝達されなくするとともに、振動素子133Lが駆動された場合に筐体部131Lに生じる振動が筐体部131Rに伝達されないようにするために設けられている。
マーカ132は、複数の球体132Aとワイヤ132Bとを有する。複数の球体132Aは、ワイヤ132Bによって遮断部131Aに取り付けられている。
マーカ132は、位置計測装置140による操作端末機130の位置と姿勢の検出に用いられるため、位置計測装置140から照射される赤外線を様々な方向に反射させる。マーカ132が反射する赤外線は、赤外線カメラ140A及び140Bによって撮像され、位置検出部121が画像処理を行うことによってマーカ132の位置と姿勢が検出される。マーカ132の位置と姿勢は、操作端末機130の位置と姿勢を表す。
マーカ132は、規則性がない様々な方向に赤外線を反射できれば、球体の個数は幾つであってもよく、球体の位置についても特に限定はない。また、球体ではなくてもよいし、マーカ132の検出は、赤外線を用いる手法に限られない。操作端末機130の位置検出を行うことができるのであれば、マーカ132はどのようなものであってもよい。
振動素子133R及び133Lは、それぞれ、筐体部131R及び131Lの上面に設けられている。振動素子133R及び133Lは、駆動制御部125によって生成される駆動信号が表す物品111又は112の触感に応じた振動パターンによって駆動される。
振動素子133R及び133Lは、例えば、ピエゾ素子又はLRA(Linear Resonant Actuator)のような振動を発生する素子であればよい。振動素子133R及び133Lを駆動すると、筐体部131R及び131Lの表面に振動が発生する。
ボタン134は、操作端末機130の機能が割り当てられており、複数あってもよい。機能としては、例えば、処理装置120との無線通信のオン/オフを切り替える機能、ポインタ130Aの表示の明るさを調整する機能等の様々な機能である。
ガイドバー135は、遮断部131Aの前側に取り付けられている。ガイドバー135は、ポインタ130Aの位置の指標となる部材であり、スクリーン110Aにポインタ130Aが表示される位置を認識しやすくするために設けられている。ガイドバー135は、ここでは、一例として、細長い三角形状の板状部材である。
ガイドバー135は、操作端末機130を手に持つ利用者が、スクリーン110Aに表示されるポインタ130Aの位置を移動させる際の指標又は基準点になるのであれば、どのような形状のものであってもよい。
なお、ガイドバー135がなくても、利用者がポインタ130Aの位置を把握しやすいような場合には、操作端末機130は、ガイドバー135を含まなくてもよい。
図5は、振動モータ133Aを示す図である。振動モータ133Aは、ベース133A1と、回転部133A2とを有する。ベース133A1の内部には、巻線コイルが設けられている。回転部133A2は、偏心構造を有し、回転するとベース133A1に振動が伝達する。このような振動モータ133Aを図4に示す振動素子133R及び133Lの代わりに用いてもよい。
図6は、操作端末機130の電気系の構成を示す図である。ここでは、筐体131とガイドバー135を簡略化して示し、マーカ132、振動素子133R、133Lを省略する。
操作端末機130は、振動素子133R、133L、ボタン134、通信部136、ボタン判定部137、及び信号生成部138を有する。なお、ボタン判定部137と信号生成部138は、例えば、マイクロコンピュータのような演算処理装置によって実現される。
通信部136には、ボタン判定部137及び信号生成部138が接続されている。通信部136は、処理装置120の通信部126と無線通信を行う通信部であり、例えば、Bluetooth又はWiFi等の規格で無線通信を行う。
通信部136は、ボタン判定部137から入力される信号を処理装置120に送信する。また、通信部136は、処理装置120の駆動制御部125によって生成される駆動信号を受信し、信号生成部138に出力する。
ボタン判定部137は、ボタン134の操作の有無を判定する判定部であり、例えば、処理装置120との無線通信のオン/オフ、ポインタ130Aの表示の明るさを調整等の操作内容を判定する。ボタン判定部137は、操作内容を表す信号を通信部136に出力する。
信号生成部138は、通信部136が受信する駆動信号を増幅して振動素子133R又は133Lを駆動する。なお、信号生成部138を駆動制御部として捉えてもよい。
図7は、振動データを示す図である。
振動データは、スクリーン110Aに表示する物品の触感に応じた振動パターンを表すデータである。振動データは、一例として、物品ID、物品名称、材質、部位名称、振動強度、及び振動時間を有する。
物品IDは、物品毎に割り当てられる識別子である。すべての物品は、互いに異なる物品IDを有する。図7には、例示的な物品IDとして、001,002,003,・・・を示す。
物品名称は、物品の名称である。図7には、例示的な物品名称として、Plate, Connector, Cable,・・・を示す。
材質は、物品の表面の材質を表す。図7には、例示的な材質として、Steel(鉄), PBT(Polybutylene terephthalate:ポリブチレンテレフタレート),PVC(polyvinyl chloride:ポリ塩化ビニル)を示す。
部位名称は、物品の部位を表す。図7には、例示的な部位として、Corner(角)、Edge(辺)、Surface(面)を示す。Corner(角)とは、例えば、直方体の8つの頂点に位置する角である。また、Edge(辺)とは、直方体の12本の辺である。また、Surface(面)とは、直方体の6つの面である。また、球体の場合には、Corner(角)とEdge(辺)の名称は存在せず、Surface(面)のみが存在することになる。なお、部位名称は、直方体及び球体以外の様々な形状の物品に対応して割り当てられている。
振動強度は、振動素子133R又は133Lを駆動する駆動信号の振幅(Vpp)を表す。振幅は、ピーク・トゥ・ピークの電圧値で示してある。振動強度は、一例として、Corner(角)が最も強く、Edge(辺)は中間的な強度であり、Surface(面)は最も弱い値に設定されている。
Corner(角)、Edge(辺)、及びSurface(面)の中では、Corner(角)を触った場合の感触が最も強く、Surface(面)を触った場合の感触が最も弱く、Edge(辺)を触った場合の感触は、Corner(角)とSurface(面)の中間だからである。なお、この傾向は、一例として、すべての材質において同様に設定されている。
振動時間は、振動素子133R又は133Lを駆動する時間(ms)を表す。振動時間は、一例として、Steel(鉄), PBT(ポリブチレンテレフタレート),PVC(ポリ塩化ビニル)で異なるように設定されている。Steel(鉄)の振動時間が最も短く、PVC(polyvinyl chloride:ポリ塩化ビニル)の振動時間が最も長く、PBT(ポリブチレンテレフタレート)の振動時間は、Steel(鉄)とPVC(polyvinyl chloride:ポリ塩化ビニル)の中間である。
Steel(鉄)は、これら3つの材質の中では最もヤング率が大きく、振動が短い時間で収束するからである。また、PVC(ポリ塩化ビニル)は、これら3つの材質の中では最もヤング率が小さく、振動が収束するまでに最も時間がかかるからである。PBT(ポリブチレンテレフタレート)のヤング率は、これら3つの材質の中では中間的な値だからである。
以上のような振動データは、現実世界で物品の表面を手で触った場合の触感を振動素子133R又は133Lの振動によって再現するために、部位に応じて振動強度と振動時間が設定されている。
なお、振動データは、処理装置120のデータ保持部124に格納されている。
図8は、形状データを示す図である。
物品データは、スクリーン110Aに表示する物品の座標と形状を表すデータである。物品データは、物品ID、形状タイプ、基準座標、サイズ、及び回転角度を有する。
形状タイプは、物品の外形を表す。図8では、一例として、形状タイプがCuboid(直方体)とCylinder(円柱体)を示す。
基準座標は、物品の全体を表す座標の基準になる点の座標値を示す。座標値の単位はメートル(m)である。なお、座標系としては、XYZ座標系を用いる。
サイズは、物品のX軸方向の長さ、Y軸方向の長さ、Z軸方向の長さを表す。単位はメートル(m)である。一例として、X軸方向の長さは縦の長さを表し、Y軸方向の長さは高さを表し、Z軸方向の長さは奥行き(横方向の長さ)を表す。
回転角度は、X軸方向、Y軸方向、Z軸方向に対する回転角度θx、θy、θzで表される。単位は度(deg.)である。回転角度θxは、X軸を回転軸として物品を回転させる角度である。同様に、回転角度θy及びθzは、それぞれ、Y軸及びZ軸を回転軸として物品を回転させる角度である。回転角度θx、θy、θzの正方向は、予め決めておけばよい。
このような物品データを用いれば、CADデータによって表示される物品の画像と同様に、物品データによって特定される画像を表すことができる。
なお、物品データは、処理装置120のデータ保持部124に格納されている。
図9は、物品の画像の一例を示す図である。
図9には、図8の物品データによって表される3つの物品を示す。
物品IDが001の物品は、形状タイプがCuboid(直方体)で、基準座標(X,Y,Z)が(0.0,0.0,0.0)であり、サイズが(0.8,0.2,0.4)であり、回転角度θx、θy、θzが(0.0,0.0,0.0)である。
基準座標(X,Y,Z)が(0.0,0.0,0.0)であるため、物品IDが001の物品の1つの頂点は、XYZ座標系の原点Oと一致している。
物品IDが002の物品は、形状タイプがCuboid(直方体)で、基準座標(X,Y,Z)が(0.6,0.2,0.0)であり、サイズが(0.2,0.2,0.1)であり、回転角度θx、θy、θzが(0.0,0.0,0.0)である。
このため、物品IDが002の物品は、物品IDが001の物品の上に配置されている。
物品IDが003の物品は、形状タイプがCylinder(円柱体)で、基準座標(X,Y,Z)が(0.8,0.3,0.1)であり、サイズが(0.2,1.0,0.3)であり、回転角度θx、θy、θzが(0.0,0.0,90.0)である。
このため、物品IDが003の物品は、Z軸を回転軸として90度回転させた状態で、物品IDが002の物品のX軸正方向側に接続されている。
なお、上述のように、実施の形態1では、図8に示す物品ID、形状タイプ、基準座標、サイズ、及び回転角度を有する物品データを用いて、スクリーン110Aに投影される画像の中における物品の座標と形状を規定する。
例えば、形状タイプがCuboid(直方体)の場合に、8つの頂点の座標は、基準座標に対して、サイズで表される物品のX軸方向の長さ、Y軸方向の長さ、Z軸方向の長さを加算又は減算することによって求めることができる。8つの頂点の座標は、形状タイプがCuboid(直方体)の物品のCorner(角)の座標を表す。
8つの頂点の座標を求めれば、12本の辺を表す式を求めることができる。12本の辺を表す式は、形状タイプがCuboid(直方体)の物品のEdge(辺)の座標を表す式である。
また、8つの頂点の座標、及び/又は、12本の辺を表す式を求めれば、形状タイプがCuboid(直方体)の物品の6つの表面を表す式が求まり、Surface(面)の座標を求めることができる。
また、形状タイプがCylinder(円柱体)の場合には、サイズで表される物品のX軸方向の長さ、Y軸方向の長さ、Z軸方向の長さに基づいて、円柱の両端にある円(又は楕円)を表す式を求めることができる。また、両端の円(又は楕円)を表す式と基準座標とを用いれば、両端の円(又は楕円)の座標を表す式を求めることができる。円柱体の側面の座標は、両端の円(又は楕円)の座標を表す式を用いることよって求めることができる。
ここでは、形状タイプがCuboid(直方体)とCylinder(円柱体)の物品について説明したが、球体、三角錐、凹部を有する直方体等の様々な形状の物品についても、同様にスクリーン110Aに投影される画像の中における座標と形状を求めることができる。
図10は、スクリーン110Aに投影される画像の中におけるポインタ130Aの座標の時間変化の一例を示すデータである。
シミュレーションシステム100の利用を開始する際に、操作端末機130の位置のキャリブレーションを行う。キャリブレーションは、位置検出部121で検出する操作端末機130の初期の位置と、スクリーン110Aに表示される画像(仮想空間)の中におけるポインタ130Aの位置とを関連付ける処理である。ポインタ130Aの位置は、物品の物品データを表すXYZ座標系で表される。
このように、シミュレーションシステム100の利用を開始する際に、操作端末機130の位置のキャリブレーションを行うことにより、スクリーン110Aに表示される画像の中におけるポインタ130Aの初期の位置が決まる。
図10には、ポインタID、Index、時間、X、Y、Z座標、回転角度θx、θy、θzを示す。各パラメータの単位は、図10に示す通りである。
ポインタIDは、操作端末機130毎に割り当てられる識別子である。Indexは、ポインタIDで特定される操作端末機130の座標データの取得回数を表す。Indexは、ポインタID毎に数値が割り当てられる。時間は、測定開始からの経過時間を表す。なお、操作端末機130の座標データは、ポインタ130Aの座標を表すデータである。
処理装置120は、単位時間が経過する度に、操作端末機130の座標を検出し、検出した操作端末機130の座標を図10に示すポインタ130Aの座標に変換して、ポインタ130Aの座標の時間変化を表すデータを作成する。
図11は、実施の形態1の処理装置120が実行する処理を示すフローチャートである。ここでは、一例として、図1に示すように、スクリーン110Aに物品111及び112の画像を表示させる場合について説明する。
処理装置120は、電源投入後に処理を開始する(スタート)。
処理装置120は、データ保持部124から物品データと振動データを取得する(ステップS1)。
処理装置120は、物品データを用いて映像信号を生成し、投影装置110Bに画像を投影させる(ステップS2)。これにより、スクリーン110Aに物品111及び112の立体視のモデルの画像が表示される。スクリーン110Aに表示される物品111及び112の画像は、仮想空間に存在する仮想物体を表す。
なお、ステップS1及びS2の処理は、映像出力部123によって行われる。
処理装置120は、操作端末機130の現実空間における位置と姿勢を検出する(ステップS3)。ステップS3の処理は、位置検出部121によって行われる。
処理装置120は、仮想空間におけるポインタ130Aの座標を検出する(ステップS4)。ポインタ130Aの座標は、位置検出部121によって検出される。ポインタ130Aの座標データは、接触判定部122及び映像出力部123に入力される。
処理装置120は、ステップS4で得られたポインタ130Aの座標に基づき、投影装置110Bにポインタ130Aをスクリーン110Aに表示させる(ステップS5)。ポインタ130Aは、例えば、ガイドバー135の先端と重なる位置に表示される。
これにより、物品111及び112の立体視の画像が表示されているスクリーン110Aにポインタ130Aが表示される。
また、ステップS5では、ポインタ130Aを表す画像データを用いてポインタ130Aを表示すればよい。ポインタ130Aについても、物品111及び112の物品データに相当するデータを用意しておき、ポインタ130Aの立体視のモデルの画像を表示すればよい。ただし、特にポインタ130Aの画像データを用いなくてもポインタ130Aを表示できる場合は、ポインタ130Aの画像データをデータ保持部124に保持しておかなくてもよい。
なお、ステップS5の処理は、映像出力部123によって行われる。なお、ステップS3〜S5の処理は、ステップS1〜S2の処理と平行して行われる。
処理装置120は、物品111又は112とポインタ130Aが接触したかどうかを判定する(ステップS6)。ステップS6の処理は、接触判定部122によって行われる。接触判定部122は、物品111及び112の物品データと、ステップS4で得られたポインタ130Aの座標データとに基づき、物品111又は112とポインタ130Aとが接触したかどうかを判定する。
物品111又は112とポインタ130Aとが接触したかどうかは、物品111又は112の物品データが表す角、辺、又は面と、ポインタ130Aの座標データが表す位置との交点があるかどうかで判定すればよい。
また、物品111又は112とポインタ130Aとが接触したかどうかは、ポインタ130Aの座標データと、座標データに最も近い物品データに含まれる座標との位置の差が所定値以下であるかどうかで判定してもよい。例えば、座標データに最も近い物品データに含まれる位置と、座標データが表す位置との差が所定値以下になった場合に接触したと判定する方が、シミュレーションシステム100における操作端末機130の操作性が良好である場合には、このような設定にすればよい。
次に説明するステップS7では、一例として、物品111とポインタ130Aが接触したこととする。なお、物品112とポインタ130Aが接触した場合でも、同様の処理が行われる。
処理装置120は、物品111とポインタ130Aが接触した(S6:YES)と判定すると、ポインタ130Aの座標の時間変化を表すデータ(図10参照)に基づき、ポインタ130Aが物品111に接触した方向を算出する(ステップS7)。
接触した方向は、ポインタ130Aの座標の時間変化を表すデータに含まれる、接触の直前の座標が物品111に対して位置する方向に基づいて判定すればよい。なお、ステップS7の処理は、接触判定部122によって行われる。
処理装置120は、物品111とポインタ130Aとが接触したときの交点の近傍領域内における物品111の部位を決定する(ステップS8)。
ここで、近傍領域とは、例えば、物品111が一辺1mの長さを有する立方体である場合には、交点から±1cmの範囲の三次元領域を近傍領域とすればよい。
また、部位の決定は、例えば、近傍領域内に、面、辺、又は角があるかどうかを判定し、角、辺、面の順に優先順位をつけて決定すればよい。すなわち、近傍領域内に、面、辺、及び角がある場合には、近傍領域内の部位は角であると決定すればよい。
また、近傍領域内に、面と辺がある場合には、近傍領域内の部位は辺であると決定すればよい。また、近傍領域内に、面と角がある場合には、近傍領域内の部位は角であると決定すればよい。また、近傍領域内に、辺と角がある場合には、近傍領域内の部位は角であると決定すればよい。また、近傍領域内に、面、辺、又は角のいずれか1つがある場合には、存在する部位であると決定すればよい。
処理装置120は、ポインタ130Aが接触した物品111の物品IDと、ステップS8で決定した部位とを用いて、振動データ(図7参照)から、接触点の近傍の物品の材質を読み出す(ステップS9)。
例えば、物品IDが001で、部位が角である場合は、Steel(鉄)であると判定する。なお、図7には、物品IDが同一であれば、部位が異なっていても材質が等しい形態の振動データを示すが、部位によって材質が異なるように振動データが作成されていてもよい。
処理装置120は、ポインタ130Aが接触した物品111の物品IDと、ステップS8で決定した部位とを用いて、振動データから振動強度と振動時間を読み出す(ステップS10)。
処理装置120は、操作端末機130の振動素子133R又は133Lを駆動する駆動信号を生成し、通信部126を介して、操作端末機130に送信する(ステップS11)。この結果、操作端末機130の振動素子133R又は133Lが駆動される。
駆動信号は、ステップS7で算出された接触の方向と、ステップS10で読み出した振動強度及び振動時間とに基づいて生成される。なお、ステップS8〜S11の処理は、駆動制御部125が行う。
以上で、一連の処理が終了する(エンド)。
なお、ステップS6で物品111又は112とポインタ130Aが接触していない(S6:NO)と判定した場合は、フローをステップS1及びS3にリターンする。
ここで、図12を用いて、物品111にポインタ130Aが接触した場合における振動素子133R又は133Lの駆動の仕方について説明する。
図12は、物品111にポインタ130Aが接触した場合の触感の提供の仕方を示す図である。
接触の方向が、ポインタ130Aが物品111の右側から接近してポインタ130Aの左側が物品111に接触したことを表す場合には、操作端末機130の左側に位置する振動素子133Lを駆動する。
操作端末機130の振動素子133Lに振動を発生させて、ポインタ130Aの左側が物品111に接触したことを利用者に触感で認識させるためである。
また、接触の方向が、ポインタ130Aが物品111の左側から接近してポインタ130Aの右側が物品111に接触したことを表す場合には、操作端末機130の右側に位置する振動素子133Rを駆動する。
操作端末機130の振動素子133Rに振動を発生させて、ポインタ130Aの右側が物品111に接触したことを利用者に触感で認識させるためである。
また、図13乃至図16を用いて、振動素子133R、133Lを駆動する駆動信号の振動強度及び振動時間について説明する。ここでは、特に断らない限り、物品111とポインタ130Aとが接触する場合について説明する。物品111は、シミュレーションシステム100でスクリーン110Aに表示する物品の一例である。このため、物品111以外の物品にポインタ130Aが接触する場合も同様である。
図13及び図14は、ポインタ130Aで触れる物品111の部位と、振動パターンとの関係を表す図である。
図13に示すように、物品111は、角111A、辺111B、及び面111Cを有する。角111A、辺111B、面111Cは、それぞれ、振動パターンのCorner(角)、Edge(辺)、及びSurface(面)に相当する。
ポインタ130Aが角111Aに触れると、振動強度(振幅)を強く(大きく)する。ポインタ130Aが辺111Bに触れると、振動強度(振幅)を中くらいにする。また、ポインタ130Aが面111Cに触れると、振動強度(振幅)を弱く(小さく)する。なお、ここでは、振動を発生させる時間は、振動強度によらず一定である。
このように、ポインタ130Aが物品111の角111A、辺111B、面111Cのうちのどの部位に触れるかによって振動強度を変える。また、角111Aは、接触面積が小さく、実際に手で触れると尖った触感を受けるので、振動強度を最も強くしてある。これとは逆に、面111Cは、接触面積が大きく、実際に手で触れると滑らかな触感を受けるので、振動強度を最も弱くしてある。そして、辺111Bは、接触面積が角111Aと面111Cの間くらい(中くらい)であるため、振動強度を中くらいにしてある。
このように、例えば、接触する部位に応じて駆動信号の振動強度を変化させることにより、操作端末機130でポインタ130Aを操作する利用者の手に、ポインタ130Aで触れる物品111の部位に応じた触感を提供することができる。
図14では、振動強度の代わりに振動を発生させる時間を変化させる。
ポインタ130Aが角111Aに触れると、振動時間を短くする。ポインタ130Aが辺111Bに触れると、振動時間を中くらいにする。また、ポインタ130Aが面111Cに触れると、振動時間を長くする。なお、ここでは、振動強度は、振動時間によらず一定である。
このように、ポインタ130Aが物品111の角111A、辺111B、面111Cのうちのどの部位に触れるかによって振動時間を変える。また、角111Aは、接触面積が小さく、実際に手で触れると尖った触感を受けるので、振動時間を最も短くしてある。これとは逆に、面111Cは、接触面積が大きく、実際に手で触れると滑らかな触感を受けるので、振動時間を最も長くしてある。そして、辺111Bは、接触面積が角111Aと面111Cの間くらい(中くらい)であるため、振動時間を中くらいにしてある。
このように、例えば、接触する部位に応じて駆動信号の振動時間を変化させることにより、操作端末機130でポインタ130Aを操作する利用者の手に、ポインタ130Aで触れる物品111の部位に応じた触感を提供することができる。
図15及び図16は、ポインタ130Aで触れる物品111の材質と、振動パターンとの関係を表す図である。
図15では、物品111及び112等のような物品の材質に応じて、振動強度を変化させる。
物品のヤング率に応じて、硬い材質、柔らかい材質、中くらいの材質に予め分けて振動データを作成しておく。例えば、ヤング率が10GPa以上の材質を硬い材質、1GPa〜10GPaの材質を中程度の硬さの材質、1GPa以下の材質を柔らかい材質として定義しておくとする。
ポインタ130Aが触れる物品の材質が硬い場合は、振動強度(振幅)を強く(大きく)する。ポインタ130Aが触れる物品の材質が中くらいの硬さである場合は、振動強度(振幅)を中くらいにする。また、ポインタ130Aが触れる物品の材質が柔らかい場合は、振動強度(振幅)を弱く(小さく)する。なお、ここでは、振動を発生させる時間は、振動強度によらず一定である。
このように、ポインタ130Aが触れる物品の材質によって振動強度を変えれば、操作端末機130でポインタ130Aを操作する利用者の手に、ポインタ130Aで触れる物品の材質に応じた触感を提供することができる。
図16では、物品111及び112等のような物品の材質に応じて、振動時間を変化させる。
図15で説明したように、物品のヤング率に応じて、硬い材質、柔らかい材質、中くらいの材質に予め分けて振動データを作成しておく。例えば、ヤング率が10GPa以上の材質を硬い材質、1GPa〜10GPaの材質を中程度の硬さの材質、1GPa以下の材質を柔らかい材質として定義しておくとする。
ポインタ130Aが触れる物品の材質が硬い場合は、振動時間を短くする。ポインタ130Aが触れる物品の材質が中くらいの硬さである場合は、振動時間を中くらいにする。また、ポインタ130Aが触れる物品の材質が柔らかい場合は、振動時間を長くする。なお、ここでは、振動強度は、振動時間によらず一定である。
このように、ポインタ130Aが触れる物品の材質によって振動時間を変えれば、操作端末機130でポインタ130Aを操作する利用者の手に、ポインタ130Aで触れる物品の材質に応じた触感を提供することができる。
なお、図13で説明したように部位に応じて振動強度を変化させることと、図16で説明したように材質に応じて振動時間を変化させることとを組み合わせてもよい。このようにすれば、物品の部位と材質とに応じて、振動パターンを変化させることができる。
また、図14で説明したように部位に応じて振動時間を変化させることと、図15で説明したように材質に応じて振動強度を変化させることとを組み合わせてもよい。このようにすれば、物品の部位と材質とに応じて、振動パターンを変化させることができる。
以上のように、実施の形態1のシミュレーションシステム100によれば、操作端末機130で操作するポインタ130Aが、スクリーン110Aに投影される画像の中で、物品111又は112のような物品と接触した場合に、接触した物品の部位又は材質に応じて振動素子133R又は133Lを振動させる振動パターンを変える。
このため、物品の部位又は材質に応じた触感を利用者に提供することができる。利用者は、触感だけで部位又は材質の違いを認識することができる。なお、この場合に、利用者が手で振動素子133R又は133Lに触れていることが望ましいが、振動素子133R又は133Lに触れていなくても、筐体部131R又は131Lが部位又は材質に応じた振動パターンで振動するため、触感だけで部位又は材質の違いを認識することができる。
また、実施の形態1のシミュレーションシステム100によれば、操作端末機130で操作するポインタ130Aが、物品に接触する方向に応じて、振動素子133R又は133Lのいずれかを振動させる。
このため、利用者は、触感だけでポインタ130Aが物品に触れた方向を認識することができる。
以上のように、実施の形態1のシミュレーションシステム100によれば、物品の部位又は材質に応じた触感を利用者に提供することができるとともに、物品に触れた方向に応じた触感を利用者に提供することができる。このような触感は、現実空間において手で物品を触っている触感を模擬的に表しており、リアリティに富んでいる。
従って、実施の形態1によれば、リアリティのある触感を提供できるシミュレーションシステム100を提供することができる。
なお、以上では、マーカ132と位置計測装置140(赤外線カメラ140A及び140B)とを用いて操作端末機130の位置と姿勢を検出する形態について説明した。しかしながら、
マーカ132が不要な赤外線深度センサ、磁気センサ、ステレオカメラ、加速度センサ、又は、角速度センサのうち、少なくとも1つ以上を用いて操作端末機130の位置と姿勢を検出してもよい。
また、超音波帯の固有振動を発生させる駆動制御信号を用いて、振動素子133R及び133Lを駆動してもよい。この場合には、筐体部131R及び131Lの外表面に超音波帯の固有振動が発生する。
超音波帯とは、例えば、約20kHz以上の周波数帯であり、人間が聴き取ることのできる可聴域よりも高い周波数をいう。筐体部131R及び131Lの外表面に超音波帯の固有振動が発生させると、スクイーズ効果によって凹凸感等のある触感を提供することができる。
ここで、図17乃至図22を用いて、実施の形態1の変形例について説明する。
図17乃至図22は、実施の形態1の変形例を示す図である。
図17に示す操作端末機130Bは、図4に示す操作端末機130の筐体131を4分割にして、4つの振動素子133R1、133R2、133L1、133L2を含むようにしたものである。その他の構成は、図4に示す操作端末機130と同様であるので、同様の構成要素には同一符号を付し、その説明を省略する。
操作端末機130Bは、筐体131B、マーカ132、振動素子133R1、133R2、133L1、133L2、ボタン134、及びガイドバー135を有する。
筐体131Bは、筐体部131R1、131R2、131L1、131L2と、遮断部131BAとを有する。筐体部131R1、131R2、131L1、131L2には、それぞれ、振動素子133R1、133R2、133L1、133L2が配設されている。
また、遮断部131BAは、4つの筐体部131R1、131R2、131L1、131L2の間を分断するように平面視で十字型の壁状部材であり、筐体部131R1、131R2、131L1、131L2は、お互いの振動が伝達されないように遮断部131BAによって固定されている。
すなわち、筐体部131R1、131R2、131L1、131L2は、互いに分断されており、互いの間は遮断部131BAによって接続されている。
筐体部131R1、131R2、131L1、131L2は、図4に示す筐体部131R及び131Lのサイズを半分にした部材であり、例えば、樹脂製である。遮断部131BAは、例えば、防振構造を有するゴム部材であり、減衰比の高い防振ゴムを用いることができる。
振動素子133R1、133R2、133L1、133L2は、駆動制御部125によって生成される駆動信号が表す物品111又は112の触感に応じた振動パターンによって駆動される。
振動素子133R1、133R2、133L1、133L2は、図4に示す振動素子133R及び133Lと同様に、例えば、ピエゾ素子又はLRAのような圧電素子を含むものであればよい。振動素子133R1、133R2、133L1、133L2をそれぞれ駆動すると、筐体部131R1、131R2、131L1、131L2の表面に振動が発生する。
このような操作端末機130Bを用いれば、ポインタ130Aが物品に接触した際の部位及び材質に応じて、さらに多い種類の触感を提供することができる。
また、ポインタ130Aが物品に接触したときに、左右方向に加えて、前後方向の触感を提供することができる。
例えば、ポインタ130Aが物品111の右側から接近してポインタ130Aの左前側が物品111に接触した場合には、操作端末機130の左前側に位置する振動素子133L1を駆動すればよい。
また、ポインタ130Aの左後側が物品111に接触した場合には、操作端末機130の左後側に位置する振動素子133L2を駆動すればよい。
また、ポインタ130Aが物品111の左側から接近してポインタ130Aの右前側が物品111に接触した場合には、操作端末機130の右前側に位置する振動素子133R1を駆動すればよい。
また、ポインタ130Aの右後側が物品111に接触した場合には、操作端末機130の右後側に位置する振動素子133R2を駆動すればよい。
図18に示す操作端末機130Cは、図17に示す操作端末機130Bを円筒型にしたものである。その他の構成は、図17に示す操作端末機130Bと同様であるので、同様の構成要素には同一符号を付し、その説明を省略する。
操作端末機130Cは、筐体131C、マーカ132、振動素子133R1、133R2、133L1、133L2、ボタン134、及びガイドバー135Cを有する。
筐体131Cは、筐体部131CR1、131CR2、131CL1、131CL2と、遮断部131CAとを有する。筐体部131CR1、131CR2、131CL1、131CL2は、円柱状の部材を前後(筐体部131CR1及び131CL1と、筐体部131CR2及び131CL2)に分け、さらに左右に分断したものである。
筐体部131CR1、131CR2、131CL1、131CL2には、それぞれ、振動素子133R1、133R2、133L1、133L2が埋め込まれている。
また、遮断部131CAは、4つの筐体部131CR1、131CR2、131CL1、131CL2の間を分断するように平面視で十字型の壁状部材であり、筐体部131CR1、131CR2、131CL1、131CL2は、お互いの振動が伝達されないように遮断部131CAによって固定されている。
すなわち、筐体部131CR1、131CR2、131CL1、131CL2は、互いに分断されており、互いの間は遮断部131CAによって接続されている。遮断部131CAは、例えば、防振構造を有するゴム部材であり、減衰比の高い防振ゴムを用いることができる。
このような操作端末機130Cを用いれば、ポインタ130Aが物品に接触した際の部位及び材質に応じて、さらに多い種類の触感を提供することができる。
また、ポインタ130Aが物品に接触したときに、左右方向に加えて、前後方向の触感を提供することができる。
円柱状の筐体131Cのサイズは、ペン、ドライバ、又はその他の様々な部材のサイズに設定することができる。
なお、振動素子133R1、133R2、133L1、133L2の駆動方法は、図17に示す操作端末機130Bと同様である。
図19乃至図21に示す操作端末機130Dは、図18に示す操作端末機130Cを指に装着できるような形状にしたものである。その他の構成は、図18に示す操作端末機130Cと同様であるので、同様の構成要素には同一符号を付し、その説明を省略する。
図19は、平面図であり、図20は、図19のA−A矢視断面図であり、図21は、左後方から見た斜視図である。なお、図19及び図20では、マーカ132を省略する。
操作端末機130Dは、筐体131D、マーカ132、振動素子133D1、133D2、133D3、133D4、133D5、及びボタン134を有する。なお、操作端末機130Dは、指を差し込んで装着する形態であり、ガイドバー135Cを含まない点において操作端末機130Cと異なる。
筐体131Dは、筐体部131D1、131D2、131D3、131D4、131D5と、遮断部131DAとを有する。筐体部131D1、131D2、131D3、131D4は、内部に指を挿入できる穴部を有する円筒状の部材を周方向に4分割し、さらに指を挿入する方向における奥側(操作端末機130Dの前側)の円板状の部分を筐体部131D5として分断したものである。
筐体部131D1、131D2、131D3、131D4、131D5は、互いに分割されている。
筐体部131D1、131D2、131D3、131D4、131D5の外表面には、それぞれ、振動素子133D1、133D2、133D3、133D4、133D5が配設されている。
また、遮断部131DAは、遮断部片131DA1、131DA2、131DA3、131DA4、131DA5を有する。
遮断部片131DA1、131DA2、131DA3、131DA4は、筐体部131D1、131D2、131D3、131D4の間に配設される。遮断部片131DA1、131DA2、131DA3、131DA4と、筐体部131D1、131D2、131D3、131D4とは、指を挿入可能な孔部を有する円筒体を構築する。
筐体部131D1は、遮断部片131DA5を介して、円筒体の前方を塞ぐように取り付けられている。
4つの筐体部131D1、131D2、131D3、131D4の間を分断するように平面視で十字型の壁状部材であり、筐体部131D1、131D2、131D3、131D4は、お互いの振動が伝達されないように遮断部131DAによって固定されている。
遮断部片131DA1、131DA2、131DA3、131DA4、131DA5は、例えば、防振構造を有するゴム部材であり、減衰比の高い防振ゴムを用いることができる。
このような操作端末機130Dを指に装着すれば、ポインタ130Aが物品に接触した際の部位及び材質に応じて、左右、上下、及び前方から触感を提供することができる。
図22は、操作端末機130Dの電気系の構成を示す図である。操作端末機130Dは、指に装着するため小型である。このため、電気系は、筐体131D側と、制御部130E側とに分かれている。なお、図6に示す操作端末機130の電気系と同様の構成要素には同一符号を付し、その説明を省略する。
筐体131Dには、振動素子133D1〜133D5と、ボタン134とが配設されている。また、制御部130Eには、通信部136、ボタン判定部137、及び信号生成部138が設けられている。
ボタン134とボタン判定部137はケーブル131E1で接続されており、信号生成部138と振動素子133D1〜133D5は、5本のケーブル131E2で接続されている。なお、説明の便宜上、図22にはケーブル131E2を1本示す。
操作端末機130Dは、指に装着するため小型であるため、筐体131D側にすべての電気系を収納するのが困難な場合は、電気系を筐体131D側と、制御部130E側とに分ければよい。
また、上述した操作端末機130、130B、130C、130Dにおいても、一部の電気系を筐体とは別に外部に配置してもよい。
<実施の形態2>
図23は、実施の形態2の操作端末機230を示す斜視図である。
操作端末機230は、筐体231、マーカ132、振動素子233、ボタン134、及びガイドバー135を有する。ここでは、実施の形態1の操作端末機130と同様の構成要素には同一符号を付し、その説明を省略する。
操作端末機230は、主に、振動素子233と筐体231の構成が実施の形態1の操作端末機130と異なる。
筐体231は、上面に振動素子233とボタン134が配設される箱形の筐体である。筐体231は、例えば、樹脂製であり、利用者が手に持つのにちょうど良いサイズを有する。筐体231の前側にはマーカ132とガイドバー135が取り付けられている。
振動素子233は、図23の右側に拡大して平面構成を示すように、5行×5列のマトリクス状に配置される25個のアクチュエータ233Aを有する。アクチュエータ233Aは、例えば、ピエゾ素子又はLRAのような圧電素子を含むものであればよい。25個のアクチュエータ233Aは、別々に駆動できるようになっている。
25個のアクチュエータ233Aは、遮断部233Bによって区画されており、互いの振動が伝わらないようになっている。遮断部233Bは、例えば、防振構造を有するゴム部材であり、減衰比の高い防振ゴムを用いることができる。
このような操作端末機230は、実施の形態1の操作端末機130と同様に、ポインタ130Aを操作するために用いられる。
図24は、実施の形態2の振動データを示す図である。
振動データは、振動データは、物品ID、物品名称、材質、部位名称、振動強度、及び振動時間を有する。物品ID、物品名称、材質、部位名称、及び振動時間については、図7に示す実施の形態2の振動データと同様である。
振動強度は、25個のアクチュエータ233Aを別々に駆動する駆動信号の振幅(Vpp)を表す。振幅は、ピーク・トゥ・ピークの電圧値で示してある。振動強度は、一例として、Corner(角)が最も強く、Edge(辺)は中間的な強度であり、Surface(面)は最も弱い値に設定されている。
また、25個のアクチュエータ233Aを別々に駆動するために、駆動信号は、5行×5列の行列式で表される。
例えば、物品IDが001で、物品名称がPlateで、材質がSteel(鉄)で、部位名称がCorner(角)の場合には、5行×5列の25個のアクチュエータ233Aのうちの中央に位置する1つのアクチュエータ233Aを振動強度10で駆動し、振動時間は20msに設定されている。
また、部位名称がEdge(辺)の場合には、25個のアクチュエータ233Aのうちの中央部の3行×3列の9個のアクチュエータ233Aを振動強度7で駆動し、振動時間は20msに設定されている。
また、部位名称がEdge(辺)の場合には、25個のアクチュエータ233Aのすべてを振動強度3で駆動し、振動時間は20msに設定されている。
このようにして、Corner(角)、Edge(辺)、Surface(面)の触感をアクチュエータ233Aの数と、振動強度10とで再現している。
以上のような振動データは、現実世界で物品の表面を手で触った場合の触感を25個のアクチュエータ233Aの振動によって再現するために、部位に応じて振動強度と振動時間が設定されている。
なお、振動データは、処理装置120のデータ保持部124に格納されている。
図25は、実施の形態1の処理装置120が実行する処理を示すフローチャートである。ここでは、一例として、図1に示すように、スクリーン110Aに物品111及び112の画像を表示させる場合について説明する。
処理装置120は、電源投入後に処理を開始する(スタート)。
ステップS21〜S26の処理は、それぞれ、図11に示すステップS1〜S6と同様である。
実施の形態2の操作端末機230は、ポインタ130Aと物品との接触した方向を触感で提供することを行わないため、図25に示すフローチャートは、図11に示すステップS7に対応するステップを含まない。
このため、ステップS26が終了すると、ステップS27〜S30の処理が実行される。ステップS27〜S30の処理は、それぞれ、図11に示すステップS8〜S11と同様である。主な違いは以下の通りである。
ステップS29では、処理装置120は、ポインタ130Aが接触した物品111の物品IDと、ステップS27で判定した部位とを用いて、振動データ(図24参照)から振動強度と振動時間を読み出す。ここでは、25個のアクチュエータ233Aの駆動信号を読み出すことになる。
ステップS30では、処理装置120は、25個のアクチュエータ233Aの駆動信号を生成し、通信部126を介して、操作端末機230に送信する。この結果、操作端末機230のアクチュエータ233Aが駆動される。
以上のような処理により、物品の部位又は材質に応じて、25個のアクチュエータ233Aの振動強度と振動時間が決定され、操作端末機230を介して利用者に物品の部位又は材質に応じた触感が提供される。
また、図26及び図27を用いて、アクチュエータ233Aを駆動する駆動信号の振動強度及び振動時間について説明する。ここでは、特に断らない限り、物品111とポインタ130Aとが接触する場合について説明する。物品111は、シミュレーションシステム100でスクリーン110Aに表示する物品の一例である。このため、物品111以外の物品にポインタ130Aが接触する場合も同様である。
図26は、ポインタ130Aで触れる物品111の部位と、振動パターンとの関係を表す図である。
図26の右側では、25個のアクチュエータ233Aのうち、駆動されるアクチュエータ233Aをグレーで示す。また、振動強度が大きいほど、濃いグレーで示す。ここでは、3段階の濃さのグレーで、振動強度の大、中、小を表す。なお、駆動されないアクチュエータ233Aを白で示す。
ポインタ130Aが角111Aに触れると、25個のアクチュエータ233Aのうちの中央に位置する1つのアクチュエータ233Aを駆動し、振動強度(振幅)を大(強)にする。
ポインタ130Aが辺111Bに触れると、25個のアクチュエータ233Aのうちの中央側に位置する9つのアクチュエータ233Aを駆動し、振動強度(振幅)を中くらいにする。
また、25個のアクチュエータ233Aのすべてを駆動し、ポインタ130Aが面111Cに触れると、振動強度(振幅)を弱く(小さく)する。
このように、ポインタ130Aが物品111の角111A、辺111B、面111Cのうちのどの部位に触れるかによって駆動するアクチュエータ233Aの数と振動強度を変える。
このように、一例として、接触する部位に応じて駆動するアクチュエータ233Aの数と振動強度を変化させることにより、操作端末機230でポインタ130Aを操作する利用者の手に、ポインタ130Aで触れる物品111の部位に応じた触感を提供することができる。
図27は、ポインタ130Aで触れる物品111の材質と、振動パターンとの関係を表す図である。
図27では、物品111及び112等のような物品の材質に応じて、振動時間を変化させる。
実施の形態1で説明したように、物品のヤング率に応じて、硬い材質、柔らかい材質、中くらいの材質に予め分けて振動データを作成しておく。例えば、ヤング率が10GPa以上の材質を硬い材質、1GPa〜10GPaの材質を中程度の硬さの材質、1GPa以下の材質を柔らかい材質として定義しておくとする。
ポインタ130Aが触れる物品の材質が硬い場合は、アクチュエータ233Aの振動時間を短くする。また、このとき、25個のアクチュエータ233Aのうちの中央に位置する1つのアクチュエータ233Aを駆動してもよい。
ポインタ130Aが触れる物品の材質が中くらいの硬さである場合は、アクチュエータ233Aの振動時間を中くらいにする。また、このとき、25個のアクチュエータ233Aのうちの中央側に位置する9つのアクチュエータ233Aを駆動してもよい。
また、ポインタ130Aが触れる物品の材質が柔らかい場合は、アクチュエータ233Aの振動時間を長くする。このときは、25個のアクチュエータ233Aのすべてを駆動すればよい。
このように、ポインタ130Aが触れる物品の材質によって振動時間を変えれば、操作端末機230でポインタ130Aを操作する利用者の手に、ポインタ130Aで触れる物品の材質に応じた触感を提供することができる。
なお、図26で説明したように部位に応じて振動強度を変化させることと、図27で説明したように材質に応じて振動時間を変化させることとを組み合わせてもよい。このようにすれば、物品の部位と材質とに応じて、振動パターンを変化させることができる。
以上のように、実施の形態2のシミュレーションシステムによれば、操作端末機230で操作するポインタ130Aが、スクリーン110Aに投影される画像の中で、物品111又は112のような物品と接触した場合に、接触した物品の部位又は材質に応じてアクチュエータ233Aを振動させる振動パターンを変える。
このため、物品の部位又は材質に応じた触感を利用者に提供することができる。利用者は、触感だけで部位又は材質の違いを認識することができる。
以上のように、実施の形態2のシミュレーションシステムによれば、物品の部位又は材質に応じた触感を利用者に提供することができる。このような触感は、現実空間において手で物品を触っている触感を模擬的に表しており、リアリティに富んでいる。
従って、実施の形態2によれば、リアリティのある触感を提供できるシミュレーションシステムを提供することができる。
ここで、図28乃至図33を用いて、実施の形態2の変形例について説明する。
図28乃至図33は、実施の形態2の変形例を示す図である。
図28に示す操作端末機230Aは、図23に示す操作端末機230の振動素子233を振動素子233Cに変更したものである。振動素子233Cは、3行×3列でマトリクス状に配置される9個のアクチュエータである。各アクチュエータは、図23に示すアクチュエータ233Aと同様である。
振動素子233Cは、遮断部233Bを含まない点が図23に示す操作端末機230の振動素子233と異なる。
このような操作端末機230Aを図23に示す操作端末機230の代わりに用いてもよい。
図29に示す操作端末機230Bは、図23に示す操作端末機230の振動素子233を吸引素子250に変更したものである。吸引素子250は、5行×5列でマトリクス状に配置される25個の吸引口250Aを有する。吸引口250Aの奥側には、吸引を行うバキューム装置のような吸引機構が接続されている。
吸引口250Aは、互いに離間して配置されており、吸引機構も互いに独立している。吸引を行う吸引口250Aの数を図23に示すアクチュエータ233Aを駆動する数と同様に制御すればよい。また、吸引の強さを図23に示すアクチュエータ233Aを駆動する振動強度と同様に制御すればよい。
このような操作端末機230Bを図23に示す操作端末機230の代わりに用いてもよい。
図30に示す操作端末機230Cは、図23に示す操作端末機230の振動素子233を可動素子260に変更したものである。可動素子260は、4行×4列でマトリクス状に配置される16個の可動ピン260Aを有する。可動ピン260Aの裏側には、可動ピン260Aを上下に移動させるアクチュエータが配置されている。
可動ピン260Aは、互いに離間して配置されており、アクチュエータも互いに独立している。駆動する可動ピン260Aの数を図23に示すアクチュエータ233Aを駆動する数と同様に制御すればよい。また、可動ピン260Aを駆動する強さ又は高さを図23に示すアクチュエータ233Aを駆動する振動強度と同様に制御すればよい。
このような操作端末機230Cを図23に示す操作端末機230の代わりに用いてもよい。
図31乃至図33に示す操作端末機230Dは、図19乃至図21に示す操作端末機13Dと同様に指に装着できるようにしたものである。
図31は、平面図であり、図32は、図31のB−B矢視断面図であり、図33は、左後方から見た斜視図である。なお、図31及び図32では、マーカ132を省略する。
操作端末機230Dは、筐体231D、マーカ132、振動素子233D、及びボタン134を有する。
筐体231Dは、内部に指を挿入できる穴部を有する円筒状の部材であり、指を挿入する方向における奥側は封止されている。
振動素子233Dは、筐体231Dの内部で、指先のひらの部分に当接するように配置されている。振動素子233Dの駆動方法は、図23に示す振動素子233と同様である。
このような操作端末機230Dを指に装着すれば、ポインタ130Aが物品に接触した際の部位及び材質に応じて、触感を提供することができる。
以上、本発明の例示的な実施の形態のシミュレーションシステムについて説明したが、本発明は、具体的に開示された実施の形態に限定されるものではなく、特許請求の範囲から逸脱することなく、種々の変形や変更が可能である。
100 シミュレーションシステム
110A スクリーン
110B 投影装置
110C 3D眼鏡
111、112 物品
120 処理装置
121 位置検出部
122 接触判定部
123 映像出力部
124 データ保持部
125 駆動制御部
126 通信部
130、130B、130C、130D 操作端末機
130A ポインタ
131 筐体
132 マーカ
133R、133L 振動素子
134 ボタン
135 ガイドバー
140 位置計測装置
140A、140B 赤外線カメラ
230、230A、230B、230C、230D 操作端末機
231 筐体
233 振動素子

Claims (8)

  1. 物品の形状と座標を表す物品データに基づいて前記物品の画像を表示する表示部と、
    複数の可動素子を有し、利用者が手に持ちながら移動させることによって前記表示部に表示されるポインタの位置を操作する操作端末機と、
    前記物品データと、前記複数の可動素子を振動させる振動パターンであって、前記物品の各部位又は材質の触感に応じた振動パターンを表す振動データとを格納するデータ格納部と、
    前記操作端末機の位置及び姿勢を検出する第1検出部と、
    前記第1検出部によって検出される前記位置及び姿勢に基づき、前記表示部に表示される前記ポインタの座標を検出する第2検出部と、
    前記物品データに含まれる座標と、前記第2検出部によって検出される前記ポインタの座標とに基づき、前記表示部に表示される前記物品に、前記ポインタが接触したかどうかを判定する判定部と、
    前記判定部によって前記ポインタが前記物品に接触したと判定されると、前記ポインタに接触した前記物品の部位又は材質に前記振動データで対応する前記振動パターンで前記複数の可動素子を駆動する駆動制御部と
    を含む、シミュレーションシステム。
  2. 前記判定部は、前記表示部に表示される前記物品の位置と、前記ポインタの位置との差が所定値以下になると、前記物品に前記ポインタが接触したと判定する、請求項1記載のシミュレーションシステム。
  3. 前記判定部は、前記物品に前記ポインタが接触した方向を判定し、
    前記駆動制御部は、前記複数の可動素子のうち、前記ポインタに対して前記物品が位置する方向にある可動素子を前記振動パターンで駆動する、請求項1又は2記載のシミュレーションシステム。
  4. 前記振動データは、前記物品の部位又は材質に応じて、可動素子を駆動する強度、前記可動素子を駆動する時間、又は、前記複数の可動素子のうちの前記振動パターンで駆動される可動素子の数を設定したデータである、請求項1乃至3のいずれか一項記載のシミュレーションシステム。
  5. 前記複数の可動素子のうちの前記振動パターンで駆動される可動素子の数によって、前記触感を表す面積が設定される、請求項4記載のシミュレーションシステム。
  6. 前記第2検出部及び前記駆動制御部と、第1通信部とを有する演算処理装置をさらに含み、
    前記操作端末機は、前記第1通信部と無線通信を行う第2通信部をさらに有し、
    前記操作端末機の前記複数の可動素子は、前記無線通信によって前記演算処理装置から受信する、前記駆動制御部が出力する駆動指令によって駆動される、請求項1乃至5のいずれか一項記載のシミュレーションシステム。
  7. 前記複数の可動素子は、複数の振動素子であり、
    前記操作端末機は、
    前記複数の振動素子がそれぞれ搭載される複数の基板部と、
    前記複数の基板部の間に設けられ、振動を遮断する遮断部と
    をさらに有する、請求項1乃至6のいずれか一項記載のシミュレーションシステム。
  8. 前記複数の可動素子は、それぞれ、利用者が触れる面に対して入れ子式に突出する複数の駆動素子、又は、利用者が触れる面に形成される複数の孔部で吸引する複数の吸引機構である、請求項1乃至6のいずれか一項記載のシミュレーションシステム。
JP2017517492A 2015-05-11 2015-05-11 シミュレーションシステム Pending JPWO2016181469A1 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/063524 WO2016181469A1 (ja) 2015-05-11 2015-05-11 シミュレーションシステム

Publications (1)

Publication Number Publication Date
JPWO2016181469A1 true JPWO2016181469A1 (ja) 2018-03-08

Family

ID=57247847

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017517492A Pending JPWO2016181469A1 (ja) 2015-05-11 2015-05-11 シミュレーションシステム

Country Status (3)

Country Link
US (1) US20180081444A1 (ja)
JP (1) JPWO2016181469A1 (ja)
WO (1) WO2016181469A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6851191B2 (ja) * 2016-12-15 2021-03-31 キヤノン株式会社 情報処理システム、情報処理装置、その制御方法とプログラム
WO2019225170A1 (ja) 2018-05-21 2019-11-28 株式会社ワコム 位置指示デバイス及び空間位置指示システム
US10917180B2 (en) * 2018-07-24 2021-02-09 Comcast Cable Communications, Llc Controlling vibration output from a computing device
JP7457453B2 (ja) * 2018-07-27 2024-03-28 株式会社栗本鐵工所 仮想オブジェクト触覚提示装置およびプログラム
WO2023153232A1 (ja) * 2022-02-08 2023-08-17 ソニーグループ株式会社 情報処理装置、情報処理方法およびプログラム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06155344A (ja) * 1992-11-12 1994-06-03 Matsushita Electric Ind Co Ltd 力覚呈示装置
JPH11203040A (ja) * 1998-01-16 1999-07-30 Fuji Xerox Co Ltd 触力覚呈示装置
JP2000089895A (ja) * 1998-09-12 2000-03-31 Fuji Xerox Co Ltd 触力覚呈示装置
JP2005537596A (ja) * 2002-07-18 2005-12-08 株式会社ソニー・コンピュータエンタテインメント 把持式コンピュータインタラクティブデバイス
JP2008134990A (ja) * 2006-10-23 2008-06-12 Canon Inc 情報処理装置、情報処理方法
JP2009205461A (ja) * 2008-02-28 2009-09-10 Nippon Hoso Kyokai <Nhk> 触覚情報表示装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6545706B1 (en) * 1999-07-30 2003-04-08 Electric Planet, Inc. System, method and article of manufacture for tracking a head of a camera-generated image of a person
US6990639B2 (en) * 2002-02-07 2006-01-24 Microsoft Corporation System and process for controlling electronic components in a ubiquitous computing environment using multimodal integration

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06155344A (ja) * 1992-11-12 1994-06-03 Matsushita Electric Ind Co Ltd 力覚呈示装置
JPH11203040A (ja) * 1998-01-16 1999-07-30 Fuji Xerox Co Ltd 触力覚呈示装置
JP2000089895A (ja) * 1998-09-12 2000-03-31 Fuji Xerox Co Ltd 触力覚呈示装置
JP2005537596A (ja) * 2002-07-18 2005-12-08 株式会社ソニー・コンピュータエンタテインメント 把持式コンピュータインタラクティブデバイス
JP2008134990A (ja) * 2006-10-23 2008-06-12 Canon Inc 情報処理装置、情報処理方法
JP2009205461A (ja) * 2008-02-28 2009-09-10 Nippon Hoso Kyokai <Nhk> 触覚情報表示装置

Also Published As

Publication number Publication date
US20180081444A1 (en) 2018-03-22
WO2016181469A1 (ja) 2016-11-17

Similar Documents

Publication Publication Date Title
WO2016181469A1 (ja) シミュレーションシステム
US10720189B2 (en) Haptic effect generation for space-dependent content
JP4871270B2 (ja) 仮想3次元空間内で動作するシステム及び方法と視覚化システムを介してオペレーションを選択するシステム
CN104714687A (zh) 用于触觉显示参数的光学传输的系统和方法
US10509489B2 (en) Systems and related methods for facilitating pen input in a virtual reality environment
JP6021296B2 (ja) 表示制御プログラム、表示制御装置、表示制御システム、および、表示制御方法
KR20070090730A (ko) 입체영상 기반 가상현실장치
KR101518727B1 (ko) 입체 인터랙션 시스템 및 입체 인터랙션 방법
CN112041789B (zh) 位置指示设备及空间位置指示系统
US10540023B2 (en) User interface devices for virtual reality system
US20130278494A1 (en) Three-dimensional interactive system
CN117348743A (zh) 计算机、渲染方法以及位置指示装置
KR20170076534A (ko) 가상 현실 인터페이스 장치 및 제어 방법
JP2016117121A (ja) 組立支援システム、及び、組立支援方法
US20150042563A1 (en) Control method, control apparatus, and program
US10509488B2 (en) Simulation system for operating position of a pointer
US11789536B2 (en) Input device and display input system
WO2017077636A1 (ja) シミュレーションシステム
WO2018011929A1 (ja) 触感提供装置、及び、シミュレーションシステム
JP7262247B2 (ja) 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
JP2001117715A (ja) 触覚力覚呈示装置及び情報入出力装置
JP2018181185A (ja) 力覚提示器及び仮想力覚提示装置
JP2017107388A (ja) シミュレーションシステム
WO2019043787A1 (ja) 振動制御装置
JP6977991B2 (ja) 入力装置および画像表示システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171108

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190122

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190716