JP2012064095A - 触感呈示装置及び触感呈示装置の制御方法 - Google Patents

触感呈示装置及び触感呈示装置の制御方法 Download PDF

Info

Publication number
JP2012064095A
JP2012064095A JP2010209031A JP2010209031A JP2012064095A JP 2012064095 A JP2012064095 A JP 2012064095A JP 2010209031 A JP2010209031 A JP 2010209031A JP 2010209031 A JP2010209031 A JP 2010209031A JP 2012064095 A JP2012064095 A JP 2012064095A
Authority
JP
Japan
Prior art keywords
image
vector
friction
tactile sensation
calculation unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010209031A
Other languages
English (en)
Other versions
JP5496032B2 (ja
Inventor
Ryota Terai
良太 寺井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2010209031A priority Critical patent/JP5496032B2/ja
Publication of JP2012064095A publication Critical patent/JP2012064095A/ja
Application granted granted Critical
Publication of JP5496032B2 publication Critical patent/JP5496032B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】簡単な構成で、2次元画像データからリアルな触感を呈示できる触感呈示装置及び触感呈示装置の制御方法を提供する。
【解決手段】
タッチセンサ1と、表示部2と、タッチセンサ1のタッチ面を振動させる触感呈示部3と、制御部4とを備え、制御部4は、タッチセンサ1の情報に基づいてタッチ面にタッチする対象物のタッチ面上の座標を算出する座標算出部5と、座標算出部5が算出した座標を含む所定領域の画像を三次元化する画像立体化部6と、三次元化した画像に基づいて法線ベクトルを算出する法線ベクトル算出部7と、対象物の移動ベクトルを算出するタッチ面移動ベクトル算出部8と、移動ベクトルと、法線ベクトルとに基づいて、対象物に摩擦として与えるべき摩擦ベクトルを算出する摩擦ベクトル算出部9と、摩擦ベクトルに基づいて触感呈示部3の駆動を制御する触感制御部10と、を備える。
【選択図】図1

Description

本発明は、触感呈示装置及び触感呈示装置の制御方法に関するものである。
近年、物体を三次元的に表示するために、コンピュータグラフィックスの分野では、バンプマッピングなどにより物体の表面に凹凸を表示して、三次元映像表示をする手法が一般的に用いられている。さらに、三次元映像表示に加えて、触覚ディスプレイを用いて、物体に接触した際の触感を提示する方法も提案されている。例えば、三次元スキャナで物体の形状を読込み、触覚ディスプレイに対して物体の形状の情報を送り、触覚ディスプレイは受信した情報に基づいて、格子状に配置された制御用のピンを駆動し、物体の形状を表現する方法が提案されている(例えば、特許文献1参照)。
特開2003−3116299号公報
しかしながら、バンプマッピングにより三次元映像表示された物体は、凹凸により、見かけ上立体として認識されるが、データ上はあくまでも平面である。このため、特許文献1に開示されているような触覚ディスプレイで凹凸を表現することはできない。
また、特許文献1においては、例えば、布の表面などの細かい凹凸を3次元スキャナで読込んで、触覚ディスプレイにより触感を呈示するためには、非常に高解像度の触覚ディスプレイが必要となり、構成が複雑となる。しかも、特許文献1に開示されている触覚ディスプレイでは、3次元スキャナで測定できるデータについてしか触感呈示することができない。したがって、例えば、2次元画像(動画像)中に含まれる、水の波紋、風で揺れる旗などについては、リアルな触感呈示は不可能である。
したがって、かかる点に鑑みてなされた本発明の目的は、簡単な構成で、2次元画像データからリアルな触感を呈示できる触感呈示装置及び触感呈示装置の制御方法を提供することである。
上記目的を達成する第1の観点に係る触感呈示装置の発明は、
タッチセンサと、
画像を表示する表示部と、
前記タッチセンサのタッチ面を振動させる触感呈示部と、
制御部と、を備え、
前記制御部は、
前記タッチセンサの情報に基づいて前記タッチ面にタッチする対象物の前記タッチ面上の座標を算出する座標算出部と、
前記座標算出部が算出した前記座標を含む所定領域の前記画像を三次元化する画像立体化部と、
三次元化した前記画像に基づいて当該画像の面の法線ベクトルを算出する法線ベクトル算出部と、
前記対象物の前記タッチ面上での移動ベクトルを算出するタッチ面移動ベクトル算出部と、
前記移動ベクトルと、前記法線ベクトルとに基づいて、前記所定領域内の前記画像が前記対象物に摩擦として与えるべき摩擦ベクトルを算出する摩擦ベクトル算出部と、
当該摩擦ベクトルに基づいて前記触感呈示部の駆動を制御する触感制御部と、
を備えることを特徴とするものである。
上記目的を達成する第2の観点に係る触感呈示装置の発明は、
タッチセンサと、
画像を表示する表示部と、
前記タッチセンサのタッチ面を振動させる触感呈示部と、
制御部と、を備え、
前記制御部は、
前記タッチセンサの情報に基づいて前記タッチ面にタッチする対象物の前記タッチ面上の座標を算出する座標算出部と、
前記座標算出部が算出した前記座標を含む所定領域の前記画像を三次元化する画像立体化部と、
三次元化した前記画像に基づいて当該画像の面の法線ベクトルを算出する法線ベクトル算出部と、
前記画像の移動ベクトルを算出する画像移動ベクトル算出部と、
前記法線ベクトルと、前記画像の移動ベクトルとに基づいて、前記所定領域内の前記画像が前記対象物に摩擦として与えるべき摩擦ベクトルを算出する摩擦ベクトル算出部と、
当該摩擦ベクトルに基づいて前記触感呈示部の駆動を制御する触感制御部と、
を備えることを特徴とするものである。
上記目的を達成する第3の観点に係る触感呈示装置の発明は、
タッチセンサと、
画像を表示する表示部と、
前記タッチセンサのタッチ面を振動させる触感呈示部と、
制御部と、を備え、
前記制御部は、
前記タッチセンサの情報に基づいて前記タッチ面にタッチする対象物の前記タッチ面上の座標を算出する座標算出部と、
前記座標算出部が算出した前記座標を含む所定領域の前記画像を三次元化する画像立体化部と、
三次元化した前記画像に基づいて当該画像の面の法線ベクトルを算出する法線ベクトル算出部と、
前記対象物の前記タッチ面上での移動ベクトルを算出するタッチ面移動ベクトル算出部と、
前記画像の移動ベクトルを算出する画像移動ベクトル算出部と、
前記移動ベクトルと、前記法線ベクトルと、前記画像の移動ベクトルとに基づいて、前記所定領域内の前記画像が前記対象物に摩擦として与えるべき摩擦ベクトルを算出する摩擦ベクトル算出部と、
当該摩擦ベクトルに基づいて前記触感呈示部の駆動を制御する触感制御部と、
を備えることを特徴とするものである。
上記目的を達成する第4の観点に係る触感呈示装置の制御方法の発明は、
タッチセンサと、
画像を表示する表示部と、
前記タッチセンサのタッチ面を振動させる触感呈示部と、
制御部と、を備える触感呈示装置の制御方法であって、
前記タッチセンサの情報に基づいて前記タッチ面にタッチする対象物の前記タッチ面上の座標を算出し、
前記座標算出部が算出した前記座標を含む所定領域の前記画像を三次元化し、
三次元化した前記画像に基づいて当該画像の面の法線ベクトルを算出し、
前記対象物の前記タッチ面上での移動ベクトルを算出し、
前記移動ベクトルと、前記法線ベクトルとの算出結果に基づいて、前記所定領域内の前記画像が前記対象物に摩擦として与えるべき摩擦ベクトルを算出し、
当該摩擦ベクトルに基づいて前記触感呈示部の駆動を制御することを特徴とするものである。
上記目的を達成する第5の観点に係る触感呈示装置の制御方法の発明は、
タッチセンサと、
画像を表示する表示部と、
前記タッチセンサのタッチ面を振動させる触感呈示部と、
制御部と、を備え触感呈示装置の制御方法であって、
前記タッチセンサの情報に基づいて前記タッチ面にタッチする対象物の前記タッチ面上の座標を算出し、
前記座標算出部が算出した前記座標を含む所定領域の前記画像を三次元化し、
三次元化した前記画像に基づいて当該画像の面の法線ベクトルを算出し、
前記画像の移動ベクトルを算出し、
前記法線ベクトルと、前記画像の移動ベクトルとに基づいて、前記所定領域内の前記画像が前記対象物に摩擦として与えるべき摩擦ベクトルを算出し、
当該摩擦ベクトルに基づいて前記触感呈示部の駆動を制御することを特徴とするものである。
上記目的を達成する第6の観点に係る触感呈示装置の制御方法の発明は、
タッチセンサと、
画像を表示する表示部と、
前記タッチセンサのタッチ面を振動させる触感呈示部と、
制御部と、を備え触感呈示装置の制御方法であって、
前記タッチセンサの情報に基づいて前記タッチ面にタッチする対象物の前記タッチ面上の座標を算出し、
前記座標算出部が算出した前記座標を含む所定領域の前記画像を三次元化し、
三次元化した前記画像に基づいて当該画像の面の法線ベクトルを算出し、
前記対象物の前記タッチ面上での移動ベクトルを算出し、
前記画像の移動ベクトルを算出し、
前記移動ベクトルと、前記法線ベクトルと、前記画像の移動ベクトルとに基づいて、前記所定領域内の前記画像が前記対象物に摩擦として与えるべき摩擦ベクトルを算出し、
当該摩擦ベクトルに基づいて前記触感呈示部の駆動を制御することを特徴とするものである。
本発明によれば、簡単な構成で、2次元画像データからリアルな触感を呈示できる触感呈示装置及び触感呈示装置の制御方法を提供することができる。
本発明の第1実施形態に係る触感呈示装置の概略構成を示すブロック図である。 図1に示した触感呈示装置の動作を示すフローチャートである。 図2に示すステップS104での画像立体化処理を示すフローチャートである。 図2に示すステップS104での画像立体化処理を説明するための図である。 図2に示すステップS104での画像立体化処理を説明するための図である。 図2に示すステップS104での画像立体化処理を説明するための図である。 図2に示すステップS104での画像立体化処理を説明するための図である。 図2に示すステップS105での法線ベクトル算出処理を示すフローチャートである。 図2に示すステップS105での法線ベクトル算出処理を説明するための図である。 図2に示すステップS105での法線ベクトル算出処理を説明するための図である。 図2に示すステップS106でのタッチ面移動ベクトル算出処理を示すフローチャートである。 図2に示すステップS106でのタッチ面移動ベクトル算出処理を説明するための図である。 図2に示すステップS107での摩擦ベクトル処理を示すフローチャートである。 図2に示すステップS107での摩擦ベクトル処理を説明するための図である。 図2に示すステップS107での摩擦ベクトル処理を説明するための図である。 図1に示す触感呈示装置の具体的な動作の一例を説明するための図である。 図1に示す触感呈示装置の具体的な動作の一例を説明するための図である。 図1に示す触感呈示装置の具体的な動作の一例を説明するための図である。 図1に示す触感呈示装置の具体的な動作の他の例を説明するための図である。 図1に示す触感呈示装置の具体的な動作の他の例を説明するための図である。 図1に示す触感呈示装置の具体的な動作の他の例を説明するための図である。 本発明の第2実施形態に係る触感呈示装置の要部構成を概略的に示す機能ブロック図である。 図22に示す触感呈示装置の動作を示すフローチャートである。 図23に示すステップS602での画像移動ベクトル算出処理を示すフローチャートである。 図23に示すステップS602での画像移動ベクトル算出処理を説明するための図である。 図23に示すステップS602での画像移動ベクトル算出処理を説明するための図である。 図23に示すステップS602での画像移動ベクトル算出処理を説明するための図である。 図22に示す触感呈示装置の動作の一例を説明するための図である。
以下、本発明の実施の形態について、図面を参照して説明する。
[第1実施形態]
図1は、本発明の第1実施形態に係る触感呈示装置の要部構成を概略的に示す機能ブロック図である。図1に示すように、触感呈示装置100は、タッチセンサ1と、表示部2と、触感呈示部3と、制御部4と、を備える。
タッチセンサ1は、タッチ面に、例えば、操作者の指や、スタイラスペンなどのペン型入力デバイスなどの対象物がタッチ(接触)したことを検出すると、位置情報を含む信号を出力する。以下、本実施形態では、対象物を操作者の指として説明する。タッチセンサ1は、例えば、抵抗膜方式、静電容量方式、光学式等のタッチ位置の位置情報を出力する公知のもので構成しうる。
表示部2は、静止画像や動画像を表示するもので、例えば、液晶表示パネルや有機EL表示パネル等を用いて構成する。タッチセンサ1は、表示部2の上に配置されている。操作者は、タッチセンサ1を経て表示部2に表示される画像等を目視する。
触感呈示部3は、タッチセンサ1のタッチ面を振動させるもので、例えば、圧電振動子や偏心モータを用いて構成する。触感呈示部3が、振動の周波数や駆動パターンを様々に変化させて、触感を与えることで操作者の触覚を刺激し、表示部2に表示される画像を通じて、視覚を通じて情報を与えることで、操作者があたかも表示部2に表示された物に触れているかのようなリアルな触感を生じさせる。
制御部4は、座標算出部5と、画像立体化部6と、法線ベクトル算出部7と、摩擦ベクトル算出部9と、タッチ面移動ベクトル算出部8と、触感制御部10と、を有し、触感呈示装置100の全体を制御する。座標算出部5は、タッチセンサ1の出力した位置情報に基づいてタッチ面にタッチする操作者の指のタッチ面上の座標を算出する。具体的には、タッチ面上の座標は、表示部2の座標に対応し、例えば、タッチ面及び表示部2が矩形からなる場合には、所定の角部を原点(0,0)とするxy座標系である。画像立体化部6は、座標算出部5が算出した座標を含む所定領域の画像を三次元化する。
法線ベクトル算出部7は、三次元化した画像に基づいて当該画像の面の法線ベクトルを算出する。タッチ面移動ベクトル算出部8は、操作者の指のタッチ面上での移動ベクトルを算出する。摩擦ベクトル算出部9は、移動ベクトルと、法線ベクトルとに基づいて、画像立体化部6が三次元化した所定領域内の画像が、操作者の指に摩擦として与えるべき摩擦ベクトルを算出する。触感制御部10は、摩擦ベクトルに基づいて触感呈示部3の駆動を制御する。
なお、制御部4が有する各機能ブロックは、単一のCPUによって構成されてもよいし、それぞれ個別のDSP(Digital Signal Processor)によって構成されてもよい。
図2は、図1に示した触感呈示装置の動作を示すフローチャートである。制御部4は、触感呈示装置100を起動すると、終了するまでループを実施する(S101,S102)。座標算出部5は、タッチセンサ1が出力した位置情報を含む信号に基づいて、座標を算出する(S103)。制御部4は、座標算出部5が座標を算出しなかった場合には、システムが終了するまでループを実施する。一方、座標算出部5が座標を算出した場合には、画像立体化部6は、後述する処理により、画像立体化を実施する(S104)。
そして、法線ベクトル算出部7は、後述する処理により、法線ベクトルを算出する(S105)。そして、タッチ面移動ベクトル算出部8は、後述する処理により、操作者の指のタッチ面上における移動ベクトルを算出する(S106)。そして、摩擦ベクトル算出部9は、法線ベクトル及び移動ベクトルに基づいて、後述する処理により、ステップS104で立体化した領域内の画像が、タッチ面上にタッチする操作者の指に対して与えるべき摩擦の向き及び大きさ(摩擦ベクトル)を算出する(S107)。触感制御部10は、摩擦ベクトル算出部9が算出した摩擦ベクトルに基づいて、触感呈示部3の駆動を制御する(S108)。
次に、上述した各部の動作を説明する。図3は、図2に示すステップS104での画像立体化処理を示すフローチャートである。画像立体化部6は、座標算出部5の算出した座標に基づいて、当該座標の周辺領域に対応する、表示部2内の複数の画素Pを抽出する(S201)。具体的には、図4に示すように、操作者の指がタッチ面に接触した領域の中心に対応する座標の位置Aを中心として、6画素分の半径を有する円Bを想定した場合にその円内及び円周線が通る複数の画素Pを抽出する。そして、画像立体化部6は、ステップS201において抽出した複数の画素Pの輝度を求める(S202)。なお、本実施例では6画素分の場合について説明したが、画素数については適宜設定すればよく、更に、円を想定した抽出でなくてもよい。
例えば、入力画像がRGBカラー画像の場合には、ITU−R(International Telecommunication Union)BT.709規格に従えば、輝度の算出は、以下のような式に従う。
Y = 0.2126 × R + 0.7152 × G + 0.0722 × B
この式によれば、RGBの各成分を合成した場合での輝度が算出される。算出した複数の画素Pにおける輝度の分布は、例えば、図5に示すようになる。なお、図5に示すXY平面は、表示部2のXY平面に対応する。
そして、画像立体化部6は、ステップS202で算出した輝度を、複数の画素Pの高さ成分(z成分)として各画素Pに適用する(S203)。この処理は、画像中に含まれる輝度の低い(暗い)部分を、触感呈示する画像での境界部分として決定するための処理である。具体的には、ステップS203の処理により、図6に示すように、各画素Pが、その輝度に基づいて三次元化される。そして、画像立体下部6は、図7に示すように、隣接する各画素の中心点を結んで面を生成する(S204)。この処理により、ステップS203の時点では面が形成されていなかった、隣接する画素間に輝度の差がある領域に3つの頂点を有する面(すなわち、三角形の面)が形成される。
図8は、図2に示すステップS105での法線ベクトル算出処理を示すフローチャートである。法線ベクトル算出部7は、傾きのある全ての面(3つの頂点のうち、少なくともいずれか一つのz座標の値が異なる面)について、面を構成する3辺のうち、1つの頂点を共有する2つの辺をベクトルと見た場合に、それらの外積を算出する(S301、図9参照)。図9では、矢印は各面についての外積を示す。これにより、当該面に対して垂直なベクトル(すなわち、法線ベクトル)が算出できる。また、法線ベクトル算出部7は、傾きの無い面については、法線ベクトルの算出は行わない。これは、傾きの無い面は、タッチ面上を移動する操作者の指の移動方向に対する摩擦の影響が無視できるため、摩擦の計算は不要だからである。そして、法線ベクトル算出部7は、図10に示すように、ステップS301において算出した法線について、XY平面に投影し、法線ベクトルのz成分を除去する(S302)。これにより、後述するステップS501での、法線ベクトルと移動ベクトルとの内積の算出(ステップS107に対応)が容易になる。
図11は、図2に示すステップS106でのタッチ面移動ベクトル算出処理を示すフローチャートである。タッチ面移動ベクトル算出部8は、座標算出部5が算出した直前の座標A’(図12参照)の情報を取得する(S401)。続いて、タッチ面移動ベクトル算出部8は、座標算出部5が算出した現在の座標A(図12参照)の情報を取得する(S402)。そして、タッチ面移動ベクトル算出部8は、ステップS401及びステップS402にて取得した座標の情報に基づいて、タッチ面上を移動する操作者の指の移動ベクトル(A’−A)を算出する(S403、図12参照)。
図13は、図2に示すステップS107での摩擦ベクトル処理を示すフローチャートである。摩擦ベクトル算出部9は、法線ベクトル算出部7が算出した全ての法線ベクトルと、タッチ面移動ベクトル算出部8が算出した移動ベクトルとの内積を算出する(S501)。ここで、ステップS501において摩擦ベクトル算出部9が算出する内積の値は、図14に示すように、法線ベクトルとタッチ面移動ベクトルとの成す角度が90度未満である面については正の値として算出され、算出対象とする2つのベクトルの成す角度が90度より大きい面については負の値として算出される。
すなわち、内積の値が正であれば、法線ベクトルの方向は、タッチ面上での操作者の指の移動方向と同一方向の成分を含む方向(角度の隔たりが90度以内)であり、一方、内積の値が負であれば、法線ベクトルの方向はタッチ面上での操作者の指の移動方向に対して反対方向成分を含む方向である。後者の場合には、操作者の指に対して触感呈示部3により振動を生じさせる必要がある。
そして、摩擦ベクトル算出部9は、ステップS501において算出した内積のうち、負の値の内積の総和を算出する(S502)。摩擦ベクトル算出部9は、タッチ面上を移動する操作者の指に対して摩擦として与えるべき摩擦ベクトルを算出するために、移動ベクトルに対して逆向きであり、大きさがステップS502で算出した総和であるベクトルを摩擦ベクトルとして求める(S503、図15参照)。
図16〜図18は、図1に示す触感呈示装置の具体的な動作の一例を説明するための図である。本例は、うろこを有する魚の画像が表示部2に表示された場合の例である。触感制御部10は、ステップS503で求めた摩擦ベクトルの方向及び大きさに基づいて、触感呈示部3の駆動を制御する。具体的には、うろこの向きと同じ右向きに指をスライドさせる場合は、操作者の指に対して与える振動(摩擦)を小さくして、3次元上の摩擦(摩擦ベクトル)が小さいと認識するような触感を呈示し、うろことは逆向きの左向きに指をスライドさせる場合は振動を大きくして、3次元上の摩擦(摩擦ベクトル)が大きいと認識するような触感を呈示する。図16において、矢印の幅は、振動(摩擦)の大きさに対応する。図17は、操作者の指のタッチ面上でのタッチ位置付近の画像を拡大した図である。
操作者が、図17におけるX軸上で、図上左から図上右に指をスライドさせる場合(すなわち、移動ベクトルが「X軸正方向」である場合)には、摩擦ベクトル算出部9が算出する摩擦ベクトルの値は小さく、操作者の指に対して与えられる摩擦は小さい。一方、操作者がX軸正方向とは逆方向(以下、「X軸負方向」と称する)に指をスライドさせる場合には、摩擦ベクトルの値が大きく、操作者の指に対して与えられる摩擦は大きい。ここで、「摩擦は小さい(大きい)」は、3次元上の摩擦(摩擦ベクトル)の大小であり、摩擦が小さい(大きい)場合に振動を小さく(大きく)することで、実際に触っているようなリアルな触感を呈示できるようになる。
図18を参照して、これについて、更に詳細に説明する。図18は、図17に示す画像について、図5〜7を参照して説明した処理により、輝度に基づいて面を形成し、xz平面上に表したものである。実線及び破線で示した矢印は、各面の法線ベクトルを示し、破線矢印はX軸に対して平行であるものとする。指をX軸正方向にスライドさせる場合に、X軸正方向のベクトルと、実線矢印(法線ベクトル)との内積を算出するにあたって、両ベクトルの成す角θは、90°<θ<180°度であるので、cosθは、−1<cosθ<0である。一方、指をX軸負方向にスライドさせる場合に、内積を算出するにあたって、両ベクトルの成す角θは、θ=180°であるので、cosθ=−1である。よって、指をX軸負方向にスライドさせる場合の内積の値の絶対値は、指をX軸正方向にスライドさせる場合の内積の値の絶対値よりも大きい。このため、X軸負方向に指をスライドさせる場合には、摩擦ベクトルの値が大きく、操作者の指に対して与えられる摩擦は大きい。
図19〜21は、図1に示した触感呈示装置の具体的な動作の他の例を説明するための図である。本例は、毛並みのある犬の画像が表示部2に表示された場合の例である。図19に示す犬は、上から下へと流れる毛並みを有する。この場合、触感呈示装置100は、操作者がX軸方向(図19の左右方向)に指をスライドさせる場合は摩擦を大きくし、Y軸方向(図19の上下方向)に指をスライドさせる場合は摩擦を小さくする。すなわち、図19での矢印の幅は、摩擦の大きさに対応する。図20は、操作者の指のタッチ面上でのタッチ位置付近の画像を拡大した図である。図中、縦線は毛並みを概略的に示す線である。
操作者が、図20におけるX軸方向に指をスライドさせる場合(すなわち、移動ベクトルがX軸方向である場合)には、摩擦ベクトル算出部9が算出する摩擦ベクトルの値は大きく、操作者の指に対して与えられる摩擦は大きい。一方、操作者がY軸方向に上から下へ指をスライドさせる場合には、摩擦ベクトルの値が小さく、操作者の指に対して与えられる摩擦は小さい(図21参照)。図21上は、図20に示す動物の毛並みをX軸方向から見た図である。縦軸(Z軸)は輝度方向であり、輝度が高い部分と低い部分が交互に現れるような毛並みの場合、その境界でX軸方向に平行な法線ベクトルを有する面が生成される。法線ベクトルは、矢印で示す。一方、図21下に、図20に示す動物の毛並みをY軸方向から見た図である。Y軸方向での輝度の変化がないため、輝度は一定であり、法線ベクトルを有する面は生成されない。
図21上では、図18と同様に、実線及び破線で示した矢印は、各面の法線ベクトルを示す。実線及び破線矢印は、両方とも、X軸に対して平行であるものとする。この場合、指をX軸正方向、負方向のどちらにスライドさせても、移動ベクトルと法線ベクトルとの成す角度θは180°であり、内積の絶対値の大きさは等しい。よって、X軸正方向、負方向のどちらに指をスライドさせた場合も、摩擦ベクトルの大きさは等しい。一方、上述したように、Y軸方向では法線ベクトルを有する面は生成されないため、Y軸方向では摩擦ベクトルは算出されない(図21下参照)。
このように、本実施形態に係る触感呈示装置は、タッチセンサ1と、画像を表示する表示部2と、タッチ面を振動させる触感呈示部3と、制御部4と、を備え、制御部4は、タッチセンサ1の情報に基づいてタッチ面にタッチする対象物の座標を算出する座標算出部5と、当該座標を含む所定領域の画像を三次元化する画像立体化部6と、当該画像の面の法線ベクトルを算出する法線ベクトル算出部7と、対象物のタッチ面上での移動ベクトルを算出するタッチ面移動ベクトル算出部8と、これらの、移動ベクトルと、法線ベクトルとに基づいて、所定領域内の画像が対象物に摩擦として与えるべき摩擦ベクトルを算出する摩擦ベクトル算出部9と、当該摩擦ベクトルに基づいて触感呈示部3の駆動を制御する触感制御部10と、を備えるので、簡単な構成で、2次元画像データからリアルな触感を呈示でき。その上、画像立体化部6において、画像立体化のために用いる情報として、3次元スキャナやステレオ画像から測定された三次元情報を用いることなく、例えば、単一の画像内の各画素の輝度を用いることができるので、バンプマッピングを用いた画像などについても、リアルな触感呈示が可能である。
[第2実施形態]
図22は、本発明の第2実施形態に係る触感呈示装置の要部構成を概略的に示す機能ブロック図である。第1実施形態に係る触感呈示装置と同様の機能ブロックについては同一の参照符号を付す。
本実施形態に係る触感呈示装置101の制御部4’は、第1実施形態に係る触感呈示装置100の制御部4の有する機能ブロックに加えて、画像移動ベクトル算出部11を有するものである。本実施形態に係る触感呈示装置101は、表示部2にて動画像を表示した場合に、画像自体の移動ベクトル(以下、「画像移動ベクトル」と称する)も、摩擦ベクトル算出のパラメータとして利用することができるように構成されている。
画像移動ベクトル算出部11は、画像の移動ベクトルを算出する。具体的には、画像の移動方向を算出する。摩擦ベクトル算出部9’は、移動ベクトルと、法線ベクトルと、画像の移動ベクトルとに基づいて、所定領域内の画像が操作者の指に振動(摩擦)として与えるべき摩擦ベクトルを算出する。
図23は、図22に示す触感呈示装置の動作を示すフローチャートである。図2に示したフローチャートと同様に、制御部4’が有する各機能ブロックにて、ステップS101〜S105に示す各処理が実行された後、画像移動ベクトル算出部11は、画像の移動ベクトルを算出する(S601)。
そして、摩擦ベクトル算出部9’は、移動ベクトルと、法線ベクトルと、画像の移動ベクトルとに基づいて、所定領域内の画像が操作者の指に摩擦として与えるべき摩擦ベクトルを算出する(S602)。具体的には、図13を参照してステップS502及びS503について説明したように、摩擦ベクトル算出部9’は、まず、法線と移動ベクトルとの内積のうちの、負の値の総和をベクトルの大きさとし、移動ベクトルに対して逆向きの方向を有するベクトルを求める。そして、摩擦ベクトル算出部9’は、求めたベクトルと、画像の移動ベクトルとの合成ベクトルを求め、所定領域内の動画像が操作者の指に摩擦として与えるべき摩擦ベクトルを算出する。そして、触感制御部10は、摩擦ベクトル算出部9が算出した摩擦ベクトルに基づいて、触感呈示部3の駆動を制御する(S603)。
図24は、図23に示すステップS602での画像移動ベクトル算出処理を示すフローチャートである。画像移動ベクトル算出部11は、座標算出部5が算出した座標にある画素の、動画像データの1フレーム前のフレーム内での画素位置を求める(S701)。具体的には、図25に示すように、現在、操作者の指がタッチ面にタッチしている領域(実線)の中心座標Akに対応する、1フレーム前のフレーム内における座標Ak-1を求める。
そして、画像立体化部6は、ステップS701で求めた座標Ak-1を中心とする所定領域(破線)内の画素を抽出し、図26に示すように、座標Ak-1の周辺領域に含まれる各画素について、上述したように各画素の輝度に基づいて画像立体化処理を実行する(S702)。次いで、画像移動ベクトル算出部11は、図23におけるステップS103での画像立体化処理の結果と、ステップS702の画像立体化処理結果とを用いて、ステップS702での画像立体化処理により生成された面と、ステップS103での画像立体化処理により生成された面とを結ぶベクトルを求める(S703)。
具体的には、例えば、図23のステップS104で算出した法線ベクトルの向きが、ステップS105で算出した移動ベクトルとは、対向する成分を有する(逆向きである)全ての面について行う。また、ベクトルを求めるにあたって、図27に示すように、ステップS702での画像立体化処理により生成された面Pk-1と、S103での画像立体化処理により生成された面Pkのそれぞれに含まれる、例えば、外心のような、対応する1点を選出し、これら2点を結ぶことでベクトルPk-1−Pkを求める。そして、画像移動ベクトル算出部11は、ステップS703で算出したベクトルの全てのベクトルについて、平均ベクトルを算出し、画像移動ベクトルとする(S704)。
図28は、第2実施形態に係る触感呈示装置の具体的な動作の一例を説明するための図である。本例では、触感呈示装置101の表示部2に、上から撮影した波の動画が表示されている。図28(a)は、現在のフレームであり、図28(b)は直前のフレームである。今、直前フレームの画像において、操作者の指がタッチしている位置が、波面であり、現在のフレームの画像において波が表示部2における上方向に移動した場合、ステップS704において上方向の画像移動ベクトルが検出され、法線ベクトル及び移動ベクトルに基づいて、全体として上方向の摩擦ベクトルが合成されるので、操作者の指に対して触感呈示部3により所定の大きさの振動(摩擦)を発生させる。これにより、指を上方向に移動させると動画上の波の流れによって押し戻されるような感覚を得ることができる。さらに、操作者は、動画像の表示された表示部2を目視することで、触覚だけではなく視覚も通じて刺激を受けるので、あたかも波により指が上方向に押されたかのようなリアルな触感を得る。
なお、本実施例では、指を移動させ、移動ベクトルを算出する場合(移動ベクトルが発生する場合)について説明したが、移動ベクトルが発生しない、すなわち指を置いたままの位置に基づく座標算出、法線ベクトル算出、画像移動ベクトル算出に基づき、摩擦ベクトルを合成し、本摩擦ベクトルに基づいて触感呈示部3により振動を与えるようにしてもよい。このように、単に指を置く場合でも(移動ベクトルを算出しない場合でも)、指に対して動画の動きに合わせた触感を呈示することができ、具体的には図28において波の流れによって指が上方向に押し戻されるような触感を呈示することができ、操作者は視覚及び触感により刺激を受けるので、あたかも波により指が上方向に押されたかのようなリアルな触感を得ることができる。
このように、本実施形態に係る触感呈示装置は、タッチセンサ1と、画像を表示する表示部2と、タッチ面を振動させる触感呈示部3と、制御部4と、を備え、制御部4は、タッチセンサ1の情報に基づいてタッチ面にタッチする対象物の座標を算出する座標算出部5と、当該座標を含む所定領域の画像を三次元化する画像立体化部6と、当該画像の面の法線ベクトルを算出する法線ベクトル算出部7と、対象物のタッチ面上での移動ベクトルを算出するタッチ面移動ベクトル算出部8と、画像の移動ベクトルを算出する画像移動ベクトル算出部11と、移動ベクトルと、法線ベクトル、及び画像移動ベクトルとに基づいて、所定領域内の画像が対象物に摩擦として与えるべき摩擦ベクトルを算出する摩擦ベクトル算出部9’と、当該摩擦ベクトルに基づいて触感呈示部3の駆動を制御する触感制御部10と、を備えるので、動画像に含まれる奥行き情報を取得できない物体を触った際の触感を再現することができる。その上、本実施形態に係る触感呈示装置は、画像移動ベクトル算出部11にて、画像移動ベクトルを算出し、当該算出結果を摩擦ベクトル算出部9’における摩擦ベクトルの算出に利用するため、動画像のような時間変化のある画像などについても、リアルな触感呈示することが可能である。
なお、本発明は、上述した実施の形態にのみ限定されるものではなく、幾多の変更または変形が可能である。例えば、第2実施形態では、ステップS601にて画像移動ベクトル算出部11が画像移動ベクトルを算出した後に、ステップS602にて摩擦ベクトル算出部9’が、法線ベクトル、移動ベクトル及び画像移動ベクトルに基づいて摩擦ベクトルを算出し、ステップS603にて当該摩擦ベクトルに基づいて、触感制御部10が触感呈示部3の駆動を制御するものとして記載した。しかし、本発明はこれに限定されず、ステップS601での画像移動ベクトルの算出より前に、摩擦ベクトル算出部9’にて法線ベクトル及び移動ベクトルに基づいて、摩擦ベクトルを算出するように触感呈示装置101を構成することもできる。そして、摩擦ベクトル算出部9’にて摩擦ベクトルを算出した後に、画像移動ベクトル算出部11にて画像移動ベクトルを算出し、触感制御部10にて摩擦ベクトル及び画像移動ベクトルの合成ベクトルを求め、当該合成ベクトルに基づいて触感呈示部3の駆動を制御させても良い。このような構成の触感呈示装置101では、摩擦ベクトルの算出にあたって画像移動ベクトルが不要であるため、静止画及び動画像の混在するデータを入力画像として使用できるようになる。
なお、本発明における、「ベクトルの算出」は予め記憶部(不図示)に必要な情報(力の大きさと向き等を予め算出したもの)を記憶させ、ベクトルを本記憶部からの情報に基づき決定する場合も「ベクトルの算出」に該当するものとする。
1 タッチセンサ
2 表示部
3 触感呈示部
4,4’ 制御部
5 座標算出部
6 画像立体化部
7 法線ベクトル算出部
8 タッチ面移動ベクトル算出部
9,9’ 摩擦ベクトル算出部
10 触感制御部
11 画像移動ベクトル算出部
100,101 触感呈示装置


Claims (6)

  1. タッチセンサと、
    画像を表示する表示部と、
    前記タッチセンサのタッチ面を振動させる触感呈示部と、
    制御部と、を備え、
    前記制御部は、
    前記タッチセンサの情報に基づいて前記タッチ面にタッチする対象物の前記タッチ面上の座標を算出する座標算出部と、
    前記座標算出部が算出した前記座標を含む所定領域の前記画像を三次元化する画像立体化部と、
    三次元化した前記画像に基づいて当該画像の面の法線ベクトルを算出する法線ベクトル算出部と、
    前記対象物の前記タッチ面上での移動ベクトルを算出するタッチ面移動ベクトル算出部と、
    前記移動ベクトルと、前記法線ベクトルとに基づいて、前記所定領域内の前記画像が前記対象物に摩擦として与えるべき摩擦ベクトルを算出する摩擦ベクトル算出部と、
    当該摩擦ベクトルに基づいて前記触感呈示部の駆動を制御する触感制御部と、
    を備えることを特徴とする触感呈示装置。
  2. タッチセンサと、
    画像を表示する表示部と、
    前記タッチセンサのタッチ面を振動させる触感呈示部と、
    制御部と、を備え、
    前記制御部は、
    前記タッチセンサの情報に基づいて前記タッチ面にタッチする対象物の前記タッチ面上の座標を算出する座標算出部と、
    前記座標算出部が算出した前記座標を含む所定領域の前記画像を三次元化する画像立体化部と、
    三次元化した前記画像に基づいて当該画像の面の法線ベクトルを算出する法線ベクトル算出部と、
    前記画像の移動ベクトルを算出する画像移動ベクトル算出部と、
    前記法線ベクトルと、前記画像の移動ベクトルとに基づいて、前記所定領域内の前記画像が前記対象物に摩擦として与えるべき摩擦ベクトルを算出する摩擦ベクトル算出部と、
    当該摩擦ベクトルに基づいて前記触感呈示部の駆動を制御する触感制御部と、
    を備えることを特徴とする触感呈示装置。
  3. タッチセンサと、
    画像を表示する表示部と、
    前記タッチセンサのタッチ面を振動させる触感呈示部と、
    制御部と、を備え、
    前記制御部は、
    前記タッチセンサの情報に基づいて前記タッチ面にタッチする対象物の前記タッチ面上の座標を算出する座標算出部と、
    前記座標算出部が算出した前記座標を含む所定領域の前記画像を三次元化する画像立体化部と、
    三次元化した前記画像に基づいて当該画像の面の法線ベクトルを算出する法線ベクトル算出部と、
    前記対象物の前記タッチ面上での移動ベクトルを算出するタッチ面移動ベクトル算出部と、
    前記画像の移動ベクトルを算出する画像移動ベクトル算出部と、
    前記移動ベクトルと、前記法線ベクトルと、前記画像の移動ベクトルとに基づいて、前記所定領域内の前記画像が前記対象物に摩擦として与えるべき摩擦ベクトルを算出する摩擦ベクトル算出部と、
    当該摩擦ベクトルに基づいて前記触感呈示部の駆動を制御する触感制御部と、
    を備えることを特徴とする触感呈示装置。
  4. タッチセンサと、
    画像を表示する表示部と、
    前記タッチセンサのタッチ面を振動させる触感呈示部と、
    制御部と、を備える触感呈示装置の制御方法であって、
    前記タッチセンサの情報に基づいて前記タッチ面にタッチする対象物の前記タッチ面上の座標を算出し、
    前記座標算出部が算出した前記座標を含む所定領域の前記画像を三次元化し、
    三次元化した前記画像に基づいて当該画像の面の法線ベクトルを算出し、
    前記対象物の前記タッチ面上での移動ベクトルを算出し、
    前記移動ベクトルと、前記法線ベクトルとの算出結果に基づいて、前記所定領域内の前記画像が前記対象物に摩擦として与えるべき摩擦ベクトルを算出し、
    当該摩擦ベクトルに基づいて前記触感呈示部の駆動を制御することを特徴とする制御方法。
  5. タッチセンサと、
    画像を表示する表示部と、
    前記タッチセンサのタッチ面を振動させる触感呈示部と、
    制御部と、を備え触感呈示装置の制御方法であって、
    前記タッチセンサの情報に基づいて前記タッチ面にタッチする対象物の前記タッチ面上の座標を算出し、
    前記座標算出部が算出した前記座標を含む所定領域の前記画像を三次元化し、
    三次元化した前記画像に基づいて当該画像の面の法線ベクトルを算出し、
    前記画像の移動ベクトルを算出し、
    前記法線ベクトルと、前記画像の移動ベクトルとに基づいて、前記所定領域内の前記画像が前記対象物に摩擦として与えるべき摩擦ベクトルを算出し、
    当該摩擦ベクトルに基づいて前記触感呈示部の駆動を制御することを特徴とする制御方法。
  6. タッチセンサと、
    画像を表示する表示部と、
    前記タッチセンサのタッチ面を振動させる触感呈示部と、
    制御部と、を備え触感呈示装置の制御方法であって、
    前記タッチセンサの情報に基づいて前記タッチ面にタッチする対象物の前記タッチ面上の座標を算出し、
    前記座標算出部が算出した前記座標を含む所定領域の前記画像を三次元化し、
    三次元化した前記画像に基づいて当該画像の面の法線ベクトルを算出し、
    前記対象物の前記タッチ面上での移動ベクトルを算出し、
    前記画像の移動ベクトルを算出し、
    前記移動ベクトルと、前記法線ベクトルと、前記画像の移動ベクトルとに基づいて、前記所定領域内の前記画像が前記対象物に摩擦として与えるべき摩擦ベクトルを算出し、
    当該摩擦ベクトルに基づいて前記触感呈示部の駆動を制御することを特徴とする制御方法。
JP2010209031A 2010-09-17 2010-09-17 触感呈示装置及び触感呈示装置の制御方法 Active JP5496032B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010209031A JP5496032B2 (ja) 2010-09-17 2010-09-17 触感呈示装置及び触感呈示装置の制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010209031A JP5496032B2 (ja) 2010-09-17 2010-09-17 触感呈示装置及び触感呈示装置の制御方法

Publications (2)

Publication Number Publication Date
JP2012064095A true JP2012064095A (ja) 2012-03-29
JP5496032B2 JP5496032B2 (ja) 2014-05-21

Family

ID=46059717

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010209031A Active JP5496032B2 (ja) 2010-09-17 2010-09-17 触感呈示装置及び触感呈示装置の制御方法

Country Status (1)

Country Link
JP (1) JP5496032B2 (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014102648A (ja) * 2012-11-19 2014-06-05 Aisin Aw Co Ltd 操作支援システム、操作支援方法及びコンピュータプログラム
WO2014172070A1 (en) * 2013-04-17 2014-10-23 Nokia Corporation Method and apparatus for a textural representation of a guidance
US9507481B2 (en) 2013-04-17 2016-11-29 Nokia Technologies Oy Method and apparatus for determining an invocation input based on cognitive load
JP2017138737A (ja) * 2016-02-02 2017-08-10 富士通テン株式会社 入力装置、表示装置および入力装置の制御方法
US9836157B2 (en) 2014-09-22 2017-12-05 Hyundai Motor Company Acoustic user interface apparatus and method for recognizing touch and rubbing
JP2018032412A (ja) * 2012-10-31 2018-03-01 イマージョン コーポレーションImmersion Corporation 触覚効果を用いてユーザインタフェース上で表面フィーチャをシミュレートする方法及び装置
US10027606B2 (en) 2013-04-17 2018-07-17 Nokia Technologies Oy Method and apparatus for determining a notification representation indicative of a cognitive load
JP2019046404A (ja) * 2017-09-07 2019-03-22 富士ゼロックス株式会社 造形制御装置、造形制御プログラム
US10359835B2 (en) 2013-04-17 2019-07-23 Nokia Technologies Oy Method and apparatus for causing display of notification content
US10545576B2 (en) 2016-01-07 2020-01-28 Fujitsu Limited Electronic device and drive control method thereof
JP2021099822A (ja) * 2013-01-24 2021-07-01 イマージョン コーポレーションImmersion Corporation 触覚装置における3次元レリーフのための摩擦変調

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5802353A (en) * 1996-06-12 1998-09-01 General Electric Company Haptic computer modeling system
JP2000047567A (ja) * 1998-07-24 2000-02-18 Dainippon Printing Co Ltd 物体の接触感シミュレーション装置
US20030128208A1 (en) * 1998-07-17 2003-07-10 Sensable Technologies, Inc. Systems and methods for sculpting virtual objects in a haptic virtual reality environment
JP2003534620A (ja) * 2000-05-24 2003-11-18 イマージョン コーポレイション 電気活性ポリマーを利用する触覚装置及び触覚方法
JP2005235115A (ja) * 2004-02-23 2005-09-02 Advanced Telecommunication Research Institute International 体感作画装置
JP2005325684A (ja) * 2005-07-29 2005-11-24 Port & Airport Research Institute 遠隔操作による施工方法
US20070236450A1 (en) * 2006-03-24 2007-10-11 Northwestern University Haptic device with indirect haptic feedback
WO2010105001A1 (en) * 2009-03-12 2010-09-16 Immersion Corporation Systems and methods for providing features in a friction display
JP2012520523A (ja) * 2009-03-12 2012-09-06 イマージョン コーポレイション 摩擦ディスプレイシステム及び方法、並びに付加的な触覚効果

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5802353A (en) * 1996-06-12 1998-09-01 General Electric Company Haptic computer modeling system
US20030128208A1 (en) * 1998-07-17 2003-07-10 Sensable Technologies, Inc. Systems and methods for sculpting virtual objects in a haptic virtual reality environment
JP2000047567A (ja) * 1998-07-24 2000-02-18 Dainippon Printing Co Ltd 物体の接触感シミュレーション装置
JP2003534620A (ja) * 2000-05-24 2003-11-18 イマージョン コーポレイション 電気活性ポリマーを利用する触覚装置及び触覚方法
JP2005235115A (ja) * 2004-02-23 2005-09-02 Advanced Telecommunication Research Institute International 体感作画装置
JP2005325684A (ja) * 2005-07-29 2005-11-24 Port & Airport Research Institute 遠隔操作による施工方法
US20070236450A1 (en) * 2006-03-24 2007-10-11 Northwestern University Haptic device with indirect haptic feedback
WO2010105001A1 (en) * 2009-03-12 2010-09-16 Immersion Corporation Systems and methods for providing features in a friction display
JP2012520523A (ja) * 2009-03-12 2012-09-06 イマージョン コーポレイション 摩擦ディスプレイシステム及び方法、並びに付加的な触覚効果

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018032412A (ja) * 2012-10-31 2018-03-01 イマージョン コーポレーションImmersion Corporation 触覚効果を用いてユーザインタフェース上で表面フィーチャをシミュレートする方法及び装置
US10591994B2 (en) 2012-10-31 2020-03-17 Immersion Corporation Method and apparatus for simulating surface features on a user interface with haptic effects
JP2014102648A (ja) * 2012-11-19 2014-06-05 Aisin Aw Co Ltd 操作支援システム、操作支援方法及びコンピュータプログラム
JP2021099822A (ja) * 2013-01-24 2021-07-01 イマージョン コーポレーションImmersion Corporation 触覚装置における3次元レリーフのための摩擦変調
US10359835B2 (en) 2013-04-17 2019-07-23 Nokia Technologies Oy Method and apparatus for causing display of notification content
US10027606B2 (en) 2013-04-17 2018-07-17 Nokia Technologies Oy Method and apparatus for determining a notification representation indicative of a cognitive load
US10168766B2 (en) 2013-04-17 2019-01-01 Nokia Technologies Oy Method and apparatus for a textural representation of a guidance
US9507481B2 (en) 2013-04-17 2016-11-29 Nokia Technologies Oy Method and apparatus for determining an invocation input based on cognitive load
US10936069B2 (en) 2013-04-17 2021-03-02 Nokia Technologies Oy Method and apparatus for a textural representation of a guidance
WO2014172070A1 (en) * 2013-04-17 2014-10-23 Nokia Corporation Method and apparatus for a textural representation of a guidance
US9836157B2 (en) 2014-09-22 2017-12-05 Hyundai Motor Company Acoustic user interface apparatus and method for recognizing touch and rubbing
US10545576B2 (en) 2016-01-07 2020-01-28 Fujitsu Limited Electronic device and drive control method thereof
JP2017138737A (ja) * 2016-02-02 2017-08-10 富士通テン株式会社 入力装置、表示装置および入力装置の制御方法
JP2019046404A (ja) * 2017-09-07 2019-03-22 富士ゼロックス株式会社 造形制御装置、造形制御プログラム

Also Published As

Publication number Publication date
JP5496032B2 (ja) 2014-05-21

Similar Documents

Publication Publication Date Title
JP5496032B2 (ja) 触感呈示装置及び触感呈示装置の制御方法
US11054907B2 (en) Friction modulation for three dimensional relief in a haptic device
US20200349982A1 (en) Haptic effect generation for space-dependent content
KR102256677B1 (ko) 플렉서블 표시장치 및 이의 영상 표시방법
US20100128112A1 (en) Immersive display system for interacting with three-dimensional content
US20110029903A1 (en) Interactive virtual reality image generating system
Sinclair et al. TouchMover 2.0-3D touchscreen with force feedback and haptic texture
JP2012194661A (ja) シーケンス表示装置及びシーケンス表示方法
US20200329227A1 (en) Information processing apparatus, information processing method and storage medium
JPWO2019021456A1 (ja) 学習装置、認識装置、学習方法、認識方法及びプログラム
IL299465A (en) An object recognition neural network for predicting a missing visual information center
Gotsch et al. Holoflex: A flexible light-field smartphone with a microlens array and a p-oled touchscreen
US20210319624A1 (en) Image processing device, image processing method, and program
CN104063191B (zh) 一种信息处理的方法及电子设备
CN112292656A (zh) 影像显示系统、影像显示方法及计算机程序
KR101177793B1 (ko) 입체영상 체험 장치 및 방법
US10130334B2 (en) Presenting a graphical representation of an ultrasound scanning volume
JP4493082B2 (ja) Cg提示装置及びそのプログラム、並びに、cg表示システム
KR101409845B1 (ko) 영상 표시 장치 및 방법
US20170052684A1 (en) Display control apparatus, display control method, and program
Wakita et al. A realtime and direct-touch interaction system for the 3D cultural artifact exhibition
JP2010231677A (ja) 属性情報表示装置および属性情報表示プログラム
JP2015049071A (ja) 電子機器
JP2015049564A (ja) 電子機器
JP2015032019A (ja) 電子機器、および電子機器の制御プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130812

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140304

R150 Certificate of patent or registration of utility model

Ref document number: 5496032

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150