JP5496032B2 - Tactile sensation presentation apparatus and control method for tactile sensation presentation apparatus - Google Patents

Tactile sensation presentation apparatus and control method for tactile sensation presentation apparatus Download PDF

Info

Publication number
JP5496032B2
JP5496032B2 JP2010209031A JP2010209031A JP5496032B2 JP 5496032 B2 JP5496032 B2 JP 5496032B2 JP 2010209031 A JP2010209031 A JP 2010209031A JP 2010209031 A JP2010209031 A JP 2010209031A JP 5496032 B2 JP5496032 B2 JP 5496032B2
Authority
JP
Japan
Prior art keywords
image
vector
friction
tactile sensation
calculation unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010209031A
Other languages
Japanese (ja)
Other versions
JP2012064095A (en
Inventor
良太 寺井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2010209031A priority Critical patent/JP5496032B2/en
Publication of JP2012064095A publication Critical patent/JP2012064095A/en
Application granted granted Critical
Publication of JP5496032B2 publication Critical patent/JP5496032B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、触感呈示装置及び触感呈示装置の制御方法に関するものである。   The present invention relates to a tactile sensation providing apparatus and a control method for the tactile sensation providing apparatus.

近年、物体を三次元的に表示するために、コンピュータグラフィックスの分野では、バンプマッピングなどにより物体の表面に凹凸を表示して、三次元映像表示をする手法が一般的に用いられている。さらに、三次元映像表示に加えて、触覚ディスプレイを用いて、物体に接触した際の触感を提示する方法も提案されている。例えば、三次元スキャナで物体の形状を読込み、触覚ディスプレイに対して物体の形状の情報を送り、触覚ディスプレイは受信した情報に基づいて、格子状に配置された制御用のピンを駆動し、物体の形状を表現する方法が提案されている(例えば、特許文献1参照)。   In recent years, in order to display an object three-dimensionally, in the field of computer graphics, a method of displaying unevenness on the surface of an object by bump mapping or the like and displaying a three-dimensional image is generally used. Furthermore, in addition to 3D video display, a method of presenting a tactile sensation when touching an object using a tactile display has been proposed. For example, the shape of an object is read by a three-dimensional scanner, information on the shape of the object is sent to the tactile display, and the tactile display drives the control pins arranged in a grid based on the received information, There has been proposed a method of expressing the shape (see, for example, Patent Document 1).

特開2003−3116299号公報JP 2003-3116299 A

しかしながら、バンプマッピングにより三次元映像表示された物体は、凹凸により、見かけ上立体として認識されるが、データ上はあくまでも平面である。このため、特許文献1に開示されているような触覚ディスプレイで凹凸を表現することはできない。   However, an object displayed as a three-dimensional image by bump mapping is apparently recognized as a three-dimensional object due to unevenness, but is only a plane on the data. For this reason, the unevenness cannot be expressed by a tactile display as disclosed in Patent Document 1.

また、特許文献1においては、例えば、布の表面などの細かい凹凸を3次元スキャナで読込んで、触覚ディスプレイにより触感を呈示するためには、非常に高解像度の触覚ディスプレイが必要となり、構成が複雑となる。しかも、特許文献1に開示されている触覚ディスプレイでは、3次元スキャナで測定できるデータについてしか触感呈示することができない。したがって、例えば、2次元画像(動画像)中に含まれる、水の波紋、風で揺れる旗などについては、リアルな触感呈示は不可能である。   Further, in Patent Document 1, for example, in order to read fine irregularities such as the surface of a cloth with a three-dimensional scanner and present a tactile sensation with a tactile display, a very high resolution tactile display is required, and the configuration is complicated. It becomes. Moreover, the tactile display disclosed in Patent Document 1 can present tactile sensation only for data that can be measured by a three-dimensional scanner. Therefore, for example, it is impossible to present a realistic tactile sensation for a water ripple, a flag swaying in the wind, and the like included in a two-dimensional image (moving image).

したがって、かかる点に鑑みてなされた本発明の目的は、簡単な構成で、2次元画像データからリアルな触感を呈示できる触感呈示装置及び触感呈示装置の制御方法を提供することである。   Accordingly, an object of the present invention made in view of such points is to provide a tactile sensation providing apparatus and a control method for the tactile sensation providing apparatus that can present a realistic tactile sensation from two-dimensional image data with a simple configuration.

上記目的を達成する第1の観点に係る触感呈示装置の発明は、
タッチセンサと、
画像を表示する表示部と、
前記タッチセンサのタッチ面を振動させる触感呈示部と、
制御部と、を備え、
前記制御部は、
前記タッチセンサの情報に基づいて前記タッチ面にタッチする対象物の前記タッチ面上の座標を算出する座標算出部と、
前記座標算出部が算出した前記座標を含む所定領域の前記画像を三次元化する画像立体化部と、
三次元化した前記画像に基づいて当該画像の面の法線ベクトルを算出する法線ベクトル算出部と、
前記対象物の前記タッチ面上での移動ベクトルを算出するタッチ面移動ベクトル算出部と、
前記移動ベクトルと、前記法線ベクトルとに基づいて、前記所定領域内の前記画像が前記対象物に摩擦として与えるべき摩擦ベクトルを算出する摩擦ベクトル算出部と、
当該摩擦ベクトルに基づいて前記触感呈示部の駆動を制御する触感制御部と、
を備えることを特徴とするものである。
The invention of the tactile sensation providing apparatus according to the first aspect to achieve the above object is as follows:
A touch sensor;
A display for displaying an image;
A tactile sensation providing unit that vibrates the touch surface of the touch sensor;
A control unit,
The controller is
A coordinate calculation unit that calculates coordinates on the touch surface of an object that touches the touch surface based on information of the touch sensor;
An image three-dimensionalization unit that three-dimensionalizes the image of the predetermined area including the coordinates calculated by the coordinate calculation unit;
A normal vector calculation unit that calculates a normal vector of a surface of the image based on the three-dimensional image;
A touch surface movement vector calculation unit for calculating a movement vector of the object on the touch surface;
A friction vector calculation unit that calculates a friction vector that the image in the predetermined region should give to the object as friction based on the movement vector and the normal vector;
A tactile sensation control unit that controls driving of the tactile sensation providing unit based on the friction vector;
It is characterized by providing.

上記目的を達成する第2の観点に係る触感呈示装置の発明は、
タッチセンサと、
画像を表示する表示部と、
前記タッチセンサのタッチ面を振動させる触感呈示部と、
制御部と、を備え、
前記制御部は、
前記タッチセンサの情報に基づいて前記タッチ面にタッチする対象物の前記タッチ面上の座標を算出する座標算出部と、
前記座標算出部が算出した前記座標を含む所定領域の前記画像を三次元化する画像立体化部と、
三次元化した前記画像に基づいて当該画像の面の法線ベクトルを算出する法線ベクトル算出部と、
前記画像の移動ベクトルを算出する画像移動ベクトル算出部と、
前記法線ベクトルと、前記画像の移動ベクトルとに基づいて、前記所定領域内の前記画像が前記対象物に摩擦として与えるべき摩擦ベクトルを算出する摩擦ベクトル算出部と、
当該摩擦ベクトルに基づいて前記触感呈示部の駆動を制御する触感制御部と、
を備えることを特徴とするものである。
The invention of the tactile sensation providing apparatus according to the second aspect of achieving the above object is as follows:
A touch sensor;
A display for displaying an image;
A tactile sensation providing unit that vibrates the touch surface of the touch sensor;
A control unit,
The controller is
A coordinate calculation unit that calculates coordinates on the touch surface of an object that touches the touch surface based on information of the touch sensor;
An image three-dimensionalization unit that three-dimensionalizes the image of the predetermined area including the coordinates calculated by the coordinate calculation unit;
A normal vector calculation unit that calculates a normal vector of a surface of the image based on the three-dimensional image;
An image movement vector calculation unit for calculating a movement vector of the image;
A friction vector calculation unit that calculates a friction vector that the image in the predetermined area should give to the object as friction based on the normal vector and the movement vector of the image;
A tactile sensation control unit that controls driving of the tactile sensation providing unit based on the friction vector;
It is characterized by providing.

上記目的を達成する第3の観点に係る触感呈示装置の発明は、
タッチセンサと、
画像を表示する表示部と、
前記タッチセンサのタッチ面を振動させる触感呈示部と、
制御部と、を備え、
前記制御部は、
前記タッチセンサの情報に基づいて前記タッチ面にタッチする対象物の前記タッチ面上の座標を算出する座標算出部と、
前記座標算出部が算出した前記座標を含む所定領域の前記画像を三次元化する画像立体化部と、
三次元化した前記画像に基づいて当該画像の面の法線ベクトルを算出する法線ベクトル算出部と、
前記対象物の前記タッチ面上での移動ベクトルを算出するタッチ面移動ベクトル算出部と、
前記画像の移動ベクトルを算出する画像移動ベクトル算出部と、
前記移動ベクトルと、前記法線ベクトルと、前記画像の移動ベクトルとに基づいて、前記所定領域内の前記画像が前記対象物に摩擦として与えるべき摩擦ベクトルを算出する摩擦ベクトル算出部と、
当該摩擦ベクトルに基づいて前記触感呈示部の駆動を制御する触感制御部と、
を備えることを特徴とするものである。
The invention of the tactile sensation providing apparatus according to the third aspect of achieving the above object is as follows:
A touch sensor;
A display for displaying an image;
A tactile sensation providing unit that vibrates the touch surface of the touch sensor;
A control unit,
The controller is
A coordinate calculation unit that calculates coordinates on the touch surface of an object that touches the touch surface based on information of the touch sensor;
An image three-dimensionalization unit that three-dimensionalizes the image of the predetermined area including the coordinates calculated by the coordinate calculation unit;
A normal vector calculation unit that calculates a normal vector of a surface of the image based on the three-dimensional image;
A touch surface movement vector calculation unit for calculating a movement vector of the object on the touch surface;
An image movement vector calculation unit for calculating a movement vector of the image;
A friction vector calculation unit that calculates a friction vector that the image in the predetermined region should give to the object as friction based on the movement vector, the normal vector, and the movement vector of the image;
A tactile sensation control unit that controls driving of the tactile sensation providing unit based on the friction vector;
It is characterized by providing.

上記目的を達成する第4の観点に係る触感呈示装置の制御方法の発明は、
タッチセンサと、
画像を表示する表示部と、
前記タッチセンサのタッチ面を振動させる触感呈示部と、
制御部と、を備える触感呈示装置の制御方法であって、
前記タッチセンサの情報に基づいて前記タッチ面にタッチする対象物の前記タッチ面上の座標を算出し、
前記座標算出部が算出した前記座標を含む所定領域の前記画像を三次元化し、
三次元化した前記画像に基づいて当該画像の面の法線ベクトルを算出し、
前記対象物の前記タッチ面上での移動ベクトルを算出し、
前記移動ベクトルと、前記法線ベクトルとの算出結果に基づいて、前記所定領域内の前記画像が前記対象物に摩擦として与えるべき摩擦ベクトルを算出し、
当該摩擦ベクトルに基づいて前記触感呈示部の駆動を制御することを特徴とするものである。
The invention of the control method of the tactile sensation providing apparatus according to the fourth aspect of achieving the above object,
A touch sensor;
A display for displaying an image;
A tactile sensation providing unit that vibrates the touch surface of the touch sensor;
A tactile sensation presentation apparatus comprising a control unit,
Calculate coordinates on the touch surface of an object touching the touch surface based on the information of the touch sensor,
Three-dimensionalize the image of the predetermined area including the coordinates calculated by the coordinate calculation unit,
Based on the three-dimensional image, calculate a normal vector of the surface of the image,
Calculating a movement vector of the object on the touch surface;
Based on the calculation result of the movement vector and the normal vector, calculate a friction vector that the image in the predetermined region should give to the object as friction,
The drive of the tactile sensation providing unit is controlled based on the friction vector.

上記目的を達成する第5の観点に係る触感呈示装置の制御方法の発明は、
タッチセンサと、
画像を表示する表示部と、
前記タッチセンサのタッチ面を振動させる触感呈示部と、
制御部と、を備え触感呈示装置の制御方法であって、
前記タッチセンサの情報に基づいて前記タッチ面にタッチする対象物の前記タッチ面上の座標を算出し、
前記座標算出部が算出した前記座標を含む所定領域の前記画像を三次元化し、
三次元化した前記画像に基づいて当該画像の面の法線ベクトルを算出し、
前記画像の移動ベクトルを算出し、
前記法線ベクトルと、前記画像の移動ベクトルとに基づいて、前記所定領域内の前記画像が前記対象物に摩擦として与えるべき摩擦ベクトルを算出し、
当該摩擦ベクトルに基づいて前記触感呈示部の駆動を制御することを特徴とするものである。
The invention of the control method of the tactile sensation providing apparatus according to the fifth aspect of achieving the above object,
A touch sensor;
A display for displaying an image;
A tactile sensation providing unit that vibrates the touch surface of the touch sensor;
A tactile sensation presentation device comprising a control unit,
Calculate coordinates on the touch surface of an object touching the touch surface based on the information of the touch sensor,
Three-dimensionalize the image of the predetermined area including the coordinates calculated by the coordinate calculation unit,
Based on the three-dimensional image, calculate a normal vector of the surface of the image,
Calculating a movement vector of the image;
Based on the normal vector and the movement vector of the image, calculate a friction vector that the image in the predetermined region should give to the object as friction,
The drive of the tactile sensation providing unit is controlled based on the friction vector.

上記目的を達成する第6の観点に係る触感呈示装置の制御方法の発明は、
タッチセンサと、
画像を表示する表示部と、
前記タッチセンサのタッチ面を振動させる触感呈示部と、
制御部と、を備え触感呈示装置の制御方法であって、
前記タッチセンサの情報に基づいて前記タッチ面にタッチする対象物の前記タッチ面上の座標を算出し、
前記座標算出部が算出した前記座標を含む所定領域の前記画像を三次元化し、
三次元化した前記画像に基づいて当該画像の面の法線ベクトルを算出し、
前記対象物の前記タッチ面上での移動ベクトルを算出し、
前記画像の移動ベクトルを算出し、
前記移動ベクトルと、前記法線ベクトルと、前記画像の移動ベクトルとに基づいて、前記所定領域内の前記画像が前記対象物に摩擦として与えるべき摩擦ベクトルを算出し、
当該摩擦ベクトルに基づいて前記触感呈示部の駆動を制御することを特徴とするものである。
The invention of the control method of the tactile sensation providing apparatus according to the sixth aspect of achieving the above object is as follows:
A touch sensor;
A display for displaying an image;
A tactile sensation providing unit that vibrates the touch surface of the touch sensor;
A tactile sensation presentation device comprising a control unit,
Calculate coordinates on the touch surface of an object touching the touch surface based on the information of the touch sensor,
Three-dimensionalize the image of the predetermined area including the coordinates calculated by the coordinate calculation unit,
Based on the three-dimensional image, calculate a normal vector of the surface of the image,
Calculating a movement vector of the object on the touch surface;
Calculating a movement vector of the image;
Based on the movement vector, the normal vector, and the movement vector of the image, calculate a friction vector that the image in the predetermined region should give to the object as friction,
The drive of the tactile sensation providing unit is controlled based on the friction vector.

本発明によれば、簡単な構成で、2次元画像データからリアルな触感を呈示できる触感呈示装置及び触感呈示装置の制御方法を提供することができる。   According to the present invention, it is possible to provide a tactile sensation providing apparatus capable of presenting a realistic tactile sensation from two-dimensional image data and a control method for the tactile sensation providing apparatus with a simple configuration.

本発明の第1実施形態に係る触感呈示装置の概略構成を示すブロック図である。1 is a block diagram illustrating a schematic configuration of a tactile sensation providing apparatus according to a first embodiment of the present invention. 図1に示した触感呈示装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the tactile sense presentation apparatus shown in FIG. 図2に示すステップS104での画像立体化処理を示すフローチャートである。It is a flowchart which shows the image three-dimensionalization process in step S104 shown in FIG. 図2に示すステップS104での画像立体化処理を説明するための図である。It is a figure for demonstrating the image three-dimensionalization process in step S104 shown in FIG. 図2に示すステップS104での画像立体化処理を説明するための図である。It is a figure for demonstrating the image three-dimensionalization process in step S104 shown in FIG. 図2に示すステップS104での画像立体化処理を説明するための図である。It is a figure for demonstrating the image three-dimensionalization process in step S104 shown in FIG. 図2に示すステップS104での画像立体化処理を説明するための図である。It is a figure for demonstrating the image three-dimensionalization process in step S104 shown in FIG. 図2に示すステップS105での法線ベクトル算出処理を示すフローチャートである。It is a flowchart which shows the normal vector calculation process in step S105 shown in FIG. 図2に示すステップS105での法線ベクトル算出処理を説明するための図である。It is a figure for demonstrating the normal vector calculation process in step S105 shown in FIG. 図2に示すステップS105での法線ベクトル算出処理を説明するための図である。It is a figure for demonstrating the normal vector calculation process in step S105 shown in FIG. 図2に示すステップS106でのタッチ面移動ベクトル算出処理を示すフローチャートである。It is a flowchart which shows the touch surface movement vector calculation process in step S106 shown in FIG. 図2に示すステップS106でのタッチ面移動ベクトル算出処理を説明するための図である。It is a figure for demonstrating the touch surface movement vector calculation process in step S106 shown in FIG. 図2に示すステップS107での摩擦ベクトル処理を示すフローチャートである。It is a flowchart which shows the friction vector process in step S107 shown in FIG. 図2に示すステップS107での摩擦ベクトル処理を説明するための図である。It is a figure for demonstrating the friction vector process in step S107 shown in FIG. 図2に示すステップS107での摩擦ベクトル処理を説明するための図である。It is a figure for demonstrating the friction vector process in step S107 shown in FIG. 図1に示す触感呈示装置の具体的な動作の一例を説明するための図である。It is a figure for demonstrating an example of the specific operation | movement of the tactile sense presentation apparatus shown in FIG. 図1に示す触感呈示装置の具体的な動作の一例を説明するための図である。It is a figure for demonstrating an example of the specific operation | movement of the tactile sense presentation apparatus shown in FIG. 図1に示す触感呈示装置の具体的な動作の一例を説明するための図である。It is a figure for demonstrating an example of the specific operation | movement of the tactile sense presentation apparatus shown in FIG. 図1に示す触感呈示装置の具体的な動作の他の例を説明するための図である。It is a figure for demonstrating other examples of the specific operation | movement of the tactile sense presentation apparatus shown in FIG. 図1に示す触感呈示装置の具体的な動作の他の例を説明するための図である。It is a figure for demonstrating other examples of the specific operation | movement of the tactile sense presentation apparatus shown in FIG. 図1に示す触感呈示装置の具体的な動作の他の例を説明するための図である。It is a figure for demonstrating other examples of the specific operation | movement of the tactile sense presentation apparatus shown in FIG. 本発明の第2実施形態に係る触感呈示装置の要部構成を概略的に示す機能ブロック図である。It is a functional block diagram which shows roughly the principal part structure of the tactile sense presentation apparatus which concerns on 2nd Embodiment of this invention. 図22に示す触感呈示装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the tactile sense presentation apparatus shown in FIG. 図23に示すステップS602での画像移動ベクトル算出処理を示すフローチャートである。It is a flowchart which shows the image movement vector calculation process in step S602 shown in FIG. 図23に示すステップS602での画像移動ベクトル算出処理を説明するための図である。It is a figure for demonstrating the image movement vector calculation process in step S602 shown in FIG. 図23に示すステップS602での画像移動ベクトル算出処理を説明するための図である。It is a figure for demonstrating the image movement vector calculation process in step S602 shown in FIG. 図23に示すステップS602での画像移動ベクトル算出処理を説明するための図である。It is a figure for demonstrating the image movement vector calculation process in step S602 shown in FIG. 図22に示す触感呈示装置の動作の一例を説明するための図である。It is a figure for demonstrating an example of operation | movement of the tactile sense presentation apparatus shown in FIG.

以下、本発明の実施の形態について、図面を参照して説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

[第1実施形態]
図1は、本発明の第1実施形態に係る触感呈示装置の要部構成を概略的に示す機能ブロック図である。図1に示すように、触感呈示装置100は、タッチセンサ1と、表示部2と、触感呈示部3と、制御部4と、を備える。
[First Embodiment]
FIG. 1 is a functional block diagram schematically showing a main configuration of the tactile sensation providing apparatus according to the first embodiment of the present invention. As shown in FIG. 1, the tactile sensation providing apparatus 100 includes a touch sensor 1, a display unit 2, a tactile sensation providing unit 3, and a control unit 4.

タッチセンサ1は、タッチ面に、例えば、操作者の指や、スタイラスペンなどのペン型入力デバイスなどの対象物がタッチ(接触)したことを検出すると、位置情報を含む信号を出力する。以下、本実施形態では、対象物を操作者の指として説明する。タッチセンサ1は、例えば、抵抗膜方式、静電容量方式、光学式等のタッチ位置の位置情報を出力する公知のもので構成しうる。   When the touch sensor 1 detects that an object such as an operator's finger or a pen-type input device such as a stylus pen touches (contacts) the touch surface, the touch sensor 1 outputs a signal including position information. Hereinafter, in the present embodiment, the object is described as an operator's finger. The touch sensor 1 can be configured by a known sensor that outputs position information of a touch position, such as a resistive film method, a capacitance method, and an optical method.

表示部2は、静止画像や動画像を表示するもので、例えば、液晶表示パネルや有機EL表示パネル等を用いて構成する。タッチセンサ1は、表示部2の上に配置されている。操作者は、タッチセンサ1を経て表示部2に表示される画像等を目視する。   The display unit 2 displays a still image or a moving image, and is configured using, for example, a liquid crystal display panel or an organic EL display panel. The touch sensor 1 is disposed on the display unit 2. The operator visually observes an image displayed on the display unit 2 through the touch sensor 1.

触感呈示部3は、タッチセンサ1のタッチ面を振動させるもので、例えば、圧電振動子や偏心モータを用いて構成する。触感呈示部3が、振動の周波数や駆動パターンを様々に変化させて、触感を与えることで操作者の触覚を刺激し、表示部2に表示される画像を通じて、視覚を通じて情報を与えることで、操作者があたかも表示部2に表示された物に触れているかのようなリアルな触感を生じさせる。   The tactile sensation providing unit 3 vibrates the touch surface of the touch sensor 1 and is configured using, for example, a piezoelectric vibrator or an eccentric motor. The tactile sensation providing unit 3 varies the vibration frequency and driving pattern in various ways to stimulate the operator's tactile sensation by giving a tactile sensation, and gives information through vision through an image displayed on the display unit 2. A realistic tactile sensation is generated as if the operator is touching an object displayed on the display unit 2.

制御部4は、座標算出部5と、画像立体化部6と、法線ベクトル算出部7と、摩擦ベクトル算出部9と、タッチ面移動ベクトル算出部8と、触感制御部10と、を有し、触感呈示装置100の全体を制御する。座標算出部5は、タッチセンサ1の出力した位置情報に基づいてタッチ面にタッチする操作者の指のタッチ面上の座標を算出する。具体的には、タッチ面上の座標は、表示部2の座標に対応し、例えば、タッチ面及び表示部2が矩形からなる場合には、所定の角部を原点(0,0)とするxy座標系である。画像立体化部6は、座標算出部5が算出した座標を含む所定領域の画像を三次元化する。   The control unit 4 includes a coordinate calculation unit 5, an image stereoscopic unit 6, a normal vector calculation unit 7, a friction vector calculation unit 9, a touch surface movement vector calculation unit 8, and a tactile sensation control unit 10. Then, the entire tactile sensation providing apparatus 100 is controlled. The coordinate calculation unit 5 calculates the coordinates on the touch surface of the operator's finger that touches the touch surface based on the position information output from the touch sensor 1. Specifically, the coordinates on the touch surface correspond to the coordinates of the display unit 2. For example, when the touch surface and the display unit 2 are rectangular, a predetermined corner is the origin (0, 0). It is an xy coordinate system. The image three-dimensionalization unit 6 three-dimensionalizes an image of a predetermined area including the coordinates calculated by the coordinate calculation unit 5.

法線ベクトル算出部7は、三次元化した画像に基づいて当該画像の面の法線ベクトルを算出する。タッチ面移動ベクトル算出部8は、操作者の指のタッチ面上での移動ベクトルを算出する。摩擦ベクトル算出部9は、移動ベクトルと、法線ベクトルとに基づいて、画像立体化部6が三次元化した所定領域内の画像が、操作者の指に摩擦として与えるべき摩擦ベクトルを算出する。触感制御部10は、摩擦ベクトルに基づいて触感呈示部3の駆動を制御する。   The normal vector calculation unit 7 calculates a normal vector of the surface of the image based on the three-dimensional image. The touch surface movement vector calculation unit 8 calculates a movement vector on the touch surface of the operator's finger. The friction vector calculation unit 9 calculates, based on the movement vector and the normal vector, a friction vector to be given to the operator's finger as a friction by the image in the predetermined region that is three-dimensionalized by the image three-dimensionalization unit 6. . The tactile sensation control unit 10 controls driving of the tactile sensation providing unit 3 based on the friction vector.

なお、制御部4が有する各機能ブロックは、単一のCPUによって構成されてもよいし、それぞれ個別のDSP(Digital Signal Processor)によって構成されてもよい。   Each functional block included in the control unit 4 may be configured by a single CPU or may be configured by an individual DSP (Digital Signal Processor).

図2は、図1に示した触感呈示装置の動作を示すフローチャートである。制御部4は、触感呈示装置100を起動すると、終了するまでループを実施する(S101,S102)。座標算出部5は、タッチセンサ1が出力した位置情報を含む信号に基づいて、座標を算出する(S103)。制御部4は、座標算出部5が座標を算出しなかった場合には、システムが終了するまでループを実施する。一方、座標算出部5が座標を算出した場合には、画像立体化部6は、後述する処理により、画像立体化を実施する(S104)。   FIG. 2 is a flowchart showing the operation of the tactile sensation providing apparatus shown in FIG. When the tactile sensation providing apparatus 100 is activated, the control unit 4 performs a loop until it is finished (S101, S102). The coordinate calculation unit 5 calculates coordinates based on a signal including position information output from the touch sensor 1 (S103). When the coordinate calculation unit 5 does not calculate the coordinates, the control unit 4 performs a loop until the system ends. On the other hand, when the coordinate calculation unit 5 calculates the coordinates, the image three-dimensionalization unit 6 performs image three-dimensionalization by processing to be described later (S104).

そして、法線ベクトル算出部7は、後述する処理により、法線ベクトルを算出する(S105)。そして、タッチ面移動ベクトル算出部8は、後述する処理により、操作者の指のタッチ面上における移動ベクトルを算出する(S106)。そして、摩擦ベクトル算出部9は、法線ベクトル及び移動ベクトルに基づいて、後述する処理により、ステップS104で立体化した領域内の画像が、タッチ面上にタッチする操作者の指に対して与えるべき摩擦の向き及び大きさ(摩擦ベクトル)を算出する(S107)。触感制御部10は、摩擦ベクトル算出部9が算出した摩擦ベクトルに基づいて、触感呈示部3の駆動を制御する(S108)。   Then, the normal vector calculation unit 7 calculates a normal vector by a process described later (S105). And the touch surface movement vector calculation part 8 calculates the movement vector on the touch surface of an operator's finger | toe by the process mentioned later (S106). Then, the friction vector calculation unit 9 gives the image in the region three-dimensionalized in step S104 to the operator's finger that touches the touch surface based on the normal vector and the movement vector. The direction and magnitude of the friction (friction vector) are calculated (S107). The tactile sensation control unit 10 controls the driving of the tactile sensation providing unit 3 based on the friction vector calculated by the friction vector calculation unit 9 (S108).

次に、上述した各部の動作を説明する。図3は、図2に示すステップS104での画像立体化処理を示すフローチャートである。画像立体化部6は、座標算出部5の算出した座標に基づいて、当該座標の周辺領域に対応する、表示部2内の複数の画素Pを抽出する(S201)。具体的には、図4に示すように、操作者の指がタッチ面に接触した領域の中心に対応する座標の位置Aを中心として、6画素分の半径を有する円Bを想定した場合にその円内及び円周線が通る複数の画素Pを抽出する。そして、画像立体化部6は、ステップS201において抽出した複数の画素Pの輝度を求める(S202)。なお、本実施例では6画素分の場合について説明したが、画素数については適宜設定すればよく、更に、円を想定した抽出でなくてもよい。   Next, the operation of each unit described above will be described. FIG. 3 is a flowchart showing the image stereoscopic processing in step S104 shown in FIG. Based on the coordinates calculated by the coordinate calculation unit 5, the image three-dimensionalization unit 6 extracts a plurality of pixels P in the display unit 2 corresponding to the peripheral area of the coordinates (S201). Specifically, as shown in FIG. 4, assuming a circle B having a radius of 6 pixels centering on the position A of the coordinates corresponding to the center of the area where the operator's finger touches the touch surface. A plurality of pixels P passing through the circle and the circumference line are extracted. Then, the image stereoscopic unit 6 obtains the luminance of the plurality of pixels P extracted in step S201 (S202). In this embodiment, the case of six pixels has been described. However, the number of pixels may be set as appropriate, and the extraction may not be based on a circle.

例えば、入力画像がRGBカラー画像の場合には、ITU−R(International Telecommunication Union)BT.709規格に従えば、輝度の算出は、以下のような式に従う。
Y = 0.2126 × R + 0.7152 × G + 0.0722 × B
この式によれば、RGBの各成分を合成した場合での輝度が算出される。算出した複数の画素Pにおける輝度の分布は、例えば、図5に示すようになる。なお、図5に示すXY平面は、表示部2のXY平面に対応する。
For example, when the input image is an RGB color image, ITU-R (International Telecommunication Union) BT. According to the 709 standard, the luminance is calculated according to the following equation.
Y = 0.2126 × R + 0.7152 × G + 0.0722 × B
According to this equation, the luminance when the RGB components are combined is calculated. The calculated luminance distribution in the plurality of pixels P is, for example, as shown in FIG. Note that the XY plane illustrated in FIG. 5 corresponds to the XY plane of the display unit 2.

そして、画像立体化部6は、ステップS202で算出した輝度を、複数の画素Pの高さ成分(z成分)として各画素Pに適用する(S203)。この処理は、画像中に含まれる輝度の低い(暗い)部分を、触感呈示する画像での境界部分として決定するための処理である。具体的には、ステップS203の処理により、図6に示すように、各画素Pが、その輝度に基づいて三次元化される。そして、画像立体下部6は、図7に示すように、隣接する各画素の中心点を結んで面を生成する(S204)。この処理により、ステップS203の時点では面が形成されていなかった、隣接する画素間に輝度の差がある領域に3つの頂点を有する面(すなわち、三角形の面)が形成される。   Then, the image three-dimensionalization unit 6 applies the luminance calculated in step S202 to each pixel P as the height component (z component) of the plurality of pixels P (S203). This process is a process for determining a low-luminance (dark) part included in an image as a boundary part in an image that presents a tactile sensation. Specifically, as shown in FIG. 6, each pixel P is three-dimensionalized based on the luminance by the process of step S <b> 203. Then, as shown in FIG. 7, the image solid lower part 6 generates a surface by connecting the center points of the adjacent pixels (S204). By this processing, a surface having three vertices (that is, a triangular surface) is formed in a region where there is a difference in luminance between adjacent pixels, which has not been formed at the time of step S203.

図8は、図2に示すステップS105での法線ベクトル算出処理を示すフローチャートである。法線ベクトル算出部7は、傾きのある全ての面(3つの頂点のうち、少なくともいずれか一つのz座標の値が異なる面)について、面を構成する3辺のうち、1つの頂点を共有する2つの辺をベクトルと見た場合に、それらの外積を算出する(S301、図9参照)。図9では、矢印は各面についての外積を示す。これにより、当該面に対して垂直なベクトル(すなわち、法線ベクトル)が算出できる。また、法線ベクトル算出部7は、傾きの無い面については、法線ベクトルの算出は行わない。これは、傾きの無い面は、タッチ面上を移動する操作者の指の移動方向に対する摩擦の影響が無視できるため、摩擦の計算は不要だからである。そして、法線ベクトル算出部7は、図10に示すように、ステップS301において算出した法線について、XY平面に投影し、法線ベクトルのz成分を除去する(S302)。これにより、後述するステップS501での、法線ベクトルと移動ベクトルとの内積の算出(ステップS107に対応)が容易になる。   FIG. 8 is a flowchart showing normal vector calculation processing in step S105 shown in FIG. The normal vector calculation unit 7 shares one vertex of the three sides constituting the surface for all the inclined surfaces (the surfaces having different values of at least one of the three vertices). When these two sides are regarded as vectors, their outer product is calculated (S301, see FIG. 9). In FIG. 9, the arrows indicate the outer product for each surface. Thereby, a vector (that is, a normal vector) perpendicular to the surface can be calculated. Further, the normal vector calculation unit 7 does not calculate a normal vector for a surface having no inclination. This is because a non-inclined surface can ignore the influence of friction on the direction of movement of an operator's finger moving on the touch surface, so that calculation of friction is unnecessary. Then, as shown in FIG. 10, the normal vector calculation unit 7 projects the normal calculated in step S301 on the XY plane, and removes the z component of the normal vector (S302). This facilitates calculation of the inner product of the normal vector and the movement vector (corresponding to step S107) in step S501 described later.

図11は、図2に示すステップS106でのタッチ面移動ベクトル算出処理を示すフローチャートである。タッチ面移動ベクトル算出部8は、座標算出部5が算出した直前の座標A’(図12参照)の情報を取得する(S401)。続いて、タッチ面移動ベクトル算出部8は、座標算出部5が算出した現在の座標A(図12参照)の情報を取得する(S402)。そして、タッチ面移動ベクトル算出部8は、ステップS401及びステップS402にて取得した座標の情報に基づいて、タッチ面上を移動する操作者の指の移動ベクトル(A’−A)を算出する(S403、図12参照)。   FIG. 11 is a flowchart showing the touch surface movement vector calculation process in step S106 shown in FIG. The touch surface movement vector calculation unit 8 acquires information of the immediately preceding coordinate A ′ (see FIG. 12) calculated by the coordinate calculation unit 5 (S401). Subsequently, the touch surface movement vector calculation unit 8 acquires information on the current coordinate A (see FIG. 12) calculated by the coordinate calculation unit 5 (S402). Then, the touch surface movement vector calculation unit 8 calculates a movement vector (A′−A) of the finger of the operator who moves on the touch surface based on the coordinate information acquired in Step S401 and Step S402 ( S403, see FIG.

図13は、図2に示すステップS107での摩擦ベクトル処理を示すフローチャートである。摩擦ベクトル算出部9は、法線ベクトル算出部7が算出した全ての法線ベクトルと、タッチ面移動ベクトル算出部8が算出した移動ベクトルとの内積を算出する(S501)。ここで、ステップS501において摩擦ベクトル算出部9が算出する内積の値は、図14に示すように、法線ベクトルとタッチ面移動ベクトルとの成す角度が90度未満である面については正の値として算出され、算出対象とする2つのベクトルの成す角度が90度より大きい面については負の値として算出される。   FIG. 13 is a flowchart showing the friction vector processing in step S107 shown in FIG. The friction vector calculation unit 9 calculates the inner product of all the normal vectors calculated by the normal vector calculation unit 7 and the movement vector calculated by the touch surface movement vector calculation unit 8 (S501). Here, the value of the inner product calculated by the friction vector calculation unit 9 in step S501 is a positive value for a surface where the angle formed by the normal vector and the touch surface movement vector is less than 90 degrees, as shown in FIG. As for the surface where the angle formed by the two vectors to be calculated is greater than 90 degrees, it is calculated as a negative value.

すなわち、内積の値が正であれば、法線ベクトルの方向は、タッチ面上での操作者の指の移動方向と同一方向の成分を含む方向(角度の隔たりが90度以内)であり、一方、内積の値が負であれば、法線ベクトルの方向はタッチ面上での操作者の指の移動方向に対して反対方向成分を含む方向である。後者の場合には、操作者の指に対して触感呈示部3により振動を生じさせる必要がある。   That is, if the value of the inner product is positive, the direction of the normal vector is a direction that includes a component in the same direction as the movement direction of the operator's finger on the touch surface (the angle difference is within 90 degrees), On the other hand, if the value of the inner product is negative, the direction of the normal vector is a direction including a component opposite to the moving direction of the operator's finger on the touch surface. In the latter case, it is necessary to generate vibration by the tactile sensation providing unit 3 on the operator's finger.

そして、摩擦ベクトル算出部9は、ステップS501において算出した内積のうち、負の値の内積の総和を算出する(S502)。摩擦ベクトル算出部9は、タッチ面上を移動する操作者の指に対して摩擦として与えるべき摩擦ベクトルを算出するために、移動ベクトルに対して逆向きであり、大きさがステップS502で算出した総和であるベクトルを摩擦ベクトルとして求める(S503、図15参照)。   Then, the friction vector calculation unit 9 calculates the sum of the negative inner products among the inner products calculated in step S501 (S502). The friction vector calculation unit 9 is opposite to the movement vector and has a magnitude calculated in step S502 in order to calculate a friction vector to be given as friction to the operator's finger moving on the touch surface. A vector that is the sum is obtained as a friction vector (S503, see FIG. 15).

図16〜図18は、図1に示す触感呈示装置の具体的な動作の一例を説明するための図である。本例は、うろこを有する魚の画像が表示部2に表示された場合の例である。触感制御部10は、ステップS503で求めた摩擦ベクトルの方向及び大きさに基づいて、触感呈示部3の駆動を制御する。具体的には、うろこの向きと同じ右向きに指をスライドさせる場合は、操作者の指に対して与える振動(摩擦)を小さくして、3次元上の摩擦(摩擦ベクトル)が小さいと認識するような触感を呈示し、うろことは逆向きの左向きに指をスライドさせる場合は振動を大きくして、3次元上の摩擦(摩擦ベクトル)が大きいと認識するような触感を呈示する。図16において、矢印の幅は、振動(摩擦)の大きさに対応する。図17は、操作者の指のタッチ面上でのタッチ位置付近の画像を拡大した図である。   16-18 is a figure for demonstrating an example of the specific operation | movement of the tactile sense presentation apparatus shown in FIG. In this example, an image of a fish having a scale is displayed on the display unit 2. The tactile sensation control unit 10 controls the driving of the tactile sensation providing unit 3 based on the direction and magnitude of the friction vector obtained in step S503. Specifically, when the finger is slid in the right direction as the scale, the vibration (friction) applied to the operator's finger is reduced to recognize that the three-dimensional friction (friction vector) is small. The tactile sensation is presented, and when the finger is slid in the opposite left direction, the vibration is increased to present a tactile sensation that recognizes that the three-dimensional friction (friction vector) is large. In FIG. 16, the width of the arrow corresponds to the magnitude of vibration (friction). FIG. 17 is an enlarged view of an image near the touch position on the touch surface of the operator's finger.

操作者が、図17におけるX軸上で、図上左から図上右に指をスライドさせる場合(すなわち、移動ベクトルが「X軸正方向」である場合)には、摩擦ベクトル算出部9が算出する摩擦ベクトルの値は小さく、操作者の指に対して与えられる摩擦は小さい。一方、操作者がX軸正方向とは逆方向(以下、「X軸負方向」と称する)に指をスライドさせる場合には、摩擦ベクトルの値が大きく、操作者の指に対して与えられる摩擦は大きい。ここで、「摩擦は小さい(大きい)」は、3次元上の摩擦(摩擦ベクトル)の大小であり、摩擦が小さい(大きい)場合に振動を小さく(大きく)することで、実際に触っているようなリアルな触感を呈示できるようになる。   When the operator slides his / her finger from the left in the figure to the right in the figure on the X axis in FIG. 17 (that is, when the movement vector is “X axis positive direction”), the friction vector calculation unit 9 The value of the calculated friction vector is small, and the friction given to the operator's finger is small. On the other hand, when the operator slides his / her finger in a direction opposite to the X-axis positive direction (hereinafter referred to as “X-axis negative direction”), the value of the friction vector is large and is given to the operator's finger. Friction is great. Here, “the friction is small (large)” is the magnitude of the friction (friction vector) in three dimensions, and when the friction is small (large), it is actually touched by making the vibration small (large). Such a realistic tactile sensation can be presented.

図18を参照して、これについて、更に詳細に説明する。図18は、図17に示す画像について、図5〜7を参照して説明した処理により、輝度に基づいて面を形成し、xz平面上に表したものである。実線及び破線で示した矢印は、各面の法線ベクトルを示し、破線矢印はX軸に対して平行であるものとする。指をX軸正方向にスライドさせる場合に、X軸正方向のベクトルと、実線矢印(法線ベクトル)との内積を算出するにあたって、両ベクトルの成す角θは、90°<θ<180°度であるので、cosθは、−1<cosθ<0である。一方、指をX軸負方向にスライドさせる場合に、内積を算出するにあたって、両ベクトルの成す角θは、θ=180°であるので、cosθ=−1である。よって、指をX軸負方向にスライドさせる場合の内積の値の絶対値は、指をX軸正方向にスライドさせる場合の内積の値の絶対値よりも大きい。このため、X軸負方向に指をスライドさせる場合には、摩擦ベクトルの値が大きく、操作者の指に対して与えられる摩擦は大きい。   This will be described in more detail with reference to FIG. FIG. 18 shows the image shown in FIG. 17 formed on the xz plane by forming a surface based on the luminance by the processing described with reference to FIGS. The arrows indicated by the solid line and the broken line indicate the normal vectors of the respective surfaces, and the broken line arrow is parallel to the X axis. When the finger is slid in the X-axis positive direction, when calculating the inner product of the vector in the X-axis positive direction and the solid arrow (normal vector), the angle θ formed by both vectors is 90 ° <θ <180 °. Since cos θ is 1 degree, −1 <cos θ <0. On the other hand, when the inner product is calculated when the finger is slid in the negative direction of the X-axis, cos θ = −1 because the angle θ between both vectors is θ = 180 °. Therefore, the absolute value of the inner product value when the finger is slid in the X-axis negative direction is larger than the absolute value of the inner product value when the finger is slid in the X-axis positive direction. For this reason, when the finger is slid in the negative direction of the X axis, the value of the friction vector is large, and the friction given to the operator's finger is large.

図19〜21は、図1に示した触感呈示装置の具体的な動作の他の例を説明するための図である。本例は、毛並みのある犬の画像が表示部2に表示された場合の例である。図19に示す犬は、上から下へと流れる毛並みを有する。この場合、触感呈示装置100は、操作者がX軸方向(図19の左右方向)に指をスライドさせる場合は摩擦を大きくし、Y軸方向(図19の上下方向)に指をスライドさせる場合は摩擦を小さくする。すなわち、図19での矢印の幅は、摩擦の大きさに対応する。図20は、操作者の指のタッチ面上でのタッチ位置付近の画像を拡大した図である。図中、縦線は毛並みを概略的に示す線である。   19-21 is a figure for demonstrating the other example of the specific operation | movement of the tactile sense presentation apparatus shown in FIG. In this example, an image of a dog with fur is displayed on the display unit 2. The dog shown in FIG. 19 has fur that flows from top to bottom. In this case, the tactile sensation providing apparatus 100 increases the friction when the operator slides the finger in the X-axis direction (left-right direction in FIG. 19) and slides the finger in the Y-axis direction (up-down direction in FIG. 19). Reduces friction. That is, the width of the arrow in FIG. 19 corresponds to the magnitude of friction. FIG. 20 is an enlarged view of an image near the touch position on the touch surface of the operator's finger. In the figure, the vertical line is a line schematically showing the fur.

操作者が、図20におけるX軸方向に指をスライドさせる場合(すなわち、移動ベクトルがX軸方向である場合)には、摩擦ベクトル算出部9が算出する摩擦ベクトルの値は大きく、操作者の指に対して与えられる摩擦は大きい。一方、操作者がY軸方向に上から下へ指をスライドさせる場合には、摩擦ベクトルの値が小さく、操作者の指に対して与えられる摩擦は小さい(図21参照)。図21上は、図20に示す動物の毛並みをX軸方向から見た図である。縦軸(Z軸)は輝度方向であり、輝度が高い部分と低い部分が交互に現れるような毛並みの場合、その境界でX軸方向に平行な法線ベクトルを有する面が生成される。法線ベクトルは、矢印で示す。一方、図21下に、図20に示す動物の毛並みをY軸方向から見た図である。Y軸方向での輝度の変化がないため、輝度は一定であり、法線ベクトルを有する面は生成されない。   When the operator slides his / her finger in the X-axis direction in FIG. 20 (that is, when the movement vector is in the X-axis direction), the friction vector calculated by the friction vector calculation unit 9 is large, and the operator's The friction given to the finger is great. On the other hand, when the operator slides his / her finger in the Y-axis direction from the top to the bottom, the value of the friction vector is small and the friction given to the operator's finger is small (see FIG. 21). 21 is a view of the animal's fur as shown in FIG. 20 as viewed from the X-axis direction. The vertical axis (Z-axis) is the luminance direction, and in the case of a fur that has a high luminance portion and a low luminance portion alternately appearing, a surface having a normal vector parallel to the X-axis direction at the boundary is generated. The normal vector is indicated by an arrow. On the other hand, it is the figure which looked at the fur of the animal shown in FIG. 20 from the Y-axis direction under FIG. Since there is no change in luminance in the Y-axis direction, the luminance is constant and a surface having a normal vector is not generated.

図21上では、図18と同様に、実線及び破線で示した矢印は、各面の法線ベクトルを示す。実線及び破線矢印は、両方とも、X軸に対して平行であるものとする。この場合、指をX軸正方向、負方向のどちらにスライドさせても、移動ベクトルと法線ベクトルとの成す角度θは180°であり、内積の絶対値の大きさは等しい。よって、X軸正方向、負方向のどちらに指をスライドさせた場合も、摩擦ベクトルの大きさは等しい。一方、上述したように、Y軸方向では法線ベクトルを有する面は生成されないため、Y軸方向では摩擦ベクトルは算出されない(図21下参照)。   In FIG. 21, as in FIG. 18, arrows indicated by solid lines and broken lines indicate normal vectors of each surface. Both solid and dashed arrows are assumed to be parallel to the X axis. In this case, regardless of whether the finger is slid in the X-axis positive direction or the negative direction, the angle θ formed by the movement vector and the normal vector is 180 °, and the absolute values of the inner products are equal. Therefore, the magnitude of the friction vector is the same whether the finger is slid in either the positive direction or the negative direction of the X axis. On the other hand, as described above, since a surface having a normal vector is not generated in the Y-axis direction, a friction vector is not calculated in the Y-axis direction (see the lower part of FIG. 21).

このように、本実施形態に係る触感呈示装置は、タッチセンサ1と、画像を表示する表示部2と、タッチ面を振動させる触感呈示部3と、制御部4と、を備え、制御部4は、タッチセンサ1の情報に基づいてタッチ面にタッチする対象物の座標を算出する座標算出部5と、当該座標を含む所定領域の画像を三次元化する画像立体化部6と、当該画像の面の法線ベクトルを算出する法線ベクトル算出部7と、対象物のタッチ面上での移動ベクトルを算出するタッチ面移動ベクトル算出部8と、これらの、移動ベクトルと、法線ベクトルとに基づいて、所定領域内の画像が対象物に摩擦として与えるべき摩擦ベクトルを算出する摩擦ベクトル算出部9と、当該摩擦ベクトルに基づいて触感呈示部3の駆動を制御する触感制御部10と、を備えるので、簡単な構成で、2次元画像データからリアルな触感を呈示でき。その上、画像立体化部6において、画像立体化のために用いる情報として、3次元スキャナやステレオ画像から測定された三次元情報を用いることなく、例えば、単一の画像内の各画素の輝度を用いることができるので、バンプマッピングを用いた画像などについても、リアルな触感呈示が可能である。   As described above, the tactile sensation providing apparatus according to the present embodiment includes the touch sensor 1, the display unit 2 that displays an image, the tactile sensation providing unit 3 that vibrates the touch surface, and the control unit 4. Includes a coordinate calculation unit 5 that calculates the coordinates of an object touching the touch surface based on the information of the touch sensor 1, an image three-dimensionalization unit 6 that three-dimensionalizes an image of a predetermined area including the coordinates, and the image A normal vector calculation unit 7 for calculating a normal vector of the surface of the object, a touch surface movement vector calculation unit 8 for calculating a movement vector of the object on the touch surface, the movement vector, the normal vector, A friction vector calculation unit 9 that calculates a friction vector that the image in the predetermined region should give to the object as friction, a tactile sensation control unit 10 that controls the driving of the tactile sensation providing unit 3 based on the friction vector, With , With a simple configuration, it can exhibit a realistic tactile from the two-dimensional image data. In addition, the image stereoscopic unit 6 uses, for example, the luminance of each pixel in a single image without using three-dimensional information measured from a three-dimensional scanner or a stereo image as information used for image stereoscopicization. Therefore, a realistic tactile sensation can be presented for an image using bump mapping.

[第2実施形態]
図22は、本発明の第2実施形態に係る触感呈示装置の要部構成を概略的に示す機能ブロック図である。第1実施形態に係る触感呈示装置と同様の機能ブロックについては同一の参照符号を付す。
[Second Embodiment]
FIG. 22 is a functional block diagram schematically showing the main configuration of the tactile sensation providing apparatus according to the second embodiment of the present invention. Functional blocks similar to those of the tactile sensation providing apparatus according to the first embodiment are denoted by the same reference numerals.

本実施形態に係る触感呈示装置101の制御部4’は、第1実施形態に係る触感呈示装置100の制御部4の有する機能ブロックに加えて、画像移動ベクトル算出部11を有するものである。本実施形態に係る触感呈示装置101は、表示部2にて動画像を表示した場合に、画像自体の移動ベクトル(以下、「画像移動ベクトル」と称する)も、摩擦ベクトル算出のパラメータとして利用することができるように構成されている。   The control unit 4 ′ of the tactile sensation providing apparatus 101 according to the present embodiment includes an image movement vector calculation unit 11 in addition to the functional blocks of the control unit 4 of the tactile sensation providing apparatus 100 according to the first embodiment. When the tactile sensation providing apparatus 101 according to the present embodiment displays a moving image on the display unit 2, the movement vector of the image itself (hereinafter referred to as “image movement vector”) is also used as a parameter for calculating the friction vector. It is configured to be able to.

画像移動ベクトル算出部11は、画像の移動ベクトルを算出する。具体的には、画像の移動方向を算出する。摩擦ベクトル算出部9’は、移動ベクトルと、法線ベクトルと、画像の移動ベクトルとに基づいて、所定領域内の画像が操作者の指に振動(摩擦)として与えるべき摩擦ベクトルを算出する。   The image movement vector calculation unit 11 calculates an image movement vector. Specifically, the moving direction of the image is calculated. The friction vector calculation unit 9 ′ calculates a friction vector that the image in the predetermined area should give to the operator's finger as vibration (friction) based on the movement vector, the normal vector, and the image movement vector.

図23は、図22に示す触感呈示装置の動作を示すフローチャートである。図2に示したフローチャートと同様に、制御部4’が有する各機能ブロックにて、ステップS101〜S105に示す各処理が実行された後、画像移動ベクトル算出部11は、画像の移動ベクトルを算出する(S601)。   FIG. 23 is a flowchart showing the operation of the tactile sensation providing apparatus shown in FIG. Similar to the flowchart shown in FIG. 2, after each process shown in steps S <b> 101 to S <b> 105 is performed in each functional block of the control unit 4 ′, the image movement vector calculation unit 11 calculates the movement vector of the image. (S601).

そして、摩擦ベクトル算出部9’は、移動ベクトルと、法線ベクトルと、画像の移動ベクトルとに基づいて、所定領域内の画像が操作者の指に摩擦として与えるべき摩擦ベクトルを算出する(S602)。具体的には、図13を参照してステップS502及びS503について説明したように、摩擦ベクトル算出部9’は、まず、法線と移動ベクトルとの内積のうちの、負の値の総和をベクトルの大きさとし、移動ベクトルに対して逆向きの方向を有するベクトルを求める。そして、摩擦ベクトル算出部9’は、求めたベクトルと、画像の移動ベクトルとの合成ベクトルを求め、所定領域内の動画像が操作者の指に摩擦として与えるべき摩擦ベクトルを算出する。そして、触感制御部10は、摩擦ベクトル算出部9が算出した摩擦ベクトルに基づいて、触感呈示部3の駆動を制御する(S603)。   Then, the friction vector calculation unit 9 ′ calculates a friction vector that the image in the predetermined region should give to the operator's finger as friction based on the movement vector, the normal vector, and the movement vector of the image (S602). ). Specifically, as described in steps S502 and S503 with reference to FIG. 13, the friction vector calculation unit 9 ′ first calculates the sum of negative values of the inner product of the normal and the movement vector as a vector. And a vector having a direction opposite to the movement vector is obtained. Then, the friction vector calculation unit 9 ′ calculates a combined vector of the calculated vector and the image movement vector, and calculates a friction vector that the moving image in the predetermined area should give to the operator's finger as friction. Then, the tactile sensation control unit 10 controls the driving of the tactile sensation providing unit 3 based on the friction vector calculated by the friction vector calculation unit 9 (S603).

図24は、図23に示すステップS602での画像移動ベクトル算出処理を示すフローチャートである。画像移動ベクトル算出部11は、座標算出部5が算出した座標にある画素の、動画像データの1フレーム前のフレーム内での画素位置を求める(S701)。具体的には、図25に示すように、現在、操作者の指がタッチ面にタッチしている領域(実線)の中心座標Akに対応する、1フレーム前のフレーム内における座標Ak-1を求める。 FIG. 24 is a flowchart showing image movement vector calculation processing in step S602 shown in FIG. The image movement vector calculation unit 11 obtains the pixel position of the pixel at the coordinates calculated by the coordinate calculation unit 5 within the frame one frame before the moving image data (S701). Specifically, as shown in FIG. 25, the coordinates A k− in the frame one frame before corresponding to the center coordinates A k of the region (solid line) where the operator's finger is currently touching the touch surface are shown. seek 1.

そして、画像立体化部6は、ステップS701で求めた座標Ak-1を中心とする所定領域(破線)内の画素を抽出し、図26に示すように、座標Ak-1の周辺領域に含まれる各画素について、上述したように各画素の輝度に基づいて画像立体化処理を実行する(S702)。次いで、画像移動ベクトル算出部11は、図23におけるステップS103での画像立体化処理の結果と、ステップS702の画像立体化処理結果とを用いて、ステップS702での画像立体化処理により生成された面と、ステップS103での画像立体化処理により生成された面とを結ぶベクトルを求める(S703)。 Then, the image three-dimensionalization unit 6 extracts pixels in a predetermined area (broken line) centered on the coordinates A k-1 obtained in step S701, and as shown in FIG. 26, the peripheral area of the coordinates A k-1 As described above, the image three-dimensionalization process is executed on each pixel included in the image based on the luminance of each pixel (S702). Next, the image movement vector calculation unit 11 is generated by the image three-dimensional process in step S702 using the result of the image three-dimensional process in step S103 and the image three-dimensional process result in step S702 in FIG. A vector connecting the surface and the surface generated by the image three-dimensional processing in step S103 is obtained (S703).

具体的には、例えば、図23のステップS104で算出した法線ベクトルの向きが、ステップS105で算出した移動ベクトルとは、対向する成分を有する(逆向きである)全ての面について行う。また、ベクトルを求めるにあたって、図27に示すように、ステップS702での画像立体化処理により生成された面Pk-1と、S103での画像立体化処理により生成された面Pkのそれぞれに含まれる、例えば、外心のような、対応する1点を選出し、これら2点を結ぶことでベクトルPk-1−Pkを求める。そして、画像移動ベクトル算出部11は、ステップS703で算出したベクトルの全てのベクトルについて、平均ベクトルを算出し、画像移動ベクトルとする(S704)。 Specifically, for example, the normal vector calculated in step S104 in FIG. 23 is performed on all surfaces having components opposite to (in the reverse direction from) the movement vector calculated in step S105. Further, when determining the vector, as shown in FIG. 27, the plane P k-1 generated by the image three-dimensional processing in step S702, on each side P k generated by the image three-dimensional processing in S103 For example, one corresponding point such as the outer center is selected, and the vector P k-1 -P k is obtained by connecting these two points. Then, the image movement vector calculation unit 11 calculates an average vector for all the vectors calculated in step S703 and sets it as an image movement vector (S704).

図28は、第2実施形態に係る触感呈示装置の具体的な動作の一例を説明するための図である。本例では、触感呈示装置101の表示部2に、上から撮影した波の動画が表示されている。図28(a)は、現在のフレームであり、図28(b)は直前のフレームである。今、直前フレームの画像において、操作者の指がタッチしている位置が、波面であり、現在のフレームの画像において波が表示部2における上方向に移動した場合、ステップS704において上方向の画像移動ベクトルが検出され、法線ベクトル及び移動ベクトルに基づいて、全体として上方向の摩擦ベクトルが合成されるので、操作者の指に対して触感呈示部3により所定の大きさの振動(摩擦)を発生させる。これにより、指を上方向に移動させると動画上の波の流れによって押し戻されるような感覚を得ることができる。さらに、操作者は、動画像の表示された表示部2を目視することで、触覚だけではなく視覚も通じて刺激を受けるので、あたかも波により指が上方向に押されたかのようなリアルな触感を得る。   FIG. 28 is a diagram for explaining an example of a specific operation of the tactile sensation providing apparatus according to the second embodiment. In this example, a moving image of waves taken from above is displayed on the display unit 2 of the tactile sensation providing apparatus 101. FIG. 28A shows the current frame, and FIG. 28B shows the immediately preceding frame. If the position touched by the operator's finger in the image of the previous frame is the wavefront, and the wave moves upward in the display unit 2 in the image of the current frame, the image in the upward direction is displayed in step S704. Since the movement vector is detected and the friction vector in the upward direction as a whole is synthesized based on the normal vector and the movement vector, vibration (friction) of a predetermined magnitude is applied to the finger of the operator by the tactile sensation providing unit 3. Is generated. Thereby, when the finger is moved upward, a feeling of being pushed back by the wave flow on the moving image can be obtained. Furthermore, since the operator receives the stimulus through not only the tactile sense but also the visual sense by visually observing the display unit 2 on which the moving image is displayed, a realistic tactile sensation as if the finger was pushed upward by the wave. Get.

なお、本実施例では、指を移動させ、移動ベクトルを算出する場合(移動ベクトルが発生する場合)について説明したが、移動ベクトルが発生しない、すなわち指を置いたままの位置に基づく座標算出、法線ベクトル算出、画像移動ベクトル算出に基づき、摩擦ベクトルを合成し、本摩擦ベクトルに基づいて触感呈示部3により振動を与えるようにしてもよい。このように、単に指を置く場合でも(移動ベクトルを算出しない場合でも)、指に対して動画の動きに合わせた触感を呈示することができ、具体的には図28において波の流れによって指が上方向に押し戻されるような触感を呈示することができ、操作者は視覚及び触感により刺激を受けるので、あたかも波により指が上方向に押されたかのようなリアルな触感を得ることができる。   In this embodiment, the case where the finger is moved and the movement vector is calculated (the case where the movement vector is generated) has been described. However, the movement vector is not generated, that is, the coordinate calculation is based on the position where the finger is left. A friction vector may be synthesized based on normal vector calculation and image movement vector calculation, and vibration may be applied by the tactile sensation providing unit 3 based on this friction vector. In this manner, even when the finger is simply placed (even when the movement vector is not calculated), a tactile sensation in accordance with the motion of the moving image can be presented to the finger. Specifically, in FIG. Since the operator is stimulated by visual and tactile sensations, a realistic tactile sensation can be obtained as if the finger was pushed upward by waves.

このように、本実施形態に係る触感呈示装置は、タッチセンサ1と、画像を表示する表示部2と、タッチ面を振動させる触感呈示部3と、制御部4と、を備え、制御部4は、タッチセンサ1の情報に基づいてタッチ面にタッチする対象物の座標を算出する座標算出部5と、当該座標を含む所定領域の画像を三次元化する画像立体化部6と、当該画像の面の法線ベクトルを算出する法線ベクトル算出部7と、対象物のタッチ面上での移動ベクトルを算出するタッチ面移動ベクトル算出部8と、画像の移動ベクトルを算出する画像移動ベクトル算出部11と、移動ベクトルと、法線ベクトル、及び画像移動ベクトルとに基づいて、所定領域内の画像が対象物に摩擦として与えるべき摩擦ベクトルを算出する摩擦ベクトル算出部9’と、当該摩擦ベクトルに基づいて触感呈示部3の駆動を制御する触感制御部10と、を備えるので、動画像に含まれる奥行き情報を取得できない物体を触った際の触感を再現することができる。その上、本実施形態に係る触感呈示装置は、画像移動ベクトル算出部11にて、画像移動ベクトルを算出し、当該算出結果を摩擦ベクトル算出部9’における摩擦ベクトルの算出に利用するため、動画像のような時間変化のある画像などについても、リアルな触感呈示することが可能である。   As described above, the tactile sensation providing apparatus according to the present embodiment includes the touch sensor 1, the display unit 2 that displays an image, the tactile sensation providing unit 3 that vibrates the touch surface, and the control unit 4. Includes a coordinate calculation unit 5 that calculates the coordinates of an object touching the touch surface based on the information of the touch sensor 1, an image three-dimensionalization unit 6 that three-dimensionalizes an image of a predetermined area including the coordinates, and the image A normal vector calculation unit 7 for calculating a normal vector of the surface of the object, a touch surface movement vector calculation unit 8 for calculating a movement vector of the object on the touch surface, and an image movement vector calculation for calculating a movement vector of the image. A friction vector calculation unit 9 ′ that calculates a friction vector to be given to the object by the image in the predetermined region as a friction based on the unit 11, the movement vector, the normal vector, and the image movement vector; A tactile control unit 10 for controlling the drive of the tactile sensation providing unit 3 based on torque, so provided with, it is possible to reproduce the tactile sensation when touching the objects can not be obtained depth information included in the moving image. Moreover, in the tactile sensation presentation apparatus according to the present embodiment, the image movement vector calculation unit 11 calculates an image movement vector and uses the calculation result for calculation of the friction vector in the friction vector calculation unit 9 ′. A realistic tactile sensation can also be presented for an image such as an image that changes with time.

なお、本発明は、上述した実施の形態にのみ限定されるものではなく、幾多の変更または変形が可能である。例えば、第2実施形態では、ステップS601にて画像移動ベクトル算出部11が画像移動ベクトルを算出した後に、ステップS602にて摩擦ベクトル算出部9’が、法線ベクトル、移動ベクトル及び画像移動ベクトルに基づいて摩擦ベクトルを算出し、ステップS603にて当該摩擦ベクトルに基づいて、触感制御部10が触感呈示部3の駆動を制御するものとして記載した。しかし、本発明はこれに限定されず、ステップS601での画像移動ベクトルの算出より前に、摩擦ベクトル算出部9’にて法線ベクトル及び移動ベクトルに基づいて、摩擦ベクトルを算出するように触感呈示装置101を構成することもできる。そして、摩擦ベクトル算出部9’にて摩擦ベクトルを算出した後に、画像移動ベクトル算出部11にて画像移動ベクトルを算出し、触感制御部10にて摩擦ベクトル及び画像移動ベクトルの合成ベクトルを求め、当該合成ベクトルに基づいて触感呈示部3の駆動を制御させても良い。このような構成の触感呈示装置101では、摩擦ベクトルの算出にあたって画像移動ベクトルが不要であるため、静止画及び動画像の混在するデータを入力画像として使用できるようになる。   In addition, this invention is not limited only to embodiment mentioned above, Many change or deformation | transformation is possible. For example, in the second embodiment, after the image movement vector calculation unit 11 calculates the image movement vector in step S601, the friction vector calculation unit 9 ′ calculates the normal vector, the movement vector, and the image movement vector in step S602. The friction vector is calculated based on the friction vector, and the tactile sensation control unit 10 controls the driving of the tactile sensation providing unit 3 based on the friction vector in step S603. However, the present invention is not limited to this, and the tactile sensation is such that the friction vector calculation unit 9 ′ calculates the friction vector based on the normal vector and the movement vector before the calculation of the image movement vector in step S601. The presentation apparatus 101 can also be configured. Then, after calculating the friction vector by the friction vector calculation unit 9 ′, the image movement vector calculation unit 11 calculates the image movement vector, and the tactile sensation control unit 10 obtains a combined vector of the friction vector and the image movement vector, The driving of the tactile sensation providing unit 3 may be controlled based on the combined vector. Since the tactile sensation providing apparatus 101 having such a configuration does not require an image movement vector for calculating the friction vector, data including a mixture of a still image and a moving image can be used as an input image.

なお、本発明における、「ベクトルの算出」は予め記憶部(不図示)に必要な情報(力の大きさと向き等を予め算出したもの)を記憶させ、ベクトルを本記憶部からの情報に基づき決定する場合も「ベクトルの算出」に該当するものとする。   In the present invention, “calculation of vector” stores information necessary for storage (not shown) in advance (calculated in advance, such as magnitude and direction of force), and the vector is based on information from the storage. The determination also falls under “vector calculation”.

1 タッチセンサ
2 表示部
3 触感呈示部
4,4’ 制御部
5 座標算出部
6 画像立体化部
7 法線ベクトル算出部
8 タッチ面移動ベクトル算出部
9,9’ 摩擦ベクトル算出部
10 触感制御部
11 画像移動ベクトル算出部
100,101 触感呈示装置


DESCRIPTION OF SYMBOLS 1 Touch sensor 2 Display part 3 Tactile sense presentation part 4, 4 'Control part 5 Coordinate calculation part 6 Image three-dimensional part 7 Normal vector calculation part 8 Touch surface movement vector calculation part 9, 9' Friction vector calculation part 10 Tactile sense control part 11 Image movement vector calculation unit 100, 101 Touch display device


Claims (6)

タッチセンサと、
画像を表示する表示部と、
前記タッチセンサのタッチ面を振動させる触感呈示部と、
制御部と、を備え、
前記制御部は、
前記タッチセンサの情報に基づいて前記タッチ面にタッチする対象物の前記タッチ面上の座標を算出する座標算出部と、
前記座標算出部が算出した前記座標を含む所定領域の前記画像を三次元化する画像立体化部と、
三次元化した前記画像に基づいて当該画像の面の法線ベクトルを算出する法線ベクトル算出部と、
前記対象物の前記タッチ面上での移動ベクトルを算出するタッチ面移動ベクトル算出部と、
前記移動ベクトルと、前記法線ベクトルとに基づいて、前記所定領域内の前記画像が前記対象物に摩擦として与えるべき摩擦ベクトルを算出する摩擦ベクトル算出部と、
当該摩擦ベクトルに基づいて前記触感呈示部の駆動を制御する触感制御部と、
を備えることを特徴とする触感呈示装置。
A touch sensor;
A display for displaying an image;
A tactile sensation providing unit that vibrates the touch surface of the touch sensor;
A control unit,
The controller is
A coordinate calculation unit that calculates coordinates on the touch surface of an object that touches the touch surface based on information of the touch sensor;
An image three-dimensionalization unit that three-dimensionalizes the image of the predetermined area including the coordinates calculated by the coordinate calculation unit;
A normal vector calculation unit that calculates a normal vector of a surface of the image based on the three-dimensional image;
A touch surface movement vector calculation unit for calculating a movement vector of the object on the touch surface;
A friction vector calculation unit that calculates a friction vector that the image in the predetermined region should give to the object as friction based on the movement vector and the normal vector;
A tactile sensation control unit that controls driving of the tactile sensation providing unit based on the friction vector;
A tactile sensation presentation apparatus comprising:
タッチセンサと、
画像を表示する表示部と、
前記タッチセンサのタッチ面を振動させる触感呈示部と、
制御部と、を備え、
前記制御部は、
前記タッチセンサの情報に基づいて前記タッチ面にタッチする対象物の前記タッチ面上の座標を算出する座標算出部と、
前記座標算出部が算出した前記座標を含む所定領域の前記画像を三次元化する画像立体化部と、
三次元化した前記画像に基づいて当該画像の面の法線ベクトルを算出する法線ベクトル算出部と、
前記画像の移動ベクトルを算出する画像移動ベクトル算出部と、
前記法線ベクトルと、前記画像の移動ベクトルとに基づいて、前記所定領域内の前記画像が前記対象物に摩擦として与えるべき摩擦ベクトルを算出する摩擦ベクトル算出部と、
当該摩擦ベクトルに基づいて前記触感呈示部の駆動を制御する触感制御部と、
を備えることを特徴とする触感呈示装置。
A touch sensor;
A display for displaying an image;
A tactile sensation providing unit that vibrates the touch surface of the touch sensor;
A control unit,
The controller is
A coordinate calculation unit that calculates coordinates on the touch surface of an object that touches the touch surface based on information of the touch sensor;
An image three-dimensionalization unit that three-dimensionalizes the image of the predetermined area including the coordinates calculated by the coordinate calculation unit;
A normal vector calculation unit that calculates a normal vector of a surface of the image based on the three-dimensional image;
An image movement vector calculation unit for calculating a movement vector of the image;
A friction vector calculation unit that calculates a friction vector that the image in the predetermined area should give to the object as friction based on the normal vector and the movement vector of the image;
A tactile sensation control unit that controls driving of the tactile sensation providing unit based on the friction vector;
A tactile sensation presentation apparatus comprising:
タッチセンサと、
画像を表示する表示部と、
前記タッチセンサのタッチ面を振動させる触感呈示部と、
制御部と、を備え、
前記制御部は、
前記タッチセンサの情報に基づいて前記タッチ面にタッチする対象物の前記タッチ面上の座標を算出する座標算出部と、
前記座標算出部が算出した前記座標を含む所定領域の前記画像を三次元化する画像立体化部と、
三次元化した前記画像に基づいて当該画像の面の法線ベクトルを算出する法線ベクトル算出部と、
前記対象物の前記タッチ面上での移動ベクトルを算出するタッチ面移動ベクトル算出部と、
前記画像の移動ベクトルを算出する画像移動ベクトル算出部と、
前記移動ベクトルと、前記法線ベクトルと、前記画像の移動ベクトルとに基づいて、前記所定領域内の前記画像が前記対象物に摩擦として与えるべき摩擦ベクトルを算出する摩擦ベクトル算出部と、
当該摩擦ベクトルに基づいて前記触感呈示部の駆動を制御する触感制御部と、
を備えることを特徴とする触感呈示装置。
A touch sensor;
A display for displaying an image;
A tactile sensation providing unit that vibrates the touch surface of the touch sensor;
A control unit,
The controller is
A coordinate calculation unit that calculates coordinates on the touch surface of an object that touches the touch surface based on information of the touch sensor;
An image three-dimensionalization unit that three-dimensionalizes the image of the predetermined area including the coordinates calculated by the coordinate calculation unit;
A normal vector calculation unit that calculates a normal vector of a surface of the image based on the three-dimensional image;
A touch surface movement vector calculation unit for calculating a movement vector of the object on the touch surface;
An image movement vector calculation unit for calculating a movement vector of the image;
A friction vector calculation unit that calculates a friction vector that the image in the predetermined region should give to the object as friction based on the movement vector, the normal vector, and the movement vector of the image;
A tactile sensation control unit that controls driving of the tactile sensation providing unit based on the friction vector;
A tactile sensation presentation apparatus comprising:
タッチセンサと、
画像を表示する表示部と、
前記タッチセンサのタッチ面を振動させる触感呈示部と、
制御部と、を備える触感呈示装置の制御方法であって、
前記タッチセンサの情報に基づいて前記タッチ面にタッチする対象物の前記タッチ面上の座標を算出し、
前記座標算出部が算出した前記座標を含む所定領域の前記画像を三次元化し、
三次元化した前記画像に基づいて当該画像の面の法線ベクトルを算出し、
前記対象物の前記タッチ面上での移動ベクトルを算出し、
前記移動ベクトルと、前記法線ベクトルとの算出結果に基づいて、前記所定領域内の前記画像が前記対象物に摩擦として与えるべき摩擦ベクトルを算出し、
当該摩擦ベクトルに基づいて前記触感呈示部の駆動を制御することを特徴とする制御方法。
A touch sensor;
A display for displaying an image;
A tactile sensation providing unit that vibrates the touch surface of the touch sensor;
A tactile sensation presentation apparatus comprising a control unit,
Calculate coordinates on the touch surface of an object touching the touch surface based on the information of the touch sensor,
Three-dimensionalize the image of the predetermined area including the coordinates calculated by the coordinate calculation unit,
Based on the three-dimensional image, calculate a normal vector of the surface of the image,
Calculating a movement vector of the object on the touch surface;
Based on the calculation result of the movement vector and the normal vector, calculate a friction vector that the image in the predetermined region should give to the object as friction,
A control method comprising controlling driving of the tactile sensation providing unit based on the friction vector.
タッチセンサと、
画像を表示する表示部と、
前記タッチセンサのタッチ面を振動させる触感呈示部と、
制御部と、を備え触感呈示装置の制御方法であって、
前記タッチセンサの情報に基づいて前記タッチ面にタッチする対象物の前記タッチ面上の座標を算出し、
前記座標算出部が算出した前記座標を含む所定領域の前記画像を三次元化し、
三次元化した前記画像に基づいて当該画像の面の法線ベクトルを算出し、
前記画像の移動ベクトルを算出し、
前記法線ベクトルと、前記画像の移動ベクトルとに基づいて、前記所定領域内の前記画像が前記対象物に摩擦として与えるべき摩擦ベクトルを算出し、
当該摩擦ベクトルに基づいて前記触感呈示部の駆動を制御することを特徴とする制御方法。
A touch sensor;
A display for displaying an image;
A tactile sensation providing unit that vibrates the touch surface of the touch sensor;
A tactile sensation presentation device comprising a control unit,
Calculate coordinates on the touch surface of an object touching the touch surface based on the information of the touch sensor,
Three-dimensionalize the image of the predetermined area including the coordinates calculated by the coordinate calculation unit,
Based on the three-dimensional image, calculate a normal vector of the surface of the image,
Calculating a movement vector of the image;
Based on the normal vector and the movement vector of the image, calculate a friction vector that the image in the predetermined region should give to the object as friction,
A control method comprising controlling driving of the tactile sensation providing unit based on the friction vector.
タッチセンサと、
画像を表示する表示部と、
前記タッチセンサのタッチ面を振動させる触感呈示部と、
制御部と、を備え触感呈示装置の制御方法であって、
前記タッチセンサの情報に基づいて前記タッチ面にタッチする対象物の前記タッチ面上の座標を算出し、
前記座標算出部が算出した前記座標を含む所定領域の前記画像を三次元化し、
三次元化した前記画像に基づいて当該画像の面の法線ベクトルを算出し、
前記対象物の前記タッチ面上での移動ベクトルを算出し、
前記画像の移動ベクトルを算出し、
前記移動ベクトルと、前記法線ベクトルと、前記画像の移動ベクトルとに基づいて、前記所定領域内の前記画像が前記対象物に摩擦として与えるべき摩擦ベクトルを算出し、
当該摩擦ベクトルに基づいて前記触感呈示部の駆動を制御することを特徴とする制御方法。
A touch sensor;
A display for displaying an image;
A tactile sensation providing unit that vibrates the touch surface of the touch sensor;
A tactile sensation presentation device comprising a control unit,
Calculate coordinates on the touch surface of an object touching the touch surface based on the information of the touch sensor,
Three-dimensionalize the image of the predetermined area including the coordinates calculated by the coordinate calculation unit,
Based on the three-dimensional image, calculate a normal vector of the surface of the image,
Calculating a movement vector of the object on the touch surface;
Calculating a movement vector of the image;
Based on the movement vector, the normal vector, and the movement vector of the image, calculate a friction vector that the image in the predetermined region should give to the object as friction,
A control method comprising controlling driving of the tactile sensation providing unit based on the friction vector.
JP2010209031A 2010-09-17 2010-09-17 Tactile sensation presentation apparatus and control method for tactile sensation presentation apparatus Active JP5496032B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010209031A JP5496032B2 (en) 2010-09-17 2010-09-17 Tactile sensation presentation apparatus and control method for tactile sensation presentation apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010209031A JP5496032B2 (en) 2010-09-17 2010-09-17 Tactile sensation presentation apparatus and control method for tactile sensation presentation apparatus

Publications (2)

Publication Number Publication Date
JP2012064095A JP2012064095A (en) 2012-03-29
JP5496032B2 true JP5496032B2 (en) 2014-05-21

Family

ID=46059717

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010209031A Active JP5496032B2 (en) 2010-09-17 2010-09-17 Tactile sensation presentation apparatus and control method for tactile sensation presentation apparatus

Country Status (1)

Country Link
JP (1) JP5496032B2 (en)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9196134B2 (en) * 2012-10-31 2015-11-24 Immersion Corporation Method and apparatus for simulating surface features on a user interface with haptic effects
JP5954132B2 (en) * 2012-11-19 2016-07-20 アイシン・エィ・ダブリュ株式会社 Operation support system, operation support method, and computer program
US9880623B2 (en) * 2013-01-24 2018-01-30 Immersion Corporation Friction modulation for three dimensional relief in a haptic device
US9507481B2 (en) 2013-04-17 2016-11-29 Nokia Technologies Oy Method and apparatus for determining an invocation input based on cognitive load
US10168766B2 (en) 2013-04-17 2019-01-01 Nokia Technologies Oy Method and apparatus for a textural representation of a guidance
US10027606B2 (en) 2013-04-17 2018-07-17 Nokia Technologies Oy Method and apparatus for determining a notification representation indicative of a cognitive load
US10359835B2 (en) 2013-04-17 2019-07-23 Nokia Technologies Oy Method and apparatus for causing display of notification content
KR101558810B1 (en) 2014-09-22 2015-10-19 현대자동차주식회사 Acoustic User Interface Apparatus and Method for Recognition of Touching and Scrubbing
WO2017119107A1 (en) 2016-01-07 2017-07-13 富士通株式会社 Electronic device and drive control method for electronic device
JP2017138737A (en) * 2016-02-02 2017-08-10 富士通テン株式会社 Input device, display device, and method for controlling input device
JP6930310B2 (en) * 2017-09-07 2021-09-01 富士フイルムビジネスイノベーション株式会社 Modeling control device, modeling control program

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5802353A (en) * 1996-06-12 1998-09-01 General Electric Company Haptic computer modeling system
US6552722B1 (en) * 1998-07-17 2003-04-22 Sensable Technologies, Inc. Systems and methods for sculpting virtual objects in a haptic virtual reality environment
JP3722994B2 (en) * 1998-07-24 2005-11-30 大日本印刷株式会社 Object contact feeling simulation device
US7196688B2 (en) * 2000-05-24 2007-03-27 Immersion Corporation Haptic devices using electroactive polymers
JP4173114B2 (en) * 2004-02-23 2008-10-29 株式会社国際電気通信基礎技術研究所 Experience drawing device
JP3809542B2 (en) * 2005-07-29 2006-08-16 独立行政法人港湾空港技術研究所 Remote operation system
US8405618B2 (en) * 2006-03-24 2013-03-26 Northwestern University Haptic device with indirect haptic feedback
KR20190045395A (en) * 2009-03-12 2019-05-02 임머숀 코퍼레이션 Systems and methods for providing features in a friction display
WO2010105011A1 (en) * 2009-03-12 2010-09-16 Immersion Corporation Systems and methods for friction displays and additional haptic effects

Also Published As

Publication number Publication date
JP2012064095A (en) 2012-03-29

Similar Documents

Publication Publication Date Title
JP5496032B2 (en) Tactile sensation presentation apparatus and control method for tactile sensation presentation apparatus
US20200349982A1 (en) Haptic effect generation for space-dependent content
US11054907B2 (en) Friction modulation for three dimensional relief in a haptic device
KR102256677B1 (en) Flexible display apparatus and image displaying method of the same
US20100128112A1 (en) Immersive display system for interacting with three-dimensional content
JP2011521318A (en) Interactive virtual reality image generation system
US20200329227A1 (en) Information processing apparatus, information processing method and storage medium
JP6911123B2 (en) Learning device, recognition device, learning method, recognition method and program
Sinclair et al. TouchMover 2.0-3D touchscreen with force feedback and haptic texture
US9269004B2 (en) Information processing terminal, information processing method, and program
Gotsch et al. Holoflex: A flexible light-field smartphone with a microlens array and a p-oled touchscreen
KR20160148769A (en) Stereoscopic image display device having function of space touch
CN112292656B (en) Image display system, image display method, and computer-readable recording medium storing computer program
CN107193442A (en) Graphic display method, graphics device, electronic equipment and storage medium
CN104063191B (en) The method and electronic equipment of a kind of information processing
KR101177793B1 (en) Stereoscopic virtual experience apparatus and method
US10130334B2 (en) Presenting a graphical representation of an ultrasound scanning volume
US20210319624A1 (en) Image processing device, image processing method, and program
JP4493082B2 (en) CG presentation device, program thereof, and CG display system
US20170052684A1 (en) Display control apparatus, display control method, and program
JP2010231677A (en) Attribute information display device and attribute information display program
JP2015049071A (en) Electronic device
US20110043442A1 (en) Method and System for Displaying Images on Moveable Display Devices
JP2015049564A (en) Electronic device
JP2015032019A (en) Electronic device and control program for the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130812

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140304

R150 Certificate of patent or registration of utility model

Ref document number: 5496032

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150