JP2005216248A - Shape deformation display device in response to physical contact - Google Patents
Shape deformation display device in response to physical contact Download PDFInfo
- Publication number
- JP2005216248A JP2005216248A JP2004025792A JP2004025792A JP2005216248A JP 2005216248 A JP2005216248 A JP 2005216248A JP 2004025792 A JP2004025792 A JP 2004025792A JP 2004025792 A JP2004025792 A JP 2004025792A JP 2005216248 A JP2005216248 A JP 2005216248A
- Authority
- JP
- Japan
- Prior art keywords
- physical contact
- dimensional model
- display
- pressure
- display device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、仮想空間上に表現された物体が物理的接触により現実の物体のように自然に変化するようにした物理的接触に応じた形状変形表示装置に関するものである。 The present invention relates to a shape-deformation display device according to physical contact in which an object expressed in a virtual space naturally changes like a real object by physical contact.
例えば、人間や動物の形をしたロボットを実現する上で、その頭部は顔や髪の毛があり、人間が見たときに違和感のないようなものである必要性がある。 For example, in realizing a robot in the shape of a human being or an animal, its head needs to have a face or a hair so that it does not feel uncomfortable when viewed by a human.
そこで、特許文献1の「コミュニケーションロボット」では、電磁モータによって機械的にゴム皮膜を駆動し、顔の表情を作り出す技術が開示されている。
しかし、機械的に顔の表情を実現する場合、構造が複雑となり、コストがかかることや故障が起きやすいなどの問題点がある。
Therefore, the “communication robot” of
However, when a facial expression is mechanically realized, there are problems such as a complicated structure, high cost, and failure.
一方、電子的な表示装置により顔の表情を実現する試みも成されている。
例えば、特許文献2の「表情を有する知的ロボット」では、複数用意された表情のパターンを電子的な表示装置に描画することにより、種々の表情を有するロボットの顔を実現している。
しかし、この方法の場合、上記した機械式の場合と比較して周辺の環境、例えば光、風、或いは物理的接触などに左右されずに顔等が表現されてしまい、違和感のあるものとなる。
On the other hand, attempts have been made to realize facial expressions using an electronic display device.
For example, in “Intelligent robot having facial expression” of
However, in this method, the face is expressed without being influenced by the surrounding environment, for example, light, wind, or physical contact, as compared with the case of the above-described mechanical type, and there is a sense of incongruity. .
このような課題を解決するため、特許文献3の「ロボット」では、電子的なディスプレイと周囲の光或いは風を検出する検出手段を有し、周囲の状況に連動して違和感なく顔の表情が変化するロボットを実現した技術が開示されている。
In order to solve such a problem, the “robot” of
この特許文献3に記載された技術のように、三次元コンピュータグラフィクスの技術と外部環境要因を検出する検出手段を利用すれば、環境に連動した人間や動物の顔をリアルに表現し、ディスプレイ上に表示することが可能である。
そして、これをロボットの顔として利用することは、前述の機械式の場合と比較して、安価に且つ故障がすくなくリアルなロボットの顔を実現できることとなる。
Like the technique described in
By using this as a robot face, a realistic robot face can be realized at a lower cost and with less failure compared to the case of the mechanical type described above.
ここで、特許文献3に記載された技術においては、外部環境要因を検出する検出手段として、光と風を検出する検出手段のみしか有しておらず、物理的接触による変化、即ち、人の顔に指が触れると、指先から加えられた圧力が皮膚に伝わり、触れた部分の皮膚が凹むと言った変化を表現することはできないものであった。
しかし、このような変化をディスプレイに表示されたロボットの顔においても表現することができれば、より違和感のないロボットの顔を実現することができると共に、スキンシップによる人とロボットのコミュニケーションの可能性も生じる。
Here, the technique described in
However, if such changes can be expressed in the robot's face displayed on the display, the robot's face can be realized without any discomfort, and the possibility of human-robot communication through skinship is also possible. Arise.
そこで、本発明が解決しようとする課題は、仮想空間上に表現された物体が物理的接触により現実の物体のように自然にその形状が変化するようにした、物理的接触に応じた形状変形表示装置を提案することにある。 Therefore, the problem to be solved by the present invention is that the shape of the object expressed in the virtual space changes its shape naturally according to physical contact so that the shape naturally changes like a real object by physical contact. It is to propose a display device.
本発明は、上記した課題を解決するため、ある物体を表現した三次元モデルと、前記三次元モデルをディスプレイに表示する三次元モデル表示手段と、前記ディスプレイに設けられた物理的接触を検出する検出手段と、前記検出手段の検出結果から周囲の圧力状態を推定する推定手段と、前記推定手段の推定結果により前記三次元モデルを変形する三次元モデル変形手段とを有する物理的接触に応じた形状変形表示装置とした。 In order to solve the above-described problem, the present invention detects a three-dimensional model representing a certain object, three-dimensional model display means for displaying the three-dimensional model on a display, and physical contact provided on the display. According to physical contact, comprising: detecting means; estimating means for estimating a surrounding pressure state from the detection result of the detecting means; and three-dimensional model deforming means for deforming the three-dimensional model based on the estimation result of the estimating means. A shape deformation display device was obtained.
上記した本発明によれば、ある物体、例えば人間や動物の頭部を表現した三次元モデルを有し、それをディスプレイに表示する三次元モデル表示手段と、ディスプレイに設けられた物理的接触により加えられた圧力の大きさ、及びその位置等を検出する検出手段、例えばタッチパネルを有し、前記タッチパネルの検出結果から推定手段において周囲の圧力状態、例えば圧力のおよぶ範囲、及びその範囲の圧力の大きさ等を推定し、該推定手段の推定結果により三次元モデル変形手段が前記人間や動物の頭部を表現した三次元モデルを変形するため、ディスプレイに人が触れると、ディスプレイに表示された人間や動物の頭部の形状がその接触により変化することとなり、物理的接触に対して違和感なく変形するロボットの顔等を安価に実現することができることとなる。 According to the present invention described above, a three-dimensional model representing a certain object, for example, the head of a human being or an animal, is displayed on the display, and the physical contact provided on the display. A detecting means for detecting the magnitude of the applied pressure, its position, and the like, for example, a touch panel, and the estimation means from the detection result of the touch panel, the surrounding pressure state, for example, the range of the pressure, The size and the like are estimated, and the 3D model deforming means deforms the 3D model representing the head of the human being or the animal based on the estimation result of the estimating means. The shape of the head of a human being or an animal changes due to the contact, and a robot face that deforms without physical discomfort with physical contact can be realized at low cost. So that the can.
以下、上記した本発明に係る物理的接触に応じた形状変形表示装置の実施の形態を、図面などを示して詳細に説明する。 Hereinafter, embodiments of the shape deformation display device according to the physical contact according to the present invention will be described in detail with reference to the drawings.
図1は、本発明に係る物理的接触に応じた形状変形表示装置のシステム構成の一例を示した図である。
この図に示した装置は、ディスプレイ1と、このディスプレイ1に人間や動物の頭部等の三次元モデルを表示する三次元モデル表示部2と、この三次元モデル表示部2に与えられるデータとしての三次元モデル3を備えている。また、物理的接触を検出するタッチパネル8と、このタッチパネル8により検出された圧力データ6及び位置座標データ7と、この圧力データ6及び位置座標データ7より物理的接触による圧力のおよぶ範囲、及びその範囲の圧力の大きさを推定する推定手段5と、前記推定手段5による推定結果に基づき上記データとしての三次元モデル3に変形を加える三次元モデル変形手段4を更に備えている。
なお、上記三次元モデル表示部2、三次元モデル変形手段4、推定手段5は計算機内部の処理部であり、上記三次元モデル3、圧力データ6、位置座標データ7は計算機内部のデータである。
FIG. 1 is a diagram showing an example of a system configuration of a shape deformation display device according to physical contact according to the present invention.
The apparatus shown in this figure includes a
The three-dimensional
図2は、本発明に係る物理的接触に応じた形状変形表示装置の概観の一例を示したものであって、ディスプレイ1に上記物理的接触の検出手段であるタッチパネル8が配置されたタッチパネル式液晶ディスプレイが使用され、ディスプレイ1に人間の頭部を表現した三次元モデル3が表示されると共に、ディスプレイ1に物理的接触をした際、その物理的接触により加えられた圧力の大きさ、及びその位置をタッチパネル8によって検出できるようになっている。
そして、タッチパネル8によって検出された圧力データ5と位置座標データ6から、推定手段5において物理的接触による圧力のおよぶ範囲、及びその範囲の圧力の大きさが推定され、該推定手段5の推定結果に基づき、上記三次元モデル変形手段4は三次元モデル3を変形させ、そして、変形された三次元モデル3が三次元モデル表示部2によりディスプレイ1に表示され、ディスプレイ1上に表示された人間の頭部が接触により変形したように表示される。
なお、上記ディスプレイ1は、現状では長方形のものしか入手できないが、人間や動物の頭部の形状に近いディスプレイを使用することもできる。
FIG. 2 shows an example of the appearance of the shape deformation display device according to the physical contact according to the present invention, and is a touch panel type in which a
Then, from the pressure data 5 detected by the
In addition, although the said
図3は、本発明に係る物理的接触に応じた形状変形表示装置の動作の一例を示したフローチャートである。
このフローチャートに示したように、まず、初期化を行い、タッチパネル8のセットや仮想空間やその物体の初期値のセットを行う〔P1〕。
次に、タッチパネル8から圧力の加わった座標値(x,y)と、その圧力の大きさ(p)を得る〔P2〕。
そして、タッチパネル8から得られた座標値(x,y)と圧力の大きさ(p)から、推定手段5において周囲の圧力状態を推定する〔P3〕。
続いて、その推定された圧力情報をもとに、三次元モデル変形手段4によって三次元モデル3を変形する〔P4〕。
最後に、変形後の三次元モデル3を三次元モデル表示部2によりディスプレイ1上に表示する〔P5〕。
以上の〔P2〕から〔P5〕の処理を繰り返すことにより、ディスプレイ1上に表示された物体は物理的接触に応じて変化させることができる。例えば、ディスプレイ1上に表示されたロボットの頬を軽く押せば、ロボットの頬も実際に押されたように凹んで表示され、ディスプレイ1から手を離せば、もとの形状に戻る。
FIG. 3 is a flowchart showing an example of the operation of the shape deformation display device according to physical contact according to the present invention.
As shown in this flowchart, first, initialization is performed, and the
Next, the coordinate value (x, y) to which pressure is applied and the magnitude (p) of the pressure are obtained from the touch panel 8 [P2].
And the surrounding pressure state is estimated in the estimation means 5 from the coordinate value (x, y) obtained from the
Subsequently, based on the estimated pressure information, the three-dimensional model deforming means 4 deforms the three-dimensional model 3 [P4].
Finally, the deformed three-
By repeating the processes [P2] to [P5], the object displayed on the
図4は、上記図3の推定部分〔P3〕の動作、即ち、タッチパネル8から得られた座標値(x,y)と圧力の大きさ(p)から、周囲の圧力状態を推定する動作の一例を詳細に示したフローチャートである。
この実施の形態では、物理的接触の検出手段としてタッチパネル8を使用したため、検出される座標系がワールド座標系である。したがって、まず検出された座標値(x,y)から、以下の式を用いて仮想空間上の座標値(x’,y’,z’)に変換する〔Q1〕。
x’=x/w y’=y/h
ここで、図5に示すようにwは表示される仮想空間の幅であり、hは高さである。また、各軸の方向は、図5のとおりである。また本実施の形態では、OpenGLを使用したため、仮想空間上のz軸座標値z’は、タッチパネル8から検出された座標値(x,y)より、OpenGLに含まれる関数を使用して求める。
なお、図5は、本実施の形態に用いた仮想空間上の空間幅wとその高さh、及び三次元モデル3の表示例を示した図である。
4 shows the operation of the estimation part [P3] of FIG. 3, that is, the operation of estimating the surrounding pressure state from the coordinate values (x, y) obtained from the
In this embodiment, since the
x ′ = x / w y ′ = y / h
Here, as shown in FIG. 5, w is the width of the displayed virtual space, and h is the height. The directions of the axes are as shown in FIG. In this embodiment, since OpenGL is used, the z-axis coordinate value z ′ in the virtual space is obtained from the coordinate value (x, y) detected from the
FIG. 5 is a diagram showing a display example of the space width w and its height h in the virtual space and the three-
次に、タッチパネル8は、ある一点での圧力しか検出できない。そこで、図6のように検出された圧力の大きさ(p)をもとに、圧力の検出された箇所を中心として圧力の大きさに比例した範囲に力が加わるものとし、圧力のおよぶ範囲を推定する〔Q2〕。
即ち、人差し指の半径を5mmと仮定し、最大で圧力の及ぶ範囲を半径15mmとし、また、タッチパネル8により検出できる圧力の最大値をpmax として、力のおよぶ範囲rを、
r=(p/pmax )×15
のようにして圧力のおよぶ範囲を推定する。
Next, the
That is, assuming that the radius of the index finger is 5 mm, the maximum pressure range is 15 mm, the maximum pressure that can be detected by the
r = (p / p max ) × 15
Estimate the pressure range as follows.
続いて、圧力のおよぶ範囲の三次元モデルを構成している各制御点に対して、検出された圧力の大きさ(p)から、中心からの距離に反比例した圧力が各点に加わるものとし、圧力の大きさを各々制御点について推定することにより決定する〔Q3〕。
ここで、圧力の加わるi番目の制御点の座標値を(x' i,y' i,z'i)とすると、この制御点に加わる圧力の大きさ(pi)は以下のようにして求める。
pi=[〔(x'i−x')2+(y'i−y')2+(z'i−z')2〕1/2/r]×p
Subsequently, for each control point constituting the three-dimensional model of the range of pressure, a pressure inversely proportional to the distance from the center is applied to each point from the detected pressure level (p). The pressure is determined by estimating the magnitude of each control point [Q3].
Here, assuming that the coordinate value of the i-th control point to which pressure is applied is (x ′ i , y ′ i , z ′ i ), the magnitude (p i ) of pressure applied to this control point is as follows. Ask.
p i = [[(x ′ i −x ′) 2 + (y ′ i −y ′) 2 + (z ′ i −z ′) 2 ] 1/2 / r] × p
図6は、本実施の形態に用いた三次元モデル3と、その一部を拡大し、顔表示のためのポリゴン面を示したものである。ここで、三次元モデル3は、すべて三角形のポリゴンで構成され、ポリゴンを描いている三角形の各点を、そのまま形状変化のための制御点とした。タッチパネル8により得られた圧力を、図のようにして三次元モデル3におよぶ範囲を線形的に定めている。なお、本実証システムでは、一般的なバネモデルを使用した。
まず、頂点iに対する変数及び定数を、
力:fi、 加速度:ai、 速度:vi、 頂点の質量:mi
頂点のz軸方向の位置:zi、 頂点のz軸方向の元の位置:z0i
として定義した。
これらを使用して、頂点iについて運動方程式を立てると、
fi=mi×ai
となるので、加速度ai=fi/miが求まる。
また、この時の頂点iの速度は、
vi=ai×Δt
となるので、さらに、Δt秒後の頂点の位置は、
zi=vi×Δt+z0i
となるので、これをΔtごとに繰り返すことによって、形状変形を実現している。
FIG. 6 shows the three-
First, the variables and constants for vertex i are
Force: f i , acceleration: a i , velocity: v i , mass of apex: m i
Vertex z-axis position: z i , Vertex z-axis original position: z 0i
Defined as
Using these, the equation of motion is established for vertex i,
f i = m i × a i
Therefore, acceleration a i = f i / m i is obtained.
The speed of vertex i at this time is
v i = a i × Δt
Therefore, the position of the vertex after Δt seconds is
z i = v i × Δt + z 0i
Therefore, the shape deformation is realized by repeating this every Δt.
また、ディスプレイ1に表示された三次元モデル3に接触した際、制御点に当たらない
こともある。
この場合は、接触した際の座標からその点を含むポリゴン面を割り出し、その点を制御
点群に一時的に自動で追加し、上記の物理モデルを適用する。
これにより、三次元モデルを構成して制御点が少量でも、変形の際に滑らかに表示でき
、動作が軽くなるメリットがある。
Further, when the
In this case, the polygonal surface including the point is determined from the coordinates at the time of contact, the point is automatically added temporarily to the control point group, and the above physical model is applied.
Thus, even if a three-dimensional model is configured and a small number of control points are provided, it is possible to display smoothly during deformation, and there is an advantage that the operation becomes light.
図7は、三次元モデル3に接触した際、制御点に当たらない場合の制御点自働生成の様
子を示した図である。
図のようにして、指が接触した際の周囲4点の制御点をそれぞれ(x”i,y”i,z
”i)〜(x”i+1,y”i+1,z”i)とおく。なお、ここでは、説明を簡略化するために奥ゆきであるz軸座標はすべて同じとして扱った。
次に、タッチパネル8により検出された座標値(x,y)から、仮想空間にあわせて変
換された座標値(x’,y’,z’)を計算機内部の形状データの配列に、制御点(x”
i,y”i,z”i)〜(x”i+1,y”i+1,z”i)の間にくるように格納し、新しい形状データとして更新する。
FIG. 7 is a diagram showing a state of automatic generation of control points when the control points are not hit when contacting the three-
As shown in the figure, the control points at the four surrounding points when the finger touches are respectively (x ″ i , y ″ i , z).
" I ) to (x" i + 1 , y " i + 1 , z" i ). Here, in order to simplify the explanation, all the z-axis coordinates that are in the back are treated as the same.
Next, the coordinate values (x ′, y ′, z ′) converted in accordance with the virtual space from the coordinate values (x, y) detected by the
i , y ″ i , z ″ i ) to (x ″ i + 1 , y ″ i + 1 , z ″ i ) are stored and updated as new shape data.
以上、本発明に係る物理的接触に応じた形状変形表示装置の実施の形態を説明したが、本発明は、何ら既述の実施の形態に限定されるものではなく、特許請求の範囲に記載した本発明の技術的思想の範囲内において、種々の変形及び変更が可能であることは当然である。 As mentioned above, although the embodiment of the shape deformation display device according to the physical contact according to the present invention has been described, the present invention is not limited to the embodiment described above, and is described in the claims. It goes without saying that various modifications and changes are possible within the scope of the technical idea of the present invention.
1 ディスプレイ
2 三次元モデル表示部
3 三次元モデル
4 三次元モデル変形手段
5 推定手段
6 圧力データ
7 位置座標データ
8 タッチパネル(検出手段)
DESCRIPTION OF
Claims (5)
The three-dimensional model represents a human or animal head, and the shape of the human or animal head displayed on the display changes due to physical contact from the outside. Item 5. A shape deformation display device according to physical contact according to any one of items 1 to 4.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004025792A JP2005216248A (en) | 2004-02-02 | 2004-02-02 | Shape deformation display device in response to physical contact |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004025792A JP2005216248A (en) | 2004-02-02 | 2004-02-02 | Shape deformation display device in response to physical contact |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005216248A true JP2005216248A (en) | 2005-08-11 |
Family
ID=34908067
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004025792A Pending JP2005216248A (en) | 2004-02-02 | 2004-02-02 | Shape deformation display device in response to physical contact |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005216248A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013058136A (en) * | 2011-09-09 | 2013-03-28 | Kddi Corp | User interface device allowing target on screen to be manipulated with pressing force, target manipulation method, and program |
DE102014106960A1 (en) * | 2014-05-16 | 2015-11-19 | Faindu Gmbh | Method for displaying a virtual interaction on at least one screen and input device, system and method for a virtual application by means of a computing unit |
JP2019535064A (en) * | 2016-09-07 | 2019-12-05 | イ, チョル ウLEE, Chul Woo | Multidimensional reaction type image generation apparatus, method and program, and multidimensional reaction type image reproduction method and program |
-
2004
- 2004-02-02 JP JP2004025792A patent/JP2005216248A/en active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013058136A (en) * | 2011-09-09 | 2013-03-28 | Kddi Corp | User interface device allowing target on screen to be manipulated with pressing force, target manipulation method, and program |
DE102014106960A1 (en) * | 2014-05-16 | 2015-11-19 | Faindu Gmbh | Method for displaying a virtual interaction on at least one screen and input device, system and method for a virtual application by means of a computing unit |
JP2019535064A (en) * | 2016-09-07 | 2019-12-05 | イ, チョル ウLEE, Chul Woo | Multidimensional reaction type image generation apparatus, method and program, and multidimensional reaction type image reproduction method and program |
KR20200001574A (en) * | 2016-09-07 | 2020-01-06 | 이철우 | Device, method and program for making multi-dimensional reactive video, and method and program for playing multi-dimensional reactive video |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Burdea | Haptics issues in virtual environments | |
KR100682901B1 (en) | Apparatus and method for providing fingertip haptics of visual information using electro-active polymer in a image displaying device | |
US8350843B2 (en) | Virtual hand: a new 3-D haptic interface and system for virtual environments | |
JP2019050003A (en) | Simulation of tangible user interface interactions and gestures using array of haptic cells | |
US9552673B2 (en) | Grasping virtual objects in augmented reality | |
US8502795B2 (en) | Physics simulation-based interaction for surface computing | |
US10976819B2 (en) | Haptic feedback for non-touch surface interaction | |
JP6062621B2 (en) | Gesture recognition based on physical model | |
KR20140095432A (en) | Friction modulation for three dimensional relief in a haptic device | |
JP2009276996A (en) | Information processing apparatus, and information processing method | |
Borst et al. | Evaluation of a haptic mixed reality system for interactions with a virtual control panel | |
JP2019519856A (en) | Multimodal haptic effect | |
KR20090062461A (en) | Grasping interaction using 6dof haptic device and method thereof | |
JP3722994B2 (en) | Object contact feeling simulation device | |
JP2005216248A (en) | Shape deformation display device in response to physical contact | |
Hollerbach et al. | The convergence of robotics, vision, and computer graphics for user interaction | |
WO2014119382A1 (en) | Tactile force presentation device, information terminal, tactile force presentation method, and computer-readable recording medium | |
KR100670792B1 (en) | Virtual manufacturing system using hand interface and method thereof | |
JP3722993B2 (en) | Hair texture contact simulation device | |
JP2000047563A (en) | Holding action simulation device for object | |
JPH11272157A (en) | Gripping operation simulation device for body | |
JP2000047565A (en) | Touch simulation device for object | |
KR101605740B1 (en) | Method for recognizing personalized gestures of smartphone users and Game thereof | |
Rosenberg et al. | Virtual hand representations to support natural interaction in immersive environments | |
JP2021167864A (en) | Learning data generation device and simulator |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070131 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090414 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090519 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20091110 |