JP2005092675A - Robot - Google Patents
Robot Download PDFInfo
- Publication number
- JP2005092675A JP2005092675A JP2003327382A JP2003327382A JP2005092675A JP 2005092675 A JP2005092675 A JP 2005092675A JP 2003327382 A JP2003327382 A JP 2003327382A JP 2003327382 A JP2003327382 A JP 2003327382A JP 2005092675 A JP2005092675 A JP 2005092675A
- Authority
- JP
- Japan
- Prior art keywords
- display
- wind
- data
- robot
- air volume
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Toys (AREA)
- Measuring Fluid Pressure (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
本発明は、頭部の表情、特に髪の毛の動きが自然に見えるようにしたロボットに関する
ものである。
The present invention relates to a robot in which facial expressions, particularly hair movement, can be seen naturally.
人間や動物の形をしたロボットを実現する上で、その頭部は顔や髪の毛があり、人間が
見たときに違和感のないようなものである必要性がある。
In order to realize a human- or animal-shaped robot, its head has a face and hair, and it is necessary that the human head does not feel uncomfortable.
そこで、特許文献1の「コミュニケーションロボット」には、電磁モータによって機械
的にゴム皮膜を駆動し、顔の表情を作り出す技術が開示されている。
しかし、機械的に顔の表情を実現する場合、構造が複雑となり、コストがかかることや
故障が起きやすいなどの問題点がある。
Therefore, the “communication robot” of
However, when a facial expression is mechanically realized, there are problems such as a complicated structure, high cost, and failure.
一方、電子的な表示装置により顔の表情を実現する試みも成されている。
例えば、特許文献2の「表情を有する知的ロボット」では、複数用意された表情のパタ
ーンを電子的な表示装置に描画することにより、ロボットの顔を実現している。
しかし、この方法の場合、上記した機械式の場合と比較して周辺の環境、例えば光、風
などに左右されずに顔が表現されてしまい、違和感のあるものとなる。
On the other hand, attempts have been made to realize facial expressions using an electronic display device.
For example, in “Intelligent robot having facial expression” of
However, in the case of this method, the face is expressed without being influenced by the surrounding environment, for example, light, wind, etc., as compared with the case of the mechanical type described above, and it becomes uncomfortable.
このような課題を解決するため、特許文献3の「ロボット」では、電子的なディスプレ
イと周囲の光或いは風を検出する手段を有して、周囲の状況に連動して違和感なく顔の表
情が変化するロボットを実現した技術が開示されている。
In order to solve such a problem, the “robot” of Patent Document 3 has an electronic display and a means for detecting ambient light or wind, so that facial expressions can be expressed without feeling uncomfortable in conjunction with the surrounding situation. A technique for realizing a changing robot is disclosed.
上記特許文献3に記載された技術のように、三次元コンピュータグラフィクスの技術と
外部環境要因を検出する手段を利用すれば、環境に連動した人間や動物の顔をリアルに表
現し、ディスプレイ上に表示することが可能である。そして、これをロボットの顔として
利用することは、前述の機械式の場合と比較して、安価に且つ故障がすくなくリアルな顔
を実現できることとなる。
If the 3D computer graphics technology and the means for detecting external environmental factors are used like the technology described in Patent Document 3, the human or animal face linked to the environment is realistically represented on the display. It is possible to display. Then, using this as the face of the robot can realize a realistic face at a low cost and with few failures compared to the case of the mechanical type described above.
しかしながら、特許文献3に記載された技術においては、外部環境要因の一つである風
を検出する手段は有していたが、風の振る舞いを推定する手段を有しておらず、多くの風
の検出手段を設けなければ風の反映が不十分となり、風になびくロボットの髪に不自然差
が感じられものと成っていた。
However, although the technique described in Patent Document 3 has a means for detecting wind that is one of the external environmental factors, it does not have a means for estimating the behavior of the wind, and many wind Without the detection means, the reflection of the wind was insufficient, and the robot's hair fluttering in the wind felt an unnatural difference.
そこで、本発明が解決しようとする課題は、電子的なディスプレイを用いて、より少な
い風の検出手段で安価に且つ違和感なく周囲の風に反応する頭部を有するロボットを提供
することにある。
SUMMARY OF THE INVENTION Accordingly, an object of the present invention is to provide a robot having a head that reacts to the surrounding wind at low cost with less wind detection means and with no sense of incongruity using an electronic display.
前記課題を解決するため、本発明のロボットは、人間や動物の頭部を表現した三次元モ
デルのデータと、前記データをディスプレイに表示する三次元モデル表示手段と、前記デ
ィスプレイの周辺の風を検出する風量検出手段と、前記風量検出手段の検出結果から風の
振る舞いを推定する風量推定手段を有し、前記風量推定手段の推定結果により前記頭部を
表現する三次元モデルのデータ中の風の振る舞いに関するデータを更新し、それを前記三
次元モデル表示手段により前記ディスプレイに表示する構成とした。
In order to solve the above-mentioned problems, a robot according to the present invention includes a three-dimensional model data representing a human or animal head, three-dimensional model display means for displaying the data on a display, and wind around the display. An air volume detecting means for detecting, and an air volume estimating means for estimating the behavior of the wind from the detection result of the air volume detecting means, and the wind in the data of the three-dimensional model representing the head by the estimation result of the air volume estimating means The data related to the behavior is updated and displayed on the display by the three-dimensional model display means.
上記した本発明に係るロボットによれば、人間や動物の頭部を表現した三次元モデルの
データを有し、それをディスプレイに表示する三次元モデル表示手段と、頭部が表示され
たディスプレイの周辺の風の強さ或いは方向などを検出する風量検出手段を有し、前記風
量検出手段の検出結果から風量推定手段において風の振る舞いを推定し、この風の振る舞
いの推定結果により前記三次元モデルのデータ中の風の振る舞いに関するデータ、例えば
風になびく髪の毛の形状データなどを更新し、それを三次元モデル表示手段によりディス
プレイに表示するため、頭部が表示されたディスプレイの周辺に風が吹くと、その風の強
弱、或いは方向に応じてディスプレイ表示されるロボットの頭部が変化することとなり、
人間や動物の頭部をリアルに表示できる。
また、機械式のロボットでは髪の質や色、髪型などを変更することが自由にできないが
、本発明のロボットでは、所謂コンピュータグラフィクスを使用しているから、それらが
自由に変更でき、汎用性が期待できる。
According to the above-described robot according to the present invention, there is provided a three-dimensional model display means for displaying data on a display having three-dimensional model data representing a human or animal head, and a display on which the head is displayed. It has an air volume detecting means for detecting the intensity or direction of the surrounding wind, and the behavior of the wind is estimated by the air volume estimating means from the detection result of the air volume detecting means, and the three-dimensional model is calculated based on the estimation result of the wind behavior. In order to update the data related to the behavior of the wind in the data, such as the shape data of the hair that flutters in the wind, and display it on the display by the 3D model display means, the wind blows around the display on which the head is displayed And the head of the robot displayed on the display will change according to the strength of the wind or the direction,
Realistic display of human and animal heads.
In addition, although it is not possible to freely change the hair quality, color, hairstyle, etc. with a mechanical robot, since the robot of the present invention uses so-called computer graphics, they can be freely changed and are versatile. Can be expected.
以下、上記した本発明に係るロボットの最良の実施の形態を、図面などを示して詳細に
説明する。
Hereinafter, the best embodiment of the robot according to the present invention will be described in detail with reference to the drawings.
図1は本発明に係るロボットのシステム構成の一例を示した図である。この図に示した
ように、本発明に係るロボットは、ロボットの頭部を表示するディスプレイ1、このディ
スプレイ1に三次元モデルを表示する三次元モデル表示部2、この三次元モデル表示部2
に与えるデータとしての風量データ3、材質データ4及び形状データ5などの三次元モデ
ルのデータ、そして、一個或いは複数個からなる風量センサ7、この風量センサ7からの
データを解析して上記三次元モデル表示部2に与えるデータを更新する風量推定部6とか
ら構成されている。
なお、上記三次元モデル表示部2、風量推定部6は計算機内部の処理部であり、上記風
量データ3、材質データ4及び形状データ5などの三次元モデルのデータは計算機内部の
データである。
FIG. 1 is a diagram showing an example of a system configuration of a robot according to the present invention. As shown in this figure, the robot according to the present invention includes a
The three-dimensional model data such as the air volume data 3, the material data 4 and the
The 3D
上記頭部を表示するディスプレイ1の周辺には、図2に示したように、上記風量センサ
7が配置され、ディスプレイ1の周辺の風量や風圧を検出できるようになっている。
上記風量センサ7としては、マイクロフォンなどを使用することができ、特に、微弱な
風を感知できることから圧力型マイクロフォンが好ましい。圧力型マイクロフォンには、
ダイナミック型マイクロフォン,コンデンサマイクロフォン,エレクトレット型コンデン
サマイクロフォンなどがあるが、メンテナンスの容易性、耐久性及びコストなどの観点か
ら、エレクトレット型コンデンサマイクロフォンが特に好ましい。
As shown in FIG. 2, the
As the
There are a dynamic microphone, a condenser microphone, an electret condenser microphone, and the like, and an electret condenser microphone is particularly preferable from the viewpoint of ease of maintenance, durability, and cost.
上記ディスプレイ1上には、髪の毛やリボンなどの風で動くものも対象とした頭部の形
状データ5が表示される。もちろん、風に反応しない形状も同時に表示してよい。風量推
定部6は、上記風量センサ7の検出結果から風の振る舞いを推定し、その推定結果に基づ
き計算機内部の風量データ3、風になびく髪の毛の形状データ5などの三次元モデルのデ
ータ中の風の振る舞いに関するデータを更新する。そして、風量推定部6から得られた頭
部の形状を表現した形状データ5、頭部の形状データ5と対応して色や質感などを示した
材質データ4、そして、風量データ3を使って三次元モデル表示部2によりディスプレイ
1上にロボットの頭部の画像が表示される。
なお、上記ディスプレイ1は、現状で長方形のものしか入手できないが、人間や動物の
頭部の形状に近いディスプレイを使用することもできる。
On the
In addition, although the said
図3は、本発明に係るロボットの動作の一例を説明するためのフローチャートである。
このフローチャートに示したように、まず、解析部分を初期化し、セットする(P1)。
ここでは、図4に示したように、各軸を任意の数に等分し、解析のための格子点を定義す
ることや、形状データ5にそって、顔の有る格子点、無い格子点を区別することや、また
、解析の際に空間上に存在する障害物となるものを定義するといった、解析に関する諸設
定を行う。
FIG. 3 is a flowchart for explaining an example of the operation of the robot according to the present invention.
As shown in this flowchart, first, the analysis part is initialized and set (P1).
Here, as shown in FIG. 4, each axis is equally divided into an arbitrary number to define a grid point for analysis, and along with the
次に、風量センサ7からデータを得る(P2)。そして、風量センサ7のデータを境界
条件として、風の振る舞いを流体解析により求める。即ち、各格子点の速度ベクトルVと
圧力Pを求める(P3)。次に、流体解析の結果から形状データ5などの三次元モデルの
データを更新し(P5)、その更新したデータを基に三次元モデルをディスプレイ1上に
表示する(P5)。
以上の処理を繰り返すことにより、ロボットの頭部の周辺で風が吹くと同時に、ディス
プレイ1内部に表示されたロボットの頭部の形状をその周辺の風に応じて変化させること
ができる。例えば、風が右から当たればロボットの髪が左側になびき、右から風が当たれ
ばロボットの髪が左側になびくということが可能である。
Next, data is obtained from the air volume sensor 7 (P2). Then, using the data of the
By repeating the above processing, the wind blows around the head of the robot, and at the same time, the shape of the head of the robot displayed in the
図4は、頭部の形状データ5の周りに配置された解析のための格子点の一例を示した図
である。この図に示したように、形状データ5が配置されたところも含め、各軸を任意の
数に等分し、格子点を定める。なお、この実施の形態では、通常格子を用いたが、スタッ
ガード格子などを用いても良い。
FIG. 4 is a view showing an example of grid points for analysis arranged around the
図5は、上記図3の解析部分(P3)の動作の一例を詳細に説明するためのフローチャートである。
この実施の形態では、音速よりも風速の方が十分小さいとして非圧縮性と仮定し、以下
の(1)、(2)式よりなるナビエ・ストークス方程式をMAC法により解析する。
)式より、速度Vは時間発展型になっているが、圧力Pは時間発展型になってないことが
明らかである。
したがって、速度Vを時間発展型で求めるためには、各時間ステップで、連続の式であ
る(1)式を満足するように圧力Pを求める必要がある。
FIG. 5 is a flowchart for explaining in detail an example of the operation of the analysis part (P3) of FIG.
In this embodiment, it is assumed that the wind speed is sufficiently smaller than the sound speed and is incompressible, and the Navier-Stokes equations consisting of the following expressions (1) and (2) are analyzed by the MAC method.
From equation (1), it is clear that the velocity V is a time evolution type, but the pressure P is not a time evolution type.
Therefore, in order to obtain the velocity V in the time evolution type, it is necessary to obtain the pressure P so as to satisfy the equation (1) which is a continuous equation at each time step.
上記(1)、(2)式をそれぞれ変形すると、
ここで、レイノルズ数は、物理的には慣性力と粘性力の比を表す無次元のパラメータで
あり、
Here, Reynolds number is a dimensionless parameter that physically represents the ratio of inertial force to viscous force,
図5のフローチャートに示したように、まず、風量センサ7によって得られた風圧より
ディスプレイ面の風圧を線形近似し、これを境界条件とする(Q1)。この圧力を上記の
(4)式に代入することにより、現時刻の速度Vを求める(Q2)。次に、この速度Vを
上記の(3)式に代入することにより、次の時間ステップでの圧力Pを求める(Q3)。
(Q4)部分では、風量センサ7によって風が検出されるか、各格子点の風速V,風圧P
が標準状態に戻るかしなければ、Noを出力し、上記(Q2)に戻り、(Q3)で求めた
風圧Pを使用して次の時間ステップでの速度Vを求める。
このようにして、(Q2)、(Q3)を繰り返すことにより、風の様子を風量センサ7
により得られた圧力を元に推定する。
なお、この実施の形態では、解析部分にMAC法を使用したが、SMAC法やSIMP
LE法を使用しても良い。
As shown in the flowchart of FIG. 5, first, the wind pressure on the display surface is linearly approximated from the wind pressure obtained by the
In the part (Q4), whether the wind is detected by the
If it does not return to the standard state, No is output, the process returns to the above (Q2), and the velocity V at the next time step is obtained using the wind pressure P obtained in (Q3).
In this way, by repeating (Q2) and (Q3), the state of the wind is changed to the
Based on the pressure obtained by
In this embodiment, the MAC method is used for the analysis part, but the SMAC method or SIMP is used.
The LE method may be used.
図6は、髪の表示方法の一例を説明するための図である。この図に示したように、髪の
表示部分は、半球に沿って髪表示のための点群を置き、つむじとなる半球の中心からライ
ンで結んでいる。
流体解析により現実世界と連動した風の場が仮想空間上に求まると、図6及び下記の式
(6)に示すように、ロボットの髪に置かれた無数の点群に、風速が加わり髪が揺らぐ仕
組みになっている。
また、この実施の形態では、髪の表示に点群を用いたが、Bezier曲線やB−sp
line曲線などのスプライン曲線の制御点を風の速度ベクトルで動かしても良い。
FIG. 6 is a diagram for explaining an example of a hair display method. As shown in this figure, in the hair display portion, a point cloud for displaying hair is placed along the hemisphere, and is connected by a line from the center of the hemisphere to be a pinch.
When the wind field linked to the real world is obtained in the virtual space by fluid analysis, as shown in FIG. 6 and the following formula (6), the wind speed is added to the innumerable point cloud placed on the hair of the robot. Is a mechanism that fluctuates.
In this embodiment, a point cloud is used for displaying hair, but a Bezier curve or B-sp is used.
A control point of a spline curve such as a line curve may be moved by a wind velocity vector.
以上、本発明に係るロボットの実施の形態を説明したが、本発明は、何ら既述の実施の
形態に限定されず、特許請求の範囲の記載した本発明の技術的思想の範囲内において、種
々の変形及び変更が可能であることは当然である。
The embodiment of the robot according to the present invention has been described above. However, the present invention is not limited to the embodiment described above, and within the scope of the technical idea of the present invention described in the claims, Naturally, various modifications and changes are possible.
1 ディスプレイ
2 三次元モデル表示部
3 風量データ
4 材質データ
5 形状データ
6 風量推定部
7 風量センサ
DESCRIPTION OF
Claims (3)
示する三次元モデル表示手段と、前記ディスプレイの周辺の風を検出する風量検出手段と
、前記風量検出手段の検出結果から風の振る舞いを推定する風量推定手段を有し、前記風
量推定手段の推定結果により前記頭部を表現する三次元モデルのデータ中の風の振る舞い
に関するデータを更新し、それを前記三次元モデル表示手段により前記ディスプレイに表
示する構成としたことを特徴とするロボット。 Three-dimensional model data representing the head of a human or animal, three-dimensional model display means for displaying the data on a display, air volume detection means for detecting wind around the display, and detection of the air volume detection means It has an air volume estimation means for estimating the wind behavior from the result, updates the data on the wind behavior in the data of the 3D model representing the head by the estimation result of the air volume estimation means, and updates the data on the 3D A robot characterized by being configured to display on the display by a model display means.
ット。 The robot according to claim 1, wherein a microphone is used as the air volume detecting means.
、請求項1又は2に記載のロボット。 3. The robot according to claim 1, wherein fluid analysis is used for estimating wind behavior in the air volume estimating means.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003327382A JP2005092675A (en) | 2003-09-19 | 2003-09-19 | Robot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003327382A JP2005092675A (en) | 2003-09-19 | 2003-09-19 | Robot |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005092675A true JP2005092675A (en) | 2005-04-07 |
Family
ID=34457267
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003327382A Pending JP2005092675A (en) | 2003-09-19 | 2003-09-19 | Robot |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005092675A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100979447B1 (en) | 2010-05-04 | 2010-09-02 | (주)유디에스 | Information display control system of led electric bulletinboard |
JP2018001404A (en) * | 2016-07-07 | 2018-01-11 | 深▲せん▼狗尾草智能科技有限公司Shenzhen Gowild Robotics Co.,Ltd. | Method, system and robot body for synchronizing voice and virtual operation |
-
2003
- 2003-09-19 JP JP2003327382A patent/JP2005092675A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100979447B1 (en) | 2010-05-04 | 2010-09-02 | (주)유디에스 | Information display control system of led electric bulletinboard |
JP2018001404A (en) * | 2016-07-07 | 2018-01-11 | 深▲せん▼狗尾草智能科技有限公司Shenzhen Gowild Robotics Co.,Ltd. | Method, system and robot body for synchronizing voice and virtual operation |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100584706B1 (en) | Image processing system and image processing method | |
US6507353B1 (en) | Influencing virtual actors in an interactive environment | |
KR100891885B1 (en) | Form changing device, object action encoding device, and object action decoding device | |
US20150235423A1 (en) | Augmented reality system | |
CN102135798A (en) | Bionic motion | |
JP4463120B2 (en) | Imitation robot system and its imitation control method | |
US7999812B2 (en) | Locality based morphing between less and more deformed models in a computer graphics system | |
CN102651180A (en) | OSG-based (open scene graph-based) electric-electronic virtual experiment simulation system | |
Gomes et al. | Gelsight simulation for sim2real learning | |
JP6946857B2 (en) | Information processing equipment and programs | |
Bu et al. | General simulation platform for vision based UAV testing | |
JP2000020193A (en) | Method and unit for virtual body control and record medium | |
WO2014119382A1 (en) | Tactile force presentation device, information terminal, tactile force presentation method, and computer-readable recording medium | |
JP2005092675A (en) | Robot | |
JP2019050018A (en) | Method for controlling display, information processor, and program | |
KR102455003B1 (en) | Simulation method and apparatus for reinforcement learning of unmanned systems | |
Tang et al. | Lip-sync in human face animation based on video analysis and spline models | |
CN106104634B (en) | For the method and system from image creation physics 3D topology surface | |
JP6387762B2 (en) | Haptic presentation device, information terminal, haptic presentation method, and program | |
JP2003187267A (en) | Robot | |
JP4467590B2 (en) | Drawing apparatus, drawing method, and drawing program | |
JP4436101B2 (en) | robot | |
KR101634348B1 (en) | Method and system for outputting virtual meteorological phenomena on the three dimensional object | |
JP2005216248A (en) | Shape deformation display device in response to physical contact | |
Weiss et al. | Haptic rendering of tissue cutting with scissors |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060919 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090203 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090303 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20090721 |