JPH08205197A - Human interface device - Google Patents

Human interface device

Info

Publication number
JPH08205197A
JPH08205197A JP7012012A JP1201295A JPH08205197A JP H08205197 A JPH08205197 A JP H08205197A JP 7012012 A JP7012012 A JP 7012012A JP 1201295 A JP1201295 A JP 1201295A JP H08205197 A JPH08205197 A JP H08205197A
Authority
JP
Japan
Prior art keywords
image
face
screen
shape
interface device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7012012A
Other languages
Japanese (ja)
Inventor
Hiroyuki Kuriyama
裕之 栗山
Ryushi Nishimura
龍志 西村
Kenji Ichige
健志 市毛
Norio Yatsuda
則夫 谷津田
Takashi Tsunoda
隆史 角田
Hiroshi Akai
寛 赤井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP7012012A priority Critical patent/JPH08205197A/en
Publication of JPH08205197A publication Critical patent/JPH08205197A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE: To provide the human interface device which is suitable for nonlinguistic transmission showing a feeling with expression. CONSTITUTION: This human interface device has a face-shaped screen 1 having a face shape, an image pickup means 4 which picks up an image of a sender 3, an image processing means 5 which extracts a face image as the part corresponding to the face from the image of the sender 3 picked up by the image pickup means 4, and normalizes the tilt, position, and size of the face image to the shape of the face-shaped screen 1, and a projection means 2 which projects the face image normalized by the image processing means 5 on the face-shaped screen 1. A receiver 6 can see the three-dimensional face image of the sender 3 projected on the face-shaped screen 1.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、表情によって感情を表
す非言語的な伝達に適したヒューマンインタフェース装
置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a human interface device suitable for non-verbal communication that expresses emotions through facial expressions.

【0002】[0002]

【従来の技術】一般に、人間が直接対面している相手に
意思を伝達する際には、言葉によって意思を表す言語的
な伝達、および、表情によって感情を表す非言語的な伝
達を行っており、後者による情報量が多い場合もある。
また、同じ言葉で表される内容も、表情によっては、正
反対の意味を有する場合がある。
2. Description of the Related Art Generally, when a person conveys his / her intention to a person he / she directly faces, he / she carries out linguistic communication expressing his / her intention by words and non-verbal communication expressing his / her feelings by facial expressions. In some cases, the latter has a large amount of information.
Also, the contents expressed by the same word may have opposite meanings depending on the facial expressions.

【0003】一方、人間が直接対面していない相手に意
思を伝達する際には、手紙のように文字による伝達、お
よび、電話にように音声による伝達を行っているが、い
ずれの場合も非言語的な伝達のみである。
On the other hand, when a person conveys his / her intention to a person he / she does not face directly, he / she communicates by letter like a letter and by voice like a telephone. Only verbal communication.

【0004】従来、直接対面していない相手に、言語的
な伝達および非言語できな伝達を行うための技術とし
て、例えば、特開平1−194585号公報に記載され
ているようなテレビ電話が考案されている。テレビ電話
を用いると、音声および映像を同時に送受信することが
できるので、言語的な伝達および非言語的な伝達を行う
ことができ、より円滑なコミュニケーションを行うこと
が可能となる。特に、友人,家族,恋人等の親しい人間
と会話する場合など、会話の内容に情緒的なものが多い
場合には、その効果が顕著なものとなる。
Conventionally, as a technique for performing linguistic communication and non-verbal communication to a person not directly faced, for example, a videophone as disclosed in JP-A-1-194585 is devised. Has been done. When a videophone is used, voice and video can be transmitted and received at the same time, so that linguistic communication and non-verbal communication can be performed, and smoother communication can be performed. In particular, when the conversation contents are emotional, such as when talking to a close person such as a friend, family, or lover, the effect becomes remarkable.

【0005】[0005]

【発明が解決しようとする課題】ところが、テレビ電話
においては、ビデオカメラで撮像された映像が全て相手
側に送信されてしまうので、人間の映像だけではなく、
背景の不必要な情報まで送信されてしま。そこで、相手
に自分の生活を覗かれてしまうこととなるので、プライ
バシーが侵害されるという意識が働く。その対策とし
て、画像処理によって背景を排除することは可能である
が、作為的な行為であるので、なぜ隠すのかという不信
感を相手に抱かせてしまうことになる。
However, in a videophone, since all the images captured by the video camera are transmitted to the other party, not only the images of human beings,
Even unnecessary information about the background will be sent. Therefore, the other person looks into one's life, and there is a sense that privacy is violated. As a countermeasure, it is possible to eliminate the background by image processing, but since it is an artificial act, it causes the other party to feel distrust of why it is hidden.

【0006】また、テレビ電話においては、以下に説明
するような空間的な距離の問題がある。すなわち、通
常、人間が会話する際には、相手との親密度によって自
然と空間的な距離を使い分けているにも係わらず、テレ
ビ電話によって得られる距離は一定で1メートル弱とい
われている。これは、親しい人間と会話する場合には、
やや遠過ぎる距離であり、非言語的な伝達を阻害する因
子となる。
Further, the videophone has a problem of spatial distance as described below. That is, normally, when a person talks, it is said that the distance obtained by the videophone is constant and less than 1 meter, although the spatial distance is naturally used depending on the intimacy with the other party. This is when you talk to a close person,
It is a distance that is a little too far, and it becomes a factor that inhibits non-verbal transmission.

【0007】このように、テレビ電話という技術も、非
言語的な伝達を行うためのインタフェースとしては不十
分である。
As described above, the technique of the videophone is not sufficient as an interface for non-verbal transmission.

【0008】また、テレビ電話のように映像を送受信す
る機器のみならず、人間が相手に一方的に情報を提示す
るような機器についても、言語的な伝達および非言語的
な伝達の両方を行うことができるようにすることが効果
的な場合もある。
[0008] Further, not only a device such as a videophone that transmits and receives images, but also a device that a person unilaterally presents information to the other party performs both linguistic transmission and non-verbal transmission. In some cases it is effective to be able to do so.

【0009】例えば、不特定多数の人に何らかの装置の
操作方法を説明する場合に、言語的な伝達および非言語
的な伝達の両方を行うと、初心者にとって分かりやすい
説明を行うことが可能となる。
For example, when explaining a method of operating a device to an unspecified number of people, if both linguistic communication and non-verbal communication are performed, it will be possible for a beginner to give an easy-to-understand explanation. .

【0010】本発明の目的は、非言語的な伝達に適した
ヒューマンインタフェース装置を提供することにある。
An object of the present invention is to provide a human interface device suitable for non-verbal communication.

【0011】具体的には、人物の顔面に相当する部分の
映像を立体的に映し出すことが可能なヒューマンインタ
フェース装置を実現することにある。
Specifically, it is to realize a human interface device capable of stereoscopically displaying an image of a portion corresponding to the face of a person.

【0012】[0012]

【課題を解決するための手段】上記目的を達成するため
に、本発明のヒューマンインタフェース装置は、顔面の
形状を有する顔面形状スクリーンと、人物を撮像する撮
像手段と、上記撮像手段によって撮像された人物の映像
から顔面に相当する部分である顔面映像を抽出し、該顔
面映像の傾斜,位置,大きさを、上記顔面形状スクリー
ンの形状に対して正規化する画像処理手段と、上記画像
処理手段によって正規化された顔面映像を上記顔面形状
スクリーンに投影する投影手段とを有するようにしてい
る。
In order to achieve the above object, a human interface device of the present invention has a facial shape screen having a facial shape, an image pickup means for picking up a person, and an image picked up by the image pickup means. An image processing means for extracting a face image corresponding to a face from a person image and normalizing the inclination, position and size of the face image with respect to the shape of the face shape screen; and the image processing means. And a projection means for projecting the face image normalized by the above on the face shape screen.

【0013】なお、上記構成に加えて、上記顔面形状ス
クリーンの下部に設けられたマネキンを有するようにす
ることができる。
In addition to the above structure, a mannequin may be provided below the face-shaped screen.

【0014】また、上記構成に加えて、上記撮像手段と
同一ユニットを構成し、上記撮像手段によって人物の映
像が撮像されている間、外部から音声を取り込むマイク
と、上記投影手段と同一ユニットを構成し、上記マイク
によって取り込まれた音声を外部に出力するスピーカと
を有するようにすると、言語的な伝達および非言語的な
伝達の両方を行うことが可能となる。
In addition to the above configuration, the same unit as the above-mentioned image pickup means is formed, and a microphone that takes in sound from the outside while the image pickup means is picking up an image of a person and the same unit as the above-mentioned projection means are provided. When configured to have a speaker that outputs the sound captured by the microphone to the outside, both linguistic transmission and non-verbal transmission can be performed.

【0015】また、本発明のヒューマンインタフェース
装置は、顔面の形状を有する顔面形状スクリーンと、人
物を撮像する撮像手段と、上記撮像手段によって撮像さ
れた人物の映像から顔面に相当する部分である顔面映像
を抽出し、該顔面映像の傾斜,位置,大きさを、上記顔
面形状スクリーンの形状に対して正規化する画像処理手
段と、上記画像処理手段によって正規化された顔面映像
を通信網を介して送信する送信手段と、通信網を介して
送信されてくる顔面映像を受信する受信手段と、上記受
信手段によって受信された顔面映像を上記顔面形状スク
リーンに投影する投影手段とを有するようにしている。
Further, the human interface device of the present invention is a face shape screen having a shape of a face, an image pickup means for picking up an image of a person, and a face corresponding to the face from the image of the person picked up by the image pickup means. Image processing means for extracting an image and normalizing the inclination, position, and size of the face image to the shape of the face shape screen, and the face image normalized by the image processing means via a communication network. A transmitting means for transmitting the facial image, a receiving means for receiving the facial image transmitted through the communication network, and a projecting means for projecting the facial image received by the receiving means onto the facial shape screen. There is.

【0016】なお、上記撮像手段と同一ユニットを構成
し、上記撮像手段によって人物の映像が撮像されている
間、外部から音声を取り込むマイクをさらに有するよう
にし、上記送信手段が、上記画像処理手段によって正規
化された顔面映像と共に、上記マイクによって取り込ま
れた音声を通信網を介して送信するようにし、上記受信
手段が、通信網を介して送信されてくる顔面映像と共
に、通信網を介して送信されてくる音声を受信するよう
にし、上記投影手段と同一ユニットを構成し、上記受信
手段によって受信された音声を外部に出力するスピーカ
をさらに有するようにすると、言語的な伝達および非言
語的な伝達の両方を行うことが可能となる。
It should be noted that the same unit as the above-mentioned image pickup means is constituted, and a microphone for taking in sound from the outside is further provided while the image of the person is picked up by the above-mentioned image pickup means, and the above-mentioned transmission means is the above-mentioned image processing means. The voice captured by the microphone is transmitted through the communication network together with the face image normalized by the above, and the receiving means transmits through the communication network together with the face image transmitted through the communication network. When the transmitted sound is received, the same unit as the projecting unit is configured, and a speaker for outputting the sound received by the receiving unit to the outside is further provided, linguistic transmission and non-verbal communication are performed. It is possible to carry out both of them.

【0017】また、本発明のヒューマンインタフェース
装置は、顔面の形状を有する顔面形状スクリーンと、人
物を撮像する撮像手段と、上記撮像手段によって撮像さ
れた人物の映像から顔面に相当する部分である顔面映像
を抽出し、該顔面映像の傾斜,位置,大きさを、上記顔
面形状スクリーンの形状に対して正規化する画像処理手
段と、上記画像処理手段によって正規化された顔面映像
を記憶媒体に記録する記録手段と、上記記録手段によっ
て記憶媒体に記録されている顔面映像を上記顔面形状ス
クリーンに投影する投影手段とを有するようにしてい
る。
Further, the human interface device of the present invention is a face shape screen having a face shape, an image pickup means for picking up an image of a person, and a face corresponding to the face from the image of the person imaged by the image pickup means. Image processing means for extracting an image and normalizing the inclination, position, and size of the face image to the shape of the face shape screen, and recording the face image normalized by the image processing means in a storage medium. The recording means and the projection means for projecting the facial image recorded in the storage medium by the recording means onto the facial shape screen are provided.

【0018】なお、上記撮像手段と同一ユニットを構成
し、上記撮像手段によって人物の映像が撮像されている
間、外部から音声を取り込むマイクをさらに有するよう
にし、上記記録手段が、上記画像処理手段によって正規
化された顔面映像と共に、上記マイクによって取り込ま
れた音声を記憶媒体に記録するようにし、上記投影手段
と同一ユニットを構成し、上記投影手段によって上記顔
面映像が上記顔面形状スクリーンに投影されている間、
上記記録手段によって記憶媒体に記録されている音声を
外部に出力するスピーカをさらに有するようにすると、
言語的な伝達および非言語的な伝達の両方を行うことが
可能となる。
It should be noted that the same unit as the above-mentioned image pickup means is formed, and a microphone for taking in sound from outside while the image of the person is picked up by the above-mentioned image pickup means is further provided, and the above-mentioned recording means is the above-mentioned image processing means. The sound captured by the microphone is recorded on a storage medium together with the face image normalized by the above, and the same unit as the projecting unit is configured, and the projecting unit projects the face image on the face shape screen. While
When a speaker for outputting the sound recorded in the storage medium by the recording means to the outside is further provided,
It is possible to make both verbal and non-verbal communication.

【0019】いずれの構成のヒューマンインタフェース
装置においても、上記画像処理手段は、上記撮像手段に
よって撮像された人物の映像の色情報に基づいて、該映
像のうちの肌色の部分を、顔面映像として抽出すること
ができる。また、上記画像処理手段は、抽出した顔面映
像から、予め決められた2つ以上の顔面の部分の映像に
相当する位置を抽出し、これらの位置を基準として、該
顔面映像がまっすぐになるように、該顔面映像の傾斜を
正規化し、抽出した2つ以上の位置のうちのいずれか1
つの位置が上記顔面形状スクリーンにおける該位置に相
当する位置と一致するように、該顔面映像の位置を正規
化し、抽出した2つ以上の位置の間の距離から、該顔面
映像の上記顔面形状スクリーンの大きさに対する比率を
求め、求めた比率に基づいて、該顔面映像の大きさが上
記顔面形状スクリーンの大きさと一致するように、該顔
面映像の大きさを正規化することができる。
In any of the human interface devices having any structure, the image processing means extracts a skin color portion of the image as a face image based on the color information of the image of the person imaged by the image capturing means. can do. Further, the image processing means extracts positions corresponding to images of two or more predetermined face portions from the extracted face images, and the face images are straightened based on these positions. , The inclination of the facial image is normalized, and one of the extracted two or more positions
The position of the face image is normalized so that one position corresponds to the position corresponding to the position on the face shape screen, and the face shape screen of the face image is calculated from the distance between the extracted two or more positions. The size of the facial image can be normalized so that the size of the facial image matches the size of the facial shape screen based on the obtained ratio.

【0020】[0020]

【作用】本発明のヒューマンインタフェース装置によれ
ば、人間が直接対面していない相手に意思を伝達する際
に、顔面の映像を立体的に映し出すことにより、表情に
よって感情を表す非言語的な伝達を行うことができる。
According to the human interface device of the present invention, when a human conveys his / her intention to a person he / she is not directly facing, a non-verbal communication that expresses an emotion by a facial expression by displaying a three-dimensional image of the face It can be performed.

【0021】そこで、従来からある非言語的な伝達を行
う装置に、本発明のヒューマンインタフェース装置を適
用すると、より円滑なコミュニケーションを行うことが
可能となる。
Therefore, when the human interface device of the present invention is applied to a conventional device for non-verbal communication, smoother communication can be performed.

【0022】また、顔面形状スクリーンの形状から、従
来のテレビ電話のように背景が映し出されることもない
ので、プライバシーの侵害も生じない。さらに、顔面形
状スクリーンに投影された映像を見る利用者に対して、
相手がすぐ側にいるような臨場感を与えることができ
る。
Further, since the background is not projected due to the shape of the face-shaped screen unlike the conventional videophone, the invasion of privacy does not occur. Furthermore, for users who see the image projected on the facial shape screen,
It is possible to give a sense of realism that the other party is near.

【0023】[0023]

【実施例】以下、本発明の実施例について図面を参照し
て説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0024】図1は第1の実施例のヒューマンインタフ
ェース装置の構成図である。
FIG. 1 is a block diagram of the human interface device of the first embodiment.

【0025】図1において、1は顔面形状スクリーン、
2は投影手段、3は送信者、4は撮像手段、5は画像処
理手段、6は受信者である。
In FIG. 1, 1 is a face-shaped screen,
Reference numeral 2 is a projection means, 3 is a sender, 4 is an imaging means, 5 is an image processing means, and 6 is a receiver.

【0026】撮像手段4によって撮像された送信者3の
映像は、画像処理手段5によって顔面に相当する部分が
抽出され、傾斜,位置,大きさが顔面形状スクリーン1
の形状に対して正規化された後、投影手段2によって顔
面形状スクリーン1に映し出されるので、受信者6は、
顔面形状スクリーン1を通して、送信者3の顔を見るこ
とができる。
The image of the sender 3 picked up by the image pickup means 4 is extracted by the image processing means 5 in a portion corresponding to the face, and the inclination, position and size of the face shape screen 1 are extracted.
After being normalized to the shape of, the image is projected on the facial shape screen 1 by the projection means 2, so that the recipient 6
The face of the sender 3 can be seen through the facial shape screen 1.

【0027】図2は画像処理手段5の画像処理行程を示
す図である。
FIG. 2 is a diagram showing an image processing step of the image processing means 5.

【0028】画像処理手段5は、まず、図2(a)に示
すように、撮像手段4によって送信者3の映像が撮像さ
れると、図2(b)に示すように、撮像された映像から
顔面に相当する部分を抽出し、続いて、図2(c)に示
すように、抽出した顔面の映像から、予め決められた2
つ以上の顔面の部分の映像に相当する位置を抽出し、こ
れらの位置を基準として、顔面の傾斜を補正する。
First, the image processing means 5, when the image of the sender 3 is picked up by the image pickup means 4 as shown in FIG. 2A, the picked-up image is shown as shown in FIG. 2B. Then, a part corresponding to the face is extracted from the image, and subsequently, as shown in FIG. 2C, a predetermined 2 is extracted from the extracted image of the face.
The positions corresponding to the images of three or more face parts are extracted, and the inclination of the face is corrected with reference to these positions.

【0029】なお、ここでは、画像処理手段5が鼻尖部
および下顎端を抽出する場合を例にとって説明する。ま
た、画像処理手段5が顔面の傾斜を補正するのは、例え
ば、送信者3が顔を傾けた場合でも、顔面形状スクリー
ン1に映し出される映像がまっすぐになるようにするた
めである。
Here, a case where the image processing means 5 extracts the tip of the nose and the lower jaw is described as an example. Further, the reason why the image processing means 5 corrects the inclination of the face is that the image displayed on the face shape screen 1 is straight even if the sender 3 tilts the face, for example.

【0030】続いて、図2(d)に示すように、抽出し
た鼻尖部の位置が顔面形状スクリーン1のそれと合うよ
うに、顔面の映像を平行移動させることにより、顔面の
映像と顔面形状スクリーン1の位置とを一致させた後、
鼻尖部と下顎端との間の距離から、顔面の映像の顔面形
状スクリーン1の大きさに対する比率を求め、求めた比
率に基づいて、顔面の映像の大きさが顔面形状スクリー
ン1の大きさと一致するように、顔面の映像を拡大また
は縮小して補正する。
Then, as shown in FIG. 2 (d), the face image and the face shape screen are moved by translating the face image so that the extracted position of the nasal tip matches that of the face shape screen 1. After matching the position of 1,
From the distance between the tip of the nose and the lower jaw, the ratio of the facial image to the size of the facial shape screen 1 is calculated, and the size of the facial image matches the size of the facial shape screen 1 based on the calculated ratio. As described above, the face image is enlarged or reduced to be corrected.

【0031】なお、画像処理手段5は、このとき、必要
に応じて、顔面の映像の色調を変え、顔色が健康そうに
見えるように調整したり、顔の形状を変えて表示するこ
ともできる。
At this time, the image processing means 5 can change the color tone of the image of the face so that the complexion looks healthy and change the shape of the face for display. .

【0032】このようにして補正された顔面の映像が、
図2(e)に示すように、投影手段2によって顔面形状
スクリーン1に映し出されることになる。
The image of the face corrected in this way is
As shown in FIG. 2E, the image is projected on the facial shape screen 1 by the projection means 2.

【0033】次に、画像処理手段5の構成および動作に
ついて、図3を用いて詳しく説明する。
Next, the configuration and operation of the image processing means 5 will be described in detail with reference to FIG.

【0034】図3は画像処理手段5の構成図である。FIG. 3 is a block diagram of the image processing means 5.

【0035】図3において、30は背景処理部、31は
メモリ、32は演算部、33はメモリ制御部、34は制
御部、35は抽出部、36は入力端子、37は出力端子
である。
In FIG. 3, 30 is a background processing unit, 31 is a memory, 32 is a computing unit, 33 is a memory control unit, 34 is a control unit, 35 is an extraction unit, 36 is an input terminal, and 37 is an output terminal.

【0036】画像処理手段5において、撮像手段4によ
って撮像された映像は、入力端子36から背景処理部3
0および抽出部35に入力される。
In the image processing means 5, the image picked up by the image pickup means 4 is transferred from the input terminal 36 to the background processing section 3.
0 and the extraction unit 35.

【0037】抽出部35は、入力端子36から入力され
た映像から顔面に相当する部分を抽出する。
The extraction unit 35 extracts a portion corresponding to the face from the image input from the input terminal 36.

【0038】すなわち、制御部34は、顔面に相当する
部分が肌色であることから、肌色を表す色情報を抽出部
35に出力し、抽出部35は、入力端子36から入力さ
れた映像の色情報に基づいて、該映像のうちの肌色の部
分を、顔面に相当する部分であるとみなして抽出する。
That is, since the portion corresponding to the face is a skin color, the control unit 34 outputs color information representing the skin color to the extraction unit 35, and the extraction unit 35 outputs the color of the image input from the input terminal 36. Based on the information, the flesh-colored portion of the image is regarded as the portion corresponding to the face and extracted.

【0039】また、抽出部35は、抽出した顔面の映像
についてエッジを検出することにより、鼻尖部および下
顎端を抽出し、抽出した鼻尖部および下顎端の位置を制
御部34に出力する。なお、このように、映像から特定
の物体を抽出する方法に関しては、例えば、特願平2−
325643号公報や特願平5−011732号公報に
記載されている。
The extraction unit 35 also detects the edges of the nose and lower jaw by detecting edges in the extracted image of the face, and outputs the positions of the extracted nose and lower jaw to the control unit 34. In addition, as for the method of extracting a specific object from a video image as described above, for example, Japanese Patent Application No. 2-
It is described in Japanese Patent No. 325643 and Japanese Patent Application No. 5-011732.

【0040】さらに、抽出部35は、抽出した顔面の映
像を表す2値信号を背景処理部30に出力する。
Further, the extraction unit 35 outputs a binary signal representing the extracted image of the face to the background processing unit 30.

【0041】背景処理部30は、抽出部35から出力さ
れた2値信号に基づいて、入力端子36から入力された
映像のうち、顔面に相当する部分については、該映像を
そのまま出力し、それ以外の部分については、該映像を
出力しないかまたは黒を表す信号を出力することによっ
て、背景を消去し、顔面の映像のみを出力する。
On the basis of the binary signal output from the extraction section 35, the background processing section 30 outputs the video as it is for the portion corresponding to the face of the video input from the input terminal 36. For the other parts, the background is erased by not outputting the image or outputting a signal representing black, and only the image of the face is output.

【0042】このようにして背景処理部30から出力さ
れた顔面の映像は、メモリ31に蓄積される。なお、メ
モリ31は、1フレーム分の映像を蓄積可能なフレーム
メモリである。
The image of the face output from the background processing unit 30 in this manner is stored in the memory 31. The memory 31 is a frame memory that can store one frame of video.

【0043】メモリ31に蓄積された顔面の映像は、メ
モリ制御部33によって読み出され、演算部32によっ
て、顔面の傾斜が補正され、また、位置および大きさが
補正された後、出力端子37から出力される。
The image of the face stored in the memory 31 is read by the memory control unit 33, the inclination of the face is corrected by the calculation unit 32, and the position and size are corrected, and then the output terminal 37. Is output from.

【0044】すなわち、制御部34は、鼻尖部および下
顎端の位置を演算部32に出力し、演算部32は、制御
部34から出力された鼻尖部および下顎端の位置を基準
として、顔面の傾斜を補正する。また、演算部32は、
制御部34から出力された鼻尖部の位置が顔面形状スク
リーン1のそれと合うように、顔面の映像を平行移動さ
せることにより、顔面の映像と顔面形状スクリーン1の
位置とを一致させた後、鼻尖部と下顎端との間の距離か
ら、顔面の映像の顔面形状スクリーン1の大きさに対す
る比率を求め、求めた比率に基づいて、顔面の映像の大
きさが顔面形状スクリーン1の大きさと一致するよう
に、顔面の映像を拡大または縮小して補正する。
That is, the control unit 34 outputs the positions of the tip of the nose and the lower jaw to the calculation unit 32, and the calculation unit 32 uses the positions of the tip of the nose and the lower jaw output from the control unit 34 as a reference. Correct tilt. Further, the calculation unit 32
The image of the face is moved in parallel so that the position of the tip of the nose output from the control unit 34 matches the position of the screen of the shape of the face 1 to match the image of the face with the position of the screen of the shape of the face 1 and then the tip of the nose. The ratio of the facial image to the size of the facial shape screen 1 is calculated from the distance between the part and the lower jaw end, and the size of the facial image matches the size of the facial shape screen 1 based on the calculated ratio. As described above, the face image is enlarged or reduced to be corrected.

【0045】なお、これらの補正は、傾きや大きさが固
定された顔面形状スクリーン1に対して、投影される映
像の傾きや大きさを一致させるために行われるものであ
り、アフィン変換によって実現される。アフィン変換に
ついては、例えば、昭和63年5月,昭晃堂発行の「工
業用画像処理」の49ページに記載されている。
Note that these corrections are performed in order to match the inclination and size of the projected image on the facial shape screen 1 whose inclination and size are fixed, and are realized by affine transformation. To be done. The affine transformation is described, for example, on page 49 of "Industrial Image Processing" published by Shokodo in May, 1988.

【0046】さて、次に、顔面形状スクリーン1および
投影手段2の具体的な構成例について、図4〜図7を用
いて説明する。
Next, a concrete configuration example of the face shape screen 1 and the projection means 2 will be described with reference to FIGS.

【0047】図4は、白色等の明色な不透明な材料から
なる頭部像である顔面形状スクリーン1に前方から投影
する投影手段2として、プロジェクタ201を用いた例
を示している。
FIG. 4 shows an example in which a projector 201 is used as the projection means 2 for projecting from the front onto the face-shaped screen 1 which is a head image made of a light-colored opaque material such as white.

【0048】この場合は、顔面形状スクリーン101と
して、マネキンや石膏像の頭部を用いることが可能とな
るが、前方より投影することから考えると、受信者6か
ら顔面形状スクリーン101が見えるように、顔面形状
スクリーン101とプロジェクタ201との間の距離を
離さなければならない。また、顔面形状スクリーン10
1とプロジェクタ201との間が光路であることから、
受信者6,他の人物,他の物体が該光路を遮らないよう
にするための配慮が必要となる。
In this case, a mannequin or a head of a plaster image can be used as the facial shape screen 101. However, considering the projection from the front, the recipient 6 can see the facial shape screen 101. The distance between the facial shape screen 101 and the projector 201 must be increased. Also, the facial shape screen 10
Since there is an optical path between 1 and the projector 201,
Care must be taken to prevent the recipient 6, another person, and another object from blocking the optical path.

【0049】図5は、投影手段2としてプロジェクタ2
01を用い、顔面形状スクリーン1として、半透明の材
料によって作製された、頭部の前半分の形状をした顔面
形状スクリーン102を用いた例を示している。
FIG. 5 shows the projector 2 as the projection means 2.
No. 01 is used as the facial shape screen 1, and an example of using the facial shape screen 102 made of a semitransparent material and having the shape of the front half of the head is shown.

【0050】この場合は、必要に応じて、プロジェクタ
201と顔面形状スクリーン102との間に鏡を配置
し、光軸を曲げることも可能である。また、顔面形状ス
クリーン102は、黒色等の暗色のものが好ましい。
In this case, a mirror may be arranged between the projector 201 and the face-shaped screen 102 to bend the optical axis, if necessary. Further, the facial shape screen 102 is preferably a dark color such as black.

【0051】また、顔面形状スクリーン102の代わり
に、透明な板状のものを、後方から顔面形状にくり抜い
たような形状の顔面形状スクリーン103であってもよ
い。この場合は、顔面形状スクリーン103の後面の顔
面形状が半透明となるようにする必要がある。
Further, instead of the face-shaped screen 102, a face-shaped screen 103 in which a transparent plate-shaped member is hollowed out into the face shape from the rear side may be used. In this case, it is necessary to make the facial shape on the rear surface of the facial shape screen 103 semitransparent.

【0052】図5に示した例では、後方から投影するの
で、受信者6が光路を遮ることがなくなり、プロジェク
タ201を顔面形状スクリーン102,103の近くに
配置して、1つの筐体に納めることができるが、顔面形
状スクリーン102,103が頭部の前半分の形状にし
かできないという欠点がある。
In the example shown in FIG. 5, since the image is projected from the rear side, the receiver 6 does not block the optical path, and the projector 201 is arranged near the face-shaped screens 102 and 103 and is housed in one housing. However, there is a drawback in that the facial shape screens 102 and 103 can have only the shape of the front half of the head.

【0053】図6は、投影手段2としてプロジェクタ2
01を用い、顔面形状スクリーン1として、中が空洞で
ある頭部像の顔面形状スクリーン104を用いた例を示
している。
FIG. 6 shows the projector 2 as the projection means 2.
No. 01 is used as the facial shape screen 1, and the facial shape screen 104 having a hollow head image is used as the facial shape screen 1.

【0054】この例では、プロジェクタ201は、顔面
形状スクリーン104の下方から投影し、顔面形状スク
リーン104内に配置された鏡105A,105Bによ
って、顔面形状スクリーン104の前面に投影するよう
にしている。この場合は、鏡105Aを非平面にするこ
とによって、顔面形状スクリーン104のより広い領域
に投影することが可能となるが、予め、画像処理によっ
て、投影された映像が正常に映し出されるように補正し
ておく必要がある。
In this example, the projector 201 projects from below the face-shaped screen 104, and the mirrors 105A and 105B arranged in the face-shaped screen 104 project the light onto the front face of the face-shaped screen 104. In this case, by making the mirror 105A non-planar, it is possible to project on a wider area of the facial shape screen 104, but it is corrected beforehand by image processing so that the projected image is normally projected. You need to do it.

【0055】図6に示した例では、顔面形状スクリーン
104を頭部全体の形状にすることができ、かつ、プロ
ジェクタ201を顔面形状スクリーン104の近くに配
置して、1つの筐体に納めることが可能となる。
In the example shown in FIG. 6, the face-shaped screen 104 can have the shape of the entire head, and the projector 201 can be placed near the face-shaped screen 104 and housed in one housing. Is possible.

【0056】図7は、投影手段2として、液晶やブラウ
ン管等を備えた表示装置202を用いた例を示してい
る。
FIG. 7 shows an example in which a display device 202 provided with a liquid crystal, a cathode ray tube or the like is used as the projection means 2.

【0057】この場合は、表示装置202の画面に対し
て垂直に積層された光ファイバで構成された、前面が顔
面形状をした顔面形状スクリーン106を、表示装置2
02の画面前方に配置することによって、立体映像を得
ることができる。このとき、通常、人間の顔が縦長であ
ることにより、表示装置202の画面を縦長にして用い
れば、表示画面202の画面領域を効率よく使用するこ
とができるので、解像度が増すことになる。また、表示
装置202の画面を顔面形状にすることによっても、同
様に、立体映像を得ることができる。
In this case, the face-shaped screen 106 having a face-shaped front surface, which is composed of optical fibers laminated vertically to the screen of the display device 202, is used as the display device 2.
A stereoscopic image can be obtained by arranging it in front of the screen of 02. At this time, since the human face is normally long, if the screen of the display device 202 is used vertically, the screen area of the display screen 202 can be efficiently used, and the resolution is increased. Also, by making the screen of the display device 202 a facial shape, a stereoscopic image can be similarly obtained.

【0058】図7に示した例では、表示装置202を顔
面形状スクリーン106に密着させ、さらなる小型化を
図ることが可能となるが、顔面形状スクリーン106が
頭部の前半分の形状にしかできないという欠点がある。
In the example shown in FIG. 7, the display device 202 can be brought into close contact with the face-shaped screen 106 to achieve further miniaturization, but the face-shaped screen 106 can be formed only in the shape of the front half of the head. There is a drawback that.

【0059】なお、上述したいかなる例においても、顔
面形状スクリーン1は、顔面の造形を細かく再現する必
要はなく、目,口等のよく動く部分は省略し、平面にし
た方が映像の再現性がよい。これは、例えば、閉じた口
の形をした顔面形状スクリーン1に、口を閉じた送信者
3の映像を投影すると、自然に見えるが、口を開いた送
信者3の映像を投影すると、不自然に見えてしまうから
である。
In any of the above-mentioned examples, the face shape screen 1 does not need to reproduce the face modeling in detail, and it is better to omit the well-moving parts such as eyes and mouth and to make the surface flat to reproduce the image. Is good. This looks natural when the image of the sender 3 with the mouth closed is projected on the face-shaped screen 1 having the shape of a closed mouth, but when the image of the sender 3 with the mouth opened is projected, the image looks unnatural. Because it looks natural.

【0060】また、顔面形状スクリーン1の大きさがあ
まりに大きいと、受信者6が圧迫感を受けるので、実寸
大または実寸よりも小さい方が好ましい。
If the size of the face-shaped screen 1 is too large, the receiver 6 will feel a sense of pressure. Therefore, it is preferable that the size is smaller than the actual size.

【0061】さらに、後述するように、本実施例のヒュ
ーマンインタフェース装置を音声を伝達する際の付加手
段として応用する場合は、音声信号を発生するスピーカ
を顔面形状スクリーン1の近くに配置すると、臨場感が
増す。
Further, as will be described later, when the human interface device of this embodiment is applied as an additional means for transmitting a voice, if a speaker for generating a voice signal is arranged near the face-shaped screen 1, it will be realistic. The feeling increases.

【0062】また、撮像手段4は、ビデオカメラ等によ
って実現することができ、画像処理手段5は、マイクロ
プロセッサ等によって実現することができる。さらに、
撮像手段4と画像処理手段5との間の経路、または、画
像処理手段5と投影手段2との間の経路は、単なるケー
ブルによって実現してもよいが、後述するように、通信
手段を介在させることも可能である。
The image pickup means 4 can be realized by a video camera or the like, and the image processing means 5 can be realized by a microprocessor or the like. further,
The path between the image pickup means 4 and the image processing means 5 or the path between the image processing means 5 and the projection means 2 may be realized by a simple cable, but as will be described later, a communication means is interposed. It is also possible to let.

【0063】上述したように、本実施例のヒューマンイ
ンタフェース装置によれば、受信者6は、顔面形状スク
リーン1に映し出された、送信者3の顔面の立体的な映
像を見ることができるので、送信者3から受信者6への
非言語的な伝達を効果的に行うことができる。
As described above, according to the human interface device of the present embodiment, the receiver 6 can see the three-dimensional image of the face of the sender 3 displayed on the face shape screen 1. Non-verbal communication from the sender 3 to the receiver 6 can be effectively performed.

【0064】次に、本実施例のヒューマンインタフェー
ス装置をインタホンに応用した例について、図8を用い
て説明する。
Next, an example in which the human interface device of this embodiment is applied to an intercom will be described with reference to FIG.

【0065】これは、インタホン107のモニタの代わ
りに、顔面形状スクリーン1を設けた例である。
This is an example in which the face-shaped screen 1 is provided instead of the monitor of the intercom 107.

【0066】応対者301は、客601がインタホン1
07によって呼び出しを行ったときに、撮像手段4(こ
こでは、ビデオカメラ401)に向かって応対すると、
応対者301の顔面の映像が、インタホン107に設け
られた顔面形状スクリーン1に映し出され、この状態
で、応対者301および客601は、互いに会話を行う
ことができる。
In the respondent 301, the customer 601 is the intercom 1
When a call is made by 07, when the user responds to the image pickup means 4 (here, the video camera 401),
An image of the face of the person 301 is displayed on the face-shaped screen 1 provided on the intercom 107, and in this state, the person 301 and the customer 601 can talk with each other.

【0067】これにより、例えば、オフィスの受付係,
デパートの案内係,ドライブスルーの受注係等の応対者
301が、持ち場に常駐する必要がなくなり、呼び出さ
れたときにだけ、客601に笑顔で応対すれば済むよう
になる。また、客601は、応対者301が行う非言語
的な伝達によって、言語的な伝達による音声を聞き間違
えることが少なくなる。
Thus, for example, an office receptionist,
It is not necessary for the respondents 301, such as a department store guide and a drive-through order clerk, to be stationed in the place, and only when called, the customer 601 can smile and respond. In addition, the customer 601 is less likely to make a mistake in listening to the voice due to the linguistic transmission due to the non-verbal transmission performed by the respondent 301.

【0068】次に、本実施例のヒューマンインタフェー
ス装置を服飾マネキンに応用した例について、図9を用
いて説明する。
Next, an example in which the human interface device of this embodiment is applied to a clothing mannequin will be described with reference to FIG.

【0069】これは、服飾マネキン108の頭部に、顔
面形状スクリーン1を設けた例であり、店頭に置かれた
服飾マネキン108の近くに撮像手段4(ここでは、ビ
デオカメラ402)を配置し、ビデオカメラ402によ
って撮像された客302の顔面の映像を顔面形状スクリ
ーン1に映し出すようにしている。
This is an example in which the face-shaped screen 1 is provided on the head of the clothing mannequin 108, and the image pickup means 4 (here, the video camera 402) is arranged near the clothing mannequin 108 placed in the store. An image of the face of the customer 302 captured by the video camera 402 is displayed on the face shape screen 1.

【0070】これにより、客302は、服飾マネキン1
08が着ている衣服を自身が着たときのイメージを目視
することができるので、購入を検討することができる。
As a result, the customer 302 receives the clothing mannequin 1
Since it is possible to visually check the image when the user wears the clothes worn by 08, it is possible to consider purchasing.

【0071】以下、画像処理手段5と投影手段2との間
の経路に通信手段を介在させたヒューマンインタフェー
ス装置の例を、第2の実施例として説明する。
An example of a human interface device in which a communication means is interposed in the path between the image processing means 5 and the projection means 2 will be described below as a second embodiment.

【0072】図10は第2の実施例のヒューマンインタ
フェース装置の構成図である。
FIG. 10 is a block diagram of the human interface device of the second embodiment.

【0073】図10において、1A,1Bは顔面形状ス
クリーン、2A,2Bは投影手段、3A,3Bは利用
者、4A,4Bは撮像手段、5A,5Bは画像処理手
段、7A,7Bは通信手段である。
In FIG. 10, 1A and 1B are face shape screens, 2A and 2B are projection means, 3A and 3B are users, 4A and 4B are image pickup means, 5A and 5B are image processing means, and 7A and 7B are communication means. Is.

【0074】画像処理手段5A,5Bの構成および動
作、並びに、顔面形状スクリーン1A,1Bおよび投影
手段2A,2Bの具体的な構成例は、上記第1の実施例
と同様である。
The configurations and operations of the image processing means 5A and 5B, and the specific configuration examples of the facial shape screens 1A and 1B and the projection means 2A and 2B are the same as those in the first embodiment.

【0075】撮像手段4Aによって撮像された利用者3
Aの映像は、画像処理手段5Aによって顔面の映像が抽
出され、傾斜,位置,大きさが顔面形状スクリーン1B
の形状に対して正規化された後、通信手段7Aによって
電話回線等を介して送信される。そして、通信手段7B
によって受信され、投影手段2Bによって顔面形状スク
リーン1Bに映し出されるので、利用者3Bは、顔面形
状スクリーン1Bを通して、利用者3Aの顔を見ること
ができる。
User 3 imaged by imaging means 4A
As for the image A, the image of the face is extracted by the image processing means 5A, and the inclination, position and size are the face shape screen 1B.
After being normalized to the shape of, the communication means 7A transmits the data via a telephone line or the like. And the communication means 7B
Is received by the projection means 2B and projected on the face shape screen 1B by the projection means 2B, so that the user 3B can see the face of the user 3A through the face shape screen 1B.

【0076】一方、撮像手段4Bによって撮像された利
用者3Bの映像は、画像処理手段5Bによって顔面の映
像が抽出され、傾斜,位置,大きさが顔面形状スクリー
ン1Aの形状に対して正規化された後、通信手段7Bに
よって電話回線等を介して送信される。そして、通信手
段7Aによって受信され、投影手段2Aによって顔面形
状スクリーン1Aに映し出されるので、利用者3Aは、
顔面形状スクリーン1Aを通して、利用者3Bの顔を見
ることができる。
On the other hand, from the image of the user 3B imaged by the image pickup means 4B, the image of the face is extracted by the image processing means 5B, and the inclination, position and size are normalized with respect to the shape of the face shape screen 1A. Then, the data is transmitted by the communication means 7B via a telephone line or the like. Then, it is received by the communication means 7A and is projected on the facial shape screen 1A by the projection means 2A, so that the user 3A
The face of the user 3B can be seen through the face shape screen 1A.

【0077】次に、本実施例のヒューマンインタフェー
ス装置をテレビ電話に応用した例について、図11を用
いて説明する。
Next, an example in which the human interface device of this embodiment is applied to a videophone will be described with reference to FIG.

【0078】図11(a)に示した例は、テレビ電話1
09のディスプレイの代わりに、顔面形状スクリーン1
を設けた例であり、この場合、撮像手段4は、テレビ電
話109の撮像手段(ここでは、ビデオカメラ403)
を用いるようにする。
The example shown in FIG. 11A is a videophone 1.
Facial shape screen 1 instead of 09 display
In this case, the image pickup means 4 is the image pickup means of the videophone 109 (here, the video camera 403).
To use.

【0079】また、図11(b)に示すように、図6を
用いて説明した顔面形状スクリーン106を、その積層
ファイバがテレビ電話109のディスプレイ(ここで
は、液晶ディスプレイ404)に対して垂直になるよう
に、液晶ディスプレイ404の前方に配置するようにす
れば、従来からあるテレビ電話に本実施例のヒューマン
インタフェース装置を応用することが可能である。
Further, as shown in FIG. 11B, the laminated fiber of the face-shaped screen 106 described with reference to FIG. 6 is perpendicular to the display (here, the liquid crystal display 404) of the videophone 109. By arranging the human interface device in front of the liquid crystal display 404, the human interface device according to the present embodiment can be applied to a conventional videophone.

【0080】これにより、例えば、単身赴任者とその家
族,遠距離恋愛中の恋人等の親しい間柄にある通話者
は、より相手を近くに感じながら通話することができ
る。
As a result, for example, a person who has a close relationship, such as a single employee, his / her family, and a lover who has a long-distance relationship, can talk while feeling the other party closer.

【0081】次に、本実施例のヒューマンインタフェー
ス装置をテレビ会議電話に応用した例について、図12
を用いて説明する。
Next, FIG. 12 shows an example in which the human interface device of this embodiment is applied to a video conference call.
Will be explained.

【0082】図12に示した例は、テレビ会議電話11
0のディスプレイの代わりに、顔面形状スクリーン1を
複数設けた例であり、この場合、撮像手段4は、テレビ
会議電話110の撮像手段(ここでは、ビデオカメラ4
05)を用いるようにする。これにより、通話者は、他
の通話者の迫力のある顔面の映像を見ながら会議を行う
こととなるので、白熱した議論を交わすことができる。
In the example shown in FIG. 12, the video conference telephone 11 is used.
This is an example in which a plurality of face-shaped screens 1 are provided instead of the 0 display. In this case, the image pickup means 4 is the image pickup means of the video conference telephone 110 (here, the video camera 4).
05) is used. As a result, the caller can hold a meeting while watching the powerful facial image of the other caller, and can have heated discussions.

【0083】ところで、テレビ電話やテレビ会議電話に
おいては、通常、ディスプレイとビデオカメラとが隣接
して配置されていることから、ディスプレイと通話者と
の間の光軸、および、ビデオカメラと通話者との間の光
軸が一致しないので、通話者は、ディスプレイを通して
互いに正面を向き合うことができない。このように、正
面像が得られないと、双方の通話者の視線が一致せず
に、過多の視線交渉が生じ、会話が滞るという問題があ
る。
By the way, in a videophone or a videoconference telephone, since the display and the video camera are usually arranged adjacent to each other, the optical axis between the display and the caller, and the video camera and the caller. The callers cannot face each other through the display because the optical axes between and do not match. As described above, if the front image cannot be obtained, there is a problem that the line-of-sight of both callers do not coincide with each other, resulting in excessive line-of-sight negotiations and a delay in conversation.

【0084】これを解決するためには、ハーフミラー等
によって、両者の光軸を一致させることが考えられる
が、本実施例では、前方から映像を投影する場合には、
図13(a)に示すように、顔面形状スクリーン1の位
置を基本として、顔面形状スクリーン1と投影手段2と
の間の光軸、および、利用者3と撮像手段4との間の光
軸が平行に保たれるように、投影手段2および撮像手段
4を設置すると、容易に顔面形状スクリーン1上で正面
像を得ることができる。これは、顔面形状スクリーン1
の方向を向いた利用者3を斜めから撮像しても、投影す
る際に、同じ角度を持って顔面形状スクリーン1に投影
するので、あたかも正面を向いているかのように補正さ
れることによる。
In order to solve this, it is conceivable to make the optical axes of the two coincide with each other by using a half mirror or the like. However, in the present embodiment, when the image is projected from the front,
As shown in FIG. 13A, based on the position of the facial shape screen 1, the optical axis between the facial shape screen 1 and the projection means 2 and the optical axis between the user 3 and the imaging means 4. If the projection means 2 and the image pickup means 4 are installed so that they are kept parallel to each other, a front image can be easily obtained on the facial shape screen 1. This is a facial shape screen 1
Even if the image of the user 3 facing in the direction is obliquely imaged, the image is projected on the face shape screen 1 at the same angle when the image is projected, so that the user 3 is corrected as if facing the front.

【0085】また、背面から映像を投影する場合には、
図13(b)に示すように、顔面形状スクリーン1の位
置を基本として、顔面形状スクリーン1と利用者3との
間を結ぶ直線に対して利用者3と撮像手段4との間の光
軸がなす角度と、該直線に対して顔面形状スクリーン1
と投影手段2と間の光軸がなる角度とが同じとなるよう
に、該直線を挟んで、投影手段2および撮像手段4を設
置すると、顔面形状スクリーン1上で正面像を得ること
ができる。
When projecting an image from the back,
As shown in FIG. 13B, based on the position of the facial shape screen 1, the optical axis between the user 3 and the imaging means 4 with respect to the straight line connecting the facial shape screen 1 and the user 3 And the face shape screen 1 with respect to the straight line
When the projection means 2 and the image pickup means 4 are installed with the straight line sandwiched so that the angles formed by the optical axes of the projection means 2 and the projection means 2 are the same, a front image can be obtained on the facial shape screen 1. .

【0086】また、図14に示すように、画像処理手段
8が、少なくとも2つの撮像手段4A,4Bによって撮
像された2つの映像について、画像処理手段5と同様の
画像処理を行った後で、さらに、2つの映像のうちのよ
り正面像に近い方を選択するようにしてもよい。
Further, as shown in FIG. 14, after the image processing means 8 performs the same image processing as the image processing means 5 on the two images picked up by at least two image pickup means 4A and 4B, Further, one of the two images closer to the front image may be selected.

【0087】また、図15に示すように、利用者3が取
り付けた角度センサ9によって利用者3が向いている方
向を検出するようにし、検出された方向に基づいて、正
面像が得られるように、移動台上を投影手段4が移動す
るようにしてもよい。
As shown in FIG. 15, the angle sensor 9 attached by the user 3 detects the direction in which the user 3 is facing, and a front image is obtained based on the detected direction. Alternatively, the projection means 4 may move on the moving table.

【0088】以下、画像処理手段5と投影手段2との間
の経路に画像記録手段を介在させたヒューマンインタフ
ェース装置の例を、第3の実施例として説明する。
An example of the human interface device in which the image recording means is interposed in the path between the image processing means 5 and the projection means 2 will be described below as a third embodiment.

【0089】図16は第3の実施例のヒューマンインタ
フェース装置の構成図である。
FIG. 16 is a block diagram of the human interface device of the third embodiment.

【0090】図16において、1は顔面形状スクリー
ン、2は投影手段、3は送信者、4は撮像手段、5は画
像処理手段、6は受信者、10は画像記録手段である。
In FIG. 16, 1 is a facial shape screen, 2 is a projection means, 3 is a sender, 4 is an image pickup means, 5 is an image processing means, 6 is a receiver, and 10 is an image recording means.

【0091】画像処理手段5の構成および動作、並び
に、顔面形状スクリーン1および投影手段2の具体的な
構成例は、上記第1の実施例と同様である。
The configuration and operation of the image processing means 5 and the concrete configuration examples of the face shape screen 1 and the projection means 2 are the same as those in the first embodiment.

【0092】撮像手段4によって撮像された送信者3の
映像は、画像処理手段5によって顔面の映像が抽出さ
れ、傾斜,位置,大きさが顔面形状スクリーン1の形状
に対して正規化された後、画像記録手段10に記録され
る。画像記録手段10に記録された映像は、任意の時点
で、投影手段2によって顔面形状スクリーン1に映し出
されるので、受信者6は、顔面形状スクリーン1を通し
て、いつでも送信者3の顔を見ることができる。
After the image of the face taken from the image of the sender 3 picked up by the image pickup means 4 is extracted by the image processing means 5, its inclination, position and size are normalized with respect to the shape of the facial shape screen 1. Is recorded in the image recording means 10. The image recorded in the image recording means 10 is displayed on the facial shape screen 1 by the projection means 2 at an arbitrary time point, so that the receiver 6 can see the sender 3's face through the facial shape screen 1 at any time. it can.

【0093】次に、本実施例のヒューマンインタフェー
ス装置を電子メモ装置に応用した例について、図17を
用いて説明する。
Next, an example in which the human interface device of this embodiment is applied to an electronic memo device will be described with reference to FIG.

【0094】図17に示した例は、電子メモ装置111
のディスプレイの代わりに、顔面形状スクリーン1を設
けた例であり、この場合、撮像手段4は、電子メモ装置
111の撮像手段(ここでは、ビデオカメラ406)を
用いるようにする。
The example shown in FIG. 17 is an electronic memo device 111.
This is an example in which the facial shape screen 1 is provided instead of the display of No. 1 in this case, and in this case, the image pickup unit 4 uses the image pickup unit (here, the video camera 406) of the electronic memo device 111.

【0095】利用者が記録を表す操作ボタン114を操
作すると、ビデオカメラ406は、利用者の映像を撮像
する。このとき、同時に、マイク112は、利用者がし
ゃべった内容を入力する。ビデオカメラ406が撮像し
た映像は、顔面の映像が抽出され、傾斜,位置,大きさ
が顔面形状スクリーン1の形状に対して正規化された
後、マイク112が入力した音声と共に、内部の半導体
メモリに記録される。
When the user operates the operation button 114 indicating recording, the video camera 406 captures the image of the user. At this time, the microphone 112 simultaneously inputs the content spoken by the user. A face image is extracted from the image captured by the video camera 406, and its inclination, position, and size are normalized with respect to the shape of the face shape screen 1, and then the internal semiconductor memory is used together with the sound input by the microphone 112. Recorded in.

【0096】また、利用者が再生を表す操作ボタン11
4を操作すると、電子メモ装置111の内部に設けられ
た投影手段2によって、内部の半導体メモリに記録され
ている映像が形状スクリーン1に映し出され、内部の半
導体メモリに記録されている音声がスピーカ113から
出力される。
In addition, the user operates the operation button 11 indicating reproduction.
4 is operated, the image recorded in the internal semiconductor memory is displayed on the shape screen 1 by the projection means 2 provided inside the electronic memo device 111, and the voice recorded in the internal semiconductor memory is output to the speaker. It is output from 113.

【0097】これにより、利用者は、その場にいない相
手に対して、言語的な伝達および非言語的な伝達の両方
によって、用件を伝えることができるので、従来の電子
メモ装置に比べて、用件が正しく伝達されるようにな
る。
As a result, the user can convey the message to the other party who is not present by both linguistic communication and non-verbal communication, so that compared with the conventional electronic memo device. , The message will be transmitted correctly.

【0098】ところで、上述した全ての実施例において
は、撮像手段4によって撮像された映像を顔面形状スク
リーン1に投影するようになっているが、撮像手段4に
よって撮像された映像ではなく、コンピュータによって
生成されたグラフィックデータを顔面形状スクリーン1
に投影するようにしてもよい。
By the way, in all of the above-mentioned embodiments, the image picked up by the image pickup means 4 is projected onto the facial shape screen 1, but it is not the image picked up by the image pickup means 4 but by the computer. The generated graphic data is used for the facial shape screen 1
You may make it project on.

【0099】以下、コンピュータによって生成されたグ
ラフィックデータを顔面形状スクリーン1に投影するヒ
ューマンインタフェース装置の例を、第4の実施例とし
て説明する。
An example of a human interface device for projecting computer-generated graphic data on the facial shape screen 1 will be described below as a fourth embodiment.

【0100】図18は第4の実施例のヒューマンインタ
フェース装置の構成図である。
FIG. 18 is a block diagram of the human interface device of the fourth embodiment.

【0101】図18において、1は顔面形状スクリー
ン、2は投影手段、6は利用者、11はコンピュータで
ある。
In FIG. 18, 1 is a face shape screen, 2 is a projection means, 6 is a user, and 11 is a computer.

【0102】顔面形状スクリーン1および投影手段2の
具体的な構成例は、上記第1の実施例と同様である。従
来は、コンピュータ11が生成したグラフィックデータ
は、モニタディスプレイ等の表示装置に表示されて利用
者6に提示するようになっているが、図18において
は、コンピュータ11が生成したグラフィックデータ
(顔面を表すデータである。)を、投影手段2によって
顔面形状スクリーン1に投影するようにしている。
Specific examples of the structures of the facial shape screen 1 and the projection means 2 are the same as those in the first embodiment. Conventionally, the graphic data generated by the computer 11 is displayed on a display device such as a monitor display and presented to the user 6. However, in FIG. The image data is represented by the projection means 2 and is projected onto the facial shape screen 1.

【0103】次に、本実施例のヒューマンインタフェー
ス装置を情報処理端末に応用した例について、図19を
用いて説明する。
Next, an example in which the human interface device of this embodiment is applied to an information processing terminal will be described with reference to FIG.

【0104】図19に示した例は、情報処理端末115
のモニタディスプレイ116に加えて、顔面形状スクリ
ーン1を設けた例である。
The example shown in FIG. 19 is an information processing terminal 115.
This is an example in which the face-shaped screen 1 is provided in addition to the monitor display 116.

【0105】顔面形状スクリーン1に、情報処理端末1
15の操作方法を説明する顔面の映像が映し出されるよ
うにすることにより、利用者は、音声や文字のみによる
説明よりも、説明内容を理解しやすくなると共に、あた
かも説明者が側にいて説明してくれるような安心感を得
ることができる。そこで、このような情報処理端末11
5としては、現金自動預入支払機やゲーム機等の不特定
多数の利用者が利用するものであることが好ましい。
On the face shape screen 1, the information processing terminal 1
By displaying a video image of the face explaining the operation method of No. 15, it becomes easier for the user to understand the content of the explanation than when the explanation is made only by voice or characters, and it is as if the person presenting the explanation is on the side. You can get a sense of security. Therefore, such an information processing terminal 11
It is preferable that 5 is used by an unspecified number of users such as an automatic teller machine and a game machine.

【0106】また、上述した全ての実施例においては、
予め決められた形状の顔面形状スクリーン1に映像が映
し出されるようになっているが、顔面形状スクリーン1
の代わりに、映像に合わせて形状が変化する立体スクリ
ーンを用いるようにしてもよい。
Further, in all the above-mentioned embodiments,
An image is displayed on the face shape screen 1 having a predetermined shape.
Instead of, a stereoscopic screen whose shape changes according to the image may be used.

【0107】以下、立体スクリーンを用いたヒューマン
インタフェース装置の例を、第5の実施例として説明す
る。
An example of a human interface device using a stereoscopic screen will be described below as a fifth embodiment.

【0108】図20は第5の実施例のヒューマンインタ
フェース装置の構成図である。
FIG. 20 is a block diagram of the human interface device of the fifth embodiment.

【0109】図20において、3は送信者、2は投影手
段、4は撮像手段、5は画像処理手段、6は受信者、1
2は立体スクリーン、13は立体情報抽出手段、14は
アクチュエータ制御手段である。
In FIG. 20, 3 is a sender, 2 is a projection means, 4 is an image pickup means, 5 is an image processing means, 6 is a receiver, 1
Reference numeral 2 is a stereoscopic screen, 13 is a stereoscopic information extraction means, and 14 is an actuator control means.

【0110】画像処理手段5の構成および動作は、上記
第1の実施例と同様である。
The structure and operation of the image processing means 5 are the same as those in the first embodiment.

【0111】撮像手段4によって撮像された送信者3の
映像は、画像処理手段5によって顔面に相当する部分が
抽出され、傾斜,位置,大きさが立体スクリーン12の
形状に対して正規化される。
The image of the sender 3 picked up by the image pickup means 4 is extracted by the image processing means 5 in the portion corresponding to the face, and the inclination, position and size are normalized with respect to the shape of the stereoscopic screen 12. .

【0112】このとき、立体情報抽出手段13が、顔面
の映像の陰影等から顔面の各部と撮像手段4との間の距
離である3次元的な情報を算出することにより、顔面の
寸法,形状を抽出し、アクチュエータ制御手段14が、
立体情報抽出手段13によって抽出された顔面の寸法,
形状に合うように、立体スクリーン12の形状を変化さ
せる。
At this time, the three-dimensional information extracting means 13 calculates the three-dimensional information which is the distance between each part of the face and the image pickup means 4 from the shadow of the image of the face, etc. And the actuator control means 14
The size of the face extracted by the three-dimensional information extraction means 13,
The shape of the three-dimensional screen 12 is changed so as to match the shape.

【0113】これにより、画像処理手段5によって傾
斜,位置,大きさが正規化された顔面の映像は、投影手
段2によって立体スクリーン12に映し出されるので、
受信者6は、立体スクリーン12を通して、送信者3の
顔を見ることができる。このように、立体スクリーン1
2を用いると、予め決められた形状の顔面形状スクリー
ン1よりも、さらに、特定の顔に適合しやすくなり、し
かも、顔面以外の形状の映像を映し出すことも可能とな
る。
As a result, the image of the face whose inclination, position and size are normalized by the image processing means 5 is displayed on the three-dimensional screen 12 by the projection means 2,
The recipient 6 can see the sender 3's face through the stereoscopic screen 12. In this way, the 3D screen 1
2 makes it easier to adapt to a specific face than the face shape screen 1 having a predetermined shape, and it is also possible to display an image of a shape other than the face.

【0114】次に、立体スクリーン12の具体的な構成
例について、図21および図22を用いて説明する。
Next, a concrete configuration example of the three-dimensional screen 12 will be described with reference to FIGS. 21 and 22.

【0115】図21は、格子状に組まれたピンアクチュ
エータ1201によって、立体スクリーン12を実現し
た例を示している。
FIG. 21 shows an example in which the three-dimensional screen 12 is realized by the pin actuators 1201 assembled in a grid pattern.

【0116】ピンアクチュエータ1201は、それぞ
れ、ピン1202と、ピン1202を前後に移動するソ
レノイド(またはモータ)1203とからなる。
Each of the pin actuators 1201 comprises a pin 1202 and a solenoid (or motor) 1203 which moves the pin 1202 back and forth.

【0117】そこで、アクチュエータ制御手段14は、
ソレノイド1203を制御して、個々のピン1202を
前後に移動させるようにすることにより、3次元的な形
状を作り出すことができるので、ピンアクチュエータ1
201上に、前方から映像を投影すれば、立体映像を得
ることができる。
Therefore, the actuator control means 14
By controlling the solenoid 1203 to move the individual pins 1202 back and forth, a three-dimensional shape can be created.
If an image is projected from the front onto 201, a stereoscopic image can be obtained.

【0118】また、ピンアクチュエータ1201の投影
面に、伸縮性を有する膜1204を貼布することによ
り、立体スクリーン12の表面を滑らかにすることがで
きる。
Further, by sticking the stretchable film 1204 on the projection surface of the pin actuator 1201, the surface of the three-dimensional screen 12 can be made smooth.

【0119】図22も、格子状に組まれたピンアクチュ
エータ1201によって、立体スクリーン12を実現し
た例を示しているが、ここでは、ピンアクチュエータ1
201が、それぞれ、光ファイバ等の透光性を有する材
料からなるピン1205と、ピン1205を前後に移動
するソレノイド(またはモータ)1203とからなるよ
うになっている。
FIG. 22 also shows an example in which the three-dimensional screen 12 is realized by the pin actuators 1201 assembled in a lattice pattern. Here, the pin actuator 1 is used.
Each of 201 is composed of a pin 1205 made of a light-transmitting material such as an optical fiber, and a solenoid (or motor) 1203 for moving the pin 1205 back and forth.

【0120】このように、透光性を有する材料からなる
ピン1205を用いると、ピンアクチュエータ1201
の後方から映像を投影することができるようになる。な
お、個々のピンの先端に発光素子を取り付けても、同様
の効果を得ることができる。
As described above, when the pin 1205 made of a light-transmitting material is used, the pin actuator 1201
You will be able to project images from behind. The same effect can be obtained by attaching the light emitting element to the tip of each pin.

【0121】次に、立体スクリーン12を用いたヒュー
マンインタフェース装置の別の例を、第6の実施例とし
て説明する。
Next, another example of the human interface device using the three-dimensional screen 12 will be described as a sixth embodiment.

【0122】図23は第6の実施例のヒューマンインタ
フェース装置の構成図である。
FIG. 23 is a block diagram of the human interface device of the sixth embodiment.

【0123】図23において、2は投影手段、3は送信
者、4A,4Bは撮像手段、6は受信者、8は画像処理
手段、12は立体スクリーン、14はアクチュエータ制
御手段、15は立体法抽出手段、16は立体映像加工手
段である。
In FIG. 23, 2 is a projection means, 3 is a sender, 4A and 4B are image pickup means, 6 is a receiver, 8 is an image processing means, 12 is a three-dimensional screen, 14 is an actuator control means, and 15 is a three-dimensional method. Extraction means 16 is a stereoscopic image processing means.

【0124】立体情報抽出手段15は、少なくとも2つ
の撮像手段4A,4Bによって撮像された送信者3の2
つの映像の視差を利用して、2つの映像における対応点
の各々の位置および撮像手段4A,4Bの角度から、顔
面の各部の位置と撮像手段4A,4Bとの間の距離であ
る3次元情報を算出することにより、立体的な形状を表
す立体情報を抽出する。また、画像処理手段8は、少な
くとも2つの撮像手段4A,4Bによって撮像された送
信者3の2つの映像を、画像処理手段5と同様の画像処
理を行った後で、さらに画像合成処理を行う。
The three-dimensional information extracting means 15 is provided for the sender 3 imaged by at least two imaging means 4A, 4B.
Using the parallax of one image, the three-dimensional information that is the distance between the position of each part of the face and the imaging unit 4A, 4B from the position of each corresponding point in the two images and the angle of the imaging unit 4A, 4B. By calculating, the three-dimensional information representing the three-dimensional shape is extracted. Further, the image processing means 8 performs the same image processing as the image processing means 5 on the two videos of the sender 3 imaged by the at least two imaging means 4A and 4B, and then further performs the image synthesis processing. .

【0125】なお、立体映像加工手段16は、立体情報
抽出手段15が抽出した立体情報や画像処理手段8が合
成した顔面の映像に加工を施すことができる。
The three-dimensional image processing means 16 can process the three-dimensional information extracted by the three-dimensional information extracting means 15 and the face image combined by the image processing means 8.

【0126】アクチュエータ制御手段14は、立体情報
抽出手段15が抽出した立体情報(または、立体映像加
工手段16によって加工が施された場合は、加工後の立
体情報)に基づいて、立体スクリーン12の形状を変形
させ、投影手段2は、画像処理手段8が合成した顔面の
映像(または、立体映像加工手段16によって加工が施
された場合は、加工後の映像)を立体スクリーン12に
投影する。
The actuator control means 14 of the stereoscopic screen 12 is based on the stereoscopic information extracted by the stereoscopic information extracting means 15 (or the stereoscopic information after processing if processed by the stereoscopic image processing means 16). The shape is deformed, and the projection unit 2 projects the image of the face synthesized by the image processing unit 8 (or the image after processing when processed by the three-dimensional image processing unit 16) onto the three-dimensional screen 12.

【0127】これにより、立体スクリーン12の形状
は、立体映像加工手段16によって立体情報に加工が施
されなかった場合は、送信者3の顔の相似形に変形さ
れ、立体映像加工手段16によって立体情報に加工が施
された場合は、送信者3の顔と異なる形に変形される。
また、立体スクリーン12に投影される顔面の映像は、
立体映像加工手段16によって顔面の映像に加工が施さ
れなかった場合は、送信者3の顔となり、立体映像加工
手段16によって顔面の映像に加工が施された場合は、
送信者3の顔とは色等が異なる顔となる。
As a result, if the stereoscopic image processing means 16 does not process the stereoscopic information, the shape of the stereoscopic screen 12 is transformed into a similar figure of the sender 3's face, and the stereoscopic image processing means 16 creates a stereoscopic image. When the information is processed, it is transformed into a shape different from the face of the sender 3.
In addition, the image of the face projected on the three-dimensional screen 12 is
If the face image is not processed by the stereoscopic image processing unit 16, it becomes the sender 3's face, and if the face image is processed by the stereoscopic image processing unit 16,
The face has a color different from the face of the sender 3.

【0128】そこで、例えば、美容整形手術の検討時
に、本実施例のヒューマンインタフェース装置を用いれ
ば、手術後の顔面の映像を得ることができるので便利で
ある。また、化粧品購入の検討時に、本実施例のヒュー
マンインタフェース装置を用いれば、化粧後の顔面の映
像を得ることができるので便利である。
Therefore, for example, when examining the cosmetic surgery, it is convenient to use the human interface device of the present embodiment because it is possible to obtain a facial image after surgery. Further, when considering the purchase of cosmetics, it is convenient to use the human interface device of the present embodiment because it is possible to obtain an image of the face after makeup.

【0129】さらに、上記第5の実施例および上記第6
の実施例においては、立体スクリーン12に顔面の映像
を投影する例について示しているが、顔面の映像以外の
映像を投影することもできる。
Furthermore, the fifth embodiment and the sixth embodiment
In the embodiment, the example in which the image of the face is projected on the stereoscopic screen 12 is shown, but an image other than the image of the face can be projected.

【0130】以下、顔面の映像以外の映像を立体スクリ
ーン12に投影するヒューマンインタフェース装置の例
を、第7の実施例として説明する。
An example of a human interface device for projecting an image other than the facial image on the stereoscopic screen 12 will be described below as a seventh embodiment.

【0131】図24は第7の実施例のヒューマンインタ
フェース装置の構成図である。
FIG. 24 is a block diagram of the human interface device of the seventh embodiment.

【0132】図24において、2は投影手段、6は利用
者、12は立体スクリーン、14はアクチュエータ制御
手段、17はデータベース、18は立体構成手段であ
る。
In FIG. 24, 2 is a projection means, 6 is a user, 12 is a three-dimensional screen, 14 is an actuator control means, 17 is a database, and 18 is a three-dimensional forming means.

【0133】データベース17には、立体物に関する映
像および立体情報からなる立体物データが格納されてい
る。立体構成手段18は、データベース17に格納され
ている立体物データのうちから、任意の視点から見たと
きの位置を基準とした、予め決められた範囲の立体物デ
ータを抽出し、アクチュエータ制御手段14は、立体構
成手段18が抽出した立体物データのうちの立体情報に
基づいて、立体スクリーン12の形状を変形させ、投影
手段2は、立体構成手段18が抽出した立体物データの
うちの映像を立体スクリーン12に投影する。
The database 17 stores three-dimensional object data composed of images and three-dimensional information about a three-dimensional object. The three-dimensional structure unit 18 extracts, from the three-dimensional object data stored in the database 17, three-dimensional object data in a predetermined range based on the position when viewed from an arbitrary viewpoint, and the actuator control unit. 14 deforms the shape of the stereoscopic screen 12 based on the stereoscopic information in the stereoscopic object data extracted by the stereoscopic composition unit 18, and the projection unit 2 images the stereoscopic object data extracted by the stereoscopic composition unit 18. Is projected on the three-dimensional screen 12.

【0134】次に、本実施例のヒューマンインタフェー
ス装置を立体地形図表示装置に応用した例について、図
25を用いて説明する。
Next, an example in which the human interface device of this embodiment is applied to a stereoscopic topographic map display device will be described with reference to FIG.

【0135】図25に示した例は、立体地形図表示装置
情報処理端末117のモニタディスプレイとして、立体
スクリーン12を設けた例である。
The example shown in FIG. 25 is an example in which the stereoscopic screen 12 is provided as a monitor display of the stereoscopic topographic map display information processing terminal 117.

【0136】例えば、データベース17に立体地形図に
関するデータを格納しておき、災害発生時に、放送局で
災害速報を行う際に、災害地域に相当する部分のデータ
を抽出すれば、災害地域の立体地形図を迅速に立体スク
リーン12に映し出すことができるので、災害現場の状
況を正確に解説することが可能となる。
For example, if data relating to a three-dimensional topographic map is stored in the database 17 and the data of a portion corresponding to a disaster area is extracted when a disaster bulletin is issued by a broadcasting station when a disaster occurs, the data of the disaster area is three-dimensional. Since the topographic map can be quickly displayed on the three-dimensional screen 12, it is possible to accurately explain the situation at the disaster site.

【0137】[0137]

【発明の効果】以上説明したように本発明のヒューマン
インタフェース装置によれば、人間が直接対面していな
い相手に意思を伝達する際に、顔面の映像を立体的に映
し出すことにより、表情によって感情を表す非言語的な
伝達を行うことができる。
As described above, according to the human interface device of the present invention, when a human conveys his / her intention to a person who is not directly faced, a human face image is stereoscopically projected to express emotions by facial expressions. You can make a non-verbal communication that represents.

【0138】そこで、従来からある非言語的な伝達を行
う装置に、本発明のヒューマンインタフェース装置を適
用すると、より円滑なコミュニケーションを行うことが
可能となる。
Therefore, if the human interface device of the present invention is applied to a conventional non-verbal transmission device, smoother communication can be performed.

【図面の簡単な説明】[Brief description of drawings]

【図1】第1の実施例のヒューマンインタフェース装置
の構成図。
FIG. 1 is a configuration diagram of a human interface device according to a first embodiment.

【図2】画像処理手段の画像処理行程を示す説明図。FIG. 2 is an explanatory diagram showing an image processing step of image processing means.

【図3】画像処理手段の構成図。FIG. 3 is a configuration diagram of an image processing unit.

【図4】顔面形状スクリーンおよび投影手段の具体的な
構成例を示す説明図。
FIG. 4 is an explanatory diagram showing a specific configuration example of a facial shape screen and a projection unit.

【図5】顔面形状スクリーンおよび投影手段の具体的な
構成例を示す説明図。
FIG. 5 is an explanatory diagram showing a specific configuration example of a facial shape screen and a projection unit.

【図6】顔面形状スクリーンおよび投影手段の具体的な
構成例を示す説明図。
FIG. 6 is an explanatory diagram showing a specific configuration example of a facial shape screen and a projection unit.

【図7】顔面形状スクリーンおよび投影手段の具体的な
構成例を示す説明図。
FIG. 7 is an explanatory diagram showing a specific configuration example of a facial shape screen and a projection unit.

【図8】第1の実施例をインタホンに応用した例を示す
説明図。
FIG. 8 is an explanatory diagram showing an example in which the first embodiment is applied to an intercom.

【図9】第1の実施例を服飾マネキンに応用した例を示
す説明図。
FIG. 9 is an explanatory diagram showing an example in which the first embodiment is applied to a clothing mannequin.

【図10】第2の実施例のヒューマンインタフェース装
置の構成図。
FIG. 10 is a configuration diagram of a human interface device according to a second embodiment.

【図11】第2の実施例をテレビ電話に応用した例を示
す説明図。
FIG. 11 is an explanatory diagram showing an example in which the second embodiment is applied to a videophone.

【図12】第2の実施例をテレビ会議電話に応用した例
を示す説明図。
FIG. 12 is an explanatory diagram showing an example in which the second embodiment is applied to a video conference call.

【図13】利用者が正面を向いていない場合に正面像を
得る方法を示す説明図。
FIG. 13 is an explanatory diagram showing a method of obtaining a front image when the user does not face the front.

【図14】利用者が正面を向いていない場合に正面像を
得る方法を示す説明図。
FIG. 14 is an explanatory diagram showing a method of obtaining a front image when the user does not face the front.

【図15】利用者が正面を向いていない場合に正面像を
得る方法を示す説明図。
FIG. 15 is an explanatory diagram showing a method of obtaining a front image when the user does not face the front.

【図16】第3の実施例のヒューマンインタフェース装
置の構成図。
FIG. 16 is a configuration diagram of a human interface device according to a third embodiment.

【図17】第3の実施例を電子メモ装置に応用した例を
示す説明図。
FIG. 17 is an explanatory diagram showing an example in which the third embodiment is applied to an electronic memo device.

【図18】第4の実施例のヒューマンインタフェース装
置の構成図。
FIG. 18 is a configuration diagram of a human interface device according to a fourth embodiment.

【図19】第4の実施例を情報処理端末に応用した例を
示す説明図。
FIG. 19 is an explanatory diagram showing an example in which the fourth embodiment is applied to an information processing terminal.

【図20】第5の実施例のヒューマンインタフェース装
置の構成図。
FIG. 20 is a configuration diagram of a human interface device according to a fifth embodiment.

【図21】立体スクリーンの具体的な構成例を示す説明
図。
FIG. 21 is an explanatory diagram showing a specific configuration example of a stereoscopic screen.

【図22】立体スクリーンの具体的な構成例を示す説明
図。
FIG. 22 is an explanatory diagram showing a specific configuration example of a stereoscopic screen.

【図23】第6の実施例のヒューマンインタフェース装
置の構成図。
FIG. 23 is a configuration diagram of a human interface device according to a sixth embodiment.

【図24】第7の実施例のヒューマンインタフェース装
置の構成図。
FIG. 24 is a configuration diagram of a human interface device according to a seventh embodiment.

【図25】第7の実施例を立体地形図表示装置に応用し
た例を示す説明図。
FIG. 25 is an explanatory diagram showing an example in which the seventh embodiment is applied to a stereoscopic topographic map display device.

【符号の簡単な説明】[Brief description of reference numerals]

1…顔面形状スクリーン、2…投影手段、3…送信者、
4…撮像手段、5,8…画像処理手段、6…受信者、7
…通信手段、9…角度センサ、10…画像記録手段、1
1…コンピュータ、12…立体スクリーン、13…立体
情報抽出手段、14…アクチュエータ制御手段、15…
立体法抽出手段、16…立体映像加工手段、17…デー
タベース、18…立体構成手段、30…背景処理部、3
1…メモリ、32…演算部、33…メモリ制御部、34
…制御部、35…抽出部、36…入力端子、37…出力
端子。
1 ... Facial shape screen, 2 ... Projection means, 3 ... Sender,
4 ... Imaging means, 5, 8 ... Image processing means, 6 ... Recipient, 7
... communication means, 9 ... angle sensor, 10 ... image recording means, 1
DESCRIPTION OF SYMBOLS 1 ... Computer, 12 ... 3D screen, 13 ... 3D information extraction means, 14 ... Actuator control means, 15 ...
Stereoscopic method extracting means, 16 ... Stereoscopic image processing means, 17 ... Database, 18 ... Stereoscopic forming means, 30 ... Background processing section, 3
DESCRIPTION OF SYMBOLS 1 ... Memory, 32 ... Operation part, 33 ... Memory control part, 34
... control unit, 35 ... extraction unit, 36 ... input terminal, 37 ... output terminal.

フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 H04N 5/66 Z (72)発明者 谷津田 則夫 神奈川県横浜市戸塚区吉田町292番地 株 式会社日立製作所映像メディア研究所内 (72)発明者 角田 隆史 神奈川県横浜市戸塚区吉田町292番地 株 式会社日立製作所映像メディア研究所内 (72)発明者 赤井 寛 神奈川県横浜市戸塚区吉田町292番地 株 式会社日立製作所AV機器事業部内Continuation of front page (51) Int.Cl. 6 Identification number Reference number within the agency FI Technical indication location H04N 5/66 Z (72) Inventor Norio Yatsuda No. 292 Yoshida-cho, Totsuka-ku, Yokohama-shi, Kanagawa Hitachi, Ltd. Video Inside the Media Research Institute (72) Takashi Tsunoda, 292 Yoshida-cho, Totsuka-ku, Yokohama-shi, Kanagawa Hitachi, Ltd.Video Media Research Institute (72) Hiroshi Akai, 292 Yoshida-cho, Totsuka-ku, Yokohama, Kanagawa Factory AV Equipment Division

Claims (18)

【特許請求の範囲】[Claims] 【請求項1】顔面の形状を有する顔面形状スクリーン
と、人物を撮像する撮像手段と、上記撮像手段によって
撮像された人物の映像から顔面に相当する部分である顔
面映像を抽出し、該顔面映像の傾斜,位置,大きさを、
上記顔面形状スクリーンの形状に対して正規化する画像
処理手段と、上記画像処理手段によって正規化された顔
面映像を上記顔面形状スクリーンに投影する投影手段と
を有することを特徴とするヒューマンインタフェース装
置。
1. A face shape screen having a shape of a face, an image pickup means for picking up an image of a person, a face image corresponding to a face is extracted from an image of the person imaged by the image pickup means, and the face image is extracted. The inclination, position, and size of
A human interface device comprising: image processing means for normalizing the shape of the facial shape screen; and projection means for projecting the facial image normalized by the image processing means onto the facial shape screen.
【請求項2】請求項1記載のヒューマンインタフェース
装置において、 上記顔面形状スクリーンの下部に設けられたマネキンを
有することを特徴とするヒューマンインタフェース装
置。
2. The human interface device according to claim 1, further comprising a mannequin provided below the face-shaped screen.
【請求項3】請求項1記載のヒューマンインタフェース
装置において、 上記撮像手段と同一ユニットを構成し、上記撮像手段に
よって人物の映像が撮像されている間、外部から音声を
取り込むマイクと、上記投影手段と同一ユニットを構成
し、上記マイクによって取り込まれた音声を外部に出力
するスピーカとを有することを特徴とするヒューマンイ
ンタフェース装置。
3. The human interface device according to claim 1, wherein the imaging unit constitutes the same unit, and a microphone for taking in sound from the outside while the image of the person is captured by the imaging unit, and the projection unit. And a speaker that outputs the sound captured by the microphone to the outside.
【請求項4】顔面の形状を有する顔面形状スクリーン
と、人物を撮像する撮像手段と、上記撮像手段によって
撮像された人物の映像から顔面に相当する部分である顔
面映像を抽出し、該顔面映像の傾斜,位置,大きさを、
上記顔面形状スクリーンの形状に対して正規化する画像
処理手段と、上記画像処理手段によって正規化された顔
面映像を通信網を介して送信する送信手段と、通信網を
介して送信されてくる顔面映像を受信する受信手段と、
上記受信手段によって受信された顔面映像を上記顔面形
状スクリーンに投影する投影手段とを有することを特徴
とするヒューマンインタフェース装置。
4. A face shape screen having a shape of a face, an image pickup means for picking up an image of a person, a face image corresponding to a face is extracted from an image of the person imaged by the image pickup means, and the face image is extracted. The inclination, position, and size of
Image processing means for normalizing the shape of the face shape screen, transmitting means for transmitting the face image normalized by the image processing means via a communication network, and face transmitted via the communication network A receiving means for receiving the image,
A human interface device, comprising: a projection means for projecting the facial image received by the receiving means onto the facial shape screen.
【請求項5】請求項4記載のヒューマンインタフェース
装置において、 上記撮像手段と同一ユニットを構成し、上記撮像手段に
よって人物の映像が撮像されている間、外部から音声を
取り込むマイクを有し、 上記送信手段は、上記画像処理手段によって正規化され
た顔面映像と共に、上記マイクによって取り込まれた音
声を通信網を介して送信し、 上記受信手段は、通信網を介して送信されてくる顔面映
像と共に、通信網を介して送信されてくる音声を受信
し、 上記投影手段と同一ユニットを構成し、上記受信手段に
よって受信された音声を外部に出力するスピーカを有す
ることを特徴とするヒューマンインタフェース装置。
5. The human interface device according to claim 4, comprising the same unit as the image pickup means, and having a microphone for taking in sound from the outside while the image of the person is picked up by the image pickup means, The transmitting means transmits the voice captured by the microphone through the communication network together with the face image normalized by the image processing means, and the receiving means together with the face image transmitted through the communication network. A human interface device comprising: a speaker that receives a voice transmitted through a communication network, forms a unit same as the projecting unit, and outputs the voice received by the receiving unit to the outside.
【請求項6】顔面の形状を有する顔面形状スクリーン
と、人物を撮像する撮像手段と、上記撮像手段によって
撮像された人物の映像から顔面に相当する部分である顔
面映像を抽出し、該顔面映像の傾斜,位置,大きさを、
上記顔面形状スクリーンの形状に対して正規化する画像
処理手段と、上記画像処理手段によって正規化された顔
面映像を記憶媒体に記録する記録手段と、上記記録手段
によって記憶媒体に記録されている顔面映像を上記顔面
形状スクリーンに投影する投影手段とを有することを特
徴とするヒューマンインタフェース装置。
6. A face shape screen having a shape of a face, an image pickup means for picking up an image of a person, a face image corresponding to a face is extracted from the image of the person imaged by the image pickup means, and the face image is extracted. The inclination, position, and size of
Image processing means for normalizing the shape of the facial shape screen, recording means for recording the facial image normalized by the image processing means in a storage medium, and face recorded in the storage medium by the recording means. A human interface device, comprising: a projection means for projecting an image on the facial shape screen.
【請求項7】請求項6記載のヒューマンインタフェース
装置において、 上記撮像手段と同一ユニットを構成し、上記撮像手段に
よって人物の映像が撮像されている間、外部から音声を
取り込むマイクを有し、 上記記録手段は、上記画像処理手段によって正規化され
た顔面映像と共に、上記マイクによって取り込まれた音
声を記憶媒体に記録し、 上記投影手段と同一ユニットを構成し、上記投影手段に
よって上記顔面映像が上記顔面形状スクリーンに投影さ
れている間、上記記録手段によって記憶媒体に記録され
ている音声を外部に出力するスピーカを有することを特
徴とするヒューマンインタフェース装置。
7. The human interface device according to claim 6, comprising the same unit as said image pickup means, and having a microphone for taking in sound from the outside while the image of the person is picked up by said image pickup means, The recording means records the sound captured by the microphone in a storage medium together with the face image normalized by the image processing means, constitutes the same unit as the projecting means, and the face image is reproduced by the projecting means. A human interface device comprising a speaker for outputting the sound recorded in the storage medium by the recording means to the outside while being projected on the facial shape screen.
【請求項8】請求項1〜7のいずれか記載のヒューマン
インタフェース装置において、 上記画像処理手段は、 上記撮像手段によって撮像された人物の映像の色情報に
基づいて、該映像のうちの肌色の部分を、顔面映像とし
て抽出し、 抽出した顔面映像から、予め決められた2つ以上の顔面
の部分の映像に相当する位置を抽出し、これらの位置を
基準として、該顔面映像がまっすぐになるように、該顔
面映像の傾斜を正規化し、 抽出した2つ以上の位置のうちのいずれか1つの位置が
上記顔面形状スクリーンにおける該位置に相当する位置
と一致するように、該顔面映像の位置を正規化し、 抽出した2つ以上の位置の間の距離から、該顔面映像の
上記顔面形状スクリーンの大きさに対する比率を求め、
求めた比率に基づいて、該顔面映像の大きさが上記顔面
形状スクリーンの大きさと一致するように、該顔面映像
の大きさを正規化することを特徴とするヒューマンイン
タフェース装置。
8. The human interface device according to any one of claims 1 to 7, wherein the image processing means, based on color information of the image of the person imaged by the image capturing means, determines the skin color of the image. The part is extracted as a face image, and positions corresponding to images of two or more predetermined face parts are extracted from the extracted face image, and the face image is straightened based on these positions. As described above, the inclination of the facial image is normalized, and the position of the facial image is adjusted so that any one position of the extracted two or more positions matches the position corresponding to the position on the facial shape screen. And the ratio of the facial image to the size of the facial shape screen is calculated from the distance between the extracted two or more positions,
A human interface device for normalizing the size of the facial image so that the size of the facial image matches the size of the facial shape screen based on the obtained ratio.
【請求項9】顔面の形状を有する顔面形状スクリーン
と、外部から供給された、人物の顔面に相当する部分で
ある顔面映像を上記顔面形状スクリーンに投影する投影
手段とを有することを特徴とするヒューマンインタフェ
ース装置。
9. A facial shape screen having a facial shape, and projection means for projecting a facial image, which is a portion corresponding to a human face, supplied from the outside onto the facial shape screen. Human interface device.
【請求項10】請求項1〜9記載のヒューマンインタフ
ェース装置において、 上記顔面形状スクリーンは、明色の不透明な材料からな
る、人間の頭部の像であり、 上記投影手段は、上記像の顔部分の正面側から上記顔面
映像を投影するプロジェクタであることを特徴とするヒ
ューマンインタフェース装置。
10. The human interface device according to claim 1, wherein the face-shaped screen is an image of a human head made of a light-colored opaque material, and the projection means is a face of the image. A human interface device, which is a projector that projects the facial image from the front side of the portion.
【請求項11】請求項1〜9記載のヒューマンインタフ
ェース装置において、 上記顔面形状スクリーンは、暗色の半透明な材料からな
る、頭部の前半分の像であり、 上記投影手段は、上記像の後面側から上記顔面映像を投
影するプロジェクタであることを特徴とするヒューマン
インタフェース装置。
11. The human interface device according to claim 1, wherein the face-shaped screen is an image of a front half of a head made of a dark-colored semitransparent material, and the projecting means includes A human interface device, which is a projector that projects the facial image from the rear side.
【請求項12】請求項1〜9記載のヒューマンインタフ
ェース装置において、 上記顔面形状スクリーンは、透明な材料からなる板で、
かつ、その後面が顔面の形状にくり抜かれて半透明にな
るように加工された板であり、 上記投影手段は、上記板の後面側から上記顔面映像を投
影するプロジェクタであることを特徴とするヒューマン
インタフェース装置。
12. The human interface device according to claim 1, wherein the face-shaped screen is a plate made of a transparent material,
Further, the rear surface is a plate that is hollowed out in the shape of a face to be translucent, and the projection means is a projector that projects the facial image from the rear surface side of the plate. Human interface device.
【請求項13】請求項1〜9記載のヒューマンインタフ
ェース装置において、 上記顔面形状スクリーンは、透明な材料からなる、内部
が空洞の頭部の像であり、 上記投影手段は、上記像の内部から上記顔面映像を投影
するプロジェクタであることを特徴とするヒューマンイ
ンタフェース装置。
13. The human interface device according to claim 1, wherein the face-shaped screen is an image of a head having a hollow interior made of a transparent material, and the projection means is provided from the inside of the image. A human interface device, which is a projector for projecting the facial image.
【請求項14】請求項1〜9記載のヒューマンインタフ
ェース装置において、 上記投影手段は、上記顔面映像を表示するディスプレイ
であり、 上記顔面形状スクリーンは、上記ディスプレイに対して
垂直に配置された複数の光ファイバからなる、該ディス
プレイに接していない方の光ファイバの端の集合が顔面
の形状を形成するような光ファイバ群であることを特徴
とするヒューマンインタフェース装置。
14. The human interface device according to claim 1, wherein the projecting means is a display for displaying the facial image, and the facial shape screen is a plurality of screens arranged vertically to the display. A human interface device comprising a group of optical fibers, each of which is composed of optical fibers and has a set of ends which are not in contact with the display, forming a facial shape.
【請求項15】請求項1〜9記載のヒューマンインタフ
ェース装置において、 上記顔面形状スクリーンは、その形状の変形が可能であ
り、 上記画像処理手段によって正規化された顔面映像の3次
元の形状を表す立体情報を算出する立体情報抽出手段
と、上記立体情報抽出手段によって算出された立体情報
に基づいて、上記立体スクリーンの形状を変形させるス
クリーン変形手段とを有することを特徴とするヒューマ
ンインタフェース装置。
15. The human interface device according to claim 1, wherein the facial shape screen is capable of deforming its shape, and represents a three-dimensional shape of a facial image normalized by the image processing means. A human interface device comprising: stereoscopic information extracting means for calculating stereoscopic information; and screen deforming means for deforming the shape of the stereoscopic screen based on the stereoscopic information calculated by the stereoscopic information extracting means.
【請求項16】請求項15記載のヒューマンインタフェ
ース装置において、 上記顔面形状スクリーンは、スクリーン膜と、複数のピ
ンおよびこれらのピンを前後に移動させることにより上
記スクリーン膜の形状を変形させるソレノイドからなる
ピンアクチュエータが格子状に組まれたピンアクチュエ
ータ群とから構成され、 上記スクリーン変形手段は、上記ソレノイドが上記ピン
を前後に移動させるように制御することを特徴とするヒ
ューマンインタフェース装置。
16. The human interface device according to claim 15, wherein the face-shaped screen includes a screen film, a plurality of pins, and a solenoid that deforms the shape of the screen film by moving the pins back and forth. The human interface device, wherein the pin actuator is composed of a group of pin actuators assembled in a grid pattern, and the screen deforming means controls the solenoid to move the pins back and forth.
【請求項17】形状の変形が可能な立体スクリーンと、
立体物の映像および該立体物の3次元の形状を表す立体
情報からなる立体物データを格納しているデータベース
と、上記データベースに格納されている立体物データの
うちの立体情報に基づいて、上記立体スクリーンの形状
を変形させるスクリーン変形手段と、上記データベース
に格納されている立体物データのうちの映像を、上記ス
クリーン変形手段によって形状が変形された立体スクリ
ーンに投影する投影手段とを有することを特徴とする立
体映像投影装置。
17. A three-dimensional screen having a deformable shape,
Based on the database storing the three-dimensional object data including the image of the three-dimensional object and the three-dimensional information representing the three-dimensional shape of the three-dimensional object, and the three-dimensional information of the three-dimensional object data stored in the database, And a projection means for projecting an image of the three-dimensional object data stored in the database onto the three-dimensional screen whose shape is transformed by the screen transformation means. Characteristic stereoscopic image projection device.
【請求項18】請求項17記載の立体映像投影装置にお
いて、 上記立体スクリーンは、スクリーン膜と、複数のピンお
よびこれらのピンを前後に移動させることにより上記ス
クリーン膜の形状を変形させるソレノイドからなるピン
アクチュエータが格子状に組まれたピンアクチュエータ
群とから構成され、 上記スクリーン変形手段は、上記ソレノイドが上記ピン
を前後に移動させるように制御することを特徴とする立
体映像投影装置。
18. The three-dimensional image projection device according to claim 17, wherein the three-dimensional screen comprises a screen film, a plurality of pins, and a solenoid that moves the pins back and forth to deform the shape of the screen film. A stereoscopic image projection apparatus, wherein the pin actuator is composed of a group of pin actuators assembled in a lattice pattern, and the screen deforming means controls the solenoid to move the pin back and forth.
JP7012012A 1995-01-27 1995-01-27 Human interface device Pending JPH08205197A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7012012A JPH08205197A (en) 1995-01-27 1995-01-27 Human interface device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7012012A JPH08205197A (en) 1995-01-27 1995-01-27 Human interface device

Publications (1)

Publication Number Publication Date
JPH08205197A true JPH08205197A (en) 1996-08-09

Family

ID=11793687

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7012012A Pending JPH08205197A (en) 1995-01-27 1995-01-27 Human interface device

Country Status (1)

Country Link
JP (1) JPH08205197A (en)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1115600A (en) * 1997-04-28 1999-01-22 Matsushita Electric Ind Co Ltd Communication terminal which transmits physical quantity operating on one terminal and which can work received picture and transmission terminal/reception temrinal supplied for the same
JP2000010194A (en) * 1998-06-19 2000-01-14 Minolta Co Ltd Picture display method and device
JP2004062025A (en) * 2002-07-31 2004-02-26 Trust System:Kk Stereoscopic projection device, screen used for the same, and projection method
JP2008020801A (en) * 2006-07-14 2008-01-31 Fuji Xerox Co Ltd Stereoscopic display system
US7852333B2 (en) 2005-05-31 2010-12-14 Fuji Xerox Co., Ltd. Three-dimensional volumetric display apparatus and method
JP2011085686A (en) * 2009-10-14 2011-04-28 Hara Seisakusho:Kk Three-dimensional display method and device
JP2014098872A (en) * 2012-11-16 2014-05-29 Casio Comput Co Ltd Projection system
JP2015052691A (en) * 2013-09-06 2015-03-19 独立行政法人産業技術総合研究所 Three-dimensional geological model system
JP2015106765A (en) * 2013-11-29 2015-06-08 カシオ計算機株式会社 Display device, display method and program
JP2015119423A (en) * 2013-12-19 2015-06-25 カシオ計算機株式会社 Communication device, communication method and program
JP2015198275A (en) * 2014-03-31 2015-11-09 株式会社バンダイナムコエンターテインメント Image creating system and program
JP2016110117A (en) * 2014-11-28 2016-06-20 株式会社半導体エネルギー研究所 Display device, module, display system and electronic apparatus
JP2017534928A (en) * 2014-08-29 2017-11-24 セケイロス,カルロス オルティゴサ Device for displaying an image on the surface of an anatomical model and corresponding method
JP2018023112A (en) * 2017-08-09 2018-02-08 カシオ計算機株式会社 Image output device, image output method and program
JP2019520095A (en) * 2016-03-29 2019-07-18 フルハット・ロボティクス・エービーFurhat Robotics AB Robot customization
JP2020093181A (en) * 2020-03-30 2020-06-18 株式会社ユニバーサルエンターテインメント Game machine
CN113518211A (en) * 2020-04-10 2021-10-19 中强光电股份有限公司 Projection system and projection operation method
JP2022502937A (en) * 2018-09-28 2022-01-11 ユニバーサル シティ スタジオズ リミテッド ライアビリティ カンパニー Special effects communication technology
JP2022538852A (en) * 2019-06-28 2022-09-06 ロレアル Method for molding applicator for applying cosmetic composition

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1115600A (en) * 1997-04-28 1999-01-22 Matsushita Electric Ind Co Ltd Communication terminal which transmits physical quantity operating on one terminal and which can work received picture and transmission terminal/reception temrinal supplied for the same
JP2000010194A (en) * 1998-06-19 2000-01-14 Minolta Co Ltd Picture display method and device
JP2004062025A (en) * 2002-07-31 2004-02-26 Trust System:Kk Stereoscopic projection device, screen used for the same, and projection method
US7852333B2 (en) 2005-05-31 2010-12-14 Fuji Xerox Co., Ltd. Three-dimensional volumetric display apparatus and method
JP2008020801A (en) * 2006-07-14 2008-01-31 Fuji Xerox Co Ltd Stereoscopic display system
US7651225B2 (en) 2006-07-14 2010-01-26 Fuji Xerox Co., Ltd. Three dimensional display system
JP2011085686A (en) * 2009-10-14 2011-04-28 Hara Seisakusho:Kk Three-dimensional display method and device
JP2014098872A (en) * 2012-11-16 2014-05-29 Casio Comput Co Ltd Projection system
JP2015052691A (en) * 2013-09-06 2015-03-19 独立行政法人産業技術総合研究所 Three-dimensional geological model system
JP2015106765A (en) * 2013-11-29 2015-06-08 カシオ計算機株式会社 Display device, display method and program
JP2015119423A (en) * 2013-12-19 2015-06-25 カシオ計算機株式会社 Communication device, communication method and program
JP2015198275A (en) * 2014-03-31 2015-11-09 株式会社バンダイナムコエンターテインメント Image creating system and program
JP2017534928A (en) * 2014-08-29 2017-11-24 セケイロス,カルロス オルティゴサ Device for displaying an image on the surface of an anatomical model and corresponding method
JP2016110117A (en) * 2014-11-28 2016-06-20 株式会社半導体エネルギー研究所 Display device, module, display system and electronic apparatus
JP2019520095A (en) * 2016-03-29 2019-07-18 フルハット・ロボティクス・エービーFurhat Robotics AB Robot customization
JP2018023112A (en) * 2017-08-09 2018-02-08 カシオ計算機株式会社 Image output device, image output method and program
JP2022502937A (en) * 2018-09-28 2022-01-11 ユニバーサル シティ スタジオズ リミテッド ライアビリティ カンパニー Special effects communication technology
JP2022538852A (en) * 2019-06-28 2022-09-06 ロレアル Method for molding applicator for applying cosmetic composition
JP2020093181A (en) * 2020-03-30 2020-06-18 株式会社ユニバーサルエンターテインメント Game machine
CN113518211A (en) * 2020-04-10 2021-10-19 中强光电股份有限公司 Projection system and projection operation method

Similar Documents

Publication Publication Date Title
JPH08205197A (en) Human interface device
JP4310916B2 (en) Video display device
WO2020204000A1 (en) Communication assistance system, communication assistance method, communication assistance program, and image control program
US6208373B1 (en) Method and apparatus for enabling a videoconferencing participant to appear focused on camera to corresponding users
US5438357A (en) Image manipulating teleconferencing system
TW297985B (en)
US9030486B2 (en) System and method for low bandwidth image transmission
US6313864B1 (en) Image and voice communication system and videophone transfer method
US20050083248A1 (en) Mobile face capture and image processing system and method
JPH07255044A (en) Animated electronic conference room and video conference system and method
US20050162511A1 (en) Method and system for display of facial features on nonplanar surfaces
CN1732687A (en) Method, system and apparatus for telepresence communications
JP4144492B2 (en) Image display device
JPH11127275A (en) Communication equipment
CN113282163A (en) Head-mounted device with adjustable image sensing module and system thereof
JP6901190B1 (en) Remote dialogue system, remote dialogue method and remote dialogue program
JPH08256316A (en) Communication conference system
CN108877407A (en) Methods, devices and systems and augmented reality glasses for supplementary AC
JPH09107534A (en) Video conference equipment and video conference system
JP2019086858A (en) Customer service system and customer service method
TWI248021B (en) Method and system for correcting out-of-focus eyesight of attendant images in video conferencing
JP3074679B2 (en) Two-way interactive system
JP3074677B2 (en) A two-way interactive system having a mechanism for matching eyes between interlocutors via transmission means
JP2001092990A (en) Three-dimensional virtual space participant display method, three-dimensional virtual space display device and recording medium stored with three-dimensional virtual space participant display program
JP2000218575A (en) Image display device