JP2001092990A - Three-dimensional virtual space participant display method, three-dimensional virtual space display device and recording medium stored with three-dimensional virtual space participant display program - Google Patents

Three-dimensional virtual space participant display method, three-dimensional virtual space display device and recording medium stored with three-dimensional virtual space participant display program

Info

Publication number
JP2001092990A
JP2001092990A JP26565399A JP26565399A JP2001092990A JP 2001092990 A JP2001092990 A JP 2001092990A JP 26565399 A JP26565399 A JP 26565399A JP 26565399 A JP26565399 A JP 26565399A JP 2001092990 A JP2001092990 A JP 2001092990A
Authority
JP
Japan
Prior art keywords
face
virtual space
operator
display
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP26565399A
Other languages
Japanese (ja)
Inventor
Daisuke Minoura
大祐 箕浦
Shohei Sugawara
昌平 菅原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP26565399A priority Critical patent/JP2001092990A/en
Publication of JP2001092990A publication Critical patent/JP2001092990A/en
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

PROBLEM TO BE SOLVED: To report the expression of an operator in real time in a three- dimensional(3D) virtual space system. SOLUTION: A glance direction, the voice of the operator, a 3D face model prepared by an initial input video processing part 13 and the real face video of the operator determined by a display face direction discriminating part 14 or real face video of the operator photographed in all directions are transmitted from a data transmitting part 15 to an other person information receiving part 20 of the 3D virtual space display device by a present information receiving part 10. In the other person information receiving part 20, the real face video or 3D CG face model in the direction determined by the display face direction discriminating part 23 is displayed by a face video display part 26 or face model display part 25.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、複数の参加者がそ
れぞれ複数の計算機端末を使い通信回線を介して通信
し、コンピュータグラフィックス技術を用いて構築され
た3次元仮想空間を複数の参加者が共有するシステムに
おける3次元仮想空間参加者表示方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method in which a plurality of participants communicate with each other through a communication line using a plurality of computer terminals, and a three-dimensional virtual space constructed by using computer graphics technology. The present invention relates to a three-dimensional virtual space participant display method in a system shared by the members.

【0002】[0002]

【従来の技術】従来技術として情報処理学会第57回全
国大会、発表番号5M―8で発表された3次元仮想空間
参加者表示方法がある。この方法では、仮想空間の参加
者の全身を予め多方向から撮影したアバタテクスチャを
用意し、他の参加者から見える方向にふさわしいように
アバタテクスチャを切り替えて表示している。また、映
像処理の技術において、人物の顔を撮影した場合に映像
中の色成分を輝度、彩度、色相に分解し、色相において
肌色を表していると思われる領域を固定的に設定して、
映像中の背景から人物の顔領域を抽出する技術が広く使
われている。
2. Description of the Related Art As a prior art, there is a three-dimensional virtual space participant display method announced at the 57th National Convention of the Information Processing Society of Japan, announcement number 5M-8. According to this method, avatar textures obtained by previously capturing the whole body of a participant in a virtual space from multiple directions are prepared, and the avatar textures are switched and displayed so as to be suitable for the direction seen by other participants. Also, in the image processing technology, when a person's face is photographed, the color components in the image are decomposed into luminance, saturation, and hue, and a region that is considered to represent skin color in the hue is fixedly set. ,
2. Description of the Related Art A technique for extracting a face area of a person from a background in a video is widely used.

【0003】[0003]

【発明が解決しようとする課題】従来の分身の表示方法
として、 1方向から撮影した顔の実映像をそのまま胴体CG映像
に接合して表示する方法と、 実映像を基に人手で3次元空間を板状の領域を作成
し、そこに実映像を貼り付けて分身の映像を作成し表示
する方法があった。
As a conventional method of displaying the alter ego, there is a method of joining a real image of a face taken from one direction to a body CG image as it is, and a method of manually displaying a three-dimensional space based on the actual image. There is a method of creating a plate-like area, pasting an actual image there, and creating and displaying an image of the alter ego.

【0004】の方法は、他の参加者が横から見たと
き、その表情がわからない。
According to the method, when another participant looks from the side, his / her expression cannot be understood.

【0005】の方法は、人手で行うため数時間以上の
時間がかかりリアルタイムに表示することができないと
いう欠点があった。
The method described above has a drawback that it takes several hours or more because it is performed manually, and cannot be displayed in real time.

【0006】本発明の目的は、3次元仮想空間において
操作者の表情をリアルタイムに伝えることができる3次
元仮想空間参加者表示方法、装置、および3次元仮想空
間参加者表示プログラムを記録した記録媒体を提供する
ことにある。
An object of the present invention is to provide a method and apparatus for displaying a three-dimensional virtual space participant capable of transmitting an expression of an operator in a three-dimensional virtual space in real time, and a recording medium storing a three-dimensional virtual space participant display program. Is to provide.

【0007】[0007]

【課題を解決するための手段】本発明は、仮想空間およ
び操作者の分身の状況に基づいいて、実写映像と3次元
胴体モデルの合成および実写顔映像から作成した3次元
顔モデルと3次元胴体モデルの合成のいずれかを選択し
て表示するものである。
SUMMARY OF THE INVENTION According to the present invention, a three-dimensional face model and a three-dimensional torso created from a composite of a real shot image and a three-dimensional torso model and a real shot face image based on the virtual space and the situation of the alter ego of the operator. One of the models is selected and displayed.

【0008】実映像をそのまま表示する場合、複数方向
から顔画像を撮影し、操作者自身あるいは他の参加者の
視線方向に基づいて、表示する顔映像を選択する。これ
によって、操作者自身や他の参加者の視線方向によらず
に操作者の表情の表示が可能となる。
When displaying an actual image as it is, face images are taken from a plurality of directions, and a face image to be displayed is selected based on the line of sight of the operator or another participant. As a result, it is possible to display the expression of the operator irrespective of the gaze direction of the operator or other participants.

【0009】3次元顔モデルによって表示する場合、標
準的な骨格モデルを予め用意しておき、撮影した顔画像
をその骨格モデルに適用して顔モデルを作成して表示す
る。これにより、3次元顔モデル作成の自動化およびリ
アルタイム処理が可能となる。
When displaying a three-dimensional face model, a standard skeleton model is prepared in advance, and a captured face image is applied to the skeleton model to create and display a face model. This enables automation and real-time processing of creating a three-dimensional face model.

【0010】[0010]

【発明の実施の形態】次に、本発明の実施の形態につい
て図面を参照して説明する。
Next, embodiments of the present invention will be described with reference to the drawings.

【0011】図1(1)、(2)は本発明の一実施形態
の3次元仮想空間表示装置の送信側、受信側の処理構成
図である。
FIGS. 1A and 1B are processing configuration diagrams on the transmitting side and the receiving side of a three-dimensional virtual space display apparatus according to an embodiment of the present invention.

【0012】3次元仮想空間表装置は他の仮想空間利用
者が使用する端末に自分の情報を送信する自情報送信部
10と他の仮想空間利用者が使用する端末から各利用者
の情報を受信する他者情報受信部20を有している。自
情報送信部10は視線方向入力部11と顔映像撮影部1
2と顔表示方向判定部13と初期入力顔映像処理部14
とデータ送信部15と音声入力部16とを有している。
他者情報受信部20はデータ受信部21と顔表示方法判
定部22と表示顔方向判定部23と音圧検知部24と顔
モデル表示部25と顔映像表示部26を有している。
The three-dimensional virtual space table device transmits information of each user from a self information transmitting unit 10 for transmitting own information to a terminal used by another virtual space user and a terminal used by another virtual space user. It has a third party information receiving unit 20 for receiving. The self-information transmitting unit 10 includes a gaze direction input unit 11 and a face image capturing unit 1
2, face display direction determination unit 13 and initial input face image processing unit 14
And a data transmission unit 15 and a voice input unit 16.
The other person information receiving section 20 includes a data receiving section 21, a face display method determining section 22, a display face direction determining section 23, a sound pressure detecting section 24, a face model display section 25, and a face video display section 26.

【0013】視線方向入力部11は操作者が仮想空間を
移動するためのマウス等の入力装置である。顔映像撮影
部12は操作者の実写顔映像を撮影する。初期入力顔映
像処理部13は顔映像撮影部12で操作者を撮影し、仮
想空間中で操作者に似せた3次元顔モデルを作成する。
表示顔方向判定部14はどのカメラから撮影された操作
者の顔の様子をその操作者以外の仮想空間利用者が使用
する端末に表示される仮想空間に表示させるか決定す
る。音声入力部16は操作者の発声を入力するための、
マイク等の入力装置である。データ送信部15は、視線
方向入力部11から入力された情報をもとに決定された
操作者の仮想空間における視点位置および視点方向、3
次元顔モデル、操作者の発した音声データ、およびすべ
ての方向から撮影された操作者の実写顔映像、あるいは
表示顔方向判定部14で決定された方向から撮影された
操作者の実写顔映像のみをこの操作者以外の仮想空間利
用者が使用する3次元仮想空間表示装置の他者情報受信
部20に送信する。
The gaze direction input unit 11 is an input device such as a mouse for an operator to move in a virtual space. The face image capturing unit 12 captures a real face image of the operator. The initial input face image processing unit 13 takes an image of the operator with the face image capturing unit 12 and creates a three-dimensional face model that resembles the operator in the virtual space.
The display face direction determination unit 14 determines from which camera the state of the operator's face imaged is displayed in a virtual space displayed on a terminal used by a virtual space user other than the operator. The voice input unit 16 is used to input an utterance of the operator.
An input device such as a microphone. The data transmitting unit 15 includes a viewpoint position and a viewpoint direction in the virtual space of the operator determined based on the information input from the line-of-sight direction input unit 11.
Only the three-dimensional face model, the voice data emitted by the operator, and the real face image of the operator photographed from all directions or the real face image of the operator photographed from the direction determined by the display face direction determination unit 14 Is transmitted to the other party information receiving unit 20 of the three-dimensional virtual space display device used by the virtual space user other than the operator.

【0014】データ受信部21は他の仮想空間利用者が
使用する3次元仮想空間表示装置の自情報送信部10か
ら送信された視点位置および視点方向、他の仮想空間利
用者が発した音声データ、他の利用者すべての方向から
撮影された実写顔映像、あるいはそのうちの1枚の実写
顔映像、3次元顔モデルを受信する。顔表示方法判定部
22は予め設定した仮想空間の状況に応じて顔モデルを
表示するか顔映像を表示するかを決定する。顔映像表示
部26は、操作者の背景を除去し、胴体モデルと表示上
適切になるように表示するための顔映像の位置補正を行
い、顔映像を表示する。表示顔方向判定部23は他の仮
想空間利用者が使用する3次元仮想空間表示装置の自情
報送信部10から、全ての方向から撮影された操作者の
実写顔映像が送信されて来た場合にその相手との仮想空
間中の相対位置および方向の関係から判断してその利用
者がどの実写顔映像を表示するかを決定する。顔モデル
表示部25は他の仮想空間利用者が使用する3次元仮想
空間表示装置の初期入力顔映像処理部13で作成された
顔モデルを表示する。音圧検知部24は他の仮想空間利
用者から受信した音声データを検知し、その状態を顔モ
デル表示部25に伝達する。
The data receiving unit 21 includes a viewpoint position and a viewpoint direction transmitted from the own information transmitting unit 10 of the three-dimensional virtual space display device used by another virtual space user, and voice data generated by another virtual space user. , A real face image captured from all directions of other users, or one of the real face images, a three-dimensional face model is received. The face display method determination unit 22 determines whether to display a face model or a face video according to the status of the virtual space set in advance. The face image display unit 26 removes the background of the operator, corrects the position of the face image for display so as to be appropriate for display with the torso model, and displays the face image. The display face direction determining unit 23 is configured to transmit a real face image of the operator photographed from all directions from the own information transmitting unit 10 of the three-dimensional virtual space display device used by another virtual space user. First, it is determined from the relationship between the relative position and the direction in the virtual space with the other party to determine which real face image is displayed by the user. The face model display unit 25 displays the face model created by the initial input face image processing unit 13 of the three-dimensional virtual space display device used by another virtual space user. The sound pressure detection unit 24 detects voice data received from another virtual space user, and transmits the state to the face model display unit 25.

【0015】ここで、表示顔方向判定部が送信側と受信
側にある理由を説明する。
Here, the reason why the display face direction determination unit is provided on the transmitting side and the receiving side will be described.

【0016】まず、本発明の3次元仮想空間表示装置は
自情報送信部と他者情報送信部のペアで1セットとなっ
ている。
First, in the three-dimensional virtual space display apparatus of the present invention, a pair of the own information transmitting section and the other information transmitting section is one set.

【0017】各参加者は自分の情報を他の参加者に送信
し、他の参加者から情報をもらって自端末上に他者のア
バタを表示する。自分の端末に自分のアバタは表示され
ない。自分の顔映像を他者に送信する場合に、全ての方
向から撮影した顔映像の全てを相手に送信し、自分との
相対位置および方向の関係から相手に表示すべき顔映像
を選択させる場合と、自分が相手との相対位置および方
向の関係を計算し、必要となるある角度から撮影された
顔映像のみを送信する場合がある。前者の場合は相手の
3次元仮想空間表示装置の他者情報受信部20にある表
示顔方向判定部23が必要となり、後者の場合は自分の
3次元仮想空間表示装置の自情報送信部10にある表示
顔方向判定部14が必要となる。
Each participant transmits its own information to another participant, receives information from the other participant, and displays the avatar of the other participant on its own terminal. My avatar is not displayed on my terminal. When transmitting one's own face image to another person, transmitting all of the face images taken from all directions to the other party, and selecting the face image to be displayed to the other party based on the relationship between the relative position and the direction to oneself In some cases, the user himself / herself calculates the relationship between the relative position and direction with the other party, and transmits only a face video taken from a certain required angle. In the former case, the display face direction determining unit 23 in the other party information receiving unit 20 of the other party's three-dimensional virtual space display device is required, and in the latter case, the own information transmitting unit 10 of the own three-dimensional virtual space display device is used. A certain display face direction determination unit 14 is required.

【0018】この機構は、仮想空間に参加する人数の規
模に応じて、各操作者の端末の計算機負荷と通信負荷を
適切な状態に保つために必要である。参加人数が少ない
時は自端末の計算負荷軽減および相手の仮想空間中での
動きに合わせて機敏に顔映像を切り替えるために全ての
顔映像を送って相手に顔方向を選択させる方法を採る。
参加人数が多い時は通信負荷軽減および相手情報の処理
負荷軽減のために、自端末で顔方向を判定し必要な角度
から撮影された顔映像のみを送信する。
This mechanism is necessary to keep the computer load and the communication load of each operator's terminal in an appropriate state according to the size of the number of persons participating in the virtual space. When the number of participants is small, a method is adopted in which all face images are sent and the other party selects a face direction in order to reduce the computational load of the own terminal and switch face images quickly according to the movement of the other party in the virtual space.
When the number of participants is large, in order to reduce the communication load and the processing load of the partner information, the own terminal determines the face direction and transmits only the face video shot from a required angle.

【0019】図2は3次元仮想空間表示装置の操作者端
末の周囲の様子を示す図である。計算機の前に座ってい
る仮想空間に参加する操作者36の顔を撮影する5台の
カメラ31〜35が設置されている。これら5台のカメ
ラ31〜35は、操作者36の頭上から見た図である。
図3に示すように、正面を12時の方向としたときに、
9時、10時30分、1時30分、3時の5方向のそれ
ぞれ設置されており、それぞれの角度から操作者の顔を
撮影する。41〜45はそれぞれカメラ31〜35で撮
影した映像を示し、46は操作者の位置、47は観察さ
れる参加者の位置を示している。
FIG. 2 is a diagram showing a state around an operator terminal of the three-dimensional virtual space display device. Five cameras 31 to 35 for photographing the face of the operator 36 participating in the virtual space sitting in front of the computer are provided. These five cameras 31 to 35 are viewed from above the operator 36.
As shown in FIG. 3, when the front is set at 12 o'clock,
It is installed in each of five directions of 9:00, 10:30, 1:30, and 3:00, and photographs the operator's face from each angle. Reference numerals 41 to 45 denote images taken by the cameras 31 to 35, 46 denotes the position of the operator, and 47 denotes the position of the observed participant.

【0020】図4は初期入力顔映像処理部13の処理の
詳細を示すフローチャートである。本処理部では操作者
に似せたモデルを作成する(ステップ51)。12時の
方向から撮影した顔映像を利用する。撮影時には図5に
見られるように顔の中心線と眼の高さを揃えるためのガ
イドライン61、62を表示し、操作者はそれに沿うよ
うに撮影位置を調節する。次に、撮影した映像から顔の
領域を抽出する(ステップ52)。映像全体を色相によ
る領域分けをし、ガイドライン61、62の交差部分を
含む領域を顔部分として抽出する。抽出した顔領域の中
でガイドライン61、62と交差する領域から両眼およ
び口の位置を特定する。撮影した映像中の両眼の距離、
および眼から口までの距離に基づいて、予め一般化3次
元頭部CGモデルの大きさを操作者の顔の縮尺に適合する
ように伸縮して調節する(ステップ53)。調節した顔
モデルに抽出した顔領域を貼り付ける(ステップ5
4)。以上のようにして作成された顔モデルは必要な状
況で顔モデル表示部25に表示される。
FIG. 4 is a flowchart showing details of the processing of the initial input face image processing section 13. In this processing unit, a model resembling the operator is created (step 51). A face image taken from the direction of 12:00 is used. At the time of photographing, as shown in FIG. 5, guidelines 61 and 62 for aligning the center line of the face with the height of the eyes are displayed, and the operator adjusts the photographing position along the guidelines. Next, a face area is extracted from the captured video (step 52). The entire video is divided into regions based on hue, and a region including an intersection between the guidelines 61 and 62 is extracted as a face portion. The positions of both eyes and the mouth are specified from the area intersecting the guidelines 61 and 62 in the extracted face area. The distance between the eyes in the shot video,
Based on the distance from the eyes to the mouth, the size of the generalized three-dimensional head CG model is adjusted in advance by expanding and contracting to match the scale of the operator's face (step 53). Paste the extracted face area on the adjusted face model (Step 5)
4). The face model created as described above is displayed on the face model display unit 25 in a necessary situation.

【0021】図6は顔映像表示部26の処理の詳細を示
すフローチャートである。まず、初期入力顔映像を第1
フレーム、初期入力顔映像を撮影した直後に撮影した顔
映像を第2フレームとする(ステップ71)。また、初
期入力顔映像が抽出した顔映像の平均色相を記録してお
く。図7に示すように第1フレームと第2フレームの差
分をとった差分映像を用意する。差分映像には第1フレ
ームと第2フレームの間で移動した被写体の情報のみが
残る。次に、第2フレームについて第1フレームと同様
の手法を用いて色相による領域分割を行う(ステップ7
2)。ここで、第1フレームの顔領域と重なりが大きい
領域、かつ第2フレームの領域の平均色相が記録した第
1フレームの平均色相に最も近い領域を第2フレームか
ら抽出し、第2フレームにおける顔領域とする(ステッ
プ73)。また、この抽出した領域の平均色相を新たに
次の処理のための第1フレームの平均色相として記録し
ておく。その後、差分映像と重なりが大きい領域のう
ち、第2フレームにおける顔領域と隣接する領域を抽出
する。以上の方法によって第2フレームから操作者の領
域を抽出する。抽出された領域は、アフィン変換(映像
解析ハンドブック東京大学出版会発行p.427)を用い
て位置の補正および大きさの補正を行った後表示する
(ステップ74〜76)。以上を顔表示処理の1サイク
ルとし、上記の第2フレームを新たに第1フレーム、上
記の第2フレームの直後に撮影された映像を新たに第2
フレームとして処理サイクルを繰り返す。
FIG. 6 is a flowchart showing details of the processing of the face image display section 26. First, the initial input face image is
A frame, a face image taken immediately after the initial input face image is taken as a second frame (step 71). Also, the average hue of the face image extracted from the initial input face image is recorded. As shown in FIG. 7, a difference video obtained by taking a difference between the first frame and the second frame is prepared. Only the information of the subject moved between the first frame and the second frame remains in the difference video. Next, the second frame is divided into regions by hue using the same method as that for the first frame (step 7).
2). Here, an area having a large overlap with the face area of the first frame and an area in which the average hue of the area of the second frame is closest to the average hue of the recorded first frame are extracted from the second frame, and the face in the second frame is extracted. The area is set (step 73). Further, the average hue of the extracted area is newly recorded as the average hue of the first frame for the next processing. After that, an area adjacent to the face area in the second frame is extracted from the area having a large overlap with the difference image. The operator's area is extracted from the second frame by the above method. The extracted region is displayed after performing position correction and size correction using the affine transformation (Video Analysis Handbook, University of Tokyo Press, p. 427) (steps 74 to 76). The above is one cycle of the face display processing, and the second frame is newly added to the first frame, and the video shot immediately after the second frame is newly added to the second frame.
The processing cycle is repeated as a frame.

【0022】図8は表示顔方向判定部14、23の処理
の詳細である。角度θは参加者同士の正面方向がなす角
度である。θ<―112.5°、112.5°<θでは顔
表示方法判定部22の判断により、顔映像を表示せず顔
モデルを表示する。―90゜≦θ≦90゜のときは表示
顔方向判定部14の判断によって、相手との角度に見合
った顔映像を表示する。すなわち、―112.5°≦θ
<―67.5゜のときは図3の記号41が示す角度の顔
映像を、―67.5°≦θ<―22.5゜のときは図3の
記号42が示す角度の顔映像を、―22.5°≦θ<2
2.5゜のときは図3の記号43が示す角度の顔映像
を、22.5°≦θ<67.5゜のときは図3の記号44
が示す角度の顔映像を、22.5°≦θ<67.5゜のと
きは図3の記号44が示す角度の顔映像を、67.5°
≦θ≦112.5゜のときは図3の記号45が示す角度
の顔映像を表示する。
FIG. 8 shows the details of the processing of the display face direction judging units 14 and 23. Is the angle formed by the frontal directions of the participants. When θ <−112.5 ° and 112.5 ° <θ, the face model is displayed without displaying the face image by the determination of the face display method determination unit 22. When −90 ° ≦ θ ≦ 90 °, the display face direction determining unit 14 displays a face image suitable for the angle with the other party according to the determination. That is, −112.5 ° ≦ θ
When <−67.5 °, the face image at the angle indicated by the symbol 41 in FIG. 3 is used. When −67.5 ° ≦ θ <−22.5 °, the face image at the angle indicated by the symbol 42 in FIG. , -22.5 ° ≦ θ <2
When the angle is 2.5 °, the face image at the angle indicated by the symbol 43 in FIG. 3 is displayed, and when 22.5 ° ≦ θ <67.5 °, the symbol image in FIG.
Is 27.5 ° ≦ θ <67.5 °, the face image at the angle indicated by the symbol 44 in FIG. 3 is 67.5 °.
When .ltoreq..theta..ltoreq.112.5 DEG, a face image at the angle indicated by the symbol 45 in FIG. 3 is displayed.

【0023】顔表示方法判定部22は、仮想空間に予め
設置した場所において顔映像を表示し、それ以外では顔
モデルを表示させる。それぞれの場合のアバタの表示方
法を図9に示す。顔映像を表示する場合は、胴体モデル
の上に顔表示用スクリーン93を立て、そのスクリーン
93に顔映像を添付する。スクリーン93は常に観察者
の方向を向くようにする。本実施形態では、用意された
会議室のテーブルについた参加者同士が互いに見る顔が
顔モデルから顔映像に切り替わるように設定した。
The face display method judging section 22 displays a face image at a place previously set in the virtual space, and displays a face model otherwise. FIG. 9 shows an avatar display method in each case. When displaying a face image, a face display screen 93 is set up on the torso model, and the face image is attached to the screen 93. The screen 93 always faces the observer. In the present embodiment, the setting is made so that the faces seen by the participants on the table of the prepared conference room are switched from the face model to the face video.

【0024】図10はCG顔モデル表示時のアバタを表
す。マイクを通じて入力された他の操作者の発声に応じ
て顔モデルの表示を切り替える。音圧検知部24は操作
者の発声状況を顔モデル表示部25に伝える。顔モデル
表示部25は発声が確認されるときは開口している顔モ
デル102を表示し、発声が確認されないときは閉口し
ている顔モデル101を表示するように切り替える。
FIG. 10 shows an avatar when a CG face model is displayed. The display of the face model is switched according to the utterance of another operator input through the microphone. The sound pressure detection unit 24 informs the face model display unit 25 of the utterance status of the operator. The face model display unit 25 switches to display the open face model 102 when the utterance is confirmed, and to display the closed face model 101 when the utterance is not confirmed.

【0025】図11(1)、(2)は本発明の実施形態
の仮想空間表示装置の構成図である。3次元仮想空間表
示装置の自情報送信部(図11(1))は入力装置11
1と撮影装置112とマイク13と記憶装置114と送
信装置115と記録媒体116とデータ処理装置117
から構成されている。入力装置111は視線方向を入力
するための、例えばマウスである。マイク13は図1中
の音声入力部16に相当する。撮影装置112は操作者
の顔を撮影するカメラである。記憶装置114はハード
ディスクである。送信装置115は実写顔映像、3次元
顔モデル等を仮想空間表示装置の他者情報受信部(図1
1(2))に送信するためのものである。記録媒体11
6は図1中の11、13〜15の各部からなる3次元仮
想空間表示プログラムが記録されている、フロッピィデ
ィスク、CD―ROM、光磁気ディスク等の記録媒体であ
る。データ処理装置117は記録媒体116から3次元
仮想空間参加者表示プログラムを読み込んで、これを実
行するCPUである。
FIGS. 11A and 11B are configuration diagrams of the virtual space display device according to the embodiment of the present invention. The own information transmission unit (FIG. 11A) of the three-dimensional virtual space display device is the input device 11.
1, a photographing device 112, a microphone 13, a storage device 114, a transmitting device 115, a recording medium 116, and a data processing device 117.
It is composed of The input device 111 is, for example, a mouse for inputting a line-of-sight direction. The microphone 13 corresponds to the voice input unit 16 in FIG. The photographing device 112 is a camera for photographing the face of the operator. The storage device 114 is a hard disk. The transmitting device 115 transmits the real face image, the three-dimensional face model, and the like to the other information receiving unit of the virtual space display device (FIG.
1 (2)). Recording medium 11
Reference numeral 6 denotes a recording medium, such as a floppy disk, CD-ROM, or magneto-optical disk, on which a three-dimensional virtual space display program including the components 11, 13 to 15 in FIG. 1 is recorded. The data processing device 117 is a CPU that reads the three-dimensional virtual space participant display program from the recording medium 116 and executes the program.

【0026】3次元仮想空間表示装置の他者情報受信部
(図11(2))は受信装置121と記憶装置122と
表示装置123と記録媒体124とデータ処理装置12
5で構成されている。受信装置121は送信装置115
から送信されたデータを受信する。記憶装置122はハ
ードディスクである。表示装置123は他の操作者の実
写映像または3次元CG顔モデルを表示するディスプレ
イである。記録媒体124は図1中の21〜26の各部
からなる3次元仮想空間表示プログラムが記録されてい
る、フロッピィディスク、CD−ROM、光磁気ディス
ク等の記録媒体である。データ処理装置125は記録媒
体124から3次元仮想空間表示プログラムを組み込ん
で、これを実行するCPUである。
The other party information receiving section (FIG. 11 (2)) of the three-dimensional virtual space display device includes a receiving device 121, a storage device 122, a display device 123, a recording medium 124, and a data processing device 12
5. The receiving device 121 is a transmitting device 115
Receives data sent from. The storage device 122 is a hard disk. The display device 123 is a display that displays a real image of another operator or a three-dimensional CG face model. The recording medium 124 is a recording medium, such as a floppy disk, a CD-ROM, or a magneto-optical disk, on which a three-dimensional virtual space display program including the components 21 to 26 in FIG. 1 is recorded. The data processing device 125 is a CPU that incorporates the three-dimensional virtual space display program from the recording medium 124 and executes the program.

【0027】[0027]

【発明の効果】以上説明したように、本発明によれば、
操作者の顔の撮影における照明条件や背景条件によらず
に顔領域の抽出ができ、また3次元仮想空間においてリ
アルタイムに操作者の表情および視線方向を伝えること
ができる。
As described above, according to the present invention,
The face area can be extracted regardless of the lighting condition and the background condition in the photographing of the operator's face, and the expression and gaze direction of the operator can be transmitted in real time in a three-dimensional virtual space.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施形態の3次元仮想空間参加者表
示装置の処理構成図である。
FIG. 1 is a processing configuration diagram of a three-dimensional virtual space participant display device according to an embodiment of the present invention.

【図2】操作者端末の前に座っている操作者の顔を撮影
するカメラ31〜35の配置を示す図である。
FIG. 2 is a diagram showing an arrangement of cameras 31 to 35 for photographing a face of an operator sitting in front of an operator terminal.

【図3】各カメラ31〜35で撮影される操作者の顔を
示す図である。
FIG. 3 is a view showing an operator's face captured by each of the cameras 31 to 35;

【図4】初期入力顔画像処理部13の処理を示すフロー
チャートである。
FIG. 4 is a flowchart showing processing of an initial input face image processing unit 13;

【図5】初期入力顔画像の撮影の様子を示す図である。FIG. 5 is a diagram illustrating a state of capturing an initial input face image.

【図6】顔映像表示部26の処理を示すフローチャート
である。
FIG. 6 is a flowchart showing processing of a face image display unit 26;

【図7】顔映像処理の説明図である。FIG. 7 is an explanatory diagram of face video processing.

【図8】表示顔方向判定における参加者同士の位置関係
を示す図である。
FIG. 8 is a diagram showing a positional relationship between participants in display face direction determination.

【図9】仮想空間内のアバタの表示方法の説明図であ
る。
FIG. 9 is an explanatory diagram of a method of displaying an avatar in a virtual space.

【図10】操作者の発声状況によるアバタの顔の表示方
法の違いを示す図である。
FIG. 10 is a diagram illustrating a difference in a method of displaying an avatar's face depending on an utterance situation of an operator.

【図11】本発明の実施形態の3次元仮想空間表示装置
の構成図である。
FIG. 11 is a configuration diagram of a three-dimensional virtual space display device according to an embodiment of the present invention.

【符号の説明】[Explanation of symbols]

10 3次元仮想空間表示装置の自情報送信部 11 視線方向入力部 12 顔表示撮影部 13 初期入力顔映像処理部 14 表示顔方向判定部 15 データ送信部 16 音声入力部 20 3次元仮想空間表示装置の他者情報受信部 21 データ受信部 22 顔表示方法判定部 23 表示顔方向判定部 24 音圧検知部 25 顔モデル表示部 26 顔映像表示部 31 操作者の右から顔を撮影するカメラ 32 操作者の右斜め前から顔を撮影するカメラ 33 操作者の正面からの顔を撮影するカメラ 34 操作者の左斜め前から顔を撮影するカメラ 35 操作者の左顔を撮影するカメラ 36 操作者 37 システム仮想空間表示装置 41 カメラ31で撮影した映像 42 カメラ32で撮影した映像 43 カメラ33で撮影した映像 44 カメラ34で撮影した映像 45 カメラ35で撮影した映像 46 観察者の位置 47 観察される参加者の位置 61 撮影時に顔の中心位置を調整するためのガイド
ライン 62 撮影時に目の高さを調整するためのガイドライ
ン 81 観察される操作者の位置および視線方向 82 観察者の位置および視線方向 91 CGモデルで顔を表示したアバタ 92 映像で顔を表示したアバタ 93 顔映像を表示するためのスクリーン 101 操作者が音を発していないときに他の利用者
の3次元仮想空間表示装置に表示されるアバタの顔 102 操作者が音を発しているときに他の利用者の
3次元仮想空間表示装置に表示されるアバタの顔 111 入力装置 112 撮影装置 113 マイク 114 記憶装置 115 送信装置 116 記録媒体 117 データ処理装置 121 受信装置 122 記憶装置 123 表示装置 124 記録媒体 125 データ処理装置
DESCRIPTION OF SYMBOLS 10 Self-information transmission part of three-dimensional virtual space display apparatus 11 Gaze direction input part 12 Face display photographing part 13 Initial input face image processing part 14 Display face direction determination part 15 Data transmission part 16 Voice input part 20 Three-dimensional virtual space display device Other information reception unit 21 Data reception unit 22 Face display method determination unit 23 Display face direction determination unit 24 Sound pressure detection unit 25 Face model display unit 26 Face video display unit 31 Camera that captures a face from the right of the operator 32 Operation A camera that captures a face from the front of the operator 33 A camera that captures a face from the front of the operator 34 A camera that captures a face from the front of the operator 35 A camera that captures the left face of the operator 36 An operator 37 System virtual space display device 41 Video captured by camera 31 42 Video captured by camera 32 43 Video captured by camera 33 44 Video captured by camera 34 Image 45 Image taken by camera 35 46 Observer's position 47 Observed participant's position 61 Guidelines for adjusting the center position of the face at the time of shooting 62 Guidelines for adjusting the eye height at the time of shooting 81 Observed Position and line-of-sight direction of the operator 82 position and line-of-sight direction of the observer 91 an avatar displaying a face in a CG model 92 an avatar displaying a face in a video 93 a screen 101 for displaying a face video 101 the operator emits sound The avatar's face displayed on the other user's 3D virtual space display device when not present 102 The avatar's face displayed on the other user's 3D virtual space display device when the operator is emitting sound 111 Input Device 112 Imaging Device 113 Microphone 114 Storage Device 115 Transmitting Device 116 Recording Medium 117 Data Processing Device 121 Receiving Device 12 2 storage device 123 display device 124 recording medium 125 data processing device

Claims (15)

【特許請求の範囲】[Claims] 【請求項1】 複数の利用者がそれぞれ計算機端末を使
い通信回線を介して通信し、3次元仮想空間を共有する
3次元仮想空間システムにおける3次元仮想空間参加者
表示方法であって、仮想空間および操作者の分身の状況
に応じて、実写顔映像と3次元CG胴体モデルの合成また
は実写顔映像から作成した3次元CG顔モデルと3次元CG
胴体モデルの合成によって操作者の分身を仮想空間中に
表示する3次元仮想空間参加者表示方法。
1. A three-dimensional virtual space participant display method in a three-dimensional virtual space system in which a plurality of users each communicate via a communication line using a computer terminal and share a three-dimensional virtual space, And a 3D CG face model and a 3D CG created from a synthesized face image and a 3D CG torso model or from a real shot face image according to the situation of the alter ego of the operator
A three-dimensional virtual space participant display method for displaying an alter ego of an operator in a virtual space by synthesizing a trunk model.
【請求項2】 撮影した操作者の顔映像からリアルタイ
ムに操作者自身の顔の画像を添付した3次元CG顔モデル
を作成する、請求項1記載の3次元仮想空間参加者表示
方法。
2. The three-dimensional virtual space participant display method according to claim 1, wherein a three-dimensional CG face model to which an image of the operator's own face is attached is created in real time from a captured operator's face image.
【請求項3】 撮影した映像から仮想空間表示装置の操
作者以外の背景部分を除去し、操作者の頭部映像を3次
元CGモデルの胴体と接合して表示する、請求項1または
2記載の3次元仮想空間参加者表示方法。
3. The apparatus according to claim 1, wherein a background portion other than the operator of the virtual space display device is removed from the captured image, and the head image of the operator is joined to the body of the three-dimensional CG model and displayed. 3D virtual space participant display method.
【請求項4】 複数方向から顔を撮影し、参加者の操作
によるその参加者の分身の首の振りに合わせて、あるい
は他の参加者が見る方向に合わせてその顔の映像を表示
する、請求項1から3のいずれか1項記載の3次元仮想
空間参加者表示方法。
4. A face is photographed from a plurality of directions, and an image of the face is displayed in accordance with the swing of the participant's alter ego's head by the operation of the participant or in accordance with the direction in which the other participant views. The three-dimensional virtual space participant display method according to claim 1.
【請求項5】 操作者の発声の有無に応じて口が開閉し
た3次元CG顔モデルを表示する、請求項1から4のいず
れか1項記載の3次元仮想空間参加者表示方法。
5. The three-dimensional virtual space participant display method according to claim 1, wherein a three-dimensional CG face model whose mouth is opened and closed is displayed according to the presence or absence of an utterance of the operator.
【請求項6】 複数の利用者が通信回線を介して通信
し、3次元仮想空間を共有する3次元仮想空間システム
における3次元仮想空間表示装置おいて、 操作者の仮想空間における視線方向を入力する視線方向
入力部と、 仮想空間中で、撮影された操作者に似せた3次元CG顔
モデルを作成する初期入力顔映像処理部と、 操作者の実写顔映像を異なった方向から撮影する顔映像
撮影部と、 操作者の音声を入力する音声入力部と、 どの顔映像撮影部から撮影された操作者の顔の様子を該
操作者以外が使用する端末に表示される仮想空間に表示
するかを決定する表示顔方向判定部と、 前記視線方向入力部で入力された視線方向、前記音声入
力部で入力された音声、前記初期入力顔映像処理部で作
成された3次元顔モデル、前記顔映像撮影部で撮影され
た実写顔映像のうち、前記表示顔方向判定部で決定され
た顔映像撮影部で撮影された実写顔映像、あるいは全て
の方向から撮影された実写顔映像を3次元仮想空間表示
装置の他者情報受信部に送信するデータ送信部を有する
ことを特徴とする3次元仮想空間表示装置。
6. A three-dimensional virtual space display device in a three-dimensional virtual space system in which a plurality of users communicate through a communication line and share a three-dimensional virtual space, and inputs a line-of-sight direction of an operator in a virtual space. A gaze direction input unit, an initial input face image processing unit that creates a three-dimensional CG face model that resembles a captured operator in a virtual space, and a face that captures a real face image of the operator from different directions. An image capturing unit, an audio input unit for inputting an operator's voice, and an image of an operator's face taken from any of the facial image capturing units is displayed in a virtual space displayed on a terminal used by a user other than the operator. A display face direction determination unit that determines whether the gaze direction is input by the gaze direction input unit, a voice input by the voice input unit, a three-dimensional face model created by the initial input face image processing unit, Photographed by the face video camera Among the captured real face images, the real face image captured by the face image capturing unit determined by the display face direction determination unit or the real face image captured from all directions is displayed on the 3D virtual space display device. A three-dimensional virtual space display device, comprising a data transmission unit for transmitting to a person information reception unit.
【請求項7】 請求項6記載の3次元仮想空間表示装置
から送信されたデータを受信するデータ受信部と、 仮想空間および操作者の分身の状況に応じて、実写顔映
像と3次元CG胴体モデルを合成したものを表示するか、
実写顔映像から作成した3次元CG顔モデルと3次元CG胴
体モデルを表示するかを決定する顔表示方法判定部と、 前者の顔表示方法が選択された場合に、操作者の背景を
除去し、3次元CG胴体モデルと表示上適切な位置となる
ように表示するための顔映像の位置補正を行い、顔映像
を表示する顔映像表示部と、 請求項6の3次元仮想空間表示装置から、全ての方向か
ら撮影された操作者の実写顔映像が送信されてきた場合
に、仮想空間中での他の操作者の分身との相対位置およ
び方向に基づいて、その相手のどの実写映像を表示する
かを決定する表示顔方向判定部と、 前記顔表示方法判定部において後者の顔表示方法が選択
された場合に、前記初期入力顔映像処理部で作成された
顔モデルを表示する顔モデル表示部を有することを特徴
とする3次元仮想空間表示装置。
7. A data receiving section for receiving data transmitted from the three-dimensional virtual space display device according to claim 6, and a live-action face image and a three-dimensional CG body according to the virtual space and the situation of the alter ego of the operator. Display the composite of the model or
A face display method determining unit for determining whether to display a 3D CG face model and a 3D CG torso model created from a live-action face image, and removing the operator's background when the former face display method is selected. A face image display unit for performing position correction of the face image for displaying the three-dimensional CG torso model and an appropriate position on the display, and displaying the face image; and a three-dimensional virtual space display device according to claim 6. When a real face image of an operator photographed from all directions is transmitted, based on the relative position and direction of another operator's alter ego in the virtual space, which real image of the other A display face direction determining unit for determining whether to display, and a face model for displaying a face model created by the initial input face image processing unit when the latter face display method is selected in the face display method determining unit. 3 characterized by having a display unit Based on the virtual reality display device.
【請求項8】 同じ仮想空間に参加する他の操作者の発
声を検知し、前記顔モデル表示部に伝達する音圧検知部
をさらに有し、前記顔モデル表示部は発声が伝達される
と、開口している顔モデルを表示する、請求項7記載の
装置。
8. A sound pressure detection unit for detecting an utterance of another operator participating in the same virtual space and transmitting the utterance to the face model display unit, wherein the face model display unit receives the utterance. The apparatus according to claim 7, wherein the apparatus displays an open face model.
【請求項9】 前記初期入力顔映像処理部は、操作者の
顔を撮影し、撮影した映像から顔の領域を抽出し、抽出
した顔領域の中で両眼および口の位置を特定し、撮影し
た映像中の両眼の距離、および眼から口までの距離に基
づいて、予め一般化3次元頭部CGモデルの大きさを操作
者の顔の縮尺に適合するように伸縮して調節、調節した
顔モデルに抽出した顔領域を貼り付ける、請求項6記載
の装置。
9. The initial input face video processing unit captures an operator's face, extracts a face area from the captured video, specifies the positions of both eyes and a mouth in the extracted face area, Based on the distance between both eyes and the distance from the eyes to the mouth in the captured video, the size of the generalized three-dimensional head CG model is adjusted in advance by expanding and contracting to match the scale of the operator's face, 7. The apparatus according to claim 6, wherein the extracted face area is pasted on the adjusted face model.
【請求項10】 前記顔映像表示部は、まず、初期入力
顔映像を第1フレーム、初期入力顔映像を撮影した直後
に撮影した顔映像を第2フレームとし、初期入力顔映像
から抽出した顔領域の平均色相を記録しておき、第1フ
レームと第2フレームの差分をとった差分映像を用意
し、第2フレームについて色相による領域分割を行い、
第1フレームの顔領域と重なりが大きい領域、かつ第2
フレームの領域の平均色相が記録した第1フレームの平
均色相に最も近い領域を第2フレームから抽出し、第2
フレームにおける顔領域と、この抽出した領域の平均色
相を新たに次の処理のための第1フレームの平均色相と
して記録しておき、その後、差分映像と重なりが大きい
領域のうち、第2フレームにおける顔領域と隣接する領
域を抽出し、抽出した領域に位置および大きさの補正を
行った後表示することを、前記第2のフレームを新たに
第1フレーム、前記第2フレームの直後に撮影された映
像を新たに第2フレームとして繰り返す、請求項7また
は8記載の装置。
10. The face image display unit according to claim 1, wherein the first input face image is a first frame, the face image taken immediately after the initial input face image is taken is a second frame, and the face extracted from the initial input face image is used as the first frame. The average hue of the region is recorded, a difference image is obtained by taking the difference between the first frame and the second frame, and the second frame is divided into regions by hue.
An area having a large overlap with the face area of the first frame, and
An area where the average hue of the area of the frame is closest to the average hue of the recorded first frame is extracted from the second frame.
The face area in the frame and the average hue of the extracted area are newly recorded as the average hue of the first frame for the next process. Extracting an area adjacent to the face area and displaying the extracted area after correcting the position and size of the extracted area means that the second frame is newly photographed immediately after the first frame and the second frame. The apparatus according to claim 7 or 8, wherein the reproduced image is repeated as a second frame.
【請求項11】 複数の利用者が通信回線を介して通信
し、3次元仮想空間を共有する3次元仮想空間システム
における3次元仮想空間表示プログラムであって、 操作者の仮想空間における視線方向を入力する視線方向
入力処理と、 仮想空間中で、撮影された操作者に似せた3次元モデル
を作成する初期入力顔映像処理と、 どの顔映像撮影部から撮影された操作者の顔の様子を該
操作者以外が使用する端末に表示される仮想空間に表示
するかを決定する表示顔方向判定処理と、 前記視線方向入力処理で入力された視線方向、前記初期
入力顔映像処理で作成された3次元顔モデル、前記撮影
された実写顔映像のうち、前記表示顔方向判定処理で決
定された顔映像撮影部で撮影された実写顔映像、あるい
は全ての方向から撮影された実写顔映像を3次元仮想空
間表示装置の他者情報受信部に送信するデータ送信処理
をコンピュータに実行させるための3次元仮想空間表示
プログラムを記録した記録媒体。
11. A program for displaying a three-dimensional virtual space in a three-dimensional virtual space system in which a plurality of users communicate via a communication line and share a three-dimensional virtual space, comprising: Gaze direction input processing to input, initial input face image processing to create a 3D model that resembles the photographed operator in the virtual space, and the state of the operator's face taken from any face image photographing unit A display face direction determination process for determining whether to display in a virtual space displayed on a terminal used by the operator other than the operator; a gaze direction input in the gaze direction input process; A three-dimensional face model, a real face image photographed by the face image photographing unit determined by the display face direction determination processing, or a real face image photographed from all directions, among the photographed real face images A recording medium recording a three-dimensional virtual space display program for executing a data transmission process to the computer to be transmitted to another person information receiving unit of the three-dimensional virtual reality display device.
【請求項12】 請求項11記載のデータ送信処理から
送信されたデータを受信するデータ受信処理と、 仮想空間および操作者の分身の状況に応じて、実写顔映
像と3次元CG胴体モデルを合成したものを表示するか、
実写顔映像から作成した3次元CG顔モデルと3次元CG胴
体モデルを表示するかを決定する顔表示方法判定処理
と、 前者の顔表示方法が選択された場合に、操作者の背景を
除去し、3次元CG胴体モデルと表示上適切な位置となる
ように表示するための顔映像の位置補正を行い、顔映像
を表示する顔映像表示処理と、 請求項11のデータ送信処理から全ての方向から撮影さ
れた操作者の実写顔映像が送信されてきた場合に、仮想
空間中での他の操作者の分身との相対位置および方向に
基づいて、その相手のどの実写顔映像を表示するかを決
定する表示顔方向判処理と、 前記顔表示方法判定処理において後者の顔表示方法が選
択された場合に、前記初期入力顔映像処理で作成された
顔モデルを表示する顔モデル表示処理をコンピュータに
実行させるための3次元仮想空間表示プログラムを記録
した記録媒体。
12. A data receiving process for receiving data transmitted from the data transmitting process according to claim 11, and synthesizing a real face image and a three-dimensional CG torso model according to a virtual space and a situation of an alter ego of an operator. Display what you did,
A face display method determination process for determining whether to display a 3D CG face model and a 3D CG torso model created from a live-action face image, and removing the operator's background when the former face display method is selected. 12. A face image display process for correcting a position of a face image for displaying an appropriate position on the display with the three-dimensional CG torso model, and displaying the face image; and all directions from the data transmission process of claim 11. Which live-action face image of the other party is displayed based on the relative position and direction of another operator in the virtual space when the live-action face image of the operator taken from is transmitted And a face model display process for displaying a face model created in the initial input face image process when the latter face display method is selected in the face display method determination process. Let it run A recording medium recording a three-dimensional virtual space display program of the eye.
【請求項13】 前記顔モデル表示処理は、同じ仮想空
間に参加する他の操作者の発声を検知し、前記顔モデル
表示部に伝達する音圧検知部から発声が伝達されると、
開口している顔モデルを表示する、請求項12記載の記
録媒体。
13. The face model display process detects an utterance of another operator participating in the same virtual space, and, when an utterance is transmitted from a sound pressure detection unit to be transmitted to the face model display unit,
13. The recording medium according to claim 12, wherein an open face model is displayed.
【請求項14】 前記初期入力顔映像処理は、操作者の
顔を撮影し、撮影した映像から顔の領域を抽出し、抽出
した顔領域の中で両眼および口の位置を特定し、撮影し
た映像中の両眼の距離、および眼から口までの距離に基
づいて、予め一般化3次元頭部CGモデルの大きさを操作
者の顔の縮尺に適合するように伸縮して調節、調節した
顔モデルに抽出した顔領域を貼り付ける、請求項11記
載の記録媒体。
14. The initial input face image processing includes photographing an operator's face, extracting a face region from the photographed image, specifying the positions of both eyes and a mouth in the extracted face region, and photographing. The size of the generalized 3D head CG model is adjusted and adjusted in advance based on the distance between the eyes and the distance from the eyes to the mouth in the image to fit the scale of the operator's face 12. The recording medium according to claim 11, wherein the extracted face area is pasted on the extracted face model.
【請求項15】 前記顔映像表示処理は、まず、初期入
力顔映像を第1フレーム、初期入力顔映像を撮影した直
後に撮影した顔映像を第2フレームとし、初期入力顔映
像から抽出した顔領域の平均色相を記録しておき、第1
フレームと第2フレームの差分をとった差分映像を用意
し、第2フレームについて色相による領域分割を行い、
第1フレームの顔領域と重なりが大きい領域、かつ第2
フレームの領域の平均色相が記録した第1フレームの平
均色相に最も近い領域を第2フレームから抽出し、第2
フレームにおける顔領域と、この抽出した領域の平均色
相を新たに次の処理のための第1フレームの平均色相と
して記録しておく。その後、差分映像と重なりが大きい
領域のうち、第2フレームにおける顔領域と隣接する領
域を抽出し、抽出した領域に位置および大きさの補正を
行った後表示することを、前記第2のフレームを新たに
第1フレーム、前記第2フレームの直後に撮影された映
像を新たに第2フレームとして繰り返す、請求項12ま
たは13に記載の記録媒体。
15. The face image display process includes: setting an initial input face image as a first frame, a face image captured immediately after capturing the initial input face image as a second frame, and extracting a face extracted from the initial input face image. Record the average hue of the area,
Prepare a difference video obtained by taking the difference between the frame and the second frame, perform region division on the second frame by hue,
An area having a large overlap with the face area of the first frame, and
An area where the average hue of the area of the frame is closest to the average hue of the recorded first frame is extracted from the second frame.
The face area in the frame and the average hue of the extracted area are newly recorded as the average hue of the first frame for the next processing. After that, among the areas having a large overlap with the difference image, an area adjacent to the face area in the second frame is extracted, and the extracted area is displayed after correcting the position and size of the extracted area. 14. The recording medium according to claim 12, further comprising: repeating a new image as a first frame and a video shot immediately after the second frame as a new second frame.
JP26565399A 1999-09-20 1999-09-20 Three-dimensional virtual space participant display method, three-dimensional virtual space display device and recording medium stored with three-dimensional virtual space participant display program Pending JP2001092990A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP26565399A JP2001092990A (en) 1999-09-20 1999-09-20 Three-dimensional virtual space participant display method, three-dimensional virtual space display device and recording medium stored with three-dimensional virtual space participant display program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP26565399A JP2001092990A (en) 1999-09-20 1999-09-20 Three-dimensional virtual space participant display method, three-dimensional virtual space display device and recording medium stored with three-dimensional virtual space participant display program

Publications (1)

Publication Number Publication Date
JP2001092990A true JP2001092990A (en) 2001-04-06

Family

ID=17420133

Family Applications (1)

Application Number Title Priority Date Filing Date
JP26565399A Pending JP2001092990A (en) 1999-09-20 1999-09-20 Three-dimensional virtual space participant display method, three-dimensional virtual space display device and recording medium stored with three-dimensional virtual space participant display program

Country Status (1)

Country Link
JP (1) JP2001092990A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010017360A (en) * 2008-07-10 2010-01-28 Sega Corp Game device, game control method, game control program, and recording medium recording the program
JP2010510587A (en) * 2006-11-15 2010-04-02 アイアム・エンタープライジーズ How to create, manufacture and distribute 3D models
JP2012088777A (en) * 2010-10-15 2012-05-10 Nintendo Co Ltd Image processing program, image processing device, image processing system, and image processing method
WO2012160899A1 (en) * 2011-05-23 2012-11-29 ソニー株式会社 Information processing device, information processing method, and computer program
WO2017094543A1 (en) * 2015-12-02 2017-06-08 セイコーエプソン株式会社 Information processing device, information processing system, method for controlling information processing device, and method for setting parameter
CN113760083A (en) * 2020-06-01 2021-12-07 张也弛 Method and device for determining position of landing point of operator sight on screen of terminal equipment

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010510587A (en) * 2006-11-15 2010-04-02 アイアム・エンタープライジーズ How to create, manufacture and distribute 3D models
JP2010017360A (en) * 2008-07-10 2010-01-28 Sega Corp Game device, game control method, game control program, and recording medium recording the program
JP2012088777A (en) * 2010-10-15 2012-05-10 Nintendo Co Ltd Image processing program, image processing device, image processing system, and image processing method
US9737814B2 (en) 2010-10-15 2017-08-22 Nintendo Co., Ltd. Computer readable medium storing image processing program of synthesizing images
WO2012160899A1 (en) * 2011-05-23 2012-11-29 ソニー株式会社 Information processing device, information processing method, and computer program
WO2017094543A1 (en) * 2015-12-02 2017-06-08 セイコーエプソン株式会社 Information processing device, information processing system, method for controlling information processing device, and method for setting parameter
CN113760083A (en) * 2020-06-01 2021-12-07 张也弛 Method and device for determining position of landing point of operator sight on screen of terminal equipment

Similar Documents

Publication Publication Date Title
US11089266B2 (en) Communication processing method, terminal, and storage medium
JP4310916B2 (en) Video display device
CN109952759B (en) Improved method and system for video conferencing with HMD
US6583808B2 (en) Method and system for stereo videoconferencing
CN103595953B (en) A kind of method and apparatus for controlling video capture
CN108076307B (en) AR-based video conference system and AR-based video conference method
US20150215581A1 (en) Enhanced communication between remote participants using augmented and virtual reality
WO2017094543A1 (en) Information processing device, information processing system, method for controlling information processing device, and method for setting parameter
CN106385576A (en) Three-dimensional virtual reality live method and device, and electronic device
JP4144492B2 (en) Image display device
JP2000165831A (en) Multi-point video conference system
CN110401810B (en) Virtual picture processing method, device and system, electronic equipment and storage medium
JP2019220848A (en) Data processing apparatus, data processing method and program
WO2017141584A1 (en) Information processing apparatus, information processing system, information processing method, and program
JPH08205197A (en) Human interface device
JP3488096B2 (en) Face image control method in three-dimensional shared virtual space communication service, three-dimensional shared virtual space communication device, and program recording medium therefor
CN111163280B (en) Asymmetric video conference system and method thereof
JP3610423B2 (en) Video display system and method for improving its presence
JP2001136501A (en) Sight line match video conference apparatus
JP2003009108A (en) Picture communication system, picture communication equipment and picture communication method
WO2016159165A1 (en) Image display system and image display method
JP2001092990A (en) Three-dimensional virtual space participant display method, three-dimensional virtual space display device and recording medium stored with three-dimensional virtual space participant display program
JP5813542B2 (en) Image communication system, AR (Augmented Reality) video generation device, and program
JP5894505B2 (en) Image communication system, image generation apparatus, and program
JPH08256316A (en) Communication conference system