JP2007207278A - Virtual reality space sharing system - Google Patents

Virtual reality space sharing system Download PDF

Info

Publication number
JP2007207278A
JP2007207278A JP2007122110A JP2007122110A JP2007207278A JP 2007207278 A JP2007207278 A JP 2007207278A JP 2007122110 A JP2007122110 A JP 2007122110A JP 2007122110 A JP2007122110 A JP 2007122110A JP 2007207278 A JP2007207278 A JP 2007207278A
Authority
JP
Japan
Prior art keywords
facial expression
virtual reality
reality space
operator
server
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007122110A
Other languages
Japanese (ja)
Other versions
JP4544262B2 (en
Inventor
Yuki Koga
有希 甲賀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2007122110A priority Critical patent/JP4544262B2/en
Publication of JP2007207278A publication Critical patent/JP2007207278A/en
Application granted granted Critical
Publication of JP4544262B2 publication Critical patent/JP4544262B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To naturally change the expression of an object according to an operator's intention without performing complicated operation in a virtual reality space sharing system in which two or more operators can share a virtual reality space through a network and can move the avator object of each operator in the virtual reality space. <P>SOLUTION: Respective client terminals 3 and 4 detect the expressions of the faces of the operators 3A and 4A of the respective client terminals 3 and 4. Data of the detected expression is sent to a server side by expression data transmission means 3b and 4b. The server side 2 instructs to change the expressions of the objects corresponding to the operators on the screens 3d and 4d of the respective client terminals 3 and 4 based on the data of the sent expressions. The respective client terminals 3 and 4 receiving it change the pictures of the objects on the screens 3d and 4d of each according to the instruction from the server. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明はネットワークを介して複数の操作者が仮想現実空間を共有する仮想現実空間共有システムに関し、特に各操作者の分身のオブジェクトを仮想現実空間内で動かすことのできる仮想現実空間共有システムに関する。   The present invention relates to a virtual reality space sharing system in which a plurality of operators share a virtual reality space via a network, and more particularly to a virtual reality space sharing system that can move an individual object of each operator in the virtual reality space.

従来、仮想現実空間を複数の操作者が共有し、その空間の中で各操作者の分身のオブジェクトを自由に動かして、操作者間でコミュニケーションを図ることのできる仮想現実空間共有システムがある(例えば特開平9−081782号公報)。このようなシステムでは、ある操作者が自身の分身のオブジェクトの表情や動きを変化させたい場合に、そのクライアント端末上で変化の指示を出す。そして、この指示を受け取ったサーバ側が、他のクライアント端末にそのオブジェクトの表情や動きの変化の指示を出し、これにより、他のクライアント端末が、それぞれの画面上で、対応するオブジェクトの表情や動きを変化させる。   Conventionally, there is a virtual reality space sharing system that allows a plurality of operators to share a virtual reality space and freely move an individual object of each operator in the space to communicate between the operators ( For example, JP-A-9-081782). In such a system, when an operator wants to change the facial expression or movement of an object of his / her own part, a change instruction is issued on the client terminal. Then, the server side that has received this instruction issues an instruction to change the facial expression and movement of the object to the other client terminal, whereby the other client terminal displays the facial expression and movement of the corresponding object on each screen. To change.

しかし、このような従来の仮想現実空間共有システムでは、操作者が、クライアント端末上でマウスなどを使用して、希望する表情を選択し、指示するようになっていたため、操作が面倒であり、オブジェクトの表情の変化を自然に行うことができなかった。   However, in such a conventional virtual reality space sharing system, the operator uses a mouse or the like on the client terminal to select and instruct the desired facial expression, so the operation is troublesome, It was not possible to change the expression of objects naturally.

本発明はこのような点に鑑みてなされたものであり、複雑な操作を行うことなく、オブジェクトの表情を操作者の意思通りに自然に変化させることのできる仮想現実空間共有システムを提供することを目的とする。   The present invention has been made in view of the above points, and provides a virtual reality space sharing system that can naturally change the facial expression of an object as desired by an operator without performing a complicated operation. With the goal.

本発明では上記課題を解決するために、ネットワークを介して複数の操作者が仮想現実空間を共有できるとともに各操作者の分身のオブジェクトを仮想現実空間内で動かせるようにした仮想現実空間共有システムにおいて、前記仮想現実空間を提供するサーバと、前記ネットワークを介して前記サーバから前記仮想現実空間の提供を受けるクライアントと、前記クライアントの操作者の顔の表情を検出する表情検出手段と、前記クライアントにおいて、前記検出された表情のデータを前記サーバ側に送る表情データ送信手段と、前記サーバにおいて、前記送信された表情のデータに基づいて、各クライアントの画面上の前記操作者に対応するオブジェクトの表情を変化させる指令を行う表情変化指令手段と、前記各クライアントにおいて、前記サーバからの指令に応じて各自の画面上の前記オブジェクトの画像を変化させる画像変化手段とを有することを特徴とする仮想現実空間共有システムが提供される。   In the present invention, in order to solve the above-described problem, in a virtual reality space sharing system in which a plurality of operators can share a virtual reality space via a network, and a separate object of each operator can be moved in the virtual reality space. A server that provides the virtual reality space; a client that receives the provision of the virtual reality space from the server via the network; a facial expression detection unit that detects facial expressions of the operator of the client; and the client Facial expression data transmitting means for transmitting the detected facial expression data to the server side, and in the server, based on the transmitted facial expression data, the facial expression of the object corresponding to the operator on the screen of each client A facial expression change command means for giving a command to change the Virtual reality space sharing system and having an image changing means for changing the image of the object on each of the screen in response to a command from the server is provided.

このような仮想現実空間共有システムでは、まず、サーバによって、ネットワークを介して各クライアントに対して仮想現実空間が提供される。各クライアント側では、表情検出手段がクライアントの操作者の顔の表情を検出する。そして、この検出された表情のデータを表情データ送信手段がサーバ側に送る。   In such a virtual reality space sharing system, first, a virtual reality space is provided to each client by a server via a network. On each client side, facial expression detection means detects the facial expression of the operator of the client. Then, the facial expression data transmitting means sends the detected facial expression data to the server side.

サーバでは、表情変化指令手段が、送信された表情のデータに基づいて、各クライアントの画面上の操作者に対応するオブジェクトの表情を変化させる指令を行う。これを受けた各クライアントでは、画像変化手段が、サーバからの指令に応じて各自の画面上のオブジェクトの画像を変化させる。   In the server, the facial expression change commanding unit issues a command to change the facial expression of the object corresponding to the operator on the screen of each client based on the transmitted facial expression data. In each client that receives this, the image changing means changes the image of the object on its own screen in response to a command from the server.

本発明では、各クライアントの操作者の顔の表情を検出し、検出された表情に応じて各クライアントの画面上のオブジェクトの画像を変化させるようにしたので、複雑な操作を行うことなく、オブジェクトの表情を操作者の意思通りに自然に変化させることができる。よって、より現実味のあるコミュニケーションが図れる。   In the present invention, the facial expression of the operator of each client is detected, and the image of the object on the screen of each client is changed according to the detected facial expression. Can be changed naturally as the operator wishes. Therefore, more realistic communication can be achieved.

以下、本発明の一形態を図面を参照して説明する。
図1は本形態の仮想現実空間共有システムの機能の概念を示すブロック図である。ネットワーク1には、サーバ端末2、多数のクライアント端末3,4などが接続されている。各クライアント端末3,4には、CCDカメラや表情検出回路からなる表情検出手段3a,4aが設けられている。これら表情検出手段3a,4aは、各クライアント端末3,4の操作者3A,4Aの顔の表情が、例えば、笑顔、怒り顔、泣き顔、驚きの顔のいずれであるかを検出する。表情検出手段3a,4aによって検出された表情のデータは、表情データ送信手段3b,4bがサーバ側に送る。ただし、この場合、操作者3A,4Aの顔の表情に変化があったときのみ表情のデータを送信することが好ましい。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram showing a concept of functions of the virtual reality space sharing system of this embodiment. A server terminal 2 and a large number of client terminals 3 and 4 are connected to the network 1. Each client terminal 3, 4 is provided with facial expression detection means 3 a, 4 a comprising a CCD camera and facial expression detection circuit. These facial expression detection means 3a and 4a detect whether the facial expression of the operators 3A and 4A of the client terminals 3 and 4 is, for example, a smile, an angry face, a crying face, or a surprised face. Expression data detected by the expression detection means 3a, 4a is sent to the server by the expression data transmission means 3b, 4b. However, in this case, it is preferable to transmit facial expression data only when the facial expressions of the operators 3A and 4A change.

サーバ端末2側では、表情変化指令手段2aが、送信された表情のデータに基づいて、各クライアント端末3,4の画面3d,4d上の操作者に対応するオブジェクトの表情を変化させる指令を行う。これを受けた各クライアント端末3,4では、画像変化手段3c,4cが、サーバからの指令に応じて各自の画面3d,4d上のオブジェクトの画像を変化させる。ただし、サーバ端末2に表情のデータを送ったクライアント端末においては、サーバ端末2からの指令を待たずに、自身の画面上の表示を変化させることが好ましい。   On the server terminal 2 side, the facial expression change command means 2a instructs to change the facial expression of the object corresponding to the operator on the screens 3d and 4d of the client terminals 3 and 4 based on the transmitted facial expression data. . In the client terminals 3 and 4 that have received this, the image changing means 3c and 4c change the image of the object on their own screens 3d and 4d in response to a command from the server. However, it is preferable that the client terminal that has sent facial expression data to the server terminal 2 changes the display on its own screen without waiting for a command from the server terminal 2.

図2は本形態の仮想現実空間共有システムの構成例を示すブロック図である。ここでは、例えば2台のサーバ端末12,13がインターネットなどのネットワーク11に接続されている。各サーバ端末12,13には、それぞれハードディスク装置などの記憶装置14,15が接続されている。記憶装置14,15には、仮想現実空間共有システムのプログラムが格納されており、ネットワーク11を介してクライアント端末16,17,18に仮想現実空間を提供できるようになっている。   FIG. 2 is a block diagram showing a configuration example of the virtual reality space sharing system of this embodiment. Here, for example, two server terminals 12 and 13 are connected to a network 11 such as the Internet. Storage devices 14 and 15 such as hard disk devices are connected to the server terminals 12 and 13, respectively. The storage devices 14 and 15 store the virtual reality space sharing system program, and can provide the virtual reality space to the client terminals 16, 17, and 18 via the network 11.

仮想現実空間は、各クライアント端末16,17,18の後述のモニタ上で画像表示される。この仮想現実空間では、各クライアント端末16,17,18を操作する操作者の分身のオブジェクトが表示され、キーボードやマウスなどを操作することにより、空間内でその体の各部や顔の表情を自由に動かすことができる。また、操作者の分身のオブジェクト以外にも、背景の建物なども動かすことができる。   The virtual reality space is displayed as an image on a monitor, which will be described later, of each client terminal 16, 17, 18. In this virtual reality space, an object of the operator who operates each of the client terminals 16, 17 and 18 is displayed, and by operating a keyboard, a mouse, etc., various parts of the body and facial expressions can be freely set in the space. Can be moved to. In addition to the object of the operator, the background building can also be moved.

また、ネットワーク11には、複数のサービス提供者端末19,20が接続されている。サービス提供者端末19,20は、ネットワーク11を介して仮想現実空間の提供を受けるとともに、クライアント端末16,17,18に対して所定のサービスを提供できるようになっている。   A plurality of service provider terminals 19 and 20 are connected to the network 11. The service provider terminals 19 and 20 are provided with a virtual reality space via the network 11 and can provide predetermined services to the client terminals 16, 17 and 18.

次に、各端末の具体的な構成について説明する。
図3はサーバ端末12の具体的な構成を示すブロック図である。バス30には、CPU21、ROM22、RAM23、通信装置24、インタフェース25などが接続されている。CPU21は、ROM22に内蔵されたプログラムに従ってサーバ端末12全体の動作を制御する。RAM23には、CPU21が各種の処理を実行する上で必要なデータ、プログラムなどが適宜格納されるようになっている。通信装置24は、ネットワーク11との間でデータの授受を行う。
Next, a specific configuration of each terminal will be described.
FIG. 3 is a block diagram showing a specific configuration of the server terminal 12. A CPU 21, ROM 22, RAM 23, communication device 24, interface 25, and the like are connected to the bus 30. The CPU 21 controls the operation of the entire server terminal 12 according to a program built in the ROM 22. The RAM 23 appropriately stores data, programs, and the like necessary for the CPU 21 to execute various processes. The communication device 24 exchanges data with the network 11.

インタフェース25には、記憶装置14、表示装置26、マイク27、スピーカ28、入力装置29が接続されている。記憶装置14は、ハードディスク、光ディスク、光磁気ディスクなどであり、仮想現実空間の提供に必要なプログラムやデータが格納されている。表示装置26は、CRT、LCDなどからなり、サーバ端末12が提供する仮想現実空間の画像などが表示される。   The storage device 14, display device 26, microphone 27, speaker 28, and input device 29 are connected to the interface 25. The storage device 14 is a hard disk, an optical disk, a magneto-optical disk, or the like, and stores programs and data necessary for providing a virtual reality space. The display device 26 includes a CRT, an LCD, and the like, and displays an image of the virtual reality space provided by the server terminal 12.

マイク27からは、必要な音声信号が入力され、クライアント端末16,17,18やサービス提供者端末19,20に供給される。一方、クライアント端末16,17,18やサービス提供者端末19,20から供給された音声信号は、スピーカ28から出力される。   Necessary audio signals are input from the microphone 27 and supplied to the client terminals 16, 17, 18 and the service provider terminals 19, 20. On the other hand, audio signals supplied from the client terminals 16, 17, 18 and the service provider terminals 19, 20 are output from the speaker 28.

入力装置29には、マウス29a、キーボード29bが備えられている。これらマウス29a、キーボード29bによって、必要な指令が行われる。
なお、サーバ端末13の構成は、サーバ端末12とほぼ同じなのでここでは説明を省略する。
The input device 29 includes a mouse 29a and a keyboard 29b. Necessary commands are issued by the mouse 29a and the keyboard 29b.
Since the configuration of the server terminal 13 is almost the same as that of the server terminal 12, the description thereof is omitted here.

図4はクライアント端末16の具体的な構成を示すブロック図である。バス43には、CPU31、ROM32、RAM33、通信装置34、インタフェース35などが接続されている。CPU31は、ROM32に内蔵されたプログラムに従ってクライアント端末16全体の動作を制御する。また、ROM32には、後述する操作者の分身のオブジェクトの顔の画像データが格納されている。RAM33には、CPU31が各種の処理を実行する上で必要なデータ、プログラムなどが適宜格納されるようになっている。通信装置34は、ネットワーク11との間でデータの授受を行う。   FIG. 4 is a block diagram showing a specific configuration of the client terminal 16. A CPU 31, ROM 32, RAM 33, communication device 34, interface 35, etc. are connected to the bus 43. The CPU 31 controls the overall operation of the client terminal 16 according to a program built in the ROM 32. The ROM 32 stores image data of the face of an operator's alternation object, which will be described later. The RAM 33 appropriately stores data, programs, and the like necessary for the CPU 31 to execute various processes. The communication device 34 exchanges data with the network 11.

インタフェース35には、表示装置36、マイク37、スピーカ38、記憶装置39、入力装置40が接続されている。表示装置36は、CRT、LCDなどからなり、CG(コンピュータ・グラフィック)の3次元画像や、通常のビデオカメラなどにより撮影された画像が表示される。マイク37からは、必要な音声信号が入力され、ネットワーク11を介してサーバ端末12,13に供給される。一方、サーバ端末12,13から供給された音声信号は、スピーカ38から出力される。記憶装置39は、ハードディスク、光ディスク、光磁気ディスクなどであり、仮想現実空間での各オブジェクトの移動操作などに必要なプログラムやデータが格納されている。   A display device 36, a microphone 37, a speaker 38, a storage device 39, and an input device 40 are connected to the interface 35. The display device 36 includes a CRT, an LCD, and the like, and displays a CG (computer graphic) three-dimensional image and an image taken by a normal video camera or the like. A necessary audio signal is input from the microphone 37 and supplied to the server terminals 12 and 13 via the network 11. On the other hand, the audio signal supplied from the server terminals 12 and 13 is output from the speaker 38. The storage device 39 is a hard disk, an optical disk, a magneto-optical disk, or the like, and stores programs and data necessary for an operation of moving each object in the virtual reality space.

入力装置40には、マウス40a、キーボード40bが備えられている。マウス40aは、所定の位置を指定するときなどに使用される。キーボード40bは、所定の文字や記号などを入力するときに使用される。また、入力装置40には、視点入力装置40c、移動入力装置40dが設けられている。視点入力装置40cは、クライアント端末12の操作者の分身のオブジェクトの仮想現実空間内での視点を入力するときに使用される。これにより、オブジェクトの視点を上下左右に移動させたり、オブジェクトの視線の先の画像をズームすることができる。移動入力装置40dは、オブジェクトを前後左右に移動させるときに使用される。   The input device 40 includes a mouse 40a and a keyboard 40b. The mouse 40a is used when a predetermined position is designated. The keyboard 40b is used when inputting predetermined characters and symbols. The input device 40 includes a viewpoint input device 40c and a movement input device 40d. The viewpoint input device 40c is used when inputting a viewpoint in the virtual reality space of an object of the operator of the client terminal 12. Thereby, the viewpoint of the object can be moved up, down, left, and right, and the image ahead of the line of sight of the object can be zoomed. The movement input device 40d is used when the object is moved back and forth and left and right.

また、インタフェース35には、CCDカメラ41および表情検出回路42が接続されている。CCDカメラ41は、クライアント端末16の操作者の顔を常時撮影している。この撮影された映像信号は、一定時間毎に表情検出回路42に取り込まれる。表情検出回路42は、この映像信号に基づいて、操作者の顔の表情を後述する手順により検出し、その結果をサーバ側に送る。   In addition, a CCD camera 41 and a facial expression detection circuit 42 are connected to the interface 35. The CCD camera 41 always captures the face of the operator of the client terminal 16. The photographed video signal is taken into the facial expression detection circuit 42 at regular intervals. The facial expression detection circuit 42 detects the facial expression of the operator based on the video signal by a procedure described later, and sends the result to the server side.

なお、クライアント端末17,18の構成は、クライアント端末16とほぼ同じなのでここでは説明を省略する。
また、サービス提供者端末19,20については、CCDカメラ41および表情検出回路42以外はクライアント端末16とほぼ同じ構成なので、ここでは説明を省略する。
Note that the configuration of the client terminals 17 and 18 is almost the same as that of the client terminal 16, and thus the description thereof is omitted here.
Since the service provider terminals 19 and 20 have substantially the same configuration as the client terminal 16 except for the CCD camera 41 and the expression detection circuit 42, the description thereof is omitted here.

次に、表情検出回路42の具体的な構成について説明する。
図5は表情検出回路42の具体的な構成を示すブロック図である。ローパスフィルタ(LPF)421は、CCDカメラ41から入力された映像信号の高域成分を除去する。人間の顔には毛穴、細かい皺などがあるため、CCDカメラ41からの映像信号には、高域成分が大量に含まれている。このため、ローパスフィルタ421は、この高域成分を除去する。エッジ検出回路422は、ローパスフィルタ421から出力されたアナログ信号をディジタル信号に変換し、そのディジタル信号からエッジ検出を行い、さらに、エッジのみにされた映像データを出力する。
Next, a specific configuration of the facial expression detection circuit 42 will be described.
FIG. 5 is a block diagram showing a specific configuration of the facial expression detection circuit 42. The low pass filter (LPF) 421 removes the high frequency component of the video signal input from the CCD camera 41. Since the human face has pores, fine wrinkles, etc., the video signal from the CCD camera 41 contains a large amount of high frequency components. For this reason, the low pass filter 421 removes this high frequency component. The edge detection circuit 422 converts the analog signal output from the low-pass filter 421 into a digital signal, performs edge detection from the digital signal, and outputs video data with only edges.

パターンマッチング回路423は、メモリ424に予め格納されている操作者の顔の基本データとして、無表情の顔のデータを読み出し、エッジ検出回路422からのデータと比較してパターンマッチングを行い、操作者の撮影された顔の位置と大きさを調整する。すなわち、操作者は、仮想現実空間を利用している間、顔の位置が上下左右、または前後に動いてしまい、基本データの顔の座標位置や大きさが異なってしまう。これでは、正確に現在の顔の表情を捉えることができなくなる。したがって、パターンマッチング回路423では、エッジ検出回路422からの1フレーム分のデータを基本データと比較し、撮影された操作者の顔が基本データに対して前後、左右、上下にどれだけ移動しているかを検出する。そして、その移動量に基づいて撮影された操作者の顔のデータを基本データと同じ条件に補正する。   The pattern matching circuit 423 reads out expressionless face data as basic data of the operator's face stored in advance in the memory 424, and performs pattern matching in comparison with the data from the edge detection circuit 422. Adjust the position and size of the face taken. That is, while using the virtual reality space, the operator moves the face position up and down, left and right, or back and forth, and the face coordinate position and size of the basic data differ. This makes it impossible to accurately capture the current facial expression. Therefore, the pattern matching circuit 423 compares the data for one frame from the edge detection circuit 422 with the basic data, and how much the photographed operator's face moves back and forth, left and right, and up and down with respect to the basic data. Detect whether or not The operator's face data photographed based on the movement amount is corrected to the same conditions as the basic data.

ところで、メモリ424には、基本データとして、操作者の無表情の顔のデータが格納されているが、顔の表情を特徴づける特徴部分の位置データも格納されている。   By the way, the memory 424 stores, as basic data, data of an operator's expressionless face, but also stores position data of characteristic portions that characterize facial expressions.

図6はメモリ424に格納された操作者の顔の基本データの一例を示す図である。顔の基本データ51は、メモリ424に格納されている。また、顔の表情を特徴づける特徴部分として、例えば、左眉左端(点P1)、左眉右端(点P2)、口角左(点P3)、口角右(点P4)、口中央上端(点P5)、右目尻(点P6)、左目尻(点P7)の各位置が格納されている。各点P1〜P7は、例えば、フレーム上のXY座標で格納されている。   FIG. 6 is a diagram showing an example of basic data of the operator's face stored in the memory 424. The basic face data 51 is stored in the memory 424. Further, as characteristic portions characterizing facial expressions, for example, left eyebrow left end (point P1), left eyebrow right end (point P2), mouth corner left (point P3), mouth corner right (point P4), mouth center upper end (point P5) ), The positions of the right eye corner (point P6) and the left eye corner (point P7). The points P1 to P7 are stored, for example, in XY coordinates on the frame.

図5に戻り、動きベクトル検出回路425は、パターンマッチング回路423によって大きさや位置が調整された操作者の顔のデータと、メモリ424の基本データ51とを比較し、操作者の顔のデータの図6で示した点P1〜P7に対応する点がどれだけ移動しているかを検出する。   Returning to FIG. 5, the motion vector detection circuit 425 compares the face data of the operator whose size and position are adjusted by the pattern matching circuit 423 with the basic data 51 of the memory 424, and It is detected how much the points corresponding to the points P1 to P7 shown in FIG. 6 have moved.

図7はCCDカメラ41で撮像した操作者の顔のデータの一例を示す図である。ここでは、笑顔の状態の例を示す。操作者の顔のデータ52は、動きベクトル検出回路425によって、左眉左端(点P11)、左眉右端(点P12)、口角左(点P13)、口角右(点P14)、口中央上端(点P15)、右目尻(点P16)、左目尻(点P17)の各特徴部分が検出され、これらはそれぞれ基本データ51上の対応する点P1〜P7と比較される。これらの比較により、動きベクトル検出回路425は、各点P11〜P17が基本データの対応する点P1〜P7からどれだけ動いたかを示す動きベクトルを検出する。これは、各点を含む近辺のいくつかのピクセルを含むブロックのブロックマッチングを行うことで達成される。   FIG. 7 is a diagram showing an example of operator's face data imaged by the CCD camera 41. Here, an example of a smile state is shown. The operator's face data 52 is detected by the motion vector detection circuit 425 by the left eyebrow left end (point P11), the left eyebrow right end (point P12), the mouth corner left (point P13), the mouth corner right (point P14), and the mouth center upper end (point P14). Point P15), right eye corner (point P16), and left eye corner (point P17) are detected and compared with the corresponding points P1 to P7 on the basic data 51, respectively. Based on these comparisons, the motion vector detection circuit 425 detects a motion vector indicating how much each of the points P11 to P17 has moved from the corresponding points P1 to P7 of the basic data. This is accomplished by performing block matching of a block containing several pixels in the vicinity containing each point.

図5に戻り、表情判断回路426は、動きベクトル検出回路425によって求められた動きベクトルと、表情テーブル427の表情判断用データとを比較して、現在の操作者の顔の表情を判断する。   Returning to FIG. 5, the facial expression determination circuit 426 compares the motion vector obtained by the motion vector detection circuit 425 with the facial expression determination data in the facial expression table 427 to determine the facial expression of the current operator.

図8は顔の表情を判断するための表情テーブル427の表情判断用データの一例を示す図である。表情判断用データ53は、図に示すように、判断すべき表情として「笑顔」、「怒り顔」、「泣き顔」、「驚きの顔」が用意され、それぞれに対して特徴部分の動きベクトルが適度な範囲で与えられている。表情判断回路426は、この表情判断用データ53の各表情において、動きベクトル検出回路425によって求められた各特徴部分の動きベクトルと最もマッチしている表情が、現在の操作者の顔の表情と判断する。すなわち、図7のデータ52であれば、「笑顔」と判断される。   FIG. 8 is a diagram showing an example of expression determination data in the expression table 427 for determining the facial expression. As shown in the figure, the facial expression judgment data 53 includes “smiling face”, “angry face”, “crying face”, and “surprise face” as facial expressions to be judged. It is given in a moderate range. The facial expression judgment circuit 426 has the facial expression that most closely matches the motion vector of each characteristic part obtained by the motion vector detection circuit 425 in each facial expression of the facial expression judgment data 53 as the facial expression of the current operator. to decide. That is, if it is the data 52 of FIG.

こうして表情の判断を行った表情判断回路426は、今回判断された表情が前回の判断と異なる場合のみ、その表情を示す表情コードを図4で示したインタフェース25に出力し、CPU31に送る。CPU31は、自身のクライアント端末の表情コードが出力されると、その表情コードに対応したオブジェクトの画像データをROM32から読み出し、表示装置36に表示させる。この場合、オブジェクトの顔の表情の画像を各表情コードに応じてROM32に記憶しておき、表情コードが出力される毎に対応する表情の画像をROM32から読み出して、画面上のオブジェクトの顔の部分に貼り付け表示するようにしてもよいし、あるいは、表情コードに対応する顔および体全体の動作をROM32に記憶しておき、例えば「泣き顔」の場合には涙を拭く動作をさせるなど、表情コードに合わせてオブジェクトを動かすようにしてもよい。   The facial expression determination circuit 426 that has determined the facial expression in this way outputs the facial expression code indicating the facial expression to the interface 25 shown in FIG. 4 and sends it to the CPU 31 only when the facial expression determined this time is different from the previous determination. When the facial expression code of its own client terminal is output, the CPU 31 reads the image data of the object corresponding to the facial expression code from the ROM 32 and causes the display device 36 to display it. In this case, the facial expression image of the object is stored in the ROM 32 in accordance with each facial expression code, and the corresponding facial expression image is read from the ROM 32 each time the facial expression code is output. It may be pasted and displayed on the part, or the operation of the face and the whole body corresponding to the expression code is stored in the ROM 32, for example, in the case of “crying face”, the operation of wiping tears, etc. The object may be moved according to the expression code.

このような画面の表示と同時に、CPU31は、表示コードを通信装置34、ネットワーク11を介してサーバ端末12に送る。これを受けたサーバ端末12は、ネットワーク11を介して他のクライアント端末17、18に、表情コードとその表示コードを出力したクライアントのIDを送る。   Simultaneously with the display of such a screen, the CPU 31 sends a display code to the server terminal 12 via the communication device 34 and the network 11. Receiving this, the server terminal 12 sends the expression code and the ID of the client that has output the display code to the other client terminals 17 and 18 via the network 11.

表情コードを受け取ったクライアント端末17、18は、その表情コードとクライアント端末16のIDに対応するオブジェクトをROMから読み出して各表示装置上で表示する。   Receiving the facial expression code, the client terminals 17 and 18 read the facial expression code and the object corresponding to the ID of the client terminal 16 from the ROM and display them on each display device.

図9は表情コードに関するクライアント端末側の処理手順を示すフローチャートである。〔S1〕自身の端末の表情検出回路42から表情コードが出力されたか否かを判断し、出力されればステップS2に進み、されなければステップS4に進む。〔S2〕表示装置36の画面上のオブジェクトの表情を、新たに出力された表情コードに対応する表情に切り換える。ただし、操作者自身のクライアント端末では、操作者の分身のオブジェクトは表示させず、操作者の視点からの仮想現実空間の景色のみを表示させるモードに設定されている場合には、当然、表情の切り換えは行われない。〔S3〕サーバ端末12側に表情コードを出力する。〔S4〕サーバ端末12から表情コードおよびクライアントIDが送られたかいなかを判断し、送られればステップS5に進み、送られなければ本フローチャートを終了する。〔S5〕サーバ端末12から送られたIDに対応するクライアント端末の分身のオブジェクトの表情を、同時に送られた表情コードに対応する表情に切り換える。   FIG. 9 is a flowchart showing a processing procedure on the client terminal side regarding the expression code. [S1] It is determined whether a facial expression code is output from the facial expression detection circuit 42 of its own terminal. If it is output, the process proceeds to step S2, and if not, the process proceeds to step S4. [S2] The expression of the object on the screen of the display device 36 is switched to the expression corresponding to the newly output expression code. However, if the operator's own client terminal is set to a mode in which only the scenery of the virtual reality space from the operator's viewpoint is displayed without displaying the operator's alternate object, of course, There is no switching. [S3] The facial expression code is output to the server terminal 12 side. [S4] It is determined whether the expression code and the client ID are sent from the server terminal 12. If sent, the process proceeds to step S5, and if not sent, this flowchart ends. [S5] The facial expression of the alternate object of the client terminal corresponding to the ID sent from the server terminal 12 is switched to the facial expression corresponding to the facial expression code sent simultaneously.

図10は表情コードに関するサーバ端末側の処理手順を示すフローチャートである。〔S11〕クライアント端末側から表情コードが入力されたか否かを判断し、入力されればステップS12に進み、入力されなければ本フローチャートを終了する。〔S12〕入力された表情コードを他のクライアント端末に送信する。   FIG. 10 is a flowchart showing a processing procedure on the server terminal side regarding the facial expression code. [S11] It is determined whether or not an expression code is input from the client terminal side. If it is input, the process proceeds to step S12. If not input, the process of the flowchart ends. [S12] The inputted facial expression code is transmitted to another client terminal.

このように、本形態では、各クライアント端末16,17,18の操作者の顔の表情をCCDカメラ41などで撮影し、その表情の変化に応じて、仮想現実空間内の各操作者の分身のオブジェクトの顔の表情を変化させるようにしたので、複雑な操作を行うことなく、オブジェクトの表情を操作者の意思通りに自然に変化させることができる。よって、より現実味のあるコミュニケーションが図れる。   As described above, in this embodiment, the facial expressions of the operators of the client terminals 16, 17, and 18 are photographed by the CCD camera 41 or the like, and the individual of each operator in the virtual reality space is changed according to the change of the facial expressions. Since the facial expression of the object is changed, it is possible to naturally change the facial expression of the object as the operator intends without performing a complicated operation. Therefore, more realistic communication can be achieved.

なお、本形態では、クライアント端末から表情コードが送られると、サーバ端末側では、他のクライアント端末に対して表情コードのみを送り、これを受けたクライアント端末側で送られた表情コードに対応する画像を自身のROM32から読み出して表示するようにしたが、全ての表示データをサーバ端末からクライアント端末に対して送信するようにしてもよい。   In this embodiment, when a facial expression code is sent from the client terminal, the server terminal side sends only the facial expression code to the other client terminal, and corresponds to the facial expression code sent on the client terminal side that received it. The image is read from its own ROM 32 and displayed, but all display data may be transmitted from the server terminal to the client terminal.

本形態の仮想現実空間共有システムの機能の概念を示すブロック図である。It is a block diagram which shows the concept of the function of the virtual reality space sharing system of this form. 本形態の仮想現実空間共有システムの構成例を示すブロック図である。It is a block diagram which shows the structural example of the virtual reality space sharing system of this form. サーバ端末の具体的な構成を示すブロック図である。It is a block diagram which shows the specific structure of a server terminal. クライアント端末の具体的な構成を示すブロック図である。It is a block diagram which shows the specific structure of a client terminal. 表情検出回路の具体的な構成を示すブロック図である。It is a block diagram which shows the specific structure of a facial expression detection circuit. メモリに格納された操作者の顔の基本データの一例を示す図である。It is a figure which shows an example of the basic data of the operator's face stored in memory. CCDカメラで撮像した操作者の顔のデータの一例を示す図である。It is a figure which shows an example of the data of the operator's face imaged with the CCD camera. 顔の表情を判断するための表情テーブルの表情判断用データの一例を示す図である。It is a figure which shows an example of the data for facial expression judgment of the facial expression table for judging the facial expression. 表情コードに関するクライアント端末側の処理手順を示すフローチャートである。It is a flowchart which shows the processing procedure by the client terminal side regarding an expression code. 表情コードに関するサーバ端末側の処理手順を示すフローチャートである。It is a flowchart which shows the process procedure by the side of the server terminal regarding an expression code.

符号の説明Explanation of symbols

22 カメラ, 23 メカキャプチャボタン, 28 LCD, 131 CPU, 136 表示制御部, 201 レンズ部, 202 CCD, 210 カメラ制御部, 211 レンズ部駆動回路, 221 EVFエリア, 227 ソフトキャプチャボタン, 260 スポット測光用ポインタ, 261 AF枠, 361 AE領域
1 ネットワーク、 2 サーバ端末、 2a 表情変化指令手段、 3 クライアント端末, 3A 操作者、 3a 表情検出手段、 3b 表情データ送信手段、 3c 画像変化手段、 3d モニタ、 11 ネットワーク、 12 , 13 サーバ端末、 14 , 15 記憶装置、 16 , 17 , 18 クライアント端末、 31 CPU、 32 ROM、 41 CCDカメラ、 42 表情検出回路。
22 camera, 23 mechanical capture button, 28 LCD, 131 CPU, 136 display control unit, 201 lens unit, 202 CCD, 210 camera control unit, 211 lens unit drive circuit, 221 EVF area, 227 soft capture button, 260 for spot metering Pointer, 261 AF frame, 361 AE area 1 network, 2 server terminal, 2a expression change command means, 3 client terminal, 3A operator, 3a expression detection means, 3b expression data transmission means, 3c image change means, 3d monitor, 11 Network, 12, 13 server terminal, 14, 15 storage device, 16, 17, 18 client terminal, 31 CPU, 32 ROM, 41 CCD camera, 42 facial expression detection circuit.

Claims (1)

ネットワークを介して複数の操作者が仮想現実空間を共有できるとともに各操作者の分身のオブジェクトを仮想現実空間内で動かせるようにした仮想現実空間共有システムにおいて、
前記仮想現実空間を提供するサーバと、
前記ネットワークを介して前記サーバから前記仮想現実空間の提供を受けるクライアントと、
前記クライアントの操作者の顔の表情を検出する表情検出手段と、
前記クライアントにおいて、前記検出された表情のデータを前記サーバ側に送る表情データ送信手段と、
前記サーバにおいて、前記送信された表情のデータに基づいて、各クライアントの画面上の前記操作者に対応するオブジェクトの表情を変化させる指令を行う表情変化指令手段と、
前記各クライアントにおいて、前記サーバからの指令に応じて各自の画面上の前記オブジェクトの画像を変化させる画像変化手段と
を有することを特徴とする仮想現実空間共有システム。
In a virtual reality space sharing system in which a plurality of operators can share a virtual reality space via a network, and a separate object of each operator can be moved in the virtual reality space.
A server for providing the virtual reality space;
A client that receives provision of the virtual reality space from the server via the network;
Facial expression detecting means for detecting facial expressions of the operator of the client;
In the client, facial expression data transmission means for sending the detected facial expression data to the server side;
In the server, based on the transmitted facial expression data, facial expression change command means for giving a command to change the facial expression of the object corresponding to the operator on the screen of each client;
The virtual reality space sharing system, wherein each client includes image changing means for changing an image of the object on its own screen in response to a command from the server.
JP2007122110A 2007-05-07 2007-05-07 Virtual reality space sharing system and method, and information processing apparatus and method Expired - Fee Related JP4544262B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007122110A JP4544262B2 (en) 2007-05-07 2007-05-07 Virtual reality space sharing system and method, and information processing apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007122110A JP4544262B2 (en) 2007-05-07 2007-05-07 Virtual reality space sharing system and method, and information processing apparatus and method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP27154497A Division JP4032403B2 (en) 1997-10-03 1997-10-03 Virtual reality space sharing system, virtual reality space sharing method, client, data transmission method, and recording medium on which data transmission program is recorded

Publications (2)

Publication Number Publication Date
JP2007207278A true JP2007207278A (en) 2007-08-16
JP4544262B2 JP4544262B2 (en) 2010-09-15

Family

ID=38486621

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007122110A Expired - Fee Related JP4544262B2 (en) 2007-05-07 2007-05-07 Virtual reality space sharing system and method, and information processing apparatus and method

Country Status (1)

Country Link
JP (1) JP4544262B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101619512B1 (en) 2010-06-14 2016-05-10 주식회사 비즈모델라인 Method for Interchanging between Augmented Reality Device

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101329935B1 (en) * 2011-01-27 2013-11-14 주식회사 팬택 Augmented reality system and method that share augmented reality service to remote using different marker

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05153581A (en) * 1991-12-02 1993-06-18 Seiko Epson Corp Face picture coding system
JPH05316491A (en) * 1992-05-07 1993-11-26 Seiko Epson Corp Portrait image encoding system
JPH07255044A (en) * 1993-12-17 1995-10-03 Mitsubishi Electric Corp Animated electronic conference room and video conference system and method
JPH08241430A (en) * 1995-03-06 1996-09-17 Nippon Telegr & Teleph Corp <Ntt> Three-dimensional virtual space sharing system
JPH0981782A (en) * 1995-07-12 1997-03-28 Sony Corp Method and system for three-dimensional virtual reality space, medium and method for recording information, medium and method for transmitting information, information processing method, client terminal, and common-use server terminal

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05153581A (en) * 1991-12-02 1993-06-18 Seiko Epson Corp Face picture coding system
JPH05316491A (en) * 1992-05-07 1993-11-26 Seiko Epson Corp Portrait image encoding system
JPH07255044A (en) * 1993-12-17 1995-10-03 Mitsubishi Electric Corp Animated electronic conference room and video conference system and method
JPH08241430A (en) * 1995-03-06 1996-09-17 Nippon Telegr & Teleph Corp <Ntt> Three-dimensional virtual space sharing system
JPH0981782A (en) * 1995-07-12 1997-03-28 Sony Corp Method and system for three-dimensional virtual reality space, medium and method for recording information, medium and method for transmitting information, information processing method, client terminal, and common-use server terminal

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
CSNH199700149010, 猪原徹, 原田勝利, "三次元ボイスチャット"OnLive!"", NEC技報, 19970130, 第50巻,第1号, p.59−63, 株式会社NECクリエイティブ *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101619512B1 (en) 2010-06-14 2016-05-10 주식회사 비즈모델라인 Method for Interchanging between Augmented Reality Device

Also Published As

Publication number Publication date
JP4544262B2 (en) 2010-09-15

Similar Documents

Publication Publication Date Title
US11089266B2 (en) Communication processing method, terminal, and storage medium
JP3847753B2 (en) Image processing apparatus, image processing method, recording medium, computer program, semiconductor device
CN110427110B (en) Live broadcast method and device and live broadcast server
US9602809B2 (en) Storage medium storing display control program for providing stereoscopic display desired by user with simpler operation, display control device, display control method, and display control system
JP2024050721A (en) Information processing device, information processing method, and computer program
CN112199016B (en) Image processing method, image processing device, electronic equipment and computer readable storage medium
CN109582122B (en) Augmented reality information providing method and device and electronic equipment
JPWO2005119591A1 (en) Display control method and apparatus, program, and portable device
JP7371264B2 (en) Image processing method, electronic equipment and computer readable storage medium
CN110290299B (en) Imaging method, imaging device, storage medium and electronic equipment
CN113875220B (en) Shooting anti-shake method, shooting anti-shake device, terminal and storage medium
WO2022161240A1 (en) Photographing method and apparatus, electronic device, and medium
CN111083371A (en) Shooting method and electronic equipment
CN112822544A (en) Video material file generation method, video synthesis method, device and medium
JP4544262B2 (en) Virtual reality space sharing system and method, and information processing apparatus and method
JP4689548B2 (en) Image processing apparatus, image processing method, recording medium, computer program, semiconductor device
JP4032403B2 (en) Virtual reality space sharing system, virtual reality space sharing method, client, data transmission method, and recording medium on which data transmission program is recorded
KR20110090623A (en) Home network terminal being capable of tracking face and method thereof
JP2015136069A (en) Video distribution system, video distribution method, and video distribution program
JP2022006502A (en) Program, head-mounted display and information processing device
US11816785B2 (en) Image processing device and image processing method
CN117499693A (en) Virtual live video generation method, device, equipment and readable storage medium
JP2023175503A (en) Image processing apparatus and its image processing method
CN117478931A (en) Information display method, information display device, electronic equipment and storage medium
CN114797091A (en) Cloud game split-screen display method, device, equipment and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100330

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100520

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100608

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100621

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130709

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130709

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees