JP2004040525A - Device and method for transmitting video signal - Google Patents

Device and method for transmitting video signal Download PDF

Info

Publication number
JP2004040525A
JP2004040525A JP2002195470A JP2002195470A JP2004040525A JP 2004040525 A JP2004040525 A JP 2004040525A JP 2002195470 A JP2002195470 A JP 2002195470A JP 2002195470 A JP2002195470 A JP 2002195470A JP 2004040525 A JP2004040525 A JP 2004040525A
Authority
JP
Japan
Prior art keywords
face
video signal
sender
circuit
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002195470A
Other languages
Japanese (ja)
Inventor
Takashi Yamaguchi
山口 孝
Shiro Omori
大森 士郎
Atsushi Sodeoka
袖岡 淳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2002195470A priority Critical patent/JP2004040525A/en
Publication of JP2004040525A publication Critical patent/JP2004040525A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To prevent the face of a talker from being displayed in a video telephone, or the like. <P>SOLUTION: An identifier attached to the face of the talker and for detecting the position and direction of the talker and a video camera 14 for imaging the talker are provided. A first circuit 11 for discriminating the position, size and direction of the face of the talker from image data of the identifier among video signals outputted from the video camera 14 and a second circuit 11 for forming image data of a face of a character whose size and direction are equal to those of the face of the talker discriminated by the first circuit 11 are provided. A third circuit 11 for substituting the face image data of the character formed by the second circuit 11 for the image data of the face of the talker is provided, and a video signal outputted from the third circuit 11 is transmitted. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
この発明は、映像信号の送出装置および送出方法に関する。
【0002】
【従来の技術】
通信やその環境の進化にともない、コミュニケーションは、これまでの音声だけのものから映像を取り込んだものへと変化している。いわゆるテレビ電話もそのうちの1つであり、このテレビ電話によれば、ディスプレイに映し出された相手の顔を見ながら通話をすることができる。
【0003】
また、IP電話あるいはインターネット電話においても、ADSL、CATV、FTTHなどのブロードバンド回線を使用すれば、テレビ電話を実現することができ、やはり双方が相手の顔を見ながら通話をすることができる。
【0004】
【発明が解決しようとする課題】
ところが、この映像を取り込んだコミュニケーションであっても、必ずしも自分の顔をそのまま見せたくはない場合がある。例えば、
▲1▼ インターネット家庭教師を利用したいが、顔を見せるのは恥ずかしい。
▲2▼ インターネットの利便性を利用して、未知の世界の人たちとも広くコミュニケーションをとりたいが、いきなり顔を知られるのは困る。
▲3▼ 擬似的な自分を作成して気軽にネットコミュニティを享受したい。
などの場合がある。
【0005】
この発明は、これらの場合に対処できるコミュニケーション装置を提供しようとするものである。
【0006】
【課題を解決するための手段】
この発明においては、例えば、
送話者の顔に装着されて上記送話者の顔の位置および向きを検出するための識別子と、
上記送話者を撮像するビデオカメラと、
このビデオカメラから出力される映像信号のうち、上記識別子の画像データから上記送話者の顔の位置、大きさおよび向きを判別する第1の回路と、
この第1の回路により判別された上記送話者の顔の大きさおよび向きと等しい大きさおよび向きのキャラクタの顔の画像データを形成する第2の回路と、
上記第1の回路の判別した上記送話者の顔の位置にしたがって、上記ビデオカメラから出力される映像信号のうち、上記送話者の顔の画像データを、上記第2の回路の形成した上記キャラクタの顔の画像データに置き換える第3の回路と
を有し、
上記第3の回路から出力される映像信号を送出する
ようにした映像信号の送出装置
とするものである。
したがって、相手のディスプレイには、送話者の顔がキャラクタの顔に置き換えられた画像が表示される。
【0007】
【発明の実施の形態】
図1は、この発明を、IP電話におけるテレビ電話機10に適用した場合の一例を示し、この電話機10は、制御回路11、送話器12、受話器13および各種の操作キー(操作スイッチ)16を有する。この場合、制御回路11は、図示はしないが、テレビ電話を実現するための各種のハードウェアおよびソフトウェアを有するものであり、例えば、マイクロコンピュータ、エンコーダ回路およびデコーダ回路、ネットワークコントローラなどを有する。そして、制御回路11は、この電話機10の全体の動作を制御するとともに、音声信号および映像信号のエンコード処理(データ圧縮)やデコード処理(データ伸長処理)などを実行する。また、制御回路11は、ネットワークコントローラを通じてネットワーク20に接続されている。
【0008】
そして、映像をともなわない通話の送話時には、送話器12からのアナログ音声信号が、制御回路11に供給されてA/D変換およびエンコード処理がされてからパケット化され、このパケットがネットワーク20に送り出される。また、受話時には、ネットワーク20を通じて送られてきたパケットが、制御回路11に供給されてデコード処理およびD/A変換されてもとのアナログ音声信号が取り出され、この音声信号が受話器13に供給される。
【0009】
さらに、制御回路11には、映像を送受信するためにビデオカメラ14およびディスプレイ15が接続される。そして、映像をともなう通話時には、送話者がビデオカメラ14により撮像され、その映像信号が制御回路11に供給されてA/D変換およびエンコード処理がされ、このエンコード処理された映像信号とエンコード処理された音声信号とがパケット化され、このパケットがネットワーク20に送り出される。また、相手からネットワーク20を通じて送られてきたパケットが、制御回路11に供給されてデコード処理およびD/A変換されてもとの音声信号および映像信号が取り出され、これら音声信号および映像信号が受話器13およびディスプレイ15に供給される。
【0010】
なお、この場合、例えば図2Aに示すように、ディスプレイ15のスクリーン15Sの表示はピクチャインピクチャとなり、その親画面に相手の顔が大きく表示されるとともに、子画面にビデオカメラ14の撮像した自分の顔、すなわち、相手に送信されている自分の顔が小さく表示される。また、所定のキー操作をすると、例えば図2Bに示すように、親画面の画像と子画面の画像とが入れ換わり、自分の顔が大きく表示されるとともに、相手の顔が小さく表示される。
【0011】
そして、上述の▲1▼〜▲3▼項などの要求を満たすため、この発明においては、ビデオカメラ14が撮像した送話者の顔をアニメーションによるキャラクタの顔に置き換えて相手に送出するものである。なお、以下の説明においては、このようにビデオカメラ14が撮像した送話者の顔をアニメーションによるキャラクタの顔に置き換えて相手に送出するテレビ電話モードを「キャラクタモード」と呼ぶものとする。
【0012】
そして、このキャラクタモードを実現するため、テレビ電話機10は、さらに次のように構成される。すなわち、制御回路11を構成するマイクロコンピュータには、このマイクロコンピュータが実行するプログラムの一部として例えば図3に示すルーチン100が用意される。このルーチン100は、詳細については後述するが、ビデオカメラ14の撮像した送話者の顔を、アニメーションによるキャラクタの顔に置き換えるためのものであり、例えば15回/1秒の割り合いで実行される。なお、図3においては、ルーチン100は、この発明に関係する部分だけを抜粋して示している。
【0013】
さらに、例えば図4に示すような眼鏡17が用意される。この眼鏡17は、送話者の顔の3次元的な位置や向きなどを検出するためのものである。このため、眼鏡17のレンズ枠の中央前方の上方、右前方の下方および左前方の下方に、識別子として例えばLED(17A〜17C)が設けられ、眼鏡17の例えば左のつるの途中に、識別子としてLED(17D)が設けられる。
【0014】
この場合、送話者が眼鏡17をかけて正面を向いたとき、その正面軸と直交する同一の垂直面内にLED(17A〜17C)が位置し、その垂直面と直交する同一の水平面内にLED(17A、17D)が位置するように、LED(17A〜17D)を設けることが好ましい。また、LED(17A〜17D)には、例えば制御回路11から動作電圧が供給されて発光が行われる。
【0015】
したがって、眼鏡17をビデオカメラ14で撮像した場合、所定の画像処理を行うことによりLED(17A〜17D)の発光からそれらの位置を検出することができ、この検出結果から、ビデオカメラ14の撮像画面におけるLED(17B、17C)に対するLED(17A)の高さH、LED(17B)とLED(17C)との間隔W、LED(17A)からLED(17D)までの奥行き方向(前後方向)の距離Dを求めることができる。また、LED(17A〜17C)により、これらを含む平面が規定される。
【0016】
そして、眼鏡17の実物における値H、W、Dは既知なので、その値H、W、Dと、眼鏡17の撮像結果における値H、W、Dとから、ビデオカメラ14に対する眼鏡17の距離、前後方向、左右方向および上下方向を中心とする向きを求めることができる。また、撮像画面内におけるLED(17A)の位置からビデオカメラ14に対する眼鏡17の上下方向および左右方向における位置を求めることができる。
【0017】
したがって、この眼鏡17を送話者がかけた場合、LED(17A〜17D)の位置を検出することにより、ビデオカメラ14に対する送話者の顔の3次元的な位置や向きなどを求めることができる。そして、キャラクタモードを使用する場合には、送話者は眼鏡17をかけて通話を行う。
【0018】
このような構成において、例えば通話中に所定のキー操作をして電話機10をテレビ電話のモードにすると、制御回路11のマイクロコンピュータの処理がルーチン100のステップ101からスタートし、次にステップ102において、例えば図5Aに示すように、ビデオカメラ14から出力される映像信号の1フレームが画像データとして制御回路11に取り込まれ、続くステップ103において、テレビ電話モードが、通常のテレビ電話モードに設定されているかキャラクタモードに設定されているかが判別される。
【0019】
そして、キャラクタモードに設定されている場合には、処理はステップ103からステップ111に進み、このステップ111において、ステップ102により取り込まれた1フレームに、すべてのLED(17A〜17D)が含まれているかどうかがチェックされる。そして、すべてのLED(17A〜17D)が含まれているときには、処理はステップ111からステップ112に進み、このステップ112において、撮像画面内のLED(17A〜17D)の位置および間隔H、W、Dを求めることにより、ビデオカメラ14から送話者までの距離、撮像画面内における送話者の顔の位置、大きさおよび送話者の顔の向きが検出される。
【0020】
続いてステップ113において、図5Bに示すように、アニメーションによるキャラクタの顔の画像データが形成されるとともに、その顔の大きさおよび向きは、ステップ112により求めたデータにしたがって送話者のそれに等しくされる。この場合、このキャラクタの顔の画像データは、キャラクタが正面を向いているときの顔の画像データをあらかじめ用意しておき、その画像データを、ステップ112により求めたデータにしたがって演算処理することにより形成することができる。さらに、このキャラクタの顔の画像は3次元画像とすることができる。
【0021】
そして、次にステップ114において、ステップ112により求めた送話者の顔の位置の情報にしたがって、図5Cに示すように、ステップ102により取り込まれた画像データのうち、送話者の顔の部分の画像データが、ステップ113により生成されたキャラクタの顔の画像データにより置き換えられる。そして、その後、ステップ114により処理された画像データがエンコード処理(データ圧縮)され、このエンコード結果の画像データがステップ122によりネットワーク20に送出され、ステップ123によりルーチン100を終了する。
【0022】
したがって、キャラクタモードに設定されている場合には、ビデオカメラ14により撮像された送話者の画像は、その顔がキャラクタの顔に置き換えられ、その置き換えられた送話者の画像が相手のテレビ電話へと送られることになる。
【0023】
そして、このとき、ルーチン100は例えば15回/1秒の割り合い(15フレーム/1秒)で実行されるとともに、相手に送られたキャラクタの顔の位置や向きは、送話者の顔の位置や向きにつれて動くので、相手のテレビ電話には、いわばキャラクタの顔のマスクをつけた送話者の画像が動画により表示されることになる。なお、このとき、所定のキーを操作して図2AおよびBに示すように、ピクチャインピクチャにおける送話者および受話者の画像の大小関係を切り換えることにより、送話者はキャラクタの顔の状態を確認することができ、すなわち、マスクの状態を確認することができる。
【0024】
一方、ステップ111において、ステップ102により取り込まれた1フレームに、LED(17A〜17D)のどれか1つでも含まれていないときには、処理はステップ111からステップ119に進み、このステップ119において、送話者の顔がビデオカメラ14の撮像範囲から外れていることを示すダミーの画像データが形成され、その後、処理はステップ121に進み、そのダミーデータがエンコード処理されてネットワーク20へと送出される。したがって、キャラクタモードに設定されている場合でも、送話者の顔の位置などを特定できないときには、送話者の画像が、相手のテレビ電話に送られることはない。
【0025】
また、ステップ103において、通常のテレビ電話モードに設定されている場合には、処理はステップ103からステップ121に進み、このステップ121において、このとき(ステップ102により)取り込まれている画像データがエンコード処理されてネットワーク20へと送出される。したがって、通常のテレビ電話モードに設定されている場合には、ビデオカメラ14により撮像された送話者の画像が、相手のテレビ電話へとそのまま送られることになる。
【0026】
こうして、このテレビ電話機10によれば、キャラクタモードにした場合には、ビデオカメラ14の撮像した送話者の顔がキャラクタの顔に置き換えられて相手へと送出され、相手のテレビ電話には、いわばキャラクタの顔のマスクをつけた送話者の動画が表示されるので、自分の顔を出すのは恥ずかしい、困るなどの精神的な垣根を取り去ることができる。
【0027】
また、いわばマスクをつけたコミュニケーションとなるので、例えば友人との通常の通話であっても、新たなエンタテイメント性が加わることになる。さらに、何種類かの異なるキャラクタの顔の画像データを制御回路11に用意しておき、そのうちの任意のものを選択して使用することによりエンタテイメント性をより高めることもできる。
【0028】
なお、上述において、眼鏡17に送話器12および受話器13を設けることもできる。また、制御回路11は、パーソナルコンピュータとすることもでき、ディスプレイ15はテレビ受像機などであってもよい。さらに、眼鏡17にLED(17A〜17D)を設ける場合、その電源はボタン電池などとして眼鏡17に設けることができる。
【0029】
また、メーカなどのサーバに何種類かのキャラクタの顔の画像データを用意しておき、これを電話機10にダウンロードして利用するようにもできる。さらに、上述においては、この発明をIP電話に適用した場合であるが、テレビ電話機能を有する電話機であれば、携帯電話などにも適用することができる。
【0030】
〔この明細書で使用している略語の一覧〕
A/D :Analog to Digital
ADSL:Asymmetric Digital Subscriber Line
CATV:CAble Television
D/A :Digital to Analog
FTTH:Fiber To The Home
IP  :Internet Protocol
LED :Light Emitting Diode
【0031】
【発明の効果】
この発明によれば、ビデオカメラの撮像した送話者の顔がキャラクタの顔に置き換えられて相手へと送出されるので、自分の顔を出すのは恥ずかしい、困るなどの精神的な垣根を取り去ることができる。また、いわばマスクをつけたコミュニケーションとなり、新たなエンタテイメント性が加わることになる。
【図面の簡単な説明】
【図1】この発明の一形態を示す系統図である。
【図2】この発明を説明するための表示画面の図である。
【図3】この発明の一形態を示すフローチャートである。
【図4】この発明の一部の一形態を示す斜視図である。
【図5】この発明を説明するための表示画面の図である。
【符号の説明】
11…制御回路、12…送話器、13…受話器、14…ビデオカメラ、15…ディスプレイ、16…操作スイッチ、17…眼鏡、17A〜17D…LED、20…ネットワーク
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a video signal transmitting device and a video signal transmitting method.
[0002]
[Prior art]
As communication and its environment have evolved, communication has changed from using only audio to capturing video. A so-called videophone is one of them. According to this videophone, it is possible to make a call while looking at the face of the other party shown on the display.
[0003]
Also, in the case of an IP telephone or an Internet telephone, if a broadband line such as ADSL, CATV, or FTTH is used, a videophone can be realized, and both parties can talk while looking at the other party's face.
[0004]
[Problems to be solved by the invention]
However, there is a case where the user does not necessarily want to show his / her own face even in the communication that captures the video. For example,
(1) I want to use an Internet tutor, but it's embarrassing to show my face.
(2) I want to use the convenience of the Internet to communicate widely with people in the unknown world, but it is not easy to suddenly know my face.
(3) I want to create a simulated self and enjoy the Internet community casually.
And so on.
[0005]
The present invention seeks to provide a communication device that can deal with these cases.
[0006]
[Means for Solving the Problems]
In the present invention, for example,
An identifier attached to the face of the sender to detect the position and orientation of the face of the sender;
A video camera for imaging the sender,
A first circuit for determining the position, size, and orientation of the face of the sender from the image data of the identifier in the video signal output from the video camera;
A second circuit for forming image data of a face of a character having a size and orientation equal to the size and orientation of the sender's face determined by the first circuit;
According to the position of the face of the sender determined by the first circuit, image data of the face of the sender is formed by the second circuit from the video signal output from the video camera. A third circuit for replacing image data of the character's face,
A video signal transmitting apparatus configured to transmit a video signal output from the third circuit.
Therefore, an image in which the face of the sender is replaced with the face of the character is displayed on the display of the other party.
[0007]
BEST MODE FOR CARRYING OUT THE INVENTION
FIG. 1 shows an example in which the present invention is applied to a video telephone 10 for an IP telephone. This telephone 10 includes a control circuit 11, a transmitter 12, a receiver 13, and various operation keys (operation switches) 16. Have. In this case, although not shown, the control circuit 11 has various hardware and software for implementing a videophone, and includes, for example, a microcomputer, an encoder circuit and a decoder circuit, a network controller, and the like. The control circuit 11 controls the entire operation of the telephone 10 and executes an encoding process (data compression) and a decoding process (data decompression process) of the audio signal and the video signal. The control circuit 11 is connected to a network 20 through a network controller.
[0008]
When transmitting a call without video, an analog audio signal from the transmitter 12 is supplied to the control circuit 11 and subjected to A / D conversion and encoding, and then packetized. Will be sent to At the time of reception, a packet sent through the network 20 is supplied to the control circuit 11 and subjected to decoding processing and D / A conversion to take out the original analog audio signal. This audio signal is supplied to the receiver 13. You.
[0009]
Further, a video camera 14 and a display 15 are connected to the control circuit 11 for transmitting and receiving images. During a call with video, the sender is imaged by the video camera 14, and the video signal is supplied to the control circuit 11, where the video signal is subjected to A / D conversion and encoding, and the encoded video signal and the encoding process are performed. The converted audio signal is packetized, and the packet is sent out to the network 20. Also, a packet sent from the other party via the network 20 is supplied to the control circuit 11 where the packet is decoded and D / A converted, so that the original audio signal and video signal are taken out. 13 and the display 15.
[0010]
In this case, as shown in FIG. 2A, for example, the display on the screen 15S of the display 15 is a picture-in-picture, and the face of the other party is displayed in a large size on the main screen, and the self-image captured by the video camera 14 is displayed on the small screen. , That is, his / her face transmitted to the other party is displayed in a small size. When a predetermined key operation is performed, for example, as shown in FIG. 2B, the image of the main screen is replaced with the image of the child screen, and the face of oneself is displayed large and the face of the other party is displayed small.
[0011]
In order to satisfy the above requirements (1) to (3), the present invention replaces the face of the sender captured by the video camera 14 with the face of the character by animation and sends it to the other party. is there. In the following description, the videophone mode in which the face of the sender captured by the video camera 14 is replaced with the face of the character by animation and transmitted to the other party will be referred to as “character mode”.
[0012]
In order to realize this character mode, the videophone 10 is further configured as follows. That is, the microcomputer constituting the control circuit 11 is provided with, for example, a routine 100 shown in FIG. 3 as a part of a program executed by the microcomputer. As will be described in detail later, this routine 100 is for replacing the face of the sender captured by the video camera 14 with the face of the character by animation, and is executed, for example, at a rate of 15 times / 1 second. You. Note that, in FIG. 3, the routine 100 shows only portions related to the present invention.
[0013]
Further, for example, glasses 17 as shown in FIG. 4 are prepared. The glasses 17 are for detecting the three-dimensional position and orientation of the face of the sender. For this reason, for example, LEDs (17A to 17C) are provided as identifiers above the front of the center, below the right front, and below the front left of the lens frame of the glasses 17, and the identifiers are provided in the middle of the left vine of the glasses 17, for example. An LED (17D) is provided.
[0014]
In this case, when the transmitter faces the front with the glasses 17, LEDs (17A to 17C) are located in the same vertical plane orthogonal to the front axis, and in the same horizontal plane orthogonal to the vertical plane. It is preferable to provide the LEDs (17A to 17D) such that the LEDs (17A, 17D) are located at the same position. The LEDs (17A to 17D) are supplied with an operating voltage from the control circuit 11, for example, to emit light.
[0015]
Therefore, when the glasses 17 are imaged by the video camera 14, their positions can be detected from the light emission of the LEDs (17A to 17D) by performing predetermined image processing. The height H of the LED (17A) with respect to the LED (17B, 17C) on the screen, the distance W between the LED (17B) and the LED (17C), the depth direction (front-back direction) from the LED (17A) to the LED (17D). The distance D can be determined. The LEDs (17A to 17C) define a plane including them.
[0016]
Since the actual values H, W, and D of the glasses 17 are known, the distances of the glasses 17 to the video camera 14 are calculated based on the values H, W, and D, and the values H, W, and D in the imaging result of the glasses 17. The direction centering on the front-back direction, the left-right direction, and the up-down direction can be obtained. Further, the positions of the glasses 17 in the vertical and horizontal directions with respect to the video camera 14 can be obtained from the positions of the LEDs (17A) in the imaging screen.
[0017]
Therefore, when the speaker wears the glasses 17, it is possible to obtain the three-dimensional position and orientation of the face of the sender with respect to the video camera 14 by detecting the positions of the LEDs (17A to 17D). it can. When the character mode is used, the caller wears the glasses 17 to make a call.
[0018]
In such a configuration, for example, when the telephone 10 is set to the videophone mode by operating a predetermined key during a call, the microcomputer processing of the control circuit 11 starts from step 101 of the routine 100, and then proceeds to step 102. For example, as shown in FIG. 5A, one frame of the video signal output from the video camera 14 is taken into the control circuit 11 as image data, and in the subsequent step 103, the videophone mode is set to the normal videophone mode. Or character mode is determined.
[0019]
If the character mode has been set, the process proceeds from step 103 to step 111. In this step 111, all the LEDs (17A to 17D) are included in one frame captured in step 102. Is checked. When all the LEDs (17A to 17D) are included, the process proceeds from step 111 to step 112. In this step 112, the positions and the intervals H, W, By obtaining D, the distance from the video camera 14 to the sender, the position and size of the sender's face in the imaging screen, and the orientation of the sender's face are detected.
[0020]
Subsequently, in step 113, as shown in FIG. 5B, image data of the face of the character is formed by animation, and the size and orientation of the face are equal to those of the sender according to the data obtained in step 112. Is done. In this case, the image data of the face of the character is prepared by preparing in advance the image data of the face when the character is facing the front, and performing arithmetic processing on the image data in accordance with the data obtained in step 112. Can be formed. Further, the image of the face of the character can be a three-dimensional image.
[0021]
Then, in step 114, according to the information on the position of the face of the sender obtained in step 112, as shown in FIG. Is replaced with the image data of the face of the character generated in step 113. Thereafter, the image data processed in step 114 is subjected to encoding processing (data compression), the image data resulting from this encoding is transmitted to the network 20 in step 122, and the routine 100 ends in step 123.
[0022]
Therefore, when the character mode is set, the face of the sender imaged by the video camera 14 is replaced with the face of the character, and the replaced image of the sender is displayed on the other party's television. Will be sent to the phone.
[0023]
At this time, the routine 100 is executed, for example, at a rate of 15 times / 1 second (15 frames / 1 second), and the position and orientation of the face of the character sent to the other party are determined by the face of the sender. Since it moves according to the position and orientation, an image of the sender with a mask of the character's face is displayed as a moving image on the other party's videophone. At this time, as shown in FIGS. 2A and 2B, a predetermined key is operated to switch the magnitude relationship between the images of the sender and the receiver in the picture-in-picture, so that the sender can change the state of the face of the character. Can be confirmed, that is, the state of the mask can be confirmed.
[0024]
On the other hand, if it is determined in step 111 that any one of the LEDs (17A to 17D) is not included in one frame captured in step 102, the process proceeds from step 111 to step 119. Dummy image data indicating that the speaker's face is out of the imaging range of the video camera 14 is formed. Thereafter, the process proceeds to step 121, where the dummy data is encoded and transmitted to the network 20. . Therefore, even when the character mode is set, if the position of the face of the sender cannot be specified, the image of the sender is not sent to the other party's videophone.
[0025]
If it is determined in step 103 that the normal videophone mode has been set, the process proceeds from step 103 to step 121, where the image data captured at this time (by step 102) is encoded. It is processed and sent out to the network 20. Therefore, when the normal videophone mode is set, the image of the sender captured by the video camera 14 is sent to the other party's videophone as it is.
[0026]
Thus, according to the videophone 10, when the character mode is set, the face of the sender imaged by the video camera 14 is replaced with the face of the character and transmitted to the other party. In other words, a video of the sender wearing the mask of the character's face is displayed, so that it is possible to remove mental barriers such as embarrassing or having trouble with putting out one's own face.
[0027]
In addition, since the communication is performed with a mask attached, a new entertainment property is added even for a normal call with a friend, for example. Further, by preparing image data of several types of different character faces in the control circuit 11 and selecting and using any one of them, the entertainment property can be further enhanced.
[0028]
In the above description, the transmitter 12 and the receiver 13 can be provided on the glasses 17. Further, the control circuit 11 may be a personal computer, and the display 15 may be a television receiver or the like. Further, when the LEDs (17A to 17D) are provided on the glasses 17, the power supply thereof can be provided on the glasses 17 as a button battery or the like.
[0029]
Alternatively, image data of several types of character faces may be prepared in a server such as a manufacturer and downloaded to the telephone 10 for use. Further, in the above description, the present invention is applied to an IP telephone, but the present invention can also be applied to a mobile telephone as long as it has a video telephone function.
[0030]
[List of abbreviations used in this specification]
A / D: Analog to Digital
ADSL: Asymmetric Digital Subscriber Line
CATV: CAble Television
D / A: Digital to Analog
FTTH: Fiber To The Home
IP: Internet Protocol
LED: Light Emitting Diode
[0031]
【The invention's effect】
According to the present invention, since the face of the sender imaged by the video camera is replaced with the face of the character and transmitted to the other party, it is embarrassing to put out one's own face, and mental barriers such as being troubled are removed. be able to. In addition, it becomes a communication with a mask, so to speak, and a new entertainment property is added.
[Brief description of the drawings]
FIG. 1 is a system diagram illustrating one embodiment of the present invention.
FIG. 2 is a diagram of a display screen for explaining the present invention.
FIG. 3 is a flowchart illustrating one embodiment of the present invention.
FIG. 4 is a perspective view showing one embodiment of a part of the present invention.
FIG. 5 is a diagram of a display screen for explaining the present invention.
[Explanation of symbols]
11 control circuit, 12 transmitter, 13 receiver, 14 video camera, 15 display, 16 operation switch, 17 glasses, 17A to 17D LED, 20 network

Claims (6)

送話者の顔に装着されて上記送話者の顔の位置および向きを検出するための識別子と、
上記送話者を撮像するビデオカメラと、
このビデオカメラから出力される映像信号のうち、上記識別子の画像データから上記送話者の顔の位置、大きさおよび向きを判別する第1の回路と、
この第1の回路により判別された上記送話者の顔の大きさおよび向きと等しい大きさおよび向きのキャラクタの顔の画像データを形成する第2の回路と、
上記第1の回路の判別した上記送話者の顔の位置にしたがって、上記ビデオカメラから出力される映像信号のうち、上記送話者の顔の画像データを、上記第2の回路の形成した上記キャラクタの顔の画像データに置き換える第3の回路と
を有し、
上記第3の回路から出力される映像信号を送出する
ようにした映像信号の送出装置。
An identifier attached to the face of the sender to detect the position and orientation of the face of the sender;
A video camera for imaging the sender,
A first circuit for determining the position, size, and orientation of the face of the sender from the image data of the identifier in the video signal output from the video camera;
A second circuit for forming image data of a face of a character having a size and orientation equal to the size and orientation of the sender's face determined by the first circuit;
According to the position of the face of the sender determined by the first circuit, image data of the face of the sender is formed by the second circuit from the video signal output from the video camera. A third circuit for replacing image data of the character's face,
A video signal transmitting device configured to transmit a video signal output from the third circuit.
請求項1に記載の映像信号の送出装置において、
上記第3の回路から出力される映像信号をエンコード処理するエンコーダ回路を有し、
このエンコーダ回路により上記第3の回路から出力される映像信号をエンコード処理してから送出する
ようにした映像信号の送出装置。
The video signal transmitting device according to claim 1,
An encoder circuit for encoding a video signal output from the third circuit,
A video signal transmitting device which encodes the video signal output from the third circuit by the encoder circuit and then transmits the encoded video signal.
請求項1あるいは請求項2に記載の映像信号の送出装置において、
上記識別子は、上記送話者がかける眼鏡に設けられた複数個のLEDである
ようにした映像信号の送出装置。
The video signal transmitting device according to claim 1 or 2,
An apparatus for transmitting a video signal, wherein the identifier is a plurality of LEDs provided on glasses worn by the sender.
顔の位置および向きを検出するための識別子が装着している送話者を、ビデオカメラにより撮像し、
上記ビデオカメラから出力される映像信号のうち、上記識別子の画像データから上記送話者の顔の位置および向きを判別し、
この判別結果の情報にしたがってキャラクタの顔の画像データを形成し、
上記ビデオカメラから出力される映像信号のうち、上記送話者の顔の画像データを、上記キャラクタの顔の画像データに置き換え、
この置き換え後の映像信号を送出する
ようにした映像信号の送出方法。
The sender wearing the identifier for detecting the position and orientation of the face is imaged by a video camera,
Of the video signals output from the video camera, determine the position and orientation of the face of the sender from the image data of the identifier,
Image data of the face of the character is formed according to the information of the determination result,
In the video signal output from the video camera, the image data of the face of the sender is replaced with image data of the face of the character,
A video signal transmission method for transmitting the video signal after the replacement.
請求項4に記載の映像信号の送出方法において、
上記置き換え後の映像信号をさらにエンコード処理してから送出する
ようにした映像信号の送出方法。
The method for transmitting a video signal according to claim 4,
A method of transmitting a video signal, wherein the video signal after the replacement is further encoded and then transmitted.
請求項4あるいは請求項5に記載の映像信号の送出方法において、
上記識別子は、上記送話者がかける眼鏡に設けられた複数個のLEDである
ようにした映像信号の送出方法。
In the method for transmitting a video signal according to claim 4 or 5,
A method of transmitting a video signal, wherein the identifier is a plurality of LEDs provided on glasses worn by the sender.
JP2002195470A 2002-07-04 2002-07-04 Device and method for transmitting video signal Pending JP2004040525A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002195470A JP2004040525A (en) 2002-07-04 2002-07-04 Device and method for transmitting video signal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002195470A JP2004040525A (en) 2002-07-04 2002-07-04 Device and method for transmitting video signal

Publications (1)

Publication Number Publication Date
JP2004040525A true JP2004040525A (en) 2004-02-05

Family

ID=31703833

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002195470A Pending JP2004040525A (en) 2002-07-04 2002-07-04 Device and method for transmitting video signal

Country Status (1)

Country Link
JP (1) JP2004040525A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008078144A1 (en) 2006-12-22 2008-07-03 Nokia Corporation An apparatus comprising an antenna element and a metal part
JP2021512562A (en) * 2018-01-18 2021-05-13 上海掌門科技有限公司Shanghai Zhangmen Science And Technology Co., Ltd. Video call methods and devices based on virtual images
WO2021090741A1 (en) * 2019-11-08 2021-05-14 株式会社資生堂 Information processing system, information processing method, information processing device, and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008078144A1 (en) 2006-12-22 2008-07-03 Nokia Corporation An apparatus comprising an antenna element and a metal part
JP2021512562A (en) * 2018-01-18 2021-05-13 上海掌門科技有限公司Shanghai Zhangmen Science And Technology Co., Ltd. Video call methods and devices based on virtual images
WO2021090741A1 (en) * 2019-11-08 2021-05-14 株式会社資生堂 Information processing system, information processing method, information processing device, and program

Similar Documents

Publication Publication Date Title
CN104365088B (en) Method, system and the medium shared for video image and controlled
JP3541765B2 (en) Videophone equipment
JP4241812B2 (en) Video display system
US8749611B2 (en) Video conference system
JP2009044510A (en) Mobile unit, server, and video reproduction method in mobile unit
US8743172B2 (en) Image capturing for video conference system
US20130222419A1 (en) Video Calling
US20130010060A1 (en) IM Client And Method For Implementing 3D Video Communication
JP4331049B2 (en) Data transmission apparatus and data transmission method
CN108134736B (en) Group establishing method and device
JPH09200714A (en) Image processor with video telephone
KR20110139782A (en) Apparatus and method for live streaming between mobile communication terminals
JP2004040525A (en) Device and method for transmitting video signal
JP2010109611A (en) Data transmission method and data transmission system
CN101686288A (en) Receiver apparatus and method, and sending and receiving system
JP2014229915A (en) Intercom system
JP5039201B2 (en) Image voice communication system and receiving apparatus
US8615073B2 (en) Image display apparatus, communications control method of the same, and communications control system
JP3143731U (en) Videophone terminal and videophone system
JP4452218B2 (en) Group forming device, terminal, contact system, and group forming program
JPH09200715A (en) Equipment, method and system for communication
JP2019197497A (en) Head-mounted display system, notification controller, method for controlling notification, and program
JP4241916B2 (en) Telephone communication system
JP6840548B2 (en) Information processing device and game sound generation method
JP2006245655A (en) Communication terminal and communication system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050428

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070514

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070523

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070926