JP2004287558A - Video phone terminal, virtual character forming device, and virtual character movement control device - Google Patents
Video phone terminal, virtual character forming device, and virtual character movement control device Download PDFInfo
- Publication number
- JP2004287558A JP2004287558A JP2003075858A JP2003075858A JP2004287558A JP 2004287558 A JP2004287558 A JP 2004287558A JP 2003075858 A JP2003075858 A JP 2003075858A JP 2003075858 A JP2003075858 A JP 2003075858A JP 2004287558 A JP2004287558 A JP 2004287558A
- Authority
- JP
- Japan
- Prior art keywords
- virtual character
- user
- character
- face
- virtual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Telephone Function (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、エンターテイメント性の高い仮想キャラを活用することのできるテレビ電話端末、並びに、仮想キャラ生成装置および仮想キャラ動作制御装置に関する。
【0002】
【従来の技術】
複数のテレビ電話端末およびネットワーク等から構成されるテレビ電話システムでは、各テレビ電話端末で撮影された映像が音声と共にネットワークを介して相手端末に送られる。このため、離れた場所にいる相手とでも顔を見ながら会話することができる。相手の顔を見ながら会話することができれば、声のトーンだけでなく相手の表情を視覚的に確認することができるため、よりリアルな高いレベルのコミュニケーションをとることができるといったメリットがある。
【0003】
しかし、ユーザによっては自分自身を撮影した映像がそのまま相手端末に送られるのを好まない者もいる。さらに、自分または相手が撮影した映像を見ながら会話していても面白みがないと感じるユーザもいる。このため、ユーザの顔を撮影した画像から眉、目、鼻、口等の各部位の特徴点を抽出して、当該特徴点からユーザの顔に似せた仮想のキャラクター(以下、「仮想キャラ」という。)を生成し、この仮想キャラの映像を自分の分身として相手端末に送る技術が考えられている。
【0004】
当該技術では、まず、ユーザの顔を撮影した画像(以下「顔画像」という。)のどの領域が顔かを認識した後、顔画像から眉や目、鼻、口といった各部位の特徴となる点(以下「特徴点」という。)を抽出する。図1は、顔画像と各特徴点を示す説明図である。次に、各部位の特徴点に基づいて、各部位の特徴が平均化された平均顔のキャラクターからユーザの顔に似せた仮想キャラを生成する。より詳しくは、抽出した特徴点と前記平均顔のキャラクターの特徴点との差分を算出し、当該差分データを前記平均顔のキャラクターに反映させることで、ユーザの顔に似せた仮想キャラを生成する。図4は、ユーザの顔に似せた仮想キャラを示す説明図である。
【0005】
そして、ユーザの顔画像における各特徴点をトラッキングして、各特徴点の動きを仮想キャラに反映させる。こうすることで、ユーザの表情の変化に伴う各部位の動きが仮想キャラの各部位の動きと連携するため、ユーザの表情の変化に合わせて仮想キャラの表情も同様に変化することとなる。なお、仮想キャラをユーザの顔に似させることなく、全く別のキャラクターにユーザの顔画像における各特徴点の動きを反映させることで、ユーザの表情の変化に合わせて仮想キャラの表情を変化させることもできる。
【0006】
さらに、顔を形成する部位の全てが顔画像の座標軸上で同じ方向に移動すれば、顔全体が動いたとみなすことができる。このため、ユーザが頷いたり、首をかしげたり、頭を振ったとき、この動作を仮想キャラに反映することができる。
【0007】
【特許文献1】
特表2002−511617号公報
【特許文献2】
特表2002−511620号公報
【0008】
【発明が解決しようとする課題】
このように、上記従来の技術では、仮想キャラをユーザの顔に似せるか、全く別のキャラクターとしている。しかし、エンターテイメント性といった点から仮想キャラを考えると、ユーザの顔に似すぎているよりも、微妙またはほどほど似ている程度に面白みがあると考えられる。一方、仮想キャラが全く別のキャラクターであると会話相手の顔を彷彿とさせないため、少なくとも相手を識別できる程度には似ていることが望ましい。
【0009】
また、上記従来の技術では、ユーザの表情の変化に伴う各部位の動きが仮想キャラの各部位の動きに連携しているため、仮想キャラの表情はユーザの表情に合わせて変化する。しかし、エンターテイメント性といった点から仮想キャラを考えると、ユーザの表情の変化をそのまま仮想キャラの表情に反映させるよりも、仮想キャラの表情や動きに意外性のある方が面白みの点で勝ると考えられる。
【0010】
さらに、上記従来の技術では、ユーザの首の動きが仮想キャラに反映されるため、ユーザが頷いたり、首をかしげたり、頭を振ると、仮想キャラも同様の動きをする。しかし、エンターテイメント性といった点から仮想キャラを考えると、ユーザの首の動きをそのまま仮想キャラの動きに反映させるよりも、仮想キャラの動きに意外性のある方が面白みの点で勝ると考えられる。
【0011】
したがって、娯楽的な要素を含んだコミュニケーションツールとしてテレビ電話が利用される場合には、エンターテイメント性の高い仮想キャラを活用できることが望ましい。
【0012】
本発明は、上記従来の要望に鑑みてなされたものであって、エンターテイメント性の高い仮想キャラを活用することのできるテレビ電話端末、並びに、仮想キャラ生成装置および仮想キャラ動作制御装置を提供することを目的としている。
【0013】
【課題を解決するための手段】
上記目的を達成するために、本発明に係る仮想キャラ生成装置は、人の顔に基づいて仮想のキャラクター(以下「仮想キャラ」という。)を生成する仮想キャラ生成装置であって、ユーザの顔を撮影した映像から各部位の特徴点を抽出する特徴点抽出手段と、前記特徴点抽出手段によって抽出された各部位の特徴点と、前記各部位の特徴が平均化された平均顔のキャラクターの特徴点との差分を算出する特徴点差分算出手段と、前記特徴点差分算出手段によって算出された差分を前記平均顔のキャラクターに反映させて、前記ユーザの仮想キャラを生成する仮想キャラ生成手段と、を備え、前記仮想キャラ生成手段は、所定の部位に対しては、当該所定の部位の特徴を強調するよう前記特徴点差分算出手段によって算出された差分を変更した上で前記平均顔のキャラクターに反映させる。
【0014】
このように、所定の部位の特徴を強調することで、ユーザの顔に微妙またはほどほど似せた仮想キャラを生成することができる。仮想キャラは、ユーザの顔に似すぎているよりも微妙またはほどほど似ている程度に面白みがあると考えられるため、エンターテイメント性の高い仮想キャラを活用することができる。
【0015】
また、本発明に係る仮想キャラ動作制御装置は、人の顔に基づいて生成された仮想のキャラクター(以下「仮想キャラ」という。)に、ユーザの実際の表情または動きとは関係のない独自の個性を持たせる仮想キャラ動作制御装置であって、独自の個性を実現するプログラムを少なくとも1つ記憶したプログラム記憶装置から所望のプログラムをダウンロードして、当該ダウンロードしたプログラムを実行することで、前記仮想キャラが前記プログラムに対応する個性に準じた所定の動作を行うよう制御する。
【0016】
このように、プログラム記憶装置から独自の個性を実現するプログラムをダウンロードして実行することで、仮想キャラにユーザの実際の表情や動きとは異なる表情または動きをさせることができる。したがって、仮想キャラの表情または動きの変化を楽しむことができるため、エンターテイメント性の高い仮想キャラを活用することができる。
【0017】
また、本発明に係る仮想キャラ動作制御装置は、人の顔に基づいて生成された仮想のキャラクター(以下「仮想キャラ」という。)の首の動きを制御する仮想キャラ動作制御装置であって、前記仮想キャラの基となるユーザの実際の首の動きとは別に、キーワードまたは音声若しくは映像の特徴に応じて、またはランダムに、前記仮想キャラが所定の首の動きを行うよう制御する。
【0018】
このように、ユーザの実際の動きとは異なる首の動きを仮想キャラが行う。ユーザの首の動きをそのまま仮想キャラの動きに反映させるよりも、この方が仮想キャラの動きに意外性があり面白みの点で勝ると考えられる。したがって、エンターテイメント性の高い仮想キャラを活用することができる。
【0019】
さらに、本発明に係るテレビ電話端末は、請求項1に記載の仮想キャラ生成装置または請求項2若しくは3に記載の仮想キャラ動作制御装置を備え、ネットワークを介して他の端末と前記仮想キャラの映像および音声による通信を行う。したがって、仮想キャラを用いたコミュニケーションのエンターテイメント性を高めることができる。
【0020】
【発明の実施の形態】
以下、本発明に係るテレビ電話端末の実施の形態について、図面を参照して説明する。
【0021】
本実施形態のテレビ電話端末は、動画または静止画(以下、まとめて「映像」という。)を撮影可能なカメラを備えた携帯電話やPHS、PDA等の通信端末であり、ネットワークを介して別のテレビ電話端末と映像および音声を送受信することによりテレビ電話として用いることができる。但し、テレビ電話中に端末間で送受信される映像は、カメラで撮影した映像の他、カメラで撮影したユーザの顔に基づいて生成された仮想のキャラクター(以下「仮想キャラ」という。)の映像であっても良い。本実施形態では、当該仮想キャラの映像が送受信される場合について説明する。
【0022】
以下、仮想キャラの生成について説明する。本実施形態のテレビ電話端末は、カメラによって撮影されたユーザの顔画像からどの領域が顔かを認識する。次に、顔画像から眉や目、鼻、口といった各部位の特徴となる点(以下「特徴点」という。)を抽出する。図1は、顔画像と各特徴点を示す説明図である。顔を構成する主要な部位である眉、目、鼻、口は表情によって微妙に変化するため、これらの部位のように、表情が変化すると他の特徴点との相対位置が変わる部分が特徴点として抽出される。
【0023】
次に、各部位の特徴点に基づいて、各部位の特徴が平均化された平均顔のキャラクターからユーザの顔に近い仮想キャラを生成する。より詳しくは、抽出した特徴点と前記平均顔のキャラクターの特徴点との差分を算出し、当該差分データを前記平均顔のキャラクターに反映させることで、ユーザの顔に近い仮想キャラを生成する。
【0024】
そして、ユーザの顔画像における各特徴点をトラッキングして、各特徴点の動きを仮想キャラに反映させる。また、顔を形成する全ての部位が顔画像の座標軸上で同じ方向に移動すれば、顔全体が動いたとみなすことができるため、ユーザが頷いたり、首をかしげたり、頭を振ったとき、この動作を仮想キャラに反映させる。
【0025】
以下、本実施形態のテレビ電話端末の構成についての説明を、図2を参照して行う。図2は、本実施形態のテレビ電話端末の構成を示すブロック図である。本実施形態のテレビ電話端末は、同図に示すように、カメラ101と、映像処理部103と、マイク105と、スピーカ107と、音声処理部109と、仮想キャラ生成部111と、表示部113と、キーボード115と、中央処理部117と、無線部119と、アンテナ121とを備えて構成されている。
【0026】
映像処理部103は、カメラ101で撮影された映像を解析することで、映像中から顔を認識し特徴点を抽出するものである。また、音声処理部109は、マイク105から入力された自分の音声に対して所定の処理を行ったり、相手のテレビ電話端末から受け取った相手の音声データを処理してスピーカ107から出力するものである。なお、音声処理部109が行う処理には、音量や音韻、ピッチ等といった音声の特徴となる要素の解析が含まれ、当該解析は自分および相手の音声に対して行われる。
【0027】
また、仮想キャラ生成部111は、映像処理部103によって抽出された特徴点等に基づいて仮想キャラを生成し、カメラ101で撮影したユーザの表情や動作を当該仮想キャラに反映させるものである。なお、仮想キャラ生成部111は、生成した仮想キャラを中央処理部117からの指示に基づいて部分的または全体的に変更することもある。また、表示部113は、仮想キャラ生成部111で生成された仮想キャラや、相手のテレビ電話端末から送られた仮想キャラ等を表示するものである。
【0028】
また、キーボード115は、後述する仮想キャラの生成に関する指示等を仮想キャラ生成部111に行ったり、他の指示等を中央処理部117に行うためのものである。また、中央処理部117は、仮想キャラ生成部111で生成された仮想キャラのMPEG圧縮をはじめとして、仮想キャラの動きと音声との同期や、映像データおよび音声データの圧縮伸長処理等を行うものである。また、無線部119は、映像および音声のデータの変復調等を行って、アンテナ121を介して信号を送受信するものである。
【0029】
以上の説明を踏まえて、〔第1の実施形態〕、〔第2の実施形態〕、〔第3の実施形態〕の順に本発明に係るテレビ電話端末の実施の形態について詳細に説明する。
【0030】
〔第1の実施形態〕
第1の実施形態では、仮想キャラをユーザの顔に完全に似せるのではなく、微妙またはほどほどに似せている。上述したように、仮想キャラを生成する際は、抽出した特徴点と平均顔のキャラクターの特徴点との差分を算出し、当該差分データを平均顔のキャラクターに反映させている。本実施形態では、差分データを平均顔のキャラクターにそのまま反映させるのではなく、ユーザによって予め指定された部位に対しては、その特徴を強調するよう差分データを変更した上で反映させる。
【0031】
なお、特徴を強調する部位の指定は図2に示したキーボード115から中央処理部117に対して行われ仮想キャラ生成部111に指示される。そして、指定された部位の差分データの変更は仮想キャラ生成部111で行われる。特許請求の範囲の特徴点抽出手段は映像処理部103に該当し、特徴点差分算出手段および仮想キャラ生成手段は仮想キャラ生成部111に該当する。
【0032】
図3は、(a)ユーザの顔に似せた仮想キャラおよび(b)ユーザの顔に微妙またはほどほど似せた仮想キャラの一例を示す説明図である。例えば、ユーザによって目の大きさを強調するよう指示されている場合、目が全体的に大きくなるように目の特徴点の差分データを変更する。そして、目の各特徴点の変更された差分データと、眉、鼻および口の各特徴点における差分データとを平均顔のキャラクターに反映することで、図3(b)に示すような、目の大きさが強調された仮想キャラを生成する。
【0033】
以上説明したように、本実施形態によれば、予め指定された部位の特徴を強調することで、ユーザの顔に微妙またはほどほど似せた仮想キャラを生成することができる。仮想キャラは、ユーザの顔に似すぎているよりも微妙またはほどほど似ている程度に面白みがあると考えられるため、本実施形態によれば、仮想キャラを用いたコミュニケーションのエンターテイメント性を高めることができる。また、特徴の強調は指定された部位に対して行われるため、ユーザによって指定された部位だけが強調された仮想キャラを生成することができる。
【0034】
なお、本実施形態では、顔の部位の特徴を強調しているが、ユーザが強調したくない部位については目立たないようにデフォルメしても良い。
【0035】
〔第2の実施形態〕
第2の実施形態では、ユーザの表情や動きの変化をそのまま仮想キャラの表情または動きに反映させるのではなく、ユーザが実際には行っていない表情または動きをするといった独自の個性を仮想キャラに持たせている。本実施形態では、様々な個性を実現するプログラムが複数用意されたキャラクタサーバ(図示せず)が別に設けられている。ユーザはテレビ電話端末を用いて当該キャラクタサーバにアクセスして、所望の個性を実現するプログラムをテレビ電話端末にダウンロードする。そして、仮想キャラが当該個性を持つよう設定を行う。なお、キャラクタサーバは特許請求の範囲のプログラム記憶装置に該当する。
【0036】
このように、キャラクタサーバから所望の個性に対応するプログラムを予めダウンロードして設定を行っておけば、次回以降のテレビ電話では、仮想キャラ生成部111で当該個性を実現するプログラムが実行され、仮想キャラがこの個性に準じた所定の動作を行うようになる。
【0037】
なお、個性には、ユーザの表情または動きとは全く関係のない動作を行う個性や、顔の各部位の動きに従って所定の動作を行う個性、ユーザ(自分)または相手が発した(しゃべった)特定のキーワードに反応して所定の表情または動作を行う個性等が考えられる。例えば、10分に一度踊りだすといった個性や、相手の仮想キャラの動作を真似る個性、会話が途切れるとタバコを吸い出す個性、歌舞伎役者のような動作をする個性、所定時間以上目をつぶると眠りだす個性、自分がはっした「なんで?」といった言葉に反応して目がクエスチョンマークになる個性等々、様々な個性が考えられる。
【0038】
以上説明したように、本実施形態によれば、キャラクタサーバに用意されている複数の個性の中から所望の個性を選択して、仮想キャラにユーザの実際の表情や動きとは異なる表情または動きをさせることができる。したがって、仮想キャラの表情または動きの変化を楽しみながら相手と会話することができるため、仮想キャラを用いたコミュニケーションのエンターテイメント性を高めることができる。
【0039】
〔第3の実施形態〕
第3の実施形態では、ユーザの首の動きをそのまま仮想キャラの動きに反映させるのではなく、他の要因にも従って仮想キャラの首を動かしている。なお、「首が動く」とは、頷いたり、首をかしげたり、頭を振る等といった、体に対して頭部が立体的に動く動作のことをいう。本実施形態では、自分または相手が発した(しゃべった)特定のキーワードや音声の特徴、若しくは、図2に示したカメラ101で撮影された映像の特徴に応じて、またはランダムに、仮想キャラが首を動かす。
【0040】
上述したように、図2に示した音声処理部109は自分または相手の音声を解析しており、映像処理部103はカメラ101で撮影された映像を解析している。したがって、キーワードまたは音声の特徴に応じて仮想キャラの首を動かす場合は音声処理部109の解析結果、また、映像の特徴に応じて仮想キャラの首を動かす場合は映像処理部103の解析結果に基づいて、中央処理部117が、仮想キャラが所定の首の動きをするよう仮想キャラ生成部111に指示する。また、ランダムに仮想キャラの首を動かす場合は、中央処理部117が、乱数等を利用して仮想キャラが所定の首の動きをするよう仮想キャラ生成部111に指示する。
【0041】
以上説明したように、本実施形態では、ユーザの首の動きとは別に、キーワードや音声の特徴、映像の特徴に基づいてまたはランダムに仮想キャラの首を動かしている。ユーザの首の動きをそのまま仮想キャラの動きに反映させるよりも、この方が仮想キャラの動きに意外性があり面白みの点で勝ると考えられる。したがって、仮想キャラを用いたコミュニケーションのエンターテイメント性を高めることができる。
【0042】
なお、上記説明した各実施形態のテレビ電話端末が有する映像処理部103、音声処理部109、仮想キャラ生成部111および中央処理部117はプログラムを実行することによって動作するものであっても良い。
【0043】
【発明の効果】
以上説明したように、本発明に係る仮想キャラ生成装置および仮想キャラ動作制御装置によれば、エンターテイメント性の高い仮想キャラを活用することができる。また、本発明に係るテレビ電話端末によれば、仮想キャラを用いたコミュニケーションのエンターテイメント性を高めることができる。
【図面の簡単な説明】
【図1】顔画像と各特徴点を示す説明図
【図2】本発明に係る一実施形態のテレビ電話端末の構成を示すブロック図
【図3】(a)ユーザの顔に似せた仮想キャラおよび(b)ユーザの顔に微妙またはほどほど似せた仮想キャラの一例を示す説明図
【図4】ユーザの顔に似せた仮想キャラを示す説明図
【符号の説明】
101 カメラ
103 映像処理部
105 マイク
107 スピーカ
109 音声処理部
111 仮想キャラ生成部
113 表示部
115 キーボード
117 中央処理部
119 無線部
121 アンテナ[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a videophone terminal capable of utilizing virtual characters having high entertainment properties, a virtual character generation device, and a virtual character operation control device.
[0002]
[Prior art]
In a videophone system including a plurality of videophone terminals, a network, and the like, video captured by each videophone terminal is transmitted to a partner terminal via a network together with audio. For this reason, it is possible to have a conversation with a remote party while looking at the face. If you can talk while looking at the other person's face, you can visually confirm not only the tone of the voice but also the expression of the other person, so that there is an advantage that a more realistic high-level communication can be taken.
[0003]
However, some users do not like to send a video of themselves to the partner terminal as it is. In addition, some users find it interesting to have a conversation while watching the video taken by themselves or the other party. For this reason, feature points of each part such as eyebrows, eyes, nose, mouth, etc. are extracted from an image of the user's face, and a virtual character (hereinafter, “virtual character”) similar to the user's face is extracted from the feature points ) Is generated, and the image of the virtual character is transmitted to the partner terminal as an alter ego.
[0004]
In this technique, first, after recognizing which region of an image of a user's face (hereinafter, referred to as “face image”) is a face, the face image is used to characterize each part such as eyebrows, eyes, nose, and mouth. Points (hereinafter referred to as “feature points”) are extracted. FIG. 1 is an explanatory diagram showing a face image and each feature point. Next, based on the feature points of each part, a virtual character that resembles the user's face is generated from the average face character in which the features of each part are averaged. More specifically, a virtual character that resembles a user's face is generated by calculating a difference between the extracted feature point and the feature point of the average face character, and reflecting the difference data on the average face character. . FIG. 4 is an explanatory diagram illustrating a virtual character that resembles a user's face.
[0005]
Then, each feature point in the user's face image is tracked, and the movement of each feature point is reflected on the virtual character. By doing so, the movement of each part associated with the change of the user's facial expression cooperates with the movement of each part of the virtual character, so that the facial expression of the virtual character also changes in accordance with the change of the user's facial expression. By changing the movement of each feature point in the user's face image to a completely different character without making the virtual character resemble the user's face, the expression of the virtual character is changed according to the change of the user's expression. You can also.
[0006]
Furthermore, if all of the parts forming the face move in the same direction on the coordinate axis of the face image, it can be considered that the entire face has moved. Thus, when the user nods, bows, or shakes his head, this action can be reflected on the virtual character.
[0007]
[Patent Document 1]
Japanese Patent Publication No. 2002-511617 [Patent Document 2]
Japanese Unexamined Patent Publication No. 2002-511620
[Problems to be solved by the invention]
As described above, in the above-described conventional technology, the virtual character is made to resemble the face of the user, or to be a completely different character. However, considering a virtual character from the viewpoint of entertainment, it is considered that the virtual character is more subtle or more similar than the user's face. On the other hand, if the virtual character is a completely different character, it is not reminiscent of the face of the conversation partner.
[0009]
Further, in the above-described conventional technology, since the movement of each part associated with the change of the user's facial expression is linked to the movement of each part of the virtual character, the facial expression of the virtual character changes according to the user's facial expression. However, when considering virtual characters from the point of view of entertainment, it is thought that those who have surprising expressions and movements of the virtual characters are more interesting than reflecting the changes in the user's facial expressions directly on the expressions of the virtual characters. Can be
[0010]
Further, in the above-described conventional technology, the movement of the user's neck is reflected on the virtual character. Therefore, when the user nods, bows, or shakes the head, the virtual character performs the same movement. However, considering a virtual character from the viewpoint of entertainment, it is considered that a person who has unexpectedness in the movement of the virtual character is more interesting than a function of directly reflecting the movement of the user's neck in the movement of the virtual character.
[0011]
Therefore, when a videophone is used as a communication tool including an entertaining element, it is desirable to be able to utilize a virtual character having high entertainment properties.
[0012]
The present invention has been made in view of the above-mentioned conventional needs, and provides a videophone terminal capable of utilizing virtual characters having high entertainment properties, and a virtual character generation device and a virtual character operation control device. It is an object.
[0013]
[Means for Solving the Problems]
In order to achieve the above object, a virtual character generation device according to the present invention is a virtual character generation device that generates a virtual character (hereinafter, referred to as a “virtual character”) based on a human face. Feature point extracting means for extracting the feature points of each part from the image of the captured image, the feature points of each part extracted by the feature point extracting means, and the character of the average face in which the features of each part are averaged. Feature point difference calculation means for calculating a difference from a feature point; virtual character generation means for generating the virtual character of the user by reflecting the difference calculated by the feature point difference calculation means on the character of the average face. Wherein the virtual character generation means changes a difference calculated by the feature point difference calculation means for a predetermined part so as to emphasize characteristics of the predetermined part. In to be reflected in the character of the average face.
[0014]
In this way, by emphasizing the features of the predetermined part, it is possible to generate a virtual character that is subtle or moderately similar to the user's face. The virtual character is considered to be more subtle or more similar than the user's face, so it is possible to utilize a highly entertaining virtual character.
[0015]
Further, the virtual character operation control device according to the present invention provides a virtual character (hereinafter referred to as a “virtual character”) generated based on a human face to a unique character that is not related to the actual expression or movement of the user. A virtual character operation control device having personality, wherein a desired program is downloaded from a program storage device storing at least one program for realizing the unique personality, and the downloaded program is executed to execute the virtual program. The character is controlled to perform a predetermined operation according to the personality corresponding to the program.
[0016]
As described above, by downloading and executing the program for realizing the unique personality from the program storage device, it is possible to cause the virtual character to have an expression or movement different from the actual expression or movement of the user. Therefore, a change in the expression or movement of the virtual character can be enjoyed, so that the virtual character having high entertainment properties can be utilized.
[0017]
Further, the virtual character operation control device according to the present invention is a virtual character operation control device that controls the movement of the neck of a virtual character (hereinafter, referred to as “virtual character”) generated based on a human face, Apart from the actual neck movement of the user as the basis of the virtual character, the virtual character is controlled so as to perform a predetermined neck movement according to a keyword, a feature of audio or video, or randomly.
[0018]
In this manner, the virtual character performs a neck movement different from the actual movement of the user. It is considered that the movement of the virtual character is more surprising and interesting than the reflection of the movement of the user's neck as it is on the movement of the virtual character. Therefore, a virtual character having high entertainment properties can be utilized.
[0019]
Furthermore, a videophone terminal according to the present invention includes the virtual character generation device according to claim 1 or the virtual character operation control device according to claim 2 or 3, and is configured to communicate with another terminal and the virtual character via a network. Performs video and audio communication. Therefore, it is possible to enhance the entertainment property of the communication using the virtual character.
[0020]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of a videophone terminal according to the present invention will be described with reference to the drawings.
[0021]
The videophone terminal according to the present embodiment is a communication terminal such as a mobile phone, a PHS, or a PDA equipped with a camera capable of capturing a moving image or a still image (hereinafter, collectively referred to as “video”). It can be used as a videophone by transmitting and receiving video and audio to and from the videophone terminal. However, the video transmitted and received between terminals during a videophone call is a video of a virtual character (hereinafter, referred to as a “virtual character”) generated based on a user's face captured by the camera, in addition to a video captured by the camera. It may be. In the present embodiment, a case where the video of the virtual character is transmitted and received will be described.
[0022]
Hereinafter, generation of a virtual character will be described. The videophone terminal according to the present embodiment recognizes which area is a face from a user's face image captured by a camera. Next, points (hereinafter, referred to as “feature points”) that are features of each part such as eyebrows, eyes, nose, and mouth are extracted from the face image. FIG. 1 is an explanatory diagram showing a face image and each feature point. The major parts of the face, the eyebrows, eyes, nose, and mouth, change subtly depending on the facial expression.These parts, such as these parts, change their relative position with other characteristic points when the facial expression changes. Is extracted as
[0023]
Next, based on the feature points of each part, a virtual character close to the user's face is generated from the average face character in which the features of each part are averaged. More specifically, a virtual character close to the user's face is generated by calculating a difference between the extracted feature point and the feature point of the average face character, and reflecting the difference data on the average face character.
[0024]
Then, each feature point in the user's face image is tracked, and the movement of each feature point is reflected on the virtual character. Also, if all parts forming the face move in the same direction on the coordinate axis of the face image, the entire face can be regarded as moving, so when the user nods, bows, or shakes his head, This operation is reflected on the virtual character.
[0025]
Hereinafter, the configuration of the videophone terminal of the present embodiment will be described with reference to FIG. FIG. 2 is a block diagram illustrating a configuration of the videophone terminal of the present embodiment. As shown in the figure, the videophone terminal of this embodiment includes a
[0026]
The
[0027]
Further, the virtual
[0028]
The
[0029]
Based on the above description, the embodiment of the videophone terminal according to the present invention will be described in detail in the order of [First Embodiment], [Second Embodiment], and [Third Embodiment].
[0030]
[First Embodiment]
In the first embodiment, the virtual character does not completely resemble the face of the user, but subtly or moderately resembles. As described above, when generating the virtual character, the difference between the extracted feature point and the feature point of the average face character is calculated, and the difference data is reflected on the average face character. In the present embodiment, the difference data is not directly reflected on the character of the average face, but is reflected on a part specified in advance by the user after changing the difference data so as to emphasize the feature.
[0031]
It should be noted that the designation of the part to emphasize the feature is performed from the
[0032]
FIG. 3 is an explanatory diagram illustrating an example of (a) a virtual character that resembles a user's face and (b) an example of a virtual character that subtly or moderately resembles a user's face. For example, when the user has instructed to emphasize the size of the eyes, the difference data of the feature points of the eyes is changed so that the eyes become larger as a whole. Then, by reflecting the changed difference data of each feature point of the eyes and the difference data of each feature point of the eyebrows, the nose, and the mouth to the character of the average face, the eyes shown in FIG. A virtual character in which the size of is emphasized is generated.
[0033]
As described above, according to the present embodiment, it is possible to generate a virtual character that is delicate or slightly similar to the user's face by emphasizing the features of the part specified in advance. Since the virtual character is considered to be more subtle or slightly more interesting than the user's face too much, according to the present embodiment, it is possible to enhance the entertainment of communication using the virtual character. it can. In addition, since the feature is emphasized for the designated part, it is possible to generate a virtual character in which only the part designated by the user is emphasized.
[0034]
In the present embodiment, the features of the face parts are emphasized, but the parts that the user does not want to emphasize may be deformed so as to be inconspicuous.
[0035]
[Second embodiment]
In the second embodiment, a change in the expression or movement of the user is not directly reflected on the expression or movement of the virtual character, but a unique character such as an expression or movement that the user does not actually perform is added to the virtual character. I have it. In the present embodiment, a character server (not shown) provided with a plurality of programs for realizing various personalities is separately provided. The user accesses the character server using the videophone terminal and downloads a program for realizing the desired personality to the videophone terminal. Then, the virtual character is set to have the personality. The character server corresponds to a program storage device in the claims.
[0036]
As described above, if a program corresponding to a desired personality is downloaded in advance from the character server and set, the program for realizing the personality is executed by the virtual
[0037]
In addition, the personality that performs an operation completely unrelated to the expression or movement of the user, the personality that performs a predetermined operation in accordance with the movement of each part of the face, or the user (self) or a partner (speaks) A personality that performs a predetermined expression or action in response to a specific keyword can be considered. For example, a personality that starts dancing once every 10 minutes, a personality that simulates the behavior of the other party's virtual character, a personality that sucks out cigarettes when the conversation is interrupted, a personality that performs like a kabuki actor, There are a variety of personalities, such as personality that can be added, and a question mark in response to words like “why?”
[0038]
As described above, according to the present embodiment, a desired personality is selected from a plurality of personalities prepared in the character server, and the virtual character is given a facial expression or movement different from the actual facial expression or movement of the user. Can be made. Therefore, since it is possible to have a conversation with the other party while enjoying the change of the expression or movement of the virtual character, it is possible to enhance the entertainment of the communication using the virtual character.
[0039]
[Third embodiment]
In the third embodiment, the movement of the virtual character's neck is not directly reflected in the movement of the virtual character, but is moved according to other factors. Note that "the neck moves" refers to an operation in which the head moves three-dimensionally with respect to the body, such as nodding, shaking the head, or shaking the head. In the present embodiment, the virtual character is generated in accordance with the characteristics of a specific keyword or sound emitted (speaked) by the user or the other party, or the characteristics of the video taken by the
[0040]
As described above, the
[0041]
As described above, in this embodiment, the head of the virtual character is moved independently of the movement of the user's neck based on keywords, voice characteristics, and video characteristics or randomly. It is considered that the movement of the virtual character is more surprising and interesting than the reflection of the movement of the user's neck as it is on the movement of the virtual character. Therefore, it is possible to enhance the entertainment property of the communication using the virtual character.
[0042]
The
[0043]
【The invention's effect】
As described above, according to the virtual character generation device and the virtual character operation control device according to the present invention, it is possible to utilize virtual characters having high entertainment characteristics. Further, according to the videophone terminal of the present invention, it is possible to enhance the entertainment property of communication using virtual characters.
[Brief description of the drawings]
FIG. 1 is an explanatory diagram showing a face image and each feature point. FIG. 2 is a block diagram showing a configuration of a videophone terminal according to an embodiment of the present invention. FIG. And (b) an explanatory diagram showing an example of a virtual character subtly or moderately similar to the user's face. [FIG. 4] an explanatory diagram showing a virtual character similar to the user's face.
Claims (4)
ユーザの顔を撮影した映像から各部位の特徴点を抽出する特徴点抽出手段と、前記特徴点抽出手段によって抽出された各部位の特徴点と、前記各部位の特徴が平均化された平均顔のキャラクターの特徴点との差分を算出する特徴点差分算出手段と、
前記特徴点差分算出手段によって算出された差分を前記平均顔のキャラクターに反映させて、前記ユーザの仮想キャラを生成する仮想キャラ生成手段と、を備え、
前記仮想キャラ生成手段は、所定の部位に対しては、当該所定の部位の特徴を強調するよう前記特徴点差分算出手段によって算出された差分を変更した上で前記平均顔のキャラクターに反映させることを特徴とする仮想キャラ生成装置。A virtual character generation device that generates a virtual character (hereinafter, referred to as a “virtual character”) based on a human face,
A feature point extracting means for extracting feature points of each part from a video image of the user's face; a feature point of each part extracted by the feature point extracting means; and an average face in which the features of each part are averaged. Feature point difference calculation means for calculating a difference from the feature point of the character,
Virtual character generating means for generating the virtual character of the user by reflecting the difference calculated by the feature point difference calculating means on the character of the average face,
The virtual character generation means, for a predetermined part, changes a difference calculated by the feature point difference calculation means so as to emphasize characteristics of the predetermined part, and reflects the difference on the character of the average face. A virtual character generation device characterized by the following.
独自の個性を実現するプログラムを少なくとも1つ記憶したプログラム記憶装置から所望のプログラムをダウンロードして、当該ダウンロードしたプログラムを実行することで、前記仮想キャラが前記プログラムに対応する個性に準じた所定の動作を行うよう制御することを特徴とする仮想キャラ動作制御装置。A virtual character operation control device that gives a virtual character (hereinafter, referred to as a “virtual character”) generated based on a human face a unique character that is not related to the actual expression or movement of the user,
By downloading a desired program from a program storage device storing at least one program for realizing a unique personality and executing the downloaded program, the virtual character can be converted to a predetermined character corresponding to the personality corresponding to the program. A virtual character operation control device for performing an operation.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003075858A JP2004287558A (en) | 2003-03-19 | 2003-03-19 | Video phone terminal, virtual character forming device, and virtual character movement control device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003075858A JP2004287558A (en) | 2003-03-19 | 2003-03-19 | Video phone terminal, virtual character forming device, and virtual character movement control device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004287558A true JP2004287558A (en) | 2004-10-14 |
Family
ID=33291056
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003075858A Pending JP2004287558A (en) | 2003-03-19 | 2003-03-19 | Video phone terminal, virtual character forming device, and virtual character movement control device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004287558A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012005499A2 (en) * | 2010-07-06 | 2012-01-12 | 한국전자통신연구원 | Method and apparatus for generating avatar |
JP2022023907A (en) * | 2017-05-16 | 2022-02-08 | アップル インコーポレイテッド | Recording and transmitting pictogram |
US11682182B2 (en) | 2018-05-07 | 2023-06-20 | Apple Inc. | Avatar creation user interface |
US11733769B2 (en) | 2020-06-08 | 2023-08-22 | Apple Inc. | Presenting avatars in three-dimensional environments |
US12033296B2 (en) | 2023-04-24 | 2024-07-09 | Apple Inc. | Avatar creation user interface |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10333542A (en) * | 1997-05-27 | 1998-12-18 | Sony Corp | Client device, display control method, shared virtual space provision device and method and provision medium |
JPH11328439A (en) * | 1998-05-08 | 1999-11-30 | Hitachi Ltd | Method for generating animation and computer graphics |
JP2001167287A (en) * | 1999-10-25 | 2001-06-22 | Cmaker Corp | Character generating method and picture document generating method utilizing the same |
JP2001249945A (en) * | 2000-03-07 | 2001-09-14 | Nec Corp | Feeling generation method and feeling generator |
JP2002170129A (en) * | 2000-12-01 | 2002-06-14 | Mitsubishi Electric Corp | Image display device and method and machine readable recording medium recording program for implementing this method |
JP2003016475A (en) * | 2001-07-04 | 2003-01-17 | Oki Electric Ind Co Ltd | Information terminal device with image communication function and image distribution system |
JP2003044841A (en) * | 2002-06-20 | 2003-02-14 | Sharp Corp | Device and method for generating model and recording medium with model generation program recorded thereon |
-
2003
- 2003-03-19 JP JP2003075858A patent/JP2004287558A/en active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10333542A (en) * | 1997-05-27 | 1998-12-18 | Sony Corp | Client device, display control method, shared virtual space provision device and method and provision medium |
JPH11328439A (en) * | 1998-05-08 | 1999-11-30 | Hitachi Ltd | Method for generating animation and computer graphics |
JP2001167287A (en) * | 1999-10-25 | 2001-06-22 | Cmaker Corp | Character generating method and picture document generating method utilizing the same |
JP2001249945A (en) * | 2000-03-07 | 2001-09-14 | Nec Corp | Feeling generation method and feeling generator |
JP2002170129A (en) * | 2000-12-01 | 2002-06-14 | Mitsubishi Electric Corp | Image display device and method and machine readable recording medium recording program for implementing this method |
JP2003016475A (en) * | 2001-07-04 | 2003-01-17 | Oki Electric Ind Co Ltd | Information terminal device with image communication function and image distribution system |
JP2003044841A (en) * | 2002-06-20 | 2003-02-14 | Sharp Corp | Device and method for generating model and recording medium with model generation program recorded thereon |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012005499A2 (en) * | 2010-07-06 | 2012-01-12 | 한국전자통신연구원 | Method and apparatus for generating avatar |
WO2012005499A3 (en) * | 2010-07-06 | 2012-03-29 | 한국전자통신연구원 | Method and apparatus for generating avatar |
KR101500798B1 (en) * | 2010-07-06 | 2015-03-10 | 한국전자통신연구원 | Method and apparatus for making avatar |
JP2022023907A (en) * | 2017-05-16 | 2022-02-08 | アップル インコーポレイテッド | Recording and transmitting pictogram |
US11682182B2 (en) | 2018-05-07 | 2023-06-20 | Apple Inc. | Avatar creation user interface |
US11733769B2 (en) | 2020-06-08 | 2023-08-22 | Apple Inc. | Presenting avatars in three-dimensional environments |
US12033296B2 (en) | 2023-04-24 | 2024-07-09 | Apple Inc. | Avatar creation user interface |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8830244B2 (en) | Information processing device capable of displaying a character representing a user, and information processing method thereof | |
US10445917B2 (en) | Method for communication via virtual space, non-transitory computer readable medium for storing instructions for executing the method on a computer, and information processing system for executing the method | |
JP2004289254A (en) | Videophone terminal | |
US6909453B2 (en) | Virtual television phone apparatus | |
JP4559092B2 (en) | Mobile communication terminal and program | |
JP4725936B1 (en) | Input support apparatus, input support method, and program | |
JP2003248841A (en) | Virtual television intercom | |
US11647261B2 (en) | Electrical devices control based on media-content context | |
US20010051535A1 (en) | Communication system and communication method using animation and server as well as terminal device used therefor | |
CN110691279A (en) | Virtual live broadcast method and device, electronic equipment and storage medium | |
JP7193015B2 (en) | Communication support program, communication support method, communication support system, terminal device and non-verbal expression program | |
CN115396390B (en) | Interaction method, system and device based on video chat and electronic equipment | |
US11671562B2 (en) | Method for enabling synthetic autopilot video functions and for publishing a synthetic video feed as a virtual camera during a video call | |
CN110794964A (en) | Interaction method and device for virtual robot, electronic equipment and storage medium | |
JP7181148B2 (en) | System, program, method, and information processing device | |
US20220086272A1 (en) | System and method for personalized and adaptive application management | |
Tang et al. | Alterecho: Loose avatar-streamer coupling for expressive vtubing | |
JP2024023399A (en) | Program and information processing device | |
JP2004287558A (en) | Video phone terminal, virtual character forming device, and virtual character movement control device | |
US20230353707A1 (en) | Method for enabling synthetic autopilot video functions and for publishing a synthetic video feed as a virtual camera during a video call | |
JP2021111102A (en) | Moving image generation device and live communication system | |
US11627283B2 (en) | Method for enabling synthetic autopilot video functions and for publishing a synthetic video feed as a virtual camera during a video call | |
JP4896118B2 (en) | Video phone terminal | |
JP2003108502A (en) | Physical media communication system | |
JP2020113857A (en) | Live communication system using character |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060309 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20060325 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20071114 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20071121 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20071128 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20071205 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20071212 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080723 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080917 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20081022 |