JP2006331065A - Face information transmitting device, face information transmitting method and recording medium with its program recorded - Google Patents

Face information transmitting device, face information transmitting method and recording medium with its program recorded Download PDF

Info

Publication number
JP2006331065A
JP2006331065A JP2005153477A JP2005153477A JP2006331065A JP 2006331065 A JP2006331065 A JP 2006331065A JP 2005153477 A JP2005153477 A JP 2005153477A JP 2005153477 A JP2005153477 A JP 2005153477A JP 2006331065 A JP2006331065 A JP 2006331065A
Authority
JP
Japan
Prior art keywords
face
avatar
state
face orientation
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005153477A
Other languages
Japanese (ja)
Inventor
Katsuhiro Iwasa
克博 岩佐
Kazuyuki Imagawa
和幸 今川
Eiji Fukumiya
英二 福宮
Yasunori Ishii
育規 石井
Yasunobu Ogura
康伸 小倉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2005153477A priority Critical patent/JP2006331065A/en
Publication of JP2006331065A publication Critical patent/JP2006331065A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a face information transmitting device for generating a natural avatar composite image without misalignment in the direction of the face of a user even when the user faces sideways in avatar communication. <P>SOLUTION: This face information transmitting device is provided with a first face direction determination part and a second face direction determination part as two determination parts whose thresholds are different, and the direction of the face is shifted to a follow-up operation state that an avatar follows face characteristics and an autonomous operating state that the avatar moves by using already stored face movement according to those determination parts. The face direction threshold of the second face direction determination part changing from the autonomous operating state to the follow-up operation state is set so as to be narrower than the face direction threshold of the first face direction determination part changing from the follow-up operation state to the autonomous operation state so that even when the follow-up operation state is held in a long time, and the autonomous operation state is temporarily set, the movement of the face is shifted to the follow-up operation state in such configurations that the directions of the avatar face and the user face do not misaligned. Thus, it is possible to generate a natural avatar composite image without misalignment in the direction of the face of a user even when the user faces sideways. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明はTV電話をする際に、実際の顔を送信する代わりに、CGによるキャラクタ等のアバター画像を相手に送信する顔情報送信装置、顔情報送信方法及びそのプログラムを記録した記録媒体に関するものである。   The present invention relates to a face information transmitting apparatus, a face information transmitting method, and a recording medium storing the program for transmitting an avatar image such as a character by CG to a partner instead of transmitting an actual face when making a videophone. It is.

近年、携帯電話等のコミュニケーションツールの発達によりカメラ搭載が標準となり、音声情報や文章情報を送信するだけでなく、TV電話のようなリアルタイムの画像情報を送信する場合が増えてきている。   In recent years, with the development of communication tools such as mobile phones, camera mounting has become the standard, and in addition to transmitting voice information and text information, there are increasing cases of transmitting real-time image information such as videophones.

このようなリアルタイムの動画通信において、ユーザは自己の顔画像をそのまま送信することにはためらいがあるものの、感情や意思は相手に伝えたいといった要望がある。   In such real-time video communication, the user is hesitant to transmit his / her face image as it is, but there is a demand for feeling and intention to be communicated to the other party.

この要望を満たすために、特許文献1では、取得した顔画像から顔の特徴点の位置を抽出し、この位置情報を反映したキャラクタCG画像(以下アバター画像と呼ぶ)を生成して相手に送信している。
特開2004−236186号公報
In order to satisfy this demand, in Patent Document 1, the position of a facial feature point is extracted from the acquired face image, and a character CG image (hereinafter referred to as an avatar image) reflecting this position information is generated and transmitted to the other party. is doing.
JP 2004-236186 A

しかしながら、特許文献1では常に顔の特徴点が追従可能である事が前提であり、顔が横を向いた時などは顔の特徴点が取れず追従できない。このような場合の対処方法の記載がなく、追従できなかった場合通常であれば顔以外の場所を顔として取り、そのためアバター画像の顔の動きが不定となって不自然な動きとなってしまう。   However, in Patent Document 1, it is premised that the feature points of the face can always follow, and when the face turns sideways, the feature points of the face cannot be taken and cannot follow. There is no description of how to deal with such cases, and if it is not possible to follow, normally, a place other than the face is taken as the face, so the movement of the face of the avatar image becomes indefinite and unnatural movement .

さらに、一旦追従できなくなると、近傍に特徴点が無いか探しながらますます顔から離れてしまい、手動で初期化して画像全体から顔を再検索しなければ正常復帰できなくなるという課題を有していた。   Furthermore, once it becomes impossible to follow, there is a problem that it will be further away from the face while searching for feature points in the vicinity, and it will not be able to return to normal unless it is manually initialized and the face is searched again from the entire image. It was.

本発明は、前記従来の課題を解決するもので、ユーザが顔を横向きにしても顔向きにずれの無い自然なアバター合成画像が生成可能な顔情報送信装置を提供することを目的とする。   SUMMARY OF THE INVENTION The present invention solves the above-described conventional problems, and an object thereof is to provide a face information transmitting apparatus capable of generating a natural avatar composite image that does not deviate in the face direction even when the user turns the face sideways.

本発明では、顔向きを推定し、その顔向きにより追従動作状態、自律動作状態の二つの状態に遷移する。この時状態を切り替える顔向きによる閾値判定処理の第一顔向き判定部と、判定により追従動作によるアバター合成処理を行うアバター動作修正部と、判定により自律動作によるアバター合成処理をアバター動作生成部とを備えている。   In the present invention, the face orientation is estimated, and transition is made to two states, a follow-up action state and an autonomous action state, depending on the face orientation. At this time, a first face direction determination unit for threshold determination processing based on a face direction for switching the state, an avatar operation correction unit for performing avatar composition processing by tracking operation by determination, an avatar composition processing by autonomous operation by determination, and an avatar operation generation unit It has.

この構成において、顔向きの閾値で追従、自律の二つの状態に切り替えることにより、顔が横を向いて顔部品を追従できなくても自然に自律に切り替わり、また閾値以内になれば自然に追従に切り替わり、アバターを制御することができる。   In this configuration, switching to two states of tracking and autonomous with the threshold of the face direction makes it switch autonomously even if the face is facing sideways and cannot follow the facial parts, and naturally follows if it is within the threshold. You can control your avatar.

第2の発明に係る顔情報送信装置では、追従動作状態、自律動作状態に切り替える閾値が第一顔向き判定部、第二顔向き判定部の二つあり、前フレームの動作状態によりどちらの判定部を使用するかを決定する判定分岐制御部を備えている。   In the face information transmitting apparatus according to the second invention, there are two threshold values for switching between the follow-up operation state and the autonomous operation state, the first face direction determination unit and the second face direction determination unit, and which one is determined according to the operation state of the previous frame. A decision branch control unit that determines whether to use the unit.

この構成において、追従から自律へ変わる顔向きの閾値条件と自律から追従へ変わる顔向きの閾値条件が異なり、閾値一つの場合では閾値付近で顔向きが動いた時に追従・自律の切り替わりが頻繁に起きるのに対して、自然な状態の切替が実現できる。   In this configuration, the threshold condition of the face direction that changes from tracking to autonomous and the threshold condition of the face direction that changes from autonomous to tracking are different, and in the case of one threshold, switching between tracking and autonomous is frequent when the face direction moves near the threshold. A natural state switch can be realized while it occurs.

第3の発明に係る顔情報送信装置では、第一顔向き判定部の顔向き閾値は第二顔向き判定部の顔向き閾値と比べて広く設定されている。   In the face information transmitting apparatus according to the third aspect of the invention, the face direction threshold value of the first face direction determination unit is set wider than the face direction threshold value of the second face direction determination unit.

この構成において、追従から自律に変わる閾値は広く、自律から追従に変わる閾値は狭くすることで、顔部品による追従動作を長く続ける事ができ、自律から追従に変わる時もアバターの顔の向きと撮影対象人物の顔の向きが近い形で遷移可能である。   In this configuration, the threshold to change from tracking to autonomy is wide, and the threshold to change from tracking to autonomy is narrow, so that the tracking operation by the face part can be continued for a long time. Transition is possible with the face direction of the person to be photographed close.

第4の発明に係る顔情報送信装置では、自律動作状態の時に被写体人物が正面顔になって初めて追従動作状態に遷移する。   In the face information transmitting apparatus according to the fourth aspect of the present invention, the transition to the follow-up operation state is not made until the subject person becomes a front face in the autonomous operation state.

この構成において、自律動作状態になった時にアバター顔が正面向きに次第に戻り、このアバター顔と被写体人物の顔が正面で一致した時にだけ追従動作状態になるので、追従動作状態に切り替わった時のアバター顔と被写体人物の顔向きが一致して自然な遷移が実現できる。   In this configuration, the avatar face gradually returns to the front direction when it enters the autonomous operation state, and the tracking operation state is entered only when the avatar face and the face of the subject person coincide with each other in the front. A natural transition can be realized by matching the avatar face and the face direction of the subject person.

第5の発明に係る顔情報送信装置では、第一顔向き判定部の閾値が顔部品の検出できる検出可能範囲以下である。   In the face information transmitting apparatus according to the fifth aspect of the invention, the threshold value of the first face direction determining unit is not more than the detectable range in which the face part can be detected.

この構成において、追従状態において常に顔部品が検出でき、安定した追従が実現できる。   In this configuration, face parts can always be detected in the tracking state, and stable tracking can be realized.

第6の発明に係る顔情報送信装置では、自律動作状態の時に被写体人物が正面顔にならなくても、その時のアバター顔の顔向きと一致すれば追従動作状態に遷移する。   In the face information transmitting apparatus according to the sixth aspect of the invention, even if the subject person does not become a front face when in the autonomous operation state, the face information transmission device transitions to the follow-up operation state if it matches the face direction of the avatar face at that time.

この構成において、顔向きが一致すればすぐに追従動作状態に遷移し、長く追従動作状態に保つ事ができるため、アバター顔を通して、うなずき、首振りから顔の表情までのコミュニケーションを高めることができる。   In this configuration, if the face orientations match, it immediately transitions to the follow-up action state and can maintain the follow-up action state for a long time, so communication from nodding and swinging to facial expressions can be enhanced through the avatar face. .

本発明では、次の効果がある。動画コミュニケーションにおいてユーザが横を向いた場合にも、追従が途切れることなくアバター画像が自律動作をするため、アバター画像の自然な動きを相手に見せることができる。   The present invention has the following effects. Even when the user turns sideways in the video communication, the avatar image autonomously moves without being interrupted, so that the natural movement of the avatar image can be shown to the other party.

以下本発明の実施の形態について、図面を参照しながら説明する。   Embodiments of the present invention will be described below with reference to the drawings.

(実施の形態1)
次に、図面を参照しながら、本発明の実施の形態を説明する。図1は本発明の実施の形態1における顔情報送信装置の機能ブロック図、図2は同顔情報送信装置のフローチャート、図4は同顔情報送信装置のブロック図である。
(Embodiment 1)
Next, embodiments of the present invention will be described with reference to the drawings. 1 is a functional block diagram of a face information transmitting apparatus according to Embodiment 1 of the present invention, FIG. 2 is a flowchart of the same face information transmitting apparatus, and FIG. 4 is a block diagram of the same face information transmitting apparatus.

各部の詳細を説明する前に、図2を用いて、本形態の画像処理装置の処理の流れを解説する。まず、入力画像から顔を見つけて顔の特徴量抽出を行い(ステップ1)、特徴量から顔向きを推定する(ステップ2)。そして、顔向きが閾値以内か以上かで追従動作か自律動作かを判定する(ステップ3)。   Before explaining the details of each part, the flow of processing of the image processing apparatus of this embodiment will be explained with reference to FIG. First, a face is found from the input image, and a feature amount of the face is extracted (step 1), and the face orientation is estimated from the feature amount (step 2). Then, it is determined whether the follow-up action or the autonomous action is based on whether the face orientation is within the threshold value or more (step 3).

ここで、追従動作とは、抽出した顔の特徴量から、顔の位置、顔向き、顔傾き、顔の動作等を抽出し、これに合わせた形でアバター画像を合成、表示させる動作のことである。   Here, the tracking operation is an operation that extracts the face position, face orientation, face tilt, face action, etc. from the extracted facial feature amount, and synthesizes and displays the avatar image in accordance with this. It is.

さらに、自律動作とは、抽出した顔の特徴量に寄らず、既に記憶された顔の動作や、直前に記憶した顔の動作に従い、アバター画像を合成し、動かす動作のことである。   Furthermore, the autonomous operation is an operation of synthesizing and moving an avatar image in accordance with an already stored facial motion or a previously stored facial motion, regardless of the extracted facial feature amount.

追従動作の場合は前フレームとの顔特徴の位置の差分だけを修正してアバター動作を決定するアバター動作修正処理を行う(ステップ4)。   In the case of the follow-up motion, an avatar motion correction process is performed in which only the difference in the position of the facial feature from the previous frame is corrected to determine the avatar motion (step 4).

自律動作の場合は顔向きが正面以外であればアバター動作生成処理を行う(ステップ5)。   In the case of autonomous movement, if the face direction is other than front, avatar movement generation processing is performed (step 5).

アバター動作修正処理(ステップ4)、アバター動作生成処理(ステップ5)を行った後は作成したアバター画像をアバター送信処理(ステップ6)により相手側に送信する。   After performing the avatar motion correction process (step 4) and the avatar motion generation process (step 5), the created avatar image is transmitted to the other party by the avatar transmission process (step 6).

上記のステップ1〜6を各フレームごとに繰り返しながらアバター画像を送信する。   The avatar image is transmitted while repeating the above steps 1 to 6 for each frame.

次に、本形態の画像処理装置の構成を説明する。図4は、図1の要素を具体的に構成した例を示す。即ち、図4において、CPU(中央演算処理装置)20は、ROM(リードオンリーメモリ)21に格納され、図2のフローチャートに沿う画像処理プログラムを実行し、バス19を経由し、図2に示す各要素を制御する。   Next, the configuration of the image processing apparatus of this embodiment will be described. FIG. 4 shows an example in which the elements of FIG. 1 are specifically configured. That is, in FIG. 4, a CPU (Central Processing Unit) 20 is stored in a ROM (Read Only Memory) 21 and executes an image processing program according to the flowchart of FIG. Control each element.

RAM(ランダムアクセスメモリ)22及び不揮発性RAM23には、図1に示す各記憶部のための領域の他、CPU20がその処理のために必要とする一時記憶領域が確保されている。   In the RAM (random access memory) 22 and the non-volatile RAM 23, in addition to the areas for the respective storage units shown in FIG.

なお、図1に示す各処理手段は、CPU20が、ROM21に格納された画像処理プログラムを実行することにより実現される。また、このプログラムは、不揮発性RAM23あるいは外部記憶メモリなどの周知の記憶媒体に格納することができる。   Each processing unit shown in FIG. 1 is realized by the CPU 20 executing an image processing program stored in the ROM 21. Further, this program can be stored in a known storage medium such as the nonvolatile RAM 23 or an external storage memory.

また、図4の例では、インターフェース24にカメラ25が接続され、リアルタイムで対象物を含むであろう画像を取得できるようになっている。「含むであろう画像」としたのは、検出を行なう以前は、対象物を含むかどうか不明だからである。なお、カメラ25は、CCD、CMOSのどちらのモジュールを用いたものであっても良く、携帯電話に付属するカメラを用いることもできる。   In the example of FIG. 4, a camera 25 is connected to the interface 24 so that an image that may include an object can be acquired in real time. The reason why the image is supposed to be included is that it is unknown whether the object is included before detection. Note that the camera 25 may be a CCD or CMOS module, or a camera attached to a mobile phone.

次に、図1の機能ブロック構成図を用いて本発明の全体構成を説明する。   Next, the overall configuration of the present invention will be described using the functional block configuration diagram of FIG.

図1において、顔特徴抽出部1は、入力画像記憶部9内の入力画像データから顔を検出した後、顔の特徴量を抽出し、その顔特徴量を顔特徴記憶部10に保存する。図6に顔特徴抽出処理を示す。   In FIG. 1, the face feature extraction unit 1 detects a face from input image data in the input image storage unit 9, extracts a face feature amount, and stores the face feature amount in the face feature storage unit 10. FIG. 6 shows the facial feature extraction process.

顔の特徴量とは、(g)に示すような顔の各顔部品パーツの特徴点の位置データである。この顔の特徴量は顔部品パーツの特徴点を表すものであればどんな位置・形式・特徴量でもかまわない。   The face feature amount is position data of feature points of each face part part of the face as shown in (g). The face feature amount may be any position, form, or feature amount as long as it represents the feature point of the face part part.

まず、平均顔のテンプレート(a)を用意し、入力画像(b)とこのテンプレートとのパターンマッチングを行って、相関値により(f)のように顔位置を特定する。   First, an average face template (a) is prepared, pattern matching between the input image (b) and this template is performed, and the face position is specified as shown in (f) by the correlation value.

顔位置を特定するために常に入力画像全体から顔を探索してもよいし、一旦顔を顔位置を特定した後は、前フレームの顔位置を利用してその周辺だけを探索しても良い。   In order to specify the face position, the face may always be searched from the entire input image, or after the face position is specified once, only the vicinity thereof may be searched using the face position of the previous frame. .

その後、各部品の平均テンプレート(例えば目(c)、鼻(d)、口(e))によるテンプレートマッチングで各部品の位置を正確に検出、これにより(g)のように顔部品の端点の座標を計算する。   After that, the position of each part is accurately detected by template matching using an average template of each part (for example, eyes (c), nose (d), mouth (e)). Calculate the coordinates.

また顔の特徴量の抽出方法はこの手法に限定せず、同等の効果を示す手法であれば他の手法を用いてもかまわない。   Further, the method for extracting the facial feature amount is not limited to this method, and other methods may be used as long as the method exhibits the same effect.

顔向き推定部2は、顔特徴記憶部10内の顔特徴量を入力として用いて顔向きを推定し、推定した顔向き・顔角度を顔向き記憶部11に保存する。図7に顔部品の配置と顔向きの関係について示す。(a)正面を基準として(b)左向き/(c)右向きはそれぞれ鼻の位置が左寄り/右寄りとなる。また、(d)上向き/(e)下向きはそれぞれ目と鼻の間隔が短い/長いとなる。このような顔向きにより変わる顔部品の幾何情報を利用して顔向き推定を行う。   The face direction estimation unit 2 estimates the face direction using the face feature amount in the face feature storage unit 10 as an input, and stores the estimated face direction and face angle in the face direction storage unit 11. FIG. 7 shows the relationship between the arrangement of face parts and the face orientation. (A) With reference to the front, (b) leftward / (c) rightward, the position of the nose is to the left / right. Further, (d) upward / (e) downward indicates that the distance between the eyes and the nose is short / long. The face orientation is estimated using the geometric information of the face part that changes depending on the face orientation.

具体的な顔向きの算出方法を図8を用いて説明する。(a)は人物の頭頂から見た模式図である。両目の中点をA、鼻の頭をD、A・Dを映像面に射影した点をB・Cとすると、左右への顔向き角度θは   A specific method for calculating the face orientation will be described with reference to FIG. (A) is the schematic diagram seen from the head of a person. Assuming that the midpoint of both eyes is A, the head of the nose is D, and the points projected on the image plane are B and C, the face angle θ to the left and right is

Figure 2006331065
Figure 2006331065

で表すことができる。 Can be expressed as

ADは鼻の高さ、BCは両目の中点と鼻の頭の距離であり、この二つの数値の割合により左右の顔向き角度θが決定する。鼻の高さは人間の顔の造形という意味では個体差がそれほど無いので、両目の距離に対する鼻の高さの比率を統計的平均により算出しておいて使用する。以上の手法により左右向きの顔向き角度を算出する。   AD is the height of the nose, BC is the distance between the midpoint of both eyes and the head of the nose, and the left and right face orientation angle θ is determined by the ratio of these two numerical values. Since the height of the nose has little individual difference in terms of shaping the human face, the ratio of the height of the nose to the distance between both eyes is calculated by a statistical average and used. By using the above method, the left and right face angle is calculated.

(b)(c)は人物の横顔を示す模式図である。(b)が正面向きの図、(c)が上下向き方向に顔を動かした図である。(c)において、両目の中点の位置をE、鼻の下をH、E・Hを映像面に投影した点をF・Gとすると、上下への顔向き角度θは   (B) and (c) are schematic diagrams showing a profile of a person. (B) is a front view, and (c) is a view in which the face is moved in the vertical direction. In (c), when the position of the middle point of both eyes is E, H is below the nose, and F / G is a point obtained by projecting E · H onto the image plane, the vertical face orientation angle θ is

Figure 2006331065
Figure 2006331065

で表すことができる。 Can be expressed as

EHは両目の中点から鼻の下までの距離であるため、両目の距離に対するEHの距離の比率を統計的平均により算出しておいて使用する、または(b)正面顔時のEHの距離を両目の距離と共に登録することで対応する。FGは特徴量抽出時の両目と鼻の下の座標を用いて逐次計算することができる。以上の手法により上下向きの顔向き角度を算出する。   Since EH is the distance from the middle point of both eyes to the bottom of the nose, the ratio of the distance of EH to the distance of both eyes is calculated using a statistical average, or (b) the distance of EH at the front face By registering with the distance of both eyes. The FG can be calculated sequentially using the coordinates under both eyes and nose at the time of feature extraction. The face orientation angle in the vertical direction is calculated by the above method.

なお、顔向き推定は上記の手法に限定することなく、同等の効果を示す手法であれば他の手法を用いてもかまわない。   Note that face orientation estimation is not limited to the above-described method, and other methods may be used as long as the method exhibits the same effect.

次に本発明のポイントとなる第一顔向き判定部4、アバター動作修正部5、アバター動作生成部7を詳細に説明する。   Next, the 1st face direction determination part 4, the avatar action correction part 5, and the avatar action generation part 7 which are the points of this invention are demonstrated in detail.

第一顔向き判定部4は、顔向き記憶部11内に記憶した顔向きに従い、アバター動作修正部5、アバター動作生成部7のどちらを実行するかを決定する。顔向き閾値以内であれば、追従動作状態であり、アバター動作修正部を実行する。顔向き閾値以上であれば、自律動作状態であり、アバター動作生成部を実行する。   The first face orientation determination unit 4 determines which one of the avatar motion correction unit 5 and the avatar motion generation unit 7 is executed according to the face orientation stored in the face orientation storage unit 11. If it is within the face direction threshold, it is a follow-up motion state and the avatar motion correction unit is executed. If it is more than a face direction threshold value, it is an autonomous operation state and an avatar action generation part is performed.

アバター動作修正部では、顔特徴記憶部とキャラクタデータ記憶部の情報を用いてアバター画像を合成する。キャラクタデータ記憶部には、正面顔のときの基準顔キャラクタデータが入っており、顔特徴量の特徴点に対応するキャラクタデータの特徴点が設定されている。顔特徴量が変わればこれに合わせてキャラクタの特徴点も変動させてアバター画像を生成する。例えば、顔部品が全て右よりの顔特徴量であれば、キャラクタもそれに合わせて顔部品を右よりに再合成し直してアバター画像を作成する。こうする事で顔の特徴量に合わせた少し右を向いたアバター画像が生成できる。   The avatar motion correction unit synthesizes an avatar image using information in the face feature storage unit and the character data storage unit. The character data storage unit contains reference face character data for the front face, and character data feature points corresponding to the feature points of the face feature amount are set. If the face feature amount changes, the character feature point is also changed accordingly, and an avatar image is generated. For example, if all the facial parts are face feature values from the right, the character also re-synthesizes the facial parts from the right to create an avatar image. By doing so, it is possible to generate an avatar image facing right slightly according to the feature amount of the face.

アバター動作生成部では、顔動作記憶部とキャラクタデータ記憶部の情報を用いてアバター画像を合成する。キャラクタデータ記憶部には、正面顔のときの基準顔キャラクタデータが入っており、顔特徴量の特徴点に対応するキャラクタデータの特徴点が設定されている。顔動作記憶部には、あらかじめ顔特徴量の変動が数フレーム分保存されている。この保存された顔特徴量が変わればこれに合わせてキャラクタの特徴点も変動させてアバター画像を生成する。例えば、うなずく動作における顔特徴量が数フレーム顔動作記憶部に保存されている場合、キャラクタもそれに合わせてうなずくように再合成し直してアバター画像を作成する。こうする事で顔の特徴量が検出できない時にもアバター画像が生成できる。   The avatar motion generation unit synthesizes an avatar image using information in the face motion storage unit and the character data storage unit. The character data storage unit contains reference face character data for the front face, and character data feature points corresponding to the feature points of the face feature amount are set. In the face motion storage unit, variations of face feature amounts are stored in advance for several frames. If the stored face feature value changes, the feature point of the character is also changed accordingly, and an avatar image is generated. For example, when the face feature amount in the nodding motion is stored in the face motion storage unit for several frames, the character is re-synthesized so that it nods accordingly, and an avatar image is created. By doing this, an avatar image can be generated even when the facial feature amount cannot be detected.

なお、顔動作記憶部に記憶された顔動作情報は直前の顔動作を記憶するのではなく、実行する以前からあらかじめ与えられていた顔動作が記憶されていてもかまわない。   Note that the face motion information stored in the face motion storage unit may not store the previous face motion, but may store a face motion previously given before execution.

以上のようにして、顔が横を向いて顔特徴量が抽出できない状況においても不自然な動作をすることなく相手側にアバター画像の動作を送信する事ができる。   As described above, it is possible to transmit the avatar image operation to the other party without performing an unnatural operation even in a situation where the face is facing sideways and the face feature amount cannot be extracted.

図1には、スタンドアロン形式のシステムを例示したが、サーバ/クライアント形式にしても良い。つまり、1つの端末機のみに、本明細書に出現する全ての要素が含まれている場合の他、1つの端末機がクライアントであり、これが接続可能なサーバないしネットワーク上に、全部又は一部の要素が実存していても差し支えない。   Although FIG. 1 illustrates a stand-alone system, a server / client format may be used. In other words, in addition to the case where only one terminal includes all the elements appearing in this specification, one terminal is a client, and all or part of it on a server or network to which this terminal can be connected. The elements of can exist.

さらには、図1のほとんどの要素をサーバ側で持ち、クライアント側では、例えば、WWWブラウザだけにしても良い。この場合、各種の情報は、通常サーバ上にあり、基本的にネットワークを経由してクライアントに配布されているものだが、必要な情報が、サーバ上にある時は、そのサーバの記憶装置が、ここにいう「記録媒体」となり、クライアント上にある時は、そのクライアントの記録装置が、ここにいう「記録媒体」となる。   Furthermore, most of the elements in FIG. 1 may be held on the server side, and on the client side, for example, only the WWW browser may be used. In this case, various types of information are usually on the server and are basically distributed to the client via the network, but when the necessary information is on the server, the storage device of the server When the “recording medium” here is on the client, the recording device of the client becomes the “recording medium” here.

さらに、この「プログラム」には、コンパイルされて機械語になったアプリケーションの他、上述のプロセスないしスレッドにより解釈される中間コードとして実存する場合や、少なくともリソースとソースコードとが「記録媒体」上に格納され、これらから中間コードのアプリケーションを生成できるインタープリタが「記録媒体」にある場合なども含む。   Furthermore, in addition to an application that has been compiled into machine language, this “program” exists as intermediate code that is interpreted by the processes or threads described above, or at least resources and source code are stored on the “recording medium”. In this case, the “recording medium” includes an interpreter that can store an intermediate code application.

(実施の形態2)
次に、図面を参照しながら、本発明の実施の形態2を説明する。図3は、本発明の実施の形態2における顔情報送信装置の機能ブロック図、図4は、同顔情報送信装置のブロック図、図5は、同顔情報送信装置のフローチャートである。
(Embodiment 2)
Next, Embodiment 2 of the present invention will be described with reference to the drawings. FIG. 3 is a functional block diagram of the face information transmitting apparatus according to Embodiment 2 of the present invention, FIG. 4 is a block diagram of the face information transmitting apparatus, and FIG. 5 is a flowchart of the face information transmitting apparatus.

各部の詳細を説明する前に、図5を用いて、本形態の画像処理装置の処理の流れを解説する。まず、入力画像から顔を見つけて顔の特徴量抽出を行い(ステップ1)、特徴量から顔向きを推定する(ステップ2)。そして、前フレームが追従動作か自律動作かによって判定分岐制御で判定器を切り替える(ステップ3)。   Before explaining the details of each part, the flow of processing of the image processing apparatus of this embodiment will be explained with reference to FIG. First, a face is found from the input image, and a feature amount of the face is extracted (step 1), and the face orientation is estimated from the feature amount (step 2). Then, the decision unit is switched by decision branch control depending on whether the previous frame is a follow-up operation or an autonomous operation (step 3).

判定分岐制御で追従動作の場合は顔角度による第一顔向き判定処理を行う(ステップ4)。第一の顔向き閾値以内であれば追従動作状態のままであり、第一の顔向き閾値以上であれば自律動作状態に遷移する。その後、前フレームとの顔特徴の位置の差分だけを修正してアバター動作を決定するアバター動作修正処理を行う(ステップ5)。   In the case of the tracking operation in the decision branch control, a first face orientation determination process based on the face angle is performed (step 4). If it is within the first face direction threshold, it remains in the follow-up operation state, and if it is greater than or equal to the first face direction threshold, it changes to the autonomous operation state. Thereafter, an avatar motion correction process is performed in which only the difference in the position of the facial feature from the previous frame is corrected to determine the avatar motion (step 5).

判定分岐制御で自律動作の場合は顔向きが正面か正面以外かを判定する第二顔向き判定処理を行う(ステップ6)。正面以外であれば自律動作状態のままであり、正面の場合は追従動作状態に遷移する。その後、あらかじめ記憶された顔動作記憶データを用いて合成するアバター動作生成処理を行う(ステップ7)。   In the case of autonomous operation in the determination branch control, a second face orientation determination process is performed to determine whether the face orientation is the front or other than the front (step 6). If it is other than the front, it remains in the autonomous operation state, and if it is the front, it changes to the following operation state. Thereafter, an avatar motion generation process is performed for synthesis using face motion memory data stored in advance (step 7).

アバター動作修正処理(ステップ5)、アバター動作生成処理(ステップ7)を行った後は作成したアバター画像をアバター送信処理(ステップ8)により相手側に送信する。   After performing the avatar motion correction process (step 5) and the avatar motion generation process (step 7), the created avatar image is transmitted to the other party by the avatar transmission process (step 8).

上記のステップ1〜8を各フレームごとに繰り返しながらアバター画像を送信する。   The avatar image is transmitted while repeating the above steps 1 to 8 for each frame.

次に、本形態の画像処理装置の構成を説明する。図4は、図3の要素を具体的に構成した例を示す。即ち、図4において、CPU(中央演算処理装置)20は、ROM(リードオンリーメモリ)21に格納され、図5のフローチャートに沿う画像処理プログラムを実行し、バス19を経由し、図5に示す各要素を制御する。   Next, the configuration of the image processing apparatus of this embodiment will be described. FIG. 4 shows an example in which the elements of FIG. 3 are specifically configured. That is, in FIG. 4, a CPU (Central Processing Unit) 20 is stored in a ROM (Read Only Memory) 21 and executes an image processing program according to the flowchart of FIG. Control each element.

RAM(ランダムアクセスメモリ)22及び不揮発性RAM23には、図3に示す各記憶部9、10、11、12、13、14のための領域の他、CPU20がその処理のために必要とする一時記憶領域が確保されている。   In the RAM (random access memory) 22 and the non-volatile RAM 23, in addition to the areas for the storage units 9, 10, 11, 12, 13, and 14 shown in FIG. A storage area is reserved.

なお、図3に示す各処理手段1、2、3、4、5、6、7、8は、CPU20が、ROM21に格納された画像処理プログラムを実行することにより実現される。また、このプログラムは、不揮発性RAM23あるいは外部記憶メモリなどの周知の記憶媒体に格納することができる。   Note that the processing means 1, 2, 3, 4, 5, 6, 7, and 8 shown in FIG. 3 are realized by the CPU 20 executing an image processing program stored in the ROM 21. Further, this program can be stored in a known storage medium such as the nonvolatile RAM 23 or an external storage memory.

また、図4の例では、インターフェース24にカメラ25が接続され、リアルタイムで対象物を含むであろう画像を取得できるようになっている。なお、カメラ25は、CCD、CMOSのどちらのモジュールを用いたものであっても良く、携帯電話に付属するカメラを用いることもできる。   In the example of FIG. 4, a camera 25 is connected to the interface 24 so that an image that may include an object can be acquired in real time. Note that the camera 25 may be a CCD or CMOS module, or a camera attached to a mobile phone.

次に、図3の機能ブロック構成図を用いて本発明の全体構成を説明する。   Next, the overall configuration of the present invention will be described using the functional block configuration diagram of FIG.

図3において、顔特徴抽出部1は、入力画像記憶部9内の入力画像データから顔を検出した後、顔の特徴量を抽出し、その顔特徴量を顔特徴記憶部10に保存する。顔特徴抽出部の詳細は実施の形態1と同様である。   In FIG. 3, the face feature extraction unit 1 detects a face from input image data in the input image storage unit 9, then extracts a face feature amount, and stores the face feature amount in the face feature storage unit 10. Details of the face feature extraction unit are the same as those in the first embodiment.

顔向き推定部2は、顔特徴記憶部10内の顔特徴量を入力として用いて顔向きを推定し、推定した顔向き・顔角度を顔向き記憶部11に保存する。顔向き推定部の詳細は実施の形態1と同様である。   The face direction estimation unit 2 estimates the face direction using the face feature amount in the face feature storage unit 10 as an input, and stores the estimated face direction and face angle in the face direction storage unit 11. The details of the face direction estimation unit are the same as those in the first embodiment.

次に本発明のポイントとなる判定分岐制御部3、第一顔向き判定部4、第二顔向き判定部6を詳細に説明する。   Next, the determination branch control unit 3, the first face direction determination unit 4, and the second face direction determination unit 6 which are the points of the present invention will be described in detail.

判定分岐制御部3は、状態遷移記憶部13内に記憶した前フレームの2つの動作状態フラグに従い、第一顔向き判定部4と第二顔向き判定部6のどちらを実行するかを決定する。   The decision branch control unit 3 determines whether to execute the first face direction determination unit 4 or the second face direction determination unit 6 according to the two operation state flags of the previous frame stored in the state transition storage unit 13. .

第一顔向き判定部4は、顔向き記憶部11内の顔向き・顔角度情報を用いて、現フレームの顔が第一顔向き範囲内に存在するかどうかを閾値判定し、範囲外であれば状態遷移記憶部13に自律動作状態フラグをセットする。その後アバター動作修正部5に移行する。第一顔向き範囲とは、正面向きよりも広く、顔特徴量が抽出できる検出可能範囲よりも内側に設定された閾値である。図9に第一顔向き範囲の設定例を示す。図では左右に対する顔向きのみを例示してあるが、上下の顔向きについても同様である。   The first face orientation determination unit 4 uses the face orientation / face angle information in the face orientation storage unit 11 to determine whether or not the face of the current frame is within the first face orientation range, and out of the range. If there is, an autonomous operation state flag is set in the state transition storage unit 13. Thereafter, the process proceeds to the avatar operation correcting unit 5. The first face direction range is a threshold value that is wider than the front direction and is set on the inner side of the detectable range in which the face feature amount can be extracted. FIG. 9 shows an example of setting the first face direction range. Although only the face orientation with respect to the left and right is illustrated in the figure, the same applies to the upper and lower face orientations.

第二顔向き判定部6は、顔向き記憶部11内の顔向き・顔角度情報を用いて、現フレームの顔が第二顔向き範囲内に存在するかどうかを閾値判定し、範囲外であれば状態遷移記憶部13に追従動作状態フラグをセットする。その後アバター動作生成部7に移行する。第二顔向き範囲とは、正面向きの顔範囲以外を指し示す。図9に第二顔向き範囲の設定例を示す。逆に、唯一顔正面が第二顔向き範囲外である。図では左右に対する顔向きのみを例示してあるが、上下の顔向きについても同様である。   The second face orientation determination unit 6 uses the face orientation / face angle information in the face orientation storage unit 11 to determine whether or not the face of the current frame is within the second face orientation range, and out of the range. If there is, the tracking operation state flag is set in the state transition storage unit 13. Thereafter, the process proceeds to the avatar motion generation unit 7. The second face direction range indicates a range other than the front face range. FIG. 9 shows an example of setting the second face orientation range. Conversely, the only face front is outside the second face orientation range. Although only the face orientation with respect to the left and right is illustrated in the figure, the same applies to the upper and lower face orientations.

図10に状態遷移記憶部13の状態遷移図を示す。前フレームの顔向きが第一顔向き判定部4で第一顔向き範囲内である、もしくは第二顔向き判定部6で第二顔向き範囲外であれば、状態遷移記憶部13は追従状態のフラグが立つ。この状態の場合、現フレームにおいて判定分岐制御部3は第一顔向き判定部4を選択して実行に移す。   FIG. 10 shows a state transition diagram of the state transition storage unit 13. If the face orientation of the previous frame is within the first face orientation range at the first face orientation determination unit 4 or outside the second face orientation range at the second face orientation determination unit 6, the state transition storage unit 13 follows the state. The flag stands. In this state, the determination branch control unit 3 selects the first face orientation determination unit 4 in the current frame and proceeds to execution.

第一顔向き判定部4において顔向きが第一顔向き範囲内だと判断する間は常に追従動作状態にセットされる、すなわち次フレームにおいてもアバター動作修正部5が実行されてアバターは顔に追従した動作をする。もし顔向きが第一顔向き範囲を超えた場合、自律動作状態に遷移し、次フレームではアバター動作生成部7が実行されてアバターはあらかじめ顔動作を記憶した顔動作記憶部12の情報を用いて自律動作をする。   While the first face orientation determination unit 4 determines that the face orientation is within the first face orientation range, it is always set to the following motion state, that is, the avatar motion modification unit 5 is executed even in the next frame, and the avatar becomes a face. Follows the movement. If the face orientation exceeds the first face orientation range, transition to the autonomous motion state, and in the next frame, the avatar motion generation unit 7 is executed, and the avatar uses the information in the face motion storage unit 12 in which the face motion is stored in advance. Be autonomous.

前フレームの顔向きが第二顔向き判定部6で第二顔向き範囲内である、もしくは第一顔向き判定部4で第一顔向き範囲外であれば、状態遷移記憶部13は自律動作状態のフラグが立つ。この状態の場合、現フレームにおいて判定分岐制御部3は第二顔向き判定部6を選択して実行に移す。   If the face orientation of the previous frame is within the second face orientation range at the second face orientation determination unit 6 or outside the first face orientation range at the first face orientation determination unit 4, the state transition storage unit 13 is autonomously operated. A status flag is raised. In this state, the determination branch control unit 3 selects the second face orientation determination unit 6 in the current frame and moves to execution.

第二顔向き判定部6において顔向きが第二顔向き範囲内、すなわち顔正面ではないと判断する間は常に自律動作状態にセットされる、すなわち次フレームにおいてもアバター動作生成部7が実行されてアバターはあらかじめ顔動作を記憶した顔動作記憶部12の情報を用いて自律動作をする。もし顔向きが第二顔向き範囲外、すなわち顔正面となった場合、状態遷移記憶部13にフラグをセットして追従動作状態に再度遷移し、次フレームではアバター動作修正部5が実行されてアバターは顔に追従した動作をする。   While the second face direction determination unit 6 determines that the face direction is within the second face direction range, that is, not in front of the face, it is always set to the autonomous operation state, that is, the avatar operation generation unit 7 is executed also in the next frame. The avatar performs an autonomous operation using information stored in the face motion storage unit 12 in which the facial motion is stored in advance. If the face orientation is out of the second face orientation range, that is, the face is in front, a flag is set in the state transition storage unit 13 to transit again to the follow-up motion state, and the avatar motion correction unit 5 is executed in the next frame. The avatar moves following the face.

次に状態遷移記憶部13が追従動作状態の時の各ブロックの動きについて図11を用いて説明する。追従動作状態では判定分岐制御部は第一顔向き判定部を選択して移行する。第一顔向き判定部には図11のように顔向き記憶部より様々な顔向きが入ってくる。その中でも第一顔向き範囲内に納まる顔向きの場合には状態遷移記憶部に追従動作状態フラグをセットしてアバター動作修正部へ移行する。第一顔向き範囲外の顔向きの場合には状態遷移記憶部に自律動作状態フラグをセットしてアバター動作修正部へ移行する。   Next, the movement of each block when the state transition storage unit 13 is in the following operation state will be described with reference to FIG. In the follow-up operation state, the determination branch control unit selects the first face orientation determination unit and shifts. Various face orientations are input to the first face orientation determination unit from the face orientation storage unit as shown in FIG. Among them, in the case of a face orientation that falls within the first face orientation range, the tracking operation state flag is set in the state transition storage unit, and the process proceeds to the avatar operation correction unit. In the case of a face orientation outside the first face orientation range, an autonomous operation state flag is set in the state transition storage unit, and the process proceeds to the avatar operation correction unit.

アバター動作修正部では、顔特徴記憶部とキャラクタデータ記憶部の情報を用いてアバター画像を合成する。キャラクタデータ記憶部には、正面顔のときの基準顔キャラクタデータが入っており、顔特徴量の特徴点に対応するキャラクタデータの特徴点が設定されている。顔特徴量が変わればこれに合わせてキャラクタの特徴点も変動させてアバター画像を生成する。例えば、顔部品が全て右よりの顔特徴量であれば、キャラクタもそれに合わせて顔部品を右よりに再合成し直してアバター画像を作成する。こうする事で顔の特徴量に合わせた少し右を向いたアバター画像が生成できる。   The avatar motion correction unit synthesizes an avatar image using information in the face feature storage unit and the character data storage unit. The character data storage unit contains reference face character data for the front face, and character data feature points corresponding to the feature points of the face feature amount are set. If the face feature amount changes, the character feature point is also changed accordingly, and an avatar image is generated. For example, if all the facial parts are face feature values from the right, the character also re-synthesizes the facial parts from the right to create an avatar image. By doing so, it is possible to generate an avatar image facing right slightly according to the feature amount of the face.

次に状態遷移記憶部13が自律動作状態の時の各ブロックの動きについて図12を用いて説明する。自律動作状態では判定分岐制御部は第二顔向き判定部を選択して移行する。第二顔向き判定部には図12のように顔向き記憶部より様々な顔向きが入ってくる。その中でも第二顔向き範囲内に納まる顔向きの場合、すなわち正面顔以外の場合には状態遷移記憶部に自律動作状態フラグをセットしてアバター動作生成部へ移行する。第二顔向き範囲外の顔向き、すなわち正面顔の場合には状態遷移記憶部に追従動作状態フラグをセットしてアバター動作生成部へ移行する。   Next, the movement of each block when the state transition storage unit 13 is in the autonomous operation state will be described with reference to FIG. In the autonomous operation state, the determination branch control unit selects the second face orientation determination unit and shifts. Various face orientations are input to the second face orientation determination unit from the face orientation storage unit as shown in FIG. Among them, in the case of a face orientation that falls within the second face orientation range, that is, in the case of a face other than the front face, an autonomous operation state flag is set in the state transition storage unit and the process proceeds to the avatar operation generation unit. In the case of a face orientation outside the second face orientation range, that is, a front face, the tracking motion state flag is set in the state transition storage unit, and the process proceeds to the avatar motion generation unit.

アバター動作生成部では、顔動作記憶部とキャラクタデータ記憶部の情報を用いてアバター画像を合成する。キャラクタデータ記憶部には、正面顔のときの基準顔キャラクタデータが入っており、顔特徴量の特徴点に対応するキャラクタデータの特徴点が設定されている。顔動作記憶部には、あらかじめ顔特徴量の変動が数フレーム分保存されている。この保存された顔特徴量が変わればこれに合わせてキャラクタの特徴点も変動させてアバター画像を生成する。例えば、うなずく動作における顔特徴量が数フレーム顔動作記憶部に保存されている場合、キャラクタもそれに合わせてうなずくように再合成し直してアバター画像を作成する。こうする事で顔の特徴量が検出できない時にもアバター画像が生成できる。   The avatar motion generation unit synthesizes an avatar image using information in the face motion storage unit and the character data storage unit. The character data storage unit contains reference face character data for the front face, and character data feature points corresponding to the feature points of the face feature amount are set. In the face motion storage unit, variations of face feature amounts are stored in advance for several frames. If the stored face feature value changes, the feature point of the character is also changed accordingly, and an avatar image is generated. For example, when the face feature amount in the nodding motion is stored in the face motion storage unit for several frames, the character is re-synthesized so that it nods accordingly, and an avatar image is created. By doing this, an avatar image can be generated even when the facial feature amount cannot be detected.

次に図13のを用いて顔向きとアバター顔向きの関係を説明する。図13のグラフは縦軸が左右への顔向きθ、横軸が時間tである。例として時間経過による顔向きθの変動に対して本発明によりアバターの顔向きがどのように変わるかを説明する。図では第一顔向き範囲が45°以内としているが、この値に限定しているわけではなく、図9で説明した値の範囲であれば他の値でも構わない。   Next, the relationship between the face orientation and the avatar face orientation will be described with reference to FIG. In the graph of FIG. 13, the vertical axis represents the face orientation θ from side to side, and the horizontal axis represents time t. As an example, how the avatar's face orientation changes according to the present invention with respect to the change in the face orientation θ over time will be described. In the figure, the first face direction range is within 45 °, but the value is not limited to this value, and any other value may be used as long as it is within the range described with reference to FIG.

(a)の位置において顔向きが左右に動いた時にもこれは追従動作状態における第一顔向き範囲以内であるので、顔の特徴点から顔と同じ向きを合成して表示する。またこの時の顔の動きを顔動作記憶部に逐次記憶し、新しい顔動作が現れれば上書きされる。このようにして顔動作記憶部には常に最近の顔の動作が記憶されている。   Even when the face direction moves to the left and right at the position (a), this is within the first face direction range in the follow-up operation state, so the same direction as the face is synthesized and displayed from the facial feature points. Further, the movement of the face at this time is sequentially stored in the face motion storage unit, and overwritten when a new face motion appears. In this way, recent face motions are always stored in the face motion storage unit.

このような顔の動きに追従したアバター顔の合成は(b)の時刻まで続き、(b)からは顔の向きが第一顔向き範囲を超えるため、追従動作状態から自律動作状態へ移行する。自律動作状態に入ると、第一顔向き範囲の限界角度のアバター画像はまず最初に滑らかに正面向きに戻っていく。この時顔向きが第二顔向き範囲であれば、顔の動作に関係なく自律的に動作する。   The synthesis of the avatar face following the movement of the face continues until the time of (b). Since the face direction exceeds the first face direction range from (b), the tracking operation state is shifted to the autonomous operation state. . When entering the autonomous operation state, the avatar image of the limit angle of the first face direction range first returns smoothly to the front. At this time, if the face orientation is within the second face orientation range, it operates autonomously regardless of the face motion.

アバター画像が正面を向いた後は顔動作記憶部に記憶された直前の顔動作情報を用いてアバター画像が生成される。図では(a)の位置で記憶された顔動作が(c)の位置で使われてアバター顔動作として合成される。そして顔向きが第二顔向き範囲外にでる、すなわち正面顔になるまでこの顔動作記憶部に記憶された顔動作を繰り返す。   After the avatar image faces the front, an avatar image is generated using the immediately previous face motion information stored in the face motion storage unit. In the figure, the face motion stored at the position (a) is used at the position (c) and synthesized as an avatar face motion. Then, the face motion stored in the face motion storage unit is repeated until the face orientation is out of the second face orientation range, that is, a front face.

なお、顔動作記憶部に記憶された顔動作情報は直前の顔動作を記憶するのではなく、実行する以前からあらかじめ与えられていた顔動作が記憶されていてもかまわない。   Note that the face motion information stored in the face motion storage unit may not store the previous face motion, but may store a face motion previously given before execution.

(d)の時刻で顔向きが第二顔向き範囲外にでる、すなわち正面顔になり、この時点で自律動作状態から追従動作状態に移行する。この状態により再度顔向きとアバターの顔向きが同期するように顔特徴量を用いたアバター合成が行われる。   At the time of (d), the face direction is out of the second face direction range, that is, a front face, and at this point, the autonomous operation state shifts to the follow-up operation state. In this state, the avatar synthesis using the face feature amount is performed so that the face direction and the face direction of the avatar are synchronized again.

以上のようにして、顔が横を向いて顔特徴量が抽出できない状況においても不自然な動作をすることなく相手側にアバター画像の動作を送信する事ができる。   As described above, it is possible to transmit the avatar image operation to the other party without performing an unnatural operation even in a situation where the face is facing sideways and the face feature amount cannot be extracted.

図13では左右の顔向きについて説明したが、左右に限定するわけではなく、上下についても同様に処理する事で上下の動きで顔特徴量が抽出できない状況でも不自然さを出す事なくアバター通信を行える。   Although the left and right face orientations have been described with reference to FIG. 13, the left and right face orientations are not limited to left and right, and avatar communication is performed without causing unnaturalness even in a situation in which face feature amounts cannot be extracted by up and down movements by processing in the same way up and down Can be done.

本発明にかかる顔情報送信装置は、携帯電話においてCGキャラクタ画像を用いた代行TV電話通信等として有用である。またPC上でアバター画像によるTV会議等の用途にも応用できる。   The face information transmitting apparatus according to the present invention is useful as proxy TV phone communication using a CG character image in a mobile phone. It can also be applied to applications such as video conferencing using avatar images on a PC.

本発明の実施の形態1における顔情報送信装置の機能ブロック図Functional block diagram of face information transmitting apparatus according to Embodiment 1 of the present invention 同顔情報送信装置のフローチャートFlow chart of the facial information transmitter 本発明の実施の形態2における顔情報送信装置の機能ブロック図Functional block diagram of face information transmitting apparatus according to Embodiment 2 of the present invention 同顔情報送信装置のブロック図Block diagram of the facial information transmitter 同顔情報送信装置のフローチャートFlow chart of the facial information transmitter (a)同平均顔テンプレートの例示図(b)同入力画像の例示図(c)同平均目テンプレートの例示図(d)同平均鼻テンプレートの例示図(e)同平均口テンプレートの例示図(f)同顔検出結果の例示図(g)同顔部品検出結果の例示図(A) Illustration of the same average face template (b) Illustration of the same input image (c) Illustration of the same eye template (d) Illustration of the same nose template (e) Illustration of the same mouth template ( f) Illustration of the same face detection result (g) Illustration of the same face part detection result (a)同顔部品と顔向き(正面)関係の説明図(b)同顔部品と顔向き(左向き)関係の説明図(c)同顔部品と顔向き(右向き)関係の説明図(d)同顔部品と顔向き(上向き)関係の説明図(e)同顔部品と顔向き(下向き)関係の説明図(A) Explanatory diagram of relationship between facial parts and face orientation (front) (b) Explanatory diagram of relationships between facial components and face orientation (leftward) (c) Explanatory diagram of relationships between facial components and face orientation (rightward) ) Explanatory diagram of relationship between facial parts and face orientation (upward) (e) Explanatory diagram of relationships between facial parts and face orientation (downward) (a)同顔向き推定部の算出方法例示図(b)同顔向き推定部の算出方法例示図(c)同顔向き推定部の算出方法例示図(A) Illustrated calculation method of the same face direction estimation unit (b) Illustrated calculation method example of the same face direction estimation unit (c) Illustrated illustration of calculation method of the same face direction estimation unit (a)同第一顔向き判定部、第二顔向き判定部の判定閾値例示図(b)同第一顔向き判定部、第二顔向き判定部の判定閾値例示図(c)同第一顔向き判定部、第二顔向き判定部の判定閾値例示図(d)同第一顔向き判定部、第二顔向き判定部の判定閾値例示図(A) Illustration of determination threshold values of first face direction determination unit and second face direction determination unit (b) Illustration of determination threshold values of first face direction determination unit and second face direction determination unit (c) Illustration of determination threshold values of face direction determination unit and second face direction determination unit (d) Illustration of determination threshold values of first face direction determination unit and second face direction determination unit 同状態遷移記憶部の状態遷移説明図State transition explanatory diagram of the state transition storage unit 同状態遷移記憶部が追従動作状態時の動作説明図Operation explanatory diagram when the state transition storage unit is in the follow-up operation state 同状態遷移記憶部が自律動作状態時の動作説明図Operation explanatory diagram when the state transition storage unit is in an autonomous operation state (a)同顔向きとアバター顔向きの関係説明図(b)同顔向きとアバター顔向きの関係説明図(c)同顔向きとアバター顔向きの関係説明図(d)同顔向きとアバター顔向きの関係説明図(A) Relationship explanatory diagram of the same face direction and avatar face direction (b) Relationship explanatory diagram of the same face direction and avatar face direction (c) Relationship explanatory diagram of the same face direction and avatar face direction (d) Same face direction and avatar Illustration of the relationship of face orientation

符号の説明Explanation of symbols

1 顔特徴抽出部
2 顔向き推定部
3 判定分岐制御部
4 第一顔向き判定部
5 アバター動作修正部
6 第二顔向き判定部
7 アバター動作生成部
8 アバター送信部
9 入力画像記憶部
10 顔特徴記憶部
11 顔向き記憶部
12 顔動作記憶部
13 状態遷移記憶部
14 キャラクタデータ記憶部
15 顔向き判定部
19 バス
20 CPU(中央演算処理装置)
21 ROM(リードオンリーメモリ)
22 RAM(ランダムアクセスメモリ)
23 不揮発性RAM
24 インターフェース
25 カメラ
DESCRIPTION OF SYMBOLS 1 Face feature extraction part 2 Face direction estimation part 3 Judgment branch control part 4 1st face direction determination part 5 Avatar action correction part 6 2nd face direction determination part 7 Avatar action generation part 8 Avatar transmission part 9 Input image memory | storage part 10 Face Feature storage unit 11 Face orientation storage unit 12 Face motion storage unit 13 State transition storage unit 14 Character data storage unit 15 Face orientation determination unit 19 Bus 20 CPU (central processing unit)
21 ROM (Read Only Memory)
22 RAM (random access memory)
23 Nonvolatile RAM
24 interface 25 camera

Claims (10)

入力画像から顔特徴量を抽出する顔特徴抽出部と、
抽出した顔特徴量に合わせてアバター画像を合成するアバター動作修正部と、
合成したアバター画像を通信相手に送信するアバター送信部と、
顔特徴量に基づいて顔向きを推定する顔向き推定部と、
各フレームの顔向き情報を閾値にて判定して、アバターが顔特徴の動作に追従して動く追従動作状態と、顔特徴の動きに関わらずアバターが予め与えられた動作を繰り返す自律動作状態のどちらであるかを特定してアバター画像合成方法を変える顔向き判定部と
を備えた顔情報送信装置。
A face feature extraction unit that extracts a face feature amount from an input image;
An avatar operation correction unit that synthesizes an avatar image according to the extracted facial feature amount;
An avatar transmitter that transmits the synthesized avatar image to the communication partner;
A face direction estimation unit that estimates a face direction based on a facial feature amount;
The face orientation information of each frame is determined by a threshold, and the following movement state where the avatar follows the movement of the facial feature and the autonomous movement state where the avatar repeats the given motion regardless of the movement of the facial feature. A face information transmitting apparatus comprising: a face orientation determining unit that identifies a face direction determining unit to identify which one is an avatar image composition method.
前記顔向き判定部は、
各フレームの顔向き情報を第一の閾値にて判定して、追従動作状態と、自律動作状態のどちらの状態であるかを特定する第一顔向き判定部と、
顔向きを第一の閾値とは異なる第二の閾値にて判定して状態を特定する第二顔向き判定部と、
二つの判定部のどちらかにより特定した状態を記憶する状態遷移記憶部と、
前フレームの状態遷移記憶部に記憶した状態により二つの判定部のどちらを使用するかを決定する判定分岐制御部と
を含む
請求項1に記載の顔情報送信装置。
The face orientation determination unit
A first face orientation determination unit that determines the face orientation information of each frame with a first threshold value and identifies whether the state is a follow-up action state or an autonomous action state;
A second face direction determination unit that determines the face direction by a second threshold value different from the first threshold value and identifies the state;
A state transition storage unit that stores a state specified by one of the two determination units;
The face information transmitting apparatus according to claim 1, further comprising: a determination branch control unit that determines which of the two determination units to use according to the state stored in the state transition storage unit of the previous frame.
前記第一顔向き判定部の顔向き閾値は前記第二顔向き判定部の顔向き閾値と比べて広く、前記第一顔向き判定部の閾値以内であれば追従動作状態、閾値を超えると自律動作状態に遷移するよう構成された
請求項2記載の顔情報送信装置。
The face direction threshold value of the first face direction determination unit is wider than the face direction threshold value of the second face direction determination unit. The face information transmitting apparatus according to claim 2, wherein the face information transmitting apparatus is configured to transition to an operating state.
前記第二顔向き判定部は、判定して追従動作状態に遷移する顔向き閾値が正面顔であるよう構成された
請求項2または3記載の顔情報送信装置。
The face information transmitting apparatus according to claim 2, wherein the second face direction determining unit is configured such that the face direction threshold value for determining and transitioning to the follow-up operation state is a front face.
前記第一顔向き判定部の顔向き閾値は、顔部品検出が可能な検出可能範囲以下であるよう構成された請求項2、3または4に記載の顔情報送信装置。 The face information transmission device according to claim 2, 3 or 4, wherein the face direction threshold value of the first face direction determination unit is configured to be equal to or less than a detectable range in which face parts can be detected. 自律動作状態で動作するアバター顔の顔向きと撮影する顔の向きが一致した時点で追従動作状態に遷移するよう構成された請求項1から5の何れかに記載の顔情報送信装置。 The face information transmitting device according to any one of claims 1 to 5, wherein the face information transmitting device is configured to transition to a follow-up operation state when a face direction of an avatar face that operates in an autonomous operation state coincides with a face direction to be photographed. 入力画像から顔特徴量を抽出する顔特徴抽出ステップと、
抽出した顔特徴量に合わせてアバター画像を合成するアバター動作修正ステップと、
合成したアバター画像を通信相手に送信するアバター送信ステップと、
顔特徴量に基づいて顔向きを推定する顔向き推定ステップと、
各フレームの顔向き情報を閾値にて判定して、アバターが顔特徴の動作に追従して動く追従動作状態と、顔特徴の動きに関わらずアバターが予め与えられた動作を繰り返す自律動作状態のどちらであるかを特定してアバター画像合成方法を変える顔向き判定ステップとを備えた顔情報送信方法。
A facial feature extraction step for extracting facial feature values from the input image;
An avatar operation correcting step for synthesizing an avatar image in accordance with the extracted face feature amount;
An avatar transmission step of transmitting the synthesized avatar image to the communication partner;
A face orientation estimating step for estimating the face orientation based on the facial feature amount;
The face orientation information of each frame is determined by a threshold, and the following movement state where the avatar follows the movement of the facial feature and the autonomous movement state where the avatar repeats the given motion regardless of the movement of the facial feature. A face information transmitting method comprising: a face orientation determining step that identifies a face direction and changes the avatar image composition method.
前記顔向き判定ステップは、
各フレームの顔向き情報を第一の閾値にて判定して、追従動作状態と、自律動作状態のどちらの状態であるかを特定する第一顔向き判定ステップと、
顔向きを第一の閾値とは異なる第二の閾値にて判定して状態を特定する第二顔向き判定ステップと、
二つの判定部のどちらかにより特定した状態を記憶する状態遷移記憶ステップと、
前フレームの状態遷移記憶部に記憶した状態により二つの判定部のどちらを使用するかを決定する判定分岐制御ステップと
を含む
請求項7に記載の顔情報送信方法。
The face orientation determination step includes
A first face orientation determination step for determining the face orientation information of each frame with a first threshold value and identifying whether the state is a follow-up action state or an autonomous action state;
A second face orientation determination step for determining a face orientation with a second threshold value different from the first threshold value and specifying a state;
A state transition storage step for storing a state specified by one of the two determination units;
The face information transmission method according to claim 7, further comprising: a decision branch control step for determining which of the two decision units to use according to the state stored in the state transition storage unit of the previous frame.
コンピュータに、
入力画像から顔特徴量を抽出する顔特徴抽出ステップと、
抽出した顔特徴量に合わせてアバター画像を合成するアバター動作修正ステップと、
合成したアバター画像を通信相手に送信するアバター送信ステップと、
顔特徴量に基づいて顔向きを推定する顔向き推定ステップと、
各フレームの顔向き情報を閾値にて判定して、アバターが顔特徴の動作に追従して動く追従動作状態と、顔特徴の動きに関わらずアバターが予め与えられた動作を繰り返す自律動作状態のどちらであるかを特定してアバター画像合成方法を変える顔向き判定ステップとを実行させるための顔情報送信プログラムを記録したコンピュータ読み取り可能な記録媒体。
On the computer,
A facial feature extraction step for extracting facial feature values from the input image;
An avatar operation correcting step for synthesizing an avatar image in accordance with the extracted face feature amount;
An avatar transmission step of transmitting the synthesized avatar image to the communication partner;
A face orientation estimating step for estimating the face orientation based on the facial feature amount;
The face orientation information of each frame is determined by a threshold, and the following movement state where the avatar follows the movement of the facial feature and the autonomous movement state where the avatar repeats the given motion regardless of the movement of the facial feature. A computer-readable recording medium on which is recorded a face information transmission program for executing a face orientation determination step of changing the avatar image composition method by specifying which one is.
前記顔情報送信プログラムにおいて、
顔向き判定ステップは、
各フレームの顔向き情報を第一の閾値にて判定して、追従動作状態と、自律動作状態のどちらの状態であるかを特定する第一顔向き判定ステップと、
顔向きを第一の閾値とは異なる第二の閾値にて判定して状態を特定する第二顔向き判定ステップと、
二つの判定部のどちらかにより特定した状態を記憶する状態遷移記憶ステップと、
前フレームの状態遷移記憶部に記憶した状態により二つの判定部のどちらを使用するかを決定する判定分岐制御ステップと
を含む
請求項9に記載の記録媒体。
In the face information transmission program,
The face orientation determination step
A first face orientation determination step for determining the face orientation information of each frame with a first threshold value and identifying whether the state is a follow-up action state or an autonomous action state;
A second face orientation determination step for determining a face orientation with a second threshold value different from the first threshold value and specifying a state;
A state transition storage step for storing a state specified by one of the two determination units;
The recording medium according to claim 9, further comprising a determination branch control step for determining which of the two determination units to use depending on the state stored in the state transition storage unit of the previous frame.
JP2005153477A 2005-05-26 2005-05-26 Face information transmitting device, face information transmitting method and recording medium with its program recorded Pending JP2006331065A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005153477A JP2006331065A (en) 2005-05-26 2005-05-26 Face information transmitting device, face information transmitting method and recording medium with its program recorded

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005153477A JP2006331065A (en) 2005-05-26 2005-05-26 Face information transmitting device, face information transmitting method and recording medium with its program recorded

Publications (1)

Publication Number Publication Date
JP2006331065A true JP2006331065A (en) 2006-12-07

Family

ID=37552691

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005153477A Pending JP2006331065A (en) 2005-05-26 2005-05-26 Face information transmitting device, face information transmitting method and recording medium with its program recorded

Country Status (1)

Country Link
JP (1) JP2006331065A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010211613A (en) * 2009-03-11 2010-09-24 Omron Corp Information processor, and information processing method, program, and system
JP2010217956A (en) * 2009-03-13 2010-09-30 Omron Corp Information processing apparatus and method, program, and information processing system
JP2010231350A (en) * 2009-03-26 2010-10-14 Toshiba Corp Person identifying apparatus, its program, and its method
JP2012094103A (en) * 2010-02-24 2012-05-17 Dainippon Printing Co Ltd Image display system
US9298257B2 (en) 2010-12-01 2016-03-29 Samsung Electronics Co., Ltd. Apparatus and method for controlling avatar using expression control point
JP2017027477A (en) * 2015-07-24 2017-02-02 株式会社オプティム Three-dimensional output server, three-dimensional output method, and program for three-dimensional output server
JP6275891B1 (en) * 2017-01-27 2018-02-07 株式会社コロプラ Method for communicating via virtual space, program for causing computer to execute the method, and information processing apparatus for executing the program
JPWO2017141454A1 (en) * 2016-05-13 2018-02-22 株式会社日立製作所 Congestion status visualization device, congestion status visualization system, congestion status visualization method, and congestion status visualization program
US11069115B2 (en) 2019-02-20 2021-07-20 Samsung Electronics Co., Ltd. Method of controlling display of avatar and electronic device therefor

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010211613A (en) * 2009-03-11 2010-09-24 Omron Corp Information processor, and information processing method, program, and system
JP2010217956A (en) * 2009-03-13 2010-09-30 Omron Corp Information processing apparatus and method, program, and information processing system
JP2010231350A (en) * 2009-03-26 2010-10-14 Toshiba Corp Person identifying apparatus, its program, and its method
JP2012094103A (en) * 2010-02-24 2012-05-17 Dainippon Printing Co Ltd Image display system
JP2015099603A (en) * 2010-02-24 2015-05-28 大日本印刷株式会社 Image display system
US9298257B2 (en) 2010-12-01 2016-03-29 Samsung Electronics Co., Ltd. Apparatus and method for controlling avatar using expression control point
JP2017027477A (en) * 2015-07-24 2017-02-02 株式会社オプティム Three-dimensional output server, three-dimensional output method, and program for three-dimensional output server
JPWO2017141454A1 (en) * 2016-05-13 2018-02-22 株式会社日立製作所 Congestion status visualization device, congestion status visualization system, congestion status visualization method, and congestion status visualization program
US10607356B2 (en) 2016-05-13 2020-03-31 Hitachi, Ltd. Congestion analysis device, congestion analysis method, and congestion analysis program
JP6275891B1 (en) * 2017-01-27 2018-02-07 株式会社コロプラ Method for communicating via virtual space, program for causing computer to execute the method, and information processing apparatus for executing the program
JP2018120520A (en) * 2017-01-27 2018-08-02 株式会社コロプラ Communication method through virtual space, program causing computer to execute method, and information processing device to execute program
US11069115B2 (en) 2019-02-20 2021-07-20 Samsung Electronics Co., Ltd. Method of controlling display of avatar and electronic device therefor

Similar Documents

Publication Publication Date Title
JP2006331065A (en) Face information transmitting device, face information transmitting method and recording medium with its program recorded
US10157477B2 (en) Robust head pose estimation with a depth camera
US11887234B2 (en) Avatar display device, avatar generating device, and program
US9710923B2 (en) Information processing system, information processing device, imaging device, and information processing method
US10755438B2 (en) Robust head pose estimation with a depth camera
US8330801B2 (en) Complexity-adaptive 2D-to-3D video sequence conversion
JP4645223B2 (en) Face tracking program and face tracking method
JP5781353B2 (en) Information processing apparatus, information processing method, and data structure of position information
JP5784226B2 (en) Method and apparatus for building an image model
US20170316582A1 (en) Robust Head Pose Estimation with a Depth Camera
CN106462937B (en) Image processing apparatus and image display apparatus
US20140016696A1 (en) Video Transmission Using Content-Based Frame Search
US11068699B2 (en) Image processing device, image processing method, and telecommunication system to generate an output image for telecommunication
AU2014353251B2 (en) Video transmission
EP2343685B1 (en) Information processing device, information processing method, program, and information storage medium
US9398252B2 (en) Information processing apparatus, information processing system and program
US11429814B2 (en) Learning image generation apparatus, learning image generation method, and non-transitory storage medium
CN108510520B (en) A kind of image processing method, device and AR equipment
KR102343325B1 (en) Method for image compression and method for image restoration
WO2016165614A1 (en) Method for expression recognition in instant video and electronic equipment
CN111353336B (en) Image processing method, device and equipment
KR101540113B1 (en) Method, apparatus for gernerating image data fot realistic-image and computer-readable recording medium for executing the method
US9065975B2 (en) Method and apparatus for hands-free control of a far end camera
CN109788359B (en) Video data processing method and related device
JP2010239499A (en) Communication terminal unit, communication control unit, method of controlling communication of communication terminal unit, and communication control program