WO2005024728A1 - 形態変形装置、物体動作符号化装置および物体動作復号化装置 - Google Patents

形態変形装置、物体動作符号化装置および物体動作復号化装置 Download PDF

Info

Publication number
WO2005024728A1
WO2005024728A1 PCT/JP2004/012181 JP2004012181W WO2005024728A1 WO 2005024728 A1 WO2005024728 A1 WO 2005024728A1 JP 2004012181 W JP2004012181 W JP 2004012181W WO 2005024728 A1 WO2005024728 A1 WO 2005024728A1
Authority
WO
WIPO (PCT)
Prior art keywords
change
data
face
deformation
external force
Prior art date
Application number
PCT/JP2004/012181
Other languages
English (en)
French (fr)
Inventor
Atsushi Marugame
Original Assignee
Nec Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nec Corporation filed Critical Nec Corporation
Priority to US10/570,560 priority Critical patent/US7668401B2/en
Priority to EP04772142A priority patent/EP1669931A1/en
Priority to JP2005513622A priority patent/JPWO2005024728A1/ja
Publication of WO2005024728A1 publication Critical patent/WO2005024728A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/001Model-based coding, e.g. wire frame
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects

Definitions

  • Morphological deformation device object motion coding device and object motion decoding device
  • the present invention relates to a morphological deformation device that deforms the shape of an object, an object motion (morphological deformation) coding device, and an object motion (morphological deformation) decoding device, and in particular, the shape of a part of a face is deformed.
  • the present invention relates to a morphological deformation device for shaping and giving an expression, an object motion (morphological deformation) coding device, and an object motion (morphological deformation) decoding device.
  • Such flow of facial expression synthesis is roughly divided into two flows.
  • One is the method of moving the wire frame model that hits the skin surface by treating the skin surface that moves in conjunction with the expression muscle under the skin of the face as a physical model and solving the equation of motion based on the muscle and bone movement. It is.
  • This is one of the methods for creating a facial expression by applying regular geometric deformation directly to a wire frame model.
  • This prior art is, for example, Japanese Patent Application Laid-Open No. 8-96162.
  • FACS Fluorescence A- rection Coding System
  • AU Action Unit
  • This FACS is generally used in combination with a method of creating a facial expression by applying regular geometric deformation directly to a wire frame model.
  • the expression process can be expressed smoothly, and the arrangement of expression muscles can be changed to cope with various facial features. If there is a huge amount of calculation, there is a problem with
  • a face image synthesizing device is disclosed in Japanese Patent Application Laid-Open No. 3-74777.
  • motion parameters and facial expression parameters based on human instinctive motion or unconscious motion are added to facial image information including facial expressions and motion parameters, and based thereon, facial images are synthesized. Ru.
  • Japanese Patent Application Laid-Open No. 6-76044 discloses an expression code reproduction and display device.
  • the device of this conventional example has an expression generation condition input device for setting expression generation conditions.
  • the arithmetic processing unit calculates the movement amount, movement direction, and shape change of movable parts such as forehead, eyebrows and mouth in the face according to the instruction signal of expression generation condition input device force, and the expression element code based on medical analysis of expression.
  • an expression code reproducing unit for reproducing the The facial expression display device reproduces and displays the form of the face according to the facial expression element code reproduced by the arithmetic processing unit, and also moves and deforms the forehead, eyebrows, eyes, mouth and the like.
  • Japanese Patent Application Laid-Open No. 6-76058 discloses an expression coding device.
  • the image input device takes in a face image as an electric signal and encodes it to generate predetermined face image data.
  • the feature part extraction processing unit receives predetermined facial image data from the image input device, and based on the feature part extraction condition, the feature part extraction processing unit Extract the image.
  • the facial expression element extraction processing unit extracts facial expression elements based on the characteristic site image power, a predetermined facial expression element, and a relation rule between the characteristic sites to generate facial expression element information.
  • the expression factor quantification processor calculates expression factor code by quantifying expression factor from the expression factor information based on predetermined expression factor quantification rule.
  • the storage unit stores the expression element code.
  • the facial expression element code output device outputs the facial expression element code stored in the arithmetic processing unit.
  • Japanese Patent Application Laid-Open No. 8-305878 discloses a face image forming apparatus.
  • the face image generation unit generates a face image by selecting a part image that forms each part of the face.
  • the expression applying unit performs image deformation, display position movement and display non-display processing on a part image forming a face image according to a specified expression, and applies expression change to the face image.
  • the expression difference data extraction unit extracts feature points from the expression face sample of the target person, divides the expression face sample into plural parts based on the feature points, and Calculate the difference between the shape and texture accompanying the change of expression transition between two different expressions specified in, and obtain the difference shape data and the difference texture.
  • the operation pattern setting unit specifies an operation pattern function for specifying time change of each part.
  • the time-series expression image synthesis unit generates intermediate difference shape data at an arbitrary time calculated based on the movement pattern function and the difference shape data, and at an arbitrary time calculated based on the movement pattern function and the difference texture.
  • the facial expression animation reproducing unit continuously displays the facial expression animation by continuously displaying the temporal facial expression images at predetermined time intervals generated by mapping the temporal facial expression texture to the shape based on the temporal facial expression shape data.
  • the facial expression synthesizer apparatus is disclosed in Japanese Patent Application Laid-Open No. 2002-329214 (P2002-329214A).
  • This conventional facial expression synthesis method uses computer graphics.
  • the synthesis method includes the steps of inputting a facial expression model as data of facial feature points, an expression model Extracting the substantially elliptical sphincter region surrounded by the sphincter muscle, and defining the region above the major axis of the sphincter region as a semielliptical region surrounded by the major axis and the semielliptical shape; According to the steps of searching for feature points included in the area, calculating the movement point of feature points contained in the semi-elliptical area when the facial expression changes, and following the movement point. Moving the feature points to synthesize an expression model after expression change.
  • An object of the present invention is to reduce the amount of calculation when realizing a change in form such as facial expression synthesis.
  • the morphological deformation encoding device is configured to convert between the pre-change morphological data representing the form of the object before the morphological change and the post-change morphological data representing the form of the object after the morphological change. Based on the calculation unit for calculating difference data, the pre-change form data, and the difference data, an operation area in which the form change of the object has occurred, and an operation area for the form change are stored. And a determination unit that determines an external force to be obtained.
  • the calculation unit is configured to convert the pre-change morphological data and the post-change morphological data into pre-change morphological model data and post-change morphological model data based on a three-dimensional model, and the pre-change morphological model And a difference calculation unit that calculates the difference data from a difference between data and the post-change morphology model data.
  • the model is a three-dimensional polygon mesh model, and the pre-change form data and the post-change form data may be three-dimensional data.
  • the operation area includes a plurality of small areas, each of the plurality of small areas includes a plurality of control points, and the external force is based on a physical model structure of each of the plurality of small areas.
  • the object includes a human face
  • the form of the object before the form change indicates an expressionless face state
  • the form of the object after the form change indicates a face state in which an expression is expressed. It may be shown.
  • a shape deformation decoding apparatus is configured to change the shape of an object before changing its shape.
  • a decoding unit that determines a movement position of a control point in the operation area based on pre-change form data representing a state and information of an external force applied to the operation area corresponding to the form change;
  • a form generation unit for generating post-change form data representing the form of the object after the form change from the movement position of each of the plurality of control points.
  • the operation area includes a plurality of small areas, each of the plurality of small areas includes a plurality of control points, and a movement position of the control point of each of the plurality of small areas is the plurality of small area units. Is determined using the physical model.
  • the pre-change form data is three-dimensional data
  • the decoding unit changes pre-change model data based on the three-dimensional model of the form of the object before the change in form and the pre-change form data.
  • a model data generation unit may be generated, and a movement amount calculation unit may be provided to determine the movement position of each control point in the operation area from the pre-change form model data based on the external force information.
  • the pre-change form data is three-dimensional data
  • the decoding unit generates mesh shape model data before-change form mesh model data based on the three-dimensional polygon mesh model and the pre-change form data.
  • a data generation unit, and a movement amount calculation unit that determines the movement position of each control point in the motion area from the pre-change shape mesh model data based on the external force information. .
  • the form generation unit generates the form of the object after the form change in units of the plurality of small areas from the pre-change form data and the movement position of each of the plurality of control points. At this time, it may further include an adjacent small area adjusting unit for smoothing a discontinuous portion occurring in a boundary part of adjacent ones of the plurality of small areas after the change in shape. Further, it may further include an unoperating area adjusting unit for smoothing a discontinuous portion occurring at the boundary between the operating area after the form change and the non-operating area therearound.
  • the control point is coupled to the panel by a damper.
  • the object includes a human face, and the form before the form change is expressionless
  • the form after the change in form may indicate a face on which an expression is exposed.
  • the device may further comprise a three-dimensional actuator group for driving the movement area of the flexible object based on the post-change form data.
  • a morphological deformation code decoding apparatus includes any of the above-mentioned morphological deformation coding apparatus and the morphological deformation coding system described in any one of claims 8 to 17. And a transmission device for transmitting the operation area generated by the form change coding unit and the external force information to the form deformation decoding apparatus through a communication channel.
  • a shape deformation encoding method comprising: pre-change form data representing a form of an object before a form change; and post-change form data representing a form of the object after the form change. Calculating the difference data between them, the movement region in which the shape change of the object has occurred, and the movement region for the shape change, based on the pre-change shape data and the difference data; This is achieved by determining the applied external force.
  • the calculating step includes the steps of: converting the pre-change form data and the post-change form data into pre-change form model data and post-change form model data based on a three-dimensional model; It may be achieved by the step of calculating the difference data from the difference between the morphological model data and the post-change morphological model data.
  • the model may be a three-dimensional polygon mesh model, and the pre-change form data and the post-change form data may be three-dimensional data.
  • the operation area includes a plurality of small areas, each of the plurality of small areas includes a plurality of control points, and the external force changes the form based on the physical model structure of each of the plurality of small areas.
  • the object includes a human face, the form of the object before the change in shape indicates an expressionless face state, and the shape of the object after change in form indicates the state of the face in which the expression is expressed. Show.
  • a morphological deformation decoding method displays a form of an object before a morphological change. Determining the movement position of the control point in the operation area based on the pre-change form data and the information of the external force applied to the operation area corresponding to the form change; the change pre-form data and the plurality of This is achieved by the step of generating post-change form data representing the form of the object after the form change from the movement position of each of the control points.
  • the operation area includes a plurality of small areas, each of the plurality of small areas includes a plurality of control points, and a movement position of the control point of each of the plurality of small areas is the plurality of small areas alone. The order is determined using a physical model.
  • the pre-change form data is three-dimensional data
  • the step of determining the movement position is based on the three-dimensional model of the form of the object before the form change and the pre-change form data. This is achieved by the steps of generating pre-change form model data, and determining the movement position of each of the control points in the operation area from the pre-change form model data based on the external force information.
  • the pre-change form data is three-dimensional data
  • the step of determining the movement position generates pre-change form mesh model data based on the three-dimensional polygon mesh model and the pre-change form data. This may be achieved by the steps of: determining the movement position of each of the control points within the motion area from the pre-change shape mesh model data, based on the external force information.
  • the step of calculating the movement position of the non-control point other than the control point included in the small area from the movement position of the control point near the non-control point is further provided. You may possess.
  • the pre-change form data and the movement position of each of the plurality of control points are used to generate the post-change form of the object in units of the plurality of small areas.
  • the method may further include the step of smoothing a discontinuous portion occurring at the boundary between adjacent ones of the plurality of small areas after the change in shape, or the operation region and the periphery thereof after the change in shape.
  • the method may further include the step of smoothing discontinuities that occur at the boundary with the surrounding non-operating area.
  • the object that the control point is preferably joined by a panel and a damper includes a human face, and the form before the form change is An expressionless face may be shown, and the form after the change in form may indicate a face on which an expression is exposed.
  • the object may be a robot, and the method may further include the step of driving the movement area of the object having flexibility based on the post-change form data.
  • a shape change coding / decoding method comprising the steps of: generating information on the operation area and information on the external force by any of the above-described shape transformation coding methods; Transmitting the information on the area and the external force information through the communication channel, and the information on the transmitted operating area and the information on the transmitted external force according to any of the above-described morphological deformation decoding methods; This is achieved by the step of generating post-change morphology data representing the morphology.
  • a computer readable software for realizing any of the above-described morphological deformation coding method or any of the above-described morphological deformation decoding method.
  • a computer readable software for realizing any of the above-described morphological deformation coding method or any of the above-described morphological deformation decoding method.
  • the present invention it is possible to reduce the amount of calculation when realizing facial expression synthesis and the like using a physical model.
  • the entire region where the expression muscle is disposed is regarded as one region, and the movement position of each point included in the region is calculated based on the external force.
  • the movement position of each control point is calculated independently in smaller sub-area units.
  • the target for which the movement position according to the external force is to be determined is limited to the control point which is a part of the point belonging to the small area, and the remaining non-control point is the movement of the control point near the non-control point. It is calculated from the position by interpolation.
  • the movement area is divided into a plurality of small areas and the movement position is calculated independently in small area units, it is possible to make the step or the like at the boundary between the small areas inconspicuous. It is possible to make the level difference and the like generated at the boundary between the and the non-operating area around it inconspicuous.
  • a physical model structure in which control points are connected by a panel and a damper is used as a physical model structure of a small area, it is possible to reproduce an operation close to the movement of the expression muscle.
  • the number of control points in all the small areas and the physical model structure are equal, the number of parameters in calculating the control point movement position can be reduced, and the amount of calculation can be further reduced. It can be reduced.
  • the object model includes a human face model, and the temporal change in form includes a change in human facial expression, it becomes possible to synthesize the human facial expression.
  • the present invention it is possible to obtain an operation area which is a different area before and after the change of the form of the object and an external force applied to each control point included in the operation area with a small amount of calculation.
  • the entire region in which the expression muscle is disposed is one region, and the movement force of all points included in the region is calculated.
  • the amount of calculation is enormous, in the present invention, the movement amount force external force of each control point is calculated independently in smaller units of smaller areas.
  • the physical model structure of the small area As the physical model structure of the small area, the physical model structure in which the control points are connected by the panel and the damper is used, so it is possible to calculate the external force for reproducing the movement close to the movement of the expression muscle.
  • the number of control points in all the small regions equal to the physical model structure, the amount of calculation required for external force calculation can be further reduced, and the number of required parameters can be reduced.
  • the form change is an expressionless state
  • the state change is a state that an expression is exposed, it is necessary to make the person's face change from an expressionless face to a certain expression face. External force can be calculated.
  • three-dimensional data of an object can be generated based on external force information and transformed (transformed) into three-dimensional data with a small amount of calculation.
  • the entire region in which the expression muscle is disposed is regarded as one region, and the movement position of each point included in the region is calculated based on the external force.
  • the movement position of each control point is calculated independently in smaller units of smaller areas.
  • the entire area where the expression muscle is disposed is regarded as one area, and the movement position of each point included in that area is based on the external force.
  • the movement position of each control point is calculated independently in smaller small area units. For example, based on a plurality of external force information such as external force information for “opening the mouth wide” and external force information for “raising the upper eyelid”, each control after the form change corresponding to the three-dimensional data or image before the form change. You can calculate the amount of movement of the points.
  • the operating area is divided into multiple small areas and independent in small area units As a result, when the movement position is calculated, it is possible to make the step or the like at the boundary between small areas which is likely to occur not noticeable and to make the step or the like at the boundary between the active area and the non-active area around it inconspicuous.
  • the physical model structure in which control points are connected by a panel and a damper is used as a physical model structure of a small area, so that motion close to the motion of the expression muscle can be reproduced, and the object includes a human face. Since the state before change is an expressionless state and the state after change is a state in which a certain expression is expressed, it is possible to give a certain expression to a person's expressionless face.
  • a change in the facial expression of a certain person is detected, and the same change is applied to the same person or a face image of another person or the like to synchronize the expression with a specific person.
  • the external force is calculated from the movement position of each point included in the area, with the entire area where the expression muscle is disposed as one area.
  • the external force is calculated from the movement position of each control point independently in a smaller fine area unit.
  • the entire region in which the expression muscle is disposed is regarded as one region, and the movement position of each point included in that region is regarded as an external force.
  • the calculation amount is enormous due to the calculation based on the grid, in the present invention, the movement position of each control point is calculated independently in a smaller fine area unit. It is possible to reduce the amount of calculation for making facial expressions appear on an object such as a mask attached to the head of a robot.
  • the entire region in which the expression muscle is disposed is regarded as one region, and the movement position of each point included in the region is calculated based on the external force.
  • the movement position of each control point is calculated independently in smaller and smaller area units.
  • FIG. 1 is an explanatory view of the principle of the present invention.
  • FIG. 2 is a block diagram showing the configuration of a form deformation apparatus according to a first embodiment of the present invention.
  • FIG. 3 shows an operation area designation unit in the form deformation apparatus according to the first embodiment of the present invention. It is a flowchart which shows the process example of.
  • FIG. 4 is a flow chart showing an example of processing of an operation area dividing unit in the form transformation device according to the first example of the present invention.
  • FIG. 5 is a view showing a configuration example of control point data in the form transformation device according to the first example of the present invention.
  • FIG. 6 is a flow chart showing an example of processing of a control point operation unit in the form transformation device according to the first example of the present invention.
  • FIG. 7A is an operation explanatory view of the inner portion of the operation of the deformation device according to the first embodiment of the present invention.
  • FIG. 7B is an operation explanatory view of the inner portion in the deformation apparatus according to the first embodiment of the present invention.
  • FIG. 8 is a flow chart showing an example of processing of the inner part of the operation of the form transformation apparatus according to the first embodiment of the present invention.
  • FIG. 9 is a block diagram of a form deformation apparatus according to a second embodiment of the present invention.
  • FIG. 10A is a diagram showing the appearance of the occurrence of a discontinuous portion such as a step at the boundary of the region j.
  • FIG. 10B is a view showing how a discontinuous portion such as a step is generated at the boundary portion of a small area.
  • FIG. 10C is a diagram showing how a discontinuous portion such as a step is generated at the boundary of a small area.
  • FIG. 11 is a flow chart showing an example of processing of an adjacent small area adjusting unit in the form deformation device of the second embodiment of the present invention.
  • FIG. 12 is a flowchart of smoothing processing performed by the adjacent small area adjustment unit in the form deformation apparatus according to the second embodiment of the present invention.
  • FIG. 13 is a diagram for explaining the operation of the adjacent small area adjusting unit in the form deformation apparatus according to the second embodiment of the present invention.
  • FIG. 14 is a block diagram of a form deformation apparatus according to a third embodiment of the present invention.
  • Figure 15A shows that there is a discontinuity such as a step at the boundary between the active area and the inactive area. It is a figure which shows a mode that it generate
  • FIG. 15B is a diagram showing how a discontinuous portion such as a step is generated at the boundary between the active area and the inactive area.
  • FIG. 16 is a flowchart of smoothing processing performed by the non-operating area adjustment unit in the third embodiment of the present invention, according to the third embodiment of the present invention.
  • FIG. 17 is a diagram for explaining the operation of the non-operating area adjusting unit in the form deformation apparatus according to the third embodiment of the present invention.
  • FIG. 18 is a block diagram of a face motion (morphological deformation) encoding device according to a fourth embodiment of the present invention.
  • FIG. 19 is a view showing an example of a face triangular polygon mesh model used in the face motion (morphological deformation) encoding apparatus according to the fourth embodiment of the present invention.
  • FIG. 20 is an operation explanatory view of a three-dimensional difference calculation unit in the force-based face motion (form deformation) encoding apparatus according to the fourth embodiment of the present invention.
  • FIG. 21 is a view showing an example of contents of three-dimensional difference data generated by a three-dimensional difference calculation unit in the face motion (form deformation) encoding apparatus according to the fourth embodiment of the present invention .
  • FIG. 22A is an operation explanatory diagram of the external force calculation unit in the face operation (morphological deformation) encoding apparatus according to the fourth embodiment of the present invention.
  • FIG. 22B is an operation explanatory diagram of the external force calculation unit in the face operation (morphological deformation) coding apparatus according to the fourth embodiment of the present invention.
  • FIG. 23 is a block diagram of a face motion (morphological modification) decoding apparatus according to a fifth embodiment of the present invention.
  • FIG. 24 is a block diagram of a face motion (morphological deformation) decoding apparatus according to a sixth embodiment of the present invention.
  • FIG. 25 is a block diagram of a face motion (form deformation) coding apparatus according to a seventh embodiment of the present invention.
  • FIG. 26 is a block diagram of a face movement (form deformation) decoding apparatus according to an eighth embodiment of the present invention.
  • FIG. 27 is a block diagram of a ninth embodiment of the present invention, which is a block diagram of the face movement (morphological transformation) decoding apparatus. It is a lock figure.
  • FIG. 28 is a block diagram of a face motion (morphological modification) code decoding apparatus according to a tenth embodiment of the present invention.
  • FIG. 29 is a block diagram of a face motion (morphological modification) code decoding apparatus according to an eleventh embodiment of the present invention.
  • FIG. 30 is a block diagram of a robot control apparatus using a form deformation decoding apparatus according to a twelfth embodiment of the present invention.
  • At least one operation area 1001 is set on the area 1000 of the entire face.
  • the motion area 1001 is a target area of deformation, and is defined corresponding to the expression to be exposed.
  • AU Action Unit
  • a portion with expression muscles that cause the operation unit is defined as one operation region.
  • An area different from the expressionless face and the certain expression movement face may be defined as the movement area.
  • such an operation area 1001 is divided into a plurality of small areas 1002, and the movement amount according to the external force is calculated in units of individual small areas 1002.
  • the points (pixels) belonging to one small area 1002 are divided into a plurality of (three or more) control points 1003 indicated by black circles and non-control points 1004 indicated by white circles other than the control points.
  • the two are connected by a spring 1005 and a damper 1006.
  • external force is applied only to the control point 1003 as shown by the arrow 1007 in FIG.
  • the movement amount force of each control point 1003 belonging to the small area 1 002 is calculated based on the external force applied to the control point 1003, the constant of the spring 1005 and the damper 1006, other than the control point 1003
  • the movement amount of the non-control point 1004 is calculated by, for example, interpolation of movement amounts of a plurality of control points 1003 near the non-control point 1004.
  • the entire individual subregions 1002 move together as a result of the external force acting on the control point 1003 inside, and all the subregions 1002 move in the same manner.
  • the motion area 1001 is deformed, and expression of a desired expression becomes possible.
  • the motion region 1001 moves as one while interacting as a spring model.
  • a control point 1003 in which an external force 1007 acts only on a plurality of control points 1003 which are damaged by the small area 1002 and in each small area 1002 are mutually connected by a spring 1005 and a damper 1006.
  • the action unit action is reproduced using a model that is dragged and operated. Since the motion of the motion unit in this model is expressed by panel model calculation in the small region 1002 unit instead of the operation region 1001, parameter setting is simplified and the amount of calculation is reduced. In addition, since external force calculation is performed instead of directly handling the movement amount, there is an advantage that the individuality at the time of expression of the expression and the universality of the expression movement can be separated.
  • a and B are matrices of 2nx2n and 2nxn respectively represented as follows.
  • the speed at time t is
  • the operation area 1001 is divided into a plurality of small areas 1002, and the movement amount of each control point 1003 according to the external force 1007 is calculated in units of individual small areas 1002. Be done. Therefore, in the present invention, even when the external force 1007 is calculated from the movement amount of each control point 1003, the external force 1007 is calculated from the movement amount of each control point 1003 in each small area 1002 unit.
  • the equation (8) can also be used to calculate this external force.
  • a physical model of a structure in which the control points 1003 of the small area 1002 are connected by the spring 1005 and the damper 1006 is used.
  • a physical model that is simply proportional to the external force, a gravity model or an electromagnetic force model that is inversely proportional to the square of the distance from a specific point such as the control point or the center of gravity of a small area It is also possible to use other types of physical models. In that case, the movement amount of the control point 1003 in the small area 1002 can be calculated by solving the equation corresponding to each.
  • FIG. 2 is a block diagram showing the configuration of the form deformation apparatus according to the first embodiment of the present invention.
  • the deformation device deforms a human's expressionless face image into a facial expression action face image.
  • the deformation apparatus of this embodiment includes a processing device CNT1, a storage device Ml-M6, a display device DPY, and an input device KEY.
  • the plurality of storage devices Ml to M6 are formed of, for example, magnetic disks, and among them, the storage device Ml stores input data S1 applied to the faceless face of a person.
  • the storage device M6 stores output data S6 of force on the facial expression movement face of the person.
  • the remaining memory M2 M5 stores intermediate results and control data required in the process.
  • the display device DPY is, for example, a liquid crystal display, and is used to display the facial expression action face image obtained as the output data S6 and to display the data of the processing process.
  • the input device KEY comprises, for example, a keyboard and a mouse, and is used to receive various data and instructions from the user.
  • the control device CNT1 is formed of, for example, a central processing device of a computer, and executes the main processing of the form modification device of this embodiment.
  • the control device CNT1 includes an operation area designation unit 1, an operation area division unit 2, a control point operation unit 3, and an operation interpolation unit 4.
  • the respective functional units 14 to 14 of the control device CNT1 can be realized by a computer constituting the control device CNT1 and a program for deformation of the device.
  • the program for the form deformation apparatus is recorded on a computer readable recording medium PM1 such as a magnetic disk, and is read by the computer when the computer is started up, and the operation of the computer is controlled to control the computer. Implement each
  • the control device CNT1 inputs and processes the input data S1 stored in the storage device Ml, and finally outputs the output data S6 to the storage device M6 and the display device D to display the output data S6.
  • Control PY In the process, the control device CNT loads and uses the control point data S3 stored in the storage device M3, and stores the operation region specified data S2 and the small region divided data S4 in the storage devices M2, M4 and M5. And, the initial 3D coordinate adjusted control point data S 3 ′ and the terminal 3D coordinate set control point data S 3 ′ ′ are properly stored. The details will be described below.
  • the operation area designation unit 1 inputs the input data S1 from the storage device Ml, and a user designates a desired area of the input data S1 as an operation area.
  • the desired area to be designated as the movement area is predetermined corresponding to the expression to be displayed.
  • the part having the expression muscle causing the operation unit is designated as the operation area.
  • the operation unit of No. 27 of FACS has the contents of "open mouth wide", but when the operation of the operation unit is performed, the region including the mouth is designated as the operation region.
  • the number (No.) of the operation unit is inputted by the user from the input device KEY and stored in the control device C NT1.
  • Information on the operation area specified by the operation area specification unit 1 is added to the image or three-dimensional data of the input data S1, and is stored in the storage device M2 as operation area specified data S2.
  • the operation area designated data S2 is stored as RGB a with 1 bit of each additional image added to each image, and the operation area is 1, with value a. The other way is to make it 0.
  • three-dimensional In the case of data it is stored in the form of (x, y, ⁇ , ⁇ ).
  • the method of specification is, for example, a tool that uses a GUI, in which images and three-dimensional data are displayed, and there can be considered a method in which an operation area is specified by a mouse or tablet.
  • the motion area designation unit 1 loads an expressionless image of the face of a person as input data S1 from the storage device Ml and displays it on the screen of the display device DPY (step F101).
  • the motion area designation unit 1 receives a FACS operation unit number from the user (step F102).
  • the motion area designating unit 1 has, for each motion unit number of the FACS, a list of typical motion areas indicating a face region having a facial expression muscle that causes the motion unit to be input from the user.
  • the operation area corresponding to the operation unit number is acquired from the list and displayed on the display device DPY (step F103). In FIG. 3, the operation area is indicated by a broken line.
  • the motion area designation unit 1 moves the display position of the motion area in accordance with the drag operation of the mouse by the user, and adjusts the size and shape of the motion area (step F104).
  • the operation unit of FACS No. 27 is assumed, and the operation area is adjusted to an appropriate range including the mouth.
  • the operation area specification unit 1 adds the information on the specified operation area to the input data S1 by the method described above to generate the operation area specification completed data S2 and stores it in the storage device M2 (step F105) ).
  • the motion area dividing unit 2 inputs the motion area designated data S2 from the storage device M2, and based on the control point data S3 inputted from the storage device M3, the motion area in the motion area designated data S2 is divided into a plurality of small A small area divided data S4 divided into areas is generated and stored in the storage device M4 together with the information of the control point data S3 (initial 3D coordinate adjusted control data S3 ').
  • the small area divided data S4 and the initial 3D coordinate adjusted control data S3 ′ correspond to the face model described with reference to FIG.
  • details of the processing of the motion area dividing unit 2 will be described with reference to FIG.
  • the operation area division unit 2 loads the operation area designated data S2 from the storage device M2, and enlarges the entire operation area as necessary to display it on the display device DPY. (Step Fi ll).
  • the operation area division unit 2 loads control point data S3 corresponding to the operation area specified by the operation area specified data S2 from the storage device M3 and displays the table. Display is made on the display device DPY (step F112).
  • the control point data S3 corresponding to a certain operation unit contains information on a large number of control points evenly arranged at the end of the expression muscle which generates the operation unit or in the inside.
  • FIG. 5 shows a configuration example of one control point data.
  • the control point data is a control point number (m) 2001 which is an identifier assigned to the control point data, and an initial 3D coordinate (XO, Y0, Z0) which is an initial three-dimensional coordinate of the control point data.
  • m control point number
  • XO, Y0, Z0 initial 3D coordinate of the control point data.
  • tag number 2003 assigned to this control point data
  • terminal 3D coordinates which are three-dimensional coordinates of this control point data after movement (Xt, Yt, Zt) 2005 and connection information 2006 with other control point data connected to this control point data are included.
  • the same tag number 2003 is set to control point data belonging to the same small area.
  • the standard position of the control point in the standard face is initially set, and the initial display of the control point is performed based on this initial 3D coordinate.
  • the terminal 3D coordinates 2005 are null values at the time of loading, and values are set when calculating the movement amount later.
  • the connection information 2006 the control point number of the control point data of the connection destination and the constant of the panel and the damper interposed between the control point data of the connection destination are set. If all control points are connected by the same constant panel and damper, it is necessary to set the connection information 2006 of all control points data in one place. Well ,.
  • the motion area dividing unit 2 moves the position of each control point to a desired position and finely adjusts it in accordance with the dragging operation of the mouse by the user (step F113).
  • the initial 3D coordinates 2002 of the control point data are updated to the three-dimensional coordinates of the pixel closest to the control point data among the pixels in the expressionless face image.
  • the operation area division unit 2 divides the operation area by control points and then assigns a tag number 2003 of the control point to the area determined by the boron point division.
  • the action area is divided into a plurality of small areas by grouping adjacent Boronoid areas to which the same tag number 2003 is assigned into one small area (step F114).
  • Each small area is assigned the same tag number as the tag number assigned to the borony area that composes it. Therefore, small areas are generated by the number of tag numbers.
  • an image in which the tag number of the small area including the pixel is added to each pixel in the divided area in the operation area specified data S2 is generated as the small area divided data S4, and the initial 3D coordinates are adjusted.
  • the control point data S3 ' is stored in the memory M4 together with the control point data S3' (step F115).
  • the pixels on the boundary between the small area and the small area are treated as belonging to the plurality of small areas.
  • the small area divided data S4 data in which information of pixels included in the small area of the tag number can be used for each tag number.
  • the control point operation unit 3 receives the control point data S3 'of initial 3D coordinates adjusted from the storage device M4, and calculates, for each small area, movement positions of all control points included in the small area.
  • the calculation method is determined by the small area force S including the control point and the physical model represented.
  • the boundary conditions of the initial position and the initial velocity are given as already described in detail.
  • the movement position can be calculated by solving the second-order ordinary differential equation.
  • control point operation unit 3 inputs the control point data S3 'whose initial 3D coordinates have been adjusted from the storage device M4 (step F121). Next, look at one small area, that is, one tag number (step F122). Next, the movement positions of all control points belonging to the small area of interest are calculated, and are set to the terminal 3D coordinates 2005 of the control point (step F123). All control points belonging to the small area of interest are control points having the same tag number 2 003 as the tag number of the small area. The control points in the small area are the panels as described with reference to FIG.
  • the final 3D coordinates can be calculated from the initial 3D coordinates 2002 and the external force 2004 of each control point data by substituting a predetermined parameter into equation (7).
  • the predetermined parameters correspond to the aforementioned t, k, d in the case of Equation (7). These may be added to the control point data S3 and loaded from the storage device M3 or may be embedded in the control point operation unit 3 in advance.
  • the control point operation unit 3 calculates the movement positions of all control points belonging to one small area, and when it is set to the terminal 3D coordinates 2005 of those control point data, moves to the next one small area A note is transferred (step F124), and the process returns to step F123 to repeat the same process as described above. After this processing is repeated until the processing for all the small areas is completed (YES in step F125), the control point data S3 "for which the terminal 3D coordinates 2005 are set is stored in the storage device M5 (step F126).
  • the operation inner part 4 inputs the small area divided data S4 from the storage device M4 and the end 3D coordinate set control point data S3 "from the storage device M5, and moves the control points in the small area From the position, the movement position of the pixels other than the control point in each small area is calculated by linear interpolation or extrapolation as shown in FIGS. 7A and 7B to generate an image or three-dimensional data of an expression movement face, and output
  • the data is stored in the storage device M6 as data S6
  • the calculation may be performed using high-order interpolation and extrapolation such as spline etc.
  • the output data S6 stored in the storage device M6 is automatically or input device Displayed on the display device DPY according to the instruction from the key.
  • the motion interpolation unit 4 inputs the small area divided data S4 and the terminal 3D set control point data S3 ′ ′ from the memory M4 and the memory M5 (step F131).
  • One small area in the operation area in the data S4 is focused (step F132), and one pixel in the small area is focused (step F133)
  • Three control point data having an initial 3D coordinate closest to the three-dimensional coordinate of the pixel is retrieved from the terminal 3D set control point data S3 "(step F134).
  • step F135 it is determined whether any one of the initial 3D coordinates of the three control point data retrieved matches the three-dimensional coordinates of the pixel of interest (step F135).
  • the terminal 3D coordinate of the matching control point data is stored as the terminal 3D coordinate of the pixel of interest in the small region of interest (step F136).
  • the focused pixel is a non-control point, and the movement position of the focused pixel is shown in FIGS. 7A and 7B from the end 3D coordinates of the three control point data.
  • step F137 the calculated movement position is stored as the terminal 3D coordinates of the noticed pixel in the small area of interest (step F138).
  • step F139 When the processing for one pixel in the small area of interest is finished, the operation inside unit 4 moves attention to the next one pixel in the small area of interest (step F139), and the same as the above-described process. Repeat the process.
  • step S140 When the processing for all the pixels in the small area of interest is completed (YES in step S140), the next small area in the operation area is focused on (step S141), and the same process as the above-described process is repeated.
  • step F142 When processing for the pixels in all the small areas in the operation area is completed (YES in step F142), output data S6 including the end 3D coordinates of each pixel in the operation area is stored in storage device M6 (step F143). ).
  • FIG. 9 shows a form deformation apparatus according to a second embodiment of the present invention.
  • the morphological deformation device according to the second embodiment deforms an expressionless face image of a person into an expression motion face image.
  • the form deformation apparatus of the second embodiment is characterized in that the memory apparatus M7 is provided, and that the processing apparatus CNT1 further includes the adjacent small area adjustment unit 5, the form deformation apparatus of the first embodiment shown in FIG.
  • the other points are the same as those of the first embodiment.
  • the operation area is divided into a plurality of small areas and the movement amount is calculated independently for each small area, if there is a clear difference between the movement amounts of the adjacent small areas, Discontinuities such as steps occur at the boundary between these small areas.
  • FIG. 10A two small areas 1001 and 1002 which were in contact with each other before movement are different from each other as shown in FIG. 10B if there is a difference in the amount of movement.
  • FIG. 10C may partially overlap each other.
  • the adjacent small area adjusting unit 5 of this embodiment has a function of adjusting the discontinuous state generated at the boundary of such small areas.
  • the P-contact small area adjusting unit 5 can be realized by the program stored in the recording medium PM1 and the computer constituting the processing device CNT1 as in the other functional units 14-14.
  • the alignment unit 5 receives the small area divided data S4 and the output data S6 from the storage device M4 and the storage device M6 (step F201).
  • all boundary points of all the small areas are searched based on the small area divided data S4 (step F202).
  • a boundary point of a small area is a pixel located on the boundary of a plurality of adjacent small areas. Such pixels belong to a plurality of small regions, and this is possible by extracting all the pixels belonging to a plurality of small regions from the small region divided data S4.
  • the adjacent small area adjusting unit 5 focuses on one of the boundary points searched in step F 202 (step F 203), checks the small area to which the boundary point belongs from the small area divided data S 4, and belongs The terminal 3D coordinates in all the small regions are taken out from the output data S6, and the average (or even the median) is determined (step F204).
  • one boundary point 1100 shown in FIG. 10A is a point at the end 3D coordinates (Xa, Ya, Za) in the small area 1101 as shown in FIG. 10B) or FIG. 10C after movement.
  • step F205 the terminal 3D coordinates (Xa, Ya, Za) of the point 1103-1 are updated to ⁇ (Xa + Xb) / 2, (Ya + Yb) / 2, (Za + Zb) / 2 ⁇ , and the point 1103 is also the same.
  • step F206 When the adjacent small area adjusting unit 5 finishes the processing for one boundary point, it focuses attention on the next one boundary point (step F206), returns to step F204, and performs the same processing as the above-described processing. repeat.
  • step F208 When all the boundary points have been processed (YES in step F207), the small area boundary is smoothed (step F208).
  • the adjacent small area adjusting unit 5 sets the change amount of the boundary point whose end 3D coordinates are changed at step S205 to the pixels near the boundary point for each small area. By propagating, the boundary is smoothed.
  • the detail of this smoothing process F208 is shown in FIG.
  • the adjacent small area adjusting unit 5 focuses attention on one small area (step F211), and Initialize to a value smaller than 1 and close to 1 (step F212).
  • 3D correction amounts of all boundary points between adjacent small areas in the small area of interest are calculated (step F213).
  • the 3D correction amount of the boundary point is the end point of the 3D coordinates of the boundary point in the small area of interest in the output data S6 and the end points of all the small regions to which the boundary point calculated in step F204 in FIG. It is the difference from the average of 3D coordinates.
  • the terminal 3D coordinates of a certain boundary point in a certain small region are (Xa, Ya, Za), and the average of the terminal 3D coordinates in all the small regions to which the boundary point belongs calculated in step F204 of FIG. If ⁇ (Xa + Xb) / 2, (Ya + Yb) / 2, (Za + Zb) / 2 ⁇ , then the 3D correction amount is ⁇ (Xa + Xb) / 2 ⁇ to Xa, ⁇ (Ya + Yb) It is obtained as Z2 ⁇ _Ya, ⁇ (Za + Zb) / 2 ⁇ Za ⁇ .
  • the P-contact small area adjusting unit 5 searches all pixels in contact with the boundary point in the small area of interest as an inner contact (step F 214). For example, as shown in FIG. 13, among the two / J ⁇ regions 1101 and 1102 in contact with each other, / J ⁇ region 1101 force S when attention is drawn, a pixel on the boundary with the small region 1102 a -Since f is the initial boundary point, the pixel g-1 in contact with the pixel a-f is determined as the inner contact.
  • the adjacent small area adjustment unit 5 focuses on one inner contact point (step F215), and calculates the average (may be the median) of the 3D correction amounts of all the boundary points in contact with the inscribed point. (Step F216). For example, when the pixel g in FIG. 13 is focused as one inner contact, the boundary points in contact with it are the pixels a and b, so the adjacent small area adjustment unit 5 calculates the 3D correction amount of the pixel a and the pixel b. Calculate the average of the 3D correction amount. Next, the adjacent small area adjusting unit 5 adds the 3D correction amount obtained by multiplying the average of the calculated 3D correction amount by the correction coefficient to the terminal 3D coordinates of the inner contact (step F217).
  • the inner contact is treated as a new boundary point (step F218).
  • the P small contact region adjusting unit 5 shifts the attention to the next one inner contact (step F219). For example, when the process of the pixel g in FIG. 13 is finished, the attention is shifted to the pixel h, and the process returns to step F216 to repeat the same process as the process described above.
  • the P-contact small area adjustment unit 5 sets a predetermined value (eg, 0.1, etc.) predetermined from the value of the correction coefficient. 0.2) is reduced (step F221).
  • step F222 If the value of the correction factor is greater than 0 (YES in step F222), the process returns to step F214.
  • Figure In the case of 13 when the processing of the pixel g-1 is finished, the pixel g-1 is treated as a new boundary point, so the set of new inner contacts searched in step F221 becomes the pixel m-r. Thus, the 3D correction amount of the original boundary point a-f is propagated to neighboring pixels and smoothed.
  • the adjacent small area adjusting unit 5 finishes the smoothing process on the small area of interest and shifts the attention to the next one small area (step F223). Go back to step F212 and repeat the same processing as described above.
  • the adjacent small area adjusting unit 5 finishes the process for all the small areas (YES in step F224), the adjacent area adjustment unit 5 ends the smoothing process F208 of the small area boundary.
  • the discontinuous state generated in the P adjacent small area adjusted data S7 that is, the boundary part of the small area in the output data S6.
  • the output data S7 stored in the storage device M7 is displayed on the display device DPY automatically or in accordance with an instruction from the input device KEY.
  • FIG. 14 shows a form deformation apparatus according to a third embodiment of the present invention.
  • the shape transformation device of the third embodiment transforms an expressionless face image of a person into an expression motion face image.
  • the modification of the third embodiment is the same as the modification of the second embodiment, except that the storage device M8 is provided and the processing device CNT1 further includes the non-operating area adjustment unit 6. This is different from the form deformation apparatus of the second embodiment shown in FIG.
  • the motion region 1001 and the motion region 1001 are displayed during facial expression motion. Discontinuities such as steps may occur at the boundary of the non-operating area.
  • the motion area 1201 and the non-motion area 1202 which were in contact with each other in the expressionless image, move only the motion area 1201 among them, so the motion area 1201 is shown in FIG.
  • the non-operating area 1202 may overlap each other, or a gap 1204 may be generated between the operating area 1201 and the non-operating area 1202.
  • the non-operating area adjusting unit 6 of the present embodiment has a function of adjusting the discontinuous state generated at the boundary between the operating area and the non-operating area.
  • the non-operating area adjustment unit 6 As in the case of 1-15, it can be realized by the program stored in the recording medium PM1 and the computer constituting the processing device CNT1.
  • the non-operating area adjusting unit 6 receives the operating area specified data S2 and the adjacent small area adjusting data S7 from the storage device M2 and the storage device M7 (step F301).
  • the non-operating area adjustment unit 6 initializes the correction coefficient to a value smaller than 1 and closer to 1 (step F302), and based on the operating area designated data S2, the 3D movement amounts of all the inner boundary points Calculate (step F3 03).
  • the inner boundary point is a pixel that belongs to the active region and is located on the boundary with the non-active region. For example, as shown in FIG.
  • the 3D movement amount of the inner boundary point refers to the 3D coordinates (that is, the position at the time of expressionlessness) on the movement region specified data S2 of the inner boundary point and the 3D coordinates on the adjacent small region adjusted output data S7 It is the difference with (that is, the position at the time of expression movement).
  • the non-operating area adjusting unit 6 searches all the external boundary points based on the operating area specified data S2 (step F304).
  • the outer boundary point is a pixel located on the boundary of the operation area among the pixels of the non-operation area. For example, in the example of FIG. 17, the pixels d, e, f, etc. are outer boundary points.
  • the non-operating area adjustment unit 6 focuses on one of the outer boundary points found in step F304 (step F305), and determines the 3D movement amount of all the inner boundary points that the outer boundary points touch. Find the average (or the median) (step F306). For example, when the pixel e shown in FIG. 17 is focused as the outer boundary point, all the inner boundary points in contact with the pixel e are the pixels a, b and c, so the average of their 3D movement amounts is calculated. Be done. Next, the 3D movement amount obtained by multiplying the calculated average value by the correction coefficient is added to the terminal 3D coordinates of the outer boundary point (step F307). Then, the outer boundary point is treated as a point of the operation area (step F 308).
  • step F309 When the processing for one outer boundary point is finished, the attention is shifted to the next one outer boundary point (step F309). For example, when the processing of the pixel e in FIG. 17 is finished, next, attention is paid to the pixel f, and the process returns to step F306 and the same processing as the above-described processing is repeated.
  • the non-operating area adjustment unit 6 sets a predetermined constant value (for example, 0.1 or 0.2) from the value of the correction coefficient. Etc.). (Step F311). If the value of the correction coefficient is larger than 0 (YES in step F3 12), the process returns to step F304. In the case of FIG.
  • the non-operation area adjustment unit 6 finishes the non-operation area adjustment processing, and the non-operation area adjustment completed data S8, that is, the adjacent small area adjustment completed output data Output data obtained by adjusting the discontinuous state generated at the boundary between the operating area and the non-operating area in S7 is output to the storage device M8.
  • the output data S8 stored in the storage device M8 is displayed on the display device DPY automatically or in accordance with an instruction from the input device KEY.
  • the non-operating area adjusting unit 6 is executed after the adjacent small area adjusting unit 5 is executed, but the non-operating area adjusting unit 6 is first executed to output data S6 from the output data S6. Data in which the discontinuity at the boundary with the non-operating area has been eliminated is generated, and then the adjacent small area adjustment unit 5 is executed to further eliminate the discontinuity in the boundary between the small areas Even if you want to generate Also.
  • the adjacent small area adjusting unit 5 may be omitted, and only the adjustment by the non-operating area adjusting unit 6 may be performed.
  • FIG. 18 is a block diagram of a facial motion encoding apparatus according to a fourth embodiment of the present invention, which shows motions during facial expression motion from three-dimensional data of facial expressions during facial expression and motion of a certain person. Calculate and output the area and external force.
  • the face motion encoding apparatus of this embodiment includes a processing unit CNT11, a storage unit Mil-ML5, a display unit DPY, and an input unit KEY.
  • a plurality of storage devices Mil-M 15 are configured by, for example, a magnetic disk, and among them, the storage device Mil stores the expressionless face 3D data S100 and the expression action face 3D data S101 as input data, and the storage device M15 stores external force data S12 of the facial expression motion and the motion area S13 of the facial expression motion as output data, and the remaining storage device M12 M14 stores the intermediate data and control data required in the process.
  • the display device DPY is formed of, for example, a liquid crystal display, and is used to display process data and the like.
  • the input device KEY is, for example, It consists of a board and a mouse, and is used to receive various data and instructions from the user.
  • the control device CNT11 is formed of, for example, a central processing unit of a computer, and executes the main processing of the face motion encoding device of this embodiment.
  • the control device CNT11 includes a 3D face model application unit 101, a 3D difference calculation unit 102, and an external force calculation unit 103.
  • the respective functional units 101 and 103 of the control device CNT11 can be realized by a computer constituting the control device CNT11 and a program for the face motion encoding device.
  • the program for the facial motion encoding device is recorded on a computer readable recording medium PM11 such as a magnetic disk, and is read by the computer when the computer is started, etc., by controlling the operation of the computer.
  • Each functional unit 101 103 is implemented on the computer.
  • the control device CNT 11 first uses the 3D face model assignment unit 101 to store the expressionless face three-dimensional data S 100 of a person and the expression movement face three-dimensional data S 101 stored in the storage device Mil and used for encoding.
  • the face triangular polygon mesh models S102 and S103 are used for each of the expressionless face and the expression action by inputting and matching the face triangular polygon mesh model S 105 prepared in advance in the storage device M12 with respect to each data. It is generated and stored in the storage device M13.
  • the face triangular polygon mesh models S 102 and S 103 are input from the storage device M13 3 for expression-free and expression-driven operations, respectively, and the two are compared.
  • the 3D difference data S 104 is input from the storage device M14 and given to each vertex of the face triangular polygon of the expressionless face to transform the expressionless face into the expression movement face.
  • the external force is calculated by the above-mentioned equation (7), and the motion area S 13 of the expression motion including information of the polygon moved (moved) when the expression changes from the expressionless face to the expression movement face, and each polygon
  • the external force data S 12 of the expression movement including the external force applied to the top is output to the storage device M 15.
  • Three-dimensional face data S 100, S 10 H acquired by the three-dimensional face model addition unit 101 which is input without expression and during expression operation, acquired by the unit acquiring the three-dimensional data of the face, storage device M 11 is stored.
  • the three-dimensional data of the face can be a good or artificial three-dimensional computer with data measured in any part such as a light emitting type range finder, stereo image measurement with a stereo 'multi-power camera, MRI measurement, infrared measurement etc. Good even with data created with graphics.
  • the texture as information attached to the three-dimensional data correspond to the correspondence between the two face data
  • another part that finds the correspondence between the two face data In some cases, it is not essential.
  • a marker with temperature different from body temperature is attached and acquired.
  • a match may be considered.
  • Even when acquiring a texture if the marker is drawn on part of the face, the texture of the entire face is not essential.
  • a face triangular polygon mesh model S105 as shown in FIG. 19 is stored.
  • the number of polygons and the size of each polygon are arbitrary.
  • a part of the vertices of the triangular mesh is generated to correspond to the feature points of the face.
  • the three-dimensional face model addition unit 101 generates a three-dimensional expressionless face triangular polygon mesh model S102 by matching the face triangular polygon mesh model S105 with the expressionless face three-dimensional data S100.
  • the expressionless face three-dimensional data S100 and the face triangular polygon mesh model S105 are displayed on the screen of the display device DPY, and each vertex of the face triangular polygon mesh model S105 is operated by the user using the input device KEY.
  • Map to the feature points of the face that should be mapped to that vertex It is also possible to automatically associate some of the vertices of the face triangular polygon mesh model S105 with reference to the feature points of the expressionless face three-dimensional data S100. For example, if a certain vertex of a certain polygon of the face triangular polygon mesh model S105 is a vertex that is made to correspond to the tip of the nose, the position of the marker attached to the tip of the nose is detected. Can be associated automatically.
  • the three-dimensional face model assigning unit 101 assigns the three-dimensional coordinates of the point of the expressionless face three-dimensional data S100 associated with the vertex to each vertex of each polygon in the face triangular polygon mesh model S105,
  • the three-dimensional expressionless face triangular polygon mesh model S102 is stored in the storage device M 13 as a three-dimensional expressionless face triangular polygon mesh model S102 after assigning the three-dimensional coordinates of points of the expressionless face three-dimensional data S100 to the vertices of the polygons.
  • the three-dimensional face model assignment unit 101 matches the three-dimensional facial expression polygon three-dimensional data S101 with the three-dimensional facial expression polygon three-dimensional data S101 to match the three-dimensional facial expression facial triangular polygon mesh model S103.
  • the three-dimensional difference calculation unit 102 calculates a three-dimensional expressionless face triangular polygon mesh model S 102 in which three-dimensional coordinates of an expressionless face are assigned to each vertex of each polygon, and an expression at each vertex of each polygon. Three-dimensional coordinates are calculated between the same vertices of the same polygon as that of the three-dimensional expression facial movement face triangular polygon mesh model S103 to which the three-dimensional coordinates of the movement face are assigned. For example, assuming that the three-dimensional difference calculation unit 102 sets the same polygons of the modelles S102 and S103 as S102-1 and S103-1 shown in FIG.
  • the three-dimensional difference calculation unit 102 calculates three-dimensional data including data including the three-dimensional coordinates of the expressionless face and the expression movement face assigned to the vertex of the face triangular polygon mesh model of the movement area determined in this way and the face.
  • Data S104 is stored in the storage device M14.
  • FIG. 21 shows an example of the contents of the three-dimensional difference data S104.
  • a polygon number m is set for each polygon of the face triangle polygon mesh model S 105, a vertex number i is set for each vertex of each polygon, and a flag indicating whether the polygon including the vertex is an operation area and the vertex.
  • the external force calculation unit 103 inputs data of a polygon which is an operation area from the three-dimensional difference data S104, and the expressionless three-dimensional coordinates of the vertex of the polygon, the three-dimensional coordinates at the time of expression movement, and the necessary
  • the external parameters required to move the position of each vertex from the position at the time of expressionlessness to the position at the time of expression movement are calculated using various parameters.
  • the external force calculation unit 103 calculates the three-dimensional coordinates of the control points in the no-expression mode with norams t, k, d, and the above-mentioned equation (7).
  • the external force Fi is calculated by giving xi (0), xi (t) as three-dimensional coordinates of the control point at the time of facial expression movement, and their initial conditions.
  • the control points can be freely selected within the polygon, but in the simplest case, three vertices of the polygon are taken as control points in this embodiment as shown in FIGS. 22A and 22B.
  • FIG. 23 is a block diagram of a face motion decoding apparatus according to a fifth embodiment of the present invention, in which three dimensional face data of a person without expression is based on external force information at the time of expression operation. Transforms and generates three-dimensional face data of the person during facial expression movement and outputs it.
  • the face motion decoding apparatus of the present embodiment includes a processing device CNT21, a storage device M21 M26, a display device DPY, and an input device K EY.
  • the plurality of storage devices M21 to M26 are configured by, for example, magnetic disks.
  • Storage devices M21 and M22 store expressionless face 3D data S300 as input data and external force information S30 at the time of expression operation, storage device M26 stores expression face 3D data 32 as output data, and the remaining storage Devices M23 to M25 store intermediate results and control data required in the process.
  • the display device DPY is formed of, for example, a liquid crystal display, and is used to display the generated expression face 3D data 32 and data of the processing process.
  • the input device KEY comprises, for example, a keyboard and a mouse, and is used to receive various data and instructions from the user.
  • the control device CNT21 is formed of, for example, a central processing unit of a computer, and executes the main processing of the face motion decoding device of this embodiment.
  • the control device CNT21 has a 3D face model corresponding unit 301, a movement amount calculation unit 302, and an expression creation unit 31.
  • the respective functional units 301, 302, and 31 of the control device CNT21 can be realized by a computer constituting the control device CNT21 and a program for the face motion decoding device.
  • the program for the facial motion decoding device is recorded on a computer readable recording medium PM21 such as a magnetic disk, and is read by the computer when the computer is started up, etc., by controlling the operation of the computer.
  • the control device CNT21 first uses the 3D face model corresponding unit 301 to input the expressionless face three-dimensional data S300 of a certain person used for decoding stored in the storage device M21, for the data.
  • a three-dimensional expressionless face triangular polygon mesh model S302 is generated and stored in the storage device M24.
  • each of the motion areas of the three-dimensional expressionless face triangular polygon mesh model S302 stored in the storage device M24 according to the external force information S30 of the expression motion stored in the storage device M22.
  • the movement position of the control point is calculated and stored in the storage device M25 as movement position data S303 of the control point.
  • the expressionless face three-dimensional data S300 stored in the storage device M21 is deformed and displayed.
  • Three-dimensional data of the facial expression movement face at the time of movement is generated, stored as a facial expression face 3D data S32 in the storage device M26, and displayed on the display device DPY. Details will be described below.
  • the external force information S30 of the facial expression motion of the storage device M22 includes external force data S12 of the facial expression motion generated by the facial motion encoding apparatus of the fourth embodiment shown in FIG. 18 and a motion area S 13 of the facial expression motion. The information corresponding to is used. Also, as the face triangle polygon mesh model S105 prepared in the storage device M23, the same model as the face triangle polygon mesh model S105 used in the face action code device of the fourth embodiment shown in FIG. 18 is used. .
  • the three-dimensional face model corresponding part 301 generates the expressionless face three-dimensional data S 300 by the same method as the three-dimensional face model attaching part 101 of the face motion encoding apparatus of the fourth embodiment shown in FIG.
  • a three-dimensional expressionless face triangular polygon mesh model S 302 is generated. That is, the three-dimensional coordinates of the point of the expressionless face three-dimensional data S300 corresponding to the vertex are assigned to each vertex of each polygon in the face triangular polygon mesh model S105, and the expressionless face cubic is assigned to the vertex of all polygons.
  • the result is stored in the storage device M24 as a three-dimensional expressionless face triangular polygon mesh model S302.
  • the movement amount calculation unit 302 inputs external force information S30 during expression operation corresponding to the face triangular polygon mesh model S105 from the storage device M22, and is similar to the control point operation unit 3 of the first embodiment of FIG.
  • the movement position S303 of the control point at the time of expression operation is calculated by the method. For example, when a face triangular polygon mesh model similar to that of the fourth embodiment shown in FIG. 18 is used, the movement amount calculator 302 calculates the three-dimensional coordinates of the three vertexes of the polygon and the point described in the external force information S30.
  • the facial expression creation unit 31 is a movement position of a point corresponding to the top point of the polygon in the motion area of the face triangular polygon mesh model S105 among the points constituting the expressionless face 3D data S300 stored in the storage device M21. Since the position data S303 has already been calculated in the position data S303, the movement positions of the other points (in-polygon points) are calculated in the same manner as in the operation inner part 4 of the first embodiment of FIG. For example, when the face triangular polygon mesh model is used, the surface information creating unit 31 calculates the moving position of each point in each polygon from the moving position of the vertex by the inner eye. Then, the three-dimensional coordinates of each point of the expressionless face 3D data S300 are corrected by the movement position only, and the expression face three-dimensional data S32 is generated.
  • three-dimensional face data S300 of a person without an expression is deformed based on external force information S30 of only one emotion motion, but three-dimensional data of an expressionless face S300 is It is also possible to deform based on external force information S30 of a plurality of different facial expressions.
  • the movement amount calculation unit 302 combines external force information S30 of a plurality of expression motions into one external force information by adding external forces acting on the same control point, and based on the combined external force, The movement position data S303 of the control point is calculated.
  • FIG. 24 is a block diagram of a face motion decoding apparatus according to a sixth embodiment of the present invention, wherein external force information at the time of facial expression motion of a face image (two-dimensional face image) of a person without expression is Based on the deformation And generates and outputs a face image (two-dimensional face image) at the time of expression operation of the person. That is, in the face motion decoding apparatus of the present embodiment, the expressionless face three-dimensional data S300 in the face motion decoding apparatus of the fifth embodiment shown in FIG. 23 is replaced by the expressionless face image S301, and the output expression The three-dimensional face data S32 is replaced with the expression face image S32.
  • the face motion decoding apparatus of the present embodiment includes a processing device CNT31, storage devices M31 to M36, a display device DPY, and an input device KEY.
  • a plurality of storage devices M31 M36 are, for example, magnetic disks, and storage devices M31 and M32 store an expressionless face image S301 as input data and external force information S30 at the time of expression operation, and storage device M36 outputs data
  • the remaining facial expression S33 is stored, and the remaining storage unit M33 M35 stores intermediate results and control data required in the process.
  • the display device DPY is formed of, for example, a liquid crystal display, and displays the generated expression facial image S33 and data of the processing process.
  • the input device KEY comprises, for example, a keyboard and a mouse, and receives various data instructions from the user.
  • the control device CNT31 is constituted by, for example, a central processing unit of a computer, and executes the main processing of the face motion decoding device of this embodiment.
  • the control device CNT 31 includes a face image three-dimensionalization unit 300, an operation amount calculation unit 302, and an expression image creation unit 33.
  • the respective functional units 300, 302, and 33 of the control device CNT31 can be realized by a computer constituting the control device CNT31 and a program for the face motion decoding device.
  • the program for the facial motion decoding device is recorded on a computer-readable recording medium PM31 such as a magnetic disk, and is read by the computer when the computer is started, etc., by controlling the operation of the computer. Implement each of the functional units 300, 302, and 33 on the computer.
  • the control device CNT31 first uses the face image three-dimensionalization unit 300 to input the expressionless face image S301 of a certain person used for decoding stored in the storage device M31, and prepares the storage device M33 in advance.
  • the expressionless face three-dimensional data S300 for decoding is generated and stored in the storage device M34.
  • the stored expressionless face three-dimensional data S300 is the three-dimensional expressionless face triangular polygon mesh mode of the fifth embodiment shown in FIG. This corresponds to LE S302.
  • the facial expression face three-dimensional data stored in the storage device M34 according to the external force information S30 of the facial expression motion stored in the storage device M32 using the movement amount calculation unit 302.
  • the movement position of each control point in the operation area of S300 is calculated, and is stored in the storage device M35 as movement position data S303 of the control point.
  • the expressionless face three-dimensional data S300 stored in the device M34 is deformed to generate three-dimensional data of the expression movement face at the time of expression movement.
  • a facial expression face image S33 is generated from this three-dimensional data, stored in the storage device M36, and displayed on the display device DPY. Details will be described below.
  • external force information S 30 of the facial expression motion of the storage device M 32 As external force information S 30 of the facial expression motion of the storage device M 32, external force data S 12 of the facial expression motion generated by the facial motion encoding apparatus of the fourth embodiment shown in FIG. 18 and a motion area S 13 of the facial expression motion. Corresponding information is used.
  • the three-dimensional model S302 of the expressionless face prepared in the storage device M33 the same mesh model as the face triangular polygon mesh model S105 used in the face motion coding apparatus of the fourth embodiment shown in FIG. The 3D model of the person used is used.
  • the face image three-dimensionalization unit 300 receives the expressionless face image S301 for decoding and the three-dimensional model S302 of the expressionless face, and inputs the expressionless face image S301 for decoding into the three-dimensional model of the expressionless face It is pasted to Le S302 to create expressionless face three-dimensional data S300 for decoding.
  • the expressionless face three-dimensional data of a specific person is registered as a face three-dimensional model, and the feature points of the face model are made to correspond to the feature points of the expressionless face image S301 for decoding. Otherwise, the correspondence is given by the inner and outer rings as shown in FIG. 7 from the relative positional relationship with the feature points.
  • the texture information of the face three-dimensional model S302 associated with the expressionless face image S301 for decoding can be treated as the expressionless face three-dimensional data S300 for decoding.
  • the expressionless face three-dimensional data S302 of the specific person described above is an average face obtained by averaging the expressionless face three-dimensional data of a real person who needs to be of a real person. Even good things, good.
  • a face mesh in which a part of the apex of the triangular mesh corresponds to the feature point of the face There is also a method of using a model as a three-dimensional model S302 of an expressionless face. As can be seen from FIG.
  • This face mesh model can be regarded as artificially created face 3D data of a very rough expression, and the faceless face image S301 for decoding is associated with the face mesh model in feature point units, and out of feature points The points of are given correspondences by inner and outer rings as shown in FIG. 7, and in the same way as in the case of expressionless face 3D data, expressionless face 3D data S3 00 for decoding is created.
  • the facial expression image creation unit 33 creates three-dimensional data of a facial expression at the time of decoding to be output similarly to the facial expression creation unit 31 of the fifth embodiment, and then projects the three-dimensional data of the face onto a designated view.
  • a facial expression motion face image S33 at the time of decoding is generated and output to the storage device M36.
  • the expressionless face image S301 of a person is deformed based on the external force information S30 of the only facial expression motion, but the same as in the fifth embodiment of FIG.
  • the expressionless face image S301 may be deformed based on the external force information S30 of a plurality of different facial expressions.
  • the expressionless face three-dimensional data S300 is input, the three-dimensional data S32 of the expression movement face is output, and in the sixth embodiment, the expressionless face image S301 is input, and the expression An operation face image S33 is output.
  • a face movement decoding apparatus to which an expressionless face three-dimensional data S300 is input and an expression movement face image S33 is output, or an expressionless face image S301 is input, and three-dimensional data S32 of expression movement face is input.
  • a face motion decoding device to be output is also conceivable.
  • FIG. 25 is a block diagram of a face motion encoding device according to a seventh embodiment of the present invention, and as in the fourth embodiment, three-dimensional data of a face with no expression and with expression of a certain person Then, calculate the motion area and external force at the time of facial expression motion and output.
  • the face motion encoding apparatus of the present embodiment includes a processing unit CNT41, storage units M41 to M43, a display unit DPY, and an input unit KEY.
  • the plurality of storage devices M41 and M43 are, for example, magnetic disks, and the storage device M41 stores the expressionless face 3D data S 100 and the expression action face 3D data S101 as input data, and the storage device M43 is an output data as output data.
  • the external force data S12 of the motion and the motion region S13 of the facial expression motion are stored, and the remaining storage device M42 stores the intermediate result.
  • display The device DPY comprises, for example, a liquid crystal display and is used to display process data and the like.
  • the input device KEY comprises, for example, a keyboard and a mouse, and is used to receive various data and instructions from the user.
  • the control device CNT41 is formed of, for example, a central processing unit of a computer, and executes the main processing of the face motion coding device of this embodiment.
  • the control device CNT 41 has a difference calculation unit 10 and an external force calculation unit 11.
  • the respective functional units 10 and 11 of the control device CNT41 can be realized by a computer constituting the control device CNT41 and a program for face motion coding device.
  • the program for the face movement code device is recorded on a computer readable recording medium PM41 such as a magnetic disk, and is read by the computer when the computer is started, etc., and the computer is controlled by controlling the operation of the computer. Implement the functional units 10 and 11 on top.
  • the control device CNT41 first uses the difference calculation unit 10 to input the expressionless face three-dimensional data S 100 and the expression action face three-dimensional data S 101 of the person used for encoding stored in the storage device Mil.
  • the three-dimensional coordinate difference S11 is generated from these input data and stored in the storage device M42.
  • the difference calculation unit 10 performs the following process.
  • the difference calculation unit 10 associates the same parts of the face three-dimensional data S100 and S101 during expressionless operation and expression movement (for example, expressionless face right-eye corner and expression movement face right-eye corner).
  • the method of correspondence may be automated by using the above-mentioned marker etc. as a clue, or both images may be displayed on the display device DPY and manually matched by the user using a GUI tool.
  • a difference in three-dimensional coordinates is calculated between corresponding points of the expressionless face three-dimensional data S100 and the three-dimensional data S101 of the expression movement face.
  • a restricted area such as an area where the difference between the three-dimensional coordinates is different, that is, an area where the distance is equal to or greater than a predetermined threshold or an area where an expression muscle is attached It is considered as a non-operating area.
  • the positions of the expressionless face three-dimensional data (three The three-dimensional coordinate difference S11 is output as the three-dimensional coordinate difference S11) and the two-dimensional coordinate on the coordinate of the plane when projected onto a two-dimensional surface such as a cylinder.
  • the external force calculation unit 11 uses the three-dimensional coordinate difference S11 describing the position of expressionless face three-dimensional data and its three-dimensional coordinate difference only with respect to the operation point, and detects the position of the operation point at the expressionless face three-dimensional
  • the external force required to move from the position of the data by the three-dimensional coordinate difference is calculated, and is output as external force data S12 of the facial expression operation.
  • an operation area S 13 in which an external force acts and an expression movement occurs is output.
  • the operating area S13 is divided into small areas in which three or more control points connected to each other by the panel and the damper are subjected to external force and dragged by the control points as shown in FIG.
  • the operation of each small area becomes the operation of the entire operation area.
  • the dynamics system in each small area can be formulated as described above by assuming that all panels and dampers have the same spring constant and damper constant.
  • FIG. 26 is a block diagram of the eighth embodiment of the present invention, and as in the fifth embodiment of FIG. 23, three-dimensional face data of a person without expression are used as external force information at the time of expression operation.
  • An embodiment is shown in which the present invention is applied to a face motion decoding apparatus which generates and outputs three-dimensional data of a face during expression operation of a person based on a base, and modified.
  • the face motion decoding apparatus according to the present embodiment is configured to include a processing unit CNT 51, storage units M51 to M54, a display unit DPY, and an input unit KEY.
  • a plurality of storage devices M51 to M54 are formed of, for example, magnetic disks, and among them, the storage devices M51 and M52 store expressionless face 3D data S300 as input data and external force information S30 at the time of expression operation, and a storage device M54 Stores expression face 3D data 32 as output data, and the remaining storage device M53 stores intermediate results.
  • the display device DPY is configured of, for example, a liquid crystal display, and is used to display the generated expression face 3D data S32, data of the processing process, and the like.
  • the input device KEY comprises, for example, a keyboard and a mouse, and is used to receive various data and instructions from the user.
  • the control unit CNT 51 is formed of, for example, a central processing unit of a computer, and executes the main processing of the face motion decoding apparatus of this embodiment.
  • the control device CNT 51 has an external force decoding unit 30 and a facial expression creation unit 31.
  • the respective functional units 30, 31 of the control device CNT51 can be realized by a computer constituting the control device CNT51 and a program for the face motion decoding device.
  • the program is recorded on a computer-readable recording medium PM51 such as a magnetic disk, and is read by the computer when the computer is started up, etc., to control the operation of the computer, thereby enabling each functional unit 30, 30, Achieve 31
  • the control device CNT 51 first uses the external force decoding unit 30 to input the expressionless face three-dimensional data S300 stored in the storage device M51 and the external force information S30 of the expressionless movement stored in the storage device M52.
  • the external force information S30 of the expressionless movement is obtained by integrating the external force data S12 of the expression movement and the operation area S13 of the expression movement in the seventh embodiment of FIG.
  • the motion area S13 is stored as an area indicating a part of a face, and an area described by a relative position based on the positions and distances of feature points such as both eyes and tear points.
  • a storage format a method of projecting a face on a flat surface, a cylinder, a spherical surface or the like and storing it in two-dimensional coordinates is conceivable.
  • the operation area is divided into small areas, the operation area is also divided into small areas on two-dimensional coordinates.
  • the world map as a projection plane of the movement area, with the face of the earth, a part of the continent on the earth as the movement area, and the countries in the continent as the small area.
  • the small areas are numbered to create a set of control points.
  • the external force data S12 the external force three-dimensional vector and the number of the small area, which are applied to the control points of the small area, and the position of the control point on the same two-dimensional coordinate as the operation area are stored.
  • the external force decoding unit 30 generates facial expression movement position data S31 of the control point from the expressionless face three-dimensional data S300 and the external force information S30 of the expressionless movement, for example, as follows, and stores the storage device M53 Save to First, the external force decoding unit 30 expands the expressionless face three-dimensional data S300 into a format described in the same relative position based on the position and distance of the face feature point as in the movement region of the external force information S30. Next, a portion corresponding to the motion area of the external force information S30 is searched on the expanded format, and the portion is set as the motion area of the expressionless face three-dimensional data s300.
  • the corresponding area and the corresponding point of the expressionless face three-dimensional data S300 are searched.
  • the expressionless face three-dimensional data S300 may be displayed on the display device DPY, and the user may manually associate the control point and the small area described in the external force information 30 with a tool such as a GUI. And may be performed automatically based on the feature points. If the corresponding control point of expressionless face three-dimensional data S300 is found, external force decoding The unit 30 assigns the three-dimensional coordinates of the point to xi (0) of the equation (7).
  • the external force at (the corresponding point of) the control point is read from the external force information S30, and is set as the external force Fi of the above-mentioned equation (7).
  • the parameter d and t representing the intensity of the facial expression motion are given, and the control region set of the external region information 30 has the same small area number according to equation (7).
  • the three-dimensional position information of the control point after this movement and the position information in the above format of the operation area, the small area, and the control point in the expressionless face three-dimensional data S 300 for position decoding are the expression action of the control point.
  • the movement position is S31.
  • the expression generation unit 31 moves the control point of the expressionless face three-dimensional data S300 to the position indicated by the expression movement movement position S31, and the other points are from the position relative to the control point belonging to the same small area.
  • the three-dimensional coordinates of the movement position are calculated by the inner eyelid and the outer eyelid, and the corresponding position in the face three-dimensional data S300 is moved to the movement position.
  • three-dimensional data S32 of the facial expression motion face is completed. If the texture is attached to the expressionless moving face three-dimensional data S300 for decoding, the three-dimensional data S32 of the expression movement face becomes the face three-dimensional data with color information. Similar to the facial expression creation unit 31 of the fifth embodiment shown in FIG.
  • the three-dimensional face data S300 of a person without an expression is deformed based on the external force information S30 of the unique expression movement. It is also possible to deform based on the external force information S30 of different facial expressions.
  • external force decoding unit 30 combines external force information S30 of a plurality of facial expressions into one external force information by adding forces and external forces to the same control point, and based on the combined external force, By calculating the expression movement movement position data S31, the expression movement movement position data of the final control point corresponding to the plurality of external force information S30 is calculated, or the control points are calculated based on the respective external force information S30.
  • FIG. 27 is a block diagram of a ninth embodiment of the present invention, in which a face image (two-dimensional face image) of a person without expression is deformed based on external force information at the time of expression operation, An embodiment in which the present invention is applied to a face motion decoding apparatus that generates and outputs a face image (two-dimensional face image) at the time of facial expression motion of a person is shown. That is, the face movement decoding apparatus of the present embodiment outputs the expressionless face three-dimensional data S300 which is an input in the face movement decoding apparatus of the eighth embodiment shown in FIG.
  • the face-motion decoding apparatus of the present embodiment is configured to include a processing device CNT 61, storage devices M61 to M66, a display device DPY, and an input device KEY.
  • a plurality of storage devices M61 M 66 are formed of, for example, magnetic disks, among which the storage devices M61 and M62 store an expressionless face image S301 as input data and external force information S30 at the time of expression operation, and the storage device M66
  • the expression facial image S33 which is output data, is stored, and the remaining storage devices M63 to M65 store intermediate results and control data required in the process.
  • the display device DPY is configured of, for example, a liquid crystal display, and displays the generated expression facial image S33 and data of the processing process.
  • the input device KEY comprises, for example, a keyboard and a mouse, and receives various data and instructions from the user.
  • the control device CNT 61 is constituted by, for example, a central processing unit of a computer, and executes the main processing of the face motion decoding device of the present embodiment.
  • the control device CNT 61 has a face image three-dimensionalization unit 32, an external force decoding unit 30 and an expression image generation unit 33.
  • Each functional unit 32, 30, 33 of the control device CNT61 can be realized by a computer constituting the control device CNT61 and a program for the face motion decoding device.
  • the program for the facial motion decoding apparatus is recorded on a computer readable recording medium PM61 such as a magnetic disk, read by the computer when the computer is started, etc., and controlling the operation of the computer enables the computer to read the program.
  • the control device CNT 61 uses the face image three-dimensionalization unit 32 to input the expressionless face image S 301 of a certain person used for decoding stored in the storage device M 61 and to input the same to the storage device M 63 in advance.
  • the expressionless face three-dimensional data S300 for decoding is generated and stored in the storage device M64.
  • the external force decoding unit 30 is used to decode the expressionless face stored in the storage device M64 in accordance with the external force information S30 of the facial expression motion stored in the storage device M62.
  • the movement position of each control point in the movement area of the three-dimensional data S300 is calculated, and is stored in the storage device M65 as expression movement movement position data S31 of the control point.
  • the facial expression image creation unit 33 similarly to the facial expression creation unit 31 of the eighth embodiment of FIG. 26, based on the facial expression movement movement position data S31 of the control point stored in the storage device M65, The three-dimensional data S300 for reconstruction, which is stored in M64, is deformed to generate three-dimensional data of a facial expression movement face during facial expression movement, and then this three-dimensional data is projected onto a specified view.
  • a facial expression action face image S33 at the time of decoding is generated and output to the storage device M36.
  • the expressionless face three-dimensional data S300 is input, the three-dimensional data S32 of the expression movement face is output, and in the ninth embodiment, the expressionless face image S301 is input. Emotional face image S33 is output.
  • a face movement decoding apparatus to which an expressionless face three-dimensional data S300 is input and an expression movement face image S33 is output, or an expressionless face image S301 is input, three-dimensional data of an expression movement face A face motion decoding apparatus to which S32 is output is also conceivable.
  • the expressionless face image S301 of a certain person is deformed based on the external force information S30 of the only facial expression motion, but as in the eighth example of FIG.
  • the expressionless face image S 301 may be deformed based on the external force information S30 of a plurality of different expression movements.
  • FIG. 28 is a block diagram of a facial motion encoding / decoding apparatus according to a tenth embodiment of the present invention.
  • the expression motion is added to the three-dimensional data of the expressionless face.
  • the face motion code decoding apparatus includes an encoding apparatus 71, a transmission apparatus 72, and a decoding apparatus 73.
  • the transmission apparatus 72 and the decoding apparatus 73 can communicate with each other through a communication path 74. It is connected to the.
  • a storage device M storing expressionless face three-dimensional data S 100 of person A and expression action face three-dimensional data S 101 of person A as input data of the decoding apparatus 71 71, storage device M 72 for storing external force data S 12 of facial expression motion and motion area S 13 of facial expression motion generated by decoding device 71, transmission device 72 integrates external force data S 12 of facial expression motion and motion area S 13 Storage device M 73 for temporarily storing external force information S 30 of the facial expression motion, storage device M 74 for storing the expressionless face three-dimensional data S 300 of person B, M 74 for the facial expression motion sent from the transmission device 72 through the communication path 74 Memory device M7 5 for storing the facial expression face three-dimensional data S32 of the person B generated by the decoding device 73 based on the external force information S30 and the expressionless face three-dimensional data S300 of the person B stored in the storage device M74. Is equipped.
  • the encoding device 71 can be realized by the face motion encoding device of the seventh embodiment shown in FIG. That is, the encoding device 71 is configured of a processing device CNT41 including the difference calculation unit 10 and the external force calculation unit 11 of FIG. 25, a storage device M42, a display device DPY, and an input device KEY. Therefore, the operation of the coding device 71 is the same as the operation of the face motion coding device of the seventh embodiment.
  • the transmission device 72 transfers external energy data S12 of the facial expression motion and its motion area S13 to the decoding device 73 and controls the data.
  • the motion area S13 is stored as an area indicating a part of a face, an area described by a position relative to a position or distance of a feature point such as both eyes or a tear point, and the like.
  • a storage format a method of projecting a face on a flat surface, a cylinder, a spherical surface, etc. and storing it in two-dimensional coordinates can be considered.
  • the operation area is also divided into small areas on two-dimensional coordinates. Small areas are numbered to create a set of control points.
  • the external force data S12 the external force three-dimensional vector that is applied to the control point of the small area, the number of the small area, and the position of the control point on the same two-dimensional coordinate as the operation area are stored. In addition, it is not necessary to send the whole area of the movement area or the small area, but only the outline thereof. As a transmission method, it may be simply transmitted as it is, or it is possible to perform lossless coding and then transmit and decode on the receiving side.
  • the external force data S12 and its operation area S13 are sent to the decoding device 73 as external force information S30 integrated.
  • the transmission device 72 As a function of the transmission device 72, there is processing at the time of creation of an asymmetric facial expression motion.
  • the encoding side creates a plurality of expression operations, and the transmission device 72 simultaneously sends them to the decoding device 73, and the decoding device 73 mixes the expression operations, and the expression operation is mixed. make It is. In this case, it is necessary to accumulate information of external force information S30 for a plurality of facial expressions.
  • Decoding device 73 can be realized by the face motion decoding device according to the eighth embodiment shown in FIG. That is, the decryption device 73 can be configured by the processing device CNT 51 including the external force decryption unit 30 and the facial expression creation unit 31 of FIG. 26, the storage device M 53, the display device DPY, and the input device KEY. Therefore, the operation of the decoding device 73 is the same as the operation of the face-motion decoding device of the eighth embodiment.
  • the face motion coding apparatus according to the seventh embodiment shown in FIG. 25 is used as the coding apparatus 71
  • the face motion coding apparatus according to the eighth embodiment shown in FIG. 26 is shown as the decoding apparatus 73.
  • Use the device using the facial motion encoding device of the fourth embodiment shown in FIG. 18 as the encoding device 71, facial motion using the facial motion decoding device of the fifth embodiment shown in FIG. 23 as the decoding device 73.
  • An embodiment of a coder / decision device is also conceivable.
  • FIG. 29 is a block diagram of a facial motion encoding / decoding apparatus according to an eleventh embodiment of the present invention, in which a certain person A from another set of three-dimensional data from an expressionless face and an expression movement is shown.
  • the expression movement is added to the expressionless face image of. That is, in the face motion code decoding apparatus according to the present embodiment, the expressionless face three-dimensional data S 300 which is an input of the decoding apparatus in the face motion code decoding apparatus according to the tenth embodiment shown in FIG.
  • the expression facial image S301 is substituted, and the output facial expression three-dimensional data S32 is substituted with the expression facial image S32.
  • the face-motion code decoding apparatus includes an encoding apparatus 81, a transmission apparatus 82, and a decoding apparatus 83.
  • the transmission apparatus 82 and the decoding apparatus 83 can communicate with each other through a communication path 84. It is connected.
  • storage device M 81 for storing expressionless face three-dimensional data S 100 of person A and expression action face three-dimensional data S 101 of person A as input data of decoding device 81, and generated by decoding device 81
  • Memory device M 82 for storing external force data S 12 of facial expression motion and motion region S 13 of facial expression motion, temporary storage of external force data S 30 for facial expression motion created by integrating external force data S 12 and motion region S 13 of facial expression motion by transmission device 82.
  • the coding device 81 and the transmission device 82 are the same as the coding device 71 and the transmission device 72 of the tenth embodiment shown in FIG. Therefore, the encoder 81 can be realized by the face motion encoder of the seventh embodiment shown in FIG.
  • the decoding device 83 can be realized by the face motion decoding device of the ninth embodiment shown in FIG. That is, the decoding device 83 is configured by the processing device CNT 61 including the face image three-dimensionalizing unit 32, the external force decoding unit 30, and the facial expression image forming unit 33 of FIG. 27, the storage device M63 M65, the display device DPY and the input device KEY. can do. Therefore, the operation of the decoding apparatus 83 is the same as the operation of the face motion decoding apparatus according to the ninth embodiment.
  • the facial motion encoding apparatus of the seventh embodiment shown in FIG. 25 is used as the encoding apparatus 81
  • the facial motion of the ninth embodiment shown in FIG. 27 is shown as the decoding apparatus 83.
  • a decryption device is used.
  • 18 is used as the coding apparatus 81
  • the face motion coding apparatus according to the fourth embodiment shown in FIG. 18 is used
  • the face motion decoding apparatus according to the sixth embodiment shown in FIG. 24 is used.
  • a face motion code decoding apparatus is also conceivable in which is used.
  • the tenth embodiment is provided with a decoding device 73 to which the expressionless face three-dimensional data S300 is input and the three-dimensional data S32 of the expression movement face is output, and the eleventh embodiment relates to the expressionless face
  • the decoding apparatus 83 is provided with a facial image S301 and a facial expression facial image S33.
  • a face motion code decoding device provided with a decoding device to which an expressionless face three-dimensional data S300 is input and a facial expression motion face image S33 is output, or an expressionless face image S301 is input.
  • a face motion encoding / decoding device comprising a decoding device from which three-dimensional data S32 of facial expression motion face is output is also conceivable.
  • the facial expression is given to the face by deforming the face image and the face three-dimensional data using computer graphics technology.
  • a flexible mask is attached to the head of the robot, and a facial expression is given to the face by deforming the shape of the mask.
  • Figure 30 shows an example of the configuration of the control device built into the robot's head.
  • reference numeral 1300 shows a cross section of a mask attached to the head of the robot.
  • Mask 1 The end portion 1303 of the movable piece 1302 of the three-dimensional actuator 1301 is fixed to the back surface of the 300 at each control point in each operation area, and the end portion 1303 is at the position at the time of expressionlessness in the initial state. Is set as.
  • Each three-dimensional actuator 1301 is connected to the control device 1304 by a signal line 1305, and the XYZ coordinate position of the end portion 1303 of the movable piece 1302 is changed according to a movement position signal given from the control device 1304 through the signal line 1305. It is changed. Since the end 1303 of the movable piece 1302 is fixed to the control point on the back surface of the temporary surface, when the position of the end 1303 moves, each control point of the temporary surface 1300 moves integrally with its peripheral portion, and the temporary surface A desired expression is expressed by deformation. In this case, since the area around each control point is dragged to move to each control point, smoothing of the boundary between adjacent small areas and smoothing of the boundary between the operating area and the non-operating area are particularly necessary. Nah,
  • the XYZ coordinate position after movement of each control point is stored in the storage unit 1306.
  • the calculation of the XYZ coordinate position of each control point stored in the storage unit 1306 is similar to the first embodiment, the fifth embodiment, the sixth embodiment, the eighth embodiment and the ninth embodiment described above. It will be. That is, the storage device 1306 is the storage device M5 of the first embodiment shown in FIG. 2, the storage device M25 of the fifth embodiment of FIG. 23, the storage device M35 of the sixth embodiment shown in FIG. This corresponds to the storage device M53 of the eighth embodiment shown in FIG. 26, and the storage device M65 of the ninth embodiment shown in FIG.
  • the control device 1304 can be realized by a computer and a program for control device.
  • the present invention is not limited to the above embodiments, and various additions and modifications can be made.
  • the present invention can be applied to any object with temporal change in form such as the face of a human face or a robot face as an object with change in form with time. It is.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

 形態変形符号化装置は、形態変化前の物体の形態を表わす変化前形態データと前記形態変化後の前記物体の形態を表わす変化後形態データとの間の差分データを計算する計算部と、前記変化前形態データと、前記差分データとに基づいて、前記物体の前記形態変化の生じた動作領域と、前記形態変化のために前記動作領域に加えられる外力とを決定する決定部とを具備する。前記動作領域は、複数の小領域を含み、前記複数の小領域の各々は複数の制御点を含み、前記外力は、前記複数の小領域の各々の物理モデル構造に基づいて、前記形態変化の前後で前記複数の小領域を独立に変化させるのに必要な外力として計算される。前記物理モデル構造として、制御点どうしがバネとダンパーで結合された物理モデル構造が用いられる。

Description

明 細 書
形態変形装置、物体動作符号化装置および物体動作復号化装置 技術分野
[0001] 本発明は、物体の形態を変形する形態変形装置、物体動作 (形態変形)符号化装 置および物体動作 (形態変形)複号化装置に関し、特に顔の一部の領域の形状を変 形させて表情を付与する形態変形装置、物体動作 (形態変形)符号化装置および物 体動作 (形態変形)複号化装置に関する。
背景技術
[0002] 近年、バーチャルリアリティ(VR)やコンピュータグラフィック(CG)の分野において、 表情を与えるために顔画像を変形する技術が利用されている。例えば、或る人物の 顔の表情の変化が検出され、それと同じ変化を同じ人物あるいは別の人物の顔画像 に施すことにより、特定の人物に同期してその人の表情が変えられる擬人化エージェ ントが実現されている。
[0003] このような顔表情合成の技術には、大きく分けて 2つの流れが存在する。 1つは、顔 の皮膚下にある表情筋に連動して動く皮膚表面が物理モデルとして取り扱われ、筋 肉 ·骨の動きに基づいて運動方程式を解くことによって皮膚表面にあたるワイヤーフ レームモデルを動かす方法である。この従来技術は、例えば、 D. Terzopoulosと K . Waters !■こよ o analysis and Synthesis of Facial Image Sequences Us ing Physical and Anatomical Models , (IEEE Trans. PAMI, vol. 15 , No. 6, pp. 569-579, June 1993) (こ述べられてレヽる。もう 1つ fま、ワイヤー フレームモデルに直接規則的な幾何学的変形を施して表情を作成する方法である。 この従来技術は、例えば、特開平 8—96162号公報に述べられている。
[0004] 他方、心理学者 Ekmanらによって提案された表情記述法である FACS (Facial A ction Coding System)が情報工学の分野においても表情の研究で広く利用され てレヽ O (f列えば、,, Facial Action coding system", (Consulting Psychologis t Press, 1977)。 FACSは、顔面筋肉の解剖学的知見に基づき、「眉の内側を上 げる」、「唇両端を横に引く」、「口を大きく開ける」、「細目にする」など合計 44の動作 単位 (AU:Action Unit)を要素として用いて、顔面動作を包括的かつ客観的に記 述する方法である。 AUの組み合わせで人間のあらゆる表情が記述可能だと言われ ている。この FACSは、ワイヤーフレームモデルに直接規則的な幾何学的変形を施 して表情を作成する方法と組み合わせて使用される例が一般的である。
[0005] 上述したように、顔表情合成の技術として従来より、幾何学的な変形を用いる方法 と物理モデルを用いる方法が知られている。幾何学的な変形を用いる方法では、表 情を表出させるための規則が点の移動によってのみ定義されるので、比較的少ない 計算量で高速な処理が可能であるという利点を有する。し力、しながら、顔モデルに個 人の特徴を反映させるのが難しぐまた自然な表情を実現できなレ、。これに対して、 物理モデルを用いる方法では、表情筋の動きを直接表現することが可能であるので
、表情の生成過程を滑らかに表現することができ、また表情筋の配置の変更により様 々な顔の造作に対応することができる。し力、しながら、計算量が膨大になってしまうと レ、う問題がある。
[0006] 上記と関連して、顔画像合成装置が特開平 3— 74777号公報に開示されている。こ の従来例によれば、人間の本能的動作若しくは無意識動作に基づく動きパラメータ 及び表情パラメータが、表情及び動きパラメータを含む顔画像情報に付加され、それ に基づレ、て顔画像が合成される。
[0007] また、表情コードの再生表示装置が特開平 6-76044に開示されている。この従来 例の装置は、表情発生条件を設定する表情発生条件入力装置を有している。演算 処理装置は、表情発生条件入力装置力 の指示信号に従い顔面における前額、眉 、口などの可動部分の移動量、移動方向、形態変化を計算し、表情の医学的解析に 基づく表情要素コードを再生する表情コード再生部を備えている。表情表示装置は 、演算処理装置で再生された表情要素コードに従い顔面の形態を再生表示するとと もに、前額、眉、 目、口などを移動、変形させる。
[0008] また、表情のコード化装置が特開平 6—76058に開示されている。この従来例の表 情のコード化装置では、画像入力装置は、顔面画像を電気信号として取り込み、符 号化して、所定の顔面画像データを生成する。特徴部位抽出処理部は、画像入力 装置からの所定の顔面画像データを受けて、特徴部位抽出条件に基づき特徴部位 画像を抽出する。表情要素抽出処理部は、その特徴部位画像力 所定の表情要素 と特徴部位の関連規則に基づいて表情要素を抽出して表情要素情報を生成する。 表情要素定量化処理部は、その表情要素情報から所定の表情要素定量化規則に 基づいて表情要素定量化処理して表情要素コードを算出する。更に、記憶部は、そ の表情要素コードを格納する。表情要素コード出力装置は、演算処理装置に保有さ れた表情要素コードを出力する。
[0009] また、顔画像作成装置が特開平 8—305878に開示されている。この従来例の顔画 像作成装置では、顔画像生成部は、顔の各部位を形成するパーツ画像を選定して 顔画像を生成する。表情付与部は、指定された表情に応じて顔画像を形成するパー ッ画像に対して画像変形、表示位置移動および表示 '非表示処理を施し、その顔画 像に表情変化を付与する。
[0010] また、表†青アニメーション生成装置力 S特開 2002—304638 (P2002—304638A) に開示されている。この従来例の表情アニメーション生成装置では、表情差分データ 抽出部は、対象人物の表情顔サンプルから特徴点を抽出し、特徴点に基づいて表 情顔サンプノレを複数のパーツに分割し、各パーツごとに指定された 2つの異なる表 情間の表情遷移変化に伴う形状およびテクスチャの差分を求め、差分形状データと 差分テクスチャを獲得する。動作パターン設定部は、各パーツごとの時間変化を規 定するための動作パターン関数を指定する。時系列表情画像合成部は、動作パター ン関数と差分形状データとに基づいて算出された任意時刻における中間差分形状 データと、動作パターン関数と差分テクスチャとに基づいて算出された任意時刻にお ける中間差分テキスチャとを所定の時間間隔で生成し、所定の時間間隔ごとの時系 列表情形状データおよび時系列表情テクスチャを生成する。表情アニメーション再生 部は、時系列表情形状データに基づく形状に時系列表情テクスチャをマッピングす ることで生成された所定の時間間隔ごとに時系列表情画像を連続表示することによ つて、表情アニメーションを生成する。
[0011] また、表情合成装置力特開 2002—329214 (P2002—329214A)に開示されてレヽ る。この従来例の表情合成方法は、コンピュータグラフィックスを用いる。その合成方 法は、顔の表情モデルを、顔の特徴点のデータとして入力する工程と、表情モデル の括約筋に囲まれた略楕円形の括約筋領域を抽出し、括約筋領域の長軸より上方 の領域を、長軸と半楕円形状とで囲まれた半楕円領域として規定する抽出工程と、 半楕円領域に含まれる特徴点を検索する工程と、顔の表情が変化した場合の、半楕 円領域に含まれる特徴点の移動べ外ルを計算する計算工程と、移動べ外ルに従つ て特徴点を移動させ、表情変化後の表情モデルを合成する工程とを含む。
発明の開示
[0012] 本発明の目的は、顔表情合成など形態の変化を実現する際の計算量を削減するこ とにある。
[0013] 本発明の観点では、形態変形符号化装置は、形態変化前の物体の形態を表わす 変化前形態データと前記形態変化後の前記物体の形態を表わす変化後形態デー タとの間の差分データを計算する計算部と、前記変化前形態データと、前記差分デ ータとに基づいて、前記物体の前記形態変化の生じた動作領域と、前記形態変化の ために前記動作領域にカ卩えられる外力とを決定する決定部とを具備する。
ここで、前記計算部は、 3次元モデルに基づいて前記変化前形態データと前記変 化後形態データを変化前形態モデルデータと変化後形態モデルデータに変換する 変換部と、前記変化前形態モデルデータと前記変化後形態モデルデータとの差から 前記差分データを計算する差分計算部とを具備する。前記モデルは、 3次元ポリゴン メッシュモデルであり、前記変化前形態データと前記変化後形態データは 3次元デ ータであってもよレ、。前記動作領域は、複数の小領域を含み、前記複数の小領域の 各々は複数の制御点を含み、前記外力は、前記複数の小領域の各々の物理モデル 構造に基づいて、前記形態変化の前後で前記複数の小領域を独立に変化させるの に必要な外力として計算される。この場合、前記物理モデル構造として、制御点どう しがパネとダンパーで結合された物理モデル構造が用いられてもよレ、。前記複数の 小領域の全てにおいて、前記制御点の個数および前記物理モデル構造が同じであ ることが望ましい。また、前記物体は人の顔を含み、前記形態変化前の物体の形態と は無表情な顔の状態を示し、前記形態変化後の物体の形態とは表情が表出された 顔の状態を示してもよい。
[0014] また、本発明の他の観点では、形態変形復号化装置は、形態変化前の物体の形 態を表わす変化前形態データと、形態変化に対応する動作領域に加えられる外力 の情報とに基づいて、前記動作領域内の制御点の移動位置を決定する復号部と、 前記変化前形態データと前記複数の制御点の各々の移動位置とから前記形態変化 後の前記物体の形態を表わす変化後形態データを生成する形態生成部とを具備す る。前記動作領域は、複数の小領域を含み、前記複数の小領域の各々は複数の制 御点を含み、前記複数の小領域の各々の前記制御点の移動位置は、前記複数の小 領域単位で物理モデルを用いて決定される。
ここで、前記変化前形態データは 3次元データであり、前記復号部は、前記形態変 化前の前記物体の形態の 3次元モデルと前記変化前形態データとに基づいて変化 前形態モデルデータを生成するモデルデータ生成部と、前記外力情報に基づレ、て 前記変化前形態モデルデータから前記動作領域内の制御点の各々の移動位置を 決定する移動量計算部とを具備してもよい。代わりに、前記変化前形態データは 3次 元データであり、前記復号部は、 3次元ポリゴンメッシュモデルと前記変化前形態デ ータとに基づいて変化前形態メッシュモデルデータを生成するモメッシュデルデータ 生成部と、前記外力情報に基づレ、て前記変化前形態メッシュモデルデータから前記 動作領域内の制御点の各々の移動位置を決定する移動量計算部とを具備してもよ レ、。
また、前記複数の小領域の各々において、前記小領域に含まれる制御点以外の非 制御点の移動位置をその非制御点の近傍の前記制御点の移動位置から計算する 動作内挿部を更に具備することが好ましい。前記形態生成部は、前記変化前形態デ ータと前記複数の制御点の各々の移動位置とから前記複数の小領域の単位で前記 形態変化後の前記物体の形態を生成する。このとき、前記形態変化後の前記複数 の小領域のうちの隣接するものの境界部分に生じる不連続箇所を平滑化する隣接 小領域調整部を更に具備してもよい。また、前記形態変化後の前記動作領域とその 周囲の未動作領域との境界部分に生じる不連続箇所を平滑化する未動作領域調整 部を更に具備してもよい。
ここで、前記複数の小領域の各々の物理モデルでは、前記制御点がパネとダンパ 一で結合されている。前記物体は人の顔を含み、前記形態変化前の形態は無表情 な顔を示し、前記形態変化後の形態は、表情が表出された顔を示してもよい。前記 変化後形態データに基づいて、可撓性を有する前記物体における前記動作領域を 駆動する三次元ァクチユエ一タ群を更に具備してもよレ、。
[0015] また、本発明の他の観点で、形態変形符号複号化装置は、上記のいずれかの形 態変形符号化装置と、請求項 8乃至 17の何れかに記載された形態変形複号化装置 と、前記形態変化符号化装で生成された前記動作領域と前記外力情報を通信路を 通じて前記形態変形複号化装置へ伝送する伝送装置とを具備する。
[0016] また、本発明の他の観点で、形態変形符号化方法は、形態変化前の物体の形態を 表わす変化前形態データと前記形態変化後の前記物体の形態を表わす変化後形 態データとの間の差分データを計算するステップと、前記変化前形態データと、前記 差分データとに基づいて、前記物体の前記形態変化の生じた動作領域と、前記形態 変化のために前記動作領域に加えられる外力とを決定するステップとにより達成され る。
[0017] ここで、前記計算ステップは、 3次元モデルに基づいて前記変化前形態データと前 記変化後形態データを変化前形態モデルデータと変化後形態モデルデータに変換 するステップと、前記変化前形態モデルデータと前記変化後形態モデルデータとの 差から前記差分データを計算するステップとにより達成されてもよい。前記モデルは 、 3次元ポリゴンメッシュモデルであり、前記変化前形態データと前記変化後形態デ ータは 3次元データであってもよい。前記動作領域は、複数の小領域を含み、前記 複数の小領域の各々は複数の制御点を含み、前記外力は、前記複数の小領域の各 々の物理モデル構造に基づいて、前記形態変化の前後で前記複数の小領域を独 立に変化させるのに必要な外力として計算されてもよい。前記物理モデル構造として 、制御点どうしがパネとダンパーで結合された物理モデル構造が用いられることが好 ましレ、。また、前記複数の小領域の全てにおいて、前記制御点の個数および前記物 理モデル構造が同じであることが更に好ましい。前記物体は人の顔を含み、前記形 態変化前の物体の形態とは無表情な顔の状態を示し、前記形態変化後の物体の形 態とは表情が表出された顔の状態を示す。
[0018] 本発明の他の観点では、形態変形復号化方法は、形態変化前の物体の形態を表 わす変化前形態データと、形態変化に対応する動作領域に加えられる外力の情報と に基づいて、前記動作領域内の制御点の移動位置を決定するステップと、前記変化 前形態データと前記複数の制御点の各々の移動位置とから前記形態変化後の前記 物体の形態を表わす変化後形態データを生成するステップとにより達成される。前記 動作領域は、複数の小領域を含み、前記複数の小領域の各々は複数の制御点を含 み、前記複数の小領域の各々の前記制御点の移動位置は、前記複数の小領域単 位で物理モデルを用いて決定される。
ここで、前記変化前形態データは 3次元データであり、前記移動位置を決定するス テツプは、前記形態変化前の前記物体の形態の 3次元モデルと前記変化前形態デ ータとに基づいて変化前形態モデルデータを生成するステップと、前記外力情報に 基づいて前記変化前形態モデルデータから前記動作領域内の制御点の各々の移 動位置を決定するステップとにより達成される。代わりに、前記変化前形態データは 3 次元データであり、前記移動位置を決定するステップは、 3次元ポリゴンメッシュモデ ルと前記変化前形態データとに基づいて変化前形態メッシュモデルデータを生成す るステップと、前記外力情報に基づレ、て前記変化前形態メッシュモデルデータから前 記動作領域内の制御点の各々の移動位置を決定するステップとにより達成されても よい。
前記複数の小領域の各々におレ、て、前記小領域に含まれる制御点以外の非制御 点の移動位置をその非制御点の近傍の前記制御点の移動位置から計算するステツ プを更に具備してもよい。このとき、前記変化後形態データを生成するステップは、前 記変化前形態データと前記複数の制御点の各々の移動位置とから前記複数の小領 域の単位で前記形態変化後の前記物体の形態を生成する。また、前記形態変化後 の前記複数の小領域のうちの隣接するものの境界部分に生じる不連続箇所を平滑 化するステップを更に具備しても良いし、前記形態変化後の前記動作領域とその周 囲の未動作領域との境界部分に生じる不連続箇所を平滑化するステップを更に具 備してもよい。
前記複数の小領域の各々の物理モデルでは、前記制御点がパネとダンパーで結 合されていることが好ましぐ前記物体は人の顔を含み、前記形態変化前の形態は 無表情な顔を示し、前記形態変化後の形態は、表情が表出された顔を示してもよい 。あるいは、前記物体はロボットであり、前記変化後形態データに基づいて、可撓性 を有する前記物体における前記動作領域を駆動するステップを更に具備してもよい
[0019] 本発明の他の観点では、形態変化符号復号化方法は、上記のいずれかの形態変 形符号化方法により前記動作領域の情報と、前記外力の情報を生成するステップと 、前記動作領域の情報と前記外力情報を通信路を通じて伝送するステップと、上記 のいずれかの形態変形複号化方法により、前記伝送された動作領域の情報と、前記 伝送された外力の情報から前記物体の形態を表わす変化後形態データを生成する ステップにより達成される。
[0020] 更に、本発明の他の観点では、本発明は、上記のいずれかの形態変形符号化方 法あるいは上記のいずれかの形態変形復号化方法を実現するための計算機読み取 り可能なソフトウェアプロダクトに関する。
[0021] 本発明によれば、顔表情合成などを物理モデルを用いて実現する際の計算量を削 減すること力できる。パネモデルなどの物理モデルを用いて顔表情合成する従来の 手法では、表情筋が配置されている領域全体を 1つの領域として、その領域内に含 まれる各点の移動位置を外力に基づいて計算するために計算量が膨大になるが、 本発明ではより細かな小領域単位で独立に各制御点の移動位置を計算してレ、る。ま た、外力に応じた移動位置を求める対象を、小領域に属する点の一部である制御点 に限定し、残りの点である非制御点はその非制御点の近傍の制御点の移動位置か ら内挿等によって求めている。
[0022] また、動作領域を複数の小領域に分割し小領域単位に独立して移動位置を計算さ れた場合に生じ易い小領域どうしの境界部分の段差などを目立たなくでき、動作領 域とその周囲の未動作領域との境界部分に生じる段差などを目立たなくできる。また 、小領域の物理モデル構造として、制御点どうしがパネとダンパーで結合された物理 モデル構造を用いられるため、表情筋の動作に近い動作を再現することができる。こ のとき、全ての小領域の制御点の個数および物理モデル構造を等しくしたため、制 御点の移動位置を計算する際のパラメータ数を少なくでき、また計算量をより一層削 減すること力できる。物体モデルが人の顔モデルを含み、経時的な形態の変化が人 の顔の表情の変化を含むとき、人の顔の表情の合成などが可能になる。
[0023] また、本発明によれば、物体の形態変化前後で相違する領域である動作領域とそ の動作領域に含まれる各制御点に加える外力とを少ない計算量で求めることができ る。パネモデルなどの物理モデルを用いて顔表情合成する従来の手法では、表情筋 が配置されている領域全体を 1つの領域として、その領域内に含まれる全ての点の 移動量力 外力を計算するために計算量が膨大になるが、本発明ではより細力、な小 領域単位で独立に各制御点の移動量力 外力を計算している。小領域の物理モデ ル構造として、制御点どうしがパネとダンパーで結合された物理モデル構造を用いら れるため、表情筋の動作に近い動作を再現するための外力を計算することができる。 全ての小領域の制御点の個数および物理モデル構造を等しくしたため、外力計算に 必要な計算量をより一層削減でき、また必要なパラメータ数も少なくできる。物体が人 の顔を含み、形態変化前が無表情な状態、状態変化後が表情が表出された状態で あるとき、人の顔を無表情から或る表情の顔にするために必要な外力を計算すること ができる。
[0024] また、物体の三次元データを外力情報に基づレ、て変形 (変換)した三次元データを 少なレ、計算量で生成できる。パネモデルなどの物理モデルを用いて顔表情合成する 従来の手法では、表情筋が配置されている領域全体を 1つの領域として、その領域 内に含まれる各点の移動位置を外力に基づいて計算するために計算量が膨大にな るが、本発明ではより細力な小領域単位で独立に各制御点の移動位置を計算してレ、 る。物体の画像を外力情報に基づいて変形した画像を少ない計算量で生成できる。 パネモデルなどの物理モデルを用レ、て顔表情合成する従来の手法では、表情筋が 配置されている領域全体を 1つの領域として、その領域内に含まれる各点の移動位 置を外力に基づいて計算するために計算量が膨大になるが、本発明ではより細かな 小領域単位で独立に各制御点の移動位置を計算している。例えば「口を大きく開け る」ための外力情報と「上瞼を上げる」ための外力情報といった複数の外力情報に基 づいて形態変化前の三次元データや画像に対応する形態変化後の各制御点の移 動量を計算することができる。動作領域を複数の小領域に分割し小領域単位に独立 して移動位置を計算された場合に生じ易い小領域どうしの境界部分の段差などを目 立たなくでき、動作領域とその周囲の未動作領域との境界部分に生じる段差などを 目立たなくできる。小領域の物理モデル構造として、制御点どうしがパネとダンパー で結合された物理モデル構造を用いられるため、表情筋の動作に近い動作を再現 することができ、物体が人の顔を含み、形態変化前が無表情な状態、状態変化後が 或る表情が表出された状態であるため、人の無表情顔に或る表情を与えることができ る。
[0025] 本発明によれば、或る人物の顔の表情の変化を検出し、それと同じ変化を同じ人 物あるいは別の人物の顔画像などに施すことにより、特定の人物に同期して表情を 変える擬人化エージェントを少ない計算量で実現できる。パネモデルなどの物理モ デルを用いて顔表情合成する従来の手法では、表情筋が配置されている領域全体 を 1つの領域として、その領域内に含まれる各点の移動位置から外力を計算するた めに計算量が膨大になるが、本発明ではより細力な小領域単位で独立に各制御点 の移動位置から外力を計算している。また、バネモデルなどの物理モデルを用いて 顔表情合成する従来の手法では、表情筋が配置されている領域全体を 1つの領域と して、その領域内に含まれる各点の移動位置を外力に基づレ、て計算するために計 算量が膨大になるが、本発明ではより細力な小領域単位で独立に各制御点の移動 位置を計算している。ロボットの頭部に装着した仮面などの物体に表情を表出させる ための計算量を削減できる。パネモデルなどの物理モデルを用いて顔表情合成する 従来の手法では、表情筋が配置されている領域全体を 1つの領域として、その領域 内に含まれる各点の移動位置を外力に基づいて計算するために計算量が膨大にな るが、本発明ではより細力、な小領域単位で独立に各制御点の移動位置を計算してい る。
図面の簡単な説明
[0026] [図 1]図 1は、本発明の原理説明図である。
[図 2]図 2は、本発明の第 1実施例にかかる形態変形装置の構成を示すブロック図で ある。
[図 3]図 3は、本発明の第 1実施例にかかる形態変形装置における動作領域指定部 の処理例を示すフローチャートである。
[図 4]図 4は、本発明の第 1実施例にかかる形態変形装置における動作領域分割部 の処理例を示すフローチャートである。
園 5]図 5は、本発明の第 1実施例にかかる形態変形装置における制御点データの 構成例を示す図である。
園 6]図 6は、本発明の第 1実施例にかかる形態変形装置における制御点動作部の 処理例を示すフローチャートである。
園 7A]図 7Aは、本発明の第 1実施例に力、かる形態変形装置における動作内揷部の 動作説明図である。
[図 7B]図 7Bは、本発明の第 1実施例にかかる形態変形装置における動作内揷部の 動作説明図である。
園 8]図 8は、本発明の第 1実施例にかかる形態変形装置における動作内揷部の処 理例を示すフローチャートである。
園 9]図 9は、本発明の第 2の実施例にかかる形態変形装置のブロック図である。 園 10A]図 10Aは j、領域の境界部分に段差などの不連続箇所が発生する様子を 示す図である。
園 10B]図 10Bは、小領域の境界部分に段差などの不連続箇所が発生する様子を 示す図である。
園 10C]図 10Cは、小領域の境界部分に段差などの不連続箇所が発生する様子を 示す図である。
[図 11]図 11は、本発明の第 2の実施例に力かる形態変形装置における隣接小領域 調整部の処理例を示すフローチャートである。
園 12]図 12は、本発明の第 2の実施例に力、かる形態変形装置における隣接小領域 調整部で行われる平滑化処理のフローチャートである。
園 13]図 13は、本発明の第 2の実施例に力、かる形態変形装置における隣接小領域 調整部の動作説明図である。
[図 14]図 14は、本発明の第 3の実施例に力、かる形態変形装置のブロック図である。 園 15A]図 15Aは、動作領域と未動作領域との境界部分に段差などの不連続箇所が 発生する様子を示す図である。
[図 15B]図 15Bは、動作領域と未動作領域との境界部分に段差などの不連続箇所が 発生する様子を示す図である。
[図 16]図 16は、本発明の第 3の実施例に力、かる形態変形装置における未動作領域 調整部で行われる平滑化処理のフローチャートである。
園 17]図 17は、本発明の第 3の実施例に力、かる形態変形装置における未動作領域 調整部の動作説明図である。
[図 18]図 18は、本発明の第 4の実施例に力、かる顔動作 (形態変形)符号化装置のブ ロック図である。
園 19]図 19は、本発明の第 4の実施例にかかる顔動作 (形態変形)符号化装置で用 いられる顔三角ポリゴンメッシュモデルの一例を示す図である。
[図 20]図 20は、本発明の第 4の実施例に力、かる顔動作 (形態変形)符号化装置にお ける三次元差分計算部の動作説明図である。
園 21]図 21は、本発明の第 4の実施例に力かる顔動作 (形態変形)符号化装置にお ける三次元差分計算部が生成する三次元差分データの内容例を示す図である。
[図 22A]図 22Aは、本発明の第 4の実施例にかかる顔動作 (形態変形)符号化装置 における外力計算部の動作説明図である。
[図 22B]図 22Bは、本発明の第 4の実施例にかかる顔動作 (形態変形)符号化装置 における外力計算部の動作説明図である。
園 23]図 23は、本発明の第 5の実施例に力かる顔動作 (形態変形)復号化装置のブ ロック図である。
[図 24]図 24は、本発明の第 6の実施例に力、かる顔動作 (形態変形)複号化装置のブ ロック図である。
園 25]図 25は、本発明の第 7の実施例に力、かる顔動作 (形態変形)符号化装置のブ ロック図である。
園 26]図 26は、本発明の第 8の実施例に力、かる顔動作 (形態変形)複号化装置のブ ロック図である。
園 27]図 27は、本発明の第 9の実施例に力、かる顔動作 (形態変形)複号化装置のブ ロック図である。
[図 28]図 28は、本発明の第 10の実施例にかかる顔動作 (形態変形)符号復号化装 置のブロック図である。
[図 29]図 29は、本発明の第 11の実施例にかかる顔動作 (形態変形)符号複号化装 置のブロック図である。
[図 30]図 30は、本発明の第 12の実施例にかかる形態変形復号化装置を用いるロボ ット制御装置のブロック図である。
発明を実施するための最良の形態
[0027] 先ず、本発明の基本原理について図面を参照して詳細に説明する。図 1を参照し て、本発明で用いられる顔モデルの一例では、顔全体の領域 1000上に少なくとも 1 つの動作領域 1001が設定される。動作領域 1001は、変形の対象領域であり、表出 されるべき表情に対応して定められる。例えば、 FACSにおける動作単位 (AU :Acti on unit)毎に、その動作単位を生じさせる表情筋がついている部分が 1つの動作領 域として定められる。無表情顔と或る表情動作顔とが比較されるときに相違する領域 が動作領域として定められてもよい。
[0028] 本発明では、このような動作領域 1001が、複数の小領域 1002に分割され、個々 の小領域 1002単位で外力に応じた移動量が計算される。 1つの小領域 1002に属 する点(画素)は、黒丸で示される複数(3以上)の制御点 1003と、制御点以外の白 丸で示される非制御点 1004とに分けられ、制御点 1003どうしはバネ 1005とダンパ 一 1006でつながっている。また、外力は、図 1で矢印 1007により示されるように、制 御点 1003にのみ与えられる。個々の小領域 1002における計算では、その小領域 1 002に属する各制御点 1003の移動量力 その制御点 1003に加わる外力、バネ 10 05およびダンパー 1006の定数に基づいて計算され、制御点 1003以外の非制御点 1004の移動量は、その非制御点 1004の近傍にある複数の制御点 1003の移動量 力ら内挿などによって計算される。これにより、個々の小領域 1002全体が、内部の制 御点 1003に働く外力によって一体となって移動し、全ての小領域 1002が同様に移 動する。この結果、動作領域 1001が変形し、所望の表情の表出が可能となる。
[0029] このように、動作領域 1001がバネモデルとして相互作用しながら一体になつて動く 小領域 1002に分害され、各小領域 1002中で相互がバネ 1005とダンパー 1006で 接続された複数の制御点 1003にのみ外力 1007が働き、小領域 1002全体がその 外力 1007が働く制御点 1003に引きずられて動作するというモデルを用いて動作単 位の動作が再現される。このモデルでの動作単位の動作は、動作領域 1001単位で なく小領域 1002単位でのパネモデル計算により表現されるので、パラメータ設定が 簡単になり、計算量が削減される。また、直接移動量を扱うのではなく外力計算を行 うので、表情の表出時の個人性と表情動作の普遍性が分離できるなどの利点がある
[0030] 次に、 1つの小領域 1002内の制御点 1003の移動位置を計算する具体的な方法 について説明する。一例として、バネ 1005とダンパー 1006の定数がすべて等しい 場合の移動位置の計算方法を説明する。このケースは、下記のように定式化すること ができる。即ち、 1つの小領域内に n(> =3)個の制御点が存在し、 i番目の制御点 の質量を M、そこに働く外力を f、潘目と j番目の制御点をつなぐパネ、ダンパーの定
i i
数をそれぞれ K、 Dとする。このとき、 i番目の制御点の位置 Xは、パネの基準位置を 1とすると、下記式(1)で表される。
[数 1]
M, ¾ = - α ( — )-∑K Kxt ~XJ )+^ ( 1 ) ただし、
[数 2] = ; +∑ { - ) とする。
[0031] ここで、
[数 3] x = \x1,xl,---,xn,xn ) , U = (F„ ---,FN ) と置き換えると、式(1)は、 x = Ax + Bu (2) dt
で表される線形制御システムの標準的な式に書き直すことができる。ただし、 A,Bは それぞれ以下のように表される 2nx2n、 2nxnの行列である。
[数 5]
Figure imgf000017_0001
=K /Μ 、 d =D /M、
[数 6]
0 0
m, 0
B = (4)
0 0
0 但し、 m = l/ M.
上記の式(3)の解析解は、下記の式(5)で表される c
[数 7] x(t) = eA x(0) + j eA(t~T) Bu (て) dt (5) eM =l + At + --- + - - O (6) 式(5)の解は、 Α,Βによっては存在しないこともあり、存在しても t無限大で発散する こと力 Sある。し力、しながら、本発明のモデルでは、 uが一定で、質量 M、バネ係数 K, ダンパー定数 Dが一定の場合、つまり m、 k、 dが一定値 m, k, dの場合、質点数 n の時の指数関数形式行列 eAtは、 P(t)、 Q(t)は 2x2の行列であり、各要素はそれぞ れ以下のとおりである。
[数 9]
1 1 , つ (n-l)d . , つ
= - + e — cosh AJ + sinh Aj
21
[数 10]
P12(t) = - + e sinh A t
Figure imgf000018_0001
nd
P22(t) = - + e - cosh ληΐ - sinh λ}
[数 13]
Qu(t) =—e ― cosh λΛ Λ sinh λ„
η 21
[数 14] Qlif) = --e - sinh
[数 15]
Figure imgf000019_0001
[数 16]
&( =— _ e ― cosh Aj sinh λ„ t
n 22 ノ
Figure imgf000019_0002
λη― J nk とする。このとき、式(6)の行列は、
[数 18]
Figure imgf000019_0003
で表すことが可能である。
システムの固有値一 ndZ 2+ λη、一 nd/2—ληの実数部は、必ず負であるので、 t が無限大になったとき発散することはない。したがって、 tとパラメータ m, k, dが与え られ、 uが一定であれば式(5)は、 x(t)と x(0)、 uの一次式になる。ただし、 m, nは常 に両者の積の形で現れ、分離できないので、これを一つの定数 (uに統合する)として も差し支えない。こうすることによって、 tが与えられた場合、ノ メータは k, dのみに なる。 [0035] パラメータお dの与え方は自由であるが、 ληの根号内の値が正、 0、負のいずれで あるかによって、それぞれ過減衰、臨界減衰、減衰振動という挙動を行う。この 3種の 挙動(詳細に関しては、 V. D.バージャ一, M. G.オルソン著,戸田, 田上訳, "力学 新しい視点にたって",培風館, 1975)は、いずれも t無限大に向かって減衰するが 、減衰振動のみは周期的に増減を繰り返しながら減衰し、臨界振動は過減衰よりも 早く収束する。以下では、周期的な増減のない速い動きをする臨界減衰の場合の実 施例を述べる。
[0036] パラメータ t, k, dと式(2)の境界条件にあたる初速 0の条件
[数 19]
X, (0) = 0 が与えられると、式(5)は、
[数 20] , (i) = Pn (Ox, (0) + βη (ί)^ Xj (0) + jQ (P12 (t-r)^ +Qu{t-t)yFJ)dr ( 8 ) j ;≠i により、外力 Fの一次式になり、移動位置 X (t)は式 (8)から容易に計算できる。なお
i i
、時刻 tでの速度は、
[数 21] , (ί) = Ρ21 (ί)χ, (0) + Q21 (ί)2 Xj (0) + (P21 (t - T)F, +Q11(t-T)∑FJ)dT ( g ) j で表され、
[数 22]
[数 23]
[数 24] ¾( 力 ¾になるときの tで、収束する。
[0037] 本発明では、図 1に示されるように、動作領域 1001が複数の小領域 1002に分割さ れ、個々の小領域 1002単位で外力 1007に応じた各制御点 1003の移動量が計算 される。従って、本発明では、各制御点 1003の移動量から外力 1007が計算される 場合にも、個々の小領域 1002単位で各制御点 1003の移動量から外力 1007が計 算される。この外力の計算にも前記式 (8)が用レ、られることができる。
[0038] 以上では、小領域 1002の制御点 1003どうしがバネ 1005とダンパー 1006により つながった構造の物理モデルが用いられた。し力 ながら、より簡単な構造として、外 力に単純比例する物理モデル、何れか 1つの制御点あるいは小領域の重心などの 特定点からの距離の二乗に反比例する重力モデルや電磁力モデルなどの他の種類 の物理モデルを用いることも可能である。その場合には、それぞれに対応した方程式 を解くことで、小領域 1002内の制御点 1003の移動量が計算されることができる。
[0039] 図 2は、本発明の第 1実施例による形態変形装置の構成を示すブロック図である。
形態変形装置は、人の無表情顔画像を表情動作顔画像に変形する。本実施例の形 態変形装置は、処理装置 CNT1と記憶装置 Ml— M6と表示装置 DPYと入力装置 KEYとを含んで構成されている。複数の記憶装置 Ml— M6は、例えば磁気ディスク で構成され、そのうち、記憶装置 Mlは、人の無表情顔にかかる入力データ S1を記 憶する。記憶装置 M6は、人の表情動作顔に力、かる出力データ S6を記憶する。残り の記憶装置 M2 M5は、中間結果や処理の過程で必要となる制御データを記憶す る。表示装置 DPYは、例えば液晶ディスプレイであり、出力データ S6として得られた 表情動作顔画像を表示し、処理過程のデータを表示するために使用される。入力装 置 KEYは、例えばキーボードとマウスで構成され、利用者から各種のデータや指示 を受け付けるために利用される。制御装置 CNT1は、例えばコンピュータの中央処 理装置で構成され、本実施例の形態変形装置の主たる処理を実行する。制御装置 CNT1は、動作領域指定部 1、動作領域分割部 2、制御点動作部 3および動作内挿 部 4を有する。 [0040] 制御装置 CNT1の各機能部 1一 4は、制御装置 CNT1を構成するコンピュータと形 態変形装置用プログラムとで実現することができる。形態変形装置用プログラムは、 磁気ディスク等のコンピュータ可読記録媒体 PM1に記録されており、コンピュータの 立ち上げ時などにそのコンピュータに読み取られ、そのコンピュータの動作を制御す ることにより、そのコンピュータ上に各機能部 1一 4を実現する。
[0041] 次に本発明の本実施例による形態変形装置の動作を説明する。制御装置 CNT1 は、記憶装置 Mlに記憶された入力データ S 1を入力して処理し、最終的に出力デー タ S6を記憶装置 M6に出力すると共に、出力データ S6を表示するように表示装置 D PYを制御する。その過程において、制御装置 CNTは、記憶装置 M3に記憶された 制御点データ S3をロードして利用し、記憶装置 M2、 M4および M5に、動作領域指 定済データ S2、小領域分割済データ S4および初期 3D座標調整済制御点データ S 3 '、終端 3D座標設定済制御点データ S3"を適宜保存する。以下、詳細に説明する
[0042] 先ず制御装置 CNT1の動作領域指定部 1について説明する。動作領域指定部 1 は、記憶装置 Mlから入力データ S 1を入力し、この入力データ S 1の所望の領域が 動作領域としてユーザにより指定される。ここで、動作領域として指定されるべき所望 の領域は、表出されるべき表情に対応して予め定められている。本実施例の場合、 F ACSにおける動作単位毎に、その動作単位を生じさせる表情筋がついている部分 が動作領域として指定される。例えば、 FACSの No. 27の動作単位は、「口を大きく 開ける」という内容を持つが、その動作単位の動作を行わせる場合には、口を含む領 域が動作領域として指定される。このとき、後の制御点データ S3の検索のために、そ の動作単位の番号 (No. )が入力装置 KEYからユーザにより入力され、制御装置 C NT1内部に保存されている。
[0043] 動作領域指定部 1によって指定された動作領域に関する情報は、入力データ S 1の 画像や三次元データに付加され、動作領域指定済みデータ S2として記憶装置 M2 に保存される。例えば、入力画像が RGBのカラー画像である場合は、動作領域指定 済みデータ S2は、各画像に 1ビットのひを追加した RGB aとして保存され、 aの値と して、動作領域を 1、それ以外を 0にするという方法が考えられる。同様に、三次元デ ータの場合は、(x、 y、 ζ、 α )の形式で保存される。指定の方法は、例えば GUIを用 いるツールで画像や三次元データが表示され、そこでマウスやタブレットにより動作 領域を指定する方法が考えられる。
[0044] 動作領域指定部 1の具体例を図 3を参照して説明する。先ず、動作領域指定部 1は 、或る人物の顔の無表情画像を入力データ S1として記憶装置 Mlからロードし、表示 装置 DPYの画面に表示する(ステップ F101)。次に、動作領域指定部 1は、 FACS の動作単位番号をユーザから受け付ける(ステップ F102)。動作領域指定部 1は、 F ACSの各動作単位番号毎に、その動作単位を生じさせる表情筋がついている顔領 域を示す典型的な動作領域の一覧を保有しており、ユーザから入力された動作単位 番号に対応する動作領域を一覧から取得して表示装置 DPYに表示する(ステップ F 103)。図 3では破線で動作領域が表示されている。次に動作領域指定部 1は、ユー ザによるマウスのドラッグ操作などに従って動作領域の表示場所を移動させ、且つ動 作領域のサイズや形を調整する(ステップ F104)。図では、 FACSの No. 27の動作 単位を想定しており、 口を含む適当な範囲に動作領域が調整されている。次に、動 作領域指定部 1は、指定された動作領域に関する情報を前述した方法で入力データ S1に付加して動作領域指定済データ S2を生成し、記憶装置 M2に保存する (ステツ プ F105)。
[0045] 次に動作領域分割部 2について説明する。動作領域分割部 2は、記憶装置 M2か ら動作領域指定済データ S2を入力し、記憶装置 M3から入力した制御点データ S3 に基づいて、動作領域指定済データ S2中の動作領域を複数の小領域に分割した小 領域分割済データ S4を生成し、制御点データ S3の情報 (初期 3D座標調整済制御 データ S3 ' )と共に記憶装置 M4に保存する。この小領域分割済データ S4および初 期 3D座標調整済制御データ S3'が、図 1を参照して説明された顔モデルに相当す る。以下、動作領域分割部 2の処理の詳細を図 4を参照して説明する。
[0046] 先ず、動作領域分割部 2は、記憶装置 M2から動作領域指定済データ S2をロード し、その動作領域の全体が表示されるように必要に応じて拡大して表示装置 DPYに 表示する (ステップ Fi l l)。次に、動作領域分割部 2は、動作領域指定済データ S2 で指定される動作領域に対応する制御点データ S3を記憶装置 M3からロードし、表 示装置 DPYに表示する(ステップ F112)。例えば、動作領域指定済データ S2で指 定されてレ、る動作領域が FACSの No. 27の動作単位(口を大きく開ける)であった 場合、 No. 27の動作単位に対応する制御点データをロードして表示する。或る動作 単位に対応する制御点データ S3は、その動作単位を生じさせる表情筋の端や内部 に均等に配置した多数の制御点についての情報を含んでいる。
[0047] 図 5は、 1つの制御点データの構成例を示す。この例では、制御点データは、この 制御点データに割り当てられた識別子である制御点番号 (m) 2001と、この制御点 データの初期の三次元座標である初期 3D座標(XO, Y0, Z0) 2002と、この制御点 データに割り当てられたタグ番号 2003と、この制御点データに与えられる外力(fx, f y, fz)と、この制御点データの移動後の三次元座標である終端 3D座標 (Xt, Yt, Zt ) 2005と、この制御点データとつながる他の制御点データとの接続情報 2006とを含 んでいる。ここで、同じ小領域に属する制御点データには同じタグ番号 2003が設定 されている。また、初期 3D座標 2002には、標準顔における制御点の標準位置が初 期設定されており、制御点の当初の表示はこの初期 3D座標に基づいて行われる。 終端 3D座標 2005はロード時点では NULL値であり、後の移動量の計算時に値が 設定される。接続情報 2006には、接続先の制御点データの制御点番号と、接続先 の制御点データとの間に介在するパネおよびダンパーの定数などが設定されている 。なお、全ての制御点どうしが同じ定数のパネおよびダンパーでつながる場合、全て の制御点データの接続情報 2006にそれらの情報を設定する必要はなぐどこか 1箇 所に設定されてレ、ればよレ、。
[0048] 次に動作領域分割部 2は、ユーザによるマウスのドラッグ操作などに従って各制御 点の位置を所望の場所に移動し、且つ微調整する(ステップ F113)。この調整にあ わせて、制御点データの初期 3D座標 2002が、無表情顔画像における画素のうち、 その制御点データに最も近い画素の三次元座標に更新される。例えば、初期 3D座 標 2002として(Xa, Ya, Za)を持つ或る制御点が三次元座標(Xb, Yb, Zb)に移動 されたとき、その座標 (Xb, Yb, Zb)に最も近い無表情顔画像における画素の三次 元座標が(Xc, Yc, Zc)とすると、その制御点の初期 3D座標 2002が(Xc, Yc, Zc) に更新される。こうして、制御点の位置が無表情顔画像の画素にマッピングされる。 [0049] 次に動作領域分割部 2は、動作領域を制御点でボロノィ分割し、ボロノィ分割により 定められた領域にその制御点のタグ番号 2003を割り当てる。同じタグ番号 2003が 割り当てられた隣接ボロノィ領域を一つの小領域にまとめることで、動作領域が複数 の小領域に分割される (ステップ F114)。各小領域にはそれを構成するボロノィ領域 に割り当てられたタグ番号と同じタグ番号が割り当てられる。従って、小領域はタグ番 号の数だけ生成される。次に、動作領域指定済データ S2における分割領域内の各 画素に、その画素が含まれる小領域のタグ番号を付けた画像を小領域分割済デー タ S4として生成し、初期 3D座標調整済の制御点データ S3 'と共に記憶装置 M4に 保存する(ステップ F115)。小領域と小領域の境界上の画素は、それら複数の小領 域に属するものとして扱われる。小領域分割済データ S4として、各タグ番号毎に、そ のタグ番号の小領域に含まれる画素の情報を記録したデータを用いられることもでき る。
[0050] 次に、制御点動作部 3の動作を説明する。制御点動作部 3は、記憶装置 M4から初 期 3D座標調整済の制御点データ S3 'を入力し、各小領域毎に、その小領域に含ま れる全ての制御点の移動位置を計算する。計算方法は、その制御点を含む小領域 力 Sどのような物理モデルで表現されているかによつて決まる。図 1を参照して説明され たように小領域中の制御点がバネゃダンパーでつながった物理モデルであれば、既 に詳細に説明されたように初期位置と初速度の境界条件を与えて二階の常微分方 程式を解くことで移動位置を計算することができる。より簡単な構造としては、外力に 単純比例するモデル、制御点の一点や重心などの特定点からの距離の二乗に反比 例する重力、電磁力モデルなども、それぞれに対応した方程式を解くことで解析的に 計算できる。制御点動作部 3の具体的な動作例を図 6を参照して説明する。
[0051] 先ず、制御点動作部 3は、記憶装置 M4から初期 3D座標調整済の制御点データ S 3'を入力する(ステップ F121)。次に、 1つの小領域、つまり 1つのタグ番号に注目す る(ステップ F122)。次に、注目されている小領域に属する全ての制御点の移動位置 が計算され、その制御点の終端 3D座標 2005に設定される (ステップ F123)。注目さ れている小領域に属する全ての制御点とは、その小領域のタグ番号と同じタグ番号 2 003を持つ制御点である。図 1を参照して説明されたように小領域中の制御点がパネ やダンパーでつながった構造の場合、所定のパラメータを式(7)に代入することによ り、各制御点データの初期 3D座標 2002と外力 2004から終端 3D座標が計算される こと力 Sできる。ここで、所定のパラメータは、式(7)の場合、前述の t, k, dに相当する 。これらは、制御点データ S3に付加されておいて記憶装置 M3からロードされても良 いし、制御点動作部 3に予め埋め込まれていてもよい。
[0052] 制御点動作部 3は、 1つの小領域に属する全ての制御点の移動位置が計算され、 それらの制御点データの終端 3D座標 2005に設定されると、次の 1つの小領域に注 目を移し (ステップ F124)、ステップ F123に戻って前述と同様の処理を繰り返す。こ の処理を全ての小領域に対する処理が完了するまで繰り返した後(ステップ F125で YES)、終端 3D座標 2005が設定された制御点データ S3"は記憶装置 M5に保存さ れる(ステップ F126)。
[0053] 次に動作内揷部 4の動作を説明する。動作内揷部 4は、記憶装置 M4から小領域 分割済データ S4を入力すると共に記憶装置 M5から終端 3D座標設定済制御点デ ータ S3"を入力し、その小領域内の制御点の移動位置から、各小領域における制御 点以外の画素の移動位置を図 7Aと図 7Bに示されるような線形内挿や外挿によって 計算し、表情動作顔の画像もしくは三次元データを生成し、出力データ S6として記 憶装置 M6に保存する。スプラインなどの高次の内挿、外挿を用いて計算が行われ ても良い。記憶装置 M6に保存された出力データ S6は、 自動的あるいは入力装置 K EYからの指示に応じて表示装置 DPYに表示される。
[0054] 動作内挿部 4の具体的な動作を図 8を参照して説明する。先ず動作内挿部 4は、記 憶装置 M4および記憶装置 M5から小領域分割済データ S4および終端 3D座標設 定済制御点データ S3"を入力する (ステップ F131)。次に、小領域分割済データ S4 における動作領域内の 1つ小領域が注目され (ステップ F132)、その小領域内の 1 つの画素が注目される(ステップ F133)。その画素が属する注目中小領域内の制御 点のうち、その画素の三次元座標に最も近い初期 3D座標を持つ 3つの制御点デー タが終端 3D座標設定済制御点データ S3"から検索される(ステップ F134)。次に、 検索された 3つの制御点データの何れか 1つの初期 3D座標が注目されている画素 の三次元座標と一致しているかどうかが判定される(ステップ F135)。一致していれ ば、注目されている画素は制御点であるので、一致する制御点データの終端 3D座 標が注目小領域における注目画素の終端 3D座標として保存される(ステップ F136) 。他方、一致していなければ、注目されている画素は非制御点であるので、 3つの制 御点データの終端 3D座標から注目画素の移動位置が図 7Aと図 7Bに示されるよう な方法によって計算され (ステップ F137)、計算された移動位置が注目小領域にお ける注目された画素の終端 3D座標として保存される (ステップ F138)。
[0055] 動作内揷部 4は、注目小領域内の 1つの画素についての処理を終えると、注目小 領域内の次の 1つの画素に注目を移し(ステップ F139)、前述の処理と同様の処理 を繰り返す。注目小領域内の全ての画素についての処理を終えると(ステップ S140 で YES)、動作領域内の次の 1つの小領域に注目を移し (ステップ S141)、前述した 処理と同様の処理を繰り返す。動作領域内の全ての小領域内の画素についての処 理を終えると(ステップ F142で YES)、動作領域内の各画素の終端 3D座標を含む 出力データ S6を記憶装置 M6に保存する(ステップ F143)。
[0056] 図 9は、本発明の第 2実施例による形態変形装置を示している。図 9を参照して、第 2実施例による形態変形装置は、人の無表情顔画像を表情動作顔画像に変形する 。第 2実施例の形態変形装置は、記憶装置 M7を備えている点と、処理装置 CNT1 が隣接小領域調整部 5を更に有する点で、図 2に示された第 1実施例の形態変形装 置と相違し、その他の点は第 1実施例の形態変形装置と同じである。
[0057] 第 2実施例では、動作領域が複数の小領域に分割され、各小領域単位で独立に 移動量が計算されるので、隣接する小領域の移動量に明確な差があると、それらの 小領域の境界部分に段差などの不連続箇所が発生する。例えば、図 10Aに示され るように、移動前には互いに接していた 2つの小領域 1001、 1002力 その移動量に 差が生じると、図 10Bに示されるように互いに離れた状態になったり、図 10Cに示さ れるように互いに一部が重なったりする場合がある。本実施例の隣接小領域調整部 5 は、このような小領域の境界部分に発生する不連続な状態を調整する機能を有する 。なお、 P 接小領域調整部 5は他の機能部 1一 4と同様に記録媒体 PM1に記憶され たプログラムと処理装置 CNT1を構成するコンピュータとで実現されることができる。
[0058] 次に隣接小領域調整部 5の動作を図 11を参照して説明する。先ず隣接小領域調 整部 5は、記憶装置 M4および記憶装置 M6から小領域分割済データ S4および出力 データ S6を入力する (ステップ F201)。次に、小領域分割済データ S4に基づいて、 全ての小領域の境界点を全て探索する(ステップ F202)。小領域の境界点とは、隣 接する複数の小領域の境界上に位置する画素のことである。このような画素は複数 の小領域に属してレ、るので、小領域分割済データ S4から複数の小領域に属する画 素を全て抽出することで可能である。
[0059] 次に隣接小領域調整部 5は、ステップ F202で探索された境界点の 1つに注目し( ステップ F203)、その境界点が属する小領域を小領域分割済データ S4から調べ、 属する全ての小領域における終端 3D座標を出力データ S6から取り出してその平均 (メジアンでも良レ、)を求める(ステップ F204)。例えば、図 10Aに示される或る 1つの 境界点 1100が、移動後に図 10B)や図 10Cに示されるように、小領域 1101につレヽ ては終端 3D座標(Xa, Ya, Za)の点 1103— 1となり、小領域 1102については終端 3 D座標(Xb, Yb, Zb)の点 1103-2となった場合、 { (Xa + Xb) /2, (Ya + Yb) /2, (Za + Zb) /2}が計算される。次に、この計算された平均値で、その境界点が属する 全ての小領域における終端 3D座標を更新する (ステップ F205)。つまり、点 1103- 1の終端 3D座標(Xa, Ya, Za)を { (Xa + Xb) /2, (Ya + Yb) /2, (Za + Zb) /2} に更新し、同じく点 1103-2の終端 3D座標(Xb, Yb, Zb)を { (Xa + Xb) /2, (Ya + Yb) /2, (Za + Zb) /2}に更新する。この更新は、処理装置 CNT1内に入力された 出力データ S6のコピー上で行う。
[0060] 隣接小領域調整部 5は、 1つの境界点についての処理を終えると、次の 1つの境界 点に注目を移し(ステップ F206)、ステップ F204に戻って前述した処理と同様の処 理を繰り返す。全ての境界点についての処理を終えると(ステップ F207で YES)、次 に小領域境界部の平滑化処理を行う(ステップ F208)。
[0061] 小領域境界部の平滑化処理において、隣接小領域調整部 5は、各小領域毎に、ス テツプ S205で終端 3D座標を変更した境界点の変更量をその境界点付近の画素に 伝搬させることで、境界部を平滑化する。この平滑化処理 F208の詳細を図 12に示 す。
[0062] 先ず隣接小領域調整部 5は、 1つの小領域に注目し (ステップ F211)、補正係数を より小さぐ且つ 1に近い値に初期化する(ステップ F212)。次に、注目小領域におけ る隣接小領域との全ての境界点の 3D補正量を計算する (ステップ F213)。境界点の 3D補正量とは、出力データ S6に存在する注目小領域における当該境界点の終端 3 D座標と、図 11のステップ F204で計算されたその境界点が属する全ての小領域に おける終端 3D座標の平均との差分である。例えば、或る境界点の或る小領域にお ける終端 3D座標が(Xa, Ya, Za)、図 11のステップ F204で計算されたその境界点 が属する全ての小領域における終端 3D座標の平均が { (Xa + Xb) /2, (Ya + Yb) /2, (Za + Zb) /2}とすると、 3D補正量は、 { (Xa + Xb) /2}~Xa、{ (Ya + Yb) Z2} _Ya、 { (Za + Zb) /2卜 Za}として求められる。
[0063] 次に、 P 接小領域調整部 5は、注目されている小領域における境界点に接する全て の画素を内接点として探索する(ステップ F214)。例えば、図 13に示されるように互 レヽに接する 2つの/ Jヽ領域 1101、 1102のうち、 /Jヽ領域 1101力 S注目されてレヽる場合、 小領域 1102との境界上にある画素 a— fが当初の境界点になるので、画素 a— fに接 する画素 g— 1が内接点として求められる。
[0064] 次に、隣接小領域調整部 5は、 1つの内接点に注目し (ステップ F215)、その内接 点が接する全ての境界点の 3D補正量の平均 (メジアンでも良い)を計算する(ステツ プ F216)。例えば、図 13の画素 gが 1つの内接点として注目されている場合、それに 接する境界点は画素 a、 bであるので、隣接小領域調整部 5は、画素 aの 3D補正量と 画素 bの 3D補正量の平均を計算する。次に、隣接小領域調整部 5は、この計算され た 3D補正量の平均に補正係数を乗じて得られる 3D補正量を、その内接点の終端 3 D座標に加算する(ステップ F217)。その後、その内接点を新たな境界点として扱う( ステップ F218)。 P 接小領域調整部 5は、 1つの内接点に対する処理が終ると、次の 1つの内接点に注目を移す(ステップ F219)。例えば、図 13の画素 gの処理が終了 すると、次に画素 hに注目が移され、ステップ F216に戻って上述した処理と同様の 処理が繰り返される。こうして、ステップ F214で見つけた全ての内接点 g 1に対する 処理が終わると(ステップ F220で YES)、 P 接小領域調整部 5は、補正係数の値か ら予め定められた一定値 (例えば 0.1、 0. 2など)を減じ (ステップ F221)る。補正係 数の値が 0より大きければ(ステップ F222で YES)、処理はステップ F214に戻る。図 13の場合、画素 g— 1の処理が終了すると、それらの画素 g— 1は新たな境界点として 扱われるので、ステップ F221で探索される新たな内接点の集合は画素 m— rとなる。 こうして、当初の境界点 a— fの 3D補正量が近隣の画素に伝搬されて平滑化されて いく。
[0065] 隣接小領域調整部 5は、補正係数の値が 0以下になれば、注目している小領域に 対する平滑化処理を終え、次の 1つの小領域に注目を移し (ステップ F223)、ステツ プ F212に戻って前述した処理と同じ処理を繰り返す。隣接小領域調整部 5は、全て の小領域に対する処理を終えると (ステップ F224で YES)、小領域境界部の平滑化 処理 F208を終える。
[0066] 隣接小領域調整部 5は、小領域境界部の平滑化処理を終えると、 P 接小領域調整 済データ S7、つまり、出力データ S6における小領域の境界部分に発生する不連続 な状態を調整した出力データを記憶装置 M7に出力する。記憶装置 M7に保存され た出力データ S7は、 自動的あるいは入力装置 KEYからの指示に応じて表示装置 D PYに表示される。
[0067] 図 14は、本発明の第 3実施例による形態変形装置を示している。第 3実施例の形 態変形装置は、人の無表情顔画像を表情動作顔画像に変形する。第 3実施例の形 態変形装置は、第 2実施例の形態変形装置と同様であるが、記憶装置 M8を備えて いる点と、処理装置 CNT1が未動作領域調整部 6を更に有する点で、図 9に示した 第 2実施例の形態変形装置と相違する。
[0068] 図 1で説明されたように、顔全体の領域 1000上に少なくとも 1つの動作領域 1001 が設定され、動作領域 1001が変形の対象とされると、表情動作時に、動作領域 100 1と未動作領域の境界部分に段差などの不連続箇所が発生することがある。例えば 、図 15Aに示されるように、無表情画像では互いに接していた動作領域 1201と未動 作領域 1202が、そのうち動作領域 1201だけが移動するために、図 15Bに示される ように動作領域 1201と未動作領域 1202とが重なる部分 1203が生じたり、動作領域 1201と未動作領域 1202との間に隙間 1204が生じたりする場合がある。本実施例 の未動作領域調整部 6は、このような動作領域と未動作領域との境界部分に発生す る不連続な状態を調整する機能を有する。なお、未動作領域調整部 6は他の機能部 1一 5と同様に記録媒体 PM1に記憶されたプログラムと処理装置 CNT1を構成する コンピュータとで実現することが可能である。
[0069] 次に未動作領域調整部 6の動作を図 16を参照して説明する。先ず未動作領域調 整部 6は、記憶装置 M2および記憶装置 M7から動作領域指定済データ S 2および隣 接小領域調整済データ S7を入力する (ステップ F301)。次に、未動作領域調整部 6 は、補正係数を 1より小さぐ且つ 1に近い値に初期化し (ステップ F302)、動作領域 指定済データ S2に基づいて、全ての内境界点の 3D移動量を計算する (ステップ F3 03)。内境界点とは、動作領域に属する画素のうち未動作領域との境界上に位置す る画素のことである。例えば、図 17に示されるように、ハッチングを施した桝目が当初 の動作領域に属する画素とすると、ハッチングを施していない未動作領域との境界 上に位置する画素 a、 b、 cなどが内境界点である。また、内境界点の 3D移動量とは、 その内境界点の動作領域指定済データ S2上での 3D座標(つまり無表情時の位置) と隣接小領域調整済出力データ S7上での 3D座標(つまり表情動作時の位置)との 差分のことである。
[0070] 次に、未動作領域調整部 6は、動作領域指定済データ S2に基づいて、全ての外境 界点を探索する (ステップ F304)。外境界点とは、未動作領域の画素のうち、動作領 域の境界上に位置する画素のことである。例えば、図 17の例では、画素 d、 e、 fなど が外境界点である。
[0071] 次に、未動作領域調整部 6は、ステップ F304で探索された外境界点の 1つに注目 し (ステップ F305)、その外境界点が接する全ての内境界点の 3D移動量の平均 (メ ジアンでも良い)を求める(ステップ F306)。例えば、図 17に示される画素 eが外境界 点として注目されている場合、その画素 eに接する全ての内境界点は画素 a、 b、 cで あるので、それらの 3D移動量の平均が計算される。次に、この計算された平均値に 補正係数を乗じて得られる 3D移動量が、その外境界点の終端 3D座標に加算される (ステップ F307)。そして、その外境界点が動作領域の点として扱われる(ステップ F 308)。 1つの外境界点に対する処理が終ると、次の 1つの外境界点に注目が移る( ステップ F309)。例えば、図 17の画素 eの処理が終了すると、次に画素 fに注目が移 り、ステップ F306に戻って上述の処理と同様の処理が繰り返される。こうして、ステツ プ F304で見つけた全ての外境界点に対する処理を終えると(ステップ F310で YES )、未動作領域調整部 6は、補正係数の値から予め定められた一定値 (例えば 0. 1や 0. 2など)を減じる。 (ステップ F311)。補正係数の値が 0より大きければ (ステップ F3 12で YES)、ステップ F304の処理に戻る。図 17の場合、画素 d— fなどの処理が終 了すると、それらの画素 d fなどは新たに動作領域として扱われるので、ステップ F3 04で探索される新たな外境界点の集合は画素 g mなどとなる。こうして、当初の境 界点 a cの 3D移動量が未動作領域の画素に伝搬されて平滑化されていく。
[0072] 未動作領域調整部 6は、補正係数の値が 0以下になった時点で、未動作領域の調整 処理を終え、未動作領域調整済データ S8、つまり、隣接小領域調整済出力データ S 7における動作領域と未動作領域の境界部分に発生する不連続な状態を調整した 出力データを記憶装置 M8に出力する。記憶装置 M8に保存された出力データ S8は 、自動的あるいは入力装置 KEYからの指示に応じて表示装置 DPYに表示される。
[0073] 図 13の構成では、隣接小領域調整部 5の実行後に未動作領域調整部 6を実行し たが、最初に未動作領域調整部 6を実行して、出力データ S6から動作領域と未動作 領域との間の境界部分の不連続性を解消したデータを生成し、次に隣接小領域調 整部 5を実行して、更に小領域間の境界部分の不連続性を解消したデータを生成す るようにしても良レ、。また。隣接小領域調整部 5を省略し、未動作領域調整部 6による 調整だけを実行しても良い。
[0074] 図 18は、本発明の第 4実施例による顔動作符号化装置のブロック図であり、或る人 物の無表情時と表情動作時の顔三次元データから、表情動作時の動作領域と外力 を計算して出力する。本実施例の顔動作符号化装置は、処理装置 CNT11と記憶装 置 Mi l— Ml 5と表示装置 DPYと入力装置 KEYとを含んでいる。複数の記憶装置 Mi l— M15は、例えば磁気ディスクで構成され、そのうち、記憶装置 Mi lは入力デ ータとなる無表情顔 3Dデータ S100および表情動作顔 3Dデータ S101を格納し、記 憶装置 M15は出力データとなる表情動作の外力データ S12および表情動作の動作 領域 S13を格納し、残りの記憶装置 M12 M14は中間結果や処理の過程で必要と なる制御データを格納する。表示装置 DPYは、例えば液晶ディスプレイで構成され 、処理過程のデータなどを表示するために使用される。入力装置 KEYは、例えばキ 一ボードとマウスで構成され、利用者から各種のデータや指示を受け付けるために利 用される。制御装置 CNT1 1は、例えばコンピュータの中央処理装置で構成され、本 実施例の顔動作符号化装置の主たる処理を実行する。制御装置 CNT11は、 3D顔 モデル付与部 101、 3D差分計算部 102および外力計算部 103を有する。
[0075] 制御装置 CNT11の各機能部 101 103は、制御装置 CNT11を構成するコンビ ユータと顔動作符号化装置用プログラムとで実現することができる。顔動作符号化装 置用プログラムは、磁気ディスク等のコンピュータ可読記録媒体 PM1 1に記録されて おり、コンピュータの立ち上げ時などにそのコンピュータに読み取られ、そのコンビュ ータの動作を制御することにより、そのコンピュータ上に各機能部 101 103を実現 する。
[0076] 次に本実施例にかかる顔動作符号化装置の動作を説明する。制御装置 CNT11 は、先ず 3D顔モデル付与部 101を用いて、記憶装置 Mi lに記憶された符号化用 に用いられる人物の無表情顔三次元データ S 100と表情動作顔三次元データ S 101 を入力し、それぞれのデータに対して記憶装置 M12に予め用意された顔三角ポリゴ ンメッシュモデル S 105を整合させることにより、無表情時と表情動作時それぞれの顔 三角ポリゴンメッシュモデル S102、 S 103を生成して記憶装置 M13に保存する。次 に、 3D差分計算部 102を用いて、記憶装置 Ml 3から無表情時と表情動作時それぞ れの顔三角ポリゴンメッシュモデル S 102、 S 103を入力し、両者を比較することにより 、無表情顔から表情動作顔に表情が変わった際に動作 (移動)したポリゴン及びその 各頂点の移動前後の三次元座標を含む 3D差分データ S 104を生成して記憶装置 M14に保存する。次に、外力計算部 103を用いて、記憶装置 M14から 3D差分デー タ S 104を入力し、無表情顔を表情動作顔に変形するために無表情顔の顔三角ポリ ゴンの各頂点に与えるべき外力を前述した式(7)によって計算し、無表情顔から表情 動作顔に表情が変わった際に動作 (移動)したポリゴンの情報を含む表情動作の動 作領域 S 13およびそのポリゴンの各頂点に与える外力を含む表情動作の外力デー タ S 12を記憶装置 M15に出力する。以下、より詳細に説明する。
[0077] 三次元顔モデル付与部 101に入力される無表情時と表情動作時の顔三次元デー タ S 100、 S10 H 顔の三次元データを取得する部によって取得され、記憶装置 M 11に記憶される。顔の三次元データは、光照射型のレンジファインダ、ステレオ '多 眼力メラによるステレオ画像計測、 MRI計測、赤外線計測などの任意の部で計測さ れたデータで良ぐあるいは人工的な三次元コンピュータグラフィックスで作成された データでも良レ、。なお、三次元データに付随される情報としてのテクスチャは、 2つの 顔データ間の部位の対応をとるためにあることが望ましいが、 2つの顔データ間の部 位の対応を見つける別の部がある場合は必須ではなレ、。例えば、光照射型のレンジ ファインダで取得する場合、光に反射する特殊なマーカーを顔に貼り付けたり、赤外 線画像で取得する場合、体温と異なる温度をもつマーカーを貼り付けて取得する場 合などが考えられる。テクスチャを取得する場合でも、顔の一部にマーカーが描かれ てレ、る場合等、顔全体のテクスチャは必須ではなレ、。
記憶装置 M12には、図 19に示されるような顔三角ポリゴンメッシュモデル S105が 保存されている。ポリゴン数および個々のポリゴンのサイズは任意である力 三角メッ シュの頂点の一部が顔の特徴点に対応するよう生成されている。三次元顔モデル付 与部 101は、無表情顔三次元データ S100に顔三角ポリゴンメッシュモデル S105を 整合させることで、三次元化無表情顔三角ポリゴンメッシュモデル S102を生成する。 具体的には、表示装置 DPYの画面に無表情顔三次元データ S100と顔三角ポリゴ ンメッシュモデル S105とを表示し、ユーザによる入力装置 KEYからの操作によって 、顔三角ポリゴンメッシュモデル S105の各頂点をその頂点に対応付けられるべき顔 の特徴点にマッピングさせていく。無表情顔三次元データ S100の特徴点を手がかり に、顔三角ポリゴンメッシュモデル S105の一部の頂点を自動で対応付けることも可 能である。例えば、顔三角ポリゴンメッシュモデル S105の或る特定のポリゴンの或る 特定の頂点が、鼻の先端部に対応させられる頂点である場合、鼻の先端部に付けら れたマーカーの位置を検出して自動的に対応付けることができる。三次元顔モデル 付与部 101は、顔三角ポリゴンメッシュモデル S105における各ポリゴンの各頂点に、 その頂点に対応付けられた無表情顔三次元データ S100の点の三次元座標を割り 当てていき、全てのポリゴンの頂点に無表情顔三次元データ S100の点の三次元座 標を割り当て終えたものを、三次元化無表情顔三角ポリゴンメッシュモデル S102とし て記憶装置 M 13に保存する。 [0079] 同様の方法で、三次元顔モデル付与部 101は、表情顔三次元データ S101に顔三 角ポリゴンメッシュモデル S 105を整合させることで、三次元表情動作顔三角ポリゴン メッシュモデル S 103を生成する。
[0080] 三次元差分計算部 102は、各ポリゴンの各頂点に無表情顔の三次元座標が割り当 てられた三次元化無表情顔三角ポリゴンメッシュモデル S102と、各ポリゴンの各頂点 に表情動作顔の三次元座標が割り当てられた三次元化表情動作顔三角ポリゴンメッ シュモデル S103との同じポリゴンの同じ頂点どうしで三次元座標の差をとる。例えば 、三次元差分計算部 102は、モデノレ S102と S103の同じポリゴンを図 20に示す S10 2—1、 S103—1とすると、同じ頂点 aと a'どうし、同じ頂点 bと b'どうし、同じ頂点 cと c' どうしで三次元座標の差をとる。そして、三次元座標の差のノルムつまり距離があらか じめ決めた閾値以上の領域を表情時の動作領域とし、領域外を未動作領域とする。 この実施例では、点は三角ポリゴンの頂点しかないので、ポリゴン単位で動作領域が 決められる。すなわち、ポリゴンの三頂点のいずれかが動作領域の点であれば、その ポリゴンは動作領域、そうでないポリゴンは未動作領域になる。また、この実施例では 、動作領域を分割した小領域は各三角ポリゴンになる。三次元差分計算部 102は、 このようにして決めた動作領域の顔三角ポリゴンメッシュモデルのポリゴン番号、その 頂点に割り当てられた無表情顔および表情動作顔の三次元座標を含むデータを三 次元差分データ S104として記憶装置 M14に保存する。
[0081] 図 21に三次元差分データ S104の内容例を示す。顔三角ポリゴンメッシュモデル S 105の各ポリゴン毎にポリゴン番号 mが設定され、各ポリゴンの頂点毎に頂点番号 iが 設定され、その頂点を含むポリゴンが動作領域かどうかを示すフラグと、その頂点に 対応する無表情顔の三次元座標と、その頂点に対応する表情動作顔の三次元座標 とを含んで構成される。
[0082] 外力計算部 103は、三次元差分データ S104から動作領域になっているポリゴンの データを入力し、そのポリゴンの頂点の無表情時の三次元座標、表情動作時の三次 元座標および必要なパラメータを用いて、各頂点の位置を無表情時の位置から表情 動作時の位置に移動させるのに必要な外力を計算する。具体的には、外力計算部 1 03は、前述の式(7)に、ノ ラメータ t, k, dと、無表情時の制御点の三次元座標として の xi (0)と、表情動作時の制御点の三次元座標としての xi (t)と、その初期条件を与 えて、外力 Fiを計算する。制御点の取り方はポリゴン内で自由であるが、最も簡単な ケースとして、本実施例では図 22Aと図 22Bのようにポリゴンの三頂点が制御点にと られている。この場合、(6)の行列の要素は n= 3として計算可能になる。
[0083] 図 23は本発明の第 5実施例による顔動作復号ィ匕装置のブロック図であり、或る人 物の無表情時の顔三次元データを表情動作時の外力情報に基づレ、て変形し、その 人物の表情動作時の顔三次元データを生成して出力する。本実施例の顔動作復号 化装置は、処理装置 CNT21と記憶装置 M21 M26と表示装置 DPYと入力装置 K EYとを含んでいる。複数の記憶装置 M21— M26は、例えば磁気ディスクで構成さ れている。記憶装置 M21、 M22は入力データとなる無表情顔 3Dデータ S300およ び表情動作時の外力情報 S30を格納し、記憶装置 M26は出力データとなる表情顔 3Dデータ 32を格納し、残りの記憶装置 M23— M25は中間結果や処理の過程で必 要となる制御データを格納する。表示装置 DPYは、例えば液晶ディスプレイで構成 され、生成された表情顔 3Dデータ 32および処理過程のデータなどを表示するため に使用される。入力装置 KEYは、例えばキーボードとマウスで構成され、利用者から 各種のデータや指示を受け付けるために利用される。制御装置 CNT21は、例えば コンピュータの中央処理装置で構成され、本実施例の顔動作復号化装置の主たる 処理を実行する。制御装置 CNT21は、 3D顔モデル対応部 301、移動量計算部 30 2および表情作成部 31を有する。
[0084] 制御装置 CNT21の各機能部 301、 302、 31は、制御装置 CNT21を構成するコン ピュータと顔動作復号化装置用プログラムとで実現することができる。顔動作復号ィ匕 装置用プログラムは、磁気ディスク等のコンピュータ可読記録媒体 PM21に記録され ており、コンピュータの立ち上げ時などにそのコンピュータに読み取られ、そのコンビ ユータの動作を制御することにより、そのコンピュータ上に各機能部 301、 302、 31を 実現する。
[0085] 次に本実施例にかかる顔動作複号化装置の動作を説明する。制御装置 CNT21 は、先ず 3D顔モデル対応部 301を用いて、記憶装置 M21に記憶された復号化用 に用いられる或る人物の無表情顔三次元データ S300を入力し、そのデータに対し て記憶装置 M23に予め用意された顔三角ポリゴンメッシュモデル S105を整合させる ことにより、三次元化無表情顔三角ポリゴンメッシュモデル S302を生成して記憶装置 M24に保存する。次に、移動量計算部 302を用いて、記憶装置 M22に記憶された 表情動作の外力情報 S30に従って、記憶装置 M24に保存された三次元化無表情 顔三角ポリゴンメッシュモデル S302の動作領域における各制御点の移動位置を計 算し、制御点の移動位置データ S303として記憶装置 M25に保存する。次に、表情 作成部 31を用いて、記憶装置 M25に保存された制御点の移動位置データ S303の 基づいて、記憶装置 M21に記憶された無表情顔三次元データ S 300を変形し、表 情動作時の表情動作顔の三次元データを生成し、表情顔 3Dデータ S32として記憶 装置 M26に保存し、また表示装置 DPYに表示する。以下、詳細を説明する。
[0086] 記憶装置 M22の表情動作の外力情報 S30としては、図 18に示される第 4実施例 の顔動作符号化装置で生成された表情動作の外力データ S12および表情動作の動 作領域 S 13に相当する情報が用いられる。また、記憶装置 M23に用意される顔三角 ポリゴンメッシュモデル S105としては、図 18に示される第 4実施例の顔動作符号ィ匕 装置で使われた顔三角ポリゴンメッシュモデル S105と同じモデルが使われる。
[0087] 三次元顔モデル対応部 301は、図 18に示される第 4実施例の顔動作符号化装置 の三次元顔モデル付与部 101と同様の方法で、無表情顔三次元データ S 300に顔 三角ポリゴンメッシュモデル S 105を整合させることで、三次元化無表情顔三角ポリゴ ンメッシュモデル S302を生成する。つまり、顔三角ポリゴンメッシュモデル S105にお ける各ポリゴンの各頂点に、その頂点に対応する無表情顔三次元データ S300の点 の三次元座標が割り当てられ、全てのポリゴンの頂点に無表情顔三次元データ S30 0の点の三次元座標が割り当てられたとき、その結果は、三次元化無表情顔三角ポリ ゴンメッシュモデル S302として記憶装置 M24に保存する。
[0088] 移動量計算部 302は、顔三角ポリゴンメッシュモデル S105に対応した表情動作時 の外力情報 S30を記憶装置 M22から入力し、図 2の第 1実施例の制御点動作部 3と 同様の方法で、表情動作時の制御点の移動位置 S303を計算する。例えば、図 18 の実施例 4と同じような顔三角ポリゴンメッシュモデルが用いられている場合、移動量 計算部 302は、ポリゴンの三頂点の三次元座標と外力情報 S30に記載されているポ リゴンの頂点に働く外力を用いて、前記式 (6)の要素を n = 3として前記式(7)を計算 することにより、各ポリゴンの頂点の表情動作時の移動位置を計算する。
[0089] 表情作成部 31は、記憶装置 M21に記憶された無表情顔 3Dデータ S300を構成 する点のうち、顔三角ポリゴンメッシュモデル S105の動作領域におけるポリゴンの頂 点に対応する点の移動位置は位置データ S303で既に計算されているので、それ以 外の点(ポリゴン内点)の移動位置を、図 2の第 1実施例の動作内揷部 4と同様の方 法で算出する。例えば、顔三角ポリゴンメッシュモデルが用いられている場合は、表 情作成部 31は、各ポリゴン内点の移動位置を頂点の移動位置から内揷によって計 算する。そして、無表情顔 3Dデータ S300の各点の 3次元座標をその移動位置だけ 修正して、表情顔三次元データ S32を生成する。
[0090] ただし、ポリゴンの頂点は、複数の異なるポリゴンに含まれることが普通であるので、 図 10で説明されたように隣接する小領域 (この場合、ポリゴン)の境界部分に段差な どが生じ易い。このため、表情作成部 31に、図 9の第 2実施例の隣接小領域調整部 5と同様の機能を組み込んで、段差などを解消するのが望ましい。また、図 14の第 3 実施例の未動作領域調整部 6と同等の機能を表情作成部 31に組み込んで、動作領 域と未動作領域との境界部分に生じる段差などを解消するようにしても良い。
[0091] 図 23の第 5実施例では、或る人物の無表情時の顔三次元データ S300を唯一の表 情動作の外力情報 S30に基づいて変形したが、無表情顔三次元データ S300をそ れぞれ異なる複数の表情動作の外力情報 S30に基づいて変形することもできる。こ の場合、移動量計算部 302は、同じ制御点に力かる外力どうしを加算することにより 複数の表情動作の外力情報 S30を 1つの外力情報に合成し、その合成外力に基づ レ、て制御点の移動位置データ S303を算出する。これにより、複数の外力情報 S30 に応じた最終的な制御点の移動位置データが算出される力、、あるいは、それぞれの 外力情報 S30に基づいて制御点の移動位置データ S303を算出した後、同じ制御 点にかかる移動位置の平均を求めることにより、複数の外力情報 S30に応じた最終 的な制御点の移動位置データが算出される。
[0092] 図 24は本発明の第 6実施例による顔動作復号ィ匕装置のブロック図であり、或る人 物の無表情時の顔画像(二次元顔画像)を表情動作時の外力情報に基づいて変形 し、その人物の表情動作時の顔画像(二次元顔画像)を生成して出力する。つまり、 本実施例の顔動作復号化装置では、図 23に示される第 5実施例の顔動作復号化装 置における無表情顔三次元データ S300が無表情顔画像 S301により置換され、出 力の表情顔三次元データ S32が表情顔画像 S32に置換されている。
[0093] 本実施例の顔動作復号化装置は、処理装置 CNT31と記憶装置 M31— M36と表 示装置 DPYと入力装置 KEYとを含んでいる。複数の記憶装置 M31 M36は、例 えば磁気ディスクで構成され、記憶装置 M31、 M32は入力データとなる無表情顔画 像 S301および表情動作時の外力情報 S30を記憶し、記憶装置 M36は出力データ となる表情顔画像 S33を格納し、残りの記憶装置 M33 M35は中間結果や処理の 過程で必要となる制御データを格納する。表示装置 DPYは、例えば液晶ディスプレ ィで構成され、生成された表情顔画像 S33および処理過程のデータなどを表示する 。入力装置 KEYは、例えばキーボードとマウスで構成され、利用者から各種のデー タゃ指示を受け付ける。制御装置 CNT31は、例えばコンピュータの中央処理装置 で構成され、本実施例の顔動作復号化装置の主たる処理を実行する。制御装置 CN T31は、顔画像三次元化部 300、動作量計算部 302および表情画像作成部 33を有 する。
[0094] 制御装置 CNT31の各機能部 300、 302、 33は、制御装置 CNT31を構成するコン ピュータと顔動作復号化装置用プログラムとで実現することができる。顔動作復号ィ匕 装置用プログラムは、磁気ディスク等のコンピュータ可読記録媒体 PM31に記録され ており、コンピュータの立ち上げ時などにそのコンピュータに読み取られ、そのコンビ ユータの動作を制御することにより、そのコンピュータ上に各機能部 300、 302、 33を 実現する。
[0095] 次に本実施例にかかる顔動作複号化装置の動作を説明する。制御装置 CNT31 は、先ず顔画像三次元化部 300を用いて、記憶装置 M31に記憶された複号化用に 用いられる或る人物の無表情顔画像 S301を入力し、記憶装置 M33に予め用意さ れた無表情顔の三次元モデル S302に貼り付けることで、復号用の無表情顔三次元 データ S300を生成し、記憶装置 M34に保存する。この保存された無表情顔三次元 データ S300が、図 23の第 5実施例の三次元化無表情顔三角ポリゴンメッシュモデ ル S302に相当する。次に、図 23の第 5実施例と同様に移動量計算部 302を用いて 、記憶装置 M32に記憶された表情動作の外力情報 S30に従って、記憶装置 M34に 保存された無表情顔三次元データ S300の動作領域における各制御点の移動位置 が計算され、制御点の移動位置データ S303として記憶装置 M35に保存される。次 に、表情画像作成部 33を用いて、図 23の第 5実施例の表情作成部 31と同様の処理 により、記憶装置 M35に保存された制御点の移動位置データ S303に基づいて、記 憶装置 M34に記憶された無表情顔三次元データ S300が変形されて、表情動作時 の表情動作顔の三次元データが生成される。次いで、この三次元データから表情顔 画像 S33が生成されて記憶装置 M36に保存され、また表示装置 DPYに表示される 。以下、詳細を説明する。
[0096] 記憶装置 M32の表情動作の外力情報 S30としては、図 18に示される第 4実施例 の顔動作符号化装置で生成された表情動作の外力データ S12および表情動作の動 作領域 S13に相当する情報が用いられる。また、記憶装置 M33に用意される無表情 顔の三次元モデル S302としては、図 18に示される第 4実施例の顔動作符号化装置 で使われた顔三角ポリゴンメッシュモデル S105と同じメッシュモデルを用いた或る人 物の三次元モデルが使われる。
[0097] 顔画像三次元化部 300は、復号用の無表情顔画像 S301とともに無表情顔の三次 元モデル S302を入力して、復号用の無表情顔画像 S301を無表情顔の三次元モデ ル S302に貼り付け、復号用の無表情顔三次元データ S300を作成する。貼り付け方 の例としては、特定の人物の無表情顔三次元データを顔三次元モデルとして登録し 、その顔モデルの特徴点を復号用の無表情顔画像 S301の特徴点と対応させ、特徴 点以外の点では特徴点との相対位置関係から図 7に示されるように内揷、外揷によつ て対応を与える。この対応が与えられると、顔三次元モデル S302のテクスチャ情報と して復号用の無表情顔画像 S301が随伴したものが復号用の無表情顔三次元デー タ S300として扱われることができる。なお、上記の特定の人物の無表情顔三次元デ ータ S302は、実在の人物のものである必要はなぐ実在人物の無表情顔三次元デ ータの平均をとつた平均顔のようなものであっても良レ、。貝占り付け方の他の例としては 、図 19に示されるように三角メッシュの頂点の一部が顔の特徴点に対応した顔メッシ ュモデルを無表情顔の三次元モデル S302として使う方法もある。図 19からわかるよ うに全体が顔の三次元形状を模すような三次元座標が三角メッシュの各頂点に与え られている。この顔メッシュモデルは人工的に作った非常に荒い表現の顔三次元デ ータとみなすことができ、復号用の無表情顔画像 S301と顔メッシュモデルを特徴点 単位で対応づけ、特徴点外の点は図 7に示されるような内揷、外揷によって対応を与 え、無表情顔三次元データの場合と同様にして復号用の無表情顔三次元データ S3 00を作成する。
[0098] 表情画像作成部 33は、実施例 5の表情作成部 31と同様に出力する復号時の表情 動作顔の三次元データを作成後、その顔三次元データを指定したビューに投影して 復号時の表情動作顔画像 S33を生成し、記憶装置 M36に出力する。
[0099] 図 24の第 6実施例では、或る人物の無表情時の顔画像 S301が唯一の表情動作 の外力情報 S30に基づいて変形されたが、図 23の第 5実施例と同様に、無表情顔 画像 S301がそれぞれ異なる複数の表情動作の外力情報 S30に基づいて変形され てもよい。
[0100] なお、第 5実施例では、無表情顔三次元データ S300が入力され、表情動作顔の 三次元データ S32が出力され、第 6実施例では、無表情顔画像 S301が入力され、 表情動作顔画像 S33が出力される。他の例として、無表情顔三次元データ S300が 入力され、表情動作顔画像 S33が出力される顔動作復号化装置や、無表情顔画像 S301が入力され、表情動作顔の三次元データ S32が出力される顔動作復号化装 置も考えられる。
[0101] 図 25は本発明の第 7実施例による顔動作符号ィ匕装置のブロック図であり、第 4実施 例と同様に、或る人物の無表情時と表情動作時の顔三次元データから、表情動作時 の動作領域と外力を計算して出力する。本実施例の顔動作符号化装置は、処理装 置 CNT41と記憶装置 M41— M43と表示装置 DPYと入力装置 KEYとを含んでいる 。複数の記憶装置 M41 M43は、例えば磁気ディスクで構成され、記憶装置 M41 は入力データとなる無表情顔 3Dデータ S 100および表情動作顔 3Dデータ S101を 格納し、記憶装置 M43は出力データとなる表情動作の外力データ S12および表情 動作の動作領域 S 13を格納し、残りの記憶装置 M42は中間結果を格納する。表示 装置 DPYは、例えば液晶ディスプレイで構成され、処理過程のデータなどを表示す るために使用される。入力装置 KEYは、例えばキーボードとマウスで構成され、利用 者から各種のデータや指示を受け付けるために利用される。制御装置 CNT41は、 例えばコンピュータの中央処理装置で構成され、本実施例の顔動作符号化装置の 主たる処理を実行する。制御装置 CNT41は、差分計算部 10および外力計算部 11 を有する。
[0102] 制御装置 CNT41の各機能部 10、 11は、制御装置 CNT41を構成するコンピュー タと顔動作符号ィ匕装置用プログラムとで実現することができる。顔動作符号ィ匕装置用 プログラムは、磁気ディスク等のコンピュータ可読記録媒体 PM41に記録されており、 コンピュータの立ち上げ時などにそのコンピュータに読み取られ、そのコンピュータの 動作を制御することにより、そのコンピュータ上に各機能部 10、 11を実現する。
[0103] 次に本実施例にかかる顔動作符号化装置の動作を説明する。制御装置 CNT41 は、先ず差分計算部 10を用いて、記憶装置 Mi lに記憶された符号化用に用いられ る人物の無表情顔三次元データ S 100と表情動作顔三次元データ S 101を入力し、 これらの入力データから三次元座標差 S 11を生成し、記憶装置 M42に保存する。差 分計算部 10は具体的には以下のような処理を行う。
[0104] 差分計算部 10は、無表情時と表情動作時の顔三次元データ S100、 S101の同じ 部位間 (例えば無表情顔右目目尻と表情動作顔右目目尻など)を対応つける。対応 のつけ方は、前述のマーカー等を手がかりに自動化してもよいし、双方の画像を表 示装置 DPYに表示して GUIのツールを用いてユーザによる手動で対応づけても良 レ、。現実にはすべての点において対応づけることは難しいので、マーカーのある部 分や目、口、鼻等の特徴的な部分のみ対応をとり、その他の部分は、線形内揷のよう な方法で特徴的な部位との相対的な位置で対応づけるのが妥当である。対応づけ が終わると、無表情顔三次元データ S100と表情動作顔の三次元データ S101の対 応点間で三次元座標の差を計算する。次に、三次元座標の差のノルムつまり距離が あらかじめ決められた閾値以上の領域、もしくはその動作に表情筋が付着している領 域といった制限つきの領域を表情時の動作領域とし、領域外を未動作領域とする。 そして、動作領域に属する点(動作点)について、無表情顔三次元データの位置(三 次元座標もしくはそれを円筒など二次元面に投影した時のその面での座標上の二次 元座標)とその三次元座標差を三次元座標差 S 11として出力する。
[0105] 外力計算部 11は、動作点に関してのみ無表情顔三次元データの位置とその三次 元座標差を記した三次元座標差 S11を用いて、その動作点の位置を無表情顔三次 元データの位置から三次元座標差だけ移動させるのに要する外力を計算し、表情動 作の外力データ S12として出力する。また、外力が働き表情動作が起こる動作領域 S 13を出力する。動作領域 S13は、図 1で説明されたようにパネとダンパーで相互に接 続された 3点以上の制御点が外力をうけ、制御点に引きずられて一体になつて動く小 領域に分割され、小領域それぞれの動作が全体の動作領域の動作になる。各小領 域での力学システムは、すべてのパネとダンパーが同じバネ定数とダンパー定数をも つと仮定することで、前述したように定式ィ匕することができる。
[0106] 図 26は本発明の第 8の実施例のブロック図であり、図 23の実施例 5と同様に、或る 人物の無表情時の顔三次元データを表情動作時の外力情報に基づレ、て変形し、そ の人物の表情動作時の顔三次元データを生成して出力する顔動作復号化装置に本 発明を適用した実施例を示す。本実施例の顔動作復号化装置は、処理装置 CNT5 1と記憶装置 M51— M54と表示装置 DPYと入力装置 KEYとを含んで構成されてい る。複数の記憶装置 M51— M54は、例えば磁気ディスクで構成され、そのうち、記 憶装置 M51、M52は入力データとなる無表情顔 3Dデータ S300および表情動作時 の外力情報 S30を格納し、記憶装置 M54は出力データとなる表情顔 3Dデータ 32を 格納し、残りの記憶装置 M53は中間結果を格納する。表示装置 DPYは、例えば液 晶ディスプレイで構成され、生成された表情顔 3Dデータ S32および処理過程のデー タなどを表示するために使用される。入力装置 KEYは、例えばキーボードとマウスで 構成され、利用者から各種のデータや指示を受け付けるために利用される。制御装 置 CNT51は、例えばコンピュータの中央処理装置で構成され、本実施例の顔動作 複号化装置の主たる処理を実行する。制御装置 CNT51は、外力復号部 30および 表情作成部 31を有する。
[0107] 制御装置 CNT51の各機能部 30、 31は、制御装置 CNT51を構成するコンピュー タと顔動作復号ィ匕装置用プログラムとで実現することができる。顔動作復号ィ匕装置用 プログラムは、磁気ディスク等のコンピュータ可読記録媒体 PM51に記録されており、 コンピュータの立ち上げ時などにそのコンピュータに読み取られ、そのコンピュータの 動作を制御することにより、そのコンピュータ上に各機能部 30、 31を実現する。
[0108] 次に本実施例にかかる顔動作複号化装置の動作を説明する。制御装置 CNT51 は、先ず外力復号部 30を用いて、記憶装置 M51に記憶された無表情顔三次元デ ータ S300と記憶装置 M52に記憶された無表情動作の外力情報 S30を入力する。
[0109] ここで、無表情動作の外力情報 S30は、図 25の実施例 7における表情動作の外力 データ S 12と表情動作の動作領域 S 13を統合したものである。具体的には、動作領 域 S13は、顔の一部を示す領域、両目や口裂点などの特徴点の位置や距離を基準 にした相対的な位置で記述された領域として保存される。保存フォーマットとしては、 顔面を平面、円筒、球面等の平面に投射して、二次元座標で保存する方法が考えら れる。また本発明では動作領域を小領域にわけるので、二次元座標上でも動作領域 を小領域に分割しておく。これは、地球を顔、地球上の一部の大陸を動作領域、そ の大陸内の国を小領域とし、世界地図を動作領域の投影面として考えると理解しや すレ、。小領域は、制御点の組を作るために付番しておく。外力データ S 12としては、 小領域の制御点に力かる外力三次元ベクトルと小領域の番号、動作領域と同じ二次 元座標上の制御点の位置が保存される。
[0110] 外力復号部 30は、無表情顔三次元データ S300と無表情動作の外力情報 S30と から、例えば以下のようにして制御点の表情動作移動位置データ S31を生成し、記 憶装置 M53に保存する。先ず、外力復号部 30は、無表情顔三次元データ S300を 、外力情報 S30の動作領域と同じく顔特徴点の位置や距離を基準にした相対的な 位置で記述されたフォーマットに展開する。次に、外力情報 S30の動作領域に対応 する部分をその展開されたフォーマット上で探し、その部分を無表情顔三次元データ s300の動作領域とする。小領域と制御点についても同様にして無表情顔三次元デ ータ S300の対応領域、対応点を探す。この処理は、無表情顔三次元データ S300 を表示装置 DPYに表示し、外力情報 30に記述されている制御点、小領域との対応 付けを GUIなどのツールでユーザが手動で行ってもよいし、特徴点を元に自動的に 行ってもよい。無表情顔三次元データ S300の対応制御点が見つかると、外力復号 部 30は、その点の三次元座標を前記式 (7)の xi (0)に割り当てる。また、その制御点 (の対応点)の外力を外力情報 S30から読み込み、前記式 (7)の外力 Fiとする。すべ ての制御点に関してこの処理を行った後、パラメータ dと表情動作の強度を表す tを 与えて外力情報 30の小領域番号が同じ制御点組で前記式 (7)から表情動作後の制 御点の三次元位置 xi (t)を計算する。この移動後の制御点の三次元位置情報と、位 置復号用の無表情顔三次元データ S 300での動作領域、小領域、制御点の上記フ ォーマットでの位置情報を制御点の表情動作移動位置 S31とする。
[0111] 表情生成部 31は、無表情顔三次元データ S300の制御点を表情動作移動位置 S 31で示される位置に移動させ、その他の点は同じ小領域に属する制御点との相対 位置から内揷、外揷により移動位置の三次元座標を計算して、顔三次元データ S30 0での対応位置をその移動位置に移動させる。すべての動作領域中の点を移動させ ると、表情動作顔の三次元データ S32が完成する。表情動作顔の三次元データ S32 は、復号用の無表情動顔三次元データ S300にテクスチャが付随していれば、色情 報がついた顔三次元データになる。なお、図 23に示した実施例 5の表情作成部 31と 同様に、表情作成部 31に、図 9の隣接小領域調整部 5と同様の機能を組み込んで、 小領域の境界部分における段差などを解消するようにしても良ぐまた、図 14の未動 作領域調整部 6と同等の機能を表情作成部 31に組み込んで、動作領域と未動作領 域との境界部分に生じる段差などを解消するようにしても良い。
[0112] 図 26の実施例 8では、或る人物の無表情時の顔三次元データ S300を唯一の表情 動作の外力情報 S30に基づいて変形したが、無表情顔三次元データ S300をそれ ぞれ異なる複数の表情動作の外力情報 S30に基づいて変形することもできる。この 場合、外力復号部 30は、同じ制御点に力、かる外力どうしを加算することにより複数の 表情動作の外力情報 S30を 1つの外力情報に合成し、その合成外力に基づいて制 御点の表情動作移動位置データ S31を算出することにより、複数の外力情報 S30に 応じた最終的な制御点の表情動作移動位置データを算出するか、あるいは、それぞ れの外力情報 S30に基づいて制御点の表情動作移動位置データ S31を算出した後 、同じ制御点に力かる移動位置の平均を求めることにより、複数の外力情報 S30に応 じた最終的な制御点の表情動作移動位置データを算出する。 [0113] 図 27は本発明の第 9の実施例のブロック図であり、或る人物の無表情時の顔画像( 二次元顔画像)を表情動作時の外力情報に基づいて変形し、その人物の表情動作 時の顔画像 (二次元顔画像)を生成して出力する顔動作復号化装置に本発明を適 用した実施例を示す。つまり、本実施例の顔動作複号化装置は、図 26に示した実施 例 8の顔動作復号化装置における入力である無表情顔三次元データ S300を無表 情顔画像 S301に代え、出力の表情顔三次元データ S32を表情顔画像 S32に代え たものである。
[0114] 本実施例の顔動作復号化装置は、処理装置 CNT61と記憶装置 M61— M66と表 示装置 DPYと入力装置 KEYとを含んで構成されている。複数の記憶装置 M61 M 66は、例えば磁気ディスクで構成され、そのうち、記憶装置 M61、 M62は入力デー タとなる無表情顔画像 S301および表情動作時の外力情報 S30を格納し、記憶装置 M66は出力データとなる表情顔画像 S33を格納し、残りの記憶装置 M63— M65は 中間結果や処理の過程で必要となる制御データを格納する。表示装置 DPYは、例 えば液晶ディスプレイで構成され、生成された表情顔画像 S33および処理過程のデ ータなどを表示する。入力装置 KEYは、例えばキーボードとマウスで構成され、利用 者から各種のデータや指示を受け付ける。制御装置 CNT61は、例えばコンピュータ の中央処理装置で構成され、本実施例の顔動作復号化装置の主たる処理を実行す る。制御装置 CNT61は、顔画像三次元化部 32、外力復号部 30および表情画像作 成部 33を有する。
[0115] 制御装置 CNT61の各機能部 32、 30、 33は、制御装置 CNT61を構成するコンビ ユータと顔動作復号化装置用プログラムとで実現することができる。顔動作復号化装 置用プログラムは、磁気ディスク等のコンピュータ可読記録媒体 PM61に記録されて おり、コンピュータの立ち上げ時などにそのコンピュータに読み取られ、そのコンビュ ータの動作を制御することにより、そのコンピュータ上に各機能部 32、 30、 33を実現 する。
[0116] 次に本実施例にかかる顔動作複号化装置の動作を説明する。制御装置 CNT61 は、先ず顔画像三次元化部 32を用いて、記憶装置 M61に記憶された複号化用に 用いられる或る人物の無表情顔画像 S 301を入力し、記憶装置 M63に予め用意さ れた無表情顔の三次元モデル S302に貼り付けることで、復号用の無表情顔三次元 データ S300を生成し、記憶装置 M64に保存する。次に、図 26の第 8実施例と同様 に、外力復号部 30を用いて、記憶装置 M62に記憶された表情動作の外力情報 S30 に従って、記憶装置 M64に保存された復号用の無表情顔三次元データ S300の動 作領域における各制御点の移動位置が計算され、制御点の表情動作移動位置デー タ S31として記憶装置 M65に保存される。次に、表情画像作成部 33を用いて、図 26 の第 8実施例の表情作成部 31と同様に、記憶装置 M65に保存された制御点の表情 動作移動位置データ S31に基づいて、記憶装置 M64に格納された復元用の無表 情顔三次元データ S300が変形さされて表情動作時の表情動作顔の三次元データ が生成され、次いで、この三次元データを指定したビューに投影して復号時の表情 動作顔画像 S33が生成され、記憶装置 M36に出力される。
[0117] なお、第 8実施例では、無表情顔三次元データ S300が入力され、表情動作顔の三 次元データ S32が出力され、第 9実施例では、無表情顔画像 S301が入力され、表 情動作顔画像 S33が出力された。他の例として、無表情顔三次元データ S300が入 力され、表情動作顔画像 S33が出力される顔動作復号化装置や、無表情顔画像 S3 01が入力され、表情動作顔の三次元データ S32が出力される顔動作復号化装置も 考えられる。
[0118] 図 27の第 9実施例では、或る人物の無表情顔画像 S301が唯一の表情動作の外 力情報 S30に基づいて変形されたが、図 26の第 8実施例と同様に、無表情顔画像 S 301がそれぞれ異なる複数の表情動作の外力情報 S30に基づいて変形されてもよ レ、。
[0119] 図 28は本発明の第 10実施例による顔動作符号復号ィ匕装置のブロック図であり、或 る人物 Aの無表情時と表情動作時の三次元データの組から別の人物 Bの無表情顔 の三次元データに表情動作を付与する。
[0120] 本実施例の顔動作符号復号化装置は、符号化装置 71、伝送装置 72、復号化装 置 73を備えており、伝送装置 72と複号化装置 73とは通信路 74によって通信可能に 接続されている。また、複号化装置 71の入力データとなる人物 Aの無表情顔三次元 データ S 100および人物 Aの表情動作顔三次元データ S 101を記憶する記憶装置 M 71、復号化装置 71で生成された表情動作の外力データ S12および表情動作の動 作領域 S13を保存する記憶装置 M72、伝送装置 72が表情動作の外力データ S12 および動作領域 S13を統合して作成した表情動作の外力情報 S30を一時的に保存 する記憶装置 M73、人物 Bの無表情顔三次元データ S300を記憶する記憶装置 M 74、通信路 74を通じて伝送装置 72から送られてくる表情動作の外力情報 S30と記 憶装置 M74に記憶された人物 Bの無表情顔三次元データ S300とに基づいて復号 化装置 73で生成された人物 Bの表情顔三次元データ S32を保存する記憶装置 M7 5を備えている。
[0121] 符号化装置 71は、図 25に示される実施例 7の顔動作符号化装置で実現すること ができる。つまり、符号化装置 71は、図 25の差分計算部 10および外力計算部 11を 備える処理装置 CNT41、記憶装置 M42、表示装置 DPYおよび入力装置 KEYで 構成される。従って、符号化装置 71の動作は実施例 7の顔動作符号化装置の動作 と同じである。
[0122] 伝送装置 72は、表情動作の外力データ S12とその動作領域 S13の復号化装置 73 への転送とその制御を行う。動作領域 S13は、顔の一部を示す領域、両目や口裂点 などの特徴点の位置や距離を基準にした相対的な位置で記述された領域として保 存される。保存フォーマットとしては、顔面を平面、円筒、球面等の平面に投射して、 二次元座標で保存する方法が考えられる。また動作領域が小領域に分けられるので 、二次元座標上でも動作領域が小領域に分割されている。小領域には、制御点の組 を作るために付番されている。外力データ S12としては、小領域の制御点に力かる外 力三次元ベクトルと小領域の番号、動作領域と同じ二次元座標上の制御点の位置が 保存される。なお、動作領域や小領域は領域全体を送る必要はなぐその輪郭だけ でもよレ、。伝送の仕方としては、単純にそのまま伝送しても良いし、可逆符号化を行 つてから伝送し、受信側で復号することも可能である。復号化装置 73へは、外力デ ータ S 12とその動作領域 S 13を統合した外力情報 S30として送られる。
[0123] 伝送装置 72の機能として、非対称な表情動作の作成時の処理がある。非対称な表 情動作とは、符号化側で複数の表情動作を作り、伝送装置 72がそれらを同時に復 号化装置 73に送り、復号ィ匕装置 73で複数の表情動作を混合させた表情動作を作る ことである。この場合、複数の表情動作のための外力情報 S30の情報を蓄積しておく 必要がある。
[0124] 復号化装置 73は、図 26に示される第 8実施例の顔動作復号化装置で実現するこ とができる。つまり、復号化装置 73は、図 26の外力復号部 30および表情作成部 31 を備える処理装置 CNT51、記憶装置 M53、表示装置 DPYおよび入力装置 KEY で構成することができる。従って、復号化装置 73の動作は実施例 8の顔動作復号ィ匕 装置の動作と同じである。
[0125] 上記の説明では、符号化装置 71として図 25に示される第 7実施例の顔動作符号 化装置を用い、復号ィ匕装置 73として図 26に示される第 8実施例の顔動作複号化装 置を用いる。しかしながら、符号化装置 71として図 18に示される第 4実施例の顔動作 符号化装置を用い、復号化装置 73として図 23に示される第 5実施例の顔動作復号 化装置を用いられる顔動作符号復号ィヒ装置の実施例も考えられる。
[0126] 図 29は本発明の第 11実施例による顔動作符号復号ィ匕装置のブロック図であり、或 る人物 Aの無表情時と表情動作時の三次元データの組から別の人物 Bの無表情顔 画像に表情動作を付与する。つまり、本実施例の顔動作符号復号化装置では、図 2 8に示される第 10実施例の顔動作符号復号化装置における復号化装置の入力であ る無表情顔三次元データ S 300が無表情顔画像 S 301に置換され、出力の表情顔三 次元データ S32が表情顔画像 S32に置換されている。
[0127] 本実施例の顔動作符号復号化装置は、符号化装置 81、伝送装置 82、復号化装 置 83を備えており、伝送装置 82と復号化装置 83とは通信路 84によって通信可能に 接続されている。また、復号化装置 81の入力データとなる人物 Aの無表情顔三次元 データ S 100および人物 Aの表情動作顔三次元データ S 101を記憶する記憶装置 M 81、複号化装置 81で生成された表情動作の外力データ S12および表情動作の動 作領域 S13を保存する記憶装置 M82、伝送装置 82が表情動作の外力データ S12 および動作領域 S13を統合して作成した表情動作の外力情報 S30を一時的に保存 する記憶装置 M83、人物 Bの無表情顔画像 S301を記憶する記憶装置 M84、無表 情顔の三次元モデル S302を記憶する記憶装置 M85、通信路 84を通じて伝送装置 82から送られてくる表情動作の外力情報 S30と記憶装置 M84に記憶された人物 B の無表情顔画像 S301と記憶装置 M85に記憶された無表情顔の三次元モデル S30 2とに基づいて復号ィ匕装置 83で生成された人物 Bの表情顔画像 S33を保存する記 憶装置 M86を備えている。
[0128] 符号化装置 81および伝送装置 82は、図 28に示される第 10実施例の符号化装置 71および伝送装置 72と同じである。従って符号化装置 81は、図 25に示される第 7 実施例の顔動作符号化装置で実現することができる。他方、複号化装置 83は、図 2 7に示される第 9実施例の顔動作復号化装置で実現することができる。つまり、復号 化装置 83は、図 27の顔画像三次元化部 32、外力復号部 30および表情画像作成 部 33を備える処理装置 CNT61、記憶装置 M63 M65、表示装置 DPYおよび入 力装置 KEYで構成することができる。従って、複号化装置 83の動作は実施例 9の顔 動作複号化装置の動作と同じである。
[0129] 上記の説明では、符号化装置 81として図 25に示される第 7実施例の顔動作符号 化装置が用いられ、復号ィ匕装置 83として図 27に示される第 9実施例の顔動作復号 化装置が用いられる。し力しながら、符号化装置 81として図 18に示される第 4実施例 の顔動作符号ィ匕装置が用いられ、復号化装置 83として図 24に示される第 6実施例 の顔動作復号化装置が用いられる顔動作符号復号化装置も考えられる。
[0130] なお、第 10実施例は、無表情顔三次元データ S300が入力され、表情動作顔の三 次元データ S32が出力される復号ィ匕装置 73を備え、第 11実施例は、無表情顔画像 S301が入力され、表情動作顔画像 S33が出力される復号化装置 83を備えている。 しかしながら、他の例として、無表情顔三次元データ S300が入力され、表情動作顔 画像 S33が出力される復号化装置を備える顔動作符号復号化装置や、無表情顔画 像 S301が入力され、表情動作顔の三次元データ S32が出力される複号化装置を備 える顔動作符号復号ィヒ装置も考えられる。
[0131] 前述した実施例では、コンピュータグラフィックス技術を用いて顔画像や顔三次元 データを変形することで顔に表情が付与された。し力 ながら、本実施例は、ロボット の頭部に可撓性を有する仮面が装着され、その仮面の形状を変形することにより顔 に表情が与えられる。図 30は、ロボットの頭部に内蔵される制御機器の構成例を示 す。図 30において、 1300はロボットの頭部に装着された仮面の断面を示す。仮面 1 300の裏面には、各動作領域における各制御点毎に、三次元ァクチユエータ 1301 の可動片 1302の端部 1303が固定されており、その端部 1303は、初期状態では無 表情時の位置になるように設定されている。各三次元ァクチユエータ 1301は、制御 装置 1304と信号線 1305で接続されており、制御装置 1304から信号線 1305を通じ て与えられる移動位置信号に応じて可動片 1302の端部 1303の XYZ座標位置が変 更される。可動片 1302の端部 1303は仮面の裏面の制御点に固定されているので、 端部 1303の位置が移動すると、仮面 1300の各制御点がその周辺部分と一体となつ て移動し、仮面が変形して所望の表情が表出される。この場合、各制御点の周囲の 領域は各制御点に引きずられて移動するので、隣接小領域間の境界部分の平滑化 および動作領域と未動作領域の境界部分の平滑化は、特に必要はなレ、。
[0132] 各制御点の移動後の XYZ座標位置は、記憶装置 1306に記憶されている。この記 憶装置 1306に記憶される各制御点の XYZ座標位置の算出は、前述の第 1実施例、 第 5実施例、第 6実施例、第 8実施例、第 9実施例と同様に行われる。つまり、記憶装 置 1306は、図 2に示される第 1実施例における記憶装置 M5、図 23の第 5実施例に おける記憶装置 M25、図 24に示される第 6実施例における記憶装置 M35、図 26に 示される第 8実施例における記憶装置 M53、図 27に示される第 9実施例における記 憶装置 M65に相当する。なお、制御装置 1304はコンピュータと制御装置用プロダラ ムとで実現することが可能である。
[0133] 以上本発明の実施例について説明されたが、本発明は以上の実施例にのみ限定 されず、その他各種の付加変更が可能である。例えば、経時的な形態の変化を伴う 物体として人間の顔やロボットの顔を例にした力 犬や猫の顔など経時的な形態の変 化を伴う任意の物体に対して本発明は適用可能である。

Claims

請求の範囲
[1] 形態変化前の物体の形態を表わす変化前形態データと前記形態変化後の前記物 体の形態を表わす変化後形態データとの間の差分データを計算する計算部と、 前記変化前形態データと、前記差分データとに基づいて、前記物体の前記形態変 化の生じた動作領域と、前記形態変化のために前記動作領域に加えられる外力とを 決定する決定部と
を具備する形態変形符号化装置。
[2] 請求項 1記載の形態変形符号化装置において、
前記計算部は、
3次元モデルに基づいて前記変化前形態データと前記変化後形態データを変化 前形態モデルデータと変化後形態モデルデータに変換する変換部と、
前記変化前形態モデルデータと前記変化後形態モデルデータとの差から前記差 分データを計算する差分計算部と
を具備する形態変形符号化装置。
[3] 請求項 2記載の形態変形符号化装置において、
前記モデルは、 3次元ポリゴンメッシュモデルであり、前記変化前形態データと前記 変化後形態データは 3次元データである形態変形符号化装置。
[4] 請求項 1乃至 3のいずれかに記載の形態変形符号化装置において、
前記動作領域は、複数の小領域を含み、前記複数の小領域の各々は複数の制御 点を含み、
前記外力は、前記複数の小領域の各々の物理モデル構造に基づいて、前記形態 変化の前後で前記複数の小領域を独立に変化させるのに必要な外力として計算さ れる形態変形符号化装置。
[5] 請求項 4記載の形態変形符号化装置において、
前記物理モデル構造として、制御点どうしがパネとダンパーで結合された物理モデ ル構造が用いられる形態変形符号化装置。
[6] 請求項 4又は 5に記載の形態変形符号化装置において、
前記複数の小領域の全てにぉレ、て、前記制御点の個数および前記物理モデル構 造が同じである形態変形符号化装置。
[7] 請求項 1乃至 6のいずれかに記載の形態変形符号化装置において、
前記物体は人の顔を含み、前記形態変化前の物体の形態とは無表情な顔の状態 を示し、前記形態変化後の物体の形態とは表情が表出された顔の状態を示す形態 変形符号化装置。
[8] 形態変化前の物体の形態を表わす変化前形態データと、形態変化に対応する動 作領域に加えられる外力の情報とに基づいて、前記動作領域内の制御点の移動位 置を決定する復号部と、前記動作領域は、複数の小領域を含み、前記複数の小領 域の各々は複数の制御点を含み、前記複数の小領域の各々の前記制御点の移動 位置は、前記複数の小領域単位で物理モデルを用いて決定され、
前記変化前形態データと前記複数の制御点の各々の移動位置とから前記形態変 化後の前記物体の形態を表わす変化後形態データを生成する形態生成部と を具備する形態変形復号化装置。
[9] 請求項 8に記載の形態変形復号化装置において、
前記変化前形態データは 3次元データであり、
前記復号部は、
前記形態変化前の前記物体の形態の 3次元モデルと前記変化前形態データとに 基づいて変化前形態モデルデータを生成するモデルデータ生成部と、
前記外力情報に基づいて前記変化前形態モデルデータから前記動作領域内の制 御点の各々の移動位置を決定する移動量計算部と
を具備する形態変形復号化装置。
[10] 請求項 8に記載の形態変形複号化装置において、
前記変化前形態データは 3次元データであり、
前記復号部は、
3次元ポリゴンメッシュモデルと前記変化前形態データとに基づいて変化前形態メ ッシュモデルデータを生成するモメッシュデルデータ生成部と、
前記外力情報に基づいて前記変化前形態メッシュモデルデータから前記動作領 域内の制御点の各々の移動位置を決定する移動量計算部と を具備する形態変形復号化装置。
[11] 請求項 8乃至 10のいずれかに記載の形態変形復号化装置において、
前記複数の小領域の各々におレ、て、前記小領域に含まれる制御点以外の非制御 点の移動位置をその非制御点の近傍の前記制御点の移動位置から計算する動作 内揷部
を更に具備する形態変形復号化装置。
[12] 請求項 8乃至 11のいずれかに記載の形態変形復号化装置において、
前記形態生成部は、
前記変化前形態データと前記複数の制御点の各々の移動位置とから前記複数の 小領域の単位で前記形態変化後の前記物体の形態を生成する形態変形復号化装 置。
[13] 請求項 12に記載の形態変形複号化装置において、
前記形態変化後の前記複数の小領域のうちの隣接するものの境界部分に生じる不 連続箇所を平滑化する隣接小領域調整部
を更に具備する形態変形復号化装置。
[14] 請求項 12又は 13に記載の形態変形復号化装置において、
前記形態変化後の前記動作領域とその周囲の未動作領域との境界部分に生じる 不連続箇所を平滑化する未動作領域調整部
を更に具備する形態変形復号化装置。
[15] 請求項 8乃至 14の何れかに記載の形態変形復号化装置において、
前記複数の小領域の各々の物理モデルでは、前記制御点がパネとダンパーで結 合されてレ、る形態変形複号化装置。
[16] 請求項 8乃至 15の何れかに記載の形態変形複号化装置において、
前記物体は人の顔を含み、前記形態変化前の形態は無表情な顔を示し、前記形 態変化後の形態は、表情が表出された顔を示す形態変形複号化装置。
[17] 請求項 8乃至 16の何れかに記載の形態変形複号化装置において、
前記変化後形態データに基づいて、可撓性を有する前記物体における前記動作 領域を駆動する三次元ァクチユエータ群 を更に具備する形態変形復号化装置。
[18] 請求項 1乃至 7の何れかに記載された形態変形符号化装置と、
請求項 8乃至 17の何れかに記載された形態変形復号化装置と、
前記形態変化符号化装で生成された前記動作領域と前記外力情報を通信路を通 じて前記形態変形複号化装置へ伝送する伝送装置と
を具備する形態変形符号複号化装置。
[19] 形態変化前の物体の形態を表わす変化前形態データと前記形態変化後の前記物 体の形態を表わす変化後形態データとの間の差分データを計算するステップと、 前記変化前形態データと、前記差分データとに基づいて、前記物体の前記形態変 化の生じた動作領域と、前記形態変化のために前記動作領域に加えられる外力とを 決定するステップと
を具備する形態変形符号化方法。
[20] 請求項 19記載の形態変形符号化方法において、
前記計算ステップは、
3次元モデルに基づいて前記変化前形態データと前記変化後形態データを変化 前形態モデルデータと変化後形態モデルデータに変換するステップと、
前記変化前形態モデルデータと前記変化後形態モデルデータとの差から前記差 分データを計算するステップと
を具備する形態変形符号化方法。
[21] 請求項 20記載の形態変形符号化方法において、
前記モデルは、 3次元ポリゴンメッシュモデルであり、前記変化前形態データと前記 変化後形態データは 3次元データである形態変形符号化方法。
[22] 請求項 19乃至 21のいずれかに記載の形態変形符号化方法において、
前記動作領域は、複数の小領域を含み、前記複数の小領域の各々は複数の制御 点を含み、
前記外力は、前記複数の小領域の各々の物理モデル構造に基づいて、前記形態 変化の前後で前記複数の小領域を独立に変化させるのに必要な外力として計算さ れる形態変形符号化方法。
[23] 請求項 22記載の形態変形符号化方法において、
前記物理モデル構造として、制御点どうしがパネとダンパーで結合された物理モデ ル構造が用いられる形態変形符号化方法。
[24] 請求項 22又は 23に記載の形態変形符号化方法において、
前記複数の小領域の全てにぉレ、て、前記制御点の個数および前記物理モデル構 造が同じである形態変形符号化方法。
[25] 請求項 19乃至 24のいずれかに記載の形態変形符号化方法において、
前記物体は人の顔を含み、前記形態変化前の物体の形態とは無表情な顔の状態 を示し、前記形態変化後の物体の形態とは表情が表出された顔の状態を示す形態 変形符号化方法。
[26] 形態変化前の物体の形態を表わす変化前形態データと、形態変化に対応する動 作領域に加えられる外力の情報とに基づいて、前記動作領域内の制御点の移動位 置を決定するステップと、前記動作領域は、複数の小領域を含み、前記複数の小領 域の各々は複数の制御点を含み、前記複数の小領域の各々の前記制御点の移動 位置は、前記複数の小領域単位で物理モデルを用いて決定され、
前記変化前形態データと前記複数の制御点の各々の移動位置とから前記形態変 化後の前記物体の形態を表わす変化後形態データを生成するステップと を具備する形態変形復号化方法。
[27] 請求項 26に記載の形態変形復号化方法において、
前記変化前形態データは 3次元データであり、
前記移動位置を決定するステップは、
前記形態変化前の前記物体の形態の 3次元モデルと前記変化前形態データとに 基づいて変化前形態モデルデータを生成するステップと、
前記外力情報に基づいて前記変化前形態モデルデータから前記動作領域内の制 御点の各々の移動位置を決定するステップと
を具備する形態変形複号化方法。
[28] 請求項 26に記載の形態変形複号化方法において、
前記変化前形態データは 3次元データであり、 前記移動位置を決定するステップは、
3次元ポリゴンメッシュモデルと前記変化前形態データとに基づいて変化前形態メ ッシュモデルデータを生成するステップと、
前記外力情報に基づいて前記変化前形態メッシュモデルデータから前記動作領 域内の制御点の各々の移動位置を決定するステップと
を具備する形態変形複号化方法。
[29] 請求項 26至 28のいずれかに記載の形態変形復号化方法において、
前記複数の小領域の各々において、前記小領域に含まれる制御点以外の非制御 点の移動位置をその非制御点の近傍の前記制御点の移動位置から計算するステツ プ
を更に具備する形態変形復号化方法。
[30] 請求項 26乃至 29のいずれかに記載の形態変形復号化方法において、
前記変化後形態データを生成するステップは、
前記変化前形態データと前記複数の制御点の各々の移動位置とから前記複数の 小領域の単位で前記形態変化後の前記物体の形態を生成する形態変形復号化方 法。
[31] 請求項 30に記載の形態変形復号化方法において、
前記形態変化後の前記複数の小領域のうちの隣接するものの境界部分に生じる不 連続箇所を平滑化するステップ
を更に具備する形態変形復号化方法。
[32] 請求項 30又は 31に記載の形態変形復号ィ匕方法において、
前記形態変化後の前記動作領域とその周囲の未動作領域との境界部分に生じる 不連続箇所を平滑化するステップ
を更に具備する形態変形復号化方法。
[33] 請求項 26乃至 32の何れかに記載の形態変形複号化方法にぉレ、て、
前記複数の小領域の各々の物理モデルでは、前記制御点がパネとダンパーで結 合されてレ、る形態変形複号化方法。
[34] 請求項 26乃至 33の何れかに記載の形態変形複号化方法において、 前記物体は人の顔を含み、前記形態変化前の形態は無表情な顔を示し、前記形 態変化後の形態は、表情が表出された顔を示す形態変形復号化方法。
[35] 請求項 26乃至 34の何れかに記載の形態変形復号化方法にぉレ、て、
前記物体はロボットであり、
前記変化後形態データに基づいて、可撓性を有する前記物体における前記動作 領域を駆動するステップ
を更に具備する形態変形復号化方法。
[36] 請求項 19乃至 25の何れかに記載された形態変形符号ィ匕方法により前記動作領 域の情報と、前記外力の情報を生成するステップと、
前記動作領域の情報と前記外力情報を通信路を通じて伝送するステップと 請求項 26乃至 35の何れかに記載された形態変形復号ィ匕方法により、前記伝送さ れた動作領域の情報と、前記伝送された外力の情報から前記物体の形態を表わす 変化後形態データを生成するステップ
を具備する形態変形符号復号化方法。
[37] 形態変化前の物体の形態を表わす変化前形態データと前記形態変化後の前記物 体の形態を表わす変化後形態データとの間の差分データを計算するステップと、 前記変化前形態データと、前記差分データとに基づいて、前記物体の前記形態変 化の生じた動作領域と、前記形態変化のために前記動作領域に加えられる外力とを 決定するステップと
を具備する形態変形符号化方法を実現するための、計算機読み取り可能なソフトゥ エアプロダクト。
[38] 請求項 37記載のソフトウェアプロダクトにおいて、
前記計算ステップは、
3次元モデルに基づいて前記変化前形態データと前記変化後形態データを変化 前形態モデルデータと変化後形態モデルデータに変換するステップと、
前記変化前形態モデルデータと前記変化後形態モデルデータとの差から前記差 分データを計算するステップと
を具備する計算機読み取り可能なソフトウェアプロダクト。
[39] 請求項 38記載のソフトウェアプロダクトにおいて、
前記モデルは、 3次元ポリゴンメッシュモデルであり、前記変化前形態データと前記 変化後形態データは 3次元データである計算機読み取り可能なソフトウェアプロダク 卜。
[40] 請求項 37乃至 39のいずれかに記載のソフトウェアプロダクトにおいて、
前記動作領域は、複数の小領域を含み、前記複数の小領域の各々は複数の制御 点を含み、
前記外力は、前記複数の小領域の各々の物理モデル構造に基づいて、前記形態 変化の前後で前記複数の小領域を独立に変化させるのに必要な外力として計算さ れる計算機読み取り可能なソフトウェアプロダクト。
[41] 請求項 40記載のソフトウェアプロダクトにおいて、
前記物理モデル構造として、制御点どうしがパネとダンパーで結合された物理モデ ル構造が用いられる計算機読み取り可能なソフトウェアプロダクト。
[42] 請求項 40又は 41に記載のソフトウェアプロダクトにおいて、
前記複数の小領域の全てにぉレ、て、前記制御点の個数および前記物理モデル構 造が同じである計算機読み取り可能なソフトウェアプロダクト。
[43] 請求項 37乃至 42のいずれかに記載のソフトウェアプロダクトにおいて、
前記物体は人の顔を含み、前記形態変化前の物体の形態とは無表情な顔の状態 を示し、前記形態変化後の物体の形態とは表情が表出された顔の状態を示す計算 機読み取り可能なソフトウェアプロダクト。
[44] 形態変化前の物体の形態を表わす変化前形態データと、形態変化に対応する動 作領域に加えられる外力の情報とに基づいて、前記動作領域内の制御点の移動位 置を決定するステップと、前記動作領域は、複数の小領域を含み、前記複数の小領 域の各々は複数の制御点を含み、前記複数の小領域の各々の前記制御点の移動 位置は、前記複数の小領域単位で物理モデルを用いて決定され、
前記変化前形態データと前記複数の制御点の各々の移動位置とから前記形態変 化後の前記物体の形態を表わす変化後形態データを生成するステップと を具備する形態変形複号化方法を実現するための、計算機読み取り可能なソフトゥ エアプロダクト。
[45] 請求項 44に記載のソフトウェアプロダクトにおいて、
前記変化前形態データは 3次元データであり、
前記移動位置を決定するステップは、
前記形態変化前の前記物体の形態の 3次元モデルと前記変化前形態データとに 基づいて変化前形態モデルデータを生成するステップと、
前記外力情報に基づいて前記変化前形態モデルデータから前記動作領域内の制 御点の各々の移動位置を決定するステップと
を具備する計算機読み取り可能なソフトウェアプロダクト。
[46] 請求項 44に記載のソフトウェアプロダクトにおいて、
前記変化前形態データは 3次元データであり、
前記移動位置を決定するステップは、
3次元ポリゴンメッシュモデルと前記変化前形態データとに基づいて変化前形態メ ッシュモデルデータを生成するステップと、
前記外力情報に基づいて前記変化前形態メッシュモデルデータから前記動作領 域内の制御点の各々の移動位置を決定するステップと
を具備する計算機読み取り可能なソフトウェアプロダクト。
[47] 請求項 44乃至 46のいずれかに記載のソフトウェアプロダクトにおいて、
前記複数の小領域の各々におレ、て、前記小領域に含まれる制御点以外の非制御 点の移動位置をその非制御点の近傍の前記制御点の移動位置から計算するステツ プ
を更に具備する計算機読み取り可能なソフトウェアプロダクト。
[48] 請求項 44乃至 47のいずれかに記載のソフトウェアプロダクトにおいて、
前記変化後形態データを生成するステップは、
前記変化前形態データと前記複数の制御点の各々の移動位置とから前記複数の 小領域の単位で前記形態変化後の前記物体の形態を生成する計算機読み取り可 能なソフトウェアプロダクト。
[49] 請求項 48に記載のソフトウェアプロダクトにおいて、 前記形態変化後の前記複数の小領域のうちの隣接するものの境界部分に生じる不 連続箇所を平滑化するステップ
を更に具備する計算機読み取り可能なソフトウェアプロダクト。
[50] 請求項 48又は 49に記載のソフトウェアプロダクトにおいて、
前記形態変化後の前記動作領域とその周囲の未動作領域との境界部分に生じる 不連続箇所を平滑化するステップ
を更に具備する計算機読み取り可能なソフトウェアプロダクト。
[51] 請求項 44乃至 50の何れかに記載のソフトウェアプロダクトにおいて、
前記複数の小領域の各々の物理モデルでは、前記制御点がパネとダンパーで結 合されている計算機読み取り可能なソフトウェアプロダクト。
[52] 請求項 44乃至 51の何れかに記載のソフトウェアプロダクトにおいて、
前記物体は人の顔を含み、前記形態変化前の形態は無表情な顔を示し、前記形 態変化後の形態は、表情が表出された顔を示す計算機読み取り可能なソフトウェア プロダクト。
[53] 請求項 44乃至 52の何れかに記載のソフトウェアプロダクトにおいて、
前記物体はロボットであり、
前記変化後形態データに基づいて、可撓性を有する前記物体における前記動作 領域を駆動するステップ
を更に具備する計算機読み取り可能なソフトウェアプロダクト。
PCT/JP2004/012181 2003-09-03 2004-08-25 形態変形装置、物体動作符号化装置および物体動作復号化装置 WO2005024728A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US10/570,560 US7668401B2 (en) 2003-09-03 2004-08-25 Form changing device, object action encoding device, and object action decoding device
EP04772142A EP1669931A1 (en) 2003-09-03 2004-08-25 Form changing device, object action encoding device, and object action decoding device
JP2005513622A JPWO2005024728A1 (ja) 2003-09-03 2004-08-25 形態変形装置、物体動作符号化装置および物体動作復号化装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003311072 2003-09-03
JP2003-311072 2003-09-03

Publications (1)

Publication Number Publication Date
WO2005024728A1 true WO2005024728A1 (ja) 2005-03-17

Family

ID=34269688

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2004/012181 WO2005024728A1 (ja) 2003-09-03 2004-08-25 形態変形装置、物体動作符号化装置および物体動作復号化装置

Country Status (6)

Country Link
US (1) US7668401B2 (ja)
EP (1) EP1669931A1 (ja)
JP (1) JPWO2005024728A1 (ja)
KR (1) KR100891885B1 (ja)
CN (1) CN1846234A (ja)
WO (1) WO2005024728A1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009545083A (ja) * 2006-07-28 2009-12-17 ソニー株式会社 モーションキャプチャにおけるfacs(顔の表情符号化システム)クリーニング
JP2009545084A (ja) * 2006-07-28 2009-12-17 ソニー株式会社 モーションキャプチャにおけるfacs(顔の表情符号化システム)解決法
CN101296431B (zh) * 2007-04-28 2012-10-03 北京三星通信技术研究有限公司 外形控制装置和方法及应用该装置和方法的便携式终端
JP2014063276A (ja) * 2012-09-20 2014-04-10 Casio Comput Co Ltd 情報処理装置、情報処理方法、及びプログラム
JP2016091129A (ja) * 2014-10-30 2016-05-23 株式会社ソニー・コンピュータエンタテインメント 画像処理装置、画像処理方法、画像処理プログラム
JP2017037553A (ja) * 2015-08-12 2017-02-16 国立研究開発法人情報通信研究機構 運動解析装置および運動解析方法
WO2017217191A1 (ja) * 2016-06-14 2017-12-21 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 三次元データ符号化方法、三次元データ復号方法、三次元データ符号化装置及び三次元データ復号装置
WO2018016168A1 (ja) * 2016-07-19 2018-01-25 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 三次元データ作成方法、三次元データ送信方法、三次元データ作成装置及び三次元データ送信装置

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1653392A1 (en) * 2004-12-10 2006-05-03 Agilent Technologies Inc Peak pattern evaluation using spring model
JP2008017042A (ja) * 2006-07-04 2008-01-24 Sony Corp 情報処理装置および方法、並びにプログラム
US7821510B2 (en) * 2007-04-13 2010-10-26 International Business Machines Corporation Dynamic conference table display system
CN101815562A (zh) * 2007-09-19 2010-08-25 戴维·阿龙·贝内特 能够变形的机器人表面
US20090189916A1 (en) * 2008-01-25 2009-07-30 Chou-Liang Tsai Image warping method
TWI416360B (zh) * 2008-09-19 2013-11-21 Hon Hai Prec Ind Co Ltd 特徵元素擬合方法及其電腦系統
CN101876536B (zh) * 2009-04-29 2012-09-19 鸿富锦精密工业(深圳)有限公司 三维色阶比对动态分析方法
TWI426406B (zh) * 2009-05-15 2014-02-11 Hon Hai Prec Ind Co Ltd 三維色階比對動態分析方法
WO2011027534A1 (ja) * 2009-09-04 2011-03-10 パナソニック株式会社 画像生成システム、画像生成方法、コンピュータプログラムおよびコンピュータプログラムを記録した記録媒体
WO2012009719A2 (en) * 2010-07-16 2012-01-19 University Of South Florida Shape-shifting surfaces
US8402711B2 (en) 2010-07-16 2013-03-26 University Of South Florida Multistable shape-shifting surfaces
JP5821610B2 (ja) * 2011-12-20 2015-11-24 富士通株式会社 情報処理装置、情報処理方法及びプログラム
US9442638B2 (en) * 2013-08-22 2016-09-13 Sap Se Display of data on a device
JP6382050B2 (ja) * 2014-09-29 2018-08-29 キヤノンメディカルシステムズ株式会社 医用画像診断装置、画像処理装置、画像処理方法及び画像処理プログラム
JP5927270B2 (ja) * 2014-11-06 2016-06-01 ファナック株式会社 ロボットシミュレーション装置
US9747573B2 (en) 2015-03-23 2017-08-29 Avatar Merger Sub II, LLC Emotion recognition for workforce analytics
US9693695B1 (en) * 2016-09-23 2017-07-04 International Business Machines Corporation Detecting oral temperature using thermal camera
DE102018215596B3 (de) 2018-09-13 2019-10-17 Audi Ag Anzeigevorrichtung für ein Kraftfahrzeug, Verfahren zum Betreiben einer Anzeigevorrichtung sowie Kraftfahrzeug
RU2756780C1 (ru) * 2020-04-21 2021-10-05 ООО "Ай Ти Ви групп" Система и способ формирования отчетов на основании анализа местоположения и взаимодействия сотрудников и посетителей
WO2022197685A1 (en) * 2021-03-15 2022-09-22 Massachusetts Institute Of Technology Discrete macroscopic metamaterial systems
CN114913278A (zh) * 2021-06-30 2022-08-16 完美世界(北京)软件科技发展有限公司 表情模型的生成方法及装置、存储介质、计算机设备

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04270470A (ja) * 1990-12-25 1992-09-25 Kongouzen Souhonzan Shiyourinji アニメーション作成方法
JPH08297751A (ja) * 1995-04-27 1996-11-12 Hitachi Ltd 三次元モデルの作成方法および装置
JP2002216161A (ja) * 2001-01-22 2002-08-02 Minolta Co Ltd 画像生成装置
JP2002304638A (ja) * 2001-04-03 2002-10-18 Atr Ningen Joho Tsushin Kenkyusho:Kk 表情アニメーション生成装置および表情アニメーション生成方法
JP2003016475A (ja) * 2001-07-04 2003-01-17 Oki Electric Ind Co Ltd 画像コミュニケーション機能付き情報端末装置および画像配信システム
JP2003196678A (ja) * 2001-12-21 2003-07-11 Minolta Co Ltd 3次元モデルシステムおよびコンピュータプログラム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0374777A (ja) 1989-08-17 1991-03-29 Graphic Commun Technol:Kk 顔画像合成装置
US7006881B1 (en) * 1991-12-23 2006-02-28 Steven Hoffberg Media recording device with remote graphic user interface
JP2573126B2 (ja) 1992-06-22 1997-01-22 正重 古川 表情のコード化及び情緒の判別装置
JP2648682B2 (ja) 1992-07-17 1997-09-03 正重 古川 表情要素コードの再生表示及び情緒・表情の加工・発生装置
JP2802725B2 (ja) 1994-09-21 1998-09-24 株式会社エイ・ティ・アール通信システム研究所 表情再現装置および表情再現に用いられるマトリックスの算出方法
JPH08305878A (ja) 1995-05-09 1996-11-22 Casio Comput Co Ltd 顔画像作成装置
US7239908B1 (en) * 1998-09-14 2007-07-03 The Board Of Trustees Of The Leland Stanford Junior University Assessing the condition of a joint and devising treatment
KR100317137B1 (ko) 1999-01-19 2001-12-22 윤덕용 얼굴 표정 애니메이션 방법
US6859565B2 (en) * 2001-04-11 2005-02-22 Hewlett-Packard Development Company, L.P. Method and apparatus for the removal of flash artifacts
JP2002329214A (ja) 2001-04-27 2002-11-15 Mitsubishi Electric Corp 表情合成方法及び表情合成装置
US7180074B1 (en) * 2001-06-27 2007-02-20 Crosetto Dario B Method and apparatus for whole-body, three-dimensional, dynamic PET/CT examination
JP4270470B1 (ja) 2007-12-07 2009-06-03 電気化学工業株式会社 耐火被覆材、該耐火被覆材の製造方法、及び前記耐火被覆材を用いた耐火被覆方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04270470A (ja) * 1990-12-25 1992-09-25 Kongouzen Souhonzan Shiyourinji アニメーション作成方法
JPH08297751A (ja) * 1995-04-27 1996-11-12 Hitachi Ltd 三次元モデルの作成方法および装置
JP2002216161A (ja) * 2001-01-22 2002-08-02 Minolta Co Ltd 画像生成装置
JP2002304638A (ja) * 2001-04-03 2002-10-18 Atr Ningen Joho Tsushin Kenkyusho:Kk 表情アニメーション生成装置および表情アニメーション生成方法
JP2003016475A (ja) * 2001-07-04 2003-01-17 Oki Electric Ind Co Ltd 画像コミュニケーション機能付き情報端末装置および画像配信システム
JP2003196678A (ja) * 2001-12-21 2003-07-11 Minolta Co Ltd 3次元モデルシステムおよびコンピュータプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
CHOI C.S. ET AL: "Chiteki Gazo Fugoka ni Okeru Tobu no Ugoki to Ganmen no Ugoki Joho no Koseido Suitei", THE INSTITUTE OF ELECTRONICS, INFORMATION AND COMMUNICATION ENGINEERS GIJUTSU KENKYU HOKOKU, (PRU90-68 TO 80 PATTERN NINSHIKI RIKAI) , THE INSTITUTE OF ELECTRONICS, INFORMATION AND COMMUNICATION ENGINEERS, vol. 90, no. 253, 19 October 1990 (1990-10-19), pages 1 - 8, XP002986215 *

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009545083A (ja) * 2006-07-28 2009-12-17 ソニー株式会社 モーションキャプチャにおけるfacs(顔の表情符号化システム)クリーニング
JP2009545084A (ja) * 2006-07-28 2009-12-17 ソニー株式会社 モーションキャプチャにおけるfacs(顔の表情符号化システム)解決法
CN101296431B (zh) * 2007-04-28 2012-10-03 北京三星通信技术研究有限公司 外形控制装置和方法及应用该装置和方法的便携式终端
JP2014063276A (ja) * 2012-09-20 2014-04-10 Casio Comput Co Ltd 情報処理装置、情報処理方法、及びプログラム
JP2016091129A (ja) * 2014-10-30 2016-05-23 株式会社ソニー・コンピュータエンタテインメント 画像処理装置、画像処理方法、画像処理プログラム
US11138783B2 (en) 2014-10-30 2021-10-05 Sony Interactive Entertainment Inc. Image processing apparatus, image processing method, and image prodessing program for aligning a polygon model with a texture model
JP2017037553A (ja) * 2015-08-12 2017-02-16 国立研究開発法人情報通信研究機構 運動解析装置および運動解析方法
CN109313820A (zh) * 2016-06-14 2019-02-05 松下电器(美国)知识产权公司 三维数据编码方法、解码方法、编码装置、解码装置
JPWO2017217191A1 (ja) * 2016-06-14 2019-04-04 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 三次元データ符号化方法、三次元データ復号方法、三次元データ符号化装置及び三次元データ復号装置
WO2017217191A1 (ja) * 2016-06-14 2017-12-21 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 三次元データ符号化方法、三次元データ復号方法、三次元データ符号化装置及び三次元データ復号装置
CN109313820B (zh) * 2016-06-14 2023-07-04 松下电器(美国)知识产权公司 三维数据编码方法、解码方法、编码装置、解码装置
WO2018016168A1 (ja) * 2016-07-19 2018-01-25 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 三次元データ作成方法、三次元データ送信方法、三次元データ作成装置及び三次元データ送信装置
CN109478338A (zh) * 2016-07-19 2019-03-15 松下电器(美国)知识产权公司 三维数据制作方法、发送方法、制作装置、发送装置
JPWO2018016168A1 (ja) * 2016-07-19 2019-05-09 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 三次元データ作成方法、三次元データ送信方法、三次元データ作成装置及び三次元データ送信装置
US10810786B2 (en) 2016-07-19 2020-10-20 Panasonic Intellectual Property Corporation Of America Three-dimensional data creation method, three-dimensional data transmission method, three-dimensional data creation device, and three-dimensional data transmission device
JP2022171985A (ja) * 2016-07-19 2022-11-11 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 三次元データ作成方法及び三次元データ作成装置
US11710271B2 (en) 2016-07-19 2023-07-25 Panasonic Intellectual Property Corporation Of America Three-dimensional data creation method, three-dimensional data transmission method, three-dimensional data creation device, and three-dimensional data transmission device
JP7538192B2 (ja) 2016-07-19 2024-08-21 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 三次元データ作成方法及び三次元データ作成装置

Also Published As

Publication number Publication date
CN1846234A (zh) 2006-10-11
US20060285758A1 (en) 2006-12-21
JPWO2005024728A1 (ja) 2007-11-08
US7668401B2 (en) 2010-02-23
EP1669931A1 (en) 2006-06-14
KR100891885B1 (ko) 2009-04-03
KR20060054453A (ko) 2006-05-22

Similar Documents

Publication Publication Date Title
WO2005024728A1 (ja) 形態変形装置、物体動作符号化装置および物体動作復号化装置
US10540817B2 (en) System and method for creating a full head 3D morphable model
US7020347B2 (en) System and method for image-based surface detail transfer
US20030184544A1 (en) Modeling human beings by symbol manipulation
US8180613B1 (en) Wrinkles on fabric software
EP3980975B1 (en) Method of inferring microdetail on skin animation
Orvalho et al. Transferring the rig and animations from a character to different face models
KR100942026B1 (ko) 다중 감각 인터페이스에 기반한 가상의 3차원 얼굴메이크업 시스템 및 방법
JPH08297751A (ja) 三次元モデルの作成方法および装置
JP2023505615A (ja) 細かいしわを有する顔メッシュ変形
Thalmann et al. The Making of the Xian terra-cotta Soldiers
JP2723070B2 (ja) 人物像表示によるユーザインタフェース装置
KR20020079268A (ko) 3차원 인체모델에 가상현실공간상의 3차원 콘텐츠를실시간으로 합성하는 시스템 및 방법.
CN117853320B (zh) 一种基于多媒体操控的图像映射方法、系统及存储介质
US20230196702A1 (en) Object Deformation with Bindings and Deformers Interpolated from Key Poses
WO2022176132A1 (ja) 推論モデル構築方法、推論モデル構築装置、プログラム、記録媒体、構成装置及び構成方法
KR20060067242A (ko) 해부 데이터를 이용한 얼굴 애니메이션 생성 시스템 및 그방법
Nedel Simulating virtual humans
Liu et al. Geometry-optimized virtual human head and its applications
KR20240119644A (ko) 디지털 휴먼의 표정 변화에 따라 피부 텍스처를 변화시키기 위한 방법
Karunaratne et al. A new efficient expression generation and automatic cloning method for multimedia actors
KR20240119645A (ko) 디지털 휴먼의 표정 변화에 따라 피부 텍스처를 변화시키기 위한 3차원 그래픽 인터페이스 장치
KR20240022179A (ko) 3d 가상현실 공간에서 실제인물과 가상인물을 실시간 합성하는 시스템 및 그 방법
Zhang Modeling of human faces with parameterized local shape morphing
KR20030070579A (ko) 얼굴 애니메이션을 위한 디에스엠 복원 방법

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200480025317.5

Country of ref document: CN

AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2005513622

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 1020067004562

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 2004772142

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 1020067004562

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 2006285758

Country of ref document: US

Ref document number: 10570560

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 2004772142

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 10570560

Country of ref document: US