WO2005076210A1 - 画像処理方法、画像処理装置及び移動通信端末装置 - Google Patents

画像処理方法、画像処理装置及び移動通信端末装置 Download PDF

Info

Publication number
WO2005076210A1
WO2005076210A1 PCT/JP2005/001753 JP2005001753W WO2005076210A1 WO 2005076210 A1 WO2005076210 A1 WO 2005076210A1 JP 2005001753 W JP2005001753 W JP 2005001753W WO 2005076210 A1 WO2005076210 A1 WO 2005076210A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
information
mask
interest
original
Prior art date
Application number
PCT/JP2005/001753
Other languages
English (en)
French (fr)
Inventor
Mineko Moroto
Akiho Shibata
Takashi Katayama
Junko Asakura
Yusaku Nagai
Original Assignee
Vodafone K.K.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Vodafone K.K. filed Critical Vodafone K.K.
Priority to EP05709805A priority Critical patent/EP1713030A4/en
Priority to JP2005517765A priority patent/JPWO2005076210A1/ja
Publication of WO2005076210A1 publication Critical patent/WO2005076210A1/ja
Priority to US11/498,983 priority patent/US7864198B2/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • H04N1/3871Composing, repositioning or otherwise geometrically modifying originals the composed originals being of different kinds, e.g. low- and high-resolution originals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • H04N1/3872Repositioning or masking

Definitions

  • the present invention relates to an image processing method, an image processing device, and a mobile communication terminal device, and more specifically, an image processing method for creating a composite image in which a mask image is superimposed on an original image, and the image processing method
  • the present invention relates to an image processing apparatus and a mobile communication terminal apparatus including the image processing apparatus.
  • Such image processing techniques include, for example, a face recognition technique that recognizes that a human face image is present in an original image acquired by a digital camera or the like. There is also a face recognition technology for further advancing this face recognition, extracting face shape features, and identifying an individual (see Non-Patent Document 1, Patent Documents 1 and 2, etc.).
  • Non-Patent Document 1 Eyematic Japan Co., Ltd., “Technical Information”, [Search on December 29, 2003], Internet ⁇ URL: http://www.eyematic.co.jp/tech.html>
  • Patent document 1 Patent publication 2003-271958 gazette
  • Patent Document 2 Patent Publication 2003-296735
  • Patent Document 3 Patent Publication 2003-309829
  • the conventional image processing techniques such as image recognition, image authentication, and image tracking described above are very excellent to be applied to moving pictures, and various applications can be considered.
  • image processing technology it is not within the technical scope to process the original image according to the user's own taste and express the inwardness of oneself, etc. with such image processing technology.
  • the heart mark when performing an effect of displaying a heart mark substantially at eye size at the eye position of the face image in the original image including the user's face image, the heart mark is fixed on the display screen. If it is superimposed on the image, it is impossible to display a heart mark at the eye position of the face image in the ever-changing moving image. In addition, regarding the size of the display of the heart mark, which is only at the display position, if the size of the face image in the moving image is not set, the display image becomes strange.
  • the present invention has been made in view of the above-described circumstances, and it is possible to simplify an image in which the effect of the user is applied to the original image, regardless of whether it is a still image or a moving image. Also, it is an object of the present invention to provide an image processing method and an image processing method that can be appropriately created.
  • the present invention provides a mobile communication terminal device capable of transmitting an image in which the effect of the user is appropriately applied to the original image regardless of whether it is a still image or a moving image.
  • the purpose is to
  • the image processing method is an image processing method for processing an image, which specifies a target image area, which is an area of an image to be focused, on an original image, and specifies the target image area in the original image.
  • information of a specific element image is selected in advance corresponding to each of at least one relationship information indicating the relationship between the position and the size with the image of interest in the mask image information file.
  • Element image selection information indicating that, and mask image information including at least one element image information selected by the element image selection information are registered.
  • the “image of interest area” is, for example, an area of the face of the person in the original image including the person's image, etc., and can be identified by image features in the image assumed to be the original image. Area.
  • the target image information extraction step the target image area is identified in the original image, and the target image area in the original image is identified. Extract target image information including information related to position and size.
  • the mask image data creating step a mask image to be displayed superimposed on the original image is created based on the noted image information and the mask image information registered in the mask image information file.
  • the size of the target image area in the original image is determined at a position determined by the information indicating the relationship between the information related to the position of the target image area in the original image and the position of the target image area in the related information included in the mask image information.
  • An image is created. Then, in the synthetic image creation step, for example, on the eye image-containing image including the target image in the target image area such as the face image in the face area at the same position as the original image in the same size.
  • a composite image in which the mask image is superimposed is created.
  • an image according to the user's sense of taste is applied to the image containing the image of interest. Images can be created easily and properly.
  • the image-of-interest containing image can be used as the original image.
  • an effect corresponding to the user's sense of taste can be performed on the original image by selecting the mask image.
  • the mask image information file further includes background image selection information indicating that information of a specific background image has been selected, and the synthetic image creation step is performed.
  • a specific additional display image including the image of interest is extracted from the original image, and the specific additional display image is superimposed on the specific background image at the same position as that of the original image and has the same size as the specific background image.
  • the composite image can be created after making the target image containing image.
  • the composite image creating step first, for example, a specific display image including a target image such as a human image in the case where the target image is a face image is cut out from the original image. Subsequently, the specific display image is superimposed on the background image designated by the background image selection information included in the mask image information file, and a background additional image is created. Then, the above-mentioned mask image is superimposed on the image containing the image of interest with the background added image as the image containing the image of interest. Therefore, an effect according to the user's sense of taste with respect to a specific display image such as a human figure can be given by selecting a mask image and a background image.
  • the information related to the position of the noted image area can include position information of a representative point of the noted image area in the original image.
  • the information indicating the relationship between the position of the image of interest and the position of the image of interest in the relationship information included in the mask image information can be used as the information indicating the relative position with respect to the representative point of the image of interest.
  • Information indicating the relationship with the position of the area can be simplified. In the case where the information indicating the relationship with the position of the image of interest area in the relationship information is the information indicating the relative position to the representative point of the image of interest area, the relative position information is used as the reference image area.
  • the relative position information in the case of having the value of the relative position information according to the ratio between the size of the image of interest in the original image and the size of the object of interest as the reference is It can be converted to a value according to the size. Further, the value of the relative position information is set as a value after being normalized by the size of the image of interest in the original image, and the value of the relative position information is a value according to the size of the image of interest in the original image. You can convert it to
  • the information related to the position of the noted image area may further include inclination information of the eye image area in the original image.
  • the original image By using the tilt information of the image area of interest in, it is possible to create a composite image in which a desired element image is superimposed and displayed at a position according to the tilt of the original image of the image area of interest. Further, the element image to be displayed can be displayed with an inclination according to the inclination of the original image of the noted image area.
  • the tilt information may be one angle information indicating the two-dimensional tilt of the image of interest, or two or three pieces of angle information indicating the three-dimensional tilt of the image of interest. .
  • the relationship In the information, the representative point of the noted image area is set as the origin, and based on the inclination of the noted image area!
  • Coordinate position information in a coordinate system in which the direction of the coordinate axis is determined can be included as display position information of the specific element image.
  • the information indicating the relationship between the target image area and the position of the target image area in the relationship information is the information indicating the relative position with respect to the representative point of the target image area.
  • Coordinate position information t in the coordinate system in which the direction of the coordinate axis is determined based on the inclination can be made simple and easy to handle.
  • the relationship information may include ratio information between the size of the noted image area and the size of the specified element image at the time of display. In this case, even if the size of the target image area changes every moment in the original image, it is possible to create a mask image including an element image of a size that matches the size of the target image area. .
  • the execution time information of each of the element image display determined by the combination of the relation information and the element image selection information corresponding to the relation information is included in the mask image information. It can be further included.
  • each desired element image can be displayed only for the display execution time set to the desired time, and a dynamically changing mask image is created. can do.
  • time-sequentially displaying a plurality of types of element image displays determined by a combination of the relation information and element image selection information corresponding to the relation information.
  • by creating a mask image in accordance with the information on time sequential display designation it is possible to display a plurality of element images on the original image repeatedly in time sequence for each desired time.
  • the mask image information may simultaneously display a plurality of types of element image displays determined by a combination of the relation information and element image selection information corresponding to the relation information. It is possible to further include simultaneous display specification information specifying. In this case, it is possible to create a mask image in which each of a plurality of desired component images is displayed at a desired position, and it is possible to create mask images of various nourishments.
  • the original image can be a moving image.
  • the method further includes a predetermined phenomenon occurrence determining step of determining whether or not a predetermined phenomenon has occurred in the target image area based on the target image information.
  • the mask image data creating step and the composite image data creating step can be started.
  • the mask image data creation step and the composite image creation step are started, so that it is matched to the relevant phenomenon. It is possible to create a mask image that has been rendered, and to create a composite image in which the mask image is superimposed on the original image. For example, when the image of interest is a human face, when the eyelid in the image of interest is closed, it is possible to create a composite image in which tears flow from the position of the eye.
  • An image processing apparatus is an image processing apparatus that processes an image, and identifies a target image area, which is an area of an image to be focused, on an original image, and specifies the target image area in the original image.
  • Attention image for extracting attention image information including information related to the position and size of the attention image region Information extraction means; and at least one indicating the relationship between the position and size of the attention image region Relation information, element image selection information indicating that information of a specific element image has been selected corresponding to each of the relation information, and at least one element image information selected by the element image selection information are included.
  • Storage means for storing a mask image information file in which mask image information is registered; and a mask image displayed superimposed on the original image based on the noted image information and the mask image information
  • a mask image data generation unit for generating data; a composite image in which the mask image is superimposed on an image containing an image of interest including the image of interest in the image of interest in the same position as the original image in the same size;
  • An image processing apparatus comprising:
  • the focused image information extraction unit identifies the focused image area as the original image, and identifies an eye image including information related to the position and size of the focused image area in the original image. Extract information.
  • the mask image data creation means creates a mask image to be displayed superimposed on the original image based on the noted image information and the mask image information registered in the mask image information file.
  • the composite image creation means creates a composite image in which the mask image is superimposed on the target image containing image including the target image in the target image area at the same position as the original image and having the same size.
  • a composite image is created using the image processing method of the present invention. Therefore, according to the image processing apparatus of the present invention, regardless of whether the original image is a still image or a moving image, an image in which an effect according to the user's sense of taste is applied to the image containing the image of interest. It can be created easily and appropriately.
  • the target image-containing image can be used as the original image.
  • an effect according to the user's taste can be performed on the original image by selecting the mask image.
  • the mask image information file further includes background image selection information indicating that information of a specific background image has been selected
  • the composite image creation unit includes the image of interest
  • a specific display image including the background image is extracted from the original image, and a background additional image in which the specific display image is superimposed on the specific background image with the same size and the same position as in the original image is included in the target image.
  • the composite image can be created.
  • the composite image creation means first cuts out the specific display image including the image of interest from the original image. Subsequently, the composite image creation means superimposes the specific display image on the background image specified by the background image selection information included in the mask image information file, and creates a background additional image.
  • the composite image creation means superimposes the above-mentioned mask image on the background additional image. Therefore, it is possible to perform an operation according to the user's sense of taste with respect to the specific display image such as a human image by selecting the mask image and the background image.
  • the image processing apparatus of the present invention can be configured to further include display means for displaying the composite image.
  • display means for displaying the composite image.
  • the creator of the composite image can confirm the composite image created with the effect based on his / her taste.
  • the image processing apparatus may further comprise transmission means for transmitting the composite image data.
  • transmission means for transmitting the composite image data it is possible to transmit to the receiving side a composite image that is created by applying effects based on the taste of the creator of the composite image on the transmitting side. It is possible to notify a composite image that has been created with a presentation based on a sense of taste.
  • the image processing apparatus of the present invention may further include an imaging unit for acquiring the original image.
  • an image acquired by imaging by the imaging means can be used as an original image, and an image in which an effect according to the creator's taste is given to the original image is simply and appropriately created. be able to.
  • the image acquired by the imaging means may be a still image or a moving image.
  • the mobile communication terminal apparatus of the present invention is a mobile communication terminal apparatus provided with the image processing apparatus of the present invention.
  • the composite image created by the image processing apparatus of the present invention can be transmitted to the receiving terminal apparatus, the original image can be used regardless of whether it is a still image or a moving image. It is possible to transmit an image appropriately rendered by the user.
  • an image in which the effect of the user is applied to the original image can be simplified and Suitable It can be created on the fly.
  • the composite image is created using the image processing method of the present invention, it is possible to use the original image regardless of whether it is a still image or a moving image. It is possible to easily and appropriately create an image to which a user's presentation is given.
  • the image processing device of the present invention since the image processing device of the present invention is provided, the effect of the user on the original image can be obtained regardless of whether it is a still image or a moving image. An appropriately applied image can be transmitted.
  • FIG. 1A is a view schematically showing an appearance of a front side of a mobile phone device according to a first embodiment of the present invention.
  • FIG. 1B is a view schematically showing the appearance of the back side of the mobile phone device according to the first embodiment of the present invention.
  • FIG. 2 is a functional block diagram for explaining an internal configuration of the mobile phone device of FIGS. 1A and 1B.
  • FIG. 3 is a functional block diagram for explaining an internal configuration of the mask image processing unit of FIG. 2;
  • FIG. 4A A diagram (part 1) for describing noted image area information.
  • FIG. 4B A diagram (part 2) for describing noted image area information.
  • FIG. 5A is a view for explaining the configuration of the mask image information file of FIG. 2;
  • FIG. 5B is a view for explaining the configuration of the element image file of FIG. 5A.
  • FIG. 6 is a diagram (part 1) illustrating an example of an element image.
  • FIG. 7 A diagram (part 1) showing an example of the contents of the display designation file of FIG. 5A.
  • FIG. 8A is a diagram (part 2) showing an example of the content of the display designation file of FIG. 5A.
  • FIG. 8B A diagram (part 3) showing an example of the content of the display designation file of FIG. 5A.
  • FIG. 9A is a view showing an example of an image of interest.
  • FIG. 9B is a view for explaining an example of a noted image coordinate system in FIG. 9A.
  • FIG. 10A is a diagram showing an example of an original image.
  • FIG. 10B A diagram showing an example of a mask image (part 1).
  • FIG. 11 is a first diagram showing an example of a composite image in the first embodiment.
  • FIG. 12A is a second diagram showing an example of an element image.
  • FIG. 12B is a third diagram showing an example of an element image.
  • FIG. 12C A fourth diagram showing an example of an element image.
  • FIG. 13 is a second drawing showing an example of a mask image.
  • FIG. 14 is a second diagram showing an example of a composite image in the first embodiment.
  • FIG. 15A is a fifth drawing showing an example of an element image.
  • FIG. 15B A diagram (part 6) showing an example of an element image.
  • FIG. 15C is a diagram (No. 7) showing an example of an element image.
  • FIG. 16 A diagram (part 3) showing an example of a mask image.
  • FIG. 17 is a third diagram showing an example of a composite image in the first embodiment.
  • FIG. 18 is a functional block diagram for explaining an internal configuration of a mobile telephone device according to a second embodiment of the present invention.
  • FIG. 19 is a functional block diagram for explaining an internal configuration of the mask image processing unit of FIG. 18;
  • FIG. 20 is a view for explaining the configuration of a mask image information file of FIG. 18;
  • FIG. 21 is a diagram showing an example of the content of the display designation file of FIG. 20.
  • FIG. 22 is a view showing an example of a background image.
  • FIG. 23 is a diagram showing an example of a specific display image.
  • FIG. 24 is a view for explaining a composite image creation operation in the composite image creation unit of FIG. 19;
  • FIG. 1 and FIG. 2 schematically show the configuration of a mobile telephone apparatus 10 which is a mobile communication terminal apparatus in one embodiment.
  • FIG. 1A shows a front view of the appearance of the mobile telephone device 10
  • FIG. 1B shows a rear view of the appearance of the mobile telephone device 10.
  • FIG. 2 shows a functional block configuration of the mobile telephone device 10.
  • FIG. 1A, FIG. IB and FIG. A mobile phone main body 11 having a control unit 21 and the like described later, (b) a numeric keypad for inputting a telephone number to the control unit 21, and various commands for switching operation modes and the like to the control unit 21.
  • An operation unit 12 having a function key, and (c) a display unit 13 having a liquid crystal display device for displaying operation guidance, an operation status, a received message and the like according to a command from the control unit 21 are provided.
  • the mobile phone device 10 also includes (d) a call speaker 14 for reproducing a voice signal sent from the other party during a call, a microphone 15 for inputting voice during a call, and (e) a control unit.
  • a guidance speaker 16 is provided for generating a ring tone and a guidance sound in response to a command from the control unit 21.
  • the mobile telephone device 10 is connected to the (f) transmission / reception unit 22 and includes an antenna 17 for exchanging radio signals with the base station.
  • the mobile phone device 10 captures an image of the operator who operates the operation unit 12 while viewing the display on the display unit 13 (i.e., an imaging optical system for performing imaging in a so-called self-portrait mode) And (h) an imaging optical system 19 for taking an image in which the visual line direction of the operator is a visual field direction, that is, V, for taking an image in a mode of remote shooting.
  • the mobile phone main body 11 (i) comprehensively controls the entire operation of the mobile phone device 10 and performs various data processing, (ii) a base
  • the transmission / reception unit 22 transmits / receives a radio signal to / from a station via the antenna 17, and (iii) a storage unit 23 stores various data.
  • the mobile phone main body 11 emits the light passing through the imaging optical system 18 and the light passing through the imaging optical system 19 toward the imaging device 25 described later according to the control of the control unit 21.
  • a switching optical system 24 and (iv) an imaging element 25 such as a CCD element for capturing an optical image formed on a light receiving surface by light passing through the switching optical system 24 are provided.
  • the imaging device 25 performs an imaging operation under the control of the control unit 21 and notifies the control unit 21 of an imaging result.
  • the control unit 21 includes a basic control unit 29 and a mask image processing unit 30.
  • the basic control unit 29 controls the start and stop of the operation of the mask image processing unit 30, and controls each element disposed outside the control unit 21 and performs image processing for mask image creation described later. Perform other data processing.
  • the mask image processing unit 30 described above includes a focused image information extraction unit 31, a mask image creation unit 32, and a composite image creation unit 33.
  • the noted image information extraction unit 31 Based on the original image data OMD from the image pickup device 25, for example, a target image area such as a face area of a specific person (for example, a user of the mobile phone device 10) in the original image is specified.
  • the target image information WMD including the position information of the representative point, the tilt information of the target image area in the original image, and the size information of the target image area is extracted.
  • each pixel position in the original image area OMR is an original image coordinate system X Y
  • W is represented by a counterclockwise angle.
  • the focused image information extraction unit 31 specifies the focused image area WMR in the original image area OMR
  • the representative point O is used as position information of a representative point of the focused image area WMR. Find the coordinate position O (X, Y) in the original image coordinate system of.
  • the representative point of the area WMR is the position of the center of gravity of the image area of interest WMR, and in the image area of interest obtained by image analysis such as the tip position of the nose in the face image when the image of interest is a face image of a specific person. Characteristic points can be adopted.
  • the focused image information extraction unit 31 obtains an intersection angle ⁇ between the X axis and the X axis (that is, the above-described tilt angle ⁇ ) as tilt information in the original image region OMR of the focused image region WMR.
  • the inclination angle ⁇ is the image area of interest WMR defined in advance as the inclination angle ⁇ S “0”.
  • the X ⁇ coordinate system (the coordinate system of interest) in is to be determined.
  • the focused image information extraction unit 31 obtains a characteristic length related to the focused image area WMR as size information of the focused image area WMR.
  • a characteristic length related to the focused image area WMR as size information of the focused image area WMR.
  • the width of the target image area WMR is taken as the characteristic length (width LX in FIG. 4A).
  • the focused image area WMR on the X axis Note that as the size information of the focused image area WMR, the focused image area WMR on the X axis
  • the maximum width of the image of interest in WMR or the distance between two characteristic points in the image of interest (for example, the distance between the centers of both eyes in the face image when the image of interest is the face of a specific person), Length of X-axis component of or length of Y-axis component of the distance
  • the notable image information extraction unit 31 specifies the notable image region WMR in the original image region OMR as in the case of FIG. 4A described above, and then determines the representative points in the notable image region WMR. Obtain position information, tilt information and size information.
  • the coordinate position O (X, Y) of the representative point O in the original image coordinate system as the position information of the representative point.
  • the width LX of the target image area WMR on the X axis is determined.
  • the mask image creation unit 32 described above is a mask image based on the target image information WMD extracted by the target image information extraction unit 31 and the mask image information MDD stored in the storage unit 23 described above. Create data MMD.
  • the creation of mask image data MMD by the mask image information MDD and the mask image creation unit 32 will be described later.
  • the above-described composite image creation unit 33 creates composite image data SMD in which the mask image is superimposed on the original image based on the original image data OMD and the mask image data MMD.
  • the composite image data SMD created by the composite image creation unit 33 is sent to the basic control unit 29. Be notified.
  • control unit 21 includes a central processing unit (CPU), a digital signal processing unit (DSP), and the like.
  • the basic processing unit 29 and the mask image processing unit 30 configured as programs to be executed by the control unit 21 perform various data processing to realize a mobile phone function including mail transmission / reception processing, and Became action control of other components.
  • the storage unit 23 stores a mask image information file 40.
  • this mask image information file 40 stores (i) a display specification description that specifies how to display the mask image in relation to the target image area in the original image. It is composed of a designated file 41 and (ii) an element image file 42 in which element image data designated by the display designation description in the display designation file 41 is stored!
  • the mask image information file 40 is provided to the mobile phone device 10 via the content provider wireless line, or after the user creates it using a personal computer or the like, via a storage medium or an external interface (not shown). Provided.
  • Element images are stored in the element image file 42 as shown in FIG. 5B.
  • the i-th element image stored in the element image file 42 is hereinafter referred to as an element image EMM.
  • FIG. 5B the case where there are a plurality of element images stored in the element image file 42 is shown.
  • the number of element images stored in the force element image file 42 may be one, There are also two or more cases.
  • As the element image EM for example, there are a heart figure image, a lip figure image and the like.
  • Such an element image EMM is representatively shown for the element image EMM in FIG.
  • the coordinate system specific to the element image that is, the X Y coordinate system having the origin O as the representative point of the element image EMM (the center point of the element image EMM in FIG. 6)
  • Image EMM is an element image EMM of a heart shape, but element images of different shapes and sizes a ii
  • FIG. 7, FIG. 8A and FIG. 8B Is shown. Note that the display specification description in the present embodiment is described in a format according to SMIL (Synchronized Multimedia Integration Language) format!
  • SMIL Synchronized Multimedia Integration Language
  • two positions are fixed at two positions determined according to the position, tilt, and size of the image of interest.
  • the additional image 1 is specified by the description between ⁇ additional image 1 specification> and ⁇ additional image 1 specification end>. That is, as designated by “display position designation”, the image of interest area w
  • Element image EM specified by "element image specification” at coordinate position (X, Y) of target system
  • the additional image 2 is specified by the description between ⁇ additional image 2 specification> and ⁇ additional image 2 specification end>. That is, as designated by “display position designation”, the X and Y coordinates in the case where the size information of the noted image area W MR has a predetermined reference value LX
  • Element image EM specified by "element image specification” at coordinate position (X, Y) of target system
  • 11 1 Element image file 42 stores only the element image EMM as an element image.
  • FIG. 8A display is performed at one position (for example, the position of the mouth when the image of interest is a face image of a specific person) determined according to the position, tilt, and size of the image of interest.
  • the display specification is an example for specifying the display to be displayed by one additional image 1 whose content changes with time. An example is shown as aisle 41.
  • An example is shown as aisle 41.
  • the additional image 1 is specified by the description between ⁇ additional image 1 specification> and ⁇ additional image 1 specification end>. That is, first, the target image area designated by the first “display position designation” of the element image EMM designated by the first “element image designation” is determined in advance.
  • the element image specified by EMM force is the position specified by the second "display position specification"
  • the maximum width in the E axis direction is the length of the ratio R with respect to the size LX of the image area WMR of interest. Also,
  • the element image EMM force time T is passed as specified by 2 “display time designation”
  • the maximum width is the length of ratio R with respect to the size LX of the image area of interest WMR. Also,
  • the element image EMM force time T is passed as specified by 3 “display time designation”
  • the element image EMM, the element image EMM, and the element image EMM are time-sequential
  • element image EMM is displayed in time sequence.
  • element image EMM The display according to the specification mode of the raw image EMM and element image EMM is repeated in time sequence
  • one element image is usually displayed at one position determined in accordance with the position, inclination, and size of the image area of interest, and the position, inclination, and size of the image area of interest are displayed.
  • An example is shown as a display specification file 41 for performing display specification for alternatively displaying two element images different in time sequence at two other positions determined according to. sand
  • an additional image 1 and an additional image 2 designated by ⁇ additional image 1 designation> and ⁇ additional image 2 designation> described between this and ⁇ simultaneous display designation end> Is specified to be displayed simultaneously.
  • the additional image 1 is specified by the description between ⁇ additional image 1 specification> and ⁇ additional image 1 specification end>. That is, as designated by “display position designation”, the image of interest area w
  • Element image EM specified by "element image specification” at coordinate position (X, Y) of target system
  • the additional image 2 is specified by the description between ⁇ additional image 2 specification> and ⁇ additional image 2 specification end>. That is, first, as designated by the first “display position designation”, the size information of the eye image area WMR has a value LX as a predetermined reference.
  • Element image EMM is displayed. Also, as specified by "size specified",
  • the maximum width of the elemental image EMM in the X-axis direction at the time of display is the
  • Element image EMM force time T is displayed over time.
  • the element image EMM at the time of display is specified by “size specification”.
  • the additional image 1 and the additional image 2 are combined to obtain an element image EMM and an element image E.
  • the matrix image creation unit 32 has already read the contents of the mask image information file 40 in the storage unit 23 as mask image information MDD.
  • the original image is assumed to be an image formed on the imaging surface of the imaging device 25 through the imaging optical system 18 and the switching optical system 24.
  • the image of interest WMM is a face image of a specific person as shown in FIG. 9A.
  • the tip position of the nose in the image of interest WMM is taken as the origin O, and the direction connecting both surfaces is taken as the X axis direction,
  • the origin O and the X-axis direction are obtained by image analysis of the image of interest in the original image, Y-axis
  • the direction shall be determined based on the determined X-axis direction.
  • This example is a heart-shaped graphic image shown in FIG. 6 with the positions of both eyes as the display position in FIG. 7 described above and the element image EMM 1S.
  • original image data OMD which is data of an original image OMM captured by the imaging device 25, is notified to the focused image information extraction unit 31.
  • the original image data OMD is simultaneously notified to the composite image creation unit 33 (see FIG. 3).
  • an example of the obtained original image OMM is shown in FIG. 10A.
  • the noted image information extraction unit 31 performs image processing on the notified original image OMM to extract a region of the noted image WMM. Subsequently, the image of interest image information extraction unit 31 analyzes the image of interest WMM, and the nose tip position (X 1, X 2, Y 3) in the image of interest WMM in the original image coordinate system (X Y coordinate system).
  • (Y) is determined as the position of the origin o of the image coordinates of interest (X Y coordinate system), and
  • the information extraction unit 31 obtains the width LX on the X axis of the image of interest WMM. And attention
  • the image information extraction unit 31 sets the position (X, Y) as position information of the target image area, the angle ⁇ ⁇ ⁇ as tilt information of the target image area, and the size of the target image area as the target image information data WMD.
  • the mask image creation unit 32 is notified of the length LX as texture information.
  • the mask image creation unit 32 having received the noted image information data WMD first displays the display position (X, Y) of the element image EMM in the additional image 1 in the XY coordinate system according to the following equation (1) and
  • the mask image creation unit 32 enlarges the element image EMM in the additional image 1 or
  • the scaling factor M of reduction is calculated by the following equation (3).
  • the mask image creation unit 32 sets the element image EMM to the origin O in the X-Y coordinate system.
  • a large or reduced element image EMM is angled around the origin O in the X-Y coordinate system
  • the mask image creation unit 32 sets the display position (X, Y) of the element image EMM in the additional image 2 in the XY coordinate system to the following (4) ) Expression
  • the mask image creation unit 32 calculates the magnification M of the enlargement or reduction of the element image EMM in the additional image 2 according to the following equation (6).
  • the mask image creation unit 32 sets the element image EMM to the X / Y coordinate system! /, And the origin O
  • a large or reduced element image EMM is angled around the origin O in the X-Y coordinate system
  • a mask image MMMA as shown as image F10B in FIG. 10B is created.
  • the mask image creation unit 32 notifies the composite image creation unit 33 of data of the created mask image MMMA as mask image data MMD.
  • the composite image creation unit 33 that has received the OMD creates a composite image SMMA in which the mask image MMMA is superimposed on the original image data OMM.
  • the composite image SMMA thus created is shown in FIG. 11 as //, image Fl 1 A!
  • a composite image SMMB is created in which a group image is superimposed on the original image.
  • the image Fl 1C As shown in the figure, as in the above case, a mask image in which the element image E MM is displayed at the positions of both eyes of the image of interest WMM at a size of a ratio designated according to the size of the image of interest of interest.
  • a composite image SMMC is created in which the image is superimposed on the original image.
  • the element image EMM is larger in the image area of interest in the positions of both eyes of the image of interest WMM.
  • Image SMMD is created.
  • the change in the coordinate position in the original image coordinate system (XY coordinate system) of the nose tip position in the image of interest It becomes.
  • the position of the mouth is the display position in FIG. 8A described above, and the element image EMM shown in FIG. 12A, the element shown in FIG. 12B.
  • the mask image shown is an example of a composite image displayed superimposed on the original image.
  • element images EMM, EMM, EMM are displayed in a size according to the "size information" specified in the description of FIG. 8A. That is, element image EMM is the image of interest WMM
  • data of an original image OMM imaged by the imaging device 25 is notified to the focused image information extraction unit 31 as original image data OMD.
  • the image-of-interest extraction unit 31 performs image processing on the notified original image OMM to specify the area of the image of interest WMM, and extracts the image-of-interest information WMR.
  • the image of interest image information extraction unit 31 sets the position (X, Y) as position information of the image of interest, the angle ⁇ ⁇ ⁇ as tilt information of the image of interest, and the size of the image of interest as the image of interest image data WMD.
  • the mask image creation unit 32 is notified of the length LX as information.
  • the mask image creation unit 32 having received the noted image information data WMD first applies the additional image 1 to the additional image 1.
  • the display position (X, Y) of the first element image EMM in the XY coordinate system is calculated by the following equation (7)
  • the mask image creation unit 32 sets the magnification M of the enlargement or reduction of the first element image EMM.
  • the mask image creation unit 32 enlarges or reduces the element image EMM at a magnification M around the origin O in the X-Y coordinate system.
  • the reduced and rotated element image EMM is set to the coordinate position (X (X)
  • Y is placed in the X-Y coordinate system so that it is at the position of the origin O.
  • the mask image creation unit 32 deciphers the created mask image MMM.
  • the composite image creation unit 33 that receives the mask image data MMD and the original image data OMD creates a composite image SMM in which the mask image MMM is superimposed on the original image OMM. like this
  • a composite image SMM created as a result is shown as image F14A in FIG.
  • the mask image creation unit 32 displays the position of the mouth of the image of interest WMM over time T.
  • the element image EMM is set to the length value LX representing the size of the image of interest WMM.
  • a composite image in which 21 21 or reduced mask images are superimposed is sequentially created over time ⁇ .
  • the mask image creation unit 32 when time T elapses, the mask image creation unit 32 generates the second image in the additional image 1.
  • the display position (X, Y) of the element image EMM in the X and Y coordinate system can be expressed by the above equation (7) and
  • the mask image creation unit 32 performs the same process as in the case of the first element image EMM described above.
  • the element image EMM is magnified by a magnification factor M around the origin O in the X Y coordinate system or
  • the mask image creation unit 32 rotates the enlarged or reduced element image EM M by an angle ⁇ ⁇ ⁇ about the origin O in the X-Y coordinate system. And spread
  • the mask image creation unit 32 creates data of the created mask image MMM.
  • the mask image data MMD is notified to the composite image formation unit 33.
  • the composite image creation unit 33 that receives the mask image data MMD and the original image data OMD creates a composite image SMM in which the mask image MMM is superimposed on the original image OMM. like this
  • the composite image SMM created as a result is shown as F14B in FIG.
  • the mask image creation unit 32 displays the position of the mouth of the image of interest WMM over time T.
  • the element image EMM is set to the length value LX representing the size of the image of interest WMM.
  • mask image formation unit 32 when time T elapses, mask image formation unit 32 generates the third image in additional image 1.
  • the display position (X, Y) of the element image EMM in the X and Y coordinate system can be expressed by the above equation (7) and
  • the mask image creation unit 32 performs the same process as in the case of the first element image EMM described above.
  • the element image EMM is magnified by a magnification factor M around the origin O in the X Y coordinate system or
  • the mask image creation unit 32 rotates the enlarged or reduced element image EM M by an angle ⁇ ⁇ ⁇ about the origin O in the X-Y coordinate system. And spread
  • the mask image creation unit 32 generates data of the created mask image ⁇ .
  • the mask image data MMD is notified to the composite image generation unit 33 as the mask image data MMD.
  • the composite image creation unit 33 that receives the mask image data MMD and the original image data OMD creates a composite image SMM in which the mask image is superimposed on the original image.
  • the composite image SMM so created is shown as image F14C in FIG.
  • the mask image creation unit 32 displays the position of the mouth of the image of interest WMM over time.
  • the element image EMM is set to the length value LX representing the size of the image of interest WMM.
  • a mask image to be displayed with a size of 23 W and a ratio R is generated.
  • mask image formation unit 32 performs the same process as described above.
  • the composite image creation unit 33 based on the original image data OMD and the mask image data MMD! /, An element image EMM expanded or reduced to a designated size at the position of the mouth of the image of interest in the original image, Element image EMM and mask image of element image EMM force are superimposed
  • This example corresponds to the mask image specification in FIG. 8 described above, and the additional image 1 whose display position with respect to the element image and the image of interest is a fixed display, and the display position for the element image and the image of interest are A mask image simultaneously displaying the temporally changing additional image 2 is an example of a synthetic image displayed superimposed on the original image.
  • the element image EMM in the additional image 1 is as shown in FIG. 15A.
  • the first element image EMM in the additional image 2 is the one shown in FIG. 15B.
  • the element image EMM has a size according to the “size information” specified in the description of FIG.
  • the original image data OMD imaged by the imaging device 25 is notified to the focused image information extraction unit 31 in the same manner as the above-described first or second composite image formation.
  • the eye image information extraction unit 31 performs image processing on the notified original image OMM, specifies an area of the image of interest WMM, and extracts image of interest information.
  • the focused image information extraction unit 31 determines the position (X 1, Y 2) as position information of the focused image area as the focused image information data WMD.
  • the angle 0 be the inclination information of the area
  • the length LX be the size information of the image area of interest
  • the mask image creation unit 32 having received the noted image information data WMD first displays the display position (X, Y) of the first element image EMM in the additional image 1 in the X-Y coordinate system as follows (12
  • the mask image creation unit 32 sets the magnification M of the enlargement or reduction of the first element image EMM.
  • the mask image creation unit 32 enlarges the element image EMM at a magnification M with the origin O as the center in the X / Y coordinate system.
  • the mask image creation unit 32 rotates the enlarged or reduced element image E MM by an angle ⁇ ⁇ ⁇ about the origin O in the X-Y coordinate system.
  • the scaled or rotated element image EMM is located in the X-Y coordinate system
  • the mask image creation unit 32 sets the magnification M of the enlargement or reduction of the second element image EMM.
  • the mask image creation unit 32 executes the process as in the case of the element image EMM described above.
  • the mask image generation unit 32 generates the enlarged or reduced element image EMM.
  • the mask image creation unit 32 creates data of the created mask image MMM.
  • the composite image creation unit 33 that receives the mask image data MMD and the original image data OMD creates a composite image SMM in which the mask image MMM is superimposed on the original image OMM.
  • the composite image SMM created in this way is shown as image F17A in FIG.
  • the mask image creation unit 32 determines that the target image WMM is designated over the time T.
  • the element image EMM is paired with the length value LX representing the size of the image WMM of interest.
  • the composite image in which the mask image represented by the mask image data MMD notified from the creation unit 32 is superimposed on the original image is created over time T.
  • mask image formation section 32 generates the first image in additional image 1.
  • the display position (X, Y) and magnification M in the XY coordinate system of element image EMM are
  • the mask image creation unit 32 has the X and Y coordinates
  • the element image EMM is scaled up or down at a magnification factor M with the origin O as the center of the system
  • the mask image creation unit 32 generates the first element image EMM in the additional image 1 and
  • the mask image creation unit 32 sets the magnification M of the enlargement or reduction of the third element image EMM.
  • the mask image creation unit 32 performs the same process as the first element image EMM described above.
  • the element image EMM is magnified by a magnification factor M around the origin O in the X Y coordinate system or
  • the mask image creation unit 32 rotates the enlarged or reduced element image EM M by an angle ⁇ ⁇ ⁇ about the origin O in the X-Y coordinate system. And spread
  • the mask image creation unit 32 Created. Then, the mask image creation unit 32 generates data of the created mask image MMM.
  • the mask image data MMD is notified to the composite image creation unit 33 as the mask image data MMD.
  • the composite image creation unit 33 that receives the mask image data MMD and the original image data OMD creates a composite image SMM in which the mask image MMM is superimposed on the original image OMM.
  • the composite image SMM created in this way is shown as image F17B in FIG.
  • the mask image creation unit 32 determines that the target image WMM is designated over the time T.
  • the element image EMM is paired with the length value LX representing the size of the image WMM of interest.
  • mask image formation unit 32 performs the same process as described above.
  • the composite image creation unit 33 sequentially creates a composite image in which the mask image represented by the mask image data MMD notified from the mask image creation unit 32 is superimposed on the original image.
  • Information data SMD of the composite image created as in the first, second or third composite image creation example described above is notified from the composite image creation unit 33 to the basic control unit 29.
  • the basic control unit 29 which has received this composite image information data displays the composite image SMM on the display unit 13 in accordance with a command previously made by the user operating the operation unit 12 or via the transmission / reception unit 21. Send to the other party.
  • the area of the image of interest WMM is identified in the original image, and the image of interest information including information related to the position and size of the area of the image of interest WMM in the original image.
  • Extract WMD the image information WMD and the mask image information registered in the mask image information file 40.
  • a mask image MMM to be displayed superimposed on the original image OMM is created.
  • the image of interest WM in the original image OMM is located at a position determined by the information indicating the relationship between the position of the region of the image of interest WMM in the original image OMM and the position of the region of interest in the mask image information.
  • the element image selected by the element image selection information included in the mask image information has a size determined by the information related to the size of the M area and the information indicating the relationship of the size of the image of interest.
  • Mask image is created. Then, a composite image in which the mask image is superimposed on the original image is created.
  • the information related to the position of the image of interest area included in the mask image information includes the position information of the representative point of the image of interest area WMR in the original image OMM. Therefore, information indicating the relationship with the position of the target image area included in the mask image information
  • the information can be information indicating the relative position with respect to the representative point of the image area of interest, and the information indicating the relationship of the relationship information with the position of the image area of interest can be simplified.
  • the information related to the position of the noted image area included in the mask image information further includes tilt information of the noted image area in the original image OMM. For this reason, it is possible to create a composite image in which a desired element image is superimposed and displayed at a position according to the inclination of the original image in the target image area by using the inclination information of the target image area in the original image OMM. it can. Further, the element image to be displayed can be displayed with an inclination according to the inclination of the original image of the noted image area.
  • the representative point of the target image area is set as the origin, and based on the inclination of the target image area in the original image.
  • Coordinate position information in the coordinate system in which the direction of the coordinate axis is determined is included as display position information of the element image.
  • information indicating the relationship with the position of the image area of interest is defined as the coordinate position information in the coordinate system in which the direction of the coordinate axis is determined based on the inclination of the image area of interest with the representative point of the image area of interest as the origin. And it can be easy to handle.
  • the mask image information can include ratio information of the size of the noted image area and the size at the time of display of the element image EMM. In this case, even if the size of the target image area changes every moment in the original image OMM, a mask image MMM including an element image EMM of a size adapted to the size of the target image area is created. be able to.
  • the mask image information can include execution time information of display of each of the element images EMM.
  • each of the desired element images EMM can be displayed only for the display execution time set at the desired time, and the dynamically changing mask image can be displayed.
  • M MM can be created.
  • the mask image information may include time-sequential display specification information specifying that the display of the plurality of element images EMM is to be time-sequentially displayed and that the time-sequential display be repeated. it can.
  • time-sequential display specification information specifying that the display of the plurality of element images EMM is to be time-sequentially displayed and that the time-sequential display be repeated. it can.
  • the information of the time sequential display designation By creating a mask image WMM, a plurality of element images can be repeatedly displayed on the original image OMM in a time-sequential manner every desired time.
  • the mask image information can include information of simultaneous display designation which designates to simultaneously display a plurality of element image displays.
  • the mask image information can include information of simultaneous display designation which designates to simultaneously display a plurality of element image displays.
  • simultaneous display designation which designates to simultaneously display a plurality of element image displays.
  • the present embodiment is different from the first embodiment in that an image different from that of the original image can be used as the background of the human image.
  • the following description will focus on the differences.
  • the cellular phone device 10 ′ of the present embodiment includes a point that the control unit 21 includes a mask image processing unit 30 ′ in the cellular phone main body 11, and a storage unit.
  • the point that the mask image information file 40 'is stored in 23 is different from the mobile telephone device 10 of the first embodiment.
  • the mask image processing unit 30 ′ includes a focused image information extraction unit 31, a mask image creation unit 32 ′, and a composite image creation unit 33 ′.
  • the focused image information extraction unit 31 operates in the same manner as in the first embodiment.
  • the mask image creation unit 32 ′ includes the noted image information WMD extracted by the noted image information extraction unit 31, and the mask image information of the storage unit 23 described above. Based on the mask image information MDD stored in the file 40 ', the mask image data MMD is created. Further, the mask image creation unit 32, based on the mask image information MDD stored in the mask image information file 40 ', uses background image designation information indicating presence / absence of background image designation and background image designation information! Background image information BPN, which is the storage position information of the background image data BDD when there is a background image designation, is created.
  • Background image information BPN which is the storage position information of the background image data BDD when there is a background image designation
  • the composite image creation unit 33 ′ is notified by the background image information BPN that there is a background image designation.
  • the composite image creation unit 33 ′ creates composite image data SMD ′ in which the mask image represented by the mask image information MDD is superimposed on the background image-containing image.
  • the composite image creation unit 33 ′ when notified by the background image information BPN that no background image is specified, creates an original image as a background image-containing image. Subsequently, the composite image creation unit 33 ′ creates composite image data SMD ′ in which the mask image represented by the mask image information MDD is superimposed on the background image-containing image. In this case, the composite image data SMD ′ is the same as the composite image data SMD of the first embodiment.
  • the composite image data SMD ′ created by the composite image creation unit 33 is notified to the basic control unit 29! /.
  • the mask image information file 40 in the storage unit 23 is a display for designating how to display the mask image in relation to the target image area in (i) the original image. It is composed of a display specification file 41 'in which a specification description and a background image specification description are stored, (ii) the element image file 42 described above, and (iii) a background image file 43 storing background image data BDD. ing. Note that the mask image information file 40 'is provided to the mobile phone device 10 via the content provider wireless line, or after the user creates it by a personal computer etc., the storage medium and the external interface (not shown) are used. Provided through a display specification file 41 'in which a specification description and a background image specification description are stored, (ii) the element image file 42 described above, and (iii) a background image file 43 storing background image data BDD. ing. Note that the mask image information file 40 'is provided to the mobile phone device 10 via the content provider wireless line, or after the user creates it by a personal
  • FIG. 21 An example of display specification description in the display specification file 41 ′ of the present embodiment is shown in FIG.
  • the example of description shown in FIG. 21 is the example of the description of FIG. 7 in the case of the first embodiment added with the fact that there is a background image designation. That is, in the display specification description of FIG. 21, in addition to the description of the additional image 1 and the additional image 2 of FIG. 7 between ⁇ simultaneous display specification> and ⁇ simultaneous display specification end>, ⁇ background image specification> The background image to be displayed simultaneously is specified by ⁇ Background image specification Finish> and the description of “Background image specification” between them.
  • the “background image designation” the head address BMMA in the storage unit 23 of the background image file 43 is designated.
  • the background image The background image data BDD representing the background image BMM in the background image area BMR having the same shape and size as the original image area OMR as shown in FIG. 22 is stored. Do.
  • the person image in the original image region OMR shown in FIG. 23 SDM force original image A specific display image to be cut out from the OMM It shall be.
  • the original image data which is data of the original image OMM captured by the imaging device 25 OMD force Attentioned image information extraction unit 31
  • the notice image information extraction unit 31 generates a notice image information data WMD.
  • the noted image information data WMD created in this manner is notified from the noted image information extraction unit 31 to the mask image creation unit 32 ′.
  • the mask image creation unit 32 ′ having received the focused image information data WMD includes the focused image information data WMD and the mask image information MDD. Based on the data of the mask image MMMA, data of the mask image MMDA is created and notified to the composite image creation unit 33 'as mask image data MMD. In addition, the mask image creation unit 32 ′ determines whether or not there is a background image designation based on the mask image information MDD, and background image information BPN including head address power of the background image file 43 when there is a background image designation. Is created and notified to the synthetic image creation unit 33 '.
  • the background image designation is described in the display designation file 41 ′ as shown in FIG. 21 described above, the background image information BPN indicates that there is a background image designation and the background image file 43 The start address will be included.
  • the composite image generation unit 33 ′ that has received the mask image data MMD, the original image data OMD and the background image information BPN Determine In this case, since the background image is specified as described above, the judgment result is positive. Subsequently, the composite image creation unit 33 'reads the background image data BDD from the background image file 43 using the start address of the background image file 43 in the background image information BPN.
  • the composite image creation unit 33 ′ that acquires the background image data BDD in addition to the mask image data MMD and the original image data OMD creates a composite image as follows.
  • the composite image creation unit 33 ′ cuts out a person image SDM as a specific display image as shown as the image F 24 B. Such cutout is performed by specifying the contour of the human image SDM from the features of the human image in general, and then extracting the image within the contour.
  • the composite image creation unit 33 ′ superimposes the specific display image SDM on the background image BMM shown as the image F24C with the same size at the same position as in the original image OMR. As a result, a background additional image BAM shown as an image F24D is created.
  • the composite image creation unit 33 ′ superimposes the mask image MMMA shown as the image F24E on the background additional image BAM. As a result, a composite image SMMA 'shown as an image F24F is created.
  • the basic control unit 29 having received this composite image information data displays the composite image SMMA 'on the display unit 13 in accordance with a command previously made by the user operating the operation unit 12, or via the transmission / reception unit 21. Send to the other party.
  • the mask image generation unit 32 If the background image specification is described in the display specification file 41 ′ !, or if the storage start address of the background image data BDD is “0”, the mask image generation unit 32. Create background image information BPN containing only the background image designation nothing and the effect, and notify the composite image creation unit 33 '. Having received such background image information BPN, the composite image creation unit 33 'determines that no background image is specified, and overlays the mask image MMMA on the original image OMM to create a composite image. As a result, the same composite image S MMA as in the first composite image creation example in the first embodiment is created.
  • the mask image specification is not described in the display specification file 41 ′, and If only the landscape designation is described, the background additional image BAM is created as a final composite image in the composite image creation unit 33 '.
  • the composite image creation unit 33 ′ cuts out the original image OMM force as the specific display image as the specific display image, and designates the specified image.
  • the image is superimposed on the image BMM to create a background additional image BAM as an image containing the image of interest.
  • the composite image creation unit 33 ′ superimposes the mask image MMMA on the background additional image BAM. Therefore, an effect according to the user's sense of taste with respect to the specific display image such as the human image SDM can be given by selecting the mask image and the background image.
  • the mask image information file 40 ′ includes the background image file 43.
  • the background image file 43 can be placed in an area outside the mask image information file.
  • the original image is a moving image, but the present invention can be applied even if the original image is a still image.
  • the force V with which the imaging result of light through the imaging optical system 18 imaged in a so-called self-portrait mode is an original image
  • V An imaging result of light through the imaging optical system 19 which is imaged in the mode of can be used as an original image.
  • the image stored in the storage unit 23 can be used as an original image.
  • the element image used for the mask image is also created by the two-dimensional model without considering the structure along the depth for the eye object in the image of interest in the original image. It was done.
  • the element image used for the mask image may be created by a three-dimensional model. In this case, even when a motion having a rotational component around an axis parallel to the display surface of the object of interest is displayed, it is possible to create a mask image without any sense of harmony while following the rotation.
  • the number of element images displayed simultaneously is arbitrary.
  • the number of elementary images that perform time sequential display is also arbitrary.
  • the mask image information file is composed of the display designation file and the element image file.
  • the mask image information file force element image preview file is further included, and when the preview of the element image is designated, the element image preview file is referred to and the display unit 13 is displayed. It is also possible to preview element images!
  • a predetermined phenomenon is determined based on the image of interest image whether or not a predetermined phenomenon has occurred in the image of interest region, and the occurrence of the predetermined phenomenon is triggered. It is also possible to start the creation of a mask image as For example, when the face image of a specific person is taken as the image of interest, when the eyelid is closed, it is possible to create a composite image in which the eye position force and tear flow.
  • the present invention is applied to a mobile telephone device, but the present invention can be applied to other types of mobile communication terminal devices. Furthermore, the present invention can be applied to general electronic devices such as personal computers.
  • the image processing method and the image processing method of the present invention can be applied to the processing of the obtained original image.
  • the mobile communication terminal of the present invention can be applied to a mobile communication terminal having an image mail function and a video telephone function.

Description

明 細 書
画像処理方法、画像処理装置及び移動通信端末装置
技術分野
[0001] 本発明は、画像処理方法、画像処理装置及び移動通信端末装置に係り、より詳し くは原画像上にマスク画像を重ねた合成画像を作成する画像処理方法、当該画像 処理方法を使用する画像処理装置、及び当該画像処理装置を備える移動通信端末 装置に関するものである。 背景技術
[0002] 従来から、取得された原画像を処理する画像処理が様々な手法で行われている。
こうした画像処理の技術としては、例えば、デジタルカメラ等により取得された原画像 に人の顔像が存在することを認識する顔認識技術がある。また、この顔認識を更に進 めて、顔の形状特徴を抽出し、個人を特定する顔認証技術もある (非特許文献 1、特 許文献 1、 2等参照)。
[0003] こうした顔像に関する画像処理技術の存在を背景として、例えば、送信側端末装置 のカメラで撮像された画像がそのまま送信されて、受信側端末装置に表示されるば 力りではなぐ送信側端末装置の利用者のプライバシを保護するために、撮像結果 における背景像を他の画像に変更する画像処理を行った後に、受信側端末装置へ 送信するテレビ電話の技術も提案されている (特許文献 3参照)。この技術では、まず 、送信側端末装置のカメラで撮像された画像における送信側話者像を抽出する。そ して、抽出された話者像を、予め用意しておいた背景像上に重ね合わせた合成画像 を作成し、当該合成画像を送信側端末装置から受信側端末装置へ送信する。この 結果、送信側話者の所在位置と ヽぅプライバシ情報を受信側話者に知らせることなく 、違和感のな 、対面会話を行うことができるようになって!/、る。
[0004] また、送信側端末装置の利用者のプライバシを保護するために、送信側話者のリア ルタイム画像を使用せずに、予め用意してお 1ヽた当該送信側話者ある!ヽは他の話者 につ 、ての複数の静止画像力も送信側話者の音声に合わせて選択した画像を、受 信側端末装置へ送信する技術も提案されている (特許文献 3参照)。なお、この場合 にも、選択された話者像を、予め用意しておいた背景像上に重ね合わせた合成画像 を作成し、当該合成画像を送信側端末装置から受信側端末装置へ送信することが できる。
[0005] この技術では、予め利用者又は他の者について、例えば母音及び必要に応じて撥 音の発音時ごとの静止像を用意しておく。そして、利用者の話中における発生音を 解析し、解析結果として得られた発生音に対する画像を選択する。引き続き、選択さ れた画像を、予め用意しておいた背景像上に重ね合わせた合成画像を作成し、当 該合成画像を送信側端末装置から受信側端末装置へ送信する。この結果、入浴中 である等のリアルタイム画像を送信することがプライバシ保護の観点力 不適切な場 合にも、画像を参照しつつ違和感のな 、会話を行うことができるようになって 、る。
[0006] 非特許文献 1:アイマティックジャパン株式会社、 "技術情報"、 [2003年 12月 29日検 索」、インターネット < URL:http://www.eyematic.co.jp/tech.html>
特許文献 1:特許公開 2003— 271958号公報
特許文献 2:特許公開 2003— 296735号公報
特許文献 3:特許公開 2003— 309829号公報
発明の開示
発明が解決しょうとする課題
[0007] 上述した従来の画像認識、画像認証、画像トラッキングなどの画像処理技術は、動 画に適用できる非常に優れたものであり、様々な応用が考えられる。し力しながら、こ うした画像処理技術では、利用者力 自身の趣味感に合わせて原画像を加工し、自 身の内心等を表現するということは、技術的な視野には入っていなかった。このため 、例えば、テレビ電話に従来の画像処理技術を適用しても、テレビ電話の機能を発 揮させつつ、送信側話者の趣味感を反映した画像を伴った楽しい会話を行うという 観点からは、十分なものとはなって ヽなかった。
[0008] すなわち、従来の画像処理技術では、原画像に対して利用者の感情の強調等を 当該利用者の趣味感に合わせた演出を施したものとすることができれば、利用者にと つての楽しさを増進させることができると考えられる力 こうした演出を画像に施すこと は、特に原画像が動画である場合にはできな力つた。 [0009] こうした画像の演出は、原画像が固定的な静止画像である場合には、その静止画 像の所望の位置に所望の大きさで所望の形状や色のアクセサリ画像を重ねて表示 すること〖こより行うことができる。しかし、送信する画像が、時間の経過に伴い刻々と変 化する動画像又は動画像に相当する画像である場合には、表示画面の固定的な位 置にアクセサリ像を重ねて表示するのでは、違和感のある表示画像となってしまう。
[0010] 例えば、利用者の顔像が含まれる原画像における当該顔像の目の位置にハートマ ークをほぼ目の大きさで表示させる演出を行う際に、ハートマークを表示画面の固定 位置に重ねて表示するのでは、刻々と変化する動画像における顔像の目の位置に ハートマークを表示させることはできない。また、表示位置だけでなぐハートマークの 表示の大きさについても、動画像における顔像の大きさに応じたものとしなければ、 違和感のある表示画像となってしまう。
[0011] 本発明は、上記の事情を鑑みてなされたものであり、静止画像であるか動画像であ るかにかかわらず、原画像に対して利用者の演出を施した画像を簡易にかつ適切に 作成することができる画像処理方法及び画像処理方法を提供することを目的とする。
[0012] また、本発明は、静止画像であるか動画像であるかにかかわらず、原画像に対して 利用者の演出を適切に施した画像を送信することができる移動通信端末装置を提供 することを目的とする。
課題を解決するための手段
[0013] 本発明の画像処理方法は、画像の処理を行う画像処理方法であって、着目すべき 像の領域である着目像領域を原画像にぉ ヽて特定し、前記原画像中における前記 着目像領域の位置及び大きさに関連する情報を含む着目像情報を抽出する着目像 情報抽出工程と;前記着目像情報と、前記着目像領域との位置及び大きさの関係を 示す少なくとも 1つの関係情報、前記関係情報それぞれに対応して特定の要素画像 の情報を選択したことを示す要素画像選択情報、並びに前記要素画像選択情報に より選択される少なくとも 1つの要素画像情報が含まれたマスク画像情報ファイルに 登録されたマスク画像情報とに基づ ヽて、前記原画像上に重ねて表示させるマスク 画像を作成するマスク画像作成工程と;前記着目像領域内の着目像を前記原画像 における場合と同一の位置に同一の大きさで含む着目像含有画像上に前記マスク 画像を重ねた合成画像を作成する合成画像作成工程と;を備える画像処理方法で ある。
[0014] この画像処理方法では、予めマスク画像情報ファイルに着目像領域との位置及び 大きさの関係を示す少なくとも 1つの関係情報、関係情報それぞれに対応して特定 の要素画像の情報を選択したことを示す要素画像選択情報、並びに前記要素画像 選択情報により選択される少なくとも 1つの要素画像情報が含まれたマスク画像情報 を登録しておく。ここで、「着目像領域」とは、例えば人物像を含む原画像における当 該人物の顔の領域等であり、原画像となり得る想定される画像中にぉ ヽて画像的特 徴により特定可能な領域である。
[0015] カゝかるマスク画像情報ファイルの存在を前提として、まず、着目像情報抽出工程に お 、て、着目像領域を原画像にお!、て特定し、原画像中における着目像領域の位 置及び大きさに関連する情報を含む着目像情報を抽出する。引き続き、マスク画像 データ作成工程において、着目像情報と、マスク画像情報ファイルに登録されたマス ク画像情報とに基づいて、原画像上に重ねて表示させるマスク画像を作成する。この 結果、原画像における着目像領域の位置に関連する情報とマスク画像情報に含ま れる関係情報における着目像領域の位置との関係を示す情報とにより定まる位置に 、原画像における着目像領域の大きさに関連する情報と当該関係情報における着目 像領域の大きさの関係を示す情報とにより定まる大きさで、マスク画像情報に含まれ る要素画像選択情報により選択された要素画像から構成されるマスク画像が作成さ れる。そして、合成画像作成工程において、例えば、顔領域内の顔像のような着目像 領域内の着目像を前記原画像における場合と同一の位置に同一の大きさで含む着 目像含有画像上にマスク画像を重ねた合成画像が作成される。
[0016] したがって、本発明の画像処理方法によれば、原画像が静止画像であるか動画像 であるかにかかわらず、着目像含有画像に対して利用者の趣味感に応じた演出を施 した画像を簡易にかつ適切に作成することができる。
[0017] 本発明の画像処理方法では、前記着目像含有画像を前記原画像とすることができ る。この場合には、原画像に対して利用者の趣味感に応じた演出を、マスク画像を選 択すること〖こより行うことができる。 [0018] また、本発明の画像処理方法では、前記マスク画像情報ファイルが、特定の背景 像の情報を選択したことを示す背景画像選択情報を更に含むとともに、前記合成画 像作成工程にぉ ヽて、前記着目像を含む特定表示像を前記原画像から切り出して、 前記特定表示像を前記原画像における場合と同一の位置に同一の大きさで前記特 定の背景像に重ねた背景付加像を前記着目像含有画像とした後に前記合成画像を 作成することとすることができる。
[0019] この場合には、合成画像作成工程にお!ヽて、まず、例えば、着目像が顔像である 場合における人物像のような着目像を含む特定表示像が原画像から切り出される。 引き続き、マスク画像情報ファイルに含まれる背景画像選択情報により指定された背 景像上に特定表示画像が重ねられ、背景付加像が作成される。そして、当該背景付 加像を着目像含有画像として、この着目像含有画像上に上述のマスク画像が重ねら れる。したがって、人物像等の特定表示画像に対する利用者の趣味感に応じた演出 を、マスク画像及び背景像を選択することにより施すことができる。
[0020] また、本発明の画像処理方法では、前記着目像領域の位置に関連する情報には、 前記原画像における前記着目像領域の代表点の位置情報が含まれることとすること ができる。この場合には、マスク画像情報に含まれる関係情報における着目像領域 の位置との関係を示す情報を、着目像領域の代表点に対する相対位置を示す情報 とすることができ、関係情報における着目像領域の位置との関係を示す情報を簡易 なものとすることができる。なお、関係情報における着目像領域の位置との関係を示 す情報を着目像領域の代表点に対する相対位置を示す情報とする場合には、その 相対位置情報を着目像領域が基準の大きさを有する場合における相対位置情報と し、原画像における着目像領域の大きさと当該基準となっている着目象領域の大きさ との比に応じて当該相対位置情報の値を原画像における着目像領域の大きさに応じ た値に換算することとすることができる。また、当該相対位置情報の値を、原画像に おける着目像領域の大きさで正規化された後の値としておき、相対位置情報の値に 原画像における着目像領域の大きさに応じた値に換算するようにしてもょ ヽ。
[0021] ここで、前記着目像領域の位置に関連する情報には、前記原画像における前記着 目像領域の傾き情報が更に含まれることとすることができる。この場合には、原画像 における着目像領域の傾き情報を使用することにより、着目像領域の原画像におけ る傾きに応じた位置に、所望の要素画像を重ねて表示した合成画像を作成すること ができる。また、表示する要素画像に着目像領域の原画像における傾きに応じた傾 きを持たせて表示させることができる。なお、傾き情報は、着目像の 2次元的な傾きを 示す 1つの角度情報であってもよいし、着目像の 3次元的な傾きを示す 2つ又は 3つ の角度情報であってもよい。
[0022] 以上のように、着目像領域の位置に関連する情報に原画像における着目像領域の 代表点の位置情報及び原画像における前記着目像領域の傾き情報が含まれる場合 には、前記関係情報には、前記着目像領域の代表点を原点とし、前記着目像領域 の傾きに基づ!ヽて座標軸の方向が定められる座標系における座標位置情報が、前 記特定の要素画像の表示位置情報として含まれることとすることができる。この場合 には、関係情報における着目像領域の位置との関係を示す情報を着目像領域の代 表点に対する相対位置を示す情報を、着目像領域の代表点を原点とし、前記着目 像領域の傾きに基づ 、て座標軸の方向が定められる座標系における座標位置情報 t 、う簡易かつ取り扱 、が容易なものとすることができる。
[0023] 本発明の画像処理方法では、前記関係情報には、前記着目像領域の大きさと前 記特定の要素画像の表示時における大きさとの比率情報が含まれることとすることが できる。この場合には、原画像内で着目像領域の大きさが刻々と変化する場合であ つても、着目像領域の大きさに適合した大きさの要素画像を含むマスク画像を作成 することができる。
[0024] また、本発明の画像処理方法では、前記マスク画像情報には、前記関係情報及び 前記関係情報に対応する要素画像選択情報との組合せで定まる要素画像表示それ ぞれの実行時間情報が更に含まれることとすることができる。この場合には、当該実 行時間情報に従ってマスク画像を作成することにより、所望の要素画像それぞれを 所望の時間に設定した表示実行時間だけ表示することができ、ダイナミックに変化す るマスク画像を作成することができる。
[0025] ここで、前記マスク画像情報には、前記関係情報及び前記関係情報に対応する要 素画像選択情報の組合せで定まる複数種類の要素画像表示を時間順次に表示す るとともに、時間順次表示を繰り返すことを指定する時間順次表示指定の情報が更 に含まれることとすることができる。この場合には、当該時間順次表示指定の情報に 従ってマスク画像を作成することにより、原画像上に複数の要素画像を所望の時間 ごとに時間順次に繰り返し表示することができる。
[0026] また、本発明の画像処理方法では、前記マスク画像情報には、前記関係情報及び 前記関係情報に対応する要素画像選択情報の組合せで定まる複数種類の要素画 像表示を同時に表示することを指定する同時表示指定の情報が更に含まれることと することができる。この場合には、所望の複数の要素画像それぞれが、所望の位置に 表示されるマスク画像を作成することができ、様々なノ リエーシヨンのマスク画像を作 成することができる。
[0027] なお、本発明の画像処理方法では、前記原画像を動画像とすることができる。この 場合には、原画像における着目像の位置、傾き及び大きさが変化する動画像に対し て、ダイナミックかつ違和感なぐ利用者の趣味感に応じた合成画像を作成すること ができる。
[0028] ここで、前記着目像情報に基づ 、て前記着目像領域にぉ 、て予め定められた現象 が発生したカゝ否かを判定する所定現象発生判定工程を更に備えるとともに、前記所 定現象発生判定工程において肯定的な判定がされた後に、マスク画像データ作成 工程及び前記合成画像データ作成工程を開始することとすることができる。この場合 には、所定現象発生判定工程において前記着目像領域において予め定められた現 象が発生したとき、マスク画像データ作成工程及び前記合成画像作成工程を開始さ せるので、当該その現象に合わせた演出を行ったマスク画像を作成することができ、 そのマスク画像が原画像上に重ねた合成画像を作成することができる。例えば着目 像が人の顔の場合に、着目像における瞼が閉じられたときに、目の位置から涙が流 れる合成画像を作成することができる。
[0029] 本発明の画像処理装置は、画像の処理を行う画像処理装置であって、着目すべき 像の領域である着目像領域を原画像にぉ ヽて特定し、前記原画像中における前記 着目像領域の位置及び大きさに関連する情報を含む着目像情報を抽出する着目像 情報抽出手段と;前記着目像領域との位置及び大きさの関係を示す少なくとも 1つの 関係情報、前記関係情報それぞれに対応して特定の要素画像の情報を選択したこ とを示す要素画像選択情報、並びに前記要素画像選択情報により選択される少なく とも 1つの要素画像情報が含まれたマスク画像情報が登録されたマスク画像情報ファ ィルを格納する記憶手段と;前記着目像情報と、前記マスク画像情報とに基づ 、て、 前記原画像上に重ねて表示されるマスク画像のデータを作成するマスク画像データ 作成手段と;前記着目像領域内の着目像を前記原画像における場合と同一の位置 に同一の大きさで含む着目像含有画像上に前記マスク画像を重ねた合成画像を作 成する合成画像作成手段と;を備える画像処理装置である。
[0030] この画像処理装置では、着目像情報抽出手段が、着目像領域を原画像にぉ 、て 特定し、原画像中における着目像領域の位置及び大きさに関連する情報を含む着 目像情報を抽出する。引き続き、マスク画像データ作成手段が、着目像情報と、マス ク画像情報ファイルに登録されたマスク画像情報とに基づ ヽて、原画像上に重ねて 表示させるマスク画像を作成する。そして、合成画像作成手段が、着目像領域内の 着目像を前記原画像における場合と同一の位置に同一の大きさで含む着目像含有 画像上にマスク画像を重ねた合成画像を作成する。
[0031] すなわち、本発明の画像処理装置では、本発明の画像処理方法を使用して、合成 画像を作成する。したがって、本発明の画像処理装置によれば、原画像が静止画像 であるか動画像であるかにかかわらず、着目像含有画像に対して利用者の趣味感に 応じた演出を施した画像を簡易にかつ適切に作成することができる。
[0032] 本発明の画像処理装置では、前記着目像含有画像を前記原画像とする構成とす ることができる。この場合には、原画像に対して利用者の趣味感に応じた演出を、マ スク画像を選択することにより行うことができる。
[0033] 本発明の画像処理装置では、前記マスク画像情報ファイルが、特定の背景像の情 報を選択したことを示す背景画像選択情報を更に含むとともに、前記合成画像作成 手段が、前記着目像を含む特定表示像を前記原画像から切り出して、前記特定表 示像を前記原画像における場合と同一の位置に同一の大きさで前記特定の背景像 に重ねた背景付加像を前記着目像含有画像とした後に前記合成画像を作成する構 成とすることができる。 [0034] この場合には、合成画像作成手段は、まず、着目像を含む特定表示像を原画像か ら切り出す。引き続き、合成画像作成手段は、マスク画像情報ファイルに含まれる背 景画像選択情報により指定された背景像上に特定表示画像を重ね、背景付加像を 作成する。そして、合成画像作成手段は、当該背景付加像上に上述のマスク画像を 重ねる。したがって、人物像等の特定表示画像に対する利用者の趣味感に応じた演 出を、マスク画像及び背景像を選択することにより施すことができる。
[0035] また、本発明の画像処理装置では、前記合成画像を表示する表示手段を更に備え る構成とすることができる。この場合には、表示手段により合成画像を表示すること〖こ より、合成画像の作成者が、自身の趣味感による演出が施されて作成された合成画 像を確認することができる。
[0036] 本発明の画像処理装置では、前記合成画像データを送信する送信手段を更に備 える構成とすることができる。この場合には、送信側における合成画像の作成者の趣 味感による演出が施されて作成された合成画像を受信側へ向けて送信することがで きるので、受信者に対して、作成者の趣味感による演出が施されて作成された合成 画像を通知することができる。
[0037] 本発明の画像処理装置では、前記原画像を取得するための撮像手段を更に備え る構成とすることができる。この場合には、撮像手段により撮像により取得した画像を 原画像とすることができ、当該原画像に対して、作成者の趣味感に応じた演出を施し た画像を簡易にかつ適切に作成することができる。なお、撮像手段により取得される 画像は、静止画像であってもよいし、動画像であってもよい。
[0038] 本発明の移動通信端末装置は、本発明の画像処理装置を備える移動通信端末装 置である。この移動通信端末装置では、本発明の画像処理装置によって作成された 合成画像を受信側端末装置に向けて送信することができるので、静止画像であるか 動画像であるかにかかわらず、原画像に対して利用者の演出を適切に施した画像を 送信することができる。
発明の効果
[0039] 以上説明したように、本発明の画像処理方法によれば、静止画像であるか動画像 であるかにかかわらず、原画像に対して利用者の演出を施した画像を簡易にかつ適 切に作成することができる。
[0040] また、本発明の画像処理装置によれば、本発明の画像処理方法を使用して合成画 像を作成するので、静止画像であるか動画像であるかにかかわらず、原画像に対し て利用者の演出を施した画像を簡易にかつ適切に作成することができる。
[0041] また、本発明の移動通信端末装置によれば、本発明の画像処理装置を備えるので 、静止画像であるか動画像であるかにかかわらず、原画像に対して利用者の演出を 適切に施した画像を送信することができる。
図面の簡単な説明
[0042] [図 1A]本発明の第 1実施形態に係る携帯電話装置の正面側の外観構成を概略的に 示す図である。
[図 1B]本発明の第 1実施形態に係る携帯電話装置の背面側の外観構成を概略的に 示す図である。
[図 2]図 1A及び図 1Bの携帯電話装置の内部構成を説明するための機能ブロック図 である。
[図 3]図 2のマスク画像処理部の内部構成を説明するための機能ブロック図である。
[図 4A]着目像領域情報を説明するための図 (その 1)である。
[図 4B]着目像領域情報を説明するための図(その 2)である。
[図 5A]図 2のマスク画像情報ファイルの構成を説明するための図である。
[図 5B]図 5Aの要素画像ファイルの構成を説明するための図である。
[図 6]要素画像の例を示す図(その 1)である。
[図 7]図 5Aの表示指定ファイルの内容例を示す図(その 1)である。
[図 8A]図 5Aの表示指定ファイルの内容例を示す図(その 2)である。
[図 8B]図 5Aの表示指定ファイルの内容例を示す図(その 3)である。
[図 9A]着目像の例を示す図である。
[図 9B]図 9Aにおける着目像座標系の例を説明するための示す図である。
[図 10A]原画像の例を示す図である。
[図 10B]マスク画像の例を示す図(その 1)である。
[図 11]第 1実施形態における合成画像の例を示す図(その 1)である。 [図 12A]要素画像の例を示す図(その 2)である。
[図 12B]要素画像の例を示す図(その 3)である。
[図 12C]要素画像の例を示す図(その 4)である。
[図 13]マスク画像の例を示す図(その 2)である。
[図 14]第 1実施形態における合成画像の例を示す図(その 2)である。
[図 15A]要素画像の例を示す図(その 5)である。
[図 15B]要素画像の例を示す図(その 6)である。
[図 15C]要素画像の例を示す図(その 7)である。
[図 16]マスク画像の例を示す図(その 3)である。
[図 17]第 1実施形態における合成画像の例を示す図(その 3)である。
[図 18]本発明の第 2実施形態に係る携帯電話装置の内部構成を説明するための機 能ブロック図である。
[図 19]図 18のマスク画像処理部の内部構成を説明するための機能ブロック図である
[図 20]図 18のマスク画像情報ファイルの構成を説明するための図である。
[図 21]図 20の表示指定ファイルの内容例を示す図である。
[図 22]背景像の例を示す図である。
[図 23]特定表示画像の例を示す図である。
[図 24]図 19の合成画像作成部における合成画像作成動作を説明するための図であ る。
発明を実施するための最良の形態
[0043] <第 1実施形態 >
以下、本発明の第 1実施形態を、図 1A—図 17を参照して説明する。図 1及び図 2 には、一実施形態に移動通信端末装置である携帯電話装置 10の構成が概略的に 示されている。ここで、図 1Aには、携帯電話装置 10の外観の正面図が示され、図 1 Bには、携帯電話装置 10の外観の背面図が示されている。また、図 2には、携帯電 話装置 10の機能ブロック構成が示されている。
[0044] 図 1A、図 IB及び図 2において総合的に示されるように、携帯電話装置 10は、 (a) 後述する制御部 21等を備える携帯電話本体 11と、(b)電話番号を制御部 21へ入力 するためのテンキー、及び、動作モードの切替等の各種指令を制御部 21へ入力す るためのファンクションキーを有する操作部 12と、(c)制御部 21による指令に応じて、 操作案内、動作状況、受信メッセージ等を表示する液晶表示装置を有する表示部 1 3とを備えている。また、携帯電話装置 10は、(d)通話時に通信相手から送られてき た音声信号を再生する通話用スピーカ 14と、通話時に音声を入力するためのマイク 口フォン 15と、(e)制御部 21による指令に応じて、着信音や案内音を発生するため の案内用スピーカ 16とを備えている。更に、携帯電話装置 10は、(f)送受信部 22と 接続され、基地局との間で無線信号を授受するためのアンテナ 17とを備えている。さ らに、携帯電話装置 10は、(g)表示部 13における表示を見ながら操作部 12を操作 する操作者側を撮影する、すなわち、いわゆる自分撮りの態様で撮影を行うための 撮像光学系 18と、(h)当該操作者の視線方向を視野方向とする撮影を行う、すなわ ち、 V、わゆる相手撮りの態様で撮影を行うための撮像光学系 19とを備えて 、る。
[0045] 携帯電話本体 11は、図 2に示されるように、(i)携帯電話装置 10の全体の動作を統 括制御するとともに、様々なデータ処理を行う制御部 21と、(ii)基地局との間でアン テナ 17を介して無線信号を送受信するための送受信部 22と、(iii)様々なデータを 記憶するための記憶部 23とを備えている。また、携帯電話本体 11は、制御部 21の 制御に応じて、撮像光学系 18を介した光及び撮像光学系 19を介した光の ヽずれか を、後述する撮像素子 25へ向けて射出する切換光学系 24と、(iv)切換光学系 24を 介した光が受光面に形成する光学像を撮像する CCD素子等の撮像素子 25とを備 えている。ここで、撮像素子 25は、制御部 21の制御のもとで撮像動作を行い、撮像 結果を制御部 21へ通知するようになって 、る。
[0046] 制御部 21は、基本制御部 29と、マスク画像処理部 30とを備えている。ここで、基本 制御部 29は、マスク画像処理部 30の動作の開始及び停止を制御するとともに、制御 部 21の外部に配置された各要素の制御、及び、後述するマスク画像作成の画像処 理以外のデータ処理を行う。
[0047] 上記のマスク画像処理部 30は、図 3に示されるように、着目像情報抽出部 31と、マ スク画像作成部 32と、合成画像作成部 33とを備えている。着目像情報抽出部 31は 、撮像素子 25からの原画像データ OMDに基づいて、例えば原画像における特定 人物 (例えば、携帯電話装置 10の利用者)の顔領域等の着目像領域を特定し、原画 像における着目像領域の代表点の位置情報、原画像における着目像領域の傾き情 報及び着目像領域の大きさ情報カゝら成る着目像情報 WMDを抽出する。
[0048] ここで、着目像情報 WMDの抽出について、詳述する。なお、以下においては、説 明を簡易に行う都合上、原画像における被撮影体の表示面に対する構造を考慮せ ずに 2次元的に取り扱うこととし、表示面における奥行き方向の沿った被撮影体の構 造は考えないものとする。また、図 4A及び図 4Bに示されるように、原画像領域 OMR における着目像領域 WMRが特定されるものとする。ここで、図 4Aには、着目像領域 WMRが基準となる傾きである(すなわち、傾き角 Θ =0)場合が模式的に表されて
W
いる。また、図 4Bには、基準傾きから Θ だけ傾いている(すなわち、傾き角 θ = Θ
0 W 0
)場合が示されている。また、原画像領域 OMRにおける各画素位置は、原画像座標 系である X Y
S S座標系における座標値によって表されるものとする。また、着目像領域
WMRについては、代表点 O を原点とするとともに、傾き角 Θ =0の場合に X軸と
W W S
平行な軸を X
W軸とし、 Y
S軸と平行な軸を Y
W軸とする着目像座標系(すなわち、 X Y
W W
座標系)が定義されるものとする。また、傾き角 Θ
Wは反時計回りの角度で表されるも のとする。
[0049] 図 4Aの場合には、着目像情報抽出部 31は、原画像領域 OMRにおける着目像領 域 WMRを特定した後、まず、着目像領域 WMRの代表点の位置情報として、代表 点 O の原画像座標系における座標位置 O (X , Y )を求める。ここで、着目像
W W SW1 SW1
領域 WMRの代表点としては、着目像領域 WMRの重心位置、着目像が特定人物の 顔像である場合における当該顔像における鼻の突端位置等といった画像解析によつ て得られる着目像領域における特徴的な点を採用することができる。
[0050] 次に、着目像情報抽出部 31は、着目像領域 WMRの原画像領域 OMRにおける 傾き情報として、 X軸と X軸との交差角 Θ (すなわち、上述の傾き角 Θ )を求める。
S W W W
傾き角 Θ は、予め傾き角 Θ 力 S「0」であると定義された着目像領域 WMRにおける
W W
着目像として特徴的な方向と X軸との交差角と、原画像内における着目像おける当
S
該特徴的な方向と X軸との交差角との差を算出することより求められる。こうした特徴 的な方向としては、例えば、着目像領域 WMRの形状が楕円近似できる場合には近 似楕円の長軸方向若しくは短軸方向、又は、着目像が特定人物の顔像である場合 における当該顔像における両目の中心位置を結ぶ方向等を採用することができる。 こうして、傾き角 0 (図 4Aの場合には、 0 =0)が求められると、原画像領域 OMR
W W
中における X γ座標系(着目座標系)が求められることになる。
W W
[0051] 次いで、着目像情報抽出部 31は、着目像領域 WMRの大きさ情報として、着目像 領域 WMRに関する特徴的な長さを求める。本実施形態においては、 X軸上におけ
W
る着目像領域 WMRの幅を当該特徴的な長さ(図 4Aにおける幅 LX )としている。な
W
お、着目像領域 WMRの大きさ情報としては、 X軸上における着目像領域 WMRの
W
幅 LX以外に、 Y軸上における着目像領域 WMRの幅、 X軸 (若しくは Y軸)方向
W W W W
における着目像領域 WMRの最大幅、又は着目像領域における特徴的な 2点間の 距離 (例えば、着目像が特定人物の顔像である場合における当該顔像における両目 の中心間距離)、当該距離の X軸成分の長さ若しくは当該距離の Y軸成分の長さ
W W
等を採用することができる。
[0052] 図 4Bの場合にも、着目像情報抽出部 31は、上述した図 4Aの場合と同様に、原画 像領域 OMRにおける着目像領域 WMRを特定した後、着目像領域 WMRにおける 代表点の位置情報、傾き情報及び大きさ情報を求める。なお、図 4Bの場合には、代 表点の位置情報として代表点 O の原画像座標系における座標位置 O (X , Y
W W SW2 SW2
)が求められ、着目像領域 WMRの傾き情報として傾き角 θ = Θ が求められ、着目
W 0
像領域 WMRの大きさ情報として、 X軸上における着目像領域 WMRの幅 LXが求
W W
められる。
[0053] 上記のマスク画像作成部 32は、着目像情報抽出部 31によって抽出された着目像 情報 WMDと、上述した記憶部 23に記憶されたマスク画像情報 MDDとに基づ ヽて 、マスク画像データ MMDを作成する。なお、マスク画像情報 MDD及びマスク画像 作成部 32によるマスク画像データ MMDの作成については、後述する。
[0054] 上記の合成画像作成部 33は、原画像データ OMD及びマスク画像データ MMDに 基づいて、原画像上にマスク画像を重ねた合成画像データ SMDを作成する。なお、 合成画像作成部 33によって作成された合成画像データ SMDは、基本制御部 29へ 通知されるようになって 、る。
[0055] なお、本実施形態においては、制御部 21は、中央処理装置 (CPU)、デジタル信 号処理装置 (DSP)等を備えている。そして、制御部 21で実行されるプログラムとして 構成された基本処理部 29やマスク画像処理部 30により、メール送受信処理を含む 携帯電話機能を実現するために、様々なデータ処理を行うとともに、上述した他の構 成要素の動作制御を行うようになって 、る。
[0056] 図 2に戻り、記憶部 23には、マスク画像情報ファイル 40が記憶されている。このマス ク画像情報ファイル 40は、図 5Aに示されるように、(i)原画像における着目像領域と 関連してどのようにマスク画像を表示するかを指定する表示指定記述が格納された 表示指定ファイル 41と、 (ii)表示指定ファイル 41における表示指定記述によって指 定される要素画像データが格納された要素画像ファイル 42とから構成されて!ヽる。 なお、マスク画像情報ファイル 40は、携帯電話装置 10に対して、コンテンツプロバイ ダカ 無線回線を介して提供されたり、利用者がパーソナルコンピュータ等により作 成した後に記憶媒体や不図示の外部インターフェースを介して提供されたりする。
[0057] 要素画像ファイル 42には、図 5Bに示されるように、要素画像が格納されている。な お、要素画像ファイル 42に格納されている第 i番目の要素画像を以下においては、 要素画像 EMMと記すものとする。なお、図 5Bでは、要素画像ファイル 42に格納さ れている要素画像が複数ある場合が示されている力 要素画像ファイル 42に格納さ れている要素画像の数は 1つの場合もあるし、 2つ以上の場合もある。要素画像 EM Mとしては、例えば、ハート図形画像、唇図形画像等がある。
[0058] こうした、要素画像 EMMは、図 6において要素画像 EMM について代表的に示
ϊ 11
されるよう〖こ、要素画像に固有の座標系、すなわち要素画像 EMMの代表点(図 6で は、要素画像 EMM の中心点)を原点 Oとする X Y座標系において作成されてい
11 E E E
る。そして、要素画像 EMMの大きさ情報としては、 X軸方向における最大幅 LX (
ϋ E Ei 図 6においては、最大幅 LX )を使用するようになっている。図 6においては、要素画
E1
像 EMMをハート図形の要素画像 EMM としたが、形状や大きさの異なる要素画像 a ii
であっても、同様である。
[0059] 上記の表示指定ファイル 41における表示指定記述の例力 図 7、図 8A及び図 8B に示されている。なお、本実施形態における表示指定記述は、 SMIL (Synchronized Multimedia Integration Language)形式に準じた形式で記述されるようになって!/、る。
[0060] 図 7には、着目像領域の位置、傾き、及び大きさに応じて定まる 2つの位置 (例えば 、着目像が特定の人物の顔像である場合における両目の位置)に、定常的に同一の 要素画像が同時を表示させる表示指定を行うための例が表示指定ファイル 41として
1 示されている。すなわち、 <同時表示指定 >により、これと <同時表示指定終了 >と の間に記述された <付加画像 1指定 >及び<付加画像 2指定 >によって指定される 付加画像 1及び付加画像 2が同時に表示されることが指定される。
[0061] 付加画像 1は、 <付加画像 1指定 >と<付加画像 1指定終了 >と間の記述によつ て指定される。すなわち、「表示位置指定」によって指定されるように、着目像領域 w
MRの大きさ情報が予め定められた基準となる値 LX である場合における X Y座
WO W W
標系の座標位置 (X , Y )に、「要素画像指定」によって指定される要素画像 EM
Wll W11
M
11が表示される。また、「大きさ指定」によって指定されるように、表示時における要 素画像 EMM の X軸方向の最大幅力 着目像領域 WMRの大きさ LXに対して比
11 W W
率 Rの
1 長さとされる。なお。後述する表示時間指定がなされていないことから、付カロ 画像 1における要素画像 EMM は常時表示されることが指定されて 、る。
11
[0062] 付加画像 2は、 <付加画像 2指定 >と<付加画像 2指定終了 >と間の記述によつ て指定される。すなわち、「表示位置指定」によって指定されるように、着目像領域 W MRの大きさ情報が予め定められた基準となる値 LX である場合における X Y座
WO W W
標系の座標位置 (X , Y )に、「要素画像指定」によって指定される要素画像 EM
W12 W12
M が表示される。これ以外の指定については、付加画像 1の場合と同様の指定が
11
行われていることから、付加画像 1の場合と同様の表示指定が行われている。
[0063] なお、図 7のような表示指定ファイル 41の場合には、表示指定ファイル 41に対応
1 1 する要素画像ファイル 42には、要素画像として、要素画像 EMM のみが格納され
1 11
る。
[0064] 図 8Aには、着目像領域の位置、傾き、及び大きさに応じて定まる 1つの位置 (例え ば、着目像が特定の人物の顔像である場合における口の位置)に、表示内容が時間 的に変化する 1つの付加画像 1が表示させる表示指定を行うための例が表示指定フ アイル 41として例が示されている。なお、図 8Aの表示指定ファイル 41では、複数の
2 2
要素画像を同時に表示させないので、図 7における同時表示に関連する <同時表 示指定 >及び <同時表示指定終了 >が記述されていない。
[0065] 付加画像 1は、 <付加画像 1指定 >と<付加画像 1指定終了 >と間の記述によつ て指定される。すなわち、まず、第 1の「要素画像指定」によって指定される要素画像 EMM 第 1の「表示位置指定」によって指定される着目像領域が予め定められ
21
た基準となる大きさ情報 LXが値 LX である場合における X Υ座標系の座標位置(
Ε Ε0 W W
X , Y )に表示される。また、第 1の「大きさ指定」によって指定されるように、要素
W21 W21
画像 EMM の表示時の X軸方向の最大幅力 着目像領域 WMRの大きさ LX に対
21 E W して比率 R の長さとされる。また、第 1の「表示時間指定」によって指定されるように、
21
要素画像 EMM 力 時間 T にわたつて表示される。
21 21
[0066] 要素画像 EMM の時間 T の表示が終了すると、次に、第 2の「要素画像指定」に
21 21
よって指定される要素画像 EMM 力 第 2の「表示位置指定」によって指定される位
22
置、すなわち要素画像 EMM の場合と同様の位置に表示される。また、第 2の「大き
21
さ指定」によって指定されるように、要素画像 EMM
22の表示時における X
E軸方向の 最大幅が、着目像領域 WMRの大きさ LX に対して比率 R の長さとされる。また、第
W 22
2の「表示時間指定」によって指定されるように、要素画像 EMM 力 時間 T にわた
22 22 つて表示される。
[0067] 要素画像 EMM の時間 T の表示が終了すると、次に、第 3の「要素画像指定」に
22 22
よって指定される要素画像 EMM 1S 第 3の「表示位置指定」によって指定される位
23
置、すなわち要素画像 EMM の場合と同様の位置に表示される。また、第 3の「大き
21
さ指定」によって指定されるように、要素画像 EMM の表示時における X軸方向の
23 E 最大幅が、着目像領域 WMRの大きさ LX に対して比率 R の長さとされる。また、第
W 23
3の「表示時間指定」によって指定されるように、要素画像 EMM 力 時間 T にわた
23 23 つて表示される。
[0068] こうして、要素画像 EMM 、要素画像 EMM 及び要素画像 EMM の時間順次の
21 22 23
表示が終了すると、再度、上記と同様の態様で要素画像 EMM 、要素画像 EMM
21 22 及び要素画像 EMM の時間順次の表示がされる。こうして、要素画像 EMM 、要 素画像 EMM 及び要素画像 EMM の指定態様による表示が、時間順次に繰り返
22 23
される。
[0069] 図 8Bには、着目像領域の位置、傾き、及び大きさに応じて定まる 1つの位置に、常 時 1つの要素画像を表示させるとともに、着目像領域の位置、傾き、及び大きさに応 じて定まる他の 2つの位置に、時間順次に異なる 2つの要素画像を択一的に表示さ せる表示指定を行うための例が表示指定ファイル 41として例が示されている。すな
3
わち、 <同時表示指定 >により、これと <同時表示指定終了 >との間に記述された <付加画像 1指定 >及び <付加画像 2指定 >によって指定される付加画像 1及び付 加画像 2が同時に表示されることが指定される。
[0070] 付加画像 1は、 <付加画像 1指定 >と<付加画像 1指定終了 >と間の記述によつ て指定される。すなわち、「表示位置指定」によって指定されるように、着目像領域 w
MRの大きさ情報が予め定められた基準となる値 LX である場合における X Y座
WO W W
標系の座標位置 (X , Y )に、「要素画像指定」によって指定される要素画像 EM
W31 W31
M
31が表示される。また、「大きさ指定」によって指定されるように、表示時における要 素画像 EMM の X軸方向の最大幅力 着目像領域 WMRの大きさ LXに対して比
31 W W 率 R の
31 長さとされる。なお、表示時間指定がなされていないことから、付加画像 1に おける要素画像 EMM は常時表示されることが指定されて!ヽる。
31
[0071] 付加画像 2は、 <付加画像 2指定 >と<付加画像 2指定終了 >と間の記述によつ て指定される。すなわち、まず、第 1の「表示位置指定」によって指定されるように、着 目像領域 WMRの大きさ情報が予め定められた基準となる値 LX である場合におけ
W0
る X Y座標系の座標位置 (X , Y )に、第 1の「要素画像指定」によって指定さ
W W W32 W32
れる要素画像 EMM が表示される。また、「大きさ指定」によって指定されるように、
32
表示時における要素画像 EMM の X軸方向の最大幅が、着目像領域 WMRの大
32 W
きさ LXに対して比率 R の長さとされる。また、第 1の「表示時間指定」によって指定
W 32
されるように、要素画像 EMM 力 時間 T にわたつて表示される。
32 32
[0072] 付加画像 2においては、要素画像 EMM の時間 T の表示が終了すると、次に、第
32 32
2の「表示位置指定」によって指定されるように、着目像領域 WMRの大きさ情報が予 め定められた基準となる値 LXである場合における X Y座標系の座標位置 (X ,
0 W W W33 Y )に、第 2の「要素画像指定」によって指定される要素画像 EMM が表示される
33
また、「大きさ指定」によって指定されるように、表示時における要素画像 EMM の
33
X軸方向の最大幅力 着目像領域 WMRの大きさ LX に対して比率 R の長さとさ
W W 33 れる。また、第 2の「表示時間指定」によって指定されるように、要素画像 EMM 力
33 時間 τ にわたつて表示される。
33
[0073] こうして、付加画像 1と付加画像 2とを合わせて、要素画像 EMM 及び要素画像 E
31
MM の同時表示と、要素画像 EMM 及び要素画像 EMM の同時表示とが時間
32 31 33
順次に行われる。これらの表示が終了すると、再度、上記と同様の態様で、要素画像
EMM 及び要素画像 EMM の同時表示と、要素画像 EMM 及び要素画像 EMM
31 32 31
の同時表示とが時間順次に行われる。こうして、要素画像 EMM 及び要素画像 E
33 31
MM の同時表示と、要素画像 EMM 及び要素画像 EMM の同時表示とが時間
32 31 33
順次に繰り返される。
[0074] 以下、上記のように構成された携帯電話装置 10における、原画像にマスク画像を 重ねた合成画像の作成の動作につ!、て説明する。
[0075] 前提として、マタス画像作成部 32は、記憶部 23におけるマスク画像情報ファイル 4 0の内容をマスク画像情報 MDDとして既に読み込んでいるものとする。また、原画像 は、撮像光学系 18及び切換光学系 24を介し、撮像素子 25の撮像面に結像された 像であるものとする。また、着目像 WMMは、図 9Aに示されるような特定の人物の顔 像であるものものとする。そして、図 9Bに示されるように、着目像 WMMにおける鼻の 突端位置を原点 O とし、両面を結ぶ方向を X軸方向とし、当該 X軸方向と垂直な
W W W
方向を Y X Y
W軸方向とする W W座標系(着目像座標系)が定義されるものとする。なお
、原点 O及び X軸方向は、原画像における着目像を画像解析して求められ、 Y軸
W W W
方向は、求められた X軸方向に基づいて求められるものとする。
W
[0076] 《第 1の合成画像作成例》
まず、第 1の合成画像作成例を説明する。この例は、上述した図 7において、両目 の位置を表示位置とし、要素画像 EMM 1S 図 6に示されるハート型図形画像であ
11
り、当該要素画像 EMM が着目像 WMMの大きさを表す長さ値 LX に対して比率 R
11 W
の大きさで表示されるマスク画像力 原画像に重ねて表示される合成画像の例であ る。
[0077] まず、撮像素子 25にお ヽて撮像された原画像 OMMのデータである原画像データ OMDが、着目像情報抽出部 31へ通知される。なお、原画像データ OMDは、同時 に合成画像作成部 33へも通知される(図 3参照)。ここで、得られた原画像 OMMの 例が、図 10Aに示されている。
[0078] 着目像情報抽出部 31は、通知された原画像 OMMを画像処理して、着目像 WM Mの領域を抽出する。引き続き、着目像情報抽出部 31は、着目像 WMMを解析して 、原画像座標系(X Y座標系)における着目像 WMMにおける鼻の突端位置 (X ,
S S SW
Y )を着目像座標 (X Y座標系)の原点 o の位置として求めるとともに、両目の瞳
SW W W W
の中央位置同士を結ぶ線分が延びる方向を X Y
W W座標系の X
W軸方向として求める。 そして、求められた X軸方向と X軸方向との交差角度 0 を求める。さらに、着目像
W S W
情報抽出部 31は、着目像 WMMの X軸上における幅 LXを求める。そして、着目
W W
像情報抽出部 31は、着目像情報データ WMDとして、着目像領域の位置情報として の位置 (X , Y )を、着目像領域の傾き情報としての角度 Θ を、着目像領域の大
SW SW W
きさ情報としての長さ LXを、マスク画像作成部 32へ通知する。
W
[0079] 着目像情報データ WMDを受けたマスク画像作成部 32は、まず、付加画像 1にお ける要素画像 EMM の X Y座標系における表示位置 (X , Y )を、次の(1)式及
11 S S Ell E11
び (2)式により算出する。
X =(LX ZLX XX -COS θ +Υ -sin 0 )+Χ …ひ)
Ell W 0 Wll W Wll W SW
Y =(LX ZLX X— X -sin 0 +Y -cos θ )+Y · '· (2)
Ell W 0 Wll W Wll W SW
[0080] 次に、マスク画像作成部 32は、付加画像 1における要素画像 EMM の拡大又は
11
縮小の倍率 M を、次の(3)式により算出する。
11
M =R -LX /LX · '· (3)
11 1 W El
[0081] 次いで、マスク画像作成部 32は、要素画像 EMM を X Y座標系において原点 O
11 S S E を中心として倍率 M で拡大又は縮小を行う。引き続き、マスク画像作成部 32は、拡
11
大又は縮小された要素画像 EMM を X Y座標系において原点 Oを中心として角
11 E E E
度 Θ だけ回転させる。そして、拡大又は縮小され、かつ、回転された要素画像 EM
W
M を、 X Y座標系における座標位置 (X , Y )が原点 Oの位置となるように X Y
11 S S Ell Ell E S S 座標系に配置する。
[0082] 次に、マスク画像作成部 32は、付加画像 1の場合と同様にして、付加画像 2におけ る要素画像 EMM の X Y座標系における表示位置 (X , Y )を、次の (4)式及び
11 S S E12 E12
(5)式により算出する。
X =(LX ZLX XX -COS θ +Υ -sin 0 )+Χ · '· (4)
E12 W 0 W12 W W12 W SW
Υ =(LX ZLX X— X -sin 0 +Υ -cos θ )+Υ · '· (5)
E12 W 0 W12 W W12 W SW
[0083] 引き続き、マスク画像作成部 32は、付加画像 1の場合と同様にして、付加画像 2〖こ おける要素画像 EMM の拡大又は縮小の倍率 M を、次の(6)式により算出する。
11 12
M =R -LX /LX · '· (6)
12 1 W El
[0084] 次!/、で、マスク画像作成部 32は、要素画像 EMM を X Y座標系にお!/、て原点 O
11 S S E を中心として倍率 M で拡大又は縮小を行う。引き続き、マスク画像作成部 32は、拡
12
大又は縮小された要素画像 EMM を X Y座標系において原点 Oを中心として角
11 E E E
度 Θ だけ回転させる。そして、拡大又は縮小され、かつ、回転された要素画像 EM
W
M を、 X Y座標系における座標位置 (X , Y )が原点 Oの位置となるように X Y
11 S S E12 E12 E S S 座標系に配置する。
[0085] 以上の結果、図 10Bにおいて画像 F10Bとして示されるようなマスク画像 MMMA が作成される。そして、マスク画像作成部 32は、作成されたマスク画像 MMMAのデ ータをマスク画像データ MMDとして合成画像作成部 33へ通知する。
[0086] マスク画像データ MMD及び原画像データ OMDを受けた合成画像作成部 33は、 原画像データ OMM上にマスク画像 MMMAを重ねた合成画像 SMMAを作成する 。こうして作成された合成画像 SMMAが図 11にお!/、て画像 Fl 1 Aとして示されて!/ヽ る。
[0087] 以上のようにして、本例の場合における合成画像が作成される。このため、撮像中 の原画像における着目像 WMMが上記の例から平行移動したとしても、画像 F11B として示されるように、上記の場合と同様に、着目像 WMMの両目の位置に要素画 像 EMM が着目像領域の大きさに応じて指定された比率の大きさで表示されたマス
11
ク画像が原画像上に重ねられた合成画像 SMMBが作成される。
[0088] また、撮像中の原画像における着目像 WMMが縮小したとしても、画像 Fl 1Cとし て示されるように、上記の場合と同様に、着目像 WMMの両目の位置に要素画像 E MM が着目像領域の大きさに応じて指定された比率の大きさで表示されたマスク画
11
像が原画像上に重ねられた合成画像 SMMCが作成される。また、撮像中の原画像 における着目像 WMMが回転したとしても、画像 F11Dとして示されるように、上記の 場合と同様に、着目像 WMMの両目の位置に要素画像 EMM が着目像領域の大
11
きさに応じて指定された比率の大きさを有し、かつ、着目像 WMMの原画像中にお ける傾きと同一の傾きを持って表示されたマスク画像が原画像上に重ねられた合成 画像 SMMDが作成される。なお、撮像中の原画像における着目像 WMMが縮小、 拡大又は回転した場合には、一般に、着目像領域における鼻の突端位置の原画像 座標系(X Y座標系)における座標位置の変化を伴うこととなる。
S S
[0089] 《第 2の合成画像作成例》
次に、第 2の合成画像作成例を説明する。この例は、上述した図 8Aにおいて、口 の位置を表示位置とし、図 12Aに示される要素画像 EMM 、図 12Bに示される要素
21
画像 EMM 、及び図 12Cに示される要素画像 EMM が時間順次に繰り返して表
22 23
示されるマスク画像が、原画像に重ねて表示される合成画像の例である。
[0090] なお、図 8Aの記述で指定されて 、る「大きさ情報」に応じた大きさで要素画像 EM M , EMM , EMM が表示される。すなわち、要素画像 EMM は着目像 WMM
21 22 23 21
の大きさを表す長さ値 LXに対して比率 R の大きさで表示される。また、要素画像 E
W 21
MM は長さ値 LXに対して比率 R の大きさで表示される。さらに、要素画像 EMM
22 W 22
は長さ値 LXに対して比率 R の大きさで表示される。
23 W 23
[0091] まず、上記の第 1の合成画像作成例と同様にして、撮像素子 25において撮像され た原画像 OMMのデータが原画像データ OMDとして着目像情報抽出部 31へ通知 される。引き続き、着目像情報抽出部 31が、通知された原画像 OMMを画像処理し て、着目像 WMMの領域を特定し、着目像情報 WMRを抽出する。そして、着目像 情報抽出部 31は、着目像情報データ WMDとして、着目像領域の位置情報としての 位置 (X , Y )を、着目像領域の傾き情報としての角度 Θ を、着目像領域の大きさ
SW SW W
情報としての長さ LXを、マスク画像作成部 32へ通知する。
W
[0092] 着目像情報データ WMDを受けたマスク画像作成部 32は、まず、付加画像 1にお ける第 1要素画像 EMM の X Y座標系における表示位置 (X , Y )を、次の(7)式
21 S S E2 E2
及び (8)式により算出する。
X =(LX ZLX XX -COS θ +Υ -sin 0 )+Χ - -- (7)
Ε2 W 0 W2 W W2 W SW
Y =(LX ZLX X— X -sin 0 +Y -cos 0 )+Y "- (8)
E2 W 0 W2 W W2 W SW
[0093] 次に、マスク画像作成部 32は、第 1の要素画像 EMM の拡大又は縮小の倍率 M
21
を、次の(9)式により算出する。
21
M =R -LX /LX
[0094] 次いで、マスク画像作成部 32は、上記の第 1の合成画像作成と同様にして、要素 画像 EMM を X Y座標系において原点 Oを中心として倍率 M で拡大又は縮小を
21 S S E 21 行う。引き続き、マスク画像作成部 32は、拡大又は縮小された要素画像 EMM を X
21 E
Y座標系において原点 oを中心として角度 Θ だけ回転させる。そして、拡大又は
E E W
縮小され、かつ、回転された要素画像 EMM を、 X Y座標系における座標位置 (X
21 S S
, Y )が原点 Oの位置となるように X Y座標系に配置する。
E2 E2 E S S
[0095] 以上の結果、図 13において、画像 F13Aとして示されるようなマスク画像 MMM
21 が作成される。そして、マスク画像作成部 32は、作成されたマスク画像 MMM のデ
21 ータをマスク画像データ MMDとして合成画像作成部 33へ通知する。
[0096] このマスク画像データ MMD及び原画像データ OMDを受けた合成画像作成部 33 は、原画像 OMM上にマスク画像 MMMを重ねた合成画像 SMM を作成する。こう
21
して作成された合成画像 SMM が図 14において画像 F14Aとして示されている。
21
[0097] 以後、マスク画像作成部 32は、時間 T にわたつて、着目像 WMMの口の位置を表
21
示位置として、要素画像 EMM を、着目像 WMMの大きさを表す長さ値 LXに対す
21 W る比率 R の大きさで表示するマスク画像を作成する。この結果、合成画像作成部 33
21
は、原画像の着目像 WMMにおける口の位置に要素画像 EMM を倍率 M で拡大
21 21 又は縮小したマスク画像を重ねた合成画像を、時間 τ にわたつて逐次作成する。
21
[0098] こうして、時間 T が経過すると、マスク画像作成部 32は、付加画像 1における第 2
21
要素画像 EMM の X Y座標系における表示位置 (X , Y )を、上記の(7)式及び
22 S S E2 E2
(8)式により算出する。引き続き、マスク画像作成部 32は、第 2の要素画像 EMM の
22 拡大又は縮小の倍率 M を、次の(10)式により算出する。 M =R -LX /LX - -- (10)
22 22 W E22
[0099] 次に、マスク画像作成部 32は、上記の第 1の要素画像 EMM の場合と同様にして
21
、要素画像 EMM を X Y座標系において原点 Oを中心として倍率 M で拡大又は
22 E E E 22 縮小を行う。引き続き、マスク画像作成部 32は、拡大又は縮小された要素画像 EM M を X Y座標系において原点 Oを中心として角度 Θ だけ回転させる。そして、拡
22 E E E W
大又は縮小され、かつ、回転された要素画像 EMM を、 X Y座標系における座標
22 S S
位置 (X , Y )が原点 Oの位置となるように X Y座標系に配置する。
E2 E2 E S S
[0100] 以上の結果、図 13において画像 F13Bとして示されるようなマスク画像 MMM 力 S
22 作成される。そして、マスク画像作成部 32は、作成されたマスク画像 MMM のデー
22 タをマスク画像データ MMDとして合成画像作成部 33へ通知する。
[0101] このマスク画像データ MMD及び原画像データ OMDを受けた合成画像作成部 33 は、原画像 OMM上にマスク画像 MMMを重ねた合成画像 SMM を作成する。こう
22
して作成された合成画像 SMM が図 14において F14Bとして示されている。
22
[0102] 以後、マスク画像作成部 32は、時間 T にわたつて、着目像 WMMの口の位置を表
22
示位置として、要素画像 EMM を、着目像 WMMの大きさを表す長さ値 LXに対す
22 W る比率 R の大きさで表示するマスク画像を生成する。この結果、合成画像作成部 33
22
は、原画像の着目像 WMMにおける口の位置に要素画像 EMM を倍率 M で拡大
22 22 又は縮小したマスク画像を重ねた合成画像を、時間 T にわたつて作成する。
22
[0103] こうして、時間 T が経過すると、マスク画像作成部 32は、付加画像 1における第 3
22
要素画像 EMM の X Y座標系における表示位置 (X , Y )を、上記の(7)式及び
23 S S E2 E2
(8)式により算出する。引き続き、マスク画像作成部 32は、第 3の要素画像 EMM の
23 拡大又は縮小の倍率 M を、次の(11)式により算出する。
23
M =R -LX /LX · '· (11)
23
[0104] 次に、マスク画像作成部 32は、上記の第 1の要素画像 EMM の場合と同様にして
21
、要素画像 EMM を X Y座標系において原点 Oを中心として倍率 M で拡大又は
23 E E E 23 縮小を行う。引き続き、マスク画像作成部 32は、拡大又は縮小された要素画像 EM M を X Y座標系において原点 Oを中心として角度 Θ だけ回転させる。そして、拡
23 E E E W
大又は縮小され、かつ、回転された要素画像 EMM を、 X Y座標系における座標 位置 (X , Y )が原点 Οの位置となるように X Υ座標系に配置する。
Ε2 Ε2 E S S
[0105] 以上の結果、図 13において画像 F13Cとして示されるようなマスク画像 ΜΜΜ 力 S
23 作成される。そして、マスク画像作成部 32は、作成されたマスク画像 ΜΜΜ のデー
23 タをマスク画像データ MMDとして合成画像作成部 33へ通知する。
[0106] このマスク画像データ MMD及び原画像データ OMDを受けた合成画像作成部 33 は、原画像 ΟΜΜ上にマスク画像 ΜΜΜ を重ねた合成画像 SMM を作成する。こ
23 23
うして作成された合成画像 SMM が図 14において画像 F14Cとして示されている。
23
[0107] 以後、マスク画像作成部 32は、時間 Τ にわたつて、着目像 WMMの口の位置を表
23
示位置として、要素画像 EMM を、着目像 WMMの大きさを表す長さ値 LXに対す
23 W る比率 R の大きさで表示するマスク画像を生成する。この結果、合成画像作成部 33
23
は、原画像の着目像 WMMにおける口の位置に要素画像 EMM を倍率 M で拡大
23 23 又は縮小したマスク画像を重ねた合成画像を、時間 τ にわたつて作成する。
23
[0108] こうして、時間 T が経過すると、マスク画像作成部 32は、上記と同様にして、上述し
23
た要素画像 EMM を使用したマスク画像、要素画像 EMM を使用したマスク画像
21 22
及び要素画像 EMM を使用したマスク画像の時間順次の作成を繰り返す。そして、
23
合成画像作成部 33は、原画像データ OMDとマスク画像データ MMDとに基づ!/、て 、原画像における着目像の口の位置に指定の大きさに拡大又は縮小された要素画 像 EMM 、要素画像 EMM 、及び要素画像 EMM 力 なるマスク画像が重ねられ
21 22 23
た合成画像を逐次作成する。
[0109] 《第 3の合成画像作成例》
次に、第 3の合成画像作成例を説明する。この例は、上述の図 8におけるマスク画 像指定に対応するものであり、要素画像及び着目像に対する表示位置が固定的な 表示である付加画像 1、並びに、要素画像及び着目像に対する表示位置が時間的 に変化する付加画像 2を同時表示するマスク画像が、原画像に重ねて表示される合 成画像の例である。
[0110] ここで、付加画像 1における要素画像 EMM は、図 15Aに示されるものであるもの
31
とする。また、付加画像 2における第 1要素画像 EMM は、図 15Bに示されるもので
32
あり、また、付加画像 2における第 2要素画像 EMM は、図 15Cに示されるものであ
33 るちのとする。
[0111] なお、図 8の記述で指定されている「大きさ情報」に応じた大きさで要素画像 EMM
, EMM , EMM が表示される。すなわち、要素画像 EMM は着目像 WMMの
31 32 33 31
大きさを表す長さ値 LX に対する比率 R の大きさで表示される。また、要素画像 EM
W 31
M は長さ値 LXに対する比率 R の大きさで表示される。さらに、要素画像 EMM
32 W 32 33 は着目像 WMMの大きさを表す長さ値 LXに対する比率 R の大きさで表示される。
W 33
[0112] まず、上記の第 1又は第 2の合成画像作成と同様にして、撮像素子 25において撮 像された原画像データ OMDが、着目像情報抽出部 31へ通知される。引き続き、着 目像情報抽出部 31が、通知された原画像 OMMを画像処理して、着目像 WMMの 領域を特定し、着目像情報を抽出する。そして、着目像情報抽出部 31は、着目像情 報データ WMDとして、着目像領域の位置情報としての位置 (X , Y )を、着目像
SW SW
領域の傾き情報としての角度 0 を、着目像領域の大きさ情報としての長さ LXを、
W W
マスク画像作成部 32へ通知する。
[0113] 着目像情報データ WMDを受けたマスク画像作成部 32は、まず、付加画像 1にお ける第 1要素画像 EMM の X Y座標系における表示位置 (X , Y )を、次の(12
31 S S E31 E31
)式及び(13)式により算出する。
X =(LX ZLX XX -COS θ +Υ -sin 0 )+Χ - -- (12)
E31 W 0 W31 W W31 W SW
Y =(LX ZLX X— X -sin 0 +Y -cos θ )+Y · ,· (13)
E31 W 0 W31 W W31 W SW
[0114] 次に、マスク画像作成部 32は、第 1の要素画像 EMM の拡大又は縮小の倍率 M
11
を、次の(14)式により算出する。
31
M =R -LX /LX · '· (14)
31 31 W E31
[0115] 次いで、マスク画像作成部 32は、上記の第 1又は第 2の合成画像作成と同様にし て、要素画像 EMM を X Y座標系において原点 Oを中心として倍率 M で拡大又
31 E E E 31 は縮小を行う。引き続き、マスク画像作成部 32は、拡大又は縮小された要素画像 E MM を X Y座標系において原点 Oを中心として角度 Θ だけ回転させる。そして、
31 E E E W
拡大又は縮小され、かつ、回転された要素画像 EMM を、 X Y座標系における座
31 S S
標位置 (X , Y )が原点 oの位置となるように X Y座標系に配置する。
E31 E31 E S S
[0116] 次に、マスク画像作成部 32は、付加画像 1における第 1要素画像 EMM の場合と
31 同様に、付加画像 2における第 2要素画像 EMM の X Y座標系における表示位置
32 S S
(X , Y )を、次の(15)式及び(16)式により算出する。
E32 E32
X =(LX /LX)(X -cos 0 +Y -sin 0 )+Χ ·'·(15)
Ε32 W 0 W32 W W32 W SW
Υ =(LX /LX)(-X -sin 0 +Υ -cos 0 )+Υ ·'·(16)
Ε32 W 0 W32 W W32 W SW
[0117] 次に、マスク画像作成部 32は、第 2の要素画像 EMM の拡大又は縮小の倍率 M
32
を、次の(17)式により算出する。
32
M =R -LX /LX ·'·(17)
32 32 W Ε32
[0118] 次いで、マスク画像作成部 32は、上記の要素画像 EMM の場合と同様にして、要
31
素画像 EMM を X Y座標系において原点 Oを中心として倍率 M で拡大又は縮
32 E E E 32
小を行う。引き続き、マスク画像作成部 32は、拡大又は縮小された要素画像 EMM
332 を X Y座標系において原点 Oを中心として角度 Θ だけ回転させる。そして、拡大
E E E W
又は縮小され、かつ、回転された要素画像 EMM を、 XY座標系における座標位
31 S S
置 (X , Y )が原点 Oの位置となるように X Y座標系に配置する。
E32 E32 E S S
[0119] 以上の結果、図 16において画像 F16Aとして示されるようなマスク画像 MMM 力 S
31 作成される。そして、マスク画像作成部 32は、作成されたマスク画像 MMM のデー
31 タをマスク画像データ MMDとして合成画像作成部 33へ通知する。
[0120] このマスク画像データ MMD及び原画像データ OMDを受けた合成画像作成部 33 は、原画像 OMM上にマスク画像 MMM を重ねた合成画像 SMM を作成する。こ
31 31
うして作成された合成画像 SMM が図 17において画像 F17Aとして示されている。
31
[0121] 以後、マスク画像作成部 32は、時間 T にわたつて、着目像 WMMと指定された関
31
係にある位置に、要素画像 EMM を着目像 WMMの大きさを表す長さ値 LX に対
31 W する比率 R の大きさで表示し、かつ、要素画像 EMM を長さ値 LX に対する比率 R
31 32 W
の大きさで表示マスク画像を生成する。そして、合成画像作成部 33は、マスク画像
32
作成部 32から通知されたマスク画像データ MMDが表すマスク画像が原画像上に 重ねられた合成画像を、時間 T にわたつて作成する。
31
[0122] こうして、時間 T が経過すると、マスク画像作成部 32は、付加画像 1における第 1
31
要素画像 EMM の XY座標系における表示位置 (X , Y )及び倍率 M を、上
31 S S E31 E31 31 記の(12)式一(14)式により算出する。そして、マスク画像作成部 32は、 X Y座標
E E 系において原点 Oを中心として、要素画像 EMM を倍率 M で拡大又は縮小した
E 31 31
後に角度 0 だけ回転させる。そして、拡大又は縮小され、かつ、回転された要素画
W
像 EMMを、 X Y座標系における座標位置 (X , Y )が原点 Oの位置となるよう
2 S S E31 E31 E に X Y
S S座標系に配置する。
[0123] 次に、マスク画像作成部 32は、付加画像 1における第 1要素画像 EMM の場合と
11 同様に、付加画像 2における要素画像 EMM の X Y座標系における表示位置 (X
33 S S
, Y )を、次の(18)式及び(19)式により算出する。
E33 E33
X =(LX /LX )(X -cos 0 +Y -sin 0 )+X · '· (18)
Ε33 W 0 W33 W W33 SW
Y =(LX /LX )(-X -sin 0 +Y -cos 0 )+Y · '· (19)
E33 W 0 W33 W W33 SW
[0124] 次に、マスク画像作成部 32は、第 3要素画像 EMM の拡大又は縮小の倍率 M を
33 33
、次の(20)式により算出する。
M =R -LX /LX - -- (20)
33 33 W E33
[0125] 次いで、マスク画像作成部 32は、上記の第 1要素画像 EMM の場合と同様にして
31
、要素画像 EMM を X Y座標系において原点 Oを中心として倍率 M で拡大又は
33 E E E 33 縮小を行う。引き続き、マスク画像作成部 32は、拡大又は縮小された要素画像 EM M を X Y座標系において原点 Oを中心として角度 Θ だけ回転させる。そして、拡
33 E E E W
大又は縮小され、かつ、回転された要素画像 EMM を、 X Y座標系における座標
33 S S
位置 (X , Y )が原点 Oの位置となるように X Y座標系に配置する。
E33 E33 E S S
[0126] 以上の結果、図 16において画像 F16Bとして示されるようなマスク画像 MMM 力 S
32 作成される。そして、マスク画像作成部 32は、作成されたマスク画像 MMM のデー
32 タをマスク画像データ MMDとして合成画像作成部 33へ通知する。
[0127] このマスク画像データ MMD及び原画像データ OMDを受けた合成画像作成部 33 は、原画像 OMM上にマスク画像 MMM を重ねた合成画像 SMM を作成する。こ
32 32
うして作成された合成画像 SMM が図 17において画像 F17Bとして示されている。
32
[0128] 以後、マスク画像作成部 32は、時間 T にわたつて、着目像 WMMと指定された関
32
係にある位置に、要素画像 EMM を着目像 WMMの大きさを表す長さ値 LX に対
31 W する比率 R の大きさで表示し、かつ、要素画像 EMM を長さ値 LX に対する比率 R
31 33 W
の大きさで表示マスク画像を生成する。そして、合成画像作成部 33は、マスク画像
33 作成部 32から通知されたマスク画像データ MMDが表すマスク画像が原画像上に 重ねられた合成画像を、時間 T にわたつて作成する。
32
[0129] こうして、時間 T が経過すると、マスク画像作成部 32は、上記と同様にして、上述し
32
た要素画像 EMM 及び要素画像 EMM を使用したマスク画像、並びに要素画像 E
31 32
MM 及要素画像 EMM を使用したマスク画像の時間順次の作成を繰り返す。そし
31 33
て、合成画像作成部 33は、マスク画像作成部 32から通知されたマスク画像データ M MDが表すマスク画像が原画像上に重ねられた合成画像を逐次作成する。
[0130] 以上の第 1、第 2又は第 3合成画像作成例のようにして作成された合成画像の情報 データ SMDは、合成画像作成部 33から基本制御部 29へ通知される。この合成画 像情報データを受けた基本制御部 29は、予め利用者が操作部 12を操作して行った 指令に従って、合成画像 SMMを表示部 13に表示したり、送受信部 21を介して、通 話相手先へ送信したりする。
[0131] 以上説明したように、本実施形態では、着目像 WMMの領域を原画像において特 定し、原画像中における着目像 WMMの領域の位置及び大きさに関連する情報を 含む着目像情報 WMDを抽出する。引き続き、着目像情報 WMDと、マスク画像情 報ファイル 40に登録されたマスク画像情報とに基づいて、原画像 OMM上に重ねて 表示させるマスク画像 MMMを作成する。この結果、原画像 OMMにおける着目像 WMMの領域の位置に関連する情報と、マスク画像情報に含まれる着目像領域の 位置との関係を示す情報とにより定まる位置に、原画像 OMMにおける着目像 WM Mの領域の大きさに関連する情報と、着目像領域の大きさの関係を示す情報とにより 定まる大きさで、マスク画像情報に含まれる要素画像選択情報により選択された要素 画像カゝら構成されるマスク画像が作成される。そして、原画像上にマスク画像を重ね た合成画像が作成される。
[0132] したがって、本実施形態によれば、原画像に対して利用者の趣味感に応じた演出 を施した画像を簡易にかつ適切に作成することができる。
[0133] また、本実施形態では、マスク画像情報に含まれる着目像領域の位置に関連する 情報には、原画像 OMMにおける着目像領域 WMRの代表点の位置情報が含まれ ている。このため、マスク画像情報に含まれる着目像領域の位置との関係を示す情 報を、着目像領域の代表点に対する相対位置を示す情報とすることができ、関係情 報における着目像領域の位置との関係を示す情報を簡易なものとすることができる。
[0134] また、本実施形態では、マスク画像情報に含まれる着目像領域の位置に関連する 情報には、原画像 OMMにおける着目像領域の傾き情報が更に含まれている。この ため、原画像 OMMにおける着目像領域の傾き情報を使用することにより、着目像領 域の原画像における傾きに応じた位置に、所望の要素画像を重ねて表示した合成 画像を作成することができる。また、表示する要素画像に着目像領域の原画像にお ける傾きに応じた傾きを持たせて表示させることができる。
[0135] また、本実施形態では、マスク画像情報に含まれる着目像領域の位置に関連する 情報として、着目像領域の代表点を原点とし、原画像における着目像領域の傾きに 基づ 、て座標軸の方向が定められる座標系における座標位置情報が、要素画像の 表示位置情報として含まれている。このため、着目像領域の位置との関係を示す情 報を、着目像領域の代表点を原点とし、着目像領域の傾きに基づいて座標軸の方 向が定められる座標系における座標位置情報という簡易かつ取り扱いが容易なもの とすることができる。
[0136] また、本実施形態では、マスク画像情報が、着目像領域の大きさと要素画像 EMM の表示時における大きさとの比率情報を含むことすることができる。この場合には、原 画像 OMM内で着目像領域の大きさが刻々と変化する場合であっても、着目像領域 の大きさに適合した大きさの要素画像 EMMを含むマスク画像 MMMを作成すること ができる。
[0137] また、本実施形態では、マスク画像情報が、要素画像 EMMそれぞれの表示の実 行時間情報を含むことができる。この場合には、当該実行時間情報に従ってマスク画 像 WMMを作成することにより、所望の要素画像 EMMそれぞれを所望の時間に設 定した表示実行時間だけ表示することができ、ダイナミックに変化するマスク画像 M MMを作成することができる。
[0138] また、本実施形態では、マスク画像情報が、複数の要素画像 EMMの表示を時間 順次に表示するとともに、時間順次表示を繰り返すことを指定する時間順次表示指 定の情報を含むことができる。この場合には、当該時間順次表示指定の情報に従つ てマスク画像 WMMを作成することにより、原画像 OMM上に複数の要素画像を所 望の時間ごとに時間順次に繰り返し表示することができる。
[0139] また、本実施形態では、マスク画像情報が、複数の要素画像表示を同時に表示す ることを指定する同時表示指定の情報を含むことができる。この場合には、所望の複 数の要素画像 EMMそれぞれが、所望の位置に表示されるマスク画像を作成するこ とができ、様々なバリエーションのマスク画像 WMMを作成することができる。
[0140] <第 2実施形態 >
次に、本発明の第 2実施形態を、図 18—図 24を主に参照しつつ、適宜他の図面を 参照して説明する。なお、上述した第 1実施形態の場合と同一又は同様の要素には 同一符号を付し、重複する説明は省略する。
[0141] 本実施形態は、第 1実施形態と比べて、人物像の背景に原画像のものとは異なる 画像を用いることができる点が相違している。以下、当該相違点に主に着目して説明 する。
[0142] 本実施形態の携帯電話装置 10'は、図 18に示されるように、携帯電話本体 11内 部において、制御部 21が、マスク画像処理部 30'を備えている点と、記憶部 23にマ スク画像情報ファイル 40'が格納されている点とが、第 1実施形態の携帯電話装置 1 0と相違している。
[0143] マスク画像処理部 30'は、図 19に示されるように、着目像情報抽出部 31と、マスク 画像作成部 32'と、合成画像作成部 33'とを備えている。ここで、着目像情報抽出部 31は、第 1実施形態の場合と同様に動作する。
[0144] マスク画像作成部 32'は、第 1実施形態のマスク画像作成部 32と同様に、着目像 情報抽出部 31によって抽出された着目像情報 WMDと、上述した記憶部 23のマスク 画像情報ファイル 40'に記憶されたマスク画像情報 MDDとに基づいて、マスク画像 データ MMDを作成する。さら〖こ、マスク画像作成部 32,は、マスク画像情報ファイル 40'に記憶されたマスク画像情報 MDDに基づいて、背景像指定の有無を示す背景 像指定情報と、背景像指定情報にお!、て背景像指定が有る場合における背景像デ ータ BDDの格納位置情報力 成る背景像情報 BPNを作成する。
[0145] 合成画像作成部 33'は、背景像情報 BPNにより背景像指定が有る旨が通知され た場合には、まず、原画像データ OMD及び背景像データ BDDに基づいて、背景 像データ BDDによる背景像上に原画像中の特定表示画像である人物像を重ねた画 像を背景像含有画像として作成する。引き続き、合成画像作成部 33'は、当該背景 像含有画像上にマスク画像情報 MDDにより表されたマスク画像を重ねた合成画像 データ SMD'を作成する。
[0146] 一方、背景像情報 BPNにより背景像指定が無い旨が通知された場合には、合成 画像作成部 33 'は、原画像を背景像含有画像として作成する。引き続き、合成画像 作成部 33 'は、当該背景像含有画像上にマスク画像情報 MDDにより表されたマスク 画像を重ねた合成画像データ SMD'を作成する。この場合には、合成画像データ S MD'は、第 1実施形態の合成画像データ SMDと同様となる。
[0147] なお、合成画像作成部 33によって作成された合成画像データ SMD'は、基本制 御部 29へ通知されるようになって!/、る。
[0148] 記憶部 23内のマスク画像情報ファイル 40,は、図 20Aに示されるように、(i)原画像 における着目像領域と関連してどのようにマスク画像を表示するかを指定する表示指 定記述、及び、背景像指定記述が格納された表示指定ファイル 41 'と、(ii)上述した 要素画像ファイル 42と、 (iii)背景像データ BDDを格納した背景像ファイル 43とから 構成されている。なお、マスク画像情報ファイル 40'は、携帯電話装置 10に対して、 コンテンツプロバイダー力 無線回線を介して提供されたり、利用者がパーソナルコ ンピュータ等により作成した後に記憶媒体や不図示の外部インターフェースを介して 提供されたりする。
[0149] 本実施形態の表示指定ファイル 41 'における表示指定記述の例が、図 21に示され ている。なお、図 21に示される記述例は、第 1実施形態の場合における図 7の記述 例に背景像指定がある旨を加えたものである。すなわち、図 21の表示指定記述では 、 <同時表示指定 >から <同時表示指定終了 >までの間において、図 7の付加画 像 1及び付加画像 2についての記述に加えて、 <背景像指定 >及び <背景像指定 終了 >、並びにこれらの間における「背景像指定」の記述により同時表示すべき背景 像が指定されている。ここで、「背景像指定」としては、背景像ファイル 43の記憶部 23 における先頭アドレス BMMAが指定される。以下の説明においては、背景像フアイ ル 43〖こは、図 22に示されるような原画像領域 OMRと同一の形状及び大きさを有す る背景像領域 BMR内の背景像 BMMを表す背景像データ BDDが格納されている ものとする。
[0150] なお、 <背景像指定 >力 く背景像指定指定終了 >までの記述が無い場合には 、背景像指定が無いことを示すようになつている。また、背景像ファイル 43の先頭アド レス BMMA値として「0」が記述されて ヽる場合にも、背景像指定が無 ヽことを示すよ うになつている。
[0151] 以下、上記のように構成された携帯電話装置 10'における、合成画像の作成の動 作について説明する。
[0152] 上述した第 1実施形態における合成画像の作成の動作についての前提に加えて、 図 23に示される原画像領域 OMR内の人物像 SDM力 原画像 OMMから切り出さ れるべき特定表示画像であるものとする。
[0153] まず、第 1実施形態における第 1の合成画像作成例の場合と同様に、撮像素子 25 において撮像された原画像 OMMのデータである原画像データ OMD力 着目像情 報抽出部 31へ通知され、着目像情報抽出部 31により着目像情報データ WMDが作 成される。こうして作成された着目像情報データ WMDは、着目像情報抽出部 31か らマスク画像作成部 32 'へ通知される。
[0154] 着目像情報データ WMDを受けたマスク画像作成部 32'は、第 1実施形態におけ る第 1の合成画像作成例の場合と同様に、着目像情報データ WMD及びマスク画像 情報 MDDに基づいて、マスク画像 MMMAのデータを作成し、マスク画像データ M MDとして合成画像作成部 33'へ通知する。また、マスク画像作成部 32'は、マスク 画像情報 MDDに基づいて、背景像指定が有るか否か、及び、背景像指定が有る場 合における背景像ファイル 43の先頭アドレス力 成る背景像情報 BPNを作成し、合 成画像作成部 33 'へ通知する。ここで、表示指定ファイル 41 'には、上述した図 21の ように、背景像指定が記述されているので、背景像情報 BPNとしては、背景像指定 が有る旨、及び、背景像ファイル 43の先頭アドレスが含まれることになる。
[0155] マスク画像データ MMD、原画像データ OMD及び背景像情報 BPNを受けた合成 画像作成部 33 'は、まず、背景像情報 BPNに基づいて、背景像指定が有るか否か を判定する。今回の場合は、上記のように背景像指定があるので、判定結果は肯定 的となる。引き続き、合成画像作成部 33'は、背景像情報 BPN中の背景像ファイル 4 3の先頭アドレスを利用して、背景像ファイル 43から背景像データ BDDを読み出す
[0156] こうして、マスク画像データ MMD及び原画像データ OMDに加えて背景象データ BDDを取得した合成画像作成部 33'は、次のようにして、合成画像を作成する。
[0157] まず、合成画像作成部 33'は、図 24において画像 F24Aとして示される原画像 O MMから、画像 F24Bとして示されるように特定表示画像である人物像 SDMを切り出 す。かかる切り出しは、人物像一般の特徴から人物像 SDMの輪郭を特定した後、当 該輪郭内の画像を抽出することにより行われる。
[0158] 引き続き、合成画像作成部 33'は、特定表示像 SDMを、原画像 OMRにおける場 合と同一の位置に同一の大きさで、画像 F24Cとして示される背景像 BMMに重ねる 。この結果、画像 F24Dとして示される背景付加像 BAMが作成される。
[0159] 次に、合成画像作成部 33'は、画像 F24Eとして示されるマスク画像 MMMAを背 景付加像 BAMに重ねる。この結果、画像 F24Fとして示される合成画像 SMMA'が 作成される。
[0160] こうして作成された合成画像 SMMA'のデータ SMD,は、合成画像作成部 33から 基本制御部 29へ通知される。この合成画像情報データを受けた基本制御部 29は、 予め利用者が操作部 12を操作して行った指令に従って、合成画像 SMMA'を表示 部 13に表示したり、送受信部 21を介して、通話相手先へ送信したりする。
[0161] なお、表示指定ファイル 41 'に背景像指定が記述されて!、な 、場合や、背景像デ ータ BDDの格納先頭アドレスが「0」であった場合には、マスク画像作成部 32,は、背 景像指定が無 、旨のみを含む背景像情報 BPNを作成し、合成画像作成部 33 'へ 通知する。こうした背景像情報 BPNを受けた合成画像作成部 33'は、背景像指定が 無いと判定し、原画像 OMMにマスク画像 MMMAを重ねて、合成画像を作成する。 この結果、第 1実施形態における第 1の合成画像作成例の場合と同一の合成画像 S MMAが作成される。
[0162] また、上記では、表示指定ファイル 41 'にマスク画像指定が記述されておらず、背 景像指定のみが記述されている場合には、合成画像作成部 33'においては、背景 付加像 BAMが最終的な合成画像として作成される。
[0163] また、上記では、第 1実施形態における第 1の合成画像作成例の場合と同様のマス ク画像指定に加えて、背景像指定をした例を説明したが、第 1実施形態における第 2 又は第 3の合成画像作成例の場合と同様のマスク画像指定に加えて、背景像指定を することが可會なことは勿!^である。
[0164] 以上説明したように、本実施形態では、合成画像作成部 33'が、着目像である顔画 像を含む人物像 SDMを特定表示像として原画像 OMM力 切り出して、指定された 背景像 BMM上に重ね、着目像含有画像としての背景付加像 BAMを作成する。そ して、合成画像作成部 33'は、当該背景付加像 BAMにマスク画像 MMMAを重ね る。したがって、人物像 SDM等の特定表示画像に対する利用者の趣味感に応じた 演出を、マスク画像及び背景像を選択することにより施すことができる。
[0165] なお、上記の第 2実施形態では、マスク画像情報ファイル 40'が、背景像ファイル 4 3を含んでいることとした。これに対して、背景像ファイル 43を、マスク画像情報フアイ ル外の領域に置くことにすることもできる。
[0166] また、上記の第 1及び第 2実施形態では、原画像を動画としたが、原画像が静止画 であっても、本発明を適用することができる。
[0167] また、上記の第 1及び第 2実施形態では、いわゆる自分撮りの態様で撮像される撮 像光学系 18を介した光の結像結果を原画像とした力 V、わゆる相手撮りの態様で撮 像される撮像光学系 19を介した光の結像結果を原画像とすることもできる。さらに、 記憶部 23に記憶されている画像を原画像とすることもできる。
[0168] また、上記の第 1及び第 2実施形態では、原画像における着目像領域における着 目物体について奥行きに沿った構造を考慮せず、マスク画像に利用する要素画像も 2次元モデルで作成されたものとした。これに対し、着目像領域における着目物体に っ 、て奥行きに沿った構造を考慮し、マスク画像に利用する要素画像を 3次元モデ ルで作成されたものとすることもできる。この場合には、着目物体力 表示面と平行な 軸の回りの回転成分を有する動きをしたときであっても、その回転に追従しつつ違和 感のな 、マスク画像を作成することができる。 [0169] また、同時に表示する要素画像の数は任意である。さらに、時間順次表示を行う要 素画像の数も任意である。
[0170] また、上記の第 1及び第 2実施形態では、マスク画像情報ファイルが、表示指定ファ ィルと、要素画像ファイルとから構成されることとした。これに対して、マスク画像情報 ファイル力 要素画像プレビューファイルを更に有することとし、要素画像のプレビュ 一を指定された場合には、当該要素画像プレビューファイルを参照して、表示部 13 にお 、て要素画像のプレビューを行うこととしてもよ!/、。
[0171] また、着目像情報に基づいて着目像領域において予め定められた現象が発生した か否かを判定する所定現象発生したことを判定することとし、当該所定現象が発生し たことをトリガとしてマスク画像の作成を開始させることもできる。例えば、特定人物の 顔像を着目画像としたときに、瞼が閉じられたときに、目の位置力も涙が流れる合成 画像を作成することとすることちできる。
[0172] また、上記の第 1及び第 2実施形態では、携帯電話装置に本発明を適用したが、他 の種類の移動通信端末装置にも本発明を適用することができる。さらに、パーソナル コンピュータ等の一般の電子機器にも本発明を適用することができる。
産業上の利用可能性
[0173] 以上説明したように、本発明の画像処理方法及び画像処理方法は、取得された原 画像の加工処理に適用することができる。また、本発明の移動通信端末装置は、画 像メール機能やテレビ電話機能を有する移動通信端末装置に適用することができる

Claims

請求の範囲
[1] 画像の処理を行う画像処理方法であって、
着目すべき像の領域である着目像領域を原画像にお!ヽて特定し、前記原画像中 における前記着目像領域の位置及び大きさに関連する情報を含む着目像情報を抽 出する着目像情報抽出工程と;
前記着目像情報と、前記着目像領域との位置及び大きさの関係を示す少なくとも 1 つの関係情報、前記関係情報それぞれに対応して特定の要素画像の情報を選択し たことを示す要素画像選択情報、並びに前記要素画像選択情報により選択される少 なくとも 1つの要素画像情報が含まれたマスク画像情報ファイルに登録されたマスク 画像情報とに基づ!ヽて、前記原画像上に重ねて表示させるマスク画像を作成するマ スク画像作成工程と;
前記着目像領域内の着目像を前記原画像における場合と同一の位置に同一の大 きさで含む着目像含有画像上に前記マスク画像を重ねた合成画像を作成する合成 画像作成工程と;を備える画像処理方法。
[2] 前記着目像含有画像は前記原画像である、ことを特徴とする請求項 1に記載の画 像処理方法。
[3] 前記マスク画像情報ファイルは、特定の背景像の情報を選択したことを示す背景像 選択情報を更に含み、
前記合成画像作成工程では、前記着目像を含む特定表示像を前記原画像から切 り出して、前記特定表示像を前記原画像における場合と同一の位置に同一の大きさ で前記特定の背景像に重ねた背景付加像を前記着目像含有画像とした後に前記合 成画像を作成する、ことを特徴とする請求項 1に記載の画像処理方法。
[4] 前記着目像領域の位置に関連する情報には、前記原画像における前記着目像領 域の代表点の位置情報が含まれる、ことを特徴とする請求項 1に記載の画像処理方 法。
[5] 前記着目像領域の位置に関連する情報には、前記原画像における前記着目像領 域の傾き情報が含まれる、ことを特徴とする請求項 4に記載の画像処理方法。
[6] 前記関係情報には、前記着目像領域の代表点を原点とし、前記着目像領域の傾き に基づ!/ヽて座標軸の方向が定められる座標系における座標位置情報が、前記特定 の図形の表示位置情報として含まれる、ことを特徴とする請求項 4に記載の画像処理 方法。
[7] 前記関係情報には、前記着目像領域の大きさと前記特定の図形の表示時におけ る大きさとの比率情報が含まれる、ことを特徴とする請求項 1に記載の画像処理方法
[8] 前記マスク画像情報には、前記関係情報及び前記関係情報に対応する図形選択 情報との組合せで定まる図形表示それぞれの実行時間情報が更に含まれる、ことを 特徴とする請求項 1に記載の画像処理方法。
[9] 前記マスク画像情報には、前記関係情報及び前記関係情報に対応する図形選択 情報の組合せで定まる複数種類の図形表示を時間順次に表示するとともに、時間順 次表示を繰り返すことを指定する時間順次表示指定の情報が更に含まれる、ことを 特徴とする請求項 8に記載の画像処理方法。
[10] 前記マスク画像情報には、前記関係情報及び前記関係情報に対応する図形選択 情報の糸且合せで定まる複数種類の図形表示を同時に表示することを指定する同時 表示指定の情報が更に含まれる、ことを特徴とする請求項 1に記載の画像処理方法
[11] 前記原画像は動画像である、ことを特徴する請求項 1に記載の画像処理方法。
[12] 前記着目像情報に基づいて前記着目像領域において予め定められた現象が発生 したカゝ否かを判定する所定現象発生判定工程を更に備え、
前記所定現象発生判定工程において肯定的な判定がされた後に、前記マスク画 像作成工程を開始する、ことを特徴とする請求項 11に記載の画像処理方法。
[13] 画像の処理を行う画像処理装置であって、
着目すべき像の領域である着目像領域を原画像にお!ヽて特定し、前記原画像中 における前記着目像領域の位置及び大きさに関連する情報を含む着目像情報を抽 出する着目像情報抽出手段と;
前記着目像領域との位置及び大きさの関係を示す少なくとも 1つの関係情報、前記 関係情報それぞれに対応して特定の要素画像の情報を選択したことを示す要素画 像選択情報、並びに前記要素画像選択情報により選択される少なくとも 1つの要素 画像情報が含まれたマスク画像情報が登録されたマスク画像情報ファイルを格納す る記憶手段と;
前記着目像情報と、前記マスク画像情報とに基づいて、前記原画像上に重ねて表 示されるマスク画像を作成するマスク画像作成手段と;
前記着目像領域内の着目像を前記原画像における場合と同一の位置に同一の大 きさで含む着目像含有画像上に前記マスク画像を重ねた合成画像を作成する合成 画像作成手段と;を備える画像処理装置。
[14] 前記着目像含有画像は前記原画像である、ことを特徴とする請求項 13に記載の画 像処理装置。
[15] 前記マスク画像情報ファイルは、特定の背景像の情報を選択したことを示す背景画 像選択情報を更に含み、
前記合成画像作成手段は、前記着目像を含む特定表示像を前記原画像から切り 出して、前記特定表示像を前記原画像における場合と同一の位置に同一の大きさで 前記特定の背景像に重ねた背景付加像を前記着目像含有画像とした後に前記合 成画像を作成する、ことを特徴とする請求項 13記載の画像処理装置。
[16] 前記合成画像を表示する表示手段を更に備える、ことを特徴とする請求項 13に記 載の画像処理装置。
[17] 前記合成画像データを送信する送信手段を更に備える、ことを特徴とする請求項 1
3に記載の画像処理装置。
[18] 前記原画像を取得するための撮像手段を更に備える、ことを特徴とする請求項 13 に記載の画像処理装置。
[19] 請求項 13に記載の画像処理装置を備える、ことを特徴とする移動通信端末装置。
PCT/JP2005/001753 2004-02-05 2005-02-07 画像処理方法、画像処理装置及び移動通信端末装置 WO2005076210A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP05709805A EP1713030A4 (en) 2004-02-05 2005-02-07 PICTURE PROCESSING METHOD, PICTURE PROCESSING DEVICE AND MOBILE COMMUNICATION TERMINAL DEVICE
JP2005517765A JPWO2005076210A1 (ja) 2004-02-05 2005-02-07 画像処理方法、画像処理装置及び移動通信端末装置
US11/498,983 US7864198B2 (en) 2004-02-05 2006-08-04 Image processing method, image processing device and mobile communication terminal

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004029943 2004-02-05
JP2004-029943 2004-02-05

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US11/498,983 Continuation US7864198B2 (en) 2004-02-05 2006-08-04 Image processing method, image processing device and mobile communication terminal

Publications (1)

Publication Number Publication Date
WO2005076210A1 true WO2005076210A1 (ja) 2005-08-18

Family

ID=34835975

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/001753 WO2005076210A1 (ja) 2004-02-05 2005-02-07 画像処理方法、画像処理装置及び移動通信端末装置

Country Status (4)

Country Link
US (1) US7864198B2 (ja)
EP (1) EP1713030A4 (ja)
JP (1) JPWO2005076210A1 (ja)
WO (1) WO2005076210A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008053855A (ja) * 2006-08-22 2008-03-06 Olympus Imaging Corp 撮像装置
WO2013132557A1 (ja) * 2012-03-05 2013-09-12 パナソニック株式会社 コンテンツ加工装置とその集積回路、方法、およびプログラム
JP2013198086A (ja) * 2012-03-22 2013-09-30 Canon Inc 設定装置、画像処理装置、設定方法、画像処理方法、及びプログラム

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4417292B2 (ja) * 2005-05-25 2010-02-17 ソフトバンクモバイル株式会社 オブジェクト出力方法及び情報処理装置
EP2225878A1 (en) * 2007-11-22 2010-09-08 Koninklijke Philips Electronics N.V. Methods and devices for receiving and transmitting an indication of presence
US20090169074A1 (en) * 2008-01-02 2009-07-02 General Electric Company System and method for computer assisted analysis of medical image
JP5020135B2 (ja) * 2008-03-19 2012-09-05 ソニーモバイルコミュニケーションズ, エービー 携帯端末装置およびコンピュータプログラム
EP2113881A1 (en) * 2008-04-29 2009-11-04 Holiton Limited Image producing method and device
JP2009278325A (ja) * 2008-05-14 2009-11-26 Seiko Epson Corp 画像処理装置、画像処理方法、およびプログラム
US9239847B2 (en) * 2009-03-12 2016-01-19 Samsung Electronics Co., Ltd. Method and apparatus for managing image files
US20110018961A1 (en) * 2009-07-24 2011-01-27 Huboro Co., Ltd. Video call device and method
JP5304529B2 (ja) * 2009-08-17 2013-10-02 富士ゼロックス株式会社 画像処理装置及び画像処理プログラム
EP2355472B1 (en) * 2010-01-22 2020-03-04 Samsung Electronics Co., Ltd. Apparatus and method for transmitting and receiving handwriting animation message
JP5525923B2 (ja) 2010-06-09 2014-06-18 任天堂株式会社 画像処理プログラム、画像処理装置、画像処理システム、および画像処理方法
US8854298B2 (en) * 2010-10-12 2014-10-07 Sony Computer Entertainment Inc. System for enabling a handheld device to capture video of an interactive application
JP5791256B2 (ja) * 2010-10-21 2015-10-07 キヤノン株式会社 表示制御装置、表示制御方法
WO2013065121A1 (ja) * 2011-11-01 2013-05-10 アイシン精機株式会社 障害物警報装置
JP5805503B2 (ja) * 2011-11-25 2015-11-04 京セラ株式会社 携帯端末、表示方向制御プログラムおよび表示方向制御方法
US9236024B2 (en) 2011-12-06 2016-01-12 Glasses.Com Inc. Systems and methods for obtaining a pupillary distance measurement using a mobile computing device
US9378584B2 (en) 2012-05-23 2016-06-28 Glasses.Com Inc. Systems and methods for rendering virtual try-on products
US9483853B2 (en) * 2012-05-23 2016-11-01 Glasses.Com Inc. Systems and methods to display rendered images
US9286715B2 (en) 2012-05-23 2016-03-15 Glasses.Com Inc. Systems and methods for adjusting a virtual try-on
GB2502591B (en) * 2012-05-31 2014-04-30 Sony Comp Entertainment Europe Apparatus and method for augmenting a video image
KR101948692B1 (ko) 2012-10-09 2019-04-25 삼성전자주식회사 촬영 장치 및 이미지 합성 방법
JP6315895B2 (ja) * 2013-05-31 2018-04-25 キヤノン株式会社 撮像装置、画像処理装置、撮像装置の制御方法、画像処理装置の制御方法、プログラム
CN106133796B (zh) * 2014-03-25 2019-07-16 苹果公司 用于在真实环境的视图中表示虚拟对象的方法和系统
JP7002846B2 (ja) * 2017-03-03 2022-01-20 キヤノン株式会社 画像処理装置およびその制御方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1999057900A1 (en) 1998-05-03 1999-11-11 John Karl Myers Videophone with enhanced user defined imaging system
JP2000322588A (ja) * 1999-05-06 2000-11-24 Toshiba Corp 画像処理装置及びその方法
JP2001292305A (ja) * 2000-02-02 2001-10-19 Casio Comput Co Ltd 画像データ合成装置、画像データ合成システム、画像データ合成方法及び記録媒体
JP2002077592A (ja) * 2000-04-13 2002-03-15 Fuji Photo Film Co Ltd 画像処理方法
JP2003309829A (ja) * 2002-04-15 2003-10-31 Matsushita Electric Ind Co Ltd 携帯動画電話装置

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US2002A (en) * 1841-03-12 Tor and planter for plowing
EP0260710A3 (en) * 1986-09-19 1989-12-06 Hoya Corporation Method of forming a synthetic image in simulation system for attachment of spectacles
US5469536A (en) * 1992-02-25 1995-11-21 Imageware Software, Inc. Image editing system including masking capability
KR100197835B1 (ko) * 1995-09-01 1999-06-15 윤종용 더블스크린을 이용한 정보신호 표시장치
JPH09269999A (ja) * 1996-01-31 1997-10-14 Fuji Photo Film Co Ltd 画像合成装置および方法
US6400374B2 (en) * 1996-09-18 2002-06-04 Eyematic Interfaces, Inc. Video superposition system and method
US6141433A (en) * 1997-06-19 2000-10-31 Ncr Corporation System and method for segmenting image regions from a scene likely to represent particular objects in the scene
US6018774A (en) * 1997-07-03 2000-01-25 Yobaby Productions, Llc Method and system for creating messages including image information
BR9906453A (pt) * 1998-05-19 2000-09-19 Sony Computer Entertainment Inc Dispositivo e método do processamento de imagem, e meio de distribuição.
US6721446B1 (en) * 1999-04-26 2004-04-13 Adobe Systems Incorporated Identifying intrinsic pixel colors in a region of uncertain pixels
US7236622B2 (en) * 1999-08-25 2007-06-26 Eastman Kodak Company Method for forming a depth image
US6556704B1 (en) * 1999-08-25 2003-04-29 Eastman Kodak Company Method for forming a depth image from digital image data
US7230653B1 (en) * 1999-11-08 2007-06-12 Vistas Unlimited Method and apparatus for real time insertion of images into video
US7106887B2 (en) * 2000-04-13 2006-09-12 Fuji Photo Film Co., Ltd. Image processing method using conditions corresponding to an identified person
JP3784289B2 (ja) 2000-09-12 2006-06-07 松下電器産業株式会社 メディア編集方法及びその装置
US6993553B2 (en) * 2000-12-19 2006-01-31 Sony Corporation Data providing system, data providing apparatus and method, data acquisition system and method, and program storage medium
JP3948986B2 (ja) * 2002-03-14 2007-07-25 三洋電機株式会社 撮影画像表示装置及び撮影画像表示方法
US7227976B1 (en) * 2002-07-08 2007-06-05 Videomining Corporation Method and system for real-time facial image enhancement
JP4307910B2 (ja) * 2003-03-07 2009-08-05 富士フイルム株式会社 動画像切り出し装置および方法並びにプログラム
TWI241824B (en) * 2003-10-31 2005-10-11 Benq Corp Mobile phone and related method for displaying text message with various background images

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1999057900A1 (en) 1998-05-03 1999-11-11 John Karl Myers Videophone with enhanced user defined imaging system
JP2000322588A (ja) * 1999-05-06 2000-11-24 Toshiba Corp 画像処理装置及びその方法
JP2001292305A (ja) * 2000-02-02 2001-10-19 Casio Comput Co Ltd 画像データ合成装置、画像データ合成システム、画像データ合成方法及び記録媒体
JP2002077592A (ja) * 2000-04-13 2002-03-15 Fuji Photo Film Co Ltd 画像処理方法
JP2003309829A (ja) * 2002-04-15 2003-10-31 Matsushita Electric Ind Co Ltd 携帯動画電話装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1713030A4

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008053855A (ja) * 2006-08-22 2008-03-06 Olympus Imaging Corp 撮像装置
WO2013132557A1 (ja) * 2012-03-05 2013-09-12 パナソニック株式会社 コンテンツ加工装置とその集積回路、方法、およびプログラム
JPWO2013132557A1 (ja) * 2012-03-05 2015-07-30 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America コンテンツ加工装置とその集積回路、方法、およびプログラム
US9117275B2 (en) 2012-03-05 2015-08-25 Panasonic Intellectual Property Corporation Of America Content processing device, integrated circuit, method, and program
JP2013198086A (ja) * 2012-03-22 2013-09-30 Canon Inc 設定装置、画像処理装置、設定方法、画像処理方法、及びプログラム

Also Published As

Publication number Publication date
EP1713030A1 (en) 2006-10-18
US20070183679A1 (en) 2007-08-09
EP1713030A4 (en) 2007-05-02
JPWO2005076210A1 (ja) 2007-10-18
US7864198B2 (en) 2011-01-04

Similar Documents

Publication Publication Date Title
WO2005076210A1 (ja) 画像処理方法、画像処理装置及び移動通信端末装置
JP4377886B2 (ja) 画像通信中の画像合成方法及び装置
US8111280B2 (en) Video conference system and method in a communication network
TWI584641B (zh) 提供影像的裝置與方法及非暫態電腦可讀取記錄媒體
KR20040047623A (ko) 화상 처리 방법 및 그 장치
JP4417292B2 (ja) オブジェクト出力方法及び情報処理装置
WO2012037850A1 (zh) 移动终端及其视频通话中对远端图像局部放大方法
US10984537B2 (en) Expression transfer across telecommunications networks
JP2000322588A (ja) 画像処理装置及びその方法
JP2007213364A (ja) 画像変換装置、画像変換方法及び画像変換プログラム
JP2013115527A (ja) テレビ会議システム及びテレビ会議方法
JP2005328484A (ja) テレビ会議システム、情報処理装置及び情報処理方法並びにプログラム
JP2008085421A (ja) テレビ電話機、通話方法、プログラム、声質変換・画像編集サービス提供システム、および、サーバ
JP2004056488A (ja) 画像処理方法、画像処理装置および画像通信装置
KR20070006337A (ko) 휴대단말기의 이미지편집 방법
JP2007026090A (ja) 映像作成装置
JP2006099058A (ja) 表示装置、表示方法、およびプログラム
JP4202330B2 (ja) マスク画像情報作成方法、マスク画像情報作成装置及びマスク画像情報作成プログラム
JP2006065683A (ja) アバタ通信システム
JP2022003818A (ja) 画像表示システム、画像表示プログラム、画像表示方法及びサーバ
WO2014208169A1 (ja) 情報処理装置、制御方法、プログラム、および記憶媒体
JP2006065684A (ja) アバタ通信システム
JP7026839B1 (ja) リアルタイムデータ処理装置
JP2007180914A (ja) 画面拡大表示機能付携帯電話、画面拡大表示方法、及び、画面拡大表示プログラムとその記録媒体
JP2003339034A (ja) ネットワーク会議システム、ネットワーク会議方法およびネットワーク会議プログラム

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2005517765

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 2005709805

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 11498983

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

WWW Wipo information: withdrawn in national office

Country of ref document: DE

WWP Wipo information: published in national office

Ref document number: 2005709805

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 11498983

Country of ref document: US