WO2015129328A1 - 画像合成装置,ならびにその方法,そのプログラム,およびそのプログラムを格納した記録媒体 - Google Patents

画像合成装置,ならびにその方法,そのプログラム,およびそのプログラムを格納した記録媒体 Download PDF

Info

Publication number
WO2015129328A1
WO2015129328A1 PCT/JP2015/051197 JP2015051197W WO2015129328A1 WO 2015129328 A1 WO2015129328 A1 WO 2015129328A1 JP 2015051197 W JP2015051197 W JP 2015051197W WO 2015129328 A1 WO2015129328 A1 WO 2015129328A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
impression
composite image
finished
received
Prior art date
Application number
PCT/JP2015/051197
Other languages
English (en)
French (fr)
Inventor
宏行 古谷
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Publication of WO2015129328A1 publication Critical patent/WO2015129328A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • H04N1/3872Repositioning or masking
    • H04N1/3873Repositioning or masking defined only by a limited number of coordinate points or parameters, e.g. corners, centre; for trimming

Definitions

  • the present invention relates to an image composition device, a method thereof, a program thereof, and a recording medium storing the program.
  • a postcard, an electronic album, a photobook, or the like is realized in which a user pastes a target image on a template and generates a desired composite image of the user.
  • a user pastes a target image on a template and generates a desired composite image of the user.
  • a desired composite image of the user For example, one that adjusts the color of the album mount in accordance with the color of the image to obtain a unified feeling of the color of the image and the album mount (Patent Document 1), or that presents a user's favorite layout (Patent Document 2) ), The design elements of the door are classified into categories, and the influence of the image is obtained for each category (Patent Document 3).
  • Patent Document 4 Further, in a state where the characteristic variation of the display means is corrected, further correction and instruction are given (Patent Document 4), and a complete expression word is set corresponding to the registered image, and corresponding image processing is performed (Patent Document) 5), and some which apply abstract concepts with different design elements (Patent Documents 6-8).
  • Patent Document 9 the one that adjusts the tone according to the theme
  • Patent Document 10 the one that adjusts the color of the photograph by the sensitivity word
  • Patent Document 11 the one that the additional information by the sensitivity expression is added to the template
  • Patent Document 12 There is also a photo service that is tailored to the customer's preference (Patent Document 12).
  • An object of the present invention is to make the finished impression fit the user's preference when a composite image is generated by pasting a target image on a template image.
  • the present invention provides a finished impression receiving means for accepting designation of a finished impression of a synthesized image in an image synthesizing apparatus that generates a synthesized image (postcard, electronic album, photo book, photo goods) by pasting a target image on a template image.
  • a component image determining means for determining at least one component element of a character used in a template image or a composite image that is associated with the impression received by the finished impression receiving means and that constitutes the composite image, and a target image to be pasted on the template image Is corrected to the impression received by the finished impression receiving means, the target image corrected by the target image correcting means and the component determined by the component determining means (character image only, template image only, character Images and template images
  • a composite image generating means for generating a composite image using an image
  • an impression determining means for determining whether the impression of the composite image generated by the composite image generating means matches the impression received by the finished impression receiving means,
  • the composite image generated including the target image included in the composite image
  • the impression determination means determines that the received impression is not matched (including the case where the impression is not matched).
  • the present invention also provides an image composition method suitable for an image composition apparatus.
  • this method is an image composition method in which a target image is pasted on a template image to generate a composite image.
  • the finished impression receiving means accepts designation of the finished impression of the composite image, and the constituent element determining means has a finished impression.
  • a template image that is associated with the impression received by the reception unit and that constitutes the composite image or at least one component of characters used in the composite image is determined, and the target image correction unit selects the target image to be pasted on the template image.
  • the impression is received by the finished impression receiving means, and the composite image generating means generates a composite image using the target image corrected by the target image correcting means and the component image determined by the component determining means.
  • the composite image generated by the composite image generating means It is determined whether the impression matches the impression received by the finished impression receiving means, and the composite image correcting means is generated in response to the impression determining means determining that it does not match the received impression.
  • the combined image corrects the received impression.
  • the present invention also provides a computer-readable program for carrying out the image composition method and a recording medium storing the program.
  • a template image may be added with a frame, and the target image may be pasted on the frame.
  • layout changing means for changing the frame itself, changing the arrangement (including rotation) of the frame, or changing the size of the target image.
  • the impression determination means determines, for example, whether the impression of at least one image of the target image or the component matches the accepted impression.
  • the target image to be pasted on the template may be determined from those having the impression received by the finished impression receiving means.
  • the impression determination means may determine whether the impression of at least one image matches the accepted impression based on the color component included in at least one image.
  • the impression determining means determines whether the impression of the composite image generated by the composite image generating means matches the impression received by the finished impression receiving means, and the impression of the composite image corrected by the composite image correcting means is It may be determined whether or not it matches the impression received by the finished impression receiving means.
  • it further includes a repeat control unit that controls the impression determination unit and the composite image correction unit so as to repeat the process by the impression determination unit and the process by the composite image correction unit.
  • the impression determination means determines whether or not the degree of coincidence between the target image and at least one of the constituent elements is low. When the degree of coincidence is determined to be low, the impression received by the finished impression reception means And may be determined as non-matching.
  • the composite image correction unit corrects, for example, at least one of the component or the target image determined by the component determination unit to the impression received by the finished impression receiving unit. Correction may be made to change the component or target image so that the impression is close to the impression received by the finished impression receiving means. In the correction by the composite image correcting unit, not only the composite image (target image) corrected by the target image correcting unit but also the target image before correction by the target image correcting unit may be corrected.
  • the finished impression accepting means may accept the finished impression of the composite image by accepting the designation of the template image.
  • the component determines the received template image as a component.
  • the finished impression receiving means receives, for example, an impression designated by the finished impression designating means for designating the finished impression of the composite image, or receives data indicating the finished impression of the synthesized image transmitted from the computer. is there.
  • the finished impression receiving means for example, displays a plurality of impression designation areas indicating a plurality of finished impressions of the composite image, for controlling the display device so that at least two impression designation areas are partially overlapped and displayed on the display screen.
  • Control means may be provided.
  • the impression indicated by the designated impression designation area is used as the final impression of the composite image.
  • the plurality of impressions indicated by the designated plurality of impression areas are received as the finished impression of the composite image.
  • a printer for printing the composite image corrected by the composite image correction unit may be further provided.
  • the designation of the finished impression of the composite image is accepted. Then, at least one component (one or a plurality of components) of the template image or the character that is associated with the received impression and constitutes the composite image is determined.
  • the target image (which may or may not be an image owned by the user) to be pasted on the template image is corrected to an accepted impression.
  • a composite image is generated using the corrected image and the determined components. If the impression of the generated composite image does not match the received impression, the composite image is corrected to the received impression.
  • the overall finish of the composite image is close to the accepted impression.
  • a composite image having an impression that suits the user's preference is obtained.
  • FIG. 1 shows an embodiment of the present invention and shows an outline of a photobook creation system (image composition apparatus).
  • the photo book creation system includes a client computer 1 and an image composition server 20 that can communicate with each other via a network such as the Internet. Connected to the image composition server 20 is a printer 29 for printing a photo book from image data representing the photo book generated in the image composition server 20.
  • FIG. 2 is a block diagram showing the electrical configuration of the client computer 1.
  • the overall operation of the client computer 1 is controlled by the CPU 7.
  • the client computer 1 includes a display device 2 controlled by the display control device 3, a memory 4 for temporarily storing data 4, a compact disk drive 6 for accessing the compact disk 5, and a user connected to the client computer A keyboard 8 and a mouse 9 for giving commands to 1 are included.
  • the client computer 1 also includes a hard disk drive 11 for accessing the hard disk 12 and a communication device 10 for communicating with the image composition server 20 and the like.
  • a compact disk 5 in which a program for controlling operations to be described later is stored is loaded in the client computer 1, and the program stored in the compact disk 5 is read by the compact disk drive 6.
  • the client computer 1 When the read program is installed in the client computer 1, the client computer 1 performs an operation described later.
  • the program for controlling the client computer 1 may not be read from a recording medium such as the compact disc 5, but may be received from the Internet.
  • FIG. 3 is a block diagram showing an electrical configuration of the image composition server 20.
  • the overall operation of the image composition server 20 is controlled by the CPU 21.
  • the image composition server 20 includes a memory 22 for temporarily storing data, a compact disk drive 24 for accessing the compact disk 23, and a printer interface 25 for connecting a printer 29.
  • the image composition server 20 also includes a hard disk 28 and a hard disk drive 27 for accessing the hard disk 28.
  • a program stored in the compact disk 24 by the compact disk drive 24 is loaded with the compact disk 23 storing a program for controlling the operation described later. Is read.
  • the read program When the read program is installed in the image composition server 20, the image composition server 20 performs an operation described later.
  • the program for controlling the image composition server 20 may also be received from the Internet instead of being read from a recording medium such as the compact disk 23.
  • FIG. 4 is an example of a page image constituting a photo book created in the photo book creation system.
  • the page image P1 constituting the photo book includes a template image T1 (component).
  • Frame images FR1 to FR3 are formed on the template image T1. These frame images FR1 to FR3 may be formed on the template image T1 itself.
  • the template image T1 is a simple mount image on which the frame images FR1 to FR3 are not formed, and the frame images FR1 to FR3 may be added to the mount image.
  • a subject image (target image) 31 appears in the upper right frame image FR1.
  • a subject image 32 appears in the upper left frame image FR2.
  • a subject image 34 appears in the lower right frame image FR2.
  • a subject image 33 appears in the lower left frame image FR3.
  • a character image 30 “one day of a certain day” is displayed.
  • the frame image FR1 is rectangular and is considered to give a cool impression to the user.
  • the frame image FR2 has a heart shape and is considered to give a cute impression to the user.
  • the frame image FR3 is a curved frame and is considered to give the user a slightly cute impression.
  • the character image 30 is a rounded character, and is considered to give the user a cute impression as a whole.
  • the subject images 31 to 34 are also displayed with a pretty subject image (a pretty subject image is a subject image that contains a subject that gives a cute impression such as a flower, or a subject that has a large proportion of pink overall. It can be determined according to various rules such as images.) For this reason, the page image P1 gives the user an overall pretty impression.
  • a finished impression is designated by the user.
  • a photo book that matches the specified impression is created.
  • the page image P1 in FIG. 4 is designated by the user so as to have a “cute” finished impression.
  • FIG. 5 shows another example of the page images constituting the photo book.
  • the upper left frame image FR2 is rotated about 45 degrees clockwise.
  • the subject image 31A appearing in the upper right frame image FR1 is enlarged compared to the subject image 31 appearing in the frame image FR1 of the page image P1 in FIG.
  • the frame can be rotated and the subject image can be enlarged (reduced).
  • the finished impression such as cuteness changes according to the rotation of the frame and the enlargement (reduction) of the subject image, so the photo that matches the impression of the user's finish taking into account the rotation of the frame and the enlargement (reduction) of the subject image.
  • a book is created.
  • the evaluation value table is a table that stores evaluation values representing sensibilities (cute, casual, romantic, cool, chic, etc.) such as template images used in photobooks as points corresponding to the sensibilities.
  • FIG. 6 is an example of a template evaluation value table.
  • a sensitivity evaluation value is stored in the template evaluation value table for each template image (previously stored in the hard disk 28 of the image composition server 20).
  • the template image T1 has low evaluation values for “cute”, “casual” and “romantic” sensibility, but has high evaluation values for “cool” and “chic” sensibilities.
  • the template image T3 has high evaluation values for “cute” and “casual” sensibility, but low evaluation values for “romantic”, “cool”, and “chic” sensibilities.
  • the template image T3 or the like having a high evaluation value is used.
  • the template image T1 is determined to be used.
  • FIG. 7 is an example of a character image evaluation value table.
  • each character image (data representing the character image is also stored in advance in the hard disk 28 of the composite image server 20.
  • a font may be specified in place of the character image).
  • FIG. 8 is an example of a frame evaluation value table.
  • Sensitivity evaluation values are stored in the template evaluation value table for each frame image (the frame image is also stored in advance in the hard disk 28 of the image composition server 20). As for the frame image, it is determined such that a frame image having a high sensitivity evaluation value close to the finished impression designated by the user is used.
  • FIG. 9 is an example of a frame rotation amount evaluation value table.
  • the frame can be rotated as described above, and an evaluation value for each sensitivity is determined according to the amount of rotation.
  • FIG. 10 is an example of an enlargement rate evaluation value table.
  • the subject image can be enlarged (may be reduced).
  • An evaluation value for each sensitivity is determined according to the enlargement ratio.
  • FIG. 11 is an example of the target image evaluation value table.
  • the subject image (target image) to be pasted on the photo book is uploaded to the image composition server 20 in advance by the user and stored in the hard disk 28.
  • the sensitivity of the subject image can be expressed as an evaluation value, and the sensitivity is converted into an evaluation value for each subject image.
  • the finish impression of a photo book is specified by a user in a sensitivity language (cute, casual, romantic, cool, chic, etc.), and the photo book is created so as to have an impression of the specified sensitivity language. is there.
  • a finished impression designation shown in FIG. 17 is displayed on the display screen of the display device 2 of the client computer 1.
  • a window 90 is displayed (step 41).
  • a finished impression designation window 90 (finished impression receiving means) is displayed over almost the entire display screen 120 of the display device 2 of the client computer 1.
  • a plurality of closed curves 91 to 95 are displayed. These closed curves 91 to 95 define the finished impression.
  • Below the finished impression designation window 90 there are formed a decision button 123 in which the “decision” character is displayed and a next button 124 in which the “next” character is displayed.
  • the closed curves 91, 92, 93, 94 and 95 formed in the finished impression designation window 90 are “cute”, “romantic”, “casual”, “chic” and “cool” as finished impressions, respectively. It specifies the sensitivity language. For example, when the user intends to designate “cute” as the finished impression of the photobook, the user clicks an area (impression designation area) in the closed curve 91 using the mouse 9 (finished impression). Designation: step 42) in FIG. After that, when the decision button 123 and the next button 124 are clicked by the user using the mouse 9, data specifying the impression of the finish is transmitted from the client computer 1 to the image composition server 20 (step 43 in FIG. 12). ),
  • the areas 101 to 109 where the areas specified by the closed curves 91 to 95 overlap are areas where a plurality of finished impressions can be specified.
  • the finish is finished. You can specify “cute” and “casual” impressions.
  • the region 102 is surrounded by a closed curve 91 that specifies a finished impression specified by a sensitivity language of “cute” and a closed curve 92 that specifies a finished impression specified by a sensitivity language of “romantic”.
  • the area 103 is specified by a closed curve 91 that specifies a finished impression specified by a sensitivity language “cute”, a closed curve 92 that specifies a finished impression specified by a sensitivity language “romantic”, and a sensitivity language “casual”. Since it is surrounded by a closed curve 93 that designates a finished impression, it is possible to designate a “cute” finish as a finished impression, a “casual” finish, and a “romantic” finish. The same applies to the other areas 104 to 109.
  • the finished impression designation window 90 shown in FIG. 17 it is possible to designate a plurality of types of emotional languages instead of only one type of emotional language, and have a plurality of impressions defined by the plurality of types of emotional languages. You can specify the finished impression so that the photo book is finished.
  • the data indicating the received impression of the finish is received.
  • the evaluation value of the sensibility of the finished impression specified by the component (the character specified by the template image, the character image, the frame image, and the font) and the target image are high (which will be associated with the received impression) Determined (step 72) (component determining means).
  • the target image is specified in advance so as to include a specific person, the target image including the person is found, and the target image is determined from the found target images. Needless to say.
  • a target image having a high evaluation value of the sensitivity of the finished impression designated by the user is simply determined.
  • image data representing the determined template image is transmitted from the image composition server 20 to the client computer 1 (step 73).
  • the template image represented by the received image data is displayed on the display screen 120 of the display device 2 of the client computer 1 ( Step 45).
  • Fig. 18 shows an example of the template selection screen.
  • a template selection window 121 is formed almost entirely on the display screen 120 of the client computer 1.
  • a template image determined by the image composition server 20 (a template image giving a sensitivity close to a finished impression designated by the user) is displayed.
  • a scroll bar 122 is formed at the right end of the template selection window 121. When the user moves the scroll bar 122 up and down, a template image not displayed in the template selection window 121 appears in the template selection window 121.
  • template images T3, T6, T7, T9, T12, T14, T20 and T21 are shown.
  • T3, T6, T7, T9, T12, T14, T20, and T21 are close to the sensitivity of the finished impression specified by the user (for example, when the sensitivity of the finished impression of the user is “cute”). And give a “cute” impression).
  • the user selects one or a plurality of desired template images from the template selection window 121 (step 46 in FIG. 12). For example, it is selected when the user clicks on a desired template image. When the user clicks on the clicked template image again, the selection is cancelled.
  • the determination button 123 is clicked by the user and the next button 124 is clicked (YES in step 47 in FIG. 12)
  • data for identifying the selected template image template image identification data
  • a character image request command are displayed. The data is transmitted from the client computer 1 to the image composition server 20 (step 48 in FIG. 12).
  • step 74 in FIG. 12 When template image identification data and a character image request command are received at image composition server 20 (YES in step 74 in FIG. 12), as described above (step 72 in FIG. 12), an image representing a character image that has already been determined. Data is transmitted from the image composition server 20 to the client computer 1 (step 75 in FIG. 13).
  • the client computer 1 When the client computer 1 receives image data representing a character image (YES in step 49 in FIG. 13), the character image is displayed on the display screen 120 of the client computer 1 (step 50 in FIG. 13).
  • Fig. 19 shows an example of the character selection screen.
  • a character selection window 131 is formed over the entire display screen 120 of the client computer 1.
  • a character image determined by the image composition server 20 (a character image, a font image, and a font giving a feeling close to the finished impression specified by the user) is displayed.
  • a scroll bar 132 is also formed at the right end of the character selection window 131. When the user moves the scroll bar 132 up and down, a character image that is not displayed in the character selection window 131 appears in the character selection window 131.
  • character images F1, F4, F10, F15, F16, F17, F22, and F23 are illustrated (character images are illustrated by symbols such as F1, but a character sample is a character. Needless to say, it is displayed as an image.)
  • These character images F1, F4, F10, F15, F16, F17, F22 and F23 are also close to the sensitivity of the finished impression designated by the user.
  • the user selects one or more desired character images from the character selection window 131 (step 51 in FIG. 13). For example, the selection is made when the user clicks on the desired character image. When the user clicks on the clicked character image again, the selection is canceled.
  • the determination button 123 is clicked by the user and the next button 124 is clicked (YES in step 52 in FIG. 13)
  • data for identifying the selected character image (character image identification data) and a frame request command are transmitted to the client.
  • the data is transmitted from the computer 1 to the image composition server 20 (step 53 in FIG. 13).
  • the image composition server 20 When the image composition server 20 receives the character image identification data and the frame request command (YES in step 76 in FIG. 13), the image data representing the already determined frame image is transferred from the image composition server 20 to the client computer 1. (Step 77 in FIG. 14).
  • the client computer 1 When the client computer 1 receives image data representing a frame image (YES in step 54 in FIG. 14), the frame image is displayed on the display screen 120 of the client computer 1 (step 55 in FIG. 14).
  • Fig. 20 shows an example of the frame selection screen.
  • a frame selection window 141 is formed over the entire display screen 120 of the client computer 1.
  • a frame image determined by the image composition server 20 (a frame image giving a sensitivity close to a finished impression designated by the user) is displayed.
  • a scroll bar 142 is also formed at the right end of the frame selection window 141. When the user moves the scroll bar 142 up and down, a frame image that is not displayed in the frame selection window 141 appears in the frame selection window 141.
  • frame images FR2, FR3, FR7, FR9, FR12, FR13, FR18, and FR20 are illustrated (the frame image is illustrated by a symbol such as FR2, but the sample of the frame is a frame. Is displayed as an image).
  • These frame images FR2, FR3, FR7, FR9, FR12, FR13, FR18, and FR20 are also close to the sensitivity of the finished impression specified by the user.
  • the user selects one or more desired frame client images from the frame selection window 141 in the same manner as described above (step 56 in FIG. 14).
  • data for identifying the frame image selected by the user (frame identification data) and the target image request command Is transmitted from the client computer 1 to the image composition server 20 (step 58 in FIG. 14).
  • the image composition server 20 receives the frame image identification data and the target image request command (YES in step 78 in FIG. 14), the image data representing the already determined target image is transferred from the image composition server 20 to the client computer. 1 (step 79 in FIG. 15).
  • the client computer 1 When the client computer 1 receives the image data representing the target image (YES in step 59 in FIG. 15). The target image is displayed on the display screen of the client computer 1 (step 60 in FIG. 15).
  • FIG. 21 shows an example of the target image selection screen.
  • a target image selection window 151 is formed over the entire display screen 120 of the client computer 1.
  • a target image determined by the image composition server 20 (a target image that gives a high sensitivity to the finished impression specified by the user) is displayed.
  • a scroll bar 152 is also formed at the right end of the target image selection window 151.
  • the target image that is not displayed in the target image selection window 151 appears in the target image selection window 151 when the user moves the scroll bar 152 up and down.
  • target images I1, I5, I6, I8, I10, I12, I19, and I21 are shown (the target image is shown by a symbol such as IR1, but the actual target image is shown in FIG. Needless to say, it is displayed.)
  • These target images I1, I5, I6, I8, I10, I12, I19 and I21 are also close to the sensitivity of the finished impression specified by the user.
  • the user selects one or more desired target images from the target image selection window 151 in the same manner as described above (step 61 in FIG. 15).
  • the determination button 123 is clicked by the user and the next button 124 is clicked (YES in step 62 in FIG. 15)
  • data for identifying the target image selected by the user (target image identification data)
  • a finished sample image request A command is transmitted from the client computer 1 to the image composition server 20 (step 63 in FIG. 15).
  • the selected target image is corrected so as to match the template image selected by the user.
  • the selected target image is corrected using correction parameters that approximate the color, saturation, and brightness of the selected template image. Since the selected template image is close to the sensitivity of the finished impression specified by the user, the selected target image is corrected so that it matches the template image. Correction is performed so as to approach the impression (target image correction means).
  • Correction may be made so that the overall color, saturation, or brightness of the template image is close to the overall color, saturation, or brightness of the target image, or a representative image portion of the template image (for example, the color, saturation, or lightness of the surrounding image portion) and the color, saturation, or lightness of the representative image portion of the target image (for example, the image portion of the main subject) are close to each other.
  • photobook sample images are generated using the selected template image, character image, frame image, and corrected target image.
  • Step 82 in FIG. 15 composite image generating means.
  • a page image P1 constituting a photo book as shown in FIG. 4 is generated.
  • a layout is automatically performed in the image composition server 20 using a template image selected by the user, and a plurality of finished sample images are generated.
  • the sum of evaluation values for the generated plurality of finished sample images is calculated in the image composition server 20 (step 83 in FIG. 15).
  • FIG. 22 is an example of an evaluation value table showing an example of the evaluation value of the finished sample image (evaluation value based on the sensitivity of the finished impression specified by the user).
  • the finished sample image according to this example is generated from the template image Ta, the character image Fb, the frame image FRc, and the target images Id, Ie, If, and Ig.
  • step 84 in FIG. 16 it is determined whether or not the sum of the evaluation values is equal to or greater than a predetermined threshold value for each sensitivity. (Determining whether the impression of the finished sample image matches the impression specified by the user. Impression determining means. Also, it is determined whether the degree of coincidence between the target image and at least one of the constituent elements is low. May be determined to match the impression specified by the user.) If the sum of the evaluation values is not equal to or greater than the corresponding sensitivity threshold value (if it is determined that it does not match or does not match) ( In FIG.
  • step 84 is NO
  • the parameters of the previous correction are changed, and the target images (in this case, target images Id, Ie, If, Ie) included in the finished sample image are corrected (step 85 in FIG. 16).
  • the finished sample image (synthesized image) generated in response to the determination that the image is far from the specified impression is corrected so that the impression specified by the user is obtained. And thus. Composite image correction means].
  • the template image, the shape (font) of the character image, and the target image may be changed to correct the impression specified by the user.
  • the target image before correction in step 81 in FIG. 15 may be corrected. If correction has not been performed n times (NO in step 86 in FIG.
  • step 84 in FIG. 16 the sum of evaluation values is calculated again, and it is determined whether the calculated sum is equal to or greater than a threshold value (step 84 in FIG. 16) (repeatedly) Control means). If correction has already been performed n times (YES in step 86 in FIG. 16), the recalculation process of the sum of evaluation values is not performed any more. If the sum of the evaluation values is equal to or greater than the corresponding sensitivity threshold (YES in step 84 in FIG. 16), the processing in steps 85 and 86 is skipped.
  • a new finished sample image with the corrected target image pasted is newly generated.
  • Image data representing the generated finished sample image is transmitted from the image composition server 20 to the client computer 1 (step 87 in FIG. 16).
  • the client computer 1 receives the image data representing the finished sample image (step 64 in FIG. 16)
  • the finished sample image represented by the received image data is displayed on the display screen 120 of the display device 1 (FIG. 16). Step 65).
  • Fig. 23 shows an example of the finished sample selection screen.
  • a finished sample image selection window 161 is formed over the entire display screen 120 of the client computer 1. At the lower right of the finished sample image selection window 161, a print button 124 on which “print” is displayed is formed. In the finished sample image selection window 161, the finished sample image generated in the image composition server 20 (finished sample whose total sum of evaluation values is equal to or greater than a threshold value corresponding to the sensitivity specified by the user. Image) is displayed. A scroll bar 162 is also formed at the right end of the finished sample image selection window 161. When the user moves the scroll bar 162 up and down, a finished sample image that is not displayed in the finished sample image selection window 161 rises and appears in the sample image selection window 161. In the example shown in FIG. 23, finished sample images 171 to 178 are shown in the finished sample image selection window 161. These finished sample images 171 to 178 are close to the sensitivity of the finished impression specified by the user because the correction is performed as shown in step 85 of FIG.
  • the user selects one or more desired finished sample images from the finished sample image selection window 161 in the same manner as described above (step 66 in FIG. 16).
  • data for identifying the selected finished sample image (finished sample image identification data) and a print command are sent to the client.
  • the data is transmitted from the computer 1 to the image composition server 20 (step 68 in FIG. 16).
  • the finished sample image identification data and the print command are received in the image composition server 20 (YES in step 88 in FIG. 16)
  • the selected finished sample image is used as a page image constituting the photobook to be finally generated.
  • Printing is performed by the printer 29 (step 89 in FIG. 16).
  • FIG. 24 is a flowchart showing a part of the processing procedure of the photobook creation system. This processing procedure is to change the layout of the finished sample image selected by the user.
  • step 66 When a desired finished sample image is selected from the finished sample images displayed as shown in FIG. 23 (step 66), the selected finished sample image is used as a print page image, and the client computer 1 Is displayed on the display screen 120 (step 181).
  • FIG. 25 shows a state where the print page image is displayed on the display screen 120.
  • a print page image display window 126 is formed.
  • the finished sample image selected by the user is displayed as a print page image P1.
  • This print page image P1 is the same as the page image P1 shown in FIG. 4 (it goes without saying that it may be another page image).
  • the change button 125 with the word "change” and the enlarge button with the letter "enlarge” 129 is formed below the print page image display window 126.
  • a frame window 127 is displayed on the right side of the print page image display window 126.
  • a plurality of frame images are displayed in the frame window 127.
  • a scroll bar 128 is formed at the right end of the frame window 127. As the scroll bar 128 is moved up and down, a frame not displayed in the frame window 127 appears in the window 127.
  • the change button 125 When the change button 125 is clicked by the user, the frame image FR1 etc. of the page image P1 displayed in the window 126 is changed, the arrangement is changed (including change by rotation of the frame), and the object displayed in the frame The image can be enlarged (reduced).
  • the frame to be changed is dragged from the print page display window 126 to the frame window 127. Then, the dragged frame is removed (the target image included in the frame remains on the template image T1 as it is). A desired frame image is selected from the frames 127, and the selected frame image is dragged to the position where the removed frame was. The frame itself will be changed.
  • the user When changing the position of the frame, the user selects a desired frame using the mouse 9 and drags it to the desired position. When rotating the frame, the user rotates the desired frame using the mouse 9. When enlarging the target image, the user selects a desired target image using the mouse 9 and then clicks the enlarge button 129.
  • the change button 125 is clicked (YES in step 182), and layout change processing is performed (step 183).
  • the layout information changed as described above is temporarily stored in the memory 4 of the client computer 1.
  • the print button 123 is clicked, the layout information is transmitted from the client computer 1 to the image composition server 20 in addition to the data for identifying the finished sample image selected as the page image for printing and the print command ( Step 68A).
  • the finished sample image identification data and the print command are received (YES in step 88), but if the layout information is not received (NO in step 90), the layout has not been changed.
  • the finished sample image specified by the sample image identification data is printed as a page image constituting the photo book (step 89).
  • the finished sample image after the layout change (in this case, the page images constituting the photo book) ) Is calculated as shown in FIG.
  • the layout in this case, the page images constituting the photo book
  • a new evaluation value is used with reference to the frame evaluation value table shown in FIG. 8, and when the frame is rotated, it is shown in FIG.
  • a new evaluation value is used with reference to the frame rotation amount evaluation value table.
  • the new evaluation value is used using the enlargement rate evaluation value table shown in FIG. Is calculated. If the sum of the calculated evaluation values is not greater than or equal to the threshold (step 85 in FIG. 16), correction is performed (step 85 in FIG. 16).
  • step 84 in FIG. 16 it is determined whether the sum of the evaluation values is less than the threshold value (whether it is far from the impression specified by the user), but the target image or template image, frame, character image , Whether or not the evaluation value of at least one image of a component such as a character is less than a threshold value (whether it is far from the impression designated by the user) may be determined. In this case, it may be determined whether the evaluation value is less than the threshold value based on the color component of at least one of the components such as the target image, template image, frame, and character image. For example, the evaluation value is increased for the target image and component having a color close to the color that seems to match the impression specified by the user, and the process of step 84 in FIG. 16 is performed.
  • the previous correction parameter is changed and the target image is corrected.
  • the correction is not performed on the target image, but the frame image, character image, etc. other than the target image are configured.
  • the entire element or finished sample image may be corrected so that the impression specified by the user is obtained.
  • the finished impression is specified by the user using the sensitivity language (step 42 in FIG. 12), but the finished impression may be specified by causing the user to select a template image.
  • the finished impression may be specified by causing the user to select a template image.
  • a template image as shown in FIG. 18 is displayed as a list, and a desired template image is displayed from the displayed template images. Is selected. Based on the evaluation value added to the selected template image, a desired finished impression of the user is determined.
  • the client computer 1 and the image composition device 20 communicate with each other to create a photo book.
  • all processing of the image composition device 20 may be performed by the client computer 1.
  • the user designates a finished impression on the client computer 1, and data indicating the designated finished impression is received by the communication device 26 of the image composition server 20.
  • the CPU 7 accepts the designation of the finished impression by the mouse 9 as described above.
  • Display control device (display control means) 9 Mouse (layout change means) 7 CPU (finish impression acceptance means, layout change means) 20 image composition server 21 CPU (component determination means, target image correction means, composite image generation means, impression determination means, composite image correction means, repetitive control means) 29 Printer

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

 ユーザ好みの仕上がりの印象となる画像合成装置,画像合成方法,そのプログラムおよびそのプログラムを格納した記録媒体を提供する。合成画像の仕上がりの印象がユーザによって指定され,その印象に近いテンプレート画像T1,対象画像31等が決定される。対象画像31等が指定された印象に近くなるように補正され,合成画像の仕上がりを示すサンプル画像が生成される。生成されたサンプル画像の印象が,ユーザが指定した印象から遠ければ,補正パラメータが変更させられて対象画像31等が再び補正される。このようにして生成されるフォトブックの印象はユーザの好みに近いものとなる。

Description

画像合成装置,ならびにその方法,そのプログラム,およびそのプログラムを格納した記録媒体
 この発明は,画像合成装置,ならびにその方法,そのプログラム,およびそのプログラムを格納した記録媒体に関する。
 ポストカード,電子アルバム,フォトブックなどのようにテンプレートにユーザが対象画像を貼り付け,ユーザの所望の合成画像を生成するものが実現されている。例えば,画像の色味に応じてアルバム台紙の色味を調整し,画像とアルバム台紙の色味の統一感を得るもの(特許文献1),ユーザの好みのレイアウトを提示するもの(特許文献2),ドアの各デザイン要素をカテゴリ分けし,カテゴリごとにイメージの影響度を求めるもの(特許文献3)などがある。また,表示手段の特性ばらつきを補正した状態で,さらに補正し指示するもの(特許文献4),登録画像に対応して完成表現ワードが設定されており,対応する画像処理を施すもの(特許文献5),抽象的概念を異なるデザイン要素で施すもの(特許文献6-8)などもある。
 さらに,テーマに応じてトーン調整するもの(特許文献9),感性語によって写真の色彩を調整するもの(特許文献10),テンプレートに感性表現による付帯情報が付加されているもの(特許文献11),客の志向に合わせた仕上がりのフォトサービスについてのもの(特許文献12)などもある。
特開2013-81208号公報 特開2013-229006号公報 特開平6-103347号公報 特許第3847480号公報 特許第4090926号公報 特許第4978043号公報 特許第4984610号公報 特許第3972914号公報 特許第4197313号公報 特開2005-20344号公報 特開2000-253227号公報 特開2002-354185号公報
 しかしながら,特許文献1に記載の発明では,画像の色味に台紙を単に合わせるものにすぎず,ユーザの好みの印象に仕上げることはできない。また,特許文献2に記載の発明では,ユーザ好みのレイアウトを提示するに過ぎないものであるから,合成画像全体の仕上がりをユーザの好みにすることはできない。さらに,特許文献3に記載の発明では,あらかじめ実験を行う必要があるから,所望の画像を用いた合成画像についてユーザの好みにすることはできない。特許文献4から12に記載の発明においても,仕上がりの印象をユーザの好みにすることはできない。
 この発明は,テンプレート画像に対象画像を貼り付けて合成画像が生成される場合に,仕上がりの印象をユーザの好みに合うようにすることを目的とする。
 この発明は,テンプレート画像に対象画像を貼り付けて合成画像(ポストカード,電子アルバム,フォトブック,フォトグッズ)を生成する画像合成装置において,合成画像の仕上がりの印象の指定を受け付ける仕上がり印象受付手段,仕上がり印象受付手段によって受け付けられた印象に関連づけられ,かつ合成画像を構成するテンプレート画像または合成画像に用いられる文字の少なくとも一つの構成要素を決定する構成要素決定手段,テンプレート画像に貼り付ける対象画像を,仕上がり印象受付手段によって受付られた印象に補正する対象画像補正手段,対象画像補正手段によって補正された対象画像および構成要素決定手段によって決定された構成要素(文字画像のみ,テンプレート画像のみ,文字画像とテンプレート画像,フォント)を用いて合成画像を生成する合成画像生成手段,合成画像生成手段によって生成された合成画像の印象が,仕上がり印象受付手段によって受け付けられた印象に合致するかどうかを判定する印象判定手段,ならびに印象判定手段によって,受け付けられた印象に非合致と判定されたことに応じて(合致しないと判定された場合も含む),生成された合成画像(合成画像に含まれている対象画像も含む)が,受け付けられた印象に補正する合成画像補正手段を備えていることを特徴とする。
 この発明は,画像合成装置に適した画像合成方法も提供している。すなわち,この方法は,テンプレート画像に対象画像を貼り付けて合成画像を生成する画像合成方法において,仕上がり印象受付手段が,合成画像の仕上がりの印象の指定を受け付け,構成要素決定手段が,仕上がり印象受付手段によって受け付けられた印象に関連づけられ,かつ合成画像を構成するテンプレート画像または合成画像に用いられる文字の少なくとも一つの構成要素を決定し,対象画像補正手段が,テンプレート画像に貼り付ける対象画像を,仕上がり印象受付手段によって受け付けられた印象に補正し,合成画像生成手段が,対象画像補正手段によって補正された対象画像および構成要素決定手段によって決定された構成要素画像を用いて合成画像を生成し,印象判定手段が,合成画像生成手段によって生成された合成画像の印象が,仕上がり印象受付手段によって受け付けられた印象に合致するかどうかを判定し,合成画像補正手段が,印象判定手段によって,受け付けられた印象に非合致と判定されたことに応じて,生成された合成画像が,受け付けられた印象に補正するものである。
 この発明は,画像合成方法を実施するためのコンピュータ読み取り可能なプログラムおよびそのプログラムを格納した記録媒体も提供している。
 テンプレート画像には,フレームが付加され,フレームに対象画像を貼り付けるものでも良い。この場合,フレーム自体を変更する,フレームの配置(回転を含む)を変更する,あるいは対象画像の大きさを変更するレイアウト変更手段をさらに備えることが好ましい。
 印象判定手段は,たとえば,対象画像または構成要素の少なくとも一つの画像の印象が,受け付けられている印象に合致するかどうかを判定するものである。テンプレートに貼りつける対象画像を,上記仕上がり印象受付手段によって受け付けられた印象をもつものの中から決定してもよい。
 印象判定手段は,少なくとも一つの画像に含まれる色成分にもとづいて,少なくとも一つの画像の印象が,受け付けられた印象に合致するかどうかを判定するものでもよい。
 印象判定手段は,合成画像生成手段によって生成された合成画像の印象が仕上がり印象受付手段によって受付られた印象に合致するかどうかを判定し,かつ合成画像補正手段によって補正された合成画像の印象が仕上がり印象受付手段によって受け付けられた印象に合致するかどうかを判定するものでもよい。この場合,印象判定手段による処理および合成画像補正手段による処理を繰り返すように,印象判定手段および合成画像補正手段を制御する繰り返し制御手段をさらに備える。また,印象判定手段は,対象画像と構成要素の少なくとも1つとの一致度が低いかどうかを判定するものであり,一致度が低いと判定されたことにより,仕上がり印象受付手段によって受け付けられた印象と非合致と判定するものでもよい。
 合成画像補正手段は,たとえば,構成要素決定手段によって決定された構成要素または対象画像の少なくとも一つについて,仕上がり印象受付手段によって受け付けられた印象に補正するものである。仕上がり印象受付手段によって受け付けられた印象に近い印象となるように,構成要素または対象画像を変更する補正でもよい。合成画像補正手段による補正は,対象画像補正手段によって補正された合成画像(対象画像)を補正するだけでなく,対象画像補正手段による補正前の対象画像を補正するようにしてもよい。
 仕上がり印象受付手段は,テンプレート画像の指定を受け付けることにより合成画像の仕上がり印象を受け付けるものでもよい。この場合,構成要素は,受け付けられたテンプレート画像を構成要素と決定する。
 仕上がり印象受付手段は,たとえば,合成画像の仕上がりの印象を指定する仕上がり印象指定手段によって指定された印象を受け付ける,あるいはコンピュータから送信される,合成画像の仕上がりの印象を示すデータを受信するものである。
 仕上がり印象受付手段は,たとえば,合成画像の仕上がりの印象を複数示す,複数の印象指定エリアを,少なくとも二つの印象指定エリアの一部が重なって表示画面に表示するように表示装置を制御する表示制御手段を備えてもよい。この場合,印象指定エリアが指定されることにより,指定された印象指定エリアによって示される印象を,合成画像の仕上がりの印象とするものであり,印象指定エリアの重複部分が指定されたことに応じて,指定された複数の印象エリアが示す複数の印象を,合成画像の仕上がり印象として受け付ける。
 合成画像補正手段によって補正された合成画像をプリントするプリンタをさらに備えてもよい。
 この発明によると,合成画像の仕上がりの印象の指定が受け付けられる。すると,受け付けられた印象に関連付けられ,かつ合成画像を構成するテンプレート画像または文字の少なくとも一つの構成要素(一または複数の構成要素)が決定される。テンプレート画像に貼り付けられる対象画像(ユーザが所有している画像でもよいし,そのような画像でなくともよい)が受け付けられた印象に補正される。補正された画像と決定された構成要素とを用いて合成画像が生成される。生成された合成画像の印象が,受け付けられた印象と非合致の場合には,受け付けられた印象に合成画像が補正される。合成画像の全体的な仕上がりが,受け付けられた印象に近くなる。ユーザの好みにあう印象をもつ合成画像が得られる。
フォトブック作成システムの概要である。 クライアント・コンピュータの電気的構成を示すブロック図である。 画像合成サーバの電気的構成を示すブロック図である。 フォトブックのページ画像の一例である。 フォトブックのページ画像の一例である。 テンプレート評価値テーブルの一例である。 文字評価値テーブルの一例である。 フレーム評価値テーブルの一例である。 フレーム回転量評価値テーブルの一例である。 拡大率評価値テーブルの一例である。 対象画像評価値テーブルの一例である。 フォトブック作成システムの処理手順の一部を示すフローチャートである。 フォトブック作成システムの処理手順の一部を示すフローチャートである。 フォトブック作成システムの処理手順の一部を示すフローチャートである。 フォトブック作成システムの処理手順の一部を示すフローチャートである。 フォトブック作成システムの処理手順の一部を示すフローチャートである。 クライアント・コンピュータの表示画面の一例である。 クライアント・コンピュータの表示画面の一例である。 クライアント・コンピュータの表示画面の一例である。 クライアント・コンピュータの表示画面の一例である。 クライアント・コンピュータの表示画面の一例である。 仕上がりサンプル画像の評価値の総和を示すテーブルである。 クライアント・コンピュータの表示画面の一例である。 フォトブック作成システムの処理手順の一部を示すフローチャートである。 クライアント・コンピュータの表示画面の一例である。
 図1は,この発明の実施例を示すもので,フォトブック作成システム(画像合成装置)の概要を示している。
 この実施例では,フォトブックを構成する1ページを作成する場合について説明するが,フォトブックを作成する場合に限らず,電子アルバム,ポストカード,フォトグッズなどテンプレート画像に対象画像を貼り付けて合成画像が生成されるようなシステムすべてについて適用できる。
 フォトブック作成システムには,インターネットのようなネットワークを介して互いに通信可能なクライアント・コンピュータ1および画像合成サーバ20が含まれている。画像合成サーバ20には,画像合成サーバ20において生成されたフォトブックを表わす画像データからフォトブックをプリントするためのプリンタ29が接続されている。
 図2は,クライアント・コンピュータ1の電気的構成を示すブロック図である。
 クライアント・コンピュータ1の全体の動作は,CPU7によって統括される。
 クライアント・コンピュータ1には,表示制御装置3によって制御される表示装置2,データを一時的に記憶するメモリ4,コンパクト・ディスク5にアクセスするためのコンパクト・ディスク・ドライブ6,ユーザがクライアント・コンピュータ1に指令を与えるためのキーボード8およびマウス9が含まれている。また,クライアント・コンピュータ1には,ハードディスク12にアクセスするためのハードディスク・ドライブ11および画像合成サーバ20等と通信するための通信装置10も含まれている。
 後述する動作を制御するプログラムが格納されているコンパクト・ディスク5がクライアント・コンピュータ1に装填され,コンパクト・ディスク・ドライブ6によってコンパクト・ディスク5に格納されているプログラムが読み取られる。読み取られたプログラムがクライアント・コンピュータ1にインストールされることにより,クライアント・コンピュータ1は,後述する動作を行う。クライアント・コンピュータ1を制御するプログラムは,コンパクト・ディスク5のような記録媒体から読み取られるのではなく,インターネットを介して送信されたものを受信するようにしてもよい。
 図3は,画像合成サーバ20の電気的構成を示すブロック図である。
 画像合成サーバ20の全体の動作は,CPU21によって統括される。
 画像合成サーバ20には,データを一時的に記憶するメモリ22,コンパクト・ディスク23にアクセスするためのコンパクト・ディスク・ドライブ24およびプリンタ29を接続するためのプリンタ・インターフェイス25が含まれている。また,画像合成サーバ20には,ハードディスク28およびハードディスク28にアクセスするためのハードディスク・ドライブ27も含まれている。
 クライアント・コンピュータ1と同様に,後述する動作を制御するプログラムが格納されているコンパクト・ディスク23が画像合成サーバ20に装填され,コンパクト・ディスク・ドライブ24によってコンパクト・ディスク24に格納されているプログラムが読み取られる。読み取られたプログラムが画像合成サーバ20にインストールされることにより,画像合成サーバ20は,後述する動作を行う。画像合成サーバ20を制御するプログラムも,コンパクト・ディスク23のような記録媒体から読み取られるのではなく,インターネットを介して送信されたものを受信するようにしてもよい。
 図4は,フォトブック作成システムにおいて作成されるフォトブックを構成するページ画像の一例である。
 フォトブックを構成するページ画像P1には,テンプレート画像T1(構成要素)が含まれている。このテンプレート画像T1にフレーム画像FR1からFR3が形成されている。これらのフレーム画像FR1からFR3は,テンプレート画像T1自体に形成されているものでもよい。また,テンプレート画像T1は,フレーム画像FR1からFR3が形成されていない単なる台紙画像であり,その台紙画像にフレーム画像FR1からFR3を付加するものでもよい。右上のフレーム画像FR1の中には,被写体像(対象画像)31が現れている。左上のフレーム画像FR2の中には,被写体像32が現れている。右下のフレーム画像FR2の中には,被写体像34が現れている。左下のフレーム画像FR3の中には,被写体像33が現れている。ページ画像P1の上部には,「ある日の一日」という文字画像30(構成要素)が表示されている。
 フレーム画像FR1は,矩形であり,クールな印象をユーザに与えると考えられる。フレーム画像FR2は,ハート型であり,かわいらしい印象をユーザに与えると考えられる。フレーム画像FR3は,曲線の枠であり,少しかわいらしい印象をユーザに与えると考えられる。文字画像30は,丸みを帯びている文字であり,全体的にかわいらしい印象をユーザに与えると考えられる。また,被写体像31から34もかわいらしい被写体像が表示されている(かわいらしい被写体像とは,花などのかわいい印象を与える対象物などが写っている被写体像,全体的にピンク色の割合が多い被写体像など様々なルールにしたがって決定できる。)。このようなことから,ページ画像P1は,全体的にかわいらしい印象をユーザに与える。この実施例では,フォトブックが作成されるときに,ユーザによって仕上がり印象が指定される。その指定された印象に合致するようなフォトブックが作成される。図4のページ画像P1は,「かわいい」仕上がり印象となるようにユーザによって指定されたものである。
 図5は,フォトブックを構成するページ画像の他の例である。
 図5に示すフォトブックを構成するページ画像P2においては,左上のフレーム画像FR2が時計回りに約45度回転している。また,右上のフレーム画像FR1に現れている被写体像31Aは,図4のページ画像P1のフレーム画像FR1に現れている被写体像31に比べて拡大されている。このように,この実施例では,フレームの回転,被写体像の拡大(縮小)ができる。フレームの回転,被写体像の拡大(縮小)に応じて,かわいらしさなどの仕上がり印象も変わるので,フレームの回転,被写体像の拡大(縮小)も考慮されてユーザの仕上がり印象に合致するようなフォトブックが作成される。
 図6から図11は,評価値テーブルの一例である。評価値テーブルは,フォトブックに利用されるテンプレート画像等の感性(かわいい,カジュアル,ロマンティック,クール,シックなど)を,感性に対応してポイントとして表わした評価値を格納したテーブルである。
 図6は,テンプレート評価値テーブルの一例である。
 テンプレート画像(あらかじめ画像合成サーバ20のハードディスク28に格納されている。)ごとに感性の評価値がテンプレート評価値テーブルに格納されている。たとえば,テンプレート画像T1は,「かわいい」,「カジュアル」および「ロマンティック」の感性についての評価値は低いが,「クール」および「シック」の感性についての評価値は高い。テンプレート画像T3は,「かわいい」および「カジュアル」の感性についての評価値は高いが,「ロマンティック」,「クール」および「シック」の感性についての評価値は低い。ユーザによって,フォトブックの仕上がり印象が「かわいい」または「カジュアル」が指定されると,それらの評価値が高いテンプレート画像T3などが利用されるように決定される。ユーザによって,フォトブックの仕上がり印象が「クール」または「シック」が指定されると,テンプレート画像T1が利用されるように決定される。
 図7は,文字画像評価値テーブルの一例である。
 テンプレート画像と同様に,文字画像(文字画像を表すデータもあらかじめ合成画像サーバ20のハードディスク28に格納されている。文字画像の代わりにフォント(構成要素)を特定してもよい。)ごとに感性の評価値がテンプレート評価値テーブルに格納されている。たとえば,文字画像F1の「かわいい」の評価値は高いので,ユーザによってフォトブックの仕上がり印象が「かわいい」が指定された場合には,文字画像F1が利用されるように決定される。その他の仕上がり印象が指定された場合も,その指定された仕上がり印象の感性の評価値が高い文字が利用されるように決定される。
 図8は,フレーム評価値テーブルの一例である。
 フレーム画像(フレーム画像もあらかじめ画像合成サーバ20のハードディスク28に格納されている。)ごとに感性の評価値がテンプレート評価値テーブルに格納されている。フレーム画像についてもユーザによって指定された仕上がり印象に近い感性の評価値が高いフレーム画像が利用されるように決定される。
 図9は,フレーム回転量評価値テーブルの一例である。
 上述のようにフレームを回転させることができ,その回転量に応じて感性ごとの評価値が定められている。
 図10は,拡大率評価値テーブルの一例である。
 上述のように,被写体像(対象画像)を拡大させることができる(縮小させてもよい)。その拡大率に応じて感性ごとの評価値が定められている。
 図11は,対象画像評価値テーブルの一例である。
 フォトブックに貼り付けられる被写体像(対象画像)は,ユーザによってあらかじめ画像合成サーバ20にアップロードされ,ハードディスク28に格納されている。上述のように被写体像の感性を評価値として表わすことができ,被写体像ごとに感性が評価値化されている。
 図12から図16は,フォトブック作成システムの処理手順を示すフローチャートである。
 この実施例は,フォトブックの仕上がり印象をユーザが感性言語(かわいい,カジュアル,ロマンティック,クール,シックなど)によって指定し,指定された感性言語の印象となるようにフォトブックが作成されるものである。
 クライアント・コンピュータ1が画像合成サーバ20にログインし,クライアント・コンピュータ1と画像合成サーバ20とが接続されると,クライアント・コンピュータ1の表示装置2の表示画面には,図17に示す仕上がり印象指定ウインドウ90が表示される(ステップ41)。
 図17を参照して,クライアント・コンピュータ1の表示装置2の表示画面120のほぼ全体にわたって,仕上がり印象指定ウインドウ90(仕上がり印象受付手段)が表示されている。仕上がり印象指定ウインドウ90の中には,複数の閉曲線91から95が表示されている。これらの閉曲線91から95によって仕上がり印象が規定されている。仕上がり印象指定ウインドウ90の下には,「決定」の文字が表示されている決定ボタン123および「次へ」の文字が表示されている次へボタン124が形成されている。
 仕上がり印象指定ウインドウ90の中に形成されている閉曲線91,92,93,94および95は,それぞれ,仕上がり印象として,「かわいい」,「ロマンティック」,「カジュアル」,「シック」および「クール」という感性言語を指定するものである。たとえば,ユーザが,フォトブックの仕上がり印象として,「かわいい」を指定しようとする場合には,閉曲線91内の領域(印象指定エリア)がユーザによってマウス9を利用してクリックされる(仕上がりの印象の指定:図12ステップ42)。その後,決定ボタン123および次へボタン124がユーザによってマウス9を利用してクリックされると,クライアント・コンピュータ1から画像合成サーバ20に仕上がりの印象を指定するデータが送信される(図12ステップ43),
 閉曲線91から95によって特定される領域が重複している領域101から109は,複数の仕上がり印象を指定できる領域である。たとえば,領域101は,「かわいい」という感性言語によって指定される仕上がり印象を指定する閉曲線91と「カジュアル」という感性言語によって指定される仕上がり印象を指定する閉曲線93とによって囲まれているから,仕上がり印象として「かわいい」かつ「カジュアル」のものを指定できる。同様に,領域102は,「かわいい」という感性言語によって指定される仕上がり印象を指定する閉曲線91と「ロマンティック」という感性言語によって指定される仕上がり印象を指定する閉曲線92とによって囲まれているから,仕上がり印象として「かわいい」かつ「ロマンティック」のものを指定できる。さらに,領域103は,「かわいい」という感性言語によって指定される仕上がり印象を指定する閉曲線91と「ロマンティック」という感性言語によって指定される仕上がり印象を指定する閉曲線92と「カジュアル」という感性言語によって指定される仕上がり印象を指定する閉曲線93とによって囲まれているから,仕上がり印象として「かわいい」仕上がりであり,「カジュアル」な仕上がりであり,かつ「ロマンティック」の仕上がりを指定できる。他の領域104から109についても同様である。
 このように,図17に示す仕上がり印象指定ウインドウ90では,一種類のみの感性言語でなく,複数種類の感性言語を指定することができ,複数種類の感性言語によって規定される複数の印象をもつフォトブックが仕上がるように仕上がり印象を指定できる。
 図12に戻って,ユーザによって指定された仕上がりの印象を示すデータが画像合成サーバ20において受信されると(ステップ71でYES)(仕上がりの印象の指定の受付),受信した仕上がり印象を示すデータによって特定される仕上がり印象の感性の評価値が高い(受け付けられた印象に関連付けられていることとなる)構成要素(テンプレート画像,文字画像,フレーム画像,フォントで特定される文字)および対象画像が決定される(ステップ72)(構成要素決定手段)。対象画像については,特定の人物を含むように,あらかじめ指定されている場合には,その人物が含まれる対象画像が見つけ出され,見つけ出された対象画像の中から対象画像が決定されるのはいうまでもない。もっとも特定の人物が含まれなくともよい場合には,ユーザによって指定された仕上がり印象の感性の評価値が高い対象画像が単に決定される。このようにして1または複数のテンプレート画像が決定されると,決定されたテンプレート画像を表わす画像データが画像合成サーバ20からクライアント・コンピュータ1に送信される(ステップ73)。
 テンプレート画像を表わす画像データがクライアント・コンピュータ1において受信されると(ステップ44でYES),受信した画像データによって表わされるテンプレート画像がクライアント・コンピュータ1の表示装置2の表示画面120に表示される(ステップ45)。
 図18は,テンプレート選択画面の一例である。
 クライアント・コンピュータ1の表示画面120には,ほぼ全体に渡ってテンプレート選択ウインドウ121が形成されている。このテンプレート選択ウインドウ121内に,画像合成サーバ20において決定されたテンプレート画像(ユーザによって指定された仕上がり印象に近い感性を与えるテンプレート画像)が表示されている。テンプレート選択ウインドウ121の右端にはスクロール・バー122が形成されている。このスクロール・バー122をユーザが上下することにより,テンプレート選択ウインドウ121に表示されていないテンプレート画像がテンプレート選択ウインドウ121に現れる。図18に示す例では,テンプレート画像T3,T6,T7,T9,T12,T14,T20およびT21が図示されている。これらのテンプレート画像T3,T6,T7,T9,T12,T14,T20およびT21は,ユーザが指定した仕上がり印象の感性に近いものである(例えば,ユーザの仕上がり印象の感性が「かわいい」場合であると,「かわいい」印象を与えるものである)。
 ユーザは,テンプレート選択ウインドウ121の中から1または複数の所望のテンプレート画像を選択する(図12ステップ46)。たとえば,所望のテンプレート画像上をユーザがクリックすると選択されたこととなる。クリックされたテンプレート画像上をユーザが再びクリックすると,その選択は取消となる。ユーザによって決定ボタン123がクリックされ,かつ次へボタン124がクリックされると(図12ステップ47でYES),選択されたテンプレート画像を識別するデータ(テンプレート画像識別データ)および文字画像リクエスト・コマンドがクライアント・コンピュータ1から画像合成サーバ20に送信される(図12ステップ48)。
 画像合成サーバ20において,テンプレート画像識別データおよび文字画像リクエスト・コマンドが受信されると(図12ステップ74でYES),上述のように(図12ステップ72)すでに決定している文字画像を表わす画像データが画像合成サーバ20からクライアント・コンピュータ1に送信される(図13ステップ75)。
 クライアント・コンピュータ1において,文字画像を表わす画像データが受信されると(図13ステップ49でYES),クライアント・コンピュータ1の表示画面120に文字画像が表示される(図13ステップ50)。
 図19は,文字選択画面の一例である。
 クライアント・コンピュータ1の表示画面120の全体に渡って文字選択ウインドウ131が形成されている。この文字選択ウインドウ131内に,画像合成サーバ20において決定された文字画像(ユーザによって指定された仕上がり印象に近い感性を与える文字画像,フォント画像,フォント)が表示されている。文字選択ウインドウ131の右端にもスクロール・バー132が形成されている。このスクロール・バー132をユーザが上下することにより,文字選択ウインドウ131に表示されていない文字画像が文字選択ウインドウ131に現れる。図19に示す例では,文字画像F1,F4,F10,F15,F16,F17,F22およびF23が図示されている(F1というように符号で文字画像が図示されているが,文字のサンプルが文字画像として表示されているのはいうまでもない。)。これらの文字画像F1,F4,F10,F15,F16,F17,F22およびF23も,ユーザが指定した仕上がり印象の感性に近いものである。
 ユーザは,文字選択ウインドウ131の中から1または複数の所望の文字画像を選択する(図13ステップ51)。たとえば,所望の文字画像上をユーザがクリックすると選択されたこととなる。クリックされた文字画像上をユーザが再びクリックすると,その選択は取消となる。ユーザによって決定ボタン123がクリックされ,かつ次へボタン124がクリックされると(図13ステップ52でYES),選択された文字画像を識別するデータ(文字画像識別データ)およびフレームリクエスト・コマンドがクライアント・コンピュータ1から画像合成サーバ20に送信される(図13ステップ53)。
 画像合成サーバ20において,文字画像識別データおよびフレームリクエスト・コマンドが受信されると(図13ステップ76でYES),すでに決定しているフレーム画像を表わす画像データが画像合成サーバ20からクライアント・コンピュータ1に送信される(図14ステップ77)。
 クライアント・コンピュータ1において,フレーム画像を表わす画像データが受信されると(図14ステップ54でYES),クライアント・コンピュータ1の表示画面120にフレーム画像が表示される(図14ステップ55)。
 図20は,フレーム選択画面の一例である。
 クライアント・コンピュータ1の表示画面120の全体に渡ってフレーム選択ウインドウ141が形成されている。このフレーム選択ウインドウ141内に,画像合成サーバ20において決定されたフレーム画像(ユーザによって指定された仕上がり印象に近い感性を与えるフレーム画像)が表示されている。フレーム選択ウインドウ141の右端にもスクロール・バー142が形成されている。このスクロール・バー142をユーザが上下することにより,フレーム選択ウインドウ141に表示されていないフレーム画像がフレーム選択ウインドウ141に現れる。図20に示す例では,フレーム画像FR2,FR3,FR7,FR9,FR12,FR13,FR18およびFR20が図示されている(FR2というように符号でフレーム画像が図示されているが,フレームのサンプルがフレーム画像として表示されている)。これらのフレーム画像FR2,FR3,FR7,FR9,FR12,FR13,FR18およびFR20もユーザが指定した仕上がり印象の感性に近いものである。
 ユーザは,フレーム選択ウインドウ141の中から1または複数の所望のフレームクライアント画像を,上述したのと同様にして選択する(図14ステップ56)。ユーザによって決定ボタン123がクリックされ,かつ次へボタン124がクリックされると(図14ステップ57でYES),ユーザによって選択されたフレーム画像を識別するデータ(フレーム識別データ)および対象画像リクエスト・コマンドがクライアント・コンピュータ1から画像合成サーバ20に送信される(図14ステップ58)。
 画像合成サーバ20において,フレーム画像識別データおよび対象画像リクエスト・コマンドが受信されると(図14ステップ78でYES),すでに決定している対象画像を表わす画像データが画像合成サーバ20からクライアント・コンピュータ1に送信される(図15ステップ79)。
 クライアント・コンピュータ1において,対象画像を表わす画像データが受信されると(図15ステップ59でYES)。クライアント・コンピュータ1の表示画面に対象画像が表示される(図15ステップ60)。
 図21は,対象画像選択画面の一例である。
 クライアント・コンピュータ1の表示画面120の全体に渡って対象画像選択ウインドウ151が形成されている。この対象画像選択ウインドウ151内に,画像合成サーバ20において決定された対象画像(ユーザによって指定された仕上がり印象に高い感性を与える対象画像)が表示されている。対象画像選択ウインドウ151の右端にもスクロール・バー152が形成されている。上述したのと同様に,スクロール・バー152をユーザが上下することにより,対象画像選択ウインドウ151に表示されていない対象画像が対象画像選択ウインドウ151に現れる。図21に示す例では,対象画像I1,I5,I6,I8,I10,I12,I19およびI21が図示されている(IR1というように符号で対象画像が図示されているが,実際の対象画像が表示されているのはいうまでもない)。これらの対象画像I1,I5,I6,I8,I10,I12,I19およびI21もユーザが指定した仕上がり印象の感性に近いものである。
 ユーザは,対象画像選択ウインドウ151の中から1または複数の所望の対象画像を,上述したのと同様にして選択する(図15ステップ61)。ユーザによって決定ボタン123がクリックされ,かつ次へボタン124がクリックされると(図15ステップ62でYES),ユーザによって選択された対象画像を識別するデータ(対象画像識別データ)および仕上がりサンプル画像リクエスト・コマンドがクライアント・コンピュータ1から画像合成サーバ20に送信される(図15ステップ63)。
 画像合成サーバ20において,対象画像識別データおよび仕上がりサンプル画像リクエスト・コマンドが受信されると(図15ステップ80でYES),ユーザによって選択されたテンプレート画像に合うように,選択された対象画像が補正される(図15ステップ81)。たとえば,選択されたテンプレート画像の色味,彩度,明度に近くなるような補正パラメータを用いて,選択された対象画像が補正される。選択されたテンプレート画像は,ユーザによって指定された仕上がり印象の感性に近いものであるから,そのテンプレート画像に合うように,選択された対象画像が補正されることにより,対象画像は指定された仕上がり印象に近づくように補正されることとなる(対象画像補正手段)。テンプレート画像の全体の色味,彩度または明度と,対象画像の全体の色味,彩度,または明度と,が近くなるように補正してもよいし,テンプレート画像の代表的な画像部分(たとえば,周囲の画像部分)の色味,彩度,または明度と,対象画像の代表的な画像部分(たとえば,主要被写体の画像部分)の色味,彩度,または明度と,が近くなるように補正してもよい。色ヒストグラムが近くなるように補正してもよい。
 対象画像が補正されると,選択されたテンプレート画像,文字画像,フレーム画像,補正された対象画像を用いて,フォトブックのサンプル画像(仕上がりサンプル画像,合成画像)が1または複数種類生成される(図15ステップ82)(合成画像生成手段)。たとえば,図4に示したようなフォトブックを構成するページ画像P1が生成されることとなる。たとえば,ユーザによって選択されたテンプレート画像等を用いて,画像合成サーバ20において自動的にレイアウトが行われて,複数の仕上がりサンプル画像が生成される。
 すると,生成された複数の仕上がりサンプル画像についての評価値の総和が画像合成サーバ20おいて算出される(図15ステップ83)。
 図22は,仕上がりサンプル画像の評価値(ユーザが指定した仕上がり印象の感性での評価値)の一例を示す評価値テーブルの一例である。
 この例による仕上がりサンプル画像は,テンプレート画像Ta,文字画像Fb,フレーム画像FRc,対象画像Id,Ie,If,Igから生成されたものとする。ユーザが指定した仕上がり印象の感性(たとえば,「かわいい」)に対応する評価値は,それぞれ,テンプレート画像がa,文字画像がb,フレーム画像がc,対象画像Id,Ie,IfおよびIgが,d,e,f,gである。したがって,この例による仕上がりサンプル画像の評価値の総和は,Σp=a+b+c+d+e+f+gとなる。
 評価値の総和が算出されると,評価値の総和が,感性ごとにあらかじめ定められたしきい値以上になっているかどうかが判定される(図16ステップ84)。(仕上がりサンプル画像の印象が,ユーザによって指定された印象に合致するかどうかの判定。印象判定手段。また,対象画像と構成要素の少なくとも1つとの一致度が低いかどうかを判定し,低い場合にユーザによって指定された印象に合致すると判定するものでもよい。)評価値の総和が,対応する感性のしきい値以上でなければ(非合致,または合致していないと判定されると)(図16ステップ84でNO),前回の補正のパラメータを変更して,仕上がりサンプル画像に含まれる対象画像(この場合,対象画像Id,Ie,If,Ie)について補正が行われる(図16ステップ85)[指定された印象から遠いと判定されたことに応じて生成された仕上がりサンプル画像(合成画像)がユーザによって指定された印象となるように補正されることとなる。合成画像補正手段]。もっとも,テンプレート画像,文字画像の形状(フォント),対象画像を変更することにより,ユーザによって指定された印象となるように補正してもよい。また,図15ステップ81において補正された対象画像について補正するのではなく,図15ステップ81における補正前の対象画像について補正するようにしてもよい。補正がn回行われていなければ(図16ステップ86でNO),再び評価値の総和が算出され,算出された総和がしきい値以上かどうかが判断される(図16ステップ84)(繰り返し制御手段)。補正がすでにn回行われていれば(図16ステップ86でYES),評価値の総和の再算出処理は,それ以上は行われない。評価値の総和が,対応する感性のしきい値以上となっていれば(図16ステップ84でYES),ステップ85および86の処理はスキップされる。
 補正された対象画像が貼り付けられた仕上がりサンプル画像が新たに生成される。生成された仕上がりサンプル画像を表わす画像データが画像合成サーバ20からクライアント・コンピュータ1に送信される(図16ステップ87)。
 クライアント・コンピュータ1において,仕上がりサンプル画像を表わす画像データが受信されると(図16ステップ64),受信した画像データによって表わされる仕上がりサンプル画像が表示装置1の表示画面120に表示される(図16ステップ65)。
 図23は,仕上がりサンプル選択画面の一例である。
 クライアント・コンピュータ1の表示画面120の全体に渡って仕上がりサンプル画像選択ウインドウ161が形成されている。仕上がりサンプル画像選択ウインドウ161の右下には「プリント」の文字が表示されているプリント・ボタン124が形成されている。仕上がりサンプル画像選択ウインドウ161内に,画像合成サーバ20において生成された仕上がりサンプル画像(評価値の総和が,ユーザによって指定した感性に対応して定められているしきい値以上となっている仕上がりサンプル画像)が表示されている。仕上がりサンプル画像選択ウインドウ161の右端にもスクロール・バー162が形成されている。このスクロール・バー162をユーザが上下することにより,仕上がりサンプル画像選択ウインドウ161に表示されていない仕上がりサンプル画像が上がりサンプル画像選択ウインドウ161に現れる。図23に示す例では,仕上がりサンプル画像171から178が仕上がりサンプル画像選択ウインドウ161に図示されている。これらの仕上がりサンプル画像171から178は,図16ステップ85のように補正が行われているからユーザが指定した仕上がり印象の感性に近いものとなっている。
 ユーザは,仕上がりサンプル画像選択ウインドウ161の中から1または複数の所望の仕上がりサンプル画像を,上述したのと同様にして選択する(図16ステップ66)。ユーザによって決定ボタン122が押され,プリント・ボタン124がクリックされると(図16ステップ67でYES),選択された仕上がりサンプル画像を識別するデータ(仕上がりサンプル画像識別データ)およびプリント・コマンドがクライアント・コンピュータ1から画像合成サーバ20に送信される(図16ステップ68)。
 画像合成サーバ20において,仕上がりサンプル画像識別データおよびプリント・コマンドが受信されると(図16ステップ88でYES),選択された仕上がりサンプル画像が最終的に生成されるフォトブックを構成するページ画像としてプリンタ29によってプリントされる(図16ステップ89)。
 図24および図25は,変形例を示している。
 図24は,フォトブック作成システムの処理手順の一部を示すフローチャートである。この処理手順は,ユーザによって選択された仕上がりサンプル画像のレイアウトを変更するものである。
 図23に示したように表示されている仕上がりサンプル画像の中から所望の仕上がりサンプル画像が選択されると(ステップ66),その選択された仕上がりサンプル画像がプリント用ページ画像として,クライアント・コンピュータ1の表示画面120に表示される(ステップ181)。
 図25は,プリント用ページ画像が表示画面120に表示されている様子を示している。
 表示画面120には,プリント用ページ画像表示用ウインドウ126が形成されている。このウインドウ126内に,ユーザによって選択された仕上がりサンプル画像が,プリント用ページ画像P1として表示されている。このプリント用ページ画像P1は,図4に示したページ画像P1と同じものである(他のページ画像であってもよいのはいうまでもない)。プリント用ページ画像表示用ウインドウ126の下には,決定ボタン122およびプリント・ボタン123のほかに「変更」の文字が付されている変更ボタン125および「拡大」の文字が付されている拡大ボタン129が形成されている。プリント用ページ画像表示用ウインドウ126の右側には,フレームウインドウ127が表示されている。フレームウインドウ127内には複数のフレーム画像が表示されている。フレームウインドウ127の右端には,スクロール・バー128が形成されている。スクロール・バー128が上下に動かされることにより,フレームウインドウ127に表示されていないフレームがウインドウ127に現れる。
 ユーザによって変更ボタン125がクリックされると,ウインドウ126に表示されているページ画像P1のフレーム画像FR1等自体の変更,配置の変更(フレームの回転による変更も含む),フレームに表示されている対象画像の拡大(縮小)が可能となる。
 フレーム自体を変更する場合には,たとえば,その変更したいフレームがプリント用ページ表示用ウインドウ126からフレームウインドウ127にドラッグさせられる。すると,ドラッグさせられたフレームは,取り除かれる(フレーム内に含まれていた対象画像は,そのままテンプレート画像T1上に残る)。フレーム127の中から所望のフレーム画像が選択され,その選択されたフレーム画像が,取り除かれたフレームがあった位置にドラッグさせられる。フレーム自体が変更されることとなる。
 フレームの位置を変更する場合には,ユーザは,所望のフレームを,マウス9を用いて選択し,所望の位置にドラッグする。フレームを回転する場合には,ユーザは,所望のフレームを,マウス9を用いて回転する。対象画像を拡大する場合には,ユーザは,所望の対象画像を,マウス9を用いて選択し,その後,拡大ボタン129をクリックする。
 図24に戻って,変更ボタン125がクリックされ(ステップ182でYES),レイアウト変更処理が行われる(ステップ183)。上述のようにして変更させられたレイアウト情報はクライアント・コンピュータ1のメモリ4に一時的に記憶されているのはいうまでもない。プリント・ボタン123がクリックされると,プリント用ページ画像として選択されている仕上がりサンプル画像を識別するデータ,プリント・コマンドのほかにレイアウト情報がクライアント・コンピュータ1から画像合成サーバ20に送信される(ステップ68A)。
 画像合成サーバ20において,仕上がりサンプル画像識別データおよびプリント・コマンドを受信したが(ステップ88でYES),レイアウト情報が受信されなければ(ステップ90でNO),レイアウト変更は行われていないので,仕上がりサンプル画像識別データによって特定される仕上がりサンプル画像がフォトブックを構成するページ画像としてプリントされる(ステップ89)。
 画像合成サーバ20において,仕上がりサンプル画像識別データ,プリント・コマンドおよびレイアウト情報が受信されると(ステップ88および90でYES),レイアウト変更後の仕上がりサンプル画像(この場合,フォトブックを構成するページ画像)の評価値の総和が図22に示すように算出される。但し,レイアウトが変更されている場合において,フレーム自体が変更されているときには図8に示すフレーム評価値テーブルを参照して新たな評価値が用いられ,フレームが回転されているときには図9に示すフレーム回転量評価値テーブルを参照して新たな評価値が用いられ,対象画像が拡大されているときには図10に示す拡大率評価値テーブルを用いて新たな評価値が用いられることにより,評価値の総和が算出される。算出された評価値の総和がしきい値以上でなければ(図16ステップ85),補正が行われる(図16ステップ85)。
 また,図16ステップ84の処理において,評価値の総和がしきい値未満かどうか(ユーザによって指定された印象から遠いかどうか)が判定されているが,対象画像またはテンプレート画像,フレーム,文字画像,文字などの構成要素の少なくとも一つの画像の評価値がしきい値未満かどうか(ユーザによって指定された印象から遠いかどうか)が判定されるようにしてもよい。その場合,対象画像またはテンプレート画像,フレーム,文字画像などの構成要素の少なくとも一つの画像の色成分にもとづいて評価値がしきい値未満がどうかが判定されてもよい。たとえば,ユーザによって指定された印象に合致すると思われる色に近い色を持つ対象画像,構成要素についての評価値を高くし,図16ステップ84の処理が行われる。
 また,図16ステップ85の処理において,前回の補正パラメータを変更して対象画像について補正が行われているが対象画像について補正を行うのではなく,対象画像以外のフレーム画像,文字画像などの構成要素または仕上がりサンプル画像全体を補正して,ユーザが指定した印象となるようにしてもよい。
 さらに,上述の実施例においては,ユーザによって仕上がり印象を感性言語を用いて指定されているが(図12ステップ42),ユーザにテンプレート画像選択させることにより,仕上がり印象を指定させるようにしてもよい。この場合には,最初に,図17に示す印象指定ウインドウを表示するのではなく,図18に示すようなテンプレート画像を一覧で表示し,その表示されているテンプレート画像の中から所望のテンプレート画像が選択される。選択されたテンプレート画像に付加されている評価値にもとづいて,ユーザの所望の仕上がり印象が決定されることとなる。
 上述の実施例においては,クライアント・コンピュータ1と画像合成装置20とが通信されてフォトブックが作成されているが,画像合成装置20の処理をクライアント・コンピュータ1ですべて行うようにしてもよい。また,上述の実施例においては,クライアント・コンピュータ1においてユーザが仕上がり印象を指定し,その指定された仕上がり印象を示すデータが画像合成サーバ20の通信装置26において受信することにより,ユーザの仕上がり印象の指定を受け付けていることとなるが,画像合成装置20における処理をクライアント・コンピュータ1において行わせる場合には,上述したようにマウス9による仕上がり印象の指定をCPU7が受け付けることとなる。
 1 クライアント・コンピュータ
 3 表示制御装置(表示制御手段)
 9 マウス(レイアウト変更手段)
 7 CPU(仕上がり印象受付手段,レイアウト変更手段)
 20 画像合成サーバ
 21 CPU(構成要素決定手段,対象画像補正手段,合成画像生成手段,印象判定手段,合成画像補正手段,繰り返し制御手段)
 29 プリンタ

Claims (14)

  1.  テンプレート画像に対象画像を貼り付けて合成画像を生成する画像合成装置において,
     合成画像の仕上がりの印象の指定を受け付ける仕上がり印象受付手段,
     上記仕上がり印象受付手段によって受け付けられた印象に関連付けられ,かつ合成画像を構成するテンプレート画像または合成画像に用いられる文字の少なくとも一つの構成要素を決定する構成要素決定手段,
     テンプレート画像に貼り付ける対象画像を,上記仕上がり印象受付手段によって受付られた印象に補正する対象画像補正手段,
     上記対象画像補正手段によって補正された対象画像および上記構成要素決定手段によって決定された構成要素を用いて合成画像を生成する合成画像生成手段,
     上記合成画像生成手段によって生成された合成画像の印象が,上記仕上がり印象受付手段によって受け付けられた印象に合致するかどうかを判定する印象判定手段,ならびに
     上記印象判定手段によって,受け付けられた印象に非合致と判定されたことに応じて,生成された合成画像が,受け付けられた印象に補正する合成画像補正手段,
     を備えた画像合成装置。
  2.  テンプレート画像には,フレームが付加され,上記フレームに対象画像を貼り付けるものであり,
     上記フレーム自体を変更する,上記フレームの配置を変更する,あるいは対象画像の大きさを変更するレイアウト変更手段,
     をさらに備えた請求項1に記載の画像合成装置。
  3.  上記印象判定手段は,
     対象画像または構成要素の少なくとも一つの画像の印象が,受け付けられている印象と合致するかどうかを判定するものである,
     請求項1または2に記載の画像合成装置。
  4.  上記印象判定手段は,
     上記少なくとも一つの画像に含まれる色成分にもとづいて,上記少なくとも一つの画像の印象が,受け付けられた印象に合致するかどうかを判定するものである,
     請求項3に記載の画像合成装置。
  5.  上記印象判定手段は,
     上記合成画像生成手段によって生成された合成画像の印象が上記仕上がり印象受付手段によって受付られた印象に合致するかどうかを判定し,かつ上記合成画像補正手段によって補正された合成画像の印象が上記仕上がり印象受付手段によって受け付けられた印象に合致するかどうかを判定するものであり,
     上記印象判定手段による処理および上記合成画像補正手段による処理を繰り返すように,上記印象判定手段および上記合成画像補正手段を制御する繰り返し制御手段,
     をさらに備えた請求項1から4のうち,いずれか一項に記載の画像合成装置。
  6.  上記印象判定手段は,
     対象画像と構成要素の少なくとも1つとの一致度が低いかどうかを判定するものであり,上記一致度が低いと判定されたことにより,上記仕上がり印象受付手段によって受け付けられた印象と非合致と判定するものである,
     請求項1から5のうち,いずれか一項に記載の画像合成装置。
  7.  上記合成画像補正手段は,
     上記構成要素決定手段によって決定された構成要素または対象画像の少なくとも一つについて,上記仕上がり印象受付手段によって受け付けられた印象に補正するものである,
     請求項1から6のうち,いずれか一項に記載の画像合成装置。
  8.  上記仕上がり印象受付手段は,テンプレート画像の指定を受け付けることにより合成画像の仕上がり印象を受け付けるものであり,
     上記構成要素は,受け付けられたテンプレート画像を構成要素と決定するものである,
     請求項1から7のうち,いずれか一項に記載の画像合成装置。
  9.  上記仕上がり印象受付手段は,
     合成画像の仕上がりの印象を指定する仕上がり印象指定手段によって指定された印象を受け付ける,あるいはコンピュータから送信される,合成画像の仕上がりの印象を示すデータを受信するものである,
     請求項1から8のうち,いずれか一項に記載の画像合成装置。
  10.  上記仕上がり印象受付手段は,
     合成画像の仕上がりの印象を複数示す,複数の印象指定エリアを,少なくとも二つの印象指定エリアの一部が重なって表示画面に表示するように表示装置を制御する表示制御手段を備え,
     印象指定エリアが指定されることにより,指定された印象指定エリアによって示される印象を,合成画像の仕上がりの印象とするものであり,
     印象指定エリアの重複部分が指定されたことに応じて,指定された複数の印象エリアが示す複数の印象を,合成画像の仕上がり印象として受け付けるものである,
     請求項1から9のうち,いずれか一項に記載の画像合成装置。
  11.  上記合成画像補正手段によって補正された合成画像をプリントするプリンタ,
     をさらに備えた請求項1から10のうち,いずれか一項に記載の画像合成装置。
  12.  テンプレート画像に対象画像を貼り付けて合成画像を生成する画像合成方法において,
     仕上がり印象受付手段が,合成画像の仕上がりの印象の指定を受け付け,
     構成要素決定手段が,上記仕上がり印象受付手段によって受け付けられた印象に関連づけられ,かつ合成画像を構成するテンプレート画像または合成画像に用いられる文字の少なくとも一つの構成要素を決定し,
     対象画像補正手段が,テンプレート画像に貼り付ける対象画像を,上記仕上がり印象受付手段によって受け付けられた印象に補正し,
     合成画像生成手段が,上記対象画像補正手段によって補正された対象画像および上記構成要素決定手段によって決定された構成要素を用いて合成画像を生成し,
     印象判定手段が,上記合成画像生成手段によって生成された合成画像の印象が,上記仕上がり印象受付手段によって受け付けられた印象に合致するかどうかを判定し,
     合成画像補正手段が,上記印象判定手段によって,受け付けられた印象に非合致と判定されたことに応じて,生成された合成画像が,受け付けられた印象に補正する,
     画像合成方法。
  13.  テンプレート画像に対象画像を貼り付けて合成画像を生成する画像合成装置のコンピュータを制御するコンピュータ読み取り可能なプログラムにおいて,
     合成画像の仕上がりの印象の指定を受け付けさせ,
     受け付けられた印象に関連づけられ,かつ合成画像を構成するテンプレート画像または合成画像に用いられる文字画像の少なくとも一つの構成要素を決定させ,
     テンプレート画像に貼り付ける対象画像を,受け付けられた印象に補正し,
     補正された対象画像および決定された構成要素を用いて合成画像を生成させ,
     生成された合成画像の印象が,受け付けられた印象に合致するかどうかを判定させ,
     受け付けられた印象に非合致と判定されたことに応じて,生成された合成画像が,受け付けられた印象に補正させるように,画像合成装置のコンピュータを制御するプログラム。
  14.  請求項13に記載のプログラムを格納した記録媒体。
PCT/JP2015/051197 2014-02-28 2015-01-19 画像合成装置,ならびにその方法,そのプログラム,およびそのプログラムを格納した記録媒体 WO2015129328A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014038244A JP2015162850A (ja) 2014-02-28 2014-02-28 画像合成装置,ならびにその方法,そのプログラム,およびそのプログラムを格納した記録媒体
JP2014-038244 2014-02-28

Publications (1)

Publication Number Publication Date
WO2015129328A1 true WO2015129328A1 (ja) 2015-09-03

Family

ID=54008657

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/051197 WO2015129328A1 (ja) 2014-02-28 2015-01-19 画像合成装置,ならびにその方法,そのプログラム,およびそのプログラムを格納した記録媒体

Country Status (2)

Country Link
JP (1) JP2015162850A (ja)
WO (1) WO2015129328A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110235174A (zh) * 2017-03-15 2019-09-13 富士胶片株式会社 图像评价装置、图像评价方法及图像评价程序
CN110235174B (zh) * 2017-03-15 2024-05-31 富士胶片株式会社 图像评价装置、图像评价方法及记录介质

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6317714B2 (ja) * 2015-09-09 2018-04-25 富士フイルム株式会社 プリント受付装置、プリント受付サーバ、及びプリント受付方法
JP6537419B2 (ja) * 2015-09-18 2019-07-03 富士フイルム株式会社 テンプレート選択システム,テンプレート選択方法,テンプレート選択プログラムおよびそのプログラムを格納した記録媒体
CN105260732A (zh) * 2015-11-26 2016-01-20 小米科技有限责任公司 图片处理方法及装置
JP6650364B2 (ja) * 2016-07-25 2020-02-19 富士フイルム株式会社 画像処理装置、画像処理方法、プログラムおよび記録媒体
JP6728091B2 (ja) 2017-03-15 2020-07-22 富士フイルム株式会社 画像合成装置,画像合成方法およびそのプログラム
JP6689226B2 (ja) 2017-03-15 2020-04-28 富士フイルム株式会社 特徴印象軸決定システム,特徴印象軸決定方法およびそのプログラム
CN110431598B (zh) * 2017-03-15 2023-03-14 富士胶片株式会社 合成图像生成装置、合成图像生成方法及记录介质
CN108520508B (zh) * 2018-04-04 2019-02-01 掌阅科技股份有限公司 基于用户行为的用户形象优化方法、计算设备及存储介质
JP7303953B2 (ja) * 2021-11-05 2023-07-05 楽天グループ株式会社 情報処理装置、情報処理方法及び情報処理プログラム
WO2023079702A1 (ja) * 2021-11-05 2023-05-11 楽天グループ株式会社 情報処理装置、情報処理方法及び情報処理プログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000253227A (ja) * 1999-03-01 2000-09-14 Fuji Photo Film Co Ltd 画像合成方法および装置並びに記録媒体
JP2009031855A (ja) * 2007-07-24 2009-02-12 Seiko Epson Corp 画像処理装置、画像処理方法、および、コンピュータプログラム
JP2012164000A (ja) * 2011-02-03 2012-08-30 Jvc Kenwood Corp テンプレート順位付け装置、テンプレート順位付け方法、及びテンプレート順位付けプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000253227A (ja) * 1999-03-01 2000-09-14 Fuji Photo Film Co Ltd 画像合成方法および装置並びに記録媒体
JP2009031855A (ja) * 2007-07-24 2009-02-12 Seiko Epson Corp 画像処理装置、画像処理方法、および、コンピュータプログラム
JP2012164000A (ja) * 2011-02-03 2012-08-30 Jvc Kenwood Corp テンプレート順位付け装置、テンプレート順位付け方法、及びテンプレート順位付けプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110235174A (zh) * 2017-03-15 2019-09-13 富士胶片株式会社 图像评价装置、图像评价方法及图像评价程序
CN110235174B (zh) * 2017-03-15 2024-05-31 富士胶片株式会社 图像评价装置、图像评价方法及记录介质

Also Published As

Publication number Publication date
JP2015162850A (ja) 2015-09-07

Similar Documents

Publication Publication Date Title
WO2015129328A1 (ja) 画像合成装置,ならびにその方法,そのプログラム,およびそのプログラムを格納した記録媒体
US7961200B2 (en) Image cropping system and method
US7607084B2 (en) Electronic product design
US8027535B2 (en) Image processing method and image processing apparatus
JP2002260000A (ja) ワークフローシーケンス情報を含む、個人用印刷物の印刷テンプレートを利用する装置及び方法
US20240046531A1 (en) Systems and methods for recolouring vector graphics
US20050034067A1 (en) Document processor, printing system, method of adding object to document and program
US20140136962A1 (en) Method and System for Detecting and Removing Printer Control Marks from Rasterized Image for Placement in Image Container of Document Template
US10789735B2 (en) Intelligent systems and methods for producing a dynamic color combination for a design output
WO2020195332A1 (ja) サポートプログラム、情報処理装置、および印刷方法
US10593067B2 (en) Intelligent systems and methods for dynamic color hierarchy and aesthetic design computation
KR101779380B1 (ko) 벡터 및 컬러 비트맵 오버레이 폰트 제공 시스템 및 방법
JP2008228018A (ja) 色変換処理プログラム、色変換処理装置及び画像形成システム
JP2000244722A (ja) 画像処理方法およびシステム並びに記録媒体
US11023653B2 (en) Simplified formatting for variable data production with vertical resolution of dependencies
US20080025563A1 (en) Data correction method, apparatus and program
KR20090111912A (ko) 실시간 시안 제작이 가능한 온라인 주문제작 방법 및 그시스템
JP2003348334A (ja) 画像合成方法およびプログラム
US11416183B2 (en) Image processing apparatus, control method, and storage medium for storing program
JP2005244607A (ja) 色変換システム、色変換装置、および色変換プログラム
JP2019133352A (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP2015203973A (ja) ロゴ作成装置およびロゴ作成方法
JP2015032262A (ja) 画像処理装置、画像処理プログラム、及び画像処理プログラムを記憶した記憶媒体
US20200125629A1 (en) Simplified formatting for variable data production with horizontal resolution of dependencies
JP2023022714A (ja) 情報処理システム、サーバー、情報処理方法及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15755614

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15755614

Country of ref document: EP

Kind code of ref document: A1