JP7534706B2 - PROGRAM, IMAGE PROCESSING APPARATUS, AND IMAGE PROCESSING METHOD - Google Patents

PROGRAM, IMAGE PROCESSING APPARATUS, AND IMAGE PROCESSING METHOD Download PDF

Info

Publication number
JP7534706B2
JP7534706B2 JP2024072279A JP2024072279A JP7534706B2 JP 7534706 B2 JP7534706 B2 JP 7534706B2 JP 2024072279 A JP2024072279 A JP 2024072279A JP 2024072279 A JP2024072279 A JP 2024072279A JP 7534706 B2 JP7534706 B2 JP 7534706B2
Authority
JP
Japan
Prior art keywords
image
person
retouching
adjustment
captured image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2024072279A
Other languages
Japanese (ja)
Other versions
JP2024097331A (en
Inventor
菜津美 松原
卓 荒木
呂美 嵐
Original Assignee
フリュー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by フリュー株式会社 filed Critical フリュー株式会社
Priority to JP2024072279A priority Critical patent/JP7534706B2/en
Publication of JP2024097331A publication Critical patent/JP2024097331A/en
Application granted granted Critical
Publication of JP7534706B2 publication Critical patent/JP7534706B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Cameras Adapted For Combination With Other Photographic Or Optical Apparatuses (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)

Description

本技術は、プログラム、画像処理装置、および画像処理方法に関し、特に、撮影画像に写る被写体の写りの調整を効率的に行うことができるようにしたプログラム、画像処理装置、および画像処理方法に関する。 This technology relates to a program, an image processing device, and an image processing method, and in particular to a program, an image processing device, and an image processing method that enable efficient adjustment of the appearance of a subject in a captured image.

証明写真機や、ゲームセンターに設置されるプリントシール機などの撮影装置においては、撮影された画像の写りをユーザが自分で調整できるようになっている。ユーザは、シール紙などに印刷された状態で受け取ることになる画像の写りを1枚ずつ好みに応じて調整することができる。 In photo taking devices such as passport photo machines and print sticker machines installed in game arcades, the user can adjust the appearance of the captured image. The user can adjust the appearance of the image that is printed on sticker paper or the like, one by one, to their liking.

特開2015-118329号公報JP 2015-118329 A

多くの画像の写りを1枚ずつ調整することは煩雑である。 Adjusting the appearance of many images one by one is tedious.

本技術はこのような状況に鑑みてなされたものであり、撮影画像に写る被写体の写りの調整を効率的に行うことができるようにするものである。 This technology was developed in light of these circumstances, and makes it possible to efficiently adjust the appearance of subjects in captured images.

本技術の一側面のプログラムは、それぞれの撮影画像に写る人物を機械学習によって生成されたモデルを用いて識別し、複数枚の撮影画像の中から調整対象として選択された第1の撮影画像の写りをユーザによる操作に応じて調整し、被写体の人物構成が前記第1の撮影画像と異なる第2の撮影画像に対して前記第1の撮影画像の調整内容を反映させる操作が行われた場合、前記第1の撮影画像と前記第2の撮影画像の被写体の人物構成に基づいて、前記第1の撮影画像に写る所定の人物に対する調整内容を、前記第2の撮影画像に写る、前記所定の人物と同じ人物に反映させる処理をコンピュータに実行させるプログラムである。 A program according to one aspect of the present technology is a program that causes a computer to execute a process of identifying people appearing in each captured image using a model generated by machine learning, adjusting the appearance of a first captured image selected as an adjustment target from among a plurality of captured images in response to an operation by a user, and, when an operation is performed to reflect the adjustment content of the first captured image to a second captured image in which the subject's composition is different from that of the first captured image, reflecting the adjustment content of a specific person appearing in the first captured image to a person identical to the specific person appearing in the second captured image, based on the subject's composition of the first and second captured images.

本技術の一側面においては、それぞれの撮影画像に写る人物が機械学習によって生成されたモデルを用いて識別され、複数枚の撮影画像の中から調整対象として選択された第1の撮影画像の写りがユーザによる操作に応じて調整される。また、被写体の人物構成が前記第1の撮影画像と異なる第2の撮影画像に対して前記第1の撮影画像の調整内容を反映させる操作が行われた場合、前記第1の撮影画像と前記第2の撮影画像の被写体の人物構成に基づいて、前記第1の撮影画像に写る所定の人物に対する調整内容を、前記第2の撮影画像に写る、前記所定の人物と同じ人物に反映させるようにして写りの調整が行われる。 In one aspect of the present technology, the person appearing in each captured image is identified using a model generated by machine learning, and the appearance of a first captured image selected as an adjustment target from among multiple captured images is adjusted according to an operation by a user. Furthermore, when an operation is performed to reflect the adjustment content of the first captured image to a second captured image in which the subject's composition is different from that of the first captured image, the appearance is adjusted so that the adjustment content for a specific person appearing in the first captured image is reflected in a person identical to the specific person appearing in the second captured image based on the subject's composition of the first captured image and the second captured image.

本技術によれば、撮影画像に写る被写体の写りの調整を効率的に行うことができる。 This technology makes it possible to efficiently adjust the appearance of a subject in a captured image.

撮影スタジオにおける作業の流れを示す図である。FIG. 1 is a diagram showing a workflow in a photography studio. 撮影画像の提供の例を示す図である。FIG. 13 is a diagram showing an example of providing a captured image. レタッチ用PCにおけるファイル管理の例を示す図である。FIG. 13 is a diagram showing an example of file management in a retouching PC. 画像選択画面の例を示す図である。FIG. 13 is a diagram showing an example of an image selection screen. レタッチ画面の例を示す図である。FIG. 13 is a diagram showing an example of a retouch screen. レタッチ選択領域の表示を拡大して示す図である。FIG. 13 is an enlarged view showing a display of a retouch selection area. 一括レタッチが選択された場合の表示例を示す図である。FIG. 13 is a diagram showing a display example when batch retouching is selected. レタッチ対象の撮影画像が切り替えられた場合の表示例を示す図である。13A and 13B are diagrams illustrating an example of a display when a photographed image to be retouched is switched レタッチパラメータの適用の例を示す図である。FIG. 13 is a diagram illustrating an example of application of retouching parameters. レタッチ用PCの構成例を示すブロック図である。FIG. 2 is a block diagram showing an example of the configuration of a retouching PC. レタッチ用PCの機能構成例を示すブロック図である。FIG. 2 is a block diagram showing an example of the functional configuration of a retouching PC. レタッチ処理について説明するフローチャートである。11 is a flowchart illustrating a retouching process. 画像処理部の構成例を示すブロック図である。2 is a block diagram showing an example of the configuration of an image processing unit; 肌領域の抽出の例を示す図である。FIG. 13 is a diagram illustrating an example of extraction of a skin region. レタッチパラメータの例を示す図である。FIG. 11 is a diagram illustrating an example of retouching parameters. 明るさの調整に用いられる領域の表示例を示す図である。13A and 13B are diagrams illustrating an example of a display of an area used for adjusting brightness. レタッチ内容の引き継ぎの例を示す図である。13A to 13C are diagrams illustrating an example of taking over retouching contents. レタッチ内容の引き継ぎの例を示す図17に続く図である。FIG. 18 is a diagram continuing from FIG. 17 showing an example of taking over of retouching contents. レタッチ内容の引き継ぎの第1の例を示す図である。FIG. 13 is a diagram showing a first example of taking over retouching contents. レタッチ内容の引き継ぎの第2の例を示す図である。FIG. 11 is a diagram showing a second example of the transfer of retouching contents. レタッチ内容の引き継ぎの第3の例を示す図である。FIG. 11 is a diagram showing a third example of the takeover of retouching contents. 画像処理部の他の構成例を示すブロック図である。FIG. 13 is a block diagram showing another example of the configuration of the image processing unit.

<<撮影スタジオでの作業の流れ>>
図1は、撮影スタジオにおける作業の流れを示す図である。
<<Work flow in the photography studio>>
FIG. 1 is a diagram showing the flow of work in a photography studio.

本技術は、例えばウェディングの記念撮影を行う撮影スタジオにおいて用いられる。本技術は、入学/卒業の記念写真、成人式の記念写真、七五三の記念写真などの、各種のイベントの記念写真の撮影を撮影スタジオにおいて行う場合にも適用可能である。 This technology is used, for example, in photography studios where commemorative photos are taken at weddings. This technology can also be applied to photography studios where commemorative photos are taken for various events, such as entrance/graduation photos, coming-of-age ceremonies, and Shichi-Go-San ceremonies.

図1の左側に示すように、撮影スタジオにおける撮影はカメラマンにより行われる。図1の例においては、背景スクリーンの前に立つ新郎と新婦を被写体として撮影が行われている。新郎はタキシード姿であり、新婦はウェディングドレス姿である。新郎と新婦の周りには、カメラマンによる撮影にあわせて発光するストロボ装置などの機材が配置される。 As shown on the left side of Figure 1, photography in a photography studio is performed by a photographer. In the example of Figure 1, the subjects of the photo are a bride and groom standing in front of a background screen. The groom is wearing a tuxedo, and the bride is wearing a wedding dress. Around the bride and groom, equipment such as strobe devices that emit light in time with the photographer's photography is placed.

カメラマンによる撮影は、構図を変えて、50枚、100枚などの多くの枚数の静止画像(写真)を撮影するようにして行われる。静止画像の構図は、新郎と新婦のポーズ、新郎、新婦とカメラマンとの位置関係、焦点距離などのカメラパラメータなどにより決定される。カメラマンにより撮影された静止画像である撮影画像は、カメラに接続された図示せぬPCに転送され、保存される。 The photographer takes pictures by changing the composition and taking many still images (photographs), such as 50 or 100. The composition of the still images is determined by the poses of the bride and groom, the relative positions of the bride and groom and the photographer, and camera parameters such as focal length. The still images taken by the photographer are transferred to and saved in a PC (not shown) connected to the camera.

撮影が終了した後、新郎と新婦は、撮影スタジオに用意されたレタッチスペースに移動し、図1の右側に示すように、レタッチ用PC1を利用して、カメラマンに撮影してもらった撮影画像を確認する。 After the photo shoot is completed, the bride and groom move to the retouching space prepared in the photography studio and use retouching PC 1 to check the images taken by the photographer, as shown on the right side of Figure 1.

また、新郎と新婦は、レタッチ用PC1のユーザとして、例えば最終的に印刷してもらう枚数分の撮影画像を選択し、自らレタッチすることによって、それぞれの撮影画像の写りを調整する。カメラマンにより撮影してもらった撮影画像の中から選択された、5枚、10枚などの一部の撮影画像を対象としてレタッチが行われる。レタッチ(加工)には、撮影画像の写りを調整するための各種の画像処理が含まれる。 The bride and groom, as users of the retouching PC 1, select the number of images they ultimately want printed, and adjust the appearance of each image by retouching them themselves. Retouching is performed on a portion of the images, such as five or ten images, selected from the images taken by the photographer. Retouching (processing) includes various types of image processing to adjust the appearance of the images.

レタッチスペースには、1台、または複数台のレタッチ用PC1が用意される。保存用のPCに保存された撮影画像がレタッチ用PC1に転送され、レタッチ用PC1のディスプレイ11に表示される。レタッチ用PC1には、カメラマンに撮影してもらった撮影画像をレタッチすることに用いられるアプリケーションであるレタッチアプリ1Aがインストールされている。 In the retouching space, one or more retouching PCs 1 are prepared. The captured images stored in the storage PC are transferred to the retouching PC 1 and displayed on the display 11 of the retouching PC 1. A retouching application 1A, which is an application used to retouch images taken by a photographer, is installed on the retouching PC 1.

このように、本技術を適用したレタッチ用PC1が設置された撮影スタジオにおいては、カメラマンに撮影してもらった撮影画像のレタッチがユーザ(新郎と新婦)自身により行われる。ユーザは、レタッチアプリ1Aの機能を利用して、自分の好みの写りとなるように撮影画像のレタッチを行うことができる。タブレット端末などの、PCとは異なる端末にレタッチアプリ1Aがインストールされ、レタッチに用いられるようにしてもよい。 In this way, in a photography studio where a retouching PC 1 to which the present technology is applied is installed, the users (the bride and groom) themselves retouch the images taken by the photographer. Using the functions of the retouching application 1A, the users can retouch the images to their liking. The retouching application 1A may be installed on a device other than a PC, such as a tablet device, and used for retouching.

図2は、撮影画像の提供の例を示す図である。 Figure 2 shows an example of providing captured images.

レタッチアプリ1Aによるレタッチ済みの撮影画像は、撮影スタジオの運営会社により印刷され、矢印#1に示すように、例えばアルバムなどの形で後日ユーザに渡される。 The photographed images retouched by retouching application 1A are printed by the photography studio's operating company and later given to the user in the form of, for example, an album, as shown by arrow #1.

また、レタッチ済みの撮影画像は、矢印#2に示すように、レタッチ用PC1から画像管理サーバ2にアップロードされ、画像管理サーバ2において管理される。画像管理サーバ2は、例えばインターネット上のサーバである。撮影スタジオの運営会社により、または、撮影スタジオの運営会社とは異なる事業者により画像管理サーバ2が管理される。 The retouched photographed images are uploaded from the retouching PC 1 to the image management server 2, as shown by arrow #2, and are managed by the image management server 2. The image management server 2 is, for example, a server on the Internet. The image management server 2 is managed by the management company of the photography studio, or by a business entity different from the management company of the photography studio.

ユーザは、スマートフォンなどの自分の携帯端末3を操作し、画像管理アプリ3Aを操作することによって、矢印#3に示すように、自分たちが被写体となって撮影してもらった撮影画像を閲覧したり、ダウンロードしたりすることができる。画像管理アプリ3Aは、画像管理サーバ2において管理されている撮影画像の閲覧等を行うためのアプリケーションである。画像管理アプリ3Aは、例えば、画像管理サーバ2を管理する事業者により提供される。 By operating their own mobile terminal 3 such as a smartphone and operating the image management app 3A, users can view and download images that have been taken of them as the subject, as shown by arrow #3. The image management app 3A is an application for viewing, etc., the captured images managed in the image management server 2. The image management app 3A is provided, for example, by the business entity that manages the image management server 2.

撮影スタジオにおいて撮影された撮影画像の提供は、アルバムの形で行われるとともに、適宜、データの形で行われることになる。データでの撮影画像の提供が、アルバムの料金とは別料金で可能となるようにしてもよい。 The images taken in the photography studio will be provided in the form of an album and, where appropriate, in the form of data. It may be possible to provide the images in the form of data for a fee separate from the fee for the album.

データでの撮影画像の提供は、ユーザによりレタッチが行われた撮影画像だけでなく、レタッチ対象としてユーザにより選択されなかった撮影画像も提供するようにして行われる。レタッチ対象としてユーザにより選択されなかった撮影画像については、後述するように、ユーザの操作によらずに、レタッチアプリ1Aによってレタッチが自動的に行われる。 The provision of photographed images in the form of data is carried out so that not only photographed images that have been retouched by the user, but also photographed images that have not been selected by the user as subjects for retouching are provided. Photographed images that have not been selected by the user as subjects for retouching are automatically retouched by the retouching application 1A without any user operation, as described below.

ユーザは、レタッチ対象として選択しなかった撮影画像についても、データの形で受け取ることが可能となる。画像管理アプリ3Aを用いるのではなく、ブラウザを利用して所定のサイトにアクセスし、画像管理サーバ2において管理されている撮影画像を受け取ることができるようにしてもよい。例えば、画像管理サーバ2の管理者が提供する画像提供サービスの会員登録を行うことにより、ユーザは、画像管理サーバ2において管理されている撮影画像を、画像管理アプリ3Aを利用して、または、ブラウザを利用して受け取ることが可能となる。 The user can receive in the form of data even captured images that were not selected for retouching. Instead of using the image management app 3A, the user can use a browser to access a specific site and receive captured images managed in the image management server 2. For example, by registering as a member of an image providing service provided by the administrator of the image management server 2, the user can receive captured images managed in the image management server 2 using the image management app 3A or a browser.

携帯端末3ではなく、タブレット端末やPCなどの他の端末を利用して撮影画像を受け取ることができるようにしてもよい。 Instead of the mobile terminal 3, it may be possible to receive captured images using other terminals such as a tablet terminal or a PC.

<<レタッチアプリについて>>
<ファイル管理>
図3は、レタッチ用PC1におけるファイル管理の例を示す図である。
<<About the retouching app>>
<File Management>
FIG. 3 is a diagram showing an example of file management in the retouching PC 1. As shown in FIG.

図3の吹き出しに示すように、ユーザの識別情報であるユーザIDと紐付けて、allフォルダとalbumフォルダの2つのフォルダが用意される。allフォルダは、「all」のフォルダ名が設定されたフォルダであり、albumフォルダは、「album」のフォルダ名が設定されたフォルダである。 As shown in the speech bubble in Figure 3, two folders, the all folder and the album folder, are prepared and linked to the user ID, which is the user's identification information. The all folder is a folder with the folder name "all," and the album folder is a folder with the folder name "album."

保存用のPCから転送されてきた撮影画像のファイルはallフォルダに格納される。レタッチ対象として選択され、レタッチが施された撮影画像のファイルがalbumフォルダに格納される。albumフォルダに格納されたファイルが、印刷に用いられるファイルとなる。 The captured image files transferred from the storage PC are stored in the all folder. The captured image files that were selected for retouching and have been retouched are stored in the album folder. The files stored in the album folder are the files used for printing.

撮影を終えたユーザがレタッチを始めるとき、レタッチアプリ1Aの画面上でユーザIDの入力が行われる。ユーザIDに基づいて、撮影画像がレタッチアプリ1Aにより読み込まれ、撮影画像を用いた処理が行われる。例えば、ユーザIDに紐付けられているallフォルダに格納された全ての撮影画像のファイルがレタッチアプリ1Aにより読み込まれる。撮影画像が読み込まれた後、レタッチ対象とする撮影画像の選択が行われる。 When a user who has finished taking a photograph starts retouching, the user ID is entered on the screen of retouching application 1A. Based on the user ID, the captured image is read by retouching application 1A and processing is performed using the captured image. For example, the files of all captured images stored in the all folder linked to the user ID are read by retouching application 1A. After the captured images are read, the captured images to be retouched are selected.

<画面表示>
・画像選択画面
図4は、画像選択画面の例を示す図である。
<Screen display>
Image Selection Screen FIG. 4 is a diagram showing an example of an image selection screen.

画像選択画面の上方には、5枚の撮影画像を選択することを案内するメッセージが表示される。撮影画像の選択枚数は、画像選択の前に、例えば、撮影スタジオのスタッフにより設定される。5枚の撮影画像を印刷してアルバムとして受け取るプランをユーザが申し込んでいる場合、選択枚数として5枚が設定される。 A message is displayed at the top of the image selection screen instructing the user to select five captured images. The number of selected captured images is set, for example, by a staff member at the photography studio before image selection. If the user has signed up for a plan to receive five captured images printed as an album, five is set as the number of selected images.

画像選択画面の右側にはサムネイル表示領域21が形成される。サムネイル表示領域21は、撮影画像のサムネイル画像が表示される領域である。例えば50枚の撮影画像の撮影が行われている場合、50枚の撮影画像のそれぞれのサムネイル画像が表示される。レタッチアプリ1Aの画面を用いた各種の操作は、マウス、キーボードなどを用いて行われる。 A thumbnail display area 21 is formed on the right side of the image selection screen. The thumbnail display area 21 is an area in which thumbnail images of the captured images are displayed. For example, if 50 captured images have been taken, thumbnail images of each of the 50 captured images are displayed. Various operations using the screen of the retouching application 1A are performed using a mouse, keyboard, etc.

サムネイル画像を用いて選択された撮影画像が、サムネイル表示領域21の左側に形成された表示領域22に拡大表示される。図4の例においては、サムネイル表示領域21の左上端に表示されている撮影画像P1のサムネイル画像が選択され、撮影画像P1が表示領域22に拡大表示されている。 A photographed image selected using a thumbnail image is enlarged and displayed in a display area 22 formed to the left of the thumbnail display area 21. In the example of FIG. 4, the thumbnail image of photographed image P1 displayed at the upper left corner of the thumbnail display area 21 is selected, and photographed image P1 is enlarged and displayed in the display area 22.

表示領域22の右下には決定ボタン23が表示される。決定ボタン23は、表示領域22に表示されている撮影画像をレタッチ対象として決定するときに押下されるボタンである。ユーザは、サムネイル画像を選択することによってそれぞれの撮影画像を表示領域22に順次拡大して表示させ、気に入った撮影画像があったとき、決定ボタン23を押下してレタッチ対象として選択することになる。 A confirmation button 23 is displayed at the bottom right of the display area 22. The confirmation button 23 is pressed when deciding on the photographed image displayed in the display area 22 as the one to be retouched. The user selects thumbnail images to sequentially enlarge and display each photographed image in the display area 22, and when the user finds a photographed image that the user likes, the user presses the confirmation button 23 to select it as the one to be retouched.

表示領域22の下には、ユーザにより選択された撮影画像のサムネイル画像が表示される選択画像表示領域24が形成される。 Below the display area 22, a selected image display area 24 is formed in which a thumbnail image of the captured image selected by the user is displayed.

5枚の撮影画像の選択が終了した場合、レタッチ対象とする撮影画像の選択は終了となる。レタッチ対象とする撮影画像の選択が終了した後、レタッチ対象として選択されたそれぞれの撮影画像に対するレタッチが行われる。 When the selection of five photographed images has been completed, the selection of photographed images to be retouched is completed. After the selection of photographed images to be retouched has been completed, retouching is performed on each photographed image selected as the subject of retouching.

・レタッチ画面
図5は、レタッチ画面の例を示す図である。
Retouch Screen FIG. 5 is a diagram showing an example of a retouch screen.

レタッチ画面の中央上方には表示領域31が形成される。表示領域31は、いまレタッチ対象となっている撮影画像が拡大表示される領域である。表示領域31の左側に形成されたサムネイル領域32には、ユーザにより選択された撮影画像のサムネイル画像が表示される。図5の例においては、撮影画像P1乃至P5の5枚の撮影画像のサムネイル画像が表示されている。サムネイル画像を用いて選択された撮影画像P1が、表示領域31に拡大表示される。 A display area 31 is formed at the upper center of the retouch screen. The display area 31 is an area in which the photographed image currently being retouched is displayed in an enlarged manner. A thumbnail area 32 formed on the left side of the display area 31 displays a thumbnail image of the photographed image selected by the user. In the example of FIG. 5, thumbnail images of five photographed images P1 to P5 are displayed. The photographed image P1, which is selected using the thumbnail image, is displayed in an enlarged manner in the display area 31.

レタッチ画面の下には横長のレタッチ選択領域33が形成される。レタッチ選択領域33に表示されたボタンを用いて、レタッチの内容が選択される。レタッチ選択領域33に表示されたボタンを用いてレタッチの内容が選択される毎に、選択された内容が表示領域31の表示に反映される。ユーザは、表示領域31の表示を見ながら、いまレタッチ対象となっている撮影画像に施すレタッチの内容をレタッチ選択領域33の表示を用いて選択することになる。 A horizontally long retouching selection area 33 is formed below the retouching screen. The buttons displayed in the retouching selection area 33 are used to select the retouching content. Each time a retouching content is selected using a button displayed in the retouching selection area 33, the selected content is reflected in the display in the display area 31. While viewing the display in the display area 31, the user can use the display in the retouching selection area 33 to select the retouching content to be applied to the captured image currently being retouched.

図6は、レタッチ選択領域33の表示を拡大して示す図である。 Figure 6 shows an enlarged view of the retouch selection area 33.

レタッチ選択領域33は、顔・体全体の調整に用いられる情報の表示領域である領域33-1、目元・メイクの調整に用いられる情報の表示領域である領域33-2、および、明るさの調整に用いられる情報の表示領域である領域33-3から形成される。 The retouching selection area 33 is made up of area 33-1, which is a display area for information used to adjust the entire face and body, area 33-2, which is a display area for information used to adjust the eyes and makeup, and area 33-3, which is a display area for information used to adjust brightness.

レタッチ選択領域33の左側に形成された領域33-1には、小顔感の調整に用いられる調整ボタン51、顔のかたちの調整に用いられる調整ボタン52、肌質の調整に用いられる調整ボタン53、あご短くの調整に用いられる調整ボタン54、スタイルアップの調整に用いられる調整ボタン55が表示される。 In area 33-1 formed to the left of retouch selection area 33, adjustment button 51 used to adjust the appearance of a smaller face, adjustment button 52 used to adjust the shape of the face, adjustment button 53 used to adjust the skin texture, adjustment button 54 used to adjust the shorter chin, and adjustment button 55 used to adjust the style.

小顔感として、5段階の大きさを選択することが可能とされる。小顔感の「0」は、顔の大きさを変えないで、オリジナルの大きさのままとすることを表す。ユーザは、「1」乃至「4」のいずれかの大きさを選択することにより、表示領域31に表示されている撮影画像に写る自分の顔の大きさを調整することができる。 Five different sizes can be selected to achieve a smaller face. A smaller face size of "0" indicates that the size of the face is not changed and remains at its original size. By selecting one of the sizes "1" to "4," the user can adjust the size of their face in the captured image displayed in the display area 31.

顔のかたちとして、「まる」、「たまご」、「ほっそり」の中からいずれかの形を選択することが可能とされる。ユーザはいずれかの形を選択することにより、表示領域31に表示されている撮影画像に写る自分の顔の形を調整することができる。「レタッチなし」を選択することにより、顔の形を変えないことも可能とされる。 The user can select one of three face shapes: "round," "egg," or "slim." By selecting one of these shapes, the user can adjust the shape of their face that appears in the captured image displayed in the display area 31. By selecting "no retouching," it is also possible to leave the shape of the face unchanged.

肌質として、5段階のレベルを選択することが可能とされる。肌質の「0」は、肌質を変えないで、オリジナルの肌質のままとすることを表す。ユーザは、いずれかのレベルを選択することにより、表示領域31に表示されている撮影画像に写る自分の肌質の滑らかさの程度を調整することができる。 It is possible to select from five levels of skin texture. Skin texture "0" indicates that the skin texture is not changed and remains the original skin texture. By selecting one of the levels, the user can adjust the degree of smoothness of their skin texture as it appears in the captured image displayed in the display area 31.

あご短くとして、3段階のレベルを選択することが可能とされる。あご短くの「0」は加工なし、すなわちあごを変えないで、オリジナルのあごのままとすることを表す。ユーザは、いずれかのレベルを選択することにより、表示領域31に表示されている撮影画像に写る自分のあごの長さを調整することができる。 Three levels of chin shortening can be selected. Chin shortening "0" indicates no processing, i.e. the chin is left unchanged and the original chin is kept as is. By selecting one of the levels, the user can adjust the length of their chin that appears in the captured image displayed in the display area 31.

スタイルアップとして、3段階のレベルを選択することが可能とされる。スタイルアップの「0」は加工なし、すなわちスタイルを変えないで、オリジナルのスタイルのままとすることを表す。ユーザは、いずれかのレベルを選択することにより、表示領域31に表示されている撮影画像に写る自分のスタイルを調整することができる。 It is possible to select from three levels of style improvement. Style improvement "0" indicates no processing, i.e. the style is left unchanged and remains the original style. By selecting one of the levels, the user can adjust their own style as it appears in the captured image displayed in the display area 31.

レタッチ選択領域33の中央に形成された領域33-2には、目の大きさの調整に用いられる調整ボタン56、目のかたちの調整に用いられる調整ボタン57、メイクの濃さの調整に用いられる調整ボタン58、鼻筋の調整に用いられる調整ボタン59、ひげ消しの調整に用いられる調整ボタン60が表示される。 In area 33-2 formed in the center of retouch selection area 33, adjustment button 56 used to adjust eye size, adjustment button 57 used to adjust eye shape, adjustment button 58 used to adjust makeup intensity, adjustment button 59 used to adjust nose bridge, and adjustment button 60 used to adjust facial hair removal are displayed.

目の大きさとして、5段階の大きさを選択することが可能とされる。目の大きさの「0」は加工なし、すなわち目の大きさを変えないで、オリジナルの大きさのままとすることを表す。ユーザは、いずれかの大きさを選択することにより、表示領域31に表示されている撮影画像に写る自分の目の大きさを調整することができる。 It is possible to select from five different eye sizes. Eye size "0" indicates no processing, i.e. the eye size is left unchanged at its original size. By selecting one of the sizes, the user can adjust the size of their own eyes as they appear in the captured image displayed in the display area 31.

目のかたちとして、「まる目」、「たれ目」、「ねこ目」の中からいずれかの形を選択することが可能とされる。ユーザは、いずれかの形を選択することにより、表示領域31に表示されている撮影画像に写る自分の目の形を調整することができる。「加工なし」を選択することにより、目の形を変えないことも可能とされる。 The user can select one of the following eye shapes: "round eyes," "downturned eyes," or "cat eyes." By selecting one of these shapes, the user can adjust the shape of their own eyes that appear in the captured image displayed in the display area 31. By selecting "no processing," it is also possible to leave the shape of the eyes unchanged.

メイクの濃さとして、5段階の濃さを選択することが可能とされる。メイクの濃さの「0」は、メイクの濃さを変えないで、オリジナルの濃さのままとすることを表す。ユーザは、いずれかの濃さを選択することにより、表示領域31に表示されている撮影画像に写る自分のメイクの濃さを調整することができる。 The intensity of makeup can be selected from five levels. The level of makeup "0" indicates that the intensity of makeup is not changed and remains the original intensity. By selecting one of the levels, the user can adjust the intensity of their makeup that appears in the captured image displayed in the display area 31.

鼻筋として、オン/オフを選択することが可能とされる。ユーザは、オンまたはオフを選択することにより、表示領域31に表示されている撮影画像に写る自分の鼻筋のハイライト部分を強調するか、オリジナルの状態のままとするかを選択することができる。 It is possible to select ON/OFF for the nose bridge. By selecting ON or OFF, the user can choose whether to emphasize the highlights of the bridge of their nose that appear in the captured image displayed in the display area 31, or to leave it in its original state.

ひげ消しとして、3段階のレベルを選択することが可能とされる。ひげ消しの「0」は、ひげを変えないで、オリジナルのひげのままとすることを表す。ユーザは、いずれかのレベルを選択することにより、表示領域31に表示されている撮影画像に写る自分のひげを調整することができる。ひげ消しの機能は、レタッチ対象の人物が新郎である場合に有効となる。 Three levels of beard erasure can be selected. Beard erasure level "0" indicates that the beard is not changed and remains the original beard. By selecting one of the levels, the user can adjust the beard of the user that appears in the photographed image displayed in the display area 31. The beard erasure function is enabled when the person to be retouched is the groom.

レタッチ選択領域33の右側に形成された領域33-3には、肌のみの明るさの調整に用いられる調整ボタン61、全体の明るさの調整に用いられる調整ボタン62、背景のみの明るさの調整に用いられる調整ボタン63が表示される。 In area 33-3 formed to the right of retouch selection area 33, adjustment button 61 used to adjust the brightness of only the skin, adjustment button 62 used to adjust the overall brightness, and adjustment button 63 used to adjust the brightness of only the background are displayed.

肌の明るさの調整として、3段階の明るさを選択することが可能とされる。肌の明るさの「0」は、肌の明るさを変えないで、オリジナルの明るさのままとすることを表す。ユーザは、いずれかの明るさを選択することにより、表示領域31に表示されている撮影画像に写る自分の肌の明るさを調整することができる。肌の明るさの調整機能の詳細については後述する。 Three levels of brightness can be selected for adjusting the skin brightness. Skin brightness of "0" indicates that the skin brightness is not changed and remains at the original brightness. By selecting one of the brightness levels, the user can adjust the brightness of their own skin that appears in the captured image displayed in the display area 31. Details of the skin brightness adjustment function will be described later.

全体の明るさの調整として、3段階の明るさを選択することが可能とされる。全体の明るさの「0」は、全体の明るさを変えないで、オリジナルの明るさのままとすることを表す。ユーザは、いずれかの明るさを選択することにより、表示領域31に表示されている撮影画像に写る全体の明るさを調整することができる。 Three levels of brightness can be selected to adjust the overall brightness. An overall brightness of "0" indicates that the overall brightness is not changed and remains at the original brightness. By selecting one of the brightness levels, the user can adjust the overall brightness of the captured image displayed in the display area 31.

背景の明るさの調整として、3段階の明るさを選択することが可能とされる。背景の明るさの「0」は、背景の明るさを変えないで、オリジナルの明るさのままとすることを表す。ユーザは、いずれかの明るさを選択することにより、表示領域31に表示されている撮影画像に写る背景の明るさを調整することができる。 Three levels of brightness can be selected to adjust the background brightness. A background brightness of "0" indicates that the brightness of the background is not changed and remains at the original brightness. By selecting one of the brightness levels, the user can adjust the brightness of the background that appears in the captured image displayed in the display area 31.

図5の説明に戻り、表示領域31の左側には一括レタッチに用いられる一括レタッチボタン34が表示される。一括レタッチは、上述したような各種のレタッチ内容の組み合わせを一括して選択する機能である。 Returning to the explanation of FIG. 5, a batch retouch button 34 used for batch retouching is displayed on the left side of the display area 31. Batch retouching is a function for selecting a combination of various retouching contents as described above all at once.

図5の例においては、レタッチ内容のレベルの組み合わせが異なる3種類のレベルの一括レタッチの中からいずれかのレベルを選択することができるようになっている。ユーザは、一括レタッチの機能を利用することにより、それぞれのレタッチ内容をレタッチ選択領域33の表示を用いて選択することなく、一度の操作で選択することができる。 In the example of FIG. 5, a user can select one of three levels of batch retouching, each of which has a different combination of retouching content levels. By using the batch retouching function, the user can select the retouching content with a single operation, without having to select each retouching content using the display in the retouching selection area 33.

図7は、一括レタッチが選択された場合の表示例を示す図である。 Figure 7 shows an example of the display when batch retouching is selected.

一括レタッチボタン34が操作された場合、角丸長方形のポップアップ画像71がレタッチ画面に重ねて表示される。レタッチ画面の略中央に表示されるポップアップ画像71には、一括レタッチの対象とする画像の範囲の選択に用いられる円形のボタンがメッセージとともに表示される。 When the batch retouch button 34 is operated, a rounded rectangular pop-up image 71 is displayed superimposed on the retouch screen. The pop-up image 71, which is displayed approximately in the center of the retouch screen, displays a circular button used to select the range of images to be subjected to batch retouching together with a message.

ユーザは、ポップアップ画像71に表示されているボタンを操作することにより、一括レタッチの内容を、いまレタッチ対象になっている1枚の画像のみに反映させるのか、いまレタッチ対象になっている1枚の画像を含む全て(5枚)の画像に反映させるのかを選択することができる。 By operating the button displayed in the pop-up image 71, the user can select whether the batch retouching contents should be applied to only the one image currently being retouched, or to all (five) images including the one image currently being retouched.

図5の説明に戻り、表示領域31の右側には加工前ボタン35が設けられる。加工前ボタン35は、表示領域31の表示を、レタッチ前の状態に切り替えるときに操作されるボタンである。加工前ボタン35が押下されている間、レタッチ前の状態の撮影画像が表示領域31に表示される。ユーザは、加工前ボタン35を用いることにより、レタッチ後の状態とレタッチ前の状態とを見比べ、レタッチの程度が強すぎないかどうかなどを確認することができる。 Returning to the explanation of FIG. 5, a Before-processing button 35 is provided on the right side of the display area 31. The Before-processing button 35 is a button that is operated when switching the display of the display area 31 to the state before retouching. While the Before-processing button 35 is pressed, the captured image in its pre-retouched state is displayed in the display area 31. By using the Before-processing button 35, the user can compare the post-retouched state with the pre-retouched state to check whether the degree of retouching is too strong, for example.

加工前ボタン35の下には、レタッチ対象とする人物の選択に用いられる人物選択ボタン36が設けられる。ユーザは、人物選択ボタン36を用いることにより、撮影画像の左側に写る人物のみ、右側に写る人物のみ、2人とも、のいずれかを選択してレタッチを施すことができる。撮影画像に対して顔認識などが行われ、レタッチの画像処理の対象となる人物がユーザの操作に応じて選択される。 Below the Before button 35 is a Person Selection button 36 used to select a person to be retouched. By using the Person Selection button 36, the user can select to retouch only the person appearing on the left side of the captured image, only the person appearing on the right side, or both people. Face recognition and other processes are performed on the captured image, and the person to be the subject of image processing for retouching is selected in response to the user's operation.

ユーザは、このような各種の機能を用いて、表示領域31に表示させている撮影画像に施すレタッチの内容を選択することができる。このように、レタッチアプリ1Aを用いて行うことができるレタッチには、顔・体全体の調整、目元・メイクの調整、明るさの調整が少なくとも含まれる。 Using these various functions, the user can select the retouching content to be applied to the captured image displayed in the display area 31. In this way, retouching that can be performed using the retouching application 1A includes at least adjustments to the face and body as a whole, adjustments to the eyes and makeup, and adjustments to brightness.

レタッチ対象とする撮影画像がサムネイル領域32の表示を用いて切り替えられ、撮影画像P1乃至P5のそれぞれのレタッチが順次行われる。レタッチが施された撮影画像P1乃至P5のそれぞれのファイルがalbumフォルダに格納される。 The photographed image to be retouched is switched using the display in the thumbnail area 32, and retouching is performed on each of the photographed images P1 to P5 in sequence. The retouched files of the photographed images P1 to P5 are stored in the album folder.

図8は、レタッチ対象とする撮影画像が切り替えられた場合の表示例を示す図である。 Figure 8 shows an example of the display when the captured image to be retouched is switched.

レタッチ対象とする撮影画像が切り替えられた場合、吹き出し形状のポップアップ画像72がレタッチ画面に重ねて表示される。ポップアップ画像72は、レタッチ画面の略中央上方に形成された表示領域31を吹き出し元とするとするように、レタッチ画面の中央より若干下方の位置に表示される。ポップアップ画像72には、1つ前の写真(撮影画像)で設定したレタッチ内容を、切り替え後の撮影画像にも反映させるか否かの選択に用いられる横長長方形のボタンがメッセージとともに表示される。 When the photographed image to be retouched is switched, a pop-up image 72 in the shape of a speech bubble is displayed superimposed on the retouching screen. The pop-up image 72 is displayed at a position slightly below the center of the retouching screen, so that the speech bubble originates from the display area 31 formed approximately above the center of the retouching screen. The pop-up image 72 displays a horizontally long rectangular button together with a message, which is used to select whether or not the retouching contents set on the previous photo (photographed image) should be reflected in the switched photographed image.

すなわち、レタッチ対象とする撮影画像が切り替えられ場合、一括レタッチボタン34が操作されたときに表示されるポップアップ画像71と異なる形状の画像がポップアップ画像72として表示される。 In other words, when the captured image to be retouched is switched, an image with a different shape from the pop-up image 71 that is displayed when the batch retouch button 34 is operated is displayed as the pop-up image 72.

ユーザは、ポップアップ画像72の表示を用いることにより、切り替え前の撮影画像に対して選択したレタッチ内容を、切り替え後の撮影画像に引き継ぐことができる。レタッチ内容の引き継ぎ機能の詳細については後述する。 By displaying the pop-up image 72, the user can carry over the retouching content selected for the previous captured image to the new captured image. The retouching content carryover function will be described in detail later.

図9は、レタッチパラメータの適用の例を示す図である。 Figure 9 shows an example of applying retouching parameters.

図9に示すように、ユーザによる操作によって撮影画像P1乃至P5のそれぞれに施されたレタッチの内容が、allフォルダに格納されたそれぞれの未選択画像に反映される。未選択画像は、画像選択画面においてレタッチ対象として選択されなかった撮影画像である。画像選択画面においてレタッチ対象として選択された撮影画像は、選択画像となる。 As shown in FIG. 9, the retouching content applied to each of the captured images P1 to P5 by user operations is reflected in each unselected image stored in the all folder. Unselected images are captured images that were not selected as targets for retouching on the image selection screen. Captured images selected as targets for retouching on the image selection screen become selected images.

レタッチ済みの撮影画像P1乃至P5のうちのどの撮影画像のレタッチの内容をそれぞれの未選択画像に対して反映させるかが、例えば、選択画像に写る顔の状態と、未選択画像に写る顔の状態とに基づいて選択される。この場合、それぞれの撮影画像が解析され、それぞれの撮影画像に写る顔の状態が認識される。それぞれの未選択画像に写る顔の状態に近い状態で顔が写っている選択画像が選択され、選択された選択画像に対して施されたレタッチの内容が未選択画像に反映される。 Which of the retouched images P1 to P5 should have its retouching applied to each unselected image is selected based on, for example, the state of the face in the selected image and the state of the face in the unselected image. In this case, each captured image is analyzed, and the state of the face in each captured image is recognized. A selected image in which a face appears in a state similar to the state of the face in each unselected image is selected, and the retouching applied to the selected selected image is reflected in the unselected image.

<<レタッチ用PC1の構成と動作>>
<レタッチ用PC1の構成>
図10は、レタッチ用PC1の構成例を示すブロック図である。
<<Configuration and operation of retouching PC 1>>
<Configuration of retouching PC 1>
FIG. 10 is a block diagram showing an example of the configuration of the retouching PC 1. As shown in FIG.

CPU(Central Processing Unit)101、ROM(Read Only Memory)102、RAM(Random Access Memory)103は、バス104により相互に接続される。 CPU (Central Processing Unit) 101, ROM (Read Only Memory) 102, and RAM (Random Access Memory) 103 are interconnected by bus 104.

バス104には、さらに、入出力インタフェース105が接続される。入出力インタフェース105には、入力部106、出力部107、記憶部108、通信部109、およびドライブ110が接続される。 An input/output interface 105 is further connected to the bus 104. An input unit 106, an output unit 107, a memory unit 108, a communication unit 109, and a drive 110 are connected to the input/output interface 105.

入力部106は、キーボード、マウスなどにより構成される。 The input unit 106 is composed of a keyboard, mouse, etc.

出力部107は、ディスプレイ11などにより構成される。 The output unit 107 is composed of a display 11, etc.

記憶部108は、ハードディスクや不揮発性のメモリなどにより構成される。記憶部108は、CPU101が実行するレタッチアプリ1Aなどのプログラム、撮影画像などの各種の情報を記憶する。 The storage unit 108 is composed of a hard disk, a non-volatile memory, etc. The storage unit 108 stores various information such as programs executed by the CPU 101, such as the retouching application 1A, and captured images.

通信部109は、インターネット、LANなどのネットワークに対するインタフェースである。例えば、通信部109は、撮影スタジオのカメラに接続された保存用のPCと通信を行い、保存用のPCから送信されてきた、レタッチを始めようとするユーザが被写体として写る撮影画像を受信する。また、通信部109は、画像管理サーバ2との間で通信を行い、レタッチ済みの撮影画像を画像管理サーバ2に送信する。 The communication unit 109 is an interface to a network such as the Internet or a LAN. For example, the communication unit 109 communicates with a storage PC connected to a camera in a photography studio, and receives a photographed image sent from the storage PC, in which the user about to begin retouching appears as a subject. The communication unit 109 also communicates with the image management server 2, and sends the retouched photographed image to the image management server 2.

ドライブ110は、リムーバブルメディア111に対するデータの書き込み、リムーバブルメディア111からのデータの読み出しを制御する。保存用のPCからの撮影画像の取り込みがリムーバブルメディア111を介して行われるようにしてもよい。 The drive 110 controls writing of data to the removable medium 111 and reading of data from the removable medium 111. Import of captured images from a PC for storage may be performed via the removable medium 111.

図11は、レタッチ用PC1の機能構成例を示すブロック図である。 Figure 11 is a block diagram showing an example of the functional configuration of retouching PC 1.

図11に示すように、レタッチ用PC1においては、レタッチアプリ1Aが実行されることにより画像処理部121が実現される。画像処理部121は、画像取得部131、レタッチ処理部132、出力制御部133、および表示制御部134により構成される。 As shown in FIG. 11, in the retouching PC 1, the retouching application 1A is executed to realize an image processing unit 121. The image processing unit 121 is composed of an image acquisition unit 131, a retouching processing unit 132, an output control unit 133, and a display control unit 134.

画像取得部131は、画像選択画面に対するユーザの操作を受け付け、レタッチ対象としてユーザにより選択された撮影画像を例えば記憶部108から取得する。画像取得部131により取得されたレタッチ対象の撮影画像は、レタッチ処理部132と表示制御部134に供給される。 The image acquisition unit 131 accepts a user's operation on the image selection screen, and acquires the captured image selected by the user as the target for retouching from, for example, the storage unit 108. The captured image to be retouched acquired by the image acquisition unit 131 is supplied to the retouching processing unit 132 and the display control unit 134.

また、画像取得部131は、レタッチ対象のそれぞれの撮影画像に対するレタッチが終了した場合、未選択画像を例えば記憶部108から取得し、レタッチ処理部132に出力する。 In addition, when retouching of each captured image to be retouched is completed, the image acquisition unit 131 acquires an unselected image, for example, from the memory unit 108, and outputs it to the retouching processing unit 132.

レタッチ処理部132は、顔認識を行い、レタッチ対象の撮影画像に写る顔を認識する。レタッチ処理部132は、認識した顔の各部の特徴を解析し、レタッチ画面に対するユーザの操作に応じて、レタッチに関する各種の画像処理を行う。各部の特徴の解析が機械学習によって生成された推論モデルを用いて行われるようにしてもよい。 The retouching processing unit 132 performs face recognition to recognize the face appearing in the captured image to be retouched. The retouching processing unit 132 analyzes the features of each part of the recognized face and performs various image processing related to retouching in response to the user's operation on the retouching screen. The analysis of the features of each part may be performed using an inference model generated by machine learning.

例えば、レタッチ処理部132は、目の大きさや目の形の調整に関する操作が行われた場合、目の輪廓の位置をユーザによる選択内容に応じてずらすなどの画像処理を行う。また、レタッチ処理部132は、メイクの濃さの調整に関する操作が行われた場合、頬の部分に所定の色のチークの画像を合成したり、唇の部分に所定の色の口紅の画像を合成したりする画像処理を行う。 For example, when an operation is performed to adjust the size or shape of the eyes, the retouching processor 132 performs image processing such as shifting the position of the eye outline in accordance with the user's selection. When an operation is performed to adjust the intensity of makeup, the retouching processor 132 performs image processing such as compositing an image of a blush of a specified color onto the cheeks, or compositing an image of a lipstick of a specified color onto the lips.

レタッチ処理部132は、肌質の調整に関する操作が行われた場合、肌の明るさを調整するなどの画像処理を行う。レタッチ処理部132は、顔の大きさ(小顔感)や顔の形の調整に関する操作が行われた場合、顔の輪廓の位置をユーザによる選択内容に応じてずらすなどの画像処理を行う。 When an operation related to adjusting the skin texture is performed, the retouching processing unit 132 performs image processing such as adjusting the brightness of the skin. When an operation related to adjusting the face size (feeling of a small face) or face shape is performed, the retouching processing unit 132 performs image processing such as shifting the position of the face outline according to the content selected by the user.

レタッチ処理部132による画像処理の結果を表す情報は、表示制御部134に供給され、レタッチ画面の表示に用いられる。 Information representing the results of image processing by the retouching processing unit 132 is supplied to the display control unit 134 and used to display the retouched screen.

また、レタッチ処理部132は、レタッチ対象のそれぞれの撮影画像に対するレタッチが終了した場合、未選択画像を含むそれぞれの撮影画像を解析し、レタッチ済みの撮影画像に施したレタッチの内容を未選択画像に反映させる。レタッチ処理部132によりレタッチが施された撮影画像は出力制御部133に供給される。 When retouching of each photographed image to be retouched is completed, the retouching processing unit 132 analyzes each photographed image including the unselected image, and reflects the retouching content applied to the retouched photographed image to the unselected image. The photographed images retouched by the retouching processing unit 132 are supplied to the output control unit 133.

出力制御部133は、ユーザによる操作に応じてレタッチが施された撮影画像をalbumフォルダに保存する。 The output control unit 133 saves the captured image that has been retouched in response to user operations in the album folder.

また、出力制御部133は、レタッチ済みの撮影画像(選択画像と未選択画像)を通信部109に出力し、画像管理サーバ2に送信させる。 The output control unit 133 also outputs the retouched captured images (selected images and unselected images) to the communication unit 109 and transmits them to the image management server 2.

表示制御部134は、画像選択画面、レタッチ画面などの、レタッチアプリ1Aの各種の画面の表示を制御する。 The display control unit 134 controls the display of various screens of the retouching application 1A, such as the image selection screen and the retouching screen.

<レタッチ用PC1の動作>
図12のフローチャートを参照して、レタッチアプリ1Aが行うレタッチ処理について説明する。
<Operation of retouching PC 1>
The retouching process performed by the retouching application 1A will be described with reference to the flowchart of FIG.

ステップS1において、画像処理部121の表示制御部134は、画像選択画面(図4)を表示する。 In step S1, the display control unit 134 of the image processing unit 121 displays the image selection screen (Figure 4).

ステップS2において、画像取得部131は、画像選択画面に対するユーザの操作に応じて、レタッチ対象とする撮影画像の選択を受け付ける。画像取得部131は、レタッチ対象とする撮影画像を取得する。 In step S2, the image acquisition unit 131 accepts the selection of the captured image to be retouched in response to a user's operation on the image selection screen. The image acquisition unit 131 acquires the captured image to be retouched.

ステップS3において、画像取得部131は、レタッチ対象とする撮影画像の選択が終了か否かを判定する。レタッチ対象とする撮影画像の選択が終了してないとステップS3において判定された場合、ステップS1に戻り、画像の選択が続けられる。 In step S3, the image acquisition unit 131 determines whether or not the selection of the captured images to be retouched has been completed. If it is determined in step S3 that the selection of the captured images to be retouched has not been completed, the process returns to step S1, and image selection continues.

例えば5枚の撮影画像が選択された場合、レタッチ対象とする撮影画像の選択を終了するとしてステップS3において判定される。 For example, if five captured images have been selected, it is determined in step S3 that the selection of captured images to be retouched has ended.

ステップS4において、表示制御部134は、レタッチ画面(図5)を表示する。ユーザは、レタッチ画面を用いて撮影画像のレタッチを行う。 In step S4, the display control unit 134 displays a retouch screen (FIG. 5). The user uses the retouch screen to retouch the captured image.

ステップS5において、レタッチ処理部132は、ユーザの操作に応じて画像処理を行い、レタッチ対象として選択された撮影画像にレタッチを施す。 In step S5, the retouching processing unit 132 performs image processing in response to the user's operation, and retouches the captured image selected as the target for retouching.

ステップS6において、レタッチ処理部132は、レタッチが終了か否かを判定する。レタッチが終了ではないとステップS6において判定された場合、ステップS4に戻り、レタッチ対象として選択されたそれぞれの撮影画像に対するレタッチが続けられる。 In step S6, the retouching processing unit 132 determines whether or not retouching is complete. If it is determined in step S6 that retouching is not complete, the process returns to step S4, and retouching continues for each captured image selected as the target for retouching.

例えばレタッチ対象として選択された全ての撮影画像のレタッチが行われた場合、レタッチを終了するとしてステップS6において判定される。 For example, when all the captured images selected for retouching have been retouched, it is determined in step S6 that retouching is to end.

ステップS7において、レタッチ処理部132は、選択画像に施されたレタッチの内容と同じ内容のレタッチを、それぞれの未選択画像に反映させる。 In step S7, the retouching processing unit 132 applies the same retouching content applied to the selected image to each of the unselected images.

ステップS8において、出力制御部133は、レタッチが施された未選択画像を保存する。 In step S8, the output control unit 133 saves the retouched unselected image.

ステップS9において、通信部109は、レタッチが施された選択画像と未選択画像を画像管理サーバ2に送信する。その後、レタッチアプリ1Aの処理は終了となる。 In step S9, the communication unit 109 transmits the retouched selected images and the unselected images to the image management server 2. After that, the processing of the retouching application 1A ends.

以上の処理により、ユーザは、自分が被写体となって撮影してもらった撮影画像の写りを自分で調整することができる。ユーザは、自分の好みの写りになっている撮影画像のアルバムを受け取ることができる。 By performing the above process, the user can adjust the appearance of the images taken of themselves as the subject. The user can receive an album of the images that have been taken to their liking.

また、ユーザは、携帯端末3を利用することにより、画像管理サーバ2において管理されている、写りを手動で調整した撮影画像と、手動で調整した内容と同じ内容のレタッチが自動的に施された撮影画像(未選択画像)をデータの形で受け取ることができる。 In addition, by using the mobile terminal 3, the user can receive, in the form of data, photographed images that have been manually adjusted and photographed images (unselected images) that have been automatically retouched in the same manner as the manual adjustments, which are managed by the image management server 2.

<<肌の明るさの調整機能>>
図5を参照して説明したように、レタッチ対象になっている撮影画像の明るさを調整することが可能とされる。ここで、領域33-3の調整ボタン61を用いて行われる、肌のみの明るさの調整機能について説明する。
<<Skin brightness adjustment function>>
5, it is possible to adjust the brightness of the photographed image to be retouched. Here, a function for adjusting the brightness of only the skin, which is performed using the adjustment button 61 in the area 33-3, will be described.

<画像処理部121の構成>
図13は、肌のみの明るさの調整機能を実現する画像処理部121の構成例を示すブロック図である。図13には、画像処理部121の一部の構成のみを示している。
<Configuration of image processing unit 121>
13 is a block diagram showing an example of the configuration of the image processing unit 121 that realizes the function of adjusting the brightness of only the skin. In FIG. 13, only a part of the configuration of the image processing unit 121 is shown.

画像処理部121には、上述した構成の他に性別判定部135が設けられる。レタッチ処理部132においては、顔認識部151、肌領域抽出部152、および明るさ調整部153が実現される。レタッチ対象の撮影画像は、性別判定部135に入力されるとともに、レタッチ処理部132の各部に入力される。 In addition to the components described above, the image processing unit 121 is provided with a gender determination unit 135. In the retouching processing unit 132, a face recognition unit 151, a skin region extraction unit 152, and a brightness adjustment unit 153 are realized. The captured image to be retouched is input to the gender determination unit 135 and also input to each unit of the retouching processing unit 132.

性別判定部135は、撮影画像に写る人物の性別を判定する。性別判定部135による判定は、例えば、撮影画像を入力とし、撮影画像に写るそれぞれの人物の性別を出力とする推論モデルを用いて行われる。この場合、性別判定部135には、機械学習によって生成された、性別判定用の推論モデルがあらかじめ用意される。性別の判定が、レタッチ対象の撮影画像を解析して求められた人物の特徴に基づいて行われるようにしてもよい。 The gender determination unit 135 determines the gender of people appearing in the captured image. The determination by the gender determination unit 135 is performed, for example, using an inference model that inputs the captured image and outputs the gender of each person appearing in the captured image. In this case, an inference model for gender determination generated by machine learning is prepared in advance in the gender determination unit 135. Gender determination may be performed based on the characteristics of a person obtained by analyzing the captured image to be retouched.

性別判定部135による判定結果は、レタッチ処理部132の明るさ調整部153に供給される。例えば、レタッチ対象の撮影画像に新婦だけが写っている場合、撮影画像に写っている人物が女性であることを表す情報が判定結果として供給される。また、レタッチ対象の撮影画像に新郎だけが写っている場合、撮影画像に写っている人物が男性であることを表す情報が判定結果として供給される。レタッチ対象の撮影画像に新婦と新郎が写っている場合、撮影画像に写っているそれぞれの人物が女性と男性であることを表す情報が判定結果として供給される。 The determination result by the gender determination unit 135 is supplied to the brightness adjustment unit 153 of the retouching processing unit 132. For example, if the photographed image to be retouched contains only the bride, information indicating that the person in the photographed image is a woman is supplied as the determination result. Also, if the photographed image to be retouched contains only the groom, information indicating that the person in the photographed image is a man is supplied as the determination result. If the photographed image to be retouched contains both the bride and groom, information indicating that the people in the photographed image are a woman and a man, respectively, is supplied as the determination result.

レタッチ処理部132の顔認識部151は、撮影画像に写る人物の顔を認識し、顔領域を抽出する。顔認識部151による顔領域の抽出が、機械学習によって生成された推論モデルを用いて行われるようにしてもよいし、撮影画像を解析して求められた各部位の輪郭点などの特徴に基づいて行われるようにしてもよい。顔認識部151により抽出された顔領域の情報は、肌領域抽出部152と明るさ調整部153に供給される。 The face recognition unit 151 of the retouching processing unit 132 recognizes the face of a person appearing in a captured image and extracts a face region. The extraction of the face region by the face recognition unit 151 may be performed using an inference model generated by machine learning, or may be performed based on features such as the contour points of each part of the body determined by analyzing the captured image. Information on the face region extracted by the face recognition unit 151 is supplied to the skin region extraction unit 152 and the brightness adjustment unit 153.

肌領域抽出部152は、撮影画像に写る人物の肌の領域を抽出する。例えば、肌領域抽出部152には、撮影画像を入力とし、撮影画像に写る人物の肌領域の情報を出力とする推論モデルが用意されている。肌領域抽出部152は、推論モデルを用いて抽出した肌領域と、顔認識部151により抽出された顔領域とに基づいて、顔領域以外の肌領域を抽出する。 The skin region extraction unit 152 extracts the skin region of a person appearing in a captured image. For example, an inference model is prepared in the skin region extraction unit 152, which receives a captured image as input and outputs information about the skin region of a person appearing in the captured image. The skin region extraction unit 152 extracts skin regions other than the face region based on the skin region extracted using the inference model and the face region extracted by the face recognition unit 151.

図14は、肌領域抽出部152による肌領域の抽出の例を示す図である。 Figure 14 shows an example of skin region extraction by the skin region extraction unit 152.

例えば、図14の左上に示す撮影画像P11がレタッチ対象として選択されている場合について説明する。撮影画像P11には、ウェディングドレス姿の新婦である人物H1が写っている。人物H1の胸元と、肩から腕(上腕)にかけての部分において肌が露出している。 For example, a case will be described in which the photographed image P11 shown in the upper left of FIG. 14 is selected as the target for retouching. The photographed image P11 shows a person H1, a bride wearing a wedding dress. The skin of person H1 is exposed from the chest to the areas from the shoulders to the arms (upper arms).

このような撮影画像P11がレタッチ対象となっている場合、顔認識部151においては、矢印#11の先に示すような顔領域が抽出される。 When such a captured image P11 is to be retouched, the face recognition unit 151 extracts a face area as shown at the tip of arrow #11.

肌領域抽出部152は、撮影画像P11を矢印#12の先に示すように肌領域抽出モデルMに入力し、矢印#13の先に示すように、顔領域を含む肌領域を肌領域抽出モデルMの出力に基づいて抽出する。撮影画像P11には、顔の領域と肩から腕にかけての領域などが、人物H1の肌が露出している領域として写っている。 The skin region extraction unit 152 inputs the captured image P11 to the skin region extraction model M as indicated by the tip of the arrow #12, and extracts the skin region including the face region based on the output of the skin region extraction model M as indicated by the tip of the arrow #13. In the captured image P11, the face region and the region from the shoulders to the arms are captured as areas where the skin of person H1 is exposed.

また、肌領域抽出部152は、矢印#14と矢印#15の先に示すように、肌領域抽出モデルMを用いて抽出した肌領域から、顔認識部151により抽出された顔領域を除くことによって、矢印#16の先に示すように、顔領域以外の肌領域を抽出する。このようにして抽出された、顔領域以外の肌領域の情報が明るさ調整部153に供給される。 In addition, as shown by the tips of arrows #14 and #15, the skin region extraction unit 152 extracts the skin region other than the face region, as shown by the tip of arrow #16, by removing the face region extracted by the face recognition unit 151 from the skin region extracted using the skin region extraction model M. Information on the skin region other than the face region extracted in this manner is supplied to the brightness adjustment unit 153.

図13の明るさ調整部153は、レタッチ対象の撮影画像に写る人物の顔領域を顔認識部151から供給された情報に基づいて特定し、顔領域以外の肌領域を肌領域抽出部152から供給された情報に基づいて特定する。明るさ調整部153は、顔領域と、顔領域以外の肌領域とを、それぞれ異なるレタッチパラメータを用いて調整する。レタッチパラメータは、明るさの調整量を規定するパラメータである。 The brightness adjustment unit 153 in FIG. 13 identifies the face area of a person appearing in a captured image to be retouched based on information supplied from the face recognition unit 151, and identifies the skin area other than the face area based on information supplied from the skin area extraction unit 152. The brightness adjustment unit 153 adjusts the face area and the skin area other than the face area using different retouching parameters. The retouching parameters are parameters that specify the amount of brightness adjustment.

例えば、明るさ調整部153は、顔領域に対する調整量の方が、顔領域以外の肌領域に対する調整量より多くなるようなレタッチパラメータを、調整ボタン61を用いたユーザの操作に応じて選択し、それぞれの領域の明るさを調整する。すなわち、顔領域に対する明るさのレタッチパラメータとして、顔領域以外の肌領域に対する明るさのレタッチパラメータより明るくするレタッチパラメータが画像処理に用いられる。図5を参照して説明したように、調整ボタン61を用いて、1または2の1種類のレベルが肌のみの明るさのレベルとして選択される。 For example, the brightness adjustment unit 153 selects retouching parameters in response to the user's operation using the adjustment button 61 such that the adjustment amount for the face region is greater than the adjustment amount for the skin region other than the face region, and adjusts the brightness of each region. That is, the retouching parameters for the brightness of the face region that are brighter than the retouching parameters for the brightness of the skin region other than the face region are used in image processing. As described with reference to FIG. 5, one of levels 1 or 2 is selected as the brightness level for only the skin using the adjustment button 61.

これにより、明るさのレベルとして1,2のいずれのレベルをユーザが選択した場合であっても、図15Aに示すように、顔領域の方を、顔領域以外の肌領域よりも、より明るくするような画像処理が施されることになる。例えば、顔領域の明るさと、顔領域以外の肌領域の明るさが同じ明るさである場合、明るさの調整後の顔領域は、顔領域以外の肌領域より明るくなる。 As a result, regardless of whether the user selects brightness level 1 or 2, image processing is applied to make the face area brighter than the skin area other than the face area, as shown in FIG. 15A. For example, if the brightness of the face area and the brightness of the skin area other than the face area are the same, the face area after the brightness adjustment will be brighter than the skin area other than the face area.

撮影画像に写る人物が女性(新婦)である場合、通常、顔には化粧が施されることから、顔領域を明るめにしても違和感がない。顔領域の方を、顔領域以外の肌領域よりも明るくするような画像処理が施されることにより、顔領域以外の肌領域が明るくなりすぎて違和感がある写りになってしまうことを防ぐことが可能となる。 When the person in the captured image is a woman (the bride), makeup is usually applied to the face, so brightening the facial area does not look unnatural. By applying image processing to brighten the facial area more than the skin area other than the facial area, it is possible to prevent the skin area other than the facial area from becoming too bright and resulting in an unnatural appearance.

顔領域の方を、顔領域以外の肌領域よりも明るくするこのような画像処理が、性別判定部135による性別の判定結果に基づいて行われるようにしてもよい。 Such image processing, which brightens the face area more than the skin area other than the face area, may be performed based on the gender determination result by the gender determination unit 135.

例えば、顔領域の方を、顔領域以外の肌領域よりも明るくする画像処理は、撮影画像に写る女性に対してのみ施される。この場合、撮影画像に写る男性に対しては、顔領域の明るさと、顔領域以外の手などの肌領域とを、それぞれ同じ程度だけ明るくするレタッチパラメータを用いた画像処理が施される。これにより、男性の顔領域だけが明るくなりすぎて違和感がある写りになってしまうことを防ぐことが可能となる。 For example, image processing that brightens the face area more than the skin area other than the face area is only applied to women who appear in the captured image. In this case, image processing is applied to men who appear in the captured image using retouching parameters that brighten the face area and the skin areas other than the face area, such as the hands, to the same extent. This makes it possible to prevent the face area of the man from becoming too bright and appearing unnatural.

また、明るさのレベルとして同じレベルをユーザが選択した場合であっても、図15Bに示すように、女性の肌領域(顔領域を含む)の方を、男性の肌領域よりも、よりも明るくするレタッチパラメータが選択されるようにしてもよい。このように、女性の肌領域の明るさの調整と男性の肌領域の明るさの調整に、それぞれ異なるレタッチパラメータが用いられるようにしてもよい。 Even if the user selects the same brightness level, retouching parameters may be selected that make the female skin area (including the facial area) brighter than the male skin area, as shown in FIG. 15B. In this way, different retouching parameters may be used to adjust the brightness of the female skin area and the male skin area.

<レタッチ画面の表示>
図16は、レタッチ画面の領域33-3の表示例を示す図である。
<Displaying the retouch screen>
FIG. 16 is a diagram showing a display example of the area 33-3 on the retouch screen.

調整ボタン61を用いて肌のみの明るさを上述したようにして調整した後、ユーザは、さらに、調整ボタン62を用いて全体の明るさを調整したり、調整ボタン63を用いて背景の明るさを調整したりすることができる。 After adjusting the brightness of only the skin using adjustment button 61 as described above, the user can further adjust the overall brightness using adjustment button 62, or adjust the brightness of the background using adjustment button 63.

これに対して、調整ボタン62を用いて全体の明るさを調整した後は、図16Aに示すように、調整ボタン63を用いた背景の明るさの調整が制限される。図16Aの右側の例においては、全体の明るさのレベルが「1」として選択されたことに応じて、背景の明るさのレベルの選択が不可となるように、調整ボタン63がグレーアウトして表示されている。 In contrast, after adjusting the overall brightness using adjustment button 62, adjustment of the background brightness using adjustment button 63 is restricted, as shown in FIG. 16A. In the example on the right side of FIG. 16A, the overall brightness level has been selected as "1," and adjustment button 63 is displayed grayed out to prevent selection of the background brightness level.

また、調整ボタン63を用いて背景の明るさを調整した後は、図16Bに示すように、調整ボタン62を用いた全体の明るさの調整が制限される。図16Bの右側の例においては、背景の明るさのレベルが「2」として選択されたことに応じて、全体の明るさのレベルの選択が不可となるように、調整ボタン62がグレーアウトして表示されている。 In addition, after adjusting the background brightness using the adjustment button 63, adjustment of the overall brightness using the adjustment button 62 is restricted, as shown in FIG. 16B. In the example on the right side of FIG. 16B, the background brightness level has been selected as "2," and therefore the adjustment button 62 is displayed grayed out, making it impossible to select the overall brightness level.

すなわち、全体の明るさの調整と背景の明るさの調整は、排他的な関係にあり、いずれか一方の調整のみを行うことが可能とされる。全体の明るさの調整と背景の明るさの調整のうちの一方の調整が行われた後は、他方の調整が制限される。全体の明るさの調整と背景の明るさの調整も例えば明るさ調整部153により行われる。 In other words, the adjustment of the overall brightness and the adjustment of the background brightness are mutually exclusive, and it is possible to adjust only one of them. After one of the adjustments of the overall brightness and the background brightness has been performed, the adjustment of the other is restricted. The adjustment of the overall brightness and the adjustment of the background brightness are also performed by, for example, the brightness adjustment unit 153.

例えば、全体を明るくした後に背景を明るくすることができるとした場合、背景に対して、明るさを調整する画像処理が重畳して適用されてしまい、白飛びが生じてしまう可能性が高くなる。全体の明るさの調整と背景の明るさの調整のいずれか一方の調整のみ行うことができるようにすることにより、そのような白飛びが発生してしまうのを防ぐことが可能となる。 For example, if you were to brighten the background after brightening the entire image, the image processing that adjusts the brightness would be applied to the background in a superimposed manner, increasing the likelihood of whiteout. By making it possible to adjust only one of the brightness adjustments, either the overall brightness or the background brightness, it is possible to prevent such whiteout from occurring.

なお、調整ボタン62を用いて全体の明るさを調整した後であっても、または、調整ボタン63を用いて背景の明るさを調整した後であっても、肌のみの明るさのレベルを選択可能なままとなるように、調整ボタン61の表示は維持される(変わらない)。 Even after adjusting the overall brightness using adjustment button 62, or adjusting the background brightness using adjustment button 63, the display of adjustment button 61 remains (remains unchanged) so that the brightness level of only the skin remains selectable.

明るさの調整レベルの選択に用いられる情報として調整ボタン61乃至63が表示されるものとしたが、スライドバーなどの他の選択情報が表示されるようにしてもよい。 Adjustment buttons 61 to 63 are displayed as information used to select the brightness adjustment level, but other selection information such as a slide bar may also be displayed.

<<レタッチ内容の引き継ぎ機能>>
図8を参照して説明したように、レタッチ対象の撮影画像を切り替えた場合、切り替え前の撮影画像に対して選択したレタッチ内容を、切り替え後の撮影画像に引き継ぐことが可能とされる。ここで、レタッチ内容の引き継ぎ機能について説明する。1つ前の撮影画像で設定したレタッチ内容を切り替え後の撮影画像にも反映させることがポップアップ画像72の表示を用いて選択されたものとする。
<< Transfer of retouching content >>
As described with reference to Fig. 8, when the photographed image to be retouched is switched, the retouching contents selected for the photographed image before the switch can be carried over to the photographed image after the switch. Here, the retouching contents carrying over function will be described. It is assumed that the retouching contents set for the previous photographed image are selected to be reflected in the photographed image after the switch using the display of the pop-up image 72.

<レタッチ内容の引き継ぎ>
図17、図18は、レタッチ内容の引き継ぎの例を示す図である。
<Transfer of retouching content>
17 and 18 are diagrams showing an example of taking over the retouching contents.

図17の矢印#21に示すように、撮影画像P21を1枚目のレタッチ対象としたときのユーザの操作によって、「小顔感」が「3」、「顔のかたち」が「たまご」、「肌質」が「2」、・・・のそれぞれのレタッチパラメータが撮影画像P21に対して設定されたものとする。図17の下段に示すレタッチ済みの撮影画像P21の写りは、上段に示すレタッチ前の撮影画像P21の写りと異なる写りである。 As shown by arrow #21 in FIG. 17, when the captured image P21 is the first image to be retouched, the user operates the camera to set the following retouching parameters for the captured image P21: "small face feeling" to "3," "face shape" to "egg," "skin texture" to "2," and so on. The appearance of the retouched captured image P21 shown in the lower part of FIG. 17 is different from the appearance of the captured image P21 before retouching shown in the upper part.

撮影画像P21のレタッチが終わり、レタッチ対象が撮影画像P21から撮影画像P22に切り替えられたとき、図18の矢印#22の先に示すように、2枚目のレタッチ対象の撮影画像である撮影画像P22のデフォルトのレタッチパラメータとして、レタッチ済みの撮影画像P1のレタッチパラメータが引き継がれる。表示領域31には、撮影画像P22が、レタッチ済みの撮影画像P21と同じ内容のレタッチが施された状態で撮影画像P21に代えて表示される。レタッチ選択領域33の表示も、撮影画像P22に施されているレタッチの内容に応じた表示となる。 When retouching of the photographed image P21 is completed and the retouching target is switched from the photographed image P21 to the photographed image P22, the retouching parameters of the retouched photographed image P1 are inherited as the default retouching parameters of the photographed image P22, which is the second photographed image to be retouched, as shown at the end of arrow #22 in FIG. 18. In the display area 31, the photographed image P22 is displayed in place of the photographed image P21, with the same retouching applied to it as the retouched photographed image P21. The display of the retouching selection area 33 also changes according to the retouching applied to the photographed image P22.

ユーザは、撮影画像P21と同じ内容のレタッチが施された撮影画像P22を基準として、撮影画像P22のレタッチを始めることができる。図18の例においては、「小顔感」が「4」、「顔のかたち」が「ほっそり」、「肌質」が「1」、・・・のレタッチパラメータにより表される内容に調整されている。 The user can start retouching the photographed image P22 using the photographed image P22, which has been retouched in the same manner as the photographed image P21, as a reference. In the example of FIG. 18, the photographed image P22 has been adjusted to the contents represented by the retouching parameters, such as "small face feeling" is "4", "face shape" is "slim", "skin quality" is "1", and so on.

撮影画像P22のレタッチが終わり、3枚目のレタッチ対象の撮影画像が選択された場合も同様に、矢印#24に示すように、3枚目のレタッチ対象の撮影画像のデフォルトのレタッチパラメータとして、撮影画像P22のレタッチパラメータが引き継がれる。 Similarly, when retouching of photographed image P22 is completed and a third photographed image to be retouched is selected, the retouching parameters of photographed image P22 are carried over as the default retouching parameters for the third photographed image to be retouched, as shown by arrow #24.

このように、レタッチ対象の撮影画像が切り替えられることに応じて、直前のレタッチ対象の撮影画像のレタッチの内容が、切り替え後の1枚の撮影画像の写りに引き継がれる。レタッチ対象の撮影画像が切り替えられる毎に、撮影画像の写りの引き継ぎが繰り返される。これにより、ユーザは、それぞれの撮影画像のレタッチを効率的に行うことができる。 In this way, when the photographed image to be retouched is switched, the retouching contents of the photographed image to be retouched immediately before are carried over to the appearance of the next photographed image. Each time the photographed image to be retouched is switched, the carrying over of the appearance of the photographed images is repeated. This allows the user to efficiently retouch each photographed image.

切り替え後の撮影画像が、レタッチの調整がまだ行われてない未調整の画像である場合に以上のようなレタッチ内容の引き継ぎが行われるようにしてもよい。 If the captured image after switching is an unadjusted image for which no retouching adjustments have been made, the retouching details may be carried over as described above.

<引き継ぎ対象について>
レタッチは、対象とする人物を選択して人物毎に行うことが可能とされる。レタッチ内容の引き継ぎは、新婦を対象としたレタッチの内容が新婦の写りに引き継がれ、新郎を対象としたレタッチの内容が新郎の写りに引き継がれるように、性別判定部135による性別の判定結果に基づいて行われる。
<About transfer target>
Retouching can be performed for each person by selecting the person to be retouched. The retouching content is passed on based on the gender determination result by the gender determination unit 135 so that the retouching content for the bride is passed on to the bride's image, and the retouching content for the groom is passed on to the groom's image.

・新郎と新婦が写っている画像から、新郎と新婦が写っている他の画像への切り替え
図19は、レタッチ内容の引き継ぎの第1の例を示す図である。
Switching from an image showing the bride and groom to another image showing the bride and groom FIG. 19 is a diagram showing a first example of the handover of retouching contents.

図19には、新婦である人物H1と新郎である人物H2が写る撮影画像P31のレタッチが終わり、レタッチ対象が、撮影画像P31から、同じく人物H1と人物H2が写る撮影画像P32に切り替えられたときのレタッチ内容の引き継ぎの例が示されている。 Figure 19 shows an example of the transfer of retouching content when retouching of a photographed image P31 showing a bride H1 and a groom H2 is completed and the retouching target is switched from the photographed image P31 to a photographed image P32 also showing the persons H1 and H2.

この場合、レタッチ対象として撮影画像P31が選択されていたときに人物H1に対して施されたレタッチ内容が、矢印#31に示すように、撮影画像P32に写る人物H1の写りに引き継がれる。性別判定部135による判定結果に基づいて、撮影画像P31に写る女性の人物(人物H1)に対して施されたレタッチの内容が、撮影画像P32に写る同じ女性の人物(人物H1)の写りに引き継がれる。 In this case, the retouching content applied to person H1 when photographed image P31 was selected as the retouching target is carried over to the appearance of person H1 in photographed image P32, as indicated by arrow #31. Based on the determination result by gender determination unit 135, the retouching content applied to the female person (person H1) in photographed image P31 is carried over to the appearance of the same female person (person H1) in photographed image P32.

また、レタッチ対象として撮影画像P31が選択されていたときに人物H2に対して施されたレタッチ内容が、矢印#32に示すように、撮影画像P32に写る人物H2の写りに引き継がれる。性別判定部135による判定結果に基づいて、撮影画像P31に写る男性の人物(人物H2)に対して施されたレタッチの内容が、撮影画像P32に写る同じ男性の人物(人物H2)の写りに引き継がれる。 In addition, the retouching content applied to person H2 when photographed image P31 was selected as the retouching target is carried over to the appearance of person H2 in photographed image P32, as shown by arrow #32. Based on the determination result by gender determination unit 135, the retouching content applied to the male person (person H2) in photographed image P31 is carried over to the appearance of the same male person (person H2) in photographed image P32.

・新郎と新婦が写っている画像から、新郎または新婦が写っている画像への切り替え
図20は、レタッチ内容の引き継ぎの第2の例を示す図である。
Switching from an image showing the bride and groom to an image showing either the bride or groom FIG. 20 is a diagram showing a second example of the handover of retouching contents.

図20には、新婦である人物H1と新郎である人物H2が写る撮影画像P31のレタッチが終わり、レタッチ対象が、撮影画像P31から、人物H1のみが写る撮影画像P33、または、人物H2のみが写る撮影画像P34に切り替えられたときのレタッチ内容の引き継ぎの例が示されている。 Figure 20 shows an example of the transfer of retouching content when retouching of a photographed image P31 showing a person H1 who is the bride and a person H2 who is the groom is completed and the retouching target is switched from the photographed image P31 to a photographed image P33 showing only person H1 or a photographed image P34 showing only person H2.

レタッチ対象が右下の撮影画像P33に切り替えられた場合、レタッチ対象として撮影画像P31が選択されていたときに人物H1に対して施されたレタッチ内容が、矢印#33に示すように、撮影画像P33に写る人物H1の写りに引き継がれる。性別判定部135による判定結果に基づいて、撮影画像P31に写る女性の人物(人物H1)に対して施されたレタッチの内容が、撮影画像P33に写る同じ女性の人物(人物H1)の写りに引き継がれる。 When the retouching target is switched to photographed image P33 at the bottom right, the retouching content applied to person H1 when photographed image P31 was selected as the retouching target is carried over to the appearance of person H1 in photographed image P33, as shown by arrow #33. Based on the determination result by gender determination unit 135, the retouching content applied to the female person (person H1) in photographed image P31 is carried over to the appearance of the same female person (person H1) in photographed image P33.

この場合、レタッチ対象として撮影画像P31が選択されていたときに人物H2に対して施されたレタッチ内容は引き継がれないことになる。 In this case, the retouching content applied to person H2 when photographed image P31 was selected as the retouching target will not be carried over.

レタッチ対象が左下の撮影画像P34に切り替えられた場合、レタッチ対象として撮影画像P31が選択されていたときに人物H2に対して施されたレタッチ内容が、矢印#34に示すように、撮影画像P34に写る人物H2の写りに引き継がれる。性別判定部135による判定結果に基づいて、撮影画像P31に写る男性の人物(人物H2)に対して施されたレタッチの内容が、撮影画像P34に写る同じ男性の人物(人物H2)の写りに引き継がれる。 When the retouching target is switched to the photographed image P34 at the bottom left, the retouching content applied to person H2 when photographed image P31 was selected as the retouching target is carried over to the appearance of person H2 in photographed image P34, as shown by arrow #34. Based on the determination result by gender determination unit 135, the retouching content applied to the male person (person H2) in photographed image P31 is carried over to the appearance of the same male person (person H2) in photographed image P34.

この場合、レタッチ対象として撮影画像P31が選択されていたときに人物H1に対して施されたレタッチ内容は引き継がれないことになる。 In this case, the retouching content applied to person H1 when photographed image P31 was selected as the retouching target will not be carried over.

・新郎または新婦が写っている画像から、新郎と新婦が写っている画像への切り替え
図21は、レタッチ内容の引き継ぎの第3の例を示す図である。
Switching from an image showing the groom or the bride to an image showing the groom and the bride FIG. 21 is a diagram showing a third example of the handover of retouching contents.

図21の右側には、新婦である人物H1のみが写る撮影画像P33のレタッチが終わり、レタッチ対象が、撮影画像P33から、人物H1と新郎である人物H2が写る撮影画像P31に切り替えられたときのレタッチ内容の引き継ぎの例が示されている。 The right side of Figure 21 shows an example of the transfer of retouching content when retouching of a photographed image P33, which contains only a person H1 who is the bride, is completed and the retouching target is switched from the photographed image P33 to a photographed image P31, which contains person H1 and a person H2 who is the groom.

この場合、レタッチ対象として撮影画像P33が選択されていたときに人物H1に対して施されたレタッチ内容が、矢印#35に示すように、撮影画像P31に写る人物H1の写りに引き継がれる。性別判定部135による判定結果に基づいて、撮影画像P33に写る女性の人物(人物H1)に対して施されたレタッチの内容が、撮影画像P31に写る同じ女性の人物(人物H1)の写りに引き継がれる。 In this case, the retouching content applied to person H1 when photographed image P33 was selected as the retouching target is carried over to the appearance of person H1 in photographed image P31, as shown by arrow #35. Based on the determination result by gender determination unit 135, the retouching content applied to the female person (person H1) in photographed image P33 is carried over to the appearance of the same female person (person H1) in photographed image P31.

図21の左側には、新郎である人物H2のみが写る撮影画像P34のレタッチが終わり、レタッチ対象が、撮影画像P34から、人物H2と新婦である人物H1が写る撮影画像P31に切り替えられたときのレタッチ内容の引き継ぎの例が示されている。 The left side of Figure 21 shows an example of the transfer of retouching content when retouching of photographed image P34, which contains only person H2, the groom, is completed and the retouching target is switched from photographed image P34 to photographed image P31, which contains person H2 and person H1, the bride.

この場合、レタッチ対象として撮影画像P34が選択されていたときに人物H2に対して施されたレタッチ内容が、矢印#36に示すように、撮影画像P31に写る人物H2の写りに引き継がれる。性別判定部135による判定結果に基づいて、撮影画像P34に写る男性の人物(人物H2)に対して施されたレタッチの内容が、撮影画像P31に写る同じ男性の人物(人物H2)の写りに引き継がれる。 In this case, the retouching content applied to person H2 when photographed image P34 was selected as the retouching target is carried over to the appearance of person H2 in photographed image P31, as shown by arrow #36. Based on the determination result by gender determination unit 135, the retouching content applied to the male person (person H2) in photographed image P34 is carried over to the appearance of the same male person (person H2) in photographed image P31.

これにより、新婦を対象としたレタッチの内容が新郎の写りに引き継がれるなどの不具合を防ぐことが可能となる。 This will prevent issues such as retouching intended for the bride being carried over to the groom's photo.

・レタッチ内容を引き継ぐか否かをユーザに選択させる例
レタッチ対象とする撮影画像の切り替え前と切り替え後とで人物の性別の構成が異なる場合に、図8を参照して説明したような情報が提示されるようにしてもよい。レタッチ内容を引き継ぐか否かをユーザに選択させることが行われる。
Example of Allowing User to Select Whether or Not to Carry Over Retouching Contents When the gender composition of people before and after switching of the photographic image to be retouched is different, information such as that described with reference to Fig. 8 may be presented. The user is allowed to select whether or not to carry over the retouching contents.

例えば、図21の右側に示すように、レタッチ対象が、女性のみが写る撮影画像P33から、女性と男性が写る撮影画像P31に切り替えられた場合のように、撮影画像に写る人物の性別の構成が変化した場合、構図が大きく変わることから、レタッチ内容を引き継ぐことが適切でないこともある。適切ではないレタッチ内容が引き継がれるとそれを修正するのが煩雑になるが、適宜、レタッチ内容を引き継がないように選択できるようにすることにより、修正の手間を省くことが可能となる。 For example, as shown on the right side of Figure 21, when the retouching target is switched from a photographed image P33 that contains only women to a photographed image P31 that contains both women and men, if the gender composition of the people in the photographed image changes, the composition changes significantly and it may not be appropriate to carry over the retouching content. If inappropriate retouching content is carried over, it becomes cumbersome to correct it, but by making it possible to select not to carry over the retouching content as appropriate, it is possible to eliminate the need for correction.

・人物の識別結果に基づく引き継ぎ
レタッチ内容の引き継ぎが性別の判定結果に基づいて行われるものとしたが、人物の識別結果に基づいて行われるようにしてもよい。ある人物を対象としたレタッチの内容が同一人物の写りに引き継がれることにより、新婦を対象としたレタッチの内容が同じ人物である新婦の写りに引き継がれ、新郎を対象としたレタッチの内容が同じ人物である新郎の写りに引き継がれる。
- Transfer of retouching contents based on person identification results Although the transfer of retouching contents is based on the gender determination results in the above, it may be based on the person identification results. By transferring the retouching contents of a certain person to a photograph of the same person, the retouching contents of the bride are transferred to the photograph of the same person, and the retouching contents of the groom are transferred to the photograph of the same person, the groom.

図22は、画像処理部121の他の構成例を示すブロック図である。図22に示す構成は、人物識別部136が設けられている点で、上述した画像処理部121の構成と異なる。 Fig. 22 is a block diagram showing another example configuration of the image processing unit 121. The configuration shown in Fig. 22 differs from the configuration of the image processing unit 121 described above in that a person identification unit 136 is provided.

人物識別部136は、撮影画像に写るそれぞれの人物を識別する。人物識別部136による人物の識別は、例えば、撮影画像を入力とし、撮影画像に写る人物のIDを出力とする推論モデルを用いて行われる。この場合、人物識別部136には、機械学習によって生成された、人物識別用の推論モデルがあらかじめ用意される。人物の識別が、レタッチ対象の撮影画像を解析して求められた人物の特徴に基づいて行われるようにしてもよい。 The person identification unit 136 identifies each person appearing in the captured image. The person identification unit 136 identifies the person using, for example, an inference model that uses the captured image as input and outputs the ID of the person appearing in the captured image. In this case, an inference model for person identification generated by machine learning is prepared in advance in the person identification unit 136. The person may be identified based on the characteristics of the person obtained by analyzing the captured image to be retouched.

人物識別部136による識別結果は、レタッチ処理部132に供給される。例えば、レタッチ対象の撮影画像に新婦だけが写っている場合、撮影画像に写っている新婦に割り当てられた人物IDが識別結果として供給される。また、レタッチ対象の撮影画像に新郎だけが写っている場合、撮影画像に写っている新郎に割り当てられた人物IDが識別結果として供給される。レタッチ対象の撮影画像に新婦と新郎が写っている場合、新婦に割り当てられた人物IDと新郎に割り当てられた人物IDが識別結果として供給される。 The identification result by the person identification unit 136 is supplied to the retouching processing unit 132. For example, if only the bride appears in the photographed image to be retouched, the person ID assigned to the bride appearing in the photographed image is supplied as the identification result. Also, if only the groom appears in the photographed image to be retouched, the person ID assigned to the groom appearing in the photographed image is supplied as the identification result. If the bride and groom appear in the photographed image to be retouched, the person ID assigned to the bride and the person ID assigned to the groom are supplied as the identification result.

レタッチ処理部132においては、人物識別部136による識別結果に基づいて、レタッチ対象の切り替え前の撮影画像に写る人物に対して施されたレタッチの内容を、切り替え後の撮影画像に写る同一人物の写りに引き継ぐようにしてレタッチが施される。 In the retouching processing unit 132, based on the identification result by the person identification unit 136, retouching is performed so that the retouching content applied to the person appearing in the captured image before the retouching target is switched is carried over to the appearance of the same person appearing in the captured image after the switch.

これによっても、新婦を対象としたレタッチの内容が新郎の写りに引き継がれるなどの不具合を防ぐことが可能となる。 This also makes it possible to prevent problems such as retouching intended for the bride being carried over to the groom's photo.

レタッチ対象とする撮影画像の切り替え前と切り替え後とで人物の構成が異なる場合に、図8を参照して説明したような情報が提示されるようにしてもよい。レタッチ内容を引き継ぐか否かをユーザに選択させることが行われる。 If the composition of a person is different before and after the captured image to be retouched is switched, information such as that described with reference to FIG. 8 may be presented. The user is prompted to select whether or not to carry over the retouching content.

例えば、図21の右側に示すように、レタッチ対象が、人物H1のみが写る撮影画像P33から、人物H1と人物H2が写る撮影画像P31に切り替えられた場合のように、撮影画像に写る人物の構成が変化した場合、構図が大きく変わることから、レタッチ内容を引き継ぐことが適切でないこともある。適切ではないレタッチ内容が引き継がれるとそれを修正するのが煩雑になるが、適宜、レタッチ内容を引き継がないように選択できるようにすることにより、修正の手間を省くことが可能となる。 For example, as shown on the right side of Figure 21, when the configuration of people in a captured image changes, such as when the retouching target is switched from captured image P33, which contains only person H1, to captured image P31, which contains people H1 and H2, the composition changes significantly and it may not be appropriate to carry over the retouching content. If inappropriate retouching content is carried over, it becomes cumbersome to correct it, but by making it possible to select not to carry over the retouching content as appropriate, it is possible to eliminate the need for correction.

<<変形例>>
・レタッチ場所の例
撮影スタジオに設置されたPCを利用してレタッチが行われるものとしたが、携帯端末3やユーザの自宅に設置されているPCなどの、他の装置を用いてレタッチを行うことができるようにしてもよい。
<<Modifications>>
- Examples of retouching locations In the above embodiment, retouching is performed using a PC installed in a photography studio, but retouching may also be performed using other devices, such as a mobile terminal 3 or a PC installed in the user's home.

携帯端末3を用いたレタッチが可能とされている場合、撮影スタジオでの撮影を終えたユーザは、携帯端末3を操作して画像管理アプリ3Aを起動させ、画像管理アプリ3Aの画面上でレタッチを行うことになる。画像管理アプリ3Aには、レタッチアプリ1Aと同様の機能が搭載される。 When retouching using the mobile terminal 3 is possible, after a user has finished taking photos in a photography studio, the user operates the mobile terminal 3 to launch the image management app 3A and performs retouching on the screen of the image management app 3A. The image management app 3A has the same functions as the retouching app 1A.

携帯端末3のディスプレイには、上述したような画面が画像管理アプリ3Aによって表示され、画像管理サーバ2にアップロードされた撮影画像を対象として、レタッチ対象の撮影画像の選択とレタッチが行われる。画像管理アプリ3Aの機能を用いてレタッチが行われた撮影画像が印刷され、アルバムの形でユーザに提供されたり、レタッチ済みの撮影画像がそのままデータの形でユーザに提供されたりする。 The above-mentioned screen is displayed on the display of the mobile terminal 3 by the image management application 3A, and the photographed images to be retouched are selected and retouched from among the photographed images uploaded to the image management server 2. The photographed images that have been retouched using the functions of the image management application 3A are printed and provided to the user in the form of an album, or the retouched photographed images are provided to the user as is in the form of data.

これにより、ユーザは、自宅などの様々な場所でレタッチを行うことができる。また、ユーザは、時間を気にすることなく、こだわってレタッチを行うことができる。 This allows users to retouch photos in various locations, such as at home. Users can also retouch photos to their heart's content without worrying about time.

・プログラムについて
上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、汎用のパーソナルコンピュータなどにインストールされる。
Regarding the program: The above-mentioned series of processes can be executed by hardware or software. When the series of processes is executed by software, the program constituting the software is installed in a computer incorporated in dedicated hardware, or in a general-purpose personal computer.

インストールされるプログラムは、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)等)や半導体メモリなどよりなる図10に示されるリムーバブルメディア111に記録して提供される。また、ローカルエリアネットワーク、インターネット、デジタル放送といった、有線または無線の伝送媒体を介して提供されるようにしてもよい。プログラムは、ROM102や記憶部108に、あらかじめインストールしておくことができる。 The program to be installed is provided by being recorded on removable media 111 shown in FIG. 10, which may be an optical disk (CD-ROM (Compact Disc-Read Only Memory), DVD (Digital Versatile Disc), etc.) or a semiconductor memory. It may also be provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital broadcasting. The program can be pre-installed in ROM 102 or storage unit 108.

コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。 The program executed by the computer may be a program in which processing is performed chronologically in the order described in this specification, or it may be a program in which processing is performed in parallel or at the required timing, such as when called.

本明細書に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。 The effects described in this specification are merely examples and are not limiting, and other effects may also exist.

本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。 The embodiment of this technology is not limited to the above-mentioned embodiment, and various modifications are possible without departing from the gist of this technology.

例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。 For example, this technology can be configured as cloud computing, in which a single function is shared and processed collaboratively by multiple devices over a network.

また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。 In addition, each step described in the above flowchart can be executed by a single device, or can be shared and executed by multiple devices.

さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。 Furthermore, when a single step includes multiple processes, the multiple processes included in that single step can be executed by a single device, or can be shared and executed by multiple devices.

1 レタッチ用PC, 2 画像管理サーバ, 3 携帯端末, 121 画像処理部, 131 画像取得部, 132 レタッチ処理部, 133 出力制御部, 134 表示制御部, 135 性別判定部, 136 人物識別部, 151 顔認識部, 152 肌領域抽出部, 153 明るさ調整部 1 Retouching PC, 2 Image management server, 3 Mobile terminal, 121 Image processing unit, 131 Image acquisition unit, 132 Retouching processing unit, 133 Output control unit, 134 Display control unit, 135 Gender determination unit, 136 Person identification unit, 151 Face recognition unit, 152 Skin area extraction unit, 153 Brightness adjustment unit

Claims (8)

コンピュータに、
それぞれの撮影画像に写る人物を機械学習によって生成されたモデルを用いて識別し、
複数枚の撮影画像の中から調整対象として選択された第1の撮影画像の写りをユーザによる操作に応じて調整し、
被写体の人物構成が前記第1の撮影画像と異なる第2の撮影画像に対して前記第1の撮影画像の調整内容を反映させる操作が行われた場合、前記第1の撮影画像と前記第2の撮影画像の被写体の人物構成に基づいて、前記第1の撮影画像に写る所定の人物に対する調整内容を、前記第2の撮影画像に写る、前記所定の人物と同じ人物に反映させる
処理を実行させるプログラム。
On the computer,
The people in each image are identified using a model generated by machine learning.
adjusting the appearance of a first captured image selected as an adjustment target from among the plurality of captured images in response to an operation by a user;
When an operation for reflecting the adjustment contents of the first photographed image to a second photographed image in which the composition of the subjects differs from that of the first photographed image, the program executes a process for reflecting the adjustment contents of a specified person appearing in the first photographed image to a person identical to the specified person appearing in the second photographed image, based on the composition of the subjects of the first photographed image and the second photographed image.
前記第1の撮影画像に女性の人物と男性の人物が写り、前記第2の撮影画像に被写体の人物として女性の人物のみが写っている場合には、前記第1の撮影画像に写る前記所定の人物である女性の人物に対する調整内容を、その女性の人物と同じ人物である、前記第2の撮影画像に写る女性の人物に反映させるようにして行われ、
前記第1の撮影画像に被写体の人物として女性の人物のみが写り、前記第2の撮影画像に女性の人物と男性の人物が写っている場合には、前記第1の撮影画像に写る前記所定の人物である女性の人物に対する調整内容を、その女性の人物と同じ人物である、前記第2の撮影画像に写る女性の人物に反映させるようにして行われる
請求項1に記載のプログラム。
When a female person and a male person are captured in the first photographed image and only a female person is captured as a subject person in the second photographed image, the adjustment content for the female person who is the specified person captured in the first photographed image is reflected in the female person who is the same person as the female person captured in the second photographed image,
2. The program according to claim 1, wherein, when the first captured image contains only a female person as a subject and the second captured image contains both a female person and a male person, adjustments made to the female person, who is the specified person, appearing in the first captured image , are reflected in the female person, who is the same person, appearing in the second captured image.
複数枚の撮影画像の写りの調整が行われた後、ユーザの操作に応じた写りの調整内容を、ユーザの操作による写りの調整が行われていないそれぞれの撮影画像に反映させる
請求項1に記載のプログラム。
The program according to claim 1 , further comprising: after adjusting the appearance of a plurality of captured images, reflecting the adjustment contents of the appearance according to a user's operation on each captured image that has not been adjusted in appearance by a user's operation.
写りの調整内容の反映元の撮影画像と反映先の撮影画像を、ユーザの操作に応じた写りの調整が行われたそれぞれの撮影画像に写る顔の状態と、写りの調整が行われていないそれぞれの撮影画像に写る顔の状態とに基づいて選択する
請求項3に記載のプログラム。
The program according to claim 3, wherein the captured image as the source and destination of the adjustments to appearance are selected based on the state of the faces appearing in each of the captured images that have been adjusted in appearance in accordance with user operation and the state of the faces appearing in each of the captured images that have not been adjusted in appearance.
それぞれの撮影画像のサムネイル画像と、調整対象として選択された前記第1の撮影画像と、写りの調整に用いられる複数の情報とが配置された画面を表示し、
前記第1の撮影画像の調整内容を前記第2の撮影画像に反映させる操作は、前記画面上で行われる
請求項1に記載のプログラム。
displaying a screen on which thumbnail images of the respective photographed images, the first photographed image selected as an adjustment target, and a plurality of pieces of information used for adjusting the appearance of the photographed image are arranged;
The program according to claim 1 , wherein an operation for reflecting the adjustment content of the first captured image in the second captured image is performed on the screen.
写りの調整には、顔の大きさの調整、顔の形の調整、あごの長さの調整、スタイルの調整、目の大きさの調整、目の形の調整、メイクの濃さの調整、鼻筋部分のハイライトの調整、ひげの調整、肌の明るさの調整、画像全体の明るさの調整、背景の明るさの調整のうちの少なくともいずれかが含まれる
請求項1に記載のプログラム。
2. The program according to claim 1, wherein the adjustment of appearance includes at least one of adjustment of face size, adjustment of face shape, adjustment of chin length, adjustment of style, adjustment of eye size, adjustment of eye shape, adjustment of makeup intensity, adjustment of highlights on the bridge of the nose, adjustment of beard, adjustment of skin brightness, adjustment of overall image brightness, and adjustment of background brightness.
それぞれの撮影画像に写る人物を機械学習によって生成されたモデルを用いて識別する人物識別部と、
複数枚の撮影画像の中から調整対象として選択された第1の撮影画像の写りをユーザによる操作に応じて調整し、被写体の人物構成が前記第1の撮影画像と異なる第2の撮影画像に対して前記第1の撮影画像の調整内容を反映させる操作が行われた場合、前記第1の撮影画像と前記第2の撮影画像の被写体の人物構成に基づいて、前記第1の撮影画像に写る所定の人物に対する調整内容を、前記第2の撮影画像に写る、前記所定の人物と同じ人物に反映させるレタッチ処理部と
を備える画像処理装置。
a person identification unit that identifies people appearing in each captured image using a model generated by machine learning;
and a retouching processing unit that adjusts the appearance of a first captured image selected as an adjustment target from among a plurality of captured images in response to a user operation, and when an operation is performed to reflect the adjustment content of the first captured image to a second captured image in which the subject's composition is different from that of the first captured image, reflects the adjustment content for a specific person appearing in the first captured image to a person identical to the specific person appearing in the second captured image, based on the subject's composition of the first captured image and the subject's composition of the second captured image.
画像処理装置が、
それぞれの撮影画像に写る人物を機械学習によって生成されたモデルを用いて識別し、
複数枚の撮影画像の中から調整対象として選択された第1の撮影画像の写りをユーザによる操作に応じて調整し、
被写体の人物構成が前記第1の撮影画像と異なる第2の撮影画像に対して前記第1の撮影画像の調整内容を反映させる操作が行われた場合、前記第1の撮影画像と前記第2の撮影画像の被写体の人物構成に基づいて、前記第1の撮影画像に写る所定の人物に対する調整内容を、前記第2の撮影画像に写る、前記所定の人物と同じ人物に反映させる
画像処理方法。
The image processing device
The people in each image are identified using a model generated by machine learning.
adjusting the appearance of a first captured image selected as an adjustment target from among the plurality of captured images in response to an operation by a user;
an image processing method for, when an operation for reflecting adjustment contents of a first captured image to a second captured image in which the composition of subjects differs from that of the first captured image, reflecting adjustment contents for a specified person appearing in the first captured image to a person identical to the specified person appearing in the second captured image, based on the composition of subjects of the first captured image and the second captured image.
JP2024072279A 2022-04-28 2024-04-26 PROGRAM, IMAGE PROCESSING APPARATUS, AND IMAGE PROCESSING METHOD Active JP7534706B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2024072279A JP7534706B2 (en) 2022-04-28 2024-04-26 PROGRAM, IMAGE PROCESSING APPARATUS, AND IMAGE PROCESSING METHOD

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022074256A JP7492150B2 (en) 2022-04-28 2022-04-28 Information processing device, information processing method, and program
JP2024072279A JP7534706B2 (en) 2022-04-28 2024-04-26 PROGRAM, IMAGE PROCESSING APPARATUS, AND IMAGE PROCESSING METHOD

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2022074256A Division JP7492150B2 (en) 2022-04-28 2022-04-28 Information processing device, information processing method, and program

Publications (2)

Publication Number Publication Date
JP2024097331A JP2024097331A (en) 2024-07-18
JP7534706B2 true JP7534706B2 (en) 2024-08-15

Family

ID=88651533

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2022074256A Active JP7492150B2 (en) 2022-04-28 2022-04-28 Information processing device, information processing method, and program
JP2024072279A Active JP7534706B2 (en) 2022-04-28 2024-04-26 PROGRAM, IMAGE PROCESSING APPARATUS, AND IMAGE PROCESSING METHOD

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2022074256A Active JP7492150B2 (en) 2022-04-28 2022-04-28 Information processing device, information processing method, and program

Country Status (1)

Country Link
JP (2) JP7492150B2 (en)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010213090A (en) 2009-03-11 2010-09-24 Casio Computer Co Ltd Imaging apparatus, imaging method, and imaging program
JP2013229848A (en) 2012-12-03 2013-11-07 Furyu Kk Photograph seal machine, processing method of the same and program
JP2015118329A (en) 2013-12-19 2015-06-25 フリュー株式会社 Image processor and image processing method
JP2017037615A (en) 2015-08-13 2017-02-16 辰巳電子工業株式会社 Game imaging device, image processing method and program
JP2017135608A (en) 2016-01-28 2017-08-03 辰巳電子工業株式会社 Imaging apparatus for amusement and image processing method
JP2018064220A (en) 2016-10-14 2018-04-19 フリュー株式会社 Photograph preparation game machine and display method
JP2020113878A (en) 2019-01-10 2020-07-27 フリュー株式会社 Image processing apparatus, image processing method, and image processing program
JP2021039655A (en) 2019-09-05 2021-03-11 フリュー株式会社 Image processing device, image processing method, and program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6951168B2 (en) 2017-09-14 2021-10-20 キヤノン株式会社 Image processing device and its control method and program
CN107818305B (en) 2017-10-31 2020-09-22 Oppo广东移动通信有限公司 Image processing method, image processing device, electronic equipment and computer readable storage medium

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010213090A (en) 2009-03-11 2010-09-24 Casio Computer Co Ltd Imaging apparatus, imaging method, and imaging program
JP2013229848A (en) 2012-12-03 2013-11-07 Furyu Kk Photograph seal machine, processing method of the same and program
JP2015118329A (en) 2013-12-19 2015-06-25 フリュー株式会社 Image processor and image processing method
JP2017037615A (en) 2015-08-13 2017-02-16 辰巳電子工業株式会社 Game imaging device, image processing method and program
JP2017135608A (en) 2016-01-28 2017-08-03 辰巳電子工業株式会社 Imaging apparatus for amusement and image processing method
JP2018064220A (en) 2016-10-14 2018-04-19 フリュー株式会社 Photograph preparation game machine and display method
JP2020113878A (en) 2019-01-10 2020-07-27 フリュー株式会社 Image processing apparatus, image processing method, and image processing program
JP2021039655A (en) 2019-09-05 2021-03-11 フリュー株式会社 Image processing device, image processing method, and program

Also Published As

Publication number Publication date
JP7492150B2 (en) 2024-05-29
JP2023163375A (en) 2023-11-10
JP2024097331A (en) 2024-07-18

Similar Documents

Publication Publication Date Title
JP4291963B2 (en) Image processing method
US9336442B2 (en) Selecting images using relationship weights
US20130050747A1 (en) Automated photo-product specification method
JP2004030668A (en) Portrait image correcting method
JP2007193824A (en) Image processing method
JP2001251530A (en) Image processing method, image processor and recording medium
JP2017147621A (en) Image processing apparatus, image processing method and computer program
JP5748651B2 (en) Image processing apparatus, image processing method, and program
JP4459841B2 (en) Image editing apparatus and method, and program
JP6765978B2 (en) Information processing equipment and programs
JP7534706B2 (en) PROGRAM, IMAGE PROCESSING APPARATUS, AND IMAGE PROCESSING METHOD
JP2023164461A (en) Image processing apparatus, image processing method, and program
US20130050744A1 (en) Automated photo-product specification method
JP7549565B2 (en) Image processing device, image processing method, and program
Hoffman Create Great iPhone Photos: Apps, Tips, Tricks, and Effects
JP7502711B1 (en) PROGRAM, INFORMATION PROCESSING METHOD, AND INFORMATION PROCESSING APPARATUS
JP2023163374A (en) Information processing unit, information processing method, and program
JP2024082675A (en) Information processing device, method for processing information, and program
JP6124087B2 (en) Image editing apparatus and image editing method
JP2024060324A (en) Image processing device, image processing method, and program
JP2024143954A (en) Information processing device, information processing method, and program
JP2018107515A (en) Photograph formation game machine and image processing method
JP2024082674A (en) Information processor, method for processing information, and program
JP2005225025A (en) Face image processing system
JP2024083217A (en) Information processing device, information processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240426

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20240426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240611

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240625

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240702

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240715

R150 Certificate of patent or registration of utility model

Ref document number: 7534706

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150