JP7247136B2 - Image processing device, image processing method, and image processing program - Google Patents

Image processing device, image processing method, and image processing program Download PDF

Info

Publication number
JP7247136B2
JP7247136B2 JP2020050136A JP2020050136A JP7247136B2 JP 7247136 B2 JP7247136 B2 JP 7247136B2 JP 2020050136 A JP2020050136 A JP 2020050136A JP 2020050136 A JP2020050136 A JP 2020050136A JP 7247136 B2 JP7247136 B2 JP 7247136B2
Authority
JP
Japan
Prior art keywords
image
partial
display
area
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020050136A
Other languages
Japanese (ja)
Other versions
JP2021150865A (en
Inventor
純一 石垣
福生 秋山
雅子 吉田
慎二 渡邉
健太 小野
将 相田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2020050136A priority Critical patent/JP7247136B2/en
Publication of JP2021150865A publication Critical patent/JP2021150865A/en
Application granted granted Critical
Publication of JP7247136B2 publication Critical patent/JP7247136B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本開示は、画像処理装置、画像処理方法、及び画像処理プログラムに関する。 The present disclosure relates to an image processing device, an image processing method, and an image processing program.

複数の被写体の集合写真を連続的に撮影し、撮影された複数の集合写真である複数の撮影画像から部分画像(例えば人の顔)を選択し、選択した部分画像を抽出し、抽出した部分画像を、基準となる合成画像の指定された部分に合成する撮影装置が開示されている(特許文献1参照)。 A group photo of multiple subjects is taken continuously, a partial image (for example, a person's face) is selected from the multiple captured images that are the multiple group photos taken, the selected partial image is extracted, and the extracted part 2. Description of the Related Art A photographing device has been disclosed that combines an image with a specified portion of a reference composite image (see Patent Document 1).

被写体を複数回撮影して撮影回数分の撮影画像を取得し、撮影画像群の中から設定した基準画像と基準画像以外の比較画像とに基づいて被写体の動領域を検出する技術が開示されている(特許文献2参照)。この技術では、検出した動領域の検出結果に応じて比較画像における合成領域を設定し、設定した合成領域の部分画像を基準画像に合成することにより合成画像を生成する。特許文献2においても、撮影画像の一例として複数の人を被写体とした集合写真が例示されており、例えば、基準画像内に含まれる一部の人の顔が別の撮影画像の部分画像に差し替えられる。 A technique has been disclosed in which a subject is photographed a plurality of times, photographed images are obtained for the number of times photographed, and a moving region of the subject is detected based on a reference image set from among the photographed image group and a comparison image other than the reference image. (See Patent Document 2). In this technique, a synthetic image is generated by setting a synthetic area in a comparison image according to the detection result of the detected moving area, and synthesizing a partial image of the set synthetic area with a reference image. Japanese Patent Application Laid-Open No. 2002-200002 also exemplifies a group photograph of a plurality of people as an example of a photographed image. For example, some people's faces included in a reference image are replaced with a partial image of another photographed image. be done.

特開2001-45355号公報JP-A-2001-45355 特開2014-225870号公報JP 2014-225870 A

特許文献1には、合成する部分画像を選択する記載はあるものの、ユーザが部分画像を選択するために、撮影装置がどのような情報をユーザに提示するかについて記載されていない。 Japanese Patent Application Laid-Open No. 2002-200000 describes selection of partial images to be synthesized, but does not describe what kind of information the photographing device presents to the user in order for the user to select a partial image.

特許文献2に記載の技術では、合成領域を選択させるための操作画面において、複数の被写体が写っている撮影画像の外側に、差し替え候補の部分画像の一覧が表示される。しかしながら、撮影画像の外側に差し替え候補の部分画像の一覧を表示する方法では、撮影画像と差し替え候補の部分画像とが別々の表示領域に表示されるため、適切な部分画像をユーザが選択しにくい、という問題があった。 In the technique described in Patent Literature 2, a list of replacement candidate partial images is displayed outside a photographed image in which a plurality of subjects are captured on an operation screen for selecting a compositing area. However, in the method of displaying a list of replacement candidate partial images outside the captured image, the captured image and the replacement candidate partial images are displayed in separate display areas, making it difficult for the user to select an appropriate partial image. , there was a problem.

本開示は、以上の事情を鑑みてなされたものであり、ユーザが部分画像を適切に選択することができる画像処理装置、画像処理方法、及び画像処理プログラムを提供することを目的とする。 The present disclosure has been made in view of the circumstances described above, and aims to provide an image processing device, an image processing method, and an image processing program that allow a user to appropriately select a partial image.

本開示の画像処理装置は、少なくとも一つのプロセッサを備える画像処理装置であって、プロセッサは、連続的に撮影して得られた複数の撮影画像であり、それぞれが複数の被写体を含む撮影画像を取得し、複数の撮影画像のうちの1枚である基準撮影画像を含み、かつ、基準撮影画像内の複数の被写体のうちの1つを含むエリアを選択可能な操作画面であって、エリアに対応する部分画像を、複数の撮影画像のうち基準撮影画像とは別のタイミングで撮影された撮影画像のエリアに対応する部分画像に差し替える合成処理を行うための操作画面を表示する制御を行い、操作画面において基準撮影画像の1つのエリアが選択されている場合、基準撮影画像内の選択されているエリアに表示する部分画像を、複数の撮影画像の中の差し替え候補となる複数の部分画像の何れかに選択的に差し替える合成処理を行う。 An image processing apparatus of the present disclosure is an image processing apparatus including at least one processor, and the processor is a plurality of photographed images obtained by continuously photographing, each of which is a photographed image including a plurality of subjects. an operation screen for selecting an area that includes a reference captured image that is one of a plurality of captured images and that includes one of a plurality of subjects in the reference captured image; performing control to display an operation screen for performing a synthesis process of replacing the corresponding partial image with a partial image corresponding to an area of a photographed image that was photographed at a different timing than the reference photographed image among the plurality of photographed images; When one area of the reference captured image is selected on the operation screen, the partial image to be displayed in the selected area in the reference captured image is selected from among the plurality of partial images serving as replacement candidates in the plurality of captured images. Synthesis processing for selectively replacing with either is performed.

なお、本開示の画像処理装置は、プロセッサが、操作画面において、差し替え候補となる複数の部分画像の中から、1枚の部分画像を選択するための操作オブジェクトを表示する制御を行ってもよい。 In the image processing apparatus of the present disclosure, the processor may perform control to display an operation object for selecting one partial image from a plurality of partial images as replacement candidates on the operation screen. .

また、本開示の画像処理装置は、プロセッサが、少なくとも1つのエリアに対応する操作オブジェクトを表示する制御を行ってもよい。 Further, in the image processing device of the present disclosure, the processor may perform control to display an operation object corresponding to at least one area.

また、本開示の画像処理装置は、プロセッサが、操作画面において1つのエリアが選択された場合に、操作画面の全てのエリアのうち選択された1つのエリアのみに対応する操作オブジェクトを表示する制御を行ってもよい。 Further, in the image processing apparatus of the present disclosure, when one area is selected on the operation screen, the processor controls to display an operation object corresponding to only one selected area out of all areas of the operation screen. may be performed.

また、本開示の画像処理装置は、操作オブジェクトが、時系列の複数の撮影画像から1枚の部分画像を選択するためのシークバーであってもよい。 Further, in the image processing apparatus of the present disclosure, the operation object may be a seek bar for selecting one partial image from a plurality of time-series captured images.

また、本開示の画像処理装置は、プロセッサが、各部分画像の選択基準を示す指標値を算出し、シークバーの時系列方向と交差する方向に対する長さを、部分画像の選択基準を示す指標値の大きさに応じた長さにしてシークバーを表示する制御を行ってもよい。 Further, in the image processing apparatus of the present disclosure, the processor calculates an index value indicating a selection criterion for each partial image, and calculates the length of the seek bar in a direction intersecting the time-series direction as an index value indicating the selection criterion for the partial image. may be controlled to display the seek bar with a length corresponding to the size of .

また、本開示の画像処理装置は、プロセッサが、各部分画像の選択基準を示す指標値を算出し、部分画像に対応する位置に指標値を更に表示する制御を行ってもよい。 Further, in the image processing apparatus of the present disclosure, the processor may calculate an index value indicating a selection criterion for each partial image, and control to further display the index value at a position corresponding to the partial image.

また、本開示の画像処理装置は、指標値が、被写体の複数の感情のうちの何れか1つの感情を表す度合い、被写体の合焦の度合い、撮影画像のブレを表す値、被写体の血色の度合い、又は被写体の姿勢を表す度合いであってもよい。 Further, in the image processing device of the present disclosure, the index value includes the degree of expressing any one of a plurality of emotions of the subject, the degree of focus of the subject, the blurring of the captured image, the complexion of the subject, and the like. It may be a degree, or a degree representing the posture of the subject.

また、本開示の画像処理装置は、指標値が、被写体の複数の感情のうちの何れか1つの感情を表す度合いであり、プロセッサが、複数の感情の中から、選択基準として用いられる指標値を表す感情を選択するための操作オブジェクトを更に表示する制御を行ってもよい。 Further, in the image processing device of the present disclosure, the index value is the degree of expression of any one of a plurality of emotions of the subject, and the processor selects the index value used as a selection criterion from among the plurality of emotions. A control may be performed to further display an operation object for selecting an emotion representing .

また、本開示の画像処理方法は、連続的に撮影して得られた複数の撮影画像であり、それぞれが複数の被写体を含む撮影画像を取得し、複数の撮影画像のうちの1枚である基準撮影画像を含み、かつ、基準撮影画像内の複数の被写体のうちの1つを含むエリアを選択可能な操作画面であって、エリアに対応する部分画像を、複数の撮影画像のうち基準撮影画像とは別のタイミングで撮影された撮影画像のエリアに対応する部分画像に差し替える合成処理を行うための操作画面を表示する制御を行い、操作画面において基準撮影画像の1つのエリアが選択されている場合、基準撮影画像内の選択されているエリアに表示する部分画像を、複数の撮影画像の中の差し替え候補となる複数の部分画像の何れかに選択的に差し替える合成処理を行う処理を画像処理装置が備えるプロセッサが実行するものである。 Further, the image processing method of the present disclosure obtains a plurality of photographed images obtained by continuously photographing, each of which includes a plurality of subjects, and acquires one of the plurality of photographed images. An operation screen that includes a reference shot image and allows selection of an area that includes one of a plurality of subjects in the reference shot image, wherein a partial image corresponding to the area is selected from the plurality of shot images as the reference shot. Control is performed to display an operation screen for performing a compositing process in which a partial image corresponding to an area of a captured image captured at a different timing than the image is replaced, and one area of the reference captured image is selected on the operation screen. If there is, a partial image to be displayed in the selected area in the reference captured image is selectively replaced with one of the plurality of partial images as replacement candidates in the plurality of captured images. It is executed by a processor provided in the processing device.

また、本開示の画像処理プログラムは、連続的に撮影して得られた複数の撮影画像であり、それぞれが複数の被写体を含む撮影画像を取得し、複数の撮影画像のうちの1枚である基準撮影画像を含み、かつ、基準撮影画像内の複数の被写体のうちの1つを含むエリアを選択可能な操作画面であって、エリアに対応する部分画像を、複数の撮影画像のうち基準撮影画像とは別のタイミングで撮影された撮影画像のエリアに対応する部分画像に差し替える合成処理を行うための操作画面を表示する制御を行い、操作画面において基準撮影画像の1つのエリアが選択されている場合、基準撮影画像内の選択されているエリアに表示する部分画像を、複数の撮影画像の中の差し替え候補となる複数の部分画像の何れかに選択的に差し替える合成処理を行う処理を画像処理装置が備えるプロセッサに実行させるためのものである。 Further, the image processing program of the present disclosure acquires a plurality of photographed images obtained by continuously photographing, each of which includes a plurality of subjects, and acquires one of the plurality of photographed images. An operation screen that includes a reference shot image and allows selection of an area that includes one of a plurality of subjects in the reference shot image, wherein a partial image corresponding to the area is selected from the plurality of shot images as the reference shot. Control is performed to display an operation screen for performing a compositing process in which a partial image corresponding to an area of a captured image captured at a different timing than the image is replaced, and one area of the reference captured image is selected on the operation screen. If there is, a partial image to be displayed in the selected area in the reference captured image is selectively replaced with one of the plurality of partial images as replacement candidates in the plurality of captured images. It is intended to be executed by a processor provided in a processing device.

本開示によれば、ユーザが部分画像を適切に選択することができる。 According to the present disclosure, a user can appropriately select a partial image.

画像処理システムの構成の一例を示すブロック図である。1 is a block diagram showing an example of the configuration of an image processing system; FIG. 画像処理装置のハードウェア構成の一例を示すブロック図である。It is a block diagram showing an example of hardware constitutions of an image processing device. 第1実施形態に係る画像処理装置の機能的な構成の一例を示すブロック図である。1 is a block diagram showing an example of a functional configuration of an image processing apparatus according to a first embodiment; FIG. 第1実施形態に係る操作画面の一例を示す図である。FIG. 4 is a diagram showing an example of an operation screen according to the first embodiment; FIG. 第1実施形態に係る操作画面の一例を示す図である。FIG. 4 is a diagram showing an example of an operation screen according to the first embodiment; FIG. 変形例に係る操作画面の一例を示す図である。It is a figure which shows an example of the operation screen which concerns on a modification. 変形例に係る操作画面の一例を示す図である。It is a figure which shows an example of the operation screen which concerns on a modification. 第1実施形態に係る画像表示処理の一例を示すフローチャートである。4 is a flowchart showing an example of image display processing according to the first embodiment; 第2実施形態に係る画像処理装置の機能的な構成の一例を示すブロック図である。FIG. 11 is a block diagram showing an example of a functional configuration of an image processing apparatus according to a second embodiment; FIG. 第2実施形態に係る操作画面の一例を示す図である。FIG. 11 is a diagram showing an example of an operation screen according to the second embodiment; FIG. 第2実施形態に係る画像表示処理の一例を示すフローチャートである。9 is a flowchart showing an example of image display processing according to the second embodiment; 変形例に係る操作画面の一例を示す図である。It is a figure which shows an example of the operation screen which concerns on a modification. 変形例に係る操作画面の一例を示す図である。It is a figure which shows an example of the operation screen which concerns on a modification.

以下、図面を参照して、本開示の技術を実施するための形態例を詳細に説明する。 Embodiments for implementing the technology of the present disclosure will be described in detail below with reference to the drawings.

[第1実施形態]
まず、図1を参照して、本実施形態に係る画像処理システム10の構成を説明する。図1に示すように、画像処理システム10は、画像処理装置12及び撮影装置14を含む。画像処理装置12及び撮影装置14は、有線通信及び無線通信の少なくとも一方によって互いに通信が可能とされる。
[First Embodiment]
First, the configuration of an image processing system 10 according to this embodiment will be described with reference to FIG. As shown in FIG. 1, the image processing system 10 includes an image processing device 12 and an imaging device 14 . The image processing device 12 and the imaging device 14 can communicate with each other through at least one of wired communication and wireless communication.

撮影装置14は、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサ又はCCD(Charge Coupled Device)イメージセンサ等の撮像素子を備える。撮影装置14は、被写体を連続的に撮影することが可能とされる。ここでいう連続的に撮影とは、予め定められた時間間隔で被写体を複数回撮影することを意味し、例えば、動画撮影が挙げられる。また、動画撮影ではなく、静止画像の連写撮影でもよい。上記時間間隔は、一定の時間間隔でもよいし、異なる時間間隔でもよい。なお、以下では、撮影装置14が被写体を撮影して得られた画像を「撮影画像」という。撮影装置14の例としては、デジタルカメラ又はカメラ機能付きのスマートフォン等が挙げられる。 The imaging device 14 includes an imaging device such as a CMOS (Complementary Metal Oxide Semiconductor) image sensor or a CCD (Charge Coupled Device) image sensor. The photographing device 14 is capable of continuously photographing a subject. The term "continuously photographing" as used herein means photographing a subject a plurality of times at predetermined time intervals, and includes, for example, moving image photographing. Further, continuous shooting of still images may be performed instead of moving image shooting. The time intervals may be constant time intervals or different time intervals. An image obtained by photographing a subject by the photographing device 14 is hereinafter referred to as a "photographed image". Examples of the photographing device 14 include a digital camera, a smartphone with a camera function, and the like.

次に、図2を参照して、本実施形態に係る画像処理装置12のハードウェア構成を説明する。画像処理装置12の例としては、スマートフォン、タブレット端末、又はパーソナルコンピュータ等が挙げられる。 Next, the hardware configuration of the image processing apparatus 12 according to this embodiment will be described with reference to FIG. Examples of the image processing device 12 include smartphones, tablet terminals, personal computers, and the like.

図2に示すように、画像処理装置12は、CPU(Central Processing Unit)20、一時記憶領域としてのメモリ21、及び不揮発性の記憶部22を含む。また、画像処理装置12は、液晶ディスプレイ等のディスプレイ23、ユーザが入力を行う入力部24、及び撮影装置14との通信に用いられる通信I/F(InterFace)25を含む。CPU20、メモリ21、記憶部22、ディスプレイ23、入力部24、及び通信I/F25は、バス26に接続される。 As shown in FIG. 2 , the image processing device 12 includes a CPU (Central Processing Unit) 20 , a memory 21 as a temporary storage area, and a non-volatile storage section 22 . The image processing device 12 also includes a display 23 such as a liquid crystal display, an input unit 24 for user input, and a communication I/F (InterFace) 25 used for communication with the imaging device 14 . CPU 20 , memory 21 , storage unit 22 , display 23 , input unit 24 and communication I/F 25 are connected to bus 26 .

記憶部22は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、又はフラッシュメモリ等によって実現される。記憶媒体としての記憶部22には、画像処理プログラム30が記憶される。CPU20は、記憶部22から画像処理プログラム30を読み出してからメモリ21に展開し、展開した画像処理プログラム30を実行する。 The storage unit 22 is realized by a HDD (Hard Disk Drive), SSD (Solid State Drive), flash memory, or the like. An image processing program 30 is stored in the storage unit 22 as a storage medium. The CPU 20 reads out the image processing program 30 from the storage unit 22 , expands it in the memory 21 , and executes the expanded image processing program 30 .

次に、図3を参照して、本実施形態に係る画像処理装置12の機能的な構成について説明する。図3に示すように、画像処理装置12は、取得部40、検出部42、分割部44、及び表示制御部46を含む。CPU20が画像処理プログラム30を実行することで、取得部40、検出部42、分割部44、及び表示制御部46として機能する。 Next, a functional configuration of the image processing apparatus 12 according to this embodiment will be described with reference to FIG. As shown in FIG. 3 , the image processing device 12 includes an acquisition section 40 , a detection section 42 , a division section 44 and a display control section 46 . The CPU 20 executes the image processing program 30 to function as an acquisition unit 40 , a detection unit 42 , a division unit 44 and a display control unit 46 .

取得部40は、撮影装置14が複数の被写体を連続的に撮影して得られた複数の撮影画像であり、それぞれが複数の被写体を含む撮影画像を、通信I/F25を介して取得する。本実施形態では、被写体として人を適用した例を説明する。 Acquisition unit 40 acquires, via communication I/F 25 , a plurality of photographed images obtained by continuously photographing a plurality of subjects by photographing device 14 , and each photographed image includes a plurality of subjects. In this embodiment, an example in which a person is applied as a subject will be described.

検出部42は、取得部40により取得された複数の撮影画像のうちの1枚である基準撮影画像KG(図4参照)に対して、公知の顔検出処理を行うことによって複数の被写体のそれぞれの顔領域を検出する。なお、本実施形態では、基準撮影画像KGとして、取得部40により取得された複数の撮影画像の1枚目の撮影画像、すなわち、時系列的に最初に撮影された撮影画像を適用した例を説明するが、これに限定されない。基準撮影画像KGとして、取得部40により取得された複数の撮影画像の最後の撮影画像を適用してもよいし、1枚目及び最後の撮影画像以外の1枚の撮影画像を適用してもよい。 The detection unit 42 performs a known face detection process on the reference captured image KG (see FIG. 4), which is one of the multiple captured images acquired by the acquisition unit 40, to detect each of the plurality of subjects. face region. In this embodiment, as the reference captured image KG, the first captured image of the plurality of captured images acquired by the acquisition unit 40, that is, the first captured image in chronological order is applied. By way of example, but not by way of limitation. As the reference captured image KG, the last captured image of the plurality of captured images acquired by the acquisition unit 40 may be applied, or one captured image other than the first and last captured images may be applied. good.

分割部44は、基準撮影画像KGを、検出部42により検出された複数の顔領域をそれぞれ含み、互いに重複しない複数のエリアに分割する。以下では、分割部44により分割された各エリアを分割エリアという。本実施形態では、複数の撮影画像は同じ解像度であるため、基準撮影画像KGで得られた複数の分割エリアと同様に基準撮影画像KG以外の撮影画像も複数の分割エリアに分割が可能である。また、以下では、各撮影画像の分割エリアに対応する部分を「部分画像」という。 The dividing unit 44 divides the reference photographed image KG into a plurality of non-overlapping areas each including a plurality of face areas detected by the detecting unit 42 . Each area divided by the dividing unit 44 is hereinafter referred to as a divided area. In this embodiment, since the plurality of captured images have the same resolution, the captured images other than the reference captured image KG can be divided into a plurality of divided areas in the same manner as the plurality of divided areas obtained from the reference captured image KG. . Also, hereinafter, a portion corresponding to the divided area of each captured image is referred to as a “partial image”.

表示制御部46は、基準撮影画像KGを含み、かつ、基準撮影画像KG内の複数の被写体のうちの1つを含む分割エリアを選択可能な操作画面SG(図4参照)を表示する制御を行う。この操作画面SGは、分割エリアに対応する部分画像BG(図4参照)を、複数の撮影画像のうち基準撮影画像KGとは別のタイミングで撮影された撮影画像の分割エリアに対応する部分画像BGに差し替える合成処理を行うための操作画面である。 The display control unit 46 performs control to display an operation screen SG (see FIG. 4) that includes the reference shot image KG and allows selection of a divided area that includes one of a plurality of subjects in the reference shot image KG. conduct. This operation screen SG displays a partial image BG (see FIG. 4) corresponding to the divided area, which is a partial image corresponding to the divided area of the photographed image taken at a different timing from the reference photographed image KG among the plurality of photographed images. This is an operation screen for performing composition processing for replacing with BG.

また、表示制御部46は、操作画面SGにおいて基準撮影画像KGの1つの分割エリアが選択されている場合、基準撮影画像KG内の選択されている分割エリアに表示する部分画像BGを、複数の撮影画像の中の差し替え候補となる複数の部分画像BGの何れかに選択的に差し替える合成処理を行う。 Further, when one divided area of the reference captured image KG is selected on the operation screen SG, the display control unit 46 selects a plurality of partial images BG to be displayed in the selected divided area within the reference captured image KG. Synthesis processing is performed to selectively replace any one of a plurality of partial images BG serving as replacement candidates in the captured image.

図4に、操作画面SGの一例を示す。操作画面SGは、基準撮影画像KGと、基準撮影画像KG上に重畳されて表示される後述するシークバーSBとを含む画面である。図4では、各撮影画像に4人の被写体が写っている例を示している。また、図4の破線は、各分割エリアの境界線を示している。 FIG. 4 shows an example of the operation screen SG. The operation screen SG is a screen including a reference photographed image KG and a seek bar SB described later superimposed on the reference photographed image KG. FIG. 4 shows an example in which four subjects are shown in each photographed image. Also, dashed lines in FIG. 4 indicate boundaries of the divided areas.

図4に示すように、表示制御部46は、操作画面SGにおいて、差し替え候補となる複数の部分画像BGの中から、1枚の部分画像BGを選択するための操作オブジェクトの一例としてのシークバーSBを表示する制御を行う。本実施形態では、表示制御部46は、各分割エリアに対応するシークバーSBを、分割エリア内のそれぞれに表示する制御を行う。図4の例では、シークバーSBが、各分割エリアの下部に表示されている例を示している。シークバーSBの表示位置は、各分割エリア内の下部以外の位置でもよいし、分割エリア毎に異なる位置でもよいし、分割エリア外の位置でもよい。シークバーSBを分割エリア外に表示する場合は、シークバーSBと分割エリアとの対応関係を示すマーク又は番号等を表示することが好ましい。 As shown in FIG. 4, the display control unit 46 displays a seek bar SB as an example of an operation object for selecting one partial image BG from a plurality of partial images BG serving as replacement candidates on the operation screen SG. to control the display. In this embodiment, the display control unit 46 performs control to display the seek bar SB corresponding to each divided area in each divided area. The example of FIG. 4 shows an example in which the seek bar SB is displayed at the bottom of each divided area. The display position of the seek bar SB may be a position other than the lower part in each divided area, a different position for each divided area, or a position outside the divided area. When the seek bar SB is displayed outside the divided area, it is preferable to display a mark, number, or the like indicating the correspondence between the seek bar SB and the divided area.

シークバーSBは、時系列の複数の撮影画像から1枚の部分画像BGを選択するための操作オブジェクトである。本実施形態では、シークバーSBの時系列方向を操作画面SGの左右方向としている。ユーザは、何れか1つのシークバーSBのスライダSDを時系列方向に動かすことによって、差し替え対象となる分割エリアの部分画像BGを選択し、かつ差し替え候補となる複数の部分画像BGの何れかを選択する。ここでいう差し替え候補となる複数の部分画像BGとは、操作画面SGに表示中(すなわち、スライダSDによって選択中)の部分画像BGとは異なるタイミングで撮影された複数の撮影画像それぞれの同じ分割エリアに対応する部分画像BGである。すなわち、シークバーSB上のスライダSDの位置が、時系列の複数の撮影画像の中における、選択された部分画像BGを含む撮影画像の撮影タイミングを表す。 The seek bar SB is an operation object for selecting one partial image BG from a plurality of time-series captured images. In this embodiment, the time-series direction of the seek bar SB is the horizontal direction of the operation screen SG. The user selects the partial image BG of the divided area to be replaced by moving the slider SD of any one of the seek bars SB in the time-series direction, and selects one of the plurality of partial images BG as replacement candidates. do. The plurality of partial images BG as replacement candidates here means the same division of each of the plurality of captured images captured at different timings than the partial image BG being displayed on the operation screen SG (that is, selected by the slider SD). A partial image BG corresponding to the area. That is, the position of the slider SD on the seek bar SB indicates the shooting timing of the shot image including the selected partial image BG among the plurality of time-series shot images.

表示制御部46は、操作画面SGに表示中の部分画像BGを、シークバーSBのスライダSDによって選択された部分画像BGに差し替える合成処理を行う。なお、表示制御部46は、この合成処理後に、操作画面SGにおける各分割画像の境界部分を滑らかにすることによって目立たなくさせる画像処理を行ってもよい。 The display control unit 46 performs synthesis processing to replace the partial image BG being displayed on the operation screen SG with the partial image BG selected by the slider SD of the seek bar SB. Note that the display control unit 46 may perform image processing for smoothing the boundary portions of the divided images on the operation screen SG so as to make them inconspicuous after the synthesizing processing.

スライダSDの操作に連動して、選択される部分画像BGが切り替わる。これにより、図5に示すように、ユーザは、シークバーSBのスライダSDを左右方向に動かすことによって、例えば、被写体全員が最も笑顔になっている部分画像BGを選択することができる。図5においては、図4とはスライダSDの位置が異なっており、図4の部分画像BGが差し替えられた状態を示している。本実施形態では、ユーザは、シークバーSBのスライダSDを左右方向に動かしながら、表示制御部46による合成処理によって操作画面SG内でスライダSDの位置に応じて部分画像BGが差し替えられた合成画像を視認することができる。この結果、ユーザが部分画像BGを適切に選択することができる。 The selected partial image BG is switched in conjunction with the operation of the slider SD. As a result, as shown in FIG. 5, the user can select, for example, the partial image BG in which all the subjects are smiling the most by moving the slider SD of the seek bar SB in the horizontal direction. In FIG. 5, the position of the slider SD is different from that in FIG. 4, and the partial image BG in FIG. 4 is replaced. In this embodiment, while moving the slider SD of the seek bar SB in the left-right direction, the user displays a synthesized image in which the partial image BG is replaced in accordance with the position of the slider SD within the operation screen SG by the synthesizing process by the display control unit 46. can be visually recognized. As a result, the user can appropriately select the partial image BG.

なお、図6に示すように、表示制御部46は、操作画面SGにおいて何れの分割エリアも選択されてない場合は、シークバーSBを表示しなくてもよい。この場合、図7に示すように、表示制御部46は、操作画面SGにおいて1つの分割エリアが選択された場合に、操作画面SGの全ての分割エリアのうち選択された1つの分割エリアのみに対応するシークバーSBを表示する制御を行う。図7では、左上の分割エリアが選択されている例を示している。この形態例におけるユーザが分割エリアを選択する操作の例としては、分割エリア内の何れかの位置をタップする操作、分割エリア内の何れかの位置にカーソルを合わせる操作、及び分割エリアに予め割り当てられた番号をキーボードから入力する操作等が挙げられる。 Note that, as shown in FIG. 6, the display control unit 46 does not have to display the seek bar SB when none of the divided areas is selected on the operation screen SG. In this case, as shown in FIG. 7, when one divided area is selected on the operation screen SG, the display control unit 46 displays only one divided area selected among all the divided areas of the operation screen SG. Control is performed to display the corresponding seek bar SB. FIG. 7 shows an example in which the upper left divided area is selected. Examples of operations for the user to select a divided area in this embodiment include an operation of tapping any position within the divided area, an operation of moving the cursor to any position within the divided area, and an operation previously assigned to a divided area. For example, an operation of inputting the assigned number from the keyboard.

次に、図8を参照して、本実施形態に係る画像処理装置12の作用を説明する。CPU20が画像処理プログラム30を実行することによって、図8に示す画像表示処理が実行される。画像表示処理は、例えば、ユーザによって入力部24を介して実行指示が入力された場合に実行される。 Next, the operation of the image processing device 12 according to this embodiment will be described with reference to FIG. The image display processing shown in FIG. 8 is executed by the CPU 20 executing the image processing program 30 . The image display process is executed, for example, when the user inputs an execution instruction via the input unit 24 .

図8のステップS10で、取得部40は、撮影装置14が複数の被写体を連続的に撮影して得られた複数の撮影画像であり、それぞれが複数の被写体を含む撮影画像を、通信I/F25を介して取得する。ステップS12で、検出部42は、前述したように、ステップS10で取得された複数の撮影画像のうちの1枚である基準撮影画像KGに対して、公知の顔検出処理を行うことによって複数の被写体のそれぞれの顔領域を検出する。 In step S10 of FIG. 8, the acquiring unit 40 acquires a plurality of photographed images obtained by continuously photographing a plurality of subjects with the photographing device 14, each of which includes a plurality of subjects. Obtained via F25. In step S12, as described above, the detection unit 42 performs known face detection processing on the reference captured image KG, which is one of the plurality of captured images acquired in step S10, to obtain a plurality of images. Detect each face region of the subject.

ステップS14で、分割部44は、前述したように、基準撮影画像KGを、ステップS12で検出された複数の顔領域をそれぞれ含み、互いに重複しない複数の分割エリアに分割する。ステップS16で、表示制御部46は、前述したように、基準撮影画像KGを含み、かつ、基準撮影画像KG内の複数の被写体のうちの1つを含む分割エリアを選択可能な操作画面SGを表示する制御を行う。 In step S14, the dividing unit 44 divides the reference photographed image KG into a plurality of non-overlapping divided areas each including the plurality of face areas detected in step S12, as described above. In step S16, as described above, the display control unit 46 displays the operation screen SG that includes the reference shot image KG and allows selection of a divided area that includes one of the plurality of subjects in the reference shot image KG. Control the display.

ステップS18で、表示制御部46は、ステップS16で表示された操作画面SGに対するユーザによる操作を受け付けるまで待機する。操作画面SGにおいてユーザによって入力部24を介した操作が行われると、ステップS18の判定が肯定判定となり、処理はステップS20に移行する。 In step S18, the display control unit 46 waits until the user's operation on the operation screen SG displayed in step S16 is accepted. When the user performs an operation on the operation screen SG via the input unit 24, the determination in step S18 becomes a positive determination, and the process proceeds to step S20.

ステップS20で、表示制御部46は、ステップS18で受け付けた操作がシークバーSB上のスライダSDの操作であるか否かを判定する。この判定が肯定判定となった場合は、処理はステップS22に移行する。 In step S20, the display control unit 46 determines whether or not the operation received in step S18 is the operation of the slider SD on the seek bar SB. If this determination is affirmative, the process proceeds to step S22.

ステップS22で、表示制御部46は、前述したように、ユーザが操作したシークバーSBに対応する分割エリアの部分画像BGを、スライダSDの位置に応じた部分画像BGに差し替える合成処理を行う。ステップS22の処理が終了すると、処理はステップS18に戻る。 In step S22, the display control unit 46 performs the synthesizing process of replacing the partial image BG of the divided area corresponding to the seek bar SB operated by the user with the partial image BG corresponding to the position of the slider SD, as described above. When the process of step S22 ends, the process returns to step S18.

一方、ステップS18で受け付けられた操作が操作画面SGの表示終了の操作であった場合、ステップS20の判定が否定判定となり、画像表示処理が終了する。なお、表示制御部46は、表示終了の操作を受け付けたタイミングで操作画面SGに表示中の合成画像を記憶部22に記憶する制御を行ってもよい。また、例えば、表示制御部46は、操作画面SG内に、表示中の合成画像の保存をユーザが指示するための保存ボタンを表示する制御を行ってもよい。 On the other hand, if the operation accepted in step S18 is an operation to end the display of the operation screen SG, the determination in step S20 becomes a negative determination, and the image display process ends. Note that the display control unit 46 may perform control to store the composite image being displayed on the operation screen SG in the storage unit 22 at the timing of receiving the display end operation. Further, for example, the display control unit 46 may perform control to display a save button for the user to instruct saving of the composite image being displayed in the operation screen SG.

以上説明したように、本実施形態によれば、基準撮影画像KG内の分割エリアに表示する部分画像BGを、複数の撮影画像の中の差し替え候補となる複数の部分画像BGの何れかに選択的に差し替える合成処理を行う。従って、ユーザが部分画像を適切に選択することができる。 As described above, according to the present embodiment, the partial image BG to be displayed in the divided area within the reference captured image KG is selected from among the plurality of partial images BG as replacement candidates among the plurality of captured images. Synthesis processing is performed to replace the Therefore, the user can appropriately select a partial image.

[第2実施形態]
開示の技術の第2実施形態を説明する。なお、本実施形態に係る画像処理システム10の構成及び画像処理装置12のハードウェア構成は、第1実施形態と同一であるため、説明を省略する。
[Second embodiment]
A second embodiment of the disclosed technology will be described. Note that the configuration of the image processing system 10 and the hardware configuration of the image processing apparatus 12 according to the present embodiment are the same as those of the first embodiment, so descriptions thereof will be omitted.

図9を参照して、本実施形態に係る画像処理装置12の機能的な構成について説明する。なお、第1実施形態に係る画像処理装置12の機能部と同一の機能を有する機能部については、同一の符号を付して説明を省略する。図9に示すように、画像処理装置12は、取得部40、検出部42、分割部44、表示制御部46A、及び算出部48を含む。CPU20が画像処理プログラム30を実行することで、取得部40、検出部42、分割部44、表示制御部46A、及び算出部48として機能する。 A functional configuration of the image processing apparatus 12 according to the present embodiment will be described with reference to FIG. Note that functional units having the same functions as the functional units of the image processing apparatus 12 according to the first embodiment are denoted by the same reference numerals, and descriptions thereof are omitted. As shown in FIG. 9, the image processing device 12 includes an acquisition unit 40, a detection unit 42, a division unit 44, a display control unit 46A, and a calculation unit 48. The CPU 20 executes the image processing program 30 to function as an acquisition unit 40 , a detection unit 42 , a division unit 44 , a display control unit 46A, and a calculation unit 48 .

算出部48は、各部分画像BGの選択基準を示す指標値を算出する。本実施形態では、指標値として、被写体の複数の感情(例えば、喜怒哀楽)のうちの何れか1つの感情を表す度合いとして、被写体が楽しんでいる度合い(以下、「楽しみ度」という)を適用した例を説明する。具体的には、画像処理装置12は、各撮影画像の各被写体の顔領域の部分と、ディープラーニング等のAI(Artificial Intelligence)技術によって得られた学習済みモデルとを用いて、各撮影画像における各被写体の楽しみ度を算出する。この学習済みモデルとしては、例えば、人の顔領域の画像を入力とし、被写体が楽しんでいる度合いを出力としたディープニューラルネットワークが挙げられる。なお、各部分画像BGの選択基準を示す指標値は、楽しみ度以外の被写体の感情を表す度合いでもよいし、被写体の合焦の度合いでもよい。また、各部分画像BGの選択基準を示す指標値は、撮影画像のブレを表す値でもよいし、被写体の血色の度合いでもよいし、被写体の姿勢を表す度合い(例えば、被写体が正面を向いている度合い)でもよい。 The calculator 48 calculates an index value indicating a selection criterion for each partial image BG. In the present embodiment, the degree of enjoyment of the subject (hereinafter referred to as "enjoyment level") is used as the index value as the degree of expression of any one of a plurality of emotions (e.g., emotions) of the subject. An applied example will be described. Specifically, the image processing device 12 uses a face region of each subject in each captured image and a trained model obtained by AI (Artificial Intelligence) technology such as deep learning to perform The degree of enjoyment of each subject is calculated. As this trained model, for example, there is a deep neural network that takes an image of a person's face region as input and outputs the degree of enjoyment of the subject. Note that the index value indicating the selection criteria for each partial image BG may be the degree of expression of the subject's emotion other than the degree of enjoyment, or may be the degree of focus of the subject. The index value indicating the selection criteria for each partial image BG may be a value representing blurring of the captured image, a degree of complexion of the subject, or a degree representing the posture of the subject (for example, when the subject is facing forward). degree of presence) may be used.

表示制御部46Aは、第1実施形態に係る表示制御部46が有する機能に加えて、更に以下の機能を有する。図10に示すように、表示制御部46Aは、シークバーSBの時系列方向と交差(本実施形態では直交)する方向(図10の例では上下方向)に対する長さを、各部分画像BGについて算出部48により算出された指標値の大きさに応じた長さにしてシークバーSBを表示する制御を行う。図10では、各撮影画像の各部分画像BGについて算出された楽しみ度が高いほど、その撮影画像の撮影タイミングに応じた位置のシークバーSBの長さが長くなっている例を示している。これにより、ユーザは、指標値の大きさを容易に把握することができる結果、例えば、楽しみ度が最も高い部分画像BGを容易に選択することができる。 The display control unit 46A has the following functions in addition to the functions of the display control unit 46 according to the first embodiment. As shown in FIG. 10, the display control unit 46A calculates the length of each partial image BG in a direction (vertical direction in the example of FIG. 10) that intersects (perpendicularly in this embodiment) the time series direction of the seek bar SB. Control is performed to display the seek bar SB with a length corresponding to the size of the index value calculated by the unit 48 . FIG. 10 shows an example in which the higher the degree of enjoyment calculated for each partial image BG of each captured image, the longer the length of the seek bar SB at the position corresponding to the capturing timing of that captured image. As a result, the user can easily grasp the magnitude of the index value, and as a result, can easily select, for example, the partial image BG with the highest degree of enjoyment.

次に、図11を参照して、本実施形態に係る画像処理装置12の作用を説明する。CPU20が画像処理プログラム30を実行することによって、図11に示す画像表示処理が実行される。画像表示処理は、例えば、ユーザによって入力部24を介して実行指示が入力された場合に実行される。図11における図8と同一の処理を実行するステップについては、同一のステップ番号を付して説明を省略する。 Next, the operation of the image processing device 12 according to this embodiment will be described with reference to FIG. The image display processing shown in FIG. 11 is executed by the CPU 20 executing the image processing program 30 . The image display process is executed, for example, when the user inputs an execution instruction via the input unit 24 . Steps in FIG. 11 that execute the same processing as in FIG. 8 are given the same step numbers and descriptions thereof are omitted.

図11では、図8のステップS16の代わりにステップS16Aが実行され、ステップS14とステップS16Aの間でステップS15が実行される。 In FIG. 11, step S16A is executed instead of step S16 of FIG. 8, and step S15 is executed between step S14 and step S16A.

図11のステップS15で、算出部48は、前述したように、各部分画像BGの選択基準を示す指標値を算出する。ステップS16Aで、表示制御部46Aは、前述したように、基準撮影画像KGを含み、かつ、基準撮影画像KG内の複数の被写体のうちの1つを含む分割エリアを選択可能な操作画面SGを表示する制御を行う。この際、表示制御部46Aは、シークバーSBの時系列方向と交差する方向に対する長さを、各部分画像BGについてステップS15で算出された指標値の大きさに応じた長さにしてシークバーSBを表示する制御を行う。 In step S15 of FIG. 11, the calculator 48 calculates an index value indicating a selection criterion for each partial image BG, as described above. In step S16A, as described above, the display control unit 46A displays the operation screen SG that includes the reference shot image KG and allows selection of a divided area that includes one of the plurality of subjects in the reference shot image KG. Control the display. At this time, the display control unit 46A sets the length of the seek bar SB in the direction intersecting the time-series direction to a length corresponding to the size of the index value calculated in step S15 for each partial image BG, and displays the seek bar SB. Control the display.

以上説明したように、本実施形態によれば、第1実施形態と同様の効果を奏することができる。 As described above, according to this embodiment, the same effects as those of the first embodiment can be obtained.

なお、上記第2実施形態において、表示制御部46Aは、被写体の複数の感情の中から、各部分画像BGの選択基準として用いられる指標値を表す感情を選択するための操作オブジェクトを更に表示する制御を行ってもよい。この場合、表示制御部46Aは、操作オブジェクトの一例として、図12に示す感情を選択するためのボタンBTを表示する。ユーザは、ボタンBTを指定することによって、各部分画像BGの選択基準として用いられる指標値を表す感情を切り替えることができる。この形態例では、算出部48は、指標値として、ボタンBTの操作によって指定された被写体の感情を表す度合いを算出する。また、この形態例において、シークバーSBの時系列方向と交差する方向に対する長さを第1実施形態のように一定の長さとしてもよい。 In the above-described second embodiment, the display control unit 46A further displays an operation object for selecting an emotion representing an index value used as a selection criterion for each partial image BG from among a plurality of emotions of the subject. may be controlled. In this case, the display control unit 46A displays buttons BT for selecting emotions shown in FIG. 12 as an example of an operation object. By designating the button BT, the user can switch the emotion representing the index value used as the selection criterion for each partial image BG. In this form example, the calculator 48 calculates, as the index value, the degree of expression of the emotion of the subject designated by the operation of the button BT. Also, in this embodiment, the length of the seek bar SB in the direction intersecting with the time-series direction may be a constant length as in the first embodiment.

また、上記第2実施形態において、図13に示すように、表示制御部46Aは、各分割エリアに対応する部分画像BGについて算出部48により算出された指標値を、部分画像BGに対応する位置に更に表示する制御を行ってもよい。図13では、指標値を表す数字が、各部分画像BGに対応する分割エリアの右上に表示されている例を示している。また、図13の例では、表示制御部46Aは、指標値を0以上100以下の値に正規化し、指標値を表す数字とともに円グラフを表示する制御を行っている。また、この形態例において、シークバーSBの時系列方向と交差する方向に対する長さを第1実施形態のように一定の長さとしてもよい。 Further, in the second embodiment, as shown in FIG. 13, the display control unit 46A sets the index value calculated by the calculation unit 48 for the partial image BG corresponding to each divided area to the position corresponding to the partial image BG. may be controlled to display further. FIG. 13 shows an example in which numbers representing index values are displayed on the upper right of the divided areas corresponding to the partial images BG. Further, in the example of FIG. 13, the display control unit 46A normalizes the index value to a value between 0 and 100, and performs control to display the pie chart together with the numbers representing the index value. Also, in this embodiment, the length of the seek bar SB in the direction intersecting with the time-series direction may be a constant length as in the first embodiment.

また、上記各実施形態では、各分割エリアに対応する部分画像BGを差し替える場合について説明したが、これに限定されない。各被写体を含む部分画像BGにおける顔領域の部分のみを差し替える形態としてもよい。 Also, in each of the above-described embodiments, the case of replacing the partial image BG corresponding to each divided area has been described, but the present invention is not limited to this. Alternatively, only the face area of the partial image BG containing each subject may be replaced.

また、上記各実施形態において、例えば、取得部40、検出部42、分割部44、表示制御部46、46A、及び算出部48といった各種の処理を実行する処理部(processing unit)のハードウェア的な構造としては、次に示す各種のプロセッサ(processor)を用いることができる。上記各種のプロセッサには、前述したように、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPUに加えて、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。 Further, in each of the above-described embodiments, for example, hardware of a processing unit (processing unit) that executes various processes such as the acquisition unit 40, the detection unit 42, the division unit 44, the display control units 46 and 46A, and the calculation unit 48 As a suitable structure, the following various processors can be used. As described above, the various processors include, in addition to the CPU, which is a general-purpose processor that executes software (programs) and functions as various processing units, circuits such as FPGA (Field Programmable Gate Array) are manufactured. Programmable Logic Device (PLD), which is a processor whose configuration can be changed, ASIC (Application Specific Integrated Circuit), etc. Circuits, etc. are included.

1つの処理部は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種又は異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせや、CPUとFPGAとの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。 One processing unit may be composed of one of these various processors, or a combination of two or more processors of the same type or different types (for example, a combination of multiple FPGAs, a combination of a CPU and an FPGA). combination). Also, a plurality of processing units may be configured by one processor.

複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアント及びサーバ等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサの1つ以上を用いて構成される。 As an example of configuring a plurality of processing units with a single processor, first, as represented by computers such as clients and servers, a single processor is configured by combining one or more CPUs and software. There is a form in which a processor functions as multiple processing units. Secondly, as typified by System On Chip (SoC), etc., there is a form of using a processor that realizes the functions of the entire system including multiple processing units with a single IC (Integrated Circuit) chip. be. In this way, the various processing units are configured using one or more of the above various processors as a hardware structure.

更に、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子などの回路素子を組み合わせた電気回路(circuitry)を用いることができる。 Furthermore, as the hardware structure of these various processors, more specifically, an electric circuit (circuitry) in which circuit elements such as semiconductor elements are combined can be used.

また、上記各実施形態では、画像処理プログラム30が記憶部22に予め記憶(インストール)されている態様を説明したが、これに限定されない。画像処理プログラム30は、CD-ROM(Compact Disc Read Only Memory)、DVD-ROM(Digital Versatile Disc Read Only Memory)、及びUSB(Universal Serial Bus)メモリ等の記録媒体に記録された形態で提供されてもよい。また、画像処理プログラム30は、ネットワークを介して外部装置からダウンロードされる形態としてもよい。 Further, in each of the above-described embodiments, the image processing program 30 has been pre-stored (installed) in the storage unit 22, but the present invention is not limited to this. The image processing program 30 is provided in a form recorded in a recording medium such as a CD-ROM (Compact Disc Read Only Memory), a DVD-ROM (Digital Versatile Disc Read Only Memory), and a USB (Universal Serial Bus) memory. good too. Also, the image processing program 30 may be downloaded from an external device via a network.

10 画像処理システム
12 画像処理装置
14 撮影装置
20 CPU
21 メモリ
22 記憶部
23 ディスプレイ
24 入力部
25 通信I/F
26 バス
30 画像処理プログラム
40 取得部
42 検出部
44 分割部
46、46A 表示制御部
48 算出部
BG 部分画像
BT ボタン
KG 基準撮影画像
SB シークバー
SD スライダ
SG 操作画面
10 image processing system 12 image processing device 14 photographing device 20 CPU
21 memory 22 storage unit 23 display 24 input unit 25 communication I/F
26 bus 30 image processing program 40 acquisition unit 42 detection unit 44 division unit 46, 46A display control unit 48 calculation unit BG partial image BT button KG reference captured image SB seek bar SD slider SG operation screen

Claims (8)

少なくとも一つのプロセッサを備える画像処理装置であって、
前記プロセッサは、
連続的に撮影して得られた複数の撮影画像であり、それぞれが複数の被写体を含む撮影画像を取得し、
前記複数の撮影画像のうちの1枚である基準撮影画像を含み、かつ、前記基準撮影画像内の複数の前記被写体のうちの1つを含むエリアを選択可能な操作画面であって、前記エリアに対応する部分画像を、前記複数の撮影画像のうち前記基準撮影画像とは別のタイミングで撮影された撮影画像の前記エリアに対応する部分画像に差し替える合成処理を行うための操作画面を表示する制御を行い、
前記操作画面において、差し替え候補となる複数の部分画像の中から、1枚の前記部分画像を選択するための操作オブジェクトとして、時系列の前記複数の撮影画像から1枚の前記部分画像を選択するためのシークバーを表示する制御を行い、
前記シークバーを表示する制御において、各部分画像の選択基準を示す指標値を算出し、前記シークバーの時系列方向と交差する方向に対する長さを、前記部分画像の選択基準を示す指標値の大きさに応じた長さにして前記シークバーを表示する制御を行い、
前記操作画面において前記基準撮影画像の1つの前記エリアが選択されている場合、前記基準撮影画像内の選択されている前記エリアに表示する前記部分画像を、複数の撮影画像の中の差し替え候補となる複数の部分画像の何れかに選択的に差し替える合成処理を行う
画像処理装置。
An image processing device comprising at least one processor,
The processor
Obtaining a plurality of photographed images obtained by continuously photographing, each of which includes a plurality of subjects,
An operation screen that includes a reference captured image that is one of the plurality of captured images and is capable of selecting an area that includes one of the plurality of subjects in the reference captured image, wherein the area display an operation screen for performing a synthesizing process of replacing a partial image corresponding to the area with a partial image corresponding to the area of a photographed image taken at a timing different from the reference photographed image among the plurality of photographed images. take control,
On the operation screen, one partial image is selected from the plurality of time-series captured images as an operation object for selecting one partial image from among the plurality of partial images that are candidates for replacement. control to display the seek bar for
In controlling the display of the seek bar, an index value indicating a selection criterion for each partial image is calculated, and the length of the seek bar in a direction intersecting the time-series direction is set to the magnitude of the index value indicating the selection criterion for the partial image. Control to display the seek bar with a length according to
When one area of the reference captured image is selected on the operation screen, the partial image displayed in the selected area within the reference captured image is a candidate for replacement among a plurality of captured images. 1. An image processing device that performs composition processing for selectively replacing any one of a plurality of partial images.
前記プロセッサは、少なくとも1つの前記エリアに対応する前記操作オブジェクトを表示する制御を行う
請求項に記載の画像処理装置。
The image processing apparatus according to claim 1 , wherein the processor controls display of the operation object corresponding to at least one of the areas.
前記プロセッサは、前記操作画面において1つの前記エリアが選択された場合に、前記操作画面の全てのエリアのうち選択された1つの前記エリアのみに対応する前記操作オブジェクトを表示する制御を行う
請求項に記載の画像処理装置。
The processor, when one of the areas is selected on the operation screen, controls to display the operation object corresponding to only one of the areas selected from among all areas of the operation screen. 3. The image processing apparatus according to 2 .
前記プロセッサは、前記部分画像に対応する位置に前記指標値を更に表示する制御を行う
請求項1から請求項の何れか1項に記載の画像処理装置。
4. The image processing apparatus according to any one of claims 1 to 3, wherein the processor performs control to further display the index value at a position corresponding to the partial image.
前記指標値は、前記被写体の複数の感情のうちの何れか1つの感情を表す度合い、前記被写体の合焦の度合い、撮影画像のブレを表す値、前記被写体の血色の度合い、又は前記被写体の姿勢を表す度合いの中の1つである
請求項1から請求項4の何れか1項に記載の画像処理装置。
The index value is a degree of expression of any one of a plurality of emotions of the subject, a degree of focus of the subject, a value indicating blurring of a captured image, a degree of complexion of the subject, or 5. The image processing apparatus according to any one of claims 1 to 4, wherein the degree is one of degrees representing posture.
前記指標値は、前記被写体の複数の感情のうちの何れか1つの感情を表す度合いであり、
前記プロセッサは、前記複数の感情の中から、選択基準として用いられる前記指標値を表す感情を選択するための操作オブジェクトを更に表示する制御を行う
請求項から請求項の何れか1項に記載の画像処理装置。
the index value is a degree of expression of any one of a plurality of emotions of the subject;
6. The processor according to any one of claims 1 to 5 , wherein the processor performs control to further display an operation object for selecting an emotion representing the index value used as a selection criterion from among the plurality of emotions. The described image processing device.
連続的に撮影して得られた複数の撮影画像であり、それぞれが複数の被写体を含む撮影画像を取得し、
前記複数の撮影画像のうちの1枚である基準撮影画像を含み、かつ、前記基準撮影画像内の複数の前記被写体のうちの1つを含むエリアを選択可能な操作画面であって、前記エリアに対応する部分画像を、前記複数の撮影画像のうち前記基準撮影画像とは別のタイミングで撮影された撮影画像の前記エリアに対応する部分画像に差し替える合成処理を行うための操作画面を表示する制御を行い、
前記操作画面において、差し替え候補となる複数の部分画像の中から、1枚の前記部分画像を選択するための操作オブジェクトとして、時系列の前記複数の撮影画像から1枚の前記部分画像を選択するためのシークバーを表示する制御を行い、
前記シークバーを表示する制御において、各部分画像の選択基準を示す指標値を算出し、前記シークバーの時系列方向と交差する方向に対する長さを、前記部分画像の選択基準を示す指標値の大きさに応じた長さにして前記シークバーを表示する制御を行い、
前記操作画面において前記基準撮影画像の1つの前記エリアが選択されている場合、前記基準撮影画像内の選択されている前記エリアに表示する前記部分画像を、複数の撮影画像の中の差し替え候補となる複数の部分画像の何れかに選択的に差し替える合成処理を行う
処理を画像処理装置が備えるプロセッサが実行する画像処理方法。
Obtaining a plurality of photographed images obtained by continuously photographing, each of which includes a plurality of subjects,
An operation screen that includes a reference captured image that is one of the plurality of captured images and is capable of selecting an area that includes one of the plurality of subjects in the reference captured image, wherein the area display an operation screen for performing a synthesizing process of replacing a partial image corresponding to the area with a partial image corresponding to the area of a photographed image taken at a timing different from the reference photographed image among the plurality of photographed images. take control,
On the operation screen, one partial image is selected from the plurality of time-series captured images as an operation object for selecting one partial image from among the plurality of partial images that are candidates for replacement. control to display the seek bar for
In controlling the display of the seek bar, an index value indicating a selection criterion for each partial image is calculated, and the length of the seek bar in a direction intersecting the time-series direction is set to the magnitude of the index value indicating the selection criterion for the partial image. Control to display the seek bar with a length according to
When one area of the reference captured image is selected on the operation screen, the partial image displayed in the selected area within the reference captured image is a candidate for replacement among a plurality of captured images. An image processing method in which a processor included in an image processing apparatus executes a synthesis process for selectively replacing any one of a plurality of partial images.
連続的に撮影して得られた複数の撮影画像であり、それぞれが複数の被写体を含む撮影画像を取得し、
前記複数の撮影画像のうちの1枚である基準撮影画像を含み、かつ、前記基準撮影画像内の複数の前記被写体のうちの1つを含むエリアを選択可能な操作画面であって、前記エリアに対応する部分画像を、前記複数の撮影画像のうち前記基準撮影画像とは別のタイミングで撮影された撮影画像の前記エリアに対応する部分画像に差し替える合成処理を行うための操作画面を表示する制御を行い、
前記操作画面において、差し替え候補となる複数の部分画像の中から、1枚の前記部分画像を選択するための操作オブジェクトとして、時系列の前記複数の撮影画像から1枚の前記部分画像を選択するためのシークバーを表示する制御を行い、
前記シークバーを表示する制御において、各部分画像の選択基準を示す指標値を算出し、前記シークバーの時系列方向と交差する方向に対する長さを、前記部分画像の選択基準を示す指標値の大きさに応じた長さにして前記シークバーを表示する制御を行い、
前記操作画面において前記基準撮影画像の1つの前記エリアが選択されている場合、前記基準撮影画像内の選択されている前記エリアに表示する前記部分画像を、複数の撮影画像の中の差し替え候補となる複数の部分画像の何れかに選択的に差し替える合成処理を行う
処理を画像処理装置が備えるプロセッサに実行させるための画像処理プログラム。
Obtaining a plurality of photographed images obtained by continuously photographing, each of which includes a plurality of subjects,
An operation screen that includes a reference captured image that is one of the plurality of captured images and is capable of selecting an area that includes one of the plurality of subjects in the reference captured image, wherein the area display an operation screen for performing a synthesizing process of replacing a partial image corresponding to the area with a partial image corresponding to the area of a photographed image taken at a timing different from the reference photographed image among the plurality of photographed images. take control,
On the operation screen, one partial image is selected from the plurality of time-series captured images as an operation object for selecting one partial image from among the plurality of partial images that are candidates for replacement. control to display the seek bar for
In controlling the display of the seek bar, an index value indicating a selection criterion for each partial image is calculated, and the length of the seek bar in a direction intersecting the time-series direction is set to the magnitude of the index value indicating the selection criterion for the partial image. Control to display the seek bar with a length according to
When one area of the reference captured image is selected on the operation screen, the partial image displayed in the selected area within the reference captured image is a candidate for replacement among a plurality of captured images. An image processing program for causing a processor included in an image processing apparatus to perform a synthesis process for selectively replacing any of a plurality of partial images.
JP2020050136A 2020-03-19 2020-03-19 Image processing device, image processing method, and image processing program Active JP7247136B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020050136A JP7247136B2 (en) 2020-03-19 2020-03-19 Image processing device, image processing method, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020050136A JP7247136B2 (en) 2020-03-19 2020-03-19 Image processing device, image processing method, and image processing program

Publications (2)

Publication Number Publication Date
JP2021150865A JP2021150865A (en) 2021-09-27
JP7247136B2 true JP7247136B2 (en) 2023-03-28

Family

ID=77849565

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020050136A Active JP7247136B2 (en) 2020-03-19 2020-03-19 Image processing device, image processing method, and image processing program

Country Status (1)

Country Link
JP (1) JP7247136B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113347355A (en) * 2021-05-28 2021-09-03 维沃移动通信(杭州)有限公司 Image processing method and device and electronic equipment

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011135267A (en) 2009-12-24 2011-07-07 Nikon Corp Image editing apparatus, electronic camera, and image editing program
JP2013196417A (en) 2012-03-21 2013-09-30 Dainippon Printing Co Ltd Image display device, image display method and program
WO2017022286A1 (en) 2015-08-03 2017-02-09 ソニー株式会社 Information processing system, information processing method, and recording medium
JP2017135737A (en) 2013-04-24 2017-08-03 株式会社モルフォ Image processing system, image processing method, and program
JP2019057862A (en) 2017-09-22 2019-04-11 キヤノン株式会社 Image processing apparatus and image processing method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011135267A (en) 2009-12-24 2011-07-07 Nikon Corp Image editing apparatus, electronic camera, and image editing program
JP2013196417A (en) 2012-03-21 2013-09-30 Dainippon Printing Co Ltd Image display device, image display method and program
JP2017135737A (en) 2013-04-24 2017-08-03 株式会社モルフォ Image processing system, image processing method, and program
WO2017022286A1 (en) 2015-08-03 2017-02-09 ソニー株式会社 Information processing system, information processing method, and recording medium
JP2019057862A (en) 2017-09-22 2019-04-11 キヤノン株式会社 Image processing apparatus and image processing method

Also Published As

Publication number Publication date
JP2021150865A (en) 2021-09-27

Similar Documents

Publication Publication Date Title
JP3847753B2 (en) Image processing apparatus, image processing method, recording medium, computer program, semiconductor device
JP4961965B2 (en) Subject tracking program, subject tracking device, and camera
JP5928386B2 (en) Display control apparatus, display control method, and program
JP6024728B2 (en) Detection apparatus, detection method, and program
JP6652039B2 (en) Imaging device, imaging method, and program
CN105991928B (en) Image processing apparatus and image processing method
JP2007142565A (en) Imaging apparatus and method thereof
JP7247136B2 (en) Image processing device, image processing method, and image processing program
EP3355243A1 (en) Information processing apparatus, information processing method, and program
JP4596929B2 (en) Background image generation apparatus and background image generation program
US9641757B2 (en) Image processing apparatus that sets moving image area, image pickup apparatus, and method of controlling image processing apparatus
JP2010079651A (en) Movement recognition device, method and program
JP5521591B2 (en) Image display device and program
JP2006294066A (en) Image processor, image processing method, recording medium, computer program, and semiconductor device
JP6452738B2 (en) Image processing apparatus, image processing method, and program
JP2010097449A (en) Image composition device, image composition method and image composition program
JP2019191661A (en) Image processing apparatus, imaging device, image processing method, and program
JP2021105850A (en) Image processing device and method, and imaging device
JP5404172B2 (en) Image processing apparatus, control method thereof, and program
JP6318535B2 (en) Imaging device
JP5434096B2 (en) Digital camera
KR102497593B1 (en) Information processing device, information processing method, and storage medium
JP5921236B2 (en) Image processing apparatus and method, photographing apparatus
JP6905417B2 (en) Image processing device, image processing method, angle detection device, angle detection method and program
JP5267183B2 (en) Image layout apparatus and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220124

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220909

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220920

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221017

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230315

R150 Certificate of patent or registration of utility model

Ref document number: 7247136

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150