JP2020048117A - Image providing system - Google Patents
Image providing system Download PDFInfo
- Publication number
- JP2020048117A JP2020048117A JP2018176417A JP2018176417A JP2020048117A JP 2020048117 A JP2020048117 A JP 2020048117A JP 2018176417 A JP2018176417 A JP 2018176417A JP 2018176417 A JP2018176417 A JP 2018176417A JP 2020048117 A JP2020048117 A JP 2020048117A
- Authority
- JP
- Japan
- Prior art keywords
- image
- background
- unit
- defect area
- corrected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 239000002131 composite material Substances 0.000 claims abstract description 73
- 230000007547 defect Effects 0.000 claims description 29
- 230000002950 deficient Effects 0.000 claims description 27
- 238000003384 imaging method Methods 0.000 claims description 4
- 238000010422 painting Methods 0.000 claims description 3
- 238000000034 method Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 230000015572 biosynthetic process Effects 0.000 description 6
- 238000003786 synthesis reaction Methods 0.000 description 6
- 238000006243 chemical reaction Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 239000007787 solid Substances 0.000 description 3
- 230000006870 function Effects 0.000 description 2
- 239000003086 colorant Substances 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Landscapes
- Cameras Adapted For Combination With Other Photographic Or Optical Apparatuses (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Processing Of Color Television Signals (AREA)
- Editing Of Facsimile Originals (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、撮影画像をユーザに提供する画像提供システムに関する。 The present invention relates to an image providing system that provides a photographed image to a user.
従来、履歴書等に貼付するための証明写真等を撮影してユーザに提供するための画像提供システムが知られている。このような画像提供システムは人物を撮影し、用途に応じた様々なサイズの写真をプリントして出力する。従来の画像提供システムでは、人物を単一の背景の前に座らせて撮影を行っていた。そのため、写真の背景色を変えるには、背景を貼り替える必要があった。 2. Description of the Related Art Conventionally, there is known an image providing system for photographing an ID photograph or the like to be attached to a resume and providing the photograph to a user. Such an image providing system shoots a person, prints and outputs photographs of various sizes according to the purpose. In a conventional image providing system, a person is photographed while sitting in front of a single background. Therefore, to change the background color of a photograph, it was necessary to replace the background.
また、クロマキー合成を用いた画像処理により、人物画像に背景画像を合成してプリント出力する装置が知られている(例えば特許文献1参照)。利用者は、あらかじめ準備されている様々な背景画像から所望の画像を選択することができる。 Also, there is known an apparatus that synthesizes a background image with a person image by image processing using chroma key synthesis and prints out the image (for example, see Patent Document 1). The user can select a desired image from various background images prepared in advance.
クロマキー合成では、撮影画像における人物部分と背景部分とを分離し、人物部分のみを切り抜く。そして撮影画像の人物部分と背景画像を合成して合成画像を生成する。この場合、撮影画像の背景を除くことになるが、撮影画像中の背景は一般に同一色をもつものの、必ずしもすべてが同一の明度をもつとは限らず、このように背景が同一色をもっていても異なる明度をもつ場合、画像処理により背景を確実に除くことはできず、合成画像中に元の背景が残って鮮明な合成写真を得ることはできない。 In the chroma key synthesis, a person part and a background part in a captured image are separated, and only the person part is cut out. Then, the synthesized image is generated by synthesizing the person portion of the photographed image and the background image. In this case, the background of the photographed image is removed, but the background in the photographed image generally has the same color, but not all have the same lightness. If the brightness is different, the background cannot be reliably removed by image processing, and the clear background image cannot be obtained because the original background remains in the synthesized image.
本開示の実施の形態はこのような点を考慮してなされたものであり、撮影画像から背景を確実に除くことにより、鮮明な合成画像を得ることができる画像提供システムを提供することを目的とする。 An embodiment of the present disclosure has been made in view of such a point, and has as its object to provide an image providing system capable of obtaining a clear synthesized image by reliably removing a background from a captured image. And
本開示の実施の形態は、背景および被撮影者を撮影し、背景と人物画像を含む撮影画像を生成する撮影装置と、複数の背景画像を格納した記憶部と、背景画像の選択指示を受け付ける指示受付部と、前記撮影画像から前記背景を除き前記人物画像を切り取って、前記指示受付部を介して選択指示された背景画像と前記人物画像とをクロマキー合成して合成画像を作成する画像処理部と、複数の背景画像および前記合成画像を表示する表示部とを備え、前記表示部は前記合成画像の背景画像のうち不具合領域を特定する不具合領域入力部を含み、前記不具合領域入力部に入力された情報に基づいて、前記合成画像を補正して補正合成画像を生成する補正合成画像生成部が設けられ、前記補正合成画像生成部により生成された補正合成画像が前記表示部に表示される、画像提供システムである。 An embodiment of the present disclosure captures an image of a background and a subject, generates a captured image including a background and a person image, a storage unit storing a plurality of background images, and receives a background image selection instruction. An instruction receiving unit, and image processing for cutting out the person image from the photographed image except for the background and chroma-key combining the background image selected and instructed via the instruction receiving unit with the person image to create a combined image And a display unit for displaying a plurality of background images and the composite image, wherein the display unit includes a defect region input unit that specifies a defect region in the background image of the composite image, and the defect region input unit A corrected combined image generation unit that corrects the combined image to generate a corrected combined image based on the input information is provided, and the corrected combined image generated by the corrected combined image generation unit is It is displayed on the radical 113, an image providing system.
本開示の実施の形態は、複数の背景画像を格納した記憶部と、背景画像の選択指示を受け付ける指示受付部と、背景と人物画像を含む撮影画像から前記背景を除き前記人物画像を切り取って、前記指示受付部を介して選択指示された背景画像と前記人物画像とをクロマキー合成して合成画像を作成する画像処理部と、前記合成画像を表示する表示部とを備え、前記表示部は前記合成画像の背景画像のうち不具合領域を特定する不具合領域入力部を含み、前記不具合領域入力部に入力された情報に基づいて、前記合成画像を補正して補正合成画像を生成する補正合成画像生成部が設けられ、前記補正合成画像生成部により生成された補正合成画像が前記表示部に表示される、画像提供システムである。 An embodiment of the present disclosure is a storage unit that stores a plurality of background images, an instruction receiving unit that receives a background image selection instruction, and cuts out the person image except the background from a captured image including a background and a person image. An image processing unit that creates a composite image by chromakeying the background image and the person image selected and instructed via the instruction reception unit, and a display unit that displays the composite image, wherein the display unit is A corrected composite image that includes a defect area input unit that specifies a defect area in the background image of the composite image, and that corrects the composite image to generate a corrected composite image based on information input to the defect area input unit. An image providing system, further comprising a generation unit, wherein the corrected composite image generated by the corrected composite image generation unit is displayed on the display unit.
本開示の実施の形態は、前記補正合成画像生成部は、前記不具合領域入力部により入力された不具合領域に残る背景を除去する、画像提供システムである。 An embodiment of the present disclosure is an image providing system, wherein the corrected combined image generation unit removes a background remaining in a defective area input by the defective area input unit.
本開示の実施の形態は、前記不具合領域入力部は、前記不具合領域の輪郭を描くことにより前記不具合領域を特定し、当該不具合領域が前記表示部に表示される、画像提供システムである。 An embodiment of the present disclosure is the image providing system, wherein the defect area input unit specifies the defect area by drawing an outline of the defect area, and the defect area is displayed on the display unit.
本開示の実施の形態は、前記不具合領域入力部は、前記不具合領域の全域をベタ塗りすることにより前記不具合領域を特定し、当該不具合領域が前記表示部に表示される、画像提供システムである。 An embodiment of the present disclosure is an image providing system in which the defective area input unit specifies the defective area by solid-painting the entirety of the defective area, and the defective area is displayed on the display unit. .
本開示の実施の形態は、前記補正合成画像生成部に接続され、前記補正合成画像を印画物にプリントするプリンタが接続されている、画像提供システムである。 An embodiment of the present disclosure is an image providing system connected to the corrected combined image generation unit and connected to a printer that prints the corrected combined image on a print.
本開示の実施の形態によれば、撮影画像から背景を確実に除くことにより、鮮明な合成画像を得ることができる。 According to the embodiment of the present disclosure, a clear synthesized image can be obtained by reliably removing the background from the captured image.
以下、本発明の実施の形態を図面に基づいて説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
図1Aに本実施形態に係る画像提供システム10の概略構成を示す。また図1Bは撮影画像と、合成画像と、修正合成画像とを示す図である。画像提供システム10は、被撮影者Pを撮影し、背景32と人物画像31とを含む撮影画像30を生成する撮影装置2と、この撮影画像30に対して画像処理を施す演算制御装置1と、印画物(写真)をプリントするプリンタ5とを備える。この画像提供システム10は、撮影画像30から背景32を除き人物画像31を切り抜いて、人物画像31と背景画像33を合成した合成画像35を作成するとともに、合成画像35の不具合領域36を除去する補正を行って、補正合成画像35Aを作成するものである(図1Aおよび図1B参照)。 FIG. 1A shows a schematic configuration of an image providing system 10 according to the present embodiment. FIG. 1B is a diagram showing a captured image, a composite image, and a corrected composite image. The image providing system 10 includes: a photographing device 2 that photographs a subject P to generate a photographed image 30 including a background 32 and a person image 31; an arithmetic control device 1 that performs image processing on the photographed image 30; And a printer 5 for printing a print (photograph). The image providing system 10 cuts out the person image 31 from the photographed image 30 except for the background 32, creates a composite image 35 in which the person image 31 and the background image 33 are combined, and removes a defective area 36 of the combined image 35. The correction is performed to create a corrected composite image 35A (see FIGS. 1A and 1B).
なお、画像提供システム10は必ずしも上記の構成をもつ必要はなく、少なくとも演算制御装置1から画像提供システム10を構成することができ、この場合、画像提供システム10には撮影装置2あるいはプリンタ5を必ずしも設ける必要はない。 It should be noted that the image providing system 10 does not necessarily have to have the above configuration, and the image providing system 10 can be configured from at least the arithmetic and control unit 1. In this case, the image providing system 10 includes the photographing device 2 or the printer 5. It is not necessarily required.
撮影装置2は、例えばデジタルカメラであり、レンズ、シャッタ、CMOSセンサ、A/D変換器等を有する。撮影装置2が被撮影者Pを撮影する場合には、CMOSセンサが、レンズにより収束された撮影光を、シャッタを介して受光すると共に、受光面に結像された光学像を光電変換し、画像信号として出力する。そして、A/D変換器が、CMOSセンサから出力された画像信号をA/D変換し、撮影画像データを生成する。撮影装置2で生成された撮影画像データはメモリ等の媒体を介して演算制御装置1へ送ることができる。 The imaging device 2 is, for example, a digital camera, and includes a lens, a shutter, a CMOS sensor, an A / D converter, and the like. When the photographing device 2 photographs the subject P, the CMOS sensor receives the photographing light converged by the lens through the shutter and photoelectrically converts the optical image formed on the light receiving surface. Output as an image signal. Then, the A / D converter performs A / D conversion on the image signal output from the CMOS sensor to generate captured image data. The photographed image data generated by the photographing device 2 can be sent to the arithmetic and control unit 1 via a medium such as a memory.
また、画像提供システム10は、被撮影者Pまたは店のスタッフSから各種指示を受け付けると共に、プレビュー画像を表示するタッチパネル3を備えている。 Further, the image providing system 10 includes a touch panel 3 that receives various instructions from the photographed person P or the store staff S and displays a preview image.
このタッチパネル3は、撮影画像30と、背景画像33と、合成画像35と、補正合成画像35Aを表示する表示部3Aと、指示受付部3Bと、不具合領域入力部3Cの各機能をもつ。 The touch panel 3 has the functions of a captured image 30, a background image 33, a composite image 35, a display unit 3A for displaying a corrected composite image 35A, an instruction receiving unit 3B, and a defect area input unit 3C.
具体的にはタッチパネル3は、操作ボタンを表示し、操作ボタンが押されると、その操作ボタンに対応した操作指示を受け付ける。例えば、タッチパネル3は、ユーザ(被撮影者P)またはスタッフSから、画像の用途の指示を受け付ける。画像の用途は、プリンタ5が印画物にプリントする画像サイズ(写真サイズ)に対応しており、例えば、運転免許証、パスポート、履歴書等である。また、タッチパネル3は、少なくとも1つの背景画像33の候補を表示するとともに、ユーザPまたはスタッフSから背景画像33の選択指示を受け付けることができる。また、タッチパネル3は、ユーザPが背景画像33をカスタマイズするための色、明るさ、模様、グラデーション等の指示を受け付けることができる。また、タッチパネル3は、ユーザPまたはスタッフSからプリンタ5のプリント開始指示を受け付けることができる。また、タッチパネル3は、後述するプレビュー画像を表示している際にユーザから触れられた箇所を拡大表示することができる。 Specifically, the touch panel 3 displays operation buttons, and when the operation button is pressed, receives an operation instruction corresponding to the operation button. For example, the touch panel 3 receives an instruction on the use of an image from the user (the subject P) or the staff S. The use of the image corresponds to the image size (photo size) to be printed on the print by the printer 5, and is, for example, a driver's license, a passport, a resume, and the like. In addition, the touch panel 3 can display at least one candidate for the background image 33 and receive an instruction to select the background image 33 from the user P or the staff S. Further, the touch panel 3 can receive an instruction such as a color, a brightness, a pattern, or a gradation for the user P to customize the background image 33. Further, the touch panel 3 can receive a print start instruction of the printer 5 from the user P or the staff S. In addition, the touch panel 3 can enlarge and display a portion touched by a user when displaying a preview image described later.
演算制御装置1は、撮影装置2、タッチパネル3、プリンタ5に接続されており、各部の制御やデータの受け渡しを行う。 The arithmetic and control unit 1 is connected to the photographing device 2, the touch panel 3, and the printer 5, and controls each unit and exchanges data.
図2に、演算制御装置1のハードウェア構成を示す。演算制御装置1は、CPU(中央演算処理部)11と、メインメモリ12と、ディスク装置13と、入出力部14とを有する。演算制御装置1の各部はバス15を介して接続されている。 FIG. 2 shows a hardware configuration of the arithmetic and control unit 1. The arithmetic and control unit 1 has a CPU (central processing unit) 11, a main memory 12, a disk device 13, and an input / output unit 14. Each part of the arithmetic and control unit 1 is connected via a bus 15.
ディスク装置13は、CPU11により実行される画像処理プログラム16及び人物画像に合成される背景画像をデータベース17に格納する。データベース17には、色や模様の異なる複数の背景画像データが記録されている。 The disk device 13 stores in a database 17 an image processing program 16 executed by the CPU 11 and a background image to be synthesized with the portrait image. The database 17 records a plurality of background image data having different colors and patterns.
ディスク装置13は例えばハードディスクドライブである。なお、画像処理プログラム16は、ディスク装置13でなく、ROMや磁気テープ(共に図示せず)に格納されていてもよい。 The disk device 13 is, for example, a hard disk drive. Note that the image processing program 16 may be stored in a ROM or a magnetic tape (both not shown) instead of the disk device 13.
CPU11は、ディスク装置13内の画像処理プログラム16をメインメモリ12にロードして、画像処理プログラム16を実行する。 The CPU 11 loads the image processing program 16 in the disk device 13 into the main memory 12, and executes the image processing program 16.
画像処理プログラム16の実行に伴い、メインメモリ12上には、撮影画像データ、人物画像データ、背景画像データ、合成画像データ、及び補正合成画像データを格納する領域が確保される。 With the execution of the image processing program 16, areas for storing captured image data, person image data, background image data, composite image data, and corrected composite image data are secured on the main memory 12.
図3は、CPU11が画像処理プログラム16を実行することで実現される機能ブロック図である。画像処理プログラム16を実行することにより、選択部21と、画像処理部22と、補正合成画像生成部23が実現され、これら選択部21と画像処理部22と補正合成画像生成部23とにより画像処理プログラム16の実行により実現される画像処理プログラム実行部20が形成される。 FIG. 3 is a functional block diagram realized by the CPU 11 executing the image processing program 16. By executing the image processing program 16, the selection unit 21, the image processing unit 22, and the corrected combined image generation unit 23 are realized. An image processing program execution unit 20 that is realized by executing the processing program 16 is formed.
選択部21は、データベース17内の背景画像データをディスク装置13から選択して取り出し、背景画像候補データとしてタッチパネル3へ出力する。また、選択部21は、タッチパネル3を介してユーザPまたはスタッフSから背景画像の選択指示を受け付けると、ユーザにより選択された背景画像データを画像処理部22に渡す。 The selection unit 21 selects and extracts the background image data in the database 17 from the disk device 13 and outputs the background image data to the touch panel 3 as background image candidate data. Further, when receiving a background image selection instruction from the user P or the staff S via the touch panel 3, the selection unit 21 passes the background image data selected by the user to the image processing unit 22.
画像処理部22は、クロマキー合成による処理を用いて、撮影装置2により生成された撮影画像内の人物画像31と、選択部21から受け取った背景画像33とを合成して、合成画像35を作成する。具体的には、画像処理部22は、撮影画像内の人物と背景色(壁紙色)との色差を判別し、人物画像31と背景32とを有する撮影画像30から背景32を除去し、人物画像31を切り抜く。ここで判別される色差とは、色相差、彩度差、又は色相差及び彩度差の組み合わせである。そして、画像処理部22は、選択部21から受け取った背景画像33と、切り抜いた人物画像31とを重ね合わせることで、画像合成を行って合成画像35を作成する。 The image processing unit 22 combines the human image 31 in the captured image generated by the imaging device 2 with the background image 33 received from the selection unit 21 using a process based on chroma key synthesis to create a composite image 35. I do. Specifically, the image processing unit 22 determines the color difference between the person in the captured image and the background color (wallpaper color), removes the background 32 from the captured image 30 having the human image 31 and the background 32, and Image 31 is cut out. The color difference determined here is a hue difference, a saturation difference, or a combination of a hue difference and a saturation difference. Then, the image processing unit 22 superimposes the background image 33 received from the selection unit 21 and the cut-out human image 31 to perform image composition to create a composite image 35.
このようにして作成された合成画像35はタッチパネル3の表示部3Aに表示される。図1Bに示すように撮影画像30から背景32を除去し、人物画像31を切り抜く。そして人物画像31に選択された背景画像33を重ね合わせることにより合成画像35が得られる。この場合、撮影画像30の背景32は同一色をもつが必ずしも明度は均一ではない。具体的には図9に示すように、背景32は同一色をもつが、人物画像31近傍の場所32aでは濃い色をもち、人物画像31から離れた場所32cでは明るい色をもち、中間の場所32bでは中間の明るさをもつ。 The composite image 35 created in this way is displayed on the display unit 3A of the touch panel 3. As shown in FIG. 1B, the background 32 is removed from the photographed image 30, and the person image 31 is cut out. Then, a composite image 35 is obtained by superimposing the selected background image 33 on the person image 31. In this case, the background 32 of the captured image 30 has the same color, but the brightness is not always uniform. Specifically, as shown in FIG. 9, the background 32 has the same color, but has a dark color at a place 32a near the person image 31, a bright color at a place 32c far from the person image 31, and an intermediate place. 32b has an intermediate brightness.
このため例えば場所32aを基準として画像処理を行って背景32を除く場合、場所32cを基準として画像処理を行って背景32を除く場合、あるいは場所32bを基準として画像処理を行って背景32を除く場合、いずれの場合も背景32を全域に渡って完全に除去することができない。 Therefore, for example, when the image processing is performed on the basis of the place 32a to remove the background 32, when the image processing is performed on the basis of the place 32c to remove the background 32, or when the image processing is performed on the basis of the place 32b, the background 32 is removed. In each case, the background 32 cannot be completely removed over the entire area.
このように背景32を全域に渡って完全に除去することができず背景32の残存部分が残ってしまうと、画像処理部22により生成された合成画像35に、この背景32の残存部分に起因して色むらを含む不具合領域36が発生する。 As described above, when the background 32 cannot be completely removed over the entire area and the remaining portion of the background 32 remains, the synthesized image 35 generated by the image processing unit 22 causes the synthesized image 35 generated by the remaining portion of the background 32. As a result, a defective area 36 including uneven color is generated.
本実施の形態によれば、ユーザPまたはスタッフSがタッチパネル3に表示された合成画像35から不具合領域36を後述するペンツールからなる不具合領域入力部3Cにより特定する。このことにより不具合領域入力部3Cから入力された情報に基づいて、演算制御装置1の補正合成画像生成部23が合成画像35中に残存する背景32の残存部分を完全に取り除く。このことにより背景32の残存部分に起因して生じる不具合領域36を完全に消去することができる。 According to the present embodiment, the user P or the staff S specifies the defect area 36 from the composite image 35 displayed on the touch panel 3 by the defect area input unit 3C including a pen tool described later. Thus, based on the information input from the defective area input unit 3C, the corrected combined image generation unit 23 of the arithmetic and control unit 1 completely removes the remaining portion of the background 32 remaining in the combined image 35. Thus, the defective area 36 caused by the remaining portion of the background 32 can be completely erased.
画像処理部22は、撮影装置2により生成された撮影画像30、作成した合成画像35及び補正合成画像35Aをタッチパネル3の表示部3Aでのプレビュー表示に対応したサイズに縮小し、あるいは拡大することができる。また、画像処理部22は、作成した補正合成画像35Aを、プリンタ5でプリントする写真サイズに対応したサイズに縮小したり拡大することができる。 The image processing unit 22 reduces or enlarges the photographed image 30 generated by the photographing device 2, the created composite image 35, and the corrected composite image 35A to a size corresponding to the preview display on the display unit 3A of the touch panel 3. Can be. Further, the image processing unit 22 can reduce or enlarge the created corrected composite image 35A to a size corresponding to a photograph size to be printed by the printer 5.
なおタッチパネル3を介して、ユーザPまたはスタッフSからプリンタ5のプリント開始指示を受け付けると、プリント用画像データが、演算制御装置1からプリンタ5へ出力される。 Note that, when a print start instruction of the printer 5 is received from the user P or the staff S via the touch panel 3, print image data is output from the arithmetic and control unit 1 to the printer 5.
図1に示すプリンタ5は、演算制御装置1から受け取ったプリント用画像データに対して、色変換やシャープネス処理を行う。そして、プリンタ5は、被撮影者Pの撮影画像を用紙に印画して出力する。プリンタ5のプリント方式は特に限定されず、インクジェット方式、昇華型熱転写方式、溶融型熱転写方式等を用いることができる。 The printer 5 shown in FIG. 1 performs color conversion and sharpness processing on the print image data received from the arithmetic and control unit 1. Then, the printer 5 prints the photographed image of the subject P on a sheet and outputs it. The printing method of the printer 5 is not particularly limited, and an ink-jet method, a sublimation-type thermal transfer method, a fusion-type thermal transfer method, or the like can be used.
次に、図4に示すフローチャートを用いて、本実施形態による画像提供システムの作用を説明する。 Next, the operation of the image providing system according to the present embodiment will be described with reference to the flowchart shown in FIG.
まず図4および図5(a)に示すように、ユーザPが店のスタッフSに写真の注文をして、画像提供システムの作用が開始する。次にスタッフSがユーザPを撮影装置2を用いて撮影し、撮影画像30が得られる(図5(b)参照)。 First, as shown in FIG. 4 and FIG. 5A, the user P places an order for a photo with the staff S of the shop, and the operation of the image providing system starts. Next, the staff S photographs the user P using the photographing device 2, and a photographed image 30 is obtained (see FIG. 5B).
その後図5(c)に示すようにタッチパネル3の表示部3A上に撮影画像30のプレビュー画面が現れ、演算制御装置1において、撮影画像30から合成画像35が生成され、この合成画像35が補正されて補正合成画像35Aが得られる。この補正合成画像35Aがプリンタ5によりプリントされてプリント印刷物5Aが作製される。ユーザPはこのプリント印刷物5Aを確認して、スタッフSに生成された補正合成画像35Aが完成画像である旨伝える。その後ユーザPは例えば携帯端末P1により演算制御装置1にアクセスして、この補正合成画像のデータを入手することができる(図5(d)参照)。 Thereafter, as shown in FIG. 5C, a preview screen of the captured image 30 appears on the display unit 3A of the touch panel 3, and the arithmetic and control unit 1 generates a composite image 35 from the captured image 30, and corrects the composite image 35. As a result, a corrected composite image 35A is obtained. The corrected composite image 35A is printed by the printer 5 to produce a printed print 5A. The user P confirms the printed print 5A and informs the staff S that the generated corrected composite image 35A is a completed image. Thereafter, the user P can access the arithmetic and control unit 1 by using, for example, the portable terminal P1 to obtain the data of the corrected combined image (see FIG. 5D).
次に画像提供システム10の作用の詳細を述べる。 Next, the operation of the image providing system 10 will be described in detail.
撮影装置2によりユーザPを撮影することにより得られた撮影画像30は、人物画像31と背景32とを含む。撮影画像30のデータは演算制御装置1へメモリ等の媒体を介して送られ、撮影画像30が演算制御装置1からタッチパネル3へ送られてタッチパネル3の表示部30Aに表示される。 A photographed image 30 obtained by photographing the user P by the photographing device 2 includes a person image 31 and a background 32. The data of the captured image 30 is sent to the arithmetic and control unit 1 via a medium such as a memory, and the captured image 30 is sent from the arithmetic and control unit 1 to the touch panel 3 and displayed on the display unit 30A of the touch panel 3.
この場合、タッチパネル3の表示部30Aには複数の撮影画像30のプレビュー画面が表示される(図6(a))。 In this case, a preview screen of the plurality of captured images 30 is displayed on the display unit 30A of the touch panel 3 (FIG. 6A).
次にユーザPはタッチパネル3上の複数の撮影画像30の中から所望の撮影画像30を選択する。この場合、ユーザPが所望の撮影画像30上をタッチすると、このユーザPの指示はタッチパネル3の指示受付部3Bに受け付けられる。 Next, the user P selects a desired photographed image 30 from the plurality of photographed images 30 on the touch panel 3. In this case, when the user P touches a desired captured image 30, the instruction of the user P is received by the instruction receiving unit 3 </ b> B of the touch panel 3.
なおユーザPはタッチパネル3上の撮影画像30中に所望の撮影画像30がない場合、スタッフSに再度撮影する旨依頼して、撮影装置2により再度撮影して、上述の手順を繰り返す。 Note that if there is no desired photographed image 30 in the photographed image 30 on the touch panel 3, the user P requests the staff S to photograph again, photographs again with the photographing device 2, and repeats the above-described procedure.
次にユーザPは撮影画像30が表示されるべきレイアウト条件40をタッチパネル3に表示された複数のレイアウト条件40の中から選択する(図6(b)。 Next, the user P selects a layout condition 40 for displaying the captured image 30 from the plurality of layout conditions 40 displayed on the touch panel 3 (FIG. 6B).
この場合、ユーザPがタッチパネル3に表示された所望のレイアウト条件40を押圧すると、このユーザPの指示はタッチパネル3の指示受付部3Bにより受け付けられる。 In this case, when the user P presses the desired layout condition 40 displayed on the touch panel 3, the instruction of the user P is received by the instruction receiving unit 3 </ b> B of the touch panel 3.
次にユーザPは図6(c)に示すように、タッチパネル3上に表示された編集アイテム41をタッチして、撮影画像30に対して必要な編集作業を行う。このとき、ユーザPの指示はタッチパネル3の指示受付部3Bに受け付けられる。 Next, as shown in FIG. 6C, the user P touches the edit item 41 displayed on the touch panel 3 to perform necessary edit work on the captured image 30. At this time, the instruction of the user P is received by the instruction receiving unit 3B of the touch panel 3.
このような編集アイテム41としては、撮影画像に対して行われる色変換処理あるいは美肌処理の編集アイテムが挙げられる。 Examples of such an edit item 41 include an edit item of a color conversion process or a beautiful skin process performed on a captured image.
次にユーザPは撮影画像に対してクロマキー合成を行う。具体的にはタッチパネル3上に背景画像候補43が表示され、ユーザPはこの背景画像候補43の中から所望の背景画像33を選択する(図6(d)参照)。 Next, the user P performs chroma key synthesis on the captured image. Specifically, a background image candidate 43 is displayed on the touch panel 3, and the user P selects a desired background image 33 from the background image candidates 43 (see FIG. 6D).
この場合、ユーザPはタッチパネル3上の背景画像候補43の中から所望の背景画像33をタッチする。このことによりユーザPからの背景画像33を選択する旨の指示がタッチパネル3の指示受付部3Bにより受け付けられる。 In this case, the user P touches a desired background image 33 from the background image candidates 43 on the touch panel 3. Thus, an instruction from the user P to select the background image 33 is received by the instruction receiving unit 3B of the touch panel 3.
ユーザPがタッチパネル3をタッチして指示受付部3Bから所望の背景画像を選択すると、演算制御装置1の選択部21が、データベース17から背景画像データを取り出す。また、画像処理部22はクロマキー合成による処理を用いて、人物画像31と背景32を含む撮影画像30から背景32を除去して人物画像31を切り抜き、この人物画像31と、選択された背景画像33とを合成して合成画像データを作成する。さらに、画像処理部22は、この合成画像データからプレビュー用画像データを作成する。ここで、合成画像に用いられる背景画像は、選択部21が取り出した背景画像のうちの任意の1つである。 When the user P touches the touch panel 3 and selects a desired background image from the instruction receiving unit 3B, the selecting unit 21 of the arithmetic and control unit 1 extracts the background image data from the database 17. Further, the image processing unit 22 removes the background 32 from the photographed image 30 including the person image 31 and the background 32 by using a process based on chroma key synthesis, cuts out the person image 31, and extracts the person image 31 and the selected background image. 33 to create composite image data. Further, the image processing section 22 creates preview image data from the composite image data. Here, the background image used for the composite image is any one of the background images extracted by the selection unit 21.
次にタッチパネル3の表示部3Aが、画像処理部22で作成された合成画像35のプレビュー画面を表示する。 Next, the display unit 3A of the touch panel 3 displays a preview screen of the composite image 35 created by the image processing unit 22.
ユーザPは、タッチパネル3に表示されている合成画像35を承諾する場合は、タッチパネル3上の決定ボタンを押す。他方、合成画像35を承諾しない場合は、タッチパネル3上に背景画像候補43が再度表示されて、上述の手順が繰り返される。 When the user P accepts the composite image 35 displayed on the touch panel 3, the user P presses the enter button on the touch panel 3. On the other hand, if the composite image 35 is not accepted, the background image candidate 43 is displayed again on the touch panel 3 and the above-described procedure is repeated.
次にユーザPまたはスタッフSは合成画像35に対して補正を施すことにより、補正合成画像35Aを得る。具体的には、図6(e)に示すように、ユーザPまたはスタッフSがタッチパネル3に表示された合成画像35から不具合領域36を探し出す。 Next, the user P or the staff S performs correction on the composite image 35 to obtain a corrected composite image 35A. Specifically, as shown in FIG. 6E, the user P or the staff S searches for a defective area 36 from the composite image 35 displayed on the touch panel 3.
次にユーザPまたはスタッフSは、タッチパネル3上に表示されたペンツール50をタッチして選択する。この場合、ペンツール50はペンツールの種類のアイコン51およびペンツールの太さのアイコン52を含み、ユーザPまたはスタッフSは、ペンツールの種類のアイコン51およびペンツールの太さのアイコン52を選択し、ペンツールの種類とペンツールの太さが選択されたペンツール50のアイコンを用いて、合成画像35中の不具合領域36を特定する。 Next, the user P or the staff S touches and selects the pen tool 50 displayed on the touch panel 3. In this case, the pen tool 50 includes a pen tool type icon 51 and a pen tool thickness icon 52, and the user P or staff S selects the pen tool type icon 51 and the pen tool thickness icon 52, and selects the pen tool. Using the icon of the pen tool 50 whose type and pen tool thickness have been selected, the defective area 36 in the composite image 35 is specified.
この場合、図7(a)(b)(c)に示すように、タッチパネル3に表示された合成画像35中の背景画像33のうち、人物画像31近傍に、色むらを含む不具合領域36を見付けることができる。 In this case, as shown in FIGS. 7A, 7B, and 7C, in the background image 33 in the composite image 35 displayed on the touch panel 3, a defect area 36 including uneven color near the human image 31 is formed. Can be found.
このときタッチパネル3上で、ユーザPまたはスタッフSは、ペンツールの種類およびペンツールの太さを選択し、所望のペンツール50を得る(図7(a)参照)。次にこのペンツール50をタッチパネル3上でタッチしながら移動させてペンツール50により不具合領域36を囲む輪郭38を描く。 At this time, the user P or the staff S selects the type of the pen tool and the thickness of the pen tool on the touch panel 3 to obtain a desired pen tool 50 (see FIG. 7A). Next, the pen tool 50 is moved while touching the touch panel 3 to draw an outline 38 surrounding the defective area 36 with the pen tool 50.
このペンツール50により描かれた不具合領域36を囲む輪郭38は、タッチパネル3上に表示される。このときペンツール50は不具合領域36を特定する不具合領域入力部3Cとして機能し、ペンツール50からの情報は演算制御装置1へ送られる。 The outline 38 surrounding the defective area 36 drawn by the pen tool 50 is displayed on the touch panel 3. At this time, the pen tool 50 functions as a defective area input unit 3C for specifying the defective area 36, and information from the pen tool 50 is sent to the arithmetic and control unit 1.
次に演算制御装置1の補正合成画像生成部23は、合成画像35中に残存する背景32の残存部分を確実に取り除く。 Next, the corrected combined image generation unit 23 of the arithmetic and control unit 1 reliably removes the remaining portion of the background 32 remaining in the combined image 35.
このことにより、背景32の残存部分に起因して生じる不具合領域36を完全に除去することができる(図7(c)参照)。 As a result, the defective area 36 caused by the remaining portion of the background 32 can be completely removed (see FIG. 7C).
このように本実施の形態によれば、補正合成画像生成部23は、タッチパネル3に表示された合成画像35から不具合領域36を取り除く補正を行うことにより、補正後の鮮明な補正合成画像35Aを生成することができる(図1B参照)。 As described above, according to the present embodiment, the corrected combined image generation unit 23 performs the correction for removing the defective area 36 from the combined image 35 displayed on the touch panel 3, so that the corrected corrected combined image 35 </ b> A is corrected. Can be generated (see FIG. 1B).
次にタッチパネル3上に補正合成画像生成部23により生成された補正合成画像35Aのプレビュー画面が表示される。ユーザPは補正合成画像35Aのプレビュー画面をみて承諾しない場合、再度ペンツール50を用いて合成画像35の不具合領域36を取り除くよう合成画像35を補正し、補正合成画像35Aを作成する。 Next, a preview screen of the corrected combined image 35A generated by the corrected combined image generation unit 23 is displayed on the touch panel 3. If the user P does not agree with the preview screen of the corrected composite image 35A, he corrects the composite image 35 using the pen tool 50 again to remove the defective area 36 of the composite image 35, and creates a corrected composite image 35A.
その後は上述の手順を繰り返す。 Thereafter, the above procedure is repeated.
次に上述のように、補正合成画像35Aがプリンタ5によりプリントされてプリント印刷物5Aが作製される(図5(c)および図6(f)参照)。その後ユーザPはプリント印刷物5Aを確認した後、携帯端末P1により演算制御装置1にアクセスして補正合成画像35Aのデータを入手することができる(図5(d)参照)。 Next, as described above, the corrected composite image 35A is printed by the printer 5 to produce a printed print 5A (see FIGS. 5C and 6F). Thereafter, after confirming the printed print 5A, the user P can access the arithmetic and control unit 1 through the portable terminal P1 to obtain the data of the corrected composite image 35A (see FIG. 5D).
なお、上記実施の形態において、タッチパネル3上においてペンツール50を移動させて、ペンツール50により不具合領域36を囲む輪郭38を描いた例を示したが、これに限らず、タッチパネル3上においてペンツール50を移動させてペンツール50により不具合領域36の全域をベタ塗りしてベタ塗り領域39を形成することにより不具合領域36を特定してもよい(図8(a)(b)(c)参照)。 In the above-described embodiment, the pen tool 50 is moved on the touch panel 3 and the outline 38 surrounding the defective area 36 is drawn by the pen tool 50. However, the pen tool 50 is not limited to this. The defective area 36 may be specified by moving and moving the entire area of the defective area 36 with the pen tool 50 to form a solid area 39 (see FIGS. 8A, 8B, and 8C).
図8(a)(b)(c)において、不具合領域36の全域をペンツール50によりベタ塗りした場合、このベタ塗りして得られたベタ塗り領域39はタッチパネル3上に表示される。あるいはまた、ペンツール50を用いて合成画像35の不具合領域36を特定する場合、例えばタッチパネル3の指示受付部3Bを操作することにより、合成画像35のプレビュー画面を100%から150%まで拡大してもよい(図10(a)(b)参照)。 8A, 8B, and 8C, when the entire area of the defective area 36 is solid-painted by the pen tool 50, the solid-painted area 39 obtained by the solid painting is displayed on the touch panel 3. Alternatively, when the defective area 36 of the composite image 35 is specified using the pen tool 50, the preview screen of the composite image 35 is enlarged from 100% to 150% by operating the instruction receiving unit 3B of the touch panel 3, for example. (See FIGS. 10A and 10B).
また合成画像35のプレビュー画面を200%まで更に拡大してもよい(図10(c)参照)。 Further, the preview screen of the composite image 35 may be further enlarged to 200% (see FIG. 10C).
このように合成画像35のプレビュー画面を拡大することにより、ペンツール50を用いて合成画像35の不具合領域36を容易かつ正確に特定することができる。 By enlarging the preview screen of the composite image 35 in this way, the defective area 36 of the composite image 35 can be easily and accurately specified using the pen tool 50.
なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。 Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying constituent elements in an implementation stage without departing from the scope of the invention. In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the above embodiments. For example, some components may be deleted from all the components shown in the embodiment. Further, components of different embodiments may be appropriately combined.
1 演算制御装置
2 撮影装置
3 タッチパネル
3A 表示部
3B 指示受付部
3C 不具合領域入力部
5 プリンタ
11 CPU
12 メインメモリ
13 ディスク装置
14 入出力部
15 バス
16 画像処理プログラム
17 データベース
20 画像処理プログラム実行部
21 選択部
22 画像処理部
23 補正合成画像生成部
30 撮影画像
31 人物画像
32 背景
33 背景画像
35 合成画像
35A 補正合成画像
36 不具合領域
38 輪郭
39 ベタ塗り領域
40 レイアウト条件
41 編集アイテム
50 ペンツール
51 ペンツールの種類
REFERENCE SIGNS LIST 1 arithmetic and control unit 2 imaging device 3 touch panel 3A display unit 3B instruction receiving unit 3C fault area input unit 5 printer 11 CPU
Reference Signs List 12 Main memory 13 Disk device 14 Input / output unit 15 Bus 16 Image processing program 17 Database 20 Image processing program execution unit 21 Selection unit 22 Image processing unit 23 Corrected composite image generation unit 30 Captured image 31 Person image 32 Background 33 Background image 35 Synthesis Image 35A Corrected composite image 36 Defect area 38 Outline 39 Solid area 40 Layout condition 41 Edit item 50 Pen tool 51 Pen tool type
Claims (6)
複数の背景画像を格納した記憶部と、
背景画像の選択指示を受け付ける指示受付部と、
前記撮影画像から前記背景を除き前記人物画像を切り取って、前記指示受付部を介して選択指示された背景画像と前記人物画像とをクロマキー合成して合成画像を作成する画像処理部と、
複数の背景画像および前記合成画像を表示する表示部とを備え、
前記表示部は前記合成画像の背景画像のうち不具合領域を特定する不具合領域入力部を含み、前記不具合領域入力部に入力された情報に基づいて、前記合成画像を補正して補正合成画像を生成する補正合成画像生成部が設けられ、前記補正合成画像生成部により生成された補正合成画像が前記表示部に表示される、画像提供システム。 An imaging device that captures a background and a subject, and generates a captured image including a background and a person image,
A storage unit storing a plurality of background images,
An instruction receiving unit that receives an instruction to select a background image,
An image processing unit that cuts out the person image excluding the background from the photographed image, and creates a composite image by chroma keying the background image and the person image selected and instructed via the instruction receiving unit,
A display unit for displaying a plurality of background images and the composite image,
The display unit includes a defect area input unit that specifies a defect area in the background image of the composite image, and generates a corrected composite image by correcting the composite image based on information input to the defect area input unit. An image providing system, further comprising: a corrected combined image generation unit that performs a correction combined image generation unit that displays the corrected combined image generated by the corrected combined image generation unit on the display unit.
背景画像の選択指示を受け付ける指示受付部と、
背景と人物画像を含む撮影画像から前記背景を除き前記人物画像を切り取って、前記指示受付部を介して選択指示された背景画像と前記人物画像とをクロマキー合成して合成画像を作成する画像処理部と、
前記合成画像を表示する表示部とを備え、
前記表示部は前記合成画像の背景画像のうち不具合領域を特定する不具合領域入力部を含み、前記不具合領域入力部に入力された情報に基づいて、前記合成画像を補正して補正合成画像を生成する補正合成画像生成部が設けられ、前記補正合成画像生成部により生成された補正合成画像が前記表示部に表示される、画像提供システム。 A storage unit storing a plurality of background images,
An instruction receiving unit that receives an instruction to select a background image,
Image processing for cutting out the person image from the photographed image including the background and the person image except for the background, and chromakey-synthesizing the background image and the person image selected and instructed via the instruction receiving unit to create a combined image Department and
A display unit for displaying the composite image,
The display unit includes a defect area input unit that specifies a defect area in the background image of the composite image, and generates a corrected composite image by correcting the composite image based on information input to the defect area input unit. An image providing system, further comprising: a corrected combined image generation unit that performs a correction combined image generation unit that displays the corrected combined image generated by the corrected combined image generation unit on the display unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018176417A JP2020048117A (en) | 2018-09-20 | 2018-09-20 | Image providing system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018176417A JP2020048117A (en) | 2018-09-20 | 2018-09-20 | Image providing system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020048117A true JP2020048117A (en) | 2020-03-26 |
Family
ID=69901762
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018176417A Pending JP2020048117A (en) | 2018-09-20 | 2018-09-20 | Image providing system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020048117A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11582358B2 (en) | 2021-03-29 | 2023-02-14 | Toshiba Tec Kabushiki Kaisha | Image forming apparatus and information processing method |
JP7569508B2 (en) | 2020-09-17 | 2024-10-18 | 大日本印刷株式会社 | Image provision system |
JP7572480B2 (en) | 2022-03-21 | 2024-10-23 | 和碩聯合科技股▲ふん▼有限公司 | Electronic device and display method for videoconferencing or videolecturing |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007027925A (en) * | 2005-07-13 | 2007-02-01 | Seiko Epson Corp | Terminal communication system, two-way communication terminal, videophone, terminal control method, and terminal control program |
WO2013179560A1 (en) * | 2012-05-30 | 2013-12-05 | パナソニック株式会社 | Image processing device and image processing method |
JP2014168185A (en) * | 2013-02-28 | 2014-09-11 | Ricoh Co Ltd | Communication terminal, communication method and program |
WO2016152633A1 (en) * | 2015-03-26 | 2016-09-29 | ソニー株式会社 | Image processing system, image processing method, and program |
-
2018
- 2018-09-20 JP JP2018176417A patent/JP2020048117A/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007027925A (en) * | 2005-07-13 | 2007-02-01 | Seiko Epson Corp | Terminal communication system, two-way communication terminal, videophone, terminal control method, and terminal control program |
WO2013179560A1 (en) * | 2012-05-30 | 2013-12-05 | パナソニック株式会社 | Image processing device and image processing method |
JP2014168185A (en) * | 2013-02-28 | 2014-09-11 | Ricoh Co Ltd | Communication terminal, communication method and program |
WO2016152633A1 (en) * | 2015-03-26 | 2016-09-29 | ソニー株式会社 | Image processing system, image processing method, and program |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7569508B2 (en) | 2020-09-17 | 2024-10-18 | 大日本印刷株式会社 | Image provision system |
US11582358B2 (en) | 2021-03-29 | 2023-02-14 | Toshiba Tec Kabushiki Kaisha | Image forming apparatus and information processing method |
US11870956B2 (en) | 2021-03-29 | 2024-01-09 | Toshiba Tec Kabushiki Kaisha | Image forming apparatus |
JP7572480B2 (en) | 2022-03-21 | 2024-10-23 | 和碩聯合科技股▲ふん▼有限公司 | Electronic device and display method for videoconferencing or videolecturing |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3777922B2 (en) | Digital imaging apparatus, image processing system including the same, image processing apparatus, digital imaging method, and recording medium | |
JP2007331321A (en) | Image processing device and its control method | |
JP2020048117A (en) | Image providing system | |
JP2006350936A (en) | Image forming device and image forming program | |
JP2013219668A (en) | Printed matter creation device and printed matter creation method | |
JP2008244996A (en) | Image processing system | |
JP6728714B2 (en) | Image processing device | |
JP2008294704A (en) | Display device and imaging apparatus | |
JP2006350462A (en) | Album image preparation device and album image preparation program | |
JP5709074B2 (en) | Print production equipment | |
JP5582163B2 (en) | Print production equipment | |
JP2006279661A (en) | Digital camera | |
JP7569508B2 (en) | Image provision system | |
JP5617861B2 (en) | Print production equipment | |
US20060188171A1 (en) | Image processing method, image processing apparatus and program for the same | |
JP2021175067A (en) | Photographing system | |
JP5844206B2 (en) | Print production apparatus and print production method | |
JP4454026B2 (en) | Program, information storage medium, photo printing apparatus and photo printing method | |
JP5633657B2 (en) | Print production equipment | |
JP7302269B2 (en) | PRINT MATERIAL MAKING APPARATUS AND PRINT MATERIAL MAKING SYSTEM | |
JP2005086385A (en) | Image forming apparatus | |
JP2008155373A (en) | Image processor and image processing method | |
JP4314525B2 (en) | Corrected image display method and apparatus | |
JP2008210347A (en) | Image editing device, method, and program | |
JP2013179463A (en) | Image forming device and image forming method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210727 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220520 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220624 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220802 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20221101 |