JP7143419B2 - Image processing device, image processing method, and program - Google Patents

Image processing device, image processing method, and program Download PDF

Info

Publication number
JP7143419B2
JP7143419B2 JP2020537411A JP2020537411A JP7143419B2 JP 7143419 B2 JP7143419 B2 JP 7143419B2 JP 2020537411 A JP2020537411 A JP 2020537411A JP 2020537411 A JP2020537411 A JP 2020537411A JP 7143419 B2 JP7143419 B2 JP 7143419B2
Authority
JP
Japan
Prior art keywords
image
foreground
background
region
mask
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020537411A
Other languages
Japanese (ja)
Other versions
JPWO2020036072A1 (en
Inventor
正志 藏之下
誠 與那覇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of JPWO2020036072A1 publication Critical patent/JPWO2020036072A1/en
Application granted granted Critical
Publication of JP7143419B2 publication Critical patent/JP7143419B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • G06T7/41Analysis of texture based on statistical description of texture
    • G06T7/46Analysis of texture based on statistical description of texture using random fields
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/305Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using lenticular lenses, e.g. arrangements of cylindrical lenses

Description

本発明は、画像処理装置、画像処理方法、及びプログラムに関し、特に2次元画像から3次元画像データを生成する画像処理装置、画像処理方法、及びプログラムに関する。 The present invention relates to an image processing device, an image processing method, and a program, and more particularly to an image processing device, an image processing method, and a program for generating three-dimensional image data from a two-dimensional image.

従来より、入力された2次元画像の主要被写体を前景とし、この前景と背景とに対して奥行き情報を付加して3次元画像データが生成されている。 Conventionally, three-dimensional image data is generated by using the main subject of an input two-dimensional image as the foreground and adding depth information to the foreground and background.

ここで、大量の3次元画像データの生成を行うためには、自動的な画像処理により3次元画像データを効率的に生成する必要がある。一方で、前景と背景の境界部分をくっきりと切り出してしまうと、境界部分が目立ってしまい、生成される3次元画像データは違和感を有してしまう。 Here, in order to generate a large amount of three-dimensional image data, it is necessary to efficiently generate three-dimensional image data by automatic image processing. On the other hand, if the boundary between the foreground and the background is sharply cut out, the boundary becomes conspicuous and the generated three-dimensional image data has a strange feeling.

この3次元画像データの違和感を抑制することを目的として、様々な手法が提案されている。 Various techniques have been proposed for the purpose of suppressing the sense of incongruity of the three-dimensional image data.

例えば特許文献1に記載された技術では、違和感を抑制することを目的として、マスクパターンのオブジェクト境界部分に、ぼかし処理を行う技術が記載されている。具体的には、特許文献1に記載された技術では、1段目のローパスフィルタ及び2段目のローパスフィルタを使用して、マスクのエッジ部分の信号に傾斜をつけて、マスクをぼかしている。また、特許文献1には、ぼかし幅を調整することや、レイヤ毎に個別にぼかし処理を行うことが記載されている(特許文献1段落0080)。 For example, the technique described in Japanese Patent Application Laid-Open No. 2002-200002 describes a technique of performing a blurring process on an object boundary portion of a mask pattern for the purpose of suppressing a sense of incongruity. Specifically, in the technique described in Patent Document 1, a first-stage low-pass filter and a second-stage low-pass filter are used to give a slope to the signal at the edge portion of the mask, thereby blurring the mask. . Further, Japanese Patent Application Laid-Open No. 2002-200001 describes adjusting the width of blurring and performing blurring processing for each layer individually (paragraph 0080 of Patent Document 1).

例えば特許文献2では、違和感を抑制することを目的とし、指定した被写体の輪郭を平均値フィルタ処理によりぼかす技術が記載されている。また、特許文献2では、平均値フィルタのサイズの大小により、立体感の滑らかさを制御することが記載されている(特許文献1段落0030)。 For example, Japanese Patent Application Laid-Open No. 2002-200000 describes a technique for blurring the outline of a designated subject by means of mean filter processing for the purpose of suppressing discomfort. Further, Patent Document 2 describes that the smoothness of the stereoscopic effect is controlled by the size of the average filter (paragraph 0030 of Patent Document 1).

特開2013-178749号公報JP 2013-178749 A 特開2003-47027号公報Japanese Patent Application Laid-Open No. 2003-47027

ここで、2次元画像によっては、前景と背景との境界が明瞭である箇所と、境界が複雑であり不明瞭である箇所とが存在する場合がある。このような、境界が明瞭な箇所と、境界が不明瞭な箇所とで同じぼけ処理を行ってしまうと、3次元画像データの違和感を効果的に抑制できない場合が発生する。 Here, depending on the two-dimensional image, there may be a portion where the boundary between the foreground and the background is clear and a portion where the boundary is complicated and unclear. If the same blurring process is performed on a location with a clear boundary and a location with an unclear boundary, it may not be possible to effectively suppress the discomfort of the three-dimensional image data.

上述した特許文献1及び特許文献2では、前景と背景との境界が明瞭な箇所及び不明瞭な箇所に応じて異なるぼけ具合を与えることについての言及はない。 The aforementioned Patent Document 1 and Patent Document 2 do not mention giving different degrees of blur depending on the location where the boundary between the foreground and the background is clear and the location where the boundary is unclear.

本発明はこのような事情に鑑みてなされたもので、その目的は、効果的に違和感が抑制された3次元画像データを生成する画像処理装置、画像処理方法、及びプログラムを提供することである。 SUMMARY OF THE INVENTION The present invention has been made in view of such circumstances, and an object thereof is to provide an image processing apparatus, an image processing method, and a program for generating three-dimensional image data in which discomfort is effectively suppressed. .

上記目的を達成するための本発明の一の態様である画像処理装置は、2次元画像から、前景及び背景で構成される3次元画像データを生成する画像処理装置であって、2次元画像を取得する画像取得部と、2次元画像における前景の領域を画像処理により推定し、2次元画像の小領域毎に前景の領域である確率を算出する確率算出部と、確率に基づいて、前景と背景との境界領域における前景と背景との混合比率のグラデーションを有する、前景の画像マスクを生成するマスク生成部と、画像マスクにより、前景画像を取得する前景画像取得部と、を備える。 An image processing apparatus according to one aspect of the present invention for achieving the above object is an image processing apparatus for generating three-dimensional image data composed of a foreground and a background from a two-dimensional image. an image acquisition unit for acquiring, a probability calculation unit for estimating a foreground region in a two-dimensional image by image processing and calculating a probability that each small region of the two-dimensional image is a foreground region; A mask generation unit that generates a foreground image mask having a gradation of a mixture ratio of the foreground and the background in a boundary area with the background, and a foreground image acquisition unit that acquires the foreground image using the image mask.

本態様によれば、2次元画像の小領域毎に前景の領域である確率が算出され、その確率に基づいて、前景と背景との境界領域における前景と背景との混合比率のグラデーションを有する前景の画像マスクが生成される。これにより、前景と背景との境界が明瞭な箇所と、境界が不明瞭な箇所とに応じて、境界領域の混合比率のグラデーションが制御され、ぼけ具合が調整される。 According to this aspect, the probability of being a foreground region is calculated for each small region of the two-dimensional image, and based on the probability, the foreground having a gradation of the mixing ratio of the foreground and the background in the boundary region between the foreground and the background. image mask is generated. As a result, the gradation of the mixing ratio of the boundary region is controlled according to the location where the boundary between the foreground and the background is clear and the location where the boundary is unclear, and the degree of blurring is adjusted.

好ましくは、画像処理装置は、2次元画像において、前景画像に対応する領域を補完して、背景画像を取得する背景画像取得部を備える。 Preferably, the image processing apparatus includes a background image obtaining section that obtains the background image by interpolating a region corresponding to the foreground image in the two-dimensional image.

本態様によれば、前景画像に対応する領域を補完して背景画像が取得されるので、違和感が効果的に抑制された3次元画像データを生成することができる。 According to this aspect, since the background image is obtained by interpolating the area corresponding to the foreground image, it is possible to generate three-dimensional image data in which the sense of discomfort is effectively suppressed.

好ましくは、画像マスクの非マスク部分は、2次元画像における前景よりも拡大されている。 Preferably, the unmasked portion of the image mask is magnified more than the foreground in the two-dimensional image.

本態様によれば、画像マスクの非マスク部分が拡大されることにより、拡大された前景画像を得ることができるので、背景画像の欠損部分を覆い隠すことができ、違和感の抑制された3次元画像データを生成することができる。 According to this aspect, since the enlarged foreground image can be obtained by enlarging the non-masked portion of the image mask, the missing portion of the background image can be covered, and the sense of incongruity can be suppressed. Image data can be generated.

好ましくは、画像処理装置は、画像マスクを評価閾値に基づいて2値化し、前景の抽出領域を取得する抽出領域取得部を備え、マスク生成部は、抽出領域と境界領域とで構成される画像マスクを生成する。 Preferably, the image processing device includes an extraction region acquisition unit that binarizes the image mask based on the evaluation threshold and acquires the foreground extraction region, and the mask generation unit generates an image composed of the extraction region and the boundary region. Generate a mask.

本態様によれば、画像マスクを評価閾値に基づいて2値化し、前景の抽出領域が取得され、抽出領域と境界領域とで構成される画像マスクが生成される。これにより、より違和感の抑制された3次元画像データを生成することができる。 According to this aspect, the image mask is binarized based on the evaluation threshold, the foreground extraction region is acquired, and the image mask composed of the extraction region and the boundary region is generated. As a result, it is possible to generate three-dimensional image data in which the sense of discomfort is suppressed.

好ましくは、画像処理装置は、画像マスクを拡大した拡大画像マスクと、抽出領域との差分を取得して、境界領域を取得する境界領域取得部を備える。 Preferably, the image processing apparatus includes a boundary region acquisition unit that acquires a difference between an enlarged image mask obtained by enlarging the image mask and the extraction region to acquire the boundary region.

本態様によれば、拡大画像マスクと抽出領域との差分を取得して、境界領域が取得されるので、より正確に境界領域を取得することができる。 According to this aspect, the boundary area is obtained by obtaining the difference between the enlarged image mask and the extraction area, so that the boundary area can be obtained more accurately.

好ましくは、画像処理装置は、画像マスクを拡大した拡大画像マスクと、抽出領域を縮小した縮小抽出領域との差分を取得して、境界領域を取得する境界領域取得部を備える。 Preferably, the image processing apparatus includes a boundary region obtaining unit that obtains the boundary region by obtaining a difference between an enlarged image mask obtained by enlarging the image mask and a reduced extraction region obtained by reducing the extraction region.

本態様によれば、抽出領域を拡大した拡大抽出領域と、抽出領域を縮小した縮小抽出領域との差分を取得して、境界領域が取得される。これにより、境界部分の幅がより広くなった拡大された前景画像を取得することができる。 According to this aspect, the boundary area is obtained by obtaining the difference between the enlarged extraction area obtained by enlarging the extraction area and the reduced extraction area obtained by reducing the extraction area. This makes it possible to acquire an enlarged foreground image in which the width of the boundary portion is wider.

好ましくは、境界領域は、10ピクセル以上20ピクセル以下の幅を有する。 Preferably, the border region has a width of no less than 10 pixels and no more than 20 pixels.

好ましくは、確率算出部は、前景を抽出する学習済みの認識器で構成される。 Preferably, the probability calculation unit is composed of a trained recognizer for extracting the foreground.

好ましくは、3次元画像データはレンチキュラー印刷用である。 Preferably, the three-dimensional image data is for lenticular printing.

本発明の他の態様である画像処理方法は、2次元画像から、前景及び背景で構成される3次元画像データを生成する画像処理方法であって、2次元画像を取得するステップと、2次元画像における前景の領域を画像処理により推定し、2次元画像の小領域毎に前景の領域である確率を算出するステップと、確率に基づいて、前景と背景との境界領域における前景と背景との混合比率のグラデーションを有する、前景の画像マスクを生成するステップと、画像マスクにより、前景画像を取得するステップと、を含む。 An image processing method according to another aspect of the present invention is an image processing method for generating three-dimensional image data composed of a foreground and a background from a two-dimensional image, the image processing method comprising: obtaining a two-dimensional image; a step of estimating a foreground region in an image by image processing and calculating the probability that each small region of the two-dimensional image is a foreground region; generating a foreground image mask with a blend ratio gradation; and obtaining a foreground image with the image mask.

本発明の他の態様であるプログラムは、2次元画像から、前景及び背景で構成される3次元画像データを生成する画像処理工程をコンピュータに実行させるプログラムであって、2次元画像を取得する工程と、2次元画像における前景の領域を画像処理により推定し、2次元画像の小領域毎に前景の領域である確率を算出する工程と、確率に基づいて、前景と背景との境界領域における前景と背景との混合比率のグラデーションを有する、前景の画像マスクを生成する工程と、画像マスクにより、前景画像を取得する工程と、を含む画像処理工程をコンピュータに実行させる。 A program that is another aspect of the present invention is a program that causes a computer to execute an image processing step of generating three-dimensional image data composed of a foreground and a background from a two-dimensional image, the step of acquiring the two-dimensional image. a step of estimating a foreground region in a two-dimensional image by image processing and calculating the probability that each small region of the two-dimensional image is a foreground region; causing a computer to perform image processing steps including generating a foreground image mask having a gradation of mixing ratios of to and background; and obtaining a foreground image from the image mask.

本発明によれば、2次元画像の小領域毎に前景の領域である確率が算出され、その確率に基づいて、前景と背景との境界領域における前景と背景との混合比率のグラデーションを有する前景の画像マスクが生成されるので、前景と背景との境界が明瞭な箇所と、境界が不明瞭な箇所とに応じて、境界領域の混合比率のグラデーションが制御されてぼけ具合が調整される。 According to the present invention, the probability of being a foreground region is calculated for each small region of a two-dimensional image, and based on the probability, the foreground having a gradation of the mixing ratio of the foreground and the background in the boundary region between the foreground and the background. image mask is generated, the degree of blurring is adjusted by controlling the gradation of the mixing ratio of the boundary region according to the location where the boundary between the foreground and the background is clear and the location where the boundary is unclear.

図1は、コンピュータの外観を示す図である。FIG. 1 is a diagram showing the appearance of a computer. 図2は、画像処理装置の機能構成例を示すブロック図である。FIG. 2 is a block diagram showing a functional configuration example of the image processing apparatus. 図3は、画像処理工程を示すフローチャートである。FIG. 3 is a flow chart showing the image processing steps. 図4は、2次元画像と確率付き画像マスクとを概念的に示す図である。FIG. 4 is a diagram conceptually showing a two-dimensional image and an image mask with probability. 図5は、確率付き画像マスクの拡大図を示す図である。FIG. 5 is a diagram showing an enlarged view of the image mask with probability. 図6は、混合比率のグラデーションを示す概念図である。FIG. 6 is a conceptual diagram showing the gradation of the mixing ratio. 図7は、抽出領域の抽出に関して、説明する図である。FIG. 7 is a diagram explaining extraction of an extraction region. 図8は、境界領域の取得に関して説明する図である。FIG. 8 is a diagram explaining acquisition of the boundary area. 図9は、画像マスクの生成に関して説明する図である。FIG. 9 is a diagram illustrating generation of an image mask. 図10は、画像マスクの拡大図である。FIG. 10 is an enlarged view of the image mask. 図11は、前景画像を取得することを説明する図であるFIG. 11 is a diagram illustrating acquisition of a foreground image; 図12は、3次元画像における背景の欠損部分に関して説明する図である。12A and 12B are diagrams for explaining the missing portion of the background in the three-dimensional image. 図13は、3次元画像における背景の欠損部分に関して説明する図である。13A and 13B are diagrams for explaining the missing portion of the background in the three-dimensional image. 図14は、背景画像を示す図である。FIG. 14 is a diagram showing a background image. 図15は、3次元画像データの生成に用いられる画像を示す図である。FIG. 15 is a diagram showing images used to generate three-dimensional image data.

以下、添付図面に従って本発明に係る画像処理装置、画像処理方法、及びプログラムの好ましい実施の形態について説明する。 Preferred embodiments of an image processing apparatus, an image processing method, and a program according to the present invention will be described below with reference to the accompanying drawings.

図1は、本発明の画像処理装置を備えるコンピュータの外観を示す図である。 FIG. 1 is a diagram showing the appearance of a computer equipped with an image processing apparatus of the present invention.

コンピュータ3は、本発明の一態様である画像処理装置11(図2)を搭載している。コンピュータ3には、2次元画像201が入力され、モニタ9で構成される表示部とキーボード5およびマウス7で構成される入力部が接続されている。なお、図示されたコンピュータ3の形態は一例であり、コンピュータ3と同様の機能を有する装置は本発明の画像処理装置11を備えることができる。例えば、タブレット端末に画像処理装置11を搭載することも可能である。 The computer 3 is equipped with an image processing device 11 (FIG. 2), which is one aspect of the present invention. A two-dimensional image 201 is input to the computer 3 , and a display section composed of a monitor 9 and an input section composed of a keyboard 5 and a mouse 7 are connected. The form of the computer 3 illustrated is merely an example, and a device having functions similar to those of the computer 3 can include the image processing device 11 of the present invention. For example, it is possible to mount the image processing device 11 on a tablet terminal.

コンピュータ3は、画像処理装置11(図2)に入力された2次元画像201、生成された3次元画像データをモニタ9に表示する。ユーザは、指令をキーボード5およびマウス7により入力する。 The computer 3 displays the two-dimensional image 201 input to the image processing device 11 (FIG. 2) and the generated three-dimensional image data on the monitor 9 . The user inputs commands with keyboard 5 and mouse 7 .

図2は、画像処理装置11の機能構成例を示すブロック図である。図2に示す画像処理装置11の各種制御を実行するハードウェア的な構造は、次に示すような各種のプロセッサ(processor)である。各種のプロセッサには、ソフトウェア(プログラム)を実行して各種の制御部として機能する汎用的なプロセッサであるCPU(Central Processing Unit)、FPGA(Field Programmable Gate Array)などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路などが含まれる。 FIG. 2 is a block diagram showing a functional configuration example of the image processing apparatus 11. As shown in FIG. Hardware structures for executing various controls of the image processing apparatus 11 shown in FIG. 2 are various processors as described below. For various processors, the circuit configuration can be changed after manufacturing such as CPU (Central Processing Unit), FPGA (Field Programmable Gate Array), which is a general-purpose processor that executes software (program) and functions as various control units. Programmable Logic Device (PLD), which is a processor, ASIC (Application Specific Integrated Circuit), etc. be

1つの処理部は、これら各種のプロセッサのうちの1つで構成されていてもよいし、同種又は異種の2つ以上のプロセッサ(例えば、複数のFPGA、あるいはCPUとFPGAの組み合わせ)で構成されてもよい。また、複数の制御部を1つのプロセッサで構成してもよい。複数の制御部を1つのプロセッサで構成する例としては、第1に、クライアントやサーバなどのコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組合せで1つのプロセッサを構成し、このプロセッサが複数の制御部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)などに代表されるように、複数の制御部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の制御部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。 One processing unit may be composed of one of these various processors, or composed of two or more processors of the same type or different types (for example, a plurality of FPGAs, or a combination of a CPU and an FPGA). may Also, a plurality of control units may be configured by one processor. As an example of configuring a plurality of control units with a single processor, first, as represented by a computer such as a client or a server, a single processor is configured by combining one or more CPUs and software. There is a form in which a processor functions as multiple controllers. Secondly, as typified by System On Chip (SoC), etc., there is a form of using a processor that realizes the functions of the entire system including multiple control units with a single IC (Integrated Circuit) chip. be. In this way, various control units are configured using one or more of the above various processors as a hardware structure.

画像処理装置11は、画像取得部13、確率算出部15、マスク生成部17、前景画像取得部19、背景画像取得部21、3次元画像データ生成部25、表示制御部23、及び記憶部26を備える。記憶部26には、プログラムおよび画像処理装置11の各種制御に係る情報等が記憶される。また、表示制御部23は、モニタ9による表示を制御する。 The image processing device 11 includes an image acquisition unit 13, a probability calculation unit 15, a mask generation unit 17, a foreground image acquisition unit 19, a background image acquisition unit 21, a three-dimensional image data generation unit 25, a display control unit 23, and a storage unit 26. Prepare. The storage unit 26 stores programs and information related to various controls of the image processing apparatus 11 . Also, the display control unit 23 controls display by the monitor 9 .

画像取得部13は2次元画像201を取得する。2次元画像201は、例えば主要被写体で構成される前景と、その前景以外の背景とを有する。 The image acquisition unit 13 acquires the two-dimensional image 201 . A two-dimensional image 201 has, for example, a foreground composed of a main subject and a background other than the foreground.

確率算出部15は、2次元画像における前景の領域を画像処理により推定し、2次元画像の小領域毎に前景の領域である確率を算出する。確率算出部15で行われる推定及び確率の算出は、公知の手法が適用される。例えば、確率算出部15は、前景を抽出する学習済みの認識器で構成される。確率算出部15は、小領域毎に前景の領域であることを画像処理で推定し、その小領域毎にその推定に基づく確率を算出する。また、確率算出部15が算出する2次元画像の小領域は、例えば1画素毎であったり、2×2画素毎であったり、所定の大きさの領域のことを意味する。 The probability calculation unit 15 estimates a foreground region in the two-dimensional image by image processing, and calculates the probability that each small region of the two-dimensional image is a foreground region. A known technique is applied to the estimation and probability calculation performed by the probability calculation unit 15 . For example, the probability calculation unit 15 is composed of a learned recognizer for extracting the foreground. The probability calculation unit 15 estimates that each small area is a foreground area by image processing, and calculates a probability based on the estimation for each small area. Also, the small area of the two-dimensional image calculated by the probability calculation unit 15 means an area of a predetermined size, for example, every 1 pixel or every 2×2 pixels.

マスク生成部17は、前景を取得するための画像マスクを生成する。画像マスクは、確率算出部15で算出された前景である領域の確率に基づいて、前景と背景との境界領域における前景と背景との混合比率のグラデーションを有する。すなわち、画像マスクは、境界領域において、前景の領域である確率に基づいたぼけを有する。画像マスクは、確率算出部15で算出された確率をそのまま用いて、マスク部分及び非マスク部分を構成してもよいし、確率算出部15で算出された確率に基づいて抽出される抽出領域及び境界領域とで、マスク部分及び非マスク部分を構成してもよい。また、マスク生成部17は、抽出領域取得部18及び境界領域取得部20を有する。 The mask generator 17 generates an image mask for obtaining the foreground. The image mask has a gradation of the mixing ratio of the foreground and the background in the boundary area between the foreground and the background based on the probability of the area being the foreground calculated by the probability calculation unit 15 . That is, the image mask has a blur based on the probability of being a foreground region in the boundary regions. For the image mask, the probability calculated by the probability calculation unit 15 may be used as it is to configure the masked portion and the non-masked portion. A masked portion and a non-masked portion may be configured with the boundary region. The mask generation unit 17 also has an extraction area acquisition unit 18 and a boundary area acquisition unit 20 .

抽出領域取得部18は抽出領域を取得する。具体的には、抽出領域取得部18は、確率付き画像マスクを評価閾値に基づいて2値化し、前景の抽出領域を取得する。ここで抽出領域とは、前景の領域である確率が一定以上の領域のことである。 The extraction area obtaining unit 18 obtains an extraction area. Specifically, the extraction region acquiring unit 18 binarizes the image mask with probability based on the evaluation threshold value and acquires the foreground extraction region. Here, the extraction area is an area that has a certain probability of being a foreground area.

境界領域取得部20は、確率付き画像マスクにおける境界領域を取得する。確率付き画像マスクの境界領域では、前景と背景との混合比率のグラデーションを有する。 The boundary region obtaining unit 20 obtains a boundary region in the image mask with probability. The boundary area of the image mask with probability has a gradation of the mixture ratio of the foreground and the background.

前景画像取得部19は、画像マスクにより、前景画像を取得する。 The foreground image acquisition unit 19 acquires a foreground image using the image mask.

背景画像取得部21は、2次元画像において、前景画像に対応する領域を補完して、背景画像を取得する。 The background image acquisition unit 21 acquires a background image by interpolating a region corresponding to the foreground image in the two-dimensional image.

3次元画像データ生成部25は、前景画像取得部19で取得された前景画像、及び背景画像取得部21で取得された背景画像により3次元画像データを生成する。例えば、3次元画像データ生成部25は、レンチキュラー印刷用の3次元画像データを生成する。 The 3D image data generation unit 25 generates 3D image data from the foreground image acquired by the foreground image acquisition unit 19 and the background image acquired by the background image acquisition unit 21 . For example, the three-dimensional image data generator 25 generates three-dimensional image data for lenticular printing.

次に、画像処理装置11により行われる、レンチキュラー印刷用画像データである3次元画像データの生成の具体例に関して説明する。 Next, a specific example of generating three-dimensional image data, which is image data for lenticular printing, performed by the image processing apparatus 11 will be described.

<画像処理の工程>
図3は、画像処理装置11により、2次元画像から3次元画像データを生成する画像処理工程(画像処理方法)を示すフローチャートである。先ず、画像処理工程の全体を説明し、その後に各工程について詳しく説明をする。
<Image processing process>
FIG. 3 is a flow chart showing an image processing process (image processing method) for generating three-dimensional image data from a two-dimensional image by the image processing device 11 . First, the entire image processing process will be described, and then each process will be described in detail.

画像取得部13は、2次元画像Aを取得する(ステップS10)。その後、確率算出部15は、前景となる領域を画像処理により自動抽出し、その後に前景である確率を算出し、次にマスク生成部17は、算出された確率に基づいて確率付き画像マスクBを生成する(ステップS11)。次に、抽出領域取得部18は、確率付き画像マスクBを2値化し、抽出領域Cを取得する(ステップS12)。その後、境界領域取得部20は、抽出領域Cに基づいて境界領域を計算して、確率付き画像マスクBから境界領域Dを抜き出す(ステップS13)。そして、マスク生成部17により、抽出領域Cと境界領域Dとを合成して、画像マスクEを生成する(ステップS14)。 The image acquisition unit 13 acquires a two-dimensional image A (step S10). After that, the probability calculation unit 15 automatically extracts the foreground region by image processing, and then calculates the probability that it is the foreground. is generated (step S11). Next, the extraction region acquiring unit 18 binarizes the image mask B with probability and acquires the extraction region C (step S12). After that, the boundary region acquiring unit 20 calculates the boundary region based on the extraction region C, and extracts the boundary region D from the image mask B with probability (step S13). Then, the mask generator 17 synthesizes the extraction region C and the boundary region D to generate an image mask E (step S14).

前景画像取得部19は、画像マスクEを適用して、前景画像Fを取得する(ステップS15)。また、背景画像取得部21は、画像マスクEの非マスク部分を周りの画素から補完し背景画像Gとする(ステップS16)。その後、3次元画像データ生成部25により、前景画像F及び背景画像Gを用いて、レンチキュラー印刷用データが生成される(ステップS17)。 The foreground image obtaining unit 19 applies the image mask E to obtain the foreground image F (step S15). In addition, the background image obtaining unit 21 interpolates the non-masked portion of the image mask E from surrounding pixels to obtain a background image G (step S16). After that, the three-dimensional image data generator 25 generates lenticular printing data using the foreground image F and the background image G (step S17).

次に、上述した各工程(ステップ)に関して、詳細に説明する。 Next, each process (step) described above will be described in detail.

<ステップS10及びステップS11>
ステップS10及びステップS11では、2次元画像Aが入力され、確率付き画像マスクBが生成される。図4は、2次元画像A201と確率付き画像マスクB203とを概念的に示す図である。
<Step S10 and Step S11>
In steps S10 and S11, a two-dimensional image A is input and an image mask B with probability is generated. FIG. 4 is a diagram conceptually showing a two-dimensional image A201 and an image mask with probability B203.

2次元画像A201は、人物である主要被写体Oを有している。2次元画像A201における主要被写体Oを前景とし、主要被写体Oを除いた部分で構成される背景とで、3次元画像データが生成される。 A two-dimensional image A201 has a main subject O that is a person. Three-dimensional image data is generated with the main subject O in the two-dimensional image A201 as the foreground and the background consisting of the portion other than the main subject O. FIG.

確率付き画像マスクB203は、主要被写体Oを画像処理により自動抽出し、前景部分に対応した非マスク部分P及び背景部分に対応したマスク部分Mを有している。また、確率付き画像マスクB203は、前景の領域である確率を小領域毎に有している。確率付き画像マスクB203を適用して、前景を取得してもよいが、後述する画像マスクE213を適用して前景を取得することにより、より正確な前景画像の取得を行うことができる。 The image mask B203 with probability automatically extracts the main subject O by image processing, and has a non-masked portion P corresponding to the foreground portion and a masked portion M corresponding to the background portion. Further, the image mask B203 with probability has a probability of being a foreground region for each small region. The foreground may be acquired by applying the image mask B203 with probability, but by acquiring the foreground by applying the image mask E213 described later, a more accurate foreground image can be acquired.

図5は、確率付き画像マスクB203の拡大図を示す図である。図5(A)には、確率付き画像マスクB203が示されており、図5(B)には、確率付き画像マスクB203の領域Hの拡大図が示されており、図5(C)には、領域Jの拡大図が示されている。図5(C)に示されている図の矢印Nで示すように、確率付き画像マスクB203は、前景と背景との境界領域において混合比率のグラデーションを有しており、これに応じてぼけを有する。なお、このグラデーションは前景の領域である確率に基づくものであり、前景と背景との境界部分が明瞭な部分では、グラデーションは急であり狭くなり、前景と背景との境界部分が不明瞭な部分では、グラデーションは緩く広くなる。 FIG. 5 is an enlarged view of the image mask with probability B203. 5A shows the image mask B203 with probability, FIG. 5B shows an enlarged view of region H of the image mask B203 with probability, and FIG. , an enlarged view of region J is shown. As indicated by the arrow N in the drawing shown in FIG. 5C, the image mask B203 with probability has a gradation of the mixture ratio in the boundary area between the foreground and the background, and blurs accordingly. have. Note that this gradation is based on the probability that it is the foreground area. In areas where the boundary between the foreground and background is clear, the gradation is steep and narrow, and in areas where the boundary between the foreground and background is unclear. , the gradient becomes looser and wider.

図6は、前景と背景との境界部分が明瞭な場合、及び前景と背景との境界部分が不明瞭な場合の境界部分の混合比率のグラデーションを示す概念図である。図6(A)は、前景と背景との境界部分が明瞭な場合の前景の領域である確率のグラデーションが示されている。また、図6(B)は、前景と背景との境界部分が不明瞭な場合の前景の領域である確率のグラデーションが示されている。 FIG. 6 is a conceptual diagram showing the gradation of the mixing ratio of the boundary portion when the boundary portion between the foreground and background is clear and when the boundary portion between the foreground and background is unclear. FIG. 6A shows the gradation of the probability of being the foreground area when the boundary between the foreground and the background is clear. FIG. 6B shows the gradation of the probability of being the foreground area when the boundary between the foreground and the background is unclear.

図6(A)に示す場合では、前景である確率100%の領域301と前景である確率0%である領域(背景の領域)305が明瞭であるために、境界303におけるグラデーションが急であり狭くなっている。一方、図6(B)に示す場合では、前景である確率100%の領域301と前景である確率0%である領域305が不明瞭であるために、境界303におけるグラデーションが緩やかであり広くなる。このように、前景の領域である確率のグラデーションは、前景と背景との境界が明瞭な部分と不明瞭な部分と異なるので、このグラデーションを利用して、前景のぼけ具合を調整することにより、3次元画像データにおいて違和感を効果的に抑制することができる。 In the case shown in FIG. 6A, the area 301 with a 100% probability of being the foreground and the area (background area) 305 with a 0% probability of being the foreground are distinct, so the gradation at the boundary 303 is sharp. narrow. On the other hand, in the case shown in FIG. 6B, since the area 301 with a probability of 100% being the foreground and the area 305 with a probability of 0% being the foreground are unclear, the gradation at the boundary 303 is gentle and wide. . In this way, the gradation of the probability of the foreground region differs between the part where the boundary between the foreground and the background is clear and the part where the boundary is unclear. It is possible to effectively suppress discomfort in the three-dimensional image data.

<ステップS12>
ステップS12では、抽出領域Cが取得される。図7は、抽出領域取得部18で行われる抽出領域Cの抽出に関して、説明する図である。抽出領域取得部18は、確率付き画像マスクB203の小領域毎に付されている確率を評価閾値に基づいて二値化する。例えば、抽出領域取得部18は、確率が0%から100%で示されている場合には、確率が50%以上の領域と確率が50%未満の領域とで2値化する。抽出領域C209は、前景の領域である確率が50%以上である非マスク部分Pを有し、前景の領域である確率が50%未満のマスク部分Mを有している。すなわち、抽出領域C209では、2値化された非マスク部分Pとマスク部分Mを有している。
<Step S12>
At step S12, an extraction region C is acquired. FIG. 7 is a diagram for explaining the extraction of the extraction region C performed by the extraction region acquiring unit 18. As shown in FIG. The extraction region obtaining unit 18 binarizes the probability attached to each small region of the image mask B203 with probability based on the evaluation threshold. For example, when the probability is indicated by 0% to 100%, the extraction region acquiring unit 18 binarizes the region with a probability of 50% or more and the region with a probability of less than 50%. The extraction region C209 has a non-masked portion P with a probability of being a foreground region of 50% or more, and has a masked portion M with a probability of being a foreground region of less than 50%. That is, the extraction region C209 has a binarized non-masked portion P and a masked portion M. FIG.

<ステップS13>
ステップS13では境界領域Dが取得される。図8は、境界領域取得部20で行われる境界領域Dの取得に関して説明する図である。図8に示した場合では、確率付き画像マスクB203から抽出領域C209を差し引くことで境界領域D211を生成する。具体的には、確率付き画像マスクB203を拡大した(拡大画像マスク)後に、抽出領域C209を差し引くことで境界領域D211を生成する。また、確率付き画像マスクB203を拡大した(拡大画像マスク)後に、縮小した抽出領域C209(縮小抽出領域)を差し引くことで境界領域D211を生成してもよい。例えば、確率付き画像マスクB203を縦横に10ピクセル分拡大した後に、抽出領域C209を縦横に10ピクセル分縮小して、差分を得る。境界領域D211は、確率付き画像マスクB203の境界領域における前景と背景との混合比率のグラデーションを有する。このように、確率付き画像マスクB203及び抽出領域Cに関して拡縮を行うことにより、境界領域D211の幅を制御することができる。例えば、境界領域D211の幅は、10ピクセル以上20ピクセル以下であることが好ましい。
<Step S13>
In step S13, the boundary area D is obtained. FIG. 8 is a diagram for explaining acquisition of the boundary area D performed by the boundary area acquisition unit 20. As shown in FIG. In the case shown in FIG. 8, the boundary region D211 is generated by subtracting the extraction region C209 from the image mask B203 with probability. Specifically, after enlarging the image mask B203 with probability (enlarged image mask), the boundary area D211 is generated by subtracting the extraction area C209. Alternatively, the boundary area D211 may be generated by subtracting the reduced extraction area C209 (reduced extraction area) after enlarging the image mask B203 with probability (enlarged image mask). For example, after enlarging the image mask B203 with probability by 10 pixels vertically and horizontally, the extraction region C209 is reduced by 10 pixels vertically and horizontally to obtain the difference. The boundary area D211 has a gradation of the mixing ratio of the foreground and background in the boundary area of the image mask B203 with probability. By scaling the image mask B203 with probability and the extraction region C in this way, the width of the boundary region D211 can be controlled. For example, the width of the boundary area D211 is preferably 10 pixels or more and 20 pixels or less.

<ステップS14>
ステップS14では、画像マスクEが生成される。図9は、マスク生成部17により行われる画像マスクE213の生成に関して説明する図である。マスク生成部17は、抽出領域C209と境界領域D211とを合成することにより、画像マスクE213を得る。例えば、確率付き画像マスクB203を縦横に10ピクセル分拡大した後に、抽出領域C209を縦横に10ピクセル分縮小して、境界領域D211を得た場合には、縦横10ピクセル分縮小した抽出領域C209と合成して、画像マスクE213を得る。画像マスクE213は、抽出領域C209の部分では2値化された均一の値を有し、境界領域D211の部分ではグラデーションを有する。このように合成して画像マスクE213を生成することにより、非マスク部分Pとマスク部分Mとの境界部分では、前景と背景との混合比率のグラデーションを有しぼけを発生させ、且つ非マスク部分Pの境界領域以外の部分(抽出領域)では確実に非マスクとなる。
<Step S14>
At step S14, an image mask E is generated. FIG. 9 is a diagram illustrating generation of the image mask E213 performed by the mask generation unit 17. As shown in FIG. The mask generator 17 obtains an image mask E213 by synthesizing the extraction region C209 and the boundary region D211. For example, after enlarging the image mask B203 with probability by 10 pixels vertically and horizontally, the extraction region C209 is reduced by 10 pixels vertically and horizontally to obtain the boundary region D211. By synthesizing, an image mask E213 is obtained. The image mask E213 has binarized uniform values in the extraction region C209 portion, and has gradation in the boundary region D211 portion. By generating the image mask E213 by synthesizing in this way, the boundary portion between the non-masked portion P and the masked portion M is blurred with a gradation of the mixing ratio of the foreground and the background, and the non-masked portion is blurred. The portion (extraction region) other than the boundary region of P is surely unmasked.

図10は、図9で示した画像マスクE213の領域Rの拡大図である。図10に示すように画像マスクE213の領域Rでは、非マスク部分Pとマスク部分Mとの混合比率のグラデーションを有する(矢印Nで示す)。このようなグラデーションを有する画像マスクE213を適用して、前景及び背景を取得することにより、適切なぼけを有する前景及び背景を取得することができる。 FIG. 10 is an enlarged view of region R of image mask E213 shown in FIG. As shown in FIG. 10, the region R of the image mask E213 has a gradation of the mixing ratio of the non-masked portion P and the masked portion M (indicated by arrow N). By applying the image mask E213 having such a gradation to obtain the foreground and background, it is possible to obtain the foreground and background having appropriate blurring.

<ステップS15>
ステップS15では画像マスクEが得られる。図11は、前景画像取得部19により、前景画像F215を取得することを説明する図である。図11に示すように、2次元画像201に対して画像マスクE213を適用することにより、前景画像F215を取得する。画像マスクE213は、境界部分において前景の領域である確率に応じたグラデーションを有しているので、前景画像F215は確率に応じたぼけを有する。すなわち、前景画像F215は、前景と背景との境界が明瞭な箇所と、境界が不明瞭な箇所とに応じて、ぼけ具合が調整されている。
<Step S15>
An image mask E is obtained in step S15. FIG. 11 is a diagram illustrating acquisition of the foreground image F215 by the foreground image acquisition unit 19. As shown in FIG. As shown in FIG. 11, by applying an image mask E213 to the two-dimensional image 201, a foreground image F215 is obtained. Since the image mask E213 has a gradation corresponding to the probability that the boundary portion is the foreground area, the foreground image F215 has a blur corresponding to the probability. That is, the degree of blurring of the foreground image F215 is adjusted according to a portion where the boundary between the foreground and the background is clear and a portion where the boundary is unclear.

ここで、前景画像F215は、元の2次元画像A201の主要被写体Oに対して拡大することにより、背景の欠損部分をカバーすることができる。図12及び図13は、3次元画像における背景の欠損部分に関して説明する図である。図12では、正面から3次元画像を見た場合、すなわち、前景画像F215が背景画像に対して移動させられていない場合を示している。この場合には、前景画像F215が移動されていないので、背景の欠損部分が出てくることはなく、欠損部分が目立つということはない。一方、図13では、斜めから3次元画像を見た場合、すなわち、前景画像F215が背景画像に対して移動させられている場合を示している。この場合には、前景画像F215が移動されているので、背景の欠損部分Uが発生し、欠損部分Uが目立ってしまう。このような場合には、前景画像F215を拡大することにより欠損部分Uをカバーすることができる。 Here, the foreground image F215 can cover the missing portion of the background by enlarging the main subject O of the original two-dimensional image A201. 12 and 13 are diagrams for explaining the background missing portion in the three-dimensional image. FIG. 12 shows the case where the three-dimensional image is viewed from the front, that is, the case where the foreground image F215 is not moved with respect to the background image. In this case, since the foreground image F215 has not been moved, the missing portion of the background does not appear and the missing portion is not conspicuous. On the other hand, FIG. 13 shows a case where the three-dimensional image is viewed obliquely, that is, a case where the foreground image F215 is moved with respect to the background image. In this case, since the foreground image F215 has been moved, the missing portion U of the background is generated and the missing portion U stands out. In such a case, the missing portion U can be covered by enlarging the foreground image F215.

<ステップS16>
ステップS16では、背景画像Gが得られる。図14は、背景画像取得部21により、取得された背景画像G217を示す図である。図14に示された図では、図11で示された前景画像F215の箇所を補完して、背景画像取得部21により、背景画像G217が生成されている。なお、背景画像取得部21で行われる補完は公知の技術により行われる。
<Step S16>
At step S16, a background image G is obtained. FIG. 14 is a diagram showing the background image G217 acquired by the background image acquisition unit 21. As shown in FIG. In the diagram shown in FIG. 14, the background image acquisition unit 21 generates a background image G217 by complementing the foreground image F215 shown in FIG. Note that the complementing performed by the background image acquisition unit 21 is performed by a known technique.

<ステップS17>
ステップS17では、レンチキュラー印刷用データが生成される。図15は、3次元画像データの生成に用いられる画像を示す図である。画像223は、正面から見た図であり、前景と背景との位置関係は元の2次元画像Aと同じである。画像221は、前景画像F215を背景画像G217に対して矢印Vの方向に移動させており、画像225は、前景画像F215を背景画像G217に対して矢印Wの方向に移動させている。例えば、3次元画像データ生成部25により、画像221、画像223、及び画像225を使用してレンチキュラー印刷用の3次元画像データが生成される。
<Step S17>
In step S17, data for lenticular printing is generated. FIG. 15 is a diagram showing images used to generate three-dimensional image data. The image 223 is a front view, and the positional relationship between the foreground and the background is the same as that of the original two-dimensional image A. FIG. Image 221 moves foreground image F215 in the direction of arrow V with respect to background image G217, and image 225 moves foreground image F215 in the direction of arrow W with respect to background image G217. For example, the three-dimensional image data generator 25 uses the images 221, 223, and 225 to generate three-dimensional image data for lenticular printing.

上述の各構成及び機能は、任意のハードウェア、ソフトウェア、或いは両者の組み合わせによって適宜実現可能である。例えば、上述の処理ステップ(処理手順)をコンピュータに実行させるプログラム、そのようなプログラムを記録したコンピュータ読み取り可能な記録媒体(非一時的記録媒体)、或いはそのようなプログラムをインストール可能なコンピュータに対しても本発明を適用することが可能である。 Each configuration and function described above can be appropriately realized by arbitrary hardware, software, or a combination of both. For example, a program that causes a computer to execute the above-described processing steps (procedures), a computer-readable recording medium (non-temporary recording medium) recording such a program, or a computer capable of installing such a program However, it is possible to apply the present invention.

以上で本発明の例に関して説明してきたが、本発明は上述した実施の形態に限定されず、本発明の精神を逸脱しない範囲で種々の変形が可能であることは言うまでもない。 Although examples of the present invention have been described above, it goes without saying that the present invention is not limited to the above-described embodiments, and that various modifications are possible without departing from the spirit of the present invention.

3 :コンピュータ
5 :キーボード
7 :マウス
9 :モニタ
10 :縦横
11 :画像処理装置
13 :画像取得部
15 :確率算出部
17 :マスク生成部
18 :抽出領域取得部
19 :前景画像取得部
20 :境界領域取得部
21 :背景画像取得部
23 :表示制御部
25 :3次元画像データ生成部
26 :記憶部
201 :2次元画像
3 : Computer 5 : Keyboard 7 : Mouse 9 : Monitor 10 : Vertical and horizontal 11 : Image processing device 13 : Image acquisition unit 15 : Probability calculation unit 17 : Mask generation unit 18 : Extraction region acquisition unit 19 : Foreground image acquisition unit 20 : Boundary Area acquisition unit 21 : Background image acquisition unit 23 : Display control unit 25 : Three-dimensional image data generation unit 26 : Storage unit 201 : Two-dimensional image

Claims (12)

2次元画像から、前景及び背景で構成される3次元画像データを生成する画像処理装置であって、
前記2次元画像を取得する画像取得部と、
前記2次元画像における前記前景の領域を画像処理により推定し、前記2次元画像の小領域毎に前記前景の領域である確率を算出する確率算出部と、
前記2次元画像に対し、前記前景の部分に対応するマスクを行わない非マスク部分と、前記背景の部分に対応するマスクを行うマスク部分とで構成される画像マスクであって、前記前景と前記背景との境界領域では、前記確率に基づいて、前記前景と前記背景との混合比率のグラデーションを有する、前記前景を取得するための画像マスクを生成するマスク生成部と、
前記画像マスクにより、前景画像を取得する前景画像取得部と、
を備え
前記混合比率は、前記確率が高いほど、前記背景に対する前記前景の比率が高い、
画像処理装置。
An image processing device that generates three-dimensional image data composed of a foreground and a background from a two-dimensional image,
an image acquisition unit that acquires the two-dimensional image;
a probability calculation unit that estimates the foreground region in the two-dimensional image by image processing and calculates a probability that each small region of the two-dimensional image is the foreground region;
An image mask composed of a non-masked portion corresponding to the foreground portion and a masked portion corresponding to the background portion for the two-dimensional image, wherein the foreground and the a mask generation unit for generating an image mask for obtaining the foreground, which has a gradation of a mixing ratio of the foreground and the background in the boundary area with the background , based on the probability;
a foreground image obtaining unit that obtains a foreground image using the image mask;
with
In the mixing ratio, the higher the probability, the higher the ratio of the foreground to the background.
Image processing device.
前記2次元画像において、前記前景画像に対応する領域を補完して、背景画像を取得する背景画像取得部を備える請求項1に記載の画像処理装置。 2. The image processing apparatus according to claim 1, further comprising a background image acquisition unit that acquires a background image by interpolating a region corresponding to the foreground image in the two-dimensional image. 前記画像マスクの前記非マスク部分は、前記2次元画像における前記前景よりも拡大されている請求項1又は2に記載の画像処理装置。 3. The image processing apparatus according to claim 1, wherein the non-masked portion of the image mask is magnified more than the foreground in the two-dimensional image. 前記画像マスクを評価閾値に基づいて2値化し、前記前景の抽出領域を取得する抽出領域取得部を備え、
前記マスク生成部は、前記抽出領域と前記境界領域とで構成される前記画像マスクを生成する請求項1から3のいずれか1項に記載の画像処理装置。
an extraction region acquisition unit that binarizes the image mask based on an evaluation threshold and acquires the foreground extraction region;
4. The image processing apparatus according to any one of claims 1 to 3, wherein the mask generation unit generates the image mask composed of the extraction region and the boundary region.
前記画像マスクを拡大した拡大画像マスクと、前記抽出領域との差分を取得して、前記境界領域を取得する境界領域取得部を備える請求項4に記載の画像処理装置。 5. The image processing apparatus according to claim 4, further comprising a boundary area acquiring unit that acquires a difference between an enlarged image mask obtained by enlarging the image mask and the extracted area to acquire the boundary area. 前記画像マスクを拡大した拡大画像マスクと、前記抽出領域を縮小した縮小抽出領域との差分を取得して、前記境界領域を取得する境界領域取得部を備える請求項4に記載の画像処理装置。 5. The image processing apparatus according to claim 4, further comprising a boundary area obtaining unit that obtains the boundary area by obtaining a difference between an enlarged image mask obtained by enlarging the image mask and a reduced extraction area obtained by reducing the extraction area. 前記境界領域は、10ピクセル以上20ピクセル以下の幅を有する請求項1から6のいずれか1項に記載の画像処理装置。 7. The image processing device according to any one of claims 1 to 6, wherein the border area has a width of 10 pixels or more and 20 pixels or less. 前記確率算出部は、前記前景を抽出する学習済みの認識器で構成される請求項1から7のいずれか1項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 7, wherein the probability calculation unit is configured by a learned recognizer for extracting the foreground. 前記3次元画像データはレンチキュラー印刷用である請求項1から8のいずれか1項に記載の画像処理装置。 9. The image processing apparatus according to claim 1, wherein said three-dimensional image data is for lenticular printing. 2次元画像から、前景及び背景で構成される3次元画像データを生成する画像処理方法であって、
前記2次元画像を取得するステップと、
前記2次元画像における前記前景の領域を画像処理により推定し、前記2次元画像の小領域毎に前記前景の領域である確率を算出するステップと、
前記2次元画像に対し、前記前景の部分に対応するマスクを行わない非マスク部分と、前記背景の部分に対応するマスクを行うマスク部分とで構成される画像マスクであって、前記前景と前記背景との境界領域では、前記確率に基づいて、前記前景と前記背景との混合比率のグラデーションを有する、前記前景を取得するための画像マスクを生成するステップと、
前記画像マスクにより、前景画像を取得するステップと、
を含み
前記混合比率は、前記確率が高いほど、前記背景に対する前記前景の比率が高い、
画像処理方法。
An image processing method for generating three-dimensional image data composed of a foreground and a background from a two-dimensional image,
obtaining the two-dimensional image;
estimating the foreground region in the two-dimensional image by image processing, and calculating the probability that each small region of the two-dimensional image is the foreground region;
An image mask composed of a non-masked portion corresponding to the foreground portion and a masked portion corresponding to the background portion for the two-dimensional image, wherein the foreground and the generating an image mask for obtaining the foreground, having a gradation of the mixing ratio of the foreground and the background in the boundary region with the background , based on the probability;
obtaining a foreground image with the image mask;
including
In the mixing ratio, the higher the probability, the higher the ratio of the foreground to the background.
Image processing method.
2次元画像から、前景及び背景で構成される3次元画像データを生成する画像処理工程をコンピュータに実行させるプログラムであって、
前記2次元画像を取得する工程と、
前記2次元画像における前記前景の領域を画像処理により推定し、前記2次元画像の小領域毎に前記前景の領域である確率を算出する工程と、
前記2次元画像に対し、前記前景の部分に対応するマスクを行わない非マスク部分と、前記背景の部分に対応するマスクを行うマスク部分とで構成される画像マスクであって、前記前景と前記背景との境界領域では、前記確率に基づいて、前記前景と前記背景との混合比率のグラデーションを有する、前記前景を取得するための前記画像マスクを生成する工程と、
前記画像マスクにより、前景画像を取得する工程と、
を含み
前記混合比率は、前記確率が高いほど、前記背景に対する前記前景の比率が高い、画像処理工程をコンピュータに実行させるプログラム。
A program for causing a computer to execute an image processing process for generating three-dimensional image data composed of a foreground and a background from a two-dimensional image,
obtaining the two-dimensional image;
a step of estimating the foreground region in the two-dimensional image by image processing, and calculating the probability that each small region of the two-dimensional image is the foreground region;
An image mask composed of a non-masked portion corresponding to the foreground portion and a masked portion corresponding to the background portion for the two-dimensional image, wherein the foreground and the generating the image mask for obtaining the foreground, which has a gradation of the mixing ratio of the foreground and the background in the boundary region with the background , based on the probability;
obtaining a foreground image with the image mask;
including
A program for causing a computer to execute an image processing step, wherein the mixing ratio is such that the higher the probability, the higher the ratio of the foreground to the background .
非一時的かつコンピュータ読取可能な記録媒体であって、前記記録媒体に格納された指令がコンピュータによって読み取られた場合に、
2次元画像から、前景及び背景で構成される3次元画像データを生成する画像処理工程であって、
前記2次元画像を取得する工程と、
前記2次元画像における前記前景の領域を画像処理により推定し、前記2次元画像の小領域毎に前記前景の領域である確率を算出する工程と、
前記2次元画像に対し、前記前景の部分に対応するマスクを行わない非マスク部分と、前記背景の部分に対応するマスクを行うマスク部分とで構成される画像マスクであって、前記前景と前記背景との境界領域では、前記確率に基づいて、前記前景と前記背景との混合比率のグラデーションを有する、前記前景を取得するための画像マスクを生成する工程と、
前記画像マスクにより、前景画像を取得する工程と、
を含み
前記混合比率は、前記確率が高いほど、前記背景に対する前記前景の比率が高い、画像処理工程をコンピュータに実行させる記録媒体。
A non-transitory computer-readable recording medium, wherein when instructions stored on the recording medium are read by a computer,
An image processing step for generating three-dimensional image data composed of a foreground and a background from a two-dimensional image,
obtaining the two-dimensional image;
a step of estimating the foreground region in the two-dimensional image by image processing, and calculating the probability that each small region of the two-dimensional image is the foreground region;
An image mask composed of a non-masked portion corresponding to the foreground portion and a masked portion corresponding to the background portion for the two-dimensional image, wherein the foreground and the generating an image mask for obtaining the foreground, which has a gradation of the mixing ratio of the foreground and the background in the boundary region with the background , based on the probability;
obtaining a foreground image with the image mask;
including
A recording medium for causing a computer to execute an image processing step, wherein the mixing ratio is such that the higher the probability, the higher the ratio of the foreground to the background .
JP2020537411A 2018-08-14 2019-08-01 Image processing device, image processing method, and program Active JP7143419B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018152660 2018-08-14
JP2018152660 2018-08-14
PCT/JP2019/030257 WO2020036072A1 (en) 2018-08-14 2019-08-01 Image processing device, image processing method, and program

Publications (2)

Publication Number Publication Date
JPWO2020036072A1 JPWO2020036072A1 (en) 2021-08-26
JP7143419B2 true JP7143419B2 (en) 2022-09-28

Family

ID=69525502

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020537411A Active JP7143419B2 (en) 2018-08-14 2019-08-01 Image processing device, image processing method, and program

Country Status (2)

Country Link
JP (1) JP7143419B2 (en)
WO (1) WO2020036072A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115908120B (en) * 2023-01-06 2023-07-07 荣耀终端有限公司 Image processing method and electronic device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010061478A (en) 2008-09-04 2010-03-18 Sony Computer Entertainment Inc Image processing device, object tracking device, and image processing method
JP2014072639A (en) 2012-09-28 2014-04-21 Jvc Kenwood Corp Image processing apparatus, image processing method, and image processing program
US20170116777A1 (en) 2015-10-21 2017-04-27 Samsung Electronics Co., Ltd. Image processing method and apparatus

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8175384B1 (en) * 2008-03-17 2012-05-08 Adobe Systems Incorporated Method and apparatus for discriminative alpha matting
US8391594B1 (en) * 2009-05-28 2013-03-05 Adobe Systems Incorporated Method and apparatus for generating variable-width border masks

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010061478A (en) 2008-09-04 2010-03-18 Sony Computer Entertainment Inc Image processing device, object tracking device, and image processing method
JP2014072639A (en) 2012-09-28 2014-04-21 Jvc Kenwood Corp Image processing apparatus, image processing method, and image processing program
US20170116777A1 (en) 2015-10-21 2017-04-27 Samsung Electronics Co., Ltd. Image processing method and apparatus

Also Published As

Publication number Publication date
WO2020036072A1 (en) 2020-02-20
JPWO2020036072A1 (en) 2021-08-26

Similar Documents

Publication Publication Date Title
CN106846241B (en) Image fusion method, device and equipment
CN109409335B (en) Image processing method, image processing device, computer readable medium and electronic equipment
US8824821B2 (en) Method and apparatus for performing user inspired visual effects rendering on an image
US20180300937A1 (en) System and a method of restoring an occluded background region
EP2087466B1 (en) Generation of depth map for an image
US20190098278A1 (en) Image processing apparatus, image processing method, and storage medium
JP5474061B2 (en) Method and apparatus for filling in an area of occlusion in a depth or parallax map estimated based on at least two images
CN109660783B (en) Virtual reality parallax correction
WO2018177364A1 (en) Filter implementation method and device
JP2019125929A5 (en)
CN109462747B (en) DIBR system cavity filling method based on generation countermeasure network
US9734551B1 (en) Providing depth-of-field renderings
TW201436552A (en) Method and apparatus for increasing frame rate of an image stream using at least one higher frame rate image stream
JP7143419B2 (en) Image processing device, image processing method, and program
Jung A modified model of the just noticeable depth difference and its application to depth sensation enhancement
EP3796644A1 (en) A method for capturing and rendering a video stream
JP2008016006A (en) Reliable image sharpening method
JP2010055410A (en) Image processing device, image processing method, and image processing program
EP3070670B1 (en) Using frequency decomposition for better color consistency in a synthesized region
Northam et al. Stereoscopic 3D image stylization
WO2018029399A1 (en) Apparatus, method, and computer program code for producing composite image
JP5617426B2 (en) Jaggy mitigation processing apparatus and jaggy mitigation processing method
KR102126919B1 (en) Rain synthesis algorithm for training road object detection schemes under a bad weather
JP2021060649A (en) Image processing device, system, and program
US9412188B2 (en) Method and image processing system for removing a visual object from an image

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220411

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220608

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220822

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220914

R150 Certificate of patent or registration of utility model

Ref document number: 7143419

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150