JP7143419B2 - Image processing device, image processing method, and program - Google Patents
Image processing device, image processing method, and program Download PDFInfo
- Publication number
- JP7143419B2 JP7143419B2 JP2020537411A JP2020537411A JP7143419B2 JP 7143419 B2 JP7143419 B2 JP 7143419B2 JP 2020537411 A JP2020537411 A JP 2020537411A JP 2020537411 A JP2020537411 A JP 2020537411A JP 7143419 B2 JP7143419 B2 JP 7143419B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- foreground
- background
- region
- mask
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/40—Analysis of texture
- G06T7/41—Analysis of texture based on statistical description of texture
- G06T7/46—Analysis of texture based on statistical description of texture using random fields
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/261—Image signal generators with monoscopic-to-stereoscopic image conversion
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/302—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
- H04N13/305—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using lenticular lenses, e.g. arrangements of cylindrical lenses
Description
本発明は、画像処理装置、画像処理方法、及びプログラムに関し、特に2次元画像から3次元画像データを生成する画像処理装置、画像処理方法、及びプログラムに関する。 The present invention relates to an image processing device, an image processing method, and a program, and more particularly to an image processing device, an image processing method, and a program for generating three-dimensional image data from a two-dimensional image.
従来より、入力された2次元画像の主要被写体を前景とし、この前景と背景とに対して奥行き情報を付加して3次元画像データが生成されている。 Conventionally, three-dimensional image data is generated by using the main subject of an input two-dimensional image as the foreground and adding depth information to the foreground and background.
ここで、大量の3次元画像データの生成を行うためには、自動的な画像処理により3次元画像データを効率的に生成する必要がある。一方で、前景と背景の境界部分をくっきりと切り出してしまうと、境界部分が目立ってしまい、生成される3次元画像データは違和感を有してしまう。 Here, in order to generate a large amount of three-dimensional image data, it is necessary to efficiently generate three-dimensional image data by automatic image processing. On the other hand, if the boundary between the foreground and the background is sharply cut out, the boundary becomes conspicuous and the generated three-dimensional image data has a strange feeling.
この3次元画像データの違和感を抑制することを目的として、様々な手法が提案されている。 Various techniques have been proposed for the purpose of suppressing the sense of incongruity of the three-dimensional image data.
例えば特許文献1に記載された技術では、違和感を抑制することを目的として、マスクパターンのオブジェクト境界部分に、ぼかし処理を行う技術が記載されている。具体的には、特許文献1に記載された技術では、1段目のローパスフィルタ及び2段目のローパスフィルタを使用して、マスクのエッジ部分の信号に傾斜をつけて、マスクをぼかしている。また、特許文献1には、ぼかし幅を調整することや、レイヤ毎に個別にぼかし処理を行うことが記載されている(特許文献1段落0080)。
For example, the technique described in Japanese Patent Application Laid-Open No. 2002-200002 describes a technique of performing a blurring process on an object boundary portion of a mask pattern for the purpose of suppressing a sense of incongruity. Specifically, in the technique described in
例えば特許文献2では、違和感を抑制することを目的とし、指定した被写体の輪郭を平均値フィルタ処理によりぼかす技術が記載されている。また、特許文献2では、平均値フィルタのサイズの大小により、立体感の滑らかさを制御することが記載されている(特許文献1段落0030)。 For example, Japanese Patent Application Laid-Open No. 2002-200000 describes a technique for blurring the outline of a designated subject by means of mean filter processing for the purpose of suppressing discomfort. Further, Patent Document 2 describes that the smoothness of the stereoscopic effect is controlled by the size of the average filter (paragraph 0030 of Patent Document 1).
ここで、2次元画像によっては、前景と背景との境界が明瞭である箇所と、境界が複雑であり不明瞭である箇所とが存在する場合がある。このような、境界が明瞭な箇所と、境界が不明瞭な箇所とで同じぼけ処理を行ってしまうと、3次元画像データの違和感を効果的に抑制できない場合が発生する。 Here, depending on the two-dimensional image, there may be a portion where the boundary between the foreground and the background is clear and a portion where the boundary is complicated and unclear. If the same blurring process is performed on a location with a clear boundary and a location with an unclear boundary, it may not be possible to effectively suppress the discomfort of the three-dimensional image data.
上述した特許文献1及び特許文献2では、前景と背景との境界が明瞭な箇所及び不明瞭な箇所に応じて異なるぼけ具合を与えることについての言及はない。
The
本発明はこのような事情に鑑みてなされたもので、その目的は、効果的に違和感が抑制された3次元画像データを生成する画像処理装置、画像処理方法、及びプログラムを提供することである。 SUMMARY OF THE INVENTION The present invention has been made in view of such circumstances, and an object thereof is to provide an image processing apparatus, an image processing method, and a program for generating three-dimensional image data in which discomfort is effectively suppressed. .
上記目的を達成するための本発明の一の態様である画像処理装置は、2次元画像から、前景及び背景で構成される3次元画像データを生成する画像処理装置であって、2次元画像を取得する画像取得部と、2次元画像における前景の領域を画像処理により推定し、2次元画像の小領域毎に前景の領域である確率を算出する確率算出部と、確率に基づいて、前景と背景との境界領域における前景と背景との混合比率のグラデーションを有する、前景の画像マスクを生成するマスク生成部と、画像マスクにより、前景画像を取得する前景画像取得部と、を備える。 An image processing apparatus according to one aspect of the present invention for achieving the above object is an image processing apparatus for generating three-dimensional image data composed of a foreground and a background from a two-dimensional image. an image acquisition unit for acquiring, a probability calculation unit for estimating a foreground region in a two-dimensional image by image processing and calculating a probability that each small region of the two-dimensional image is a foreground region; A mask generation unit that generates a foreground image mask having a gradation of a mixture ratio of the foreground and the background in a boundary area with the background, and a foreground image acquisition unit that acquires the foreground image using the image mask.
本態様によれば、2次元画像の小領域毎に前景の領域である確率が算出され、その確率に基づいて、前景と背景との境界領域における前景と背景との混合比率のグラデーションを有する前景の画像マスクが生成される。これにより、前景と背景との境界が明瞭な箇所と、境界が不明瞭な箇所とに応じて、境界領域の混合比率のグラデーションが制御され、ぼけ具合が調整される。 According to this aspect, the probability of being a foreground region is calculated for each small region of the two-dimensional image, and based on the probability, the foreground having a gradation of the mixing ratio of the foreground and the background in the boundary region between the foreground and the background. image mask is generated. As a result, the gradation of the mixing ratio of the boundary region is controlled according to the location where the boundary between the foreground and the background is clear and the location where the boundary is unclear, and the degree of blurring is adjusted.
好ましくは、画像処理装置は、2次元画像において、前景画像に対応する領域を補完して、背景画像を取得する背景画像取得部を備える。 Preferably, the image processing apparatus includes a background image obtaining section that obtains the background image by interpolating a region corresponding to the foreground image in the two-dimensional image.
本態様によれば、前景画像に対応する領域を補完して背景画像が取得されるので、違和感が効果的に抑制された3次元画像データを生成することができる。 According to this aspect, since the background image is obtained by interpolating the area corresponding to the foreground image, it is possible to generate three-dimensional image data in which the sense of discomfort is effectively suppressed.
好ましくは、画像マスクの非マスク部分は、2次元画像における前景よりも拡大されている。 Preferably, the unmasked portion of the image mask is magnified more than the foreground in the two-dimensional image.
本態様によれば、画像マスクの非マスク部分が拡大されることにより、拡大された前景画像を得ることができるので、背景画像の欠損部分を覆い隠すことができ、違和感の抑制された3次元画像データを生成することができる。 According to this aspect, since the enlarged foreground image can be obtained by enlarging the non-masked portion of the image mask, the missing portion of the background image can be covered, and the sense of incongruity can be suppressed. Image data can be generated.
好ましくは、画像処理装置は、画像マスクを評価閾値に基づいて2値化し、前景の抽出領域を取得する抽出領域取得部を備え、マスク生成部は、抽出領域と境界領域とで構成される画像マスクを生成する。 Preferably, the image processing device includes an extraction region acquisition unit that binarizes the image mask based on the evaluation threshold and acquires the foreground extraction region, and the mask generation unit generates an image composed of the extraction region and the boundary region. Generate a mask.
本態様によれば、画像マスクを評価閾値に基づいて2値化し、前景の抽出領域が取得され、抽出領域と境界領域とで構成される画像マスクが生成される。これにより、より違和感の抑制された3次元画像データを生成することができる。 According to this aspect, the image mask is binarized based on the evaluation threshold, the foreground extraction region is acquired, and the image mask composed of the extraction region and the boundary region is generated. As a result, it is possible to generate three-dimensional image data in which the sense of discomfort is suppressed.
好ましくは、画像処理装置は、画像マスクを拡大した拡大画像マスクと、抽出領域との差分を取得して、境界領域を取得する境界領域取得部を備える。 Preferably, the image processing apparatus includes a boundary region acquisition unit that acquires a difference between an enlarged image mask obtained by enlarging the image mask and the extraction region to acquire the boundary region.
本態様によれば、拡大画像マスクと抽出領域との差分を取得して、境界領域が取得されるので、より正確に境界領域を取得することができる。 According to this aspect, the boundary area is obtained by obtaining the difference between the enlarged image mask and the extraction area, so that the boundary area can be obtained more accurately.
好ましくは、画像処理装置は、画像マスクを拡大した拡大画像マスクと、抽出領域を縮小した縮小抽出領域との差分を取得して、境界領域を取得する境界領域取得部を備える。 Preferably, the image processing apparatus includes a boundary region obtaining unit that obtains the boundary region by obtaining a difference between an enlarged image mask obtained by enlarging the image mask and a reduced extraction region obtained by reducing the extraction region.
本態様によれば、抽出領域を拡大した拡大抽出領域と、抽出領域を縮小した縮小抽出領域との差分を取得して、境界領域が取得される。これにより、境界部分の幅がより広くなった拡大された前景画像を取得することができる。 According to this aspect, the boundary area is obtained by obtaining the difference between the enlarged extraction area obtained by enlarging the extraction area and the reduced extraction area obtained by reducing the extraction area. This makes it possible to acquire an enlarged foreground image in which the width of the boundary portion is wider.
好ましくは、境界領域は、10ピクセル以上20ピクセル以下の幅を有する。 Preferably, the border region has a width of no less than 10 pixels and no more than 20 pixels.
好ましくは、確率算出部は、前景を抽出する学習済みの認識器で構成される。 Preferably, the probability calculation unit is composed of a trained recognizer for extracting the foreground.
好ましくは、3次元画像データはレンチキュラー印刷用である。 Preferably, the three-dimensional image data is for lenticular printing.
本発明の他の態様である画像処理方法は、2次元画像から、前景及び背景で構成される3次元画像データを生成する画像処理方法であって、2次元画像を取得するステップと、2次元画像における前景の領域を画像処理により推定し、2次元画像の小領域毎に前景の領域である確率を算出するステップと、確率に基づいて、前景と背景との境界領域における前景と背景との混合比率のグラデーションを有する、前景の画像マスクを生成するステップと、画像マスクにより、前景画像を取得するステップと、を含む。 An image processing method according to another aspect of the present invention is an image processing method for generating three-dimensional image data composed of a foreground and a background from a two-dimensional image, the image processing method comprising: obtaining a two-dimensional image; a step of estimating a foreground region in an image by image processing and calculating the probability that each small region of the two-dimensional image is a foreground region; generating a foreground image mask with a blend ratio gradation; and obtaining a foreground image with the image mask.
本発明の他の態様であるプログラムは、2次元画像から、前景及び背景で構成される3次元画像データを生成する画像処理工程をコンピュータに実行させるプログラムであって、2次元画像を取得する工程と、2次元画像における前景の領域を画像処理により推定し、2次元画像の小領域毎に前景の領域である確率を算出する工程と、確率に基づいて、前景と背景との境界領域における前景と背景との混合比率のグラデーションを有する、前景の画像マスクを生成する工程と、画像マスクにより、前景画像を取得する工程と、を含む画像処理工程をコンピュータに実行させる。 A program that is another aspect of the present invention is a program that causes a computer to execute an image processing step of generating three-dimensional image data composed of a foreground and a background from a two-dimensional image, the step of acquiring the two-dimensional image. a step of estimating a foreground region in a two-dimensional image by image processing and calculating the probability that each small region of the two-dimensional image is a foreground region; causing a computer to perform image processing steps including generating a foreground image mask having a gradation of mixing ratios of to and background; and obtaining a foreground image from the image mask.
本発明によれば、2次元画像の小領域毎に前景の領域である確率が算出され、その確率に基づいて、前景と背景との境界領域における前景と背景との混合比率のグラデーションを有する前景の画像マスクが生成されるので、前景と背景との境界が明瞭な箇所と、境界が不明瞭な箇所とに応じて、境界領域の混合比率のグラデーションが制御されてぼけ具合が調整される。 According to the present invention, the probability of being a foreground region is calculated for each small region of a two-dimensional image, and based on the probability, the foreground having a gradation of the mixing ratio of the foreground and the background in the boundary region between the foreground and the background. image mask is generated, the degree of blurring is adjusted by controlling the gradation of the mixing ratio of the boundary region according to the location where the boundary between the foreground and the background is clear and the location where the boundary is unclear.
以下、添付図面に従って本発明に係る画像処理装置、画像処理方法、及びプログラムの好ましい実施の形態について説明する。 Preferred embodiments of an image processing apparatus, an image processing method, and a program according to the present invention will be described below with reference to the accompanying drawings.
図1は、本発明の画像処理装置を備えるコンピュータの外観を示す図である。 FIG. 1 is a diagram showing the appearance of a computer equipped with an image processing apparatus of the present invention.
コンピュータ3は、本発明の一態様である画像処理装置11(図2)を搭載している。コンピュータ3には、2次元画像201が入力され、モニタ9で構成される表示部とキーボード5およびマウス7で構成される入力部が接続されている。なお、図示されたコンピュータ3の形態は一例であり、コンピュータ3と同様の機能を有する装置は本発明の画像処理装置11を備えることができる。例えば、タブレット端末に画像処理装置11を搭載することも可能である。
The
コンピュータ3は、画像処理装置11(図2)に入力された2次元画像201、生成された3次元画像データをモニタ9に表示する。ユーザは、指令をキーボード5およびマウス7により入力する。
The
図2は、画像処理装置11の機能構成例を示すブロック図である。図2に示す画像処理装置11の各種制御を実行するハードウェア的な構造は、次に示すような各種のプロセッサ(processor)である。各種のプロセッサには、ソフトウェア(プログラム)を実行して各種の制御部として機能する汎用的なプロセッサであるCPU(Central Processing Unit)、FPGA(Field Programmable Gate Array)などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路などが含まれる。
FIG. 2 is a block diagram showing a functional configuration example of the
1つの処理部は、これら各種のプロセッサのうちの1つで構成されていてもよいし、同種又は異種の2つ以上のプロセッサ(例えば、複数のFPGA、あるいはCPUとFPGAの組み合わせ)で構成されてもよい。また、複数の制御部を1つのプロセッサで構成してもよい。複数の制御部を1つのプロセッサで構成する例としては、第1に、クライアントやサーバなどのコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組合せで1つのプロセッサを構成し、このプロセッサが複数の制御部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)などに代表されるように、複数の制御部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の制御部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。 One processing unit may be composed of one of these various processors, or composed of two or more processors of the same type or different types (for example, a plurality of FPGAs, or a combination of a CPU and an FPGA). may Also, a plurality of control units may be configured by one processor. As an example of configuring a plurality of control units with a single processor, first, as represented by a computer such as a client or a server, a single processor is configured by combining one or more CPUs and software. There is a form in which a processor functions as multiple controllers. Secondly, as typified by System On Chip (SoC), etc., there is a form of using a processor that realizes the functions of the entire system including multiple control units with a single IC (Integrated Circuit) chip. be. In this way, various control units are configured using one or more of the above various processors as a hardware structure.
画像処理装置11は、画像取得部13、確率算出部15、マスク生成部17、前景画像取得部19、背景画像取得部21、3次元画像データ生成部25、表示制御部23、及び記憶部26を備える。記憶部26には、プログラムおよび画像処理装置11の各種制御に係る情報等が記憶される。また、表示制御部23は、モニタ9による表示を制御する。
The
画像取得部13は2次元画像201を取得する。2次元画像201は、例えば主要被写体で構成される前景と、その前景以外の背景とを有する。
The
確率算出部15は、2次元画像における前景の領域を画像処理により推定し、2次元画像の小領域毎に前景の領域である確率を算出する。確率算出部15で行われる推定及び確率の算出は、公知の手法が適用される。例えば、確率算出部15は、前景を抽出する学習済みの認識器で構成される。確率算出部15は、小領域毎に前景の領域であることを画像処理で推定し、その小領域毎にその推定に基づく確率を算出する。また、確率算出部15が算出する2次元画像の小領域は、例えば1画素毎であったり、2×2画素毎であったり、所定の大きさの領域のことを意味する。
The
マスク生成部17は、前景を取得するための画像マスクを生成する。画像マスクは、確率算出部15で算出された前景である領域の確率に基づいて、前景と背景との境界領域における前景と背景との混合比率のグラデーションを有する。すなわち、画像マスクは、境界領域において、前景の領域である確率に基づいたぼけを有する。画像マスクは、確率算出部15で算出された確率をそのまま用いて、マスク部分及び非マスク部分を構成してもよいし、確率算出部15で算出された確率に基づいて抽出される抽出領域及び境界領域とで、マスク部分及び非マスク部分を構成してもよい。また、マスク生成部17は、抽出領域取得部18及び境界領域取得部20を有する。
The
抽出領域取得部18は抽出領域を取得する。具体的には、抽出領域取得部18は、確率付き画像マスクを評価閾値に基づいて2値化し、前景の抽出領域を取得する。ここで抽出領域とは、前景の領域である確率が一定以上の領域のことである。 The extraction area obtaining unit 18 obtains an extraction area. Specifically, the extraction region acquiring unit 18 binarizes the image mask with probability based on the evaluation threshold value and acquires the foreground extraction region. Here, the extraction area is an area that has a certain probability of being a foreground area.
境界領域取得部20は、確率付き画像マスクにおける境界領域を取得する。確率付き画像マスクの境界領域では、前景と背景との混合比率のグラデーションを有する。 The boundary region obtaining unit 20 obtains a boundary region in the image mask with probability. The boundary area of the image mask with probability has a gradation of the mixture ratio of the foreground and the background.
前景画像取得部19は、画像マスクにより、前景画像を取得する。
The foreground
背景画像取得部21は、2次元画像において、前景画像に対応する領域を補完して、背景画像を取得する。
The background
3次元画像データ生成部25は、前景画像取得部19で取得された前景画像、及び背景画像取得部21で取得された背景画像により3次元画像データを生成する。例えば、3次元画像データ生成部25は、レンチキュラー印刷用の3次元画像データを生成する。
The 3D image
次に、画像処理装置11により行われる、レンチキュラー印刷用画像データである3次元画像データの生成の具体例に関して説明する。
Next, a specific example of generating three-dimensional image data, which is image data for lenticular printing, performed by the
<画像処理の工程>
図3は、画像処理装置11により、2次元画像から3次元画像データを生成する画像処理工程(画像処理方法)を示すフローチャートである。先ず、画像処理工程の全体を説明し、その後に各工程について詳しく説明をする。<Image processing process>
FIG. 3 is a flow chart showing an image processing process (image processing method) for generating three-dimensional image data from a two-dimensional image by the
画像取得部13は、2次元画像Aを取得する(ステップS10)。その後、確率算出部15は、前景となる領域を画像処理により自動抽出し、その後に前景である確率を算出し、次にマスク生成部17は、算出された確率に基づいて確率付き画像マスクBを生成する(ステップS11)。次に、抽出領域取得部18は、確率付き画像マスクBを2値化し、抽出領域Cを取得する(ステップS12)。その後、境界領域取得部20は、抽出領域Cに基づいて境界領域を計算して、確率付き画像マスクBから境界領域Dを抜き出す(ステップS13)。そして、マスク生成部17により、抽出領域Cと境界領域Dとを合成して、画像マスクEを生成する(ステップS14)。
The
前景画像取得部19は、画像マスクEを適用して、前景画像Fを取得する(ステップS15)。また、背景画像取得部21は、画像マスクEの非マスク部分を周りの画素から補完し背景画像Gとする(ステップS16)。その後、3次元画像データ生成部25により、前景画像F及び背景画像Gを用いて、レンチキュラー印刷用データが生成される(ステップS17)。
The foreground
次に、上述した各工程(ステップ)に関して、詳細に説明する。 Next, each process (step) described above will be described in detail.
<ステップS10及びステップS11>
ステップS10及びステップS11では、2次元画像Aが入力され、確率付き画像マスクBが生成される。図4は、2次元画像A201と確率付き画像マスクB203とを概念的に示す図である。<Step S10 and Step S11>
In steps S10 and S11, a two-dimensional image A is input and an image mask B with probability is generated. FIG. 4 is a diagram conceptually showing a two-dimensional image A201 and an image mask with probability B203.
2次元画像A201は、人物である主要被写体Oを有している。2次元画像A201における主要被写体Oを前景とし、主要被写体Oを除いた部分で構成される背景とで、3次元画像データが生成される。 A two-dimensional image A201 has a main subject O that is a person. Three-dimensional image data is generated with the main subject O in the two-dimensional image A201 as the foreground and the background consisting of the portion other than the main subject O. FIG.
確率付き画像マスクB203は、主要被写体Oを画像処理により自動抽出し、前景部分に対応した非マスク部分P及び背景部分に対応したマスク部分Mを有している。また、確率付き画像マスクB203は、前景の領域である確率を小領域毎に有している。確率付き画像マスクB203を適用して、前景を取得してもよいが、後述する画像マスクE213を適用して前景を取得することにより、より正確な前景画像の取得を行うことができる。 The image mask B203 with probability automatically extracts the main subject O by image processing, and has a non-masked portion P corresponding to the foreground portion and a masked portion M corresponding to the background portion. Further, the image mask B203 with probability has a probability of being a foreground region for each small region. The foreground may be acquired by applying the image mask B203 with probability, but by acquiring the foreground by applying the image mask E213 described later, a more accurate foreground image can be acquired.
図5は、確率付き画像マスクB203の拡大図を示す図である。図5(A)には、確率付き画像マスクB203が示されており、図5(B)には、確率付き画像マスクB203の領域Hの拡大図が示されており、図5(C)には、領域Jの拡大図が示されている。図5(C)に示されている図の矢印Nで示すように、確率付き画像マスクB203は、前景と背景との境界領域において混合比率のグラデーションを有しており、これに応じてぼけを有する。なお、このグラデーションは前景の領域である確率に基づくものであり、前景と背景との境界部分が明瞭な部分では、グラデーションは急であり狭くなり、前景と背景との境界部分が不明瞭な部分では、グラデーションは緩く広くなる。 FIG. 5 is an enlarged view of the image mask with probability B203. 5A shows the image mask B203 with probability, FIG. 5B shows an enlarged view of region H of the image mask B203 with probability, and FIG. , an enlarged view of region J is shown. As indicated by the arrow N in the drawing shown in FIG. 5C, the image mask B203 with probability has a gradation of the mixture ratio in the boundary area between the foreground and the background, and blurs accordingly. have. Note that this gradation is based on the probability that it is the foreground area. In areas where the boundary between the foreground and background is clear, the gradation is steep and narrow, and in areas where the boundary between the foreground and background is unclear. , the gradient becomes looser and wider.
図6は、前景と背景との境界部分が明瞭な場合、及び前景と背景との境界部分が不明瞭な場合の境界部分の混合比率のグラデーションを示す概念図である。図6(A)は、前景と背景との境界部分が明瞭な場合の前景の領域である確率のグラデーションが示されている。また、図6(B)は、前景と背景との境界部分が不明瞭な場合の前景の領域である確率のグラデーションが示されている。 FIG. 6 is a conceptual diagram showing the gradation of the mixing ratio of the boundary portion when the boundary portion between the foreground and background is clear and when the boundary portion between the foreground and background is unclear. FIG. 6A shows the gradation of the probability of being the foreground area when the boundary between the foreground and the background is clear. FIG. 6B shows the gradation of the probability of being the foreground area when the boundary between the foreground and the background is unclear.
図6(A)に示す場合では、前景である確率100%の領域301と前景である確率0%である領域(背景の領域)305が明瞭であるために、境界303におけるグラデーションが急であり狭くなっている。一方、図6(B)に示す場合では、前景である確率100%の領域301と前景である確率0%である領域305が不明瞭であるために、境界303におけるグラデーションが緩やかであり広くなる。このように、前景の領域である確率のグラデーションは、前景と背景との境界が明瞭な部分と不明瞭な部分と異なるので、このグラデーションを利用して、前景のぼけ具合を調整することにより、3次元画像データにおいて違和感を効果的に抑制することができる。
In the case shown in FIG. 6A, the
<ステップS12>
ステップS12では、抽出領域Cが取得される。図7は、抽出領域取得部18で行われる抽出領域Cの抽出に関して、説明する図である。抽出領域取得部18は、確率付き画像マスクB203の小領域毎に付されている確率を評価閾値に基づいて二値化する。例えば、抽出領域取得部18は、確率が0%から100%で示されている場合には、確率が50%以上の領域と確率が50%未満の領域とで2値化する。抽出領域C209は、前景の領域である確率が50%以上である非マスク部分Pを有し、前景の領域である確率が50%未満のマスク部分Mを有している。すなわち、抽出領域C209では、2値化された非マスク部分Pとマスク部分Mを有している。<Step S12>
At step S12, an extraction region C is acquired. FIG. 7 is a diagram for explaining the extraction of the extraction region C performed by the extraction region acquiring unit 18. As shown in FIG. The extraction region obtaining unit 18 binarizes the probability attached to each small region of the image mask B203 with probability based on the evaluation threshold. For example, when the probability is indicated by 0% to 100%, the extraction region acquiring unit 18 binarizes the region with a probability of 50% or more and the region with a probability of less than 50%. The extraction region C209 has a non-masked portion P with a probability of being a foreground region of 50% or more, and has a masked portion M with a probability of being a foreground region of less than 50%. That is, the extraction region C209 has a binarized non-masked portion P and a masked portion M. FIG.
<ステップS13>
ステップS13では境界領域Dが取得される。図8は、境界領域取得部20で行われる境界領域Dの取得に関して説明する図である。図8に示した場合では、確率付き画像マスクB203から抽出領域C209を差し引くことで境界領域D211を生成する。具体的には、確率付き画像マスクB203を拡大した(拡大画像マスク)後に、抽出領域C209を差し引くことで境界領域D211を生成する。また、確率付き画像マスクB203を拡大した(拡大画像マスク)後に、縮小した抽出領域C209(縮小抽出領域)を差し引くことで境界領域D211を生成してもよい。例えば、確率付き画像マスクB203を縦横に10ピクセル分拡大した後に、抽出領域C209を縦横に10ピクセル分縮小して、差分を得る。境界領域D211は、確率付き画像マスクB203の境界領域における前景と背景との混合比率のグラデーションを有する。このように、確率付き画像マスクB203及び抽出領域Cに関して拡縮を行うことにより、境界領域D211の幅を制御することができる。例えば、境界領域D211の幅は、10ピクセル以上20ピクセル以下であることが好ましい。<Step S13>
In step S13, the boundary area D is obtained. FIG. 8 is a diagram for explaining acquisition of the boundary area D performed by the boundary area acquisition unit 20. As shown in FIG. In the case shown in FIG. 8, the boundary region D211 is generated by subtracting the extraction region C209 from the image mask B203 with probability. Specifically, after enlarging the image mask B203 with probability (enlarged image mask), the boundary area D211 is generated by subtracting the extraction area C209. Alternatively, the boundary area D211 may be generated by subtracting the reduced extraction area C209 (reduced extraction area) after enlarging the image mask B203 with probability (enlarged image mask). For example, after enlarging the image mask B203 with probability by 10 pixels vertically and horizontally, the extraction region C209 is reduced by 10 pixels vertically and horizontally to obtain the difference. The boundary area D211 has a gradation of the mixing ratio of the foreground and background in the boundary area of the image mask B203 with probability. By scaling the image mask B203 with probability and the extraction region C in this way, the width of the boundary region D211 can be controlled. For example, the width of the boundary area D211 is preferably 10 pixels or more and 20 pixels or less.
<ステップS14>
ステップS14では、画像マスクEが生成される。図9は、マスク生成部17により行われる画像マスクE213の生成に関して説明する図である。マスク生成部17は、抽出領域C209と境界領域D211とを合成することにより、画像マスクE213を得る。例えば、確率付き画像マスクB203を縦横に10ピクセル分拡大した後に、抽出領域C209を縦横に10ピクセル分縮小して、境界領域D211を得た場合には、縦横10ピクセル分縮小した抽出領域C209と合成して、画像マスクE213を得る。画像マスクE213は、抽出領域C209の部分では2値化された均一の値を有し、境界領域D211の部分ではグラデーションを有する。このように合成して画像マスクE213を生成することにより、非マスク部分Pとマスク部分Mとの境界部分では、前景と背景との混合比率のグラデーションを有しぼけを発生させ、且つ非マスク部分Pの境界領域以外の部分(抽出領域)では確実に非マスクとなる。<Step S14>
At step S14, an image mask E is generated. FIG. 9 is a diagram illustrating generation of the image mask E213 performed by the
図10は、図9で示した画像マスクE213の領域Rの拡大図である。図10に示すように画像マスクE213の領域Rでは、非マスク部分Pとマスク部分Mとの混合比率のグラデーションを有する(矢印Nで示す)。このようなグラデーションを有する画像マスクE213を適用して、前景及び背景を取得することにより、適切なぼけを有する前景及び背景を取得することができる。 FIG. 10 is an enlarged view of region R of image mask E213 shown in FIG. As shown in FIG. 10, the region R of the image mask E213 has a gradation of the mixing ratio of the non-masked portion P and the masked portion M (indicated by arrow N). By applying the image mask E213 having such a gradation to obtain the foreground and background, it is possible to obtain the foreground and background having appropriate blurring.
<ステップS15>
ステップS15では画像マスクEが得られる。図11は、前景画像取得部19により、前景画像F215を取得することを説明する図である。図11に示すように、2次元画像201に対して画像マスクE213を適用することにより、前景画像F215を取得する。画像マスクE213は、境界部分において前景の領域である確率に応じたグラデーションを有しているので、前景画像F215は確率に応じたぼけを有する。すなわち、前景画像F215は、前景と背景との境界が明瞭な箇所と、境界が不明瞭な箇所とに応じて、ぼけ具合が調整されている。<Step S15>
An image mask E is obtained in step S15. FIG. 11 is a diagram illustrating acquisition of the foreground image F215 by the foreground
ここで、前景画像F215は、元の2次元画像A201の主要被写体Oに対して拡大することにより、背景の欠損部分をカバーすることができる。図12及び図13は、3次元画像における背景の欠損部分に関して説明する図である。図12では、正面から3次元画像を見た場合、すなわち、前景画像F215が背景画像に対して移動させられていない場合を示している。この場合には、前景画像F215が移動されていないので、背景の欠損部分が出てくることはなく、欠損部分が目立つということはない。一方、図13では、斜めから3次元画像を見た場合、すなわち、前景画像F215が背景画像に対して移動させられている場合を示している。この場合には、前景画像F215が移動されているので、背景の欠損部分Uが発生し、欠損部分Uが目立ってしまう。このような場合には、前景画像F215を拡大することにより欠損部分Uをカバーすることができる。 Here, the foreground image F215 can cover the missing portion of the background by enlarging the main subject O of the original two-dimensional image A201. 12 and 13 are diagrams for explaining the background missing portion in the three-dimensional image. FIG. 12 shows the case where the three-dimensional image is viewed from the front, that is, the case where the foreground image F215 is not moved with respect to the background image. In this case, since the foreground image F215 has not been moved, the missing portion of the background does not appear and the missing portion is not conspicuous. On the other hand, FIG. 13 shows a case where the three-dimensional image is viewed obliquely, that is, a case where the foreground image F215 is moved with respect to the background image. In this case, since the foreground image F215 has been moved, the missing portion U of the background is generated and the missing portion U stands out. In such a case, the missing portion U can be covered by enlarging the foreground image F215.
<ステップS16>
ステップS16では、背景画像Gが得られる。図14は、背景画像取得部21により、取得された背景画像G217を示す図である。図14に示された図では、図11で示された前景画像F215の箇所を補完して、背景画像取得部21により、背景画像G217が生成されている。なお、背景画像取得部21で行われる補完は公知の技術により行われる。<Step S16>
At step S16, a background image G is obtained. FIG. 14 is a diagram showing the background image G217 acquired by the background
<ステップS17>
ステップS17では、レンチキュラー印刷用データが生成される。図15は、3次元画像データの生成に用いられる画像を示す図である。画像223は、正面から見た図であり、前景と背景との位置関係は元の2次元画像Aと同じである。画像221は、前景画像F215を背景画像G217に対して矢印Vの方向に移動させており、画像225は、前景画像F215を背景画像G217に対して矢印Wの方向に移動させている。例えば、3次元画像データ生成部25により、画像221、画像223、及び画像225を使用してレンチキュラー印刷用の3次元画像データが生成される。<Step S17>
In step S17, data for lenticular printing is generated. FIG. 15 is a diagram showing images used to generate three-dimensional image data. The
上述の各構成及び機能は、任意のハードウェア、ソフトウェア、或いは両者の組み合わせによって適宜実現可能である。例えば、上述の処理ステップ(処理手順)をコンピュータに実行させるプログラム、そのようなプログラムを記録したコンピュータ読み取り可能な記録媒体(非一時的記録媒体)、或いはそのようなプログラムをインストール可能なコンピュータに対しても本発明を適用することが可能である。 Each configuration and function described above can be appropriately realized by arbitrary hardware, software, or a combination of both. For example, a program that causes a computer to execute the above-described processing steps (procedures), a computer-readable recording medium (non-temporary recording medium) recording such a program, or a computer capable of installing such a program However, it is possible to apply the present invention.
以上で本発明の例に関して説明してきたが、本発明は上述した実施の形態に限定されず、本発明の精神を逸脱しない範囲で種々の変形が可能であることは言うまでもない。 Although examples of the present invention have been described above, it goes without saying that the present invention is not limited to the above-described embodiments, and that various modifications are possible without departing from the spirit of the present invention.
3 :コンピュータ
5 :キーボード
7 :マウス
9 :モニタ
10 :縦横
11 :画像処理装置
13 :画像取得部
15 :確率算出部
17 :マスク生成部
18 :抽出領域取得部
19 :前景画像取得部
20 :境界領域取得部
21 :背景画像取得部
23 :表示制御部
25 :3次元画像データ生成部
26 :記憶部
201 :2次元画像3 : Computer 5 : Keyboard 7 : Mouse 9 : Monitor 10 : Vertical and horizontal 11 : Image processing device 13 : Image acquisition unit 15 : Probability calculation unit 17 : Mask generation unit 18 : Extraction region acquisition unit 19 : Foreground image acquisition unit 20 : Boundary Area acquisition unit 21 : Background image acquisition unit 23 : Display control unit 25 : Three-dimensional image data generation unit 26 : Storage unit 201 : Two-dimensional image
Claims (12)
前記2次元画像を取得する画像取得部と、
前記2次元画像における前記前景の領域を画像処理により推定し、前記2次元画像の小領域毎に前記前景の領域である確率を算出する確率算出部と、
前記2次元画像に対し、前記前景の部分に対応するマスクを行わない非マスク部分と、前記背景の部分に対応するマスクを行うマスク部分とで構成される画像マスクであって、前記前景と前記背景との境界領域では、前記確率に基づいて、前記前景と前記背景との混合比率のグラデーションを有する、前記前景を取得するための画像マスクを生成するマスク生成部と、
前記画像マスクにより、前景画像を取得する前景画像取得部と、
を備え、
前記混合比率は、前記確率が高いほど、前記背景に対する前記前景の比率が高い、
画像処理装置。 An image processing device that generates three-dimensional image data composed of a foreground and a background from a two-dimensional image,
an image acquisition unit that acquires the two-dimensional image;
a probability calculation unit that estimates the foreground region in the two-dimensional image by image processing and calculates a probability that each small region of the two-dimensional image is the foreground region;
An image mask composed of a non-masked portion corresponding to the foreground portion and a masked portion corresponding to the background portion for the two-dimensional image, wherein the foreground and the a mask generation unit for generating an image mask for obtaining the foreground, which has a gradation of a mixing ratio of the foreground and the background in the boundary area with the background , based on the probability;
a foreground image obtaining unit that obtains a foreground image using the image mask;
with
In the mixing ratio, the higher the probability, the higher the ratio of the foreground to the background.
Image processing device.
前記マスク生成部は、前記抽出領域と前記境界領域とで構成される前記画像マスクを生成する請求項1から3のいずれか1項に記載の画像処理装置。 an extraction region acquisition unit that binarizes the image mask based on an evaluation threshold and acquires the foreground extraction region;
4. The image processing apparatus according to any one of claims 1 to 3, wherein the mask generation unit generates the image mask composed of the extraction region and the boundary region.
前記2次元画像を取得するステップと、
前記2次元画像における前記前景の領域を画像処理により推定し、前記2次元画像の小領域毎に前記前景の領域である確率を算出するステップと、
前記2次元画像に対し、前記前景の部分に対応するマスクを行わない非マスク部分と、前記背景の部分に対応するマスクを行うマスク部分とで構成される画像マスクであって、前記前景と前記背景との境界領域では、前記確率に基づいて、前記前景と前記背景との混合比率のグラデーションを有する、前記前景を取得するための画像マスクを生成するステップと、
前記画像マスクにより、前景画像を取得するステップと、
を含み、
前記混合比率は、前記確率が高いほど、前記背景に対する前記前景の比率が高い、
画像処理方法。 An image processing method for generating three-dimensional image data composed of a foreground and a background from a two-dimensional image,
obtaining the two-dimensional image;
estimating the foreground region in the two-dimensional image by image processing, and calculating the probability that each small region of the two-dimensional image is the foreground region;
An image mask composed of a non-masked portion corresponding to the foreground portion and a masked portion corresponding to the background portion for the two-dimensional image, wherein the foreground and the generating an image mask for obtaining the foreground, having a gradation of the mixing ratio of the foreground and the background in the boundary region with the background , based on the probability;
obtaining a foreground image with the image mask;
including
In the mixing ratio, the higher the probability, the higher the ratio of the foreground to the background.
Image processing method.
前記2次元画像を取得する工程と、
前記2次元画像における前記前景の領域を画像処理により推定し、前記2次元画像の小領域毎に前記前景の領域である確率を算出する工程と、
前記2次元画像に対し、前記前景の部分に対応するマスクを行わない非マスク部分と、前記背景の部分に対応するマスクを行うマスク部分とで構成される画像マスクであって、前記前景と前記背景との境界領域では、前記確率に基づいて、前記前景と前記背景との混合比率のグラデーションを有する、前記前景を取得するための前記画像マスクを生成する工程と、
前記画像マスクにより、前景画像を取得する工程と、
を含み、
前記混合比率は、前記確率が高いほど、前記背景に対する前記前景の比率が高い、画像処理工程をコンピュータに実行させるプログラム。 A program for causing a computer to execute an image processing process for generating three-dimensional image data composed of a foreground and a background from a two-dimensional image,
obtaining the two-dimensional image;
a step of estimating the foreground region in the two-dimensional image by image processing, and calculating the probability that each small region of the two-dimensional image is the foreground region;
An image mask composed of a non-masked portion corresponding to the foreground portion and a masked portion corresponding to the background portion for the two-dimensional image, wherein the foreground and the generating the image mask for obtaining the foreground, which has a gradation of the mixing ratio of the foreground and the background in the boundary region with the background , based on the probability;
obtaining a foreground image with the image mask;
including
A program for causing a computer to execute an image processing step, wherein the mixing ratio is such that the higher the probability, the higher the ratio of the foreground to the background .
2次元画像から、前景及び背景で構成される3次元画像データを生成する画像処理工程であって、
前記2次元画像を取得する工程と、
前記2次元画像における前記前景の領域を画像処理により推定し、前記2次元画像の小領域毎に前記前景の領域である確率を算出する工程と、
前記2次元画像に対し、前記前景の部分に対応するマスクを行わない非マスク部分と、前記背景の部分に対応するマスクを行うマスク部分とで構成される画像マスクであって、前記前景と前記背景との境界領域では、前記確率に基づいて、前記前景と前記背景との混合比率のグラデーションを有する、前記前景を取得するための画像マスクを生成する工程と、
前記画像マスクにより、前景画像を取得する工程と、
を含み、
前記混合比率は、前記確率が高いほど、前記背景に対する前記前景の比率が高い、画像処理工程をコンピュータに実行させる記録媒体。 A non-transitory computer-readable recording medium, wherein when instructions stored on the recording medium are read by a computer,
An image processing step for generating three-dimensional image data composed of a foreground and a background from a two-dimensional image,
obtaining the two-dimensional image;
a step of estimating the foreground region in the two-dimensional image by image processing, and calculating the probability that each small region of the two-dimensional image is the foreground region;
An image mask composed of a non-masked portion corresponding to the foreground portion and a masked portion corresponding to the background portion for the two-dimensional image, wherein the foreground and the generating an image mask for obtaining the foreground, which has a gradation of the mixing ratio of the foreground and the background in the boundary region with the background , based on the probability;
obtaining a foreground image with the image mask;
including
A recording medium for causing a computer to execute an image processing step, wherein the mixing ratio is such that the higher the probability, the higher the ratio of the foreground to the background .
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018152660 | 2018-08-14 | ||
JP2018152660 | 2018-08-14 | ||
PCT/JP2019/030257 WO2020036072A1 (en) | 2018-08-14 | 2019-08-01 | Image processing device, image processing method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2020036072A1 JPWO2020036072A1 (en) | 2021-08-26 |
JP7143419B2 true JP7143419B2 (en) | 2022-09-28 |
Family
ID=69525502
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020537411A Active JP7143419B2 (en) | 2018-08-14 | 2019-08-01 | Image processing device, image processing method, and program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7143419B2 (en) |
WO (1) | WO2020036072A1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115908120B (en) * | 2023-01-06 | 2023-07-07 | 荣耀终端有限公司 | Image processing method and electronic device |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010061478A (en) | 2008-09-04 | 2010-03-18 | Sony Computer Entertainment Inc | Image processing device, object tracking device, and image processing method |
JP2014072639A (en) | 2012-09-28 | 2014-04-21 | Jvc Kenwood Corp | Image processing apparatus, image processing method, and image processing program |
US20170116777A1 (en) | 2015-10-21 | 2017-04-27 | Samsung Electronics Co., Ltd. | Image processing method and apparatus |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8175384B1 (en) * | 2008-03-17 | 2012-05-08 | Adobe Systems Incorporated | Method and apparatus for discriminative alpha matting |
US8391594B1 (en) * | 2009-05-28 | 2013-03-05 | Adobe Systems Incorporated | Method and apparatus for generating variable-width border masks |
-
2019
- 2019-08-01 WO PCT/JP2019/030257 patent/WO2020036072A1/en active Application Filing
- 2019-08-01 JP JP2020537411A patent/JP7143419B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010061478A (en) | 2008-09-04 | 2010-03-18 | Sony Computer Entertainment Inc | Image processing device, object tracking device, and image processing method |
JP2014072639A (en) | 2012-09-28 | 2014-04-21 | Jvc Kenwood Corp | Image processing apparatus, image processing method, and image processing program |
US20170116777A1 (en) | 2015-10-21 | 2017-04-27 | Samsung Electronics Co., Ltd. | Image processing method and apparatus |
Also Published As
Publication number | Publication date |
---|---|
WO2020036072A1 (en) | 2020-02-20 |
JPWO2020036072A1 (en) | 2021-08-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106846241B (en) | Image fusion method, device and equipment | |
CN109409335B (en) | Image processing method, image processing device, computer readable medium and electronic equipment | |
US8824821B2 (en) | Method and apparatus for performing user inspired visual effects rendering on an image | |
US20180300937A1 (en) | System and a method of restoring an occluded background region | |
EP2087466B1 (en) | Generation of depth map for an image | |
US20190098278A1 (en) | Image processing apparatus, image processing method, and storage medium | |
JP5474061B2 (en) | Method and apparatus for filling in an area of occlusion in a depth or parallax map estimated based on at least two images | |
CN109660783B (en) | Virtual reality parallax correction | |
WO2018177364A1 (en) | Filter implementation method and device | |
JP2019125929A5 (en) | ||
CN109462747B (en) | DIBR system cavity filling method based on generation countermeasure network | |
US9734551B1 (en) | Providing depth-of-field renderings | |
TW201436552A (en) | Method and apparatus for increasing frame rate of an image stream using at least one higher frame rate image stream | |
JP7143419B2 (en) | Image processing device, image processing method, and program | |
Jung | A modified model of the just noticeable depth difference and its application to depth sensation enhancement | |
EP3796644A1 (en) | A method for capturing and rendering a video stream | |
JP2008016006A (en) | Reliable image sharpening method | |
JP2010055410A (en) | Image processing device, image processing method, and image processing program | |
EP3070670B1 (en) | Using frequency decomposition for better color consistency in a synthesized region | |
Northam et al. | Stereoscopic 3D image stylization | |
WO2018029399A1 (en) | Apparatus, method, and computer program code for producing composite image | |
JP5617426B2 (en) | Jaggy mitigation processing apparatus and jaggy mitigation processing method | |
KR102126919B1 (en) | Rain synthesis algorithm for training road object detection schemes under a bad weather | |
JP2021060649A (en) | Image processing device, system, and program | |
US9412188B2 (en) | Method and image processing system for removing a visual object from an image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210201 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220411 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220608 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220822 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220914 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7143419 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |