JP7170052B2 - 3D image generation device, 3D image generation method, and program - Google Patents
3D image generation device, 3D image generation method, and program Download PDFInfo
- Publication number
- JP7170052B2 JP7170052B2 JP2020548374A JP2020548374A JP7170052B2 JP 7170052 B2 JP7170052 B2 JP 7170052B2 JP 2020548374 A JP2020548374 A JP 2020548374A JP 2020548374 A JP2020548374 A JP 2020548374A JP 7170052 B2 JP7170052 B2 JP 7170052B2
- Authority
- JP
- Japan
- Prior art keywords
- dimensional image
- subject
- background
- image
- main subject
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B35/00—Stereoscopic photography
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B35/00—Stereoscopic photography
- G03B35/18—Stereoscopic photography by simultaneous viewing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/122—Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/261—Image signal generators with monoscopic-to-stereoscopic image conversion
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/282—Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/302—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
- H04N13/305—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using lenticular lenses, e.g. arrangements of cylindrical lenses
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- Processing Or Creating Images (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Stereoscopic And Panoramic Photography (AREA)
Description
本発明は、3次元画像生成装置、3次元画像生成方法、及びプログラムに関し、特に2次元画像から視差画像を生成する3次元画像生成装置、3次元画像生成方法、及びプログラムに関する。 The present invention relates to a three-dimensional image generation device, a three-dimensional image generation method, and a program, and more particularly to a three-dimensional image generation device, a three-dimensional image generation method, and a program for generating parallax images from two-dimensional images.
従来より、入力された2次元画像の被写体(オブジェクト)及び背景に対して奥行き情報を付加して3次元画像データを生成する技術が提案されている。 2. Description of the Related Art Conventionally, techniques have been proposed for generating three-dimensional image data by adding depth information to a subject (object) and background of an input two-dimensional image.
例えば特許文献1には、入力された被写体画像(2次元画像)から被写体領域を抽出し、その被写体領域から被写体の奥行き分布を表す視差マップを抽出し、視差マップ及び被写体画像から多視点画像(視差画像)を生成する技術が記載されている。 For example, in Patent Document 1, a subject area is extracted from an input subject image (two-dimensional image), a parallax map representing the depth distribution of the subject is extracted from the subject area, and a multi-view image ( A technique for generating a parallax image) is described.
また、特許文献2には、入力された2次元画像から撮影したレンズの位置より等距離にある輪郭を画像処理で抽出し、その輪郭に対応する複数の部分画像を生成し、その部分画像を対応位置のレイヤに配置した右目画像及び左目画像を生成する技術が記載されている。 Further, in Japanese Patent Application Laid-Open No. 2002-200010, a contour equidistant from the position of a lens photographed from an input two-dimensional image is extracted by image processing, a plurality of partial images corresponding to the contour are generated, and the partial images are generated. Techniques are described for generating right-eye and left-eye images arranged in correspondingly positioned layers.
ここで、特許文献1に記載された技術では、ユーザが立体画像として手前に飛び出させたい被写体領域を自分で指定する。一方、特許文献2に記載された技術では、輪郭検出(被写体検出)が自動で行われる。特許文献2に記載された技術のように、自動で行われる被写体検出は、必ずしも3次元画像に適した被写体検出が行われるとは限らない。具体的には、検出された被写体を前景とし、検出された被写体以外を背景とする場合には、前景とされた被写体の数が多すぎたり、前景とされた被写体の奥行き関係が複雑又は細かすぎたりする場合には、上手く立体感が表現されない場合がある。従って、自動で被写体検出を行い、検出された被写体を前景として3次元画像を生成する場合には、立体感が上手く表現されるような被写体を選択してやることが必要となる。 Here, in the technique described in Patent Literature 1, the user himself/herself designates a subject area that he/she wants to project as a stereoscopic image. On the other hand, in the technology described in Patent Document 2, contour detection (object detection) is automatically performed. Subject detection that is performed automatically, such as the technique described in Patent Document 2, does not necessarily perform subject detection that is suitable for a three-dimensional image. Specifically, when the detected subject is used as the foreground and other subjects than the detected subject are used as the background, the number of foreground subjects may be too large, or the depth relationship between the foreground subjects may be complicated or fine. If it is too large, the three-dimensional effect may not be well expressed. Therefore, when subject detection is automatically performed and a three-dimensional image is generated using the detected subject as the foreground, it is necessary to select a subject that satisfactorily expresses the three-dimensional effect.
上述した特許文献1及び2には、立体感を上手く表現する観点により被写体を選択することについては言及されていない。 The above-mentioned Patent Documents 1 and 2 do not mention selection of a subject from the viewpoint of well expressing a stereoscopic effect.
本発明はこのような事情に鑑みてなされたもので、その目的は、2次元画像に対して画像処理により被写体を抽出する場合であっても、自然な立体感が適切に表現された3次元画像を生成することができる3次元画像生成装置、3次元画像生成方法、及びプログラムを提供することである。 The present invention has been made in view of such circumstances, and its object is to provide a three-dimensional image that appropriately expresses a natural three-dimensional effect even when a subject is extracted from a two-dimensional image by image processing. An object of the present invention is to provide a three-dimensional image generating device, a three-dimensional image generating method, and a program capable of generating an image.
上記目的を達成するための本発明の一の態様である3次元画像生成装置は、2次元画像が入力される画像入力部と、2次元画像を画像処理することにより、2次元画像の被写体を抽出する被写体抽出部と、被写体のうちで主要被写体及び非主要被写体を被写体関係情報に基づいて決定する被写体決定部と、2次元画像における非主要被写体を消去し、主要被写体を前景とし、主要被写体以外を背景として、前景と背景とを相対的にシフトして2以上の視差画像を生成する視差画像生成部と、を備える。 A three-dimensional image generating apparatus, which is one aspect of the present invention for achieving the above object, includes an image input unit for inputting a two-dimensional image, and an object of the two-dimensional image by image processing the two-dimensional image. a subject extraction unit for extracting a subject; a subject determination unit for determining a main subject and a non-main subject among the subjects based on subject-related information; and a parallax image generation unit that generates two or more parallax images by relatively shifting the foreground and the background, using the rest as the background.
本態様によれば、2次元画像を画像処理することにより抽出された被写体に関して、被写体関係情報に基づいて主要被写体及び非主要被写体を決定し、主要被写体を前景として主要被写体以外を背景として視差画像が生成される。これにより、本態様は、自然な立体感が適切に表現された3次元画像が生成される。 According to this aspect, regarding subjects extracted by performing image processing on a two-dimensional image, a main subject and a non-main subject are determined based on the subject-related information, and a parallax image is obtained with the main subject as the foreground and the non-main subject as the background. is generated. As a result, according to this aspect, a three-dimensional image that appropriately expresses a natural three-dimensional effect is generated.
好ましくは、2次元画像における主要被写体以外の領域を画像処理により補完して、背景を生成する背景生成部を備え、視差画像生成部は、背景生成部で生成された背景に基づいて、視差画像を生成する。 Preferably, a background generator is provided for complementing an area other than the main subject in the two-dimensional image by image processing to generate the background, and the parallax image generator generates the parallax image based on the background generated by the background generator. to generate
好ましくは、被写体関係情報は、2次元画像の中心からの位置情報、奥行き情報、被写体のサイズ情報、及び被写体抽出部での被写体の抽出の信頼度のうち少なくとも一つを含む。 Preferably, the subject-related information includes at least one of position information from the center of the two-dimensional image, depth information, subject size information, and reliability of subject extraction by the subject extraction unit.
好ましくは、被写体決定部は、被写体関係情報に基づいて、他の領域を主要被写体に加える。 Preferably, the subject determining section adds another area to the main subject based on the subject-related information.
好ましくは、3次元画像生成装置は、被写体の奥行き情報を2次元画像から推定する奥行き推定部を備え、被写体決定部は、奥行き推定部で推定された奥行き情報に基づいて、主要被写体を決定する。 Preferably, the three-dimensional image generation device includes a depth estimation unit for estimating depth information of a subject from a two-dimensional image, and the subject determination unit determines the main subject based on the depth information estimated by the depth estimation unit. .
好ましくは、視差画像生成部は、3枚以上の視差画像を生成する。 Preferably, the parallax image generator generates three or more parallax images.
好ましくは、3次元画像生成装置は、視差画像を表示する表示部を備える。 Preferably, the three-dimensional image generation device includes a display section that displays parallax images.
好ましくは、3次元画像生成装置は、視差画像のシフト量の調整を受け付けるシフト量調整受付部を備え、視差画像生成部は、シフト量調整受付部で受け付けたシフト量に基づいて、視差画像のシフトを調整する。 Preferably, the three-dimensional image generation device includes a shift amount adjustment reception unit that receives adjustment of the shift amount of the parallax images, and the parallax image generation unit adjusts the parallax images based on the shift amount received by the shift amount adjustment reception unit. Adjust shift.
好ましくは、3次元画像生成装置は、背景を他の画像に差し替える背景変更部を備え、視差画像生成部は、主要被写体を前景とし、他の画像を背景として、2以上の視差画像を生成する。 Preferably, the three-dimensional image generating device includes a background changing unit that replaces the background with another image, and the parallax image generating unit generates two or more parallax images with the main subject as the foreground and the other image as the background. .
好ましくは、3次元画像生成装置は、前景を他の画像に差し替える前景変更部を備え、視差画像生成部は、他の画像を前景とし、前景と背景とにより視差画像を生成する。 Preferably, the three-dimensional image generation device includes a foreground changing unit that replaces the foreground with another image, and the parallax image generation unit uses the other image as the foreground and generates a parallax image from the foreground and the background.
好ましくは、3次元画像生成装置は、視差画像に基づいて、レンチキュラー印刷用データを生成するレンチキュラー印刷用データ生成部を備える。 Preferably, the three-dimensional image generation device includes a lenticular print data generation unit that generates lenticular print data based on the parallax image.
本発明の他の態様である3次元画像生成方法は、2次元画像が入力されるステップと、2次元画像を画像処理することにより、2次元画像の被写体を抽出するステップと、被写体のうちで主要被写体及び非主要被写体を被写体関係情報に基づいて決定するステップと、2次元画像における非主要被写体を消去し、主要被写体を前景とし、主要被写体以外を背景として、前景と背景とを相対的にシフトして2以上の視差画像を生成するステップと、を含む。 According to another aspect of the present invention, there is provided a three-dimensional image generating method comprising steps of inputting a two-dimensional image, performing image processing on the two-dimensional image to extract a subject of the two-dimensional image, and determining a main subject and a non-main subject based on the subject relationship information; removing the non-main subject in the two-dimensional image, setting the main subject as the foreground, setting the non-main subject as the background, and comparing the foreground and the background relative to each other; and C. shifting to generate two or more parallax images.
本発明の他の態様であるプログラムは、2次元画像が入力されるステップと、2次元画像を画像処理することにより、2次元画像の被写体を抽出するステップと、被写体のうちで主要被写体及び非主要被写体を被写体関係情報に基づいて決定するステップと、2次元画像における非主要被写体を消去し、主要被写体を前景とし、主要被写体以外を背景として、前景と背景とを相対的にシフトして2以上の視差画像を生成するステップと、を含む3次元画像生成工程をコンピュータに実行させる。 According to another aspect of the present invention, a program comprises steps of inputting a two-dimensional image, extracting a subject of the two-dimensional image by performing image processing on the two-dimensional image, determining a main subject based on the subject-related information; removing a non-main subject in the two-dimensional image; setting the main subject as the foreground; setting the non-main subject as the background; A computer is caused to execute a three-dimensional image generation process including the step of generating the above parallax images.
本発明によれば、2次元画像を画像処理することにより得られた被写体に関して、被写体関係情報に基づいて主要被写体及び非主要被写体を決定し、主要被写体を前景として主要被写体以外を背景として視差画像を生成するので、自然な立体感が適切に表現された3次元画像が生成される。 According to the present invention, with respect to subjects obtained by image processing a two-dimensional image, a main subject and a non-main subject are determined based on subject-related information, and a parallax image is obtained with the main subject as the foreground and the non-main subject as the background. is generated, a three-dimensional image in which a natural three-dimensional effect is appropriately expressed is generated.
以下、添付図面に従って本発明にかかる3次元画像生成装置、3次元画像生成方法、及びプログラムの好ましい実施の形態について説明する。 Preferred embodiments of a three-dimensional image generating apparatus, a three-dimensional image generating method, and a program according to the present invention will be described below with reference to the accompanying drawings.
図1は、本発明の3次元画像生成装置を備えるコンピュータの外観を示す図である。 FIG. 1 is a diagram showing the appearance of a computer equipped with the 3D image generating device of the present invention.
コンピュータ3は、本発明の一態様である3次元画像生成装置11(図2)を搭載している。コンピュータ3には、2次元画像100が入力され、モニタ(表示部)9で構成される表示部とキーボード5及びマウス7で構成される入力部が接続されている。なお、図示されたコンピュータ3の形態は一例であり、コンピュータ3と同様の機能を有する装置は本発明の3次元画像生成装置11を備えることができる。例えば、タブレット端末に3次元画像生成装置11を搭載することも可能である。
The
コンピュータ3は、3次元画像生成装置11(図2)で生成された視差画像を表示する。そして、ユーザはモニタ9に表示された視差画像を確認して、修正の指令をキーボード5及びマウス7により入力する。例えばユーザは、モニタ9に表示された視差画像を確認して、シフト量の調整をキーボード5及びマウス7を介して入力する。
The
図2は、3次元画像生成装置11の機能構成例を示すブロック図である。図2に示す3次元画像生成装置11の各種制御を実行するハードウェア的な構造は、次に示すような各種のプロセッサ(processor)である。各種のプロセッサには、ソフトウェア(プログラム)を実行して各種の制御部として機能する汎用的なプロセッサであるCPU(Central Processing Unit)、FPGA(Field Programmable Gate Array)などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路などが含まれる。
FIG. 2 is a block diagram showing a functional configuration example of the 3D
1つの処理部は、これら各種のプロセッサのうちの1つで構成されていてもよいし、同種又は異種の2つ以上のプロセッサ(例えば、複数のFPGA、あるいはCPUとFPGAの組み合わせ)で構成されてもよい。また、複数の制御部を1つのプロセッサで構成してもよい。複数の制御部を1つのプロセッサで構成する例としては、第1に、クライアントやサーバなどのコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組合せで1つのプロセッサを構成し、このプロセッサが複数の制御部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)などに代表されるように、複数の制御部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の制御部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。 One processing unit may be composed of one of these various processors, or composed of two or more processors of the same type or different types (for example, a plurality of FPGAs, or a combination of a CPU and an FPGA). may Also, a plurality of control units may be configured by one processor. As an example of configuring a plurality of control units with a single processor, first, as represented by a computer such as a client or a server, a single processor is configured by combining one or more CPUs and software. There is a form in which a processor functions as multiple controllers. Secondly, as typified by System On Chip (SoC), etc., there is a form of using a processor that realizes the functions of the entire system including multiple control units with a single IC (Integrated Circuit) chip. be. In this way, various control units are configured using one or more of the above various processors as a hardware structure.
3次元画像生成装置11は、画像入力部13、被写体抽出部15、被写体決定部17、背景生成部19、奥行き推定部31、視差画像生成部21、シフト量調整受付部23、レンチキュラー印刷用データ生成部29、表示制御部25、及び記憶部27を備える。記憶部27には、プログラム及び3次元画像生成装置11の各種制御に係る情報等が記憶される。また、表示制御部25は、モニタ9による表示を制御する。モニタ9は視差画像を表示する。
The three-dimensional
画像入力部13は2次元画像が入力される。2次元画像は、被写体であるオブジェクト及び背景を有する。2次元画像から3次元画像が生成された場合には、オブジェクトと背景とは異なるレイヤに配置されることになる。ここで、3次元画像とは、立体感を見ている人に与えるように生成された画像である。3次元画像とは、例えば左目画像及び右目画像で構成される視差画像や、レンチキュラー印刷用データからなる画像が挙げられる。
A two-dimensional image is input to the
図3は、画像入力部13に入力される2次元画像の例を示す図である。2次元画像100は、オブジェクト101、オブジェクト103、及びオブジェクト105を有し、また背景107を有する。
FIG. 3 is a diagram showing an example of a two-dimensional image input to the
被写体抽出部15(図2)は、2次元画像100を画像処理することにより、2次元画像100の被写体を抽出する。被写体抽出部15が行う2次元画像100から被写体を抽出する画像処理の技術は、公知技術が使用される。また、被写体抽出部15は、画像処理の技術の一例として機械学習済みの検出器を使用して、2次元画像100より被写体を抽出することができる。なお、被写体抽出部15は、被写体であることの信頼度を算出し、抽出した各被写体に対して、信頼度を付与してもよい。
The subject extraction unit 15 ( FIG. 2 ) extracts the subject of the two-
図4は、被写体抽出部15が2次元画像100から抽出した被写体を示す図である。
FIG. 4 is a diagram showing a subject extracted from the two-
被写体抽出部15は、2次元画像100を画像処理することにより、被写体としてオブジェクト101、オブジェクト103、及びオブジェクト105を抽出する。被写体抽出部15は、2次元画像100が有するオブジェクト101、オブジェクト103、及びオブジェクト105を検出し、各オブジェクトの輪郭を検出し各オブジェクトを被写体として抽出する。
The
奥行き推定部31(図2)は、被写体の奥行き情報を2次元画像100から推定する。そして、視差画像生成部21は、推定された奥行き情報に基づいて視差画像を生成する。奥行き推定部31は、第1の奥行き情報取得部33及び第2の奥行き情報取得部35を備える。第1の奥行き情報取得部33は、2次元画像100の所定領域ごとの奥行き情報で構成される第1の奥行き情報を取得する。第1の奥行き情報取得部33は、2次元画像100を画像処理することにより第1の奥行き情報を取得する。なお、第1の奥行き情報は詳細な奥行き情報であり、この詳細な奥行き情報に基づいて代表値(第2の奥行き情報)が算出される。所定領域の大きさによって、第1の奥行き情報の詳細の程度が変わる。例えば、微小領域毎(1×1画素毎)の第1の奥行き情報は、非常に詳細な情報となる。また5×5画素毎の第1の奥行き情報でも、十分詳細な情報であり、代表値を算出することができる。
The depth estimation unit 31 ( FIG. 2 ) estimates the depth information of the object from the two-
例えば第1の奥行き情報取得部33は、公知の2次元画像100からの奥行き推定アルゴリズムを使用して第1の奥行き情報を取得する。また、第1の奥行き情報取得部33は、機械学習により、第1の奥行き情報を算出してもよい。
For example, the first depth
また第1の奥行き情報取得部33は、2次元画像100とは別に入力された第1の奥行き情報を取得してもよい。例えば第1の奥行き情報取得部33は、2次元画像100を撮影する際に、撮像装置に備えられた計測器により取得された第1の奥行き情報を取得してもよい。すなわち、第1の奥行き情報取得部33は、2次元画像100とは別に入力される、計測器で計測された2次元画像100のオブジェクト(101、103、及び105)及び背景107の奥行き情報を取得する。ここで計測器としては、ステレオカメラ、デプスセンサ、又はToF(Time Of Flight)カメラがあげられる。
Also, the first depth
図5は、第1の奥行き情報取得部33で取得された第1の奥行き情報の一例を示す図であり、距離画像400が示されている。
FIG. 5 is a diagram showing an example of the first depth information acquired by the first depth
距離画像400は画素毎に距離情報を有している。具体的には、オブジェクト101、オブジェクト103、オブジェクト105、及び背景107における画素毎の距離情報を有している。画素毎に距離情報を有しているので、例えばオブジェクト101において凹凸がある場合には、その凹凸に由来する距離情報の違いも、距離画像400では反映されている。
The
第2の奥行き情報取得部35は、オブジェクト101、オブジェクト103、オブジェクト105、及び背景107の領域に対応した第1の奥行き情報に基づいて、各領域の奥行きに関する代表値(第2の奥行き情報)を算出する。具体的に第2の奥行き情報取得部35は、オブジェクト101、オブジェクト103、オブジェクト105、及び背景107に対応する第1の奥行き情報の平均値、中央値、又は最頻値に基づいて、奥行き情報の代表値を取得する。第2の奥行き情報取得部35が代表値を取得することにより、例えばオブジェクト101の領域において第1の奥行き情報の値が複数個存在する場合であっても、オブジェクト101を配置する一つのレイヤを決定することができる。そして奥行き推定部31は、第2の奥行き情報に基づいて第1のレイヤ及び第2のレイヤの奥行き位置を決定する。
Based on the first depth information corresponding to the regions of the
図6は、2次元画像100から生成される3次元画像のレイヤ構成を示す図である。なお、以下の説明では、第1のレイヤをオブジェクトレイヤと記載し、第2のレイヤを背景レイヤと記載する。また、オブジェクトレイヤは単数又は複数の場合がある。
FIG. 6 is a diagram showing the layer configuration of a three-dimensional image generated from the two-
奥行き推定部31は、第2の奥行き情報取得部35で取得された代表値に基づいて、各レイヤにオブジェクト及び背景107を配置するデータを生成する。オブジェクト101は第1のオブジェクトレイヤ121に配置されている。オブジェクト103及びオブジェクト105は、第2のオブジェクトレイヤ123に配置されている。また背景107は背景レイヤ125に配置されている。
The
オブジェクト101は代表値a1を有し、オブジェクト103は代表値a2を有し、オブジェクト105は代表値a2を有する。また背景107は代表値a3を有する。奥行き推定部31は、この代表値に応じて各レイヤにオブジェクト及び背景107を配置する。このように、第1の奥行き情報に基づいて算出される代表値に応じて各レイヤにオブジェクト及び背景107が配置されることにより、より自然な奥行き関係を構築することができる。
被写体決定部17(図2)は、抽出された被写体のうちで主要被写体及び非主要被写体を被写体関係情報に基づいて決定する。ここで、被写体関係情報とは、複数の被写体うち主要被写体と非主要被写体とを決定するための情報であり、3次元画像において自然な立体感が適切に表現されように主要被写体を決定する情報である。例えば、被写体関係情報は、2次元画像100の中心からの位置情報、奥行き情報、被写体のサイズ情報、及び被写体抽出部15での被写体の抽出の信頼度のうち少なくとも一つを含む。
The subject determination unit 17 (FIG. 2) determines a main subject and a non-main subject among the extracted subjects based on the subject-related information. Here, subject-related information is information for determining main subjects and non-main subjects among a plurality of subjects, and is information for determining main subjects so that a natural three-dimensional effect can be appropriately expressed in a three-dimensional image. is. For example, the subject-related information includes at least one of position information from the center of the two-
被写体決定部17は、被写体関係情報として2次元画像100の中心からの位置情報を採用した場合には、2次元画像100の中心に最も近い被写体を主要被写体として決定する。また、被写体決定部17は、被写体関係情報として2次元画像100の中心からの位置情報を採用した場合には、2次元画像100の中心から所定範囲以内にある被写体を主要被写体として決定してもよい。
When positional information from the center of the two-
また、被写体決定部17は、被写体関係情報として奥行き情報を採用した場合には、最も手前にある被写体を主要被写体として決定する。また、被写体決定部17は、被写体関係情報として奥行き情報を採用した場合には、所定範囲の奥行き方向の距離以内にある被写体を主要被写体として決定してもよい。
Further, when the depth information is adopted as the subject-related information, the
また、被写体決定部17は、被写体関係情報として被写体のサイズ情報を採用した場合には、サイズが最大の被写体を主要被写体として決定する。また、被写体決定部17は、被写体関係情報として被写体のサイズ情報を採用した場合には、所定の閾値以上のサイズを有する被写体を主要被写体として決定してもよい。なお、被写体決定部17は、奥行き推定部31で推定された奥行き情報に基づいて被写体のサイズの正規化を行った後のサイズ情報に基づいて、主要被写体を決定してもよい。
Further, when subject size information is adopted as the subject-related information, the
また、被写体決定部17は、被写体関係情報として被写体抽出部15における被写体の抽出の信頼度を採用した場合には、信頼度が最大である被写体を主要被写体として決定する。また、被写体決定部17は、被写体関係情報として被写体抽出部15における被写体の抽出の信頼度を採用した場合には、所定の閾値以上の信頼度の被写体を主要被写体として決定する。
Further, when the
図7は、図4で示した抽出された被写体から決定された主要被写体を示す図である。オブジェクト101は、被写体決定部17により主要被写体として決定されている。一方、オブジェクト103及びオブジェクト105(図4)は、非主要被写体として決定され、非主要被写体として決定されたオブジェクト103及びオブジェクト105は被写体決定部17により消去される。
FIG. 7 is a diagram showing main subjects determined from the extracted subjects shown in FIG. The
図7に示す場合では被写体決定部17は、推定された奥行き情報に基づいて、主要被写体を決定している。具体的には、オブジェクト101、オブジェクト103、及びオブジェクト105は、図6で説明したように奥行き情報として代表値を有する。具体的には、オブジェクト101は代表値a1を有し、オブジェクト103及びオブジェクト105は代表値a2を有する。そして、被写体決定部17は、最も手前にあるオブジェクト101を主要被写体と決定し、オブジェクト103及びオブジェクト105を非主要被写体と決定する。このように、被写体決定部17が奥行き情報に基づいて主要被写体を決定することにより、3次元画像において自然な立体感を適切に表現することができる。
In the case shown in FIG. 7, the
背景生成部19(図2)は、視差画像に使用される背景107を生成する。具体的には、背景生成部19は、2次元画像100における主要被写体以外の領域を画像処理により補完して背景107を生成する。背景生成部19は、公知の技術により、2次元画像100における主要被写体以外の領域を補完する。
The background generator 19 (FIG. 2) generates the
図8は、被写体が抽出された後の背景107を示す図である。被写体抽出部15により、被写体として、オブジェクト101、オブジェクト103、及びオブジェクト105が抽出されると、背景107には、オブジェクト101、オブジェクト103、及びオブジェクト105に対応するブランク部分111、113、115が存在する。そして、オブジェクト101が主要被写体として決定されたので、非主要被写体であるオブジェクト103及びオブジェクト105に対応するブランク部分113及び115は、背景107を利用して補完される。
FIG. 8 is a diagram showing the
視差画像生成部21(図2)は、2次元画像100における非主要被写体を消去し、主要被写体を前景とし、主要被写体以外を背景107として、前景と背景107とを相対的にシフトして2以上の視差画像を生成する。
The parallax image generation unit 21 (FIG. 2) removes the non-main subject in the two-
図9は、奥行き情報に基づいて前景(オブジェクト101)と背景107とを配置した概念図を示す。
FIG. 9 shows a conceptual diagram in which the foreground (object 101) and
背景107及びオブジェクト101がそれぞれ有する奥行き情報に応じて配置位置が異なる。具体的には、背景107のレイヤの位置は符号Bで示されており、オブジェクト101のレイヤの位置が符号Fで示されており、奥行き情報に応じて位置が相違している。視差画像生成部21は、この奥行き情報に基づく配置の相違を利用して、視差画像を生成する。
The arrangement position differs depending on the depth information of the
図10は、視差画像生成部21が生成する視差画像の一例を示す図である。視差画像生成部21は、図9で示した背景107及び前景(オブジェクト101)の奥行き情報に基づいて、左目画像131及び右目画像133を生成する。図10には視差画像として、左目画像131と右目画像133とが、正面からの画像135に重畳的に示されている(点線で示されている)。左目画像131では、オブジェクト101の位置は、背景107に対して矢印Lの方向にシフトされている。また、右目画像133では、オブジェクト101の位置は、背景107に対して矢印Rの方向にシフトされている。なお、上記では視差画像生成部21が、2枚の視差画像を生成する場合に関して説明をしてきが、これに限定されるものではない。例えば、視差画像生成部21は、3枚以上の視差画像を生成してもよい。例えば視差画像生成部21が3枚の視差画像を生成する場合には、左目画像、右目画像、及び正面画像が生成される。ここで正面画像とは、オブジェクト101が背景107に対してシフトされていない画像である。
FIG. 10 is a diagram showing an example of a parallax image generated by the
モニタ9に、左目画像131及び右目画像133をモニタ9に交互表示することにより、ユーザは、オブジェクト101の立体感を確認することができる。すなわち、左目画像131と右目画像133とを所定の周期により、交互表示するとオブジェクト101の立体感をユーザは確認することができる。ここで交互表示とは例えば、0.1秒から0.5秒の周期により、左目画像131と右目画像133とを交互に表示する。
By alternately displaying the left-
シフト量調整受付部23(図2)は、視差画像のシフト量の調整を受け付ける。例えば、ユーザは、モニタ9に交互表示される左目画像131及び右目画像133を確認して、キーボード5又はマウス7を介して、シフト量調整受付部23にシフト量を入力し、シフト量の調整を行う。視差画像生成部21は、シフト量調整受付部23で受け付けたシフト量に基づいて、視差画像のシフト量を調整する。これにより、ユーザは、左目画像131及び右目画像133の交互表示を確認して、オブジェクト101と背景107とのシフト量の調整を行うことができる。ここでシフト量とは、前景を背景に対してシフトさせる量のことをいい、シフト量が調整されることにより、視差画像の立体感を調整することができる。このように、ユーザは左目画像131及び右目画像133の交互表示を確認してシフト量を調整することができるので、例えば最終工程で得られるレンチキュラー印刷用データにおいてもユーザが意図する立体感を得ることができる。
The shift amount adjustment reception unit 23 (FIG. 2) receives adjustment of the shift amount of the parallax image. For example, the user confirms the left-
レンチキュラー印刷用データ生成部29(図2)は、視差画像に基づいて、レンチキュラー印刷用データを生成する。例えば、レンチキュラー印刷用データ生成部29は、左目画像131及び右目画像133に基づいて、レンチキュラー印刷用データを生成する。
The lenticular printing data generator 29 (FIG. 2) generates lenticular printing data based on the parallax image. For example, the lenticular printing
次に、3次元画像生成方法に関して説明する。図11は、3次元画像生成装置11を使った3次元画像生成方法(3次元画像生成工程)を示すフローチャートである。
Next, a three-dimensional image generation method will be described. FIG. 11 is a flow chart showing a three-dimensional image generating method (three-dimensional image generating process) using the three-dimensional
先ず、画像入力部13に2次元画像100が入力される(ステップS10)。その後、被写体抽出部15は、2次元画像100から被写体としてオブジェクト101、オブジェクト103、及びオブジェクト105を抽出する(ステップS11)。そして、被写体決定部17は、被写体関係情報に基づいて主要被写体としてオブジェクト101を決定し、非主要被写体としてオブジェクト103及びオブジェクト105を決定する(ステップS12)。その後、視差画像生成部21は、オブジェクト101を前景及び背景107から視差画像を生成する(ステップS13)。
First, the two-
上述の各構成及び機能は、任意のハードウェア、ソフトウェア、或いは両者の組み合わせによって適宜実現可能である。例えば、上述の処理ステップ(処理手順)をコンピュータに実行させるプログラム、そのようなプログラムを記録したコンピュータ読み取り可能な記録媒体(非一時的記録媒体)、或いはそのようなプログラムをインストール可能なコンピュータに対しても本発明を適用することが可能である。 Each configuration and function described above can be appropriately realized by arbitrary hardware, software, or a combination of both. For example, a program that causes a computer to execute the above-described processing steps (procedures), a computer-readable recording medium (non-temporary recording medium) recording such a program, or a computer capable of installing such a program However, it is possible to apply the present invention.
以上で説明したように、本態様によれば、2次元画像100を画像処理することにより得られた被写体に関して、被写体関係情報に基づいて主要被写体及び非主要被写体を決定し、主要被写体を前景として主要被写体以外を背景107として視差画像を生成するので、自然な立体感が適切に表現された3次元画像が生成される。
As described above, according to this aspect, regarding subjects obtained by image processing the two-
<主要被写体の決定の他の例>
次に、主要被写体の決定の他の例に関して説明する。上記の説明では、オブジェクト101、オブジェクト103、及びオブジェクト105のうちから、奥行き情報の被写体関係情報を使用してオブジェクト101のみが主要被写体として決定されたが、それに限定されるものではない。被写体関係情報によっては、他のオブジェクト又は複数のオブジェクトが主要被写体として決定されてもよい。<Another example of determining the main subject>
Next, another example of determining the main subject will be described. In the above description, only the
図12は、他のオブジェクトが主要被写体と決定される場合を概念的に示す図である。 FIG. 12 conceptually shows a case where another object is determined as the main subject.
被写体決定部17は、オブジェクト101及びオブジェクト105を主要被写体として決定する。被写体決定部17は、被写体関係情報として、画像の中心Oからの位置情報に基づいて主要被写体を決定している。具体的には、被写体決定部17は、オブジェクト101及びオブジェクト105が画角の中心Oから距離bの範囲内のオブジェクトであるので、被写体決定部17はオブジェクト101及びオブジェクト105を主要被写体として決定している。なお、オブジェクト105に関しては、オブジェクト105の大部分(例えば80%以上)が距離bの範囲内にあることから、被写体決定部17はオブジェクト105を主要被写体として決定している。
The
以上で説明したように、被写体決定部17は、被写体関係情報に応じて複数の被写体を主要被写体として決定することができる。
As described above, the
また、被写体決定部17は、他の領域を主要被写体に加えることもできる。ここで他の領域とは、被写体抽出部15では抽出されなかった領域のことである。被写体決定部17は、決定された主要被写体を基準として、所定範囲以内の位置(近い位置)にある領域を、主要被写体に加える。また、被写体決定部17は、決定された主要被写体を基準として、所定範囲のサイズ(類似のサイズ)にある領域を、主要被写体に加える。また、被写体決定部17は、奥行き情報を用いてサイズの正規化を行って、決定された主要被写体を基準として、所定範囲のサイズ(類似のサイズ)にある領域を、主要被写体に加えてもよい。被写体決定部17は、決定された主要被写体を基準として、所定範囲の信頼度(類似の信頼度)にある領域を、主要被写体に加えてもよい。
The
このように、被写体決定部17は、被写体抽出部15で抽出されていない領域においても、主要被写体に含ませることができる。
In this way, the
<その他の例>
上述の説明では、画像入力部13に入力された2次元画像100から前景及び背景107を得て、視差画像を生成する態様を説明してきたが、これに限定されるものではない。例えば、視差画像生成部21は、背景107を他の画像に差し替えてもよいし、又は前景を他の画像に差し替えてもよい。<Other examples>
In the above description, the foreground and
図13は、本例の3次元画像生成装置11の機能構成例を示すブロック図である。
FIG. 13 is a block diagram showing a functional configuration example of the three-dimensional
3次元画像生成装置11は、画像入力部13、被写体抽出部15、被写体決定部17、背景生成部19、奥行き推定部31、視差画像生成部21、シフト量調整受付部23、レンチキュラー印刷用データ生成部29、表示制御部25、記憶部27、背景変更部41、前景変更部43を備える。なお、図2で既に説明を行った箇所は同じ符号を付し説明を省略する。
The three-dimensional
背景変更部41は背景107を他の画像に差し替える。具体的には、背景変更部41は、2次元画像100において、被写体決定部17で決定された主要被写体に対して、2次元画像100の背景107を他の画像に差し替える。ここで、他の画像とは、例えば既に画像入力部13に入力された他の2次元画像の背景画像である。
The
視差画像生成部21は、背景変更部41が背景107を他の画像に差し替えた場合には、主要被写体を前景とし、他の画像を背景として、2以上の視差画像を生成する。これにより、前景を得た2次元画像100とは異なる背景を有する視差画像を生成することができる。
When the
前景変更部43は、前景を他の画像に差し替える。具体的には、前景変更部43は、2次元画像100において、得られた背景107に対して、2次元画像100の前景を他の画像に差し替える。ここで、他の画像とは、例えば既に画像入力部13に入力された他の2次元画像から得られた主要被写体である。
The
視差画像生成部21は、他の画像を前景とし、前景と背景107とにより視差画像を生成する。これにより、背景を得た2次元画像100とは異なる前景を有する視差画像を生成することができる。
The
以上で本発明の例に関して説明してきたが、本発明は上述した実施の形態に限定されず、本発明の精神を逸脱しない範囲で種々の変形が可能であることは言うまでもない。 Although examples of the present invention have been described above, it goes without saying that the present invention is not limited to the above-described embodiments, and that various modifications are possible without departing from the spirit of the present invention.
3 :コンピュータ
5 :キーボード
7 :マウス
9 :モニタ
11 :3次元画像生成装置
13 :画像入力部
15 :被写体抽出部
17 :被写体決定部
19 :背景生成部
21 :視差画像生成部
23 :シフト量調整受付部
25 :表示制御部
27 :記憶部
29 :レンチキュラー印刷用データ生成部
31 :奥行き推定部
33 :第1の奥行き情報取得部
35 :第2の奥行き情報取得部
41 :背景変更部
43 :前景変更部
100 :2次元画像
101 :オブジェクト
103 :オブジェクト
105 :オブジェクト
107 :背景3: Computer 5: Keyboard 7: Mouse 9: Monitor 11: Three-dimensional image generation device 13: Image input unit 15: Subject extraction unit 17: Subject determination unit 19: Background generation unit 21: Parallax image generation unit 23: Shift amount adjustment Reception unit 25 : Display control unit 27 : Storage unit 29 : Lenticular printing data generation unit 31 : Depth estimation unit 33 : First depth information acquisition unit 35 : Second depth information acquisition unit 41 : Background change unit 43 : Foreground Change unit 100: two-dimensional image 101: object 103: object 105: object 107: background
Claims (14)
前記2次元画像を画像処理することにより、前記2次元画像の前記背景以外の前記複数の被写体を抽出する被写体抽出部と、
前記複数の被写体のうちで主要被写体及び非主要被写体を被写体関係情報に基づいて決定する被写体決定部と、
前記2次元画像における前記非主要被写体を消去し、前記主要被写体を前景とし、前記主要被写体以外を前記背景とし、前記前景と前記背景とを相対的にシフトして2以上の視差画像を生成する視差画像生成部と、
を備える3次元画像生成装置。 an image input unit to which a two-dimensional image having a background and a plurality of subjects is input;
a subject extraction unit that extracts the plurality of subjects other than the background of the two-dimensional image by performing image processing on the two-dimensional image;
a subject determination unit that determines a main subject and a non-main subject among the plurality of subjects based on subject-related information;
The non-main subject in the two-dimensional image is eliminated, the main subject is set as the foreground, the non-main subject is set as the background, and the foreground and the background are relatively shifted to generate two or more parallax images. a parallax image generation unit that
A three-dimensional image generation device comprising:
前記視差画像生成部は、前記背景生成部で生成された前記背景に基づいて、前記視差画像を生成する請求項1に記載の3次元画像生成装置。 A background generating unit that generates the background by complementing an area other than the main subject in the two-dimensional image by image processing,
The three-dimensional image generation device according to claim 1, wherein the parallax image generator generates the parallax image based on the background generated by the background generator.
前記被写体決定部は、前記奥行き推定部で推定された前記奥行き情報に基づいて、前記主要被写体を決定する請求項1から4のいずれか1項に記載の3次元画像生成装置。 A depth estimation unit that estimates depth information of the subject from the two-dimensional image,
5. The three-dimensional image generating apparatus according to any one of claims 1 to 4, wherein the subject determining section determines the main subject based on the depth information estimated by the depth estimating section.
前記視差画像生成部は、前記シフト量調整受付部で受け付けたシフト量に基づいて、前記視差画像のシフトを調整する請求項1から7のいずれか1項に記載の3次元画像生成装置。 A shift amount adjustment reception unit that receives adjustment of the shift amount of the parallax image,
The three-dimensional image generation device according to any one of claims 1 to 7, wherein the parallax image generation unit adjusts the shift of the parallax image based on the shift amount received by the shift amount adjustment reception unit.
前記視差画像生成部は、前記主要被写体を前景とし、前記他の画像を背景として、前記2以上の視差画像を生成する請求項1から8のいずれか1項に記載の3次元画像生成装置。 A background changing unit that replaces the background with another image,
9. The three-dimensional image generation device according to any one of claims 1 to 8, wherein the parallax image generator generates the two or more parallax images using the main subject as a foreground and the other image as a background.
前記視差画像生成部は、前記他の画像を前景とし、前記前景と前記背景とにより前記視差画像を生成する請求項1から8のいずれか1項に記載の3次元画像生成装置。 A foreground changing unit that replaces the foreground with another image,
The three-dimensional image generation device according to any one of claims 1 to 8, wherein the parallax image generator uses the other image as a foreground and generates the parallax image from the foreground and the background.
前記2次元画像を画像処理することにより、前記2次元画像の前記背景以外の前記複数の被写体を抽出するステップと、
前記複数の被写体のうちで主要被写体及び非主要被写体を被写体関係情報に基づいて決定するステップと、
前記2次元画像における前記非主要被写体を消去し、前記主要被写体を前景とし、前記主要被写体以外を前記背景とし、前記前景と前記背景とを相対的にシフトして2以上の視差画像を生成するステップと、
を含む3次元画像生成方法。 receiving a two-dimensional image having a background and a plurality of objects ;
a step of extracting the plurality of subjects other than the background of the two-dimensional image by performing image processing on the two-dimensional image;
determining a main subject and a non-main subject among the plurality of subjects based on subject-related information;
The non-main subject in the two-dimensional image is eliminated, the main subject is set as the foreground, the non-main subject is set as the background, and the foreground and the background are relatively shifted to generate two or more parallax images. and
A three-dimensional image generation method comprising:
前記2次元画像を画像処理することにより、前記2次元画像の前記背景以外の前記複数の被写体を抽出するステップと、
前記複数の被写体のうちで主要被写体及び非主要被写体を被写体関係情報に基づいて決定するステップと、
前記2次元画像における前記非主要被写体を消去し、前記主要被写体を前景とし、前記主要被写体以外を前記背景とし、前記前景と前記背景とを相対的にシフトして2以上の視差画像を生成するステップと、
を含む3次元画像生成工程をコンピュータに実行させるプログラム。 receiving a two-dimensional image having a background and a plurality of objects ;
a step of extracting the plurality of subjects other than the background of the two-dimensional image by performing image processing on the two-dimensional image;
determining a main subject and a non-main subject among the plurality of subjects based on subject-related information;
The non-main subject in the two-dimensional image is eliminated, the main subject is set as the foreground, the non-main subject is set as the background, and the foreground and the background are relatively shifted to generate two or more parallax images. and
A program that causes a computer to execute a three-dimensional image generation process including.
背景と複数の被写体とを有する2次元画像が入力されるステップと、
前記2次元画像を画像処理することにより、前記2次元画像の前記背景以外の前記複数の被写体を抽出するステップと、
前記複数の被写体のうちで主要被写体及び非主要被写体を被写体関係情報に基づいて決定するステップと、
前記2次元画像における前記非主要被写体を消去し、前記主要被写体を前景とし、前記主要被写体以外を前記背景とし、前記前景と前記背景とを相対的にシフトして2以上の視差画像を生成するステップと、
を含む3次元画像生成工程をコンピュータに実行させる記録媒体。 A non-transitory computer-readable recording medium, wherein when instructions stored on the recording medium are read by a computer,
receiving a two-dimensional image having a background and a plurality of objects ;
a step of extracting the plurality of subjects other than the background of the two-dimensional image by performing image processing on the two-dimensional image;
determining a main subject and a non-main subject among the plurality of subjects based on subject-related information;
The non-main subject in the two-dimensional image is eliminated, the main subject is set as the foreground, the non-main subject is set as the background, and the foreground and the background are relatively shifted to generate two or more parallax images. and
A recording medium that causes a computer to execute a three-dimensional image generation process comprising:
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018177438 | 2018-09-21 | ||
JP2018177438 | 2018-09-21 | ||
PCT/JP2019/035559 WO2020059575A1 (en) | 2018-09-21 | 2019-09-10 | Three-dimensional image generation device, three-dimensional image generation method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2020059575A1 JPWO2020059575A1 (en) | 2021-09-16 |
JP7170052B2 true JP7170052B2 (en) | 2022-11-11 |
Family
ID=69886978
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020548374A Active JP7170052B2 (en) | 2018-09-21 | 2019-09-10 | 3D image generation device, 3D image generation method, and program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7170052B2 (en) |
WO (1) | WO2020059575A1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111815666B (en) * | 2020-08-10 | 2024-04-02 | Oppo广东移动通信有限公司 | Image processing method and device, computer readable storage medium and electronic equipment |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003331317A (en) | 2002-05-14 | 2003-11-21 | Canon Inc | Image processing device and method, program, and recording medium |
JP2012073792A (en) | 2010-09-28 | 2012-04-12 | Casio Comput Co Ltd | Image processing device, image display apparatus, and image processing method |
JP2012175324A (en) | 2011-02-21 | 2012-09-10 | Tatsumi Denshi Kogyo Kk | Automatic photograph creation system, automatic photograph creation apparatus, server device and terminal device |
JP2013168969A (en) | 2013-03-25 | 2013-08-29 | Olympus Imaging Corp | Image display method, and image display device |
US20130321408A1 (en) | 2009-09-30 | 2013-12-05 | Disney Enterprises, Inc. | Method and system for utilizing pre-existing image layers of a two-dimensional image to create a stereoscopic image |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS63142794A (en) * | 1986-12-05 | 1988-06-15 | Hitachi Ltd | Television receiver |
JP5310895B2 (en) * | 2012-03-19 | 2013-10-09 | カシオ計算機株式会社 | Image generating apparatus, image generating method, and program |
-
2019
- 2019-09-10 WO PCT/JP2019/035559 patent/WO2020059575A1/en active Application Filing
- 2019-09-10 JP JP2020548374A patent/JP7170052B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003331317A (en) | 2002-05-14 | 2003-11-21 | Canon Inc | Image processing device and method, program, and recording medium |
US20130321408A1 (en) | 2009-09-30 | 2013-12-05 | Disney Enterprises, Inc. | Method and system for utilizing pre-existing image layers of a two-dimensional image to create a stereoscopic image |
JP2012073792A (en) | 2010-09-28 | 2012-04-12 | Casio Comput Co Ltd | Image processing device, image display apparatus, and image processing method |
JP2012175324A (en) | 2011-02-21 | 2012-09-10 | Tatsumi Denshi Kogyo Kk | Automatic photograph creation system, automatic photograph creation apparatus, server device and terminal device |
JP2013168969A (en) | 2013-03-25 | 2013-08-29 | Olympus Imaging Corp | Image display method, and image display device |
Also Published As
Publication number | Publication date |
---|---|
WO2020059575A1 (en) | 2020-03-26 |
JPWO2020059575A1 (en) | 2021-09-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5887267B2 (en) | 3D image interpolation apparatus, 3D imaging apparatus, and 3D image interpolation method | |
TWI729995B (en) | Generating a merged, fused three-dimensional point cloud based on captured images of a scene | |
EP2992508B1 (en) | Diminished and mediated reality effects from reconstruction | |
US9070042B2 (en) | Image processing apparatus, image processing method, and program thereof | |
JP6412690B2 (en) | Method for obtaining depth information and display device | |
JP5923713B2 (en) | Image processing apparatus, imaging apparatus, and image processing method | |
US20210241495A1 (en) | Method and system for reconstructing colour and depth information of a scene | |
WO2019167453A1 (en) | Image processing device, image processing method, and program | |
US9338437B2 (en) | Apparatus and method for reconstructing high density three-dimensional image | |
US20140079336A1 (en) | Systems and methods for correcting user identified artifacts in light field images | |
JP7184748B2 (en) | A method for generating layered depth data for a scene | |
EP2769551A2 (en) | Generating a depth map | |
US9235879B2 (en) | Apparatus, system, and method for temporal domain hole filling based on background modeling for view synthesis | |
JP7361251B2 (en) | Measuring device and method | |
KR102407137B1 (en) | Method and apparatus for image processing | |
KR102450236B1 (en) | Electronic apparatus, method for controlling thereof and the computer readable recording medium | |
WO2019244944A1 (en) | Three-dimension reconstruction method and three-dimension reconstruction device | |
WO2016185458A1 (en) | A method for estimating aggregation results for generating three dimensional images | |
JP7170052B2 (en) | 3D image generation device, 3D image generation method, and program | |
JP2020112928A (en) | Background model generation device, background model generation method, and background model generation program | |
JP6266229B2 (en) | Image processing apparatus, method, and program | |
KR101869226B1 (en) | Disparity map generating method for mono cameras | |
KR20140119325A (en) | Apparatus for redeeming noise of depth image and method thereof | |
KR101905528B1 (en) | Method of obtaining depth information and display apparatus | |
US20220230342A1 (en) | Information processing apparatus that estimates object depth, method therefor, and storage medium holding program therefor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210405 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220530 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220728 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221014 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221031 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7170052 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |