JP7170052B2 - 3D image generation device, 3D image generation method, and program - Google Patents

3D image generation device, 3D image generation method, and program Download PDF

Info

Publication number
JP7170052B2
JP7170052B2 JP2020548374A JP2020548374A JP7170052B2 JP 7170052 B2 JP7170052 B2 JP 7170052B2 JP 2020548374 A JP2020548374 A JP 2020548374A JP 2020548374 A JP2020548374 A JP 2020548374A JP 7170052 B2 JP7170052 B2 JP 7170052B2
Authority
JP
Japan
Prior art keywords
dimensional image
subject
background
image
main subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020548374A
Other languages
Japanese (ja)
Other versions
JPWO2020059575A1 (en
Inventor
誠 與那覇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of JPWO2020059575A1 publication Critical patent/JPWO2020059575A1/en
Application granted granted Critical
Publication of JP7170052B2 publication Critical patent/JP7170052B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/18Stereoscopic photography by simultaneous viewing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/305Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using lenticular lenses, e.g. arrangements of cylindrical lenses

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Stereoscopic And Panoramic Photography (AREA)

Description

本発明は、3次元画像生成装置、3次元画像生成方法、及びプログラムに関し、特に2次元画像から視差画像を生成する3次元画像生成装置、3次元画像生成方法、及びプログラムに関する。 The present invention relates to a three-dimensional image generation device, a three-dimensional image generation method, and a program, and more particularly to a three-dimensional image generation device, a three-dimensional image generation method, and a program for generating parallax images from two-dimensional images.

従来より、入力された2次元画像の被写体(オブジェクト)及び背景に対して奥行き情報を付加して3次元画像データを生成する技術が提案されている。 2. Description of the Related Art Conventionally, techniques have been proposed for generating three-dimensional image data by adding depth information to a subject (object) and background of an input two-dimensional image.

例えば特許文献1には、入力された被写体画像(2次元画像)から被写体領域を抽出し、その被写体領域から被写体の奥行き分布を表す視差マップを抽出し、視差マップ及び被写体画像から多視点画像(視差画像)を生成する技術が記載されている。 For example, in Patent Document 1, a subject area is extracted from an input subject image (two-dimensional image), a parallax map representing the depth distribution of the subject is extracted from the subject area, and a multi-view image ( A technique for generating a parallax image) is described.

また、特許文献2には、入力された2次元画像から撮影したレンズの位置より等距離にある輪郭を画像処理で抽出し、その輪郭に対応する複数の部分画像を生成し、その部分画像を対応位置のレイヤに配置した右目画像及び左目画像を生成する技術が記載されている。 Further, in Japanese Patent Application Laid-Open No. 2002-200010, a contour equidistant from the position of a lens photographed from an input two-dimensional image is extracted by image processing, a plurality of partial images corresponding to the contour are generated, and the partial images are generated. Techniques are described for generating right-eye and left-eye images arranged in correspondingly positioned layers.

特開2003-47027号公報Japanese Patent Application Laid-Open No. 2003-47027 特開2008-153805号公報JP 2008-153805 A

ここで、特許文献1に記載された技術では、ユーザが立体画像として手前に飛び出させたい被写体領域を自分で指定する。一方、特許文献2に記載された技術では、輪郭検出(被写体検出)が自動で行われる。特許文献2に記載された技術のように、自動で行われる被写体検出は、必ずしも3次元画像に適した被写体検出が行われるとは限らない。具体的には、検出された被写体を前景とし、検出された被写体以外を背景とする場合には、前景とされた被写体の数が多すぎたり、前景とされた被写体の奥行き関係が複雑又は細かすぎたりする場合には、上手く立体感が表現されない場合がある。従って、自動で被写体検出を行い、検出された被写体を前景として3次元画像を生成する場合には、立体感が上手く表現されるような被写体を選択してやることが必要となる。 Here, in the technique described in Patent Literature 1, the user himself/herself designates a subject area that he/she wants to project as a stereoscopic image. On the other hand, in the technology described in Patent Document 2, contour detection (object detection) is automatically performed. Subject detection that is performed automatically, such as the technique described in Patent Document 2, does not necessarily perform subject detection that is suitable for a three-dimensional image. Specifically, when the detected subject is used as the foreground and other subjects than the detected subject are used as the background, the number of foreground subjects may be too large, or the depth relationship between the foreground subjects may be complicated or fine. If it is too large, the three-dimensional effect may not be well expressed. Therefore, when subject detection is automatically performed and a three-dimensional image is generated using the detected subject as the foreground, it is necessary to select a subject that satisfactorily expresses the three-dimensional effect.

上述した特許文献1及び2には、立体感を上手く表現する観点により被写体を選択することについては言及されていない。 The above-mentioned Patent Documents 1 and 2 do not mention selection of a subject from the viewpoint of well expressing a stereoscopic effect.

本発明はこのような事情に鑑みてなされたもので、その目的は、2次元画像に対して画像処理により被写体を抽出する場合であっても、自然な立体感が適切に表現された3次元画像を生成することができる3次元画像生成装置、3次元画像生成方法、及びプログラムを提供することである。 The present invention has been made in view of such circumstances, and its object is to provide a three-dimensional image that appropriately expresses a natural three-dimensional effect even when a subject is extracted from a two-dimensional image by image processing. An object of the present invention is to provide a three-dimensional image generating device, a three-dimensional image generating method, and a program capable of generating an image.

上記目的を達成するための本発明の一の態様である3次元画像生成装置は、2次元画像が入力される画像入力部と、2次元画像を画像処理することにより、2次元画像の被写体を抽出する被写体抽出部と、被写体のうちで主要被写体及び非主要被写体を被写体関係情報に基づいて決定する被写体決定部と、2次元画像における非主要被写体を消去し、主要被写体を前景とし、主要被写体以外を背景として、前景と背景とを相対的にシフトして2以上の視差画像を生成する視差画像生成部と、を備える。 A three-dimensional image generating apparatus, which is one aspect of the present invention for achieving the above object, includes an image input unit for inputting a two-dimensional image, and an object of the two-dimensional image by image processing the two-dimensional image. a subject extraction unit for extracting a subject; a subject determination unit for determining a main subject and a non-main subject among the subjects based on subject-related information; and a parallax image generation unit that generates two or more parallax images by relatively shifting the foreground and the background, using the rest as the background.

本態様によれば、2次元画像を画像処理することにより抽出された被写体に関して、被写体関係情報に基づいて主要被写体及び非主要被写体を決定し、主要被写体を前景として主要被写体以外を背景として視差画像が生成される。これにより、本態様は、自然な立体感が適切に表現された3次元画像が生成される。 According to this aspect, regarding subjects extracted by performing image processing on a two-dimensional image, a main subject and a non-main subject are determined based on the subject-related information, and a parallax image is obtained with the main subject as the foreground and the non-main subject as the background. is generated. As a result, according to this aspect, a three-dimensional image that appropriately expresses a natural three-dimensional effect is generated.

好ましくは、2次元画像における主要被写体以外の領域を画像処理により補完して、背景を生成する背景生成部を備え、視差画像生成部は、背景生成部で生成された背景に基づいて、視差画像を生成する。 Preferably, a background generator is provided for complementing an area other than the main subject in the two-dimensional image by image processing to generate the background, and the parallax image generator generates the parallax image based on the background generated by the background generator. to generate

好ましくは、被写体関係情報は、2次元画像の中心からの位置情報、奥行き情報、被写体のサイズ情報、及び被写体抽出部での被写体の抽出の信頼度のうち少なくとも一つを含む。 Preferably, the subject-related information includes at least one of position information from the center of the two-dimensional image, depth information, subject size information, and reliability of subject extraction by the subject extraction unit.

好ましくは、被写体決定部は、被写体関係情報に基づいて、他の領域を主要被写体に加える。 Preferably, the subject determining section adds another area to the main subject based on the subject-related information.

好ましくは、3次元画像生成装置は、被写体の奥行き情報を2次元画像から推定する奥行き推定部を備え、被写体決定部は、奥行き推定部で推定された奥行き情報に基づいて、主要被写体を決定する。 Preferably, the three-dimensional image generation device includes a depth estimation unit for estimating depth information of a subject from a two-dimensional image, and the subject determination unit determines the main subject based on the depth information estimated by the depth estimation unit. .

好ましくは、視差画像生成部は、3枚以上の視差画像を生成する。 Preferably, the parallax image generator generates three or more parallax images.

好ましくは、3次元画像生成装置は、視差画像を表示する表示部を備える。 Preferably, the three-dimensional image generation device includes a display section that displays parallax images.

好ましくは、3次元画像生成装置は、視差画像のシフト量の調整を受け付けるシフト量調整受付部を備え、視差画像生成部は、シフト量調整受付部で受け付けたシフト量に基づいて、視差画像のシフトを調整する。 Preferably, the three-dimensional image generation device includes a shift amount adjustment reception unit that receives adjustment of the shift amount of the parallax images, and the parallax image generation unit adjusts the parallax images based on the shift amount received by the shift amount adjustment reception unit. Adjust shift.

好ましくは、3次元画像生成装置は、背景を他の画像に差し替える背景変更部を備え、視差画像生成部は、主要被写体を前景とし、他の画像を背景として、2以上の視差画像を生成する。 Preferably, the three-dimensional image generating device includes a background changing unit that replaces the background with another image, and the parallax image generating unit generates two or more parallax images with the main subject as the foreground and the other image as the background. .

好ましくは、3次元画像生成装置は、前景を他の画像に差し替える前景変更部を備え、視差画像生成部は、他の画像を前景とし、前景と背景とにより視差画像を生成する。 Preferably, the three-dimensional image generation device includes a foreground changing unit that replaces the foreground with another image, and the parallax image generation unit uses the other image as the foreground and generates a parallax image from the foreground and the background.

好ましくは、3次元画像生成装置は、視差画像に基づいて、レンチキュラー印刷用データを生成するレンチキュラー印刷用データ生成部を備える。 Preferably, the three-dimensional image generation device includes a lenticular print data generation unit that generates lenticular print data based on the parallax image.

本発明の他の態様である3次元画像生成方法は、2次元画像が入力されるステップと、2次元画像を画像処理することにより、2次元画像の被写体を抽出するステップと、被写体のうちで主要被写体及び非主要被写体を被写体関係情報に基づいて決定するステップと、2次元画像における非主要被写体を消去し、主要被写体を前景とし、主要被写体以外を背景として、前景と背景とを相対的にシフトして2以上の視差画像を生成するステップと、を含む。 According to another aspect of the present invention, there is provided a three-dimensional image generating method comprising steps of inputting a two-dimensional image, performing image processing on the two-dimensional image to extract a subject of the two-dimensional image, and determining a main subject and a non-main subject based on the subject relationship information; removing the non-main subject in the two-dimensional image, setting the main subject as the foreground, setting the non-main subject as the background, and comparing the foreground and the background relative to each other; and C. shifting to generate two or more parallax images.

本発明の他の態様であるプログラムは、2次元画像が入力されるステップと、2次元画像を画像処理することにより、2次元画像の被写体を抽出するステップと、被写体のうちで主要被写体及び非主要被写体を被写体関係情報に基づいて決定するステップと、2次元画像における非主要被写体を消去し、主要被写体を前景とし、主要被写体以外を背景として、前景と背景とを相対的にシフトして2以上の視差画像を生成するステップと、を含む3次元画像生成工程をコンピュータに実行させる。 According to another aspect of the present invention, a program comprises steps of inputting a two-dimensional image, extracting a subject of the two-dimensional image by performing image processing on the two-dimensional image, determining a main subject based on the subject-related information; removing a non-main subject in the two-dimensional image; setting the main subject as the foreground; setting the non-main subject as the background; A computer is caused to execute a three-dimensional image generation process including the step of generating the above parallax images.

本発明によれば、2次元画像を画像処理することにより得られた被写体に関して、被写体関係情報に基づいて主要被写体及び非主要被写体を決定し、主要被写体を前景として主要被写体以外を背景として視差画像を生成するので、自然な立体感が適切に表現された3次元画像が生成される。 According to the present invention, with respect to subjects obtained by image processing a two-dimensional image, a main subject and a non-main subject are determined based on subject-related information, and a parallax image is obtained with the main subject as the foreground and the non-main subject as the background. is generated, a three-dimensional image in which a natural three-dimensional effect is appropriately expressed is generated.

図1は、コンピュータの外観を示す図である。FIG. 1 is a diagram showing the appearance of a computer. 図2は、3次元画像生成装置の機能構成例を示すブロック図である。FIG. 2 is a block diagram showing a functional configuration example of the 3D image generating device. 図3は、2次元画像の例を示す図である。FIG. 3 is a diagram showing an example of a two-dimensional image. 図4は、2次元画像から抽出した被写体を示す図である。FIG. 4 is a diagram showing a subject extracted from a two-dimensional image. 図5は、第1の奥行き情報取得部で取得された第1の奥行き情報の一例を示す図である。FIG. 5 is a diagram illustrating an example of first depth information acquired by a first depth information acquisition unit; 図6は、3次元画像のレイヤ構成を示す図である。FIG. 6 is a diagram showing a layer configuration of a three-dimensional image. 図7は、決定された主要被写体を示す図である。FIG. 7 is a diagram showing the determined main subject. 図8は、被写体が抽出された後の背景を示す図である。FIG. 8 is a diagram showing the background after the subject has been extracted. 図9は、奥行き情報に基づいて前景と背景とを配置した概念図を示す。FIG. 9 shows a conceptual diagram in which the foreground and background are arranged based on depth information. 図10は、視差画像生成部が生成する視差画像の一例を示す図である。FIG. 10 is a diagram illustrating an example of a parallax image generated by a parallax image generation unit; 図11は、3次元画像生成方法を示すフローチャートである。FIG. 11 is a flow chart showing a method for generating a three-dimensional image. 図12は、他のオブジェクトが主要被写体と決定される場合を概念的に示す図である。FIG. 12 conceptually shows a case where another object is determined as the main subject. 図13は、3次元画像生成装置の機能構成例を示すブロック図である。FIG. 13 is a block diagram showing a functional configuration example of a 3D image generating device.

以下、添付図面に従って本発明にかかる3次元画像生成装置、3次元画像生成方法、及びプログラムの好ましい実施の形態について説明する。 Preferred embodiments of a three-dimensional image generating apparatus, a three-dimensional image generating method, and a program according to the present invention will be described below with reference to the accompanying drawings.

図1は、本発明の3次元画像生成装置を備えるコンピュータの外観を示す図である。 FIG. 1 is a diagram showing the appearance of a computer equipped with the 3D image generating device of the present invention.

コンピュータ3は、本発明の一態様である3次元画像生成装置11(図2)を搭載している。コンピュータ3には、2次元画像100が入力され、モニタ(表示部)9で構成される表示部とキーボード5及びマウス7で構成される入力部が接続されている。なお、図示されたコンピュータ3の形態は一例であり、コンピュータ3と同様の機能を有する装置は本発明の3次元画像生成装置11を備えることができる。例えば、タブレット端末に3次元画像生成装置11を搭載することも可能である。 The computer 3 is equipped with a three-dimensional image generation device 11 (FIG. 2), which is one aspect of the present invention. A two-dimensional image 100 is input to the computer 3, and a display section including a monitor (display section) 9 and an input section including a keyboard 5 and a mouse 7 are connected. The illustrated form of the computer 3 is an example, and a device having functions similar to those of the computer 3 can include the three-dimensional image generating device 11 of the present invention. For example, it is possible to mount the three-dimensional image generation device 11 on a tablet terminal.

コンピュータ3は、3次元画像生成装置11(図2)で生成された視差画像を表示する。そして、ユーザはモニタ9に表示された視差画像を確認して、修正の指令をキーボード5及びマウス7により入力する。例えばユーザは、モニタ9に表示された視差画像を確認して、シフト量の調整をキーボード5及びマウス7を介して入力する。 The computer 3 displays the parallax images generated by the 3D image generating device 11 (FIG. 2). Then, the user confirms the parallax image displayed on the monitor 9 and inputs a correction command using the keyboard 5 and the mouse 7 . For example, the user confirms the parallax image displayed on the monitor 9 and inputs the shift amount adjustment via the keyboard 5 and the mouse 7 .

図2は、3次元画像生成装置11の機能構成例を示すブロック図である。図2に示す3次元画像生成装置11の各種制御を実行するハードウェア的な構造は、次に示すような各種のプロセッサ(processor)である。各種のプロセッサには、ソフトウェア(プログラム)を実行して各種の制御部として機能する汎用的なプロセッサであるCPU(Central Processing Unit)、FPGA(Field Programmable Gate Array)などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路などが含まれる。 FIG. 2 is a block diagram showing a functional configuration example of the 3D image generating device 11. As shown in FIG. The hardware structure for executing various controls of the three-dimensional image generating apparatus 11 shown in FIG. 2 is various processors as shown below. For various processors, the circuit configuration can be changed after manufacturing such as CPU (Central Processing Unit), FPGA (Field Programmable Gate Array), which is a general-purpose processor that executes software (program) and functions as various control units. Programmable Logic Device (PLD), which is a processor, ASIC (Application Specific Integrated Circuit), etc. be

1つの処理部は、これら各種のプロセッサのうちの1つで構成されていてもよいし、同種又は異種の2つ以上のプロセッサ(例えば、複数のFPGA、あるいはCPUとFPGAの組み合わせ)で構成されてもよい。また、複数の制御部を1つのプロセッサで構成してもよい。複数の制御部を1つのプロセッサで構成する例としては、第1に、クライアントやサーバなどのコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組合せで1つのプロセッサを構成し、このプロセッサが複数の制御部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)などに代表されるように、複数の制御部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の制御部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。 One processing unit may be composed of one of these various processors, or composed of two or more processors of the same type or different types (for example, a plurality of FPGAs, or a combination of a CPU and an FPGA). may Also, a plurality of control units may be configured by one processor. As an example of configuring a plurality of control units with a single processor, first, as represented by a computer such as a client or a server, a single processor is configured by combining one or more CPUs and software. There is a form in which a processor functions as multiple controllers. Secondly, as typified by System On Chip (SoC), etc., there is a form of using a processor that realizes the functions of the entire system including multiple control units with a single IC (Integrated Circuit) chip. be. In this way, various control units are configured using one or more of the above various processors as a hardware structure.

3次元画像生成装置11は、画像入力部13、被写体抽出部15、被写体決定部17、背景生成部19、奥行き推定部31、視差画像生成部21、シフト量調整受付部23、レンチキュラー印刷用データ生成部29、表示制御部25、及び記憶部27を備える。記憶部27には、プログラム及び3次元画像生成装置11の各種制御に係る情報等が記憶される。また、表示制御部25は、モニタ9による表示を制御する。モニタ9は視差画像を表示する。 The three-dimensional image generation device 11 includes an image input unit 13, a subject extraction unit 15, a subject determination unit 17, a background generation unit 19, a depth estimation unit 31, a parallax image generation unit 21, a shift amount adjustment reception unit 23, and data for lenticular printing. A generation unit 29 , a display control unit 25 and a storage unit 27 are provided. The storage unit 27 stores programs, information related to various controls of the three-dimensional image generation device 11, and the like. Also, the display control unit 25 controls display by the monitor 9 . A monitor 9 displays parallax images.

画像入力部13は2次元画像が入力される。2次元画像は、被写体であるオブジェクト及び背景を有する。2次元画像から3次元画像が生成された場合には、オブジェクトと背景とは異なるレイヤに配置されることになる。ここで、3次元画像とは、立体感を見ている人に与えるように生成された画像である。3次元画像とは、例えば左目画像及び右目画像で構成される視差画像や、レンチキュラー印刷用データからなる画像が挙げられる。 A two-dimensional image is input to the image input unit 13 . A two-dimensional image has an object, which is a subject, and a background. When a 3D image is generated from a 2D image, the object and the background are placed on different layers. Here, a three-dimensional image is an image generated so as to give a viewer a stereoscopic effect. A three-dimensional image includes, for example, a parallax image composed of a left-eye image and a right-eye image, and an image composed of lenticular printing data.

図3は、画像入力部13に入力される2次元画像の例を示す図である。2次元画像100は、オブジェクト101、オブジェクト103、及びオブジェクト105を有し、また背景107を有する。 FIG. 3 is a diagram showing an example of a two-dimensional image input to the image input unit 13. As shown in FIG. A two-dimensional image 100 has an object 101 , an object 103 and an object 105 and a background 107 .

被写体抽出部15(図2)は、2次元画像100を画像処理することにより、2次元画像100の被写体を抽出する。被写体抽出部15が行う2次元画像100から被写体を抽出する画像処理の技術は、公知技術が使用される。また、被写体抽出部15は、画像処理の技術の一例として機械学習済みの検出器を使用して、2次元画像100より被写体を抽出することができる。なお、被写体抽出部15は、被写体であることの信頼度を算出し、抽出した各被写体に対して、信頼度を付与してもよい。 The subject extraction unit 15 ( FIG. 2 ) extracts the subject of the two-dimensional image 100 by image processing the two-dimensional image 100 . A well-known technique is used as the image processing technique for extracting the subject from the two-dimensional image 100 performed by the subject extraction unit 15 . In addition, the subject extracting unit 15 can extract the subject from the two-dimensional image 100 using a machine-learned detector as an example of image processing technology. Note that the subject extracting unit 15 may calculate the reliability of being a subject and assign the reliability to each extracted subject.

図4は、被写体抽出部15が2次元画像100から抽出した被写体を示す図である。 FIG. 4 is a diagram showing a subject extracted from the two-dimensional image 100 by the subject extraction unit 15. As shown in FIG.

被写体抽出部15は、2次元画像100を画像処理することにより、被写体としてオブジェクト101、オブジェクト103、及びオブジェクト105を抽出する。被写体抽出部15は、2次元画像100が有するオブジェクト101、オブジェクト103、及びオブジェクト105を検出し、各オブジェクトの輪郭を検出し各オブジェクトを被写体として抽出する。 The subject extraction unit 15 performs image processing on the two-dimensional image 100 to extract objects 101, 103, and 105 as subjects. The subject extraction unit 15 detects objects 101, 103, and 105 included in the two-dimensional image 100, detects the contours of each object, and extracts each object as a subject.

奥行き推定部31(図2)は、被写体の奥行き情報を2次元画像100から推定する。そして、視差画像生成部21は、推定された奥行き情報に基づいて視差画像を生成する。奥行き推定部31は、第1の奥行き情報取得部33及び第2の奥行き情報取得部35を備える。第1の奥行き情報取得部33は、2次元画像100の所定領域ごとの奥行き情報で構成される第1の奥行き情報を取得する。第1の奥行き情報取得部33は、2次元画像100を画像処理することにより第1の奥行き情報を取得する。なお、第1の奥行き情報は詳細な奥行き情報であり、この詳細な奥行き情報に基づいて代表値(第2の奥行き情報)が算出される。所定領域の大きさによって、第1の奥行き情報の詳細の程度が変わる。例えば、微小領域毎(1×1画素毎)の第1の奥行き情報は、非常に詳細な情報となる。また5×5画素毎の第1の奥行き情報でも、十分詳細な情報であり、代表値を算出することができる。 The depth estimation unit 31 ( FIG. 2 ) estimates the depth information of the object from the two-dimensional image 100 . Then, the parallax image generator 21 generates parallax images based on the estimated depth information. The depth estimation unit 31 includes a first depth information acquisition unit 33 and a second depth information acquisition unit 35 . The first depth information acquisition unit 33 acquires first depth information composed of depth information for each predetermined region of the two-dimensional image 100 . The first depth information acquisition unit 33 acquires first depth information by image processing the two-dimensional image 100 . The first depth information is detailed depth information, and a representative value (second depth information) is calculated based on this detailed depth information. The degree of detail of the first depth information varies depending on the size of the predetermined area. For example, the first depth information for each minute area (for each 1×1 pixel) is extremely detailed information. Also, even the first depth information for every 5×5 pixels is sufficiently detailed information, and the representative value can be calculated.

例えば第1の奥行き情報取得部33は、公知の2次元画像100からの奥行き推定アルゴリズムを使用して第1の奥行き情報を取得する。また、第1の奥行き情報取得部33は、機械学習により、第1の奥行き情報を算出してもよい。 For example, the first depth information acquisition unit 33 acquires first depth information using a known depth estimation algorithm from the two-dimensional image 100 . Also, the first depth information acquisition unit 33 may calculate the first depth information by machine learning.

また第1の奥行き情報取得部33は、2次元画像100とは別に入力された第1の奥行き情報を取得してもよい。例えば第1の奥行き情報取得部33は、2次元画像100を撮影する際に、撮像装置に備えられた計測器により取得された第1の奥行き情報を取得してもよい。すなわち、第1の奥行き情報取得部33は、2次元画像100とは別に入力される、計測器で計測された2次元画像100のオブジェクト(101、103、及び105)及び背景107の奥行き情報を取得する。ここで計測器としては、ステレオカメラ、デプスセンサ、又はToF(Time Of Flight)カメラがあげられる。 Also, the first depth information acquisition unit 33 may acquire first depth information that is input separately from the two-dimensional image 100 . For example, the first depth information acquisition unit 33 may acquire the first depth information acquired by a measuring device provided in the imaging device when capturing the two-dimensional image 100 . That is, the first depth information acquisition unit 33 acquires depth information of the objects (101, 103, and 105) of the two-dimensional image 100 and the background 107, which are input separately from the two-dimensional image 100 and measured by the measuring instrument. get. Here, the measuring device includes a stereo camera, a depth sensor, or a ToF (Time Of Flight) camera.

図5は、第1の奥行き情報取得部33で取得された第1の奥行き情報の一例を示す図であり、距離画像400が示されている。 FIG. 5 is a diagram showing an example of the first depth information acquired by the first depth information acquisition unit 33, showing a distance image 400. As shown in FIG.

距離画像400は画素毎に距離情報を有している。具体的には、オブジェクト101、オブジェクト103、オブジェクト105、及び背景107における画素毎の距離情報を有している。画素毎に距離情報を有しているので、例えばオブジェクト101において凹凸がある場合には、その凹凸に由来する距離情報の違いも、距離画像400では反映されている。 The distance image 400 has distance information for each pixel. Specifically, it has distance information for each pixel in the object 101 , the object 103 , the object 105 , and the background 107 . Since each pixel has distance information, for example, if the object 101 has unevenness, the distance image 400 also reflects the difference in the distance information resulting from the unevenness.

第2の奥行き情報取得部35は、オブジェクト101、オブジェクト103、オブジェクト105、及び背景107の領域に対応した第1の奥行き情報に基づいて、各領域の奥行きに関する代表値(第2の奥行き情報)を算出する。具体的に第2の奥行き情報取得部35は、オブジェクト101、オブジェクト103、オブジェクト105、及び背景107に対応する第1の奥行き情報の平均値、中央値、又は最頻値に基づいて、奥行き情報の代表値を取得する。第2の奥行き情報取得部35が代表値を取得することにより、例えばオブジェクト101の領域において第1の奥行き情報の値が複数個存在する場合であっても、オブジェクト101を配置する一つのレイヤを決定することができる。そして奥行き推定部31は、第2の奥行き情報に基づいて第1のレイヤ及び第2のレイヤの奥行き位置を決定する。 Based on the first depth information corresponding to the regions of the object 101, the object 103, the object 105, and the background 107, the second depth information acquisition unit 35 obtains a representative value (second depth information) regarding the depth of each region. Calculate Specifically, the second depth information acquisition unit 35 acquires depth information based on the average value, median value, or mode value of the first depth information corresponding to the object 101, the object 103, the object 105, and the background 107. to obtain a representative value of By obtaining the representative value by the second depth information obtaining unit 35, for example, even if there are a plurality of values of the first depth information in the area of the object 101, one layer in which the object 101 is placed can be determined. can decide. The depth estimation unit 31 then determines the depth positions of the first layer and the second layer based on the second depth information.

図6は、2次元画像100から生成される3次元画像のレイヤ構成を示す図である。なお、以下の説明では、第1のレイヤをオブジェクトレイヤと記載し、第2のレイヤを背景レイヤと記載する。また、オブジェクトレイヤは単数又は複数の場合がある。 FIG. 6 is a diagram showing the layer configuration of a three-dimensional image generated from the two-dimensional image 100. As shown in FIG. In the following description, the first layer will be referred to as an object layer, and the second layer will be referred to as a background layer. Also, there may be one or more object layers.

奥行き推定部31は、第2の奥行き情報取得部35で取得された代表値に基づいて、各レイヤにオブジェクト及び背景107を配置するデータを生成する。オブジェクト101は第1のオブジェクトレイヤ121に配置されている。オブジェクト103及びオブジェクト105は、第2のオブジェクトレイヤ123に配置されている。また背景107は背景レイヤ125に配置されている。 The depth estimation unit 31 generates data for arranging the object and the background 107 on each layer based on the representative values acquired by the second depth information acquisition unit 35 . The object 101 is placed on the first object layer 121 . Objects 103 and 105 are placed on a second object layer 123 . Also, the background 107 is placed on the background layer 125 .

オブジェクト101は代表値a1を有し、オブジェクト103は代表値a2を有し、オブジェクト105は代表値a2を有する。また背景107は代表値a3を有する。奥行き推定部31は、この代表値に応じて各レイヤにオブジェクト及び背景107を配置する。このように、第1の奥行き情報に基づいて算出される代表値に応じて各レイヤにオブジェクト及び背景107が配置されることにより、より自然な奥行き関係を構築することができる。 Object 101 has representative value a1, object 103 has representative value a2, and object 105 has representative value a2. Also, the background 107 has a representative value a3. The depth estimation unit 31 arranges the object and the background 107 on each layer according to this representative value. Thus, by arranging the object and the background 107 on each layer according to the representative value calculated based on the first depth information, a more natural depth relationship can be constructed.

被写体決定部17(図2)は、抽出された被写体のうちで主要被写体及び非主要被写体を被写体関係情報に基づいて決定する。ここで、被写体関係情報とは、複数の被写体うち主要被写体と非主要被写体とを決定するための情報であり、3次元画像において自然な立体感が適切に表現されように主要被写体を決定する情報である。例えば、被写体関係情報は、2次元画像100の中心からの位置情報、奥行き情報、被写体のサイズ情報、及び被写体抽出部15での被写体の抽出の信頼度のうち少なくとも一つを含む。 The subject determination unit 17 (FIG. 2) determines a main subject and a non-main subject among the extracted subjects based on the subject-related information. Here, subject-related information is information for determining main subjects and non-main subjects among a plurality of subjects, and is information for determining main subjects so that a natural three-dimensional effect can be appropriately expressed in a three-dimensional image. is. For example, the subject-related information includes at least one of position information from the center of the two-dimensional image 100, depth information, size information of the subject, and reliability of subject extraction by the subject extraction unit 15. FIG.

被写体決定部17は、被写体関係情報として2次元画像100の中心からの位置情報を採用した場合には、2次元画像100の中心に最も近い被写体を主要被写体として決定する。また、被写体決定部17は、被写体関係情報として2次元画像100の中心からの位置情報を採用した場合には、2次元画像100の中心から所定範囲以内にある被写体を主要被写体として決定してもよい。 When positional information from the center of the two-dimensional image 100 is used as the subject-related information, the subject determination unit 17 determines the subject closest to the center of the two-dimensional image 100 as the main subject. Further, when positional information from the center of the two-dimensional image 100 is adopted as the subject-related information, the subject determination unit 17 may determine a subject within a predetermined range from the center of the two-dimensional image 100 as the main subject. good.

また、被写体決定部17は、被写体関係情報として奥行き情報を採用した場合には、最も手前にある被写体を主要被写体として決定する。また、被写体決定部17は、被写体関係情報として奥行き情報を採用した場合には、所定範囲の奥行き方向の距離以内にある被写体を主要被写体として決定してもよい。 Further, when the depth information is adopted as the subject-related information, the subject determination unit 17 determines the foremost subject as the main subject. Further, when depth information is adopted as the subject-related information, the subject determination unit 17 may determine a subject within a predetermined range of distance in the depth direction as the main subject.

また、被写体決定部17は、被写体関係情報として被写体のサイズ情報を採用した場合には、サイズが最大の被写体を主要被写体として決定する。また、被写体決定部17は、被写体関係情報として被写体のサイズ情報を採用した場合には、所定の閾値以上のサイズを有する被写体を主要被写体として決定してもよい。なお、被写体決定部17は、奥行き推定部31で推定された奥行き情報に基づいて被写体のサイズの正規化を行った後のサイズ情報に基づいて、主要被写体を決定してもよい。 Further, when subject size information is adopted as the subject-related information, the subject determination unit 17 determines the subject with the largest size as the main subject. Further, when subject size information is adopted as the subject-related information, the subject determination unit 17 may determine a subject having a size equal to or larger than a predetermined threshold value as the main subject. Note that the subject determination unit 17 may determine the main subject based on the size information after normalizing the size of the subject based on the depth information estimated by the depth estimation unit 31 .

また、被写体決定部17は、被写体関係情報として被写体抽出部15における被写体の抽出の信頼度を採用した場合には、信頼度が最大である被写体を主要被写体として決定する。また、被写体決定部17は、被写体関係情報として被写体抽出部15における被写体の抽出の信頼度を採用した場合には、所定の閾値以上の信頼度の被写体を主要被写体として決定する。 Further, when the subject determination unit 17 adopts the reliability of subject extraction by the subject extraction unit 15 as the subject relation information, the subject determination unit 17 determines the subject with the highest reliability as the main subject. Further, when the reliability of extraction of the subject by the subject extraction section 15 is adopted as the subject relation information, the subject determination section 17 determines a subject with a degree of reliability equal to or higher than a predetermined threshold as the main subject.

図7は、図4で示した抽出された被写体から決定された主要被写体を示す図である。オブジェクト101は、被写体決定部17により主要被写体として決定されている。一方、オブジェクト103及びオブジェクト105(図4)は、非主要被写体として決定され、非主要被写体として決定されたオブジェクト103及びオブジェクト105は被写体決定部17により消去される。 FIG. 7 is a diagram showing main subjects determined from the extracted subjects shown in FIG. The object 101 has been determined as the main subject by the subject determination unit 17 . On the other hand, the object 103 and the object 105 (FIG. 4) are determined as non-main subjects, and the object determination unit 17 deletes the objects 103 and 105 determined as non-main subjects.

図7に示す場合では被写体決定部17は、推定された奥行き情報に基づいて、主要被写体を決定している。具体的には、オブジェクト101、オブジェクト103、及びオブジェクト105は、図6で説明したように奥行き情報として代表値を有する。具体的には、オブジェクト101は代表値a1を有し、オブジェクト103及びオブジェクト105は代表値a2を有する。そして、被写体決定部17は、最も手前にあるオブジェクト101を主要被写体と決定し、オブジェクト103及びオブジェクト105を非主要被写体と決定する。このように、被写体決定部17が奥行き情報に基づいて主要被写体を決定することにより、3次元画像において自然な立体感を適切に表現することができる。 In the case shown in FIG. 7, the subject determination unit 17 determines the main subject based on the estimated depth information. Specifically, the objects 101, 103, and 105 have representative values as depth information as described with reference to FIG. Specifically, the object 101 has a representative value a1, and the objects 103 and 105 have a representative value a2. Then, the subject determination unit 17 determines the foremost object 101 as the main subject, and determines the objects 103 and 105 as non-main subjects. As described above, the subject determination unit 17 determines the main subject based on the depth information, so that a natural three-dimensional effect can be appropriately expressed in the three-dimensional image.

背景生成部19(図2)は、視差画像に使用される背景107を生成する。具体的には、背景生成部19は、2次元画像100における主要被写体以外の領域を画像処理により補完して背景107を生成する。背景生成部19は、公知の技術により、2次元画像100における主要被写体以外の領域を補完する。 The background generator 19 (FIG. 2) generates the background 107 used for the parallax images. Specifically, the background generating unit 19 generates the background 107 by interpolating regions other than the main subject in the two-dimensional image 100 by image processing. The background generation unit 19 complements areas other than the main subject in the two-dimensional image 100 using a known technique.

図8は、被写体が抽出された後の背景107を示す図である。被写体抽出部15により、被写体として、オブジェクト101、オブジェクト103、及びオブジェクト105が抽出されると、背景107には、オブジェクト101、オブジェクト103、及びオブジェクト105に対応するブランク部分111、113、115が存在する。そして、オブジェクト101が主要被写体として決定されたので、非主要被写体であるオブジェクト103及びオブジェクト105に対応するブランク部分113及び115は、背景107を利用して補完される。 FIG. 8 is a diagram showing the background 107 after the subject has been extracted. When the subject extracting unit 15 extracts the object 101, the object 103, and the object 105 as subjects, blank portions 111, 113, and 115 corresponding to the object 101, the object 103, and the object 105 exist in the background 107. do. Since the object 101 has been determined as the main subject, the blank portions 113 and 115 corresponding to the non-main subjects, the objects 103 and 105, are complemented using the background 107. FIG.

視差画像生成部21(図2)は、2次元画像100における非主要被写体を消去し、主要被写体を前景とし、主要被写体以外を背景107として、前景と背景107とを相対的にシフトして2以上の視差画像を生成する。 The parallax image generation unit 21 (FIG. 2) removes the non-main subject in the two-dimensional image 100, sets the main subject as the foreground, sets the non-main subject as the background 107, and shifts the foreground and the background 107 relatively to form a two-dimensional image. The above parallax images are generated.

図9は、奥行き情報に基づいて前景(オブジェクト101)と背景107とを配置した概念図を示す。 FIG. 9 shows a conceptual diagram in which the foreground (object 101) and background 107 are arranged based on depth information.

背景107及びオブジェクト101がそれぞれ有する奥行き情報に応じて配置位置が異なる。具体的には、背景107のレイヤの位置は符号Bで示されており、オブジェクト101のレイヤの位置が符号Fで示されており、奥行き情報に応じて位置が相違している。視差画像生成部21は、この奥行き情報に基づく配置の相違を利用して、視差画像を生成する。 The arrangement position differs depending on the depth information of the background 107 and the object 101 respectively. Specifically, the position of the layer of the background 107 is indicated by B, the position of the layer of the object 101 is indicated by F, and the positions differ according to the depth information. The parallax image generator 21 generates parallax images using the difference in arrangement based on the depth information.

図10は、視差画像生成部21が生成する視差画像の一例を示す図である。視差画像生成部21は、図9で示した背景107及び前景(オブジェクト101)の奥行き情報に基づいて、左目画像131及び右目画像133を生成する。図10には視差画像として、左目画像131と右目画像133とが、正面からの画像135に重畳的に示されている(点線で示されている)。左目画像131では、オブジェクト101の位置は、背景107に対して矢印Lの方向にシフトされている。また、右目画像133では、オブジェクト101の位置は、背景107に対して矢印Rの方向にシフトされている。なお、上記では視差画像生成部21が、2枚の視差画像を生成する場合に関して説明をしてきが、これに限定されるものではない。例えば、視差画像生成部21は、3枚以上の視差画像を生成してもよい。例えば視差画像生成部21が3枚の視差画像を生成する場合には、左目画像、右目画像、及び正面画像が生成される。ここで正面画像とは、オブジェクト101が背景107に対してシフトされていない画像である。 FIG. 10 is a diagram showing an example of a parallax image generated by the parallax image generator 21. As shown in FIG. The parallax image generator 21 generates a left-eye image 131 and a right-eye image 133 based on the depth information of the background 107 and foreground (object 101) shown in FIG. In FIG. 10, as parallax images, a left-eye image 131 and a right-eye image 133 are superimposed on an image 135 viewed from the front (indicated by dotted lines). In left-eye image 131 , the position of object 101 has been shifted in the direction of arrow L with respect to background 107 . Also, in the right-eye image 133 , the position of the object 101 is shifted in the direction of arrow R with respect to the background 107 . In the above description, the case where the parallax image generation unit 21 generates two parallax images has been described, but the present invention is not limited to this. For example, the parallax image generator 21 may generate three or more parallax images. For example, when the parallax image generator 21 generates three parallax images, a left-eye image, a right-eye image, and a front image are generated. A front image is an image in which the object 101 is not shifted with respect to the background 107 .

モニタ9に、左目画像131及び右目画像133をモニタ9に交互表示することにより、ユーザは、オブジェクト101の立体感を確認することができる。すなわち、左目画像131と右目画像133とを所定の周期により、交互表示するとオブジェクト101の立体感をユーザは確認することができる。ここで交互表示とは例えば、0.1秒から0.5秒の周期により、左目画像131と右目画像133とを交互に表示する。 By alternately displaying the left-eye image 131 and the right-eye image 133 on the monitor 9 , the user can confirm the stereoscopic effect of the object 101 . That is, by alternately displaying the left-eye image 131 and the right-eye image 133 at a predetermined cycle, the user can confirm the stereoscopic effect of the object 101 . Here, the alternate display means, for example, alternately displaying the left-eye image 131 and the right-eye image 133 at a cycle of 0.1 to 0.5 seconds.

シフト量調整受付部23(図2)は、視差画像のシフト量の調整を受け付ける。例えば、ユーザは、モニタ9に交互表示される左目画像131及び右目画像133を確認して、キーボード5又はマウス7を介して、シフト量調整受付部23にシフト量を入力し、シフト量の調整を行う。視差画像生成部21は、シフト量調整受付部23で受け付けたシフト量に基づいて、視差画像のシフト量を調整する。これにより、ユーザは、左目画像131及び右目画像133の交互表示を確認して、オブジェクト101と背景107とのシフト量の調整を行うことができる。ここでシフト量とは、前景を背景に対してシフトさせる量のことをいい、シフト量が調整されることにより、視差画像の立体感を調整することができる。このように、ユーザは左目画像131及び右目画像133の交互表示を確認してシフト量を調整することができるので、例えば最終工程で得られるレンチキュラー印刷用データにおいてもユーザが意図する立体感を得ることができる。 The shift amount adjustment reception unit 23 (FIG. 2) receives adjustment of the shift amount of the parallax image. For example, the user confirms the left-eye image 131 and the right-eye image 133 alternately displayed on the monitor 9, inputs the shift amount to the shift amount adjustment reception unit 23 via the keyboard 5 or the mouse 7, and adjusts the shift amount. I do. The parallax image generation unit 21 adjusts the shift amount of the parallax image based on the shift amount received by the shift amount adjustment reception unit 23 . Thereby, the user can confirm the alternate display of the left-eye image 131 and the right-eye image 133 and adjust the shift amount between the object 101 and the background 107 . Here, the shift amount refers to the amount by which the foreground is shifted with respect to the background, and the stereoscopic effect of the parallax image can be adjusted by adjusting the shift amount. In this way, the user can confirm the alternate display of the left-eye image 131 and the right-eye image 133 and adjust the amount of shift, so that the lenticular printing data obtained in the final step can also obtain the three-dimensional effect intended by the user. be able to.

レンチキュラー印刷用データ生成部29(図2)は、視差画像に基づいて、レンチキュラー印刷用データを生成する。例えば、レンチキュラー印刷用データ生成部29は、左目画像131及び右目画像133に基づいて、レンチキュラー印刷用データを生成する。 The lenticular printing data generator 29 (FIG. 2) generates lenticular printing data based on the parallax image. For example, the lenticular printing data generation unit 29 generates lenticular printing data based on the left-eye image 131 and the right-eye image 133 .

次に、3次元画像生成方法に関して説明する。図11は、3次元画像生成装置11を使った3次元画像生成方法(3次元画像生成工程)を示すフローチャートである。 Next, a three-dimensional image generation method will be described. FIG. 11 is a flow chart showing a three-dimensional image generating method (three-dimensional image generating process) using the three-dimensional image generating apparatus 11. As shown in FIG.

先ず、画像入力部13に2次元画像100が入力される(ステップS10)。その後、被写体抽出部15は、2次元画像100から被写体としてオブジェクト101、オブジェクト103、及びオブジェクト105を抽出する(ステップS11)。そして、被写体決定部17は、被写体関係情報に基づいて主要被写体としてオブジェクト101を決定し、非主要被写体としてオブジェクト103及びオブジェクト105を決定する(ステップS12)。その後、視差画像生成部21は、オブジェクト101を前景及び背景107から視差画像を生成する(ステップS13)。 First, the two-dimensional image 100 is input to the image input unit 13 (step S10). After that, the subject extraction unit 15 extracts the object 101, the object 103, and the object 105 as subjects from the two-dimensional image 100 (step S11). Then, the subject determination unit 17 determines the object 101 as the main subject and the objects 103 and 105 as the non-main subjects based on the subject relation information (step S12). After that, the parallax image generator 21 generates a parallax image of the object 101 from the foreground and the background 107 (step S13).

上述の各構成及び機能は、任意のハードウェア、ソフトウェア、或いは両者の組み合わせによって適宜実現可能である。例えば、上述の処理ステップ(処理手順)をコンピュータに実行させるプログラム、そのようなプログラムを記録したコンピュータ読み取り可能な記録媒体(非一時的記録媒体)、或いはそのようなプログラムをインストール可能なコンピュータに対しても本発明を適用することが可能である。 Each configuration and function described above can be appropriately realized by arbitrary hardware, software, or a combination of both. For example, a program that causes a computer to execute the above-described processing steps (procedures), a computer-readable recording medium (non-temporary recording medium) recording such a program, or a computer capable of installing such a program However, it is possible to apply the present invention.

以上で説明したように、本態様によれば、2次元画像100を画像処理することにより得られた被写体に関して、被写体関係情報に基づいて主要被写体及び非主要被写体を決定し、主要被写体を前景として主要被写体以外を背景107として視差画像を生成するので、自然な立体感が適切に表現された3次元画像が生成される。 As described above, according to this aspect, regarding subjects obtained by image processing the two-dimensional image 100, the main subject and the non-main subject are determined based on the subject-related information, and the main subject is set as the foreground. Since the parallax image is generated with the background 107 other than the main subject, a three-dimensional image that appropriately expresses a natural three-dimensional effect is generated.

<主要被写体の決定の他の例>
次に、主要被写体の決定の他の例に関して説明する。上記の説明では、オブジェクト101、オブジェクト103、及びオブジェクト105のうちから、奥行き情報の被写体関係情報を使用してオブジェクト101のみが主要被写体として決定されたが、それに限定されるものではない。被写体関係情報によっては、他のオブジェクト又は複数のオブジェクトが主要被写体として決定されてもよい。
<Another example of determining the main subject>
Next, another example of determining the main subject will be described. In the above description, only the object 101 is determined as the main subject from among the objects 101, 103, and 105 using the subject relationship information of the depth information, but the present invention is not limited to this. Depending on the subject-related information, another object or multiple objects may be determined as the main subject.

図12は、他のオブジェクトが主要被写体と決定される場合を概念的に示す図である。 FIG. 12 conceptually shows a case where another object is determined as the main subject.

被写体決定部17は、オブジェクト101及びオブジェクト105を主要被写体として決定する。被写体決定部17は、被写体関係情報として、画像の中心Oからの位置情報に基づいて主要被写体を決定している。具体的には、被写体決定部17は、オブジェクト101及びオブジェクト105が画角の中心Oから距離bの範囲内のオブジェクトであるので、被写体決定部17はオブジェクト101及びオブジェクト105を主要被写体として決定している。なお、オブジェクト105に関しては、オブジェクト105の大部分(例えば80%以上)が距離bの範囲内にあることから、被写体決定部17はオブジェクト105を主要被写体として決定している。 The subject determination unit 17 determines the object 101 and the object 105 as main subjects. The subject determination unit 17 determines the main subject based on position information from the center O of the image as subject-related information. Specifically, since the object 101 and the object 105 are within the range of the distance b from the center O of the angle of view, the subject determination unit 17 determines the object 101 and the object 105 as main subjects. ing. As for the object 105, most of the object 105 (for example, 80% or more) is within the range of the distance b, so the subject determination unit 17 determines the object 105 as the main subject.

以上で説明したように、被写体決定部17は、被写体関係情報に応じて複数の被写体を主要被写体として決定することができる。 As described above, the subject determination unit 17 can determine a plurality of subjects as main subjects according to subject-related information.

また、被写体決定部17は、他の領域を主要被写体に加えることもできる。ここで他の領域とは、被写体抽出部15では抽出されなかった領域のことである。被写体決定部17は、決定された主要被写体を基準として、所定範囲以内の位置(近い位置)にある領域を、主要被写体に加える。また、被写体決定部17は、決定された主要被写体を基準として、所定範囲のサイズ(類似のサイズ)にある領域を、主要被写体に加える。また、被写体決定部17は、奥行き情報を用いてサイズの正規化を行って、決定された主要被写体を基準として、所定範囲のサイズ(類似のサイズ)にある領域を、主要被写体に加えてもよい。被写体決定部17は、決定された主要被写体を基準として、所定範囲の信頼度(類似の信頼度)にある領域を、主要被写体に加えてもよい。 The subject determination unit 17 can also add other areas to the main subject. Here, the other area means an area that has not been extracted by the subject extracting section 15 . The subject determination unit 17 adds an area located within a predetermined range (near position) to the main subject based on the determined main subject. Further, the subject determination unit 17 adds an area having a size within a predetermined range (similar size) to the main subject based on the determined main subject. In addition, the subject determination unit 17 performs size normalization using the depth information, and uses the determined main subject as a reference, and adds an area within a predetermined range of size (similar size) to the main subject. good. The subject determining unit 17 may add an area having a predetermined range of reliability (reliability of similarity) to the main subject based on the determined main subject.

このように、被写体決定部17は、被写体抽出部15で抽出されていない領域においても、主要被写体に含ませることができる。 In this way, the subject determination unit 17 can include even a region that has not been extracted by the subject extraction unit 15 as the main subject.

<その他の例>
上述の説明では、画像入力部13に入力された2次元画像100から前景及び背景107を得て、視差画像を生成する態様を説明してきたが、これに限定されるものではない。例えば、視差画像生成部21は、背景107を他の画像に差し替えてもよいし、又は前景を他の画像に差し替えてもよい。
<Other examples>
In the above description, the foreground and background 107 are obtained from the two-dimensional image 100 input to the image input unit 13 to generate parallax images, but the present invention is not limited to this. For example, the parallax image generator 21 may replace the background 107 with another image, or replace the foreground with another image.

図13は、本例の3次元画像生成装置11の機能構成例を示すブロック図である。 FIG. 13 is a block diagram showing a functional configuration example of the three-dimensional image generating device 11 of this example.

3次元画像生成装置11は、画像入力部13、被写体抽出部15、被写体決定部17、背景生成部19、奥行き推定部31、視差画像生成部21、シフト量調整受付部23、レンチキュラー印刷用データ生成部29、表示制御部25、記憶部27、背景変更部41、前景変更部43を備える。なお、図2で既に説明を行った箇所は同じ符号を付し説明を省略する。 The three-dimensional image generation device 11 includes an image input unit 13, a subject extraction unit 15, a subject determination unit 17, a background generation unit 19, a depth estimation unit 31, a parallax image generation unit 21, a shift amount adjustment reception unit 23, and data for lenticular printing. A generation unit 29 , a display control unit 25 , a storage unit 27 , a background change unit 41 and a foreground change unit 43 are provided. In addition, the same code|symbol is attached|subjected to the location which already demonstrated in FIG. 2, and description is abbreviate|omitted.

背景変更部41は背景107を他の画像に差し替える。具体的には、背景変更部41は、2次元画像100において、被写体決定部17で決定された主要被写体に対して、2次元画像100の背景107を他の画像に差し替える。ここで、他の画像とは、例えば既に画像入力部13に入力された他の2次元画像の背景画像である。 The background changing unit 41 replaces the background 107 with another image. Specifically, the background changing unit 41 replaces the background 107 of the two-dimensional image 100 with another image for the main subject determined by the subject determining unit 17 in the two-dimensional image 100 . Here, another image is, for example, a background image of another two-dimensional image that has already been input to the image input unit 13 .

視差画像生成部21は、背景変更部41が背景107を他の画像に差し替えた場合には、主要被写体を前景とし、他の画像を背景として、2以上の視差画像を生成する。これにより、前景を得た2次元画像100とは異なる背景を有する視差画像を生成することができる。 When the background changer 41 replaces the background 107 with another image, the parallax image generator 21 generates two or more parallax images with the main subject as the foreground and the other image as the background. Thereby, a parallax image having a different background from the two-dimensional image 100 from which the foreground is obtained can be generated.

前景変更部43は、前景を他の画像に差し替える。具体的には、前景変更部43は、2次元画像100において、得られた背景107に対して、2次元画像100の前景を他の画像に差し替える。ここで、他の画像とは、例えば既に画像入力部13に入力された他の2次元画像から得られた主要被写体である。 The foreground changing unit 43 replaces the foreground with another image. Specifically, the foreground changing unit 43 replaces the obtained background 107 in the two-dimensional image 100 with another image for the foreground of the two-dimensional image 100 . Here, the other image is the main subject obtained from another two-dimensional image that has already been input to the image input unit 13, for example.

視差画像生成部21は、他の画像を前景とし、前景と背景107とにより視差画像を生成する。これにより、背景を得た2次元画像100とは異なる前景を有する視差画像を生成することができる。 The parallax image generator 21 uses another image as the foreground and generates a parallax image from the foreground and the background 107 . Thereby, a parallax image having a different foreground than the two-dimensional image 100 from which the background is obtained can be generated.

以上で本発明の例に関して説明してきたが、本発明は上述した実施の形態に限定されず、本発明の精神を逸脱しない範囲で種々の変形が可能であることは言うまでもない。 Although examples of the present invention have been described above, it goes without saying that the present invention is not limited to the above-described embodiments, and that various modifications are possible without departing from the spirit of the present invention.

3 :コンピュータ
5 :キーボード
7 :マウス
9 :モニタ
11 :3次元画像生成装置
13 :画像入力部
15 :被写体抽出部
17 :被写体決定部
19 :背景生成部
21 :視差画像生成部
23 :シフト量調整受付部
25 :表示制御部
27 :記憶部
29 :レンチキュラー印刷用データ生成部
31 :奥行き推定部
33 :第1の奥行き情報取得部
35 :第2の奥行き情報取得部
41 :背景変更部
43 :前景変更部
100 :2次元画像
101 :オブジェクト
103 :オブジェクト
105 :オブジェクト
107 :背景
3: Computer 5: Keyboard 7: Mouse 9: Monitor 11: Three-dimensional image generation device 13: Image input unit 15: Subject extraction unit 17: Subject determination unit 19: Background generation unit 21: Parallax image generation unit 23: Shift amount adjustment Reception unit 25 : Display control unit 27 : Storage unit 29 : Lenticular printing data generation unit 31 : Depth estimation unit 33 : First depth information acquisition unit 35 : Second depth information acquisition unit 41 : Background change unit 43 : Foreground Change unit 100: two-dimensional image 101: object 103: object 105: object 107: background

Claims (14)

背景と複数の被写体とを有する2次元画像が入力される画像入力部と、
前記2次元画像を画像処理することにより、前記2次元画像の前記背景以外の前記複数の被写体を抽出する被写体抽出部と、
前記複数の被写体のうちで主要被写体及び非主要被写体を被写体関係情報に基づいて決定する被写体決定部と、
前記2次元画像における前記非主要被写体を消去し、前記主要被写体を前景とし、前記主要被写体以外を前記背景とし、前記前景と前記背景とを相対的にシフトして2以上の視差画像を生成する視差画像生成部と、
を備える3次元画像生成装置。
an image input unit to which a two-dimensional image having a background and a plurality of subjects is input;
a subject extraction unit that extracts the plurality of subjects other than the background of the two-dimensional image by performing image processing on the two-dimensional image;
a subject determination unit that determines a main subject and a non-main subject among the plurality of subjects based on subject-related information;
The non-main subject in the two-dimensional image is eliminated, the main subject is set as the foreground, the non-main subject is set as the background, and the foreground and the background are relatively shifted to generate two or more parallax images. a parallax image generation unit that
A three-dimensional image generation device comprising:
前記2次元画像における前記主要被写体以外の領域を画像処理により補完して、前記背景を生成する背景生成部を備え、
前記視差画像生成部は、前記背景生成部で生成された前記背景に基づいて、前記視差画像を生成する請求項1に記載の3次元画像生成装置。
A background generating unit that generates the background by complementing an area other than the main subject in the two-dimensional image by image processing,
The three-dimensional image generation device according to claim 1, wherein the parallax image generator generates the parallax image based on the background generated by the background generator.
前記被写体関係情報は、前記2次元画像の中心からの位置情報、奥行き情報、前記複数の被写体のサイズ情報、及び前記被写体抽出部での前記複数の被写体の抽出の信頼度のうち少なくとも一つを含む請求項1又は2に記載の3次元画像生成装置。 The subject-related information includes at least one of position information from the center of the two-dimensional image, depth information, size information of the plurality of subjects, and reliability of extraction of the plurality of subjects by the subject extraction unit. 3. The three-dimensional image generation device according to claim 1 or 2, comprising: 前記被写体決定部は、前記主要被写体を基準として、所定範囲内の前記被写体抽出部で抽出されなかった領域を前記主要被写体に加える請求項1から3のいずれか1項に記載の3次元画像生成装置。 4. The three-dimensional image according to any one of claims 1 to 3, wherein the subject determining unit adds an area within a predetermined range, which is not extracted by the subject extracting unit, to the main subject with reference to the main subject. generator. 前記被写体の奥行き情報を前記2次元画像から推定する奥行き推定部を備え、
前記被写体決定部は、前記奥行き推定部で推定された前記奥行き情報に基づいて、前記主要被写体を決定する請求項1から4のいずれか1項に記載の3次元画像生成装置。
A depth estimation unit that estimates depth information of the subject from the two-dimensional image,
5. The three-dimensional image generating apparatus according to any one of claims 1 to 4, wherein the subject determining section determines the main subject based on the depth information estimated by the depth estimating section.
前記視差画像生成部は、3枚以上の前記視差画像を生成する請求項1から5のいずれか1項に記載の3次元画像生成装置。 6. The three-dimensional image generation device according to any one of claims 1 to 5, wherein the parallax image generator generates three or more parallax images. 前記視差画像を表示する表示部を備える請求項1から6のいずれか1項に記載の3次元画像生成装置。 7. The three-dimensional image generation device according to any one of claims 1 to 6, further comprising a display unit that displays the parallax image. 前記視差画像のシフト量の調整を受け付けるシフト量調整受付部を備え、
前記視差画像生成部は、前記シフト量調整受付部で受け付けたシフト量に基づいて、前記視差画像のシフトを調整する請求項1から7のいずれか1項に記載の3次元画像生成装置。
A shift amount adjustment reception unit that receives adjustment of the shift amount of the parallax image,
The three-dimensional image generation device according to any one of claims 1 to 7, wherein the parallax image generation unit adjusts the shift of the parallax image based on the shift amount received by the shift amount adjustment reception unit.
前記背景を他の画像に差し替える背景変更部を備え、
前記視差画像生成部は、前記主要被写体を前景とし、前記他の画像を背景として、前記2以上の視差画像を生成する請求項1から8のいずれか1項に記載の3次元画像生成装置。
A background changing unit that replaces the background with another image,
9. The three-dimensional image generation device according to any one of claims 1 to 8, wherein the parallax image generator generates the two or more parallax images using the main subject as a foreground and the other image as a background.
前記前景を他の画像に差し替える前景変更部を備え、
前記視差画像生成部は、前記他の画像を前景とし、前記前景と前記背景とにより前記視差画像を生成する請求項1から8のいずれか1項に記載の3次元画像生成装置。
A foreground changing unit that replaces the foreground with another image,
The three-dimensional image generation device according to any one of claims 1 to 8, wherein the parallax image generator uses the other image as a foreground and generates the parallax image from the foreground and the background.
前記視差画像に基づいて、レンチキュラー印刷用データを生成するレンチキュラー印刷用データ生成部を備える請求項1から10のいずれか1項に記載の3次元画像生成装置。 The three-dimensional image generating apparatus according to any one of claims 1 to 10, further comprising a lenticular printing data generation unit that generates lenticular printing data based on the parallax image. 背景と複数の被写体とを有する2次元画像が入力されるステップと、
前記2次元画像を画像処理することにより、前記2次元画像の前記背景以外の前記複数の被写体を抽出するステップと、
前記複数の被写体のうちで主要被写体及び非主要被写体を被写体関係情報に基づいて決定するステップと、
前記2次元画像における前記非主要被写体を消去し、前記主要被写体を前景とし、前記主要被写体以外を前記背景とし、前記前景と前記背景とを相対的にシフトして2以上の視差画像を生成するステップと、
を含む3次元画像生成方法。
receiving a two-dimensional image having a background and a plurality of objects ;
a step of extracting the plurality of subjects other than the background of the two-dimensional image by performing image processing on the two-dimensional image;
determining a main subject and a non-main subject among the plurality of subjects based on subject-related information;
The non-main subject in the two-dimensional image is eliminated, the main subject is set as the foreground, the non-main subject is set as the background, and the foreground and the background are relatively shifted to generate two or more parallax images. and
A three-dimensional image generation method comprising:
背景と複数の被写体とを有する2次元画像が入力されるステップと、
前記2次元画像を画像処理することにより、前記2次元画像の前記背景以外の前記複数の被写体を抽出するステップと、
前記複数の被写体のうちで主要被写体及び非主要被写体を被写体関係情報に基づいて決定するステップと、
前記2次元画像における前記非主要被写体を消去し、前記主要被写体を前景とし、前記主要被写体以外を前記背景とし、前記前景と前記背景とを相対的にシフトして2以上の視差画像を生成するステップと、
を含む3次元画像生成工程をコンピュータに実行させるプログラム。
receiving a two-dimensional image having a background and a plurality of objects ;
a step of extracting the plurality of subjects other than the background of the two-dimensional image by performing image processing on the two-dimensional image;
determining a main subject and a non-main subject among the plurality of subjects based on subject-related information;
The non-main subject in the two-dimensional image is eliminated, the main subject is set as the foreground, the non-main subject is set as the background, and the foreground and the background are relatively shifted to generate two or more parallax images. and
A program that causes a computer to execute a three-dimensional image generation process including.
非一時的かつコンピュータ読取可能な記録媒体であって、前記記録媒体に格納された指令がコンピュータによって読み取られた場合に、
背景と複数の被写体とを有する2次元画像が入力されるステップと、
前記2次元画像を画像処理することにより、前記2次元画像の前記背景以外の前記複数の被写体を抽出するステップと、
前記複数の被写体のうちで主要被写体及び非主要被写体を被写体関係情報に基づいて決定するステップと、
前記2次元画像における前記非主要被写体を消去し、前記主要被写体を前景とし、前記主要被写体以外を前記背景とし、前記前景と前記背景とを相対的にシフトして2以上の視差画像を生成するステップと、
を含む3次元画像生成工程をコンピュータに実行させる記録媒体。
A non-transitory computer-readable recording medium, wherein when instructions stored on the recording medium are read by a computer,
receiving a two-dimensional image having a background and a plurality of objects ;
a step of extracting the plurality of subjects other than the background of the two-dimensional image by performing image processing on the two-dimensional image;
determining a main subject and a non-main subject among the plurality of subjects based on subject-related information;
The non-main subject in the two-dimensional image is eliminated, the main subject is set as the foreground, the non-main subject is set as the background, and the foreground and the background are relatively shifted to generate two or more parallax images. and
A recording medium that causes a computer to execute a three-dimensional image generation process comprising:
JP2020548374A 2018-09-21 2019-09-10 3D image generation device, 3D image generation method, and program Active JP7170052B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018177438 2018-09-21
JP2018177438 2018-09-21
PCT/JP2019/035559 WO2020059575A1 (en) 2018-09-21 2019-09-10 Three-dimensional image generation device, three-dimensional image generation method, and program

Publications (2)

Publication Number Publication Date
JPWO2020059575A1 JPWO2020059575A1 (en) 2021-09-16
JP7170052B2 true JP7170052B2 (en) 2022-11-11

Family

ID=69886978

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020548374A Active JP7170052B2 (en) 2018-09-21 2019-09-10 3D image generation device, 3D image generation method, and program

Country Status (2)

Country Link
JP (1) JP7170052B2 (en)
WO (1) WO2020059575A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111815666B (en) * 2020-08-10 2024-04-02 Oppo广东移动通信有限公司 Image processing method and device, computer readable storage medium and electronic equipment

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003331317A (en) 2002-05-14 2003-11-21 Canon Inc Image processing device and method, program, and recording medium
JP2012073792A (en) 2010-09-28 2012-04-12 Casio Comput Co Ltd Image processing device, image display apparatus, and image processing method
JP2012175324A (en) 2011-02-21 2012-09-10 Tatsumi Denshi Kogyo Kk Automatic photograph creation system, automatic photograph creation apparatus, server device and terminal device
JP2013168969A (en) 2013-03-25 2013-08-29 Olympus Imaging Corp Image display method, and image display device
US20130321408A1 (en) 2009-09-30 2013-12-05 Disney Enterprises, Inc. Method and system for utilizing pre-existing image layers of a two-dimensional image to create a stereoscopic image

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63142794A (en) * 1986-12-05 1988-06-15 Hitachi Ltd Television receiver
JP5310895B2 (en) * 2012-03-19 2013-10-09 カシオ計算機株式会社 Image generating apparatus, image generating method, and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003331317A (en) 2002-05-14 2003-11-21 Canon Inc Image processing device and method, program, and recording medium
US20130321408A1 (en) 2009-09-30 2013-12-05 Disney Enterprises, Inc. Method and system for utilizing pre-existing image layers of a two-dimensional image to create a stereoscopic image
JP2012073792A (en) 2010-09-28 2012-04-12 Casio Comput Co Ltd Image processing device, image display apparatus, and image processing method
JP2012175324A (en) 2011-02-21 2012-09-10 Tatsumi Denshi Kogyo Kk Automatic photograph creation system, automatic photograph creation apparatus, server device and terminal device
JP2013168969A (en) 2013-03-25 2013-08-29 Olympus Imaging Corp Image display method, and image display device

Also Published As

Publication number Publication date
WO2020059575A1 (en) 2020-03-26
JPWO2020059575A1 (en) 2021-09-16

Similar Documents

Publication Publication Date Title
JP5887267B2 (en) 3D image interpolation apparatus, 3D imaging apparatus, and 3D image interpolation method
TWI729995B (en) Generating a merged, fused three-dimensional point cloud based on captured images of a scene
EP2992508B1 (en) Diminished and mediated reality effects from reconstruction
US9070042B2 (en) Image processing apparatus, image processing method, and program thereof
JP6412690B2 (en) Method for obtaining depth information and display device
JP5923713B2 (en) Image processing apparatus, imaging apparatus, and image processing method
US20210241495A1 (en) Method and system for reconstructing colour and depth information of a scene
WO2019167453A1 (en) Image processing device, image processing method, and program
US9338437B2 (en) Apparatus and method for reconstructing high density three-dimensional image
US20140079336A1 (en) Systems and methods for correcting user identified artifacts in light field images
JP7184748B2 (en) A method for generating layered depth data for a scene
EP2769551A2 (en) Generating a depth map
US9235879B2 (en) Apparatus, system, and method for temporal domain hole filling based on background modeling for view synthesis
JP7361251B2 (en) Measuring device and method
KR102407137B1 (en) Method and apparatus for image processing
KR102450236B1 (en) Electronic apparatus, method for controlling thereof and the computer readable recording medium
WO2019244944A1 (en) Three-dimension reconstruction method and three-dimension reconstruction device
WO2016185458A1 (en) A method for estimating aggregation results for generating three dimensional images
JP7170052B2 (en) 3D image generation device, 3D image generation method, and program
JP2020112928A (en) Background model generation device, background model generation method, and background model generation program
JP6266229B2 (en) Image processing apparatus, method, and program
KR101869226B1 (en) Disparity map generating method for mono cameras
KR20140119325A (en) Apparatus for redeeming noise of depth image and method thereof
KR101905528B1 (en) Method of obtaining depth information and display apparatus
US20220230342A1 (en) Information processing apparatus that estimates object depth, method therefor, and storage medium holding program therefor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210405

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220530

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220728

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221014

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221031

R150 Certificate of patent or registration of utility model

Ref document number: 7170052

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150