JP6696256B2 - Decoration simulation device, decoration simulation method, and program - Google Patents

Decoration simulation device, decoration simulation method, and program Download PDF

Info

Publication number
JP6696256B2
JP6696256B2 JP2016061649A JP2016061649A JP6696256B2 JP 6696256 B2 JP6696256 B2 JP 6696256B2 JP 2016061649 A JP2016061649 A JP 2016061649A JP 2016061649 A JP2016061649 A JP 2016061649A JP 6696256 B2 JP6696256 B2 JP 6696256B2
Authority
JP
Japan
Prior art keywords
image
area
input
setting
input image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016061649A
Other languages
Japanese (ja)
Other versions
JP2017175523A (en
Inventor
聡 田端
聡 田端
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2016061649A priority Critical patent/JP6696256B2/en
Publication of JP2017175523A publication Critical patent/JP2017175523A/en
Application granted granted Critical
Publication of JP6696256B2 publication Critical patent/JP6696256B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Editing Of Facsimile Originals (AREA)
  • Image Processing (AREA)

Description

本発明は、装飾シミュレーション装置、装飾シミュレーション方法、及びプログラムに係り、詳細には、部屋等の画像にカーテン等の装飾品の画像を合成する技術に関する。   The present invention relates to a decoration simulation device, a decoration simulation method, and a program, and more particularly to a technique of synthesizing an image of a decorative article such as a curtain with an image of a room or the like.

消費者がカーテンやブラインド等の窓装飾品を購入する際、デザインやカラーに加え、部屋の内装との親和性が重要な判断ポイントとなる。そこでユーザは店舗の実物やカタログやパンフレット、Webサイトの画像等を見て自分の部屋に置き換えて想像することで購入を検討する。しかし、実際にそのカーテンを購入して部屋に取り付けてみると、購入前に抱いたイメージと異なっていて不満を抱く結果となることがある。   When consumers purchase window decorations such as curtains and blinds, in addition to design and color, compatibility with the interior of the room is an important decision point. Therefore, the user considers the purchase by looking at the actual goods in the store, catalogs, pamphlets, images on the website, etc. and imagining them by replacing them with their own room. However, when you actually buy the curtain and attach it to the room, you may be dissatisfied with the image you had before purchasing.

このような不満感を回避するために、合成画像による購入前の事前確認の仕組みが提案されている。例えば、特許文献1にはカーテンの柄を替えるシミュレーションを2次元画像を用いて行う仕組みが開示されている。特許文献1では、2次元の背景画像内の曲面を有する対象物に柄を持つ画像を合成する際に、柄が曲面に応じて自然な状態となるように変形して画像合成する技術について記載されている。   In order to avoid such a feeling of dissatisfaction, a mechanism of prior confirmation before purchase using a composite image has been proposed. For example, Patent Document 1 discloses a mechanism for performing a simulation for changing the pattern of a curtain by using a two-dimensional image. Patent Document 1 describes a technique for synthesizing an image by synthesizing an image having a pattern on an object having a curved surface in a two-dimensional background image by deforming the pattern so as to be in a natural state according to the curved surface. Has been done.

特許3679347号公報Japanese Patent No. 3679347

しかしながら、特許文献1では、前提として無地のカーテンが掛けられた室内画像を背景画像として使用し、背景画像内の無地のカーテンに別の色や柄を適用して表示するものである。そのため、カーテンが装着されていない画像や柄物のカーテンが装着されている画像には特許文献1の手法を適用できなかった。また特に、カーテンのシミュレーションを行う場合には、合成先の画像における窓の位置や大きさ、部屋の照明環境等により、実際のカーテンの色や形の見え方が大きく変化する。そのため、単に部屋の写真とカーテンの写真とを合成するだけでは、実際に室内にカーテンを装着した場合と比較してイメージが異なることもある。   However, in Patent Document 1, as an assumption, an indoor image with a plain curtain is used as a background image, and a different color or pattern is applied to the plain curtain in the background image for display. Therefore, the method of Patent Document 1 cannot be applied to an image in which a curtain is not mounted or an image in which a patterned curtain is mounted. Further, in particular, when a curtain simulation is performed, the actual appearance of the color and shape of the curtain greatly changes depending on the position and size of the window in the image to be combined, the lighting environment of the room, and the like. Therefore, the image may be different from the case where the curtain is actually installed in the room simply by synthesizing the picture of the room and the picture of the curtain.

本発明は、このような課題に鑑みてなされたもので、撮影された画像内の空間に所望の装飾(色や柄)を有するオブジェクトを配置したかのような合成画像を生成することが可能な装飾シミュレーション装置、装飾シミュレーション方法、及びプログラムを提供することを目的とする。   The present invention has been made in view of such a problem, and it is possible to generate a composite image as if an object having a desired decoration (color or pattern) is arranged in a space in a captured image. A decorative simulation device, a decorative simulation method, and a program are provided.

前述した課題を解決するための第1の発明は、装飾対象のオブジェクトを有する複数の見本画像と、前記オブジェクトの色及び柄を構成する複数の素材画像とを蓄積記憶する記憶手段と、任意の画像を入力する入力手段と、入力された画像に対するオブジェクト配置領域の設定及びオブジェクト配置領域に適用する素材画像と前記素材画像の設定とを受け付ける設定手段と、前記入力された画像と比較して、前記入力された画像と所定のオブジェクトの幾何形状又は画像の色味が最も類似する単一の見本画像を前記記憶手段から抽出する抽出手段と、抽出された見本画像内のオブジェクト領域に対し前記設定手段により設定した素材画像を適用した素材合成画像を生成する素材合成画像生成手段と、生成した素材合成画像から前記オブジェクト領域を抜き出し、前記入力された画像内に設定されたオブジェクト配置領域に合成する合成手段と、を備えることを特徴とする装飾シミュレーション装置である。 A first aspect of the present invention for solving the above-mentioned problems includes a storage unit that stores and stores a plurality of sample images having an object to be decorated and a plurality of material images that form the color and pattern of the object, and an arbitrary storage unit. An input means for inputting an image, a setting means for receiving a setting of an object placement area for the input image and a material image applied to the object placement area and the setting of the material image, and comparing the input image with each other, Extraction means for extracting from the storage means a single sample image in which the geometric shape of the predetermined image or the tint of the image is similar to the input image, and the setting for the object area in the extracted sample image A material composite image generation means for generating a material composite image to which the material image set by the means is applied, and the object composite image from the generated material composite image. Extracting the region, a synthesizing means for synthesizing the object arrangement region set on the input in the image, a decoration simulation device, characterized in that it comprises a.

第1の発明によれば、任意の入力画像にオブジェクト配置領域を設定し、適用する色や柄等の素材画像を設定すると、入力された画像に類似する見本画像が抽出され、見本画像内のオブジェクト領域に素材画像を合成した素材合成画像が生成される。更に、生成された素材合成画像のオブジェクト領域を抜き出し入力画像内のオブジェクト配置領域に配置した合成画像が生成される。これにより、入力画像に無地のオブジェクトが配置されていない場合や、既に柄があるオブジェクトが配置されている場合であっても、類似する見本画像を利用して所望の色や柄を適用したオブジェクトを生成し、入力画像に配置して撮影したかのような高品質な合成画像を得ることができる。オブジェクト配置位置や空間の照明環境等の特徴を見本画像と同等にでき、画像合成した際の親和性が高い高品質な合成画像を生成できる。   According to the first aspect of the present invention, when an object arrangement area is set in an arbitrary input image and a material image such as a color or a pattern to be applied is set, a sample image similar to the input image is extracted, and a sample image in the sample image is extracted. A material composite image is generated by combining the material images in the object area. Further, a composite image is generated by extracting the object area of the generated material composite image and arranging it in the object arrangement area in the input image. As a result, even if a plain object is not placed in the input image or an object with a pattern is already placed, an object to which a desired color or pattern is applied using a similar sample image Can be generated, and a high-quality composite image can be obtained as if the image was captured by placing it in the input image. Features such as the object arrangement position and the lighting environment of the space can be made equal to the sample image, and a high-quality composite image with high affinity when the images are combined can be generated.

第1の発明において、前記記憶手段に記憶されている複数の見本画像を用いた学習処理を行うことにより、前記入力された画像と比較して、前記入力された画像と所定のオブジェクトの幾何形状又は画像の色味が最も類似する単一の見本画像を識別するための識別器を生成する識別器生成手段を更に備え、前記抽出手段は、前記識別器を用いて前記入力された画像と比較して、前記入力された画像と所定のオブジェクトの幾何形状又は画像の色味が最も類似する単一の見本画像を抽出することが望ましい。識別器を用いることにより、より多くの見本画像の中から入力画像に類似する画像を精度よく抽出することが可能となり、違和感の少ない高品質な合成画像を生成できる。 In the first invention, a learning process using a plurality of sample images stored in the storage means is performed to compare the input image with the input image and a geometric shape of a predetermined object. or further comprising a identifier generating means for generating an identifier for color images to identify the single sample image most similar, said extracting means, compared to the input image using the discriminator Then, it is desirable to extract a single sample image in which the geometric shape of a predetermined object or the tint of the image is most similar to the input image. By using the classifier, an image similar to the input image can be accurately extracted from a larger number of sample images, and a high-quality composite image with less discomfort can be generated.

また第1の発明において、前記記憶手段に記憶される各見本画像には、オブジェクト領域に対応するマスク画像、サイズ情報、及びパース情報を含むオブジェクト情報が予め紐づけて記憶され、前記設定手段は、前記オブジェクト配置領域のサイズ情報、及びパース情報を含むオブジェクト情報の設定を受け付け、前記抽出手段は、前記オブジェクト情報に基づいて前記入力された画像に類似する見本画像を抽出することが望ましい。これにより、オブジェクト領域の位置やパース等が類似する見本画像を抽出しやすくなる。   Further, in the first invention, each sample image stored in the storage unit is associated with a mask image corresponding to an object area, size information, and object information including perspective information in advance and stored, and the setting unit It is preferable that the setting information of the object arrangement area size information and the setting of the object information including the perspective information be accepted, and the extraction means extract a sample image similar to the input image based on the object information. As a result, it becomes easy to extract a sample image in which the position and perspective of the object area are similar.

第1の発明において、前記素材合成画像生成手段は、前記見本画像内のオブジェクト領域に対応する矩形領域の座標値を前記素材画像に対応する正規化された素材座標系の座標値に変換し、前記素材座標系を縦軸及び横軸の少なくとも一方の軸に沿って周期関数により変換するための曲線変換処理を行うことにより前記素材座標系に展開されている素材画像の各画素の画素値を前記矩形領域上の対応する画素に設定することが望ましい。これにより、オブジェクトの曲面の歪みに応じて素材画像が変形されて、見本画像内のオブジェクトに対応するマスク領域に合成される。よって、例えばカーテンのヒダに合わせて素材の柄が歪められた素材合成画像を得ることができる。   In the first invention, the material composite image generation means converts the coordinate value of a rectangular area corresponding to an object area in the sample image into a coordinate value of a normalized material coordinate system corresponding to the material image, By performing a curve conversion process for converting the material coordinate system by a periodic function along at least one of the vertical axis and the horizontal axis, the pixel value of each pixel of the material image developed in the material coordinate system is calculated. It is desirable to set to the corresponding pixel on the rectangular area. As a result, the material image is deformed according to the distortion of the curved surface of the object and is combined with the mask area corresponding to the object in the sample image. Therefore, for example, a material composite image in which the material pattern is distorted according to the folds of the curtain can be obtained.

第1の発明において、前記素材合成画像生成手段により生成された素材合成画像から抜き出したオブジェクト領域を前記設定手段により設定された前記オブジェクト配置領域のサイズ情報及びパース情報に応じて変形する変形手段を更に備えることが望ましい。これにより、入力する画像は必ずしも正面方向から撮影されたものとする必要がなくなり、入力画像の制限が緩和され、使用しやすい装飾シミュレーション装置を実現できる。   1st invention WHEREIN: The deformation | transformation means which deform | transforms the object area | region extracted from the material synthetic | combination image produced | generated by the said material synthetic | combination image production | generation means according to the size information and perspective information of the said object arrangement area set by the said setting means. Further provision is desirable. As a result, the input image does not necessarily have to be taken from the front direction, the restrictions on the input image are eased, and a decoration simulation device that is easy to use can be realized.

第1の発明において、前記合成手段は、前記入力された画像に基づいてポアソンブレンディングにより前記素材合成画像を変換し、前記入力された画像に合成することが望ましい。これにより、合成するオブジェクトを入力画像の色味に合わせ境界部をなじませることが可能となり、自然な合成画像を得ることができる。   In the first invention, it is preferable that the synthesizing unit transforms the material-synthesized image by Poisson blending based on the input image and synthesizes the material-synthesized image with the input image. As a result, it is possible to match the object to be combined with the tint of the input image and blend the boundary portion, and a natural combined image can be obtained.

第2の発明は、装飾対象のオブジェクトを有する複数の見本画像と、前記オブジェクトの色及び柄を構成する複数の素材画像とを蓄積記憶する記憶部を有するコンピュータの制御部が、任意の画像を入力するステップと、入力された画像に対するオブジェクト配置領域の設定及びオブジェクト配置領域に適用する素材画像と前記素材画像の設定とを受け付けるステップと、前記入力された画像に類似する見本画像を前記記憶部から抽出するステップと、抽出された見本画像内のオブジェクト領域に対し前記設定した素材画像を適用した素材合成画像を生成するステップと、生成した素材合成画像から前記オブジェクト領域を抜き出し、前記入力された画像内の設定されたオブジェクト配置領域に合成するステップと、を含むことを特徴とする装飾シミュレーション方法である。   According to a second aspect of the present invention, a control unit of a computer having a storage unit that stores and stores a plurality of sample images having an object to be decorated and a plurality of material images constituting the color and pattern of the object displays an arbitrary image. A step of inputting; a step of accepting a setting of an object placement area for the input image and a material image applied to the object placement area; and a setting of the material image; and a sample image similar to the input image And a step of generating a material composite image in which the set material image is applied to the object area in the extracted sample image, the object area is extracted from the generated material composite image, and the input And a step of synthesizing the set object placement area in the image, the decoration simulation method.

第2の発明は、装飾対象のオブジェクトを有する複数の見本画像と、前記オブジェクトの色及び柄を構成する複数の素材画像とを蓄積記憶する記憶部を有するコンピュータの制御部が、任意の画像を入力するステップと、入力された画像に対するオブジェクト配置領域の設定及びオブジェクト配置領域に適用する素材画像と前記素材画像の設定とを受け付けるステップと、前記入力された画像と比較して、前記入力された画像と所定のオブジェクトの幾何形状又は画像の色味が最も類似する単一の見本画像を前記記憶部から抽出するステップと、抽出された見本画像内のオブジェクト領域に対し前記設定した素材画像を適用した素材合成画像を生成するステップと、生成した素材合成画像から前記オブジェクト領域を抜き出し、前記入力された画像内の設定されたオブジェクト配置領域に合成するステップと、を含むことを特徴とする装飾シミュレーション方法である。 According to a second aspect of the present invention, a control unit of a computer having a storage unit that stores and stores a plurality of sample images having an object to be decorated and a plurality of material images constituting the color and pattern of the object displays an arbitrary image. A step of inputting, a step of accepting the setting of the object arrangement area for the input image and a material image applied to the object arrangement area and the setting of the material image, and comparing the input image with the input Extracting from the storage unit a single sample image in which the geometrical shape of the image and a predetermined object or the tint of the image are most similar; and applying the set material image to the object region in the extracted sample image Decoration simulation, which includes the step of generating the material composite image described above, and the step of extracting the object area from the generated material composite image and combining the extracted object area with the set object placement area in the input image. Is the way.

第3の発明は、コンピュータを、装飾対象のオブジェクトを有する複数の見本画像と、前記オブジェクトの色及び柄を構成する複数の素材とを蓄積記憶する記憶手段と、任意の画像を入力する入力手段と、入力された画像に対するオブジェクト配置領域の設定及びオブジェクト配置領域に適用する素材画像の設定と前記素材画像の設定とを受け付ける設定手段と、前記入力された画像と比較して、前記入力された画像と所定のオブジェクトの幾何形状又は画像の色味が最も類似する単一の見本画像を前記記憶手段から抽出する抽出手段と、抽出された見本画像内のオブジェクト領域に対し前記設定手段により設定した素材画像を適用した素材合成画像を生成する素材合成画像生成手段と、生成した素材合成画像から前記オブジェクト領域を抜き出し、前記入力された画像内に設定されたオブジェクト配置領域に合成する合成手段、として機能させるためのプログラムである。 According to a third aspect of the present invention, a computer is configured to store a plurality of sample images each having an object to be decorated and a plurality of materials constituting the color and pattern of the object, and an input unit for inputting an arbitrary image. And setting means for accepting the setting of the object placement area for the input image and the setting of the material image to be applied to the object placement area and the setting of the material image, and comparing the input image with the input means . Extraction means for extracting from the storage means a single sample image in which the geometric shape of the image and a predetermined object or the tint of the image are most similar, and the setting means is set for the object area in the extracted sample image. Material composite image generation means for generating a material composite image to which a material image is applied, and the object area is extracted from the generated material composite image. Out a synthesizing means, a program for functioning as to be combined with the object arrangement region set on the input in the image.

第3の発明によれば、コンピュータを第1の発明の装飾シミュレーション装置として機能させることが可能となる。   According to the third invention, it is possible to cause the computer to function as the decoration simulation device of the first invention.

本発明により、撮影された画像内の空間に所望の装飾(色や柄)を有するオブジェクトを配置したかのような合成画像を生成することが可能な装飾シミュレーション装置、装飾シミュレーション方法、及びプログラムを提供できる。   According to the present invention, there are provided a decoration simulation device, a decoration simulation method, and a program capable of generating a composite image as if an object having a desired decoration (color or pattern) is arranged in a space in a captured image. Can be provided.

装飾シミュレーション装置1のハードウェア構成を示すブロック図Block diagram showing the hardware configuration of the decoration simulation device 1 記憶部12に記憶される見本画像データ31の例Example of sample image data 31 stored in the storage unit 12 記憶部12に記憶される素材データ32の例Example of material data 32 stored in the storage unit 12 装飾シミュレーション装置1の機能構成を示すブロック図Block diagram showing the functional configuration of the decoration simulation device 1 装飾シミュレーション装置1の制御部11が実行する処理の流れを示すフローチャートThe flowchart which shows the flow of the process which the control part 11 of the decoration simulation device 1 performs. (a)入力画像41の例、(b)入力画像41に設定されたオブジェクト配置領域41pを示すマスク画像41m、(c)オブジェクト配置領域41pのサイズ情報、(d)オブジェクト配置領域41pのパース情報(A) Example of the input image 41, (b) Mask image 41m showing the object placement area 41p set in the input image 41, (c) Size information of the object placement area 41p, (d) Perspective information of the object placement area 41p 入力画像41に類似する見本画像の抽出例を示す図The figure which shows the example of extraction of the sample image similar to the input image 41. ステップS104の素材合成画像生成処理について説明する図The figure explaining the material synthetic | combination image generation process of step S104. ステップS105の変形処理について説明する図The figure explaining the transformation process of step S105. ステップS106の合成処理について説明する図The figure explaining the synthetic | combination process of step S106. 合成処理におけるポワソンブレンディング(なじませ合成)について説明する図The figure explaining Poisson blending (blending synthesis) in the synthesis process.

以下、図面に基づいて本発明の実施形態を詳細に説明する。図1は、装飾シミュレーション装置1のハードウェア構成を示すブロック図である。なお、図1のハードウェア構成は一例であり、用途、目的に応じて様々な構成を採ることが可能である。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. FIG. 1 is a block diagram showing a hardware configuration of the decoration simulation device 1. The hardware configuration of FIG. 1 is an example, and various configurations can be adopted according to the use and purpose.

図1に示すように、装飾シミュレーション装置1は、制御部11、記憶部12、メディア入出力部13、通信制御部14、入力部15、表示部16、周辺機器I/F部17等が、バス18を介して接続される。   As shown in FIG. 1, the decoration simulation device 1 includes a control unit 11, a storage unit 12, a media input / output unit 13, a communication control unit 14, an input unit 15, a display unit 16, a peripheral device I / F unit 17, and the like. It is connected via the bus 18.

制御部11は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等によって構成される。CPUは、記憶部12、ROM、記録媒体等に格納されるプログラムをRAM上のワークメモリ領域に呼び出して実行し、バス18を介して接続された各装置を駆動制御し、装飾シミュレーション装置1が行う後述する処理を実現する。ROMは、不揮発性メモリであり、コンピュータのブートプログラムやBIOS等のプログラム、データ等を恒久的に保持している。RAMは、揮発性メモリであり、記憶部12、ROM、記録媒体等からロードしたプログラム、データ等を一時的に保持するとともに、制御部11が各種処理を行う為に使用するワークエリアを備える。   The control unit 11 includes a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and the like. The CPU calls a program stored in the storage unit 12, the ROM, the recording medium, or the like into the work memory area on the RAM and executes the program to drive and control each device connected via the bus 18, and the decoration simulation device 1 The processing to be described later is realized. The ROM is a non-volatile memory, and permanently holds a computer boot program, programs such as BIOS, data, and the like. The RAM is a volatile memory, and temporarily stores programs, data, and the like loaded from the storage unit 12, the ROM, the recording medium, and the like, and includes a work area used by the control unit 11 to perform various processes.

記憶部12は、HDD(Hard Disk Drive)等であり、制御部11が実行するプログラム、プログラム実行に必要なデータ、OS(Operating System)等が格納される。プログラムに関しては、OSに相当する制御プログラムや、後述する処理をコンピュータに実行させるためのアプリケーションプログラムが格納されている。これらの各プログラムコードは、制御部11により必要に応じて読み出されてRAMに移され、CPUに読み出されて各種の手段として実行される。   The storage unit 12 is an HDD (Hard Disk Drive) or the like, and stores a program executed by the control unit 11, data necessary for executing the program, an OS (Operating System), and the like. As for the programs, a control program corresponding to the OS and an application program for causing a computer to execute the processes described below are stored. These respective program codes are read by the control unit 11 as needed, transferred to the RAM, read by the CPU, and executed as various means.

メディア入出力部13(ドライブ装置)は、データの入出力を行い、例えば、CDドライブ(−ROM、−R、−RW等)、DVDドライブ(−ROM、−R、−RW等)等のメディア入出力装置を有する。通信制御部14は、通信制御装置、通信ポート等を有し、コンピュータとネットワーク間の通信を媒介する通信インタフェースであり、ネットワークを介して、他のコンピュータ間との通信制御を行う。ネットワークは、有線、無線を問わない。   The media input / output unit 13 (drive device) inputs and outputs data, and is a medium such as a CD drive (-ROM, -R, -RW, etc.), a DVD drive (-ROM, -R, -RW, etc.), or the like. It has an input / output device. The communication control unit 14 is a communication interface that has a communication control device, a communication port, and the like, and mediates communication between a computer and a network, and controls communication with other computers via the network. The network may be wired or wireless.

入力部15は、データの入力を行い、例えば、キーボード、マウス等のポインティングデバイス、テンキー等の入力装置を有する。入力部15を介して、コンピュータに対して、操作指示、動作指示、データ入力等を行うことができる。表示部16は、液晶パネル等のディスプレイ装置、ディスプレイ装置と連携してコンピュータのビデオ機能を実現するための論理回路等(ビデオアダプタ等)を有する。なお、入力部15及び表示部16は、タッチパネルディスプレイのように、一体となっていてもよい。   The input unit 15 inputs data and has, for example, a keyboard, a pointing device such as a mouse, and an input device such as a numeric keypad. Through the input unit 15, operation instructions, operation instructions, data input, etc. can be given to the computer. The display unit 16 includes a display device such as a liquid crystal panel, and a logic circuit or the like (video adapter or the like) for realizing a video function of a computer in cooperation with the display device. The input unit 15 and the display unit 16 may be integrated as in a touch panel display.

周辺機器I/F(Interface)部17は、コンピュータに周辺機器を接続させるためのポートであり、周辺機器I/F部17を介してコンピュータは周辺機器とのデータの送受信を行う。周辺機器I/F部17は、USB(Universal Serial Bus)やIEEE1394やRS−232C等によって構成されており、通常複数の周辺機器I/Fを有する。周辺機器との接続形態は有線、無線を問わない。バス18は、各装置間の制御信号、データ信号等の授受を媒介する経路である。   The peripheral device I / F (Interface) unit 17 is a port for connecting the peripheral device to the computer, and the computer transmits and receives data to and from the peripheral device via the peripheral device I / F unit 17. The peripheral device I / F unit 17 is configured by USB (Universal Serial Bus), IEEE1394, RS-232C, or the like, and usually has a plurality of peripheral device I / Fs. The connection form with the peripheral device may be wired or wireless. The bus 18 is a path that mediates exchange of control signals, data signals, etc. between the respective devices.

装飾シミュレーション装置1は、1台のコンピュータで構成されてもよいし、複数のコンピュータがネットワークを介して構成されてもよい。例えば、装飾シミュレーション装置1が、サーバとクライアント端末で構成される場合、クライアント端末においてデータの入力を受け付けて、サーバが各種の処理を行い、クライアント端末が処理結果を表示するようにしてもよい。以下の説明では、簡素な構成例として、装飾シミュレーション装置1が1台のコンピュータで構成された例を説明する。   The decoration simulation device 1 may be configured by one computer, or a plurality of computers may be configured via a network. For example, when the decoration simulation device 1 is composed of a server and a client terminal, the client terminal may accept data input, the server may perform various processes, and the client terminal may display the process result. In the following description, as a simple configuration example, an example in which the decoration simulation device 1 is configured by one computer will be described.

次に、装飾シミュレーション装置1のデータ構成について説明する。
図2は、装飾シミュレーション装置1の記憶部12に記憶される見本画像データ31の例を示す図である。装飾シミュレーション装置1の記憶部12には、見本画像データ31として、複数の見本画像31g及び各見本画像31gのオブジェクト情報31m、31p、31sが記憶される。見本画像31gは、装飾対象のオブジェクトを有する2次元画像である。オブジェクトは、例えば、カーテンやブラインド等の窓装飾品を例として説明するが、本発明は家具や壁、ドア等のように面状の部分を有する物品についても装飾対象のオブジェクトに含むものとする。オブジェクト情報は、見本画像31におけるオブジェクト領域に対応するマスク画像31m、オブジェクトのサイズ情報31s、オブジェクトに外接する矩形領域(4点の座標)を示すパース情報31pである。見本画像31g及びオブジェクト情報31m、31s、31pは、家具やインテリアのカタログデータから取得してもよいし、ユーザが入力部15等を介して登録してもよい。
Next, the data structure of the decoration simulation device 1 will be described.
FIG. 2 is a diagram showing an example of the sample image data 31 stored in the storage unit 12 of the decoration simulation device 1. The storage unit 12 of the decoration simulation device 1 stores, as the sample image data 31, a plurality of sample images 31g and object information 31m, 31p, 31s of each sample image 31g. The sample image 31g is a two-dimensional image having an object to be decorated. The object will be described as an example of window ornaments such as curtains and blinds, but the present invention also includes articles having planar portions such as furniture, walls, and doors as objects to be decorated. The object information is a mask image 31m corresponding to the object area in the sample image 31, size information 31s of the object, and perspective information 31p indicating a rectangular area (coordinates of four points) circumscribing the object. The sample image 31g and the object information 31m, 31s, 31p may be acquired from the furniture or interior catalog data, or may be registered by the user via the input unit 15 or the like.

例えば図2には、「見本画像1」に関する情報として、装飾対象のオブジェクトとして無地のカーテンが配置された室内が撮影された見本画像31gと、オブジェクト領域を他の領域と分けた二値のマスク画像31mと、オブジェクトのサイズ情報31sとして「幅:800mm、高さ:1900mm」と、パース情報31pとして「P1:(383,51)、P2:(379,509)、P3:(530,528)、P4:(537,41)」とが格納された例が示されている。同様に、「見本画像2」、「見本画像3」、「見本画像4」についても、それぞれ装飾対象のオブジェクト(カーテン)が配置された室内が撮影された見本画像31g、オブジェクトのマスク画像31m、オブジェクトのサイズ情報31s、パース情報31pが保持される。なお、本実施形態では見本画像31gの例として撮影された写真等を示しているが、本発明は撮影されたものに限定されず、コンピューグラフィックス等により作成された画像を見本画像31gとしてもよい。   For example, in FIG. 2, as information about the “sample image 1”, a sample image 31g in which a room in which a plain curtain is arranged as an object to be decorated is photographed, and a binary mask in which the object area is separated from other areas The image 31m, the object size information 31s is "width: 800 mm, height: 1900 mm", and the perspective information 31p is "P1: (383, 51), P2: (379, 509), P3: (530, 528). , P4: (537,41) ”is stored. Similarly, for the “sample image 2”, the “sample image 3”, and the “sample image 4”, a sample image 31 g in which the room in which the object (curtain) to be decorated is arranged is photographed, a mask image 31 m of the object, Object size information 31s and perspective information 31p are held. In the present embodiment, a photograph or the like is shown as an example of the sample image 31g, but the present invention is not limited to the photographed image, and the image created by computer graphics or the like is used as the sample image 31g. Good.

図3は、装飾シミュレーション装置1の記憶部12に記憶される素材データ32の例を示す図である。装飾シミュレーション装置1の記憶部12には、素材データ32として、複数の素材画像32g及び素材画像32gのサイズ情報32sが記憶される。素材画像32gは、1単位分の色や柄(テクスチャ)を表すパッチ画像である。サイズ情報32sは、素材画像32gの高さ及び幅のサイズを示す数値である。素材画像32g及びサイズ情報32sは、家具やインテリアのカタログデータから取得してもよいし、ユーザが入力部15等を介して登録してもよい。   FIG. 3 is a diagram showing an example of the material data 32 stored in the storage unit 12 of the decoration simulation device 1. In the storage unit 12 of the decoration simulation device 1, a plurality of material images 32g and size information 32s of the material images 32g are stored as the material data 32. The material image 32g is a patch image representing one unit of color or pattern (texture). The size information 32s is a numerical value indicating the height and width sizes of the material image 32g. The material image 32g and the size information 32s may be acquired from furniture or interior catalog data, or may be registered by the user via the input unit 15 or the like.

例えば図3には、「素材1」に関する情報として、植物柄のパッチ画像(素材画像32g)とサイズ情報32s「幅:120mm、高さ:70mm」が保持された例が示されている。同様に、「素材2」、「素材3」、「素材4」についても、それぞれ色や柄を示す素材画像32gと素材画像32gのサイズ情報32sが格納される。   For example, FIG. 3 shows an example in which the patch image (material image 32g) of the plant pattern and the size information 32s “width: 120 mm, height: 70 mm” are held as the information regarding “material 1”. Similarly, for "material 2", "material 3", and "material 4", the material image 32g indicating the color and pattern and the size information 32s of the material image 32g are stored.

次に、図4を参照して本発明に係る装飾シミュレーション装置1の機能構成について説明する。   Next, a functional configuration of the decoration simulation device 1 according to the present invention will be described with reference to FIG.

図4に示すように、装飾シミュレーション装置1の制御部11は、画像入力部21、設定部22、見本画像抽出部23、識別器24、素材合成画像生成部25、変形部26、画像合成部27、及び合成画像出力部28を有する。   As shown in FIG. 4, the control unit 11 of the decoration simulation device 1 includes an image input unit 21, a setting unit 22, a sample image extraction unit 23, a classifier 24, a material composite image generation unit 25, a transformation unit 26, and an image composition unit. 27 and a composite image output unit 28.

画像入力部21は、装飾オブジェクトを配置しようとする任意の画像の入力を受け付ける。以下の説明では画像入力部21に入力された画像を入力画像41と呼ぶ。装飾オブジェクトとは、色や柄等の装飾を施す対象とする物品である。例えば、カーテンを例に説明する。入力画像41は室内を撮影した写真等、2次元の画像とする。   The image input unit 21 receives an input of an arbitrary image on which a decoration object is to be arranged. In the following description, the image input to the image input unit 21 will be referred to as the input image 41. A decoration object is an article to which decoration such as color or pattern is applied. For example, a curtain will be described as an example. The input image 41 is a two-dimensional image such as a photograph taken inside the room.

設定部22は、入力画像41に対するオブジェクト配置領域41pの設定及びオブジェクト配置領域41pに適用する素材画像32の設定(指定)と指定した素材画像に対する設定とを受け付ける。   The setting unit 22 receives the setting of the object placement area 41p for the input image 41, the setting (designation) of the material image 32 applied to the object placement area 41p, and the setting for the designated material image.

見本画像抽出部23は、入力画像41に類似する見本画像31gを記憶部12に記憶されている見本画像データ31の中から抽出する。見本画像31gの抽出処理については後述する。なお、見本画像抽出部23は、識別器24を用いて入力画像41に類似する見本画像31gを識別し抽出してもよい。識別器24は、制御部11により行われる学習処理によって生成される。学習処理では、制御部11は記憶部12に記憶されている複数の見本画像データ31を用いた学習データとして取り込み、見本画像データ31の特徴を学習し、識別器24を生成する。識別器24については後述する。   The sample image extraction unit 23 extracts a sample image 31g similar to the input image 41 from the sample image data 31 stored in the storage unit 12. The process of extracting the sample image 31g will be described later. The sample image extraction unit 23 may identify and extract the sample image 31g similar to the input image 41 by using the classifier 24. The discriminator 24 is generated by the learning process performed by the control unit 11. In the learning process, the control unit 11 takes in a plurality of sample image data 31 stored in the storage unit 12 as learning data, learns the characteristics of the sample image data 31, and generates the discriminator 24. The discriminator 24 will be described later.

素材合成画像生成部25は、見本画像抽出部23により抽出された抽出見本画像35g内の空間に配置されているオブジェクト(オブジェクト領域)に対し、設定部22により設定した素材画像32g(指定素材36)を適用した素材合成画像37を生成する。指定素材36の素材画像36gは記憶部12に記憶される素材データ32から取得される。素材合成画像37の生成処理については後述する。   The material composite image generation unit 25 sets the material image 32g (designated material 36) set by the setting unit 22 for the object (object area) arranged in the space within the extracted sample image 35g extracted by the sample image extraction unit 23. ) Is applied to generate the material composite image 37. The material image 36g of the designated material 36 is acquired from the material data 32 stored in the storage unit 12. The process of generating the material composite image 37 will be described later.

変形部26は、素材合成画像生成部25により生成された素材合成画像37から抜き出したオブジェクト(装飾オブジェクト37a)を入力画像41gに設定されたオブジェクト配置領域のサイズ及びパースに応じて変形し、変形後素材合成画像38を得る。変形処理については後述する。   The transformation unit 26 transforms an object (decoration object 37a) extracted from the material composite image 37 generated by the material composite image generation unit 25 according to the size and perspective of the object arrangement area set in the input image 41g, and deforms the object. A post-material composite image 38 is obtained. The transformation process will be described later.

画像合成部27は、素材合成画像生成部25により生成した素材合成画像37から抜き出したオブジェクト(装飾オブジェクト37a)、または変形部26により変形された素材合成画像38から抜き出したオブジェクト(変形後装飾オブジェクト38a)を、入力画像41内のオブジェクト配置領域41pに配置した合成画像5を生成する。画像合成処理については後述する。   The image composition unit 27 extracts an object (decoration object 37a) extracted from the material composition image 37 generated by the material composition image generation unit 25 or an object extracted from the material composition image 38 transformed by the transformation unit 26 (decorated object after transformation). 38a) is arranged in the object arrangement area 41p in the input image 41 to generate the composite image 5. The image composition processing will be described later.

合成画像出力部28は、画像合成部27により生成された合成画像5を出力する。出力は、表示部16への表示、記憶部12への記憶の他、通信制御部14を介したネットワーク等への送信等を含む。   The combined image output unit 28 outputs the combined image 5 generated by the image combining unit 27. The output includes display on the display unit 16, storage in the storage unit 12, transmission to a network or the like via the communication control unit 14, and the like.

次に、図5を参照して、装飾シミュレーション装置1の制御部11が実行する装飾シミュレーション処理の流れを説明する。   Next, with reference to FIG. 5, a flow of a decoration simulation process executed by the control unit 11 of the decoration simulation device 1 will be described.

まず、制御部11はシミュレーションを行う画像の入力を受け付ける(ステップS101)。入力画像41は室内が撮影された2次元の画像とする。次に、制御部11は、オブジェクトの装飾に関する設定情報の入力を受け付ける(ステップS102)。具体的には、制御部11は、ステップS101で入力された入力画像41に対するオブジェクト配置領域41pの設定及びオブジェクト配置領域41pに適用する素材画像32gの設定(指定)、指定した素材画像32gに対するサイズ情報32s等の設定を受け付ける。ユーザは、入力部15を介して入力画像41に対して4点(矩形領域)を指定する等の入力操作を行うことにより、オブジェクト配置領域41pを設定する。またユーザは、オブジェクト配置領域41pに適用する素材画像32gを記憶部12に記憶されている素材データ32の中から選択する。このとき制御部11は記憶部12に記憶されている素材データ32の複数の素材画像32gを表示部16に選択可能に一覧表示することが望ましい。   First, the control unit 11 receives an input of an image to be simulated (step S101). The input image 41 is a two-dimensional image of the interior of the room. Next, the control unit 11 receives an input of setting information regarding the decoration of the object (step S102). Specifically, the control unit 11 sets the object placement area 41p for the input image 41 input in step S101, the setting (designation) of the material image 32g to be applied to the object placement area 41p, and the size for the designated material image 32g. Settings such as the information 32s are accepted. The user sets the object placement area 41p by performing an input operation such as designating four points (rectangular area) on the input image 41 via the input unit 15. The user also selects the material image 32g to be applied to the object placement area 41p from the material data 32 stored in the storage unit 12. At this time, the control unit 11 preferably displays a list of a plurality of material images 32g of the material data 32 stored in the storage unit 12 on the display unit 16 in a selectable manner.

次に、制御部11はステップS101で入力された入力画像41に類似する見本画像31gを記憶部12から抽出する(ステップS103)。ステップS103において、制御部11は識別器24を用いて入力画像41と類似する見本画像データ31を識別し抽出してもよい。識別器24は、制御部11により行われる学習処理によって生成される。学習処理では、制御部11は記憶部12に記憶されている複数の見本画像データ31(見本画像31g、マスク画像31m、サイズ情報31s、パース情報31p)を学習データとして取り込み、見本画像データ31の特徴を学習し、室内画像を識別する識別器24を生成する。   Next, the control unit 11 extracts a sample image 31g similar to the input image 41 input in step S101 from the storage unit 12 (step S103). In step S103, the control unit 11 may identify and extract the sample image data 31 similar to the input image 41 by using the identifier 24. The discriminator 24 is generated by the learning process performed by the control unit 11. In the learning process, the control unit 11 takes in a plurality of sample image data 31 (sample image 31g, mask image 31m, size information 31s, perspective information 31p) stored in the storage unit 12 as learning data, and the sample image data 31 A classifier 24 that learns the features and identifies the indoor image is generated.

識別器24は、例えばExemplar-SVMを用いることが好適である。Exemplar-SVMとは、多数の1対多の弱識別器で全体の識別器を作成する手法である。そしてExemplar-SVMでは、見本画像データ31の見本画像31gに付随するオブジェクト情報(マスク画像31m、サイズ情報31s、パース情報31p)を再利用可能である点で他の手法と比較して好適である。制御部11は記憶部12に予め登録されている見本画像データ31をExemplar-SVMを用いて学習し、ステップS101で入力された入力画像41が室内画像であるかどうかを判定する識別器24を生成する。見本画像データ31をポジティブデータとし、室内空間でない任意の画像群をネガティブデータとする。このとき使用する特徴ベクトルは、Gist特徴、サイズ情報、パース情報(解像度正規化済み)の連結ベクトルとする。Exemplar-SVMについては、"Ensemble of Exemplar-SVMs for Object Detection and Beyond(ICCV2011)"、(http://www.cs.cmu.edu/~tmalisie/projects/iccv11/)に記載されている。   The discriminator 24 is preferably an Exemplar-SVM, for example. Exemplar-SVM is a method of creating an entire classifier with a large number of one-to-many weak classifiers. In the Exemplar-SVM, the object information (mask image 31m, size information 31s, perspective information 31p) attached to the sample image 31g of the sample image data 31 can be reused, which is preferable in comparison with other methods. .. The control unit 11 uses the Exemplar-SVM to learn the sample image data 31 registered in advance in the storage unit 12, and uses the discriminator 24 that determines whether or not the input image 41 input in step S101 is an indoor image. To generate. The sample image data 31 is positive data, and an arbitrary image group that is not the indoor space is negative data. The feature vector used at this time is a concatenated vector of Gist features, size information, and perspective information (resolution-normalized). Exemplar-SVM is described in "Ensemble of Exemplar-SVMs for Object Detection and Beyond (ICCV2011)", (http://www.cs.cmu.edu/~tmalisie/projects/iccv11/).

図7に示すように、制御部11は入力画像41を識別器24に入力する。識別器24は、入力画像41に類似する見本画像35gを記憶部12に記憶されている見本画像データ31から抽出する。ステップS103の見本画像抽出処理では、入力画像41とオブジェクトの幾何形状や画像の色味(照明環境等)が類似する見本画像35gを抽出することが望ましい。見本画像抽出処理の結果、入力画像41の窓の位置や照明環境(照明器具の位置、画像の色味等)が類似する見本画像(抽出見本画像35g)が抽出されることとなる。   As shown in FIG. 7, the control unit 11 inputs the input image 41 to the discriminator 24. The classifier 24 extracts a sample image 35g similar to the input image 41 from the sample image data 31 stored in the storage unit 12. In the sample image extraction process of step S103, it is desirable to extract the sample image 35g having a similar geometric shape of the object and the tint of the image (illumination environment etc.) to the input image 41. As a result of the sample image extraction process, a sample image (extracted sample image 35g) having a similar window position of the input image 41 and the lighting environment (position of the lighting equipment, tint of the image, etc.) is extracted.

次に、制御部11は素材合成画像37を生成する(ステップS104)。素材合成画像37とは、ステップS102で指定された素材画像36gをステップS103で抽出された見本画像35gのオブジェクト領域に合成した画像である。オブジェクト領域は各見本画像31gに予め設定(記憶)されているマスク画像31mにより指定される領域である。図8の例では、白、黒の二値で表されるマスク画像35mにおける白値の領域をオブジェクト領域とする。   Next, the control unit 11 generates the material composite image 37 (step S104). The material composite image 37 is an image in which the material image 36g designated in step S102 is composited with the object area of the sample image 35g extracted in step S103. The object area is an area specified by the mask image 31m which is preset (stored) in each sample image 31g. In the example of FIG. 8, a white value area in the mask image 35m represented by a binary value of white and black is an object area.

図8に示すように、制御部11は、抽出見本画像データ35として見本画像35g、見本画像35gのオブジェクト領域に対応するマスク画像35m、オブジェクト領域のサイズ情報35s、オブジェクト領域のパース情報35pを記憶部12から取得する。また制御部11は、ステップS102の設定処理で指定された指定素材36(素材画像36g、サイズ情報36s)を記憶部12の素材データ32から取得する。制御部11は、見本画像35gのオブジェクト領域のサイズやパースに合うように指定素材36の素材画像36gを合成する。その結果、見本画像35gのオブジェクト領域のサイズ情報35s及びパース情報35sに応じて素材画像36gの画像全体が変形された素材合成画像37を得る。   As shown in FIG. 8, the control unit 11 stores, as the extracted sample image data 35, a sample image 35g, a mask image 35m corresponding to the object region of the sample image 35g, object region size information 35s, and object region perspective information 35p. Obtained from the part 12. Further, the control unit 11 acquires the designated material 36 (material image 36g, size information 36s) designated in the setting process of step S102 from the material data 32 of the storage unit 12. The control unit 11 synthesizes the material image 36g of the designated material 36 so as to match the size and perspective of the object area of the sample image 35g. As a result, the material composite image 37 in which the entire image of the material image 36g is transformed according to the size information 35s and the perspective information 35s of the object area of the sample image 35g is obtained.

ステップS104の素材合成画像生成処理では、例えば特許3679347号に記載される手法を用いることが望ましい。特許3679347号には、抽出見本画像35g内のオブジェクト領域に外接する矩形領域の座標値を、素材画像36gに対応する正規化された素材座標系の座標値に変換し、素材座標系の座標値を、縦軸及び横軸の少なくとも一方の軸に沿って周期関数により変換し(曲線変換処理)、素材座標系に展開されている素材画像の各画素の画素値を、曲線変換処理により矩形領域上の対応する画素に設定することが記載されている。この手法により指定素材36gを見本画像35gに合成すると、素材画像36gの少なくとも一方の軸(例えば、カーテンの画像であれば横軸)に沿って素材画像が周期関数に基づく変換によって曲線状に歪みのある画像に変換されて見本画像35gのオブジェクト領域(矩形領域)内に設定される。よって、例えばオブジェクト(カーテン)のヒダに合わせて素材の柄が歪められた装飾オブジェクト37aを得ることができる。更に、素材合成画像生成処理では、見本画像35gのオブジェクト領域の陰影情報等を保持したまま、素材画像36gが合成されることが望ましい。これにより、見本画像35gのオブジェクト(カーテン)は画像空間における奥行(パース)に基づく変形のみならず、オブジェクト自体の曲線状の歪みを表現できる。また、見本画像35g内の陰影が素材合成画像37にも反映されることとなる。   In the material composite image generation processing in step S104, it is desirable to use the method described in Japanese Patent No. 3679347, for example. Japanese Patent No. 3679347 converts the coordinate values of a rectangular area circumscribing the object area in the extracted sample image 35g into the coordinate values of the normalized material coordinate system corresponding to the material image 36g, and the coordinate values of the material coordinate system. Is converted by a periodic function along at least one of the vertical axis and the horizontal axis (curve conversion processing), and the pixel value of each pixel of the material image developed in the material coordinate system is converted into a rectangular area by the curve conversion processing. Setting to the corresponding pixel above is described. When the designated material 36g is combined with the sample image 35g by this method, the material image is distorted into a curve along at least one axis (for example, the horizontal axis in the case of a curtain image) of the material image 36g by conversion based on the periodic function. Is converted into a certain image and set in the object area (rectangular area) of the sample image 35g. Therefore, for example, it is possible to obtain the decorative object 37a in which the pattern of the material is distorted in accordance with the folds of the object (curtain). Further, in the material composite image generation processing, it is desirable that the material image 36g is composed while retaining the shadow information and the like of the object area of the sample image 35g. As a result, the object (curtain) of the sample image 35g can represent not only the deformation based on the depth (perspective) in the image space but also the curved distortion of the object itself. Further, the shadow in the sample image 35g is also reflected in the material composite image 37.

次に、制御部11はステップS104で生成した素材合成画像37の装飾オブジェクト37aを入力画像41のオブジェクト配置領域(マスク画像41mにより指定される領域)に合うように変形する変形処理を行う(ステップS105)。入力画像41のオブジェクト配置領域は、ステップS102の処理により設定され、入力画像41に関連付けてマスク画像41m、サイズ情報41s、パース情報41pとして保持されている。   Next, the control unit 11 performs a transformation process of transforming the decoration object 37a of the material composite image 37 generated in step S104 so as to fit the object arrangement area of the input image 41 (the area specified by the mask image 41m) (step). S105). The object arrangement area of the input image 41 is set by the process of step S102, and is held as the mask image 41m, the size information 41s, and the perspective information 41p in association with the input image 41.

ステップS105の変形処理は、素材合成画像37の装飾オブジェクト37aに対応する矩形領域37pのリサイズ及びパース変換が含まれる。図9に示すように、まず制御部11は素材合成画像37の装飾オブジェクト37aのパース情報及びサイズ情報を抽出見本画像データ35(図8参照)から取得し、入力画像41のオブジェクト配置領域41pのパース情報41p及びサイズ情報41sに変換するための射影変換行列を算出する。そして、求めた射影変換行列を素材合成画像37に乗算する。これにより、素材合成画像37(装飾オブジェクト37a)のサイズ及びパースが、入力画像41のオブジェクト配置領域41pのサイズ及びパースに合うように変形される。以下、ステップS105の変形処理により得られた画像を変形後素材合成画像38と呼ぶ。また、変形後素材合成画像38内の装飾オブジェクトに対応する領域を変形後装飾オブジェクト38aと呼ぶ。   The transformation process of step S105 includes resizing and perspective conversion of the rectangular area 37p corresponding to the decoration object 37a of the material composite image 37. As shown in FIG. 9, first, the control unit 11 obtains the perspective information and the size information of the decoration object 37a of the material composite image 37 from the extracted sample image data 35 (see FIG. 8), and stores the object placement area 41p of the input image 41. A projective transformation matrix for converting the perspective information 41p and the size information 41s is calculated. Then, the material projection image 37 is multiplied by the obtained projective transformation matrix. As a result, the size and perspective of the material composite image 37 (decorative object 37a) are transformed to match the size and perspective of the object placement area 41p of the input image 41. Hereinafter, the image obtained by the transformation process of step S105 is referred to as a transformed material composite image 38. A region corresponding to the decoration object in the post-deformation material composite image 38 is called a post-deformation decoration object 38a.

制御部11は、ステップS105の変形処理によりリサイズ・パース変換された装飾オブジェクト38aを入力画像41に合成する(ステップS106)。ステップS106の合成処理では、制御部11は、変形後素材合成画像38からマスク領域(マスク画像38mの白値の領域)を抜き出し、入力画像41に合成する。この合成に際し、例えばポアソンブレンディング(又は、「Poisson Image Editing」とも言う。)により画像を変換して貼り付ける、いわゆる「なじませ合成」を行ってもよい。なお、ステップS106における合成処理の手法は、ポアソンブレンディングに限るものではなく、他の公知の技術を用いてもよい。   The control unit 11 synthesizes the decoration object 38a that has been resized and parsed by the transformation process of step S105 with the input image 41 (step S106). In the combining process of step S106, the control unit 11 extracts a mask region (a white value region of the mask image 38m) from the post-deformation material composite image 38 and combines it with the input image 41. At the time of this synthesis, so-called "familiar synthesis" may be performed in which images are converted and pasted by, for example, Poisson blending (or also referred to as "Poisson Image Editing"). The method of the combining process in step S106 is not limited to Poisson blending, and other known techniques may be used.

図11は、ポワソンブレンディングによる画像合成処理を説明する図である。ポアソンブレンディングでは、色味は貼り付け先の画像(入力画像41g)のものに依存させ、画像の勾配は貼り付け元の画像(変形後装飾オブジェクト38a)のものを用いて合成する手法である。ポアソンブレンディングでは、貼り付け元の画像データを微分値の集まりとして扱い、なるべく微分値を保存して、貼り付けの境界の値を合わせ、自然な画像合成を行う。これを実現するものが連立微分方程式(ポアソン方程式)であり、ガウスザイデル法によって解くことが可能である。   FIG. 11 is a diagram for explaining the image synthesizing process by Poisson blending. In Poisson blending, the tint depends on the image of the pasting destination image (input image 41g), and the gradient of the image is synthesized using the image of the pasting source image (post-deformation decorative object 38a). In Poisson blending, the image data of the pasting source is treated as a set of differential values, the differential values are saved as much as possible, the values of the pasting boundaries are matched, and natural image synthesis is performed. What realizes this is the simultaneous differential equation (Poisson equation), which can be solved by the Gauss-Seidel method.

図11では、ポアソンブレンディングによる処理のイメージを示している。図11(a)は、ポアソンブレンディングによる処理を行う前、図11(b)は、ポアソンブレンディングによる処理を行った後のイメージを示している。   FIG. 11 shows an image of processing by Poisson blending. FIG. 11A shows an image before the Poisson blending process, and FIG. 11B shows an image after the Poisson blending process.

図11(a)では、貼り付け元の画像データ81をそのまま貼り付け先の画像データ83に配置している。従って、貼り付け範囲85の両端、すなわち貼り付けの境界87において、両者の画像データの値に大きな差異がある。このような差異があると、実際の画像においては、貼り付け元の画像データ81が浮いた感じになり、違和感が生じる。   In FIG. 11A, the image data 81 of the pasting source is arranged as it is in the image data 83 of the pasting destination. Therefore, at both ends of the pasting range 85, that is, at the pasting boundary 87, there is a large difference between the image data values of the two. If there is such a difference, in the actual image, the image data 81 that is the pasting source will appear to be floating, and a sense of discomfort will occur.

一方、図11(b)では、ポアソンブレンディングによって、色味を貼り付け先の画像データ83に依存させる形で貼り付け元の画像データ81を変換している。従って、貼り付けの境界87において、変換後の貼り付け元の画像データ89と貼り付け先の画像データ83との値に大きな差異がない。これによって、実際の画像ではあまり違和感が生じない。   On the other hand, in FIG. 11B, the pasting image data 81 is converted by Poisson blending so that the tint depends on the pasting image data 83. Therefore, at the pasting boundary 87, there is no great difference in the values of the pasted image data 89 after conversion and the pasted image data 83. As a result, the actual image does not feel very strange.

このように、敢えて装飾オブジェクト(カーテン等)37a(38a)の画像の色合いを変換し、入力画像41gの色合いに近づけることによって、ユーザは、取り付けようとするカーテン単体の色や柄のみならず、部屋の壁紙、床、他の家具等の色調も総合的に考慮して、部屋に取り付けるカーテンの色や柄を選択することができる。   In this way, by intentionally converting the hue of the image of the decoration object (curtain or the like) 37a (38a) and bringing it closer to the hue of the input image 41g, the user not only has the color and pattern of the curtain alone to be attached, The color and pattern of the curtain to be attached to the room can be selected by comprehensively considering the color tones of the room wallpaper, floor, and other furniture.

ステップS106の合成処理により合成画像5を得ると、制御部11は、合成画像5を出力(記憶部12への記憶、表示部16への表示等)し(ステップS107)、一連の装飾シミュレーションに関する処理を終了する。   When the composite image 5 is obtained by the composite processing in step S106, the control unit 11 outputs the composite image 5 (storage in the storage unit 12, display on the display unit 16, etc.) (step S107), and a series of decoration simulations are performed. The process ends.

なお、ステップS107における出力の結果、ユーザが合成画像5を確認し、合成の結果が不満である場合や、別の色や柄を試したい場合等は、ステップS102へ戻り素材データ32の再指定やオブジェクト配置領域41pの再設定等を行ってステップS103以降の処理を繰り返してもよい。   If the user confirms the composite image 5 as a result of the output in step S107 and the result of the composition is unsatisfactory, or if another color or pattern is to be tried, the process returns to step S102 and the material data 32 is redesignated. Alternatively, the object placement area 41p may be reset, and the processing from step S103 may be repeated.

以上説明したように、本発明に係る装飾シミュレーション装置1によれば、ユーザが所望の入力画像41gを入力し、入力画像41gに対しオブジェクト配置領域41pを設定し、適用する色や柄等の素材画像36gを設定すると、装飾シミュレーション装置1の制御部11は、入力画像41gに類似する見本画像35gを記憶部12から抽出し、見本画像35g内のオブジェクト領域に指定素材画像36gを合成した素材合成画像37を生成する。更に、制御部11は生成した素材合成画像37の装飾オブジェクト37a(変形後装飾オブジェクト38a)を入力画像41g内のオブジェクト配置領域41pに合成した合成画像5を生成する。これにより、入力画像41gに無地のオブジェクトが配置されていない場合や、既に柄があるオブジェクトが配置されている場合であっても、入力画像41に類似する見本画像を用いて装飾オブジェクト37a(変形後装飾オブジェクト38a)を生成して入力画像41に合成するため、オブジェクトの配置(サイズやパース)や空間の照明環境等の特徴を見本画像と同等にでき、合成した際の親和性が高い高品質な装飾シミュレーション画像(合成画像5)を生成できる。   As described above, according to the decoration simulation device 1 of the present invention, the user inputs the desired input image 41g, sets the object placement area 41p for the input image 41g, and applies the material such as the color or pattern to be applied. When the image 36g is set, the control unit 11 of the decoration simulation device 1 extracts a sample image 35g similar to the input image 41g from the storage unit 12, and synthesizes the designated material image 36g in the object area in the sample image 35g. The image 37 is generated. Further, the control unit 11 generates a composite image 5 in which the decoration object 37a (deformed decoration object 38a) of the generated material composite image 37 is combined with the object arrangement area 41p in the input image 41g. As a result, even when a plain object is not arranged in the input image 41g or an object with a pattern is already arranged, the decorative object 37a (transformed) is transformed using the sample image similar to the input image 41. Since the post-decoration object 38a) is generated and combined with the input image 41, the features such as the arrangement (size and perspective) of the object and the lighting environment of the space can be made equal to the sample image, and the compatibility with the combination is high. A quality decoration simulation image (composite image 5) can be generated.

以上、添付図面を参照して、本発明に係る装飾シミュレーション装置等の好適な実施形態について説明したが、本発明は係る例に限定されない。当業者であれば、本願で開示した技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。   The preferred embodiments of the decoration simulation device and the like according to the present invention have been described above with reference to the accompanying drawings, but the present invention is not limited to the examples. It is obvious to those skilled in the art that various modifications or modifications can be conceived within the scope of the technical idea disclosed in the present application, and naturally, those modifications and modifications are also included in the technical scope of the present invention. Understood.

1……………………装飾シミュレーション装置
11…………………制御部
12…………………記憶部
13…………………メディア入出力部
14…………………通信制御部
15…………………入力部
16…………………表示部
17…………………周辺機器I/F部
18…………………バス
21…………………画像入力部
22…………………素材、オブジェクト配置領域設定部
23…………………見本画像抽出部
24…………………識別器
25…………………素材合成画像生成部
26…………………変形部
27…………………画像合成部
28…………………合成画像出力部
31…………………見本画像データ
31g………………見本画像
31m………………マスク画像
31s………………サイズ情報
31p………………パース情報
32…………………素材データ
32g………………素材画像
32s………………サイズ情報
35…………………抽出見本画像データ
35g………………抽出見本画像
35m………………マスク画像
35s………………サイズ情報
35p………………パース情報
36…………………指定素材
36g………………素材画像
36s………………サイズ情報
37…………………素材合成画像
37a………………装飾オブジェクト
37m………………マスク画像
37p………………パース(矩形領域)
37q………………変形後のパース(矩形領域)
38…………………変形後素材合成画像
38a………………変形後装飾オブジェクト
38m………………変形後マスク画像
41…………………入力画像
41m………………マスク画像
41p………………オブジェクト配置領域(矩形領域)
5……………………合成画像
81…………………貼り付け元の画像データ
83…………………貼り付け先の画像データ
85…………………貼り付け範囲
87…………………貼り付けの境界
89…………………変形後の貼り付け元の画像データ
1 …………………… Decoration simulation device 11 …………………… Control unit 12 …………………… Storage unit 13 ………………… Media input / output unit 14 …………… ...... Communication control unit 15 …………………… Input unit 16 …………………… Display unit 17 …………………… Peripheral equipment I / F unit 18 ………………… Bus 21… ……………… Image input unit 22 …………………… Material and object placement area setting unit 23 …………………… Sample image extraction unit 24 …………………… Identifier 25 ………… ………… Material composite image generation unit 26 …………………… Transformation unit 27 …………………… Image composition unit 28 …………………… Composite image output unit 31 ……………… Sample image data 31g ……………… Sample image 31m ……………… Mask image 31s ……………… Size information 31p ……………… Perspective information 32 ………………… Material data 32g ……………… Material image 32s ……………… Size information 35 …………………… Extracted sample image data 35g ……………… Extracted sample image 35m ……………… Mask image 35s… …………… Size information 35p ……………… Perspective information 36 …………………… Specified material 36g ……………… Material image 36s ……………… Size information 37 ……………… …… Material composite image 37a ……………… Decorative object 37m ……………… Mask image 37p ……………… Perth (rectangular area)
37q ……………… Perspective after transformation (rectangular area)
38 …………………… Composite image after deformation 38a ……………… Decorated object after deformation 38m ……………… Mask image after deformation 41 …………………… Input image 41m ………… …… Mask image 41p ……………… Object placement area (rectangular area)
5 …………………… Composite image 81 …………………… Paste source image data 83 …………………… Paste destination image data 85 ………………… Paste range 87 …………………… Border of pasting 89 …………………… Image data of pasting source after transformation

Claims (8)

装飾対象のオブジェクトを有する複数の見本画像と、前記オブジェクトの色及び柄を構成する複数の素材画像とを蓄積記憶する記憶手段と、
任意の画像を入力する入力手段と、
入力された画像に対するオブジェクト配置領域の設定及びオブジェクト配置領域に適用する素材画像と前記素材画像の設定とを受け付ける設定手段と、
前記入力された画像と比較して、前記入力された画像と所定のオブジェクトの幾何形状又は画像の色味が最も類似する単一の見本画像を前記記憶手段から抽出する抽出手段と、
抽出された見本画像内のオブジェクト領域に対し前記設定手段により設定した素材画像を適用した素材合成画像を生成する素材合成画像生成手段と、
生成した素材合成画像から前記オブジェクト領域を抜き出し、前記入力された画像内に設定されたオブジェクト配置領域に合成する合成手段と、
を備えることを特徴とする装飾シミュレーション装置。
Storage means for accumulating and storing a plurality of sample images having an object to be decorated, and a plurality of material images constituting the color and pattern of the object;
An input means for inputting an arbitrary image,
Setting means for receiving the setting of the object placement area for the input image and the material image to be applied to the object placement area and the setting of the material image,
Extraction means for extracting, from the storage means, a single sample image in which the input image has a geometrical shape of a predetermined object or the tint of the image most similar to the input image ,
A material composite image generation means for generating a material composite image in which the material image set by the setting means is applied to the object area in the extracted sample image,
A synthesizing means for extracting the object area from the generated material composite image and synthesizing it with the object arrangement area set in the input image;
A decoration simulation device comprising:
前記記憶手段に記憶されている複数の見本画像を用いた学習処理を行うことにより、前記入力された画像と比較して、前記入力された画像と所定のオブジェクトの幾何形状又は画像の色味が最も類似する単一の見本画像を識別するための識別器を生成する識別器生成手段を更に備え、
前記抽出手段は、前記識別器を用いて前記入力された画像と比較して、前記入力された画像と所定のオブジェクトの幾何形状又は画像の色味が最も類似する単一の見本画像を抽出することを特徴とする請求項1に記載の装飾シミュレーション装置。
By performing a learning process using a plurality of sample images stored in the storage unit, the input image and the geometric shape of the predetermined object or the tint of the image are compared with the input image. Further comprising a discriminator generating means for generating a discriminator for discriminating the most similar single sample image,
The extracting means extracts a single sample image having a geometrical shape of a predetermined object or a color shade of the image most similar to the input image by comparing the input image using the classifier. The decoration simulation device according to claim 1, wherein:
前記記憶手段に記憶される各見本画像には、オブジェクト領域に対応するマスク画像、サイズ情報、及びパース情報を含むオブジェクト情報が予め紐づけて記憶され、
前記設定手段は、前記オブジェクト配置領域のサイズ情報、及びパース情報を含むオブジェクト情報の設定を受け付け、
前記抽出手段は、前記オブジェクト情報に基づいて前記入力された画像に類似する見本画像を抽出することを特徴とする請求項1または請求項2に記載の装飾シミュレーション装置。
In each sample image stored in the storage unit, a mask image corresponding to the object area, size information, and object information including perspective information are stored in advance in association with each other,
The setting means receives the size information of the object placement area and the setting of object information including perspective information,
The decoration simulation device according to claim 1, wherein the extraction unit extracts a sample image similar to the input image based on the object information.
前記素材合成画像生成手段は、前記見本画像内のオブジェクト領域に対応する矩形領域の座標値を前記素材画像に対応する正規化された素材座標系の座標値に変換し、前記素材座標系を縦軸及び横軸の少なくとも一方の軸に沿って周期関数により変換するための曲線変換処理を行うことにより前記素材座標系に展開されている素材画像の各画素の画素値を前記矩形領域上の対応する画素に設定することを特徴とする請求項1から請求項3のいずれかに記載の装飾シミュレーション装置。 The material composite image generation means converts the coordinate value of the rectangular area corresponding to the object area in the sample image into the coordinate value of the normalized material coordinate system corresponding to the material image, and the material coordinate system is changed vertically. The pixel value of each pixel of the material image developed in the material coordinate system is corresponded on the rectangular area by performing a curve conversion process for conversion by a periodic function along at least one of the axis and the horizontal axis. decoration simulation apparatus according to any one of claims 1 to 3, characterized in that the set pixels. 前記素材合成画像生成手段により生成された素材合成画像から抜き出したオブジェクト領域を前記設定手段により設定されたオブジェクト配置領域のサイズ情報及びパース情報に応じて変形する変形手段を更に備えることを特徴とする請求項1から請求項4のいずれかに記載の装飾シミュレーション装置。   It further comprises a deforming unit that deforms the object region extracted from the material composite image generated by the material composite image generating unit according to the size information and perspective information of the object arrangement region set by the setting unit. The decoration simulation device according to any one of claims 1 to 4. 前記合成手段は、前記入力された画像に基づいてポアソンブレンディングにより前記素材合成画像を変換し、前記入力された画像に合成することを特徴とする請求項1から請求項5のいずれかに記載の装飾シミュレーション装置。   The composition unit converts the material composite image by Poisson blending based on the input image, and combines the material composite image with the input image. Decoration simulation device. 装飾対象のオブジェクトを有する複数の見本画像と、前記オブジェクトの色及び柄を構成する複数の素材画像とを蓄積記憶する記憶部を有するコンピュータの制御部が、
任意の画像を入力するステップと、
入力された画像に対するオブジェクト配置領域の設定及びオブジェクト配置領域に適用する素材画像と前記素材画像の設定とを受け付けるステップと、
前記入力された画像と比較して、前記入力された画像と所定のオブジェクトの幾何形状又は画像の色味が最も類似する単一の見本画像を前記記憶部から抽出するステップと、
抽出された見本画像内のオブジェクト領域に対し前記設定した素材画像を適用した素材合成画像を生成するステップと、
生成した素材合成画像から前記オブジェクト領域を抜き出し、前記入力された画像内の設定されたオブジェクト配置領域に合成するステップと、
を含むことを特徴とする装飾シミュレーション方法。
A control unit of a computer having a storage unit that stores and stores a plurality of sample images having an object to be decorated and a plurality of material images forming the color and pattern of the object,
Inputting an arbitrary image,
A step of receiving the setting of the object arrangement area for the input image and the material image applied to the object arrangement area and the setting of the material image;
Extracting from the storage unit a single sample image in which the input image has a geometrical shape of a predetermined object or the tint of the image most similar to the input image ;
Generating a material composite image in which the set material image is applied to the object area in the extracted sample image,
A step of extracting the object area from the generated material composite image and combining with the set object arrangement area in the input image;
A decoration simulation method comprising:
コンピュータを、
装飾対象のオブジェクトを有する複数の見本画像と、前記オブジェクトの色及び柄を構成する複数の素材とを蓄積記憶する記憶手段と、
任意の画像を入力する入力手段と、
入力された画像に対するオブジェクト配置領域の設定及びオブジェクト配置領域に適用する素材画像の設定と前記素材画像の設定とを受け付ける設定手段と、
前記入力された画像と比較して、前記入力された画像と所定のオブジェクトの幾何形状又は画像の色味が最も類似する単一の見本画像を前記記憶手段から抽出する抽出手段と、
抽出された見本画像内のオブジェクト領域に対し前記設定手段により設定した素材画像を適用した素材合成画像を生成する素材合成画像生成手段と、
生成した素材合成画像から前記オブジェクト領域を抜き出し、前記入力された画像内に設定されたオブジェクト配置領域に合成する合成手段、
として機能させるためのプログラム。
Computer,
Storage means for accumulating and storing a plurality of sample images having an object to be decorated and a plurality of materials constituting the color and pattern of the object;
An input means for inputting an arbitrary image,
Setting means for accepting the setting of the object placement area for the input image, the setting of the material image applied to the object placement area, and the setting of the material image;
Extraction means for extracting, from the storage means, a single sample image in which the input image has a geometrical shape of a predetermined object or the tint of the image most similar to the input image ,
A material composite image generation means for generating a material composite image in which the material image set by the setting means is applied to the object area in the extracted sample image,
A synthesizing means for extracting the object area from the generated material composite image and synthesizing it with the object arrangement area set in the input image,
Program to function as.
JP2016061649A 2016-03-25 2016-03-25 Decoration simulation device, decoration simulation method, and program Active JP6696256B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016061649A JP6696256B2 (en) 2016-03-25 2016-03-25 Decoration simulation device, decoration simulation method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016061649A JP6696256B2 (en) 2016-03-25 2016-03-25 Decoration simulation device, decoration simulation method, and program

Publications (2)

Publication Number Publication Date
JP2017175523A JP2017175523A (en) 2017-09-28
JP6696256B2 true JP6696256B2 (en) 2020-05-20

Family

ID=59973285

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016061649A Active JP6696256B2 (en) 2016-03-25 2016-03-25 Decoration simulation device, decoration simulation method, and program

Country Status (1)

Country Link
JP (1) JP6696256B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7168526B2 (en) * 2019-06-28 2022-11-09 Line株式会社 program, information processing method, terminal
JP7543836B2 (en) 2020-10-22 2024-09-03 富士フイルムビジネスイノベーション株式会社 Information processing device and information processing program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH111814A (en) * 1997-04-11 1999-01-06 Toray Ind Inc Production of garment or ornament and device for supporting production of garment or ornament

Also Published As

Publication number Publication date
JP2017175523A (en) 2017-09-28

Similar Documents

Publication Publication Date Title
JP7370527B2 (en) Method and computer program for generating three-dimensional model data of clothing
JP5299173B2 (en) Image processing apparatus, image processing method, and program
GB2559446A (en) Generating a three-dimensional model from a scanned object
US20050007378A1 (en) Texturing method and apparatus
JP2006114024A (en) Caricature character generating system and method
WO1999019838B1 (en) Method and system for estimating jointed-figure configurations
JP2010140476A (en) Image processing method, computer readable medium, and image processing system
CN103139478A (en) Photographing method with real-time rendering of main image and secondary image
JP6696256B2 (en) Decoration simulation device, decoration simulation method, and program
JP2016071682A (en) Object arrangement device, object arrangement method, and program
CN106447756A (en) Method and system for generating a user-customized computer-generated animation
Ryffel et al. AR Museum: A mobile augmented reality application for interactive painting recoloring
US20220138840A1 (en) Systems and methods for visualizing wall coverings in an image of a scene
JP4850676B2 (en) Image generating apparatus and image generating method
US20160284072A1 (en) System for photo customizable caricature generation for custom products
JP6891473B2 (en) Pattern change simulation device, pattern change simulation method, and program
EP2038848B1 (en) Facilitating image-editing operations across multiple perspective planes
JP2008077604A (en) Texture filtering device, and texture mapping device, method and program
CN101930340A (en) Method for generating lighting effect by simulating real page turning for electronic book
Ligon Digital art revolution
US11770496B2 (en) Systems and methods for visualizing surface coverings in an image of a scene
JP5337250B2 (en) Image processing apparatus and method
JP2005293616A (en) Image synthesis device
Shen et al. Completion-based texture design using deformation
JP3967036B2 (en) Image synthesizer

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191126

RD13 Notification of appointment of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7433

Effective date: 20191225

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20191225

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200218

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200309

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200324

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200406

R150 Certificate of patent or registration of utility model

Ref document number: 6696256

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150