JP6696256B2 - Decoration simulation device, decoration simulation method, and program - Google Patents
Decoration simulation device, decoration simulation method, and program Download PDFInfo
- Publication number
- JP6696256B2 JP6696256B2 JP2016061649A JP2016061649A JP6696256B2 JP 6696256 B2 JP6696256 B2 JP 6696256B2 JP 2016061649 A JP2016061649 A JP 2016061649A JP 2016061649 A JP2016061649 A JP 2016061649A JP 6696256 B2 JP6696256 B2 JP 6696256B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- area
- input
- setting
- input image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Editing Of Facsimile Originals (AREA)
- Image Processing (AREA)
Description
本発明は、装飾シミュレーション装置、装飾シミュレーション方法、及びプログラムに係り、詳細には、部屋等の画像にカーテン等の装飾品の画像を合成する技術に関する。 The present invention relates to a decoration simulation device, a decoration simulation method, and a program, and more particularly to a technique of synthesizing an image of a decorative article such as a curtain with an image of a room or the like.
消費者がカーテンやブラインド等の窓装飾品を購入する際、デザインやカラーに加え、部屋の内装との親和性が重要な判断ポイントとなる。そこでユーザは店舗の実物やカタログやパンフレット、Webサイトの画像等を見て自分の部屋に置き換えて想像することで購入を検討する。しかし、実際にそのカーテンを購入して部屋に取り付けてみると、購入前に抱いたイメージと異なっていて不満を抱く結果となることがある。 When consumers purchase window decorations such as curtains and blinds, in addition to design and color, compatibility with the interior of the room is an important decision point. Therefore, the user considers the purchase by looking at the actual goods in the store, catalogs, pamphlets, images on the website, etc. and imagining them by replacing them with their own room. However, when you actually buy the curtain and attach it to the room, you may be dissatisfied with the image you had before purchasing.
このような不満感を回避するために、合成画像による購入前の事前確認の仕組みが提案されている。例えば、特許文献1にはカーテンの柄を替えるシミュレーションを2次元画像を用いて行う仕組みが開示されている。特許文献1では、2次元の背景画像内の曲面を有する対象物に柄を持つ画像を合成する際に、柄が曲面に応じて自然な状態となるように変形して画像合成する技術について記載されている。 In order to avoid such a feeling of dissatisfaction, a mechanism of prior confirmation before purchase using a composite image has been proposed. For example, Patent Document 1 discloses a mechanism for performing a simulation for changing the pattern of a curtain by using a two-dimensional image. Patent Document 1 describes a technique for synthesizing an image by synthesizing an image having a pattern on an object having a curved surface in a two-dimensional background image by deforming the pattern so as to be in a natural state according to the curved surface. Has been done.
しかしながら、特許文献1では、前提として無地のカーテンが掛けられた室内画像を背景画像として使用し、背景画像内の無地のカーテンに別の色や柄を適用して表示するものである。そのため、カーテンが装着されていない画像や柄物のカーテンが装着されている画像には特許文献1の手法を適用できなかった。また特に、カーテンのシミュレーションを行う場合には、合成先の画像における窓の位置や大きさ、部屋の照明環境等により、実際のカーテンの色や形の見え方が大きく変化する。そのため、単に部屋の写真とカーテンの写真とを合成するだけでは、実際に室内にカーテンを装着した場合と比較してイメージが異なることもある。 However, in Patent Document 1, as an assumption, an indoor image with a plain curtain is used as a background image, and a different color or pattern is applied to the plain curtain in the background image for display. Therefore, the method of Patent Document 1 cannot be applied to an image in which a curtain is not mounted or an image in which a patterned curtain is mounted. Further, in particular, when a curtain simulation is performed, the actual appearance of the color and shape of the curtain greatly changes depending on the position and size of the window in the image to be combined, the lighting environment of the room, and the like. Therefore, the image may be different from the case where the curtain is actually installed in the room simply by synthesizing the picture of the room and the picture of the curtain.
本発明は、このような課題に鑑みてなされたもので、撮影された画像内の空間に所望の装飾(色や柄)を有するオブジェクトを配置したかのような合成画像を生成することが可能な装飾シミュレーション装置、装飾シミュレーション方法、及びプログラムを提供することを目的とする。 The present invention has been made in view of such a problem, and it is possible to generate a composite image as if an object having a desired decoration (color or pattern) is arranged in a space in a captured image. A decorative simulation device, a decorative simulation method, and a program are provided.
前述した課題を解決するための第1の発明は、装飾対象のオブジェクトを有する複数の見本画像と、前記オブジェクトの色及び柄を構成する複数の素材画像とを蓄積記憶する記憶手段と、任意の画像を入力する入力手段と、入力された画像に対するオブジェクト配置領域の設定及びオブジェクト配置領域に適用する素材画像と前記素材画像の設定とを受け付ける設定手段と、前記入力された画像と比較して、前記入力された画像と所定のオブジェクトの幾何形状又は画像の色味が最も類似する単一の見本画像を前記記憶手段から抽出する抽出手段と、抽出された見本画像内のオブジェクト領域に対し前記設定手段により設定した素材画像を適用した素材合成画像を生成する素材合成画像生成手段と、生成した素材合成画像から前記オブジェクト領域を抜き出し、前記入力された画像内に設定されたオブジェクト配置領域に合成する合成手段と、を備えることを特徴とする装飾シミュレーション装置である。 A first aspect of the present invention for solving the above-mentioned problems includes a storage unit that stores and stores a plurality of sample images having an object to be decorated and a plurality of material images that form the color and pattern of the object, and an arbitrary storage unit. An input means for inputting an image, a setting means for receiving a setting of an object placement area for the input image and a material image applied to the object placement area and the setting of the material image, and comparing the input image with each other, Extraction means for extracting from the storage means a single sample image in which the geometric shape of the predetermined image or the tint of the image is similar to the input image, and the setting for the object area in the extracted sample image A material composite image generation means for generating a material composite image to which the material image set by the means is applied, and the object composite image from the generated material composite image. Extracting the region, a synthesizing means for synthesizing the object arrangement region set on the input in the image, a decoration simulation device, characterized in that it comprises a.
第1の発明によれば、任意の入力画像にオブジェクト配置領域を設定し、適用する色や柄等の素材画像を設定すると、入力された画像に類似する見本画像が抽出され、見本画像内のオブジェクト領域に素材画像を合成した素材合成画像が生成される。更に、生成された素材合成画像のオブジェクト領域を抜き出し入力画像内のオブジェクト配置領域に配置した合成画像が生成される。これにより、入力画像に無地のオブジェクトが配置されていない場合や、既に柄があるオブジェクトが配置されている場合であっても、類似する見本画像を利用して所望の色や柄を適用したオブジェクトを生成し、入力画像に配置して撮影したかのような高品質な合成画像を得ることができる。オブジェクト配置位置や空間の照明環境等の特徴を見本画像と同等にでき、画像合成した際の親和性が高い高品質な合成画像を生成できる。 According to the first aspect of the present invention, when an object arrangement area is set in an arbitrary input image and a material image such as a color or a pattern to be applied is set, a sample image similar to the input image is extracted, and a sample image in the sample image is extracted. A material composite image is generated by combining the material images in the object area. Further, a composite image is generated by extracting the object area of the generated material composite image and arranging it in the object arrangement area in the input image. As a result, even if a plain object is not placed in the input image or an object with a pattern is already placed, an object to which a desired color or pattern is applied using a similar sample image Can be generated, and a high-quality composite image can be obtained as if the image was captured by placing it in the input image. Features such as the object arrangement position and the lighting environment of the space can be made equal to the sample image, and a high-quality composite image with high affinity when the images are combined can be generated.
第1の発明において、前記記憶手段に記憶されている複数の見本画像を用いた学習処理を行うことにより、前記入力された画像と比較して、前記入力された画像と所定のオブジェクトの幾何形状又は画像の色味が最も類似する単一の見本画像を識別するための識別器を生成する識別器生成手段を更に備え、前記抽出手段は、前記識別器を用いて前記入力された画像と比較して、前記入力された画像と所定のオブジェクトの幾何形状又は画像の色味が最も類似する単一の見本画像を抽出することが望ましい。識別器を用いることにより、より多くの見本画像の中から入力画像に類似する画像を精度よく抽出することが可能となり、違和感の少ない高品質な合成画像を生成できる。 In the first invention, a learning process using a plurality of sample images stored in the storage means is performed to compare the input image with the input image and a geometric shape of a predetermined object. or further comprising a identifier generating means for generating an identifier for color images to identify the single sample image most similar, said extracting means, compared to the input image using the discriminator Then, it is desirable to extract a single sample image in which the geometric shape of a predetermined object or the tint of the image is most similar to the input image. By using the classifier, an image similar to the input image can be accurately extracted from a larger number of sample images, and a high-quality composite image with less discomfort can be generated.
また第1の発明において、前記記憶手段に記憶される各見本画像には、オブジェクト領域に対応するマスク画像、サイズ情報、及びパース情報を含むオブジェクト情報が予め紐づけて記憶され、前記設定手段は、前記オブジェクト配置領域のサイズ情報、及びパース情報を含むオブジェクト情報の設定を受け付け、前記抽出手段は、前記オブジェクト情報に基づいて前記入力された画像に類似する見本画像を抽出することが望ましい。これにより、オブジェクト領域の位置やパース等が類似する見本画像を抽出しやすくなる。 Further, in the first invention, each sample image stored in the storage unit is associated with a mask image corresponding to an object area, size information, and object information including perspective information in advance and stored, and the setting unit It is preferable that the setting information of the object arrangement area size information and the setting of the object information including the perspective information be accepted, and the extraction means extract a sample image similar to the input image based on the object information. As a result, it becomes easy to extract a sample image in which the position and perspective of the object area are similar.
第1の発明において、前記素材合成画像生成手段は、前記見本画像内のオブジェクト領域に対応する矩形領域の座標値を前記素材画像に対応する正規化された素材座標系の座標値に変換し、前記素材座標系を縦軸及び横軸の少なくとも一方の軸に沿って周期関数により変換するための曲線変換処理を行うことにより前記素材座標系に展開されている素材画像の各画素の画素値を前記矩形領域上の対応する画素に設定することが望ましい。これにより、オブジェクトの曲面の歪みに応じて素材画像が変形されて、見本画像内のオブジェクトに対応するマスク領域に合成される。よって、例えばカーテンのヒダに合わせて素材の柄が歪められた素材合成画像を得ることができる。 In the first invention, the material composite image generation means converts the coordinate value of a rectangular area corresponding to an object area in the sample image into a coordinate value of a normalized material coordinate system corresponding to the material image, By performing a curve conversion process for converting the material coordinate system by a periodic function along at least one of the vertical axis and the horizontal axis, the pixel value of each pixel of the material image developed in the material coordinate system is calculated. It is desirable to set to the corresponding pixel on the rectangular area. As a result, the material image is deformed according to the distortion of the curved surface of the object and is combined with the mask area corresponding to the object in the sample image. Therefore, for example, a material composite image in which the material pattern is distorted according to the folds of the curtain can be obtained.
第1の発明において、前記素材合成画像生成手段により生成された素材合成画像から抜き出したオブジェクト領域を前記設定手段により設定された前記オブジェクト配置領域のサイズ情報及びパース情報に応じて変形する変形手段を更に備えることが望ましい。これにより、入力する画像は必ずしも正面方向から撮影されたものとする必要がなくなり、入力画像の制限が緩和され、使用しやすい装飾シミュレーション装置を実現できる。 1st invention WHEREIN: The deformation | transformation means which deform | transforms the object area | region extracted from the material synthetic | combination image produced | generated by the said material synthetic | combination image production | generation means according to the size information and perspective information of the said object arrangement area set by the said setting means. Further provision is desirable. As a result, the input image does not necessarily have to be taken from the front direction, the restrictions on the input image are eased, and a decoration simulation device that is easy to use can be realized.
第1の発明において、前記合成手段は、前記入力された画像に基づいてポアソンブレンディングにより前記素材合成画像を変換し、前記入力された画像に合成することが望ましい。これにより、合成するオブジェクトを入力画像の色味に合わせ境界部をなじませることが可能となり、自然な合成画像を得ることができる。 In the first invention, it is preferable that the synthesizing unit transforms the material-synthesized image by Poisson blending based on the input image and synthesizes the material-synthesized image with the input image. As a result, it is possible to match the object to be combined with the tint of the input image and blend the boundary portion, and a natural combined image can be obtained.
第2の発明は、装飾対象のオブジェクトを有する複数の見本画像と、前記オブジェクトの色及び柄を構成する複数の素材画像とを蓄積記憶する記憶部を有するコンピュータの制御部が、任意の画像を入力するステップと、入力された画像に対するオブジェクト配置領域の設定及びオブジェクト配置領域に適用する素材画像と前記素材画像の設定とを受け付けるステップと、前記入力された画像に類似する見本画像を前記記憶部から抽出するステップと、抽出された見本画像内のオブジェクト領域に対し前記設定した素材画像を適用した素材合成画像を生成するステップと、生成した素材合成画像から前記オブジェクト領域を抜き出し、前記入力された画像内の設定されたオブジェクト配置領域に合成するステップと、を含むことを特徴とする装飾シミュレーション方法である。 According to a second aspect of the present invention, a control unit of a computer having a storage unit that stores and stores a plurality of sample images having an object to be decorated and a plurality of material images constituting the color and pattern of the object displays an arbitrary image. A step of inputting; a step of accepting a setting of an object placement area for the input image and a material image applied to the object placement area; and a setting of the material image; and a sample image similar to the input image And a step of generating a material composite image in which the set material image is applied to the object area in the extracted sample image, the object area is extracted from the generated material composite image, and the input And a step of synthesizing the set object placement area in the image, the decoration simulation method.
第2の発明は、装飾対象のオブジェクトを有する複数の見本画像と、前記オブジェクトの色及び柄を構成する複数の素材画像とを蓄積記憶する記憶部を有するコンピュータの制御部が、任意の画像を入力するステップと、入力された画像に対するオブジェクト配置領域の設定及びオブジェクト配置領域に適用する素材画像と前記素材画像の設定とを受け付けるステップと、前記入力された画像と比較して、前記入力された画像と所定のオブジェクトの幾何形状又は画像の色味が最も類似する単一の見本画像を前記記憶部から抽出するステップと、抽出された見本画像内のオブジェクト領域に対し前記設定した素材画像を適用した素材合成画像を生成するステップと、生成した素材合成画像から前記オブジェクト領域を抜き出し、前記入力された画像内の設定されたオブジェクト配置領域に合成するステップと、を含むことを特徴とする装飾シミュレーション方法である。 According to a second aspect of the present invention, a control unit of a computer having a storage unit that stores and stores a plurality of sample images having an object to be decorated and a plurality of material images constituting the color and pattern of the object displays an arbitrary image. A step of inputting, a step of accepting the setting of the object arrangement area for the input image and a material image applied to the object arrangement area and the setting of the material image, and comparing the input image with the input Extracting from the storage unit a single sample image in which the geometrical shape of the image and a predetermined object or the tint of the image are most similar; and applying the set material image to the object region in the extracted sample image Decoration simulation, which includes the step of generating the material composite image described above, and the step of extracting the object area from the generated material composite image and combining the extracted object area with the set object placement area in the input image. Is the way.
第3の発明は、コンピュータを、装飾対象のオブジェクトを有する複数の見本画像と、前記オブジェクトの色及び柄を構成する複数の素材とを蓄積記憶する記憶手段と、任意の画像を入力する入力手段と、入力された画像に対するオブジェクト配置領域の設定及びオブジェクト配置領域に適用する素材画像の設定と前記素材画像の設定とを受け付ける設定手段と、前記入力された画像と比較して、前記入力された画像と所定のオブジェクトの幾何形状又は画像の色味が最も類似する単一の見本画像を前記記憶手段から抽出する抽出手段と、抽出された見本画像内のオブジェクト領域に対し前記設定手段により設定した素材画像を適用した素材合成画像を生成する素材合成画像生成手段と、生成した素材合成画像から前記オブジェクト領域を抜き出し、前記入力された画像内に設定されたオブジェクト配置領域に合成する合成手段、として機能させるためのプログラムである。 According to a third aspect of the present invention, a computer is configured to store a plurality of sample images each having an object to be decorated and a plurality of materials constituting the color and pattern of the object, and an input unit for inputting an arbitrary image. And setting means for accepting the setting of the object placement area for the input image and the setting of the material image to be applied to the object placement area and the setting of the material image, and comparing the input image with the input means . Extraction means for extracting from the storage means a single sample image in which the geometric shape of the image and a predetermined object or the tint of the image are most similar, and the setting means is set for the object area in the extracted sample image. Material composite image generation means for generating a material composite image to which a material image is applied, and the object area is extracted from the generated material composite image. Out a synthesizing means, a program for functioning as to be combined with the object arrangement region set on the input in the image.
第3の発明によれば、コンピュータを第1の発明の装飾シミュレーション装置として機能させることが可能となる。 According to the third invention, it is possible to cause the computer to function as the decoration simulation device of the first invention.
本発明により、撮影された画像内の空間に所望の装飾(色や柄)を有するオブジェクトを配置したかのような合成画像を生成することが可能な装飾シミュレーション装置、装飾シミュレーション方法、及びプログラムを提供できる。 According to the present invention, there are provided a decoration simulation device, a decoration simulation method, and a program capable of generating a composite image as if an object having a desired decoration (color or pattern) is arranged in a space in a captured image. Can be provided.
以下、図面に基づいて本発明の実施形態を詳細に説明する。図1は、装飾シミュレーション装置1のハードウェア構成を示すブロック図である。なお、図1のハードウェア構成は一例であり、用途、目的に応じて様々な構成を採ることが可能である。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. FIG. 1 is a block diagram showing a hardware configuration of the decoration simulation device 1. The hardware configuration of FIG. 1 is an example, and various configurations can be adopted according to the use and purpose.
図1に示すように、装飾シミュレーション装置1は、制御部11、記憶部12、メディア入出力部13、通信制御部14、入力部15、表示部16、周辺機器I/F部17等が、バス18を介して接続される。
As shown in FIG. 1, the decoration simulation device 1 includes a
制御部11は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等によって構成される。CPUは、記憶部12、ROM、記録媒体等に格納されるプログラムをRAM上のワークメモリ領域に呼び出して実行し、バス18を介して接続された各装置を駆動制御し、装飾シミュレーション装置1が行う後述する処理を実現する。ROMは、不揮発性メモリであり、コンピュータのブートプログラムやBIOS等のプログラム、データ等を恒久的に保持している。RAMは、揮発性メモリであり、記憶部12、ROM、記録媒体等からロードしたプログラム、データ等を一時的に保持するとともに、制御部11が各種処理を行う為に使用するワークエリアを備える。
The
記憶部12は、HDD(Hard Disk Drive)等であり、制御部11が実行するプログラム、プログラム実行に必要なデータ、OS(Operating System)等が格納される。プログラムに関しては、OSに相当する制御プログラムや、後述する処理をコンピュータに実行させるためのアプリケーションプログラムが格納されている。これらの各プログラムコードは、制御部11により必要に応じて読み出されてRAMに移され、CPUに読み出されて各種の手段として実行される。
The
メディア入出力部13(ドライブ装置)は、データの入出力を行い、例えば、CDドライブ(−ROM、−R、−RW等)、DVDドライブ(−ROM、−R、−RW等)等のメディア入出力装置を有する。通信制御部14は、通信制御装置、通信ポート等を有し、コンピュータとネットワーク間の通信を媒介する通信インタフェースであり、ネットワークを介して、他のコンピュータ間との通信制御を行う。ネットワークは、有線、無線を問わない。
The media input / output unit 13 (drive device) inputs and outputs data, and is a medium such as a CD drive (-ROM, -R, -RW, etc.), a DVD drive (-ROM, -R, -RW, etc.), or the like. It has an input / output device. The
入力部15は、データの入力を行い、例えば、キーボード、マウス等のポインティングデバイス、テンキー等の入力装置を有する。入力部15を介して、コンピュータに対して、操作指示、動作指示、データ入力等を行うことができる。表示部16は、液晶パネル等のディスプレイ装置、ディスプレイ装置と連携してコンピュータのビデオ機能を実現するための論理回路等(ビデオアダプタ等)を有する。なお、入力部15及び表示部16は、タッチパネルディスプレイのように、一体となっていてもよい。
The
周辺機器I/F(Interface)部17は、コンピュータに周辺機器を接続させるためのポートであり、周辺機器I/F部17を介してコンピュータは周辺機器とのデータの送受信を行う。周辺機器I/F部17は、USB(Universal Serial Bus)やIEEE1394やRS−232C等によって構成されており、通常複数の周辺機器I/Fを有する。周辺機器との接続形態は有線、無線を問わない。バス18は、各装置間の制御信号、データ信号等の授受を媒介する経路である。
The peripheral device I / F (Interface)
装飾シミュレーション装置1は、1台のコンピュータで構成されてもよいし、複数のコンピュータがネットワークを介して構成されてもよい。例えば、装飾シミュレーション装置1が、サーバとクライアント端末で構成される場合、クライアント端末においてデータの入力を受け付けて、サーバが各種の処理を行い、クライアント端末が処理結果を表示するようにしてもよい。以下の説明では、簡素な構成例として、装飾シミュレーション装置1が1台のコンピュータで構成された例を説明する。 The decoration simulation device 1 may be configured by one computer, or a plurality of computers may be configured via a network. For example, when the decoration simulation device 1 is composed of a server and a client terminal, the client terminal may accept data input, the server may perform various processes, and the client terminal may display the process result. In the following description, as a simple configuration example, an example in which the decoration simulation device 1 is configured by one computer will be described.
次に、装飾シミュレーション装置1のデータ構成について説明する。
図2は、装飾シミュレーション装置1の記憶部12に記憶される見本画像データ31の例を示す図である。装飾シミュレーション装置1の記憶部12には、見本画像データ31として、複数の見本画像31g及び各見本画像31gのオブジェクト情報31m、31p、31sが記憶される。見本画像31gは、装飾対象のオブジェクトを有する2次元画像である。オブジェクトは、例えば、カーテンやブラインド等の窓装飾品を例として説明するが、本発明は家具や壁、ドア等のように面状の部分を有する物品についても装飾対象のオブジェクトに含むものとする。オブジェクト情報は、見本画像31におけるオブジェクト領域に対応するマスク画像31m、オブジェクトのサイズ情報31s、オブジェクトに外接する矩形領域(4点の座標)を示すパース情報31pである。見本画像31g及びオブジェクト情報31m、31s、31pは、家具やインテリアのカタログデータから取得してもよいし、ユーザが入力部15等を介して登録してもよい。
Next, the data structure of the decoration simulation device 1 will be described.
FIG. 2 is a diagram showing an example of the
例えば図2には、「見本画像1」に関する情報として、装飾対象のオブジェクトとして無地のカーテンが配置された室内が撮影された見本画像31gと、オブジェクト領域を他の領域と分けた二値のマスク画像31mと、オブジェクトのサイズ情報31sとして「幅:800mm、高さ:1900mm」と、パース情報31pとして「P1:(383,51)、P2:(379,509)、P3:(530,528)、P4:(537,41)」とが格納された例が示されている。同様に、「見本画像2」、「見本画像3」、「見本画像4」についても、それぞれ装飾対象のオブジェクト(カーテン)が配置された室内が撮影された見本画像31g、オブジェクトのマスク画像31m、オブジェクトのサイズ情報31s、パース情報31pが保持される。なお、本実施形態では見本画像31gの例として撮影された写真等を示しているが、本発明は撮影されたものに限定されず、コンピューグラフィックス等により作成された画像を見本画像31gとしてもよい。
For example, in FIG. 2, as information about the “sample image 1”, a
図3は、装飾シミュレーション装置1の記憶部12に記憶される素材データ32の例を示す図である。装飾シミュレーション装置1の記憶部12には、素材データ32として、複数の素材画像32g及び素材画像32gのサイズ情報32sが記憶される。素材画像32gは、1単位分の色や柄(テクスチャ)を表すパッチ画像である。サイズ情報32sは、素材画像32gの高さ及び幅のサイズを示す数値である。素材画像32g及びサイズ情報32sは、家具やインテリアのカタログデータから取得してもよいし、ユーザが入力部15等を介して登録してもよい。
FIG. 3 is a diagram showing an example of the
例えば図3には、「素材1」に関する情報として、植物柄のパッチ画像(素材画像32g)とサイズ情報32s「幅:120mm、高さ:70mm」が保持された例が示されている。同様に、「素材2」、「素材3」、「素材4」についても、それぞれ色や柄を示す素材画像32gと素材画像32gのサイズ情報32sが格納される。
For example, FIG. 3 shows an example in which the patch image (
次に、図4を参照して本発明に係る装飾シミュレーション装置1の機能構成について説明する。 Next, a functional configuration of the decoration simulation device 1 according to the present invention will be described with reference to FIG.
図4に示すように、装飾シミュレーション装置1の制御部11は、画像入力部21、設定部22、見本画像抽出部23、識別器24、素材合成画像生成部25、変形部26、画像合成部27、及び合成画像出力部28を有する。
As shown in FIG. 4, the
画像入力部21は、装飾オブジェクトを配置しようとする任意の画像の入力を受け付ける。以下の説明では画像入力部21に入力された画像を入力画像41と呼ぶ。装飾オブジェクトとは、色や柄等の装飾を施す対象とする物品である。例えば、カーテンを例に説明する。入力画像41は室内を撮影した写真等、2次元の画像とする。
The
設定部22は、入力画像41に対するオブジェクト配置領域41pの設定及びオブジェクト配置領域41pに適用する素材画像32の設定(指定)と指定した素材画像に対する設定とを受け付ける。
The setting
見本画像抽出部23は、入力画像41に類似する見本画像31gを記憶部12に記憶されている見本画像データ31の中から抽出する。見本画像31gの抽出処理については後述する。なお、見本画像抽出部23は、識別器24を用いて入力画像41に類似する見本画像31gを識別し抽出してもよい。識別器24は、制御部11により行われる学習処理によって生成される。学習処理では、制御部11は記憶部12に記憶されている複数の見本画像データ31を用いた学習データとして取り込み、見本画像データ31の特徴を学習し、識別器24を生成する。識別器24については後述する。
The sample
素材合成画像生成部25は、見本画像抽出部23により抽出された抽出見本画像35g内の空間に配置されているオブジェクト(オブジェクト領域)に対し、設定部22により設定した素材画像32g(指定素材36)を適用した素材合成画像37を生成する。指定素材36の素材画像36gは記憶部12に記憶される素材データ32から取得される。素材合成画像37の生成処理については後述する。
The material composite image generation unit 25 sets the
変形部26は、素材合成画像生成部25により生成された素材合成画像37から抜き出したオブジェクト(装飾オブジェクト37a)を入力画像41gに設定されたオブジェクト配置領域のサイズ及びパースに応じて変形し、変形後素材合成画像38を得る。変形処理については後述する。
The
画像合成部27は、素材合成画像生成部25により生成した素材合成画像37から抜き出したオブジェクト(装飾オブジェクト37a)、または変形部26により変形された素材合成画像38から抜き出したオブジェクト(変形後装飾オブジェクト38a)を、入力画像41内のオブジェクト配置領域41pに配置した合成画像5を生成する。画像合成処理については後述する。
The
合成画像出力部28は、画像合成部27により生成された合成画像5を出力する。出力は、表示部16への表示、記憶部12への記憶の他、通信制御部14を介したネットワーク等への送信等を含む。
The combined
次に、図5を参照して、装飾シミュレーション装置1の制御部11が実行する装飾シミュレーション処理の流れを説明する。
Next, with reference to FIG. 5, a flow of a decoration simulation process executed by the
まず、制御部11はシミュレーションを行う画像の入力を受け付ける(ステップS101)。入力画像41は室内が撮影された2次元の画像とする。次に、制御部11は、オブジェクトの装飾に関する設定情報の入力を受け付ける(ステップS102)。具体的には、制御部11は、ステップS101で入力された入力画像41に対するオブジェクト配置領域41pの設定及びオブジェクト配置領域41pに適用する素材画像32gの設定(指定)、指定した素材画像32gに対するサイズ情報32s等の設定を受け付ける。ユーザは、入力部15を介して入力画像41に対して4点(矩形領域)を指定する等の入力操作を行うことにより、オブジェクト配置領域41pを設定する。またユーザは、オブジェクト配置領域41pに適用する素材画像32gを記憶部12に記憶されている素材データ32の中から選択する。このとき制御部11は記憶部12に記憶されている素材データ32の複数の素材画像32gを表示部16に選択可能に一覧表示することが望ましい。
First, the
次に、制御部11はステップS101で入力された入力画像41に類似する見本画像31gを記憶部12から抽出する(ステップS103)。ステップS103において、制御部11は識別器24を用いて入力画像41と類似する見本画像データ31を識別し抽出してもよい。識別器24は、制御部11により行われる学習処理によって生成される。学習処理では、制御部11は記憶部12に記憶されている複数の見本画像データ31(見本画像31g、マスク画像31m、サイズ情報31s、パース情報31p)を学習データとして取り込み、見本画像データ31の特徴を学習し、室内画像を識別する識別器24を生成する。
Next, the
識別器24は、例えばExemplar-SVMを用いることが好適である。Exemplar-SVMとは、多数の1対多の弱識別器で全体の識別器を作成する手法である。そしてExemplar-SVMでは、見本画像データ31の見本画像31gに付随するオブジェクト情報(マスク画像31m、サイズ情報31s、パース情報31p)を再利用可能である点で他の手法と比較して好適である。制御部11は記憶部12に予め登録されている見本画像データ31をExemplar-SVMを用いて学習し、ステップS101で入力された入力画像41が室内画像であるかどうかを判定する識別器24を生成する。見本画像データ31をポジティブデータとし、室内空間でない任意の画像群をネガティブデータとする。このとき使用する特徴ベクトルは、Gist特徴、サイズ情報、パース情報(解像度正規化済み)の連結ベクトルとする。Exemplar-SVMについては、"Ensemble of Exemplar-SVMs for Object Detection and Beyond(ICCV2011)"、(http://www.cs.cmu.edu/~tmalisie/projects/iccv11/)に記載されている。
The
図7に示すように、制御部11は入力画像41を識別器24に入力する。識別器24は、入力画像41に類似する見本画像35gを記憶部12に記憶されている見本画像データ31から抽出する。ステップS103の見本画像抽出処理では、入力画像41とオブジェクトの幾何形状や画像の色味(照明環境等)が類似する見本画像35gを抽出することが望ましい。見本画像抽出処理の結果、入力画像41の窓の位置や照明環境(照明器具の位置、画像の色味等)が類似する見本画像(抽出見本画像35g)が抽出されることとなる。
As shown in FIG. 7, the
次に、制御部11は素材合成画像37を生成する(ステップS104)。素材合成画像37とは、ステップS102で指定された素材画像36gをステップS103で抽出された見本画像35gのオブジェクト領域に合成した画像である。オブジェクト領域は各見本画像31gに予め設定(記憶)されているマスク画像31mにより指定される領域である。図8の例では、白、黒の二値で表されるマスク画像35mにおける白値の領域をオブジェクト領域とする。
Next, the
図8に示すように、制御部11は、抽出見本画像データ35として見本画像35g、見本画像35gのオブジェクト領域に対応するマスク画像35m、オブジェクト領域のサイズ情報35s、オブジェクト領域のパース情報35pを記憶部12から取得する。また制御部11は、ステップS102の設定処理で指定された指定素材36(素材画像36g、サイズ情報36s)を記憶部12の素材データ32から取得する。制御部11は、見本画像35gのオブジェクト領域のサイズやパースに合うように指定素材36の素材画像36gを合成する。その結果、見本画像35gのオブジェクト領域のサイズ情報35s及びパース情報35sに応じて素材画像36gの画像全体が変形された素材合成画像37を得る。
As shown in FIG. 8, the
ステップS104の素材合成画像生成処理では、例えば特許3679347号に記載される手法を用いることが望ましい。特許3679347号には、抽出見本画像35g内のオブジェクト領域に外接する矩形領域の座標値を、素材画像36gに対応する正規化された素材座標系の座標値に変換し、素材座標系の座標値を、縦軸及び横軸の少なくとも一方の軸に沿って周期関数により変換し(曲線変換処理)、素材座標系に展開されている素材画像の各画素の画素値を、曲線変換処理により矩形領域上の対応する画素に設定することが記載されている。この手法により指定素材36gを見本画像35gに合成すると、素材画像36gの少なくとも一方の軸(例えば、カーテンの画像であれば横軸)に沿って素材画像が周期関数に基づく変換によって曲線状に歪みのある画像に変換されて見本画像35gのオブジェクト領域(矩形領域)内に設定される。よって、例えばオブジェクト(カーテン)のヒダに合わせて素材の柄が歪められた装飾オブジェクト37aを得ることができる。更に、素材合成画像生成処理では、見本画像35gのオブジェクト領域の陰影情報等を保持したまま、素材画像36gが合成されることが望ましい。これにより、見本画像35gのオブジェクト(カーテン)は画像空間における奥行(パース)に基づく変形のみならず、オブジェクト自体の曲線状の歪みを表現できる。また、見本画像35g内の陰影が素材合成画像37にも反映されることとなる。
In the material composite image generation processing in step S104, it is desirable to use the method described in Japanese Patent No. 3679347, for example. Japanese Patent No. 3679347 converts the coordinate values of a rectangular area circumscribing the object area in the extracted
次に、制御部11はステップS104で生成した素材合成画像37の装飾オブジェクト37aを入力画像41のオブジェクト配置領域(マスク画像41mにより指定される領域)に合うように変形する変形処理を行う(ステップS105)。入力画像41のオブジェクト配置領域は、ステップS102の処理により設定され、入力画像41に関連付けてマスク画像41m、サイズ情報41s、パース情報41pとして保持されている。
Next, the
ステップS105の変形処理は、素材合成画像37の装飾オブジェクト37aに対応する矩形領域37pのリサイズ及びパース変換が含まれる。図9に示すように、まず制御部11は素材合成画像37の装飾オブジェクト37aのパース情報及びサイズ情報を抽出見本画像データ35(図8参照)から取得し、入力画像41のオブジェクト配置領域41pのパース情報41p及びサイズ情報41sに変換するための射影変換行列を算出する。そして、求めた射影変換行列を素材合成画像37に乗算する。これにより、素材合成画像37(装飾オブジェクト37a)のサイズ及びパースが、入力画像41のオブジェクト配置領域41pのサイズ及びパースに合うように変形される。以下、ステップS105の変形処理により得られた画像を変形後素材合成画像38と呼ぶ。また、変形後素材合成画像38内の装飾オブジェクトに対応する領域を変形後装飾オブジェクト38aと呼ぶ。
The transformation process of step S105 includes resizing and perspective conversion of the
制御部11は、ステップS105の変形処理によりリサイズ・パース変換された装飾オブジェクト38aを入力画像41に合成する(ステップS106)。ステップS106の合成処理では、制御部11は、変形後素材合成画像38からマスク領域(マスク画像38mの白値の領域)を抜き出し、入力画像41に合成する。この合成に際し、例えばポアソンブレンディング(又は、「Poisson Image Editing」とも言う。)により画像を変換して貼り付ける、いわゆる「なじませ合成」を行ってもよい。なお、ステップS106における合成処理の手法は、ポアソンブレンディングに限るものではなく、他の公知の技術を用いてもよい。
The
図11は、ポワソンブレンディングによる画像合成処理を説明する図である。ポアソンブレンディングでは、色味は貼り付け先の画像(入力画像41g)のものに依存させ、画像の勾配は貼り付け元の画像(変形後装飾オブジェクト38a)のものを用いて合成する手法である。ポアソンブレンディングでは、貼り付け元の画像データを微分値の集まりとして扱い、なるべく微分値を保存して、貼り付けの境界の値を合わせ、自然な画像合成を行う。これを実現するものが連立微分方程式(ポアソン方程式)であり、ガウスザイデル法によって解くことが可能である。
FIG. 11 is a diagram for explaining the image synthesizing process by Poisson blending. In Poisson blending, the tint depends on the image of the pasting destination image (
図11では、ポアソンブレンディングによる処理のイメージを示している。図11(a)は、ポアソンブレンディングによる処理を行う前、図11(b)は、ポアソンブレンディングによる処理を行った後のイメージを示している。 FIG. 11 shows an image of processing by Poisson blending. FIG. 11A shows an image before the Poisson blending process, and FIG. 11B shows an image after the Poisson blending process.
図11(a)では、貼り付け元の画像データ81をそのまま貼り付け先の画像データ83に配置している。従って、貼り付け範囲85の両端、すなわち貼り付けの境界87において、両者の画像データの値に大きな差異がある。このような差異があると、実際の画像においては、貼り付け元の画像データ81が浮いた感じになり、違和感が生じる。 In FIG. 11A, the image data 81 of the pasting source is arranged as it is in the image data 83 of the pasting destination. Therefore, at both ends of the pasting range 85, that is, at the pasting boundary 87, there is a large difference between the image data values of the two. If there is such a difference, in the actual image, the image data 81 that is the pasting source will appear to be floating, and a sense of discomfort will occur.
一方、図11(b)では、ポアソンブレンディングによって、色味を貼り付け先の画像データ83に依存させる形で貼り付け元の画像データ81を変換している。従って、貼り付けの境界87において、変換後の貼り付け元の画像データ89と貼り付け先の画像データ83との値に大きな差異がない。これによって、実際の画像ではあまり違和感が生じない。 On the other hand, in FIG. 11B, the pasting image data 81 is converted by Poisson blending so that the tint depends on the pasting image data 83. Therefore, at the pasting boundary 87, there is no great difference in the values of the pasted image data 89 after conversion and the pasted image data 83. As a result, the actual image does not feel very strange.
このように、敢えて装飾オブジェクト(カーテン等)37a(38a)の画像の色合いを変換し、入力画像41gの色合いに近づけることによって、ユーザは、取り付けようとするカーテン単体の色や柄のみならず、部屋の壁紙、床、他の家具等の色調も総合的に考慮して、部屋に取り付けるカーテンの色や柄を選択することができる。
In this way, by intentionally converting the hue of the image of the decoration object (curtain or the like) 37a (38a) and bringing it closer to the hue of the
ステップS106の合成処理により合成画像5を得ると、制御部11は、合成画像5を出力(記憶部12への記憶、表示部16への表示等)し(ステップS107)、一連の装飾シミュレーションに関する処理を終了する。
When the
なお、ステップS107における出力の結果、ユーザが合成画像5を確認し、合成の結果が不満である場合や、別の色や柄を試したい場合等は、ステップS102へ戻り素材データ32の再指定やオブジェクト配置領域41pの再設定等を行ってステップS103以降の処理を繰り返してもよい。
If the user confirms the
以上説明したように、本発明に係る装飾シミュレーション装置1によれば、ユーザが所望の入力画像41gを入力し、入力画像41gに対しオブジェクト配置領域41pを設定し、適用する色や柄等の素材画像36gを設定すると、装飾シミュレーション装置1の制御部11は、入力画像41gに類似する見本画像35gを記憶部12から抽出し、見本画像35g内のオブジェクト領域に指定素材画像36gを合成した素材合成画像37を生成する。更に、制御部11は生成した素材合成画像37の装飾オブジェクト37a(変形後装飾オブジェクト38a)を入力画像41g内のオブジェクト配置領域41pに合成した合成画像5を生成する。これにより、入力画像41gに無地のオブジェクトが配置されていない場合や、既に柄があるオブジェクトが配置されている場合であっても、入力画像41に類似する見本画像を用いて装飾オブジェクト37a(変形後装飾オブジェクト38a)を生成して入力画像41に合成するため、オブジェクトの配置(サイズやパース)や空間の照明環境等の特徴を見本画像と同等にでき、合成した際の親和性が高い高品質な装飾シミュレーション画像(合成画像5)を生成できる。
As described above, according to the decoration simulation device 1 of the present invention, the user inputs the desired
以上、添付図面を参照して、本発明に係る装飾シミュレーション装置等の好適な実施形態について説明したが、本発明は係る例に限定されない。当業者であれば、本願で開示した技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。 The preferred embodiments of the decoration simulation device and the like according to the present invention have been described above with reference to the accompanying drawings, but the present invention is not limited to the examples. It is obvious to those skilled in the art that various modifications or modifications can be conceived within the scope of the technical idea disclosed in the present application, and naturally, those modifications and modifications are also included in the technical scope of the present invention. Understood.
1……………………装飾シミュレーション装置
11…………………制御部
12…………………記憶部
13…………………メディア入出力部
14…………………通信制御部
15…………………入力部
16…………………表示部
17…………………周辺機器I/F部
18…………………バス
21…………………画像入力部
22…………………素材、オブジェクト配置領域設定部
23…………………見本画像抽出部
24…………………識別器
25…………………素材合成画像生成部
26…………………変形部
27…………………画像合成部
28…………………合成画像出力部
31…………………見本画像データ
31g………………見本画像
31m………………マスク画像
31s………………サイズ情報
31p………………パース情報
32…………………素材データ
32g………………素材画像
32s………………サイズ情報
35…………………抽出見本画像データ
35g………………抽出見本画像
35m………………マスク画像
35s………………サイズ情報
35p………………パース情報
36…………………指定素材
36g………………素材画像
36s………………サイズ情報
37…………………素材合成画像
37a………………装飾オブジェクト
37m………………マスク画像
37p………………パース(矩形領域)
37q………………変形後のパース(矩形領域)
38…………………変形後素材合成画像
38a………………変形後装飾オブジェクト
38m………………変形後マスク画像
41…………………入力画像
41m………………マスク画像
41p………………オブジェクト配置領域(矩形領域)
5……………………合成画像
81…………………貼り付け元の画像データ
83…………………貼り付け先の画像データ
85…………………貼り付け範囲
87…………………貼り付けの境界
89…………………変形後の貼り付け元の画像データ
1 ……………………
37q ……………… Perspective after transformation (rectangular area)
38 …………………… Composite image after
5 …………………… Composite image 81 …………………… Paste source image data 83 …………………… Paste destination image data 85 ………………… Paste range 87 …………………… Border of pasting 89 …………………… Image data of pasting source after transformation
Claims (8)
任意の画像を入力する入力手段と、
入力された画像に対するオブジェクト配置領域の設定及びオブジェクト配置領域に適用する素材画像と前記素材画像の設定とを受け付ける設定手段と、
前記入力された画像と比較して、前記入力された画像と所定のオブジェクトの幾何形状又は画像の色味が最も類似する単一の見本画像を前記記憶手段から抽出する抽出手段と、
抽出された見本画像内のオブジェクト領域に対し前記設定手段により設定した素材画像を適用した素材合成画像を生成する素材合成画像生成手段と、
生成した素材合成画像から前記オブジェクト領域を抜き出し、前記入力された画像内に設定されたオブジェクト配置領域に合成する合成手段と、
を備えることを特徴とする装飾シミュレーション装置。 Storage means for accumulating and storing a plurality of sample images having an object to be decorated, and a plurality of material images constituting the color and pattern of the object;
An input means for inputting an arbitrary image,
Setting means for receiving the setting of the object placement area for the input image and the material image to be applied to the object placement area and the setting of the material image,
Extraction means for extracting, from the storage means, a single sample image in which the input image has a geometrical shape of a predetermined object or the tint of the image most similar to the input image ,
A material composite image generation means for generating a material composite image in which the material image set by the setting means is applied to the object area in the extracted sample image,
A synthesizing means for extracting the object area from the generated material composite image and synthesizing it with the object arrangement area set in the input image;
A decoration simulation device comprising:
前記抽出手段は、前記識別器を用いて前記入力された画像と比較して、前記入力された画像と所定のオブジェクトの幾何形状又は画像の色味が最も類似する単一の見本画像を抽出することを特徴とする請求項1に記載の装飾シミュレーション装置。 By performing a learning process using a plurality of sample images stored in the storage unit, the input image and the geometric shape of the predetermined object or the tint of the image are compared with the input image. Further comprising a discriminator generating means for generating a discriminator for discriminating the most similar single sample image,
The extracting means extracts a single sample image having a geometrical shape of a predetermined object or a color shade of the image most similar to the input image by comparing the input image using the classifier. The decoration simulation device according to claim 1, wherein:
前記設定手段は、前記オブジェクト配置領域のサイズ情報、及びパース情報を含むオブジェクト情報の設定を受け付け、
前記抽出手段は、前記オブジェクト情報に基づいて前記入力された画像に類似する見本画像を抽出することを特徴とする請求項1または請求項2に記載の装飾シミュレーション装置。 In each sample image stored in the storage unit, a mask image corresponding to the object area, size information, and object information including perspective information are stored in advance in association with each other,
The setting means receives the size information of the object placement area and the setting of object information including perspective information,
The decoration simulation device according to claim 1, wherein the extraction unit extracts a sample image similar to the input image based on the object information.
任意の画像を入力するステップと、
入力された画像に対するオブジェクト配置領域の設定及びオブジェクト配置領域に適用する素材画像と前記素材画像の設定とを受け付けるステップと、
前記入力された画像と比較して、前記入力された画像と所定のオブジェクトの幾何形状又は画像の色味が最も類似する単一の見本画像を前記記憶部から抽出するステップと、
抽出された見本画像内のオブジェクト領域に対し前記設定した素材画像を適用した素材合成画像を生成するステップと、
生成した素材合成画像から前記オブジェクト領域を抜き出し、前記入力された画像内の設定されたオブジェクト配置領域に合成するステップと、
を含むことを特徴とする装飾シミュレーション方法。 A control unit of a computer having a storage unit that stores and stores a plurality of sample images having an object to be decorated and a plurality of material images forming the color and pattern of the object,
Inputting an arbitrary image,
A step of receiving the setting of the object arrangement area for the input image and the material image applied to the object arrangement area and the setting of the material image;
Extracting from the storage unit a single sample image in which the input image has a geometrical shape of a predetermined object or the tint of the image most similar to the input image ;
Generating a material composite image in which the set material image is applied to the object area in the extracted sample image,
A step of extracting the object area from the generated material composite image and combining with the set object arrangement area in the input image;
A decoration simulation method comprising:
装飾対象のオブジェクトを有する複数の見本画像と、前記オブジェクトの色及び柄を構成する複数の素材とを蓄積記憶する記憶手段と、
任意の画像を入力する入力手段と、
入力された画像に対するオブジェクト配置領域の設定及びオブジェクト配置領域に適用する素材画像の設定と前記素材画像の設定とを受け付ける設定手段と、
前記入力された画像と比較して、前記入力された画像と所定のオブジェクトの幾何形状又は画像の色味が最も類似する単一の見本画像を前記記憶手段から抽出する抽出手段と、
抽出された見本画像内のオブジェクト領域に対し前記設定手段により設定した素材画像を適用した素材合成画像を生成する素材合成画像生成手段と、
生成した素材合成画像から前記オブジェクト領域を抜き出し、前記入力された画像内に設定されたオブジェクト配置領域に合成する合成手段、
として機能させるためのプログラム。 Computer,
Storage means for accumulating and storing a plurality of sample images having an object to be decorated and a plurality of materials constituting the color and pattern of the object;
An input means for inputting an arbitrary image,
Setting means for accepting the setting of the object placement area for the input image, the setting of the material image applied to the object placement area, and the setting of the material image;
Extraction means for extracting, from the storage means, a single sample image in which the input image has a geometrical shape of a predetermined object or the tint of the image most similar to the input image ,
A material composite image generation means for generating a material composite image in which the material image set by the setting means is applied to the object area in the extracted sample image,
A synthesizing means for extracting the object area from the generated material composite image and synthesizing it with the object arrangement area set in the input image,
Program to function as.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016061649A JP6696256B2 (en) | 2016-03-25 | 2016-03-25 | Decoration simulation device, decoration simulation method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016061649A JP6696256B2 (en) | 2016-03-25 | 2016-03-25 | Decoration simulation device, decoration simulation method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017175523A JP2017175523A (en) | 2017-09-28 |
JP6696256B2 true JP6696256B2 (en) | 2020-05-20 |
Family
ID=59973285
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016061649A Active JP6696256B2 (en) | 2016-03-25 | 2016-03-25 | Decoration simulation device, decoration simulation method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6696256B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7168526B2 (en) * | 2019-06-28 | 2022-11-09 | Line株式会社 | program, information processing method, terminal |
JP7543836B2 (en) | 2020-10-22 | 2024-09-03 | 富士フイルムビジネスイノベーション株式会社 | Information processing device and information processing program |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH111814A (en) * | 1997-04-11 | 1999-01-06 | Toray Ind Inc | Production of garment or ornament and device for supporting production of garment or ornament |
-
2016
- 2016-03-25 JP JP2016061649A patent/JP6696256B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017175523A (en) | 2017-09-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7370527B2 (en) | Method and computer program for generating three-dimensional model data of clothing | |
JP5299173B2 (en) | Image processing apparatus, image processing method, and program | |
GB2559446A (en) | Generating a three-dimensional model from a scanned object | |
US20050007378A1 (en) | Texturing method and apparatus | |
JP2006114024A (en) | Caricature character generating system and method | |
WO1999019838B1 (en) | Method and system for estimating jointed-figure configurations | |
JP2010140476A (en) | Image processing method, computer readable medium, and image processing system | |
CN103139478A (en) | Photographing method with real-time rendering of main image and secondary image | |
JP6696256B2 (en) | Decoration simulation device, decoration simulation method, and program | |
JP2016071682A (en) | Object arrangement device, object arrangement method, and program | |
CN106447756A (en) | Method and system for generating a user-customized computer-generated animation | |
Ryffel et al. | AR Museum: A mobile augmented reality application for interactive painting recoloring | |
US20220138840A1 (en) | Systems and methods for visualizing wall coverings in an image of a scene | |
JP4850676B2 (en) | Image generating apparatus and image generating method | |
US20160284072A1 (en) | System for photo customizable caricature generation for custom products | |
JP6891473B2 (en) | Pattern change simulation device, pattern change simulation method, and program | |
EP2038848B1 (en) | Facilitating image-editing operations across multiple perspective planes | |
JP2008077604A (en) | Texture filtering device, and texture mapping device, method and program | |
CN101930340A (en) | Method for generating lighting effect by simulating real page turning for electronic book | |
Ligon | Digital art revolution | |
US11770496B2 (en) | Systems and methods for visualizing surface coverings in an image of a scene | |
JP5337250B2 (en) | Image processing apparatus and method | |
JP2005293616A (en) | Image synthesis device | |
Shen et al. | Completion-based texture design using deformation | |
JP3967036B2 (en) | Image synthesizer |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190130 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191111 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191126 |
|
RD13 | Notification of appointment of power of sub attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7433 Effective date: 20191225 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20191225 Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200120 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200218 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200309 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200324 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200406 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6696256 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |