JP6910605B2 - Image processing device and image processing method - Google Patents

Image processing device and image processing method Download PDF

Info

Publication number
JP6910605B2
JP6910605B2 JP2017097783A JP2017097783A JP6910605B2 JP 6910605 B2 JP6910605 B2 JP 6910605B2 JP 2017097783 A JP2017097783 A JP 2017097783A JP 2017097783 A JP2017097783 A JP 2017097783A JP 6910605 B2 JP6910605 B2 JP 6910605B2
Authority
JP
Japan
Prior art keywords
marker
block
image
unit
pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017097783A
Other languages
Japanese (ja)
Other versions
JP2018195038A (en
Inventor
翔貴 宮川
翔貴 宮川
史弥 成田
史弥 成田
吉博 福原
吉博 福原
繁生 森島
繁生 森島
憲弘 小形
憲弘 小形
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiren Co Ltd
Waseda University
Original Assignee
Seiren Co Ltd
Waseda University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiren Co Ltd, Waseda University filed Critical Seiren Co Ltd
Priority to JP2017097783A priority Critical patent/JP6910605B2/en
Publication of JP2018195038A publication Critical patent/JP2018195038A/en
Application granted granted Critical
Publication of JP6910605B2 publication Critical patent/JP6910605B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、被写体の画像データにテクスチャ画像データを重畳した合成画像データを生成する画像処理装置及び画像処理方法に関する。 The present invention relates to an image processing apparatus and an image processing method for generating composite image data in which texture image data is superimposed on subject image data.

近年拡張現実(AR;Augmented Reality)と呼ばれる技術分野での研究開発が進められてきており、現実の被写体の画像に様々な画像を重ね合せてディスプレイに表示することで、被写体の画像とともにより多くの情報を視認することができるようになっている。 In recent years, research and development in a technical field called Augmented Reality (AR) has been promoted, and by superimposing various images on the image of the actual subject and displaying it on the display, more images can be obtained together with the image of the subject. Information can be visually recognized.

AR技術を用いることで、現実の被写体の画像に対してテクスチャ画像を重ね合せて仮想的に被写体の表面の模様や色合い等を変更することが簡単にできるようになり、様々な分野に応用されるようになってきている。例えば、特許文献1では、ユーザを撮影し、モーションキャプチャの技術を用いてユーザが現実に着用している服を仮想服に置き換えて画像表示する画像処理装置が記載されている。また、特許文献2では、カメラが撮影している映像からマーカを認識して映像をユーザ画像として取得し、ユーザ画像のマーカの位置とユーザの身体位置を対応付けし、データベースから取得した衣料品画像をユーザ画像に合成した試着画像を生成して表示する画像処理装置が記載されている。 By using AR technology, it becomes possible to easily superimpose a texture image on an image of a real subject and virtually change the pattern and color tone of the surface of the subject, and it is applied to various fields. It is becoming more like. For example, Patent Document 1 describes an image processing device that photographs a user and uses a motion capture technique to replace the clothes actually worn by the user with virtual clothes and display an image. Further, in Patent Document 2, a marker is recognized from an image captured by a camera, the image is acquired as a user image, the position of the marker in the user image is associated with the position of the user's body, and the clothing acquired from the database. An image processing device that generates and displays a fitting image obtained by synthesizing an image with a user image is described.

こうした被写体の画像に表示されたマーカを識別してテクスチャ画像を重ね合せる手法では、予めマーカとテクスチャ画像のテクスチャ座標と対応付けておくことで、被写体の画像内のマーカを識別した際に容易にテクスチャ座標を決定することができる。被写体の画像内のマーカの識別方法としては、例えば、非特許文献1では、テクスチャ画像を重ね合せる領域に5種類の色から選択された単一色の円形マーカを複数個配列し、縦3列×横3列の範囲のマーカの色の配列を参照して範囲の中心のマーカを識別する方法が記載されている。また、非特許文献2では、黒い点の個数が異なる4種類のマーカを配置し、非特許文献1に記載された識別方法と同様に局所的な範囲に配列された複数のマーカを参照することでマーカを識別する方法が記載されている。 In such a method of identifying the markers displayed on the subject image and superimposing the texture images, by associating the markers with the texture coordinates of the texture image in advance, it is easy to identify the markers in the subject image. The texture coordinates can be determined. As a method for identifying markers in a subject image, for example, in Non-Patent Document 1, a plurality of single-color circular markers selected from five types of colors are arranged in an area where texture images are superimposed, and three vertical columns × A method of identifying the marker at the center of the range by referring to the color array of the markers in the range of three horizontal columns is described. Further, in Non-Patent Document 2, four types of markers having different numbers of black dots are arranged, and a plurality of markers arranged in a local range are referred to in the same manner as the identification method described in Non-Patent Document 1. Describes how to identify the marker in.

特開2012−252437号公報Japanese Unexamined Patent Publication No. 2012-252437 特開2012−144827号公報Japanese Unexamined Patent Publication No. 2012-144827

Scholz, V. and Magnor, M., “ Texture replacement of garments in monocular video sequences ”, In: Heidrich, W., Akenine- Moeller, T. (eds.) Rendering Techniques 2006, Eurographics Symposium on Rendering, pp. 305312. Eu-rographics (EG), ACM SIGGRAPH, Eurographics, Nicosia, Cyprus (2006) 27Scholz, V. and Magnor, M., “Texture replacement of garments in monocular video sequences”, In: Heidrich, W., Akenine- Moeller, T. (eds.) Rendering Techniques 2006, Eurographics Symposium on Rendering, pp. 305312 . Eu-rographics (EG), ACM SIGGRAPH, Eurographics, Nicosia, Cyprus (2006) 27 Gaku Narita, YoshihiroWatanabe, Masatoshi Ishikawa,“Dynamic Projection Mapping onto Deforming Non-rigid Surface using Deformable Dot Cluster Marker”, IEEE Transactions on Visualization and Computer Graphics., 2016Gaku Narita, Yoshihiro Watanabe, Masatoshi Ishikawa, “Dynamic Projection Mapping onto Deforming Non-rigid Surface using Deformable Dot Cluster Marker”, IEEE Transactions on Visualization and Computer Graphics., 2016

特許文献1及び2では、ユーザ画像に衣料品画像等のテクスチャ画像を重ね合せた合成画像を表示することができるが、ユーザの動きに合わせて写実的に表示することが難しい。特に、衣服といった容易に変形する被写体では、変形に追随してテクスチャ画像を重ね合せる画像処理が写実的な画像表示に必要となるが、特許文献1及び2ではこうした画像処理に十分対応することができない。 In Patent Documents 1 and 2, it is possible to display a composite image in which a texture image such as a clothing image is superimposed on a user image, but it is difficult to display it realistically according to the movement of the user. In particular, for an easily deformable subject such as clothing, image processing for superimposing texture images following the deformation is required for realistic image display, and Patent Documents 1 and 2 sufficiently support such image processing. Can not.

非特許文献1及び2では、変形する被写体に表示されたマーカを検出し、マーカに対応づけられたテクスチャ座標に基づいてテクスチャ画像を補正することで、被写体の変形に追随してテクスチャ画像を重ね合せることができるようになっている。しかしながら、非特許文献1では、マーカが印刷された生地が黒色で着色されており、陰影の補間処理に時間がかかるため、オンラインの処理を想定していない。また、非特許文献2では、ハイスピードカメラやIRインク等の機器が必要となり、配置可能なマーカの数にも上限があって被写体の全身に拡張するのが難しい。 In Non-Patent Documents 1 and 2, the marker displayed on the deformed subject is detected, and the texture image is corrected based on the texture coordinates associated with the marker, so that the texture image is superimposed according to the deformation of the subject. It is possible to match. However, Non-Patent Document 1 does not assume online processing because the fabric on which the marker is printed is colored in black and it takes time to interpolate the shadows. Further, in Non-Patent Document 2, equipment such as a high-speed camera and IR ink is required, and there is an upper limit to the number of markers that can be arranged, and it is difficult to extend the whole body of the subject.

また、局所的な範囲の複数のマーカを検出してマーカを識別するようにしているため、例えば、スカート等の被写体に皺が寄ることで局所的な範囲が一部遮蔽されて識別できない状態となった場合に、マーカを正確に識別できなくなる、といった課題がある。 In addition, since a plurality of markers in a local range are detected to identify the markers, for example, a wrinkle on a subject such as a skirt may partially block the local range and make it impossible to identify. In that case, there is a problem that the marker cannot be accurately identified.

そこで、本発明は、変形する被写体画像に対してテクスチャ画像を精度よく重ね合せることができる画像処理装置及び画像処理方法を提供することを目的とするものである。 Therefore, an object of the present invention is to provide an image processing apparatus and an image processing method capable of accurately superimposing a texture image on a deformed subject image.

本発明に係る画像処理装置は、テクスチャ画像データを記憶する画像データ記憶部と、被写体の表面に配列して表示されるとともに個別に識別可能でかつ所定数毎のブロック単位を識別可能なパターンで生成された複数のマーカをテクスチャ画像データのテクスチャ座標位置と関連付けて記憶するとともに各ブロック単位について周囲に配置された他のブロック単位と関連付けて識別するブロック識別情報を記憶する識別データ記憶部と、前記被写体の画像データに基づいて前記マーカ及びその表示位置を検出する検出処理部と、検出された前記マーカの前記パターンに基づいて前記マーカを前記ブロック単位に区分する区分処理部と、区分された前記ブロック単位について前記ブロック識別情報に基づいて前記ブロック単位を識別するとともに識別された前記ブロック単位内の前記マーカを識別する識別処理部と、識別された前記マーカの表示位置及び当該マーカに関連付けられたテクスチャ座標位置に基づいて前記テクスチャ画像データを補正するとともに補正された前記テクスチャ画像データを前記被写体の画像データに重畳した合成画像データを生成する合成処理部とを備えている。さらに、前記マーカは、前記ブロック単位を識別する共通の第一パターン及び前記ブロック単位に含まれる前記マーカを識別する個別の第二パターンを組み合せて生成されており、前記ブロック識別情報は、前記ブロック単位のそれぞれに含まれる前記第一パターンに基づいて生成されている。 The image processing apparatus according to the present invention has an image data storage unit that stores texture image data and a pattern that is displayed in an array on the surface of the subject and can be individually identified and can identify each block unit for each predetermined number. An identification data storage unit that stores a plurality of generated markers in association with the texture coordinate position of the texture image data and stores identification information for identifying each block unit in association with other block units arranged around the block unit. It is divided into a detection processing unit that detects the marker and its display position based on the image data of the subject, and a classification processing unit that divides the marker into the block units based on the detected pattern of the marker. The block unit is associated with the identification processing unit that identifies the block unit based on the block identification information and identifies the marker in the identified block unit, the display position of the identified marker, and the marker. It is provided with a compositing processing unit that corrects the texture image data based on the texture coordinate position and generates a composite image data in which the corrected texture image data is superimposed on the image data of the subject. Further, the marker is generated by combining a common first pattern for identifying the block unit and an individual second pattern for identifying the marker included in the block unit, and the block identification information is generated by combining the block identification information. It is generated based on the first pattern included in each of the units.

本発明に係る画像処理方法は、個別に識別可能でかつ所定数毎のブロック単位を識別可能なパターンで複数のマーカを生成するとともに各ブロック単位について周囲に配置された他のブロック単位と関連付けて識別するブロック識別情報を生成し、記憶されたテクスチャ画像データのテクスチャ座標位置と前記マーカとを関連付けて記憶し、前記マーカを前記ブロック単位で配列して表面に表示した被写体の画像データに基づいて前記マーカ及びその表示位置を検出し、検出された前記マーカの前記パターンに基づいて前記マーカを前記ブロック単位に区分し、区分された前記ブロック単位について前記ブロック識別情報に基づいて前記ブロック単位を識別するとともに識別された前記ブロック単位内の前記マーカを識別し、識別された前記マーカの表示位置及び当該マーカに関連付けられたテクスチャ座標位置に基づいて前記テクスチャ画像データを補正するとともに補正された前記テクスチャ画像データを前記被写体の画像データに重畳した合成画像データを生成する。さらに、前記マーカは、前記ブロック単位を識別する共通の第一パターン及び前記ブロック単位に含まれる前記マーカを識別する個別の第二パターンを組み合せて生成され、前記ブロック識別情報は、前記ブロック単位のそれぞれに含まれる前記第一パターンに基づいて生成される。 The image processing method according to the present invention generates a plurality of markers in a pattern that can be individually identified and can identify each block unit for each predetermined number, and associates each block unit with other block units arranged around the block unit. The block identification information to be identified is generated, the texture coordinate position of the stored texture image data is stored in association with the marker, and the markers are arranged in block units based on the image data of the subject displayed on the surface. The marker and its display position are detected, the marker is divided into the block units based on the pattern of the detected markers, and the block units are identified based on the block identification information for the divided block units. The texture image data is corrected and the corrected texture is corrected based on the display position of the identified marker and the texture coordinate position associated with the marker by identifying the marker in the identified block unit. A composite image data is generated by superimposing the image data on the image data of the subject. Further, the marker is generated by combining a common first pattern for identifying the block unit and an individual second pattern for identifying the marker included in the block unit, and the block identification information is for the block unit. It is generated based on the first pattern included in each.

本発明は、上記の構成を有することで、被写体の表面に配列して表示されるとともに個別に識別可能でかつ所定数毎のブロック単位を識別可能なパターンで生成された複数のマーカを用いているので、被写体の変形によりマーカの一部が遮蔽された状態となってもブロック単位を識別してマーカを個別に識別することが可能となる。そのため、変形する被写体画像に対してテクスチャ画像を精度よく重ね合せることができる。 The present invention uses a plurality of markers generated in a pattern that is arranged and displayed on the surface of the subject, is individually identifiable, and can identify each block unit for each predetermined number, by having the above configuration. Therefore, even if a part of the marker is shielded due to the deformation of the subject, it is possible to identify the block unit and individually identify the marker. Therefore, the texture image can be accurately superimposed on the deformed subject image.

本発明に係る画像処理装置に関する機能ブロック構成図である。It is a functional block block diagram which concerns on the image processing apparatus which concerns on this invention. 識別性を有するマーカの一例を示す説明図である。It is explanatory drawing which shows an example of the marker which has distinctiveness. 複数のマーカが配列表示された配列パターンの一例を示す模式図である。It is a schematic diagram which shows an example of an array pattern in which a plurality of markers are displayed in an array. 配列パターンをブロック単位に区分した場合に関する説明図である。It is explanatory drawing about the case where the array pattern is divided into block units. マーカとテクスチャ画像のテクスチャ座標を関連付けた場合を例示する説明図である。It is explanatory drawing which illustrates the case where the marker and the texture coordinates of a texture image are associated. 被写体に表示したマーカが一部遮蔽される場合に関する説明図である。It is explanatory drawing about the case where a marker displayed on a subject is partially shielded. 画像処理に関する処理フローである。This is a processing flow related to image processing. 被写体画像に関する画像例である。This is an image example related to a subject image. 識別されたマーカの表示位置及びテクスチャ座標位置に基づいてテクスチャ画像を重ね合せる領域全体にメッシュモデルを生成した場合に関する説明図である。It is explanatory drawing about the case where the mesh model is generated in the whole area which superimposes the texture image based on the display position and the texture coordinate position of the identified marker. Tシャツに縦皺が寄ってマーカが隠れた状態における識別結果を示す画像例である。This is an image example showing the identification result in a state where the T-shirt is wrinkled vertically and the marker is hidden. 補正されたテクスチャ画像が被写体画像に合成された画像例である。This is an example of an image in which the corrected texture image is combined with the subject image. 陰影を付加する処理過程を示す説明図である。It is explanatory drawing which shows the processing process which adds a shadow. 別の画像処理の処理過程を示す説明図である。It is explanatory drawing which shows the processing process of another image processing.

以下、本発明の実施形態について図面を用いて説明する。なお、以下に説明する実施形態は、本発明を実施するにあたって好ましい具体例であるから、技術的に種々の限定がなされているが、本発明は、以下の説明において特に本発明を限定する旨明記されていない限り、これらの形態に限定されるものではない。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. Since the embodiments described below are preferable specific examples for carrying out the present invention, various technical restrictions are made, but the present invention particularly limits the present invention in the following description. Unless otherwise stated, it is not limited to these forms.

図1は、本発明に係る画像処理装置に関する機能ブロック構成図である。画像処理装置1は、画像入力部2から入力される被写体画像を処理するとともに被写体画像に合わせてテクスチャ画像を補正し、被写体画像に補正されたテクスチャ画像を重ね合せた合成画像を生成して画像出力部3に表示する機能を備えている。 FIG. 1 is a functional block configuration diagram relating to an image processing device according to the present invention. The image processing device 1 processes the subject image input from the image input unit 2, corrects the texture image according to the subject image, and generates a composite image in which the corrected texture image is superimposed on the subject image to generate an image. It has a function to display on the output unit 3.

画像入力部2は、被写体を実写した画像、被写体を仮想的に表現したコンピュータグラフィックス画像等を入力するようになっており、例えば、カメラ等の撮影装置により変形する物体を撮影した画像や通信ネットワーク等を介して受信された画像が入力される。被写体としては、変形する実在の物体以外に、こうした変形する物体に基づいて画像表現された仮想的な物体も含まれる。 The image input unit 2 is designed to input a live-action image of the subject, a computer graphics image that virtually represents the subject, and the like. For example, an image or communication of an object deformed by a photographing device such as a camera. The image received via the network or the like is input. The subject includes not only a real object that is deformed but also a virtual object that is image-represented based on such a deformed object.

画像出力部3は、テレビ、パソコン、スマートフォン等の携帯端末、大型ディスプレイといった種々の表示装置を備えたものを用途に合わせて使用することができ、また画像処理装置1と通信ネットワーク等を介して接続することで、様々な場所に画像出力部3を設置して画像表示を行うことができる。 The image output unit 3 can be equipped with various display devices such as a television, a personal computer, a mobile terminal such as a smartphone, and a large display according to the purpose, and can be used with the image processing device 1 via a communication network or the like. By connecting, the image output unit 3 can be installed at various places to display an image.

画像処理装置1は、画像処理部10と、テクスチャ画像データ等の画像データを記憶する画像データ記憶部11と、マーカ等の識別に関するデータを記憶する識別データ記憶部12とを備えている。画像処理部10は、画像入力部2から入力される被写体画像データ及びテクスチャ画像データ等の画像データを画像データ記憶部11に記憶する。テクスチャ画像データは、被写体画像データに重ね合せる画像データであり、例えば、被写体が衣服である場合には、衣服に表示する色彩や図柄等の柄模様といった服飾デザインに関する画像データが挙げられる。 The image processing device 1 includes an image processing unit 10, an image data storage unit 11 that stores image data such as texture image data, and an identification data storage unit 12 that stores data related to identification such as markers. The image processing unit 10 stores image data such as subject image data and texture image data input from the image input unit 2 in the image data storage unit 11. The texture image data is image data to be superimposed on the subject image data. For example, when the subject is clothing, image data related to clothing design such as a pattern such as a color or a pattern to be displayed on the clothing can be mentioned.

識別データ記憶部12には、被写体の表面に配列して表示される複数のマーカに関する識別データが記憶されており、これらのマーカは、個別に識別可能で所定数毎のブロック単位を識別可能なパターンで生成されている。ここで、ブロック単位は、所定範囲で設定されることで、ブロック単位内にはその範囲に配置された所定数のマーカが含まれるようになっている。 The identification data storage unit 12 stores identification data relating to a plurality of markers arranged and displayed on the surface of the subject, and these markers can be individually identified and a predetermined number of block units can be identified. It is generated by a pattern. Here, the block unit is set in a predetermined range, so that the block unit includes a predetermined number of markers arranged in the range.

図2は、こうした識別性を有するマーカの一例を示す説明図である。この例では、マーカMは、同心円状の二重円で構成され、円形の内側領域RAには複数種類の色から選択された1つの色が表示されており、外側のリング状領域は上下半分ずつの外側領域RB及びRCに区画されて、外側領域RB及びRCにはそれぞれ選択された1つの色が表示される。 FIG. 2 is an explanatory diagram showing an example of a marker having such distinctiveness. In this example, the marker M is composed of concentric double circles, one color selected from a plurality of kinds of colors is displayed in the circular inner region RA, and the outer ring-shaped region is the upper and lower halves. It is divided into outer regions RB and RC, and one selected color is displayed in each of the outer regions RB and RC.

内側領域RAに表示される色は、ブロック単位内のマーカでは全て同じ色を表示するように設定されている。そのため、マーカMの内側領域RAが共通の色である範囲を区分してブロック単位の色及び範囲を識別することができる。 The color displayed in the inner region RA is set so that all the markers in the block unit display the same color. Therefore, the color and range of each block can be identified by dividing the range in which the inner region RA of the marker M is a common color.

外側領域RB及びRCの表示色の組合せは、ブロック単位内のマーカMが個別に識別可能となるように設定されている。具体的には、外側領域RB及びRCにN種類の色を使用する場合に、N2通りの組合せパターンが設定されることから、ブロック単位内のマーカ数に合わせて使用する色の種類数を決めることで、ブロック単位内のマーカMを外側領域RB及びRCの表示色の組合せパターンで個別に識別することができる。 The combination of the display colors of the outer regions RB and RC is set so that the markers M in the block unit can be individually identified. Specifically, when N types of colors are used for the outer regions RB and RC, N 2 combinations patterns are set, so the number of color types to be used is set according to the number of markers in the block unit. By deciding, the marker M in the block unit can be individually identified by the combination pattern of the display colors of the outer regions RB and RC.

そして、ブロック単位内における外側領域RB及びRCの色の組合せパターンの配置を共通となるように設定することで、各ブロック単位では同じ位置のマーカMは外側領域RB及びRCの色の組合せパターンが同一となり、色の組合せパターンによりブロック単位内のマーカMの位置を識別することができる。こうした色の組合せパターンについては、各組合せパターンに対応して予めナンバリングしておくことで、識別処理の際に効率よく処理することができる。 Then, by setting the arrangement of the color combination patterns of the outer regions RB and RC in the block unit to be common, the marker M at the same position in each block unit has the color combination patterns of the outer regions RB and RC. It becomes the same, and the position of the marker M in the block unit can be identified by the color combination pattern. By numbering such color combination patterns in advance corresponding to each combination pattern, it is possible to efficiently process the identification processing.

各ブロック単位は、その周囲に配置された他のブロック単位と関連付けたブロック識別情報で識別されるようになっている。各ブロック単位の範囲は、内側領域RAの表示色の分布範囲及び外側領域RB及びRCの組合せパターンの範囲で特定することができ、識別された各ブロック単位の内側領域RAの表示色の全体からみた配置関係に基づいて、各ブロック単位の周囲に配置された他のブロック単位の表示色と関連付けたブロック識別情報を生成することができる。例えば、非特許文献1に記載されたマーカの表示色の配列方法を用いることで、ブロック単位の表示色を各ブロック単位が個別に識別可能となるように配列することが可能となり、各ブロック単位を識別可能なブロック識別情報を作成することができる。 Each block unit is identified by block identification information associated with other block units arranged around the block unit. The range of each block unit can be specified by the distribution range of the display color of the inner region RA and the range of the combination pattern of the outer region RB and RC, and from the entire display color of the inner region RA of each identified block unit. Based on the arrangement relationship seen, it is possible to generate block identification information associated with the display colors of other block units arranged around each block unit. For example, by using the method of arranging the display colors of the markers described in Non-Patent Document 1, it is possible to arrange the display colors of the block units so that each block unit can be individually identified, and each block unit can be arranged. It is possible to create block identification information that can identify.

以上説明したマーカの表示色を用いて識別する場合、被写体の実写画像に表示されたマーカMの表示色が互いに明確に区別して識別できる色を選択することが好ましい。例えば、HSV表色系等の色空間において、なるべく互いに離れた色を用いるとよい。なお、マーカは、表示色以外の識別可能な表示手段を使用してもよく、例えば、赤外線センサ等により検知可能な表示手段を用いてマーカを構成することもできる。 When identifying using the marker display colors described above, it is preferable to select a color in which the display colors of the markers M displayed on the live-action image of the subject can be clearly distinguished from each other. For example, in a color space such as the HSV color system, it is preferable to use colors that are as far apart from each other as possible. As the marker, an identifiable display means other than the display color may be used, and for example, the marker can be configured by using a display means that can be detected by an infrared sensor or the like.

上述した例では、色の組合せによるマーカのパターンを説明したが、ブロック単位を識別する共通のパターン及びブロック単位内のマーカを識別する個別のパターンを組み合せて各マーカを階層的なパターンの組み合せで構成すればよい。そのため、マーカのデザインは自由に変更することが可能で、例えば、点と線の組み合せでも構成することができ、色の組み合せに限定されない。また、被写体が本来有する色をマーカの1つのパターンに使用することもでき、こうしたパターンであればマーカの検出処理を簡略化することも可能となる。 In the above example, the marker pattern based on the color combination has been described, but each marker is a combination of hierarchical patterns by combining a common pattern for identifying a block unit and an individual pattern for identifying a marker within a block unit. It may be configured. Therefore, the design of the marker can be freely changed, and for example, it can be configured by a combination of points and lines, and is not limited to a combination of colors. Further, the color originally possessed by the subject can be used for one pattern of the marker, and such a pattern makes it possible to simplify the marker detection process.

図3は、複数のマーカMが配列表示された配列パターンHの一例を示す模式図である。また、図4は、図3に示す配列パターンHをブロック単位Kに区分した場合を例示した説明図(図4(a))、区分されたブロック単位Kの表示色(内側領域RAの表示色)を円形のマークで置き換えて例示した説明図(図4(b))及びブロック単位内のマーカの配列を例示した説明図(図4(c))である。 FIG. 3 is a schematic diagram showing an example of an array pattern H in which a plurality of markers M are arranged and displayed. Further, FIG. 4 is an explanatory diagram (FIG. 4A) illustrating the case where the array pattern H shown in FIG. 3 is divided into block units K, and the display color of the divided block unit K (display color of the inner region RA). ) Is replaced with a circular mark (FIG. 4 (b)) and an explanatory diagram (FIG. 4 (c)) illustrating the arrangement of markers in the block unit.

図3に示すように、マーカMの各領域の表示色の違いを濃淡の違いで模式的に表示している。この例では、マーカMは、縦横に9個ずつ81個が等間隔で配列されており、縦横に3個ずつ区分してブロック単位Kが設定されている。なお、マーカMの配列方法はテクスチャ画像のテクスチャ座標に合わせて適宜設定すればよく、ブロック単位の範囲についても被写体の変形による遮蔽範囲を想定して設定すればよい。 As shown in FIG. 3, the difference in the display color of each region of the marker M is schematically displayed by the difference in shade. In this example, 81 markers M are arranged at equal intervals of 9 in each of the vertical and horizontal directions, and the block unit K is set by dividing them into 3 in each of the vertical and horizontal directions. The method of arranging the markers M may be appropriately set according to the texture coordinates of the texture image, and the range of each block may be set assuming the shielding range due to the deformation of the subject.

各ブロック単位Kの表示色となるマーカMの内側領域RAの表示色は、例えば、赤・緑・青・黒の4色から選択し、非特許文献1に記載された公知の選択手法と同様に選択して配置すればよい。外側領域RB及びRCの表示色に用いる種類の数は、各ブロック単位Kのマーカ数が9個であることから、3色以上であればよく、互いに明確に区別して検出可能な色を選択すればよい。色数が増加するとマーカを誤って検出する可能性が高くなることから、この例では、3色を選択している。例えば、黄、シアン、マゼンタの3色から2色を選択して、ブロック単位K内の外側領域RB及びRCの組合せパターンに合わせて配色する。 The display color of the inner region RA of the marker M, which is the display color of each block unit K, is selected from, for example, four colors of red, green, blue, and black, and is the same as the known selection method described in Non-Patent Document 1. You can select and place it in. Since the number of types used for the display colors of the outer regions RB and RC is 9 for each block unit K, it may be 3 or more colors, and a color that can be clearly distinguished from each other and detected should be selected. Just do it. As the number of colors increases, the possibility of erroneously detecting the marker increases, so in this example, three colors are selected. For example, two colors are selected from the three colors of yellow, cyan, and magenta, and the colors are arranged according to the combination pattern of the outer regions RB and RC in the block unit K.

図4(b)に示すように、この例では、ブロック単位を識別するブロック識別情報は、1つのブロック単位とその周囲に配置された8個のブロック単位について計9個の表示色に対応する識別情報(ID)を時計回りに順次配列して作成することができる。例えば、4つの表示色に対してそれぞれ1から4の数字を当てはめ、表示色の配列に対応した数字列を作成してブロック識別情報とすればよい。また、被写体画像の配列パターンが回転して表示されることが想定される場合には、回転に応じた配列順序で数字列を作成して1つのブロック単位に関して複数のブロック識別情報を作成するようにしてもよい。また、角部のブロック単位では周囲に配置されたブロック単位は3個で、辺部のブロック単位では周囲に配置されたブロック単位は5個となるが、これらについても表示色の時計回りの配列順序でブロック識別情報を作成することができる。 As shown in FIG. 4B, in this example, the block identification information for identifying the block unit corresponds to a total of nine display colors for one block unit and eight block units arranged around the block unit. The identification information (ID) can be sequentially arranged clockwise and created. For example, numbers 1 to 4 may be applied to each of the four display colors, and a number string corresponding to the array of display colors may be created and used as block identification information. In addition, when it is assumed that the arrangement pattern of the subject image is rotated and displayed, a number string is created in the arrangement order according to the rotation, and a plurality of block identification information is created for one block unit. It may be. In addition, in the corner block unit, the number of block units arranged around is three, and in the side block unit, the number of block units arranged around is five. These are also arranged clockwise in the display color. Block identification information can be created in order.

こうしてブロック単位をブロック識別情報により識別するとともにブロック単位内のマーカを個別に識別することで、各マーカを階層的に識別することができる。この例では、各マーカを個別に識別するために、図4(c)に示すように、各マーカの外側領域の組み合せパターンに応じて1〜9の数字を当てはめて識別するようにしている。 By identifying the block unit by the block identification information and individually identifying the markers in the block unit in this way, each marker can be hierarchically identified. In this example, in order to identify each marker individually, as shown in FIG. 4C, numbers 1 to 9 are applied and identified according to the combination pattern of the outer region of each marker.

そして、各マーカをテクスチャ画像のテクスチャ座標と関連付けておくことで、被写体画像に表示されたマーカの表示位置に関連付けてテクスチャ画像を重ね合せることが可能となる。図5は、マーカとテクスチャ画像のテクスチャ座標を関連付けた場合を例示する説明図である。この例では、柄模様からなるテクスチャ画像Gのテクスチャ座標を配列パターンHを構成する複数のマーカと対応付けている。 Then, by associating each marker with the texture coordinates of the texture image, it is possible to superimpose the texture image in association with the display position of the marker displayed on the subject image. FIG. 5 is an explanatory diagram illustrating a case where the marker and the texture coordinates of the texture image are associated with each other. In this example, the texture coordinates of the texture image G composed of the pattern pattern are associated with a plurality of markers constituting the array pattern H.

以上説明したように、識別データ記憶部12には、生成されたマーカのパターン及び所定数のマーカ毎に設定されたブロック単位を識別するためのデータとともに各マーカとテクスチャ座標位置とを対応付けるデータが登録されている。 As described above, the identification data storage unit 12 contains data for associating each marker with the texture coordinate position together with data for identifying the generated marker pattern and block units set for each predetermined number of markers. It is registered.

画像処理部10は、検出処理部101、区分処理部102、識別処理部103及び合成処理部104を備えており、検出処理部101は、被写体の画像データに基づいてマーカ及びその表示位置を検出する処理を行う。被写体を実写した撮影画像の場合には、被写体に対する背景画像を分離するマスク処理を行い、マーカの誤検出を減らすための前処理を行うことが好ましい。上述した例のように、マーカを色彩によるパターンで構成している場合には、構成する色を画像から検出する処理を行うことで、マーカのパターン及びその表示位置を検出することができる。 The image processing unit 10 includes a detection processing unit 101, a classification processing unit 102, an identification processing unit 103, and a synthesis processing unit 104, and the detection processing unit 101 detects a marker and its display position based on the image data of the subject. Perform the processing to be performed. In the case of a photographed image in which the subject is actually photographed, it is preferable to perform mask processing for separating the background image for the subject and perform preprocessing for reducing false detection of markers. When the marker is composed of a color pattern as in the above-mentioned example, the marker pattern and its display position can be detected by performing the process of detecting the constituent colors from the image.

具体的には、各色の二値画像を作成してラベリング処理を行い、面積が一定の範囲にあるものをマーカ領域として分類する。二値画像に対しては、メディアンフィルタ及びモルフォロジー演算を行うことで、ノイズを減らして誤検出のリスクを小さくすることができる。 Specifically, a binary image of each color is created, labeling processing is performed, and those having an area within a certain range are classified as a marker area. For binary images, noise can be reduced and the risk of false positives can be reduced by performing median filters and morphology calculations.

得られた二値画像に基づいてパターンの内側領域及び外側領域の色の組み合わせを決定し、内側領域に対応する画像領域の重心位置から外側領域に対応する画像領域の重心位置までの距離を算出し、一定の値以下であれば同一のマーカであると判定してマーカ検出を行うことができる。その際に、外側領域の組合せパターンにより各マーカを特定することができ、例えば、ナンバリングしたデータで特定すればよい。また、マーカの表示位置については、例えば、内側領域の重心座標を表示位置として用いるとよい。こうして、被写体画像に表示されたマーカ及びその表示位置を検出することができる。 Based on the obtained binary image, the color combination of the inner region and the outer region of the pattern is determined, and the distance from the center of gravity position of the image region corresponding to the inner region to the center of gravity position of the image region corresponding to the outer region is calculated. However, if the value is equal to or less than a certain value, it can be determined that the markers are the same, and the marker can be detected. At that time, each marker can be specified by the combination pattern of the outer region, and for example, it may be specified by the numbered data. As for the display position of the marker, for example, the coordinates of the center of gravity of the inner region may be used as the display position. In this way, the marker displayed on the subject image and its display position can be detected.

区分処理部102は、検出処理部101において検出されたマーカのパターンに基づいてマーカをブロック単位に区分する処理を行う。上述した例では、マーカの内側領域の色はブロック単位で同一の色を用いており、外側領域の色の組合せパターンは各ブロック単位で共通とされているため、各マーカの外側領域の組合せを確認していくことで、ブロック単位を識別するとともにその範囲を特定して区分する処理を行うことができる。衣服のように容易に変形する被写体では、図6に例示するように、被写体に表示した配列パターン(図6(a)参照)において一部のマーカが遮蔽される(図6(b)参照)場合があるが、被写体画像においてブロック単位を構成するマーカが図6(b)に示すように一部表出していれば、表出したマーカの内側領域の色及び外側領域の組合せを確認することで、ブロック単位に区分することができる。 The classification processing unit 102 performs a process of classifying the markers into block units based on the marker pattern detected by the detection processing unit 101. In the above example, the color of the inner region of the marker is the same for each block, and the color combination pattern of the outer region is common for each block. Therefore, the combination of the outer regions of each marker is used. By checking, it is possible to identify the block unit and to specify and classify the range. In a subject that is easily deformed, such as clothing, some markers are shielded in the arrangement pattern (see FIG. 6A) displayed on the subject, as illustrated in FIG. 6 (see FIG. 6B). In some cases, if the markers constituting the block unit are partially displayed in the subject image as shown in FIG. 6 (b), the combination of the color of the inner region and the outer region of the displayed markers should be confirmed. Can be divided into blocks.

識別処理部103は、区分されたブロック単位についてブロック識別情報に基づいてブロック単位を識別するとともに識別されたブロック単位内のマーカを識別する処理を行う。上述した例では、各ブロック単位のマーカの内側領域の表示色に基づいてブロック識別情報を作成しているので、1つのブロック単位とその周囲に配置されたブロック単位について、表示色を時計回りに順次確認してブロック識別情報を一致するか否か判定し、一致する場合には登録されたブロック単位として識別する。 The identification processing unit 103 identifies the divided block units based on the block identification information, and also identifies the markers in the identified block units. In the above example, since the block identification information is created based on the display color of the inner area of the marker of each block unit, the display color is clockwise for one block unit and the block units arranged around it. The block identification information is sequentially checked to determine whether or not they match, and if they match, the block identification information is identified as a registered block unit.

図6に示す例においても、ブロック単位の一部のマーカが表出しているので、ブロック単位の表示色を識別することが可能となり、ブロック単位をブロック識別情報に基づいて識別することができる。 Also in the example shown in FIG. 6, since some markers of the block unit are displayed, the display color of the block unit can be identified, and the block unit can be identified based on the block identification information.

ブロック単位が識別されることで、ブロック単位内のマーカについても外側領域の色の組合せに基づいて容易に識別することができる。そして、個別に識別されたマーカについて検出された表示位置は、合成処理部104においてそのまま用いられる。 By identifying the block unit, the markers in the block unit can also be easily identified based on the color combination of the outer region. Then, the display positions detected for the individually identified markers are used as they are in the synthesis processing unit 104.

合成処理部104は、識別されたマーカの表示位置及びマーカに関連付けられたテクスチャ座標位置に基づいてテクスチャ画像データを補正するとともに補正されたテクスチャ画像データを被写体の画像データに重畳した合成画像データを生成する処理を行う。上述した例では、記憶部12に登録されたマーカの表示位置と予め登録されているマーカに対応するテクスチャ座標位置を読み出して、両方の位置関係に基づいて非特許文献1に記載されているような公知の補間処理を行い、記憶部11に記憶されたテクスチャ画像を被写体画像に合せるように補正して被写体画像に重ね合せた合成画像データを生成する。 The compositing processing unit 104 corrects the texture image data based on the display position of the identified marker and the texture coordinate position associated with the marker, and superimposes the corrected texture image data on the image data of the subject. Perform the process of generating. In the above-described example, the display position of the marker registered in the storage unit 12 and the texture coordinate position corresponding to the marker registered in advance are read out, and are described in Non-Patent Document 1 based on the positional relationship of both. The known interpolation processing is performed to correct the texture image stored in the storage unit 11 so as to match the subject image, and generate composite image data superimposed on the subject image.

被写体画像が動画である場合には、動画を構成するフレーム毎の被写体画像について、上述したようにマーカを識別し、識別されたマーカのフレーム間における変動に基づいてテクスチャ画像を補正して連動させることで、動画に追随して合成画像を生成することもできる。 When the subject image is a moving image, the markers are identified for each frame constituting the moving image as described above, and the texture image is corrected and linked based on the variation between the frames of the identified markers. By doing so, it is possible to generate a composite image by following the moving image.

また、被写体画像が陰影を有する3次元画像で構成されている場合に、テクスチャ画像には陰影が含まれていないため、重ね合せた合成画像に対して陰影を付加する処理を行うことが必要となる。具体的には、被写体画像を構成する画素の明度に基づいて補間されたテクスチャ画像に反映させるようにすることで陰影処理を行うことができる。ただし、マーカを構成する色により反射率が異なることから、マーカ以外の領域における画素の明度を参照してマーク領域の明度を補間する必要がある。 Further, when the subject image is composed of a three-dimensional image having a shadow, the texture image does not include the shadow, so it is necessary to perform a process of adding a shadow to the superimposed composite image. Become. Specifically, the shadow processing can be performed by reflecting the image on the texture image interpolated based on the brightness of the pixels constituting the subject image. However, since the reflectance differs depending on the colors constituting the marker, it is necessary to interpolate the brightness of the mark area by referring to the brightness of the pixels in the area other than the marker.

図7は、画像処理に関する処理フローである。まず、被写体が表示された入力画像を取得する(S100)。例えば、図8に示すように、着用されたTシャツを被写体として撮影した画像が入力画像として取得される。無地のTシャツの正面側には、図3に示すマーカの配列パターンがカラー印刷されており、図8に示す画像は、正面側から撮影装置で撮影された画像である。また、図5で説明したように、予めマーカの配列パターンに対応してテクスチャ画像のテクスチャ座標位置を関連付けて記憶しておく。 FIG. 7 is a processing flow related to image processing. First, an input image in which the subject is displayed is acquired (S100). For example, as shown in FIG. 8, an image taken with the worn T-shirt as a subject is acquired as an input image. The marker arrangement pattern shown in FIG. 3 is color-printed on the front side of the plain T-shirt, and the image shown in FIG. 8 is an image taken by the photographing device from the front side. Further, as described with reference to FIG. 5, the texture coordinate positions of the texture image are associated and stored in advance corresponding to the arrangement pattern of the markers.

次に、取得された被写体画像に対してマーカの検出処理を行う(S101)。上述したように、マーカに用いた複数種類の色に関して二値画像を生成して被写体画像中のマーカ及び表示位置を検出する。そして、上述したように、検出されたマーカのパターンに基づいてブロック単位の区分処理を行い(S102)、区分されたブロック単位をブロック識別情報に基づいて識別するとともにブロック単位内のマーカを識別する(S103)。 Next, a marker detection process is performed on the acquired subject image (S101). As described above, a binary image is generated for a plurality of types of colors used for the marker, and the marker and the display position in the subject image are detected. Then, as described above, the block unit division processing is performed based on the detected marker pattern (S102), the divided block units are identified based on the block identification information, and the markers in the block units are identified. (S103).

次に、識別されたマーカの表示位置及びテクスチャ座標位置に基づいてテクスチャ画像を補正して(S104)被写体画像に重畳して合成画像を生成し(S105)、生成された合成画像を画像出力部3に出力処理する(S106)。 Next, the texture image is corrected based on the display position and the texture coordinate position of the identified marker (S104), and a composite image is generated by superimposing it on the subject image (S105), and the generated composite image is used as an image output unit. Output processing to 3 (S106).

図9は、識別されたマーカの表示位置及びテクスチャ座標位置に基づいてテクスチャ画像を重ね合せる領域全体にメッシュモデルを生成した場合に関する説明図である。識別に成功したマーカの表示位置を基に、Radical Basis Functionを用いた補間処理等の公知の手法によりメッシュモデルを被写体画像の重ね合せる領域に合わせて変形させる。 FIG. 9 is an explanatory diagram regarding a case where a mesh model is generated over the entire region where the texture images are superimposed based on the display position and the texture coordinate position of the identified markers. Based on the display position of the marker that has been successfully identified, the mesh model is deformed according to the area where the subject image is superimposed by a known method such as interpolation processing using the Radical Basis Function.

図9に示す四角の黒点は、識別されたマーカの表示位置を示しており、ブロック単位の識別及びマーカの識別を階層的に行うことで、マーカの識別精度を向上させることができる。図10は、Tシャツに縦皺が寄ってマーカが1列以上隠れた状態におけるマーカの識別結果を示す画像例である。図10(b)は、図10(a)に示す入力画像に対して、非特許文献1に示す従来の手法によるマーカの識別処理を行った結果を示しており、図10(d)は、図10(c)に示す入力画像に対して、ブロック単位を識別してマーカを識別する階層的な識別処理を行った結果を示している。 The black dots in the squares shown in FIG. 9 indicate the display positions of the identified markers, and the identification accuracy of the markers can be improved by performing the identification in block units and the identification of the markers hierarchically. FIG. 10 is an image example showing a marker identification result in a state where vertical wrinkles are formed on the T-shirt and one or more rows of markers are hidden. FIG. 10B shows the result of performing marker identification processing by the conventional method shown in Non-Patent Document 1 on the input image shown in FIG. 10A, and FIG. 10D shows the result. The result of hierarchical identification processing for identifying the block unit and identifying the marker is shown for the input image shown in FIG. 10 (c).

図10(a)及び図10(c)に示す入力画像では、縦皺によりマーカが一部隠れた状態となっている。図10(b)及び図10(d)では、識別されたマーカを四角の黒点で示している。識別結果をみると、図10(b)では、縦皺が寄った部分に沿ってマーカを識別できておらず、識別精度が低下している。縦皺が寄った部分ではマーカ一列分が遮蔽された状態となっているため、マーカを周囲に配置された他のマーカに基づいて識別する手法では、遮蔽されたマーカの周囲に配置されたマーカについても識別できなくなる。これに対して、図10(d)では、遮蔽されたマーカを含むブロック単位を識別することができるため、遮蔽されたマーカ以外のマーカを識別することが可能となる。そのため、マーカの識別精度を向上させることができ、以後のテクスチャ画像の補正を精度よく行うことが可能となる。 In the input images shown in FIGS. 10 (a) and 10 (c), the markers are partially hidden by vertical wrinkles. In FIGS. 10 (b) and 10 (d), the identified markers are indicated by square black dots. Looking at the identification results, in FIG. 10B, the markers could not be identified along the portion where the vertical wrinkles were formed, and the identification accuracy was lowered. Since one row of markers is shielded at the wrinkled part, the method of identifying the marker based on other markers arranged around the marker is a marker arranged around the shielded marker. Can no longer be identified. On the other hand, in FIG. 10D, since the block unit including the shielded marker can be identified, it is possible to identify a marker other than the shielded marker. Therefore, the identification accuracy of the marker can be improved, and the subsequent correction of the texture image can be performed with high accuracy.

図11は、補正されたテクスチャ画像が被写体画像に合成された画像例を示している。図11に示す合成画像例では、被写体画像で表示されていたTシャツの皺による陰影が表示されなくなるため、元の陰影を付加する処理を行うことで、被写体画像にテクスチャ画像を違和感なく重畳した合成画像を生成することができる。 FIG. 11 shows an example of an image in which the corrected texture image is combined with the subject image. In the composite image example shown in FIG. 11, since the shadow due to the wrinkles of the T-shirt displayed in the subject image is not displayed, the texture image is superimposed on the subject image without discomfort by performing the process of adding the original shadow. A composite image can be generated.

図12は、陰影を付加する処理過程を示す説明図である。図12(a)は、図8に示す被写体画像の明度画像を示しており、皺による陰影以外にマーカの色による明度が表出するようになっている。そのため、マーカ以外の領域の明度を参照して明度画像の補間処理を行い、図12(b)に示すような補間後の画像を生成する。 FIG. 12 is an explanatory diagram showing a processing process for adding a shadow. FIG. 12A shows a brightness image of the subject image shown in FIG. 8, and the brightness due to the color of the marker is expressed in addition to the shadow due to the wrinkles. Therefore, the interpolation process of the brightness image is performed with reference to the brightness of the region other than the marker, and the interpolated image as shown in FIG. 12B is generated.

図13は、別の画像処理の処理過程を示す説明図である。上側の画像列及び下側の画像列は、それぞれ左側から入力画像、入力画像で識別されたマーカ(白抜きの四角形)に基づくメッシュモデル画像、メッシュモデルによる合成画像、修正画像、エラーマップ画像を示している。修正画像は、メッシュモデル画像において識別できなかったマーカの表示位置をテクスチャ座標位置と対応付ける補足処理を行って修正した画像である。エラーマップ画像は、合成画像と修正画像との間の色ずれの大きさを画素毎に色別表示した画像である。この例では、入力画像の解像度が1080pixel×1080pixelで、色ずれの最大値を30pixelとして5段階で表示している。 FIG. 13 is an explanatory diagram showing a processing process of another image processing. The upper image string and the lower image string are the input image from the left side, the mesh model image based on the marker (white square) identified in the input image, the composite image by the mesh model, the correction image, and the error map image. Shown. The modified image is an image modified by performing supplementary processing for associating the display position of the marker that could not be identified in the mesh model image with the texture coordinate position. The error map image is an image in which the magnitude of the color shift between the composite image and the corrected image is displayed for each pixel in different colors. In this example, the resolution of the input image is 1080 pixel × 1080 pixel, and the maximum value of color shift is 30 pixels, which is displayed in five stages.

上側の画像列は、非特許文献1に記載された従来の手法を用いて画像処理を行った結果を示している。入力画像においてマーカが縦皺で部分的に遮蔽された状態となっており、遮蔽部分からマーカの識別ができなかった領域が拡がっている。そのため、マーカを識別できなかった領域にエラーが生じており、遮蔽部分に近い領域ほど色ずれが大きくなっている。これに対して、下側の画像列は、本発明に係る画像処理を用いて処理した結果を示している。入力画像においてマーカが縦皺でほぼ遮蔽された状態となっているが、表出しているマーカをほぼ識別できているため遮蔽部分においてもエラー領域が小さくなっている。そのため、合成画像は修正画像とほぼ一致するようになり、被写体の変形に対して正確に追随していることが確認できる。 The upper image sequence shows the result of image processing using the conventional method described in Non-Patent Document 1. In the input image, the marker is partially shielded by vertical wrinkles, and the area where the marker cannot be identified extends from the shielded portion. Therefore, an error occurs in the area where the marker cannot be identified, and the color shift becomes larger in the area closer to the shielded portion. On the other hand, the lower image sequence shows the result of processing using the image processing according to the present invention. In the input image, the markers are almost shielded by vertical wrinkles, but since the displayed markers can be almost identified, the error area is small even in the shielded portion. Therefore, the composite image almost matches the corrected image, and it can be confirmed that the composite image accurately follows the deformation of the subject.

以上説明したように、所定数のマーカごとにブロック単位を設定し、ブロック単位を識別するとともにブロック単位内のマーカを個別に識別するようにしているので、ブロック単位内の一部のマーカが遮蔽された場合でも他の遮蔽されていないマーカを識別することが可能となる。そのため、布帛等のように容易に変形する被写体の場合に被写体に表示されたマーカが変形により一部遮蔽されたとしても、大域的に周辺のマーカを参照することで遮蔽部分付近のマーカを識別することが可能となり、マーカの識別精度を向上させることができる。マーカをテクスチャ画像のテクスチャ座標位置と対応させておくことで、被写体画像において識別されたマーカの表示位置に基づいてテクスチャ画像を補正して被写体画像に重ね合せて合成画像を生成することができ、変形する被写体に追随して違和感なく画像処理を行うことが可能となる。 As described above, since the block unit is set for each predetermined number of markers to identify the block unit and individually identify the markers in the block unit, some markers in the block unit are shielded. Even if it is done, it is possible to identify other unobstructed markers. Therefore, in the case of a subject that is easily deformed such as a cloth, even if the marker displayed on the subject is partially shielded by the deformation, the marker near the shielded portion can be identified by referring to the peripheral markers globally. It becomes possible to improve the identification accuracy of the marker. By associating the marker with the texture coordinate position of the texture image, it is possible to correct the texture image based on the display position of the marker identified in the subject image and superimpose it on the subject image to generate a composite image. It is possible to follow the deformed subject and perform image processing without discomfort.

1・・・画像処理装置、2・・・画像入力部、3・・・画像出力部、10・・・画像処理部、11・・・画像データ記憶部、12・・・識別データ記憶部、101・・・検出処理部、102・・・区分処理部、103・・・識別処理部、104・・・合成処理部、G・・・テクスチャ画像、H・・・配列パターン、K・・・ブロック単位、M・・・マーカ 1 ... image processing device, 2 ... image input unit, 3 ... image output unit, 10 ... image processing unit, 11 ... image data storage unit, 12 ... identification data storage unit, 101 ... Detection processing unit, 102 ... Classification processing unit, 103 ... Identification processing unit, 104 ... Synthesis processing unit, G ... Texture image, H ... Arrangement pattern, K ... Block unit, M ... marker

Claims (4)

テクスチャ画像データを記憶する画像データ記憶部と、被写体の表面に配列して表示されるとともに個別に識別可能でかつ所定数毎のブロック単位を識別可能なパターンで生成された複数のマーカをテクスチャ画像データのテクスチャ座標位置と関連付けて記憶するとともに各ブロック単位について周囲に配置された他のブロック単位と関連付けて識別するブロック識別情報を記憶する識別データ記憶部と、前記被写体の画像データに基づいて前記マーカ及びその表示位置を検出する検出処理部と、検出された前記マーカの前記パターンに基づいて前記マーカを前記ブロック単位に区分する区分処理部と、区分された前記ブロック単位について前記ブロック識別情報に基づいて前記ブロック単位を識別するとともに識別された前記ブロック単位内の前記マーカを識別する識別処理部と、識別された前記マーカの表示位置及び当該マーカに関連付けられたテクスチャ座標位置に基づいて前記テクスチャ画像データを補正するとともに補正された前記テクスチャ画像データを前記被写体の画像データに重畳した合成画像データを生成する合成処理部とを備えている画像処理装置。 A texture image of an image data storage unit that stores texture image data, and a plurality of markers that are displayed in an array on the surface of the subject and are generated in a pattern that can be individually identified and can identify each block unit for each predetermined number. The identification data storage unit that stores the block identification information that stores the data in association with the texture coordinate position of the data and identifies the block unit in association with other block units arranged around each block unit, and the identification data storage unit that stores the image data of the subject. The detection processing unit that detects the marker and its display position, the division processing unit that divides the marker into the block units based on the detected pattern of the marker, and the block identification information for the divided block units. The texture is based on the identification processing unit that identifies the block unit and identifies the marker in the identified block unit, the display position of the identified marker, and the texture coordinate position associated with the marker. An image processing apparatus including a composition processing unit that corrects image data and generates composite image data in which the corrected texture image data is superimposed on the image data of the subject. 前記マーカは、前記ブロック単位を識別する共通の第一パターン及び前記ブロック単位に含まれる前記マーカを識別する個別の第二パターンを組み合せて生成されており、前記ブロック識別情報は、前記ブロック単位のそれぞれに含まれる前記第一パターンに基づいて生成されている請求項1に記載の画像処理装置。 The marker is generated by combining a common first pattern for identifying the block unit and an individual second pattern for identifying the marker included in the block unit, and the block identification information is for the block unit. The image processing apparatus according to claim 1, which is generated based on the first pattern included in each. 個別に識別可能でかつ所定数毎のブロック単位を識別可能なパターンで複数のマーカを生成するとともに各ブロック単位について周囲に配置された他のブロック単位と関連付けて識別するブロック識別情報を生成し、記憶されたテクスチャ画像データのテクスチャ座標位置と前記マーカとを関連付けて記憶し、前記マーカを前記ブロック単位で配列して表面に表示した被写体の画像データに基づいて前記マーカ及びその表示位置を検出し、検出された前記マーカの前記パターンに基づいて前記マーカを前記ブロック単位に区分し、区分された前記ブロック単位について前記ブロック識別情報に基づいて前記ブロック単位を識別するとともに識別された前記ブロック単位内の前記マーカを識別し、識別された前記マーカの表示位置及び当該マーカに関連付けられたテクスチャ座標位置に基づいて前記テクスチャ画像データを補正するとともに補正された前記テクスチャ画像データを前記被写体の画像データに重畳した合成画像データを生成する画像処理方法。 Multiple markers are generated in a pattern that can be individually identified and each block unit can be identified, and block identification information that identifies each block unit in association with other block units arranged around it is generated. The texture coordinate position of the stored texture image data is stored in association with the marker, and the marker and its display position are detected based on the image data of the subject displayed on the surface by arranging the markers in block units. , The marker is divided into the block units based on the pattern of the detected markers, and the block units are identified and identified within the block units based on the block identification information for the divided block units. The marker is identified, the texture image data is corrected based on the display position of the identified marker and the texture coordinate position associated with the marker, and the corrected texture image data is used as the image data of the subject. An image processing method that generates superimposed composite image data. 前記マーカは、前記ブロック単位を識別する共通の第一パターン及び前記ブロック単位に含まれる前記マーカを識別する個別の第二パターンを組み合せて生成され、前記ブロック識別情報は、前記ブロック単位のそれぞれに含まれる前記第一パターンに基づいて生成される請求項3に記載の画像処理方法。 The marker is generated by combining a common first pattern for identifying the block unit and an individual second pattern for identifying the marker included in the block unit, and the block identification information is provided for each of the block units. The image processing method according to claim 3, which is generated based on the first pattern included.
JP2017097783A 2017-05-17 2017-05-17 Image processing device and image processing method Active JP6910605B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017097783A JP6910605B2 (en) 2017-05-17 2017-05-17 Image processing device and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017097783A JP6910605B2 (en) 2017-05-17 2017-05-17 Image processing device and image processing method

Publications (2)

Publication Number Publication Date
JP2018195038A JP2018195038A (en) 2018-12-06
JP6910605B2 true JP6910605B2 (en) 2021-07-28

Family

ID=64570858

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017097783A Active JP6910605B2 (en) 2017-05-17 2017-05-17 Image processing device and image processing method

Country Status (1)

Country Link
JP (1) JP6910605B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022177005A1 (en) * 2021-02-22 2022-08-25 株式会社楽日 Augmented reality video display system

Also Published As

Publication number Publication date
JP2018195038A (en) 2018-12-06

Similar Documents

Publication Publication Date Title
US11819080B2 (en) System and method for digital markups of custom products
EP3218878B1 (en) Image to item mapping
US11961200B2 (en) Method and computer program product for producing 3 dimensional model data of a garment
JP7255718B2 (en) Information processing device, recognition support method, and computer program
US7519218B2 (en) Marker detection method and apparatus, and position and orientation estimation method
EP1744280B1 (en) Information processing apparatus and method
JP6194711B2 (en) Image forming apparatus, printing method, and program
CN109936690A (en) System and method for capturing two or more groups light image simultaneously
JP6910605B2 (en) Image processing device and image processing method
JP2013210793A (en) System, method, and program for optimizing ar display
US10366470B2 (en) Object separation for scanned assets
US11508034B2 (en) White background protection in SRGAN based super resolution
Ehara et al. Texture overlay onto deformable surface for virtual clothing
JP5883715B2 (en) Image processing LSI, image processing system, and image processing method
JP2013084171A (en) Try-on image creation system and clothes image data
JP2008299670A (en) Image area extraction device and its control method, composite reality presentation system and computer program
TW200937299A (en) Optical identification code and marking method of the same and recognition method of the same and goods marked with the same, recognition method of colour and computer program executing the ridognition method of colour, auto identification code using col
Peters et al. Basics leading to machine vision
JP2014225754A (en) Marker embedding device, marker detection device, marker embedding method, marker detection method, and program
JP7271202B2 (en) INFORMATION GENERATING DEVICE, CONTROL METHOD AND PROGRAM THEREOF
Miyagawa et al. Retexturing under self-occlusion using hierarchical markers
JP2021093712A (en) Imaging control device, evaluation system, imaging control method, and program
CN113034631A (en) Method and device for generating theme icon and computer equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200422

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20200422

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200619

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20200619

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210416

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210608

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210628

R150 Certificate of patent or registration of utility model

Ref document number: 6910605

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150