JP2018055506A - Information processing apparatus, information processing method and program - Google Patents

Information processing apparatus, information processing method and program Download PDF

Info

Publication number
JP2018055506A
JP2018055506A JP2016192279A JP2016192279A JP2018055506A JP 2018055506 A JP2018055506 A JP 2018055506A JP 2016192279 A JP2016192279 A JP 2016192279A JP 2016192279 A JP2016192279 A JP 2016192279A JP 2018055506 A JP2018055506 A JP 2018055506A
Authority
JP
Japan
Prior art keywords
dimensional
image
input
similarity
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016192279A
Other languages
Japanese (ja)
Other versions
JP6894685B2 (en
Inventor
昌彦 足立
Masahiko Adachi
昌彦 足立
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kabuku Inc
Original Assignee
Kabuku Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kabuku Inc filed Critical Kabuku Inc
Priority to JP2016192279A priority Critical patent/JP6894685B2/en
Publication of JP2018055506A publication Critical patent/JP2018055506A/en
Application granted granted Critical
Publication of JP6894685B2 publication Critical patent/JP6894685B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To obtain three-dimensional data with high similarity with respect to image information specified by a client without causing a trouble on the client.SOLUTION: An information processing apparatus according to the present disclosure includes an input unit to receive an input of three-dimensional data relating to a three-dimensional model and a two-dimensional input image, an image generation unit that generates a two-dimensionally prepared image showing an appearance of the three-dimensional model disposed in virtual space, as viewed from a given viewpoint, based on the three-dimensional data, and an output unit that outputs a similarity between the two-dimensionally prepared image and the two-dimensional input image.SELECTED DRAWING: Figure 1

Description

本発明は、情報処理装置、情報処理方法及びプログラムに関する。   The present invention relates to an information processing apparatus, an information processing method, and a program.

下記特許文献1には、依頼者により指定された複数の画像情報等を用いて3次元形状モデルを生成する技術が開示されている。   Patent Document 1 below discloses a technique for generating a three-dimensional shape model using a plurality of pieces of image information designated by a client.

特開2016−4466号公報Japanese Patent Laying-Open No. 2014-4466

しかし、従来の情報処理装置では、依頼者に手間をかけさせる必要があった。即ち、上記従来の構成によれば、出来上がった3次元形状モデルの品質、具体的には依頼者により指定された画像情報と3次元形状モデルとが似ていることを担保するために、事前に3次元データを依頼者に送付し、似ていない場合には修正依頼を受けるなど、依頼者と連絡のやり取りを行う必要があり、依頼者に手間をかけさせてしまっていた。   However, in the conventional information processing apparatus, it is necessary to make the requester troublesome. That is, according to the above-described conventional configuration, in order to ensure that the quality of the completed three-dimensional shape model, specifically, the image information specified by the client and the three-dimensional shape model are similar to each other in advance. It is necessary to communicate with the requester such as sending 3D data to the requester and receiving a correction request if they are not similar, and this makes the requester troublesome.

本開示は、上記問題点に鑑みてなされたものであり、その目的は、依頼者に手間をかけさせることなく、依頼者により指定された画像情報に対して類似度の高い3次元データを得ることである。   The present disclosure has been made in view of the above-described problems, and the purpose thereof is to obtain three-dimensional data having high similarity to image information designated by the client without requiring the client. That is.

(1)本開示に係る情報処理装置は、3次元モデルに関する3次元データと2次元入力画像との入力を受け付ける入力部と、前記3次元データに基づき、仮想空間に配置された前記3次元モデルを所与の視点から見た外観を示す2次元作成画像を生成する画像生成部と、前記2次元作成画像と前記2次元入力画像との類似度を出力する出力部と、を含む。   (1) An information processing apparatus according to the present disclosure includes an input unit that receives input of three-dimensional data related to a three-dimensional model and a two-dimensional input image, and the three-dimensional model arranged in a virtual space based on the three-dimensional data An image generation unit that generates a two-dimensional created image showing an appearance viewed from a given viewpoint, and an output unit that outputs a similarity between the two-dimensional created image and the two-dimensional input image.

(2)上記(1)の情報処理装置において、前記画像生成部は、前記仮想空間に配置された前記3次元モデルを複数の視点から見た外観を示す、複数の2次元作成画像を生成し、前記出力部は、前記複数の2次元作成画像のそれぞれと前記2次元入力画像との類似度の内、最も高い類似度を出力してもよい。   (2) In the information processing apparatus according to (1), the image generation unit generates a plurality of two-dimensional created images showing an appearance of the three-dimensional model arranged in the virtual space as viewed from a plurality of viewpoints. The output unit may output the highest similarity among the similarities between each of the plurality of two-dimensional created images and the two-dimensional input image.

(3)上記(1)又は(2)の情報処理装置において、前記複数の2次元作成画像のそれぞれと前記2次元入力画像との類似度を算出し、最も類似度が高い2次元作成画像を前記複数の2次元作成画像の中から抽出する抽出部を更に備えてもよい。   (3) In the information processing apparatus according to (1) or (2), the similarity between each of the plurality of two-dimensional created images and the two-dimensional input image is calculated, and the two-dimensional created image having the highest similarity is calculated. An extraction unit for extracting from the plurality of two-dimensional created images may be further provided.

(4)上記(3)の情報処理装置において、前記入力部は、複数の2次元入力画像の入力を受け付け、前記抽出部は、前記複数の2次元入力画像のそれぞれについて、前記複数の2次元作成画像の中から最も類似度が高い2次元作成画像を前記複数の2次元入力画像の数に応じて抽出し、前記抽出部により抽出された前記複数の2次元作成画像と前記複数の2次元入力画像との各類似度の平均値を算出する演算部を更に含み、前記出力部は、前記演算部が算出した前記平均値を出力してもよい。   (4) In the information processing apparatus according to (3), the input unit receives input of a plurality of two-dimensional input images, and the extraction unit receives the plurality of two-dimensional input images for each of the plurality of two-dimensional input images. A two-dimensional created image having the highest similarity is extracted from the created images according to the number of the plurality of two-dimensional input images, and the plurality of two-dimensional created images extracted by the extraction unit and the plurality of two-dimensional images are extracted. An arithmetic unit that calculates an average value of each similarity with the input image may be further included, and the output unit may output the average value calculated by the arithmetic unit.

(5)上記(4)の情報処理装置において、前記平均値は、前記複数の2次元入力画像の内、特徴部を含む2次元入力画像に対して重み付けされた重み付け平均値を含んでもよい。   (5) In the information processing apparatus according to (4), the average value may include a weighted average value weighted with respect to a two-dimensional input image including a feature portion among the plurality of two-dimensional input images.

(6)上記(5)の情報処理装置において、前記入力部が入力を受け付ける前記2次元入力画像には、特徴部が含まれているか否かについての重み付け情報が付加されてもよい。   (6) In the information processing apparatus according to (5), weighting information regarding whether or not a feature part is included may be added to the two-dimensional input image from which the input part receives input.

(7)上記(3)〜(6)の情報処理装置において、前記抽出部により抽出された前記2次元作成画像を複数の領域に分割する分割部を更に含み、前記演算部は、前記複数の領域に対する前記2次元入力画像との類似度を算出し、前記出力部は、前記複数の領域の内、類似度が所定の値よりも低い領域の表示を、他の領域の表示と異ならせてもよい。   (7) In the information processing apparatus according to (3) to (6), the information processing apparatus further includes a dividing unit that divides the two-dimensionally created image extracted by the extracting unit into a plurality of regions, The similarity between the region and the two-dimensional input image is calculated, and the output unit is configured to display a region having a similarity lower than a predetermined value among the plurality of regions differently from a display of another region. Also good.

(8)上記(7)の情報処理装置において、前記出力部は、前記類似度が所定の値よりも低い領域に着色をして表示してもよい。   (8) In the information processing apparatus according to (7), the output unit may color and display an area where the similarity is lower than a predetermined value.

(9)上記(1)〜(8)の情報処理装置において、前記2次元入力画像は写真であってもよい。   (9) In the information processing apparatus according to (1) to (8), the two-dimensional input image may be a photograph.

(10)本開示に係る情報処理方法は、3次元モデルに関する3次元データと2次元入力画像との入力を受け付ける入力ステップと、前記3次元データに基づき、仮想空間に配置された前記3次元モデルを所与の視点から見た外観を示す2次元作成画像を生成する画像生成ステップと、前記2次元作成画像と前記2次元入力画像との類似度を出力する出力ステップと、を含む。   (10) An information processing method according to the present disclosure includes an input step of receiving input of three-dimensional data related to a three-dimensional model and a two-dimensional input image, and the three-dimensional model arranged in a virtual space based on the three-dimensional data An image generation step of generating a two-dimensional created image showing an appearance viewed from a given viewpoint, and an output step of outputting the similarity between the two-dimensional created image and the two-dimensional input image.

(11)本開示に係るプログラムは、コンピュータに、3次元モデルに関する3次元データと2次元入力画像との入力を受け付ける入力ステップと、前記3次元データに基づき、仮想空間に配置された前記3次元モデルを所与の視点から見た外観を示す2次元作成画像を生成する画像生成ステップと、前記2次元作成画像と前記2次元入力画像との類似度を出力する出力ステップと、を実行させる。   (11) A program according to the present disclosure includes an input step of accepting input of 3D data and a 2D input image relating to a 3D model to a computer, and the 3D arranged in a virtual space based on the 3D data An image generation step for generating a two-dimensional created image showing an appearance of the model viewed from a given viewpoint, and an output step for outputting the similarity between the two-dimensional created image and the two-dimensional input image are executed.

図1は、本実施形態に係る情報処理装置の概略図である。FIG. 1 is a schematic diagram of an information processing apparatus according to the present embodiment. 図2は、本実施形態に係る情報処理方法のフローチャートである。FIG. 2 is a flowchart of the information processing method according to the present embodiment. 図3は、本実施形態に係る情報処理方法における演算ステップの概念を示す図である。FIG. 3 is a diagram illustrating a concept of calculation steps in the information processing method according to the present embodiment. 図4は、本実施形態に係る情報処理方法における演算ステップの概念を示す図である。FIG. 4 is a diagram illustrating a concept of calculation steps in the information processing method according to the present embodiment.

[第1の実施形態]
本開示の実施形態について、図面を用いて以下に説明する。
[First Embodiment]
Embodiments of the present disclosure will be described below with reference to the drawings.

図1は、本実施形態に係る情報処理装置の概略図である。   FIG. 1 is a schematic diagram of an information processing apparatus according to the present embodiment.

図1に示すように、情報処理装置100はサーバー装置であり、依頼者のコンピュータ、及び3次元データを作成するモデラーのコンピュータとデータの送受信を行う通信部70と、情報処理装置100全体を制御する制御部40と、当該制御に用いられるプログラム等を記憶する記憶部50と、を含む。本開示において、3次元データとは、例えば3次元CAD(computer-aided design)データ、3次元CG(computer graphics)データ等を含む。   As illustrated in FIG. 1, the information processing apparatus 100 is a server apparatus, and controls the communication unit 70 that transmits and receives data to and from the client computer and the modeler computer that creates three-dimensional data, and controls the entire information processing apparatus 100. And a storage unit 50 that stores a program and the like used for the control. In the present disclosure, the three-dimensional data includes, for example, three-dimensional CAD (computer-aided design) data, three-dimensional CG (computer graphics) data, and the like.

(通信部70)
通信部70は、有線又は無線により、依頼者、及びモデラーのコンピュータとデータの送受信を行う。通信部70は、例えばLAN(Local Area Network)、Wi−Fi(Wireless Fidelity、登録商標)、電話回線、ブロードバンドネットワーク等を用いて、外部機器と直接又は間接的に通信する。
(Communication unit 70)
The communication unit 70 transmits / receives data to / from the requester and the modeler computer by wire or wireless. The communication unit 70 communicates with an external device directly or indirectly using, for example, a LAN (Local Area Network), Wi-Fi (Wireless Fidelity, registered trademark), a telephone line, a broadband network, or the like.

(制御部40)
制御部40は、記憶部50に保存された各種プログラムに従って、情報処理装置100の動作全般を制御する。制御部40は、例えばCPU(Central Processing Unit)、マイクロプロセッサ等の電子回路によって実現される。なお、制御部40は、使用するプログラムや演算パラメータ等を記憶するROM(Read Only Memory)および適宜変化するパラメータ等を一時記憶するRAM(Random Access Memory)を含んでいてもよい。
(Control unit 40)
The control unit 40 controls the overall operation of the information processing apparatus 100 according to various programs stored in the storage unit 50. The control unit 40 is realized by an electronic circuit such as a CPU (Central Processing Unit) or a microprocessor, for example. Note that the control unit 40 may include a ROM (Read Only Memory) that stores programs to be used, calculation parameters, and the like, and a RAM (Random Access Memory) that temporarily stores parameters that change as appropriate.

制御部40は、3次元データ、及び2次元入力画像の入力を受け付ける入力部10と、3次元データに基づき、2次元作成画像を生成する画像生成部20と、類似度を出力する出力部30とを含む。更に、本実施形態においては、制御部40が、複数の2次元作成画像の中から2次元入力画像と最も類似度が高い2次元作成画像を抽出する抽出部22と、2次元作成画像を複数の領域に分割する分割部26と、複数の前記2次元作成画像と前記複数の2次元入力画像との各類似度の平均値を算出する演算部24を含む。   The control unit 40 includes an input unit 10 that receives input of three-dimensional data and a two-dimensional input image, an image generation unit 20 that generates a two-dimensional created image based on the three-dimensional data, and an output unit 30 that outputs similarity. Including. Further, in the present embodiment, the control unit 40 extracts a two-dimensional created image having a highest similarity to the two-dimensional input image from a plurality of two-dimensional created images, and a plurality of two-dimensional created images. And a calculation unit 24 that calculates an average value of similarities between the plurality of two-dimensional created images and the plurality of two-dimensional input images.

(入力部10)
入力部10は、3次元形状モデルの製造を依頼する依頼者からの2次元入力画像の入力を受け付ける。ここで、2次元入力画像とは、例えば依頼者のペットの写真などである。本実施形態においては、依頼者からペットの3次元形状モデルの製造を依頼された例を説明する。2次元入力画像の入力は、依頼者が、サーバー装置である情報処理装置100にアクセスし、上述した通信部70を経由して2次元入力画像を入力部10に入力することにより行われる。なお、情報処理装置100のユーザが、依頼者からメール、記録媒体などを介して入手した2次元入力画像を、通信部70を経由することなく、入力部10に直接入力することも可能である。入力部10に入力された2次元入力画像は、記憶部50に保存される。
(Input unit 10)
The input unit 10 receives an input of a two-dimensional input image from a requester who requests the manufacture of a three-dimensional shape model. Here, the two-dimensional input image is, for example, a photograph of a client pet. In the present embodiment, an example will be described in which a requester has requested the manufacture of a pet three-dimensional shape model. The input of the two-dimensional input image is performed when the client accesses the information processing apparatus 100 that is a server apparatus and inputs the two-dimensional input image to the input unit 10 via the communication unit 70 described above. Note that it is also possible for the user of the information processing apparatus 100 to directly input a two-dimensional input image obtained from the requester via e-mail, recording medium, or the like, to the input unit 10 without going through the communication unit 70. . The two-dimensional input image input to the input unit 10 is stored in the storage unit 50.

入力部10は、モデラーが依頼者からの2次元入力画像に基づき作成した3次元モデルを示す3次元データの入力を受け付ける。3次元データの入力は、モデラーが、サーバー装置である情報処理装置100にアクセスし、上述した通信部70を経由して3次元データを入力部10に入力することにより行われる。なお、情報処理装置100のユーザが、モデラーからメール、記録媒体などを介して入手した3次元データを、通信部70を経由することなく、入力部10に直接入力することも可能である。入力部10に入力された3次元データは、記憶部50に保存される。   The input unit 10 receives input of three-dimensional data indicating a three-dimensional model created by the modeler based on a two-dimensional input image from the client. The input of the three-dimensional data is performed when the modeler accesses the information processing apparatus 100 that is a server apparatus and inputs the three-dimensional data to the input unit 10 via the communication unit 70 described above. Note that it is also possible for the user of the information processing apparatus 100 to directly input the three-dimensional data obtained from the modeler via mail, a recording medium, or the like to the input unit 10 without going through the communication unit 70. The three-dimensional data input to the input unit 10 is stored in the storage unit 50.

(画像生成部20)
画像生成部20は、モデラーにより作成された3次元データに基づき、仮想空間に配置された3次元モデルを所与の視点から見た外観を示す2次元作成画像を生成する。
(Image generation unit 20)
The image generation unit 20 generates a two-dimensional created image showing an appearance of a three-dimensional model arranged in the virtual space viewed from a given viewpoint based on the three-dimensional data created by the modeler.

第1の具体例として、依頼者により入力された2次元入力画像が1枚の写真であり、正面方向から見たペットの顔写真である場合について説明する。画像生成部20は、入力された顔写真からカメラ位置を推定する。カメラ位置を推定する方法としては、例えば、画像生成部20が、仮想空間の投影中心と3次元モデルとの間に配置された投影面において投影される3次元モデルの投影画像におけるエッジ情報を抽出することにより、依頼者により入力された2次元入力画像におけるペットの輪郭形状と、投影画像における3次元モデルの輪郭形状が最も一致する割合の高い位置をカメラ位置として推定する。次に、推定されたカメラ位置情報に基づき、仮想空間における投影中心に対する3次元モデルの位置を調整する。そして、画像生成部20は、仮想空間の投影中心と3次元モデルとの間に配置された投影面において投影される3次元モデルの投影画像を2次元作成画像として取得する。さらに、画像生成部20は、仮想空間に配置された3次元モデルを、例えば1度ずつ回転させながら、投影面において投影される複数の2次元作成画像を取得する。本具体例においては、依頼者により入力されたペットの顔写真に近い外観として、正面近傍の複数の角度からみたペットの顔の外観を示す2次元作成画像を複数生成する。   As a first specific example, a case will be described in which the two-dimensional input image input by the client is a single photograph and a pet face photograph viewed from the front. The image generation unit 20 estimates the camera position from the input face photograph. As a method for estimating the camera position, for example, the image generation unit 20 extracts edge information in the projection image of the three-dimensional model projected on the projection plane arranged between the projection center of the virtual space and the three-dimensional model. As a result, the position where the pet contour shape in the two-dimensional input image input by the client and the contour shape of the three-dimensional model in the projection image most closely match is estimated as the camera position. Next, the position of the three-dimensional model with respect to the projection center in the virtual space is adjusted based on the estimated camera position information. Then, the image generation unit 20 acquires a projection image of the three-dimensional model projected on the projection plane arranged between the projection center of the virtual space and the three-dimensional model as a two-dimensional created image. Further, the image generation unit 20 acquires a plurality of two-dimensional created images projected on the projection plane while rotating the three-dimensional model arranged in the virtual space, for example, by one degree. In this specific example, a plurality of two-dimensional created images showing the appearance of the pet's face viewed from a plurality of angles near the front are generated as the appearance close to the pet's face photograph input by the client.

第2の具体例として、依頼者により入力された2次元入力画像が複数枚の写真であり、例えば1枚目が「正面方向から見たペットの顔写真」、2枚目が「正面方向からみたペットの全体写真」、3枚目が「側面方向から見たペットの全体写真」、4枚目が「背面方向からみたペットの全体写真」である場合は、画像生成部20は、以下のように複数の2次元作成画像群を生成する。   As a second specific example, the two-dimensional input image input by the client is a plurality of photographs. For example, the first sheet is a “face photo of a pet viewed from the front direction”, and the second sheet is “from the front direction. In the case of the “total photo of the pet seen”, the third photo “the overall photo of the pet seen from the side direction”, and the fourth photo “the whole photo of the pet seen from the back direction”, the image generating unit 20 In this way, a plurality of two-dimensional created image groups are generated.

画像生成部20は、1枚目の「正面方向から見たペットの顔写真」から推定されたカメラ位置情報に基づき、仮想空間における投影中心と3次元モデルとの位置関係を調整する。例えば、仮想空間において、3次元モデルの顔領域が、投影中心であるカメラの視点に近い位置に配置される。そして、画像生成部20が当該3次元モデルを正面方向から1度ずつ回転させ、正面近傍の複数の角度からみたペットの顔の外観を示す第1の2次元作成画像群を生成する。   The image generation unit 20 adjusts the positional relationship between the projection center and the three-dimensional model in the virtual space, based on the camera position information estimated from the first “face photograph of the pet seen from the front direction”. For example, in the virtual space, the face area of the three-dimensional model is arranged at a position close to the viewpoint of the camera that is the projection center. Then, the image generation unit 20 rotates the three-dimensional model by 1 degree from the front direction, and generates a first two-dimensional created image group showing the appearance of the pet's face viewed from a plurality of angles near the front.

画像生成部20は、2枚目の「正面方向から見たペットの全体写真」から推定されたカメラ位置情報に基づき、仮想空間における投影中心と3次元モデルとの位置関係を調整する。例えば、仮想空間において、投影中心であるカメラの視点が、3次元モデルの正面全体を捕らえる位置に調整される。そして、画像生成部20が当該3次元モデルの正面方向から1度ずつ回転させ、正面近傍の複数の角度からみたペットの全体の外観を示す第2の2次元作成画像群を生成する。   The image generation unit 20 adjusts the positional relationship between the projection center and the three-dimensional model in the virtual space based on the camera position information estimated from the second “entire photo of the pet viewed from the front direction”. For example, in the virtual space, the viewpoint of the camera that is the projection center is adjusted to a position that captures the entire front surface of the three-dimensional model. Then, the image generation unit 20 rotates the 3D model from the front direction one by one to generate a second two-dimensional created image group that shows the overall appearance of the pet viewed from a plurality of angles near the front.

画像生成部20は、3枚目の「側面方向から見たペットの全体写真」から推定されたカメラ位置情報に基づき、仮想空間における投影中心と3次元モデルとの位置関係を調整する。例えば、仮想空間において、投影中心であるカメラの視点が、3次元モデルの側面全体を捕らえる位置に調整される。そして、画像生成部20が当該3次元モデルの側面方向から1度ずつ回転させ、側面近傍の複数の角度からみたペットの全体の外観を示す第3の2次元作成画像群を生成する。   The image generation unit 20 adjusts the positional relationship between the projection center in the virtual space and the three-dimensional model based on the camera position information estimated from the third “entire photo of the pet viewed from the side direction”. For example, in the virtual space, the viewpoint of the camera that is the projection center is adjusted to a position that captures the entire side surface of the three-dimensional model. Then, the image generation unit 20 rotates by one degree from the side surface direction of the three-dimensional model, and generates a third two-dimensional created image group that shows the overall appearance of the pet viewed from a plurality of angles near the side surface.

画像生成部20は、4枚目の「背面方向から見たペットの全体写真」から推定されたカメラ位置情報に基づき、仮想空間における投影中心と3次元モデルとの位置関係を調整する。例えば、仮想空間において、投影中心であるカメラの視点が、3次元モデルの背面全体を捕らえる位置に調整される。そして、画像生成部20が当該3次元モデルの背面方向から1度ずつ回転させ、背面近傍の複数の角度からみたペットの全体の外観を示す第4の2次元作成画像群を生成する。   The image generation unit 20 adjusts the positional relationship between the projection center and the three-dimensional model in the virtual space based on the camera position information estimated from the fourth “entire photo of the pet viewed from the back direction”. For example, in the virtual space, the viewpoint of the camera that is the projection center is adjusted to a position that captures the entire back surface of the three-dimensional model. Then, the image generation unit 20 rotates the 3D model from the back direction one by one to generate a fourth two-dimensional created image group that shows the overall appearance of the pet viewed from a plurality of angles near the back surface.

なお、本実施形態においては、カメラ位置を推定してから、3次元モデルを回転させ、複数の2次元作成画像を取得する例を説明したが、カメラ位置を推定するステップを省略し、3次元モデルを1度ずつ360度回転させ360枚の2次元作成画像群を生成し、後述する抽出部22の処理において、360枚の2次元作成画像群から類似度が高いものを抽出する構成としても構わない。   In the present embodiment, the example in which the camera position is estimated and then the three-dimensional model is rotated to acquire a plurality of two-dimensional created images has been described. However, the step of estimating the camera position is omitted, and the three-dimensional model is obtained. The model may be rotated 360 degrees one by one to generate 360 two-dimensionally created image groups, and in the processing of the extraction unit 22 described later, a configuration having a high degree of similarity is extracted from 360 two-dimensionally created image groups. I do not care.

また、本実施形態においては、カメラ位置を推定してから、3次元モデルを回転させ、複数の2次元作成画像を取得する例を説明したが、推定したカメラ位置から1枚の2次元作成画像を取得し、後述する出力部30の処理において、この1枚の2次元作成画像の類似度を出力する構成としても構わない。   Further, in the present embodiment, an example in which the camera position is estimated and then the three-dimensional model is rotated to acquire a plurality of two-dimensional created images has been described. However, one two-dimensional created image is obtained from the estimated camera position. May be obtained, and in the processing of the output unit 30 to be described later, the similarity of the one two-dimensionally created image may be output.

(抽出部22)
画像生成部20において2次元作成画像群が複数取得されている場合、抽出部22は、2次元作成画像群と2次元入力画像との類似度を算出し、最も類似度が高い2次元作成画像を前記2次元作成画像群の中から抽出する。画像生成部20において2次元作成画像群が一枚取得されている場合、抽出部22は、2次元作成画像群と2次元入力画像との類似度の算出のみ行う。
(Extractor 22)
When a plurality of two-dimensional created image groups are acquired in the image generation unit 20, the extraction unit 22 calculates the similarity between the two-dimensional created image group and the two-dimensional input image, and the two-dimensional created image having the highest similarity. Are extracted from the two-dimensionally created image group. When one 2D creation image group is acquired in the image generation unit 20, the extraction unit 22 only calculates the similarity between the 2D creation image group and the 2D input image.

画像生成部20において2次元作成画像群が複数取得されている場合の具体例を説明する。画像生成部20が生成した第1の2次元作成画像群の全ての2次元作成画像について、1枚目の写真である「正面方向から見たペットの顔写真」との類似度を算出する。ここで、類似度は、例えば、ペットの目の大きさ、耳の長さ、鼻の長さ、両目の間隔、両目の位置と鼻の位置とを結ぶ三角形における各頂点の角度等が双方でどの程度一致しているか、などを判断項目とし、算出する。この類似度の算出方法としては、例えば、強化学習や深層学習を含む、機械学習などのクラス分類アルゴリズムなどを利用して算出することも可能であり、その他、より簡易なアルゴリズムで類似度を算出してもよい。簡易なアルゴリズムでの類似度の算出方法としては、例えば、ペットの目の大きさの類似度を算出するのであれば、2次元作成画像におけるペットの目の面積と写真におけるペットの目の面積の内、大きいものから小さいものを割った値を類似度として算出してもよい。ペットの耳、又は鼻の長さの類似度を算出するのであれば、2次元作成画像におけるペットの耳、又は鼻の長さと写真におけるペットの耳、又は鼻の長さの内、大きいものから小さいものを割った値を類似度として算出してもよい。両目の間隔の類似度を算出するのであれば、例えば、2次元作成画像におけるペットの両目の間隔と写真におけるペットの両目の間隔の内、大きいものから小さいものを割った値を類似度として算出してもよい。両目の位置と鼻の位置とを結ぶ三角形の類似度を算出するのであれば、例えば、2次元作成画像における当該三角形と写真における当該三角形を重ね合わせ、2次元作成画像における当該三角形の面積を100%とした場合における、重ね合わせられた部分の面積の割合を類似度として算出してもよい。そして、この第1の2次元作成画像群の中から、最も類似度が高い第1の2次元作成画像が抽出部22により抽出される。   A specific example when a plurality of two-dimensional created image groups are acquired in the image generation unit 20 will be described. For all the two-dimensionally created images of the first two-dimensionally created image group generated by the image generating unit 20, the similarity to the first photo “pet face photograph viewed from the front direction” is calculated. Here, the similarity is, for example, the size of the eyes of the pet, the length of the ear, the length of the nose, the distance between the eyes, the angle of each vertex in the triangle connecting the position of both eyes and the position of the nose, etc. The degree of coincidence is used as a judgment item and calculated. As a method of calculating the similarity, for example, it is possible to calculate using a class classification algorithm such as machine learning including reinforcement learning and deep learning, and the similarity is calculated using a simpler algorithm. May be. As a method of calculating the similarity with a simple algorithm, for example, if the similarity of the pet eye size is calculated, the area of the pet eye in the two-dimensional created image and the area of the pet eye in the photograph are calculated. Of these, a value obtained by dividing the larger one by the smaller one may be calculated as the similarity. If the similarity of the length of the pet's ear or nose is calculated, the larger one of the length of the pet's ear or nose in the two-dimensional created image and the length of the pet's ear or nose in the photo A value obtained by dividing a small value may be calculated as the similarity. If the similarity between the two eyes is to be calculated, for example, the similarity is calculated by dividing the pet's two eyes interval in the two-dimensional created image and the pet's two eyes interval in the photo by dividing the larger one into the smaller one. May be. If the similarity of a triangle connecting the position of both eyes and the position of the nose is calculated, for example, the triangle in the two-dimensional created image is overlapped with the triangle in the photograph, and the area of the triangle in the two-dimensional created image is set to 100. The percentage of the area of the overlapped portion in the case of% may be calculated as the similarity. Then, the first two-dimensional created image having the highest similarity is extracted from the first two-dimensional created image group by the extraction unit 22.

画像生成部20が生成した第2の2次元作成画像群の全ての2次元作成画像について、2枚目の写真である「正面方向からみたペットの全体写真」との類似度を算出する。そして、この第2の2次元作成画像群の中から、最も類似度が高い第2の2次元作成画像が抽出部22により抽出される。   For all the two-dimensional created images of the second two-dimensional created image group generated by the image generating unit 20, the degree of similarity is calculated with the “total photo of the pet viewed from the front direction” that is the second photograph. Then, the second two-dimensional created image having the highest similarity is extracted from the second two-dimensional created image group by the extraction unit 22.

画像生成部20が生成した第3の2次元作成画像群の全ての2次元作成画像について、3枚目の写真である「側面方向からみたペットの全体写真」との類似度を算出する。そして、この第3の2次元作成画像群の中から、最も類似度が高い第3の2次元作成画像が抽出部22により抽出される。   For all the two-dimensionally created images of the third two-dimensionally created image group generated by the image generating unit 20, the similarity with the “total photo of the pet viewed from the side direction” that is the third photograph is calculated. Then, the third two-dimensional created image having the highest similarity is extracted from the third two-dimensional created image group by the extraction unit 22.

画像生成部20が生成した第4の2次元作成画像群の全ての2次元作成画像について、4枚目の写真である「背面方向からみたペットの全体写真」との類似度を算出する。そして、この第4の2次元作成画像群の中から、最も類似度が高い第4の2次元作成画像が抽出部22により抽出される。   For all the two-dimensional created images of the fourth two-dimensional created image group generated by the image generating unit 20, the similarity with the “entire photo of the pet as viewed from the back direction” that is the fourth photograph is calculated. Then, the fourth two-dimensional created image having the highest similarity is extracted from the fourth two-dimensional created image group by the extraction unit 22.

(演算部24)
演算部24は、抽出部22により抽出された複数の2次元作成画像と複数の2次元入力画像との各類似度の平均値を算出する。
(Calculation unit 24)
The calculation unit 24 calculates an average value of the similarities between the plurality of two-dimensional created images extracted by the extraction unit 22 and the plurality of two-dimensional input images.

本実施形態においては、図3に示すように、1枚目の写真と第1の2次元作成画像との類似度が75点、2枚目の写真と第2の2次元作成画像との類似度が70点、3枚目の写真と第3の2次元作成画像と類似度が90点、4枚目の写真と第4の2次元作成画像との類似度が80点であったとすると、その平均値である78.75を算出する。   In the present embodiment, as shown in FIG. 3, the similarity between the first photograph and the first two-dimensional created image is 75 points, and the similarity between the second photograph and the second two-dimensional created image. If the degree is 70 points, the similarity between the third photograph and the third two-dimensional created image is 90 points, and the similarity between the fourth photograph and the fourth two-dimensional created image is 80 points, The average value 78.75 is calculated.

なお、平均値は、複数の2次元入力画像の内、特徴部を含む2次元入力画像に対して重み付けされた重み付け平均値であってもよい。即ち、演算部24が、複数の2次元作成画像と複数の2位次元入力画像との各類似度の平均値を算出する際に、複数の2次元入力画像の内、特徴部を含むものに重み付けをして、平均値を算出する構成としてもよい。例えば、正面方向から見たペットの顔や、ペットが特有のポーズをとる際の骨格形状等、ペットにおける特徴部の形状が、最終的に作成した3次元形状モデルがペット自体に似ているか否かを判断する上で重要であるような場合がある。そのような場合、ペットの顔の正面方向の写真、及びポーズをとっているペット全体の骨格形状が認識できるような写真については、当該写真の中に重み付け情報を付加しておく。こうすることで、特徴部を含む写真の類似度の算出値が、全体の類似度の算出値に与える影響度を、他の写真の類似度の算出値が、全体の類似度の算出値に与える影響度よりも大きくすることができる。   The average value may be a weighted average value weighted with respect to a two-dimensional input image including a feature portion among a plurality of two-dimensional input images. That is, when the arithmetic unit 24 calculates the average value of the respective similarities between the plurality of two-dimensional created images and the plurality of two-dimensional input images, the calculation unit 24 includes a characteristic portion among the plurality of two-dimensional input images. An average value may be calculated by weighting. For example, whether or not the finally created 3D shape model is similar to the pet itself, such as the pet's face viewed from the front and the shape of the skeleton when the pet takes a unique pose. It may be important in determining whether or not. In such a case, weighting information is added to the photo in the front direction of the pet's face and the photo in which the skeleton shape of the entire pet that is posing can be recognized. By doing this, the calculated value of the similarity of the photo including the feature part has an influence on the calculated value of the overall similarity, and the calculated value of the similarity of the other photo is changed to the calculated value of the overall similarity. The degree of influence can be made larger.

なお、この特徴部が含まれているか否かについての重み付け情報は、入力部10において2次元入力画像の入力を受け付ける際に、当該2次元入力画像に対して付加してもよい。   Note that the weighting information as to whether or not this feature is included may be added to the two-dimensional input image when the input unit 10 receives an input of the two-dimensional input image.

(出力部30)
画像生成部20において2次元作成画像群が複数取得されている場合、出力部30は、抽出部22により最も類似度が高いと判断された2次元作成画像の類似度を出力する。また、2次元入力画像が複数の2次元入力画像である場合には、演算部24により算出された平均値を出力する。モデラーは、この出力部30の出力結果を、通信部70を経由して確認することができる。画像生成部20において2次元作成画像群が一枚取得されている場合、出力部30は、抽出部22により算出された2次元作成画像の類似度を出力する。
(Output unit 30)
When a plurality of two-dimensional created image groups are acquired in the image generation unit 20, the output unit 30 outputs the similarity of the two-dimensional created image determined by the extraction unit 22 as having the highest similarity. When the two-dimensional input image is a plurality of two-dimensional input images, the average value calculated by the calculation unit 24 is output. The modeler can check the output result of the output unit 30 via the communication unit 70. When one 2D creation image group is acquired in the image generation unit 20, the output unit 30 outputs the similarity of the 2D creation image calculated by the extraction unit 22.

このような構成とすることにより、仮に出力結果が所定の値を超えていないような場合には、出力結果が所定の値を超えるまで、適宜3次元データを修正することをモデラーに促すことが可能となる。その結果、依頼者に送付する3次元データの品質を担保することができ、依頼者が修正依頼をする回数を減らすことができるため、依頼者に手間を減らすことができる。   By adopting such a configuration, if the output result does not exceed the predetermined value, the modeler is encouraged to appropriately correct the three-dimensional data until the output result exceeds the predetermined value. It becomes possible. As a result, the quality of the three-dimensional data to be sent to the requester can be ensured, and the number of times the requester makes a correction request can be reduced, so that the effort for the requester can be reduced.

(分割部26)
また、制御部40が、図1に示すように分割部26を更に含む構成としてもよい。分割部26は、抽出部22により抽出された2次元作成画像を複数の領域に分割する。たとえば、分割部26は、2次元作成画像におけるペットの両目と鼻とを結ぶ三角形領域、それ以外の顔領域、前足領域、後足領域、胴体の側面領域、胴体の背面領域などに分割する。このような構成とすることにより、後述する出力部30において、類似度が所定の値よりも低い領域の表示を、他の領域の表示と異ならせることが可能となる。
(Division part 26)
Further, the control unit 40 may further include a dividing unit 26 as shown in FIG. The dividing unit 26 divides the two-dimensional created image extracted by the extracting unit 22 into a plurality of regions. For example, the dividing unit 26 divides the two-dimensionally created image into a triangular area connecting both eyes and nose of the pet, a face area other than that, a forefoot area, a hind leg area, a side area of the trunk, a back area of the trunk, and the like. With such a configuration, in the output unit 30 to be described later, it is possible to make the display of an area having a similarity lower than a predetermined value different from the display of another area.

また、制御部40が分割部26を含み、演算部24が、分割部26により分割された各領域の類似度を算出し、出力部30が、類似度が所定の値よりも低い領域の表示を他の領域の表示と異ならせて出力するのであれば、モデラーが修正すべき点を認識しやすく、モデラーの作業効率を向上させることができる。なお、演算部24が類似度を算出する際のアルゴリズムは、上記抽出部22による類似度算出のアルゴリズムと同様のものを用いればよい。   In addition, the control unit 40 includes the dividing unit 26, the calculation unit 24 calculates the similarity of each region divided by the dividing unit 26, and the output unit 30 displays the region where the similarity is lower than a predetermined value. Can be output differently from the display of other areas, it is easy for the modeler to recognize the points to be corrected, and the work efficiency of the modeler can be improved. Note that the algorithm used when the calculation unit 24 calculates the similarity may be the same as the algorithm used by the extraction unit 22 to calculate the similarity.

出力部30が、類似度が所定の値よりも低い領域の表示を他の領域の表示と異ならせる具体例としては、例えば類似度が所定の値よりも低い領域に赤色等の着色を行う、あるいは当該領域の境界線を赤線、太線で表示する、等である。又は、出力部30が、類似度の点数に応じて、例えば、高得点の領域には青色、所定の値には達しているが高得点には達していない領域には黄色、所定の値に達していない領域には赤色、のように複数の着色を行ってもよい。   As a specific example in which the output unit 30 makes the display of the region whose similarity is lower than the predetermined value different from the display of the other region, for example, coloring the region where the similarity is lower than the predetermined value, such as red, Alternatively, the boundary line of the region is displayed with a red line, a thick line, and the like. Or, according to the score of the similarity, for example, the output unit 30 is blue for a high-scoring region, yellow for a region that has reached a predetermined value but has not reached a high score, and has a predetermined value. A region that has not reached may be colored in a plurality of colors such as red.

(記憶部50)
記憶部50は、所定の記録媒体に対してデータの記録再生を行う。記憶部50は、例えばHDD(Hard Disc Drive)として実現される。記録媒体としては、フラッシュメモリ等の固体メモリ、固体メモリを内蔵したメモリカード、光ディスク、光磁気ディスク、ホログラムメモリなど各種考えられ、記憶部50としては採用する記録媒体に応じて記録再生を実行できる構成とされればよい。記憶部50には、制御部40が使用するプログラムが保存されている。
(Storage unit 50)
The storage unit 50 records and reproduces data with respect to a predetermined recording medium. The storage unit 50 is realized as an HDD (Hard Disc Drive), for example. Various recording media, such as a solid-state memory such as a flash memory, a memory card incorporating a solid-state memory, an optical disk, a magneto-optical disk, and a hologram memory, are conceivable. The storage unit 50 can perform recording and reproduction according to the recording medium employed. What is necessary is just to be set as a structure. The storage unit 50 stores a program used by the control unit 40.

記憶部50は、制御部40の指示に応じて、入力部10に入力された2次元入力画像、及び3次元データを保存することができ、また、制御部40の指示に応じて、2次元入力画像、及び3次元データを、制御部40に入手させることが可能である。   The storage unit 50 can store the two-dimensional input image and the three-dimensional data input to the input unit 10 according to an instruction from the control unit 40, and can also store two-dimensional data according to an instruction from the control unit 40. The input image and the three-dimensional data can be obtained by the control unit 40.

(情報処理方法)
以下、図2を用いて、情報処理方法について説明する。
(Information processing method)
Hereinafter, the information processing method will be described with reference to FIG.

図2は、本実施形態に係る価格見積もり方法の一例を示すフローチャートである。   FIG. 2 is a flowchart illustrating an example of the price estimation method according to the present embodiment.

(入力ステップS310)
図2に示すように、入力ステップS310においては、入力部10が、2次元入力画像の入力を受け付ける2次元入力画像入力ステップS311と、3次元データの入力を受け付ける3次元データ入力ステップS312とを含む。
(Input step S310)
As shown in FIG. 2, in the input step S310, the input unit 10 includes a two-dimensional input image input step S311 for receiving an input of a two-dimensional input image, and a three-dimensional data input step S312 for receiving an input of three-dimensional data. Including.

(2次元入力画像入力ステップS311)
2次元入力画像入力ステップにおいては、入力部10が、3次元形状モデルの製造を依頼する依頼者からの2次元入力画像を受け付ける。2次元入力画像の入力は、例えば依頼者が、自身のコンピュータからサーバー装置である情報処理装置100にアクセスし、上述した通信部70を経由して2次元入力画像を入力部10に入力することにより行われる。又は、情報処理装置100のユーザが、依頼者からメール、記録媒体などを介して入手した2次元入力画像を、入力部10に入力することにより行われる。入力部10に入力された2次元入力画像は、記憶部50に保存される。
(Two-dimensional input image input step S311)
In the two-dimensional input image input step, the input unit 10 receives a two-dimensional input image from a client who requests the manufacture of a three-dimensional shape model. As for the input of the two-dimensional input image, for example, the client accesses the information processing apparatus 100 as the server apparatus from his / her computer and inputs the two-dimensional input image to the input unit 10 via the communication unit 70 described above. Is done. Alternatively, it is performed by the user of the information processing apparatus 100 inputting a two-dimensional input image obtained from the requester via mail, a recording medium, or the like to the input unit 10. The two-dimensional input image input to the input unit 10 is stored in the storage unit 50.

本実施形態においては、依頼者により入力された2次元入力画像が複数枚の写真であり、1枚目が「正面方向から見たペットの顔写真」、2枚目が「正面方向からみたペットの全体写真」、3枚目が「側面方向から見たペットの全体写真」、4枚目が「背面方向からみたペットの全体写真」であったとする。これらの「ペットの全体写真」は全てお座りの姿勢をしている。また、お座り姿勢における両前足の交差角度に特徴がある旨、依頼者より連絡を受けている。両前足の交差角度は2枚目の「正面方向からみたペットの全体写真」より明らかになっている。従って、依頼者から要望のあった2枚目の「正面方向からみたペットの全体写真」には、当該写真が特徴部を含む旨の重み付け情報が付加されている。また、一般的に3次元形状モデルの類似度に大きな影響を与える1枚目の「正面方向から見たペットの顔写真」にも、同様の重み付け情報が付加されている。   In the present embodiment, the two-dimensional input image input by the client is a plurality of photographs, the first is a “face photo of the pet viewed from the front direction”, and the second is the “pet viewed from the front direction”. Suppose that the third photograph is the “entire photo of the pet seen from the side direction” and the fourth photograph is the “entire photo of the pet seen from the rear direction”. All of these “overall pictures of pets” are sitting. In addition, the client has been informed that the crossing angle of both front legs in the sitting posture is characteristic. The angle of intersection of both forelimbs is made clear from the second “Overall photo of the pet as seen from the front”. Therefore, weighting information indicating that the photograph includes a characteristic portion is added to the second “entire photo of the pet viewed from the front direction” requested by the client. Similar weighting information is also added to the first “face photo of the pet as seen from the front”, which generally has a large effect on the similarity of the three-dimensional shape model.

(3次元データ入力ステップS312)
3次元データ入力ステップにおいては、モデラーが依頼者からの2次元入力画像に基づき3次元データを作成し、モデラー又は情報処理装置100のユーザが当該3次元データを入力部10に入力する。
(Three-dimensional data input step S312)
In the three-dimensional data input step, the modeler creates three-dimensional data based on the two-dimensional input image from the client, and the modeler or the user of the information processing apparatus 100 inputs the three-dimensional data to the input unit 10.

モデラーは、例えば自身のコンピュータから情報処理装置100にアクセスし、通信部70を介して記憶部50に保存された2次元入力画像を確認することができる。モデラーは、この2次元入力画像に基づき3次元データを作成する。モデラーは、再度、自身のコンピュータから情報処理装置100にアクセスし、通信部70を介して記憶部50に3次元データを保存する。又は、情報処理装置100のユーザが、モデラーからメール、記録媒体などを介して入手した3次元データを入力部10に入力し、記憶部50に保存する。   For example, the modeler can access the information processing apparatus 100 from his computer and check the two-dimensional input image stored in the storage unit 50 via the communication unit 70. The modeler creates three-dimensional data based on the two-dimensional input image. The modeler again accesses the information processing apparatus 100 from its own computer, and stores the three-dimensional data in the storage unit 50 via the communication unit 70. Alternatively, the user of the information processing apparatus 100 inputs the three-dimensional data obtained from the modeler via mail, a recording medium, or the like to the input unit 10 and stores it in the storage unit 50.

(画像生成ステップS320)
図3に示すように、入力ステップS310が終了すると、画像生成ステップS320を開始することができる。画像生成ステップS320の開始タイミングは、情報処理装置100のユーザが決めてもよく、モデラーが決めてもよい。
(Image generation step S320)
As shown in FIG. 3, when the input step S310 is completed, the image generation step S320 can be started. The start timing of the image generation step S320 may be determined by the user of the information processing apparatus 100 or a modeler.

画像生成ステップS320においては、入力ステップS310で情報処理装置100に入力された3次元データに基づき、仮想空間に配置された3次元モデルを所与の視点から見た外観を示す2次元作成画像を生成する。   In the image generation step S320, based on the three-dimensional data input to the information processing apparatus 100 in the input step S310, a two-dimensional created image showing the appearance of the three-dimensional model arranged in the virtual space viewed from a given viewpoint. Generate.

本実施形態においては、依頼者により入力された2次元入力画像が4枚のペットの写真であり、例えば1枚目が「正面方向から見たペットの顔写真」、2枚目が「正面方向からみたペットの全体写真」、3枚目が「側面方向から見たペットの全体写真」、4枚目が「背面方向からみたペットの全体写真」であるとする。   In the present embodiment, the two-dimensional input image input by the client is a photograph of four pets. For example, the first sheet is a “pet face photograph viewed from the front direction”, and the second sheet is “front direction”. It is assumed that the whole picture of the pet viewed from the side, the third picture is the whole picture of the pet seen from the side, and the fourth picture is the whole picture of the pet seen from the back.

まず、画像生成部20は、入力された顔写真からカメラ位置を推定し、推定されたカメラ位置情報に基づき、仮想空間における3次元モデルと投影中心との位置を調整する。そして、本実施形態においては、画像生成部20は、仮想空間に配置された3次元モデルを1度ずつ回転させながら、3次元モデルの投影画像を投影面に表示させ、依頼者により入力されたペットの顔写真に近い外観を示す2次元作成画像群を生成する。   First, the image generation unit 20 estimates the camera position from the input face photograph, and adjusts the positions of the three-dimensional model and the projection center in the virtual space based on the estimated camera position information. In the present embodiment, the image generation unit 20 displays the projection image of the three-dimensional model on the projection surface while rotating the three-dimensional model arranged in the virtual space one by one, and is input by the requester. A two-dimensional created image group showing an appearance close to a pet face photograph is generated.

なお、この画像生成ステップS320において、カメラ位置を推定するステップを省略し、例えば、画像生成部20が、3次元モデルを1度ずつ360度回転させ360枚の2次元作成画像群を生成し、後述する抽出ステップS330において、360枚の2次元作成画像群から類似度が高いものを抽出する構成としても構わない。   Note that in this image generation step S320, the step of estimating the camera position is omitted. For example, the image generation unit 20 rotates the three-dimensional model 360 degrees one by one to generate 360 two-dimensionally created image groups, In the extraction step S330, which will be described later, a configuration in which a high similarity is extracted from a group of 360 two-dimensionally created images may be used.

なお、この画像生成ステップS320において、画像生成部20が、複数の2次元作成画像を取得するのではなく、推定したカメラ位置から1枚の2次元作成画像を取得し、後述する抽出ステップS330において、この1枚の2次元作成画像と2次元入力画像との類似度を算出し、後述する出力ステップS360において、算出された類似度を出力する構成としても構わない。   In this image generation step S320, the image generation unit 20 does not acquire a plurality of two-dimensional created images, but acquires one two-dimensional created image from the estimated camera position, and in an extraction step S330 described later. The similarity between the one-dimensional created image and the two-dimensional input image may be calculated, and the calculated similarity may be output in the output step S360 described later.

本実施形態においては、画像生成部20は、1枚目の「正面方向から見たペットの顔写真」に対して、第1の2次元作成画像群を生成し、2枚目の「正面方向から見たペットの全体写真」に対して、第2の2次元作成画像群を生成し、3枚目の「側面方向から見たペットの全体写真」に対して、第3の2次元作成画像群を生成し、4枚目の「背面方向から見たペットの全体写真」に対して、第4の2次元作成画像群を生成する。各2次元作成画像群の生成方法については、上記(画像生成部20)にて上述したとおりである。   In the present embodiment, the image generation unit 20 generates a first two-dimensional created image group for the first “face photo of the pet viewed from the front direction”, and generates the second “front direction” The second two-dimensional created image group is generated for the “total photo of the pet viewed from the side”, and the third two-dimensional generated image is generated for the third “total photo of the pet viewed from the side”. A group is generated, and a fourth two-dimensional created image group is generated for the fourth “entire photo of the pet viewed from the back direction”. The method for generating each two-dimensionally created image group is as described above in (Image generating unit 20).

(抽出ステップS330)
抽出ステップS330においては、制御部40に含まれる抽出部22が、2次元作成画像群と2次元入力画像との類似度を算出し、最も類似度が高い2次元作成画像を前記2次元作成画像群の中から抽出する。
(Extraction step S330)
In the extraction step S330, the extraction unit 22 included in the control unit 40 calculates the similarity between the two-dimensional creation image group and the two-dimensional input image, and the two-dimensional creation image with the highest similarity is calculated as the two-dimensional creation image. Extract from the group.

本実施形態においては、第1の2次元作成画像群の中から、1枚目の写真と最も類似度が高い第1の2次元作成画像が抽出され、第2の2次元作成画像群の中から、2枚目の写真と最も類似度が高い第2の2次元作成画像が抽出され、第3の2次元作成画像群の中から、3枚目の写真と最も類似度が高い第3の2次元作成画像が抽出され、第4の2次元作成画像群の中から、4枚目の写真と最も類似度が高い第4の2次元作成画像が抽出される。   In the present embodiment, the first two-dimensional created image having the highest similarity to the first photograph is extracted from the first two-dimensional created image group, and the second two-dimensional created image group The second two-dimensional created image having the highest similarity with the second photo is extracted, and the third two-dimensional created image having the highest similarity with the third photo is extracted from the third two-dimensional created image group. A two-dimensional created image is extracted, and a fourth two-dimensional created image having the highest similarity to the fourth photograph is extracted from the fourth two-dimensional created image group.

次に、S331において、領域分割をするか否かを判断する。本実施形態においては、領域分割することを選択し、フローは、分割ステップS340に進む。   Next, in S331, it is determined whether or not to divide the area. In the present embodiment, it is selected to divide the region, and the flow proceeds to the dividing step S340.

(分割ステップS340)
本実施形態においては、フローが分割ステップS340に進むため、図1に示した分割部26が、抽出部22により抽出された2次元作成画像を複数の領域に分割する。例えば、分割部26は、1枚目の「正面方向から見たペットの顔写真」と最も類似度が高いと判断された第1の2次元作成画像を、ペットの両目と口とを結ぶ三角領域である「正面三角領域」と、当該三角領域以外の顔領域である「正面その他顔領域」とに分割する。また、分割部26は、2枚目の「正面方向から見たペットの全体写真」と最も類似度が高いと判断された第2の2次元作成画像を、「正面胴体領域」と、「正面前足領域」に分割する。また、分割部26は、3枚目の「側面方向から見たペットの全体写真」と最も類似度が高いと判断された第3の2次元作成画像を、「側面頭部領域」と、「側面胴体領域」と、「側面前足領域」と、「側面後足領域」とに分割する。更に、分割部26は、4枚目の「背面方向から見たペットの全体写真」と最も類似度が高いと判断された第4の2次元作成画像を、「背面頭部領域」と、「背面胴体領域」とに分割する。
(Division step S340)
In the present embodiment, since the flow proceeds to the division step S340, the division unit 26 illustrated in FIG. 1 divides the two-dimensional created image extracted by the extraction unit 22 into a plurality of regions. For example, the dividing unit 26 uses a triangle that connects the first two-dimensionally created image determined to have the highest degree of similarity to the first “face photo of the pet viewed from the front” to connect both eyes and the mouth of the pet. The area is divided into a “front triangle area” that is an area and a “front other face area” that is a face area other than the triangle area. Further, the dividing unit 26 converts the second two-dimensional created image determined to have the highest degree of similarity with the second “entire photo of the pet viewed from the front direction”, “front body region”, and “front Divide into “forefoot areas”. In addition, the dividing unit 26 converts the third two-dimensional created image determined to have the highest degree of similarity to the third “entire photo of the pet viewed from the side direction”, “side head region”, “ It is divided into a “side body region”, a “side front foot region”, and a “side rear foot region”. Further, the dividing unit 26 converts the fourth two-dimensional created image determined to have the highest similarity to the fourth “entire photo of the pet viewed from the back direction” into “back head region” and “ It is divided into “back fuselage area”.

(演算ステップS350)
演算ステップS350において、演算部24は、抽出部22により抽出された複数の2次元作成画像と複数の2次元入力画像との各類似度の平均値を算出する。
(Calculation step S350)
In calculation step S350, the calculation unit 24 calculates an average value of the similarities between the plurality of two-dimensional created images extracted by the extraction unit 22 and the plurality of two-dimensional input images.

図4は、本実施形態に係る情報処理方法における演算ステップの概念を示す図である。   FIG. 4 is a diagram illustrating a concept of calculation steps in the information processing method according to the present embodiment.

演算部24は、1枚目の写真である「正面方向から見たペットの顔写真」から認識されるペットの両目と口とを結ぶ三角領域と、第1の2次元作成画像における三角領域である「正面三角領域」との比較を行い、その一致度合いを点数にて表示する。本実施形態においては、演算部24は、図4に示すように、各角度の一致度が80%であり、80点の類似度があると評価した。   The calculation unit 24 includes a triangular area connecting the eyes and the mouth of the pet recognized from the “first face photograph of the pet as viewed from the front”, and the triangular area in the first two-dimensional created image. A comparison is made with a certain “frontal triangular area”, and the degree of coincidence is displayed as a score. In the present embodiment, as shown in FIG. 4, the calculation unit 24 evaluates that the degree of coincidence of each angle is 80% and there are 80 similarities.

演算部24は、1枚目の写真である「正面方向から見たペットの顔写真」と、第1の2次元作成画像おける「正面その他顔領域」とを比較する。ここで、既にペットの両目と口とを結ぶ三角領域においては、既にその類似度を判断しているため、ここでは当該三角領域以外の顔領域についての類似度判断が行われる。例えば、顔全体における口や耳の配置、口の形状、耳の形状、顔における特定部位の長さと他の特定部位の長さとの比率、顔全体の色、模様の有無・形状などについての類似度判断が行われる。顔全体における口や耳の配置の類似度を算出するのであれば、例えば、第1の2次元作成画像におけるペットの顔の口と両耳を結ぶ三角形と、1枚目の写真におけるペットの顔の口と両耳を結ぶ三角形とを重ね合わせ、第1の2次元作成画像における当該三角形の面積を100%とした場合における、重ね合わせられた部分の面積の割合を類似度として算出してもよい。口(又は耳)の形状の類似度を算出するのであれば、第1の2次元作成画像におけるペットの口(又は耳)と、1枚目の写真におけるペットの口(又は耳)とを重ね合わせ、第1の2次元作成画像における口(又は耳)の面積を100%とした場合における、重ね合わせられた部分の面積の割合を類似度として算出してもよい。顔における特定部位の長さと他の特定部位の長さとの比率の類似度を算出するのであれば、第1の2次元作成画像における当該比率と1枚目の写真における当該比率の内、大きいものから小さいものを割った値を類似度として算出してもよい。本実施形態においては、演算部24は、図4に示すように70点の類似度があると評価した。   The calculation unit 24 compares the first photograph “a pet face photograph viewed from the front direction” with the “front other face area” in the first two-dimensionally created image. Here, since the degree of similarity has already been determined in the triangular area connecting the eyes and mouth of the pet, the degree of similarity is determined for the face area other than the triangular area. For example, the arrangement of the mouth and ears in the entire face, the shape of the mouth, the shape of the ears, the ratio of the length of a specific part of the face to the length of another specific part, the color of the entire face, the presence / absence / shape of the pattern, etc. Judgment is made. If the similarity of the arrangement of the mouth and ears in the entire face is calculated, for example, the triangle that connects the mouth and both ears of the pet face in the first two-dimensional created image, and the pet face in the first photograph If the triangle connecting the mouth and both ears is overlapped and the area of the triangle in the first two-dimensional created image is 100%, the ratio of the area of the overlapped portion is calculated as the similarity. Good. If the similarity of the shape of the mouth (or ear) is to be calculated, the pet's mouth (or ear) in the first two-dimensional created image and the pet's mouth (or ear) in the first picture are overlaid. In addition, when the area of the mouth (or ear) in the first two-dimensional created image is 100%, the ratio of the area of the overlapped portion may be calculated as the similarity. If the similarity of the ratio between the length of a specific part on the face and the length of another specific part is calculated, the ratio of the ratio in the first two-dimensional created image and the ratio in the first photograph is larger Alternatively, a value obtained by dividing a smaller value may be calculated as the similarity. In the present embodiment, the calculation unit 24 evaluated that there are 70 similarities as shown in FIG.

なお、入力ステップS310にて説明したとおり、正面方向から見た顔領域は、一般的に3次元形状モデルの類似度を決定付ける上で重要な領域であるため、1枚目の写真である「正面方向から見たペットの顔写真」には重み付け情報が付加されている。従って、この「正面方向から見たペットの顔写真」との比較を行う「正面三角領域」と「正面その他顔領域」とについては、図4に示すように、重み付けが行われる。   As described in the input step S310, the face region viewed from the front direction is generally an important region for determining the similarity of the three-dimensional shape model, and thus is the first photograph. Weighting information is added to “a pet face photograph viewed from the front”. Therefore, as shown in FIG. 4, weighting is performed on the “front triangular area” and the “front other face area” for comparison with the “face photo of the pet seen from the front direction”.

演算部24は、2枚目の写真である「正面方向からみたペットの全体写真」から認識される胴体と、第2の2次元作成画像における「正面胴体領域」とを比較する。ここでは例えば、胴体の形状や縦横比、胴体全体の色、模様の有無・形状などについて類似度判断が行われる。胴体の形状の類似度を算出するのであれば、例えば、第2の2次元作成画像におけるペットの胴体と、2枚目の写真におけるペットの胴体とを重ね合わせ、第2の2次元作成画像における胴体の面積を100%とした場合における、重ね合わせられた部分の面積の割合を類似度として算出してもよい。本実施形態においては、演算部24は、図4に示すように80点の類似度があると評価した。   The computing unit 24 compares the body recognized from the second photograph “entire photo of the pet viewed from the front direction” with the “front body region” in the second two-dimensionally created image. Here, for example, similarity determination is performed on the shape and aspect ratio of the body, the color of the entire body, the presence / absence / shape of the pattern, and the like. If the similarity of the shape of the torso is calculated, for example, the torso of the pet in the second two-dimensional created image and the torso of the pet in the second photograph are superimposed, When the area of the trunk is 100%, the ratio of the overlapped area may be calculated as the similarity. In the present embodiment, the calculation unit 24 evaluated that there are 80 similarities as shown in FIG.

演算部24は、2枚目の写真である「正面方向からみたペットの全体写真」から認識される前足と、第2の2次元作成画像における「正面前足領域」とを比較する。ここでは例えば、胴体領域に対する両前足の位置、両前足の交差角度、両前足全体の色、模様の有無・形状などについて類似度判断が行われる。両前足の位置、両前足の交差角度の類似度を算出するのであれば、例えば、第2の2次元作成画像におけるペットの両前足の付け根と両足との交差点とを結ぶ三角形と、2枚目の写真におけるペットの両前足の付け根と両足との交差点とを結ぶ三角形とを重ね合わせ、第2の2次元作成画像における当該三角形の面積を100%とした場合における、重ね合わせられた部分の面積の割合を類似度として算出してもよい。本実施形態においては、演算部24は、図4に示すように60点の類似度があると評価した。   The calculation unit 24 compares the forefoot recognized from the “entire photo of the pet viewed from the front direction” that is the second photograph with the “front forefoot region” in the second two-dimensionally created image. Here, for example, the degree of similarity is determined with respect to the position of both front legs with respect to the body region, the angle of intersection of both front legs, the color of the entire front legs, the presence / absence / shape of the pattern, and the like. If the similarity between the position of both forefoot and the intersection angle of both forefoot is calculated, for example, a triangle connecting the base of both forefoot of the pet and the intersection of both feet in the second two-dimensional created image, The area of the overlapped portion when the area connecting the triangles in the second two-dimensional created image is 100% by superimposing the triangles connecting the bases of both forefoot of the pet and the intersection of both legs in the photo of May be calculated as the degree of similarity. In the present embodiment, the calculation unit 24 evaluated that there are 60 similarities as shown in FIG.

なお、入力ステップS310にて説明したとおり、お座り姿勢における両前足の交差角度に特徴がある旨、依頼者より連絡を受けており、当該両前足の交差角度情報を含む「正面方向からみたペットの全体写真」には重み付け情報が付加されている。この2枚目の写真と比較される「正面胴体領域」、及び「正面前足領域」の双方について、重み付けを行ってもよいが、本実施形態においては、上記依頼者からの連絡内容から、「両前足の交差角度」のみを特徴部であると見做し、「正面胴体領域」おける重み付けは行わず、「正面前足領域」における重み付けのみを行う。   In addition, as explained in the input step S310, the client has been informed that there is a characteristic in the crossing angle of both front legs in the sitting posture, and includes the “pet viewed from the front direction” including the crossing angle information of the front legs. Weighting information is added to the “whole picture”. Both the “front body region” and the “front forefoot region” to be compared with the second photograph may be weighted. However, in the present embodiment, from the contents of communication from the requester, “ Only the “intersection angle of both forefoot” is regarded as a feature, and weighting is not performed on the “front body region”, but only weighting is performed on the “front forefoot region”.

演算部24は、3枚目の写真である「側面方向から見たペットの全体写真」から認識される頭部と、第3の2次元作成画像における「側面頭部領域」とを比較する。ここでは例えば、頭部の形状、頭部領域における目、耳、鼻、口の位置、胴体領域に対する頭部領域の位置、頭部全体の色、模様の有無・形状などについて類似度判断が行われる。頭部領域における目、耳、鼻、口の位置の類似度を算出するのであれば、例えば、第3の2次元作成画像におけるペットの目、耳、鼻、口を結ぶ四角形と、3枚目の写真におけるペットの目、耳、鼻、口を結ぶ四角形とを重ね合わせ、第3の2次元作成画像における当該四角形の面積を100%とした場合における、重ね合わせられた部分の面積の割合を類似度として算出してもよい。本実施形態においては、演算部24は、図4に示すように、90点の類似度があると評価した。   The computing unit 24 compares the head recognized from the third photograph “the entire picture of the pet viewed from the side direction” with the “side head region” in the third two-dimensional created image. Here, for example, similarity determination is performed on the shape of the head, the position of the eyes, ears, nose, mouth in the head region, the position of the head region relative to the body region, the color of the entire head, the presence / absence / shape of the pattern, etc. Is called. If the similarity between the positions of the eyes, ears, nose, and mouth in the head region is calculated, for example, the quadrilateral connecting the pet's eyes, ears, nose, and mouth in the third two-dimensionally created image and the third piece The ratio of the area of the overlapped part when the area connecting the eyes, ears, nose, and mouth of the pet in the photo is overlapped and the area of the rectangle in the third two-dimensional created image is 100%. The similarity may be calculated. In the present embodiment, the calculation unit 24 evaluated that there are 90 similarities as shown in FIG.

演算部24は、3枚目の写真である「側面方向から見たペットの全体写真」から認識される胴体と、第3の2次元作成画像における「側面胴体領域」とを比較する。ここでは例えば、胴体の形状、胴体全体の色、模様の有無・形状などについて類似度判断が行われる。胴体の形状の類似度を算出するのであれば、例えば、第3の2次元作成画像におけるペットの胴体と、3枚目の写真におけるペットの胴体とを重ね合わせ、第3の2次元作成画像における胴体の面積を100%とした場合における、重ね合わせられた部分の面積の割合を類似度として算出してもよい。本実施形態においては、演算部24は、図4に示すように、90点の類似度があると評価した。   The calculation unit 24 compares the body recognized from the third photograph “entire pet photograph viewed from the side direction” with the “side body area” in the third two-dimensionally created image. Here, for example, similarity determination is performed on the shape of the body, the color of the entire body, the presence / absence / shape of the pattern, and the like. If the similarity of the shape of the torso is to be calculated, for example, the pet torso in the third two-dimensionally created image is superimposed on the torso of the pet in the third photograph, and in the third two-dimensionally created image When the area of the trunk is 100%, the ratio of the overlapped area may be calculated as the similarity. In the present embodiment, the calculation unit 24 evaluated that there are 90 similarities as shown in FIG.

演算部24は、3枚目の写真である「側面方向から見たペットの全体写真」から認識される前足と、第3の2次元作成画像における「側面前足領域」とを比較する。ここでは例えば、前足の形状、胴体領域に対する前足の位置、前足全体の色、模様の有無・形状などについて類似度判断が行われる。前足の形状の類似度を算出するのであれば、例えば、第3の2次元作成画像におけるペットの前足と、3枚目の写真におけるペットの前足とを重ね合わせ、第3の2次元作成画像における前足の面積を100%とした場合における、重ね合わせられた部分の面積の割合を類似度として算出してもよい。胴体領域に対する前足の位置の類似度を算出するのであれば、例えば、第3の2次元作成画像におけるペットの前足の付け根の位置と、3枚目の写真におけるペットの前足付け根の位置とが一致するよう、双方の胴体領域を重ね合わせ、第3の2次元作成画像における胴体の面積を100%とした場合における、重ね合わせられた部分の面積の割合を類似度として算出してもよい。本実施形態においては、演算部24は、図4に示すように、90点の類似度があると評価した。   The computing unit 24 compares the forefoot recognized from the third photograph “entire photo of the pet viewed from the side direction” and the “side forefoot region” in the third two-dimensionally created image. Here, for example, similarity determination is performed on the shape of the forefoot, the position of the forefoot with respect to the body region, the color of the entire forefoot, the presence / absence / shape of the pattern, and the like. If the similarity of the shape of the forefoot is to be calculated, for example, the pet's forefoot in the third two-dimensional created image and the pet's forefoot in the third photograph are superimposed, When the area of the forefoot is 100%, the ratio of the area of the overlapped portion may be calculated as the similarity. If the similarity of the position of the forefoot with respect to the torso area is calculated, for example, the position of the base of the forefoot of the pet in the third two-dimensional created image matches the position of the forefoot of the pet in the third photograph As such, the ratio of the area of the overlapped portion may be calculated as the degree of similarity when both the body regions are overlapped and the area of the body in the third two-dimensional created image is 100%. In the present embodiment, the calculation unit 24 evaluated that there are 90 similarities as shown in FIG.

演算部24は、3枚目の写真である「側面方向から見たペットの全体写真」から認識される後足と、第3の2次元作成画像における「側面後足領域」とを比較する。ここでは例えば、後足の形状、胴体領域に対する後足の位置、後足全体の色、模様の有無・形状などについて類似度判断が行われる。後足の形状の類似度を算出するのであれば、例えば、第3の2次元作成画像におけるペットの後足と、3枚目の写真におけるペットの後足とを重ね合わせ、第3の2次元作成画像における後足の面積を100%とした場合における、重ね合わせられた部分の面積の割合を類似度として算出してもよい。胴体領域に対する後足の位置の類似度を算出するのであれば、例えば、第3の2次元作成画像におけるペットの後足の付け根の位置と、3枚目の写真におけるペットの後足の付け根の位置とが一致するよう、第3の2次元作成画像と3枚目の写真の胴体領域を重ね合わせ、第3の2次元作成画像における胴体の面積を100%とした場合における、重ね合わせられた部分の面積の割合を類似度として算出してもよい。本実施形態においては、演算部24は、図4に示すように、90点の類似度があると評価した。   The computing unit 24 compares the hind paw recognized from the third photograph “entire photo of the pet viewed from the side direction” with the “side hind paw region” in the third two-dimensional created image. Here, for example, similarity determination is performed on the shape of the hind legs, the position of the hind legs with respect to the body region, the color of the whole hind legs, the presence / absence / shape of the pattern, and the like. If the similarity of the shape of the hind paws is calculated, for example, the pet hind paw in the third two-dimensional created image is superimposed on the hind paw of the pet in the third photograph, and the third two-dimensional When the area of the hind legs in the created image is 100%, the ratio of the area of the overlapped portion may be calculated as the similarity. If the similarity of the position of the hind paw with respect to the torso region is calculated, for example, the position of the base of the hind paw of the pet in the third two-dimensional created image and the base of the hind paw of the pet in the third photograph The third two-dimensionally created image and the body region of the third photograph are overlapped so that the positions coincide with each other, and the body area in the third two-dimensionally created image is set to 100%. The proportion of the area of the part may be calculated as the similarity. In the present embodiment, the calculation unit 24 evaluated that there are 90 similarities as shown in FIG.

演算部24は、4枚目の写真である「背面方向からみたペットの全体写真」から認識される頭部と、第4の2次元作成画像における「背面頭部領域」とを比較する。ここでは例えば、頭部の形状、胴体領域に対する頭部領域の位置、頭部全体の色、模様の有無・形状などについて類似度判断が行われる。頭部の形状の類似度を算出するのであれば、例えば、第4の2次元作成画像におけるペットの頭部と、4枚目の写真におけるペットの頭部とを重ね合わせ、第4の2次元作成画像における頭部の面積を100%とした場合における、重ね合わせられた部分の面積の割合を類似度として算出してもよい。胴体領域に対する頭部の位置の類似度を算出するのであれば、例えば、第4の2次元作成画像におけるペットの首の付け根の位置と、4枚目の写真におけるペットの首の付け根の位置とが一致するよう、第4の2次元作成画像と4枚目の写真の胴体領域を重ね合わせ、第4の2次元作成画像における胴体の面積を100%とした場合における、重ね合わせられた部分の面積の割合を類似度として算出してもよい。本実施形態においては、演算部24は、図4に示すように、80点の類似度があると評価した。   The calculation unit 24 compares the head recognized from the “fourth photograph,“ entire photo of the pet as viewed from the back direction ””, and the “back head region” in the fourth two-dimensionally created image. Here, for example, similarity determination is performed on the shape of the head, the position of the head region relative to the body region, the color of the entire head, the presence / absence / shape of the pattern, and the like. If the similarity of the shape of the head is to be calculated, for example, the pet's head in the fourth two-dimensional created image and the pet's head in the fourth photograph are overlaid, and the fourth two-dimensional When the area of the head in the created image is 100%, the ratio of the area of the overlapped portion may be calculated as the similarity. If the similarity of the position of the head with respect to the body region is calculated, for example, the position of the base of the pet's neck in the fourth two-dimensional created image, and the position of the base of the pet's neck in the fourth photograph Of the 4th two-dimensionally created image and the body area of the fourth photograph so that they match, and the area of the torso in the 4th two-dimensionally created image is 100%. The area ratio may be calculated as the similarity. In the present embodiment, the calculation unit 24 evaluated that there are 80 similarities as shown in FIG.

演算部24は、4枚目の写真である「背面方向からみたペットの全体写真」から認識される胴体と、第4の2次元作成画像における「背面胴体領域」とを比較する。ここでは例えば、胴体の形状、胴体全体の色、模様の有無・形状などについて類似度判断が行われる。胴体の形状の類似度を算出するのであれば、例えば、第4の2次元作成画像におけるペットの胴体と、4枚目の写真におけるペットの胴体とを重ね合わせ、第4の2次元作成画像における胴体の面積を100%とした場合における、重ね合わせられた部分の面積の割合を類似度として算出してもよい。本実施形態においては、演算部24は、図4に示すように、80点の類似度があると評価した。   The calculation unit 24 compares the body recognized from the “fourth photograph,“ the entire picture of the pet viewed from the back direction ”” and the “back body area” in the fourth two-dimensionally created image. Here, for example, similarity determination is performed on the shape of the body, the color of the entire body, the presence / absence / shape of the pattern, and the like. If the similarity of the shape of the torso is calculated, for example, the pet torso in the fourth two-dimensional created image is superimposed on the torso of the pet in the fourth photograph, and the fourth two-dimensional created image When the area of the trunk is 100%, the ratio of the overlapped area may be calculated as the similarity. In the present embodiment, the calculation unit 24 evaluated that there are 80 similarities as shown in FIG.

この演算ステップS350においては、更に各領域において算出された類似度に関する点数の平均値を算出する。ここで、重み付け情報がない場合の平均値は、単純に10か所の領域の合計を10で割った値である81点が算出結果となる。しかし、本実施形態においては、「正面三角領域」、「正面その他顔領域」、「正面前足領域」に重み付けを行っており、これらの点数に2を乗じて他の領域との合計を算出し、その合計を13で割った値である78.46154が重み付けを考慮した算出結果となる。この重み付けを考慮した算出結果が重み付け平均値である。   In this calculation step S350, an average value of scores related to the similarity calculated in each region is further calculated. Here, the average value when there is no weighting information is 81 points, which is a value obtained by simply dividing the total of 10 areas by 10. However, in the present embodiment, the “front triangular area”, “front other face area”, and “front forefoot area” are weighted, and these points are multiplied by 2 to calculate the total with other areas. , 78.46154, which is a value obtained by dividing the total by 13, is a calculation result in consideration of weighting. A calculation result in consideration of this weighting is a weighted average value.

本実施形態においては、単純平均値よりも、重み付け平均値が下回っている。これは、3次元形状モデルの類似度を判断する上で重要である「正面その他顔領域」、及び依頼者より特徴部である旨の連絡があったお座り姿勢における両前足の交差角度情報を含む「正面前足領域」の点数が低かったため、この2領域について重み付けした重み付け平均値が、重み付けを考慮しなかった単純平均値よりも低くなってしまったことを意味する。   In this embodiment, the weighted average value is lower than the simple average value. This is the "front and other face areas" which is important in determining the similarity of the three-dimensional shape model, and the crossing angle information of both forefoot in the sitting posture in which the client has been informed that it is a characteristic part. This means that the weighted average value weighted for these two regions is lower than the simple average value not considering weighting because the score of the “front forefoot region” is low.

(出力ステップS360)
出力ステップS360においては、出力部30が、演算ステップS350において判断された判断結果を出力する。モデラーは、自身のコンピュータから、情報処理装置100にアクセスし、この出力部30の出力結果を、通信部70を経由して確認することができる。
(Output step S360)
In the output step S360, the output unit 30 outputs the determination result determined in the calculation step S350. The modeler can access the information processing apparatus 100 from his computer and check the output result of the output unit 30 via the communication unit 70.

本実施形態においては、上記演算ステップS350において算出されたとおり、重み付け平均値である78.46154点が出力される。   In the present embodiment, 78.46154 points, which are weighted average values, are output as calculated in the calculation step S350.

さらに、本実施形態においては、出力部30が、類似度が所定の値よりも低い領域の表示を他の領域の表示と異ならせて出力する。ここで、3次元データを依頼者に提出することができる合格ラインが80点であるとする。本実施形態においては、図4に示すように、「正面その他顔領域」、「正面前足領域」の点数が、この合格ラインである80点を下回っているため、出力部30が、3次元データ上において、上記2つの領域に赤色の着色を行う、又は当該領域の境界線を赤線、太線で表示する。なお、出力部30が、類似度の点数に応じて、例えば、90点以上の領域には青色、80点以上で90点未満の領域には黄色、のように複数の着色を行ってもよい。   Furthermore, in the present embodiment, the output unit 30 outputs a display of a region whose similarity is lower than a predetermined value different from the display of other regions. Here, it is assumed that there are 80 acceptable lines through which the three-dimensional data can be submitted to the client. In the present embodiment, as shown in FIG. 4, since the scores of “front and other face areas” and “front forefoot areas” are less than 80 points that are the acceptable lines, the output unit 30 has three-dimensional data. Above, the two regions are colored in red, or the boundary line between the regions is displayed with a red line and a thick line. Note that the output unit 30 may perform a plurality of coloring according to the score of similarity, for example, blue for an area of 90 points or more and yellow for an area of 80 points or more and less than 90 points. .

なお、S331において領域分割を選択しなかった場合、フローはS332に進む。   Note that if the area division is not selected in S331, the flow proceeds to S332.

S332においては、2次元入力画像入力ステップS311において入力された2次元入力画像が一枚であるか否かを判断する。本実施形態においては、上述した2次元入力画像が4枚の写真を含むため、フローは演算ステップS350に進む。   In S332, it is determined whether or not there is one two-dimensional input image input in the two-dimensional input image input step S311. In the present embodiment, since the two-dimensional input image described above includes four photographs, the flow proceeds to calculation step S350.

S331において領域分割を選択しなかった場合、演算ステップS350においては、各写真と、この各写真と最も類似度が高いと判断された各2次元作成画像との類似度の平均値を算出する。例えば、図3に示すように、1枚目の写真と第1の2次元作成画像との類似度が75点、2枚目の写真と第2の2次元作成画像との類似度が70点、3枚目の写真と第3の2次元作成画像と類似度が90点、4枚目の写真と第4の2次元作成画像との類似度が80点であったとすると、演算部24はその平均値である78.75を算出する。出力ステップS360においては、この78.75点が出力される。   If the region division is not selected in S331, in calculation step S350, the average value of the similarity between each photograph and each two-dimensionally created image determined to have the highest similarity with each photograph is calculated. For example, as shown in FIG. 3, the similarity between the first photograph and the first two-dimensional created image is 75 points, and the similarity between the second photograph and the second two-dimensional created image is 70 points. If the similarity between the third photograph and the third two-dimensional created image is 90 points, and the similarity between the fourth photograph and the fourth two-dimensional created image is 80 points, the computing unit 24 The average value 78.75 is calculated. In the output step S360, the 78.75 points are output.

なお、S331において領域分割を選択せず、且つ2次元入力画像入力ステップS311において入力された2次元入力画像が一枚だった場合、フローはS332からS360の出力ステップに進む。そして、S330において抽出された2次元作成画像と2次元入力画像との類似度が、そのままS360において出力される。   If the region division is not selected in S331 and the number of two-dimensional input images input in the two-dimensional input image input step S311 is one, the flow proceeds from S332 to S360. Then, the degree of similarity between the two-dimensional created image extracted in S330 and the two-dimensional input image is output as it is in S360.

(確認ステップS370)
確認ステップS370においては、モデラーが、自身が作成した3次元データが所定の値、例えば3次元データを依頼者に提出することができる合格ラインに達しているか否かを確認する。分割ステップS340を経た本実施形態においては、3次元データを依頼者に提出することができる合格ラインが80点であるのに対し、モデラーが作成した3次元データの類似度を示す重み付け平均値が78.46154であるため、モデラーは、自身が作成した3次元データが上記要件を満たしていないことを認識する。
(Confirmation step S370)
In the confirmation step S370, the modeler confirms whether or not the three-dimensional data created by the modeler has reached a predetermined value, for example, a passing line where the three-dimensional data can be submitted to the client. In the present embodiment that has undergone the division step S340, there are 80 passing lines that can submit 3D data to the client, whereas the weighted average value indicating the similarity of the 3D data created by the modeler is Since it is 78.46154, the modeler recognizes that the three-dimensional data created by the modeler does not satisfy the above requirement.

このような情報処理方法とすることにより、モデラーが、出力結果が所定の値を超えるまで、適宜3次元データを修正する必要があることを認識することが可能となる。   By adopting such an information processing method, it becomes possible for the modeler to recognize that it is necessary to appropriately correct the three-dimensional data until the output result exceeds a predetermined value.

さらに、本実施形態においては、出力ステップS360において、出力部30が、合格ラインである80点に達していない「正面その他顔領域」、「正面前足領域」に赤色の着色を行う、又は当該領域の境界線を赤線、太線で表示するため、モデラーは、当該2つの領域が修正すべき領域であることを即座に認識することができ、モデラーの作業効率を向上させることができる。   Further, in the present embodiment, in the output step S360, the output unit 30 performs red coloring on the “front other face area” and the “front forefoot area” that do not reach 80 points that are the pass line, or the area. Since the boundary line is displayed with a red line and a thick line, the modeler can immediately recognize that the two areas are areas to be corrected, and the work efficiency of the modeler can be improved.

モデラーが作成した3次元データの点数が合格ラインに達していなかった本実施形態においては、3次元データ入力ステップS312に戻り、モデラーが3次元データの修正を行い、再度3次元データを入力する。本実施形態においては、モデラーは、特に類似度の評価が低かった「正面その他顔領域」、及び「正面前足領域」を重点的に修正し、3次元データ入力ステップS312にて、修正済の3次元データを入力部10に入力する。   In the present embodiment where the score of the 3D data created by the modeler has not reached the pass line, the process returns to the 3D data input step S312 and the modeler corrects the 3D data and inputs the 3D data again. In the present embodiment, the modeler mainly corrects the “front other face area” and the “front forefoot area”, which have a particularly low similarity evaluation, and the corrected 3D data is input in the three-dimensional data input step S312. The dimension data is input to the input unit 10.

その後、上述した画像生成ステップS320、抽出ステップS330、演算ステップS350等を経て、出力ステップS360において出力部30が合格ラインを超える算出値を出力すると、このフローは終了し、依頼者に3次元データが送付される。このような情報処理方法により、依頼者に送付する3次元データの品質を担保することができ、その結果、依頼者が修正依頼をする回数を減らすことができる。即ち、依頼者に手間をかけさせることなく、依頼者により指定された画像情報に対して類似度の高い3次元データを得ることができる。   After that, when the output unit 30 outputs a calculated value exceeding the pass line in the output step S360 through the above-described image generation step S320, extraction step S330, calculation step S350, etc., this flow ends and the requester receives the three-dimensional data. Will be sent. By such an information processing method, the quality of the three-dimensional data sent to the requester can be ensured, and as a result, the number of times the requester makes a correction request can be reduced. That is, it is possible to obtain three-dimensional data having a high degree of similarity with respect to the image information specified by the requester without taking the trouble of the requester.

10 入力部、20 画像生成部、22 抽出部、24 演算部、26 分割部、30 出力部、40 制御部、50 記憶部、70 通信部、100 情報処理装置、S310 入力ステップ、S311 2次元入力画像入力ステップ、S312 3次元データ入力ステップ、S320 画像生成ステップ、S330 抽出ステップ、S340 分割ステップ、S350 演算ステップ、S360 出力ステップ、S370 確認ステップ。

DESCRIPTION OF SYMBOLS 10 Input part, 20 Image generation part, 22 Extraction part, 24 Calculation part, 26 Dividing part, 30 Output part, 40 Control part, 50 Storage part, 70 Communication part, 100 Information processing apparatus, S310 Input step, S311 Two-dimensional input Image input step, S312 Three-dimensional data input step, S320 Image generation step, S330 extraction step, S340 division step, S350 calculation step, S360 output step, S370 confirmation step.

Claims (11)

3次元モデルに関する3次元データと2次元入力画像との入力を受け付ける入力部と、
前記3次元データに基づき、仮想空間に配置された前記3次元モデルを所与の視点から見た外観を示す一又は複数の2次元作成画像を生成する画像生成部と、
前記2次元作成画像と前記2次元入力画像との類似度を出力する出力部と、を含む、
情報処理装置。
An input unit for receiving input of 3D data and a 2D input image related to the 3D model;
Based on the three-dimensional data, an image generation unit that generates one or a plurality of two-dimensional creation images showing an appearance of the three-dimensional model arranged in a virtual space when viewed from a given viewpoint;
An output unit that outputs a similarity between the two-dimensional created image and the two-dimensional input image;
Information processing device.
前記画像生成部は、複数の前記2次元作成画像を生成し、
前記出力部は、複数の前記2次元作成画像のそれぞれと前記2次元入力画像との類似度の内、最も高い類似度を出力する、
請求項1に記載の情報処理装置。
The image generation unit generates a plurality of the two-dimensional creation images,
The output unit outputs the highest similarity among the similarities between each of the plurality of two-dimensional created images and the two-dimensional input image.
The information processing apparatus according to claim 1.
複数の前記2次元作成画像のそれぞれと前記2次元入力画像との類似度を算出し、最も類似度が高い2次元作成画像を複数の前記2次元作成画像の中から抽出する抽出部を更に備える、
請求項1又は2に記載の情報処理装置。
The image processing apparatus further includes an extraction unit that calculates a similarity between each of the plurality of two-dimensional created images and the two-dimensional input image, and extracts a two-dimensional created image having the highest similarity from the plurality of two-dimensional created images. ,
The information processing apparatus according to claim 1 or 2.
前記入力部は、複数の2次元入力画像の入力を受け付け、
前記抽出部は、前記複数の2次元入力画像のそれぞれについて、複数の前記2次元作成画像の中から最も類似度が高い2次元作成画像を前記複数の2次元入力画像の数に応じて抽出し、
前記抽出部により抽出された複数の前記2次元作成画像と前記複数の2次元入力画像との各類似度の平均値を算出する演算部を更に含み、
前記出力部は、前記演算部が算出した前記平均値を出力する、
請求項3に記載の情報処理装置。
The input unit receives input of a plurality of two-dimensional input images,
The extraction unit extracts, for each of the plurality of two-dimensional input images, a two-dimensional creation image having the highest similarity from the plurality of two-dimensional creation images according to the number of the plurality of two-dimensional input images. ,
A calculation unit that calculates an average value of the similarities between the plurality of two-dimensional created images extracted by the extraction unit and the plurality of two-dimensional input images;
The output unit outputs the average value calculated by the calculation unit.
The information processing apparatus according to claim 3.
前記平均値は、前記複数の2次元入力画像の内、特徴部を含む2次元入力画像に対して重み付けされた重み付け平均値を含む、
請求項4に記載の情報処理装置。
The average value includes a weighted average value weighted with respect to a two-dimensional input image including a feature portion among the plurality of two-dimensional input images.
The information processing apparatus according to claim 4.
前記入力部が入力を受け付ける前記2次元入力画像には、特徴部が含まれているか否かについての重み付け情報が付加されている、
請求項5に記載の情報処理装置。
Weighting information about whether or not a feature part is included is added to the two-dimensional input image in which the input part receives input.
The information processing apparatus according to claim 5.
前記抽出部により抽出された前記2次元作成画像を複数の領域に分割する分割部を更に含み、
前記演算部は、前記複数の領域に対する前記2次元入力画像との類似度を算出し、
前記出力部は、前記複数の領域の内、類似度が所定の値よりも低い領域の表示を、他の領域の表示と異ならせる、
請求項3乃至6のいずれかに記載の情報処理装置。
A division unit that divides the two-dimensionally created image extracted by the extraction unit into a plurality of regions;
The computing unit calculates a similarity between the plurality of regions and the two-dimensional input image;
The output unit makes a display of a region whose similarity is lower than a predetermined value out of the plurality of regions different from the display of other regions.
The information processing apparatus according to claim 3.
前記出力部は、前記類似度が所定の値よりも低い領域に着色をして表示する、
請求項7に記載の情報処理装置。
The output unit displays a color in an area where the similarity is lower than a predetermined value.
The information processing apparatus according to claim 7.
前記2次元入力画像は写真である、
請求項1乃至8のいずれかに記載の情報処理装置。
The two-dimensional input image is a photograph;
The information processing apparatus according to claim 1.
3次元モデルに関する3次元データと2次元入力画像との入力を受け付ける入力ステップと、
前記3次元データに基づき、仮想空間に配置された前記3次元モデルを所与の視点から見た外観を示す2次元作成画像を生成する画像生成ステップと、
前記2次元作成画像と前記2次元入力画像との類似度を出力する出力ステップと、を含む、
情報処理方法。
An input step for receiving input of three-dimensional data relating to the three-dimensional model and a two-dimensional input image;
An image generation step of generating a two-dimensional creation image showing an appearance of the three-dimensional model arranged in a virtual space viewed from a given viewpoint based on the three-dimensional data;
Outputting a similarity between the two-dimensional created image and the two-dimensional input image,
Information processing method.
コンピュータに、
3次元モデルに関する3次元データと2次元入力画像との入力を受け付ける入力ステップと、
前記3次元データに基づき、仮想空間に配置された前記3次元モデルを所与の視点から見た外観を示す2次元作成画像を生成する画像生成ステップと、
前記2次元作成画像と前記2次元入力画像との類似度を出力する出力ステップと、
を実行させるためのプログラム。

On the computer,
An input step for receiving input of three-dimensional data relating to the three-dimensional model and a two-dimensional input image;
An image generation step of generating a two-dimensional creation image showing an appearance of the three-dimensional model arranged in a virtual space viewed from a given viewpoint based on the three-dimensional data;
An output step of outputting a similarity between the two-dimensional created image and the two-dimensional input image;
A program for running

JP2016192279A 2016-09-29 2016-09-29 Information processing equipment, information processing methods and programs Active JP6894685B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016192279A JP6894685B2 (en) 2016-09-29 2016-09-29 Information processing equipment, information processing methods and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016192279A JP6894685B2 (en) 2016-09-29 2016-09-29 Information processing equipment, information processing methods and programs

Publications (2)

Publication Number Publication Date
JP2018055506A true JP2018055506A (en) 2018-04-05
JP6894685B2 JP6894685B2 (en) 2021-06-30

Family

ID=61835736

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016192279A Active JP6894685B2 (en) 2016-09-29 2016-09-29 Information processing equipment, information processing methods and programs

Country Status (1)

Country Link
JP (1) JP6894685B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112509129A (en) * 2020-12-21 2021-03-16 神思电子技术股份有限公司 Spatial view field image generation method based on improved GAN network

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003058888A (en) * 2001-08-15 2003-02-28 Secom Co Ltd Individual collating device
JP2004272357A (en) * 2003-03-05 2004-09-30 Seiko Epson Corp Presentation device of image recognition result, display method of the result, presentation program of the result, and recording medium
WO2005086089A1 (en) * 2004-03-03 2005-09-15 Nec Corporation Object posture estimation/correlation system, object posture estimation/correlation method, and program for the same
JP2014102608A (en) * 2012-11-19 2014-06-05 Ihi Corp Three-dimensional object recognition device and three-dimensional object recognition method
JP2015194478A (en) * 2014-03-20 2015-11-05 キヤノン株式会社 Information processing device, information processing method, and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003058888A (en) * 2001-08-15 2003-02-28 Secom Co Ltd Individual collating device
JP2004272357A (en) * 2003-03-05 2004-09-30 Seiko Epson Corp Presentation device of image recognition result, display method of the result, presentation program of the result, and recording medium
WO2005086089A1 (en) * 2004-03-03 2005-09-15 Nec Corporation Object posture estimation/correlation system, object posture estimation/correlation method, and program for the same
JP2014102608A (en) * 2012-11-19 2014-06-05 Ihi Corp Three-dimensional object recognition device and three-dimensional object recognition method
JP2015194478A (en) * 2014-03-20 2015-11-05 キヤノン株式会社 Information processing device, information processing method, and program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
KATARZYNA RZAZEWSKA, 外1名: ""3D model reconstruction and evaluation using a collection of points extracted from the series of ph", 2014 FEDERATED CONFERENCE ON COMPUTER SCIENCE AND INFORMATION SYSTEMS, JPN6020037580, 7 September 2014 (2014-09-07), pages 669 - 677, XP032668485, ISSN: 0004470700, DOI: 10.15439/2014F304 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112509129A (en) * 2020-12-21 2021-03-16 神思电子技术股份有限公司 Spatial view field image generation method based on improved GAN network

Also Published As

Publication number Publication date
JP6894685B2 (en) 2021-06-30

Similar Documents

Publication Publication Date Title
US9348950B2 (en) Perceptually guided capture and stylization of 3D human figures
US11423556B2 (en) Methods and systems to modify two dimensional facial images in a video to generate, in real-time, facial images that appear three dimensional
JP6742405B2 (en) Head-mounted display with facial expression detection function
CN110807836B (en) Three-dimensional face model generation method, device, equipment and medium
US9734628B2 (en) Techniques for processing reconstructed three-dimensional image data
JP4950787B2 (en) Image processing apparatus and method
CN103140879B (en) Information presentation device, digital camera, head mounted display, projecting apparatus, information demonstrating method and information are presented program
US20190035149A1 (en) Methods of generating personalized 3d head models or 3d body models
JP3288353B2 (en) How to create a 3D face model starting from a face image
ES2692391T3 (en) Improved virtual test simulation service
EP4053795A1 (en) A method and system for real-time 3d capture and live feedback with monocular cameras
WO2021135627A1 (en) Method for constructing three-dimensional model of target object, and related apparatus
JP5842541B2 (en) 3D portrait creation device
US10467793B2 (en) Computer implemented method and device
US20130127827A1 (en) Multiview Face Content Creation
CN104809638A (en) Virtual glasses trying method and system based on mobile terminal
US20170118357A1 (en) Methods and systems for automatic customization of printed surfaces with digital images
JP2012185545A (en) Face image processing device
JP2011113421A (en) Three-dimensional modeling system
JP6894685B2 (en) Information processing equipment, information processing methods and programs
US20140192045A1 (en) Method and apparatus for generating three-dimensional caricature using shape and texture of face
CN106462774A (en) Object ingestion through canonical shapes, systems and methods
JP5419777B2 (en) Face image synthesizer
JP2020062322A (en) Doll molding system, information processing method, and program
JP7326965B2 (en) Image processing device, image processing program, and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190809

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200918

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201006

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210323

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210518

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210601

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210604

R150 Certificate of patent or registration of utility model

Ref document number: 6894685

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250