JP2022070002A - Feature quantity extraction device, feature quantity extraction method, and program - Google Patents
Feature quantity extraction device, feature quantity extraction method, and program Download PDFInfo
- Publication number
- JP2022070002A JP2022070002A JP2020178996A JP2020178996A JP2022070002A JP 2022070002 A JP2022070002 A JP 2022070002A JP 2020178996 A JP2020178996 A JP 2020178996A JP 2020178996 A JP2020178996 A JP 2020178996A JP 2022070002 A JP2022070002 A JP 2022070002A
- Authority
- JP
- Japan
- Prior art keywords
- point
- feature amount
- dimensional
- image
- projected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000605 extraction Methods 0.000 title claims abstract description 29
- 239000000284 extract Substances 0.000 claims abstract description 11
- 230000005484 gravity Effects 0.000 claims abstract description 7
- 238000004364 calculation method Methods 0.000 claims description 42
- 238000000034 method Methods 0.000 claims description 40
- 238000000513 principal component analysis Methods 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 8
- 238000003860 storage Methods 0.000 description 8
- 230000005540 biological transmission Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 238000009826 distribution Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
Abstract
Description
本開示は、特徴量抽出装置、特徴量抽出方法及びプログラムに関する。 The present disclosure relates to a feature amount extraction device, a feature amount extraction method and a program.
近年、ユーザが指定した3次元画像と類似する類似画像を検索する3次元類似画像検索が注目されている。例えば、製造業などの分野では、製品の設計を行う際に、設計図面と類似する図面を検索することで、製品設計及びその見積などの効率化を図ることが可能となる。 In recent years, a three-dimensional similar image search for searching a similar image similar to a three-dimensional image specified by a user has attracted attention. For example, in fields such as the manufacturing industry, when designing a product, it is possible to improve the efficiency of product design and its estimation by searching for a drawing similar to the design drawing.
3次元類似画像検索では、3次元画像からその3次元画像の特徴を表す特徴量を抽出し、その特徴量に基づいて類似画像が検索される(特許文献1参照)。3次元画像から特徴量を抽出する手法としては、D2(Shape Distribution:2点間距離)法、SHD(Spherical Harmonics Descriptor: 調和変換)法、LFD(Light Field Descriptor:多方向撮影)法、及び、MFSD(Multi-Fourier Spectra Descriptor:複合特徴量)法が知られている。 In the three-dimensional similar image search, a feature amount representing the feature of the three-dimensional image is extracted from the three-dimensional image, and the similar image is searched based on the feature amount (see Patent Document 1). As a method for extracting features from a three-dimensional image, the D2 (Shape Distribution: distance between two points) method, the SHD (Spherical Harmonics Descriptor: harmonic transform) method, the LFD (Light Field Descriptor: multidirectional shooting) method, and The MFSD (Multi-Fourier Spectra Descriptor) method is known.
D2法は、3次元画像における2点間の距離などの分布をヒストグラム化することで特徴量を抽出するものである。D2方法では、単一の特徴量を容易に抽出することができるため、類似画像検索の検索速度が速い。しかしながら、3次元画像の形状が特徴量に反映されていないため、検出精度が低いという問題がある。 The D2 method extracts features by making a histogram of the distribution such as the distance between two points in a three-dimensional image. In the D2 method, a single feature amount can be easily extracted, so that the search speed for similar image search is high. However, since the shape of the three-dimensional image is not reflected in the feature amount, there is a problem that the detection accuracy is low.
SHD法は、3次元画像に複数の球殻を生成し、各球殻に応じた球面調和関数に基づいて特徴量を抽出するものである。SHD法では、3次元画像の形状を反映した特徴量を抽出することができるため、検出精度は比較的高い。しかしながら、球殻ごとに特徴量を算出する必要があるため、複数の特徴量が必要となり、特徴量の取り扱いが難しく、検索速度が遅いという問題がある。 In the SHD method, a plurality of spherical shells are generated in a three-dimensional image, and features are extracted based on spherical harmonics corresponding to each spherical shell. In the SHD method, since the feature amount reflecting the shape of the three-dimensional image can be extracted, the detection accuracy is relatively high. However, since it is necessary to calculate the feature amount for each spherical shell, there is a problem that a plurality of feature amounts are required, the feature amount is difficult to handle, and the search speed is slow.
LFD法は、3次元画像を様々な方向から撮影した複数の2次元画像に基づいて特徴量を抽出するものであり、SHD法は、LFD法による複数の特徴量に加えて、3次元画像の輪郭、影及び深度などを複合した特徴量を抽出するものである。これらの方法では、3次元画像の形状を反映した特徴量を抽出することができるため、検出精度は高い。しかしながら、特徴量の数が非常に多く、検索速度が非常に遅いという問題がある。 The LFD method extracts a feature amount based on a plurality of two-dimensional images obtained by capturing a three-dimensional image from various directions, and the SHD method is a method of extracting a feature amount of a three-dimensional image in addition to a plurality of feature amounts obtained by the LFD method. It extracts features that combine contours, shadows, and depth. With these methods, the feature amount reflecting the shape of the three-dimensional image can be extracted, so that the detection accuracy is high. However, there is a problem that the number of features is very large and the search speed is very slow.
本開示の目的は、3次元画像の形状を反映した単一の特徴量を抽出することで、高速で精度の高い類似画像検索を可能とする特徴量抽出装置、特徴量抽出方法及びプログラムを提供することにある。 An object of the present disclosure is to provide a feature amount extraction device, a feature amount extraction method, and a program that enable high-speed and highly accurate similar image search by extracting a single feature amount that reflects the shape of a three-dimensional image. To do.
本開示の一態様に従う特徴量抽出装置は、3次元点群データを含む3次元画像の特徴量を抽出する特徴量抽出装置であって、前記3次元点群データの重心を中心点とした前記3次元点群データを囲む球面に対して、前記3次元点群の各点と前記中心点との距離を示す情報を各点の深度情報として射影した射影画像を生成し、前記射影画像を2次元平面に展開した画像を前記特徴量として抽出する演算部を有する。 The feature amount extraction device according to one aspect of the present disclosure is a feature amount extraction device that extracts feature amounts of a three-dimensional image including three-dimensional point group data, and the center point is the center of gravity of the three-dimensional point group data. A projected image is generated in which information indicating the distance between each point of the three-dimensional point group and the center point is projected as depth information of each point on a spherical surface surrounding the three-dimensional point group data, and the projected image is displayed as 2. It has a calculation unit that extracts an image developed on a three-dimensional plane as the feature amount.
本発明によれば、3次元画像の形状を反映した単一の特徴量を抽出することが可能となり、高速で精度の高い類似画像検索が可能となる。 According to the present invention, it is possible to extract a single feature amount that reflects the shape of a three-dimensional image, and it is possible to search for similar images at high speed and with high accuracy.
以下、本開示の実施形態について図面を参照して説明する。 Hereinafter, embodiments of the present disclosure will be described with reference to the drawings.
図1は、本開示の一実施形態の特徴量抽出システムを示すブロック図である。図1に示す特徴量抽出システムは、サーバ1と、ユーザ端末2とを含む。サーバ1及びユーザ端末2は、互いに通信可能に接続される。なお、サーバ1及びユーザ端末2は、インターネットのような通信ネットワークを介して互いに接続されてもよい。
FIG. 1 is a block diagram showing a feature amount extraction system according to an embodiment of the present disclosure. The feature amount extraction system shown in FIG. 1 includes a
サーバ1は、ユーザ端末2からの指示に従って3次元画像の特徴量を抽出する特徴量抽出装置である。ユーザ端末2は、特徴量抽出システムを利用するユーザが操作する端末装置であり、サーバ1に対して種々の指示を送信する。サーバ1及びユーザ端末2は、例えば、CPU(Central Processing Unit)のようなプロセッサ、メモリ、補助記憶装置、入力装置、出力装置、及びネットワークカードのような通信装置(いずれも図示せず)を備えた一般的なコンピュータ装置と同等なハードウェア構成で実現できる。
The
サーバ1は、演算部11と、処理部12と、格納部13と、送受信部14とを有する。
The
演算部11は、処理対象の3次元画像である対象画像から、その対象画像の特徴を示す特徴量として球面深度画像を抽出する計算処理を行う。処理部12は、対象画像の取得し、及び、演算部11にて生成された球面深度画像の保存どの計算処理以外の処理を主に行う。演算部11及び処理部12は、プロセッサがメモリに記録されたプログラムを読み取り、その読み取ったプログラムを実行することで実現されてもよい。また、演算部11及び処理部12の少なくとも一部の機能が1以上のハードウェア回路(例えば、FPGA(Field-Programmable Gate Array)又はASIC(Application Specific Integrated Circuit))によって実現されてもよい。
The
格納部13は、例えば、メモリ及び補助記憶装置などにて実現され、演算部11及び処理部12の動作を規定するプログラム、対象画像及び球面深度画像などを格納する。送受信部14は、例えば、通信装置で実現され、ユーザ端末2との間で通信を行う。
The
図2は、サーバ1の動作の一例を説明するためのフローチャートである。
FIG. 2 is a flowchart for explaining an example of the operation of the
先ず、送受信部14がユーザ端末2から対象画像の特徴量の抽出を指示する特徴量抽出指示を受信すると、処理部12は、その特徴量抽出指示に従って対象画像を取得し、その対象画像を演算部11に渡す(ステップS101)。対象画像は、本実施形態では、3次元点群データを含む3次元画像であり、より具体的には、3次元点群データの各点を頂点とするポリゴンで形成されたポリゴンデータである。対象画像は、特徴量抽出指示と共にユーザ端末2から送信されてもよいし、格納部13に予め格納されていてもよい。
First, when the transmission /
演算部11は、対象画像に含まれる3次元点群データに対して主成分分析を行って、前記3次元点群データの主成分を特定し、その主成分に基づいて対象画像を回転させる回転処理(図3参照)を行う(ステップS102)。
The
演算部11は、回転処理を行った対象画像を囲む球面を設定する(ステップS103)。本実施形態では、対象画像を囲む球面は、対象画像に含まれる3次元点群データの重心を中心点とし、3次元点群データに外接する外接球の球面である。
The
演算部11は、回転処理を行った対象画像を形成するポリゴンの各辺上に点を補間して3次元点群データに追加する補間処理(図4及び図5参照)を行う(ステップS104)。
The
演算部11は、対象画像内の3次元点群データの各点(補間した各点を含む)の対象画像内の深度を示す深度情報を、外接球の球面に射影した射影画像を生成する射影処理(図6参照)を行う(ステップS105)。
The
演算部11は、深度情報が射影された外接球の球面を2次元平面に展開した画像を、対象画像の特徴を表す特徴量である球面深度画像として抽出する展開処理(図7及び図8参照)を行う(ステップS106)。
The
そして、処理部12は、演算部11が生成した球面深度画像を格納部13に格納して(ステップS107)、処理を終了する。なお、処理部12は、特徴量抽出指示に対する応答情報として特徴量を抽出した旨の情報を、送受信部14を介してユーザ端末2に送信してもよい。
Then, the
図3は、図2のステップS102の回転処理の一例を説明するためのフローチャートである。 FIG. 3 is a flowchart for explaining an example of the rotation process of step S102 of FIG.
回転処理では、先ず、演算部11は、対象画像内の3次元点群データに対して主成分分析を行って、3次元点群データの主成分として、第1主成分、第2主成分及び第3主成分を特定する(ステップS201)。
In the rotation process, first, the
演算部11は、第1主成分及び第3主成分をそれぞれ基準軸として設定する(ステップS202)。
The
演算部11は、基準軸がそれぞれ所定の方向を向くように対象画像を回転させ(ステップS203)、回転処理を終了する。本実施形態では、演算部11は、第1主成分がx軸を向き、第3主成分がy軸を向くように対象画像を回転させる。
The
図4は、図2のステップS104の補間処理の一例を説明するためのフローチャートである。 FIG. 4 is a flowchart for explaining an example of the interpolation process of step S104 of FIG.
補間処理では、演算部11は、外接球の半径に基づいて、点を補間する補間間隔を決定する(ステップS301)。例えば、演算部11は、外接球の半径が大きいほど、補間間隔を小さくする。
In the interpolation process, the
演算部11は、対象画像の各ポリゴンの各辺の長さを算出する(ステップS302)。演算部11は、各ポリゴンの各辺に対して、その辺の長さと補間間隔とに基づいて、補間する点の個数を決定する(ステップS303)。例えば、演算部11は、(辺の長さ)/(補間距離)の商を個数として決定する。
The
演算部11は、各ポリゴンの各辺上に、その辺に対して決定した個数分の点を3次元点群データの点として補間し、その点を3次元点群データに追加して(ステップS304)、補間処理を終了する。
The
図5は、補間処理による点の補間の一例を示す図である。具体的には、図5(a)は、補間処理前の対象画像の一例を示す図であり、図5(b)は、補間処理後の対象画像の一例を示す図である。 FIG. 5 is a diagram showing an example of interpolation of points by interpolation processing. Specifically, FIG. 5A is a diagram showing an example of a target image before the interpolation processing, and FIG. 5B is a diagram showing an example of the target image after the interpolation processing.
補間処理前では、図5(a)に示すように、対象画像の各ポリゴン21の頂点にのみ3次元点群データの点22が存在する。これに対して補間処理後では、図5(b)に示すように、各ポリゴン21の頂点の点22だけでなく、各ポリゴン21の各辺に補間された点23が存在する。このため、対象画像内の点の数が補間処理前と比べて増加している。
Before the interpolation process, as shown in FIG. 5A, the
図6は、図2のステップS105の射影処理の一例を説明するためのフローチャートである。 FIG. 6 is a flowchart for explaining an example of the projection process of step S105 of FIG.
射影処理では、演算部11は、対象画像内の各点について、その点と外接球の中心点との距離を深度として示す深度情報を算出する(ステップS401)。
In the projection process, the
演算部11は、各点の深度情報を所定の規則に従って規格化する(ステップS402)。ここでは、演算部11は、外接球の中心点と一致する点の深度が0となり、外接球の表面と一致する点の深度が255となるように深度情報を規格化する。
The
演算部11は、各点の深度情報を濃淡情報として外接球の表面に射影して、外接球の表面に濃淡情報(深度情報)をマッピングすることで、射影画像を生成する(ステップS403)。ここでは、演算部11は、各点の深度情報を、その点と外接球の中心点とを結ぶ直線が外接球と交わる交点に射影する。
The
そして、演算部11は、外接球の表面の点において複数の深度情報が射影された点が存在するか否かを判断する。複数の深度情報が射影された点が存在する場合、演算部11は、の複数の深度情報のいずれかを選択し、それ以外の深度情報を削除することで、複数の深度情報のいずれかが射影されて射影画像を生成し(ステップS404)、射影処理を終了する。ここでは、演算部11は、複数の深度情報のうち最も外側の点の深度情報を選択する。なお演算部11は、複数の深度情報のうち最も内側の点の深度情報などを選択してもよい。また、複数の深度情報が射影された点がない場合、演算部11は、そのまま射影処理を終了する。
Then, the
図7は、図2のステップS106の展開処理の一例を説明するためのフローチャートである。 FIG. 7 is a flowchart for explaining an example of the expansion process of step S106 of FIG.
展開処理では、演算部11は、外接球の球面の各点の座標を極座標に変換する(ステップS501)。ここでは、変換前の各点の座標は、直交座標(x,y,z)で表され、回転処理(図3参照)によって、3次元点群データの第1主成分がx軸方向を向いており、第3主成分がy軸方向を向いている。この場合、演算部11は、以下の数1を用いて、各点の座標を極座標(r,θ,φ)に変換する。
そして、演算部11は、球面の各点の極座標を2次元座標(x、y)に変換することで、球面の各点をxy平面に展開して球面深度画像を生成し(ステップS502)、展開処理を終了する。ここでは、演算部11は、以下の数2を用いて各点の極座標を2次元座標(x、y)に変換する。
図8は、展開処理の一例を説明するための図である。具体的には、図8(a)は、展開処理前の画像の一例を示す図であり、図8(b)は、展開処理後の画像の一例を示す図である。 FIG. 8 is a diagram for explaining an example of the expansion process. Specifically, FIG. 8A is a diagram showing an example of an image before the expansion process, and FIG. 8B is a diagram showing an example of the image after the expansion process.
図8に示すように展開処理により、外接球の表面上に深度情報として濃淡情報が射影された射影画像(図8(a))が2次元のグレースケール画像である球面深度画像(図8(b))に変換される。 As shown in FIG. 8, the projected image (FIG. 8A) in which the shading information is projected as the depth information on the surface of the circumscribed sphere by the expansion process is a two-dimensional grayscale image (FIG. 8 (FIG. 8). b) is converted to).
なお、特徴量である球面深度画像に対して数1及び数2で示した変換の逆変換を行うことで射影画像を概ね再現することが可能であり、さらに射影処理による射影の逆射影を行うことで射影画像から元の対象画像を概ね再現することが可能である。これは、球面深度画像が元の対象画像の形状等の特徴を概ね保持しており、特徴量損失が少ないことを示している。
It is possible to roughly reproduce the projected image by performing the inverse transformation of the transformations shown in
以上説明したように本実施形態によれば、演算部11は、対象画像に含まれる3次元点群データの重心を中心点とした3次元点群データを囲む球面に対して、3次元点群の各点と中心点との距離を示す情報を各点の深度情報として射影した射影画像を生成する。演算部11は、射影画像を2次元平面に展開した球面深度画像を特徴量として抽出する。したがって、対象画像の形状を反映した単一の球面深度画像を特徴量として抽出することが可能になるため、高速で精度の高い類似画像検索が可能となる。
As described above, according to the present embodiment, the
また、本実施形態では、演算部11は、3次元点群に対して主成分分析を行って、3次元点群データの主成分を特定し、その主成分に基づいて3次元画像を回転させた状態で射影画像を生成する。したがって、対象画像の向きを揃えて特徴量を抽出することが可能となるため、精度の高い類似画像検索が可能となる。
Further, in the present embodiment, the
また、本実施形態では、演算部11は、各点の深度情報を、その点と球面の中心点とを結ぶ直線が球面とが交わる交点に射影する。したがって、3次元画像の形状をより正確に反映した特徴量を抽出することが可能となる。
Further, in the present embodiment, the
また、本実施形態では、演算部11は、球面上の点に複数の深度情報が射影される場合、当該複数の深度情報のうち最も外側の点の深度情報を射影する。この場合、3次元画像の外側の形状を反映した特徴量を抽出することが可能となるため、精度の高い類似画像検索が可能となる。
Further, in the present embodiment, when a plurality of depth information is projected on a point on the spherical surface, the
また、本実施形態では、演算部11は、対象画像の各ポリゴンの各辺に点を補間し、その補間した点を3次元点群データに追加し、深度情報を射影する。このため、特徴量に反映させる情報量を増加させることが可能となるため、精度の高い類似画像検索が可能となる。
Further, in the present embodiment, the
また、本実施形態では、球面は、3次元点群データの外接球の球面である。このため、3次元点群データの各点の深度を適切に射影することが可能となる。 Further, in the present embodiment, the spherical surface is the spherical surface of the circumscribed sphere of the three-dimensional point cloud data. Therefore, it is possible to appropriately project the depth of each point of the three-dimensional point cloud data.
上述した本開示の実施形態は、本開示の説明のための例示であり、本開示の範囲をそれらの実施形態にのみ限定する趣旨ではない。当業者は、本開示の範囲を逸脱することなしに、他の様々な態様で本開示を実施することができる。 The embodiments of the present disclosure described above are examples for the purpose of explaining the present disclosure, and the scope of the present disclosure is not intended to be limited only to those embodiments. One of ordinary skill in the art can implement the present disclosure in various other embodiments without departing from the scope of the present disclosure.
例えば、サーバ1は、抽出した特徴量を用いて3次元画像の類似画像検索を行う機能を有していてもよい。
For example, the
1:サーバ、2:ユーザ端末、11:演算部、12:処理部、13:格納部、14:送受信部
1: Server, 2: User terminal, 11: Arithmetic unit, 12: Processing unit, 13: Storage unit, 14: Transmission / reception unit
Claims (8)
前記3次元点群データの重心を中心点とした前記3次元点群データを囲む球面に対して、前記3次元点群の各点と前記中心点との距離を示す情報を各点の深度情報として射影した射影画像を生成し、前記射影画像を2次元平面に展開した画像を前記特徴量として抽出する演算部を有する特徴量抽出装置。 It is a feature amount extraction device that extracts the feature amount of a 3D image including 3D point cloud data.
Depth information of each point indicating the distance between each point of the three-dimensional point group and the center point with respect to the spherical surface surrounding the three-dimensional point group data with the center of gravity of the three-dimensional point group data as the center point. A feature amount extraction device having a calculation unit for generating a projected image projected as a feature amount and extracting an image obtained by expanding the projected image on a two-dimensional plane as the feature amount.
前記演算部は、各ポリゴンの各辺に点を補間し、当該補間した点を前記3次元点群データに追加する、請求項1に記載の特徴量抽出装置。 The three-dimensional image is formed by a plurality of polygons having each point of the three-dimensional point cloud data as a vertex.
The feature amount extraction device according to claim 1, wherein the calculation unit interpolates points on each side of each polygon and adds the interpolated points to the three-dimensional point cloud data.
前記3次元点群データの重心を中心点とした前記3次元点群データを囲む球面に対して、前記3次元点群の各点と前記中心点との距離を示す情報を各点の深度情報として射影した射影画像を生成し、
前記射影画像を2次元平面に展開した画像を前記特徴量として抽出する、特徴量抽出方法。 It is a feature amount extraction method by a feature amount extraction device that extracts a feature amount of a 3D image including 3D point cloud data.
Depth information of each point indicating the distance between each point of the three-dimensional point group and the center point with respect to the spherical surface surrounding the three-dimensional point group data with the center of gravity of the three-dimensional point group data as the center point. Generates a projected image projected as
A feature amount extraction method for extracting an image obtained by expanding the projected image on a two-dimensional plane as the feature amount.
前記3次元点群データの重心を中心点とした前記3次元点群データを囲む球面に対して、前記3次元点群の各点と前記中心点との距離を示す情報を各点の深度情報として射影した射影画像を生成する手順と、
前記射影画像を2次元平面に展開した画像を前記特徴量として抽出する手順とを、コンピュータに実行させるためのプログラム。
It is a program for extracting the features of a 3D image including 3D point cloud data.
Depth information of each point indicating the distance between each point of the three-dimensional point group and the center point with respect to the spherical surface surrounding the three-dimensional point group data with the center of gravity of the three-dimensional point group data as the center point. And the procedure to generate a projected image projected as
A program for causing a computer to execute a procedure of extracting an image obtained by expanding the projected image on a two-dimensional plane as the feature amount.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020178996A JP2022070002A (en) | 2020-10-26 | 2020-10-26 | Feature quantity extraction device, feature quantity extraction method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020178996A JP2022070002A (en) | 2020-10-26 | 2020-10-26 | Feature quantity extraction device, feature quantity extraction method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022070002A true JP2022070002A (en) | 2022-05-12 |
Family
ID=81534132
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020178996A Pending JP2022070002A (en) | 2020-10-26 | 2020-10-26 | Feature quantity extraction device, feature quantity extraction method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022070002A (en) |
-
2020
- 2020-10-26 JP JP2020178996A patent/JP2022070002A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Liu et al. | Autoshape: Real-time shape-aware monocular 3d object detection | |
US8711143B2 (en) | System and method for interactive image-based modeling of curved surfaces using single-view and multi-view feature curves | |
US6801653B1 (en) | Information processing apparatus and method as well as medium | |
JP4392507B2 (en) | 3D surface generation method | |
Albarelli et al. | Fast and accurate surface alignment through an isometry-enforcing game | |
JP2011192214A (en) | Geometric feature extracting device, geometric feature extraction method and program, three-dimensional measuring device and object recognition device | |
CN111710035B (en) | Face reconstruction method, device, computer equipment and storage medium | |
Rocchini et al. | The marching intersections algorithm for merging range images | |
WO2023093739A1 (en) | Multi-view three-dimensional reconstruction method | |
CN115375823B (en) | Three-dimensional virtual clothing generation method, device, equipment and storage medium | |
CN116157841A (en) | System and method for accelerating ray tracing | |
CN114092963A (en) | Key point detection and model training method, device, equipment and storage medium | |
CN115018992A (en) | Method and device for generating hair style model, electronic equipment and storage medium | |
Jelinek et al. | Fast total least squares vectorization | |
JP2014102746A (en) | Subject recognition device and subject recognition program | |
JP2019220099A (en) | Stereo matching processing device, stereo matching processing method, and program | |
US20160364908A1 (en) | Analysis Model Creation Assistance System, Analysis Model Creation Assistance Device and Analysis Model Creation Assistance Program | |
JP7003617B2 (en) | Estimator, estimation method, and estimation program | |
JP2017168081A (en) | 3d object localization with descriptor | |
CN112197708B (en) | Measuring method and device, electronic device and storage medium | |
JP4524514B2 (en) | Image processing apparatus, image processing method, and recording medium | |
JP2022070002A (en) | Feature quantity extraction device, feature quantity extraction method, and program | |
US20220392251A1 (en) | Method and apparatus for generating object model, electronic device and storage medium | |
CN114674328B (en) | Map generation method, map generation device, electronic device, storage medium, and vehicle | |
Yang et al. | CAD data visualization on mobile devices using sequential constrained Delaunay triangulation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230203 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231121 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20240514 |