JP2022070002A - Feature quantity extraction device, feature quantity extraction method, and program - Google Patents

Feature quantity extraction device, feature quantity extraction method, and program Download PDF

Info

Publication number
JP2022070002A
JP2022070002A JP2020178996A JP2020178996A JP2022070002A JP 2022070002 A JP2022070002 A JP 2022070002A JP 2020178996 A JP2020178996 A JP 2020178996A JP 2020178996 A JP2020178996 A JP 2020178996A JP 2022070002 A JP2022070002 A JP 2022070002A
Authority
JP
Japan
Prior art keywords
point
feature amount
dimensional
image
projected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020178996A
Other languages
Japanese (ja)
Inventor
雄貴 古川
Yuki Furukawa
康裕 桐畑
Yasuhiro Kirihata
晃治 中山
Koji Nakayama
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Solutions Ltd
Original Assignee
Hitachi Solutions Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Solutions Ltd filed Critical Hitachi Solutions Ltd
Priority to JP2020178996A priority Critical patent/JP2022070002A/en
Publication of JP2022070002A publication Critical patent/JP2022070002A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Abstract

To provide a feature quantity extraction device that enables high-speed and high-accuracy similar image retrieval by extracting a single feature quantity that reflects the shape of a three-dimensional image.SOLUTION: An arithmetic unit 11 generates a projection image in which information indicating the distance between each point of a three-dimensional point group and a center point is projected as depth information of each point, with respect to a spherical surface surrounding three-dimensional point group data centered on the center of gravity of the three-dimensional point group data included in an object image. The arithmetic unit 11 extracts, as a feature quantity, a spherical depth image obtained by expanding the projection image on a two-dimensional plane.SELECTED DRAWING: Figure 1

Description

本開示は、特徴量抽出装置、特徴量抽出方法及びプログラムに関する。 The present disclosure relates to a feature amount extraction device, a feature amount extraction method and a program.

近年、ユーザが指定した3次元画像と類似する類似画像を検索する3次元類似画像検索が注目されている。例えば、製造業などの分野では、製品の設計を行う際に、設計図面と類似する図面を検索することで、製品設計及びその見積などの効率化を図ることが可能となる。 In recent years, a three-dimensional similar image search for searching a similar image similar to a three-dimensional image specified by a user has attracted attention. For example, in fields such as the manufacturing industry, when designing a product, it is possible to improve the efficiency of product design and its estimation by searching for a drawing similar to the design drawing.

3次元類似画像検索では、3次元画像からその3次元画像の特徴を表す特徴量を抽出し、その特徴量に基づいて類似画像が検索される(特許文献1参照)。3次元画像から特徴量を抽出する手法としては、D2(Shape Distribution:2点間距離)法、SHD(Spherical Harmonics Descriptor: 調和変換)法、LFD(Light Field Descriptor:多方向撮影)法、及び、MFSD(Multi-Fourier Spectra Descriptor:複合特徴量)法が知られている。 In the three-dimensional similar image search, a feature amount representing the feature of the three-dimensional image is extracted from the three-dimensional image, and the similar image is searched based on the feature amount (see Patent Document 1). As a method for extracting features from a three-dimensional image, the D2 (Shape Distribution: distance between two points) method, the SHD (Spherical Harmonics Descriptor: harmonic transform) method, the LFD (Light Field Descriptor: multidirectional shooting) method, and The MFSD (Multi-Fourier Spectra Descriptor) method is known.

特開2019-091138号公報Japanese Unexamined Patent Publication No. 2019-091138

D2法は、3次元画像における2点間の距離などの分布をヒストグラム化することで特徴量を抽出するものである。D2方法では、単一の特徴量を容易に抽出することができるため、類似画像検索の検索速度が速い。しかしながら、3次元画像の形状が特徴量に反映されていないため、検出精度が低いという問題がある。 The D2 method extracts features by making a histogram of the distribution such as the distance between two points in a three-dimensional image. In the D2 method, a single feature amount can be easily extracted, so that the search speed for similar image search is high. However, since the shape of the three-dimensional image is not reflected in the feature amount, there is a problem that the detection accuracy is low.

SHD法は、3次元画像に複数の球殻を生成し、各球殻に応じた球面調和関数に基づいて特徴量を抽出するものである。SHD法では、3次元画像の形状を反映した特徴量を抽出することができるため、検出精度は比較的高い。しかしながら、球殻ごとに特徴量を算出する必要があるため、複数の特徴量が必要となり、特徴量の取り扱いが難しく、検索速度が遅いという問題がある。 In the SHD method, a plurality of spherical shells are generated in a three-dimensional image, and features are extracted based on spherical harmonics corresponding to each spherical shell. In the SHD method, since the feature amount reflecting the shape of the three-dimensional image can be extracted, the detection accuracy is relatively high. However, since it is necessary to calculate the feature amount for each spherical shell, there is a problem that a plurality of feature amounts are required, the feature amount is difficult to handle, and the search speed is slow.

LFD法は、3次元画像を様々な方向から撮影した複数の2次元画像に基づいて特徴量を抽出するものであり、SHD法は、LFD法による複数の特徴量に加えて、3次元画像の輪郭、影及び深度などを複合した特徴量を抽出するものである。これらの方法では、3次元画像の形状を反映した特徴量を抽出することができるため、検出精度は高い。しかしながら、特徴量の数が非常に多く、検索速度が非常に遅いという問題がある。 The LFD method extracts a feature amount based on a plurality of two-dimensional images obtained by capturing a three-dimensional image from various directions, and the SHD method is a method of extracting a feature amount of a three-dimensional image in addition to a plurality of feature amounts obtained by the LFD method. It extracts features that combine contours, shadows, and depth. With these methods, the feature amount reflecting the shape of the three-dimensional image can be extracted, so that the detection accuracy is high. However, there is a problem that the number of features is very large and the search speed is very slow.

本開示の目的は、3次元画像の形状を反映した単一の特徴量を抽出することで、高速で精度の高い類似画像検索を可能とする特徴量抽出装置、特徴量抽出方法及びプログラムを提供することにある。 An object of the present disclosure is to provide a feature amount extraction device, a feature amount extraction method, and a program that enable high-speed and highly accurate similar image search by extracting a single feature amount that reflects the shape of a three-dimensional image. To do.

本開示の一態様に従う特徴量抽出装置は、3次元点群データを含む3次元画像の特徴量を抽出する特徴量抽出装置であって、前記3次元点群データの重心を中心点とした前記3次元点群データを囲む球面に対して、前記3次元点群の各点と前記中心点との距離を示す情報を各点の深度情報として射影した射影画像を生成し、前記射影画像を2次元平面に展開した画像を前記特徴量として抽出する演算部を有する。 The feature amount extraction device according to one aspect of the present disclosure is a feature amount extraction device that extracts feature amounts of a three-dimensional image including three-dimensional point group data, and the center point is the center of gravity of the three-dimensional point group data. A projected image is generated in which information indicating the distance between each point of the three-dimensional point group and the center point is projected as depth information of each point on a spherical surface surrounding the three-dimensional point group data, and the projected image is displayed as 2. It has a calculation unit that extracts an image developed on a three-dimensional plane as the feature amount.

本発明によれば、3次元画像の形状を反映した単一の特徴量を抽出することが可能となり、高速で精度の高い類似画像検索が可能となる。 According to the present invention, it is possible to extract a single feature amount that reflects the shape of a three-dimensional image, and it is possible to search for similar images at high speed and with high accuracy.

本開示の一実施形態の特徴量抽出システムを示すブロック図である。It is a block diagram which shows the feature amount extraction system of one Embodiment of this disclosure. サーバ1の動作の一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of operation of a server 1. 回転処理の一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of rotation processing. 補間処理の一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of interpolation processing. 補間処理による点の補間の一例を示す図である。It is a figure which shows an example of interpolation of the point by interpolation processing. 射影処理の一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of projection processing. 展開処理の一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of expansion processing. 展開処理の一例を説明するための図である。It is a figure for demonstrating an example of an expansion process.

以下、本開示の実施形態について図面を参照して説明する。 Hereinafter, embodiments of the present disclosure will be described with reference to the drawings.

図1は、本開示の一実施形態の特徴量抽出システムを示すブロック図である。図1に示す特徴量抽出システムは、サーバ1と、ユーザ端末2とを含む。サーバ1及びユーザ端末2は、互いに通信可能に接続される。なお、サーバ1及びユーザ端末2は、インターネットのような通信ネットワークを介して互いに接続されてもよい。 FIG. 1 is a block diagram showing a feature amount extraction system according to an embodiment of the present disclosure. The feature amount extraction system shown in FIG. 1 includes a server 1 and a user terminal 2. The server 1 and the user terminal 2 are connected to each other so as to be able to communicate with each other. The server 1 and the user terminal 2 may be connected to each other via a communication network such as the Internet.

サーバ1は、ユーザ端末2からの指示に従って3次元画像の特徴量を抽出する特徴量抽出装置である。ユーザ端末2は、特徴量抽出システムを利用するユーザが操作する端末装置であり、サーバ1に対して種々の指示を送信する。サーバ1及びユーザ端末2は、例えば、CPU(Central Processing Unit)のようなプロセッサ、メモリ、補助記憶装置、入力装置、出力装置、及びネットワークカードのような通信装置(いずれも図示せず)を備えた一般的なコンピュータ装置と同等なハードウェア構成で実現できる。 The server 1 is a feature amount extraction device that extracts the feature amount of the three-dimensional image according to the instruction from the user terminal 2. The user terminal 2 is a terminal device operated by a user who uses the feature amount extraction system, and transmits various instructions to the server 1. The server 1 and the user terminal 2 include, for example, a processor such as a CPU (Central Processing Unit), a memory, an auxiliary storage device, an input device, an output device, and a communication device (none of which is shown) such as a network card. It can be realized with the same hardware configuration as a general computer device.

サーバ1は、演算部11と、処理部12と、格納部13と、送受信部14とを有する。 The server 1 has a calculation unit 11, a processing unit 12, a storage unit 13, and a transmission / reception unit 14.

演算部11は、処理対象の3次元画像である対象画像から、その対象画像の特徴を示す特徴量として球面深度画像を抽出する計算処理を行う。処理部12は、対象画像の取得し、及び、演算部11にて生成された球面深度画像の保存どの計算処理以外の処理を主に行う。演算部11及び処理部12は、プロセッサがメモリに記録されたプログラムを読み取り、その読み取ったプログラムを実行することで実現されてもよい。また、演算部11及び処理部12の少なくとも一部の機能が1以上のハードウェア回路(例えば、FPGA(Field-Programmable Gate Array)又はASIC(Application Specific Integrated Circuit))によって実現されてもよい。 The calculation unit 11 performs a calculation process of extracting a spherical depth image as a feature amount indicating the characteristics of the target image from the target image which is a three-dimensional image to be processed. The processing unit 12 mainly performs processing other than calculation processing such as acquisition of the target image and storage of the spherical depth image generated by the calculation unit 11. The arithmetic unit 11 and the processing unit 12 may be realized by the processor reading a program recorded in the memory and executing the read program. Further, at least a part of the functions of the arithmetic unit 11 and the processing unit 12 may be realized by one or more hardware circuits (for example, FPGA (Field-Programmable Gate Array) or ASIC (Application Specific Integrated Circuit)).

格納部13は、例えば、メモリ及び補助記憶装置などにて実現され、演算部11及び処理部12の動作を規定するプログラム、対象画像及び球面深度画像などを格納する。送受信部14は、例えば、通信装置で実現され、ユーザ端末2との間で通信を行う。 The storage unit 13 is realized by, for example, a memory and an auxiliary storage device, and stores a program, a target image, a spherical depth image, and the like that define the operation of the calculation unit 11 and the processing unit 12. The transmission / reception unit 14 is realized by, for example, a communication device, and communicates with the user terminal 2.

図2は、サーバ1の動作の一例を説明するためのフローチャートである。 FIG. 2 is a flowchart for explaining an example of the operation of the server 1.

先ず、送受信部14がユーザ端末2から対象画像の特徴量の抽出を指示する特徴量抽出指示を受信すると、処理部12は、その特徴量抽出指示に従って対象画像を取得し、その対象画像を演算部11に渡す(ステップS101)。対象画像は、本実施形態では、3次元点群データを含む3次元画像であり、より具体的には、3次元点群データの各点を頂点とするポリゴンで形成されたポリゴンデータである。対象画像は、特徴量抽出指示と共にユーザ端末2から送信されてもよいし、格納部13に予め格納されていてもよい。 First, when the transmission / reception unit 14 receives the feature amount extraction instruction instructing the extraction of the feature amount of the target image from the user terminal 2, the processing unit 12 acquires the target image according to the feature amount extraction instruction and calculates the target image. It is passed to the unit 11 (step S101). In the present embodiment, the target image is a three-dimensional image including the three-dimensional point cloud data, and more specifically, it is polygon data formed by polygons having each point of the three-dimensional point cloud data as an apex. The target image may be transmitted from the user terminal 2 together with the feature amount extraction instruction, or may be stored in advance in the storage unit 13.

演算部11は、対象画像に含まれる3次元点群データに対して主成分分析を行って、前記3次元点群データの主成分を特定し、その主成分に基づいて対象画像を回転させる回転処理(図3参照)を行う(ステップS102)。 The calculation unit 11 performs principal component analysis on the three-dimensional point cloud data included in the target image, identifies the principal component of the three-dimensional point cloud data, and rotates the target image based on the principal component. A process (see FIG. 3) is performed (step S102).

演算部11は、回転処理を行った対象画像を囲む球面を設定する(ステップS103)。本実施形態では、対象画像を囲む球面は、対象画像に含まれる3次元点群データの重心を中心点とし、3次元点群データに外接する外接球の球面である。 The calculation unit 11 sets a spherical surface that surrounds the target image that has undergone rotation processing (step S103). In the present embodiment, the spherical surface surrounding the target image is a spherical surface of an circumscribed sphere circumscribing the 3D point cloud data with the center of gravity of the 3D point cloud data included in the target image as the center point.

演算部11は、回転処理を行った対象画像を形成するポリゴンの各辺上に点を補間して3次元点群データに追加する補間処理(図4及び図5参照)を行う(ステップS104)。 The calculation unit 11 performs interpolation processing (see FIGS. 4 and 5) in which points are interpolated on each side of the polygon forming the rotation-processed target image and added to the three-dimensional point cloud data (step S104). ..

演算部11は、対象画像内の3次元点群データの各点(補間した各点を含む)の対象画像内の深度を示す深度情報を、外接球の球面に射影した射影画像を生成する射影処理(図6参照)を行う(ステップS105)。 The calculation unit 11 generates a projection image in which depth information indicating the depth in the target image of each point (including each interpolated point) of the three-dimensional point group data in the target image is projected onto the spherical surface of the circumscribing sphere. The process (see FIG. 6) is performed (step S105).

演算部11は、深度情報が射影された外接球の球面を2次元平面に展開した画像を、対象画像の特徴を表す特徴量である球面深度画像として抽出する展開処理(図7及び図8参照)を行う(ステップS106)。 The calculation unit 11 extracts an image obtained by expanding the spherical surface of the circumscribed sphere on which the depth information is projected onto a two-dimensional plane as a spherical depth image which is a feature quantity representing the characteristics of the target image (see FIGS. 7 and 8). ) (Step S106).

そして、処理部12は、演算部11が生成した球面深度画像を格納部13に格納して(ステップS107)、処理を終了する。なお、処理部12は、特徴量抽出指示に対する応答情報として特徴量を抽出した旨の情報を、送受信部14を介してユーザ端末2に送信してもよい。 Then, the processing unit 12 stores the spherical depth image generated by the calculation unit 11 in the storage unit 13 (step S107), and ends the processing. The processing unit 12 may transmit information to the effect that the feature amount has been extracted as response information to the feature amount extraction instruction to the user terminal 2 via the transmission / reception unit 14.

図3は、図2のステップS102の回転処理の一例を説明するためのフローチャートである。 FIG. 3 is a flowchart for explaining an example of the rotation process of step S102 of FIG.

回転処理では、先ず、演算部11は、対象画像内の3次元点群データに対して主成分分析を行って、3次元点群データの主成分として、第1主成分、第2主成分及び第3主成分を特定する(ステップS201)。 In the rotation process, first, the calculation unit 11 performs principal component analysis on the three-dimensional point group data in the target image, and as the main components of the three-dimensional point group data, the first principal component, the second principal component, and the second principal component. The third principal component is specified (step S201).

演算部11は、第1主成分及び第3主成分をそれぞれ基準軸として設定する(ステップS202)。 The calculation unit 11 sets the first principal component and the third principal component as reference axes, respectively (step S202).

演算部11は、基準軸がそれぞれ所定の方向を向くように対象画像を回転させ(ステップS203)、回転処理を終了する。本実施形態では、演算部11は、第1主成分がx軸を向き、第3主成分がy軸を向くように対象画像を回転させる。 The calculation unit 11 rotates the target image so that the reference axes face each predetermined direction (step S203), and ends the rotation process. In the present embodiment, the calculation unit 11 rotates the target image so that the first principal component faces the x-axis and the third principal component faces the y-axis.

図4は、図2のステップS104の補間処理の一例を説明するためのフローチャートである。 FIG. 4 is a flowchart for explaining an example of the interpolation process of step S104 of FIG.

補間処理では、演算部11は、外接球の半径に基づいて、点を補間する補間間隔を決定する(ステップS301)。例えば、演算部11は、外接球の半径が大きいほど、補間間隔を小さくする。 In the interpolation process, the arithmetic unit 11 determines the interpolation interval for interpolating the points based on the radius of the circumscribed sphere (step S301). For example, the arithmetic unit 11 reduces the interpolation interval as the radius of the circumscribed sphere increases.

演算部11は、対象画像の各ポリゴンの各辺の長さを算出する(ステップS302)。演算部11は、各ポリゴンの各辺に対して、その辺の長さと補間間隔とに基づいて、補間する点の個数を決定する(ステップS303)。例えば、演算部11は、(辺の長さ)/(補間距離)の商を個数として決定する。 The calculation unit 11 calculates the length of each side of each polygon of the target image (step S302). The calculation unit 11 determines the number of points to be interpolated for each side of each polygon based on the length of the side and the interpolation interval (step S303). For example, the arithmetic unit 11 determines the quotient of (side length) / (interpolation distance) as the number.

演算部11は、各ポリゴンの各辺上に、その辺に対して決定した個数分の点を3次元点群データの点として補間し、その点を3次元点群データに追加して(ステップS304)、補間処理を終了する。 The calculation unit 11 interpolates on each side of each polygon the number of points determined for that side as points of the three-dimensional point cloud data, and adds the points to the three-dimensional point cloud data (step). S304), the interpolation process is terminated.

図5は、補間処理による点の補間の一例を示す図である。具体的には、図5(a)は、補間処理前の対象画像の一例を示す図であり、図5(b)は、補間処理後の対象画像の一例を示す図である。 FIG. 5 is a diagram showing an example of interpolation of points by interpolation processing. Specifically, FIG. 5A is a diagram showing an example of a target image before the interpolation processing, and FIG. 5B is a diagram showing an example of the target image after the interpolation processing.

補間処理前では、図5(a)に示すように、対象画像の各ポリゴン21の頂点にのみ3次元点群データの点22が存在する。これに対して補間処理後では、図5(b)に示すように、各ポリゴン21の頂点の点22だけでなく、各ポリゴン21の各辺に補間された点23が存在する。このため、対象画像内の点の数が補間処理前と比べて増加している。 Before the interpolation process, as shown in FIG. 5A, the point 22 of the three-dimensional point cloud group data exists only at the apex of each polygon 21 of the target image. On the other hand, after the interpolation processing, as shown in FIG. 5B, not only the point 22 at the apex of each polygon 21 but also the interpolated point 23 exists on each side of each polygon 21. Therefore, the number of points in the target image is increased as compared with that before the interpolation processing.

図6は、図2のステップS105の射影処理の一例を説明するためのフローチャートである。 FIG. 6 is a flowchart for explaining an example of the projection process of step S105 of FIG.

射影処理では、演算部11は、対象画像内の各点について、その点と外接球の中心点との距離を深度として示す深度情報を算出する(ステップS401)。 In the projection process, the calculation unit 11 calculates depth information indicating the distance between the point and the center point of the circumscribed sphere as the depth for each point in the target image (step S401).

演算部11は、各点の深度情報を所定の規則に従って規格化する(ステップS402)。ここでは、演算部11は、外接球の中心点と一致する点の深度が0となり、外接球の表面と一致する点の深度が255となるように深度情報を規格化する。 The calculation unit 11 standardizes the depth information of each point according to a predetermined rule (step S402). Here, the calculation unit 11 normalizes the depth information so that the depth of the point corresponding to the center point of the circumscribed sphere is 0 and the depth of the point corresponding to the surface of the circumscribed sphere is 255.

演算部11は、各点の深度情報を濃淡情報として外接球の表面に射影して、外接球の表面に濃淡情報(深度情報)をマッピングすることで、射影画像を生成する(ステップS403)。ここでは、演算部11は、各点の深度情報を、その点と外接球の中心点とを結ぶ直線が外接球と交わる交点に射影する。 The calculation unit 11 projects the depth information of each point on the surface of the circumscribed sphere as shading information, and maps the shading information (depth information) to the surface of the circumscribed sphere to generate a projected image (step S403). Here, the calculation unit 11 projects the depth information of each point at the intersection where the straight line connecting the point and the center point of the circumscribed sphere intersects the circumscribed sphere.

そして、演算部11は、外接球の表面の点において複数の深度情報が射影された点が存在するか否かを判断する。複数の深度情報が射影された点が存在する場合、演算部11は、の複数の深度情報のいずれかを選択し、それ以外の深度情報を削除することで、複数の深度情報のいずれかが射影されて射影画像を生成し(ステップS404)、射影処理を終了する。ここでは、演算部11は、複数の深度情報のうち最も外側の点の深度情報を選択する。なお演算部11は、複数の深度情報のうち最も内側の点の深度情報などを選択してもよい。また、複数の深度情報が射影された点がない場合、演算部11は、そのまま射影処理を終了する。 Then, the calculation unit 11 determines whether or not there is a point on the surface of the circumscribed sphere on which a plurality of depth information is projected. When there is a point where a plurality of depth information is projected, the calculation unit 11 selects one of the plurality of depth information and deletes the other depth information, so that any one of the plurality of depth information can be obtained. It is projected to generate a projected image (step S404), and the projection process is completed. Here, the calculation unit 11 selects the depth information of the outermost point among the plurality of depth information. The calculation unit 11 may select the depth information of the innermost point among the plurality of depth information. Further, when there is no point where a plurality of depth information is projected, the calculation unit 11 ends the projection process as it is.

図7は、図2のステップS106の展開処理の一例を説明するためのフローチャートである。 FIG. 7 is a flowchart for explaining an example of the expansion process of step S106 of FIG.

展開処理では、演算部11は、外接球の球面の各点の座標を極座標に変換する(ステップS501)。ここでは、変換前の各点の座標は、直交座標(x,y,z)で表され、回転処理(図3参照)によって、3次元点群データの第1主成分がx軸方向を向いており、第3主成分がy軸方向を向いている。この場合、演算部11は、以下の数1を用いて、各点の座標を極座標(r,θ,φ)に変換する。

Figure 2022070002000002
In the expansion process, the calculation unit 11 converts the coordinates of each point on the sphere of the circumscribed sphere into polar coordinates (step S501). Here, the coordinates of each point before conversion are represented by Cartesian coordinates (x, y, z), and the first principal component of the three-dimensional point group data faces the x-axis direction by the rotation process (see FIG. 3). The third main component is oriented in the y-axis direction. In this case, the arithmetic unit 11 converts the coordinates of each point into polar coordinates (r, θ, φ) using the following equation 1.
Figure 2022070002000002

そして、演算部11は、球面の各点の極座標を2次元座標(x、y)に変換することで、球面の各点をxy平面に展開して球面深度画像を生成し(ステップS502)、展開処理を終了する。ここでは、演算部11は、以下の数2を用いて各点の極座標を2次元座標(x、y)に変換する。

Figure 2022070002000003
Then, the arithmetic unit 11 converts the polar coordinates of each point of the spherical surface into two-dimensional coordinates (x, y) to expand each point of the spherical surface on the xy plane and generate a spherical depth image (step S502). End the expansion process. Here, the arithmetic unit 11 converts the polar coordinates of each point into two-dimensional coordinates (x, y) using the following equation 2.
Figure 2022070002000003

図8は、展開処理の一例を説明するための図である。具体的には、図8(a)は、展開処理前の画像の一例を示す図であり、図8(b)は、展開処理後の画像の一例を示す図である。 FIG. 8 is a diagram for explaining an example of the expansion process. Specifically, FIG. 8A is a diagram showing an example of an image before the expansion process, and FIG. 8B is a diagram showing an example of the image after the expansion process.

図8に示すように展開処理により、外接球の表面上に深度情報として濃淡情報が射影された射影画像(図8(a))が2次元のグレースケール画像である球面深度画像(図8(b))に変換される。 As shown in FIG. 8, the projected image (FIG. 8A) in which the shading information is projected as the depth information on the surface of the circumscribed sphere by the expansion process is a two-dimensional grayscale image (FIG. 8 (FIG. 8). b) is converted to).

なお、特徴量である球面深度画像に対して数1及び数2で示した変換の逆変換を行うことで射影画像を概ね再現することが可能であり、さらに射影処理による射影の逆射影を行うことで射影画像から元の対象画像を概ね再現することが可能である。これは、球面深度画像が元の対象画像の形状等の特徴を概ね保持しており、特徴量損失が少ないことを示している。 It is possible to roughly reproduce the projected image by performing the inverse transformation of the transformations shown in Equations 1 and 2 on the spherical depth image which is a feature quantity, and further, the projection is back-projected by the projection process. This makes it possible to roughly reproduce the original target image from the projected image. This indicates that the spherical depth image generally retains features such as the shape of the original target image, and the feature amount loss is small.

以上説明したように本実施形態によれば、演算部11は、対象画像に含まれる3次元点群データの重心を中心点とした3次元点群データを囲む球面に対して、3次元点群の各点と中心点との距離を示す情報を各点の深度情報として射影した射影画像を生成する。演算部11は、射影画像を2次元平面に展開した球面深度画像を特徴量として抽出する。したがって、対象画像の形状を反映した単一の球面深度画像を特徴量として抽出することが可能になるため、高速で精度の高い類似画像検索が可能となる。 As described above, according to the present embodiment, the calculation unit 11 has a three-dimensional point group with respect to a spherical surface surrounding the three-dimensional point group data centered on the center of gravity of the three-dimensional point group data included in the target image. A projected image is generated by projecting information indicating the distance between each point and the center point as depth information of each point. The calculation unit 11 extracts a spherical depth image obtained by expanding the projected image into a two-dimensional plane as a feature amount. Therefore, since it is possible to extract a single spherical depth image that reflects the shape of the target image as a feature amount, it is possible to search for similar images at high speed and with high accuracy.

また、本実施形態では、演算部11は、3次元点群に対して主成分分析を行って、3次元点群データの主成分を特定し、その主成分に基づいて3次元画像を回転させた状態で射影画像を生成する。したがって、対象画像の向きを揃えて特徴量を抽出することが可能となるため、精度の高い類似画像検索が可能となる。 Further, in the present embodiment, the calculation unit 11 performs principal component analysis on the 3D point group, identifies the principal component of the 3D point group data, and rotates the 3D image based on the principal component. Generate a projected image in this state. Therefore, since it is possible to extract the feature amount by aligning the directions of the target images, it is possible to search for similar images with high accuracy.

また、本実施形態では、演算部11は、各点の深度情報を、その点と球面の中心点とを結ぶ直線が球面とが交わる交点に射影する。したがって、3次元画像の形状をより正確に反映した特徴量を抽出することが可能となる。 Further, in the present embodiment, the calculation unit 11 projects the depth information of each point at the intersection where the straight line connecting the point and the center point of the spherical surface intersects the spherical surface. Therefore, it is possible to extract a feature amount that more accurately reflects the shape of the three-dimensional image.

また、本実施形態では、演算部11は、球面上の点に複数の深度情報が射影される場合、当該複数の深度情報のうち最も外側の点の深度情報を射影する。この場合、3次元画像の外側の形状を反映した特徴量を抽出することが可能となるため、精度の高い類似画像検索が可能となる。 Further, in the present embodiment, when a plurality of depth information is projected on a point on the spherical surface, the calculation unit 11 projects the depth information of the outermost point among the plurality of depth information. In this case, since it is possible to extract a feature amount that reflects the outer shape of the three-dimensional image, it is possible to search for similar images with high accuracy.

また、本実施形態では、演算部11は、対象画像の各ポリゴンの各辺に点を補間し、その補間した点を3次元点群データに追加し、深度情報を射影する。このため、特徴量に反映させる情報量を増加させることが可能となるため、精度の高い類似画像検索が可能となる。 Further, in the present embodiment, the calculation unit 11 interpolates points on each side of each polygon of the target image, adds the interpolated points to the three-dimensional point cloud data, and projects the depth information. Therefore, it is possible to increase the amount of information to be reflected in the feature amount, and it is possible to search for similar images with high accuracy.

また、本実施形態では、球面は、3次元点群データの外接球の球面である。このため、3次元点群データの各点の深度を適切に射影することが可能となる。 Further, in the present embodiment, the spherical surface is the spherical surface of the circumscribed sphere of the three-dimensional point cloud data. Therefore, it is possible to appropriately project the depth of each point of the three-dimensional point cloud data.

上述した本開示の実施形態は、本開示の説明のための例示であり、本開示の範囲をそれらの実施形態にのみ限定する趣旨ではない。当業者は、本開示の範囲を逸脱することなしに、他の様々な態様で本開示を実施することができる。 The embodiments of the present disclosure described above are examples for the purpose of explaining the present disclosure, and the scope of the present disclosure is not intended to be limited only to those embodiments. One of ordinary skill in the art can implement the present disclosure in various other embodiments without departing from the scope of the present disclosure.

例えば、サーバ1は、抽出した特徴量を用いて3次元画像の類似画像検索を行う機能を有していてもよい。 For example, the server 1 may have a function of performing a similar image search for a three-dimensional image using the extracted feature amount.

1:サーバ、2:ユーザ端末、11:演算部、12:処理部、13:格納部、14:送受信部

1: Server, 2: User terminal, 11: Arithmetic unit, 12: Processing unit, 13: Storage unit, 14: Transmission / reception unit

Claims (8)

3次元点群データを含む3次元画像の特徴量を抽出する特徴量抽出装置であって、
前記3次元点群データの重心を中心点とした前記3次元点群データを囲む球面に対して、前記3次元点群の各点と前記中心点との距離を示す情報を各点の深度情報として射影した射影画像を生成し、前記射影画像を2次元平面に展開した画像を前記特徴量として抽出する演算部を有する特徴量抽出装置。
It is a feature amount extraction device that extracts the feature amount of a 3D image including 3D point cloud data.
Depth information of each point indicating the distance between each point of the three-dimensional point group and the center point with respect to the spherical surface surrounding the three-dimensional point group data with the center of gravity of the three-dimensional point group data as the center point. A feature amount extraction device having a calculation unit for generating a projected image projected as a feature amount and extracting an image obtained by expanding the projected image on a two-dimensional plane as the feature amount.
前記演算部は、前記3次元点群に対して主成分分析を行って、前記3次元点群データの主成分を特定し、前記主成分に基づいて前記3次元画像を回転させた状態で前記射影画像を生成する、請求項1に記載の特徴量抽出装置。 The calculation unit performs principal component analysis on the three-dimensional point group, identifies the main component of the three-dimensional point group data, and rotates the three-dimensional image based on the main component. The feature amount extraction device according to claim 1, which generates a projected image. 前記演算部は、各点の深度情報を、当該点と前記中心点とを結ぶ直線が前記球面とが交わる交点に射影する、請求項1に記載の特徴量抽出装置。 The feature amount extraction device according to claim 1, wherein the calculation unit projects depth information of each point onto an intersection where a straight line connecting the point and the center point intersects the spherical surface. 前記演算部は、前記交点に複数の前記深度情報が射影される場合、当該複数の深度情報のうち最も外側の点の深度情報を射影する、請求項3に記載の特徴量抽出装置。 The feature amount extraction device according to claim 3, wherein the calculation unit projects the depth information of the outermost point among the plurality of depth information when a plurality of the depth information is projected on the intersection. 前記3次元画像は、前記3次元点群データの各点を頂点とする複数のポリゴンで形成され、
前記演算部は、各ポリゴンの各辺に点を補間し、当該補間した点を前記3次元点群データに追加する、請求項1に記載の特徴量抽出装置。
The three-dimensional image is formed by a plurality of polygons having each point of the three-dimensional point cloud data as a vertex.
The feature amount extraction device according to claim 1, wherein the calculation unit interpolates points on each side of each polygon and adds the interpolated points to the three-dimensional point cloud data.
前記球面は、前記3次元点群データの外接球の球面である、請求項1に記載の特徴量抽出装置。 The feature amount extraction device according to claim 1, wherein the spherical surface is a spherical surface of a circumscribed sphere of the three-dimensional point cloud data. 3次元点群データを含む3次元画像の特徴量を抽出する特徴量抽出装置による特徴量抽出方法であって、
前記3次元点群データの重心を中心点とした前記3次元点群データを囲む球面に対して、前記3次元点群の各点と前記中心点との距離を示す情報を各点の深度情報として射影した射影画像を生成し、
前記射影画像を2次元平面に展開した画像を前記特徴量として抽出する、特徴量抽出方法。
It is a feature amount extraction method by a feature amount extraction device that extracts a feature amount of a 3D image including 3D point cloud data.
Depth information of each point indicating the distance between each point of the three-dimensional point group and the center point with respect to the spherical surface surrounding the three-dimensional point group data with the center of gravity of the three-dimensional point group data as the center point. Generates a projected image projected as
A feature amount extraction method for extracting an image obtained by expanding the projected image on a two-dimensional plane as the feature amount.
3次元点群データを含む3次元画像の特徴量を抽出するためのプログラムであって、
前記3次元点群データの重心を中心点とした前記3次元点群データを囲む球面に対して、前記3次元点群の各点と前記中心点との距離を示す情報を各点の深度情報として射影した射影画像を生成する手順と、
前記射影画像を2次元平面に展開した画像を前記特徴量として抽出する手順とを、コンピュータに実行させるためのプログラム。

It is a program for extracting the features of a 3D image including 3D point cloud data.
Depth information of each point indicating the distance between each point of the three-dimensional point group and the center point with respect to the spherical surface surrounding the three-dimensional point group data with the center of gravity of the three-dimensional point group data as the center point. And the procedure to generate a projected image projected as
A program for causing a computer to execute a procedure of extracting an image obtained by expanding the projected image on a two-dimensional plane as the feature amount.

JP2020178996A 2020-10-26 2020-10-26 Feature quantity extraction device, feature quantity extraction method, and program Pending JP2022070002A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020178996A JP2022070002A (en) 2020-10-26 2020-10-26 Feature quantity extraction device, feature quantity extraction method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020178996A JP2022070002A (en) 2020-10-26 2020-10-26 Feature quantity extraction device, feature quantity extraction method, and program

Publications (1)

Publication Number Publication Date
JP2022070002A true JP2022070002A (en) 2022-05-12

Family

ID=81534132

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020178996A Pending JP2022070002A (en) 2020-10-26 2020-10-26 Feature quantity extraction device, feature quantity extraction method, and program

Country Status (1)

Country Link
JP (1) JP2022070002A (en)

Similar Documents

Publication Publication Date Title
Liu et al. Autoshape: Real-time shape-aware monocular 3d object detection
US8711143B2 (en) System and method for interactive image-based modeling of curved surfaces using single-view and multi-view feature curves
US6801653B1 (en) Information processing apparatus and method as well as medium
JP4392507B2 (en) 3D surface generation method
Albarelli et al. Fast and accurate surface alignment through an isometry-enforcing game
JP2011192214A (en) Geometric feature extracting device, geometric feature extraction method and program, three-dimensional measuring device and object recognition device
CN111710035B (en) Face reconstruction method, device, computer equipment and storage medium
Rocchini et al. The marching intersections algorithm for merging range images
WO2023093739A1 (en) Multi-view three-dimensional reconstruction method
CN115375823B (en) Three-dimensional virtual clothing generation method, device, equipment and storage medium
CN116157841A (en) System and method for accelerating ray tracing
CN114092963A (en) Key point detection and model training method, device, equipment and storage medium
CN115018992A (en) Method and device for generating hair style model, electronic equipment and storage medium
Jelinek et al. Fast total least squares vectorization
JP2014102746A (en) Subject recognition device and subject recognition program
JP2019220099A (en) Stereo matching processing device, stereo matching processing method, and program
US20160364908A1 (en) Analysis Model Creation Assistance System, Analysis Model Creation Assistance Device and Analysis Model Creation Assistance Program
JP7003617B2 (en) Estimator, estimation method, and estimation program
JP2017168081A (en) 3d object localization with descriptor
CN112197708B (en) Measuring method and device, electronic device and storage medium
JP4524514B2 (en) Image processing apparatus, image processing method, and recording medium
JP2022070002A (en) Feature quantity extraction device, feature quantity extraction method, and program
US20220392251A1 (en) Method and apparatus for generating object model, electronic device and storage medium
CN114674328B (en) Map generation method, map generation device, electronic device, storage medium, and vehicle
Yang et al. CAD data visualization on mobile devices using sequential constrained Delaunay triangulation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230203

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231121

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240514