JP6814775B2 - Collection device, collection method and collection program - Google Patents

Collection device, collection method and collection program Download PDF

Info

Publication number
JP6814775B2
JP6814775B2 JP2018188870A JP2018188870A JP6814775B2 JP 6814775 B2 JP6814775 B2 JP 6814775B2 JP 2018188870 A JP2018188870 A JP 2018188870A JP 2018188870 A JP2018188870 A JP 2018188870A JP 6814775 B2 JP6814775 B2 JP 6814775B2
Authority
JP
Japan
Prior art keywords
image
captured
collecting device
captured image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018188870A
Other languages
Japanese (ja)
Other versions
JP2020057299A (en
Inventor
秉哲 ▲裴▼
秉哲 ▲裴▼
翔太 斎藤
翔太 斎藤
Original Assignee
東芝インフォメーションシステムズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 東芝インフォメーションシステムズ株式会社 filed Critical 東芝インフォメーションシステムズ株式会社
Priority to JP2018188870A priority Critical patent/JP6814775B2/en
Publication of JP2020057299A publication Critical patent/JP2020057299A/en
Application granted granted Critical
Publication of JP6814775B2 publication Critical patent/JP6814775B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、収集装置、収集方法及び収集プログラムに関する。 The present invention relates to a collection device, a collection method and a collection program.

画像認識のための機械学習を行う場合、認識対象のオブジェクトが画角いっぱいに映った画像が用いられる。このような画像を収集するためには、認識対象のオブジェクトを様々な角度から撮影し、さらにそれぞれの画像に対しトリミング加工を行う必要がある。 When performing machine learning for image recognition, an image in which the object to be recognized is reflected at the full angle of view is used. In order to collect such images, it is necessary to photograph the object to be recognized from various angles and further perform trimming processing on each image.

また、AR(Augmented Reality)技術によれば、撮像した画像の傾きや、画像に映っているオブジェクトの位置を把握することができる(例えば、特許文献1又は特許文献2を参照)。 Further, according to the AR (Augmented Reality) technology, it is possible to grasp the inclination of the captured image and the position of the object reflected in the image (see, for example, Patent Document 1 or Patent Document 2).

特開2008−249407号公報Japanese Unexamined Patent Publication No. 2008-249407 国際公開第2014/061372号International Publication No. 2014/061372

しかしながら、従来の技術には、特定のオブジェクトの画像を効率的に収集することが困難な場合があるという問題がある。例えば、画像のトリミングは手動で行われるため、必要な画像の数が多くなると、膨大な時間がかかるようになる。 However, the conventional technique has a problem that it may be difficult to efficiently collect an image of a specific object. For example, image cropping is done manually, which can take a huge amount of time as the number of images required increases.

実施形態の収集装置は、撮像部と、特定部と、取得部とを有する。撮像部は、画像を撮像する。特定部は、撮像部によって撮像された画像である撮像画像内のマーカを基に、撮像部の位置及び姿勢を特定する。取得部は、撮像画像と、特定部によって特定された位置及び姿勢を示すパラメータと、を対応付けて取得する。 The collecting device of the embodiment includes an imaging unit, a specific unit, and an acquisition unit. The image pickup unit captures an image. The specific unit identifies the position and orientation of the imaging unit based on the markers in the captured image, which is the image captured by the imaging unit. The acquisition unit acquires the captured image in association with the parameters indicating the position and posture specified by the specific unit.

図1は、第1の実施形態に係る収集装置の利用シーンを説明するための図である。FIG. 1 is a diagram for explaining a usage scene of the collecting device according to the first embodiment. 図2は、第1の実施形態に係る収集装置の構成の一例を示す図である。FIG. 2 is a diagram showing an example of the configuration of the collecting device according to the first embodiment. 図3は、第1の実施形態に係る収集データについて説明するための図である。FIG. 3 is a diagram for explaining the collected data according to the first embodiment. 図4は、第1の実施形態に係る仮想カメラについて説明するための図である。FIG. 4 is a diagram for explaining the virtual camera according to the first embodiment. 図5は、第1の実施形態に係る正投影図について説明するための図である。FIG. 5 is a diagram for explaining an orthographic projection according to the first embodiment. 図6は、第1の実施形態に係る収集画像の一例を示す図である。FIG. 6 is a diagram showing an example of collected images according to the first embodiment. 図7は、第1の実施形態に係る収集装置の処理の流れを示すフローチャートである。FIG. 7 is a flowchart showing a processing flow of the collecting device according to the first embodiment.

以下に、本願に係る収集装置、収集方法及び収集プログラムの実施形態を図面に基づいて詳細に説明する。なお、本発明は、以下に説明する実施形態により限定されるものではない。 Hereinafter, embodiments of the collection device, collection method, and collection program according to the present application will be described in detail with reference to the drawings. The present invention is not limited to the embodiments described below.

(第1の実施形態)
まず、図1を用いて、第1の実施形態に係る収集装置の利用シーンを説明する。図1は、第1の実施形態に係る収集装置の利用シーンを説明するための図である。収集装置10は画像を撮像する撮像機能を有しているものとする。収集装置10は、例えば、カメラ付きのスマートフォンである。
(First Embodiment)
First, the usage scene of the collecting device according to the first embodiment will be described with reference to FIG. FIG. 1 is a diagram for explaining a usage scene of the collecting device according to the first embodiment. It is assumed that the collecting device 10 has an imaging function for capturing an image. The collecting device 10 is, for example, a smartphone with a camera.

図1に示すように、ユーザは、収集装置10を用いて、撮像対象のオブジェクト20の撮像を行う。また、オブジェクト20の付近には、マーカ30が備えられている。マーカ30は、収集装置10がARを実行するためのマーカである。例えば、マーカ30は、QR(Quick Response)コード(登録商標)である。また、収集装置10は、マーカレスARを実行してもよい。 As shown in FIG. 1, the user uses the collecting device 10 to image the object 20 to be imaged. Further, a marker 30 is provided in the vicinity of the object 20. The marker 30 is a marker for the collecting device 10 to execute AR. For example, the marker 30 is a QR (Quick Response) code (registered trademark). Further, the collecting device 10 may execute the markerless AR.

収集装置10は、撮像した画像と、画像の内部パラメータと、ARを実行することで得られる外部パラメータとを対応付けたデータを収集する。例えば、内部パラメータは、焦点距離、画像中心、解像度、歪み係数等である。また、外部パラメータは、ARを実行することによって特定されるカメラの位置及び姿勢である。そのほかにも、収集装置10は、撮像日時、場所、絞り、露光時間、センサの感度といったメタデータをパラメータとして取得してもよい。 The collecting device 10 collects data in which the captured image, the internal parameters of the image, and the external parameters obtained by executing AR are associated with each other. For example, internal parameters are focal length, image center, resolution, distortion factor, and the like. Also, the external parameters are the position and orientation of the camera identified by performing AR. In addition, the collecting device 10 may acquire metadata such as imaging date / time, location, aperture, exposure time, and sensor sensitivity as parameters.

また、収集装置10は、撮像した画像を加工した画像を収集してもよい。例えば、収集装置10は、撮像した画像をトリミングした画像を収集する。このとき、収集装置10は、外部パラメータを基にトリミングを行うことができる。 Further, the collecting device 10 may collect a processed image of the captured image. For example, the collecting device 10 collects a cropped image of the captured image. At this time, the collecting device 10 can perform trimming based on the external parameters.

このように、収集装置10は、画像を、内部パラメータ及び外部パラメータとともに収集する。これにより、内部パラメータ又は外部パラメータを用いてトリミング等の加工を行うことで、収集した画像から対象オブジェクトが映った領域を抽出することができる。このため、収集装置10によれば、特定のオブジェクトの画像を効率的に収集することができる。 In this way, the collecting device 10 collects the image together with the internal parameter and the external parameter. As a result, the area in which the target object is reflected can be extracted from the collected image by performing processing such as trimming using the internal parameter or the external parameter. Therefore, according to the collection device 10, images of a specific object can be efficiently collected.

(第1の実施形態の収集装置の構成)
図2を用いて、収集装置10の構成について説明する。図2は、第1の実施形態に係る収集装置の構成の一例を示す図である。図2に示すように、収集装置10は、カメラ11、記憶部12及び制御部13を有する。カメラ11は、撮像部の一例である。
(Structure of the collecting device of the first embodiment)
The configuration of the collecting device 10 will be described with reference to FIG. FIG. 2 is a diagram showing an example of the configuration of the collecting device according to the first embodiment. As shown in FIG. 2, the collecting device 10 includes a camera 11, a storage unit 12, and a control unit 13. The camera 11 is an example of an imaging unit.

記憶部12は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、光ディスク、RAM(Random Access Memory)、フラッシュメモリ、NVSRAM(Non Volatile Static Random Access Memory)等の記憶装置である。記憶部12は、収集装置10で実行されるOS(Operating System)やプログラムを記憶する。さらに、記憶部12は、プログラムの実行で用いられる各種情報を記憶する。また、記憶部12は、AR情報121及び収集データ122を記憶する。 The storage unit 12 is a storage device for HDD (Hard Disk Drive), SSD (Solid State Drive), optical disk, RAM (Random Access Memory), flash memory, NVSRAM (Non Volatile Static Random Access Memory), and the like. The storage unit 12 stores an OS (Operating System) and a program executed by the collection device 10. Further, the storage unit 12 stores various information used in executing the program. Further, the storage unit 12 stores the AR information 121 and the collected data 122.

AR情報121は、ARを実行するための情報である。AR情報121には、マーカ30の画像が含まれる。また、AR情報121には、撮像対象のオブジェクトを配置する位置である撮像空間の、マーカ30に対する相対的な位置を示す情報が含まれる。例えば、撮像空間は、マーカ30に対する所定の位置に仮想的に配置された球等の立体の内部空間である。なお、マーカ30は、撮像空間が撮像対象のオブジェクトを内包するように設置されているものとする。 The AR information 121 is information for executing AR. The AR information 121 includes an image of the marker 30. Further, the AR information 121 includes information indicating the position of the imaging space, which is the position where the object to be imaged is arranged, relative to the marker 30. For example, the imaging space is a three-dimensional internal space such as a sphere virtually arranged at a predetermined position with respect to the marker 30. It is assumed that the marker 30 is installed so that the imaging space includes the object to be imaged.

収集データ122は、収集装置10によって収集されたデータである。図3は、第1の実施形態に係る収集データについて説明するための図である。図3に示すように、収集データ122には、撮像画像122a及びパラメータ122bが含まれる。撮像画像122aは、カメラ11によって撮像された画像である。また、パラメータ122bには、日時、緯度経度、外部パラメータ及び内部パラメータが含まれる。図3の例における日時及び緯度経度は、それぞれ「2018/8/28 11:58:00」及び「35°N139°E」である。 The collected data 122 is the data collected by the collecting device 10. FIG. 3 is a diagram for explaining the collected data according to the first embodiment. As shown in FIG. 3, the collected data 122 includes the captured image 122a and the parameter 122b. The captured image 122a is an image captured by the camera 11. Further, the parameter 122b includes a date and time, latitude and longitude, an external parameter and an internal parameter. The date and time and latitude / longitude in the example of FIG. 3 are “2018/8/28 11:58:00” and “35 ° N139 ° E”, respectively.

図3に示すように、外部パラメータには、位置及び角度が含まれる。位置は、撮像時のカメラ11の位置を示す座標である。また、角度は、撮像時のカメラ11のx軸、y軸、z軸に対する回転角度である。図3の例における外部パラメータは、撮像画像122aを撮像した際のカメラ11の位置が(1.5,2,2)であり、x軸、y軸、z軸に対する回転角度が(0°,30°,30°)であったことを示している。 As shown in FIG. 3, the external parameters include position and angle. The position is a coordinate indicating the position of the camera 11 at the time of imaging. The angle is the rotation angle of the camera 11 with respect to the x-axis, y-axis, and z-axis at the time of imaging. The external parameters in the example of FIG. 3 are that the position of the camera 11 when the captured image 122a is captured is (1.5, 2, 2), and the rotation angle with respect to the x-axis, y-axis, and z-axis is (0 °, It shows that it was 30 °, 30 °).

図3に示すように、内部パラメータには、焦点距離、解像度、画像中心及び歪み係数が含まれる。図3の例における内部パラメータは、撮像画像122aが、焦点距離50mmで撮像されたことを示している。また内部パラメータは、撮像画像122aの解像度が1920×1080であり、画像中心が(950,550)であり、歪み係数が0.01であることを示している。 As shown in FIG. 3, the internal parameters include focal length, resolution, image center and distortion factor. The internal parameters in the example of FIG. 3 indicate that the captured image 122a was captured at a focal length of 50 mm. The internal parameters indicate that the resolution of the captured image 122a is 1920 × 1080, the center of the image is (950,550), and the distortion coefficient is 0.01.

制御部13は、収集装置10を制御する。制御部13は、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等である。例えば、制御部13は、特定部131、取得部132及び抽出部133として機能する。 The control unit 13 controls the collection device 10. The control unit 13 is a CPU (Central Processing Unit), an MPU (Micro Processing Unit), an ASIC (Application Specific Integrated Circuit), an FPGA (Field Programmable Gate Array), and the like. For example, the control unit 13 functions as a specific unit 131, an acquisition unit 132, and an extraction unit 133.

特定部131は、カメラ11によって撮像された画像内のマーカ30を基に、カメラ11の位置及び姿勢を特定する。特定部131は、既知のAR技術を用いて位置及び姿勢を特定することができる。また、特定部131は、特定した位置及び姿勢を表す外部パラメータ行列を計算することができる。 The identification unit 131 identifies the position and orientation of the camera 11 based on the marker 30 in the image captured by the camera 11. The identification unit 131 can specify the position and the posture by using a known AR technique. In addition, the specific unit 131 can calculate an external parameter matrix representing the specified position and posture.

取得部132は、カメラ11によって撮像された画像と、特定部131によって特定された位置及び姿勢を示すパラメータと、を対応付けて取得する。例えば、取得部132は、撮像画像122a、パラメータ122bを取得し、収集データ122として記憶部12に格納する。 The acquisition unit 132 acquires the image captured by the camera 11 in association with the parameters indicating the position and posture specified by the specific unit 131. For example, the acquisition unit 132 acquires the captured image 122a and the parameter 122b and stores the captured data 122 in the storage unit 12.

抽出部133は、パラメータを基に、カメラ11によって撮像された画像から、マーカ30に対してあらかじめ定められた位置にある所定の領域の画像を抽出する。ここでいう所定の領域は、例えば、前述のAR情報121に含まれる撮像空間である。 The extraction unit 133 extracts an image of a predetermined region at a position predetermined with respect to the marker 30 from the image captured by the camera 11 based on the parameters. The predetermined area referred to here is, for example, an imaging space included in the AR information 121 described above.

さらに、撮像空間は、仮想的な立体の内部空間とみなせる。このため、撮像空間を内包する仮想的な立体をフレームに収めた正投影画像には、撮像対象のオブジェクトが映っていることになる。そこで、抽出部133は、マーカ30に対してあらかじめ定められた位置に仮想的に配置された立体が中心になるような正投影図を抽出する。なお、抽出部133は、撮像対象のオブジェクトの大きさ及び形状に応じて、抽出する領域の立体の大きさ及び形状を変化させてもよい。また、抽出部133は、抽出した正投影図を収集データ122として記憶部12に格納する。 Further, the imaging space can be regarded as a virtual three-dimensional internal space. Therefore, the object to be imaged is reflected in the orthographic image in which the virtual solid including the imaging space is contained in the frame. Therefore, the extraction unit 133 extracts an orthographic projection in which a solid virtually arranged at a predetermined position with respect to the marker 30 is the center. The extraction unit 133 may change the size and shape of the three-dimensional object in the extraction region according to the size and shape of the object to be imaged. Further, the extraction unit 133 stores the extracted orthographic projection as the collected data 122 in the storage unit 12.

図4を用いて、撮像空間を球の内部空間とした場合の抽出部133の処理の例について説明する。図4は、第1の実施形態に係る仮想カメラについて説明するための図である。図4に示すように、仮想球30aは、マーカ30に対してあらかじめ定められた位置に仮想的に配置されている。また、仮想球30aはオブジェクト20を内包している。 An example of processing of the extraction unit 133 when the imaging space is the internal space of the sphere will be described with reference to FIG. FIG. 4 is a diagram for explaining the virtual camera according to the first embodiment. As shown in FIG. 4, the virtual sphere 30a is virtually arranged at a predetermined position with respect to the marker 30. Further, the virtual sphere 30a includes the object 20.

仮想カメラ11aは、仮想球30aが中心になるような正投影図を撮像する仮想的な正投影(Orthographic)カメラである。抽出部133は、仮想カメラ11aによって撮像された画像を抽出する。つまり、抽出部133は、カメラ11の位置及び姿勢が仮想カメラ11aの位置及び姿勢と同じであったと仮定した場合に、カメラ11が撮像したと考えられる撮像画像を抽出する。 The virtual camera 11a is a virtual orthographic camera that captures an orthographic projection such that the virtual sphere 30a is at the center. The extraction unit 133 extracts an image captured by the virtual camera 11a. That is, the extraction unit 133 extracts the captured image considered to have been captured by the camera 11 on the assumption that the position and orientation of the camera 11 are the same as the position and orientation of the virtual camera 11a.

なお、正投影図に対象のオブジェクトを最も大きく映すことができるのは、仮想球30aがオブジェクト20に外接している場合である。また、オブジェクト20の立体的な形状を事前に特定できている場合は、仮想球30aを形状に合わせて変形させてもよい。例えば、仮想球30aは、オブジェクト20に外接し、オブジェクト20との接点がなるべく多くなるような多面体に置き換えられる。 The object can be projected in the orthographic projection in the largest size when the virtual sphere 30a circumscribes the object 20. Further, when the three-dimensional shape of the object 20 can be specified in advance, the virtual sphere 30a may be deformed according to the shape. For example, the virtual sphere 30a is replaced with a polyhedron that circumscribes the object 20 and has as many points of contact with the object 20 as possible.

図5は、第1の実施形態に係る正投影図について説明するための図である。図5に示すように、抽出部133は、撮像画像201aから正投影図201bを抽出する。また、抽出部133は、撮像画像202aから正投影図202bを抽出する。また、抽出部133は、撮像画像203aから正投影図203bを抽出する。 FIG. 5 is a diagram for explaining an orthographic projection according to the first embodiment. As shown in FIG. 5, the extraction unit 133 extracts the orthographic projection 201b from the captured image 201a. In addition, the extraction unit 133 extracts the orthographic projection 202b from the captured image 202a. In addition, the extraction unit 133 extracts the orthographic projection 203b from the captured image 203a.

図5の例では、撮像画像201a、撮像画像202a、撮像画像203aに映ったオブジェクト20の大きさはそれぞれ異なる。これに対し、正投影図201b、正投影図202b、正投影図203bに映ったオブジェクト20の大きさは同一である。一方で、正投影図201b、正投影図202b、正投影図203bに映ったオブジェクト20の角度はそれぞれ異なっている。このため、収集装置10は、異なる角度から撮像したオブジェクト20の画像を、大きさを揃えたうえで収集することができる。 In the example of FIG. 5, the sizes of the objects 20 reflected in the captured image 201a, the captured image 202a, and the captured image 203a are different from each other. On the other hand, the sizes of the objects 20 shown in the orthographic projection 201b, the orthographic projection 202b, and the orthographic projection 203b are the same. On the other hand, the angles of the objects 20 reflected in the orthographic projection 201b, the orthographic projection 202b, and the orthographic projection 203b are different from each other. Therefore, the collecting device 10 can collect images of the objects 20 captured from different angles after having the same size.

また、収集装置10は、図6に示すように、少しずつ角度を変えたオブジェクト20の画像を収集することができる。図6は、第1の実施形態に係る収集画像の一例を示す図である。 Further, as shown in FIG. 6, the collecting device 10 can collect an image of the object 20 whose angle is changed little by little. FIG. 6 is a diagram showing an example of collected images according to the first embodiment.

収集画像が多様な角度から撮像されているほど、より有効な学習データになることが考えられる。逆に、同じ角度から撮像した多数の画像があったとしても、画像の数に対する学習データとしての有効性は低いと考えられる。 It is conceivable that the more the collected images are captured from various angles, the more effective the learning data will be. On the contrary, even if there are many images taken from the same angle, it is considered that the effectiveness as learning data for the number of images is low.

そこで、収集装置10は、なるべく多くの異なる角度から撮像が行われるように、音声や画面表示により、収集装置10を持ったユーザを所定の位置に誘導するようにしてもよい。 Therefore, the collecting device 10 may guide the user holding the collecting device 10 to a predetermined position by voice or screen display so that the image pickup is performed from as many different angles as possible.

ここで、例えば、図4のように、オブジェクト20の周囲の空間を、仮想球30aの中心を原点とする互いに垂直な3軸を用いた空間座標を(x,y,z)のように表すとする。このとき、収集装置10は、収集画像の中から、x=0、y=0、z=0の平面で分割された8個の空間それぞれからの正投影図の数をカウントする。そして、収集装置10は、カウントした正投影図の数が所定値以下である空間からの正投影図が抽出可能な撮像画像が得られる位置にユーザを誘導する。 Here, for example, as shown in FIG. 4, the space around the object 20 is represented by (x, y, z) as spatial coordinates using three axes perpendicular to each other with the center of the virtual sphere 30a as the origin. And. At this time, the collecting device 10 counts the number of orthographic projections from each of the eight spaces divided by the planes of x = 0, y = 0, and z = 0 from the collected images. Then, the collecting device 10 guides the user to a position where an captured image capable of extracting an orthographic projection from a space in which the number of counted orthographic projections is equal to or less than a predetermined value can be obtained.

例えば、収集画像が、図1のオブジェクト20からユーザの方向(z軸のマイナス方向)を見て右側から見た画像に偏っている場合、収集装置10は、左側にユーザを誘導する。 For example, when the collected image is biased toward the image viewed from the right side when the user's direction (minus direction of the z-axis) is viewed from the object 20 in FIG. 1, the collecting device 10 guides the user to the left side.

また、収集データ122を用いることで、オブジェクト20をマーカとするARを容易に行うことができるようになる。例えば、ARを実行する際に撮像されたAR用の画像内に収集画像のいずれかが映っている場合、収集画像及び収集したパラメータから、オブジェクト20の正面の位置を基準としたときの、当該AR用の画像を撮像しているカメラの位置及び姿勢を特定することができる。 Further, by using the collected data 122, AR using the object 20 as a marker can be easily performed. For example, when any of the collected images is shown in the AR image captured when executing AR, the said image is based on the position in front of the object 20 from the collected images and the collected parameters. The position and orientation of the camera that is capturing the image for AR can be specified.

(第1の実施形態の処理)
図7を用いて、収集装置10の処理について説明する。図7は、第1の実施形態に係る収集装置の処理の流れを示すフローチャートである。まず、収集装置10は、オブジェクト20の画像を撮像する(ステップS101)。このとき、マーカ30がオブジェクト20の付近の所定の位置に備えられているものとする。
(Processing of the first embodiment)
The processing of the collecting device 10 will be described with reference to FIG. 7. FIG. 7 is a flowchart showing a processing flow of the collecting device according to the first embodiment. First, the collecting device 10 captures an image of the object 20 (step S101). At this time, it is assumed that the marker 30 is provided at a predetermined position near the object 20.

次に、収集装置10は、撮像した画像内のマーカ30を基に、カメラ11の位置と姿勢を特定する(ステップS102)。ここで、収集装置10は、撮像した画像及びパラメータを取得する(ステップS103)。パラメータは、外部パラメータ及び内部パラメータを含む。 Next, the collecting device 10 identifies the position and orientation of the camera 11 based on the marker 30 in the captured image (step S102). Here, the collecting device 10 acquires the captured image and the parameters (step S103). Parameters include external and internal parameters.

さらに、収集装置10は、撮像した画像から、オブジェクト20が映った領域の画像を抽出する(ステップS104)。例えば、収集装置10は、前述の仮想カメラ11aを用いた手法により正投影図を抽出する。収集装置10は、抽出した画像及びパラメータを記憶部12に格納する(ステップS105)。 Further, the collecting device 10 extracts an image of the region in which the object 20 is reflected from the captured image (step S104). For example, the collecting device 10 extracts an orthographic projection by the method using the virtual camera 11a described above. The collecting device 10 stores the extracted images and parameters in the storage unit 12 (step S105).

ここで、ユーザの操作等により撮像が終了した場合(ステップS106、Yes)、収集装置10は処理を終了する。また、引き続き撮像が行われる場合(ステップS106、No)、収集装置10はステップS101に戻り、処理を繰り返す。 Here, when the imaging is completed by the user's operation or the like (step S106, Yes), the collecting device 10 ends the process. Further, when the imaging is continuously performed (step S106, No), the collecting device 10 returns to step S101 and repeats the process.

(第1の実施形態の効果)
これまで説明してきたように、収集装置10はカメラ11を用いて画像を撮像する。また、収集装置10は、撮像した画像である撮像画像内のマーカ30を基に、カメラ11の位置及び姿勢を特定する。また、収集装置10は、撮像画像と、特定した位置及び姿勢を示すパラメータと、を対応付けて取得する。このため、本実施形態によれば、特定のオブジェクトの画像を効率的に収集することができる。例えば、本実施形態によれば、従来手動で行われていた画像のトリミングを自動で行うことができる。また、画像とともに収集されたパラメータは、機械学習の教師データに含めることができるため、収集したデータの活用の幅を広げることができる。
(Effect of the first embodiment)
As described above, the collecting device 10 captures an image using the camera 11. Further, the collecting device 10 identifies the position and orientation of the camera 11 based on the marker 30 in the captured image which is the captured image. Further, the collecting device 10 acquires the captured image in association with the parameter indicating the specified position and posture. Therefore, according to the present embodiment, it is possible to efficiently collect images of a specific object. For example, according to the present embodiment, it is possible to automatically perform image trimming, which has been performed manually in the past. In addition, since the parameters collected together with the image can be included in the teacher data of machine learning, the range of utilization of the collected data can be expanded.

また、収集装置10は、パラメータを基に、撮像画像から、マーカ30に対してあらかじめ定められた位置にある所定の領域の画像を抽出する。これにより、ARを用いて撮像対象オブジェクトの位置を特定することができるようになる。 Further, the collecting device 10 extracts an image of a predetermined region at a predetermined position with respect to the marker 30 from the captured image based on the parameters. This makes it possible to specify the position of the object to be imaged using AR.

また、収集装置10は、マーカ30に対してあらかじめ定められた位置に仮想的に配置された立体が中心になるような正投影図を抽出する。これにより、抽出する画像にオブジェクトを大きく映すことができるようになる。 Further, the collecting device 10 extracts an orthographic projection such that a solid virtually arranged at a predetermined position with respect to the marker 30 is the center. This makes it possible to make the object appear larger in the extracted image.

なお、本実施形態の収集装置10で実行されるプログラムは、ROM等にあらかじめ組み込まれて提供される。本実施形態の収集装置10で実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。 The program executed by the collecting device 10 of the present embodiment is provided by being incorporated in a ROM or the like in advance. The program executed by the collecting device 10 of the present embodiment may be configured to be recorded and provided on a computer-readable recording medium in an installable or executable format file.

さらに、本実施形態の収集装置10で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、本実施形態の収集装置10で実行されるプログラムをインターネット等のネットワーク経由で提供又は配布するように構成してもよい。 Further, the program executed by the collecting device 10 of the present embodiment may be stored on a computer connected to a network such as the Internet and provided by downloading via the network. Further, the program executed by the collection device 10 of the present embodiment may be configured to be provided or distributed via a network such as the Internet.

本実施形態の収集装置10で実行されるプログラムは、上述した各部(特定部131、取得部132及び抽出部133)を含むモジュール構成となっており、実際のハードウェアとしてはCPUが上記ROMからプログラムを読み出して実行することにより上記各部が主記憶装置上にロードされ、特定部131、取得部132及び抽出部133が主記憶装置上に生成されるようになっている。 The program executed by the collection device 10 of the present embodiment has a module configuration including each of the above-mentioned parts (specific part 131, acquisition part 132, and extraction part 133), and as actual hardware, the CPU starts from the above ROM. By reading and executing the program, each of the above units is loaded on the main storage device, and the specific unit 131, the acquisition unit 132, and the extraction unit 133 are generated on the main memory device.

本発明の実施形態を説明したが、実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 Although embodiments of the present invention have been described, the embodiments are presented as examples and are not intended to limit the scope of the invention. The embodiment can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the gist of the invention. The embodiments and variations thereof are included in the scope of the invention described in the claims and the equivalent scope thereof, as are included in the scope and gist of the invention.

10 収集装置
11 カメラ
12 記憶部
13 制御部
20 オブジェクト
30 マーカ
121 AR情報
122 収集データ
131 特定部
132 取得部
133 抽出部
10 Collecting device 11 Camera 12 Storage unit 13 Control unit 20 Object 30 Marker 121 AR information 122 Collected data 131 Specific unit 132 Acquisition unit 133 Extraction unit

Claims (5)

画像を撮像する撮像部と、
前記撮像部によって撮像された画像である撮像画像内のマーカを基に、前記撮像部の位置及び姿勢を特定する特定部と、
前記撮像画像と、前記特定部によって特定された位置及び姿勢を示すパラメータと、を対応付けて取得する取得部と、
を有することを特徴とする収集装置。
An imaging unit that captures images and
Based on the markers in the captured image, which is the image captured by the imaging unit, the specific unit that specifies the position and orientation of the imaging unit, and the specific unit.
An acquisition unit that acquires the captured image in association with a parameter indicating a position and a posture specified by the specific unit.
A collecting device characterized by having.
前記パラメータを基に、前記撮像画像から、前記マーカに対してあらかじめ定められた位置にある所定の領域の画像を抽出する抽出部をさらに有することを特徴とする請求項1に記載の収集装置。 The collecting device according to claim 1, further comprising an extraction unit that extracts an image of a predetermined region at a predetermined position with respect to the marker from the captured image based on the parameters. 前記抽出部は、前記マーカに対してあらかじめ定められた位置に仮想的に配置された立体が中心になるような正投影図を抽出することを特徴とする請求項2に記載の収集装置。 The collecting device according to claim 2, wherein the extraction unit extracts an orthographic projection in which a solid virtually arranged at a predetermined position with respect to the marker is the center. コンピュータによって実行される収集方法であって、
カメラによって撮像された画像である撮像画像内のマーカを基に、前記撮像画像を撮像した時の前記カメラの位置及び姿勢を特定する特定工程と、
前記撮像画像と、前記特定工程によって特定された位置及び姿勢を示すパラメータと、を対応付けて取得する取得工程と、
を含むことを特徴とする収集方法。
A collection method performed by a computer
A specific step of specifying the position and orientation of the camera when the captured image is captured based on a marker in the captured image, which is an image captured by the camera, and
An acquisition step of associating the captured image with a parameter indicating a position and a posture specified by the specific step and acquiring the image.
A collection method characterized by including.
コンピュータを、
カメラによって撮像された画像である撮像画像内のマーカを基に、前記撮像画像を撮像した時の前記カメラの位置及び姿勢を特定する特定手段と、
前記撮像画像と、前記特定手段によって特定された位置及び姿勢を示すパラメータと、を対応付けて取得する取得手段と、
として機能させることを特徴とする収集プログラム。
Computer,
A specific means for identifying the position and orientation of the camera when the captured image is captured, based on a marker in the captured image, which is an image captured by the camera, and
An acquisition means for acquiring the captured image in association with a parameter indicating a position and a posture specified by the specific means.
A collection program characterized by functioning as.
JP2018188870A 2018-10-04 2018-10-04 Collection device, collection method and collection program Active JP6814775B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018188870A JP6814775B2 (en) 2018-10-04 2018-10-04 Collection device, collection method and collection program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018188870A JP6814775B2 (en) 2018-10-04 2018-10-04 Collection device, collection method and collection program

Publications (2)

Publication Number Publication Date
JP2020057299A JP2020057299A (en) 2020-04-09
JP6814775B2 true JP6814775B2 (en) 2021-01-20

Family

ID=70107381

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018188870A Active JP6814775B2 (en) 2018-10-04 2018-10-04 Collection device, collection method and collection program

Country Status (1)

Country Link
JP (1) JP6814775B2 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4896823B2 (en) * 2007-06-01 2012-03-14 独立行政法人日本原子力研究開発機構 Field work support system
JP6822482B2 (en) * 2016-10-31 2021-01-27 日本電気株式会社 Line-of-sight estimation device, line-of-sight estimation method, and program recording medium
JP7071054B2 (en) * 2017-01-20 2022-05-18 キヤノン株式会社 Information processing equipment, information processing methods and programs

Also Published As

Publication number Publication date
JP2020057299A (en) 2020-04-09

Similar Documents

Publication Publication Date Title
JP6803899B2 (en) Image processing methods, image processing equipment and electronic devices
EP1984892B1 (en) Foreground/background segmentation in digital images
JP4508257B2 (en) Composition determination apparatus, composition determination method, and program
JP4556813B2 (en) Image processing apparatus and program
JP6320075B2 (en) Image processing apparatus and control method thereof
CN109416744A (en) Improved camera calibration system, target and process
CN109479082B (en) Image processing method and apparatus
JP6942940B2 (en) Image processing equipment, image processing methods and programs
EP3627822B1 (en) Focus region display method and apparatus, and terminal device
JP2017168882A5 (en)
CN111815781A (en) Augmented reality data presentation method, apparatus, device and computer storage medium
JP2016212784A (en) Image processing apparatus and image processing method
JP2016019249A (en) Display control device
JP5857712B2 (en) Stereo image generation apparatus, stereo image generation method, and computer program for stereo image generation
JP2019201397A (en) Imaging apparatus and program
JP6814775B2 (en) Collection device, collection method and collection program
JP6409769B2 (en) 3D shape measuring apparatus, 3D shape measuring method, and 3D shape measuring program
JP6677980B2 (en) Panorama video data processing device, processing method and processing program
JP2023034160A5 (en)
JP5336798B2 (en) Image processing apparatus, image processing method, and program
JP4461001B2 (en) Information terminal
US10379318B2 (en) Image-capturing device, proposal-image generating device, proposal-image generating method, proposal-image generating program, and storage medium
JP2010074312A (en) Image processing apparatus and method, and program
JP2017010555A (en) Image processing method and image processing apparatus
KR20230135521A (en) Improved masking of objects in an image stream

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200131

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201215

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201221

R150 Certificate of patent or registration of utility model

Ref document number: 6814775

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250