JP2019212203A - Three-dimensional (3d) model generation system - Google Patents
Three-dimensional (3d) model generation system Download PDFInfo
- Publication number
- JP2019212203A JP2019212203A JP2018110163A JP2018110163A JP2019212203A JP 2019212203 A JP2019212203 A JP 2019212203A JP 2018110163 A JP2018110163 A JP 2018110163A JP 2018110163 A JP2018110163 A JP 2018110163A JP 2019212203 A JP2019212203 A JP 2019212203A
- Authority
- JP
- Japan
- Prior art keywords
- moving body
- model
- creation system
- monocular camera
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 239000003550 marker Substances 0.000 claims description 12
- 238000000034 method Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 9
- 238000012937 correction Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、移動体に搭載された単眼カメラによって撮影された画像から3Dモデルを作成する3Dモデル作成システムに関する。 The present invention relates to a 3D model creation system that creates a 3D model from an image photographed by a monocular camera mounted on a moving body.
移動体に搭載された単眼カメラからの画像を元に周囲空間や自己位置を推定する手法はMonocular SFM(Structure from Motion)やMonocular VO(Visual Odometry)と呼ばれ、各所で研究が進められている。単眼カメラを用いた手法は、ステレオカメラを用いた手法に比べてカメラの台数が半分で済むので装置を小型化できるという長所がある。しかし一方で、単眼カメラを用いた手法は、ステレオカメラを用いた手法に比してカメラからの情報量も少なくなるため、作成する3Dモデルの精度や効率が低下するという短所がある。 Methods for estimating the surrounding space and self-position based on images from a monocular camera mounted on a moving body are called Monochromatic SFM (Structure from Motion) and Monocular VO (Visual Odometry), and research is ongoing in various places. . The technique using a monocular camera has the advantage that the apparatus can be miniaturized because the number of cameras is half that of the technique using a stereo camera. On the other hand, however, the method using a monocular camera has a disadvantage in that the accuracy and efficiency of the 3D model to be created is reduced because the amount of information from the camera is smaller than the method using a stereo camera.
上述した単眼カメラを用いた手法の短所を補う方法としては、例えば特許文献1では、回転するカメラを備えた外界認識装置が開示されている。特許文献1の外界認識装置では、例えば重機に単眼カメラを設置し、重機がある特定の回転中心と回転半径において単眼カメラを回転させることにより、単眼カメラによって撮像した画像から外界を認識している。 As a method for compensating for the disadvantages of the above-described method using a monocular camera, for example, Patent Document 1 discloses an external environment recognition apparatus including a rotating camera. In the external environment recognition apparatus of Patent Document 1, for example, a monocular camera is installed in a heavy machine, and the external environment is recognized from an image captured by the monocular camera by rotating the monocular camera at a certain rotation center and rotation radius. .
特許文献1によれば、単眼カメラのみで周囲の立体情報、3Dサーフェスを精度良く推定可能となるとしている。しかしながら、特許文献1の構成であると、予め定められた重機の軌道上においてでしか単眼カメラを移動させることができず、単眼カメラの動きが拘束されてしまう。すると、広大なエリア内を自由に移動して探索しようとする場合には特許文献1の技術を適用することができない。故に、特許文献1の技術には更なる改善の余地がある。 According to Patent Document 1, it is possible to accurately estimate the surrounding three-dimensional information and the 3D surface using only a monocular camera. However, with the configuration of Patent Document 1, the monocular camera can be moved only on the path of a predetermined heavy machine, and the movement of the monocular camera is restricted. Then, the technique of Patent Document 1 cannot be applied when attempting to search by moving freely in a vast area. Therefore, there is room for further improvement in the technique of Patent Document 1.
本発明は、このような課題に鑑み、単眼カメラからの画像を用いて3Dモデルを作成する場合において、撮影対象の領域内を自由に移動することができ、高い精度の3Dモデルを作成することが可能な3Dモデル作成システムを提供することを目的としている。 In view of such a problem, the present invention is capable of freely moving in a region to be imaged when creating a 3D model using an image from a monocular camera, and creating a highly accurate 3D model. It is an object of the present invention to provide a 3D model creation system capable of performing
上記課題を解決するために、本発明にかかる3Dモデル作成システムの代表的な構成は、第1の移動体と、第2の移動体と、第1の移動体および第2の移動体それぞれに搭載される2つの単眼カメラと、3Dモデルを作成する演算装置と、を含み演算装置は、第1の移動体の単眼カメラによって撮影された画像から3Dモデルを作成し、第2の移動体の単眼カメラによって撮影された画像と3Dモデルを照合して3Dモデルを修正することを特徴とする。 In order to solve the above problems, a typical configuration of a 3D model creation system according to the present invention includes a first moving body, a second moving body, a first moving body, and a second moving body, respectively. The computing device including two mounted monocular cameras and a computing device that creates a 3D model creates a 3D model from an image captured by the monocular camera of the first moving body, and The 3D model is corrected by collating the image photographed by the monocular camera with the 3D model.
上記構成によれば、第1の移動体および第2の移動体を操作することにより、それらの移動体ひいてはそれらに搭載される単眼カメラを、撮影対象内の領域において自由に移動させることができる。したがって、撮影対象内の領域を詳細に撮影することができる。そして、第1の移動体に搭載された単眼カメラによって撮影された画像から3Dモデルを作成し、かかる3Dモデルを第2の移動体の単眼カメラによって撮影された画像によって修正することにより、3Dモデルの精度を高めることが可能となる。 According to the above configuration, by operating the first moving body and the second moving body, it is possible to freely move the moving bodies, and thus the monocular cameras mounted on them, in the region within the imaging target. . Therefore, it is possible to photograph the area within the photographing target in detail. Then, a 3D model is created from an image photographed by a monocular camera mounted on the first moving body, and the 3D model is corrected by an image photographed by the monocular camera of the second moving body. It is possible to improve the accuracy of the.
上記第1の移動体は走行体であり、第2の移動体は飛行体であるとよい。かかる構成によれば、撮影対象の領域をより多角的に撮影することが可能となる。 The first moving body may be a traveling body, and the second moving body may be a flying body. According to such a configuration, it becomes possible to shoot a region to be imaged more diversified.
当該3Dモデル作成システムは、走行体の上面に設けられた光源、および飛行体の下面に設けられた受光部をさらに含み、演算装置は、光源からの光が受光部において受光されるよう飛行体の位置を制御するとよい。これにより、第2の移動体である飛行体の水平方向の位置を好適に制御することが可能となる。 The 3D model creation system further includes a light source provided on the upper surface of the traveling body and a light receiving unit provided on the lower surface of the flying object, and the arithmetic unit is configured to receive the light from the light source at the light receiving unit. It is good to control the position of. Thereby, the horizontal position of the flying object which is the second moving object can be suitably controlled.
上記第1の移動体および第2の移動体はともに走行体であり、第1の移動体および第2の移動体は、前後にずれた状態で走行するとよい。かかる構成のように第1の移動体および第2の移動体がともに走行体である場合においても、上記と同様の効果が得られる。また2つの移動体の両方を走行体とすることにより、一方を飛行体とした場合に比してコストを削減することが可能となる。 The first moving body and the second moving body are both traveling bodies, and the first moving body and the second moving body may travel in a state of being shifted back and forth. Even when the first moving body and the second moving body are both traveling bodies as in this configuration, the same effect as described above can be obtained. Further, by using both of the two moving bodies as traveling bodies, it becomes possible to reduce the cost compared to the case where one of them is a flying body.
上記第1の移動体および第2の移動体のうち、前方を走行する走行体にはマーカが付されていて、第1の移動体および第2の移動体のうち、後方を走行する走行体は、前方を走行する走行体のマーカを撮影しながら走行するとよい。かかる構成によれば、後方を走行する走行体が撮影した画像上のマーカを参照することにより、第1の移動体および第2の移動体の相対位置および相対距離を算出することができる。 Of the first moving body and the second moving body, a traveling body that travels forward is provided with a marker, and the traveling body that travels rearward among the first moving body and the second moving body. May travel while photographing the marker of the traveling body traveling forward. According to this configuration, the relative position and the relative distance between the first moving body and the second moving body can be calculated by referring to the marker on the image captured by the traveling body traveling behind.
上記課題を解決するために、本発明にかかる3Dモデル作成システムの他の構成は、施設内を移動する第1の移動体と、第1の移動体に搭載された単眼カメラと、3Dモデルを作成する演算装置と、を含み、演算装置は、施設内の機器配置の参照用3Dモデルを取得し、第1の移動体の単眼カメラによって撮影された画像から3Dモデルを作成し、参照用3Dモデルと前記作成した3Dモデルとを照合して作成した3Dモデルを修正することを特徴とする。 In order to solve the above-described problem, another configuration of the 3D model creation system according to the present invention includes a first moving body that moves in a facility, a monocular camera mounted on the first moving body, and a 3D model. A computing device that creates a reference 3D model of equipment arrangement in the facility, creates a 3D model from an image captured by a monocular camera of the first moving body, and creates a reference 3D The 3D model created by collating the model with the created 3D model is modified.
上記構成によっても、第1の移動体を操作することにより、第1の移動体ひいてはそれに搭載される単眼カメラを、撮影対象内の領域において自由に移動させることができる。そして、第1の移動体に搭載された単眼カメラによって撮影された画像から3Dモデルを作成し、かかる画像から作成された3Dモデルを、機器配置図等の設備情報を基に別途作成された参照用3Dモデルによって修正することにより、画像から作成された3Dモデルの精度を高めることが可能となる。特に、単眼カメラによって撮影された画像から作成された3Dモデルと、参照用3Dモデルとを照合することにより、機器配置図等の設備情報に存在しない未知物体が存在する場合に、その未知物体の3Dモデルの精緻化も可能となる。 Also with the above configuration, by operating the first moving body, the first moving body, and thus the monocular camera mounted on the first moving body, can be freely moved in the region within the imaging target. Then, a 3D model is created from an image photographed by a monocular camera mounted on the first moving body, and the 3D model created from the image is separately created based on equipment information such as a device layout drawing. It is possible to improve the accuracy of the 3D model created from the image by correcting with the 3D model for use. In particular, when an unknown object that does not exist in equipment information such as a device layout diagram exists by comparing a 3D model created from an image captured by a monocular camera with a reference 3D model, the unknown object Refinement of the 3D model is also possible.
上記演算装置は、第1の移動体の単眼カメラによって撮影された画像から第1の移動体の位置を算出し、撮影された画像と修正された3Dモデルとを照合して位置を補正することを特徴とする。かかる構成によれば、第1の移動体の位置を正確に把握することが可能となる。 The arithmetic device calculates a position of the first moving body from an image photographed by the monocular camera of the first moving body, and corrects the position by comparing the photographed image with the corrected 3D model. It is characterized by. According to such a configuration, the position of the first moving body can be accurately grasped.
本発明によれば、単眼カメラからの画像を用いて3Dモデルを作成する場合において、撮影対象の領域内を自由に移動することができ、高い精度の3Dモデルを作成することが可能な3Dモデル作成システムを提供することができる。 According to the present invention, when a 3D model is created using an image from a monocular camera, the 3D model can be freely moved in the region to be imaged and can create a highly accurate 3D model. A creation system can be provided.
以下に添付図面を参照しながら、本発明の好適な実施形態について詳細に説明する。かかる実施形態に示す寸法、材料、その他具体的な数値などは、発明の理解を容易とするための例示に過ぎず、特に断る場合を除き、本発明を限定するものではない。なお、本明細書及び図面において、実質的に同一の機能、構成を有する要素については、同一の符号を付することにより重複説明を省略し、また本発明に直接関係のない要素は図示を省略する。 Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. The dimensions, materials, and other specific numerical values shown in the embodiments are merely examples for facilitating understanding of the invention, and do not limit the present invention unless otherwise specified. In the present specification and drawings, elements having substantially the same function and configuration are denoted by the same reference numerals, and redundant description is omitted, and elements not directly related to the present invention are not illustrated. To do.
(第1実施形態)
図1は、第1実施形態にかかる3Dモデル作成システム(以下、単に作成システム100と称する)を説明する図である。図1に示すように、本実施形態にかかる作成システム100は、第1の移動体110、第2の移動体120、2つの単眼カメラである第1単眼カメラ130a・第2単眼カメラ130bおよび演算装置140を含んで構成される。第1単眼カメラ130a・第2単眼カメラ130bは、第1の移動体110および第2の移動体120それぞれに搭載される。演算装置140は、3Dモデルを作成する。
(First embodiment)
FIG. 1 is a diagram illustrating a 3D model creation system (hereinafter simply referred to as a creation system 100) according to the first embodiment. As shown in FIG. 1, a creation system 100 according to the present embodiment includes a first moving body 110, a second moving body 120, two monocular cameras, a first monocular camera 130a and a second monocular camera 130b, and an arithmetic operation. The apparatus 140 is comprised. The first monocular camera 130a and the second monocular camera 130b are mounted on the first moving body 110 and the second moving body 120, respectively. The arithmetic device 140 creates a 3D model.
図2は、画像撮影時の第1の移動体110および第2の移動体120の状態を説明する図である。第1実施形態において、第1の移動体110は走行体であり、第2の移動体120は飛行体である。第2の移動体120は、第1の移動体110から電源線122によって電力を供給される。このように、2つの移動体(第1の移動体110および第2の移動体120)として走行体および飛行体を用いることにより、図2に示すように、第1の移動体110によって撮影対象の領域を低い位置から撮影し、第2の移動体120によって測定対象の領域を高い位置から撮影することができる。したがって、撮影対象の領域をより多角的に撮影することが可能となる。 FIG. 2 is a diagram illustrating the state of the first moving body 110 and the second moving body 120 during image shooting. In the first embodiment, the first moving body 110 is a traveling body, and the second moving body 120 is a flying body. The second moving body 120 is supplied with power from the first moving body 110 through the power line 122. Thus, by using the traveling body and the flying body as the two moving bodies (the first moving body 110 and the second moving body 120), as shown in FIG. Can be photographed from a low position, and the second moving body 120 can photograph the region to be measured from a high position. Therefore, it becomes possible to shoot the area to be imaged more diversified.
図2に示すように、第1実施形態の作成システム100では、第1の移動体110である走行体の上面には光源152が設けられていて、第2の移動体120である飛行体の下面には受光部154が設けられている。演算装置140(図1参照)は、光源152からの光が受光部154において受光されるよう飛行体(第2の移動体120)の位置を制御する。 As shown in FIG. 2, in the creation system 100 of the first embodiment, the light source 152 is provided on the upper surface of the traveling body that is the first moving body 110, and the flying body that is the second moving body 120. A light receiving portion 154 is provided on the lower surface. The arithmetic device 140 (see FIG. 1) controls the position of the flying object (second moving body 120) so that the light from the light source 152 is received by the light receiving unit 154.
上記構成によれば、光源152からの光が受光部154において受光されている状態では、第2の移動体120は第1の移動体110の上方に正確に位置することとなる。したがって、第2の移動体120である飛行体の水平方向の位置を好適に制御することができ、第1の移動体110と第2の移動体120との位置関係を適切に把握することが可能となる。なお、両者の垂直方向の位置関係(高度差)は、両者を結ぶ電源線の長さまたは第2の移動体120に搭載した気圧計などのセンサによって把握することが可能である。 According to the above configuration, in a state where the light from the light source 152 is received by the light receiving unit 154, the second moving body 120 is accurately positioned above the first moving body 110. Therefore, the horizontal position of the flying body which is the second moving body 120 can be controlled favorably, and the positional relationship between the first moving body 110 and the second moving body 120 can be properly grasped. It becomes possible. Note that the positional relationship (altitude difference) between the two in the vertical direction can be grasped by the length of the power line connecting them or a sensor such as a barometer mounted on the second moving body 120.
図3は、第1実施形態における演算装置140の処理について説明する図である。本実施形態では、演算装置140は、第1の移動体110の第1単眼カメラ130aによって撮影された画像(図3(a)に示す2D画像)を用いて、図3(b)に示す3Dモデルを作成する。図3(b)に示すように3Dモデルを作成したら、演算装置140は、図3(c)に示すように、第2単眼カメラ130bの視点に近似するよう3Dモデルの角度を修正する。 FIG. 3 is a diagram for explaining processing of the arithmetic device 140 according to the first embodiment. In the present embodiment, the arithmetic device 140 uses the image (2D image shown in FIG. 3A) captured by the first monocular camera 130a of the first moving body 110 to perform 3D shown in FIG. Create a model. When the 3D model is created as shown in FIG. 3B, the arithmetic device 140 corrects the angle of the 3D model so as to approximate the viewpoint of the second monocular camera 130b as shown in FIG. 3C.
図3(d)は、第2の移動体120の第2単眼カメラ130bによって撮影された画像(2D画像)である。上述したように3Dモデルの角度を修正したら、演算装置140は、図3(d)に示す第2単眼カメラ130bによって撮影された画像と、図3(c)に示す角度が修正された3Dモデルとを照合する。演算装置140の内部で行われる照合のイメージは図3(e)に示すとおりである。 FIG. 3D is an image (2D image) captured by the second monocular camera 130 b of the second moving body 120. When the angle of the 3D model is corrected as described above, the arithmetic device 140 causes the image captured by the second monocular camera 130b illustrated in FIG. 3D and the 3D model in which the angle illustrated in FIG. And match. An image of collation performed inside the arithmetic device 140 is as shown in FIG.
そして、演算装置140は、図3(c)の画像の特徴点P1(黒丸で図示)が図3(d)の画像の特徴点P2(白丸で図示)に近接するように図3(c)の3Dモデルを修正する。これにより、図3(f)に示すように、修正された3Dモデルが作成される。 Then, the arithmetic unit 140 determines that the feature point P1 (illustrated by a black circle) of the image in FIG. 3C is close to the feature point P2 (illustrated by a white circle) of the image in FIG. Modify the 3D model. As a result, a corrected 3D model is created as shown in FIG.
上記説明したように、第1実施形態の作成システム100によれば、第1の移動体110および第2の移動体120を操作することにより、それらの移動体ひいてはそれらに搭載される単眼カメラ(第1単眼カメラ130aおよび第2単眼カメラ130b)を、撮影対象内の領域において自由に移動させることができる。したがって、撮影対象内の領域を詳細に撮影することができ、3Dモデルを作成するための必要となる画像を十分得ることが可能となる。 As described above, according to the creation system 100 of the first embodiment, by operating the first moving body 110 and the second moving body 120, those moving bodies and thus the monocular cameras mounted on them ( The first monocular camera 130a and the second monocular camera 130b) can be freely moved in the area within the subject to be imaged. Therefore, it is possible to photograph the area within the photographing object in detail, and to obtain a sufficient image necessary for creating the 3D model.
そして、演算装置140において、第1単眼カメラ130aによって撮影された画像を基に3Dモデルを作成し、かかる3Dモデルを第2単眼カメラ130bによって撮影された画像によって修正する。これにより、第1単眼カメラ130aによって撮影された画像のみによって3Dモデルを作成する場合に比して、高い精度の3Dモデルを得ることが可能となる。 Then, the arithmetic device 140 creates a 3D model based on the image photographed by the first monocular camera 130a, and corrects the 3D model with the image photographed by the second monocular camera 130b. As a result, it is possible to obtain a highly accurate 3D model as compared to a case where a 3D model is created only by an image captured by the first monocular camera 130a.
また、通常は第1の移動体110上に第2の移動体120を搭載することで撮影対象内の領域を移動し、第1単眼カメラ130aにより撮影された画像から3Dモデルを作成するだけで修正は行わず、または、第2の移動体120が第1の移動体110上に搭載された位置から第2単眼カメラ130bで撮影された画像で3Dモデルを修正することができる。これにより、高さ制限があるような狭隘な場所でも自由に移動できる。そして、3Dモデルの精度を向上させたい場合には適宜第2の移動体120を上昇させて、第2単眼カメラ130bで撮影された画像で3Dモデルを修正すればよい。したがって、撮影対象内の領域を制限なく自由に移動できるため様々な箇所を漏れなく3Dモデル化でき、かつ、必要に応じて3Dモデルを精緻に修正することができる。 Also, usually, by mounting the second moving body 120 on the first moving body 110, the region within the object to be imaged is moved, and only a 3D model is created from the image captured by the first monocular camera 130a. The 3D model can be corrected with an image taken by the second monocular camera 130b from the position where the second moving body 120 is mounted on the first moving body 110 without correction. Thereby, it can move freely even in a narrow place where there is a height restriction. In order to improve the accuracy of the 3D model, the second moving body 120 may be raised as appropriate, and the 3D model may be corrected with an image captured by the second monocular camera 130b. Therefore, since the area within the object to be photographed can be freely moved without limitation, various portions can be modeled without omission, and the 3D model can be precisely modified as necessary.
更に、必要に応じて、第2の移動体120を上昇させて第1の移動体110を撮影することにより、第1の移動体110の周囲の障害物の状況を確認することができる。これにより、障害物が多い場所の調査において、第1の移動体110の130aでは死角になってしまう側方や後方にある障害物の状況を確認することが可能になり、運用の安全性が向上する。 Furthermore, if necessary, the state of obstacles around the first moving body 110 can be confirmed by raising the second moving body 120 and photographing the first moving body 110. As a result, it becomes possible to check the situation of obstacles on the side and rear where the first moving body 110 becomes a blind spot in the investigation of the place where there are many obstacles, and the operational safety is improved. improves.
(第2実施形態)
図4は、第2実施形態にかかる3Dモデル作成システム(以下、作成システム200と称する)を説明する図である。なお、以降の実施形態において、先に説明した実施形態と共通する構成要素については、同一の符号を付すことにより説明を省略する。
(Second Embodiment)
FIG. 4 is a diagram illustrating a 3D model creation system (hereinafter referred to as creation system 200) according to the second embodiment. In the following embodiments, components that are the same as those in the above-described embodiments are denoted by the same reference numerals, and description thereof is omitted.
図4(a)に示すように、第2実施形態の作成システム200は、第2の移動体120が飛行体ではなく走行体である点において第1実施形態の作成システム100と異なる。すなわち第2実施形態の作成システム200では、第1の移動体110および第2の移動体120ともに走行体である。 As shown in FIG. 4A, the creation system 200 of the second embodiment differs from the creation system 100 of the first embodiment in that the second moving body 120 is not a flying body but a traveling body. That is, in the creation system 200 of the second embodiment, both the first moving body 110 and the second moving body 120 are traveling bodies.
上記構成のように、第1の移動体110および第2の移動体120がともに走行体である場合においても、第1実施形態の作成システム100と同様に、第1の移動体110および第2の移動体120ひいてはそれらに搭載される単眼カメラ(第1単眼カメラ130aおよび第2単眼カメラ130b)を、撮影対象内の領域において自由に移動させることができる。また2つの移動体の両方を走行体とすることにより、一方を飛行体とした場合に比してコストを削減することが可能となる。 Even when both the first moving body 110 and the second moving body 120 are traveling bodies as in the above-described configuration, the first moving body 110 and the second moving body 110 are the same as in the creation system 100 of the first embodiment. The moving bodies 120 and the monocular cameras (the first monocular camera 130a and the second monocular camera 130b) mounted thereon can be freely moved in the area within the photographing target. Further, by using both of the two moving bodies as traveling bodies, it becomes possible to reduce the cost compared to the case where one of them is a flying body.
第2実施形態の作成システム200では、図4(a)に示すように、第1の移動体110および前記第2の移動体120は、前後にずれた状態で走行する。これにより、撮影対象の領域を異なる2つの角度から効率的に撮影することができる。以下、第1の移動体110および前記第2の移動体120のうち、第1の移動体110が前方を走行する走行体であり、第2の移動体120が後方を走行する走行体であることを想定して説明する。 In the creation system 200 of the second embodiment, as shown in FIG. 4A, the first moving body 110 and the second moving body 120 travel in a state where they are shifted back and forth. As a result, it is possible to efficiently shoot the region to be imaged from two different angles. Hereinafter, of the first moving body 110 and the second moving body 120, the first moving body 110 is a traveling body that travels forward, and the second moving body 120 is a traveling body that travels backward. This will be explained assuming that.
特に第2実施形態の作成システム200では、図4(b)に示すように、第1の移動体110および第2の移動体120のうち、前方を走行する走行体である第1の移動体110にはマーカ202が付されている。そして、第1の移動体110および第2の移動体120のうち、後方を走行する走行体である第2の移動体120は、前方を走行する第1の移動体のマーカ202を撮影しながら走行する。 In particular, in the creation system 200 of the second embodiment, as shown in FIG. 4B, the first moving body that is a traveling body that travels ahead of the first moving body 110 and the second moving body 120. A marker 202 is attached to 110. And among the 1st moving body 110 and the 2nd moving body 120, the 2nd moving body 120 which is a traveling body which travels back is photographing the marker 202 of the 1st moving body which travels ahead. Run.
具体的には、図4(b)に示すように、前方を移動する走行体である第1の移動体110には、1辺の長さがxである正方形のマーカ202が付されている。図4(c)は、後方を走行する走行体が撮影した画像を例示する図である。図4(c)に例示する画像では、第1の移動体110に付されたマーカ202の2つの側辺の長さがaおよびbであり、上辺の長さがcとなっている。 Specifically, as shown in FIG. 4B, the first moving body 110 that is a traveling body that moves forward is provided with a square marker 202 having a side length of x. . FIG. 4C is a diagram illustrating an image captured by a traveling body traveling behind. In the image illustrated in FIG. 4C, the lengths of the two sides of the marker 202 attached to the first moving body 110 are a and b, and the length of the upper side is c.
したがって、上記構成によれば、実際のマーカ202の長さと、後方を走行する走行体(第2の移動体120)が撮影した画像上のマーカ202の各辺の長さの比を演算装置140(図1参照)において参照すれば、第1の移動体110および第2の移動体120の相対位置および相対距離を算出することが可能となる。なお、演算装置140における3Dモデルの作成については、第1実施形態と同様であるため説明を省略する。 Therefore, according to the above configuration, the arithmetic device 140 calculates the ratio between the actual length of the marker 202 and the length of each side of the marker 202 on the image taken by the traveling body (second moving body 120) traveling behind. Referring to (see FIG. 1), it is possible to calculate the relative position and the relative distance of the first moving body 110 and the second moving body 120. Note that the creation of the 3D model in the arithmetic device 140 is the same as that in the first embodiment, and a description thereof will be omitted.
なお、第2実施形態では、第1の移動体110の第1単眼カメラ130aおよび第2の移動体120の第2単眼カメラ130bの両方を使用して撮影を行う運用方法について説明したが、これに限定するものではない。例えば、いずれか一方の移動体の単眼カメラで充分な撮影を行うことが可能であれば、他方の移動体の単眼カメラによって一方の移動体を離れた位置から撮影してもよい。これにより、一方の移動体の周囲の障害物の状況を確認することができる。したがって、障害物が多い場所の調査において、一方の移動体の単眼カメラでは死角になってしまう側方や後方にある障害物の状況を確認することが可能になり、運用の安全性が向上する。 In the second embodiment, the operation method in which shooting is performed using both the first monocular camera 130a of the first moving body 110 and the second monocular camera 130b of the second moving body 120 has been described. It is not limited to. For example, as long as sufficient shooting can be performed with a single-lens camera of either one of the moving bodies, the one moving body may be shot from a position separated by the single-lens camera of the other moving body. Thereby, the condition of the obstacle around one moving body can be confirmed. Therefore, when investigating a place with many obstacles, it is possible to check the situation of obstacles on the side or behind where a single-lens camera of one moving body becomes a blind spot, improving operational safety. .
(第3実施形態)
第3実施形態の3Dモデル作成システム(以下、単に作成システムと称する)は、2つの移動体ではなく、第1の移動体110のみを備える。第1の移動体110は、第1実施形態の作成システム100で例示した走行体または飛行体のどちらでもよい。そして、本実施形態では、機器配置図面が入手できる等、機器配置に係る設備情報が事前に判明している施設を測定対象とすることを特徴とする。
(Third embodiment)
The 3D model creation system (hereinafter simply referred to as a creation system) of the third embodiment includes only the first moving body 110, not two moving bodies. The first moving body 110 may be either the traveling body or the flying body exemplified in the creation system 100 of the first embodiment. In the present embodiment, a facility in which facility information related to device arrangement is known in advance, such as a device arrangement drawing being available, is measured.
図5は、第3実施形態における演算装置140の処理について説明する図である。第3実施形態の作成システムでは、演算装置140は、まず図5(a)に示す測定対象の施設内の機器配置図等の設備情報を参照し、図5(b)に示す機器配置の3Dモデル(参照用3Dモデル)を取得する。図5(a)に示す例では、施設内には、制御盤1および2からなる2つの制御盤が設置されている。制御盤1および2の幅はともにdであり、制御盤1および2の間隔はeである。 FIG. 5 is a diagram for explaining processing of the arithmetic device 140 according to the third embodiment. In the creation system of the third embodiment, the arithmetic device 140 first refers to equipment information such as equipment layout in the measurement target facility shown in FIG. 5A, and performs 3D of equipment placement shown in FIG. 5B. A model (reference 3D model) is acquired. In the example shown in FIG. 5A, two control panels including control panels 1 and 2 are installed in the facility. The widths of the control panels 1 and 2 are both d, and the distance between the control panels 1 and 2 is e.
次に、演算装置140は、図3(a)に示す第1の移動体110の第1単眼カメラ130aによって撮影された画像(2D画像)を用いて、図5(c)に示す3Dモデルを作成する。第1単眼カメラ130aの画像を基に3Dモデルを作成したら、演算装置140は、図5(b)に示す機器配置の参照用3Dモデルと、図5(c)に示す第1単眼カメラ130aの画像から作成された3Dモデルとを照合する。演算装置140の内部で行われる照合のイメージは図5(d)に示すとおりである。 Next, the arithmetic device 140 uses the image (2D image) photographed by the first monocular camera 130a of the first moving body 110 shown in FIG. 3A to generate the 3D model shown in FIG. create. When the 3D model is created based on the image of the first monocular camera 130a, the arithmetic device 140 includes the reference 3D model of the device arrangement shown in FIG. 5B and the first monocular camera 130a shown in FIG. The 3D model created from the image is collated. An image of collation performed inside the arithmetic device 140 is as shown in FIG.
そして、演算装置140は、図5(c)の画像の特徴点P4(黒丸で図示)が図5(b)の画像の特徴点P3(白丸で図示)に近接するように図5(c)の3Dモデルを修正する。これにより、図5(e)に示すように、修正された3Dモデルが作成される。
このように、第3実施形態の作成システムによれば、事前に判明している機器配置の参照用3Dを利用することにより、第1の移動体110の第1単眼カメラ130aによって撮影された画像を用いて作成した3Dモデルの精度を飛躍的に高めることが可能となる。
Then, the arithmetic device 140 determines that the feature point P4 (illustrated by a black circle) in the image of FIG. 5C is close to the feature point P3 (illustrated by a white circle) of the image in FIG. 5B. Modify the 3D model. As a result, a corrected 3D model is created as shown in FIG.
As described above, according to the creation system of the third embodiment, the image taken by the first monocular camera 130a of the first moving body 110 by using the reference 3D for the device arrangement that has been known in advance. It is possible to dramatically improve the accuracy of the 3D model created using the.
また第3実施形態のように機器配置の参照用3Dモデルを利用する手法によれば、機器配置図等に存在しない未知物体が現場に存在する場合に、その未知物体の3Dモデルの精緻化も可能となる。例えば、図5(c)〜(e)では、2つの制御盤1および2の間に、機器配置図には存在しない未知物体Xが存在していることがわかる。ここで、図5(c)に示されるように、第1単眼カメラ130aの画像から未知物体Xについても3Dモデルが作成される。そして、図5(e)に示すように機器配置図に存在する制御盤1および2の3Dモデルを修正するに合わせて未知物体Xの3Dモデルも修正される。加えて、2つの制御盤1および2の間隔eが機器配置図等から明らかであるため、間隔eと未知物体の幅xとの比を算出することにより、未知物体xの幅を把握することが可能となる。 In addition, according to the method using the reference 3D model of the device arrangement as in the third embodiment, when an unknown object that does not exist in the device arrangement drawing or the like exists in the field, the 3D model of the unknown object is also refined. It becomes possible. For example, in FIGS. 5C to 5E, it can be seen that an unknown object X that does not exist in the device layout diagram exists between the two control panels 1 and 2. Here, as shown in FIG. 5C, a 3D model is also created for the unknown object X from the image of the first monocular camera 130a. Then, as shown in FIG. 5E, the 3D model of the unknown object X is also corrected in accordance with the correction of the 3D model of the control panels 1 and 2 existing in the equipment layout diagram. In addition, since the distance e between the two control panels 1 and 2 is clear from the equipment layout drawing, etc., the width of the unknown object x can be grasped by calculating the ratio between the distance e and the width x of the unknown object. Is possible.
(第4実施形態)
第4実施形態の3Dモデル作成システムは、上記実施形態に加えて、演算装置140が、第1の移動体110の単眼カメラ130aによって撮影された画像から第1の移動体110の位置を算出し、さらに撮影された画像と上述のように修正された3Dモデルとを照合して第1の移動体110の位置を補正することを特徴とする。
(Fourth embodiment)
In the 3D model creation system of the fourth embodiment, in addition to the above-described embodiment, the arithmetic device 140 calculates the position of the first moving body 110 from the image captured by the monocular camera 130a of the first moving body 110. Further, the position of the first moving body 110 is corrected by comparing the photographed image with the 3D model modified as described above.
具体的には、算出された位置から、修正された3Dモデルにおいて見えるはずの画像を生成する(生成画像)。そして、撮影された画像と生成画像を照合すると各特徴点において位置ずれが生じている可能性がある。この位置ずれを小さくするように第1の移動体110の位置を補正することで第1の移動体110の正確な位置を把握することができる。 Specifically, an image that should be visible in the corrected 3D model is generated from the calculated position (generated image). Then, when the captured image and the generated image are collated, there is a possibility that a positional shift has occurred at each feature point. By correcting the position of the first moving body 110 so as to reduce this positional deviation, the accurate position of the first moving body 110 can be grasped.
以上、添付図面を参照しながら本発明の好適な実施形態について説明したが、本発明は係る例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。 As mentioned above, although preferred embodiment of this invention was described referring an accompanying drawing, it cannot be overemphasized that this invention is not limited to the example which concerns. It will be apparent to those skilled in the art that various changes and modifications can be made within the scope of the claims, and these are naturally within the technical scope of the present invention. Understood.
本発明は、移動体に搭載された単眼カメラによって撮影された画像から3Dモデルを作成する3Dモデル作成システムとして利用することができる。 The present invention can be used as a 3D model creation system that creates a 3D model from an image captured by a monocular camera mounted on a moving body.
P1…特徴点、P2…特徴点、100…作成システム、110…第1の移動体、120…第2の移動体、122…電源線、130a…第1単眼カメラ、130b…第2単眼カメラ、140…演算装置、152…光源、154…受光部、200…作成システム、202…マーカ P1 ... feature point, P2 ... feature point, 100 ... creation system, 110 ... first moving body, 120 ... second moving body, 122 ... power line, 130a ... first monocular camera, 130b ... second monocular camera, DESCRIPTION OF SYMBOLS 140 ... Arithmetic unit, 152 ... Light source, 154 ... Light receiving part, 200 ... Creation system, 202 ... Marker
Claims (7)
第2の移動体と、
前記第1の移動体および前記第2の移動体それぞれに搭載される2つの単眼カメラと、
3Dモデルを作成する演算装置と、
を含み
前記演算装置は、
前記第1の移動体の単眼カメラによって撮影された画像から3Dモデルを作成し、
前記第2の移動体の単眼カメラによって撮影された画像と前記3Dモデルを照合して該3Dモデルを修正することを特徴とする3Dモデル作成システム。 A first moving body;
A second moving body;
Two monocular cameras mounted on each of the first moving body and the second moving body;
A computing device for creating a 3D model;
The arithmetic device includes:
Creating a 3D model from an image taken by the monocular camera of the first moving body;
3. A 3D model creation system, wherein the 3D model is corrected by collating an image photographed by a monocular camera of the second moving body with the 3D model.
前記演算装置は、前記光源からの光が前記受光部において受光されるよう前記飛行体の位置を制御することを特徴とする請求項2に記載の3Dモデル作成システム。 The 3D model creation system further includes a light source provided on an upper surface of the traveling body, and a light receiving unit provided on a lower surface of the flying object,
The 3D model creation system according to claim 2, wherein the arithmetic device controls the position of the flying object so that light from the light source is received by the light receiving unit.
前記第1の移動体および前記第2の移動体は、前後にずれた状態で走行することを特徴とする請求項1に記載の3Dモデル作成システム。 The first moving body and the second moving body are both traveling bodies,
2. The 3D model creation system according to claim 1, wherein the first moving body and the second moving body travel in a state of being displaced forward and backward.
前記第1の移動体および前記第2の移動体のうち、後方を走行する走行体は、前記前方を走行する走行体のマーカを撮影しながら走行することを特徴とする請求項4に記載の3Dモデル作成システム。 Of the first moving body and the second moving body, a marker is attached to the traveling body that travels forward,
The traveling body that travels rearward among the first moving body and the second moving body travels while photographing a marker of the traveling body that travels forward. 3D model creation system.
前記第1の移動体に搭載された単眼カメラと、
3Dモデルを作成する演算装置と、
を含み、
前記演算装置は、
前記施設内の機器配置の参照用3Dモデルを取得し、
前記第1の移動体の単眼カメラによって撮影された画像から3Dモデルを作成し、
前記参照用3Dモデルと前記作成した3Dモデルとを照合して該作成した3Dモデルを修正することを特徴とする3Dモデル作成システム。 A first moving body that moves within the facility;
A monocular camera mounted on the first moving body;
A computing device for creating a 3D model;
Including
The arithmetic unit is:
Obtain a reference 3D model of the equipment layout in the facility,
Creating a 3D model from an image taken by the monocular camera of the first moving body;
3. A 3D model creation system, wherein the created 3D model is corrected by comparing the reference 3D model with the created 3D model.
前記第1の移動体の単眼カメラによって撮影された画像から前記第1の移動体の位置を算出し、
前記撮影された画像と前記修正された3Dモデルとを照合して前記位置を補正することを特徴とする請求項1から6のいずれか1項に記載の3Dモデル作成システム。 The arithmetic unit is:
Calculating a position of the first moving body from an image taken by a monocular camera of the first moving body;
The 3D model creation system according to any one of claims 1 to 6, wherein the position is corrected by comparing the photographed image with the modified 3D model.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018110163A JP2019212203A (en) | 2018-06-08 | 2018-06-08 | Three-dimensional (3d) model generation system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018110163A JP2019212203A (en) | 2018-06-08 | 2018-06-08 | Three-dimensional (3d) model generation system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019212203A true JP2019212203A (en) | 2019-12-12 |
Family
ID=68845287
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018110163A Pending JP2019212203A (en) | 2018-06-08 | 2018-06-08 | Three-dimensional (3d) model generation system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019212203A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021166010A1 (en) * | 2020-02-17 | 2021-08-26 | 三菱電機株式会社 | Head posture estimation device and head posture estimation method |
WO2023007641A1 (en) * | 2021-07-29 | 2023-02-02 | 株式会社エビデント | Three-dimensional reconstruction device, three-dimensional reconstruction method, and program |
-
2018
- 2018-06-08 JP JP2018110163A patent/JP2019212203A/en active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021166010A1 (en) * | 2020-02-17 | 2021-08-26 | 三菱電機株式会社 | Head posture estimation device and head posture estimation method |
JPWO2021166010A1 (en) * | 2020-02-17 | 2021-08-26 | ||
JP7254238B2 (en) | 2020-02-17 | 2023-04-07 | 三菱電機株式会社 | HEAD POSTURE ESTIMATION DEVICE AND HEAD POSTURE ESTIMATION METHOD |
WO2023007641A1 (en) * | 2021-07-29 | 2023-02-02 | 株式会社エビデント | Three-dimensional reconstruction device, three-dimensional reconstruction method, and program |
JP7498371B2 (en) | 2021-07-29 | 2024-06-11 | 株式会社エビデント | 3D reconstruction device, 3D reconstruction method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10242576B2 (en) | Obstacle detection device | |
KR101776622B1 (en) | Apparatus for recognizing location mobile robot using edge based refinement and method thereof | |
US20220036574A1 (en) | System and method for obstacle avoidance | |
KR101725060B1 (en) | Apparatus for recognizing location mobile robot using key point based on gradient and method thereof | |
KR101776621B1 (en) | Apparatus for recognizing location mobile robot using edge based refinement and method thereof | |
CN109478335B (en) | Driving assistance method, driving assistance system, and vehicle | |
WO2014199929A1 (en) | Monocular-motion-stereo distance estimation method, and monocular-motion-stereo distance estimation apparatus | |
US20160104289A1 (en) | Real-time range map generation | |
JP7212486B2 (en) | position estimator | |
JP2007263669A (en) | Three-dimensional coordinates acquisition system | |
JP2006252473A (en) | Obstacle detector, calibration device, calibration method and calibration program | |
US20170146343A1 (en) | Outside Recognition Device | |
US20170259830A1 (en) | Moving amount derivation apparatus | |
KR20150144730A (en) | APPARATUS FOR RECOGNIZING LOCATION MOBILE ROBOT USING KEY POINT BASED ON ADoG AND METHOD THEREOF | |
CN105844692A (en) | Binocular stereoscopic vision based 3D reconstruction device, method, system and UAV | |
JP5007863B2 (en) | 3D object position measuring device | |
WO2020137110A1 (en) | Movement amount estimation device | |
JP2019212203A (en) | Three-dimensional (3d) model generation system | |
JP6161704B2 (en) | Imaging apparatus, vehicle, and image correction method | |
JP7303064B2 (en) | Image processing device and image processing method | |
JP7311407B2 (en) | Posture estimation device and posture estimation method | |
JP6841553B2 (en) | Imaging device | |
JP6498881B2 (en) | Vehicle position calculation device | |
JP6747176B2 (en) | Image processing device, photographing device, program, device control system and device | |
EP3051494B1 (en) | Method for determining an image depth value depending on an image region, camera system and motor vehicle |