JP7319527B2 - Image processing system - Google Patents
Image processing system Download PDFInfo
- Publication number
- JP7319527B2 JP7319527B2 JP2019096093A JP2019096093A JP7319527B2 JP 7319527 B2 JP7319527 B2 JP 7319527B2 JP 2019096093 A JP2019096093 A JP 2019096093A JP 2019096093 A JP2019096093 A JP 2019096093A JP 7319527 B2 JP7319527 B2 JP 7319527B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- images
- processing system
- image processing
- specular reflection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
異なる複数の視点から撮影した対象の画像を処理する画像処理システム An image processing system that processes images of a target taken from multiple different viewpoints
新築時から数年、数十年経過した建物に対して、改築や増築を行ったり設備を更新したりすることがある。この際設計図の入手が必要となるが、現状設計図がなく、設計図を作るために図面から作ることが多い。建物の計測を行う場合、専門の技術者によって人手と時間をかけて計測が行われるため、コストが高くなる。 In some cases, a building that has been built for several years or several tens of years has been remodeled, expanded, or updated. At this time, it is necessary to obtain a design drawing, but there is no design drawing at present, so it is often made from a drawing to create a design drawing. In the case of measuring a building, the cost is high because the measurement is performed by a professional engineer who spends a lot of manpower and time.
建物の計測において、人手と時間を省くには、例えば非特許文献1(Luwei Yangら,“Polarimetric Dense Monocular SLAM”,IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2018.)に記載されているようなSLAM(Simultaneously Localization and Mapping)の手法を用いることが考えられる。 In order to save manpower and time in building measurement, for example, Non-Patent Document 1 (Luwei Yang et al., "Polarimetric Dense Monocular SLAM", IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2018.) is described. It is conceivable to use such a SLAM (Simultaneously Localization and Mapping) method.
しかしながら、建物には金属製の部材等の光を鏡面反射する物体があるため、ステレオ視に基づいて距離情報を取得する方法を用いると、これら物体の鏡面反射によりステレオ視の処理において誤差が生じることになる。 However, since there are objects such as metal members in buildings that specularly reflect light, if a method for acquiring distance information based on stereoscopic vision is used, specular reflections of these objects will cause errors in stereoscopic processing. It will be.
ステレオ視に基づいて距離情報を取得する方法を用いるシステムなどのように、異なる複数の視点から撮影した対象の画像を処理する画像処理システムには、対象の画像の処理における鏡面反射による誤差を低減するという課題がある。 Image processing systems that process images of an object taken from different viewpoints, such as systems that use stereoscopic methods to obtain distance information, need to reduce errors due to specular reflections in processing the images of the object. There is a problem of
第1観点の画像処理システムは、画像取得部と、認識部と、検出部とを備えている。画像取得部は、異なる複数の視点から撮影した対象の画像を取得する。認識部は、取得した画像である第1画像及び第2画像において、鏡面反射成分を認識する。検出部は、認識部の認識結果を用いて、視点の違いに基づく第1画像と第2画像との違いを検出する。 An image processing system according to a first aspect includes an image acquisition section, a recognition section, and a detection section. The image acquisition unit acquires images of a target photographed from a plurality of different viewpoints. The recognition unit recognizes specular reflection components in the first image and the second image that are the acquired images. The detection unit uses the recognition result of the recognition unit to detect the difference between the first image and the second image based on the difference in viewpoint.
第1観点の画像処理システムは、認識部により認識された鏡面反射成分を用いながら検出部において視点の違いに基づく第1画像と第2画像との違いの検出を行うことができる。その結果、画像処理システムは、対象の画像の処理における鏡面反射による誤差の低減が可能になる。 The image processing system of the first aspect can detect the difference between the first image and the second image based on the difference in viewpoint in the detection unit while using the specular reflection component recognized by the recognition unit. As a result, the image processing system is enabled to reduce errors due to specular reflections in processing images of objects.
第2観点の画像処理システムは、第1観点のシステムであって、検出部は、認識部が認識した鏡面反射成分に基づいて、画像の補正、画像のマスキング、あるいは画像の一部除去、を行って、視点の違いに基づく第1画像と第2画像との違いを検出する。 The image processing system of the second aspect is the system of the first aspect, wherein the detection unit corrects the image, masks the image, or removes part of the image based on the specular reflection component recognized by the recognition unit. and detect the difference between the first image and the second image based on the difference in viewpoint.
第2観点の画像処理システムは、鏡面反射成分に基づいて画像の補正、画像のマスキング、あるいは画像の一部除去を検出部が行うことにより、視点の違いに基づく第1画像と第2画像との違いの検出時の鏡面反射成分による誤差について、鏡面反射成分の影響を低減することができる。 In the image processing system of the second aspect, the detection unit corrects the image, masks the image, or removes part of the image based on the specular reflection component, thereby producing the first image and the second image based on the difference in viewpoint. It is possible to reduce the effect of the specular reflection component on the error due to the specular reflection component when detecting the difference in .
第3観点の画像処理システムは、第1観点または第2観点のシステムであって、画像取得部は、各視点において、偏光板を有する偏光カメラによって撮影された画像を取得し、認識部は、偏光角及び光の強さに基づいて、鏡面反射成分を認識する。 The image processing system of the third aspect is the system of the first aspect or the second aspect, wherein the image acquisition unit acquires an image captured by a polarization camera having a polarizing plate at each viewpoint, and the recognition unit Based on the polarization angle and light intensity, the specular reflection component is recognized.
第3観点の画像処理システムは、各視点において偏光板を通して画像を撮影することにより、各視点における偏光角及び光の強さから鏡面反射成分を認識し、鏡面反射成分を簡単に低減することができる。 The image processing system of the third aspect can easily reduce the specular reflection component by capturing an image through a polarizing plate at each viewpoint and recognizing the specular reflection component from the polarization angle and light intensity at each viewpoint. can.
第4観点の画像処理システムは、第1観点から第3観点のいずれかのシステムであって、画像取得部は、各視点において、ライトフィールドカメラによって撮影された画像、対象を照らす光源の照度を変えて撮影された複数の画像、シャッタースピードを変えて撮影された複数の画像、あるいは、対象を照らす光源の色を変えて撮影された複数の画像、を取得する。 An image processing system according to a fourth aspect is the system according to any one of the first aspect to the third aspect, wherein the image acquisition unit acquires an image captured by a light field camera and the illuminance of a light source illuminating an object at each viewpoint. A plurality of images photographed by changing the shutter speed, a plurality of images photographed by changing the shutter speed, or a plurality of images photographed by changing the color of the light source illuminating the object are obtained.
第4観点の画像処理システムは、ライトフィールドカメラの使用、光源の照度の変更、シャッタースピードの変更、あるいは光源の色の変更により、鏡面反射成分を認識し易くすることができる。 The image processing system of the fourth aspect can make specular reflection components easier to recognize by using a light field camera, changing the illuminance of the light source, changing the shutter speed, or changing the color of the light source.
第5観点の画像処理システムは、第1観点から第4観点のいずれかのシステムであって、画像取得部は、同一の撮影装置が異なる場所で撮影した対象の画像、あるいは、異なる場所に設置された複数の撮影装置が撮影した対象の画像、を取得する。 An image processing system according to a fifth aspect is the system according to any one of the first aspect to the fourth aspect, wherein the image acquisition unit is an image of an object captured by the same imaging device at different locations, or installed at a different location. to obtain images of the object photographed by the plurality of photographing devices.
第5観点の画像処理システムは、同一撮影装置で撮影する場合には撮影装置の台数が少なくて済み、異なる場所に設置された複数の撮影装置で撮影する場合には撮影装置の位置の特定が容易になる。 In the image processing system of the fifth aspect, the number of photographing devices can be reduced when photographing with the same photographing device, and the positions of the photographing devices can be specified when photographing with a plurality of photographing devices installed at different locations. become easier.
第6観点の画像処理システムは、第1観点から第5観点のいずれかのシステムであって、検出部の検出結果に基づいて、対象の幾何学的な情報、対象の光学的な情報、あるいは、対象を照らす光源の情報を生成する、情報生成部、をさらに備える。 An image processing system according to a sixth aspect is the system according to any one of the first aspect to the fifth aspect, and based on the detection result of the detection unit, the geometric information of the object, the optical information of the object, or , an information generator that generates information of the light source illuminating the object.
第6観点の画像処理システムは、対象の幾何学的な情報、対象の光学的な情報、あるいは、対象を照らす光源の情報について、視点の違う第1画像と第2画像により、情報を豊富化することができる。 The image processing system of the sixth aspect enriches the information with respect to the geometrical information of the object, the optical information of the object, or the information of the light source that illuminates the object, by using the first and second images from different viewpoints. can do.
(1)全体構成
画像処理システム1は、画像取得部10と、認識部20と、検出部30と、情報生成部40とを備える。画像処理システム1は、移動型カメラ50に接続されている。画像取得部10は、異なる複数の視点から撮影した対象画像を取得する。画像処理システム1は、例えば、図2A及び図2Bに示されているコップ100を撮影した第1画像201と第2画像202を移動型カメラ50から取得する。この場合、撮影の対象がコップ100である。ここでは、撮影の対象が、コップ100という物である場合について説明するが、撮影の対象は、物に限られるものではない。撮影の対象は、例えば、シーン(光景)であってもよい。
(1) Overall Configuration The
移動型カメラ50は、遠隔操作によって操作されて走行する移動体に、カメラを搭載したものである。図1には、キャタピラで移動型カメラ50が走行する場合が示されているが、走行手段はキャタピラ以外の例えば車輪または足であってもよい。移動型カメラ50は、コップ100との相対的な位置関係を変えて画像を撮影する。移動型カメラ50は、例えば、コップ100の周囲を自走することにより、コップ100との相対的な位置関係を変えることができる。なお、ここでは、撮影装置が移動型カメラ50である場合について説明しているが、1台のカメラを移動させる方法は自走するものに限られるものではない。例えば、人が手に持って移動する携帯型のカメラであってもよく、ロボットに装着してロボットとともに移動するカメラであってもよい。また、撮影装置である移動型カメラ50と画像処理システム1との間のデータの送受信については、図1には無線で送受信する場合が示されているが、移動型カメラ50と画像処理システム1は有線でデータを送受信してもよく、公衆回線を介してデータを送受信してもよい。さらに、図1には、画像処理システム1が移動型カメラ50の外部にある場合が示されているが、画像処理システム1は移動型カメラ50の中に組み込まれてもよい。
The
移動型カメラ50が第1の位置で撮影した画像が第1画像201であり、第2の位置で撮影した画像が第2画像202である。移動型カメラ50は、第1の位置の座標(x1,y1)及び第2の位置の座標(x2,y2)を画像処理システム1に送信する機能を有する構成を採ることができる。それに対し、画像処理システム1は、第1の位置の座標(x1,y1)及び第2の位置の座標(x2,y2)を受け取って、画像処理にこのような位置データを用いる構成を採ることができる。画像処理システム1は、第1画像201及び第2画像202などの異なる複数の視点から撮影した画像データと、第1の位置の座標(x1,y1)及び第2の位置の座標(x2,y2)などの視点の位置データとを使って、コップ100などの対象の図面を作成する構成を採ることができる。なお、移動型カメラ50が自身の位置を計測する方法として、ここではGPS(グローバルポジショニングシステム)が用いられるが、撮影位置を計測する方法はGPSには限られず、例えば予め走行位置と撮影位置をプログラミングする方法または自己位置推定(カメラ位置)と対象の位置を同時に行うSLAMの手法を用いてもよい。
An image captured by the
認識部20は、取得した第1画像201及び第2画像202において、鏡面反射成分を認識する。例えば、図2A及び図2Bの第1画像201及び第2画像202において鏡面反射している箇所が第1箇所211、第2箇所212、第3箇所213及び第4箇所214である。認識部20は、これら第1箇所211~第4箇所214を認識する。
The
検出部30は、認識部20の認識結果を用いて、視点の違いに基づく第1画像201と第2画像202の違いを検出する。視点の違いに基づく第1画像201と第2画像202の違いは、例えば、第1画像201では文字「A」の一部が欠けて撮影されているのに対して第2画像202では文字「A」が全て撮影されていることである。他の違いとしては、例えば、コップ100の把手110の向きが第1画像201と第2画像202で異なる点が挙げられる。画像処理システム1は、これらの違いに基づく画像処理により、例えば、コップ100の図面に文字「A」及び把手110を書き込むことができる。
The
検出部30は、例えば、鏡面反射成分を除去または減少させるために、認識部20の認識結果を用いる。あるいは、検出部30は、例えば、鏡面反射成分以外の成分を強調または鏡面反射成分以外の成分のみを抽出するために、認識部20の認識結果を用いる。鏡面反射成分を除去することで、画像処理システム1は、例えば、図3A及び図3Bに示されている第1修正画像203と第2修正画像204を示すデータを得ることができる。
The
鏡面反射している箇所である第1箇所211と第3箇所213を比較すると、第1箇所211が文字「C」上に位置するのに対し、第3箇所213が文字「B」上に位置する。このように、鏡面反射する場所が、視点と光源と対象との位置関係の変化に伴って変化する。同様に、把手110での反射に係る第2箇所212と第4箇所214も視点の移動に伴って移動する。このように鏡面反射する場所が視点の位置によって違ってくると、例えばコップ100の図面を作成した場合には、図面上の誤差を生じさせる。それに対し、図3A及び図3Bに示されている第1修正画像203と第2修正画像204を示すデータを用いて、例えばコップ100の図面を作成した場合には、前述の図面上の誤差を除去することができる。このように、検出部30が認識部20の認識結果を用いて視点の違いに基づく第1画像201と第2画像202の違いを検出することで、画像処理システム1は、対象の画像の処理における鏡面反射による誤差を低減することができる。
Comparing the
情報生成部40は、検出部30の検出結果に基づいて、対象の幾何学的な情報、対象の光学的な情報、あるいは、対象を照らす光源の情報を生成する。対象の幾何学的な情報とは、例えば、物の形状、あるいはシーンの3Dマッピングに関する情報である。対象の光学的な情報とは、例えば、対象物の反射特性に関する情報である。対象を照らす光源の情報とは、例えば、光源の向いている方向及び位置のうちの少なくとも一方に関する情報である。
The
画像処理システム1は、例えばコンピュータにより実現されるものである。画像処理システム1は、例えば制御演算装置(図示せず)と記憶装置(図示せず)で構成される。制御演算装置には、CPU又はGPUといったプロセッサを使用できる。制御演算装置は、記憶装置に記憶されているプログラムを読み出し、このプログラムに従って所定の画像処理や演算処理を行う。さらに、制御演算装置は、プログラムに従って、演算結果を記憶装置に書き込んだり、記憶装置に記憶されている情報を読み出したりすることができる。図1は、制御演算装置により実現される各種の機能ブロックを示している。記憶装置は、データベースとして用いることができる。
The
(2)詳細構成
(2-1)天井裏での計測について
改築や増築を行ったり設備を更新したりする際に、運び込める部品のサイズ、工事の際に他の設備が邪魔にならないかといったことを事前に知る目的で、設計図を作るために図面から作ることがある。このような図面を作るために行われる建物の計測について説明する。
(2) Detailed configuration (2-1) Regarding measurement in the ceiling When renovating, expanding, or updating equipment, the size of parts that can be brought in, and whether other equipment will get in the way during construction For the purpose of knowing things in advance, we sometimes make from drawings to make blueprints. The measurement of the building performed to make such a drawing will be explained.
特に、建物の天井裏については、例えばエアコンの冷媒配管を交換するケースなどが考えられる。このような天井裏の工事の際に建物の計測が必要となる場合が多い。しかし、天井裏の計測は専門の技術者によって人手と時間をかけて行われているため高コストであるという問題がある。 In particular, in the space above the ceiling of a building, for example, a case of replacing a refrigerant pipe of an air conditioner can be considered. In many cases, it is necessary to measure the building during such construction work in the attic space. However, there is a problem that the measurement of the space above the ceiling is expensive because it is performed by a professional engineer, taking a lot of manpower and time.
このような問題を解決するための方法としてロボット等によってセンサを用いた計測を行うという方法が考えられるが、天井裏はセンサを用いた計測が難しい。例えば光学的な計測の場合には、図4及び図5のように配管310,320等の金属が光を反射し,金属面で鏡面反射が起こり、見た目が大きく変化するためにステレオ視に基づく形状計測が困難である。また、電波を用いた計測の場合には,鉄筋やコンクリートが電波を阻害する問題が発生する。 As a method for solving such a problem, a method of performing measurement using a sensor using a robot or the like is conceivable, but it is difficult to perform measurement using a sensor in the space above the ceiling. For example, in the case of optical measurement, metals such as pipes 310 and 320 reflect light as shown in FIGS. Shape measurement is difficult. Moreover, in the case of measurement using radio waves, there is a problem that reinforcing bars and concrete block radio waves.
本開示では,金属の反射等の問題を解決し、天井裏のような環境でも機能する光学的計測技術を示している。具体的には,偏光カメラを用いて鏡面反射の成分を計算し、鏡面反射を除去した画像を生成してそれを用いて特徴点対応を実行することで複数視点での物体の対応付けを目指す。 This disclosure presents an optical metrology technique that solves problems such as metal reflections and works in environments such as ceiling spaces. Specifically, we calculate the component of specular reflection using a polarization camera, generate an image with the specular reflection removed, and use it to perform feature point correspondence, aiming at matching objects from multiple viewpoints. .
(2-2)偏光カメラを用いた計測手法
天井裏の鏡面反射を除去するために,偏光カメラを使う方法について説明する。鏡面反射は物体表面で即反射するのに対し、拡散反射は物体の屈折率が不均一であるため乱反射する。この違いにより,鏡面反射光は図6のように偏光角により強さが異なるが、拡散反射光は偏光角によらず強さが均一な非偏光となる。そのため、鏡面反射の偏光角、強さといった偏光情報を算出できれば、鏡面反射と拡散反射の成分を分離することができ、鏡面反射を除去できる。偏光カメラは画素の前にいくつかの角度の偏光板60が入っているため、これを用いれば鏡面反射の偏光情報を算出できる。
(2-2) Measurement method using a polarizing camera A method using a polarizing camera to remove the specular reflection in the ceiling will be explained. In specular reflection, light is reflected immediately on the surface of an object, while in diffuse reflection, light is diffusely reflected because the refractive index of the object is non-uniform. Due to this difference, the intensity of the specularly reflected light varies depending on the polarization angle as shown in FIG. 6, but the diffusely reflected light is non-polarized with uniform intensity regardless of the polarization angle. Therefore, if polarization information such as the polarization angle and intensity of specular reflection can be calculated, the components of specular reflection and diffuse reflection can be separated, and the specular reflection can be removed. Since the polarization camera has polarizers 60 at several angles in front of the pixels, this can be used to calculate the polarization information of the specular reflection.
(2-2-1)偏光カメラ
偏光カメラは図7Aのように0度、45度、90度、135度の方向に偏光板61,62,63,64が張られた画素の組を持ち、特定方向に振動する光のみを得ることができる。これを用いることで偏光情報を算出して鏡面反射を除去できる。図7Bには、偏光板61,62,63,64が張られた4つの画素の組とRGBとの関係が示されている。
(2-2-1) Polarization Camera The polarization camera has a set of pixels with
(2-2-2)偏光情報の計算
(2-2-2-1)偏光角と光の強さに関する仮定
まず、角度によらない非偏光の拡散反射成分と、角度によって周期的に変化している鏡面反射成分の2つのみを持っているものと仮定すると、0度と180度が同一の状態であることから以下の式(1)で各画素のRGB値を表すことができ、図8のように偏光角と光の強さの関係を表すことができる。
また、この仮定から、0度、45度、90度、135度の4種類の画素のRGB値I0,I45,I90,I135について、それぞれ式(2)、式(3)、式(4)及び式(5)の関係を定めることができる。
グラフ中の最低値Iminは、Ib-Ia,最大値ImaxはIb+Iaに相当する。また、偏光角によって変動している成分であるImax-Iminが鏡面反射成分、逆に偏光角によらない成分であるIminが拡散反射成分に相当する。 The minimum value I min in the graph corresponds to I b −I a , and the maximum value I max corresponds to I b +I a . Also, the component I max -I min that varies with the polarization angle corresponds to the specular reflection component, and conversely, the component I min that does not depend on the polarization angle corresponds to the diffuse reflection component.
(2-2-2-2)画素のRGB値を用いたIa,Ibの導出過程
鏡面反射を除いた成分を算出するにはIb,Iaを算出する必要がある。まず、cos(2θ+180)=-cos(2θ)から、式(6)が導かれる。
cos(2θ+90)=-sin(2θ),cos(2θ+270)=sin(2θ)から、式(7)が導かれる。
従って以下の式(8)でIaを求めることができる。
また、cos(2θ),cos(2θ+90),cos(2θ+180),cos(2θ+270)は全て足すとθがどんな値でも0になるため,以下の式(9)でIbを求めることができる。
(2-2-2-3)偏光情報を用いた鏡面反射の除去方法
上述の(2-2-2-2)で示した方法でIa,Ibを求めたら、それを用いて鏡面反射を除いた成分Iminを計算することで鏡面反射を除去した成分を求める。IminはIb-Iaに等しいため、Ib-Iaを画素のRGB値として画像を生成すれば、図9A、図9B及び図9Cを比較して分かるように、あるいは図10A、図10B及び図10Cを比較して分かるように鏡面反射を除去した画像を得られる。そして図11A及び図11Bを比較して分かるように鏡面反射によって特徴点対応の精度を上げることができる。
(2-2-2-3) Method for removing specular reflection using polarization information After obtaining I a and I b by the method shown in (2-2-2-2) above, specular reflection is used A component from which the specular reflection is removed is obtained by calculating the component I min excluding . Since I min is equal to I b −I a , if an image is generated with I b −I a being the RGB value of the pixel, as can be seen by comparing FIGS. 9A, 9B and 9C, or FIG. As can be seen by comparing 10B and 10C, an image with specular reflection removed is obtained. As can be seen by comparing FIGS. 11A and 11B, specular reflection can improve the accuracy of feature point correspondence.
(2-2-3)RGB値の飽和への対策
カメラが対応できる輝度範囲は限られており、実世界の全ての明るさを表現することはできない。このため、対応できる範囲外の輝度が画像内に存在した場合、画素の値は常に最小または最大になる。従って画素の値が最大の場合、実世界における輝度と画素の値を対応付けることができず、鏡面反射の除去に失敗するという問題がある。この問題を解決するために高ダイナミック・レンジ(HDR)画像を用いるという方法がある。
(2-2-3) Measures against Saturation of RGB Values A camera has a limited luminance range and cannot express all the brightness in the real world. Therefore, if there is an out-of-range luminance in the image, the pixel value will always be the minimum or maximum. Therefore, when the pixel value is the maximum, there is a problem that the brightness cannot be associated with the pixel value in the real world, and specular reflection cannot be removed. One way to solve this problem is to use high dynamic range (HDR) images.
HDR画像を取得する方法としては、例えば、対象を照らす光源の照度を変えて複数回ずつ複数の画像を各視点で取得する方法がある。他のHDR画像を取得する方法としては、例えば、移動型カメラ50のシャッタースピードを各視点で複数回変えて、各視点で複数の画像を取得する方法がある。
As a method of acquiring HDR images, for example, there is a method of acquiring a plurality of images at each viewpoint a plurality of times by changing the illuminance of the light source that illuminates the object. As another method of acquiring HDR images, for example, there is a method of acquiring multiple images at each viewpoint by changing the shutter speed of the
(2-3)空間モデルの構築
空間モデルの構築により、例えば図面を作成することができる。天井裏の空間モデルを構築すれば、天井裏の図面を作成することができる。異なる複数の視点から撮影した対象の複数の画像をもとにステレオ視の考え方を用いて空間モデルを構築することができるように、画像処理システム1を構成することができる。例えば、画像処理システム1は、SLAM技術を使用し、異なる複数の視点から撮影した対象の複数の画像をもとに、移動型カメラ50自体の移動位置を推測するとともに、空間モデルを構築する構成を採ることができる。例えば、移動型カメラ50が天井裏を自走して天井裏の複数の画像を画像処理システム1に送信し、画像処理システム1が移動型カメラ50から受信した天井裏の複数視点から撮影した画像を受信する。天井裏の複数視点から撮影した複数の画像から、画像処理システム1は、SLAM技術を使って天井裏の空間モデルを構築する。
(2-3) Construction of Spatial Model By constructing the spatial model, for example, a drawing can be created. A drawing of the ceiling space can be created by constructing the space model of the ceiling space. The
(3)変形例
(3-1)変形例1A
上記実施形態では、異なる複数の視点から撮影する撮影装置に、同一の撮影装置である移動型カメラ50を用いる場合について説明した。しかし、異なる複数の視点から撮影する撮影装置は、移動型カメラ50に限られるものではない。異なる複数の視点から撮影する撮影装置は、例えば、異なる場所に設置された複数の撮影装置であってもよい。このような複数の撮影装置として、例えば、図12に示されているような第1カメラ51と第2カメラ52からなるステレオカメラを用いることができる。
(3) Modification (3-1) Modification 1A
In the above embodiment, the case where the
(3-2)変形例1B
上記実施形態では、検出部30が偏光カメラで撮影された画像を用いることで鏡面反射成分を低減させる方法について説明した。偏光カメラを用いて鏡面反射成分を低減させる方法は、画像の補正によって鏡面反射成分を低減させる方法の一例である。画像の補正には、例えば、鏡面反射成分を差し引く方法がある。しかし、対象の画像の処理における鏡面反射による誤差を低減する方法は、画像の補正による方法には限られない。
(3-2) Modification 1B
In the above-described embodiment, a method has been described in which the
画像の補正以外の方法としては、例えば、画像の中の鏡面反射が生じている箇所をマスキングする方法がある。画像のマスキングは、例えば、マスク信号などによって、特徴部分の抽出において鏡面反射の生じている箇所を無視するまたは鏡面反射の生じている箇所の重み(影響)を小さくする方法である。また、他の方法としては、例えば、鏡面反射が生じている箇所を除去して(画像の一部除去を行って)、鏡面反射が生じていない箇所のみを画像処理に用いる方法がある。 As a method other than correcting the image, for example, there is a method of masking a portion where specular reflection occurs in the image. Image masking is, for example, a method of ignoring locations where specular reflection occurs or reducing the weight (influence) of locations where specular reflection occurs in extracting characteristic portions, using a mask signal or the like. As another method, for example, there is a method of removing portions where specular reflection occurs (performing partial removal of the image) and using only portions where specular reflection does not occur for image processing.
(3-3)変形例1C
上記実施形態では、画像取得部10が、偏光カメラで異なる複数の視点から撮影した対象の画像を取得する場合について説明した。しかし、画像を取得する方法は、偏光カメラを用いる場合には限られない。例えば、ライトフィールドカメラで撮影された画像を、画像取得部10が、異なる複数の視点から撮影した対象の画像として取得するように構成してもよい。
(3-3) Modification 1C
In the above embodiment, the case where the
また、画像を取得する際に対象に当たる光の条件及び移動型カメラ50の受光条件のうちの少なくとも一方を変えて撮影してもよい。画像取得部10は、各視点において、対象を照らす光源の照度を変えて撮影された複数の画像、シャッタースピードを変えて撮影された複数の画像、あるいは、対象を照らす光源の色を変えて撮影された複数の画像、を取得する構成を採ることもできる。対象を照らす光源の照度及びシャッタースピードを変える場合には、既に説明したようにHDR画像を撮影することができる。また、光源の色を変える場合は、鏡面反射と拡散反射とで色に対する性質が異なることから鏡面反射を分離し易くなる。
In addition, when acquiring an image, at least one of the conditions of the light striking the object and the light receiving conditions of the
(4)特徴
(4-1)
上記実施形態の画像処理システム1は、認識部20により認識された鏡面反射成分を用いながら検出部30において視点の違いに基づく第1画像201と第2画像202との違いの検出を行うことができる。その結果、画像処理システム1は、対象の画像の処理における鏡面反射による誤差の低減が可能になる。
(4) Features (4-1)
The
(4-2)
上記実施形態または変形例で説明したように、画像処理システム1は、鏡面反射成分に基づいて画像の補正、画像のマスキング、あるいは画像の一部除去を検出部が行うことができる。画像処理システム1は、このような処置により、視点の違いに基づく第1画像と第2画像との違いの検出時の鏡面反射成分による誤差について、鏡面反射成分の影響を低減することができる。その結果、画像処理システム1は、対象の画像の処理における鏡面反射による誤差を低減することができる。
(4-2)
As described in the above embodiment or modified example, the
(4-3)
上記実施形態で説明したように、画像処理システム1は、各視点において偏光板を通して画像を撮影することにより、各視点における偏光角及び光の強さから鏡面反射成分を認識し、鏡面反射成分を簡単に低減することができる。偏光カメラを用いることによって特定の方向(上記実施形態では4方向)に振動する光のみを取得することができるため、その情報から鏡面反射の成分を計算することができる。鏡面反射成分を除去した画像を取得することで鏡面反射に強い特徴点対応を実現することができる。これによって鏡面反射が見られる物体の特徴点対応の精度が向上する。
(4-3)
As described in the above embodiment, the
(4-4)
画像処理システム1は、ライトフィールドカメラの使用、光源の照度の変更、シャッタースピードの変更、あるいは光源の色の変更により、鏡面反射成分を容易に認識することができる。
(4-4)
The
(4-5)
画像処理システム1は、同一撮影装置で撮影する場合には撮影装置の台数が少なくて済む。例えば、上述の実施形態では、撮影装置が1台の移動型カメラ50または1台の携帯型カメラのみで済む。異なる場所に設置された複数の撮影装置で撮影する場合には、撮影装置の位置の特定が容易になる。
(4-5)
In the
(4-6)
画像処理システム1の情報生成部40は、対象の幾何学的な情報、対象の光学的な情報、あるいは、対象を照らす光源の情報について、視点の違う第1画像と第2画像により、情報を豊富化することができる。情報生成部40は、例えば、物の形状、あるいはシーンの3Dマッピングに関する情報を生成することができる。情報生成部40は、例えば、対象物の反射特性に関する情報を生成することができる。また、情報生成部40は、例えば、光源の向いている方向及び位置のうちの少なくとも一方に関する情報を生成することができる。
(4-6)
The
以上、本開示の実施形態を説明したが、特許請求の範囲に記載された本開示の趣旨及び範囲から逸脱することなく、形態や詳細の多様な変更が可能なことが理解されるであろう。 Although embodiments of the present disclosure have been described above, it will be appreciated that various changes in form and detail may be made without departing from the spirit and scope of the present disclosure as set forth in the appended claims. .
1 画像処理システム
10 画像取得部
20 認識部
30 検出部
40 情報生成部
50 移動型カメラ(撮影装置の例)
51 第1カメラ(撮影装置の例)
52 第2カメラ(撮影装置の例)
1
51 First camera (example of imaging device)
52 Second camera (example of imaging device)
Claims (6)
取得した画像である第1画像及び第2画像において、鏡面反射成分を認識する、認識部(20)と、
前記認識部の認識結果を用いて、視点の違いに基づく前記第1画像と前記第2画像との違いを検出する、検出部(30)と、
を備え、
前記検出部によって画像の違いを検出して、異なる複数の視点から撮影した対象の複数の画像をもとにステレオ法により空間モデルを構築するように構成されている、画像処理システム(1)。 an image acquisition unit (10) for acquiring images of an object photographed from a plurality of different viewpoints;
a recognition unit (20) for recognizing a specular reflection component in the first image and the second image, which are acquired images;
a detection unit (30) that detects a difference between the first image and the second image based on the difference in viewpoint using the recognition result of the recognition unit;
with
An image processing system (1) configured to construct a spatial model by a stereo method based on a plurality of images of an object photographed from a plurality of different viewpoints by detecting differences in images by the detection unit.
請求項1記載の画像処理システム(1)。 The detection unit performs image correction, image masking, or partial removal of the image based on the specular reflection component recognized by the recognition unit to obtain the first image and the second image based on the difference in viewpoint. Detect differences with images,
Image processing system (1) according to claim 1.
前記認識部は、偏光角及び光の強さに基づいて、鏡面反射成分を認識する、
請求項1または請求項2に記載の画像処理システム(1)。 The image acquisition unit acquires an image captured by a polarization camera having polarizing plates (60 to 64) at each viewpoint,
the recognition unit recognizes the specular reflection component based on the polarization angle and the light intensity;
An image processing system (1) according to claim 1 or claim 2.
請求項1から3のいずれか一項に記載の画像処理システム(1)。 The image acquisition unit obtains, at each viewpoint, an image captured by a light field camera, a plurality of images captured by changing the illuminance of the light source illuminating the target, a plurality of images captured by changing the shutter speed, or a target Obtaining multiple images, taken with different colors of the light source illuminating the
An image processing system (1) according to any one of claims 1-3.
請求項1から4のいずれか一項に記載の画像処理システム(1)。 The image acquisition unit acquires images of a target captured by the same imaging device at different locations, or images of a target captured by a plurality of imaging devices installed at different locations.
An image processing system (1) according to any one of claims 1 to 4.
をさらに備える、
請求項1から5のいずれか一項に記載の画像処理システム(1)。 an information generation unit (40) that generates geometric information of a target, optical information of a target, or information of a light source that illuminates the target based on the detection result of the detection unit;
further comprising
An image processing system (1) according to any one of claims 1 to 5.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019096093A JP7319527B2 (en) | 2019-05-22 | 2019-05-22 | Image processing system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019096093A JP7319527B2 (en) | 2019-05-22 | 2019-05-22 | Image processing system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020190943A JP2020190943A (en) | 2020-11-26 |
JP7319527B2 true JP7319527B2 (en) | 2023-08-02 |
Family
ID=73453724
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019096093A Active JP7319527B2 (en) | 2019-05-22 | 2019-05-22 | Image processing system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7319527B2 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005346348A (en) | 2004-06-02 | 2005-12-15 | Matsushita Electric Ind Co Ltd | Image processing method, device, and program |
JP2019022147A (en) | 2017-07-20 | 2019-02-07 | セコム株式会社 | Light source direction estimation device |
JP2019070886A (en) | 2017-10-06 | 2019-05-09 | キヤノン株式会社 | Image processing device, imaging device, and image processing method |
-
2019
- 2019-05-22 JP JP2019096093A patent/JP7319527B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005346348A (en) | 2004-06-02 | 2005-12-15 | Matsushita Electric Ind Co Ltd | Image processing method, device, and program |
JP2019022147A (en) | 2017-07-20 | 2019-02-07 | セコム株式会社 | Light source direction estimation device |
JP2019070886A (en) | 2017-10-06 | 2019-05-09 | キヤノン株式会社 | Image processing device, imaging device, and image processing method |
Non-Patent Citations (1)
Title |
---|
Michael W. Tao et al.,Depth Estimation and Specular Removal for Glossy Surfaces Using Point and Line Consistency with Light-Field Cameras,IEEE Transactions on Pattern Analysis and Machine Intelligence Volume 38, Issue 6,2016年06月01日,https://ieeexplore.ieee.org/document/7254196/ |
Also Published As
Publication number | Publication date |
---|---|
JP2020190943A (en) | 2020-11-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3859574B2 (en) | 3D visual sensor | |
US10068344B2 (en) | Method and system for 3D capture based on structure from motion with simplified pose detection | |
US8437537B2 (en) | Method and system for estimating 3D pose of specular objects | |
JP6897563B2 (en) | Image processing equipment and image processing methods and programs | |
JP5671281B2 (en) | Position / orientation measuring apparatus, control method and program for position / orientation measuring apparatus | |
JP6271953B2 (en) | Image processing apparatus and image processing method | |
WO2018068719A1 (en) | Image stitching method and apparatus | |
WO2022156755A1 (en) | Indoor positioning method and apparatus, device, and computer-readable storage medium | |
CN111879235A (en) | Three-dimensional scanning detection method and system for bent pipe and computer equipment | |
CN106530358A (en) | Method for calibrating PTZ camera by using only two scene images | |
JP2014013147A5 (en) | ||
JP6515039B2 (en) | Program, apparatus and method for calculating a normal vector of a planar object to be reflected in a continuous captured image | |
JP2016197287A (en) | Information processing apparatus, information processing method, and program | |
CN109341591A (en) | A kind of edge detection method and system based on handheld three-dimensional scanner | |
JP6282377B2 (en) | Three-dimensional shape measurement system and measurement method thereof | |
KR20230065978A (en) | Systems, methods and media for directly repairing planar surfaces in a scene using structured light | |
JP2008309595A (en) | Object recognizing device and program used for it | |
Kruger et al. | In-factory calibration of multiocular camera systems | |
KR20120002723A (en) | Device and method for recognizing person by using 3 dimensional image information | |
JP5976089B2 (en) | Position / orientation measuring apparatus, position / orientation measuring method, and program | |
JP2532985B2 (en) | Three-dimensional image evaluation device | |
WO2005100910A1 (en) | Three-dimensional shape measuring method and its equipment | |
KR101578891B1 (en) | Apparatus and Method Matching Dimension of One Image Up with Dimension of the Other Image Using Pattern Recognition | |
JP7319527B2 (en) | Image processing system | |
JP2011002292A (en) | Three-dimensional fingertip position detecting method, three-dimensional fingertip position detector, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20200609 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20200609 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220121 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230113 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230124 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230317 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230425 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230620 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230703 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7319527 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |