JP7319527B2 - Image processing system - Google Patents

Image processing system Download PDF

Info

Publication number
JP7319527B2
JP7319527B2 JP2019096093A JP2019096093A JP7319527B2 JP 7319527 B2 JP7319527 B2 JP 7319527B2 JP 2019096093 A JP2019096093 A JP 2019096093A JP 2019096093 A JP2019096093 A JP 2019096093A JP 7319527 B2 JP7319527 B2 JP 7319527B2
Authority
JP
Japan
Prior art keywords
image
images
processing system
image processing
specular reflection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019096093A
Other languages
Japanese (ja)
Other versions
JP2020190943A (en
Inventor
宏美 大久保
忠史 西村
以大 間下
友樹 浦西
ポチャラ ラサミー
和樹 小川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daikin Industries Ltd
Original Assignee
Daikin Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daikin Industries Ltd filed Critical Daikin Industries Ltd
Priority to JP2019096093A priority Critical patent/JP7319527B2/en
Publication of JP2020190943A publication Critical patent/JP2020190943A/en
Application granted granted Critical
Publication of JP7319527B2 publication Critical patent/JP7319527B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

異なる複数の視点から撮影した対象の画像を処理する画像処理システム An image processing system that processes images of a target taken from multiple different viewpoints

新築時から数年、数十年経過した建物に対して、改築や増築を行ったり設備を更新したりすることがある。この際設計図の入手が必要となるが、現状設計図がなく、設計図を作るために図面から作ることが多い。建物の計測を行う場合、専門の技術者によって人手と時間をかけて計測が行われるため、コストが高くなる。 In some cases, a building that has been built for several years or several tens of years has been remodeled, expanded, or updated. At this time, it is necessary to obtain a design drawing, but there is no design drawing at present, so it is often made from a drawing to create a design drawing. In the case of measuring a building, the cost is high because the measurement is performed by a professional engineer who spends a lot of manpower and time.

建物の計測において、人手と時間を省くには、例えば非特許文献1(Luwei Yangら,“Polarimetric Dense Monocular SLAM”,IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2018.)に記載されているようなSLAM(Simultaneously Localization and Mapping)の手法を用いることが考えられる。 In order to save manpower and time in building measurement, for example, Non-Patent Document 1 (Luwei Yang et al., "Polarimetric Dense Monocular SLAM", IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2018.) is described. It is conceivable to use such a SLAM (Simultaneously Localization and Mapping) method.

しかしながら、建物には金属製の部材等の光を鏡面反射する物体があるため、ステレオ視に基づいて距離情報を取得する方法を用いると、これら物体の鏡面反射によりステレオ視の処理において誤差が生じることになる。 However, since there are objects such as metal members in buildings that specularly reflect light, if a method for acquiring distance information based on stereoscopic vision is used, specular reflections of these objects will cause errors in stereoscopic processing. It will be.

ステレオ視に基づいて距離情報を取得する方法を用いるシステムなどのように、異なる複数の視点から撮影した対象の画像を処理する画像処理システムには、対象の画像の処理における鏡面反射による誤差を低減するという課題がある。 Image processing systems that process images of an object taken from different viewpoints, such as systems that use stereoscopic methods to obtain distance information, need to reduce errors due to specular reflections in processing the images of the object. There is a problem of

第1観点の画像処理システムは、画像取得部と、認識部と、検出部とを備えている。画像取得部は、異なる複数の視点から撮影した対象の画像を取得する。認識部は、取得した画像である第1画像及び第2画像において、鏡面反射成分を認識する。検出部は、認識部の認識結果を用いて、視点の違いに基づく第1画像と第2画像との違いを検出する。 An image processing system according to a first aspect includes an image acquisition section, a recognition section, and a detection section. The image acquisition unit acquires images of a target photographed from a plurality of different viewpoints. The recognition unit recognizes specular reflection components in the first image and the second image that are the acquired images. The detection unit uses the recognition result of the recognition unit to detect the difference between the first image and the second image based on the difference in viewpoint.

第1観点の画像処理システムは、認識部により認識された鏡面反射成分を用いながら検出部において視点の違いに基づく第1画像と第2画像との違いの検出を行うことができる。その結果、画像処理システムは、対象の画像の処理における鏡面反射による誤差の低減が可能になる。 The image processing system of the first aspect can detect the difference between the first image and the second image based on the difference in viewpoint in the detection unit while using the specular reflection component recognized by the recognition unit. As a result, the image processing system is enabled to reduce errors due to specular reflections in processing images of objects.

第2観点の画像処理システムは、第1観点のシステムであって、検出部は、認識部が認識した鏡面反射成分に基づいて、画像の補正、画像のマスキング、あるいは画像の一部除去、を行って、視点の違いに基づく第1画像と第2画像との違いを検出する。 The image processing system of the second aspect is the system of the first aspect, wherein the detection unit corrects the image, masks the image, or removes part of the image based on the specular reflection component recognized by the recognition unit. and detect the difference between the first image and the second image based on the difference in viewpoint.

第2観点の画像処理システムは、鏡面反射成分に基づいて画像の補正、画像のマスキング、あるいは画像の一部除去を検出部が行うことにより、視点の違いに基づく第1画像と第2画像との違いの検出時の鏡面反射成分による誤差について、鏡面反射成分の影響を低減することができる。 In the image processing system of the second aspect, the detection unit corrects the image, masks the image, or removes part of the image based on the specular reflection component, thereby producing the first image and the second image based on the difference in viewpoint. It is possible to reduce the effect of the specular reflection component on the error due to the specular reflection component when detecting the difference in .

第3観点の画像処理システムは、第1観点または第2観点のシステムであって、画像取得部は、各視点において、偏光板を有する偏光カメラによって撮影された画像を取得し、認識部は、偏光角及び光の強さに基づいて、鏡面反射成分を認識する。 The image processing system of the third aspect is the system of the first aspect or the second aspect, wherein the image acquisition unit acquires an image captured by a polarization camera having a polarizing plate at each viewpoint, and the recognition unit Based on the polarization angle and light intensity, the specular reflection component is recognized.

第3観点の画像処理システムは、各視点において偏光板を通して画像を撮影することにより、各視点における偏光角及び光の強さから鏡面反射成分を認識し、鏡面反射成分を簡単に低減することができる。 The image processing system of the third aspect can easily reduce the specular reflection component by capturing an image through a polarizing plate at each viewpoint and recognizing the specular reflection component from the polarization angle and light intensity at each viewpoint. can.

第4観点の画像処理システムは、第1観点から第3観点のいずれかのシステムであって、画像取得部は、各視点において、ライトフィールドカメラによって撮影された画像、対象を照らす光源の照度を変えて撮影された複数の画像、シャッタースピードを変えて撮影された複数の画像、あるいは、対象を照らす光源の色を変えて撮影された複数の画像、を取得する。 An image processing system according to a fourth aspect is the system according to any one of the first aspect to the third aspect, wherein the image acquisition unit acquires an image captured by a light field camera and the illuminance of a light source illuminating an object at each viewpoint. A plurality of images photographed by changing the shutter speed, a plurality of images photographed by changing the shutter speed, or a plurality of images photographed by changing the color of the light source illuminating the object are obtained.

第4観点の画像処理システムは、ライトフィールドカメラの使用、光源の照度の変更、シャッタースピードの変更、あるいは光源の色の変更により、鏡面反射成分を認識し易くすることができる。 The image processing system of the fourth aspect can make specular reflection components easier to recognize by using a light field camera, changing the illuminance of the light source, changing the shutter speed, or changing the color of the light source.

第5観点の画像処理システムは、第1観点から第4観点のいずれかのシステムであって、画像取得部は、同一の撮影装置が異なる場所で撮影した対象の画像、あるいは、異なる場所に設置された複数の撮影装置が撮影した対象の画像、を取得する。 An image processing system according to a fifth aspect is the system according to any one of the first aspect to the fourth aspect, wherein the image acquisition unit is an image of an object captured by the same imaging device at different locations, or installed at a different location. to obtain images of the object photographed by the plurality of photographing devices.

第5観点の画像処理システムは、同一撮影装置で撮影する場合には撮影装置の台数が少なくて済み、異なる場所に設置された複数の撮影装置で撮影する場合には撮影装置の位置の特定が容易になる。 In the image processing system of the fifth aspect, the number of photographing devices can be reduced when photographing with the same photographing device, and the positions of the photographing devices can be specified when photographing with a plurality of photographing devices installed at different locations. become easier.

第6観点の画像処理システムは、第1観点から第5観点のいずれかのシステムであって、検出部の検出結果に基づいて、対象の幾何学的な情報、対象の光学的な情報、あるいは、対象を照らす光源の情報を生成する、情報生成部、をさらに備える。 An image processing system according to a sixth aspect is the system according to any one of the first aspect to the fifth aspect, and based on the detection result of the detection unit, the geometric information of the object, the optical information of the object, or , an information generator that generates information of the light source illuminating the object.

第6観点の画像処理システムは、対象の幾何学的な情報、対象の光学的な情報、あるいは、対象を照らす光源の情報について、視点の違う第1画像と第2画像により、情報を豊富化することができる。 The image processing system of the sixth aspect enriches the information with respect to the geometrical information of the object, the optical information of the object, or the information of the light source that illuminates the object, by using the first and second images from different viewpoints. can do.

実施形態に係る画像処理システムの構成の一例を示す模式図。1 is a schematic diagram showing an example of the configuration of an image processing system according to an embodiment; FIG. 第1の位置から撮影したカップの撮影画像を説明するための絵画図。FIG. 4 is a pictorial diagram for explaining a photographed image of a cup photographed from a first position; FIG. 第2の位置から撮影したカップの撮影画像を説明するための絵画図。FIG. 11 is a pictorial diagram for explaining a photographed image of a cup photographed from a second position; FIG. 図2Aの撮影画像から鏡面反射成分を除去した第1修正画像を説明するための絵画図。FIG. 2B is a pictorial diagram for explaining a first modified image obtained by removing a specular reflection component from the photographed image of FIG. 2A; 図2Bの撮影画像から鏡面反射成分を除去した第2修正画像を説明するための絵画図。FIG. 2B is a pictorial diagram for explaining a second corrected image obtained by removing a specular reflection component from the photographed image of FIG. 2B; 天井裏の撮影画像の一例を示す図。The figure which shows an example of the photography image of the ceiling space. 天井裏の撮影画像の他の例を示す図。The figure which shows the other example of the photography image of the space behind the ceiling. 偏光角と偏光度の関係を示すグラフ。A graph showing the relationship between the polarization angle and the degree of polarization. 偏光カメラの仕組みを説明するための模式図。Schematic diagram for explaining the mechanism of a polarization camera. 偏光カメラの仕組みを説明するための模式図。Schematic diagram for explaining the mechanism of a polarization camera. 偏光角φと光の強さIφの関係を示すグラフ。Graph showing the relationship between the polarization angle φ and the light intensity . 鏡面反射除去を行う前の画像の一例を示す図。FIG. 4 is a diagram showing an example of an image before performing specular reflection removal; 鏡面反射除去を行った後の画像の一例を示す図。FIG. 10 is a diagram showing an example of an image after performing specular reflection removal; 検出された鏡面反射成分を説明するための画像の一例を示す図。FIG. 4 is a diagram showing an example of an image for explaining a detected specular reflection component; 鏡面反射除去を行う前の画像の他の例を示す図。FIG. 10 is a diagram showing another example of an image before performing specular reflection removal; 鏡面反射除去を行った後の画像の他の例を示す図。FIG. 10 is a diagram showing another example of an image after specular reflection removal; 検出された鏡面反射成分を説明するための画像の他の例を示す図。FIG. 10 is a diagram showing another example of an image for explaining the detected specular reflection component; 鏡面反射除去前の特徴点対応を説明するための図。FIG. 4 is a diagram for explaining feature point correspondence before specular reflection removal; 鏡面反射除去後の特徴点対応を説明するための図。FIG. 4 is a diagram for explaining feature point correspondence after specular reflection removal; 実施形態に係る画像処理システムの構成の一例を示す模式図。1 is a schematic diagram showing an example of the configuration of an image processing system according to an embodiment; FIG.

(1)全体構成
画像処理システム1は、画像取得部10と、認識部20と、検出部30と、情報生成部40とを備える。画像処理システム1は、移動型カメラ50に接続されている。画像取得部10は、異なる複数の視点から撮影した対象画像を取得する。画像処理システム1は、例えば、図2A及び図2Bに示されているコップ100を撮影した第1画像201と第2画像202を移動型カメラ50から取得する。この場合、撮影の対象がコップ100である。ここでは、撮影の対象が、コップ100という物である場合について説明するが、撮影の対象は、物に限られるものではない。撮影の対象は、例えば、シーン(光景)であってもよい。
(1) Overall Configuration The image processing system 1 includes an image acquisition section 10 , a recognition section 20 , a detection section 30 and an information generation section 40 . The image processing system 1 is connected to a mobile camera 50 . The image acquisition unit 10 acquires target images photographed from a plurality of different viewpoints. The image processing system 1 acquires, from the mobile camera 50, a first image 201 and a second image 202 of the cup 100 shown in FIGS. 2A and 2B, for example. In this case, the object to be photographed is the cup 100 . Here, a case where the object to be photographed is the glass 100 will be described, but the object to be photographed is not limited to objects. The object to be photographed may be, for example, a scene (spectacle).

移動型カメラ50は、遠隔操作によって操作されて走行する移動体に、カメラを搭載したものである。図1には、キャタピラで移動型カメラ50が走行する場合が示されているが、走行手段はキャタピラ以外の例えば車輪または足であってもよい。移動型カメラ50は、コップ100との相対的な位置関係を変えて画像を撮影する。移動型カメラ50は、例えば、コップ100の周囲を自走することにより、コップ100との相対的な位置関係を変えることができる。なお、ここでは、撮影装置が移動型カメラ50である場合について説明しているが、1台のカメラを移動させる方法は自走するものに限られるものではない。例えば、人が手に持って移動する携帯型のカメラであってもよく、ロボットに装着してロボットとともに移動するカメラであってもよい。また、撮影装置である移動型カメラ50と画像処理システム1との間のデータの送受信については、図1には無線で送受信する場合が示されているが、移動型カメラ50と画像処理システム1は有線でデータを送受信してもよく、公衆回線を介してデータを送受信してもよい。さらに、図1には、画像処理システム1が移動型カメラ50の外部にある場合が示されているが、画像処理システム1は移動型カメラ50の中に組み込まれてもよい。 The mobile camera 50 is a camera mounted on a moving object that is operated by remote control. FIG. 1 shows a case where the mobile camera 50 runs on caterpillars, but the running means may be wheels or legs other than caterpillars. The mobile camera 50 changes the relative positional relationship with the glass 100 and takes an image. The mobile camera 50 can change its relative positional relationship with the glass 100 by, for example, self-propelled around the glass 100 . Here, a case where the photographing device is the mobile camera 50 is described, but the method of moving one camera is not limited to self-propelled. For example, it may be a portable camera that is held by a person and moved, or a camera that is attached to a robot and moves with the robot. As for the transmission and reception of data between the mobile camera 50 as a photographing device and the image processing system 1, FIG. may transmit and receive data by wire, or may transmit and receive data via a public line. Furthermore, although FIG. 1 shows the image processing system 1 being external to the mobile camera 50 , the image processing system 1 may be incorporated within the mobile camera 50 .

移動型カメラ50が第1の位置で撮影した画像が第1画像201であり、第2の位置で撮影した画像が第2画像202である。移動型カメラ50は、第1の位置の座標(x1,y1)及び第2の位置の座標(x2,y2)を画像処理システム1に送信する機能を有する構成を採ることができる。それに対し、画像処理システム1は、第1の位置の座標(x1,y1)及び第2の位置の座標(x2,y2)を受け取って、画像処理にこのような位置データを用いる構成を採ることができる。画像処理システム1は、第1画像201及び第2画像202などの異なる複数の視点から撮影した画像データと、第1の位置の座標(x1,y1)及び第2の位置の座標(x2,y2)などの視点の位置データとを使って、コップ100などの対象の図面を作成する構成を採ることができる。なお、移動型カメラ50が自身の位置を計測する方法として、ここではGPS(グローバルポジショニングシステム)が用いられるが、撮影位置を計測する方法はGPSには限られず、例えば予め走行位置と撮影位置をプログラミングする方法または自己位置推定(カメラ位置)と対象の位置を同時に行うSLAMの手法を用いてもよい。 An image captured by the mobile camera 50 at the first position is the first image 201 , and an image captured at the second position is the second image 202 . The mobile camera 50 can adopt a configuration having a function of transmitting the coordinates (x1, y1) of the first position and the coordinates (x2, y2) of the second position to the image processing system 1 . On the other hand, the image processing system 1 receives the coordinates (x1, y1) of the first position and the coordinates (x2, y2) of the second position, and uses such position data for image processing. can be done. The image processing system 1 processes image data captured from a plurality of different viewpoints such as the first image 201 and the second image 202, the coordinates of the first position (x1, y1) and the coordinates of the second position (x2, y2 ) and the viewpoint position data such as ) to create a drawing of an object such as the cup 100 . As a method for the mobile camera 50 to measure its own position, GPS (Global Positioning System) is used here, but the method for measuring the photographing position is not limited to GPS. A programming method or a SLAM technique that performs self-localization (camera position) and target position simultaneously may be used.

認識部20は、取得した第1画像201及び第2画像202において、鏡面反射成分を認識する。例えば、図2A及び図2Bの第1画像201及び第2画像202において鏡面反射している箇所が第1箇所211、第2箇所212、第3箇所213及び第4箇所214である。認識部20は、これら第1箇所211~第4箇所214を認識する。 The recognition unit 20 recognizes specular reflection components in the acquired first image 201 and second image 202 . For example, in the first image 201 and the second image 202 of FIGS. 2A and 2B, the specularly reflected portions are the first portion 211, the second portion 212, the third portion 213, and the fourth portion 214. FIG. The recognition unit 20 recognizes these first to fourth locations 211 to 214 .

検出部30は、認識部20の認識結果を用いて、視点の違いに基づく第1画像201と第2画像202の違いを検出する。視点の違いに基づく第1画像201と第2画像202の違いは、例えば、第1画像201では文字「A」の一部が欠けて撮影されているのに対して第2画像202では文字「A」が全て撮影されていることである。他の違いとしては、例えば、コップ100の把手110の向きが第1画像201と第2画像202で異なる点が挙げられる。画像処理システム1は、これらの違いに基づく画像処理により、例えば、コップ100の図面に文字「A」及び把手110を書き込むことができる。 The detection unit 30 uses the recognition result of the recognition unit 20 to detect the difference between the first image 201 and the second image 202 based on the difference in viewpoint. The difference between the first image 201 and the second image 202 based on the difference in viewpoint is that, for example, the first image 201 is captured with a part of the character "A" missing, while the second image 202 is captured with the character " A” is all captured. Another difference is, for example, that the orientation of the handle 110 of the cup 100 differs between the first image 201 and the second image 202 . The image processing system 1 can write, for example, the letter “A” and the handle 110 on the drawing of the cup 100 by image processing based on these differences.

検出部30は、例えば、鏡面反射成分を除去または減少させるために、認識部20の認識結果を用いる。あるいは、検出部30は、例えば、鏡面反射成分以外の成分を強調または鏡面反射成分以外の成分のみを抽出するために、認識部20の認識結果を用いる。鏡面反射成分を除去することで、画像処理システム1は、例えば、図3A及び図3Bに示されている第1修正画像203と第2修正画像204を示すデータを得ることができる。 The detection unit 30 uses the recognition result of the recognition unit 20, for example, to remove or reduce the specular reflection component. Alternatively, the detection unit 30 uses the recognition result of the recognition unit 20, for example, to emphasize components other than specular reflection components or extract only components other than specular reflection components. By removing the specular component, the image processing system 1 can obtain data representing, for example, the first modified image 203 and the second modified image 204 shown in FIGS. 3A and 3B.

鏡面反射している箇所である第1箇所211と第3箇所213を比較すると、第1箇所211が文字「C」上に位置するのに対し、第3箇所213が文字「B」上に位置する。このように、鏡面反射する場所が、視点と光源と対象との位置関係の変化に伴って変化する。同様に、把手110での反射に係る第2箇所212と第4箇所214も視点の移動に伴って移動する。このように鏡面反射する場所が視点の位置によって違ってくると、例えばコップ100の図面を作成した場合には、図面上の誤差を生じさせる。それに対し、図3A及び図3Bに示されている第1修正画像203と第2修正画像204を示すデータを用いて、例えばコップ100の図面を作成した場合には、前述の図面上の誤差を除去することができる。このように、検出部30が認識部20の認識結果を用いて視点の違いに基づく第1画像201と第2画像202の違いを検出することで、画像処理システム1は、対象の画像の処理における鏡面反射による誤差を低減することができる。 Comparing the first point 211 and the third point 213, which are specularly reflected points, the first point 211 is positioned on the character "C", while the third point 213 is positioned on the character "B". do. In this way, the location of specular reflection changes as the positional relationship between the viewpoint, the light source, and the object changes. Similarly, the second location 212 and the fourth location 214 related to reflection on the handle 110 also move along with the movement of the viewpoint. If the position of specular reflection differs depending on the position of the viewpoint, for example, when a drawing of the cup 100 is created, an error will occur in the drawing. On the other hand, if a drawing of, for example, the cup 100 is created using the data representing the first corrected image 203 and the second corrected image 204 shown in FIGS. can be removed. In this way, the detection unit 30 uses the recognition result of the recognition unit 20 to detect the difference between the first image 201 and the second image 202 based on the difference in viewpoint, so that the image processing system 1 can process the target image. It is possible to reduce errors due to specular reflection in

情報生成部40は、検出部30の検出結果に基づいて、対象の幾何学的な情報、対象の光学的な情報、あるいは、対象を照らす光源の情報を生成する。対象の幾何学的な情報とは、例えば、物の形状、あるいはシーンの3Dマッピングに関する情報である。対象の光学的な情報とは、例えば、対象物の反射特性に関する情報である。対象を照らす光源の情報とは、例えば、光源の向いている方向及び位置のうちの少なくとも一方に関する情報である。 The information generation unit 40 generates geometric information of the object, optical information of the object, or information of the light source that illuminates the object based on the detection result of the detection unit 30 . Object geometric information is, for example, information about the shape of an object or a 3D mapping of a scene. The optical information of the object is, for example, information about the reflective properties of the object. The information about the light source that illuminates the object is, for example, information about at least one of the direction and position of the light source.

画像処理システム1は、例えばコンピュータにより実現されるものである。画像処理システム1は、例えば制御演算装置(図示せず)と記憶装置(図示せず)で構成される。制御演算装置には、CPU又はGPUといったプロセッサを使用できる。制御演算装置は、記憶装置に記憶されているプログラムを読み出し、このプログラムに従って所定の画像処理や演算処理を行う。さらに、制御演算装置は、プログラムに従って、演算結果を記憶装置に書き込んだり、記憶装置に記憶されている情報を読み出したりすることができる。図1は、制御演算装置により実現される各種の機能ブロックを示している。記憶装置は、データベースとして用いることができる。 The image processing system 1 is realized by, for example, a computer. The image processing system 1 is composed of, for example, a control arithmetic device (not shown) and a storage device (not shown). A processor, such as a CPU or a GPU, can be used for the control computing unit. The control arithmetic device reads a program stored in the storage device and performs predetermined image processing and arithmetic processing according to the program. Furthermore, the control arithmetic unit can write the arithmetic result to the storage device and read the information stored in the storage device according to the program. FIG. 1 shows various functional blocks implemented by the control arithmetic unit. A storage device can be used as a database.

(2)詳細構成
(2-1)天井裏での計測について
改築や増築を行ったり設備を更新したりする際に、運び込める部品のサイズ、工事の際に他の設備が邪魔にならないかといったことを事前に知る目的で、設計図を作るために図面から作ることがある。このような図面を作るために行われる建物の計測について説明する。
(2) Detailed configuration (2-1) Regarding measurement in the ceiling When renovating, expanding, or updating equipment, the size of parts that can be brought in, and whether other equipment will get in the way during construction For the purpose of knowing things in advance, we sometimes make from drawings to make blueprints. The measurement of the building performed to make such a drawing will be explained.

特に、建物の天井裏については、例えばエアコンの冷媒配管を交換するケースなどが考えられる。このような天井裏の工事の際に建物の計測が必要となる場合が多い。しかし、天井裏の計測は専門の技術者によって人手と時間をかけて行われているため高コストであるという問題がある。 In particular, in the space above the ceiling of a building, for example, a case of replacing a refrigerant pipe of an air conditioner can be considered. In many cases, it is necessary to measure the building during such construction work in the attic space. However, there is a problem that the measurement of the space above the ceiling is expensive because it is performed by a professional engineer, taking a lot of manpower and time.

このような問題を解決するための方法としてロボット等によってセンサを用いた計測を行うという方法が考えられるが、天井裏はセンサを用いた計測が難しい。例えば光学的な計測の場合には、図4及び図5のように配管310,320等の金属が光を反射し,金属面で鏡面反射が起こり、見た目が大きく変化するためにステレオ視に基づく形状計測が困難である。また、電波を用いた計測の場合には,鉄筋やコンクリートが電波を阻害する問題が発生する。 As a method for solving such a problem, a method of performing measurement using a sensor using a robot or the like is conceivable, but it is difficult to perform measurement using a sensor in the space above the ceiling. For example, in the case of optical measurement, metals such as pipes 310 and 320 reflect light as shown in FIGS. Shape measurement is difficult. Moreover, in the case of measurement using radio waves, there is a problem that reinforcing bars and concrete block radio waves.

本開示では,金属の反射等の問題を解決し、天井裏のような環境でも機能する光学的計測技術を示している。具体的には,偏光カメラを用いて鏡面反射の成分を計算し、鏡面反射を除去した画像を生成してそれを用いて特徴点対応を実行することで複数視点での物体の対応付けを目指す。 This disclosure presents an optical metrology technique that solves problems such as metal reflections and works in environments such as ceiling spaces. Specifically, we calculate the component of specular reflection using a polarization camera, generate an image with the specular reflection removed, and use it to perform feature point correspondence, aiming at matching objects from multiple viewpoints. .

(2-2)偏光カメラを用いた計測手法
天井裏の鏡面反射を除去するために,偏光カメラを使う方法について説明する。鏡面反射は物体表面で即反射するのに対し、拡散反射は物体の屈折率が不均一であるため乱反射する。この違いにより,鏡面反射光は図6のように偏光角により強さが異なるが、拡散反射光は偏光角によらず強さが均一な非偏光となる。そのため、鏡面反射の偏光角、強さといった偏光情報を算出できれば、鏡面反射と拡散反射の成分を分離することができ、鏡面反射を除去できる。偏光カメラは画素の前にいくつかの角度の偏光板60が入っているため、これを用いれば鏡面反射の偏光情報を算出できる。
(2-2) Measurement method using a polarizing camera A method using a polarizing camera to remove the specular reflection in the ceiling will be explained. In specular reflection, light is reflected immediately on the surface of an object, while in diffuse reflection, light is diffusely reflected because the refractive index of the object is non-uniform. Due to this difference, the intensity of the specularly reflected light varies depending on the polarization angle as shown in FIG. 6, but the diffusely reflected light is non-polarized with uniform intensity regardless of the polarization angle. Therefore, if polarization information such as the polarization angle and intensity of specular reflection can be calculated, the components of specular reflection and diffuse reflection can be separated, and the specular reflection can be removed. Since the polarization camera has polarizers 60 at several angles in front of the pixels, this can be used to calculate the polarization information of the specular reflection.

(2-2-1)偏光カメラ
偏光カメラは図7Aのように0度、45度、90度、135度の方向に偏光板61,62,63,64が張られた画素の組を持ち、特定方向に振動する光のみを得ることができる。これを用いることで偏光情報を算出して鏡面反射を除去できる。図7Bには、偏光板61,62,63,64が張られた4つの画素の組とRGBとの関係が示されている。
(2-2-1) Polarization Camera The polarization camera has a set of pixels with polarizing plates 61, 62, 63, and 64 stretched in the directions of 0, 45, 90, and 135 degrees as shown in FIG. 7A. Only light vibrating in a specific direction can be obtained. By using this, it is possible to calculate the polarization information and remove the specular reflection. FIG. 7B shows the relationship between a set of four pixels with polarizing plates 61, 62, 63, and 64 and RGB.

(2-2-2)偏光情報の計算
(2-2-2-1)偏光角と光の強さに関する仮定
まず、角度によらない非偏光の拡散反射成分と、角度によって周期的に変化している鏡面反射成分の2つのみを持っているものと仮定すると、0度と180度が同一の状態であることから以下の式(1)で各画素のRGB値を表すことができ、図8のように偏光角と光の強さの関係を表すことができる。

Figure 0007319527000001
(2-2-2) Calculation of polarization information (2-2-2-1) Assumptions about polarization angle and light intensity Assuming that the image has only two specular reflection components, since 0 degrees and 180 degrees are the same state, the RGB values of each pixel can be expressed by the following equation (1). As shown in 8, the relationship between the polarization angle and the light intensity can be expressed.
Figure 0007319527000001

また、この仮定から、0度、45度、90度、135度の4種類の画素のRGB値I0,I45,I90,I135について、それぞれ式(2)、式(3)、式(4)及び式(5)の関係を定めることができる。

Figure 0007319527000002
Further, from this assumption, the RGB values I0 , I45 , I90, and I135 of four types of pixels of 0 degrees, 45 degrees, 90 degrees, and 135 degrees are obtained by the following equations (2), (3), and (4) and (5) can be defined.
Figure 0007319527000002

グラフ中の最低値Iminは、Ib-Ia,最大値ImaxはIb+Iaに相当する。また、偏光角によって変動している成分であるImax-Iminが鏡面反射成分、逆に偏光角によらない成分であるIminが拡散反射成分に相当する。 The minimum value I min in the graph corresponds to I b −I a , and the maximum value I max corresponds to I b +I a . Also, the component I max -I min that varies with the polarization angle corresponds to the specular reflection component, and conversely, the component I min that does not depend on the polarization angle corresponds to the diffuse reflection component.

(2-2-2-2)画素のRGB値を用いたIa,Ibの導出過程
鏡面反射を除いた成分を算出するにはIb,Iaを算出する必要がある。まず、cos(2θ+180)=-cos(2θ)から、式(6)が導かれる。

Figure 0007319527000003
(2-2-2-2) Process of deriving I a and I b using RGB values of pixels In order to calculate components excluding specular reflection, it is necessary to calculate I b and I a . First, equation (6) is derived from cos(2θ+180)=−cos(2θ).
Figure 0007319527000003

cos(2θ+90)=-sin(2θ),cos(2θ+270)=sin(2θ)から、式(7)が導かれる。

Figure 0007319527000004
Equation (7) is derived from cos(2θ+90)=−sin(2θ) and cos(2θ+270)=sin(2θ).
Figure 0007319527000004

従って以下の式(8)でIaを求めることができる。

Figure 0007319527000005
Therefore, Ia can be obtained by the following equation (8).
Figure 0007319527000005

また、cos(2θ),cos(2θ+90),cos(2θ+180),cos(2θ+270)は全て足すとθがどんな値でも0になるため,以下の式(9)でIbを求めることができる。

Figure 0007319527000006
Also, since the sum of cos (2θ), cos (2θ+90), cos (2θ+180), and cos (2θ+270) is 0 regardless of the value of θ, Ib can be obtained by the following equation (9).
Figure 0007319527000006

(2-2-2-3)偏光情報を用いた鏡面反射の除去方法
上述の(2-2-2-2)で示した方法でIa,Ibを求めたら、それを用いて鏡面反射を除いた成分Iminを計算することで鏡面反射を除去した成分を求める。IminはIb-Iaに等しいため、Ib-Iaを画素のRGB値として画像を生成すれば、図9A、図9B及び図9Cを比較して分かるように、あるいは図10A、図10B及び図10Cを比較して分かるように鏡面反射を除去した画像を得られる。そして図11A及び図11Bを比較して分かるように鏡面反射によって特徴点対応の精度を上げることができる。
(2-2-2-3) Method for removing specular reflection using polarization information After obtaining I a and I b by the method shown in (2-2-2-2) above, specular reflection is used A component from which the specular reflection is removed is obtained by calculating the component I min excluding . Since I min is equal to I b −I a , if an image is generated with I b −I a being the RGB value of the pixel, as can be seen by comparing FIGS. 9A, 9B and 9C, or FIG. As can be seen by comparing 10B and 10C, an image with specular reflection removed is obtained. As can be seen by comparing FIGS. 11A and 11B, specular reflection can improve the accuracy of feature point correspondence.

(2-2-3)RGB値の飽和への対策
カメラが対応できる輝度範囲は限られており、実世界の全ての明るさを表現することはできない。このため、対応できる範囲外の輝度が画像内に存在した場合、画素の値は常に最小または最大になる。従って画素の値が最大の場合、実世界における輝度と画素の値を対応付けることができず、鏡面反射の除去に失敗するという問題がある。この問題を解決するために高ダイナミック・レンジ(HDR)画像を用いるという方法がある。
(2-2-3) Measures against Saturation of RGB Values A camera has a limited luminance range and cannot express all the brightness in the real world. Therefore, if there is an out-of-range luminance in the image, the pixel value will always be the minimum or maximum. Therefore, when the pixel value is the maximum, there is a problem that the brightness cannot be associated with the pixel value in the real world, and specular reflection cannot be removed. One way to solve this problem is to use high dynamic range (HDR) images.

HDR画像を取得する方法としては、例えば、対象を照らす光源の照度を変えて複数回ずつ複数の画像を各視点で取得する方法がある。他のHDR画像を取得する方法としては、例えば、移動型カメラ50のシャッタースピードを各視点で複数回変えて、各視点で複数の画像を取得する方法がある。 As a method of acquiring HDR images, for example, there is a method of acquiring a plurality of images at each viewpoint a plurality of times by changing the illuminance of the light source that illuminates the object. As another method of acquiring HDR images, for example, there is a method of acquiring multiple images at each viewpoint by changing the shutter speed of the mobile camera 50 multiple times at each viewpoint.

(2-3)空間モデルの構築
空間モデルの構築により、例えば図面を作成することができる。天井裏の空間モデルを構築すれば、天井裏の図面を作成することができる。異なる複数の視点から撮影した対象の複数の画像をもとにステレオ視の考え方を用いて空間モデルを構築することができるように、画像処理システム1を構成することができる。例えば、画像処理システム1は、SLAM技術を使用し、異なる複数の視点から撮影した対象の複数の画像をもとに、移動型カメラ50自体の移動位置を推測するとともに、空間モデルを構築する構成を採ることができる。例えば、移動型カメラ50が天井裏を自走して天井裏の複数の画像を画像処理システム1に送信し、画像処理システム1が移動型カメラ50から受信した天井裏の複数視点から撮影した画像を受信する。天井裏の複数視点から撮影した複数の画像から、画像処理システム1は、SLAM技術を使って天井裏の空間モデルを構築する。
(2-3) Construction of Spatial Model By constructing the spatial model, for example, a drawing can be created. A drawing of the ceiling space can be created by constructing the space model of the ceiling space. The image processing system 1 can be configured so that a spatial model can be constructed using the concept of stereoscopic vision based on a plurality of images of an object photographed from a plurality of different viewpoints. For example, the image processing system 1 uses SLAM technology to estimate the movement position of the mobile camera 50 itself based on a plurality of images of an object taken from a plurality of different viewpoints, and constructs a space model. can be taken. For example, the mobile camera 50 self-runs in the ceiling space and transmits a plurality of images of the ceiling space to the image processing system 1, and the image processing system 1 receives images of the ceiling space from multiple viewpoints received from the mobile camera 50. receive. The image processing system 1 constructs a space model of the ceiling space using SLAM technology from a plurality of images of the ceiling space photographed from multiple viewpoints.

(3)変形例
(3-1)変形例1A
上記実施形態では、異なる複数の視点から撮影する撮影装置に、同一の撮影装置である移動型カメラ50を用いる場合について説明した。しかし、異なる複数の視点から撮影する撮影装置は、移動型カメラ50に限られるものではない。異なる複数の視点から撮影する撮影装置は、例えば、異なる場所に設置された複数の撮影装置であってもよい。このような複数の撮影装置として、例えば、図12に示されているような第1カメラ51と第2カメラ52からなるステレオカメラを用いることができる。
(3) Modification (3-1) Modification 1A
In the above embodiment, the case where the mobile camera 50, which is the same image capturing device, is used as the image capturing device for capturing images from a plurality of different viewpoints has been described. However, the photographing device for photographing from a plurality of different viewpoints is not limited to the mobile camera 50 . The imaging devices that capture images from a plurality of different viewpoints may be, for example, a plurality of imaging devices installed at different locations. As such a plurality of photographing devices, for example, a stereo camera composed of a first camera 51 and a second camera 52 as shown in FIG. 12 can be used.

(3-2)変形例1B
上記実施形態では、検出部30が偏光カメラで撮影された画像を用いることで鏡面反射成分を低減させる方法について説明した。偏光カメラを用いて鏡面反射成分を低減させる方法は、画像の補正によって鏡面反射成分を低減させる方法の一例である。画像の補正には、例えば、鏡面反射成分を差し引く方法がある。しかし、対象の画像の処理における鏡面反射による誤差を低減する方法は、画像の補正による方法には限られない。
(3-2) Modification 1B
In the above-described embodiment, a method has been described in which the detection unit 30 uses an image captured by a polarization camera to reduce the specular reflection component. A method of reducing the specular reflection component using a polarization camera is an example of a method of reducing the specular reflection component by image correction. Image correction includes, for example, a method of subtracting specular reflection components. However, the method of reducing errors due to specular reflection in processing an image of a target is not limited to image correction.

画像の補正以外の方法としては、例えば、画像の中の鏡面反射が生じている箇所をマスキングする方法がある。画像のマスキングは、例えば、マスク信号などによって、特徴部分の抽出において鏡面反射の生じている箇所を無視するまたは鏡面反射の生じている箇所の重み(影響)を小さくする方法である。また、他の方法としては、例えば、鏡面反射が生じている箇所を除去して(画像の一部除去を行って)、鏡面反射が生じていない箇所のみを画像処理に用いる方法がある。 As a method other than correcting the image, for example, there is a method of masking a portion where specular reflection occurs in the image. Image masking is, for example, a method of ignoring locations where specular reflection occurs or reducing the weight (influence) of locations where specular reflection occurs in extracting characteristic portions, using a mask signal or the like. As another method, for example, there is a method of removing portions where specular reflection occurs (performing partial removal of the image) and using only portions where specular reflection does not occur for image processing.

(3-3)変形例1C
上記実施形態では、画像取得部10が、偏光カメラで異なる複数の視点から撮影した対象の画像を取得する場合について説明した。しかし、画像を取得する方法は、偏光カメラを用いる場合には限られない。例えば、ライトフィールドカメラで撮影された画像を、画像取得部10が、異なる複数の視点から撮影した対象の画像として取得するように構成してもよい。
(3-3) Modification 1C
In the above embodiment, the case where the image acquisition unit 10 acquires the images of the target photographed from a plurality of different viewpoints with the polarization camera has been described. However, the method of acquiring images is not limited to using a polarization camera. For example, the image acquisition unit 10 may acquire images captured by a light field camera as images of a target captured from a plurality of different viewpoints.

また、画像を取得する際に対象に当たる光の条件及び移動型カメラ50の受光条件のうちの少なくとも一方を変えて撮影してもよい。画像取得部10は、各視点において、対象を照らす光源の照度を変えて撮影された複数の画像、シャッタースピードを変えて撮影された複数の画像、あるいは、対象を照らす光源の色を変えて撮影された複数の画像、を取得する構成を採ることもできる。対象を照らす光源の照度及びシャッタースピードを変える場合には、既に説明したようにHDR画像を撮影することができる。また、光源の色を変える場合は、鏡面反射と拡散反射とで色に対する性質が異なることから鏡面反射を分離し易くなる。 In addition, when acquiring an image, at least one of the conditions of the light striking the object and the light receiving conditions of the mobile camera 50 may be changed. The image acquisition unit 10 captures a plurality of images captured by changing the illuminance of the light source that illuminates the object, a plurality of images captured by changing the shutter speed, or a plurality of images captured by changing the color of the light source that illuminates the object at each viewpoint. It is also possible to adopt a configuration that acquires a plurality of images obtained by scanning. When changing the illuminance of the light source illuminating the object and the shutter speed, an HDR image can be captured as already described. In addition, when the color of the light source is changed, specular reflection and diffuse reflection have different properties with respect to color, so it becomes easier to separate the specular reflection.

(4)特徴
(4-1)
上記実施形態の画像処理システム1は、認識部20により認識された鏡面反射成分を用いながら検出部30において視点の違いに基づく第1画像201と第2画像202との違いの検出を行うことができる。その結果、画像処理システム1は、対象の画像の処理における鏡面反射による誤差の低減が可能になる。
(4) Features (4-1)
The image processing system 1 of the above embodiment can detect the difference between the first image 201 and the second image 202 based on the difference in viewpoint in the detection unit 30 while using the specular reflection component recognized by the recognition unit 20. can. As a result, the image processing system 1 is enabled to reduce errors due to specular reflection in the processing of images of objects.

(4-2)
上記実施形態または変形例で説明したように、画像処理システム1は、鏡面反射成分に基づいて画像の補正、画像のマスキング、あるいは画像の一部除去を検出部が行うことができる。画像処理システム1は、このような処置により、視点の違いに基づく第1画像と第2画像との違いの検出時の鏡面反射成分による誤差について、鏡面反射成分の影響を低減することができる。その結果、画像処理システム1は、対象の画像の処理における鏡面反射による誤差を低減することができる。
(4-2)
As described in the above embodiment or modified example, the image processing system 1 allows the detection unit to perform image correction, image masking, or image partial removal based on the specular reflection component. With such measures, the image processing system 1 can reduce the effect of the specular reflection component on the error due to the specular reflection component when detecting the difference between the first image and the second image based on the difference in viewpoint. As a result, the image processing system 1 can reduce errors due to specular reflection in processing the image of the object.

(4-3)
上記実施形態で説明したように、画像処理システム1は、各視点において偏光板を通して画像を撮影することにより、各視点における偏光角及び光の強さから鏡面反射成分を認識し、鏡面反射成分を簡単に低減することができる。偏光カメラを用いることによって特定の方向(上記実施形態では4方向)に振動する光のみを取得することができるため、その情報から鏡面反射の成分を計算することができる。鏡面反射成分を除去した画像を取得することで鏡面反射に強い特徴点対応を実現することができる。これによって鏡面反射が見られる物体の特徴点対応の精度が向上する。
(4-3)
As described in the above embodiment, the image processing system 1 captures an image through a polarizing plate at each viewpoint, recognizes the specular reflection component from the polarization angle and light intensity at each viewpoint, and recognizes the specular reflection component. can be easily reduced. By using a polarizing camera, it is possible to acquire only light vibrating in specific directions (four directions in the above embodiment), so that specular reflection components can be calculated from that information. By acquiring an image from which specular reflection components are removed, it is possible to realize feature point correspondence that is resistant to specular reflection. This improves the accuracy of correspondence of feature points of objects with specular reflections.

(4-4)
画像処理システム1は、ライトフィールドカメラの使用、光源の照度の変更、シャッタースピードの変更、あるいは光源の色の変更により、鏡面反射成分を容易に認識することができる。
(4-4)
The image processing system 1 can easily recognize the specular reflection component by using a light field camera, changing the illuminance of the light source, changing the shutter speed, or changing the color of the light source.

(4-5)
画像処理システム1は、同一撮影装置で撮影する場合には撮影装置の台数が少なくて済む。例えば、上述の実施形態では、撮影装置が1台の移動型カメラ50または1台の携帯型カメラのみで済む。異なる場所に設置された複数の撮影装置で撮影する場合には、撮影装置の位置の特定が容易になる。
(4-5)
In the image processing system 1, the number of photographing devices can be reduced when the same photographing device is used for photographing. For example, in the above-described embodiments, only one mobile camera 50 or one portable camera is required as an imaging device. When photographing with a plurality of photographing devices installed at different locations, it becomes easy to specify the positions of the photographing devices.

(4-6)
画像処理システム1の情報生成部40は、対象の幾何学的な情報、対象の光学的な情報、あるいは、対象を照らす光源の情報について、視点の違う第1画像と第2画像により、情報を豊富化することができる。情報生成部40は、例えば、物の形状、あるいはシーンの3Dマッピングに関する情報を生成することができる。情報生成部40は、例えば、対象物の反射特性に関する情報を生成することができる。また、情報生成部40は、例えば、光源の向いている方向及び位置のうちの少なくとも一方に関する情報を生成することができる。
(4-6)
The information generating unit 40 of the image processing system 1 generates information about the geometric information of the object, the optical information of the object, or the information of the light source that illuminates the object by using the first image and the second image from different viewpoints. can be enriched. The information generator 40 can generate, for example, information about the shape of objects or 3D mapping of a scene. The information generator 40 can generate, for example, information about the reflection properties of the object. In addition, the information generator 40 can generate information about at least one of the direction and position of the light source, for example.

以上、本開示の実施形態を説明したが、特許請求の範囲に記載された本開示の趣旨及び範囲から逸脱することなく、形態や詳細の多様な変更が可能なことが理解されるであろう。 Although embodiments of the present disclosure have been described above, it will be appreciated that various changes in form and detail may be made without departing from the spirit and scope of the present disclosure as set forth in the appended claims. .

1 画像処理システム
10 画像取得部
20 認識部
30 検出部
40 情報生成部
50 移動型カメラ(撮影装置の例)
51 第1カメラ(撮影装置の例)
52 第2カメラ(撮影装置の例)
1 image processing system 10 image acquisition unit 20 recognition unit 30 detection unit 40 information generation unit 50 mobile camera (example of imaging device)
51 First camera (example of imaging device)
52 Second camera (example of imaging device)

Luwei Yang, Feitong Tan, Ao Li, Zhaopeng Cui, Yasutaka Furukawa, and Ping,“Polarimetric Dense Monocular SLAM”,IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2018.Luwei Yang, Feitong Tan, Ao Li, Zhaopeng Cui, Yasutaka Furukawa, and Ping,“Polarimetric Dense Monocular SLAM”,IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2018.

Claims (6)

異なる複数の視点から撮影した対象の画像を取得する、画像取得部(10)と、
取得した画像である第1画像及び第2画像において、鏡面反射成分を認識する、認識部(20)と、
前記認識部の認識結果を用いて、視点の違いに基づく前記第1画像と前記第2画像との違いを検出する、検出部(30)と、
を備え、
前記検出部によって画像の違いを検出して、異なる複数の視点から撮影した対象の複数の画像をもとにステレオ法により空間モデルを構築するように構成されている、画像処理システム(1)。
an image acquisition unit (10) for acquiring images of an object photographed from a plurality of different viewpoints;
a recognition unit (20) for recognizing a specular reflection component in the first image and the second image, which are acquired images;
a detection unit (30) that detects a difference between the first image and the second image based on the difference in viewpoint using the recognition result of the recognition unit;
with
An image processing system (1) configured to construct a spatial model by a stereo method based on a plurality of images of an object photographed from a plurality of different viewpoints by detecting differences in images by the detection unit.
前記検出部は、前記認識部が認識した鏡面反射成分に基づいて、画像の補正、画像のマスキング、あるいは画像の一部除去、を行って、視点の違いに基づく前記第1画像と前記第2画像との違いを検出する、
請求項1記載の画像処理システム(1)。
The detection unit performs image correction, image masking, or partial removal of the image based on the specular reflection component recognized by the recognition unit to obtain the first image and the second image based on the difference in viewpoint. Detect differences with images,
Image processing system (1) according to claim 1.
前記画像取得部は、各視点において、偏光板(60~64)を有する偏光カメラによって撮影された画像を取得し、
前記認識部は、偏光角及び光の強さに基づいて、鏡面反射成分を認識する、
請求項1または請求項2に記載の画像処理システム(1)。
The image acquisition unit acquires an image captured by a polarization camera having polarizing plates (60 to 64) at each viewpoint,
the recognition unit recognizes the specular reflection component based on the polarization angle and the light intensity;
An image processing system (1) according to claim 1 or claim 2.
前記画像取得部は、各視点において、ライトフィールドカメラによって撮影された画像、対象を照らす光源の照度を変えて撮影された複数の画像、シャッタースピードを変えて撮影された複数の画像、あるいは、対象を照らす光源の色を変えて撮影された複数の画像、を取得する、
請求項1から3のいずれか一項に記載の画像処理システム(1)。
The image acquisition unit obtains, at each viewpoint, an image captured by a light field camera, a plurality of images captured by changing the illuminance of the light source illuminating the target, a plurality of images captured by changing the shutter speed, or a target Obtaining multiple images, taken with different colors of the light source illuminating the
An image processing system (1) according to any one of claims 1-3.
前記画像取得部は、同一の撮影装置が異なる場所で撮影した対象の画像、あるいは、異なる場所に設置された複数の撮影装置が撮影した対象の画像、を取得する、
請求項1から4のいずれか一項に記載の画像処理システム(1)。
The image acquisition unit acquires images of a target captured by the same imaging device at different locations, or images of a target captured by a plurality of imaging devices installed at different locations.
An image processing system (1) according to any one of claims 1 to 4.
前記検出部の検出結果に基づいて、対象の幾何学的な情報、対象の光学的な情報、あるいは、対象を照らす光源の情報を生成する、情報生成部(40)、
をさらに備える、
請求項1から5のいずれか一項に記載の画像処理システム(1)。
an information generation unit (40) that generates geometric information of a target, optical information of a target, or information of a light source that illuminates the target based on the detection result of the detection unit;
further comprising
An image processing system (1) according to any one of claims 1 to 5.
JP2019096093A 2019-05-22 2019-05-22 Image processing system Active JP7319527B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019096093A JP7319527B2 (en) 2019-05-22 2019-05-22 Image processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019096093A JP7319527B2 (en) 2019-05-22 2019-05-22 Image processing system

Publications (2)

Publication Number Publication Date
JP2020190943A JP2020190943A (en) 2020-11-26
JP7319527B2 true JP7319527B2 (en) 2023-08-02

Family

ID=73453724

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019096093A Active JP7319527B2 (en) 2019-05-22 2019-05-22 Image processing system

Country Status (1)

Country Link
JP (1) JP7319527B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005346348A (en) 2004-06-02 2005-12-15 Matsushita Electric Ind Co Ltd Image processing method, device, and program
JP2019022147A (en) 2017-07-20 2019-02-07 セコム株式会社 Light source direction estimation device
JP2019070886A (en) 2017-10-06 2019-05-09 キヤノン株式会社 Image processing device, imaging device, and image processing method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005346348A (en) 2004-06-02 2005-12-15 Matsushita Electric Ind Co Ltd Image processing method, device, and program
JP2019022147A (en) 2017-07-20 2019-02-07 セコム株式会社 Light source direction estimation device
JP2019070886A (en) 2017-10-06 2019-05-09 キヤノン株式会社 Image processing device, imaging device, and image processing method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Michael W. Tao et al.,Depth Estimation and Specular Removal for Glossy Surfaces Using Point and Line Consistency with Light-Field Cameras,IEEE Transactions on Pattern Analysis and Machine Intelligence Volume 38, Issue 6,2016年06月01日,https://ieeexplore.ieee.org/document/7254196/

Also Published As

Publication number Publication date
JP2020190943A (en) 2020-11-26

Similar Documents

Publication Publication Date Title
JP3859574B2 (en) 3D visual sensor
US10068344B2 (en) Method and system for 3D capture based on structure from motion with simplified pose detection
US8437537B2 (en) Method and system for estimating 3D pose of specular objects
JP6897563B2 (en) Image processing equipment and image processing methods and programs
JP5671281B2 (en) Position / orientation measuring apparatus, control method and program for position / orientation measuring apparatus
JP6271953B2 (en) Image processing apparatus and image processing method
WO2018068719A1 (en) Image stitching method and apparatus
WO2022156755A1 (en) Indoor positioning method and apparatus, device, and computer-readable storage medium
CN111879235A (en) Three-dimensional scanning detection method and system for bent pipe and computer equipment
CN106530358A (en) Method for calibrating PTZ camera by using only two scene images
JP2014013147A5 (en)
JP6515039B2 (en) Program, apparatus and method for calculating a normal vector of a planar object to be reflected in a continuous captured image
JP2016197287A (en) Information processing apparatus, information processing method, and program
CN109341591A (en) A kind of edge detection method and system based on handheld three-dimensional scanner
JP6282377B2 (en) Three-dimensional shape measurement system and measurement method thereof
KR20230065978A (en) Systems, methods and media for directly repairing planar surfaces in a scene using structured light
JP2008309595A (en) Object recognizing device and program used for it
Kruger et al. In-factory calibration of multiocular camera systems
KR20120002723A (en) Device and method for recognizing person by using 3 dimensional image information
JP5976089B2 (en) Position / orientation measuring apparatus, position / orientation measuring method, and program
JP2532985B2 (en) Three-dimensional image evaluation device
WO2005100910A1 (en) Three-dimensional shape measuring method and its equipment
KR101578891B1 (en) Apparatus and Method Matching Dimension of One Image Up with Dimension of the Other Image Using Pattern Recognition
JP7319527B2 (en) Image processing system
JP2011002292A (en) Three-dimensional fingertip position detecting method, three-dimensional fingertip position detector, and program

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20200609

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20200609

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220121

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230124

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230317

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230425

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230620

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230703

R151 Written notification of patent or utility model registration

Ref document number: 7319527

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151