JP7399160B2 - Light pattern irradiation control device and light pattern irradiation control method - Google Patents
Light pattern irradiation control device and light pattern irradiation control method Download PDFInfo
- Publication number
- JP7399160B2 JP7399160B2 JP2021520697A JP2021520697A JP7399160B2 JP 7399160 B2 JP7399160 B2 JP 7399160B2 JP 2021520697 A JP2021520697 A JP 2021520697A JP 2021520697 A JP2021520697 A JP 2021520697A JP 7399160 B2 JP7399160 B2 JP 7399160B2
- Authority
- JP
- Japan
- Prior art keywords
- irradiation
- light pattern
- image
- unit
- irradiation area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 64
- 238000003384 imaging method Methods 0.000 description 15
- 238000000605 extraction Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 230000000875 corresponding effect Effects 0.000 description 7
- 238000005259 measurement Methods 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000001276 controlling effect Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C3/00—Measuring distances in line of sight; Optical rangefinders
- G01C3/02—Details
- G01C3/06—Use of electric means to obtain final indication
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Electromagnetism (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Length Measuring Devices By Optical Means (AREA)
Description
本発明は、光パターン照射制御装置及び光パターン照射制御方法に関する。 The present invention relates to a light pattern irradiation control device and a light pattern irradiation control method.
撮影部により撮影される画像からデプスデータを生成する技術が知られている。デプスデータは、例えば、撮影される画像に表れている実空間内の各位置の、当該画像の投影面と交差する方向における位置を示す。 2. Description of the Related Art A technique for generating depth data from an image photographed by a photographing unit is known. The depth data indicates, for example, the position of each position in real space appearing in a photographed image in a direction intersecting the projection plane of the image.
床、壁、テーブルなどといった平面状の物体については、特徴点がない、あるいは、特徴点が少ないため、デプスデータの生成が一般的に困難である。このような場所でも精度の高いデプスデータが生成されるようにするため、ハイパワーのプロジェクターが、カメラの露光タイミングに同期させて、ランダムパターンや所定形状の図形のパターン等の所与の光パターンを照射する技術が存在する。 For planar objects such as floors, walls, tables, etc., it is generally difficult to generate depth data because there are no or only a few feature points. In order to generate highly accurate depth data even in such locations, a high-power projector is used to generate a given light pattern, such as a random pattern or a pattern with a predetermined shape, in synchronization with the camera's exposure timing. There is a technology to irradiate.
しかし、上記技術では、広い範囲に光パターンが照射されるため無駄な消費電力が発生していた。 However, with the above technology, the light pattern is irradiated over a wide range, resulting in wasteful power consumption.
本発明は上記実情に鑑みてなされたものであって、その目的の一つは、デプスデータを生成するための所与の光パターンの照射に係る消費電力を低減できる光パターン照射制御装置及び光パターン照射制御方法を提供することにある。 The present invention has been made in view of the above circumstances, and one of its objects is to provide a light pattern irradiation control device and a light pattern irradiation control device capable of reducing power consumption related to irradiation of a given light pattern for generating depth data. An object of the present invention is to provide a pattern irradiation control method.
上記課題を解決するために、本発明に係る光パターン照射制御装置は、撮影された画像に基づいて、当該画像の一部を占める、所与の光パターンを照射すべき照射領域を特定する照射領域特定部と、前記光パターンを、前記照射領域に表れている実空間内の場所に照射するよう照射部を制御する照射制御部と、前記光パターンが照射された場所を撮影した画像に基づいて、当該画像に表れている実空間内の各位置のデプスデータを生成するデプスデータ生成部と、を含む。 In order to solve the above problems, a light pattern irradiation control device according to the present invention provides an irradiation device that specifies, based on a photographed image, an irradiation area that occupies a part of the image and is to be irradiated with a given light pattern. an area identification unit; an irradiation control unit that controls the irradiation unit to irradiate the light pattern to a location in real space appearing in the irradiation area; and a depth data generation unit that generates depth data for each position in the real space appearing in the image.
本発明の一態様では、前記照射領域特定部は、ステレオマッチング処理の実行結果の信頼度に基づいて、前記照射領域を特定する。 In one aspect of the present invention, the irradiation area specifying unit specifies the irradiation area based on reliability of an execution result of stereo matching processing.
また、発明の一態様では、前記照射領域特定部は、撮影された画像内の複数の領域のそれぞれについて抽出される特徴点の数に基づいて、前記照射領域を特定する。 Further, in one aspect of the invention, the irradiation area specifying unit specifies the irradiation area based on the number of feature points extracted for each of a plurality of areas in a captured image.
また、本発明の一態様では、前記照射制御部は、前記照射部の位置及び向きのうちの少なくとも一方を制御する。 Further, in one aspect of the present invention, the irradiation control section controls at least one of the position and orientation of the irradiation section.
あるいは、前記照射制御部は、前記照射部に含まれる、前記光パターンを反射する反射部材の位置及び向きのうちの少なくとも一方を制御する。 Alternatively, the irradiation control section controls at least one of the position and orientation of a reflecting member included in the irradiation section that reflects the light pattern.
あるいは、前記照射部には、前記光パターンを出射する複数の発光モジュールが含まれており、前記照射制御部は、前記複数の発光モジュールのうちから、前記照射領域に表れている実空間内の場所に対応付けられる前記発光モジュールを選択し、選択される前記発光モジュールが前記光パターンを出射するよう制御する。 Alternatively, the irradiation unit includes a plurality of light-emitting modules that emit the light pattern, and the irradiation control unit selects a light emitting module from among the plurality of light-emitting modules to illuminate the area in the real space appearing in the irradiation area. The light emitting module associated with the location is selected, and the selected light emitting module is controlled to emit the light pattern.
あるいは、前記照射部は、前記照射領域に表れている実空間内の場所を一部に含む場所に対する照射を行う走査式プロジェクターを含み、前記照射制御部は、前記光パターンを、前記照射領域に表れている実空間内の場所に照射するよう前記走査式プロジェクターを制御する。 Alternatively, the irradiation unit includes a scanning projector that irradiates a location including a part of the location in real space that appears in the irradiation area, and the irradiation control unit directs the light pattern to the irradiation area. The scanning projector is controlled to illuminate a location in the displayed real space.
あるいは、前記照射部は、ロボットに搭載されており、前記照射制御部は、前記ロボットの位置及び向きのうちの少なくとも一方を制御する。 Alternatively, the irradiation unit is mounted on a robot, and the irradiation control unit controls at least one of the position and orientation of the robot.
また、本発明に係る光パターン照射制御方法は、撮影された画像に基づいて、当該画像の一部を占める、所与の光パターンを照射すべき照射領域を特定するステップと、前記光パターンを、前記照射領域に表れている実空間内の場所に照射するよう照射部を制御するステップと、前記光パターンが照射された場所を撮影した画像に基づいて、当該画像に表れている実空間内の各位置のデプスデータを生成するステップと、を含む。 Further, the light pattern irradiation control method according to the present invention includes a step of specifying, based on a photographed image, an irradiation area that occupies a part of the image and is to be irradiated with a given light pattern; , controlling an irradiation unit to irradiate a location in the real space that appears in the irradiation area; and based on an image of the location where the light pattern is irradiated, the light pattern in the real space that appears in the image. generating depth data for each position.
以下、本発明の一実施形態について、図面を参照しながら説明する。 Hereinafter, one embodiment of the present invention will be described with reference to the drawings.
図1は、本発明の一実施形態に係る光パターン照射制御装置1の構成の一例を示す図である。 FIG. 1 is a diagram showing an example of the configuration of a light pattern irradiation control device 1 according to an embodiment of the present invention.
図1に示すように、本実施形態に係る光パターン照射制御装置1には、撮影部10、デプスエンジン12、特徴抽出エンジン14、CPU(Central Processing Unit)16、ドライバ18、照射部20、が含まれる。撮影部10は、例えば、ステレオカメラであり、撮影部10には、カメラ22a、カメラ22b、ISP(Image Signal Processor)24a、及び、ISP24bが含まれる。
As shown in FIG. 1, the light pattern irradiation control device 1 according to the present embodiment includes an
本実施形態に係る撮影部10は、所定のフレームレート(例えば120fpsあるいは60fps)で、画像を撮影する。本実施形態では、カメラ22aによる画像の撮影タイミングとカメラ22bによる画像の撮影タイミングとは同期がとられており、所定のフレームレートで一対の画像が生成される。
The photographing
本実施形態に係るカメラ22a、及び、カメラ22bは、可視光と赤外光の両方を撮影可能なカメラである。ここでカメラ22a、及び、カメラ22bは、例えば、赤外光をカットするためのフィルタが外されたモノクロカメラであってもよい。あるいは、カメラ22a、及び、カメラ22bは、例えば、赤外光をカットするためのフィルタが外されたカラーカメラであってもよい。また、カメラ22a、及び、カメラ22bは、可視光用だけでなく赤外光用の画素も実装されており、可視光のデータと赤外光のデータとを分離して生成するものであってもよい。
The
撮影部10により撮影された画像は、デプスエンジン12、及び、特徴抽出エンジン14に入力される。本実施形態では、カメラ22aにより撮影された画像は、ISP24aによる画像処理が実行された上で、デプスエンジン12、及び、特徴抽出エンジン14に入力される。また、カメラ22bにより撮影された画像は、ISP24bによる画像処理が実行された上で、デプスエンジン12、及び、特徴抽出エンジン14に入力される。
An image photographed by the photographing
デプスエンジン12は、本実施形態では例えば、デプスデータ生成部として、撮影部10により撮影された画像に基づいて、デプスデータ、及び、信頼度データを生成するデバイスを構成している。デプスエンジン12は、例えば、撮影部10により撮影された画像に対してステレオマッチング処理を実行する。ステレオマッチング処理には、撮影部10により撮影された一対の画像内の互いに類似する領域をテンプレートマッチングにより対応付ける処理が含まれる。ここでは例えば、カメラ22aが撮影し、ISP24aが画像処理を実行した画像内の領域と、カメラ22bが撮影し、ISP24bが画像処理を実行した画像内の領域とを対応付ける処理が実行される。例えば、所定の大きさの領域(例えば20ピクセル四方の領域)を単位として、上述の領域の対応付けが実行されてもよい。以下、当該領域を単位領域と呼ぶこととする。そしてデプスエンジン12は、ステレオマッチング処理の実行結果に基づいて、デプスデータ、及び、信頼度データを生成する。
In this embodiment, the
ここでデプスデータとは、撮影される画像に表れている実空間内の各位置の、当該画像の投影面と交差する方向における位置を示すデータである。また、信頼度データとは、ステレオマッチング処理の実行結果の信頼度(例えば、当該信頼度データに対応付けられるデプスデータの信頼度)を示すデータである。以下の説明では、信頼度データが示す信頼度が高いほど、当該信頼度データには大きな値が設定されることとする。 Here, the depth data is data indicating the position of each position in real space appearing in a photographed image in a direction intersecting the projection plane of the image. Moreover, reliability data is data indicating the reliability of the execution result of the stereo matching process (for example, the reliability of depth data associated with the reliability data). In the following description, it is assumed that the higher the reliability indicated by the reliability data, the larger the value is set to the reliability data.
デプスデータは、例えば、複数の画素を含むデプス画像であってもよい。この場合、デプス画像内の各画素は、単位領域に対応付けられる。また、デプス画像内の各画素は、対応する単位領域に表れている実空間内の位置にも対応付けられる。デプス画像内の各画素には、例えば、対応する実空間内の位置の、撮影部10により撮影された画像の投影面と交差する方向における位置に対応する画素値が設定される。
The depth data may be, for example, a depth image including a plurality of pixels. In this case, each pixel in the depth image is associated with a unit area. Furthermore, each pixel in the depth image is also associated with a position in real space that appears in the corresponding unit area. For each pixel in the depth image, for example, a pixel value corresponding to a position in the corresponding real space in a direction intersecting the projection plane of the image photographed by the photographing
そしてこの場合に、デプス画像内の各画素についての、当該画素に対応付けられる信頼度データが生成されてもよい。ここで信頼度データが示す信頼度が低い領域は、例えば、特徴点がない、あるいは、特徴点が少ないため対応付けができない領域や、類似する領域が複数存在する領域などが該当する。またノイズやオクルージョンの発生によっても、信頼度データが示す信頼度は低くなる。 In this case, reliability data associated with each pixel in the depth image may be generated. Here, the areas with low reliability indicated by the reliability data include, for example, areas where there are no feature points or where the number of feature points is small and therefore cannot be correlated, or areas where multiple similar areas exist. The reliability indicated by the reliability data also decreases due to the occurrence of noise and occlusion.
カラーカメラが用いられる場合は、ステレオマッチング処理において、例えば、各画素の輝度値による単位領域の対応付けが行われてもよい。また、可視光用だけでなく赤外光用の画素も実装されているカメラが用いられる場合は、デプスデータの生成には、モノクロ画素のデータが用いられるようにしてもよい。 When a color camera is used, in the stereo matching process, for example, unit areas may be associated with each other based on the luminance value of each pixel. Furthermore, if a camera is used that is equipped with pixels for infrared light as well as for visible light, monochrome pixel data may be used to generate the depth data.
特徴抽出エンジン14は、本実施形態では例えば、撮影部10により撮影された画像から特徴点を抽出する処理を実行するデバイスである。なお、本実施形態に係る光パターン照射制御装置1に特徴抽出エンジン14が含まれていなくてもよい。
In this embodiment, the
CPU16は、本実施形態では例えば、プログラムに従って動作するプロセッサである。本実施形態に係るCPU16は、照射領域特定部として、撮影された画像に基づいて、当該画像の一部を占める、光パターンを照射すべき照射領域を特定する処理を実行する。ここで例えば、1又は複数の上述の単位領域が、照射領域として特定されてもよい。
In this embodiment, the
ドライバ18は、本実施形態では例えば、照射制御部として、CPU16から受け付ける制御信号に基づいて照射部20を制御するデバイスを構成している。
In this embodiment, the
照射部20は、本実施形態では例えば、赤外線などの光を物体に照射するデバイスである。照射部20は、例えば、VCSEL(Vertical Cavity Surface Emitting LASER)モジュールであってもよいし、MEMS(Micro Electro Mechanical Systems)プロジェクターなどの走査式プロジェクターであってもよい。
In this embodiment, the
本実施形態では、ドライバ18は、所与の光パターンを、CPU16により特定される照射領域に表れている実空間内の場所に照射するよう照射部20を制御する。ここで当該光パターンは、例えば、ランダムパターンであってもよいし、所定形状の図形のパターンであってもよい。
In this embodiment, the
なお、以上の機能は、以上の機能に対応する指令を含むプログラムを光パターン照射制御装置1が実行することにより実装されていてもよい。そして当該プログラムが、例えば、光ディスク、磁気ディスク、磁気テープ、光磁気ディスク、フラッシュメモリ等のコンピュータ読み取り可能な情報記憶媒体を介して、あるいは、インターネットなどを介して光パターン照射制御装置1に供給されてもよい。 Note that the above functions may be implemented by the light pattern irradiation control device 1 executing a program including commands corresponding to the above functions. The program is supplied to the light pattern irradiation control device 1 via a computer-readable information storage medium such as an optical disk, a magnetic disk, a magnetic tape, a magneto-optical disk, or a flash memory, or via the Internet. It's okay.
ここで、本実施形態に係る光パターン照射制御装置1において行われる処理の流れの一例を、図2に例示するフロー図を参照しながら説明する。本処理例では、図2に示すS101又はS106に示す処理が所定のフレームレートで実行されるよう、図2に示すS101~S109に示す処理が繰り返し実行される。 Here, an example of the flow of processing performed in the light pattern irradiation control device 1 according to the present embodiment will be described with reference to the flowchart illustrated in FIG. 2. In this processing example, the processes shown in S101 to S109 shown in FIG. 2 are repeatedly executed so that the processes shown in S101 or S106 shown in FIG. 2 are executed at a predetermined frame rate.
まず、撮影部10が一対の画像を撮影する(S101)。
First, the photographing
そして、デプスエンジン12が、S101に示す処理で撮影された一対の画像に対するステレオマッチング処理を実行する(S102)。当該ステレオマッチング処理が実行されることにより、例えば、複数の単位領域のそれぞれに対応付けられるデプスデータ、及び、当該単位領域についてのステレオマッチング処理の実行結果の信頼度を示す信頼度データが生成される。
Then, the
そして、CPU16が、S102に示す処理で生成された信頼度データが示す信頼度の値が、所定値以上であるか否かを確認する(S103)。ここで例えば、複数の単位領域のそれぞれに対応付けられる信頼度データが示す信頼度の値の平均値が、所定値以上であるか否かが確認されてもよい。
Then, the
S103に示す処理で、信頼度の値が所定値以上であることが確認された場合は(S103:Y)、S101に示す処理に戻る。 If it is confirmed in the process shown in S103 that the reliability value is greater than or equal to the predetermined value (S103: Y), the process returns to S101.
S103に示す処理で、信頼度の値が所定値以上でないことが確認された場合は(S103:N)、CPU16が、照射領域を特定する(S104)。S104に示す処理では例えば、CPU16は、ステレオマッチング処理の実行結果の信頼度に基づいて、照射領域を特定する。ここで所定の信頼度よりも低い信頼度を示す信頼度データに対応する単位領域が、照射領域と特定されてもよい。この場合、複数の照射領域が特定されてもよい。あるいは、最も低い信頼度を示す信頼度データに対応する単位領域が、照射領域と特定されてもよい。
If it is confirmed in the process shown in S103 that the reliability value is not greater than or equal to the predetermined value (S103: N), the
そしてドライバ18が、照射部20による照射の設定を実行する(S105)。S105に示す処理では、CPU16からドライバ18に送信される制御信号に応じた照射の設定をドライバ18が実行してもよい。また、S105に示す処理において、ドライバ18は、照射部20の電源をオンにしてもよい。
Then, the
そして、ドライバ18が、所与の光パターンを、S104に示す処理で特定された照射領域に表れている実空間内の場所に照射するよう照射部20を制御するとともに、撮影部10が一対の画像を撮影する(S106)。S106に示す処理では、CPU16からドライバ18に送信される制御信号に応じた照射をドライバ18が実行してもよい。S106に示す処理では、照射部20による所与の光パターンの照射は、カメラ22a及びカメラ22bが露光している期間の一部に行われる。
Then, the
図3に示すように、照射部20に、所与の光パターンを出射する発光モジュール26と、当該光パターンを反射する反射部材28とが含まれていてもよい。この場合に、S105に示す処理で、ドライバ18が、反射部材28の位置及び向きのうちの少なくとも一方を制御してもよい。そしてS106に示す処理で、所与の光パターンが照射領域に表れている実空間内の場所に照射されるようにしてもよい。
As shown in FIG. 3, the
また、図4に示すように、S105に示す処理で、ドライバ18が、照射部20自体の位置及び向きのうちの少なくとも一方を制御してもよい。そして、S106に示す処理で、所与の光パターンが照射領域に表れている実空間内の場所に照射されるようにしてもよい。
Further, as shown in FIG. 4, the
以上の場合のように、ドライバ18は、照射部20の位置や向きを制御するアクチュエータであってもよい。
As in the above case, the
また、図5に示すように、照射部20に、所与の光パターンを出射する発光モジュール26が複数含まれていてもよい。複数の発光モジュール26のそれぞれは、それぞれ実空間内の互いに異なる場所に対応付けられる。この場合に、S105に示す処理で、ドライバ18が、当該複数の発光モジュール26のうちから、照射領域に表れている実空間内の場所に対応付けられる発光モジュール26を選択してもよい。そして、S106に示す処理で、ドライバ18が、選択される発光モジュール26が所与の光パターンを出射するよう制御してもよい。
Further, as shown in FIG. 5, the
この場合のように、ドライバ18は、所与の光パターンを出射させる発光モジュール26を切り替えるスイッチであってもよい。
As in this case, the
また、照射部20に、照射領域に表れている実空間内の場所を一部に含む場所に対する照射を行う走査式プロジェクターが含まれていてもよい。そして、S105及び106に示す処理で、ドライバ18が、所与の光パターンを、照射領域に表れている実空間内の場所に照射するよう当該走査式プロジェクターを制御してもよい。
Further, the
なお本実施形態において、例えば撮影部10の位置及び向きの計測や、照射部20の位置及び向きの計測が行われるようにしてもよい。そして当該計測の結果に基づいて、上述の照射制御(照射の設定、及び、照射)が行われるようにしてもよい。
Note that in this embodiment, for example, the position and orientation of the
また、撮影部10の位置及び向きに対する照射部20の相対的な位置及び向きが固定されている場合については、撮影部10の位置及び向きと照射部20の位置及び向きとの対応は所与である。そのためこの場合は、当該所与の対応を表す数式等を用いることにより、上述の照射制御を行うことは可能である。
Furthermore, in the case where the relative position and orientation of the
また、例えば照射部20が、ロボットに搭載されており、照射部20のロボットに対する相対的な位置や向きが固定されていてもよい。そして、ロボットを動かすことにより、所与の光パターンが照射領域に表れている実空間内の場所に照射されるようにしてもよい。この場合、ドライバ18が、照射部20が搭載されているロボットの位置及び向きのうちの少なくとも一方を制御してもよい。
Further, for example, the
例えば、照射部20が、ロボットの頭部に実装されており、照射部20のロボットの頭部に対する相対的な位置や向きが固定されていてもよい。そして、ロボットの頭部を動かすことにより、所与の光パターンが照射領域に表れている実空間内の場所に照射されるようにしてもよい。この場合、ドライバ18が、照射部20が搭載されているロボットの頭部の位置及び向きのうちの少なくとも一方を制御してもよい。
For example, the
S106に示す処理が終了すると、デプスエンジン12が、S106に示す処理で撮影された一対の画像に対するステレオマッチング処理を実行する(S107)。
When the process shown in S106 is completed, the
そして、CPU16が、所定の消灯条件を満足するか否かを確認する(S108)。ここで、消灯条件を満足することが確認された場合は(S108:Y)、ドライバ18が、照射部20の電源をオフにして、照射部20を消灯して(S109)、S101に示す処理に戻る。
Then, the
一方、消灯条件を満足しないことが確認された場合は(S108:Y)、S104に示す処理に戻る。 On the other hand, if it is confirmed that the light-off condition is not satisfied (S108: Y), the process returns to S104.
ここでS108に示す処理が実行されず、S107に示す処理が実行された後は、必ずS109に示す処理が実行されてもよい。 Here, the process shown in S108 may not be executed, and after the process shown in S107 is executed, the process shown in S109 may always be executed.
この場合は、図6に示すように、発光モジュール26による発光が行われるフレームと、発光モジュール26による発光が行われないフレームと、が交互に到来する。
In this case, as shown in FIG. 6, frames in which the
図6に示すように、本実施形態では例えば、発光モジュール26による発光が行われるフレームについては、発光モジュール26による発光が、カメラ22a及びカメラ22bが露光している期間の一部に行われる。
As shown in FIG. 6, in this embodiment, for example, in a frame in which the
一方で、発光モジュール26による発光が行われないフレームについては、デプスエンジン12は、所与の光パターンが照射されていない状況で撮影した画像に基づいて、ステレオマッチング処理を実行する。そして発光モジュール26による発光が行われないフレームに実行されたステレオマッチング処理の結果に基づいて、その次のフレームにおける照射領域の設定が実行される。
On the other hand, for frames in which the
そして当該次のフレームについては、撮影部10は、所与の光パターンが照射された場所を撮影する。そして、デプスエンジン12は、所与の光パターンが照射された場所を撮影した画像に基づいて、当該画像に表れている実空間内の各位置のデプスデータを生成することとなる。
For the next frame, the photographing
図6の例では、時間T1において撮影された画像に基づくステレオマッチング処理の結果に基づいて、時間T2において所与の光パターンが照射される照射領域が設定される。そして、時間T2を一部に含む時間T3に、当該照射がされた場所の撮影が行われる。同様に、時間T4において撮影された画像に基づくステレオマッチング処理の結果に基づいて、時間T5において所与の光パターンが照射される照射領域が設定される。そして、時間T5を一部に含む時間T6に、当該照射がされた場所の撮影が行われる。 In the example of FIG. 6, an irradiation area to be irradiated with a given light pattern at time T2 is set based on the result of stereo matching processing based on an image photographed at time T1. Then, at time T3, which partially includes time T2, the irradiated location is photographed. Similarly, an irradiation area to be irradiated with a given light pattern at time T5 is set based on the result of stereo matching processing based on the image photographed at time T4. Then, at time T6, which partially includes time T5, the irradiated location is photographed.
図7は、所与の光パターンの照射が行われていない際に撮影された画像の一例を模式的に示す図である。図8は、光パターンの照射が行われた際に撮影された画像の一例を模式的に示す図である。例えば、図7に示す画像が時間T1において撮影された際に、領域Rが照射領域として特定される。ここでは、特徴点がない、あるいは、特徴点が少ない、テーブルの上の領域Rが照射領域に設定されている。この場合、その次のフレームにおいて領域Rに所与の光パターンが照射され、時間T3に図8に示す画像が撮影される。 FIG. 7 is a diagram schematically showing an example of an image photographed when irradiation with a given light pattern is not performed. FIG. 8 is a diagram schematically showing an example of an image photographed when the light pattern is irradiated. For example, when the image shown in FIG. 7 is captured at time T1, region R is specified as the irradiation region. Here, an area R on the table where there are no feature points or few feature points is set as the irradiation area. In this case, in the next frame, the region R is irradiated with a given light pattern, and the image shown in FIG. 8 is photographed at time T3.
また、S108に示す処理において、CPU16が、S104~S107に示す処理の実行が開始されてからの時間を監視してもよい。そして、監視された時間が所定の時間を超えた場合に、CPU16が、消灯時間を満足すると判定し、ドライバ18が、S109に示す処理を実行してもよい。あるいは、S108に示す処理において、CPU16が、S101~S103に示す処理が実行されることなくS104~S107に示す処理が連続して実行された回数を監視してもよい。そして、監視された回数が所定の回数を超えた場合に、CPU16が、消灯時間を満足すると判定し、ドライバ18が、S109に示す処理を実行してもよい。
Furthermore, in the process shown in S108, the
また、S108に示す処理で、CPU16が、直前のフレームで撮影された画像と当該フレームで撮影された画像の差分を特定してもよい。そして、当該差分が所定の差分より大きい場合に、CPU16が、消灯時間を満足すると判定し、ドライバ18が、S109に示す処理を実行してもよい。あるいは、所定時間以上、特定される差分が所定の差分より小さい場合に、CPU16が、消灯時間を満足すると判定し、ドライバ18が、S109に示す処理を実行してもよい。
Further, in the process shown in S108, the
また、光パターン照射制御装置1にモーションセンサが含まれていてもよい。そして、当該フレームにおけるモーションセンサの計測結果である動きの大きさを表す値が、所定値よりも大きい場合に、CPU16が、消灯時間を満足すると判定し、ドライバ18が、S109に示す処理を実行してもよい。あるいは、所定時間以上、上述の動きの大きさを表す値が所定値より小さい場合に、CPU16が、消灯時間を満足すると判定し、ドライバ18が、S109に示す処理を実行してもよい。
Further, the light pattern irradiation control device 1 may include a motion sensor. Then, if the value representing the magnitude of movement, which is the measurement result of the motion sensor in the frame, is larger than a predetermined value, the
なお、本実施形態において、発光モジュール26による発光が行われるフレームと、発光モジュール26の位置や向きの変更が行われるフレームと、が交互に到来するようにしてもよい。また、発光モジュール26による発光が行われてから次のフレームにおける発光タイミングまでの間に、発光モジュール26の位置や向きが変更されてもよい。
In the present embodiment, frames in which the
また本実施形態において、CPU16が、撮影部10により撮影された画像内の複数の領域のそれぞれについて、当該画像から特徴抽出エンジン14によって抽出された特徴点の数を算出してもよい。当該領域は上述の単位領域と同じ領域であってもよいし異なる領域であってもよい。そして、CPU16が、算出された特徴点の数に基づいて、照射領域を特定してもよい。例えば、撮影された画像内における、算出された特徴点が所定数より少ない領域が、照射領域と特定されてもよい。あるいは、例えば、撮影された画像内における、算出された特徴点が最も少ない領域が、照射領域と特定されてもよい。
Further, in the present embodiment, the
デプスエンジン12により生成される信頼度データが示す信頼度が低い原因が、特徴点がないこと、あるいは、特徴点が少ないことによるものではないことがある。このような場合には、特徴抽出エンジン14により抽出される特徴点に基づいて照射領域を特定することが有効なことがある。
The reason for the low reliability indicated by the reliability data generated by the
また例えば、信頼度データ及び算出される特徴点の数に基づいて、照射領域が特定されてもよい。例えば、S104に示す処理で、所定の信頼度よりも低い信頼度を示す信頼度データに対応する領域が複数特定される場合に、当該複数の領域のうちの、算出された特徴点が最も少ない領域が、照射領域と特定されてもよい。 Further, for example, the irradiation area may be specified based on the reliability data and the number of calculated feature points. For example, in the process shown in S104, when a plurality of regions corresponding to reliability data indicating a reliability lower than a predetermined reliability are identified, among the plurality of regions, the calculated feature points are the least. The area may be identified as the irradiation area.
また、CPU16、又は、特徴抽出エンジン14が、撮影部10が撮影した画像に対する物体認識処理を実行してもよい。そして例えば、床、壁、テーブルなどといった所定の物体が認識された領域が、照射領域と特定されてもよい。
Further, the
ここで光パターン照射制御装置1に加速度センサが含まれていてもよい。そして上述の物体認識処理において当該加速度センサの計測結果(例えば重力方向の情報)が用いられてもよい。 Here, the light pattern irradiation control device 1 may include an acceleration sensor. The measurement results of the acceleration sensor (for example, information on the direction of gravity) may be used in the object recognition process described above.
また、照射領域が複数特定される場合に、別の基準(例えば所与の重要度)に基づいていずれかの照射領域が特定されてもよい。そして所与の光パターンが、特定された照射領域に表れている実空間内の場所に照射されるようにしてもよい。 Furthermore, when a plurality of irradiation areas are specified, one of the irradiation areas may be specified based on another criterion (for example, a given degree of importance). Then, the given light pattern may be irradiated onto a location in real space that appears in the specified irradiation area.
また、照射領域が複数特定される場合に、所与の光パターンが、それぞれの照射領域に表れている実空間内の場所に、順次、照射されるようにしてもよい。 Further, when a plurality of irradiation areas are specified, a given light pattern may be sequentially irradiated to a location in the real space appearing in each irradiation area.
また本実施形態において、照射部20による光パターンの照射を行っても、信頼度データが示す信頼度が所定の信頼度よりも高くならない場合は、照射部20による光パターンの照射が行われないようにしてもよい。例えばS103に示す処理で平均信頼度の値が所定値以上でないことが所定数のフレームにわたって連続して確認された場合は、光パターン照射制御装置1は、S104及びS105に示す処理を実行せずに、S101に示す処理に戻ってもよい。例えば、信頼度が低い原因がオクルージョンやノイズである場合には、光パターンの照射を行っても、信頼度データが示す信頼度が所定の信頼度よりも高くならない可能性がある。
Furthermore, in this embodiment, even if the
また本実施形態において、光パターン照射制御装置1にモーションセンサが含まれていてもよい。そして直前のフレームからの移動量が所定の移動量よりも小さい場合は、照射部20による光パターンの照射が行われないようにしてもよい。
Further, in this embodiment, the light pattern irradiation control device 1 may include a motion sensor. If the amount of movement from the immediately previous frame is smaller than a predetermined amount of movement, the
本実施形態では以上で説明したように、撮影部10により撮影された画像に基づいて、当該画像の一部を占める、光パターンを照射すべき照射領域が特定される。そして、所与の光パターンを、照射領域に表れている実空間内の場所に照射するよう照射部20が制御される。そのため本実施形態によれば、広い範囲に所与の光パターンが照射される場合よりも、消費電力を低減できることとなる。例えば撮影部10からの距離が所定の距離である場所に光パターンの照射を行う場合、FOV(Field of View)が大きいと、照射出力は照射半径の二乗に比例する。そのため、照射半径が半分となれば照射出力は1/4となる。
In this embodiment, as described above, based on the image photographed by the photographing
なお、本発明は上述の実施形態に限定されるものではない。 Note that the present invention is not limited to the above-described embodiments.
例えば、撮影部10と照射部20とは、互いに異なるデバイスに設けられていてもよい。
For example, the
また例えば、デプスデータの生成に用いられる画像を撮影する撮影部(以下、第1の撮影部と呼ぶ。)と、照射領域の特定に用いられる画像を撮影する撮影部(以下、第2の撮影部と呼ぶ。)とは、別体であってもよい。この場合、第2の撮影部により撮影される画像に基づいて、照射制御が実行されてもよい。そして第1の撮影部が、当該照射制御により所与の光パターンが照射された物体を撮影してもよい。そして、第1の撮影部が撮影した画像に基づいて、デプスデータが生成されてもよい。ここで例えば、第2の撮影部と照射部20とは一体のデバイスに設けられており、第1の撮影部が当該デバイスとは別のデバイスに設けられていてもよい。
Furthermore, for example, an imaging unit (hereinafter referred to as a first imaging unit) that photographs an image used to generate depth data, and an imaging unit (hereinafter referred to as a second imaging unit) that photographs an image used to specify an irradiation area. ) may be a separate entity. In this case, irradiation control may be performed based on the image photographed by the second photographing section. Then, the first photographing unit may photograph an object illuminated with a given light pattern by the illumination control. Then, depth data may be generated based on the image photographed by the first photographing section. Here, for example, the second imaging section and the
また本実施形態において、一対の画像に基づいて、照射領域が特定される必要はない。例えば、特徴抽出エンジン14が1つの画像から特徴点を抽出してもよい。そして、当該抽出の結果に基づいて、当該画像内における照射領域が特定されてもよい。
Furthermore, in this embodiment, the irradiation area does not need to be specified based on the pair of images. For example, the
また、本発明は、ステレオマッチング方式以外の方式によるデプスデータの生成においても適用可能である。 Furthermore, the present invention is also applicable to the generation of depth data using methods other than the stereo matching method.
また、上記の具体的な文字列や数値及び図面中の具体的な文字列や数値は例示であり、これらの文字列や数値には限定されない。 Further, the specific character strings and numerical values mentioned above and the specific character strings and numerical values in the drawings are merely examples, and the present invention is not limited to these character strings and numerical values.
Claims (4)
前記光パターンを、前記照射領域に表れている実空間内の場所に照射するよう照射部を制御する照射制御部と、
前記光パターンが照射された場所を撮影した画像に基づいて、当該画像に表れている実空間内の各位置のデプスデータを生成するデプスデータ生成部と、を含み、
前記照射部には、前記光パターンを出射する複数の発光モジュールが含まれており、
前記照射制御部は、前記複数の発光モジュールのうちから、前記照射領域に表れている実空間内の場所に対応付けられる前記発光モジュールを選択し、選択される前記発光モジュールが前記光パターンを出射するよう制御する、
ことを特徴とする光パターン照射制御装置。 an irradiation area specifying unit that specifies an irradiation area that occupies a part of the image and is to be irradiated with a given light pattern based on the photographed image;
an irradiation control unit that controls an irradiation unit to irradiate the light pattern to a location in real space appearing in the irradiation area;
a depth data generation unit that generates depth data for each position in real space appearing in the image based on an image taken of a place irradiated with the light pattern ;
The irradiation unit includes a plurality of light emitting modules that emit the light pattern,
The irradiation control unit selects the light emitting module associated with a location in real space appearing in the irradiation area from among the plurality of light emitting modules, and causes the selected light emitting module to emit the light pattern. control to
A light pattern irradiation control device characterized by :
ことを特徴とする請求項1に記載の光パターン照射制御装置。 The irradiation area specifying unit specifies the irradiation area based on the reliability of the execution result of the stereo matching process.
The light pattern irradiation control device according to claim 1, characterized in that:
ことを特徴とする請求項1又は2に記載の光パターン照射制御装置。 The irradiation area specifying unit specifies the irradiation area based on the number of feature points extracted for each of a plurality of areas in the captured image.
The light pattern irradiation control device according to claim 1 or 2, characterized in that:
前記光パターンを、前記照射領域に表れている実空間内の場所に照射するよう照射部を制御する照射制御ステップと、
前記光パターンが照射された場所を撮影した画像に基づいて、当該画像に表れている実空間内の各位置のデプスデータを生成するデプスデータ生成ステップと、を含み、
前記照射部には、前記光パターンを出射する複数の発光モジュールが含まれており、
前記照射制御ステップでは、前記複数の発光モジュールのうちから、前記照射領域に表れている実空間内の場所に対応付けられる前記発光モジュールが選択され、選択される前記発光モジュールが前記光パターンを出射するよう制御される、
ことを特徴とする光パターン照射制御方法。 an irradiation area identification step of identifying an irradiation area that occupies a part of the image and is to be irradiated with a given light pattern, based on the photographed image;
an irradiation control step of controlling an irradiation unit to irradiate the light pattern to a location in real space appearing in the irradiation area;
a depth data generation step of generating depth data for each position in real space appearing in the image based on an image taken of a place irradiated with the light pattern ;
The irradiation unit includes a plurality of light emitting modules that emit the light pattern,
In the irradiation control step, a light emitting module that is associated with a location in real space appearing in the irradiation area is selected from among the plurality of light emitting modules, and the selected light emitting module emits the light pattern. controlled to
A light pattern irradiation control method characterized by :
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019093819 | 2019-05-17 | ||
JP2019093819 | 2019-05-17 | ||
PCT/JP2020/018591 WO2020235348A1 (en) | 2019-05-17 | 2020-05-07 | Optical pattern radiation control device and optical pattern radiation control method |
Publications (3)
Publication Number | Publication Date |
---|---|
JPWO2020235348A1 JPWO2020235348A1 (en) | 2020-11-26 |
JPWO2020235348A5 JPWO2020235348A5 (en) | 2023-04-04 |
JP7399160B2 true JP7399160B2 (en) | 2023-12-15 |
Family
ID=73458515
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021520697A Active JP7399160B2 (en) | 2019-05-17 | 2020-05-07 | Light pattern irradiation control device and light pattern irradiation control method |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7399160B2 (en) |
WO (1) | WO2020235348A1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7388601B1 (en) * | 2022-05-09 | 2023-11-29 | 三菱電機株式会社 | Structure measurement device, data processing device, and structure measurement method |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007017355A (en) | 2005-07-08 | 2007-01-25 | Omron Corp | Generation device and generation method of floodlight pattern for executing stereo correspondence |
JP2008232776A (en) | 2007-03-20 | 2008-10-02 | Fujifilm Corp | Three-dimensional shape measuring device and method, and program |
JP2010091492A (en) | 2008-10-10 | 2010-04-22 | Fujifilm Corp | Photographing apparatus and method for three-dimensional shape measurement and program |
JP2011209019A (en) | 2010-03-29 | 2011-10-20 | Sony Corp | Robot device and method of controlling the same |
JP2012098087A (en) | 2010-10-29 | 2012-05-24 | Canon Inc | Measurement device and measurement method |
JP2017530352A (en) | 2014-09-11 | 2017-10-12 | サイバーオプティクス コーポレーション | Integration of point clouds from multiple cameras and light sources in 3D surface shape measurement |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10186051B2 (en) * | 2017-05-11 | 2019-01-22 | Dantec Dynamics A/S | Method and system for calibrating a velocimetry system |
-
2020
- 2020-05-07 JP JP2021520697A patent/JP7399160B2/en active Active
- 2020-05-07 WO PCT/JP2020/018591 patent/WO2020235348A1/en active Application Filing
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007017355A (en) | 2005-07-08 | 2007-01-25 | Omron Corp | Generation device and generation method of floodlight pattern for executing stereo correspondence |
JP2008232776A (en) | 2007-03-20 | 2008-10-02 | Fujifilm Corp | Three-dimensional shape measuring device and method, and program |
JP2010091492A (en) | 2008-10-10 | 2010-04-22 | Fujifilm Corp | Photographing apparatus and method for three-dimensional shape measurement and program |
JP2011209019A (en) | 2010-03-29 | 2011-10-20 | Sony Corp | Robot device and method of controlling the same |
JP2012098087A (en) | 2010-10-29 | 2012-05-24 | Canon Inc | Measurement device and measurement method |
JP2017530352A (en) | 2014-09-11 | 2017-10-12 | サイバーオプティクス コーポレーション | Integration of point clouds from multiple cameras and light sources in 3D surface shape measurement |
Also Published As
Publication number | Publication date |
---|---|
WO2020235348A1 (en) | 2020-11-26 |
JPWO2020235348A1 (en) | 2020-11-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2869263A1 (en) | Method and apparatus for generating depth map of a scene | |
JP4983905B2 (en) | Imaging apparatus, 3D modeling data generation method, and program | |
CN115174877A (en) | Projection apparatus and focusing method of projection apparatus | |
CN114827573A (en) | Adjusting camera exposure for three-dimensional depth sensing and two-dimensional imaging | |
WO2019184184A1 (en) | Target image acquisition system and method | |
EP1146313A2 (en) | Image pickup apparatus and method, and recording medium | |
JP7399160B2 (en) | Light pattern irradiation control device and light pattern irradiation control method | |
JP2016181068A (en) | Learning sample imaging device | |
TW201705088A (en) | Generating a disparity map based on stereo images of a scene | |
US10979684B2 (en) | Image processing apparatus, information processing method, and program for associating an element in a background shape model with an image capturing apparatus | |
KR101817756B1 (en) | PTM making system based on 3D model with interactive viewpoint control and method using the same | |
JP2022003730A5 (en) | ||
JP6681141B2 (en) | Method and device for three-dimensional measurement of oral cavity | |
JP6212984B2 (en) | Projection apparatus, projection method, and program | |
CN110245618B (en) | 3D recognition device and method | |
CN117157669A (en) | System and method for dynamic image processing and segmentation | |
US11501408B2 (en) | Information processing apparatus, information processing method, and program | |
WO2013086543A2 (en) | Ambient light alert for an image sensor | |
KR20160073488A (en) | Handheld 3D Scanner | |
JP2016162034A (en) | Three-dimensional model generation system, three-dimensional model generation apparatus, and three-dimensional model generation method | |
JP2003191189A (en) | Robot device and its control method | |
JP7474759B2 (en) | Vehicle lighting fixtures | |
US20230396746A1 (en) | Image projection system and image projection method | |
JP2018025809A (en) | Light irradiation control device and program | |
WO2024134934A1 (en) | Three-dimensional information extraction device and three-dimensional information extraction method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230327 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230327 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231128 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231205 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7399160 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |