JP7399160B2 - Light pattern irradiation control device and light pattern irradiation control method - Google Patents

Light pattern irradiation control device and light pattern irradiation control method Download PDF

Info

Publication number
JP7399160B2
JP7399160B2 JP2021520697A JP2021520697A JP7399160B2 JP 7399160 B2 JP7399160 B2 JP 7399160B2 JP 2021520697 A JP2021520697 A JP 2021520697A JP 2021520697 A JP2021520697 A JP 2021520697A JP 7399160 B2 JP7399160 B2 JP 7399160B2
Authority
JP
Japan
Prior art keywords
irradiation
light pattern
image
unit
irradiation area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021520697A
Other languages
Japanese (ja)
Other versions
JPWO2020235348A5 (en
JPWO2020235348A1 (en
Inventor
貴志 島津
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Publication of JPWO2020235348A1 publication Critical patent/JPWO2020235348A1/ja
Publication of JPWO2020235348A5 publication Critical patent/JPWO2020235348A5/ja
Application granted granted Critical
Publication of JP7399160B2 publication Critical patent/JP7399160B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、光パターン照射制御装置及び光パターン照射制御方法に関する。 The present invention relates to a light pattern irradiation control device and a light pattern irradiation control method.

撮影部により撮影される画像からデプスデータを生成する技術が知られている。デプスデータは、例えば、撮影される画像に表れている実空間内の各位置の、当該画像の投影面と交差する方向における位置を示す。 2. Description of the Related Art A technique for generating depth data from an image photographed by a photographing unit is known. The depth data indicates, for example, the position of each position in real space appearing in a photographed image in a direction intersecting the projection plane of the image.

床、壁、テーブルなどといった平面状の物体については、特徴点がない、あるいは、特徴点が少ないため、デプスデータの生成が一般的に困難である。このような場所でも精度の高いデプスデータが生成されるようにするため、ハイパワーのプロジェクターが、カメラの露光タイミングに同期させて、ランダムパターンや所定形状の図形のパターン等の所与の光パターンを照射する技術が存在する。 For planar objects such as floors, walls, tables, etc., it is generally difficult to generate depth data because there are no or only a few feature points. In order to generate highly accurate depth data even in such locations, a high-power projector is used to generate a given light pattern, such as a random pattern or a pattern with a predetermined shape, in synchronization with the camera's exposure timing. There is a technology to irradiate.

しかし、上記技術では、広い範囲に光パターンが照射されるため無駄な消費電力が発生していた。 However, with the above technology, the light pattern is irradiated over a wide range, resulting in wasteful power consumption.

本発明は上記実情に鑑みてなされたものであって、その目的の一つは、デプスデータを生成するための所与の光パターンの照射に係る消費電力を低減できる光パターン照射制御装置及び光パターン照射制御方法を提供することにある。 The present invention has been made in view of the above circumstances, and one of its objects is to provide a light pattern irradiation control device and a light pattern irradiation control device capable of reducing power consumption related to irradiation of a given light pattern for generating depth data. An object of the present invention is to provide a pattern irradiation control method.

上記課題を解決するために、本発明に係る光パターン照射制御装置は、撮影された画像に基づいて、当該画像の一部を占める、所与の光パターンを照射すべき照射領域を特定する照射領域特定部と、前記光パターンを、前記照射領域に表れている実空間内の場所に照射するよう照射部を制御する照射制御部と、前記光パターンが照射された場所を撮影した画像に基づいて、当該画像に表れている実空間内の各位置のデプスデータを生成するデプスデータ生成部と、を含む。 In order to solve the above problems, a light pattern irradiation control device according to the present invention provides an irradiation device that specifies, based on a photographed image, an irradiation area that occupies a part of the image and is to be irradiated with a given light pattern. an area identification unit; an irradiation control unit that controls the irradiation unit to irradiate the light pattern to a location in real space appearing in the irradiation area; and a depth data generation unit that generates depth data for each position in the real space appearing in the image.

本発明の一態様では、前記照射領域特定部は、ステレオマッチング処理の実行結果の信頼度に基づいて、前記照射領域を特定する。 In one aspect of the present invention, the irradiation area specifying unit specifies the irradiation area based on reliability of an execution result of stereo matching processing.

また、発明の一態様では、前記照射領域特定部は、撮影された画像内の複数の領域のそれぞれについて抽出される特徴点の数に基づいて、前記照射領域を特定する。 Further, in one aspect of the invention, the irradiation area specifying unit specifies the irradiation area based on the number of feature points extracted for each of a plurality of areas in a captured image.

また、本発明の一態様では、前記照射制御部は、前記照射部の位置及び向きのうちの少なくとも一方を制御する。 Further, in one aspect of the present invention, the irradiation control section controls at least one of the position and orientation of the irradiation section.

あるいは、前記照射制御部は、前記照射部に含まれる、前記光パターンを反射する反射部材の位置及び向きのうちの少なくとも一方を制御する。 Alternatively, the irradiation control section controls at least one of the position and orientation of a reflecting member included in the irradiation section that reflects the light pattern.

あるいは、前記照射部には、前記光パターンを出射する複数の発光モジュールが含まれており、前記照射制御部は、前記複数の発光モジュールのうちから、前記照射領域に表れている実空間内の場所に対応付けられる前記発光モジュールを選択し、選択される前記発光モジュールが前記光パターンを出射するよう制御する。 Alternatively, the irradiation unit includes a plurality of light-emitting modules that emit the light pattern, and the irradiation control unit selects a light emitting module from among the plurality of light-emitting modules to illuminate the area in the real space appearing in the irradiation area. The light emitting module associated with the location is selected, and the selected light emitting module is controlled to emit the light pattern.

あるいは、前記照射部は、前記照射領域に表れている実空間内の場所を一部に含む場所に対する照射を行う走査式プロジェクターを含み、前記照射制御部は、前記光パターンを、前記照射領域に表れている実空間内の場所に照射するよう前記走査式プロジェクターを制御する。 Alternatively, the irradiation unit includes a scanning projector that irradiates a location including a part of the location in real space that appears in the irradiation area, and the irradiation control unit directs the light pattern to the irradiation area. The scanning projector is controlled to illuminate a location in the displayed real space.

あるいは、前記照射部は、ロボットに搭載されており、前記照射制御部は、前記ロボットの位置及び向きのうちの少なくとも一方を制御する。 Alternatively, the irradiation unit is mounted on a robot, and the irradiation control unit controls at least one of the position and orientation of the robot.

また、本発明に係る光パターン照射制御方法は、撮影された画像に基づいて、当該画像の一部を占める、所与の光パターンを照射すべき照射領域を特定するステップと、前記光パターンを、前記照射領域に表れている実空間内の場所に照射するよう照射部を制御するステップと、前記光パターンが照射された場所を撮影した画像に基づいて、当該画像に表れている実空間内の各位置のデプスデータを生成するステップと、を含む。 Further, the light pattern irradiation control method according to the present invention includes a step of specifying, based on a photographed image, an irradiation area that occupies a part of the image and is to be irradiated with a given light pattern; , controlling an irradiation unit to irradiate a location in the real space that appears in the irradiation area; and based on an image of the location where the light pattern is irradiated, the light pattern in the real space that appears in the image. generating depth data for each position.

本発明の一実施形態に係る光パターン照射制御装置の構成の一例を示す図である。1 is a diagram showing an example of the configuration of a light pattern irradiation control device according to an embodiment of the present invention. 本発明の一実施形態に係る光パターン照射制御装置で実行される処理の一例を示すフロー図である。FIG. 3 is a flow diagram showing an example of processing executed by the light pattern irradiation control device according to an embodiment of the present invention. 照射制御の一例を模式的に示す図である。FIG. 3 is a diagram schematically showing an example of irradiation control. 照射制御の一例を模式的に示す図である。FIG. 3 is a diagram schematically showing an example of irradiation control. 照射制御の一例を模式的に示す図である。FIG. 3 is a diagram schematically showing an example of irradiation control. 露光タイミングと発光タイミングとの関係の一例を示す図である。FIG. 3 is a diagram showing an example of the relationship between exposure timing and light emission timing. 光パターンの照射が行われていない際に撮影された画像の一例を模式的に示す図である。FIG. 6 is a diagram schematically showing an example of an image taken when no light pattern is irradiated. 光パターンの照射が行われた際に撮影された画像の一例を模式的に示す図である。It is a figure which shows typically an example of the image image|photographed when irradiation of a light pattern was performed.

以下、本発明の一実施形態について、図面を参照しながら説明する。 Hereinafter, one embodiment of the present invention will be described with reference to the drawings.

図1は、本発明の一実施形態に係る光パターン照射制御装置1の構成の一例を示す図である。 FIG. 1 is a diagram showing an example of the configuration of a light pattern irradiation control device 1 according to an embodiment of the present invention.

図1に示すように、本実施形態に係る光パターン照射制御装置1には、撮影部10、デプスエンジン12、特徴抽出エンジン14、CPU(Central Processing Unit)16、ドライバ18、照射部20、が含まれる。撮影部10は、例えば、ステレオカメラであり、撮影部10には、カメラ22a、カメラ22b、ISP(Image Signal Processor)24a、及び、ISP24bが含まれる。 As shown in FIG. 1, the light pattern irradiation control device 1 according to the present embodiment includes an imaging section 10, a depth engine 12, a feature extraction engine 14, a CPU (Central Processing Unit) 16, a driver 18, and an irradiation section 20. included. The imaging unit 10 is, for example, a stereo camera, and includes a camera 22a, a camera 22b, an ISP (Image Signal Processor) 24a, and an ISP 24b.

本実施形態に係る撮影部10は、所定のフレームレート(例えば120fpsあるいは60fps)で、画像を撮影する。本実施形態では、カメラ22aによる画像の撮影タイミングとカメラ22bによる画像の撮影タイミングとは同期がとられており、所定のフレームレートで一対の画像が生成される。 The photographing unit 10 according to this embodiment photographs images at a predetermined frame rate (for example, 120 fps or 60 fps). In this embodiment, the timing of image capture by the camera 22a and the image capture timing of the camera 22b are synchronized, and a pair of images are generated at a predetermined frame rate.

本実施形態に係るカメラ22a、及び、カメラ22bは、可視光と赤外光の両方を撮影可能なカメラである。ここでカメラ22a、及び、カメラ22bは、例えば、赤外光をカットするためのフィルタが外されたモノクロカメラであってもよい。あるいは、カメラ22a、及び、カメラ22bは、例えば、赤外光をカットするためのフィルタが外されたカラーカメラであってもよい。また、カメラ22a、及び、カメラ22bは、可視光用だけでなく赤外光用の画素も実装されており、可視光のデータと赤外光のデータとを分離して生成するものであってもよい。 The camera 22a and the camera 22b according to this embodiment are cameras capable of photographing both visible light and infrared light. Here, the camera 22a and the camera 22b may be, for example, a monochrome camera from which a filter for cutting infrared light is removed. Alternatively, the cameras 22a and 22b may be color cameras from which a filter for cutting infrared light is removed, for example. Furthermore, the cameras 22a and 22b are equipped with pixels not only for visible light but also for infrared light, and generate visible light data and infrared light data separately. Good too.

撮影部10により撮影された画像は、デプスエンジン12、及び、特徴抽出エンジン14に入力される。本実施形態では、カメラ22aにより撮影された画像は、ISP24aによる画像処理が実行された上で、デプスエンジン12、及び、特徴抽出エンジン14に入力される。また、カメラ22bにより撮影された画像は、ISP24bによる画像処理が実行された上で、デプスエンジン12、及び、特徴抽出エンジン14に入力される。 An image photographed by the photographing unit 10 is input to a depth engine 12 and a feature extraction engine 14. In this embodiment, an image photographed by the camera 22a is input to the depth engine 12 and the feature extraction engine 14 after being subjected to image processing by the ISP 24a. Further, the image photographed by the camera 22b is input to the depth engine 12 and the feature extraction engine 14 after being subjected to image processing by the ISP 24b.

デプスエンジン12は、本実施形態では例えば、デプスデータ生成部として、撮影部10により撮影された画像に基づいて、デプスデータ、及び、信頼度データを生成するデバイスを構成している。デプスエンジン12は、例えば、撮影部10により撮影された画像に対してステレオマッチング処理を実行する。ステレオマッチング処理には、撮影部10により撮影された一対の画像内の互いに類似する領域をテンプレートマッチングにより対応付ける処理が含まれる。ここでは例えば、カメラ22aが撮影し、ISP24aが画像処理を実行した画像内の領域と、カメラ22bが撮影し、ISP24bが画像処理を実行した画像内の領域とを対応付ける処理が実行される。例えば、所定の大きさの領域(例えば20ピクセル四方の領域)を単位として、上述の領域の対応付けが実行されてもよい。以下、当該領域を単位領域と呼ぶこととする。そしてデプスエンジン12は、ステレオマッチング処理の実行結果に基づいて、デプスデータ、及び、信頼度データを生成する。 In this embodiment, the depth engine 12 constitutes a device that, as a depth data generation section, generates depth data and reliability data based on an image photographed by the photographing section 10, for example. For example, the depth engine 12 performs stereo matching processing on the image photographed by the photographing unit 10. The stereo matching process includes a process of matching mutually similar regions in a pair of images photographed by the photographing unit 10 by template matching. Here, for example, a process is executed to associate an area within an image photographed by the camera 22a and subjected to image processing by the ISP 24a with an area within an image photographed by the camera 22b and subjected to image processing by the ISP 24b. For example, the above-described region mapping may be performed in units of regions of a predetermined size (for example, 20 pixels square). Hereinafter, this area will be referred to as a unit area. The depth engine 12 then generates depth data and reliability data based on the execution results of the stereo matching process.

ここでデプスデータとは、撮影される画像に表れている実空間内の各位置の、当該画像の投影面と交差する方向における位置を示すデータである。また、信頼度データとは、ステレオマッチング処理の実行結果の信頼度(例えば、当該信頼度データに対応付けられるデプスデータの信頼度)を示すデータである。以下の説明では、信頼度データが示す信頼度が高いほど、当該信頼度データには大きな値が設定されることとする。 Here, the depth data is data indicating the position of each position in real space appearing in a photographed image in a direction intersecting the projection plane of the image. Moreover, reliability data is data indicating the reliability of the execution result of the stereo matching process (for example, the reliability of depth data associated with the reliability data). In the following description, it is assumed that the higher the reliability indicated by the reliability data, the larger the value is set to the reliability data.

デプスデータは、例えば、複数の画素を含むデプス画像であってもよい。この場合、デプス画像内の各画素は、単位領域に対応付けられる。また、デプス画像内の各画素は、対応する単位領域に表れている実空間内の位置にも対応付けられる。デプス画像内の各画素には、例えば、対応する実空間内の位置の、撮影部10により撮影された画像の投影面と交差する方向における位置に対応する画素値が設定される。 The depth data may be, for example, a depth image including a plurality of pixels. In this case, each pixel in the depth image is associated with a unit area. Furthermore, each pixel in the depth image is also associated with a position in real space that appears in the corresponding unit area. For each pixel in the depth image, for example, a pixel value corresponding to a position in the corresponding real space in a direction intersecting the projection plane of the image photographed by the photographing unit 10 is set.

そしてこの場合に、デプス画像内の各画素についての、当該画素に対応付けられる信頼度データが生成されてもよい。ここで信頼度データが示す信頼度が低い領域は、例えば、特徴点がない、あるいは、特徴点が少ないため対応付けができない領域や、類似する領域が複数存在する領域などが該当する。またノイズやオクルージョンの発生によっても、信頼度データが示す信頼度は低くなる。 In this case, reliability data associated with each pixel in the depth image may be generated. Here, the areas with low reliability indicated by the reliability data include, for example, areas where there are no feature points or where the number of feature points is small and therefore cannot be correlated, or areas where multiple similar areas exist. The reliability indicated by the reliability data also decreases due to the occurrence of noise and occlusion.

カラーカメラが用いられる場合は、ステレオマッチング処理において、例えば、各画素の輝度値による単位領域の対応付けが行われてもよい。また、可視光用だけでなく赤外光用の画素も実装されているカメラが用いられる場合は、デプスデータの生成には、モノクロ画素のデータが用いられるようにしてもよい。 When a color camera is used, in the stereo matching process, for example, unit areas may be associated with each other based on the luminance value of each pixel. Furthermore, if a camera is used that is equipped with pixels for infrared light as well as for visible light, monochrome pixel data may be used to generate the depth data.

特徴抽出エンジン14は、本実施形態では例えば、撮影部10により撮影された画像から特徴点を抽出する処理を実行するデバイスである。なお、本実施形態に係る光パターン照射制御装置1に特徴抽出エンジン14が含まれていなくてもよい。 In this embodiment, the feature extraction engine 14 is, for example, a device that executes a process of extracting feature points from an image photographed by the photographing unit 10. Note that the feature extraction engine 14 may not be included in the light pattern irradiation control device 1 according to this embodiment.

CPU16は、本実施形態では例えば、プログラムに従って動作するプロセッサである。本実施形態に係るCPU16は、照射領域特定部として、撮影された画像に基づいて、当該画像の一部を占める、光パターンを照射すべき照射領域を特定する処理を実行する。ここで例えば、1又は複数の上述の単位領域が、照射領域として特定されてもよい。 In this embodiment, the CPU 16 is, for example, a processor that operates according to a program. The CPU 16 according to the present embodiment, as an irradiation area specifying unit, executes a process of specifying an irradiation area that occupies a part of the image and is to be irradiated with a light pattern, based on the captured image. Here, for example, one or more of the above-mentioned unit areas may be specified as the irradiation area.

ドライバ18は、本実施形態では例えば、照射制御部として、CPU16から受け付ける制御信号に基づいて照射部20を制御するデバイスを構成している。 In this embodiment, the driver 18 constitutes a device that controls the irradiation unit 20 based on a control signal received from the CPU 16, for example, as an irradiation control unit.

照射部20は、本実施形態では例えば、赤外線などの光を物体に照射するデバイスである。照射部20は、例えば、VCSEL(Vertical Cavity Surface Emitting LASER)モジュールであってもよいし、MEMS(Micro Electro Mechanical Systems)プロジェクターなどの走査式プロジェクターであってもよい。 In this embodiment, the irradiation unit 20 is, for example, a device that irradiates an object with light such as infrared light. The irradiation unit 20 may be, for example, a VCSEL (Vertical Cavity Surface Emitting LASER) module or a scanning projector such as a MEMS (Micro Electro Mechanical Systems) projector.

本実施形態では、ドライバ18は、所与の光パターンを、CPU16により特定される照射領域に表れている実空間内の場所に照射するよう照射部20を制御する。ここで当該光パターンは、例えば、ランダムパターンであってもよいし、所定形状の図形のパターンであってもよい。 In this embodiment, the driver 18 controls the irradiation unit 20 to irradiate a given light pattern onto a location in real space that appears in the irradiation area specified by the CPU 16. Here, the light pattern may be, for example, a random pattern or a pattern of a predetermined shape.

なお、以上の機能は、以上の機能に対応する指令を含むプログラムを光パターン照射制御装置1が実行することにより実装されていてもよい。そして当該プログラムが、例えば、光ディスク、磁気ディスク、磁気テープ、光磁気ディスク、フラッシュメモリ等のコンピュータ読み取り可能な情報記憶媒体を介して、あるいは、インターネットなどを介して光パターン照射制御装置1に供給されてもよい。 Note that the above functions may be implemented by the light pattern irradiation control device 1 executing a program including commands corresponding to the above functions. The program is supplied to the light pattern irradiation control device 1 via a computer-readable information storage medium such as an optical disk, a magnetic disk, a magnetic tape, a magneto-optical disk, or a flash memory, or via the Internet. It's okay.

ここで、本実施形態に係る光パターン照射制御装置1において行われる処理の流れの一例を、図2に例示するフロー図を参照しながら説明する。本処理例では、図2に示すS101又はS106に示す処理が所定のフレームレートで実行されるよう、図2に示すS101~S109に示す処理が繰り返し実行される。 Here, an example of the flow of processing performed in the light pattern irradiation control device 1 according to the present embodiment will be described with reference to the flowchart illustrated in FIG. 2. In this processing example, the processes shown in S101 to S109 shown in FIG. 2 are repeatedly executed so that the processes shown in S101 or S106 shown in FIG. 2 are executed at a predetermined frame rate.

まず、撮影部10が一対の画像を撮影する(S101)。 First, the photographing unit 10 photographs a pair of images (S101).

そして、デプスエンジン12が、S101に示す処理で撮影された一対の画像に対するステレオマッチング処理を実行する(S102)。当該ステレオマッチング処理が実行されることにより、例えば、複数の単位領域のそれぞれに対応付けられるデプスデータ、及び、当該単位領域についてのステレオマッチング処理の実行結果の信頼度を示す信頼度データが生成される。 Then, the depth engine 12 performs stereo matching processing on the pair of images photographed in the processing shown in S101 (S102). By executing the stereo matching process, for example, depth data associated with each of the plurality of unit areas and reliability data indicating the reliability of the execution result of the stereo matching process for the unit area are generated. Ru.

そして、CPU16が、S102に示す処理で生成された信頼度データが示す信頼度の値が、所定値以上であるか否かを確認する(S103)。ここで例えば、複数の単位領域のそれぞれに対応付けられる信頼度データが示す信頼度の値の平均値が、所定値以上であるか否かが確認されてもよい。 Then, the CPU 16 checks whether the reliability value indicated by the reliability data generated in the process shown in S102 is greater than or equal to a predetermined value (S103). Here, for example, it may be checked whether the average value of the reliability values indicated by the reliability data associated with each of the plurality of unit areas is equal to or greater than a predetermined value.

S103に示す処理で、信頼度の値が所定値以上であることが確認された場合は(S103:Y)、S101に示す処理に戻る。 If it is confirmed in the process shown in S103 that the reliability value is greater than or equal to the predetermined value (S103: Y), the process returns to S101.

S103に示す処理で、信頼度の値が所定値以上でないことが確認された場合は(S103:N)、CPU16が、照射領域を特定する(S104)。S104に示す処理では例えば、CPU16は、ステレオマッチング処理の実行結果の信頼度に基づいて、照射領域を特定する。ここで所定の信頼度よりも低い信頼度を示す信頼度データに対応する単位領域が、照射領域と特定されてもよい。この場合、複数の照射領域が特定されてもよい。あるいは、最も低い信頼度を示す信頼度データに対応する単位領域が、照射領域と特定されてもよい。 If it is confirmed in the process shown in S103 that the reliability value is not greater than or equal to the predetermined value (S103: N), the CPU 16 specifies the irradiation area (S104). In the process shown in S104, for example, the CPU 16 specifies the irradiation area based on the reliability of the execution result of the stereo matching process. Here, a unit area corresponding to reliability data indicating reliability lower than a predetermined reliability may be specified as the irradiation area. In this case, multiple irradiation areas may be specified. Alternatively, a unit area corresponding to reliability data indicating the lowest reliability may be specified as the irradiation area.

そしてドライバ18が、照射部20による照射の設定を実行する(S105)。S105に示す処理では、CPU16からドライバ18に送信される制御信号に応じた照射の設定をドライバ18が実行してもよい。また、S105に示す処理において、ドライバ18は、照射部20の電源をオンにしてもよい。 Then, the driver 18 executes settings for irradiation by the irradiation unit 20 (S105). In the process shown in S105, the driver 18 may perform irradiation settings according to a control signal sent from the CPU 16 to the driver 18. Further, in the process shown in S105, the driver 18 may turn on the power of the irradiation unit 20.

そして、ドライバ18が、所与の光パターンを、S104に示す処理で特定された照射領域に表れている実空間内の場所に照射するよう照射部20を制御するとともに、撮影部10が一対の画像を撮影する(S106)。S106に示す処理では、CPU16からドライバ18に送信される制御信号に応じた照射をドライバ18が実行してもよい。S106に示す処理では、照射部20による所与の光パターンの照射は、カメラ22a及びカメラ22bが露光している期間の一部に行われる。 Then, the driver 18 controls the irradiation unit 20 to irradiate a given light pattern to a location in the real space appearing in the irradiation area specified in the process shown in S104, and the imaging unit 10 An image is photographed (S106). In the process shown in S106, the driver 18 may perform irradiation according to a control signal sent from the CPU 16 to the driver 18. In the process shown in S106, the irradiation unit 20 irradiates with a given light pattern during a part of the period during which the cameras 22a and 22b are exposed.

図3に示すように、照射部20に、所与の光パターンを出射する発光モジュール26と、当該光パターンを反射する反射部材28とが含まれていてもよい。この場合に、S105に示す処理で、ドライバ18が、反射部材28の位置及び向きのうちの少なくとも一方を制御してもよい。そしてS106に示す処理で、所与の光パターンが照射領域に表れている実空間内の場所に照射されるようにしてもよい。 As shown in FIG. 3, the irradiation unit 20 may include a light emitting module 26 that emits a given light pattern and a reflection member 28 that reflects the light pattern. In this case, the driver 18 may control at least one of the position and orientation of the reflecting member 28 in the process shown in S105. Then, in the process shown in S106, a given light pattern may be irradiated onto a location in the real space that appears in the irradiation area.

また、図4に示すように、S105に示す処理で、ドライバ18が、照射部20自体の位置及び向きのうちの少なくとも一方を制御してもよい。そして、S106に示す処理で、所与の光パターンが照射領域に表れている実空間内の場所に照射されるようにしてもよい。 Further, as shown in FIG. 4, the driver 18 may control at least one of the position and orientation of the irradiation unit 20 itself in the process shown in S105. Then, in the process shown in S106, a given light pattern may be irradiated onto a location in the real space that appears in the irradiation area.

以上の場合のように、ドライバ18は、照射部20の位置や向きを制御するアクチュエータであってもよい。 As in the above case, the driver 18 may be an actuator that controls the position and orientation of the irradiation unit 20.

また、図5に示すように、照射部20に、所与の光パターンを出射する発光モジュール26が複数含まれていてもよい。複数の発光モジュール26のそれぞれは、それぞれ実空間内の互いに異なる場所に対応付けられる。この場合に、S105に示す処理で、ドライバ18が、当該複数の発光モジュール26のうちから、照射領域に表れている実空間内の場所に対応付けられる発光モジュール26を選択してもよい。そして、S106に示す処理で、ドライバ18が、選択される発光モジュール26が所与の光パターンを出射するよう制御してもよい。 Further, as shown in FIG. 5, the irradiation unit 20 may include a plurality of light emitting modules 26 that emit a given light pattern. Each of the plurality of light emitting modules 26 is associated with a different location in real space. In this case, in the process shown in S105, the driver 18 may select, from among the plurality of light emitting modules 26, the light emitting module 26 associated with the location in the real space appearing in the irradiation area. Then, in the process shown in S106, the driver 18 may control the selected light emitting module 26 to emit a given light pattern.

この場合のように、ドライバ18は、所与の光パターンを出射させる発光モジュール26を切り替えるスイッチであってもよい。 As in this case, the driver 18 may be a switch that switches the light emitting module 26 to emit a given light pattern.

また、照射部20に、照射領域に表れている実空間内の場所を一部に含む場所に対する照射を行う走査式プロジェクターが含まれていてもよい。そして、S105及び106に示す処理で、ドライバ18が、所与の光パターンを、照射領域に表れている実空間内の場所に照射するよう当該走査式プロジェクターを制御してもよい。 Further, the irradiation unit 20 may include a scanning projector that irradiates a location including a part of the location in real space that appears in the irradiation area. Then, in the processes shown in S105 and S106, the driver 18 may control the scanning projector to irradiate a given light pattern to a location in the real space appearing in the irradiation area.

なお本実施形態において、例えば撮影部10の位置及び向きの計測や、照射部20の位置及び向きの計測が行われるようにしてもよい。そして当該計測の結果に基づいて、上述の照射制御(照射の設定、及び、照射)が行われるようにしてもよい。 Note that in this embodiment, for example, the position and orientation of the imaging unit 10 and the position and orientation of the irradiation unit 20 may be measured. Then, the above-mentioned irradiation control (irradiation setting and irradiation) may be performed based on the result of the measurement.

また、撮影部10の位置及び向きに対する照射部20の相対的な位置及び向きが固定されている場合については、撮影部10の位置及び向きと照射部20の位置及び向きとの対応は所与である。そのためこの場合は、当該所与の対応を表す数式等を用いることにより、上述の照射制御を行うことは可能である。 Furthermore, in the case where the relative position and orientation of the irradiation unit 20 with respect to the position and orientation of the imaging unit 10 are fixed, the correspondence between the position and orientation of the imaging unit 10 and the position and orientation of the irradiation unit 20 is given. It is. Therefore, in this case, it is possible to perform the above-mentioned irradiation control by using a mathematical formula or the like expressing the given correspondence.

また、例えば照射部20が、ロボットに搭載されており、照射部20のロボットに対する相対的な位置や向きが固定されていてもよい。そして、ロボットを動かすことにより、所与の光パターンが照射領域に表れている実空間内の場所に照射されるようにしてもよい。この場合、ドライバ18が、照射部20が搭載されているロボットの位置及び向きのうちの少なくとも一方を制御してもよい。 Further, for example, the irradiation section 20 may be mounted on a robot, and the relative position and orientation of the irradiation section 20 with respect to the robot may be fixed. Then, by moving the robot, the given light pattern may be irradiated onto a location in real space that appears in the irradiation area. In this case, the driver 18 may control at least one of the position and orientation of the robot on which the irradiation unit 20 is mounted.

例えば、照射部20が、ロボットの頭部に実装されており、照射部20のロボットの頭部に対する相対的な位置や向きが固定されていてもよい。そして、ロボットの頭部を動かすことにより、所与の光パターンが照射領域に表れている実空間内の場所に照射されるようにしてもよい。この場合、ドライバ18が、照射部20が搭載されているロボットの頭部の位置及び向きのうちの少なくとも一方を制御してもよい。 For example, the irradiation unit 20 may be mounted on the head of the robot, and the position and orientation of the irradiation unit 20 relative to the head of the robot may be fixed. Then, by moving the robot's head, the given light pattern may be irradiated onto a location in real space that appears in the irradiation area. In this case, the driver 18 may control at least one of the position and orientation of the head of the robot on which the irradiation unit 20 is mounted.

S106に示す処理が終了すると、デプスエンジン12が、S106に示す処理で撮影された一対の画像に対するステレオマッチング処理を実行する(S107)。 When the process shown in S106 is completed, the depth engine 12 performs stereo matching processing on the pair of images photographed in the process shown in S106 (S107).

そして、CPU16が、所定の消灯条件を満足するか否かを確認する(S108)。ここで、消灯条件を満足することが確認された場合は(S108:Y)、ドライバ18が、照射部20の電源をオフにして、照射部20を消灯して(S109)、S101に示す処理に戻る。 Then, the CPU 16 checks whether a predetermined light-off condition is satisfied (S108). Here, if it is confirmed that the light-off condition is satisfied (S108: Y), the driver 18 turns off the power to the irradiation unit 20, turns off the irradiation unit 20 (S109), and performs the process shown in S101. Return to

一方、消灯条件を満足しないことが確認された場合は(S108:Y)、S104に示す処理に戻る。 On the other hand, if it is confirmed that the light-off condition is not satisfied (S108: Y), the process returns to S104.

ここでS108に示す処理が実行されず、S107に示す処理が実行された後は、必ずS109に示す処理が実行されてもよい。 Here, the process shown in S108 may not be executed, and after the process shown in S107 is executed, the process shown in S109 may always be executed.

この場合は、図6に示すように、発光モジュール26による発光が行われるフレームと、発光モジュール26による発光が行われないフレームと、が交互に到来する。 In this case, as shown in FIG. 6, frames in which the light emitting module 26 emits light and frames in which the light emitting module 26 does not emit light occur alternately.

図6に示すように、本実施形態では例えば、発光モジュール26による発光が行われるフレームについては、発光モジュール26による発光が、カメラ22a及びカメラ22bが露光している期間の一部に行われる。 As shown in FIG. 6, in this embodiment, for example, in a frame in which the light emitting module 26 emits light, the light emitting module 26 emits light during a part of the period during which the camera 22a and the camera 22b are exposed.

一方で、発光モジュール26による発光が行われないフレームについては、デプスエンジン12は、所与の光パターンが照射されていない状況で撮影した画像に基づいて、ステレオマッチング処理を実行する。そして発光モジュール26による発光が行われないフレームに実行されたステレオマッチング処理の結果に基づいて、その次のフレームにおける照射領域の設定が実行される。 On the other hand, for frames in which the light emitting module 26 does not emit light, the depth engine 12 performs stereo matching processing based on images captured in a situation where the given light pattern is not irradiated. Then, based on the result of the stereo matching process performed on the frame in which the light emitting module 26 does not emit light, the irradiation area for the next frame is set.

そして当該次のフレームについては、撮影部10は、所与の光パターンが照射された場所を撮影する。そして、デプスエンジン12は、所与の光パターンが照射された場所を撮影した画像に基づいて、当該画像に表れている実空間内の各位置のデプスデータを生成することとなる。 For the next frame, the photographing unit 10 photographs the location illuminated with the given light pattern. Then, the depth engine 12 generates depth data for each position in the real space appearing in the image based on an image taken of a place illuminated with a given light pattern.

図6の例では、時間T1において撮影された画像に基づくステレオマッチング処理の結果に基づいて、時間T2において所与の光パターンが照射される照射領域が設定される。そして、時間T2を一部に含む時間T3に、当該照射がされた場所の撮影が行われる。同様に、時間T4において撮影された画像に基づくステレオマッチング処理の結果に基づいて、時間T5において所与の光パターンが照射される照射領域が設定される。そして、時間T5を一部に含む時間T6に、当該照射がされた場所の撮影が行われる。 In the example of FIG. 6, an irradiation area to be irradiated with a given light pattern at time T2 is set based on the result of stereo matching processing based on an image photographed at time T1. Then, at time T3, which partially includes time T2, the irradiated location is photographed. Similarly, an irradiation area to be irradiated with a given light pattern at time T5 is set based on the result of stereo matching processing based on the image photographed at time T4. Then, at time T6, which partially includes time T5, the irradiated location is photographed.

図7は、所与の光パターンの照射が行われていない際に撮影された画像の一例を模式的に示す図である。図8は、光パターンの照射が行われた際に撮影された画像の一例を模式的に示す図である。例えば、図7に示す画像が時間T1において撮影された際に、領域Rが照射領域として特定される。ここでは、特徴点がない、あるいは、特徴点が少ない、テーブルの上の領域Rが照射領域に設定されている。この場合、その次のフレームにおいて領域Rに所与の光パターンが照射され、時間T3に図8に示す画像が撮影される。 FIG. 7 is a diagram schematically showing an example of an image photographed when irradiation with a given light pattern is not performed. FIG. 8 is a diagram schematically showing an example of an image photographed when the light pattern is irradiated. For example, when the image shown in FIG. 7 is captured at time T1, region R is specified as the irradiation region. Here, an area R on the table where there are no feature points or few feature points is set as the irradiation area. In this case, in the next frame, the region R is irradiated with a given light pattern, and the image shown in FIG. 8 is photographed at time T3.

また、S108に示す処理において、CPU16が、S104~S107に示す処理の実行が開始されてからの時間を監視してもよい。そして、監視された時間が所定の時間を超えた場合に、CPU16が、消灯時間を満足すると判定し、ドライバ18が、S109に示す処理を実行してもよい。あるいは、S108に示す処理において、CPU16が、S101~S103に示す処理が実行されることなくS104~S107に示す処理が連続して実行された回数を監視してもよい。そして、監視された回数が所定の回数を超えた場合に、CPU16が、消灯時間を満足すると判定し、ドライバ18が、S109に示す処理を実行してもよい。 Furthermore, in the process shown in S108, the CPU 16 may monitor the time elapsed since execution of the processes shown in S104 to S107 was started. Then, when the monitored time exceeds a predetermined time, the CPU 16 may determine that the lights-out time is satisfied, and the driver 18 may execute the process shown in S109. Alternatively, in the process shown in S108, the CPU 16 may monitor the number of times the processes shown in S104 to S107 are consecutively executed without executing the processes shown in S101 to S103. Then, when the number of monitored times exceeds a predetermined number of times, the CPU 16 may determine that the lights-out time is satisfied, and the driver 18 may execute the process shown in S109.

また、S108に示す処理で、CPU16が、直前のフレームで撮影された画像と当該フレームで撮影された画像の差分を特定してもよい。そして、当該差分が所定の差分より大きい場合に、CPU16が、消灯時間を満足すると判定し、ドライバ18が、S109に示す処理を実行してもよい。あるいは、所定時間以上、特定される差分が所定の差分より小さい場合に、CPU16が、消灯時間を満足すると判定し、ドライバ18が、S109に示す処理を実行してもよい。 Further, in the process shown in S108, the CPU 16 may identify the difference between the image captured in the immediately previous frame and the image captured in the current frame. If the difference is larger than a predetermined difference, the CPU 16 may determine that the light-off time is satisfied, and the driver 18 may execute the process shown in S109. Alternatively, if the specified difference is smaller than the predetermined difference for a predetermined time or more, the CPU 16 may determine that the lights-out time is satisfied, and the driver 18 may execute the process shown in S109.

また、光パターン照射制御装置1にモーションセンサが含まれていてもよい。そして、当該フレームにおけるモーションセンサの計測結果である動きの大きさを表す値が、所定値よりも大きい場合に、CPU16が、消灯時間を満足すると判定し、ドライバ18が、S109に示す処理を実行してもよい。あるいは、所定時間以上、上述の動きの大きさを表す値が所定値より小さい場合に、CPU16が、消灯時間を満足すると判定し、ドライバ18が、S109に示す処理を実行してもよい。 Further, the light pattern irradiation control device 1 may include a motion sensor. Then, if the value representing the magnitude of movement, which is the measurement result of the motion sensor in the frame, is larger than a predetermined value, the CPU 16 determines that the lights-out time is satisfied, and the driver 18 executes the process shown in S109. You may. Alternatively, if the value representing the magnitude of the movement described above is smaller than the predetermined value for a predetermined time or longer, the CPU 16 may determine that the lights-out time is satisfied, and the driver 18 may execute the process shown in S109.

なお、本実施形態において、発光モジュール26による発光が行われるフレームと、発光モジュール26の位置や向きの変更が行われるフレームと、が交互に到来するようにしてもよい。また、発光モジュール26による発光が行われてから次のフレームにおける発光タイミングまでの間に、発光モジュール26の位置や向きが変更されてもよい。 In the present embodiment, frames in which the light emitting module 26 emits light and frames in which the position or orientation of the light emitting module 26 is changed may alternately occur. Furthermore, the position and orientation of the light emitting module 26 may be changed after the light emitting module 26 emits light and before the light emitting timing in the next frame.

また本実施形態において、CPU16が、撮影部10により撮影された画像内の複数の領域のそれぞれについて、当該画像から特徴抽出エンジン14によって抽出された特徴点の数を算出してもよい。当該領域は上述の単位領域と同じ領域であってもよいし異なる領域であってもよい。そして、CPU16が、算出された特徴点の数に基づいて、照射領域を特定してもよい。例えば、撮影された画像内における、算出された特徴点が所定数より少ない領域が、照射領域と特定されてもよい。あるいは、例えば、撮影された画像内における、算出された特徴点が最も少ない領域が、照射領域と特定されてもよい。 Further, in the present embodiment, the CPU 16 may calculate the number of feature points extracted by the feature extraction engine 14 from the image for each of a plurality of regions within the image captured by the imaging unit 10. The area may be the same area as the above-mentioned unit area or may be a different area. Then, the CPU 16 may specify the irradiation area based on the calculated number of feature points. For example, an area in a captured image in which the number of calculated feature points is less than a predetermined number may be specified as the irradiation area. Alternatively, for example, an area in a captured image having the least calculated feature points may be specified as the irradiation area.

デプスエンジン12により生成される信頼度データが示す信頼度が低い原因が、特徴点がないこと、あるいは、特徴点が少ないことによるものではないことがある。このような場合には、特徴抽出エンジン14により抽出される特徴点に基づいて照射領域を特定することが有効なことがある。 The reason for the low reliability indicated by the reliability data generated by the depth engine 12 may not be due to the absence of feature points or the lack of feature points. In such a case, it may be effective to specify the irradiation area based on the feature points extracted by the feature extraction engine 14.

また例えば、信頼度データ及び算出される特徴点の数に基づいて、照射領域が特定されてもよい。例えば、S104に示す処理で、所定の信頼度よりも低い信頼度を示す信頼度データに対応する領域が複数特定される場合に、当該複数の領域のうちの、算出された特徴点が最も少ない領域が、照射領域と特定されてもよい。 Further, for example, the irradiation area may be specified based on the reliability data and the number of calculated feature points. For example, in the process shown in S104, when a plurality of regions corresponding to reliability data indicating a reliability lower than a predetermined reliability are identified, among the plurality of regions, the calculated feature points are the least. The area may be identified as the irradiation area.

また、CPU16、又は、特徴抽出エンジン14が、撮影部10が撮影した画像に対する物体認識処理を実行してもよい。そして例えば、床、壁、テーブルなどといった所定の物体が認識された領域が、照射領域と特定されてもよい。 Further, the CPU 16 or the feature extraction engine 14 may perform object recognition processing on the image photographed by the photographing unit 10. For example, an area where a predetermined object such as a floor, wall, table, etc. is recognized may be specified as the irradiation area.

ここで光パターン照射制御装置1に加速度センサが含まれていてもよい。そして上述の物体認識処理において当該加速度センサの計測結果(例えば重力方向の情報)が用いられてもよい。 Here, the light pattern irradiation control device 1 may include an acceleration sensor. The measurement results of the acceleration sensor (for example, information on the direction of gravity) may be used in the object recognition process described above.

また、照射領域が複数特定される場合に、別の基準(例えば所与の重要度)に基づいていずれかの照射領域が特定されてもよい。そして所与の光パターンが、特定された照射領域に表れている実空間内の場所に照射されるようにしてもよい。 Furthermore, when a plurality of irradiation areas are specified, one of the irradiation areas may be specified based on another criterion (for example, a given degree of importance). Then, the given light pattern may be irradiated onto a location in real space that appears in the specified irradiation area.

また、照射領域が複数特定される場合に、所与の光パターンが、それぞれの照射領域に表れている実空間内の場所に、順次、照射されるようにしてもよい。 Further, when a plurality of irradiation areas are specified, a given light pattern may be sequentially irradiated to a location in the real space appearing in each irradiation area.

また本実施形態において、照射部20による光パターンの照射を行っても、信頼度データが示す信頼度が所定の信頼度よりも高くならない場合は、照射部20による光パターンの照射が行われないようにしてもよい。例えばS103に示す処理で平均信頼度の値が所定値以上でないことが所定数のフレームにわたって連続して確認された場合は、光パターン照射制御装置1は、S104及びS105に示す処理を実行せずに、S101に示す処理に戻ってもよい。例えば、信頼度が低い原因がオクルージョンやノイズである場合には、光パターンの照射を行っても、信頼度データが示す信頼度が所定の信頼度よりも高くならない可能性がある。 Furthermore, in this embodiment, even if the irradiation section 20 irradiates the light pattern, if the reliability indicated by the reliability data does not become higher than a predetermined reliability, the irradiation section 20 does not irradiate the light pattern. You can do it like this. For example, if it is continuously confirmed in the process shown in S103 that the average reliability value is not equal to or greater than the predetermined value over a predetermined number of frames, the light pattern irradiation control device 1 does not execute the processes shown in S104 and S105. You may then return to the process shown in S101. For example, if the cause of the low reliability is occlusion or noise, even if a light pattern is irradiated, the reliability indicated by the reliability data may not become higher than a predetermined reliability.

また本実施形態において、光パターン照射制御装置1にモーションセンサが含まれていてもよい。そして直前のフレームからの移動量が所定の移動量よりも小さい場合は、照射部20による光パターンの照射が行われないようにしてもよい。 Further, in this embodiment, the light pattern irradiation control device 1 may include a motion sensor. If the amount of movement from the immediately previous frame is smaller than a predetermined amount of movement, the irradiation unit 20 may not emit the light pattern.

本実施形態では以上で説明したように、撮影部10により撮影された画像に基づいて、当該画像の一部を占める、光パターンを照射すべき照射領域が特定される。そして、所与の光パターンを、照射領域に表れている実空間内の場所に照射するよう照射部20が制御される。そのため本実施形態によれば、広い範囲に所与の光パターンが照射される場合よりも、消費電力を低減できることとなる。例えば撮影部10からの距離が所定の距離である場所に光パターンの照射を行う場合、FOV(Field of View)が大きいと、照射出力は照射半径の二乗に比例する。そのため、照射半径が半分となれば照射出力は1/4となる。 In this embodiment, as described above, based on the image photographed by the photographing unit 10, an irradiation area that occupies a part of the image and is to be irradiated with a light pattern is specified. The irradiation unit 20 is then controlled to irradiate a given light pattern onto a location in real space that appears in the irradiation area. Therefore, according to this embodiment, power consumption can be reduced more than when a given light pattern is irradiated over a wide range. For example, when a light pattern is irradiated to a place at a predetermined distance from the imaging unit 10, if the FOV (Field of View) is large, the irradiation output is proportional to the square of the irradiation radius. Therefore, if the irradiation radius is halved, the irradiation output will be 1/4.

なお、本発明は上述の実施形態に限定されるものではない。 Note that the present invention is not limited to the above-described embodiments.

例えば、撮影部10と照射部20とは、互いに異なるデバイスに設けられていてもよい。 For example, the imaging section 10 and the irradiation section 20 may be provided in different devices.

また例えば、デプスデータの生成に用いられる画像を撮影する撮影部(以下、第1の撮影部と呼ぶ。)と、照射領域の特定に用いられる画像を撮影する撮影部(以下、第2の撮影部と呼ぶ。)とは、別体であってもよい。この場合、第2の撮影部により撮影される画像に基づいて、照射制御が実行されてもよい。そして第1の撮影部が、当該照射制御により所与の光パターンが照射された物体を撮影してもよい。そして、第1の撮影部が撮影した画像に基づいて、デプスデータが生成されてもよい。ここで例えば、第2の撮影部と照射部20とは一体のデバイスに設けられており、第1の撮影部が当該デバイスとは別のデバイスに設けられていてもよい。 Furthermore, for example, an imaging unit (hereinafter referred to as a first imaging unit) that photographs an image used to generate depth data, and an imaging unit (hereinafter referred to as a second imaging unit) that photographs an image used to specify an irradiation area. ) may be a separate entity. In this case, irradiation control may be performed based on the image photographed by the second photographing section. Then, the first photographing unit may photograph an object illuminated with a given light pattern by the illumination control. Then, depth data may be generated based on the image photographed by the first photographing section. Here, for example, the second imaging section and the irradiation section 20 may be provided in an integrated device, and the first imaging section may be provided in a different device from the device.

また本実施形態において、一対の画像に基づいて、照射領域が特定される必要はない。例えば、特徴抽出エンジン14が1つの画像から特徴点を抽出してもよい。そして、当該抽出の結果に基づいて、当該画像内における照射領域が特定されてもよい。 Furthermore, in this embodiment, the irradiation area does not need to be specified based on the pair of images. For example, the feature extraction engine 14 may extract feature points from one image. Then, based on the result of the extraction, the irradiation area within the image may be specified.

また、本発明は、ステレオマッチング方式以外の方式によるデプスデータの生成においても適用可能である。 Furthermore, the present invention is also applicable to the generation of depth data using methods other than the stereo matching method.

また、上記の具体的な文字列や数値及び図面中の具体的な文字列や数値は例示であり、これらの文字列や数値には限定されない。 Further, the specific character strings and numerical values mentioned above and the specific character strings and numerical values in the drawings are merely examples, and the present invention is not limited to these character strings and numerical values.

Claims (4)

撮影された画像に基づいて、当該画像の一部を占める、所与の光パターンを照射すべき照射領域を特定する照射領域特定部と、
前記光パターンを、前記照射領域に表れている実空間内の場所に照射するよう照射部を制御する照射制御部と、
前記光パターンが照射された場所を撮影した画像に基づいて、当該画像に表れている実空間内の各位置のデプスデータを生成するデプスデータ生成部と、を含み、
前記照射部には、前記光パターンを出射する複数の発光モジュールが含まれており、
前記照射制御部は、前記複数の発光モジュールのうちから、前記照射領域に表れている実空間内の場所に対応付けられる前記発光モジュールを選択し、選択される前記発光モジュールが前記光パターンを出射するよう制御する、
とを特徴とする光パターン照射制御装置。
an irradiation area specifying unit that specifies an irradiation area that occupies a part of the image and is to be irradiated with a given light pattern based on the photographed image;
an irradiation control unit that controls an irradiation unit to irradiate the light pattern to a location in real space appearing in the irradiation area;
a depth data generation unit that generates depth data for each position in real space appearing in the image based on an image taken of a place irradiated with the light pattern ;
The irradiation unit includes a plurality of light emitting modules that emit the light pattern,
The irradiation control unit selects the light emitting module associated with a location in real space appearing in the irradiation area from among the plurality of light emitting modules, and causes the selected light emitting module to emit the light pattern. control to
A light pattern irradiation control device characterized by :
前記照射領域特定部は、ステレオマッチング処理の実行結果の信頼度に基づいて、前記照射領域を特定する、
ことを特徴とする請求項1に記載の光パターン照射制御装置。
The irradiation area specifying unit specifies the irradiation area based on the reliability of the execution result of the stereo matching process.
The light pattern irradiation control device according to claim 1, characterized in that:
前記照射領域特定部は、撮影された画像内の複数の領域のそれぞれについて抽出される特徴点の数に基づいて、前記照射領域を特定する、
ことを特徴とする請求項1又は2に記載の光パターン照射制御装置。
The irradiation area specifying unit specifies the irradiation area based on the number of feature points extracted for each of a plurality of areas in the captured image.
The light pattern irradiation control device according to claim 1 or 2, characterized in that:
撮影された画像に基づいて、当該画像の一部を占める、所与の光パターンを照射すべき照射領域を特定する照射領域特定ステップと、
前記光パターンを、前記照射領域に表れている実空間内の場所に照射するよう照射部を制御する照射制御ステップと、
前記光パターンが照射された場所を撮影した画像に基づいて、当該画像に表れている実空間内の各位置のデプスデータを生成するデプスデータ生成ステップと、を含み、
前記照射部には、前記光パターンを出射する複数の発光モジュールが含まれており、
前記照射制御ステップでは、前記複数の発光モジュールのうちから、前記照射領域に表れている実空間内の場所に対応付けられる前記発光モジュールが選択され、選択される前記発光モジュールが前記光パターンを出射するよう制御される、
とを特徴とする光パターン照射制御方法。
an irradiation area identification step of identifying an irradiation area that occupies a part of the image and is to be irradiated with a given light pattern, based on the photographed image;
an irradiation control step of controlling an irradiation unit to irradiate the light pattern to a location in real space appearing in the irradiation area;
a depth data generation step of generating depth data for each position in real space appearing in the image based on an image taken of a place irradiated with the light pattern ;
The irradiation unit includes a plurality of light emitting modules that emit the light pattern,
In the irradiation control step, a light emitting module that is associated with a location in real space appearing in the irradiation area is selected from among the plurality of light emitting modules, and the selected light emitting module emits the light pattern. controlled to
A light pattern irradiation control method characterized by :
JP2021520697A 2019-05-17 2020-05-07 Light pattern irradiation control device and light pattern irradiation control method Active JP7399160B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019093819 2019-05-17
JP2019093819 2019-05-17
PCT/JP2020/018591 WO2020235348A1 (en) 2019-05-17 2020-05-07 Optical pattern radiation control device and optical pattern radiation control method

Publications (3)

Publication Number Publication Date
JPWO2020235348A1 JPWO2020235348A1 (en) 2020-11-26
JPWO2020235348A5 JPWO2020235348A5 (en) 2023-04-04
JP7399160B2 true JP7399160B2 (en) 2023-12-15

Family

ID=73458515

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021520697A Active JP7399160B2 (en) 2019-05-17 2020-05-07 Light pattern irradiation control device and light pattern irradiation control method

Country Status (2)

Country Link
JP (1) JP7399160B2 (en)
WO (1) WO2020235348A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7388601B1 (en) * 2022-05-09 2023-11-29 三菱電機株式会社 Structure measurement device, data processing device, and structure measurement method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007017355A (en) 2005-07-08 2007-01-25 Omron Corp Generation device and generation method of floodlight pattern for executing stereo correspondence
JP2008232776A (en) 2007-03-20 2008-10-02 Fujifilm Corp Three-dimensional shape measuring device and method, and program
JP2010091492A (en) 2008-10-10 2010-04-22 Fujifilm Corp Photographing apparatus and method for three-dimensional shape measurement and program
JP2011209019A (en) 2010-03-29 2011-10-20 Sony Corp Robot device and method of controlling the same
JP2012098087A (en) 2010-10-29 2012-05-24 Canon Inc Measurement device and measurement method
JP2017530352A (en) 2014-09-11 2017-10-12 サイバーオプティクス コーポレーション Integration of point clouds from multiple cameras and light sources in 3D surface shape measurement

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10186051B2 (en) * 2017-05-11 2019-01-22 Dantec Dynamics A/S Method and system for calibrating a velocimetry system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007017355A (en) 2005-07-08 2007-01-25 Omron Corp Generation device and generation method of floodlight pattern for executing stereo correspondence
JP2008232776A (en) 2007-03-20 2008-10-02 Fujifilm Corp Three-dimensional shape measuring device and method, and program
JP2010091492A (en) 2008-10-10 2010-04-22 Fujifilm Corp Photographing apparatus and method for three-dimensional shape measurement and program
JP2011209019A (en) 2010-03-29 2011-10-20 Sony Corp Robot device and method of controlling the same
JP2012098087A (en) 2010-10-29 2012-05-24 Canon Inc Measurement device and measurement method
JP2017530352A (en) 2014-09-11 2017-10-12 サイバーオプティクス コーポレーション Integration of point clouds from multiple cameras and light sources in 3D surface shape measurement

Also Published As

Publication number Publication date
WO2020235348A1 (en) 2020-11-26
JPWO2020235348A1 (en) 2020-11-26

Similar Documents

Publication Publication Date Title
EP2869263A1 (en) Method and apparatus for generating depth map of a scene
JP4983905B2 (en) Imaging apparatus, 3D modeling data generation method, and program
CN115174877A (en) Projection apparatus and focusing method of projection apparatus
CN114827573A (en) Adjusting camera exposure for three-dimensional depth sensing and two-dimensional imaging
WO2019184184A1 (en) Target image acquisition system and method
EP1146313A2 (en) Image pickup apparatus and method, and recording medium
JP7399160B2 (en) Light pattern irradiation control device and light pattern irradiation control method
JP2016181068A (en) Learning sample imaging device
TW201705088A (en) Generating a disparity map based on stereo images of a scene
US10979684B2 (en) Image processing apparatus, information processing method, and program for associating an element in a background shape model with an image capturing apparatus
KR101817756B1 (en) PTM making system based on 3D model with interactive viewpoint control and method using the same
JP2022003730A5 (en)
JP6681141B2 (en) Method and device for three-dimensional measurement of oral cavity
JP6212984B2 (en) Projection apparatus, projection method, and program
CN110245618B (en) 3D recognition device and method
CN117157669A (en) System and method for dynamic image processing and segmentation
US11501408B2 (en) Information processing apparatus, information processing method, and program
WO2013086543A2 (en) Ambient light alert for an image sensor
KR20160073488A (en) Handheld 3D Scanner
JP2016162034A (en) Three-dimensional model generation system, three-dimensional model generation apparatus, and three-dimensional model generation method
JP2003191189A (en) Robot device and its control method
JP7474759B2 (en) Vehicle lighting fixtures
US20230396746A1 (en) Image projection system and image projection method
JP2018025809A (en) Light irradiation control device and program
WO2024134934A1 (en) Three-dimensional information extraction device and three-dimensional information extraction method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230327

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230327

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231128

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231205

R150 Certificate of patent or registration of utility model

Ref document number: 7399160

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150