WO2021172256A1 - 3次元撮影装置および撮影条件調整方法 - Google Patents

3次元撮影装置および撮影条件調整方法 Download PDF

Info

Publication number
WO2021172256A1
WO2021172256A1 PCT/JP2021/006580 JP2021006580W WO2021172256A1 WO 2021172256 A1 WO2021172256 A1 WO 2021172256A1 JP 2021006580 W JP2021006580 W JP 2021006580W WO 2021172256 A1 WO2021172256 A1 WO 2021172256A1
Authority
WO
WIPO (PCT)
Prior art keywords
distance information
dimensional
region
acquired
camera
Prior art date
Application number
PCT/JP2021/006580
Other languages
English (en)
French (fr)
Inventor
順一郎 吉田
象太 滝澤
Original Assignee
ファナック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ファナック株式会社 filed Critical ファナック株式会社
Priority to JP2022503595A priority Critical patent/JP7368590B2/ja
Priority to US17/790,970 priority patent/US11943422B2/en
Priority to CN202180016344.XA priority patent/CN115136196A/zh
Priority to DE112021000412.3T priority patent/DE112021000412T5/de
Publication of WO2021172256A1 publication Critical patent/WO2021172256A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • H04N7/185Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source from a mobile camera, e.g. for remote control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2545Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with one projection direction and several detection directions, e.g. stereo
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • G01C3/08Use of electric radiation detectors
    • G01C3/085Use of electric radiation detectors with electronic parallax measurement
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39393Camera detects projected image, compare with reference image, position end effector
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Definitions

  • This disclosure relates to a three-dimensional imaging device and an imaging condition adjustment method.
  • Patent Document 1 There is known an object extraction device that measures the distance to an object using a three-dimensional imaging device and extracts the object by a robot (see, for example, Patent Document 1).
  • One aspect of the present disclosure is one or more processors including at least one camera that acquires a two-dimensional image of an object and distance information, a monitor that displays the two-dimensional image acquired by the cameras, and hardware.
  • the processor acquires a first region in which the distance information is unnecessary in the two-dimensional image displayed on the monitor, and the amount of the distance information acquired by the camera in the acquired first region. Is equal to or less than a predetermined first threshold value, and the amount of the distance information acquired by the camera in at least a part of the second region other than the first region is larger than the predetermined second threshold value.
  • This is a three-dimensional imaging device that is set to increase the number of imaging conditions.
  • the three-dimensional photographing apparatus 1 is an apparatus for acquiring distance information of an object O taken out by the robot 100, for example.
  • the three-dimensional photographing device 1 includes a three-dimensional camera (camera) 2 that photographs an object O and acquires a two-dimensional image and distance information, and a control device 3 into which the acquired two-dimensional image and distance information are input. I have.
  • reference numeral T is a hand attached to the tip of the wrist 110 of the robot 100 and capable of grasping the object O.
  • the three-dimensional camera 2 has two two-dimensional cameras 4 and 5 arranged at intervals in a direction orthogonal to the optical axis A, and a predetermined pattern with respect to the object O.
  • a projector (illumination device) 6 for irradiating the illumination light of the above and a control unit (processor) 7 are provided.
  • the three-dimensional camera 2 is installed downward above the object O by, for example, a mount (not shown). Alternatively, the three-dimensional camera 2 may be mounted on the wrist 110 of the robot 100.
  • the three-dimensional camera 2 acquires two two-dimensional images obtained by shooting an object O irradiated with a predetermined pattern of illumination light by the projector 6 from different directions by the two two-dimensional cameras 4 and 5.
  • the control unit 7 is composed of a processor, operates the two-dimensional cameras 4 and 5 and the projector 6 in response to a command from the control device 3 side, and from two two-dimensional images acquired by the two-dimensional cameras 4 and 5. Calculate the distance information of the object O.
  • the distance information is calculated by, for example, searching for a small area in which the patterns match in the two two-dimensional images, and obtaining the parallax from the difference in the positions of the searched small areas on the image.
  • the distance information of the object O is calculated by converting the parallax at each position on the image into a distance.
  • the matching score is calculated by the SAD (Sum of Absolute Difference) method, and the matching score is the highest (absolute value of the difference in brightness value in each pixel). Search for a small area (with the smallest sum).
  • the control device 3 includes one or more processors 8 including hardware, a memory 9, a monitor 10, and an input device 11 such as a keyboard or a mouse for allowing a user to input. It is a computer. Any one of the two-dimensional images and the distance information acquired by the three-dimensional camera 2 are input to the control device 3.
  • the processor 8 displays the input two-dimensional image on the monitor 10, and in the displayed two-dimensional image, the first area X that does not need to acquire the distance information and the second area Y that wants to acquire the distance information. Is specified by the input device 11.
  • the first area X and the second area Y are designated, for example, by surrounding the area with a mouse or moving a cursor on the screen with a keyboard.
  • the memory 9 stores one or more adjustable parameters and threshold values as shooting conditions when acquiring distance information.
  • Parameters include the exposure time of the two-dimensional cameras 4 and 5, the amount of light of the projector 6, the matching score calculated in pattern matching, the size of a small area used in pattern matching, and the like.
  • the thresholds are the first threshold Th1 indicating the upper limit of the amount L1 of the distance information acquired in the first region X and the second threshold Th2 indicating the lower limit of the amount L2 of the distance information acquired in the second region Y.
  • the second threshold Th2 is larger than the first threshold Th1.
  • the processor 8 switches the parameters of the shooting conditions stored in the memory 9 and sends a command to the three-dimensional camera 2 to acquire the distance information. Then, in the processor 8, the amount L1 of the distance information acquired in the first region X is equal to or less than the first threshold value Th1, and the amount L2 of the distance information acquired in the second region Y is larger than the second threshold value Th2. Search for shooting conditions.
  • the imaging condition adjusting method using the three-dimensional imaging apparatus 1 according to the present embodiment configured as described above will be described below.
  • the shooting condition adjustment method according to the present embodiment will be described by taking, for example, a case where only the exposure time is adjusted as a parameter of the shooting condition.
  • the object O is placed in the field of view of the two two-dimensional images (step S1), and two-dimensionally by one of the two-dimensional cameras 4 and 5 without operating the projector 6. Acquire an image (step S2).
  • the acquired two-dimensional image of the object O is displayed on the monitor 10 by the processor 8 (step S3), and the user sets the first region X that does not require the distance information and the second region Y that the user wants to acquire the distance information. It becomes a specifiable state. In this state, the user specifies the first region X and the second region Y on the displayed two-dimensional image (step S4).
  • the first region X is the boundary between the two corrugated cardboard boxes which are the objects O.
  • the inside of the rectangle is specified by surrounding the line with a rectangle (indicated by hatching in the figure).
  • the designation of the second region Y specifies the inside of the rectangle by, for example, surrounding the entire region of the upper surface of the two corrugated cardboard boxes which are the objects O arranged adjacent to each other by the rectangle.
  • reference numeral P is a gum tape for packing a cardboard box.
  • the processor 8 When the first region X and the second region Y are specified, the processor 8 initializes the counter n (step S5) and sets the parameter P (n) of the shooting conditions for acquiring the distance information (step S6). ..
  • the two 2D images acquired by the two 2D cameras 4 and 5 are processed by an image processing unit (not shown) of the 3D camera 2. Pattern matching is performed using a small area of the set size, the parallax of the two 2D images is calculated only at the corresponding points that satisfy the set matching score, and the distance information is obtained based on the parallax. (Step S8).
  • the distance information obtained in the first region X and the second region Y is sent to the control device 3, and whether or not the amount L1 of the distance information obtained in the first region X is equal to or less than the first threshold Th1. Is determined (step S9). When the amount L1 of the distance information is larger than the first threshold value Th1, it is determined whether or not the counter n has the maximum value n max (step S10).
  • step S9 when it is determined that the amount L1 of the distance information obtained in the first region X is equal to or less than the first threshold value Th1, the amount L2 of the distance information obtained in the second region Y is the first. It is determined whether or not the threshold value is Th2 or less (step S12). If the amount of distance information L2 is equal to or less than the second threshold value Th2, the process proceeds to step S10.
  • step S12 When the amount L2 of the distance information is larger than the second threshold value Th2 in step S12, it is determined whether or not the amount L2 of the distance information is equal to or less than the maximum value L2 max (step S13), and when the amount L2 is equal to or less than the second threshold value Th2. To step S10.
  • the counter n is saved as the counter max of the parameter P (n) that maximizes the amount L2 of the distance information (step S14).
  • the maximum value L2 max is updated to the value of the amount L2 of the distance information (step S15), and the process proceeds to step S10.
  • step S10 when the counter n has the maximum value n max , P (max) is set as a shooting condition (step S16), and the process ends.
  • the amount L1 of the distance information acquired in the first region X is equal to or less than the first threshold Th1 and the distance information acquired in the second region Y
  • the parameter P (max) at which the amount L2 is maximized can be set as a shooting condition. That is, in the present embodiment, by setting the boundary portion of the two corrugated cardboard boxes that are the objects O as the first region X, the amount L1 of the distance information acquired in the first region X is set to the first threshold Th1 or less. It is possible to set the shooting conditions to be suppressed to. As a result, it can be determined that the object O does not exist at the boundary between the two cardboard boxes, and the robot 100 can individually recognize each cardboard box as a separated object O.
  • the same distance information can be obtained as long as the same type of cardboard box is handled, and the two cardboard boxes arranged in close contact with each other are clearly separated as an object O. It has the advantage of being able to distinguish between.
  • the exposure time is adopted as the shooting condition, but the shooting condition is not limited to this, and other shooting conditions such as the amount of illumination light of the projector and the size of the score used for pattern recognition are used. At least one such as the size of the small area may be adopted.
  • the first region X which does not require distance information
  • the first region X is darker than the other regions, it is possible to make it difficult to obtain the distance information from the first region X by setting the amount of light of the projector 6 to be smaller.
  • halation can be caused by setting the amount of light of the projector 6 to be larger, and it is possible to make it difficult to obtain the distance information from the first region X.
  • the three-dimensional camera 2 includes the control unit (processor) 7 for calculating the distance information
  • the three-dimensional camera 2 outputs two two-dimensional images, and the distance information is obtained by the processor 8 in the control device 3. May be calculated.
  • the second region Y may be set for the entire remaining two-dimensional image.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

対象物(O)の2次元画像および距離情報を取得する少なくとも1つのカメラ(2)と、カメラ(2)により取得された2次元画像を表示するモニタと、ハードウェアを含む1つ以上のプロセッサとを備え、プロセッサが、モニタに表示された2次元画像において距離情報が不要な第1領域を取得し、取得した第1領域においてカメラ(2)により取得される距離情報の量が所定の第1閾値以下となり、かつ、第1領域以外の少なくとも一部の第2領域においてカメラ(2)により取得される距離情報の量が第1閾値よりも大きな所定の第2閾値よりも多くなる撮影条件に設定する3次元撮影装置(1)である。

Description

3次元撮影装置および撮影条件調整方法
 本開示は、3次元撮影装置および撮影条件調整方法に関するものである。
 3次元撮影装置を用いて対象物までの距離を計測し、ロボットによって対象物を取り出す対象物取出装置が知られている(例えば、特許文献1参照。)。
特開2008-246631号公報
 対象物の3次元的な形状を詳細に取得するために、一般には、露光時間あるいは光量等の撮影条件を切り替えて、より多くの距離情報を得ることができる撮影条件に調整することが行われている。この場合には、例えば、密接して配置された同一形状の2以上の段ボール箱のような対象物の場合に、高解像度の3次元カメラを使用しなければ、取得された3次元画像上において対象物の境界を識別することが困難な場合がある。したがって、比較的低解像度のカメラを用いても、簡易な調整によって、対象物の境界などの識別困難な領域をより明確に識別することが望まれている。
 本開示の一態様は、対象物の2次元画像および距離情報を取得する少なくとも1つのカメラと、該カメラにより取得された前記2次元画像を表示するモニタと、ハードウェアを含む1つ以上のプロセッサとを備え、該プロセッサが、前記モニタに表示された前記2次元画像において前記距離情報が不要な第1領域を取得し、取得した前記第1領域において前記カメラにより取得される前記距離情報の量が所定の第1閾値以下となり、かつ、前記第1領域以外の少なくとも一部の第2領域において前記カメラにより取得される前記距離情報の量が前記第1閾値よりも大きな所定の第2閾値よりも多くなる撮影条件に設定する3次元撮影装置である。
本開示の一実施形態に係る3次元撮影装置を適用したロボットシステムの一例を示す斜視図である。 図1の3次元撮影装置の3次元カメラを示すブロック図である。 図1の3次元撮影装置の制御装置を説明するブロック図である。 図1の3次元撮影装置を用いた撮影条件調整方法を示すフローチャートである。 図1の3次元撮影装置において、モニタに表示された画像上における第1領域および第2領域の指定の一例を示す図である。
 本開示の一実施形態に係る3次元撮影装置1および撮影条件調整方法について、図面を参照して以下に説明する。
 本実施形態に係る3次元撮影装置1は、図1に示されるように、例えば、ロボット100により取り出される対象物Oの距離情報を取得する装置である。3次元撮影装置1は、対象物Oを撮影して2次元画像および距離情報を取得する3次元カメラ(カメラ)2と、取得された2次元画像および距離情報が入力される制御装置3とを備えている。図1において、符号Tはロボット100の手首110先端に装着され、対象物Oを把持可能なハンドである。
 3次元カメラ2は、例えば、図2に示されるように、光軸Aに直交する方向に間隔をあけて配置された2つの2次元カメラ4,5と、対象物Oに対して所定のパターンの照明光を照射するプロジェクタ(照明装置)6と、制御部(プロセッサ)7とを備えている。3次元カメラ2は、例えば、図示しない架台によって対象物Oの上方に下向きに設置されている。これに代えて、3次元カメラ2をロボット100の手首110に搭載してもよい。
 3次元カメラ2は、プロジェクタ6により所定のパターンの照明光が照射させた対象物Oを、2つの2次元カメラ4,5によって、異なる方向からそれぞれ撮影した2つの2次元画像を取得する。制御部7はプロセッサにより構成され、制御装置3側からの指令を受けて2次元カメラ4,5およびプロジェクタ6を作動させるとともに、2次元カメラ4,5により取得された2枚の2次元画像から対象物Oの距離情報を算出する。
 距離情報の算出方法は、例えば、2つの2次元画像内においてパターンが一致する小領域を探索し、探索された小領域どうしの画像上の位置の差から視差を求めることにより行われる。3次元カメラ2から対象物までの距離が離れるほど視差は小さくなり、近づくほど視差が大きくなる。これを利用して、画像上の各位置における視差を距離に変換することにより、対象物Oの距離情報を算出している。
 2つの2次元画像内においてパターンが一致する小領域の探索は、例えば、SAD(Sum of Absolute Difference)法によりマッチングスコアを算出し、マッチングスコアの最も高い(各画素における輝度値の差の絶対値の総和が最も小さい)小領域を探索する。
 制御装置3は、図3に示されるように、ハードウェアを含む1つ以上のプロセッサ8と、メモリ9と、モニタ10と、ユーザに入力させるためのキーボードあるいはマウス等の入力装置11とを備えたコンピュータである。
 制御装置3には3次元カメラ2により取得されたいずれか1つの2次元画像および距離情報が入力される。
 プロセッサ8は、入力されてきた2次元画像をモニタ10に表示させ、表示された2次元画像において、距離情報を取得する必要がない第1領域Xと、距離情報を取得したい第2領域Yとを入力装置11によって指定させる。第1領域Xおよび第2領域Yの指定は、例えば、マウスによって領域を取り囲んだり、キーボードによって画面上のカーソルを移動させたりして行われる。
 メモリ9には、距離情報を取得する際の撮影条件として、調整可能な1以上のパラメータおよび閾値が記憶されている。パラメータとしては、2次元カメラ4,5の露光時間、プロジェクタ6の光量、パターンマッチングにおいて算出されるマッチングスコア、パターンマッチングにおいて使用される小領域の大きさ等を挙げることができる。
 閾値は、第1領域Xにおいて取得される距離情報の量L1の上限を示す第1閾値Th1と、第2領域Yにおいて取得される距離情報の量L2の下限を示す第2閾値Th2である。第2閾値Th2は、第1閾値Th1よりも大きい。
 プロセッサ8は、メモリ9に記憶されている撮影条件のパラメータを切り替えて3次元カメラ2に指令を送り、距離情報を取得させる。そして、プロセッサ8は、第1領域Xにおいて取得される距離情報の量L1が第1閾値Th1以下となり、かつ、第2領域Yにおいて取得される距離情報の量L2が第2閾値Th2よりも多くなる撮影条件を探索する。
 このように構成された本実施形態に係る3次元撮影装置1を用いた撮影条件調整方法について以下に説明する。
 本実施形態に係る撮影条件調整方法は、撮影条件のパラメータとして、例えば、露光時間のみを調整する場合を例に挙げて説明する。
 まず、図4に示されるように、2つの2次元画像の視野内に対象物Oを配置し(ステップS1)、プロジェクタ6を作動させることなく、いずれかの2次元カメラ4,5によって2次元画像を取得する(ステップS2)。
 取得された対象物Oの2次元画像は、プロセッサ8によって、モニタ10に表示され(ステップS3)、ユーザが、距離情報を必要としない第1領域Xおよび距離情報を取得したい第2領域Yを指定可能な状態となる。
 この状態で、ユーザが表示された2次元画像上において、第1領域Xおよび第2領域Yを指定する(ステップS4)。
 図5に示されるように、対象物Oが、隣接して配置されている2つの同一形状の段ボール箱である場合には、第1領域Xは、対象物Oである2つの段ボール箱の境界線を矩形(図中ハッチングによって示す。)によって取り囲むことにより、矩形の内側を指定する。また、第2領域Yの指定は、例えば、隣接して配置されている対象物Oである2つの段ボール箱の上面の全体領域を矩形によって取り囲むことにより、矩形の内側を指定する。図中、符号Pは段ボール箱を梱包するガムテープである。
 第1領域Xおよび第2領域Yが指定されると、プロセッサ8はカウンタnを初期化し(ステップS5)、距離情報を取得するための撮影条件のパラメータP(n)を設定する(ステップS6)。ここで、パラメータP(n)は、n=1から順にnが1つ増加するに従って所定間隔Δtずつ増大する露光時間である。
 そして、プロセッサ8は、設定された撮影条件に3次元カメラ2を調整した状態で、視差を有する2枚の2次元画像を取得させる(ステップS7)。
 2つの2次元カメラ4,5により取得された2枚の2次元画像は3次元カメラ2の図示しない画像処理部において処理される。設定された大きさの小領域を用いてパターンマッチングが行われ、設定されたマッチングスコアを満たす対応点においてのみ、2枚の2次元画像の視差が算出され、視差に基づいて距離情報が得られる(ステップS8)。
 そして、第1領域Xおよび第2領域Y内で得られた距離情報が制御装置3に送られ、第1領域Xにおいて得られた距離情報の量L1が第1閾値Th1以下であるか否かが判定される(ステップS9)。距離情報の量L1が第1閾値Th1よりも多い場合には、カウンタnが最大値nmaxであるか否かが判定される(ステップS10)。
 カウンタnが最大値nmaxではない場合には、カウンタnがインクリメントされ(ステップS11)、ステップS6からの工程が繰り返される。ステップS9において、第1領域X内で得られた距離情報の量L1が第1閾値Th1以下であると判定された場合には、第2領域Y内で得られた距離情報の量L2が第2閾値Th2以下であるか否かが判定される(ステップS12)。距離情報の量L2が第2閾値Th2以下である場合には、ステップS10に進行する。
 ステップS12において距離情報の量L2が第2閾値Th2よりも多い場合には、距離情報の量L2が最大値L2max以下か否かが判定され(ステップS13)、第2閾値Th2以下である場合にはステップS10に進行する。距離情報の量L2が最大値L2maxよりも大きい場合には、カウンタnが距離情報の量L2を最大にするパラメータP(n)のカウンタmaxとして保存される(ステップS14)。そして、最大値L2maxが距離情報の量L2の値に更新され(ステップS15)、ステップS10に進行する。
 ステップS10において、カウンタnが最大値nmaxである場合には、P(max)を撮影条件として設定し(ステップS16)、処理を終了する。
 このように、本実施形態に係る撮影条件調整方法によれば、第1領域Xにおいて取得される距離情報の量L1が第1閾値Th1以下となり、かつ第2領域Yにおいて取得される距離情報の量L2が最大となるパラメータP(max)を撮影条件として設定できる。すなわち、本実施形態においては、対象物Oである2つの段ボール箱の境界部分を第1領域Xとして設定することにより、第1領域Xにおいて取得される距離情報の量L1を第1閾値Th1以下に抑える撮影条件を設定することができる。その結果、2つの段ボール箱の境界には対象物Oが存在しない領域であると認定することができ、ロボット100に、各段ボール箱を個別に、分離した対象物Oとして認識させることができる。
 そして、撮影条件が一旦設定された後には、同一種類の段ボール箱を扱う限り、同様の距離情報を取得することができ、密着して配置された2つの段ボール箱を分離した対象物Oとして明確に区別することができるという利点がある。
 なお、本実施形態においては、撮影条件として、露光時間を採用したが、これに限定されるものではなく、他の撮影条件、例えば、プロジェクタの照明光量、パターン認識に使用するスコアの大きさ、小領域のサイズなどの少なくとも1つを採用してもよい。
 距離情報が不要な第1領域Xが他の領域よりも暗い場合に、プロジェクタ6の光量をより小さく設定することにより、第1領域Xからの距離情報を得にくくすることができる。第1領域Xが他の領域よりも明るい場合には、プロジェクタ6の光量をさらに大きく設定することによりハレーションを起こさせて第1領域Xからの距離情報を得にくくすることができる。
 パターン認識に使用するスコア(評価基準)を厳しく(より小さな値に)設定することにより、2つの2次元画像の第1領域X間における対応位置の発見を困難にして、第1領域Xからの距離情報を得にくくすることができる。
 また、小領域のサイズを小さくすると形状変化が大きい箇所や細かな形状でも対応位置の発見を容易にし、小領域のサイズを大きくすると形状変化が大きい箇所や細かな形状では対応位置の発見が困難になる一方で、平面部分での誤対応を少なくすることができる。
 また、3次元カメラ2が距離情報を算出する制御部(プロセッサ)7を備える場合を例示したが、3次元カメラ2は2つの2次元画像を出力し、制御装置3内のプロセッサ8によって距離情報を算出してもよい。
 また、モニタ10に表示された2次元画像において、距離情報が不要な第1領域Xと距離情報を必要とする第2領域Yとを指定することとしたが、第1領域Xのみを指定し、第2領域Yについては残りの2次元画像全体に設定してもよい。
 1 3次元撮影装置
 4,5 2次元カメラ(カメラ)
 6 プロジェクタ(照明装置)
 7 制御部(プロセッサ)
 8 プロセッサ
 10 モニタ
 A 光軸
 O 対象物
 X 第1領域
 Y 第2領域
 Th1 第1閾値
 Th2 第2閾値

Claims (14)

  1.  対象物の2次元画像および距離情報を取得する少なくとも1つのカメラと、
     該カメラにより取得された前記2次元画像を表示するモニタと、
     ハードウェアを含む1つ以上のプロセッサとを備え、
     該プロセッサが、
     前記モニタに表示された前記2次元画像において前記距離情報が不要な第1領域を取得し、
     取得した前記第1領域において前記カメラにより取得される前記距離情報の量が所定の第1閾値以下となり、かつ、前記第1領域以外の少なくとも一部の第2領域において前記カメラにより取得される前記距離情報の量が前記第1閾値よりも大きな所定の第2閾値よりも多くなる撮影条件に設定する3次元撮影装置。
  2.  前記プロセッサが、前記モニタに表示された前記2次元画像において前記距離情報を必要とする前記第2領域を取得する請求項1に記載の3次元撮影装置。
  3.  前記撮影条件が、前記カメラの露光時間を含む請求項1または請求項2に記載の3次元撮影装置。
  4.  前記対象物を照明する照明装置を備え、
     前記撮影条件が、前記照明装置による照明光量を含む請求項1から請求項3のいずれかに記載の3次元撮影装置。
  5.  前記カメラが光軸に交差する方向に間隔をあけて2つ備えられ、
     前記プロセッサが、2つの前記カメラにより取得された2つの前記2次元画像内の小領域のマッチングにより2つの前記2次元画像の各部における視差を算出して、算出された該視差に基づいて前記距離情報を算出する請求項1から請求項4のいずれかに記載の3次元撮影装置。
  6.  前記撮影条件が、前記マッチングの評価基準を含む請求項5に記載の3次元撮影装置。
  7.  前記撮影条件が、前記小領域の大きさを含む請求項5または請求項6に記載の3次元撮影装置。
  8.  対象物の2次元画像および距離情報を取得する少なくとも1つのカメラにより取得された前記2次元画像において、前記距離情報が不要な第1領域を指定し、
     指定された前記第1領域において取得される前記距離情報の量が所定の第1閾値以下となり、かつ、前記第1領域以外の少なくとも一部の第2領域において取得される前記距離情報の量が前記第1閾値よりも大きな所定の第2閾値よりも多くなる撮影条件に設定する撮影条件調整方法。
  9.  モニタに表示された前記2次元画像において前記距離情報を必要とする前記第2領域を指定する請求項8に記載の撮影条件調整方法。
  10.  前記撮影条件が、前記カメラの露光時間を含む請求項8または請求項9に記載の撮影条件調整方法。
  11.  前記撮影条件が、前記対象物を照明する照明光量を含む請求項8から請求項10のいずれかに記載の撮影条件調整方法。
  12.  光軸に交差する方向に間隔をあけて備えられた2つの前記カメラにより取得された前記対象物の2つの前記2次元画像において、該2次元画像内の小領域のマッチングにより2つの前記2次元画像の各部における視差を算出し、算出された該視差に基づいて前記距離情報を算出する請求項8から請求項11のいずれかに記載の撮影条件調整方法。
  13.  前記撮影条件が、前記マッチングの評価基準を含む請求項12に記載の撮影条件調整方法。
  14.  前記撮影条件が、前記小領域の大きさを含む請求項12または請求項13に記載の撮影条件調整方法。
PCT/JP2021/006580 2020-02-27 2021-02-22 3次元撮影装置および撮影条件調整方法 WO2021172256A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2022503595A JP7368590B2 (ja) 2020-02-27 2021-02-22 3次元撮影装置および撮影条件調整方法
US17/790,970 US11943422B2 (en) 2020-02-27 2021-02-22 Three-dimensional image-capturing device and image-capturing condition adjusting method
CN202180016344.XA CN115136196A (zh) 2020-02-27 2021-02-22 三维拍摄装置以及拍摄条件调整方法
DE112021000412.3T DE112021000412T5 (de) 2020-02-27 2021-02-22 3d-bildaufnahmevorrichtung und bildaufnahmebedingungseinstellungsverfahren

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020031614 2020-02-27
JP2020-031614 2020-02-27

Publications (1)

Publication Number Publication Date
WO2021172256A1 true WO2021172256A1 (ja) 2021-09-02

Family

ID=77490997

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/006580 WO2021172256A1 (ja) 2020-02-27 2021-02-22 3次元撮影装置および撮影条件調整方法

Country Status (5)

Country Link
US (1) US11943422B2 (ja)
JP (1) JP7368590B2 (ja)
CN (1) CN115136196A (ja)
DE (1) DE112021000412T5 (ja)
WO (1) WO2021172256A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004245701A (ja) * 2003-02-14 2004-09-02 Toyota Central Res & Dev Lab Inc 距離分布検知装置
JP2008298533A (ja) * 2007-05-30 2008-12-11 Konica Minolta Holdings Inc 障害物計測方法、障害物計測装置及び障害物計測システム
JP2009210520A (ja) * 2008-03-06 2009-09-17 Sharp Corp 距離測定装置および距離測定方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4309439B2 (ja) 2007-03-30 2009-08-05 ファナック株式会社 対象物取出装置
JP5538179B2 (ja) 2010-10-25 2014-07-02 アズビル株式会社 画像処理装置及び画像処理方法
US10789773B2 (en) * 2016-03-04 2020-09-29 TIREAUDIT.COM, Inc. Mesh registration system and method for diagnosing tread wear
WO2018200923A1 (en) * 2017-04-27 2018-11-01 Curadel, LLC Range-finding in optical imaging
JP6919987B2 (ja) 2017-07-31 2021-08-18 株式会社キーエンス 画像処理装置
JP7343328B2 (ja) * 2019-08-02 2023-09-12 ファナック株式会社 ワイヤ放電加工機および制御方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004245701A (ja) * 2003-02-14 2004-09-02 Toyota Central Res & Dev Lab Inc 距離分布検知装置
JP2008298533A (ja) * 2007-05-30 2008-12-11 Konica Minolta Holdings Inc 障害物計測方法、障害物計測装置及び障害物計測システム
JP2009210520A (ja) * 2008-03-06 2009-09-17 Sharp Corp 距離測定装置および距離測定方法

Also Published As

Publication number Publication date
JP7368590B2 (ja) 2023-10-24
US11943422B2 (en) 2024-03-26
US20230040615A1 (en) 2023-02-09
CN115136196A (zh) 2022-09-30
JPWO2021172256A1 (ja) 2021-09-02
DE112021000412T5 (de) 2022-11-03

Similar Documents

Publication Publication Date Title
JP3064928B2 (ja) 被写体抽出方式
WO2017023210A1 (en) Generating a merged, fused three-dimensional point cloud based on captured images of a scene
KR102219624B1 (ko) 가상 광선 추적 방법 및 라이트 필드 동적 리포커싱 디스플레이 시스템
KR20150050450A (ko) 장면의 깊이 맵을 생성하기 위한 방법 및 장치
WO2014044126A1 (zh) 坐标获取装置、实时三维重建系统和方法、立体交互设备
US20160125585A1 (en) Camera system and image registration method thereof
KR20120014925A (ko) 가변 자세를 포함하는 이미지를 컴퓨터를 사용하여 실시간으로 분석하는 방법
JP6579950B2 (ja) カメラの撮影画像に映る人物を検出する画像解析装置、プログラム及び方法
JP2016170610A (ja) 三次元モデル処理装置およびカメラ校正システム
KR100726933B1 (ko) 고정된 양안 카메라의 자동 주시각 제어를 위한 영상신호처리 방법
TW201225658A (en) Imaging device, image-processing device, image-processing method, and image-processing program
JP4193342B2 (ja) 3次元データ生成装置
WO2021172256A1 (ja) 3次元撮影装置および撮影条件調整方法
JP2004133919A (ja) 擬似3次元画像生成装置および生成方法並びにそのためのプログラムおよび記録媒体
Audet et al. Shadow removal in front projection environments using object tracking
JP4198536B2 (ja) 物体撮影装置、物体撮影方法及び物体撮影プログラム
WO2018229812A1 (ja) 三次元計測装置、および方法
JP2019185178A (ja) 情報処理装置、情報処理方法及びプログラム
JP2010238134A (ja) 画像処理装置及びプログラム
JP7028814B2 (ja) 外形認識装置、外形認識システム及び外形認識方法
JPH09231370A (ja) 画像情報入力装置
JP2019207464A (ja) 位相差検出器及び画像処理装置、並びにプログラム
JP2007094536A (ja) 対象物追跡装置及び対象物追跡方法
JP2013148467A (ja) 計測装置、方法及びプログラム
JP2580516B2 (ja) 実時間3次元運動測定装置およびその方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21761132

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022503595

Country of ref document: JP

Kind code of ref document: A

122 Ep: pct application non-entry in european phase

Ref document number: 21761132

Country of ref document: EP

Kind code of ref document: A1