JP2020016446A - Information processing device, control method of information processing device, program, measurement device, and article production method - Google Patents

Information processing device, control method of information processing device, program, measurement device, and article production method Download PDF

Info

Publication number
JP2020016446A
JP2020016446A JP2018137489A JP2018137489A JP2020016446A JP 2020016446 A JP2020016446 A JP 2020016446A JP 2018137489 A JP2018137489 A JP 2018137489A JP 2018137489 A JP2018137489 A JP 2018137489A JP 2020016446 A JP2020016446 A JP 2020016446A
Authority
JP
Japan
Prior art keywords
orientation
unit
information processing
distance information
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018137489A
Other languages
Japanese (ja)
Inventor
嘉希 宮沢
Yoshiki Miyazawa
嘉希 宮沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018137489A priority Critical patent/JP2020016446A/en
Publication of JP2020016446A publication Critical patent/JP2020016446A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Manipulator (AREA)

Abstract

To provide a technique enabling acquisition of a position and orientation of an object with good accuracy.SOLUTION: An information processing device comprises: image acquisition means to acquire a captured image captured by an imaging section 104, the image including distance information of an object 106; position and orientation acquisition means to acquire a position and orientation of the object from the distance information of the object; estimation means to estimate a presence range of the object from the distance information of the object when an object different from the object whose position and orientation is acquired by the position and orientation acquisition means is included in the captured image; and determination means to determine a position and orientation of the imaging section on the basis of the presence range of the object.SELECTED DRAWING: Figure 1

Description

本発明は、情報処理装置、情報処理装置の制御方法、プログラム、計測装置、及び物品製造方法に関する。   The present invention relates to an information processing device, a control method for the information processing device, a program, a measuring device, and an article manufacturing method.

近年のロボット技術の発展とともに、工業製品の組立のようなこれまで人間が行っていた複雑なタスクをロボットが代わりに行うようになりつつある。このようなロボットは、ハンドなどのエンドエフェクタによって部品をピッキングして組立を行う。従来、ピッキングするための部品の供給は、パーツフィーダと呼ばれる部品1つ1つを並べて供給するための装置を利用したり、パレット(容器)に部品を様々な姿勢で山積みしたりすることによって行われている。   With the development of robot technology in recent years, complicated tasks that have been performed by humans, such as assembly of industrial products, are being replaced by robots. Such a robot picks and assembles a part by an end effector such as a hand. Conventionally, parts for picking are supplied by using a device called a parts feeder for arranging and supplying parts one by one, or by stacking parts in various postures on a pallet (container). Have been done.

パーツフィーダを利用する場合は、部品1つ1つの位置姿勢が予め決まった状態で供給されるため、ロボットによるピッキングは比較的容易に行われる。しかしながら、パーツフィーダ装置を用意するためのコストが余計にかかる。また、部品の形状に合わせて異なるパーツフィーダを用意しなければならない。一方、部品を山積みにして供給する場合は、パレットに部品を置くだけで良いためコスト増を回避することができる。さらに、近年の少量多品種生産の傾向を受けて、様々な部品へ素早く対応することができる山積み供給に注目が集まっている。   In the case of using a parts feeder, since the position and orientation of each component are supplied in a predetermined state, picking by the robot is relatively easily performed. However, the cost for preparing the parts feeder device is extra. Also, different parts feeders must be prepared according to the shape of the parts. On the other hand, when parts are supplied in piles, it is only necessary to place the parts on a pallet, so that an increase in cost can be avoided. Further, in response to the recent trend of small-quantity multi-product production, attention has been paid to a piled supply capable of quickly responding to various parts.

このような動向の中、二次元カメラや三次元計測装置と部品認識との組み合わせによるピッキング作業システムの開発が行われている。物体の位置姿勢を認識するための情報処理装置として特許文献1、及び特許文献2に記載の技術がある。特許文献1には、ワークが取り出された領域に、測距センサを移動させて計測を行うロボットが記載されている。また、特許文献2には、ワークの位置、姿勢を視覚センサで計測し、それに基づいてワーク取り出し手段(ロボット)を移動させるワーク取り出し装置が記載されている。   Under such a trend, a picking operation system using a combination of a two-dimensional camera or a three-dimensional measuring device and component recognition has been developed. As information processing apparatuses for recognizing the position and orientation of an object, there are techniques described in Patent Literature 1 and Patent Literature 2. Patent Literature 1 describes a robot that performs measurement by moving a distance measurement sensor to a region where a work is taken out. Patent Document 2 discloses a work takeout apparatus that measures the position and posture of a work with a visual sensor and moves a work takeout means (robot) based on the measured position and posture.

特開2017−217726号公報JP 2017-217726 A 特開2003−34430号公報JP-A-2003-34430

しかしながら、特許文献1、及び特許文献2では、1回目の計測で物体の位置姿勢を正しく計測できないと、2回目の計測での視覚センサ位置姿勢を決定できず、2回目の計測でも物体の位置姿勢を正しく計測できないという問題がある。   However, in Patent Documents 1 and 2, if the position and orientation of the object cannot be measured correctly in the first measurement, the position and orientation of the visual sensor in the second measurement cannot be determined, and the position of the object cannot be determined in the second measurement. There is a problem that the posture cannot be measured correctly.

本発明は、例えば、精度よく物体の位置姿勢を取得可能にする技術を提供することを目的とする   An object of the present invention is, for example, to provide a technology that enables accurate acquisition of the position and orientation of an object.

上記課題を解決するために、本発明は、撮像部によって撮像され、物体の距離情報を含む撮像画像を取得する画像取得手段と、物体の距離情報から物体の位置姿勢を取得する位置姿勢取得手段と、位置姿勢取得手段によって位置姿勢が取得された物体とは異なる物体が撮像画像に含まれる場合に、物体の距離情報から物体の存在範囲を推定する推定手段と、物体の存在範囲に基づき、撮像部の位置姿勢を決定する決定手段と、を備える、ことを特徴とする。   In order to solve the above-described problems, the present invention provides an image acquisition unit that acquires an image captured by an imaging unit and includes distance information of an object, and a position and orientation acquisition unit that acquires a position and orientation of the object from the distance information of the object. And, when an object different from the object whose position and orientation has been acquired by the position and orientation acquisition unit is included in the captured image, based on estimating means for estimating the existence range of the object from the distance information of the object, based on the existence range of the object, Determining means for determining the position and orientation of the imaging unit.

本発明によれば、例えば、精度よく物体の位置姿勢を取得可能にする技術を提供することができる。   According to the present invention, for example, it is possible to provide a technology that enables the position and orientation of an object to be acquired with high accuracy.

第1実施形態に係る情報処理装置を含むロボットシステムの一例を示す模式図である。FIG. 1 is a schematic diagram illustrating an example of a robot system including an information processing device according to a first embodiment. 情報処理装置のハードウェア構成例を示すブロック図である。FIG. 3 is a block diagram illustrating a hardware configuration example of an information processing device. 第1実施形態に係る情報処理装置を搭載したロボットシステムの機能構成を示す図である。FIG. 2 is a diagram illustrating a functional configuration of a robot system equipped with the information processing device according to the first embodiment. 第1実施形態に係る情報処理装置のユースケースの一例を示す図である。FIG. 4 is a diagram illustrating an example of a use case of the information processing apparatus according to the first embodiment. 第1実施形態に係る情報処理装置の処理フローを示すフローチャートである。5 is a flowchart illustrating a processing flow of the information processing apparatus according to the first embodiment. ステップS508における物体の存在範囲推定の処理を示すフローチャートである。It is a flowchart which shows the process of the existence range estimation of an object in step S508. 第1実施形態に係るステップS510の処理を説明する模式図である。FIG. 7 is a schematic diagram illustrating a process in step S510 according to the first embodiment. 第1実施形態に係るステップS510の処理を示すフローチャートである。It is a flowchart which shows the process of step S510 concerning 1st Embodiment. 第2の実施形態に係るステップS510の処理を示すフローチャートである。It is a flow chart which shows processing of Step S510 concerning a 2nd embodiment. 第3の実施形態に係るステップS510の処理を示すフローチャートである。It is a flow chart which shows processing of Step S510 concerning a 3rd embodiment.

以下、本発明を実施するための形態について図面などを参照して説明する。   Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings.

(第1実施形態)
[ハードウェア構成]
図1は、第1実施形態に係る情報処理装置105を含むロボットシステム1の一例を示す模式図である。ロボットシステム1は、パレット107の中にバラ積みされた物体106を取り出すピッキングシステムである。ロボットシステム1は、ロボットアーム101と、ロボット制御装置103と、センサ部104と、情報処理装置105と、を含む。ロボットアーム101は、例えば、多関節ロボットであり、ロボット制御装置103からの制御命令を受けて稼働する。ロボットアーム101の先端にはハンド102が装着されている。ハンド102は、物体106を把持してパレット107から取り出す。ハンド102は、例えば、チャック機構を持つハンドを用いても良いし、モータ駆動可能なハンドを用いても良い。また、空気圧で物体106を吸着する吸着パッドを用いてもよい。
(1st Embodiment)
[Hardware configuration]
FIG. 1 is a schematic diagram illustrating an example of a robot system 1 including the information processing device 105 according to the first embodiment. The robot system 1 is a picking system that takes out the objects 106 piled up in a pallet 107. The robot system 1 includes a robot arm 101, a robot control device 103, a sensor unit 104, and an information processing device 105. The robot arm 101 is, for example, an articulated robot, and operates upon receiving a control command from the robot control device 103. A hand 102 is mounted on the tip of the robot arm 101. The hand 102 grasps the object 106 and takes it out of the pallet 107. As the hand 102, for example, a hand having a chuck mechanism may be used, or a hand that can be driven by a motor may be used. Further, a suction pad that suctions the object 106 by air pressure may be used.

ロボット制御装置103は、ロボットアーム101を制御して、パレット107の中にバラ積みされた物体106が、センサ部104の視野に入る位置にハンド102を移動させる。また、ロボット制御装置103は、情報処理装置105に物体106の位置姿勢の計測を指示する。このとき、ロボット制御装置103は、ハンド102の位置姿勢を情報処理装置105に送信する。なお、ロボット制御装置103は、ロボットアーム101と一体であっても良い。   The robot control device 103 controls the robot arm 101 to move the hand 102 to a position where the objects 106 piled up on the pallet 107 are in the field of view of the sensor unit 104. The robot control device 103 instructs the information processing device 105 to measure the position and orientation of the object 106. At this time, the robot control device 103 transmits the position and orientation of the hand 102 to the information processing device 105. Note that the robot control device 103 may be integrated with the robot arm 101.

情報処理装置105は、ロボット制御装置103から物体106の位置姿勢の計測指示を受信すると、センサ部104を制御して物体106を含む撮像画像を取得する。情報処理装置105は、撮像画像とハンド102の位置姿勢とに基づいて、物体106の位置姿勢を取得し、ロボット制御装置103に送信する。   When receiving the instruction to measure the position and orientation of the object 106 from the robot control device 103, the information processing device 105 controls the sensor unit 104 to acquire a captured image including the object 106. The information processing device 105 acquires the position and orientation of the object 106 based on the captured image and the position and orientation of the hand 102, and transmits the acquired position and orientation to the robot control device 103.

センサ部104は、2次元画像を撮像する撮像部である。センサ部104は、ロボットアーム101の先端にあるハンド102に固定して取り付けられている。センサ部104は、撮像対象にパターン光を投影し、パターン画像を取得する。パターン画像は、投影したパターン光を観測した画像である。また、センサ部104は、撮像対象の濃淡画像を取得する。濃淡画像は、各画素の明るさを白から黒の階調で表した画像である。なお、情報処理装置105は、センサ部104に組み込まれ、一体であってもよいし、ロボット制御装置103に組み込まれ、ロボット制御装置の一部を構成する形態であってもよい。   The sensor unit 104 is an imaging unit that captures a two-dimensional image. The sensor unit 104 is fixedly attached to the hand 102 at the tip of the robot arm 101. The sensor unit 104 projects a pattern light on an imaging target to acquire a pattern image. The pattern image is an image obtained by observing the projected pattern light. Further, the sensor unit 104 acquires a grayscale image of the imaging target. The grayscale image is an image in which the brightness of each pixel is represented by white to black gradation. Note that the information processing device 105 may be incorporated in the sensor unit 104 and be integrated, or may be incorporated in the robot control device 103 and form a part of the robot control device.

図2は、情報処理装置105のハードウェア構成例を示すブロック図である。本実施形態に係る情報処理装置105は、例えばコンピュータであり、CPU(マイクロプロセッサ)201と、ランダムアクセスメモリなどのメモリ202を備える。また、キーボードなどの入力部203、ハードディスクドライブなどの外部記憶装置204を備える。また、センサ部104との間の通信インタフェイス(以下、撮像I/Fと呼ぶ)205と、ロボット制御装置103との間の通信インタフェイス(以下、RCI/Fと呼ぶ)206を備える。CPU201は、メモリ202に格納されたプログラムに従って種々の処理を実行するものであり、特に、後述する位置姿勢の取得処理を実行する。これらのプログラムは、外部記憶装置204に記憶しておくか、または不図示の外部装置から供給されうる。   FIG. 2 is a block diagram illustrating a hardware configuration example of the information processing apparatus 105. The information processing apparatus 105 according to the present embodiment is, for example, a computer, and includes a CPU (microprocessor) 201 and a memory 202 such as a random access memory. Further, an input unit 203 such as a keyboard and an external storage device 204 such as a hard disk drive are provided. Further, a communication interface (hereinafter, referred to as an imaging I / F) 205 with the sensor unit 104 and a communication interface (hereinafter, referred to as an RCI / F) 206 with the robot control device 103 are provided. The CPU 201 executes various processes in accordance with programs stored in the memory 202, and particularly executes a position and orientation acquisition process described later. These programs can be stored in the external storage device 204 or supplied from an external device (not shown).

情報処理装置105は、撮像I/F205を介してセンサ部104におけるパターン光の光量や、露光時間などの撮像条件をセンサ部104に送信する。また、撮像I/F205を介して、センサ部104へ撮像の実施を指示すると共に、センサ部104が撮像した撮像画像を受信する。また、情報処理装置105は、RCI/F206を介して、ロボット制御装置103から計測指示を受信すると共に、計算した計測対象の位置姿勢をロボット制御装置103へ送信する。さらに、情報処理装置105は、ビデオI/F207を介してモニタ208に種々の情報を出力すると共に、入力部203を通じて各種情報を入力する。   The information processing device 105 transmits imaging conditions such as the amount of pattern light in the sensor unit 104 and the exposure time to the sensor unit 104 via the imaging I / F 205. In addition, the imaging unit 205 instructs the sensor unit 104 to execute imaging via the imaging I / F 205, and receives an image captured by the sensor unit 104. Further, the information processing device 105 receives a measurement instruction from the robot control device 103 via the RCI / F 206, and transmits the calculated position and orientation of the measurement target to the robot control device 103. Further, the information processing apparatus 105 outputs various information to the monitor 208 via the video I / F 207 and inputs various information via the input unit 203.

[ソフトウェア構成]
図3は、第1実施形態に係る情報処理装置を搭載したロボットシステムの機能構成を示す図である。情報処理装置105は、画像取得部304、パレット計測部305、位置姿勢取得部306、決定部307、推定部308を有する。
[Software Configuration]
FIG. 3 is a diagram illustrating a functional configuration of a robot system equipped with the information processing device according to the first embodiment. The information processing device 105 includes an image acquisition unit 304, a pallet measurement unit 305, a position and orientation acquisition unit 306, a determination unit 307, and an estimation unit 308.

画像取得部304は、センサ部104において撮像されたパターン画像を取得し、取得した画像から計測対象となる物体の距離情報を表す距離点群を取得する。距離点群の取得は、例えばグレイコードパターン法や位相シフト法等、公知の方法により実現することができる。グレイコードパターン法を用いる手法では、数百本のスリットを2進数でコード化し、2値パターンを時系列的に投影することで空間をコード化する。位相シフト法を用いる手法では、位相をずらしながら、投影強度を正弦波に変調した縞パターンを投影することで距離点群を取得する。   The image obtaining unit 304 obtains a pattern image captured by the sensor unit 104, and obtains a distance point group representing distance information of an object to be measured from the obtained image. The acquisition of the distance point group can be realized by a known method such as a gray code pattern method or a phase shift method. In the method using the gray code pattern method, several hundred slits are coded by a binary number, and a space is coded by projecting a binary pattern in time series. In the method using the phase shift method, a distance point group is obtained by projecting a stripe pattern in which the projection intensity is modulated into a sine wave while shifting the phase.

パレット計測部305は、パレット107を検出し、その位置姿勢を計測する。パレット計測部305における、パレット107の位置姿勢計測時の入力は、濃淡画像、パターン画像、及び距離点群であり、パレット計測部305は入力された濃淡画像、パターン画像、及び距離点群からパレット107の位置姿勢を計測する。パレット計測部305は、計測したパレット107の位置姿勢を出力する。   The pallet measuring unit 305 detects the pallet 107 and measures its position and orientation. The input at the time of measuring the position and orientation of the pallet 107 in the pallet measurement unit 305 is a grayscale image, a pattern image, and a distance point group. The position and orientation of 107 are measured. The pallet measurement unit 305 outputs the measured position and orientation of the pallet 107.

位置姿勢取得部306は、濃淡画像、パターン画像、及び距離点群を用いて、計測対象である物体を検出し、その位置姿勢を取得する。位置姿勢取得部306は、テンプレートマッチングを用いる手法やニューラルネットワークを用いる手法、ICPアルゴリズムを用いる手法等、公知の方法により実現することができる。テンプレートマッチングを用いる手法では、テンプレート画像を濃淡画像上で走査し、最も高類似度な時のテンプレート画像の位置によって、物体の位置を取得する。また、ニューラルネットワークを用いる手法では、濃淡画像から物体の位置を取得するネットワークを学習し、そのネットワークを用いて物体の位置を取得する。ICPアルゴリズムを用いる手法では、3Dモデルから得られる点群を用いて、位置合わせを繰り返すことによって、物体の位置姿勢を取得する。   The position and orientation acquisition unit 306 detects an object to be measured using the grayscale image, the pattern image, and the distance point group, and acquires the position and orientation. The position and orientation acquisition unit 306 can be realized by a known method such as a method using template matching, a method using a neural network, and a method using an ICP algorithm. In the method using template matching, the template image is scanned on the grayscale image, and the position of the object is acquired based on the position of the template image at the time of the highest similarity. In the method using a neural network, a network that acquires the position of an object from a grayscale image is learned, and the position of the object is acquired using the network. In the method using the ICP algorithm, the position and orientation of the object are acquired by repeating the alignment using a point group obtained from the 3D model.

推定部308は、位置姿勢取得部306によって位置姿勢が取得された物体とは異なる物体が撮像画像に含まれる場合に、物体の距離情報から物体の存在範囲を推定する。即ち、推定部308は、位置姿勢取得部306によって位置姿勢が取得できない物体が撮像画像に含まれる場合に、位置姿勢が取得できない物体の存在範囲を推定する。推定部308は、濃淡画像、パターン画像、及び距離点群を用いて、位置姿勢が取得できない物体の存在範囲を推定する。   The estimating unit 308 estimates the existence range of the object from the distance information of the object when the captured image includes an object different from the object whose position and orientation has been acquired by the position and orientation acquisition unit 306. That is, when an object whose position and orientation cannot be acquired by the position and orientation acquisition unit 306 is included in the captured image, the estimation unit 308 estimates the existence range of the object whose position and orientation cannot be acquired. The estimating unit 308 estimates the existence range of the object whose position and orientation cannot be obtained using the grayscale image, the pattern image, and the distance point group.

決定部307は、推定部308によって推定された物体の存在範囲に基づき、センサ部104の位置姿勢を決定する。センサ部104の位置姿勢の決定処理の詳細は、図6〜8を用いて後述する。   The determination unit 307 determines the position and orientation of the sensor unit 104 based on the existence range of the object estimated by the estimation unit 308. Details of the process of determining the position and orientation of the sensor unit 104 will be described later with reference to FIGS.

ロボット制御装置103は、センサ位置制御部302、ハンド制御部303を有する。センサ位置制御部302は、ロボットアーム101を制御して、決定部307において決定された位置姿勢にセンサ部104を移動させる。ハンド制御部303は、位置姿勢取得部306で取得された物体106の位置姿勢に基づき、ハンド102を制御して、物体を把持し、移動する。   The robot control device 103 includes a sensor position control unit 302 and a hand control unit 303. The sensor position control unit 302 controls the robot arm 101 to move the sensor unit 104 to the position and orientation determined by the determination unit 307. The hand control unit 303 controls the hand 102 based on the position and orientation of the object 106 acquired by the position and orientation acquisition unit 306 to grasp and move the object.

[実施形態の概要]
図4は、第1実施形態に係る情報処理装置105のユースケースの一例を示す図である。図4(A)は、第1の計測における状態を示す図である。物体106は、第1の計測において計測対象となる物体である。パレット107は、物体106が収容される容器である。視野範囲405は、第1の計測におけるセンサ部104の視野範囲である。図4(A)では、センサ部104がパレット107の真上に存在する。また物体106はパレット107内側の側面に寄りかかり、縦置きの状態となっている。このときセンサ部104と物体106との相対位置関係により、視野範囲405では、物体106の僅かな面しか撮像できない。この場合、物体106の位置姿勢の取得に十分な情報が得られのないため、物体106の正しい位置姿勢を計測することが困難となる。即ち、このとき物体106は、位置姿勢取得部306によって位置姿勢が取得できない物体であるといえる。
[Overview of Embodiment]
FIG. 4 is a diagram illustrating an example of a use case of the information processing apparatus 105 according to the first embodiment. FIG. 4A is a diagram showing a state in the first measurement. The object 106 is an object to be measured in the first measurement. The pallet 107 is a container in which the object 106 is stored. The visual field range 405 is the visual field range of the sensor unit 104 in the first measurement. In FIG. 4A, the sensor unit 104 exists right above the pallet 107. The object 106 leans on the inner side surface of the pallet 107 and is in a vertically placed state. At this time, only a small surface of the object 106 can be imaged in the visual field range 405 due to the relative positional relationship between the sensor unit 104 and the object 106. In this case, since sufficient information for acquiring the position and orientation of the object 106 is not obtained, it is difficult to measure the correct position and orientation of the object 106. That is, at this time, it can be said that the object 106 is an object whose position and orientation cannot be acquired by the position and orientation acquisition unit 306.

図4(B)は、第2の計測における状態を示す図である。なお、ここで、第2の計測は、第1の計測の後に実施される計測である。視野範囲410は、第2の計測におけるセンサ部104の視野範囲である。図4(B)では、センサ部104が、パレット107の斜め上の方向から物体106を撮像している。このとき視野範囲410では、物体106の多くの面を観測できる。この場合、物体106の位置姿勢の取得に十分な情報が得られるため、位置姿勢の計測が容易となり、物体106の正しい位置姿勢を計測することができる。本実施形態では、第1の計測において位置姿勢が取得できなかった物体106の存在範囲に基づいて、第2の計測におけるセンサ部104の位置姿勢を決定する。   FIG. 4B is a diagram illustrating a state in the second measurement. Here, the second measurement is a measurement performed after the first measurement. The visual field range 410 is the visual field range of the sensor unit 104 in the second measurement. In FIG. 4B, the sensor unit 104 captures an image of the object 106 from a direction obliquely above the pallet 107. At this time, many surfaces of the object 106 can be observed in the visual field range 410. In this case, since sufficient information for acquiring the position and orientation of the object 106 is obtained, the measurement of the position and orientation becomes easy, and the correct position and orientation of the object 106 can be measured. In the present embodiment, the position and orientation of the sensor unit 104 in the second measurement is determined based on the existence range of the object 106 whose position and orientation could not be obtained in the first measurement.

[処理フロー]
図5は、第1実施形態に係る情報処理装置の処理フローを示すフローチャートである。以降、各ステップの処理を示す。まずステップS501において、センサ位置制御部302が、センサ部104を第1のセンサ位置姿勢へ移動させる。センサ部104は、ハンド102に取り付けられているため、センサ位置制御部302は、ロボットアーム101及びハンド102を駆動することにより、センサ部104の位置姿勢を制御する。第1のセンサ位置姿勢は、第1の計測におけるセンサ部104の位置姿勢である。第1のセンサ位置姿勢には、ユーザが事前登録した位置姿勢を用いても良いし、初期設定により設定された位置姿勢を用いても良い。
[Processing flow]
FIG. 5 is a flowchart illustrating a processing flow of the information processing apparatus according to the first embodiment. Hereinafter, the processing of each step will be described. First, in step S501, the sensor position control unit 302 moves the sensor unit 104 to the first sensor position and orientation. Since the sensor unit 104 is attached to the hand 102, the sensor position control unit 302 controls the position and orientation of the sensor unit 104 by driving the robot arm 101 and the hand 102. The first sensor position and orientation is the position and orientation of the sensor unit 104 in the first measurement. As the first sensor position and orientation, a position and orientation registered by the user in advance may be used, or a position and orientation set by initial setting may be used.

次にステップS502において、センサ部104が第1のパターン画像、及び第1の濃淡画像を撮像し、画像取得部304がセンサ部104から第1のパターン画像、及び第1の濃淡画像を取得する。第1のパターン画像、及び第1の濃淡画像は、第1の計測に用いられる。そして、ステップS503において、画像取得部304が第1のパターン画像から距離点群(第1の距離点群)を算出する。なお、距離点群の算出は、センサ部104において行われても良い。第1の距離点群は、第1の計測に用いられる。ステップS504において、パレット計測部305がパレット107の位置姿勢を計測する。このとき、パレット計測部305への入力は第1の濃淡画像、第1のパターン画像、及び第1の距離点群である。パレット計測部305は、入力された第1の濃淡画像、第1のパターン画像、及び第1の距離点群からパレット107の位置姿勢を計測し、6自由度で表現されたパレット107の位置姿勢を出力する。ステップS504は、例えばテンプレートマッチングを用いる手法やニューラルネットワークを用いる手法、及び位置合わせの手法の一つであるICPアルゴリズムを用いる手法等、公知の方法により実現することができる。   Next, in step S502, the sensor unit 104 captures the first pattern image and the first grayscale image, and the image acquisition unit 304 obtains the first pattern image and the first grayscale image from the sensor unit 104. . The first pattern image and the first grayscale image are used for the first measurement. Then, in step S503, the image acquisition unit 304 calculates a distance point group (first distance point group) from the first pattern image. The calculation of the distance point group may be performed in the sensor unit 104. The first distance point group is used for the first measurement. In step S504, the pallet measurement unit 305 measures the position and orientation of the pallet 107. At this time, the inputs to the pallet measurement unit 305 are the first grayscale image, the first pattern image, and the first distance point group. The pallet measurement unit 305 measures the position and orientation of the pallet 107 from the input first grayscale image, first pattern image, and first distance point group, and the position and orientation of the pallet 107 expressed in six degrees of freedom. Is output. Step S504 can be realized by a known method such as a method using template matching, a method using a neural network, and a method using an ICP algorithm which is one of the positioning methods.

ステップS505において、位置姿勢取得部306が物体106を検出し、その概略位置姿勢を取得する。ステップS506において、位置姿勢取得部306が物体の概略位置姿勢を取得できたか否かを判定する。判定の評価値には、概略位置姿勢の取得で得られる認識スコアを用いる。認識スコアは、観測された物体と認識辞書に登録された物体の類似度を示すスコアである。認識スコアが閾値threcog以上である場合、概略位置姿勢の取得できたと判断し、認識スコアが閾値threcog未満である場合、概略位置姿勢を取得できなかったと判断する。概略位置姿勢を取得できた場合(Yes)、後述のステップS507に処理を進め、ステップS507において、位置姿勢取得部306が計測対象である物体106の詳細な位置姿勢を取得する。その後、ステップS516に処理を進める。 In step S505, the position and orientation acquisition unit 306 detects the object 106 and acquires the approximate position and orientation. In step S506, it is determined whether the position and orientation acquisition unit 306 has been able to acquire the approximate position and orientation of the object. A recognition score obtained by obtaining the approximate position and orientation is used as the evaluation value of the determination. The recognition score is a score indicating the degree of similarity between the observed object and the object registered in the recognition dictionary. If the recognition score is equal to or larger than the threshold th recog, it is determined that the approximate position and orientation has been acquired. If the recognition score is less than the threshold th recog, it is determined that the approximate position and orientation has not been acquired. If the approximate position and orientation have been acquired (Yes), the process proceeds to step S507 described below, and in step S507, the position and orientation acquisition unit 306 acquires the detailed position and orientation of the object 106 to be measured. Thereafter, the process proceeds to step S516.

概略位置姿勢を取得できなかった場合(No)、後述のステップS508に処理を進め、ステップS508において、推定部308が物体106の存在範囲を推定する。物体106の存在範囲は、点群によって示される。ステップS508の詳細は、図6を用いて後述する。ステップS509において、ステップS508において推定された物体106の存在範囲に基づき、決定部307がセンサ部104の視野範囲内に物体106が存在するか否かを判定する。このとき、決定部307への入力は、推定された物体の存在範囲、及び第1の濃淡画像である。ここで、センサ部104の視野範囲内に物体106が存在するか否かの判定方法について説明する。まず、物体106の存在範囲を濃淡画像へ射影し、物体106の存在範囲が占める画素数を算出する。そして物体106の存在範囲を占める画素数が、閾値thexit以上である場合、物体が存在すると判定する。物体106の存在範囲を占める画素数が、閾値thexit未満である場合、物体106が存在しないと判定する。物体が存在すると判定された場合(Yes)、後述のステップS510に処理を進める。物体が存在しないと判定された場合(No)、“パレット107は空である”と判定し、情報処理装置の処理を終了する。 If the approximate position and orientation cannot be acquired (No), the process proceeds to step S508 described below, and in step S508, the estimation unit 308 estimates the existence range of the object 106. The existence range of the object 106 is indicated by a point cloud. Details of step S508 will be described later with reference to FIG. In step S509, based on the existence range of the object 106 estimated in step S508, the determination unit 307 determines whether or not the object 106 exists within the field of view of the sensor unit 104. At this time, the inputs to the determination unit 307 are the estimated existence range of the object and the first grayscale image. Here, a method of determining whether or not the object 106 exists within the visual field range of the sensor unit 104 will be described. First, the existence range of the object 106 is projected onto a grayscale image, and the number of pixels occupied by the existence range of the object 106 is calculated. If the number of pixels occupying the existence range of the object 106 is equal to or larger than the threshold th exit, it is determined that the object 106 exists. If the number of pixels occupying the existence range of the object 106 is less than the threshold th exit, it is determined that the object 106 does not exist. If it is determined that an object exists (Yes), the process proceeds to step S510 described below. When it is determined that the object does not exist (No), it is determined that “the pallet 107 is empty”, and the processing of the information processing apparatus ends.

ステップS510において、決定部307が物体106の存在範囲に基づき、第2のセンサ位置姿勢を決定する。第2のセンサ位置姿勢は、第2の計測におけるセンサ部104の位置姿勢である。ステップS510の詳細は、図7を用いて後述する。ステップS511において、センサ位置制御部302が、第2のセンサ位置姿勢へセンサ部104を移動させる。ステップS512において、センサ部104が第2のパターン画像、及び第2の濃淡画像を撮像し、画像取得部304がセンサ部104から第2のパターン画像、及び第2の濃淡画像を取得する。第2のパターン画像、及び第2の濃淡画像は、第2の計測に用いられる。ステップS513において、画像取得部304が第2のパターン画像から距離点群(第2の距離点群)を算出する。第2の距離点群は第2の計測に用いられる。   In step S510, the determination unit 307 determines the second sensor position and orientation based on the existence range of the object 106. The second sensor position and orientation is the position and orientation of the sensor unit 104 in the second measurement. Details of step S510 will be described later with reference to FIG. In step S511, the sensor position control unit 302 moves the sensor unit 104 to the second sensor position and orientation. In step S512, the sensor unit 104 captures the second pattern image and the second grayscale image, and the image acquisition unit 304 obtains the second pattern image and the second grayscale image from the sensor unit 104. The second pattern image and the second grayscale image are used for the second measurement. In step S513, the image acquisition unit 304 calculates a distance point group (second distance point group) from the second pattern image. The second distance point group is used for the second measurement.

ステップS514において、位置姿勢取得部306がステップS505と同様に物体106を検出し、その概略位置姿勢を推定する。ステップS515において、位置姿勢取得部306がステップS507と同様に計測対象である物体106の詳細な位置姿勢を取得する。ステップS516において、ハンド制御部303が、ステップS507またはステップS515で取得された物体106の位置姿勢に基づき、ハンド102を駆動し、ハンド102に物体106を把持させ、物体106をパレット107から取り出す。ステップS516完了後、情報処理装置105は、再びステップS501に処理を進め、パレット107に物体106が無くなるまで処理を繰り返す。なお、第2の計測において位置姿勢が取得できる物体106が無くなった場合に、第2の距離点群から物体の存在範囲を推定し、次の計測におけるセンサ位置姿勢を決定しても良い。   In step S514, the position and orientation acquisition unit 306 detects the object 106 as in step S505, and estimates the approximate position and orientation. In step S515, the position and orientation acquisition unit 306 acquires the detailed position and orientation of the object 106 to be measured as in step S507. In step S516, the hand control unit 303 drives the hand 102 based on the position and orientation of the object 106 acquired in step S507 or S515, causes the hand 102 to grip the object 106, and takes out the object 106 from the pallet 107. After the completion of step S516, the information processing apparatus 105 proceeds to step S501 again, and repeats the processing until there is no more object 106 on the pallet 107. When the object 106 whose position and orientation can be acquired in the second measurement is exhausted, the existence range of the object may be estimated from the second distance point group, and the sensor position and orientation in the next measurement may be determined.

図6は、ステップS508における物体106の存在範囲推定の処理を示すフローチャートである。本フローにおける各ステップは推定部308によって実行されうる。物体106の存在する範囲と存在しない範囲では、距離点群のうち、奥行きを表すz値(z方向の値)に大きな差異が生じる。そこでステップS508では、推定部308がz値の差分に基づき、物体106の存在範囲を推定する。なお、ステップS508における推定部308への入力は、第1の距離点群、ステップS504において計測されたパレット107の位置姿勢、及び空であるときのパレット107の距離点群である。空であるときのパレット107の距離点群(基準距離情報)は、事前に空のパレットを計測し、記憶する。また第1の距離点群を用いて、平面推定によって空であるときのパレット107の距離点群を算出しても良い。推定部308は、第1の距離点群、パレット107の位置姿勢、及び空であるときのパレット107の距離点群に基づき、物体106の存在範囲を推定し、出力する。以降、ステップS508の各処理を説明する。   FIG. 6 is a flowchart illustrating the process of estimating the existence range of the object 106 in step S508. Each step in this flow can be executed by the estimation unit 308. Between the range where the object 106 exists and the range where the object 106 does not exist, a great difference occurs in the z value (value in the z direction) representing the depth in the distance point group. Therefore, in step S508, the estimation unit 308 estimates the existence range of the object 106 based on the difference between the z values. The inputs to the estimation unit 308 in step S508 are the first distance point group, the position and orientation of the pallet 107 measured in step S504, and the distance point group of the pallet 107 when the pallet 107 is empty. The distance point group (reference distance information) of the pallet 107 when the pallet is empty is measured in advance and stored in the empty pallet. Further, the distance point group of the pallet 107 when it is empty may be calculated by plane estimation using the first distance point group. The estimating unit 308 estimates and outputs the existence range of the object 106 based on the first distance point group, the position and orientation of the pallet 107, and the distance point group of the pallet 107 when the pallet 107 is empty. Hereinafter, each process of step S508 will be described.

まずステップS601において、第1の距離点群と空であるときのパレット107の距離点群の間で、z方向の差分点群を取得する。第1の距離点群をP measure(x ,y ,z )と、空であるときのパレット107底面、即ち、物体106が載置される面に射影した距離点群をP empty(x ,y ,z )とする。また、z方向の差分点群をP diff(x ,y ,z )と定義する。このときiは、距離点群に含まれる点のidである。また、z方向の差分点群は、x =xim, =y m, =z −z として算出される。 First, in step S601, a difference point group in the z direction is acquired between the first distance point group and the distance point group of the pallet 107 when the pallet 107 is empty. The first distance point group P i measure (x i m, y i m, z i m) and the pallet 107 the bottom surface of the case is empty, i.e., the distance point group that has been projected on the surface of the object 106 is placed the P i empty (x i e, y i e, z i e) to. Also it defines the difference between point group in the z direction P i diff (x i d, y i d, z i d) and. At this time, i is the id of a point included in the distance point group. Also, the difference point group in the z direction is, x i d = xi m, y i d = y i m, is calculated as z i d = z i m -z i e.

次にステップS602において、z方向の差分点群P diffから背景点を除去する。具体的には、z が閾値thobjectよりも小さい場合、背景点と判定する。背景点と判定された場合、点P measureは物体106の存在範囲に含まれない。背景点と判定されなかった場合、点P measureは物体106の存在範囲に含まれる。このときP measureは、P measureに含まれるある点を表す。ステップS603において、物体106の存在範囲をクラスタリングする。ステップS603は、例えば最短距離法等、公知の方法により実現することができる。最短距離法では、2つのクラスターのサンプル同士で最も小さいサンプル間距離をクラスター間の距離とする。ステップS603では、クラスタリング結果を出力する。 Next, in step S602, the background point is removed from the difference point group P i diff in the z direction. Specifically, when z i d is smaller than the threshold value th object, it determines that the background point. If determined to be a background point, the point P k measure is not included in the existence range of the object 106. If not determined as a background point, the point P k measure is included in the existence range of the object 106. At this time, P k measure represents a certain point included in P i measure . In step S603, the existence range of the object 106 is clustered. Step S603 can be realized by a known method such as the shortest distance method. In the shortest distance method, the smallest inter-sample distance between samples of two clusters is defined as the distance between clusters. In step S603, a clustering result is output.

ステップS604において、ステップS603において出力されたクラスタリング結果に基づき、クラスター群からノイズクラスターを除去する。具体的には、まず各クラスターにおいて構成する点の個数を合算する。そして合算した結果が、閾値thclassに満たない場合、ノイズクラスターと判定する。ノイズクラスターと判定された場合、そのクラスターを構成する点群は、物体の存在範囲から除外される。ノイズクラスターと判定されなかった場合、そのクラスターを構成する点群は、物体106の存在範囲から除外されない。 In step S604, a noise cluster is removed from the cluster group based on the clustering result output in step S603. Specifically, first, the number of points constituting each cluster is added up. If the sum is less than the threshold th class, it is determined to be a noise cluster. If it is determined that the cluster is a noise cluster, the point cloud forming the cluster is excluded from the range of the object. If it is not determined that the cluster is a noise cluster, the point cloud forming the cluster is not excluded from the range in which the object 106 exists.

ステップS605において、物体106の存在範囲に対し、点群の補間を施す。クラスター群を構成する各点は、第1のパターン画像で死角とならなかった箇所のみに対応する。しかしセンサ部104の死角となった箇所にも物体106は存在しうるため、それらに対応する点群を補間する。ただし、物体106の存在範囲の内側にあり、いずれのセンサ位置姿勢からも死角となる点は、第2のセンサ位置姿勢の推定に寄与しない。そこで物体106の存在範囲の外側にあり、いずれかのセンサ位置姿勢から視野に収まる点のみを補完する。以下、ステップS605の処理の流れの詳細を説明する。まず、クラスター群において、クラスター内外の境界を構成する点を選択し、境界点とする。次に選択した境界点に対し、パレット107の底面に射影した点を接地点とする。続いて境界点と接地点とを結ぶ線分上に一定間隔で点を補完し、稜点とする。物体106の存在範囲に接地点と稜点を補完し、物体106の存在範囲推定は終了する。   In step S605, point group interpolation is performed on the existence range of the object 106. Each point constituting the cluster group corresponds to only a portion that has not become a blind spot in the first pattern image. However, since the object 106 may also exist at a position where the sensor unit 104 has become a blind spot, a point group corresponding to the object 106 is interpolated. However, points that are inside the existence range of the object 106 and become blind spots from any sensor position and orientation do not contribute to the estimation of the second sensor position and orientation. Therefore, only points that are outside the existence range of the object 106 and fall within the field of view from any of the sensor positions and postures are complemented. Hereinafter, details of the flow of the process of step S605 will be described. First, in the cluster group, points forming boundaries between the inside and outside of the cluster are selected and set as boundary points. Next, a point projected on the bottom surface of the pallet 107 with respect to the selected boundary point is set as a ground point. Subsequently, points are complemented at regular intervals on a line segment connecting the boundary point and the ground point, and are set as ridge points. The existence range of the object 106 is complemented with the ground point and the ridge point, and the estimation of the existence range of the object 106 ends.

なお、本実施形態において、物体106の存在範囲は一例として点群としたが、z値の背景差分が大きい距離点群を内在する3次元空間上の直方体やポリゴン状の閉空間でも良い。また、濃淡画像の背景差分によって得られる画素の集合や、画素の集合を包含する矩形でも良い。   In the present embodiment, the existence range of the object 106 is a point group as an example. However, the object 106 may be a rectangular parallelepiped or a polygonal closed space in a three-dimensional space in which a distance point group having a large z-value background difference exists. Further, a set of pixels obtained by the background difference of the grayscale image or a rectangle including the set of pixels may be used.

図7は、第1実施形態に係るステップS510の処理を説明する模式図である。図7(A)は、計測対象の物体が収容されるパレットの一例を示す図である。本図は、パレット107を+Z方向から見た図である。パレット空間704a〜704eは、物体106が配置される空間であるパレット107中の三次元空間を分割した部分空間である。パレット空間704a〜704eは、例えば、決定部307によって各パレット空間の面積が所定値以下になるように機械的に分割されても良いし、パレット107の内側の各側面と隣接する空間を含むように機械的に分割されても良い。パレット空間704a〜704eがパレット107の内側の各側面と隣接する空間を含むことにより、物体106はパレット107内側の側面に寄りかかり、縦置きの状態となっている場合でも、第2のセンサ位置姿勢を正しく決定ですることが可能となる。また、パレット空間704a〜704eは、ユーザからの指定によって分割されても良い。   FIG. 7 is a schematic diagram illustrating the process of step S510 according to the first embodiment. FIG. 7A is a diagram illustrating an example of a pallet in which an object to be measured is stored. This figure is a view of the pallet 107 viewed from the + Z direction. The pallet spaces 704a to 704e are partial spaces obtained by dividing a three-dimensional space in the pallet 107, which is a space where the object 106 is arranged. The pallet spaces 704a to 704e may be mechanically divided by the determination unit 307 such that the area of each pallet space is equal to or smaller than a predetermined value, or may include a space adjacent to each side surface inside the pallet 107. May be mechanically divided into Since the pallet spaces 704a to 704e include spaces adjacent to the respective inner side surfaces of the pallet 107, the object 106 leans on the inner side surface of the pallet 107, and the second sensor position and orientation can be set even when the pallet 107 is placed vertically. Can be determined correctly. Further, the pallet spaces 704a to 704e may be divided according to a designation from a user.

図7(B)は、第1の計測を実施している状態におけるパレット107の断面図である。図7(C)は、パレット空間704a〜704eのそれぞれに対応する第2のセンサ位置姿勢を示すリストである。第2のセンサ位置姿勢708a〜708eは、パレット空間704a〜704eのそれぞれに対応する。第2のセンサ位置姿勢708a〜708eは、例えば、決定部307によって値が設定されても良い。決定部307は、パレット空間に計測対象となる物体106が存在する場合に、センサ部104の視野範囲に収まる物体106の表面積が最大となるようなセンサ位置姿勢を対応する第2のセンサ位置姿勢として設定しても良い。また、決定部307は、パレット空間に計測対象となる物体106が存在する場合に、センサ部104によって撮像される撮像画像における物体106の面積が最大となるような位置姿勢を対応する第2のセンサ位置姿勢として設定しても良い。さらに、対応する第2のセンサ位置姿勢は、ユーザによって値が設定されてもよい。   FIG. 7B is a cross-sectional view of the pallet 107 in a state where the first measurement is being performed. FIG. 7C is a list showing the second sensor position and orientation corresponding to each of the pallet spaces 704a to 704e. The second sensor positions / postures 708a to 708e correspond to the pallet spaces 704a to 704e, respectively. The values of the second sensor positions / postures 708a to 708e may be set by the determination unit 307, for example. The determination unit 307 determines a second sensor position and orientation corresponding to a sensor position and orientation that maximizes the surface area of the object 106 that falls within the visual field range of the sensor unit 104 when the object 106 to be measured exists in the pallet space. You may set as. Further, when the object 106 to be measured is present in the pallet space, the determination unit 307 determines a second orientation corresponding to the position and orientation that maximizes the area of the object 106 in the image captured by the sensor unit 104. It may be set as a sensor position and orientation. Further, the value of the corresponding second sensor position and orientation may be set by the user.

ここで、第2のセンサ位置姿勢の処理について説明する。ここでは、一例として、物体106の存在範囲702がパレット空間704c内に存在する場合について説明する。ステップS510における第2のセンサ位置姿勢決定では、決定部307が物体106の存在範囲702やその付近を計測するのに適したセンサ位置姿勢を選択する。決定部307は、パレット空間704a〜704eのうちから、物体106の存在範囲702を多く含むパレット空間であるパレット空間704cを選択する。そして、第2のセンサ位置姿勢708a〜708eのうちから、パレット空間704cに対応する第2のセンサ位置姿勢708cを選択し、第2のセンサ位置姿勢が決定される。決定部307は、決定した第2センサ位置姿勢の情報をロボット制御装置103へ出力する。   Here, the processing of the second sensor position and orientation will be described. Here, as an example, a case where the existence range 702 of the object 106 exists in the pallet space 704c will be described. In the second sensor position and orientation determination in step S510, the determination unit 307 selects a sensor position and orientation suitable for measuring the existence range 702 of the object 106 and its vicinity. The deciding unit 307 selects a pallet space 704c which is a pallet space including many of the existence range 702 of the object 106 from the pallet spaces 704a to 704e. Then, the second sensor position / posture 708c corresponding to the pallet space 704c is selected from the second sensor position / postures 708a to 708e, and the second sensor position / posture is determined. The determination unit 307 outputs information on the determined second sensor position and orientation to the robot control device 103.

図8は、第1実施形態に係るステップS510の処理を示すフローチャートである。本フローにおける各ステップは決定部307によって実行されうる。まず、ステップS801において、パレット107内の三次元空間を複数のパレット空間に分割する。分割された複数のパレット空間には、上述の通り、それぞれに対応する第2のセンサ位置姿勢が設定される。次に、ステップS802において、第2の計測の計測対象となるパレット空間を決定する。具体的には、各パレット空間において、物体106の存在範囲を構成する点を最も多く含むパレット空間を、計測対象のパレット空間とする。   FIG. 8 is a flowchart illustrating the process of step S510 according to the first embodiment. Each step in this flow can be executed by the determination unit 307. First, in step S801, the three-dimensional space in the pallet 107 is divided into a plurality of pallet spaces. As described above, the second sensor position / posture corresponding to each of the divided pallet spaces is set. Next, in step S802, a pallet space to be measured in the second measurement is determined. Specifically, in each pallet space, the pallet space including the largest number of points constituting the existence range of the object 106 is set as the pallet space to be measured.

最後にステップS803において、決定された計測対象となるパレット空間に対応する第2のセンサ位置姿勢を取得し、第2のセンサ位置姿勢が決定される。なお、本実施形態において、第2のセンサ位置姿勢は一例として物体106の存在範囲を多く含むパレット空間に基づき決定したが、物体106の存在範囲の中心を含むパレット空間に基づき決定しても良い。   Finally, in step S803, the second sensor position and orientation corresponding to the determined pallet space to be measured are acquired, and the second sensor position and orientation are determined. In the present embodiment, the second sensor position and orientation are determined based on the pallet space including a large range of the object 106 as an example, but may be determined based on the pallet space including the center of the range of the object 106. .

以上のように、本実施形態によれば、計測対象である物体の存在範囲に基づき第2のセンサ位置姿勢を決定するため、例えば、物体がパレット等の容器の内側の側面に寄りかかり縦置きになっていても、第2のセンサ位置姿勢を正しく決定できる。よって、第2の計測において物体の位置姿勢を取得することが可能となる。また、例えば、縦置きになっている物体の位置姿勢を計測にする際でも、第2のセンサ位置姿勢を誤って決定することを低減でき、計測時間を短縮することもできる。   As described above, according to the present embodiment, in order to determine the second sensor position and orientation based on the existence range of the object to be measured, for example, the object leans against the inner side surface of a container such as a pallet and is placed vertically. However, the position and orientation of the second sensor can be correctly determined. Therefore, it is possible to acquire the position and orientation of the object in the second measurement. In addition, for example, even when measuring the position and orientation of a vertically placed object, erroneous determination of the second sensor position and orientation can be reduced, and the measurement time can be shortened.

<第2の実施形態>
第1の実施形態において、ステップS510は物体106の存在範囲に基づいて第2のセンサ位置姿勢を決定した。しかし、例えば、パレット107の中心に物体が縦置きになっている場合、センサ部104の視野範囲において、パレット107などの容器による物体106の遮蔽が発生する場合がある。このような場合、各第2のセンサ位置姿勢で物体106の見え方が大きく異なるため、第2のセンサ位置姿勢を物体の存在範囲のみから正しく判断することが困難となる。第2の実施形態では、物体106の存在範囲の形状も考慮して第2のセンサ位置姿勢を決定する。なお本実施形態の構成、及び処理フローは、ステップS510以外、第1の実施形態と同様のため説明を省略する。
<Second embodiment>
In the first embodiment, step S510 determines the second sensor position and orientation based on the existence range of the object 106. However, for example, when the object is placed vertically at the center of the pallet 107, the object 106 may be blocked by a container such as the pallet 107 in the field of view of the sensor unit 104. In such a case, the appearance of the object 106 is greatly different depending on each of the second sensor positions and orientations, so that it is difficult to correctly determine the second sensor position and orientation only from the existing range of the object. In the second embodiment, the second sensor position and orientation are determined in consideration of the shape of the range in which the object 106 exists. Note that the configuration and processing flow of the present embodiment are the same as those of the first embodiment except for step S510, and thus description thereof is omitted.

図9は、第2の実施形態に係るステップS510の処理を示すフローチャートである。本フローにおける各ステップは決定部307によって実行されうる。第2の実施形態では、物体106の存在範囲の形状を考慮し、物体106の面をより多く計測できるような第2のセンサ位置姿勢を決定する。   FIG. 9 is a flowchart illustrating the process of step S510 according to the second embodiment. Each step in this flow can be executed by the determination unit 307. In the second embodiment, a second sensor position and orientation that can measure more surfaces of the object 106 is determined in consideration of the shape of the range in which the object 106 exists.

まず、ステップS901では、物体106の存在範囲の点群からメッシュ面を生成する。決定部307は、例えば、頂点情報及び各頂点を結んだ面の情報で構成されたメッシュモデルを生成する。S901は、例えばオクトツリーベース分割法等、公知の方法により実現することができる。オクトツリーベース分割法は、8分木のボクセルで領域の境界を再現してから、各ボクセルを4面体に分割し、最後に境界より外側の四面体を取り除く方法である。ステップS902では、生成されたメッシュ面を簡略化する。ステップS902は、例えばQSlim等、公知の方法により実現することができる。QSlimを用いる手法は、局所的な幾何・位相操作を優先度付きキューで行い、元の形状を近似しながらメッシュ数を減らす方法である。   First, in step S901, a mesh surface is generated from a group of points in the existing range of the object 106. The determination unit 307 generates, for example, a mesh model including vertex information and information on a surface connecting the vertices. Step S901 can be realized by a known method such as an octree-based division method. The octree-based partitioning method is a method in which a boundary of a region is reproduced with voxels of an octree, each voxel is divided into tetrahedrons, and finally, tetrahedrons outside the boundaries are removed. In step S902, the generated mesh surface is simplified. Step S902 can be realized by a known method such as QSlim. The method using QSlim is a method in which local geometric / topological operations are performed using priority queues and the number of meshes is reduced while approximating the original shape.

ステップS903〜905では、各第2のセンサ位置姿勢において、各メッシュ面が計測可能であるか否かを判定する。ステップS903では、簡略化した判定対象となるメッシュ面が、判定対象となる第2のセンサ位置姿勢におけるセンサ部104の視野内に収まるか否かを判定する。センサ部104の視野範囲は、6自由度のセンサ位置姿勢パラメータによって決定される。判定対象の第2のセンサ位置姿勢のとき、判定対象のメッシュ面の閾値th%以上がセンサ部104の視野範囲に収まる場合、そのメッシュ面は視野内であり計測可能と判定する。判定対象となるメッシュ面の閾値th%以上がセンサ部104の視野範囲に収まらない場合、そのメッシュ面は視野内ではないため計測不可能と判定する。 In steps S903 to S905, it is determined whether or not each mesh surface can be measured at each second sensor position and orientation. In step S903, it is determined whether the simplified mesh surface to be determined falls within the field of view of the sensor unit 104 in the second sensor position and orientation to be determined. The visual field range of the sensor unit 104 is determined by the sensor position and orientation parameters having six degrees of freedom. In the case of the second sensor position and orientation to be determined, if the threshold th S % or more of the mesh surface to be determined falls within the visual field range of the sensor unit 104, it is determined that the mesh surface is within the visual field and can be measured. If the threshold th S % or more of the mesh surface to be determined does not fall within the visual field range of the sensor unit 104, it is determined that the mesh surface is out of the visual field and cannot be measured.

ステップS904において、判定対象のメッシュ面と判定対象の第2のセンサ位置姿勢におけるセンサ部104の傾きが十分に小さいか否かを判定する。判定対象のメッシュ面と判定対象の第2のセンサ位置姿勢におけるセンサ部104とのなす角が閾値thangle以下の場合、そのメッシュ面は計測可能と判定する。判定対象のメッシュ面と判定対象の第2のセンサ位置姿勢におけるセンサ部104とのなす角が閾値thangle以下ではない場合、そのメッシュ面は計測不可能と判定する。 In step S904, it is determined whether the inclination of the sensor unit 104 between the determination target mesh surface and the determination target second sensor position and orientation is sufficiently small. If the angle formed between the determination target mesh surface and the sensor unit 104 in the determination target second sensor position and orientation is equal to or smaller than the threshold thangle , it is determined that the mesh surface can be measured. If the angle formed by the determination target mesh surface and the sensor unit 104 in the second sensor position and orientation to be determined is not smaller than or equal to the threshold th angle , it is determined that the mesh surface cannot be measured.

ステップS905では、判定対象の第2のセンサ位置姿勢におけるセンサ部104と判定対象のメッシュ面との間で、パレット107による遮蔽が十分に小さいか否かを判定する。判定対象のメッシュ面のうちパレット107により隠れている面の割合が、閾値thocclusion以下の場合、そのメッシュ面は計測可能と判定する。判定対象のメッシュ面のうちパレットにより隠れている面の割合が、閾値thocclusionを超える場合、そのメッシュ面は計測不可能と判定する。ステップS906では、判定対象の第2のセンサ位置姿勢における、全てのメッシュ面の判定が完了したかを判定する。全てのメッシュ面の判定が完了していないと判定した場合(No)、全てのメッシュ面の判定が完了するまで、ステップS903〜905を繰り返す。全てのメッシュ面の判定が完了したと判定した場合(Yes)、後述のステップS907に処理を進める。 In step S905, it is determined whether or not the pallet 107 has sufficiently small shielding between the sensor unit 104 in the second sensor position and orientation to be determined and the mesh surface to be determined. When the ratio of the surface hidden by the pallet 107 among the mesh surfaces to be determined is equal to or smaller than the threshold thoclusion , it is determined that the mesh surface can be measured. When the ratio of the surface hidden by the pallet among the mesh surfaces to be determined exceeds the threshold thoclusion , it is determined that the mesh surface cannot be measured. In step S906, it is determined whether the determination of all the mesh surfaces in the second sensor position and orientation to be determined has been completed. If it is determined that the determination of all the mesh surfaces has not been completed (No), steps S903 to S905 are repeated until the determination of all the mesh surfaces is completed. If it is determined that all the mesh surfaces have been determined (Yes), the process proceeds to step S907 described below.

ステップS907では、計測対象の第2のセンサ位置姿勢における、計測可能なメッシュ面の面積和を算出する。計測可能なメッシュ面の面積和には、ステップS903〜905の全てにおいて計測可能と判定されたメッシュ面の面積のみが含まれる。その後、ステップS908では、全ての第2のセンサ位置姿勢の判定が完了したかを判定する。全ての第2のセンサ位置姿勢の判定が完了していないと判定した場合(No)、全ての第2のセンサ位置姿勢の判定が完了するまで、ステップS903〜908を繰り返す。全ての第2のセンサ位置姿勢の判定が完了したと判定した場合(Yes)、後述のステップS909に処理を進める。   In step S907, the sum of the measurable mesh surface areas in the second sensor position and orientation to be measured is calculated. The area sum of the measurable mesh surfaces includes only the areas of the mesh surfaces determined to be measurable in all of steps S903 to S905. After that, in step S908, it is determined whether the determination of all the second sensor positions is completed. If it is determined that the determination of all the second sensor positions is not completed (No), steps S903 to S908 are repeated until the determination of all the second sensor positions is completed. If it is determined that the determination of all the second sensor positions has been completed (Yes), the process proceeds to step S909 described below.

ステップS909では、各第2のセンサ位置姿勢のパラメータから、最良なパラメータを選択する。各第2のセンサ位置姿勢のパラメータは、6自由度の各パラメータ値の範囲と間隔に基づき、決定部307によって自動生成されるセンサ位置姿勢パラメータでも良い。また、ユーザがリストアップした第2のセンサ位置姿勢パラメータであっても良い。最良な第2のセンサ位置姿勢パラメータは、計測可能なメッシュ面の面積和が最大かつセンサ部104と物体106の存在範囲の距離が最小な第2のセンサ位置姿勢パラメータである。そして、最良なセンサ位置姿勢パラメータに基づき、第2のセンサ位置姿勢が決定される。計測対象である物体のより多くの面を計測できるような第2のセンサ位置姿勢で計測することで、正しく物体の位置姿勢を計測することができる。   In step S909, the best parameter is selected from the parameters of each second sensor position and orientation. The parameter of each second sensor position and orientation may be a sensor position and orientation parameter automatically generated by the determination unit 307 based on the range and interval of each parameter value of 6 degrees of freedom. Also, the second sensor position and orientation parameters listed by the user may be used. The best second sensor position / posture parameter is the second sensor position / posture parameter in which the sum of the measurable mesh surface areas is the largest and the distance between the sensor unit 104 and the object 106 is the smallest. Then, the second sensor position and orientation is determined based on the best sensor position and orientation parameters. By performing measurement with the second sensor position and orientation that can measure more surfaces of the object to be measured, the position and orientation of the object can be correctly measured.

以上のように、第2の実施形態によれば、例えば、パレット107の中心に物体が縦置きになり、パレット107などの容器による物体106の遮蔽が発生する場合であっても、物体106の位置姿勢が計測可能な第2のセンサ位置姿勢を決定できる。そのため第2のセンサ位置姿勢を誤って決定することを低減でき、計測時間を短縮することもできる。   As described above, according to the second embodiment, for example, even if the object is placed vertically at the center of the pallet 107 and the object 106 is blocked by a container such as the pallet 107, It is possible to determine the second sensor position and orientation from which the position and orientation can be measured. Therefore, erroneous determination of the second sensor position and orientation can be reduced, and the measurement time can be reduced.

<第3の実施形態>
第2の実施形態において、ステップS510は物体の存在範囲とその形状のみに基づいて、第2のセンサ位置姿勢を決定した。しかし、パレット107に第1の計測で計測困難な物体が複数残っている場合、各物体の一部のみを視野に収めるような第2のセンサ位置姿勢を決定してしまう恐れがある。各物体の一部のみを視野に収めるような第2のセンサ位置姿勢では、いずれの物体も視野から見きれてしまうため、物体の位置姿勢の取得に十分な情報が得られないため、物体の正しい位置姿勢を計測することが困難となる。そこで、第3の実施形態では、物体の存在範囲とその形状に加えて、物体の存在範囲の分布も用いて第2のセンサ位置姿勢を決定する。なお本実施形態の構成、及び処理フローは、ステップS510以外、第1及び第2の実施形態と同様のため説明を省略する。
<Third embodiment>
In the second embodiment, step S510 determines the second sensor position and orientation based only on the existence range and the shape of the object. However, when a plurality of objects that are difficult to be measured by the first measurement remain on the pallet 107, there is a possibility that the second sensor position and orientation that determines only a part of each object in the field of view may be determined. In the second sensor position and orientation in which only a part of each object is included in the field of view, all the objects can be seen from the field of view, and sufficient information for obtaining the position and orientation of the object cannot be obtained. It is difficult to measure a correct position and orientation. Therefore, in the third embodiment, the second sensor position and orientation are determined using the distribution of the object existence range in addition to the object existence range and its shape. Note that the configuration and processing flow of the present embodiment are the same as those of the first and second embodiments except for step S510, and thus description thereof will be omitted.

図10は、第3の実施形態に係るステップS510の処理を示すフローチャートである。本フローにおける各ステップは決定部307によって実行されうる。本実施形態では、物体の存在範囲の分布も考慮して、第2のセンサ位置姿勢を決定する。すなわち一定以上に点群がまとまった物体の存在範囲を、必ず視野におさめるように第2のセンサ位置姿勢を決定する。   FIG. 10 is a flowchart illustrating the process of step S510 according to the third embodiment. Each step in this flow can be executed by the determination unit 307. In the present embodiment, the second sensor position and orientation are determined in consideration of the distribution of the existence range of the object. That is, the position and orientation of the second sensor are determined so that the existence range of the object in which the group of points is more than a certain value is always included in the field of view.

ステップS901〜908は、第2の実施形態における図9と同様であるため、説明を省略する。ステップS1001では、判定対象の第2のセンサ位置姿勢で計測可能なクラスターの個数を算出する。計測可能なクラスターとは、そのクラスターに含まれるメッシュ面のうち、計測可能なメッシュ面の面積和が閾値thcluSter以上のクラスターである。ステップS909では、各センサ位置姿勢パラメータから、最良なセンサ位置姿勢パラメータを選択する。最良なセンサ位置姿勢パラメータは、前記計測可能クラスターの個数が最大かつ視覚センサと物体の存在範囲までの距離が最小なセンサ位置姿勢パラメータである。そして前記最良なセンサ位置姿勢パラメータに基づき、第2のセンサ位置姿勢が決定される。 Steps S901 to S908 are the same as those in FIG. 9 in the second embodiment, and a description thereof will not be repeated. In step S1001, the number of clusters that can be measured with the second sensor position and orientation to be determined is calculated. The measurable cluster is a cluster in which the sum of the measurable mesh surfaces is equal to or larger than the threshold th clSter among the mesh surfaces included in the cluster. In step S909, the best sensor position and orientation parameter is selected from each sensor position and orientation parameter. The best sensor position / posture parameter is the sensor position / posture parameter in which the number of the measurable clusters is the largest and the distance between the visual sensor and the object existence range is the smallest. Then, a second sensor position and orientation is determined based on the best sensor position and orientation parameters.

以上のように、本発明第3の実施例によれば、第1の計測で計測困難な複数の物体に対しては、物体の存在範囲の分布も用いて第2のセンサ位置姿勢を決定する。それにより、物体の一部のみを視野に収めるような誤った第2のセンサ位置姿勢を決定することが無くなる。そのためいずれの物体も視野から見きれ、計測に失敗することが無くなる。したがって少ない計測時間で物体の位置姿勢を計測できるという効果がある。   As described above, according to the third embodiment of the present invention, for a plurality of objects that are difficult to measure by the first measurement, the second sensor position and orientation are determined using the distribution of the existence range of the objects. . Thereby, it is not necessary to determine an erroneous second sensor position and orientation such that only a part of the object is included in the field of view. Therefore, any object can be seen from the visual field, and the measurement does not fail. Therefore, there is an effect that the position and orientation of the object can be measured in a short measurement time.

(物品製造方法に係る実施形態)
上述した情報処理装置105は、物品の製造方法に使用しうる。かかる物品の製造方法は、情報処理装置105により位置姿勢の取得を行われた物体の移動をロボットにより行い、移動を行われた物体の処理を行って物品を製造する。当該処理は、例えば、加工、切断、搬送、組立(組付)、検査、および選別のうちの少なくともいずれか一つを含みうる。本実施形態の物品製造方法は、従来の方法に比べて、物品の性能・品質・生産性・生産コストのうちの少なくとも1つにおいて有利である。
(Embodiment related to article manufacturing method)
The information processing device 105 described above can be used for a method of manufacturing an article. In such an article manufacturing method, an object whose position and orientation has been acquired by the information processing device 105 is moved by a robot, and the moved object is processed to manufacture an article. The processing may include, for example, at least one of processing, cutting, transporting, assembling (assembly), inspection, and sorting. The article manufacturing method of the present embodiment is advantageous in at least one of the performance, quality, productivity, and production cost of the article, as compared with the conventional method.

(その他の実施形態)
以上、本発明の実施の形態を説明してきたが、本発明はこれらの実施の形態に限定されず、その要旨の範囲内において様々な変更が可能である。
(Other embodiments)
The embodiments of the present invention have been described above, but the present invention is not limited to these embodiments, and various changes can be made within the scope of the gist.

104 センサ部
105 情報処理装置
106 物体
304 画像取得部
306 位置姿勢取得部
307 決定部
308 推定部

104 sensor unit 105 information processing device 106 object 304 image acquisition unit 306 position and orientation acquisition unit 307 determination unit 308 estimation unit

Claims (13)

撮像部によって撮像され、物体の距離情報を含む撮像画像を取得する画像取得手段と、
前記物体の距離情報から前記物体の位置姿勢を取得する位置姿勢取得手段と、
前記位置姿勢取得手段によって位置姿勢が取得された物体とは異なる物体が前記撮像画像に含まれる場合に、前記物体の距離情報から前記物体の存在範囲を推定する推定手段と、
前記物体の存在範囲に基づき、前記撮像部の位置姿勢を決定する決定手段と、を備える、ことを特徴とする情報処理装置。
Image acquisition means which is imaged by the imaging unit and acquires a captured image including distance information of the object,
Position and orientation acquisition means for acquiring the position and orientation of the object from the distance information of the object,
When an object different from the object whose position and orientation has been acquired by the position and orientation acquisition unit is included in the captured image, an estimation unit that estimates the existence range of the object from the distance information of the object,
Determining means for determining the position and orientation of the imaging unit based on the existence range of the object.
前記推定手段は、前記取得手段によって位置姿勢が取得できない物体が前記撮像画像に含まれる場合に、前記物体の存在範囲を推定する、ことを特徴とする請求項1に記載の情報処理装置。   2. The information processing apparatus according to claim 1, wherein the estimating unit estimates an existence range of the object when an object whose position and orientation cannot be acquired by the acquiring unit is included in the captured image. 3. 前記推定手段は、前記物体が載置される面の距離情報である基準距離情報と、前記物体の距離情報との差分に基づき、前記物体の存在範囲を推定する、ことを特徴とする請求項1または2に記載の情報処理装置。   The said estimation means estimates the existence range of the said object based on the difference of the reference distance information which is the distance information of the surface on which the said object is mounted, and the distance information of the said object. 3. The information processing device according to 1 or 2. 前記決定手段は、前記物体の存在範囲に対応する前記撮像部の位置姿勢を記憶する、ことを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the determination unit stores a position and orientation of the imaging unit corresponding to a range in which the object exists. 前記決定手段は、前記物体が配置される空間を複数の部分空間に分割し、前記複数の部分空間のそれぞれに対応する前記撮像部の位置姿勢を記憶する、ことを特徴とする請求項4に記載の情報処理装置。   The method according to claim 4, wherein the determining unit divides a space in which the object is arranged into a plurality of subspaces, and stores a position and orientation of the imaging unit corresponding to each of the plurality of subspaces. An information processing apparatus according to claim 1. 前記部分空間は、前記物体を収容している容器の内側の側面に隣接する空間を含む、ことを特徴とする請求項5に記載の情報処理装置。   The information processing apparatus according to claim 5, wherein the partial space includes a space adjacent to an inner side surface of a container that stores the object. 前記決定手段は、前記撮像部の視野範囲に収まる前記物体の表面積が最大となる位置姿勢を前記撮像部の位置姿勢として決定する、ことを特徴とする請求項1乃至6のいずれか1項に記載の情報処理装置。   The method according to claim 1, wherein the determining unit determines a position and orientation of the image capturing unit that maximizes a surface area of the object that falls within a visual field range of the image capturing unit as the position and orientation of the image capturing unit. An information processing apparatus according to claim 1. 前記決定手段は、前記撮像画像における前記物体の面積が最大となる位置姿勢を前記撮像部の位置姿勢として決定する、ことを特徴とする請求項1乃至6のいずれか1項に記載の情報処理装置。   7. The information processing apparatus according to claim 1, wherein the determination unit determines a position and orientation of the captured image at which an area of the object is maximized as a position and orientation of the imaging unit. 8. apparatus. 前記決定部は、前記容器によって遮蔽される前記物体の面積が閾値以下となる位置姿勢を前記撮像部の位置姿勢として決定する、ことを特徴とする請求項1乃至8のいずれか1項に記載の情報処理装置。   9. The apparatus according to claim 1, wherein the determining unit determines a position and orientation of the image capturing unit when the area of the object shielded by the container is equal to or smaller than a threshold value. 10. Information processing device. 撮像部によって撮像され、物体の距離情報を含む撮像画像を取得する画像取得工程と、
前記物体の距離情報から前記物体の位置姿勢を取得する位置姿勢取得工程と、
前記取得工程において位置姿勢が取得された物体とは異なる物体が前記撮像画像に含まれる場合に、前記物体の距離情報から前記物体の存在範囲を推定する推定工程と、
前記物体の存在範囲に基づき、前記撮像部の位置姿勢を決定する決定工程と、を含む、ことを特徴とする情報処理装置の制御方法。
An image acquisition step of acquiring a captured image that is captured by the imaging unit and includes distance information of the object,
A position and orientation acquisition step of acquiring the position and orientation of the object from the distance information of the object,
When an object different from the object whose position and orientation is obtained in the obtaining step is included in the captured image, an estimation step of estimating the existence range of the object from the distance information of the object,
A determining step of determining the position and orientation of the imaging unit based on the existence range of the object.
コンピュータを、請求項1乃至9の何れか1項に記載の情報処理装置として機能させるためのプログラム。 A program for causing a computer to function as the information processing device according to any one of claims 1 to 9. 物体の距離情報を含む撮像画像を撮像する撮像部と、
前記物体の距離情報から前記物体の位置姿勢を取得する位置姿勢取得部と、
前記位置姿勢取得部によって位置姿勢が取得された物体とは異なる物体が前記撮像画像に含まれる場合に、前記物体の距離情報から前記物体の存在範囲を推定する推定部と、
前記物体の存在範囲に基づき、前記撮像部の位置姿勢を決定する決定部と、を備える、ことを特徴とする計測装置
An imaging unit that captures a captured image including distance information of an object,
A position and orientation acquisition unit that acquires the position and orientation of the object from the distance information of the object,
When an object different from the object whose position and orientation has been acquired by the position and orientation acquisition unit is included in the captured image, an estimation unit that estimates the existence range of the object from the distance information of the object,
A determination unit that determines the position and orientation of the imaging unit based on the existence range of the object.
物品の製造方法であって、
請求項1乃至9のうちいずれか1項に記載の情報処理装置により位置姿勢の取得を行われた物体の移動をロボットにより行い、
前記移動を行われた前記物体の処理を行って前記物品を製造する、
ことを特徴とする物品の製造方法。
A method of manufacturing an article, comprising:
An object whose position and orientation have been obtained by the information processing apparatus according to any one of claims 1 to 9 is moved by a robot,
Manufacturing the article by performing the processing of the moved object;
A method for manufacturing an article, comprising:
JP2018137489A 2018-07-23 2018-07-23 Information processing device, control method of information processing device, program, measurement device, and article production method Pending JP2020016446A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018137489A JP2020016446A (en) 2018-07-23 2018-07-23 Information processing device, control method of information processing device, program, measurement device, and article production method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018137489A JP2020016446A (en) 2018-07-23 2018-07-23 Information processing device, control method of information processing device, program, measurement device, and article production method

Publications (1)

Publication Number Publication Date
JP2020016446A true JP2020016446A (en) 2020-01-30

Family

ID=69580255

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018137489A Pending JP2020016446A (en) 2018-07-23 2018-07-23 Information processing device, control method of information processing device, program, measurement device, and article production method

Country Status (1)

Country Link
JP (1) JP2020016446A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022030242A1 (en) 2020-08-03 2022-02-10 ソニーグループ株式会社 Information processing device, information processing method, and program
WO2023054535A1 (en) * 2021-09-28 2023-04-06 京セラ株式会社 Information processing device, robot controller, robot control system, and information processing method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022030242A1 (en) 2020-08-03 2022-02-10 ソニーグループ株式会社 Information processing device, information processing method, and program
WO2023054535A1 (en) * 2021-09-28 2023-04-06 京セラ株式会社 Information processing device, robot controller, robot control system, and information processing method

Similar Documents

Publication Publication Date Title
JP6323993B2 (en) Information processing apparatus, information processing method, and computer program
US10288418B2 (en) Information processing apparatus, information processing method, and storage medium
JP6415026B2 (en) Interference determination apparatus, interference determination method, and computer program
JP6573354B2 (en) Image processing apparatus, image processing method, and program
JP5132832B1 (en) Measuring apparatus and information processing apparatus
US8687057B2 (en) Three-dimensional measurement apparatus and control method therefor
JP5624394B2 (en) Position / orientation measurement apparatus, measurement processing method thereof, and program
JP5612916B2 (en) Position / orientation measuring apparatus, processing method thereof, program, robot system
JP6092530B2 (en) Image processing apparatus and image processing method
WO2019028075A1 (en) Intelligent robots
JP6983828B2 (en) Systems and methods for simultaneously considering edges and normals in image features with a vision system
JP2016091053A (en) Information processing apparatus, container shape estimation method, work-piece picking system, and program
JP5092711B2 (en) Object recognition apparatus and robot apparatus
JP2014028415A (en) Device for unloading bulk loaded commodities with robot
CN107680125B (en) System and method for automatically selecting three-dimensional alignment algorithm in vision system
JP2022519194A (en) Depth estimation
WO2019177539A1 (en) Method for visual inspection and apparatus thereof
JP2018091656A (en) Information processing apparatus, measuring apparatus, system, calculating method, program, and article manufacturing method
JP2010541065A (en) 3D beverage container positioning device
JP6817742B2 (en) Information processing device and its control method
JP2020016446A (en) Information processing device, control method of information processing device, program, measurement device, and article production method
Kriegel Autonomous 3D modeling of unknown objects for active scene exploration
CN115082550A (en) Apparatus and method for locating position of object from camera image of object
JP6061631B2 (en) Measuring device, information processing device, measuring method, information processing method, and program
JP7405607B2 (en) 3D data generation device and robot system that interpolates 3D data