JP2020035383A - 情報処理装置および情報処理方法 - Google Patents

情報処理装置および情報処理方法 Download PDF

Info

Publication number
JP2020035383A
JP2020035383A JP2018163703A JP2018163703A JP2020035383A JP 2020035383 A JP2020035383 A JP 2020035383A JP 2018163703 A JP2018163703 A JP 2018163703A JP 2018163703 A JP2018163703 A JP 2018163703A JP 2020035383 A JP2020035383 A JP 2020035383A
Authority
JP
Japan
Prior art keywords
detection target
dimensional
information processing
robot
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018163703A
Other languages
English (en)
Other versions
JP6802225B2 (ja
Inventor
竜裕 山崎
Tatsuhiro Yamazaki
竜裕 山崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Priority to JP2018163703A priority Critical patent/JP6802225B2/ja
Priority to US16/550,704 priority patent/US20200074147A1/en
Priority to DE102019006152.7A priority patent/DE102019006152B4/de
Priority to CN201910817453.6A priority patent/CN110871444B/zh
Publication of JP2020035383A publication Critical patent/JP2020035383A/ja
Application granted granted Critical
Publication of JP6802225B2 publication Critical patent/JP6802225B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J15/00Gripping heads and other end effectors
    • B25J15/0009Gripping heads and other end effectors comprising multi-articulated fingers, e.g. resembling a human hand
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/10Programme-controlled manipulators characterised by positioning means for manipulator elements
    • B25J9/102Gears specially adapted therefor, e.g. reduction gears
    • B25J9/1035Pinion and fixed rack drivers, e.g. for rotating an upper arm support on the robot base
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Automation & Control Theory (AREA)
  • Image Analysis (AREA)
  • Manipulator (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

【課題】ロボットに適切に検出対象物を把持させるための、検出対象物の形状を示す情報を生成することができる情報処理装置、及び情報処理方法を提供する。【解決手段】情報処理装置10は、支持部材に支持された検出対象物の3次元形状を検出する3次元センサ12と、検出対象物が設置される支持部材の支持面からの高さ閾値を設定する閾値設定部14と、3次元形状を示す3次元情報に対し、高さ閾値を基準として2値化処理を行って検出対象物の2次元形状を示す2次元情報を生成する2値化処理部16と、を備える。【選択図】図1

Description

本発明は、情報処理装置および情報処理方法に関する。
ロボット技術分野において、ロボットがハンドにより部品(検出対象物)を把持する際に、カメラにより取得された当該部品の2次元画像に基づいて、フィンガの傾き等が補正されることがある(特許文献1参照)。
特開2018−103292号公報
しかし、十分な照度がない場合や、部品と背景の各色彩が同一であるような場合などには、カメラで撮像された画像において、部品と背景との区別がつかなくなるなど、部品の形状を正確に抽出できなくなる場合がある。これにより、部品を把持するためのフィンガの傾き等の補正処理を適切に行えなくなり、結果的に、ロボットが部品を把持できなくなる。
本発明は、ロボットに適切に検出対象物を把持させるための、検出対象物の形状を示す情報を生成する情報処理装置および情報処理方法を提供することを目的とする。
本発明の第1の態様は、情報処理装置であって、支持部材に支持された検出対象物の3次元形状を検出する3次元センサと、前記検出対象物が設置される前記支持部材の支持面からの高さ閾値を設定する閾値設定部と、前記3次元形状を示す3次元情報に対し、前記高さ閾値を基準として2値化処理を行って前記検出対象物の2次元形状を示す2次元情報を生成する2値化処理部と、を備える。
本発明の第2の態様は、情報処理装置により実行される情報処理方法であって、支持部材に支持された検出対象物の3次元形状を検出する3次元形状検出ステップと、前記検出対象物が設置される前記支持部材の支持面からの高さ閾値を設定する閾値設定ステップと、前記3次元形状を示す3次元情報に対し、前記高さ閾値を基準として2値化処理を行って前記検出対象物の2次元形状を示す2次元情報を生成する2値化ステップと、を含む。
本発明によれば、ロボットに適切に検出対象物を把持させるための、検出対象物の形状を示す情報を生成することができる。
実施形態に係る情報処理装置の機能ブロックを示す図である。 実施形態に係る情報処理装置による処理の一例を示すフローチャートである。 図3Aは、実施形態に係る情報処理装置による処理を説明するための検出対象物の一例を示す図であり、図3Bは、実施形態に係る情報処理装置による処理を説明するための検出対象物の他の一例を示す図である。 図4Aは、実施形態に係る情報処理装置による処理の一例を説明するための図であり、図4Bは、実施形態に係る情報処理装置による処理の他の一例を説明するための図である。 図5Aは、検出対象物を2次元センサにより検出して生成された画像を例示する図であり、図5Bは、検出対象物を3次元センサにより検出して、2値化処理を行わずに生成された画像を例示する図であり、図5Cは、実施形態に係る情報処理装置が検出対象物を撮像して生成した2次元情報に基づく画像を例示する図である。 図6Aは、検出対象物を2次元センサにより検出して生成された画像を例示する図であり、図6Bは、検出対象物を3次元センサにより検出して、2値化処理を行わずに生成された画像を例示する図であり、図6Cは、実施形態に係る情報処理装置が検出対象物を撮像して生成した2次元情報に基づく画像を例示する図である。
本発明に係る情報処理装置および情報処理方法について、好適な実施形態を掲げ、添付の図面を参照しながら以下、詳細に説明する。
[実施形態]
図1は、本実施形態に係る情報処理装置10の機能ブロックを示す図である。情報処理装置10は、3次元センサ12、閾値設定部14、2値化処理部16、および出力部18等を備える。
3次元センサ12は、例えば、CCDまたはCMOS等の撮像素子を有する。3次元センサ12は、ToF(Time Of Flight)により撮像対象の3次元形状を検出してもよいし、2つの撮像素子を用いてこれらの視差により撮像対象の3次元形状を検出してもよい。3次元センサ12は、3次元形状を示す3次元画像(3次元情報とも記載する)を生成する。
ここで、検出対象物Tを支持する支持部材30の支持面30aをXY平面として規定すると(図3A、図4A、図4B参照)、3次元センサ12は、XY平面と直交するZ方向であって、検出対象物Tの支持部材30と反対側(上方側)に設けられている。重力が働く方向を下方向、下方向と反対の方向を上方向とすると、支持部材30および検出対象物Tは、3次元センサ12からみて下方向側に位置する。
3次元情報は、支持部材30の支持面30aであるXY平面におけるXY座標位置(2次元座標位置とも記載する)を含む。更に、3次元情報は、支持面30aに直交し、且つ、支持面30aからの上方向への距離を高さZとすると、各XY座標位置における、検出対象物Tの支持面30aからの高さZを示す情報(高さ情報とも記載する)を含む。
閾値設定部14は、検出対象物Tが設置される支持部材30の支持面30aからの高さZの閾値(高さ閾値Zthとも記載する)を設定する。閾値設定部14は、ユーザが入力した値を高さ閾値Zthとして設定してもよいし、ユーザが入力した検出対象物Tの種類を示す情報に基づき高さ閾値Zthを設定してもよい。
2値化処理部16は、3次元情報を、高さ閾値Zthを基準に2値化処理を行う。つまり、2値化処理部16は、3次元情報に含まれる高さ情報を、高さ閾値Zthを基準に2値化する。本実施形態における2値化処理部16は、XY平面において、検出対象物Tの高さが高さ閾値Zth以上のXY座標位置に1、高さ閾値Zth未満のXY座標位置に0を割り当てる。2値化後の3次元情報は2次元画像として表すことができる。以下では、3次元情報に対する2値化後に得られる2次元画像、すなわち、各XY座標位置に割り当てられた0または1の値を2次元情報とも記載する。なお、本実施形態においては、各XY座標位置に割り当てられる1、0は、それぞれ画像において白、黒に対応する値であるとする。
出力部18は、ロボット制御装置20に対し2次元情報を出力する。ロボット制御装置20は、ロボット22を制御するための装置であって、ロボット22は、例えば、検出対象物Tを把持するための複数のフィンガを有するハンドを先端に備える多関節アームロボットである。ロボット制御装置20は、2次元情報に基づき、ロボット22のアームやハンドやフィンガの各軸方向や、フィンガとフィンガとの間隔等を補正する。ロボット制御装置20は、当該補正後の内容に基づいてロボット22を制御し、検出対象物Tを把持させる。
情報処理装置10は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等のプロセッサ、ROM(Read Only Memory)やRAM(Random Access Memory)等のメモリ、3次元センサ、および各種インターフェース回路等により構成することができる。プロセッサが、メモリに記憶されたプログラムや各種情報を用いて処理を実行することにより、2値化処理部16の機能を実現できる。ユーザインターフェース回路を介し入力された検出対象物Tの種類等に応じ、プロセッサが、メモリに記憶されたプログラムや各種情報を用いて処理を実行することにより、閾値設定部14の機能を実現できる。入出力インターフェース回路または通信インターフェース回路により出力部18の機能を実現できる。
図2は、本実施形態に係る情報処理装置10による処理の一例を示すフローチャートである。ステップS1において、閾値設定部14は、高さ閾値Zthを設定する。次いで、ステップS2において、3次元センサ12は、検出対象物Tの3次元形状を検出する。これにより、3次元形状を示す3次元情報が生成される。ステップS3において、2値化処理部16は、ステップS1で設定された高さ閾値Zthを基準として、3次元情報における高さ情報を2値化することにより2次元情報を生成する。ステップS4において、出力部18は、ステップS3で2値化処理部16が生成した2次元情報をロボット制御装置20に出力する。
図3Aは、本実施形態に係る情報処理装置10による処理を説明するための検出対象物T(以下、T1とも記載する。)の一例を示す図である。図3Bは、本実施形態に係る情報処理装置10による処理を説明するための検出対象物T(以下、T2とも記載する。)の他の一例を示す図である。図3Bに示す検出対象物T2は、例えば、内部に流動体(例えば、スープ)、粉末(例えば、小麦粉)等が詰められたパッケージである。
図4Aは、本実施形態に係る情報処理装置10による処理の一例を説明するための図である。図4Bは、本実施形態に係る情報処理装置10による処理の他の一例を説明するための図である。図4Aには、Z軸に垂直な方向から平面視した検出対象物T1および支持部材30が示されている。図4Bには、Z軸に垂直な方向から平面視した検出対象物T2および支持部材30が示されている。なお、理解容易のため、支持面30aの高さZを0とする。
図4Aに示す検出対象物T1は、比較的高さがある。そのため、ロボット22の検出対象物T1の把持位置は、高い位置となる。従って、閾値設定部14は、比較的高い位置を高さ閾値Zth(以下、Zth1とも記載する。)として設定する。この設定された高さ閾値Zth1は、ロボット22の検出対象物T1の把持位置から所定の範囲内に入る高さ位置である。2値化処理部16は、検出対象物T1において高さZがZth1以上の部分に1、Zth1未満の部分に0を割り当てる。
図4Bに示す検出対象物T2は、支持面30aに沿う方向に拡がりを持ち、高さZが低い。そのため、ロボット22の検出対象物T2の把持位置は、低い位置となる。従って、閾値設定部14は、低い位置を高さ閾値Zth(以下、Zth2とも記載する。)として設定する。この設定された高さ閾値Zth2は、ロボット22の検出対象物T2の把持位置から所定の範囲内に入る高さ位置であることは上述した通りである。これにより、2値化処理部16は、検出対象物T2において高さZがZth2以上の部分に1、Zth2未満の部分に0を割り当てる。
以下、図5A〜5Cを参照し、図3Aに示す検出対象物を検出する場合における、本実施形態に係る情報処理装置10による処理の効果について比較例と対比し述べる。
図5Aは、図3Aに示す検出対象物T1を2次元センサにより検出して生成された画像を例示する図である。図5Aに示すように、照明の照度が足りない場合や照明の角度に問題がある場合には、検出対象物T1のうち、把持したい部分の境界線が不明瞭になり、把持したい部分の形状を正確に認識できない。このため、ロボット制御装置20は、当該画像を用いた場合には、ロボット22に検出対象物T1を把持させるためのフィンガ等の軸の補正処理等(以下、補正処理等とも記載する)に必要な、検出対象物T1の2次元形状に係る情報を的確に得られない虞がある。
図5Bは、図3Aに示す検出対象物T1を3次元センサにより検出して、上記2値化処理を行わずに生成された画像を例示する図である。図5Bに示すように、支持面30aにおける検出対象物T1の設置位置によっては検出対象物T1の上面のみならず側面も検出されてしまう場合がある。これにより、ロボット22が検出対象物T1を把持するために必要な2次元形状に対し、不要な側面の部分(側面部分)が紛れ込んでしまい、検出対象物T1のうち、把持したい部分の形状の境界線が不明瞭になり、把持したい部分の形状を正確に認識できない。その結果、ロボット制御装置20は、ロボット22に検出対象物T1を把持させるための補正処理等を適切に行えなくなる。
図5Cは、本実施形態に係る情報処理装置10が、図3Aに示す検出対象物T1を撮像して生成した2次元情報に基づく画像を例示する図である。図5Cに示されるように、2値化処理により、ロボット22が検出対象物T1を把持するために必要な2次元形状に対し、高さ閾値Zth1より低い側面部分の紛れ込みを抑制することができる。従って、ロボット制御装置20は、補正処理等を適切に行うことができ、ロボット22は、検出対象物T1を適切に把持することができる。
図6Aは、図3Bに示す検出対象物T2を2次元センサにより検出して生成された画像を例示する図である。図6Aに示すように、照明の照度が足りない場合などにおいて、検出対象物T2の境界線は不明瞭になりうる。このため、ロボット制御装置20は、ロボット22に検出対象物T2を把持させるための補正処理等に必要な、検出対象物T2の2次元形状に係る情報を的確に得られない虞がある。
図6Bは、図3Bに示す検出対象物T2を3次元センサにより検出して、2値化処理を行わずに生成された画像を例示する図である。図6Bに示すように、検出対象物T2の縁部分の高さは支持面30aに近い等の理由により、検出対象物T2の境界線が不明瞭になりうる。このため、ロボット制御装置20は、ロボット22に検出対象物T2を把持させるための補正処理等に必要な、検出対象物T2の2次元形状に係る情報を的確に得られない虞がある。
図6Cは、本実施形態に係る情報処理装置10が、図3Bに示す検出対象物T2を撮像して生成した2次元情報に基づく画像を例示する図である。図4Bに示す高さ閾値Zth2を用いて2値化処理を行うことにより、図6Cに示されるように、検出対象物T2の輪郭が正確に把握できる。このような明確な輪郭を示す2次元情報を用いることにより、ロボット制御装置20は、補正処理等を適切に行うことができ、ロボット22は、検出対象物T2を適切に把持することができる。
以上説明したように、本実施形態に係る情報処理装置10によれば、ロボット制御装置20に対し、ロボット22が検出対象物Tを把持するために必要となる2次元形状を示す2次元情報を提供することができる。これにより、ロボット制御装置20は、2次元情報に基づく補正処理等を行うことができ、ロボット22の把持動作を適切に制御することができる。
[実施形態から得られる技術的思想]
上記実施形態から把握しうる技術的思想について、以下に記載する。
<第1の技術的思想>
情報処理装置(10)は、支持部材(30)に支持された検出対象物(T、T1、T2)の3次元形状を検出する3次元センサ(12)と、検出対象物(T、T1、T2)が設置される支持部材(30)の支持面(30a)からの高さ閾値(Zth、Zth1、Zth2)を設定する閾値設定部(14)と、3次元形状を示す3次元情報に対し、高さ閾値(Zth、Zth1、Zth2)を基準として2値化処理を行って検出対象物(T、T1、T2)の2次元形状を示す2次元情報を生成する2値化処理部(16)と、を備える。
これにより、ロボット(22)に適切に検出対象物(T、T1、T2)を把持させるための、検出対象物(T、T1、T2)の形状を示す情報を生成することができる。
情報処理装置(10)は、検出対象物(T、T1、T2)を把持するロボット(22)のハンドの動作を制御するロボット制御装置(20)に対し、2次元情報を出力する出力部(18)を更に備えてもよい。これにより、ロボット制御装置(20)は、ロボット(22)に検出対象物(T、T1、T2)を把持させることができる。
<第2の技術的思想>
情報処理装置(10)により実行される情報処理方法は、支持部材(30)に支持された検出対象物(T、T1、T2)の3次元形状を検出する3次元形状検出ステップと、検出対象物(T、T1、T2)が設置される支持部材(30)の支持面(30a)からの高さ閾値(Zth、Zth1、Zth2)を設定する閾値設定ステップと、3次元形状を示す3次元情報に対し、高さ閾値(Zth、Zth1、Zth2)を基準として2値化処理を行って検出対象物(T、T1、T2)の2次元形状を示す2次元情報を生成する2値化ステップと、を含む。
これにより、ロボット(22)に適切に検出対象物(T、T1、T2)を把持させるための、検出対象物(T、T1、T2)の形状を示す情報を生成することができる。
情報処理方法は、検出対象物(T、T1、T2)を把持するロボット(22)のハンドの動作を制御するロボット制御装置(20)に対し、2次元情報を出力する出力ステップを更に含んでもよい。これにより、ロボット制御装置(20)は、ロボット(22)に検出対象物(T、T1、T2)を把持させることができる。
10…情報処理装置 12…3次元センサ
14…閾値設定部 16…2値化処理部
18…出力部 20…ロボット制御装置
22…ロボット 30…支持部材
30a…支持面 T、T1、T2…検出対象物
Zth、Zth1、Zth2…高さ閾値

Claims (4)

  1. 支持部材に支持された検出対象物の3次元形状を検出する3次元センサと、
    前記検出対象物が設置される前記支持部材の支持面からの高さ閾値を設定する閾値設定部と、
    前記3次元形状を示す3次元情報に対し、前記高さ閾値を基準として2値化処理を行って前記検出対象物の2次元形状を示す2次元情報を生成する2値化処理部と、
    を備える、情報処理装置。
  2. 請求項1に記載の情報処理装置であって、
    前記検出対象物を把持するロボットのハンドの動作を制御するロボット制御装置に対し、前記2次元情報を出力する出力部を更に備える、情報処理装置。
  3. 支持部材に支持された検出対象物の3次元形状を検出する3次元形状検出ステップと、
    前記検出対象物が設置される前記支持部材の支持面からの高さ閾値を設定する閾値設定ステップと、
    前記3次元形状を示す3次元情報に対し、前記高さ閾値を基準として2値化処理を行って前記検出対象物の2次元形状を示す2次元情報を生成する2値化ステップと、
    を含む、情報処理装置により実行される情報処理方法。
  4. 請求項3に記載の情報処理方法であって、
    前記検出対象物を把持するロボットのハンドの動作を制御するロボット制御装置に対し、前記2次元情報を出力する出力ステップを更に含む情報処理方法。
JP2018163703A 2018-08-31 2018-08-31 情報処理装置および情報処理方法 Active JP6802225B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018163703A JP6802225B2 (ja) 2018-08-31 2018-08-31 情報処理装置および情報処理方法
US16/550,704 US20200074147A1 (en) 2018-08-31 2019-08-26 Information processing device and information processing method
DE102019006152.7A DE102019006152B4 (de) 2018-08-31 2019-08-30 Informationsverarbeitungsvorrichtung und Informationsverarbeitungsverfahren
CN201910817453.6A CN110871444B (zh) 2018-08-31 2019-08-30 信息处理装置以及信息处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018163703A JP6802225B2 (ja) 2018-08-31 2018-08-31 情報処理装置および情報処理方法

Publications (2)

Publication Number Publication Date
JP2020035383A true JP2020035383A (ja) 2020-03-05
JP6802225B2 JP6802225B2 (ja) 2020-12-16

Family

ID=69527378

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018163703A Active JP6802225B2 (ja) 2018-08-31 2018-08-31 情報処理装置および情報処理方法

Country Status (4)

Country Link
US (1) US20200074147A1 (ja)
JP (1) JP6802225B2 (ja)
CN (1) CN110871444B (ja)
DE (1) DE102019006152B4 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000230815A (ja) * 1999-02-12 2000-08-22 Matsushita Electric Ind Co Ltd 光学式3次元計測装置、及び光学式3次元計測方法
JP2004012143A (ja) * 2002-06-03 2004-01-15 Techno Soft Systemnics:Kk 立体計測装置
JP2015114292A (ja) * 2013-12-16 2015-06-22 川崎重工業株式会社 ワークの位置情報特定装置および方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB1507365A (en) 1975-03-20 1978-04-12 Mullard Ltd Object location detector
DE10000287B4 (de) 2000-01-07 2004-02-12 Leuze Lumiflex Gmbh + Co. Kg Vorrichtung und Verfahren zur Überwachung eines Erfassungsbereichs an einem Arbeitsmittel
DE10358770A1 (de) 2002-12-18 2004-08-12 Daimlerchrysler Ag Verfahren zur Bestimmung räumlicher Objektkonturen anhand von synchron aufgenommenen Bildern
JP2008045883A (ja) * 2006-08-10 2008-02-28 I-Pulse Co Ltd 検査方法および検査装置
JP4835616B2 (ja) 2008-03-10 2011-12-14 トヨタ自動車株式会社 動作教示システム及び動作教示方法
JP5471355B2 (ja) 2009-11-24 2014-04-16 オムロン株式会社 3次元視覚センサ
JP5505138B2 (ja) * 2010-07-05 2014-05-28 株式会社安川電機 ロボット装置およびロボット装置による把持方法
JP6415026B2 (ja) 2013-06-28 2018-10-31 キヤノン株式会社 干渉判定装置、干渉判定方法、コンピュータプログラム
JP6506914B2 (ja) * 2013-07-16 2019-04-24 株式会社キーエンス 三次元画像処理装置、三次元画像処理方法及び三次元画像処理プログラム並びにコンピュータで読み取り可能な記録媒体及び記録した機器
CN103344182B (zh) * 2013-07-25 2016-08-10 中国科学院自动化研究所 一种基于双目视觉的糖果几何尺寸测量系统和方法
JP6743492B2 (ja) * 2016-06-01 2020-08-19 住友ゴム工業株式会社 生タイヤの異物付着判別方法
JP2018103292A (ja) 2016-12-26 2018-07-05 川崎重工業株式会社 ロボットハンド

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000230815A (ja) * 1999-02-12 2000-08-22 Matsushita Electric Ind Co Ltd 光学式3次元計測装置、及び光学式3次元計測方法
JP2004012143A (ja) * 2002-06-03 2004-01-15 Techno Soft Systemnics:Kk 立体計測装置
JP2015114292A (ja) * 2013-12-16 2015-06-22 川崎重工業株式会社 ワークの位置情報特定装置および方法

Also Published As

Publication number Publication date
CN110871444A (zh) 2020-03-10
DE102019006152B4 (de) 2022-08-04
CN110871444B (zh) 2023-05-12
DE102019006152A1 (de) 2020-03-05
JP6802225B2 (ja) 2020-12-16
US20200074147A1 (en) 2020-03-05

Similar Documents

Publication Publication Date Title
US9652660B2 (en) Control system, robot system, and control method
US20180276501A1 (en) Information processing apparatus, information processing method, and storage medium
JP6070833B2 (ja) 入力装置及び入力プログラム
US11100666B2 (en) Image processing method and image capturing apparatus
US20150042784A1 (en) Image photographing method and image photographing device
US11320936B2 (en) Input device, information processing device and information processing method for determining a pressing amount
TWI576647B (zh) 校正導引系統和校正導引系統的操作方法
JP6472801B2 (ja) 部品データ取扱装置および部品データ取扱方法並びに部品実装システム
JP5946884B2 (ja) 対象物の位置を検出する位置検出システム
JP2016177491A (ja) 入力装置、指先位置検出方法及び指先位置検出用コンピュータプログラム
US20160165126A1 (en) Image processing device, imaging device, image processing method, and computer program product
JP6666764B2 (ja) ワーク認識方法及びランダムピッキング方法
JP6772630B2 (ja) 三次元計測装置及び三次元物体認識方法
JP2020035383A (ja) 情報処理装置および情報処理方法
US10088910B2 (en) Information processing apparatus and information processing method
US9876966B2 (en) System and method for determining image variation tendency and controlling image resolution
CN106648039B (zh) 手势控制系统及方法
US10942607B2 (en) Manipulation detection device and video display system that are capable detecting an object on a video display surface
KR20130067261A (ko) 3d 시스템에서 푸시 및 풀 제스처를 인식하는 방법 및 장치
JP2012230453A (ja) 部品回転角度検出装置及び画像処理用部品データ作成装置並びに部品回転角度検出方法及び画像処理用部品データ作成方法
JP2006178642A (ja) 動きベクトル検出装置
JP2018017610A (ja) 三次元計測装置、ロボット、ロボット制御装置、及びロボットシステム
JP2965362B2 (ja) 電子部品認識方法
JP2015226954A (ja) ロボット、ロボットの制御方法、及びロボットの制御装置
JP2017211302A (ja) 画像認識装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200114

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200416

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200903

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200903

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200908

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200928

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201027

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201126

R150 Certificate of patent or registration of utility model

Ref document number: 6802225

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150