JP2023157985A - 触覚センサ、触覚センサシステム及びプログラム - Google Patents

触覚センサ、触覚センサシステム及びプログラム Download PDF

Info

Publication number
JP2023157985A
JP2023157985A JP2023135633A JP2023135633A JP2023157985A JP 2023157985 A JP2023157985 A JP 2023157985A JP 2023135633 A JP2023135633 A JP 2023135633A JP 2023135633 A JP2023135633 A JP 2023135633A JP 2023157985 A JP2023157985 A JP 2023157985A
Authority
JP
Japan
Prior art keywords
section
image
imaging
tactile sensor
contact surface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023135633A
Other languages
English (en)
Inventor
明彦 山口
Akihiko Yamaguchi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fingervision
Fingervision Co Ltd
Original Assignee
Fingervision
Fingervision Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fingervision, Fingervision Co Ltd filed Critical Fingervision
Priority to JP2023135633A priority Critical patent/JP2023157985A/ja
Publication of JP2023157985A publication Critical patent/JP2023157985A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/081Touching devices, e.g. pressure-sensitive
    • B25J13/082Grasping-force detectors
    • B25J13/083Grasping-force detectors fitted with slippage detectors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0014Image feed-back for automatic industrial control, e.g. robot with camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/081Touching devices, e.g. pressure-sensitive
    • B25J13/084Tactile sensors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/16Measuring arrangements characterised by the use of optical techniques for measuring the deformation in a solid, e.g. optical strain gauge
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/141Control of illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/16Measuring arrangements characterised by the use of optical techniques for measuring the deformation in a solid, e.g. optical strain gauge
    • G01B11/165Measuring arrangements characterised by the use of optical techniques for measuring the deformation in a solid, e.g. optical strain gauge by means of a grating deformed by the object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Manipulator (AREA)

Abstract

【課題】容易に小型化することが可能な触覚センサ、触覚センサシステム及びプログラムを提供する。【解決手段】触覚センサは、把持対象物に接触可能な第一の面と、前記第一の面の裏面である第二の面とを備える透過部と、前記透過部の前記第一の面側に存在する物体の像を前記第二の面側から撮像可能な撮像部と、前記透過部の前記第二の面側に配置され、前記透過部の少なくとも一部の領域からの光を反射させて前記撮像部の撮像画角内に導く反射部とを備える。【選択図】図4

Description

本発明は、触覚センサ、触覚センサシステム及びプログラムに関する。
従来、触覚センサを実現する方法として、ラバースキンの外面に当接した物体を検知する方法が知られている(例えば、特許文献1を参照)。
特開2000-288973号公報
従来技術による触覚センサは、撮像部の撮像光軸がラバースキン(以後、当接面とする。)の法線方向に対して平行に備えられていた。撮像部は当接面を撮像し、物体が当接面に当接したときの、当接面の変位を検知することにより、物体の把持状態を検知していた。
ここで、触覚センサの大きさは、触覚する対象物が小さい場合など、小さい方がよい場合がある。触覚センサの小型化を考慮した場合、物体を撮像する撮像部と当接面との距離を短くすること、及び撮像部自体の小型化をすることが課題となる。
従来技術における触覚センサでは、撮像部と接触面との距離を短くしようとする場合、撮像画角が広いレンズを使わなければならない。撮像画角が広いレンズを使用した場合には、歪みの発生や、光量の確保等の問題が生ずるといった問題があった。さらに、撮像部の小型化をしようとする場合にも、撮像部の小型化には画像感度の低下を伴うために限界があり、触覚センサを撮像部より小さくすることは不可能であった。つまり触覚センサの小型化を考慮した場合、撮像部と当接面との距離を短くすることによる画質の維持が困難であること、及び撮像部の小型化には限界があるという問題が生じていた。
すなわち、従来手法によると、触覚センサの小型化が容易でないという問題があった。
本発明は、このような状況に鑑みてなされたものであり、容易に小型化することが可能な触覚センサ、触覚センサシステム及びプログラムを提供することを目的とする。
本発明の一態様に係る触覚センサは、把持対象物に接触可能な第一の面と、前記第一の面の裏面である第二の面とを備える透過部と、前記透過部の前記第一の面側に存在する物体の像を前記第二の面側から撮像可能な撮像部と、前記透過部の前記第二の面側に配置され、前記透過部の少なくとも一部の領域からの光を反射させて前記撮像部の撮像画角内に導く反射部とを備える。
また、本発明の一態様に係る触覚センサにおいて、前記透過部は、前記第一の面に接触した把持対象物の形状に沿って少なくとも一部が変形し、前記撮像部は、前記第一の面側に存在する物体の像と、前記透過部に付された前記透過部の変形を示すマーカの像との両方を前記第二の面側から撮像可能である。
また、本発明の一態様に係る触覚センサにおいて、前記撮像部は、前記撮像部の撮像光軸と、前記透過部の前記第二の面の法線とが交点を有するように配置される。
また、本発明の一態様に係る触覚センサにおいて、前記反射部は、前記撮像部の撮像光軸に対する法線の角度が互いに異なる複数の反射面を備える。
また、本発明の一態様に係る触覚センサにおいて、前記撮像部は、前記反射部を介さずに入射する光による前記透過部の撮像対象領域の像である第1像と、前記反射部によって反射されて入射する光による前記透過部の撮像対象領域の像である第2像との両方を、前記透過部の像として撮像する。
また、本発明の一態様に係る触覚において、前記透過部は、前記撮像部の撮像光軸に対する法線の角度が互いに異なる複数の領域を備え、前記撮像部は、前記透過部の複数の前記領域を介してそれぞれ入射する光による前記第一の面側に存在する物体の像を、それぞれ撮像可能である。
また、本発明の一態様に係る触覚センサシステムは、上述の触覚センサと、前記撮像部が撮像した画像を取得し、取得した前記画像に基づき前記第一の面に対する物体の接触状態を検出する検出部と、を備える。
また、本発明の一態様に係るプログラムは、把持対象物に接触可能な第一の面と、前記第一の面の裏面である第二の面とを備える透過部と、前記透過部の前記第一の面側に存在する物体の像を前記第二の面側から撮像可能な撮像部と、前記透過部の前記第二の面側に配置され、前記透過部の少なくとも一部の領域からの光を反射させて前記撮像部の撮像画角内に導く反射部とを備える触覚センサと接続されたコンピュータに、前記撮像部が撮像した画像を取得する画像取得ステップと、前記画像取得ステップにより取得された前記画像に基づき、前記第一の面に対する物体の接触状態を検出する検出ステップと、を実行させる。
本発明によれば、容易に小型化することが可能な触覚センサ、触覚センサシステム及びプログラムを提供できる。
実施形態におけるロボットシステムの一例を示す図である。 実施形態における触覚センサモジュールの一例を示す図である。 実施形態における触覚センサの断面図の一例を示す図である。 実施形態における撮像部が撮像可能な範囲の一例を示す図である。 実施形態における撮像部の撮像画像の一例を示す図である。 実施形態における把持対象物が接触面に触れた場合の触覚センサの断面図の一例を示す図である。 実施形態における把持対象物が接触面に触れた場合の触覚センサの撮像画像の一例を示す図である。 実施形態におけるロボットシステム制御部の一例を示す図である。 実施形態におけるロボットシステム制御部の動作の一例を示す図である。 第2の実施形態における触覚センサの断面図の一例を示す図である。 第2の実施形態における撮像部が撮像可能な範囲の一例を示す図である。 第3の実施形態における触覚センサの断面図の一例を示す図である。 第3の実施形態における撮像部が撮像可能な範囲の一例を示す図である。 第4の実施形態における触覚センサの断面図の一例を示す図である。 第4の実施形態における撮像部が撮像可能な範囲の一例を示す図である。 第5の実施形態における触覚センサの断面図の一例を示す図である。 第5の実施形態における撮像部が撮像可能な範囲の一例を示す図である。
以下、本発明の実施形態について、図面を参照しながら説明する。
[ロボットシステム100の構成]
図1は、実施形態におけるロボットシステム100の一例を示す図である。本実施形態におけるロボットシステム100は、把持対象物と接触することにより把持状態を検出しつつ、把持対象物を把持する。
本実施形態において、ロボットシステム100は、触覚センサモジュール10と、ロボットシステム制御部90と、先端部110と、上腕部120と、関節部130と、下腕部140と、主横軸部150と、主縦軸部160と、土台部170とを備える。
土台部170は、主縦軸部160と接続される部位である。
主縦軸部160は、主横軸部150と土台部170とを繋ぐ部位である。主縦軸部160はロボットシステム制御部90により制御され、主横軸部150を主縦軸部160の軸周りに変位させる。
主横軸部150は、下腕部140と主縦軸部160とを繋ぐ部位である。主横軸部150はロボットシステム制御部90により制御され、下腕部140を主横軸部150の軸周りに変位させる。
下腕部140は、関節部130と主横軸部150とを繋ぐ部位である。
関節部130は、上腕部120と下腕部140とを繋ぐ部位である。関節部130はロボットシステム制御部90により制御され、上腕部120を関節部130の軸周りに変位させる。
上腕部120は、先端部110と関節部130とを繋ぐ部位である。
先端部110は、触覚センサモジュール10と接続される。先端部110の姿勢(例えば、位置及び方向)は、ロボットシステム制御部90によって制御される。触覚センサモジュール10の姿勢は、先端部110の姿勢が変化することによって変化する。
触覚センサモジュール10は、把持対象物の接触状態を検知し、検知した把持対象物の接触状態を示す情報をロボットシステム制御部90に出力する。
ロボットシステム制御部90は、触覚センサモジュール10が出力した情報を取得する。
ロボットシステム制御部90は、ロボットシステム100が備える各部(先端部110、上腕部120、関節部130、下腕部140、主横軸部150及び主縦軸部160)を不図示の駆動装置によって変位させることにより、触覚センサモジュール10を移動させる。ロボットシステム制御部90は、触覚センサモジュール10から取得した情報に基づき、ロボットシステム100の制御を行う。
図2は、実施形態における触覚センサモジュール10の一例を示す図である。本実施形態における触覚センサモジュール10は、センサ接続部11と、第1触覚センサ1aと、第2触覚センサ1bとを備える。以降の説明において、x軸、y軸及びz軸の三次元直交座標系によって触覚センサモジュール10の姿勢を示す場合がある。
センサ接続部11は、先端部110と第1触覚センサ1a及び第2触覚センサ1bとを繋ぐ部位である。
第1触覚センサ1aは、センサ接続部11に接続される。第1触覚センサ1aは、第1透過部接触面40aを備えている。
第2触覚センサ1bは、センサ接続部11に接続される。第2触覚センサ1bは、第2透過部接触面40bを備えている。
第1触覚センサ1aと第2触覚センサ1bとは、第1透過部接触面40aと第2透過部接触面40bとが互いに向きあう位置に配置される。センサ接続部11は、不図示の駆動装置を備えており、ロボットシステム制御部90からの指示に基づき、第1触覚センサ1a及び第2触覚センサ1b(又はそれらのセンサのうち一方。以下の説明において同じ。)をy軸方向に変位させる。触覚センサモジュール10は、第1触覚センサ1a及び第2触覚センサ1bをy軸方向に駆動させることにより、第1触覚センサ1a及び第2触覚センサ1bの間にある把持対象物を把持する。
[触覚センサ1の構成]
図3は、実施形態における触覚センサの断面図の一例を示す図である。同図には、図2に示す第1触覚センサ1aのxy平面上の断面図を示す。x軸、y軸及びz軸の三次元直交座標系によって触覚センサモジュール10の方向を示す。
なお、第1触覚センサ1aと、第2触覚センサ1bとは互いに同様の構成であるため、第1触覚センサ1aについて説明し、第2触覚センサ1bについての説明は省略する。
第1触覚センサ1aは、第1撮像部30aと、第1反射部20aと、第1透過部43aと、第1マーカ45aと、第1透過部接触面40aと、第1透過部非接触面47aと、第1硬質レイヤ70aと、第1フレーム50aとを備える。
なお、以下において、第1撮像部30aを撮像部30と、第1反射部20aを反射部20と、第1透過部43aを透過部43と、第1マーカ45aをマーカ45と、第1透過部接触面40aを透過部接触面40と、第1透過部非接触面47aを透過部非接触面47と、第1硬質レイヤ70aを硬質レイヤ70と、第1フレーム50aをフレーム50と、それぞれ言い換えて説明する。
フレーム50は、撮像部30、反射部20、透過部43、及び硬質レイヤ70を保持する。
透過部43は、光を透過させる透明な材質によって構成されており、透過部接触面40と、透過部非接触面47とを備える。例えば、透過部43の具体的な材質として、厚さが2ミリメートルで約94パーセントの透過率のシリコーン素材がある。
透過部接触面40とは、透過部43の表面及び裏面のうち、把持対象物に接触可能な面である。透過部非接触面47は、透過部43の表面及び裏面のうち、把持対象物に接触しない面である。
なお、以下の説明において、透過部43の面のうち、把持対象物に接触可能な面(つまり、透過部接触面40)を表面又は第一の面ともいい、把持対象物に接触しない面(つまり、透過部非接触面47)を裏面又は第二の面ともいう。すなわち、透過部43は、把持対象物に接触可能な接触面である透過部接触面40と、接触面の裏面であり把持対象物に接触しない非接触面である透過部非接触面47とを備える。
また、透過部43は、透明な材質により構成される。この一例において、透過部43は、接触面である透過部接触面40に接触した把持対象物の形状に沿って少なくとも一部が変形する。
マーカ45は、透過部43の所定の位置に複数配置される。本実施形態の一例では、マーカ45とは、透過部43の内部の等間隔に区切られた格子点の位置に配置された不透明部材である。なお、マーカ45は、透過部43の内部に配置されるとしたがこれに限られず、透過部接触面40に備えられていてもよいし、透過部非接触面47に備えられていてもよい。また、マーカ45は、格子点の位置に離散的に配置されるものとして説明するがこれに限られない。マーカ45は格子パターンやその他の連続的なパターンであってもよい。また、マーカ45のパターンは把持対象物の把持状況の検知が容易なように不規則的なパターンであってもよい。マーカ45は、不透明部材であるとして説明したがこれに限られず、把持対象物が接触したときの変位が光学的に認識できるものであれば半透明部材や透明部材であってもよい。
硬質レイヤ70は、透過部43の透過部非接触面47に接する位置に備えられる。硬質レイヤ70は、透明で硬質なアクリル等の材質により構成される。硬質レイヤ70は、把持対象物が把持された場合において、透過部43の変形量を制約する。
なお、本実施形態では透過部43と硬質レイヤ70とをそれぞれ別個の構成要素として説明する。把持対象物が把持された場合の透過部43の変形量が所定範囲に収まるのであれば、硬質レイヤ70は省略されていてもよい。
反射部20は、例えば鏡などの、光を反射させる反射面を備える。この反射面は、透過部43の非接触面側に配置される。反射部20は、透過部43を透過した光を反射させ、反射させた光を撮像部30に導く。
反射部20は、透過部43の少なくとも一部の領域からの光を反射させる。すなわち、反射部20は、透過部43の非接触面(例えば、透過部非接触面47)側に配置され、透過部43の少なくとも一部の領域からの光を反射させて撮像部30の撮像画角内に導く。
撮像部30は、透過部43の表裏両面のうち、透過部非接触面47側に配置される。より具体的には、撮像部30は、撮像部30の撮像光軸OAと、透過部43の透過部非接触面47の法線N41とが交点を有するように(撮像光軸OAと法線N41とが平行とならないように)配置される。
撮像部30は、撮像光軸OAを中心とした撮像画角内の像を撮像し、撮像結果を画像情報として出力する。撮像部30は、透過部43の透過部接触面40側に存在する物体の像を透過部非接触面47側から撮像可能である。
ここで、透過部43を透過した光には、透過部43の透過部接触面40側に存在する物体の像が含まれている。また、透過部43を透過した光には、透過部43に配置されたマーカ45の像(つまり、透過部43の像又は透過部の像)が含まれている。すなわち、撮像部30は、透過部43の接触面側である透過部接触面40側に存在する物体の像と、透過部43に付された透過部43の変形を示すマーカの像との両方を非接触面側である透過部非接触面47側から撮像可能である。
また、撮像部30の撮像可能範囲内には、透過部43を透過し反射部20によって反射された光による像と、透過部43を透過し反射部20を介さずに撮像部30に直接到達する光による像とが含まれる。以下の説明において、透過部43を透過し反射部20を介さずに撮像部30に直接到達する光による像のことを直接像ともいう。また、透過部43を透過し反射部20によって反射された光による像のことを反射像ともいう。撮像部30の撮像可能範囲について、図4及び図5を参照して説明する。
[撮像部30が撮像可能な範囲]
図4は、実施形態における撮像部30が撮像可能な範囲の一例を示す図である。触覚センサ1が備える撮像部30が撮像可能な範囲について説明する。
この一例において、撮像部30の撮像可能な範囲は、撮像部30の画角A10と、反射部20の配置との幾何学的な相対関係によって定まる。撮像部30の撮像可能な範囲は、直接像を撮像可能である領域と、反射像を撮像可能である領域とが含まれる。
例えば、透過部接触面40側から反射部20に入射する光の入射角が第1入射角IA10である場合、反射部20に入射した光は、第1反射角RA10の方向に出射する。
透過部接触面40側から反射部20に入射する光の入射角が第2入射角IA20である場合、反射部20に入射した光は、第2反射角RA20の方向に出射する。
また、透過部接触面40側から反射部20に入射する光の入射角が第3入射角IA30である場合、反射部20に入射した光は、第3反射角RA30の方向(この一例の場合、撮像光軸OA)に出射する。
反射部20から出射する光による像(すなわち、反射像)が画角A10内に含まれる場合には、撮像部30は、反射部20から出射する光を撮像可能である。
第1撮像範囲AR1は、撮像部30が直接像を撮像可能な範囲であり、かつ、撮像部30が反射像を撮像不可能な範囲である。
第2撮像範囲AR2は、撮像部30が直接像と反射像との両方を撮像可能な範囲である。
第3撮像範囲AR3は、撮像部30が直接像を撮像不可能な範囲であり、かつ、撮像部30が反射像を撮像可能な範囲である。
図5は、実施形態における撮像部30の撮像画像の一例を示す図である。撮像画像Pは、直接視撮像画像R及び反射視撮像画像Mを画像の構成要素として備える。撮像画像Pをx軸及びy軸の二次元直交座標系によって示す。x平面は、図4においてyz平面が撮像された画像面を示す。
直接視撮像マーカRMは、撮像部30がマーカ45の直接像を撮像した画像である。
反射視撮像マーカMMは、撮像部30がマーカ45の反射像を撮像した画像である。
以下、図4及び図5を参照し、第1対象物OB1~第3対象物OB3を一例にして説明する。
この一例において、第1対象物OB1は、第1撮像範囲AR1に存在する。この場合、撮像部30は、第1対象物OB1の直接像を撮像可能であり、第1対象物OB1の反射像を撮像不可能である。
第2対象物OB2は、第2撮像範囲AR2に存在する。この場合、撮像部30は、第2対象物OB2の直接像及び反射像を撮像可能である。
第3対象物OB3は、第3撮像範囲AR3に存在する。この場合、撮像部30は、第3対象物OB3の直接像を撮像不可能であり、第3対象物OB3の反射像を撮像可能である。
撮像部30は、反射部20を介さずに入射する光による透過部43の撮像対象領域の像である第1像と、反射部20によって反射されて入射する光による透過部43の撮像対象領域の像である第2像との両方を、透過部43の像として撮像する。
すなわち、撮像部30は、直接視撮像画像Rと、反射視撮像画像Mとを同時に撮像することができる。
[把持対象物が透過部接触面40に接触した場合]
図6は、実施形態における把持対象物が接触面に触れた場合の触覚センサの断面図の一例を示す図である。一例として、対象物OB4が、透過部接触面40に接触した場合について説明する。
この一例において、把持対象物である対象物OB4は、透過部接触面40に接触している。対象物OB4が透過部接触面40に接触している範囲を、対象物検出範囲ODAとする。対象物が透過部接触面40に接触する前と後とにおいて、対象物検出範囲ODAにあるマーカ45が変位する。撮像部30は対象物検出範囲ODAにおけるマーカ45を時系列に撮像する。
なお、この一例において、対象物OB4は、第2撮像範囲AR2及び第3撮像範囲AR3の両方の撮像範囲にまたがる位置に存在している。したがって、直接視及び反射視の両方が可能である。
図7は、実施形態における把持対象物が接触面に触れた場合の触覚センサの撮像画像の一例を示す図である。撮像画像Pは、直接視撮像画像R及び反射視撮像画像Mを画像の構成要素として備える。対象物OB4が透過部接触面40に接触した場合の撮像画像Pを同図に示す。
直接視撮像画像Rには、直接視撮像マーカRMが撮像されている。ここで、直接視対象物検出範囲RODAは、対象物検出範囲ODAのうち、直接視撮像画像Rとして撮像される範囲である。
反射視撮像画像Mには、反射視撮像マーカMMが撮像されている。ここで、反射視対象物検出範囲MODAは、対象物検出範囲ODAのうち、反射視撮像画像Mとして撮像された範囲である。
ここで、マーカ45の直接像について、対象物OB4の接触前のマーカ45の位置と、対象物OB4の接触後のマーカ45の位置とを比較して説明する。
接触前直接視マーカ画像RMBは、直接視対象物検出範囲RODAにおける、対象物OB4が透過部接触面40に接触する前の直接視撮像マーカRMである。
接触後直接視マーカ画像RMAは、直接視対象物検出範囲RODAにおける、対象物OB4が透過部接触面40に接触した後の直接視撮像マーカRMである。
ここで、時間変化によるマーカ45の画像内の位置の差をマーカベクトルによって表す。接触前直接視マーカ画像RMBと、接触後直接視マーカ画像RMAとの間には、同図に示すように画像内の位置の差が生じる。直接視マーカベクトルRARは、接触前直接視マーカ画像RMBと、接触後直接視マーカ画像RMAとの差を示している。ロボットシステム100は、直接視マーカベクトルRARを求めることにより、対象物OB4の把持状態を検知することが可能である。
また、マーカ45の反射像についても直接像と同様にして、時間変化によるマーカ45の画像内の位置の差をマーカベクトルによって表すことができる。すなわち、接触前反射視マーカ画像MMBと、接触後反射視マーカ画像MMAとの間には、同図に示すように画像内の位置の差が生じる。反射視マーカベクトルMARは、接触前反射視マーカ画像MMBと、接触後反射視マーカ画像MMAとの差を示している。ロボットシステム100は、反射視マーカベクトルMARを求めることにより、対象物OB4の把持状態を検知することが可能である。
[把持対象物が透過部接触面40に触れた場合]
図8は、実施形態におけるロボットシステム制御部90の一例を示す図である。
ロボットシステム制御部90は、ロボット制御部91と、入力部92と、出力部93と、把持状態検出部80とを備える。
ロボット制御部91は、いずれも不図示のマイクロコンピュータ、RAM(Random access memory)及びROM(Read only memory)等のメモリ、及び外部機器との通信を行う通信部等を備えている。
入力部92は、圧力センサ、位置センサ、温度センサ、及び加速度センサ等のセンサ、カメラ、マイク(いずれも不図示)などから情報を取得する。
出力部93は、不図示のロボット駆動用のモータ(不図示)などに駆動信号を出力する。
把持状態検出部80は、画像取得部81と、画像処理部82と、制御部83と、基準状態記憶部84とを備える。
ロボットシステム100において、検出部である把持状態検出部80は、撮像部30が撮像した画像を取得し、取得した画像に基づき透過部接触面40に対する物体の接触状態を検出する。
把持状態検出部80は、検出した把持状態をロボット制御部91に提供する。
画像取得部81は、撮像部30が撮像した画像情報を取得する。画像取得部81は、撮像部30より取得した画像を画像処理部82に提供する。
なお、この一例では、撮像部30が取得する画像が静止画であるとして説明するが、撮像部30が取得する情報は動画でもよい。
画像処理部82は、画像取得部81から画像を取得する。画像処理部82は、取得した画像に基づいて、マーカ45の位置を検出する処理を行う。
基準状態記憶部84は、対象物を検出していない状態のマーカ45の位置情報、すなわち基準位置情報を記憶している。つまり基準状態記憶部84は、マーカ45が直接視撮像画像Rに撮像された直接視撮像マーカRMの基準位置情報、及びマーカ45が反射視撮像画像Mに撮像された反射視撮像マーカMMの基準位置情報を記憶している。
制御部83は、画像処理部82から、直接視撮像マーカRMの基準位置情報、反射視撮像マーカMMの基準位置情報、及びマーカ45の位置の検出結果を取得する。このマーカ45の位置の検出結果には、直接視撮像マーカRMの位置情報と、反射視撮像マーカMMの位置情報とが含まれている。
また、制御部83は、基準状態記憶部84から直接視撮像マーカRMの基準位置情報、及び反射視撮像マーカMMの基準位置情報を取得する。制御部83は、撮像画像Pが示す直接視撮像マーカRMの位置情報と、基準状態記憶部84から取得した直接視撮像マーカRMの基準位置情報とに基づいて、直接視撮像マーカRMの変位(例えば、直接視マーカベクトルRAR)を求める。また、制御部83は、撮像画像Pが示す反射視撮像マーカMMの位置情報と、基準状態記憶部84から取得した反射視撮像マーカMMの基準位置情報とに基づいて、反射視撮像マーカMMの変位(例えば、反射視マーカベクトルMAR)を求める。
制御部83は、マーカ45の変位情報をロボット制御部91に出力する。このマーカ45の変位情報は、把持対象物の把持状態を示している。すなわち、制御部83は、把持対象物の把持状態を検出する。
なお、制御部83は、マーカ45の変位量が所定値を超える場合に、対象物が透過部接触面40に接触したと判定してもよい。
また、制御部83は、画像取得部81は、撮像部30が撮像した画像をロボット制御部91に出力してもよい。撮像部30が撮像した画像には、透過部43の透過部接触面40側に存在する物体の画像が含まれている。つまり、撮像部30が撮像した画像には、透過部43を介して観察可能な外界の様子の画像が含まれている。このように構成された把持状態検出部80によれば、透過部接触面40への物体の接触の有無にかかわらず、透過部接触面40の周囲の様子をロボット制御部91に把握させることができる。
図9は、実施形態におけるロボットシステム制御部90の動作の一例を示す図である。図9を参照してロボットシステム制御部90の動作の一例について説明する。
(ステップS10)画像取得部81は、撮像部30が撮像した画像情報を取得する。画像取得部81は、撮像部30より取得した画像を画像処理部82に提供する。
(ステップS20)画像処理部82は、画像取得部81から画像を取得する。画像処理部82は、取得した画像について処理を行う。画像処理部82は撮像画像Pの直接視撮像画像Rの範囲と、反射視撮像画像Mの範囲とを識別する。画像処理部82は、直接視撮像画像Rの範囲内に存在する直接視撮像マーカRMの位置情報、反射視撮像画像Mの範囲内に存在する反射視撮像マーカMMの位置情報、及び撮像画像Pを制御部83に提供する。制御部83は、画像処理部82から、直接視撮像マーカRMの位置情報、反射視撮像マーカMMの位置情報、及び撮像画像Pを取得する。また、制御部83は、基準状態記憶部84から対象物を検出していない状態の直接視撮像マーカRMの位置情報、反射視撮像マーカMMの位置情報を取得する。制御部83は、画像処理部82から取得した直接視撮像マーカRMの位置情報及び反射視撮像マーカMMの位置情報と、基準状態記憶部84から取得した直接視撮像マーカRMの位置情報及び反射視撮像マーカMMの位置情報とを比較する。
(ステップS30)制御部83は、比較した結果に差がある場合(ステップS30;YES)には、対象物が透過部接触面40に接触したと判定し、処理をステップS40に進める。制御部83は、比較した結果に差がない場合(ステップS30;NO)には、対象物が透過部接触面40に接触していないと判定し、処理をステップS10に進める。
(ステップS40)制御部83は、ロボット制御部91に把持状態を通知する。具体的には、制御部83は直接視撮像マーカRM及び反射視撮像マーカMMの変位情報をロボット制御部91に通知する。また制御部83は、変位が検知された際の撮像画像Pを同時にロボット制御部91に提供する。
[第2の実施形態]
図10は、第2の実施形態における触覚センサの断面図の一例を示す図である。
上述した実施形態では、反射部20は1つの平面であるとして説明した。第2の実施形態では、反射部20が複数の異なる角度を持つ点で、上述した実施形態と異なる。
第2の実施形態において、触覚センサ1は、複数の異なる角度を持つ反射部20を備える。この一例において、触覚センサ1は、第1角度反射部21及び第2角度反射部22を備える。(以後この実施形態において、第1角度反射部21と、第2角度反射部22とを区別しない場合には、反射部20とする。)
法線N21は第1角度反射部21の法線である。
法線N22は第2角度反射部22の法線である。
ここで、法線N21と法線N22は、交点IPにおいて交差する。つまり、触覚センサ1は、撮像部30の撮像光軸OAに対する法線の角度が互いに異なる複数の反射面を備える。
第2の実施形態において、触覚センサ1は、角度が互いに異なる複数の反射部20を有することにより、撮像部30は第1の実施形態と同様の画角A10である場合にも、より広い範囲を観察することが可能である。
なお、この一例において反射部20は複数の異なる角度を持つ反射部(第1角度反射部21及び第2角度反射部22)から構成されている。これらの反射部は、それぞれ異なる反射部材により構成してもよい。また、一つの反射部材に複数の異なる角度を持つ反射部を構成することにより同様の効果を持つ反射部を構成してもよい。
図11は、第2の実施形態における撮像部30が撮像可能な範囲の一例を示す図である。第2の実施形態において、撮像画像Pは、直接視撮像画像Rと、第1角度反射部21に対応する反射視撮像画像M1と、第2角度反射部22に対応する反射視撮像画像M2とを画像の構成要素として備える。(以後この実施形態において、第1角度反射部21に対応する反射視撮像画像M1と、第2角度反射部22に対応する反射視撮像画像M2とを区別しない場合には、反射視撮像画像Mとする。)
直接視撮像画像Rには、第1の実施形態と同様に、直接視撮像マーカRMが撮像されている。また、反射視撮像画像Mには、反射視撮像マーカMMが撮像されている。
撮像部30は、直接視撮像マーカRM及び反射視撮像マーカMMを観察することにより、把持状態を検知する。
[第3の実施形態]
図12は、第3の実施形態における触覚センサの断面図の一例を示す図である。
上述した実施形態では、透過部接触面40は平面であるとして説明した。第3の実施形態では、透過部接触面40が複数の異なる角度を持つ(つまり、湾曲面を有する)点で、上述した実施形態と異なる。
第3の実施形態において、触覚センサ1は、複数の異なる角度を持つ透過部接触面40を備える。この一例において、触覚センサ1は、第1角度透過部接触面41と、第2角度透過部接触面42とを備える。(以後この実施形態において、第1角度透過部接触面41と、第2角度透過部接触面42とを区別しない場合には、透過部接触面40とする。)
法線N41は、第1角度透過部接触面41の法線である。
法線N42は、第2角度透過部接触面42の法線である。
ここで、法線N41と法線N42は、交点IPにおいて交差する。つまり、透過部43は、撮像部30の撮像光軸OAに対する法線の角度が互いに異なる複数の領域を備える。撮像部30は、透過部43の複数の領域を介してそれぞれ入射する光による透過部接触面40側に存在する物体の像を、それぞれ撮像可能である。
第3の実施形態において、触覚センサ1は、角度が互いに異なる複数の透過部接触面40を有することにより、撮像部30は第1の実施形態と同様の画角A10である場合にも、より広い範囲を観察することが可能である。特に第3の実施形態では、第2角度透過部接触面42を備えることにより、x軸方向に対して、より広い範囲の観察が可能となる。したがって、ロボットシステム制御部90が触覚センサモジュール10の位置をx軸方向に移動させる場合、触覚センサ1が備える撮像部30が撮像する画像により、進行方向にある物体との衝突を事前に検知することができる。
つまり第3の実施形態において、触覚センサ1は第2角度透過部接触面42を備えることにより、触覚センサ1は進行方向に存在する物体を検知する。したがって、触覚センサ1は、進行方向に存在する物体との衝突を回避することが可能になる。
図13は、第3の実施形態における撮像部30が撮像可能な範囲の一例を示す図である。第3の実施形態において、撮像画像Pは、第1角度透過部接触面41に対応する直接視撮像画像R1と、第2角度透過部接触面42に対応する直接視撮像画像R2と、反射視撮像画像Mとを画像の構成要素として備える。(以後この実施形態において、第1角度透過部接触面41に対応する直接視撮像画像R1と、第2角度透過部接触面42に対応する直接視撮像画像R2とを区別しない場合には、直接視撮像画像Rとする。)
直接視撮像画像Rには、第1の実施形態と同様に、直接視撮像マーカRMが撮像されている。また、反射視撮像画像Mには、反射視撮像マーカMMが撮像されている。
撮像部30は、直接視撮像マーカRM及び反射視撮像マーカMMを観察することにより、把持状態を検知する。
[第4の実施形態]
図14は、第4の実施形態における触覚センサの断面図の一例を示す図である。
上述した第2の実施形態では、反射部20が複数の異なる角度を持つ実施形態について説明した。また、上述した第3の実施形態では、透過部接触面40が複数の異なる角度を持つ実施形態について説明した。第4の実施形態では、反射部20が複数の異なる角度を持ち、かつ透過部接触面40が複数の異なる角度を持つ点で上述した実施形態と異なる。
第4の実施形態において、触覚センサ1は、複数の異なる角度を持つ反射部20を備える。また、触覚センサ1は、複数の異なる角度を持つ透過部接触面40を備える。この一例において、触覚センサ1は、第1角度反射部21、第2角度反射部22、第1角度透過部接触面41、及び第2角度透過部接触面42を備える。(以後この実施形態において、第1角度反射部21と、第2角度反射部22とを区別しない場合には、反射部20とする。また、第1角度透過部接触面41と、第2角度透過部接触面42とを区別しない場合には、透過部接触面40とする。)
第4の実施形態において、触覚センサ1は、角度が互いに異なる複数の反射部20を有することにより、撮像部30は第1の実施形態と同様の画角A10である場合にも、より広い範囲を観察することが可能である。また、この一例において、触覚センサ1は、角度が互いに異なる複数の透過部接触面40を有することにより、撮像部30は第1の実施形態と同様の画角A10である場合にも、より広い範囲を観察することが可能である。特に第4の実施形態では、第2角度透過部接触面42を備えることにより、x軸方向に対しても観察が可能となる。したがって、ロボットシステム制御部90が触覚センサモジュール10の位置をx軸方向に移動させる場合、触覚センサ1が備える撮像部30が撮像する画像により、進行方向にある物体との衝突を事前に検知することができる。
図15は、第4の実施形態における撮像部30が撮像可能な範囲の一例を示す図である。第4の実施形態において、撮像画像Pは、第1角度透過部接触面41に対応する直接視撮像画像R1と、第2角度透過部接触面42に対応する直接視撮像画像R2と、第1角度反射部21に対応する反射視撮像画像M1と、第2角度反射部22に対応する反射視撮像画像M2とを画像の構成要素として備える。(以後この実施形態において、第1角度透過部接触面41に対応する直接視撮像画像R1と、第2角度透過部接触面42に対応する直接視撮像画像R2とを区別しない場合には、直接視撮像画像Rとする。また、第1角度反射部21に対応する反射視撮像画像M1と、第2角度反射部22に対応する反射視撮像画像M2とを区別しない場合には、反射視撮像画像Mとする。)
直接視撮像画像Rには、第1の実施形態と同様に、直接視撮像マーカRMが撮像されている。また、反射視撮像画像Mには、反射視撮像マーカMMが撮像されている。
撮像部30は、直接視撮像マーカRM及び反射視撮像マーカMMを観察することにより、把持状態を検知する。
[第5の実施形態]
図16は、第5の実施形態における触覚センサの断面図の一例を示す図である。
上述した実施形態では、透過部接触面40は平面であるとして説明した。また、上述した第3の実施形態及び第4の実施形態では、透過部接触面40が複数の異なる角度を持つ実施形態について説明した。特に、x軸方向にのみ複数の角度を持つとして説明したが、第5の実施形態では、z軸方向についても複数の角度を持つ点で、第5の実施形態は、第3の実施形態及び第4の実施形態と異なる。
第5の実施形態において、触覚センサ1は、複数の異なる角度を持つ透過部接触面40を備える。ここで、第3の実施形態及び第4の実施形態において、透過部接触面40は、x軸方向に対し複数の異なる角度を持つことを説明した。第5の実施形態においては、透過部接触面40は、さらにz軸方向に対し複数の異なる角度を持つ。
触覚センサ1は、複数の反射部20を備える。この一例において、触覚センサ1は、第1角度反射部21及び第2角度反射部22を備える。(以後この実施形態において、第1角度反射部21と、第2角度反射部22とを区別しない場合には、反射部20とする。)
触覚センサ1は、複数の異なる角度を持つ透過部接触面40を備える。この一例において、触覚センサ1は、第1角度透過部接触面41と、第2角度透過部接触面42とを備える。
さらに、第1角度透過部接触面41は、z軸方向に異なる角度を持つ第1角度透過部接触面41Sを有する。第2角度透過部接触面42は、z軸方向に異なる角度を持つ第2角度透過部接触面42Sを有する。(以後この実施形態において、第1角度透過部接触面41と、第2角度透過部接触面42と、第1角度透過部接触面41Sと、第2角度透過部接触面42Sとを区別しない場合には、透過部接触面40とする。)
第5の実施形態において、触覚センサ1は、z軸方向に対し複数の異なる角度を持つ透過部接触面40Sを有することにより、z軸方向に対しても、より広い範囲を観察することが可能になる。ロボットシステム制御部90が触覚センサモジュール10の位置をz軸方向に移動させる場合、触覚センサ1が備える撮像部30が撮像する画像により、進行方向にある物体との衝突を事前に検知することができる。
つまり第5の実施形態において、触覚センサ1は、衝突回避をすることが可能になる。
図17は、第5の実施形態における撮像部30が撮像可能な範囲の一例を示す図である。第5の実施形態において、撮像画像Pは、第1角度透過部接触面41に対応する直接視撮像画像R1と、第1角度透過部接触面41Sに対応する直接視撮像画像RS1と、第2角度透過部接触面42に対応する直接視撮像画像R2と、第2角度透過部接触面42Sに対応する直接視撮像画像RS2と、第1角度反射部21に対応する反射視撮像画像M1と、第2角度反射部22に対応する反射視撮像画像M2とを画像の構成要素として備える。(以後この実施形態において、直接視撮像画像R1と、直接視撮像画像R2と、直接視撮像画像RS1と、直接視撮像画像RS2とを区別しない場合には、直接視撮像画像Rとする。また、第1角度反射部21に対応する反射視撮像画像M1と、第2角度反射部22に対応する反射視撮像画像M2とを区別しない場合には、反射視撮像画像Mとする。)
反射視撮像画像M1は、透過部接触面40Sを反射するMS1を有する。
反射視撮像画像M2は、透過部接触面40Sを反射するMS2を有する。
直接視撮像画像Rには、第1の実施形態と同様に、直接視撮像マーカRMが撮像されている。また、反射視撮像画像Mには、反射視撮像マーカMMが撮像されている。
撮像部30は、直接視撮像マーカRM及び反射視撮像マーカMMを観察することにより、把持状態を検知する。
なお、上述した触覚センサモジュール10と把持状態検出部80とを総称して、触覚センサシステムともいう。
[実施形態の効果のまとめ]
以上説明したように、本実施形態の触覚センサ1は、接触面に接触した把持対象物の形状に沿って変形する透明な透過部43を観察することにより、把持状態を検出することができる。触覚センサ1は反射部20を備え、直接視撮像画像Rと、反射視撮像画像Mとを観察することにより、撮像部30の画角A10の範囲外を観察することが可能となる。
ここで、従来の触覚センサの一例によると、撮像部は透過部に対して垂直に配置されており、また、反射部を備えていない。したがって、触覚センサの小型化をするためには、画角の広い撮像部を用いて撮像部と透過部との距離を短くする、もしくは撮像部自体の小型化を行う必要があった。撮像部の画角をより広角にしたり、撮像部を小型化したりすると、撮像品質が低下し、物体の把持状態の検出精度が低下してしまうという問題があった。つまり、従来の方法では、小型化が容易でないという問題があった。
本実施形態の触覚センサ1によれば、透過部43を直接観察することに加え、反射部20により透過部43を観察することが可能である。したがって、透過部43を直接視により撮像する位置(撮像部の撮像光軸が透過部の法線方向に対して平行な位置)に撮像部を配置する必要がない。また、本実施形態の触覚センサ1によれば、透過部43を直接観察することに加え、反射部20により透過部43を観察するという手法を用いるので、より広い範囲の撮像が可能となるため、撮像部30を広角化することなく、又は撮像部30を小型化することなく、触覚センサ1を構成することが可能となる。
すなわち、本実施形態の触覚センサ1によれば、小型化を容易にすることができる。
また、従来の触覚センサの他の一例によると、透過部43を備えておらず、把持している把持対象物を撮像部が撮像できない構成のものがあった。この従来の触覚センサの他の一例によると、把持対象物の把持状態に滑りが生じても撮像部によっては検出できないという問題があった。
本実施形態の触覚センサ1によれば、透過部43を備えるため、撮像部30は把持対象物を直接視することにより、把持対象物の把持状態に滑りが生じたことを検知することができる。
すなわち、本実施形態の触覚センサ1によれば、撮像部30は透過部43を直接観察することに加え、反射部20により透過部43を観察することにより、より広い範囲の撮像が可能となり、さらに撮像部30は把持対象物を直接視することにより、把持対象物の把持状態に滑りが生じたことを検知することができる。
また、上述した実施形態によれば、撮像部30は、撮像部30の撮像光軸OAと、透過部43の透過部非接触面47の法線とが交点を有するように配置される。
従来の技術では、撮像部30の撮像光軸OAと、透過部43の透過部非接触面47の法線とは平行な位置に撮像部30が配置されていた。そのため、触覚センサ1の大きさは、撮像部30の大きさに依存していた。
しかしながら上述した実施形態によれば、撮像部30を、撮像部30の撮像光軸OAと、透過部43の透過部非接触面47の法線とが交点を有するように設置できる。
すなわち、本実施形態の触覚センサ1によれば、小型化を容易にすることができる。
また、上述した実施形態によれば、反射部20は、法線の角度が互いに異なる複数の反射面を備える。したがって、撮像部30は、意図的に観察できる範囲を狭めた視野を提供する。触覚センサ1は複数の反射面により把持対象物を観察することで、把持対象物が3次元空間上に存在している範囲を限定することができる。
したがって、触覚センサ1はより限定された3次元空間上に把持対象物が存在することを特定することが可能になり、より正確な把持状態を検出することができるようになる。また、触覚センサ1は正確に3次元空間を把握することにより、ロボットシステム100が触覚センサ1を駆動させて把持対象物に近づける際、把持対象物をより早く発見できるようになる。
また、上述した実施形態によれば、透過部43は、撮像部30の撮像光軸OAに対する法線の角度が互いに異なる複数の領域を備え、撮像部30は、透過部43の複数の領域を介してそれぞれ入射する透過部接触面40側に存在する物体の像を、それぞれ撮像可能である。触覚センサ1は直接視及び反射視のそれぞれにより把持対象物を観察することで、把持対象物をより正確に把握することができる。
つまり上述した実施形態によれば、触覚センサ1は、より正確な把持状態を検出することができる。
また、上述した実施形態によれば、透過部43は、撮像部30の撮像光軸OAに対する法線の角度が互いに異なる複数の領域を備える。撮像部30は、透過部43の複数の領域を介してそれぞれ入射する透過部接触面40側に存在する物体の像を、それぞれ撮像可能である。したがって、撮像部30は透過部43が平面である場合に比べて、より広い範囲を直接視により撮像可能である。
つまり、ロボットシステム制御部90が触覚センサモジュール10の位置を移動させる場合、触覚センサ1は、物体の像を検知することが可能となる。したがって上述した実施形態における触覚センサ1は、衝突回避をすることができる。
また、上述した実施形態によれば、把持状態検出部80は、撮像部30が撮像した画像を取得し、取得した画像に基づき接触面に対する物体の接触状態を検出する。
つまり、ロボットシステム100は、把持状態検出部80を備えることにより、物体の把持状態を検出することができる。
把持状態検出部80は、ロボット制御部91に情報を提供することにより、ロボット制御部91はロボットシステム100を制御することができる。
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何ら限定されるものではなく、本発明の趣旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
1…触覚センサ、10…触覚センサモジュール、11…センサ接続部、100…ロボットシステム、110…先端部、120…上腕部、130…関節部、140…下腕部、150…主横軸部、160…主縦軸部、170…土台部、90…ロボットシステム制御部、20…反射部、30…撮像部、40…透過部接触面、47…透過部非接触面、43…透過部、45…マーカ、50…フレーム、70…硬質レイヤ、91…ロボット制御部、92…入力部、93…出力部、80…把持状態検出部、81…画像取得部、82…画像処理部、83…制御部、84…基準状態記憶部、A10…画角、OA…撮像光軸、IA10…第1入射角、RA10…第1反射角、IA20…第2入射角、RA20…第2反射角、IA30…第3入射角、RA30…第3反射角、AR1…第1撮像範囲、AR2…第2撮像範囲、AR3…第3撮像範囲、OB1…第1対象物、OB2…第2対象物、OB3…第3対象物、RM…直接視撮像マーカ、MM…反射視撮像マーカ、R…直接視撮像画像、M…反射視撮像画像、P…撮像画像

Claims (8)

  1. 把持対象物に接触可能な第一の面と、前記第一の面の裏面である第二の面とを備える透過部と、
    前記透過部の前記第一の面側に存在する物体の像を前記第二の面側から撮像可能な撮像部と、
    前記透過部の前記第二の面側に配置され、前記透過部の少なくとも一部の領域からの光を反射させて前記撮像部の撮像画角内に導く反射部と
    を備える触覚センサ。
  2. 前記透過部は、前記第一の面に接触した把持対象物の形状に沿って少なくとも一部が変形し、
    前記撮像部は、
    前記第一の面側に存在する物体の像と、前記透過部に付された前記透過部の変形を示すマーカの像との両方を前記第二の面側から撮像可能である
    請求項1に記載の触覚センサ。
  3. 前記撮像部は、
    前記撮像部の撮像光軸と、前記透過部の前記第二の面の法線とが交点を有するように配置される
    請求項1又は請求項2に記載の触覚センサ。
  4. 前記反射部は、
    前記撮像部の撮像光軸に対する法線の角度が互いに異なる複数の反射面を備える
    請求項1又は請求項3に記載の触覚センサ。
  5. 前記撮像部は、
    前記反射部を介さずに入射する光による前記透過部の撮像対象領域の像である第1像と、前記反射部によって反射されて入射する光による前記透過部の撮像対象領域の像である第2像との両方を、前記透過部の像として撮像する
    請求項1から請求項4のいずれか一項に記載の触覚センサ。
  6. 前記透過部は、
    前記撮像部の撮像光軸に対する法線の角度が互いに異なる複数の領域を備え、
    前記撮像部は、
    前記透過部の複数の前記領域を介してそれぞれ入射する光による前記第一の面側に存在する物体の像を、それぞれ撮像可能である
    請求項1から請求項5のいずれか一項に記載の触覚センサ。
  7. 請求項1から請求項6のいずれか一項に記載の触覚センサと、
    前記撮像部が撮像した画像を取得し、取得した前記画像に基づき前記第一の面に対する物体の接触状態を検出する検出部と、
    を備える触覚センサシステム。
  8. 把持対象物に接触可能な第一の面と、前記第一の面の裏面である第二の面とを備える透過部と、
    前記透過部の前記第一の面側に存在する物体の像を前記第二の面側から撮像可能な撮像部と、
    前記透過部の前記第二の面側に配置され、前記透過部の少なくとも一部の領域からの光を反射させて前記撮像部の撮像画角内に導く反射部と
    を備える触覚センサと接続されたコンピュータに、
    前記撮像部が撮像した画像を取得する画像取得ステップと、
    前記画像取得ステップにより取得された前記画像に基づき、前記第一の面に対する物体の接触状態を検出する検出ステップと、
    を実行させるプログラム。
JP2023135633A 2019-07-04 2023-08-23 触覚センサ、触覚センサシステム及びプログラム Pending JP2023157985A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023135633A JP2023157985A (ja) 2019-07-04 2023-08-23 触覚センサ、触覚センサシステム及びプログラム

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2021529656A JP7345902B2 (ja) 2019-07-04 2019-07-04 触覚センサ、触覚センサシステム及びプログラム
PCT/JP2019/026650 WO2021001992A1 (ja) 2019-07-04 2019-07-04 触覚センサ、触覚センサシステム及びプログラム
JP2023135633A JP2023157985A (ja) 2019-07-04 2023-08-23 触覚センサ、触覚センサシステム及びプログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021529656A Division JP7345902B2 (ja) 2019-07-04 2019-07-04 触覚センサ、触覚センサシステム及びプログラム

Publications (1)

Publication Number Publication Date
JP2023157985A true JP2023157985A (ja) 2023-10-26

Family

ID=74100757

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021529656A Active JP7345902B2 (ja) 2019-07-04 2019-07-04 触覚センサ、触覚センサシステム及びプログラム
JP2023135633A Pending JP2023157985A (ja) 2019-07-04 2023-08-23 触覚センサ、触覚センサシステム及びプログラム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2021529656A Active JP7345902B2 (ja) 2019-07-04 2019-07-04 触覚センサ、触覚センサシステム及びプログラム

Country Status (6)

Country Link
US (1) US11836823B2 (ja)
EP (1) EP3995268A4 (ja)
JP (2) JP7345902B2 (ja)
KR (1) KR20220027142A (ja)
CN (1) CN114072260A (ja)
WO (1) WO2021001992A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2605423B (en) * 2021-03-31 2023-09-27 Ocado Innovation Ltd Tactile Sensor

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3472772D1 (en) 1983-04-04 1988-08-25 Siemens Ag Pressure imaging system
US4668861A (en) * 1984-12-12 1987-05-26 The Regents Of The University Of California Tactile sensor employing a light conducting element and a resiliently deformable sheet
US4599908A (en) * 1985-03-18 1986-07-15 Sheridan Thomas B Opto-mechanical touch sensor
JPH07128163A (ja) * 1993-11-08 1995-05-19 Fuji Electric Co Ltd 触覚センサ
JP3047021B1 (ja) * 1999-04-05 2000-05-29 工業技術院長 触覚センサ
US6321605B1 (en) 2000-01-14 2001-11-27 National Research Council Of Canada Surface load and pressure sensing apparatus
CN1264003C (zh) * 2000-08-31 2006-07-12 株式会社东京大学Tlo 光学式触觉传感器
JP2007518966A (ja) 2003-09-16 2007-07-12 株式会社東京大学Tlo 光学式触覚センサ及び該センサを用いた力ベクトル分布再構成法
JP2005177977A (ja) 2003-11-25 2005-07-07 Matsushita Electric Works Ltd ロボットハンドの制御装置
JP4621827B2 (ja) * 2004-03-09 2011-01-26 財団法人名古屋産業科学研究所 光学式触覚センサ、光学式触覚センサを利用したセンシング方法、センシングシステム、物体操作力制御方法、物体操作力制御装置、物体把持力制御装置及びロボットハンド
JP5013507B2 (ja) * 2006-06-29 2012-08-29 国立大学法人東北大学 反射像を用いた触覚センサ
JP2009285737A (ja) * 2008-05-27 2009-12-10 Univ Of Tokyo 入力インタフェース
JP5449336B2 (ja) * 2008-06-19 2014-03-19 マサチューセッツ インスティテュート オブ テクノロジー 弾性撮像を使用する接触センサ
JP5239987B2 (ja) 2009-03-24 2013-07-17 株式会社豊田自動織機 ロボットハンド用撮像装置内蔵フィンガ
KR101586665B1 (ko) 2014-10-28 2016-01-19 한국기계연구원 접촉면 계측이 가능한 유체형 촉각센서
EP3290167B1 (de) 2016-09-01 2021-10-20 J. Schmalz GmbH Handhabungsvorrichtung und verfahren zur überwachung eines handhabungsvorgangs
EP3643459A4 (en) * 2017-06-21 2020-12-16 Saito Inventive Corp. MANIPULATOR AND ROBOT

Also Published As

Publication number Publication date
US11836823B2 (en) 2023-12-05
EP3995268A1 (en) 2022-05-11
WO2021001992A1 (ja) 2021-01-07
US20220245750A1 (en) 2022-08-04
JPWO2021001992A1 (ja) 2021-01-07
EP3995268A4 (en) 2023-04-12
KR20220027142A (ko) 2022-03-07
JP7345902B2 (ja) 2023-09-19
CN114072260A (zh) 2022-02-18

Similar Documents

Publication Publication Date Title
US11254008B2 (en) Method and device of controlling robot system
US20120221145A1 (en) Master input device and master-slave manipulator
JP2023157985A (ja) 触覚センサ、触覚センサシステム及びプログラム
KR20170130320A (ko) 터치 프로브에 대하여 시각 시스템을 켈리브레이팅하기 위한 시스템 및 방법
CN108536142B (zh) 基于数字光栅投影的工业机器人防撞预警系统及方法
JP7058621B2 (ja) 映像記録装置およびヘッドマウントディスプレイ
JP2019003332A (ja) 空中映像表示装置
JP2008168372A (ja) ロボット装置及び形状認識方法
CN111565898B (zh) 操作引导系统
CN114536402B (zh) 基于关联标识的机器人系统故障检测处理方法及机器人系统
US11182004B2 (en) Changing sensing areas based on start positions of touch gestures
JP2006007390A (ja) 撮像装置、撮像方法、撮像プログラム、撮像プログラムを記録したコンピュータ読取可能な記録媒体
JPS6334093A (ja) 視覚装置
US11691237B2 (en) Machine control device
CN115213894A (zh) 机器人图像的显示方法、显示系统以及记录介质
JPH05180622A (ja) 位置と姿勢の検出装置
JP2020091154A (ja) 距離測定装置
US20240165830A1 (en) Robot for gripping an object using dual fingers and object grip method thereof
US11698434B2 (en) Machine control device
JPH0797295B2 (ja) ターゲットトラッキングシステム
JP7385303B2 (ja) 把持装置、制御方法及びプログラム
CN114536401B (zh) 基于多个位姿标识的机器人系统故障检测处理方法及机器人系统
US20220092880A1 (en) Eyeball detection device, eye-gaze tracking device, eyeball detection method, and medium
US20240169659A1 (en) Wearable terminal device, program, and display method
WO2022124232A1 (ja) 画像処理システム及び画像処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230823