JP2023123358A - ロボット及びシステム - Google Patents

ロボット及びシステム Download PDF

Info

Publication number
JP2023123358A
JP2023123358A JP2023008368A JP2023008368A JP2023123358A JP 2023123358 A JP2023123358 A JP 2023123358A JP 2023008368 A JP2023008368 A JP 2023008368A JP 2023008368 A JP2023008368 A JP 2023008368A JP 2023123358 A JP2023123358 A JP 2023123358A
Authority
JP
Japan
Prior art keywords
camera
robot
recognition
link
posture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023008368A
Other languages
English (en)
Inventor
彩佳里 大島
Akari Oshima
健太 加藤
Kenta Kato
雄希 松尾
Yuki Matsuo
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyo Robotics Inc
Original Assignee
Tokyo Robotics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo Robotics Inc filed Critical Tokyo Robotics Inc
Publication of JP2023123358A publication Critical patent/JP2023123358A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

【課題】物体載置を高精度に実現することが可能なロボット等を提供する。【解決手段】移動体と、前記移動体に連結された多関節マニピュレータと、から構成されたロボットであって、前記多関節マニピュレータは、前記多関節マニピュレータの先端リンクに正面へと向けて備えられた、エンドエフェクタと、前記移動体から先端リンクまでの間に延在する、1又は複数の中間リンクと、を備え、前記中間リンクのいずれかのリンクには、正面へと向きかつ光軸が鉛直下向き軸に対して鋭角又は直角を成すように配置された、第1カメラが備えられている、ロボットが提供される。【選択図】図2

Description

この発明は、ロボット、特に、モバイルマニピュレータ等に関する。
近年、工場や倉庫等の施設においてロボット、特に、モバイルマニピュレータの導入が試みられている(例として、特許文献1及び特許文献2)。そのような現場において、ロボットには、対象物を把持して移動し、再び、載置するといった作業(例えば、パレタイジング作業等)を実行することが求められている。
特開平05-303032号公報 特許第6923688号公報
ところで、この種のロボットにおいては、マニピュレータの手先近傍に取り付けられたカメラを用いて物体の把持に要する認識を行う構成がしばしば採用されている。
しかしながら、従前のカメラ配置では、マニピュレータにより物体の把持を行うことは出来ても、物体を精度良く載置することが困難であった。
例えば、特許文献1の構成においては、エンドエフェクタの取り付け部、すなわち、エンドエフェクタの付け根近傍に手先方向に向けてカメラが配置されていた。この種の構成では、エンドエフェクタで物体把持を行うと、把持した物体によりカメラ視野が遮られるおそれがあった。これにより、同カメラを用いて把持した物体の載置に要する認識を行うことが十分に出来ず、精度良く載置を行うことが出来なかった。
また、特許文献2の構成においては、カメラがアームの手先近傍の位置に長手軸に交差する姿勢で固定されている。このようにカメラ角度を手先方向以外の方向に向ける構成によれば、エンドエフェクタで物体を把持した場合であっても、一応カメラ視野が遮られることはない。しかしながら、この場合、物体等の認識処理の場面と、物体の把持や載置処理のためのアーム制御処理の場面で、アームの姿勢を変更する必要がある。従って、制御が複雑となると共に動作に時間を要していた。
本発明は上述の技術的背景に鑑みてなされたものであり、その目的は、物体載置を高精度に実現することが可能なロボット等を提供することにある。
上述の技術的課題は、以下の構成を有するロボット等により解決することができる。
すなわち、本発明に係るロボットは、移動体と、前記移動体に連結された多関節マニピュレータと、から構成されたロボットであって、前記多関節マニピュレータは、前記多関節マニピュレータの先端リンクに正面へと向けて備えられた、エンドエフェクタと、前記移動体から前記先端リンクまでの間に延在する、1又は複数の中間リンクと、を備え、前記中間リンクのいずれかのリンクには、前記正面へと向きかつ光軸が鉛直下向き軸に対して鋭角又は直角を成すように配置された、第1カメラが備えられている。
このような構成によれば、前記移動体から前記先端リンクまでの間に延在するいずれかの中間リンクにカメラが水平乃至斜め下向きに配置されるので、エンドエフェクタで物体把持を行っていてもカメラの視界が把持物体により遮られるおそれが少ない。そのため、物体載置を高精度に実現することがロボットを提供することができる。
前記第1カメラが備えられるリンクと前記移動体との間には、前記ロボットの左右方向に延びる軸である第1屈曲軸回りに回動する第1屈曲関節部が設けられ、前記第1カメラが備えられるリンクと前記先端リンクとの間には、前記第1屈曲軸に平行な軸である第2屈曲軸回りに回動する第2屈曲関節部が設けられている、ものであってもよい。
このような構成によれば、2つの屈曲関節部を用いて、第1カメラの視野を自在に上下に振ることができる。これにより、第1カメラによる広範囲の認識を実現することができる。
前記第1カメラが備えられるリンクは直動機構により駆動されるリンクであってもよい。
このような構成によれば、リンクを昇降又は伸縮させて第1カメラの視野を動かすことができる。これにより、第1カメラによる広範囲の認識を実現することができる。
前記第1カメラが備えられるリンクは、前記中間リンクのうち前記ロボットの基本姿勢において鉛直軸に平行なリンクであってもよい。
このような構成によれば、基本姿勢において垂直なリンクに対して第1カメラが水平乃至斜め下向きに配置されることとなる。
前記第1カメラは、Hを前記移動体の高さ、θHAを前記第1カメラの垂直画角、CAθを前記第1カメラの設置俯角、CAHを前記第1カメラの設置高さと前記移動体の高さとの差分、HPBを前記エンドエフェクタにより把持される物体の載置目標位置の最低高さ、LPBを前記ロボットから前記載置目標位置までの距離、AOθは前記第1屈曲関節部の屈曲角度、θをマージン角度とした場合、
Figure 2023123358000002
を満たすように設置される、ものであってもよい。
このような構成によれば、載置目標位置となり得る最低高さが第1カメラの画角内に収まることを保証することができる。
前記中間リンクのうち前記第1カメラが取り付けられたリンクより前記移動体側に配置されたリンク又は前記移動体には、前記正面へと向きかつ光軸が鉛直上向き軸に対して鋭角を成すように配置された、第2カメラが備えられている、ものであってもよい。
このような構成によれば、前記移動体から前記先端リンクまでの間に延在するいずれかの中間リンクにカメラが斜め上向きに配置されるので、高い位置の認識を行うことができる。
前記中間リンクは、鉛直軸回りに回動する旋回関節部を備え、前記第2カメラは前記鉛直軸回りに回動する、ものであってもよい。
このような構成によれば、第2カメラを左右に振ることができるので広範囲の認識を実現することができる。
前記第2カメラが備えられるリンクは、前記中間リンクのうち前記ロボットの基本姿勢において鉛直軸に平行なリンクであってもよい。
このような構成によれば、基本姿勢において垂直なリンクに対して第2カメラが水平乃至斜め上向きに配置されることとなる。
前記第2カメラは、θHBを前記第2カメラの垂直画角、CBθを前記第2カメラの設置仰角、CBHを前記第2カメラの設置高さ、HPUを載置目標位置の最大高さ、LPUを前記第2カメラから前記載置目標位置までの距離、θМをマージン角度とした場合、
Figure 2023123358000003
を満たすように設置される、ものであってもよい。
このような構成によれば、載置目標位置となり得る最大高さが第2カメラの画角内に収まることを常に保証することができる。
前記先端リンクには、前記エンドエフェクタの方向へと向けて第3カメラが配置されている、ものであってもよい。
このような構成によれば、第3カメラを用いてワークの把持や載置動作をより精密に実行することができる。また、先端リンクに第3カメラ73が配置されているため、第3カメラの視野を大きく変更することができる。
前記第1カメラ又は前記第2カメラのうち、選択的されたカメラを有効化し、選択されなかったカメラを無効化する、切替処理部を備える、ものであってもよい。
このような構成によれば、無駄な撮像処理がなくなり、制御部における処理負荷を軽減することができる。
前記第1カメラ及び前記第2カメラは、いずれも、その視野の一部が共通するToFカメラであり、前記第1カメラ又は前記第2カメラのうち、いずれか一方のみを有効化する、ToFカメラ用切替処理部を備える、ものであってもよい。
このような構成によれば、ToFカメラからの赤外線が干渉することがないため、より正確に距離情報を取得することができる。
前記エンドエフェクタにより把持される物体の載置目標位置の高さが所定値未満の場合、前記第1カメラを選択し、前記載置目標位置の高さが所定値以上の場合、前記第2カメラを選択する、ものであってもよい。
このような構成によれば、載置目標位置の高さに応じて適切な撮影カメラを選択することができる。これにより、カメラによる認識をより精度良く行うことができる。
前記エンドエフェクタにより把持される物体の載置目標位置に係る段数情報と、使用するカメラとの対応関係を示す第1テーブルに基づいて、前記第1カメラ又は前記第2カメラのいずれかを選択する、第2選択処理部を備える、ものであってもよい。
このような構成によれば、載置目標位置に係る段数情報に応じて適切な撮影カメラを選択することができる。これにより、カメラによる認識をより精度良く行うことができる。
Bθを前記第2カメラの設置仰角、CBHを前記第2カメラの設置高さ、θHBを前記第2カメラの垂直画角、Pを前記第2カメラから前記エンドエフェクタにより把持される物体の載置目標位置までの距離、Pを前記載置目標位置の下に積み上げられたワークの高さ、αを重み係数とした場合、
Figure 2023123358000004
の式を満たす場合に前記第2カメラを選択し、そうでない場合に前記第1カメラを選択する、第3選択処理部を備える、ものであってもよい。
このような構成によれば、載置目標位置の高さに応じて適切な撮影カメラを選択することができる。これにより、カメラによる認識をより精度良く行うことができる。
前記ロボットの動作モードを設定する、動作モード設定部と、前記動作モードに応じて前記第1カメラ及び/又は前記第2カメラを選択する、モード基準選択部と、を備える、ものであってもよい。
このような構成によれば、動作モードに応じたカメラを選択することができるので、カメラによる認識精度を向上させることができる。
前記動作モードは、前記エンドエフェクタにより把持される物体の載置目標位置を探索する探索モードと、前記載置目標位置を高精度に認識する認識モードを含む、ものであってもよい。
このような構成によれば、載置目標位置の探索と認識の場面で、それぞれ最適のカメラを選択することができる。
前記認識モードにおいて、前記載置目標位置と、載置目標位置の高さ範囲と認識姿勢との対応関係を示すテーブルに基づいて、前記ロボットの認識姿勢を特定する、認識姿勢特定処理部と、前記認識姿勢となるよう前記ロボットを制御する、姿勢制御処理部と、前記認識姿勢において前記第1カメラ及び/又は前記第2カメラから得られた情報に基づき認識処理を行う、認識処理部と、を備えてもよい。
このような構成によれば、載置目標位置の高さに応じて適切な認識姿勢をとることができるので、カメラによる認識をより精度良く行うことができる。
前記認識処理が成功したか否かを判定する、判定部と、前記認識処理に失敗したと判定された場合、前記認識姿勢を所定量だけ変更する、認識姿勢変更処理部と、を備え、前記認識処理部は、変更された前記認識姿勢において認識処理を行う、ものであってもよい。
このような構成によれば、認識姿勢、すなわち、認識条件を変えて繰り返し認識処理を行うので、確実な認識を行うことができる。
前記認識モードにおいて、前記ロボットの初期認識姿勢を特定する、初期認識姿勢特定処理部と、前記初期認識姿勢となるよう前記ロボットを制御する、初期姿勢制御処理部と、前記初期認識姿勢において前記第1カメラ及び/又は前記第2カメラから得られた情報に基づき認識処理を行う、認識処理部と、前記認識処理が成功したか否かを判定する、判定部と、前記認識処理に失敗したと判定された場合、前記認識姿勢を所定量だけ変更する、認識姿勢変更処理部と、を備え、前記認識処理部は、変更された前記認識姿勢において認識処理を行う、ものであってもよい。
このような構成によれば、載置目標位置の高さ情報がなくとも適切な認識処理を行うことができる。
前記第1カメラが備えられるリンクと前記移動体との間には、前記ロボットの左右方向に延びる軸回りに回動する第1屈曲関節部が設けられ、
前記探索モードにおいては、前記第1屈曲関節部の関節角度を変更しつつ前記第1カメラによる撮影が行われる、ものであってもよい。
このような構成によれば、第1カメラの視野を変更しつつ載置目標位置の探索を行うことができる。
前記第1カメラが備えられるリンクと前記移動体との間には、前記ロボットの左右方向に延びる軸である第1屈曲軸回りに回動する第1屈曲関節部が設けられ、前記第1カメラが備えられるリンクと前記先端リンクとの間には、前記第1屈曲軸に平行な軸である第2屈曲軸回りに回動する第2屈曲関節部が設けられ、前記探索モードにおいて、前記第1屈曲関節部と前記第2屈曲関節部は、前記第1屈曲関節部の関節角度と前記第2屈曲関節部の関節角度の和が一定となるように制御される、ものであってもよい。
このような構成によれば、常にエンドエフェクタを床面に対して一定な角度、例えば、床面に対して平行な状態に保って探索処理を行うことができる。
前記エンドエフェクタにより把持される物体を載置する動作に関する計画を行う、動作計画処理部を備え、前記計画は、前記前記載置目標位置の直上であって所定距離離れた位置を載置経由点とすることを含む、ものであってもよい。
このような構成によれば、載置目標位置の直上の経由点へと物体を移動させた後に、載置動作を行うので、より正確な載置動作を実現することができる。
別の角度から見た本発明はシステムである。すなわち、本発明に係るシステムは、移動体と、前記移動体に連結された多関節マニピュレータと、から構成されたロボットを含むシステムであって、前記多関節マニピュレータは、前記多関節マニピュレータの先端リンクに正面へと向けて備えられた、エンドエフェクタと、前記移動体から前記先端リンクまでの間に延在する、1又は複数の中間リンクと、を備え、前記中間リンクのいずれかのリンクには、前記正面へと向きかつ光軸が鉛直下向き軸に対して鋭角又は直角を成すように配置された、第1カメラが備えられている。
本発明によれば、物体載置を高精度に実現することが可能なロボット等を提供することができる。
図1は、ロボットの外観斜視図である。 図2は、カメラ配置に関する説明図である。 図3は、第1カメラの設置角度に関する詳細説明図である。 図4は、第2カメラの設置角度に関する詳細説明図である。 図5は、ロボットの機能ブロック図である。 図6は、機能ブロック図(その1)である。 図7は、機能ブロック図(その2)である。 図8は、機能ブロック図(その3)である。 図9は、ロボットの載置動作に係るゼネラルフローチャートである。 図10は、載置目標位置の探索と算出処理の詳細フローチャートである。 図11は、ロボットによる探索処理の概略説明図である。 図12は、載置目標位置の算出に係る概念図である。 図13は、移動目標位置の算出に係る説明図である。 図14は、載置目標位置の認識処理に係る詳細フローチャートである。 図15は、載置目標位置の高さ範囲情報と認識姿勢との対応関係を示すテーブルの説明図である。 図16は、載置処理の詳細フローチャートである。 図17は、載置動作の計画処理に関する説明図である。 図18は、ToFカメラを備えたロボットの説明図である。 図19は、カメラと載置目標位置との間の幾何的関係性に基づいて認識処理に使用するカメラを選択する構成に関する説明図である。 図20は、3つのカメラを備えるロボットの説明図である。
以下、本発明の好適な実施の形態について添付の図面を参照しつつ詳細に説明する。
(1.第1の実施形態)
第1の実施形態として、本発明をグリッパ150を備えた移動式のロボット100、すなわち、モバイルマニピュレータに対して適用した例について説明する。
なお、本実施形態においては、物体を挟持する装置をグリッパと称するものの、エンドエフェクタ、ハンド等、他の名称により称呼してもよい。また、本発明の適用対象は、モバイルマニピュレータに限定されない。従って、移動機能を備えないロボット、又は、他の機能を有するロボットに適用してもよい。
(1.1 ロボットの構成)
図1は、本実施形態に係るロボット100の外観斜視図である。なお、同図においては、カメラが省略して記載されている点に留意されたい(カメラ配置については図2を参照)。
図1から明らかな通り、本実施形態に係るロボット100は、床面上を移動するための移動機構である台車部11と、台車部11の天面を基端とする多関節アーム部(21、31、41、42)と、多関節アーム部の先端に取り付けられたグリッパ150と、から構成されている。
なお、以下では、説明の便宜上、図1における鉛直上方向を上、鉛直下方向を下、グリッパ150が設けられている面を正面、その反対側を背面と称することがある。また、背面を背にして右側を右、左側を左、左右をまとめて側面と称することがある。
また、本実施形態においてはエンドエフェクタの例示としてグリッパ150を採用するものの、他のエンドエフェクタを採用してもよい。
台車部11は、上方向にやや窄まった略円柱状の筐体を有し、筐体天面には平面が設けられている。台車部11の筐体内部の底面側には、4つのオムニホイール12が設けられている。オムニホイール12とは、車輪の回転と円周上の樽の回転の組み合わせにより、全方位への移動を可能とする車輪である。このオムニホイール12により、台車部11は全方位に自在に移動することができる。
なお、本実施形態においては、全方位への移動機構としてオムニホイールを採用するものの、本発明はこのような構成に限定されない。従って、メカナムホイール等、全方位移動を可能とする他の車輪を採用してもよい。また、移動機構は、全方位移動機構に限定されない。従って、移動方位が限定された他の移動機構を採用してもよい。さらに、移動機構は、多関節アーム部とグリッパ150とを移動させることができるものであればよい。従って、例えば、床面上を移動するものに限定されず、天井から吊り下げられる移動機構、又は飛行する移動機構等であってもよい。
台車部11の天面には、第1関節部(J1)を介して、第1リンク21が連結されている。第1関節部(J1)は、第1リンク21を、鉛直方向に延びる第1の軸回りに、前記台車部11に対して回動させる。なお、第1関節部(J1)は不図示のアクチュエータにより駆動される駆動関節である。
第1リンク21の上部は、第2関節部(J2)を介して、第2リンク31と連結されている。第2関節部(J2)は、第2リンク31を、第1の軸と直交する水平軸である第2の軸回りに、前記第1リンク21に対して回動させる。なお、第2関節部(J2)は、不図示のアクチュエータにより駆動される駆動関節である。
第2リンク31は、J字形状を有しており、その直線部にはリニアガイド部が設けられている。第3リンク41は、このリニアガイド部(第3の軸)上を摺動して、第3関節部(J3)を構成する。同図の姿勢においては、第3の軸は、鉛直方向軸である。
なお、第3リンク41は、底面に開口を有する中空の略直方体形状を有している。また、第3関節部(J3)は、不図示のアクチュエータにより駆動される駆動関節である。
第3リンク41の上部かつ正面側には、第4リンク42が固定されている。グリッパ150は、第4関節部(J4)を介して、第4リンク42の正面側先端部に連結されている。第4関節部(J4)は、グリッパ150を、第2の軸と平行な水平軸である第4の軸回りに、前記第4リンク42に対して回動させる。なお、第4関節部(J4)は、不図示のアクチュエータにより駆動される駆動関節である。
グリッパ150は、基端部において第4の関節部(J4)を介して第4リンク42へと回動可能に連結されるグリッパ本体部51と、グリッパ本体部51から左右に延びて直動する出力リンク52L、52Rと、各出力リンク52L、52Rの先端部に取り付けられる爪連結部53L、53Rと、爪連結部53L、53Rの内側に連結される爪54L、54Rと、から構成されている。なお、符号のLはグリッパ150の左側の構成を表し、Rは右側の構成を表している。
グリッパ本体部51は、第4の関節部(J4)を介して第4リンク42へと回動可能に連結されると共に、その筐体は、出力リンク52L、52Rを駆動する直動機構とそのアクチュエータ等を内部に保持する。
本実施形態において、直動機構は、ボールねじとリニアガイドとから構成されている。直動機構により直動する出力リンク52L、52Rは、グリッパ本体部51の正面側の左右の側面に上下に設けられた開口部から、互いに平行に突出している。
右側から延びる出力リンク52Rは直動するよう駆動され、第5の関節部(J5)を構成する。同様に、左側から延びる出力リンク52Lも直動するよう駆動され、第6の関節部(J6)を構成する。これらの出力リンク52L、52Rを駆動することにより爪54L、54Rを平行に維持した状態での開閉動作が実現される。
なお、直動機構は上述のものに限定されず、他の機構を採用してもよい。例えば、ボールねじに代えてすべりねじ等他の部品を採用してもよい。
出力リンク52L、52Rの先端には、出力リンク52L、52Rに直交し正面方向へと延びる爪連結部53L、53Rが取り付けられている。爪連結部53L、53Rの内部には、その内面側に取り付けられる爪54L、54Rを回動させる不図示のアクチュエータが配置されている。
爪54L、54Rは、略長円形状を有する。ただし、後述するように、爪54L、54Rは、爪連結部53L、53Rとの連結部近傍において緩やかに屈曲した形状を有している。
左側の爪54Lの基端は、爪連結部53Lの内面側に回動自在に連結されて駆動され、第7の関節部(J7)を構成する。同様に、右側の爪54Rの基端は、爪連結部53Rの内面側に回動自在に連結されて駆動され、第8の関節部(J8)を構成する。以下では、便宜上、第7の関節部及び第8の関節部を、それぞれ爪屈曲関節部(J7、J8)と呼ぶことがある。
なお、爪54L、54Rの回動動作を揺動と表現してもよい。また、爪の語は、グリッパ150において対象物を挟んで把持する部品を意味する。従って、挟持体、挟持片、把持体又は把持片等の他の用語により表現してもよい。また、大きさや形状について限定はなく、小片に限定されない。
本実施形態においては、第1~第8の各関節部(J1~J8)及び台車部11の車輪には、それぞれ、各種の検出手段が備えられている。より詳細には、各関節部(J1、J2、J4、J7、J8)及び台車部11の車輪には、不図示の角度センサ、直動する関節部(J3、J5、J6)には位置センサが備えられている。また、第1~第4の各関節部(J1~J4)には、さらに力センサが備えられている。これらのセンサからの検出値に基づいて、後述の制御部115は、ロボット100の姿勢や、ロボット100の各所に加えられる力やモーメントを算出又は推定することができる。
例えば、各種検出値に基づいて、爪54L、54Rの先端部の3軸方向(x,y,z)に加わる力を算出することができる。なお、z方向は、開閉動作方向、把持動作方向又は押し込み方向を表し、x、y軸方向は、環境との接触方向を示している。
なお、本実施形態においては、第1~第4の各関節部(J1~J4)に力センサを設ける構成について説明したが、本発明はそのような構成に限定されない。従って、各前記爪54L、54Rの付け根に力又はモーメントの検出手段となるセンサを設けてもよい。
図2は、本実施形態に係るロボット100におけるカメラ配置に関する説明図である。同図から明らかな通り、ロボット100は、第1カメラ71と第2カメラ72の2つのカメラを有している。なお、以下では、同図に描かれたロボット100の姿勢、すなわち、第1リンク21、第2リンク31及び第3リンク41の長手方向軸が鉛直軸に平行であり、第4リンク42から爪54までの構成の長手方向軸が床面に対して平行に構成される姿勢を基本姿勢とする。
第3リンク41の正面には、後述の認識に用いられる第1カメラ71が取り付けられている。第1カメラ71は、第4リンク42の直下において、その光軸が鉛直下向き軸に対して鋭角を成すように配置されている。
図3は、第1カメラ71の設置角度に関する詳細説明図である。なお、同図は概略構成図であり、説明の便宜上、ロボット100が、台車部11と、台車部11から垂直上方に延びる中間リンクと、中間リンクから水平に延びる先端リンクの3つの部分を有し、ワーク91を把持しているものとして簡略化して描かれている。同図において、中間リンクは第1リンク21から第3リンク41までのリンクを表し、先端リンクは第4リンク42から爪54Rに至るまでの部分を表している。また、同図においては、ワーク載置想定位置915が破線で描かれている。さらに、本実施形態において、グリッパ150による把持対象物をワークと称するものの、このような称呼に限定されず、単に物体、箱等と称してもよい。
同図から明らかな通り、本実施形態においては、下記の数式1を満たすように、第1カメラ71が設置されている。
Figure 2023123358000005
ただし、同式において、Hは台車部11の天面高さ、θHAは第1カメラ71の垂直画角、CAθは第1カメラ71の設置俯角、CAHは第1カメラ71の設置高さと前記台車部11の高さとの差分、HPBは載置目標位置の最低高さ(例えば、ワークが載置されるパレットの高さ)、LPBは第1リンク21と台車部11の連結部から載置目標位置までの距離、AOθは第2関節部(J2)の最大前傾角度、θはマージン角度を表している。
このような構成によれば、載置目標位置となり得る最低高さが第1カメラ71の画角内に収まることを保証することができる。
なお、本実施形態においては、第1カメラ71は、その光軸が鉛直下向き軸に対して鋭角を成すように配置されているものの、本発明はこのような構成に限定されない。従って、例えば、第1カメラ71を、その光軸が鉛直下向き軸に対して直角、すなわち、正面を向くように配置してもよい。
図2に戻り、第1リンク21の正面には、後述の認識に用いられる第2カメラ72が取り付けられている。第2カメラ72は、その光軸が鉛直上向き軸に対して鋭角を成すように配置されている。
図4は、第2カメラ72の設置角度に関する詳細説明図である。なお、同図は概略構成図であり、説明の便宜上、ロボット100が、台車部11と、台車部11から垂直上方に延びる中間リンクと、中間リンクから水平に延びる先端リンクの3つの部分を有し、ワーク91を把持しているものとして簡略化して描かれている。なお、同図において、中間リンクは第1リンク21から第3リンク41までのリンクを表し、先端リンクは第4リンク42から爪54Rに至るまでの部分を表している。また、同図においては、第1~第3のワーク(916、917、918)が縦に3つ積みあがった状態が描かれている。
同図から明らかな通り、本実施形態においては、下記の数式2を満たすように、第2カメラ72が設置されている。
Figure 2023123358000006
ただし、同式において、θHBは第2カメラ72の垂直画角、CBθは第2カメラ72の設置仰角、CBHは第2カメラ72の設置高さ、HPUは載置目標位置の最大高さ、LPUは第2カメラ72から載置目標位置までの距離、θМはマージン角度を表している。
このような構成によれば、載置目標位置となり得る最大高さが第2カメラ72の画角内に収まることを常に保証することができる。
すなわち、第1カメラ71と第2カメラ72の2つのカメラを用いることにより、載置が想定される最低高さと最大高さを常に認識することができる。
なお、本実施形態においては、第2カメラ72は第1リンク21に設置されるものとして説明したが、本発明はこのような構成に限定されない。従って、例えば、第2カメラ72を上記設置条件を満たすように台車部11に取り付けてもよい。
図5は、ロボット100の機能ブロック図である。同図から明らかな通り、ロボット100はその内部にマイコン110を備えており、マイコン110は、各関節部(J1~J8)及び移動台車部210に設けられたアクチュエータ及びセンサと接続されている。また、マイコン110は、第1カメラ71及び第2カメラ72と接続されている。
なお、同図において、第1~第8の各関節部(J1~J8)及び移動台車部210は、各関節部又は台車部11に備えられた各種のアクチュエータ及びセンサを表している。
マイコン110は、記憶部111、通信部112、I/O部113、制御部115を備えている。記憶部111は、ROM、RAM、ハードディスク、フラッシュメモリ等の記憶装置であり、後述の各種のデータやプログラム等を記憶している。通信部112は、外部との送受信を行う通信ユニットであり、外部装置やシステムとの間の通信を行う。I/O部113は、外部装置との入出力を行う。
制御部115は、CPU等の制御装置であり、記憶部111に記憶された各種のプログラム等を読み込んで実行する処理を行う。例えば、各関節部又は移動台車部に設けられたアクチュエータに対して動作指令を行ったり、各関節又は移動台車部に設けられたセンサからの検出情報に基づき姿勢等の算出処理を行う。
なお、同図において、バッテリ等の電源装置については記載が省略されている。
また、ロボット100の機能ブロックは、本実施形態に係る構成に限定されない。従って、機能の一部を外部情報処理装置等において実行する等してシステムとして構成してもよい。
図6は、後述の動作を実行する機能ブロック図(その1)である。なお、ハードウェアに相当するブロックを除き、同図のブロックは制御部115により実現されるものである。
同図から明らかな通り、第1のモード設定処理部201は、ロボット100のモードを探索モードに設定する処理を行う。モードが探索モードに設定されると、第1のカメラ選択処理部202は、探索モードに対応するカメラを選択する処理を行う。
カメラが選択されると、第1のカメラ切替処理部203は、使用するカメラを選択する処理を行う。第1カメラ71又は第2カメラ72は、第1のカメラ切替処理部203により有効化又は無効化される。
第1カメラ又は第2カメラからの画像情報は、探索処理部206へと提供される。探索処理部206は、第1関節部(J1)~第8関節部(J8)のいずれか又はその組み合わせを制御する。
載置目標位置算出処理部207は、探索処理部206から得られた情報に基づいて、把持しているワークの載置目標位置を算出する。移動目標位置算出処理部208は、載置目標位置算出処理部207から提供される載置目標位置に基づいて、ロボット100の移動目標位置を算出する。
移動制御処理部209は、移動目標位置算出処理部208から提供されるロボット100の移動目標位置に基づいて、移動台車部210を制御してロボット100を移動させる。
図7は、後述の動作を実行する機能ブロック図(その2)である。なお、ハードウェアに相当するブロックを除き、同図のブロックは制御部115により実現されるものである。
同図から明らかな通り、移動制御処理部209からロボット100の移動完了を示す信号を受領すると、第2のモード設定処理部301は、認識モードへの設定処理を行う。認識モードへの設定処理が行われると、読出処理部302は、載置目標位置の高さ情報と、高さ情報と対応するカメラ情報との関係を定義するテーブルを記憶部303から読み出す処理を行う。
第2のカメラ選択処理部305は、載置目標位置の高さ情報と上述のテーブルに基づいて、認識に使用するカメラを選択する処理を行う。この選択処理結果を受領すると、第2のカメラ切替処理部306は、第1カメラ71又は第2カメラ72のいずれかを有効化又は無効化する処理を行う。
カメラの切替処理が完了すると、認識姿勢特定処理部307は、読出処理部302を介して記憶部303から、載置目標位置の高さ情報と、載置目標位置の高さ情報と認識姿勢との関係を定義するテーブルを読み出す。認識姿勢特定処理部307は、載置目標位置の高さ情報とテーブルに基づいて、認識姿勢を特定する処理を行う。
特定された認識姿勢を受領すると、姿勢制御処理部308は、第1関節部(J1)~第8関節部(J8)のいずれか又はその組み合わせを制御し、ロボット100の姿勢を特定された認識姿勢へと一致させる。
姿勢制御処理部308から認識姿勢への変更制御が完了したことを示す信号を受信すると、認識処理部310は、載置目標位置の認識処理を行う。判定処理部311は、認識処理が成功したか否かを判定する。認識処理に失敗したと判定した場合、判定処理部311は、姿勢変更処理部312を動作させる。姿勢変更処理部312は、姿勢を変更する処理を行う。姿勢の変更処理後、認識処理部310は再度認識処理を行う。
図8は、後述の動作を実行する機能ブロック図(その3)である。なお、ハードウェアに相当するブロックを除き、同図のブロックは制御部115により実現されるものである。
同図から明らかな通り、判定処理部311が認識処理に成功したと判定した場合、動作計画処理部401は、載置動作の計画処理を行う。この動作計画に沿って、載置動作指令処理部402は、第1関節部(J1)~第8関節部(J8)及び/又は移動台車部210を制御する。
(1.2 ロボットの動作)
図9は、ロボット100の載置動作に係るゼネラルフローチャートである。
処理が開始すると、ロボット100は、載置目標位置の探索及び算出処理を実行する(S10)。なお、処理開始時点において、ロボット100は、グリッパ150によりワークを把持した状態にある。
図10は、載置目標位置の探索と算出処理(S10)の詳細フローチャートである。同図から明らかな通り、処理が開始すると、第1のモード設定処理部201は、載置目標位置の探索モードへと設定する処理を行う(S101)。
探索モードへの設定処理が行われると、第1のカメラ選択処理部202は、記憶部111から探索モードで用いられるカメラに関する設定情報を読み出し(S102)、当該設定情報に基づいて探索モードに対応するカメラを選択する処理を行う(S103)。
本実施形態においては、設定情報において探索モードで使用されるカメラは第1カメラ71に設定されている。そのため、第1のカメラ選択処理部202は、第1カメラ71を選択する処理を行う。探索モードで用いるカメラが選択されると、第1のカメラ切替処理部203は、第1カメラ71又は第2カメラ72のうち選択されたカメラを有効化し、選択されなかったカメラを無効化する処理を行う。本実施形態では、第1カメラ71が有効化され、第2カメラ72が無効化される。
このような構成によれば、認識に用いないカメラを無効化するので、無駄な撮像処理がなくなり、制御部における処理負荷を軽減することができる。
使用カメラの選択処理(S103)が完了すると、探索処理部206は、載置目標位置の探索処理を行う(S105)。
探索処理は、選択されたカメラ(第1カメラ71)を用いてロボット100の周辺をその姿勢を変更しつつ撮像して、所定の条件を満たすワークの載置目標位置を探索する処理である。
図11は、ロボット100による探索処理の概略説明図である。同図から明らかな通り、本実施形態においては、第2関節部(J2)と第4関節部(J4)の角度を変更しつつ、第1カメラ71で撮像することにより周辺環境を認識する。
同図(A)は、探索姿勢の第1の例を表し、中間リンク(31、41、42)を後傾させ、先端リンク(51、52R、53R、54R)を床面に対して水平とした姿勢を表している。同図(B)は、探索姿勢の第2の例を表し、中間リンク(31、41、42)を鉛直方向に水平とし、先端リンク(51、52R、53R、54R)を床面に水平とした姿勢を表している。同図(C)は、探索姿勢の第3の例を表し、中間リンク(31、41、42)を前傾させ、先端リンク(51、52R、53R、54R)を床面に対して水平とした姿勢を表している。
なお、同図の例にあっては、第2関節部(J2)の前傾角度と第4関節部(J4)の屈曲角度の和が一定となるように姿勢を変更している。
このような構成によれば、常にグリッパ150を床面に対して一定な角度、例えば、床面に対して平行な状態に保つことができる。そのため、把持ワークを傾けることなく、探索を行うことができる。
探索処理が完了すると、載置目標位置算出処理部207は、第2カメラ72により得られた画像情報に基づいて、載置目標位置(P1)の算出処理を行う(S106)。
図12は、載置目標位置(P1)の算出に係る概念図である。同図から明らかな通り、第1カメラ71の視野内には、パレット950上に載置された複数のワーク921~923が含まれている。本実施形態において、載置目標位置算出処理部207は、最も手前にあるワーク921の直上の中心位置の3次元位置・姿勢を載置目標位置(同図のP1)として算出する処理を行う。
この載置目標位置(P1)の算出処理が完了すると、処理は終了する。
図9に戻り、載置目標位置の探索及び算出処理が完了すると、移動目標位置算出処理部208は、ロボット100の移動目標位置(P2)の算出処理を行う(S20)。すなわち、ロボット100の移動目標位置(P2)は、図12に示される通り、載置目標位置(P1)に基づいて、パレット950外の所定位置の3次元座標・姿勢として算出される。
移動目標位置(P2)の算出処理について詳細に説明する。図13は、移動目標位置(P2)の算出に係る説明図である。なお、同図においてロボット100は丸で代替的に表されている。台形は第1カメラ71の視野を表している。
同図から明らかな通り、ロボット100は、把持しているワーク91の載置目標位置(P1)を算出した後、当該ワーク91の載置領域を床面上に射影した矩形を生成する(同図において破線で示す)。移動目標位置算出処理部208は、この矩形から位置・姿勢を所定量だけオフセットした位置・姿勢を移動目標位置(P2)として算出する。
図9に戻り、ロボット100の移動目標位置(P2)の算出処理が完了すると、移動制御処理部209は、移動台車部210を制御して、ロボット100を移動目標位置(P2)まで移動させる制御を行う(S30)。
移動が完了すると、ロボット100は、載置目標位置の近傍において載置目標位置の認識処理を行う(S50)。
図14は、載置目標位置の認識処理(S50)に係る詳細フローチャートである。同図から明らかな通り、処理が開始すると、第2のモード設定処理部301は、ロボット100のモードを載置目標位置の認識モードへと設定する処理を行う(S501)。
モードの設定処理の後、読出処理部302は、記憶部303から載置目標位置(P1)の高さ情報を読み出す処理を行う(S502)。第2のカメラ選択処理部305は、載置目標位置の高さ情報に基づいて、使用カメラを選択する処理を行う(S505)。
本実施形態においては、載置目標位置が所定の高さ以下の場合には、第1カメラ71を使用するカメラとして選択し、載置目標位置が所定の高さより高い場合には、第2カメラ72を使用するカメラとして選択する。この選択処理により、第2のカメラ切替処理部306は、選択されたカメラを有効化し、選択されなかったカメラを無効化する処理を行う。
使用カメラが選択されると、認識姿勢特定処理部307は、記憶部303から載置目標位置の高さ情報と認識姿勢との対応関係を示すテーブルを読み出してロボット100の認識姿勢を特定する処理を行う(S506)。
図15は、載置目標位置の高さ範囲情報と認識姿勢との対応関係を示すテーブルの説明図である。同表においては、左列には、載置目標位置の高さ範囲([m])が示され、右列には、各高さ範囲と対応する認識姿勢([°])が示されている。なお、本実施形態において、この認識姿勢は、第2関節部(J2)において第2リンク31及び第3リンク41が鉛直軸との間で成す(関節)角度、すなわち、前傾角度を表している。
同図から明らかな通り、載置目標位置の高さが0[m]以上であって0.3[m]より小さい範囲にある場合、関節角度は20°、すなわち、第2リンク31及び第3リンク41をやや前傾させる姿勢に設定される。載置目標位置の高さが0.3[m]以上であって0.6[m]より小さい範囲にある場合、関節角度は0°、すなわち、第2リンク31及び第3リンク41を垂直とした姿勢に設定される。載置目標位置が0.6[m]以上の範囲にある場合、関節角度は-20°、すなわち、第2リンク31及び第3リンク41をやや後傾させた姿勢に設定される。
姿勢の特定処理の後、姿勢制御処理部308は、姿勢制御処理を行う(S507)。より詳細には、姿勢制御処理部308は、第1関節部(J1)~第8関節部(J8)に係るアクチュエータを制御してロボット100の姿勢を特定された姿勢に一致させるように制御を行う。
このような構成によれば、載置目標位置の高さに応じて適切な認識姿勢をとることができるので、カメラによる認識をより精度良く行うことができる。
姿勢制御処理の後、認識処理部310は、載置目標位置について載置に必要な詳細な認識処理を行う(S508)。
認識処理の後、判定処理部311は、この認識処理が成功したか否か、すなわち、載置目標位置を正確に認識することができたか否かを判定する(S510)。認識処理に成功した場合(S510YES)、処理は終了する。
一方、認識処理に失敗した場合(S510NO)、姿勢変更処理部312は、認識姿勢の変更処理を行う(S511)。認識姿勢の変更処理とは、ロボット100のいずれかの関節部に係る関節角度等を所定量だけ変更する処理である。例えば、第2関節部(J2)の屈曲角度、第3リンク41の昇降量等を所定量だけ変更する。この変更処理の後、認識処理部310は、再び認識処理を行う(S508)。すなわち、認識処理に成功するまで姿勢を変更しつつ繰り返し認識処理を行う(S508~S511)。
このような構成によれば、認識条件を変えて繰り返し認識処理を行うので、確実な認識を行うことができる。
なお、本実施形態においては、初めに載置目標位置の高さ範囲に基づいて認識姿勢を特定したものの本発明はこのような構成に限定されない。従って、例えば、適当な初期姿勢となるよう制御し、その後に、認識処理に成功するまで所定量だけ姿勢を変更制御するような構成としてもよい。
このような構成によれば、載置目標位置の高さ情報がなくとも適切な認識処理を行うことができる。
図9に戻り、載置目標位置の認識処理が完了すると、ワークの載置処理が実行される(S60)。
図16は、載置処理の詳細フローチャートである。同図から明らかな通り、処理が開始すると、動作計画処理部401は、載置動作を計画する処理を行う(S601)。
図17は、載置動作の計画処理に関する説明図である。本実施形態においては、動作計画として、まず、載置目標位置(P1)から鉛直上方向に所定距離だけ離れた位置をワークの経由点(P3)として特定し、当該経由点までのロボット100の動作を計画する。その後、最終的な載置目標位置(P1)へと向けて下方向へとワークを移動させ、載置する動作を計画する。
図16に戻り、動作計画処理が完了すると、載置動作指令処理部402は、第1関節部(J1)~第8関節部(J8)に対して動作の指令処理を行い、経由点(P3)までワーク91を搬送する動作を指令する(S602)。
経由点までの搬送動作が完了すると、載置動作指令処理部402は、載置目標位置(P1)までワーク91を搬送する動作、すなわち、ワーク91を載置する動作の指令処理を行う(S603)。載置動作が完了すると、処理は終了する。
このような構成によれば、載置目標位置の直上の経由点へとワークを移動させた後に、載置動作を行うので、より正確な載置動作を実現することができる。
(2.変形例)
本発明は、様々に変形して実施することができる。
上述の実施形態においては、カメラは通常のカメラを採用したが本発明はそのような構成に限定されない。従って、他の機能を有するカメラ、例えば、ToF(Time of Flight)カメラ等の測距可能なカメラを使用してもよい。
図18は、ToFカメラを備えたロボット200の説明図である。同図のロボット200は、第1の実施形態に係るロボット100において、第1カメラ71に代えて第1ToFカメラ81、第2カメラ72に代えて第2ToFカメラ82を備えている。なお、同図において第1の実施形態と同一の構成については同一の符号が付されている。
同図において、第1ToFカメラ81と第2ToFカメラ82の視野領域は一部重複している。従って、第1ToFカメラ81と第2ToFカメラ82とを同時に有効化させて動作させると、各ToFカメラから照射されて反射する赤外線が干渉し、適切に測距できないおそれがある。そこで、本変形例においては、探索処理や認識処理の際のカメラの選択処理の際に、第1ToFカメラ81又は第2ToFカメラ82のいずれか一方のみが排他的に有効化されるような構成とされている。
このような構成によれば、ToFカメラからの赤外線が干渉することがないため、より正確に距離情報を取得することができる。
第1の実施形態においては、載置目標位置の認識処理(S50)において、載置目標位置の高さ情報に基づいて使用カメラを選択する処理を行ったものの(S505)、本発明はそのような構成に限定されない。従って、他の条件に基づいて、使用カメラを選択してもよい。
例えば、載置目標位置に係るワークの段数と使用カメラとの対応関係を示すテーブルに基づいて、認識処理に使用するカメラを選択する構成としてもよい。
また、例えば、ロボットに備えられたカメラと載置目標位置との間の幾何的関係性に基づいて、認識処理に使用するカメラを選択する構成としてもよい。
図19は、カメラと載置目標位置との間の幾何的関係性に基づいて認識処理に使用するカメラを選択する構成に関する説明図である。同図において、図4と同一の構成については同一の符号が付されている。また、ロボット300は、3段に積まれたワーク(941~943)に正対している。
この状態において、ロボット300は、下記の数式3を満たす場合に第2カメラ72を認識処理に使用するカメラとして選択し、同数式を満たさない場合に第1カメラ71を認識処理に使用するカメラとして選択する構成としてもよい。
Figure 2023123358000007
ただし、CBθは第2カメラ72の設置仰角、CBHは第2カメラ72の設置高さ、θHBは第2カメラ72の垂直画角、Pは第2カメラ72からワーク941の前面までの距離、Pは積み上げられたワークの高さ、αは重み係数を表している。
このような構成によれば、載置目標位置の位置や高さに応じてカメラを適切に配置することができるので、精度の良い認識処理を実現することができる。
第1の実施形態においては、第1リンク21の正面と第3リンク41の正面に合計2つのカメラを備える構成としたが、本発明はそのような構成に限定されない。従って、いずれか1方のカメラのみを備える構成としてもよいし、さらにカメラを追加してもよい。
図20は、3つのカメラを備えるロボット400の説明図である。同図の基本的構成は図2と同様であるものの、3つ目のカメラである第3カメラ73が、追加されている点において相違する。第3カメラ73は、グリッパ本体部51の天面に光軸を正面に向けて配置されている。第3カメラ73の視野内には、爪54の先端近傍が含まれており、第3カメラ73を用いて探索処理、認識処理を行うこと等ができる。
このような構成によれば、3つ目のカメラを用いてワークの把持や載置動作をより精密に実行することができる。また、先端又は先端近傍のリンクに第3カメラ73が配置されているため、第3カメラの視野を大きく変更することができる。さらに、爪54をワーク間に挿入する場合等であっても、第3カメラ73を用いてワークと爪54とを同時に認識することができる。
以上、本発明の実施形態について説明したが、上記実施形態は本発明の適用例の一部を示したに過ぎず、本発明の技術的範囲を上記実施形態の具体的構成に限定する趣旨ではない。また、上記の実施形態は、矛盾が生じない範囲で適宜組み合わせ可能である。
本発明は、ロボット等を製造する産業において利用可能である。
11 台車部
12 オムニホイール
21 第1リンク
31 第2リンク
41 第3リンク
42 第4リンク
51 グリッパ本体部
52 出力リンク
53 爪連結部
54 爪
100 ロボット
150 グリッパ
200 ロボット(変形例)
300 ロボット(変形例)
400 ロボット(変形例)

Claims (24)

  1. 移動体と、
    前記移動体に連結された多関節マニピュレータと、から構成されたロボットであって、
    前記多関節マニピュレータは、
    前記多関節マニピュレータの先端リンクに正面へと向けて備えられた、エンドエフェクタと、
    前記移動体から前記先端リンクまでの間に延在する、1又は複数の中間リンクと、を備え、
    前記中間リンクのいずれかのリンクには、前記正面へと向きかつ光軸が鉛直下向き軸に対して鋭角又は直角を成すように配置された、第1カメラが備えられている、ロボット。
  2. 前記第1カメラが備えられるリンクと前記移動体との間には、前記ロボットの左右方向に延びる軸である第1屈曲軸回りに回動する第1屈曲関節部が設けられ、
    前記第1カメラが備えられるリンクと前記先端リンクとの間には、前記第1屈曲軸に平行な軸である第2屈曲軸回りに回動する第2屈曲関節部が設けられている、請求項1に記載のロボット。
  3. 前記第1カメラが備えられるリンクは直動機構により駆動されるリンクである、請求項1又は2に記載のロボット。
  4. 前記第1カメラが備えられるリンクは、前記中間リンクのうち前記ロボットの基本姿勢において鉛直軸に平行なリンクである、請求項1~3のいずれか1項に記載のロボット。
  5. 前記第1カメラは、Hを前記移動体の高さ、θHAを前記第1カメラの垂直画角、CAθを前記第1カメラの設置俯角、CAHを前記第1カメラの設置高さと前記移動体の高さとの差分、HPBを前記エンドエフェクタにより把持される物体の載置目標位置の最低高さ、LPBを前記ロボットから前記載置目標位置までの距離、AOθは前記第1屈曲関節部の屈曲角度、θをマージン角度とした場合、
    Figure 2023123358000008
    を満たすように設置される、請求項2に記載のロボット。
  6. 前記中間リンクのうち前記第1カメラが取り付けられたリンクより前記移動体側に配置されたリンク又は前記移動体には、前記正面へと向きかつ光軸が鉛直上向き軸に対して鋭角を成すように配置された、第2カメラが備えられている、請求項1に記載のロボット。
  7. 前記中間リンクは、鉛直軸回りに回動する旋回関節部を備え、
    前記第2カメラは前記鉛直軸回りに回動する、請求項6に記載のロボット。
  8. 前記第2カメラが備えられるリンクは、前記中間リンクのうち前記ロボットの基本姿勢において鉛直軸に平行なリンクである、請求項6又は7のいずれか1項に記載のロボット。
  9. 前記第2カメラは、θHBを前記第2カメラの垂直画角、CBθを前記第2カメラの設置仰角、CBHを前記第2カメラの設置高さ、HPUを載置目標位置の最大高さ、LPUを前記第2カメラから前記載置目標位置までの距離、θМをマージン角度とした場合、
    Figure 2023123358000009
    を満たすように設置される、請求項6~8のいずれか1つに記載のロボット。
  10. 前記先端リンクには、前記エンドエフェクタの方向へと向けて第3カメラが配置されている、請求項1~9のいずれか1つに記載のロボット。
  11. 前記第1カメラ又は前記第2カメラのうち、選択的されたカメラを有効化し、選択されなかったカメラを無効化する、切替処理部を備える、請求項6に記載のロボット。
  12. 前記第1カメラ及び前記第2カメラは、いずれも、その視野の一部が共通するToFカメラであり、
    前記第1カメラ又は前記第2カメラのうち、いずれか一方のみを有効化する、ToFカメラ用切替処理部を備える、請求項6に記載のロボット。
  13. 前記エンドエフェクタにより把持される物体の載置目標位置の高さが所定値未満の場合、前記第1カメラを選択し、前記載置目標位置の高さが所定値以上の場合、前記第2カメラを選択する、第1選択処理部を備える、請求項11に記載のロボット。
  14. 前記エンドエフェクタにより把持される物体の載置目標位置に係る段数情報と、使用するカメラとの対応関係を示す第1テーブルに基づいて、前記第1カメラ又は前記第2カメラのいずれかを選択する、第2選択処理部を備える、請求項11に記載のロボット。
  15. Bθを前記第2カメラの設置仰角、CBHを前記第2カメラの設置高さ、θHBを前記第2カメラの垂直画角、Pを前記第2カメラから前記エンドエフェクタにより把持される物体の載置目標位置までの距離、Pを前記載置目標位置の下に積み上げられたワークの高さ、αを重み係数とした場合、
    Figure 2023123358000010
    の式を満たす場合に前記第2カメラを選択し、そうでない場合に前記第1カメラを選択する、第3選択処理部を備える、請求項11に記載のロボット。
  16. 前記ロボットの動作モードを設定する、動作モード設定部と、
    前記動作モードに応じて前記第1カメラ及び/又は前記第2カメラを選択する、モード基準選択部と、を備える、請求項11に記載のロボット。
  17. 前記動作モードは、前記エンドエフェクタにより把持される物体の載置目標位置を探索する探索モードと、前記載置目標位置を高精度に認識する認識モードを含む、請求項16に記載のロボット。
  18. 前記認識モードにおいて、前記載置目標位置と、載置目標位置の高さ範囲と認識姿勢との対応関係を示すテーブルに基づいて、前記ロボットの認識姿勢を特定する、認識姿勢特定処理部と、
    前記認識姿勢となるよう前記ロボットを制御する、姿勢制御処理部と、
    前記認識姿勢において前記第1カメラ及び/又は前記第2カメラから得られた情報に基づき認識処理を行う、認識処理部と、
    を備えた、請求項17に記載のロボット。
  19. 前記認識処理が成功したか否かを判定する、判定部と、
    前記認識処理に失敗したと判定された場合、前記認識姿勢を所定量だけ変更する、認識姿勢変更処理部と、を備え、
    前記認識処理部は、変更された前記認識姿勢において認識処理を行う、請求項18に記載のロボット。
  20. 前記認識モードにおいて、前記ロボットの初期認識姿勢を特定する、初期認識姿勢特定処理部と、
    前記初期認識姿勢となるよう前記ロボットを制御する、初期姿勢制御処理部と、
    前記初期認識姿勢において前記第1カメラ及び/又は前記第2カメラから得られた情報に基づき認識処理を行う、認識処理部と、
    前記認識処理が成功したか否かを判定する、判定部と、
    前記認識処理に失敗したと判定された場合、前記認識姿勢を所定量だけ変更する、認識姿勢変更処理部と、を備え、
    前記認識処理部は、変更された前記認識姿勢において認識処理を行う、請求項17に記載のロボット。
  21. 前記第1カメラが備えられるリンクと前記移動体との間には、前記ロボットの左右方向に延びる軸回りに回動する第1屈曲関節部が設けられ、
    前記探索モードにおいては、前記第1屈曲関節部の関節角度を変更しつつ前記第1カメラによる撮影が行われる、請求項17に記載のロボット。
  22. 前記第1カメラが備えられるリンクと前記移動体との間には、前記ロボットの左右方向に延びる軸である第1屈曲軸回りに回動する第1屈曲関節部が設けられ、
    前記第1カメラが備えられるリンクと前記先端リンクとの間には、前記第1屈曲軸に平行な軸である第2屈曲軸回りに回動する第2屈曲関節部が設けられ、
    前記探索モードにおいて、前記第1屈曲関節部と前記第2屈曲関節部は、前記第1屈曲関節部の関節角度と前記第2屈曲関節部の関節角度の和が一定となるように制御される、請求項17に記載のロボット。
  23. 前記エンドエフェクタにより把持される物体を載置する動作に関する計画を行う、動作計画処理部を備え、
    前記計画は、前記前記載置目標位置の直上であって所定距離離れた位置を載置経由点とすることを含む、請求項1~22のいずれか1項に記載のロボット。
  24. 移動体と、
    前記移動体に連結された多関節マニピュレータと、から構成されたロボットを含むシステムであって、
    前記多関節マニピュレータは、
    前記多関節マニピュレータの先端リンクに正面へと向けて備えられた、エンドエフェクタと、
    前記移動体から前記先端リンクまでの間に延在する、1又は複数の中間リンクと、を備え、
    前記中間リンクのいずれかのリンクには、前記正面へと向きかつ光軸が鉛直下向き軸に対して鋭角又は直角を成すように配置された、第1カメラが備えられている、システム。
JP2023008368A 2022-02-24 2023-01-23 ロボット及びシステム Pending JP2023123358A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022026588 2022-02-24
JP2022026588 2022-02-24

Publications (1)

Publication Number Publication Date
JP2023123358A true JP2023123358A (ja) 2023-09-05

Family

ID=87885708

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023008368A Pending JP2023123358A (ja) 2022-02-24 2023-01-23 ロボット及びシステム

Country Status (1)

Country Link
JP (1) JP2023123358A (ja)

Similar Documents

Publication Publication Date Title
US20230182290A1 (en) Robot Configuration with Three-Dimensional Lidar
JP6359756B2 (ja) マニプレータ、マニプレータの動作計画方法、および、マニプレータの制御システム
JP6429473B2 (ja) ロボットシステム、ロボットシステムの校正方法、プログラム、およびコンピュータ読み取り可能な記録媒体
US9383741B2 (en) Mobile robot, positioning system of mobile robot, and positioning method of mobile robot
JP6755724B2 (ja) 制御方法、ロボットシステム、および物品の製造方法
JP6855492B2 (ja) ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法
US20120215350A1 (en) Work picking system
JP7395877B2 (ja) ロボットシステムおよび制御方法
US11597104B2 (en) Mobile robot sensor configuration
US20210008717A1 (en) Computing device, machine learning method, and storage medium
US20220296754A1 (en) Folding UV Array
JP2012135820A (ja) 自動ピッキング装置及び自動ピッキング方法
KR20200073985A (ko) 궤도 생성 장치 및 궤도 생성 방법
Shikari et al. Triple scissor extender robot arm: a solution to the last one foot problem of manipulation
CN113165187A (zh) 图像信息处理装置、把持系统以及图像信息处理方法
JP2020138294A (ja) ロボットシステム
JP2006297559A (ja) キャリブレーションシステムおよびロボットのキャリブレーション方法
JP2023123358A (ja) ロボット及びシステム
JP2013180366A (ja) ロボット及びロボットハンド
US11656923B2 (en) Systems and methods for inter-process communication within a robot
US20230330764A1 (en) Autonomous assembly robots
JP7475663B2 (ja) モバイルマニピュレータ及びその制御方法及びプログラム
JP2016203282A (ja) エンドエフェクタの姿勢変更機構を備えたロボット
US20240208058A1 (en) Methods and apparatus for automated ceiling detection
Xu et al. Welding robotic hand-eye calibration method based on structured light plane

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20230124