JP5059978B2 - 危険提示装置、危険提示システム、危険提示方法およびプログラム - Google Patents

危険提示装置、危険提示システム、危険提示方法およびプログラム Download PDF

Info

Publication number
JP5059978B2
JP5059978B2 JP2011550844A JP2011550844A JP5059978B2 JP 5059978 B2 JP5059978 B2 JP 5059978B2 JP 2011550844 A JP2011550844 A JP 2011550844A JP 2011550844 A JP2011550844 A JP 2011550844A JP 5059978 B2 JP5059978 B2 JP 5059978B2
Authority
JP
Japan
Prior art keywords
person
time
robot
orientation
danger
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011550844A
Other languages
English (en)
Other versions
JPWO2011089885A1 (ja
Inventor
太一 佐藤
研治 水谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2011550844A priority Critical patent/JP5059978B2/ja
Application granted granted Critical
Publication of JP5059978B2 publication Critical patent/JP5059978B2/ja
Publication of JPWO2011089885A1 publication Critical patent/JPWO2011089885A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/06Safety devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F16ENGINEERING ELEMENTS AND UNITS; GENERAL MEASURES FOR PRODUCING AND MAINTAINING EFFECTIVE FUNCTIONING OF MACHINES OR INSTALLATIONS; THERMAL INSULATION IN GENERAL
    • F16PSAFETY DEVICES IN GENERAL; SAFETY DEVICES FOR PRESSES
    • F16P3/00Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body
    • F16P3/12Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine
    • F16P3/14Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine the means being photocells or other devices sensitive without mechanical contact
    • F16P3/142Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine the means being photocells or other devices sensitive without mechanical contact using image capturing devices
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40196Projecting light on floor to delimit danger zone around robot
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40203Detect position of operator, create non material barrier to protect operator

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • General Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Manipulator (AREA)

Description

本発明は、動作計画に従って動作するロボットの危険を提示するためのデータを生成する危険提示装置に関する。
従来、生産現場等においてロボットが使用されている。ロボットを使用する際、人がロボットと接触し怪我をする可能性がある。そのため、ロボットを安全柵で囲む安全対策が採られる。しかし、ロボットと人との間に安全柵がある場合、実現が困難な作業もある。例えば、ロボットと人との間に安全柵がある場合、人とロボットとがテーブルの両端を持って、協力して運ぶことは困難である。また、ロボットが、組立て作業を行う人に、部品および工具等を渡すことも困難である。
このような場合、人と協力して働くロボットまたは人の近くで働くロボット等と、人との間に安全柵を設けることは困難である。そのため、このようなロボットを使う際、ロボットの使用者は、通常以上に安全上の注意を払う必要がある。
特許文献1には、移動ロボットの周囲に生じる危険範囲を視覚的に表示する移動ロボットが示されている。特許文献1に記載された移動ロボットの周囲に生じる危険範囲は、移動ロボットがどのような方向へ、どのような速度により移動しようとしているかによって、時々刻々変化する。そして、移動ロボットは、移動する際の移動速度などの移動計画に基づいて、危険範囲を決定する。
図38は、移動ロボットが停止している際の危険範囲を示す図である。図38に示された移動ロボット9001は、移動ロボット9001の前方のプロジェクタ9101、後方のプロジェクタ9102、右側のプロジェクタ9103および左側のプロジェクタ9104を備える。図38に示された危険範囲9060は、移動ロボット9001が停止している際の危険範囲である。危険範囲9060は、4つのプロジェクタ9101、9102、9103および9104によって投影されて人に提示される。
図39は、図38に示された移動ロボット9001が移動している際の危険範囲9060を示す図である。図39に示された危険範囲9060は、移動ロボット9001が速度V1で左側に進む場合の危険範囲である。危険範囲9060は、進行方向である移動ロボット9001の左側の領域において、停止している場合よりも大きくなる。
図40は、図38に示された移動ロボット9001が速度V1よりもさらに高速に移動した際の危険範囲9060を示す図である。危険範囲9060は、速度V1で移動した場合より、さらに大きくなる。
図41は、図38に示された移動ロボット9001が左の腕部9012を動作している際の危険範囲9060を示す図である。危険範囲9060は、左の腕部9012の付近の領域において、大きくなる。
特開2009−123045号公報
しかしながら、ロボットは、その周囲に危険範囲を提示しても、人に対してその危険を適切に知らせることができない場合がある。例えば、ロボットは、人が見ることができない場所に危険範囲を提示しても、人に対してその危険を適切に知らせることができない。そして、ロボットと人とが衝突することにより、ロボットの円滑な動作に支障が生じる。
また、ロボットの周囲に示される危険範囲により、人が危険状況を的確に知覚することは困難である。人は、例えば、どちらの方向に移動すれば危険を回避できるか、どちらの方向に進むとより危険であるか、どの領域がより危険が低い領域であるか、または、現在どれくらい危険な状態であるかなどの危険状況を知覚しにくい。以下、より具体的な例を説明する。
図42は、従来技術における課題を示す図である。危険範囲9060にいる人9061は、図42に示された人9061の位置から、移動ロボット9001の右の腕部9011および左の腕部9012をいずれも直接見ることができない。よって、人9061は、危険範囲9060の内部にいることをわかっていても、右の腕部9011および左の腕部9012のどちらが移動してくるかを予測することができない。したがって、人9061は、どちらの方向から移動ロボット9001の腕部が移動してくるかを予測することができず、どちらの方向に行けば危険を回避できるのかを判断することができない。
そこで、本発明は、ロボットの動作に伴う危険の状況を適切に提示するためのデータを生成する危険提示装置を提供することを目的とする。
上記課題を解決するために、本発明による危険提示装置は、人の位置である人位置を取得する人位置取得部と、前記人位置取得部で取得された前記人位置に依存させて、前記人の視界範囲を決定する人視界範囲決定部と、動作計画に従って動作するロボットの少なくとも一部が前記視界範囲に含まれる時刻であり、かつ前記動作計画より定められる所定時刻毎の前記ロボットの動作する領域内に前記人位置が含まれる時刻よりも所定前の時刻である特定時刻を特定し、前記特定時刻における前記ロボットの位置、および、前記特定時刻における前記ロボットの姿勢のうち少なくとも一方を含む位置姿勢を決定する位置姿勢決定部と、前記位置姿勢決定部で決定された前記位置姿勢を示すための画像データを生成する画像生成部とを備える。
また、本発明による危険提示装置は、人の位置である人位置を取得する人位置取得部と、前記人位置取得部で取得された前記人位置に依存させて、前記人の視界範囲を決定する人視界範囲決定部と、動作計画に従って動作するロボットの少なくとも一部が前記視界範囲に含まれる時刻であり、かつ前記人位置と前記ロボットが動作している位置との距離が予め定められた距離以上となっている時刻であって、かつ前記人位置および前記動作計画から前記人と前記ロボットとの衝突が予想される時刻よりも前の時刻であって、かつ前記衝突が予想される時刻に最も近い時刻である特定時刻を特定し、前記特定時刻における前記ロボットの位置、および、前記特定時刻における前記ロボットの姿勢のうち少なくとも一方を含む位置姿勢を決定する位置姿勢決定部と、前記位置姿勢決定部で決定された前記位置姿勢を示すための画像データを生成する画像生成部とを備える危険提示装置であってもよい。
また、本発明による危険提示装置は、人の位置である人位置を取得する人位置取得部と、前記人位置取得部で取得された前記人位置に依存させて、前記人の視界範囲を決定する人視界範囲決定部と、動作計画に従って動作するロボットの少なくとも一部が前記視界範囲に含まれる時刻であり、かつ前記人位置取得部で取得された前記人位置から、所定時間経過後の前記人の位置を前記人位置として予想し、予想した前記人位置および前記動作計画から前記人と前記ロボットとの衝突を予想し、前記衝突が予想される時刻を含む期間内の時刻である特定時刻を特定し、前記特定時刻における前記ロボットの位置、および、前記特定時刻における前記ロボットの姿勢のうち少なくとも一方を含む位置姿勢を決定する位置姿勢決定部と、前記位置姿勢決定部で決定された前記位置姿勢を示すための画像データを生成する画像生成部とを備える危険提示装置であってもよい。
また、本発明による危険提示装置は、人の位置である人位置を取得する人位置取得部と、前記人位置取得部で取得された前記人位置に依存させて、前記人の視界範囲を決定する人視界範囲決定部と、動作計画に従って動作するロボットの少なくとも一部が前記視界範囲に含まれる特定時刻における前記ロボットの位置、および、前記特定時刻における前記ロボットの姿勢のうち少なくとも一方を含む位置姿勢を決定する位置姿勢決定部と、前記位置姿勢決定部で決定された前記位置姿勢を示すための画像データを生成する画像生成部とを備える危険提示装置であってもよい
これにより、危険提示装置は、ロボットが人の視界に含まれる時刻におけるロボットの態様を提示するためのデータを生成することができる。したがって、危険提示装置は、ロボットの動作に伴う危険の状況を適切に提示するためのデータを生成することができる。
また、前記危険提示装置は、さらに、前記ロボットが動作する領域を危険領域として、前記動作計画に従って生成する危険領域生成部を備え、前記位置姿勢決定部は、前記人位置および前記動作計画から、前記人と前記ロボットとの衝突が予想される時刻を含む期間内の前記特定時刻における前記位置姿勢を決定し、前記画像生成部は、前記位置姿勢決定部で決定された前記位置姿勢と、前記危険領域とを示すための前記画像データを生成してもよい。
これにより、危険提示装置は、衝突が予想される時刻付近のロボットの位置または姿勢を示すためのデータを生成することができる。すなわち、危険提示装置は、ロボット周辺の危険状況を適切に提示するためのデータを生成することができる。
また、前記位置姿勢決定部は、前記衝突が予想される時刻よりも前の時刻である前記特定時刻における前記位置姿勢を決定してもよい。
これにより、危険提示装置は、衝突が予想される時刻の前の時刻におけるロボットの位置または姿勢を示すためのデータを生成することができる。
また、前記位置姿勢決定部は、前記人位置と前記ロボットが動作している位置との距離が予め定められた距離以上となっている時刻であって、かつ、前記衝突が予想される時刻よりも前の時刻であって、かつ、前記衝突が予想される時刻に最も近い時刻である前記特定時刻における前記位置姿勢を決定してもよい。
これにより、ロボットの位置姿勢と人との間に十分な距離がおかれる。よって、危険提示装置は、ロボットの位置姿勢をより適切に提示するためのデータを生成することができる。
また、前記位置姿勢決定部は、前記人位置取得部で取得された前記人位置から、所定時間経過後の前記人の位置を前記人位置として予想し、予想した前記人位置および前記動作計画から前記人と前記ロボットとの前記衝突を予想し、前記衝突が予想される時刻を含む期間内の前記特定時刻における前記位置姿勢を決定してもよい。
これにより、より的確にロボットと人との衝突が予想される。したがって、より精度の高いデータが生成される。
また、前記位置姿勢決定部は、前記衝突が予想される時刻である前記特定時刻における前記位置姿勢を決定してもよい。
これにより、人が移動することによって衝突する時の位置および姿勢が決定される。よって、衝突する時の状況が、より的確に表現される。
また、前記位置姿勢決定部は、前記ロボットが前記動作計画に従って所定時間内に動作する領域である動作領域と、前記視界範囲とが予め定められた大きさ以上で重なる時刻であって、かつ、前記人と前記ロボットとの最初の衝突が予想される時刻以降の時刻であって、かつ、前記最初の衝突が予想される時刻に最も近い時刻である前記特定時刻における前記位置姿勢を決定してもよい。
これにより、ロボットは、特定時刻において、所定の大きさ以上で、人の視界に含まれる。よって、危険提示装置は、より適切なデータを生成できる。
また、前記位置姿勢決定部は、前記人と前記ロボットとの衝突が予想される場合、かつ、前記特定時刻に該当する時刻が存在しない場合、警告出力装置に警告を出力させてもよい。
これにより、衝突の可能性があるにもかかわらず、ロボットが視界に入らない場合、危険提示装置は、警告音または警告表示等の警告によって危険を人に通知することができる。
また、前記位置姿勢決定部は、前記特定時刻が、前記人位置取得部で取得された前記人位置を前記ロボットが通過する時刻と同じまたは後の時刻である場合、警告出力装置に警告を出力させてもよい。
これにより、ロボットが視界に入るタイミングにより、人が危険状況を誤認する可能性がある場合、危険提示装置は、警告音または警告表示等の警告によって危険を人に通知することができる。
また、前記画像生成部は、前記特定時刻が、前記人位置取得部で取得された前記人位置を前記ロボットが通過する時刻よりも前の時刻である場合、前記画像データを生成してもよい。
これにより、ロボットが視界に入るタイミングにより、人が危険状況を誤認する可能性がある場合、危険提示装置は、警告音または警告表示等の警告によって危険を人に通知する。そして、人が危険状況を誤認する可能性が低い場合、危険提示装置は、位置および姿勢を示すためのデータを生成する。
また、前記危険提示装置は、さらに、前記人の向きである人向きを取得する人向き取得部と、前記視界範囲を遮る障害の情報である障害情報を取得する障害情報取得部とを備え、前記人視界範囲決定部は、前記人位置取得部で取得された前記人位置と、前記人向き取得部で取得された前記人向きと、前記障害情報取得部で取得された前記障害情報とに依存させて、前記視界範囲を決定してもよい。
これにより、人の位置、人の向き、および、視界範囲に障害になる情報に基づいて、より詳細に、視界範囲が決定される。したがって、より適切なデータが生成される。
また、前記画像生成部は、現在から前記特定時刻までの到達時間と、前記位置姿勢とを示すための前記画像データを生成してもよい。
これにより、危険提示装置は、ロボットがいつ近づくかを示すデータを生成することができる。すなわち、危険提示装置は、危険の度合いを示すデータを生成することができる。
また、前記画像生成部は、現在から前記特定時刻までの到達時間に依存させて、前記位置姿勢の表示形式を決定し、決定した前記表示形式で前記位置姿勢を示すための前記画像データを生成してもよい。
これにより、危険提示装置は、危険の度合いに応じたデータを生成することができる。
また、前記画像生成部は、前記到達時間が第1の時間である場合に、前記到達時間が前記第1の時間よりも長い第2の時間である場合よりも明度が高くなるように、前記表示形式を決定し、決定した前記表示形式で前記位置姿勢を示すための前記画像データを生成してもよい。
これにより、危険提示装置は、危険の度合いが高い場合に、ロボットを高い明度で示すデータを生成する。したがって、危険提示装置は、危険の度合いを示すことができる。
また、本発明による危険提示システムは、前記危険提示装置を備える危険提示システムであってもよい。
これにより、前記危険提示装置が、前記危険提示装置を含む危険提示システムとして実現される。
また、前記危険提示システムは、さらに、前記動作計画に従って動作する前記ロボットを備えてもよい。
これにより、危険提示システムは、ロボットの動作に伴う危険の状況を適切に提示するためのデータを生成することができる。
また、前記危険提示システムは、さらに、前記画像生成部で生成された前記画像データを画像として提示する表示装置を備えてもよい。
これにより、危険提示装置により生成されたデータを表示装置が画像として提示できる。よって、危険状況が適切に提示される。
また、前記危険提示システムは、さらに、警告音を出力する警告音出力装置を備えてもよい。
これにより、危険提示システムは、人の視界範囲にロボットの位置または姿勢を提示できない場合等に、人に危険を知らせるための警告音を出力できる。
また、本発明による危険提示方法は、人の位置である人位置を取得する人位置取得ステップと、前記人位置取得ステップで取得された前記人位置に依存させて、前記人の視界範囲を決定する人視界範囲決定ステップと、動作計画に従って動作するロボットの少なくとも一部が前記視界範囲に含まれる時刻であり、かつ前記動作計画より定められる所定時刻毎の前記ロボットの動作する領域内に前記人位置が含まれる時刻よりも所定前の時刻である特定時刻を特定し、前記特定時刻における前記ロボットの位置、および、前記特定時刻における前記ロボットの姿勢のうち少なくとも一方を含む位置姿勢を決定する位置姿勢決定ステップと、前記位置姿勢決定ステップで決定された前記位置姿勢を示すための画像データを生成する画像生成ステップとを含む危険提示方法であってもよい。
また、本発明による危険提示方法は、人の位置である人位置を取得する人位置取得ステップと、前記人位置取得ステップで取得された前記人位置に依存させて、前記人の視界範囲を決定する人視界範囲決定ステップと、動作計画に従って動作するロボットの少なくとも一部が前記視界範囲に含まれる特定時刻における前記ロボットの位置、および、前記特定時刻における前記ロボットの姿勢のうち少なくとも一方を含む位置姿勢を決定する位置姿勢決定ステップと、前記位置姿勢決定ステップで決定された前記位置姿勢を示すための画像データを生成する画像生成ステップとを含む危険提示方法であってもよい。
これにより、前記危険提示装置が、危険提示方法として実現される。
また、本発明によるプログラムは、人の位置である人位置を取得する人位置取得ステップと、前記人位置取得ステップで取得された前記人位置に依存させて、前記人の視界範囲を決定する人視界範囲決定ステップと、動作計画に従って動作するロボットの少なくとも一部が前記視界範囲に含まれる時刻であり、かつ前記動作計画より定められる所定時刻毎の前記ロボットの動作する領域内に前記人位置が含まれる時刻よりも所定前の時刻である特定時刻を特定し、前記特定時刻における前記ロボットの位置、および、前記特定時刻における前記ロボットの姿勢のうち少なくとも一方を含む位置姿勢を決定する位置姿勢決定ステップと、前記位置姿勢決定ステップで決定された前記位置姿勢を示すための画像データを生成する画像生成ステップとをコンピュータに実行させるためのプログラムであってもよい。
また、本発明によるプログラムは、人の位置である人位置を取得する人位置取得ステップと、前記人位置取得ステップで取得された前記人位置に依存させて、前記人の視界範囲を決定する人視界範囲決定ステップと、動作計画に従って動作するロボットの少なくとも一部が前記視界範囲に含まれる特定時刻における前記ロボットの位置、および、前記特定時刻における前記ロボットの姿勢のうち少なくとも一方を含む位置姿勢を決定する位置姿勢決定ステップと、前記位置姿勢決定ステップで決定された前記位置姿勢を示すための画像データを生成する画像生成ステップとをコンピュータに実行させるためのプログラムであってもよい。
これにより、前記危険提示方法が、プログラムとして実現される。
また、前記位置姿勢決定部は、前記人位置と前記ロボットが動作している位置との距離が予め定められた距離以上となっている時刻であって、かつ前記衝突が予想される時刻よりも所定前の時刻である特定時刻を特定し、前記特定時刻における前記ロボットの位置、および、前記特定時刻における前記ロボットの姿勢のうち少なくとも一方を含む位置姿勢を決定してもよい。
また、前記ロボットの少なくとも一部が前記視界範囲に含まれる時刻とは、前記ロボットが前記動作計画に従って所定時間内に動作する領域である動作領域と、前記視界範囲とが予め定められた大きさ以上で重なる時刻でもよい。
本発明により、ロボットの動作に伴う危険の状況を適切に提示するためのデータが生成される。
図1は、実施の形態1における危険提示システムの概念図である。 図2は、実施の形態1における危険提示システムの全体図である。 図3は、実施の形態1におけるロボットの外観図である。 図4は、実施の形態1における回転角を示す図である。 図5は、実施の形態1における時刻と回転角の関係を示す図である。 図6は、実施の形態1における位置姿勢決定部が衝突提示位置を決定する処理を示すフローチャートである。 図7は、実施の形態1における特徴姿勢を示す図である。 図8は、実施の形態1における危険提示システムによって表示される像を示す図である。 図9は、実施の形態2における危険提示システムの全体図である。 図10は、実施の形態2における位置姿勢決定部が衝突提示位置を決定する処理を示すフローチャートである。 図11は、実施の形態2における可動部の移動領域と人予想位置との関係を示す図である。 図12は、実施の形態3における危険提示システムの全体図である。 図13は、実施の形態3における人の視界範囲を示す図である。 図14は、実施の形態3におけるロボットに対して反対の方向を向いている人の視界範囲を示す図である。 図15は、実施の形態3における可動部の移動方向に対して同じ方向を向いている人の視界範囲を示す図である。 図16は、実施の形態3における位置姿勢決定部が衝突提示位置を決定する処理を示すフローチャートである。 図17は、実施の形態3における可動部の移動領域と人予想位置と視界範囲との関係を示す図である。 図18は、実施の形態3における人の視界に提示される特徴姿勢および特徴位置を示す図である。 図19は、実施の形態4における危険提示システムの概念図である。 図20は、実施の形態4における危険提示システムの全体図である。 図21は、実施の形態4における人の視界範囲を示す図である。 図22は、時刻0における壁のない状態を示す図である。 図23は、時刻4における壁のない状態を示す図である。 図24は、時刻6における壁のない状態を示す図である。 図25は、時刻8における壁のない状態を示す図である。 図26は、時刻0における壁のある状態を示す図である。 図27は、時刻4における壁のある状態を示す図である。 図28は、時刻6における壁のある状態を示す図である。 図29は、時刻8における壁のある状態を示す図である。 図30は、実施の形態4における危険提示システムの処理を示すフローチャートである。 図31は、実施の形態4における危険提示システムの処理の変形例を示すフローチャートである。 図32は、実施の形態4における表示形式決定処理を示すフローチャートである。 図33は、時刻0における改良された状態を示す図である。 図34は、時刻4における改良された状態を示す図である。 図35は、時刻6における改良された状態を示す図である。 図36は、時刻8における改良された状態を示す図である。 図37は、実施の形態4における逆向き時の動作を示す概念図である。 図38は、従来技術における移動ロボットが停止している時に提示される危険範囲を示す図である。 図39は、従来技術における移動ロボットが移動している時に提示される危険範囲を示す図である。 図40は、従来技術における移動ロボットが速く移動している時に提示される危険範囲を示す図である。 図41は、従来技術における移動ロボットが腕部を動かしている時に提示される危険範囲を示す図である。 図42は、従来技術における課題を示す図である。
(実施の形態1)
実施の形態1における危険提示システムは、危険領域にいる人に、どの方向からロボットが接近してくるかを分かるように危険領域等を提示する。そして、実施の形態1における危険提示システムは、1自由度の回転型ロボットを対象にした危険提示システムである。なお、1自由度の回転型ロボットは、本発明の対象とされるロボットの一例である。本発明の対象とされるロボットは、多自由度、直動型、移動型、および、それらの組合せ等のロボットでもよい。
図1は、実施の形態1における危険提示システムの概念図である。図1に示された危険提示システム1000は、危険提示装置1100、ロボット1200および表示装置1300を備える。危険提示システム1000は、ロボット1200の周辺に危険領域31を投影する。さらに、危険提示システム1000は、特定の時刻におけるロボット1200の姿勢を投影する。危険提示システム1000は、特定の時刻におけるロボット1200の位置を示すための点などを投影してもよい。
これにより、危険提示システム1000は、人51にロボット1200がどちらから近づいてくるかを提示する。以下に、上記提示を実現する危険提示システム1000について説明する。
図2は、図1に示された危険提示システム1000の全体図である。危険提示装置1100は、危険領域生成部1101、人位置取得部1102、位置姿勢決定部1103および画像生成部1104を備える。ロボット1200は、動作計画部1201、動作制御部1202および可動部1203を備える。以下、それぞれの構成要素について説明する。
可動部1203は、ロボット1200において物理的に移動可能な部分である。そして、可動部1203は、人と接触する可能性のある空間に移動する。例えば、ロボット1200が物体を移動するためのアームを有する場合、アームが可動部1203である。また、ロボット1200の本体が移動する場合、ロボット1200の本体が可動部1203である。
図3は、図1に示されたロボット1200の外観図である。ロボット1200は、可動部1203、および、物理的に移動しないベース部2001を備える。可動部1203は、物体2002を運搬する際に移動する。なお、図3に示されていない動作計画部1201および動作制御部1202は、物理的に、可動部1203またはベース部2001に含まれる。動作計画部1201および動作制御部1202は、可動部1203およびベース部2001のどちらに含まれてもよい。
動作計画部1201は、可動部1203がどのように移動するかを示す動作計画を出力する。例えば、動作計画は、可動部1203を何度回転させるかを示す角度の集合、または、順序付けられた回転角の集合である。実施の形態1において、動作計画は、初期状態を時刻0として、時刻0、時刻1、時刻2、・・・、時刻nにおける可動部1203の回転角の集合{R_0、R_1、R_2、・・・、R_n}である。
図4は、回転角を示す図である。図4に示されたXY平面は、水平面上におかれたロボット1200を含む水平面である。点A(AX、AY)は、可動部1203の回転の中心位置を示す。点B(X_0、Y_0)は、初期状態における可動部1203の端の位置を示す。ここで、可動部1203の端の位置は、可動部1203の回転の中心位置でない側の端の位置である。点C(X_n、Y_n)は、可動部1203の端を270度回転させた時の位置を示す。
このとき、回転角は、点A(AX、AY)を始点とし、点B(X_0、Y_0)を終点とする第1の有向線分ABと、点A(AX、AY)を始点とし、点C(X_n、Y_n)を終点とする第2の有向線分ACとのなす角である。また、危険領域31は、ロボット1200の動作計画に基づいて第1の有向線分ABが第2の有向線分ACの位置まで移動した際に第1の有向線分ABが通過する領域である。危険領域31に人51が存在した場合、人51とロボット1200とが衝突する危険がある。
なお、正の値を有する回転角は、可動部1203を反時計回りに回転移動させる動作計画を示す。負の値を有する回転角は、可動部1203を時計回りに回転移動させる動作計画を示す。
図5は、時刻と回転角の関係の一例を示す図である。時刻1における回転角は、図5に示された回転角R_1であり、ロボット1200の初期位置から10度である。時刻2における回転角は、図5に示された回転角R_2であり、ロボット1200の初期位置から20度である。時刻27における回転角は、図5に示された回転角R_27であり、ロボット1200の初期位置から270度である。
以降の説明では、順序付けられた回転角の集合に含まれる回転角を、最初のものから順に、0番目の回転角、1番目の回転角、2番目の回転角、・・・、n番目の回転角と呼ぶ。ここで、番号は、1番から始めず0番から始める。時刻が0から始まるため、回転角も0から始める。これにより、時刻が0の時の回転角はR_0となり、添え字の番号が揃う。
例えば、時刻0、時刻1、・・・、時刻27の各時間間隔が1秒であって、可動部1203が1秒につき10度の速度で反時計回りに270度回転する場合、回転角の集合{0、10、20、・・・、270}が動作計画となる。
ここで、動作計画部1201に、この回転角の集合が予め格納されている。動作計画部1201は、外部からの要求に基づいて、指定された時刻の回転角を出力する。すなわち、時刻0、時刻1、時刻2、・・・、時刻27が指定された場合、動作計画部1201は、回転角として、0、10、20、・・・、270を出力する。あるいは、0番目、1番目、2番目、・・・、27番目が指定された場合、動作計画部1201は、回転角として、0、10、20、・・・、270を出力する。
なお、ここでは、動作計画は、所定の時間間隔ごとの角度により示されたが、時刻と回転角との組み合わせの集合{(t0、Θ0)、(t1、Θ1)、(t2、Θ2)、・・・、(tn、Θn)}であっても構わない。
また、動作計画部1201は、予め保持している環境地図情報、または、視覚センサーによって取得した外界情報などに基づいて、ロボット1200の移動を計画してもよい。また、動作計画部1201は、可動部1203の移動先の位置を直接計画するのではなく、目標移動速度、目標加速度、および、可動部1203の関節の目標角度軌道などを計画してもよい。
動作制御部1202は、動作計画部1201により決定された動作計画に基づいて、可動部1203を移動させる。
危険領域生成部1101は、動作計画部1201により決定された動作計画に基づいて危険領域31を形成する。具体的には、危険領域生成部1101は、可動部1203を動作計画部1201の動作計画に従って移動させた場合に可動部1203が通過する領域を算出することにより、危険領域31を生成する。
より具体的に、図4における危険領域31について説明する。まず、危険領域生成部1101は、予め可動部1203の軸の位置である点A(AX、AY)および、時刻0の時の可動部1203の位置である点B(X_0、Y_0)を保持する。次に、危険領域生成部1101は、動作計画部1201が保持する最後の回転角「270」を取得する。
次に、危険領域生成部1101は、XY平面上の点(X、Y)のうち、以下の2つの条件を満たす点の集合を危険領域31とする。
第1の条件は、点(X、Y)と点A(AX、AY)との距離が、点B(X_0、Y_0)と点A(AX、AY)との距離より短いことである。
第2の条件は、点A(AX、AY)を始点として点B(X_0、Y_0)を終点とする第1のベクトルと、点A(AX、AY)を始点として点(X、Y)を終点とする第2のベクトルとのなす角が、0以上であって、かつ、動作計画の最後の回転角「270」以下であることである。
このように決定された危険領域31は、図1に示された表示装置1300によって表示される。表示装置1300は、ロボット1200が設置された部屋の天井に設置されたプロジェクタであって、人51がいる側、すなわち地面側に向かって危険領域31、および、後述の特徴姿勢を投影する。
なお、ここでは、危険領域生成部1101は、動作計画部1201が保持する最後の回転角のみから扇形を決定したが、動作計画部1201が保持するk番目と(k−1)番目(ただし、k=1、2、・・・、n)の2つの回転角から、可動部1203の端の2つの位置と点A(AX、AY)で囲まれる扇形の領域を危険領域31として決定してもよい。また、危険領域生成部1101は、扇形の近似として、動作計画部1201が保持するk番目と(k−1)番目(ただし、k=1、2、・・・、n)の2つの回転角から、可動部1203の端の2つの位置と点A(AX、AY)で囲まれる三角形の領域を危険領域31として決定してもよい。
人位置取得部1102は、人51の位置を取得する。例えば、天井に設置された図示しない撮像部が人51を撮影し、人位置取得部1102は、画像処理技術を用いて人51の位置を取得する。または、予め人51が所持している図示しない位置センサーによって、人位置取得部1102は、人51の位置を取得してもよい。
位置姿勢決定部1103は、人51に提示するためのロボット1200の位置(以下、特徴位置とも呼ぶ)、および、ロボット1200の一姿勢(以下、特徴姿勢とも呼ぶ)のうち少なくとも一方(以下、位置姿勢とも呼ぶ)を決定する。この時、位置姿勢決定部1103は、人51がロボット1200周辺の危険状況を適切に知覚できるように、位置姿勢を決定する。位置姿勢決定部1103が決定した特徴位置または特徴姿勢は、後述の表示装置1300によって危険な状況にいる人51に提示される。
実施の形態1において、特徴姿勢は、人51と可動部1203が衝突すると予想される時刻から所定時間前の時刻における、可動部1203の姿勢である。そして、特徴位置は、可動部1203に含まれる点のうち、人と最も接近する点である。ここで、特徴姿勢の対象の時刻は、衝突する時刻ではなく、衝突よりも前の時刻である。危険提示システム1000は、衝突よりも前の時刻の位置を提示することにより、可動部1203がどちらから近づいてくるかを人51に的確に知らせる。
なお、特徴位置は、対象の時刻におけるロボット1200または可動部1203の中心を示す位置であってもよい。例えば、ロボット1200の全体が移動する場合、危険提示システム1000が中心の位置を特徴位置として示すことにより、人51はロボット1200がどちらから近づいてくるかを知覚できる。
図6は、図2に示された位置姿勢決定部1103の処理の流れを示すフローチャートである。なお、本説明においてkは変数であり、CPUのレジスタ、ROM、RAMまたはHDD等の記憶領域によって保持される。
図7は、位置姿勢決定部1103が決定する特徴姿勢61を示す図である。図7において、点(X_0、Y_0)、点(X_1、Y_1)、・・・、点(X_27、Y_27)はそれぞれ時刻0、時刻1、時刻2、・・・、時刻27の時の可動部1203の端の位置を示す。また点(PX、PY)は、人位置取得部1102によって取得された人51の位置である人位置を示す。
以下、図6および図7を用いて、位置姿勢決定部1103が行う処理の流れを説明する。
まず、位置姿勢決定部1103は、人位置取得部1102によって人51の位置を取得する(S101)。図7に示された例の場合、位置姿勢決定部1103は、人位置(PX、PY)を取得する。
次に、位置姿勢決定部1103は、k=1とする(S102)。次に、位置姿勢決定部1103は、動作計画部1201から時刻(k−1)の動作計画を取得する(S103)。このとき、k=1であるため、位置姿勢決定部1103は、0番目の回転角「0」を取得する。図7に示された例の場合、位置姿勢決定部1103は、k=1のとき、位置(X_0、Y_0)に対応する回転角「0」を取得する。
次に、位置姿勢決定部1103は、動作計画部1201から時刻kの動作計画を取得する(S104)。図7に示された例の場合、位置姿勢決定部1103は、k=1のとき、位置(X_1、Y_1)に対応する回転角「10」を取得し、k=2のとき、位置(X_2、Y_2)に対応する回転角「20」を取得する。
動作計画部1201からk番目の動作計画を取得できなかった場合、位置姿勢決定部1103は、処理を終了する。具体的には、図7に示された例において、k=28の場合、動作計画部1201は、28番目の動作計画を保持していない。この場合、位置姿勢決定部1103は、処理を終了する。
なお、ここで、位置姿勢決定部1103は、動作計画部1201が動作計画を持っている限り、動作計画を取得しつづける。しかし、処理量を削減するため、kの値が一定以上の値になった場合、動作計画部1201が動作計画を持っていても、位置姿勢決定部1103は、処理を終了することが望ましい。
動作計画部1201からk番目の動作計画を取得できた場合、位置姿勢決定部1103は、可動部1203が時刻(k−1)から時刻kまでに移動する際に通過する領域(移動領域または動作領域とも呼ぶ)を生成する(S105)。
ここでは、位置姿勢決定部1103は、以下の3つの点を含む扇形を生成する。まず、扇形の中心である第1の点は、可動部1203の回転の中心の点A(AX、AY)である。第2の点は、時刻(k−1)における可動部1203の端の位置である点(X_k−1、Y_k−1)である。つまり、第2の点は、動作計画部1201の(k―1)番目の回転角における可動部1203の端の位置である。第3の点は、時刻kにおける可動部1203の端の位置である点(X_k、Y_k)である。つまり、第3の点は、動作計画部1201のk番目の回転角の時の可動部1203の端の位置である。
具体的には、図7に示された例において、k=1の場合、位置姿勢決定部1103は、(AX、AY)と(X_0、Y_0)と(X_1、Y_1)とにより囲まれる扇形を生成する。k=18の場合、位置姿勢決定部1103は、(AX、AY)と(X_17、Y_17)と(X_18、Y_18)とにより囲まれる扇形を生成する。
次に、位置姿勢決定部1103は、人位置取得部1102から取得した人51の位置が、可動部1203の移動領域に含まれるか否かを判定する(S106)。
具体的には、図7に示された例において、k=1の場合、扇形の内部に人位置は含まれない。そして、kが1から順に増加し、k=18の時に、人位置は、点A(AX、AY)と、点(X_17、Y_17)と点(X_18、X_18)とにより囲まれる可動部1203の移動領域(ここでは扇形)に含まれる。よって、位置姿勢決定部1103は、k=0、1、2、・・・、17のとき、人51の位置が可動部1203の移動領域に含まれないと判定し、k=18のとき、人51の位置が可動部1203の移動領域に含まれると判定する。
移動領域に人位置が含まれない場合(S106でNO)、位置姿勢決定部1103は、kに1を加えた値をkに格納する(S108)。そして、位置姿勢決定部1103は、動作計画部1201から時刻kの動作計画を取得し(S104)、以降の処理を繰り返す。
移動領域に人位置が含まる場合(S106でYES)、位置姿勢決定部1103は、時刻(k―1)のときの可動部1203の姿勢を特徴姿勢として決定する(S107)。すなわち、図7に示された例の場合、k=18の時に、人51の位置が扇形に含まれたので、k=17のときの可動部1203の姿勢を特徴姿勢とする。より具体的には、位置姿勢決定部1103は、点A(AX、AY)と点(X_17、Y_17)を結ぶ線分を特徴姿勢とする。
ここで、特徴姿勢を決める際の対象の時刻は、衝突する時刻ではなく、衝突よりも前の時刻にする。これにより、危険提示システム1000は、衝突よりも前の時刻の位置を提示し、可動部1203がどちらから近づいてくるかを人51に知らせることができる。k−1は、一例であって、決定される時刻は、より前の時刻であってもよい。
また、対象の時刻は、位置姿勢決定部1103がk−1、k−2、・・・、0の時刻における特徴姿勢の線分と人51との位置との距離を測定することにより、測定された距離が始めに所定の距離以上になった時刻でもよい。人51は、人51から所定の距離以上離れた特徴姿勢によって、危険状況をより知覚しやすくなる。
次に、位置姿勢決定部1103は、特徴位置を決定する(S109)。すなわち、点A(AX、AY)と点(X_17、Y_17)とを結ぶ線分上の点のうち、人位置(PX、PY)と最も近い点を特徴位置として決定する。
画像生成部1104は、危険領域生成部1101が生成した危険領域31、および、位置姿勢決定部1103が決定した特徴を示す画像を生成する。すなわち、危険領域生成部1101が生成した危険領域31の上に、位置姿勢決定部1103が決定した特徴姿勢および特徴位置を重ねた画像を生成する。
表示装置1300は、画像生成部1104により生成された画像を表示する装置である。
図8は、画像生成部1104により生成された画像を表示装置1300が表示した様子を示す図である。ロボット1200が置かれる部屋の上部に設置された表示装置1300は、ロボット1200の周辺に危険領域31を提示する。さらに、表示装置1300は、特徴姿勢71、および、特徴位置72の像を提示する。
以上のように、実施の形態1における危険提示システム1000は、ロボット1200の周辺に危険領域31を提示する。さらに、危険提示システム1000は、特徴姿勢71の像を提示する。
人51は、前者によってロボット1200の可動部1203が動作する危険領域31を知ることができる。しかし、これだけではロボットがどちらから近づくのかを知ることができない。よって、人51は危険領域31から逃れようとして移動をする際に、より可動部1203に近づいてしまう場合がある。
また、人51は、後者によって可動部1203がどちらから近づいてくるかを知ることができる。しかし、可動部1203が近づいた後、どちらに移動するかまでは知ることができない。そのため、人51は、可動部1203の可動領域内をいつまでも逃げまわってしまう場合がある。
しかし、実施の形態1における危険提示システム1000が表示する危険領域31と特徴姿勢等を知ることで、人51は、どちらの方向に移動するのが安全かを判断することができる。
(実施の形態2)
実施の形態1における危険提示システムは、危険領域の内部にいる人に、危険領域等を提示する。実施の形態2における危険提示システムは、さらに、危険領域の内部にいない人であっても、後で、危険領域に移動してくる恐れのある人に、危険領域等を提示する。
図9は、実施の形態2における危険提示システムの全体図である。実施の形態2における危険提示システム1010は、危険提示装置1110、ロボット1200および表示装置1300を備える。そして、危険提示装置1110は、実施の形態1における位置姿勢決定部1103とは異なる動作をする位置姿勢決定部1113を備える。他の構成要素は、実施の形態1と同様であり、説明を省略する。
図10は、図9に示された位置姿勢決定部1113が衝突提示位置を決定する処理を示すフローチャートである。図11は、可動部1203の移動領域と人予想位置との関係を示す図である。以下、図10および図11を用いて位置姿勢決定部1113が行う処理の流れを説明する。
まず、位置姿勢決定部1113は、人位置を取得する(S101)。次に、位置姿勢決定部1113は、変数kを1にする(S102)。次に、位置姿勢決定部1113は、k−1番目の動作計画を取得する(S103)。次に、位置姿勢決定部1113は、k番目の動作計画を取得し、取得できたか否かを判定する(S104)。
そして、位置姿勢決定部1113は、動作計画を取得できなかった場合、処理を終了し、動作計画を取得できた場合、可動部1203の移動領域を生成する(S105)。ここまで、位置姿勢決定部1113は、図6に示された実施の形態1と同様の処理を行う。
位置姿勢決定部1113は、可動部1203の移動領域を生成(S105)した後、k番目の時刻における人がいる位置を予想する(S201)。例えば、位置姿勢決定部1113は、予め人の平均的な移動速度Vを保持し、時刻kの時、初期位置からの距離がk×V以下の範囲にいると予想する。図11において、P_1、P_2、・・・、P_kは、それぞれ、初期状態の時刻0から時刻1、時刻2、・・・、時刻kの人の予想位置を示す。予想位置を示すそれぞれの円は、人位置(PX、PY)を中心とし、半径が1×V、2×V、・・・、k×Vの円である。
そして、位置姿勢決定部1113は、可動部1203の移動領域に、人の予想位置の一部が含まれるかを算出する。具体的には、位置姿勢決定部1113は、可動部1203の移動領域を示す扇形に含まれる点で、かつ、人の予想位置を示す円に含まれる点があるか否かを判定する(S202)。
移動領域に人の予想位置が含まれない場合(S202でNO)、位置姿勢決定部1113は、図6に示された実施の形態1と同様に、kに1を加えた値をkに格納する(S108)。
移動領域に人の予想位置が含まれる場合(S202でYES)、位置姿勢決定部1113は、時刻kの時の可動部1203の位置を特徴姿勢として決定する(S203)。すなわち、位置姿勢決定部1113は、k=18の時に、人の予想位置が扇形に含まれたのであれば、k=18の時の可動部1203の姿勢を特徴姿勢とする。より具体的には、位置姿勢決定部1113は、点A(AX、AY)と点(X_18、Y_18)を結ぶ線分を特徴姿勢とする。
実施の形態1の位置姿勢決定部1103は、特徴姿勢を決める際、衝突が予想される時刻より前の時刻を用いて特徴姿勢を決定したが、実施の形態2の位置姿勢決定部1113は、衝突が予想される時刻を用いて特徴姿勢を決定してもよい。衝突が予想される時刻を用いた場合であっても、人が移動する位置を予想することにより、どちらに移動すれば可動部1203に接触するかを提示することができる。
なお、位置姿勢決定部1113は、実施の形態1と同様に衝突が予想される時刻の前の時刻を基準として、特徴姿勢を決めてもよい。これにより、より確実に、危険提示システム1010は、可動部1203がどちらから動いてくるかを提示できる。
次に、位置姿勢決定部1113は、時刻kにおいて、衝突が予想される位置を特徴位置として決定する(S204)。例えば、位置姿勢決定部1113は、特徴姿勢を示す線分と人の予想位置を示す円との交点を特徴位置として決定する。図11に示された例では、特徴位置73は、2つ存在する。位置姿勢決定部1113は、2つの特徴位置73の両方を特徴位置として決定してもよいし、いずれか一方を特徴位置としてもよい。
また、位置姿勢決定部1113は、2つの特徴位置73の中心を特徴位置として、決定してもよい。2つの特徴位置73の中心は、人の位置である(PX、PY)から最も近く、衝突の可能性が高い位置である。
このように決定された特徴姿勢および特徴位置が、危険提示システム1010により提示される。
以上のように、実施の形態2の危険提示システム1010は、ロボット1200の周辺に危険領域31を提示する。さらに、危険提示システム1010は、特徴姿勢71における可動部の像を提示する。危険提示システム1010が表示する危険領域と特徴姿勢を知ることで、人51は、どちらの方向に移動するのが安全かを判断することができる。
また、人51は、ロボット1200の周辺で移動する場合、より危険な領域に移動する場合がある。しかし、危険提示システム1010は、人51の移動を予想することにより、どちらの方向に移動するとロボット1200と衝突してしまう危険があるかを人51に提示することができる。
(実施の形態3)
実施の形態1および実施の形態2における危険提示システムは、人とロボットが衝突する可能性がある場合に、時間的に最も先に衝突する可能性のある場所を特徴位置として表示するか、または、その時のロボットの姿勢を特徴姿勢として提示する。しかし、人が向いている方向によっては、人は、提示された特徴位置または特徴姿勢を見ることができない可能性がある。実施の形態3における危険提示システムは、人が向いている方向を考慮して、人が見ることができる領域に特徴位置または特徴姿勢を提示する。
図12は、実施の形態3における危険提示システム1020の全体図である。実施の形態3における危険提示システム1020は、危険提示装置1120、ロボット1200、表示装置1300および警告音出力装置1400を備える。危険提示装置1120は、実施の形態1における位置姿勢決定部1103とは異なる動作をする位置姿勢決定部1123を備える。危険提示装置1120は、さらに、人視界範囲決定部1125を備える。他の構成要素は、実施の形態1の場合と同様であり、説明を省略する。
人視界範囲決定部1125は、人がその時に向いている姿勢に基づいて、人が見ている視界範囲(視界、視界領域または人視界範囲とも呼ぶ)を決定する。例えば、人が予め前部と後部に位置センサーを備えたヘルメットをかぶり、人視界範囲決定部1125は、その2つのセンサーから取得した位置を結ぶ直線の方向を人が見ていると仮定して人の視界範囲を決定する。
図13は、位置センサーから取得した値から決定した視界領域を示す図である。人前方位置(FX、FY)は、ヘルメットの前方に設置した位置センサーの位置を示し、人後方位置(BX、BY)は、ヘルメットの後方に設置した位置センサーの位置を示す。
人視界範囲決定部1125は、人前方位置(FX、FY)を中心とし、半径をDとする円の一部であって、人後方位置(BX、BY)と人前方位置(FX、FY)とを結ぶ方向に時計回りおよび反時計回りにそれぞれ回転角αだけ回転して形成される扇形(図13に示された視界74)の範囲を視界範囲として決定する。
なお、人視界範囲決定部1125は、半径Dをパーソナルスペースの考え方に基づいて決定してもよい。パーソナルスペースとは、『人や同種の生物が、侵入してきたら通常は否定的な反応がひきおこされるであろう、人や動物の身体の周囲にある領域のこと(心理学辞典、藤永 保、仲 真理子編、丸善、2004年)』である。
そこで、危険提示システム1020は、ロボットの特徴姿勢および特徴位置をパーソナルスペースの範囲内に提示することにより、人に、その領域から逃れたいという気持ちを持たせることができる。
なお、エドワード・ホールは、相手との関係の親密さに基づいて、パーソナルスペースが変わることを示している。ところで、人のロボットに対する親密さは、ロボットの使用回数、接触回数および観察時間等が増えるに従って、向上すると考えられる。そこで、人視界範囲決定部1125は、ロボットの使用回数、接触回数および観察時間等に基づいて、パーソナルスペースを狭くし、視界74を狭くしてもよい。
すなわち、危険提示システム1020は、ロボットの使用回数、接触回数および観察時間を取得する手段を備え、人視界範囲決定部1125は、ロボットの使用回数、接触回数および観察時間が増えるに従って、半径Dを小さくしてもよい。例えばロボットに親密さを抱いている人には、半径Dが45cmに設定され、親密さを抱いていない人には、半径Dが120cmまたは350cmに設定される。
さらに、パーソナルスペースの距離は、人種、および、対象者の性格等によっても異なる。そのため、危険提示システム1020は、人種、および、対象者の性格等を取得する手段を備え、人視界範囲決定部1125は、人種、および、対象者の性格等により、パーソナルスペースを決定してもよい。
なお、人視界範囲決定部1125は、ヘルメットの前方に設置されたカメラから得られる画像に基づいてカメラ位置を推定することにより、視界領域を決定してもよい。ここで、カメラは、ヘルメットではなく、メガネ、人に持たせたカバン、および、人が車椅子に乗っている場合には車椅子等に設置されてもよい。また、人視界範囲決定部1125は、室内に設置されたカメラで人の顔を撮影することにより、人の眼の位置に基づいて人の視線方向を推定してもよい。
また、実施の形態3における危険提示システム1020は、視界74に特徴位置または特徴姿勢を提示するが、特徴位置または特徴姿勢を視界74に提示できない、または、特徴位置または特徴姿勢を視界74に提示しない方がよい場合もある。以下、具体的に説明する。
図14は、実施の形態3におけるロボットに対して反対の方向を向いている人の視界範囲を示す図である。
人51は、危険領域31の外側にいる。そして、人51の視界74は、危険領域31に重なっていない。また、人51の移動により、時刻kにおいて衝突が予想される。
この場合、危険提示システム1020が特徴姿勢61および特徴位置73の像を示しても、像は、人51の視界74に現れない。したがって、この場合、危険提示システム1020は、危険を人51に通知するため、警告音出力装置1400に警告音を出力させる。なお、危険を人51に通知する際に、警告音出力装置1400を用いる替わりに、表示装置1300を用いて、人51の視界の範囲に「後ろ側からロボットが接近します。」などのメッセージを提示する構成であっても構わない。また、表示装置1300の出力を点滅させて、人51に後ろ側からのロボット接近を通知する構成であっても構わない。
このような構成によらず、常に警告音を出力したり、メッセージを提示したり、点滅表示を行った場合、人はそれらの警告を頻繁に受けることになり注意力が低下する恐れがある。しかし、このような構成が用いられることにより、特徴姿勢による危険の提示が有効でない場合に限って人はそれらの警告を受ける。したがって、注意力が向上し、背後からロボットが接近するような衝突の危険に対して、人は、より有効な判断を行うことができる。
図15は、実施の形態3における可動部1203の移動方向に対して同じ方向を向いている人51の視界範囲を示す図である。
人51は、危険領域31の内側にいる。そして、時刻k−1において、人51の移動により、人51と可動部1203との衝突が予想される。しかし、時刻k−1において、可動部1203は、視界74に現れない。実施の形態3における危険提示システム1020は、人51が見ることができる領域に特徴位置または特徴姿勢を提示するため、時刻k−1におけるロボット1200の姿勢を特徴姿勢として決定しない。
次に、時刻kにおいて、人51と可動部1203との衝突が予想される。そして、時刻k−1において、可動部1203は、視界74に現れる。時刻kにおけるロボット1200の位置および姿勢を特徴位置および特徴姿勢として、人51に提示した場合、人51は、人51の前方からロボット1200の可動部1203が近づくと誤認する可能性がある。
したがって、危険提示システム1020は、ロボット1200が人51の位置を通過する時刻と同じまたは後の時刻の特徴位置および特徴姿勢を人51に提示しない。この場合、危険提示システム1020は、危険を人51に通知するため、警告音出力装置1400に警告音を出力させる。または、危険提示システム1020は、表示装置1300に警告を出力させる。
なお、上述の通り、表示装置1300および警告音出力装置1400が、警告を出力する警告装置として機能してもよい。表示装置1300および警告音出力装置1400は、警告装置の例であり、危険提示システム1020は、別の警告装置を備えてよい。また、危険提示装置1120が、警告を出力する警告装置を備えてもよい。
図16は、図12に示された位置姿勢決定部1123が衝突提示位置を決定する処理を示すフローチャートである。図17は、実施の形態3における可動部1203の移動領域と人予想位置と視界範囲との関係を示す図である。以下、図16および図17を用いて位置姿勢決定部1123が行う処理の流れを説明する。
図16に示された人位置を取得する処理(S101)、変数kを1にする処理(S102)、k−1番目の動作計画を取得する処理(S103)、k番目の動作計画を取得する処理(S104)、可動部1203の移動領域を生成する処理(S105)、および、kに1を加算する処理(S108)は、図6に示された実施の形態1の処理と同様の処理であるため、記載を省略する。
また、図16に示されたk番目の時刻における人位置を予想する処理(S201)、移動領域に人予想位置が含まれるか否かを判定する処理(S202)、および、特徴位置を決定する処理(S203)は、図10に示された実施の形態2の処理と同様の処理であるため、記載を省略する。
位置姿勢決定部1123は、人位置を取得(S101)した後、人視界範囲決定部1125を用いて視界範囲を決定する(S301)。
また、位置姿勢決定部1123は、移動領域に人予想位置が含まれる場合(S202でYES)、移動領域の一部に、視界領域の一部が含まれるか否かを判定する(S302)。具体的には、位置姿勢決定部1123は、XY平面上の点(X、Y)のうち、以下の2つの条件を満たす点が予め定められた所定の数以上含まれるかを判定する。
第1の条件は、点(X、Y)が、可動部1203の移動領域を生成する処理(S105)により取得された移動領域の点であることである。
第2の条件は、点(X、Y)が、視界領域を取得する処理(S301)により取得された視界領域の点であることである。
ここで、移動領域に視界領域が含まれない場合(S302でNO)、位置姿勢決定部1123は、kに1を加えた値をkに格納する(S108)。
一方、移動領域に視界領域が含まれる場合(S302でYES)、位置姿勢決定部1123は、移動領域に人の初期位置が含まれるか否かを判定する(S305)。
ここで、移動領域に人の初期位置が含まれる場合(S305でYES)、図15に示した例のように、移動後のロボット1200の姿勢を表示することによって、人はロボット1200の移動方向を誤認する可能性がある。そのため、この場合、位置姿勢決定部1123は、警告音出力装置1400に警告音を出力させる(S304)。または、位置姿勢決定部1123は、画像生成部1104を介して、表示装置1300に警告を出力させてもよい。あるいは、位置姿勢決定部1123は、画像生成部1104を介さず、直接、表示装置1300に警告を出力させてもよい。
一方、移動領域に人の初期位置が含まれない場合(S305でNO)、位置姿勢決定部1123は、実施の形態2と同様に、特徴姿勢を決定する(S203)。
そして、位置姿勢決定部1123は、特徴位置を決定する(S306)。ここで、位置姿勢決定部1123は、実施の形態2と同様に特徴位置を決定してもよい。または、視界の中央に近い部分を特徴位置として決定してもよい。
また、位置姿勢決定部1123は、k番目の動作計画を取得する処理(S104)によりk番目の動作計画を取得できなかった場合、移動領域に人予想位置が含まれた状態があったか否かを判定する(S303)。すなわち、位置姿勢決定部1123は、移動領域に人予想位置が含まれるか否かの判定(S202)で移動領域に人予想位置が含まれると判定したことがあったか否かを判定する。
具体的には、位置姿勢決定部1123は、初期値が0の変数を用意し、移動領域に人予想位置が含まれる場合(S202でYES)、その変数に1を代入する。そして、その変数の値が1である場合、位置姿勢決定部1123は、移動領域に人予想位置が含まれた場合があったと判定(S303でYES)し、その変数の値が0である場合、移動領域に人予想位置が含まれた場合がなかったと判定(S303でNO)する。
ここで、移動領域に人予想位置が含まれた場合がなかった場合(S303でNO)、位置姿勢決定部1123は、処理を終了する。
一方、位置姿勢決定部1123は、移動領域に人予想位置が含まれた場合があった場合(S303でYES)、警告音出力装置1400に警告音を出力させる(S304)。または、位置姿勢決定部1123は、表示装置1300に警告を出力させる。これにより、危険提示システム1020は、衝突の可能性があるにも関わらず、視界に特徴姿勢または特徴位置を表示できない弊害を解消する。
なお、位置姿勢決定部1123は、視界領域に移動位置が含まれるか否かを判定する処理(S302)において、2つの条件を満たす点が予め定められた所定の数以上の場合、視界領域に移動位置が含まれると判定している。しかし、位置姿勢決定部1123は、第2の条件のみを満たす点に対する上記2つの条件を満たす点の割合が、所定の割合以上である場合、視界領域に移動位置が含まれると判定してもよい。
これにより、例えば、人が部屋の端に近い場所にいて、部屋の端の方向を見ているため、視界領域に含まれる領域が狭い場合においても、危険提示システム1020は、特徴位置または特徴姿勢を提示することができる。
また、視界領域に移動位置が含まれるか否かを判定する処理(S302)において、判定に用いられる所定の数は、人の大きさ(面積)に基づいて決定されてもよい。
すなわち、人は、一般に人よりも巨大な生物に対して恐怖を抱く傾向がある。そのため、視界内に提示されるロボットの大きさ(面積)が人の大きさより大きいか否かに基づいて、所定の数は決定されてもよい。なお、人の大きさは、カメラ等で取得した画像より人物抽出をして、決定されてもよい。また、人の大きさは、予め与えられてもよい。また、人は、人の2倍、3倍のような、より大きな生物に、より強い恐怖を抱く傾向がある。そのため、所定の数は、人の大きさと直接比較するのではなく、人の大きさの定数倍と比較することにより、決定されてもよい。
また、所定の数の値は、1であってもよい。これにより、位置姿勢決定部1123は、移動領域の少なくとも一部が視界領域に重なれば、視界領域に移動位置が含まれると判定する。
図18は、実施の形態3における人の視界に提示される特徴姿勢および特徴位置を示す図である。
ロボット1200が視界74にある。このため、人51はロボット1200の存在を知覚できる。しかし、人51は、どの方向から近づくか知覚することができない。図18に示された例の場合、ロボット1200は、動作計画に基づいて、反時計回りに回転し、人51の左から人51に近づく。
このとき、危険提示システム1020は、視界74に十分に入らない特徴姿勢81および特徴位置82の像を提示しても、人51は、危険を的確に知覚できない。したがって、危険提示システム1020は、視界74に十分に入る特徴姿勢71および特徴位置72の像を提示する。
なお、危険領域生成部1101が、動作計画部1201が保持する全ての計画を用いて危険領域31の範囲を決定する場合を示したが、ロボット1200が特徴姿勢71(または特徴位置72)に達するまでの範囲の動作計画に基づいて危険領域31を生成する構成とすることが望ましい。
例えば、図18に示すロボット1200が360度回転する場合、危険領域31は、ロボット1200が一回転する際に移動する領域となる。そのため、特徴姿勢71が提示された場合にも、ロボット1200が時計回りで近づいてくるか、反時計回りで近づいてくるかがわかりにくい。しかし、ロボット1200が特徴姿勢71に達するまでにロボット1200が移動する領域を危険領域31とした場合、ロボット1200がどちらから接近してくるかがより明確になる。
また、危険提示システム1020は、特徴姿勢71を提示し続ける替わりに、複数の特徴姿勢を切り替えてアニメーションとして動的に表示する構成としても構わない。例えば、危険提示システム1020は、特徴姿勢が視界に見えるようになる最初の姿勢である特徴姿勢81をアニメーションの最初の表示とし、特徴姿勢が視界に十分に見えるようになる姿勢である特徴姿勢71をアニメーションの最後の表示としてもよい。
また、危険提示システム1020は、前述の最初の表示と最後の表示との間の姿勢を含めてアニメーションとして提示してもよい。このような構成により、ロボット1200が反時計回りで近づいてくることが更に分かりやすくなる。
なお、このような構成によらず、動作計画部1201が保持する計画に基づいて、アニメーションが提示された場合、ロボット1200が人51の視界に入る前からアニメーションが開始され、人51の視界から見えなくなってもアニメーションが終了していない場合が発生する。
一方、本構成では、ロボット1200が視界に入る時刻、および、ロボット1200が視界に十分に見える時刻等に基づいて、アニメーションを開始する時刻、および、終了する時刻が決定される。したがって、人51がアニメーションを認識しやすくなる。そして、人51は、ロボット1200がどちらから近づいてくるかを認識しやすくなる。危険提示システム1020は、アニメーションの終了後、特徴姿勢71を提示し続けてもよいし、アニメーションの最初に戻り、繰り返して表示を行ってもよい。
以上のように、実施の形態3における危険提示システム1020は、ロボット1200の周辺に危険領域31を提示する。さらに、危険提示システム1020は、特徴姿勢71における可動部の像を提示する。危険提示システム1020が表示する危険領域と特徴姿勢を知ることで、人51は、どちらの方向に移動すれば安全かを判断することができる。
さらに、実施の形態3における危険提示システム1020は、可動部1203の位置を動作計画に基づいて時間順に推定する。そして、危険提示システム1020は、別途推定した人51の視界領域に可動部1203が含まれる時間における可動部1203の位置または姿勢を、特徴位置または特徴姿勢として人51に提示する。これにより、提示される特徴位置または特徴姿勢は、人51が見える位置に提示されることになる。したがって、人51がそれらを見落としてしまうことを避けることができる。
さらに、危険提示システム1020は、特徴位置または特徴姿勢が所定の条件を満たすまで、可動部1203の位置を時間順に推定する。そして、危険提示システム1020は、条件を満たす提示位置を決定する。これにより、危険提示システム1020は、特徴位置または特徴姿勢が視界の隅に提示されることを回避または減少させることができる。したがって、提示された特徴位置または特徴姿勢の見落としが抑制される。
さらに、実施の形態3における危険提示システム1020は、人51と可動部1203が衝突する危険があるにも係わらず、視界領域に特徴位置または特徴姿勢を見つけられない場合に警告音を発する。これにより、危険提示システム1020は、視界領域外での可動部1203との衝突を人51に警告することができる。
(実施の形態4)
実施の形態1から3において、回転型ロボットを対象とした危険提示システムが示された。そこでは、回転型ロボットの将来の姿勢を危険として提示する際、その姿勢によっては、人が危険を知覚できない場合があることが示された。そして、それに関して改良された危険提示システムが示された。
実施の形態4に係る危険提示システムは、移動型ロボットを対象とする。移動型ロボットの将来の姿勢を危険として提示する際には、ロボットの位置によっては、提示されるロボットの像が壁の後ろに隠れる。このような場合、人が危険を知覚できない。ここでは、そのような場合でも、危険を提示することが可能な危険提示システムについて説明する。
図19は、実施の形態4における作業空間2701を説明する図である。危険提示システム1030は、人51に対して、危険を知らせるための提示を行う装置である。危険提示システム1030は、ロボット1200、危険提示装置1130および表示装置1300を備える。表示装置1300は、人51に対して、危険を知らせるための表示を行うプロジェクタ等の表示手段である。危険提示装置1130は、危険を画像等として表示するためのデータを生成する。
作業空間2701には、人51、ロボット1200および壁2802がある。この図における、人51、ロボット1200および壁2802の位置関係は一例である。これらの位置関係によっては、人51はロボット1200を直接見ることができない。
このような状況において、人51が、ロボット1200と衝突する危険を予知することが困難である。よって、なんらかの方法により人51に危険を提示することが安全上、有効である。実施の形態4における危険提示システム1030は、ロボット1200がどちらから出現するかを人51に視覚的に見せることで危険を提示する。
図20は、実施の形態4における危険提示システム1030を示す図である。危険提示システム1030は、ロボット1200、危険提示装置1130および表示装置1300を備える。実施の形態4におけるロボット1200は、移動型ロボットであって、動作計画部1201、動作制御部1202および可動部1203を備える。
動作計画部1201は、ロボット1200の将来の位置を計画する。具体的には、例えば、動作計画部1201は、指定された時刻T(T=0、1、・・・)の位置P_Tを出力する。単純な構成では、動作計画部1201は、時刻Tにおけるロボット1200の位置P_Tをテーブルに予め保持している。そして、動作計画部1201は、テーブルを参照して、指定された時刻におけるロボット1200の位置P_Tを出力する。
可動部1203は、ロボット1200において物理的に移動する部分である。典型的には、可動部1203は、車輪あるいは脚部である。動作制御部1202は、可動部1203を制御する。そして、動作制御部1202は、ロボット1200を動作計画部1201が保持する動作計画に基づいて移動させる。具体的には、動作制御部1202は、時刻Tにおけるロボット1200の位置が位置P_Tになるように、可動部1203を制御する。
危険提示装置1130は、人位置取得部1102、人向き取得部1141、人視界範囲決定部1125、位置姿勢決定部1133、画像生成部1104、および、障害情報取得部1142を備える。
人位置取得部1102は、人51の位置を取得する手段である。例えば、事前に、人51が位置センサーを装備し、人位置取得部1102は、装備された位置センサーから位置を取得する。
人向き取得部1141は、ロボット1200が移動する空間内で、人51がどちらの方向を向いているかを取得する。例えば、人51が、前部と後部に位置センサーが予め備えられたヘルメットをかぶり、人向き取得部1141は、その2つのセンサーから取得した位置を結ぶ直線の方向を人51が見ていると仮定して人51の向きを決定する。
障害情報取得部1142は、人51の視界を遮る障害物の位置情報を取得する手段である。具体的には、障害情報取得部1142は、壁2802などの位置情報を取得する。
人視界範囲決定部1125は、人51の視界範囲を決定する。図21は、人51の視界範囲を説明する図である。
まず、人視界範囲決定部1125は、人位置取得部1102を用いて人51の位置を取得する。次に、人視界範囲決定部1125は、人向き取得部1141を用いて人51が向いている方向を取得する。図21において、人向きベクトル4201は、人51が向いている方向(人向き)を示すベクトルである。
次に、人視界範囲決定部1125は、障害情報取得部1142より作業空間2701における障害物の情報を取得する。例えば、図21における壁2802の位置は、人視界範囲決定部1125によって取得される。次に、人視界範囲決定部1125は、作業空間2701内の点のうち、以下の第1の条件から第3の条件を満たす点Xの集合を人視界範囲74として決定する。
第1の条件は、人51の位置および点Xを結ぶベクトルと、人向きベクトル4201とのなす角が55度以下であるという条件である。第2の条件は、人51の位置および点Xを結ぶ線分上に壁2802などの障害物がないことである。第3の条件は、人51の位置と点Xとの距離が25cm以上であることである。
図21に示された人視界範囲74は、上記を満たす人視界範囲の一例である。第1の条件は、人51の正面を中心に左右に55度の範囲が人視界範囲74に含まれることを示している。また、第2の条件は、壁2802で遮られた先は人視界範囲74に含まれないことを示している。また、第3の条件は、人51の足元など、あまりに人51に近い部分は、人視界範囲74に含まれないことを示している。
なお、ここでは、人視界範囲74は、人51の正面を中心に左右55度の範囲とされたが、これは一例であって、別の角度の範囲であっても構わない。人視界範囲74がより狭い範囲になれば、それだけ人51が見つけやすい範囲になる。また、人51が移動している速度に応じて、この角度が変えられてもよい。
例えば、人51が所定の速度よりもゆっくり動いている場合、人視界範囲74の範囲が55度の範囲であって、人51が所定の速度よりも速く動いている場合、人視界範囲74の範囲が30度の範囲であってもよい。このような構成を用いることにより、人51が速く動いていて注意力が低下していている時でも、人51は対象を見落としにくい。逆に、人51がゆっくり動いている場合、対象物は、じゃまにならない位置で提示される。
また、ここでは、人51からの距離が25cm以上離れた部分が人視界範囲74とみなされている。しかし、この距離は、一例であって、別の距離であっても構わない。人51からの距離がより長い距離になれば、それだけ、人視界範囲74は人51が見つけやすい範囲になる。また、人51が移動している速度に応じて、この距離が変えられてもよい。
例えば、人51が所定の速度よりもゆっくり動いているとき場合、人視界範囲74は人51からの距離が25cmであって、人51が所定の速度よりも速く動いている場合、人視界範囲74は人51からの距離が50cmであってもよい。このような構成により、人51が速く動いていて注意力が低下していている時でも、人51は対象を見落としにくい。逆に、人51がゆっくり動いている場合、対象物は、じゃまにならない位置で提示される。
また、ここでは、人視界範囲決定部1125は、人の位置、人の向き、および、障害の情報によって、人視界範囲74を決定している。しかし、人視界範囲決定部1125は、これらのいずれかから、人視界範囲74を推定してもよい。
位置姿勢決定部1133は、ロボット1200の接近を人51に知らせるために、作業空間2701に表示されるロボット1200の画像の位置を決定する。詳細は後述する。
画像生成部1104は、ロボット1200の接近を人51に知らせるために、作業空間2701に表示されるロボット1200の画像を生成する。また、画像生成部1104は、人51にロボット1200の接近を知らせるために表示するロボット1200の表示形式を決定する。表示形式を決定する処理は、図示しない表示形式決定部によって実行されてもよい。画像生成部1104による表示形式決定処理の詳細は後述する。
表示装置1300は、位置姿勢決定部1133が決定した位置に、画像生成部1104で決定した表示形式でロボット1200を提示する。具体的には、表示装置1300は、プロジェクタ等の手段である。
以下に、本実施の形態に係る課題を説明する。まず、壁2802がなければ、問題がないことを説明する。次に、壁2802があると、問題が発生することを説明する。その後に、壁2802があっても、問題を生じさせない方法を説明する。
まず、位置姿勢決定部1133が、単純に所定時間後のロボット1200の位置を提示する場合を説明する。作業空間2701に、壁2802がない場合と、壁2802がある場合との概要を順に説明する。まず、壁2802がない場合の概要を図22から図25を用いて説明する。
図22は、時刻0におけるロボット1200と、人51と、ロボット1200の像2902との位置関係を示す図である。ロボット1200の像2902は、時刻0から所定時間後のロボット1200の位置の像である。ここでは所定時間を2とする。ロボット1200の像2902は、時刻2におけるロボット1200の位置を示す像である。図中の矢印は、時刻0以降のロボット1200の移動経路を示す。作業空間には、実際には、このような線は、示されていない。
移動経路は、人51がいる場所を含む。したがって、人51が回避をしなければ、人51とロボット1200は接触する。あるいは、ロボット1200が衝突を回避するために、迂回または停止等をしなければならない。しかし、ロボット1200が迂回または停止をした場合、ロボット1200の作業効率は低下する。作業空間2701を人51とロボット1200とが共有して、効率的に作業を行うには、人51は、ロボット1200の計画を把握して、自分がよけるか否かを判断することが望ましい。
人視界範囲74は、時刻0における人51の視界範囲である。人視界範囲74には、ロボット1200、および、ロボット1200の像2902のいずれも含まれていない。したがって、人51は、ロボット1200の接近を予知することはできない。
図23は、時刻4におけるロボット1200と、人51と、ロボット1200の像2902との位置関係を示す図である。ロボット1200の像2902は、時刻4から所定時間後(すなわち時刻6)のロボット1200の位置を示す像である。人視界範囲74は、時刻4における人51の視界範囲である。人視界範囲74には、ロボット1200の像2902が含まれている。したがって、人51はロボット1200の接近を予知することができる。すなわち、人51は、後ろに避ける等の回避行動の準備を開始できる。
図24は、時刻6におけるロボット1200と、人51と、ロボット1200の像2902との位置関係を示す図である。ロボット1200の像2902は、時刻6から所定時間後(すなわち時刻8)のロボット1200の位置を示す像である。人視界範囲74は、時刻6における人51の視界範囲である。人視界範囲74には、ロボット1200と、ロボット1200の像2902が含まれている。人51は、図23の時刻にすでに回避準備をはじめている。したがって、人51は、この時刻には実際の移動を開始することができる。そのため、この時点で、人51は、移動を開始する。
図25は、時刻8におけるロボット1200と、人51と、ロボット1200の像2902との位置関係を示す図である。ロボット1200の像2902は、時刻8から所定時間後(すなわち時刻10)のロボット1200の位置を示す像である。人視界範囲74は、時刻6における人51の視界範囲である。人視界範囲74には、ロボット1200と、ロボット1200の像2902が含まれている。時刻8におけるロボット1200の位置は、時刻0において人51がいた位置とほぼ同じ位置である。しかし、人51はすでに回避行動をしているため、衝突は避けられる。
以上のように、ロボット1200の将来の位置の像2902を提示することで、人51は、ロボット1200との衝突を回避することができる。しかし、壁2802がある場合、人51は、衝突を回避できない可能性がある。これを図26から図29を用いて説明する。
図26は、時刻0におけるロボット1200と、人51と、ロボット1200の像2902との位置関係を示す図である。図22の場合と同様、時刻0における人視界範囲74には、ロボット1200、および、ロボット1200の像2902のいずれも含まれていない。よって、人51は、ロボット1200の接近を予知することはできない。
図27は、時刻4におけるロボット1200と、人51と、ロボット1200の像2902との位置関係を示す図である。ロボット1200の像2902は、時刻4から所定時間後(すなわち時刻6)のロボット1200の位置を示す像である。人視界範囲74は、時刻4における人51の視界範囲である。人視界範囲74には、ロボット1200の像2902が含まれていない。したがって、人51はロボット1200の接近を予知することができない。よって、図23の場合と異なり、人51は、回避行動の準備を開始できない。
図28は、時刻6におけるロボット1200と、人51と、ロボット1200の像2902との位置関係を示す図である。ロボット1200の像2902は、時刻6から所定時間後(すなわち時刻8)のロボット1200の位置を示す像である。この時刻になって、人視界範囲74にやっとロボット1200の像2902が含まれる。この時点で、人51は回避行動の準備を開始する。
図24の場合、人51は回避を開始したのに対し、図28の場合、同じ時刻であるが、人51はやっと回避の準備を始めている。すなわち、人51の回避は遅れている。
図25は、時刻8におけるロボット1200と、人51と、ロボット1200の像2902との位置関係を示す図である。回避が遅れた結果、人51は、ロボット1200と衝突してしまう。
以上のように、人51は、提示されたロボット1200の像2902を壁2802により見ることができない。したがって、人51は、回避行動の開始が遅れ、ロボット1200と衝突してしまう場合がある。そこで、実施の形態4における危険提示システム1030は、人51の人視界範囲74を考慮して、ロボット1200の像2902の位置を決定する。図30を用いて、危険提示システム1030が行う処理を説明する。
まず、位置姿勢決定部1133は、人視界範囲決定部1125に人視界範囲74の取得の指示(コマンド)を出す。指示を受けた人視界範囲決定部1125は、人位置取得部1102より人51の位置を取得する(S2501)。
次に、人視界範囲決定部1125は、人向き取得部1141より人51の向きを取得する(S2502)。
次に、人視界範囲決定部1125は、人位置取得部1102より取得した人51の位置と人向き取得部1141より取得した人51の向きを取得し、人視界範囲74を決定する(S2503)。詳細は実施の形態3と同様である。人視界範囲決定部1125は、取得した人視界範囲74を位置姿勢決定部1133に通知する。
次に、位置姿勢決定部1133は、変数TにT0を代入する(S2504)。変数Tは、現在よりどれだけ後の時間のロボット位置を提示するかの仮の値を保持する変数である。例えば、変数Tの値が2である場合、2秒後のロボット1200の予想位置にロボット1200を示す像2902を提示する。以下の処理で、位置姿勢決定部1133は、変数Tの値を変えながら最終的な変数Tの値を決定する。ここでは、変数Tに代入される初期値T0が「2」であることが想定されている。
次に、位置姿勢決定部1133は、動作計画部1201から現在よりも時間Tだけ後のロボット1200の位置を取得する(S2505)。
次に、位置姿勢決定部1133は、時間T後のロボット1200の位置が、人視界範囲74に含まれるか否かを判定する(S2506)。判定の方法は実施の形態3と同様である。
ここで、時間T後のロボット1200の位置が、人視界範囲74に含まれない場合(S2506でNO)、位置姿勢決定部1133は、変数Tに1を加える(S2507)。そして、位置姿勢決定部1133は、再び、動作計画部1201から時間T後のロボット1200の位置を取得する(S2505)。つまり、位置姿勢決定部1133は、時刻Tにおけるロボット1200の位置が、人視界範囲74に含まれない場合、人視界範囲74に含まれるようになるまで、時刻を1単位ずつ進める。
一方、時間T後のロボット1200の位置が、人視界範囲74に含まれる場合(S2506でYES)、位置姿勢決定部1133は、時間T後のロボット1200の位置を特徴位置(以下、表示位置とも呼ぶ)として決定する。そして、画像生成部1104は、ロボット1200の像2902を表示する色、および、輪郭線の太さ等の表示形式を決定する(S2508)。そして、画像生成部1104は、表示位置に像2902を表示するための画像データを生成する。
ここで、画像生成部1104がロボット1200を示す像2902の表示形式を変えることで、人51は衝突までどの程度の時間があるかを把握しやすくなる。詳細は後述する。
最後に、表示装置1300は、位置姿勢決定部1133が決定した位置に、画像生成部1104が決定した表示形式で、ロボット1200の像2902を表示する(S2509)。
なお、図31は、図30に示された処理の変形例を示すフローチャートである。図31では、位置姿勢決定部1133は、変数Tに1を加算した後(S2507)、変数Tが最大値T_MAXよりも小さいか否かを判定する(S2510)。そして、変数Tが最大値T_MAXよりも小さい場合(S2510でYes)、図30に示された処理と同様に、位置姿勢決定部1133は、再び、動作計画部1201から時間T後のロボット1200の位置を取得する(S2505)。
一方、変数Tが最大値T_MAX以上である場合(S2510でNo)、危険提示システム1030は、処理を終了する。これにより、遠い未来におけるロボット1200の像2902は表示されない。すなわち、危険が小さい状態では、像2902は表示されない。
また、ここでは、危険提示システム1030が一回の危険提示を行う処理について説明されたが、危険提示システム1030は、実際には、一定時間間隔毎に複数回の危険提示を行ってもよい。
次に、画像生成部1104が行う表示形式決定処理を説明する。危険提示システム1030では、作業空間2701に提示されるロボット1200の像2902は、時間T0後のロボット1200の位置に提示される場合もあれば、時間T0+1、T0+2、・・・後のロボット1200の位置に提示される場合もある。よって、人51は、自分が見たロボット1200の像2902から、ロボット1200がいつ頃近づいてくるかを知ることができない。
そこで、画像生成部1104は、決定された表示位置にロボット1200が到達するまでの時間が短い場合には、より目立つ表示形式でロボット1200の像2902が表示されるように、表示形式を決定する。逆に、画像生成部1104は、決定された表示位置にロボット1200が到達するまでの時間が長い場合には、より目立たない表示形式でロボット1200の像2902が表示されるように、表示形式を決定する。
例えば、画像生成部1104は、表示位置にロボット1200が到達するまでの時間が短い場合には、ロボット1200を示す像2902の明度を高い値にする。すなわち、画像生成部1104は、像2902を明るい表示にする。逆に、画像生成部1104は、表示位置にロボット1200が到達するまでの時間が長い場合には、ロボット1200を示す像2902を低い明度にする。
また、例えば、表示位置にロボット1200が到達するまでの時間が所定の時間より短い場合には、到達するまでの時間が所定の時間以上の場合よりも、画像生成部1104は、像2902を明るい表示にして、像2902を目立つようにする。ただし、もし部屋が照明によって明るくなっている場合には、画像生成部1104は、像2902の部分に照明があまり当たらないようにすることにより、像2902を暗くして、像2902を目立つようにしてもよい。
また、例えば、画像生成部1104は、表示位置にロボット1200が到達するまでの時間が短い場合には、ロボット1200を示す像2902の輪郭線を太くする。一方、画像生成部1104は、表示位置にロボット1200が到達するまでの時間が長い場合には、ロボット1200を示す像2902の輪郭線を細くする。
また、例えば、表示位置にロボット1200が到達するまでの時間が所定の時間より短い場合には、到達するまでの時間が所定の時間以上の場合よりも、画像生成部1104は、輪郭線を太くして像を目立つようにする。
また、例えば、画像生成部1104は、表示位置にロボット1200が到達するまでの時間を示す値を、ロボット1200の像2902の周辺に提示するための画像データを生成する。
以下、画像生成部1104の処理の流れについて図32を用いて説明する。なお、以下の処理は、図30に示されたフローチャートにおける表示形式決定処理(S2508)の例である。
まず、画像生成部1104は、ロボット表示色の決定を行う(S2601)。例えば、画像生成部1104は、「(明度の最大値)×T0/(変数Tの値)」(式1)により値を算出し、算出した値をロボット1200の表示色に割り当てる。ここで、明度の最大値とは例えば、白の明度が「255」、黒の明度が「0」と仮定された場合、「255」(白の明度)が明度の最大値である。
また、「T0/(変数Tの値)」(式2)は、変数Tの値が「T0」の場合、「1」であり、変数Tの値が「T0×2」の場合、「1/2」である。すなわち、表示位置にロボット1200が到達するまでの時間が短い場合、式2の値は「1」であり、時間が長いほど式2の値はそれよりも小さい値になる。したがって、画像生成部1104は、表示位置にロボット1200が到達するまでの時間が短い場合、ロボット1200の像2902の明度を高い値に設定し、長い場合、明度を低い値に設定する。
次に、画像生成部1104は、ロボット1200の像2902を表示する際の輪郭線の太さを決定する(S2602)。
例えば、画像生成部1104は、「5×T0/(変数Tの値)」(式3)により、輪郭線の太さを決定する。式3の値は、変数Tの値が「T0」の時は「5」であり、変数Tの値が「T0×2」の時は「2.5」である。すなわち、表示位置にロボット1200が到達するまでの時間が短い場合には、式3の値は「5」であり、時間が長いほど式3の値はそれよりも小さい値になる。
すなわち、画像生成部1104は、表示位置にロボット1200が到達するまでの時間が短い場合には、ロボット1200の像2902の輪郭線を太くし、時間が長い場合には輪郭線を細くする。
次に、画像生成部1104は、表示位置にロボット1200が到達するまでの時間の値を決定する(S2603)。決定した値は、表示装置1300によって、ロボット1200の像2902の周辺に提示される。具体的には、この値は、変数Tの値であって、表示位置にロボット1200が到達するまでの時間を示す値である。画像生成部1104は、必要に応じて、その値に対し、小数点以下の切り捨て、または、秒への変換などの変換処理を行う。
本手法を用いた場合の概要を図33から図36を用いて説明する。
図33は時刻0におけるロボット1200と、人51と、ロボット1200の像2902との位置関係を示す図である。ロボット1200の像2902は、時刻0から時間8後のロボット1200の位置の像である。ここで「8」は、所定時間の「2」以降で、ロボット1200の像2902が人視界範囲74に含まれる時間である。この時、ロボット1200の周囲にはその位置までの到達時間3702が表示される。
また、ロボット1200の像2902の明度は、「255×2/8」(式1)である。すなわち、明度は、「63.75」である。輪郭の太さは、式3より「5×2/8」である。すなわち、輪郭の太さは、「1.25」である。
図33に示された人51は、ロボット1200が壁の後ろから接近していることを知ることができる。また、ロボット1200の像2902が提示されている位置は、人51に近いが、像2902の明度が薄く、輪郭が比較的細い。したがって、人51は、まだ衝突までには時間的な余裕があり、現在の作業を続けられると判断することができる。
図34は、時刻4におけるロボット1200と、人51と、ロボット1200の像2902との位置関係を示す図である。ロボット1200の像2902は、時刻4から時間4後のロボット1200の位置の像である。人視界範囲74は、時刻4における人51の視界範囲である。この時、人視界範囲74にはロボット1200の像2902が含まれているので、人51はロボット1200の接近を予知することができる。
ロボット1200の像2902の明度は、「255×2/4」(式1)である。すなわち、明度は、「127.5」である。輪郭の太さは、式3より「5×2/4」である。すなわち、輪郭の太さは、「2.5」である。人51は、図33の時よりもロボット1200の像2902の明度が明るくなり、輪郭も太くなっていることで、いよいよロボット1200の接近が近くなっていることを知ることができる。そして、人51は、回避の準備を始めることができる。
図35は、時刻6におけるロボット1200と、人51と、ロボット1200の像2902との位置関係を示す図である。ロボット1200の像2902は、時刻6から時間2後のロボット1200の位置の像である。人視界範囲74は、時刻6における人51の視界範囲である。この時、人視界範囲74にはロボット1200の像2902が含まれている。
ロボット1200の像2902の明度は、「255×2/2」(式1)である。すなわち、明度は、「255」となる。輪郭の太さは、式3より「5×2/2」となる。すなわち、輪郭の太さは、「5」となる。人51は、図34の時よりもロボット1200の像2902の明度が明るくなり、輪郭も太くなっていることで、いよいよロボット1200の接近が近くなったことを知ることがでる。また、人51は、図34の時点で回避の準備を始めているので、図35の時点で回避行動を開始することができる。
図36は、時刻8におけるロボット1200と、人51と、ロボット1200の像2902との位置関係を示す図である。ロボット1200の像2902は、時刻8から時間2後(すなわち時刻10)のロボット1200の位置を示す像である。人視界範囲74は、時刻8における人51の視界範囲であり、人視界範囲74にはロボット1200と、ロボット1200の像2902が含まれている。
時刻8におけるロボット1200の位置は、時刻0に人51がいた位置とほぼ同じ位置である。しかし、人51は、すでに回避行動をしているため、衝突は避けられる。
図37は、ロボット1200が人51に向かってくる方向とは逆の方向に人51が向いている状態を示す図である。図37では、人51の場所に、ロボット1200の像2902が提示される。この場合、人51は、像2902を表示するための照明を受けている。そして、照明を受ける状態が危険であることを人51が知っている場合、人51は危険を認識できる。
また、ロボット1200が人51に近づくほど、明度が高くなり、より明るい照明を人51は受ける。したがって、人51は、明度の違いにより、危険が近づいていることを認識できる。このように、危険提示システム1030は、警告音等によらず、人51に危険を通知することができる。
以上のように、実施の形態4における危険提示システム1030は、将来の時点のロボット1200の像2902を人視界範囲74に提示する。したがって、危険提示システム1030は、適切に危険の状況を提示することができる。なお、実施の形態4では、移動型ロボットの特徴位置が提示されているが、回転型ロボットの特徴姿勢が提示されてもよい。
以上、複数の実施の形態に示されたように、本発明による危険提示システムは、ロボット周辺の危険状況を適切に提示する。そして、本発明による危険提示装置は、ロボット周辺の危険状況を適切に提示するためのデータを生成することができる。生成されたデータは、表示装置により、ロボット等の像として表示される。これにより、人はロボット周辺の危険状況を的確に知覚できる。
なお、これらの実施の形態は例であり、本発明はこれらの実施の形態に限定されるものではない。これらの実施の形態に対して当業者が思いつく変形を施して得られる形態、および、これらの実施の形態における構成要素を任意に組み合わせて実現される別の形態も、危険状況を適切に提示するためのデータを生成することが可能であり、本発明に含まれる。
また、本発明は、危険提示装置として実現できるだけでなく、危険提示装置を構成する処理手段をステップとする方法として実現できる。それらの方法に含まれるステップは、典型的には、コンピュータによって、実行される。そして、本発明は、それらの方法に含まれるステップをコンピュータに実行させるプログラムとして実現できる。さらに、本発明は、そのプログラムを記憶したCD−ROM等のコンピュータ読み取り可能な記憶媒体として実現できる。
本発明による危険提示装置は、ロボットの動作に伴う危険の状況を適切に提示するためのデータを生成することができ、特に、ロボットの付近で人が作業を行う生産現場等で利用できる。
31 危険領域
51、9061 人
61、71、81 特徴姿勢
72、73、82 特徴位置
74 視界(人視界範囲)
1000、1010、1020、1030 危険提示システム
1100、1110、1120、1130 危険提示装置
1101 危険領域生成部
1102 人位置取得部
1103、1113、1123、1133 位置姿勢決定部
1104 画像生成部
1125 人視界範囲決定部
1141 人向き取得部
1142 障害情報取得部
1200 ロボット
1201 動作計画部
1202 動作制御部
1203 可動部
1300 表示装置
1400 警告音出力装置
2001 ベース部
2002 物体
2701 作業空間
2802 壁
2902 像
3702 到達時間
4201 ベクトル
9001 移動ロボット
9011、9012 腕部
9060 危険範囲
9101、9102、9103、9104 プロジェクタ

Claims (21)

  1. 人の位置である人位置を取得する人位置取得部と、
    前記人位置取得部で取得された前記人位置に依存させて、前記人の視界範囲を決定する人視界範囲決定部と、
    動作計画に従って動作するロボットの少なくとも一部が前記視界範囲に含まれる時刻であり、かつ前記動作計画より定められる所定時刻毎の前記ロボットの動作する領域内に前記人位置が含まれる時刻よりも所定前の時刻である特定時刻を特定し、前記特定時刻における前記ロボットの位置、および、前記特定時刻における前記ロボットの姿勢のうち少なくとも一方を含む位置姿勢を決定する位置姿勢決定部と、
    前記位置姿勢決定部で決定された前記位置姿勢を示すための画像データを生成する画像生成部とを備える
    危険提示装置。
  2. 前記危険提示装置は、さらに、前記ロボットが動作する領域を危険領域として、前記動作計画に従って生成する危険領域生成部を備え、
    前記位置姿勢決定部は、前記人位置および前記動作計画から、前記人と前記ロボットとの衝突が予想される時刻を含む期間内の前記特定時刻における前記位置姿勢を決定し、
    前記画像生成部は、前記位置姿勢決定部で決定された前記位置姿勢と、前記危険領域とを示すための前記画像データを生成する
    請求項1に記載の危険提示装置。
  3. 前記位置姿勢決定部は、前記衝突が予想される時刻よりも前の時刻である前記特定時刻における前記位置姿勢を決定する
    請求項2に記載の危険提示装置。
  4. 人の位置である人位置を取得する人位置取得部と、
    前記人位置取得部で取得された前記人位置に依存させて、前記人の視界範囲を決定する人視界範囲決定部と、
    動作計画に従って動作するロボットの少なくとも一部が前記視界範囲に含まれる時刻であり、かつ前記人位置と前記ロボットが動作している位置との距離が予め定められた距離以上となっている時刻であって、かつ前記人位置および前記動作計画から前記人と前記ロボットとの衝突が予想される時刻よりも前の時刻であって、かつ前記衝突が予想される時刻に最も近い時刻である特定時刻を特定し、前記特定時刻における前記ロボットの位置、および、前記特定時刻における前記ロボットの姿勢のうち少なくとも一方を含む位置姿勢を決定する位置姿勢決定部と、
    前記位置姿勢決定部で決定された前記位置姿勢を示すための画像データを生成する画像生成部とを備える
    険提示装置。
  5. 人の位置である人位置を取得する人位置取得部と、
    前記人位置取得部で取得された前記人位置に依存させて、前記人の視界範囲を決定する人視界範囲決定部と、
    動作計画に従って動作するロボットの少なくとも一部が前記視界範囲に含まれる時刻であり、かつ前記人位置取得部で取得された前記人位置から、所定時間経過後の前記人の位置を前記人位置として予想し、予想した前記人位置および前記動作計画から前記人と前記ロボットとの衝突を予想し、前記衝突が予想される時刻を含む期間内の時刻である特定時刻を特定し、前記特定時刻における前記ロボットの位置、および、前記特定時刻における前記ロボットの姿勢のうち少なくとも一方を含む位置姿勢を決定する位置姿勢決定部と、
    前記位置姿勢決定部で決定された前記位置姿勢を示すための画像データを生成する画像生成部とを備える
    険提示装置。
  6. 前記位置姿勢決定部は、前記衝突が予想される時刻である前記特定時刻における前記位置姿勢を決定する
    請求項5に記載の危険提示装置。
  7. 前記位置姿勢決定部は、前記人と前記ロボットとの衝突が予想される場合、かつ、前記特定時刻に該当する時刻が存在しない場合、警告出力装置に警告を出力させる
    請求項のいずれか1項に記載の危険提示装置。
  8. 前記位置姿勢決定部は、前記特定時刻が、前記人位置取得部で取得された前記人位置を前記ロボットが通過する時刻と同じまたは後の時刻である場合、警告出力装置に警告を出力させる
    請求項のいずれか1項に記載の危険提示装置。
  9. 前記画像生成部は、前記特定時刻が、前記人位置取得部で取得された前記人位置を前記ロボットが通過する時刻よりも前の時刻である場合、前記画像データを生成する
    請求項に記載の危険提示装置。
  10. 前記危険提示装置は、さらに、
    前記人の向きである人向きを取得する人向き取得部と、
    前記視界範囲を遮る障害の情報である障害情報を取得する障害情報取得部とを備え、
    前記人視界範囲決定部は、前記人位置取得部で取得された前記人位置と、前記人向き取得部で取得された前記人向きと、前記障害情報取得部で取得された前記障害情報とに依存させて、前記視界範囲を決定する
    請求項1〜のいずれか1項に記載の危険提示装置。
  11. 前記画像生成部は、現在から前記特定時刻までの到達時間と、前記位置姿勢とを示すための前記画像データを生成する
    請求項1〜10のいずれか1項に記載の危険提示装置。
  12. 前記画像生成部は、現在から前記特定時刻までの到達時間に依存させて、前記位置姿勢の表示形式を決定し、決定した前記表示形式で前記位置姿勢を示すための前記画像データを生成する
    請求項1〜11のいずれか1項に記載の危険提示装置。
  13. 前記画像生成部は、前記到達時間が第1の時間である場合に、前記到達時間が前記第1の時間よりも長い第2の時間である場合よりも明度が高くなるように、前記表示形式を決定し、決定した前記表示形式で前記位置姿勢を示すための前記画像データを生成する
    請求項12に記載の危険提示装置。
  14. 請求項1〜13のいずれか1項に記載の危険提示装置を備える
    危険提示システム。
  15. 前記危険提示システムは、さらに、前記動作計画に従って動作する前記ロボットを備える
    請求項14に記載の危険提示システム。
  16. 前記危険提示システムは、さらに、前記画像生成部で生成された前記画像データを画像として提示する表示装置を備える
    請求項14または15に記載の危険提示システム。
  17. 前記危険提示システムは、さらに、警告音を出力する警告音出力装置を備える
    請求項1416のいずれか1項に記載の危険提示システム。
  18. 人の位置である人位置を取得する人位置取得ステップと、
    前記人位置取得ステップで取得された前記人位置に依存させて、前記人の視界範囲を決定する人視界範囲決定ステップと、
    動作計画に従って動作するロボットの少なくとも一部が前記視界範囲に含まれる時刻であり、かつ前記動作計画より定められる所定時刻毎の前記ロボットの動作する領域内に前記人位置が含まれる時刻よりも所定前の時刻である特定時刻を特定し、前記特定時刻における前記ロボットの位置、および、前記特定時刻における前記ロボットの姿勢のうち少なくとも一方を含む位置姿勢を決定する位置姿勢決定ステップと、
    前記位置姿勢決定ステップで決定された前記位置姿勢を示すための画像データを生成する画像生成ステップとを含む
    危険提示方法。
  19. 人の位置である人位置を取得する人位置取得ステップと、
    前記人位置取得ステップで取得された前記人位置に依存させて、前記人の視界範囲を決定する人視界範囲決定ステップと、
    動作計画に従って動作するロボットの少なくとも一部が前記視界範囲に含まれる時刻であり、かつ前記動作計画より定められる所定時刻毎の前記ロボットの動作する領域内に前記人位置が含まれる時刻よりも所定前の時刻である特定時刻を特定し、前記特定時刻における前記ロボットの位置、および、前記特定時刻における前記ロボットの姿勢のうち少なくとも一方を含む位置姿勢を決定する位置姿勢決定ステップと、
    前記位置姿勢決定ステップで決定された前記位置姿勢を示すための画像データを生成する画像生成ステップとを
    コンピュータに実行させるためのプログラム。
  20. 前記位置姿勢決定部は、前記人位置と前記ロボットが動作している位置との距離が予め定められた距離以上となっている時刻であって、かつ前記衝突が予想される時刻よりも所定前の時刻である特定時刻を特定し、前記特定時刻における前記ロボットの位置、および、前記特定時刻における前記ロボットの姿勢のうち少なくとも一方を含む位置姿勢を決定する
    請求項2に記載の危険提示装置。
  21. 前記ロボットの少なくとも一部が前記視界範囲に含まれる時刻とは、前記ロボットが前記動作計画に従って所定時間内に動作する領域である動作領域と、前記視界範囲とが予め定められた大きさ以上で重なる時刻である
    請求項1〜13、20のいずれか1項に記載の危険提示装置。
JP2011550844A 2010-01-25 2011-01-19 危険提示装置、危険提示システム、危険提示方法およびプログラム Active JP5059978B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011550844A JP5059978B2 (ja) 2010-01-25 2011-01-19 危険提示装置、危険提示システム、危険提示方法およびプログラム

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2010013658 2010-01-25
JP2010013658 2010-01-25
PCT/JP2011/000237 WO2011089885A1 (ja) 2010-01-25 2011-01-19 危険提示装置、危険提示システム、危険提示方法およびプログラム
JP2011550844A JP5059978B2 (ja) 2010-01-25 2011-01-19 危険提示装置、危険提示システム、危険提示方法およびプログラム

Publications (2)

Publication Number Publication Date
JP5059978B2 true JP5059978B2 (ja) 2012-10-31
JPWO2011089885A1 JPWO2011089885A1 (ja) 2013-05-23

Family

ID=44306687

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011550844A Active JP5059978B2 (ja) 2010-01-25 2011-01-19 危険提示装置、危険提示システム、危険提示方法およびプログラム

Country Status (4)

Country Link
US (1) US8816874B2 (ja)
JP (1) JP5059978B2 (ja)
CN (1) CN102686371B (ja)
WO (1) WO2011089885A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101859350B1 (ko) * 2014-07-16 2018-05-18 엑스 디벨롭먼트 엘엘씨 로봇 디바이스에 대한 가상 안전 케이지

Families Citing this family (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5523386B2 (ja) * 2011-04-15 2014-06-18 三菱電機株式会社 衝突回避装置
DE112012005650B4 (de) * 2012-01-13 2018-01-25 Mitsubishi Electric Corporation Risikomesssystem
JP5978028B2 (ja) * 2012-06-28 2016-08-24 本田技研工業株式会社 移動ロボットの制御装置
ITRN20120036A1 (it) * 2012-07-09 2014-01-10 Wide Automation S R L Sistema e procedimento di supervisione
US9694497B2 (en) 2012-07-10 2017-07-04 Siemens Aktiengesellschaft Robot arrangement and method for controlling a robot
US9393695B2 (en) 2013-02-27 2016-07-19 Rockwell Automation Technologies, Inc. Recognition-based industrial automation control with person and object discrimination
US9804576B2 (en) * 2013-02-27 2017-10-31 Rockwell Automation Technologies, Inc. Recognition-based industrial automation control with position and derivative decision reference
US9498885B2 (en) 2013-02-27 2016-11-22 Rockwell Automation Technologies, Inc. Recognition-based industrial automation control with confidence-based decision support
US9798302B2 (en) * 2013-02-27 2017-10-24 Rockwell Automation Technologies, Inc. Recognition-based industrial automation control with redundant system input support
JP5673717B2 (ja) * 2013-03-19 2015-02-18 株式会社安川電機 ロボットシステム及び被加工物の製造方法
JP5673716B2 (ja) * 2013-03-19 2015-02-18 株式会社安川電機 ロボットシステム及び被加工物の製造方法
US9427871B2 (en) * 2013-05-06 2016-08-30 Abb Technology Ag Human safety provision in mobile automation environments
JP5850003B2 (ja) * 2013-07-26 2016-02-03 株式会社安川電機 ロボットシステム、ロボットシステムのロボット管理コンピュータ及びロボットシステムの管理方法
JP6397226B2 (ja) * 2014-06-05 2018-09-26 キヤノン株式会社 装置、装置の制御方法およびプログラム
WO2016000770A1 (de) * 2014-07-02 2016-01-07 Siemens Aktiengesellschaft Warnverfahren und robotersystem
US9373257B2 (en) * 2014-09-29 2016-06-21 Lytx, Inc. Proactive driver warning
CN104750249B (zh) * 2015-03-02 2020-02-21 联想(北京)有限公司 一种信息处理方法及电子设备
WO2016173609A1 (en) * 2015-04-27 2016-11-03 Abb Technology Ltd A movement indicator for a robot
JP6824622B2 (ja) * 2015-05-01 2021-02-03 キヤノン株式会社 ロボットの制御装置、制御方法およびシステム
DE112016002431T8 (de) * 2015-05-29 2018-04-05 Abb Schweiz Ag Verfahren und System zur robotischen adaptiven Produktion
JP6554945B2 (ja) * 2015-07-03 2019-08-07 株式会社デンソーウェーブ ロボットシステム
JP6554946B2 (ja) 2015-07-03 2019-08-07 株式会社デンソーウェーブ ロボットシステム
JP6464945B2 (ja) * 2015-07-03 2019-02-06 株式会社デンソーウェーブ ロボットシステム
JP6088605B1 (ja) * 2015-08-31 2017-03-01 ファナック株式会社 視覚センサを用いたロボットシステム
US9855664B2 (en) * 2015-11-25 2018-01-02 Denso Wave Incorporated Robot safety system
JP6657858B2 (ja) * 2015-11-30 2020-03-04 株式会社デンソーウェーブ ロボット操作システム
DE102015224309A1 (de) 2015-12-04 2017-06-08 Kuka Roboter Gmbh Darstellung variabler Schutzfelder
JP6504072B2 (ja) * 2016-02-15 2019-04-24 オムロン株式会社 作業領域推定装置、制御装置、制御システム、作業領域推定方法およびプログラム
JP2017148905A (ja) * 2016-02-25 2017-08-31 ファナック株式会社 ロボットシステムおよびロボット制御装置
US10924881B2 (en) * 2016-03-03 2021-02-16 Husqvarna Ab Device for determining construction device and worker position
DK201700203A1 (en) * 2017-03-23 2018-11-27 Mrr Safety system for collaborative robot
JP2018176397A (ja) * 2017-04-21 2018-11-15 オムロン株式会社 ロボットシステム
CN108010271B (zh) * 2017-06-15 2019-06-28 深圳市远弗科技有限公司 一种看护机器人、报警系统和方法
EP3422053B1 (en) * 2017-06-28 2021-05-19 Datalogic IP Tech S.r.l. Safety system
JP2019010704A (ja) * 2017-06-30 2019-01-24 Idec株式会社 照光表示装置
DE102017009641A1 (de) 2017-10-17 2019-04-18 Kuka Deutschland Gmbh Verfahren und System zum Betreiben eines Roboterarms
EP3726328A4 (en) * 2017-12-12 2021-01-13 Sony Corporation DEVICE AND PROCESS FOR PROCESSING INFORMATION
US10676022B2 (en) 2017-12-27 2020-06-09 X Development Llc Visually indicating vehicle caution regions
KR102499576B1 (ko) * 2018-01-08 2023-02-15 삼성전자주식회사 전자 장치 및 그 제어 방법
JP7170411B2 (ja) * 2018-03-29 2022-11-14 キヤノン株式会社 情報処理装置および方法およびコンピュータプログラム、並びに監視システム
EP3584039A1 (en) * 2018-06-19 2019-12-25 BAE SYSTEMS plc Workbench system
GB2576235B (en) 2018-06-19 2021-06-09 Bae Systems Plc Workbench system
CN108972551B (zh) * 2018-07-12 2021-10-26 上海常仁信息科技有限公司 基于机器人危险动作识别和预判的智能控制系统
IT201800007934A1 (it) * 2018-08-07 2020-02-07 Universita' Degli Studi Di Siena Metodo per generare un segnale di consapevolezza di un robot collaborativo e relativo sistema hardware
CN113226674B (zh) * 2018-12-28 2024-05-31 京瓷办公信息系统株式会社 控制装置
US11295541B2 (en) * 2019-02-13 2022-04-05 Tencent America LLC Method and apparatus of 360 degree camera video processing with targeted view
US10940796B2 (en) * 2019-04-05 2021-03-09 Ford Global Technologies, Llc Intent communication for automated guided vehicles
JP7162564B2 (ja) * 2019-04-16 2022-10-28 清水建設株式会社 情報表示システムおよび情報表示方法
JP7137609B2 (ja) * 2020-12-11 2022-09-14 Idec株式会社 照光表示装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005288573A (ja) * 2004-03-31 2005-10-20 Honda Motor Co Ltd 移動ロボット
JP2009123045A (ja) * 2007-11-16 2009-06-04 Toyota Motor Corp 移動ロボット及び移動ロボットの危険範囲の表示方法

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59205298A (ja) 1983-05-06 1984-11-20 株式会社日立製作所 ロボツトの安全領域監視方法
JP3174218B2 (ja) 1994-04-21 2001-06-11 キヤノン株式会社 工業用ロボットの制御方法
JP2001001284A (ja) * 1999-06-17 2001-01-09 Nippon Telegr & Teleph Corp <Ntt> オペレータの視野情報を用いたロボット制御装置
JP4161584B2 (ja) * 2002-02-07 2008-10-08 トヨタ自動車株式会社 移動体用安全装置
JP2004171269A (ja) 2002-11-20 2004-06-17 Enii Kk 移動体衝突予測装置および移動体衝突予測方法
JP2004243427A (ja) 2003-02-12 2004-09-02 Yaskawa Electric Corp ロボット制御装置およびロボット制御方法
WO2005015466A1 (ja) 2003-08-07 2005-02-17 Matsushita Electric Industrial Co., Ltd. 生活支援システム及びその制御用プログラム
JP2005066766A (ja) * 2003-08-25 2005-03-17 Saichiro Yamashita 全面モニタ付きロボット
US7317388B2 (en) 2004-03-31 2008-01-08 Honda Motor Co., Ltd. Position detection system for mobile object
DE102004043514A1 (de) * 2004-09-08 2006-03-09 Sick Ag Verfahren und Vorrichtung zum Steuern einer sicherheitsrelevanten Funktion einer Maschine
CN100556623C (zh) * 2004-10-19 2009-11-04 松下电器产业株式会社 自动机械装置
JP4830438B2 (ja) 2005-10-04 2011-12-07 トヨタ自動車株式会社 自律移動装置
JP4811128B2 (ja) 2006-05-25 2011-11-09 トヨタ自動車株式会社 自律移動装置
CN101432103B (zh) * 2006-07-04 2012-05-23 松下电器产业株式会社 机器人手臂的控制装置
JP2008117197A (ja) 2006-11-06 2008-05-22 Denso Corp 自動運転装置の安全装置及び自動運転装置の制御方法
JP4371153B2 (ja) 2007-06-15 2009-11-25 トヨタ自動車株式会社 自律移動装置
CN101646534B (zh) * 2007-06-27 2012-03-21 松下电器产业株式会社 机器手控制装置及控制方法、机器人
JP4983458B2 (ja) 2007-07-23 2012-07-25 トヨタ自動車株式会社 自律移動装置
JP4565196B2 (ja) * 2007-08-30 2010-10-20 株式会社国際電気通信基礎技術研究所 コミュニケーションロボット
JP2009113190A (ja) 2007-11-09 2009-05-28 Toyota Motor Corp 自律動作型ロボットおよび自律動作型ロボットの動作制御方法
EP2364243B1 (en) * 2008-12-03 2012-08-01 ABB Research Ltd. A robot safety system and a method
JP4568795B2 (ja) * 2009-01-09 2010-10-27 パナソニック株式会社 ロボットアームの制御装置及び制御方法、ロボット、ロボットアームの制御プログラム、並びに、集積電子回路

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005288573A (ja) * 2004-03-31 2005-10-20 Honda Motor Co Ltd 移動ロボット
JP2009123045A (ja) * 2007-11-16 2009-06-04 Toyota Motor Corp 移動ロボット及び移動ロボットの危険範囲の表示方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101859350B1 (ko) * 2014-07-16 2018-05-18 엑스 디벨롭먼트 엘엘씨 로봇 디바이스에 대한 가상 안전 케이지
KR101859351B1 (ko) * 2014-07-16 2018-05-18 엑스 디벨롭먼트 엘엘씨 로봇 디바이스에 대한 가상 안전 케이지

Also Published As

Publication number Publication date
US20120182155A1 (en) 2012-07-19
JPWO2011089885A1 (ja) 2013-05-23
CN102686371A (zh) 2012-09-19
WO2011089885A1 (ja) 2011-07-28
US8816874B2 (en) 2014-08-26
CN102686371B (zh) 2015-01-14

Similar Documents

Publication Publication Date Title
JP5059978B2 (ja) 危険提示装置、危険提示システム、危険提示方法およびプログラム
US11420330B2 (en) Robot control device, robot, and simulation device
JP6436604B2 (ja) 演算システムによって実施される方法及びシステム
EP3410246B1 (en) Robot obstacle avoidance control system and method, robot, and storage medium
US11220002B2 (en) Robot simulation device
US8731276B2 (en) Motion space presentation device and motion space presentation method
JP6853280B2 (ja) 拡張現実ロボットシステムの可視化
US11148299B2 (en) Teaching apparatus and teaching method for robots
JP2011128899A (ja) 自律移動装置
US20220148197A1 (en) Training multi-object tracking models using simulation
WO2017021902A1 (en) System and method for gesture based measurement of virtual reality space
US20190329411A1 (en) Simulation device for robot
KR20190128988A (ko) 가려진 물체의 조작 도움
KR102029943B1 (ko) 유사 힘 디바이스
JP2008059375A (ja) 情報処理方法、情報処理装置
WO2023127096A1 (ja) シミュレーションシステム、シミュレーション方法及びシミュレーションプログラム
WO2022190537A1 (ja) 情報処理装置および情報処理方法、並びにプログラム
JP2020008892A (ja) 移動体制御装置
KR20030069710A (ko) 로봇의 목표물 추정방법

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120710

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120802

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150810

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5059978

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150