JP6690203B2 - ロボット安全システム - Google Patents

ロボット安全システム Download PDF

Info

Publication number
JP6690203B2
JP6690203B2 JP2015229604A JP2015229604A JP6690203B2 JP 6690203 B2 JP6690203 B2 JP 6690203B2 JP 2015229604 A JP2015229604 A JP 2015229604A JP 2015229604 A JP2015229604 A JP 2015229604A JP 6690203 B2 JP6690203 B2 JP 6690203B2
Authority
JP
Japan
Prior art keywords
robot
user
fence
distance
acquisition unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015229604A
Other languages
English (en)
Other versions
JP2017094450A (ja
Inventor
智哉 山本
智哉 山本
大介 川瀬
大介 川瀬
聡文 榎本
聡文 榎本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Wave Inc
Original Assignee
Denso Wave Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Wave Inc filed Critical Denso Wave Inc
Priority to JP2015229604A priority Critical patent/JP6690203B2/ja
Priority to US15/358,925 priority patent/US9855664B2/en
Priority to CN201611055537.3A priority patent/CN106808496B/zh
Publication of JP2017094450A publication Critical patent/JP2017094450A/ja
Application granted granted Critical
Publication of JP6690203B2 publication Critical patent/JP6690203B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、ロボットが設けられている場所で作業する際の安全を確保するロボット安全システムに関する。
従来、産業用のロボットを設置する場合には、ロボットの動作範囲内への立ち入りを規制する物理的な柵が設けられていることが多かった。しかし、近年では、工場のコンパクト化が促進されており、物理的な柵を設けない場合も増えつつある。この場合、ユーザが動作範囲内へ立ち入ると、ロボットに接触する可能性がある。そのため、例えば特許文献1では、ロボット側にユーザとの接触に対処するための安全対策を施すことが検討されている。
特開2015−157352号公報
しかしながら、最も安全性が高いのは、ユーザがロボットに接触しないことであると考えられる。
本発明は上記事情に鑑みてなされたものであり、その目的は、物理的な柵が設けられていない場所で作業する場合において、ユーザの安全を確保しつつ、ユーザがロボットの動作範囲内へ立ち入ってしまう可能性を低減することができるロボット安全システムを提供することにある。
まず、ユーザの視野に仮想的な柵画像を重ねて表示する場合、どのような表示態様とすればユーザにとって分かり易く、且つ、安全であるかについて検討してみる。
装着型表示器のような透過型ディスプレイで表示される仮想的な柵画像は、従来設置されていたような実物の柵とは違って動作範囲内への立ち入りを物理的に規制することはできない。また、近年では実物と同じように見えるリアルな画像を表示することも可能であると考えられるものの、単純にリアルな柵の画像を表示するだけでは、動作範囲の境界位置を示すことはできるものの、そちらに近づかないようにする心理的な抑制効果が出にくいと考えられる。その一方で、装着型表示器は、現実とは違う仮想的な画像を表示することができるというメリットがある。
そのため、仮想的な画像であることのメリットを活用することで、動作範囲に近づかないようにする心理的な抑制効果を得られるようにすることが考えられる。その反面、提示する情報が多すぎたり、複雑な提示方法を用いたりすると、情報の把握に手間取って、とっさの対処ができなくなるおそれがある。
そこで、請求項1に係る発明では、ユーザの位置を特定可能な位置情報を取得する位置情報取得部と、ユーザの視野を特定可能な視野情報を取得する視野情報取得部と、ユーザの位置および/またはユーザの視野に基づいてユーザが見ているロボットを特定する特定部と、位置情報に基づいてロボットとユーザとの間の距離を取得する距離取得部と、取得された距離に基づいて、ロボットの動作範囲の境界位置を示す仮想的な画像であって当該ロボットまでの距離に応じてその表示態様が変化する柵画像を生成する柵画像生成部と、ユーザが装着し、生成された柵画像をユーザの視野に重ねて表示する装着型表示器と、を備える。
このような構成により、ユーザの視野には、ロボットの動作範囲の境界位置を示す柵画像、つまりは、柵状の画像が表示される。そして、一般的な心理状態であれば、柵が設けられている場合には、その先に侵入しなくなると考えられる。
また、ロボットまでの距離に応じて柵画像の表示態様を変化させることにより、ロボットに近いのか遠いのか、つまりは、自身が安全な位置にいるのか危険性のある位置にいるのかを直感的に判断できるようになる。
したがって、ユーザの安全を確保しつつ、ユーザがロボットの動作範囲内へ立ち入ってしまう可能性を低減することができる。
請求項2に係る発明では、柵画像生成部は、ロボットまでの距離が近くなるほど透過率が低下する態様の柵画像を生成する。ユーザがロボットに近づかないようにするためには、ユーザが現在位置よりもロボット側に進まないようにすればよいと考えられる。この場合、ロボットに向かう方向への情報を遮断することで、心理的に先に進ませないようにすることが考えられる。これは、極端な例えではあるが、目の前が真っ暗になった場合には、一般的にはそれ以上先に進むことを躊躇すると考えられるためである。その一方で、例えば工場内を移動しているユーザに対していきなり視野を塞ぐような表示態様とすると、反って危険になるおそれがある。
そこで、ロボットまでの距離が近くなるほど透過率が低下する態様の柵画像を生成することにより、ロボットに近づくにつれてその先が見えないまたは見づらくなり、ユーザは、その方向つまりはロボットの方向への移動を躊躇する。これにより、ユーザがロボットの動作範囲内へ立ち入ってしまう可能性が低減されると期待できる。
このとき、透過率はロボットまでの距離が近くなるほど低下するため、ロボットの近傍においていきなり視野が塞がれるといった可能性を排除でき、移動中のユーザの安全を確保することができる。
請求項3に係る発明では、柵画像生成部は、ロボットまでの距離が近くなるほど表示サイズが拡大される態様の柵画像を生成する。このように柵画像の表示サイズを大きくすることで、その方向への進行が拒まれていることをユーザに明確に提示することができ、ユーザがロボットの動作範囲内へ立ち入ってしまう可能性が低減されると期待できる。
請求項4に係る発明では、柵画像生成部は、ロボットまでの距離に応じて異なる色になる態様の柵画像を生成する。日常生活においては、例えば、信号機の場合には青色は進入許可、黄色は停止、赤色は進入禁止といった区分けが行われているように、色によって危険性を区分けして提示することがある。そのため、ロボットまでの距離に応じて異なる色で柵画像を生成することにより、感覚的に分かり易い態様でユーザに危険性を提示することができる。
請求項5に係る発明では、柵画像生成部は、ユーザの視野に占める割合が、ロボットまでの距離に関わらず予め定められている範囲内となる態様の柵画像を生成する。柵画像を表示することによってロボットの動作範囲R内への立ち入りを抑制した場合であっても、その柵画像を表示したことによってユーザの視野が遮られると、反って危険になる可能性がある。そのため、ユーザの視野に占める割合が一定となるような柵画像を生成することにより、換言すると、ユーザの視野を一定量確保し続けることにより、移動中の安全性を高めることができるとともに、ロボットに近づいた場合であっても、とっさの対処を妨げることがない。
請求項6に係る発明では、柵画像生成部は、ユーザの視野の中心を基準とした予め設定されている表示規制範囲を避ける態様の柵画像を生成する。これにより、ユーザの視野を一定量確保し続けることができ、移動中の安全性を高めることができるとともに、ロボットに近づいた場合であっても、とっさの対処を妨げることがない。
請求項7に係る発明では、柵画像生成部は、ロボットがユーザの視野に入るまでのユーザの移動軌跡に基づいて、表示態様が段階的に変化する態様の柵画像を生成する。具体的には、ユーザがロボットに接近する向きに移動していた場合には、ロボットとの距離が遠いときの表示態様から現在位置における表示態様まで段階的に変化する態様の柵画像を生成する。一方、ユーザがロボットから離間する向きに移動していた場合には、ロボットの近くに位置しているときの表示態様から現在位置における表示態様まで段階的に変化する態様の柵画像を生成する。
例えばユーザがロボットの近くに位置してロボットとは異なる方向を向いて作業しており、振り向いた際にロボットが視野に入っていきなり柵画像が表示された場合には、提示された柵画像の意味をとっさに把握できないこと等が想定される。そのため、ロボットが視野に入るまでの移動軌跡に基づいて段階的に表示態様を変化させることで、ユーザは、動作範囲への立ち入りを規制するための柵画像であること、および、自身の移動がロボットに近づいていたのか遠ざかっていたのかを把握することができる。そして、近づいていたのであれば遠ざかる方向に移動することで、危険を避けるといった対応が可能になると期待できる。
実施形態におけるロボット安全システムでの作業風景を模式的に示す図 ロボット安全システムの電気的構成を模式的に示す図 柵画像の表示態様の一例を模式的に示す図その1 柵画像の表示態様の一例を模式的に示す図その2 柵画像の表示態様の一例を模式的に示す図その3 柵画像の表示態様の一例を模式的に示す図その4 柵画像の表示態様の一例を模式的に示す図その5 柵画像の他の表示例を模式的に示す図
以下、本発明の実施形態について図1から図7を参照しながら説明する。
図1に示すように、本実施形態のロボット安全システム1は、ロボット2、コントローラ3、安全コントローラ4、および、ユーザが頭部に装着するメガネ型表示器5(装着型表示器)等により構成されている。本実施形態では、ロボット2の動作範囲R内への立ち入りを規制する物理的な柵が設けられていない状況で、ユーザがロボット2の近傍またはロボット2の近くを通って作業することを想定している。この場合、動作範囲Rは、ロボット2のアームが物理的に到達可能な範囲、より平易に言えば、ロボット2がアームを目一杯伸ばした際にそのアームが到達可能な範囲を示す可動範囲Kよりも小さく設定されている。
この場合、ユーザの作業としては、例えばロボット2に対する教示作業やロボット2が処理したワークの運び出し等が想定される。また、ユーザが純粋に移動のためにロボット2の近傍を通る場合も想定している。本実施形態では、ロボット2が実際に作業を行う際にロボット2が動作する範囲、より厳密に言えば、ロボット2が動作した際にアームやツールが移動する空間を、動作範囲Rと称している。なお、この動作範囲Rはロボット2側にも設定されており、ロボット2は、動作範囲Rを外れるような姿勢の変化を行わないように制御されている。
本実施形態では、ロボット2としていわゆる垂直多関節型ロボットを想定している。このロボット2は、一般的な構成であるため詳細な説明は省略するが、モータによって駆動される6軸分のアームを有し、第6軸アームの先端にツールが装着されて使用されるものである。ただし、ロボット2は、これに限定されず、水平多関節型ロボット、直動型ロボット、自走式ロボットあるは人型ロボットであってもよいし、それらが混在していてもよい。
このロボット2は、図2にも示すように、ロボット2の動作つまりは各軸のモータを制御するコントローラ3に接続されている。なお、コントローラ3は一般的に周知の構成のものを用いているので、換言すると、本実施形態においてはロボット2およびコントローラ3に特別な構成を必要としないので、その詳細な説明は省略する。
メガネ型表示器5は、一般的なメガネと同様にユーザが頭部に装着可能な形状に形成されており、レンズ部分に相当する透明な表示部51に画像を表示することができる。このため、メガネ型表示器5にて表示される画像は、ユーザの視野に重なって表示されることになる。換言すると、ユーザは、自身の目で見た現実の風景と、メガネ型表示器5によって表示された仮想的な画像とを併せて見ることになる。このようなメガネ型表示器5は、透過型ディスプレイとも称される。
このメガネ型表示器5は、本実施形態の場合、撮像部52、位置情報取得部53、および視野情報取得部54を備えている。本実施形態では、図1に示すように、これら撮像部52、位置情報取得部53および視野情報取得部54をモジュール化したものがメガネ型表示器5のフレームに設けられている。なお、モジュール化されておらず、個別に設けられているものであってもよい。
撮像部52は、小型のCCDカメラやCMOSカメラで構成されている。この撮像部52は、メガネ型表示器5のフレームに、ユーザの顔の向きと一致するように設けられている。そのため、撮像部52によって撮像される画像は、ユーザの視野とほぼ同一の画角となっている。換言すると、撮像部52は、ユーザが見ている風景とほぼ同一の風景を撮像する。
位置情報取得部53は、小型のGPS(Global Positioning System)ユニットで構成されており、ユーザの位置を特定可能な位置情報を取得する。なお、位置情報取得部53は、GPSユニットのように直接的に位置を特定する構成に限定されるものではなく、例えば工場の入り口等の基準位置からのユーザの移動軌跡を取得し、基準位置に対する変位量に基づいて間接的に位置を特定するような構成としてもよい。
視野情報取得部54は、ユーザの視野を特定可能な視野情報を取得する。本実施形態では、ユーザの視野が顔の向きに一致すると考えており、メガネ型表示器5に設けられている三軸の加速度センサによってメガネ型表示器5の向きを計測することで、顔の向きつまりはユーザの視野を特定している。なお、視野情報取得部54としては、加速度センサ以外で構成してもよく、例えばジャイロセンサを設けたり、上記した撮像部52で撮像した画像から視野を特定したりする構成としてもよい。
これらコントローラ3およびメガネ型表示器5は、上位の制御装置である安全コントローラ4に、各種の情報を通信可能に接続されている。この場合、安全コントローラ4とメガネ型表示器5との間は、例えば無線通信方式により直接的に接続されていてもよいし、ユーザが所持する図示しない教示装置を経由して間接的に接続されていてもよい。
この安全コントローラ4は、コントローラ3側から各ロボット2の動作状態および各コントローラ3による制御状態を特定可能な各種の情報を取得可能に構成されている。そのため、安全コントローラ4は、ロボット2のアームの回転角度やモータの通電状態等、ロボット2の動作状態を示す動作情報およびコントローラ3の制御状態を示す制御情報をリアルタイムで取得することができる。また、安全コントローラ4は、例えば工場内における基準位置を原点とした2次元座標系における各ロボット2の座標つまりはロボット2の設置位置も記憶している。
また、安全コントローラ4は、特定部41、距離取得部42、および柵画像生成部43を備えている。本実施形態では、これら特定部41、距離取得部42、および柵画像生成部43は、図示しない制御部においてプログラムを実行することによってソフトウェア的に実現されている。
特定部41は、位置情報取得部53によって取得されたユーザの位置、および/または、視野情報取得部54によって取得されたユーザの視野に基づいて、ユーザが見ているロボット2つまりはユーザの視野内に存在するロボット2を特定する。例えば、安全コントローラ4は、ユーザの近傍にロボット2が1台存在しているような場合であれば、ユーザの位置とロボット2の設置位置とからロボット2を特定することができる。あるいは、安全コントローラ4は、ユーザの近傍にロボット2が複数台存在しているような場合であれば、ユーザの位置とユーザの視野とに基づいて、ユーザが見ているロボット2を特定することができる。
距離取得部42は、位置情報取得部53によって取得された位置情報に基づいて、特定部41によって特定されたロボット2までの距離、つまりは、ユーザが見ているロボット2までの距離を取得する。
柵画像生成部43は、距離取得部42によって取得されたユーザとロボット2までの距離に基づいて、詳細は後述するが、ロボット2の動作範囲Rの境界位置を示す仮想的な画像であって、ユーザとの距離に応じてその表示態様が変化する柵画像を生成する。
次に、上記した構成の作用について説明する。
まず、ユーザの視野に仮想的な柵画像を重ねて表示する場合、どのような表示態様とすればユーザにとって分かり易く、且つ、安全であるかについて検討してみる。
メガネ型表示器5のような透過型ディスプレイで表示される仮想的な柵画像は、従来設置されていたような実物の柵とは違って動作範囲R内への立ち入りを物理的に規制することはできない。また、近年では実物と同じように見えるリアルな画像を表示することも可能であると考えられるものの、単純にリアルな柵の画像を表示するだけでは、動作範囲Rの境界位置を示すことはできるものの、そちらに近づかないようにする心理的な抑制効果が出にくいと考えられる。その一方で、メガネ型表示器5は、現実とは違う仮想的な画像を表示することができるというメリットがある。
そのため、本実施形態では、仮想的な画像であることのメリットを活用して、動作範囲Rに近づかないようにする心理的な抑制効果を得られるようにしている。以下、本実施形態による幾つかの手法について個別に説明する。なお、本実施形態のロボット安全システム1は、これらの手法のいずれか、または、複数の手法を組み合わせて実施する。
<情報遮断による手法>
ロボット2にユーザが近づかないようにするためには、ユーザが現在位置よりもロボット2側に進まないようにすればよいと考えられる。この場合、ロボット2に向かう方向への情報を遮断することで、心理的に先に進ませないようにすることが考えられる。これは、極端な例えではあるが、目の前が真っ暗になった場合には、一般的にはそれ以上先に進むことを躊躇すると考えられるためである。その一方で、例えば工場内を移動しているユーザに対していきなり視野を塞ぐような表示態様とすると、反って危険になるおそれがある。
そこで、本手法では、柵画像生成部43は、ロボット2までの距離に応じてその表示態様が変化する柵画像であって、ロボット2までの距離が近くなるほど透過率が低下する態様の柵画像を生成する。この場合、透過率は、距離に応じて線形に低下するようにしてもよいし、可動範囲Kに入ったタイミングや動作範囲Rに最接近したタイミング等で大きく透過率を変更するようにしてもよい。
具体的には、柵画像生成部43は、図3(A)に示すように、ロボット2までの距離が比較的遠い場合には、枠だけ、つまり、枠内の透過率が100%の柵画像S10を生成する。このとき、生成された柵画像S10は、メガネ型表示器5の表示部51に表示される。この場合、ユーザは、動作範囲Rの境界位置を把握することができるとともに、枠だけが表示されていることから、自身がロボット2から比較的離れた安全な位置にいることを把握することができる。
この状態からユーザがロボット2側に近づいてロボット2との距離が縮まると、柵画像生成部43は、図3(B)に示すように、枠の大きさは柵画像S10と同じであって、枠内の透過率が柵画像S10よりも低下している柵画像S11を生成する。なお、図3(B)では、透過率が低下している状態をハッチングにより模式的に示している。そして、この柵画像S11がメガネ型表示器5の表示部51に表示される。ただし、この時点では、背景が見えなくなるほど透過率を低下させないほうが好ましい。
この場合、ユーザは、透過率が低下したことから、自身がロボット2に近づいたことを把握することができる。また、透過率が下がったことによってロボット2側が見えにくくなることから、心理的にそちらに近づかないようになると考えられる。
さらにユーザがロボット2側に近づいてロボット2との距離が縮まると、柵画像生成部43は、図3(C)に示すように、枠の大きさが柵画像S11よりも大きくなるとともに、枠内の透過率が柵画像S11よりも低下している柵画像S12を生成する。なお、図3(C)では、透過率が低下している状態をハッチングにより模式的に示している。そして、この柵画像S12がメガネ型表示器5の表示部51に表示される。
この場合、ユーザは、透過率がさらに低下したことから、自身がロボット2に近づいたことを把握することができる。また、透過率が下がったことによってロボット2側が見えにくくなることから、心理的にそちらに近づかないようになると考えられる。
このとき、枠の大きさを変更するか否かは、例えばロボット2の可動範囲Kに入ったか否か等により決定するとよい。通常の作業時には動作範囲Rを超えて動作することは無いものの、可動範囲K内であれば、ロボット2のアームが届く可能性があると考えられる。そのため、可動範囲K内に入ったことを提示してユーザに注意を促すために、可動範囲Kに入ったタイミングで枠の大きさを変更するとよい。
さらにユーザがロボット2側に近づいて動作範囲Rの直前まで距離が縮まると、柵画像生成部43は、図3(D)に示すように、枠の大きさが柵画像S12よりも大きくなるとともに、枠内の透過率が柵画像S12よりもさらに低下している柵画像S13を生成する。この場合、透過率は、注意してみなければ背景が見づらい程度としてもよいし、全く見えなくしてもよい。なお、図3(D)では、透過率が低下している状態をハッチングにより模式的に示している。そして、この柵画像S13がメガネ型表示器5の表示部51に表示される。
この場合、ユーザは、透過率がさらに低下し、注意してみなければ背景が見づらい、あるいは全く見えないことから、それ以上進むのは危険と判断して、ロボット2側に近づかないようになると考えられる。
このように、情報遮断による手法では、動作範囲Rに近づかないようにする心理的な抑制効果を得るために、メガネ型表示器5に表示する柵画像を、ロボット2までの距離に応じて透過率が低下する態様で生成する。また、ロボット2までの距離が近くなるほど表示サイズを拡大している。これにより、物理的な柵が無い状況において、ユーザが動作範囲R内に立ち入ってしまう可能性を低減することができる。
また、本実施形態のロボット安全システム1の場合、上記した柵画像S10〜S13を表示したにも関わらずユーザが動作範囲R内に立ち入ってしまった場合には、柵画像については生成および表示を行わない。これは、動作範囲R内に立ち入ってしまった場合には、ユーザの視界を妨げることは反って危険であると想定されるためである。つまり、ロボット安全システム1では、仮想的な柵画像は、ロボット2の動作範囲Rよりも外側に位置しているユーザに対して、柵画像を表示する構成となっている。換言すると、柵画像生成部43は、ユーザが遠方から動作範囲Rまで移動している間において、柵画像を生成する。ただし、動作範囲R内に立ち入ってしまったユーザに対しては、ユーザの視野を遮らないような態様で、動作範囲R内に立ち入っていることを報知する報知処理は実行する。
<積極的情報提示による手法>
ロボット2にユーザが近づかないようにするためには、ロボット2側の情報を積極的に提示することで、つまり、動作する可能性のあるロボット2が存在していることを明示的に示すことで、それ以上先に進ませないようにできると考えられる。その一方で、どこまでが危険かをユーザに提示することも重要であると考えられる。
そこで、本手法では、柵画像生成部43は、ロボット2までの距離に応じてその表示態様が変化する画像であって、ロボット2までの距離が近くなるほど表示サイズが拡大される態様の柵画像を生成する。なお、本手法における表示サイズが拡大される態様とは、柵画像そのものの形状は同一であり、表示される範囲が距離に応じて大きくなる態様を意味している。より平易に言えば、遠くにある物体は小さく見えるが、近づけばその物体が大きく見えるという、現実の視点に近い態様である。
具体的には、柵画像生成部43は、図4(A)に示すように、ロボット2までの距離が比較的遠い場合には、枠だけの柵画像S20を生成する。このとき、生成された柵画像S10は、メガネ型表示器5の表示部51に表示される。この場合、ユーザは、動作範囲Rの境界位置を把握することができるとともに、枠だけが表示されていることから、換言すると、柵の細かい部分が見えていないことから、自身がロボット2から比較的離れた安全な位置にいることを把握することができる。
この状態からユーザがロボット2側に近づいてロボット2との距離が縮まると、柵画像生成部43は、図4(B)に示すように、枠と、その枠内に設けられている格子とを有する柵画像S21を生成する。そして、この柵画像S21がメガネ型表示器5の表示部51に表示される。これは、ユーザが柵に近づいたことによって、柵の細かい部分が見えるようになった状況を表している。
この場合、ユーザは、格子が見えるようになったことから、自身がロボット2に近づいたことを把握することができる。また、格子を有する柵が明示的に示されたこと、および、柵の先にロボット2が存在していることから、ロボット2が動作した場合に危険であると考えて、そちらに近づかないようになると考えられる。ただし、格子の表示が開始されるのは、ユーザがロボット2から離間した位置にいるときである。換言すると、格子が表示されたタイミングでは、ユーザは安全な位置にいることになる。
さらにユーザがロボット2側に近づいてロボット2との距離が縮まると、柵画像生成部43は、図4(C)に示すように、柵画像S21の表示サイズを拡大した態様の柵画像S22を生成する。なお、図3(C)では、柵の色をハッチングにより模式的に示している。そして、この柵画像S22がメガネ型表示器5の表示部51に表示される。
この場合、ユーザは、柵がさらに大きくなったことから、自身がさらにロボット2に近づいていることを把握することができる。また、大きく柵が表示されていることから、そちらへの移動が禁止あるいは抑制されているものと考え、心理的にもロボット2に近づかないようになると考えられる。
さらにユーザがロボット2側に近づいて動作範囲Rの直前まで距離が縮まると、柵画像生成部43は、図4(D)に示すように、柵画像S22よりも表示サイズがさらに拡大された態様の柵画像S23を生成する。そして、この柵画像S23がメガネ型表示器5の表示部51に表示される。この場合、ユーザは、あたかも目の前に柵があるように見えることから、それ以上進むのは危険と判断して、ロボット2側に近づかないようになると考えられる。
このように、積極的情報提示による手法では、動作範囲Rに近づかないようにする心理的な抑制効果を得るために、メガネ型表示器5に表示する柵画像を、ロボット2までの距離に応じて表示サイズが拡大する態様で生成する。これにより、物理的な柵が無い状況において、ユーザが動作範囲R内に立ち入ってしまう可能性を低減することができる。
また、本手法の場合も、上記した柵画像S20〜S23を表示したにも関わらずユーザが動作範囲R内に立ち入ってしまった場合には、柵画像の生成および表示を行わない。つまり、ロボット安全システム1では、仮想的な柵画像は、ロボット2の動作範囲Rよりも外側に位置しているユーザに対して、柵画像を表示する構成となっている。ただし、動作範囲R内に立ち入ってしまったユーザに対しては、例えばユーザの視野を遮らないような視界の隅に表示したり、メッセージを赤色等の警告色で点滅表示等させたりすることにより、動作範囲R内に立ち入っていることを報知する。すなわち、視野を遮るおそれのある柵画像については表示しないが、動作範囲R内に立ち入っていることをユーザに報知する報知処理は実行される。なお、メガネ型表示器に音声出力手段を設け、警告音を出力すること等により動作範囲R内に立ち入っていることをユーザに報知する構成としてもよい。
<背景の積極的提示による手法その1>
上記した積極的情報提示による手法のように、ロボット2側の情報を積極的に提示することで、それ以上先に進ませないようにできると考えられる。その一方で、危険性のある対象物つまり本実施形態で言えばロボット2を、ユーザが明確に視認できることも重要であると考えられる。
そのため、柵画像生成部43は、ユーザの視野に占める割合が、ロボット2までの距離に関わらず予め定められている範囲内となる態様の柵画像を生成する。具体的には、上記した図4(C)、(D)に例示したような柵画像S22、S23を生成する場合、柵画像生成部43は、視野内に表示された際の面積がほぼ同程度となるように柵画像S22、S23を生成する。
これにより、柵画像が表示されていない範囲、つまりは、柵画像によって遮られたり見づらくなったりすること無く、ユーザが明確に視認可能となる範囲は、その大きさが、ロボット2までの距離に関わらず、ほぼ一定となる。換言すると、ロボット2に近づくユーザの視野を、常に同じ状態で確保し続けることができる。これにより、移動中の安全性を高めることができる。
このように、背景の積極的提示による手法その1では、動作範囲Rに近づかないようにする心理的な抑制効果を得るために、メガネ型表示器5に表示する柵画像を、ユーザの視野に占める割合がロボット2までの距離に関わらず予め定められている範囲内となる態様で生成する。これにより、物理的な柵が無い状況において、ユーザが動作範囲R内に立ち入ってしまう可能性を低減することができる。
また、ユーザの視野が確保されているので、もしも動作範囲R内に立ち入ってしまった場合であっても、とっさの対応が可能になると期待できる。勿論、動作範囲R内に立ち入ってしまった場合には柵画像を表示しないようにしてもよい。
<背景の積極的提示による手法その2>
上記した積極的情報提示による手法のように、ロボット2側の情報を積極的に提示することで、それ以上先に進ませないようにできると考えられる。その一方で、危険性のある対象物つまり本実施形態で言えばロボット2を、ユーザが明確に視認できることも重要であると考えられる。
そのため、柵画像生成部43は、ユーザの視野の中央を基準とした予め設定されている表示規制範囲を避ける態様の柵画像を生成する。具体的には、図5に示すように、上記した図3(D)に例示した柵画像S13に対して、視野の中心を基準として所定の幅および所定の高さを有する表示規制範囲を設定し、その領域には画像が表示されない態様の柵画像S13Aを生成する。なお、表示規制範囲の幅や高さは、適宜設定すればよい。
これにより、ユーザが最も見ている部分を含む視野の中心を含む範囲が、柵画像によって遮られたり見づらくなったりすること無く明確になることから、ユーザの視野を常に確保し続けることができ、移動中の安全性を高めることができる。
また、本手法は、上記した積極的情報提示による手法で例示した柵画像S20(図4参照)と組み合わせて用いることもできる。その場合、柵の格子が表示規制範囲から外れるような態様となる柵画像を生成すればよい。
このように、背景の積極的提示による手法その2では、動作範囲Rに近づかないようにする心理的な抑制効果を得るために、メガネ型表示器5に表示する柵画像を、ユーザの視野の中心を基準とした予め設定されている表示規制範囲を避ける態様で生成する。これにより、物理的な柵が無い状況において、ユーザが動作範囲R内に立ち入ってしまう可能性を低減することができるとともに、ユーザの視野が確保されているので、もしも動作範囲R内に立ち入ってしまった場合であっても、ユーザが対処可能となることを期待できる。勿論、動作範囲R内に立ち入ってしまった場合には柵画像を表示しないようにしてもよい。
<提示する情報を固定する手法>
多くの情報が提示されたり、その情報が複雑な提示方法であったりすると、情報の判断に迷ってしまい、とっさの対応ができなくなる可能性がある。また、画像として提示される情報の形状等が大きく変化する場合も同様の可能性があると考えられる。
そこで、本手法では、柵画像生成部43は、ロボット2までの距離に応じてその表示態様が変化する画像であって、ロボット2までの距離が近くなるほど表示サイズが拡大される態様の柵画像を生成する。なお、本手法における表示サイズが拡大される態様とは、柵画像そのものの形状は同一であり、表示される大きさが距離に応じて大きくなる態様を意味している。より平易に言えば、画像の大きさにより、ロボット2までの距離の遠近を提示する態様である。
具体的には、柵画像生成部43は、図6(A)に示すように、ロボット2までの距離が比較的遠い場合には、枠だけの柵画像S30を生成する。このとき、生成された柵画像S30は、メガネ型表示器5の表示部51に表示される。この場合、ユーザは、動作範囲Rの境界位置を把握することができるとともに、枠だけが表示されていることから、換言すると、柵の細かい部分が見えていないことから、自身がロボット2から比較的離れた安全な位置にいることを把握することができる。
この状態からユーザがロボット2側に近づいてロボット2との距離が縮まると、柵画像生成部43は、図6(B)に示すように、枠と、その枠内に設けられている格子とを有する柵画像S31を生成する。そして、この柵画像S31がメガネ型表示器5の表示部51に表示される。これは、ユーザが柵に近づいたことによって、柵の細かい部分が見えるようになった状況を表している。
この場合、ユーザは、格子が見えるようになったことから、自身がロボット2に近づいたことを把握することができる。また、格子が明示的に示されたこと、および、その格子の先にロボット2が存在していることから、ロボット2が動作した場合に危険であると考えて、そちらに近づかないようになると考えられる。ただし、画像の形状そのものは変化していないため、ユーザは、立ち入りを規制する柵であることを容易に把握することができる。
さらにユーザがロボット2側に近づいてロボット2との距離が縮まると、柵画像生成部43は、図6(C)に示すように、柵画像S31の表示サイズを拡大した態様の柵画像S32を生成する。このとき、画像の形状そのものは変化せず、表示された際の大きさだけが大きくなっている。そして、この柵画像S32がメガネ型表示器5の表示部51に表示される。
この場合、ユーザは、柵がさらに大きくなったことから、自身がさらにロボット2に近づいていることを把握することができる。また、大きく柵が表示されていることから、そちらへの移動が禁止あるいは抑制されているものと考え、心理的にもロボット2に近づかないようになると考えられる。
さらにユーザがロボット2側に近づいて動作範囲Rの直前まで距離が縮まると、柵画像生成部43は、図6(D)に示すように、柵画像S32よりも表示サイズがさらに拡大され、視野の大部分に表示される態様の柵画像S33を生成する。そして、この柵画像S33がメガネ型表示器5の表示部51に表示される。この場合、ユーザは、あたかも目の前に柵があるように見えることから、それ以上進むのは危険と判断して、ロボット2側に近づかないようになると考えられる。
このように、提示する情報を固定する手法では、動作範囲Rに近づかないようにする心理的な抑制効果を得るために、メガネ型表示器5に表示する柵画像を、ロボット2までの距離に応じて表示サイズが拡大する態様で生成する。これにより、物理的な柵が無い状況において、ユーザが動作範囲R内に立ち入ってしまう可能性を低減することができる。
また、本手法の場合も、ユーザが動作範囲R内に立ち入ってしまった場合には、柵画像の生成および表示を行わないようにしてもよい。
<提示する情報を明示的に変更する手法>
日常生活の中では、色によって危険性を区分けして提示することがある。例えば、信号機の場合には、青色は進入許可、黄色は停止、赤色は進入禁止といった区分けが行われている。このように、危険性を色分けして提示すれば、ユーザが直感的に危険性を分かり易くなると考えられる。
そこで、本手法では、柵画像生成部43は、ロボット2までの距離に応じてその表示態様が変化する画像であって、ロボット2までの距離に応じて異なる色となる態様の柵画像を生成する。
本実施形態では、ロボット2から離れている位置では青色、ロボット2の可動範囲Kから所定距離内では黄色、ロボット2の可動範囲K内であって動作範囲R外では赤色で、柵画像を生成する。また、本実施形態では、上記した積極的情報提示による手法との組み合わせを採用している。
具体的には、柵画像生成部43は、図7(A)に示すように、ロボット2までの距離が比較的遠い場合には、枠だけの柵画像S40を生成する。このとき、生成された柵画像S40は、メガネ型表示器5の表示部51に青色で表示される。
この状態からユーザがロボット2側に近づいてロボット2との距離が縮まると、柵画像生成部43は、図7(B)に示すように、枠と、その枠内に設けられている格子とを有する柵画像S41を生成する。この場合、格子の表示が開始されたタイミングでは上記したようにユーザは安全な位置にいると想定されるため、この柵画像S41は、青色で表示されることになる。ただし、ユーザは、格子が見えるようになったことから、自身がロボット2に近づいたことを把握できる。
さらにユーザがロボット2側に近づいてロボット2との距離が縮まって可動範囲Kから所定の距離内に入ると、柵画像生成部43は、図7(C)に示すように、柵画像S41の表示サイズを拡大した態様であって、黄色で表示される柵画像S42を生成する。そして、この柵画像S32は、メガネ型表示器5の表示部51に黄色で表示される。
この場合、ユーザは、柵がさらに大きくなったこと、および画像が黄色で表示されていることから、自身がロボット2の可動範囲Kに近づいていること、つまり、危険性が高くなることを把握できる。
さらにユーザがロボット2側に近づいて可動範囲K内に入ると、柵画像生成部43は、図7(D)に示すように、柵画像S42よりも表示サイズがさらに拡大され、視野の大部分に赤色で表示される態様の柵画像S43を生成する。そして、この柵画像S33は、メガネ型表示器5の表示部51に赤色で表示される。この場合、ユーザは、あたかも目の前に柵があるように見えることから、また、画像が赤色で表示されていることから、それ以上進むのは危険と判断して、ロボット2側に近づかないようになると考えられる。
このように、提示する情報を明示的に変更する手法では、動作範囲Rに近づかないようにする心理的な抑制効果を得るために、メガネ型表示器5に表示する柵画像を、ロボット2までの距離に応じて異なる色になる態様で生成する。これにより、直感的に危険性の目安を把握することができ、物理的な柵が無い状況において、ユーザが動作範囲R内に立ち入ってしまう可能性を低減することができる。
また、本手法の場合も、ユーザが動作範囲R内に立ち入ってしまった場合には、柵画像の生成および表示を行わないようにしてもよい。また、本手法は、上記した情報遮断による手法と組み合わせてもよい。
さらに、本手法は、ユーザの移動軌跡に基づいて表示態様を変化させる手法と組み合わせてもよい。具体的には、ロボット2がユーザの視野に入ったときのロボット2までの距離と、ロボット2が視野に入るまでのユーザの移動軌跡とに基づいて、ユーザがロボット2に接近する向きに移動していた場合には、ロボット2との距離が遠いときの表示態様から現在位置における表示態様まで段階的に変化する態様の柵画像を生成する一方、ユーザがロボット2から離間する向きに移動していた場合には、ロボット2の近くに位置しているときの表示態様から現在位置における表示態様まで段階的に変化する態様の柵画像を生成する。
例えば図7(C)に示す位置がユーザの現在位置であり、そこに至るまでにロボットに近づいていた場合には、1〜2秒程度で図7(A)から図7(C)の態様まで段階的に表示態様が変化する1〜2秒程度の柵画像(柵映像)を生成することができる。一方、例えば図7(C)に示す位置がユーザの現在位置であり、そこに至るまでにロボット2から遠ざかっていた場合には、図7(D)から図7(C)の状態まで段階的に表示態様が変化する1〜2秒程度の柵画像(柵映像)を生成してもよい。
これにより、例えばユーザがロボット2の近くに位置してロボット2とは異なる方向を向いており、振り向いた際にロボット2が視野に入っていきなり柵画像が表示された場合等において、提示された画像が動作範囲Rへの立ち入りを規制するための柵画像であること、および、自身の移動がロボット2に近づいていたのか遠ざかっていたのかを容易に把握することができる。そして、近づいていたのであれば遠ざかる方向に移動することで、危険を避けるといった対応が可能になると期待できる。
このように、ロボット安全システム1は、様々な手法にてメガネ型表示器5に柵画像を表示することにより、ロボット2の動作範囲R内への立ち入る可能性を低減させている。
なお、各柵画像は一例であり、例えば図8に示すような金網状の柵画像S50を生成してもよい。
以上説明した本実施形態によれば、次のような効果を得ることができる。
ロボット安全システムは、ロボット2の動作範囲Rの境界位置を示す仮想的な画像であって当該ロボット2までの距離に応じてその表示態様が変化する柵画像を生成する柵画像生成部43、生成された柵画像をユーザの視野に重ねて表示するメガネ型表示器5等を備えている。
これにより、ユーザは、提示される画像に基づいて自身が安全な位置であるのか危険のある位置なのかを把握することができるとともに、柵状の画像が表示されることから、そちらへの侵入を回避するようになるという心理的な抑制効果が得られる。
したがって、物理的な柵が設けられていない場所で作業する場合において、ユーザがロボット2の動作範囲R内へ立ち入ってしまう可能性を低減することができる。
このとき、柵画像生成部43は、ロボット2までの距離が近くなるほど透過率が低下する態様の柵画像を生成する。これにより、先が見えないまたは見づらくなり、その方向つまりはロボット2の方向への移動を躊躇するようになり、ユーザがロボット2の動作範囲R内へ立ち入ってしまう可能性が低減されると期待できる。
また、柵画像生成部43は、ロボット2までの距離が近くなるほど表示サイズが拡大される態様の柵画像を生成する。これにより、侵入を明確に拒むように柵状の画像が表示されることから、ユーザは、その方向つまりはロボット2の方向への移動を行わなくなり、ロボット2の動作範囲R内へ立ち入ってしまう可能性が低減されると期待できる。
また、柵画像生成部43は、ロボット2までの距離に応じて異なる色になる態様の柵画像を生成する。この場合、ロボット2に近づくにつれて青色から黄色、黄色から赤色のように警告度が強い配色で色を変化させることにより、ユーザは、その方向つまりはロボット2の方向への移動を行わなくなり、ロボット2の動作範囲R内へ立ち入ってしまう可能性が低減されると期待できる。
また、柵画像生成部43は、ユーザの視野に占める割合が、ロボット2までの距離に関わらず予め定められている範囲内となる態様の柵画像を生成する。柵画像を表示することによってロボット2の動作範囲R内への立ち入りを抑制した場合であっても、その柵画像を表示したことによってユーザの視野が遮られると、反って危険になる可能性がある。そのため、ユーザの視野に占める割合が一定となるような柵画像を生成することで、つまりは、ユーザの視野を一定量確保し続けることで、移動時の安全性を高めることができる。
また、柵画像生成部43は、ユーザの視野の中心を基準とした予め設定されている表示規制範囲を避ける態様の柵画像を生成する。これによっても、ユーザの視野を一定量確保し続けることができ、移動時の安全性を高めることができる。
また、柵画像生成部43は、ロボット2がユーザの視野に入ったとき、それまでのユーザの移動軌跡に基づいて、段階的に変化する態様の柵画像を生成する。これにより、振り向いた場合にいきなり柵画像が表示され、その意味が判断できなくなるような状況を回避することができる。
本発明は、上記し又図面に記載した態様に限定されるものではなく、その要旨を逸脱しない範囲で種々の変形や拡張をすることができる。
位置情報取得部53として、例えば工場内に設置されている監視カメラ等を用い、画像処理よって位置を特定してもよい。また、位置情報取得部53は、必ずしもメガネ型表示器5に設けられていなくてもよい。例えばロボット2側に人を検知するレーザセンサや人感センサ等を設けておき、それらのセンサの検出結果に基づいて位置を特定する構成としたり、センサの検出結果と撮像部52で撮像した画像とに基づいて位置を特定する構成としたり、撮像部52によって撮像された画像に基づいてロボット2に対する相対的な位置を特定する構成としたりしてもよい。
実施形態ではロボット2との位置関係に基づいて柵画像を生成したが、撮像部52で撮像した画像に基づいてロボット2を特定し、そのロボット2の動作範囲Rを示す柵画像を生成してもよい。これにより、ユーザが実際に見ている状態に正確に一致させた状態で柵画像を表示することができる。
実施形態で示した処理を、コントローラ3やメガネ型表示器5等で分散させてもよい。例えば、コントローラ3に特定部、位置情報取得部、視野情報取得部、柵画像生成部を設けたり、メガネ型表示器5に柵画像生成部を設けたりしてもよい。この場合、安全コントローラ4から各ロボット2の仕様や設置位置を取得すること等により、コントローラ3やメガネ型表示器5において位置の特定、視野の特定、柵画像の生成等の処理を行うことができる。
また、安全コントローラ4は必須では無く、実施例で安全コントローラ4に行わせた処理をコントローラ3にて行わせることで、コントローラ3とメガネ型表示器5とによりロボット安全システム1を構成することもできる。
図面中、1はロボット安全システム、2はロボット、3はコントローラ(柵画像生成部、位置情報取得部、視野情報取得部、特定部)、4は安全コントローラ(柵画像生成部、位置情報取得部、視野情報取得部、特定部)、5はメガネ型表示器(装着型表示器、柵画像生成部、位置情報取得部、視野情報取得部、特定部)、41は特定部、42は距離取得部、43は柵画像生成部、53は位置情報取得部、54は視野情報取得部を示す。

Claims (7)

  1. ユーザの位置を特定可能な位置情報を取得する位置情報取得部と、
    ユーザの視野を特定可能な視野情報を取得する視野情報取得部と、
    前記位置情報取得部によって取得されたユーザの位置および/または前記視野情報取得部によって取得されたユーザの視野に基づいて、ユーザが見ているロボットを特定する特定部と、
    前記位置情報取得部によって取得された位置情報に基づいて、前記特定部によって特定された前記ロボットとユーザとの間の距離を取得する距離取得部と、
    前記距離取得部によって取得された距離に基づいて、前記ロボットの動作範囲の境界位置を示す仮想的な画像であって、当該ロボットまでの距離に応じてその表示態様が変化するとともに、画像に隙間があって当該画像によって遮られること無く前記ロボットの少なくとも一部を視認可能とする格子状の柵画像を生成する柵画像生成部と、
    ユーザが装着し、前記柵画像生成部で生成された前記柵画像をユーザの視野に重ねて表示する装着型表示器と、
    を備えるロボット安全システム。
  2. ユーザの位置を特定可能な位置情報を取得する位置情報取得部と、
    ユーザの視野を特定可能な視野情報を取得する視野情報取得部と、
    前記位置情報取得部によって取得されたユーザの位置および/または前記視野情報取得部によって取得されたユーザの視野に基づいて、ユーザが見ているロボットを特定する特定部と、
    前記位置情報取得部によって取得された位置情報に基づいて、前記特定部によって特定された前記ロボットとユーザとの間の距離を取得する距離取得部と、
    前記距離取得部によって取得された距離に基づいて、前記ロボットの動作範囲の境界位置を示す仮想的な画像であって当該ロボットまでの距離に応じてその表示態様が変化する柵画像を生成する柵画像生成部と、
    ユーザが装着し、前記柵画像生成部で生成された前記柵画像をユーザの視野に重ねて表示する装着型表示器と、を備え、
    前記柵画像生成部は、ユーザの視野に占める割合が、前記ロボットまでの距離に関わらず予め定められている範囲内となる態様の前記柵画像を生成するロボット安全システム。
  3. ユーザの位置を特定可能な位置情報を取得する位置情報取得部と、
    ユーザの視野を特定可能な視野情報を取得する視野情報取得部と、
    前記位置情報取得部によって取得されたユーザの位置および/または前記視野情報取得部によって取得されたユーザの視野に基づいて、ユーザが見ているロボットを特定する特定部と、
    前記位置情報取得部によって取得された位置情報に基づいて、前記特定部によって特定された前記ロボットとユーザとの間の距離を取得する距離取得部と、
    前記距離取得部によって取得された距離に基づいて、前記ロボットの動作範囲の境界位置を示す仮想的な画像であって当該ロボットまでの距離に応じてその表示態様が変化する柵画像を生成する柵画像生成部と、
    ユーザが装着し、前記柵画像生成部で生成された前記柵画像をユーザの視野に重ねて表示する装着型表示器と、を備え、
    前記柵画像生成部は、ユーザの視野の中心を基準とした予め設定されている表示規制範囲を避ける態様の前記柵画像を生成するロボット安全システム。
  4. ユーザの位置を特定可能な位置情報を取得する位置情報取得部と、
    ユーザの視野を特定可能な視野情報を取得する視野情報取得部と、
    前記位置情報取得部によって取得されたユーザの位置および/または前記視野情報取得部によって取得されたユーザの視野に基づいて、ユーザが見ているロボットを特定する特定部と、
    前記位置情報取得部によって取得された位置情報に基づいて、前記特定部によって特定された前記ロボットとユーザとの間の距離を取得する距離取得部と、
    前記距離取得部によって取得された距離に基づいて、前記ロボットの動作範囲の境界位置を示す仮想的な画像であって当該ロボットまでの距離に応じてその表示態様が変化する柵画像を生成する柵画像生成部と、
    ユーザが装着し、前記柵画像生成部で生成された前記柵画像をユーザの視野に重ねて表示する装着型表示器と、を備え、
    前記柵画像生成部は、前記ロボットがユーザの視野に入ったときの前記ロボットまでの距離と前記ロボットが視野に入るまでのユーザの移動軌跡とに基づいて、ユーザが前記ロボットに接近する向きに移動していた場合には、前記ロボットとの距離が遠いときの表示態様から現在位置における表示態様まで段階的に変化する態様の前記柵画像を生成する一方、ユーザが前記ロボットから離間する向きに移動していた場合には、前記ロボットの近くに位置しているときの表示態様から現在位置における表示態様まで段階的に変化する態様の前記柵画像を生成するロボット安全システム。
  5. 前記柵画像生成部は、前記ロボットまでの距離が近くなるほど透過率が低下する態様の前記柵画像を生成する請求項1から4のいずれか一項記載のロボット安全システム。
  6. 前記柵画像生成部は、前記ロボットまでの距離が近くなるほど表示サイズが拡大される態様の前記柵画像を生成する請求項1から5のいずれか一項記載のロボット安全シス
    テム。
  7. 前記柵画像生成部は、前記ロボットまでの距離に応じて異なる色になる態様の前記柵画像を生成する請求項1から6のいずれか一項記載のロボット安全システム。
JP2015229604A 2015-11-25 2015-11-25 ロボット安全システム Active JP6690203B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2015229604A JP6690203B2 (ja) 2015-11-25 2015-11-25 ロボット安全システム
US15/358,925 US9855664B2 (en) 2015-11-25 2016-11-22 Robot safety system
CN201611055537.3A CN106808496B (zh) 2015-11-25 2016-11-25 机器人安全系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015229604A JP6690203B2 (ja) 2015-11-25 2015-11-25 ロボット安全システム

Publications (2)

Publication Number Publication Date
JP2017094450A JP2017094450A (ja) 2017-06-01
JP6690203B2 true JP6690203B2 (ja) 2020-04-28

Family

ID=58803542

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015229604A Active JP6690203B2 (ja) 2015-11-25 2015-11-25 ロボット安全システム

Country Status (1)

Country Link
JP (1) JP6690203B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6631203B2 (ja) * 2015-11-30 2020-01-15 株式会社デンソーウェーブ バーチャルフェンス表示システム
JP7187820B2 (ja) * 2018-05-29 2022-12-13 セイコーエプソン株式会社 制御装置、ヘッドマウントディスプレイ、及びロボットシステム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4445283B2 (ja) * 2004-02-16 2010-04-07 株式会社リコー 表示システム
WO2011080882A1 (ja) * 2009-12-28 2011-07-07 パナソニック株式会社 動作空間提示装置、動作空間提示方法およびプログラム
JP5391224B2 (ja) * 2011-03-28 2014-01-15 日本電信電話株式会社 映像付加情報表示制御装置およびその動作方法
JP2012218120A (ja) * 2011-04-12 2012-11-12 Seiko Epson Corp マニピュレーター動作予告装置、ロボットシステム及びマニピュレーター動作予告方法
JP2013174730A (ja) * 2012-02-24 2013-09-05 Nikon Corp 情報表示装置
JP6020009B2 (ja) * 2012-09-28 2016-11-02 ブラザー工業株式会社 ヘッドマウントディスプレイ、それを作動させる方法およびプログラム
US10888998B2 (en) * 2013-10-07 2021-01-12 Abb Schweiz Ag Method and device for verifying one or more safety volumes for a movable mechanical unit
JP5851544B2 (ja) * 2014-03-28 2016-02-03 ソフトバンク株式会社 非透過型ヘッドマウントディスプレイ及びプログラム

Also Published As

Publication number Publication date
JP2017094450A (ja) 2017-06-01

Similar Documents

Publication Publication Date Title
CN106808496B (zh) 机器人安全系统
JP6822069B2 (ja) 監視システム、監視装置、および監視方法
JP6645142B2 (ja) ロボット安全システム
US10474411B2 (en) System and method for alerting VR headset user to real-world objects
JP6367102B2 (ja) 監視システム
US20170270362A1 (en) Responsive Augmented Content
US10712566B2 (en) Information displaying system provided with head-mounted type display
JP2012160898A (ja) 画像処理装置
JP2019157497A (ja) 監視システム、監視方法及び監視プログラム
EP3163407B1 (en) Method and apparatus for alerting to head mounted display user
JP6582921B2 (ja) ロボットモニタシステム
CN111614919B (zh) 影像记录装置以及头戴式显示器
US20190019308A1 (en) Image display device
JP6690203B2 (ja) ロボット安全システム
JP6657858B2 (ja) ロボット操作システム
JP6834620B2 (ja) 情報表示システム
JP6874448B2 (ja) 情報表示システム
JP6838027B2 (ja) ロボットシステム
JP2022122936A (ja) 情報表示システム
JP2021065971A (ja) ロボット教示システム、画像生成方法、及びプログラム
JP2020002514A (ja) ヘルメット
JP6958018B2 (ja) 情報表示システム
KR102257846B1 (ko) 입체 모델 생성 장치 및 그 영상 표시 방법
JP6367100B2 (ja) エリア監視センサ
JP2017151570A (ja) 光学安全システム、安全スキャナ用の設定支援装置及び設定支援プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180621

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190424

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190514

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190716

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191008

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200310

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200323

R150 Certificate of patent or registration of utility model

Ref document number: 6690203

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250