JP2017100207A - ロボット安全システム - Google Patents

ロボット安全システム Download PDF

Info

Publication number
JP2017100207A
JP2017100207A JP2015233298A JP2015233298A JP2017100207A JP 2017100207 A JP2017100207 A JP 2017100207A JP 2015233298 A JP2015233298 A JP 2015233298A JP 2015233298 A JP2015233298 A JP 2015233298A JP 2017100207 A JP2017100207 A JP 2017100207A
Authority
JP
Japan
Prior art keywords
user
distance
robot
information
abnormality
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015233298A
Other languages
English (en)
Other versions
JP6657859B2 (ja
Inventor
秀幸 西野
Hideyuki Nishino
秀幸 西野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Wave Inc
Original Assignee
Denso Wave Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Wave Inc filed Critical Denso Wave Inc
Priority to JP2015233298A priority Critical patent/JP6657859B2/ja
Priority to US15/364,807 priority patent/US10071481B2/en
Publication of JP2017100207A publication Critical patent/JP2017100207A/ja
Application granted granted Critical
Publication of JP6657859B2 publication Critical patent/JP6657859B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • B25J9/1676Avoiding collision or forbidden zones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/0205Simultaneously evaluating both cardiovascular conditions and different types of body conditions, e.g. heart and respiratory condition
    • A61B5/02055Simultaneously evaluating both cardiovascular condition and temperature
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2503/00Evaluating a particular growth phase or type of persons or animals
    • A61B2503/20Workers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/01Measuring temperature of body parts ; Diagnostic temperature sensing, e.g. for malignant or inflamed tissue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/32Operator till task planning
    • G05B2219/32014Augmented reality assists operator in maintenance, repair, programming, assembly, use of head mounted display with 2-D 3-D display and voice feedback, voice and gesture command
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39082Collision, real time collision avoidance
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40202Human robot coexistence
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/49Protective device

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Cardiology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physiology (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Pulmonology (AREA)
  • Manipulator (AREA)
  • Emergency Alarm Devices (AREA)
  • Alarm Systems (AREA)

Abstract

【課題】ロボットの作業領域を囲う物理的な柵を排除して人とロボットとが協働するシステムにおいて、ユーザの安全を確保する。
【解決手段】ロボット安全システム(10)は、ロボット(11)と複数のユーザ(100、A〜E)のそれぞれとの距離を取得する距離取得部(43)と、各ユーザが個別に有する個人情報又はロボットの設置環境に応じて設定される環境情報の少なくとも一方に基づいて各ユーザの危険距離を設定する危険距離設定部(44)と、各ユーザの個々に装着され各ユーザの視界内に情報を表示可能な装着型モニタと、装着型モニタに対する表示内容を制御する制御部(41)と、を備える。制御部は、ロボットとユーザとの距離が危険距離以下となった場合にロボットとユーザとの距離が危険距離以下となったことを各ユーザが装着している装着型モニタに表示させる。
【選択図】図7

Description

本発明は、人とロボットとが協働するシステムにおいてユーザの安全を確保するためのロボット安全システムに関する。
近年、人とロボットとの協働を図ったロボットシステムが構築されつつある。このようなロボットシステムでは、従来構成のようなロボットの周囲を囲う物理的な柵を排除する傾向にある。したがって、このようなロボットシステムでは、従来構成に比べて人がロボットに容易に近づくことができ、その結果、ロボットが人に衝突する危険性が高まる。
特開2015−157352号公報
本発明は上記事情に鑑みてなされたものであり、その目的は、ロボットの作業領域を囲う物理的な柵を排除して人とロボットとが協働するシステムにおいて、ユーザの安全を確保することができるロボット安全システムを提供することにある。
(請求項1)
ユーザとロボットとの協働のためにロボットの周囲に物理的な柵を設けない場合、ユーザとロボットとの衝突等を防ぐため、ユーザがロボットに対して危険距離よりも近づかないようにする必要がある。この場合、危険距離を、ユーザの熟練度、作業環境、又は作業内容に関わらず一律の値に設定すると、次のような問題が生じ得る。
例えばロボットの動作を熟知しているような熟練度の高いユーザであれば、ロボットに対して比較的近くまで接近しても問題は無い。この場合、危険距離を比較的短く設定することで、熟練度の高いユーザの安全性を確保しつつ、ロボットまでのアプローチを容易にして高い作業性を確保することができる。しかし、危険距離を短く設定することは、ロボットの動作を熟知していない熟練度の低いユーザにとっては、ロボットとの衝突の可能性が高まり危険である。そのため、熟練度の低いユーザの安全性を考慮すると、危険距離を極力長く設定することが好ましい。しかしながら、熟練度の低いユーザに合わせて危険距離を長く設定すると、ロボットまでのアプローチに時間がかかることになり、熟練度の高いユーザにとってはかえって作業性の低下を招くことになる。
また、時間帯や作業場所等の環境によっても、作業の危険度は異なる。例えば食事休憩後などの時間帯においては、ユーザの集中力は低下し易くなり、その結果、作業の危険度は高くなり易い。このように、ロボットの周囲に物理的な柵を設けない場合において、危険距離を、ユーザの熟練度、作業環境、又は作業内容に関わらず一律の値に設定すると、安全性や作業性の面から種々の問題が生じ得る。
そこで、請求項1に記載のロボット安全システムは、ロボットと複数のユーザのそれぞれとの距離を取得する距離取得部と、前記各ユーザが個別に有する個人情報又は前記ロボットの設置環境に応じて設定される環境情報の少なくとも一方に基づいて前記各ユーザの危険距離を設定する危険距離設定部と、を備える。この場合、個人情報とは、例えば各ユーザの性別、年齢、作業経験、更には体温や脈拍等の情報である。環境情報とは、例えば過去に災害が起きた時間帯や場所、災害が起きた作業内容、災害が起きた当時の気温や室温等の情報である。これによれば、危険距離設定部は、危険距離を、ユーザの熟練度や作業環境などに応じて適宜変更させて設定することができる。すなわち、危険距離を、各ユーザの熟練度や作業環境に適した値にすることができる。その結果、危険距離を一律の値に設定した場合に比べて、ユーザの安全性と作業性との両立を図ることができる。
そして、本構成のロボット安全システムは、前記各ユーザの個々に装着され前記各ユーザの視界内に情報を表示可能な装着型モニタと、前記装着型モニタに対する表示内容を制御する制御部と、を備える。前記制御部は、前記ロボットと前記ユーザとの距離が前記危険距離以下となった場合に前記ロボットと前記ユーザとの距離が前記危険距離以下となったことを各前記ユーザが装着している前記装着型モニタに表示させる処理を行うことができる。
これによれば、各ユーザの安全に関する情報つまり誰が危険距離以下までロボットに接近したかという情報を、各ユーザ間で共有することができる。したがって、あるユーザが危険距離以下までロボットに接近した場合に、例えば監督者である他のユーザが、ロボットに接近したユーザに対して注意を促したり、作業交代を指示したりする等の対応をいち早く取ることができる。その結果、人とロボットとが協働するシステムにおいて、各ユーザの安全を確保するだけでなく、作業領域全体の安全性の向上が図られる。
(請求項2)
前記制御部は、前記ロボットと前記ユーザとの距離が前記危険距離以下となった場合に、少なくとも、前記ロボットとの距離が前記危険距離以下となったユーザを示すユーザ表示と、前記ロボットとの距離が前記危険距離以下となったユーザに最も近いユーザを示すユーザ表示と、を異なる態様で前記装着型モニタに表示させる処理を行うことができる。これによれば、各ユーザは、危険距離以下になるまでロボットに接近したユーザが誰であるか、及び危険距離以下になるまでロボットに接近したユーザに最も近いユーザが誰であるかを、把握し易くなる。これにより、例えば監督者であるユーザが、ロボットに過剰に接近したユーザに対して、そのユーザに最も近い他のユーザと作業を交代する指示等を出し易くなる。その結果、各ユーザの安全をより確保し易くなる。
(請求項3)
ここで、例えばユーザの性別、年齢、作業経験等の情報を基に危険距離を設定すれば、その危険距離をユーザごとにある程度適したものとすることができる。しかしながら、作業当日のユーザの体調によっては、作業の前後や作業中にそのユーザに適した危険距離が変化する可能性がある。そこで、請求項3に記載のロボット安全システムにおいて、前記個人情報は、作業中に変化しない情報である基礎情報と、前記ユーザの生体に関する情報である生体情報と、を含んで構成されている。基礎情報とは、例えば各ユーザの性別、年齢、作業経験等の情報である。生体情報とは、作業中に変化する可能性がある情報、例えばユーザの体温や脈拍などの情報である。これによれば、危険距離設定部は、各ユーザの作業当日の体調に合った危険距離を設定することができる。その結果、各ユーザの安全性が更に確保し易くなり、作業領域全体の安全性の更なる向上が図られる。
(請求項4)
請求項4に記載のロボット安全システム10は、前記ユーザに発生した異常を検知する異常検知部を更に備える。そして、前記制御部は、異常が発生した前記ユーザ以外のユーザが装着している前記装着型モニタに対して、前記ユーザに異常が発生したことを表示させる処理を行うことができる。これによれば、各ユーザは、あるユーザに異常が発生したことをいち早く知ることができ、その異常が発生したユーザを救助する行動をいち早く取ることができる。その結果、各ユーザの安全性の更なる向上が図られる。
(請求項5)
請求項5に記載のロボット安全システムにおいて、前記制御部は、異常が発生した前記ユーザ以外の各ユーザがとるべき行動を指示する指示内容を前記各ユーザの位置に応じて前記ユーザ毎に変化させて表示させる処理を行うことができる。これによれば、各ユーザは、自分が次にどのような行動を取るべきかを迷うことなく知ることができ、その結果、異常が発生したユーザの救助活動を効率良く行うことができる。
(請求項6)
請求項6に記載のロボット安全システムにおいて、前記制御部は、異常が発生したユーザを示すユーザ表示を異常が発生していない場合とは異なる表示態様で前記異常が発生したユーザ以外のユーザである他のユーザが装着している前記装着型モニタに表示させる処理を行うことができる。これによれば、異常が発生していない他のユーザは、異常が発生したユーザを即座に認識することができる。
更に、前記制御部は、前記他のユーザに設定された前記危険距離を前記他のユーザが装着している前記装着型モニタに表示させる処理を行うことができる。これによれば、異常が発生していない他のユーザは、自己つまり他のユーザ自身に設定されている危険距離内に、異常が生じたユーザが入っているか否かを見ることで、その異常が生じたユーザの熟練度を把握することができる。つまり、異常が生じたユーザとロボットとの距離が自己に設定された危険距離よりも遠いにもかかわらず、異常が生じたユーザの状態が危険距離以下の状態となっている場合、異常が生じたユーザに設定されている危険距離は、自己に設定された危険距離よりも長いことを意味する。この場合、異常が生じたユーザの熟練度は、自己の熟練度よりも低いことを意味する。したがって、異常が生じていない他のユーザは、眼鏡型モニタに表示された自己の危険距離と異常が生じたユーザの状態とを見ることで、現在異常が生じているユーザが、自分よりも熟練度が低く早急な支援が必要であるか否かをいち早く把握することができる。
更に、本構成によれば、異常が生じていない他のユーザは、自己に設定された危険距離を確認しながら救助作業を行うことができる。これにより、例えば異常が発生したユーザの熟練度が高くそのユーザの危険距離が短く設定されている一方、自己の熟練度が低く危険距離が長く設定されている場合などにおいて、異常が発生したユーザを救助するためにロボットに接近し過ぎるといった2次災害の要因を未然に防ぐことができる。
一実施形態によるロボット安全システムの概略構成を模式的に示す図 一実施形態によるロボット安全システムの電気的構成を模式的に示すブロック図 一実施形態について、個人情報及び環境情報に係る個別係数αiを表にして示す図 一実施形態について、危険距離の概念を模式的に示す図 一実施形態について、各ユーザとロボット等との位置関係を模式的に示す図 一実施形態について、装着型モニタを通して見たユーザAの視点の一例を示す図(その1) 一実施形態について、装着型モニタを通して見たユーザAの視点の一例を示す図(その2) 一実施形態について、ユーザAの装着型モニタに表示される画像の一例を示す図 一実施形態について、ユーザBの装着型モニタに表示される画像の一例を示す図 一実施形態について、ユーザAの装着型モニタに表示される画像の一例を示す図 一実施形態について、ユーザCの装着型モニタに表示される画像の一例を示す図(その1) 一実施形態について、ユーザCの装着型モニタに表示される画像の一例を示す図(その2) 一実施形態について、ユーザDの装着型モニタに表示される画像の一例を示す図 一実施形態について、ユーザEの装着型モニタに表示される画像の一例を示す図(その1) 一実施形態について、ユーザEの装着型モニタに表示される画像の一例を示す図(その2)
以下、一実施形態について図面を参照しながら説明する。
図1及び図2に示すように、ロボット安全システム10は、ロボット11と、ロボットコントローラ12と、眼鏡型モニタ20と、装着型デバイス30と、安全装置40と、を含んで構成されている。なお、図1では、1組のロボット11及びロボットコントローラ12と、2組の眼鏡型モニタ20及び装着型デバイス30とを備えた構成を図示している。しかし、これに限られず、ロボット安全システム10は、複数組のロボット11及びロボットコントローラ12と、複数組の眼鏡型モニタ20及び装着型デバイス30と、を備えることができる。また、図2では、説明を容易にするため、1組のロボット11及びロボットコントローラ12と、1組の眼鏡型モニタ20及び装着型デバイス30と、安全装置40と、の関係を示している。
ロボット11は、例えば6軸の垂直多関節型ロボットで構成されている。一般的な構成につき詳しい説明は省略するが、ロボット11は、サーボモータにより駆動される6軸のアームを有し、第6軸アームの先端部に、例えばパレット内に収容されているワークを把持するためのハンド等を備えている。ロボット11は、ロボットコントローラ12に図示しない接続ケーブルを介して接続される。各軸のサーボモータは、このロボットコントローラ12により制御される。
ロボットコントローラ12は、図示しない制御回路やサーボ制御部、電源装置等を備えている。制御回路はマイコンを主体として構成されている。ロボットコントローラ12は、予め記憶された動作プログラムや、図示しないティーチングペンダント等により設定された教示データ、各種パラメータ等に従って、サーボ制御部を介してロボット11の各軸サーボモータを制御する。これにより、ロボットコントローラ12は、ワークの組付け作業等を各ロボット11に自動で実行させる。
眼鏡型モニタ20は、装着型モニタの一態様であり、一般的な眼鏡と同様にユーザが頭部に装着可能な形状に形成されている。眼鏡型モニタ20は、図2にも示すように、表示部21及び撮像部22を有している。表示部21は、眼鏡のレンズ部分に相当する部分であり、画像などの情報を表示することができるいわゆる透過型のディスプレイで構成されている。このため、眼鏡型モニタ20に表示される画像は、ユーザの視界に重なって表示されることになる。換言すると、ユーザは、自身の目で見た現実の風景と、眼鏡型モニタ20によって表示された仮想的な画像とを併せて見ることになる。表示部21に表示する画像は、安全装置40から受信した画像データを用いてもよいし、安全装置40からの指令に基づいて眼鏡型モニタ20自身が生成してもよい。
撮像部22は、小型のCCDカメラやCMOSカメラで構成されている。この撮像部22は、ユーザの顔の向きと一致するように、眼鏡型モニタ20のフレームの一測部に設けられている。撮像部22は、ユーザ100が眼鏡型モニタ20を頭部に装着した状態で、ユーザ100の頭部正面が向いている方向の画像を撮像する。そのため、撮像部22によって撮像される画像は、ユーザの視界とほぼ同一の画角となっている。換言すると、撮像部22は、ユーザが見ている風景とほぼ同一の風景を撮像する。眼鏡型モニタ20は、撮像部22で撮像した映像データを安全装置40へ送信する。
装着型デバイス30は、ユーザの身体に装着可能な形状に形成されている。本実施形態の場合、装着型デバイス30は、例えばユーザの腕に装着可能な腕時計型に形成されている。装着型デバイス30は、図2にも示すように、生体情報取得部31を有している。生体情報取得部31は、装着型デバイス30を装着したユーザの生体情報、例えば体温や脈拍などをリアルタイムで取得することができる。そして、装着型デバイス30は、生体情報取得部31で取得したユーザ100の生体情報を、安全装置40へリアルタイムで送信する。
なお、装着型デバイス30は、腕時計型に限られず、例えば首に巻くネックレス状や脚に巻く形状など、種々の形状に構成することができる。また、装着型デバイス30は、眼鏡型モニタ20と一体に構成してもよい。この場合、装着型デバイス30は、ユーザ100の眼球の動きや瞳孔の大きさを監視するカメラや、ユーザ100の脳波を計測するための電極などで構成することができる。
ロボットコントローラ12、眼鏡型モニタ20、及び装着型デバイス30は、それぞれ安全装置40に無線又は有線で接続されている。安全装置40は、ロボットコントローラ12側からロボット11の動作状態及びロボットコントローラ12による制御状態を特定可能な各種の情報を取得可能に構成されている。そのため、安全装置40は、ロボット11のアームの回転角度やモータの通電状態等、ロボット11の動作状態を示す動作情報及びコントローラ12の制御状態を示す制御情報をリアルタイムで取得することができる。
また、安全装置40は、ロボットコントローラ12から取得した各ロボット11の情報に基づいて、ロボット11の現在の形態つまり姿勢を3次元的にモデリングした3Dモデル画像データを生成することができる。また、安全装置40は、図5に示すように、ロボット11が設置されている領域、例えば工場内における基準位置Oを原点とした2次元座標系におけるロボット11の座標つまりはロボット11の設置位置も記憶している。更に、安全装置40は、ロボット11の周辺に設けられた設備、例えば自動体外式除細動器(AED)などの救命装置91や電話機92などの設備の座標つまり設置位置も記憶している。
また、安全装置40は、図2に示すように、制御部41、情報取得部42、距離取得部43、危険距離設定部44、及び異常検知部45を有している。制御部41は、マイクロコンピュータを主体に構成されており、ロボット安全システム用プログラムを記憶している。制御部41は、マイクロコンピュータにおいてロボット安全システム用プログラムを実行することにより、情報取得部42、距離取得部43、危険距離設定部44、及び異常検知部45等を、ソフトウェア的に実現する。なお、情報取得部42、距離取得部43、危険距離設定部44、及び異常検知部45等は、例えば制御部41と一体の集積回路としてハードウェア的に実現してもよい。
情報取得部42は、図3に示すような個人情報及び環境情報を取得する処理を行うことができる。本実施形態において、個人情報とは、各ユーザ100が個別に有しているユーザ固有の情報であって、基礎情報と生体情報とを含んで構成されている。基礎情報とは、ユーザ固有の情報のうち、原則として作業当日中には変化しない情報、例えばユーザの性別、年齢、作業経験等の情報である。基礎情報は、その作業に関する熟練度や技術の高低の指標となる。生体情報とは、ユーザ固有の情報のうち、作業当日中に変化する可能性がある情報、例えばユーザ100の体温や脈拍などの情報である。生体情報は、ユーザ100のその日又は現在の体調の好悪の指標となる。環境情報とは、ロボット11の設置環境に応じて設定される情報である。環境情報は、例えば過去に災害が起きた時間帯や場所、災害が起きた作業内容、災害が起きた当時の気温や室温等の情報である。環境情報は、ユーザ100が置かれている現在の環境が、災害が起きやすい環境であるか否かを示す指標となる。
情報取得部42は、例えば次のようにして基礎情報を取得することができる。眼鏡型モニタ20及び装着型デバイス30が個人専用のものである場合、つまり眼鏡型モニタ20及び装着型デバイス30と各ユーザ100とが予め紐付されている場合、眼鏡型モニタ20又は装着型デバイス30に所有者の基礎情報を記憶しておき、その基礎情報を情報取得部42が読み取る。これにより、情報取得部42は、眼鏡型モニタ20及び装着型デバイス30とユーザ100とが紐付された状態で、各ユーザ100の基礎情報を取得することができる。
眼鏡型モニタ20及び装着型デバイス30を複数人で共用している場合、ユーザ100は、眼鏡型モニタ20及び装着型デバイス30の使用を開始する際に、その眼鏡型モニタ20及び装着型デバイス30と、自己の基礎情報とを紐付する処理を行う。この場合、例えば安全装置40に図示しない入力部を設ける。そして、ユーザ100は、その入力部を用いて自己の基礎情報を入力するとともに、眼鏡型モニタ20及び装着型デバイス30の識別番号を登録する。これにより、情報取得部42は、眼鏡型モニタ20及び装着型デバイス30とユーザ100とが紐付された状態で、各ユーザ100の基礎情報を取得することができる。
なお、図示しない入力部は、例えばユーザ100が直接入力することができるキーボードやタッチパネルであってもよいし、例えば従業員証等に記憶させた基礎情報を読み取ることが可能なカードリーダであってもよい。また、情報取得部42は、各ユーザ100の基礎情報とともに、各ユーザ100の名前を取得してもよい。
情報取得部42は、装着型デバイス30の生体情報取得部31で取得した生体情報を受信することで、ユーザ100の生体情報を取得することができる。情報取得部42は、例えば次のようにして環境情報を取得することができる。すなわち、ユーザ100は、予め安全装置40に環境情報を適宜更新して記憶させておく。そして、情報取得部42は、安全装置40に記憶されている環境情報を読み出すことで、環境情報を取得する。また、安全装置40を図示しないネットワークに接続し、そのネットワーク上に環境情報を記憶する図示しないデータサーバを配置する。そして、情報取得部42が、そのデータサーバからネットワークを介して環境情報を取得するようにしてもよい。
距離取得部43は、ロボット11と各ユーザ100との距離、及び各設備91、92と各ユーザ100との距離を取得する処理を行うことができる。なお、本実施形態において、距離取得部43は、例えば各ユーザ100の位置情報に基づいて、各ロボット11とユーザ100との距離、及び各設備91、92と各ユーザ100との距離を取得することができる。すなわち、距離取得部43は、例えば図5に示すように、ロボット11及び各設備91、92が設置されている領域を2次元座標系としたロボット11の座標を取得する。そして、距離取得部43は、各ユーザ100の座標と、ロボット11及び各設備91、92の座標とから、ロボット11と各ユーザ100との距離、及び各設備91、92と各ユーザ100との距離を算出する。
各ユーザ100の座標つまりユーザ100の位置情報は、例えば眼鏡型モニタ20に小型のGPS(Global Positioning System)を設けることで取得することができる。また、ユーザ100の位置情報は、GPSユニットのように直接的に位置を特定するものではなく、例えば工場の入り口等の基準位置Oからのユーザ100の移動軌跡を取得し、基準位置Oに対する変位量に基づいて間接的に位置を特定するような構成としてもよい。
危険距離設定部44は、距離取得部43で取得したユーザ100の個人情報及び環境情報の少なくとも一方に基づいて危険距離Lxを設定する処理を行うことができる。本実施形態の場合、危険距離設定部44は、個人情報及び環境情報の両方に基づいてユーザ100毎に危険距離Lxを設定する。危険距離Lxは、図4に示すように、ロボット11を基準とした距離であり、下記の(1)式に示すように、基準距離Lに対して、1に個別係数αiの積算値Σαiを加えた値を乗じた値となる。すなわち、危険距離Lxは、基準距離Lと、基準距離Lに個別係数αiの積算値Σαiを乗じた距離との合計値である。
Lx=L×(1+Σαi)・・・(1)
この場合、基準距離Lは、ロボット11の可動距離D1に所定距離D2を加えた距離であり、危険距離Lxの初期値つまり積算値Σαi=1の場合の距離である。なお、危険距離を超える距離を、安全距離と称する。可動距離D1は、ロボット11のアームを全て水平に伸ばした状態におけるロボット11からアーム先端部までの距離である。所定距離D2は、ロボット11の動作速度等に応じて定められるものであり、例えば一般的なユーザが瞬時にロボット11に近づいても、ロボット11の可動距離D1には届かないような距離である。換言すれば、危険距離Lxとは、ロボット11の可動距離D1に、個人毎又はロボット11が設置される環境毎に個別に設定される安全マージンを加算した距離である。この場合、ロボット11を基準とした危険距離の内側の領域を危険領域と称する。また、ロボット11を基準とした危険距離の外側の領域を安全領域と称する。
危険距離設定部44は、個別係数αiを、各ユーザ100の個人情報や環境情報に基づいて設定することで、実際に作業を行うユーザ100やロボット11が設置されちる環境に合わせた値に設定することができる。個別係数αiは、例えば図3に示すように、個人情報や環境情報において複数個設定されている。個別係数αiの積算値Σαiが大きくなるほど、危険距離Lxも長くなる。なお、図3においては、個別係数α1〜α3は、個人情報の基礎情報に基づく個別係数であり、個別係数α4、α5は、個人情報の生体情報に基づく個別係数である。また、個別係数α6、α7は、環境情報に基づく個別係数である。
例えば、ユーザ100の性別が「男性」、年齢が「50代」、作業経験が「20年超」、体温が「平熱」、脈拍が「通常」であり、環境情報に基づく係数が設定されていないつまりα6=α7=0であれば、個別係数αiの積算値Σαiは0となる。この場合、危険距離Lx=基準距離Lとなる。つまり、この場合、ユーザ100に設定された危険距離Lxは、基準距離Lと等しくなる。一方、ユーザ100の性別が「女性」、年齢が「20代」、作業経験が「5年未満」、体温が「平熱+0.5℃以上」、脈拍が「作業開始時から上昇」であり、かつ環境情報に基づく係数が設定されていないつまりα6=α7=0であれば、個別係数αiの積算値Σαiは1.1となる。この場合、危険距離Lx=基準距離L×2.1となる。つまり、この場合のユーザ100に設定された危険距離Lxは、基準距離Lの2.1倍となる。
異常検知部45は、ユーザ100の転倒やロボット11との衝突など、各ユーザ100に生じた異常をそのユーザ100が装着している眼鏡型モニタ20又は装着型デバイス30を介して検知する処理を行うことができる。異常検知部45は、例えば装着型デバイス30の生体情報取得部31から取得されるユーザ100の生体情報が異常値となった場合に、ユーザ100に異常が生じたことを検知することができる。また、異常検知部45は、例えば次のようにしてユーザ100に生じた異常を検知することができる。すなわち、眼鏡型モニタ20又は装着型デバイス30に例えば加速度センサやジャイロセンサなどユーザ100に対する衝撃を検出できるセンサを設けておく。そして、異常検知部45は、眼鏡型モニタ20又は装着型デバイス30に過剰な衝撃つまり通常とは異なる衝撃が加わったことを検出した場合に、ユーザ100に異常が生じたと判断する。
次に、上記した構成の作用について図5〜図15も参照して説明する。
なお、以下の説明では、工場等の作業領域内に、5人のユーザA〜Eが存在している場合を想定して説明する。また、ユーザAを、作業現場の監督者として設定する。作業現場の監督者としての情報は、例えば安全装置40に登録されている。なお、ユーザA〜Eに係るA〜Eの文字は、各ユーザA〜Eの名前を意味するとともに、図中において各ユーザA〜Eを指し示す符号としても用いている。この場合、ユーザA〜Eのそれぞれについて異なる危険距離Lxが設定されている。つまり、図3において、個人情報に基づく個別係数α1〜α5は、各ユーザA〜Eで異なる値が設定されている。なお、各ユーザA〜Eの作業環境は略等しいため、環境情報に基づく個別係数α6、α7は、各ユーザA〜Eで同一の値に設定されている。
制御部41は、ロボット11とユーザA〜Eとの距離がユーザA〜Eそれぞれの危険距離Lx以下となった場合に、ロボット11とユーザA〜Eとの距離が危険距離Lx以下となったことを各ユーザA〜Eが装着している眼鏡型モニタ20の表示部21に表示させることができる。つまり、制御部41は、ユーザA〜Eのいずれかがロボット11の危険領域内に侵入した場合に、ユーザA〜Eがロボット11の危険領域内に侵入したことを眼鏡型モニタ20に表示させることができる。
例えば、図5においてロボット11を中心とする破線の円は、ユーザBに設定された危険距離Lxを示している。つまり、図5に示すロボット11を中心とする破線の円は、ユーザBに設定された危険領域Rxを示している。ユーザBについて図5の二点鎖線で示すように、ユーザBとロボット11との距離が安全距離である場合つまりユーザBがロボット11の危険領域Rx内に侵入していない場合、図6に示すように、各ユーザA〜Eの眼鏡型モニタ20には何も表示されていない。一方、ユーザBとロボット11との距離が危険距離Lx以下となった場合つまりユーザBがロボット11の危険領域Rx内に侵入した場合、制御部41は、図7に示すように、各ユーザA〜Eの眼鏡型モニタ20に対して、画像50を表示させる。この場合、画像50は、例えば表示部21の隅に表示される。なお、図7は、ユーザAの眼鏡型モニタ20に表示される表示内容を示している。
画像50は、例えば図8に示すように、作業領域を示す外枠51と、ロボット11を示すロボット表示52と、ロボット11の危険領域Rxを示す領域表示53と、ユーザA〜Eを示すユーザ表示54A〜54Eと、設備を示す設備表示551、552などから構成されている。なお、設備表示551は救命装置91を示し、設備表示552は電話機92を示している。また、ユーザ表示54A〜54Eを総称する場合は、単にユーザ表示54とする。また、ユーザ表示54A〜54Eは、「ユーザA」、「ユーザB」等の名前を示す文字列を含んでいてもよい。
制御部41は、画像50が表示された眼鏡型モニタ20を装着しているユーザを示すユーザ表示54と、危険距離Lx以下となったユーザを示すユーザ表示54と、危険距離Lx以下となったユーザに最も近い距離にいるユーザを示すユーザ表示54と、上記のユーザ以外のユーザを示すユーザ表示54とを、それぞれ異なる表示態様で表示させる。例えば、制御部41は、画像50が表示される眼鏡型モニタ20の装着者を示すユーザ表示54を緑色で示し、危険距離Lx以下となったユーザを示すユーザ表示54を赤色で示す。また、制御部41は、危険距離Lx以下となったユーザに最も近い距離にいるユーザを示すユーザ表示54を青色で示し、上記以外のユーザを示すユーザ表示54を白色で示す。なお、画像50が表示された眼鏡型モニタ20を装着しているユーザが、ロボット11に対して危険距離Lx以下となった場合、当該ユーザを示すユーザ表示54は、危険距離Lx以下となったことを優先して赤色で表示される。
すなわち、表示部21に表示される画像50の具体的内容は、ユーザA〜Eごとに異なる。なお、図8及び図10に示す画像50Aは、ユーザAの眼鏡型モニタ20に表示される画像50である。図9に示す画像50Bは、ユーザBの眼鏡型モニタ20に表示される画像50である。図11及び図12に示す画像50Cは、ユーザCの眼鏡型モニタ20に表示される画像50である。図13に示す画像50Dは、ユーザDの眼鏡型モニタ20に表示される画像50である。そして、図14及び図15に示す画像50Eは、ユーザEの眼鏡型モニタ20に表示される画像50である。
この場合、図8に示すように、ユーザAの眼鏡型モニタ20に表示された画像50Aについて見ると、制御部41は、画像50Aが表示される眼鏡型モニタ20の装着者であるユーザAを示すユーザ表示54Aを緑色で示し、危険距離Lx以下となったユーザBを示すユーザ表示54Bを赤色で示す。また、制御部41は、ユーザBに最も近い距離にいるユーザCを示すユーザ表示54Cを青色で示し、上記のユーザA〜C以外のユーザD、Eを示すユーザ表示54D、54Eを白色で示す。監督者であるユーザAは、この画像50Aを見ることで、例えば青色で示されたユーザCに対して赤色で示されたユーザBと作業を交代するよう指示を出すことができる。
また、制御部41は、例えば図9の画像50Bで示すように、危険距離Lx以下となったユーザBが装着している眼鏡型モニタ20に、「接近注意」等の注意表示56を表示させる。ユーザBは、この画像50Bの注意表示56を見ることにより、自己がロボット11に対して危険距離Lx以下まで接近していることをいち早く知ることができる。そして、ユーザBとロボット11との距離が危険距離Lxより大きくなるとつまりユーザBがロボット11の危険領域Rx外へ出ると、制御部41は、各ユーザA〜Eの眼鏡型モニタ20に表示していた画像50を非表示にする。
また、制御部41は、あるユーザに異常が発生したことを異常検知部45で検知した場合に、その異常発生したユーザ以外のユーザが装着している眼鏡型モニタ20に対して、あるユーザに異常が発生したことを報知する情報を表示させる処理を行うことができる。この場合、制御部41は、異常が発生したユーザを示すユーザ表示54を、異常が発生していない場合とは異なる表示態様で、異常が発生したユーザ以外のユーザである他のユーザが装着している装着型モニタ20に表示させる。そして、制御部41は、異常が発生したユーザ以外の各ユーザがとるべき行動を指示する指示内容を、各ユーザが装着している眼鏡型モニタ20に表示させる。制御部41は、各ユーザの眼鏡型モニタ20に表示される指示内容を、各ユーザの位置に応じてユーザ毎に変化させる。
例えばユーザBが転倒などしてユーザBに異常が発生した場合について見る。ユーザBが転倒すると、異常検知部45は、ユーザBに加えられた衝撃を検知し、ユーザBに異常が発生したことを検知する。すると、制御部41は、ユーザBに異常が発生した旨、及び各ユーザA、C〜Eに対する個別の指示内容を、各ユーザA、C〜Eの眼鏡型モニタ20に表示させる。この場合、ユーザBの通常時つまり異常が発生していない状態であれば、制御部41は、ユーザBのユーザ表示54Bを、例えば緑色で表示する。一方、ユーザBに異常が生じると、制御部41は、ユーザBのユーザ表示54Bを、通常とは異なる色例えば赤色で表示する。
また、この場合、図5に示すように、ユーザB以外の各ユーザA、C〜Eのうち、ユーザCが、ユーザBに最も近い位置にいる。また、ユーザB以外の各ユーザA、C〜Eのうち、ユーザDが、救命装置91に最も近い位置にいる。そして、ユーザB以外の各ユーザA、C〜Eのうち、ユーザEが、電話機92に最も近い位置にいる。したがって、制御部41は、ユーザCにはユーザBに対する応急処置の実施を指示し、ユーザDには近くの救命装置91を取りに行くよう指示し、ユーザEには近くの電話機92を用いて救急連絡を行うよう指示する。
具体的には、制御部41は、監督者であるユーザAの眼鏡型モニタ20に対し、図10に示すように、ユーザBに異常が発生した旨を示す「事故発生」の情報表示57と、各ユーザC〜Eに対する指示内容を示す指示情報581を表示させる。この場合、制御部41は、指示情報581を点滅させることで、指示情報581をより目立たせるように表示する。これにより、監督者であるユーザAは、各ユーザC〜Eに対してどのような指示が行われているかを容易に把握することができる。
制御部41は、ユーザCの眼鏡型モニタ20に対し、図11に示すように、ユーザBに異常が発生した旨を示す「事故発生」の情報表示57と、ユーザCに対する指示内容を示す「応急処置せよ」の指示情報582を表示させる。この場合、制御部41は、指示情報582及びユーザ表示54Cを点滅させることで、指示情報582及びユーザ表示54Cを目立たせるように表示する。これにより、ユーザCは、自身が次に取るべき行動つまりユーザBに対して応急処置すべきということをいち早く知ることができる。
そして、制御部41は、指示情報582を一定期間例えば数秒間表示させた後、図12に示すように、想定される事故の種類に応じて「人工呼吸」、「止血」、「火傷」、「薬品」等の項目を示す項目情報591をユーザCの眼鏡型モニタ20に表示させる。ユーザCは、図示しない操作スイッチ等を用いて、ユーザBの異常に応じて項目情報591の中から適切な項目を選択する。すると、詳細は図示しないが、制御部41は、選択された項目に応じて、適宜その処置の方法を示す図等をユーザCの眼鏡型モニタ20に表示させる。これにより、ユーザCは、処置の方法を図等で確認することができる。なお、項目情報591は、ユーザCだけでなく、監督者であるユーザAの眼鏡型モニタ20にも表示させ、ユーザAが適宜適切な項目を選択するようにしてもよい。
また、図11において、領域表示53は、ユーザBに設定された危険距離Lxを示すものであり、領域表示60は、ユーザCに設定された危険距離Lxを示すものである。すなわち、この場合、制御部41は、図11に示すように、異常が生じたユーザBに設定された危険距離Lxを示す領域表示53に加えて、異常が生じていないユーザB以外の他のユーザ、例えば救助に向かうユーザCに設定された危険距離Lxを示す領域表示60も、このユーザCが装着している装着型モニタ20に表示させる。
制御部41は、ユーザDの眼鏡型モニタ20に対し、図12に示すように、ユーザBに異常が発生した旨を示す「事故発生」の情報表示57と、ユーザDに対する指示内容を示す「AED使用せよ」の指示情報583を表示させる。この場合、制御部41は、指示情報583を点滅させることで、指示情報583を目立たせるように表示する。これにより、ユーザDは、自身が次に取るべき行動つまり救命装置91を取りに行きユーザBに対して救命装置91を使用すべきということをいち早く知ることができる。また、制御部41は、ユーザ表示54D及び設備表示551を点滅させることで、ユーザ表示54D及び設備表示551をより目立たせるように表示する。これにより、ユーザDは、自己と救命装置91との位置関係を容易に確認することができ、いち早く救命装置91を取りに行くことができる。
制御部41は、ユーザEの眼鏡型モニタ20に対し、図13に示すように、ユーザBに異常が発生した旨を示す「事故発生」の情報表示57と、ユーザEに対する指示内容を示す「救急連絡せよ」の指示情報584を表示させる。この場合、制御部41は、指示情報584を点滅させることで、指示情報584を目立たせるように表示する。これにより、ユーザDは、自身が次に取るべき行動つまり電話機92を使用して救急連絡を行うべきということをいち早く知ることができる。また、制御部41は、ユーザ表示54E及び設備表示552を点滅させることで、ユーザ表示54E及び設備表示552をより目立たせるように表示する。これにより、ユーザDは、自己と電話機92との位置関係を容易に確認することができ、いち早く電話機92まで辿り着くことができる。
そして、制御部41は、指示情報584を一定期間例えば数秒間表示させた後、図15に示すように、連絡先の項目に優先順位を付けた項目情報592をユーザEの眼鏡型モニタ20に表示させる。この場合、項目情報592は、優先順位の高い連絡先から順に、「1:救急車」、「2:医務室」、「3:保安」、「4:自宅」と設定されている。なお、図中の「xxx−xxx」は、連絡先の電話番号を意味している。これにより、ユーザEは、優先順位の高い順に連絡先を知ることができ、連絡先の電話番号や連絡する順番に迷うことなく適切な救急連絡を行うことができる。
このように、本実施形態のロボット安全システム10は、ロボット11と複数のユーザA〜Eのそれぞれとの距離を取得する距離取得部43と、各ユーザA〜Eが個別に有する個人情報又はロボット11の設置環境に応じて設定される環境情報の少なくとも一方に基づいて各ユーザA〜Eの危険距離Lxを設定する危険距離設定部44と、を備える。これによれば、ロボット安全システム10は、各ユーザA〜Eに応じて、危険距離Lxを設定することができる。
すなわち、ユーザとロボット11との協働のためにロボット11の周囲に物理的な柵を設けない場合、ユーザとロボット11との衝突等を防ぐため、ユーザがロボット11に対して危険距離Lxよりも近づかないようにする必要がある。この場合、危険距離Lxを、ユーザの熟練度、作業環境、又は作業内容に関わらず一律の値に設定すると、次のような問題が生じ得る。
例えばロボット11の動作を熟知しているような熟練度の高いユーザであれば、ロボット11に対して比較的近くまで接近しても問題は無い。この場合、危険距離Lxを比較的短く設定することで、熟練度の高いユーザの安全性を確保しつつ、ロボット11までのアプローチを容易にして高い作業性を確保することができる。しかし、危険距離Lxを短く設定することは、ロボット11の動作を熟知していない熟練度の低いユーザにとっては、ロボット11との衝突の可能性が高まり危険である。そのため、熟練度の低いユーザの安全性を考慮すると、危険距離Lxを極力長く設定することが好ましい。しかしながら、熟練度の低いユーザに合わせて危険距離Lxを長く設定すると、ロボット11までのアプローチに時間がかかることになり、熟練度の高いユーザにとってはかえって作業性の低下を招くことになる。
また、時間帯や作業場所等の環境によっても、作業の危険度は異なる。例えば食事休憩後などの時間帯においては、ユーザの集中力は低下し易くなり、その結果、作業の危険度は高くなり易い。このように、ロボット11の周囲に物理的な柵を設けない場合において、危険距離Lxを、ユーザの熟練度、作業環境、又は作業内容に関わらず一律の値に設定すると、安全性や作業性の面から種々の問題が生じ得る。
これに対し、本実施形態において、危険距離設定部44は、各ユーザA〜Eが個別に有する個人情報、又はロボット11の設置環境に応じて設定される環境情報の少なくとも一方に基づいてロボット11に対する各ユーザA〜Eの危険距離Lxを設定することができる。これによれば、危険距離設定部44は、危険距離Lxを、ユーザの熟練度や作業環境などに応じて適宜変更させて設定することができる。すなわち、危険距離Lxを、各ユーザの熟練度や作業環境に適した値にすることができる。その結果、危険距離Lxを一律の値に設定した場合に比べて、ユーザの安全性と作業性との両立を図ることができる。
そして、ロボット安全システム10は、各ユーザA〜Eの個々に装着され各ユーザA〜Eの視界内に情報を表示可能な眼鏡型モニタ20と、眼鏡型モニタ20に対する表示内容を制御する制御部41と、を備える。制御部41は、ロボット11とユーザA〜Eとの距離が危険距離Lx以下となった場合にロボット11とユーザA〜Eとの距離が危険距離Lx以下となったことを各ユーザA〜Eの眼鏡型モニタ20に表示させる。
これによれば、各ユーザA〜Eの安全に関する情報つまり誰が危険距離Lx以下までロボット11に接近したかという情報を、各ユーザA〜E間で共有することができる。したがって、本実施形態のように、ユーザBが危険距離Lx以下までロボット11に接近した場合に、例えば監督者であるユーザAがユーザBに対して注意を促したり、作業交代を指示したりする等の対応をいち早く取ることができる。その結果、人とロボット11とが協働するシステムにおいて、各ユーザA〜Eの安全を確保するだけでなく、作業領域全体の安全性の向上が図られる。
制御部41は、ロボット11とユーザA〜Eとの距離が危険距離Lx以下となった場合に、少なくとも、ロボット11との距離が危険距離Lx以下となったユーザBを示すユーザ表示54Bと、ロボット11との距離が危険距離Lx以下となったユーザBに最も近いユーザCを示すユーザ表示54Cとを、異なる態様この場合異なる色で各ユーザA〜Eの眼鏡型モニタ20に表示させる処理を行うことができる。これによれば、各ユーザA〜Eは、ロボット11の危険領域に入ったユーザが誰であるか、及びその危険領域内に入ったユーザに最も近いユーザが誰であるかを、把握し易くなる。これにより、例えば監督者であるユーザAは、危険領域内に入ったユーザBに対して、そのユーザBに最も近いユーザCと作業を交代する指示等を出し易くなる。その結果、各ユーザA〜Eの安全をより確保し易くなる。
ここで、例えばユーザの性別、年齢、作業経験等の情報を基に危険距離Lxを設定すれば、その危険距離Lxを各ユーザにある程度適したものとすることができる。しかしながら、作業当日のユーザの体調によっては、作業の前後や作業中にそのユーザに適した危険距離Lxが変化する可能性がある。そこで、本実施形態において、個人情報は、作業中には原則として変化しない情報である基礎情報と、各ユーザA〜Eの生体に関する情報である生体情報と、を含んで構成されている。基礎情報とは、例えば各ユーザA〜Eの性別、年齢、作業経験等の情報である。生体情報とは、作業中に変化する可能性がある情報、例えばユーザA〜Eの体温や脈拍などの情報である。これによれば、危険距離設定部44は、各ユーザA〜Eの作業当日の体調に合った危険距離Lxを設定することができる。その結果、各ユーザA〜Eの安全性が更に確保し易くなり、作業領域全体の安全性の更なる向上が図られる。
ロボット安全システム10は、各ユーザA〜Eに発生した異常を検知する異常検知部45を更に備える。そして、制御部41は、異常が発生したユーザ以外のユーザ、この場合異常が発生したユーザB以外のユーザA、C〜Eが装着している眼鏡型モニタ20に対して、ユーザBに異常が発生したことを表示させる。これによれば、各ユーザA、C〜Eは、ユーザBに異常が発生したことをいち早く知ることができ、ユーザBを救助する行動をいち早く取ることができる。その結果、各ユーザA〜Eの安全性の更なる向上が図られる。
制御部41は、異常が発生したユーザ以外の各ユーザ、この場合ユーザB以外のユーザA、C〜Eがとるべき行動を指示する指示内容を各ユーザA、C〜Eの位置に応じてユーザA、C〜E毎に変化させて表示させる。これによれば、各ユーザA、C〜Eは、自分が次にどのような行動を取るべきかを迷うことなく知ることができ、その結果、異常が発生したユーザBの救助活動を効率良く行うことができる。
制御部41は、異常が発生したユーザBを示すユーザ表示57Bを、異常が発生していない場合とは異なる表示態様例えば異なる色で、異常が発生したユーザB以外の他のユーザA、C〜Eが装着している装着型モニタ20に表示させる。これによれば、異常が発生していない他のユーザA、C〜Eは、異常が発生したユーザBを即座に認識することができる。
更に、制御部41は、他のユーザ例えばユーザCに設定された危険距離Lxを、この他のユーザCが装着している装着型モニタ20に表示させる。これによれば、異常が発生したユーザBの救助に向かおうとしているユーザCは、自己つまりユーザC自身に設定されている危険距離Lx内に、異常が生じたユーザBが入っているか否かを見ることで、そのユーザBの熟練度を把握することができる。つまり、異常が生じたユーザBとロボット11との距離がユーザCの自己に設定された危険距離Lxよりも遠いにもかかわらず、ユーザBの状態が危険距離Lx以下の状態となっている場合、異常が生じたユーザBに設定されている危険距離Lxは、ユーザCに設定された危険距離Lxよりも長いことを意味する。この場合、異常が生じたユーザBの熟練度は、ユーザCの熟練度よりも低いことを意味する。したがって、異常が生じていない他のユーザCは、自己が装着する眼鏡型モニタ20に表示された自己の危険距離の領域表示60と、異常が生じたユーザBの状態とを見ることで、現在異常が生じているユーザBが、自分よりも熟練度が低く早急な支援が必要であるか否かをいち早く把握することができる。
更に、これによれば、例えばユーザCは、自己に設定された危険距離Lxを示す領域表示60を確認しながらユーザBの救助作業を行うことができる。これにより、例えば異常が発生したユーザBの熟練度が高くそのユーザBの危険距離Lxが短く設定されている一方、自己の熟練度が低く危険距離Lxが長く設定されている場合などにおいて、異常が発生したユーザBを救助するためにロボット11に接近し過ぎるといった2次災害の要因を未然に防ぐことができる。
なお、本発明の実施形態は、上記し又図面に記載した態様に限定されるものではなく、その要旨を逸脱しない範囲で種々の変形や拡張をすることができる。
例えば各ロボット11側に人を検知するレーザセンサや人感センサ等を設けておき、それらのセンサの検出結果に基づいて各ユーザA〜Eの位置を特定する構成としたり、センサの検出結果と撮像部22で撮像した画像とに基づいて位置を特定する構成としたり、撮像部22によって撮像された画像に基づいてロボット11に対する相対的な位置を特定する構成としたりしてもよい。
制御部41は、各ユーザA〜Eが装着する眼鏡型モニタ20に分散して設けてもよい。
本実施形態において、対象とするロボット11の台数及びユーザの数に制限は無いが、眼鏡型モニタ20に表示される情報量や一般的な人間が処理可能な情報量を考慮すると、対象とするロボット11の台数は5台程度、ユーザ数は5人程度までが好ましい。
ロボット11は、特定の場所に固定されているものに限られず、例えば自走可能な構成であってもよい。
眼鏡型モニタ20の表示部21は、透過型ディスプレイに限られない。眼鏡型モニタ20の表示部21は、例えば不透過型のディスプレイであって、撮像部22で撮像した映像をユーザの視界としてリアルタイムで映し出すものでもよい。
そして、装着型モニタは、必ずしも眼鏡型モニタ20である必要はなく、作業者が頭部に装着するディスプレイに、画像を投影可能に構成されるものであれば良い。
図面中、10はロボット安全システム、20は眼鏡型モニタ(装着型モニタ)、41は制御部、43は距離取得部、44は危険距離設定部、45は異常検知部を示す。

Claims (6)

  1. ロボットと複数のユーザのそれぞれとの距離を取得する距離取得部と、
    前記各ユーザが個別に有する個人情報又は前記ロボットの設置環境に応じて設定される環境情報の少なくとも一方に基づいて前記各ユーザの危険距離を設定する危険距離設定部と、
    前記各ユーザの個々に装着され前記各ユーザの視界内に情報を表示可能な装着型モニタと、
    前記装着型モニタに対する表示内容を制御する制御部と、を備え、
    前記制御部は、前記ロボットと前記ユーザとの距離が前記危険距離以下となった場合に前記ロボットと前記ユーザとの距離が前記危険距離以下となったことを各前記ユーザが装着している前記装着型モニタに表示させる処理を行うことができる、
    ロボット安全システム。
  2. 前記制御部は、前記ロボットと前記ユーザとの距離が前記危険距離以下となった場合に、少なくとも、前記ロボットとの距離が前記危険距離以下となったユーザを示すユーザ表示と、前記ロボットとの距離が前記危険距離以下となったユーザに最も近いユーザを示すユーザ表示と、を異なる態様で前記装着型モニタに表示させる処理を行うことができる、
    請求項1に記載のロボット安全システム。
  3. 前記個人情報は、作業中に変化しない情報である基礎情報と、前記ユーザの生体に関する情報である生体情報と、を含んで構成されている、
    請求項1又は2に記載のロボット安全システム。
  4. 前記ユーザに発生した異常を検知する異常検知部を更に備え、
    前記制御部は、異常が発生した前記ユーザ以外のユーザが装着している前記装着型モニタに対して、前記ユーザに異常が発生したことを表示させる処理を行うことができる、
    請求項1から3のいずれか一項に記載のロボット安全システム。
  5. 前記制御部は、異常が発生した前記ユーザ以外の各ユーザがとるべき行動を指示する指示内容を前記各ユーザの位置に応じて前記ユーザ毎に変化させて表示させる処理を行うことができる、
    請求項4に記載のロボット安全システム。
  6. 前記制御部は、異常が発生したユーザを示すユーザ表示を異常が発生していない場合とは異なる表示態様で前記異常が発生したユーザ以外のユーザである他のユーザが装着している前記装着型モニタに表示させるとともに、前記他のユーザに設定された前記危険距離を前記他のユーザが装着している前記装着型モニタに表示させる処理を行うことができる、
    請求項4に記載のロボット安全システム。
JP2015233298A 2015-11-30 2015-11-30 ロボット安全システム Active JP6657859B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015233298A JP6657859B2 (ja) 2015-11-30 2015-11-30 ロボット安全システム
US15/364,807 US10071481B2 (en) 2015-11-30 2016-11-30 Safety system for industrial robots

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015233298A JP6657859B2 (ja) 2015-11-30 2015-11-30 ロボット安全システム

Publications (2)

Publication Number Publication Date
JP2017100207A true JP2017100207A (ja) 2017-06-08
JP6657859B2 JP6657859B2 (ja) 2020-03-04

Family

ID=59015804

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015233298A Active JP6657859B2 (ja) 2015-11-30 2015-11-30 ロボット安全システム

Country Status (2)

Country Link
US (1) US10071481B2 (ja)
JP (1) JP6657859B2 (ja)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019010704A (ja) * 2017-06-30 2019-01-24 Idec株式会社 照光表示装置
CN109318244A (zh) * 2017-07-31 2019-02-12 发那科株式会社 多关节机器人的控制装置
KR20190084562A (ko) * 2018-01-08 2019-07-17 삼성전자주식회사 전자 장치 및 그 제어 방법
JP2019145101A (ja) * 2018-02-16 2019-08-29 ピルツ ゲーエムベーハー アンド コー.カーゲー 自律動作マシンから人を防護するシステム
JP2019198907A (ja) * 2018-05-15 2019-11-21 ファナック株式会社 ロボットシステム
JP6625279B1 (ja) * 2018-11-14 2019-12-25 三菱電機株式会社 リスク値算出システム、情報処理装置、及びプログラム
JP2020006494A (ja) * 2018-07-12 2020-01-16 ファナック株式会社 ロボット
JP2020095617A (ja) * 2018-12-14 2020-06-18 コニカミノルタ株式会社 安全管理支援システム、および制御プログラム
JP2020146826A (ja) * 2019-03-15 2020-09-17 株式会社デンソーウェーブ ロボット及び人の位置検出システム
CN111975745A (zh) * 2019-05-22 2020-11-24 精工爱普生株式会社 机器人系统
JP2020192658A (ja) * 2019-05-30 2020-12-03 セイコーエプソン株式会社 ロボットシステムおよび可搬型教示装置
JP2021064257A (ja) * 2019-10-16 2021-04-22 ファナック株式会社 制御装置及び制御システム
JP2021065974A (ja) * 2019-10-24 2021-04-30 ファナック株式会社 ロボット安全システム
JP7400027B2 (ja) 2017-08-08 2023-12-18 住友重機械工業株式会社 ショベル及び健康管理システム

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10973587B2 (en) * 2015-08-19 2021-04-13 Brainlab Ag Reference array holder
US10924881B2 (en) * 2016-03-03 2021-02-16 Husqvarna Ab Device for determining construction device and worker position
US20170368691A1 (en) * 2016-06-27 2017-12-28 Dilili Labs, Inc. Mobile Robot Navigation
CN106406312B (zh) * 2016-10-14 2017-12-26 平安科技(深圳)有限公司 导览机器人及其移动区域标定方法
US20180201132A1 (en) * 2017-01-13 2018-07-19 Deere & Company Mobile machine-user protocol system and method
US20210073096A1 (en) 2017-11-17 2021-03-11 Mitsubishi Electric Corporation Three-dimensional space monitoring device and three-dimensional space monitoring method
JP7058126B2 (ja) * 2018-01-12 2022-04-21 株式会社日立製作所 ロボット制御装置および自動組立システム
CN109079781A (zh) * 2018-08-09 2018-12-25 上海常仁信息科技有限公司 一种健康交互型机器人
CN108972555A (zh) * 2018-08-09 2018-12-11 上海常仁信息科技有限公司 一种能够定位的健康机器人
FR3085613B1 (fr) 2018-09-07 2021-01-22 Psa Automobiles Sa Station de production robotisee, equipee d''un dispositif de securite d''arret total ou partiel de la station selon l''origine d''incidents detectes.
US11258987B2 (en) * 2018-09-21 2022-02-22 Microsoft Technology Licensing, Llc Anti-collision and motion control systems and methods
CN109352657B (zh) * 2018-11-29 2020-11-17 深圳前海达闼云端智能科技有限公司 一种控制方法、相关装置及存储介质
DE102018131267A1 (de) * 2018-12-07 2020-06-10 Sick Ag Transportsystem für Waren und Verfahren zum Entfernen einer herabgefallenen Ware
US11815598B2 (en) 2019-06-10 2023-11-14 Microsoft Technology Licensing, Llc Anti-collision and motion monitoring, control, and alerting systems and methods
KR20210039635A (ko) * 2019-10-02 2021-04-12 엘지전자 주식회사 로봇 시스템 및 그 제어 방법
CN114589688A (zh) * 2020-12-07 2022-06-07 山东新松工业软件研究院股份有限公司 一种应用于工业机器人的多功能视觉控制方法及装置

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004243516A (ja) * 2003-02-11 2004-09-02 Kuka Roboter Gmbh コンピュータによって生成された情報を現実環境の画像へとフェードインするための方法、およびコンピュータによって生成された情報を現実環境の画像に視覚化するための装置
JP2004243427A (ja) * 2003-02-12 2004-09-02 Yaskawa Electric Corp ロボット制御装置およびロボット制御方法
JP2005081445A (ja) * 2003-09-04 2005-03-31 Fanuc Ltd ロボットの干渉領域確認装置
JP2007026212A (ja) * 2005-07-19 2007-02-01 Hitachi Constr Mach Co Ltd 作業情報管理システムおよび携帯端末装置
WO2011080882A1 (ja) * 2009-12-28 2011-07-07 パナソニック株式会社 動作空間提示装置、動作空間提示方法およびプログラム
JP2012234451A (ja) * 2011-05-09 2012-11-29 Japan Research Institute Ltd 情報通信システム、携帯端末、情報処理方法、及びプログラム
JP2014094436A (ja) * 2012-11-12 2014-05-22 Yaskawa Electric Corp ロボットシステム
JP2014186402A (ja) * 2013-03-21 2014-10-02 Toshiba Corp 生活見守り支援装置

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7761184B2 (en) * 2003-03-23 2010-07-20 Sony Corporation Robot apparatus and control method thereof
US7248171B2 (en) * 2004-05-17 2007-07-24 Mishelevich David J RFID systems for automatically triggering and delivering stimuli
JP3927994B2 (ja) * 2004-10-19 2007-06-13 松下電器産業株式会社 ロボット装置
EP1728601A1 (en) * 2005-06-03 2006-12-06 Abb Ab An industrial robot system with a teaching portable unit and a detecting unit for detecting when the TPU leaves the robot cell
DE102006048163B4 (de) * 2006-07-31 2013-06-06 Pilz Gmbh & Co. Kg Kamerabasierte Überwachung bewegter Maschinen und/oder beweglicher Maschinenelemente zur Kollisionsverhinderung
JP5405235B2 (ja) * 2008-09-05 2014-02-05 Ntn株式会社 生産設備及び生産システム
WO2010104157A1 (ja) * 2009-03-11 2010-09-16 本田技研工業株式会社 作業装置及び作業方法
DE102010063214A1 (de) * 2010-12-16 2012-06-21 Robert Bosch Gmbh Sicherungseinrichtung für eine Handhabungsvorrichtung, insbesondere einen Industrieroboter, sowie Verfahren zum Betreiben der Sicherungseinrichtung
US20120184367A1 (en) * 2011-01-14 2012-07-19 Igt Wearable casino gaming display and tracking system
WO2012100082A2 (en) * 2011-01-19 2012-07-26 Panelvision, Llc Interactive point of purchase system
JP2012236244A (ja) * 2011-05-10 2012-12-06 Sony Corp ロボット装置、ロボット装置の制御方法、並びにロボット装置制御用プログラム
DE102012103031A1 (de) * 2012-04-05 2013-10-10 Reis Group Holding Gmbh & Co. Kg Verfahren zur Bedienung eines Industrieroboters
US9694497B2 (en) * 2012-07-10 2017-07-04 Siemens Aktiengesellschaft Robot arrangement and method for controlling a robot
JP6015178B2 (ja) * 2012-07-11 2016-10-26 オムロン株式会社 安全システム
US9043025B2 (en) * 2012-08-31 2015-05-26 Rethink Robotics, Inc. Systems and methods for safe robot operation
WO2015135057A1 (en) * 2014-03-14 2015-09-17 Synaptive Medical (Barbados) Inc. Intelligent positioning system and methods therefore
US20140365242A1 (en) * 2013-06-07 2014-12-11 Siemens Medical Solutions Usa, Inc. Integration of Multiple Input Data Streams to Create Structured Data
US9432636B2 (en) * 2013-11-26 2016-08-30 Microsoft Technology Licensing, Llc Large-scale surface reconstruction that is robust against tracking and mapping errors
US9452532B2 (en) * 2014-01-27 2016-09-27 Panasonic Intellectual Property Management Co., Ltd. Robot, device and method for controlling robot, and computer-readable non-transitory recording medium
US9256944B2 (en) * 2014-05-19 2016-02-09 Rockwell Automation Technologies, Inc. Integration of optical area monitoring with industrial machine control
US9649766B2 (en) * 2015-03-17 2017-05-16 Amazon Technologies, Inc. Systems and methods to facilitate human/robot interaction
US9588519B2 (en) * 2015-03-17 2017-03-07 Amazon Technologies, Inc. Systems and methods to facilitate human/robot interaction
JP6105674B2 (ja) * 2015-05-28 2017-03-29 ファナック株式会社 ロボットと人間との接触力を監視するロボットシステム
JP6591818B2 (ja) * 2015-07-30 2019-10-16 ファナック株式会社 産業用ロボットシステムおよびその制御方法
JP6489991B2 (ja) * 2015-10-02 2019-03-27 ファナック株式会社 ロボットを操作するハンドルを備えたロボット用操作装置
JP6601155B2 (ja) * 2015-10-28 2019-11-06 株式会社デンソーウェーブ ロボット制御システム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004243516A (ja) * 2003-02-11 2004-09-02 Kuka Roboter Gmbh コンピュータによって生成された情報を現実環境の画像へとフェードインするための方法、およびコンピュータによって生成された情報を現実環境の画像に視覚化するための装置
JP2004243427A (ja) * 2003-02-12 2004-09-02 Yaskawa Electric Corp ロボット制御装置およびロボット制御方法
JP2005081445A (ja) * 2003-09-04 2005-03-31 Fanuc Ltd ロボットの干渉領域確認装置
JP2007026212A (ja) * 2005-07-19 2007-02-01 Hitachi Constr Mach Co Ltd 作業情報管理システムおよび携帯端末装置
WO2011080882A1 (ja) * 2009-12-28 2011-07-07 パナソニック株式会社 動作空間提示装置、動作空間提示方法およびプログラム
JP2012234451A (ja) * 2011-05-09 2012-11-29 Japan Research Institute Ltd 情報通信システム、携帯端末、情報処理方法、及びプログラム
JP2014094436A (ja) * 2012-11-12 2014-05-22 Yaskawa Electric Corp ロボットシステム
JP2014186402A (ja) * 2013-03-21 2014-10-02 Toshiba Corp 生活見守り支援装置

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019010704A (ja) * 2017-06-30 2019-01-24 Idec株式会社 照光表示装置
CN109318244A (zh) * 2017-07-31 2019-02-12 发那科株式会社 多关节机器人的控制装置
JP2019025604A (ja) * 2017-07-31 2019-02-21 ファナック株式会社 多関節ロボットの制御装置
US10759056B2 (en) 2017-07-31 2020-09-01 Fanuc Corporation Control unit for articulated robot
CN109318244B (zh) * 2017-07-31 2021-02-12 发那科株式会社 多关节机器人的控制装置
JP7400027B2 (ja) 2017-08-08 2023-12-18 住友重機械工業株式会社 ショベル及び健康管理システム
KR102499576B1 (ko) * 2018-01-08 2023-02-15 삼성전자주식회사 전자 장치 및 그 제어 방법
KR20190084562A (ko) * 2018-01-08 2019-07-17 삼성전자주식회사 전자 장치 및 그 제어 방법
JP7460324B2 (ja) 2018-02-16 2024-04-02 ピルツ ゲーエムベーハー アンド コー.カーゲー 自律動作マシンから人を防護するシステム
JP2019145101A (ja) * 2018-02-16 2019-08-29 ピルツ ゲーエムベーハー アンド コー.カーゲー 自律動作マシンから人を防護するシステム
JP2019198907A (ja) * 2018-05-15 2019-11-21 ファナック株式会社 ロボットシステム
US10987810B2 (en) 2018-05-15 2021-04-27 Fanuc Corporation Robot system
JP2020006494A (ja) * 2018-07-12 2020-01-16 ファナック株式会社 ロボット
US11160494B2 (en) 2018-11-14 2021-11-02 Mitsubishi Electric Corporation Risk value calculation system, risk factor parameter correction system, information processing apparatus, risk value calculation method, risk factor parameter correction method, and program
WO2020100223A1 (ja) * 2018-11-14 2020-05-22 三菱電機株式会社 リスク値算出システム、リスク要素パラメータ補正システム、情報処理装置、リスク値算出方法、リスク要素パラメータ補正方法、及びプログラム
JP6625279B1 (ja) * 2018-11-14 2019-12-25 三菱電機株式会社 リスク値算出システム、情報処理装置、及びプログラム
JP2020095617A (ja) * 2018-12-14 2020-06-18 コニカミノルタ株式会社 安全管理支援システム、および制御プログラム
JP2020146826A (ja) * 2019-03-15 2020-09-17 株式会社デンソーウェーブ ロボット及び人の位置検出システム
CN111975745A (zh) * 2019-05-22 2020-11-24 精工爱普生株式会社 机器人系统
CN111975745B (zh) * 2019-05-22 2023-08-15 精工爱普生株式会社 机器人系统
JP2020192658A (ja) * 2019-05-30 2020-12-03 セイコーエプソン株式会社 ロボットシステムおよび可搬型教示装置
JP7400217B2 (ja) 2019-05-30 2023-12-19 セイコーエプソン株式会社 ロボットシステムおよび可搬型教示装置
JP2021064257A (ja) * 2019-10-16 2021-04-22 ファナック株式会社 制御装置及び制御システム
JP2021065974A (ja) * 2019-10-24 2021-04-30 ファナック株式会社 ロボット安全システム
JP7469020B2 (ja) 2019-10-24 2024-04-16 ファナック株式会社 ロボット安全システム

Also Published As

Publication number Publication date
US10071481B2 (en) 2018-09-11
JP6657859B2 (ja) 2020-03-04
US20170197313A1 (en) 2017-07-13

Similar Documents

Publication Publication Date Title
JP6657859B2 (ja) ロボット安全システム
CN106808496A (zh) 机器人安全系统
CN107015638B (zh) 用于向头戴式显示器用户报警的方法和装置
EP3106965B1 (en) Programmable display, mobile terminal device, data processing method, and program
JP6645142B2 (ja) ロボット安全システム
KR101584090B1 (ko) 미러 디바이스, 웨어러블 디바이스 및 이를 이용한 운동 관리 시스템
CN107077214A (zh) 用于在医院中使用的通信的方法和系统
CN107667398A (zh) 心肺复苏指导方法、计算机程序产品和系统
EP3317786B1 (en) Cardiopulmonary resuscitation coordination method, computer program product and system
JP6978453B2 (ja) 管理装置、管理方法及び管理システム
JP6774975B2 (ja) 眼球回転検出装置、電子機器及びシステム
JP2017094466A (ja) ロボットモニタシステム
JP2018007792A (ja) 表情認知診断支援装置
JP2020194493A (ja) 介護設備又は病院用の監視システム及び監視方法
JP2017049781A (ja) メガネ型ウェアラブル装置及びその制御方法及び情報管理サーバー
JP2018151742A (ja) 情報表示システム
JP6583953B1 (ja) 医療用装身器具の自己抜去監視システム及び医療用装身器具の自己抜去監視方法
US20220281109A1 (en) Robot system, terminal, control method for robot system, and control method for terminal
JP2022122936A (ja) 情報表示システム
CN113633257B (zh) 基于虚拟现实的前庭功能检查方法、系统、设备及介质
JP7469020B2 (ja) ロボット安全システム
WO2020241034A1 (ja) 監視システム及び監視方法
JP2017094450A (ja) ロボット安全システム
Jebakani et al. Eye blink to voice for paralyzed patients
JP6738308B2 (ja) 情報処理方法、プログラム、仮想空間配信システム及び装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180621

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190529

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190611

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190809

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200120

R150 Certificate of patent or registration of utility model

Ref document number: 6657859

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250