JP6834620B2 - 情報表示システム - Google Patents

情報表示システム Download PDF

Info

Publication number
JP6834620B2
JP6834620B2 JP2017046026A JP2017046026A JP6834620B2 JP 6834620 B2 JP6834620 B2 JP 6834620B2 JP 2017046026 A JP2017046026 A JP 2017046026A JP 2017046026 A JP2017046026 A JP 2017046026A JP 6834620 B2 JP6834620 B2 JP 6834620B2
Authority
JP
Japan
Prior art keywords
user
display area
hand
information
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017046026A
Other languages
English (en)
Other versions
JP2018151742A (ja
Inventor
雄哉 寺中
雄哉 寺中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Wave Inc
Original Assignee
Denso Wave Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Wave Inc filed Critical Denso Wave Inc
Priority to JP2017046026A priority Critical patent/JP6834620B2/ja
Publication of JP2018151742A publication Critical patent/JP2018151742A/ja
Application granted granted Critical
Publication of JP6834620B2 publication Critical patent/JP6834620B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、ユーザの頭部に装着するタイプのディスプレイにより、ユーザの視界内に監視対象に関する情報を表示する情報表示システムに関する。
近年、ユーザの頭部に装着可能な頭部装着型ディスプレイいわゆるヘッドマウントディスプレイ(以下、HMDと称する)を用いて、例えば仮想現実の画像や様々な情報を表示する技術が提案されている。この技術の適用として、例えばロボット等の作業領域内やその近傍で作業するユーザに対して監視対象であるロボット等に関する情報を提示するために、そのロボット等に関する情報を、ユーザが装着したHMDに表示することが想定される。これによれば、ユーザは、ティーチィングペンダントやタブレット端末等を覗き込むことなく、視線を上げたままロボット等に関する情報を取得することができるようになるため、作業効率の向上が予想される。
しかしながら、一般的なHMDの多くは、ユーザの視界と重なる場所に透過型の表示部を配置し、その表示部に各種情報を表示させる構成である。この場合、表示部に表示される情報と、ユーザが表示部を通して見ている実景とが重なることになる。このため、表示部に表示される情報の位置やサイズによっては、ユーザの視界を妨げることになり、かえって作業効率の低下が懸念される。
特開2015−228201号公報
本発明は上記事情に鑑みてなされたものであり、その目的は、装着型ディスプレイを用いてユーザに情報を提示するものにおいて、ユーザの視界を妨げ難い情報提示が可能な情報表示システムを提供することにある。
(請求項1)
請求項1の情報表示システムは、監視対象となるロボットの駆動を制御するロボットコントローラと、前記ロボットコントローラから前記ロボットの動作状態及び制御状態を特定可能な情報を取得する安全装置と、前記安全装置から前記ロボットに関する情報である監視対象情報を取得可能な監視対象情報取得部と、ユーザが装着可能であってユーザの視界内に前記監視対象情報を表示可能な装着型ディスプレイと、ユーザの視界内にユーザの手が入っている場合においてその手が特定の形状であるときにユーザの操作が入力されていることを検出する操作検出部と、前記操作検出部で操作が検出された場合に、視界内における手の位置に基づいて前記監視対象情報を表示するための表示領域の位置を設定する、又は視界内における手のサイズに基づいて前記表示領域のサイズを設定する表示領域設定部と、前記表示領域設定部で設定された表示領域内に前記監視対象情報を表示する表示制御部と、を備える。前記表示領域設定部は、視界内にある手の全部に重ねて前記表示領域を設定する。
これによれば、ユーザは、例えば機械的なコントローラ等を触って操作することなく、自己の視界内に手を入れて操作することで、ユーザの視界内において監視対象情報が表示される表示領域の位置又はサイズを設定することができる。そのため、ユーザは、自己の手を動かして操作することによって、任意のタイミングで監視対象情報を表示させることが出来ると共に、例えば監視対象情報と実景とが重ならないように表示領域の位置又はサイズを設定することができる。これにより、表示領域に表示される監視対象情報が視界を妨げないようにすることができ、その結果、ユーザの視界を妨げ難い情報提示が可能になる。
(請求項2)
ここで、表示領域を操作する場合だけでなく通常の作業時にも、ユーザの視界内に手が入ることが想定される。この場合、ユーザが操作を意図していないにもかかわらず、視界内に手が入ったというだけで装着型ディスプレイに監視対象情報が表示されたり、表示領域の位置やサイズが変更されたりすると、かえってユーザの視界を妨げることになる。そこで、請求項2の情報表示システムにおいて、操作検出部は、操作時のユーザの手の形状を前記特定の形状として予め登録可能であって、ユーザの視界内に入っている手の形状が前記予め登録された手の形状に一致している場合にユーザの操作が入力されていることを検出する。
これによれば、ユーザは、予め登録した手の形状で操作している場合に限り、つまりユーザが操作の意図を明確に示している場合に限り、監視対象情報の表示や、表示領域の位置又はサイズを操作することができる。つまり、これによれば、ユーザが操作を意図していないにもかかわらず、視界内に手が入ったというだけでユーザの視界内に監視対象情報が表示されたり、表示領域の位置やサイズが変更されたりすることを防ぐことができる。その結果、ユーザの視界を妨げ難く、より安全性の高い情報提示が可能になる。
更には、例えば本構成の情報表示システムを複数人のユーザで共用する場合、各ユーザ間において、手の形状の違いや、手の握り方及び開き方の癖等、個人差があることが想定される。そのため、操作に使用する手の形状を、ユーザ毎の個人差を考慮せずに画一的に設定してしまうと、人によっては操作として認識されない可能性がある。これに対し、本構成によれば、操作に使用する手の形状を、ユーザ毎に個別に登録することで、個人差を吸収することができる。その結果、操作性が高く、より安全性の高い情報提示が可能になる。
(請求項3)
請求項3の情報表示システムにおいて、前記操作検出部は、ユーザの操作を検出していない状態においてユーザの視界内に手が入ってからその手の位置及び形状が所定期間変化しなかった場合に初めてユーザの操作が入力されたことを検出する。これによれば、表示部に監視対象情報が表示されていない状態から表示させる状態に移行する際に、操作検出部は、ユーザの操作の意図をより明確に検出することができる。したがって、例えば視界内を手が通過しただけのような場合に監視対象情報が表示されることをより確実に防ぐことができ、その結果、ユーザの視界を更に妨げ難く、より安全性の高い情報提示が可能になる。
(請求項
請求項の情報表示システムにおいて、前記表示領域設定部は、ユーザの視界内に入っているユーザの手の全部に重ねて前記表示領域を設定する。これによれば、ユーザは、例えば自己の手のひらを見る感覚で、監視対象情報を見ることができる。そのため、直感的な操作が可能になり、その結果、操作性の向上を図ることができる。
(請求項
請求項の情報表示システムにおいて、前記表示領域設定部は、前記操作検出部で検出された操作において、ユーザの手が視界内で大きくなった場合には前記表示領域を拡大し、ユーザの手が視界内で小さくなった場合には前記表示領域を縮小させる。そして、前記表示制御部は、前記表示領域が拡大された場合には前記表示領域に表示させる前記監視対象情報の情報量を増やし、前記表示領域が縮小された場合には前記表示領域に表示させる前記監視対象情報の情報量を減らす。
これによれば、ユーザは、自己の操作によって表示領域のサイズを変更することで、表示領域内に表示される監視対象情報の情報量を任意に調整することができる。したがって、ユーザは、現在の視界の状況に応じて監視対象情報の情報量を調整することができ、その結果、ユーザの視界を妨げ難くかつ適切な情報提示が可能となる。
(請求項
また、請求項の情報表示システムにおいて、前記表示領域設定部は、前記操作検出部で検出された操作において、ユーザの手が視界内で大きくなった場合には前記表示領域を拡大し、ユーザの手が視界内で小さくなった場合には前記表示領域を縮小させる。そして、前記表示制御部は、前記表示領域が拡大された場合には前記表示領域に表示させる前記監視対象情報の表示態様を大きくし、前記表示領域が縮小された場合には前記表示領域に表示させる前記監視対象情報の表示態様を小さくする。
これによれば、ユーザは、自己の操作によって表示領域のサイズを変更することで、表示領域内に表示される監視対象情報の表示態様つまりサイズを任意に調整することができる。これにより、ユーザは、監視対象情報の表示サイズを自己の視力等に併せて任意に調整することができ、その結果、更に見易く適切な情報提示が可能となる。
(請求項
請求項の情報表示システムにおいて、前記表示領域設定部は、前記操作検出部で検出されたユーザの手の位置に追従させて前記表示領域を移動させる。これによれば、ユーザは、自己の操作によって、監視対象情報の表示位置を任意の位置に変更することができる。例えばユーザは、監視対象情報が実景に重なっている場合等に、その監視対象情報を、実景と重ならないような見易い位置に移動させることができる。これにより、ユーザは、監視対象情報によって視界を妨げないようにすることがより容易にでき、その結果、ユーザの視界を更に妨げ難い情報提示が可能になる。
(請求項
請求項の情報表示システムにおいて、前記表示制御部は、前記表示領域内を不透明に表示する。これによれば、表示領域内に表示された監視対象情報が、表示領域の後ろの実景に紛れ込む事を防ぐことができ、その結果、監視対象情報をより見易くすることができる。
(請求項
請求項の情報表示システムにおいて、操作検出部は、前記装着型ディスプレイに取り付けられたカメラを介して、ユーザの視界内にある手の位置及び形状に関する情報を取得することができる。この場合、装着型ディスプレイに取り付けられたカメラの撮像範囲は、ユーザの視界と共に動く。このため、本構成によれば、カメラで取得したユーザの手の位置及び形状を、ユーザの実際の視界内における手の位置及び形状に極力近づけることができる。これにより、ユーザの視界内で実際に行われる操作を、表示部内における表示領域の操作に正確に反映することができる。その結果、更に直感的な操作が可能になって、より安全性が高くユーザの視界を妨げ難い情報提示が可能になる。
一実施形態による情報表示システムの概略構成を模式的に示す図 一実施形態による情報表示システムの電気的構成を模式的に示すブロック図 一実施形態について、操作に用いる手の形状を登録する際に、表示部を透過してユーザに見える視界の一例を示す図 一実施形態について、非操作時に表示部を透過してユーザに見える視界の一例を示す図(その1) 一実施形態について、非操作時に表示部を透過してユーザに見える視界の一例を示す図(その2) 一実施形態について、非操作時に表示部を透過してユーザに見える視界の一例を示す図(その3) 一実施形態について、視界内に手を入れて操作を開始する際に表示部を透過してユーザに見える視界の一例を示す図 一実施形態について、図7の状態において表示領域設定部によって設定された表示領域の概念を示す図 一実施形態について、図8の状態において表示領域内に監視対象情報を表示した場合を示す図 一実施形態について、図8の状態から手を動かして操作領域を移動させた際の概念を示す図 一実施形態について、図8の状態から手を近づけて操作領域を拡大させた際の概念を示す図 一実施形態について、図11の状態において表示領域内に監視対象情報を表示させた状態を示すものであって、監視対象情報の情報量を増やした場合を示す図 一実施形態について、図8の状態から手を遠ざけて操作領域を縮小させた際の概念を示す図 一実施形態について、図13の状態において表示領域内に監視対象情報を表示させた状態を示すものであって、監視対象情報の情報量を減らした場合を示す図 一実施形態について、図11の状態において表示領域内に監視対象情報を表示させた状態を示すものであって、監視対象情報の表示態様を大きくした場合を示す図 一実施形態について、ディスプレイ制御装置の制御部で実行される処理内容を示すフローチャート
以下、一実施形態について図面を参照しながら説明する。
図1及び図2に示すように、情報表示システム10は、監視対象である少なくとも1台この場合2台のロボット11と、各ロボット11に対応して設けられたロボットコントローラ12と、安全装置13と、いわゆるヘッドマウントディスプレイと称される頭部装着型ディスプレイ20(以下、HMD20と称する)と、ディスプレイ制御装置30と、を含んで構成されている。なお、監視対象としては、ロボット11に限られない。
以下の説明において、これら2台のロボット11を区別する際には、第1ロボット111及び第2ロボット112と称する。また、第1ロボットロボット111及び第2ロボット112に対応するロボットコントローラ12を、それぞれ第1ロボットコントローラ121及び第2ロボットコントローラ122と称する。
ロボット11は、例えば6軸の垂直多関節型ロボットで構成されている。一般的な構成につき詳しい説明は省略するが、ロボット11は、サーボモータにより駆動される6軸のアームを有し、第6軸アームの先端部に、例えばパレット内に収容されているワークを把持するためのハンド等を備えている。ロボット11は、ロボットコントローラ12に図示しない接続ケーブルを介して接続される。各軸のサーボモータは、このロボットコントローラ12により制御される。
ロボットコントローラ12は、図示しない制御回路やサーボ制御部、電源装置等を備えている。制御回路はマイコンを主体として構成されている。ロボットコントローラ12は、予め記憶された動作プログラムや、図示しないティーチングペンダント等により設定された教示データ、各種パラメータ等に従って、サーボ制御部を介してロボット11の各軸サーボモータを制御する。これにより、ロボットコントローラ12は、ワークの組付け作業等を各ロボット11に自動で実行させる。
各ロボットコントローラ12は、それぞれ安全装置13に通信可能に接続されている。安全装置13は、ロボットコントローラ12側から各ロボット11の動作状態及び各ロボットコントローラ12による制御状態を特定可能な各種の情報を取得可能に構成されている。そのため、安全装置13は、ロボット11のアームの回転角度やモータの通電状態等、ロボット11の動作状態を示す動作情報及びコントローラ12の制御状態を示す制御情報をリアルタイムで取得することができる。
また、安全装置13は、各ロボットコントローラ12から取得した各ロボット11の情報に基づいて、ロボット11の現在の形態つまり姿勢を3次元的にモデリングした3Dモデル画像データを生成することができる。また、安全装置13は、各ロボット11が設置されている領域、例えば工場内における基準位置を原点とした2次元座標系における各ロボット11の座標つまりはロボット11の設置位置も記憶している。
HMD20は、ユーザの頭部に装着可能な形態に構成されており、ユーザの視界内に各種情報を表示させることができる。HMD20は、両目を覆う両眼型、又は一方の目のみを覆う単眼型のいずれでも良いが、本実施形態は、ユーザの視界を奪い易い両眼型により適している。また、HMD20の形状は、眼鏡のように装着する眼鏡型や帽子のように装着する帽子型などが想定されるが、いずれも形状であっても良い。本実施形態のHMD20は、眼鏡型を想定している。
HMD20は、図2にも示すように、表示部21及びカメラ22を有している。表示部21は、ユーザがHMD20を装着した状態において、そのユーザの視界と重なる位置に設けられている。本実施形態の場合、表示部21は、眼鏡のレンズ部分に相当する部分であり、画像などの情報を表示することができるいわゆる透過型のディスプレイで構成されている。このため、HMD20に表示される画像は、ユーザの視界に重なって表示されることになる。換言すると、ユーザは、自身の目で見た現実の風景と、HMD20によって表示された仮想的な画像とを併せて見ることになる。
カメラ22は、小型のCCDカメラやCMOSカメラで構成されており、HMD20に一体的に取り付けられている。このカメラ22は、ユーザの顔の向きと一致するように、HMD20のフレームの一側部に設けられている。カメラ22は、図1に示すように、ユーザ90がHMD20を頭部に装着した状態で、ユーザ90の頭部正面が向いている方向の画像を撮像する。そのため、カメラ22によって撮像される画像は、ユーザ90の視界とほぼ同一の画角となっている。換言すると、カメラ22は、ユーザ90が見ている風景とほぼ同一の風景を撮像する。
なお、表示部21は、透過型のディスプレイに限られず、非透過型のディスプレイで構成しても良い。この場合、HMD20は、カメラ22で撮影した画像をリアルタイムで表示部21に表示させることで、カメラ22が撮影した風景をユーザに対し仮想的に提示、すなわちユーザの視界を表示部21に再現すれば良い。また、HMD20は、表示部21を有するものに限られず、仮想的な画像をユーザの網膜に直接投影する網膜投影型であっても良い。
本実施形態の場合、操作検出部35は、HMD20に取り付けられたカメラ22を介して、ユーザの視界91内にある手の位置及び形状に関する情報を取得することができる。すなわち、本実施形態において、ユーザの視界91内の手の位置及び形状に関する情報(以下、手情報と称する)を取得する手情報取得部として機能する。本実施形態において、ユーザの手の位置とは、ユーザの視界内における奥行き方向の位置、及び視界に対して平行方向の位置つまり顔面に対して平行方向の位置を意味する。
ここで、ユーザの視界内にある手は、奥行き方向に対する手の位置つまり顔からの距離が変化すると、ユーザの視界内に占める手のサイズも変化する。すなわち、ユーザの顔に手を近づけると、ユーザが見る手のサイズは大きくなり、逆にユーザの顔から手を遠ざけると、ユーザが見る手のサイズは小さくなる。このため、本実施形態では、ユーザの視界内における奥行き方向の位置は、ユーザの視界内において占める手のサイズつまりユーザが見る手のサイズと同義とする。また、ユーザの手の形状とは、手を開いているか閉じているか等に基づく手の形状を意味する。
なお、手情報取得部は、カメラ22に限られず、例えばユーザの手の位置や形状を検出可能なセンサ付きグローブいわゆるデータキャプチャーグローブ等で構成することもできる。すなわち、操作検出部35は、ユーザの手に装着されるセンサ付きグローブいわゆるデータキャプチャーグローブによって、ユーザの視界内にある手の位置及び形状に関する情報を取得するようにしても良い。
HMD20は、ディスプレイ制御装置30に無線又は有線で接続されている。なお、ディスプレイ制御装置30は、HMD20と一体に構成されていても良い。図2に示すように、ディスプレイ制御装置30は、マイクロコンピュータ等で構成された制御部31を内蔵しており、HMD20の表示部21に表示する画像データを送信したり、カメラ22により撮影された画像データを受信したりする。また、ディスプレイ制御装置30は、安全装置13と有線又は無線通信が可能となっている。
図2に示すように、ディスプレイ制御装置30は、制御部31の他、監視対象情報取得部32、視界情報取得部33、監視対象識別部34、操作検出部35、表示領域設定部36、及び表示制御部37を有している。制御部31は、例えばCPU311や、ROM、RAM、及び書き換え可能なフラッシュメモリなどの記憶領域312を有するマイクロコンピュータを主体に構成されており、HDM20の全体の制御を司っている。
記憶領域312は、情報表示プログラムを記憶している。制御部31は、CPU311において情報表示プログラムを実行することにより、監視対象情報取得部32、視界情報取得部33、監視対象識別部34、操作検出部35、表示領域設定部36、及び表示制御部37等を、ソフトウェア的に実現する。なお、これら監視対象情報取得部32、視界情報取得部33、監視対象識別部34、操作検出部35、表示領域設定部36、及び表示制御部37は、例えば制御部31と一体の集積回路としてハードウェア的に実現してもよい。
監視対象情報取得部32は、安全装置13から、監視対象である各ロボット11に関する情報として、監視対象情報をリアルタイムで取得することができる。監視対象情報は、各ロボット11の動作によって随時変化する情報や、各ロボット11の動作によっても変化しない情報等、各種情報によって構成することができる。例えば監視対象情報は、各ロボット11の動作によって随時変化する情報として、上述した3Dモデル画像データを含む各ロボット11の動作状態を示す動作情報や、コントローラ12の制御状態を示す制御情報などを含んでいる。また、監視対象情報は、各ロボット11の動作によっても変化しない情報として、各ロボット11の取扱説明書等の情報を含んでいても良い。
視界情報取得部33は、HMD20を装着したユーザ90の視界を特定するための視界情報を取得する処理を行うことができる。ユーザ90の視界とは、ユーザ90がHMD20を装着した状態においてユーザ90の目に映る風景を意味する。本実施形態の場合、ユーザ90の視界とは、眼鏡のレンズ部分である表示部21を通してユーザ90の目に映る風景を意味する。視界情報取得部33は、例えばカメラ22で撮像した画像から、ユーザ90の視界情報を取得する。本実施形態では、例えば図4等に示すように、カメラ22の撮像範囲221及び表示部21の領域を、ユーザ90の視界91と擬制している。
図2に示す監視対象識別部34は、視界情報取得部33で取得した視界情報に基づいてユーザ90の視界91内に存在する監視対象であるロボット11を識別する処理を行うことができる。すなわち、監視対象識別部34は、ユーザの視界内に存在する監視対象つまりロボット11が、ロボット111、112のいずれであるかを識別つまり特定することができる。監視対象識別部34は、例えば次のようにして各ロボット11を識別することができる。すなわち、例えば各ロボット11に、それぞれ個体を特定するためのマーカーを付しておく。そして、監視対象識別部34は、カメラ22で撮像された画像を基にロボット11に付されたマーカーを認識することで、各ロボット11を識別することができる。
また、他の方法としては、監視対象識別部34は、例えば次のようにして各ロボット11を識別することができる。すなわち、監視対象識別部34は、安全装置13から各ロボット11の現在の3Dモデル画像データを取得する。そして、監視対象識別部34は、各ロボット11の3Dモデル画像データと、カメラ22で撮像されたロボット11の形態とを照合することで、各ロボット11を識別することができる。
操作検出部35は、カメラ22で取得された手情報つまり視界情報取得部33で取得した視界情報に基づいて、ユーザの操作を検出する処理を行うことができる。すなわち、操作検出部35は、カメラ22を介して取得されたユーザの視界内の映像から、ユーザの視界内に入っている手の形状及び手の位置に関する情報を取得する。そして、操作検出部35は、ユーザの視界内に入っている手の形状及び手の位置から、操作開始のトリガー及び操作の内容を検出する。このため、ユーザは、特定の形状にした手を自己の視界内つまりカメラ22の前で動かすことで、HMD20の表示部21に表示される内容を操作することができる。
具体的には、例えば図3に示すように、操作検出部35は、表示部21の表示内容を操作する際に用いるユーザの手92の形状を、操作に使用する特定の形状として予め記憶領域312に記憶させることで登録する。以下の説明では、特定の形状として登録したユーザの手の形状つまり操作に用いる手92の形状を、登録手形状と称する。すなわち、登録手形状は、ユーザが操作に用いる手の形状として操作検出部35に認識させたい手の形状である。本実施形態では、例えば図3に示すように、ユーザは、自己の手92この場合左手を開いてその手のひらをユーザ側に向けた状態を、ディスプレイ制御装置30に登録するものとする。
なお、操作検出部35は、複数の登録手形状を登録可能であっても良い。また、操作検出部35に登録可能な手の形状は、図3の例に限られない。また、操作に使用する手の形状つまり操作検出部35が操作として認識する手の形状は、操作検出部35に登録した形状に限られず、例えばメーカー等によって予め規定された形状であっても良い。
図2に示す操作検出部35は、視界情報取得部33で取得した視界情報から、例えば画像処理によってユーザの手92の形状を抽出することで、その抽出した手92の形状の位置や具体的な形状に関する情報を取得する。なお、以下の説明では、視界情報取得部33で抽出したユーザの手92の形状を、抽出手形状と称する。操作検出部35は、手92の抽出手形状が、予め登録された登録手形状に一致している場合に、ユーザ90の操作が入力されていることを検出する。
この場合、抽出手形状と登録手形状とが一致するとは、両者が所定の割合で相似していることを意味し、手のサイズや角度までが完全一致することを要しない。すなわち、操作検出部35は、図7に示すように、視界91内の手92の姿勢やサイズ、つまり角度やカメラ22からの距離が、図3に示す登録手形状と異なっていても、視界91内に入った手92の形状が登録手形状と所定の割合で相似していれば、視界91内に入った手92の形状は登録手形状と一致していると判断し、操作が入力されたことを検出する。この場合、手形状の一致を判断する所定の割合は、誤検出と操作性との兼ね合いを考慮して適宜設定すれば良い。
操作検出部35は、視界91内に手が入っておらず操作が入力されていない非操作状態から、視界91内に手が入って操作が入力されている操作状態に切り替えるために、次の処理を行う。すなわち、操作検出部35は、ユーザの操作を検出していない非操作状態において、カメラ22で取得された手情報の手の位置及び形状が所定期間変化しなかった場合に、初めてユーザの操作が入力されたことを検出する。つまり、操作検出部35は、非操作状態から操作状態に切り替えるための条件として、単に視界91内に手が入っただけでは足りず、視界91内に入った手の位置及び形状が、登録手形状と一致した状態で所定期間維持されることを要している。所定期間は、例えば1〜3秒程度であるが、これに限られない。
すなわち、操作検出部35は、視界91内に手が入っていない非操作状態から初めて視界91内に手が入った場合に、その視界91内に入った手の形状が、1〜3秒程度の期間、登録手形状と一致していなければ、操作が入力されたことを検出しない。このため、操作検出部35は、視界91内に手が入っていない非操作状態から初めて視界91内に手が入った場合であっても、例えば図5、図6に示すように、その視界91内に入った手92の形状が図3の登録手形状と異なっていたり、単に視界91内を手92が通過したりしたというだけでは、操作が入力されたと判断しない。また、ユーザは、操作を終了する場合には、例えば図4に示すように視界91内から手を外すか、又は例えば図5、図6に示すように、視界91内の手92を登録手形状とは異なる形状に変化させる。
図2に示す表示領域設定部36は、例えば図7に示すような視界91内における操作を検出すると、操作検出部35で検出した操作に基づいて、例えば図8に示すように、表示領域211を設定する。表示領域211とは、HMD20の表示部21において仮想的に設定される領域であって、監視対象情報を表示させるための領域である。すなわち、表示領域設定部36は、例えば図8に示すように、操作検出部35で操作が検出された場合に、その操作に係る手92の位置及び形状に基づいて、表示領域211の位置及びサイズを設定する。
表示領域設定部36は、操作検出部35で操作が検出された場合に、視界91内における手92の位置に基づいて表示領域211の位置を設定し、視界91内における手92のサイズに基づいて表示領域211のサイズを設定する。この場合、表示領域設定部36は、操作検出部35で検出された操作において、例えば図8に対して図11に示すように、ユーザの手92が視界91内つまり表示部21内で大きくなった場合には、ユーザの手92のサイズに合わせて表示領域211を拡大する。
一方、表示領域設定部36は、操作検出部35で検出された操作において、例えば図8に対して図13に示すように、ユーザの手92が視界91内で小さくなった場合には、ユーザの手92のサイズに合わせて表示領域211を縮小させる。すなわち、ユーザは、操作検出部35による操作検出が開始された後、自己の手92を登録手形状に維持したまま奥行き方向に前後させて視界91内における手92のサイズを変化させることで、表示領域211のサイズを変化させることができる。
また、表示領域設定部36は、視界91内つまり表示部21内に入っているユーザの手92の一部又は全部に重ねて表示領域211を設定する。本実施形態の場合、表示領域設定部36は、図8等に示すように、視界91内にある手92の全体を覆うようにして、表示領域211を設定する。そして、表示領域設定部36は、例えば図10に示すように、操作検出部35で検出された手92の位置に追従させて、表示領域211を移動させる。すなわち、ユーザは、操作検出部35によって操作検出が開始されると、自己の手92を視界91内で動かす事で、その手92に追従させて、視界91内において表示領域211を動かすことができる。
図2に示す表示制御部37は、例えば図9に示すように、表示領域設定部36で設定された表示領域211内に、監視対象情報212を構成する文字情報や数字、図形、記号情報を表示する。本実施形態の場合、表示制御部37は、表示領域211内を、例えば監視対象情報212とは反対色で不透明に表示することで、表示領域211の後ろの実景を覆い隠している。これにより、表示領域211内に表示された監視対象情報212が、表示領域211の後ろの実景に紛れ込む事を防ぐことができるため、監視対象情報212が見易くなる。なお、表示領域211は、監視対象情報212を表示させるための領域であるため、表示制御部37は、表示領域211を示す枠及び表示領域211内の色彩を、必ずしも表示部21に表示する必要はない。
図2に示す表示制御部37は、表示領域211の拡大縮小に伴って、表示領域211に表示させる監視対象情報212の情報量を増減する。例えば図8に対して図11に示すように表示領域211が拡大された場合には、例えば図9に対して図12に示すように表示領域211に表示させる監視対象情報212の情報量を増やす。一方、表示制御部37は、例えば図8に対して図13に示すように表示領域211が縮小された場合には、例えば図9に対して図14に示すように、表示領域211に表示させる監視対象情報212の情報量を減らす。
また、表示制御部37は、表示領域211の拡大縮小に伴って、表示領域211に表示させる監視対象情報212の表示態様を拡大縮小しても良い。すなわち、表示制御部37は、図9と図15とを対比して示すように、表示領域211が拡大された場合には表示領域211に表示させる監視対象情報212の表示態様を大きくし、表示領域211が縮小された場合には表示領域211に表示させる監視対象情報212の表示態様を小さくしても良い。
なお、表示制御部37は、例えば安全装置13に接続されている全てのロボット11に関する監視対象情報を表示部21に表示させるようにしても良いし、監視対象識別部34と協働して、視界91内に入っているロボット11に関する監視対象情報のみを表示部21に表示させるようにしても良い。
次に、ディスプレイ制御装置30の制御部31において行われる制御フローについて、図16も参照して説明する。制御部31は、情報表示プログラムを実行すると、図16の制御フローを実行する。制御部31は、まず、ステップS11において、視界91内で登録手形状と一致する手の形状が検出されたか否かを判断する。例えば図4に示すように手形状自体が抽出されない場合、又は図5、図6に示すように手形状は抽出されたがその抽出手形状が登録手形状と一致しない場合(いずれも図16のステップS11でNO)、制御部31は、ステップS12へ処理を移行させる。そして、制御部31は、操作が入力されていない又は操作が終了されたと判断し、ステップS11へ処理を戻す。
一方、例えば図7に示すように、視界91内に手92が抽出され、かつ、その手92の抽出手形状が登録手形状と一致した(図16のステップS11でYES)、制御部31は、ステップS13へ処理を移行させる。次に、ステップS13において、制御部31は、現在の状態が、表示部21の表示内容が操作されている操作状態であるか又は操作されていない非操作状態であるかを判断する。制御部31は、現在の状態が操作状態であれば(ステップS13でYES)、操作状態を継続するため、ステップS14を実行することなく、ステップS15へ処理を移行させる。一方、制御部31は、現在の状態が非操作状態であれば(ステップS13でNO)、ステップS14へ処理を移行させる。
制御部31は、ステップS14において、操作検出部35の処理により、ステップS11で検出された手92の抽出手形状の位置及び形状が所定時間維持されたか否かを判断する。非操作状態において初めて登録手形状に一致する抽出手形状を検出してからその抽出手形状の位置及び形状が所定時間経過する前に変化した場合(ステップS14でNO)、制御部31は、ステップS12へ処理を移行させる。そして、ステップS12において、制御部31は、操作が入力されなかったと判断し、ステップS11へ処理を戻す。また、非操作状態において初めて登録手形状に一致する手形状を検出してからその手形状の位置及び形状が所定時間維持された場合(ステップS14でYES)、制御部31は、操作状態を開始するため、ステップS15へ処理を移行させる。
次に、制御部31は、ステップS16へ処理を移行させ、操作検出部35の処理により、視界情報取得部33で取得した視界情報を画像処理すること等によって、視界91内における手92の位置及びサイズつまり抽出手形状の位置及びサイズを測定する。そして、制御部31は、ステップS17へ処理を移行させ、表示領域設定部36の処理により、図8、図10、図11、及び図13に示すように、表示領域211の位置及びサイズを設定する。
そして、制御部31は、図16のステップS18へ処理を移行させ、図9、図12、図14、又は図15に示すように、ステップS17で設定された表示領域211のサイズに応じた情報量又は表示サイズで、表示領域211内に監視対象情報212を表示させる。そして、制御部31は、図16のステップS11へ処理を戻し、ステップS11からS18を繰り返す。
以上説明した実施形態によれば、情報表示システム10において、操作検出部35は、ユーザの視界91内にユーザの手が入っている場合においてその手が特定の形状であるときにユーザの操作が入力されていることを検出する。そして、表示領域設定部36は、操作検出部35で操作が検出された場合に、視界91内における手92の位置に基づいて監視対象情報212を表示するための表示領域211の位置を設定する。また、表示領域設定部36は、操作検出部35で操作が検出された場合に、視界91内における手92のサイズに基づいて表示領域211のサイズを設定する。そして、表示制御部37は、表示領域設定部36で設定された表示領域211内に監視対象情報212を表示する。
これによれば、ユーザは、例えば機械的なコントローラ等を触って操作することなく、自己の視界91内に手92を入れて操作することで、表示部21において監視対象情報212が表示される表示領域211の位置又はサイズを設定することができる。そのため、ユーザは、自己の手92を動かして操作することによって、任意のタイミングで監視対象情報212を視界91内に表示させることが出来る。更に、ユーザは、自己の手92を動かして操作することによって、例えば監視対象情報212と実景とが重ならないように表示領域211の位置やサイズを設定することができる。これにより、表示領域211に表示される監視対象情報212が視界を妨げないようにすることができ、その結果、ユーザの視界を妨げ難い情報提示が可能になる。
ここで、表示領域211を操作する場合だけでなく通常の作業時にも、ユーザの視界91内に手92が入ることが想定される。この場合、ユーザが操作を意図していないにもかかわらず、視界91内に手92が入ったというだけで監視対象情報212が表示されたり、表示領域211の位置やサイズが変更されたりすると、かえってユーザの視界91を妨げることになる。そこで、操作検出部35は、操作時のユーザの手92の形状を操作に使用する特定の形状として予め登録可能である。そして、操作検出部35は、ユーザの視界91内に入っている手の形状つまりカメラ22で取得された手92の形状が、予め登録された手の形状つまり登録手形状に一致している場合にユーザの操作が入力されていることを検出する。
これによれば、ユーザは、予め登録した手の形状で操作している場合に限り、つまりユーザが操作の意図を明確に示している場合に限り、監視対象情報212の表示や、表示領域211の位置又はサイズを操作することができる。つまり、これによれば、ユーザが操作を意図していないにもかかわらず、視界91内に手92が入ったというだけで監視対象情報212が表示されたり、表示領域211の位置やサイズが変更されたりすることを防ぐことができる。その結果、ユーザの視界91を妨げ難く、より安全性の高い情報提示が可能になる。
また、操作検出部35は、ユーザの操作を検出していない状態においてユーザの視界91内に手が入ってからその手の位置及び形状が所定期間変化しなかった場合に初めてユーザの操作が入力されたことを検出する。これによれば、表示部21に監視対象情報212が表示されていない状態から表示させる状態に移行する際に、操作検出部35は、ユーザの操作の意図をより明確に検出することができる。したがって、例えば視界91内を手92が通過しただけのような場合に監視対象情報212が表示されることをより確実に防ぐことができ、その結果、ユーザの視界91を更に妨げ難く、より安全性の高い情報提示が可能になる。
また、表示領域設定部36は、ユーザの視界91内に入っているユーザの手92の一部又は全部に重ねて表示領域211を設定する。これによれば、ユーザは、例えば自己の手のひらを見る感覚で、監視対象情報212を見ることができる。そのため、直感的な操作が可能になり、その結果、操作性の向上を図ることができる。
また、表示領域設定部36は、操作検出部35で検出された操作において、ユーザの手92が視界91内で大きくなった場合には表示領域211を拡大し、ユーザの手92が視界91内で小さくなった場合には表示領域211を縮小させる。そして、表示制御部37は、表示領域211が拡大された場合には表示領域211に表示させる監視対象情報212の情報量を増やし、表示領域211が縮小された場合には表示領域211に表示させる監視対象情報212の情報量を減らす。
これによれば、ユーザは、自己の操作によって表示領域211のサイズを変更することで、表示領域211内に表示される監視対象情報212の情報量を任意に調整することができる。したがって、ユーザは、現在の視界91の状況に応じて監視対象情報212の情報量を調整することができ、その結果、ユーザの視界91を妨げ難くかつ適切な情報提示が可能となる。
また、この場合、表示制御部37は、表示領域211が拡大された場合には表示領域211に表示させる監視対象情報212の表示態様つまり表示サイズを大きくし、表示領域211が縮小された場合には表示領域211に表示させる監視対象情報212の表示態様つまり表示サイズを小さくしても良い。
これによれば、ユーザは、自己の操作によって表示領域211のサイズを変更することで、表示領域211内に表示される監視対象情報212の表示態様つまりサイズを任意に調整することができる。これにより、ユーザは、監視対象情報212の表示サイズを自己の視力等に併せて任意に調整することができ、その結果、更に見易く適切な情報提示が可能となる。
表示領域設定部36は、操作検出部35で検出されたユーザの手92の位置に追従させて表示領域211を移動させる。これによれば、ユーザは、自己の操作によって、監視対象情報212の表示位置を任意の位置に変更することができる。例えばユーザは、監視対象情報212が実景に重なっている場合等に、その監視対象情報212を、実景と重ならないような見易い位置に移動させることができる。これにより、ユーザは、監視対象情報212によって視界を妨げないようにすることがより容易にでき、その結果、ユーザの視界91を更に妨げ難い情報提示が可能になる。
表示制御部37は、表示領域211内を例えば監視対象情報212の反対色で塗りつぶすように表示することで、表示領域211を不透明に表示する。これによれば、表示領域211内に表示された監視対象情報212が、表示領域211の後ろの実景に紛れ込む事を防ぐことができ、その結果、監視対象情報212をより見易くすることができる。
カメラ22は、HMD20に取り付けられている。この場合、HMD20に取り付けられたカメラ22の撮像範囲は、ユーザの視界91と共に動く。これによれば、カメラ22で取得したユーザの手92の位置及び形状を、ユーザの実際の視界内における手の位置及び形状に極力近づけることができる。これにより、ユーザの視界内で実際に行われる操作を、表示部21内における表示領域211の操作に正確に反映することができる。その結果、更に直感的な操作が可能になって、より安全性が高くユーザの視界を妨げ難い情報提示が可能になる。
なお、本発明の実施形態は、上記し又図面に記載した態様に限定されるものではなく、その要旨を逸脱しない範囲で種々の変形や拡張をすることができる。
例えば制御部31、監視対象情報取得部32、視界情報取得部33、監視対象識別部34、操作検出部35、表示領域設定部36、及び表示制御部37を、それぞれ安全装置13側又はHMD20側に分散させて設けても良い。
監視対象であるロボット11は、特定の場所に固定されているものに限られず、例えば自走可能な構成であってもよい。更に、監視対象は、ロボットに限られず、例えばフォークリフト等のように人が運転する有人搬送車や、自動で走行可能な無人搬送車等の移動体等であっても良い。
図面中、10は情報表示システム、11はロボット(監視対象)、20はヘッドマウントディスプレイ(装着型ディスプレイ)、22はカメラ、32は監視対象情報取得部、35は操作検出部、36は表示領域設定部、37は表示制御部、を示す。

Claims (8)

  1. 監視対象となるロボットの駆動を制御するロボットコントローラと、
    前記ロボットコントローラから前記ロボットの動作状態及び制御状態を特定可能な情報を取得する安全装置と、
    前記安全装置から前記ロボットに関する情報である監視対象情報を取得可能な監視対象情報取得部と、
    ユーザが装着可能であってユーザの視界内に前記監視対象情報を表示可能な装着型ディスプレイと、
    ユーザの視界内にユーザの手が入っている場合においてその手が特定の形状であるときにユーザの操作が入力されていることを検出する操作検出部と、
    前記操作検出部で操作が検出された場合に、視界内における手の位置に基づいて前記監視対象情報を表示するための表示領域の位置を設定する、又は視界内における手のサイズに基づいて前記表示領域のサイズを設定する表示領域設定部と、
    前記表示領域設定部で設定された表示領域内に前記監視対象情報を表示する表示制御部と、
    を備え
    前記表示領域設定部は、視界内にある手の全部に重ねて前記表示領域を設定する、
    情報表示システム。
  2. 前記操作検出部は、操作時のユーザの手の形状を前記特定の形状として予め登録可能であって、ユーザの視界内に入っている手の形状が前記予め登録された手の形状に一致している場合にユーザの操作が入力されていることを検出する、
    請求項1に記載の情報表示システム。
  3. 前記操作検出部は、ユーザの操作を検出していない状態においてユーザの視界内に手が入ってからその手の位置及び形状が所定期間変化しなかった場合に初めてユーザの操作が入力されたことを検出する、
    請求項1又は2に記載の情報表示システム。
  4. 前記表示領域設定部は、前記操作検出部で検出された操作において、ユーザの手が視界内で大きくなった場合には前記表示領域を拡大し、ユーザの手が視界内で小さくなった場合には前記表示領域を縮小させ、
    前記表示制御部は、前記表示領域が拡大された場合には前記表示領域に表示させる前記監視対象情報の情報量を増やし、前記表示領域が縮小された場合には前記表示領域に表示させる前記監視対象情報の情報量を減らす、
    請求項1から3のいずれか一項に記載の情報表示システム。
  5. 前記表示領域設定部は、前記操作検出部で検出された操作において、ユーザの手が視界内で大きくなった場合には前記表示領域を拡大し、ユーザの手が視界内で小さくなった場合には前記表示領域を縮小させ、
    前記表示制御部は、前記表示領域が拡大された場合には前記表示領域に表示させる前記監視対象情報の表示態様を大きくし、前記表示領域が縮小された場合には前記表示領域に表示させる前記監視対象情報の表示態様を小さくする、
    請求項1からのいずれか一項に記載の情報表示システム。
  6. 前記表示領域設定部は、前記操作検出部で検出されたユーザの手の位置に追従させて前記表示領域を移動させる、
    請求項1からのいずれか一項に記載の情報表示システム。
  7. 前記表示制御部は、前記表示領域内を不透明に表示する、
    請求項1から6のいずれか一項に記載の情報表示システム。
  8. 前記操作検出部は、前記装着型ディスプレイに取り付けられたカメラを介して、ユーザの視界内にある手の位置及び形状に関する情報を取得することができる、
    請求項1から7のいずれか一項に記載の情報表示システム。
JP2017046026A 2017-03-10 2017-03-10 情報表示システム Active JP6834620B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017046026A JP6834620B2 (ja) 2017-03-10 2017-03-10 情報表示システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017046026A JP6834620B2 (ja) 2017-03-10 2017-03-10 情報表示システム

Publications (2)

Publication Number Publication Date
JP2018151742A JP2018151742A (ja) 2018-09-27
JP6834620B2 true JP6834620B2 (ja) 2021-02-24

Family

ID=63681696

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017046026A Active JP6834620B2 (ja) 2017-03-10 2017-03-10 情報表示システム

Country Status (1)

Country Link
JP (1) JP6834620B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3489800A1 (de) * 2017-11-27 2019-05-29 EUCHNER GmbH + Co. KG Sicherheitssystem
JP6997129B2 (ja) 2019-03-28 2022-01-17 ファナック株式会社 制御システム
JP2020198997A (ja) * 2019-06-07 2020-12-17 トヨタ自動車株式会社 訓練装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040095311A1 (en) * 2002-11-19 2004-05-20 Motorola, Inc. Body-centric virtual interactive apparatus and method
JP2005056059A (ja) * 2003-08-01 2005-03-03 Canon Inc 撮像部を備えた頭部搭載型ディスプレイを用いた入力装置および方法
JP4913913B2 (ja) * 2010-04-28 2012-04-11 新日鉄ソリューションズ株式会社 情報処理システム、情報処理方法及びプログラム
JP2013172432A (ja) * 2012-02-23 2013-09-02 Panasonic Corp 機器制御装置、機器制御方法、機器制御プログラム、及び集積回路
WO2014128752A1 (ja) * 2013-02-19 2014-08-28 株式会社ブリリアントサービス 表示制御装置、表示制御プログラム、および表示制御方法

Also Published As

Publication number Publication date
JP2018151742A (ja) 2018-09-27

Similar Documents

Publication Publication Date Title
JP6645142B2 (ja) ロボット安全システム
CN106808496B (zh) 机器人安全系统
JP5564300B2 (ja) ヘッドマウント型拡張現実映像提示装置及びその仮想表示物操作方法
JP6393367B2 (ja) 追従表示システム、追従表示プログラム、および追従表示方法、ならびにそれらを用いたウェアラブル機器、ウェアラブル機器用の追従表示プログラム、およびウェアラブル機器の操作方法
JP6598617B2 (ja) 情報処理装置、情報処理方法およびプログラム
US10474411B2 (en) System and method for alerting VR headset user to real-world objects
US10489981B2 (en) Information processing device, information processing method, and program for controlling display of a virtual object
US20210170603A1 (en) Method for using a multi-link actuated mechanism, preferably a robot, particularly preferably an articulated robot, by a user by means of a mobile display apparatus
EP3163407B1 (en) Method and apparatus for alerting to head mounted display user
JP6834620B2 (ja) 情報表示システム
JP7003633B2 (ja) 透過型表示装置、表示制御方法、およびコンピュータープログラム
JP6399692B2 (ja) ヘッドマウントディスプレイ、画像表示方法及びプログラム
JP6582921B2 (ja) ロボットモニタシステム
US20180217671A1 (en) Remote control apparatus, remote control method, remote control system, and program
KR20170078488A (ko) 가상 현실 헤드셋에서 손 동작들을 인식하기 위한 방법 및 장치
CN109300528B (zh) 一种认知康复训练系统及方法
JP6657858B2 (ja) ロボット操作システム
EP3346368B1 (en) Device, method and system for control of a target apparatus
US10684480B2 (en) Information display system
JP6874448B2 (ja) 情報表示システム
KR20170089228A (ko) 스마트 폰을 이용한 가상현실 헤드 마운트 디스플레이의 제어 방법
KR102242703B1 (ko) 헤드 마운트 디스플레이에 연결된 스마트 단말 및 이를 위한 제어 방법
JP2022122936A (ja) 情報表示システム
JP6958018B2 (ja) 情報表示システム
JP6690203B2 (ja) ロボット安全システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200207

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200925

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201006

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201204

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210118

R150 Certificate of patent or registration of utility model

Ref document number: 6834620

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250