JP2020014057A - 頭部搭載型表示装置、検査支援表示システム、表示方法及び表示プログラム - Google Patents
頭部搭載型表示装置、検査支援表示システム、表示方法及び表示プログラム Download PDFInfo
- Publication number
- JP2020014057A JP2020014057A JP2018133468A JP2018133468A JP2020014057A JP 2020014057 A JP2020014057 A JP 2020014057A JP 2018133468 A JP2018133468 A JP 2018133468A JP 2018133468 A JP2018133468 A JP 2018133468A JP 2020014057 A JP2020014057 A JP 2020014057A
- Authority
- JP
- Japan
- Prior art keywords
- image
- display
- unit
- imaging
- work
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 58
- 238000007689 inspection Methods 0.000 title claims description 6
- 238000003384 imaging method Methods 0.000 claims abstract description 143
- 238000012545 processing Methods 0.000 claims abstract description 23
- 230000007246 mechanism Effects 0.000 claims description 14
- 238000010191 image analysis Methods 0.000 claims description 4
- 230000008569 process Effects 0.000 description 42
- 238000010586 diagram Methods 0.000 description 26
- 238000004140 cleaning Methods 0.000 description 24
- 238000004891 communication Methods 0.000 description 20
- 230000009471 action Effects 0.000 description 16
- 230000003287 optical effect Effects 0.000 description 16
- 238000012790 confirmation Methods 0.000 description 12
- 238000012423 maintenance Methods 0.000 description 11
- 230000001954 sterilising effect Effects 0.000 description 11
- 230000001680 brushing effect Effects 0.000 description 10
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 9
- 230000006870 function Effects 0.000 description 8
- 238000010801 machine learning Methods 0.000 description 7
- 238000004659 sterilization and disinfection Methods 0.000 description 7
- 239000011521 glass Substances 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 238000005452 bending Methods 0.000 description 3
- 210000001747 pupil Anatomy 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000005406 washing Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 239000000470 constituent Substances 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 239000003814 drug Substances 0.000 description 2
- 229940079593 drug Drugs 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000005507 spraying Methods 0.000 description 2
- 239000000126 substance Substances 0.000 description 2
- 238000001356 surgical procedure Methods 0.000 description 2
- LFQSCWFLJHTTHZ-UHFFFAOYSA-N Ethanol Chemical compound CCO LFQSCWFLJHTTHZ-UHFFFAOYSA-N 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 239000007788 liquid Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30121—CRT, LCD or plasma display
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Quality & Reliability (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Optics & Photonics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Studio Devices (AREA)
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】作業の細部の確認を容易にすることができる。【解決手段】 頭部搭載型表示装置は、ユーザの視界中に電子映像の虚像による仮想表示領域を形成する表示部と、上記ユーザの視界の一部又は全部を含む撮像範囲を撮像する撮像部と、上記撮像部による撮像画像に対する信号処理によって上記撮像画像中の要観察範囲を判定する観察対象判定部と、上記撮像画像中の上記要観察範囲の画像部分を上記仮想表示領域に表示させる表示制御部と、を具備する。【選択図】図1
Description
本発明は、作業を確実、効率的に支援する頭部搭載型表示装置、検査支援表示システム、表示方法及び表示プログラムに関する。
従来、シースルー光学系を採用した眼鏡型表示装置等の頭部搭載型表示装置が開発されている。シースルー光学系を採用した頭部搭載型表示装置は、外界の視界を遮ることなく各種情報の表示が可能である。この種の頭部搭載型表示装置として、小型・軽量で、電気回路を眼鏡の片方のツルに収納し、仮想表示領域を装着者の視野の一部に配置するように構成された眼鏡型表示装置も開発されている。仮想表示領域は、例えば、視界内の一部の領域に配置した表示部に、表示コントローラによって生成した情報画像(電子映像の虚像)を表示することで得られる。
このような眼鏡型表示装置は、装着者に、眼鏡のレンズ越しに得られる外界視界(以下、実視界という)と、仮想表示領域において得られる視界(以下、仮想表示視界という)とを与えることができる。つまり、使用者は、実視界において外界の状況を視認することができると同時に、仮想表示視界において表示部に表示された情報画像を視認して各種情報を取得することができる。
このような表示装置は、仮想表示領域に外界の状況に関する例えば補助的な情報等を表示させることもでき、各種作業を確実且つ効率的に支援する作業支援装置としても有用である。また、作業をより効果的に支援するために、作業の様子を撮影するカメラが取り付けられた頭部搭載型表示装置も利用されている。
なお、特許文献1においては、表示部材の左右方向及び上下方向の位置調整、煽り角調整が可能なウェアラブルディスプレイが開示されている。
ところで、眼鏡型等の頭部搭載型表示装置においては、顔の動きに応じて頭部搭載型表示装置も動き、取り付けられたカメラの撮影範囲は、顔の向きに応じたものとなる。また、取り付けられたカメラで撮影する対象としては、装着者が行っている作業である場合が多いと考えられる。従って、カメラレンズの光軸方向を実視界の略中央に向けるようにカメラを頭部搭載型表示装置に取付ければよいと考えられる。
しかしながら、通常、視線方向は顔の向きよりも変化が大きい。例えば、手元の作業時においては、一般に、顔の向きに比べて、視線の向きをより下方に向ける傾向がある。従って、カメラレンズの光軸方向を実視界の所定の位置に向けるためには、カメラの取付け角度を視線の動きに合わせて調整する必要があるが、視線の動きは極めて高速であり、このような調整は容易ではない。
そこで、作業箇所を確実に撮影するために、カメラの画角を広角にして、十分な視野範囲を撮影できるようにすることが考えられる。しかしながら、カメラの画角を広角にすると、表示された撮像画像では作業の細部を確認することが困難な場合があるという問題があった。
本発明は、作業の細部の確認を容易にすることができる頭部搭載型表示装置、検査支援表示システム、表示方法及び表示プログラムを提供することを目的とする。
本発明の一態様による頭部搭載型表示装置は、ユーザの視界中に電子映像の虚像による仮想表示領域を形成する表示部と、上記ユーザの視界の一部又は全部を含む撮像範囲を撮像する撮像部と、上記撮像部による撮像画像に対する信号処理によって上記撮像画像中の要観察範囲を判定する観察対象判定部と、上記撮像画像中の上記要観察範囲の画像部分を上記仮想表示領域に表示させる表示制御部と、を具備する。
本発明の一態様による検査支援表示システムユーザの視界中に電子映像の虚像による仮想表示領域を形成する表示部と、上記ユーザの作業対象を含む撮像範囲を撮像する撮像部と、を有する頭部搭載型表示装置と、上記撮像部による撮像画像に対する信号処理によって上記撮像画像中の上記作業対象を含む要観察範囲を判定する観察対象判定部と、上記撮像画像中の上記要観察範囲の画像部分を拡大表示させるための表示制御部と、を有する作業判定装置と、を具備する。
本発明の一態様による表示方法は、ユーザの視界中に電子映像の虚像による仮想表示領域を形成する表示ステップと、上記ユーザの視界の一部又は全部を含む撮像範囲を撮像する撮像ステップと、上記撮像ステップによる撮像画像に対する信号処理によって上記撮像画像中の要観察範囲を判定する観察対象判定ステップと、上記撮像画像中の上記要観察範囲の画像部分を上記仮想表示領域に表示させる表示制御ステップと、を具備する。
本発明の一態様による表示プログラムは、コンピュータに、ユーザの視界中に電子映像の虚像による仮想表示領域を形成する表示ステップと、上記ユーザの視界の一部又は全部を含む撮像範囲を撮像する撮像ステップと、上記撮像ステップによる撮像画像に対する信号処理によって上記撮像画像中の要観察範囲を判定する観察対象判定ステップと、上記撮像画像中の上記要観察範囲の画像部分を上記仮想表示領域に表示させる表示制御ステップと、を実行させる。
本発明によれば、作業の細部の確認を容易にすることができるという効果を有する。
以下、図面を参照して本発明の実施の形態について詳細に説明する。
(第1の実施の形態)
図1は本発明の第1の実施の形態に係る頭部搭載型表示装置を示すブロック図である。図2は図1の頭部搭載型表示装置の外観の一例を模式的に示す説明図である。図2はウェアラブル端末装置である眼鏡型表示装置によって頭部搭載型表示装置を構成した例を示している。
図1は本発明の第1の実施の形態に係る頭部搭載型表示装置を示すブロック図である。図2は図1の頭部搭載型表示装置の外観の一例を模式的に示す説明図である。図2はウェアラブル端末装置である眼鏡型表示装置によって頭部搭載型表示装置を構成した例を示している。
本実施の形態における頭部搭載型表示装置は、現実世界の観察対象物からの直接又は光学系を介した光の知覚による像(実視界像)が得られる視界(実視界)と画像信号が与えられた表示部の表示画像(電子映像の虚像)によって形成される仮想表示領域において得られる視界(仮想表示視界)とを得るものである。本実施の形態においては、頭部搭載型表示装置は画角が十分に広角な撮像部を有しており、撮像部が撮像して得た撮像画像を電子映像の虚像として表示部に表示することができる。この場合において、本実施の形態においては、例えば、作業者が確実な観察をすべきと考える作業の細部等の画像部分(以下、要観察範囲という)を自動的に判定して、当該要観察範囲の拡大画像を表示することにより、作業の細部の確認を容易にし、作業を効果的に支援することを可能にするものである。
ウェアラブル端末装置10は制御部11を備えている。制御部11は、ウェアラブル端末装置10の各部を制御する。制御部11は、CPU等を用いたプロセッサによって構成されて、図示しないメモリに記憶されたプログラムに従って動作して各部を制御するものであってもよいし、ハードウェアの電子回路で一部を置き換えてもよい。
ウェアラブル端末装置10は撮像部12を有している。撮像部12は、例えば、図示しないイメージセンサによって構成される。制御部11には、撮像制御部11aが設けられている。撮像制御部11aは、撮像部12の駆動を制御すると共に、撮像部12によって取得された撮像画像を取り込む。撮像部12は、ウェアラブル端末装置10を装着する装着者の視界の例えば略全域を含む範囲を撮像範囲として観察対象を撮像し、撮像画像を制御部11に出力するようになっている。
制御部11は、撮像部12によって取得された撮像画像に圧縮処理を施し、圧縮後の撮像画像をエビデンス記録部15に与えて記録することができるようになっている。
制御部11には表示制御部11bが設けられている。表示制御部11bは、表示に関する各種処理を実行する。表示制御部11bは、例えば、ビデオコントローラやディスプレイコントローラ等によって構成することができ、制御部11から移動できるように構成されていてもよい。表示制御部11bは、表示部13の表示を制御する。表示制御部11bは、撮像部12によって取得された撮像画像を表示部13に与えて表示させることもできる。また、表示制御部11bは、エビデンス記録部15からの情報画像を表示部13に表示させることもできる。
また、ウェアラブル端末装置10には図示しない操作部が設けられている。操作部は図示しないスイッチやボタン等によって構成されており、ユーザ操作を受け付け、ユーザ操作に基づく操作信号を制御部11に供給するようになっている。制御部11は操作部からの操作信号に基づいて動作する。なお、図2の例では、操作部としてマイクロホンにより構成された音声入力部17を採用している。音声入力部17は、周囲音を収音して、収音した音声信号を制御部11に供給するようになっている。制御部11は音声入力部17によって収音した音声に対する音声認識処理によって、ユーザの操作を受け付けることができるようなっている。こうして、装着者等の発話に応じて制御部11が各部を制御することができるようになっている。
ウェアラブル端末装置10には、音声出力部18が設けられている。音声出力部18は、制御部11に制御されて、警告音や各種メッセージを音声出力することができるようになっている。
本実施の形態においては、作業支援を行うための各種情報を記憶するデータベース(DB)16を有している。DB16は、例えば作業情報を記憶する作業情報DB16a及び画像情報を記憶する画像DB16bを含む。作業情報DB16aには、複数の作業に関する各種の情報が含まれる。また、画像DB16bには、作業情報DB16aに記録される各種情報に関連する画像データ集である。
対象物判定部11eは、撮像部12によって取得された画像データと、DB16に予め蓄積されている情報とに基づいて、画像データに含まれる所定の対象物の種類や部位,形状,大きさ,個数,状態等の所定の条件の対象物を判定して検出する。なお、対象物判定部11eは、例えばオートフォーカス機構を利用して、撮像部と対象物との間の距離と撮像素子サイズとの関係から、撮像素子の受光面上に結像された対象物のサイズにより、対象物の大きさを判定することも可能である。
作業判定部11dは、撮像部12によって取得された画像データと、DB16に予め蓄積されている情報と、対象物判定部11eによって取得された判定結果情報等に基づいて、実行された作業の種類及び当該作業に関する各種検査項目の確認及び判定を行うようになっている。なお、作業判定部11dが行う判定には、例えば、作業に用いるツールの種類の判定や、各作業の種類の判定等が含まれる。
ガイド部11fは、撮像部12によって取得された画像データと、DB16に予め蓄積されている情報とに基づいて、実行された作業に関するガイド表示や、次に行うべき作業のガイド表示等を行うためのガイド情報を生成するようになっている。このガイド情報は、表示制御部11bによって、表示部13に表示されるようになっている。
制御部11は、撮像部12によって取得された画像データと、DB16に蓄積されている情報とを用いて、作業判定部11dの判定により判定された作業と、この作業に関連する作業情報を関連付けてエビデンス記録部15に記録させるようになっている。
図2は図1のウェアラブル端末装置10の外観を説明するためのものである。図2のウェアラブル端末装置10は、実視界と仮想表示視界とを同時に得る光学系として、実視界については眼鏡のレンズや空気等の透明なものを介して得るシースルー光学系を採用した例を示している。また、シースルー光学系としては、ハーフミラーを用いて、表示部からの光と実視界からの光とを目に入射するものや、瞳のサイズよりも小さい表示部を用いることで、表示部により形成される仮想表示領域においても実視界の像(実視界像)が知覚可能な瞳分割方式を採用したもの等がある。本実施の形態においては、瞳分割シースルー光学系を用いた例を示しているが、実視界と仮想表示視界とが同時に得られるものであれば、どのようなシースルー光学系を採用してもよい。
ウェアラブル端末装置10は、図1の回路を内蔵した筐体をユーザの身体の一部に取り付けるための支持部を有しており、ユーザの顔の動きに合わせて変位自在である。例えば、ウェアラブル端末装置10が眼鏡型で構成された場合には、図2に示すように、眼鏡フレーム21のツル部分が支持部となり、ユーザの顔41の動きに合わせて、ウェアラブル端末装置10全体が移動する。
眼鏡フレーム21の一部には、図1の制御部11、撮像部12、エビデンス記録部15及びデータベース(DB)16と表示部13の一部を構成する各回路が収納される回路収納部22が取り付けられている。回路収納部22の先端には、装着者の視界の全てを含む範囲を撮像する撮像部12を構成する撮像レンズ12aが配設されている。被写体からの光学像は、撮像レンズ12aを介して回路収納部22内に設けられた撮像部12の撮像素子に与えられる。この撮像素子によって、被写体光学像に基づく撮像画像を取得することができる。
図2の例では、撮像レンズ12aは、眼鏡フレーム21のツル部分の先端に取り付けられた回路収納部22に設けられている。ツル部分は人物の顔41と略同じ向きを向いており、撮像部12は、人の右目42R及び図示しない左目による視界の例えば略全てを含む視野範囲の被写体を撮像することが可能である。これにより、撮像部12は、人が観察している作業状態に対応する画像を撮像画像として取得することが可能である。
眼鏡フレーム21の左右のリムに嵌込まれる左右のレンズのうち右レンズの前方側には、回路収納部22に支持された導光部13bが設けられている。また、回路収納部22の側面には、導光部13bの入射面に向かって映像光を出射する表示パネル13aが配設されている。表示パネル13a及び導光部13bによって表示部13が構成される。導光部13bの出射面は、人物が顔41に眼鏡フレーム21を装着した状態で、右目42Rの前方であって右レンズの一部の領域に対応する位置に配置されるようになっている。
回路収納部22内に収納された表示制御部11bは、制御部11によって処理した映像信号を表示部13に与え、表示部13は、この映像信号に基づく映像光を表示パネル13aから導光部13bの入射面に向かって出射する。図2では、表示パネル13bの表示面の向く方向を矢印X2で示している。映像光は矢印X2にて示すように導光部13b内を導光される。導光部13b内の端部13xには、導光部13b内を矢印X2方向に導かれた光を、矢印X1方向へと折り曲げて導く図示しない光屈曲部材(プリズム等)が配設されている。光屈曲部材によって、導光部13b内を導光された光は、矢印X1方向に向きを変えて、顔41の一方の右目42R側に出射される。こうして、右目42Rによる視界の一部の右目42Rから所定距離に知覚される仮想表示領域に、制御部11からの映像信号に基づく情報画像(電子映像の虚像)が視認されることになる。
右目42Rの視野範囲内において、導光部13bは例えば4mm以下の細幅に構成されており、右目42Rは導光部13bによって遮られることなく、前方の観察対象物を観察可能である。即ち、眼鏡型表示装置は、シースルーで観察対象を直接観察することを妨げず、直接観察による観察対象と視界の一部の仮想表示領域に見える情報画像とを同時に観察することができるように構成されている。例えば、眼鏡型表示装置であるウェアラブル端末装置10を装着したユーザは、各種作業時に、作業の状況を直接観察すると同時に、作業の手順書等に基づく情報画像を観察することも可能である。しかも、ウェアラブル端末装置10は、ハンズフリーの機器であるから、作業及び観察に際して手足の動作が制限されることはないので、両手を駆使して作業性を損なうことなく情報画像の観察が可能である。なお、用途や利用シーンに応じて条件は異なるため、導光部13bを構成する部材の幅は適宜設定可能である。
図3Aはウェアラブル端末装置10の各部と顔との位置関係を示す説明図である。
表示部13は、図A3に示すように、顔41の右目42R前方に配置された導光部13bによって、表示制御部11bからの情報画像を視認可能とする。図A3における右目42R及び左目42Lをそれぞれ囲む破線は左右の目42R,42Lによる視界51R,51Lを示している。
図3Bはこの視界を説明するための説明図である。左視界51Lは左目42Lによる視界を示し、右視界51Rは右目42Rによる視界を示している。左視界51Lは図示しない左レンズ(素通しガラスでもよく、ガラスがなくてもよい)を通過した光による実視界であり、右視界51Rは図示しない右レンズ(素通しガラスでもよく、ガラスがなくてもよい)を通過した実視界である。なお、右視界51Rと左視界51Lとは相互に重なる領域を有する。右視界51Rの一部に、導光部13bの出射面からの光による仮想表示視界52が設けられる。仮想表示視界52では、右目42Rから所定距離離れた位置に虚像の表示が行われる。
図3Bに示すように、本実施の形態においては、撮像部12により撮像される撮像範囲(視野範囲)をカメラ視界55として示してある。なお、図3Bの例では、撮像部12によるカメラ視界55は、左右の視界51L,51Rの全ての領域を含んでいると共に、仮想表示視界52の全範囲を含んでいる。
左右の視界51L,51Rは、ウェアラブル端末装置10を装着した作業者が観察対象をシースルー光学系を介して知覚できる実視界であり、仮想表示視界52はウェアラブル端末装置10の表示制御部11bからの情報画像を視認できる人工的な視界である。従って、ウェアラブル端末装置10を装着した作業者は、作業対象等を略正面の視線方向周辺の観察範囲において確認しつつ両手を駆使して注意を要する作業をしながら、仮想表示視界52において情報画像を視認することができる。
更に、図3Bでは、顔41を動かすことなく、右目42R及び左目42Lの視線を下方に下げた場合に得られる左視界51LD及び右視界51RDを示している。即ち、この場合には、顔41を動かしていないので、カメラ視界55の範囲は変化しない。
本実施の形態においては、作業者が顔41を動かすことなく視線のみを動かして作業等を行った場合でも、当該作業の様子を撮影できるように、撮像部12は十分に広角での撮影が可能となっている。そして、本実施の形態においては、撮像画像中から要観察範囲を自動的に判定して、当該要観察範囲の拡大画像を表示するようになっている。
このような要観察範囲を判定するために、本実施の形態においては、制御部11には観察対象範囲判定部11cが設けられている。観察対象範囲判定部11cは、撮像部12からの撮像画像に対する画像処理や作業判定部11d及び対象物判定部11eの判定結果を利用して、要観察範囲を判定することができる。
図4は観察対象範囲判定部11cによる要観察範囲の判定を説明するための説明図である。図4は撮像部12によって取得された撮像画像61を示している。撮像画像61は、作業者が左手62Lでパイプ65を持ち、右手62Rで持ったブラシ66をパイプ65内に挿入して、ブラシ66によりパイプ65内を洗浄する様子を撮像した結果を示している。
対象物判定部11eは、DB16の情報及び撮像画像61の画像解析によって、作業者の手62L,62R、パイプ65及びブラシ66を判定して検出することができる。また、作業判定部11dは、DB16の情報と、それまでの作業判定の結果により、撮像画像61がパイプ65の洗浄工程の実施状態の撮像結果であり、現在パイプ65の洗浄工程が行われていることを判定することができる。観察対象範囲判定部11cはこれらの判定結果に基づいて、洗浄工程において観察すべき範囲として、実施中の作業工程において対象となっている対象物を含む範囲を要観察範囲71(図4の破線)として設定する。観察対象範囲判定部11cは、要観察範囲71の情報を表示制御部11bに与える。
表示制御部11bは、要観察範囲71の情報が与えられると、撮像画像61中の要観察範囲71の部分を拡大して表示部13の表示画面全域に表示する表示制御を行うようになっている。これにより、仮想表示視界52に要観察範囲71の拡大画像が表示されることになり、作業者は要観察範囲71の画像、即ち、洗浄作業に際して確認した部分の画像を十分なサイズで確認することができることとなる。
なお、観察対象範囲判定部11cは、要観察範囲71の判定に際して、パイプ65、ブラシ66の画像部分が撮像画像61中の所定の範囲に位置することを判定の条件にしてもよい。例えば、作業者は、仮想表示視界52において作業の細部を確認したい場合には、両手62L,62Rによってパイプ65とブラシ66とをカメラ視界55中の所定位置に配置する(以下、かざす行為という)。かざす行為を行った結果、パイプ65、ブラシ66の画像部分が撮像画像61中の所定の範囲に位置することになり、観察対象範囲判定部11cは、比較的容易に要観察範囲71の判定が可能となる。
また、観察対象範囲判定部11cは、図4の黒丸で示す左手62Lの指先と右手62Rの指先とを検出し、検出した指先で囲まれる範囲を要観察範囲71に設定するように、プログラミングされていてもよい。また、例えば、観察対象範囲判定部11cは、手で支持することで動かない物体を検出すると共に動きのある物体を検出し、動かない物体に動く物体の先端が触れた場合に、当該接触部分を含む所定範囲を要観察範囲に設定するようにしてもよい。また、例えば、観察対象範囲判定部11cは、実施中の作業工程が明らかである場合には、当該作業工程において使用されるツールを含む範囲を要観察範囲に設定するようにしてもよい。また、観察対象範囲判定部11cはこれらの判定に、かざす行為を検出することを条件に加えてもよい。
更に、観察対象範囲判定部11cは、機械学習によって要観察範囲を判定するようになっていてもよい。この場合には、観察対象範囲判定部11cは、図示しないメモリを有し、このメモリに推論エンジンを構成する辞書を備える。この辞書は、機械学習における学習が完了することによって得られるネットワーク、即ち、推論モデルによって構成される。
図5は機械学習によって要観察範囲を判定する場合に用いる辞書の生成方法を説明するための説明図である。図5において、所定のネットワークN1には入力及び出力に対応する大量のデータセットが学習用データとして与えられる。図5の破線内のデータセットは、要観察範囲としてふさわしい画像(OK画像)の教師データを示し、破線外のデータセットは要観察範囲としてふさわしくない画像(NG画像)の教師データを示している。OK画像は図4のパイプ65とブラシ66との関係が比較的明瞭な画像であり、NG画像は手に隠れてパイプ65とブラシ66との関係が不明瞭な画像である。
これらのOK画像及びNG画像を教師データとし、大量のデータセットをネットワークN1に与えることにより、図5の入力に対応してその範囲(破線部分)を示す出力との関係が、高い信頼性で得られるように、ネットワークN1のネットワークデザインが決定される。なお、機械学習に採用するネットワークN1としては、公知の種々のネットワークを採用してもよい。例えば、CNN(Convolution Neural Network)を利用したR−CNN(Regions with CNN features)やFCN(Fully Convolutional Networks)等を用いてもよい。また、深層学習に限らず、公知の各種機械学習の手法を採用して推論モデルを取得してもよい。こうして、学習済みとなったネットワークN1が推論モデルとして利用可能となり、観察対象範囲判定部11cの図示しないメモリに格納される。
観察対象範囲判定部11cは、メモリに格納された推論モデル(辞書)を用いて、撮像画像中に要観察範囲が存在するか否かを判定すると共に、要観察範囲の画像位置を示す情報を表示制御部11bに出力する。こうして、表示制御部11bにより、仮想表示視界52上への要観察範囲の拡大表示が可能となる。
次に、このように構成された実施の形態の動作について図6から図9を参照して説明する。図6は第1の実施の形態の動作を説明するためのフローチャートである。図7はウェアラブル端末装置を利用して行う作業の一例を示す説明図である。図8は作業中における電子映像の虚像を説明するための説明図である。図9はエビデンス記録部15に記録される内容を説明するための説明図である。
本実施の形態のウェアラブル端末装置10は、各種作業についての作業支援に用いることができる。以下、作業として、メンテナンス作業(器具洗浄滅菌作業)を例に、実施の形態の動作について説明する。
図7の作業者80は頭部にウェアラブル端末装置10を装着して作業を行う。図7は器具洗浄滅菌作業の様子を示している。作業者80は、使用済みの医療器具である手術用器具や処置具等であるパイプ65をブラシ66を用いて洗浄して滅菌する作業を行う。なお、図7のウェアラブル端末装置10は、導光部13bが作業者80の左目に仮想表示視界を形成するものであり、また、撮像部12はウェアラブル端末装置10に対して移動できるように構成された例を示している。
作業台70には洗浄槽70aが備わっている。さらに、当該洗浄槽70aの上方には水道蛇口73が設置されている。この水道蛇口73のハンドル73aを開栓方向に回転操作すると、流水口73bより流水74が流れ出る。
作業者80は、洗浄槽70aに溜めた洗浄液(例えば水)にてメンテナンス対象の器具(パイプ65)を所定のツール(ブラシ66)を用いてブラッシング洗浄する。
撮像部12のレンズの光軸は、洗浄槽70a側に向いており、撮像部12の撮影範囲内に、作業者80の手元も含まれており、図6のステップS1において、撮像部12によって洗浄作業中の様子が撮像される。撮像部12は比較的広角での撮像が可能であり、作業中において作業者80の手元を含む広範囲の部分が撮像される。この撮像画像は、観察対象範囲判定部11cに与えられて要観察範囲が判定される。観察対象範囲判定部11cは、撮像画像から要観察範囲を判定することが可能であるが、判定精度をより向上させるために、例えば、かざす行為を要観察範囲の判定条件に加えてもよい。この場合には、作業者80は、拡大表示したい作業対象を、撮像部12の撮像範囲の所定の位置に配置するかざす行為を行う。
この場合において、ウェアラブル端末装置10によって取得される画像データは、例えば図8に示すような画像となる。図8に示す撮像画像84は、作業者80が左手80Lでパイプ65を持ち、右手80Rに持ったブラシ66を用いてブラッシング洗浄作業を行っている途中において、作業者80がかざす行為を行い、パイプ65及びブラシ66を撮像部12の撮像範囲の所定位置に配置したことを示している。例えば、図7の例では、作業者80が顔を少し下に向けるか又は左右の手80L,80Rを少し上に上げることによって、かざす行為が行われる。
観察対象範囲判定部11cは撮像画像に対する画像解析によって、かざす行為の有無を判定している(ステップS2)。図8の撮像画像84のように、かざす行為の様子が撮像された場合には、観察対象範囲判定部11cは、処理をステップS3に移行して、要観察範囲を判定する。例えば、観察対象範囲判定部11cは、機械学習により取得した推論エンジンを用いて、要観察範囲を判定する。観察対象範囲判定部11cは、要観察範囲の情報を表示制御部11bに与える。表示制御部11bは、ステップS4において、要観察範囲の画像部分を拡大した拡大画像86を表示部13に与える。表示部13は、導光部13bにより作業者80の左目の仮想表示視界中に、拡大画像86に基づく虚像を表示させる。
作業者80は、仮想表示視界中に表示された拡大画像86によって、作業の状態等を確実に確認することができる。次に、制御部11は、撮像画像84及び拡大画像86をエビデンス記録部15に与えて記録する(ステップS5)。拡大画像86は、エビデンス記録にも有用である。
図9はエビデンス記録部15に記録された各メンテナンス対象毎の記録内容の一例を示している。記録情報91はメンテナンスの環境、道具及び作業時間についての情報を含む。メンテナンスの環境とは、当該作業を行うための場所の情報であり、当該場所が器具の洗浄滅菌作業に適した環境の状態であるか否かを示す。なお、通常の場合、専用のメンテナンス環境(部屋,台等)が用意される。
情報92,93は、それぞれ工程A及び工程Bに関する情報であり、いずれも、作業項目とその結果の情報を有する。更に、本実施の形態においては、情報92,93には、それぞれ静止画像92a,93aが含まれる。静止画像92a,93aは、例えば、図8の撮像画像84及び拡大画像86等の、作業時に必要に応じて取得された画像である。
次に、作業判定部11dは、撮像部12によって取得された画像データと、DB16に蓄積されている対応するデータとを比較する。作業判定部11dは、この比較により、作業者80が行った作業が正しい(規定された)作業であるか否か、或いは作業状態は良好であるか否かを判定する(ステップS6)。
制御部11は、作業状態が良好であると判定した場合には、ステップS7において、仮想表示視界中に、OK表示の虚像を表示させて処理をステップS1に戻す。また、制御部11は、作業状態が良好ではないと判定した場合には、処理をステップS8に移行して、ガイド部11fにより、所定の警告表示やガイド表示等に関する所定の情報を仮想表示視界中に虚像として表示させた後、処理をステップS4に戻す。
制御部11は、ステップS2において、作業者80がかざす行為を行っていないと判定した場合には、処理をステップS9に移行して、警告表示やガイド表示等の情報を表示する必要があるか否かについて判定し、必要がある場合には、ステップS10において、警告やガイド表示を仮想表示視界中に虚像として表示させた後、処理をステップS1に戻す。制御部11は、警告表示やガイド表示等の情報の表示が必要でないと判定した場合には、これらの表示を行うことなく、処理をステップS1に戻す。なお、制御部11は、警告やガイドを音声により出力するようにしてもよい。
このように本実施の形態においては、作業者が観察したいと考えられる作業の細部を自動的に判定して、当該細部の拡大画像を表示することにより、作業の細部の確認を容易にし、作業を効果的に支援することが可能である。これにより、作業者の手元方向、即ち、作業対象の部材等が存在する方向に対して撮像部のレンズの光軸がずれる作業環境等においても、作業対象の部材について十分に大きなサイズでの表示が可能であり、その確認が容易となる。
(変形例)
上記実施の形態においては、顔の向きと視線の向きとは相互に異なるので、撮像部12の撮像画像中に要観察範囲が確実に含まれるように撮像部12の画角は広角に設定している。しかしながら、要観察範囲が撮像部12の撮影範囲の端部に位置する場合には、撮像部12の光学系の歪等によって、拡大画像の画質が劣化する場合がある。そこで、要観察範囲が撮像部12の撮影範囲の略中心に位置するように、撮像部12の撮影方向を変更させることが考えられる。
上記実施の形態においては、顔の向きと視線の向きとは相互に異なるので、撮像部12の撮像画像中に要観察範囲が確実に含まれるように撮像部12の画角は広角に設定している。しかしながら、要観察範囲が撮像部12の撮影範囲の端部に位置する場合には、撮像部12の光学系の歪等によって、拡大画像の画質が劣化する場合がある。そこで、要観察範囲が撮像部12の撮影範囲の略中心に位置するように、撮像部12の撮影方向を変更させることが考えられる。
図10及び図11は視線と撮影方向との関係を説明するための説明図である。図10では、ウェアラブル端末装置10は、撮像部12が可動自在に構成されている。ユーザ100の作業対象である対象物Obは、右目101から水平方向に距離D1だけ離れた位置に位置するものとする。一方、仮想表示領域は視界の下方側に位置するものとし、この仮想表示領域の虚像Imを確認するために、ユーザ100は右目101の視線を下方に向けるものとする。なお、右目101と撮像部12のレンズとの垂直方向の視差ΔYとする。この場合において、仮想表示領域の略中央に対象物Obの画像を表示させるためには、撮像部12の撮像方向を、水平方向を基準とした目の方向θ2に対して、(θ2+θ1)だけ上向きに向けて、カメラ視界55の略中心に対象物Obを位置させる必要がある。
しかし、ユーザ100は、顔の向きを変えることなく、右目101による視線方向を変化させることができる。θ2は作業の内容、環境、作業者などによって変わるが、適切な眼球運動の範囲は図11に示す通り0度(水平)〜下30度と言われているので、例えば、撮像部12は、少なくともこの範囲を含むように撮像範囲を変更可能であることが望ましい。
図12Aから図12Dはこのような撮像部12の撮影方向を変更可能な構成の一例を示す説明図である。図12A〜図12Dにおいて図2と同一の構成要素には同一符号を付して説明を省略する。
図12Aに示すように、ウェアラブル端末装置10aは、ヒンジ等により構成された第1及び第2回動部110,111を設けた点が図2のウェアラブル端末装置10と異なる。また、ウェアラブル端末装置10aにおいては、撮像部12が移動できるように構成されている。第1回動部110は、眼鏡フレーム21と回路収納部22との間に配置されて、眼鏡フレーム21と回路収納部22とを回動軸に沿って相対回動自在に支持する。同様に、第2回動部111は、回路収納部22と撮像部12との間に配置されて、回路収納部22と撮像部12を回動軸に沿って相対回動自在に支持する。
図12Bは図12Aのウェアラブル端末装置10aの導光部13b及び撮像部12の向きを変えた例を示している。即ち、図12Bにおいては、矢印に示すように、第1及び第2回動部110,112により、眼鏡フレーム21の向き、即ち、顔の向きに対して、回路収納部22を下方側に向けて右目42Rに対する導光部13bの方向を下方側に向けると同時に、撮像部12の撮像レンズ12aの向きを回路収納部22に対して上向きに向けるようにしたものである。
図12Aのウェアラブル端末装置10aを採用することにより、目に対する仮想表示領域の方向及び撮像部12の撮像方向を、顔の上下方向に自由に変化させることができ、図10の例においても、比較的容易に、仮想表示領域の略中央に要観察範囲の対象物Obの画像を表示させることができる。
また、図12Cは目に対する仮想表示領域の方向及び撮像部12の撮像方向を顔の上下方向だけでなく顔の左右方向にも自由に変化させることを可能にしたウェアラブル端末装置10cを示している。図12Cに示すように、ウェアラブル端末装置10cは、ヒンジ等により構成されて相互に連結された回動部112,113及び回動部114,115を設けた点が図2のウェアラブル端末装置10と異なる。また、ウェアラブル端末装置10cにおいても、撮像部12が移動できるように構成されている。連結された回動部112及び113は、眼鏡フレーム21と回路収納部22との間に配置されて、眼鏡フレーム21と回路収納部22とを回動部112,113の例えば相互に直交した各回動軸に沿って相対回動自在に支持する。同様に、回動部114,115は、回路収納部22と撮像部12との間に配置されて、回路収納部22と撮像部12を回動部114,115の例えば相互に直交した各回動軸に沿って相対回動自在に支持する。
従って、ウェアラブル端末装置10cにおいては、回動部112,113により、眼鏡フレーム21の向き(顔の向き)に対して、右目42Rに対する導光部13bの方向を上下方向及び左右方向に自由に変化させることができると共に、回動部114,115により、撮像部12の撮像レンズ12aの向きを回路収納部22に対して上下方向及び左右方向に自由に変化させることができる。
更に、図12Dは撮像部12の撮像方向の自由度を更に向上させた例を示している。図12Dのウェアラブル端末装置10dは、回動部114,115に代えてケーブル116を採用した点が図12Cのウェアラブル端末装置10cと異なる。撮像部12は、回路収納部22から移動できるように構成されて、回路収納部22内の回路部とケーブル116によって接続されている。ケーブル116は、フレキシブルな材料によって構成されており、撮像部12の配置位置及び向きを自由に設定可能である。
従って、ウェアラブル端末装置10dにおいては、ケーブル116により、撮像部12の配置位置及び撮影方向を回路収納部22に対して自由に変化させることができる。更に、撮像部12は、撮影レンズ12bにより、全周囲の撮像が可能である。例えば、撮像部12によって、視線方向と逆方向、即ち、ユーザの顔の向きとは逆方向の撮像範囲を撮像することも可能であり、ユーザの背後に存在する対象物の画像部分を要観察範囲としてユーザの右目42Rの仮想表示領域に拡大表示することも可能である。
なお、撮像部12の他に、ユーザの視線方向を撮像する図示しない撮像部を利用して、2つの撮像部の撮像画像のうち要観察範囲と判定された撮像画像に切換えて、仮想表示領域に表示させるように構成することも可能である。また、図12Dの例では、ケーブル116に代えて無線により撮像画像を伝送する構成にしてもよい。
このように本変形例では、顔の向きと視線の向きとに拘わらず、撮像部12の撮像画像中の例えば略中央に要観察範囲が確実に含まれるように撮像部12の撮影方向を変化させることができる。これにより、要観察範囲の虚像を高画質で表示することが可能である。
また、図12A〜図12Dの例では、目に対する仮想表示領域の方向を変化させるための機構と撮像部12の撮像方向を変化させるための機構の両方の機構を設けた例を説明したが、いずれか一方の機構のみを設けるようにしてもよい。
(第2の実施の形態)
図13は本発明の第2の実施の形態を示すブロック図である。図13において図1と同一の構成要素には同一符号を付して説明を省略する。
図13は本発明の第2の実施の形態を示すブロック図である。図13において図1と同一の構成要素には同一符号を付して説明を省略する。
本実施の形態は、複数の作業からなる所定の一連の作業を規定の手順及び手法に従って確実に実行するための作業支援を行うと共に、実行した各作業に関するエビデンス記録を行うことができるようにした作業支援システムに適用したものである。第1の実施の形態においては、ウェアラブル端末装置10が要観察範囲を判定して、要観察範囲の拡大画像を仮想表示領域に表示する例を説明した。しかし、要観察範囲の判定に必要な演算量は極めて大きいことが考えられる。そこで、本実施の形態においては、要観察範囲の判定を、作業支援システムのセンター装置(作業判定装置)において実施する。
図13において、ウェアラブル端末装置120は、制御部11に代えて制御部121を採用すると共に、エビデンス記録部15及びDB16を省略し、通信部122及び調整機構123,124を採用した点が図1のウェアラブル端末装置10と異なる。
制御部121は、CPU等を用いたプロセッサによって構成されて、図示しないメモリに記憶されたプログラムに従って動作して各部を制御するものであってもよいし、ハードウェアの電子回路で機能の一部又は全部を実現するものであってもよい。制御部121は、要観察範囲の判定を行う必要はなく、撮像部12を駆動する撮像制御部121a及び表示部13の表示を制御する表示制御部121bを有する。なお、撮像制御部121a及び表示制御部121bは、それぞれ図1の撮像制御部11a及び表示制御部11bと同様の機能を有する。
また、調整機構123は、例えば図12Cの回動部112,113と同様の機能を有し、調整機構124は、例えば図12Cの回動部114,115と同様の機能を有するものである。即ち、調整機構123は、眼鏡フレーム21の向き(顔の向き)に対して、目に対する導光部13bの方向を上下方向及び左右方向に自由に変化させるものである。また、調整機構124は、撮像部12の撮像レンズ12aの向きを回路収納部22に対して上下方向及び左右方向に自由に変化させるものである。なお、調整機構123、124は無くてもよい。
通信部122は、作業判定装置130との間で通信を行って情報の送受信を行う。作業判定装置130には、制御部131が設けられている。作業判定装置130には通信部132も設けられており、通信部132はウェアラブル端末装置120の通信部122との間で通信を行う。これにより、ウェアラブル端末装置120の制御部121と作業判定装置130の制御部131とは相互に情報を授受することが可能である。
制御部131は、CPU等を用いたプロセッサによって構成されて、図示しないメモリに記憶されたプログラムに従って動作して各部を制御するものであってもよいし、ハードウェアの電子回路で機能の一部又は全部を実現するものであってもよい。制御部131は、要観察範囲の判定及び要観察範囲の拡大表示のための表示制御情報を生成するための、観察対象範囲判定部11c、作業判定部11d、対象物判定部11e、ガイド部11f及び表示制御部11bを有する。
ウェアラブル端末装置120の通信部122は、制御部121に制御されて、撮像部12が撮像して得た撮像画像を、通信部132を介して制御部131に送信することができる。制御部131は、撮像部12による撮像画像に基づいて要観察範囲を判定し、判定結果の表示制御情報を通信部132,122を介して制御部121に送信することができる。制御部121の表示制御部121bは、表示制御情報に基づいて、撮像部12による撮像画像の要観察範囲を拡大した画像を表示部13に表示させるようになっている。
また、作業判定装置130はエビデンス記録部15及びDB16を有する。なお、図13の例では、エビデンス記録は作業判定装置130のエビデンス記録部15に記録する例を説明するが、ウェアラブル端末装置120に図示しない記録部を設けてエビデンス記録を行ってもよい。
また、上記説明では、要観察範囲の拡大画像をウェアラブル端末装置120の表示部13に表示する例を説明するが、作業判定装置130に表示部を設けて、要観察範囲の拡大画像をこの表示部に表示させるようにしてもよい。
次に、このように構成された実施の形態の動作について図14から図16を参照して説明する。図14はDB16に記録されている情報の一例を示す説明図である。図15は作業判定装置の動作を示すフローチャートであり、図16はウェアラブル端末装置の動作を示すフローチャートである。
以下、図13の作業支援システムを使用して所定のメンテナンス作業(器具洗浄滅菌作業)を行う際の作用を説明する。なお、以下の説明では、かざす行為を検出することにより作業に用いるツールの確認を行うようになっているが、要観察範囲の判定にはかざす行為は用いていない。また、以下の説明では、洗浄時に要観察範囲の拡大画像を表示する例を説明するが、作業中の所望のタイミングで要観察範囲の拡大画像を表示することができることは明らかであり、例えば、ツールの確認時に要観察範囲を判定して拡大画像を表示するようにしてもよい。また、以下の説明では、作業判定装置130において要観察範囲を判定してウェアラブル端末装置120に要観察範囲を指示する例を説明するが、ウェアラブル端末装置120において要観察範囲の判定を行うようにしてもよい。
図16のステップS31において、撮像部12は、作業者が順次行う複数の作業の状況を適宜撮像する。撮像部12による撮像画像は、通信部122により作業判定装置130に常時送信され、通信部132により制御部131に供給される。作業判定装置130の制御部131は、受信した撮像画像と、DB16に予め蓄積された各種情報とに基づいて、対象とする作業内容に応じて規定されている複数の確認項目、例えばメンテナンス対象の器具の判定,使用ツールの種類等の判定,作業行為(ブラッシング,水洗,擦拭,薬剤噴霧等)等の判定を行う。
図14はDB16に含まれる具体的な情報内容の一例を示している。図14に示す例は、手術や処置等に用いる器具の一種である「ハサミ」を手術や処置等にて使用後に作業者のマニュアルオペレーションにて洗浄する際のメンテナンス作業(以下、ハサミ洗浄滅菌作業という)を想定したデータベース(作業情報データベース)を示している。
図14に示すように、メンテナンス対象欄[A]は、メンテナンスの対象とする器具名称である。本例では、「対象1:ハサミ」と記録され、ハサミ洗浄滅菌作業を示している。なお、「対象2:○○○」には、他の器具名称が入ることになるが、図14では「対象1」についての情報以外の詳細な例示は省略する。
図14の作業情報データベースにおいて、作業工程欄[B]は、当該メンテナンス作業に含まれる複数の作業工程の例を作業順に列記している。ここで、ハサミ洗浄滅菌作業に含まれる作業工程は、例えば、「第1工程:ブラッシング」工程、「第2工程:流水洗浄」工程、「第3工程:擦拭」工程、「第4工程:薬剤滅菌」工程等がある。
「第1工程:ブラッシング」工程は、所定のツール(ブラシ等)を用いて所定の水槽中等でブラッシングする工程である。「第2工程:流水洗浄」工程は、流水中にて水洗浄する工程である。「第3工程:擦拭」工程は、所定のツール(ペーパー又は布等)を用いて擦拭し水や汚れを拭き取る工程である。「第4工程:薬剤滅菌」工程は、所定の薬剤(アルコール等)を用いて(噴霧して)滅菌する工程である。なお、対象器具によって行われるべき工程の種類や数は異なる。
図14の作業情報データベースにおいて、作業内容欄[C]は、各作業工程に含まれる複数の作業の例を作業順に列記している。ここで、ハサミ洗浄滅菌作業の「第1工程:ブラッシング」工程に含まれる作業は、「第1作業」としての「ツール確認」作業、「第2作業」としての「第1部位ブラッシング」作業、「第3作業」としての「第2部位ブラッシング」作業等がある。各作業の具体的な情報は、次の作業情報欄「D」に記録されている。
図14の作業情報データベースにおいて、作業情報欄[D]には、各作業を明示する具体的な情報(例えば文字データ,画像データ等)が記録されている。なお、図13では、作業情報データベース16aのほかに画像データベース16bを別体で設けた構成としているが、データベース16の構成としては、両者を一体に構成した形態でもよい。
作業情報欄[D]の情報は、ウェアラブル端末装置120によって取得される情報を示している。なお、ウェアラブル端末装置情報[D]は主に動画像によって表される作業情報である。「第1工程:ブラッシング」工程に含まれる「第1作業」としての「ツール確認」作業は、当該作業工程において使用するツールの確認作業である。そのために、ウェアラブル端末装置情報[D]として、ツールを撮像部12の前面(撮像範囲内)にかざす行為を記録した動画像データ等が記録されている。
ここで、作業者が「ツール確認」作業を行う際には、次のような作業が行われる。即ち、まず、作業者は、これから行おうとする作業に使用する所定のツールを手に持って、これを撮像部12の前面(撮像範囲内)にかざす行為を行う。ステップS32においてかざす行為が行われると、ウェアラブル端末装置120の制御部121は、ステップS33において、撮像部12にかざす行為を撮像させ、撮像画像を作業判定装置130に転送して動画像として記録させる。
作業判定装置130の制御部131は、受信した動画像データに基づいて所定の画像判定処理を実行する。例えば、制御部131は、ステップS11において、ツールをかざす行為を検出すると、ステップS12において撮像されたツールが対象器具であるか否かを判定する。制御部131は、撮像されたツールが対象器具でなかった場合には、処理をステップS13に移行して、警告及びガイドのための情報をウェアラブル端末装置120に送信して処理をステップS12に戻す。
ウェアラブル端末装置120の制御部121は、ステップS33の次のステップS34において、かざす行為を行ったツールが対象器具でないことを示す警告、ガイドのための情報を受信すると、ステップS35において、必要な調整についての指示や警告を表示させて、処理をステップS33に戻す。作業者が正しいと考えるツールに対してかざす行為を行うと、制御部121によりツールの撮像画像が作業判定装置130に送信されて、対象器具の判定が行われる。
制御部131は、撮像されたツールが対象器具であった場合には、ステップS12からステップS14に処理を移行して、要観察範囲の判定を行う。なお、撮像されたツールが対象器具であったことを示す情報は、制御部131によってウェアラブル端末装置120の制御部121に伝達される。
制御部131の観察対象範囲判定部11cは要観察範囲の判定を行い、判定結果の要観察範囲を拡大表示させるための表示制御信号を発生する(ステップS15)。
この表示制御情報は通信部132,122を介してウェアラブル端末装置120の制御部121に供給される。制御部121は、ステップS34においてかざす行為を行ったツールが対象器具であることを示す情報を受信すると、次のステップS36において、要観察範囲を示す表示制御情報の受信待機状態となる。制御部121は、表示制御情報を受信すると、ステップS37に処理を移行し、表示制御部121bにより要観察範囲の拡大画像を表示部13に表示させる。また、制御部121は、撮像部12により得られた要観察範囲の拡大画像を通信部122,132を介して作業判定装置130の制御部131に送信する。
作業判定装置130の制御部131は、ステップS15の次のステップS16において、受信した拡大画像及びDB16の情報に基づいて、洗浄作業が正しく行われたか否かを判定する。制御部131は、洗浄作業が正しく行われていない場合には、処理をステップS17に移行して、警告及びガイドのための情報をウェアラブル端末装置120に送信して処理をステップS19に移行する。
ウェアラブル端末装置120の制御部121は、ステップS37の次のステップS38において、作業判定装置130において、作業が良好に行われていると判定されたか否かを判定する。制御部121は、警告表示やガイド表示等の情報を受信し場合には、ステップS39において、必要な調整についての指示や警告を表示させて、処理をステップS36に戻す。
一方、作業判定装置130の制御部131は、ステップS16において、洗浄作業が正しく行われたものと判定すると、作業が正しく行われたことを示す情報をウェアラブル端末装置120の制御部121に送信すると共に、処理をステップS19に移行して、工程エビデンス化を行う。即ち、制御部131は、取得した画像データ等を所定の形態で記録するエビデンス記録を行う。ウェアラブル端末装置120の制御部121は、ステップS38において、作業が良好に行われている判定結果を受信すると、作業が良好に行われたことを示すOK表示を表示部13に表示させて処理をステップS31に戻す。
作業判定装置130の制御部131は、ステップS18の次のステップS19において、工程が終了したか否かの確認を行う。この確認は、例えばデータベース16を参照することにより行われる。ここで、工程が終了したことを確認すると、次のステップS20の処理に進む。また、工程終了が確認されない場合、即ち工程が終了しておらず、次の作業が存在する場合には、処理をステップS11に戻す。
制御部131は、ステップS20において、当該作業の全ての工程が終了したか否かの確認を行う。ここで、全行程の終了を確認した場合には、次のステップS22の処理に進む。また、全行程終了が確認されない場合には、ステップS21の処理に進む。制御部131は、ステップS21において次の工程を判定した後、処理をステップS11に戻す。
制御部131は、ステップS20において全行程の終了を確認すると、処理をステップS22に移行して、最終エビデンス化処理を実行する。この最終エビデンス化処理は、取得した複数の画像データ等を所定の位置ファイルとしてファイル化すると共に、上記ステップS16の処理にて出力されるOK信号に基いて作成されるチェックリスト等の作成処理等である。その後、全ての処理を終了して、待機状態に戻る。
なお、制御部131は、ステップS11においてかざす行為の情報を受信していないと判定した場合には、処理をステップS23に移行して作業確認要求指示をウェアラブル端末装置120に送信する。この作業確認要求指示は、かざす行為の情報の送受信後に、ウェアラブル端末装置120によって取得される動画像データの送信を要求するものである。
ウェアラブル端末装置120の制御部121は、ステップS41において、作業確認要求指示を受信したか否かの確認を行う。制御部121は、作業確認要求指示を受信すると、ステップS42に移行して、取得した動画像データを作業判定装置130に送信する。
作業判定装置130の制御部131は、ステップS23の次のステップS24において、ウェアラブル端末装置120から送信された動画像データを受信する。そして、制御部131は、受信した動画像データと、データベース16に蓄積されている対応データとを比較する。そして、取得された動画像データに基づいて、作業者が行った作業が正しい(規定された)作業であるか否かを確認する。制御部131は、次のステップS25において、上記比較結果に問題が無ければ、即ち作業者が行った作業(取得動画像)が正しい(規定された)作業であることが確認された場合(OKである場合)には、処理をステップS11に戻し、OKではない場合には、処理をステップS26に移行する。制御部131のガイド部11fは、ステップS26において、所定の警告表示やガイド表示等に関する所定の情報を、ウェアラブル端末装置120に送信した後、処理をステップS11に戻す。
ウェアラブル端末装置120の制御部121は、ステップS42の次のステップS43において、警告表示やガイド表示等の情報を受信したか否かの確認を行う。制御部121は、当該情報の受信を確認すると、ステップS44において、表示部13,音声出力部18等を制御して、所定の形態の警告表示,ガイド表示等を実行した後、処理をステップS31に戻す。なお、制御部121は、警告表示やガイド表示等の情報が確認されない場合には、処理をステップS31に戻す。
このように、作業支援システムは、ウェアラブル端末装置120と作業判定装置130とを連携させて作用させることにより、複数の作業からなる所定の一連の作業を規定の作業手順及び作業手法に従って確実に実行するための作業支援を行うことができる。この場合において、例えば作業上重要な箇所等については、要観察範囲として判定して拡大表示することができ、作業ミスを抑止することができる。
また、作業中における所定の行為や使用ツール,周囲環境等の状況を画像として記録してエビデンス化することができる。したがって、所定の作業が規定通りに確実に行われたか否かを作業後に保証することができる。
作業中に取得した画像データを有効に活用し、取得した複数の画像データと予め蓄積されているデータベースの作業情報とに基づいて作業ミスを排除すると共に、作業ミスがあったときには、作業者に対して警告すると共に、正しい手順を案内することでよって確実な作業を行うように支援することができる。
さらに、本発明の各実施形態においては、視界と同じ領域を撮影するために、撮影のための機器として、ウェアラブル端末装置のつる部分に収納した撮像デバイスを用いて説明したが、作業の様子等の確認を要する画像を取得することができるものであれば、どのような撮像デバイスを採用してもよく、設置場所にとらわれなければ、撮影するための機器として、レンズ型カメラでも、デジタル一眼レフカメラでもコンパクトデジタルカメラでもよく、ビデオカメラ、ムービーカメラのような動画用のカメラでもよく、さらに、携帯電話やスマートフォンなど携帯情報端末(PDA:Personal Digital Assist)等に内蔵されるカメラでも勿論構わない。また、内視鏡、顕微鏡のような産業用、医療用の光学機器でもよく、監視カメラや車載用カメラ、据え置き型のカメラ、例えば、テレビジョン受信機やパーソナルコンピュータ等に取り付けられているカメラであってもよい。
さらに、実施形態において、部(セクションやユニット)として記載した部分は、専用の回路や、複数の汎用の回路を組み合わせて構成してもよく、必要に応じて、予めプログラムされたソフトウェアに従って動作を行うマイクロプロセッサ及びCPU等のプロセッサ、あるいはシーケンサを組み合わせて構成されてもよい。また、その制御の一部又は全部を外部の装置が引き受けるような設計も可能で、この場合、有線や無線の通信回路が介在する。ここでは、単純化のため通信部を特記していないが、本願の特徴的な処理や補足的な処理をサーバやパソコン等の外部機器が行う実施形態も想定される。つまり、複数の機器が連携して、本発明の特徴を成立させる場合も、本願はカバーしている。この時の通信には、ブルートゥース(登録商標)やWi−Fi(登録商標)、電話回線等が用いられる。また、この時の通信は、USB等で行われてもよい。専用の回路、汎用の回路や制御部を一体としてASICとして構成してもよい。こうした装置、あるいはシステムは、ユーザに何らかの働きかけを行ったり、部品の角度を変えたりする等の機能を有しても良く、その機構は、様々なアクチュエータと、必要に応じて連結メカニズムによって構成されており、ドライバ回路によってアクチュエータが作動する。このドライブ回路もまた、特定のプログラムに従ってマイクロプロセッサマイコンやASIC等が制御する。こうした制御は各種センサやその周辺回路が出力する情報によって、詳細な補正、調整などが行われてもよい。
本発明は、上記各実施形態にそのまま限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記各実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素の幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。
なお、特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。また、これらの動作フローを構成する各ステップは、発明の本質に影響しない部分については、適宜省略も可能であることは言うまでもない。
また、ここで説明した技術のうち、主にフローチャートで説明した制御や機能は、多くがプログラムにより設定可能であり、そのプログラムをコンピュータが読み取り実行することで上述した制御や機能を実現することができる。そのプログラムは、コンピュータプログラム製品として、フレキシブルディスク、CD−ROM等、不揮発性メモリ等の可搬媒体や、ハードディスク、揮発性メモリ等の記憶媒体に、その全体あるいは一部を記録又は記憶することができ、製品出荷時又は可搬媒体或いは通信回線を介して流通又は提供可能である。利用者は、通信ネットワークを介してそのプログラムをダウンロードしてコンピュータにインストールしたり、あるいは記録媒体からコンピュータにインストールしたりすることで、容易に本実施の形態の装置を実現することができる。
10…ウェアラブル端末装置、11…制御部、11a…撮像制御部、11b…表示制御部、11c…観察対象判定部、11d…作業判定部、11e…対象物判定部、11f…ガイド部、12…撮像部、13…表示部、15…エビデンス記録部、16…DB、17…音声入力部、18…音声出力部。
Claims (9)
- ユーザの視界中に電子映像の虚像による仮想表示領域を形成する表示部と、
上記ユーザの視界の一部又は全部を含む撮像範囲を撮像する撮像部と、
上記撮像部による撮像画像に対する信号処理によって上記撮像画像中の要観察範囲を判定する観察対象判定部と、
上記撮像画像中の上記要観察範囲の画像部分を上記仮想表示領域に表示させる表示制御部と、
を具備したことを特徴とする頭部搭載型表示装置。 - 上記ユーザの視界中における上記仮想表示領域の位置を変化させる第1の機構及び上記撮像部の撮像方向を変化させる第2の機構のうちの少なくとも一方の機構
を更に具備したことを特徴とする請求項1に記載の頭部搭載型表示装置。 - 上記観察対象判定部は、上記ユーザの作業対象物を含む画像部分を上記要観察範囲として判定する
ことを特徴とする請求項1に記載の頭部搭載型表示装置。 - 上記観察対象判定部は、上記撮像画像に対する画像解析によって対象物を判定し、当該対象物を含む画像部分を上記要観察範囲として判定する
ことを特徴とする請求項1に記載の頭部搭載型表示装置。 - 上記ユーザの作業に関する情報を含む作業データベースを更に具備し、
上記観察対象判定部は、上記撮像画像に対する画像解析及び上記作業データベースの情報に基づいて作業対象物を特定し、特定した上記作業対象物を含む画像部分を上記要観察範囲として判定する
ことを特徴とする請求項1に記載の頭部搭載型表示装置。 - 上記観察対象判定部は、所定の推論モデルを用いて、入力された上記撮像画像に基づいて上記要観察範囲の推論を行う推論部
を具備したことを特徴とする請求項1に記載の頭部搭載型表示装置。 - ユーザの視界中に電子映像の虚像による仮想表示領域を形成する表示部と、上記ユーザの作業対象を含む撮像範囲を撮像する撮像部と、を有する頭部搭載型表示装置と、
上記撮像部による撮像画像に対する信号処理によって上記撮像画像中の上記作業対象を含む要観察範囲を判定する観察対象判定部と、上記撮像画像中の上記要観察範囲の画像部分を拡大表示させるための表示制御部と、を有する作業判定装置と、
を具備したことを特徴とする検査支援表示システム。 - ユーザの視界中に電子映像の虚像による仮想表示領域を形成する表示ステップと、
上記ユーザの視界の一部又は全部を含む撮像範囲を撮像する撮像ステップと、
上記撮像ステップによる撮像画像に対する信号処理によって上記撮像画像中の要観察範囲を判定する観察対象判定ステップと、
上記撮像画像中の上記要観察範囲の画像部分を上記仮想表示領域に表示させる表示制御ステップと、
を具備したことを特徴とする表示方法。 - コンピュータに、
ユーザの視界中に電子映像の虚像による仮想表示領域を形成する表示ステップと、
上記ユーザの視界の一部又は全部を含む撮像範囲を撮像する撮像ステップと、
上記撮像ステップによる撮像画像に対する信号処理によって上記撮像画像中の要観察範囲を判定する観察対象判定ステップと、
上記撮像画像中の上記要観察範囲の画像部分を上記仮想表示領域に表示させる表示制御ステップと、
を実行させるための表示プログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018133468A JP2020014057A (ja) | 2018-07-13 | 2018-07-13 | 頭部搭載型表示装置、検査支援表示システム、表示方法及び表示プログラム |
US16/510,443 US10877269B2 (en) | 2018-07-13 | 2019-07-12 | Head-mounted display apparatus, inspection supporting display system, display method, and recording medium recording display program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018133468A JP2020014057A (ja) | 2018-07-13 | 2018-07-13 | 頭部搭載型表示装置、検査支援表示システム、表示方法及び表示プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020014057A true JP2020014057A (ja) | 2020-01-23 |
Family
ID=69140128
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018133468A Pending JP2020014057A (ja) | 2018-07-13 | 2018-07-13 | 頭部搭載型表示装置、検査支援表示システム、表示方法及び表示プログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US10877269B2 (ja) |
JP (1) | JP2020014057A (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI748344B (zh) * | 2020-02-14 | 2021-12-01 | 聚積科技股份有限公司 | 發光二極體調屏標準判定模型建立方法 |
BE1029880B1 (nl) * | 2021-10-26 | 2023-05-30 | Rods&Cones Holding Bv | Geautomatiseerde gebruikersvoorkeursinstellingen |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4537104B2 (ja) * | 2004-03-31 | 2010-09-01 | キヤノン株式会社 | マーカ検出方法、マーカ検出装置、位置姿勢推定方法、及び複合現実空間提示方法 |
US8573866B2 (en) * | 2011-02-03 | 2013-11-05 | Jason R. Bond | Head-mounted face image capturing devices and systems |
US9323325B2 (en) * | 2011-08-30 | 2016-04-26 | Microsoft Technology Licensing, Llc | Enhancing an object of interest in a see-through, mixed reality display device |
US11137832B2 (en) * | 2012-12-13 | 2021-10-05 | Eyesight Mobile Technologies, LTD. | Systems and methods to predict a user action within a vehicle |
US9778480B2 (en) * | 2014-09-26 | 2017-10-03 | Intel Corporation | Techniques for optical image stabilization using magnetic shape memory actuators |
WO2016144741A1 (en) * | 2015-03-06 | 2016-09-15 | Illinois Tool Works Inc. | Sensor assisted head mounted displays for welding |
JP2017022668A (ja) | 2015-07-15 | 2017-01-26 | コニカミノルタ株式会社 | ウェアラブルディスプレイ |
US10186253B2 (en) * | 2015-10-05 | 2019-01-22 | Olympus Corporation | Control device for recording system, and recording system |
US10451880B2 (en) * | 2015-10-28 | 2019-10-22 | Sony Corporation | Optical device, display device, and method for manufacturing light emitting element |
CN107818290B (zh) * | 2016-09-14 | 2021-03-16 | 京东方科技集团股份有限公司 | 基于深度图的启发式手指检测方法 |
JP2018142168A (ja) * | 2017-02-28 | 2018-09-13 | セイコーエプソン株式会社 | 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法 |
-
2018
- 2018-07-13 JP JP2018133468A patent/JP2020014057A/ja active Pending
-
2019
- 2019-07-12 US US16/510,443 patent/US10877269B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US10877269B2 (en) | 2020-12-29 |
US20200018957A1 (en) | 2020-01-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6693060B2 (ja) | 表示システム、表示装置、表示装置の制御方法、及び、プログラム | |
EP3286614B1 (de) | Bediensystem für eine maschine der lebensmittelindustrie | |
WO2016092950A1 (ja) | 医療用眼鏡型表示装置、情報処理装置及び情報処理方法 | |
JP6023568B2 (ja) | 頭部装着型装置 | |
JPH11202256A (ja) | 頭部搭載型画像表示装置 | |
KR101580559B1 (ko) | 의료 영상 및 정보 실시간 상호전송 및 원격 지원 장치 | |
JP2019036132A (ja) | 作業支援システム,ウェアラブル装置,撮像装置,作業支援方法 | |
JP2020014057A (ja) | 頭部搭載型表示装置、検査支援表示システム、表示方法及び表示プログラム | |
JP4514030B2 (ja) | 眼鏡装用パラメータ測定装置 | |
JP2012513604A5 (ja) | ||
JP2012513604A (ja) | 光学レンズの光学効果をシミュレーションするための方法及び装置 | |
GB2494939A (en) | Head-Mounted System for Image Pick-Up, Analysis and Display | |
US7333073B2 (en) | System for the remote assistance of an operator during a work stage | |
JP2015149552A (ja) | ウェアラブル型電子機器 | |
JP2017191546A (ja) | 医療用ヘッドマウントディスプレイ、医療用ヘッドマウントディスプレイのプログラムおよび医療用ヘッドマウントディスプレイの制御方法 | |
CN115087413A (zh) | 操作手术显微镜的方法以及手术显微镜 | |
WO2011058707A1 (ja) | 撮影装置および遠隔作業支援システム | |
JP2006011145A (ja) | 双眼顕微鏡装置 | |
CN109274929A (zh) | 可穿戴设备和可穿戴设备的控制方法 | |
JP4514521B2 (ja) | 眼鏡装用パラメータ測定装置 | |
JP2017181657A (ja) | 眼鏡装用画像解析装置、眼鏡装用画像解析方法、及び眼鏡装用画像解析プログラム | |
JP2019079469A (ja) | 作業支援装置、作業支援方法、作業支援プログラム及び頭部搭載型表示装置 | |
JP2012050743A (ja) | 遠隔診療システム | |
JP4795017B2 (ja) | 眼鏡レンズ評価装置 | |
RU210426U1 (ru) | Устройство для трансляции дополненной реальности |