JP2024019208A - 操作支援方法 - Google Patents

操作支援方法 Download PDF

Info

Publication number
JP2024019208A
JP2024019208A JP2023198735A JP2023198735A JP2024019208A JP 2024019208 A JP2024019208 A JP 2024019208A JP 2023198735 A JP2023198735 A JP 2023198735A JP 2023198735 A JP2023198735 A JP 2023198735A JP 2024019208 A JP2024019208 A JP 2024019208A
Authority
JP
Japan
Prior art keywords
operation support
virtual image
image
operated device
data set
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023198735A
Other languages
English (en)
Inventor
恵 藏知
Megumi Kurachi
万寿男 奥
Masuo Oku
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Maxell Ltd
Original Assignee
Maxell Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Maxell Ltd filed Critical Maxell Ltd
Priority to JP2023198735A priority Critical patent/JP2024019208A/ja
Publication of JP2024019208A publication Critical patent/JP2024019208A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Figure 2024019208000001
【課題】被操作機器の通信状況の如何に関らず、被操作機器の操作支援を円滑に行うことを目的とする。
【解決手段】ヘッドマウントディスプレイ(HMD)1と操作支援サーバ4とを通信接続して操作支援を行う。HMD1は、操作支援の対象となる被操作機器を撮像し、撮像画像を操作支援サーバ4に送信する。操作支援サーバ4は、撮像画像に基づいて被操作機器の動作状態を判定し、被操作機器の操作支援情報を示す仮想画像を少なくとも一つ以上含む仮想画像データセットから、判定した動作状態に対応する少なくとも一つ以上の仮想画像を提案仮想画像として選択し、HMD1に送信する。HMD1は、提案仮想画像を表示する。
【選択図】図1

Description

本発明は、操作支援システム及び操作支援方法に関する。
現実空間にグラフィックスや文字などの仮想物体(ARオブジェクト:Argument Realityオブジェクト)の画像を重ね合わせて表示させ、ユーザに視認させる、所謂AR技術が、ゲームや操作支援等のコンテンツに用いられている。
またAR技術を応用した複合現実(MR:Mixed Reality)システムがある。その一例として、特許文献1には、「案内情報表示装置としてのヘッドマウントディスプレイ装置は表示部と、カメラ部と、ユーザの特定行動(たとえば、外部メモリを手に持って注視する行動)を検出する行動検出部を有し、特定行動を検出した後、カメラ部で特定の操作対象機器(たとえば、複合機)が撮影されたとき、その特定行動と撮影された操作対象機器との組み合わせに対応する案内情報(操作対象機器における外部メモリの装着方法や外部メモリを使用する機能に関する案内情報)を表示部に表示する。また操作対象機器から外部メモリの接続I/F部の位置や現時点の使用状況に関する情報を取得して案内表示する(要約抜粋)」という記載がある。
特開2014-93036号公報
特許文献1では、操作支援の対象となる被操作機器と、操作支援情報を表示するヘッドマウントディスプレイ(HMD:Head Mount Display)とが同一のLANに接続された状態で操作支援を行う。
しかし、被操作機器に通信機能がない場合、また操作対象機器に通信機能があっても、HMDが接続中のネットワークには未接続、又は操作対象機器の通信状況が不安定な場合がある。このように操作対象機器の通信環境や通信状態については特許文献1では考慮されていない。
本発明は上記実情に鑑みてなされたものであり、被操作機器の通信状況の如何に関らず、被操作機器の操作支援を円滑に行うことを目的とする。
上記課題を解決するために、本発明は、ヘッドマウントディスプレイと操作支援サーバとを通信接続して構成された操作支援システムであって、前記ヘッドマウントディスプレイは、操作支援の対象となる被操作機器を撮像し撮像画像を出力するカメラと、前記撮像画像を前記操作支援サーバに送信し、当該操作支援サーバから前記被操作機器の操作支援情報を含む提案仮想画像を受信する第一通信器と、前記提案仮想画像を表示するディスプレイと、前記カメラ、前記第一通信器、及び前記ディスプレイのそれぞれに接続され、前記カメラ、前記第一通信器、及び前記ディスプレイのそれぞれの動作を制御する第一プロセッサと、を備え、前記操作支援サーバは、前記撮像画像を前記ヘッドマウントディスプレイから受信し、当該ヘッドマウントディスプレイに前記提案仮想画像を送信する第二通信器と、前記第二通信器に接続され、当該第二通信器の動作を制御する第二プロセッサと、を備え、前記第二プロセッサは、前記撮像画像に基づいて前記被操作機器の動作状態を判定し、前記被操作機器の操作支援情報を示す仮想画像を少なくとも一つ以上含む仮想画像データセットから、前記判定した動作状態に対応する少なくとも一つ以上の仮想画像を前記提案仮想画像として選択し、前記提案仮想画像を前記第二通信器から前記ヘッドマウントディスプレイに対して送信する制御を行う、ことを特徴とする。
本発明によれば、被操作機器の通信状況の如何に関らず、被操作機器の操作支援を円滑に行うことができる。上記した以外の課題、構成、効果については以下の説明で明らかにされる。
第一実施形態の操作支援システムの構成を示す図 透過型のHMD1の外観を示す図 HMDの機能ブロック図 操作支援アプリのフローチャート 操作支援システムの機能ブロック図 操作支援方法のフローチャート マニュアルデータセットの例を示す図 撮像画像データセットの例を示す図 AR画像データセットの例を示す図 被操作機器の外見を撮像した撮像画像を示す図 HMDで表示されるAR画像の例を示す図 HMDで表示されるAR画像の例を示す図 HMDで表示されるAR画像の例を示す図 HMDで表示されるAR画像の例を示す図 HMDで表示されるAR画像の例を示す図 第二実施形態に係る操作支援システムの機能ブロック図 第二実施形態に係る操作支援方法のフローチャート 操作者履歴データセットの例を示す図 第三実施形態に係る操作支援システムの構成を示す図 第三実施形態に係る操作支援方法のフローチャート
以下、図面を参照しながら、本発明の実施形態について説明する。
[第一実施形態]
図1から図10を参照して、本発明の第一実施形態に係る操作支援システム100及び操作支援方法について説明する。
(操作支援システムの構成)
図1は、第一実施形態の操作支援システム100の構成を示す図である。図1に示すように、操作支援システム100は、操作者2が装着した透過型のHMD1、操作支援サーバ4、操作支援データベース5のそれぞれを、第一ネットワーク3を介して通信接続して構成される。
一方、操作者2が操作支援システム100を用いて操作支援を受ける対象となる操作機器(以下「被操作機器」という)6は、第一ネットワーク3には接続されておらず、かつHMD1、操作支援サーバ4、操作支援データベース5のいずれにも通信接続されていない操作機器である。
被操作機器6は、被操作機器6の機器制御サーバ8と第二ネットワーク7を介して接続され、機器制御システム200を構成する。
被操作機器6は、筐体の外表面に操作パネル61が備えられる。操作パネル61は、表示面62と、操作ボタン63とを含む。表示面62の表示内容は、被操作機器6の外表面から視認できる。
機器制御サーバ8は、機器制御システム200の第二ネットワーク7を介して、被操作機器6の動作命令を送信し、被操作機器6の動作状態を収集する。機器制御システム200は、複数の被操作機器6を含んでもよいし、被操作機器6のスタンドアローンの形態であってもよい。
HMD1は、操作者2の視界とほぼ同じ撮像範囲の映像を撮像するカメラ10を備える。これにより、操作者2が被操作機器6の操作中に被操作機器6の操作パネル61を視認すると、カメラ10は操作パネル61の撮像画像(映像でも静止画でもよい)を撮像する。この撮像画像は、操作パネル61が撮像された映像に限らない。例えば、被操作機器6の筐体に記載された製造メーカ、機種名、機種番号、製造番号、インジケータ等であってもよい。撮像画像は、操作支援システム100の第一ネットワーク3を介して、操作支援サーバ4に送信される。操作支援サーバ4は、この撮像画像を用いて被操作機器6の動作状態を判定する。
操作支援サーバ4は、操作支援データベース5を検索し、判定した被操作機器6の動作状態に対応する少なくとも一つ以上の操作支援情報を選択又は抽出する。操作支援サーバ4は、選択又は抽出した操作支援情報から操作者2に対して推奨するのに適した少なくとも一つ以上の操作支援情報を決定する。操作支援サーバ4は、操作支援情報に対応するAR画像を操作支援データベース5から選択し、HMD1に送信する。本明細書において、操作支援データベース5には予め少なくとも一つ以上のAR画像が格納されているものとする。そして、操作支援サーバ4が選択してHMD1に送信するAR画像は、予め記憶されたAR画像と区別する意味で、「提案AR画像(proposed AR image)」という。
HMD1は、提案AR画像を受信する。HMD1は、操作者2の眼前に位置する表示光学系13(ディスプレイ)に表示する。操作者2が被操作機器6を視認している場合は、提案AR画像が被操作機器6及びその近傍に表示される。
操作者2が操作を行う度に、これらの操作過程の撮像画像が操作支援サーバ4を介して操作支援データベース5に追加される。これにより、操作支援データベース5に撮像画像が操作履歴(履歴データの一部を構成する)として更新される。
なお、操作支援システム100で操作支援を受けられる操作者2は、一人には限られない。図示はしていないが、複数の被操作機器6のそれぞれを操作する複数の操作者2のそれぞれが装着する各HMD1を操作支援システム100の第一ネットワーク3に接続し、操作支援サーバ4が同時に複数人に対して操作支援を提供してもよい。
(HMD)
図2は、透過型のHMD1の外観を示す図である。図2に示すように、透過型のHMD1は、カメラ10、測距カメラ11、左投影光学系12a、右投影光学系12b、レンズやスクリーンを含む表示光学系13、ノーズパッド14、第一プロセッサ15、スピーカ16、マイク17、左つる18a、右つる18b、前面フレーム18c、左視線検出センサ19a、右視線検出センサ19bを含む。左つる18a、右つる18b、及び前面フレーム18cはフレーム筐体を構成する。
操作者2は、左つる18aの開放端(先セル)、右つる18bの開放端(先セル)、及びノーズパッド14を操作者2に接触させて、HMD1を操作者2の顔に装着する。
カメラ10は、ユーザの視線の前方を撮像する向きで前面フレーム18cに取り付けられる。
測距カメラ11は、カメラ10の撮像画像が捉える現実空間の現実物体(例えば被操作機器6)との距離を測定する。測距カメラ11は、現実物体の輪郭等の特徴点に対してステレオカメラのような方式で距離を算出するものでもよいし、TOF(Time of Flight)方式のように2次元的に光線を照射して距離を計測するものでもよく、撮像画像に対応して、現実物体との距離を測定できるものであれば良い。測距カメラ11は、ユーザの視線の前方を撮像する向きで前面フレーム18cにカメラ10と隣接して取り付けられる。
左投影光学系12a、右投影光学系12b、及び表示光学系13は、HMD1の表示部を構成する。左投影光学系12aは、仮想物体(ARオブジェクト)を左目で確認する左AR画像として表示光学系13に投影して表示する。右投影光学系12bは、ARオブジェクトを右目で確認する右AR画像として表示光学系13に投影して表示する。
又は、左投影光学系12a、右投影光学系12b、及び表示光学系13は、ひとつのプロジェクタでインタリーブした左AR画像と右AR画像を投影し、シャッタ光学系で左AR画像と右AR画像をそれぞれの目に投影させるものであっても良い。さらには、ホログラフィックレンズを用いた光学系でも良い。
操作者2は、前方の風景や現実物体を、表示光学系13を透過して視認する。その際に、操作者2は、表示光学系13に表示された左AR画像及び右AR画像を現実世界に重畳して視認する。操作者2は、左AR画像及び右AR画像の視差のずれに応じた現実空間の位置に一つのAR画像を虚像として視認するので、結果として、現実世界に重畳して一つのAR画像を視認する。視差のずれは、前述した測距カメラ11で測定した被操作機器6までの距離に応じたずれ量とすることで、被操作機器6に一つのAR画像を視認させることができる。
図3は、HMD1の機能ブロック図である。図3に示すように、第一プロセッサ15は、特徴抽出処理部51、距離算出部52、少なくとも1つ以上のセンサ、例えばジャイロ、方位、位置、接触センサ等を含んで構成されるセンサ群53、第一通信器(receiver and transmitter)54、CPU55、RAM56、画像RAM57、Program Flash ROM(FROM)58、及びData Flash ROM(FROM)59を含み、各構成要素がバス60を介して互いに接続されて構成される。特徴抽出処理部51、距離算出部52は、CPUが実行するプログラムとして構成される。
第一通信器54は、HMD1を第一ネットワーク3に通信接続してデータを送受信する。
Program FROM58は、操作支援アプリ81を記憶する。操作支援アプリ81は、CPU55がRAM56に展開して、実行する。
Data FROM59は、処理プログラムを実行する過程及び結果で発生するデータを格納することができる。なお、Program FROM58とData FROM59は、図示したように別々のメモリ媒体で構成しても良いし、ひとつのメモリ媒体で構成しても良い。さらには2つ以上のメモリ媒体であっても良く、Flash ROM以外の不揮発性のメモリ媒体であっても良い。
第一プロセッサ15は、カメラ10で撮像した現実空間の撮像画像、測距カメラ11で取得した現実物体などの現実空間の位置データを取り込み、内部のRAM56やCPU55に供給する。
CPU55は、左投影光学系12a及び右投影光学系12bのそれぞれに送信する画像データを画像RAM57に格納し、画像RAM57から読み出して左投影光学系12a及び右投影光学系12bのそれぞれに出力する。また、CPU55は、スピーカ16に出力する音を作成する。
第一プロセッサ15は右つる18bに、スピーカ16、マイク17は左つる18aに取り付けられる。これらの取付例は一例であり、フレーム18の他の場所に取り付けられもよい。
図4は、操作支援アプリ81のフローチャートである。操作者2がHMD1を装着し、ログインまたは操作支援アプリ81を起動して操作支援方法の処理が開始する(S100)。
HMD1のカメラ10が起動し、被操作機器6を撮像し(S101)、撮像画像を操作支援サーバ4に送信する(S102)。または、操作者2を特定するための操作者情報、例えば操作者2の氏名、ID情報や、HMD1を固有に特定することで間接的に操作者2を特定する情報を送信してもよい。この操作者情報は、図6で後述する操作支援サーバ4の処理において用いられる。
撮像画像は、被操作機器6の状態が認識できる画像であって、さらには被操作機器6を特定できる機種や型番等の情報が含まれることが望ましい。撮像は、撮像画像を操作支援サーバ4に送信する直前タイミングで行っても良いし、例えば30fps(frame per second)の動画撮像を継続していて、特定のタイミングで撮像画像を操作支援サーバ4に送信するようにしてもよい。
操作支援サーバ4は、操作者2が操作支援を必要としているか否かを判定する(S103)。判定の基準は、例えば時間を計測し、操作者2が所定の時間を越えても次のステップの操作を開始しない場合、操作支援が必要であると判定してもよい。操作支援サーバ4が操作支援を不要と判定した場合(S103:NO)、後述するステップS107へ進む。
操作支援サーバ4が操作支援を必要と判定した場合(S103:YES)、操作支援サーバ4は推奨する操作を示す提案AR画像をHMD1に送信する。HMD1は提案AR画像を受信し(S104)、提案AR画像を表示する(S105)。
操作支援サーバ4は、既にHMD1に送信した提案AR画像を再表示する場合、HMD1に対して提案AR画像を送信する代わりに、HMD1の画像RAM57、Program FROM58、又はData FROM59に記憶されている提案AR画像を読み出して表示するコマンドを送信してもよい。
操作者2が被操作機器6を操作するまでは待機、即ち提案AR画像の表示を続行する(S106:NO)。
操作者2が被操作機器6を操作し(S106:YES)、操作が完了してログアウト操作またはアプリ終了操作がされると(S107:YES)、操作支援処理を終了する(S108)。
ログアウト操作及びアプリ終了操作のどちらも実行されない場合は(S107:NO)、S101に戻り操作支援処理を続行する。
(操作支援システム)
図5は、操作支援システム100の機能ブロック図である。図5に示すように、操作支援サーバ4は、ネットワークインタフェース(I/F)410(第二通信器に相当する)と第二プロセッサ415とを含む。第二プロセッサ415は、CPU420、RAM430、内部ストレージ440を備え、各構成要素はバス460で互いに接続されている。内部ストレージ440は、処理プログラムとして、操作支援サービスプログラム450を記憶している。CPU420は、内部ストレージ440に格納された操作支援サービスプログラム450をRAM430にロードして操作支援サービスを提供する。
操作支援データベース5は、データストレージにより構成され、その記憶領域にマニュアルデータセット510、撮像画像データセット530、AR画像データセット550を含む。なお、操作支援データベース5は、外部向けインタフェースによって、操作支援サーバ4に直接接続される形態であっても良い。また操作支援データベース5は、操作支援サーバ4を構成する記憶媒体により構成してもよい。この場合、操作支援サーバ4と操作支援データベース5とは一体に構成される。
図6は、操作支援方法のフローチャート(操作支援サーバ4の処理)である。図6に示すように、操作支援方法が開始し(S125)、操作支援サーバ4が、S102でHMD1から送信された撮像画像、操作者情報を受信する(S126)。操作支援サーバ4は、受信した撮像画像を撮像画像データセット530と比較し、類似の撮像画像データがあればグループ化して保存し、類似の撮像画像データがなければ新規に登録して、撮像画像データセット530を更新する(S127)。
操作支援サーバ4は、マニュアルデータセット510を検索し、撮像画像データに近い図面等が掲載されている推奨操作を選定する(S128)。この時、操作支援サーバ4は、グループ化した撮像画像データで推奨した結果も参照することにより、推奨操作選定の確度を上げられる。もしくは、類似の撮像画像データで推奨した操作を推奨して、処理プロセスの時間を短縮できる。操作支援サーバ4は、この推奨結果を、撮像画像データセット530とマニュアルデータセット510との関連付けデータとして撮像画像データセット530に追記する。
選択された推奨操作ではなく、操作者2の意図に基づく操作を操作者2が行ったような場合には、操作支援サーバ4は、操作者2の選択をマニュアルデータセット510に追記して、以降の同様なケースで、短時間で、適切な推奨が行なえるようにする。
操作支援サーバ4は、S126で受信した撮像画像データと、S127で選定した推奨操作からAR画像データセット550を検索し、HMD1に送信する提案AR画像を選択する(S129)。この選択結果は、提案AR画像と関連付ける情報として、マニュアルデータセット510に追記する。
もし適切なAR画像が得られない場合には、操作支援サーバ4は、新規にAR画像を生成する。新規にAR画像を生成した場合には、AR画像データセット550に追記する。操作支援サーバ4は、選択もしくは生成した提案AR画像をHMD1に送信する(S130)。
操作支援サーバ4は、終了条件を満たしている場合(S131:YES)、例えば操作支援方法を利用している全ての操作者2がログアウトしている場合に、操作支援方法を終了する(S132)。
操作支援サーバ4は、終了条件を満たしていない場合(S131:NO)、例えば操作支援方法を利用している少なくとも一人以上の操作者2がログインしている場合に、操作支援方法を終了せずに、S126へ戻る。
マニュアルデータセット510、撮像画像データセット530、AR画像データセット550は、一連の推奨動作の提示、操作者の操作実行によってデータの更新が行なわれる。これにより、それぞれのデータの内容は拡充され、推奨の確度を上げることが可能となる。
(操作支援データベース)
図7は、マニュアルデータセット510の例を示す図である。マニュアルデータセット510は、ヘッダ511及びボディ512を含む。
ヘッダ511には、被操作機器の型名513、データの種類がマニュアルデータ514であることが記載されている。
ボディ512がマニュアルデータの中身であり、操作毎に、操作の内容、関連図面が記載されている。例えば、操作516に対して、操作内容517、関連図面518、及び関連付けられたAR画像データの番号519、意図的にこの操作を選択した操作者2の名前520が付随して規定されている。更に、マニュアルデータは、操作521に対して、操作内容522、関連図面523、関連付けられたAR画像データの番号524、意図的にこの操作を選択した操作者2の名前525(空欄)が付随して規定されている。
図8は、撮像画像データセット530の例を示す図である。撮像画像データセット530は、ヘッダ531及びボディ532を含む。
ヘッダ531には、被操作機器6の型名533、データの種類が撮像画像データ534であることが記載されている。更にヘッダ531は、被操作機器6の設置場所535、被操作機器6の個別識別情報536が続く。これらのデータは手動で入力してもよいし、背景画像からネットワーク空間を検索して得てもよいし、操作者2が装着しているHMD1のGPS等位置センサから得てもよい。さらに操作者情報537が続く。
ボディ532が撮像画像データの中身であり、撮像画像データは、撮像日時と画像データに、グループ化情報、関連付けられた操作で一組となる。例えば、538、539と540、541で、542~546で撮像画像データを成す。なお推奨操作を特定する処理は、時間的に連続した複数の撮像画像データを用いてもよい。
図9は、AR画像データセット550の例を示す図である。AR画像データセット550は、ヘッダ551及びボディ552を含む。
ヘッダ551には、被操作機器6の型名553、データの種類がAR画像データ554であることが記載されている。
ボディ552がAR画像データの中身であり、AR画像データは、AR画像の識別番号と3次元もしくは2次元のグラフィックもしくは画像データの対である。例えば、555と556、557と558、559と560の対でAR画像データを成す。またAR画像の識別番号(図中の一例では001-000-025-001)は、個々のAR画像を区別するためのものである。
図10Aは、被操作機器6の外見を撮像した撮像画像を示す図である。図10Aに示すように、被操作機器6の撮像画像には、操作パネル61、表示面62、操作ボタン63、型式の銘板64(機種、型番)が撮像されている。操作支援サーバ4は、撮像画像のうち、銘板64(機種、型番)の撮像領域を画像解析して、被操作機器6の機種を特定し、被操作機器6に合ったマニュアルデータの選択を行う。
図10B~図10Fは、HMD1で表示する提案AR画像の例を示す図である。図10B~図10Fに示すように、提案AR画像は、操作パネル61上、あるいは近傍に表示される。
図10Bに示す撮像画像には、表示面62の表示内容65、例えばエラーメッセージやエラーコードが撮像されている。インジケータが撮像されていれば、そのインジケータの点灯状態からも被操作機器6の状態判定が行える。該表示内容、及び表示内容の履歴は、被操作機器6の状態を特定するのに有用な情報となる。本例では、HMD1が8番のボタン以外を覆い隠す提案AR画像66を操作パネル61に重畳表示する。これにより、操作者2に対して、8番のボタンを押す操作が推奨されている。
図10Cは、図10Bと同じ推奨操作が提示される状況で、異なる提案AR画像67が表示されている。同一推奨動作を提示する提案AR画像であっても、操作者2の特性等に合わせて異なる提案AR画像を提示しても良い。
図10Dは、推奨動作が複数提示される例である。AとBが推奨動作であり、操作者2がいずれかを選択する。操作者2がAの推奨動作を選択する場合には、1番のボタンを、Bの推奨動作を選択する場合には、9番のボタンを押すが、AやBの推奨動作であることを示す提案AR画像68、69をそれぞれのボタン上に重畳表示して、わかりやすさを向上させている。
図10Eは、図10Dと同様に複数の推奨操作が提示される状況で、AR画像70、71が表示されている。提案AR画像70、71は、表示内容65の内容とボタンを関連付ける矢印である。
図10Fは、AR画像72、73、74が操作パネル61の近傍に表示されている例である。HMD1の左視線検出センサ19a及び右視線検出センサ19bが操作者2の視線を検知し、操作パネル61から操作者2の視線が外れているとHMD1が判断した際に、HMD1は提案AR画像73を表示する。
あるいは、表示面62に操作を要求する表示がされているにも関わらず、所定の時間を経過しても操作者2が操作を行わないことを操作支援サーバ4がHMD1から受信した撮像画像を検出した場合に、操作支援サーバ4から操作を促すための提案AR画像又は画像を表示させるためのコマンドをHMD1に対して送信し、HMD1に表示してもよい。所定の時間は推奨動作の内容によって、都度変更してもよい。
第一実施形態によれば、被操作機器6と操作支援システム100とが通信を行うことなく操作支援を操作者2に対して行うことができる。そのため、被操作機器6が通信機能を有しているか否かに問わず、また通信状態の良否に関らず、被操作機器6の操作支援が行える。
また、被操作機器6と操作支援システム100とは、操作支援をするために通信が不要であるので、操作支援システム100を利用することが被操作機器6の内部への攻撃リスクになることはない。また、操作支援データベース5は、操作支援システム100を利用する度に更新されるので、操作方法に対するノウハウの追加やユーザの熟練度向上等に対するシステム改善が可能となり推奨操作の確度を改善していくことが可能となる。
[第二実施形態]
図11~図13で、第二実施形態について説明する。本実施形態は、操作者2の行動履歴を操作者履歴データセット570として保持し、該操作者履歴データセット570を推奨操作の選定に反映させる例である。
図11は、第二実施形態に係る操作支援システム100aの機能ブロック図である。図5で説明した操作支援システム100と同一の機能を有するブロックには同一の番号を付与しており、重複した説明は省く。本操作支援システム100aの操作支援データベース5には、操作者履歴データセット570が追加されている。
図12は、操作支援方法のフローチャートである。S125で開始する。S125~S127、S129~S132のステップは、図6で説明した操作支援方法のフローチャートと同一であり、重複する説明は省く。
図12の操作支援方法のフローチャートで、S150では、マニュアルデータに加えて操作者履歴データセット570を用いて、推奨操作を選定している。さらにS151では、操作者2の実行動作を撮像画像から抽出し、操作者履歴データセット570に追記している。
図13は、操作者履歴データセット570の例を示す図である。操作者履歴データセット570は、ヘッダ571とボディ572がある。
ヘッダ571には、被操作機器6の型名573、データの種類が操作者履歴データ574であることが記載されている。操作者情報として操作者名575、操作者の経験年数576、操作者のスキルポイント577が続く。
ボディ532が操作者履歴データの中身である。操作者履歴データは、操作者2の実行動作と結果の対である。例えば、578~581の実行動作と582の結果で一組の履歴であり、同様、583~586の実行動作と587の結果で組の履歴データとなる。
以上説明したように、第二実施形態によれば、第一実施形態と同様の効果を持つとともに、操作者履歴データが推奨操作の決定に反映されることにより、操作者2の意図した選択によるものや好みによるもの等を反映して、推奨動作を決定することができ、さらに確度の高い推奨動作を提示できる。
[第三実施形態]
図14と図15を参照して、第三実施形態について説明する。本実施形態は、操作者2の熟練度を考慮した操作支援システム100bである。
図14は、第三実施形態に係る操作支援システム100bの構成を示す図である。図1で説明した操作支援システム100bと同一の機能を有するブロックには同一の番号を付与しており、重複した説明は省く。
操作支援システム100bの第一ネットワーク3には、上位操作者9が繋がっている。上位操作者9は、操作者2が初心者等の熟練度の低い操作者である場合に、直接操作指示を与える。
図15は、第三実施形態に係る操作支援方法のフローチャートである。S125で開始する。S125~S127、S129~S132、S150、S151のステップは、図6、あるいは図12で説明した操作支援方法のフローチャートと同一であり、重複する説明は省く。
本操作支援方法のフローチャートにおいて、S126で受信する操作者情報には、図13のスキルポイント577(熟練度の判定に必要な情報に相当する)が含まれる。S170では、スキルポイント577で操作者2の熟練度を評価し、上位操作者9が必要かを判断する。なお、スキルポイント577による熟練度の評価値は、被操作機器や操作内容によって変化させてもよい。
操作者2が熟練者である場合は(S170:高い)、S127~S131に至るフローにて、操作支援サービスが提供される。該操作フローは、図12で示したフローと同一である。
操作者2が初心者や熟練度が低い等の場合では(S170:低い)、S171以降のフローとなる。S171では、上位操作者9が操作者2の状況確認のために、操作者2から送信される撮像画像を確認する。S172では、受信した撮像画像を撮像画像データセット530と比較し、撮像画像データセット530を更新する。さらにS173では、マニュアルデータセット510と操作者履歴データセット570を検索して、上位操作者9が推奨操作を選定する。このとき上位操作者9は、複数の推奨操作候補から推奨操作を選択するようにしても良い。
S174では、撮像画像データ、推奨操作からAR画像データセット550を検索し、好適なAR画像を選ぶ。好適なAR画像がない場合は、新規に生成しても良い。このときも、検索して得るAR画像は複数でも良い。S175で、上位操作者9は、提案AR画像が適切かを確認し、S176で操作者2に送信する。このとき、音声による補助指示を行っても良い。
S177では、操作者2は送られてきた推奨操作を解釈し、受け入れられるものであれば(S177:YES)、操作を実行しS151に移行する。更なる支援を必要と考えた場合(S177:NO)には、再度S171から繰り返し、行なうべき操作への理解を深める。この結果、操作者2の熟練度は向上する。上記の変形例として、例えば、熟練度が高いと判断し(S170:高い)、S127以降のフローを進めていたが、途中で操作者が「上位操作者のサポートが必要」と判断してHMD1から上位操作者のサポート要求を入力すると、S127からS130までのいずれのステップにあるかを問わず、S121へ遷移して、上位操作者からの提案AR画像をHMD1が受信して表示するように構成してもよい。HMD1からのサポート要求の入力は、例えばマイク17からの音声入力でもよい。
以上説明したように、第三実施形態によれば、第一実施形態と同様の効果を持つとともに、操作者2の熟練度に応じた、きめ細かな操作支援サービスが提供できる。
以上、図1から図15で説明した本発明の実施形態が、これらに限られるものではなく、ある実施形態の構成の一部を他の実施形態に置き換えることが可能である。また、ある実施形態の構成に、他の実施形態の構成を加えることも可能である。これらは全て本発明の範疇に属するものであり、さらに文中や図中に現れる数値やメッセージ等もあくまで一例であり、異なるものを用いても本発明の効果を損なうものでない。
例えば、提案AR画像をHMD1の表示光学系13(ディスプレイ)に表示した後、カメラ10が被操作機器6に対して実行された動作を撮像した検証撮像画像を生成し、HMD1から操作支援サーバ4に検証撮像画像を送信する。操作支援サーバ4は、提案AR画像を入力パラメータ、検証撮像画像に基づく情報を出力パラメータとして、マニュアルデータセットの内容を機械学習してもよい。この機械学習エンジンは、強化学習でもよいし、ディープラーニングでもよい。これにより、マニュアルデータセット自体を機械学習してHMD1の操作者の要求にさらに合致した提案AR画像を選択できるようにしてもよい。また、マニュアルデータセット自体ではなく、マニュアルデータセットから提案AR画像を選択する機能(操作支援サービス450)を機械学習させ、提案AR画像の選択がより正しく行われるように構成してもよい。この場合も、上記と同様の入力パラメータ、出力パラメータを用い、強化学習、ディープラーニング他、任意の機械学習エンジンを用いてもよい。
また、発明の機能等は、それらの一部または全部を、例えば集積回路で設計する等によりハードウェアで実装しても良い。また、マイクロプロセッサユニット、CPU等が動作プログラムを解釈して実行することによりソフトウェアで実装しても良い。また、ソフトウェアの実装範囲を限定するものでなく、ハードウェアとソフトウェアを併用しても良い。
1 :HMD
2 :操作者
3 :第一ネットワーク
4 :操作支援サーバ
5 :操作支援データベース
6 :被操作機器
7 :第二ネットワーク
8 :機器制御サーバ
9 :上位操作者
10 :カメラ
11 :測距カメラ
12a :左投影光学系
12b :右投影光学系
13 :表示光学系
14 :ノーズパッド
15 :第一プロセッサ
16 :スピーカ
17 :マイク
18 :フレーム
18a :左つる
18b :右つる
18c :前面フレーム
19a :左視線検出センサ
19b :右視線検出センサ
51 :特徴抽出処理部
52 :距離算出部
53 :センサ群
54 :第一通信器
55 :CPU
56 :RAM
57 :画像RAM
60 :バス
61 :操作パネル
62 :表示面
63 :操作ボタン
64 :銘板
65 :表示内容
66、67、73:提案AR画像
81 :操作支援アプリ
100、100a、100b :操作支援システム
200 :機器制御システム
415 :第二プロセッサ
420 :CPU
430 :RAM
440 :内部ストレージ
450 :操作支援サービスプログラム
460 :バス
510 :マニュアルデータセット
511 :ヘッダ
512 :ボディ
513 :型名
514 :マニュアルデータ
530 :撮像画像データセット
550 :AR画像データセット
570 :操作者履歴データセット
本発明は、操作支援方法に関する。
上記課題を解決するために、本発明は、ヘッドマウントディスプレイから被操作機器の操作支援を行う操作支援方法であって、前記ヘッドマウントディスプレイは、前記被操作機器に対して実行された第一操作を撮像して第一操作画像として取得する第一操作画像取得ステップと、前記第一操作画像をサーバに送信し、前記サーバから前記被操作機器の操作支援情報に基づく提案仮想画像を受信する第一操作画像送受信ステップと、前記提案仮想画像をディスプレイに表示する提案画像表示ステップと、前記提案仮想画像を前記ディスプレイに表示した後に前記被操作機器に対して実行された第三操作を撮像して第三操作画像として取得し、前記第三操作画像を前記サーバに送信する第三操作画像送信ステップと、を実行し、前記サーバは、前記ヘッドマウントディスプレイから前記第一操作画像を受信する第一操作画像受信ステップと、前記第一操作画像に基づいて、前記被操作機器に対して推奨される第二操作に関する前記提案仮想画像をデータベースから選択する提案画像選択ステップと、前記選択した提案仮想画像を前記ヘッドマウントディスプレイに送信する提案仮想画像送信ステップと、前記ヘッドマウントディスプレイから前記第三操作画像を受信する第三操作画像受信ステップと、前記第二操作と前記第三操作が異なる操作である場合に、前記第三操作に関する情報を記憶することにより前記データベースを更新するデータベース更新ステップと、を実行する、ことを特徴とする。

Claims (9)

  1. ヘッドマウントディスプレイと操作支援サーバとを通信接続して構成された操作支援システムであって、
    前記ヘッドマウントディスプレイは、
    操作支援の対象となる被操作機器を撮像し撮像画像を出力するカメラと、
    前記撮像画像を前記操作支援サーバに送信し、当該操作支援サーバから前記被操作機器の操作支援情報を含む提案仮想画像を受信する第一通信器と、
    前記提案仮想画像を表示するディスプレイと、
    前記カメラ、前記第一通信器、及び前記ディスプレイのそれぞれに接続され、前記カメラ、前記第一通信器、及び前記ディスプレイのそれぞれの動作を制御する第一プロセッサと、
    を備え、
    前記操作支援サーバは、
    前記撮像画像を前記ヘッドマウントディスプレイから受信し、当該ヘッドマウントディスプレイに前記提案仮想画像を送信する第二通信器と、
    前記第二通信器に接続され、当該第二通信器の動作を制御する第二プロセッサと、を備え、
    前記第二プロセッサは、
    前記撮像画像に基づいて前記被操作機器の動作状態を判定し、
    前記被操作機器の操作支援情報を示す仮想画像を少なくとも一つ以上含む仮想画像データセットから、前記判定した動作状態に対応する少なくとも一つ以上の仮想画像を前記提案仮想画像として選択し、
    前記提案仮想画像を前記第二通信器から前記ヘッドマウントディスプレイに対して送信する制御を行う、
    ことを特徴とする操作支援システム。
  2. 請求項1に記載の操作支援システムにおいて、
    前記被操作機器と前記ヘッドマウントディスプレイとは、直接的又は間接的に通信接続されておらず、
    前記第二プロセッサは、前記被操作機器との間で情報の送受信をすることなく前記提案仮想画像の選択を行い、
    前記第一プロセッサは、前記被操作機器との間で情報の送受信をすることなく前記提案仮想画像の表示を行う、
    ことを特徴とする操作支援システム。
  3. 請求項1に記載の操作支援システムであって、
    前記操作支援サーバは、前記仮想画像データセットと、前記被操作機器に推奨される操作内容情報を含むマニュアルデータセットと、を記憶する操作支援データベースに接続され、
    前記マニュアルデータセットは、前記操作内容情報と前記仮想画像データセットに含まれる前記仮想画像とを対応づけて構成され、
    前記第二プロセッサは、前記判定した動作状態に対応する前記操作内容情報を前記マニュアルデータセットから選択し、当該操作内容情報に対応付けられた前記仮想画像を前記仮想画像データセットから前記提案仮想画像として選択する、
    ことを特徴とする操作支援システム。
  4. 請求項3に記載の操作支援システムであって、
    前記第一プロセッサが、前記提案仮想画像を前記ディスプレイに表示した後、前記カメラは、前記被操作機器に対して実行された動作を撮像した検証撮像画像を前記操作支援サーバに送信し、
    前記操作支援サーバは、前記提案仮想画像に沿った動作が行われなかった場合には、前記提案仮想画像の選択に用いられた前記撮像画像と、前記検証撮像画像に撮像された前記被操作機器に対する操作内容と、を基に前記マニュアルデータセットの内容を更新する、
    ことを特徴とする操作支援システム。
  5. 請求項4に記載の操作支援システムであって、
    前記操作支援サーバは、前記提案仮想画像を入力パラメータとし、前記検証撮像画像を出力パラメータとして、前記マニュアルデータセットの内容を機械学習する、
    ことを特徴とする操作支援システム。
  6. 請求項4に記載の操作支援システムであって、
    前記マニュアルデータセットは、前記被操作機器の操作者の実行動作を記録した履歴データを含む、
    ことを特徴とする操作支援システム。
  7. 請求項3に記載の操作支援システムであって、
    前記第一プロセッサは、前記被操作機器の操作者の熟練度判定に必要な情報を前記操作支援サーバに送信し、
    前記第二プロセッサは、受信した前記熟練度判定に必要な情報を基に、前記提案仮想画像を選択する処理を異ならせる、
    ことを特徴とする操作支援システム。
  8. 請求項1に記載の操作支援システムであって、
    前記提案仮想画像は、前記被操作機器の操作パネルのうち、前記被操作機器の動作状態の判定結果に基づいて推奨される操作において使用しない操作ボタンを隠す、又は当該使用しない操作ボタンの視認性を低下させる画像である、
    ことを特徴とする操作支援システム。
  9. ヘッドマウントディスプレイと操作支援サーバとを通信接続して実行される操作支援方法であって、
    前記ヘッドマウントディスプレイが、操作支援の対象となる被操作機器を撮像し、撮像画像を前記操作支援サーバに送信するステップと、
    前記操作支援サーバが、
    前記撮像画像に基づいて前記被操作機器の動作状態を判定し、
    前記被操作機器の操作支援情報を示す仮想画像を少なくとも一つ以上含む仮想画像データセットから、前記判定した動作状態に対応する少なくとも一つ以上の仮想画像を提案仮想画像として選択し、前記ヘッドマウントディスプレイに対して送信するステップと、
    前記ヘッドマウントディスプレイが、前記提案仮想画像を表示するステップと、
    を含むことを特徴とする操作支援方法。
JP2023198735A 2019-06-10 2023-11-24 操作支援方法 Pending JP2024019208A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023198735A JP2024019208A (ja) 2019-06-10 2023-11-24 操作支援方法

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2021525411A JP7393427B2 (ja) 2019-06-10 2019-06-10 操作支援システム
PCT/JP2019/022905 WO2020250270A1 (ja) 2019-06-10 2019-06-10 操作支援システム及び操作支援方法
JP2023198735A JP2024019208A (ja) 2019-06-10 2023-11-24 操作支援方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021525411A Division JP7393427B2 (ja) 2019-06-10 2019-06-10 操作支援システム

Publications (1)

Publication Number Publication Date
JP2024019208A true JP2024019208A (ja) 2024-02-08

Family

ID=73780734

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021525411A Active JP7393427B2 (ja) 2019-06-10 2019-06-10 操作支援システム
JP2023198735A Pending JP2024019208A (ja) 2019-06-10 2023-11-24 操作支援方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2021525411A Active JP7393427B2 (ja) 2019-06-10 2019-06-10 操作支援システム

Country Status (2)

Country Link
JP (2) JP7393427B2 (ja)
WO (1) WO2020250270A1 (ja)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011245792A (ja) * 2010-05-28 2011-12-08 Riso Kagaku Corp 画像形成システム
JP2012181809A (ja) * 2011-03-03 2012-09-20 Panasonic Corp 機器制御装置、機器制御方法、機器制御プログラム、及び集積回路
JP5821738B2 (ja) * 2012-03-27 2015-11-24 コニカミノルタ株式会社 画像形成装置、携帯端末装置およびプログラム
JP6738007B2 (ja) * 2015-12-09 2020-08-12 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理システム、その制御方法及びプログラム

Also Published As

Publication number Publication date
WO2020250270A1 (ja) 2020-12-17
JPWO2020250270A1 (ja) 2020-12-17
JP7393427B2 (ja) 2023-12-06

Similar Documents

Publication Publication Date Title
KR101930657B1 (ko) 몰입식 및 대화식 멀티미디어 생성을 위한 시스템 및 방법
JP6601417B2 (ja) 情報処理装置、情報処理方法及びプログラム
CN111819521B (zh) 信息处理装置、信息处理方法和程序
US20180133593A1 (en) Algorithm for identifying three-dimensional point-of-gaze
EP4105878A1 (en) Image acquisition device and method of controlling the same
US20170344110A1 (en) Line-of-sight detector and line-of-sight detection method
JP6646511B2 (ja) 技能伝承システム及び方法
EP3088995B1 (en) Display system and head mounted display
CN112493981B (zh) 一种基于裸眼3d的动态立体视觉检测系统和方法
CN111783640A (zh) 检测方法、装置、设备以及存储介质
JP4811683B2 (ja) 視野検出装置
JP4856291B1 (ja) 表示装置及び制御方法
KR101308184B1 (ko) 윈도우 형태의 증강현실을 제공하는 장치 및 방법
JP7393427B2 (ja) 操作支援システム
US11842453B2 (en) Information processing device, information processing method, and program
CN109791294A (zh) 用于运行具有数据眼镜的显示系统的方法和设备
JP2018151742A (ja) 情報表示システム
JP5517170B2 (ja) 表示装置及び制御方法
JP7094759B2 (ja) システム、情報処理方法及びプログラム
JP2013206411A (ja) ヘッドマウントディスプレイ及びコンピュータプログラム
KR20220058277A (ko) 스테레오 매칭 방법 및 이를 수행하는 영상 처리 장치
JP2015126369A (ja) 撮像装置
KR102337908B1 (ko) 작업 보조 방법 및 장치
KR102339044B1 (ko) 비상 상황 통제 방법 및 장치
EP3714438B1 (en) Assistance method for assisting performance of a task on a product, comprising displaying a highlighting image highlighting a monitored part of the product

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231207