JP5177154B2 - 標準作業実行支援装置、および標準作業実行支援方法 - Google Patents

標準作業実行支援装置、および標準作業実行支援方法 Download PDF

Info

Publication number
JP5177154B2
JP5177154B2 JP2010023329A JP2010023329A JP5177154B2 JP 5177154 B2 JP5177154 B2 JP 5177154B2 JP 2010023329 A JP2010023329 A JP 2010023329A JP 2010023329 A JP2010023329 A JP 2010023329A JP 5177154 B2 JP5177154 B2 JP 5177154B2
Authority
JP
Japan
Prior art keywords
work
unit
information
moving image
storage unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010023329A
Other languages
English (en)
Other versions
JP2011164694A (ja
Inventor
信重 明田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2010023329A priority Critical patent/JP5177154B2/ja
Publication of JP2011164694A publication Critical patent/JP2011164694A/ja
Application granted granted Critical
Publication of JP5177154B2 publication Critical patent/JP5177154B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は、作業者による標準作業手順に従う作業の実行を支援するための標準作業実行支援装置、および標準作業実行支援方法に関する。
製造業やサービス業などの企業には、作業者が正しい作業手順である標準作業手順を習得するために、標準作業手順をわかりやすく記載した手順書や、作業マニュアル、テキスト、写真等が用意されている。
また、作業者による作業を撮影して、標準作業手順に従う作業の実行を支援する場合がある。
特許文献1には、作業を撮影し、作業時間と標準作業時間とに差異が生じた場合に、管理者が異常状態の作業であると判断するシステムが記載されている。
特許文献2には、作業者の作業を撮影した動画にもとづく作業者の所定の部位の位置の変化を示す入力パターンと、標準パターンとを比較するシステムが記載されている。
特開2008−59322号公報(段落0014〜0038、図1) 特開2008−108008号公報(段落0041〜0113、図1)
特許文献1に記載されているシステムでは、実際に作業を行っている作業者の作業状況を、管理者が保存された映像にもとづいて確認するので、作業者に対して作業中に改善すべき内容を伝達することは困難である。
また、特許文献2に記載されているシステムでは、作業中に標準作業手順との差異を指摘することは考慮されていないので、誤った作業が行われるおそれがある。
そこで、本発明は、作業者が作業を行っているときに標準作業手順に従って作業を実行することを支援するための標準作業実行支援装置、および標準作業実行支援方法を提供することを目的とする。
本発明による標準作業実行支援装置は、標準作業手順に従う作業の動画を構成する画像フレームにおける作業者の手の位置を示す位置情報と、手が位置情報によって示される位置にあるタイミングを示す時間情報とを予め対応付けて記憶する標準作業情報記憶部と、動画撮影部によって撮影された業の動画を構成する画像フレームにおける業者の手の位置を示す位置情報を生成する画像解析部と、標準作業情報記憶部に記憶されている時間情報に対応する位置情報によって示される位置と、動画撮影部によって撮影された現在作業中の作業の動画における時間情報によって示されるタイミングで画像解析部が生成した位置情報によって示される位置との差異、および標準作業情報記憶部に記憶されている位置情報に対応する時間情報によって示されるタイミングと、動画撮影部によって撮影された現在作業中の作業の動画にもとづいて、位置情報によって示される位置に合致する位置を示す位置情報を画像解析部が生成したタイミングとの差異を算出する差異算出部と、標準作業手順に従う作業中の作業者の所定のジェスチャまたは音声を認識することによって得られる前記作業者からの指示を表す、図形もしくは文字の静止画データまたは文字データを、該ジェスチャまたは該音声の発生タイミングを示す時間情報およびその時の手の位置を示す位置情報に相当する標準作業情報記憶部に記憶されている時間情報および位置情報に対応づけて記憶する重畳データ記憶部と、差異算出部の算出結果が所定の値よりも大きい場合に、差分の算出に用いた標準作業情報記憶部に記憶されている位置情報および時間情報に対応する静止画データまたは文字データを重畳データ記憶部から読み出して、前記動画撮影部によって撮影されている現在作業中の作業の動画に、読み出した静止画データにもとづく静止画または読み出した文字データにもとづく文字を重畳して表示手段に表示させる重畳部とを備えたことを特徴とする。
本発明による標準作業実行支援方法は、標準作業情報記憶部に、標準作業手順に従う作業の動画を構成する画像フレームにおける作業者の手の位置を示す位置情報と、手が該位置情報によって示される位置にあるタイミングを示す時間情報とが予め対応付けて記憶され、重畳データ記憶部に、標準作業手順に従う作業中の作業者の所定のジェスチャまたは音声を認識することによって得られる作業者からの指示を表す、図形もしくは文字の静止画データまたは文字データが、該ジェスチャまたは音声の発生タイミングを示す時間情報およびその時の手の位置を示す位置情報に相当する標準作業情報記憶部に記憶されている時間情報および位置情報に対応づけて記憶され、動画撮影部によって撮影された業の動画を構成する画像フレームにおける業者の手の位置を示す位置情報を生成し、標準作業情報記憶部に記憶されている時間情報に対応する位置情報によって示される位置と、動画撮影部によって撮影された現在作業中の作業の動画における時間情報によって示されるタイミングで生成した位置情報によって示される位置との差異、および標準作業情報記憶部に記憶されている位置情報に対応する時間情報によって示されるタイミングと、動画撮影部によって撮影された現在作業中の作業の動画にもとづいて、位置情報によって示される位置に合致する位置を示す位置情報を生成したタイミングとの差異を算出し、算出結果が所定の値よりも大きい場合に、差分の算出に用いた標準作業情報記憶部に記憶されている位置情報または時間情報と対応づけて重畳データ記憶部に記憶されている静止画データまたは文字データを読み出して、動画撮影部によって撮影されている現在作業中の作業の動画に、読み出した静止画データにもとづく静止画または読み出した文字データにもとづく文字を重畳して表示手段に表示させることを特徴とする。
本発明によれば、作業者が作業を行っているときに標準作業手順に従って作業を実行することを支援することができる。
本発明の実施形態の標準作業実行支援装置の構成例を示すブロック図である。 本発明の実施形態の標準作業実行支援装置が、作業の熟練者である作業者Aによる標準作業手順に従う作業にもとづく動画データ、位置情報および時間情報を生成する動作を示すフローチャートである。 画像解析部が、作業者Aの手の位置を検出する例を示す説明図である。 動画に重ね合わせて動画表示部に表示させる画像の例を示す説明図である。 作業者Aによる標準作業手順に従う作業の進行に応じて動画表示部に重畳表示される画像の例を示す説明図である。 本発明による標準作業実行支援装置が作業者Bに指示する動作を示すフローチャートである。 作業者Aによる標準作業手順に従う作業と作業者Bの作業とを示す説明図である。 作業者Aによる標準作業手順に従う作業工程1の作業中に動画表示部に表示される画像の例と、作業者Bによる作業工程1の作業中に動画表示部に表示される画像の例とを示す説明図である。 作業者Aによる標準作業手順に従う作業工程2の作業中に動画表示部に表示される画像の例と、作業者Bによる作業工程2の作業中に動画表示部に表示される画像の例とを示す説明図である。 本発明の概要を示すブロック図である。
本発明による標準作業実行支援装置の実施形態について、図面を参照して説明する。図1は、本発明の実施形態の標準作業実行支援装置の構成例を示すブロック図である。
図1に示すように、本発明の実施形態の標準作業実行支援装置は、画像解析部11、手型認識部12、描画読出部15、動画読出部16、実行管理部18、音声認識部20、および文字読出部22を含む。
画像解析部11は、撮影機能を有するビデオカメラである画像入力部10が作業を撮影した動画を構成する各画像フレームの時間と各画像フレームの画像における所定の箇所の位置とを解析する機能を有する。そして、解析結果の位置を示す位置情報と時間を示す時間情報とを生成して出力する機能を有する。なお、各画像フレームの画像における所定の箇所の位置は、例えば、各画像フレームの画像における作業者の手の中心の位置(以下、単に手の位置という)である。また、各画像フレームの時間は、作業が開始されてから各画像フレームの画像が撮影されるまでに経過した時間である。
手型認識部12は、手足の動きを計測してジェスチャ認識を行う方法を用いて、所定の手の動きであるジェスチャを認識し、認識したジェスチャを示す情報と、動画を構成する画像フレームのうち、ジェスチャが撮影されている画像フレームの時間を示す時間情報と、予め設定された座標軸にもとづいてジェスチャが行われた手の位置を示す位置情報とを出力する機能を有する。なお、手型認識部12には、画像入力部10が撮影した動画が画像解析部11を介して入力され、手型認識部12は、ジェスチャが当該動画における複数の画像フレームに亘って撮影されている場合に、例えば、当該ジェスチャが最初に撮影された画像フレームの時間を示す時間情報を出力する。
なお、ジェスチャ認識については、以下に示す参考文献1,2に記載されている。
参考文献1:特許第3144400号公報
参考文献2:特許第3863809号公報
描画記憶部13には、予めジェスチャに対応した静止画データを記憶されている。描画記憶部13に記憶されている静止画データは描画読出部15によって読み出される。なお、描画記憶部13に記憶されている静止画データは、例えば、図形の静止画データや、文字の静止画データである。
動画記憶部14には、画像入力部10が撮影した動画の動画データが一時的に保存される。また、動画記憶部14には、画像入力部10が撮影した動画に静止画データにもとづく画像を当該動画の一部として重ね合わせて表示するための動画データが保存される。
描画読出部15は、手型認識部12が認識したジェスチャに対応する静止画データを描画記憶部13から読み出す機能を有する。また、描画読出部15は、実行管理部18の要求に応じて、描画記憶部13から静止画データを読み出す機能を有する。
動画読出部16は、動画記憶部14に記憶された動画データを読み出し、動画を表示するディスプレイである動画表示部17に、動画データにもとづく動画に静止画データにもとづく画像を重ね合わせて表示させる機能、すなわち、動画データにもとづく動画に静止画データにもとづく画像を重畳表示させる機能を備えている。
なお、動画表示部17は、標準作業や作業者自身の作業状況を作業中に確認するために、作業者の頭部付近に装着されるディスプレイであるヘッドマウントディスプレイであることが望ましいが、作業者が作業中に確認できる位置に固定されたディスプレイであってもよい。
音声認識部20は、マイクロフォンである音声入力部19に入力された音声を認識して文字情報に変換する機能を有する。つまり、音声入力部19に入力された音声にもとづく文字データを生成する機能を有する。文字記憶部21には、音声入力部19に音声が入力されたタイミングを示す時間情報と、音声認識部20によって入力された音声が変換された文字情報とが対応付けられて記憶される。音声入力部19に音声が入力されたタイミングは、例えば、作業が開始されてから音声が入力されるまでに経過した時間である。なお、文字記憶部21には、音声入力部19に音声が入力されたタイミングで画像解析部11が生成した位置情報が文字情報および時間情報に対応付けられて記憶されてもよい。
文字読出部22は、音声認識部20によって文字記憶部21に記憶された文字情報を読み出して動画読出部16に入力する機能を有する。また、文字読出部22は、当該文字情報に対応付けられて文字記憶部21に記憶された時間情報とともに、当該文字情報に応じた音声が音声入力部19に入力したタイミングにおいて画像解析部11が生成した作業者の手の位置を示す位置情報を実行管理部18に入力する機能を有する。文字読出部22は、実行管理部18の要求に応じて、文字記憶部21から文字情報を読み出して動画読出部16に文字情報を入力する機能を有する。
実行管理部18は、手型認識部12が出力した標準作業手順に従う各作業における位置情報および時間情報を記憶する機能と、文字読出部22が出力した位置情報および時間情報を記憶する機能とを有する。そして、記憶している標準作業手順に従う位置情報によって示される位置および時間情報によって示される時間と、画像入力部10によって撮影された動画にもとづいて画像解析部11が生成した位置情報によって示される位置および時間情報によって示される時間とを比較し、比較結果を示す差分情報を描画読出部15や文字読出部22に入力する機能を有する。なお、実行管理部18は、手型認識部12が出力した位置情報および時間情報と、文字読出部22が出力した位置情報および時間情報とを区別して記憶してもよい。
次に、本発明による標準作業実行支援装置の動作について、図面を参照して説明する。図2は、本発明の実施形態の標準作業実行支援装置が、作業の熟練者である作業者Aによる標準作業手順に従う作業にもとづく動画データ、位置情報および時間情報を生成する動作を示すフローチャートである。
ビデオカメラである画像入力部10が作業者Aの頭部付近に装着され、作業している状況を撮影する。画像入力部10が撮影した動画の動画データは動画記憶部14に記憶される。また、動画読出部16は、動画記憶部14に記憶された動画データを動画表示部17に入力する。動画表示部17には、入力された動画データにもとづく動画が表示される。
画像解析部11は、画像入力部10が撮影した動画にもとづいて、作業者Aの手の位置情報と時間情報とを生成する(ステップS10)。図3は、画像解析部11が、作業者Aの手の位置を検出する例を示す説明図である。図3に示す例では、画像の左上端を基点(0,0)とし、横軸をX座標(0≦x≦320)とし、縦軸をY座標(0≦y≦240)としている。そして、図3に示す例では、画像解析部11は、手の位置は、(30,200)であることを検出し、(30,200)を示す位置情報と、手の位置が(30,200)であることを検出したときの時間を示す時間情報とを生成する。
例えば、作業中に図形で作業者に指示を与える必要がある場合に、作業者Aが、動画表示部17の画面を見ながら描画入力のタイミングで自分の手で所定のジェスチャを行ったときには、画像解析部11によって、作業においてジェスチャが撮影された画像フレームの時間を示す時間情報と当該フレームの画像においてジェスチャが行われた手の位置座標を示す位置情報とが手型認識部12に入力される。
手型認識部12は、手の3次元座標を計測してジェスチャ認識を行う(ステップS11のY)。手型認識部12は、ジェスチャ認識の結果と位置情報と時間情報とを描画読出部15に入力する。
描画読出部15は、手型認識部12が入力したジェスチャ認識の結果に応じた静止画データを描画記憶部13から読み出す(ステップS13)。なお、描画読出部15は、描画記憶部13に記憶されている当該静止画データに対応付けて、手型認識部12が入力した位置情報と時間情報とを描画記憶部13に記憶させてもよい。動画読出部16は、動画記憶部14に記憶されている動画データにもとづく動画に描画読出部15が描画記憶部13から読み出した静止画データにもとづく画像を重ね合せて、動画表示部17に表示させる(ステップS14)。
図4は、動画に重ね合わせて動画表示部17に表示させる画像の例を示す説明図である。図4(a)に示す例では、作業者Aによって人差し指を立てるジェスチャが行われている。そして、図4(b)に示す例では、描画読出部15が、人差し指を立てるジェスチャに対応付けられた静止画データである矢印の静止画データを描画記憶部13から読み出し、動画読出部16が、動画を構成する各画像フレームの画像における手の位置(具体的には、例えば、画像解析部11が生成した位置情報によって示される位置)に応じた位置(画像解析部11が生成した位置情報によって示される位置から所定の方向に所定の距離離れた位置であって、図4(b)に示す例では指先の位置に相当する位置)に当該静止画データにもとづく画像を重ね合わせて動画表示部17に表示させている。なお、手型認識部12は、ジェスチャが行われた場合に指先の位置を示す位置情報を生成し、動画読出部16は、手型認識部12が生成した指先の位置を示す位置情報にもとづいて、静止画データにもとづく画像を動画表示部17に重畳表示させる位置を決定してもよい。
手型認識部12は、ジェスチャが撮影された画像フレームの時間情報とジェスチャが行われた手の位置を示す位置情報とを実行管理部18に入力する。実行管理部18は、入力された時間情報と位置情報とを対応付けて記憶する(ステップS17)。なお、実行管理部18は、手型認識部12が入力した時間情報および位置情報と、描画読出部15が描画記憶部13から読み出した静止画データとを対応付けて記憶してもよい。
また、例えば、作業中に文字で指示を与える必要がある場合に、作業者Aが、動画表示部17の画面を見ながら、作業手順や作業の注意点に関する文字入力のタイミングで、当該作業者Aの頭部に装着された音声入力部19に音声を入力する。
音声認識部20は、音声入力部19に音声が入力された場合に(ステップS12のY)、音声入力部19に入力された音声を認識して文字情報に変換し(ステップS15)、変換後の文字情報と、音声入力部19に音声が入力されたタイミングに応じた時間を示す時間情報と、音声入力部19に音声が入力されたときの位置を示す位置情報とを対応付けて文字記憶部2に記憶させる。
なお、音声入力部19に音声が入力されたタイミングに応じた時間を示す時間情報は、例えば、音声入力部19に音声が入力されたときに動画表示部17に表示されている画像フレームの時間情報である。また、音声入力部19に音声が入力されたときの位置を示す位置情報は、例えば、音声入力部19に音声が入力されたときに画像解析部11によって生成された位置情報である。
そして、動画読出部16は、画像入力部10が撮影した動画に文字情報にもとづく文字を重ね合わせて動画表示部17に表示させる(ステップS16)。なお、動画読出部16が動画表示部17に表示される動画において、文字を重畳表示させる位置は、文字読出部22が文字記憶部21から読み出した位置情報によって示される位置に応じた位置(文字記憶部21から読み出した位置情報によって示される位置から所定の方向に所定の距離離れた位置であって、例えば、作業者Aの指先の位置に相当する位置)である。なお、手型認識部12は、音声入力部19に音声が入力された場合に、ジェスチャが行われたときに指先の位置を示す位置情報を生成し、動画読出部16は、手型認識部12が生成した指先の位置を示す位置情報にもとづいて、文字情報にもとづく文字を動画表示部17に重畳表示させる位置を決定してもよい。
文字読出部22は、文字記憶部21に記憶された時間情報、および位置情報を実行管理部18に入力する。実行管理部18は、入力された時間情報、および位置情報を対応付けて記憶する(ステップS17)。なお、文字読出部22は、時間情報、および位置情報を実行管理部18に送信する場合に、文字記憶部21に当該時間情報および位置情報に対応付けられて記憶された文字情報を実行管理部18に入力してもよく、実行管理部18は、文字読出部22が入力した時間情報、位置情報および文字情報を対応付けて記憶してもよい。
図4(c),(d)に示す例では、音声入力部19に、「三カ所グリスを注入」という音声が入力されたので、音声認識部20によって文字情報に変換された「三カ所グリスを注入」という文字が音声入力されたときの手の位置に応じた位置に表示されている。
図5は、作業者Aによる標準作業手順に従う作業の進行に応じて動画表示部17に重畳表示される画像の例を示す説明図である。図5に示す例では、作業工程1が、時間「0:00:00」に開始され、「0:01:30」に終了している。また、作業工程2が、時間「0:01:45」に開始され、「0:03:00」に終了している。そして、作業工程1および作業工程2の開始時および終了時に、作業者Aによって人差し指を立てるジェスチャが行われ、当該ジェスチャに応じた画像である矢印が動画表示部17に表示されることが示されている。
また、図5に示す例では、作業工程1の開始時(時間「0:00:00」)の手の位置は(20,50)であり、時間「0:00:30」に、手の位置(30,200)で、グリス注入の作業が開始されて、音声入力部19に、「三カ所グリスを注入」という音声が入力されたので、動画表示部17に、「三カ所グリスを注入」という文字が重畳表示される。そして、作業工程1の終了時(時間「0:01:30」)の手の位置は、(120,100)である。
また、図5に示す例では、作業工程2の開始時(時間「0:01:45」)の手の位置は、(50,50)であり、時間「0:02:15」に、手の位置(200,200)で、切断の作業が開始されて、音声入力部19に、「右側先端部カット」という音声が入力されたので、動画表示部17に、「右側先端部カット」という文字が表示される。そして、作業工程2の終了時(時間「0:03:00」)の手の位置は(300,200)である。
次に、本発明による標準作業実行支援装置が、生成した位置情報および時間情報にもとづいて作業者に指示する動作について、図面を参照して説明する。図6は、本発明による標準作業実行支援装置が作業者Bに指示する動作を示すフローチャートである。
ビデオカメラである画像入力部10が作業者Bの頭部付近に装着され、作業している状況を撮影する。画像入力部10が撮影した動画の動画データは動画記憶部14に記憶される。また、動画読出部16は、画像入力部10が撮影した動画を動画表示部17に入力する。動画表示部17には、入力された動画が表示される。
画像解析部11は、画像入力部10が撮影した動画にもとづいて、作業者Bの手の位置情報と時間情報とを生成する(ステップS20)。
手型認識部12は、画像解析部11が生成した位置情報と時間情報とを実行管理部18に入力する。実行管理部18は、手型認識部12が入力した位置情報および時間情報と、記憶している位置情報および時間情報とをそれぞれ比較し(ステップS21)、差分を算出する。
具体的には、実行管理部18は、例えば、記憶している位置情報によって示される位置に合致する位置を示す位置情報が入力された場合に、記憶している位置情報に対応付けて記憶している時間情報によって示される時間と、入力された時間情報によって示される時間との差分を算出する。また、実行管理部18は、例えば、記憶している時間情報によって示される時間に合致する時間を示す時間情報が入力された場合に、記憶している時間情報に対応付けて記憶している位置情報によって示される位置と、入力された位置情報によって示される位置との差分を算出する。
そして、実行管理部18は、算出した差分が所定の値を超えている場合に、当該差分を示す差分情報を描画読出部15、および文字読出部22に入力して、動画に重畳表示させる画像に応じたデータの読み出しを要求する。なお、実行管理部18は、差分情報とともに、ステップS21の処理で比較に用いた記憶している位置情報や時間情報を描画読出部15や文字読出部22に入力してもよい。
また、実行管理部18は、位置情報および時間情報を出力元に応じて区別して記憶している場合に、出力元に応じて、情報の入力先を決定してもよい。具体的には、例えば、ステップS21の処理で手型認識部12が入力した位置情報および時間情報と比較した位置情報および時間情報が手型認識部12によって入力されて記憶していた場合には、情報を描画読出部15に入力し、文字読出部22によって入力されて記憶していた場合には、情報を文字読出部22に入力すると決定してもよい。
描画読出部15は、描画記憶部13から静止画データを読み出す。また、文字読出部22は、文字記憶部21から文字情報を読み出す(ステップS23)。なお、描画読出部15が描画記憶部13から読み出す静止画データは、例えば、差分情報とともに入力された位置情報や時間情報に対応付けられた静止画データである。また、文字読出部22が文字記憶部21から読み出す文字情報は、例えば、差分情報とともに入力された位置情報や時間情報に対応付けられた文字情報である。
動画読出部16は、描画読出部15が描画記憶部13から読み出した静止画データまたは文字読出部22が文字記憶部21から読み出した文字情報にもとづく文字を動画に重ね合わせて動画表示部17に表示させる(ステップS24)。
実行管理部18は、作業が終了した場合に(ステップS25のY)、ステップS21の処理で比較した結果にもとづいて、差分が標準範囲内である場合に標準作業が実行されたと判定し、差分が標準範囲外である場合に標準作業が実行されていないと判定する(ステップS26)。
図7は、作業者Aによる標準作業手順に従う作業と作業者Bの作業とを示す説明図である。図8は、作業者Aによる標準作業手順に従う作業工程1の作業中に動画表示部17に表示される画像の例と、作業者Bによる作業工程1の作業中に動画表示部17に表示される画像の例とを示す説明図である。図9は、作業者Aによる標準作業手順に従う作業工程2の作業中に動画表示部に表示される画像の例と、作業者Bによる作業工程2の作業中に動画表示部17に表示される画像の例とを示す説明図である。
図7および図8(a)に示す例では、作業者Aは、位置(30,200)で、時間「0:00:30」に、グリス注入を開始したことが示されているのに対し、作業者Bは、位置(30,200)で、時間「0:00:35」にグリス注入を開始している。
実行管理部18は、作業者Aの作業にもとづいて記憶している位置情報および時間情報によって示される位置および時間と、作業者Bの作業内容の位置および時間との差分を算出する。
具体的には、実行管理部18は、作業者Aの作業にもとづいて記憶している位置情報によって示される位置(30,200)と作業者Bの作業にもとづいて入力された位置情報によって示される位置(30,200)との差分(0,0)を算出する。また、実行管理部18は、作業者Aの作業にもとづいて記憶している時間情報によって示される時間「0:00:30」と作業者Bの作業にもとづいて入力された時間情報によって示される時間「0:00:35」との差分「0:00:05」を算出する。
実行管理部18は、時間の差分が作業者Aの作業にもとづいて記憶している時間情報によって示されるグリス注入の作業開始時間である30秒の10%である3秒を超えているので、算出した位置の差分(0,0)、および時間の差分「0:00:05」を示す差分情報とともに、記憶している位置情報および時間情報を描画読出部15および文字読出部22に入力する。
文字読出部22は、差分情報によって時間の差分が生じていることが示されているので、入力された時間情報に対応付けられて文字記憶部21に記憶されている文字情報を読み出す。動画読出部16は、文字読出部22が文字記憶部21から読み出した文字情報にもとづく文字「三カ所グリスを注入」を動画に重ね合わせて動画表示部17に表示させ、作業者Bに注意を喚起する。つまり、時間「0:00:35」に動画表示部17に「三カ所グリスを注入」という文字が表示される(図8(b)参照)。
図7および図8(c)に示す例では、作業者Aは、位置(120,100)で、時間「0:01:30」に、作業工程1の作業を終了したことが示されているのに対し、作業者Bは、位置(110,100)で、時間「0:01:30」に作業工程1の作業を終了している。
実行管理部18は、作業者Aの作業にもとづいて記憶している位置情報および時間情報によって示される位置および時間と、作業者Bの作業内容の位置および時間との差分を算出する。
具体的には、実行管理部18は、作業者Aの作業にもとづいて記憶している位置情報によって示される位置(120,100)と作業者Bの作業にもとづいて入力された位置情報によって示される位置(110,100)との差分(10,0)を算出する。また、実行管理部18は、作業者Aの作業にもとづいて記憶している時間情報によって示される時間「0:01:30」と作業者Bの作業にもとづいて入力された時間情報によって示される時間「0:01:30」との差分「0:00:00」を算出する。
実行管理部18は、Y軸の位置の差分が0であり、X軸の位置の差分「10」がX軸の最大値「320」の10%を超えておらず、時間の差分が「0:00:00」なので、標準作業手順に従う作業が実行されたと判断する。そして、実行管理部18は、標準作業手順に従う作業が実行されたことを示す画像(図7に示す例では「○」)を動画表示部17に表示されている動画に重畳表示させる。
図7および図9(a)に示す例では、作業者Aは、位置(50,50)で、時間「0:01:45」に、作業を開始したことが示されているのに対し、作業者Bは、位置(50,100)で、時間「0:01:45」に作業を開始している。
実行管理部18は、作業者Aの作業にもとづいて記憶している位置情報および時間情報によって示される位置および時間と、作業者Bの作業内容の位置および時間との差分を算出する。
具体的には、実行管理部18は、作業者Aの作業にもとづいて記憶している位置情報によって示される位置(50,50)と作業者Bの作業にもとづいて入力された位置情報によって示される位置(50,100)との差分(0,50)を算出する。また、実行管理部18は、作業者Aの作業にもとづいて記憶している時間情報によって示される時間「0:01:45」と作業者Bの作業にもとづいて入力された時間情報によって示される時間「0:01:45」との差分「0:00:00」を算出する。
実行管理部18は、X軸の位置の差分が0であるが、Y軸の位置の差分「50」がY軸の最大値「240」の10%を超えているので、算出した位置の差分(0,50)、および時間の差分「0:00:00」を示す差分情報とともに、記憶している位置情報および時間情報を描画読出部15および文字読出部22に入力する。
描画読出部15は、差分情報によって位置の差分が生じていることが示されているので、入力された位置情報に対応付けられて描画記憶部13に記憶されている静止画データを読み出す。動画読出部16は、描画読出部15が描画記憶部13から読み出した静止画データにもとづく図形である矢印を当該静止画データに対応付けられて記憶されている位置情報によって示される位置で動画に重ね合わせて動画表示部17に表示させ、作業者Bに注意を喚起する。つまり、時間「0:01:45」に動画表示部17に矢印が表示される(図9(a)参照)。
図7および図9(b)に示す例では、作業者Aは、位置(200,200)で、時間「0:02:15」に、切断を開始したことが示されているのに対し、作業者Bは、位置(100,100)で、時間「0:02:25」に切断を開始している。
実行管理部18は、作業者Aの作業にもとづいて記憶している位置情報および時間情報によって示される位置および時間と、作業者Bの作業内容の位置および時間との差分を算出する。
具体的には、実行管理部18は、作業者Aの作業にもとづいて記憶している位置情報によって示される位置(200,200)と作業者Bの作業にもとづいて入力された位置情報によって示される位置(100,100)との差分(100,100)を算出する。また、実行管理部18は、作業者Aの作業にもとづいて記憶している時間情報によって示される時間「0:02:15」と作業者Bの作業にもとづいて入力された時間情報によって示される時間「0:02:25」との差分「0:00:10」を算出する。
実行管理部18は、X軸の位置の差分「100」がX軸の最大値「320」の10%を超え、Y軸の位置の差分「100」がY軸の最大値「240」の最大値の10%を超え、時間の差分が記憶されている時間情報にもとづいて算出される作業工程2が開始されてから切断作業が開始されるまでの時間である30秒の10%である3秒を超えているので、算出した位置の差分(100,100)、および時間の差分「0:00:10」を示す差分情報とともに、記憶している位置情報および時間情報を描画読出部15および文字読出部22に入力する。
文字読出部22は、差分情報によって位置の差分および時間の差分が生じていることが示されているので、入力された位置情報および時間情報に対応付けられて文字記憶部21に記憶されている文字情報を読み出す。動画読出部16は、文字読出部22が文字記憶部21から読み出した文字情報にもとづく文字「右側先端部をカット」を動画に重ね合わせて動画表示部17に表示させ、作業者Bに注意を喚起する。つまり、時間「0:02:25」に動画表示部17に「右側先端部をカット」という文字が表示される(図9(b)参照)。
図7および図9(c)に示す例では、作業者Aは、位置(300,200)で、時間「0:03:00」に、作業工程2の作業を終了したことが示されているのに対し、作業者は、位置(300,200)で、時間「0:03:10」に作業工程2の作業を終了している。
実行管理部18は、作業者Aの作業にもとづいて記憶している位置情報および時間情報によって示される位置および時間と、作業者Bの作業内容の位置および時間との差分を算出する。
具体的には、実行管理部18は、作業者Aの作業にもとづいて記憶している位置情報によって示される位置(300,200)と作業者Bの作業にもとづいて入力された位置情報によって示される位置(300,200)との差分(0,0)を算出する。また、実行管理部18は、作業者Aの作業にもとづいて記憶している時間情報によって示される時間「0:03:00」と作業者Bの作業にもとづいて入力された時間情報によって示される時間「0:03:10」との差分「0:00:10」を算出する。
実行管理部18は、位置の差分が(0,0)であり、時間の差分が作業者Aの作業にもとづいて記憶している時間情報によって示される作業工程2の作業終了までの時間である75秒の10%である7.5秒を超えているので、標準作業手順に従う作業が実行されなかったと判断する。そして、実行管理部18は、標準作業手順に従う作業が実行されなかったことを示す画像(図7に示す例では「△」)を動画表示部17に表示されている動画に重畳表示させる。
本実施形態によれば、熟練者である作業者Aによる標準作業手順に従う作業中に、動画表示部17に表示させる図形や文字の入力が行われるので、時間や手間をかけずに、容易に動画データを作成することができる。
また、作業者Bによる作業中に、標準作業手順に従う作業内容および時間と、作業者Bによる作業内容および時間との差異が所定の値を超えていることを検出した場合に、図形や文字を動画表示部17に表示させるので、作業者Bに注意を喚起して作業内容の確認を促し、作業ミスを未然に防ぐことができる。
また、熟練者である作業者Aによる作業を撮影した動画データを動画記憶部14に記録することによって、当該動画データを作業進捗管理や作業分析に活用することができる。
また、一般的な作業管理システムでは、作業の進捗状況を確認する場合に、作業開始時や作業終了時に作業者が当該システムに情報を入力しなければならないが、ジェスチャによって情報が入力されるので、情報の入力操作を忘れたりすることによる作業漏れを防ぎ、作業精度を向上させることができる。
次に、本発明の概要について説明する。図10は、本発明の概要を示すブロック図である。図10に示すように、本発明による標準作業実行支援装置100は、標準作業情報記憶部101(図1に示す実行管理部18に相当)、画像解析部102(図1に示す画像解析部11に相当)、差異算出部103(図1に示す実行管理部18に相当)、および重畳部104(図1に示す描画読出部15、文字読出部22、および動画読出部16に相当)を含む。
標準作業情報記憶部101は、標準作業手順に従う作業の動画を構成する画像フレームにおける作業者の手の位置を示す位置情報と、手が位置情報によって示される位置にあるタイミングを示す時間情報とを予め対応付けて記憶する。
画像解析部102は、動画撮影部(図1に示す画像入力部10に相当)によって撮影された他の作業者による作業の動画を構成する画像フレームにおける他の作業者の手の位置を示す位置情報を生成する。
差異算出部103は、標準作業情報記憶部101に記憶されている時間情報に対応する位置情報によって示される位置と、動画撮影部によって撮影された動画における時間情報によって示されるタイミングで画像解析部102が生成した位置情報によって示される位置との差異を算出する。
また、差異算出部103は、標準作業情報記憶部101に記憶されている位置情報に対応する時間情報によって示されるタイミングと、動画撮影部によって撮影された動画にもとづいて、位置情報によって示される位置に合致する位置を示す位置情報を画像解析部102が生成したタイミングとの差異を算出する。
重畳部104は、差異算出部103の算出結果が所定の値よりも大きい場合に、動画撮影部によって撮影された動画に、標準作業情報記憶部101に記憶されている位置情報または時間情報に対応する画像を重畳して表示手段(図1に示す動画表示部17に相当)に表示させる。
そのような構成によれば、作業者による作業中に、標準作業手順に従う作業内容および時間と、作業者による作業内容および時間との差異が所定の値を超えていることを検出した場合に、画像を表示手段に重畳表示させるので、作業者に注意を喚起して作業内容の確認を促し、作業ミスを未然に防ぐことができる。
また、上記の実施形態では、以下の(1)〜(4)に示すような標準作業実行支援装置も開示されている。
(1)重畳部104が、差異算出部103の算出結果が所定の値よりも大きい場合に、標準作業情報記憶部101に記憶されている位置情報および時間情報に対応する静止画データを記憶する静止画データ記憶部(図1に示す描画記憶部13に相当)から位置情報または時間情報に対応する静止画データを読み出して、動画撮影部によって撮影された動画に、静止画データにもとづく静止画を重畳して表示手段に表示させる標準作業実行支援装置。
(2)標準作業手順に従う作業の動画における作業者の所定のジェスチャを認識するジェスチャ認識部(図1に示す手型認識部12に相当)と、画像解析部102が生成した位置情報と、動画において所定のジェスチャが撮影されたタイミングを示す時間情報とを標準作業情報記憶部101に記憶させるジェスチャ情報登録部(図1に示す手型認識部12に相当)とを備え、静止画データ記憶部には、作業者による所定のジェスチャに応じた静止画データが予め記憶され、画像解析部102は、標準作業手順に従う作業の動画を構成する画像フレームにおいて、所定のジェスチャが行われた位置を示す位置情報を生成し、ジェスチャ情報登録部は、所定のジェスチャに対応付けられた静止画データに、位置情報と時間情報とを対応付けて静止画データ記憶部に記憶させる標準作業実行支援装置。
(3)重畳部104は、差異算出部103の算出結果が所定の値よりも大きい場合に、標準作業情報記憶部101に記憶されている位置情報および時間情報に対応する文字データを記憶する文字データ記憶部(図1に示す文字記憶部21に相当)から位置情報または時間情報に対応する文字データを読み出して、動画撮影部によって撮影された動画に、文字データにもとづく文字を重畳して表示手段に表示させる標準作業実行支援装置。
(4)入力された音声を認識して、音声にもとづく文字データと、音声が入力されたタイミングを示す時間情報とを生成して文字データ記憶部に記憶させる音声認識部(図1に示す音声認識部20に相当)と、画像解析部102が生成した位置情報と音声認識部が生成した時間情報とを標準作業情報記憶部101に記憶させる音声情報登録部(図1に示す文字読出部22に相当)とを備え、画像解析部102は、標準作業手順に従う作業の動画を構成する画像フレームにおいて、タイミングにおける作業者の手の位置を示す位置情報を生成し、音声情報登録部は、位置情報を文字データと時間情報とに対応付けて文字データ記憶部に記憶させる標準作業実行支援装置。
本発明を、作業者による標準作業手順に従う作業の実行を作業中に支援するためのシステムに適用する事ができる。
10 画像入力部
11、102 画像解析部
12 手型認識部
13 描画記憶部
14 動画記憶部
15 描画読出部
16 動画読出部
17 動画表示部
18 実行管理部
19 音声入力部
20 音声認識部
21 文字記憶部
22 文字読出部
100 標準作業実行支援装置
101 標準作業情報記憶部
103 差異算出部
104 重畳部

Claims (8)

  1. 標準作業手順に従う作業の動画を構成する画像フレームにおける作業者の手の位置を示す位置情報と、前記手が前記位置情報によって示される位置にあるタイミングを示す時間情報とを予め対応付けて記憶する標準作業情報記憶部と、
    動画撮影部によって撮影された業の動画を構成する画像フレームにおける業者の手の位置を示す位置情報を生成する画像解析部と、
    前記標準作業情報記憶部に記憶されている時間情報に対応する位置情報によって示される位置と、前記動画撮影部によって撮影された現在作業中の作業の動画における前記時間情報によって示されるタイミングで前記画像解析部が生成した位置情報によって示される位置との差異、および前記標準作業情報記憶部に記憶されている位置情報に対応する時間情報によって示されるタイミングと、前記動画撮影部によって撮影された現在作業中の作業の動画にもとづいて、前記位置情報によって示される位置に合致する位置を示す位置情報を前記画像解析部が生成したタイミングとの差異を算出する差異算出部と、
    標準作業手順に従う作業中の作業者の所定のジェスチャまたは音声を認識することによって得られる前記作業者からの指示を表す、図形もしくは文字の静止画データまたは文字データを、該ジェスチャまたは該音声の発生タイミングを示す時間情報およびその時の手の位置を示す位置情報に相当する前記標準作業情報記憶部に記憶されている時間情報および位置情報に対応づけて記憶する重畳データ記憶部と、
    前記差異算出部の算出結果が所定の値よりも大きい場合に、差分の算出に用いた前記標準作業情報記憶部に記憶されている位置情報および時間情報に対応する静止画データまたは文字データを前記重畳データ記憶部から読み出して、前記動画撮影部によって撮影されている現在作業中の作業の動画に、前記静止画データにもとづく静止画または前記文字データにもとづく文字を重畳して表示手段に表示させる重畳部とを備えた
    ことを特徴とする標準作業実行支援装置。
  2. 重畳部は、動画撮影部によって撮影されている現在作業中の作業の動画の、差分の算出に用いた前記標準作業情報記憶部に記憶されている位置情報によって示される位置に応じた位置に、読み出した静止画データにもとづく静止画または読み出した文字データにもとづく文字を重畳する
    請求項1に記載の標準作業実行支援装置。
  3. 標準作業手順に従う作業の動画における作業者からの作業指示を表した所定のジェスチャを認識するジェスチャ認識部と、
    画像解析部が生成した位置情報と、前記動画において前記所定のジェスチャが撮影されたタイミングを示す時間情報とを標準作業情報記憶部に記憶させるジェスチャ情報登録部とを備え、
    重畳データ記憶部には、作業者による前記所定のジェスチャに応じた静止画データが予め記憶され、
    像解析部は、標準作業手順に従う作業の動画を構成する画像フレームにおいて、前記所定のジェスチャが行われた位置を示す位置情報を生成し、
    前記ジェスチャ情報登録部は、前記所定のジェスチャに対応付けられた静止画データに、前記位置情報と前記時間情報とを対応付けて前記重畳データ記憶部に記憶させる
    請求項1または請求項2に記載の標準作業実行支援装置。
  4. 入力された音声を認識して、前記音声にもとづく文字データと、前記音声が入力されたタイミングを示す時間情報とを生成して重畳データ記憶部に記憶させる音声認識部と、
    画像解析部が生成した位置情報と前記音声認識部が生成した時間情報とを標準作業情報記憶部に記憶させる音声情報登録部と、
    前記画像解析部は、標準作業手順に従う作業の動画を構成する画像フレームにおいて、前記タイミングにおける作業者の手の位置を示す位置情報を生成し、
    前記音声情報登録部は、前記位置情報を前記文字データと前記時間情報とに対応付けて前記重畳データ記憶部に記憶させる
    請求項1から請求項3のうちいずれか1項に記載の標準作業実行支援装置。
  5. 標準作業情報記憶部に、標準作業手順に従う作業の動画を構成する画像フレームにおける作業者の手の位置を示す位置情報と、前記手が前記位置情報によって示される位置にあるタイミングを示す時間情報とが予め対応付けて記憶され、
    重畳データ記憶部に、標準作業手順に従う作業中の作業者の所定のジェスチャまたは音声を認識することによって得られる前記作業者からの指示を表す、図形もしくは文字の静止画データまたは文字データが、該ジェスチャまたは音声の発生タイミングを示す時間情報およびその時の手の位置を示す位置情報に相当する前記標準作業情報記憶部に記憶されている時間情報および位置情報に対応づけて記憶され、
    動画撮影部によって撮影された業の動画を構成する画像フレームにおける業者の手の位置を示す位置情報を生成し、
    前記標準作業情報記憶部に記憶されている時間情報に対応する位置情報によって示される位置と、前記動画撮影部によって撮影された現在作業中の作業の動画における前記時間情報によって示されるタイミングで前記画像解析部が生成した位置情報によって示される位置との差異、および前記標準作業情報記憶部に記憶されている位置情報に対応する時間情報によって示されるタイミングと、前記動画撮影部によって撮影された現在作業中の作業の動画にもとづいて、前記位置情報によって示される位置に合致する位置を示す位置情報を前記画像解析部が生成したタイミングとの差異を算出し、
    算出結果が所定の値よりも大きい場合に、差分の算出に用いた前記標準作業情報記憶部に記憶されている位置情報または時間情報と対応づけて前記重畳データ記憶部に記憶されている静止画データまたは文字データを読み出して、前記動画撮影部によって撮影されている現在作業中の作業の動画に、前記静止画データにもとづく静止画または前記文字データにもとづく文字を重畳して表示手段に表示させる
    ことを特徴とする標準作業実行支援方法。
  6. 動画撮影部によって撮影されている現在作業中の作業の動画の、差分の算出に用いた前記標準作業情報記憶部に記憶されている位置情報によって示される位置に応じた位置に、読み出した静止画データにもとづく静止画または読み出した文字データにもとづく文字を重畳する
    請求項5に記載の標準作業実行支援方法。
  7. 重畳データ記憶部には、作業者による前記所定のジェスチャに応じた静止画データが予め記憶され、
    標準作業手順に従う作業の動画における作業者の前記所定のジェスチャを認識し、
    前記所定のジェスチャが行われた位置を示す位置情報を生成し、
    前記位置情報と、前記動画において前記所定のジェスチャが撮影されたタイミングを示す時間情報とを標準作業情報記憶部に記憶させ、
    前記所定のジェスチャに対応付けられた静止画データに、前記位置情報と前記時間情報とを対応付けて前記重畳データ記憶部に記憶させる
    請求項5または請求項6記載の標準作業実行支援方法。
  8. 入力された音声を認識して、前記音声にもとづく文字データと、前記音声が入力されたタイミングを示す時間情報とを生成して重畳データ記憶部に記憶させ、
    前記タイミングにおける標準作業手順に従う作業を行う作業者の手の位置を示す位置情報と前記時間情報とを標準作業情報記憶部に記憶させ、
    前記位置情報を前記文字データと前記時間情報とに対応付けて前記重畳データ記憶部に記憶させる
    請求項5から請求項7のうちいずれか1項に記載の標準作業実行支援方法。
    9記載の標準作業実行支援方法。
JP2010023329A 2010-02-04 2010-02-04 標準作業実行支援装置、および標準作業実行支援方法 Expired - Fee Related JP5177154B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010023329A JP5177154B2 (ja) 2010-02-04 2010-02-04 標準作業実行支援装置、および標準作業実行支援方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010023329A JP5177154B2 (ja) 2010-02-04 2010-02-04 標準作業実行支援装置、および標準作業実行支援方法

Publications (2)

Publication Number Publication Date
JP2011164694A JP2011164694A (ja) 2011-08-25
JP5177154B2 true JP5177154B2 (ja) 2013-04-03

Family

ID=44595348

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010023329A Expired - Fee Related JP5177154B2 (ja) 2010-02-04 2010-02-04 標準作業実行支援装置、および標準作業実行支援方法

Country Status (1)

Country Link
JP (1) JP5177154B2 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5839553B2 (ja) * 2011-10-28 2016-01-06 株式会社日立製作所 作業支援システム、作業支援方法、および、作業用端末
US9904356B2 (en) * 2013-05-28 2018-02-27 The Boeing Company Tracking a user to support tasks performed on complex-system components
US10755222B2 (en) 2014-06-13 2020-08-25 Hitachi Systems, Ltd. Work management apparatus, work defect prevention program, and work defect prevention method
JP2016218766A (ja) 2015-05-21 2016-12-22 富士ゼロックス株式会社 情報処理装置及び情報処理プログラム
WO2017017737A1 (ja) * 2015-07-24 2017-02-02 富士通株式会社 表示方法、モニタ結果出力方法、情報処理装置および表示プログラム
JP6769847B2 (ja) * 2016-11-29 2020-10-14 ケーディーアイコンズ株式会社 情報処理装置
JP6824838B2 (ja) * 2017-07-07 2021-02-03 株式会社日立製作所 作業データ管理システム及び作業データ管理方法
JP2019020913A (ja) 2017-07-13 2019-02-07 株式会社東芝 情報処理装置、方法及びプログラム
JP7268121B2 (ja) * 2017-07-13 2023-05-02 株式会社東芝 情報処理装置、方法及びプログラム
JP7191560B2 (ja) * 2018-06-29 2022-12-19 株式会社日立システムズ コンテンツ作成システム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1173297A (ja) * 1997-08-29 1999-03-16 Hitachi Ltd 音声とジェスチャによるマルチモーダル表現の時間的関係を用いた認識方法
JP4154015B2 (ja) * 1997-12-10 2008-09-24 キヤノン株式会社 情報処理装置およびその方法
JP2003167613A (ja) * 2001-11-30 2003-06-13 Sharp Corp 作業管理システム、作業管理方法、及びその方法を実現するためのプログラムを記憶した記録媒体
JP4752721B2 (ja) * 2006-10-24 2011-08-17 オムロン株式会社 移動パターン特定装置、移動パターン特定方法、移動パターン特定プログラム、およびこれを記録した記録媒体
JP2008171211A (ja) * 2007-01-11 2008-07-24 Ricoh Co Ltd データ処理装置及びそのためのプログラムを記憶した記憶媒体

Also Published As

Publication number Publication date
JP2011164694A (ja) 2011-08-25

Similar Documents

Publication Publication Date Title
JP5177154B2 (ja) 標準作業実行支援装置、および標準作業実行支援方法
KR101813834B1 (ko) 화상처리장치, 화상처리방법 및 화상처리프로그램과 촬영보조기재
US9740935B2 (en) Maintenance assistant system
JP6491574B2 (ja) Ar情報表示装置
JP5839553B2 (ja) 作業支援システム、作業支援方法、および、作業用端末
JP2018192230A (ja) 眉形状ガイド装置およびその方法
JP2005250990A (ja) 作業支援装置
JP2017162103A (ja) 点検作業支援システム、点検作業支援方法、点検作業支援プログラム
JP2016205974A (ja) 測定システムおよびユーザインタフェース装置
JP7371626B2 (ja) 情報処理装置、情報処理方法、およびプログラム
US20170220105A1 (en) Information processing apparatus, information processing method, and storage medium
JP2007207056A (ja) 情報入力システム
JP2010271928A (ja) 作業アシストシステム及び作業アシスト方法並びに該作業アシスト方法を記録した記録媒体
JPWO2020021858A5 (ja) 撮像支援装置、撮像支援方法及び撮像支援プログラム
JP2018028804A (ja) 入力制御装置、入力制御方法、入力制御プログラムおよび入力制御システム
JP2009259117A (ja) ミラーシステム
KR100845274B1 (ko) 관람자의 시선 방향을 고려한 전시 시스템의 인터페이스방법 및 장치
JP5222646B2 (ja) 端末装置、表示制御方法および表示制御プログラム
TW201636940A (zh) 作業支援裝置
US20230244318A1 (en) Program, head-mounted display, and information processing device
JP2018151769A (ja) 化粧支援プログラム、化粧支援装置、及び化粧支援方法
JP2018152673A (ja) 化粧支援プログラム、化粧支援装置、及び化粧支援方法
JP4568121B2 (ja) 遠隔作業支援システム、遠隔作業支援方法及びプログラム
JP2013250479A (ja) 情報表示装置、プログラムおよび情報記録媒体
JP2015219538A (ja) 作業支援装置及び方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110310

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120827

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120904

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121022

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121211

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121224

LAPS Cancellation because of no payment of annual fees