JP2017134116A - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
JP2017134116A
JP2017134116A JP2016011584A JP2016011584A JP2017134116A JP 2017134116 A JP2017134116 A JP 2017134116A JP 2016011584 A JP2016011584 A JP 2016011584A JP 2016011584 A JP2016011584 A JP 2016011584A JP 2017134116 A JP2017134116 A JP 2017134116A
Authority
JP
Japan
Prior art keywords
information
tool
trajectory
state
stimulus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016011584A
Other languages
English (en)
Other versions
JP6736298B2 (ja
Inventor
慎平 小久保
Shimpei Kokubo
慎平 小久保
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016011584A priority Critical patent/JP6736298B2/ja
Publication of JP2017134116A publication Critical patent/JP2017134116A/ja
Application granted granted Critical
Publication of JP6736298B2 publication Critical patent/JP6736298B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)

Abstract

【課題】作業者が適切な作業を習得するのを支援する技術を提供することを目的とする。【解決手段】ユーザによる操作時の模擬工具の位置及び姿勢のうち少なくとも一方の状態を示す状態情報を取得する状態取得手段301と、状態情報に基づいて、模擬工具の状態の軌跡を示す工具軌跡情報を生成する軌跡生成手段302と、工具軌跡情報と、記憶手段に予め記憶された、模擬工具の状態の基準軌跡を示す基準軌跡情報304と、に基づいて、ユーザに対する刺激を発生する刺激発生装置を制御する刺激制御手段306とを有する。【選択図】図3

Description

本発明は、作業者が工具を模した模擬工具を使って操作のトレーニングをすることで、適切な作業を習得するのを支援する技術に関する。
従来、製造業分野において、現実空間と仮想空間を継ぎ目なく合成した複合現実(MR:Mixed Reality)システムを使ったトレーニングツールが導入されている。これは、作業者が工具を模した模擬工具を使って仮想物体を操作するトレーニングを通して、適切な作業を習得するものである。映像表示手段のひとつとして、ビデオカメラ等の撮像装置とディスプレイが一体化された頭部装着型ディスプレイ(以後、HMD:ヘッドマウントディスプレイと表記)が用いられる。複合現実感システムによれば、対象物体をCG(コンピュータグラフィックス)で表現し、現実世界の映像と重畳して、HMDに表示できる。その結果、作業者はあたかもそこに操作領域が存在するかのように確認しながら作業を体験することができる。この体験では、対象部品実物を作製・修復する必要がなく、何度も反復することが可能である。
製造現場の作業者が作業を習得するために、模擬工具を使った複合現実感システムのトレーニングツールを使うことができる。そうすることで効率的に作業を習得することができる。例えば、作業者が身に付けたHMDの表示画面に、作業手順について実施すべき内容や注意を喚起する注意情報を映すことで、視覚情報提示によるティーチングが提供できる。また振動デバイスを具備した模擬工具を保持して、模擬工具の位置姿勢に応じた振動刺激を作業者に与えることで、体感を伴う情報提示も可能である。
特許文献1には、身体部位の位置姿勢に応じて、触覚情報を作業者にフィードバックする技術が開示されている。特許文献2には、力覚を提示するデバイスを取り付けた模擬工具を使って仮想ねじ物体を仮想ねじ穴物体に締結する作業において、締結度合によって提示する力覚程度を制御する技術が開示されている。
特開2012−74076号公報 特開2008−55527号公報
しかしながら、作業者が工具を模した模擬工具を使って仮想物体を操作するトレーニングにおいて、熟練作業者のような的確な作業を習得するのが難しいという問題があった。
本発明はこのような問題点に鑑みなされたもので、作業者が適切な作業を習得するのを支援する技術を提供することを目的とする。
そこで、本発明は、情報処理装置であって、ユーザによる操作時の模擬工具の位置及び姿勢のうち少なくとも一方の状態を示す状態情報を取得する状態取得手段と、前記状態情報に基づいて、前記模擬工具の状態の軌跡を示す工具軌跡情報を生成する軌跡生成手段と、前記工具軌跡情報と、記憶手段に予め記憶された、前記模擬工具の状態の基準軌跡を示す基準軌跡情報と、に基づいて、前記ユーザに対する刺激を発生する刺激発生装置を制御する刺激制御手段とを有することを特徴とする。
本発明によれば、作業者が適切な作業を習得するのを支援する技術を提供することができる。
支援システムの全体図である。 情報処理装置、模擬工具及びHMDのハードウェア構成を示す図である。 情報処理装置のソフトウェア構成を示す図である。 工具軌跡情報の一例を示す図である。 情報処理を示すフローチャートである。 情報処理の説明図である。
以下、本発明の実施形態について図面に基づいて説明する。図1は、本実施形態に係る情報処理システムの一例としての支援システムの全体図である。支援システムは、情報処理装置100と、模擬工具110と、HMD120と、を有している。作業者Aは、HMD120を装着する。130は、HMD120により映し出される仮想物体である。作業者Aは、HMD120により仮想物体130が映し出された複合現実空間において、作業を体験する。本実施形態においては、仮想物体130に対し、電動スプレーを模した模擬工具110により、仮想物体130に一定の塗膜を塗布する作業を例に説明する。模擬工具110は、作業者の作業が適切でない場合に、ティーチングのための刺激を発生することができる。情報処理装置100は、模擬工具110及びHMD120から受信した情報に基づいて、仮想物体の映像を生成するなど、HMD120を制御する。情報処理装置100はまた、模擬工具110による刺激の発生を制御する。
図2(a)は、情報処理装置100のハードウェア構成を示す図である。情報処理装置100は、CPU201と、ROM202と、RAM203と、HDD204と、表示部205と、入力部206と、通信部207とを有している。CPU201は、ROM202に記憶された制御プログラムを読み出して各種処理を実行する。RAM203は、CPU101の主メモリ、ワークエリア等の一時記憶領域として用いられる。HDD204は、画像データや各種プログラム等各種情報を記憶する。表示部205は、各種情報を表示する。入力部206は、キーボードやマウスを有し、ユーザによる各種操作を受け付ける。通信部207は、ブルートゥース等の近距離無線通信により模擬工具110やHMD120と接続する。なお、後述する情報処理装置100の機能や処理は、CPU201がROM202又はHDD204に格納されているプログラムを読み出し、このプログラムを実行することにより実現されるものである。
図2(b)は、模擬工具110のハードウェア構成を示す図である。模擬工具110は、検出部211と、刺激発生部212と、通信部213とを有している。検出部211は、模擬工具110の状態を検知する。ここで、状態とは、模擬工具110の位置及び姿勢である。なお、他の例としては、状態は、模擬工具110の位置及び姿勢のうち少なくとも一方であればよい。検出部211は、例えば、6自由度位置姿勢センサである。刺激発生部212は、模擬工具110のユーザである作業者に対して与える刺激を発生する。刺激発生部212は、具体的には、聴覚や触覚、力覚等の感覚刺激を発生させる。刺激発生部212には、例えば、振動刺激を発生させるデバイスとして、偏心モータ(ERM)やリニア・バイブレータ(LRA)、ピエゾ圧電素子等が用いられてもよい。また、刺激発生部212には、聴覚刺激を発生させるデバイスとして、動電型スピーカ、静電型スピーカ、圧電型スピーカ等が用いられてもよい。刺激発生部212は、刺激発生装置の一例である。通信部213は、近距離無線通信により、情報処理装置100と接続する。
図2(c)は、HMD120のハードウェア構成を示す図である。HMD120は、撮像部221と、表示部222と、通信部223とを有している。撮像部221は、装着者の視線方向の画像を撮像する。表示部222は、仮想物体を表示する。表示部222が刺激発生部212により得られた撮像画像上に仮想物体を合成した合成画像を表示することにより、装着者は、複合現実空間を体験することができる。通信部223は、近距離無線通信により、情報処理装置100と接続する。
図3は、情報処理装置100のソフトウェア構成を示す図である。情報処理装置100は、情報取得部301と、軌跡生成部302と、工具軌跡記憶部303と、基準軌跡記憶部304と、逸脱判定部305と、刺激制御部306とを有している。情報処理装置100はさらに、画像取得部307と、モデル記憶部308と、画像生成部309と、表示制御部310とを有している。
情報取得部301は、模擬工具110の検出部211により検出された、作業者による模擬工具110の操作時の模擬工具110の状態を示す状態情報を、通信部207を介して模擬工具110から取得する。軌跡生成部302は、状態情報に基づいて、模擬工具110の状態の軌跡である工具軌跡を示す工具軌跡情報を生成し、これを工具軌跡記憶部303に蓄積する。図4は、工具軌跡情報400の一例を示す図である。軌跡生成部302は、情報取得部301が取得した状態情報に対し、状態情報が入力された時刻を対応付ける。図4の例では、時刻は、作業開始を基準としたものである。軌跡生成部302は、状態情報と時刻の組を1つのレコードとし、このレコードを時系列に並べることにより、時系列に沿った状態情報、すなわち状態情報の時系列情報を工具軌跡情報400として生成する。なお、状態情報は、複合現実空間における模擬工具110の位置座標X、Y、Zと回転角座標Qx、Qy、Qzを示している。
図3に戻り、基準軌跡記憶部304は、基準軌跡情報を予め記憶している。ここで、基準軌跡情報は、模擬工具110の作業において得られる適切な軌跡を示す情報である。基準軌跡情報は、例えば熟練者が予め模擬工具110を用いて仮想物体に対して作業体験を行った際の状態情報に基づいて予め生成され、工具軌跡記憶部303に格納されているものとする。基準軌跡記憶部304に記憶されている基準軌跡情報のデータ構成は、工具軌跡情報400のデータ構成と同様である。
基準軌跡記憶部304はさらに、基準範囲を予め記憶している。ここで、基準範囲は、基準軌跡の3次元座標と3次元回転座標を基準とした、各時刻における許容範囲(数値幅)を示す情報である。工具軌跡がこの基準範囲内にある場合には、作業は適切に行われていると判定され、工具軌跡が基準範囲を超えた場合に、作業の修正が必要で、作業者への通知がなされる。なお、基準範囲の幅は、時刻に応じて、また作業内容に応じて異なっているものとする。作業範囲の粗密の違い、危険度の高低等によって、座標逸脱の許容閾値が異なる可能性があるためである。
逸脱判定部305は、工具軌跡情報と基準軌跡情報の同時刻の状態情報の比較を逐次行い、工具軌跡情報に示される工具軌跡が基準軌跡から逸脱したか否かを判定する。具体的には、逸脱判定部305は、工具軌跡が基準軌跡を基準とした基準範囲に含まれているか否かを確認し、基準範囲から外れた場合に、工具軌跡が基準軌跡から逸脱したと判定する。逸脱判定部305はさらに、工具軌跡が基準軌跡から逸脱したと判定した場合には、工具軌跡の逸脱度を算出する。ここで、逸脱度とは、工具軌跡が基準から逸脱している程度を示す指標値である。逸脱判定部305は、工具軌跡と基準範囲の境界位置との差分を逸脱度として算出する。刺激制御部306は、逸脱判定部305の判定結果に応じて、模擬工具110の刺激発生部212を制御する。
一方、画像取得部307は、HMD120の撮像部221により得られた、模擬工具110が存在する現実空間の撮像画像を、通信部207を介してHMD120から取得する(画像取得処理)。モデル記憶部308は、仮想物体130を表示するための仮想モデルを記憶している。画像生成部309は、画像取得部307が取得した撮像画像に仮想モデル等を合成した合成画像を生成する。表示制御部310は、HMD120による表示を制御する。表示制御部310は、例えば、画像生成部309が生成した合成画像をHMD120の表示部222に表示するようHMD120を制御する。
図5は、情報処理装置100による情報処理を示すフローチャートである。S500において、情報取得部301は、模擬工具110から状態情報を取得する(状態取得処理)。次に、S501において、軌跡生成部302は、S500において取得された状態情報に、状態情報が入力された時刻を対応付けて、工具軌跡情報を生成する(軌跡情報生成処理)。そして、軌跡生成部302は、工具軌跡情報を工具軌跡記憶部303に記録する。次に、S502において、逸脱判定部305は、対応する時刻における工具軌跡情報と基準軌跡記憶部304に記憶された基準軌跡情報とを比較することにより、工具軌跡情報に示される工具軌跡が基準範囲に含まれるか否かを判定する。逸脱判定部305は、工具軌跡が基準範囲に含まれる場合には(S502でYes)、処理をS508へ進める。逸脱判定部305は、工具軌跡が基準範囲を超える場合には(S502でNo)、処理をS503へ進める。
S503において、逸脱判定部305は、工具軌跡と基準範囲の境界位置との差分を逸脱度として算出する。次に、S504において、逸脱判定部305は、逸脱度に応じて刺激の強度を決定する。本実施形態においては、逸脱度に対し2つの範囲レベルが定められており、各範囲レベルに対して、刺激の強度を対応付けて、例えばHDD204等に記憶されているものとする。そして、逸脱判定部305は、S503において算出した逸脱度が属する範囲レベルを特定し、特定した範囲レベルに対応付けられている刺激の強度を特定する。なお、各範囲レベルの境界となる逸脱度や範囲レベルの数は、特に限定されるものではなく、作業者が刺激の強度や刺激のパターンの違いを識別可能な十分な数の範囲であることが好ましい。
次に、S505において、刺激制御部306は、S504において決定した強度の刺激を発生するよう模擬工具110の刺激発生部212を制御する(刺激制御処理)。具体的には、逸脱判定部305は、S504において決定した強度の刺激を発生するよう、通信部207を介して模擬工具110に指示を送信する。模擬工具110は、指示を受信すると、刺激発生部212が、指示に応じた刺激を発生する。例えば、逸脱度が最下位の範囲レベルに属する場合には、逸脱判定部305は、最も低い電圧パルス幅の出力を刺激強度として決定する。そして、これに対応し、模擬工具110の刺激発生部212は、最も弱い程度の刺激を発生する。また、例えば、逸脱度が最上位の範囲レベルに属する場合には、逸脱判定部305は、最も強い電圧パルス幅の出力を刺激強度として決定する。そして、これに対応し、刺激発生部212は、最も強い程度の刺激を発生する。
次に、S506において、画像生成部309は、S504において決定した強度の範囲レベルに応じて、警告メッセージや指導メッセージを撮像画像に合成した合成画像を生成する。ここで、警告メッセージや指導メッセージは提示情報の一例である。また、S506の処理は、合成画像を生成する画像生成処理の一例である。なお、本実施形態においては、各範囲レベルに対して、合成すべきメッセージ画像が対応付けて例えばHDD204等に記憶されているものとする。そして、画像生成部309は、範囲レベルに対応付けられているメッセージ画像を撮像画像に合成する。次に、S507において、表示制御部310は、S506において生成した合成画像を表示するよう、HMD120の表示部222を制御する。具体的には、表示制御部310は、S506において生成した合成画像を表示するよう、通信部207を介してHMD120に指示を送信する。HMD120は、指示を受信すると、表示部222が、指示に応じて合成画像を表示する。これにより、作業者に対し、視覚刺激を与えることができる。
例えば逸脱度が最下位の範囲レベルに属する場合には、画像生成部309は、撮像画像に警告メッセージを合成する。そして、これに対応し、HMD120の表示部222は、警告メッセージの合成画像を表示する。また例えば、逸脱度が最上位の範囲レベルに属する場合には、警告メッセージに加え、修正すべき位置姿勢方向へ矢印CGを合成する。これにより、より具体的なティーチングを作業者に与え、適切な模擬工具110の使い方を促すことができる。
次に、S508において、CPU201は、作業者による模擬工具110を用いた作業が終了したか否かを確認する。CPU201は、模擬工具110から作業終了の通知を受信した場合に作業終了と判断するものとする。CPU201は、作業が終了した場合には(S508でYes)、処理を終了する。CPU201は、作業が終了していない場合には(S508でNo)、処理をS500へ進め、処理を継続する。
続いて、図6を参照しつつ、作業トレーニングについて、具体的に説明する。図6(A)に示すように、作業者Aは、HMD120を装着し、電動スプレーを模した模擬工具110を使って仮想塗料を噴霧しながら模擬工具110を動かしていく。ここでは、仮想物体130に対して厚みの一定な塗膜を塗布する作業を実施する。作業は、開始点P0から噴霧をはじめ、左右に模擬工具110を動かしながら仮想物体130の上部から下部へ噴霧し、終了点P20で作業終了とするものとする。本実施形態においては、情報処理装置100の画像生成部309は、仮想物体130上にさらに開始点P0から終了点P20までの基準軌跡を重畳した合成画像を生成し、HMD120の表示部222は、基準軌跡が重畳された合成画像を表示するものとする。仮想物体130、模擬工具110、HMD120は、複合現実感システムにおける共通の仮想空間座標600を基準として扱われる。
図6(B)は、仮想空間座標600における模擬工具110のY座標(太破線)と、刺激発生部212により出力される電圧波形(太実線)を、時間軸に対してプロットした図である。図6(B)のP0、P1、・・・、P7は、図6(A)のP0、P1、・・・、P7に対応している。基準範囲は、熟練作業者による模擬工具110の軌跡をもとに作られたものである。基準範囲は、時刻に応じて変動する場合があり、図6(A)の例では、P4からP6の作業範囲における基準範囲は、P0からP3の基準範囲に比べて狭くなっている。
図4(B)の例では、作業者Aは開始点P0から噴霧をはじめ、P2までは、Y基準範囲内で模擬工具110を操作できている。この間は、刺激発生部212には、最小のパルス幅でパルス電圧が印加されている。P2からP3の作業範囲では、工具軌跡がY基準軌跡から外れている。ここで、逸脱度は、図6(B)中のY基準範囲の領域境界から、模擬工具110の軌跡を示す太破線までの垂直方向の距離に相当する。逸脱度に応じて、印加電圧のパルス幅が制御される。このようなパルス幅の大小に伴い、作業者Aが模擬工具110を介して受ける振動刺激が大小する。この仕組みによって、作業者Aは自身が逸脱許容からどれほど離れて模擬工具110を操作しているか、一連の作業をしながらリアルタイムで体感することができる。
作業の折り返し地点であるP4からP6の作業範囲においても、工具軌跡はY基準範囲から外れている。このため、この範囲においても、逸脱度に相当した振動刺激が提示される。P6以降は、工具軌跡はY基準範囲内になるため、最小のパルス幅でパルス電圧が印加され、それに応じた振動刺激が提示される。
図6(C)は、仮想空間座標600における模擬工具110の垂直方向の回転座標Qz(太破線)を、時間軸に対してプロットした図である。また図6(D)は、HMD120の表示部222の表示例を示す図である。開始点P0からP3において、作業者Aは、Qz基準範囲内にて模擬工具110を操作しているが、作業の折り返し地点であるP4からP6の作業範囲では、工具軌跡がY基準範囲から外れている。このように、工具軌跡がY基準範囲から外れると、図6(D)に示すように、「矢印の方向へ傾けましょう」といった警告メッセージ611と矢印画像612が仮想物体と共に合成された撮像画像が表示部222に表示される。表示制御部310はさらに、逸脱度によっては、作業者Aに対し正しい軌跡に復帰するよう促すメッセージを表示するように制御してもよい。なお工具軌跡がY基準範囲内にある場合には、警告メッセージ611及び矢印画像612は表示されない。
以上説明したように、本実施形態によれば、作業者は、模擬工具110やHMD120を用いて仮想物体を操作するトレーニングを通して、振動による触覚刺激や音声による聴覚刺激などの感覚刺激をその強弱を含めて知覚することができる。このような感覚刺激をトレーニングツールが提示することで、作業者は、自身が修正すべき作業箇所をリアルタイムに把握し、熟練作業者に倣った適切な作業を習得することが可能である。すなわち、本実施形態に係る支援システムは、作業者が適切な作業を習得するのを支援する技術を提供することができる。
次に、第1の実施形態の変更例について説明する。第1の変更例としては、本実施形態においては、模擬工具110が模擬工具110の状態を検知したが、状態検知の主体は模擬工具110に限定されるものではない。他の例としては、HMD120が撮像画像に基づいて、状態を検知してもよい。具体的には、模擬工具110には、状態検知のための指標が添付されているものとする。そして、HMD120は模擬工具110を撮像し、得られた撮像画像内の指標の画像内座標と、3次元座標との対応関係に基づいて、模擬工具110の状態を特定してもよい。また、情報処理装置100が、HMD120から撮像画像を取得し、撮像画像から模擬工具110の状態を特定してもよい。また、情報処理装置100は、撮像画像から状態を特定し、さらに実施形態において説明したように、模擬工具110から状態情報を取得し、これらの情報を総合して、状態情報を得ることとしてもよい。
第2の変更例としては、工具軌跡情報及び基準軌跡情報は、軌跡情報だけでなく、各軌跡情報を時間微分することで得られる移動速度情報を含んでもよい。さらに、この場合、逸脱判定部305は、工具軌跡と基準軌跡の比較において、移動速度の比較も行う。そして、逸脱判定部305は、この比較結果に基づいて、作業者の模擬工具110の移動速度(速度及び角速度)の、基準軌跡に係る移動速度(速度及び角速度)からの逸脱を考慮し、総合的な逸脱度を算出するものとする。
また、工具軌跡情報及び基準軌跡情報は、移動速度に替えて、各軌跡情報を時間に関し二階微分を施すことで得られる移動加速度情報を含んでもよい。さらに、この場合、逸脱判定部305は、工具軌跡と基準軌跡の比較において、移動加速度の比較も行う。そして、逸脱判定部305は、この比較結果に基づいて、作業者の模擬工具110の移動加速度(加速度及び角加速度)の基準軌跡に係る移動加速度(加速度及び角加速度)からの逸脱を考慮し、総合的な逸脱度を算出するものとする。
第3の変更例としては、刺激制御部306は、逸脱度に応じて、異なる刺激が発生されるように刺激発生部212を制御すればよく、刺激発生に係る具体的な制御は実施形態に限定されるものではない。例えば、刺激制御部306は、逸脱度を複数段に分けるのに替えて、逸脱度に比例して刺激強度を大きくするよう刺激発生部212を制御してもよい。また、他の例としては、刺激制御部306は、基準範囲内においても、同様に逸脱度に応じた刺激を発生するよう制御してもよい。また、刺激制御部306は、逸脱度に応じて、刺激の強度に替えて、刺激の種類を異ならせてもよい。例えば、刺激制御部306は、刺激の間欠振動の振動時間の長短を制御してもよい。また、刺激制御部306は、振動周波数の高低を制御してもよい。
第4の変更例としては、模擬工具110は、刺激発生装置としてスピーカを備えてもよい。そして、この場合には、刺激制御部306は、逸脱度に応じて、スピーカからのブザー音の大小を制御してもよく、またブザー音の周波数の高低を制御してもよく、ブザー音パターンを変更するよう制御してもよい。
第5の変更例としては、支援システムの各装置が行う処理、特に情報処理装置100が行う処理は、支援システム内のいずれかの装置が行えばよく、その主体となる装置は実施形態に限定されるものではない。例えば、工具軌跡情報の生成は、模擬工具110が行ってもよい。
第6の変更例としては、支援システムは、模擬工具110を用いたトレーニングを支援するものであればよく、支援対象は、複合現実空間におけるトレーニングに限定されるものではない。
以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
100 情報処理装置
110 模擬工具
120 HMD

Claims (14)

  1. ユーザによる操作時の模擬工具の位置及び姿勢のうち少なくとも一方の状態を示す状態情報を取得する状態取得手段と、
    前記状態情報に基づいて、前記模擬工具の状態の軌跡を示す工具軌跡情報を生成する軌跡生成手段と、
    前記工具軌跡情報と、記憶手段に予め記憶された、前記模擬工具の状態の基準軌跡を示す基準軌跡情報と、に基づいて、前記ユーザに対する刺激を発生する刺激発生装置を制御する刺激制御手段と
    を有することを特徴とする情報処理装置。
  2. 前記軌跡生成手段は、前記状態情報の時系列情報を前記工具軌跡情報として生成することを特徴とする請求項1に記載の情報処理装置。
  3. 前記軌跡生成手段は、前記状態情報の時系列情報における移動速度情報を前記工具軌跡情報として生成することを特徴とする請求項1に記載の情報処理装置。
  4. 前記軌跡生成手段は、前記状態情報の時系列情報における移動加速度情報を前記工具軌跡情報として生成することを特徴とする請求項1に記載の情報処理装置。
  5. 前記刺激制御手段は、前記工具軌跡情報と前記基準軌跡情報との差分に基づいて刺激を生成するよう制御することを特徴とする請求項1乃至4何れか1項に記載の情報処理装置。
  6. 前記刺激制御手段は、前記工具軌跡情報と前記基準軌跡情報との差分が基準範囲を超える場合に、前記刺激を生成するよう前記刺激発生装置を制御することを特徴とする請求項5に記載の情報処理装置。
  7. 前記刺激制御手段は、前記工具軌跡情報と前記基準軌跡情報との差分が基準範囲を超える場合に、前記差分に応じた刺激を生成するよう制御することを特徴とする請求項6に記載の情報処理装置。
  8. 前記模擬工具の存在する現実空間の撮像画像を取得する画像取得手段と、
    前記撮像画像に、前記ユーザに提示する提示情報を合成した合成画像を生成する画像生成手段と、
    前記工具軌跡情報と、前記基準軌跡情報と、に基づいて、前記合成画像の表示手段への表示を制御する表示制御手段と
    をさらに有することを特徴とする請求項1乃至7何れか1項に記載の情報処理装置。
  9. 前記画像生成手段は、前記提示情報として警告メッセージを合成した前記合成画像を生成することを特徴とする請求項8に記載の情報処理装置。
  10. 前記画像生成手段は、前記模擬工具の前記基準軌跡を前記提示情報として合成した前記合成画像を生成することを特徴とする請求項8に記載の情報処理装置。
  11. ユーザにより操作される模擬工具と、
    前記ユーザに対して刺激を発生する刺激発生装置と、
    前記模擬工具の位置及び姿勢のうち少なくとも一方の状態を示す状態情報を取得する状態取得手段と、
    前記状態情報に基づいて、前記模擬工具の状態の軌跡を示す工具軌跡情報を生成する軌跡生成手段と、
    前記工具軌跡情報と、記憶手段に予め記憶された、前記模擬工具の状態の基準軌跡を示す基準軌跡情報と、に基づいて、前記刺激発生装置を制御する刺激制御手段と
    を有することを特徴とする情報処理システム。
  12. 前記刺激発生装置を前記模擬工具に設けたことを特徴とする請求項11に記載の情報処理システム。
  13. 情報処理装置が実行する情報処理方法であって、
    ユーザによる操作時の模擬工具の位置及び姿勢のうち少なくとも一方の状態を示す状態情報を取得する状態取得ステップと、
    前記状態情報に基づいて、前記模擬工具の状態の軌跡を示す工具軌跡情報を生成する軌跡生成ステップと、
    前記工具軌跡情報と、記憶手段に予め記憶された、前記模擬工具の状態の基準軌跡を示す基準軌跡情報と、に基づいて、前記ユーザに対する刺激を発生する刺激発生装置を制御する刺激制御ステップと
    を含むことを特徴とする情報処理方法。
  14. コンピュータを、
    ユーザによる操作時の模擬工具の位置及び姿勢のうち少なくとも一方の状態を示す状態情報を取得する状態取得手段と、
    前記状態情報に基づいて、前記模擬工具の状態の軌跡を示す工具軌跡情報を生成する軌跡生成手段と、
    前記工具軌跡情報と、記憶手段に予め記憶された、前記模擬工具の状態の基準軌跡を示す基準軌跡情報と、に基づいて、前記ユーザに対する刺激を発生する刺激発生装置を制御する刺激制御手段と
    して機能させるためのプログラム。
JP2016011584A 2016-01-25 2016-01-25 情報処理装置、情報処理方法及びプログラム Active JP6736298B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016011584A JP6736298B2 (ja) 2016-01-25 2016-01-25 情報処理装置、情報処理方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016011584A JP6736298B2 (ja) 2016-01-25 2016-01-25 情報処理装置、情報処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2017134116A true JP2017134116A (ja) 2017-08-03
JP6736298B2 JP6736298B2 (ja) 2020-08-05

Family

ID=59504942

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016011584A Active JP6736298B2 (ja) 2016-01-25 2016-01-25 情報処理装置、情報処理方法及びプログラム

Country Status (1)

Country Link
JP (1) JP6736298B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019049643A1 (ja) * 2017-09-08 2019-03-14 新日鉄住金ソリューションズ株式会社 情報処理システム、情報処理装置、情報処理方法、プログラム及び記憶媒体
JP2019197165A (ja) * 2018-05-10 2019-11-14 日本電気株式会社 作業訓練装置、作業訓練方法、およびプログラム
JP2019219727A (ja) * 2018-06-15 2019-12-26 三菱電機エンジニアリング株式会社 評価装置、評価システムおよび評価プログラム
JP2020086373A (ja) * 2018-11-30 2020-06-04 ダイハツ工業株式会社 塗装シミュレーションの評価システム
WO2021241558A1 (ja) * 2020-05-26 2021-12-02 国立大学法人 東京大学 システム及び操作方法
JP2022064925A (ja) * 2018-11-20 2022-04-26 株式会社日立システムズ 訓練教材提示システムおよび訓練教材提示方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012218058A (ja) * 2011-04-13 2012-11-12 Sumitomo Heavy Industries Marine & Engineering Co Ltd 溶接シミュレータ
US20140275760A1 (en) * 2013-03-13 2014-09-18 Samsung Electronics Co., Ltd. Augmented reality image display system and surgical robot system comprising the same
JP2015225214A (ja) * 2014-05-28 2015-12-14 旭エレクトロニクス株式会社 シミュレーションシステム
JP3201785U (ja) * 2012-07-10 2016-01-07 リンカーン グローバル,インコーポレイテッド 仮想現実パイプ溶接シミュレータ及びセットアップ

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012218058A (ja) * 2011-04-13 2012-11-12 Sumitomo Heavy Industries Marine & Engineering Co Ltd 溶接シミュレータ
JP3201785U (ja) * 2012-07-10 2016-01-07 リンカーン グローバル,インコーポレイテッド 仮想現実パイプ溶接シミュレータ及びセットアップ
US20140275760A1 (en) * 2013-03-13 2014-09-18 Samsung Electronics Co., Ltd. Augmented reality image display system and surgical robot system comprising the same
JP2015225214A (ja) * 2014-05-28 2015-12-14 旭エレクトロニクス株式会社 シミュレーションシステム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
旭興産グループ「塗装シミュレータのご紹介」, JPN6020019122, ISSN: 0004283130 *
高見 雄介: "複数の道具型デバイスを活用する複合現実型木材加工システム", ヒューマンインタフェース学会 論文誌 2012 VOL.14 NO.2 [CD−ROM] THE TRANSA, vol. 第14巻,第2号, JPN6019040185, 25 May 2012 (2012-05-25), JP, pages 141 - 150, ISSN: 0004137124 *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019049643A1 (ja) * 2017-09-08 2019-03-14 新日鉄住金ソリューションズ株式会社 情報処理システム、情報処理装置、情報処理方法、プログラム及び記憶媒体
US20200272969A1 (en) * 2017-09-08 2020-08-27 Ns Solutions Corporation Information processing system, information processing device, information processing method, program, and recording medium
JP2019197165A (ja) * 2018-05-10 2019-11-14 日本電気株式会社 作業訓練装置、作業訓練方法、およびプログラム
JP2019219727A (ja) * 2018-06-15 2019-12-26 三菱電機エンジニアリング株式会社 評価装置、評価システムおよび評価プログラム
JP2022064925A (ja) * 2018-11-20 2022-04-26 株式会社日立システムズ 訓練教材提示システムおよび訓練教材提示方法
JP7393445B2 (ja) 2018-11-20 2023-12-06 株式会社日立システムズ 訓練教材提示システムおよび訓練教材提示方法
JP2020086373A (ja) * 2018-11-30 2020-06-04 ダイハツ工業株式会社 塗装シミュレーションの評価システム
JP7184614B2 (ja) 2018-11-30 2022-12-06 ダイハツ工業株式会社 塗装シミュレーションの評価システム
WO2021241558A1 (ja) * 2020-05-26 2021-12-02 国立大学法人 東京大学 システム及び操作方法
JP2021189223A (ja) * 2020-05-26 2021-12-13 国立大学法人 東京大学 システム及び操作方法
JP7351523B2 (ja) 2020-05-26 2023-09-27 国立大学法人 東京大学 システム及び操作方法

Also Published As

Publication number Publication date
JP6736298B2 (ja) 2020-08-05

Similar Documents

Publication Publication Date Title
JP6736298B2 (ja) 情報処理装置、情報処理方法及びプログラム
CN110096131B (zh) 触感交互方法、装置、以及触感可穿戴设备
JP4921113B2 (ja) 接触提示装置及び方法
EP3055744B1 (en) A method and a device for verifying one or more safety volumes for a movable mechanical unit
US9760166B2 (en) Haptic system for establishing a contact free interaction between at least one part of a user's body and a virtual environment
JP6626065B2 (ja) 教示点又は教示線の位置ずれを警告又は修正するロボット教示装置
US20130323695A1 (en) Simulator for skill-oriented training
JP2009276996A (ja) 情報処理装置、情報処理方法
JP2018008347A (ja) ロボットシステムおよび動作領域表示方法
JP2012218120A (ja) マニピュレーター動作予告装置、ロボットシステム及びマニピュレーター動作予告方法
WO2019186551A1 (en) Augmented reality for industrial robotics
JP7125872B2 (ja) 作業支援装置、および、作業支援方法
JP6625266B1 (ja) ロボット制御装置
CN106326523B (zh) 信息处理装置和信息处理方法
JP2020011357A (ja) 制御装置、ヘッドマウントディスプレイおよびロボットシステム
EP3637330A1 (en) Content creation system
WO2020137122A1 (ja) 作業支援装置、および、作業支援方法
JP5235424B2 (ja) 情報処理装置および方法
JPH09300256A (ja) ロボット教示方法及び装置
JP2016218916A (ja) 情報処理装置、情報処理方法、及びプログラム
JP6827193B2 (ja) 表示システム、サーバ、表示方法及び装置
WO2017141570A1 (ja) 監視装置、制御装置、制御システム、監視方法およびプログラム
JP2020173326A (ja) 現場作業教育システム
JP7381718B2 (ja) オフラインシミュレーションシステム
JP2023155799A (ja) 作業状態検出システムおよび方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190124

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190918

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191029

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200616

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200715

R151 Written notification of patent or utility model registration

Ref document number: 6736298

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151