JP6736298B2 - Information processing apparatus, information processing method, and program - Google Patents
Information processing apparatus, information processing method, and program Download PDFInfo
- Publication number
- JP6736298B2 JP6736298B2 JP2016011584A JP2016011584A JP6736298B2 JP 6736298 B2 JP6736298 B2 JP 6736298B2 JP 2016011584 A JP2016011584 A JP 2016011584A JP 2016011584 A JP2016011584 A JP 2016011584A JP 6736298 B2 JP6736298 B2 JP 6736298B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- tool
- trajectory
- state
- stimulus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Studio Devices (AREA)
Description
本発明は、作業者が工具を模した模擬工具を使って操作のトレーニングをすることで、適切な作業を習得するのを支援する技術に関する。 The present invention relates to a technique for assisting an operator in learning an appropriate work by training an operation using a simulated tool imitating a tool.
従来、製造業分野において、現実空間と仮想空間を継ぎ目なく合成した複合現実(MR:Mixed Reality)システムを使ったトレーニングツールが導入されている。これは、作業者が工具を模した模擬工具を使って仮想物体を操作するトレーニングを通して、適切な作業を習得するものである。映像表示手段のひとつとして、ビデオカメラ等の撮像装置とディスプレイが一体化された頭部装着型ディスプレイ(以後、HMD:ヘッドマウントディスプレイと表記)が用いられる。複合現実感システムによれば、対象物体をCG(コンピュータグラフィックス)で表現し、現実世界の映像と重畳して、HMDに表示できる。その結果、作業者はあたかもそこに操作領域が存在するかのように確認しながら作業を体験することができる。この体験では、対象部品実物を作製・修復する必要がなく、何度も反復することが可能である。 Conventionally, in the field of manufacturing industry, a training tool using a mixed reality (MR) system in which a real space and a virtual space are seamlessly combined has been introduced. This is for a worker to learn an appropriate work through training for operating a virtual object by using a simulated tool that imitates a tool. As one of the image display means, a head mounted display (hereinafter, referred to as HMD: head mounted display) in which an image pickup device such as a video camera and a display are integrated is used. According to the mixed reality system, the target object can be represented by CG (computer graphics), and can be displayed on the HMD by superimposing the image on the real world. As a result, the worker can experience the work while checking as if the operation area exists there. In this experience, it is possible to repeat many times without having to make and repair the actual parts.
製造現場の作業者が作業を習得するために、模擬工具を使った複合現実感システムのトレーニングツールを使うことができる。そうすることで効率的に作業を習得することができる。例えば、作業者が身に付けたHMDの表示画面に、作業手順について実施すべき内容や注意を喚起する注意情報を映すことで、視覚情報提示によるティーチングが提供できる。また振動デバイスを具備した模擬工具を保持して、模擬工具の位置姿勢に応じた振動刺激を作業者に与えることで、体感を伴う情報提示も可能である。 A worker in a manufacturing site can use a training tool of a mixed reality system using a simulated tool to learn the work. By doing so, you can learn the work efficiently. For example, teaching by visual information presentation can be provided by displaying the contents to be carried out about the work procedure and the attention information that calls attention on the display screen of the HMD worn by the worker. Further, by holding a simulated tool equipped with a vibrating device and applying a vibration stimulus according to the position and orientation of the simulated tool to the worker, it is possible to present information accompanied by a sensation.
特許文献1には、身体部位の位置姿勢に応じて、触覚情報を作業者にフィードバックする技術が開示されている。特許文献2には、力覚を提示するデバイスを取り付けた模擬工具を使って仮想ねじ物体を仮想ねじ穴物体に締結する作業において、締結度合によって提示する力覚程度を制御する技術が開示されている。
Patent Document 1 discloses a technique of feeding back tactile information to an operator according to the position and orientation of a body part.
しかしながら、作業者が工具を模した模擬工具を使って仮想物体を操作するトレーニングにおいて、熟練作業者のような的確な作業を習得するのが難しいという問題があった。 However, in training in which a worker operates a virtual object using a simulated tool that imitates a tool, there is a problem that it is difficult to learn an accurate work like a skilled worker.
本発明はこのような問題点に鑑みなされたもので、作業者が適切な作業を習得するのを支援する技術を提供することを目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to provide a technique for assisting an operator in learning an appropriate work.
そこで、本発明は、情報処理装置であって、ユーザによる操作時の模擬工具の位置及び姿勢のうち少なくとも一方の状態を示す状態情報を取得する状態取得手段と、前記状態情報の時系列情報に基づいて、前記模擬工具の状態の軌跡を示す工具軌跡情報を生成する軌跡生成手段と、前記工具軌跡情報と、記憶手段に予め記憶された、前記模擬工具の状態の基準軌跡を示し、基準範囲が時刻に応じて変動する基準軌跡情報と、に基づいて、前記ユーザに対する刺激を発生する刺激発生装置を制御する刺激制御手段とを有することを特徴とする。 Therefore, the present invention is an information processing apparatus, which includes a status acquisition unit that acquires status information indicating at least one of the position and the attitude of the simulated tool at the time of operation by a user , and time-series information of the status information. based on the trajectory generating means for generating a tool path information indicating the trajectory of the state of the simulated tool, and the tool path information was stored in the memory means, shows the standard locus of the state of the simulated tool, the reference It is characterized by further comprising a stimulus control means for controlling a stimulus generation device for generating a stimulus to the user based on the reference trajectory information whose range varies according to time .
本発明によれば、作業者が適切な作業を習得するのを支援する技術を提供することができる。 According to the present invention, it is possible to provide a technique that assists an operator in learning an appropriate work.
以下、本発明の実施形態について図面に基づいて説明する。図1は、本実施形態に係る情報処理システムの一例としての支援システムの全体図である。支援システムは、情報処理装置100と、模擬工具110と、HMD120と、を有している。作業者Aは、HMD120を装着する。130は、HMD120により映し出される仮想物体である。作業者Aは、HMD120により仮想物体130が映し出された複合現実空間において、作業を体験する。本実施形態においては、仮想物体130に対し、電動スプレーを模した模擬工具110により、仮想物体130に一定の塗膜を塗布する作業を例に説明する。模擬工具110は、作業者の作業が適切でない場合に、ティーチングのための刺激を発生することができる。情報処理装置100は、模擬工具110及びHMD120から受信した情報に基づいて、仮想物体の映像を生成するなど、HMD120を制御する。情報処理装置100はまた、模擬工具110による刺激の発生を制御する。
Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is an overall view of a support system as an example of an information processing system according to this embodiment. The support system includes an
図2(a)は、情報処理装置100のハードウェア構成を示す図である。情報処理装置100は、CPU201と、ROM202と、RAM203と、HDD204と、表示部205と、入力部206と、通信部207とを有している。CPU201は、ROM202に記憶された制御プログラムを読み出して各種処理を実行する。RAM203は、CPU101の主メモリ、ワークエリア等の一時記憶領域として用いられる。HDD204は、画像データや各種プログラム等各種情報を記憶する。表示部205は、各種情報を表示する。入力部206は、キーボードやマウスを有し、ユーザによる各種操作を受け付ける。通信部207は、ブルートゥース等の近距離無線通信により模擬工具110やHMD120と接続する。なお、後述する情報処理装置100の機能や処理は、CPU201がROM202又はHDD204に格納されているプログラムを読み出し、このプログラムを実行することにより実現されるものである。
FIG. 2A is a diagram showing a hardware configuration of the
図2(b)は、模擬工具110のハードウェア構成を示す図である。模擬工具110は、検出部211と、刺激発生部212と、通信部213とを有している。検出部211は、模擬工具110の状態を検知する。ここで、状態とは、模擬工具110の位置及び姿勢である。なお、他の例としては、状態は、模擬工具110の位置及び姿勢のうち少なくとも一方であればよい。検出部211は、例えば、6自由度位置姿勢センサである。刺激発生部212は、模擬工具110のユーザである作業者に対して与える刺激を発生する。刺激発生部212は、具体的には、聴覚や触覚、力覚等の感覚刺激を発生させる。刺激発生部212には、例えば、振動刺激を発生させるデバイスとして、偏心モータ(ERM)やリニア・バイブレータ(LRA)、ピエゾ圧電素子等が用いられてもよい。また、刺激発生部212には、聴覚刺激を発生させるデバイスとして、動電型スピーカ、静電型スピーカ、圧電型スピーカ等が用いられてもよい。刺激発生部212は、刺激発生装置の一例である。通信部213は、近距離無線通信により、情報処理装置100と接続する。
FIG. 2B is a diagram showing a hardware configuration of the
図2(c)は、HMD120のハードウェア構成を示す図である。HMD120は、撮像部221と、表示部222と、通信部223とを有している。撮像部221は、装着者の視線方向の画像を撮像する。表示部222は、仮想物体を表示する。表示部222が刺激発生部212により得られた撮像画像上に仮想物体を合成した合成画像を表示することにより、装着者は、複合現実空間を体験することができる。通信部223は、近距離無線通信により、情報処理装置100と接続する。
FIG. 2C is a diagram showing the hardware configuration of the HMD 120. The HMD 120 has an
図3は、情報処理装置100のソフトウェア構成を示す図である。情報処理装置100は、情報取得部301と、軌跡生成部302と、工具軌跡記憶部303と、基準軌跡記憶部304と、逸脱判定部305と、刺激制御部306とを有している。情報処理装置100はさらに、画像取得部307と、モデル記憶部308と、画像生成部309と、表示制御部310とを有している。
FIG. 3 is a diagram showing a software configuration of the
情報取得部301は、模擬工具110の検出部211により検出された、作業者による模擬工具110の操作時の模擬工具110の状態を示す状態情報を、通信部207を介して模擬工具110から取得する。軌跡生成部302は、状態情報に基づいて、模擬工具110の状態の軌跡である工具軌跡を示す工具軌跡情報を生成し、これを工具軌跡記憶部303に蓄積する。図4は、工具軌跡情報400の一例を示す図である。軌跡生成部302は、情報取得部301が取得した状態情報に対し、状態情報が入力された時刻を対応付ける。図4の例では、時刻は、作業開始を基準としたものである。軌跡生成部302は、状態情報と時刻の組を1つのレコードとし、このレコードを時系列に並べることにより、時系列に沿った状態情報、すなわち状態情報の時系列情報を工具軌跡情報400として生成する。なお、状態情報は、複合現実空間における模擬工具110の位置座標X、Y、Zと回転角座標Qx、Qy、Qzを示している。
The information acquisition unit 301 acquires, from the
図3に戻り、基準軌跡記憶部304は、基準軌跡情報を予め記憶している。ここで、基準軌跡情報は、模擬工具110の作業において得られる適切な軌跡を示す情報である。基準軌跡情報は、例えば熟練者が予め模擬工具110を用いて仮想物体に対して作業体験を行った際の状態情報に基づいて予め生成され、工具軌跡記憶部303に格納されているものとする。基準軌跡記憶部304に記憶されている基準軌跡情報のデータ構成は、工具軌跡情報400のデータ構成と同様である。
Returning to FIG. 3, the reference
基準軌跡記憶部304はさらに、基準範囲を予め記憶している。ここで、基準範囲は、基準軌跡の3次元座標と3次元回転座標を基準とした、各時刻における許容範囲(数値幅)を示す情報である。工具軌跡がこの基準範囲内にある場合には、作業は適切に行われていると判定され、工具軌跡が基準範囲を超えた場合に、作業の修正が必要で、作業者への通知がなされる。なお、基準範囲の幅は、時刻に応じて、また作業内容に応じて異なっているものとする。作業範囲の粗密の違い、危険度の高低等によって、座標逸脱の許容閾値が異なる可能性があるためである。
The reference
逸脱判定部305は、工具軌跡情報と基準軌跡情報の同時刻の状態情報の比較を逐次行い、工具軌跡情報に示される工具軌跡が基準軌跡から逸脱したか否かを判定する。具体的には、逸脱判定部305は、工具軌跡が基準軌跡を基準とした基準範囲に含まれているか否かを確認し、基準範囲から外れた場合に、工具軌跡が基準軌跡から逸脱したと判定する。逸脱判定部305はさらに、工具軌跡が基準軌跡から逸脱したと判定した場合には、工具軌跡の逸脱度を算出する。ここで、逸脱度とは、工具軌跡が基準から逸脱している程度を示す指標値である。逸脱判定部305は、工具軌跡と基準範囲の境界位置との差分を逸脱度として算出する。刺激制御部306は、逸脱判定部305の判定結果に応じて、模擬工具110の刺激発生部212を制御する。
The
一方、画像取得部307は、HMD120の撮像部221により得られた、模擬工具110が存在する現実空間の撮像画像を、通信部207を介してHMD120から取得する(画像取得処理)。モデル記憶部308は、仮想物体130を表示するための仮想モデルを記憶している。画像生成部309は、画像取得部307が取得した撮像画像に仮想モデル等を合成した合成画像を生成する。表示制御部310は、HMD120による表示を制御する。表示制御部310は、例えば、画像生成部309が生成した合成画像をHMD120の表示部222に表示するようHMD120を制御する。
On the other hand, the image acquisition unit 307 acquires, from the
図5は、情報処理装置100による情報処理を示すフローチャートである。S500において、情報取得部301は、模擬工具110から状態情報を取得する(状態取得処理)。次に、S501において、軌跡生成部302は、S500において取得された状態情報に、状態情報が入力された時刻を対応付けて、工具軌跡情報を生成する(軌跡情報生成処理)。そして、軌跡生成部302は、工具軌跡情報を工具軌跡記憶部303に記録する。次に、S502において、逸脱判定部305は、対応する時刻における工具軌跡情報と基準軌跡記憶部304に記憶された基準軌跡情報とを比較することにより、工具軌跡情報に示される工具軌跡が基準範囲に含まれるか否かを判定する。逸脱判定部305は、工具軌跡が基準範囲に含まれる場合には(S502でYes)、処理をS508へ進める。逸脱判定部305は、工具軌跡が基準範囲を超える場合には(S502でNo)、処理をS503へ進める。
FIG. 5 is a flowchart showing information processing by the
S503において、逸脱判定部305は、工具軌跡と基準範囲の境界位置との差分を逸脱度として算出する。次に、S504において、逸脱判定部305は、逸脱度に応じて刺激の強度を決定する。本実施形態においては、逸脱度に対し2つの範囲レベルが定められており、各範囲レベルに対して、刺激の強度を対応付けて、例えばHDD204等に記憶されているものとする。そして、逸脱判定部305は、S503において算出した逸脱度が属する範囲レベルを特定し、特定した範囲レベルに対応付けられている刺激の強度を特定する。なお、各範囲レベルの境界となる逸脱度や範囲レベルの数は、特に限定されるものではなく、作業者が刺激の強度や刺激のパターンの違いを識別可能な十分な数の範囲であることが好ましい。
In S503, the
次に、S505において、刺激制御部306は、S504において決定した強度の刺激を発生するよう模擬工具110の刺激発生部212を制御する(刺激制御処理)。具体的には、逸脱判定部305は、S504において決定した強度の刺激を発生するよう、通信部207を介して模擬工具110に指示を送信する。模擬工具110は、指示を受信すると、刺激発生部212が、指示に応じた刺激を発生する。例えば、逸脱度が最下位の範囲レベルに属する場合には、逸脱判定部305は、最も低い電圧パルス幅の出力を刺激強度として決定する。そして、これに対応し、模擬工具110の刺激発生部212は、最も弱い程度の刺激を発生する。また、例えば、逸脱度が最上位の範囲レベルに属する場合には、逸脱判定部305は、最も強い電圧パルス幅の出力を刺激強度として決定する。そして、これに対応し、刺激発生部212は、最も強い程度の刺激を発生する。
Next, in S505, the stimulation control unit 306 controls the stimulation generation unit 212 of the
次に、S506において、画像生成部309は、S504において決定した強度の範囲レベルに応じて、警告メッセージや指導メッセージを撮像画像に合成した合成画像を生成する。ここで、警告メッセージや指導メッセージは提示情報の一例である。また、S506の処理は、合成画像を生成する画像生成処理の一例である。なお、本実施形態においては、各範囲レベルに対して、合成すべきメッセージ画像が対応付けて例えばHDD204等に記憶されているものとする。そして、画像生成部309は、範囲レベルに対応付けられているメッセージ画像を撮像画像に合成する。次に、S507において、表示制御部310は、S506において生成した合成画像を表示するよう、HMD120の表示部222を制御する。具体的には、表示制御部310は、S506において生成した合成画像を表示するよう、通信部207を介してHMD120に指示を送信する。HMD120は、指示を受信すると、表示部222が、指示に応じて合成画像を表示する。これにより、作業者に対し、視覚刺激を与えることができる。
Next, in step S506, the
例えば逸脱度が最下位の範囲レベルに属する場合には、画像生成部309は、撮像画像に警告メッセージを合成する。そして、これに対応し、HMD120の表示部222は、警告メッセージの合成画像を表示する。また例えば、逸脱度が最上位の範囲レベルに属する場合には、警告メッセージに加え、修正すべき位置姿勢方向へ矢印CGを合成する。これにより、より具体的なティーチングを作業者に与え、適切な模擬工具110の使い方を促すことができる。
For example, when the deviation degree belongs to the lowest range level, the
次に、S508において、CPU201は、作業者による模擬工具110を用いた作業が終了したか否かを確認する。CPU201は、模擬工具110から作業終了の通知を受信した場合に作業終了と判断するものとする。CPU201は、作業が終了した場合には(S508でYes)、処理を終了する。CPU201は、作業が終了していない場合には(S508でNo)、処理をS500へ進め、処理を継続する。
Next, in S508, the
続いて、図6を参照しつつ、作業トレーニングについて、具体的に説明する。図6(A)に示すように、作業者Aは、HMD120を装着し、電動スプレーを模した模擬工具110を使って仮想塗料を噴霧しながら模擬工具110を動かしていく。ここでは、仮想物体130に対して厚みの一定な塗膜を塗布する作業を実施する。作業は、開始点P0から噴霧をはじめ、左右に模擬工具110を動かしながら仮想物体130の上部から下部へ噴霧し、終了点P20で作業終了とするものとする。本実施形態においては、情報処理装置100の画像生成部309は、仮想物体130上にさらに開始点P0から終了点P20までの基準軌跡を重畳した合成画像を生成し、HMD120の表示部222は、基準軌跡が重畳された合成画像を表示するものとする。仮想物体130、模擬工具110、HMD120は、複合現実感システムにおける共通の仮想空間座標600を基準として扱われる。
Next, the work training will be specifically described with reference to FIG. As shown in FIG. 6A, the worker A wears the
図6(B)は、仮想空間座標600における模擬工具110のY座標(太破線)と、刺激発生部212により出力される電圧波形(太実線)を、時間軸に対してプロットした図である。図6(B)のP0、P1、・・・、P7は、図6(A)のP0、P1、・・・、P7に対応している。基準範囲は、熟練作業者による模擬工具110の軌跡をもとに作られたものである。基準範囲は、時刻に応じて変動する場合があり、図6(A)の例では、P4からP6の作業範囲における基準範囲は、P0からP3の基準範囲に比べて狭くなっている。
FIG. 6B is a diagram in which the Y coordinate (thick broken line) of the
図4(B)の例では、作業者Aは開始点P0から噴霧をはじめ、P2までは、Y基準範囲内で模擬工具110を操作できている。この間は、刺激発生部212には、最小のパルス幅でパルス電圧が印加されている。P2からP3の作業範囲では、工具軌跡がY基準軌跡から外れている。ここで、逸脱度は、図6(B)中のY基準範囲の領域境界から、模擬工具110の軌跡を示す太破線までの垂直方向の距離に相当する。逸脱度に応じて、印加電圧のパルス幅が制御される。このようなパルス幅の大小に伴い、作業者Aが模擬工具110を介して受ける振動刺激が大小する。この仕組みによって、作業者Aは自身が逸脱許容からどれほど離れて模擬工具110を操作しているか、一連の作業をしながらリアルタイムで体感することができる。
In the example of FIG. 4B, the worker A can start the spraying from the start point P0 and can operate the
作業の折り返し地点であるP4からP6の作業範囲においても、工具軌跡はY基準範囲から外れている。このため、この範囲においても、逸脱度に相当した振動刺激が提示される。P6以降は、工具軌跡はY基準範囲内になるため、最小のパルス幅でパルス電圧が印加され、それに応じた振動刺激が提示される。 In the work range from P4 to P6, which is the turning point of the work, the tool locus is outside the Y reference range. Therefore, even in this range, the vibration stimulus corresponding to the deviation degree is presented. After P6, since the tool locus is within the Y reference range, the pulse voltage is applied with the minimum pulse width, and the vibration stimulus is presented accordingly.
図6(C)は、仮想空間座標600における模擬工具110の垂直方向の回転座標Qz(太破線)を、時間軸に対してプロットした図である。また図6(D)は、HMD120の表示部222の表示例を示す図である。開始点P0からP3において、作業者Aは、Qz基準範囲内にて模擬工具110を操作しているが、作業の折り返し地点であるP4からP6の作業範囲では、工具軌跡がY基準範囲から外れている。このように、工具軌跡がY基準範囲から外れると、図6(D)に示すように、「矢印の方向へ傾けましょう」といった警告メッセージ611と矢印画像612が仮想物体と共に合成された撮像画像が表示部222に表示される。表示制御部310はさらに、逸脱度によっては、作業者Aに対し正しい軌跡に復帰するよう促すメッセージを表示するように制御してもよい。なお工具軌跡がY基準範囲内にある場合には、警告メッセージ611及び矢印画像612は表示されない。
FIG. 6C is a diagram in which the vertical rotation coordinates Qz (thick broken line) of the
以上説明したように、本実施形態によれば、作業者は、模擬工具110やHMD120を用いて仮想物体を操作するトレーニングを通して、振動による触覚刺激や音声による聴覚刺激などの感覚刺激をその強弱を含めて知覚することができる。このような感覚刺激をトレーニングツールが提示することで、作業者は、自身が修正すべき作業箇所をリアルタイムに把握し、熟練作業者に倣った適切な作業を習得することが可能である。すなわち、本実施形態に係る支援システムは、作業者が適切な作業を習得するのを支援する技術を提供することができる。
As described above, according to the present embodiment, the worker increases the strength of the sensory stimulus such as the tactile stimulus by the vibration or the auditory stimulus by the sound through the training for operating the virtual object using the
次に、第1の実施形態の変更例について説明する。第1の変更例としては、本実施形態においては、模擬工具110が模擬工具110の状態を検知したが、状態検知の主体は模擬工具110に限定されるものではない。他の例としては、HMD120が撮像画像に基づいて、状態を検知してもよい。具体的には、模擬工具110には、状態検知のための指標が添付されているものとする。そして、HMD120は模擬工具110を撮像し、得られた撮像画像内の指標の画像内座標と、3次元座標との対応関係に基づいて、模擬工具110の状態を特定してもよい。また、情報処理装置100が、HMD120から撮像画像を取得し、撮像画像から模擬工具110の状態を特定してもよい。また、情報処理装置100は、撮像画像から状態を特定し、さらに実施形態において説明したように、模擬工具110から状態情報を取得し、これらの情報を総合して、状態情報を得ることとしてもよい。
Next, a modified example of the first embodiment will be described. As a first modified example, in the present embodiment, the
第2の変更例としては、工具軌跡情報及び基準軌跡情報は、軌跡情報だけでなく、各軌跡情報を時間微分することで得られる移動速度情報を含んでもよい。さらに、この場合、逸脱判定部305は、工具軌跡と基準軌跡の比較において、移動速度の比較も行う。そして、逸脱判定部305は、この比較結果に基づいて、作業者の模擬工具110の移動速度(速度及び角速度)の、基準軌跡に係る移動速度(速度及び角速度)からの逸脱を考慮し、総合的な逸脱度を算出するものとする。
As a second modification, the tool locus information and the reference locus information may include not only the locus information, but also moving speed information obtained by differentiating each locus information with respect to time. Further, in this case, the
また、工具軌跡情報及び基準軌跡情報は、移動速度に替えて、各軌跡情報を時間に関し二階微分を施すことで得られる移動加速度情報を含んでもよい。さらに、この場合、逸脱判定部305は、工具軌跡と基準軌跡の比較において、移動加速度の比較も行う。そして、逸脱判定部305は、この比較結果に基づいて、作業者の模擬工具110の移動加速度(加速度及び角加速度)の基準軌跡に係る移動加速度(加速度及び角加速度)からの逸脱を考慮し、総合的な逸脱度を算出するものとする。
Further, the tool locus information and the reference locus information may include moving acceleration information obtained by subjecting each locus information to second-order differentiation with respect to time, instead of moving speed. Further, in this case, the
第3の変更例としては、刺激制御部306は、逸脱度に応じて、異なる刺激が発生されるように刺激発生部212を制御すればよく、刺激発生に係る具体的な制御は実施形態に限定されるものではない。例えば、刺激制御部306は、逸脱度を複数段に分けるのに替えて、逸脱度に比例して刺激強度を大きくするよう刺激発生部212を制御してもよい。また、他の例としては、刺激制御部306は、基準範囲内においても、同様に逸脱度に応じた刺激を発生するよう制御してもよい。また、刺激制御部306は、逸脱度に応じて、刺激の強度に替えて、刺激の種類を異ならせてもよい。例えば、刺激制御部306は、刺激の間欠振動の振動時間の長短を制御してもよい。また、刺激制御部306は、振動周波数の高低を制御してもよい。 As a third modification, the stimulus control unit 306 may control the stimulus generation unit 212 so that different stimuli are generated according to the deviation degree, and specific control relating to stimulus generation is performed in the embodiment. It is not limited. For example, the stimulation control unit 306 may control the stimulation generation unit 212 to increase the stimulation intensity in proportion to the departure degree instead of dividing the departure degree into a plurality of stages. Further, as another example, the stimulus control unit 306 may also control to generate a stimulus according to the degree of deviation even within the reference range. Further, the stimulation control unit 306 may change the type of stimulation in place of the intensity of stimulation depending on the degree of deviation. For example, the stimulation control unit 306 may control the length of the vibration time of the intermittent vibration of the stimulation. Further, the stimulation control unit 306 may control the level of the vibration frequency.
第4の変更例としては、模擬工具110は、刺激発生装置としてスピーカを備えてもよい。そして、この場合には、刺激制御部306は、逸脱度に応じて、スピーカからのブザー音の大小を制御してもよく、またブザー音の周波数の高低を制御してもよく、ブザー音パターンを変更するよう制御してもよい。
As a fourth modification, the
第5の変更例としては、支援システムの各装置が行う処理、特に情報処理装置100が行う処理は、支援システム内のいずれかの装置が行えばよく、その主体となる装置は実施形態に限定されるものではない。例えば、工具軌跡情報の生成は、模擬工具110が行ってもよい。
As a fifth modified example, the process performed by each device of the support system, particularly the process performed by the
第6の変更例としては、支援システムは、模擬工具110を用いたトレーニングを支援するものであればよく、支援対象は、複合現実空間におけるトレーニングに限定されるものではない。
As a sixth modification, the support system only needs to support the training using the
以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。 Although the preferred embodiments of the present invention have been described above in detail, the present invention is not limited to the specific embodiments, and various modifications are possible within the scope of the gist of the present invention described in the claims. -Can be changed.
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program. It can also be realized by the processing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
100 情報処理装置
110 模擬工具
120 HMD
100
Claims (13)
前記状態情報の時系列情報に基づいて、前記模擬工具の状態の軌跡を示す工具軌跡情報を生成する軌跡生成手段と、
前記工具軌跡情報と、記憶手段に予め記憶された、前記模擬工具の状態の基準軌跡を示し、基準範囲が時刻に応じて変動する基準軌跡情報と、に基づいて、前記ユーザに対する刺激を発生する刺激発生装置を制御する刺激制御手段とを有することを特徴とする情報処理装置。 A state acquisition unit that acquires state information indicating the state of at least one of the position and the posture of the simulated tool at the time of operation by the user,
Trajectory generating means for generating tool trajectory information indicating a trajectory of the state of the simulated tool, based on time-series information of the state information,
Said tool path information was stored in the memory means, wherein indicates the reference trajectory of the state of the simulated tool, the reference locus information reference range varies according to the time, based on the occurrence of irritation to the user And a stimulus control means for controlling the stimulus generator.
前記撮像画像に、前記ユーザに提示する提示情報を合成した合成画像を生成する画像生成手段と、
前記工具軌跡情報と、前記基準軌跡情報と、に基づいて、前記合成画像の表示手段への表示を制御する表示制御手段とをさらに有することを特徴とする請求項1乃至6の何れか1項に記載の情報処理装置。 Image acquisition means for acquiring a captured image of the physical space in which the simulated tool exists,
Image generating means for generating a combined image in which presentation information to be presented to the user is combined with the captured image,
It said tool path information, and the reference locus information, on the basis of any one of claims 1 to 6, further comprising a display control means for controlling the display on the display means of the composite image The information processing device according to 1.
前記ユーザに対して刺激を発生する刺激発生装置と、
前記模擬工具の位置及び姿勢のうち少なくとも一方の状態を示す状態情報を取得する状態取得手段と、
前記状態情報の時系列情報に基づいて、前記模擬工具の状態の軌跡を示す工具軌跡情報を生成する軌跡生成手段と、
前記工具軌跡情報と、記憶手段に予め記憶された、前記模擬工具の状態の基準軌跡を示し、基準範囲が時刻に応じて変動する基準軌跡情報と、に基づいて、前記刺激発生装置を制御する刺激制御手段とを有することを特徴とする情報処理システム。 A simulated tool operated by the user,
A stimulus generator for generating a stimulus to the user;
A status acquisition unit that acquires status information indicating at least one of the position and the attitude of the simulated tool,
Trajectory generating means for generating tool trajectory information indicating a trajectory of the state of the simulated tool, based on time-series information of the state information,
Said tool path information was stored in the memory means, wherein indicates the reference trajectory of the state of the simulated tool, the reference locus information reference range varies according to the time, based on the control of the stimulus generating device An information processing system, comprising:
ユーザによる操作時の模擬工具の位置及び姿勢のうち少なくとも一方の状態を示す状態情報を取得する状態取得ステップと、
前記状態情報の時系列情報に基づいて、前記模擬工具の状態の軌跡を示す工具軌跡情報を生成する軌跡生成ステップと、
前記工具軌跡情報と、記憶手段に予め記憶された、前記模擬工具の状態の基準軌跡を示し、基準範囲が時刻に応じて変動する基準軌跡情報と、に基づいて、前記ユーザに対する刺激を発生する刺激発生装置を制御する刺激制御ステップとを含むことを特徴とする情報処理方法。 An information processing method executed by an information processing device, comprising:
A state acquisition step of acquiring state information indicating at least one of the position and orientation of the simulated tool at the time of operation by the user,
A trajectory generation step of generating tool trajectory information indicating a trajectory of the state of the simulated tool, based on time-series information of the state information,
Said tool path information was stored in the memory means, wherein indicates the reference trajectory of the state of the simulated tool, the reference locus information reference range varies according to the time, based on the occurrence of irritation to the user And a stimulus control step for controlling the stimulus generator.
ユーザによる操作時の模擬工具の位置及び姿勢のうち少なくとも一方の状態を示す状態情報を取得する状態取得手段と、
前記状態情報の時系列情報に基づいて、前記模擬工具の状態の軌跡を示す工具軌跡情報を生成する軌跡生成手段と、
前記工具軌跡情報と、記憶手段に予め記憶された、前記模擬工具の状態の基準軌跡を示し、基準範囲が時刻に応じて変動する基準軌跡情報と、に基づいて、前記ユーザに対する刺激を発生する刺激発生装置を制御する刺激制御手段として機能させるためのプログラム。 Computer,
A state acquisition unit that acquires state information indicating the state of at least one of the position and the posture of the simulated tool at the time of operation by the user,
Trajectory generating means for generating tool trajectory information indicating a trajectory of the state of the simulated tool, based on time-series information of the state information,
Said tool path information was stored in the memory means, wherein indicates the reference trajectory of the state of the simulated tool, the reference locus information reference range varies according to the time, based on the occurrence of irritation to the user A program for functioning as a stimulus control means for controlling the stimulus generator.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016011584A JP6736298B2 (en) | 2016-01-25 | 2016-01-25 | Information processing apparatus, information processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016011584A JP6736298B2 (en) | 2016-01-25 | 2016-01-25 | Information processing apparatus, information processing method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017134116A JP2017134116A (en) | 2017-08-03 |
JP6736298B2 true JP6736298B2 (en) | 2020-08-05 |
Family
ID=59504942
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016011584A Active JP6736298B2 (en) | 2016-01-25 | 2016-01-25 | Information processing apparatus, information processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6736298B2 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111095317A (en) * | 2017-09-08 | 2020-05-01 | 日铁系统集成株式会社 | Information processing system, information processing device, information processing method, program, and storage medium |
JP2019197165A (en) * | 2018-05-10 | 2019-11-14 | 日本電気株式会社 | Work training device, work training method, and program |
JP2019219727A (en) * | 2018-06-15 | 2019-12-26 | 三菱電機エンジニアリング株式会社 | Evaluation device, evaluation system and evaluation program |
JP7014698B2 (en) * | 2018-11-20 | 2022-02-01 | 株式会社日立システムズ | Training material presentation system and training material presentation method |
JP7184614B2 (en) * | 2018-11-30 | 2022-12-06 | ダイハツ工業株式会社 | Painting simulation evaluation system |
JP7351523B2 (en) | 2020-05-26 | 2023-09-27 | 国立大学法人 東京大学 | System and operating method |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012218058A (en) * | 2011-04-13 | 2012-11-12 | Sumitomo Heavy Industries Marine & Engineering Co Ltd | Welding simulator |
US9767712B2 (en) * | 2012-07-10 | 2017-09-19 | Lincoln Global, Inc. | Virtual reality pipe welding simulator and setup |
KR20140112207A (en) * | 2013-03-13 | 2014-09-23 | 삼성전자주식회사 | Augmented reality imaging display system and surgical robot system comprising the same |
JP2015225214A (en) * | 2014-05-28 | 2015-12-14 | 旭エレクトロニクス株式会社 | Simulation system |
-
2016
- 2016-01-25 JP JP2016011584A patent/JP6736298B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017134116A (en) | 2017-08-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6736298B2 (en) | Information processing apparatus, information processing method, and program | |
JP4921113B2 (en) | Contact presentation apparatus and method | |
CN110096131B (en) | Touch interaction method and device and touch wearable equipment | |
US9760166B2 (en) | Haptic system for establishing a contact free interaction between at least one part of a user's body and a virtual environment | |
EP3055744B1 (en) | A method and a device for verifying one or more safety volumes for a movable mechanical unit | |
JP6678832B2 (en) | Remote control manipulator system and control device | |
JP2009276996A (en) | Information processing apparatus, and information processing method | |
JP2009069918A (en) | Information processor and information processing method | |
JP2008123431A (en) | Contact presenting device and method | |
JP2018008347A (en) | Robot system and operation region display method | |
EP3489804A1 (en) | Haptic accessory apparatus | |
CN105729466A (en) | Robot identification system | |
CN106326523B (en) | Information processing apparatus, information processing method, and computer program | |
JP6625266B1 (en) | Robot controller | |
JP2009087161A (en) | Image processor and image processing method | |
Fani et al. | Multi-cue haptic guidance through wearables for enhancing human ergonomics | |
JP2020011357A (en) | Control device, head mount display and robot system | |
JP2004178222A (en) | Method for evaluating assemblability and assemblability evaluation supporting device using the method | |
JP7125872B2 (en) | Work support device and work support method | |
JP5235424B2 (en) | Information processing apparatus and method | |
WO2020137122A1 (en) | Work assistance device and work assistance method | |
JP6827193B2 (en) | Display system, server, display method and equipment | |
JPH09300256A (en) | Robot teaching method and device | |
Lee et al. | Visual guidance for a spatial discrepancy problem of in encountered-type haptic display | |
WO2017141570A1 (en) | Monitoring device, control device, control system, monitoring method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190124 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190918 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191029 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191219 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200616 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200715 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6736298 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |