JP6736298B2 - Information processing apparatus, information processing method, and program - Google Patents

Information processing apparatus, information processing method, and program Download PDF

Info

Publication number
JP6736298B2
JP6736298B2 JP2016011584A JP2016011584A JP6736298B2 JP 6736298 B2 JP6736298 B2 JP 6736298B2 JP 2016011584 A JP2016011584 A JP 2016011584A JP 2016011584 A JP2016011584 A JP 2016011584A JP 6736298 B2 JP6736298 B2 JP 6736298B2
Authority
JP
Japan
Prior art keywords
information
tool
trajectory
state
stimulus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016011584A
Other languages
Japanese (ja)
Other versions
JP2017134116A (en
Inventor
慎平 小久保
慎平 小久保
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016011584A priority Critical patent/JP6736298B2/en
Publication of JP2017134116A publication Critical patent/JP2017134116A/en
Application granted granted Critical
Publication of JP6736298B2 publication Critical patent/JP6736298B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)

Description

本発明は、作業者が工具を模した模擬工具を使って操作のトレーニングをすることで、適切な作業を習得するのを支援する技術に関する。 The present invention relates to a technique for assisting an operator in learning an appropriate work by training an operation using a simulated tool imitating a tool.

従来、製造業分野において、現実空間と仮想空間を継ぎ目なく合成した複合現実(MR:Mixed Reality)システムを使ったトレーニングツールが導入されている。これは、作業者が工具を模した模擬工具を使って仮想物体を操作するトレーニングを通して、適切な作業を習得するものである。映像表示手段のひとつとして、ビデオカメラ等の撮像装置とディスプレイが一体化された頭部装着型ディスプレイ(以後、HMD:ヘッドマウントディスプレイと表記)が用いられる。複合現実感システムによれば、対象物体をCG(コンピュータグラフィックス)で表現し、現実世界の映像と重畳して、HMDに表示できる。その結果、作業者はあたかもそこに操作領域が存在するかのように確認しながら作業を体験することができる。この体験では、対象部品実物を作製・修復する必要がなく、何度も反復することが可能である。 Conventionally, in the field of manufacturing industry, a training tool using a mixed reality (MR) system in which a real space and a virtual space are seamlessly combined has been introduced. This is for a worker to learn an appropriate work through training for operating a virtual object by using a simulated tool that imitates a tool. As one of the image display means, a head mounted display (hereinafter, referred to as HMD: head mounted display) in which an image pickup device such as a video camera and a display are integrated is used. According to the mixed reality system, the target object can be represented by CG (computer graphics), and can be displayed on the HMD by superimposing the image on the real world. As a result, the worker can experience the work while checking as if the operation area exists there. In this experience, it is possible to repeat many times without having to make and repair the actual parts.

製造現場の作業者が作業を習得するために、模擬工具を使った複合現実感システムのトレーニングツールを使うことができる。そうすることで効率的に作業を習得することができる。例えば、作業者が身に付けたHMDの表示画面に、作業手順について実施すべき内容や注意を喚起する注意情報を映すことで、視覚情報提示によるティーチングが提供できる。また振動デバイスを具備した模擬工具を保持して、模擬工具の位置姿勢に応じた振動刺激を作業者に与えることで、体感を伴う情報提示も可能である。 A worker in a manufacturing site can use a training tool of a mixed reality system using a simulated tool to learn the work. By doing so, you can learn the work efficiently. For example, teaching by visual information presentation can be provided by displaying the contents to be carried out about the work procedure and the attention information that calls attention on the display screen of the HMD worn by the worker. Further, by holding a simulated tool equipped with a vibrating device and applying a vibration stimulus according to the position and orientation of the simulated tool to the worker, it is possible to present information accompanied by a sensation.

特許文献1には、身体部位の位置姿勢に応じて、触覚情報を作業者にフィードバックする技術が開示されている。特許文献2には、力覚を提示するデバイスを取り付けた模擬工具を使って仮想ねじ物体を仮想ねじ穴物体に締結する作業において、締結度合によって提示する力覚程度を制御する技術が開示されている。 Patent Document 1 discloses a technique of feeding back tactile information to an operator according to the position and orientation of a body part. Patent Document 2 discloses a technique for controlling the degree of force sense to be presented according to the degree of fastening in the work of fastening a virtual screw object to a virtual screw hole object using a simulated tool attached with a device that presents force sense. There is.

特開2012−74076号公報JP2012-74076A 特開2008−55527号公報JP, 2008-55527, A

しかしながら、作業者が工具を模した模擬工具を使って仮想物体を操作するトレーニングにおいて、熟練作業者のような的確な作業を習得するのが難しいという問題があった。 However, in training in which a worker operates a virtual object using a simulated tool that imitates a tool, there is a problem that it is difficult to learn an accurate work like a skilled worker.

本発明はこのような問題点に鑑みなされたもので、作業者が適切な作業を習得するのを支援する技術を提供することを目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to provide a technique for assisting an operator in learning an appropriate work.

そこで、本発明は、情報処理装置であって、ユーザによる操作時の模擬工具の位置及び姿勢のうち少なくとも一方の状態を示す状態情報を取得する状態取得手段と、前記状態情報の時系列情報に基づいて、前記模擬工具の状態の軌跡を示す工具軌跡情報を生成する軌跡生成手段と、前記工具軌跡情報と、記憶手段に予め記憶された、前記模擬工具の状態の基準軌跡を示し、基準範囲が時刻に応じて変動する基準軌跡情報と、に基づいて、前記ユーザに対する刺激を発生する刺激発生装置を制御する刺激制御手段とを有することを特徴とする。 Therefore, the present invention is an information processing apparatus, which includes a status acquisition unit that acquires status information indicating at least one of the position and the attitude of the simulated tool at the time of operation by a user , and time-series information of the status information. based on the trajectory generating means for generating a tool path information indicating the trajectory of the state of the simulated tool, and the tool path information was stored in the memory means, shows the standard locus of the state of the simulated tool, the reference It is characterized by further comprising a stimulus control means for controlling a stimulus generation device for generating a stimulus to the user based on the reference trajectory information whose range varies according to time .

本発明によれば、作業者が適切な作業を習得するのを支援する技術を提供することができる。 According to the present invention, it is possible to provide a technique that assists an operator in learning an appropriate work.

支援システムの全体図である。It is a general view of a support system. 情報処理装置、模擬工具及びHMDのハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of an information processing apparatus, a simulation tool, and HMD. 情報処理装置のソフトウェア構成を示す図である。It is a figure which shows the software structure of an information processing apparatus. 工具軌跡情報の一例を示す図である。It is a figure which shows an example of tool locus information. 情報処理を示すフローチャートである。It is a flow chart which shows information processing. 情報処理の説明図である。It is explanatory drawing of information processing.

以下、本発明の実施形態について図面に基づいて説明する。図1は、本実施形態に係る情報処理システムの一例としての支援システムの全体図である。支援システムは、情報処理装置100と、模擬工具110と、HMD120と、を有している。作業者Aは、HMD120を装着する。130は、HMD120により映し出される仮想物体である。作業者Aは、HMD120により仮想物体130が映し出された複合現実空間において、作業を体験する。本実施形態においては、仮想物体130に対し、電動スプレーを模した模擬工具110により、仮想物体130に一定の塗膜を塗布する作業を例に説明する。模擬工具110は、作業者の作業が適切でない場合に、ティーチングのための刺激を発生することができる。情報処理装置100は、模擬工具110及びHMD120から受信した情報に基づいて、仮想物体の映像を生成するなど、HMD120を制御する。情報処理装置100はまた、模擬工具110による刺激の発生を制御する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is an overall view of a support system as an example of an information processing system according to this embodiment. The support system includes an information processing device 100, a simulation tool 110, and an HMD 120. The worker A wears the HMD 120. A virtual object 130 is displayed by the HMD 120. The worker A experiences the work in the mixed reality space in which the virtual object 130 is projected by the HMD 120. In the present embodiment, an operation of applying a constant coating film to the virtual object 130 by the simulation tool 110 simulating an electric spray will be described as an example. The simulation tool 110 can generate a stimulus for teaching when the work of the worker is not appropriate. The information processing apparatus 100 controls the HMD 120 such as generating a video of a virtual object based on the information received from the simulation tool 110 and the HMD 120. The information processing apparatus 100 also controls the generation of stimulation by the simulation tool 110.

図2(a)は、情報処理装置100のハードウェア構成を示す図である。情報処理装置100は、CPU201と、ROM202と、RAM203と、HDD204と、表示部205と、入力部206と、通信部207とを有している。CPU201は、ROM202に記憶された制御プログラムを読み出して各種処理を実行する。RAM203は、CPU101の主メモリ、ワークエリア等の一時記憶領域として用いられる。HDD204は、画像データや各種プログラム等各種情報を記憶する。表示部205は、各種情報を表示する。入力部206は、キーボードやマウスを有し、ユーザによる各種操作を受け付ける。通信部207は、ブルートゥース等の近距離無線通信により模擬工具110やHMD120と接続する。なお、後述する情報処理装置100の機能や処理は、CPU201がROM202又はHDD204に格納されているプログラムを読み出し、このプログラムを実行することにより実現されるものである。 FIG. 2A is a diagram showing a hardware configuration of the information processing device 100. The information processing device 100 includes a CPU 201, a ROM 202, a RAM 203, an HDD 204, a display unit 205, an input unit 206, and a communication unit 207. The CPU 201 reads out the control program stored in the ROM 202 and executes various processes. The RAM 203 is used as a main memory of the CPU 101 and a temporary storage area such as a work area. The HDD 204 stores various information such as image data and various programs. The display unit 205 displays various information. The input unit 206 has a keyboard and a mouse and receives various operations by the user. The communication unit 207 connects to the simulation tool 110 and the HMD 120 by short-range wireless communication such as Bluetooth. The functions and processing of the information processing apparatus 100, which will be described later, are realized by the CPU 201 reading a program stored in the ROM 202 or the HDD 204 and executing the program.

図2(b)は、模擬工具110のハードウェア構成を示す図である。模擬工具110は、検出部211と、刺激発生部212と、通信部213とを有している。検出部211は、模擬工具110の状態を検知する。ここで、状態とは、模擬工具110の位置及び姿勢である。なお、他の例としては、状態は、模擬工具110の位置及び姿勢のうち少なくとも一方であればよい。検出部211は、例えば、6自由度位置姿勢センサである。刺激発生部212は、模擬工具110のユーザである作業者に対して与える刺激を発生する。刺激発生部212は、具体的には、聴覚や触覚、力覚等の感覚刺激を発生させる。刺激発生部212には、例えば、振動刺激を発生させるデバイスとして、偏心モータ(ERM)やリニア・バイブレータ(LRA)、ピエゾ圧電素子等が用いられてもよい。また、刺激発生部212には、聴覚刺激を発生させるデバイスとして、動電型スピーカ、静電型スピーカ、圧電型スピーカ等が用いられてもよい。刺激発生部212は、刺激発生装置の一例である。通信部213は、近距離無線通信により、情報処理装置100と接続する。 FIG. 2B is a diagram showing a hardware configuration of the simulation tool 110. The simulation tool 110 includes a detection unit 211, a stimulus generation unit 212, and a communication unit 213. The detection unit 211 detects the state of the simulated tool 110. Here, the state is the position and orientation of the simulated tool 110. Note that, as another example, the state may be at least one of the position and the posture of the simulated tool 110. The detection unit 211 is, for example, a 6-DOF position/orientation sensor. The stimulus generator 212 generates a stimulus to be given to the worker who is the user of the simulation tool 110. The stimulus generation unit 212 specifically generates sensory stimuli such as hearing, touch, and force. For the stimulus generator 212, for example, an eccentric motor (ERM), a linear vibrator (LRA), a piezo-piezoelectric element or the like may be used as a device for generating a vibration stimulus. Further, in the stimulus generator 212, an electrodynamic speaker, an electrostatic speaker, a piezoelectric speaker, or the like may be used as a device for generating an auditory stimulus. The stimulus generator 212 is an example of a stimulus generator. The communication unit 213 connects to the information processing device 100 by short-range wireless communication.

図2(c)は、HMD120のハードウェア構成を示す図である。HMD120は、撮像部221と、表示部222と、通信部223とを有している。撮像部221は、装着者の視線方向の画像を撮像する。表示部222は、仮想物体を表示する。表示部222が刺激発生部212により得られた撮像画像上に仮想物体を合成した合成画像を表示することにより、装着者は、複合現実空間を体験することができる。通信部223は、近距離無線通信により、情報処理装置100と接続する。 FIG. 2C is a diagram showing the hardware configuration of the HMD 120. The HMD 120 has an imaging unit 221, a display unit 222, and a communication unit 223. The imaging unit 221 captures an image in the line-of-sight direction of the wearer. The display unit 222 displays a virtual object. The display unit 222 displays the composite image in which the virtual object is composited on the captured image obtained by the stimulus generation unit 212, so that the wearer can experience the mixed reality space. The communication unit 223 connects to the information processing device 100 by short-range wireless communication.

図3は、情報処理装置100のソフトウェア構成を示す図である。情報処理装置100は、情報取得部301と、軌跡生成部302と、工具軌跡記憶部303と、基準軌跡記憶部304と、逸脱判定部305と、刺激制御部306とを有している。情報処理装置100はさらに、画像取得部307と、モデル記憶部308と、画像生成部309と、表示制御部310とを有している。 FIG. 3 is a diagram showing a software configuration of the information processing apparatus 100. The information processing device 100 includes an information acquisition unit 301, a trajectory generation unit 302, a tool trajectory storage unit 303, a reference trajectory storage unit 304, a deviation determination unit 305, and a stimulation control unit 306. The information processing device 100 further includes an image acquisition unit 307, a model storage unit 308, an image generation unit 309, and a display control unit 310.

情報取得部301は、模擬工具110の検出部211により検出された、作業者による模擬工具110の操作時の模擬工具110の状態を示す状態情報を、通信部207を介して模擬工具110から取得する。軌跡生成部302は、状態情報に基づいて、模擬工具110の状態の軌跡である工具軌跡を示す工具軌跡情報を生成し、これを工具軌跡記憶部303に蓄積する。図4は、工具軌跡情報400の一例を示す図である。軌跡生成部302は、情報取得部301が取得した状態情報に対し、状態情報が入力された時刻を対応付ける。図4の例では、時刻は、作業開始を基準としたものである。軌跡生成部302は、状態情報と時刻の組を1つのレコードとし、このレコードを時系列に並べることにより、時系列に沿った状態情報、すなわち状態情報の時系列情報を工具軌跡情報400として生成する。なお、状態情報は、複合現実空間における模擬工具110の位置座標X、Y、Zと回転角座標Qx、Qy、Qzを示している。 The information acquisition unit 301 acquires, from the simulated tool 110 via the communication unit 207, state information indicating the state of the simulated tool 110 when the operator operates the simulated tool 110, which is detected by the detection unit 211 of the simulated tool 110. To do. The trajectory generation unit 302 generates tool trajectory information indicating a tool trajectory that is a trajectory of the state of the simulated tool 110 based on the state information, and stores the tool trajectory information in the tool trajectory storage unit 303. FIG. 4 is a diagram showing an example of the tool trajectory information 400. The locus generation unit 302 associates the state information acquired by the information acquisition unit 301 with the time when the state information was input. In the example of FIG. 4, the time is based on the start of work. The trajectory generation unit 302 generates a set of state information and time as one record, and arranges the records in time series to generate state information along the time series, that is, time series information of the state information as the tool trajectory information 400. To do. The state information indicates position coordinates X, Y, Z and rotation angle coordinates Qx, Qy, Qz of the simulated tool 110 in the mixed reality space.

図3に戻り、基準軌跡記憶部304は、基準軌跡情報を予め記憶している。ここで、基準軌跡情報は、模擬工具110の作業において得られる適切な軌跡を示す情報である。基準軌跡情報は、例えば熟練者が予め模擬工具110を用いて仮想物体に対して作業体験を行った際の状態情報に基づいて予め生成され、工具軌跡記憶部303に格納されているものとする。基準軌跡記憶部304に記憶されている基準軌跡情報のデータ構成は、工具軌跡情報400のデータ構成と同様である。 Returning to FIG. 3, the reference trajectory storage unit 304 stores the reference trajectory information in advance. Here, the reference trajectory information is information indicating an appropriate trajectory obtained in the work of the simulated tool 110. It is assumed that the reference trajectory information is generated in advance based on state information when a skilled person has previously performed a work experience on a virtual object using the simulated tool 110, and is stored in the tool trajectory storage unit 303. .. The data configuration of the reference trajectory information stored in the reference trajectory storage unit 304 is the same as the data configuration of the tool trajectory information 400.

基準軌跡記憶部304はさらに、基準範囲を予め記憶している。ここで、基準範囲は、基準軌跡の3次元座標と3次元回転座標を基準とした、各時刻における許容範囲(数値幅)を示す情報である。工具軌跡がこの基準範囲内にある場合には、作業は適切に行われていると判定され、工具軌跡が基準範囲を超えた場合に、作業の修正が必要で、作業者への通知がなされる。なお、基準範囲の幅は、時刻に応じて、また作業内容に応じて異なっているものとする。作業範囲の粗密の違い、危険度の高低等によって、座標逸脱の許容閾値が異なる可能性があるためである。 The reference trajectory storage unit 304 further stores a reference range in advance. Here, the reference range is information indicating an allowable range (numerical value range) at each time, based on the three-dimensional coordinates and the three-dimensional rotation coordinates of the reference trajectory. If the tool path is within this reference range, it is determined that the work is being performed properly, and if the tool path exceeds the reference range, the work needs to be corrected and the operator is notified. It The width of the reference range is assumed to be different depending on the time of day and the work content. This is because the allowable threshold for coordinate deviation may differ depending on the difference in the density of work areas, the level of risk, and the like.

逸脱判定部305は、工具軌跡情報と基準軌跡情報の同時刻の状態情報の比較を逐次行い、工具軌跡情報に示される工具軌跡が基準軌跡から逸脱したか否かを判定する。具体的には、逸脱判定部305は、工具軌跡が基準軌跡を基準とした基準範囲に含まれているか否かを確認し、基準範囲から外れた場合に、工具軌跡が基準軌跡から逸脱したと判定する。逸脱判定部305はさらに、工具軌跡が基準軌跡から逸脱したと判定した場合には、工具軌跡の逸脱度を算出する。ここで、逸脱度とは、工具軌跡が基準から逸脱している程度を示す指標値である。逸脱判定部305は、工具軌跡と基準範囲の境界位置との差分を逸脱度として算出する。刺激制御部306は、逸脱判定部305の判定結果に応じて、模擬工具110の刺激発生部212を制御する。 The deviation determining unit 305 sequentially compares the state information of the tool trajectory information and the reference trajectory information at the same time, and determines whether the tool trajectory indicated by the tool trajectory information deviates from the reference trajectory. Specifically, the deviation determining unit 305 confirms whether or not the tool locus is included in a reference range based on the reference locus, and if the tool locus deviates from the reference range, the tool locus deviates from the reference locus. judge. When the deviation determining unit 305 further determines that the tool path deviates from the reference path, the deviation determining unit 305 calculates the deviation degree of the tool path. Here, the deviation degree is an index value indicating the degree to which the tool path deviates from the reference. The deviation determination unit 305 calculates the difference between the tool trajectory and the boundary position of the reference range as the deviation degree. The stimulation control unit 306 controls the stimulation generation unit 212 of the simulated tool 110 according to the determination result of the deviation determination unit 305.

一方、画像取得部307は、HMD120の撮像部221により得られた、模擬工具110が存在する現実空間の撮像画像を、通信部207を介してHMD120から取得する(画像取得処理)。モデル記憶部308は、仮想物体130を表示するための仮想モデルを記憶している。画像生成部309は、画像取得部307が取得した撮像画像に仮想モデル等を合成した合成画像を生成する。表示制御部310は、HMD120による表示を制御する。表示制御部310は、例えば、画像生成部309が生成した合成画像をHMD120の表示部222に表示するようHMD120を制御する。 On the other hand, the image acquisition unit 307 acquires, from the HMD 120 via the communication unit 207, a captured image of the physical space in which the simulated tool 110 is present, obtained by the imaging unit 221 of the HMD 120 (image acquisition process). The model storage unit 308 stores a virtual model for displaying the virtual object 130. The image generation unit 309 generates a composite image in which a virtual model or the like is combined with the captured image acquired by the image acquisition unit 307. The display control unit 310 controls the display by the HMD 120. The display control unit 310 controls the HMD 120 such that the composite image generated by the image generation unit 309 is displayed on the display unit 222 of the HMD 120, for example.

図5は、情報処理装置100による情報処理を示すフローチャートである。S500において、情報取得部301は、模擬工具110から状態情報を取得する(状態取得処理)。次に、S501において、軌跡生成部302は、S500において取得された状態情報に、状態情報が入力された時刻を対応付けて、工具軌跡情報を生成する(軌跡情報生成処理)。そして、軌跡生成部302は、工具軌跡情報を工具軌跡記憶部303に記録する。次に、S502において、逸脱判定部305は、対応する時刻における工具軌跡情報と基準軌跡記憶部304に記憶された基準軌跡情報とを比較することにより、工具軌跡情報に示される工具軌跡が基準範囲に含まれるか否かを判定する。逸脱判定部305は、工具軌跡が基準範囲に含まれる場合には(S502でYes)、処理をS508へ進める。逸脱判定部305は、工具軌跡が基準範囲を超える場合には(S502でNo)、処理をS503へ進める。 FIG. 5 is a flowchart showing information processing by the information processing device 100. In S500, the information acquisition unit 301 acquires state information from the simulated tool 110 (state acquisition process). Next, in S501, the trajectory generation unit 302 generates tool trajectory information by associating the state information acquired in S500 with the time when the state information was input (trajectory information generation processing). Then, the trajectory generation unit 302 records the tool trajectory information in the tool trajectory storage unit 303. Next, in S502, the deviation determination unit 305 compares the tool trajectory information at the corresponding time with the reference trajectory information stored in the reference trajectory storage unit 304, so that the tool trajectory indicated by the tool trajectory information is in the reference range. Is included in. If the tool locus is included in the reference range (Yes in S502), the deviation determining unit 305 advances the process to S508. If the tool path exceeds the reference range (No in S502), the deviation determination unit 305 advances the process to S503.

S503において、逸脱判定部305は、工具軌跡と基準範囲の境界位置との差分を逸脱度として算出する。次に、S504において、逸脱判定部305は、逸脱度に応じて刺激の強度を決定する。本実施形態においては、逸脱度に対し2つの範囲レベルが定められており、各範囲レベルに対して、刺激の強度を対応付けて、例えばHDD204等に記憶されているものとする。そして、逸脱判定部305は、S503において算出した逸脱度が属する範囲レベルを特定し、特定した範囲レベルに対応付けられている刺激の強度を特定する。なお、各範囲レベルの境界となる逸脱度や範囲レベルの数は、特に限定されるものではなく、作業者が刺激の強度や刺激のパターンの違いを識別可能な十分な数の範囲であることが好ましい。 In S503, the deviation determination unit 305 calculates the difference between the tool trajectory and the boundary position of the reference range as the deviation degree. Next, in S504, the deviation determination unit 305 determines the strength of the stimulus according to the deviation degree. In this embodiment, it is assumed that two range levels are defined for the degree of deviation, and the stimulation intensity is associated with each range level and stored in the HDD 204 or the like, for example. Then, the departure determining unit 305 identifies the range level to which the departure degree calculated in S503 belongs, and identifies the strength of the stimulus associated with the identified range level. The degree of deviation and the number of range levels that are the boundaries of each range level are not particularly limited, and must be a sufficient number range that allows the operator to identify the difference in stimulation intensity and stimulation pattern. Is preferred.

次に、S505において、刺激制御部306は、S504において決定した強度の刺激を発生するよう模擬工具110の刺激発生部212を制御する(刺激制御処理)。具体的には、逸脱判定部305は、S504において決定した強度の刺激を発生するよう、通信部207を介して模擬工具110に指示を送信する。模擬工具110は、指示を受信すると、刺激発生部212が、指示に応じた刺激を発生する。例えば、逸脱度が最下位の範囲レベルに属する場合には、逸脱判定部305は、最も低い電圧パルス幅の出力を刺激強度として決定する。そして、これに対応し、模擬工具110の刺激発生部212は、最も弱い程度の刺激を発生する。また、例えば、逸脱度が最上位の範囲レベルに属する場合には、逸脱判定部305は、最も強い電圧パルス幅の出力を刺激強度として決定する。そして、これに対応し、刺激発生部212は、最も強い程度の刺激を発生する。 Next, in S505, the stimulation control unit 306 controls the stimulation generation unit 212 of the simulated tool 110 so as to generate the stimulation having the intensity determined in S504 (stimulation control process). Specifically, the deviation determination unit 305 transmits an instruction to the simulated tool 110 via the communication unit 207 so as to generate the stimulus having the intensity determined in S504. In the simulated tool 110, when the instruction is received, the stimulus generation unit 212 generates a stimulus according to the instruction. For example, when the departure degree belongs to the lowest range level, the departure determination unit 305 determines the output having the lowest voltage pulse width as the stimulation intensity. Then, in response to this, the stimulus generator 212 of the simulation tool 110 generates the weakest stimulus. Further, for example, when the departure degree belongs to the highest range level, the departure determination unit 305 determines the output having the strongest voltage pulse width as the stimulation intensity. Then, in response to this, the stimulus generator 212 generates the strongest stimulus.

次に、S506において、画像生成部309は、S504において決定した強度の範囲レベルに応じて、警告メッセージや指導メッセージを撮像画像に合成した合成画像を生成する。ここで、警告メッセージや指導メッセージは提示情報の一例である。また、S506の処理は、合成画像を生成する画像生成処理の一例である。なお、本実施形態においては、各範囲レベルに対して、合成すべきメッセージ画像が対応付けて例えばHDD204等に記憶されているものとする。そして、画像生成部309は、範囲レベルに対応付けられているメッセージ画像を撮像画像に合成する。次に、S507において、表示制御部310は、S506において生成した合成画像を表示するよう、HMD120の表示部222を制御する。具体的には、表示制御部310は、S506において生成した合成画像を表示するよう、通信部207を介してHMD120に指示を送信する。HMD120は、指示を受信すると、表示部222が、指示に応じて合成画像を表示する。これにより、作業者に対し、視覚刺激を与えることができる。 Next, in step S506, the image generation unit 309 generates a composite image in which the warning message and the guidance message are combined with the captured image according to the intensity range level determined in step S504. Here, the warning message and the guidance message are examples of presentation information. The processing of S506 is an example of image generation processing for generating a composite image. In the present embodiment, it is assumed that a message image to be combined is stored in the HDD 204 or the like in association with each range level. Then, the image generation unit 309 combines the message image associated with the range level with the captured image. Next, in S507, the display control unit 310 controls the display unit 222 of the HMD 120 to display the composite image generated in S506. Specifically, the display control unit 310 transmits an instruction to the HMD 120 via the communication unit 207 to display the composite image generated in S506. When the HMD 120 receives the instruction, the display unit 222 displays the combined image according to the instruction. Thereby, a visual stimulus can be given to the worker.

例えば逸脱度が最下位の範囲レベルに属する場合には、画像生成部309は、撮像画像に警告メッセージを合成する。そして、これに対応し、HMD120の表示部222は、警告メッセージの合成画像を表示する。また例えば、逸脱度が最上位の範囲レベルに属する場合には、警告メッセージに加え、修正すべき位置姿勢方向へ矢印CGを合成する。これにより、より具体的なティーチングを作業者に与え、適切な模擬工具110の使い方を促すことができる。 For example, when the deviation degree belongs to the lowest range level, the image generation unit 309 synthesizes a warning message with the captured image. Then, in response to this, the display unit 222 of the HMD 120 displays the composite image of the warning message. Further, for example, when the deviation degree belongs to the highest range level, in addition to the warning message, the arrow CG is combined in the position/orientation direction to be corrected. As a result, more specific teaching can be given to the operator and the proper use of the simulated tool 110 can be prompted.

次に、S508において、CPU201は、作業者による模擬工具110を用いた作業が終了したか否かを確認する。CPU201は、模擬工具110から作業終了の通知を受信した場合に作業終了と判断するものとする。CPU201は、作業が終了した場合には(S508でYes)、処理を終了する。CPU201は、作業が終了していない場合には(S508でNo)、処理をS500へ進め、処理を継続する。 Next, in S508, the CPU 201 confirms whether or not the work by the worker using the simulated tool 110 is completed. It is assumed that the CPU 201 determines that the work is completed when the notification of the work completion is received from the simulation tool 110. When the work is completed (Yes in S508), the CPU 201 ends the process. When the work is not completed (No in S508), the CPU 201 advances the process to S500 and continues the process.

続いて、図6を参照しつつ、作業トレーニングについて、具体的に説明する。図6(A)に示すように、作業者Aは、HMD120を装着し、電動スプレーを模した模擬工具110を使って仮想塗料を噴霧しながら模擬工具110を動かしていく。ここでは、仮想物体130に対して厚みの一定な塗膜を塗布する作業を実施する。作業は、開始点P0から噴霧をはじめ、左右に模擬工具110を動かしながら仮想物体130の上部から下部へ噴霧し、終了点P20で作業終了とするものとする。本実施形態においては、情報処理装置100の画像生成部309は、仮想物体130上にさらに開始点P0から終了点P20までの基準軌跡を重畳した合成画像を生成し、HMD120の表示部222は、基準軌跡が重畳された合成画像を表示するものとする。仮想物体130、模擬工具110、HMD120は、複合現実感システムにおける共通の仮想空間座標600を基準として扱われる。 Next, the work training will be specifically described with reference to FIG. As shown in FIG. 6A, the worker A wears the HMD 120 and moves the simulated tool 110 while spraying the virtual paint using the simulated tool 110 simulating an electric spray. Here, the work of applying a coating film having a constant thickness to the virtual object 130 is performed. It is assumed that the work starts spraying from the start point P0, sprays from the upper part to the lower part of the virtual object 130 while moving the simulated tool 110 to the left and right, and ends the work at the end point P20. In the present embodiment, the image generation unit 309 of the information processing device 100 generates a composite image in which the reference trajectory from the start point P0 to the end point P20 is further superimposed on the virtual object 130, and the display unit 222 of the HMD 120 displays It is assumed that the composite image on which the reference trajectory is superimposed is displayed. The virtual object 130, the simulated tool 110, and the HMD 120 are treated with the common virtual space coordinates 600 in the mixed reality system as a reference.

図6(B)は、仮想空間座標600における模擬工具110のY座標(太破線)と、刺激発生部212により出力される電圧波形(太実線)を、時間軸に対してプロットした図である。図6(B)のP0、P1、・・・、P7は、図6(A)のP0、P1、・・・、P7に対応している。基準範囲は、熟練作業者による模擬工具110の軌跡をもとに作られたものである。基準範囲は、時刻に応じて変動する場合があり、図6(A)の例では、P4からP6の作業範囲における基準範囲は、P0からP3の基準範囲に比べて狭くなっている。 FIG. 6B is a diagram in which the Y coordinate (thick broken line) of the simulation tool 110 in the virtual space coordinate 600 and the voltage waveform (thick solid line) output by the stimulation generation unit 212 are plotted with respect to the time axis. .. P0, P1,..., P7 in FIG. 6B correspond to P0, P1,..., P7 in FIG. 6A. The reference range is created based on the trajectory of the simulated tool 110 by a skilled worker. The reference range may change depending on the time, and in the example of FIG. 6A, the reference range in the work range of P4 to P6 is narrower than the reference range of P0 to P3.

図4(B)の例では、作業者Aは開始点P0から噴霧をはじめ、P2までは、Y基準範囲内で模擬工具110を操作できている。この間は、刺激発生部212には、最小のパルス幅でパルス電圧が印加されている。P2からP3の作業範囲では、工具軌跡がY基準軌跡から外れている。ここで、逸脱度は、図6(B)中のY基準範囲の領域境界から、模擬工具110の軌跡を示す太破線までの垂直方向の距離に相当する。逸脱度に応じて、印加電圧のパルス幅が制御される。このようなパルス幅の大小に伴い、作業者Aが模擬工具110を介して受ける振動刺激が大小する。この仕組みによって、作業者Aは自身が逸脱許容からどれほど離れて模擬工具110を操作しているか、一連の作業をしながらリアルタイムで体感することができる。 In the example of FIG. 4B, the worker A can start the spraying from the start point P0 and can operate the simulated tool 110 within the Y reference range from P2 to P2. During this time, the pulse voltage is applied to the stimulus generator 212 with the minimum pulse width. In the working range of P2 to P3, the tool locus deviates from the Y reference locus. Here, the deviation degree corresponds to the distance in the vertical direction from the region boundary of the Y reference range in FIG. 6B to the thick broken line indicating the trajectory of the simulated tool 110. The pulse width of the applied voltage is controlled according to the degree of deviation. According to the magnitude of the pulse width, the vibration stimulus that the worker A receives through the simulated tool 110 becomes large or small. With this mechanism, the worker A can experience in real time how far he/she is operating the simulated tool 110 from the deviation allowance while performing a series of operations.

作業の折り返し地点であるP4からP6の作業範囲においても、工具軌跡はY基準範囲から外れている。このため、この範囲においても、逸脱度に相当した振動刺激が提示される。P6以降は、工具軌跡はY基準範囲内になるため、最小のパルス幅でパルス電圧が印加され、それに応じた振動刺激が提示される。 In the work range from P4 to P6, which is the turning point of the work, the tool locus is outside the Y reference range. Therefore, even in this range, the vibration stimulus corresponding to the deviation degree is presented. After P6, since the tool locus is within the Y reference range, the pulse voltage is applied with the minimum pulse width, and the vibration stimulus is presented accordingly.

図6(C)は、仮想空間座標600における模擬工具110の垂直方向の回転座標Qz(太破線)を、時間軸に対してプロットした図である。また図6(D)は、HMD120の表示部222の表示例を示す図である。開始点P0からP3において、作業者Aは、Qz基準範囲内にて模擬工具110を操作しているが、作業の折り返し地点であるP4からP6の作業範囲では、工具軌跡がY基準範囲から外れている。このように、工具軌跡がY基準範囲から外れると、図6(D)に示すように、「矢印の方向へ傾けましょう」といった警告メッセージ611と矢印画像612が仮想物体と共に合成された撮像画像が表示部222に表示される。表示制御部310はさらに、逸脱度によっては、作業者Aに対し正しい軌跡に復帰するよう促すメッセージを表示するように制御してもよい。なお工具軌跡がY基準範囲内にある場合には、警告メッセージ611及び矢印画像612は表示されない。 FIG. 6C is a diagram in which the vertical rotation coordinates Qz (thick broken line) of the simulated tool 110 in the virtual space coordinates 600 are plotted with respect to the time axis. Further, FIG. 6D is a diagram showing a display example of the display unit 222 of the HMD 120. At the starting points P0 to P3, the worker A operates the simulated tool 110 within the Qz reference range, but the tool locus deviates from the Y reference range in the work range of P4 to P6, which is the turning point of the work. ing. In this way, when the tool path deviates from the Y reference range, as shown in FIG. 6D, a captured image in which a warning message 611 such as “Let's tilt in the direction of the arrow” and the arrow image 612 are combined with the virtual object. Is displayed on the display unit 222. The display control unit 310 may further control to display a message prompting the worker A to return to the correct trajectory depending on the degree of deviation. If the tool path is within the Y reference range, the warning message 611 and the arrow image 612 are not displayed.

以上説明したように、本実施形態によれば、作業者は、模擬工具110やHMD120を用いて仮想物体を操作するトレーニングを通して、振動による触覚刺激や音声による聴覚刺激などの感覚刺激をその強弱を含めて知覚することができる。このような感覚刺激をトレーニングツールが提示することで、作業者は、自身が修正すべき作業箇所をリアルタイムに把握し、熟練作業者に倣った適切な作業を習得することが可能である。すなわち、本実施形態に係る支援システムは、作業者が適切な作業を習得するのを支援する技術を提供することができる。 As described above, according to the present embodiment, the worker increases the strength of the sensory stimulus such as the tactile stimulus by the vibration or the auditory stimulus by the sound through the training for operating the virtual object using the simulated tool 110 and the HMD 120. It can be perceived including. By presenting such sensory stimuli by the training tool, the worker can grasp the work place to be corrected by him/herself in real time and learn an appropriate work in the same manner as a skilled worker. That is, the support system according to the present embodiment can provide a technique for assisting a worker in learning an appropriate work.

次に、第1の実施形態の変更例について説明する。第1の変更例としては、本実施形態においては、模擬工具110が模擬工具110の状態を検知したが、状態検知の主体は模擬工具110に限定されるものではない。他の例としては、HMD120が撮像画像に基づいて、状態を検知してもよい。具体的には、模擬工具110には、状態検知のための指標が添付されているものとする。そして、HMD120は模擬工具110を撮像し、得られた撮像画像内の指標の画像内座標と、3次元座標との対応関係に基づいて、模擬工具110の状態を特定してもよい。また、情報処理装置100が、HMD120から撮像画像を取得し、撮像画像から模擬工具110の状態を特定してもよい。また、情報処理装置100は、撮像画像から状態を特定し、さらに実施形態において説明したように、模擬工具110から状態情報を取得し、これらの情報を総合して、状態情報を得ることとしてもよい。 Next, a modified example of the first embodiment will be described. As a first modified example, in the present embodiment, the simulated tool 110 detects the state of the simulated tool 110, but the subject of state detection is not limited to the simulated tool 110. As another example, the HMD 120 may detect the state based on the captured image. Specifically, it is assumed that the simulated tool 110 is attached with an index for state detection. Then, the HMD 120 may capture an image of the simulated tool 110, and specify the state of the simulated tool 110 based on the correspondence relationship between the in-image coordinates of the index in the obtained captured image and the three-dimensional coordinates. Moreover, the information processing apparatus 100 may acquire a captured image from the HMD 120 and specify the state of the simulated tool 110 from the captured image. Further, the information processing apparatus 100 may specify the state from the captured image, acquire the state information from the simulated tool 110, and combine the information to obtain the state information as described in the embodiment. Good.

第2の変更例としては、工具軌跡情報及び基準軌跡情報は、軌跡情報だけでなく、各軌跡情報を時間微分することで得られる移動速度情報を含んでもよい。さらに、この場合、逸脱判定部305は、工具軌跡と基準軌跡の比較において、移動速度の比較も行う。そして、逸脱判定部305は、この比較結果に基づいて、作業者の模擬工具110の移動速度(速度及び角速度)の、基準軌跡に係る移動速度(速度及び角速度)からの逸脱を考慮し、総合的な逸脱度を算出するものとする。 As a second modification, the tool locus information and the reference locus information may include not only the locus information, but also moving speed information obtained by differentiating each locus information with respect to time. Further, in this case, the deviation determining unit 305 also compares the moving speeds in the comparison between the tool trajectory and the reference trajectory. Then, the deviation determination unit 305 considers deviation of the moving speed (speed and angular speed) of the simulated tool 110 of the worker from the moving speed (speed and angular speed) related to the reference trajectory based on the comparison result, and comprehensively. Degree of deviation should be calculated.

また、工具軌跡情報及び基準軌跡情報は、移動速度に替えて、各軌跡情報を時間に関し二階微分を施すことで得られる移動加速度情報を含んでもよい。さらに、この場合、逸脱判定部305は、工具軌跡と基準軌跡の比較において、移動加速度の比較も行う。そして、逸脱判定部305は、この比較結果に基づいて、作業者の模擬工具110の移動加速度(加速度及び角加速度)の基準軌跡に係る移動加速度(加速度及び角加速度)からの逸脱を考慮し、総合的な逸脱度を算出するものとする。 Further, the tool locus information and the reference locus information may include moving acceleration information obtained by subjecting each locus information to second-order differentiation with respect to time, instead of moving speed. Further, in this case, the deviation determination unit 305 also compares the moving accelerations in the comparison between the tool trajectory and the reference trajectory. Then, the deviation determination unit 305 considers the deviation of the moving acceleration (acceleration and angular acceleration) of the simulated tool 110 of the worker from the moving acceleration (acceleration and angular acceleration) related to the reference trajectory based on the comparison result. The total deviance shall be calculated.

第3の変更例としては、刺激制御部306は、逸脱度に応じて、異なる刺激が発生されるように刺激発生部212を制御すればよく、刺激発生に係る具体的な制御は実施形態に限定されるものではない。例えば、刺激制御部306は、逸脱度を複数段に分けるのに替えて、逸脱度に比例して刺激強度を大きくするよう刺激発生部212を制御してもよい。また、他の例としては、刺激制御部306は、基準範囲内においても、同様に逸脱度に応じた刺激を発生するよう制御してもよい。また、刺激制御部306は、逸脱度に応じて、刺激の強度に替えて、刺激の種類を異ならせてもよい。例えば、刺激制御部306は、刺激の間欠振動の振動時間の長短を制御してもよい。また、刺激制御部306は、振動周波数の高低を制御してもよい。 As a third modification, the stimulus control unit 306 may control the stimulus generation unit 212 so that different stimuli are generated according to the deviation degree, and specific control relating to stimulus generation is performed in the embodiment. It is not limited. For example, the stimulation control unit 306 may control the stimulation generation unit 212 to increase the stimulation intensity in proportion to the departure degree instead of dividing the departure degree into a plurality of stages. Further, as another example, the stimulus control unit 306 may also control to generate a stimulus according to the degree of deviation even within the reference range. Further, the stimulation control unit 306 may change the type of stimulation in place of the intensity of stimulation depending on the degree of deviation. For example, the stimulation control unit 306 may control the length of the vibration time of the intermittent vibration of the stimulation. Further, the stimulation control unit 306 may control the level of the vibration frequency.

第4の変更例としては、模擬工具110は、刺激発生装置としてスピーカを備えてもよい。そして、この場合には、刺激制御部306は、逸脱度に応じて、スピーカからのブザー音の大小を制御してもよく、またブザー音の周波数の高低を制御してもよく、ブザー音パターンを変更するよう制御してもよい。 As a fourth modification, the simulation tool 110 may include a speaker as a stimulus generator. Then, in this case, the stimulus control unit 306 may control the size of the buzzer sound from the speaker, or may control the high and low of the frequency of the buzzer sound according to the departure degree, and the buzzer sound pattern. May be controlled to be changed.

第5の変更例としては、支援システムの各装置が行う処理、特に情報処理装置100が行う処理は、支援システム内のいずれかの装置が行えばよく、その主体となる装置は実施形態に限定されるものではない。例えば、工具軌跡情報の生成は、模擬工具110が行ってもよい。 As a fifth modified example, the process performed by each device of the support system, particularly the process performed by the information processing device 100 may be performed by any device in the support system, and the main device thereof is limited to the embodiment. It is not something that will be done. For example, the simulated tool 110 may generate the tool trajectory information.

第6の変更例としては、支援システムは、模擬工具110を用いたトレーニングを支援するものであればよく、支援対象は、複合現実空間におけるトレーニングに限定されるものではない。 As a sixth modification, the support system only needs to support the training using the simulated tool 110, and the support target is not limited to the training in the mixed reality space.

以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。 Although the preferred embodiments of the present invention have been described above in detail, the present invention is not limited to the specific embodiments, and various modifications are possible within the scope of the gist of the present invention described in the claims. -Can be changed.

(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program. It can also be realized by the processing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

100 情報処理装置
110 模擬工具
120 HMD
100 Information Processing Device 110 Simulated Tool 120 HMD

Claims (13)

ユーザによる操作時の模擬工具の位置及び姿勢のうち少なくとも一方の状態を示す状態情報を取得する状態取得手段と、
前記状態情報の時系列情報に基づいて、前記模擬工具の状態の軌跡を示す工具軌跡情報を生成する軌跡生成手段と、
前記工具軌跡情報と、記憶手段に予め記憶された、前記模擬工具の状態の基準軌跡を示し、基準範囲が時刻に応じて変動する基準軌跡情報と、に基づいて、前記ユーザに対する刺激を発生する刺激発生装置を制御する刺激制御手段とを有することを特徴とする情報処理装置。
A state acquisition unit that acquires state information indicating the state of at least one of the position and the posture of the simulated tool at the time of operation by the user,
Trajectory generating means for generating tool trajectory information indicating a trajectory of the state of the simulated tool, based on time-series information of the state information,
Said tool path information was stored in the memory means, wherein indicates the reference trajectory of the state of the simulated tool, the reference locus information reference range varies according to the time, based on the occurrence of irritation to the user And a stimulus control means for controlling the stimulus generator.
前記軌跡生成手段は、前記状態情報の時系列情報における移動速度情報を前記工具軌跡情報として生成することを特徴とする請求項1に記載の情報処理装置。 The information processing apparatus according to claim 1, wherein the trajectory generation means generates movement speed information in the time-series information of the state information as the tool trajectory information. 前記軌跡生成手段は、前記状態情報の時系列情報における移動加速度情報を前記工具軌跡情報として生成することを特徴とする請求項1に記載の情報処理装置。 The information processing apparatus according to claim 1, wherein the trajectory generation means generates movement acceleration information in the time-series information of the state information as the tool trajectory information. 前記刺激制御手段は、前記工具軌跡情報と前記基準軌跡情報との差分に基づいて刺激を生成するよう制御することを特徴とする請求項1乃至3の何れか1項に記載の情報処理装置。 The stimulation control unit, an information processing apparatus according to any one of claims 1 to 3, wherein the controller controls so as to generate a stimulation based on a difference between the tool locus information and the reference trajectory information. 前記刺激制御手段は、前記工具軌跡情報と前記基準軌跡情報との差分が基準範囲を超える場合に、前記刺激を生成するよう前記刺激発生装置を制御することを特徴とする請求項に記載の情報処理装置。 The stimulation control unit, when the difference between the tool locus information and the reference locus information exceeds the reference range, according to claim 4, wherein the controller controls the stimulus generator to generate said stimulus Information processing device. 前記刺激制御手段は、前記工具軌跡情報と前記基準軌跡情報との差分が基準範囲を超える場合に、前記差分に応じた刺激を生成するよう制御することを特徴とする請求項に記載の情報処理装置。 The information according to claim 5 , wherein the stimulus control means controls to generate a stimulus according to the difference when the difference between the tool trajectory information and the reference trajectory information exceeds a reference range. Processing equipment. 前記模擬工具の存在する現実空間の撮像画像を取得する画像取得手段と、
前記撮像画像に、前記ユーザに提示する提示情報を合成した合成画像を生成する画像生成手段と、
前記工具軌跡情報と、前記基準軌跡情報と、に基づいて、前記合成画像の表示手段への表示を制御する表示制御手段とをさらに有することを特徴とする請求項1乃至6の何れか1項に記載の情報処理装置。
Image acquisition means for acquiring a captured image of the physical space in which the simulated tool exists,
Image generating means for generating a combined image in which presentation information to be presented to the user is combined with the captured image,
It said tool path information, and the reference locus information, on the basis of any one of claims 1 to 6, further comprising a display control means for controlling the display on the display means of the composite image The information processing device according to 1.
前記画像生成手段は、前記提示情報として警告メッセージを合成した前記合成画像を生成することを特徴とする請求項に記載の情報処理装置。 The information processing apparatus according to claim 7 , wherein the image generation unit generates the combined image in which a warning message is combined as the presentation information. 前記画像生成手段は、前記模擬工具の前記基準軌跡を前記提示情報として合成した前記合成画像を生成することを特徴とする請求項に記載の情報処理装置。 The information processing apparatus according to claim 7 , wherein the image generation unit generates the combined image in which the reference trajectory of the simulated tool is combined as the presentation information. ユーザにより操作される模擬工具と、
前記ユーザに対して刺激を発生する刺激発生装置と、
前記模擬工具の位置及び姿勢のうち少なくとも一方の状態を示す状態情報を取得する状態取得手段と、
前記状態情報の時系列情報に基づいて、前記模擬工具の状態の軌跡を示す工具軌跡情報を生成する軌跡生成手段と、
前記工具軌跡情報と、記憶手段に予め記憶された、前記模擬工具の状態の基準軌跡を示し、基準範囲が時刻に応じて変動する基準軌跡情報と、に基づいて、前記刺激発生装置を制御する刺激制御手段とを有することを特徴とする情報処理システム。
A simulated tool operated by the user,
A stimulus generator for generating a stimulus to the user;
A status acquisition unit that acquires status information indicating at least one of the position and the attitude of the simulated tool,
Trajectory generating means for generating tool trajectory information indicating a trajectory of the state of the simulated tool, based on time-series information of the state information,
Said tool path information was stored in the memory means, wherein indicates the reference trajectory of the state of the simulated tool, the reference locus information reference range varies according to the time, based on the control of the stimulus generating device An information processing system, comprising:
前記刺激発生装置を前記模擬工具に設けたことを特徴とする請求項10に記載の情報処理システム。 The information processing system according to claim 10 , wherein the stimulus generator is provided in the simulated tool. 情報処理装置が実行する情報処理方法であって、
ユーザによる操作時の模擬工具の位置及び姿勢のうち少なくとも一方の状態を示す状態情報を取得する状態取得ステップと、
前記状態情報の時系列情報に基づいて、前記模擬工具の状態の軌跡を示す工具軌跡情報を生成する軌跡生成ステップと、
前記工具軌跡情報と、記憶手段に予め記憶された、前記模擬工具の状態の基準軌跡を示し、基準範囲が時刻に応じて変動する基準軌跡情報と、に基づいて、前記ユーザに対する刺激を発生する刺激発生装置を制御する刺激制御ステップとを含むことを特徴とする情報処理方法。
An information processing method executed by an information processing device, comprising:
A state acquisition step of acquiring state information indicating at least one of the position and orientation of the simulated tool at the time of operation by the user,
A trajectory generation step of generating tool trajectory information indicating a trajectory of the state of the simulated tool, based on time-series information of the state information,
Said tool path information was stored in the memory means, wherein indicates the reference trajectory of the state of the simulated tool, the reference locus information reference range varies according to the time, based on the occurrence of irritation to the user And a stimulus control step for controlling the stimulus generator.
コンピュータを、
ユーザによる操作時の模擬工具の位置及び姿勢のうち少なくとも一方の状態を示す状態情報を取得する状態取得手段と、
前記状態情報の時系列情報に基づいて、前記模擬工具の状態の軌跡を示す工具軌跡情報を生成する軌跡生成手段と、
前記工具軌跡情報と、記憶手段に予め記憶された、前記模擬工具の状態の基準軌跡を示し、基準範囲が時刻に応じて変動する基準軌跡情報と、に基づいて、前記ユーザに対する刺激を発生する刺激発生装置を制御する刺激制御手段として機能させるためのプログラム。
Computer,
A state acquisition unit that acquires state information indicating the state of at least one of the position and the posture of the simulated tool at the time of operation by the user,
Trajectory generating means for generating tool trajectory information indicating a trajectory of the state of the simulated tool, based on time-series information of the state information,
Said tool path information was stored in the memory means, wherein indicates the reference trajectory of the state of the simulated tool, the reference locus information reference range varies according to the time, based on the occurrence of irritation to the user A program for functioning as a stimulus control means for controlling the stimulus generator.
JP2016011584A 2016-01-25 2016-01-25 Information processing apparatus, information processing method, and program Active JP6736298B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016011584A JP6736298B2 (en) 2016-01-25 2016-01-25 Information processing apparatus, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016011584A JP6736298B2 (en) 2016-01-25 2016-01-25 Information processing apparatus, information processing method, and program

Publications (2)

Publication Number Publication Date
JP2017134116A JP2017134116A (en) 2017-08-03
JP6736298B2 true JP6736298B2 (en) 2020-08-05

Family

ID=59504942

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016011584A Active JP6736298B2 (en) 2016-01-25 2016-01-25 Information processing apparatus, information processing method, and program

Country Status (1)

Country Link
JP (1) JP6736298B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111095317A (en) * 2017-09-08 2020-05-01 日铁系统集成株式会社 Information processing system, information processing device, information processing method, program, and storage medium
JP2019197165A (en) * 2018-05-10 2019-11-14 日本電気株式会社 Work training device, work training method, and program
JP2019219727A (en) * 2018-06-15 2019-12-26 三菱電機エンジニアリング株式会社 Evaluation device, evaluation system and evaluation program
JP7014698B2 (en) * 2018-11-20 2022-02-01 株式会社日立システムズ Training material presentation system and training material presentation method
JP7184614B2 (en) * 2018-11-30 2022-12-06 ダイハツ工業株式会社 Painting simulation evaluation system
JP7351523B2 (en) 2020-05-26 2023-09-27 国立大学法人 東京大学 System and operating method

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012218058A (en) * 2011-04-13 2012-11-12 Sumitomo Heavy Industries Marine & Engineering Co Ltd Welding simulator
US9767712B2 (en) * 2012-07-10 2017-09-19 Lincoln Global, Inc. Virtual reality pipe welding simulator and setup
KR20140112207A (en) * 2013-03-13 2014-09-23 삼성전자주식회사 Augmented reality imaging display system and surgical robot system comprising the same
JP2015225214A (en) * 2014-05-28 2015-12-14 旭エレクトロニクス株式会社 Simulation system

Also Published As

Publication number Publication date
JP2017134116A (en) 2017-08-03

Similar Documents

Publication Publication Date Title
JP6736298B2 (en) Information processing apparatus, information processing method, and program
JP4921113B2 (en) Contact presentation apparatus and method
CN110096131B (en) Touch interaction method and device and touch wearable equipment
US9760166B2 (en) Haptic system for establishing a contact free interaction between at least one part of a user's body and a virtual environment
EP3055744B1 (en) A method and a device for verifying one or more safety volumes for a movable mechanical unit
JP6678832B2 (en) Remote control manipulator system and control device
JP2009276996A (en) Information processing apparatus, and information processing method
JP2009069918A (en) Information processor and information processing method
JP2008123431A (en) Contact presenting device and method
JP2018008347A (en) Robot system and operation region display method
EP3489804A1 (en) Haptic accessory apparatus
CN105729466A (en) Robot identification system
CN106326523B (en) Information processing apparatus, information processing method, and computer program
JP6625266B1 (en) Robot controller
JP2009087161A (en) Image processor and image processing method
Fani et al. Multi-cue haptic guidance through wearables for enhancing human ergonomics
JP2020011357A (en) Control device, head mount display and robot system
JP2004178222A (en) Method for evaluating assemblability and assemblability evaluation supporting device using the method
JP7125872B2 (en) Work support device and work support method
JP5235424B2 (en) Information processing apparatus and method
WO2020137122A1 (en) Work assistance device and work assistance method
JP6827193B2 (en) Display system, server, display method and equipment
JPH09300256A (en) Robot teaching method and device
Lee et al. Visual guidance for a spatial discrepancy problem of in encountered-type haptic display
WO2017141570A1 (en) Monitoring device, control device, control system, monitoring method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190124

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190918

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191029

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200616

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200715

R151 Written notification of patent or utility model registration

Ref document number: 6736298

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151