JP2021096504A - Information processing method, information processing device and program - Google Patents

Information processing method, information processing device and program Download PDF

Info

Publication number
JP2021096504A
JP2021096504A JP2019225317A JP2019225317A JP2021096504A JP 2021096504 A JP2021096504 A JP 2021096504A JP 2019225317 A JP2019225317 A JP 2019225317A JP 2019225317 A JP2019225317 A JP 2019225317A JP 2021096504 A JP2021096504 A JP 2021096504A
Authority
JP
Japan
Prior art keywords
component
virtual
tactile
virtual component
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019225317A
Other languages
Japanese (ja)
Inventor
慎一 小柴
Shinichi Koshiba
慎一 小柴
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2019225317A priority Critical patent/JP2021096504A/en
Publication of JP2021096504A publication Critical patent/JP2021096504A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide an information processing method capable of evaluating assemblability of components in which tactile sense felt by a worker is considered.SOLUTION: An information processing method for evaluating assemblability of components by using a system including an operation unit, a detection unit and a tactile sense generation unit includes: acquiring positions and poses of a first virtual component and a second virtual component calculated from a position and pose of the operation unit detected by the detection unit (S13); generating tactile sense information related to the tactile sense given to a worker, based on a contact state with the first virtual component and the second virtual component estimated from the acquired positions and poses of the first virtual component and the second virtual component (S15); and outputting the generated tactile sense information to the tactile sense generation unit (S16).SELECTED DRAWING: Figure 3

Description

本開示は、情報処理方法、情報処理装置及びプログラムに関する。 The present disclosure relates to information processing methods, information processing devices and programs.

部品の組み立て性を評価するシステムとして、実際の部品の仮想映像である仮想部品等を用いるシステムが知られている(例えば、特許文献1参照)。 As a system for evaluating the assemblability of parts, a system using a virtual part or the like which is a virtual image of an actual part is known (see, for example, Patent Document 1).

特開2012−113418号公報Japanese Unexamined Patent Publication No. 2012-11418

しかしながら、上記特許文献1に開示されたシステムでは、仮想部品等を用いるため、現実において作業者が感じる触覚を考慮した部品の組み立て性の評価ができない。 However, since the system disclosed in Patent Document 1 uses virtual parts and the like, it is not possible to evaluate the assembleability of parts in consideration of the tactile sensation felt by the operator in reality.

そこで、本開示は、作業者の感じる触覚を考慮した部品の組み立て性の評価が可能な情報処理方法、情報処理装置及びプログラムを提供することを目的とする。 Therefore, an object of the present disclosure is to provide an information processing method, an information processing device, and a program capable of evaluating the assemblability of parts in consideration of the tactile sensation felt by an operator.

本開示の一態様に係る情報処理方法は、第1部品及び第2部品の設計データを用いて生成された前記第1部品及び前記第2部品の仮想映像である第1仮想部品及び第2仮想部品の位置及び姿勢を操作するための操作部、前記操作部の位置及び姿勢を検出する検知部、前記操作部を操作する作業者に触覚を与える触覚発生部を含むシステムを用いて部品の組み立て性を評価するための情報処理方法であって、前記検知部で検出された前記操作部の位置及び姿勢から算出される前記第1仮想部品及び前記第2仮想部品の位置及び姿勢を取得し、取得した前記第1仮想部品及び前記第2仮想部品の位置及び姿勢から推定される前記第1仮想部品と前記第2仮想部品との接触状態に基づいて、前記作業者に与える触覚に係る触覚情報を生成し、生成した前記触覚情報を前記触覚発生部に出力する、ことを含む。 The information processing method according to one aspect of the present disclosure is a first virtual component and a second virtual image which are virtual images of the first component and the second component generated by using the design data of the first component and the second component. Assembling parts using a system including an operation unit for manipulating the position and posture of a part, a detection unit for detecting the position and posture of the operation unit, and a tactile generation unit for giving a tactile sensation to an operator who operates the operation unit. It is an information processing method for evaluating the property, and acquires the positions and postures of the first virtual component and the second virtual component calculated from the positions and postures of the operation unit detected by the detection unit. Tactile information related to the tactile sensation given to the worker based on the contact state between the first virtual component and the second virtual component estimated from the acquired positions and postures of the first virtual component and the second virtual component. Is generated, and the generated tactile information is output to the tactile generation unit.

本開示の一態様に係る情報処理装置は、第1部品及び第2部品の設計データを用いて生成された前記第1部品及び前記第2部品の仮想映像である第1仮想部品及び第2仮想部品の位置及び姿勢を操作するための操作部、前記操作部の位置及び姿勢を検出する検知部、前記操作部を操作する作業者に触覚を与える触覚発生部を含むシステムを用いて部品の組み立て性を評価するための情報処理装置であって、プロセッサと、前記プロセッサによって実行可能なプログラムが記憶されたメモリと、を備え、前記プロセッサは、前記メモリに記憶された前記プログラムを用いて、前記検知部で検出された前記操作部の位置及び姿勢から算出される前記第1仮想部品及び前記第2仮想部品の位置及び姿勢を取得し、取得した前記第1仮想部品及び前記第2仮想部品の位置及び姿勢から推定される前記第1仮想部品と前記第2仮想部品との接触状態に基づいて、前記作業者に与える触覚に係る触覚情報を生成し、生成した前記触覚情報を前記触覚発生部に出力する。 The information processing unit according to one aspect of the present disclosure is a first virtual component and a second virtual image which are virtual images of the first component and the second component generated by using the design data of the first component and the second component. Assembly of parts using a system including an operation unit for manipulating the position and orientation of parts, a detection unit for detecting the position and orientation of the operation unit, and a tactile generation unit for giving a tactile sensation to an operator who operates the operation unit. An information processing device for evaluating sex, which includes a processor and a memory in which a program that can be executed by the processor is stored, and the processor uses the program stored in the memory to perform the above-mentioned. The positions and orientations of the first virtual component and the second virtual component calculated from the position and orientation of the operation unit detected by the detection unit are acquired, and the acquired first virtual component and the second virtual component Based on the contact state between the first virtual component and the second virtual component estimated from the position and posture, tactile information related to the tactile sensation given to the worker is generated, and the generated tactile sensation information is used as the tactile sensation generating unit. Output to.

本開示の一態様に係るプログラムは、上記の情報処理方法をコンピュータに実行させるためのプログラムである。 The program according to one aspect of the present disclosure is a program for causing a computer to execute the above information processing method.

本開示は、作業者の感じる触覚を考慮した部品の組み立て性の評価が可能な情報処理方法、情報処理装置及びプログラムを提供できる。 The present disclosure can provide an information processing method, an information processing device, and a program capable of evaluating the assemblability of parts in consideration of the tactile sensation felt by an operator.

図1は、実施の形態に係る評価システムの概要を示す模式図である。FIG. 1 is a schematic diagram showing an outline of an evaluation system according to an embodiment. 図2は、実施の形態に係る評価システムの構成例を示すブロック図である。FIG. 2 is a block diagram showing a configuration example of the evaluation system according to the embodiment. 図3は、実施の形態に係るサーバの動作の一例を示すフローチャートである。FIG. 3 is a flowchart showing an example of the operation of the server according to the embodiment. 図4Aは、実施の形態に係るヘッドセットにおいて表示される、第1仮想部品及び第2仮想部品のイメージを示す図である。FIG. 4A is a diagram showing images of a first virtual component and a second virtual component displayed on the headset according to the embodiment. 図4Bは、実施の形態に係るヘッドセットにおいて表示される、接触している第1仮想部品及び第2仮想部品のイメージを示す図である。FIG. 4B is a diagram showing images of the first virtual component and the second virtual component in contact, which are displayed in the headset according to the embodiment. 図4Cは、実施の形態に係るヘッドセットにおいて表示される、嵌まり合っている第1仮想部品及び第2仮想部品のイメージを示す図である。FIG. 4C is a diagram showing images of the first virtual component and the second virtual component that are fitted to each other, which are displayed in the headset according to the embodiment. 図5は、実施の形態に係る蓄積部に予め記憶された嵌め合い抵抗の一例を示す表である。FIG. 5 is a table showing an example of the fitting resistance stored in advance in the storage portion according to the embodiment.

本開示の一態様に係る情報処理方法は、第1部品及び第2部品の設計データを用いて生成された前記第1部品及び前記第2部品の仮想映像である第1仮想部品及び第2仮想部品の位置及び姿勢を操作するための操作部、前記操作部の位置及び姿勢を検出する検知部、前記操作部を操作する作業者に触覚を与える触覚発生部を含むシステムを用いて部品の組み立て性を評価するための情報処理方法であって、前記検知部で検出された前記操作部の位置及び姿勢から算出される前記第1仮想部品及び前記第2仮想部品の位置及び姿勢を取得し、取得した前記第1仮想部品及び前記第2仮想部品の位置及び姿勢から推定される前記第1仮想部品と前記第2仮想部品との接触状態に基づいて、前記作業者に与える触覚に係る触覚情報を生成し、生成した前記触覚情報を前記触覚発生部に出力する、ことを含む。 The information processing method according to one aspect of the present disclosure is a first virtual component and a second virtual image which are virtual images of the first component and the second component generated by using the design data of the first component and the second component. Assembling parts using a system including an operation unit for manipulating the position and posture of a part, a detection unit for detecting the position and posture of the operation unit, and a tactile generation unit for giving a tactile sensation to an operator who operates the operation unit. It is an information processing method for evaluating the property, and acquires the positions and postures of the first virtual component and the second virtual component calculated from the positions and postures of the operation unit detected by the detection unit. Tactile information related to the tactile sensation given to the worker based on the contact state between the first virtual component and the second virtual component estimated from the acquired positions and postures of the first virtual component and the second virtual component. Is generated, and the generated tactile information is output to the tactile generation unit.

これによれば、仮想映像である第1仮想部品と第2仮想部品との接触状態に基づいて、作業者に与える触覚に係る触覚情報が生成され触覚発生部に出力される。このため、作業者は、実際の第1部品と第2部品との組み立て作業の際に感じる触覚を、触覚発生部を介して仮想的に感じることができる。したがって、作業者の感じる触覚を考慮した部品の組み立て性の評価が可能となる。例えば、作業者によって作業にばらつきがあったり、部品によって寸法にばらつきがあったりするが、本態様によれば、部品を試作する前に、仮想部品を用いて作業者の感じる触覚を考慮しながら容易に繰り返し組み立て作業のシミュレーションを行うことができる。よって、作業者の感じる触覚を考慮した部品の組み立て性の評価が可能となる。そして、評価結果を用いて、工程設計及び部品設計を効果的に行うことができる。 According to this, tactile information related to the tactile sensation given to the operator is generated and output to the tactile sensation generating unit based on the contact state between the first virtual component and the second virtual component which is a virtual image. Therefore, the operator can virtually feel the tactile sensation felt during the actual assembly work of the first component and the second component through the tactile sensation generating unit. Therefore, it is possible to evaluate the assembleability of parts in consideration of the tactile sensation felt by the operator. For example, the work may vary depending on the worker, or the dimensions may vary depending on the part. According to this embodiment, before making a prototype of the part, the tactile sensation felt by the worker is taken into consideration by using the virtual part. It is possible to easily simulate repetitive assembly work. Therefore, it is possible to evaluate the assembling property of the parts in consideration of the tactile sensation felt by the operator. Then, the process design and the component design can be effectively performed by using the evaluation result.

例えば、前記触覚情報の生成では、前記第1仮想部品と前記第2仮想部品とが接触している場合に、前記触覚情報を生成してもよい。 For example, in the generation of the tactile information, the tactile information may be generated when the first virtual component and the second virtual component are in contact with each other.

これによれば、第1仮想部品と第2仮想部品とが接触しているときに、作業者は、実際の第1部品と第2部品との組み立て作業の際に第1部品と第2部品とが接触したときに感じる触覚を、触覚発生部を介して仮想的に感じることができる。 According to this, when the first virtual part and the second virtual part are in contact with each other, the operator can perform the actual assembly work of the first part and the second part with the first part and the second part. You can virtually feel the tactile sensation that you feel when you come into contact with the tactile sensation through the tactile sensation generator.

例えば、前記触覚情報の生成では、前記第1仮想部品と前記第2仮想部品とが干渉している場合、前記第1部品と前記第2部品とが干渉する際に生じる触覚を前記作業者に与えるための情報を含む前記触覚情報を生成してもよい。 For example, in the generation of the tactile information, when the first virtual component and the second virtual component interfere with each other, the operator is given a tactile sensation generated when the first component and the second component interfere with each other. The tactile information including the information to be given may be generated.

これによれば、作業者は、実際の第1部品と第2部品との組み立て作業の際に第1部品と第2部品とが干渉したときに感じる触覚を、触覚発生部を介して仮想的に感じることができる。 According to this, the operator virtually feels the tactile sensation when the first component and the second component interfere with each other during the actual assembly work of the first component and the second component through the tactile sensation generator. Can be felt.

例えば、前記触覚情報の生成、及び、前記触覚情報の出力を異なる前記設計データ毎に行ってもよい。 For example, the generation of the tactile information and the output of the tactile information may be performed for each of the different design data.

設計データを変えていったときに、実際の部品で組み立て性を評価しようとすると、異なる設計データの部品を準備するためのコストがかかる。これに対して本態様によれば、異なる設計データを用いて生成された様々な仮想部品を用いて部品の組み立て性の評価を容易に行うことができる。 When trying to evaluate the assemblability with actual parts when the design data is changed, it costs money to prepare parts with different design data. On the other hand, according to this aspect, it is possible to easily evaluate the assemblability of parts by using various virtual parts generated by using different design data.

例えば、前記触覚情報の生成では、前記接触状態、並びに、前記第1部品及び前記第2部品の設計公差又は材質を含む前記設計データに基づいて前記触覚情報を生成してもよい。 For example, in the generation of the tactile information, the tactile information may be generated based on the contact state and the design data including the design tolerances or materials of the first component and the second component.

部品の設計公差又は材質によって、作業者が部品の組み立て作業の際に感じる触覚は異なってくる。これに対して本態様によれば、作業者は、部品の設計公差又は材質によって異なる触覚を、触覚発生部を介して仮想的に感じることができる。 Depending on the design tolerance or material of the part, the tactile sensation that the operator feels when assembling the part differs. On the other hand, according to this aspect, the operator can virtually feel the tactile sensation that differs depending on the design tolerance or the material of the part through the tactile sensation generating portion.

例えば、前記第2仮想部品は、前記第1仮想部品の少なくとも一部が嵌まる凹部を有し、前記触覚情報の生成では、前記第1仮想部品が前記凹部に嵌まっている場合、前記第1部品が前記第2部品が有する凹部に嵌まっている際に生じる触覚を前記作業者に与えるための情報を含む前記触覚情報を生成してもよい。 For example, the second virtual component has a recess in which at least a part of the first virtual component is fitted, and in the generation of the tactile information, when the first virtual component is fitted in the recess, the first virtual component is said. The tactile information including information for giving the operator a tactile sensation generated when one component is fitted in the recess of the second component may be generated.

これによれば、作業者は、実際の第1部品と第2部品との組み立て作業において第1部品を第2部品の凹部に嵌める際に感じる触覚を、触覚発生部を介して仮想的に感じることができる。 According to this, the operator virtually feels the tactile sensation when fitting the first component into the recess of the second component in the actual assembly work of the first component and the second component through the tactile sensation generator. be able to.

例えば、前記触覚情報の生成、及び、前記触覚情報の出力を前記設計公差又は前記材質が異なる前記設計データ毎に行ってもよい。 For example, the tactile information may be generated and the tactile information may be output for each of the design tolerances or the design data having different materials.

設計データとして部品の設計公差又は材質を変えていったときに、実際の部品で組み立て性を評価しようとすると、異なる設計公差又は材質の部品を準備するためのコストがかかる。これに対して本態様によれば、設計公差又は材質が異なる設計データを用いて生成された様々な仮想部品を用いて部品の組み立て性の評価を容易に行うことができる。 When the design tolerance or material of a part is changed as design data, if an attempt is made to evaluate the assemblability with an actual part, it is costly to prepare a part with a different design tolerance or material. On the other hand, according to this aspect, it is possible to easily evaluate the assemblability of parts by using various virtual parts generated by using design data having different design tolerances or materials.

本開示の一態様に係る情報処理装置は、第1部品及び第2部品の設計データを用いて生成された前記第1部品及び前記第2部品の仮想映像である第1仮想部品及び第2仮想部品の位置及び姿勢を操作するための操作部、前記操作部の位置及び姿勢を検出する検知部、前記操作部を操作する作業者に触覚を与える触覚発生部を含むシステムを用いて部品の組み立て性を評価するための情報処理装置であって、プロセッサと、前記プロセッサによって実行可能なプログラムが記憶されたメモリと、を備え、前記プロセッサは、前記メモリに記憶された前記プログラムを用いて、前記検知部で検出された前記操作部の位置及び姿勢から算出される前記第1仮想部品及び前記第2仮想部品の位置及び姿勢を取得し、取得した前記第1仮想部品及び前記第2仮想部品の位置及び姿勢から推定される前記第1仮想部品と前記第2仮想部品との接触状態に基づいて、前記作業者に与える触覚に係る触覚情報を生成し、生成した前記触覚情報を前記触覚発生部に出力する。 The information processing unit according to one aspect of the present disclosure is a first virtual component and a second virtual image which are virtual images of the first component and the second component generated by using the design data of the first component and the second component. Assembly of parts using a system including an operation unit for manipulating the position and orientation of parts, a detection unit for detecting the position and orientation of the operation unit, and a tactile generation unit for giving a tactile sensation to an operator who operates the operation unit. An information processing device for evaluating sex, which includes a processor and a memory in which a program that can be executed by the processor is stored, and the processor uses the program stored in the memory to perform the above-mentioned. The positions and orientations of the first virtual component and the second virtual component calculated from the position and orientation of the operation unit detected by the detection unit are acquired, and the acquired first virtual component and the second virtual component Based on the contact state between the first virtual component and the second virtual component estimated from the position and posture, tactile information related to the tactile sensation given to the worker is generated, and the generated tactile sensation information is used as the tactile sensation generating unit. Output to.

これによれば、作業者の感じる触覚を考慮した部品の組み立て性の評価が可能な情報処理装置を提供できる。 According to this, it is possible to provide an information processing device capable of evaluating the assemblability of parts in consideration of the tactile sensation felt by an operator.

本開示の一態様に係るプログラムは、上記の情報処理方法をコンピュータに実行させるためのプログラムである。 The program according to one aspect of the present disclosure is a program for causing a computer to execute the above information processing method.

これによれば、作業者の感じる触覚を考慮した部品の組み立て性の評価が可能なプログラムを提供できる。 According to this, it is possible to provide a program capable of evaluating the assemblability of parts in consideration of the tactile sensation felt by the operator.

なお、これらの包括的又は具体的な態様は、システム、方法、集積回路、コンピュータプログラム又はコンピュータ読み取り可能なCD−ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラム及び記録媒体の任意な組み合わせで実現されてもよい。 It should be noted that these comprehensive or specific embodiments may be realized in a recording medium such as a system, method, integrated circuit, computer program or computer-readable CD-ROM, and the system, method, integrated circuit, computer program. And any combination of recording media may be realized.

以下、実施の形態について、図面を参照しながら具体的に説明する。 Hereinafter, embodiments will be specifically described with reference to the drawings.

なお、以下で説明する実施の形態は、いずれも包括的又は具体的な例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本開示を限定する主旨ではない。 It should be noted that all of the embodiments described below show comprehensive or specific examples. Numerical values, shapes, materials, components, arrangement positions and connection forms of components, steps, order of steps, etc. shown in the following embodiments are examples, and are not intended to limit the present disclosure.

(実施の形態)
図1は、実施の形態に係る評価システム100の概要を示す模式図である。評価システム100は、例えば、作業者101が2つの部品を組み立てる作業を行う際の作業のやり易さ(具体的には、部品の組み立て性)を評価するシステムである。以下では、評価システム100について説明しつつ、評価システム100を用いて部品の組み立て性を評価するための情報処理方法、及び、情報処理装置について説明する。
(Embodiment)
FIG. 1 is a schematic diagram showing an outline of the evaluation system 100 according to the embodiment. The evaluation system 100 is, for example, a system that evaluates the ease of work (specifically, the assembleability of parts) when the worker 101 performs the work of assembling two parts. In the following, while explaining the evaluation system 100, an information processing method for evaluating the assemblability of parts using the evaluation system 100 and an information processing device will be described.

評価システム100は、サーバ102と、ヘッドセット103と、コントローラ104と、センサ105とを備える。ここでは、評価システム100は、2つのコントローラ104と、2つのセンサ105とを備える。評価システム100では、xR(例えば、VR(Virtual Reality)、AR(Augmented Reality)又はMR(Mixed Reality)等)が用いられる。 The evaluation system 100 includes a server 102, a headset 103, a controller 104, and a sensor 105. Here, the evaluation system 100 includes two controllers 104 and two sensors 105. In the evaluation system 100, xR (for example, VR (Virtual Reality), AR (Augmented Reality), MR (Mixed Reality), etc.) is used.

ヘッドセット103は、作業者101の頭部に装着される。2つのコントローラ104は、作業者101の両手に把持される。2つのセンサ105は、ヘッドセット103の位置、並びに、コントローラ104(具体的には後述する操作部141)の位置及び姿勢を検出するために用いられる。コントローラ104は、センサ105と通信することで、作業者101の手の位置及び姿勢を検出するための機能を有する。更に、コントローラ104はサーバ102から受信した触覚に係る触覚情報を用いて作業者101に触覚を与える機能を有する。 The headset 103 is attached to the head of the worker 101. The two controllers 104 are held by both hands of the operator 101. The two sensors 105 are used to detect the position of the headset 103 and the position and orientation of the controller 104 (specifically, the operation unit 141 described later). The controller 104 has a function of detecting the position and posture of the hand of the worker 101 by communicating with the sensor 105. Further, the controller 104 has a function of giving a tactile sensation to the operator 101 by using the tactile sensation information related to the tactile sensation received from the server 102.

図2は、実施の形態に係る評価システム100の構成例を示すブロック図である。 FIG. 2 is a block diagram showing a configuration example of the evaluation system 100 according to the embodiment.

図2に示すように、サーバ102は、ネットワーク106を介して、ヘッドセット103と接続されている。サーバ102は、後述する操作部141、検知部144及び触覚発生部143を含むシステムを用いて部品の組み立て性を評価するための情報処理装置である。サーバ102は、ヘッドセット103の位置及び作業者101による操作部141の操作内容に基づき、ヘッドセット103で再生する画像(例えば映像)を生成し、生成した画像をヘッドセット103に出力する。 As shown in FIG. 2, the server 102 is connected to the headset 103 via the network 106. The server 102 is an information processing device for evaluating the assembling property of parts by using a system including an operation unit 141, a detection unit 144, and a tactile sensation generation unit 143, which will be described later. The server 102 generates an image (for example, a video) to be reproduced by the headset 103 based on the position of the headset 103 and the operation content of the operation unit 141 by the operator 101, and outputs the generated image to the headset 103.

サーバ102は蓄積部121と、取得部122と、生成部123と、出力部124と、NW(ネットワーク)通信部125とを備える。サーバ102は、プロセッサ、メモリ及び通信インタフェース等を備えるコンピュータである。メモリは、ROM(Read Only Memory)及びRAM(Random Access Memory)等であり、プロセッサによって実行可能なプログラムが記憶される。なお、蓄積部121は、メモリの一例であるが、プログラムを記憶するメモリとは別のメモリであってもよい。プロセッサは、メモリに記憶されたプログラムを用いて、取得部122、生成部123及び出力部124の機能を実行する。NW通信部125は、通信回路、通信線等が接続されるコネクタ又はアンテナ等からなる通信インタフェースによって実現される。 The server 102 includes a storage unit 121, an acquisition unit 122, a generation unit 123, an output unit 124, and an NW (network) communication unit 125. The server 102 is a computer including a processor, a memory, a communication interface, and the like. The memory is a ROM (Read Only Memory), a RAM (Random Access Memory), or the like, and a program that can be executed by the processor is stored. Although the storage unit 121 is an example of the memory, it may be a memory different from the memory for storing the program. The processor executes the functions of the acquisition unit 122, the generation unit 123, and the output unit 124 by using the program stored in the memory. The NW communication unit 125 is realized by a communication interface including a connector, an antenna, or the like to which a communication circuit, a communication line, or the like is connected.

蓄積部121は、部品の設計データを示す三次元情報を格納している。ここでは、蓄積部121は、少なくとも2つの部品(例えば第1部品及び第2部品)の設計データを格納している。例えば、サーバ102は、部品の設計データを用いて部品の仮想映像である仮想部品を生成する。ここでは、サーバ102は、第1部品及び第2部品の設計データを用いて第1部品及び第2部品の仮想映像である第1仮想部品及び第2仮想部品を生成する。また、蓄積部121は、第1仮想部品及び第2仮想部品が配置される仮想空間を示す三次元情報を格納していてもよい。また、蓄積部121は、第1部品及び第2部品のサイズ毎、かつ、材質毎の嵌め合い抵抗を表すデータ(例えば表)を予め記憶している。 The storage unit 121 stores three-dimensional information indicating design data of parts. Here, the storage unit 121 stores the design data of at least two parts (for example, the first part and the second part). For example, the server 102 uses the design data of the component to generate a virtual component which is a virtual image of the component. Here, the server 102 uses the design data of the first component and the second component to generate the first virtual component and the second virtual component which are virtual images of the first component and the second component. Further, the storage unit 121 may store three-dimensional information indicating a virtual space in which the first virtual component and the second virtual component are arranged. Further, the storage unit 121 stores in advance data (for example, a table) representing the fitting resistance for each size of the first component and the second component and for each material.

取得部122は、ヘッドセット103から、操作部141の位置及び姿勢、並びに、操作部141への操作内容を取得する。後述する検知部144で検出された操作部141の位置及び姿勢から第1仮想部品及び第2仮想部品の位置及び姿勢を算出することができるため、取得部122は、検知部144で検出された操作部141の位置及び姿勢から算出される第1仮想部品及び第2仮想部品の位置及び姿勢を取得することになる。また、取得部122は、ヘッドセット103の位置を取得する。 The acquisition unit 122 acquires the position and posture of the operation unit 141 and the operation content to the operation unit 141 from the headset 103. Since the positions and orientations of the first virtual component and the second virtual component can be calculated from the positions and orientations of the operation unit 141 detected by the detection unit 144, which will be described later, the acquisition unit 122 was detected by the detection unit 144. The positions and orientations of the first virtual component and the second virtual component calculated from the position and orientation of the operation unit 141 will be acquired. Further, the acquisition unit 122 acquires the position of the headset 103.

生成部123は、ヘッドセット103の位置、操作部141の位置及び姿勢、並びに、操作部141への操作内容に基づき、仮想空間において、ヘッドセット103の位置に対応する作業者101の視点から見た部品の立体映像(具体的には第1仮想部品及び第2仮想部品)及び作業者101の視点から見た作業者101の手の立体映像(仮想手とも呼ぶ)を生成する。また、生成部123は、取得された第1仮想部品及び第2仮想部品の位置及び姿勢から推定される第1仮想部品と第2仮想部品との接触状態に基づいて、作業者101に与える触覚に係る触覚情報を生成する。 The generation unit 123 is viewed from the viewpoint of the worker 101 corresponding to the position of the headset 103 in the virtual space based on the position of the headset 103, the position and posture of the operation unit 141, and the operation content to the operation unit 141. A stereoscopic image of the parts (specifically, the first virtual part and the second virtual part) and a stereoscopic image of the worker 101's hand (also referred to as a virtual hand) viewed from the viewpoint of the worker 101 are generated. Further, the generation unit 123 gives the operator 101 a tactile sensation based on the contact state between the first virtual component and the second virtual component estimated from the acquired positions and postures of the first virtual component and the second virtual component. Generates tactile information related to.

出力部124は、生成された部品の立体映像及び作業者101の手の立体映像をヘッドセット103(具体的には後述する表示部133)に向けて出力する。また、出力部124は、生成された触覚情報をコントローラ104(具体的には後述する触覚発生部143)に向けて出力する。 The output unit 124 outputs the stereoscopic image of the generated parts and the stereoscopic image of the hand of the worker 101 toward the headset 103 (specifically, the display unit 133 described later). Further, the output unit 124 outputs the generated tactile information to the controller 104 (specifically, the tactile generation unit 143 described later).

NW通信部125は、ヘッドセット103の位置、操作部141の位置及び姿勢、並びに、操作部141への操作内容を、ネットワーク106を介してヘッドセット103から受信する。また、NW通信部125は、出力部124から出力された部品の立体映像及び作業者101の手の立体映像、並びに、触覚情報を、ネットワーク106を介してヘッドセット103に送信する。 The NW communication unit 125 receives the position of the headset 103, the position and posture of the operation unit 141, and the operation content to the operation unit 141 from the headset 103 via the network 106. Further, the NW communication unit 125 transmits the stereoscopic image of the component output from the output unit 124, the stereoscopic image of the hand of the worker 101, and the tactile information to the headset 103 via the network 106.

ヘッドセット103は、サーバ102から送信された立体映像を表示する。ヘッドセット103は、NW通信部131と、通信部132と、表示部133と、検知部134とを備える。 The headset 103 displays a stereoscopic image transmitted from the server 102. The headset 103 includes a NW communication unit 131, a communication unit 132, a display unit 133, and a detection unit 134.

NW通信部131は、サーバ102から送信された立体映像及び触覚情報等を受信する。また、NW通信部131は、ヘッドセット103の位置、操作部141の位置及び姿勢、並びに、操作部141への作業者101の操作内容を、ネットワーク106を介して、サーバ102に送信する。なお、サーバ102とヘッドセット103との通信方法は特に限定されず、有線又は無線等の任意の方式が用いられてよい。 The NW communication unit 131 receives the stereoscopic image, the tactile information, and the like transmitted from the server 102. Further, the NW communication unit 131 transmits the position of the headset 103, the position and posture of the operation unit 141, and the operation content of the worker 101 to the operation unit 141 to the server 102 via the network 106. The communication method between the server 102 and the headset 103 is not particularly limited, and any method such as wired or wireless may be used.

通信部132は、コントローラ104と通信する。具体的には、通信部132は、サーバ102から送信された触覚情報をコントローラ104(具体的には後述する触覚発生部143)に送信する。また、通信部132は、コントローラ104から送信された操作部141の位置及び姿勢、並びに、操作部141への操作内容を受信し、受信した情報をNW通信部131に出力する。 The communication unit 132 communicates with the controller 104. Specifically, the communication unit 132 transmits the tactile information transmitted from the server 102 to the controller 104 (specifically, the tactile generation unit 143 described later). Further, the communication unit 132 receives the position and posture of the operation unit 141 transmitted from the controller 104 and the operation content to the operation unit 141, and outputs the received information to the NW communication unit 131.

表示部133は、サーバ102から送信された立体映像を表示する。 The display unit 133 displays the stereoscopic image transmitted from the server 102.

検知部134は、ヘッドセット103(作業者101)の位置を検知する。具体的には、以下のようにして検知部134は、ヘッドセット103の位置を検知する。なお、以下では、センサ105を赤外線センサとし、センサ105が備える検知部151を、赤外光レーザをスキャン照射する赤外線発光部とする。 The detection unit 134 detects the position of the headset 103 (worker 101). Specifically, the detection unit 134 detects the position of the headset 103 as follows. In the following, the sensor 105 will be an infrared sensor, and the detection unit 151 included in the sensor 105 will be an infrared light emitting unit that scans and irradiates an infrared laser.

まず、検知部151は、赤外光レーザをスキャン照射する。ヘッドセット103の検知部134は、ヘッドセット103に設けられた複数の受光部を含み、各受光部は、2個のセンサ105から照射された赤外光レーザを受光する。検知部134は、各受光部で受信したレーザの検知部151における照射方向と、レーザ照射から受信までの時間とに基づき、ヘッドセット103の位置を検知する。検知されたヘッドセット103の位置は、NW通信部131に出力される。 First, the detection unit 151 scans and irradiates an infrared laser. The detection unit 134 of the headset 103 includes a plurality of light receiving units provided on the headset 103, and each light receiving unit receives infrared light lasers emitted from the two sensors 105. The detection unit 134 detects the position of the headset 103 based on the irradiation direction in the laser detection unit 151 received by each light receiving unit and the time from the laser irradiation to the reception. The detected position of the headset 103 is output to the NW communication unit 131.

コントローラ104は、操作部141と、通信部142と、触覚発生部143と、検知部144とを備える。 The controller 104 includes an operation unit 141, a communication unit 142, a tactile sensation generation unit 143, and a detection unit 144.

操作部141は、コントローラ104の本体であり、作業者101の手等に取り付けられる。作業者101が手を動かすことで、操作部141の位置及び姿勢が操作される。操作部141の位置及び姿勢に連動して、第1仮想部品及び第2仮想部品の位置及び姿勢が操作されるため、操作部141は、第1仮想部品及び第2仮想部品の位置及び姿勢を操作する構成要素となる。 The operation unit 141 is the main body of the controller 104, and is attached to the hand of the operator 101 or the like. When the worker 101 moves his / her hand, the position and posture of the operation unit 141 are operated. Since the positions and postures of the first virtual component and the second virtual component are operated in conjunction with the position and posture of the operation unit 141, the operation unit 141 determines the positions and postures of the first virtual component and the second virtual component. It is a component to operate.

また、操作部141は、作業者101が、仮想手で仮想部品を掴むための入力インタフェースであり、作業者101の操作を受け付ける。例えば、操作部141は、1つ又は複数の操作ボタンを有する。例えば、表示部133で表示された映像において、仮想手が仮想部品の近くにある場合に、操作ボタンが操作(例えば押下)されることで、仮想部品が仮想手に掴まれ、以降仮想手に追従して仮想部品が移動する。 Further, the operation unit 141 is an input interface for the worker 101 to grasp the virtual component with a virtual hand, and accepts the operation of the worker 101. For example, the operation unit 141 has one or more operation buttons. For example, in the image displayed on the display unit 133, when the virtual hand is near the virtual part, the virtual part is grasped by the virtual hand by operating (for example, pressing) the operation button, and then the virtual hand is used. The virtual part moves accordingly.

通信部142は、ヘッドセット103と通信する。具体的には、通信部142は、操作部141に対する操作内容と、操作部141の位置及び姿勢とをヘッドセット103に送信する。また、通信部142は、ヘッドセット103から送信された触覚情報を受信する。触覚情報に基づき触覚発生部143が制御される。 The communication unit 142 communicates with the headset 103. Specifically, the communication unit 142 transmits the operation content for the operation unit 141 and the position and posture of the operation unit 141 to the headset 103. In addition, the communication unit 142 receives the tactile information transmitted from the headset 103. The tactile sensation generator 143 is controlled based on the tactile sensation information.

なお、ヘッドセット103とコントローラ104との通信方法は特に限定されず、有線又は無線等の任意の方式が用いられてよい。また、コントローラ104は、ヘッドセット103を介さずにサーバ102と通信を行ってもよい。すなわち、通信部142は、操作部141に対する操作内容と、コントローラ104の位置及び姿勢とをサーバ102に送信してもよく、サーバ102から触覚情報を受信してもよい。 The communication method between the headset 103 and the controller 104 is not particularly limited, and any method such as wired or wireless may be used. Further, the controller 104 may communicate with the server 102 without going through the headset 103. That is, the communication unit 142 may transmit the operation content for the operation unit 141 and the position and posture of the controller 104 to the server 102, or may receive tactile information from the server 102.

触覚発生部143は、部品の位置及び姿勢の状態に応じて、作業者101に触覚を与える。触覚発生部143が作業者101に触覚を与える方法は特に限定されない。例えば、触覚発生部143は、手袋の形状を有している。触覚発生部143は、手袋に装着された手の指先部分に空気を送り込む等して圧力を掛けて作業者101に触覚を与えてもよいし、指先部分を振動させて作業者101に触覚を与えてもよいし、作業者101の筋肉に電気刺激を与えることで作業者101に触覚を与えてもよい。 The tactile sensation unit 143 gives the operator 101 a tactile sensation according to the position and posture of the parts. The method by which the tactile sensation unit 143 gives the operator 101 a tactile sensation is not particularly limited. For example, the tactile generator 143 has the shape of a glove. The tactile sensation unit 143 may apply pressure to the fingertip portion of the hand attached to the glove to give the operator 101 a tactile sensation, or vibrate the fingertip portion to give the operator 101 a tactile sensation. It may be given, or the worker 101 may be given a tactile sensation by giving an electrical stimulus to the muscles of the worker 101.

検知部144は、操作部141の位置及び姿勢を検知する。なお、検知部144での検知方法は、検知部134での検知方法と同様であるため説明は省略する。 The detection unit 144 detects the position and orientation of the operation unit 141. Since the detection method in the detection unit 144 is the same as the detection method in the detection unit 134, the description thereof will be omitted.

センサ105は、ヘッドセット103の位置、並びに、操作部141の位置及び姿勢を検出するセンサである。上述したように、センサ105は、例えば赤外線センサである。 The sensor 105 is a sensor that detects the position of the headset 103 and the position and posture of the operation unit 141. As described above, the sensor 105 is, for example, an infrared sensor.

なお、ここでは、位置等の検知の方式として、赤外光レーザを用いる方式が用いられる例を示したが、検知の方式は、これに限らず、公知の任意の方式が用いられてもよい。例えば、ヘッドセット103及び操作部141には、赤外又は可視光を発光する複数の発光部が設けられ、センサ105に設けられた赤外又は可視光カメラで得られた画像に基づきヘッドセット103の位置が検知されてもよい。 Here, an example in which a method using an infrared laser is used as a method for detecting a position or the like is shown, but the detection method is not limited to this, and any known method may be used. .. For example, the headset 103 and the operation unit 141 are provided with a plurality of light emitting units that emit infrared or visible light, and the headset 103 is based on an image obtained by an infrared or visible light camera provided on the sensor 105. The position of may be detected.

また、ヘッドセット103及び操作部141は加速度センサ、ジャイロセンサ又はGPS(Global Positioning System)受信機等を備えていてもよく、これらにより得られる情報に基づき、ヘッドセット103の位置、並びに、操作部141の位置及び姿勢が検知されてもよい。 Further, the headset 103 and the operation unit 141 may be provided with an acceleration sensor, a gyro sensor, a GPS (Global Positioning System) receiver, or the like, and based on the information obtained by these, the position of the headset 103 and the operation unit The position and orientation of 141 may be detected.

次に、サーバ102の動作を説明する。 Next, the operation of the server 102 will be described.

図3は、実施の形態に係るサーバ102の動作の一例を示すフローチャートである。実施の形態に係る情報処理方法は、操作部141、検知部144及び触覚発生部143を含むシステムを用いて部品の組み立て性を評価するための方法である。実施の形態に係る情報処理方法は、サーバ102が備えるコンピュータ(具体的にはプロセッサ)により実行される方法であることから、図3は、実施の形態に係る情報処理方法の一例を示すフローチャートでもある。 FIG. 3 is a flowchart showing an example of the operation of the server 102 according to the embodiment. The information processing method according to the embodiment is a method for evaluating the assembling property of parts by using a system including an operation unit 141, a detection unit 144, and a tactile sensation generation unit 143. Since the information processing method according to the embodiment is a method executed by a computer (specifically, a processor) included in the server 102, FIG. 3 is also a flowchart showing an example of the information processing method according to the embodiment. is there.

まず、生成部123は、蓄積部121に格納されている第1部品及び第2部品の設計データを読み出し、読み出した設計データを用いて第1部品及び第2部品の仮想映像である第1仮想部品及び第2仮想部品を生成する(ステップS11)。例えば、設計データは、第1部品及び第2部品の設計公差又は材質等を含む。 First, the generation unit 123 reads the design data of the first component and the second component stored in the storage unit 121, and uses the read design data to create a first virtual image of the first component and the second component. A part and a second virtual part are generated (step S11). For example, the design data includes design tolerances or materials of the first and second parts.

次に、出力部124は、ヘッドセット103に、生成された第1仮想部品及び第2仮想部品を出力する(ステップS12)。これにより、表示部133に第1仮想部品及び第2仮想部品が表示される。 Next, the output unit 124 outputs the generated first virtual component and the second virtual component to the headset 103 (step S12). As a result, the first virtual component and the second virtual component are displayed on the display unit 133.

図4Aは、実施の形態に係るヘッドセット103において表示される第1仮想部品200及び第2仮想部品300のイメージを示す図である。 FIG. 4A is a diagram showing images of the first virtual component 200 and the second virtual component 300 displayed on the headset 103 according to the embodiment.

例えば、第1部品は、第2部品に嵌められる部品であり、第2部品には第1部品が嵌められる凹部が設けられている。これに応じて、図4Aに示されるように、第2仮想部品300は、第1仮想部品200の少なくとも一部が嵌まる凹部301を有する。 For example, the first component is a component that is fitted into the second component, and the second component is provided with a recess into which the first component is fitted. Correspondingly, as shown in FIG. 4A, the second virtual component 300 has a recess 301 into which at least a portion of the first virtual component 200 fits.

なお、図示していないが、出力部124は、ヘッドセット103と操作部141との位置関係(つまり、作業者101の頭と手との位置関係)に応じた位置に仮想手が表示されるように仮想手を出力する。 Although not shown, the output unit 124 displays the virtual hand at a position corresponding to the positional relationship between the headset 103 and the operation unit 141 (that is, the positional relationship between the head and the hand of the worker 101). Output a virtual hand like this.

そして、作業者101は、表示部133で表示された映像を見ながら、操作部141を操作する。操作部141の位置及び姿勢は検知部144によって検出されて、逐次サーバ102に送信され、最新の操作部141の位置及び姿勢に応じて仮想手の位置及び姿勢が更新される。作業者101は、操作部141を操作して仮想手が第1仮想部品200及び第2仮想部品300に近づくと、操作部141が有するボタンを操作して仮想手で第1仮想部品200及び第2仮想部品300を掴む。これにより、以降は、操作部141の位置及び姿勢に応じて仮想手に掴まれた第1仮想部品200及び第2仮想部品300の位置及び姿勢も連動して操作されるようになる。 Then, the worker 101 operates the operation unit 141 while watching the image displayed on the display unit 133. The position and posture of the operation unit 141 are detected by the detection unit 144 and sequentially transmitted to the server 102, and the position and posture of the virtual hand are updated according to the latest position and posture of the operation unit 141. When the virtual hand approaches the first virtual component 200 and the second virtual component 300 by operating the operation unit 141, the operator 101 operates the button of the operation unit 141 to operate the first virtual component 200 and the second virtual hand with the virtual hand. 2 Grasp the virtual component 300. As a result, thereafter, the positions and postures of the first virtual component 200 and the second virtual component 300 held by the virtual hand are also operated in conjunction with each other according to the position and posture of the operation unit 141.

取得部122は、仮想手に掴まれた第1仮想部品200及び第2仮想部品300の位置及び姿勢を取得する(ステップS13)。第1仮想部品200及び第2仮想部品300の位置及び姿勢は検知部144で検出された操作部141の位置及び姿勢から算出される。 The acquisition unit 122 acquires the positions and postures of the first virtual component 200 and the second virtual component 300 held by the virtual hand (step S13). The positions and orientations of the first virtual component 200 and the second virtual component 300 are calculated from the positions and orientations of the operation unit 141 detected by the detection unit 144.

生成部123は、最新の第1仮想部品200及び第2仮想部品300の位置及び姿勢を更新する(ステップS14)。 The generation unit 123 updates the positions and orientations of the latest first virtual component 200 and second virtual component 300 (step S14).

生成部123は、取得された第1仮想部品200及び第2仮想部品300の位置及び姿勢から推定される第1仮想部品200と第2仮想部品300との接触状態に基づいて、作業者101に与える触覚に係る触覚情報を生成する(ステップS15)。ステップS21からステップS24は、触覚情報の生成の処理の具体例である。 The generation unit 123 tells the worker 101 based on the contact state between the first virtual component 200 and the second virtual component 300 estimated from the acquired positions and postures of the first virtual component 200 and the second virtual component 300. Tactile information related to the given tactile sensation is generated (step S15). Steps S21 to S24 are specific examples of processing for generating tactile information.

生成部123は、第1仮想部品200と第2仮想部品300とが接触しているか否かを判定する(ステップS21)。第1仮想部品200と第2仮想部品300とが接触している状態について、図4B及び図4Cを用いて説明する。なお、図4Aは、第1仮想部品200と第2仮想部品300とが接触していない状態を示している。 The generation unit 123 determines whether or not the first virtual component 200 and the second virtual component 300 are in contact with each other (step S21). The state in which the first virtual component 200 and the second virtual component 300 are in contact with each other will be described with reference to FIGS. 4B and 4C. Note that FIG. 4A shows a state in which the first virtual component 200 and the second virtual component 300 are not in contact with each other.

図4Bは、実施の形態に係るヘッドセット103において表示される、干渉している第1仮想部品200及び第2仮想部品300のイメージを示す図である。なお、ここでの干渉とは、部品と部品とがぶつかることを意味する。 FIG. 4B is a diagram showing images of interfering first virtual component 200 and second virtual component 300 displayed on the headset 103 according to the embodiment. Note that the interference here means that the parts collide with each other.

図4Cは、実施の形態に係るヘッドセット103において表示される、嵌まり合っている第1仮想部品200及び第2仮想部品300のイメージを示す図である。 FIG. 4C is a diagram showing images of the fitted first virtual component 200 and the second virtual component 300 displayed on the headset 103 according to the embodiment.

図4B及び図4Cは、第1仮想部品200及び第2仮想部品300が接触している状態を示している。ただし、図4Bは、第1仮想部品200が第2仮想部品300の凹部301に嵌まっていない状態で第1仮想部品200と第2仮想部品300とが干渉している状態を示している。また、図4Cは、第1仮想部品200が第2仮想部品300の凹部301に嵌まっている状態で第1仮想部品200と第2仮想部品300とが接触している状態を示している。なお、第1仮想部品200と第2仮想部品300とは仮想映像であるため、重なり合う場合もある。ここでは、この場合も第1仮想部品200と第2仮想部品300とが接触している状態であるとする。例えば、図4B及び図4Cでは、第1仮想部品200の少なくとも一部と第2仮想部品300の少なくとも一部とが重なり合っていてもよい。 4B and 4C show a state in which the first virtual component 200 and the second virtual component 300 are in contact with each other. However, FIG. 4B shows a state in which the first virtual component 200 and the second virtual component 300 interfere with each other in a state where the first virtual component 200 is not fitted in the recess 301 of the second virtual component 300. Further, FIG. 4C shows a state in which the first virtual component 200 and the second virtual component 300 are in contact with each other in a state where the first virtual component 200 is fitted in the recess 301 of the second virtual component 300. Since the first virtual component 200 and the second virtual component 300 are virtual images, they may overlap with each other. Here, it is assumed that the first virtual component 200 and the second virtual component 300 are in contact with each other in this case as well. For example, in FIGS. 4B and 4C, at least a part of the first virtual component 200 and at least a part of the second virtual component 300 may overlap.

図4Aに示すように第1仮想部品200と第2仮想部品300とが接触していない場合(ステップS21でNo)、第1仮想部品200と第2仮想部品300とが接触するまでステップS13及びステップS14での処理が繰り返される。 When the first virtual component 200 and the second virtual component 300 are not in contact with each other as shown in FIG. 4A (No in step S21), steps S13 and until the first virtual component 200 and the second virtual component 300 are in contact with each other. The process in step S14 is repeated.

図4B又は図4Cに示すように第1仮想部品200と第2仮想部品300とが接触している場合(ステップS21でYes)、生成部123は、触覚情報を生成するが、生成部123は、触覚情報の生成の際に、第1仮想部品200が第2仮想部品300の凹部301に嵌まっているか否かを判定する(ステップS22)。生成部123は、第1仮想部品200の位置が凹部301の内部にあり、かつ、第1仮想部品200の延びる方向と凹部301の延びる方向とが一致しているか否かを判定することで、第1仮想部品200が第2仮想部品300の凹部301に嵌まっているか否かを判定する。なお、第1仮想部品200の先端部分(図4A〜図4Cにおける紙面奥側の部分)が凹部301に少しでも挿入されれば、第1仮想部品200が凹部301に嵌まっている状態となる。 When the first virtual component 200 and the second virtual component 300 are in contact with each other as shown in FIG. 4B or FIG. 4C (Yes in step S21), the generation unit 123 generates tactile information, but the generation unit 123 generates tactile information. At the time of generating tactile information, it is determined whether or not the first virtual component 200 is fitted in the recess 301 of the second virtual component 300 (step S22). The generation unit 123 determines whether or not the position of the first virtual component 200 is inside the recess 301 and the extending direction of the first virtual component 200 and the extending direction of the recess 301 coincide with each other. It is determined whether or not the first virtual component 200 is fitted in the recess 301 of the second virtual component 300. If the tip portion of the first virtual component 200 (the portion on the back side of the paper surface in FIGS. 4A to 4C) is inserted into the recess 301 as much as possible, the first virtual component 200 is fitted in the recess 301. ..

図4Bに示すように、第1仮想部品200が第2仮想部品300の凹部301に嵌まらずに第1仮想部品200と第2仮想部品300とが干渉している場合(ステップS22でNo)、生成部123は、第1部品と第2部品とが干渉する際に生じる触覚を作業者101に与えるための情報を含む触覚情報を生成する(ステップS23)。例えば、作業者101は、仮想の左手で第1仮想部品200を掴み、仮想の右手で第2仮想部品300を掴んでいる場合に、第1仮想部品200を第2仮想部品300へ移動させていき、図4Bに示すように第1仮想部品200が凹部301に嵌まらずに第1仮想部品200と第2仮想部品300とがぶつかったときに、左手の指先に第1仮想部品200が第2仮想部品300から遠ざかる方向への反発力を与え、右手の指先に第2仮想部品300が第1仮想部品200から遠ざかる方向への反発力を与えるための触覚情報が生成される。 As shown in FIG. 4B, when the first virtual component 200 does not fit into the recess 301 of the second virtual component 300 and the first virtual component 200 and the second virtual component 300 interfere with each other (No. in step S22). ), The generation unit 123 generates tactile information including information for giving the operator 101 a tactile sensation generated when the first component and the second component interfere with each other (step S23). For example, when the worker 101 grasps the first virtual component 200 with the virtual left hand and the second virtual component 300 with the virtual right hand, the worker 101 moves the first virtual component 200 to the second virtual component 300. As shown in FIG. 4B, when the first virtual component 200 does not fit into the recess 301 and the first virtual component 200 and the second virtual component 300 collide with each other, the first virtual component 200 is placed on the fingertip of the left hand. Tactile information is generated to give a repulsive force in the direction away from the second virtual component 300 and to give a repulsive force in the direction in which the second virtual component 300 moves away from the first virtual component 200 to the fingertip of the right hand.

図4Cに示すように、第1仮想部品200が第2仮想部品300の凹部301に嵌まっている場合(ステップS22でYes)、生成部123は、第1部品が第2部品が有する凹部に嵌まっている際に生じる触覚を作業者101に与えるための情報を含む触覚情報を生成する(ステップS24)。なお、生成部123は、第1仮想部品200及び第2仮想部品300の位置及び姿勢から推定される第1仮想部品200と第2仮想部品300との接触状態、並びに、第1部品及び第2部品の設計公差又は材質を含む設計データに基づいて触覚情報を生成する。第1部品及び第2部品の設計公差又は材質によって、第1部品と第2部品との嵌め合い抵抗が変わり、すなわち、第1部品が第2部品の凹部に嵌まっている際に生じる触覚(嵌める際に受ける抵抗力)も変わってくるためである。 As shown in FIG. 4C, when the first virtual component 200 is fitted in the recess 301 of the second virtual component 300 (Yes in step S22), the generation unit 123 is placed in the recess of the second component. Tactile information including information for giving the operator 101 the tactile sensation generated when the fitting is performed is generated (step S24). The generation unit 123 includes contact states between the first virtual component 200 and the second virtual component 300 estimated from the positions and orientations of the first virtual component 200 and the second virtual component 300, as well as the first component and the second virtual component 300. Tactile information is generated based on design data including design tolerances or materials of parts. The fitting resistance between the first part and the second part changes depending on the design tolerance or material of the first part and the second part, that is, the tactile sensation that occurs when the first part is fitted in the recess of the second part ( This is because the resistance received when fitting is also changed.

例えば、嵌め合い抵抗は、第1部品及び第2部品のサイズ毎、かつ、材質毎に予め定めることができ、蓄積部121に嵌め合い抵抗を表すデータが記憶されている。 For example, the fitting resistance can be predetermined for each size of the first component and the second component and for each material, and data representing the fitting resistance is stored in the storage unit 121.

図5は、実施の形態に係る蓄積部121に予め記憶された嵌め合い抵抗の一例を示す表である。図5は、第1部品及び第2部品の材質が特定の材質(例えば樹脂等)の場合に、第1部品(図5に示す軸)のサイズ(例えば横方向の長さ)を99±1とし、第2部品の凹部(図5に示す穴)のサイズ(例えば横方向の長さ)を100±1としたときの、第1部品及び第2部品のサイズ毎の嵌め合い抵抗を示す。なお、第1部品及び第2部品のサイズは相対的なサイズであり、嵌め合い抵抗は相対的な抵抗である。例えば、第1部品のサイズが98、第2部品のサイズが101のとき(つまりすきま嵌めの状態のとき)、嵌め合い抵抗が0であるのに対して、第1部品のサイズが100、第2部品のサイズが99のとき(つまりしまり嵌めの状態のとき)、嵌め合い抵抗が100となっていることがわかる。 FIG. 5 is a table showing an example of the fitting resistance stored in advance in the storage unit 121 according to the embodiment. FIG. 5 shows that when the materials of the first component and the second component are specific materials (for example, resin), the size (for example, the length in the lateral direction) of the first component (axis shown in FIG. 5) is 99 ± 1. The fitting resistance for each size of the first component and the second component is shown when the size (for example, the length in the lateral direction) of the recess (hole shown in FIG. 5) of the second component is set to 100 ± 1. The sizes of the first component and the second component are relative sizes, and the fitting resistance is a relative resistance. For example, when the size of the first component is 98 and the size of the second component is 101 (that is, in the state of clearance fitting), the fitting resistance is 0, whereas the size of the first component is 100 and the first component is the first. It can be seen that when the size of the two parts is 99 (that is, when the two parts are in the tightly fitted state), the fitting resistance is 100.

生成部123は、今回用いた設計データに含まれる第1部品の材質及びサイズ、並びに、第2部品の材質及びサイズを図5に示すような表に照合することで、第1仮想部品200と第2仮想部品300との嵌め合い抵抗を決定し、当該嵌め合い抵抗を発生しながら第1部品が第2部品の凹部に嵌まっている際に生じる触覚を作業者101に与えるための情報を含む触覚情報を生成する。例えば、嵌め合い抵抗が大きいときには第1仮想部品200と第2仮想部品300とが相対的に動きにくくなる触覚が作業者101に与えられる。 By collating the material and size of the first component and the material and size of the second component included in the design data used this time with the table as shown in FIG. 5, the generation unit 123 and the first virtual component 200 Information for determining the fitting resistance with the second virtual component 300 and giving the operator 101 a tactile sensation generated when the first component is fitted in the recess of the second component while generating the fitting resistance. Generate tactile information including. For example, when the fitting resistance is large, the operator 101 is given a tactile sensation in which the first virtual component 200 and the second virtual component 300 are relatively difficult to move.

出力部124は、生成された触覚情報を触覚発生部143に出力する(ステップS16)。これにより、作業者101は、触覚発生部143から第1仮想部品200と第2仮想部品300との接触状態に応じた触覚が与えられる。 The output unit 124 outputs the generated tactile information to the tactile generation unit 143 (step S16). As a result, the worker 101 is given a tactile sensation according to the contact state between the first virtual component 200 and the second virtual component 300 from the tactile sensation generating unit 143.

そして、サーバ102は、第1仮想部品200及び第2仮想部品300の組み立て作業が終了した旨の情報を受信したか否かを判定する(ステップS17)。 Then, the server 102 determines whether or not it has received the information that the assembly work of the first virtual component 200 and the second virtual component 300 has been completed (step S17).

組み立て作業が終了していない場合(ステップS17でNo)、再度ステップS13からの処理が行われ、組み立て作業が終了した場合(ステップS17でYes)、処理が終了する。 If the assembly work is not completed (No in step S17), the process from step S13 is performed again, and if the assembly work is completed (Yes in step S17), the process is completed.

なお、第1仮想部品200及び第2仮想部品300の組み立て作業が終了した後、分解された状態に戻され、同じ設計データを用いて図3に示す処理(具体的には、触覚情報の生成の処理及び触覚情報の出力の処理)が繰り返し行われてもよい。作業者101は、組み立て作業をする毎に、完全に同じように作業をすることは難しく、作業にばらつきが発生する場合があり、作業者101が繰り返し組み立て作業をすることで、組み立て性の評価をより正確に行うことができるためである。 After the assembly work of the first virtual component 200 and the second virtual component 300 is completed, the first virtual component 200 and the second virtual component 300 are returned to the disassembled state, and the process shown in FIG. 3 (specifically, generation of tactile information) is performed using the same design data. And the process of outputting tactile information) may be repeated. It is difficult for the worker 101 to perform the same work every time the assembly work is performed, and the work may vary. The worker 101 repeatedly performs the assembly work to evaluate the assembleability. This is because can be performed more accurately.

また、図3に示す処理は、異なる設計データ毎(具体的には、設計公差又は材質が異なる設計データ毎)に行われてもよい。例えば、第1仮想部品200及び第2仮想部品300のサイズを少しずつ変える毎に、図3に示す処理が行われることで、組み立て性の観点から部品の設計公差をどのくらいまで許容できるのかを評価できる。例えば、組み立て性の評価結果から、第1部品及び第2部品の公差が大きいと組み立て性が悪くなることがわかった場合、コストはかかるが設計公差を小さくするという判断をすることができる。また、組み立て性の評価結果から、第1部品及び第2部品の公差が大きくても組み立て性があまり悪くならないことがわかった場合、第1部品及び第2部品の公差を大きくしてコストを抑制するという判断をすることができる。このように、設計公差又は材質等の設計データを変えていったときに、実際の部品で組み立て性を評価しようとすると、設計公差又は材質等が異なる部品を準備するためのコストがかかるが、本態様によれば、設計公差又は材質等が異なる設計データを用いて生成された様々な仮想部品を用いて部品の組み立て性の評価を容易に行うことができる。 Further, the processing shown in FIG. 3 may be performed for each different design data (specifically, for each design data having a different design tolerance or material). For example, each time the sizes of the first virtual component 200 and the second virtual component 300 are changed little by little, the processing shown in FIG. 3 is performed to evaluate how much the design tolerance of the component can be tolerated from the viewpoint of assembling. it can. For example, if it is found from the evaluation result of the assembling property that the assembling property deteriorates when the tolerance between the first component and the second component is large, it can be determined that the design tolerance is reduced although the cost is high. Further, when it is found from the evaluation result of the assembling property that the assembling property does not deteriorate so much even if the tolerance of the first component and the second component is large, the tolerance of the first component and the second component is increased to suppress the cost. You can make the decision to do it. In this way, when design data such as design tolerances or materials are changed and it is attempted to evaluate assemblability with actual parts, it costs money to prepare parts with different design tolerances or materials. According to this aspect, it is possible to easily evaluate the assemblability of parts by using various virtual parts generated by using design data having different design tolerances or materials.

以上説明したように、仮想映像である第1仮想部品200と第2仮想部品300との接触状態に基づいて、作業者101に与える触覚に係る触覚情報が生成され触覚発生部143に出力される。このため、作業者101は、実際の第1部品と第2部品との組み立て作業の際に感じる触覚を、触覚発生部143を介して仮想的に感じることができる。したがって、作業者101の感じる触覚を考慮した部品の組み立て性の評価が可能となる。例えば、作業者101によって作業にばらつきがあったり、部品によって寸法にばらつきがあったりするが、本態様によれば、部品を試作する前に、仮想部品を用いて作業者101の感じる触覚を考慮しながら容易に繰り返し組み立て作業のシミュレーションを行うことができる。よって、作業者101の感じる触覚(つまり設計データ等の数値だけからでは判断できない感覚)を考慮した部品の組み立て性の評価が可能となる。そして、評価結果を用いて、工程設計及び部品設計を効果的に行うことができる。 As described above, based on the contact state between the first virtual component 200 and the second virtual component 300, which is a virtual image, tactile information related to the tactile sensation given to the worker 101 is generated and output to the tactile sensation generator 143. .. Therefore, the worker 101 can virtually feel the tactile sensation felt during the actual assembly work of the first component and the second component through the tactile sensation generating unit 143. Therefore, it is possible to evaluate the assembleability of the parts in consideration of the tactile sensation felt by the operator 101. For example, the work may vary depending on the worker 101, or the dimensions may vary depending on the part. However, according to this embodiment, the tactile sensation felt by the worker 101 is taken into consideration by using a virtual part before making a prototype of the part. However, it is possible to easily simulate the repetitive assembly work. Therefore, it is possible to evaluate the assembling property of the parts in consideration of the tactile sensation felt by the operator 101 (that is, the sensation that cannot be judged only from the numerical values such as the design data). Then, the process design and the component design can be effectively performed by using the evaluation result.

また、第1仮想部品200と第2仮想部品300とが接触しているときに、作業者101は、実際の第1部品と第2部品との組み立て作業の際に第1部品と第2部品とが接触したときに感じる触覚を、触覚発生部143を介して仮想的に感じることができる。また、作業者101は、部品の設計公差又は材質によって異なる触覚を、触覚発生部143を介して仮想的に感じることができる。また、作業者101は、実際の第1部品と第2部品との組み立て作業において第1部品を第2部品の凹部に嵌める際に感じる触覚を、触覚発生部143を介して仮想的に感じることができる。 Further, when the first virtual component 200 and the second virtual component 300 are in contact with each other, the worker 101 may perform the actual assembly work of the first component and the second component with the first component and the second component. The tactile sensation felt when the person comes into contact with the tactile sensation can be virtually felt through the tactile sensation generator 143. Further, the worker 101 can virtually feel the tactile sensation that differs depending on the design tolerance or the material of the parts through the tactile sensation generating unit 143. Further, the worker 101 virtually feels the tactile sensation felt when fitting the first component into the recess of the second component in the actual assembly work of the first component and the second component through the tactile sensation generator 143. Can be done.

(その他の実施の形態)
以上、実施の形態に係る情報処理方法及び情報処理装置(サーバ102)について説明したが、本開示は、上記実施の形態に限定されるものではない。
(Other embodiments)
Although the information processing method and the information processing device (server 102) according to the embodiment have been described above, the present disclosure is not limited to the above embodiment.

例えば、図2に示す評価システム100の構成は一例であり、ある装置で実行される処理が他の装置で実行されてもよいし、一つの装置で実行される複数の処理を複数の装置で分割して処理してもよいし、複数の装置で実行される複数の処理を単一の装置で実行してもよい。例えば、サーバ102の機能の一部又は全てがヘッドセット103に含まれてもよい。 For example, the configuration of the evaluation system 100 shown in FIG. 2 is an example, and a process executed by one device may be executed by another device, or a plurality of processes executed by one device may be executed by a plurality of devices. It may be divided and processed, or a plurality of processes executed by a plurality of devices may be executed by a single device. For example, some or all of the functions of the server 102 may be included in the headset 103.

例えば、操作部141がボタンを備える例について説明したが、操作部141はボタンを備えていなくてもよい。例えば、仮想手が仮想部品に一定以上近づいたときに自動的に仮想手が仮想部品を掴むように制御されてもよい。つまり、仮想手が仮想部品に一定以上近づいたときに、以降は仮想部品が仮想手に追従して移動してもよい。 For example, although the example in which the operation unit 141 includes a button has been described, the operation unit 141 may not have a button. For example, the virtual hand may be automatically controlled to grab the virtual part when the virtual hand approaches the virtual part more than a certain amount. That is, when the virtual hand approaches the virtual part by a certain amount or more, the virtual part may move following the virtual hand thereafter.

例えば、コントローラ104が触覚発生部143を備える例について説明したが、コントローラ104は触覚発生部143を備えていなくてもよく、コントローラ104と触覚発生部143とは別体に設けられていてもよい。 For example, although the example in which the controller 104 includes the tactile generator 143 has been described, the controller 104 may not include the tactile generator 143, and the controller 104 and the tactile generator 143 may be provided separately. ..

例えば、情報処理方法におけるステップは、コンピュータ(コンピュータシステム)によって実行されてもよい。そして、本開示は、それらの方法に含まれるステップを、コンピュータに実行させるためのプログラムとして実現できる。さらに、本開示は、そのプログラムを記録したCD−ROM等である非一時的なコンピュータ読み取り可能な記録媒体として実現できる。 For example, the steps in the information processing method may be performed by a computer (computer system). Then, the present disclosure can be realized as a program for causing a computer to execute the steps included in those methods. Further, the present disclosure can be realized as a non-temporary computer-readable recording medium such as a CD-ROM on which the program is recorded.

例えば、本開示が、プログラム(ソフトウェア)で実現される場合には、コンピュータのCPU、メモリ及び入出力回路等のハードウェア資源を利用してプログラムが実行されることによって、各ステップが実行される。つまり、CPUがデータをメモリ又は入出力回路等から取得して演算したり、演算結果をメモリ又は入出力回路等に出力したりすることによって、各ステップが実行される。 For example, when the present disclosure is realized by a program (software), each step is executed by executing the program using hardware resources such as a computer CPU, memory, and input / output circuit. .. That is, each step is executed when the CPU acquires data from the memory or the input / output circuit or the like and performs an operation, or outputs the operation result to the memory or the input / output circuit or the like.

また、上記実施の形態に係る評価システム100に含まれる各装置に含まれる処理部の一部又は全ては典型的には集積回路であるLSIとして実現される。これらは個別に1チップ化されてもよいし、一部又は全てを含むように1チップ化されてもよい。 Further, a part or all of the processing units included in each device included in the evaluation system 100 according to the above embodiment is typically realized as an LSI which is an integrated circuit. These may be individually integrated into one chip, or may be integrated into one chip so as to include a part or all of them.

また、集積回路化はLSIに限るものではなく、専用回路又は汎用プロセッサで実現してもよい。LSI製造後にプログラムすることが可能なFPGA(Field Programmable Gate Array)、又はLSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。 Further, the integrated circuit is not limited to the LSI, and may be realized by a dedicated circuit or a general-purpose processor. An FPGA (Field Programmable Gate Array) that can be programmed after the LSI is manufactured, or a reconfigurable processor that can reconfigure the connection and settings of circuit cells inside the LSI may be used.

また、上記実施の形態において、各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPU又はプロセッサなどのプログラム実行部が、ハードディスク又は半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。 Further, in the above-described embodiment, each component may be configured by dedicated hardware or may be realized by executing a software program suitable for each component. Each component may be realized by a program execution unit such as a CPU or a processor reading and executing a software program recorded on a recording medium such as a hard disk or a semiconductor memory.

また、ブロック図における機能ブロックの分割は一例であり、複数の機能ブロックを一つの機能ブロックとして実現したり、一つの機能ブロックを複数に分割したり、一部の機能を他の機能ブロックに移してもよい。また、類似する機能を有する複数の機能ブロックの機能を単一のハードウェア又はソフトウェアが並列又は時分割に処理してもよい。 Further, the division of the functional block in the block diagram is an example, and a plurality of functional blocks can be realized as one functional block, one functional block can be divided into a plurality of functional blocks, and some functions can be transferred to other functional blocks. You may. Further, the functions of a plurality of functional blocks having similar functions may be processed by a single hardware or software in parallel or in a time division manner.

また、フローチャートにおける各ステップが実行される順序は、本開示を具体的に説明するために例示するためのものであり、上記以外の順序であってもよい。また、上記ステップの一部が、他のステップと同時(並列)に実行されてもよい。 Further, the order in which each step in the flowchart is executed is for exemplifying the present disclosure in detail, and may be an order other than the above. Further, a part of the above steps may be executed at the same time (parallel) as other steps.

以上、一つ又は複数の態様に係る表示システムについて、実施の形態に基づいて説明したが、本発明は、この実施の形態に限定されるものではない。本開示の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したものや、異なる実施の形態における構成要素を組み合わせて構築される形態も、一つ又は複数の態様の範囲内に含まれてもよい。 Although the display system according to one or more aspects has been described above based on the embodiment, the present invention is not limited to this embodiment. As long as the gist of the present disclosure is not deviated, various modifications that can be conceived by those skilled in the art are applied to the present embodiment, and a form constructed by combining components in different embodiments is also within the scope of one or more embodiments. May be included within.

本開示は、例えば、部品の組み立てを仮想的に行うシステム等に適用できる。 The present disclosure can be applied to, for example, a system for virtually assembling parts.

100 評価システム
101 作業者
102 サーバ
103 ヘッドセット
104 コントローラ
105 センサ
106 ネットワーク
121 蓄積部
122 取得部
123 生成部
124 出力部
125、131 NW通信部
132、142 通信部
133 表示部
134、144、151 検知部
141 操作部
143 触覚発生部
200 第1仮想部品
300 第2仮想部品
301 凹部
100 Evaluation system 101 Worker 102 Server 103 Headset 104 Controller 105 Sensor 106 Network 121 Storage unit 122 Acquisition unit 123 Generation unit 124 Output unit 125, 131 NW communication unit 132, 142 Communication unit 133 Display unit 134, 144, 151 Detection unit 141 Operation unit 143 Tactile generator 200 1st virtual part 300 2nd virtual part 301 Recess

Claims (9)

第1部品及び第2部品の設計データを用いて生成された前記第1部品及び前記第2部品の仮想映像である第1仮想部品及び第2仮想部品の位置及び姿勢を操作するための操作部、前記操作部の位置及び姿勢を検出する検知部、前記操作部を操作する作業者に触覚を与える触覚発生部を含むシステムを用いて部品の組み立て性を評価するための情報処理方法であって、
前記検知部で検出された前記操作部の位置及び姿勢から算出される前記第1仮想部品及び前記第2仮想部品の位置及び姿勢を取得し、
取得した前記第1仮想部品及び前記第2仮想部品の位置及び姿勢から推定される前記第1仮想部品と前記第2仮想部品との接触状態に基づいて、前記作業者に与える触覚に係る触覚情報を生成し、
生成した前記触覚情報を前記触覚発生部に出力する、ことを含む、
情報処理方法。
An operation unit for operating the positions and postures of the first virtual part and the second virtual part, which are virtual images of the first part and the second part generated by using the design data of the first part and the second part. An information processing method for evaluating the assemblability of parts using a system including a detection unit that detects the position and orientation of the operation unit and a tactile generation unit that gives a tactile sensation to an operator who operates the operation unit. ,
Acquire the positions and postures of the first virtual component and the second virtual component calculated from the positions and postures of the operation unit detected by the detection unit.
Tactile information related to the tactile sensation given to the worker based on the contact state between the first virtual component and the second virtual component estimated from the acquired positions and postures of the first virtual component and the second virtual component. To generate
Including that the generated tactile information is output to the tactile generator.
Information processing method.
前記触覚情報の生成では、前記第1仮想部品と前記第2仮想部品とが接触している場合に、前記触覚情報を生成する、
請求項1記載の情報処理方法。
In the generation of the tactile information, the tactile information is generated when the first virtual component and the second virtual component are in contact with each other.
The information processing method according to claim 1.
前記触覚情報の生成では、前記第1仮想部品と前記第2仮想部品とが干渉している場合、前記第1部品と前記第2部品とが干渉する際に生じる触覚を前記作業者に与えるための情報を含む前記触覚情報を生成する、
請求項2記載の情報処理方法。
In the generation of the tactile information, when the first virtual component and the second virtual component interfere with each other, the operator is given a tactile sensation generated when the first component and the second component interfere with each other. To generate the tactile information including the information of
The information processing method according to claim 2.
前記触覚情報の生成、及び、前記触覚情報の出力を異なる前記設計データ毎に行う、
請求項2又は3記載の情報処理方法。
The generation of the tactile information and the output of the tactile information are performed for each of the different design data.
The information processing method according to claim 2 or 3.
前記触覚情報の生成では、前記接触状態、並びに、前記第1部品及び前記第2部品の設計公差又は材質を含む前記設計データに基づいて前記触覚情報を生成する、
請求項2〜4のいずれか1項に記載の情報処理方法。
In the generation of the tactile information, the tactile information is generated based on the contact state and the design data including the design tolerances or materials of the first component and the second component.
The information processing method according to any one of claims 2 to 4.
前記第2仮想部品は、前記第1仮想部品の少なくとも一部が嵌まる凹部を有し、
前記触覚情報の生成では、前記第1仮想部品が前記凹部に嵌まっている場合、前記第1部品が前記第2部品が有する凹部に嵌まっている際に生じる触覚を前記作業者に与えるための情報を含む前記触覚情報を生成する、
請求項5記載の情報処理方法。
The second virtual component has a recess into which at least a part of the first virtual component fits.
In the generation of the tactile information, when the first virtual component is fitted in the recess, the operator is given a tactile sensation generated when the first component is fitted in the recess of the second component. To generate the tactile information including the information of
The information processing method according to claim 5.
前記触覚情報の生成、及び、前記触覚情報の出力を前記設計公差又は前記材質が異なる前記設計データ毎に行う、
請求項5又は6に記載の情報処理方法。
The generation of the tactile information and the output of the tactile information are performed for each of the design tolerances or the design data having different materials.
The information processing method according to claim 5 or 6.
第1部品及び第2部品の設計データを用いて生成された前記第1部品及び前記第2部品の仮想映像である第1仮想部品及び第2仮想部品の位置及び姿勢を操作するための操作部、前記操作部の位置及び姿勢を検出する検知部、前記操作部を操作する作業者に触覚を与える触覚発生部を含むシステムを用いて部品の組み立て性を評価するための情報処理装置であって、
プロセッサと、
前記プロセッサによって実行可能なプログラムが記憶されたメモリと、を備え、
前記プロセッサは、前記メモリに記憶された前記プログラムを用いて、
前記検知部で検出された前記操作部の位置及び姿勢から算出される前記第1仮想部品及び前記第2仮想部品の位置及び姿勢を取得し、
取得した前記第1仮想部品及び前記第2仮想部品の位置及び姿勢から推定される前記第1仮想部品と前記第2仮想部品との接触状態に基づいて、前記作業者に与える触覚に係る触覚情報を生成し、
生成した前記触覚情報を前記触覚発生部に出力する、
情報処理装置。
An operation unit for operating the positions and postures of the first virtual part and the second virtual part, which are virtual images of the first part and the second part generated by using the design data of the first part and the second part. An information processing device for evaluating the assemblability of parts using a system including a detection unit that detects the position and orientation of the operation unit and a tactile generation unit that gives a tactile sensation to an operator who operates the operation unit. ,
With the processor
A memory in which a program that can be executed by the processor is stored, and
The processor uses the program stored in the memory.
Acquire the positions and postures of the first virtual component and the second virtual component calculated from the positions and postures of the operation unit detected by the detection unit.
Tactile information related to the tactile sensation given to the worker based on the contact state between the first virtual component and the second virtual component estimated from the acquired positions and postures of the first virtual component and the second virtual component. To generate
The generated tactile information is output to the tactile generator.
Information processing device.
請求項1〜7のいずれか1項に記載の情報処理方法をコンピュータに実行させるためのプログラム。 A program for causing a computer to execute the information processing method according to any one of claims 1 to 7.
JP2019225317A 2019-12-13 2019-12-13 Information processing method, information processing device and program Pending JP2021096504A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019225317A JP2021096504A (en) 2019-12-13 2019-12-13 Information processing method, information processing device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019225317A JP2021096504A (en) 2019-12-13 2019-12-13 Information processing method, information processing device and program

Publications (1)

Publication Number Publication Date
JP2021096504A true JP2021096504A (en) 2021-06-24

Family

ID=76431356

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019225317A Pending JP2021096504A (en) 2019-12-13 2019-12-13 Information processing method, information processing device and program

Country Status (1)

Country Link
JP (1) JP2021096504A (en)

Similar Documents

Publication Publication Date Title
CN103970265B (en) Augmented reality user interface with touch feedback
WO2018016107A1 (en) Operating device and control system
US20170094264A1 (en) Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method
CN106999772B (en) System, program, and method for operating screen by linking display with a plurality of controllers connected via network
KR101720655B1 (en) Device for provide the haptic feedback based on user behavior recognition and method thereof
WO2017150127A1 (en) Control apparatus and control program
WO2019176308A1 (en) Information processing device, information processing method and program
US10614590B2 (en) Apparatus for determination of interference between virtual objects, control method of the apparatus, and storage medium
CN104794757A (en) Information processing apparatus and information processing method
WO2014078704A1 (en) Associating an object with a subject
JP7401427B2 (en) Positioning device and spatial positioning system
CN108780359A (en) control device, control method and control program
US20180081444A1 (en) Simulation system
JP5428294B2 (en) Exercise content generation system, output terminal, exercise content generation device, content generation method, and content generation program
WO2014078726A1 (en) Binding control devices to a computing system
JP2021096504A (en) Information processing method, information processing device and program
JP2013210906A (en) Control method, control device and program
US8333664B2 (en) Information processing apparatus, control method therefor, operation device, and information storage medium
US20210256865A1 (en) Display system, server, display method, and device
JP2021131490A (en) Information processing device, information processing method, and program
JP6941715B2 (en) Display device, display program, display method and display system
CN111047710B (en) Virtual reality system, interactive device display method, and computer-readable storage medium
KR101369938B1 (en) Apparatus and method for user interface by using recognizing location in a space
US20210157395A1 (en) Motion sensing data generating method and motion sensing data generating system
KR20160089982A (en) Input apparatus using a motion recognition sensor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221011

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230524

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230606

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20231128