JP2021096504A - Information processing method, information processing device and program - Google Patents
Information processing method, information processing device and program Download PDFInfo
- Publication number
- JP2021096504A JP2021096504A JP2019225317A JP2019225317A JP2021096504A JP 2021096504 A JP2021096504 A JP 2021096504A JP 2019225317 A JP2019225317 A JP 2019225317A JP 2019225317 A JP2019225317 A JP 2019225317A JP 2021096504 A JP2021096504 A JP 2021096504A
- Authority
- JP
- Japan
- Prior art keywords
- component
- virtual
- tactile
- virtual component
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 41
- 238000003672 processing method Methods 0.000 title claims abstract description 27
- 238000001514 detection method Methods 0.000 claims abstract description 36
- 230000035807 sensation Effects 0.000 claims description 82
- 238000013461 design Methods 0.000 claims description 55
- 230000036544 posture Effects 0.000 claims description 42
- 239000000463 material Substances 0.000 claims description 24
- 230000015541 sensory perception of touch Effects 0.000 abstract 6
- 238000004891 communication Methods 0.000 description 26
- 238000000034 method Methods 0.000 description 23
- 238000011156 evaluation Methods 0.000 description 17
- 238000010586 diagram Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 7
- 238000012545 processing Methods 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 238000004590 computer program Methods 0.000 description 2
- 230000003252 repetitive effect Effects 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 239000011347 resin Substances 0.000 description 1
- 229920005989 resin Polymers 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Abstract
Description
本開示は、情報処理方法、情報処理装置及びプログラムに関する。 The present disclosure relates to information processing methods, information processing devices and programs.
部品の組み立て性を評価するシステムとして、実際の部品の仮想映像である仮想部品等を用いるシステムが知られている(例えば、特許文献1参照)。 As a system for evaluating the assemblability of parts, a system using a virtual part or the like which is a virtual image of an actual part is known (see, for example, Patent Document 1).
しかしながら、上記特許文献1に開示されたシステムでは、仮想部品等を用いるため、現実において作業者が感じる触覚を考慮した部品の組み立て性の評価ができない。
However, since the system disclosed in
そこで、本開示は、作業者の感じる触覚を考慮した部品の組み立て性の評価が可能な情報処理方法、情報処理装置及びプログラムを提供することを目的とする。 Therefore, an object of the present disclosure is to provide an information processing method, an information processing device, and a program capable of evaluating the assemblability of parts in consideration of the tactile sensation felt by an operator.
本開示の一態様に係る情報処理方法は、第1部品及び第2部品の設計データを用いて生成された前記第1部品及び前記第2部品の仮想映像である第1仮想部品及び第2仮想部品の位置及び姿勢を操作するための操作部、前記操作部の位置及び姿勢を検出する検知部、前記操作部を操作する作業者に触覚を与える触覚発生部を含むシステムを用いて部品の組み立て性を評価するための情報処理方法であって、前記検知部で検出された前記操作部の位置及び姿勢から算出される前記第1仮想部品及び前記第2仮想部品の位置及び姿勢を取得し、取得した前記第1仮想部品及び前記第2仮想部品の位置及び姿勢から推定される前記第1仮想部品と前記第2仮想部品との接触状態に基づいて、前記作業者に与える触覚に係る触覚情報を生成し、生成した前記触覚情報を前記触覚発生部に出力する、ことを含む。 The information processing method according to one aspect of the present disclosure is a first virtual component and a second virtual image which are virtual images of the first component and the second component generated by using the design data of the first component and the second component. Assembling parts using a system including an operation unit for manipulating the position and posture of a part, a detection unit for detecting the position and posture of the operation unit, and a tactile generation unit for giving a tactile sensation to an operator who operates the operation unit. It is an information processing method for evaluating the property, and acquires the positions and postures of the first virtual component and the second virtual component calculated from the positions and postures of the operation unit detected by the detection unit. Tactile information related to the tactile sensation given to the worker based on the contact state between the first virtual component and the second virtual component estimated from the acquired positions and postures of the first virtual component and the second virtual component. Is generated, and the generated tactile information is output to the tactile generation unit.
本開示の一態様に係る情報処理装置は、第1部品及び第2部品の設計データを用いて生成された前記第1部品及び前記第2部品の仮想映像である第1仮想部品及び第2仮想部品の位置及び姿勢を操作するための操作部、前記操作部の位置及び姿勢を検出する検知部、前記操作部を操作する作業者に触覚を与える触覚発生部を含むシステムを用いて部品の組み立て性を評価するための情報処理装置であって、プロセッサと、前記プロセッサによって実行可能なプログラムが記憶されたメモリと、を備え、前記プロセッサは、前記メモリに記憶された前記プログラムを用いて、前記検知部で検出された前記操作部の位置及び姿勢から算出される前記第1仮想部品及び前記第2仮想部品の位置及び姿勢を取得し、取得した前記第1仮想部品及び前記第2仮想部品の位置及び姿勢から推定される前記第1仮想部品と前記第2仮想部品との接触状態に基づいて、前記作業者に与える触覚に係る触覚情報を生成し、生成した前記触覚情報を前記触覚発生部に出力する。 The information processing unit according to one aspect of the present disclosure is a first virtual component and a second virtual image which are virtual images of the first component and the second component generated by using the design data of the first component and the second component. Assembly of parts using a system including an operation unit for manipulating the position and orientation of parts, a detection unit for detecting the position and orientation of the operation unit, and a tactile generation unit for giving a tactile sensation to an operator who operates the operation unit. An information processing device for evaluating sex, which includes a processor and a memory in which a program that can be executed by the processor is stored, and the processor uses the program stored in the memory to perform the above-mentioned. The positions and orientations of the first virtual component and the second virtual component calculated from the position and orientation of the operation unit detected by the detection unit are acquired, and the acquired first virtual component and the second virtual component Based on the contact state between the first virtual component and the second virtual component estimated from the position and posture, tactile information related to the tactile sensation given to the worker is generated, and the generated tactile sensation information is used as the tactile sensation generating unit. Output to.
本開示の一態様に係るプログラムは、上記の情報処理方法をコンピュータに実行させるためのプログラムである。 The program according to one aspect of the present disclosure is a program for causing a computer to execute the above information processing method.
本開示は、作業者の感じる触覚を考慮した部品の組み立て性の評価が可能な情報処理方法、情報処理装置及びプログラムを提供できる。 The present disclosure can provide an information processing method, an information processing device, and a program capable of evaluating the assemblability of parts in consideration of the tactile sensation felt by an operator.
本開示の一態様に係る情報処理方法は、第1部品及び第2部品の設計データを用いて生成された前記第1部品及び前記第2部品の仮想映像である第1仮想部品及び第2仮想部品の位置及び姿勢を操作するための操作部、前記操作部の位置及び姿勢を検出する検知部、前記操作部を操作する作業者に触覚を与える触覚発生部を含むシステムを用いて部品の組み立て性を評価するための情報処理方法であって、前記検知部で検出された前記操作部の位置及び姿勢から算出される前記第1仮想部品及び前記第2仮想部品の位置及び姿勢を取得し、取得した前記第1仮想部品及び前記第2仮想部品の位置及び姿勢から推定される前記第1仮想部品と前記第2仮想部品との接触状態に基づいて、前記作業者に与える触覚に係る触覚情報を生成し、生成した前記触覚情報を前記触覚発生部に出力する、ことを含む。 The information processing method according to one aspect of the present disclosure is a first virtual component and a second virtual image which are virtual images of the first component and the second component generated by using the design data of the first component and the second component. Assembling parts using a system including an operation unit for manipulating the position and posture of a part, a detection unit for detecting the position and posture of the operation unit, and a tactile generation unit for giving a tactile sensation to an operator who operates the operation unit. It is an information processing method for evaluating the property, and acquires the positions and postures of the first virtual component and the second virtual component calculated from the positions and postures of the operation unit detected by the detection unit. Tactile information related to the tactile sensation given to the worker based on the contact state between the first virtual component and the second virtual component estimated from the acquired positions and postures of the first virtual component and the second virtual component. Is generated, and the generated tactile information is output to the tactile generation unit.
これによれば、仮想映像である第1仮想部品と第2仮想部品との接触状態に基づいて、作業者に与える触覚に係る触覚情報が生成され触覚発生部に出力される。このため、作業者は、実際の第1部品と第2部品との組み立て作業の際に感じる触覚を、触覚発生部を介して仮想的に感じることができる。したがって、作業者の感じる触覚を考慮した部品の組み立て性の評価が可能となる。例えば、作業者によって作業にばらつきがあったり、部品によって寸法にばらつきがあったりするが、本態様によれば、部品を試作する前に、仮想部品を用いて作業者の感じる触覚を考慮しながら容易に繰り返し組み立て作業のシミュレーションを行うことができる。よって、作業者の感じる触覚を考慮した部品の組み立て性の評価が可能となる。そして、評価結果を用いて、工程設計及び部品設計を効果的に行うことができる。 According to this, tactile information related to the tactile sensation given to the operator is generated and output to the tactile sensation generating unit based on the contact state between the first virtual component and the second virtual component which is a virtual image. Therefore, the operator can virtually feel the tactile sensation felt during the actual assembly work of the first component and the second component through the tactile sensation generating unit. Therefore, it is possible to evaluate the assembleability of parts in consideration of the tactile sensation felt by the operator. For example, the work may vary depending on the worker, or the dimensions may vary depending on the part. According to this embodiment, before making a prototype of the part, the tactile sensation felt by the worker is taken into consideration by using the virtual part. It is possible to easily simulate repetitive assembly work. Therefore, it is possible to evaluate the assembling property of the parts in consideration of the tactile sensation felt by the operator. Then, the process design and the component design can be effectively performed by using the evaluation result.
例えば、前記触覚情報の生成では、前記第1仮想部品と前記第2仮想部品とが接触している場合に、前記触覚情報を生成してもよい。 For example, in the generation of the tactile information, the tactile information may be generated when the first virtual component and the second virtual component are in contact with each other.
これによれば、第1仮想部品と第2仮想部品とが接触しているときに、作業者は、実際の第1部品と第2部品との組み立て作業の際に第1部品と第2部品とが接触したときに感じる触覚を、触覚発生部を介して仮想的に感じることができる。 According to this, when the first virtual part and the second virtual part are in contact with each other, the operator can perform the actual assembly work of the first part and the second part with the first part and the second part. You can virtually feel the tactile sensation that you feel when you come into contact with the tactile sensation through the tactile sensation generator.
例えば、前記触覚情報の生成では、前記第1仮想部品と前記第2仮想部品とが干渉している場合、前記第1部品と前記第2部品とが干渉する際に生じる触覚を前記作業者に与えるための情報を含む前記触覚情報を生成してもよい。 For example, in the generation of the tactile information, when the first virtual component and the second virtual component interfere with each other, the operator is given a tactile sensation generated when the first component and the second component interfere with each other. The tactile information including the information to be given may be generated.
これによれば、作業者は、実際の第1部品と第2部品との組み立て作業の際に第1部品と第2部品とが干渉したときに感じる触覚を、触覚発生部を介して仮想的に感じることができる。 According to this, the operator virtually feels the tactile sensation when the first component and the second component interfere with each other during the actual assembly work of the first component and the second component through the tactile sensation generator. Can be felt.
例えば、前記触覚情報の生成、及び、前記触覚情報の出力を異なる前記設計データ毎に行ってもよい。 For example, the generation of the tactile information and the output of the tactile information may be performed for each of the different design data.
設計データを変えていったときに、実際の部品で組み立て性を評価しようとすると、異なる設計データの部品を準備するためのコストがかかる。これに対して本態様によれば、異なる設計データを用いて生成された様々な仮想部品を用いて部品の組み立て性の評価を容易に行うことができる。 When trying to evaluate the assemblability with actual parts when the design data is changed, it costs money to prepare parts with different design data. On the other hand, according to this aspect, it is possible to easily evaluate the assemblability of parts by using various virtual parts generated by using different design data.
例えば、前記触覚情報の生成では、前記接触状態、並びに、前記第1部品及び前記第2部品の設計公差又は材質を含む前記設計データに基づいて前記触覚情報を生成してもよい。 For example, in the generation of the tactile information, the tactile information may be generated based on the contact state and the design data including the design tolerances or materials of the first component and the second component.
部品の設計公差又は材質によって、作業者が部品の組み立て作業の際に感じる触覚は異なってくる。これに対して本態様によれば、作業者は、部品の設計公差又は材質によって異なる触覚を、触覚発生部を介して仮想的に感じることができる。 Depending on the design tolerance or material of the part, the tactile sensation that the operator feels when assembling the part differs. On the other hand, according to this aspect, the operator can virtually feel the tactile sensation that differs depending on the design tolerance or the material of the part through the tactile sensation generating portion.
例えば、前記第2仮想部品は、前記第1仮想部品の少なくとも一部が嵌まる凹部を有し、前記触覚情報の生成では、前記第1仮想部品が前記凹部に嵌まっている場合、前記第1部品が前記第2部品が有する凹部に嵌まっている際に生じる触覚を前記作業者に与えるための情報を含む前記触覚情報を生成してもよい。 For example, the second virtual component has a recess in which at least a part of the first virtual component is fitted, and in the generation of the tactile information, when the first virtual component is fitted in the recess, the first virtual component is said. The tactile information including information for giving the operator a tactile sensation generated when one component is fitted in the recess of the second component may be generated.
これによれば、作業者は、実際の第1部品と第2部品との組み立て作業において第1部品を第2部品の凹部に嵌める際に感じる触覚を、触覚発生部を介して仮想的に感じることができる。 According to this, the operator virtually feels the tactile sensation when fitting the first component into the recess of the second component in the actual assembly work of the first component and the second component through the tactile sensation generator. be able to.
例えば、前記触覚情報の生成、及び、前記触覚情報の出力を前記設計公差又は前記材質が異なる前記設計データ毎に行ってもよい。 For example, the tactile information may be generated and the tactile information may be output for each of the design tolerances or the design data having different materials.
設計データとして部品の設計公差又は材質を変えていったときに、実際の部品で組み立て性を評価しようとすると、異なる設計公差又は材質の部品を準備するためのコストがかかる。これに対して本態様によれば、設計公差又は材質が異なる設計データを用いて生成された様々な仮想部品を用いて部品の組み立て性の評価を容易に行うことができる。 When the design tolerance or material of a part is changed as design data, if an attempt is made to evaluate the assemblability with an actual part, it is costly to prepare a part with a different design tolerance or material. On the other hand, according to this aspect, it is possible to easily evaluate the assemblability of parts by using various virtual parts generated by using design data having different design tolerances or materials.
本開示の一態様に係る情報処理装置は、第1部品及び第2部品の設計データを用いて生成された前記第1部品及び前記第2部品の仮想映像である第1仮想部品及び第2仮想部品の位置及び姿勢を操作するための操作部、前記操作部の位置及び姿勢を検出する検知部、前記操作部を操作する作業者に触覚を与える触覚発生部を含むシステムを用いて部品の組み立て性を評価するための情報処理装置であって、プロセッサと、前記プロセッサによって実行可能なプログラムが記憶されたメモリと、を備え、前記プロセッサは、前記メモリに記憶された前記プログラムを用いて、前記検知部で検出された前記操作部の位置及び姿勢から算出される前記第1仮想部品及び前記第2仮想部品の位置及び姿勢を取得し、取得した前記第1仮想部品及び前記第2仮想部品の位置及び姿勢から推定される前記第1仮想部品と前記第2仮想部品との接触状態に基づいて、前記作業者に与える触覚に係る触覚情報を生成し、生成した前記触覚情報を前記触覚発生部に出力する。 The information processing unit according to one aspect of the present disclosure is a first virtual component and a second virtual image which are virtual images of the first component and the second component generated by using the design data of the first component and the second component. Assembly of parts using a system including an operation unit for manipulating the position and orientation of parts, a detection unit for detecting the position and orientation of the operation unit, and a tactile generation unit for giving a tactile sensation to an operator who operates the operation unit. An information processing device for evaluating sex, which includes a processor and a memory in which a program that can be executed by the processor is stored, and the processor uses the program stored in the memory to perform the above-mentioned. The positions and orientations of the first virtual component and the second virtual component calculated from the position and orientation of the operation unit detected by the detection unit are acquired, and the acquired first virtual component and the second virtual component Based on the contact state between the first virtual component and the second virtual component estimated from the position and posture, tactile information related to the tactile sensation given to the worker is generated, and the generated tactile sensation information is used as the tactile sensation generating unit. Output to.
これによれば、作業者の感じる触覚を考慮した部品の組み立て性の評価が可能な情報処理装置を提供できる。 According to this, it is possible to provide an information processing device capable of evaluating the assemblability of parts in consideration of the tactile sensation felt by an operator.
本開示の一態様に係るプログラムは、上記の情報処理方法をコンピュータに実行させるためのプログラムである。 The program according to one aspect of the present disclosure is a program for causing a computer to execute the above information processing method.
これによれば、作業者の感じる触覚を考慮した部品の組み立て性の評価が可能なプログラムを提供できる。 According to this, it is possible to provide a program capable of evaluating the assemblability of parts in consideration of the tactile sensation felt by the operator.
なお、これらの包括的又は具体的な態様は、システム、方法、集積回路、コンピュータプログラム又はコンピュータ読み取り可能なCD−ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラム及び記録媒体の任意な組み合わせで実現されてもよい。 It should be noted that these comprehensive or specific embodiments may be realized in a recording medium such as a system, method, integrated circuit, computer program or computer-readable CD-ROM, and the system, method, integrated circuit, computer program. And any combination of recording media may be realized.
以下、実施の形態について、図面を参照しながら具体的に説明する。 Hereinafter, embodiments will be specifically described with reference to the drawings.
なお、以下で説明する実施の形態は、いずれも包括的又は具体的な例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本開示を限定する主旨ではない。 It should be noted that all of the embodiments described below show comprehensive or specific examples. Numerical values, shapes, materials, components, arrangement positions and connection forms of components, steps, order of steps, etc. shown in the following embodiments are examples, and are not intended to limit the present disclosure.
(実施の形態)
図1は、実施の形態に係る評価システム100の概要を示す模式図である。評価システム100は、例えば、作業者101が2つの部品を組み立てる作業を行う際の作業のやり易さ(具体的には、部品の組み立て性)を評価するシステムである。以下では、評価システム100について説明しつつ、評価システム100を用いて部品の組み立て性を評価するための情報処理方法、及び、情報処理装置について説明する。
(Embodiment)
FIG. 1 is a schematic diagram showing an outline of the
評価システム100は、サーバ102と、ヘッドセット103と、コントローラ104と、センサ105とを備える。ここでは、評価システム100は、2つのコントローラ104と、2つのセンサ105とを備える。評価システム100では、xR(例えば、VR(Virtual Reality)、AR(Augmented Reality)又はMR(Mixed Reality)等)が用いられる。
The
ヘッドセット103は、作業者101の頭部に装着される。2つのコントローラ104は、作業者101の両手に把持される。2つのセンサ105は、ヘッドセット103の位置、並びに、コントローラ104(具体的には後述する操作部141)の位置及び姿勢を検出するために用いられる。コントローラ104は、センサ105と通信することで、作業者101の手の位置及び姿勢を検出するための機能を有する。更に、コントローラ104はサーバ102から受信した触覚に係る触覚情報を用いて作業者101に触覚を与える機能を有する。
The
図2は、実施の形態に係る評価システム100の構成例を示すブロック図である。
FIG. 2 is a block diagram showing a configuration example of the
図2に示すように、サーバ102は、ネットワーク106を介して、ヘッドセット103と接続されている。サーバ102は、後述する操作部141、検知部144及び触覚発生部143を含むシステムを用いて部品の組み立て性を評価するための情報処理装置である。サーバ102は、ヘッドセット103の位置及び作業者101による操作部141の操作内容に基づき、ヘッドセット103で再生する画像(例えば映像)を生成し、生成した画像をヘッドセット103に出力する。
As shown in FIG. 2, the
サーバ102は蓄積部121と、取得部122と、生成部123と、出力部124と、NW(ネットワーク)通信部125とを備える。サーバ102は、プロセッサ、メモリ及び通信インタフェース等を備えるコンピュータである。メモリは、ROM(Read Only Memory)及びRAM(Random Access Memory)等であり、プロセッサによって実行可能なプログラムが記憶される。なお、蓄積部121は、メモリの一例であるが、プログラムを記憶するメモリとは別のメモリであってもよい。プロセッサは、メモリに記憶されたプログラムを用いて、取得部122、生成部123及び出力部124の機能を実行する。NW通信部125は、通信回路、通信線等が接続されるコネクタ又はアンテナ等からなる通信インタフェースによって実現される。
The
蓄積部121は、部品の設計データを示す三次元情報を格納している。ここでは、蓄積部121は、少なくとも2つの部品(例えば第1部品及び第2部品)の設計データを格納している。例えば、サーバ102は、部品の設計データを用いて部品の仮想映像である仮想部品を生成する。ここでは、サーバ102は、第1部品及び第2部品の設計データを用いて第1部品及び第2部品の仮想映像である第1仮想部品及び第2仮想部品を生成する。また、蓄積部121は、第1仮想部品及び第2仮想部品が配置される仮想空間を示す三次元情報を格納していてもよい。また、蓄積部121は、第1部品及び第2部品のサイズ毎、かつ、材質毎の嵌め合い抵抗を表すデータ(例えば表)を予め記憶している。
The
取得部122は、ヘッドセット103から、操作部141の位置及び姿勢、並びに、操作部141への操作内容を取得する。後述する検知部144で検出された操作部141の位置及び姿勢から第1仮想部品及び第2仮想部品の位置及び姿勢を算出することができるため、取得部122は、検知部144で検出された操作部141の位置及び姿勢から算出される第1仮想部品及び第2仮想部品の位置及び姿勢を取得することになる。また、取得部122は、ヘッドセット103の位置を取得する。
The
生成部123は、ヘッドセット103の位置、操作部141の位置及び姿勢、並びに、操作部141への操作内容に基づき、仮想空間において、ヘッドセット103の位置に対応する作業者101の視点から見た部品の立体映像(具体的には第1仮想部品及び第2仮想部品)及び作業者101の視点から見た作業者101の手の立体映像(仮想手とも呼ぶ)を生成する。また、生成部123は、取得された第1仮想部品及び第2仮想部品の位置及び姿勢から推定される第1仮想部品と第2仮想部品との接触状態に基づいて、作業者101に与える触覚に係る触覚情報を生成する。
The
出力部124は、生成された部品の立体映像及び作業者101の手の立体映像をヘッドセット103(具体的には後述する表示部133)に向けて出力する。また、出力部124は、生成された触覚情報をコントローラ104(具体的には後述する触覚発生部143)に向けて出力する。
The
NW通信部125は、ヘッドセット103の位置、操作部141の位置及び姿勢、並びに、操作部141への操作内容を、ネットワーク106を介してヘッドセット103から受信する。また、NW通信部125は、出力部124から出力された部品の立体映像及び作業者101の手の立体映像、並びに、触覚情報を、ネットワーク106を介してヘッドセット103に送信する。
The
ヘッドセット103は、サーバ102から送信された立体映像を表示する。ヘッドセット103は、NW通信部131と、通信部132と、表示部133と、検知部134とを備える。
The
NW通信部131は、サーバ102から送信された立体映像及び触覚情報等を受信する。また、NW通信部131は、ヘッドセット103の位置、操作部141の位置及び姿勢、並びに、操作部141への作業者101の操作内容を、ネットワーク106を介して、サーバ102に送信する。なお、サーバ102とヘッドセット103との通信方法は特に限定されず、有線又は無線等の任意の方式が用いられてよい。
The NW communication unit 131 receives the stereoscopic image, the tactile information, and the like transmitted from the
通信部132は、コントローラ104と通信する。具体的には、通信部132は、サーバ102から送信された触覚情報をコントローラ104(具体的には後述する触覚発生部143)に送信する。また、通信部132は、コントローラ104から送信された操作部141の位置及び姿勢、並びに、操作部141への操作内容を受信し、受信した情報をNW通信部131に出力する。
The
表示部133は、サーバ102から送信された立体映像を表示する。
The
検知部134は、ヘッドセット103(作業者101)の位置を検知する。具体的には、以下のようにして検知部134は、ヘッドセット103の位置を検知する。なお、以下では、センサ105を赤外線センサとし、センサ105が備える検知部151を、赤外光レーザをスキャン照射する赤外線発光部とする。
The
まず、検知部151は、赤外光レーザをスキャン照射する。ヘッドセット103の検知部134は、ヘッドセット103に設けられた複数の受光部を含み、各受光部は、2個のセンサ105から照射された赤外光レーザを受光する。検知部134は、各受光部で受信したレーザの検知部151における照射方向と、レーザ照射から受信までの時間とに基づき、ヘッドセット103の位置を検知する。検知されたヘッドセット103の位置は、NW通信部131に出力される。
First, the
コントローラ104は、操作部141と、通信部142と、触覚発生部143と、検知部144とを備える。
The
操作部141は、コントローラ104の本体であり、作業者101の手等に取り付けられる。作業者101が手を動かすことで、操作部141の位置及び姿勢が操作される。操作部141の位置及び姿勢に連動して、第1仮想部品及び第2仮想部品の位置及び姿勢が操作されるため、操作部141は、第1仮想部品及び第2仮想部品の位置及び姿勢を操作する構成要素となる。
The
また、操作部141は、作業者101が、仮想手で仮想部品を掴むための入力インタフェースであり、作業者101の操作を受け付ける。例えば、操作部141は、1つ又は複数の操作ボタンを有する。例えば、表示部133で表示された映像において、仮想手が仮想部品の近くにある場合に、操作ボタンが操作(例えば押下)されることで、仮想部品が仮想手に掴まれ、以降仮想手に追従して仮想部品が移動する。
Further, the
通信部142は、ヘッドセット103と通信する。具体的には、通信部142は、操作部141に対する操作内容と、操作部141の位置及び姿勢とをヘッドセット103に送信する。また、通信部142は、ヘッドセット103から送信された触覚情報を受信する。触覚情報に基づき触覚発生部143が制御される。
The
なお、ヘッドセット103とコントローラ104との通信方法は特に限定されず、有線又は無線等の任意の方式が用いられてよい。また、コントローラ104は、ヘッドセット103を介さずにサーバ102と通信を行ってもよい。すなわち、通信部142は、操作部141に対する操作内容と、コントローラ104の位置及び姿勢とをサーバ102に送信してもよく、サーバ102から触覚情報を受信してもよい。
The communication method between the
触覚発生部143は、部品の位置及び姿勢の状態に応じて、作業者101に触覚を与える。触覚発生部143が作業者101に触覚を与える方法は特に限定されない。例えば、触覚発生部143は、手袋の形状を有している。触覚発生部143は、手袋に装着された手の指先部分に空気を送り込む等して圧力を掛けて作業者101に触覚を与えてもよいし、指先部分を振動させて作業者101に触覚を与えてもよいし、作業者101の筋肉に電気刺激を与えることで作業者101に触覚を与えてもよい。
The
検知部144は、操作部141の位置及び姿勢を検知する。なお、検知部144での検知方法は、検知部134での検知方法と同様であるため説明は省略する。
The
センサ105は、ヘッドセット103の位置、並びに、操作部141の位置及び姿勢を検出するセンサである。上述したように、センサ105は、例えば赤外線センサである。
The
なお、ここでは、位置等の検知の方式として、赤外光レーザを用いる方式が用いられる例を示したが、検知の方式は、これに限らず、公知の任意の方式が用いられてもよい。例えば、ヘッドセット103及び操作部141には、赤外又は可視光を発光する複数の発光部が設けられ、センサ105に設けられた赤外又は可視光カメラで得られた画像に基づきヘッドセット103の位置が検知されてもよい。
Here, an example in which a method using an infrared laser is used as a method for detecting a position or the like is shown, but the detection method is not limited to this, and any known method may be used. .. For example, the
また、ヘッドセット103及び操作部141は加速度センサ、ジャイロセンサ又はGPS(Global Positioning System)受信機等を備えていてもよく、これらにより得られる情報に基づき、ヘッドセット103の位置、並びに、操作部141の位置及び姿勢が検知されてもよい。
Further, the
次に、サーバ102の動作を説明する。
Next, the operation of the
図3は、実施の形態に係るサーバ102の動作の一例を示すフローチャートである。実施の形態に係る情報処理方法は、操作部141、検知部144及び触覚発生部143を含むシステムを用いて部品の組み立て性を評価するための方法である。実施の形態に係る情報処理方法は、サーバ102が備えるコンピュータ(具体的にはプロセッサ)により実行される方法であることから、図3は、実施の形態に係る情報処理方法の一例を示すフローチャートでもある。
FIG. 3 is a flowchart showing an example of the operation of the
まず、生成部123は、蓄積部121に格納されている第1部品及び第2部品の設計データを読み出し、読み出した設計データを用いて第1部品及び第2部品の仮想映像である第1仮想部品及び第2仮想部品を生成する(ステップS11)。例えば、設計データは、第1部品及び第2部品の設計公差又は材質等を含む。
First, the
次に、出力部124は、ヘッドセット103に、生成された第1仮想部品及び第2仮想部品を出力する(ステップS12)。これにより、表示部133に第1仮想部品及び第2仮想部品が表示される。
Next, the
図4Aは、実施の形態に係るヘッドセット103において表示される第1仮想部品200及び第2仮想部品300のイメージを示す図である。
FIG. 4A is a diagram showing images of the first
例えば、第1部品は、第2部品に嵌められる部品であり、第2部品には第1部品が嵌められる凹部が設けられている。これに応じて、図4Aに示されるように、第2仮想部品300は、第1仮想部品200の少なくとも一部が嵌まる凹部301を有する。
For example, the first component is a component that is fitted into the second component, and the second component is provided with a recess into which the first component is fitted. Correspondingly, as shown in FIG. 4A, the second
なお、図示していないが、出力部124は、ヘッドセット103と操作部141との位置関係(つまり、作業者101の頭と手との位置関係)に応じた位置に仮想手が表示されるように仮想手を出力する。
Although not shown, the
そして、作業者101は、表示部133で表示された映像を見ながら、操作部141を操作する。操作部141の位置及び姿勢は検知部144によって検出されて、逐次サーバ102に送信され、最新の操作部141の位置及び姿勢に応じて仮想手の位置及び姿勢が更新される。作業者101は、操作部141を操作して仮想手が第1仮想部品200及び第2仮想部品300に近づくと、操作部141が有するボタンを操作して仮想手で第1仮想部品200及び第2仮想部品300を掴む。これにより、以降は、操作部141の位置及び姿勢に応じて仮想手に掴まれた第1仮想部品200及び第2仮想部品300の位置及び姿勢も連動して操作されるようになる。
Then, the
取得部122は、仮想手に掴まれた第1仮想部品200及び第2仮想部品300の位置及び姿勢を取得する(ステップS13)。第1仮想部品200及び第2仮想部品300の位置及び姿勢は検知部144で検出された操作部141の位置及び姿勢から算出される。
The
生成部123は、最新の第1仮想部品200及び第2仮想部品300の位置及び姿勢を更新する(ステップS14)。
The
生成部123は、取得された第1仮想部品200及び第2仮想部品300の位置及び姿勢から推定される第1仮想部品200と第2仮想部品300との接触状態に基づいて、作業者101に与える触覚に係る触覚情報を生成する(ステップS15)。ステップS21からステップS24は、触覚情報の生成の処理の具体例である。
The
生成部123は、第1仮想部品200と第2仮想部品300とが接触しているか否かを判定する(ステップS21)。第1仮想部品200と第2仮想部品300とが接触している状態について、図4B及び図4Cを用いて説明する。なお、図4Aは、第1仮想部品200と第2仮想部品300とが接触していない状態を示している。
The
図4Bは、実施の形態に係るヘッドセット103において表示される、干渉している第1仮想部品200及び第2仮想部品300のイメージを示す図である。なお、ここでの干渉とは、部品と部品とがぶつかることを意味する。
FIG. 4B is a diagram showing images of interfering first
図4Cは、実施の形態に係るヘッドセット103において表示される、嵌まり合っている第1仮想部品200及び第2仮想部品300のイメージを示す図である。
FIG. 4C is a diagram showing images of the fitted first
図4B及び図4Cは、第1仮想部品200及び第2仮想部品300が接触している状態を示している。ただし、図4Bは、第1仮想部品200が第2仮想部品300の凹部301に嵌まっていない状態で第1仮想部品200と第2仮想部品300とが干渉している状態を示している。また、図4Cは、第1仮想部品200が第2仮想部品300の凹部301に嵌まっている状態で第1仮想部品200と第2仮想部品300とが接触している状態を示している。なお、第1仮想部品200と第2仮想部品300とは仮想映像であるため、重なり合う場合もある。ここでは、この場合も第1仮想部品200と第2仮想部品300とが接触している状態であるとする。例えば、図4B及び図4Cでは、第1仮想部品200の少なくとも一部と第2仮想部品300の少なくとも一部とが重なり合っていてもよい。
4B and 4C show a state in which the first
図4Aに示すように第1仮想部品200と第2仮想部品300とが接触していない場合(ステップS21でNo)、第1仮想部品200と第2仮想部品300とが接触するまでステップS13及びステップS14での処理が繰り返される。
When the first
図4B又は図4Cに示すように第1仮想部品200と第2仮想部品300とが接触している場合(ステップS21でYes)、生成部123は、触覚情報を生成するが、生成部123は、触覚情報の生成の際に、第1仮想部品200が第2仮想部品300の凹部301に嵌まっているか否かを判定する(ステップS22)。生成部123は、第1仮想部品200の位置が凹部301の内部にあり、かつ、第1仮想部品200の延びる方向と凹部301の延びる方向とが一致しているか否かを判定することで、第1仮想部品200が第2仮想部品300の凹部301に嵌まっているか否かを判定する。なお、第1仮想部品200の先端部分(図4A〜図4Cにおける紙面奥側の部分)が凹部301に少しでも挿入されれば、第1仮想部品200が凹部301に嵌まっている状態となる。
When the first
図4Bに示すように、第1仮想部品200が第2仮想部品300の凹部301に嵌まらずに第1仮想部品200と第2仮想部品300とが干渉している場合(ステップS22でNo)、生成部123は、第1部品と第2部品とが干渉する際に生じる触覚を作業者101に与えるための情報を含む触覚情報を生成する(ステップS23)。例えば、作業者101は、仮想の左手で第1仮想部品200を掴み、仮想の右手で第2仮想部品300を掴んでいる場合に、第1仮想部品200を第2仮想部品300へ移動させていき、図4Bに示すように第1仮想部品200が凹部301に嵌まらずに第1仮想部品200と第2仮想部品300とがぶつかったときに、左手の指先に第1仮想部品200が第2仮想部品300から遠ざかる方向への反発力を与え、右手の指先に第2仮想部品300が第1仮想部品200から遠ざかる方向への反発力を与えるための触覚情報が生成される。
As shown in FIG. 4B, when the first
図4Cに示すように、第1仮想部品200が第2仮想部品300の凹部301に嵌まっている場合(ステップS22でYes)、生成部123は、第1部品が第2部品が有する凹部に嵌まっている際に生じる触覚を作業者101に与えるための情報を含む触覚情報を生成する(ステップS24)。なお、生成部123は、第1仮想部品200及び第2仮想部品300の位置及び姿勢から推定される第1仮想部品200と第2仮想部品300との接触状態、並びに、第1部品及び第2部品の設計公差又は材質を含む設計データに基づいて触覚情報を生成する。第1部品及び第2部品の設計公差又は材質によって、第1部品と第2部品との嵌め合い抵抗が変わり、すなわち、第1部品が第2部品の凹部に嵌まっている際に生じる触覚(嵌める際に受ける抵抗力)も変わってくるためである。
As shown in FIG. 4C, when the first
例えば、嵌め合い抵抗は、第1部品及び第2部品のサイズ毎、かつ、材質毎に予め定めることができ、蓄積部121に嵌め合い抵抗を表すデータが記憶されている。
For example, the fitting resistance can be predetermined for each size of the first component and the second component and for each material, and data representing the fitting resistance is stored in the
図5は、実施の形態に係る蓄積部121に予め記憶された嵌め合い抵抗の一例を示す表である。図5は、第1部品及び第2部品の材質が特定の材質(例えば樹脂等)の場合に、第1部品(図5に示す軸)のサイズ(例えば横方向の長さ)を99±1とし、第2部品の凹部(図5に示す穴)のサイズ(例えば横方向の長さ)を100±1としたときの、第1部品及び第2部品のサイズ毎の嵌め合い抵抗を示す。なお、第1部品及び第2部品のサイズは相対的なサイズであり、嵌め合い抵抗は相対的な抵抗である。例えば、第1部品のサイズが98、第2部品のサイズが101のとき(つまりすきま嵌めの状態のとき)、嵌め合い抵抗が0であるのに対して、第1部品のサイズが100、第2部品のサイズが99のとき(つまりしまり嵌めの状態のとき)、嵌め合い抵抗が100となっていることがわかる。
FIG. 5 is a table showing an example of the fitting resistance stored in advance in the
生成部123は、今回用いた設計データに含まれる第1部品の材質及びサイズ、並びに、第2部品の材質及びサイズを図5に示すような表に照合することで、第1仮想部品200と第2仮想部品300との嵌め合い抵抗を決定し、当該嵌め合い抵抗を発生しながら第1部品が第2部品の凹部に嵌まっている際に生じる触覚を作業者101に与えるための情報を含む触覚情報を生成する。例えば、嵌め合い抵抗が大きいときには第1仮想部品200と第2仮想部品300とが相対的に動きにくくなる触覚が作業者101に与えられる。
By collating the material and size of the first component and the material and size of the second component included in the design data used this time with the table as shown in FIG. 5, the
出力部124は、生成された触覚情報を触覚発生部143に出力する(ステップS16)。これにより、作業者101は、触覚発生部143から第1仮想部品200と第2仮想部品300との接触状態に応じた触覚が与えられる。
The
そして、サーバ102は、第1仮想部品200及び第2仮想部品300の組み立て作業が終了した旨の情報を受信したか否かを判定する(ステップS17)。
Then, the
組み立て作業が終了していない場合(ステップS17でNo)、再度ステップS13からの処理が行われ、組み立て作業が終了した場合(ステップS17でYes)、処理が終了する。 If the assembly work is not completed (No in step S17), the process from step S13 is performed again, and if the assembly work is completed (Yes in step S17), the process is completed.
なお、第1仮想部品200及び第2仮想部品300の組み立て作業が終了した後、分解された状態に戻され、同じ設計データを用いて図3に示す処理(具体的には、触覚情報の生成の処理及び触覚情報の出力の処理)が繰り返し行われてもよい。作業者101は、組み立て作業をする毎に、完全に同じように作業をすることは難しく、作業にばらつきが発生する場合があり、作業者101が繰り返し組み立て作業をすることで、組み立て性の評価をより正確に行うことができるためである。
After the assembly work of the first
また、図3に示す処理は、異なる設計データ毎(具体的には、設計公差又は材質が異なる設計データ毎)に行われてもよい。例えば、第1仮想部品200及び第2仮想部品300のサイズを少しずつ変える毎に、図3に示す処理が行われることで、組み立て性の観点から部品の設計公差をどのくらいまで許容できるのかを評価できる。例えば、組み立て性の評価結果から、第1部品及び第2部品の公差が大きいと組み立て性が悪くなることがわかった場合、コストはかかるが設計公差を小さくするという判断をすることができる。また、組み立て性の評価結果から、第1部品及び第2部品の公差が大きくても組み立て性があまり悪くならないことがわかった場合、第1部品及び第2部品の公差を大きくしてコストを抑制するという判断をすることができる。このように、設計公差又は材質等の設計データを変えていったときに、実際の部品で組み立て性を評価しようとすると、設計公差又は材質等が異なる部品を準備するためのコストがかかるが、本態様によれば、設計公差又は材質等が異なる設計データを用いて生成された様々な仮想部品を用いて部品の組み立て性の評価を容易に行うことができる。
Further, the processing shown in FIG. 3 may be performed for each different design data (specifically, for each design data having a different design tolerance or material). For example, each time the sizes of the first
以上説明したように、仮想映像である第1仮想部品200と第2仮想部品300との接触状態に基づいて、作業者101に与える触覚に係る触覚情報が生成され触覚発生部143に出力される。このため、作業者101は、実際の第1部品と第2部品との組み立て作業の際に感じる触覚を、触覚発生部143を介して仮想的に感じることができる。したがって、作業者101の感じる触覚を考慮した部品の組み立て性の評価が可能となる。例えば、作業者101によって作業にばらつきがあったり、部品によって寸法にばらつきがあったりするが、本態様によれば、部品を試作する前に、仮想部品を用いて作業者101の感じる触覚を考慮しながら容易に繰り返し組み立て作業のシミュレーションを行うことができる。よって、作業者101の感じる触覚(つまり設計データ等の数値だけからでは判断できない感覚)を考慮した部品の組み立て性の評価が可能となる。そして、評価結果を用いて、工程設計及び部品設計を効果的に行うことができる。
As described above, based on the contact state between the first
また、第1仮想部品200と第2仮想部品300とが接触しているときに、作業者101は、実際の第1部品と第2部品との組み立て作業の際に第1部品と第2部品とが接触したときに感じる触覚を、触覚発生部143を介して仮想的に感じることができる。また、作業者101は、部品の設計公差又は材質によって異なる触覚を、触覚発生部143を介して仮想的に感じることができる。また、作業者101は、実際の第1部品と第2部品との組み立て作業において第1部品を第2部品の凹部に嵌める際に感じる触覚を、触覚発生部143を介して仮想的に感じることができる。
Further, when the first
(その他の実施の形態)
以上、実施の形態に係る情報処理方法及び情報処理装置(サーバ102)について説明したが、本開示は、上記実施の形態に限定されるものではない。
(Other embodiments)
Although the information processing method and the information processing device (server 102) according to the embodiment have been described above, the present disclosure is not limited to the above embodiment.
例えば、図2に示す評価システム100の構成は一例であり、ある装置で実行される処理が他の装置で実行されてもよいし、一つの装置で実行される複数の処理を複数の装置で分割して処理してもよいし、複数の装置で実行される複数の処理を単一の装置で実行してもよい。例えば、サーバ102の機能の一部又は全てがヘッドセット103に含まれてもよい。
For example, the configuration of the
例えば、操作部141がボタンを備える例について説明したが、操作部141はボタンを備えていなくてもよい。例えば、仮想手が仮想部品に一定以上近づいたときに自動的に仮想手が仮想部品を掴むように制御されてもよい。つまり、仮想手が仮想部品に一定以上近づいたときに、以降は仮想部品が仮想手に追従して移動してもよい。
For example, although the example in which the
例えば、コントローラ104が触覚発生部143を備える例について説明したが、コントローラ104は触覚発生部143を備えていなくてもよく、コントローラ104と触覚発生部143とは別体に設けられていてもよい。
For example, although the example in which the
例えば、情報処理方法におけるステップは、コンピュータ(コンピュータシステム)によって実行されてもよい。そして、本開示は、それらの方法に含まれるステップを、コンピュータに実行させるためのプログラムとして実現できる。さらに、本開示は、そのプログラムを記録したCD−ROM等である非一時的なコンピュータ読み取り可能な記録媒体として実現できる。 For example, the steps in the information processing method may be performed by a computer (computer system). Then, the present disclosure can be realized as a program for causing a computer to execute the steps included in those methods. Further, the present disclosure can be realized as a non-temporary computer-readable recording medium such as a CD-ROM on which the program is recorded.
例えば、本開示が、プログラム(ソフトウェア)で実現される場合には、コンピュータのCPU、メモリ及び入出力回路等のハードウェア資源を利用してプログラムが実行されることによって、各ステップが実行される。つまり、CPUがデータをメモリ又は入出力回路等から取得して演算したり、演算結果をメモリ又は入出力回路等に出力したりすることによって、各ステップが実行される。 For example, when the present disclosure is realized by a program (software), each step is executed by executing the program using hardware resources such as a computer CPU, memory, and input / output circuit. .. That is, each step is executed when the CPU acquires data from the memory or the input / output circuit or the like and performs an operation, or outputs the operation result to the memory or the input / output circuit or the like.
また、上記実施の形態に係る評価システム100に含まれる各装置に含まれる処理部の一部又は全ては典型的には集積回路であるLSIとして実現される。これらは個別に1チップ化されてもよいし、一部又は全てを含むように1チップ化されてもよい。
Further, a part or all of the processing units included in each device included in the
また、集積回路化はLSIに限るものではなく、専用回路又は汎用プロセッサで実現してもよい。LSI製造後にプログラムすることが可能なFPGA(Field Programmable Gate Array)、又はLSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。 Further, the integrated circuit is not limited to the LSI, and may be realized by a dedicated circuit or a general-purpose processor. An FPGA (Field Programmable Gate Array) that can be programmed after the LSI is manufactured, or a reconfigurable processor that can reconfigure the connection and settings of circuit cells inside the LSI may be used.
また、上記実施の形態において、各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPU又はプロセッサなどのプログラム実行部が、ハードディスク又は半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。 Further, in the above-described embodiment, each component may be configured by dedicated hardware or may be realized by executing a software program suitable for each component. Each component may be realized by a program execution unit such as a CPU or a processor reading and executing a software program recorded on a recording medium such as a hard disk or a semiconductor memory.
また、ブロック図における機能ブロックの分割は一例であり、複数の機能ブロックを一つの機能ブロックとして実現したり、一つの機能ブロックを複数に分割したり、一部の機能を他の機能ブロックに移してもよい。また、類似する機能を有する複数の機能ブロックの機能を単一のハードウェア又はソフトウェアが並列又は時分割に処理してもよい。 Further, the division of the functional block in the block diagram is an example, and a plurality of functional blocks can be realized as one functional block, one functional block can be divided into a plurality of functional blocks, and some functions can be transferred to other functional blocks. You may. Further, the functions of a plurality of functional blocks having similar functions may be processed by a single hardware or software in parallel or in a time division manner.
また、フローチャートにおける各ステップが実行される順序は、本開示を具体的に説明するために例示するためのものであり、上記以外の順序であってもよい。また、上記ステップの一部が、他のステップと同時(並列)に実行されてもよい。 Further, the order in which each step in the flowchart is executed is for exemplifying the present disclosure in detail, and may be an order other than the above. Further, a part of the above steps may be executed at the same time (parallel) as other steps.
以上、一つ又は複数の態様に係る表示システムについて、実施の形態に基づいて説明したが、本発明は、この実施の形態に限定されるものではない。本開示の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したものや、異なる実施の形態における構成要素を組み合わせて構築される形態も、一つ又は複数の態様の範囲内に含まれてもよい。 Although the display system according to one or more aspects has been described above based on the embodiment, the present invention is not limited to this embodiment. As long as the gist of the present disclosure is not deviated, various modifications that can be conceived by those skilled in the art are applied to the present embodiment, and a form constructed by combining components in different embodiments is also within the scope of one or more embodiments. May be included within.
本開示は、例えば、部品の組み立てを仮想的に行うシステム等に適用できる。 The present disclosure can be applied to, for example, a system for virtually assembling parts.
100 評価システム
101 作業者
102 サーバ
103 ヘッドセット
104 コントローラ
105 センサ
106 ネットワーク
121 蓄積部
122 取得部
123 生成部
124 出力部
125、131 NW通信部
132、142 通信部
133 表示部
134、144、151 検知部
141 操作部
143 触覚発生部
200 第1仮想部品
300 第2仮想部品
301 凹部
100
Claims (9)
前記検知部で検出された前記操作部の位置及び姿勢から算出される前記第1仮想部品及び前記第2仮想部品の位置及び姿勢を取得し、
取得した前記第1仮想部品及び前記第2仮想部品の位置及び姿勢から推定される前記第1仮想部品と前記第2仮想部品との接触状態に基づいて、前記作業者に与える触覚に係る触覚情報を生成し、
生成した前記触覚情報を前記触覚発生部に出力する、ことを含む、
情報処理方法。 An operation unit for operating the positions and postures of the first virtual part and the second virtual part, which are virtual images of the first part and the second part generated by using the design data of the first part and the second part. An information processing method for evaluating the assemblability of parts using a system including a detection unit that detects the position and orientation of the operation unit and a tactile generation unit that gives a tactile sensation to an operator who operates the operation unit. ,
Acquire the positions and postures of the first virtual component and the second virtual component calculated from the positions and postures of the operation unit detected by the detection unit.
Tactile information related to the tactile sensation given to the worker based on the contact state between the first virtual component and the second virtual component estimated from the acquired positions and postures of the first virtual component and the second virtual component. To generate
Including that the generated tactile information is output to the tactile generator.
Information processing method.
請求項1記載の情報処理方法。 In the generation of the tactile information, the tactile information is generated when the first virtual component and the second virtual component are in contact with each other.
The information processing method according to claim 1.
請求項2記載の情報処理方法。 In the generation of the tactile information, when the first virtual component and the second virtual component interfere with each other, the operator is given a tactile sensation generated when the first component and the second component interfere with each other. To generate the tactile information including the information of
The information processing method according to claim 2.
請求項2又は3記載の情報処理方法。 The generation of the tactile information and the output of the tactile information are performed for each of the different design data.
The information processing method according to claim 2 or 3.
請求項2〜4のいずれか1項に記載の情報処理方法。 In the generation of the tactile information, the tactile information is generated based on the contact state and the design data including the design tolerances or materials of the first component and the second component.
The information processing method according to any one of claims 2 to 4.
前記触覚情報の生成では、前記第1仮想部品が前記凹部に嵌まっている場合、前記第1部品が前記第2部品が有する凹部に嵌まっている際に生じる触覚を前記作業者に与えるための情報を含む前記触覚情報を生成する、
請求項5記載の情報処理方法。 The second virtual component has a recess into which at least a part of the first virtual component fits.
In the generation of the tactile information, when the first virtual component is fitted in the recess, the operator is given a tactile sensation generated when the first component is fitted in the recess of the second component. To generate the tactile information including the information of
The information processing method according to claim 5.
請求項5又は6に記載の情報処理方法。 The generation of the tactile information and the output of the tactile information are performed for each of the design tolerances or the design data having different materials.
The information processing method according to claim 5 or 6.
プロセッサと、
前記プロセッサによって実行可能なプログラムが記憶されたメモリと、を備え、
前記プロセッサは、前記メモリに記憶された前記プログラムを用いて、
前記検知部で検出された前記操作部の位置及び姿勢から算出される前記第1仮想部品及び前記第2仮想部品の位置及び姿勢を取得し、
取得した前記第1仮想部品及び前記第2仮想部品の位置及び姿勢から推定される前記第1仮想部品と前記第2仮想部品との接触状態に基づいて、前記作業者に与える触覚に係る触覚情報を生成し、
生成した前記触覚情報を前記触覚発生部に出力する、
情報処理装置。 An operation unit for operating the positions and postures of the first virtual part and the second virtual part, which are virtual images of the first part and the second part generated by using the design data of the first part and the second part. An information processing device for evaluating the assemblability of parts using a system including a detection unit that detects the position and orientation of the operation unit and a tactile generation unit that gives a tactile sensation to an operator who operates the operation unit. ,
With the processor
A memory in which a program that can be executed by the processor is stored, and
The processor uses the program stored in the memory.
Acquire the positions and postures of the first virtual component and the second virtual component calculated from the positions and postures of the operation unit detected by the detection unit.
Tactile information related to the tactile sensation given to the worker based on the contact state between the first virtual component and the second virtual component estimated from the acquired positions and postures of the first virtual component and the second virtual component. To generate
The generated tactile information is output to the tactile generator.
Information processing device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019225317A JP2021096504A (en) | 2019-12-13 | 2019-12-13 | Information processing method, information processing device and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019225317A JP2021096504A (en) | 2019-12-13 | 2019-12-13 | Information processing method, information processing device and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021096504A true JP2021096504A (en) | 2021-06-24 |
Family
ID=76431356
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019225317A Pending JP2021096504A (en) | 2019-12-13 | 2019-12-13 | Information processing method, information processing device and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021096504A (en) |
-
2019
- 2019-12-13 JP JP2019225317A patent/JP2021096504A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103970265B (en) | Augmented reality user interface with touch feedback | |
WO2018016107A1 (en) | Operating device and control system | |
US20170094264A1 (en) | Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method | |
CN106999772B (en) | System, program, and method for operating screen by linking display with a plurality of controllers connected via network | |
KR101720655B1 (en) | Device for provide the haptic feedback based on user behavior recognition and method thereof | |
WO2017150127A1 (en) | Control apparatus and control program | |
WO2019176308A1 (en) | Information processing device, information processing method and program | |
US10614590B2 (en) | Apparatus for determination of interference between virtual objects, control method of the apparatus, and storage medium | |
CN104794757A (en) | Information processing apparatus and information processing method | |
WO2014078704A1 (en) | Associating an object with a subject | |
JP7401427B2 (en) | Positioning device and spatial positioning system | |
CN108780359A (en) | control device, control method and control program | |
US20180081444A1 (en) | Simulation system | |
JP5428294B2 (en) | Exercise content generation system, output terminal, exercise content generation device, content generation method, and content generation program | |
WO2014078726A1 (en) | Binding control devices to a computing system | |
JP2021096504A (en) | Information processing method, information processing device and program | |
JP2013210906A (en) | Control method, control device and program | |
US8333664B2 (en) | Information processing apparatus, control method therefor, operation device, and information storage medium | |
US20210256865A1 (en) | Display system, server, display method, and device | |
JP2021131490A (en) | Information processing device, information processing method, and program | |
JP6941715B2 (en) | Display device, display program, display method and display system | |
CN111047710B (en) | Virtual reality system, interactive device display method, and computer-readable storage medium | |
KR101369938B1 (en) | Apparatus and method for user interface by using recognizing location in a space | |
US20210157395A1 (en) | Motion sensing data generating method and motion sensing data generating system | |
KR20160089982A (en) | Input apparatus using a motion recognition sensor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221011 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230524 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230606 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20231128 |