WO2023100268A1 - 切削訓練補助システム - Google Patents

切削訓練補助システム Download PDF

Info

Publication number
WO2023100268A1
WO2023100268A1 PCT/JP2021/043966 JP2021043966W WO2023100268A1 WO 2023100268 A1 WO2023100268 A1 WO 2023100268A1 JP 2021043966 W JP2021043966 W JP 2021043966W WO 2023100268 A1 WO2023100268 A1 WO 2023100268A1
Authority
WO
WIPO (PCT)
Prior art keywords
cutting
stylus
handle
control device
touch panel
Prior art date
Application number
PCT/JP2021/043966
Other languages
English (en)
French (fr)
Inventor
和毅 高嶋
和之 藤田
喜文 北村
香 池松
樹 高野
光 洪
邦拓 加藤
Original Assignee
国立大学法人東北大学
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 国立大学法人東北大学 filed Critical 国立大学法人東北大学
Priority to PCT/JP2021/043966 priority Critical patent/WO2023100268A1/ja
Publication of WO2023100268A1 publication Critical patent/WO2023100268A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes

Definitions

  • the present invention relates to a cutting training assistance system.
  • Non-Patent Document 1 and Non-Patent Document 2.
  • One aspect of the present invention is a cutting training assistance system comprising a pseudo cutting instrument, a position detection device, and a controller, wherein the position detection device detects the position of the pseudo cutting instrument, and the control device detects the position of the pseudo cutting instrument.
  • the cutting training assistance system controls the vibration of the pseudo cutting instrument based on the position of the detection device and the detection information of the pseudo cutting instrument by the position detection device.
  • FIG. 3 is a diagram showing the relationship between the components of the cutting training aid system
  • 4 is a table showing an example of tooth-related information
  • FIG. 10 illustrates the relationship between the components of the cutting training aid system when the stylus is a capacitive stylus
  • Fig. 2 shows the stylus, touch panel, controller, and physics props that are part of the cutting training aid system
  • It is a figure which shows the image
  • FIG. 1 is a diagram showing an example of use of the cutting training assistance system 1. As shown in FIG. The outline of the cutting training assistance system 1 is demonstrated using FIG. The cutting training assistance system 1 assists the user U in cutting training.
  • the cutting training assistance system 1 includes an HMD (head mounted display) 11 , a first handle 12 , a second handle 13 , a stylus 14 , a touch panel 15 , a control device 16 and a physics prop 17 .
  • HMD head mounted display
  • the user U wears the HMD 11 on his head.
  • the HMD 11 is worn so as to cover the user's U eyes.
  • the display of the HMD 11 displays an image of cutting an object to be cut.
  • An object to be cut in this embodiment is, for example, a tooth, but is not limited to this.
  • the object to be cut may be anything that can be cut, such as bone or wood.
  • a stylus 14 is attached to the first handle 12 .
  • the first handle 12 and stylus 14 together function as a pseudo-cutting instrument.
  • the first handle 12 and stylus 14 may be configured, for example, in a shape that simulates a tooth cutting instrument.
  • the tip of the stylus 14 may be configured as a portion corresponding to the tip of a tooth cutting instrument.
  • the second handle 13 outputs information used to calibrate the position of the first handle 12 .
  • the touch panel 15 detects the tip of the stylus 14 .
  • the second handle 13 and the touch panel 15 may be fixed and installed at a specific position.
  • the second handle 13 and the touch panel 15 are arranged at specific positions on, for example, a horizontal table.
  • the physical prop 17 has a shape similar to that of the object to be cut.
  • the physical prop 17 has a shape similar to teeth, for example.
  • the physical prop 17 may have a hardness close to the hardness of the object to be cut.
  • the physical prop 17 may have a tooth-like shape, it may have a hardness close to that of the tooth.
  • a physical prop 17 is arranged at a predetermined position on the touch panel 15 .
  • the control device 16 is configured as a device integrated with the HMD 11 .
  • the touch panel 15 may be implemented using a device such as a smartphone, tablet, or notebook computer, for example.
  • the control device 16 may be any information processing device, for example, it may be configured as a device integrated with the touch panel 15, and may be realized using a device such as a smartphone, tablet, or laptop computer, or realized by cloud computing. may be
  • FIG. 2 is a diagram showing the relationship between the components of the cutting training assistance system 1.
  • the HMD 11 transmits position information of the HMD 11 to the control device 16 .
  • the screen displayed on the display of the HMD 11 is controlled by the control device 16 to show the screen for performing the cutting work.
  • a cutting target 21 to be cut and a cutting tool 22 are displayed on the screen of the HMD 11 .
  • the position of the cutting instrument 22 displayed on the screen of the HMD 11 changes depending on the position of the first handle 12 .
  • the first handle 12 acquires position information and angle information of the first handle 12 and outputs them to the control device 16 .
  • the first handle 12 vibrates under the control of the control device 16 . It is desirable that the first handle 12 has a shape that is easy to hold by hand like the handle of a cutting instrument.
  • the first handle 12 preferably has a shape that approximates a cylinder, for example.
  • the second handle 13 acquires the position information of the second handle 13 and transmits it to the touch panel 15.
  • the second handle 13 is fixed and the positional information of the second handle 13 is used to calibrate the positions of the HMD 11 , first handle 12 , stylus 14 and touch panel 15 .
  • the HMD 11, the first handle 12 and the second handle 13 are commercially available VR headsets such as Oculus (registered trademark) Quest 2, for example.
  • the touch panel 15 detects the position and pen pressure of the stylus 14.
  • the stylus 14 is an electromagnetic induction stylus or a capacitive stylus.
  • the position of the stylus 14 is detected by generating a magnetic field at the tip and detecting the generated magnetic field on the touch panel 15, and the strength of the magnetic field is detected to detect the brush stroke of the stylus 14. detect pressure. Since the touch panel 15 is caused to detect the magnetic field, the position and writing pressure of the stylus 14 can be detected even when the stylus 14 is not in contact with the touch panel 15 . If the stylus 14 is a capacitive stylus, the tip of the stylus 14 is brought into direct contact with the touch panel 15 to cause the touch panel 15 to detect the position and writing pressure.
  • the stylus 14 is attached to the first handle 12, and when the user U moves the first handle 12, the stylus 14 can be moved together. Further, alignment is performed so that the position of the tip of the stylus 14 corresponds to the position of the tip of the cutting instrument 22 displayed on the screen of the HMD 11 .
  • the stylus 14 is attached to the first handle 12 so that the handle portion of the first handle 12 and the tip of the stylus 14 reproduce the handle portion and tip of the cutting instrument.
  • the handle is not perpendicular to the ground but forms an acute angle with the ground.
  • the first handle 12 and the stylus 14 when the stylus 14 is perpendicular to the ground, the first handle 12 is not perpendicular to the ground and forms an acute angle with the ground.
  • a stylus 14 is attached.
  • the touch panel 15 detects the position and writing pressure of the stylus 14.
  • the touch panel 15 transmits position information of the touch panel 15 and detection information of the stylus 14 to the control device 16 .
  • the touch panel 15 is an electromagnetic induction touch panel when the stylus 14 is an electromagnetic induction stylus, and is a capacitive touch panel when the stylus 14 is a capacitive stylus.
  • the touch panel 15 only needs to be able to detect the position and writing pressure of the stylus 14, and may be a track pad or pen tablet, for example.
  • the control device 16 controls the HMD 11 and the first handle 12.
  • the control device 16 controls the screen displayed on the HMD 11 based on the position information of the HMD 11, the angle information and position information of the first handle 12, the position information of the second handle 13, the detection information of the stylus 14, and the position information of the touch panel 15. to control.
  • the control device 16 determines the display position, display angle, and display shape of the cutting instrument 22 based on the angle information and relative position information of the first handle 12 , for example, and controls the display on the screen of the HMD 11 .
  • the control device 16 controls to display the cutting target 21 on the screen of the HMD 11 based on the relative position of the touch panel 15 and the position set to install the physical prop 17 on the touch panel 15, for example. That is, the control device 16 determines the display position, display angle, and display shape of the object 21 to be cut based on the position of the touch panel 15 and displays it on the screen of the HMD 11 .
  • the control device 16 may include a storage device that stores information regarding the cutting target 21 .
  • Information about the cutting object 21 is, for example, physical parameters of the cutting object, including information about the shape of the cutting object, the stiffness of the cutting object, and the orientation of the fibers of the cutting object.
  • the information about the cutting object 21 includes, for example, information about the shape of the tooth, the hardness of the tooth, the orientation of the tooth fibers, and the location of the nerve of the tooth.
  • the shape of the tooth, the hardness of the tooth, the orientation of the tooth fibers, and the location of the nerve of the tooth vary according to the type of tooth and its location within the tooth.
  • FIG. 3 is a table showing information about teeth, which is an example of information about the cutting target 21 .
  • the positions of the teeth are represented by the FDI system notation, eg 11 is the upper right maxillary central incisor.
  • the tooth position corresponds to the tooth shape.
  • Each tooth is divided into a plurality of regions. Each region has a stiffness and a fiber direction.
  • Information regarding a plurality of teeth may be stored in a storage device included in the control device 16 .
  • the storage device provided by controller 16 may store information about adult teeth and information about baby teeth.
  • a storage device provided by controller 16 may store information about different individuals' teeth.
  • the physical parameters of the tooth included in the information about each tooth, such as tooth shape, tooth hardness, tooth fiber orientation and tooth nerve location, may be different.
  • the control device 16 may control display on the screen of the HMD 11 based on the information about the cutting target 21 . That is, the control device 16 may perform control so that different cutting targets are displayed on the screen of the HMD 11 based on information regarding different cutting targets 21 .
  • the control device 16 controls vibration of the first handle 12 based on angle information and relative position information of the first handle 12 and detection information of the stylus 14, for example. For example, when the control device 16 determines that the tip of the stylus 14 corresponding to the tip of the cutting tool 22 and the physical prop 17 corresponding to the object to be cut 21 come into contact with each other, the control device 16 controls the first handle 12 to generate vibration. .
  • the control device 16 may change the vibration generated in the first handle 12. For example, the control device 16 may change the vibration generated in the first handle 12 based on the writing pressure and position of the stylus 14 .
  • the pen pressure of the stylus 14 corresponds to the pressure of the cutting tool 22 on the cutting target 21
  • the position of the stylus 14 corresponds to the position of the cutting target 21 to be cut by the cutting tool 22 .
  • the control device 16 may change the vibration generated in the first handle 12 based on the information regarding the cutting target 21 .
  • the control device 16 may change the vibration generated in the first handle 12 according to the type of cutting instrument 22 that is set.
  • the control device 16 may change the amplitude of vibration generated in the first handle 12, for example.
  • the control device 16 may change, for example, the period of vibration generated in the first handle 12 .
  • the control device 16 increases the amplitude of vibration generated in the first handle 12 when the writing pressure of the stylus 14 increases, and increases the vibration generated in the first handle 12 when the writing pressure of the stylus 14 decreases. reduce the amplitude of
  • the control device 16 may control the HMD 11 to emit a sound when it determines that the tip of the stylus 14 and the physical prop 17 have come into contact.
  • the control device 16 controls the HMD 11 to emit a sound produced when cutting the cutting object. It is not limited to the HMD 11 that the control device 16 controls to emit sound, and for example, other speakers may be controlled to emit sound.
  • the control device 16 may change the sound emitted by the HMD 11 based on the writing pressure and position of the stylus 14 .
  • the control device 16 may change the sound emitted by the HMD 11 based on the information regarding the cutting target 21 .
  • the control device 16 may change the sound emitted by the HMD 11 depending on the type of cutting instrument 22 that is set. For example, the control device 16 stores information on sounds that are the same as or similar to sounds generated during cutting, in association with the pressure applied to the cutting instrument during the cutting, the position of the cutting instrument with respect to the object to be cut, and the type of cutting instrument used.
  • the HMD 11 is controlled to emit sound based on the information stored in the storage device. Further, when the cutting target 21 is a tooth, the control device 16 may control the HMD 11 to emit a sound when determining that the position of the nerve of the tooth and the cutting instrument 22 are close. When the controller 16 determines that the position of the nerve of the tooth and the cutting instrument 22 is close, it controls the HMD 11 to emit an alert sound for the purpose of warning the user U, for example.
  • the control device 16 controls the HMD 11 to display the shape of the object to be cut.
  • the amount of cutting of the object to be cut displayed on the HMD 11 is determined based on the information on the object to be cut 21 and the pen pressure and position of the stylus 14 .
  • the amount to be cut of the object to be cut displayed on the HMD 11 may be determined according to the type of the cutting instrument 22 that is set.
  • the control device 16 stores information on the amount of material to be cut by cutting per unit time in association with the pressure applied to the cutting instrument, the position of the cutting instrument relative to the object to be cut, and the type of cutting instrument used.
  • a storage device is provided, and the amount of material to be cut is determined based on the information stored in the storage device.
  • the control device 16 may store data on the determined shape of the object to be cut in a storage device such as a memory. By referring to the data on the shape of the object to be cut over time stored in the storage device, the user can review the simulation of the cutting work performed. The user can also refer to the data of the shape of the cut object stored in the storage device.
  • the physical prop 17 is a model imitating the shape of the object to be cut. By bringing the stylus 14 into contact with the physical prop 17, the user can get the feeling that the cutting tool is in contact with the object to be cut, similar to the actual cutting of the object to be cut.
  • a position where the physical prop 17 is installed is a predetermined position on the touch panel 15 . If the touch panel 15 has a display, the position where the physical prop 17 is installed may be indicated on the touch panel 15 .
  • the physical prop 17 used differs depending on whether the stylus 14 is an electromagnetic induction stylus or a capacitive stylus.
  • an object that does not detect contact with the stylus 14 is used as the physical prop 17 .
  • the stylus 14 is an electromagnetic induction stylus
  • the position and writing pressure of the stylus 14 are detected even when the stylus 14 is not in contact with the touch panel 15 . Therefore, when the stylus 14 is an electromagnetic induction stylus, by bringing the stylus 14 into contact with the physical prop 17 installed on the touch panel 15, the stylus 14 can feel that the cutting tool is in contact with the object to be cut.
  • the touch panel 15 detects the position of 14 and the writing pressure.
  • the stylus 14 is a capacitive stylus
  • an object that detects contact with the stylus 14 is used as the physical prop 17 .
  • the physical prop 17 has a sensor attached around it and a conductive material inside, to which the sensor attached around the circumference is connected.
  • stylus 14 is an active stylus.
  • the physical prop 17 causes an electrical change in the sensor that is in contact with the touch panel 15 and corresponds to the sensor that the stylus 14 contacts.
  • the physical prop 17 when the stylus 14 is a capacitive stylus can be implemented by an interface called CAPath, for example (see Non-Patent Document 3).
  • CAPath an interface
  • each tooth shape may be larger than an actual human tooth shape for attaching sensors.
  • FIG. 4 is a diagram showing the relationship between the components of the cutting training assistance system 1 when the stylus 14 is a capacitive stylus.
  • the physical prop 17 physically senses the stylus 14 and the touch panel 15 physically senses the physical prop 17 unlike the relationship between the components of the cutting training aid system 1 shown in FIG.
  • the stylus 14 is an electromagnetic induction stylus
  • the writing pressure of the stylus 14 depends on the distance between the stylus 14 and the touch panel 15
  • the component of the writing pressure of the stylus 14 in the horizontal direction of the touch panel 15 can be detected. is difficult.
  • the stylus 14 is a capacitive stylus and a sensor is attached around the physical prop 17, the writing pressure of the stylus 14 is detected by the direct contact of the stylus 14 with the physical prop 17. be. Therefore, the touch panel 15 can easily detect the component of the writing pressure of the stylus 14 in the horizontal direction of the touch panel 15 .
  • FIG. 5 and 6 are comparison diagrams of the operation of the stylus 14 and the image displayed on the HMD 11.
  • FIG. FIG. 5 is a diagram showing a stylus 14, a touch panel 15, and a physics prop 17 that are part of the cutting training assistance system 1.
  • the stylus 14 is a capacitive stylus, and the tip of the stylus 14 is in contact with a sensor attached around the physical prop 17 .
  • the shape of the tooth to be cut in the physical prop 17 shown in FIG. 5 is approximately 1.5 times the size of the actual human tooth.
  • FIG. 6 is a diagram showing an image displayed on the HMD 11.
  • FIG. A cutting object 21 and a cutting tool 22 are displayed on the screen of the HMD 11 .
  • the position of the cutting target 21 corresponds to a predetermined position on the touch panel 15 where the physical prop 17 is installed.
  • the position of cutting instrument 22 corresponds to the position of first handle 12 .
  • the user U looks at the image shown in FIG.
  • the cutting training assistance system 1 is composed of the HMD 11 , first handle 12 , second handle 13 , stylus 14 , touch panel 15 , control device 16 and physics prop 17 .
  • the HMD 11, the first handle 12, the second handle 13, and the control device 16 can be realized by a VR headset, and the touch panel 15 can be realized by a smart phone or a notebook computer. That is, the cutting training assistance system 1 in this embodiment can be realized by a VR headset, a smart phone or a notebook computer, and a stylus. This makes it possible to provide a cutting training assistance system at a lower cost.
  • the cutting training assistance system 1 is small as a simulator for training in cutting a cutting target. Therefore, it can be easily transported, for example, students can take it home from school and practice cutting at home.
  • the cutting training assistance system 1 can provide the user with a tactile experience of cutting an object to be cut.
  • the vibration of the first handle 12 can be changed based on the information about the cutting object and the writing pressure and position of the stylus 14, so that the cutting training assistance system 1 reproduces the hardness of the cutting object and gives the user a feeling of cutting.
  • a haptic experience can be provided according to the hardness of the object.
  • the user of the cutting training assistance system 1 can see the cutting tool corresponding to the first handle 12 and the cutting target corresponding to the physical prop 17 on the screen of the HMD 11, and can also see the cutting target to be cut by the cutting tool. you can see the shape.
  • the cutting training assistance system 1 can provide the user with a visual experience of cutting an object to be cut.
  • the cutting training assistance system 1 of the present embodiment provides the user with a visual sensation of cutting the cutting target by displaying an image of the cutting target being cut by the HMD 11 as described above.
  • the touch panel 15 is used to detect the position of the stylus 14 in the cutting training assistance system 1, but detecting the position of the stylus 14 is not limited to the touch panel.
  • the touch panel 15 may be a position detection device that detects the position of the stylus 14 .

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

擬似切削器具、位置検知装置、制御装置を備える切削訓練補助システムであって、前記位置検知装置は、前記擬似切削器具の位置を検知し、前記制御装置は、前記位置検知装置の位置と前記位置検知装置による前記擬似切削器具の検知情報とに基づいて前記擬似切削器具の振動を制御する、切削訓練補助システムである。

Description

切削訓練補助システム
 本発明は、切削訓練補助システムに関する。
 歯科治療は繊細な患部が対象の治療であることから、その技術を習得するときには歯の切削を訓練することが重要である。そのため、歯の切削を訓練することを目的としたロボットやVR技術を用いたシミュレータが開発されている(例えば非特許文献1及び非特許文献2)。
Al‐Saud, Loulwa M., F. Mushtaq, M. J. Allsop, P. C. Culmer, I. Mirghani, E. Yates, A. Keeling, M. A. Mon-Williams and M. Manogue. "Feedback and motor skill acquisition using a haptic dental simulator."European Journal of Dental Education" 21.4 (2017): 240-247. Serrano, Carlos M., Paul R. Wesselink, and Johanna M. Vervoorn. "First experiences with patient‐centered training in virtual reality." Journal of dental education 84.5 (2020): 607-614. Kato, Kunihiro, Kaori Ikematsu, and Yoshihiro Kawahara. "CAPath: 3D-Printed Interfaces with Conductive Points in Grid Layout to Extend Capacitive Touch Inputs."Proceedings of the ACM on Human-Computer Interaction 4.ISS (2020): 1-17.
 しかしながら、歯の切削を訓練するためのロボットやシミュレータは高価であった。そのため、例えば歯学部の学生全員にロボット又はシミュレータを貸与することは難しかった。このような問題は歯の切削に限定された問題ではなく、様々な切削対象について共通した問題である。
 本発明の目的は、より安価に切削対象の切削を訓練することができる切削訓練補助システムを提供することにある。
 本発明の一態様は、擬似切削器具、位置検知装置、制御装置を備える切削訓練補助システムであって、前記位置検知装置は、前記擬似切削器具の位置を検知し、前記制御装置は、前記位置検知装置の位置と前記位置検知装置による前記擬似切削器具の検知情報とに基づいて前記擬似切削器具の振動を制御する、切削訓練補助システムである。
 本発明によれば、より安価に切削対象の切削を訓練することができる。
切削訓練補助システムの使用例を示す図である。 切削訓練補助システムの構成要素間の関係を示した図である。 歯に関する情報の一例を示す表である。 スタイラスが静電容量方式スタイラスである場合の切削訓練補助システムの構成要素間の関係を示した図である。 切削訓練補助システムの一部であるスタイラス、タッチパネル、制御装置、物理プロップを示す図である。 HMDに表示される映像を示す図である。
 以下、図面を参照しながら本発明の実施形態について詳しく説明する。
〈全体の構成〉
 図1は切削訓練補助システム1の使用例を示す図である。図1を用いて切削訓練補助システム1の概略について説明する。
 切削訓練補助システム1は、使用者Uが切削訓練をすることを補助する。切削訓練補助システム1は、HMD(ヘッドマウントディスプレイ)11、第1ハンドル12、第2ハンドル13、スタイラス14、タッチパネル15、制御装置16及び物理プロップ17を備える。
 使用者Uは、HMD11を頭部に装着する。HMD11は使用者Uの目を覆う形で装着される。HMD11のディスプレイには、切削対象を切削している様子の映像が表示される。本実施形態における切削対象は例えば歯であるがこれに限られない。例えば、切削対象は骨や木材など切削対象となりうるものであればよい。
 第1ハンドル12には、スタイラス14が取り付けられている。第1ハンドル12とスタイラス14とは合わせて擬似切削器具として機能する。第1ハンドル12とスタイラス14とは、例えば歯の切削器具を模した形状で構成されてもよい。スタイラス14の先端は、歯の切削器具の先端に相当する部位として構成されてもよい。第2ハンドル13は、第1ハンドル12の位置の校正に使用される情報を出力する。タッチパネル15は、スタイラス14の先端を検出する。第2ハンドル13及びタッチパネル15は、特定の位置に固定して設置されてもよい。第2ハンドル13及びタッチパネル15は、例えば水平な台の上の特定の位置に配置される。物理プロップ17は、切削対象と類似した形状を有する。物理プロップ17は、例えば歯と類似した形状を有する。物理プロップ17は、切削対象の硬さと近い硬度の硬さを有していてもよい。物理プロップ17は歯と類似した形状を有するとき、歯の硬さと近い硬度の硬さを有していてもよい。物理プロップ17は、タッチパネル15上の所定の位置に配置される。
 使用者Uは、例えば第1ハンドル12を把持し、第1ハンドル12を動かすことで、スタイラス14を操作する。スタイラス14は第1ハンドル12に固定的又は半固定的に取り付けられているため、第1ハンドル12の動きに応じてスタイラス14も移動する。使用者Uは、スタイラス14を物理プロップ17の周囲で動かすことで切削対象を切削する訓練を行う。図1により示される図において、制御装置16はHMD11と一体の装置として構成されている。タッチパネル15は、例えばスマートフォンやタブレットやノートパソコン等の装置を用いて実現されてもよい。また、制御装置16はどんな情報処理装置であってもよく、例えばタッチパネル15と一体の装置として構成され、スマートフォンやタブレットやノートパソコン等の装置を用いて実現されてもよく、クラウドコンピューティングにより実現されてもよい。
 図2は、切削訓練補助システム1の構成要素間の関係を示した図である。
 HMD11は、制御装置16にHMD11の位置情報を送信する。HMD11のディスプレイに表示される画面は制御装置16により制御され、切削作業を行う画面を映し出す。HMD11の画面には切削の対象となる切削対象21及び切削器具22が表示される。HMD11の画面に表示される切削器具22の位置は、第1ハンドル12の位置により変化する。
 第1ハンドル12は、第1ハンドル12の位置情報及び角度情報を取得し、制御装置16に出力する。第1ハンドル12は、制御装置16による制御により振動する。第1ハンドル12は、切削器具の持ち手部分のように手で持ちやすい形状が望ましい。第1ハンドル12は、例えば円柱に近い形状を有するのが望ましい。
 第2ハンドル13は、第2ハンドル13の位置情報を取得し、タッチパネル15に送信する。第2ハンドル13は固定され、第2ハンドル13の位置情報は、HMD11、第1ハンドル12、スタイラス14及びタッチパネル15の位置を較正するのに使用される。HMD11、第1ハンドル12及び第2ハンドル13は、例えばOculus(商標登録)Quest 2など市販のVRヘッドセットである。
 スタイラス14は、先端においてタッチパネル15にスタイラス14の位置及び筆圧を検出させる。スタイラス14は、電磁誘導方式スタイラス又は静電容量方式スタイラスである。スタイラス14が電磁誘導方式スタイラスである場合、先端に磁場を発生させタッチパネル15に発生させた磁場を検知させることで、スタイラス14の位置を検出させ、磁場の強度を検知させることでスタイラス14の筆圧を検出させる。タッチパネル15に磁場を検知させることから、スタイラス14がタッチパネル15に接触していない場合であってもスタイラス14の位置及び筆圧が検出される。スタイラス14が静電容量方式スタイラスである場合、先端をタッチパネル15に直接接触させることでタッチパネル15に位置及び筆圧を検出させる。
 スタイラス14は、第1ハンドル12に取り付けられ、使用者Uが第1ハンドル12を動かすことでスタイラス14も一緒に動かすことができる。また、スタイラス14の先端の位置がHMD11の画面に表示される切削器具22の先端の位置に対応するように位置合わせが行われる。
 第1ハンドル12の持ち手部分とスタイラス14の先端が、切削器具の持ち手部分と先端を再現するように、スタイラス14が第1ハンドル12に取り付けられる。例えば、切削器具は先端部を地面に対して垂直にしたときに持ち手部分は地面に対して垂直にはならず地面と鋭角をなす。第1ハンドル12及びスタイラス14においても同様に、スタイラス14が地面に対して垂直であるときに第1ハンドル12が地面に対して垂直とならず地面と鋭角をなすように、第1ハンドル12にスタイラス14が取り付けられる。
 タッチパネル15は、スタイラス14の位置及び筆圧を検出する。タッチパネル15はタッチパネル15の位置情報及びスタイラス14の検知情報を制御装置16に送信する。タッチパネル15は、スタイラス14が電磁誘導方式スタイラスであるとき、電磁誘導方式のタッチパネルであって、スタイラス14が静電容量方式スタイラスであるとき、静電容量方式のタッチパネルである。タッチパネル15はスタイラス14の位置及び筆圧を検出できればよく、例えばトラックパッドやペンタブレットであってもよい。
 制御装置16は、HMD11及び第1ハンドル12を制御する。制御装置16は、HMD11の位置情報、第1ハンドル12の角度情報及び位置情報、第2ハンドル13の位置情報、スタイラス14の検知情報、タッチパネル15の位置情報に基づいて、HMD11に表示される画面を制御する。制御装置16は、例えば、第1ハンドル12の角度情報及び相対的な位置情報に基づいて切削器具22の表示位置、表示角度及び表示形状を決定し、HMD11の画面に表示するよう制御する。制御装置16は、例えば、タッチパネル15の相対的な位置及びタッチパネル15において物理プロップ17を設置するように設定された位置に基づいて、切削対象21をHMD11の画面に表示するよう制御する。つまり、制御装置16は、タッチパネル15の位置に基づいて切削対象21の表示位置、表示角度及び表示形状を決定し、HMD11の画面に表示させる。
 制御装置16は、切削対象21に関する情報を記憶する記憶装置を備えてもよい。切削対象21に関する情報は例えば切削対象の物理的なパラメータであって、切削対象の形状、切削対象の堅さ、及び切削対象の繊維の方向に関する情報を含む。切削対象21が歯である場合、切削対象21に関する情報は例えば歯の形状、歯の堅さ、歯の繊維の方向、及び歯の神経の位置に関する情報を含む。歯の形状、歯の堅さ、歯の繊維の方向、及び歯の神経の位置は、歯の種類や、歯の中の位置によって異なる。図3は、切削対象21に関する情報の一例である歯に関する情報を示す表である。歯の位置はFDI方式の表記法により表され、例えば11は右上の上顎中切歯である。歯の位置は歯の形状に対応する。歯はそれぞれ複数の領域に分けられる。それぞれの領域には堅さ及び繊維の方向が設定される。
 制御装置16が備える記憶装置には複数の歯に関する情報が記憶されてもよい。例えば、制御装置16が備える記憶装置には成人の歯に関する情報及び乳児の歯に関する情報が記憶されてもよい。例えば、制御装置16が備える記憶装置には異なる個人の歯に関する情報が記憶されてもよい。各々の歯に関する情報に含まれる歯の物理的なパラメータ、例えば歯の形状、歯の堅さ、歯の繊維の方向及び歯の神経の位置は異なっていてもよい。
 制御装置16は、切削対象21に関する情報に基づいて、HMD11の画面に表示するよう制御してもよい。つまり、制御装置16は、異なる切削対象21に関する情報に基づいて、HMD11の画面に異なる切削対象が表示されるよう制御してもよい。
 制御装置16は、例えば、第1ハンドル12の角度情報並びに相対的な位置情報及びスタイラス14の検知情報に基づいて、第1ハンドル12の振動を制御する。制御装置16は、例えば切削器具22の先端に対応するスタイラス14の先端と切削対象21に対応する物理プロップ17とが接触したと判定した場合、第1ハンドル12が振動を発生するように制御する。
 制御装置16は、第1ハンドル12に発生させる振動を変化させてもよい。例えば、スタイラス14の筆圧や位置に基づいて制御装置16は、第1ハンドル12に発生させる振動を変化させてもよい。スタイラス14の筆圧は切削器具22の切削対象21に対する圧力に相当し、スタイラス14の位置は、切削器具22が切削する切削対象21の位置に対応する。また、制御装置16は、切削対象21に関する情報に基づいて第1ハンドル12に発生させる振動を変化させてもよい。制御装置16は、設定される切削器具22の種類により第1ハンドル12に発生させる振動を変化させてもよい。
 制御装置16は、例えば第1ハンドル12に発生させる振動の振幅を変化させてもよい。制御装置16は、例えば第1ハンドル12に発生させる振動の周期を変化させてもよい。例えば、制御装置16はスタイラス14の筆圧が大きくなった場合に第1ハンドル12に発生させる振動の振幅を大きくし、スタイラス14の筆圧が小さくなった場合に第1ハンドル12に発生させる振動の振幅を小さくする。
 制御装置16は、スタイラス14の先端と物理プロップ17とが接触したと判定した場合、HMD11が音を発するように制御してもよい。制御装置16は、スタイラス14の先端と物理プロップ17とが接触したと判定した場合、HMD11を制御し切削対象を切削するときに生じる音を発させる。制御装置16が音を発するように制御するのはHMD11に限られず、例えば他のスピーカーが音を発するように制御してもよい。制御装置16は、スタイラス14の筆圧や位置に基づいて、HMD11が発する音を変化させてもよい。制御装置16は、切削対象21に関する情報に基づいて、HMD11が発する音を変化させてもよい。制御装置16は、設定される切削器具22の種類によりHMD11が発する音を変化させてもよい。例えば、制御装置16は、切削時に生じる音と同じ又は類似した音の情報を、当該切削において切削器具にかけられる圧力、切削器具の切削対象に対する位置及び使用される切削器具の種類と対応付けて記憶する記憶装置を備え、記憶装置に記憶された情報に基づいてHMD11が音を発するように制御する。また、制御装置16は、切削対象21が歯であるとき、歯の神経の位置と切削器具22との間の距離が近いと判定した場合、HMD11が音を発するように制御してもよい。制御装置16は、歯の神経の位置と切削器具22との間の距離が近いと判定した場合、例えば使用者Uに警告する目的でHMD11がアラート音を発するように制御する。
 制御装置16は、HMD11が削られる切削対象の形状を表示するように制御する。HMD11に表示される切削対象の削られる量は、切削対象21に関する情報及びスタイラス14の筆圧や位置に基づいて決定される。HMD11に表示される切削対象の削られる量は、設定される切削器具22の種類により決定されてもよい。例えば、制御装置16は、単位時間当たりの切削により削られる切削対象の量の情報を、切削器具にかけられる圧力、切削器具の切削対象に対する位置及び使用される切削器具の種類と対応付けて記憶する記憶装置を備え、記憶装置に記憶された情報に基づいて削られる切削対象の量を決定する。
 制御装置16は、決定した削られる切削対象の形状のデータをメモリなどの記憶装置に記憶させてもよい。記憶装置に記憶された経時的な切削対象の形状のデータを使用者が参照することにより、使用者は行った切削作業のシミュレーションを振り返ることができる。また、記憶装置に記憶された削った切削対象の形状のデータを使用者が参照することもできる。
 物理プロップ17は、切削対象の形状を模した模型である。使用者は物理プロップ17にスタイラス14を接触させることで、実際の切削対象の切削と同様、切削器具が切削対象に接触している感覚を得ることができる。物理プロップ17を設置する位置はタッチパネル15上の所定の位置である。タッチパネル15がディスプレイを有している場合、タッチパネル15に物理プロップ17を設置する位置が示されてよい。
〈スタイラスの方式〉
 スタイラス14が電磁誘導方式スタイラスであるか静電容量方式スタイラスであるかにより、使用される物理プロップ17が異なる。スタイラス14が電磁誘導方式スタイラスである場合、物理プロップ17として、スタイラス14との接触を検知しない物体を使用する。スタイラス14が電磁誘導方式スタイラスである場合、スタイラス14がタッチパネル15に接触していない場合であってもスタイラス14の位置及び筆圧が検出される。そのため、スタイラス14が電磁誘導方式スタイラスである場合には、タッチパネル15上に設置された物理プロップ17にスタイラス14を接触させることで、切削器具が切削対象に接触している感覚を得ると同時にスタイラス14の位置及び筆圧をタッチパネル15が検出する。
 一方で、スタイラス14が静電容量方式スタイラスである場合、物理プロップ17として、スタイラス14との接触を検知する物体が使用される。スタイラス14が静電容量方式スタイラスである場合、物理プロップ17の周囲にはセンサが取り付けられ内部には導電素材が備えられ、周囲に取り付けられたセンサが接続される。この場合、スタイラス14はアクティブスタイラスである。物理プロップ17は、タッチパネル15と接触していないセンサにスタイラス14が接触すると、スタイラス14が接触するセンサに対応しタッチパネル15と接触するセンサにおいて電気的な変化が生じる。これにより、スタイラス14を物理プロップ17に接触させることで、スタイラス14をタッチパネル15に接触させるのと同じ効果が得られる。
 スタイラス14が静電容量方式スタイラスである場合の物理プロップ17は、例えばCAPathと呼ばれるインターフェースにより実現することができる(非特許文献3参照)。スタイラス14が静電容量方式スタイラスであって切削対象が歯である場合の物理プロップ17において、センサを取り付けるために1つ1つの歯の形状は実際のヒトの歯の形状より大きくてもよい。
 図4は、スタイラス14が静電容量方式スタイラスである場合の切削訓練補助システム1の構成要素間の関係を示した図である。図2に示される切削訓練補助システム1の構成要素間の関係と異なり、物理プロップ17がスタイラス14を物理的に検知し、タッチパネル15が物理プロップ17を物理的に検知している。
 スタイラス14が電磁誘導方式スタイラスである場合には、スタイラス14の筆圧はスタイラス14とタッチパネル15の距離に依存することから、スタイラス14の筆圧のうちタッチパネル15の水平方向の成分を検出することは難しい。しかしながら、スタイラス14が静電容量方式スタイラスであって、物理プロップ17の周囲にセンサが付けられている場合、スタイラス14が直接的に物理プロップ17に接触することでスタイラス14の筆圧が検出される。そのため、タッチパネル15は、スタイラス14の筆圧のうちタッチパネル15の水平方向の成分を検出するのが容易となる。
 図5及び図6は、スタイラス14の動作とHMD11に表示される映像の比較図である。
 図5は、切削訓練補助システム1の一部であるスタイラス14、タッチパネル15、物理プロップ17を示す図である。図5においてスタイラス14は静電容量方式スタイラスであり、スタイラス14の先端が物理プロップ17の周囲に付けられたセンサに接触されている。図5に示される物理プロップ17における切削対象である歯の形状は実際の人の歯の形状のおよそ1.5倍の大きさである。
 図6は、HMD11に表示される映像を示す図である。HMD11の画面には切削対象21及び切削器具22が表示される。切削対象21の位置は、物理プロップ17を設置するタッチパネル15上の所定の位置に対応する。切削器具22の位置は、第1ハンドル12の位置に対応する。使用者Uは図6に示される映像を装着したHMD11を介して見ると同時に第1ハンドル12を動かすことで、HMD11の画面に表示される切削器具22を動かし切削対象21を切削する。
《作用・効果》
 このように、本実施形態によれば、切削訓練補助システム1は、HMD11、第1ハンドル12、第2ハンドル13、スタイラス14、タッチパネル15、制御装置16及び物理プロップ17により構成される。HMD11、第1ハンドル12、第2ハンドル13、制御装置16はVRヘッドセットにより実現することができ、タッチパネル15はスマートフォン又はノートパソコンにより実現することができる。つまり、本実施形態における切削訓練補助システム1はVRヘッドセット、スマートフォンもしくはノートパソコン、スタイラスにより実現することができる。これにより、より安価に切削訓練補助システムを提供することができる。
 また、本実施形態に係る切削訓練補助システム1は、切削対象の切削を訓練するためのシミュレータとしては小型である。そのため、運搬を容易にすることができ、例えば学生が学校から家に持って帰ることにより家で切削訓練をすることができる。
 また、切削訓練補助システム1の使用者はスタイラス14を物理プロップ17に接触させると、第1ハンドル12が振動し、第1ハンドル12の持ち手に振動を感じる。これにより、切削訓練補助システム1は使用者に切削対象を切削しているという触覚体験を提供することができる。切削対象に関する情報やスタイラス14の筆圧・位置に基づいて第1ハンドル12の振動を変化させることができ、これにより、切削訓練補助システム1は切削対象の堅さを再現し、使用者に切削対象の堅さに応じた触覚体験を提供することができる。
 また、切削訓練補助システム1の使用者はHMD11の画面において、第1ハンドル12に対応する切削器具と物理プロップ17に対応する切削対象を見ることができ、また、切削器具により削られる切削対象の形状を見ることができる。これにより、切削訓練補助システム1は使用者に切削対象を切削しているという視覚体験を提供することができる。
 なお、実際の切削対象の切削作業においては切削対象を削った分だけ空間が生じることから切削器具の可動域が広がる。しかしながら、本実施形態において物理プロップ17は実際には削られないため、スタイラス14の可動域が広がることはない。本実施形態の切削訓練補助システム1は、上記の通りHMD11により使用者に切削対象が削れる映像を表示することで、視覚的に切削対象を削った実感を与える。
〈他の実施形態〉
 以上、図面を参照してこの発明の一実施形態について詳しく説明してきたが、具体的な構成は上述のものに限られることはなく、この発明の要旨を逸脱しない範囲内において様々な設計変更等をすることが可能である。
 切削訓練補助システム1においてタッチパネル15がスタイラス14の位置を検出するのに使用されるが、スタイラス14の位置を検出するのはタッチパネルに限られない。例えば、タッチパネル15は、スタイラス14の位置を検知する位置検知装置であってもよい。
1 切削訓練補助システム、11 ヘッドマウントディスプレイ、12 第1ハンドル、13 第2ハンドル、14 スタイラス、15 タッチパネル、16 制御装置、17 物理プロップ

Claims (5)

  1.  擬似切削器具、位置検知装置、制御装置を備える切削訓練補助システムであって、
     前記位置検知装置は、前記擬似切削器具の位置を検知し、
     前記制御装置は、前記位置検知装置の位置と前記位置検知装置による前記擬似切削器具の検知情報とに基づいて前記擬似切削器具の振動を制御する、
     切削訓練補助システム。
  2.  ヘッドマウントディスプレイをさらに備え、
     前記制御装置は、前記擬似切削器具の位置情報に基づいて前記ヘッドマウントディスプレイに切削器具を表示させ、前記位置検知装置の設置位置に基づいて切削対象を表示させる、
     請求項1に記載された切削訓練補助システム。
  3.  前記制御装置は、前記切削対象に関する情報及び前記擬似切削器具の検出情報に基づいて前記ヘッドマウントディスプレイを制御し、削られる前記切削対象の形状を表示させる、
     請求項2に記載された切削訓練補助システム。
  4.  前記擬似切削器具は静電容量方式のスタイラスを備え、
     センサを備える物理プロップを備え、
     前記物理プロップは前記スタイラスを検出し、検出結果を前記位置検知装置に出力する、
     請求項1から3のいずれか一項に記載された切削訓練補助システム。
  5.  切削対象は歯である、
     請求項1から4のいずれか一項に記載された切削訓練補助システム。
PCT/JP2021/043966 2021-11-30 2021-11-30 切削訓練補助システム WO2023100268A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/043966 WO2023100268A1 (ja) 2021-11-30 2021-11-30 切削訓練補助システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/043966 WO2023100268A1 (ja) 2021-11-30 2021-11-30 切削訓練補助システム

Publications (1)

Publication Number Publication Date
WO2023100268A1 true WO2023100268A1 (ja) 2023-06-08

Family

ID=86611701

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/043966 WO2023100268A1 (ja) 2021-11-30 2021-11-30 切削訓練補助システム

Country Status (1)

Country Link
WO (1) WO2023100268A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000259074A (ja) * 1999-03-11 2000-09-22 Minolta Co Ltd 道具媒介型の力覚呈示システム
JP2015506002A (ja) * 2011-11-08 2015-02-26 コーニンクレッカ フィリップス エヌ ヴェ 3次元オブジェクト・データセットとの相互作用
JP2020199021A (ja) * 2019-06-07 2020-12-17 株式会社モリタ マーカー取付け器具、及びマーカー取付け器具の取付け方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000259074A (ja) * 1999-03-11 2000-09-22 Minolta Co Ltd 道具媒介型の力覚呈示システム
JP2015506002A (ja) * 2011-11-08 2015-02-26 コーニンクレッカ フィリップス エヌ ヴェ 3次元オブジェクト・データセットとの相互作用
JP2020199021A (ja) * 2019-06-07 2020-12-17 株式会社モリタ マーカー取付け器具、及びマーカー取付け器具の取付け方法

Similar Documents

Publication Publication Date Title
Massie Initial haptic explorations with the phantom: Virtual touch through point interaction
JP4921113B2 (ja) 接触提示装置及び方法
KR102260705B1 (ko) 햅틱 디바이스에서의 3차원 릴리프를 위한 마찰 변조
JP2009276996A (ja) 情報処理装置、情報処理方法
Konukseven et al. Development of a visio‐haptic integrated dental training simulation system
JP2008134990A (ja) 情報処理装置、情報処理方法
KR101021595B1 (ko) 햅틱 인터페이스를 이용한 임플랜트 시뮬레이션 시스템
KR100906576B1 (ko) 핸드 햅틱 인터페이스 장치 및 방법
KR102165692B1 (ko) 가상 현실을 이용한 군용 장비 정비 훈련 시스템 및 이의 동작 방법
Hachisu et al. Augmentation of material property by modulating vibration resulting from tapping
US20190094972A1 (en) Information processing apparatus, information processing method, and non-transitory computer-readable medium
CN112041789A (zh) 位置指示设备及空间位置指示系统
JP2019519856A (ja) マルチモーダルハプティック効果
JP2019075096A (ja) 複数の周辺機器によるハプティック効果
Giordano et al. Design of vibrotactile feedback and stimulation for music performance
WO2023100268A1 (ja) 切削訓練補助システム
US20200146618A1 (en) Device with a detection unit for the position and orientation of a first limb of a user
Takeuchi et al. Haptic duplicator
Nakamura et al. Evaluation of spatial directional guidance using cheek haptic stimulation in a virtual environment
Guerraz et al. How to use physical parameters coming from the haptic device itself to enhance the evaluation of haptic benefits in user interface?
Papetti Design and perceptual investigations of audio-tactile interactions
Tang et al. The syncopated energy algorithm for rendering real-time tactile interactions
WO2023105706A1 (ja) 触覚提示デバイスおよび制御方法
Argelaguet Sanz et al. Complexity and scientific challenges
WO2023189404A1 (ja) 入出力装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21966352

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023564321

Country of ref document: JP