JP7398138B2 - dental treatment system - Google Patents

dental treatment system Download PDF

Info

Publication number
JP7398138B2
JP7398138B2 JP2022030326A JP2022030326A JP7398138B2 JP 7398138 B2 JP7398138 B2 JP 7398138B2 JP 2022030326 A JP2022030326 A JP 2022030326A JP 2022030326 A JP2022030326 A JP 2022030326A JP 7398138 B2 JP7398138 B2 JP 7398138B2
Authority
JP
Japan
Prior art keywords
information
patient
dental treatment
treatment system
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022030326A
Other languages
Japanese (ja)
Other versions
JP2023125945A (en
Inventor
通三 山中
太郎 深澤
剛 友江
賢一 平野
忠明 根本
祐也 内田
拓也 江口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yoshida Dental Mfg Co Ltd
Original Assignee
Yoshida Dental Mfg Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yoshida Dental Mfg Co Ltd filed Critical Yoshida Dental Mfg Co Ltd
Priority to JP2022030326A priority Critical patent/JP7398138B2/en
Priority to PCT/JP2023/007113 priority patent/WO2023163180A1/en
Publication of JP2023125945A publication Critical patent/JP2023125945A/en
Application granted granted Critical
Publication of JP7398138B2 publication Critical patent/JP7398138B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C19/00Dental auxiliary appliances

Description

本発明は、歯科診療システムに関する。 The present invention relates to a dental treatment system.

特許文献1には、利用者が歯科医院に通院することなく気軽にウ蝕、歯周病、審美の相談を行うことができるデンタルコミュニケーションブースが記載されている。
また、特許文献2には、患者がシートに着席してから診療が開始されるまでの間の時間を有意義に過ごすことを可能にするために、着席した患者に対応した内容のコンテンツ(例えば、審美歯科の処理や矯正治療に関する映像、歯周病予防に関する映像など)を再生する医療用診療装置が記載されている。
Patent Document 1 describes a dental communication booth where users can easily consult about caries, periodontal disease, and aesthetics without having to visit a dental clinic.
Additionally, Patent Document 2 describes content that is compatible with the seated patient (for example, The document describes a medical treatment device that plays back videos (videos related to cosmetic dentistry treatments, orthodontic treatment, videos related to periodontal disease prevention, etc.).

特開2006-126996号公報Japanese Patent Application Publication No. 2006-126996 特開2012-196238号公報JP2012-196238A

近年、感染症の予防の意識が高まっており、歯科診療においても、歯科医師や衛生士と患者との接触時間(例えば、問診、歯科情報提供、口腔衛生指導などの時間)を減らすことで感染リスクを低減することが望まれている。一方で、歯科医師や衛生士による声掛けが減ることは、患者に不安や不満を抱かせる原因にもなる。
特許文献1に記載の技術では、利用者のプライバシーが保てる空間を利用して、利用者の予防・審美の知識向上や意識付けを行うもので、実際の診療への患者の強い不安や緊張を取り除けないおそれがある。また、特許文献2に記載の技術では、患者に対して単に情報(コンテンツ)を提供するので、歯科医師や衛生士が説明した場合と同程度の安心感を患者に与えるのが難しい。
In recent years, awareness of the prevention of infectious diseases has increased, and in dental practice, reducing the contact time between dentists and hygienists and patients (e.g., time for taking interviews, providing dental information, giving oral hygiene guidance, etc.) is reducing the risk of infection. It is desired to reduce risks. On the other hand, a decrease in the number of calls from dentists and hygienists can cause anxiety and dissatisfaction among patients.
The technology described in Patent Document 1 utilizes a space where the user's privacy can be maintained to improve the user's knowledge and awareness of prevention and aesthetics, thereby reducing the patient's strong anxiety and nervousness about the actual medical treatment. There is a possibility that it cannot be removed. Further, in the technique described in Patent Document 2, since information (content) is simply provided to the patient, it is difficult to give the patient the same sense of security as when a dentist or hygienist provides an explanation.

本発明は、前記した事情に鑑みてなされたものであり、感染リスクを低減した上で患者に安心して治療を受けてもらうことが可能な歯科診療システムを提供する。 The present invention has been made in view of the above-mentioned circumstances, and provides a dental treatment system that allows patients to receive treatment with peace of mind while reducing the risk of infection.

前記課題を解決するため、歯科診療で使用する歯科診療システムであって、診察室内に設置される情報伝達部と、コンピュータと、を備え、前記情報伝達部は、空中に画像を結像する光結像部と、結像された前記画像における指示位置を検知する検知部とを備える非接触入力部を有し、当該非接触入力部は、歯科診療で使用する歯科診療ユニットに固定、または着脱可能に設けられ、前記コンピュータは、患者、当該患者の付添人および診療スタッフの少なくとも何れかに対する一方向または双方向の情報伝達を、前記情報伝達部を用いて行う情報伝達制御部を有し、前記情報伝達制御部は、バーチャルキャラクタを介して一方向または双方向の情報伝達を行い、伝達する伝達情報は、前記患者または前記付添人と前記診療スタッフとの対面機会の低減に資する情報であり、前記非接触入力部は、前記バーチャルキャラクタを用いたキャラクタ画面、操作画面およびインスツルメンツ画面の表示、ならびに、前記画面を介した操作、および前記画面間の遷移が可能であり、患者を診察室内に導入した場合、または、前記非接触入力部に表示された閉じるボタンを選択した場合に、前記非接触入力部に前記キャラクタ画面を表示させて、一方向または双方向の情報伝達を行う情報伝達部として使用し、前記キャラクタ画面が表示されている状態でフットコントローラの操作を検知した場合に操作画面を表示させ、また、前記キャラクタ画面が表示されている状態でインスツルメントのピックアップを検知した場合に前記インスツルメンツ画面を表示させて、前記非接触入力部をデバイスを操作する為の操作部として使用し、前記デバイスは、インスツルメント、患者用椅子、撮影装置の何れかである。
In order to solve the above problem, there is provided a dental treatment system used in dental treatment, which includes an information transmission unit installed in an examination room and a computer, and the information transmission unit uses a light beam that forms an image in the air. It has a non-contact input unit that includes an imaging unit and a detection unit that detects the indicated position in the image formed, and the non-contact input unit is fixed to or detachable from a dental treatment unit used in dental treatment. The computer may include an information transmission control unit that uses the information transmission unit to perform one-way or two-way information transmission to at least one of the patient, the patient's attendant, and the medical staff; The information transmission control unit performs one-way or two-way information transmission via the virtual character, and the transmitted information is information that contributes to reducing opportunities for face-to-face encounters between the patient or the attendant and the medical staff. , the non-contact input unit is capable of displaying a character screen, an operation screen, and an instrument screen using the virtual character, as well as operations via the screen, and transitions between the screens, and allows the patient to enter the examination room. an information transmission unit that displays the character screen on the non-contact input unit to perform one-way or two-way information transmission when introduced or when a close button displayed on the non-contact input unit is selected; The operation screen is displayed when an operation of the foot controller is detected while the character screen is displayed, and the operation screen is displayed when an instrument pickup is detected while the character screen is displayed. The instrument screen is displayed on the device, and the non-contact input section is used as an operation section for operating a device, and the device is any one of an instrument, a patient chair, and an imaging device.

本発明は、感染リスクを低減した上で患者に安心して治療を受けてもらうことが可能である。 The present invention allows patients to receive treatment with peace of mind while reducing the risk of infection.

本発明の実施形態に係る歯科診療システムの概略構成図である。1 is a schematic configuration diagram of a dental treatment system according to an embodiment of the present invention. 本発明の実施形態に係る歯科診療システムの概略平面図である。1 is a schematic plan view of a dental treatment system according to an embodiment of the present invention. 第一の診療テーブル部の外観図である。FIG. 3 is an external view of the first medical treatment table section. 非接触入力部の概略構成図である。It is a schematic block diagram of a non-contact input part. 本発明の実施形態に係る歯科診療システムのブロック図である。1 is a block diagram of a dental treatment system according to an embodiment of the present invention. 非接触入力部における画面遷移の一例である。It is an example of screen transition in a non-contact input part. バーチャルキャラクタを用いた患者への情報伝達に使用する画面の例示である。This is an example of a screen used to convey information to a patient using a virtual character. バーチャルキャラクタを用いた患者への情報伝達に使用する画面の例示である。This is an example of a screen used to convey information to a patient using a virtual character. バーチャルキャラクタを用いた患者への情報伝達に使用する画面の例示である。This is an example of a screen used to convey information to a patient using a virtual character. バーチャルキャラクタの移動制御を示すイメージ図である。FIG. 3 is an image diagram showing movement control of a virtual character. バーチャルキャラクタの移動制御を示すイメージ図である。FIG. 3 is an image diagram showing movement control of a virtual character.

以下、図面を参照して、本発明の実施形態について詳細に説明する。各図は、本発明を十分に理解できる程度に、概略的に示してあるに過ぎない。よって、本発明は、図示例のみに限定されるものではない。なお、各図において、共通する構成要素や同様な構成要素については、同一の符号を付し、それらの重複する説明を省略する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. The figures are only shown schematically to provide a thorough understanding of the invention. Therefore, the present invention is not limited to the illustrated example. In each figure, common or similar components are designated by the same reference numerals, and their overlapping explanations will be omitted.

<実施形態に係る歯科診療システムの構成について>
図1および図2を参照して、実施形態に係る歯科診療システム1の構成について説明する。歯科診療システム1は、歯科診療を行うためのシステムである。歯科診療システム1では、コンピュータ内で表現される架空(仮想空間上)のキャラクタ(「バーチャルキャラクタ」と称する)が、患者、患者の付添人(家族や介護者など)および診療スタッフ(歯科医師、歯科衛生士、アシスタントなど)の少なくとも何れかに対する一方向または双方向の情報伝達を行う。患者の付添人は、患者に代わって診療スタッフに患者の情報を提供する患者情報提供者であり、例えば、患者の家族や、患者のそばで保護や世話をする為に付き従う者などである。バーチャルキャラクタは、例えば患者や付添人に対して声掛けを行う。また、バーチャルキャラクタは、患者や付添人に質問をしてその回答を得ることで患者と対話を行う。なお、実施形態では患者や診療スタッフに対する情報伝達を中心にして説明を行い、患者の付添人に対する言及を省略する場合がある。しかしながら、患者の付添人に対する情報伝達を除外するものではない。
<About the configuration of the dental treatment system according to the embodiment>
The configuration of a dental treatment system 1 according to an embodiment will be described with reference to FIGS. 1 and 2. The dental treatment system 1 is a system for performing dental treatment. In the dental treatment system 1, fictitious (virtual space) characters (referred to as "virtual characters") that are represented in a computer are used to represent patients, their attendants (family members, caregivers, etc.), and treatment staff (dentists, caregivers, etc.). One-way or two-way information transmission to at least one of the dental hygienists, assistants, etc.). A patient attendant is a patient information provider who provides patient information to medical staff on behalf of the patient, such as a patient's family or a person who accompanies the patient to protect and care for the patient. The virtual character may, for example, address the patient or an attendant. The virtual character also interacts with the patient by asking questions of the patient and the attendant and obtaining answers. Note that in the embodiments, the explanation will focus on information transmission to patients and medical staff, and references to the patient's attendants may be omitted. However, this does not preclude the transmission of information to the patient's attendant.

バーチャルキャラクタは、三次元(3D)および二次元(2D)の何れの表現であってもよい。情報伝達を行うキャラクタは、生命体のみならず、非生命体を生命体に模したもの(疑似生命体)であってもよい。バーチャルキャラクタは、例えば、画面上の文字やスピーカから出力される音声を用いて患者に対して情報伝達を行う。 The virtual character may be a three-dimensional (3D) or two-dimensional (2D) representation. The character that transmits information may be not only a living entity but also a non-living entity imitating a living entity (pseudo-living entity). The virtual character transmits information to the patient using, for example, characters on a screen or sounds output from a speaker.

生命体は、対話を実際に行えるか否かを問わず、例えば人間、人間以外の動物、植物、菌類などであってよい。また、生命体は、想像上の生物(例えば、妖精など)であってもよい。疑似生命体は、例えば、人型や人以外の動物型ロボットのみならず、情報の伝達を行う提供者であると患者が認識できるものであればよい。疑似生命体は、例えば、人体を構成する物(例えば、歯、骨、口など)、自然の造形物(例えば、惑星、山など)、人工の造形物(建造物を含む)、乗り物、道具(例えば、歯ブラシ、コップなど)、自然現象(例えば、水、火、風、雲など)、幾何学図形(例えば、球体、多面体など)であってよい。 The living entity may be, for example, a human being, a non-human animal, a plant, a fungus, etc., regardless of whether or not it is actually capable of dialogue. Furthermore, the living entity may be an imaginary creature (for example, a fairy, etc.). The pseudo-living entity may be, for example, not only a humanoid or a non-human animal-shaped robot, but also any entity that the patient can recognize as a provider who transmits information. Pseudo life forms include, for example, things that make up the human body (e.g., teeth, bones, mouth, etc.), natural structures (e.g., planets, mountains, etc.), artificial structures (including buildings), vehicles, and tools. (for example, a toothbrush, a cup, etc.), a natural phenomenon (for example, water, fire, wind, clouds, etc.), or a geometric figure (for example, a sphere, a polyhedron, etc.).

キャラクタが疑似生命体である場合には、情報の伝達を行う提供者であると患者が認識できる工夫がなされているのが好ましい。当該工夫は、例えば、疑似生命体への顔の付与であったり、疑似生命体が行う動作や表情の変化(ジェスチャー)であったり、疑似生命体の形状、色の変化や発光表現などである。また、当該工夫は、バーチャルキャラクタが発する言葉を画面上に文字で表示する場合において、画面上の文字とバーチャルキャラクタとを関連付けるもの(例えば、吹き出し表現など)であってもよい。キャラクタが対話を実際に行えない生命体の場合も同様の工夫がなされているのがよい。 When the character is a pseudo-living entity, it is preferable that the character be devised so that the patient can recognize it as a provider who is transmitting information. Such devices include, for example, adding a face to the pseudo-living entity, changing the movements and facial expressions (gestures) performed by the pseudo-living entity, changing the shape and color of the pseudo-living entity, and expressing luminescence. . Furthermore, when the words uttered by the virtual character are displayed as characters on the screen, the device may be one that associates the characters on the screen with the virtual character (for example, a speech bubble expression). It would be good to have a similar idea in the case of a living creature with which the character cannot actually interact.

バーチャルキャラクタは、歯科診療システム1を構成するデバイス(構成要素)の何れかに映し出され、患者や診療スタッフに対して声掛けや対話を行うことが可能である。バーチャルキャラクタは、事前に作成したプログラム(人工知能(Ai)を含む)によって予め決められた応答(質問や回答)をするものであってよく、その場合には患者に対して無人応答が可能である。また、バーチャルキャラクタは、人間(例えば、診療スタッフ)による操作によって任意の応答(質問や回答)をするものであってもよく、その場合にはキャラクタが操作する人間の分身(「アバター」などとも呼ばれる)となって応答することが可能である。歯科診療システム1が複数の表示部を有する場合、バーチャルキャラクタがこれらの表示部を移動して表示されてもよい。 The virtual character is displayed on any of the devices (components) constituting the dental treatment system 1, and is capable of addressing and interacting with patients and treatment staff. The virtual character may give predetermined responses (questions and answers) by a pre-created program (including artificial intelligence (AI)), and in that case, unattended responses to the patient may be possible. be. Furthermore, the virtual character may be one that makes arbitrary responses (questions and answers) when operated by a human (for example, medical staff), and in that case, the virtual character may also be called an alter ego (such as an "avatar") of the human being operated by the character. It is possible to respond by being called). When the dental treatment system 1 has a plurality of display sections, the virtual character may be displayed by moving among these display sections.

バーチャルキャラクタが患者や診療スタッフとの間で伝達する情報(伝達情報)の内容は、従来の歯科診療で診療スタッフが患者に対して行っていたもの(例えば、声掛けや対話)と同様の内容であってよい。伝達情報は、患者と診療スタッフとの対面機会の低減に資する情報、患者の待ち時間の有効利用を図るための情報などであるのがよい。また、伝達情報は、歯科診療の場面に応じたものであってよく、患者に安心して治療を受けてもらうことが可能なものであってもよい。 The content of the information that the virtual character communicates with patients and clinical staff (transfer information) is similar to what clinical staff do with patients in conventional dental care (e.g., greetings and dialogue). It may be. The transmitted information is preferably information that contributes to reducing opportunities for face-to-face encounters between patients and medical staff, information that aims to make effective use of patient waiting time, and the like. Furthermore, the transmitted information may be appropriate for the dental treatment situation, and may be information that allows the patient to receive treatment with peace of mind.

治療前の待ち期間における伝達情報は、例えば、患者から主訴を聞き出すための内容、患者の生体に関する情報を聞き出すための内容、過去の治療に関する情報を聞き出すための内容、問診に関する内容、診療に関する内容、診療を行う室内環境に関する内容、患者にリラックスしてもらうための内容、その他診療を円滑に進めるための内容などである。また、治療後のカウンセリング期間における伝達情報は、例えば、自費/保険診療に関する内容、地域連携によるタウン情報に関する内容、ホームケア商品の物品販売に関する内容、歯周病予防に関する内容、継続して診療を受けてもらうための内容、その他カウンセリングに関する内容などである。 Information to be transmitted during the waiting period before treatment includes, for example, content to elicit the patient's chief complaint, content to elicit information about the patient's biological body, content to elicit information about past treatments, content related to interviews, and content related to medical treatment. , content related to the indoor environment in which medical treatment is performed, content to help patients relax, and other content to facilitate smooth treatment. In addition, information to be communicated during the post-treatment counseling period includes, for example, content related to self-pay/insurance medical treatment, content related to town information through regional cooperation, content related to sales of home care products, content related to periodontal disease prevention, and content related to continued medical treatment. This includes information on how to receive counseling, and other information related to counseling.

図1に示すように、本実施形態に係る歯科診療システム1は、主に、患者用椅子2と、照明部3(図2参照)と、撮影部4と、表示部5、音声入力部6と、音声出力部7と、第一の診療テーブル部10と、第二の診療テーブル部20と、スピットンユニット30と、フットコントローラ41と、コンピュータ50(図2参照)とを備える。なお、図1では、照明部3およびコンピュータ50の記載を省略している。第一の診療テーブル部10、第二の診療テーブル部20およびスピットンユニット30は、「歯科診療ユニット」の一例である。 As shown in FIG. 1, the dental treatment system 1 according to the present embodiment mainly includes a patient chair 2, a lighting section 3 (see FIG. 2), an imaging section 4, a display section 5, and an audio input section 6. , an audio output section 7, a first treatment table section 10, a second treatment table section 20, a spittoon unit 30, a foot controller 41, and a computer 50 (see FIG. 2). Note that in FIG. 1, illustrations of the illumination unit 3 and the computer 50 are omitted. The first treatment table section 10, the second treatment table section 20, and the spittoon unit 30 are an example of a "dental treatment unit."

図1に示す患者用椅子2は、診療時に患者が座る椅子である。患者用椅子2は、例えば背面部が座面部に対して角度変更可能に構成されている。また、患者用椅子2は、例えば患者の頭部を支える頭面部が背面部に対して位置調整可能に構成されている。患者用椅子2は、例えば、第一の診療テーブル部10に設けられた操作部14(図1参照)やフットコントローラ41によって操作される。また、患者用椅子2は、詳細を後述する非接触入力部15(図3参照)によっても操作可能である。 A patient chair 2 shown in FIG. 1 is a chair on which a patient sits during medical treatment. The patient chair 2 is configured such that, for example, the angle of the back surface of the patient chair 2 can be changed with respect to the seat surface. Further, the patient chair 2 is configured such that, for example, a head portion that supports the patient's head can be adjusted in position relative to the back portion. The patient chair 2 is operated by, for example, an operating section 14 (see FIG. 1) provided on the first medical treatment table section 10 or a foot controller 41. Further, the patient chair 2 can also be operated by a non-contact input section 15 (see FIG. 3), which will be described in detail later.

図2に示す照明部3は、患者(特に口内)を照らすための器具である。照明部3は、例えば無影灯であり、複数の関節を有するアーム3aの先端に設置されている。アーム3aの基端は、柱部1aに取り付けられている。柱部1aは、スピットンユニット30から鉛直方向に延びる棒状の部材である。この構成により、照明部3は、位置を自由に移動させることが可能である。照明部3にはハンドル3bが設けられており、歯科医師や歯科衛生士は、ハンドル3bを把持して照明部3の位置を調整する。 The illumination unit 3 shown in FIG. 2 is an instrument for illuminating a patient (particularly the inside of the mouth). The illumination unit 3 is, for example, a surgical light, and is installed at the tip of an arm 3a having a plurality of joints. The base end of the arm 3a is attached to the column 1a. The column portion 1a is a rod-shaped member extending vertically from the spittoon unit 30. With this configuration, the illumination unit 3 can be moved freely in position. The lighting section 3 is provided with a handle 3b, and a dentist or dental hygienist grips the handle 3b to adjust the position of the lighting section 3.

図1に示す撮影部4は、患者(特に口内)を撮影するための装置である。撮影部4は、例えばビデオカメラであり、デジタル画像を取得することができる。撮影部4は、複数の関節を有するアーム4aの先端に設置されている。アーム4aの基端は、柱部1aに取り付けられている。撮影部4にはハンドル4bが設けられており、歯科医師や歯科衛生士は、ハンドル4bを把持して撮影部4の位置を調整する。また、撮影部4は、例えば自身に設けられた操作部4cや、第一の診療テーブル部10に設けられた操作部14によって操作される。また、撮影部4は、詳細を後述する非接触入力部15(図3参照)によっても操作可能である。 The photographing unit 4 shown in FIG. 1 is a device for photographing a patient (particularly inside the mouth). The photographing unit 4 is, for example, a video camera, and is capable of acquiring digital images. The imaging unit 4 is installed at the tip of an arm 4a having multiple joints. The base end of the arm 4a is attached to the column 1a. The imaging unit 4 is provided with a handle 4b, and a dentist or dental hygienist grips the handle 4b to adjust the position of the imaging unit 4. Further, the photographing section 4 is operated, for example, by an operation section 4c provided on itself or an operation section 14 provided on the first medical treatment table section 10. Further, the photographing section 4 can also be operated by a non-contact input section 15 (see FIG. 3), which will be described in detail later.

図1に示す表示部5は、例えば液晶ディスプレイであり、コンピュータ50の制御に基づいて映像(静止画像を含む)を画面に表示する。表示部5のサイズや設置される位置は、患者用椅子2に座った状態で患者が表示される映像の内容を認識できる程度であればよい。表示部5は、バーチャルキャラクタが映る映像を表示することが可能である。表示部5は、「情報伝達部」の一例である。 The display unit 5 shown in FIG. 1 is, for example, a liquid crystal display, and displays video (including still images) on the screen under the control of the computer 50. The size and position of the display section 5 may be such that the patient can recognize the content of the displayed image while sitting on the patient chair 2. The display unit 5 can display an image showing a virtual character. The display section 5 is an example of an "information transmission section."

図1に示す音声入力部6は、例えばマイクロフォンであり、コンピュータ50の制御に基づいて音(例えば、診察室内の歯科医師、歯科衛生士、患者の音声)を取得する。音声出力部7は、例えばスピーカであり、コンピュータ50の制御に基づいて音(例えば、バーチャルキャラクタ、診察室の外にいる診療スタッフの音声)を出力する。音声入力部6および音声出力部7は、例えば歯科医師、歯科衛生士および患者の近くに配置される。音声入力部6および音声出力部7は、歯科診療システム1を構成する他の構成要素(例えば、表示部5、第一の診療テーブル部10、第二の診療テーブル部20、スピットンユニット30など)に内蔵されて構成されてもよい。 The voice input unit 6 shown in FIG. 1 is, for example, a microphone, and acquires sounds (for example, voices of a dentist, a dental hygienist, and a patient in the examination room) under the control of the computer 50. The audio output unit 7 is, for example, a speaker, and outputs sound (for example, the voice of a virtual character or a medical staff member outside the examination room) under the control of the computer 50. The audio input section 6 and the audio output section 7 are placed near, for example, a dentist, a dental hygienist, and a patient. The audio input section 6 and the audio output section 7 are connected to other components constituting the dental treatment system 1 (for example, the display section 5, the first treatment table section 10, the second treatment table section 20, the spittoon unit 30, etc.) It may be configured by being built into.

図1に示す第一の診療テーブル部10は、歯科診療時に歯科医師が主に使用する装置であり、診察室内に設置される。第一の診療テーブル部10は、支持部10a(図2参照)によって支持されている。支持部10aは、複数の関節部を有するアームである。支持部10aの基端部は、患者用椅子2近傍(例えば右側)の床面等に固定されている。第一の診療テーブル部10にはハンドル10bが設けられており、歯科医師は、ハンドル10bを把持して第一の診療テーブル部10の位置を調整する。 The first medical treatment table section 10 shown in FIG. 1 is a device mainly used by dentists during dental treatment, and is installed in the examination room. The first medical treatment table section 10 is supported by a support section 10a (see FIG. 2). The support portion 10a is an arm having multiple joints. The base end portion of the support portion 10a is fixed to a floor surface or the like near the patient chair 2 (for example, on the right side). The first treatment table section 10 is provided with a handle 10b, and the dentist grasps the handle 10b to adjust the position of the first treatment table section 10.

図3に第一の診療テーブル部10の外観図を示す。第一の診療テーブル部10は、例えば診療用テーブル11と、インスツルメント(治療用器具)12と、表示部13と、操作部14と、非接触入力部15と、インスツルメントハンガー16を備える。なお、図3では、インスツルメント12を省略して記載している。 FIG. 3 shows an external view of the first medical treatment table section 10. The first medical treatment table section 10 includes, for example, a medical table 11, an instrument (treatment instrument) 12, a display section 13, an operation section 14, a non-contact input section 15, and an instrument hanger 16. Be prepared. Note that in FIG. 3, the instrument 12 is omitted.

インスツルメント12は、例えばエアタービンハンドピース、マイクロモータハンドピース、スケーラ、スリーウェイシリンジ、バキュームシリンジなどである。エアタービンハンドピースは、歯科用タービンハンドピースの一種であり、注水しながら圧縮空気の力によって切削工具を高速回転させて歯を研削する。マイクロモータハンドピースは、歯科用タービンハンドピースの一種であり、注水しながら電気モータの力によって切削工具を高速回転させて歯を研削する。インスツルメント12は、これらに限らず、口腔内カメラ、光重合用照射器、根管長測定器、および根管拡大器などであってもよく、鏡や注射器など、駆動しない器具であってもよい。インスツルメント12は、インスツルメントハンガー16によって保持された状態で収納される。 The instrument 12 is, for example, an air turbine handpiece, a micromotor handpiece, a scaler, a three-way syringe, a vacuum syringe, or the like. The air turbine handpiece is a type of dental turbine handpiece, and grinds teeth by rotating a cutting tool at high speed using the force of compressed air while injecting water. The micromotor handpiece is a type of dental turbine handpiece that grinds teeth by rotating a cutting tool at high speed using the power of an electric motor while injecting water. The instrument 12 is not limited to these, and may be an intraoral camera, a photopolymerization irradiator, a root canal length measuring device, a root canal expander, etc., and may be a non-driven instrument such as a mirror or a syringe. Good too. The instrument 12 is stored while being held by an instrument hanger 16.

表示部13は、例えば液晶ディスプレイである。表示部13には、歯科診療システム1に関する情報が表示される。
操作部14は、例えば複数の操作ボタンで構成される。操作部14を操作することで、歯科診療システム1を構成する構成要素を操作可能である。
The display unit 13 is, for example, a liquid crystal display. Information regarding the dental treatment system 1 is displayed on the display unit 13.
The operation unit 14 is composed of, for example, a plurality of operation buttons. By operating the operating unit 14, the components constituting the dental treatment system 1 can be operated.

非接触入力部15は、空中に画像(例えば、操作画面の画像やバーチャルキャラクタを含む画像)を表示するとともに、空中に表示した画像に対する入力操作を検知する機能を備える。非接触入力部15は、「情報伝達部」の一例である。本実施形態の非接触入力部15は、第一の診療テーブル部10に固定されることで設置されているが、第一の診療テーブル部10以外の構成要素(例えば、第二の診療テーブル部20、スピットンユニット30、患者用椅子2、照明部3、撮影部4など)に非接触入力部15が設けられていてもよい。また、非接触入力部15は、着脱可能に設けられていてもよい。例えば、非接触入力部15は、補助アームを設けて固定あるいは着脱可能に設けられていてもよい。図4に、非接触入力部15の概略構成を示す。 The non-contact input unit 15 has a function of displaying an image (for example, an image of an operation screen or an image including a virtual character) in the air, and detecting an input operation on the image displayed in the air. The non-contact input section 15 is an example of an "information transmission section." The non-contact input unit 15 of this embodiment is installed by being fixed to the first treatment table part 10, but components other than the first treatment table part 10 (for example, the second treatment table part 20, spittoon unit 30, patient chair 2, lighting section 3, photographing section 4, etc.) may be provided with a non-contact input section 15. Further, the non-contact input section 15 may be provided in a detachable manner. For example, the non-contact input section 15 may be fixed or detachably provided with an auxiliary arm. FIG. 4 shows a schematic configuration of the non-contact input section 15.

図4に示すように、非接触入力部15は、平面状のディスプレイ151(表示部)と、ディスプレイ151に対して離して配置される光結像部152とを備える。ディスプレイ151は、診療用テーブル11内に埋設されている。光結像部152は、ディスプレイ151に対して30~60度の角度αで設置されており、ディスプレイ151に表示される画像を入光し、ディスプレイ151の画像を対称位置に第1の実像153として結像する。光結像部152は、例えば診療用テーブル11を構成するガラス板の裏面であって、当該ガラス板に重ねて配置される。これにより、診療用テーブル11の表面には凹凸がなく、診療用テーブル11の表面に物を置きやすくなっている。 As shown in FIG. 4, the non-contact input section 15 includes a flat display 151 (display section) and a light imaging section 152 arranged apart from the display 151. The display 151 is embedded within the medical table 11. The optical imaging unit 152 is installed at an angle α of 30 to 60 degrees with respect to the display 151, receives the image displayed on the display 151, and converts the image on the display 151 into a first real image 153 at a symmetrical position. imaged as. The optical imaging section 152 is arranged, for example, on the back surface of a glass plate that constitutes the medical treatment table 11, so as to overlap the glass plate. As a result, the surface of the medical table 11 has no unevenness, making it easy to place items on the surface of the medical table 11.

光結像部152は、一面側を当接又は近接して配置された平板状の光制御パネル154,155を有している。光制御パネル154,155は、ガラス又は透明プラスチック等の透明材で主に形成され、帯状を呈する多数の平面光反射部が内部に設置される。平面光反射部は、例えば反射効率のよい金属シート、蒸着金属、鏡面シートなどであり、それぞれ一方側の面に垂直に一定のピッチに並べて配置されている。光制御パネル154の平面光反射部と光制御パネル155の平面光反射部とは、平面視して交差(例えば、直交状態)して配置されている。 The optical imaging section 152 has flat light control panels 154 and 155 that are arranged on one side in contact with or in close proximity to each other. The light control panels 154 and 155 are mainly made of a transparent material such as glass or transparent plastic, and have a large number of band-shaped planar light reflecting parts installed therein. The planar light reflecting portions are, for example, metal sheets, vapor-deposited metals, mirror sheets, etc. with good reflection efficiency, and are arranged perpendicularly to one surface at a constant pitch. The planar light reflecting section of the light control panel 154 and the planar light reflecting section of the light control panel 155 are arranged to intersect (for example, orthogonally) in plan view.

ディスプレイ151(表示部)は、例えば液晶タイプのディスプレイであって、液晶部およびバックライトを有し、多数のセル(発光ブロック)が格子状に配置された構造になっている。各セルは、RGB発光部と、赤外線発光部と、赤外線センサと、帯状の透明電極とを有する。RGB発光部は、バックライトの光が液晶部を通過した場合にR(赤)、G(緑)、B(青)に発光する部分であり、色フィルタであってよい。液晶部は、周知の構造となって、上下にそれぞれX、Y方向に格子状に配置された帯状の透明電極によって給電され、セル単位で遮光状態及び透光状態を制御できる。赤外線センサの上下には、赤外線センサから光信号を得る(給電する場合もある)帯状の透明電極が上下に格子状に配置されている。 The display 151 (display section) is, for example, a liquid crystal type display, has a liquid crystal section and a backlight, and has a structure in which a large number of cells (light-emitting blocks) are arranged in a grid. Each cell has an RGB light emitting section, an infrared light emitting section, an infrared sensor, and a band-shaped transparent electrode. The RGB light emitting section is a section that emits R (red), G (green), and B (blue) light when the light from the backlight passes through the liquid crystal section, and may be a color filter. The liquid crystal section has a well-known structure, and is supplied with power by band-shaped transparent electrodes arranged in a grid pattern in the X and Y directions at the top and bottom, respectively, and can control the light-shielding state and the light-transmitting state on a cell-by-cell basis. Above and below the infrared sensor, band-shaped transparent electrodes that obtain optical signals from the infrared sensor (and sometimes supply power) are arranged in a grid pattern above and below.

ディスプレイ151(表示部)の動作について説明する。バックライトを点灯した状態で、各セル内のRGB発光部、赤外線発光部に対応する(即ち、直下)液晶部を透明電極を介してオン/オフすると、セルから可視光及び赤外光が発生する。これによって、ディスプレイ151上に画像を形成することができると共に、ディスプレイ151から均一照度の赤外線が発生する。図4に示すように、ディスプレイ151に表示された画像からの光(r1~r4)は、光結像部152に入り、反対側に第1の実像153が形成される。なお、ディスプレイ151と第1の実像153は、光結像部152を中心として左右対称又は上下対称に形成される。この場合、ディスプレイ151の赤外線発光部から発した赤外線は、面状となって第1の実像153の位置に重なって形成されるが、視認することはできない。 The operation of the display 151 (display section) will be explained. When the backlight is turned on and the liquid crystal part corresponding to the RGB light emitting part and infrared light emitting part in each cell (i.e. directly below) is turned on and off via the transparent electrode, visible light and infrared light are generated from the cell. do. As a result, an image can be formed on the display 151, and infrared rays with uniform illuminance are generated from the display 151. As shown in FIG. 4, light (r1 to r4) from the image displayed on the display 151 enters the optical imaging section 152, and a first real image 153 is formed on the opposite side. Note that the display 151 and the first real image 153 are formed laterally or vertically symmetrically with the optical imaging section 152 as the center. In this case, the infrared rays emitted from the infrared light emitting part of the display 151 are formed in a planar shape overlapping the position of the first real image 153, but cannot be visually recognized.

ここで、図4に示すように、第1の実像153の所定位置に指158(タッチペン、指示棒等でもよい)を入れると、指158から赤外線の反射光が発生し、その画像が光結像部152を介してディスプレイ151側(即ち、ディスプレイ151上)に第2の実像159として結像される。図4に示すように、指158からの赤外線の反射光は、例えば符号s1,s3で示す帰路で光結像部152に入光し、光結像部152で屈曲反射し、符号s2,s4で示す帰路を通って第2の実像159を結像する。第2の実像159は赤外線による結像なので目視できない。図4において、符号βは第1の実像153と第2の実像159が光結像部152に対して対称に形成されることを示す。なお、符号r1~r4,s1~s4は結像に寄与する赤外線束の外側の赤外線を示す。 Here, as shown in FIG. 4, when a finger 158 (a touch pen, pointer stick, etc. may be used) is inserted into a predetermined position of the first real image 153, infrared reflected light is generated from the finger 158, and the image is A second real image 159 is formed on the display 151 side (that is, on the display 151) via the image section 152. As shown in FIG. 4, the infrared reflected light from the finger 158 enters the optical imaging unit 152 on the return path indicated by symbols s1 and s3, is bent and reflected by the optical imaging unit 152, and is reflected by symbols s2 and s4. A second real image 159 is formed through the return path shown by . The second real image 159 is formed using infrared rays and cannot be visually observed. In FIG. 4, the symbol β indicates that the first real image 153 and the second real image 159 are formed symmetrically with respect to the optical imaging section 152. Note that symbols r1 to r4 and s1 to s4 indicate infrared rays on the outside of the infrared beam contributing to image formation.

そして、ディスプレイ151の各セルに配置されている赤外線センサで指158の赤外線画像(第2の実像159)を検知し、これによって、第1の実像153のどの部分を押したかを検知できる。赤外線センサは、結像された画像における指示位置を検知する「検知部」の一例である。第1の実像153が例えば、デバイスを操作するための操作画面の画像である場合では、操作画面の操作位置を検知できる。なお、ディスプレイ151の赤外線発光部や赤外線センサの動作を停止したり、赤外線センサの検知結果を制御に利用しないなどすることで、非接触入力部15を空中に画像を表示させる表示部として機能させることもできる。 Then, the infrared sensor arranged in each cell of the display 151 detects an infrared image (second real image 159) of the finger 158, and thereby it is possible to detect which part of the first real image 153 is pressed. The infrared sensor is an example of a "detection unit" that detects a designated position in a formed image. If the first real image 153 is, for example, an image of an operation screen for operating a device, the operating position of the operation screen can be detected. Note that the non-contact input section 15 is made to function as a display section that displays an image in the air by stopping the operation of the infrared light emitting section of the display 151 and the infrared sensor, and by not using the detection results of the infrared sensor for control. You can also do that.

なお、ディスプレイ151に赤外線発光部および赤外線センサを含ませない構成にすることもできる(つまり、ディスプレイ151とは別に赤外線発光部および赤外線センサを設置してもよい)。例えば、赤外線発光部および赤外線センサを直線状に並べたラインセンサを用いて、第1の実像153のどの部分を指示したかを検知する。ラインセンサは、第1の実像153と当該ラインセンサの検出面が同一面になるように、例えば第1の実像153の延長線上に配置される。ラインセンサは、第1の実像153の平面と一致するように赤外線を照射し、指158などで反射して戻ってきた反射光を赤外線センサで受信し、第1の実像153での座標を検知する。また、例えばディスプレイ151の画面に赤外線を照射するように赤外線発光部を配置してもよい。そして、赤外線のみを検知する赤外線カメラを用いて第1の実像153を撮影し、その結果から第1の実像153のどの部分を指示したかを検知してもよい。なお、赤外線発光部は、第1の実像153やディスプレイ151の画面をスキャンするものでもよい。 Note that the display 151 may have a configuration in which the infrared light emitting section and the infrared sensor are not included (that is, the infrared light emitting section and the infrared sensor may be installed separately from the display 151). For example, a line sensor in which an infrared light emitting unit and an infrared sensor are arranged in a straight line is used to detect which part of the first real image 153 is pointed. The line sensor is arranged, for example, on an extension of the first real image 153 so that the first real image 153 and the detection surface of the line sensor are on the same plane. The line sensor irradiates infrared rays so as to match the plane of the first real image 153, receives the reflected light that is reflected by a finger 158, etc., and detects the coordinates of the first real image 153. do. Further, for example, an infrared light emitting section may be arranged so as to irradiate the screen of the display 151 with infrared light. Then, the first real image 153 may be photographed using an infrared camera that detects only infrared rays, and from the result, it may be detected which part of the first real image 153 is indicated. Note that the infrared light emitting unit may be one that scans the first real image 153 or the screen of the display 151.

本実施形態において、治療を行っている時間帯では、非接触入力部15は主に操作画面を空中に表示する。つまり、この時間帯では、非接触入力部15は、主に歯科医師によって操作され、デバイスを操作するための操作部として使用される。また、治療を行っていない時間帯では、非接触入力部15は主にバーチャルキャラクタが含まれる画面を空中に表示する。バーチャルキャラクタは、例えば患者に対する情報の提供、患者からの情報の取得、患者との対話などを行う。つまり、この時間帯では、非接触入力部15は、主に患者によって視聴され、患者に対する一方向または双方向の情報伝達を行う情報伝達部として使用される。その為、非接触入力部15は、患者の視界に入りやすい位置に設置されるのがよい。具体的には、非接触入力部15は、診療用テーブル11の中で患者に近い側に配置されるのがよい。非接触入力部15を用いた情報伝達の詳細は後述する。 In this embodiment, the non-contact input unit 15 mainly displays the operation screen in the air during the treatment time period. That is, during this time period, the non-contact input section 15 is mainly operated by the dentist and is used as an operation section for operating the device. Furthermore, during the time period when no treatment is being performed, the non-contact input unit 15 mainly displays a screen containing virtual characters in the air. The virtual character provides information to the patient, obtains information from the patient, and interacts with the patient, for example. That is, during this time period, the non-contact input unit 15 is mainly viewed by the patient and is used as an information transmission unit that transmits information to the patient in one or two directions. Therefore, it is preferable that the non-contact input section 15 be installed at a position where it can easily be seen by the patient. Specifically, the non-contact input unit 15 is preferably placed on the side of the medical table 11 that is closer to the patient. Details of information transmission using the non-contact input unit 15 will be described later.

図1に示す第二の診療テーブル部20は、歯科診療時に歯科衛生士が主に使用する装置である。第二の診療テーブル部20は、例えば診療用テーブル21と、インスツルメント(治療用器具)22と、操作部23と、を備える。第二の診療テーブル部20は、支持部20aによって支持されている。支持部20aは、複数の関節部を有するアームである。支持部20aの基端部は、患者用椅子2近傍(例えば左側)の床面等に固定されている。第二の診療テーブル部20にはハンドル20bが設けられており、歯科衛生士は、ハンドル20bを把持して第二の診療テーブル部20の位置を調整する。 The second treatment table section 20 shown in FIG. 1 is a device mainly used by dental hygienists during dental treatment. The second medical table section 20 includes, for example, a medical table 21, an instrument (treatment instrument) 22, and an operation section 23. The second medical table section 20 is supported by a support section 20a. The support portion 20a is an arm having multiple joints. The base end portion of the support portion 20a is fixed to a floor surface or the like near the patient chair 2 (for example, on the left side). The second treatment table section 20 is provided with a handle 20b, and the dental hygienist grips the handle 20b to adjust the position of the second treatment table section 20.

インスツルメント22は、例えばトリプルシリンジ、バキューム、排唾器具などである。トリプルシリンジは、術野を注視しやすくするために、口腔内を噴霧(スプレー)によって洗浄、あるいは圧縮空気(エアー)で乾燥させるための器具である。バキュームは、術者の視野確保や口腔内の衛生の保持のために、口腔内の切削粉塵・水・唾液などを吸引排除するものである。排唾器具は、治療部位の除湿、術者の視野確保のために、口腔内に溜まった唾液・水・洗浄液を吸引排除するものである。インスツルメント22は、インスツルメントハンガー16によって保持された状態で収納される。操作部23は、例えば複数の操作ボタンで構成される。 The instrument 22 is, for example, a triple syringe, a vacuum, a saliva removal device, or the like. The triple syringe is an instrument for cleaning the inside of the oral cavity with a spray or drying it with compressed air to make it easier to observe the surgical field. A vacuum is used to suction and remove cutting dust, water, saliva, etc. from the oral cavity in order to ensure the surgeon's field of vision and maintain oral hygiene. The saliva evacuation device is used to suction and remove saliva, water, and cleaning fluid that have accumulated in the oral cavity in order to dehumidify the treatment area and ensure the surgeon's field of vision. The instrument 22 is stored while being held by the instrument hanger 16. The operation unit 23 is composed of, for example, a plurality of operation buttons.

図1に示すスピットンユニット30は、患者がうがいを行うための装置である。スピットンユニット30は、例えば給水部31と、スピットン32とを備える。給水部31は、うがい用のコップに水を注入するものである。スピットン32は、患者がうがいを行う受け(うがい鉢)である。本実施形態のスピットンユニット30には、柱部1aが設置されている。 The spittoon unit 30 shown in FIG. 1 is a device for a patient to gargle. The spittoon unit 30 includes, for example, a water supply section 31 and a spittoon 32. The water supply unit 31 is for injecting water into a gargling cup. The spittoon 32 is a gargling bowl for the patient to gargle with. A pillar portion 1a is installed in the spittoon unit 30 of this embodiment.

フットコントローラ41は、足踏み操作用のコントローラである。フットコントローラ41は、例えば複数のペダル(「ドライブペダル」とも呼ばれる)を備え、歯科医師D又は歯科衛生士が足で操作する。 The foot controller 41 is a controller for pedal operation. The foot controller 41 includes, for example, a plurality of pedals (also called "drive pedals"), and is operated by the dentist D or the dental hygienist with his or her feet.

図2に示すコンピュータ50は、歯科診療システム1の全体の動作を制御する。コンピュータ50は、CPU(Central Processing Unit)、ROM(Read-Only Memory)、RAM(Random Access Memory)、入出力回路、通信回路等によって構成される。 A computer 50 shown in FIG. 2 controls the entire operation of the dental treatment system 1. The computer 50 includes a CPU (Central Processing Unit), a ROM (Read-Only Memory), a RAM (Random Access Memory), an input/output circuit, a communication circuit, and the like.

図5を参照して、コンピュータ50が有する機能について説明する。図5に示すように、コンピュータ50は、例えば歯科診療システム1を構成する構成要素(例えば、患者用椅子2、照明部3、撮影部4、表示部5、音声入力部6、音声出力部7、第一の診療テーブル部10、第二の診療テーブル部20、スピットンユニット30、フットコントローラ41、ライブ操作スイッチ42、データベース43、その他構成要素44など)と医院内ネットワーク(例えば、LAN(Local Area Network))を介して通信可能である。また、コンピュータ50は、医院外ネットワーク(例えば、インターネット)を介して、端末45およびデータベース46と通信可能である。 The functions of the computer 50 will be explained with reference to FIG. 5. As shown in FIG. 5, the computer 50 includes, for example, components constituting the dental treatment system 1 (for example, a patient chair 2, a lighting section 3, a photographing section 4, a display section 5, an audio input section 6, an audio output section 7). , first treatment table section 10, second treatment table section 20, spittoon unit 30, foot controller 41, live operation switch 42, database 43, other components 44, etc.) and the hospital network (for example, LAN (Local Area Network)). Further, the computer 50 is capable of communicating with the terminal 45 and the database 46 via a network outside the clinic (eg, the Internet).

ライブ操作スイッチ42は、遠隔(例えば、診療室の外)にいる診療スタッフとの会話を開始するための操作部であり、患者がライブ操作スイッチ42を操作することで、遠隔にいる診療スタッフと直接会話が可能になる。会話の方法は特に限定されず、例えばテレビ電話による会話や診療スタッフが操作するバーチャルキャラクタ(アバター)を介した会話であってよい。 The live operation switch 42 is an operation unit for starting a conversation with the medical staff who is located remotely (for example, outside the treatment room), and by the patient operating the live operation switch 42, the patient can communicate with the medical staff who is located remotely. Direct conversation becomes possible. The method of conversation is not particularly limited, and may be, for example, a videophone conversation or a conversation via a virtual character (avatar) operated by medical staff.

データベース43は、一般的な記憶装置によって実現され、歯科診療システム1に関する種々の情報が格納されている。データベース43には、例えば診療スタッフによって記録された情報(記録情報)が格納されている。データベース43に記憶される情報は、伝達する情報の作成に利用される。 The database 43 is realized by a general storage device, and stores various information regarding the dental treatment system 1. The database 43 stores, for example, information recorded by medical staff (recorded information). The information stored in the database 43 is used to create information to be transmitted.

その他構成要素44は、例えば一般的な歯科医院が備える構成要素(受付(会計)、待合室、診察室、カウンセリングルーム、レントゲン室、技工室等)に設置される端末(受付(会計)端末、待合室端末、診察室端末、カウンセリングルーム端末、レントゲン室端末、技工室端末))である。これにより、コンピュータ50は、歯科医院内のあらゆる端末とデータ共有可能である。 Other components 44 include terminals (reception (accounting) terminal, waiting room, etc.) installed in components of a general dental clinic (reception (accounting), waiting room, consultation room, counseling room, X-ray room, laboratory, etc.). terminals, examination room terminals, counseling room terminals, X-ray room terminals, laboratory terminals)). This allows the computer 50 to share data with all terminals within the dental clinic.

端末45は、歯科診療システム1の外部の端末であり、例えば、患者・患者の家族・診療スタッフ等の個人使用のスマートフォン、タブレット、ウェアラブルデバイス、PC(Personal Computer)などである。これにより、コンピュータ50は、患者、患者の付添人および診療スタッフの少なくとも何れかが使用する端末とデータ共有可能である。 The terminal 45 is a terminal external to the dental treatment system 1, and is, for example, a smartphone, tablet, wearable device, PC (Personal Computer), etc. for personal use by a patient, a patient's family, a medical staff member, or the like. This allows the computer 50 to share data with terminals used by at least one of the patient, the patient's attendant, and the medical staff.

データベース46は、歯科診療システム1の外部の記憶装置であり、例えばクラウドサーバである。データベース46は、データベース43に代えて/またはデータベース43と共に設置される。データベース46には、歯科診療システム1に関する種々の情報が格納されている。 The database 46 is a storage device external to the dental treatment system 1, and is, for example, a cloud server. Database 46 is installed instead of database 43 and/or together with database 43. The database 46 stores various information regarding the dental treatment system 1.

コンピュータ50は、歯科診療システム1の全体の動作を制御するための各種機能を備える。コンピュータ50が備える機能は、例えばCPUによるプログラム実行処理や、専用回路等により実現される。本実施形態ではコンピュータ50は、歯科診療システム1のスピットンユニット30の内部に設けた例を示したが、第一の診療テーブル部10や第二の診療テーブル部20の内部に設けてもよい。なお、コンピュータ50の設置場所は特に限定されない。コンピュータ50は、例えば診察室内に設置されるが、診察室以外の場所に設置されてもよい。コンピュータ50は、複数のハードウェアが連携して動作するものであってよく、その場合のハードウェアは異なる場所に設置されてもよい。 The computer 50 has various functions for controlling the overall operation of the dental treatment system 1. The functions provided by the computer 50 are realized, for example, by a program execution process by a CPU, a dedicated circuit, and the like. In this embodiment, the computer 50 is provided inside the spittoon unit 30 of the dental treatment system 1, but it may also be provided inside the first treatment table section 10 or the second treatment table section 20. Note that the installation location of the computer 50 is not particularly limited. The computer 50 is installed, for example, in the examination room, but may be installed somewhere other than the examination room. The computer 50 may include a plurality of pieces of hardware that work together, and the pieces of hardware may be installed in different locations.

本実施形態では、一般的な歯科診療システムが備える機能の説明を省略または簡略化して説明することにし、本発明の歯科診療システム1が備える特徴的な機能について詳細に説明する。図5に示すように、本実施形態に係るコンピュータ50は、主制御部51と、情報伝達制御部52と、キャラクタ作成部53と、キャラクタ移動部54と、を備える。 In this embodiment, the description of the functions provided in a general dental treatment system will be omitted or simplified, and the characteristic functions provided in the dental treatment system 1 of the present invention will be explained in detail. As shown in FIG. 5, the computer 50 according to this embodiment includes a main control section 51, an information transmission control section 52, a character creation section 53, and a character movement section 54.

主制御部51は、歯科診療システム1を構成する構成要素を制御して様々な動作を実行させる。主制御部51は、歯科診療システム1を構成する構成要素から必要に応じて情報を取得し、取得した情報に基づいて構成要素を制御する。また、主制御部51は、外部の端末45やデータベース46から必要に応じて情報を取得し、取得した情報に基づいて構成要素を制御することもできる。主制御部51は、取得した情報や算出した情報などを、必要に応じて他の機能(情報伝達制御部52、キャラクタ作成部53、キャラクタ移動部54など)に受け渡す。 The main control unit 51 controls the components constituting the dental treatment system 1 and causes them to perform various operations. The main control unit 51 acquires information from the components constituting the dental treatment system 1 as necessary, and controls the components based on the acquired information. The main control unit 51 can also acquire information from the external terminal 45 or database 46 as needed, and control the components based on the acquired information. The main control unit 51 passes the acquired information, calculated information, etc. to other functions (information transmission control unit 52, character creation unit 53, character movement unit 54, etc.) as necessary.

図6を参照して、主制御部51による非接触入力部15の表示制御を説明する。図6は、非接触入力部15における画面遷移の一例である。ここでは、「患者の導入、カウンセリング、退出時の表示」、「問診・診療時の表示」、「診療時の表示」に場合分けして表示画面を示している。 Display control of the non-contact input section 15 by the main control section 51 will be explained with reference to FIG. FIG. 6 is an example of screen transitions in the non-contact input section 15. Here, display screens are shown divided into "displays during patient introduction, counseling, and exit", "displays during interview/medical treatment", and "displays during medical treatment".

(患者の導入、カウンセリング、退出時の表示)
患者の導入、カウンセリング、退出時において、主制御部51は、表示画面の制御を情報伝達制御部52に移し、情報伝達制御部52がバーチャルキャラクタを含むキャラクタ画面70を非接触入力部15に表示させる。キャラクタ画面70は、例えば、バーチャルキャラクタ71と、患者への伝達情報72とを有する。情報伝達制御部52は、バーチャルキャラクタ71を介して患者に対する一方向または双方向の情報伝達を行う。患者に対する情報伝達の詳細は後述する。
(Display on patient introduction, counseling, and exit)
At the time of patient introduction, counseling, and exit, the main control section 51 transfers control of the display screen to the information transmission control section 52, and the information transmission control section 52 displays a character screen 70 including a virtual character on the non-contact input section 15. let The character screen 70 includes, for example, a virtual character 71 and information 72 to be transmitted to the patient. The information transmission control unit 52 performs one-way or two-way information transmission to the patient via the virtual character 71. Details of information transmission to patients will be described later.

キャラクタ画面70においてフットコントローラ41のドライブペダルが操作された場合に、主制御部51は、当該操作を検知して、操作画面80を非接触入力部15に表示させる。また、キャラクタ画面70において第一の診療テーブル部10のインスツルメント12がピックアップされた場合に、主制御部51は、当該操作を検知して、インスツルメンツ画面90を非接触入力部15に表示させる。 When the drive pedal of the foot controller 41 is operated on the character screen 70, the main control unit 51 detects the operation and displays the operation screen 80 on the non-contact input unit 15. Further, when the instrument 12 of the first medical table section 10 is picked up on the character screen 70, the main control section 51 detects the operation and causes the instrument screen 90 to be displayed on the non-contact input section 15. .

(問診・診療時の表示)
問診・診療時において、主制御部51は、操作画面80を非接触入力部15に表示させる。例えば、キャラクタ画面70でフットコントローラ41のドライブペダルが操作された場合やインスツルメンツ画面90で第一の診療テーブル部10のインスツルメント12がインスツルメントハンガー16に戻された場合に、主制御部51は、操作画面80を非接触入力部15に表示させる。ここでの操作画面80は、第1操作画面80A、第2操作画面80B、第3操作画面80Cによって構成されている。これらの切り替えは、操作画面80に含まれる「MODE」ボタン81を選択することにより行われる。
(Display during interview/medical treatment)
During the interview/medical treatment, the main control unit 51 causes the operation screen 80 to be displayed on the non-contact input unit 15. For example, when the drive pedal of the foot controller 41 is operated on the character screen 70 or when the instrument 12 of the first treatment table section 10 is returned to the instrument hanger 16 on the instrument screen 90, the main control section 51 causes the operation screen 80 to be displayed on the non-contact input section 15. The operation screen 80 here includes a first operation screen 80A, a second operation screen 80B, and a third operation screen 80C. These switching operations are performed by selecting a "MODE" button 81 included in the operation screen 80.

第1操作画面80Aにおいて「×(閉じる)」ボタン83が選択された場合に、主制御部51は、当該操作を検知して、キャラクタ画面70を非接触入力部15に表示させる。また、第1操作画面80Aにおいて第一の診療テーブル部10のインスツルメント12がピックアップされた場合に、主制御部51は、当該操作を検知して、インスツルメンツ画面90を非接触入力部15に表示させる。 When the “x (close)” button 83 is selected on the first operation screen 80A, the main control unit 51 detects the operation and causes the character screen 70 to be displayed on the non-contact input unit 15. Further, when the instrument 12 of the first treatment table section 10 is picked up on the first operation screen 80A, the main control section 51 detects the operation and transfers the instrument screen 90 to the non-contact input section 15. Display.

第1操作画面80Aは、患者用椅子2を操作するための画面であり、「MODE」ボタン81の他に椅子操作ボタン82Aを有する。歯科医師が椅子操作ボタン82Aを操作することで、患者用椅子2が操作に基づく動作(例えば、背面部の角度調整や頭面部の位置調整)を行う。
第2操作画面80Bは、撮影部4を操作するための画面であり、「MODE」ボタン81の他に撮影操作ボタン82Bを有する。歯科医師が撮影操作ボタン82Bを操作することで、撮影部4が操作に基づく動作(例えば、ズームインやズームアウト)を行う。
第3操作画面80Cは、撮影部4で撮影した画像や映像を管理するための画面であり、「MODE」ボタン81の他にデータ操作ボタン82Cを有する。歯科医師が撮影操作ボタン82Bを操作することで、撮影部4で撮影した画像や映像の保存や読み出しを行うことができる。
The first operation screen 80A is a screen for operating the patient chair 2, and has a chair operation button 82A in addition to the "MODE" button 81. When the dentist operates the chair operation button 82A, the patient chair 2 performs operations based on the operation (for example, adjusting the angle of the back surface and adjusting the position of the head surface).
The second operation screen 80B is a screen for operating the photographing section 4, and has a photographing operation button 82B in addition to the "MODE" button 81. When the dentist operates the photographing operation button 82B, the photographing unit 4 performs an operation based on the operation (for example, zooming in or zooming out).
The third operation screen 80C is a screen for managing images and videos photographed by the photographing unit 4, and has a data operation button 82C in addition to the "MODE" button 81. By operating the photographing operation button 82B by the dentist, images and videos photographed by the photographing section 4 can be saved and read.

(診療時の表示)
診療時において、主制御部51は、インスツルメンツ画面90を非接触入力部15に表示させる。例えば、キャラクタ画面70や第1操作画面80Aで第一の診療テーブル部10のインスツルメント12がピックアップされた場合に、主制御部51は、インスツルメンツ画面90を非接触入力部15に表示させる。インスツルメンツ画面90は、インスツルメント12の制御内容を選択する画面であり、「MODE」ボタン91と、制御選択ボタン92とを有する。制御選択ボタン92は、事前に登録されたインスツルメント12の制御内容(例えば、回転速度など)に対応しており、何れかの制御選択ボタン92を選択することで、主制御部51は、インスツルメント12を選択された制御内容で動作させる。「MODE」ボタン81は、別の制御内容を登録した制御選択ボタン92への切替え時に操作される。
(Display during medical treatment)
During medical treatment, the main control section 51 causes the instrument screen 90 to be displayed on the non-contact input section 15. For example, when the instrument 12 of the first medical treatment table section 10 is picked up on the character screen 70 or the first operation screen 80A, the main control section 51 displays the instrument screen 90 on the non-contact input section 15. The instruments screen 90 is a screen for selecting control details for the instruments 12, and includes a "MODE" button 91 and a control selection button 92. The control selection buttons 92 correspond to control details (for example, rotation speed, etc.) of the instrument 12 registered in advance, and by selecting any of the control selection buttons 92, the main control unit 51 The instrument 12 is operated with the selected control content. The "MODE" button 81 is operated when switching to a control selection button 92 in which another control content is registered.

インスツルメンツ画面90において第一の診療テーブル部10のインスツルメント12がインスツルメントハンガー16に戻された場合に、主制御部51は、キャラクタ画面70または操作画面80を非接触入力部15に表示させる。例えば、主制御部51は、インスツルメント12がインスツルメントハンガー16に戻された場合に、キャラクタ画面70からインスツルメンツ画面90に遷移した場合ではキャラクタ画面70の表示を行い、操作画面80からインスツルメンツ画面90に遷移した場合では操作画面80の表示を行う。 When the instrument 12 of the first treatment table section 10 is returned to the instrument hanger 16 on the instrument screen 90, the main control section 51 displays the character screen 70 or the operation screen 80 on the non-contact input section 15. let For example, when the instrument 12 is returned to the instrument hanger 16 and the character screen 70 changes to the instrument screen 90, the main control section 51 displays the character screen 70 and displays the instrument screen from the operation screen 80. When the screen transitions to screen 90, the operation screen 80 is displayed.

情報伝達制御部52は、患者、患者の付添人および診療スタッフの少なくとも何れかに対する一方向または双方向の情報伝達を制御する。情報伝達制御部52は、例えば、第1情報伝達制御部52aと、第2情報伝達制御部52bと、を有する。情報伝達制御部52は、情報伝達部を介して情報の伝達を行う。 The information transmission control unit 52 controls one-way or two-way information transmission to at least one of the patient, the patient's attendant, and the medical staff. The information transfer control section 52 includes, for example, a first information transfer control section 52a and a second information transfer control section 52b. The information transmission control section 52 transmits information via the information transmission section.

第1情報伝達制御部52aは、バーチャルキャラクタを用いた一方向または双方向の情報伝達を行う。第1情報伝達制御部52aは、例えば、バーチャルキャラクタを非接触入力部15(情報伝達部)に表示させ、バーチャルキャラクタを介して患者や付添人に対する一方向または双方向の情報伝達を行う。第1情報伝達制御部52aは、例えばバーチャルキャラクタ(診療スタッフのアバターや人工知能(AI))が患者や付添人に対して声掛けや対話を行うようにする。例えば、第1情報伝達制御部52aは、非接触入力部15に表示されるバーチャルキャラクタの表情やジェスチャーや画面上の文字、音声出力部7から出力される音声などによって、バーチャルキャラクタが声掛けや対話を行っていると患者や付添人に対して認識させる。第1情報伝達制御部52aは、患者や付添人の音声を音声入力部6を介して入力することで、患者や付添人から発信される情報(例えば、声掛けや対話での応答など)を取得する。なお、第1情報伝達制御部52aは、患者や付添人に伝達する伝達情報(患者や付添人に伝えるメッセージや広告など)を、診療スタッフの指示によって更新するようにしてもよい。また、診療スタッフが伝達情報を作成できるようにしてもよい。 The first information transmission control unit 52a performs one-way or two-way information transmission using a virtual character. The first information transmission control section 52a, for example, displays a virtual character on the non-contact input section 15 (information transmission section), and performs one-way or two-way information transmission to the patient and attendant via the virtual character. The first information transmission control unit 52a causes, for example, a virtual character (an avatar of a medical staff member or an artificial intelligence (AI)) to address or have a dialogue with the patient or an attendant. For example, the first information transmission control unit 52a may cause the virtual character to call out to you or others based on the facial expressions and gestures of the virtual character displayed on the non-contact input unit 15, the characters on the screen, the voice output from the audio output unit 7, etc. Make the patient and attendant aware that a dialogue is taking place. The first information transmission control unit 52a inputs the patient's or attendant's voice via the voice input unit 6, thereby receiving information transmitted from the patient or attendant (for example, a response in a call or dialogue). get. Note that the first information transmission control unit 52a may update the transmission information (messages, advertisements, etc. to be transmitted to the patient and attendants) to be transmitted to the patient and attendants according to instructions from the medical staff. Furthermore, the medical staff may be able to create the communication information.

図7ないし図9を参照して、第1情報伝達制御部52aによるバーチャルキャラクタを用いた情報伝達制御を説明する。図7ないし図9は、バーチャルキャラクタを用いた患者への情報伝達に使用する画面の例示である。 Information transmission control using a virtual character by the first information transmission control section 52a will be described with reference to FIGS. 7 to 9. 7 to 9 are examples of screens used to convey information to patients using virtual characters.

図7に示すキャラクタ画面70A~70Cは、治療前の主訴を引き出すことを目的にしたものである。ここでは、図7に示すキャラクタ画面70A~70Cを連続して表示させることを想定しているが、キャラクタ画面70A~70Cの何れかを表示させてもよい。
図7(a)に示すキャラクタ画面70Aは、痛がっている表情のバーチャルキャラクタ71Aと、「痛み」というコメント72Aとを有する。
図7(b)に示すキャラクタ画面70Bは、憂鬱な表情のバーチャルキャラクタ71Bと、「お口の悩み」というコメント72Bとを有する。
図7(c)に示すキャラクタ画面70Cは、爽快な表情のバーチャルキャラクタ71Cと、「お声がけくださいね」というコメント72Cとを有する。
これらのキャラクタ画面70A~70Cを治療前に患者に示すことで、診療スタッフが患者に対して直接声掛けしなくとも、患者から主訴を引き出すことができる。
The character screens 70A to 70C shown in FIG. 7 are intended to bring out the chief complaint before treatment. Here, it is assumed that the character screens 70A to 70C shown in FIG. 7 are displayed continuously, but any one of the character screens 70A to 70C may be displayed.
The character screen 70A shown in FIG. 7A includes a virtual character 71A with a pained expression and a comment 72A saying "pain".
The character screen 70B shown in FIG. 7(b) includes a virtual character 71B with a melancholy expression and a comment 72B that reads "Oral troubles."
The character screen 70C shown in FIG. 7(c) includes a virtual character 71C with an exhilarating facial expression and a comment 72C that says, "Please say hello."
By showing these character screens 70A to 70C to the patient before treatment, it is possible to elicit the patient's chief complaint without the medical staff having to directly address the patient.

図8に示すキャラクタ画面70D,70Eは、安心して治療を受けてもらうことを目的にしたものである。ここでは、図8に示すキャラクタ画面70D,70Eを連続して表示させることを想定しているが、キャラクタ画面70D,70Eの何れかを表示させてもよい。
図8(a)に示すキャラクタ画面70Dは、くつろいだ表情のバーチャルキャラクタ71Dと、「リラックス」というコメント72Dとを有する。
図8(b)に示すキャラクタ画面70Eは、お願いをするジェスチャーのバーチャルキャラクタ71Eと、「お待ちください」というコメント72Eとを有する。
これらのキャラクタ画面70D,70Eを治療前に患者に示すことで、診療スタッフが患者に対して直接声掛けしなくとも、患者から不安感を取り除くことができる。
The character screens 70D and 70E shown in FIG. 8 are intended to help patients receive treatment with peace of mind. Although it is assumed here that the character screens 70D and 70E shown in FIG. 8 are displayed consecutively, either of the character screens 70D and 70E may be displayed.
The character screen 70D shown in FIG. 8(a) includes a virtual character 71D with a relaxed expression and a comment 72D saying "relax".
The character screen 70E shown in FIG. 8(b) includes a virtual character 71E making a request gesture and a comment 72E saying "Please wait."
By showing these character screens 70D and 70E to the patient before treatment, it is possible to relieve the patient's sense of anxiety without the need for the medical staff to directly address the patient.

図9に示すキャラクタ画面70F,70Gは、患者に対する有益な情報(歯ブラシの販売が可能であること)を提供することを目的にしたものである。ここでは、図9に示すキャラクタ画面70F,70Gを連続して表示させることを想定しているが、キャラクタ画面70F,70Gの何れかを表示させてもよい。
図9(a)に示すキャラクタ画面70Fは、語り掛けるジェスチャーのバーチャルキャラクタ71Fと、「ぴったりの歯ブラシ」というコメント72Fとを有する。
図9(b)に示すキャラクタ画面70Gは、歯ブラシを持つ動作のバーチャルキャラクタ71Gと、「ご案内できます」というコメント72Gとを有する。
これらのキャラクタ画面70F,70Gを治療前や治療後に患者に示すことで、診療スタッフが患者に対して直接声掛けしなくとも、患者に対して有益な情報を提供することができる。
The character screens 70F and 70G shown in FIG. 9 are intended to provide useful information to patients (that toothbrushes can be sold). Although it is assumed here that the character screens 70F and 70G shown in FIG. 9 are displayed consecutively, either of the character screens 70F and 70G may be displayed.
The character screen 70F shown in FIG. 9(a) includes a virtual character 71F with a speaking gesture and a comment 72F saying "Perfect toothbrush."
The character screen 70G shown in FIG. 9(b) includes a virtual character 71G holding a toothbrush and a comment 72G saying "I can guide you."
By showing these character screens 70F and 70G to the patient before and after treatment, the medical staff can provide useful information to the patient without having to directly address the patient.

なお、第1情報伝達制御部52aは、図7ないし図9で示したキャラクタ画面70以外で、例えば問診票やアンケートをバーチャルキャラクタと共に非接触入力部15(情報伝達部)に表示させ、これらに対する入力をバーチャルキャラクタに促すように制御してもよい。また、第1情報伝達制御部52aは、バーチャルキャラクタを介したテレビ電話による対話を患者との間で実現してもよい。 Note that the first information transmission control unit 52a displays, for example, medical questionnaires and questionnaires together with the virtual characters on the non-contact input unit 15 (information transmission unit) other than the character screen 70 shown in FIGS. The virtual character may be controlled to prompt input. Further, the first information transmission control unit 52a may realize a videophone conversation with the patient via a virtual character.

図5を参照して、第1情報伝達制御部52aの他の機能について説明する。第1情報伝達制御部52aは、例えば、バーチャルキャラクタを非接触入力部15(情報伝達部)に表示させ、バーチャルキャラクタを介して診察室内の診療スタッフに対する一方向または双方向の情報伝達を行う。情報伝達制御部52は、例えばバーチャルキャラクタ(診察室外の診療スタッフのアバターや人工知能(AI))が診察室内の診療スタッフに対して声掛けや対話を行うようにする。例えば、第1情報伝達制御部52aは、非接触入力部15に表示される文字や音声出力部7から出力される音声などによって、診察室内の診療スタッフに対して治療に関する情報(例えば、患者の生体情報、治療の進捗の確認、次の治療工程の確認など)を伝える。また、第1情報伝達制御部52aは、診察室内の診療スタッフの音声を音声入力部6を介して入力することで、診療スタッフから発信される情報(例えば、患者の生体情報の要求、治療の進捗の報告、次の治療工程の連絡など)を取得する。なお、第1情報伝達制御部52aは、バーチャルキャラクタを介したテレビ電話による対話を、診察室外の診療スタッフと診察室内の診療スタッフとの間で実現してもよい。 Other functions of the first information transmission control section 52a will be explained with reference to FIG. 5. The first information transmission control section 52a, for example, displays a virtual character on the non-contact input section 15 (information transmission section), and performs one-way or two-way information transmission to the medical staff in the examination room via the virtual character. The information transmission control unit 52 causes, for example, a virtual character (an avatar of a medical staff member outside the examination room or an artificial intelligence (AI)) to address or interact with the medical staff member inside the examination room. For example, the first information transmission control unit 52a transmits information regarding treatment (for example, patient Convey biological information, confirmation of treatment progress, confirmation of next treatment steps, etc.) In addition, the first information transmission control unit 52a inputs the voice of the medical staff in the examination room via the voice input unit 6, thereby controlling the information transmitted from the medical staff (for example, a request for biological information of a patient, a request for medical treatment, etc.). progress reports, notifications about next treatment steps, etc.). Note that the first information transmission control unit 52a may realize a videophone conversation via a virtual character between the medical staff outside the examination room and the medical staff inside the examination room.

なお、第1情報伝達制御部52aは、非接触入力部15(情報伝達部)に代えて/または非接触入力部15(情報伝達部)と共に表示部5にバーチャルキャラクタを表示し、表示部5のバーチャルキャラクタを介した一方向または双方向の情報伝達を行ってもよい。バーチャルキャラクタをどの構成要素に映し出すかは、例えばキャラクタ移動部54によって制御される。 Note that the first information transmission control section 52a displays a virtual character on the display section 5 instead of the non-contact input section 15 (information transmission section) and/or together with the non-contact input section 15 (information transmission section). One-way or two-way information transmission may be performed through virtual characters. Which component the virtual character is displayed on is controlled by, for example, the character moving unit 54.

図5に示す第2情報伝達制御部52bは、バーチャルキャラクタを用いない一方向または双方向の情報伝達を行う。なお、第2情報伝達制御部52bは、第1情報伝達制御部52aの一部の機能として構成されてもよい。第2情報伝達制御部52bは、例えばバーチャルキャラクタを介さない音声のみによって、診察室外の診療スタッフや人工知能(AI)が、患者、患者の付添人、診察室内の診療スタッフに対して声掛けや対話を行うようにする。第2情報伝達制御部52bは、患者、付添人、診察室内の診療スタッフから発信される情報(例えば、声掛けや対話での応答など)を取得する。 The second information transmission control unit 52b shown in FIG. 5 performs one-way or two-way information transmission without using a virtual character. Note that the second information transfer control section 52b may be configured as a part of the function of the first information transfer control section 52a. The second information transmission control unit 52b allows medical staff outside the examination room or artificial intelligence (AI) to speak to the patient, the patient's attendant, or the medical staff inside the examination room using only voice without using a virtual character, for example. Encourage dialogue. The second information transmission control unit 52b acquires information (for example, greetings, responses in dialogue, etc.) transmitted from the patient, the attendant, and the medical staff in the examination room.

情報伝達制御部52は、例えばデータベース43,46に格納された情報(例えば、診療スタッフによって過去に記録された記録情報)に基づいて、患者や付添人、に対する一方向または双方向の情報伝達を行ってもよい。
また、情報伝達制御部52は、テレビ電話などによってリアルタイムで収集・記録される情報に基づいて、患者や付添人、に対する一方向または双方向の情報伝達を行ってもよい。
また、情報伝達制御部52は、患者から得た関心情報に基づいて、患者に対する一方向または双方向の情報伝達を行ってもよい。関心情報は、患者が関心を示した情報であって、例えば患者が事前に回答したアンケート結果などに基づいて特定される。
The information transmission control unit 52 controls one-way or two-way information transmission to patients and attendants based on information stored in the databases 43 and 46 (for example, recorded information recorded in the past by medical staff). You may go.
Further, the information transmission control unit 52 may perform one-way or two-way information transmission to the patient and attendant based on information collected and recorded in real time by videophone or the like.
Further, the information transmission control unit 52 may perform one-way or two-way information transmission to the patient based on interest information obtained from the patient. Interest information is information in which the patient has shown interest, and is specified based on, for example, the results of a questionnaire answered by the patient in advance.

また、情報伝達制御部52によって患者、付添人、診察室内の診療スタッフに伝達される伝達情報は、患者の過去または現在の情報に基づいて発生した情報(患者から抽出した生データを含む)であってよい。患者の過去の情報には、カルテ情報が含まれる。患者の現在の情報には、体温、血圧、心拍、血中酸素飽和度などの生体情報が含まれる。患者の生体情報は、例えば患者が装着するウェアラブルデバイスから取得する。 Furthermore, the information transmitted to the patient, attendant, and medical staff in the examination room by the information transmission control unit 52 is information generated based on the patient's past or present information (including raw data extracted from the patient). It's good. The patient's past information includes medical record information. The patient's current information includes biological information such as body temperature, blood pressure, heart rate, and blood oxygen saturation. The patient's biometric information is obtained, for example, from a wearable device worn by the patient.

キャラクタ作成部53は、患者、付添人、や診療スタッフ(歯科医師、歯科衛生士、アシスタントなど)の好みに応じてバーチャルキャラクタを作成可能な機能である。例えば、診療スタッフは、キャラクタ作成部53を用いて患者に適したバーチャルキャラクタを事前に作成しておく。なお、キャラクタ作成部53は、患者から取得した情報に基づいて、患者に適したバーチャルキャラクタを自動で作成してもよい。また、診療スタッフは、キャラクタ作成部53を用いて医院の各診療スタッフそれぞれに紐づけしたバーチャルキャラクタを作成してもよい。例えば、診療スタッフに対応したアバターを作成してもよい。これにより、診療スタッフ同士がバーチャルキャラクタを介して一方向または双方向の情報伝達を行う場合に、情報の伝達を行う提供者を容易に認識することができるので、情報伝達をよりスムーズに行える。 The character creation unit 53 has a function that can create a virtual character according to the preferences of the patient, attendant, or medical staff (dentist, dental hygienist, assistant, etc.). For example, the medical staff uses the character creation section 53 to create a virtual character suitable for the patient in advance. Note that the character creation unit 53 may automatically create a virtual character suitable for the patient based on information acquired from the patient. Furthermore, the medical staff may use the character creation unit 53 to create virtual characters associated with each medical staff member of the hospital. For example, avatars corresponding to medical staff may be created. As a result, when medical staff communicate information one-way or two-way via the virtual character, the provider who is transmitting the information can be easily recognized, so that the information can be transmitted more smoothly.

キャラクタ移動部54は、非接触入力部15と表示部5との間をバーチャルキャラクタが移動したように表示させる制御を行う。非接触入力部15と表示部5とは、「第1の表示部」、「第2の表示部」の例示である。
例えば、キャラクタ移動部54は、患者への声掛けや対話の状況、診療スタッフからの指示、診療の状況、患者の状況などに基づいて、バーチャルキャラクタを表示する場所を決定し、決定した場所を主制御部51や情報伝達制御部52に通知する。例えば、キャラクタ移動部54は、患者からの所定の返答をトリガとして、バーチャルキャラクタを表示する場所を非接触入力部15から表示部5へ変更する。また、例えば、キャラクタ移動部54は、患者に対する一連の説明の終了をトリガとして、バーチャルキャラクタを表示する場所を非接触入力部15から表示部5へ変更する。また、例えば、説明する内容に対する患者の興味を感じ取って診療スタッフが移動の指示を行うことで、キャラクタ移動部54は、バーチャルキャラクタを表示する場所を非接触入力部15から表示部5へ変更する。また、例えば、治療の終了やカウンセリングの終了後に診療スタッフが移動の指示を行うことで、キャラクタ移動部54は、バーチャルキャラクタを表示する場所を非接触入力部15から表示部5へ変更する。
The character moving section 54 performs control to display the virtual character as if it were moving between the non-contact input section 15 and the display section 5. The non-contact input unit 15 and the display unit 5 are examples of a “first display unit” and a “second display unit”.
For example, the character moving unit 54 determines the location where the virtual character is to be displayed based on the situation of the patient's voice and dialogue, instructions from the medical staff, the medical treatment situation, the patient's situation, etc. The main control unit 51 and information transmission control unit 52 are notified. For example, the character moving unit 54 changes the location where the virtual character is displayed from the non-contact input unit 15 to the display unit 5 using a predetermined response from the patient as a trigger. Further, for example, the character moving unit 54 changes the location where the virtual character is displayed from the non-contact input unit 15 to the display unit 5, using the completion of a series of explanations to the patient as a trigger. Further, for example, by sensing the patient's interest in the content to be explained and instructing the clinical staff to move, the character moving unit 54 changes the location where the virtual character is displayed from the non-contact input unit 15 to the display unit 5. . Further, for example, when the medical staff instructs the virtual character to move after the end of treatment or counseling, the character moving unit 54 changes the location where the virtual character is displayed from the non-contact input unit 15 to the display unit 5.

バーチャルキャラクタを表示する場所を非接触入力部15から表示部5へ変更した場合のイメージを図10Aおよび図10Bに示す。図10Aおよび図10Bに示すように、非接触入力部15によって表示されるキャラクタ画面70でバーチャルキャラクタ71が画面外に飛び出すように表現した後で、表示部5によって表示されるキャラクタ画面70でバーチャルキャラクタ71が画面内に飛び込んできたように表現する。
例えば、非接触入力部15によって表示されるキャラクタ画面70と、表示部5との位置関係を把握して、バーチャルキャラクタ71が表示部5に飛び込んできたように表現したり、飛び出していく方向や大きさの変化を手動或いは自動で設定してもよい。手動の場合は、予め本システム設置時に両者の位置関係に基づいてキー入力等で設定する。自動の場合は、各位置関係を自動で把握できるようなGPS等の位置検出センサや、両者の位置関係を俯瞰して把握可能なカメラを用いて解析を行って自動設定する。
図1および図2に示すように、非接触入力部15の前方左上に表示部5が配置される位置関係では、図10Bに示すように、バーチャルキャラクタ71は、非接触入力部15のキャラクタ画面70の右下から左上に縦方向に移動した後で上方へ飛び出すように表現した後に、表示部5の画面中央下からバーチャルキャラクタ71がひょこっと顔をだしてから画面中央に移動することで表示部5に飛び込んできたように表現してもよい。このように、バーチャルキャラクタ71が現れる軌道がキャラクタ画面70から表示部5にシームレスに繋がるように表現されるのがよい。また、例えば、患者への情報伝達が終わった後、キャラクタ71が表示部5からキャラクタ画面70へ移動する(戻る)ようにしてもよい。
表示部5は、非接触入力部15に比べてサイズを大きくし易く、また画像も鮮明であるので、表示部5にバーチャルキャラクタ71を表示することで患者に対してより詳しく情報の伝達を行えるという利点がある。また、表示部5は、患者用椅子2に座っている患者の目線上に配置されているので、患者の視野により入り易く伝達した情報がより印象として残りやすいという利点がある。一方、非接触入力部15は、前述した通り、入力操作を行うことが可能であるので、双方向の情報伝達がやり易いという利点がある。このように、非接触入力部15と表示部5との特徴の違いや伝達する伝達情報の種類などを考慮して、患者との間で情報伝達がよりし易い場所にバーチャルキャラクタ71を表示するのがよい。
FIGS. 10A and 10B show images when the location where the virtual character is displayed is changed from the non-contact input section 15 to the display section 5. As shown in FIGS. 10A and 10B, after the virtual character 71 is expressed to jump out of the screen on the character screen 70 displayed by the non-contact input unit 15, the virtual character 71 is displayed on the character screen 70 displayed by the display unit 5. It is expressed as if the character 71 had jumped into the screen.
For example, by understanding the positional relationship between the character screen 70 displayed by the non-contact input unit 15 and the display unit 5, the virtual character 71 can be expressed as if it has jumped into the display unit 5, or the direction in which it is jumping out can be expressed. The change in size may be set manually or automatically. In the case of manual operation, the settings are made in advance by key input, etc., based on the positional relationship between the two when installing this system. In the case of automatic setting, analysis is performed using a position detection sensor such as GPS that can automatically grasp each positional relationship, or a camera that can grasp the positional relationship between the two from a bird's-eye view.
As shown in FIGS. 1 and 2, in the positional relationship in which the display unit 5 is arranged at the front upper left of the non-contact input unit 15, the virtual character 71 is displayed on the character screen of the non-contact input unit 15, as shown in FIG. 10B. The virtual character 71 moves vertically from the lower right to the upper left of the screen and then pops out upwards, and then the virtual character 71 pops out from the bottom center of the screen of the display section 5 and then moves to the center of the screen. You can also express it as if you jumped into 5. In this way, it is preferable that the trajectory in which the virtual character 71 appears is expressed so as to seamlessly connect from the character screen 70 to the display unit 5. Further, for example, the character 71 may be moved from the display section 5 to the character screen 70 (return) after the information transmission to the patient is completed.
The display unit 5 is easier to increase in size than the non-contact input unit 15, and the image is clearer, so by displaying the virtual character 71 on the display unit 5, more detailed information can be transmitted to the patient. There is an advantage. In addition, since the display section 5 is arranged at the line of sight of the patient sitting on the patient chair 2, there is an advantage that the transmitted information is more likely to leave an impression on the patient because the display section 5 can more easily enter the patient's field of view. On the other hand, as described above, the non-contact input unit 15 allows input operations to be performed, so it has the advantage of facilitating two-way information transmission. In this way, the virtual character 71 is displayed at a location where it is easier to communicate information with the patient, taking into consideration the differences in characteristics between the non-contact input unit 15 and the display unit 5 and the type of information to be communicated. It is better.

以上のように構成された本発明の実施形態に係る歯科診療システム1は、以下のような作用効果を奏する。
つまり、歯科診療システム1は、歯科診療で使用するものであって、診察室内に設置される情報伝達部(例えば、非接触入力部15、表示部5、音声入力部6,音声出力部7)と、コンピュータ50と、を備える。そして、コンピュータ50は、患者、当該患者の付添人および診療スタッフの少なくとも何れかに対する一方向または双方向の情報伝達を、前記情報伝達部を用いて行う情報伝達制御部52を有する。その為、対面せずとも意思の疎通を行うことが可能であり、その結果、感染リスクを低減した上で患者に安心して治療を受けてもらうことが可能である。
The dental treatment system 1 according to the embodiment of the present invention configured as described above has the following effects.
In other words, the dental treatment system 1 is used in dental treatment, and includes an information transmission unit (for example, a non-contact input unit 15, a display unit 5, an audio input unit 6, and an audio output unit 7) installed in the examination room. and a computer 50. The computer 50 includes an information transmission control section 52 that uses the information transmission section to perform one-way or two-way information transmission to at least one of the patient, the patient's attendant, and the medical staff. Therefore, it is possible to communicate without face-to-face contact, and as a result, it is possible to reduce the risk of infection and allow patients to receive treatment with peace of mind.

また、情報伝達制御部52は、バーチャルキャラクタを介して一方向または双方向の情報伝達を行う。その為、患者の年齢に関わらず安心して治療を受けてもらうことが可能である。 Further, the information transmission control unit 52 performs one-way or two-way information transmission via the virtual character. Therefore, it is possible for patients to receive treatment with peace of mind regardless of their age.

また、情報伝達部は、空中に画像を結像する光結像部152を有する。その為、診療の妨げになり難く、診療を円滑に進めることができる。 The information transmission section also includes a light imaging section 152 that forms an image in the air. Therefore, it is unlikely to interfere with medical treatment and can proceed smoothly.

また、結像された画像における指示位置を検知する検知部を備える。その為、非接触での入力操作が可能であり、衛生的である。 It also includes a detection unit that detects the designated position in the formed image. Therefore, non-contact input operation is possible and sanitary.

また、情報伝達部は、歯科診療で使用する歯科診療ユニット(例えば、第一の診療テーブル部10、第二の診療テーブル部20、スピットンユニット30)に固定、または着脱可能に設けられている。その為、患者や診療スタッフの視野に入り易く、情報を漏れなく伝達することが可能である。 Further, the information transmission section is fixedly or detachably provided to a dental treatment unit used in dental treatment (eg, first treatment table section 10, second treatment table section 20, spittoon unit 30). Therefore, it is easy to see patients and medical staff, and information can be transmitted without omission.

また、コンピュータ50は、患者、付添人および診療スタッフの少なくとも何れかが使用する端末45とデータ共有可能である。その為、患者、付添人、診療スタッフに適した情報を伝達することができる。 Further, the computer 50 can share data with a terminal 45 used by at least one of the patient, an attendant, and medical staff. Therefore, information suitable for patients, attendants, and medical staff can be transmitted.

また、コンピュータ50は、歯科診療システム1の内部または外部に設けたデータベース43,46に記録された情報であって診療スタッフによって記録された記録情報に基づいて情報伝達を行う。
また、コンピュータ50は、患者から得た関心情報に基づいて情報伝達を行う。
その為、患者に適した情報を伝達することができる。
Further, the computer 50 transmits information based on recorded information recorded in databases 43 and 46 provided inside or outside the dental treatment system 1 and recorded by the medical staff.
Further, the computer 50 transmits information based on interest information obtained from the patient.
Therefore, information suitable for the patient can be transmitted.

また、伝達する伝達情報は、患者または付添人と診療スタッフとの対面機会の低減に資する情報、および患者または付添人の待ち時間の有効利用を図るための情報の何れかである。
また、伝達情報は、患者の過去または現在の情報に基づいて発生した情報である。患者の過去の情報は、カルテ情報を含み、また、患者の現在の情報は、生体情報を含む。
その為、患者や付添人との接触時間(例えば、問診、歯科情報提供、口腔衛生指導などの時間)を減らすことが可能であり、感染リスクを低減できる。
Further, the information to be transmitted is either information that contributes to reducing opportunities for face-to-face encounters between the patient or the attendant and the medical staff, or information that aims to make effective use of waiting time for the patient or the attendant.
Further, the transmitted information is information generated based on past or present information of the patient. The patient's past information includes medical record information, and the patient's current information includes biometric information.
Therefore, it is possible to reduce contact time with patients and attendants (for example, time for medical interviews, provision of dental information, oral hygiene guidance, etc.), and the risk of infection can be reduced.

また、情報伝達部は、患者、付添人および診療スタッフの少なくとも何れかの音声を取得可能な音声入力部6、および音声を出力する音声出力部7を有する。そして、コンピュータ50は、音声を通じて一方向または双方向の情報伝達を行う。その為、対面せずとも意思の疎通を行うことが可能である。 Further, the information transmission section includes a voice input section 6 capable of acquiring voices of at least one of a patient, an attendant, and a medical staff, and a voice output section 7 that outputs voice. Then, the computer 50 performs one-way or two-way information transmission through voice. Therefore, it is possible to communicate without having to meet face-to-face.

また、診察室外にいる診療スタッフと直接会話が可能なライブ操作スイッチ42を備える。そして、コンピュータ50は、ライブ操作スイッチ42の操作を受け付けた場合に対話を開始させる。その為、必要に応じて診察室外にいる診療スタッフと直接会話が可能である。 It also includes a live operation switch 42 that allows direct conversation with medical staff outside the examination room. Then, when the computer 50 receives the operation of the live operation switch 42, it starts a dialogue. Therefore, it is possible to communicate directly with medical staff outside the examination room if necessary.

また、コンピュータ50は、バーチャルキャラクタを患者、付添人または診療スタッフの好みに応じて作成可能なキャラクタ作成部53を有する。その為、患者に安心感を与えることができ、患者により安心して治療を受けてもらうこと可能である。 The computer 50 also includes a character creation section 53 that can create a virtual character according to the preferences of the patient, attendant, or medical staff. Therefore, it is possible to give a sense of security to the patient, and it is possible for the patient to receive treatment with peace of mind.

また、情報伝達部は二つ以上の表示部(例えば、非接触入力部15、表示部5)によって構成されている。そして、コンピュータ50は、第1の表示部と第2の表示部との間を前記バーチャルキャラクタが移動したように表示させるキャラクタ移動部54を有する。このキャラクタ移動部54は、第1の表示部と第2の表示部との位置関係に基づいて、バーチャルキャラクタが画面に入って来る方向および画面から出て行く方向を決定する。その為、バーチャルキャラクタを見失うことなく、また、表示部の特性に応じた情報伝達が可能であり、より適切に情報を伝達することができる。 Further, the information transmission section is configured by two or more display sections (for example, the non-contact input section 15 and the display section 5). The computer 50 includes a character moving section 54 that displays the virtual character as if it were moved between the first display section and the second display section. The character moving section 54 determines the direction in which the virtual character enters the screen and the direction in which the virtual character exits the screen, based on the positional relationship between the first display section and the second display section. Therefore, information can be transmitted in accordance with the characteristics of the display unit without losing sight of the virtual character, and information can be transmitted more appropriately.

また、コンピュータ50は、患者および付添人の何れか一方に伝達する伝達情報を、診療スタッフの指示した内容または前記診療スタッフ自身が作成した内容に更新する。その為、患者や付添人に適した情報を伝達することができる。 Further, the computer 50 updates the information to be transmitted to either the patient or the attendant to content instructed by the medical staff or content created by the medical staff themselves. Therefore, information suitable for the patient and attendant can be transmitted.

以上、本発明の実施形態について説明したが、本発明は、前記した実施形態に限定されず、適宜変更して実施することが可能である。 Although the embodiments of the present invention have been described above, the present invention is not limited to the embodiments described above, and can be implemented with appropriate changes.

1 歯科診療システム
2 患者用椅子
3 照明部
4 撮影部
5 表示部(情報伝達部)
6 音声入力部(情報伝達部)
7 音声出力部(情報伝達部)
10 第一の診療テーブル部(歯科診療ユニット)
11 診療用テーブル
12 インスツルメント
13 表示部
14 操作部
15 非接触入力部(情報伝達部)
16 インスツルメントハンガー
20 第二の診療テーブル部(歯科診療ユニット)
30 スピットンユニット(歯科診療ユニット)
41 フットコントローラ
42 ライブ操作スイッチ
43 データベース
44 その他構成要素
50 コンピュータ
51 主制御部
52 情報伝達制御部
52a 第1情報伝達制御部
52b 第2情報伝達制御部
53 キャラクタ作成部
54 キャラクタ移動部
151 ディスプレイ
152 光結像部
1 Dental treatment system 2 Patient chair 3 Lighting section 4 Photographing section 5 Display section (information transmission section)
6 Voice input section (information transmission section)
7 Audio output section (information transmission section)
10 First treatment table section (dental treatment unit)
11 Medical table 12 Instrument 13 Display section 14 Operation section 15 Non-contact input section (information transmission section)
16 Instrument hanger 20 Second treatment table section (dental treatment unit)
30 Spitton unit (dental treatment unit)
41 Foot controller 42 Live operation switch 43 Database 44 Other components 50 Computer 51 Main control section 52 Information transmission control section 52a First information transmission control section 52b Second information transmission control section 53 Character creation section 54 Character movement section 151 Display 152 Light Imaging section

Claims (12)

歯科診療で使用する歯科診療システムであって、
診察室内に設置される情報伝達部と、
コンピュータと、を備え、
前記情報伝達部は、空中に画像を結像する光結像部と、結像された前記画像における指示位置を検知する検知部とを備える非接触入力部を有し、当該非接触入力部は、歯科診療で使用する歯科診療ユニットに固定、または着脱可能に設けられ、
前記コンピュータは、患者、当該患者の付添人および診療スタッフの少なくとも何れかに対する一方向または双方向の情報伝達を、前記情報伝達部を用いて行う情報伝達制御部を有し、
前記情報伝達制御部は、バーチャルキャラクタを介して一方向または双方向の情報伝達を行い、
伝達する伝達情報は、前記患者または前記付添人と前記診療スタッフとの対面機会の低減に資する情報であり、
前記非接触入力部は、前記バーチャルキャラクタを用いたキャラクタ画面、操作画面およびインスツルメンツ画面の表示、ならびに、前記画面を介した操作、および前記画面間の遷移が可能であり、
患者を診察室内に導入した場合、または、前記非接触入力部に表示された閉じるボタンを選択した場合に、前記非接触入力部に前記キャラクタ画面を表示させて、一方向または双方向の情報伝達を行う情報伝達部として使用し、
前記キャラクタ画面が表示されている状態でフットコントローラの操作を検知した場合に操作画面を表示させ、また、前記キャラクタ画面が表示されている状態でインスツルメントのピックアップを検知した場合に前記インスツルメンツ画面を表示させて、前記非接触入力部をデバイスを操作する為の操作部として使用し、
前記デバイスは、インスツルメント、患者用椅子、撮影装置の何れかである、
ことを特徴とする歯科診療システム。
A dental treatment system used in dental treatment,
An information transmission department installed in the examination room,
comprising a computer;
The information transmission unit has a non-contact input unit including an optical imaging unit that forms an image in the air and a detection unit that detects a designated position in the formed image, and the non-contact input unit includes: , fixed or detachable to the dental treatment unit used in dental treatment,
The computer includes an information transmission control unit that uses the information transmission unit to transmit information one-way or two-way to at least one of the patient, the patient's attendant, and the medical staff;
The information transmission control unit performs one-way or two-way information transmission via the virtual character,
The transmitted information to be transmitted is information that contributes to reducing opportunities for face-to-face encounters between the patient or the attendant and the medical staff,
The non-contact input unit is capable of displaying a character screen, an operation screen, and an instrument screen using the virtual character, as well as operating via the screen and transitioning between the screens,
When a patient is introduced into the examination room or when a close button displayed on the non-contact input section is selected, the character screen is displayed on the non-contact input section to transmit information in one or two directions. It is used as an information transmission unit to carry out
The operation screen is displayed when an operation of the foot controller is detected while the character screen is displayed, and the instrument screen is displayed when an instrument pickup is detected while the character screen is displayed. display, and use the non-contact input section as an operation section for operating the device,
The device is any of an instrument, a patient chair, and an imaging device.
A dental treatment system characterized by:
請求項1に記載の歯科診療システムであって、
前記コンピュータは、前記患者、前記付添人および前記診療スタッフの少なくとも何れかが使用する端末とデータ共有可能である、
ことを特徴とする歯科診療システム。
The dental treatment system according to claim 1,
The computer is capable of sharing data with a terminal used by at least one of the patient, the attendant, and the medical staff.
A dental treatment system characterized by:
請求項1に記載の歯科診療システムであって、
前記コンピュータは、歯科診療システムの内部または外部に設けたデータベースに記録された情報であって前記診療スタッフによって記録された記録情報に基づいて情報伝達を行う、
ことを特徴とする歯科診療システム。
The dental treatment system according to claim 1,
The computer transmits information based on recorded information recorded by the medical staff, which is information recorded in a database provided inside or outside the dental treatment system.
A dental treatment system characterized by:
請求項1に記載の歯科診療システムであって、
前記コンピュータは、前記患者から得た関心情報に基づいて情報伝達を行う、ことを特徴とする歯科診療システム。
The dental treatment system according to claim 1,
A dental treatment system characterized in that the computer transmits information based on interest information obtained from the patient.
請求項1ないし請求項4の何れか一項に記載の歯科診療システムであって、
伝達する伝達情報は、前記患者または前記付添人の待ち時間の有効利用を図るための情報の何れかである、
ことを特徴とする歯科診療システム。
The dental treatment system according to any one of claims 1 to 4,
The transmitted information to be transmitted is any information for making effective use of the waiting time of the patient or the attendant;
A dental treatment system characterized by:
請求項5に記載の歯科診療システムであって、
前記伝達情報は、前記患者の過去または現在の情報に基づいて発生した情報である、ことを特徴とする歯科診療システム。
The dental treatment system according to claim 5,
A dental treatment system characterized in that the transmitted information is information generated based on past or present information of the patient.
請求項6に記載の歯科診療システムであって、
前記患者の過去の情報は、カルテ情報を含み、また、前記患者の現在の情報は、生体情報を含む、
ことを特徴とする歯科診療システム。
The dental treatment system according to claim 6,
The patient's past information includes medical record information, and the patient's current information includes biological information.
A dental treatment system characterized by:
請求項1ないし請求項7の何れか一項に記載の歯科診療システムであって、
前記情報伝達部は、前記患者、前記付添人および前記診療スタッフの少なくとも何れかの音声を取得可能な音声入力部、および音声を出力する音声出力部を有し、
前記コンピュータは、音声を通じて一方向または双方向の情報伝達を行う、
ことを特徴とする歯科診療システム。
The dental treatment system according to any one of claims 1 to 7,
The information transmission unit includes a voice input unit capable of acquiring the voice of at least one of the patient, the attendant, and the medical staff, and a voice output unit that outputs the voice,
The computer performs one-way or two-way information transmission through voice.
A dental treatment system characterized by:
請求項8に記載の歯科診療システムであって、
前記診察室外にいる診療スタッフと直接会話が可能なライブ操作スイッチを備え、
前記コンピュータは、前記ライブ操作スイッチの操作を受け付けた場合に対話を開始させる、
ことを特徴とする歯科診療システム。
The dental treatment system according to claim 8,
Equipped with a live operation switch that allows direct conversation with medical staff outside the examination room,
the computer starts a dialogue when accepting an operation of the live operation switch;
A dental treatment system characterized by:
請求項1に記載の歯科診療システムであって、
前記コンピュータは、前記バーチャルキャラクタを前記患者、前記付添人または診療スタッフの好みに応じて作成可能なキャラクタ作成部を有する、
ことを特徴とする歯科診療システム。
The dental treatment system according to claim 1,
The computer has a character creation unit that can create the virtual character according to the preferences of the patient, the attendant, or the medical staff.
A dental treatment system characterized by:
請求項1に記載の歯科診療システムであって、
前記情報伝達部は二つ以上の表示部を有し、
前記コンピュータは、第1の表示部と第2の表示部との間を前記バーチャルキャラクタが移動したように表示させるキャラクタ移動部を有し、
前記キャラクタ移動部は、前記第1の表示部と前記第2の表示部との位置関係に基づいて、前記バーチャルキャラクタが画面に入って来る方向および画面から出て行く方向を決定する、
ことを特徴とする歯科診療システム。
The dental treatment system according to claim 1,
The information transmission section has two or more display sections,
The computer includes a character moving unit that displays the virtual character as if it were moved between a first display unit and a second display unit,
The character moving unit determines a direction in which the virtual character enters the screen and a direction in which the virtual character exits the screen based on the positional relationship between the first display unit and the second display unit.
A dental treatment system characterized by:
請求項1ないし請求項4の何れか一項に記載の歯科診療システムであって、
前記コンピュータは、前記患者および前記付添人の何れか一方に伝達する伝達情報を、前記診療スタッフの指示した内容または前記診療スタッフ自身が作成した内容に更新する、
ことを特徴とする歯科診療システム。
The dental treatment system according to any one of claims 1 to 4,
The computer updates the information to be transmitted to either the patient or the attendant to content instructed by the medical staff or content created by the medical staff themselves.
A dental treatment system characterized by:
JP2022030326A 2022-02-28 2022-02-28 dental treatment system Active JP7398138B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022030326A JP7398138B2 (en) 2022-02-28 2022-02-28 dental treatment system
PCT/JP2023/007113 WO2023163180A1 (en) 2022-02-28 2023-02-27 Dental clinic system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022030326A JP7398138B2 (en) 2022-02-28 2022-02-28 dental treatment system

Publications (2)

Publication Number Publication Date
JP2023125945A JP2023125945A (en) 2023-09-07
JP7398138B2 true JP7398138B2 (en) 2023-12-14

Family

ID=87766197

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022030326A Active JP7398138B2 (en) 2022-02-28 2022-02-28 dental treatment system

Country Status (2)

Country Link
JP (1) JP7398138B2 (en)
WO (1) WO2023163180A1 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004024639A (en) 2002-06-27 2004-01-29 Yoshida Dental Mfg Co Ltd Dental examination system
JP2007097839A (en) 2005-10-04 2007-04-19 Nintendo Co Ltd Game program
JP2010152821A (en) 2008-12-26 2010-07-08 Read Co Ltd Operation support system
JP2016095634A (en) 2014-11-13 2016-05-26 パナソニックヘルスケアホールディングス株式会社 Midair touch panel and surgery simulator display system having the same
JP2017189591A (en) 2016-04-07 2017-10-19 医療法人光惠会 Medical VR preparation tool
JP2018136834A (en) 2017-02-23 2018-08-30 キヤノンメディカルシステムズ株式会社 Hospital information system and program thereof
US20200319860A1 (en) 2019-04-03 2020-10-08 HIA Technologies Inc. Computer System and Method for Content Authoring of a Digital Conversational Character

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0951904A (en) * 1995-08-11 1997-02-25 Morita Tokyo Seisakusho:Kk Dental treatment device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004024639A (en) 2002-06-27 2004-01-29 Yoshida Dental Mfg Co Ltd Dental examination system
JP2007097839A (en) 2005-10-04 2007-04-19 Nintendo Co Ltd Game program
JP2010152821A (en) 2008-12-26 2010-07-08 Read Co Ltd Operation support system
JP2016095634A (en) 2014-11-13 2016-05-26 パナソニックヘルスケアホールディングス株式会社 Midair touch panel and surgery simulator display system having the same
JP2017189591A (en) 2016-04-07 2017-10-19 医療法人光惠会 Medical VR preparation tool
JP2018136834A (en) 2017-02-23 2018-08-30 キヤノンメディカルシステムズ株式会社 Hospital information system and program thereof
US20200319860A1 (en) 2019-04-03 2020-10-08 HIA Technologies Inc. Computer System and Method for Content Authoring of a Digital Conversational Character

Also Published As

Publication number Publication date
WO2023163180A1 (en) 2023-08-31
JP2023125945A (en) 2023-09-07

Similar Documents

Publication Publication Date Title
Rekow Digital dentistry: The new state of the art—Is it disruptive or destructive?
US9064427B2 (en) Medical training apparatus
US20160242623A1 (en) Apparatus and method for visualizing data and images and for controlling a medical device through a wearable electronic device
JP3660521B2 (en) Medical training device and medical training evaluation method
JP2013252428A (en) Multifunction wand for intra-oral imaging system
JP2017516619A (en) New dental scanner device and system and method of use
JP6288548B2 (en) Medical training device
JP2004046102A (en) Medical examination training simulation system adaptive to network
JP6829763B2 (en) Medical medical equipment
JP5647045B2 (en) Medical treatment equipment
JP2021133135A (en) Estimation device, estimation system, estimation method, and program for estimation
JP7398138B2 (en) dental treatment system
JP5797484B2 (en) Medical training system
Yumashev et al. The use of digital technologies for teaching dentistry
WO2021229139A1 (en) A device for instructing oral hygiene
JP6845923B2 (en) Medical medical equipment
Rugg et al. Design and fabrication of a disposable dental handpiece for clinical use of a new laser-based therapy-monitoring system
Al Hamad et al. Virtual patient representation with silicone guide and a 3D scanner accessory for a user-friendly facial scanning workflow: A clinical report of smile design and ceramic veneers
EP4353214A1 (en) Dental treatment unit with improved audiovisual facilty for instrument operation &amp; dental workflow assistance, and patient communication
JP2021133133A (en) Estimation device, estimation system, estimation method, and program for estimation
JP7429457B2 (en) medical treatment system
JP7343470B2 (en) Control device, control method, and control program
JP2022170352A (en) Estimation device, estimation method and program for estimation
JP2013020201A (en) Medical training system
NL1042315B1 (en) An oral instrument for treating dental plaque on the teeth of a human and/or animal subject, a human user or automated operated plaque representative signal processing device for use with such an oral instrument as well as an assembly composed of such an oral instrument and a plaque representative signal processing device.

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230323

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230704

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231003

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20231011

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231127

R150 Certificate of patent or registration of utility model

Ref document number: 7398138

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150