JP7260699B1 - DATA PROCESSING DEVICE, DATA PROCESSING METHOD, AND DATA PROCESSING PROGRAM - Google Patents

DATA PROCESSING DEVICE, DATA PROCESSING METHOD, AND DATA PROCESSING PROGRAM Download PDF

Info

Publication number
JP7260699B1
JP7260699B1 JP2022101215A JP2022101215A JP7260699B1 JP 7260699 B1 JP7260699 B1 JP 7260699B1 JP 2022101215 A JP2022101215 A JP 2022101215A JP 2022101215 A JP2022101215 A JP 2022101215A JP 7260699 B1 JP7260699 B1 JP 7260699B1
Authority
JP
Japan
Prior art keywords
dimensional data
data
dimensional
position information
predetermined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022101215A
Other languages
Japanese (ja)
Other versions
JP2023143585A (en
Inventor
亮佑 鍛治
巳貴則 西村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
J Morita Manufaturing Corp
Original Assignee
J Morita Manufaturing Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2022050078A external-priority patent/JP7140932B1/en
Application filed by J Morita Manufaturing Corp filed Critical J Morita Manufaturing Corp
Priority to JP2022101215A priority Critical patent/JP7260699B1/en
Application granted granted Critical
Publication of JP7260699B1 publication Critical patent/JP7260699B1/en
Publication of JP2023143585A publication Critical patent/JP2023143585A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Dental Tools And Instruments Or Auxiliary Dental Instruments (AREA)
  • Endoscopes (AREA)
  • Image Analysis (AREA)

Abstract

【課題】口腔内の所定の物体の三次元データを容易に、かつ、適切に抽出するデータ処理装置、方法及びプログラムを提供する。【解決手段】データ処理システムにおいて、データ処理装置1は、少なくとも1つの物体の表面を示す点群の各々の位置情報を含む三次元データが入力される入力部と、入力部から入力される三次元データを処理し、三次元データから二次元データを生成する二次元データ生成部、二次元データに基づき、少なくとも1つの物体のうち、所定の物体を識別する識別部と、識別した所定の物体の表面を示す点群の各々の位置情報をを抽出することによって、不要三次元データを抽出する除去部及び1スキャン分の三次元データが入力される毎に、除去部から1スキャン分の三次元データを取得し、蓄積した複数スキャン分の三次元データを結合させることによって、結合された複数スキャン分の三次元データを生成する結合部を含む演算部と、を備える。【選択図】図9A data processing device, method, and program for easily and appropriately extracting three-dimensional data of a predetermined object in the oral cavity are provided. In a data processing system, a data processing device 1 includes an input unit to which three-dimensional data including position information of each point group representing the surface of at least one object is input, and a cubic data input from the input unit. A two-dimensional data generation unit that processes original data and generates two-dimensional data from three-dimensional data, an identification unit that identifies a predetermined object among at least one object based on the two-dimensional data, and the identified predetermined object By extracting the position information of each point group indicating the surface of the removal unit that extracts the unnecessary three-dimensional data, and every time three-dimensional data for one scan is input, the removal unit extracts three-dimensional data for one scan a computing unit including a combining unit that acquires original data and combines the accumulated three-dimensional data for multiple scans to generate combined three-dimensional data for multiple scans. [Selection drawing] Fig. 9

Description

本開示は、口腔内の少なくとも1つの物体の位置情報を含むデータを処理するデータ処理装置、データ処理方法、およびデータ処理プログラムに関する。 The present disclosure relates to a data processing device, a data processing method, and a data processing program for processing data including position information of at least one object in the oral cavity.

従来、歯科分野においては、三次元スキャナによって口腔内をスキャン(走査)することによって、歯牙などの物体の三次元データを取得する技術が公知である。たとえば、特許文献1には、三次元スキャナを用いて歯牙を撮像することで、歯牙の形状を記録する方法が開示されている。 2. Description of the Related Art Conventionally, in the field of dentistry, a technique of acquiring three-dimensional data of an object such as a tooth by scanning the inside of the oral cavity with a three-dimensional scanner is known. For example, Patent Literature 1 discloses a method of recording the shape of a tooth by imaging the tooth using a three-dimensional scanner.

特開2000-74635号公報JP-A-2000-74635

特許文献1に開示された方法によれば、ユーザは、三次元スキャナによって取得された三次元データに基づき生成された三次元画像を用いて、口腔内の歯牙を計測することができ、計測された歯牙が示された三次元画像を確認しながら、自身の知見によって歯牙の種類を識別することができる。しかしながら、ユーザ自らが歯牙などの口腔内の所定の物体を識別することなく、口腔内の所定の物体の三次元データを適切に抽出することができる技術が求められている。 According to the method disclosed in Patent Document 1, a user can measure teeth in the oral cavity using a three-dimensional image generated based on three-dimensional data acquired by a three-dimensional scanner. While confirming the three-dimensional image showing the tooth, the type of tooth can be identified based on one's own knowledge. However, there is a demand for a technique that can appropriately extract three-dimensional data of a predetermined intraoral object such as a tooth without the user identifying the predetermined intraoral object.

本開示は、このような問題を解決するためになされたものであり、口腔内の所定の物体の三次元データを容易にかつ適切に抽出することができる技術を提供することを目的とする。 The present disclosure has been made to solve such problems, and aims to provide a technique capable of easily and appropriately extracting three-dimensional data of a predetermined object in the oral cavity.

本開示の一例に従えば、口腔内の少なくとも1つの物体の位置情報を含むデータを処理するデータ処理装置が提供される。データ処理装置は、少なくとも1つの物体の表面を示す点群の各々の位置情報を含む三次元データが入力される入力部と、入力部から入力される三次元データを処理する演算部とを備える。演算部は、三次元データから二次元データを生成し、二次元データに基づき、少なくとも1つの物体のうち、口腔内に挿入される挿入物体、舌、唇、および粘膜のうちの少なくとも1つを含む所定の物体を識別し、識別した所定の物体の表面を示す点群の各々の位置情報を含む所定の三次元データを抽出し、入力部から入力される三次元データから、所定の三次元データを除去する。 According to one example of the present disclosure, a data processing apparatus is provided for processing data including position information of at least one object within an oral cavity. The data processing device includes an input unit to which three-dimensional data including position information of each point group indicating the surface of at least one object is input, and a calculation unit that processes the three-dimensional data input from the input unit. . The computing unit generates two-dimensional data from the three-dimensional data, and based on the two-dimensional data, at least one of at least one object, an insertion object to be inserted into the oral cavity, a tongue, lips, and a mucous membrane. extracting predetermined three-dimensional data including position information of each point group indicating the surface of the identified predetermined object; extracting predetermined three-dimensional data from the three-dimensional data input from the input unit; Remove data.

本開示の一例に従えば、コンピュータによる口腔内の少なくとも1つの物体の位置情報を含むデータを処理するデータ処理方法が提供される。データ処理方法は、少なくとも1つの物体の表面を示す点群の各々の位置情報を含む三次元データが入力されるステップと、入力される三次元データを処理するステップとを含む。処理するステップは、三次元データから二次元データを生成するステップと、二次元データに基づき、少なくとも1つの物体のうち、口腔内に挿入される挿入物体、舌、唇、および粘膜のうちの少なくとも1つを含む所定の物体を識別するステップと、識別した所定の物体の表面を示す点群の各々の位置情報を含む所定の三次元データを抽出するステップと、入力される三次元データから、所定の三次元データを除去するステップとを含む。 According to one example of the present disclosure, a computer data processing method is provided for processing data including position information of at least one object in an oral cavity. The data processing method includes the steps of inputting three-dimensional data including position information of each point cloud representing the surface of at least one object, and processing the input three-dimensional data. The step of processing includes the step of generating two-dimensional data from three-dimensional data, and based on at least one object, at least one of an insertion object to be inserted into the oral cavity, tongue, lips, and mucous membrane based on the two-dimensional data. identifying a predetermined object including one; extracting predetermined three-dimensional data including position information of each of a point cloud indicating the surface of the identified predetermined object; from the input three-dimensional data; and removing predetermined three-dimensional data.

本開示の一例に従えば、口腔内の少なくとも1つの物体の位置情報を含むデータを処理するデータ処理プログラムが提供される。データ処理プログラムは、コンピュータに、少なくとも1つの物体の表面を示す点群の各々の位置情報を含む三次元データが入力されるステップと、入力される三次元データを処理するステップとを実行させる。処理するステップは、三次元データから二次元データを生成するステップと、二次元データに基づき、少なくとも1つの物体のうち、口腔内に挿入される挿入物体、舌、唇、および粘膜のうちの少なくとも1つを含む所定の物体を識別するステップと、識別した所定の物体の表面を示す点群の各々の位置情報を含む所定の三次元データを抽出するステップと、入力される三次元データから、所定の三次元データを除去するステップとを含む。 According to one example of the present disclosure, a data processing program is provided for processing data including position information of at least one object within an oral cavity. The data processing program causes the computer to perform steps of inputting three-dimensional data including position information of each point cloud representing the surface of at least one object, and processing the input three-dimensional data. The step of processing includes the step of generating two-dimensional data from three-dimensional data, and based on at least one object, at least one of an insertion object to be inserted into the oral cavity, tongue, lips, and mucous membrane based on the two-dimensional data. identifying a predetermined object including one; extracting predetermined three-dimensional data including position information of each of a point cloud indicating the surface of the identified predetermined object; from the input three-dimensional data; and removing predetermined three-dimensional data.

本開示によれば、ユーザは、口腔内の所定の物体の三次元データを容易にかつ適切に抽出することができる。 According to the present disclosure, a user can easily and appropriately extract three-dimensional data of a predetermined intraoral object.

実施の形態1に係るデータ処理システムおよびデータ処理装置の適用例を示す図である。1 is a diagram showing an application example of a data processing system and a data processing device according to a first embodiment; FIG. 実施の形態1に係るデータ処理装置のハードウェア構成を示すブロック図である。2 is a block diagram showing the hardware configuration of the data processing device according to Embodiment 1; FIG. 実施の形態1に係る三次元スキャナの構成を示す図である。1 is a diagram showing the configuration of a three-dimensional scanner according to Embodiment 1; FIG. 実施の形態1に係る三次元スキャナが共焦点法に基づき三次元データを取得する例を説明するための図である。FIG. 4 is a diagram for explaining an example in which the three-dimensional scanner according to Embodiment 1 acquires three-dimensional data based on the confocal method; 三次元スキャナによるスキャン方法を説明するための図である。FIG. 4 is a diagram for explaining a scanning method using a three-dimensional scanner; 実施の形態1に係る三次元スキャナによって取得された各スキャン範囲における物体を示す図である。4A and 4B are diagrams showing an object in each scan range acquired by the three-dimensional scanner according to Embodiment 1; FIG. 三次元スキャナを用いて物体をスキャンする様子を示す図である。It is a figure which shows a mode that an object is scanned using a three-dimensional scanner. 三次元スキャナを用いて物体をスキャンする様子を示す図である。It is a figure which shows a mode that an object is scanned using a three-dimensional scanner. 実施の形態1に係るデータ処理装置の機能構成を示すブロック図である。2 is a block diagram showing the functional configuration of the data processing device according to Embodiment 1; FIG. 実施の形態1に係るデータ処理装置に入力される三次元データを説明するための図である。4 is a diagram for explaining three-dimensional data input to the data processing device according to Embodiment 1; FIG. 実施の形態1に係る推定モデルを機械学習させるときに用いられる学習用データを説明するための図である。FIG. 4 is a diagram for explaining learning data used when performing machine learning on the estimation model according to Embodiment 1; FIG. 複数の物体の各々と正解ラベルとの対応関係を説明するための図である。FIG. 4 is a diagram for explaining a correspondence relationship between each of a plurality of objects and a correct label; 実施の形態1に係るデータ処理装置によって生成された不要物体除去後の結合データを説明するための図である。FIG. 4 is a diagram for explaining combined data after unnecessary object removal generated by the data processing apparatus according to Embodiment 1; FIG. 実施の形態1に係るデータ処理装置が実行する処理の一例を説明するためのフローチャートである。4 is a flowchart for explaining an example of processing executed by the data processing device according to Embodiment 1; 実施の形態2に係る三次元スキャナが三角測量法に基づき三次元データを取得する例を説明するための図である。FIG. 10 is a diagram for explaining an example in which a three-dimensional scanner according to Embodiment 2 acquires three-dimensional data based on triangulation; 実施の形態2に係る三次元スキャナによって取得された三次元データに基づき任意の視点から見た二次元画像を示す図である。FIG. 10 is a diagram showing a two-dimensional image viewed from an arbitrary viewpoint based on three-dimensional data acquired by the three-dimensional scanner according to Embodiment 2;

<実施の形態1>
本開示の実施の形態1について、図面を参照しながら詳細に説明する。なお、図中の同一または相当部分については、同一符号を付してその説明は繰り返さない。
<Embodiment 1>
Embodiment 1 of the present disclosure will be described in detail with reference to the drawings. The same or corresponding parts in the drawings are given the same reference numerals, and the description thereof will not be repeated.

[適用例]
図1を参照しながら、実施の形態1に係るデータ処理システム10およびデータ処理装置1の適用例を説明する。図1は、実施の形態1に係るデータ処理システム10およびデータ処理装置1の適用例を示す図である。
[Application example]
An application example of the data processing system 10 and the data processing device 1 according to the first embodiment will be described with reference to FIG. FIG. 1 is a diagram showing an application example of a data processing system 10 and a data processing device 1 according to the first embodiment.

図1に示すように、ユーザは、三次元スキャナ2を用いて対象者の口腔内をスキャンすることによって、口腔内の複数の物体の三次元データを取得することができる。「ユーザ」は、歯科医師などの術者、歯科助手、歯科大学の先生または生徒、歯科技工士、メーカの技術者、製造工場の作業者など、三次元スキャナ2を用いて歯牙などの物体の三次元データを取得する者であればいずれであってもよい。「対象者」は、歯科医院の患者、歯科大学における被験者など、三次元スキャナ2のスキャン対象となり得る者であればいずれであってもよい。「物体」は、対象者の口腔内にある歯牙など、三次元スキャナ2のスキャン対象となり得るものであればいずれであってもよい。 As shown in FIG. 1, the user can acquire three-dimensional data of multiple objects in the oral cavity by scanning the oral cavity of a subject using the three-dimensional scanner 2 . A “user” includes an operator such as a dentist, a dental assistant, a teacher or student of a dental university, a dental technician, an engineer of a manufacturer, an operator of a manufacturing plant, etc., using the three-dimensional scanner 2 to scan an object such as a tooth. Any person who acquires three-dimensional data may be employed. The “subject” may be any person who can be scanned by the three-dimensional scanner 2, such as a patient at a dental clinic or a subject at a dental university. The “object” may be any object that can be scanned by the three-dimensional scanner 2, such as teeth in the oral cavity of the subject.

データ処理システム10は、データ処理装置1と、三次元スキャナ2とを備える。データ処理装置1には、ディスプレイ3、キーボード4、およびマウス5が接続されている。 A data processing system 10 includes a data processing device 1 and a three-dimensional scanner 2 . A display 3 , a keyboard 4 and a mouse 5 are connected to the data processing device 1 .

三次元スキャナ2は、口腔内を撮像する撮像装置であり、内蔵された三次元カメラによって物体の三次元データを取得する。具体的には、三次元スキャナ2は、口腔内をスキャンすることで、三次元データとして、物体の表面を示す点群(複数の点)の各々の位置情報(縦方向,横方向,高さ方向の各軸の座標)を、光学センサなどを用いて取得する。すなわち、三次元データは、物体の表面を構成する点群の各々の位置の位置情報を含む位置データである。 The three-dimensional scanner 2 is an imaging device that takes an image of the intraoral cavity, and acquires three-dimensional data of an object using a built-in three-dimensional camera. Specifically, the three-dimensional scanner 2 scans the intraoral area to obtain positional information (vertical direction, horizontal direction, height coordinates of each axis of the direction) are acquired using an optical sensor or the like. That is, the three-dimensional data is position data including position information of each position of the point group forming the surface of the object.

三次元スキャナ2が一度に測定できる測定範囲は限られているため、ユーザは、口腔内の歯列全体(歯列弓)の三次元データを取得したい場合、三次元スキャナ2を歯列に沿って口腔内を移動させるように操作して複数回に亘って口腔内をスキャンする。 Since the measurement range that the three-dimensional scanner 2 can measure at one time is limited, when the user wants to acquire three-dimensional data of the entire dental row (dental arch) in the oral cavity, the user moves the three-dimensional scanner 2 along the tooth row. The intraoral area is scanned multiple times by moving the intraoral area using the

データ処理装置1は、三次元スキャナ2によって取得された三次元データに基づき、任意の視点から見た二次元画像に対応する二次元画像データを生成し、生成した二次元画像をディスプレイ3に表示させることで、物体の表面を特定の方向から見た場合の二次元投影図をユーザに見せることができる。 The data processing device 1 generates two-dimensional image data corresponding to a two-dimensional image viewed from an arbitrary viewpoint based on the three-dimensional data acquired by the three-dimensional scanner 2, and displays the generated two-dimensional image on the display 3. , the user can see a two-dimensional projection of the surface of the object viewed from a specific direction.

さらに、データ処理装置1は、三次元データを歯科技工所に出力する。歯科技工所においては、データ処理装置1から取得した三次元データに基づき、歯科技工士が補綴物などの歯牙モデルを作製する。なお、ミリングマシンおよび3Dプリンタなど、歯牙モデルを自動で製造可能な自動製造装置が歯科医院内に配置されている場合、データ処理装置1は、三次元データを自動製造装置に出力してもよい。 Furthermore, the data processing device 1 outputs the three-dimensional data to the dental laboratory. In the dental laboratory, a dental technician prepares a tooth model such as a prosthesis based on the three-dimensional data acquired from the data processing device 1 . If an automatic manufacturing device capable of automatically manufacturing a tooth model, such as a milling machine or a 3D printer, is installed in the dental clinic, the data processing device 1 may output the three-dimensional data to the automatic manufacturing device. .

[データ処理装置のハードウェア構成]
図2を参照しながら、実施の形態1に係るデータ処理装置1のハードウェア構成を説明する。図2は、実施の形態1に係るデータ処理装置1のハードウェア構成を示すブロック図である。データ処理装置1は、たとえば、汎用コンピュータで実現されてもよいし、データ処理システム10専用のコンピュータで実現されてもよい。
[Hardware Configuration of Data Processor]
A hardware configuration of the data processing device 1 according to the first embodiment will be described with reference to FIG. FIG. 2 is a block diagram showing the hardware configuration of the data processing device 1 according to the first embodiment. Data processing apparatus 1 may be realized by a general-purpose computer, or may be realized by a computer dedicated to data processing system 10, for example.

図2に示すように、データ処理装置1は、主なハードウェア要素として、演算部11と、記憶部12と、スキャナインターフェース13と、通信部14と、ディスプレイインターフェース15と、周辺機器インターフェース16と、読取部17とを備える。 As shown in FIG. 2, the data processing apparatus 1 includes, as main hardware elements, a calculation unit 11, a storage unit 12, a scanner interface 13, a communication unit 14, a display interface 15, and a peripheral device interface 16. , and a reading unit 17 .

演算部11は、各種のプログラムを実行することで、各種の処理を実行する演算主体(演算装置)であり、コンピュータの一例である。演算部11は、たとえば、CPU(Central Processing Unit)、FPGA(Field-Programmable Gate Array)、およびGPU(Graphics Processing Unit)などで構成される。なお、演算部11は、CPU、FPGA、およびGPUの少なくとも1つで構成されてもよいし、CPUとFPGA、FPGAとGPU、CPUとGPU、あるいはCPU、FPGA、およびGPUの全てから構成されてもよい。また、演算部11は、演算回路(processing circuitry)で構成されてもよい。なお、演算部11は、1チップで構成されてもよいし、複数のチップで構成されてもよい。さらに、演算部11の全ての機能または一部の機能は、図示しないサーバ装置(たとえば、クラウド型のサーバ装置)に設けられてもよい。 The calculation unit 11 is an example of a computer and is a calculation entity (calculation device) that executes various processes by executing various programs. The calculation unit 11 is configured by, for example, a CPU (Central Processing Unit), an FPGA (Field-Programmable Gate Array), a GPU (Graphics Processing Unit), and the like. Note that the calculation unit 11 may be configured by at least one of a CPU, an FPGA, and a GPU, or may be configured by all of a CPU and an FPGA, an FPGA and a GPU, a CPU and a GPU, or a CPU, an FPGA, and a GPU. good too. Further, the arithmetic unit 11 may be configured with processing circuitry. Note that the arithmetic unit 11 may be configured with one chip, or may be configured with a plurality of chips. Furthermore, all or part of the functions of the computing unit 11 may be provided in a server device (for example, a cloud-type server device) not shown.

記憶部12は、演算部11が任意のプログラムを実行するにあたって、プログラムコードやワークメモリなどを一時的に格納する揮発性の記憶領域(たとえば、ワーキングエリア)を含む。たとえば、記憶部12は、DRAM(Dynamic Random Access Memory)またはSRAM(Static Random Access Memory)などの揮発性メモリデバイスで構成される。さらに、記憶部12は、不揮発性の記憶領域を含む。たとえば、記憶部12は、ROM(Read Only Memory)、ハードディスク、またはSSD(Solid State Drive)などの不揮発性メモリデバイスで構成される。 Storage unit 12 includes a volatile storage area (for example, a working area) that temporarily stores program codes, work memory, and the like when operation unit 11 executes an arbitrary program. For example, the storage unit 12 is composed of a volatile memory device such as a DRAM (Dynamic Random Access Memory) or an SRAM (Static Random Access Memory). Furthermore, the storage unit 12 includes a non-volatile storage area. For example, the storage unit 12 is composed of a nonvolatile memory device such as a ROM (Read Only Memory), a hard disk, or an SSD (Solid State Drive).

なお、本実施の形態においては、揮発性の記憶領域と不揮発性の記憶領域とが同一の記憶部12に含まれる例を示したが、揮発性の記憶領域と不揮発性の記憶領域とが互いに異なる記憶部に含まれていてもよい。たとえば、演算部11が揮発性の記憶領域を含み、記憶部12が不揮発性の記憶領域を含んでいてもよい。データ処理装置1は、演算部11と、記憶部12とを含むマイクロコンピュータを備えていてもよい。 In this embodiment, an example in which the volatile storage area and the nonvolatile storage area are included in the same storage unit 12 is shown. It may be contained in different storage units. For example, the calculation unit 11 may include a volatile storage area, and the storage unit 12 may include a nonvolatile storage area. The data processing device 1 may include a microcomputer including an arithmetic section 11 and a storage section 12 .

記憶部12は、データ処理プログラム121と、推定モデル122とを格納する。データ処理プログラム121は、演算部11が三次元スキャナ2によって取得された三次元データから二次元データを生成し、二次元データと推定モデル122とに基づき、口腔内の物体を識別するための識別処理が記述されている。 Storage unit 12 stores data processing program 121 and estimation model 122 . The data processing program 121 generates two-dimensional data from the three-dimensional data acquired by the three-dimensional scanner 2 by the calculation unit 11, and based on the two-dimensional data and the estimation model 122, identifies objects in the oral cavity. process is described.

推定モデル122は、ニューラルネットワーク1221と、ニューラルネットワーク1221によって用いられるパラメータ1222とを含む。推定モデル122は、口腔内の複数の物体の各々の位置情報を含む二次元データと、複数の物体の各々の種類を示す正解ラベルとを含む学習用データを用いて、二次元データに基づき各物体の種類を推定するように機械学習が行われている。 Estimation model 122 includes neural network 1221 and parameters 1222 used by neural network 1221 . The estimation model 122 uses learning data including two-dimensional data including position information of each of a plurality of objects in the oral cavity and correct labels indicating the types of each of the plurality of objects, based on the two-dimensional data. Machine learning is being done to infer the type of object.

具体的には、学習フェーズにおいて、推定モデル122は、口腔内の各物体の位置情報を含む二次元データが入力されると、ニューラルネットワーク1221によって、二次元データに基づき各物体の特徴を抽出し、抽出した特徴に基づき各物体の種類を推定する。そして、推定モデル122は、推定した各物体の種類と、二次元データに関連付けられた各物体の種類を示す正解ラベルとに基づき、両者が一致すればパラメータ1222を更新しない一方で、両者が一致しなければ両者が一致するようにパラメータ1222を更新することで、パラメータ1222を最適化する。このように、推定モデル122は、入力データである二次元データと、正解データである各物体の種類とを含む学習用データに基づき、パラメータ1222が最適化されることで機械学習される。これにより、推定モデル122は、口腔内の複数の物体の各々の二次元データに基づき、口腔内の複数の物体の各々を推定することができる。 Specifically, in the learning phase, when two-dimensional data including position information of each object in the oral cavity is input to the estimation model 122, the neural network 1221 extracts features of each object based on the two-dimensional data. , estimate the type of each object based on the extracted features. Based on the estimated type of each object and the correct label indicating the type of each object associated with the two-dimensional data, the estimation model 122 does not update the parameter 1222 if both match. If they do not match, the parameter 1222 is optimized by updating the parameter 1222 so that both match. In this way, the estimation model 122 is machine-learned by optimizing the parameters 1222 based on learning data including two-dimensional data as input data and types of objects as correct data. Thereby, the estimation model 122 can estimate each of the multiple objects in the oral cavity based on the two-dimensional data of each of the multiple objects in the oral cavity.

なお、このような推定モデル122を学習することによって最適化された推定モデル122を、特に「学習済モデル」とも称する。つまり、学習前の推定モデル122および学習済みの推定モデル122をまとめて「推定モデル」と称する一方で、特に、学習済みの推定モデル122を「学習済モデル」とも称する。 Note that the estimated model 122 optimized by learning such an estimated model 122 is particularly called a "learned model". That is, the pre-learning estimation model 122 and the trained estimation model 122 are collectively referred to as "estimation model", while the trained estimation model 122 is particularly referred to as "learned model".

推定モデル122は、演算部11が推定処理および学習処理を実行するためのプログラムを含む。実施の形態1においては、画像に特化した処理を行うプログラムとして、たとえば、U-Net、SegNet、ENet、ErfNet、VoxNet、3D ShapeNets、3D U-Net、Multi-View CNN、RotationNet、OctNet、PointCNN、FusionNet、PointNet、PointNet++、SSCNet、MarrNet、VoxelNet、PAConv、VGGNet、ResNet、DGCNN、KPConv、FCGF、ModelNet40、ShapeNet、SemanticKITTI、SunRGB-D、VoteNet、LinkNet、Lambda Network、PREDATOR、3D Medical Point Transformer、およびPCTなどが推定モデル122のプログラムに用いられるが、順伝搬型ニューラルネットワーク、リカレント型ニューラルネットワーク、グラフニューラルネットワーク、注意機構(Attention Mechanism)、Transformerなど、その他のプログラムが推定モデル122のプログラムに用いられてもよい。 Estimation model 122 includes a program for execution of estimation processing and learning processing by calculation unit 11 . In the first embodiment, programs that perform image-specific processing include, for example, U-Net, SegNet, ENet, ErfNet, VoxNet, 3D ShapeNets, 3D U-Net, Multi-View CNN, RotationNet, OctNet, PointCNN , FusionNet, PointNet, PointNet++, SSCNet, MarrNet, VoxelNet, PAConv, VGGNet, ResNet, DGCNN, KPConv, FCGF, ModelNet40, ShapeNet, SemanticKITTI, SunRGB-D, VoteNet, LinkNet, Lambda Network, PREDATOR, 3D Medical Point Transformer, and PCT and the like are used to program the estimation model 122, but other programs such as forward propagation neural networks, recurrent neural networks, graph neural networks, attention mechanisms, and transformers are used to program the estimation model 122. may

スキャナインターフェース13は、三次元スキャナ2を接続するためのインターフェースであり、データ処理装置1と三次元スキャナ2との間のデータの入出力を実現する。データ処理装置1と三次元スキャナ2とは、ケーブルを用いた有線、または無線(WiFi,BlueTooth(登録商標)など)を介して接続される。 The scanner interface 13 is an interface for connecting the three-dimensional scanner 2 and realizes input/output of data between the data processing device 1 and the three-dimensional scanner 2 . The data processing device 1 and the three-dimensional scanner 2 are connected via a cable using a cable or wirelessly (WiFi, BlueTooth (registered trademark), etc.).

通信部14は、有線通信または無線通信を介して、上述した歯科技工所または自動製造装置との間でデータを送受信する。たとえば、データ処理装置1は、通信部14を介して、三次元データに基づき生成した補綴物生成用のデータを、歯科技工所または自動製造装置に送信する。 The communication unit 14 transmits and receives data to and from the above-described dental laboratory or automatic manufacturing apparatus via wired communication or wireless communication. For example, the data processing apparatus 1 transmits data for prosthesis production generated based on three-dimensional data to a dental laboratory or an automatic manufacturing apparatus via the communication unit 14 .

ディスプレイインターフェース15は、ディスプレイ3を接続するためのインターフェースであり、データ処理装置1とディスプレイ3との間のデータの入出力を実現する。 The display interface 15 is an interface for connecting the display 3 and implements data input/output between the data processing device 1 and the display 3 .

周辺機器インターフェース16は、キーボード4およびマウス5などの周辺機器を接続するためのインターフェースであり、データ処理装置1と周辺機器との間のデータの入出力を実現する。 The peripheral device interface 16 is an interface for connecting peripheral devices such as the keyboard 4 and the mouse 5, and realizes input/output of data between the data processing apparatus 1 and the peripheral devices.

読取部17は、記憶媒体であるリムーバブルディスク20に格納されている各種データを読み出す。たとえば、読取部17は、リムーバブルディスク20からデータ処理プログラム121を取得してもよい。 The reading unit 17 reads various data stored in the removable disk 20, which is a storage medium. For example, reading unit 17 may acquire data processing program 121 from removable disk 20 .

[三次元スキャナの構成]
図3および図4を参照しながら、実施の形態1に係る三次元スキャナ2の構成を説明する。図3は、実施の形態1に係る三次元スキャナ2の構成を示す図である。図4は、実施の形態1に係る三次元スキャナ2が共焦点法に基づき三次元データを取得する例を説明するための図である。
[Configuration of three-dimensional scanner]
The configuration of the three-dimensional scanner 2 according to Embodiment 1 will be described with reference to FIGS. 3 and 4. FIG. FIG. 3 is a diagram showing the configuration of the three-dimensional scanner 2 according to Embodiment 1. As shown in FIG. FIG. 4 is a diagram for explaining an example in which the three-dimensional scanner 2 according to Embodiment 1 acquires three-dimensional data based on the confocal method.

図3に示すように、三次元スキャナ2は、手持ち式のハンドピースであり、ハウジング21と、ハウジング21に対して着脱可能に接続されたプローブ22と、制御装置40とを備える。 As shown in FIG. 3, the three-dimensional scanner 2 is a hand-held handpiece and includes a housing 21, a probe 22 detachably connected to the housing 21, and a controller 40. As shown in FIG.

プローブ22は、口腔内に挿入され、口腔内の物体にパターンを有する光(以下、単に「パターン」とも称する。)を投影する。プローブ22は、パターンが投影された物体からの反射光をハウジング21の内部に導く。 The probe 22 is inserted into the oral cavity and projects patterned light (hereinafter also simply referred to as “pattern”) onto objects in the oral cavity. The probe 22 guides the reflected light from the object on which the pattern is projected into the housing 21 .

三次元スキャナ2は、ハウジング21の内部に、光源23と、レンズ24と、光学センサ25と、プリズム26と、カウンタウェイト27と、開口部29とを備える。なお、図3および図4においては、説明の便宜上、開口部29に平行な平面方向をX軸およびY軸で規定する。また、X軸およびY軸に対して垂直な方向をZ軸で規定する。 The three-dimensional scanner 2 includes a light source 23 , a lens 24 , an optical sensor 25 , a prism 26 , a counterweight 27 and an opening 29 inside a housing 21 . 3 and 4, for convenience of explanation, the plane direction parallel to the opening 29 is defined by the X-axis and the Y-axis. Also, the direction perpendicular to the X-axis and the Y-axis is defined by the Z-axis.

光源23は、レーザー素子またはLED(Light Emitting Diode)などを含む。光源23からの光(光軸L)は、プリズム26およびレンズ24を通過し、プローブ22に設けられた反射部28によって反射されて開口部29から出力される。開口部29から出力された光は、Z軸方向に沿って物体に照射され、当該物体で反射される。すなわち、三次元スキャナ2から出力される光の光軸方向は、Z軸方向と一致し、X軸およびY軸からなる平面方向に直交する。 The light source 23 includes a laser element, an LED (Light Emitting Diode), or the like. Light (optical axis L) from the light source 23 passes through the prism 26 and the lens 24 , is reflected by the reflector 28 provided in the probe 22 , and is output from the aperture 29 . The light output from the aperture 29 is applied to an object along the Z-axis direction and reflected by the object. That is, the optical axis direction of the light output from the three-dimensional scanner 2 coincides with the Z-axis direction and is orthogonal to the plane direction composed of the X-axis and the Y-axis.

物体で反射された光は、開口部29および反射部28を介して再びハウジング21の内部に進入し、レンズ24を通過してプリズム26に入力される。プリズム26は、物体からの光の進行方向を、光学センサ25が位置する方向に変化させる。プリズム26によって進行方向が変化した光は、光学センサ25によって検出される。 The light reflected by the object enters the interior of the housing 21 again through the opening 29 and the reflecting portion 28, passes through the lens 24, and enters the prism 26. FIG. The prism 26 changes the traveling direction of light from the object to the direction in which the optical sensor 25 is located. The light whose traveling direction is changed by the prism 26 is detected by the optical sensor 25 .

共焦点法の技術を用いて物体の三次元データを取得する場合、レンズ24と物体との間に設けられたパターン生成素子(図示せず)を通過した市松模様などのパターンを有する光がスキャン範囲R内で物体に投影される。レンズ24が同一直線上を往復直線運動すると、Z軸上において、物体に投影されたパターンの焦点位置が変化する。光学センサ25は、Z軸上において焦点位置が変化するごとに物体からの光を検出する。 When acquiring three-dimensional data of an object using the confocal technique, light having a pattern such as a checkerboard pattern that passes through a pattern generating element (not shown) provided between the lens 24 and the object is scanned. within the range R is projected onto the object. When the lens 24 reciprocates linearly on the same straight line, the focal position of the pattern projected onto the object changes on the Z-axis. The optical sensor 25 detects light from the object each time the focal position changes on the Z axis.

制御装置40は、たとえば、CPU、ROM、およびRAMなどから構成され、三次元スキャナ2で行われる処理を制御する。なお、制御装置40は、FPGAまたはGPUで構成されてもよい。また、制御装置40は、CPU、FPGA、およびGPUの少なくとも1つで構成されてもよいし、CPUとFPGA、FPGAとGPU、CPUとGPU、あるいはCPU、FPGA、およびGPUの全てから構成されてもよい。また、制御装置40は、演算回路(processing circuitry)で構成されてもよい。制御装置40は、レンズ24の位置と、そのときの光学センサ25の検出結果とに基づいて、物体の表面を示す点群の各々の位置情報を算出する。 The control device 40 is composed of, for example, a CPU, a ROM, a RAM, and the like, and controls processing performed by the three-dimensional scanner 2 . Note that the control device 40 may be configured with an FPGA or a GPU. Further, the control device 40 may be composed of at least one of a CPU, an FPGA, and a GPU, or may be composed of a CPU and an FPGA, an FPGA and a GPU, a CPU and a GPU, or all of a CPU, an FPGA, and a GPU. good too. Controller 40 may also be comprised of processing circuitry. Based on the position of the lens 24 and the detection result of the optical sensor 25 at that time, the control device 40 calculates the position information of each point group indicating the surface of the object.

これにより、三次元スキャナ2は、スキャン範囲R内のXY平面における物体の表面を示す点群の各々の位置情報(X座標およびY座標)を取得する。図4に示すように、三次元スキャナ2と物体との間の仮想視点からZ軸方向に物体を見た場合、XY平面において、物体の表面を示す二次元画像を表すことができる。三次元スキャナ2は、このようなX座標およびY座標を含む二次元データの束を、Z軸方向に順番に取得することによって、1スキャンごとに物体の三次元データ(X座標、Y座標、およびZ座標)を取得することができる。1スキャンとは、三次元スキャナ2のプローブ22の位置が固定された状態で物体の三次元データ(X座標、Y座標、およびZ座標)を1回取得することに対応する。 Thereby, the three-dimensional scanner 2 acquires position information (X coordinate and Y coordinate) of each point group indicating the surface of the object on the XY plane within the scanning range R. As shown in FIG. 4, when an object is viewed in the Z-axis direction from a virtual viewpoint between the three-dimensional scanner 2 and the object, a two-dimensional image showing the surface of the object can be represented on the XY plane. The three-dimensional scanner 2 sequentially acquires a bundle of two-dimensional data including such X and Y coordinates in the Z-axis direction, thereby obtaining three-dimensional data (X coordinate, Y coordinate, and Z coordinates) can be obtained. One scan corresponds to obtaining three-dimensional data (X coordinate, Y coordinate, and Z coordinate) of an object once with the position of the probe 22 of the three-dimensional scanner 2 fixed.

より具体的には、三次元スキャナ2を動かさずに固定された光軸で3次元データを取得するような1回のスキャンが行われた場合、制御装置40は、スキャン対象の物体の表面を示す点群の各々に対して、光軸方向をZ座標とし、かつ光軸方向(Z軸方向)と直交する平面方向をX座標およびY座標として、三次元の位置情報を付与する。制御装置40は、三次元スキャナ2によって複数回のスキャンが行われた場合、各スキャンによって取得された点群の三次元データを、複数回のスキャン同士で結合する際に、重複する部分の一致する形状に基づいて三次元データを結合させる。制御装置40は、結合の完成時、または、一定のタイミングで、結合された点群の三次元データに対して、任意の原点に基づくX座標、Y座標、およびZ座標を改めて付与することによって、全体として統一のある物体の位置情報を含む点群の三次元データを取得する。 More specifically, when one scan is performed to acquire three-dimensional data with the optical axis fixed without moving the three-dimensional scanner 2, the control device 40 moves the surface of the object to be scanned. Three-dimensional position information is given to each of the indicated point groups, with the optical axis direction as the Z coordinate and the planar direction perpendicular to the optical axis direction (Z-axis direction) as the X coordinate and the Y coordinate. When the three-dimensional scanner 2 performs multiple scans, the control device 40 performs matching of overlapping portions when combining the three-dimensional data of the point cloud acquired by each scan between multiple scans. Combine the 3D data based on the shape of the object. When the connection is completed or at a certain timing, the control device 40 newly assigns X, Y, and Z coordinates based on an arbitrary origin to the three-dimensional data of the connected point group. , to obtain 3D point cloud data containing the position information of objects with unity as a whole.

三次元スキャナ2によって取得された物体の三次元データは、スキャナインターフェース13を介してデータ処理装置1に入力される。なお、制御装置40の全ての機能または一部の機能を、データ処理装置1が備えていてもよい。たとえば、データ処理装置1の演算部11が、制御装置40の機能を備えていてもよい。 Three-dimensional data of an object acquired by the three-dimensional scanner 2 is input to the data processing device 1 via the scanner interface 13 . Note that the data processing device 1 may have all or part of the functions of the control device 40 . For example, the calculation unit 11 of the data processing device 1 may have the functions of the control device 40 .

[三次元スキャナによるスキャンの一例]
図5~図8を参照しながら、三次元スキャナ2によるスキャンの一例を説明する。
[An example of scanning by a three-dimensional scanner]
An example of scanning by the three-dimensional scanner 2 will be described with reference to FIGS. 5 to 8. FIG.

図5は、三次元スキャナ2によるスキャン方法を説明するための図である。三次元スキャナ2のスキャン範囲は、口腔内に挿入可能なプローブ22の大きさによって制限される。このため、ユーザは、プローブ22を口腔内に挿入し、プローブ22を歯列に沿って口腔内を移動させるようにして複数回に亘って口腔内をスキャンする。 FIG. 5 is a diagram for explaining a scanning method by the three-dimensional scanner 2. FIG. The scanning range of the three-dimensional scanner 2 is limited by the size of the probe 22 that can be inserted into the oral cavity. Therefore, the user inserts the probe 22 into the oral cavity and scans the oral cavity multiple times by moving the probe 22 in the oral cavity along the dentition.

たとえば、図5に示すように、ユーザは、口腔内でプローブ22を動かすことによって、スキャン範囲をR1,R2,R3,・・・Rnといったように順番に切り替えて、口腔内の様々な部分の三次元データを取得する。より具体的には、ユーザは、歯牙の舌側面から咬合面を経由して歯牙の唇側面へとプローブ22を動かすことによって一部の歯牙をスキャンし、このようなスキャンを左奥歯側から前歯を経由して右奥歯側へとプローブ22を動かすことによって複数の歯牙を順番にスキャンする。なお、口腔内におけるプローブ22の動かし方は、ユーザごとまたは歯科診療ごとに異なるため、三次元データが取得される口腔内の部分および取得順は変化し得る。 For example, as shown in FIG. 5, by moving the probe 22 in the oral cavity, the user sequentially switches the scanning range to R1, R2, R3, . Acquire 3D data. More specifically, the user scans a portion of the tooth by moving the probe 22 from the lingual side of the tooth through the occlusal side to the labial side of the tooth and performs such a scan from the left posterior side to the anterior side. A plurality of teeth are sequentially scanned by moving the probe 22 to the right molar side via . Since the method of moving the probe 22 in the oral cavity differs for each user or for each dental practice, the part of the oral cavity from which the three-dimensional data is acquired and the acquisition order may change.

図6は、実施の形態1に係る三次元スキャナ2によって取得された各スキャン範囲における物体を示す図である。図6に示すように、ユーザがプローブ22を動かしながら物体をスキャンすることにより、三次元スキャナ2は、各スキャン範囲に含まれる物体の三次元データを取得することができる。たとえば、三次元スキャナ2は、1スキャンごとに1つのスキャン範囲における三次元データを取得することができ、図6の例においては、スキャン範囲R11~R15の各々の三次元データを取得することができる。三次元スキャナ2は、複数回のスキャンによって得られた複数のスキャン範囲R11~R15のそれぞれに対応する複数の三次元データを結合することによって、複数のスキャン範囲R11~R15に含まれる物体全体の三次元データを取得することができる。 FIG. 6 is a diagram showing an object in each scan range acquired by the three-dimensional scanner 2 according to Embodiment 1. FIG. As shown in FIG. 6, the user scans the object while moving the probe 22, so that the three-dimensional scanner 2 can acquire three-dimensional data of the object included in each scanning range. For example, the three-dimensional scanner 2 can acquire three-dimensional data in one scan range for each scan, and in the example of FIG. 6, acquire three-dimensional data in each of the scan ranges R11 to R15. can. The three-dimensional scanner 2 combines a plurality of three-dimensional data corresponding to each of the plurality of scan ranges R11 to R15 obtained by scanning a plurality of times, thereby obtaining an image of the entire object included in the plurality of scan ranges R11 to R15. 3D data can be obtained.

図7および図8は、三次元スキャナ2を用いて物体をスキャンする様子を示す図である。図7および図8に示すように、口腔内においては、舌、下顎の歯列と舌との間の小帯、下顎の歯列、下顎の歯列と下唇との間の小帯(図示は省略する)、下唇、硬口蓋、上顎の歯列と硬口蓋との間の小帯、上顎の歯列、上顎の歯列と上唇との間の小帯(図示は省略する))、上唇、歯肉、粘膜、および補綴物(金属歯、セラミック歯、レジン歯)などの複数の物体が含まれる。三次元スキャナ2によるスキャン中においては、スキャン対象である歯牙などの物体と三次元スキャナ2との間に、術者の指または診療器具、あるいは患者の舌、唇、粘膜(頬裏)などの不要物体が入り込み、三次元スキャナ2が物体の三次元データを適切に取得することができない場合がある。たとえば、図6の例では、範囲R12~R14に不要物体である指が入り込んでいる。なお、指は、術者の生身の指に限らず、術者が手袋をはめた状態の指も含まれる。また、診療器具としては、バキューム、開口器、および舌圧子などの歯科用インスツルメントが挙げられる。 7 and 8 are diagrams showing how the three-dimensional scanner 2 is used to scan an object. As shown in FIGS. 7 and 8, in the oral cavity, the tongue, the frenulum between the mandibular dentition and the tongue, the mandibular dentition, the frenulum between the mandibular dentition and the lower lip (illustrated) are omitted), the lower lip, the hard palate, the frenulum between the maxillary dentition and the hard palate, the maxillary dentition, the frenulum between the maxillary dentition and the upper lip (not shown)), Multiple objects such as upper lip, gums, mucosa, and prostheses (metal, ceramic, resin teeth) are included. During scanning by the three-dimensional scanner 2, an operator's finger or a medical instrument, or a patient's tongue, lips, mucous membranes (back of the cheek), etc. are placed between an object such as a tooth to be scanned and the three-dimensional scanner 2. There is a case where an unnecessary object enters and the 3D scanner 2 cannot properly acquire the 3D data of the object. For example, in the example of FIG. 6, a finger, which is an unnecessary object, is included in the range R12 to R14. Note that the finger is not limited to the operator's real finger, but also includes the operator's gloved finger. Medical instruments also include dental instruments such as vacuums, mouth openings, and tongue depressors.

たとえば、図7および図8に示すように、三次元スキャナ2のプローブ22が口腔内に挿入される際には、口腔内の軟組織を押さえるために、歯牙と唇との間に指が挿入されることがある。 For example, as shown in FIGS. 7 and 8, when the probe 22 of the three-dimensional scanner 2 is inserted into the oral cavity, a finger is inserted between the tooth and the lip to press the soft tissue in the oral cavity. There is something.

具体的には、図7に示すように、ユーザは、唇側の歯牙の側面の三次元データを取得する場合、プローブ22を歯牙と唇との隙間に挿入するが、このとき、歯列と唇との隙間に指を挿入して軟組織を押さえることによって、軟組織がスキャンの邪魔をしないようにする。また、図8に示すように、ユーザは、舌側の歯牙の側面の三次元データを取得する場合、プローブ22を歯列と舌との隙間に挿入するが、このとき、歯列と舌との隙間に指を挿入して軟組織を押さえることによって、軟組織がスキャンの邪魔をしないようにする。なお、指に限らず、歯牙と唇との隙間または歯牙と舌との隙間に軟組織を押さえるための診療器具が挿入されることもある。このように、軟組織を押さえている指が歯列に接触した状態で口腔内をスキャンすると、図6に示すように、範囲R12~R14に不要物体である指が入り込んだ状態で、三次元データが取得される。 Specifically, as shown in FIG. 7, the user inserts the probe 22 into the gap between the tooth and the lip when acquiring three-dimensional data of the side surface of the tooth on the lip side. Prevent soft tissue from interfering with the scan by pressing the soft tissue by inserting a finger into the gap between the lips. Also, as shown in FIG. 8, when the user acquires three-dimensional data of the side surface of the tooth on the lingual side, the user inserts the probe 22 into the gap between the tooth row and the tongue. Prevent soft tissue from interfering with the scan by pressing the soft tissue by inserting a finger into the gap between the It should be noted that not only the finger but also a medical instrument for pressing soft tissue may be inserted into the gap between the tooth and the lip or the gap between the tooth and the tongue. In this way, when the inside of the oral cavity is scanned with the finger pressing the soft tissue in contact with the dentition, as shown in FIG. is obtained.

このように、歯科診療においては、通常、指および診療器具などの挿入物体が口腔内に挿入された状態で口腔内がスキャンされるが、たとえば、図4のスキャン範囲Rおよび図6のスキャン範囲R12~R14に示すように、スキャン範囲内に挿入物体が入り込み、三次元スキャナ2が物体の三次元データを適切に取得することができない場合がある。 In this way, in dental practice, the inside of the oral cavity is usually scanned with a finger and an insertion object such as a medical instrument inserted into the oral cavity. As indicated by R12 to R14, there are cases where an inserted object enters the scanning range and the 3D scanner 2 cannot properly acquire 3D data of the object.

そこで、実施の形態1に係るデータ処理装置1は、AI(人工知能:Artificial Intelligence)を利用して、口腔内の歯牙、舌、唇、小帯、歯肉、粘膜、補綴物(金属歯、セラミック歯、レジン歯)、および口腔内に挿入される挿入物体などの複数の物体の各々の種類を識別し、識別結果に基づいて、歯科診療に不要な物体の三次元データを抽出して削除するように構成されている。以下、データ処理装置1の具体的な機能について説明する。 Therefore, the data processing apparatus 1 according to Embodiment 1 utilizes AI (Artificial Intelligence) to detect teeth, tongue, lips, frenulum, gums, mucous membranes, prosthetics (metal teeth, ceramics) in the oral cavity. teeth, resin teeth), and objects to be inserted into the oral cavity. is configured as Specific functions of the data processing device 1 will be described below.

[データ処理装置の機能構成]
図9を参照しながら、実施の形態1に係るデータ処理装置1の機能構成について説明する。図9は、実施の形態1に係るデータ処理装置1の機能構成を示すブロック図である。
[Functional Configuration of Data Processing Device]
A functional configuration of the data processing device 1 according to the first embodiment will be described with reference to FIG. FIG. 9 is a block diagram showing the functional configuration of the data processing device 1 according to Embodiment 1. As shown in FIG.

図9に示すように、データ処理装置1は、主な機能部として、入力部1101と、二次元データ生成部1106と、識別部1102と、除去部1103と、結合部1104と、画像生成部1105と、記憶部12とを備える。 As shown in FIG. 9, the data processing apparatus 1 includes, as main functional units, an input unit 1101, a two-dimensional data generation unit 1106, an identification unit 1102, a removal unit 1103, a combination unit 1104, and an image generation unit. 1105 and a storage unit 12 .

入力部1101は、スキャナインターフェース13の機能部であり、三次元スキャナ2によって取得される1スキャンごとの三次元データを取得する。なお、入力部1101は、通信部14、周辺機器インターフェース16、または読取部17の機能部であってもよい。たとえば、入力部1101が通信部14の機能部である場合、通信部14は、有線通信または無線通信を介して、外部装置から三次元データを取得する。なお、外部装置は、歯科医院に設置されたサーバ装置であってもよいし、歯科医院とは別の場所に設置されたクラウド型のサーバ装置であってもよい。入力部1101が周辺機器インターフェース16の機能部である場合、周辺機器インターフェース16は、キーボード4およびマウス5を用いてユーザによって入力された三次元データを取得する。入力部1101が読取部17の機能部である場合、読取部17は、リムーバブルディスク20に記憶された三次元データを取得する。 An input unit 1101 is a functional unit of the scanner interface 13 and acquires three-dimensional data for each scan acquired by the three-dimensional scanner 2 . Note that the input unit 1101 may be a functional unit of the communication unit 14 , the peripheral device interface 16 , or the reading unit 17 . For example, if the input unit 1101 is a functional unit of the communication unit 14, the communication unit 14 acquires three-dimensional data from an external device via wired communication or wireless communication. Note that the external device may be a server device installed at the dental clinic, or may be a cloud-type server device installed at a location other than the dental clinic. If the input unit 1101 is a functional unit of the peripheral device interface 16 , the peripheral device interface 16 acquires three-dimensional data input by the user using the keyboard 4 and mouse 5 . If the input unit 1101 is a functional unit of the reading unit 17 , the reading unit 17 acquires three-dimensional data stored on the removable disk 20 .

ここで、図10を参照しながら、データ処理装置1に入力される三次元データについて説明する。図10は、実施の形態1に係るデータ処理装置1に入力される三次元データを説明するための図である。図10に示すように、入力部1101に入力される1スキャンごとの三次元データは、スキャン範囲内の物体の表面を示す点群の各々に対応付けられた、X座標、Y座標、およびZ座標の位置情報と、X成分、Y成分、およびZ成分の法線情報とを含む。なお、図示は省略するが、三次元データは、スキャン範囲内の物体の表面を示す点群の各々に対応付けられた色情報も含む。 Three-dimensional data input to the data processing apparatus 1 will now be described with reference to FIG. FIG. 10 is a diagram for explaining three-dimensional data input to the data processing device 1 according to the first embodiment. As shown in FIG. 10, the three-dimensional data for each scan input to the input unit 1101 includes X coordinates, Y coordinates, and Z It contains the position information of the coordinates and the normal information of the X, Y and Z components. Although illustration is omitted, the three-dimensional data also includes color information associated with each point group indicating the surface of the object within the scan range.

位置情報とは、図4を用いて説明したように、スキャン範囲に含まれる物体の表面を示す点群の各々におけるX座標、Y座標、およびZ座標である。法線情報とは、点群に含まれる1つの点に注目して、その注目点における接線に垂直な法線のX成分、Y成分、およびZ成分である。なお、点群に含まれる1つの点に対する法線の生成には、主成分分析などの公知の技術を用いればよい。 The positional information is, as described with reference to FIG. 4, the X coordinate, Y coordinate, and Z coordinate of each point group indicating the surface of the object included in the scan range. The normal line information is the X component, Y component, and Z component of the normal line perpendicular to the tangent line at the point of interest, focusing on one point included in the point group. Note that a known technique such as principal component analysis may be used to generate a normal to one point included in the point group.

図9に戻り、二次元データ生成部1106は、演算部11の機能部である。二次元データ生成部1106は、入力部1101から入力される1スキャン分の三次元データから二次元データを生成する。 Returning to FIG. 9 , the two-dimensional data generation unit 1106 is a functional unit of the calculation unit 11 . A two-dimensional data generation unit 1106 generates two-dimensional data from three-dimensional data for one scan input from the input unit 1101 .

具体的には、図4を用いて説明したように、共焦点法の技術を用いた三次元スキャナ2は、スキャン範囲に含まれる物体からの光を検出することによって、物体の表面を示す点群の各々の位置情報を含む三次元データを取得することができる。図10に示すように、三次元スキャナ2によって取得されて入力部1101から入力される三次元データは、位置情報として、物体の表面を示す点群の各々のX座標、Y座標、およびZ座標を含み、その位置での色情報を含む。二次元データ生成部1106は、入力部1101から入力される三次元データに含まれる位置情報のうち、X座標およびY座標のみを用いて物体の表面を示す点群の各々の二次元データを生成する。X座標およびY座標は、二次元データのピクセル位置であり、色情報はそのピクセル位置での画素値である。すなわち、二次元データ生成部1106によって三次元データに基づき生成される二次元データは、スキャン範囲に含まれる少なくとも1つの物体を一定距離離間した位置(たとえば、図4の仮想視点位置)から見た場合の当該少なくとも1つの物体の外観を示す二次元画像のデータである。二次元データ生成部1106は、生成した二次元データを識別部1102に出力する。 Specifically, as described with reference to FIG. 4, the three-dimensional scanner 2 using the confocal technique detects points that indicate the surface of the object by detecting light from the object included in the scanning range. Three-dimensional data including position information for each of the groups can be obtained. As shown in FIG. 10, the three-dimensional data acquired by the three-dimensional scanner 2 and input from the input unit 1101 includes, as position information, the X, Y, and Z coordinates of each point group indicating the surface of the object. , containing the color information at that position. The two-dimensional data generation unit 1106 generates two-dimensional data of each point cloud indicating the surface of the object using only the X and Y coordinates among the position information included in the three-dimensional data input from the input unit 1101. do. The X and Y coordinates are pixel positions of two-dimensional data, and the color information is the pixel value at that pixel position. That is, the two-dimensional data generated based on the three-dimensional data by the two-dimensional data generation unit 1106 is obtained by viewing at least one object included in the scan range from a position (for example, the virtual viewpoint position in FIG. 4) at a certain distance. 2D image data showing the appearance of the at least one object in the case. Two-dimensional data generation section 1106 outputs the generated two-dimensional data to identification section 1102 .

なお、二次元データ生成部1106は、入力部1101から入力される三次元データに含まれる位置情報のうち、X座標、Y座標、およびZ座標を用いて物体の表面を示す点群の各々を、距離画像として二次元データを生成してもよい。すなわち、二次元データ生成部1106は、X座標およびY座標を二次元データのピクセル位置とし、Z座標をそのピクセル位置での画素値に変換してもよい。距離画像は、Z座標が画像の濃淡を含む色情報によって表現される二次元データである。さらに、二次元データ生成部1106は、X座標およびY座標のみを用いて生成した物体の表面を示す二次元データと、X座標、Y座標、およびZ座標を用いて生成した距離画像を用いた二次元データの両方を生成してもよい。このように、Z座標を色情報とすれば、人間が視覚的に二次元画像(距離画像)を見る場合に有用である。たとえば、奥歯を上からスキャンした場合の距離画像(Z座標を画素値に変換した画像)においては、歯の咬合面付近が白に近い色になり、歯肉の奥側は黒に近い色になる。すなわち、奥歯における高低差を白黒によって表すことができる。一方、カラー写真のような通常の二次元画像の場合は、色またはXY平面における輪郭によって奥歯の形状が表され、高低差は表現され得ない。特に、機械学習においては、カラー写真のような二次元画像だけでは、スキャンされた物体が歯肉、粘膜(頬の裏側)、および唇のいずれであるのか判断が難しい場合に、上述したような高低差のある距離画像を用いれば各物体を識別することが可能になる。また、演算部11のようなコンピュータ(AI)においても、距離画像のようなZ座標に画素値を用いる場合は、Z座標に単に形状の高さを用いる場合よりも、隣り合う複数の物体間の関係が分かりやすくなるため、畳み込み演算(convolution)を使って計算し易くなる。 Note that the two-dimensional data generation unit 1106 uses the X, Y, and Z coordinates of the position information included in the three-dimensional data input from the input unit 1101 to generate each point group indicating the surface of the object. , two-dimensional data may be generated as a distance image. That is, the two-dimensional data generation unit 1106 may use the X and Y coordinates as the pixel positions of the two-dimensional data, and convert the Z coordinates into pixel values at the pixel positions. A distance image is two-dimensional data in which the Z coordinate is represented by color information including image gradation. Furthermore, the two-dimensional data generation unit 1106 uses two-dimensional data representing the surface of an object generated using only the X and Y coordinates, and a distance image generated using the X, Y, and Z coordinates. Both two-dimensional data may be generated. Using the Z coordinate as color information in this way is useful when humans visually view a two-dimensional image (distance image). For example, in a distance image (an image in which the Z coordinate is converted to a pixel value) when the back teeth are scanned from above, the color near the occlusal surface of the tooth is close to white, and the back side of the gingiva is close to black. . That is, the height difference in the back teeth can be represented by black and white. On the other hand, in the case of a normal two-dimensional image such as a color photograph, the shape of the back tooth is represented by the color or the contour on the XY plane, and the height difference cannot be represented. In particular, in machine learning, when it is difficult to determine whether the scanned object is gum, mucous membrane (back side of cheek), or lip only from a two-dimensional image such as a color photograph, Differential range images can be used to identify each object. Also, in a computer (AI) such as the computing unit 11, when pixel values are used for the Z coordinates such as in a distance image, the distance between a plurality of adjacent objects is greater than when simply using the height of a shape for the Z coordinates. Since the relationship between is easier to understand, it becomes easier to calculate using a convolution operation.

識別部1102は、演算部11の機能部である。識別部1102は、二次元データ生成部1106から入力される二次元データと、推定モデル122とに基づき、複数の物体のうちの少なくとも1つの物体を識別する。識別部1102は、識別結果を除去部1103に出力する。 The identification unit 1102 is a functional unit of the calculation unit 11 . The identification unit 1102 identifies at least one object among a plurality of objects based on the two-dimensional data input from the two-dimensional data generation unit 1106 and the estimation model 122 . The identifying section 1102 outputs the identification result to the removing section 1103 .

ここで、図11を参照しながら、推定モデル122の機械学習について説明する。図11は、実施の形態1に係る推定モデル122を機械学習させるときに用いられる学習用データを説明するための図である。図11に示すように、実施の形態1に係る推定モデル122は、口腔内の複数の物体の各々の位置情報として、X座標およびY座標を含む二次元データと、複数の物体の各々を示す正解ラベルとを含む1スキャン分の学習用データを用いて、1スキャン分の二次元データに基づき複数の物体の各々を推定するように機械学習(教師あり学習)が行われる。すなわち、推定モデル122は、Z座標を用いることなく、X座標およびY座標を含む二次元データに基づき物体を推定するように機械学習が行われている。 Here, machine learning of the estimation model 122 will be described with reference to FIG. 11 . FIG. 11 is a diagram for explaining learning data used when performing machine learning on the estimation model 122 according to the first embodiment. As shown in FIG. 11, the estimation model 122 according to Embodiment 1 shows two-dimensional data including X coordinates and Y coordinates and each of the plurality of objects as position information of each of the plurality of objects in the oral cavity. Machine learning (supervised learning) is performed to estimate each of a plurality of objects based on one scan of two-dimensional data using one scan of learning data including correct labels. That is, the estimation model 122 is machine-learned so as to estimate an object based on two-dimensional data including X and Y coordinates without using Z coordinates.

ここで、複数の物体の間における相対的な位置関係について説明する。口腔内においては、解剖学的に歯牙および舌などの複数の物体の各々の位置が任意のランドマークとの関係で、つまり、相対的な関係で予め決まっている。たとえば、上述した図7および図8に示すように、口を開けた顔を正面から見た状況で、下顎においては、上顎または下顎の中心付近(口腔の奥側)から外側(開口方向)の順に、舌、下顎の歯列と舌との間の小帯、下顎の歯列、下顎の歯列と下唇との間の小帯(図示は省略する)、および下唇が位置している。言い換えると、下顎の歯列を起点(任意のランドマーク)とした場合、舌は下顎の歯列よりも口腔の奥側に位置し、下唇は下顎の歯列よりも口腔の手前側に位置する。また、口を開けた顔を正面から見た状況で、上顎においては、上顎または下顎の中心付近(口腔の奥側)から外側(開口方向)の順に、硬口蓋、上顎の歯列と硬口蓋との間の小帯、上顎の歯列、上顎の歯列と上唇との間の小帯(図示は省略する)、および上唇が位置している。言い換えると、上顎の歯列を起点(任意のランドマーク)とした場合、硬口蓋は上顎の歯列よりも口腔の奥側に位置し、上唇は上顎の歯列よりも口腔の開口方向側に位置する。すなわち、口腔内においては、歯牙、舌、および唇などの複数の物体の間における相対的な位置関係が定まっている。 Here, the relative positional relationship between multiple objects will be described. In the oral cavity, anatomically, the positions of each of a plurality of objects such as teeth and tongue are predetermined in relation to arbitrary landmarks, that is, in relative relation. For example, as shown in FIGS. 7 and 8 described above, when the face is viewed from the front with the mouth open, in the lower jaw, from near the center of the upper or lower jaw (deep side of the oral cavity) to the outside (opening direction) In order, the tongue, the frenulum between the mandibular dentition and the tongue, the mandibular dentition, the frenulum between the mandibular dentition and the lower lip (not shown), and the lower lip are located. . In other words, if the dentition of the mandible is the starting point (arbitrary landmark), the tongue is positioned further back in the mouth than the dentition of the mandible, and the lower lip is positioned closer to the mouth than the dentition of the mandible. do. In addition, when the face is viewed from the front with the mouth open, in the upper jaw, from near the center of the upper or lower jaw (back side of the oral cavity) to the outside (opening direction), the hard palate, the dentition of the upper jaw and the hard palate The frenulum between the teeth, the maxillary dentition, the frenulum between the maxillary dentition and the upper lip (not shown), and the upper lip are located. In other words, when the maxillary dentition is the starting point (arbitrary landmark), the hard palate is located further back in the oral cavity than the maxillary dentition, and the upper lip is closer to the opening of the oral cavity than the maxillary dentition. To position. That is, in the oral cavity, relative positional relationships among a plurality of objects such as teeth, tongue, and lips are fixed.

このように、口腔内の複数の物体の間においては相対的な位置関係が定まっているため、推定モデル122の入力データである物体の位置情報を含む三次元データと、推定モデル122の出力データである当該物体の種類の識別結果との間には、相関関係があると言える。すなわち、三次元データに含まれる物体の位置情報は当該物体の種類に対応付けられるといったように、入力データと出力データとの間で相関関係があるため、推定モデル122は、入力された物体の位置情報を含む三次元データに基づき、当該三次元データに対応する位置が口腔内のどの領域に含まれるかを特定することによって、物体の種類を識別することができる。 In this way, since the relative positional relationship between a plurality of objects in the oral cavity is determined, the three-dimensional data including the position information of the objects, which is the input data of the estimation model 122, and the output data of the estimation model 122 It can be said that there is a correlation with the identification result of the type of the object. That is, since there is a correlation between the input data and the output data such that the position information of the object included in the three-dimensional data is associated with the type of the object, the estimation model 122 Based on the three-dimensional data including the position information, the type of the object can be identified by specifying which region in the oral cavity contains the position corresponding to the three-dimensional data.

図12は、複数の物体の各々と正解ラベルとの対応関係を説明するための図である。図12に示すように、下顎について、舌に対しては、正解ラベルとして「01」を示すデータが対応付けられる。下顎第1隙間に対しては、正解ラベルとして「02」を示すデータが対応付けられる。下顎の歯列に含まれる複数の歯牙のそれぞれに対しては、正解ラベルとして「31」~「48」を示すデータが対応付けられる。下顎第2隙間に対しては、正解ラベルとして「04」を示すデータが対応付けられる。下唇に対しては、正解ラベルとして「05」を示すデータが対応付けられる。 FIG. 12 is a diagram for explaining the correspondence relationship between each of a plurality of objects and correct labels. As shown in FIG. 12, data indicating "01" as a correct label is associated with the lower jaw and the tongue. Data indicating "02" as a correct label is associated with the mandibular first gap. Data representing "31" to "48" as correct labels are associated with each of the plurality of teeth included in the row of teeth of the lower jaw. Data indicating "04" as a correct label is associated with the second mandibular gap. Data representing "05" as a correct label is associated with the lower lip.

上顎について、硬口蓋に対しては、正解ラベルとして「06」を示すデータが対応付けられる。上顎第1隙間に対しては、正解ラベルとして「07」を示すデータが対応付けられる。上顎の歯列に含まれる複数の歯牙のそれぞれに対しては、正解ラベルとして「11」~「28」を示すデータが対応付けられる。上顎第2隙間に対しては、正解ラベルとして「09」を示すデータが対応付けられる。上唇に対しては、正解ラベルとして「10」を示すデータが対応付けられる。 As for the upper jaw, data indicating "06" as a correct label is associated with the hard palate. Data indicating "07" as a correct label is associated with the maxillary first gap. Data representing "11" to "28" as correct labels are associated with each of the plurality of teeth included in the dentition of the upper jaw. Data indicating “09” as a correct label is associated with the second maxillary gap. Data indicating "10" is associated with the upper lip as a correct label.

上述したように、歯科診療においては、指および診療器具などの挿入物体が口腔内に挿入され得る。挿入物体のうち、指に対しては、正解ラベルとして「51」を示すデータが対応付けられる。また、挿入物体のうち、診療器具に対しては、正解ラベルとして「52」を示すデータが対応付けられる。 As mentioned above, in dental practice, insert objects such as fingers and medical instruments may be inserted into the oral cavity. Among the inserted objects, the finger is associated with data indicating "51" as a correct label. Among the inserted objects, data indicating "52" as the correct label is associated with the medical instrument.

図9に戻り、学習用データにおいては、1スキャンで得られる複数の物体の各々の表面を示す点群の各々の二次元データ(位置情報)に対して、物体の種類を示す正解ラベルが対応付けられている。 Returning to FIG. 9, in the learning data, each two-dimensional data (position information) of the point cloud indicating the surface of each of a plurality of objects obtained in one scan corresponds to the correct label indicating the type of object. attached.

たとえば、図11に示すように、舌をスキャンすることによって得られた三次元データから生成された二次元データに対しては、正解ラベルとして「01」を示すデータが対応付けられている。下顎左第三大臼歯をスキャンすることによって得られた三次元データから生成された二次元データに対しては、正解ラベルとして「38」を示すデータが対応付けられている。下顎左第二大臼歯をスキャンすることによって得られた三次元データから生成された二次元データに対しては、正解ラベルとして「37」を示すデータが対応付けられている。さらに、下顎第2隙間に挿入された指をスキャンすることによって得られた三次元データから生成された二次元データに対しては、正解ラベルとして「51」を示すデータが対応付けられている。 For example, as shown in FIG. 11, data indicating "01" as a correct label is associated with two-dimensional data generated from three-dimensional data obtained by scanning the tongue. Two-dimensional data generated from three-dimensional data obtained by scanning the mandibular left third molar is associated with data indicating "38" as a correct label. Two-dimensional data generated from three-dimensional data obtained by scanning the mandibular left second molar is associated with data indicating "37" as a correct label. Furthermore, data indicating "51" as a correct label is associated with the two-dimensional data generated from the three-dimensional data obtained by scanning the finger inserted into the mandibular second gap.

このように、実施の形態1においては、推定モデル122を機械学習させるための学習用データとして、1スキャンで得られる複数の物体の各々の表面を示す点群の各々の二次元データ(X座標,Y座標)に対して、物体の種類を示す正解ラベルが対応付けられている。 Thus, in the first embodiment, two-dimensional data (X coordinate , Y coordinates) are associated with correct labels indicating the types of objects.

推定モデル122は、1スキャン分の二次元データに基づき、スキャンされた複数の物体の各々の種類を識別し、識別結果と正解ラベルとの一致度合いに基づきパラメータ1222を調整する。 The estimation model 122 identifies each type of a plurality of scanned objects based on two-dimensional data for one scan, and adjusts the parameter 1222 based on the degree of matching between the identification result and the correct label.

これにより、推定モデル122は、1スキャン分の二次元データに対応付けられた正解ラベルに基づき、当該二次元データに対応する物体の種類を識別するように機械学習することによって、当該二次元データに対応する物体の種類を識別することができるようになる。 As a result, the estimation model 122 performs machine learning to identify the type of object corresponding to the two-dimensional data based on the correct label associated with the two-dimensional data for one scan. will be able to identify the type of object corresponding to

さらに、推定モデル122は、Z座標の分だけ次元を落とした2次元データに基づき機械学習するため、Z座標を含む三次元データを用いるよりも、演算処理の負担を低減しながら機械学習することができる。 Furthermore, since the estimation model 122 is machine-learned based on two-dimensional data whose dimension is reduced by the Z-coordinate, it is possible to perform machine-learning while reducing the computational load compared to using three-dimensional data including the Z-coordinate. can be done.

図9に戻り、除去部1103は、演算部11の機能部である。除去部1103は、識別部1102から物体の種類の識別結果を取得する。識別結果は、図12に示すように、舌、下顎第1隙間、下顎の歯列に含まれる各歯牙、下顎第2隙間、下唇、硬口蓋、上顎第1隙間、上顎の歯列に含まれる各歯牙、上顎第2隙間、および上唇の各々の識別結果とともに、指および診療器具などの挿入物体の識別結果も含まれる。除去部1103は、識別部1102の識別結果に、術者の指または診療器具、あるいは患者の舌などの不要物体の識別結果が含まれている場合、入力部1101から入力された三次元データから、識別部1102によって識別された不要物体の表面を示す点群の各々の位置情報を含む不要三次元データを除去することによって、不要物体除去後の三次元データ(以下、「不要三次元データ」とも称する。)を生成する。 Returning to FIG. 9 , the removal unit 1103 is a functional unit of the calculation unit 11 . The removal unit 1103 acquires the identification result of the object type from the identification unit 1102 . As shown in FIG. 12, the identification results are the tongue, the first mandibular gap, each tooth included in the mandibular dentition, the second mandibular gap, the lower lip, the hard palate, the first maxillary gap, and the dentition of the upper jaw. Identification results for each of the teeth, maxillary second gaps, and upper lip, as well as identification results for inserted objects such as fingers and medical instruments are also included. If the identification result of the identification unit 1102 includes the identification result of an unnecessary object such as an operator's finger, a medical instrument, or a patient's tongue, the removal unit 1103 removes the three-dimensional data from the three-dimensional data input from the input unit 1101. , and the unnecessary three-dimensional data including the position information of each point group indicating the surface of the unnecessary object identified by the identification unit 1102 is removed to obtain the three-dimensional data after removing the unnecessary object (hereinafter referred to as “unnecessary three-dimensional data”). ) is generated.

具体的には、除去部1103は、不要物体の表面を示す点群の各々のXY平面方向における位置情報(X座標,Y座標)を抽出し、不要物体の表面を示す点群の各々に対応する光軸方向における位置情報(Z座標)を抽出することによって、不要三次元データを抽出する。たとえば、除去部1103は、二次元データ生成部1106によって生成された二次元データに基づき、識別部1102によって識別された不要物体の表面を示す点群の各々のX座標およびY座標を抽出する。さらに、除去部1103は、抽出した不要物体のX座標およびY座標を検索キーにして、入力部1101が取得した三次元データに基づき、不要物体のX座標およびY座標に対応付けられたZ座標を抽出する。除去部1103は、抽出した不要物体のX座標、Y座標、およびZ座標を不要三次元データとすることができる。ここで、不要物体を抽出するとは、たとえば、X座標、Y座標、およびZ座標の各データに対して不要物体を識別できるような識別データを関連付けて記憶することを含む。除去部1103は、入力部1101から入力された三次元データから、不要三次元データを除去することによって、不要物体除去後の三次元データを生成することができる。除去部1103は、不要物体除去後の三次元データを結合部1104に出力する。 Specifically, the removing unit 1103 extracts the position information (X coordinate, Y coordinate) in the XY plane direction of each point group representing the surface of the unnecessary object, and extracts the positional information (X coordinate, Y coordinate) corresponding to each point group representing the surface of the unnecessary object. Unnecessary three-dimensional data is extracted by extracting position information (Z coordinate) in the direction of the optical axis. For example, based on the two-dimensional data generated by the two-dimensional data generation unit 1106, the removal unit 1103 extracts the X and Y coordinates of each point group indicating the surface of the unnecessary object identified by the identification unit 1102. Further, the removal unit 1103 uses the extracted X and Y coordinates of the unnecessary object as search keys, and based on the three-dimensional data acquired by the input unit 1101, removes the Z coordinate corresponding to the X and Y coordinates of the unnecessary object. to extract The removing unit 1103 can use the X, Y, and Z coordinates of the extracted unnecessary object as unnecessary three-dimensional data. Here, extracting an unnecessary object includes, for example, storing identification data that can identify the unnecessary object in association with each data of the X coordinate, Y coordinate, and Z coordinate. The removing unit 1103 removes unnecessary 3D data from the 3D data input from the input unit 1101, thereby generating 3D data after removing unnecessary objects. The removing unit 1103 outputs the three-dimensional data after removing the unnecessary object to the combining unit 1104 .

結合部1104は、演算部11の機能部である。結合部1104は、入力部1101に1スキャン分の三次元データが入力されるごとに、除去部1103から1スキャン分の三次元データを取得し、蓄積された複数スキャン分の三次元データを結合させることによって、結合された複数スキャン分の三次元データ(以下、「結合データ」とも称する。)を生成する。 A coupling unit 1104 is a functional unit of the calculation unit 11 . The combining unit 1104 acquires the three-dimensional data for one scan from the removal unit 1103 each time three-dimensional data for one scan is input to the input unit 1101, and combines the accumulated three-dimensional data for a plurality of scans. 3D data for a plurality of combined scans (hereinafter also referred to as "combined data") is generated.

図13は、実施の形態1に係るデータ処理装置1によって生成された不要物体除去後の結合データを説明するための図である。除去部1103は、識別部1102の識別結果に、術者の指または診療器具、あるいは患者の舌、唇、粘膜などの不要物体の識別結果が含まれている場合、図13に示すように、識別部1102によって識別された不要物体に対応する三次元データ(不要三次元データ)に対して除去フラグをセットする。図13の例では、除去対象となる舌、唇、粘膜、および指に対応する不要三次元データに対して、除去フラグとして「01」をセットする。データ処理装置1は、除去フラグに「01」がセットされた不要三次元データについては、ディスプレイ3に表示する二次元画像に用いないように構成されている。結合部1104は、除去部1103から入力された三次元データに基づき、図13に示すように、複数スキャン分の三次元データを結合させることによって、不要物体除去後の結合データを生成する。 FIG. 13 is a diagram for explaining combined data generated by the data processing device 1 according to the first embodiment after unnecessary object removal. If the identification result of the identification unit 1102 includes the identification result of the operator's finger or medical instrument, or the patient's tongue, lips, mucous membrane, or other unnecessary object, the removal unit 1103 performs the following operations as shown in FIG. A removal flag is set for three-dimensional data (unnecessary three-dimensional data) corresponding to the unnecessary object identified by the identifying unit 1102 . In the example of FIG. 13, "01" is set as the removal flag for the unnecessary three-dimensional data corresponding to the tongue, lips, mucous membranes, and fingers to be removed. The data processing device 1 is configured not to use the unnecessary three-dimensional data whose removal flag is set to “01” for the two-dimensional image displayed on the display 3 . Based on the three-dimensional data input from the removing unit 1103, the combining unit 1104 generates combined data after unnecessary object removal by combining three-dimensional data for a plurality of scans as shown in FIG.

図9に戻り、結合部1104は、結合データを記憶部12および画像生成部1105に出力する。記憶部12は、結合部1104から入力された結合データを記憶する。画像生成部1105は、演算部11の機能部である。画像生成部1105は、結合部1104から入力された結合データに基づき、任意の視点から見た二次元画像に対応する二次元画像データを生成し、生成した二次元画像データをディスプレイ3に出力する。このとき、画像生成部1105は、除去フラグに「01」がセットされた不要三次元データを用いることなく、二次元画像データを生成する。これにより、データ処理装置1は、不要物体が除去された後の口腔内の二次元画像をディスプレイ3に表示させてユーザに見せることができる。 Returning to FIG. 9 , combining section 1104 outputs combined data to storage section 12 and image generating section 1105 . Storage unit 12 stores the combined data input from combining unit 1104 . An image generation unit 1105 is a functional unit of the calculation unit 11 . The image generating unit 1105 generates two-dimensional image data corresponding to a two-dimensional image viewed from an arbitrary viewpoint based on the combined data input from the combining unit 1104, and outputs the generated two-dimensional image data to the display 3. . At this time, the image generation unit 1105 generates two-dimensional image data without using the unnecessary three-dimensional data whose removal flag is set to “01”. As a result, the data processing device 1 can display a two-dimensional image of the oral cavity from which the unnecessary objects have been removed on the display 3 for the user to see.

[データ処理装置の処理フロー]
図14を参照しながら、データ処理装置1が実行する処理の一例を示す図である。図14は、実施の形態1に係るデータ処理装置1が実行する処理の一例を説明するためのフローチャートである。図14に示す各ステップ(以下、「S」で示す。)は、データ処理装置1の演算部11がデータ処理プログラム121を実行することで実現される。また、データ処理装置1は、三次元スキャナ2によるスキャンが開始された後、図14に示すフローチャートの処理を実行する。
[Processing flow of data processor]
FIG. 14 is a diagram showing an example of processing executed by the data processing device 1, with reference to FIG. 14; FIG. 14 is a flowchart for explaining an example of processing executed by the data processing device 1 according to the first embodiment. Each step shown in FIG. 14 (hereinafter denoted by “S”) is implemented by the arithmetic unit 11 of the data processing device 1 executing the data processing program 121 . Further, after the scanning by the three-dimensional scanner 2 is started, the data processing device 1 executes the processing of the flowchart shown in FIG.

図14に示すように、データ処理装置1は、三次元スキャナ2によってスキャンされた任意の点の三次元データを取得する(S11)。データ処理装置1は、取得した三次元データから、X座標およびY座標のみを用いて二次元データを生成する(S12)。データ処理装置1は、二次元データと、推定モデル122とに基づき、スキャンされた複数の物体の各々を識別する(S13)。 As shown in FIG. 14, the data processing device 1 acquires three-dimensional data of an arbitrary point scanned by the three-dimensional scanner 2 (S11). The data processing device 1 generates two-dimensional data from the acquired three-dimensional data using only the X and Y coordinates (S12). The data processing device 1 identifies each of the plurality of scanned objects based on the two-dimensional data and the estimation model 122 (S13).

データ処理装置1は、識別結果に基づき、不要物体を検出したか否かを判定する(S14)。すなわち、データ処理装置1は、識別結果として、舌に対応する「01」を示すデータ、指に対応する「51」を示すデータ、または診療器具に対応する「52」を示すデータ、下唇に対応する「05」を示すデータ、上唇に対応する「10」を示すデータを出力したか否かを判定する。データ処理装置1は、不要物体を検出した場合(S14でYES)、検出した不要物体に対応する不要三次元データを抽出し、抽出した不要三次元データを除去する(S15)。すなわち、データ処理装置1は、不要三次元データに対して除去フラグをセットする。 The data processing device 1 determines whether or not an unnecessary object is detected based on the identification result (S14). That is, the data processing apparatus 1 outputs, as the identification result, data indicating "01" corresponding to the tongue, data indicating "51" corresponding to the finger, data indicating "52" corresponding to the medical instrument, data indicating "52" corresponding to the lower lip, It is determined whether or not the corresponding data indicating "05" and the data indicating "10" corresponding to the upper lip have been output. When an unnecessary object is detected (YES in S14), the data processing device 1 extracts unnecessary three-dimensional data corresponding to the detected unnecessary object, and removes the extracted unnecessary three-dimensional data (S15). That is, the data processing device 1 sets a removal flag for unnecessary three-dimensional data.

データ処理装置1は、不要物体を検出しなかった場合(S14でNO)、または、S45で不要三次元データを除去した後、複数スキャン分の三次元データを結合させることによって、結合データを生成する(S16)。 If no unnecessary object is detected (NO in S14), or after removing unnecessary three-dimensional data in S45, the data processing device 1 generates combined data by combining three-dimensional data for multiple scans. (S16).

データ処理装置1は、結合データを記憶部12に記憶する(S17)。さらに、データ処理装置1は、結合データに基づき、任意の視点から見た二次元画像に対応する二次元画像データを生成し、生成した二次元画像データをディスプレイ3に出力することによって、口腔内の二次元画像をディスプレイ3に表示させる(S18)。 The data processing device 1 stores the combined data in the storage unit 12 (S17). Furthermore, the data processing device 1 generates two-dimensional image data corresponding to a two-dimensional image viewed from an arbitrary viewpoint based on the combined data, and outputs the generated two-dimensional image data to the display 3, so that the intraoral is displayed on the display 3 (S18).

データ処理装置1は、三次元スキャナ2によるスキャンが停止したか否かを判定する(S19)。データ処理装置1は、三次元スキャナ2によるスキャンが停止していない場合(S19でNO)、S11に処理を戻す。一方、データ処理装置1は、三次元スキャナ2によるスキャンが停止した場合(S19でYES)、本処理を終了する。 The data processing device 1 determines whether scanning by the three-dimensional scanner 2 has stopped (S19). If scanning by the three-dimensional scanner 2 has not stopped (NO in S19), the data processing device 1 returns the process to S11. On the other hand, when the scanning by the three-dimensional scanner 2 is stopped (YES in S19), the data processing device 1 ends this process.

以上のように、データ処理装置1は、三次元スキャナ2によってスキャンされた複数の物体のうち、歯科診療に不要な不要物体も推定モデル122を用いて識別し、識別した不要物体の表面を示す点群の各々の位置情報を含む不要三次元データを抽出することができる。これにより、ユーザは、不要物体の三次元データを自ら抽出する必要がなく、不要物体の三次元データを容易にかつ適切に抽出することができる。 As described above, the data processing device 1 identifies unnecessary objects unnecessary for dental treatment among the plurality of objects scanned by the three-dimensional scanner 2 using the estimation model 122, and displays the surfaces of the identified unnecessary objects. Unnecessary 3D data including position information of each point cloud can be extracted. As a result, the user can easily and appropriately extract the three-dimensional data of the unnecessary object without having to extract the three-dimensional data of the unnecessary object by himself/herself.

さらに、データ処理装置1は、Z座標の分だけ次元を落とした2次元データに基づき、推定モデル122を用いて口腔内の複数の物体の各々を識別することができるため、Z座標を含む三次元データを用いて口腔内の複数の物体の各々を識別するよりも、演算処理の負担を低減しながら不要物体の三次元データを抽出することができる。 Furthermore, the data processing device 1 can identify each of a plurality of objects in the oral cavity using the estimation model 122 based on the two-dimensional data whose dimension is reduced by the Z coordinate. Compared to identifying each of a plurality of objects in the oral cavity using original data, it is possible to extract three-dimensional data of unnecessary objects while reducing the load of arithmetic processing.

データ処理装置1は、三次元スキャナ2によって入力される三次元データから、不要三次元データを除去することができるため、ユーザは、不要物体の三次元データを自ら除去して不要物体除去後の三次元データを作成する必要がなく、不要物体が除去された後の三次元データを容易に取得することができる。 Since the data processing device 1 can remove unnecessary 3D data from the 3D data input by the 3D scanner 2, the user can remove the 3D data of the unnecessary object by himself/herself and remove the unnecessary object after removing the unnecessary object. There is no need to create three-dimensional data, and three-dimensional data after unnecessary objects have been removed can be easily obtained.

データ処理装置1は、不要三次元データを除去した後の三次元データを用いて生成した画像データをディスプレイ3に出力するため、ユーザは、不要物体が除去された後の口腔内の二次元画像を自ら生成する必要がなく、不要物体が除去された後の二次元画像を容易に取得することができる。 Since the data processing device 1 outputs to the display 3 the image data generated using the three-dimensional data after removing the unnecessary three-dimensional data, the user can see the two-dimensional image of the oral cavity after removing the unnecessary objects. can be easily obtained after the unnecessary objects are removed.

<実施の形態2>
本開示の実施の形態2について、図面を参照しながら詳細に説明する。なお、実施の形態2においては、実施の形態1と異なる部分のみを説明し、実施の形態1と同じ部分については、同一符号を付してその説明は繰り返さない。
<Embodiment 2>
Embodiment 2 of the present disclosure will be described in detail with reference to the drawings. In the second embodiment, only parts different from the first embodiment will be described, and the same parts as in the first embodiment will be denoted by the same reference numerals, and description thereof will not be repeated.

図15は、実施の形態2に係る三次元スキャナ102が三角測量法に基づき三次元データを取得する例を説明するための図である。図16は、実施の形態2に係る三次元スキャナ102によって取得された三次元データに基づき任意の視点から見た二次元画像を示す図である。実施の形態2に係る三次元スキャナ102は、実施の形態1に係る三次元スキャナ2と異なり、三角測量法に基づき三次元データを取得する。 FIG. 15 is a diagram for explaining an example in which the three-dimensional scanner 102 according to Embodiment 2 acquires three-dimensional data based on the triangulation method. FIG. 16 is a diagram showing a two-dimensional image viewed from an arbitrary viewpoint based on three-dimensional data acquired by the three-dimensional scanner 102 according to the second embodiment. Unlike the three-dimensional scanner 2 according to the first embodiment, the three-dimensional scanner 102 according to the second embodiment acquires three-dimensional data based on triangulation.

図15に示すように、三角測量法においては、プロジェクタ8によって物体にパターンが投影され、プロジェクタ8とは異なる位置にあるカメラ9によって物体に投影されたパターンが撮像される。図15(A)に示すように、プロジェクタ8が物体に対して直線パターンを投影した場合、プロジェクタ8と物体とを結ぶ線と、カメラ9と物体とを結ぶ線とによって成される角度に基づき、図15(B)に示すように、カメラ9の撮像によって得られたパターン画像は、物体の形状に沿ったパターンが表れる。図15(C)に示すように、三次元スキャナ102は、プロジェクタ8と物体とを結ぶ線の長さ、カメラ9と物体とを結ぶ線の長さ、プロジェクタ8とカメラ9とを結ぶ線の長さ、およびこれら複数の線によって生成される三角形の各頂点の角度に基づき、公知の三角測量法を用いて物体に投影されたパターンの位置を検出する。 As shown in FIG. 15, in the triangulation method, a pattern is projected onto an object by a projector 8, and the pattern projected onto the object is imaged by a camera 9 located at a position different from that of the projector 8. FIG. As shown in FIG. 15A, when the projector 8 projects a linear pattern onto the object, the angle formed by the line connecting the projector 8 and the object and the line connecting the camera 9 and the object , and as shown in FIG. 15B, the pattern image obtained by imaging with the camera 9 shows a pattern along the shape of the object. As shown in FIG. 15C, the three-dimensional scanner 102 measures the length of the line connecting the projector 8 and the object, the length of the line connecting the camera 9 and the object, and the length of the line connecting the projector 8 and the camera 9. Based on the length and angle of each vertex of the triangles generated by these lines, known triangulation techniques are used to locate the projected pattern on the object.

図16に示すように、三次元スキャナ102は、口腔内の物体にパターンを投影するプロジェクタ8と、物体に投影されたパターンを撮像するカメラ9とを備える。三次元スキャナ102は、図16(A)に示すように、プロジェクタ8によって物体にパターンが投影された状態でカメラ9によって物体を撮像する。三次元スキャナ102は、図16(A)の撮像画像に基づき、公知の三角測量法を用いて物体の表面を示す点群の各々の位置情報(X座標,Y座標,Z座標)を取得する。 As shown in FIG. 16, the three-dimensional scanner 102 includes a projector 8 that projects a pattern onto an intraoral object, and a camera 9 that captures the pattern projected onto the object. As shown in FIG. 16A, the three-dimensional scanner 102 captures an image of the object with the camera 9 while the pattern is projected onto the object by the projector 8 . The three-dimensional scanner 102 acquires position information (X coordinate, Y coordinate, Z coordinate) of each point group indicating the surface of the object using a known triangulation method based on the captured image of FIG. 16(A). .

さらに、三次元スキャナ102は、図16(B)に示すように、プロジェクタ8によって物体にパターンが投影されていない状態でカメラ9によって物体を撮像してもよい。上述したように、実施の形態3に係るデータ処理装置300は、二次元データに基づき口腔内の複数の物体の各々を識別するように構成されており、データ処理装置300は、三次元スキャナ102によって取得された図16(B)の撮像画像に基づき、口腔内の複数の物体の各々を識別してもよい。さらに、データ処理装置300は、抽出した不要物体のX座標およびY座標を検索キーにして、図16(A)の撮像画像に基づき取得した不要物体のZ座標を抽出してもよい。 Furthermore, the three-dimensional scanner 102 may image an object with the camera 9 while the pattern is not projected on the object by the projector 8, as shown in FIG. 16(B). As described above, the data processing device 300 according to Embodiment 3 is configured to identify each of a plurality of intraoral objects based on two-dimensional data. Each of a plurality of intraoral objects may be identified based on the captured image of FIG. 16(B) acquired by . Furthermore, the data processing device 300 may extract the Z coordinate of the unnecessary object acquired based on the captured image of FIG. 16A using the X coordinate and Y coordinate of the extracted unnecessary object as search keys.

なお、三次元スキャナ102は、プロジェクタ8によって物体にパターンが投影された状態でカメラ9によって物体を撮像する処理と、プロジェクタ8によって物体にパターンが投影されていない状態でカメラ9によって物体を撮像する処理とを切り替えることによって、図16(A)の撮像画像と、図16(B)の撮像画像とを取得してもよい。あるいは、三次元スキャナ102は、カメラ9を複数備え、プロジェクタ8によって物体にパターンが投影された状態で第1のカメラによって物体を撮像し、プロジェクタ8によって物体にパターンが投影されていない状態で第2のカメラによって物体を撮像することによって、図16(A)の撮像画像と、図16(B)の撮像画像とを取得してもよい。 The three-dimensional scanner 102 performs a process of capturing an image of the object with the camera 9 while the pattern is projected onto the object by the projector 8, and capturing an image of the object with the camera 9 while the pattern is not projected onto the object by the projector 8. 16A and 16B may be obtained by switching the processing. Alternatively, the three-dimensional scanner 102 includes a plurality of cameras 9 , a first camera captures an image of the object with a pattern projected onto the object by the projector 8 , and a second image is captured while the pattern is not projected onto the object by the projector 8 . 16(A) and 16(B) may be obtained by capturing an image of an object with two cameras.

<変形例>
本開示は、上記の実施例に限られず、さらに種々の変形、応用が可能である。以下、本開示に適用可能な変形例について説明する。
<Modification>
The present disclosure is not limited to the above embodiments, and various modifications and applications are possible. Modifications applicable to the present disclosure will be described below.

上述した実施の形態においては、「所定の物体」として歯科診療に不要な不要物体を例示したが、「所定の物体」は不要物体に限らず、ユーザが予め任意に指定した特定の物体であってもよい。たとえば、口腔内の複数の歯牙のうち、特定の歯牙(たとえば、下顎左第三大臼歯)にう蝕を発見した場合、ユーザは、当該特定の歯牙のみをピックアップして「所定の物体」として指定してもよい。この場合、データ処理装置1は、三次元スキャナ2によって取得された口腔内の三次元データから二次元データを生成し、生成した二次元データに基づき、ユーザによって指定された特定の歯牙を識別し、識別した特定の歯牙の表面を示す点群の各々の位置情報を含む所定の三次元データを抽出するように構成される。 In the above-described embodiment, the "predetermined object" is an unnecessary object unnecessary for dental treatment, but the "predetermined object" is not limited to the unnecessary object, and may be a specific object arbitrarily designated in advance by the user. may For example, when caries is found in a specific tooth (for example, the lower left third molar) among a plurality of teeth in the oral cavity, the user picks up only the specific tooth and uses it as a "predetermined object". May be specified. In this case, the data processing device 1 generates two-dimensional data from the three-dimensional data of the oral cavity acquired by the three-dimensional scanner 2, and identifies a specific tooth designated by the user based on the generated two-dimensional data. , is configured to extract predetermined three-dimensional data including position information for each of the point clouds indicative of the identified particular tooth surface.

識別部1102は、推定モデル122を用いて口腔内の複数の物体の各々を識別することに限らず、予め設計した特徴量、つまり、二次元画像に含まれる予め定めた形状によるパターンマッチングによって、口腔内の複数の物体の各々を識別してもよい。上述したように、二次元データ生成部1106によって生成される二次元データは、口腔内の少なくとも1つの物体を一定距離離間した位置(たとえば、図4の仮想視点位置)から見た場合の当該少なくとも1つの物体の外観を示す二次元画像のデータである。識別部1102は、二次元データ生成部1106によって生成された識別対象となる口腔内の物体(たとえば、歯牙または不要物体)の外観を示す二次元画像から当該物体(たとえば、歯牙または不要物体)の像を認識し、認識した当該物体(たとえば、歯牙または不要物体)の像と、予め設計した特徴量、つまり、二次元画像に含まれる予め定めた形状のとの一致度を判定し、その判定結果に基づき、識別対象となる当該物体(たとえば、歯牙または不要物体)を識別してもよい。 The identification unit 1102 is not limited to identifying each of a plurality of objects in the oral cavity using the estimation model 122. By pattern matching based on a feature amount designed in advance, that is, a predetermined shape included in a two-dimensional image, Each of a plurality of objects within the oral cavity may be identified. As described above, the two-dimensional data generated by the two-dimensional data generation unit 1106 is at least one object in the oral cavity viewed from a position (for example, the virtual viewpoint position in FIG. 4) at a certain distance. It is two-dimensional image data showing the appearance of one object. The identifying unit 1102 identifies the object (such as a tooth or an unnecessary object) from a two-dimensional image representing the appearance of an intraoral object (such as a tooth or an unnecessary object) to be identified, which is generated by the two-dimensional data generating unit 1106. Recognizing an image, determining the degree of matching between the image of the recognized object (for example, a tooth or an unnecessary object) and a pre-designed feature amount, that is, a predetermined shape included in the two-dimensional image, and determining Based on the results, the object of interest (eg, tooth or unwanted object) to be identified may be identified.

入力部1101に入力される三次元データには、物体の表面を示す点群の各々における位置情報および法線情報に加えて、点群の各々における実際の色を表す色情報(RGB値)が含まれていてもよい。さらに、推定モデル122は、入力部1101に入力された三次元データに対応付けられた色情報(RGB値)に基づき、物体の種類を識別するように機械学習されてもよい。なお、入力部1101に入力される三次元データには、点群の各々における位置情報のみが含まれ、法線情報および色情報が含まれていなくてもよい。 The three-dimensional data input to the input unit 1101 includes color information (RGB values) representing the actual color of each point group, in addition to the position information and normal line information of each point group representing the surface of the object. may be included. Furthermore, the estimation model 122 may be machine-learned so as to identify the type of object based on the color information (RGB values) associated with the three-dimensional data input to the input unit 1101 . Note that the three-dimensional data input to the input unit 1101 may contain only position information for each point group, and may not contain normal line information and color information.

除去部1103は、不要三次元データを除去することに限らず、不要三次元データに不要物体を示す色情報を付加してもよい。そして、画像生成部1105は、不要物体が除去された後の口腔内の二次元画像を生成することに限らず、不要物体に対応する部分に当該不要物体を示す色が付された二次元画像を生成してディスプレイ3に出力してもよい。 The removal unit 1103 is not limited to removing unnecessary three-dimensional data, and may add color information indicating unnecessary objects to unnecessary three-dimensional data. The image generating unit 1105 is not limited to generating a two-dimensional image of the intraoral cavity after the unnecessary object has been removed. may be generated and output to the display 3.

三次元計測方法として、上記の技術以外には、ランダムパターン投影またはパターン投影のないSfM(Stracture From Motion)及びSLAM(Simultaneous Localization and Mapping)などの三角測量法を用いてもよいし、TOF(Time Of Flight)またはLIDAR(Light Detection and Ranging)などのレーザー技術などを用いてもよい。 As a three-dimensional measurement method, in addition to the above techniques, triangulation methods such as random pattern projection or SfM (Structure From Motion) and SLAM (Simultaneous Localization and Mapping) without pattern projection may be used. Of Flight) or laser technology such as LIDAR (Light Detection and Ranging) may be used.

今回開示された実施の形態は全ての点で例示であって制限的なものではないと考えられるべきである。本開示の範囲は上記した説明ではなく特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内での全ての変更が含まれることが意図される。なお、本実施の形態で例示された構成および変形例で例示された構成は、適宜組み合わせることができる。 It should be considered that the embodiments disclosed this time are illustrative in all respects and not restrictive. The scope of the present disclosure is indicated by the scope of claims rather than the above description, and is intended to include all modifications within the meaning and scope of equivalents of the scope of claims. Note that the configurations exemplified in this embodiment and the configurations exemplified in the modifications can be combined as appropriate.

1,200,300,400 データ処理装置、2,102 三次元スキャナ、3 ディスプレイ、4 キーボード、5 マウス、7 口腔内カメラ、8 プロジェクタ、9 カメラ、10 データ処理システム、11 演算部、12 記憶部、13 スキャナインターフェース、14 通信部、15 ディスプレイインターフェース、16 周辺機器インターフェース、17 読取部、20 リムーバブルディスク、21 ハウジング、22 プローブ、23 光源、24 レンズ、25 光学センサ、26 プリズム、27 カウンタウェイト、28 反射部、29 開口部、40 制御装置、121 データ処理プログラム、122 推定モデル、1101 入力部、1102 識別部、1103 除去部、1104 結合部、1105 画像生成部、1106 二次元データ生成部、1221 ニューラルネットワーク、1222 パラメータ。 1,200,300,400 data processing device, 2,102 three-dimensional scanner, 3 display, 4 keyboard, 5 mouse, 7 intraoral camera, 8 projector, 9 camera, 10 data processing system, 11 calculation unit, 12 storage unit , 13 scanner interface, 14 communication unit, 15 display interface, 16 peripheral device interface, 17 reading unit, 20 removable disk, 21 housing, 22 probe, 23 light source, 24 lens, 25 optical sensor, 26 prism, 27 counterweight, 28 Reflector 29 Aperture 40 Control Device 121 Data Processing Program 122 Estimation Model 1101 Input Unit 1102 Identification Unit 1103 Removal Unit 1104 Combiner 1105 Image Generator 1106 Two-Dimensional Data Generator 1221 Neural network, 1222 parameters.

Claims (9)

口腔内の少なくとも1つの物体の位置情報を含むデータを処理するデータ処理装置であって、
前記少なくとも1つの物体の表面を示す点群の各々の位置情報を含む三次元データが入力される入力部と、
前記入力部から入力される前記三次元データを処理する演算部とを備え、
前記演算部は、
前記三次元データから二次元データを生成し、
前記二次元データに基づき、前記少なくとも1つの物体のうち、前記口腔内に挿入される挿入物体、舌、唇、および粘膜のうちの少なくとも1つを含む所定の物体を識別し、
識別した前記所定の物体の表面を示す点群の各々の位置情報を含む所定の三次元データを抽出し、
前記入力部から入力される前記三次元データから、前記所定の三次元データを除去する、データ処理装置。
A data processing device for processing data containing position information of at least one object in the oral cavity,
an input unit into which three-dimensional data including position information of each point cloud indicating the surface of the at least one object is input;
A computing unit that processes the three-dimensional data input from the input unit,
The calculation unit is
generating two-dimensional data from the three-dimensional data;
identifying a predetermined object including at least one of an insertion object to be inserted into the oral cavity, a tongue, lips, and a mucous membrane among the at least one object based on the two-dimensional data;
extracting predetermined three-dimensional data including position information of each point group indicating the surface of the identified predetermined object;
A data processing device that removes the predetermined three-dimensional data from the three-dimensional data input from the input unit.
前記挿入物体は、前記口腔内を撮像するための撮像装置が前記口腔内に挿入される際に、前記口腔内の軟組織を押さえるために挿入される指および診療器具のうちの少なくとも1つを含む、請求項1に記載のデータ処理装置。 The insertion object includes at least one of a finger and a medical instrument inserted to hold soft tissue in the oral cavity when an imaging device for imaging the intraoral cavity is inserted into the oral cavity. 2. A data processing apparatus according to claim 1. 前記演算部は、前記所定の三次元データを除去した後の三次元データを用いて生成した画像データを出力する、請求項1または請求項2に記載のデータ処理装置。 3. The data processing apparatus according to claim 1, wherein said calculation unit outputs image data generated using three-dimensional data from which said predetermined three-dimensional data has been removed. 前記入力部から入力される前記三次元データは、前記口腔内に挿入されて共焦点法または三角測量法に基づき前記口腔内を撮像する撮像装置によって取得され、
前記二次元データは、前記撮像装置の光軸方向と直交する平面方向における前記少なくとも1つの物体の表面を示す点群の各々の位置情報を含み、
前記演算部は、前記所定の物体の表面を示す点群の各々の前記平面方向における位置情報を抽出し、前記所定の物体の表面を示す点群の各々に対応する前記光軸方向における位置情報を抽出することによって、前記所定の三次元データを抽出する、請求項1~請求項3のいずれか1項に記載のデータ処理装置。
The three-dimensional data input from the input unit is acquired by an imaging device that is inserted into the oral cavity and images the oral cavity based on a confocal method or a triangulation method,
The two-dimensional data includes position information of each point group indicating the surface of the at least one object in a plane direction perpendicular to the optical axis direction of the imaging device,
The computing unit extracts position information in the planar direction of each point group indicating the surface of the predetermined object, and extracts position information in the optical axis direction corresponding to each point group indicating the surface of the predetermined object. 4. The data processing device according to any one of claims 1 to 3, wherein said predetermined three-dimensional data is extracted by extracting .
前記三次元データに基づき生成される前記二次元データは、前記少なくとも1つの物体を一定距離離間した位置から見た場合の前記少なくとも1つの物体の外観を示す二次元画像のデータであり、
前記演算部は、前記二次元画像に含まれる前記所定の物体の像を認識することにより前記所定の物体を識別する、請求項1に記載のデータ処理装置。
The two-dimensional data generated based on the three-dimensional data is data of a two-dimensional image showing the appearance of the at least one object when the at least one object is viewed from a position spaced apart by a certain distance,
2. The data processing apparatus according to claim 1, wherein said calculation unit identifies said predetermined object by recognizing an image of said predetermined object included in said two-dimensional image.
前記演算部は、前記二次元画像に含まれる前記所定の物体の位置情報に対応する、前記二次元画像が示す平面方向と直交する直交方向の位置情報を抽出することによって、前記所定の三次元データを抽出する、請求項5に記載のデータ処理装置。 The computing unit extracts position information in a direction perpendicular to a planar direction indicated by the two-dimensional image, corresponding to the position information of the predetermined object included in the two-dimensional image, thereby extracting the predetermined three-dimensional object. 6. A data processing apparatus as claimed in claim 5, for extracting data. 前記演算部は、前記二次元データと、前記二次元データに基づき前記少なくとも1つの物体のうちから前記所定の物体を推定するための機械学習が行われた推定モデルとに基づき、前記所定の物体を識別する、請求項1に記載のデータ処理装置。 The computing unit calculates the predetermined object based on the two-dimensional data and an estimation model subjected to machine learning for estimating the predetermined object from the at least one object based on the two-dimensional data. 2. A data processing apparatus as claimed in claim 1, which identifies . コンピュータによる口腔内の少なくとも1つの物体の位置情報を含むデータを処理するデータ処理方法であって、
前記少なくとも1つの物体の表面を示す点群の各々の位置情報を含む三次元データが入力されるステップと、
入力される前記三次元データを処理するステップとを含み、
前記処理するステップは、
前記三次元データから二次元データを生成するステップと、
前記二次元データに基づき、前記少なくとも1つの物体のうち、前記口腔内に挿入される挿入物体、舌、唇、および粘膜のうちの少なくとも1つを含む所定の物体を識別するステップと、
識別した前記所定の物体の表面を示す点群の各々の位置情報を含む所定の三次元データを抽出するステップと、
入力される前記三次元データから、前記所定の三次元データを除去するステップとを含む、データ処理方法。
A data processing method for processing data containing position information of at least one object in the oral cavity by a computer, comprising:
a step of inputting three-dimensional data including position information of each point cloud indicating the surface of the at least one object;
and processing the input three-dimensional data;
The processing step includes:
generating two-dimensional data from the three-dimensional data;
identifying a predetermined object among the at least one object, including at least one of an insertion object to be inserted into the oral cavity, tongue, lips, and mucosa, based on the two-dimensional data;
a step of extracting predetermined three-dimensional data including position information of each point group indicating the surface of the identified predetermined object;
and removing the predetermined three-dimensional data from the input three-dimensional data.
口腔内の少なくとも1つの物体の位置情報を含むデータを処理するデータ処理プログラムであって、
コンピュータに、
前記少なくとも1つの物体の表面を示す点群の各々の位置情報を含む三次元データが入力されるステップと、
入力される前記三次元データを処理するステップとを実行させ、
前記処理するステップは、
前記三次元データから二次元データを生成するステップと、
前記二次元データに基づき、前記少なくとも1つの物体のうち、前記口腔内に挿入される挿入物体、舌、唇、および粘膜のうちの少なくとも1つを含む所定の物体を識別するステップと、
識別した前記所定の物体の表面を示す点群の各々の位置情報を含む所定の三次元データを抽出するステップと、
入力される前記三次元データから、前記所定の三次元データを除去するステップとを含む、データ処理プログラム。
A data processing program for processing data containing position information of at least one object in the oral cavity,
to the computer,
a step of inputting three-dimensional data including position information of each point cloud indicating the surface of the at least one object;
and executing a step of processing the input three-dimensional data;
The processing step includes:
generating two-dimensional data from the three-dimensional data;
identifying a predetermined object among the at least one object, including at least one of an insertion object to be inserted into the oral cavity, tongue, lips, and mucosa, based on the two-dimensional data;
a step of extracting predetermined three-dimensional data including position information of each point group indicating the surface of the identified predetermined object;
and removing the predetermined three-dimensional data from the input three-dimensional data.
JP2022101215A 2022-03-25 2022-06-23 DATA PROCESSING DEVICE, DATA PROCESSING METHOD, AND DATA PROCESSING PROGRAM Active JP7260699B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022101215A JP7260699B1 (en) 2022-03-25 2022-06-23 DATA PROCESSING DEVICE, DATA PROCESSING METHOD, AND DATA PROCESSING PROGRAM

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022050078A JP7140932B1 (en) 2022-03-25 2022-03-25 DATA PROCESSING DEVICE, DATA PROCESSING METHOD, AND DATA PROCESSING PROGRAM
JP2022101215A JP7260699B1 (en) 2022-03-25 2022-06-23 DATA PROCESSING DEVICE, DATA PROCESSING METHOD, AND DATA PROCESSING PROGRAM

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2022050078A Division JP7140932B1 (en) 2022-03-25 2022-03-25 DATA PROCESSING DEVICE, DATA PROCESSING METHOD, AND DATA PROCESSING PROGRAM

Publications (2)

Publication Number Publication Date
JP7260699B1 true JP7260699B1 (en) 2023-04-18
JP2023143585A JP2023143585A (en) 2023-10-06

Family

ID=88219989

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022101215A Active JP7260699B1 (en) 2022-03-25 2022-06-23 DATA PROCESSING DEVICE, DATA PROCESSING METHOD, AND DATA PROCESSING PROGRAM

Country Status (1)

Country Link
JP (1) JP7260699B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140272774A1 (en) 2013-03-14 2014-09-18 Ormco Corporation Scanning sequence for an intra-oral imaging system
US20200170760A1 (en) 2017-05-27 2020-06-04 Medicim Nv Method for intraoral scanning directed to a method of processing and filtering scan data gathered from an intraoral scanner
JP2020151008A (en) 2019-03-18 2020-09-24 株式会社モリタ製作所 Image processing system, display system, image processing method and image processing program
JP2020531960A (en) 2017-08-16 2020-11-05 ジョン マーフィー,ジェームズ Systems and methods for manufacturing mouthpieces

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7260115B2 (en) * 2019-09-30 2023-04-18 株式会社Nttドコモ Mobile devices and photography assistance programs

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140272774A1 (en) 2013-03-14 2014-09-18 Ormco Corporation Scanning sequence for an intra-oral imaging system
US20200170760A1 (en) 2017-05-27 2020-06-04 Medicim Nv Method for intraoral scanning directed to a method of processing and filtering scan data gathered from an intraoral scanner
JP2020531960A (en) 2017-08-16 2020-11-05 ジョン マーフィー,ジェームズ Systems and methods for manufacturing mouthpieces
JP2020151008A (en) 2019-03-18 2020-09-24 株式会社モリタ製作所 Image processing system, display system, image processing method and image processing program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Yusuke Moriyama, et al.,Evaluation of Dental Image Augmentation for the Severity Assessment of Periodontal Disease,2019 International Conference on Computational Science and Computational Intelligence(CSCI),IEEE,2019年,pp. 924-929

Also Published As

Publication number Publication date
JP2023143585A (en) 2023-10-06

Similar Documents

Publication Publication Date Title
US12076200B2 (en) Digital 3D models of dental arches with accurate arch width
US11559377B2 (en) Augmented reality enhancements for dental practitioners
US9757020B1 (en) Using an intraoral mirror with an integrated camera to record dental impressions, and applicants thereof
JP6223331B2 (en) Three-dimensional measuring device used in the dental field
US7912257B2 (en) Real time display of acquired 3D dental data
JP2018047299A (en) Adapter for intraoral scanner, intraoral scanning method, and intraoral scanner system
JP2017525522A (en) Visualization device in the patient&#39;s mouth
US20230301757A1 (en) Identification apparatus and identification method
CN113039587B (en) Hybrid method for acquiring 3D data using intraoral scanner
JP7260699B1 (en) DATA PROCESSING DEVICE, DATA PROCESSING METHOD, AND DATA PROCESSING PROGRAM
JP7140932B1 (en) DATA PROCESSING DEVICE, DATA PROCESSING METHOD, AND DATA PROCESSING PROGRAM
Adaškevičius et al. Evaluation of dental arch form using 3D dental cast scanning technology
US20240245495A1 (en) Accurate scanning of patient bite
US20230414331A1 (en) Capture of intraoral features from non-direct views
KR20240013207A (en) Method for obtaining a model of a dental arch
WO2024121067A1 (en) Method and system for aligning 3d representations

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220623

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230404

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230406

R150 Certificate of patent or registration of utility model

Ref document number: 7260699

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150