WO2015141760A1 - 情報処理装置、情報処理方法、プログラム及び身元確認システム - Google Patents

情報処理装置、情報処理方法、プログラム及び身元確認システム Download PDF

Info

Publication number
WO2015141760A1
WO2015141760A1 PCT/JP2015/058161 JP2015058161W WO2015141760A1 WO 2015141760 A1 WO2015141760 A1 WO 2015141760A1 JP 2015058161 W JP2015058161 W JP 2015058161W WO 2015141760 A1 WO2015141760 A1 WO 2015141760A1
Authority
WO
WIPO (PCT)
Prior art keywords
tooth
information
image
output
identification information
Prior art date
Application number
PCT/JP2015/058161
Other languages
English (en)
French (fr)
Inventor
賢司 奥津
好賢 田尻
坂本 静生
あゆみ 舘田
寛明 小林
孝文 青木
伊藤 康一
Original Assignee
日本電気株式会社
国立大学法人東北大学
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社, 国立大学法人東北大学 filed Critical 日本電気株式会社
Priority to JP2016508779A priority Critical patent/JP6274681B2/ja
Publication of WO2015141760A1 publication Critical patent/WO2015141760A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/60ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/51Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for dentistry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30036Dental; Teeth
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/155Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands use of biometric patterns for forensic purposes

Definitions

  • the present invention is based on the priority claim of Japanese patent application: Japanese Patent Application No. 2014-058231 (filed on Mar. 20, 2014), the entire contents of which are incorporated herein by reference. Shall.
  • the present invention relates to an information processing apparatus, an information processing method, a program, and an identity confirmation system.
  • the present invention relates to an information processing apparatus, an information processing method, a program, and an identity confirmation system that output information about teeth.
  • a large number of victims may be caused by a large-scale disaster or accident.
  • the identity of the body can be determined from the face, clothing, etc. of the body, but as time elapses from the occurrence of the disaster, it becomes difficult to determine the identity of the body from such information. Therefore, biometric information such as fingerprints, teeth, and DNA (Deoxyribonucleic Acid) is collected from the corpse, and the identity of the corpse is confirmed by collating it with biometric information that is the same type of biometric information and acquired before birth. Work is required.
  • Fingerprints are capable of uniquely identifying individuals and are excellent in distinguishability, but disappear with the passage of time and have low resistance to body damage.
  • the state of the teeth is hardly changed over time and is highly resistant to corpse damage. Therefore, even if a long time has passed since the occurrence of the disaster, the information about the teeth maintains the value as identification information.
  • DNA is also highly resistant to damage. However, it is considered rare that DNA testing is performed before life and the information is stored. On the other hand, the information on the tooth is information stored in each dental clinic if the deceased had been examined by a dentist before his life. Therefore, it can be said that it is relatively easy to obtain information on teeth.
  • Patent Document 1 discloses an identification confirmation support method that enables quick and efficient narrowing down of candidates for unidentified persons.
  • a dental chart for each patient is derived from a medical fee bill (receipt) submitted from each dental clinic to an examination organization, and candidates of unidentified persons are narrowed down from the accumulated dental charts. It is disclosed.
  • a dentist creates data called a dental chart including information on the presence or absence of a corpse tooth and treatment marks based on specialized knowledge. The identity of the body can be confirmed by comparing this dental chart with the data collected from each dental clinic.
  • an object of the present invention is to provide an information processing apparatus, an information processing method, a program, and an identity confirmation system that contribute to automatically generating and outputting information about a tooth.
  • a classification unit that classifies the characteristics of the teeth in the image according to a determination rule, the characteristics of the classified teeth, and identification information for identifying the teeth in the image
  • an output unit that outputs information associated with the information processing apparatus.
  • a classification step of classifying the characteristics of the tooth in the image according to a determination rule, the characteristics of the classified tooth, and identification information for identifying the tooth in the image An information processing method is provided, including an output step of outputting information associated with.
  • classification processing for classifying the characteristics of the teeth in the image according to the determination rule, characteristics of the classified teeth, and identification information for identifying the teeth in the image
  • a program for causing a computer that controls the information processing apparatus to execute an output process for outputting the associated information.
  • This program can be recorded on a computer-readable storage medium.
  • the storage medium may be non-transient such as a semiconductor memory, a hard disk, a magnetic recording medium, an optical recording medium, or the like.
  • the present invention can also be embodied as a computer program product.
  • a generation unit that generates identification information for identifying a tooth in an image, a classification unit that classifies the feature of the tooth according to a determination rule, and the feature of the classified tooth And an output unit that outputs information that associates the identification information with each other, and a first and second tooth information output device, a database that accumulates information output by the second tooth information output device, and A tooth information collating device that collates information output from the first tooth information output device and information stored in the database, and the second tooth information output device acquires the image.
  • the first tooth information output device also outputs an identifier for identifying the unidentified person from whom the image was acquired, and the tooth information collating device is configured to output the first tooth information collating device. 1st and 2nd tooth information When the information output device outputs match, outputs the information about the unidentified person from the identifier the second tooth information output device outputs, identification system is provided.
  • an information processing apparatus an information processing method, a program, and an identity confirmation system that contribute to automatically generating and outputting information about a tooth are provided.
  • the information processing apparatus 100 shown in FIG. 1 includes a classification unit 101 and an output unit 102.
  • the classification unit 101 classifies the feature of the tooth in the image according to the determination rule.
  • the output unit 102 outputs information in which the classified tooth characteristics are associated with identification information for identifying the tooth in the image.
  • the information processing apparatus 100 recognizes the feature of the tooth by performing image recognition processing or the like on an image (for example, an X-ray image) on which the tooth is reflected, and collates the recognized feature with the determination rule.
  • the characteristics of the tooth are divided into a plurality of categories.
  • the information processing apparatus 100 generates and outputs, as a dental chart, information in which identification information for identifying each tooth in the image is associated with the characteristics of each tooth. In this way, the information processing apparatus 100 can automatically generate and output a dental chart corresponding to a person in an image showing a tooth.
  • FIG. 2 is a diagram illustrating an example of a configuration example of the identity confirmation system according to the first embodiment.
  • the identity confirmation system according to the first embodiment includes tooth information output devices 10 and 11, a tooth information matching device 12, and a database 13. 2 are connected by a network or the like (not shown) and configured to be able to communicate with each other.
  • the tooth information output device 10 is a device used in a mortuary where a body whose identity is unknown due to a large-scale disaster or the like is placed.
  • an X-ray image (so-called X-ray photograph) taken by the worker from the corpse is input to the tooth information output device 10.
  • the tooth information output device 10 generates a dental chart (information on the tooth) corresponding to the body from which the X-ray image is taken based on the input X-ray image, and outputs (transmits) the dental chart to the tooth information matching device 12. .
  • the tooth information output device 11 is a device installed in a dental clinic or the like. A dentist, a nurse, or the like inputs an X-ray image taken when treating a patient to the tooth information output device 11. The tooth information output device 11 generates a dental chart corresponding to the patient who received treatment based on the input X-ray image, and outputs (transmits) it to the database 13. Note that the tooth information output devices 10 and 11 have the same function and configuration in that they generate a dental chart based on the input X-ray image and output it to another device. Therefore, the description of the overlapping functions and configurations of the tooth information output devices 10 and 11 described below is omitted.
  • the tooth information collation apparatus 12 collates the dental chart received from the tooth information output apparatus 10 with the dental chart stored in the database 13 to output information necessary for confirming the identity of the corpse. Specifically, the tooth information collating device 12 searches the dental chart stored in the database 13 and checks whether there is a dental chart having the same characteristics as the tooth characteristics described in the dental chart generated from the corpse. As a result of the search, if there is a dental chart in which the characteristics of the teeth match (the characteristics of the teeth substantially match), the tooth information matching device 12 sets the person corresponding to the searched dental chart and the body rest It is determined that the body from which the X-ray image has been acquired is the same person. Thereafter, the tooth information collation apparatus 12 outputs information such as the name and address described in the searched dental chart as information relating to an unidentified person.
  • the dental chart generated before life and stored in the database 13 and the dental chart generated from the corpse are not necessarily the same even if they are acquired from the same person.
  • the above two dental charts may not match if the deceased suffered an unidentified person after a long period of time after being treated at the dental clinic before his birth, or if his body was severely damaged. is there. Therefore, it is desirable that the tooth information matching device 12 calculates and outputs a plurality of candidates that can be considered as the identity of the body.
  • the characteristics of each tooth may be weighted to increase the accuracy of matching between the dental chart acquired from the corpse and the dental chart stored in the database 13.
  • the database 13 is a means for storing a dental chart generated by the tooth information output device 11.
  • the description regarding the dental chart which the tooth information output device 10 and the tooth information output device 11 output is mentioned later.
  • FIG. 3 is a diagram illustrating an example of an internal configuration of the tooth information output device 10.
  • the tooth information output apparatus 10 includes an X-ray image input unit 201, an image processing unit 202, an identification information generation unit 203, a tooth feature classification unit 204, a dental chart output unit 205, and various types. And a storage unit 206 that stores information.
  • Each unit such as the image processing unit 202 shown in FIG. 3 is realized by a computer program that causes a computer mounted on the tooth information output apparatus 10 to execute processing corresponding to the function of each unit described in detail later using the hardware. You can also That is, the tooth information output device 10 only needs to have means for executing the function performed by the image processing unit 202 and the like with some hardware and / or software.
  • the X-ray image input unit 201 is a means for inputting an X-ray image obtained by photographing the inside of the oral cavity at a morgue or a dentist. More specifically, the X-ray image input unit 201 inputs a panoramic X-ray image in which the entire oral cavity as shown in FIG. 4 is taken as one X-ray photograph.
  • an operator uses the USB (Universal Serial Bus) memory or the like to convert the digitized X-ray image to an X-ray image. Input to the input unit 201.
  • the X-ray imaging apparatus does not output a digitized X-ray image (panoramic X-ray image)
  • the operator digitizes the X-ray image with a scanner or the like and then converts the X-ray image into tooth information.
  • the tooth information output device 10 may have a built-in scanner function to digitize the input X-ray image.
  • the X-ray image input unit 201 delivers the acquired X-ray image (panoramic X-ray image) to the image processing unit 202.
  • the image processing unit 202 performs image processing on the X-ray image, and generates an image used when the identification information generation unit 203 generates identification information for identifying each tooth included in the X-ray image. It is. More specifically, the image processing unit 202 extracts the tooth image from the X-ray image by performing edge detection processing (or contour detection processing) for detecting the tooth edge on the acquired X-ray image. The image is separated from the other image. In addition, the image which extracted the image of each tooth from the image contained in an X-ray image is described with a tooth image, and subsequent description is given.
  • the image processing unit 202 extracts an image of each tooth included in the X-ray image acquired from the X-ray image input unit 201.
  • FIG. 5 is an example of a tooth image obtained by performing edge detection processing on the panoramic X-ray image shown in FIG.
  • the image processing unit 202 delivers the generated tooth image to the identification information generation unit 203.
  • an input X-ray image may include many noise components. Therefore, the image processing unit 202 may extract a tooth image after performing various noise removal processes.
  • the identification information generation unit 203 is means for generating identification information for identifying each tooth included in the tooth image. More specifically, the identification information generation unit 203 generates identification information for each tooth by specifying the name of each tooth from the position and shape of each tooth included in the tooth image.
  • the storage unit 206 store a reference image that is referred to when the identification information generation unit 203 specifies the name of each tooth included in the tooth image.
  • each tooth image included in a panoramic X-ray image of a person with a typical tooth arrangement is stored in the storage unit 206 as a reference image, and the shape of the tooth included in the tooth image is compared with the shape of the reference image.
  • the tooth 301 is located on the farthest right side of the upper jaw. Therefore, it is inferred that the tooth 301 is a third molar on the right side of the upper jaw. Therefore, the identification information generation unit 203 compares the shape of the tooth 301 with the shape of the reference image related to the third molar on the right upper jaw. As a result of the comparison, if both shapes match, the name of the tooth 301 is specified as the third molar on the right upper jaw. Similarly, the tooth 302 is adjacent to the third molar and has a bifurcated root. Therefore, when comparing the shape of the reference image of the second molar with the root bifurcated and the shape of the tooth 302, they match, so the name of the tooth 302 is identified as the second molar on the right upper jaw. Is done.
  • the identification information generation unit 203 specifies that the second molar on the right side of the upper jaw is missing.
  • the shape of the tooth included in the tooth image may not match the shape of the corresponding tooth reference image. In such a case, the identification information generation unit 203 determines that the name of the tooth cannot be specified.
  • the identification information generation unit 203 specifies the name of each tooth one by one from the position and shape of each tooth included in the tooth image, and generates identification information. Furthermore, the identification information generation unit 203 generates information in which each tooth included in the tooth image is associated with the identification information of the tooth.
  • FIG. 6 is an example of information in which each tooth included in FIG. 5 is associated with identification information. In the following description, information in which each tooth in the image generated by the identification information generation unit 203 is associated with the identification information is referred to as tooth identification information.
  • the identification information generation unit 203 delivers the tooth image acquired from the image processing unit 202 and the generated tooth identification information (specifically, information illustrated in FIG. 6) to the tooth feature classification unit 204.
  • the tooth feature classifying unit 204 is a means for classifying the tooth features identified by the identification information generating unit 203 according to the determination rule. More specifically, the tooth feature classification unit 204 performs an image recognition process on the tooth image with the specified name, and recognizes the feature of the tooth with the specified name. Further, the tooth feature classification unit 204 classifies the features of the tooth included in the tooth image by comparing each feature of the recognized tooth with the feature indicated in the determination rule.
  • the tooth feature classification unit 204 recognizes that the entire color of the tooth 301 is gray.
  • the storage unit 206 stores a determination rule as illustrated in FIG.
  • the tooth feature classification unit 204 searches whether or not the feature that the color of the whole tooth is gray is defined in the determination rule. As a result of the search, the tooth feature classification unit 204 knows that the feature that the color of the whole tooth is gray is assigned to the feature 1. That is, the tooth feature classification unit 204 classifies the features of the tooth 301 into feature 1 (healthy teeth or C1 to C3).
  • C1 to C3 shown in detail in feature 1 represent the degree of caries (caries), C1 means shallow caries, and C3 indicates deep caries that have advanced to the nerve.
  • the classification of tooth decay exists up to C4, and C4 is a remaining root state in which only roots remain. Therefore, in the X-ray image of the tooth whose decay has progressed to C4, the entire tooth is not gray and does not become feature 1.
  • a predetermined threshold value when the white area for the whole tooth is equal to or less than a predetermined value (a predetermined threshold value), the tooth is classified as feature 2.
  • Characteristic 2 shows that the tooth has been partially repaired using metal.
  • the color of the upper portion (tip portion) of the tooth is light white, the tooth is classified as feature 3.
  • Characteristic 3 indicates that the tooth is treated with a crown-colored covering (crown).
  • Characteristic 4 indicates that the tooth has been completely restored using metal.
  • FIG. 8C if a linear white region exists between the teeth, it is determined that the tooth is bridged. are categorized.
  • the root canal filling is a treatment method in which the root canal of the tooth after removing the pulp (so-called nerve) is sealed with a root canal filling material.
  • the tooth is considered to be an implant, and the tooth is classified as feature 9. Further, if there is no tooth at a place where the tooth should originally be, the tooth is defective, and a feature 8 is given to the feature of the tooth.
  • the characterization of whether or not a tooth is missing may be performed by the identification information generation unit 203 or may be performed by the tooth feature classification unit 204. Further, when the position of the tooth is lower than the positions of the other teeth, the tooth is determined to be semi-impact, and the feature is classified as feature 10.
  • the tooth feature classification unit 204 classifies the characteristics of each tooth included in the tooth image according to the determination rule.
  • the tooth feature classifying unit 204 hands over the result of classifying the characteristics of each tooth included in the tooth image together with the tooth identification information acquired from the identification information generating unit 203 to the dental chart output unit 205.
  • the dental chart output unit 205 is a means for outputting information in which classified tooth characteristics are associated with identification information.
  • the dental chart output unit 205 reflects the characteristics of each tooth in the tooth identification information generated by the identification information generation unit 203.
  • FIG. 9 is a diagram illustrating an example of a result of classifying the characteristics of each tooth included in the tooth image and reflecting the characteristics in the tooth identification information.
  • the dental chart output unit 205 generates a dental chart by adding necessary information to the tooth identification information reflecting the tooth characteristics as shown in FIG.
  • the dental chart output unit 205 included in the tooth information output device 10 adds an identifier for identifying the body (unidentified person) from which the X-ray image is acquired to the information shown in FIG. (See FIG. 10). Further, the dental chart output unit 205 included in the tooth information output device 11 adds an identifier for identifying the patient who has acquired the X-ray image to the information shown in FIG. 9 to obtain a dental chart of the patient (FIG. 11). reference). As shown in FIG. 11, personal information such as the patient's name and address can be considered as an identifier for identifying the patient.
  • the dental chart output unit 205 outputs the generated dental chart to the tooth information collating device 12 or the database 13.
  • FIG. 12 is a flowchart showing an example of the operation of the tooth information output device 10.
  • step S01 the X-ray image input unit 201 receives an X-ray image of a corpse or a patient.
  • step S02 the image processing unit 202 extracts an image of each tooth included in the digitized X-ray image (panoramic X-ray image), and generates a tooth image.
  • step S03 the identification information generation unit 203 generates identification information for identifying each tooth included in the tooth image.
  • step S04 the tooth feature classification unit 204 classifies the characteristics of each tooth included in the tooth image according to a predetermined determination rule.
  • step S05 the dental chart output unit 205 adds necessary information (for example, a body identifier or a patient identifier) to the tooth identification information that reflects the characteristics of the tooth classified according to the determination rule, and generates a dental chart. To do. Thereafter, the dental chart output unit 205 outputs the generated dental chart to an external device.
  • necessary information for example, a body identifier or a patient identifier
  • FIG. 13 is a sequence diagram showing an example of the operation of the identity confirmation system.
  • a dentist or the like inputs an X-ray image to the tooth information output device 11 every time a patient is treated (step S11).
  • the tooth information output device 11 generates a dental chart of the patient from the input X-ray image and outputs it to the database 13 (step S12).
  • the database 13 stores the received dental chart in a storage medium such as an HDD (Hard Disk Drive).
  • the operator takes an X-ray image from the corpse and inputs it to the tooth information output device 10 (step S13).
  • the tooth information output device 10 generates a dental chart corresponding to the body from the input X-ray image, and outputs the dental chart to the tooth information matching device 12 (step S14).
  • the tooth information matching device 12 searches the dental chart stored in the database 13 for a dental chart that matches the characteristics of the tooth described in the dental chart of the corpse (step S15).
  • the tooth information collating device 12 If there is a dental chart with matching tooth characteristics, the tooth information collating device 12 outputs the name and the like described in the retrieved dental chart as information on the unidentified person (step S16).
  • the identity confirmation system has been described with reference to FIG. 2, but the configuration of the identity confirmation system is not limited to the configuration of FIG.
  • the function of the database 13 may be incorporated in the tooth information matching device 12.
  • the tooth information output devices 10 and 11 are provided with an X-ray image input unit 201 that is a means for receiving an X-ray image and a communication unit (not shown). May be transmitted to the tooth information collating device 12.
  • the tooth information collation device 12 executes substantial processing of the tooth information output devices 10 and 11.
  • the number of devices included in the identity confirmation system is not limited to the configuration shown in FIG.
  • a plurality of tooth information matching devices 12 and a plurality of databases 13 may be included in the identity confirmation system.
  • each database 13 is assigned to each region where the dental clinic exists, and the tooth information matching device 12 accesses the database 13 according to the location where the body is found. It is also possible to take measures such as switching the priority order.
  • the device for generating the dental chart stored in the database 13 is not necessarily the tooth information output device 11.
  • a configuration in which a dentist or the like creates a dental chart as illustrated in FIG. 11 from a medical record or a receipt created when a patient is examined and stores the dental chart in the database 13 may be used.
  • the X-ray images input to the tooth information output devices 10 and 11 do not have to be panoramic X-ray images taken by a so-called X-ray device.
  • any type of image may be used as long as the image can be subjected to image processing to recognize the characteristics of the teeth.
  • it may be a tomographic image in the oral cavity taken by a CT (Computed Tomography) apparatus.
  • the case where a tooth image is extracted from an input X-ray image using the image processing unit 202 has been described.
  • image processing is performed.
  • the processing in the unit 202 can be omitted.
  • the identification information generation unit 203 generates the identification information of the tooth in the X-ray image directly from the X-ray image as shown in FIG.
  • the tooth feature classification unit 204 also recognizes the feature of each tooth included in the X-ray image by performing image recognition processing on the X-ray image as shown in FIG.
  • the identification information generation unit 203 is used to generate identification information from the input X-ray image.
  • the identification information may be input from the outside.
  • the operator generates identification information for identifying each tooth reflected in the X-ray image (for example, a number corresponding to the position of the tooth in the image), and the X-ray image and the generated identification information are paired. May be input to the tooth information output device 10 or 11. That is, when the identification information generated externally is input to the tooth information output device 10 or 11, the identification information generation unit 203 can be omitted.
  • the identification information generation unit 203 uses the name of the tooth as information for identifying the tooth in the image, the identification information is limited to the name of the tooth. Absent. For example, as shown in FIG. 5, the X-ray image is separated into upper, lower, left and right areas, numbers are assigned to the teeth in each area in advance, and the numbers are used as tooth identification information instead of the tooth names. Also good.
  • the identification information generation unit 203 generates the identification information of the tooth from the position and shape of each tooth included in the tooth image, but generates the identification information based on the position and shape of the tooth. It is not intended to be limited.
  • the identification information generation unit 203 may input identification information of a tooth as a reference from outside and generate identification information of each tooth based on a relative position from the reference tooth.
  • the dentist specifies the name of the tooth 301 included in the panoramic X-ray image as shown in FIG. 5 and inputs the name of the tooth 301 to the tooth information output device 10 or 11.
  • the identification information generation unit 203 can recognize the tooth 301 as the right third molar, it can determine that the name (identification information) of the adjacent tooth 302 is the right second molar.
  • the determination rule shown in FIG. 7 is an exemplification, and is not intended to limit the classification of tooth characteristics in the tooth characteristic classification unit 204.
  • determination rules may be defined in more detail, and tooth characteristics may be classified into 10 or more.
  • a determination rule that is coarser than the determination rule illustrated in FIG. 7 may be defined.
  • the setting of the determination rule is preferably selected as appropriate according to the accuracy of identification using a dental chart, the time allowed when generating a dental chart, and the like.
  • identification information for all the teeth included in the X-ray image and classify the features according to the determination rule. For example, as long as a tooth has high individual discrimination power, its characteristics may be recognized by image recognition processing, and classification according to a determination rule may be performed. By narrowing down the number of teeth whose characteristics are calculated from the X-ray image, the time required for generating the dental chart can be shortened.
  • one feature is derived from each tooth and used to generate a dental chart.
  • the feature of the derived tooth is not limited to one. For example, if there is a tooth that has been bridged (feature 6 illustrated in FIG. 7) and has been partially repaired using metal (feature 2 illustrated in FIG. 7), the feature of the tooth is characteristic 2. And it is good also as the characteristic 6.
  • the dental chart is generated from the X-ray image in the oral cavity of the adult
  • the dental chart can also be generated from the X-ray image in the oral cavity of the child. More specifically, since the number of teeth at the time of childhood is usually 20, identification information can be generated for each of the 20 teeth shown in the X-ray image, and the characteristics can be classified according to the determination rule. In many cases, the state of teeth after adulthood is greatly changed from the state of teeth in childhood. Therefore, if only the dental chart acquired at an early age is stored in the database 13, it may be difficult to specify the identity from the dental chart acquired as a dental chart of an unidentified person who suffered a disaster after adulthood. Many.
  • the dental chart obtained at the time of childhood is compared with the dental chart obtained after being damaged after adulthood. In some cases, the identity of the body can be identified.
  • the same person is treated at the same dental clinic or different dental clinics at different times, and a dental chart is generated from the acquired X-ray images each time. That is, it is conceivable that a plurality of dental charts related to the same person are stored in the database 13. In such a case, it is desirable that the tooth information collating device 12 collates the most recent dental chart with the dental chart acquired from the body. It is because the most recent dental chart among the dental charts stored in the database 13 is closest to the state of the teeth of the corpse.
  • the computer can function as a tooth information output device.
  • the tooth information output method can be executed by the computer by causing the computer to execute the tooth information output program.
  • the tooth information output apparatus 10 extracts an image (tooth image) related to a tooth from an X-ray image obtained by imaging the inside of the oral cavity, and identifies each tooth from the extracted tooth image.
  • the identification information is generated.
  • the tooth information output device 10 classifies the characteristics of each tooth included in the tooth image according to the determination rule, and outputs a dental chart including the characteristics of the tooth. Therefore, a dental chart can be automatically generated by inputting an X-ray image obtained by imaging the entire oral cavity into the tooth information output device 10, even if the person does not have specialized knowledge and technology such as a dentist. Can do. If a dental chart can be generated automatically, even if a large-scale disaster occurs and there are many unidentified people, the identity can be quickly identified.
  • the format of the dental chart output by the tooth information output device 10 is different from the format of the dental chart output by the tooth information output device 11, information processing (dental chart verification processing) in the tooth information verification device 12 is performed. Becomes difficult. This is because if the two formats are different, uniform information processing using a computer is difficult.
  • the determination rules referred to by the tooth information output devices 10 and 11 are the same, and at least a dental chart in which the format related to the tooth characteristics is unified is output. . As a result, it is not necessary for a dentist or the like to manually compare the dental chart output from the tooth information output device 10 and the dental chart stored in the database 13, thereby contributing to the realization of quick identification.
  • the tooth information output devices 10 and 11 do not describe the characteristics of each tooth in a language (for example, description that the third molar is a C1 decayed tooth), but specify according to a predetermined classification. Yes. That is, the tooth information output devices 10 and 11 encode the characteristics of each tooth according to a predetermined classification. This also facilitates information processing in the tooth information matching device 12 and contributes to the realization of quick identification.
  • FIG. 14 is a diagram illustrating an example of an internal configuration of the tooth information output device 10a according to the second embodiment. 14, the same components as those in FIG. 3 are denoted by the same reference numerals, and the description thereof is omitted.
  • the difference between the tooth information output devices 10 and 10a is that the operation and function of the identification information generation unit 203a are different.
  • the identification information generation unit 203 specifies the name of the tooth based on the position and shape of each tooth included in the tooth image.
  • the dentition of the corpse may be different from the original due to impacts caused by the disaster.
  • FIG. 15 it can be assumed that a tooth image in which a canine tooth (tooth 317) and a side incisor (tooth 318) on the right upper jaw are interchanged is extracted.
  • the name of the tooth is specified based on the position or shape of the tooth included in the tooth image, the name of the tooth cannot be specified correctly. That is, when the tooth is replaced, the name of the tooth included in the tooth image can be specified as unknown.
  • the reliability of the dental chart generated based on such tooth specifying information is lowered.
  • the operation of the identification information generation unit 203a will be described.
  • FIG. 16 is a flowchart showing an example of the operation of the identification information generation unit 203a.
  • step S101 the identification information generation unit 203a compares the shape of the tooth whose name is to be specified with the shape of the reference image corresponding to the position of the tooth whose name is to be specified. When the two coincide with each other to the extent that they can be said to be the same type of tooth (step S102, Yes branch), the identification information generation unit 203a specifies the name of the tooth whose name is to be derived from the position of the tooth. It is determined as follows (step S103).
  • step S104 the identification information generation unit 203a, the shape of the tooth whose name is to be determined, and the shape of the reference image of the tooth located on the left and right of the reference image corresponding to the tooth whose name is to be specified; Compare
  • step S105 if the shape matches the shape of the reference image on either the left or right side (step S105, Yes branch), the name of the tooth corresponding to the matched reference image becomes the name of the tooth whose name is to be specified. (Step S106). If the shape does not match the shape of either the left or right reference image (step S105, No branch), the name of the tooth is determined to be unknown (step S107).
  • the canine teeth and the side incisors are interchanged. Therefore, the tooth positioned on the tooth 317 is originally a ridge having the shape of a canine, but is replaced with a side incisor. Therefore, even if the shape of the tooth 317 is compared with the reference image of the canine, they do not match. Therefore, when the name of the tooth 317 is specified, if it is not the shape of the canine, it is compared with the shape of the reference image (first premolar, side incisor) of the tooth located on the left and right. As a result of comparison, since the shape of the tooth 317 matches the reference image of the side incisor, the name of the tooth 317 can be specified as the side incisor.
  • FIG. 17 is a diagram illustrating an example of tooth identification information and incidental information generated by the identification information generation unit 203a.
  • the content is generated as supplementary information.
  • information about the lower jaw is not shown, but information about the lower jaw is also generated in the same manner as the upper jaw.
  • the tooth feature classifying unit 204 that has acquired the identification information and the accompanying information from the identification information generating unit 203a classifies the features of each tooth included in the tooth image as described in the first embodiment, and uses the result. Delivered to the dental chart output unit 205.
  • the tooth information output device 10a when the position of the tooth reflected in the tooth image is different from the original position, the details are attached to the dental chart as incidental information, and the tooth The information is output to the information verification device 12.
  • the tooth information collating device 12 can collate the dental chart with higher accuracy by referring to the incidental information as appropriate.
  • [Form 1] The information processing apparatus according to the first aspect described above.
  • [Form 2] The information processing apparatus according to mode 1, further comprising: a generation unit that generates the identification information from the image.
  • [Form 3] The information processing apparatus according to mode 1 or 2, wherein the classification unit determines characteristics of the tooth by image recognition processing on the image of the tooth.
  • [Form 4] The information processing apparatus according to mode 3, wherein the classification unit determines the feature of the tooth by comparing the feature that can be recognized from the image of the tooth with the feature indicated by the determination rule.
  • [Form 5] The information processing apparatus according to any one of aspects 2 to 4, further comprising: an image processing unit that performs predetermined image processing on the image and generates an image that is used when the generation unit generates the identification information.
  • [Mode 10] The information processing apparatus according to any one of aspects 1 to 8, further comprising a storage unit that stores at least the determination rule.
  • [Form 11] It is as the information processing method concerning the above-mentioned 2nd viewpoint.
  • [Form 12] The information processing method of the form 11 which further includes the production
  • [Form 13] The information processing method according to mode 11 or 12, wherein the classification step determines characteristics of the tooth by image recognition processing on the image of the tooth.
  • the classification step determines the feature of the tooth by comparing the feature that can be recognized from the image of the tooth and the feature indicated by the determination rule.
  • the program of the form 18 which performs the production
  • the classification process is a program of the form 18 or 19, wherein the characteristics of the tooth are determined by an image recognition process on the tooth image.
  • Tooth information output device 10
  • Tooth information collation device 13
  • Information processing device 101
  • Classification unit 102
  • Output unit 201
  • X-ray image input unit 202
  • Image processing unit 203 203
  • Identification information generation unit 204
  • Tooth feature classification unit 205
  • Dental Chart output unit 206 Storage units 301 to 318, 401 to 416 Tooth

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Epidemiology (AREA)
  • Business, Economics & Management (AREA)
  • Public Health (AREA)
  • Primary Health Care (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Human Resources & Organizations (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Strategic Management (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Quality & Reliability (AREA)
  • General Business, Economics & Management (AREA)
  • Data Mining & Analysis (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Operations Research (AREA)
  • Tourism & Hospitality (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

 数万を超える犠牲者がでる災害が発生した場合には、歯科医によるデンタルチャートの作成には限界がある。専門的な知識や技術を必要とせず、歯牙に関する情報を自動的に生成し、出力する情報処理装置を提供する。情報処理装置は、分類部と、出力部と、を備えている。分類部は、画像中の歯牙の特徴を判定規則に従って分類する。出力部は、分類された歯牙の特徴と、画像中の歯牙を識別するための識別情報と、を対応付けた情報を出力する。

Description

情報処理装置、情報処理方法、プログラム及び身元確認システム
 (関連出願についての記載)
 本発明は、日本国特許出願:特願2014-058231号(2014年03月20日出願)の優先権主張に基づくものであり、同出願の全記載内容は引用をもって本書に組み込み記載されているものとする。
 本発明は、情報処理装置、情報処理方法、プログラム及び身元確認システムに関する。特に、歯牙に関する情報を出力する情報処理装置、情報処理方法、プログラム及び身元確認システムに関する。
 大規模災害や事故等により多数の犠牲者がでることがある。そのような場合に、犠牲者の身元を迅速に確認し、遺体を遺族に帰すことが望まれる。遺体の顔や衣服等から身元が確定できる場合も多いが、災害発生から時間が経過すると共にこのような情報から遺体の身元を確定することが難しくなっていく。そこで、遺体から指紋、歯牙、DNA(Deoxyribonucleic Acid)等の生体情報を収集し、これらの生体情報と同種の情報であって生前に取得された生体情報と照合することで、遺体の身元を確認する作業が必要となる。
 これらの生体情報のうち、歯牙に関する情報は遺体の身元を確定する際の有力な情報となっている。その理由は、以下のとおりである。
 指紋は、個人を一意に識別可能であり、識別性に優れるものであるが、時間の経過と共に消滅していき、遺体の損傷に対する耐性が低い。対して、歯牙の状態は時間が経過したとしても変質し難く、遺体の損傷に対する耐性が高い。そのため、災害発生から長時間経過しても、歯牙に関する情報は識別情報としての価値が維持される。
 DNAも損傷に対する耐性が高い情報である。しかし、生前にDNA鑑定が行われ、その情報が保管されていることは希であると考えられる。対して、歯牙に関する情報は、故人が生前に歯科医の診察を受けていれば、各歯科医院に保管されている情報である。そのため、歯牙に関する情報の入手は比較的容易であるといえる。
 特許文献1において、身元不明者の候補者に関する絞り込みを迅速且つ効率的に行うことを可能とする身元確認支援方法が開示されている。特許文献1では、各歯科医院から審査機関に提出される診療報酬請求書(レセプト)から患者ごとのデンタルチャートを導出し、蓄積されたデンタルチャートの中から、身元不明者の候補者を絞込むことが開示されている。
特開2011-107827号公報
 なお、上記先行技術文献の開示を、本書に引用をもって繰り込むものとする。以下の分析は、本発明者らによってなされたものである。
 上述のように、災害の発生により犠牲者がでた場合に、遺体から取得した歯牙に関する情報は身元確認の有力な情報として活用できる。具体的には、歯科医が専門的な知見に基づき、遺体の歯牙の有無や治療痕に関する情報を含むデンタルチャートと呼ばれるデータを作成する。このデンタルチャートと、各歯科医院から収集したデータと、を照合することで遺体の身元確認が行える。
 ここで、犠牲者が少なければ、歯科医が遺体からデンタルチャートを作成することは比較的容易である。しかしながら、数万を超える犠牲者がでるような大規模災害の発生時に、多くの遺体から歯科医が手作業でデンタルチャートを作成することは極めて困難となる。
 以上の状況を鑑み、本発明は、歯牙に関する情報を自動的に生成し、出力することに寄与する情報処理装置、情報処理方法、プログラム及び身元確認システムを提供することを目的とする。
 本発明の第1の視点によれば、画像中の歯牙の特徴を判定規則に従って分類する分類部と、前記分類された歯牙の特徴と、前記画像中の歯牙を識別するための識別情報と、を対応付けた情報を出力する出力部と、を備える、情報処理装置が提供される。
 本発明の第2の視点によれば、画像中の歯牙の特徴を判定規則に従って分類する分類工程と、前記分類された歯牙の特徴と、前記画像中の歯牙を識別するための識別情報と、を対応付けた情報を出力する出力工程と、を含む、情報処理方法が提供される。
 本発明の第3の視点によれば、画像中の歯牙の特徴を判定規則に従って分類する分類処理と、前記分類された歯牙の特徴と、前記画像中の歯牙を識別するための識別情報とを対応付けた情報を出力する出力処理と、を情報処理装置を制御するコンピュータに実行させるプログラムが提供される。
なお、このプログラムは、コンピュータが読み取り可能な記憶媒体に記録することができる。記憶媒体は、半導体メモリ、ハードディスク、磁気記録媒体、光記録媒体等の非トランジェント(non-transient)なものとすることができる。本発明は、コンピュータプログラム製品として具現することも可能である。
 本発明の第4の視点によれば、画像中の歯牙を識別するための識別情報を生成する生成部と、前記歯牙の特徴を判定規則に従って分類する分類部と、前記分類された歯牙の特徴と前記識別情報とを対応付けた情報を出力する出力部と、を備える、第1及び第2の歯牙情報出力装置と、前記第2の歯牙情報出力装置が出力する情報を蓄積するデータベースと、前記第1の歯牙情報出力装置が出力する情報と、前記データベースに蓄積された情報と、を照合する歯牙情報照合装置と、を含み、前記第2の歯牙情報出力装置は、前記画像が取得された人物を識別する識別子を併せて出力し、前記第1の歯牙情報出力装置は、前記画像が取得された身元不明者を識別する識別子を併せて出力し、前記歯牙情報照合装置は、前記第1及び第2の歯牙情報出力装置が出力する情報が一致する場合に、前記第2の歯牙情報出力装置が出力する識別子から身元不明者に関する情報を出力する、身元確認システムが提供される。
 本発明の各視点によれば、歯牙に関する情報を自動的に生成し、出力することに寄与する情報処理装置、情報処理方法、プログラム及び身元確認システムが、提供される。
一実施形態の概要を説明するための図である。 第1の実施形態に係る身元確認システムの構成例の一例を示す図である。 歯牙情報出力装置の内部構成の一例を示す図である。 口腔全体のパノラマX線画像の一例である。 図4に示すパノラマX線画像に対してエッジ検出処理を施すことで得られる歯牙画像の一例である。 図5に含まれる各歯牙と識別情報を対応付けた情報の一例である。 歯牙特徴分類部が使用する判定規則の一例を示す図である。 歯牙の特徴を判定する際に使用する判定規則を説明するための図である。 歯牙画像に含まれる各歯牙の特徴を分類し、その特徴を歯牙識別情報に反映した結果の一例を示す図である。 歯牙情報出力装置が出力するデンタルチャートの一例を示す図である。 歯牙情報出力装置が出力するデンタルチャートの一例を示す図である。 歯牙情報出力装置の動作の一例を示すフローチャートである。 身元確認システムの動作の一例を示すシーケンス図である。 第2の実施形態に係る歯牙情報出力装置の内部構成の一例を示す図である。 パノラマX線画像に対してエッジ検出処理を施した後の歯牙画像の一例である。 識別情報生成部の動作の一例を示すフローチャートである。 識別情報生成部が生成する歯牙識別情報と付帯情報の一例を示す図である。
 初めに、図1を用いて一実施形態の概要について説明する。なお、この概要に付記した図面参照符号は、理解を助けるための一例として各要素に便宜上付記したものであり、この概要の記載はなんらの限定を意図するものではない。
 上述のように、数万を超える犠牲者がでる災害が発生した場合には、歯科医によるデンタルチャートの作成には限界がある。そのため、専門的な知識や技術を必要とせず、デンタルチャートを自動的に生成し、出力する情報処理装置が望まれる。
 そこで、一例として図1に示す情報処理装置100を提供する。情報処理装置100は、分類部101と、出力部102と、を備えている。分類部101は、画像中の歯牙の特徴を判定規則に従って分類する。出力部102は、分類された歯牙の特徴と、画像中の歯牙を識別するための識別情報と、を対応付けた情報を出力する。
 情報処理装置100は、歯牙が映る画像(例えば、X線画像)に対して、画像認識処理等を施すことで当該歯牙の特徴を認識し、認識された特徴と判定規則を照合することで、当該歯牙の特徴を複数の分類に分ける。情報処理装置100は、画像中の各歯牙を識別するための識別情報と、各歯牙の持つ特徴と、を対応付けた情報をデンタルチャートとして生成し、出力する。このように、情報処理装置100は、歯牙が映る画像の人物に対応するデンタルチャートを自動的に生成し、出力することができる。
 以下に具体的な実施の形態について、図面を参照してさらに詳しく説明する。
[第1の実施形態]
 第1の実施形態について、図面を用いてより詳細に説明する。
 図2は、第1の実施形態に係る身元確認システムの構成例の一例を示す図である。第1の実施形態に係る身元確認システムは、歯牙情報出力装置10及び11と、歯牙情報照合装置12と、データベース13と、を含んで構成される。図2に示す各装置は、図示しないネットワーク等により接続されており、相互に通信可能に構成される。
 歯牙情報出力装置10は、大規模災害等により身元が不明となった遺体を安置する遺体安置所等にて使用される装置である。遺体安置所において、作業者が遺体から撮影したX線画像(所謂、レントゲン写真)を歯牙情報出力装置10に入力する。歯牙情報出力装置10は、入力されたX線画像に基づいて当該X線画像が撮影された遺体に対応するデンタルチャート(歯牙に関する情報)を生成し、歯牙情報照合装置12に出力(送信)する。
 歯牙情報出力装置11は、歯科医院等に設置される装置である。歯科医や看護師等は、患者を治療した際に撮影したX線画像を歯牙情報出力装置11に入力する。歯牙情報出力装置11は、入力されたX線画像に基づいて治療を受けた患者に対応するデンタルチャートを生成し、データベース13に出力(送信)する。なお、歯牙情報出力装置10及び11は、入力されたX線画像に基づいてデンタルチャートを生成し、他の装置に出力するという点において、同一の機能及び構成を備えるものとする。そのため、以降に説明する歯牙情報出力装置10及び11の重複する機能及び構成については、その説明を省略する。
 歯牙情報照合装置12は、歯牙情報出力装置10から受信したデンタルチャートと、データベース13に蓄積されたデンタルチャートと、を照合することで、遺体の身元を確認するために必要な情報を出力する。具体的には、歯牙情報照合装置12は、データベース13に蓄積されたデンタルチャートを検索し、遺体から生成したデンタルチャートに記載された歯牙の特徴と同一の特徴を有するデンタルチャートの有無を調べる。検索した結果、歯牙の特徴が一致する(歯牙の特徴が実質的に一致する)デンタルチャートが存在する場合に、歯牙情報照合装置12は、当該検索されたデンタルチャートに対応する人物と、遺体安置所にてX線画像が取得された遺体と、が同一人物であると判定する。その後、歯牙情報照合装置12は、上記の検索されたデンタルチャートに記載された氏名、住所等の情報を、身元不明者に関する情報として出力する。
 なお、生前に生成されデータベース13に蓄積されたデンタルチャートと、遺体から生成されたデンタルチャートは、同一人物から取得したものであっても必ずしも一致するとは限らない。例えば、故人が生前に歯科医院にて治療を受けてから長時間経過した後に被災し身元不明者となった場合や、遺体の損傷が激しい場合には、上記2つのデンタルチャートが一致しないことがある。そのため、歯牙情報照合装置12は遺体の身元として考え得る複数の候補を算出し、出力することが望ましい。
 あるいは、特許文献1が開示するように、各歯牙の特徴に重み付けを行い遺体から取得したデンタルチャートとデータベース13に蓄積されたデンタルチャートの照合の精度を高めるようにしてもよい。
 データベース13は、歯牙情報出力装置11が生成したデンタルチャートを記憶するための手段である。なお、歯牙情報出力装置10と歯牙情報出力装置11が出力するデンタルチャートに関する説明は後述する。
 図3は、歯牙情報出力装置10の内部構成の一例を示す図である。図3を参照すると、歯牙情報出力装置10は、X線画像入力部201と、画像処理部202と、識別情報生成部203と、歯牙特徴分類部204と、デンタルチャート出力部205と、各種の情報を記憶する記憶部206と、を含んで構成される。
 図3に示す画像処理部202等の各部は、歯牙情報出力装置10に搭載されたコンピュータに、そのハードウェアを用いて、後に詳述する各部の機能に相当する処理を実行させるコンピュータプログラムにより実現することもできる。即ち、歯牙情報出力装置10には、画像処理部202等が行う機能を何らかのハードウェア、及び/又は、ソフトウェアで実行する手段があればよい。
 X線画像入力部201は、遺体安置所や歯科医等にて口腔内を撮影したX線画像を入力する手段である。より具体的には、X線画像入力部201は、図4に示すような口腔全体が、1枚のX線写真として撮影されたパノラマX線画像を入力する。
 パノラマX線画像を出力するX線撮影装置がデジタル化されたデータを出力する場合には、作業者は、USB(Universal Serial Bus)メモリ等を用いてデジタル化されたX線画像をX線画像入力部201に入力する。一方、X線撮影装置がデジタル化されたX線画像(パノラマX線画像)を出力しない場合には、作業者は、スキャナ等によりX線画像をデジタル化した上で、X線画像を歯牙情報出力装置10に入力する。あるいは、歯牙情報出力装置10にスキャナ機能を内蔵させ、入力されたX線画像をデジタル化してもよい。X線画像入力部201は、取得したX線画像(パノラマX線画像)を画像処理部202に引き渡す。
 画像処理部202は、X線画像に対して画像処理を施し、識別情報生成部203がX線画像に含まれる各歯牙を識別するための識別情報を生成する際に使用する画像を生成する手段である。より具体的には、画像処理部202は、取得したX線画像に対して歯牙のエッジを検出するエッジ検出処理(又は、輪郭検出処理)を施すことで、X線画像を歯牙の画像を抽出した画像とそれ以外の画像とに分離する。なお、X線画像に含まれる画像から各歯牙の画像を抽出した画像を歯牙画像と表記し、以降の説明を行う。
 上述のように、画像処理部202はX線画像入力部201から取得したX線画像に含まれる各歯牙の画像を抽出する。図5は、図4に示すパノラマX線画像に対してエッジ検出処理を施すことで得られる歯牙画像の一例である。
 画像処理部202は、生成した歯牙画像を識別情報生成部203に引き渡す。なお、上述のように、歯牙情報出力装置10は遺体から撮影したX線画像を取り扱う装置であるため、入力されるX線画像には多くのノイズ成分が含まれることがある。そこで、画像処理部202は、各種のノイズ除去処理を施した後に歯牙画像を抽出してもよい。
 識別情報生成部203は、歯牙画像に含まれる各歯牙を識別するための識別情報を生成する手段である。より具体的には、識別情報生成部203は、歯牙画像に含まれる各歯牙の位置及び形状から各歯牙の名称を特定することで、各歯牙の識別情報を生成する。
 ここで、成人であれば、男女、人種の区別なく歯牙の相対的な位置及び形状は一致すると考えられている。そのため、記憶部206には、識別情報生成部203が歯牙画像に含まれる各歯牙の名称を特定していく際に参照するリファレンス画像を記憶しておくことが望ましい。例えば、典型的な歯並びをした人物のパノラマX線画像に含まれる各歯牙の画像をリファレンス画像として記憶部206に記憶し、歯牙画像に含まれる歯牙の形状とリファレンス画像の形状を比較することで、各歯牙の名称に関する特定を効率的に行うことができる。
 図5を参照すると、歯牙301は、上顎右側の最奥に位置する。従って、歯牙301は上顎右側の第三大臼歯ではないかと推察される。そこで、識別情報生成部203は、歯牙301の形状と、上顎右側の第三大臼歯に係るリファレンス画像の形状と、を比較する。比較の結果、両者の形状が一致すれば、歯牙301の名称は上顎右側の第三大臼歯と特定される。同様に、歯牙302は、第三大臼歯に隣接すると共に、その根が二股となっている。従って、根が二股となっている第二大臼歯のリファレンス画像の形状と、歯牙302の形状と、を比較すると、両者は一致するので、歯牙302の名称は上顎右側の第二大臼歯と特定される。
 一部の歯牙が欠損している場合も考えられる。例えば、図5において、上顎右側の第二大臼歯(歯牙302)が欠損している場合を考える。この場合、歯牙画像における上顎右側の最奥から2番目に位置には歯牙が存在しない。このような場合に、識別情報生成部203は、上顎右側の第二大臼歯が欠損していると特定する。あるいは、歯牙画像に含まれる歯牙の形状と、対応する歯牙のリファレンス画像の形状と、が一致しない場合もあり得る。このような場合には、識別情報生成部203は、当該歯牙の名称は特定できない旨の決定をする。
 以上のように、識別情報生成部203は、歯牙画像に含まれる各歯牙の位置、形状から、各歯牙の名称を一本ずつ特定し、識別情報を生成する。さらに、識別情報生成部203は、歯牙画像に含まれる各歯牙と、当該歯牙の識別情報と、を対応付けた情報を生成する。図6は、図5に含まれる各歯牙と識別情報を対応付けた情報の一例である。なお、以降の説明において、識別情報生成部203が生成する画像中の各歯牙とその識別情報を対応付けた情報を、歯牙識別情報と表記する。
 識別情報生成部203は、画像処理部202から取得した歯牙画像と、生成した歯牙識別情報(具体的には、図6に例示する情報)と、を歯牙特徴分類部204に引き渡す。
 歯牙特徴分類部204は、識別情報生成部203により識別された歯牙の特徴を判定規則に従って分類する手段である。より具体的には、歯牙特徴分類部204は、名称が特定された歯牙の画像に対して画像認識処理を施し、名称が特定された歯牙の持つ特徴を認識する。さらに、歯牙特徴分類部204は、認識された歯牙の各特徴と、判定規則に示される特徴と、を比較することで歯牙画像に含まれる歯牙の特徴を分類していく。
 例えば、図5に示す歯牙301に対して、画像認識処理を施すと、歯牙特徴分類部204は、当該歯牙301の全体の色は灰色であると認識する。また、記憶部206には、図7に図示するような判定規則が記憶されている。歯牙特徴分類部204は、歯牙全体の色が灰色という特徴が、判定規則に定義されているか否かを検索する。検索の結果、歯牙特徴分類部204は、歯牙全体の色が灰色という特徴は、特徴1に割り当てられていることが分かる。即ち、歯牙特徴分類部204は、歯牙301の特徴を特徴1(健全歯又はC1~C3)に分類する。
 なお、特徴1の詳細に示すC1~C3は、虫歯(う蝕)の程度を表すものであり、C1は浅い虫歯を意味し、C3は神経にまで進行した深い虫歯であるあることを示す。虫歯の分類はC4まで存在し、C4は根だけが残る残根状態である。そのため、C4にまで虫歯が進行した歯牙のX線画像は歯牙全体が灰色とはならず、特徴1とはならない。
 また、図8(a)に示すように、歯牙全体に対する白色の面積が所定値(予め定めた閾値)以下である場合には、当該歯牙は特徴2に分類される。特徴2は、当該歯牙は、金属を用いて部分修復されていることを示す。また、歯牙の上部(先端部)の色が薄い白色である場合には、当該歯牙は特徴3に分類される。特徴3は、当該歯牙が歯冠色の被せもの(クラウン)の処置が施されていることを示す。さらに、図8(b)に示すように、歯牙の全体が白色であれば、当該歯牙は特徴4に分類される。特徴4は、当該歯牙は、金属を用いて全部修復されていることを示す。さらにまた、図8(c)に示すように、歯牙と歯牙の間に線状の白色領域が存在すれば、当該歯牙にはブリッジが施されていると判断され、当該歯牙の特徴は特徴6に分類される。
 さらに、図8(d)に示すように、歯冠から歯根に向かう白色の線が存在すれば、当該歯牙には根管充填が施されていると判断され、当該歯牙の特徴は特徴7に分類される。なお、根管充填とは、歯髄(所謂、神経)を抜いた後の歯牙の根管を根管充填材により、封鎖する治療方法である。
 また、図8(e)に示すように、歯牙の根が白色であれば、当該歯牙はインプラントによるものと考えられ、当該歯牙は特徴9に分類される。また、本来歯牙があるべき箇所に歯牙がなければ、当該歯牙は欠損であって、当該歯牙の特徴には特徴8が与えられる。なお、歯牙が欠損しているか否かの特徴付けは、識別情報生成部203において実施されてもよいし、歯牙特徴分類部204において実施されてもよい。さらに、歯牙の位置が他の歯牙の位置に比べて低い場合には、当該歯牙は半埋伏と判定され、その特徴は特徴10に分類される。
 このように、歯牙特徴分類部204は、歯牙画像に含まれる各歯牙の特徴を判定規則に従って分類する。歯牙特徴分類部204は、歯牙画像に含まれる各歯牙の特徴を分類した結果を、識別情報生成部203から取得した歯牙識別情報と併せてデンタルチャート出力部205に引き渡す。
 デンタルチャート出力部205は、分類された歯牙の特徴と識別情報とを対応付けた情報を出力する手段である。デンタルチャート出力部205は、識別情報生成部203が生成した歯牙識別情報に各歯牙の特徴を反映する。図9は、歯牙画像に含まれる各歯牙の特徴を分類し、その特徴を歯牙識別情報に反映した結果の一例を示す図である。
 また、デンタルチャート出力部205は、図9に示すような歯牙の特徴が反映された歯牙識別情報に、必要な情報を付加することでデンタルチャートを生成する。
 具体的には、歯牙情報出力装置10に含まれるデンタルチャート出力部205は、図9に示す情報に、X線画像を取得した遺体(身元不明者)を識別するための識別子を加え、当該遺体のデンタルチャートとする(図10参照)。また、歯牙情報出力装置11に含まれるデンタルチャート出力部205は、図9に示す情報に、X線画像を取得した患者を識別するための識別子を加え、当該患者のデンタルチャートとする(図11参照)。なお、図11に示すように、患者を識別するための識別子として、患者の氏名や住所等の個人情報が考えられる。
 デンタルチャート出力部205は、生成したデンタルチャートを、歯牙情報照合装置12又はデータベース13に向けて出力する。
 次に、歯牙情報出力装置10の動作について説明する。
 図12は、歯牙情報出力装置10の動作の一例を示すフローチャートである。
 ステップS01において、X線画像入力部201は、遺体又は患者のX線画像を受け付ける。
 ステップS02において、画像処理部202は、デジタル化されたX線画像(パノラマX線画像)に含まれる各歯牙の画像を抽出し、歯牙画像を生成する。
 ステップS03において、識別情報生成部203は、歯牙画像に含まれる各歯牙を識別するための識別情報を生成する。
 ステップS04において、歯牙特徴分類部204は、歯牙画像に含まれる各歯牙の特徴を予め定めた判定規則に従って分類する。
 ステップS05において、デンタルチャート出力部205は、判定規則に従って分類された歯牙の特徴が反映された歯牙識別情報に必要な情報(例えば、遺体の識別子又は患者の識別子)を付加し、デンタルチャートを生成する。その後、デンタルチャート出力部205は、生成したデンタルチャートを外部装置に出力する。
 次に、第1の実施形態に係る身元確認システムの動作について説明する。
 図13は、身元確認システムの動作の一例を示すシーケンス図である。
 身元確認システムでは、歯科医等は、患者を治療するたびにX線画像を歯牙情報出力装置11に入力する(ステップS11)。歯牙情報出力装置11は、入力されたX線画像から当該患者のデンタルチャートを生成し、データベース13に出力する(ステップS12)。データベース13は、受信したデンタルチャートをHDD(Hard Disk Drive)等の記憶媒体に記憶する。
 平時においては、上記の2つのステップS11とS12を繰り返し、歯科医にて治療を受けた患者の個人情報(例えば、氏名、住所等)と、当該患者の歯牙に関する情報と、を図11に示すデンタルチャートの形式にてデータベース13に蓄積する。
 次に、大規模災害等により、多数の身元不明者がでた場合を想定する。
 この場合には、遺体安置所にて、作業者が遺体からX線画像を撮影し、歯牙情報出力装置10に入力する(ステップS13)。歯牙情報出力装置10は、入力されたX線画像から当該遺体に対応するデンタルチャートを生成し、歯牙情報照合装置12に出力する(ステップS14)。歯牙情報照合装置12は、遺体のデンタルチャートに記載された歯牙の特徴と一致するデンタルチャートを、データベース13に蓄積されたデンタルチャートの中から検索する(ステップS15)。
 歯牙情報照合装置12は、歯牙の特徴が一致するデンタルチャートが存在すれば、検索されたデンタルチャートに記載された氏名等を、身元不明者に関する情報として出力する(ステップS16)。
 なお、第1の実施形態では、図2を参照して身元確認システムの説明を行ったが、身元確認システムの構成を図2の構成に限定する趣旨ではない。例えば、データベース13の機能が歯牙情報照合装置12に組み込まれていてもよい。あるいは、歯牙情報出力装置10及び11には、X線画像を受け付ける手段であるX線画像入力部201と、通信部(図示せず)を配し、歯牙情報出力装置10及び11からX線画像を歯牙情報照合装置12に送信する構成であってもよい。この場合には、歯牙情報照合装置12が歯牙情報出力装置10及び11の実質的な処理を実行する。
 また、身元確認システムに含まれる各装置の数に関しても、図2の構成に限定されない。例えば、複数の歯牙情報照合装置12や、複数のデータベース13が、身元確認システムに含まれていてもよい。例えば、複数のデータベース13が身元確認システムに含まれる場合には、歯科医院が存する地域ごとに各データベース13を割り当て、歯牙情報照合装置12は、遺体が発見された場所に応じてアクセスするデータベース13の優先順位を切り替える等の対応をしてもよい。
 さらに、データベース13に蓄積するデンタルチャートを生成する装置は、必ずしも歯牙情報出力装置11でなくともよい。具体的には、歯科医等が、患者を診察した際に作成したカルテやレセプトから図11に例示するようなデンタルチャートを作成し、データベース13に蓄積する構成であってもよい。
 さらにまた、歯牙情報出力装置10及び11に入力するX線画像は、所謂、レントゲン装置により撮影されたパノラマX線画像でなくともよい。具体的には、画像に対して画像処理を施すことで、歯牙の特徴が認識できる画像であればどのような形式の画像でもよい。例えば、CT(Computed Tomography)装置により撮影される口腔内の断層画像であってもよい。
 さらに、第1の実施形態では、画像処理部202用いて、入力されたX線画像から歯牙画像を抽出する場合について説明したが、入力されたX線画像の品質が高い場合には、画像処理部202における処理を省略することもできる。その場合には、識別情報生成部203は、図4に示すようなX線画像から直接、当該X線画像内の歯牙の識別情報を生成する。また、歯牙特徴分類部204も、図4に示すようなX線画像に対して画像認識処理を施すことで、当該X線画像に含まれる各歯牙の特徴を認識する。
 また、第1の実施形態では、識別情報生成部203を用いて、入力されたX線画像から識別情報を生成しているが、識別情報は外部から入力してもよい。具体的には、X線画像に映る各歯牙を識別する識別情報(例えば、画像中の歯牙の位置に応じた番号等)を作業者が生成し、X線画像と生成した識別情報をペアにして歯牙情報出力装置10又は11に入力してもよい。即ち、外部で生成した識別情報を歯牙情報出力装置10又は11に入力する場合には、識別情報生成部203を省略することもできる。
 さらにまた、第1の実施形態に係る識別情報生成部203は、画像中の歯牙を識別するための情報として、当該歯牙の名称を用いているが、識別情報を歯牙の名称に限定する趣旨ではない。例えば、図5に示すように、X線画像を上下左右の領域に分離し、各領域内での歯牙に対して予め番号を付与し、歯牙の名称に代えて当該番号を歯牙の識別情報としてもよい。
 さらにまた、識別情報生成部203は、歯牙画像に含まれる各歯牙の位置及び形状から、当該歯牙の識別情報を生成しているが、識別情報を歯牙の位置及び形状に基づいて生成することに限定する趣旨ではない。例えば、識別情報生成部203は、基準となる歯牙の識別情報を外部から入力し、当該基準となる歯牙からの相対的な位置に基づいて、各歯牙の識別情報を生成してもよい。具体的には、歯科医が図5に示すようなパノラマX線画像に含まれる歯牙301の名称を特定し、歯牙301の名称を歯牙情報出力装置10又は11に入力する。その結果、識別情報生成部203は、歯牙301は右側第三大臼歯と認識できるので、隣接する歯牙302の名称(識別情報)は右側第二大臼歯であると決めることができる。
 さらにまた、図7に示す判定規則は例示であって、歯牙特徴分類部204における歯牙の特徴に関する分類を限定する趣旨ではない。例えば、より詳細に判定規則を定義し、10個以上に歯牙の特徴を分類してもよい。あるいは、図7に示す判定規則よりもより粗い判定規則を定義してもよい。判定規則の設定は、デンタルチャートを用いた身元確認の精度や、デンタルチャートを生成する際に許容される時間等に応じて適宜選択するのが望ましい。
 さらにまた、X線画像に含まれる全ての歯牙に関し、識別情報を生成し、且つ、その特徴を判定規則に従って分類する必要もない。例えば、個人の識別力が高い歯牙に限り、その特徴を画像認識処理により認識し、判定規則に従った分類分けを行ってもよい。X線画像から特徴を算出する歯牙の数を絞り込むことで、デンタルチャート生成に要する時間を短縮できる。
 さらにまた、第1の実施形態では、それぞれの歯牙から1つの特徴を導き出し、デンタルチャートの生成に活用しているが、導き出す歯牙の特徴を1つに限定する趣旨ではない。例えば、ブリッジが施され(図7に例示する特徴6)、且つ、金属を用いた部分修復(図7に例示する特徴2)が行われている歯牙があれば、当該歯牙の特徴は特徴2及び特徴6としてもよい。
 さらにまた、第1の実施形態では、成人の口腔内のX線画像からデンタルチャートを生成する場合について説明したが、子どもの口腔内のX線画像からデンタルチャートを生成することもできる。より具体的には、幼少時の歯牙の本数は通常20本であるから、X線画像に映る20本の歯牙のそれぞれについて識別情報を生成し、且つ、その特徴を判定規則に従って分類できる。なお、成人してからの歯牙の状態は、幼少時の歯牙の状態から大きく変容していることが多い。そのため、幼少時に取得されたデンタルチャートに限りデータベース13に記憶されている場合には、成人後に被災し、身元不明者のデンタルチャートとして取得されたデンタルチャートから身元を特定することは困難なことが多い。しかし、乳歯が成人しても残っている場合や、幼少時に既に永久歯が存在する場合には、幼少時に取得されたデンタルチャートと、成人後に被災してから取得されたデンタルチャートと、を照合することで、遺体の身元を特定できる場合もある。
 さらにまた、同一人物が、異なる時期に同じ歯科医院又は異なる歯科医院で治療を受け、その都度、取得されたX線画像からデンタルチャートが生成されることが考えられる。つまり、同一人物に関する複数のデンタルチャートがデータベース13に記憶されていることが考えられる。このような場合には、歯牙情報照合装置12は、最も日付の新しいデンタルチャートと、遺体から取得したデンタルチャートと、を照合するのが望ましい。遺体の歯牙の状態に最も近いのは、データベース13に記憶されているデンタルチャートのうち最新のデンタルチャートだからである。
 なお、コンピュータの記憶部に、歯牙情報出力プログラムをインストールすることにより、コンピュータを歯牙情報出力装置として機能させることができる。また、歯牙情報出力プログラムをコンピュータに実行させることにより、コンピュータにより歯牙情報出力方法を実行することができる。
 以上のように、第1の実施形態に係る歯牙情報出力装置10は、口腔内を撮影したX線画像から歯牙に関する画像(歯牙画像)を抽出し、抽出した歯牙画像から各歯牙を識別するための識別情報を生成する。さらに、歯牙情報出力装置10は、歯牙画像に含まれる各歯牙の特徴を判定規則に従って分類し、当該歯牙の特徴を含むデンタルチャートを出力する。そのため、歯科医のような専門的な知見及び技術を有する者でなくとも、口腔の全体を撮影したX線画像を歯牙情報出力装置10に入力することで、デンタルチャートを自動的に生成することができる。デンタルチャートが自動的に生成できれば、大規模災害が発生し、多数の身元不明者がでたとしても、迅速にその身元が特定できる。
 ここで、歯牙情報出力装置10が出力するデンタルチャートのフォーマットと、歯牙情報出力装置11が出力するデンタルチャートのフォーマットと、が異なると、歯牙情報照合装置12における情報処理(デンタルチャートの照合処理)が困難になる。両者のフォーマットが異なると、コンピュータを利用した画一的な情報処理が難しいためである。対して、第1の実施形態に係る身元確認システムでは、歯牙情報出力装置10及び11が参照する判定規則を同一のものとし、少なくとも歯牙の特徴に関するフォーマットが統一されたデンタルチャートを出力している。その結果、歯科医等が、歯牙情報出力装置10が出力するデンタルチャートとデータベース13に蓄積されたデンタルチャートの比較を手作業にて行う必要がなく、迅速な身元確認の実現に寄与する。また、歯牙情報出力装置10及び11は、各歯牙の特徴を言語にて記述(例えば、第三大臼歯がC1の虫歯である等の記述)するのではなく、予め定めた分類に従い特定している。即ち、歯牙情報出力装置10及び11は、各歯牙の特徴を予め定めた分類によりコード化している。このことも、歯牙情報照合装置12における情報処理を容易し、迅速な身元確認の実現に寄与する。
[第2の実施形態]
 続いて、第2の実施形態について図面を参照して詳細に説明する。
 図14は、第2の実施形態に係る歯牙情報出力装置10aの内部構成の一例を示す図である。図14において図3と同一構成要素には、同一の符号を付し、その説明を省略する。歯牙情報出力装置10と10aの相違点は、識別情報生成部203aの動作、機能が異なる点である。
 第1の実施形態に係る識別情報生成部203は、歯牙画像に含まれる各歯牙の位置、形状に基づいて当該歯牙の名称を特定している。しかし、被災した際の衝撃等により、遺体の歯列が本来のものと異なる場合がある。例えば、図15に示すように、上顎右側の犬歯(歯牙317)と側切歯(歯牙318)が入れ替わっている歯牙画像が抽出されることも想定できる。
 このような場合に、歯牙画像に含まれる歯牙の位置や形状に基づいて、歯牙の名称を特定しようとすると、歯牙の名称を正しく特定できないことになる。即ち、歯牙が入れ替わっている場合には、歯牙画像に含まれる歯牙の名称が不明と特定され得る。このような歯牙特定情報に基づき生成されたデンタルチャートの信頼性は低下する。また、歯牙情報照合装置12において、このようなデンタルチャートを用いた照合では、精度よく遺体の身元を特定することが難しくなる。
 そこで、X線画像に映る歯牙の位置が本来の位置と異なる場合には、可能な限り本来の歯牙に関する情報を推定し、付帯情報としてデンタルチャートに含ませ、歯牙情報照合装置12での照合精度を高めることが望ましい。
 識別情報生成部203aの動作について説明する。
 図16は、識別情報生成部203aの動作の一例を示すフローチャートである。
 ステップS101において、識別情報生成部203aは、名称を特定しようとする歯牙の形状と、当該名称を特定しようとする歯牙の位置に相当するリファレンス画像の形状と、を比較する。両者が同じ種類の歯牙であるといえる程度に一致する場合(ステップS102、Yes分岐)には、識別情報生成部203aは名称を特定しようとする歯牙の名称は、当該歯牙の位置から導き出せる名称のとおりと確定する(ステップS103)。
 一方、両者が一致しない場合(ステップS102、No分岐)には、歯牙が入れ替わっている可能性がある。そこで、ステップS104において、識別情報生成部203aは、名称を決定しようとする歯牙の形状と、当該名称を特定しようとする歯牙に対応するリファレンス画像の左右に位置する歯牙のリファレンス画像の形状と、を比較する。
 比較した結果、左右いずれかのリファレンス画像の形状と一致する場合(ステップS105、Yes分岐)には、その一致したリファレンス画像に対応する歯牙の名称が、名称を特定しようとする歯牙の名称となる(ステップS106)。左右いずれかのリファレンス画像の形状と一致しなければ(ステップS105、No分岐)には、当該歯牙の名称は不明と決定される(ステップS107)。
 次に、上記した識別情報生成部203aの動作を、図15を参照しつつ、具体的に説明する。
 図15では、犬歯と側切歯が入れ替わっている。従って、歯牙317に位置する歯牙は、本来、犬歯の形状をもつ筈であるが、側切歯と入れ替わっているので、歯牙317の形状と犬歯のリファレンス画像を比較しても両者は一致しない。そこで、歯牙317の名称を特定する際、犬歯の形状でなければ、その左右に位置する歯牙のリファレンス画像(第一小臼歯、側切歯)の形状と比較する。比較した結果、歯牙317の形状は、側切歯のリファレンス画像に一致するので、歯牙317の名称は側切歯であると特定できる。
 図17は、識別情報生成部203aが生成する歯牙識別情報と付帯情報の一例を示す図である。図17に示すように、本来あるべき位置の歯牙が他の歯牙と入れ替わっていると推察される場合には、その内容を付帯情報として生成する。なお、図17においては、下顎に関する情報を図示していないが、下顎に関する情報も上顎と同様に生成する。識別情報生成部203aから識別情報とその付帯情報を取得した歯牙特徴分類部204は、第1の実施形態にて説明したように、歯牙画像に含まれる各歯牙の特徴を分類し、その結果をデンタルチャート出力部205に引き渡す。
 以上のように、第2の実施形態に係る歯牙情報出力装置10aでは、歯牙画像に映る歯牙の位置が本来の位置とは異なる場合に、その詳細を付帯情報としてデンタルチャートに付して、歯牙情報照合装置12に出力する。歯牙情報照合装置12では、付帯情報を適宜参考にすることで、より精度の高いデンタルチャートの照合が行える。
 上記の実施形態の一部又は全部は、以下の形態のようにも記載され得るが、以下には限られない。
[形態1]
 上述の第1の視点に係る情報処理装置のとおりである。
[形態2]
 前記画像から前記識別情報を生成する生成部をさらに備える形態1の情報処理装置。
[形態3]
 前記分類部は、前記歯牙の画像に対する画像認識処理により、前記歯牙の持つ特徴を定める形態1又は2の情報処理装置。
[形態4]
 前記分類部は、前記歯牙の画像から認識できる特徴と、前記判定規則に示される特徴と、を比較することで、前記歯牙の特徴を定める形態3の情報処理装置。
[形態5]
 前記画像に所定の画像処理を施し、前記生成部が前記識別情報を生成する際に使用する画像を生成する画像処理部をさらに備える形態2乃至4のいずれか一に記載の情報処理装置。
[形態6]
 前記出力部は、前記画像が遺体から取得した画像である場合には、前記遺体を識別する識別子を、出力する情報に含ませる、形態1乃至5のいずれか一に記載の情報処理装置。
[形態7]
 前記出力部は、前記画像が患者から取得した画像である場合には、前記患者を識別する識別子を、出力する情報に含ませる、形態1乃至5のいずれか一に記載の情報処理装置。
[形態8]
 前記生成部は、前記識別情報を生成する際に得られる情報を、前記出力部から出力する情報に含ませる付帯情報として生成する形態2乃至7のいずれか一に記載の情報処理装置。
[形態9]
 前記画像は、X線画像である形態1乃至8のいずれか一に記載の情報処理装置。
[形態10]
 少なくとも前記判定規則を記憶する記憶部をさらに備える形態1乃至8のいずれか一に記載の情報処理装置。
[形態11]
 上述の第2の視点に係る情報処理方法のとおりである。
[形態12]
 前記画像から前記識別情報を生成する生成工程をさらに含む形態11の情報処理方法。
[形態13]
 前記分類工程は、前記歯牙の画像に対する画像認識処理により、前記歯牙の持つ特徴を定める形態11又は12の情報処理方法。
[形態14]
 前記分類工程は、前記歯牙の画像から認識できる特徴と、前記判定規則に示される特徴と、を比較することで、前記歯牙の特徴を定める形態13の情報処理方法。
[形態15]
 前記画像に所定の画像処理を施し、前記生成工程が前記識別情報を生成する際に使用する画像を生成する画像処理工程をさらに含む形態12乃至14のいずれか一に記載の情報処理方法。
[形態16]
 前記出力工程は、前記画像が遺体から取得した画像である場合には、前記遺体を識別する識別子を、出力する情報に含ませる、形態11乃至15のいずれか一に記載の情報処理方法。
[形態17]
 前記出力工程は、前記画像が患者から取得した画像である場合には、前記患者を識別する識別子を、出力する情報に含ませる、形態11乃至15のいずれか一に記載の情報処理方法。
[形態18]
 上述の第3の視点に係るプログラムのとおりである。
[形態19]
 前記画像から前記識別情報を生成する生成処理を実行させる形態18のプログラム。
[形態20]
 前記分類処理は、前記歯牙の画像に対する画像認識処理により、前記歯牙の持つ特徴を定める形態18又は19のプログラム。
[形態21]
 前記分類処理は、前記歯牙の画像から認識できる特徴と、前記判定規則に示される特徴と、を比較することで、前記歯牙の特徴を定める形態20のプログラム。
[形態22]
 前記画像に所定の画像処理を施し、前記生成処理が前記識別情報を生成する際に使用する画像を生成する画像処理をさらに実行させる形態19乃至21のいずれか一に記載のプログラム。
[形態23]
 前記出力処理は、前記画像が遺体から取得した画像である場合には、前記遺体を識別する識別子を、出力する情報に含ませる、形態18乃至22のいずれか一に記載のプログラム。
[形態24]
 前記出力処理は、前記画像が患者から取得した画像である場合には、前記患者を識別する識別子を、出力する情報に含ませる、形態18乃至22のいずれか一に記載のプログラム。
[形態25]
 上述の第4の視点に係る身元確認システムのとおりである。
 なお、形態25の身元確認システムは、形態1の形態と同様に、形態2~形態10の形態に展開することが可能である。
 なお、引用した上記の特許文献の開示は、本書に引用をもって繰り込むものとする。本発明の全開示(請求の範囲を含む)の枠内において、さらにその基本的技術思想に基づいて、実施形態ないし実施例の変更・調整が可能である。また、本発明の全開示の枠内において種々の開示要素(各請求項の各要素、各実施形態ないし実施例の各要素、各図面の各要素等を含む)の多様な組み合わせ、ないし、選択が可能である。すなわち、本発明は、請求の範囲を含む全開示、技術的思想にしたがって当業者であればなし得るであろう各種変形、修正を含むことは勿論である。特に、本書に記載した数値範囲については、当該範囲内に含まれる任意の数値ないし小範囲が、別段の記載のない場合でも具体的に記載されているものと解釈されるべきである。
10、10a、11 歯牙情報出力装置
12 歯牙情報照合装置
13 データベース
100 情報処理装置
101 分類部
102 出力部
201 X線画像入力部
202 画像処理部
203、203a 識別情報生成部
204 歯牙特徴分類部
205 デンタルチャート出力部
206 記憶部
301~318、401~416 歯牙

Claims (11)

  1.  画像中の歯牙の特徴を判定規則に従って分類する分類部と、
     前記分類された歯牙の特徴と、前記画像中の歯牙を識別するための識別情報と、を対応付けた情報を出力する出力部と、
     を備える、情報処理装置。
  2.  前記画像から前記識別情報を生成する生成部をさらに備える請求項1の情報処理装置。
  3.  前記分類部は、前記歯牙の画像に対する画像認識処理により、前記歯牙の持つ特徴を定める請求項1又は2の情報処理装置。
  4.  前記分類部は、前記歯牙の画像から認識できる特徴と、前記判定規則に示される特徴と、を比較することで、前記歯牙の特徴を定める請求項3の情報処理装置。
  5.  前記画像に所定の画像処理を施し、前記生成部が前記識別情報を生成する際に使用する画像を生成する画像処理部をさらに備える請求項2乃至4のいずれか一項に記載の情報処理装置。
  6.  前記出力部は、前記画像が遺体から取得した画像である場合には、前記遺体を識別する識別子を、出力する情報に含ませる、請求項1乃至5のいずれか一項に記載の情報処理装置。
  7.  前記出力部は、前記画像が患者から取得した画像である場合には、前記患者を識別する識別子を、出力する情報に含ませる、請求項1乃至5のいずれか一項に記載の情報処理装置。
  8.  前記生成部は、前記識別情報を生成する際に得られる情報を、前記出力部から出力する情報に含ませる付帯情報として生成する請求項2乃至7のいずれか一項に記載の情報処理装置。
  9.  画像中の歯牙の特徴を判定規則に従って分類する分類工程と、
     前記分類された歯牙の特徴と、前記画像中の歯牙を識別するための識別情報と、を対応付けた情報を出力する出力工程と、
     を含む、情報処理方法。
  10.  画像中の歯牙の特徴を判定規則に従って分類する分類処理と、
     前記分類された歯牙の特徴と、前記画像中の歯牙を識別するための識別情報とを対応付けた情報を出力する出力処理と、
     を情報処理装置を制御するコンピュータに実行させるプログラム。
  11.  画像中の歯牙を識別するための識別情報を生成する生成部と、
     前記歯牙の特徴を判定規則に従って分類する分類部と、
     前記分類された歯牙の特徴と前記識別情報とを対応付けた情報を出力する出力部と、
     を備える、第1及び第2の歯牙情報出力装置と、
     前記第2の歯牙情報出力装置が出力する情報を蓄積するデータベースと、
     前記第1の歯牙情報出力装置が出力する情報と、前記データベースに蓄積された情報と、を照合する歯牙情報照合装置と、
     を含み、
     前記第2の歯牙情報出力装置は、前記画像が取得された人物を識別する識別子を併せて出力し、
     前記第1の歯牙情報出力装置は、前記画像が取得された身元不明者を識別する識別子を併せて出力し、
     前記歯牙情報照合装置は、前記第1及び第2の歯牙情報出力装置が出力する情報が一致する場合に、前記第2の歯牙情報出力装置が出力する識別子から身元不明者に関する情報を出力する、身元確認システム。
PCT/JP2015/058161 2014-03-20 2015-03-19 情報処理装置、情報処理方法、プログラム及び身元確認システム WO2015141760A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016508779A JP6274681B2 (ja) 2014-03-20 2015-03-19 情報処理装置、情報処理方法、プログラム及び身元確認システム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-058231 2014-03-20
JP2014058231 2014-03-20

Publications (1)

Publication Number Publication Date
WO2015141760A1 true WO2015141760A1 (ja) 2015-09-24

Family

ID=54144722

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/058161 WO2015141760A1 (ja) 2014-03-20 2015-03-19 情報処理装置、情報処理方法、プログラム及び身元確認システム

Country Status (2)

Country Link
JP (1) JP6274681B2 (ja)
WO (1) WO2015141760A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3386378A4 (en) * 2015-12-10 2019-09-25 3M Innovative Properties Company METHOD FOR THE AUTOMATIC DENTAL IDENTIFICATION OF 3D SENSATIONS
JP2020052489A (ja) * 2018-09-25 2020-04-02 剛 亀田 個体識別装置、個体識別システム及びプログラム
JP2020516335A (ja) * 2017-03-17 2020-06-11 トロフィー 動的歯列弓マップ
JP2020108598A (ja) * 2019-01-04 2020-07-16 株式会社DSi 識別システム
JP2021045277A (ja) * 2019-09-17 2021-03-25 株式会社DSi 技工物識別システム
JP2022120143A (ja) * 2015-11-18 2022-08-17 グローバル スペシメン ソリューションズ, インコーポレイテッド ヒト標本研究のための情報に基づく同意データの体系化、追跡、および使用のための方法およびシステム
JP7489901B2 (ja) 2020-11-10 2024-05-24 株式会社Nttドコモ 認証システム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002095651A (ja) * 2000-09-26 2002-04-02 Babcock Hitachi Kk 歯科情報を使用した個人識別方法及び個人識別システム
JP2003167957A (ja) * 2001-12-04 2003-06-13 Hitachi Ltd 医療情報管理方法及び医療情報管理システム
JP2004209244A (ja) * 2002-12-28 2004-07-29 Samsung Electronics Co Ltd 歯牙映像からの歯牙領域の抽出方法及び歯牙映像を利用した身元確認方法及び装置
JP2008228818A (ja) * 2007-03-16 2008-10-02 Olympus Corp 輪郭検出装置および輪郭検出方法ならびにそのプログラム
JP2014013563A (ja) * 2012-06-06 2014-01-23 Tomoyuki Kameda 身元確認支援システム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08287126A (ja) * 1995-04-14 1996-11-01 Nikon Corp 歯牙形状比較装置及び歯牙形状比較方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002095651A (ja) * 2000-09-26 2002-04-02 Babcock Hitachi Kk 歯科情報を使用した個人識別方法及び個人識別システム
JP2003167957A (ja) * 2001-12-04 2003-06-13 Hitachi Ltd 医療情報管理方法及び医療情報管理システム
JP2004209244A (ja) * 2002-12-28 2004-07-29 Samsung Electronics Co Ltd 歯牙映像からの歯牙領域の抽出方法及び歯牙映像を利用した身元確認方法及び装置
JP2008228818A (ja) * 2007-03-16 2008-10-02 Olympus Corp 輪郭検出装置および輪郭検出方法ならびにそのプログラム
JP2014013563A (ja) * 2012-06-06 2014-01-23 Tomoyuki Kameda 身元確認支援システム

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7472197B2 (ja) 2015-11-18 2024-04-22 グローバル スペシメン ソリューションズ, インコーポレイテッド ヒト標本研究のための情報に基づく同意データの体系化、追跡、および使用のための方法およびシステム
JP2022120143A (ja) * 2015-11-18 2022-08-17 グローバル スペシメン ソリューションズ, インコーポレイテッド ヒト標本研究のための情報に基づく同意データの体系化、追跡、および使用のための方法およびシステム
EP3386378A4 (en) * 2015-12-10 2019-09-25 3M Innovative Properties Company METHOD FOR THE AUTOMATIC DENTAL IDENTIFICATION OF 3D SENSATIONS
US10916008B2 (en) 2015-12-10 2021-02-09 3M Innovative Properties Company Method for automatic tooth type recognition from 3D scans
JP7254025B2 (ja) 2017-03-17 2023-04-07 トロフィー エスアーエス 動的歯列弓マップ
JP2020516335A (ja) * 2017-03-17 2020-06-11 トロフィー 動的歯列弓マップ
JP2020052489A (ja) * 2018-09-25 2020-04-02 剛 亀田 個体識別装置、個体識別システム及びプログラム
JP7185979B2 (ja) 2018-09-25 2022-12-08 剛 亀田 個体識別装置、個体識別システム及びプログラム
JP2020108598A (ja) * 2019-01-04 2020-07-16 株式会社DSi 識別システム
JP7276763B2 (ja) 2019-01-04 2023-05-18 株式会社DSi 識別システム
JP2021045277A (ja) * 2019-09-17 2021-03-25 株式会社DSi 技工物識別システム
JP7479002B2 (ja) 2019-09-17 2024-05-08 株式会社DSi 技工物識別システム
JP7489901B2 (ja) 2020-11-10 2024-05-24 株式会社Nttドコモ 認証システム

Also Published As

Publication number Publication date
JPWO2015141760A1 (ja) 2017-04-13
JP6274681B2 (ja) 2018-02-07

Similar Documents

Publication Publication Date Title
JP6274681B2 (ja) 情報処理装置、情報処理方法、プログラム及び身元確認システム
KR102267197B1 (ko) 디지털 치아 영상에 치아 진료 데이터를 기록 및 표시하는 방법 및 장치
US8498878B2 (en) Intelligent medical chart capture system
Fahmy et al. Towards an automated dental identification system (ADIS)
KR102256315B1 (ko) 인공지능 기반의 치과방사선사진을 이용한 골밀도 예측시스템 및 이에 의한 골밀도 예측 방법
Kolude et al. The role of forensic dentist following mass disaster
JP2019208831A (ja) 歯科分析システムおよび歯科分析x線システム
JP2018063707A (ja) 画像分析システム
JP5125324B2 (ja) 歯形情報本人同定システム
Antolin et al. Tooth condition classification for dental charting using convolutional neural network and image processing
JP7313603B1 (ja) 歯科情報処理装置、歯科情報処理システム、プログラム及び歯科情報処理方法
JP5753986B2 (ja) 身元確認支援システム
Trengrove Forensic odontology in disaster victim identification
JP7185979B2 (ja) 個体識別装置、個体識別システム及びプログラム
Jaiswal et al. Classification and prediction of oral diseases in dentistry using an insight from panoramic radiographs and questionnaire
De Valck Protocols for dental AM data management in disaster victim identification
Trivedi et al. Dental image processing for human identification
JP7239249B2 (ja) 印象材、陰型又は陽型、歯の紋様情報収集装置及びプログラム
Al-sherif Novel Techniques for Automated Dental Identification
Tangel et al. Dental numbering for periapical radiograph based on multiple fuzzy attribute approach
Khandare et al. Dental biometric approach for human identification using dental X-ray images of maxillary bone
Oka et al. Tooth recognition in X-ray dental panoramic images with prosthetic detection
Knott Human identification
JP7276763B2 (ja) 識別システム
Aschheim Forensic odontology and disaster victim identification

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15765647

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2016508779

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15765647

Country of ref document: EP

Kind code of ref document: A1