WO2016093594A1 - 희생자 신원 확인 시스템 - Google Patents

희생자 신원 확인 시스템 Download PDF

Info

Publication number
WO2016093594A1
WO2016093594A1 PCT/KR2015/013385 KR2015013385W WO2016093594A1 WO 2016093594 A1 WO2016093594 A1 WO 2016093594A1 KR 2015013385 W KR2015013385 W KR 2015013385W WO 2016093594 A1 WO2016093594 A1 WO 2016093594A1
Authority
WO
WIPO (PCT)
Prior art keywords
input
data
displayed
bone
stored
Prior art date
Application number
PCT/KR2015/013385
Other languages
English (en)
French (fr)
Inventor
정낙은
박준규
Original Assignee
대한민국(관리부서:행정자치부 국립과학수사연구원장)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 대한민국(관리부서:행정자치부 국립과학수사연구원장) filed Critical 대한민국(관리부서:행정자치부 국립과학수사연구원장)
Publication of WO2016093594A1 publication Critical patent/WO2016093594A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/26Government or public services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/26Government or public services
    • G06Q50/265Personal security, identity or safety
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y04INFORMATION OR COMMUNICATION TECHNOLOGIES HAVING AN IMPACT ON OTHER TECHNOLOGY AREAS
    • Y04SSYSTEMS INTEGRATING TECHNOLOGIES RELATED TO POWER NETWORK OPERATION, COMMUNICATION OR INFORMATION TECHNOLOGIES FOR IMPROVING THE ELECTRICAL POWER GENERATION, TRANSMISSION, DISTRIBUTION, MANAGEMENT OR USAGE, i.e. SMART GRIDS
    • Y04S50/00Market activities related to the operation of systems integrating technologies related to power network operation or related to communication or information technologies
    • Y04S50/14Marketing, i.e. market research and analysis, surveying, promotions, advertising, buyer profiling, customer management or rewards

Definitions

  • the present invention relates to a victim identification system, and more specifically, to the identity of a victim of a multiple victim occurrence incident (accident incident caused by a large number of victims due to terrorism, earthquake, large fire, typhoon, tsunami, etc.) It is about a victim identification system that allows identification to be accurate, quick and systematic.
  • An identity verification system has been developed and used for verifying the identity at the door and the like for security by using fingerprints or irises, and many technologies have been applied in this regard.
  • the present invention has been proposed to solve the problems of the prior art, and in particular, provides a victim identification system for identifying the identity of the victim, precisely, quickly and systematically to the event or accident in which a number of death victims occurred. It aims to do it.
  • the present invention is an input DB for identification and an image of a bone constituting the human body is stored and connected to the control unit, an input unit connected to the control unit and means for inputting a user command, and connected to the control unit And a display unit for displaying data or calculation results stored in a storage unit, and a control unit connected to the storage unit, the input unit, and the display unit to control the victim identity.
  • the input DB for identity verification comprises a post-data (PM) input DB and a lifetime data (AM) input DB;
  • the post-mortem (PM) input DB and life-time data (AM) input DB are composed of a comprehensive input module, personal belongings input module, body data input module, tooth data input module, genetic data input module, fingerprint data input module;
  • the post-data (PM) input data and the pre-data (AM) stored in the storage unit input to the post-data (PM) input DB and the DB stored in the storage unit are displayed on the display unit in contrast with each other; Skeletons collected in the same area are collected and photographed in the same container to provide a skeleton image, and the image of each skeleton is assigned and numbered the area number for a plurality of areas of the site where the skeleton is settled, victim identification system To provide.
  • the body data input module includes a skeleton data input module.
  • the skeleton data input module includes an input step of displaying an image of a bone stored in a storage unit on a display unit for input, data and measurement data about the input bone.
  • An analysis step in which is computed;
  • An image of a bone stored in the storage and displayed on the display is characterized in that each area constituting the bone is displayed as a divided area.
  • the names of each bone constituting the human body are displayed together with the selection command input area and the status command input area, and an area corresponding to each bone in the bone image and the selection command input area and the status command input area are linked;
  • an input signal is transmitted to the control unit, and the color of the bone area in the bone image is changed and displayed by the control command from the control unit.
  • the input signal is transmitted to the control unit, and the color of the bone area corresponding to the bone image in the bone image is different from the color of the selection command input by the control command from the control unit. It is characterized in that the display is changed to the color.
  • the input signal is transmitted to the control unit, and the image of the bone stored in the storage unit is displayed on the display unit together with the name of the bone constituting the human body by the control signal from the control unit.
  • the displayed step may be divided into a field input step for inputting a site and a detailed input step for inputting information on each bone, and may be displayed by the user's selection.
  • the input signal is transmitted to the control unit, and the input area belonging to the area classified in the first classification step is displayed on the display unit together with the image of the bone by the control signal from the control unit;
  • the input signal is transmitted to the control unit, and the image of the bone stored in the storage unit is displayed along with the name of the bone constituting the human body by the control signal from the control unit. Is displayed together with a selection command input area and a status command input area;
  • the area corresponding to each bone, the selection command input area, and the status command input area are linked, and when the user selects the selection command input area for the bone collected through the input unit, an input signal is transmitted to the controller.
  • the color of the bone area in the bone image is changed and displayed by a control command from the bone.
  • the analyzing step includes a gender analysis step, when a gender analysis command is input by the user, the skull and pelvis stored in the storage unit are displayed by a control signal from the control unit, and the picture and state of the skull and pelvis bone are displayed.
  • the input region is displayed together with the display unit, and gender estimation phase information of the skull and the pelvis is also displayed together.
  • the analyzing step comprises a kidney analysis step;
  • the kidney analysis step an area for inputting the length of any one or more of the femur, humerus and tibia is displayed; If the length of one or more of the femur, humerus, and tibia is input by the user, and the race and gender are input, the formula stored in advance in the storage The decompression is calculated and stored in the storage unit and displayed on the display unit;
  • Hum is femur length
  • Rad is humerus length
  • Ulm is characterized in that the tibia length.
  • the analyzing step includes an age analyzing step;
  • a photo and a state input area of the pubic coupling surface and the iliac ear surface stored in the storage unit are displayed together on the display unit by a control signal from the control unit; Phase information of the pubic coupling surface and the iliac ear surface is displayed together.
  • an area for selecting the position and the state of the tooth together with the number indicating the position thereof, and the number and the model thereof are displayed on the display unit, and the model has the center of the tooth divided into five regions. It is characterized by being displayed as a rectangle consisting of a quadrangle and four trapezoids surrounding the rectangle.
  • both palm models are displayed on the display unit, and the palm models are divided into two nodes so that the thumb parts are linked to files stored in the storage unit by clicking through the input unit every node.
  • An area is formed, and the remaining finger parts are divided into three nodes, and three areas are formed to be linked with the file stored in the storage unit by clicking through the input unit.
  • Four regions are formed; The fingerprint images stored in each area and the storage unit are linked and stored.
  • the belongings input module includes clothing (hat, scarf, tie, coat, pullover, shirt, pecking, cardigan, running shirt, dress, blouse, apron, gloves, jacket, pants, socks, belt, belt buckle) and shoes.
  • clothing hat, scarf, tie, coat, pullover, shirt, pecking, cardigan, running shirt, dress, blouse, apron, gloves, jacket, pants, socks, belt, belt buckle
  • shoes about the material, color, form, label, size, input about the shape of the strap (chain, strap), material, color, design, trademark, and written text about the watch, about the lens Types, contact lenses, lens materials, and multifocals are entered, and the form, photo, fingerprint, and blood type of the identification card (passport, credit card, donation card, identification card, traveler's check, personal check, health card)
  • the details of the belongings purse, cash belt, badge, currency, mobile phone, PDA, Sim Card, ticket, camera
  • a state of a head, a neck, a right arm, a forearm, a right hand, a left hand, a torso front, a torso rear, a right leg, a left leg, a right foot, and a left foot that forms the body is input, and the state is “Damaged”.
  • “Burnt”, “Decomp”, “Skelet”, “Missing”, and “Loose” are selected and displayed on the display unit to be input.
  • the estimated age, height, weight, body type (lean body type, normal body shape, fat body type), and head shape (egg, Pointheaded, Pyramidal, Circular, Rectangular, Trorangular), and race (Caucasoid, Mongoloid, Negroid)
  • Hair type Natural, Articifial, Wig, Braided, Implanted, Hair-piece
  • hair length Short, Medium, Long, Shaved
  • hair color Blond, Brown, Black, Red, Gray, White, Yellow
  • Hair thickness Thin, Medium, Thick
  • hair type (Straight, Wavy, Curly, Parted) is further selected and displayed to be input.
  • the forehead ratio (Low, Medium, High, Narrow), the shape of the eyebrows, the color of the eyes, the shape of the nose, the shape and color of the facial hair, the shape and size of the ears, the size of the mouth, the thickness of the lips , No smoking sign, jaw size and shape, neck length, hand size and shape, nail length, foot size and shape, toenail condition, hair color and hair color, pubic hair and pubic color It is characterized by.
  • gene position information STR information of nuclear chromosomes, STR information of Y chromosomes, and mitochondrial DNA information are input and stored as genetic data;
  • the display unit displays a family relationship tree, and the likelihood ratio is calculated and displayed from the gene data and the family relationship tree.
  • FIG. 1 is a structural diagram of a victim identification system of the present invention
  • FIG. 2 is a diagram schematically illustrating an input DB stored in a storage unit of a victim identification system of the present invention.
  • FIG. 3 is a diagram illustrating a post-data input DB that forms the input DB of the victim identification system of the present invention
  • FIG. 4 is a diagram schematically illustrating a lifetime data input DB forming an input DB of the victim identification system of the present invention
  • FIG. 5 and 6 are execution flow diagrams for explaining the implementation of the victim identification system of the present invention.
  • 11 is a flowchart illustrating the conversion of a fingerprint format.
  • FIG. 12 is a skeleton diagram illustrating the first and second classification stages of the bone classification constituting the human body in the victim identification system of the present invention
  • FIG. 14 is a view illustrating a method of applying a code to each bone constituting the human body according to the classification step provided in the present invention
  • FIG. 15 illustrates a detailed input step screen forming an input step of a human skeleton in a victim identification system of the present invention.
  • 16 is a screen showing sample data for inputting data on the skull in the victim identification system of the present invention
  • 17 is a screen displaying the pelvis and its characteristic lines in the gender analysis step of the victim identification system of the present invention.
  • 19 is a screen showing a skeleton required for the kidney calculation data in the victim identification system of the present invention.
  • FIG. 20 shows a flowchart of the gene identification module constituting the victim identification system of the present invention.
  • FIG. 1 is a structural diagram of a victim identification system of the present invention
  • Figure 2 schematically shows an input DB stored in the storage unit of the victim identification system of the present invention
  • Figure 3 is an input DB of the victim identification system of the present invention
  • Figure 4 schematically shows a post-data input DB
  • Figure 4 schematically shows a life-time data input DB constituting the input DB of the victim identification system of the present invention
  • Figures 5 and 6 shows the implementation of the victim identification system of the present invention 7 to 10 are structural diagrams of teeth formed for dental data input
  • FIG. 11 is a flowchart illustrating conversion of a fingerprint format
  • FIG. Human bones shown to explain the first and second classification steps that form the classification step of the bones constituting the human body in the victim identification system of the present invention
  • FIG. 13 is a diagram illustrating a human skeleton classified according to the classification step provided in the present invention
  • FIG. 14 illustrates a method of applying a code to each bone constituting the human body according to the classification step provided in the present invention.
  • 15 shows a detailed input step screen for inputting the human skeleton in the victim identification system of the present invention
  • FIG. 16 shows sample data for inputting data on the skull in the victim identification system of the present invention.
  • 17 is a screen displaying the pelvis and its characteristic lines in the gender analysis step of the victim identification system of the present invention
  • FIG. 18 is a screen displaying the pelvis captured and stored during the rehabilitation of the body.
  • FIG. 20 is a screen illustrating a skeleton required for kidney calculation data in a victim identification system of the present invention
  • FIG. 20 is a victim identification of the present invention.
  • the flowchart of the gene identification module which comprises a system is shown.
  • the victim identification system 100 of the present invention stores an input DB 200 for identification and an image of a bone constituting a human body and is connected to the controller 110 and a controller 120.
  • An input unit 130 connected to the 110 and a means for inputting a user command, a display unit 140 connected to the control unit 110 to display data or an operation result stored in the storage unit 120, and the storage unit
  • the control unit 120 is connected to the control unit 120, the input unit 130, and the display unit 140.
  • the storage unit 120 may be, for example, a hard disk or an external memory
  • the input unit 130 may be a keyboard and a mouse
  • the display unit 140 may be an LCD monitor.
  • the controller 120 may be implemented as a microcomputer (CPU).
  • reference numeral 150 denotes a calculation unit, and the calculation unit may be performed by the controller 110 without being provided separately.
  • the input DB 200 for identity verification includes a post-data (PM) input DB 210 and a lifetime data (AM) input DB 220.
  • the post-data input DB 210 is provided to be stored after being searched for the collected victims.
  • the lifetime data input DB 220 may be provided from the surviving family of the victims who have been collected or provided from the investigative agency for storage.
  • Post-mortem data (PM) is prepared by inputting data on victims collected at the site of the incident or accident (hereinafter referred to as 'accident'), and life-time data (AM) are related to victims of accidents from family members. Data gathered by investigative agencies or the like are prepared based on data reported on victims provided by survivors and identification cards found during the victim's probation.
  • the post data input DB 210 includes a comprehensive input module 211, a personal belongings input module 213, a body data input module 215, a tooth data input module 217, and a genetic data input module. 219, the fingerprint data input module 212.
  • the prenatal data input DB 220 may also have a comprehensive input module 221, a personal belongings input module 223, a body data input module 225, and dental data, as in the post data input DB 210. It consists of an input module 227, a gene data input module 229, and a fingerprint data input module 222.
  • Post-mortem data (PM) and lifetime data (AM) for the victim are input to the input DB (200), and if a confirmation command is input through the input unit 130, post-mortem data (PM) and life-time data (AM) are contrasted
  • the contrast result is displayed on the display 140.
  • Post-data input DB (210) and live data input DB (220) is made up of the same content is configured to make the contrast clearly.
  • the system is operated so that a post-data input DB 210 and a lifetime data input DB 220 are provided for each accident, stored, and displayed in a matching manner.
  • the contrast result may be distorted and provided by the display unit 140, or may be output and provided through an output unit (eg, a printer) (not shown) connected to the control unit 110.
  • the prepared results are provided to experts such as forensic lawyers to confirm, reconciliation, and approve, thus completing the victim identification process.
  • the data on personal effects, physical characteristics data, teeth data, and DNA are stored in the post-data input DB 210 and the live data input DB 220, respectively. Data and Fingerprints data are provided in contrast.
  • a screen for post-data input and a screen for input of living data are displayed on the display 140 by the user's selection.
  • Each screen displays a menu for inputting post-mortem data and lifetime data.
  • each module for inputting post-mortem data and lifetime data is displayed on the display unit 140.
  • the display unit 140 When the user selects the comprehensive input module 211 of the post-data input DB 210 on the display unit 140, the display unit 140 includes an accident place, an accident name, an occurrence date, a victim discovery place and date and time, and a photograph of the victim. Whether the picture is taken by the film camera or the digital camera is displayed in a state capable of inputting. The user inputs and stores corresponding matters in the comprehensive input module 211, and comprehensive data of the post-data input DB 210 is prepared.
  • the display unit 140 When the user selects the comprehensive input module 221 of the biometric data input DB 220 on the display unit 140, the display unit 140 includes a name, a date of birth, a gender, an accident place, an accident name, an occurrence date, and DNA information. It is displayed in the state that you can input the data, the date of providing the data, the name of the data provider, the contact information (address, email address, phone number), nationality of the data provider, the user can enter the relevant information in the comprehensive input module. By storing the comprehensive data of the lifetime data input DB (220) is prepared.
  • clothing hat, scarf, tie, coat, pullover, shirt, peck, cardigan, running shirt, dress, blouse, Apron, gloves, jacket, pants, socks, belt, belt buckle
  • the material, color, shape, label, size details are entered, and the shape of the strap (chain, strap), material, color for the watch , Design, trademark, written information is entered, the lens type, contact lens, lens material, multifocal information about the glasses are entered, identification card (passport, credit card, donation card, ID card, travelers) Check, personal check, health card) form, photos, fingerprints, blood type details are entered, the material (wallet, cash belt, badge, currency, mobile phone, PDA, Sim Card, ticket, camera) material, color, Design, manufacturer, and descriptions Power is, the requirements for the material of the ring chain (rings, earrings, ear clips, necklaces, pendants, bracelets, earrings, nose ring), color, design
  • the input content may be limited by being input in the same and selectable form, but may be stored in the same format in the storage unit 120, and the input content may be automatically contrasted. In particular, the material and color were selected only.
  • the body data input modules 215 and 225 of the live data input DB 220 and the post data input DB 210 include head, neck, right arm, forearm, right hand, left hand, torso front, torso rear, right leg, Status for left leg, right foot and left foot is entered, and status is displayed on display so that any one of "Damaged”, “Burnt”, “Decomp”, “Skelet”, “Missing” and “Loose” is selected and entered.
  • a number indicating the position of the tooth and an area for selecting the state of the tooth, and the number and the model thereof are selected.
  • the display unit 140 is displayed. Its model is displayed in a planar shape, represented by a quadrangle consisting of four trapezoids, with the tooth divided into five regions and centered at the center as shown in FIGS. 7 to 10.
  • the tooth is displayed in a flat form consisting of five areas having a square in the center, thereby accurately entering the treatment position of the tooth, thereby producing an effect of clearly contrasting.
  • any of "Normal”, “Filling”, “Crown” (covering), “Pontic” (bridge), “Implant” (implant), “Missing” (loss) is displayed to be selected, and according to the selection result in the selection area, its model is displayed in a different form reflecting the selection result. For example, if the user selects its location and one or more is selected in the selection area, its model is transformed and displayed. When the user selects this on the screen of the tooth data input module 217 or 227 and selects the state thereof, the user's model is reflected and displayed in a deformed form. In addition, before and after data are compared, data having the same state at the same number is displayed with both live and after data.
  • both palm models are displayed on the display unit 140, and a thumb part is displayed in two parts of the palm model.
  • Two areas are formed to be separated and linked to the file stored in the storage unit 120 by clicking through the input unit 130 at each node, and the remaining finger part is divided into three nodes and thus through the input unit 130 at every node.
  • Three areas are formed to be linked with the file stored in the storage unit 120 by clicking, and four areas are formed in the palm of the hand to be linked with the file stored in the storage unit.
  • Each area of the palm of the hand is stored by linking the fingerprint image stored in the storage unit 120.
  • the palm model is divided into a plurality of regions, and each region is linked with the fingerprint image stored in the storage 120 to accurately input the contents of the fingerprint, and the contrast may be easily performed.
  • the locations where the collected fingerprint images are linked when linked to the palm model are different. Therefore, when the collecting country is more than one country, since fingerprints of different locations are located linked to the palm model so that different fingerprints can be compared, a conversion process of converting the location is included.
  • a fingerprint taken in a format for a country is converted into a common fingerprint pocket by a conversion function, stored in the storage 120, and linked with a palm image.
  • the locations that appear linked to palm imagery vary from country to country.
  • the index finger of the left hand is collected and input with the left index finger in the Korean format
  • the captured fingerprint image is positioned at the position of the index finger of the left hand in the displayed two-handed picture.
  • the image of the palm part appears so that the positions of the right hand and the left hand are changed, so that the fingerprint image appears at the finger position of the ring finger of the right hand.
  • a conversion step is included in which the position of the fingerprint linked with the palm image is converted along with the information about the country. Is converted and stored in the storage 120.
  • the storage unit 120 stores information about a fingerprint image format according to a country and a country as data for conversion.
  • the body data input modules 215 and 225 of the live data input DB 220 and the post data input DB 210 include a skeletal data input module.
  • the bones constituting the human body are divided and classified according to the location and the code is assigned to the image of the bone matching the code is stored in the storage unit 120.
  • the classification step includes a first classification step in which the human body is divided into a central axis and left and right and up and down according to the position of the human body as a bone, and a second division in which the area divided in the first classification step is divided into a plurality of areas.
  • a classification step and a code generation step in which codes generated by dividing left and right and up and down for bones corresponding to regions divided in the second classification step are given together with the names of the bones to generate codes, and the generated codes are stored in the storage unit. Stored at 120. The codes are linked to the bone names and stored in the storage 120.
  • the central shaft portion is divided into a central portion and a central peripheral portion
  • the accessory portion is divided into upper and lower rim portions on the left and right, and the central portion, the central peripheral portion (right), the central peripheral portion (left), the upper rim portion (right), It is divided into upper rim (left), lower rim (right) and lower rim (left).
  • the skull including the mandible
  • the cervical spine including the cervical spine, the lumbar spine, the thoracic spine, the sternum, the sacrum, and the coccyx are classified and stored as the central axis part
  • Upper limbs collarbone, scapula), ribs, and lower limbs located on the right side of the bones forming the center are classified into the central periphery (right);
  • Upper limbs (clavicle, scapula), ribs, and lower limbs located on the left side of the bones forming the center are classified into a central periphery (left);
  • Bones that form the left and right arms humerus, radial bone, ulna
  • hands scaphoid bone, lumbar bone, triangular bone, head bone, large thigh bone, small thigh bone, papillary bone, metatarsal bone, metacarpal bone, femur bone, metacarpal bone, horse bone ) are classified
  • a code '0' is assigned to the central axis, a code '1' to the top, a code '2' to the bottom, a code '1' to the left, and a code '2' to the right.
  • bones classified as belonging to the central part of the central axis are assigned the code '00', and bones classified as belonging to the central periphery (right) are assigned the code '01' and belonging to the central periphery (left) Bones classified as being are assigned code '02', bones classified as belonging to the upper right rim are assigned code '11', bones classified as belonging to the upper left rim are assigned code '12', and Bones classified as belonging to the lower rim are assigned the code '21', and bones classified as belonging to the lower rim are assigned the code '22'; It can be stored in storage with the abbreviation of bone.
  • FIG. 14 illustrates an example of generating a code, and two numbers according to the location of the bone and the abbreviation of the bone may be generated as a code and stored in the storage 120 as a code representing each bone.
  • the two empty boxes on the left side are two numeric positions of the area divided according to the positions as described above. "location” indicates a location, and if it is repeated such as cervical spine, lumbar spine, hand fractured bone, mid bone, end fracture, proximal bone of foot, middle bone and distal bone, "01", "02”
  • the code is generated by adding a number indicating a position, such as "03". Cervical vertebrae, nymphs, etc. may be assigned a position number, such as "01", "02” in order from the top.
  • the bones constituting the human body are classified and coded and stored, so that any user with basic knowledge of human bones can generate and give a simple and uniform code to bones collected at an accident site. have. In the past, it was collected by attaching a tag describing the name of the bone to the bone to be collected.
  • the names of each bone constituting the human body are displayed together with the selection command input area and the status command input area, and the area corresponding to each bone in the bone image, the selection command input area and the status command input area are linked, and the user inputs (
  • the selection command input area for the bone collected through 130 is selected, the input signal is transmitted to the controller 110 and the color of the bone area corresponding to the bone image is changed by the control command from the controller 110.
  • the input signal is transmitted to the controller 110, and the corresponding bone region in the bone image by the control command from the controller 110.
  • the color of the display is changed to a color different from that of the selection command input.
  • the skeleton data input module When the skeleton data input module is displayed, it is divided into a field input stage for field input and a detailed input stage for inputting information on each bone, and are respectively displayed according to a user's selection.
  • the input signal When the user selects the field input stage, the input signal is transmitted to the controller 110, and the input region belonging to the region classified as the first classification stage is displayed on the display 140 by the control signal from the controller 110. Displayed with;
  • the input signal When the user selects the detailed input step, the input signal is transmitted to the control unit, and the image of the bone stored in the storage unit is displayed along with the name of the bone constituting the human body by the control signal from the control unit 110.
  • the name of is displayed together with the selection command input area and the status command input area;
  • the area corresponding to each bone in the bone image, the selection command input area, and the status command input area are linked, and when the user selects the selection command input area for the bone collected through the input unit 130, the input signal is controlled by the controller 110. ), And the color of the bone area in the bone image is changed and displayed by the control command from the controller 110.
  • the input signal is transmitted to the controller 110, and the input area belonging to the area classified as the first classification step is displayed on the display 140 by the control signal from the controller 110. Is displayed with the image.
  • the environment may not be good for inputting detailed information, and since the environment should be more focused on probing, faithful probing may be achieved by inputting the area classified as the first classification step as described above.
  • the input signal is transmitted to the controller 110, and the image of the bone stored in the storage unit is displayed along with the name of the bone constituting the human body by the control signal from the controller 110.
  • the names of each bone that make up are displayed together with the selection command input area and the status command input area.
  • the selection command input area indicates the status of the bone with the blue and red buttons to the right of the bone's name code and the indices "nomal”, "burnt”, and "damaged”.
  • the selection command input area and the status command input area are linked, and when the user selects the selection command input area for the bone collected through the input unit 130, the input signal is transmitted to the control unit 110, and the control unit 110 receives the input signal.
  • the control command changes and displays the color of the bone area in the bone image.
  • the site is divided into a plurality of areas (e.g., a plurality of lattice areas having a width of 30 cm), and each area is numbered (e.g., , Serial number), the number of areas is assigned to the bones collected, the bones of each area is put in the same container to be collected.
  • the bones in each container are classified according to the above method along with the area code.
  • the analyzing step may include a gender analyzing step, a kidney analyzing step, and an age analyzing step.
  • the gender analysis step is executed.
  • a skull and a hipbone are displayed on the display unit 140 by signals from the controller 110 and displayed together with the feature lines.
  • pictures of skulls and pelvis that were taken during the probation are stored.
  • the skull and pelvis are classified and generated by the method described above, and are stored in the file name. The user compares the features of the skull and pelvis and clicks and stores the information directly on the displayed display.
  • kidney analysis step As shown in FIG. 19, an area for inputting the length of one or more of the femur, humerus, and tibia is displayed on the display 140 by a signal from the controller 110. In addition, any one or more of the femur, humerus, tibia is also displayed on the display unit 140.
  • the height is calculated by a pre-stored calculation formula (man's height measurement formula) stored in the storage unit 120, and the calculated value (height) is stored in the storage unit 120. It is stored and displayed on the display 140.
  • a pre-stored calculation formula man's height measurement formula
  • the calculated value (height) is stored in the storage unit 120. It is stored and displayed on the display 140.
  • Hum is the femur length
  • Rad is the humerus length
  • Ulm is the tibia length.
  • the user selects a gender analysis menu among menus displayed on the display 140, and the gender analysis step is executed.
  • the gender analysis step as shown in FIGS. 17 and 18, a hipbone is displayed on the display 140 by signals from the controller 110 and is displayed together with the feature line.
  • a picture of the cotton bone taken and stored during the probation is also displayed.
  • the code that is classified and generated in the above-described manner is given to the cotton bone and stored under the file name.
  • the user compares the feature patterns of the cotton bone and clicks and inputs the relevant items directly to the displayed display unit to store them.
  • the user selects an age analysis menu among menus displayed on the display 140, and the age analysis step is executed.
  • the age analysis step an image of the pubis coupling surface and the iliac ear surface is displayed on the display 140 according to a signal from the controller 110.
  • the image (Phase) is also displayed along with the image of the pubic surface and iliac ear.
  • images of the pubic bone and the iliac ear of the pubic bone, which are photographed and stored during probation are also displayed.
  • codes generated and classified in the above-described manner are given to the pubic bone and the long bone and stored under the file name.
  • the genetic data obtained from the victimized victim is input and stored as the post data, and the victim of the accident as the live data.
  • Gene information about the victim provided by the surviving family, and genetic information prepared from the victim's parents and siblings is entered and stored.
  • LR Likelihood Ratio
  • the data stored in the storage unit 120 and the data stored in the storage unit 120 are inputted through the modules before and after the data input DB 220 and the post-data input DB 210 is stored in the same format
  • direct data are prepared and post-data and prior data are contrasted with each other based on the post-data.

Landscapes

  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Engineering & Computer Science (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Educational Administration (AREA)
  • Primary Health Care (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Development Economics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Computer Security & Cryptography (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

본 발명은 신원 확인을 위한 입력 DB와 인체를 이루는 뼈의 이미지가 저장되며 제어부에 연결되는 저장부와, 제어부에 연결되고 사용자 명령이 입력되는 수단인 입력부와, 제어부에 연결되며 저장부에 저장된 자료나 연산 결과가 표시되는 디스플레이부와, 상기 저장부, 입력부, 디스플레이부에 연결되어 제어 하는 제어부로 이루어지는 희생자 신원 확인 시스템에 있어서; 상기 신원 확인을 위한 입력 DB는 사후 자료(PM) 입력 DB와 생전 자료(AM) 입력 DB로 이루어지고; 상기 사후 자료(PM) 입력 DB와 생전 자료(AM) 입력 DB는 종합 입력 모듈, 개인 소지품 입력 모듈, 신체 데이터 입력 모듈, 치아 데이터 입력 모듈, 유전자 데이터 입력 모듈, 지문 데이터 입력 모듈로 이루어지며; 사후 자료(PM) 입력 DB와 생전 자료(AM) 입력 DB로 입력되어 저장부에 저장된 사후 자료(PM)와 생전 자료(AM)는 서로 대비되어 디스플레이부에 디스플레이되는 희생자 신원 확인 시스템에 관한 것이다.

Description

희생자 신원 확인 시스템
본 발명은 희생자 신원 확인 시스템에 관한 것으로, 보다 상세하게는 다수 희생자 발생 사건 사고(대형 쇼핑 몰 등에 대한 테러, 지진, 대형 화재, 태풍, 쓰나미 등에 의하여 다수의 희생자가 발생한 사건 사고)의 희생자의 신원 확인이 정확하고, 신속하고, 체계적으로 이루어질 수 있도록 한 희생자 신원 확인 시스템에 관한 것이다.
지문이나 홍체 등을 이용하여 보안을 위하여 출입문 등에서 신원을 확인하고 확인된 인력에 대해서만 출입을 허용하는 신원 확인 시스템이 개발되어 사용되고 있으며, 이와 관련되어 다수의 기술이 출원되었다.
그러나, 사망한 희생자 특히 다수의 사망 희생자가 발생한 사건 또는 사고에 있어서, 다수의 희생자의 신원을 확인하는 것이 무엇보다도 중요하기 때문에, 희생자에 대한 신원이 확인되도록 하기 위하여 많은 인력이 투입되어 확인 업무가 진행되나, 다수 희생자 신원 확인을 위한 시스템이 마련되지 못하여 신원 확인에 많은 인력과 시간이 소요되며, 신원 확인이 될 수 있는 희생자들도 신원이 확인되지 못하는 문제점이 있었다.
본 발명은 종래 기술이 가지는 문제점을 해결하기 위하여 제안된 것으로 특히, 다수의 사망 희생자가 발생한 사건 또는 사고에 대하여 정확하고, 신속하고 체계적으로 사망 희생자에 대한 신원이 확인되도록 하는 희생자 신원 확인 시스템을 제공하는 것을 목적으로 한다.
상기와 같은 목적을 위하여 본 발명은 신원 확인을 위한 입력 DB와 인체를 이루는 뼈의 이미지가 저장되며 제어부에 연결되는 저장부와, 제어부에 연결되고 사용자 명령이 입력되는 수단인 입력부와, 제어부에 연결되며 저장부에 저장된 자료나 연산 결과가 표시되는 디스플레이부와, 상기 저장부, 입력부, 디스플레이부에 연결되어 제어하는 제어부로 이루어지는 희생자 신원 확인 시스템에 있어서; 상기 신원 확인을 위한 입력 DB는 사후 자료(PM) 입력 DB와 생전 자료(AM) 입력 DB로 이루어지고; 상기 사후 자료(PM) 입력 DB와 생전 자료(AM) 입력 DB는 종합 입력 모듈, 개인 소지품 입력 모듈, 신체 데이터 입력 모듈, 치아 데이터 입력 모듈, 유전자 데이터 입력 모듈, 지문 데이터 입력 모듈로 이루어지며; 사후 자료(PM) 입력 DB와 생전 자료(AM) 입력 DB로 입력되어 저장부에 저장된 사후 자료(PM)와 생전 자료(AM)는 서로 대비되어 디스플레이부에 디스플레이되며; 동일 영역에서 수습된 골격들은 동일 용기에 수습되고 촬영되어 골격 이미지가 마련되고 각 골격의 이미지에는 골격이 수습된 현장의 복수의 영역에 대한 영역 번호가 부여되고 분류되는 것을 특징으로 하는 희생자 신원 확인 시스템을 제공한다.
상기에서, 신체 데이터 입력 모듈에는 골격 데이터 입력 모듈이 포함되며, 골격 데이터 입력 모듈은 입력을 위하여 저장부에 저장된 뼈의 이미지가 디스플레이부에 디스플레이되는 입력 단계와, 입력된 뼈에 대한 자료와 측정 자료가 연산되는 분석 단계로 이루어지며; 저장부에 저장되어 디스플레이부에 디스플레이되는 뼈의 이미지는 뼈를 이루는 각 영역이 분할 영역으로 디스플레이되는 것을 특징으로 한다.
상기에서, 인체를 이루는 각 뼈의 명칭은 선택 명령 입력 영역 및 상태 명령 입력 영역과 함께 디스플레이되며, 뼈의 이미지에서 각 뼈에 해당되는 영역과 선택 명령 입력 영역 및 상태 명령 입력 영역은 링크되며; 사용자가 입력부를 통하여 수습된 뼈에 대한 선택 명령 입력 영역을 선택하면 입력 신호는 제어부로 전달되고 제어부로부터의 제어 명령에 의하여 뼈의 이미지에서 해당되는 뼈의 영역의 색상이 변경되어 디스플레이되며, 사용자가 입력부를 통하여 수습된 뼈에 대한 상태 명령 입력 영역을 선택하면 입력 신호는 제어부로 전달되고, 제어부로부터의 제어 명령에 의하여 뼈의 이미지에서 해당되는 뼈의 영역의 색상이 선택 명령 입력에 의한 색상과 다른 색상으로 변경되어 디스플레이되는 것을 특징으로 한다.
상기에서, 사용자가 입력부를 통하여 입력을 위한 신호를 입력하면, 입력신호는 제어부로 전달되어 제어부로부터의 제어 신호에 의하여 디스플레이부에는 인체를 이루는 뼈의 명칭과 함께 저장부에 저장된 뼈의 이미지가 디스플레이되며; 디스플레이되는 단계는 현장 입력을 위한 현장 입력 단계와, 각 뼈에 대한 정보가 입력되기 위한 상세 입력 단계로 나누어져, 사용자의 선택에 의하여 각각 디스플레이되는 것을 특징으로 한다.
상기에서, 사용자가 현장 입력 단계를 선택하면 입력신호는 제어부로 전달되어 제어부로부터의 제어 신호에 의하여 디스플레이부에는 제1 분류단계로 분류된 영역에 속하는 입력 영역이 뼈의 이미지와 함께 디스플레이되며; 사용자가 상세 입력 단계를 선택하면, 입력신호는 제어부로 전달되어 제어부로부터의 제어 신호에 의하여 인체를 이루는 뼈의 명칭과 함께 저장부에 저장된 뼈의 이미지가 디스플레이 되며, 인체를 이루는 각 뼈의 명칭은 선택 명령 입력 영역 및 상태 명령 입력 영역과 함께 디스플레이되며; 뼈의 이미지에서 각 뼈에 해당되는 영역과 선택 명령 입력 영역 및 상태 명령 입력 영역은 링크되어, 사용자가 입력부를 통하여 수습된 뼈에 대한 선택 명령 입력 영역을 선택하면 입력 신호는 제어부로 전달되고, 제어부로부터의 제어 명령에 의하여 뼈의 이미지에서 해당되는 뼈의 영역의 색상이 변경되어 디스플레이되는 것을 특징으로 한다.
상기에서, 분석 단계는 성별 분석 단계를 포함하여, 사용자에 의해 성별분석 명령이 입력되면, 제어부로부터의 제어 신호에 의하여 저장부에 저장된 두개골 및 골반골이 디스플레이되며, 두개골 및 골반골의 사진 및 상태 입력 영역이 함께 디스플레이부에 디스플레이되며, 두개골 및 골반골의 성별 추정 상(Phase) 정보가 함께 디스플레이되는 것을 특징으로 한다.
상기에서, 분석 단계는 신장 분석 단계를 포함하며; 신장 분석 단계에서는 대퇴골, 상완골, 경골 중 어느 하나 이상의 길이를 입력할 수 있는 영역이 디스플레이되며; 사용자에 의하여 대퇴골, 상완골, 경골 중 어느 하나 이상의 길이가 입력되고, 인종 및 성별이 입력되면 저장부에 미리 저장된 계산식
Figure PCTKR2015013385-appb-I000001
에 의하여 신장이 연산되어 저장부에 저장되고 디스플레이부에 표시되며; 계산식에서 Hum은 대퇴골 길이, Rad는 상완골 길이, Ulm은 경골 길이를 나타내는 것을 특징으로 한다.
상기에서, 분석 단계는 연령 분석 단계를 포함하며; 사용자에 의하여 연령 분석 명령이 입력되면, 제어부로부터의 제어 신호에 의하여 저장부에 저장된 치골 결합면과 장골 귀모양면의 사진 및 상태 입력 영역이 함께 디스플레이부에 디스플레이되며; 치골 결합면 및 장골 귀모양면의 상(Phase) 정보가 함께 디스플레이되는 것을 특징으로 한다.
상기에서, 치아 데이터 입력 모듈에서는 각 이에 대하여 이의 위치를 나타내는 번호와 병기된 이의 상태를 선택하는 영역과, 번호와 이의 모형이 디스플레이부에 디스플레이되며, 이의 모형은 치아가 5개의 영역으로 분할되어 중심에 사각형과 사각형을 둘러싸는 4개의 사다리꼴로 이루어진 사각형으로 표시되어 디스플레이되는 것을 특징으로 한다.
상기에서, 이의 상태를 선택하는 영역에서는 "Normal"(정상), "Filling"(메움), "Crown"(씌움), "Pontic"(브릿지), "Implant"(임플란트), "Missing"(손실) 중 어느 하나가 선택되며, 선택 영역에서 선택 결과에 따라 해당 이의 모형은 선택 결과가 반영되어 각각 다른 형태로 디스플레이되는 것을 특징으로 한다.
상기에서, 사후 자료(PM)와 생전 자료(AM)의 대비에서 번호와 선택 결과가 반영된 이의 모형이 사후 자료(PM)와 생전 자료(AM)가 함께 디스플레이부에 디스플레이되는 것을 특징으로 한다.
상기에서, 지문 데이터 입력 모듈에서는 디스플레이부에 양 손바닥 모형이 디스플레이되고, 손바닥 모형에는 엄지 손가락 부분이 2마디로 분리되어 마디마다 입력부를 통한 클릭에 의하여 저장부에 저장된 파일과 링크되도록 하기 위한 2개의 영역이 형성되고, 나머지 손가락 부분은 3마디로 분리되어 마디마다 입력부를 통한 클릭에 의하여 저장부에 저장된 파일과 링크되도록 하기 위한 3개의 영역이 형성되며, 손바닥 부분에 저장부에 저장된 파일과 링크되도록 하기 위한 4개의 영역이 형성되어; 각 영역과 저장부에 저장된 지문 이미지가 링크되어 저장되는 것을 특징으로 한다.
상기에서, 소지품 입력 모듈에서는 의류(모자, 스카프, 타이, 외투, 풀오버, 셔츠, 쪼끼, 가디건, 러닝셔츠, 드레스, 블라우스, 속치마, 장갑, 자켓, 바지, 양말, 벨트, 벨트버클)와 신발에 대하여 재질, 색상, 형태, 라벨, 크기에 대한 사항이 입력되고, 시계에 대하여 끈의 형태(체인, 스트랩), 재질, 색상, 디자인, 상표, 기재된 글씨에 대한 사항이 입력되며, 안경에 대하여 렌즈 형태, 컨택트 렌즈 여부, 렌즈 재질, 다초점 여부에 대한 사항이 입력되며, 신분증(여권, 신용카드, 기부카드, 신분증, 여행자 수표, 개인 수표, 건강 카드)의 형태, 사진, 지문, 혈액형에 대한 사항이 입력되며, 소지품(지갑, 현금 벨트, 뱃지, 통화, 휴대폰, PDA, Sim Card, 티켓, 카메라)의 재질, 색상, 디자인, 제조사, 기재사항에 대한 사항이 입력되며, 링 체인(반지, 귀걸이, 이어클립, 목걸이, 펜던트, 팔찌, 피어싱, 노즈링)의 재질, 색상, 디자인, 기재된 글씨, 착용 부위에 대한 사항이 입력되는 것을 특징으로 한다.
상기에서, 신체 데이터 입력 모듈에서는 신체를 이루는 머리, 목, 오른팔, 외팔, 오른손, 왼손, 몸통 정면, 몸통 후면, 오른쪽 다리, 왼쪽 다리, 오른발, 왼발에 대한 상태가 입력되며, 상태는 "Damaged", "Burnt", "Decomp", "Skelet", "Missing", "Loose" 중 어느 하나가 선택되어 입력되도록 디스플레이부에 디스플레이 되는 것을 특징으로 한다.
상기에서, 신체 데이터 입력 모듈에서는 추정나이, 키, 몸무게, 체형(마른체형, 보통 체형, 뚱뚱한 체형), 머리 형태(계란형, Pointheaded, Pyramidal, Circular, Rectangular, Quandrangular), 인종(Caucasoid, Mongoloid, Negroid), 머리카락 종류(Natural, Articifial, Wig, Braided, Implanted, Hair-piece), 머리카락 길이(Short, Medium, Long, Shaved), 머리카락 색상(Blond, Brown, Black, Red, Grey, White, Yellow), 머리카락 두께(Thin, Medium, Thick), 머리카락 형태(Straight, Wavy, Curly, Parted)가 더 선택되어 입력되도록 디스플레이되는 것을 특징으로 한다.
상기에서, 신체 데이터 입력 모듈에서는 앞이마 비(Low, Medium, High, Narrow), 눈썹의 형태, 눈의 색상, 코의 형태, 얼굴모의 형태와 색상, 귀의 형태와 크기, 입의 크기, 입술의 두께, 흡연 흔적, 턱의 크기와 형태, 목의 길이, 손의 크기와 형태, 손톱의 길이, 발의 크기와 형태, 발톱의 상태, 체모량과 체모 색상, 음모양과 음모 색상이 선택되어 입력되도록 디스플레이되는 것을 특징으로 한다.
상기 유전자 데이터 입력 모듈에서는 유전자 데이터로 유전자 위치 정보와 핵 염색체의 STR 정보, Y 염색체의 STR 정보, 미토콘드리아 DNA 정보가 입력되어 저장되며; 유전자 데이터로부터 친족관계가 입력되면 디스플레이부에는 가족관계 트리가 디스플레이되고, 유전자 데이터와 가족관계 트리로부터 우도비가 연산되어 디스플레이되는 것을 특징으로 한다.
본 발명에 의하면, 다수의 사망 희생자가 발생한 사건 또는 사고에 있어서, 체계적으로 희생자 신원 확인 업무가 진행되도록 하여, 다수 사망 희생자의 신원이 신속하고 정확하며 체계적으로 확인될 수 있는 효과가 있다.
도 1은 본 발명 희생자 신원 확인 시스템의 구조도이며,
도 2는 본 발명 희생자 신원 확인 시스템의 저장부에 저장된 입력 DB를 도식적으로 도시한 것이며,
도 3은 본 발명 희생자 신원 확인 시스템의 입력 DB를 이루는 사후 자료 입력 DB를 도식적으로 도시한 것이며,
도 4는 본 발명 희생자 신원 확인 시스템의 입력 DB를 이루는 생전 자료 입력 DB를 도식적으로 도시한 것이며,
도 5 및 도 6은 본 발명 희생자 신원 확인 시스템의 실행을 설명하기 위하여 도시한 실행 흐름도이며,
도 7 내지 도 10는 치과 데이터 입력을 위하여 형성한 이(치)의 구조도이며,
도 11은 지문 포맷의 변환을 설명하기 위하여 도시한 순서도이며,
도 12는 본 발명 희생자 신원 확인 시스템에서 인체를 이루는 뼈의 분류 단계를 이루는 제1 및 제2 분류단계를 설명하기 위하여 도시한 인체 골격도이며,
도 13은 본 발명에 구비된 분류 단계를 따라 분류된 인체 골격도이며,
도 14는 본 발명에 구비된 분류 단계에 따라 인체를 이루는 각 뼈에 코드를 부여하는 방법을 설명하기 위하여 도시한 것이며,
도 15는 본 발명 희생자 신원 확인 시스템에서 인체 골격의 입력 단계를 이루는 상세 입력 단계 화면을 도시한 것이며,
도 16은 본 발명 희생자 신원 확인 시스템에서 두개골에 대한 자료 입력을 위한 표본자료를 나타낸 화면이며,
도 17은 본 발명 희생자 신원 확인 시스템의 성별 분석 단계에서 골반골과 그 특징 라인이 디스플레이된 화면이며,
도 18은 시신의 수습 중 촬영되어 저장된 골반골이 디스플레이된 화면이며,
도 19는 본 발명 희생자 신원 확인 시스템에서 신장 연산 자료에 필요한 골격을 나타낸 화면이며,
도 20은 본 발명 희생자 신원 확인 시스템을 이루는 유전자 확인 모듈의 플로우 챠트를 도시한 것이다.
이하에서 도면을 참조하여 본 발명의 바람직한 실시 예에 따르는 희생자 신원 확인 시스템에 대하여 상세하게 설명한다.
도 1은 본 발명 희생자 신원 확인 시스템의 구조도이며, 도 2는 본 발명 희생자 신원 확인 시스템의 저장부에 저장된 입력 DB를 도식적으로 도시한 것이며, 도 3은 본 발명 희생자 신원 확인 시스템의 입력 DB를 이루는 사후 자료 입력 DB를 도식적으로 도시한 것이며, 도 4는 본 발명 희생자 신원 확인 시스템의 입력 DB를 이루는 생전 자료 입력 DB를 도식적으로 도시한 것이며, 도 5 및 도 6은 본 발명 희생자 신원 확인 시스템의 실행을 설명하기 위하여 도시한 실행 흐름도이며, 도 7 내지 도 10는 치과 데이터 입력을 위하여 형성한 이(치)의 구조도이며, 도 11은 지문 포맷의 변환을 설명하기 위하여 도시한 순서도이며, 도 12는 본 발명 희생자 신원 확인 시스템에서 인체를 이루는 뼈의 분류 단계를 이루는 제1 및 제2 분류단계를 설명하기 위하여 도시한 인체 골격도이며, 도 13은 본 발명에 구비된 분류 단계를 따라 분류된 인체 골격도이며, 도 14는 본 발명에 구비된 분류 단계에 따라 인체를 이루는 각 뼈에 코드를 부여하는 방법을 설명하기 위하여 도시한 것이며, 도 15는 본 발명 희생자 신원 확인 시스템에서 인체 골격의 입력 단계를 이루는 상세 입력 단계 화면을 도시한 것이며, 도 16은 본 발명 희생자 신원 확인 시스템에서 두개골에 대한 자료 입력을 위한 표본자료를 나타낸 화면이며, 도 17은 본 발명 희생자 신원 확인 시스템의 성별 분석 단계에서 골반골과 그 특징 라인이 디스플레이된 화면이며, 도 18은 시신의 수습 중 촬영되어 저장된 골반골이 디스플레이된 화면이며, 도 19는 본 발명 희생자 신원 확인 시스템에서 신장 연산 자료에 필요한 골격을 나타낸 화면이며, 도 20은 본 발명 희생자 신원 확인 시스템을 이루는 유전자 확인 모듈의 플로우 챠트를 도시한 것이다.
도 1에 도시된 바와 같이 본 발명 희생자 신원 확인 시스템(100)은 신원 확인을 위한 입력 DB(200)와 인체를 이루는 뼈의 이미지가 저장되며 제어부(110)에 연결된 저장부(120)와, 제어부(110)에 연결되고 사용자 명령이 입력되는 수단인 입력부(130)와, 제어부(110)에 연결되며 저장부(120)에 저장된 자료나 연산 결과가 표시되는 디스플레이부(140)와, 상기 저장부(120), 입력부(130), 디스플레이부(140)에 연결되어 제어하는 제어부(120)로 이루어진다. 상기 저장부(120)는 하드디스크나 외장 메모리를 예로 들 수 있고, 입력부(130)는 키보드와 마우스일 수 있으며, 디스플레이부(140)는 LCD 모니터로 할 수 있다. 제어부(120)는 마이컴(CPU)으로 구현하는 것이 가능하다. 도 1에서 도면부호 150은 연산부이며, 연산부는 별도로 구비되지 않고 제어부(110)에서 연산이 수행될 수도 있다.
도 2에 도시된 바와 같이 상기 신원 확인을 위한 입력 DB(200)는 사후 자료(PM) 입력 DB(210)와 생전 자료(AM) 입력 DB(220)로 이루어진다. 사후 자료 입력 DB(210)는 수습된 희생자에 대하여 조사되어 입력 저장되어 마련된다. 생전 자료 입력 DB(220)는 수습된 희생자의 유가족으로부터 제공되거나 수사 기관으로부터 제공되어 저장 마련된다. 사후 자료(PM)는 사건 또는 사고(이하에서 '사고'라고 한다)가 발생한 현장에서 수습된 희생자에 대한 자료가 입력되어 마련되며, 생전 자료(AM)는 유가족 등으로부터 사고의 희생자와 관련있는 것으로 신고되어 유가족으로부터 제공된 희생자에 대한 자료나 희생자 수습 중에 발견된 신분증 등과 같은 자료를 기초로 수사 기관 등에서 수집한 자료가 입력되어 마련된다.
도 3에 도시된 바와 같이 사후 자료 입력 DB(210)는 종합 입력 모듈(211), 개인 소지품 입력 모듈(213), 신체 데이터 입력 모듈(215), 치아 데이터 입력 모듈(217), 유전자 데이터 입력 모듈(219), 지문 데이터 입력 모듈(212)로 이루어진다. 그리고 도 4에 도시된 바와 같이 생전 자료 입력 DB(220)도 사후 자료 입력 DB(210)와 같이 종합 입력 모듈(221), 개인 소지품 입력 모듈(223), 신체 데이터 입력 모듈(225), 치아 데이터 입력 모듈(227), 유전자 데이터 입력 모듈(229), 지문 데이터 입력 모듈(222)로 이루어진다. 입력 DB(200)에 희생자에 대한 사후 자료(PM)와 생전 자료(AM)가 입력되고, 입력부(130)를 통하여 확인 명령이 입력되면, 사후 자료(PM)와 생전 자료(AM)가 대비되고 대비 결과가 디스플레이부(140)에 디스플레이된다. 사후 자료 입력 DB(210)와 생전 자료 입력 DB(220)는 동일한 내용으로 이루어져 대비가 명확하게 이루어지도록 구성되어 있다.
도 5 및 도 6에 도시된 바와 같이, 사고에 대하여 사고마다 사후 자료 입력 DB(210)와 생전 자료 입력 DB(220)가 마련되어 저장되고, 대비되어(Matching) 디스플레이되도록 시스템이 작동된다. 대비 결과는 디스플레이부(140)에서 디스틀레이되어 제공될 수도 있고, 제어부(110)에 연결된 도시하지 않은 출력 수단(예, 프린터)을 통하여 출력되어 제공될 수도 있다. 제공된 대비 결과는 법의관 등 전문가에게 제공되어 확인(Confirmation), 협의(Reconciliation), 승인(Approval) 됨으로써 희생자 확인 절차가 마무리된다. 대비에 있어서 사후 자료 입력 DB(210)와 생전 자료 입력 DB(220)에 각각 입력되어 저장된 개인 소지품(Personal Effects)에 대한 자료, 신체(Physical characteristics) 데이터, 치아(Teeth) 데이터, 유전자(DNA) 데이터, 지문(Fingerprints) 데이터가 대비되어 제공된다.
본 발명에 따르는 희생자 신원 확인 시스템(100)이 실행되면, 디스플레이부(140)에 사후 자료 입력을 위한 화면과 생전 자료 입력을 위한 화면이 사용자의 선택에 의하여 디스플레이된다. 각 화면에는 사후 자료와 생전 자료 입력을 위한 메뉴가 표시되며, 사용자가 메뉴를 선택함으로써 사후 자료와 생전 자료가 입력되는 각 모듈이 디스플레이부(140)에 디스플레이되고, 각 모듈을 통하여 입력된 자료는 입력 후 입력부(130)를 통한 사용자의 명령에 의하여 저장부(120)에 저장된다.
디스플레이부(140)에서 사용자가 사후 자료 입력 DB(210)의 종합 입력 모듈(211)을 선택하면, 디스플레이부(140)에는 사고 장소, 사고명, 발생일, 희생자 발견 장소와 일시, 희생자 사진 촬영 여부, 사진이 필름 카메라에 의하여 촬영되었는지 디지털 카메라에 의하여 촬영되었는지를 입력할 수 있는 상태로 디스플레이된다. 사용자는 종합 입력 모듈(211)에서 해당 사항을 입력하고 저장하여 사후 자료 입력 DB(210)의 종합 데이터가 마련된다.
디스플레이부(140)에서 사용자가 생전 자료 입력 DB(220)의 종합 입력 모듈(221)을 선택하면, 디스플레이부(140)에는 성명, 생년월일, 성별, 사고 장소, 사고명, 발생일, DNA정보용 자료 제공여부, 생전자료 제공 일자, 생전자료 제공자 성명, 생전자료 제공자 연락처(주소, 이메일 주소, 전화번호), 국적을 입력할 수 있는 상태로 디스플레이되며, 사용자는 종합 입력 모듈에서 해당 사항을 입력하고 저장하여 생전 자료 입력 DB(220)의 종합 데이터가 마련된다.
생전 자료 입력 DB(220) 및 사후 자료 입력 DB(210)의 소지품 입력 모듈(213, 223)에서는 의류(모자, 스카프, 타이, 외투, 풀오버, 셔츠, 쪼끼, 가디건, 러닝셔츠, 드레스, 블라우스, 속치마, 장갑, 자켓, 바지, 양말, 벨트, 벨트버클)와 신발에 대하여 재질, 색상, 형태, 라벨, 크기에 대한 사항이 입력되고, 시계에 대하여 끈의 형태(체인, 스트랩), 재질, 색상, 디자인, 상표, 기재된 글씨에 대한 사항이 입력되며, 안경에 대하여 렌즈 형태, 컨택트 렌즈 여부, 렌지 재질, 다초점 여부에 대한 사항이 입력되며, 신분증(여권, 신용카드, 기부카드, 신분증, 여행자 수표, 개인 수표, 건강 카드)의 형태, 사진, 지문, 혈액형에 대한 사항이 입력되며, 소지품(지갑, 현금 벨트, 뱃지, 통화, 휴대폰, PDA, Sim Card, 티켓, 카메라)의 재질, 색상, 디자인, 제조사, 기재사항에 대한 사항이 입력되며, 링 체인(반지, 귀걸이, 이어클립, 목걸이, 펜던트, 팔찌, 피어싱, 노즈링)의 재질, 색상, 디자인, 기재된 글씨, 착용 부위에 대한 사항이 입력된다. 생전 자료 입력 DB(220) 및 사후 자료 입력 DB(210)에서는 동일하며 선택될 수 있는 형태로 디스플레이부(140)에 디스플레이되어 제공되어 선택 입력된다. 입력된 자료는 사용자의 저장 명령에 의하여 저장부(120)에 저장된다.
동일하며 선택될 수 있는 형태로 입력됨으로써 입력 내용에 제한이 있을 수 있으나, 저장부(120)에 동일한 포맷으로 저장될 수 있으며, 입력된 내용의 대비가 자동으로 이루어질 수 있다. 특히 재질, 색상은 선택만이 가능하도록 하였다.
생전 자료 입력 DB(220) 및 사후 자료 입력 DB(210)의 신체 데이터 입력 모듈(215, 225)에서는 신체를 이루는 머리, 목, 오른팔, 외팔, 오른손, 왼손, 몸통 정면, 몸통 후면, 오른쪽 다리, 왼쪽 다리, 오른발, 왼발에 대한 상태가 입력되며, 상태는 "Damaged", "Burnt", "Decomp", "Skelet", "Missing", "Loose" 중 어느 하나가 선택되어 입력되도록 디스플레이부에 디스플레이되며; 추정나이, 키, 몸무게, 체형(마른체형, 보통 체형, 뚱뚱한 체형), 머리 형태(계란형, Pointheaded, Pyramidal, Circular, Rectangular, Quandrangular), 인종(Caucasoid, Mongoloid, Negroid), 머리카락 종류(Natural, Articifial, Wig, Braided, Implanted, Hair-piece), 머리카락 길이(Short, Medium, Long, Shaved), 머리카락 색상(Blond, Brown, Black, Red, Grey, White, Yellow), 머리카락 두께(Thin, Medium, Thick), 머리카락 형태(Straight, Wavy, Curly, Parted)가 더 선택되어 입력되도록 디스플레이되고; 앞이마 비(Low, Medium, High, Narrow), 눈썹의 형태, 눈의 색상, 코의 형태, 얼굴모의 형태와 색상, 귀의 형태와 크기, 입의 크기, 입술의 두께, 흡연 흔적, 턱의 크기와 형태, 목의 길이, 손의 크기와 형태, 손톱의 길이, 발의 크기와 형태, 발톱의 상태, 체모량과 체모 색상, 음모량과 음모 색상이 선택되어 입력되도록 디스플레이되고; 생전 자료 입력 DB(220) 및 사후 자료 입력 DB(210)에서 동일하며 선택될 수 있는 형태로 제공되어 선택될 수 있도록 디스플레이된다. 입력된 자료는 사용자의 저장 명령에 의하여 저장부(120)에 저장된다. 신체 데이터 입력 모듈(215, 225)을 통하여 입력된 자료는 사용자의 저장 명령에 의하여 저장부(120)에 저장된다.
생전 자료 입력 DB(220) 및 사후 자료 입력 DB(210)의 치아 데이터 입력 모듈(217, 227)에서는 각 이에 대하여 이의 위치를 나타내는 번호와 병기된 이의 상태를 선택하는 영역과, 번호와 이의 모형이 디스플레이부(140)에 디스플레이된다. 이의 모형은 도 7 내지 도 10에 도시된 바와 같이 치아가 5개의 영역으로 분할되어 중심에 사각형과 사각형을 둘러싸는 4개의 사다리꼴로 이루어진 사각형으로 표시된 평면 형상으로 디스플레이된다. 치아가 중심부에 사각형을 가지는 5개의 영역으로 이루어진 평면 형태로 디스플레이됨으로써 치아의 치료 위치를 정확하게 입력하여 대비가 명확하게 이루어지는 효과가 발생한다. 이의 상태를 선택하는 영역에서는 "Normal"(정상), "Filling"(메움), "Crown"(씌움), "Pontic"(브릿지), "Implant"(임플란트), "Missing"(손실) 중 어느 하나가 선택될 수 있도록 디스플레이되며, 선택 영역에서 선택 결과에 따라 해당 이의 모형은 선택 결과가 반영되어 각각 다른 형태로 디스플레이된다. 예를 들어 사용자가 이의 위치를 선택하고 선택 영역에서 어느 하나 이상이 선택되면 이의 모형이 변형되어 디스플레이된다. 사용자가 치아 데이터 입력 모듈(217, 227)의 화면에서 이를 선택하고 이의 상태를 선택하면 이의 모형에 이에 대한 내용이 반영되어 변형 형태로 디스플레이된다. 그리고 사후 자료와 사전 자료가 대비되어 같은 번호에 같은 상태를 가지는 데이터는 생전 자료와 사후 자료가 함께 디스플레이된다.
상기 생전 자료 입력 DB(220) 및 사후 자료 입력 DB(210)의 지문 데이터 입력 모듈(212, 222)에서는 디스플레이부(140)에 양 손바닥 모형이 디스플레이되고, 손바닥 모형에는 엄지 손가락 부분이 2마디로 분리되어 마디마다 입력부(130)를 통한 클릭에 의하여 저장부(120)에 저장된 파일과 링크되도록 하기 위한 2개의 영역이 형성되고, 나머지 손가락 부분은 3마디로 분리되어 마디마다 입력부(130)를 통한 클릭에 의하여 저장부(120)에 저장된 파일과 링크되도록 하기 위한 3개의 영역이 형성되며, 손바닥 부분에 저장부에 저장된 파일과 링크되도록 하기 위한 4개의 영역이 형성된다.
손바닥의 각 영역은 저장부(120)에 저장된 지문 이미지가 링크되어 저장된다. 상기와 같이 손바닥 모형이 복수의 영역으로 분할되고, 각 영역이 저장부(120)에 저장된 지문 이미지와 링크됨으로써 지문에 대한 내용을 정확하게 입력할 수 있으며, 대비도 용이하게 이루어질 수 있다.
채취된 지문이 저장부에 저장될 때, 국가마다 채취된 지문이미지가 손바닥 모형에 링크될 때 링크되는 위치가 다르게 된다. 따라서 채취하는 국가가 1개 이상의 국가인 경우에는 서로 다른 위치의 지문이 손바닥 모형에 링크되어 위치하여 서로 다른 지문이 비교될 수 있으므로, 위치가 변환되는 변환 과정이 포함된다.
도 11에 도시된 바와 같이, 어느 국가에 대한 포맷으로 채취된 지문은 변환 함수에 의하여 공통 지문 포켓으로 변환되고, 저장부(120)에 저장되며 손바닥 부분 이미지와 링크된다. 지문이 채취되고 이름이 부여될 때, 손바닥 부분 이미지와 링크되어 나타나는 위치가 국가마다 다르게 된다. 예를 들면, 대한민국 포맷에서 왼쪽 손의 검지 손가락 지문을 채취하고 왼쪽 검지 손가락으로 입력하면, 디스플레이된 양손 그림에서 왼손의 검지 손가락의 위치에 채취된 지문이미지가 위치하게 된다. 중국 포맷에서는 오른손과 왼손의 위치가 변하게 손바닥 부분 이미지가 나타나게 되므로, 오른손 약지의 손가락 위치에 지문이미지가 나타나게 된다. 따라서, 국가에 대한 정보와 함께 손바닥 부분 이미지와 링크되는 지문의 위치가 변환되는 변환 단계가 포함된다. 변환되고 저장부(120)에 저장된다. 저장부(120)에는 변환을 위한 데이터로서 국가와 국가에 따른 지문 이미지 포맷에 대한 정보가 저장된다.
지문을 대비하는 구체적인 내용은 공지의 사항이므로 이에 대한 상세한 설명은 생략한다.
도 12 내지 도 20에 도시된 바와 같이, 생전 자료 입력 DB(220) 및 사후 자료 입력 DB(210)의 신체 데이터 입력 모듈(215, 225)은 골격 데이터 입력 모듈이 포함되며, 골격 데이터 입력 모듈은 입력을 위하여 저장부(120)에 미리 저장된 뼈의 이미지가 디스플레이부(140)에 디스플레이되는 입력 단계와, 입력된 뼈에 대한 자료와 측정 자료가 연산되는 분석 단계로 이루어진다. 저장부(120)에 저장되어 디스플레이부(140)에 디스플레이되는 뼈의 이미지는 뼈를 이루는 각 영역이 분할 영역으로 디스플레이된다.
본 발명에 있어서, 인체를 이루는 뼈는 위치에 따라 분할 분류되고 코드가 부여되어 코드와 매칭되는 뼈의 이미지가 저장부(120)에 저장된다.
분류 단계는 도 12에 도시된 바와 같이 인체가 인체를 뼈를 위치에 따라 중심축부와 좌우 상하로 나누어지는 제1 분류단계와, 제1 분류단계에서 나누어진 영역이 복수의 영역으로 분할되는 제2 분류단계와, 제2 분류단계서 나누어진 영역에 해당하는 뼈들에 대하여 좌우 상하로 나누어 생성되는 코드가 뼈들의 명칭과 함께 부여되어 코드가 생성되는 코드 생성 단계로 이루어지며, 생성된 코드들은 저장부(120)에 저장된다. 코드들은 뼈의 명칭에 링크되어 저장부(120)에 저장된다.
상기 제2 분류단계에서 상기 중심축부는 중심부와 중심주변부로 나누어지고 부속부는 좌우의 상부림부와 하부림부로 나누어져, 중심부, 중심주변부(우), 중심주변부(좌), 상부림부(우), 상부림부(좌), 하부림부(우), 하부림부(좌)로 분할된다.
인체를 이루는 뼈 중 두개골(하악골 포함)과, 경추, 요추, 흉추, 흉골, 천골, 미골은 중심부(Central Axis Part)로 분류되어 저장되고; 중심부를 이루는 뼈의 우측에 위치하는 상지대(쇄골, 견갑골), 늑골, 하지대는 중심주변부(우)로 분류되고; 중심부를 이루는 뼈의 좌측에 위치하는 상지대(쇄골, 견갑골), 늑골, 하지대는 중심주변부(좌)로 분류되고; 좌우 팔(상완골, 요골, 척골)과 손을 이루는 뼈(주상골, 월상골, 삼각골, 두상골, 대능형골, 소능형골, 유두골, 유구골, 중수골, 기절골, 중절골, 말수골)는 각각 상부림부(좌) 및 상부림부(우)로 분류되어 저장되며; 좌우 다리(대퇴골, 슬개골, 경골, 비골)와 좌우 발을 이루는 뼈(종골, 거골, 주상골, 설상골, 입방골, 근지골, 중지골, 원지골)는 각각 하부림부(좌)와 하부림부(우)로 분류되어 저장된다.
코드 부여에 있어서, 상기 중심축부에는 코드 '0', 상부에는 코드 '1', 하부에는 코드 '2', 좌측부에는 코드 '1', 우측부에는 코드 '2'가 부여되어, 도 6에 도시된 바와 같이 중심축부를 이루는 중심부에 속한 것으로 분류되는 뼈들에는 코드 '00'이 부여되고, 중심주변부(우)에 속하는 것으로 분류되는 뼈들에는 코드 '01'이 부여되고, 중심주변부(좌)에 속하는 것으로 분류되는 뼈들에는 코드 '02'가 부여되고, 우측 상부림부에 속하는 것으로 분류되는 뼈들에는 코드 '11'이 부여되고, 좌측 상부림부에 속하는 것으로 분류되는 뼈들에는 코드 '12'가 부여되며, 우측 하부림부에 속하는 것으로 분류되는 뼈들에는 코드 '21'이 부여되고, 좌측 하부림부에 속하는 것으로 분류되는 뼈들에는 코드 '22'가 부여되어; 뼈의 약어와 함께 저장부에 저장될 수 있다.
도 14는 코드 생성의 예를 도시한 것으로, 위에서 설명한 뼈의 위치에 따르는 2개의 숫자와, 뼈의 약어가 함께 코드로 생성되어 각 뼈를 나타내는 코드로 저장부(120)에 저장될 수 있다. 도 14에서 좌측의 빈 2개의 박스에는 위에서와 같이 위치에 따라 분할된 영역의 2개의 숫자 자리이다. "location"은 위치를 나타내는 것으로, 경추, 요추, 손의 기절골, 중절골, 말절골, 발의 근지골, 중지골, 원지골과 같이 반복되는 경우에는 이를 구분하기 위하여 "01", "02", "03" 등과 같이 위치를 나타내는 숫자를 부가하여 코드가 생성된다. 경추, 요충 등은 위에서부터 차례로 "01", "02" 등과 같이 위치 숫자가 부여될 수 있다.
상기와 같은 방법에 따라 인체를 이루는 뼈가 분류되고 코드가 부여되어 저장됨으로써, 인체 뼈에 대한 기본적인 지식이 있는 사용자라면 누구나 사고 현장 등에서 수습되는 뼈에 대하여 간단하면서도 일률적으로 코드를 생성하여 부여할 수 있다. 기존에는 수습되는 뼈에 그 뼈의 명칭을 기재한 태그를 부착하고 촬영하면서 수습하였다.
인체를 이루는 각 뼈의 명칭은 선택 명령 입력 영역 및 상태 명령 입력 영역과 함께 디스플레이되며, 뼈의 이미지에서 각 뼈에 해당되는 영역과 선택 명령 입력 영역 및 상태 명령 입력 영역은 링크되어, 사용자가 입력부(130)를 통하여 수습된 뼈에 대한 선택 명령 입력 영역을 선택하면 입력 신호는 제어부(110)로 전달되고 제어부(110)로부터의 제어 명령에 의하여 뼈의 이미지에서 해당되는 뼈의 영역의 색상이 변경되어 디스플레이되며, 사용자가 입력부를 통하여 수습된 뼈에 대한 상태 명령 입력 영역을 선택하면 입력 신호는 제어부(110)로 전달되고, 제어부(110)로부터의 제어 명령에 의하여 뼈의 이미지에서 해당되는 뼈의 영역의 색상이 선택 명령 입력에 의한 색상과 다른 색상으로 변경되어 디스플레이된다.
골격 데이터 입력 모듈은 디스플레이될 때 현장 입력을 위한 현장 입력 단계와, 각 뼈에 대한 정보가 입력되기 위한 상세 입력 단계로 나누어져, 사용자의 선택에 의하여 각각 디스플레이된다. 사용자가 현장 입력 단계를 선택하면 입력신호는 제어부(110)로 전달되어 제어부(110)로부터의 제어 신호에 의하여 디스플레이부(140)에는 제1 분류단계로 분류된 영역에 속하는 입력 영역이 뼈의 이미지와 함께 디스플레이되며; 사용자가 상세 입력 단계를 선택하면, 입력신호는 제어부로 전달되어 제어부(110)로부터의 제어 신호에 의하여 인체를 이루는 뼈의 명칭과 함께 저장부에 저장된 뼈의 이미지가 디스플레이되며, 인체를 이루는 각 뼈의 명칭은 선택 명령 입력 영역 및 상태 명령 입력 영역과 함께 디스플레이되며; 뼈의 이미지에서 각 뼈에 해당되는 영역과 선택 명령 입력 영역 및 상태 명령 입력 영역은 링크되어, 사용자가 입력부(130)를 통하여 수습된 뼈에 대한 선택 명령 입력 영역을 선택하면 입력 신호는 제어부(110)로 전달되고, 제어부(110)로부터의 제어 명령에 의하여 뼈의 이미지에서 해당되는 뼈의 영역의 색상이 변경되어 디스플레이된다.
사용자가 현장 입력 단계를 선택하면, 입력신호는 제어부(110)로 전달되어 제어부(110)로부터의 제어 신호에 의하여 디스플레이부(140)에는 제1 분류단계로 분류된 영역에 속하는 입력 영역이 뼈의 이미지와 함께 디스플레이된다. 현장에서 수습할 때 상세 정보를 입력하기에는 환경이 좋지 않을 수 있고, 수습에 보다 집중되어야 하므로, 상기와 같이 제1 분류단계로 분류된 영역을 입력하도록 함으로써 충실한 수습이 이루어질 수 있다.
사용자가 상세 입력 단계를 선택하면, 입력신호는 제어부(110)로 전달되어 제어부(110)로부터의 제어 신호에 의하여 인체를 이루는 뼈의 명칭과 함께 저장부에 저장된 뼈의 이미지가 디스플레이되며, 인체를 이루는 각 뼈의 명칭은 선택 명령 입력 영역 및 상태 명령 입력 영역과 함께 디스플레이된다.
선택 명령 입력 영역은 뼈의 명칭 코드 우측의 청색과 적색 버튼 그리고 "nomal", "burnt", "damaged"이라는 인덱스를 가지는 뼈의 상태를 나타내는 영역으로, 뼈의 이미지에서 각 뼈에 해당되는 영역과 선택 명령 입력 영역 및 상태 명령 입력 영역은 링크되어, 사용자가 입력부(130)를 통하여 수습된 뼈에 대한 선택 명령 입력 영역을 선택하면 입력 신호는 제어부(110)로 전달되고, 제어부(110)로부터의 제어 명령에 의하여 뼈의 이미지에서 해당되는 뼈의 영역의 색상이 변경되어 디스플레이된다.
한편, 1개의 현장에서 1구 이상의 혼합된 뼈들이 수습되는 때에는, 현장이 복수의 영역(예, 가로세로 30㎝를 가지는 복수의 격자형 영역)으로 분할되고, 각 영역의 번호가 부여되고(예, 일련번호), 수습된 뼈에 영역의 번호가 부여되며, 각 영역의 뼈들은 동일 용기에 담겨져 수습된다. 그리고 각 용기에 담겨진 뼈들은 영역번호와 함께 위와 같은 방법에 따라 분류된다.
분석 단계는 성별 분석 단계와, 신장 분석 단계와, 연령 분석 단계가 포함될 수 있다.
사용자가 디스플레이부(140)에 디스플레이된 메뉴 중 성별 분석 메뉴를 선택하면 성별 분석 단계가 실행된다. 성별 분석 단계에서는 도 16 및 도 18에 도시된 바와 같이 제어부(110)로부터의 신호에 의하여 디스플레이부(140)에는 두개골 및 골반골(Hipbone)이 디스플레이되며, 그 특징 라인과 함께 디스플레이된다. 그리고 수습 중 촬영되어 저장된 두개골 및 골반골의 사진도 함께 디스플레이된다. 사진 촬영 저장 시 두개골 및 골반골에 위에 설명한 바와 같은 방법으로 분류되어 생성되는 코드가 부여되어 파일명으로 저장된다. 사용자는 두개골 및 골반골의 특징 형태를 비교하면서 디스플레이된 디스플레이부에 직접 해당 사항을 클릭하여 입력하여 저장한다.
사용자가 디스플레이부(140)에 디스플레이된 메뉴 중 신장 분석 메뉴를 선택하며 신장 분석 단계가 실행된다. 신장 분석 단계에서는 도 19에 도시된 바와 같이 제어부(110)로부터의 신호에 의하여 디스플레이부(140)에는 대퇴골, 상완골, 경골 중 어느 하나 이상의 길이를 입력할 수 있는 영역이 디스플레이된다. 이와 함께 대퇴골, 상완골, 경골 중 어느 하나 이상의 그림도 함께 디스플레이부(140)에 디스플레이된다.
사용자에 의하여 대퇴골, 상완골, 경골 중 어느 하나 이상의 길이가 입력되면 저장부(120)에 미리 저장된 계산식(동아시인 남자 신장 계측식) 의하여 신장이 연산되어 연산값(신장)은 저장부(120)에 저장되고 디스플레이부(140)에 표시된다. 아래 계산식에서 Hum은 대퇴골 길이, Rad는 상완골 길이, Ulm은 경골 길이를 나타낸다.
수학식 1
Figure PCTKR2015013385-appb-M000001
사용자가 디스플레이부(140)에 디스플레이된 메뉴 중 성별 분석 메뉴를 선택하며 성별 분석 단계가 실행된다. 성별 분석 단계에서는 도 17 및 도 18에 도시된 바와 같이 제어부(110)로부터의 신호에 의하여 디스플레이부(140)에는 무명골(Hipbone)이 디스플레이되며, 그 특징 라인과 함께 디스플레이된다. 그리고 수습 중 촬영되어 저장된 무명골의 사진도 함께 디스플레이된다. 사진 촬영 저장 시 무명골에 위에 설명한 바와 같은 방법으로 분류되어 생성되는 코드가 부여되어 파일명으로 저장된다. 사용자는 무명골의 특징 형태를 비교하면서 디스플레이된 디스플레이부에 직접 해당 사항을 클릭하여 입력하여 저장한다.
사용자가 디스플레이부(140)에 디스플레이된 메뉴 중 연령 분석 메뉴를 선택하며 연령 분석 단계가 실행된다. 연령 분석 단계에서는 제어부(110)로부터의 신호에 의하여 디스플레이부(140)에는 치골 결합면과 장골 귀모양면의 이미지가 디스플레이된다. 그리고 치골 결합면과 장골 귀모양면의 이미지와 함께 그 상(Phase)도 디스플레이된다. 이와 함께 수습 중 촬영되어 저장된 치골의 치골 결합면과 장골 귀모양면의 이미지도 함께 디스플레이된다. 사진 촬영 저장 시 치골 및 장골에 위에 설명한 바와 같은 방법으로 분류되어 생성되는 코드가 부여되어 파일명으로 저장된다. 사용자는 치골 결합면과 장골 귀모양면의 특징 형태를 비교하면서 디스플레이된 디스플레이부(140)에 직접 해당 사항을 클릭하여 입력하여 저장한다.
생전 자료 입력 DB(220) 및 사후 자료 입력 DB(210)의 유전자 데이터 입력 모듈(219, 229)에서 사후 자료로는 수습된 희생자로부터 얻어진 유전자 정보가 입력되어 저장되고, 생전 자료로는 사고의 희생자와 관련있는 것으로 신고되어 유가족으로부터 제공된 희생자에 대한 유전자 내용, 희생자의 부모, 형제(자매)로부터 마련된 유전자 정보가 입력되어 저장된다.
유전자 데이터로는 위치 정보(Locus)와 핵 염색체의 STR(Short Tandem Repeat) 정보 및 Y 염색체의 STR 정보가 저장되며, 미토콘드리아 DNA 정보가 저장된다. 유전자 데이터를 근거로 친족관계가 입력되면 디스플레이부에는 가족관계 트리가 디스플레이된다. 그리고 유전자 데이터와 가족관계 트리로부터 우도비(LR; Likelihood Ratio)가 연산되어 디스플레이된다. 우도비의 연산은 공지의 기술이므로 이에 대한 설명은 생략한다.
상기에서와 같이 생전 자료 입력 DB(220) 및 사후 자료 입력 DB(210)에 각각의 모듈을 통하여 입력되고 저장부(120)에 저장된 자료들은 같은 생전 자료와 사후 자료가 동일 포맷으로 입력되어 저장되므로, 직접 대비가 되며 사후 자료와 사전 자료가 대비되어 사후 자료를 기준으로 서로 일치하는 내용이 많은 생전 자료가 순서대로 디스플레이부(140)에 디스플레이된다.

Claims (16)

  1. 신원 확인을 위한 입력 DB와 인체를 이루는 뼈의 이미지가 저장되며 제어부에 연결되는 저장부와, 제어부에 연결되고 사용자 명령이 입력되는 수단인 입력부와, 제어부에 연결되며 저장부에 저장된 자료나 연산 결과가 표시되는 디스플레이부와, 상기 저장부, 입력부, 디스플레이부에 연결되어 제어 하는 제어부로 이루어지는 희생자 신원 확인 시스템에 있어서; 상기 신원 확인을 위한 입력 DB는 사후 자료(PM) 입력 DB와 생전 자료(AM) 입력 DB로 이루어지고; 상기 사후 자료(PM) 입력 DB와 생전 자료(AM) 입력 DB는 종합 입력 모듈, 개인 소지품 입력 모듈, 신체 데이터 입력 모듈, 치아 데이터 입력 모듈, 유전자 데이터 입력 모듈, 지문 데이터 입력 모듈로 이루어지며; 사후 자료(PM) 입력 DB와 생전 자료(AM) 입력 DB로 입력되어 저장부에 저장된 사후 자료(PM)와 생전 자료(AM)는 서로 대비되어 디스플레이부에 디스플레이되며; 상기 신체 데이터 입력 모듈에는 골격 데이터 입력 모듈이 포함되며, 골격 데이터 입력 모듈은 입력을 위하여 저장부에 저장된 골격의 이미지가 디스플레이부에 디스플레이되는 입력 단계와, 입력된 골격에 대한 자료와 측정 자료가 연산되는 분석 단계로 이루어지며; 저장부에 저장되어 디스플레이부에 디스플레이 되는 골격의 이미지는 골격을 이루는 각 영역이 분할 영역으로 디스플레이되며; 동일 영역에서 수습된 골격들은 동일 용기에 수습되고 촬영되어 골격 이미지가 마련되고 각 골격의 이미지에는 골격이 수습된 현장의 복수의 영역에 대한 영역 번호가 부여되고 분류되는 것을 특징으로 하는 희생자 신원 확인 시스템.
  2. 제1 항에 있어서, 인체를 이루는 각 뼈의 명칭은 선택 명령 입력 영역 및 상태 명령 입력 영역과 함께 디스플레이되며, 뼈의 이미지에서 각 뼈에 해당되는 영역과 선택 명령 입력 영역 및 상태 명령 입력 영역은 링크되며; 사용자가 입력부를 통하여 수습된 뼈에 대한 선택 명령 입력 영역을 선택하면 입력 신호는 제어부로 전달되고 제어부로부터의 제어 명령에 의하여 뼈의 이미지에서 해당되는 뼈의 영역의 색상이 변경되어 디스플레이되며, 사용자가 입력부를 통하여 수습된 뼈에 대한 상태 명령 입력 영역을 선택하면 입력 신호는 제어부로 전달되고, 제어부로부터의 제어 명령에 의하여 뼈의 이미지에서 해당되는 뼈의 영역의 색상이 선택 명령 입력에 의한 색상과 다른 색상으로 변경되어 디스플레이되는 것을 특징으로 하는 희생자 신원 확인 시스템.
  3. 제2 항에 있어서, 사용자가 입력부를 통하여 입력을 위한 신호를 입력하면, 입력신호는 제어부로 전달되어 제어부로부터의 제어 신호에 의하여 디스플레이부에는 인체를 이루는 뼈의 명칭과 함께 저장부에 저장된 뼈의 이미지가 디스플레이되며; 디스플레이되는 단계는 현장 입력을 위한 현장 입력 단계와, 각 뼈에 대한 정보가 입력되기 위한 상세 입력 단계로 나누어져, 사용자의 선택에 의하여 각각 디스플레이되는 것을 특징으로 하는 희생자 신원 확인 시스템.
  4. 제3 항에 있어서, 사용자가 현장 입력 단계를 선택하면 입력신호는 제어부로 전달되어 제어부로부터의 제어 신호에 의하여 디스플레이부에는 제1 분류단계로 분류된 영역에 속하는 입력 영역이 뼈의 이미지와 함께 디스플레이되며; 사용자가 상세 입력 단계를 선택하면, 입력신호는 제어부로 전달되어 제어부로부터의 제어 신호에 의하여 인체를 이루는 뼈의 명칭과 함께 저장부에 저장된 뼈의 이미지가 디스플레이되며, 인체를 이루는 각 뼈의 명칭은 선택 명령 입력 영역 및 상태 명령 입력 영역과 함께 디스플레이되며; 뼈의 이미지에서 각 뼈에 해당되는 영역과 선택 명령 입력 영역 및 상태 명령 입력 영역은 링크되어, 사용자가 입력부를 통하여 수습된 뼈에 대한 선택 명령 입력 영역을 선택하면 입력 신호는 제어부로 전달되고, 제어부로부터의 제어 명령에 의하여 뼈의 이미지에서 해당되는 뼈의 영역의 색상이 변경되어 디스플레이되는 것을 특징으로 하는 희생자 신원 확인 시스템.
  5. 제1 항에 있어서, 상기에서 분석 단계는 성별 분석 단계를 포함하여, 사용자에 의해 성별분석 명령이 입력되면, 제어부로부터의 제어 신호에 의하여 저장부에 저장된 두개골 및 골반골이 디스플레이되며, 두개골 및 골반골의 사진 및 상태 입력 영역이 함께 디스플레이부에 디스플레이되며, 두개골 및 골반골의 성별 추정 상(Phase) 정보가 함께 디스플레이되는 것을 특징으로 하는 희생자 신원 확인 시스템.
  6. 제1 항 또는 제5 항에 있어서, 상기 분석 단계는 신장 분석 단계를 포함하며; 신장 분석 단계에서는 대퇴골, 상완골, 경골 중 어느 하나 이상의 길이를 입력할 수 있는 영역이 디스플레이되며; 사용자에 의하여 대퇴골, 상완골, 경골 중 어느 하나 이상의 길이가 입력되고, 인종 및 성별이 입력되면 저장부에 미리 저장된 계산식
    Figure PCTKR2015013385-appb-I000002
    에 의하여 신장이 연산되어 저장부에 저장되고 디스플레이부에 표시되며; 계산식에서 Hum은 대퇴골 길이, Rad는 상완골 길이, Ulm은 경골 길이를 나타내는 것을 특징으로 하는 희생자 신원 확인 시스템.
  7. 제6 항에 있어서, 상기 분석 단계는 연령 분석 단계를 포함하며; 사용자에 의하여 연령 분석 명령이 입력되면, 제어부로부터의 제어 신호에 의하여 저장부에 저장된 치골 결합면과 장골 귀모양면의 사진 및 상태 입력 영역이 함께 디스플레이부에 디스플레이되며; 치골 결합면 및 장골 귀모양면의 상(Phase) 정보가 함께 디스플레이되는 것을 특징으로 하는 희생자 신원 확인 시스템.
  8. 제1 항에 있어서, 상기 치아 데이터 입력 모듈에서는 각 이에 대하여 이의 위치를 나타내는 번호와 병기된 이의 상태를 선택하는 영역과, 번호와 이의 모형이 디스플레이부에 디스플레이되며, 이의 모형은 치아가 5개의 영역으로 분할되어 중심에 사각형과 사각형을 둘러싸는 4개의 사다리꼴로 이루어진 사각형으로 표시되어 디스플레이되는 것을 특징으로 하는 희생자 신원 확인 시스템.
  9. 제8 항에 있어서, 생전 자료 및 사후 자료 입력 DB의 이의 상태를 선택하는 영역에서는 "Normal"(정상), "Filling"(메움), "Crown"(씌움), "Pontic"(브릿지), "Implant"(임플란트), "Missing"(손실) 중 어느 하나가 선택되며, 선택 영역에서 선택 결과에 따라 해당 이의 모형은 선택 결과가 반영되어 각각 다른 형태로 디스플레이되는 것을 특징으로 하는 희생자 신원 확인 시스템.
  10. 제9 항에 있어서, 사후 자료(PM)와 생전 자료(AM)의 대비에서 번호와 선택 결과가 반영된 이의 모형이 사후 자료(PM)와 생전 자료(AM)가 함께 디스플레이부에 디스플레이되는 것을 특징으로 하는 희생자 신원 확인 시스템.
  11. 제1 항에 있어서, 생전 자료 및 사후 자료 입력 DB의 지문 데이터 입력 모듈에서는 디스플레이부에 양 손바닥 모형이 디스플레이되고, 손바닥 모형에는 엄지 손가락 부분이 2마디로 분리되어 마디마다 입력부를 통한 클릭에 의하여 저장부에 저장된 파일과 링크되도록 하기 위한 2개의 영역이 형성되고, 나머지 손가락 부분은 3마디로 분리되어 마디마다 입력부를 통한 클릭에 의하여 저장부에 저장된 파일과 링크되도록 하기 위한 3개의 영역이 형성되며, 손바닥 부분에 저장부에 저장된 파일과 링크되도록 하기 위한 4개의 영역이 형성되어; 각 영역과 저장부에 저장된 지문 이미지가 링크되어 저장되며; 상기 지문 이미지가 저장부에 저장될 때 저장부에 저장된 변환데이터에 의하여 지문의 위치가 변환되어 저장부에 저장되는 것을 특징으로 하는 희생자 신원 확인 시스템.
  12. 제1 항에 있어서, 생전 자료 및 사후 자료 입력 DB의 소지품 입력 모듈에서는 의류(모자, 스카프, 타이, 외투, 풀오버, 셔츠, 쪼끼, 가디건, 러닝셔츠, 드레스, 블라우스, 속치마, 장갑, 자켓, 바지, 양말, 벨트, 벨트버클)와 신발에 대하여 재질, 색상, 형태, 라벨, 크기에 대한 사항이 입력되고, 시계에 대하여 끈의 형태(체인, 스트랩), 재질, 색상, 디자인, 상표, 기재된 글씨에 대한 사항이 입력되며, 안경에 대하여 렌즈 형태, 컨택트 렌즈 여부, 렌지 재질, 다초점 여부에 대한 사항이 입력되며, 신분증(여권, 신용카드, 기부카드, 신분증, 여행자 수표, 개인 수표, 건강 카드)의 형태, 사진, 지문, 혈액형에 대한 사항이 입력되며, 소지품(지갑, 현금 벨트, 뱃지, 통화, 휴대폰, PDA, Sim Card, 티켓, 카메라)의 재질, 색상, 디자인, 제조사, 기재사항에 대한 사항이 입력되며, 링 체인(반지, 귀걸이, 이어클립, 목걸이, 펜던트, 팔찌, 피어싱, 노즈링)의 재질, 색상, 디자인, 기재된 글씨, 착용 부위에 대한 사항이 생전 자료 및 사후 자료 입력 DB에서 동일하며 선택될 수 있는 형태로 제공되어 선택 입력되는 것을 특징으로 하는 희생자 신원 확인 시스템.
  13. 제1 항에 있어서, 생전 자료 및 사후 자료 입력 DB의 신체 데이터 입력 모듈에서는 신체를 이루는 머리, 목, 오른팔, 외팔, 오른손, 왼손, 몸통 정면, 몸통 후면, 오른쪽 다리, 왼쪽 다리, 오른발, 왼발에 대한 상태가 입력되며, 상태는 "Damaged", "Burnt", "Decomp", "Skelet", "Missing", "Loose" 중 어느 하나가 선택되어 입력되도록 디스플레이부에 디스플레이되며; 생전 자료 및 사후 자료 입력 DB에서 동일하며 선택될 수 있는 형태로 제공되어 선택 입력되는 것을 특징으로 하는 희생자 신원 확인 시스템.
  14. 제13 항에 있어서, 생전 자료 및 사후 자료 입력 DB의 신체 데이터 입력 모듈에서는 추정나이, 키, 몸무게, 체형(마른체형, 보통 체형, 뚱뚱한 체형), 머리 형태(계란형, Pointheaded, Pyramidal, Circular, Rectangular, Quandrangular), 인종(Caucasoid, Mongoloid, Negroid), 머리카락 종류(Natural, Articifial, Wig, Braided, Implanted, Hair-piece), 머리카락 길이(Short, Medium, Long, Shaved), 머리카락 색상(Blond, Brown, Black, Red, Grey, White, Yellow), 머리카락 두께(Thin, Medium, Thick), 머리카락 형태(Straight, Wavy, Curly, Parted)가 더 선택되어 입력되도록 디스플레이되며; 생전 자료 및 사후 자료 입력 DB에서 동일하며 선택될 수 있는 형태로 제공되어 선택 입력되는 것을 특징으로 하는 희생자 신원 확인 시스템.
  15. 제13 항에 있어서, 생전 자료 및 사후 자료 입력 DB의 신체 데이터 입력 모듈에서는 앞이마 비(Low, Medium, High, Narrow), 눈썹의 형태, 눈의 색상, 코의 형태, 얼굴모의 형태와 색상, 귀의 형태와 크기, 입의 크기, 입술의 두께, 흡연 흔적, 턱의 크기와 형태, 목의 길이, 손의 크기와 형태, 손톱의 길이, 발의 크기와 형태, 발톱의 상태, 체모량과 체모 색상, 음모량과 음모 색상이 선택되어 입력되도록 디스플레이되며; 생전 자료 및 사후 자료 입력 DB에서 동일하며 선택될 수 있는 형태로 제공되어 선택 입력되는 것을 특징으로 하는 희생자 신원 확인 시스템.
  16. 제1 항에 있어서, 상기 유전자 데이터 입력 모듈에서는 유전자 데이터로 유전자 위치 정보와 핵 염색체의 STR 정보, Y 염색체의 STR 정보, 미토콘드리아 DNA 정보가 입력되어 저장되며; 유전자 데이터로부터 친족관계가 입력되면 디스플레이부에는 가족관계 트리가 디스플레이되고, 유전자 데이터와 가족관계 트리로부터 우도비가 연산되어 디스플레이되는 것을 특징으로 하는 희생자 신원 확인 시스템.
PCT/KR2015/013385 2014-12-11 2015-12-08 희생자 신원 확인 시스템 WO2016093594A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020140178281A KR101707025B1 (ko) 2014-12-11 2014-12-11 희생자 신원 확인 시스템
KR10-2014-0178281 2014-12-11

Publications (1)

Publication Number Publication Date
WO2016093594A1 true WO2016093594A1 (ko) 2016-06-16

Family

ID=56107707

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2015/013385 WO2016093594A1 (ko) 2014-12-11 2015-12-08 희생자 신원 확인 시스템

Country Status (2)

Country Link
KR (1) KR101707025B1 (ko)
WO (1) WO2016093594A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102041888B1 (ko) * 2017-08-28 2019-11-06 주식회사 디디에스 구강 관리 시스템

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050120339A (ko) * 2004-06-18 2005-12-22 엘지전자 주식회사 휴대폰에 장착된 카메라를 이용한 신원확인 장치 및 방법
KR20130077658A (ko) * 2011-12-29 2013-07-09 대한민국(관리부서:행정안전부 국립과학수사연구원장) 유전자 분석을 이용한 친자확인 검증시스템 및 그 방법
JP5475181B1 (ja) * 2013-10-23 2014-04-16 智之 亀田 身元確認支援システム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110301976A1 (en) 2010-06-03 2011-12-08 International Business Machines Corporation Medical history diagnosis system and method
KR20120052675A (ko) 2010-11-16 2012-05-24 동국대학교 경주캠퍼스 산학협력단 정보코드를 통한 유실사체에 대한 신원확인시스템 및 확인방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050120339A (ko) * 2004-06-18 2005-12-22 엘지전자 주식회사 휴대폰에 장착된 카메라를 이용한 신원확인 장치 및 방법
KR20130077658A (ko) * 2011-12-29 2013-07-09 대한민국(관리부서:행정안전부 국립과학수사연구원장) 유전자 분석을 이용한 친자확인 검증시스템 및 그 방법
JP5475181B1 (ja) * 2013-10-23 2014-04-16 智之 亀田 身元確認支援システム

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
CHUNG, NAK - EUN ET AL.: "Application of 3D Surface Scanners in Forensic Science and Medicine (I) - Digital Storage of Human Skeletons and Development of Appraisal Methods for Incident Scenes''.", KOREAN JOURNAL OF LEGAL MEDICINE., vol. 36, no. 1, 2012, pages 85 - 96, Retrieved from the Internet <URL:bttp://synapse.koreamed.org/DOIx.php?id=10.7580/KoreanJLegMed.2012.36.1.85> *
HWANG, MAN SEONG ET AL., RESEARCH SERIES OF KOREAN INSTITUTE OF CRIMINOLOGY, vol. The Cont, December 2006 (2006-12-01), pages 11 - 189, Retrieved from the Internet <URL:http://www.dbpia.co.kr/Article/NODE01550705> *
LEE, JE HUN ET AL.: "Estimation of Maximum Femoral Length from Fragmentary Femur''.", KOREAN JOURNAL OF PHYSICAL ANTHROPOLOGY., vol. 18, no. 4, December 2005 (2005-12-01), pages 247 - 254, Retrieved from the Internet <URL:http://www.dbpia.co.kr/Article/NODE00668607> *

Also Published As

Publication number Publication date
KR20160071516A (ko) 2016-06-22
KR101707025B1 (ko) 2017-02-20

Similar Documents

Publication Publication Date Title
Akram et al. Implementation of digitalized technologies for fashion industry 4.0: Opportunities and challenges
CN108073910A (zh) 用于生成人脸特征的方法和装置
Ogiela et al. Image languages in intelligent radiological palm diagnostics
CN105989618A (zh) 虚拟试穿装置及虚拟试穿方法
Reisz et al. Apsisaurus witteri from the Lower Permian of Texas: yet another small varanopid synapsid, not a diapsid
JP7318321B2 (ja) 情報処理装置、情報処理方法、人物検索システムおよび人物検索方法
Madushanka et al. Framework for Sinhala Sign Language recognition and translation using a wearable armband
Hutchins Systems of friction ridge classification
Richardson et al. Person recognition from dynamic events: The kinematic specification of individual identity in walking style
WO2016093594A1 (ko) 희생자 신원 확인 시스템
US20100150405A1 (en) System and method for diagnosis of human behavior based on external body markers
CN205680095U (zh) 一种基于智能手环联网的医疗系统
Tiwari et al. Multimodal database of newborns for biometric recognition
JP5782540B2 (ja) 美容カウンセリング方法
KR101595415B1 (ko) 대량재해 희생자 신원확인 시스템
Ghosh et al. An unusual case of cranial image recognition
Farris Art students' anatomy
JP2003167957A (ja) 医療情報管理方法及び医療情報管理システム
Seckiner The development and testing of a forensic interpretation framework for use on anthropometric and morphological data collected during stance and gait
Oliveira-Barra et al. Serious games application for memory training using egocentric images
Andrushevich et al. Open smart glasses development platform for AAL applications
Womersley et al. Trying to fit in: dressing like a doctor
Rösing Quality standards for forensic opinions on the identity of living offenders in pictures
CN117057870A (zh) 服装搭配推荐方法、计算机设备和可读存储介质
Suryawanshi et al. Face mask wearing image dataset: A comprehensive benchmark for image-based face mask detection models

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15868438

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15868438

Country of ref document: EP

Kind code of ref document: A1