WO2016163594A1 - Method and device for psycho-physiological detection (lie detection) with respect to distortion by using video-based physiological signal detection - Google Patents

Method and device for psycho-physiological detection (lie detection) with respect to distortion by using video-based physiological signal detection Download PDF

Info

Publication number
WO2016163594A1
WO2016163594A1 PCT/KR2015/006670 KR2015006670W WO2016163594A1 WO 2016163594 A1 WO2016163594 A1 WO 2016163594A1 KR 2015006670 W KR2015006670 W KR 2015006670W WO 2016163594 A1 WO2016163594 A1 WO 2016163594A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
value
lie
subject
question
Prior art date
Application number
PCT/KR2015/006670
Other languages
French (fr)
Korean (ko)
Inventor
최진관
정석화
Original Assignee
주식회사 바이브라시스템
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 바이브라시스템 filed Critical 주식회사 바이브라시스템
Priority to CN201580078589.XA priority Critical patent/CN107809951B/en
Publication of WO2016163594A1 publication Critical patent/WO2016163594A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/164Lie detection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16ZINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS, NOT OTHERWISE PROVIDED FOR
    • G16Z99/00Subject matter not provided for in other main groups of this subclass

Definitions

  • the present invention relates to a method for acquiring a biosignal used in biometrics, electronics, medicine, and the like, and a technique for detecting a lie by applying the same.
  • the present invention relates to a method of determining whether a lie is obtained by analyzing a physiological signal using the same.
  • the most widely known system also known as a lie detector, is obtained through various channels to measure changes in psychophysiological (mental body) parameters when the human body responds to certain external stimuli, especially horse stimuli. Using physiological information. Analyzing the condition of the human body in the above manner generally takes several hours, requires the sensor to be firmly attached to the subject's body and requires the participation of trained test personnel. Therefore, there are many practical limitations in using the above system extensively to make psychophysiological diagnosis of the human body.
  • the method of polygraph detection using polygraph using the response of heart rate and peripheral nervous system the method using EEG (Electriencephalographic), the method using Voice Technology, and the Facial Recognition Technology And video-based analysis using images.
  • the technique compared to the present invention is a polygraph method, developed by John Lason, a US police officer and forensic scientist in 1921, which measures and changes graphs of physical functions such as pulse, blood pressure, breathing, and sweating of test subjects. In other words, if the person being tested is lying, the graph changes, which is caused by the emotional reaction that the person is lying. But the results are not always accurate.
  • the countries that use the technology are the United States, Canada, South Korea, and India, which are widely used in practice, but are rejected by law in court.
  • the present invention provides a method for supplementing and reinforcing the complexities of existing contact lie detection techniques and the disadvantages requiring skilled inspectors.
  • the present invention provides a method that can ensure a high level of reliability in which the inspection results are matched by 90% or more, compared to the polygraph method, which is a reliable polygraph detection method.
  • Determining whether a lie is detected based on the vibration parameter It includes.
  • a photo detector for continuously capturing the image
  • an A / D converter for converting the captured image into image data
  • a data processor for determining whether a lie is detected by analyzing the converted continuous image data
  • the method of polygraph is presented by vibrating imaging technique.
  • Lie detection method using vibration image is a non-contact method and detects lies very precisely. This method can be used to reinforce defects of existing polygraphs or to reduce precision lie analysis by using them prior to primary polygraphing. This is a new way to replace traditional and modern lie detectors.
  • FIG. 2 is a diagram illustrating an emotional classification process according to the present invention.
  • FIG. 3 is a schematic diagram of an emotion classification algorithm according to the present invention.
  • FIG. 4 shows that bioenergy (aura) is radiated around the human body image formed by the amplitude component of the vibration image.
  • Figures 6 and 7 show the biological image radiation according to the state of the subject, Figure 6 shows a stable state, Figure 7 shows a case of an unstable stress state.
  • FIG. 10 is a radial graph (chart) showing the emotional state of a subject according to the method of the present invention.
  • FIG. 11 is a flow chart of a lie detection process in accordance with the present invention.
  • FIG. 12 is a schematic block diagram of a lie detection device according to the present invention.
  • FIG. 13 is a data processing flowchart in a lie detection process according to the present invention.
  • FIG 14 illustrates an interface screen for extracting vibration parameters (variables).
  • 15 is a table illustrating data analysis through speech recognition.
  • FIG. 16 is a data table as the basis of FIG.
  • Fig. 17 shows an example of a screen in which a statement recording image of a subject is analyzed as a vibra image.
  • FIG. 18 is a flowchart illustrating a query and statement process according to the present invention.
  • FIG. 19 is a scatter graph showing the average value of the standard deviation of each variable in the ST and AT sections.
  • 20 is a graph showing the average value change rate of the DI and NDI standard deviations of eight variables in the ST and AT intervals.
  • 21A to 21H are histograms and standard error histograms of standard deviations of DI and NDI in the ST and AT sections of each parameter.
  • Vibration images represent head movement activity characterized by information of the vestibular-emotional reflex (VER). That is, the vibrating image measures the movement and the micro vibration of the face and the upper body by using the difference in the color values between the frames and the pixels. Since the physiological vibration index of our body is about 10hz, images of 20hz or higher can be properly analyzed. Using this principle, we can measure the change of pixels to correlate with the EEG, and infer the emotion from the image as if we infer the emotion from EEG.
  • VER vestibular-emotional reflex
  • Vibration imaging system is a general image processing process to detect human emotion, mental state, lying element, etc. 1. oscillating image technology aggression, stress, 2., 3. tension / anxiety, 4. doubts, 5.10 balance, 6. Charm, 7. energy, confidence 8., 9. suppression, 10. nervousness such things
  • Get the variable Image and vibration image transformations provide head movements related to the functional state of the body as measured variables calculated in real time by calculus. Each variable is calculated from the equation below and expressed in amplitude and frequency.
  • A is amplitude
  • N is frame rate
  • the frequency component is calculated from number two.
  • the signal component corresponding to the EEG signal is extracted from the parameter, thereby evaluating the physiological and psychological state of the subject.
  • the frequency components of the biosignal images obtained have the most information on the bioenergy, or psychophysiological characteristics, of the observed organisms.
  • Analysis of the obtained biosignal image may be performed by a person or mathematically by processing at least one of the obtained digital biosignal image and its components by a program. In order to prepare and analyze algorithms for mathematical processing, it is good to make a biosignal image which is convenient for visual analysis such as pseudo-color image of monitor screen.
  • the frequency component of the biosignal image to be obtained allows to continuously and clearly specify the levels of psychophysiological and emotional states of the human body and to distinguish the changes in the human state when various stimuli occur in humans. do.
  • an image showing the human body's bioenergy field represented by an aura located around the human body can be used to evaluate the psychophysiological state of the human body faster and more accurately than other methods.
  • aura refers to an integral characteristic of the psychophysiological state of the human body. These auras appear around the human body and have specific relationships with the bioenergy components of the human body. The image of the human aura provides a lot of information when studying the psychophysiological parameters of the human body, and the following factors are considered. Human emotional state can literally change every second. The average person can not stay in one emotional state for a long time.
  • the geometrical correlation of the elements of the biosignal image to the elements of the real image is less effective than the frequency components of the vibration image represented by the aura located around the real image.
  • the elements of the biosignal image are topologically related to the elements of the actual image, the elements with the maximum vibration frequency are not visible in the entire background when the image is subjected to color-frequency adjustment.
  • the biosignal image to be obtained must be visually controlled in advance.
  • the proposed image of the frequency component of the biosignal image, in the form of an aura is consistent with the physical concept of bioenergy radiation and enables visual control and analysis of the device-generated image.
  • amplitude components is more effective in topological relationships.
  • Acquiring information about the level of aggression of a creature consists of constructing a frequency distribution histogram and measuring the head vibration image parameters of the creature.
  • Aggregation of Aggression Levels consists of:
  • the biological head vibration image parameter is measured to obtain information about the stress level of the creature.
  • the stress level St is calculated by the following Equation 4.
  • Anxiety level (Tn) is measured by the following Equation 5.
  • the compatibility level C is calculated by the following Equation 6.
  • vibration image parameters of the head of the organism are measured to obtain information about the integrated level of change in the psychophysiological state.
  • cybernetics and information theory examines the applicability of operational methods and techniques to organisms and living systems.
  • Modern concepts of cognitive biology are usually related to the concepts and definitions of signal information and transfer theory, and enable the psychophysiological information of mathematical parameters established in information theory.
  • the author's long study and observation of the study of human head micromovement with the help of statistical parameters used in information theory shows that there is a statistically reliable dependence between the state of human psychophysiology and the head micromovement information statistics parameter.
  • the present inventors can present their own interpretations of these phenomena and vestibular emotion reflections.
  • psychophysiological energy coordination metabolic energy coordination
  • All typical emotional states can be characterized by a correlation between specific energy consumption and individual physiologically necessary energy and emotional energy.
  • the physiological energy is formed to realize the physiological process, and the emotional energy is formed as a result of the conscious or unconscious process.
  • the attack state if it is the same attack condition, should be expressed differently in various people, and natural adjustment process such as age, gender and education level should be considered.
  • these differences should not have a fundamental meaning in the relative amounts and locations of energy release within the body.
  • the human head in a vertical, semi-balanced state can be seen as an overly sensitive mechanical indicator of all the energy processes in the body. From a biomechanical point of view, maintaining the vertical balance and equilibrium of the heads far above the center of gravity requires tremendous continuous effort and reduction of the neck-head bone muscles. Moreover, this movement is realized reflexively under vestibular system. All meaningful phenomena in the organs lead to changes in the ongoing physiological process. This is similar to other physiological process changes traditionally used for psychophysiological analysis, such as galvanic skin response (GSR), arterial pressure, and heart rate.
  • GSR galvanic skin response
  • the parameters of head movement vary with the amount of energy expression and the location of energy expression.
  • the spatial three-dimensional trajectory of head movements is very complicated because the shape of the head resembles a sphere.
  • the movement trajectory of each point can vary significantly in the movement of hundreds of neck muscles.
  • Statistical analysis of informative motion parameters enables reliable quantitative parameter differentiation of head movements. In other words, it is possible to measure and confirm the emotional state through the measurement of energy and vestibular response.
  • the laws of mechanics appear to be consistent, and behavior is always reactionary to maintain equality. Energy measurements in the body organs that naturally target a wide variety of people will result in consistent corresponding changes in head movement parameters through vestibular activity.
  • the overall emotional classification according to the informational / statistical parameters of the presented head movements confirms all emotional states.
  • Modern psychology mainly uses qualitative criteria in the evaluation of emotional state, which essentially makes it impossible to measure quantitatively, and the objective evaluation of human state is difficult.
  • the suggested method allows us to measure all emotional states.
  • head movement parameters are a general characteristic psychophysiological state of man.
  • the accuracy of agreement of the proposed formulas for counting emotional states according to existing assessment criteria is low compared to the emotional state assessment method through head micromovement.
  • the proposed method is characteristic in that an integrated approach is possible for all emotion measurements. All previous methods were also used to assess various emotional states. Adopting the proposed concept for measuring emotional state allows the inclusion of psychology in precision science and enables the same emotional measurement.
  • the movement speed of the head of the creature is measured as the average frequency of marker movement, determined in units of 10 seconds, which yields the maximum frequency of TV camera work.
  • the vibration image simultaneously represents the spatial and temporal distribution of the target motion energy
  • the number of factors having the same vibration frequency for a specific time is aggregated to obtain a frequency histogram. Histograms therefore exclude information about the spatial distribution of vibration frequencies. This apparent loss of spatial information actually increases the motion information, because in terms of physiological energy, it is not very important in which part of the head the movement is performed unlike the fine movement of the face.
  • the configuration of the frequency histogram is determined according to the following.
  • This equation allows everyone to determine their level of aggression, with naturally lower aggression levels approaching zero. People with high aggression are close to one.
  • the threshold for identifying aggressive ones is used.
  • the next step is to statistically identify meaningful vibration image information parameters that determine vibration image acquisition and subsequent aggression levels. This determines, among other things, vibration symmetry parameters for amplitude and frequency vibration images.
  • the formula presented allows us to measure the stress level (St) from 0 to 1, and above all, the minimum stress level corresponds to the minimum measurement, In people with stress levels close to one.
  • the following is a statistical analysis of meaningful vibration image information parameters that determine vibration image acquisition and subsequent anxiety levels. This relates, among other things, to the fast activity signal frequency spectrum construction of amplitude and frequency vibration images.
  • the presented formula allows us to measure the level of anxiety from 0 to 1.
  • the minimum level of anxiety meets the minimum measure, and those with high levels of anxiety have stress levels close to one.
  • the fast signal frequency spread spectrum of the vibration image appears for the operator's or system operator's control.
  • Another example is to find statistically meaningful informative parameters of the vibration image that determine the vibration image acquisition and then the level of compatibility between the people. Best of all, this consists of a vibration image histogram configuration at each individual frequency.
  • the proposed formula measures the level of compatibility from 0 to 1.
  • the minimum measure corresponds to the minimum compatibility (compatibility), and the high level of compatibility measure on both sides appears close to one.
  • the integrated level of change (L) of the psychophysiological state used in the false decision is calculated by the formula:
  • Pc-Vibration image parameter changes when determining false level
  • n-number of measurement parameters may vary from the number of visual parameters
  • the formula presented allows us to measure false levels from 0 to 1.
  • the minimum level of false matches the minimum measure, while the highest level of false has a value close to one.
  • the present invention is utilized solely for the measurement of emotional and psychophysiological states of humans presented above.
  • the present invention allows us to describe all human conditions through the head micromovement parameters and / or the head vibration image parameters.
  • psychology it is an unclear principle to translate the traditional concept of motion into reflex micromovement of the human head using reliable statistical parameters.
  • thermodynamic entropy (S) calculation follows the following formula.
  • human energy E could be calculated based on the difference between the mean square error and the frequency peak, based on the frequency histogram showing the highest frequency of the vibration image.
  • a total of five children studied consisted of one female, four males, and an average of 5.0 years old with a standard deviation of 0.8.
  • Subject had no cardiovascular or neurological abnormalities and subject was placed in an independent space. There is no interference between the camera and the test subject and it is performed in the measuring room with white background. The collected images were masked for all but the subjects for better results.
  • the vibration image technique according to the algorithm described above has been found by tracking the points in the head of the children in real time in order to detect the change of emotion.
  • the basic specifications of the video camera are a resolution of 640x480 pixels, a frequency of 15.0 frames / sec, an 80dB dynamic range (the sensor's light receiving width), and a distance of 1.5m.
  • the subject was allowed to sit in a chair for 10 minutes to rest and stare at the camera for 3 minutes as a pre-measurement.
  • the emotion-induced stimulus caused a pattern of psychophysiological responses.
  • Five different oral assimilations neutral, pleasant-wake, pleasant-relaxation, discomfort-wake, displeasure-relaxation) were used for about 20 minutes.
  • the post-mortem condition was also recorded for 3 minutes.
  • the measured images were analyzed by vibration image processing software applying an algorithm using a vibration image as described above, and the average values of the 10 parameters after the analysis were presented as analysis results. After collecting data from five children, we divide them into common and effective variables to distinguish the differences in the four stimuli on a neutral basis. The extracted valid variables are used to make decisions based on Russell's emotional model.
  • the common variables extracted from the stimulus of pleasant-wake and pleasant-relaxation based on neutral stimulation can be used as the common variables of pleasant emotion, and the variables extracted from the pleasant-wake and discomfort-wake are the vibrations associated with the arousal stimulus. It can be called an image valid variable. Repeat this to find the parameters associated with each emotion axis.
  • the common variables of 'arousal-wake' and 'discomfort-wake' are aggression and stress, and 'tension / anxiety' and 'neural hypersensitivity' are 'awakening' and 'relaxation'. It can be used to divide. Table 1 below shows the results of pattern changes in different stimuli. Using these variables, we can create an algorithm that can infer backwards as shown in FIG.
  • the present invention proposes a method of making an algorithm that can infer emotions from extracted variables using vibration image technology and to determine a lie.
  • vibration image technology can be used instead of contact bio-signal measurement technology that users can feel rejection. Proved.
  • FIG. 4 shows that an aura of bioenergy is radiated around an image of a human body formed of an amplitude component of a vibration image.
  • the internal biosignal image expresses the magnitude of the change in position of each part in color. Through this it is possible to visualize the size of the position change of each part of the subject (1).
  • the external biosignal image appears around the internal biosignal image and modulates the average peak vibration frequency into color.
  • FIG. 5 illustrates that a biosignal image, which is bioenergy, is radiated around an actual image of a human body.
  • the internal biosignal image is not represented and only the biosignal image is displayed around the actual image.
  • FIG. 6 and 7 show biosignal images in a stable state and an unstable state, respectively.
  • FIG. 6 is a biosignal image of a subject in a stable or finished state, and FIG. 7.
  • the biosignal image is sufficiently symmetrical in shape and color, and the color of the biosignal image is about halfway between the selected color scale (overall color-green). It can be seen from the biosignal image that the subject is in a stable state.
  • the aura contains a lot of red components in the biosignal image. Therefore, it can be seen that the subject in this state is an unstable state.
  • the subject When a person is irritated, for example, exposed to a violent scene through the screen, the subject becomes stressed or aggressive and the color of the biosignal image changes to a reddish color.
  • FIG. 8 is a distribution graph of frequency components (biological signal images) of a human body vibration image in a stable state
  • FIG. 7B is a distribution graph of frequency components (biological signal images) of a human body vibration image in a stress state.
  • the graph shown in FIG. 9 shows a typical frequency distribution of a person in a normal working state.
  • the results show that the majority of people in a calm state generally have a distribution of distributions similar to a single-mode distribution rule.
  • the subject's state changes as shown in FIG. 7 when subjected to a certain negative effect such as watching a violence scene on the screen.
  • the mean (medium) value of the frequency distribution (M) shifts towards increasing.
  • the mean (middle) value of the frequency distribution value (M) is shifted toward decreasing.
  • the frequency axis (X) can be expressed not only in relative units, but also in real units or time (Hz or sec.).
  • the distance between the display values is determined by the actual parameters of the camera's rapid processing and the software's settings (time to accumulate images and the number of images in the processing sequence).
  • FIG. 10 is a radial graph (chart) showing the emotional state of a subject measured according to the method of the present invention.
  • a control analysis is performed to detect a lie (11), and a biopsy subject undergoing psychophysiological change, that is, a test subject undergoing a control analysis investigation, is photographed to acquire a continuously changing image (12).
  • Each image is processed (analyzed) to generate vibration parameters (13).
  • the response of the answer corresponding to each question is analyzed and analyzed (14) to finally determine whether the lie (15).
  • the physiological signal detecting apparatus includes a vibration parameter (parameter) using a camera 21 for photographing a subject, a processor 22 for analyzing an image obtained from the camera, and a signal from the image processor. ) And a signal analyzer 23 for generating a physiological signal using the same, and a lie determination unit 24 for determining a lie by applying a physiological signal obtained from the signal analyzer.
  • a physiological signal is received from a control analysis video of a subject, and only the following parameters (INT2A, INT1A, INT0A, A1X, A1, A3, A4X, and A4) related to the lie among the physiological signals are extracted.
  • a concrete analysis is performed using the extracted values (32), and the values of the RQ (Relevant Question) and CQ (Comparative Question) sections are compared to the maximum value (LD ( M)), the average value LD (a), the integral value LD (i), and the VR value are compared (33) to synthesize the judgment results in each process (34) and finally based on the combined values.
  • parameters A1 to A4 represent the amplitude of vibration
  • A1 is the frame difference between two consecutive frames
  • A3 is the frame difference between N consecutive frames
  • A4 is the numerical value of variable A1 filtering 10 frames.
  • INT2A is the integration of 10 consecutive amplitude values
  • INT1A is the integration of two consecutive amplitude values
  • INT0A is the integration of N amplitude values.
  • VR Value rate
  • CR calculation rate
  • the determination of the lie using the mean in the maximum value LD (M), the average value LD (a), the integral value LD (i), and the VR value is based on the following numbers 16 to 18.
  • the average value LD (a), the integral value LD (i), and the VR value if the difference between the values of RQ and CQ is less than 10%, it is processed as INC. In other words, if the CQ value is greater than the RQ value, it is a true response. If the RQ value is greater than the CQ value, it is a false response. It cannot be determined.
  • the method of integrating the maximum value LD (M), the average value LD (a), the integral value LD (i), and the VR value is based on Eq. 22.
  • the method of receiving the physiological signal from the control analysis video is to distinguish the control intervals such as each RQ, CQ, GQ through voice recognition, as shown in Figure 14 and to receive only the values from the corresponding intervals, and to proceed with the detailed analysis
  • the method of comparing the maximum value LD (M), average value LD (a), integral value LD (i), and VR value is performed manually using a table as shown in FIG.
  • the parameters constituting the table of FIG. 15 consist of the data of FIG. 16 generated through the operation shown in FIG.
  • VER Vestibular Emotional Reflex
  • VOR Vestibulo-Ocular Reflex
  • VA Symmetry
  • the vestibular organ which is the core element of the above concepts, is located in the home and is responsible for the sense of balance.
  • the vestibular organ that contributes to human balance and spatial orientation is the sensory organ that provides the sense of movement and equilibrium.
  • Vestibular organs respond to stimuli and the stimulus acting on a person is gravity. Therefore, to keep the body balanced, the vestibular organ must operate at all times, and the coordination of the vertical head muscle movement and the vertical head coordination is constant, and the reflex is continuously made according to the process. Will be.
  • the vestibular-visual reflex concept is a reflex eye movement that stabilizes the image on the retina while the head is moving by moving the eye in the opposite direction to the head movement. This allows the image to be placed and maintained in the visual center. Symmetry uses the cooperation of vertical head muscle movements for energy regulation because natural head movements are not regular vibrational movements in accordance with certain patterns. This naturally causes left and right movement with respect to the vertical center point, and different analyzes are possible depending on the degree of movement.
  • signals are sent from the vestibular receptor to the autonomic nervous system and the brain and muscles are transmitted at different time differences, which depend on the cooperation of the emotional state and vestibular head muscle movement, or emotional reflex (VER) by the vestibular system. It means that it is.
  • VER emotional reflex
  • Vibra image technology records and analyzes human's micro-vibration by camera, and visualizes emotion level by measuring micro-vibration of digital pixel by concept of vibration frequency and amplitude parameter.
  • the micromovement of the human head is related to the human vestibular-emotion response (VER) function, which allows human emotions to be recognized by controlling the three-dimensional head-neck movement and flow accumulated in the frame.
  • VER human vestibular-emotion response
  • a screen in which a statement recording image of a subject is analyzed as a vibra image is shown in FIG. 17, for example.
  • Contrast analysis is a general question test technique that confirms the statements of subjects used in the existing polygraph test, and includes the killer technique, the Baxter technique, and the Utah technique. There is usually a structured questionnaire, in which the subject can only answer “yes or no”.
  • image-based hierarchical statement analysis detects and analyzes psychophysiological signals in oral statements in a structured or semi-structured interview form of subjects and examiners, rather than written statements. How to analyze the level
  • Phase I Stable Phase
  • ST State Tracking
  • AP Adaptive Preparation
  • I-2 I-2.
  • Adaptive Preparation is a pre-warm-up question for psychological preparation before this question that asks for an innocent, general, personal subject that does not involve large amounts of rapport formation and emotional factors. . For example, ask, “What do you usually do in your free time on weekends?” Or “Talk about your favorite hobby.”
  • Issue Recollection calls for a free statement within three minutes, recalling the subject and process of the case.
  • the Concrete Clarification (CC) is a concept of inquiries about the content stated in the IR stage, which consists of at least two additional questions for the specification of poor statements and clarification of key points.
  • CC asks questions that explain contradictions of evidence, asks for explanations of the suspected reasons (in clear facts ⁇ symptom facts ⁇ suggested facts), substantiation of concealment or omissions or poor statements. Ask questions, ask for an active explanation of why you are innocent, or change your perspective or reorder in cognitive interviews.
  • Ending Preparation is a psychological preparation process that finalizes the examination and is a formal and courtesy question for identifying additional information and for expanding the interviewee's self-advocacy. (Yes, “What is the last thing you want to say about this event?“ Is there anything else I should know about this event? ”)
  • the static phase (Arrange Tracking, hereinafter referred to as AT) is a phase tracking of the late ballast, which again requires a frontal gaze without a statement for one minute and ends with the previous ST value.
  • the subject conducts a statement analysis in accordance with the questioning method before the existing lie detection test is conducted, and records the statement analysis process through a webcam and analyzes the recorded video file.
  • the video container should be in AVI format and the recording method should be recorded in Uncompressed RGB format.
  • QPlayCap which was developed for CCTV video recording. This software is freeware that can be distributed.
  • Video analysis requires a Windows-based PC, performance requires a CPU that supports two or more threads at 2.0Ghz or higher, and at least 2GB of memory.
  • the PC used for analysis is a specification that meets this specification.
  • the interval used in the image analysis was determined by comparing the pre-ST and post-AT intervals, which can identify the pure base-line of the subject's psychobiological signal without affecting each examiner to ensure reliability.
  • the average of the values of the standard deviations of each parameter in the intervals was used as the standard.
  • the first 20 seconds of the ST and AT sections were excluded and calculated to measure psychobiological signal values at a more accurate stabilization stage.
  • the analysis finds the standard deviation of each variable for the ST section of the initial ballast and the AT section of the post-ballast for 64 samples and all vibra variables. The standard deviations are then categorized as data determined as false (DI) and not false (NDI) in the existing polygraph. After the average of the standard deviations of DI and NDI for all variables, see the rate of change in the ST and AT sections (see Figure 19).
  • Fig. 19 is a scatter graph showing the average value of the standard deviation of each variable in the ST and AT sections.
  • DI is shown as a triangle and NDI is shown as a circle, and are INT2A, INT1A, INT0A, C3, FN01, and X1 in order from the left of the X axis.
  • Vibra image parameters are largely represented as vibration amplitude parameters (Series A), vibration frequency parameters (Series F), and symmetry related parameters (Series S), and combinations (P series), which represent the mean values of the standard deviations of all variables.
  • the parameters A1 to A4 mean the amplitude of vibration.
  • A1 is a value obtained by dividing a frame difference between two consecutive frames, that is, a difference in pixel brightness values between two frames and dividing by a specified brightness value.
  • A2 is the sum of the difference in pixel brightness values between ten frames divided by the specified brightness value.
  • A3 is a value obtained by dividing a frame difference between n consecutive frames, that is, a difference in pixel brightness values between n frames, and dividing by a specified brightness value.
  • A4 refers to the numerical value of the variable A1 that filtered 10 frames.
  • A1X and A4X represent the value which reduced the calculation period to 1/5 about A1 and A4, respectively.
  • Ca is the number of pixels in a given region
  • Cn is a pixel having a specified brightness value or more
  • I is the brightness value of the pixel.
  • INTEGR2A refers to the integration of 10 successive amplitude values
  • INTEGR1A refers to the integration of two successive amplitude values
  • INTEGR0A refers to the integration of 100 amplitude values.
  • Table 2 shows the average values of the standard deviations of the ST and AT sections for the DI and NDI of the eight variables (INT2A, INT1A, INT0A, A1X, A1, A3, A4X, and A4).
  • 21A to 21H are mean graphs and standard error histograms of standard deviations of DI and NDI in the ST and AT sections of each parameter.
  • DI has a minimum maximum rate of change in the ST and AT sections.
  • NDI showed negative characteristics, and the minimum maximum rate of change in the ST and AT sections was negatively small.
  • the standard deviation of the AT section is larger than the standard deviation of the ST section, and in contrast to the NDI, the standard deviation of the ST section is larger than that of the AT section (Table 1).
  • Table 4 the concordance rate between the primary criterion and the existing polygraph is shown. The concordance rate with the detection test result was remarkably decreased.
  • the intermediate judgment result R is obtained from the following equation.
  • X is the rate of change of the ST section standard deviation and the AT section standard deviation of the data obtained from the image. If the final result is 0 or 3, the judgment is impossible, 1 is the false symptom richness (DI), and 2 is false. It is determined by the small indication (NDI).
  • Threshold of DI ST standard error upper limit + ⁇ (AT lower limit – ST upper limit) / 2 ⁇
  • NDI Threshold AT standard error upper limit + ⁇ (ST lower limit – AT upper limit) / 2 ⁇
  • the secondary criterion was divided into the case where DI was smaller than the threshold and the NDI was larger than the threshold, based on the STD threshold.
  • Another third criterion is based on the standard error threshold of the AT section, DI is larger than the threshold value and NDI is smaller than the threshold value, and the concordance rate is examined. The results are shown in Table 5.
  • the determination result in the Rst: ST section is the standard deviation of the ST section of the data obtained from the Xst: image.
  • the determination result (Result) is obtained by the following formula.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Surgery (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Educational Technology (AREA)
  • Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Developmental Disabilities (AREA)
  • Child & Adolescent Psychology (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

A method for determining whether a test subject is lying is disclosed. The disclosed method comprises the steps of: acquiring, by using a camera, a video of before and after a statement is given for a predetermined question from the test subject; extracting, from the video, at least one of parameters A1, A3, A4, A1X, A4X, INT0A, INT1A, and INT2A; calculating a standard deviation from the parameter extracted in the aforementioned step; and determining whether the test subject is lying by using the standard deviation.

Description

동영상 기반 생리 신호 검출을 이용한 왜곡에 대한 정신생리적 탐지 (거짓말 탐지) 방법 및 장치Method and apparatus for psychophysiological detection (lie detection) against distortion using video-based physiological signal detection
본 발명은 생물 측정학, 전자공학, 의학 분야 등에 이용되는 생체신호를 획득하기 위한 방법 및 이를 적용하여 거짓말 탐지를 하는 기술에 관한 것으로서, 상세하게는 대조 분석 방식으로 이루어진 거짓말 탐지 과정에 대한 동영상을 이용하여 생리 신호를 회득하고 이를 분석하여 거짓말 여부를 판단하는 방법에 관한 것이다. The present invention relates to a method for acquiring a biosignal used in biometrics, electronics, medicine, and the like, and a technique for detecting a lie by applying the same. The present invention relates to a method of determining whether a lie is obtained by analyzing a physiological signal using the same.
인간의 심리와 생리학 사이에 존재하는 불가분의 관계에 대해 최초로 과학적 지식에 근거한 가설은 분석 심리학의 창설자인 지그문트 프로이드에 의해 1890~1895년 사이에 제시되었다. 인간 심리에서 일어나는 어떠한 변화도 이에 대한 인체의 생리학적 반응과 관련이 있다는 가설은 오늘날 널리 받아들여지고 있다. 물론 이 상관 관계 사이의 인터페이스는 아직 정의를 내리지 못하고 있으며 이 정의에 대한 여러가지 다양한 접근법이 존재하고 있다는 것도 사실이다. The first scientifically based hypothesis of the inseparable relationship between human psychology and physiology was proposed between 1890 and 1895 by Sigmund Freud, the founder of analytical psychology. The hypothesis that any change in human psychology is related to the body's physiological response is widely accepted today. Of course, the interface between these correlations has not yet been defined, and there are many different approaches to this definition.
따라서, 이러한 인체에 관한 정신 생리학적 통합 정보를 구하기 위한 많은 연구가 있어 왔으며, 현재까지 구체적인 접촉식 방법, 장치 및 시스템이 몇 가지 알려져 있다. 이들은 인간의 감정적 및 심리적 상태를 평가하고 의학적 진단은 내리기 위해 잘 알려져 있는 인체의 생리학적 매개변수를 사용한다.  Therefore, there have been many studies to obtain such psychophysiologically integrated information about the human body, and some specific contact methods, devices, and systems have been known to date. They use well-known physiological parameters of the human body to assess human emotional and psychological conditions and to make medical diagnoses.
가장 널리 알려진 시스템으로는 일명 '거짓말 탐지기'로 알려진 것으로, 특정한 외부 자극 특히 말에 의한 자극에 인체가 반응할 때 정신생리학적(정신 신체의) 매개변수의 변화를 측정하기 위해 다양한 채널을 통해 얻은 생리학적 정보를 이용하는 것이다. 위와 같은 방법으로 인체의 상태를 분석하는 작업은 일반적으로 몇 시간이 소요될 뿐 아니라 피검자의 몸에 센서를 단단하게 부착해야 하며 숙련된 테스트 진행 요원의 참여가 필요하다. 따라서 인체의 정신생리학적 진단을 내리기 위해 위와 같은 시스템을 광범위하게 활용하기에는 현실적인 제약이 많다.  The most widely known system, also known as a lie detector, is obtained through various channels to measure changes in psychophysiological (mental body) parameters when the human body responds to certain external stimuli, especially horse stimuli. Using physiological information. Analyzing the condition of the human body in the above manner generally takes several hours, requires the sensor to be firmly attached to the subject's body and requires the participation of trained test personnel. Therefore, there are many practical limitations in using the above system extensively to make psychophysiological diagnosis of the human body.
거짓말 탐지의 방법으로는 심박과 말초신경계의 반응을 이용한 폴리그라프를 이용한 방법과 뇌파신호(EEG, Electriencephalographic)를 이용한 방법, 음성 인식 기술(Voice Technology)을 이용한 방법, 안면인식 기술(Facial Technology)을 이용한 방법 등이 있으며 이미지를 이용한 동영상 기반 분석 방법이 있다.  The method of polygraph detection using polygraph using the response of heart rate and peripheral nervous system, the method using EEG (Electriencephalographic), the method using Voice Technology, and the Facial Recognition Technology And video-based analysis using images.
본 발명과 비교되는 기술은 폴리그래프 방식으로, 1921년 미국 경찰관이자 법의학자인 존 라슨이 개발한 방법으로, 검사를 하는 사람의 맥박, 혈압, 호흡, 땀 같은 신체 기능의 변화를 측정하여 그래프로 나타내고, 검사를 받는 사람이 거짓말을 하고 있으면 그래프에 변화가 생기는데, 이것은 거짓말을 하고 있다는 정서적 반응 때문에 나타난다. 그러나 결과가 항상 정확한 것만은 아니다. 본 기술을 사용하는 국가는 미국, 캐나다, 대한민국, 인도 4개국이며 실무상 광범위하게 사용되고 있지만 법정에서는 법률상 배척되고 있다.The technique compared to the present invention is a polygraph method, developed by John Lason, a US police officer and forensic scientist in 1921, which measures and changes graphs of physical functions such as pulse, blood pressure, breathing, and sweating of test subjects. In other words, if the person being tested is lying, the graph changes, which is caused by the emotional reaction that the person is lying. But the results are not always accurate. The countries that use the technology are the United States, Canada, South Korea, and India, which are widely used in practice, but are rejected by law in court.
본 발명은 기존의 접촉식 거짓말 탐지 기술의 복잡성과 숙련된 검사관을 필요로하는 단점을 보완 및 보강하는 방법을 제공한다. The present invention provides a method for supplementing and reinforcing the complexities of existing contact lie detection techniques and the disadvantages requiring skilled inspectors.
본 발명은 신뢰성이 확보된 기존의 거짓말 탐지 방법인 폴리그라프 방식과 비교하여 검사 결과가 90% 이상 일치하는 높은 수준의 신뢰성을 확보할 수 있는 방법을 제공한다.The present invention provides a method that can ensure a high level of reliability in which the inspection results are matched by 90% or more, compared to the polygraph method, which is a reliable polygraph detection method.
대조 분석 검사중인 검사자의 연속적인 영상 정보를 획득하는 단계;Obtaining continuous image information of the inspector under contrast analysis;
상기 영상 정보를 분석하여 상기 검사자의 진동 파라미터를 추출하는 단계;Extracting vibration parameters of the inspector by analyzing the image information;
상기 진동 파라미터에 기초하여 거짓말 탐지 여부를 판단하는 단계; 를 포함한다. Determining whether a lie is detected based on the vibration parameter; It includes.
본 발명에 따른 거짓말 탐지 시스템:은Lie detection system according to the invention:
검사자를 촬영하여 연속된 영상을 획득하는 영상 획득부;An image acquisition unit for photographing the inspector to obtain a continuous image;
상기의 영상을 연속적으로 촬상하는 광검출부, 상기 촬상된 영상을 영상 데이터로 변환하는 A/D 변환부, 상기 변환된 연속적인 영상 데이터를 분석하여 거짓말 탐지 여부를 판단하는 데이터 처리부:를 포함한다.And a photo detector for continuously capturing the image, an A / D converter for converting the captured image into image data, and a data processor for determining whether a lie is detected by analyzing the converted continuous image data.
진동 이미지 기술에 의해서 거짓말 탐지기의 방법이 제시된다. 진동 이미지를 이용한 거짓말 탐지방법은 비접촉식 방법으로 이루어지며 매우 정교하게 거짓말을 탐지한다. 이 방법을 통해 기존 폴리그라프 방식의 결점을 강화하거나 1차 적으로 폴리그라프를 하기 전에 이용하여 정밀 거짓말 분석을 줄일 수 있다. 이는 전통적이고 현대적인 종래 거짓말탐지기를 대체할 수 있는 새로운 방법이다.The method of polygraph is presented by vibrating imaging technique. Lie detection method using vibration image is a non-contact method and detects lies very precisely. This method can be used to reinforce defects of existing polygraphs or to reduce precision lie analysis by using them prior to primary polygraphing. This is a new way to replace traditional and modern lie detectors.
도1은 제임스 러셀에 의한 이차원 감성 모델을 도시한다. 1 shows a two-dimensional emotional model by James Russell.
도2는 본 발명에 따른 감성 분류 과정을 설명하는 도면이다. 2 is a diagram illustrating an emotional classification process according to the present invention.
도3은 본 발명에 따른 감성 분류 알고리즘의 도식적 다이어그램이다. 3 is a schematic diagram of an emotion classification algorithm according to the present invention.
도4는 진동 이미지의 진폭 성분으로 형성되는 피검자 인체 이미지 주위로 생체에너지(아우라)가 방사되는 것을 도시한다. FIG. 4 shows that bioenergy (aura) is radiated around the human body image formed by the amplitude component of the vibration image.
도5는 인체의 실제 영상 주위로 방사되는 생체 에너지를 도시한다. 5 shows the bioenergy radiated around the actual image of the human body.
도6, 7은 피검자의 상태에 따른 생체 이미지 방사를 도시하는 것으로, 도6은 안정적인 상태, 도7은 불안정한 스트레스 상태일 경우를 나타낸다. Figures 6 and 7 show the biological image radiation according to the state of the subject, Figure 6 shows a stable state, Figure 7 shows a case of an unstable stress state.
도 8은 안정 상태에 있는 인체 진동이미지의 주파수 구성 요소(생체신호 이미지)에 대한 분포 그래프이다. 8 is a distribution graph of frequency components (biosignal images) of a human body vibration image in a stable state.
도9는 스트레스 상태에 있는 인체 진동이미지의 주파수 구성요소 (생체신호 이미지)에 대한 분포 그래프이다. 9 is a distribution graph of frequency components (biosignal images) of a human body vibration image under stress.
도10은 본 발명의 방법에 따라 피검자의 감성 상태를 나타내는 방사형 그래프(챠트)이다. 10 is a radial graph (chart) showing the emotional state of a subject according to the method of the present invention.
도11은 본 발명에 따른 거짓말 탐지 과정의 흐름도이다.11 is a flow chart of a lie detection process in accordance with the present invention.
도12는 본 발명에 따른 거짓말 탐지 장치의 개략적 블록 다이어그램이다.12 is a schematic block diagram of a lie detection device according to the present invention.
도13은 본 발명에 따른 거짓말 탐지 과정에서 데이터 처리 흐름도이다.13 is a data processing flowchart in a lie detection process according to the present invention.
도14는 진동 파라미터(변수)를 추출하는 인터페이스 화면을 예시한다.14 illustrates an interface screen for extracting vibration parameters (variables).
도15는 음성 인식을 통한 데이터 분석을 예시하는 테이블이다.15 is a table illustrating data analysis through speech recognition.
도16은 도15의 기초가 되는 데이터 테이블이다.FIG. 16 is a data table as the basis of FIG.
도17은 바이브라이미지로 피검자의 진술녹화영상이 분석되는 화면의 일례를 도시한다.Fig. 17 shows an example of a screen in which a statement recording image of a subject is analyzed as a vibra image.
도18은 본 발명에 따른 질의 및 진술과정을 설명하는 흐름도이다.18 is a flowchart illustrating a query and statement process according to the present invention.
도19는 도19는 ST와 AT구간에서 각 변수별 표 준편차의 평균값의 변화율 스캐터 그래프이다.FIG. 19 is a scatter graph showing the average value of the standard deviation of each variable in the ST and AT sections.
도20은 ST와 AT 구간에서 8개 변수의 DI와 NDI 표준편차의 평균값 변화율을 보이는 그래프이다.20 is a graph showing the average value change rate of the DI and NDI standard deviations of eight variables in the ST and AT intervals.
도21a 내지 도21h는 각 매개 변수의 ST와 AT 구간에서 DI, NDI 별 표준편차의 평균갑과 표준 오차 막대그래프이다.21A to 21H are histograms and standard error histograms of standard deviations of DI and NDI in the ST and AT sections of each parameter.
이하, 첨부된 도면을 참고하면서 본 발명에 따른 진동 이미지를 이용한 거짓말 탐지 방법에 대해 살펴본다. Hereinafter, a lie detection method using a vibration image according to the present invention will be described with reference to the accompanying drawings.
다양한 이론학자들은 모든 인간이 타고난 기본 감정을 가지고 있다고 생각하였다. 몇몇 연구자원들은 하나 이상의 차원에 따라 감정을 규정하는데 1897년 감정은 삼차원으로 설명되었다. "쾌&불쾌", "각성&진정", "압박&완화". 1980년에는, James Russell에 의해 개발된 모델인 이차원 원형 공간에서 감정을 분류하였다. 도1에 도시된 바와 같이, Russell의 모형에서 감정의 언어들은 각성과 밸런스 차원을 갖는 이차원 원형 공간에 기록된다. 도1에서 각성은 세로축에 나타나고, 정서(쾌/불쾌)은 가로축에 나타난다. Various theorists thought that all human beings had innate basic feelings. Some research resources define feelings according to more than one dimension. In 1897, feelings were described in three dimensions. "Pleasure & unpleasantness", "Awakening & calmness", "compression & relaxation". In 1980, emotions were classified in a two-dimensional circular space, a model developed by James Russell. As shown in Fig. 1, the languages of emotion in Russell's model are recorded in a two-dimensional circular space with dimensions of arousal and balance. In Fig. 1, arousal is shown on the vertical axis, and emotion (pleasure / discomfort) is on the horizontal axis.
진동이미지는 전정-감정 반사(Vestibulo-Emotional Reflex, VER)의 정보로 특징지어진 머리 움직임 활동을 표현한다. 즉, 진동이미지는 프레임들과 픽셀들간의 칼라값의 차이를 이용하여 얼굴과 상반신의 움직임과 미세진동을 측정한다. 우리 몸의 생리학적 진동지수가 10hz 정도 되기 때문에 20hz 이상의 영상이 주어져야 제대로 된 분석이 가능하다. 이런 원리를 이용해서 픽셀들의 변화를 측정해서 뇌파와 상관성을 보고 뇌파에서 감정을 추론하듯이 영상으로 감정을 추론하는 것입니다. Vibration images represent head movement activity characterized by information of the vestibular-emotional reflex (VER). That is, the vibrating image measures the movement and the micro vibration of the face and the upper body by using the difference in the color values between the frames and the pixels. Since the physiological vibration index of our body is about 10hz, images of 20hz or higher can be properly analyzed. Using this principle, we can measure the change of pixels to correlate with the EEG, and infer the emotion from the image as if we infer the emotion from EEG.
진동이미지 시스템은 일반적인 영상 처리 과정으로 인간의 감정, 정신 상태, 거짓말 요소 등을 감지한다. 진동이미지 기술은 1.공격성, 2.스트레스, 3.긴장/불안, 4. 의심, 5.밸런스, 6.매력, 7.에너지, 8.자신감, 9.억제, 10.신경과민 등의 10가지 변수를 얻는다. 영상과 진동이미지 변환은 신체의 기능적 상태와 관련된 머리 움직임을 실시간 측정된 미적분하여 계산된 변수로 제공한다. 각 변수는 아래의 식으로부터 계산되고 진폭과 주파수로 표현된다.Vibration imaging system is a general image processing process to detect human emotion, mental state, lying element, etc. 1. oscillating image technology aggression, stress, 2., 3. tension / anxiety, 4. doubts, 5.10 balance, 6. Charm, 7. energy, confidence 8., 9. suppression, 10. nervousness such things Get the variable Image and vibration image transformations provide head movements related to the functional state of the body as measured variables calculated in real time by calculus. Each variable is calculated from the equation below and expressed in amplitude and frequency.
Figure PCTKR2015006670-appb-M000001
Figure PCTKR2015006670-appb-M000001
여기서 A는 진폭, N은 프레임 수,
Figure PCTKR2015006670-appb-I000001
는 i번째 프레임에서의 x, y점에서의 신호 진폭,
Figure PCTKR2015006670-appb-I000002
는 i+1번째 프레임에서의 x, y 점에서의 신호 진폭이다. 주파수 성분은 수2로부터 계산된다.
Where A is amplitude, N is frame rate,
Figure PCTKR2015006670-appb-I000001
Is the signal amplitude at the x and y points in the i th frame,
Figure PCTKR2015006670-appb-I000002
Is the signal amplitude at the x and y points in the i + 1th frame. The frequency component is calculated from number two.
Figure PCTKR2015006670-appb-M000002
Figure PCTKR2015006670-appb-M000002
본 발명에서는 매개변수로부터 뇌파 신호에 상응하는 신호 성분을 추출하며, 이를 통해서 피검자의 생리, 심리적 상태를 평가하게 된다. In the present invention, the signal component corresponding to the EEG signal is extracted from the parameter, thereby evaluating the physiological and psychological state of the subject.
이하, 본 발명에 따른 피검자의 감성 분류 방법의 설명에 앞서서 본 발명에서 이용하는 진동 매개변수에 관련하여, 생체 각 부위의 진동과 정신생리학적 매개변수와의 관계에 대해 설명 한다. Prior to the description of the emotion classification method of the subject according to the present invention, the relationship between the vibration of each part of the living body and the psychophysiological parameters will be described in relation to the vibration parameter used in the present invention.
소립자 물리학에서는 물질의 파동 특성과 미립자 특성 사이의 명확한 경계가 존재하지 않으며 광자 에너지(ε)는 플랑크 상수를 통해 광자 에너지의 주파수(ν)와 연결되어 있다고 알려져 있다(ε = hν). 생물체의 각 부위에서 발산되는 에너지는 공간 내부에서의 해당 부위의 진동 주파수와 비례한다는 가설이 나온다. 결과적으로 말해, 생물체에서 나오는 에너지를 기록하기 위해서는 생물체의 여러 부위에서 발생하는 진동을(공간 내에서 혹은 각 부위 사이의) 기록해야 한다. 이 과정은 충분한 해상력과 빠른 처리 능력을 보유하고 있는 비접촉식 텔레비전 시스템을 이용하면 가능하다. 게다가 구한 생체신호이미지의 주파수 구성요소는(즉, 각각의 부위에서 일어나는 진동(위치 변화, 파동) 주파수)는 피관찰 생물의 생체에너지 즉 정신생리학적 특성에 있어서 가장 많은 정보를 지니고 있다. 구한 생체신호이미지의 분석은 사람이 할 수도 있고 구한 디지털 생체신호이미지와 그 구성 요소들 중 적어도 어느 하나를 프로그램으로 처리하여 수학적으로도 할 수도 있다. 수학적 처리를 위한 알고리즘의 작성과 분석을 위해서는 모니터 스크린의 유사컬러 영상과 같은 시각적 분석에 편리한 생체신호이미지를 만드는 것이 좋다. In small particle physics, there is no clear boundary between the wave and particulate properties of matter, and the photon energy (ε) is known to be linked to the frequency of photon energy (ν) through Planck's constant (ε = hν). It is hypothesized that the energy emitted from each part of the organism is proportional to the vibration frequency of that part in the space. As a result, in order to record the energy coming from a living thing, it is necessary to record the vibrations (in or between spaces) that occur at various parts of the living thing. This can be done by using a contactless television system with sufficient resolution and fast processing power. In addition, the frequency components of the biosignal images obtained (ie, the vibration (position shift, wave) frequency at each site) have the most information on the bioenergy, or psychophysiological characteristics, of the observed organisms. Analysis of the obtained biosignal image may be performed by a person or mathematically by processing at least one of the obtained digital biosignal image and its components by a program. In order to prepare and analyze algorithms for mathematical processing, it is good to make a biosignal image which is convenient for visual analysis such as pseudo-color image of monitor screen.
즉, 구해야 하는 생체신호이미지의 주파수 구성요소는 인체의 정신생리학적 상태와 감정 상태의 수준을 지속적이며 일목요연하게 특정 지을 수 있도록 하며 인간에게 다양한 자극이 미칠 때 나타나는 인체 상태의 변화를 구분 지을 수 있게 한다. 밝혀진 바에 의하면, 인체 주변에 위치한 아우라(Aura)로 나타나는 인체의 생체에너지 장(場)을 보여주는 영상을 이용하여 다른 방법에 비해 보다 빠르고 정확하게 인체의 정신생리학적 상태에 대한 평가를 내릴 수 있다. In other words, the frequency component of the biosignal image to be obtained allows to continuously and clearly specify the levels of psychophysiological and emotional states of the human body and to distinguish the changes in the human state when various stimuli occur in humans. do. As it turns out, an image showing the human body's bioenergy field represented by an aura located around the human body can be used to evaluate the psychophysiological state of the human body faster and more accurately than other methods.
아우라(Aura)라는 용어는 인체의 정신생리학적 상태에 대한 통합적인 특성을 나타낸다. 이러한 아우라는 인체 주변에 나타나며, 인체의 생체에너지 구성 요소들과 특정한 관계를 지니고 있다. 인체 아우라의 영상은 인체의 정신생리학적 매개변수를 연구할 때 많은 정보를 제공해 주며 이 연구에서는 다음 요소들이 고려 대상이 된다. 인간의 감성적 상태는 말 그대로 매초 변할 수 있다. 일반적인 사람은 오랜 시간 동안 한 가지 감정 상태로 머무를 수 없다. The term aura refers to an integral characteristic of the psychophysiological state of the human body. These auras appear around the human body and have specific relationships with the bioenergy components of the human body. The image of the human aura provides a lot of information when studying the psychophysiological parameters of the human body, and the following factors are considered. Human emotional state can literally change every second. The average person can not stay in one emotional state for a long time.
모든 생각과 동작 또는 어떤 상황에 대한 반응은 감정 상태의 순간적인 변화(각각의 생체신호 이미지)로 이어진다. 따라서 구한 생체신호이미지에 대한 정보의 수(무엇보다 카메라의 해상력)와 시스템의 신속한 처리 사이의 최적의 상관 관계를 찾아내는 것이 중요하다. Every thought and action or reaction to a situation leads to a momentary change in the emotional state (images of each biosignal). Therefore, it is important to find the optimal correlation between the number of information on the obtained biosignal image (above all, the resolution of the camera) and the rapid processing of the system.
아우라 크기의 진폭 조절(amplitude modulating)을 추가한, 대상의 최대 진동 주파수를 인체 특정 구역에서 일어나는 위치 변화의 주파수 또는 진폭의 평균 수치로 컬러 조절(modulating)을 함으로써 인체의 정신생리학적 상태에서 일어나는 어떠한 변화라도 일목요연하고 순간적으로 기록할 수 있다. 뇌의 차원 변동(fractal fluctuation)이 학습, 기억 및 다양한 과제 해결 과정 에서 핵심적인 역할을 수행하는 것으로 알려져 있다. 실험으로 밝혀낸 바에 의하면, 인체에서 진동이 가장 집중적으로 발생하는 부분은 뇌이며 대부분의 경우 아우라(진동이미지의 빈도 구성 요소)가 사람의 머리 주변에만 존재할 수 도 있으며, 이는 몸 주변의 아우라보다 훨씬 크다. 인체에서 일어나는 변화는 아우라가 허물어 지거나 색과 형태가 비대칭으로 나타나는 것으로 표현된다. 이는 구한 생체신호이미지를 보면 확실하게 드러난다. Adds an amplitude modulating of the aura size, and modulates the subject's maximum vibrational frequency by color modulating the frequency of the positional change or average value of the amplitude in a specific region of the human body, Changes can be recorded at a glance and instantaneously. Frequent fluctuations in the brain are known to play a key role in learning, memory, and solving a variety of tasks. Experiments have shown that the most intensive part of vibration in the human body is the brain, and in most cases auras (frequency components of vibration images) may be present only around the human head, much larger than the auras around the body. . Changes that occur in the human body are represented by the collapse of the aura or the appearance of asymmetry in color and form. This is clearly seen in the obtained biosignal image.
생체신호 이미지의 요소들이 실제 영상의 요소들과 위상 기하학적 (topology)으로 연관되는 점에는 일장일단이 있다. 실험 결과에 따르면, 가장 많은 정보를 담고 있는 인간의 감정 상태는 최대 진동 주파수로 전달되며 주파수의 평균 수준이나 인접한 포인트 들의 배경 수준은 뭉개지거나 생체신호 이미지를 시각적으로 받아들일 때 일어나는 진정한 변화를 은폐할 수도 있다. There is one point in that the elements of the biosignal image are associated with the elements of the actual image in topology. Experimental results show that the emotional state of the human body that contains the most information is transmitted at the maximum oscillation frequency, and the average level of the frequency or the background level of adjacent points can be shrouded or cover up the true changes that occur when visually accepting the biosignal image. It may be.
따라서 생체신호 이미지의 요소가 실제 영상의 요소에 위상 기하학적으로 연관되는 것은 실제 영상 주변에 위치한 아우라로 표현되는 진동 이미지의 주파수 구성 요소보다 효과적이지 않은 것으로 나타났다. 생체신호 이미지의 요소가 실제 영상의 요소에 위상기하학적으로 연관되어 있을 때, 최대 진동 주파수를 가지는 요소들은 영상을 색-빈도 조절을 실시할 경우 전체적인 배경에서 보이지 않게 된다. 생체신호이미지를 다양한 형태로 수학적으로 분석하기 위해서는 구하는 생체신호이미지를 사전에 시각적으로 제어해야 한다. 제안되는 아우라 형태의, 생체신호이미지의 주파수 구성요소의 영상은 생체에너지 방사에 대한 물리적 개념에 일치하며 장치가 만들어낸 영상을 시각적으로 제어하고 분석할 수 있게 한다. Therefore, it is shown that the geometrical correlation of the elements of the biosignal image to the elements of the real image is less effective than the frequency components of the vibration image represented by the aura located around the real image. When the elements of the biosignal image are topologically related to the elements of the actual image, the elements with the maximum vibration frequency are not visible in the entire background when the image is subjected to color-frequency adjustment. In order to mathematically analyze the biosignal image in various forms, the biosignal image to be obtained must be visually controlled in advance. The proposed image of the frequency component of the biosignal image, in the form of an aura, is consistent with the physical concept of bioenergy radiation and enables visual control and analysis of the device-generated image.
주파수 구성요소와 달리 진폭 구성요소를 이용하면 위상기하학적 관계에서 더 효과적이다. 무엇보다도 진동 포인트에 대해 위상기하학적으로 연결되어 있는, 생체신호이미지의 진폭 구성요소를 이용하여 얻은 생체신호이미지의 질을 평가할 수 있으며 시스템을 조정하기 위한 정확한 파라미터(변수)를 정할 수 있다. Unlike frequency components, the use of amplitude components is more effective in topological relationships. First of all, it is possible to evaluate the quality of the biosignal image obtained by using the amplitude component of the biosignal image, which is topologically connected to the vibration point, and to determine the exact parameters (variables) for adjusting the system.
먼저 진동 이미지 매개 변수의 측정에 관하여 구체적으로 살펴본다. First, the measurement of the vibration image parameter will be described in detail.
생물체의 공격성 수준에 관한 정보획득은 주파수분포 히스토그램을 구성, 이에 따른 생물체의 머리 진동 이미지 매개변수를 측정하는 것이다. Acquiring information about the level of aggression of a creature consists of constructing a frequency distribution histogram and measuring the head vibration image parameters of the creature.
공격성 수준(Ag) 집계는 다음의 <수 3>으로 이루어진다.Aggregation of Aggression Levels (Ag) consists of:
Figure PCTKR2015006670-appb-M000003
Figure PCTKR2015006670-appb-M000003
Fm- 히스토그램에서 주파수 분포 밀도의 최대 주파수 Maximum frequency of frequency distribution density in Fm- histogram
Fi- 히스토그램에서 N 프레임 시간 동안 획득한 주파수 분포 밀도의 "I" 주파수 집계량"I" frequency aggregation of frequency distribution density obtained over N frame time in Fi- histogram
Fin- 진동 이미지 처리 주파수Fin-vibration image processing frequency
n- N 프레임에서 한계치를 넘는 프레임간 차를 포함한 집계량Aggregate including interframe differences beyond the threshold in n-N frames
그리고 생물체의 스트레스 수준에 관한 정보 획득을 위해 생물체 머리 진동 이미지 매개변수를 측정한다. 스트레스 수준(St)은 다음의 <수 4>에 의해 집계된다.The biological head vibration image parameter is measured to obtain information about the stress level of the creature. The stress level St is calculated by the following Equation 4.
Figure PCTKR2015006670-appb-M000004
Figure PCTKR2015006670-appb-M000004
Figure PCTKR2015006670-appb-I000003
- 대상의 왼쪽 부위 "I" 열 진동 이미지 총 진폭
Figure PCTKR2015006670-appb-I000003
-Total amplitude of thermal vibration image "I" in the left part of the subject
Figure PCTKR2015006670-appb-I000004
- 대상의 오른쪽 부위 "I" 열 진동 이미지 총 진폭
Figure PCTKR2015006670-appb-I000004
-Total amplitude of thermal vibration image "I" in the right part of the subject
Figure PCTKR2015006670-appb-I000005
-
Figure PCTKR2015006670-appb-I000006
으로 부터
Figure PCTKR2015006670-appb-I000007
간의 최대값
Figure PCTKR2015006670-appb-I000005
-
Figure PCTKR2015006670-appb-I000006
From
Figure PCTKR2015006670-appb-I000007
Maximum value of the liver
Figure PCTKR2015006670-appb-I000008
- 대상의 왼쪽 부위 "I" 열 진동 이미지 최대주파수
Figure PCTKR2015006670-appb-I000008
-"I" thermal vibration image maximum frequency in the left part of the object
Figure PCTKR2015006670-appb-I000009
- 대상의 오른쪽 부위 "I" 열 진동 이미지 최대주파수
Figure PCTKR2015006670-appb-I000009
Maximum frequency of "I" thermal vibration image on the right side of the subject
Figure PCTKR2015006670-appb-I000010
-
Figure PCTKR2015006670-appb-I000011
으로 부터
Figure PCTKR2015006670-appb-I000012
간의 최대값
Figure PCTKR2015006670-appb-I000010
-
Figure PCTKR2015006670-appb-I000011
From
Figure PCTKR2015006670-appb-I000012
Maximum value of the liver
n - 대상관련 열 수n-the number of columns

생물체의 불안감 수준에 관한 정보획득을 위해 생물체 머리 진동 이미지 매개변수를 측정한다. 불안감 수준(Tn)은 다음의 <수 5>로 측정된다.To obtain information about the level of anxiety in the organism, the biological head vibration image parameters are measured. Anxiety level (Tn) is measured by the following Equation 5.
Figure PCTKR2015006670-appb-M000005
Figure PCTKR2015006670-appb-M000005
Pi(f)- 진동 이미지 주파수 분포 전력 스펙트럼 Pi (f)-Vibration Image Frequency Distribution Power Spectrum
fmax- 진동 이미지 주파수분포 스펙트럼의 최대 주파수fmax-maximum frequency of the vibration image frequency distribution spectrum

생물체의 여타 생물체와의 호환성 수준에 관한 정보 획득을 위해 개별적인 모든 생물체의 진동 주파수 분포 히스토그램을 정하고, 각 히스토그램을 구성하고, 공동 주파수 분포를 획득하며, 분포의 일반 법칙과 기 획득한 공동 분포면적을 동일하게 만들며, 분포 일반 법칙과 주파수 히스토그램간 차이를 찾는다. 호환성 수준(C)은 다음의 <수 6>로 계산된다.To obtain information about the level of compatibility of living things with other organisms, determine histograms of vibration frequency distributions for all individual organisms, construct each histogram, obtain common frequency distributions, and obtain the general law of distribution and the previously obtained co-distribution area. Make the same and find the difference between the general law of distribution and the frequency histogram. The compatibility level C is calculated by the following Equation 6.
Figure PCTKR2015006670-appb-M000006
Figure PCTKR2015006670-appb-M000006
K- 획득한 주파수 히스토그램 일반화 상관계수 K- Obtained Frequency Histogram Generalized Correlation Coefficient
y’- 일반 분포 밀도 y’- normal distribution density
Figure PCTKR2015006670-appb-I000013
Figure PCTKR2015006670-appb-I000013
언어 혹은 비 언어적 거짓여부 결정 시, 정신생리학적 상태의 통합적인 변화수준에 관한 정보획득을 위해, 생물체 머리의 진동 이미지 매개변수를 측정한다. In determining verbal or nonverbal falsehoods, vibration image parameters of the head of the organism are measured to obtain information about the integrated level of change in the psychophysiological state.
거짓 결정 시 활용된 정신생리학적 상태의 통합적인 변화 수준(L)은 다음의 <식 7>으로 집계된다.The integrated level of change (L) of the psychophysiological state used in the false decision is summarized in the following equation.
Figure PCTKR2015006670-appb-M000007
Figure PCTKR2015006670-appb-M000007
Pi - 더 높게 설정된 한계치를 변화시키는 매개변수Pi-parameter to change the higher set threshold
Pc - 거짓 수준 결정 시 측정되는 진동 이미지 매개변수Pc-Vibration image parameter measured when determining false level
K - 측정되는 Pi 의미 상관계수K-Pi semantic correlation coefficient to be measured
n - 측정되는 매개변수 수n-the number of parameters to be measured
m - 변화된 매개변수 수m-the number of parameters changed

잘 알려진 바와 같이, 인공두뇌학 및 정보 이론은 생물체와 생체계에 대한 운용방법 및 기술수단 적용 가능성을 검토하는 것이다. 인지생체학의 현대적인 개념은, 대게 신호정보 및 전달이론 개념 및 정의와 관련이 있으며, 정보이론에서 정립된 수학적 매개변수의 정신생리학적 정보성을 가능케 해준다. 정보이론에서 활용되는 통계 매개변수의 도움으로 인간의 머리 미세움직임을 연구한 저자의 오랜 연구와 관찰 결과, 인간의 정신생리학 상태와 머리 미세움직임 정보통계 매개변수간에 통계적으로 신빙성 있는 의존성이 있다는 사실을 알 수 있었다. As is well known, cybernetics and information theory examines the applicability of operational methods and techniques to organisms and living systems. Modern concepts of cognitive biology are usually related to the concepts and definitions of signal information and transfer theory, and enable the psychophysiological information of mathematical parameters established in information theory. The author's long study and observation of the study of human head micromovement with the help of statistical parameters used in information theory shows that there is a statistically reliable dependence between the state of human psychophysiology and the head micromovement information statistics parameter. Could know.
그리고 본 발명자는 이러한 현상과 전정감정 반사에 관한 나름의 해석을 제시할 수 있게 되었다. 우선 정신생리학적 에너지조정(신진대사)간 상호관계를 정의해보겠다. 모든 전형적인 정서 상태는, 특정 에너지 소비와 개별 생리학적으로 필요한 에너지와 정서 에너지간 상관관계로 특징지을 수 있다. 이때 생리학적 에너지는 생리학적 과정 실현을 위해, 또 정서 에너지는 의식 혹은 비의식적인 과정의 결과 형성된다. 실례로 공격 상태는, 만약 정말 동일한 공격상태일 경우라면 다양한 인물에게서 이는 동일하지 않게 발현돼야 하는데, 이때 연령, 성별, 교육수준 등의 자연스러운 조정과정이 고려돼야 한다. 하지만 생리학적 측면에서 봤을 때, 이러한 차이는 신체기관 내 상대적 에너지 방출량 및 장소에 근본적인 의미가 있어서는 안 된다. 이 모든 것은 눈에 보이는 감정적 징후를 초래하는데, 실례로 얼굴의 홍조, 잦은 한숨, 빠른 심 박동, 특정 미세움직임 등을 들 수 있다. 감정적인 상태가 외부로 발현되는 주요 원인은 생리학적 에너지와 정서적 에너지간 상관관계를 변화시키는 신체기관 내 에너지의 추가적인 방출에 기인한다. 이때 강조해야 할 점은, 저자가 현대기술 발전 수준에서 잘 알려진 자연적인 신체적 과정의 신체-화학 에너지를 고려했다는 사실이다. 생리과정의 경과속도, 인간의 생각 및 움직임 과정을 위한 상호관계 중단 및 촉발 과정을 들 수 있다.  The present inventors can present their own interpretations of these phenomena and vestibular emotion reflections. First, we will define the interrelationship between psychophysiological energy coordination (metabolism). All typical emotional states can be characterized by a correlation between specific energy consumption and individual physiologically necessary energy and emotional energy. At this time, the physiological energy is formed to realize the physiological process, and the emotional energy is formed as a result of the conscious or unconscious process. For example, the attack state, if it is the same attack condition, should be expressed differently in various people, and natural adjustment process such as age, gender and education level should be considered. However, from a physiological point of view, these differences should not have a fundamental meaning in the relative amounts and locations of energy release within the body. All this leads to visible emotional signs, such as flushing of the face, frequent sighs, rapid heartbeats, and certain micromovements. The main reason for the external manifestation of the emotional state is due to the additional release of energy in the body organs which changes the correlation between physiological and emotional energy. It should be emphasized that the author took into account the body-chemical energy of natural physical processes, which are well known at the level of modern technology development. The progression of physiological processes, and the interruption and triggering processes for human thought and movement processes.
전정계의 주요과제는 무엇보다 역학적인 동등 혹은 균등 상태를 유지하는 것이다. 하지만 연구 시, 본 대상을 형성하는 역학ㆍ화학ㆍ에너지, 여타 계(시스템)의 균등상태 시에만 반폐쇄계의 평형상태가 가능하다는 사실이 입증됐다. 이들 계(시스템)들 중 하나라도 불균형이 발생할 경우 인접계의 균형상태 파괴가 초래되는데, 즉 역학적 균형 파괴가 에너지 균형 파괴를 초래한다는 것이다. The main challenge of the vestibular system is, above all, to maintain a dynamic equivalence or equality. However, the study proved that the equilibrium state of the semi-closed system is possible only if the dynamics, chemistry, energy, and other systems (systems) forming the subject are equal. Unbalance in any one of these systems results in the destruction of the equilibrium state of the adjacent system, i.e. the breakdown of mechanical balance results in the breakdown of energy balance.
수직적인 반 균형 상태에 있는 인간의 머리는 신체기관 내 발생하는 모든 에너지 과정의 지나치게 민감한 역학적 지표로 볼 수 있다. 생체역학적 측면에서 봤을 때, 무게중심보다 훨씬 높은 곳에 위치한 머리의 수직적 균형상태 및 동등한 상태 유지를 위해서는 목-머리 뼈 부분 근육의 엄청난 지속적 노력과 축소가 요구된다. 게다가 이러한 움직임은 전정계 운영 하에 반사적으로 실현되는 것이다. 신체기관 내 모든 의미 있는 현상(감정)은 지속적인 생리학적 과정의 변화를 가져온다. 이는 GSR(galvanic Skin Response, 피부전기 반사), 동맥압, 심박동과 같이 전통적으로 정신생리학적 분석에 활용되는 여타 생리학적 과정 변화와 유사하다. 게다가 에너지 발현량과 에너지 발현장소에 따라 머리 움직임 매개변수도 변한다. 머리 움직임의 공간적 입체 궤적은, 머리 모양이 구(球)와 비슷하기 때문에 매우 복잡하다. 또한 각 점의 움직임 궤적은 수백 개의 목 근육 움직임에 있어서 현저히 차이가 날 수 있다. 정보적 움직임 매개변수의 통계적 분석을 통해 머리 움직임의 신뢰할 수 있는 양적 매개변수 차별화가 가능하다. 즉, 에너지 및 전정계 반응 측정을 통한 정서상태 측정 및 확인이 가능하다는 것이다. 역학법칙은 일관되게 나타나며, 균등상태 유지를 위해 행동은 항상 반동작용을 하나는 것이다. 자연적으로 다양한 이들을 대상으로 하는 신체기관 내 에너지 측정은 전정계 활동을 통한 머리 움직임 매개변수의 일관된 상응하는 변화를 초래할 것이다. The human head in a vertical, semi-balanced state can be seen as an overly sensitive mechanical indicator of all the energy processes in the body. From a biomechanical point of view, maintaining the vertical balance and equilibrium of the heads far above the center of gravity requires tremendous continuous effort and reduction of the neck-head bone muscles. Moreover, this movement is realized reflexively under vestibular system. All meaningful phenomena in the organs lead to changes in the ongoing physiological process. This is similar to other physiological process changes traditionally used for psychophysiological analysis, such as galvanic skin response (GSR), arterial pressure, and heart rate. In addition, the parameters of head movement vary with the amount of energy expression and the location of energy expression. The spatial three-dimensional trajectory of head movements is very complicated because the shape of the head resembles a sphere. Also, the movement trajectory of each point can vary significantly in the movement of hundreds of neck muscles. Statistical analysis of informative motion parameters enables reliable quantitative parameter differentiation of head movements. In other words, it is possible to measure and confirm the emotional state through the measurement of energy and vestibular response. The laws of mechanics appear to be consistent, and behavior is always reactionary to maintain equality. Energy measurements in the body organs that naturally target a wide variety of people will result in consistent corresponding changes in head movement parameters through vestibular activity.
제시된 머리 움직임의 정보ㆍ통계적 매개변수에 따른 총체적인 감정 분류는, 모든 정서상태를 확인하게 해준다. 현재는 정서상태 측정을 위한 단일화된 총체적 접근법이 없는 만큼, 여타 정신생리학적 방법 혹은 독립 실험평가 비교 차원에서 최초의 측정을 위해 활용될 수 있을 것이다. 현대 심리학은 감정상태 평가에 있어서 주로 질적인 기준을 활용하는데, 이는 근본적으로 양적 측정을 불가능하게 하고, 인간 상태의 객관적인 평가가 힘들다. 하지만 기 제시된 방법은 모든 감정상태를 측정하게 해준다. 머리의 움직임 매개변수 변화가 기능적으로 에너지 교환 변화와 관련이 있다고 했을 때, 자연적으로 머리 움직임 매개변수가 인간의 총체적인 특징적 정신생리학 상태이기 때문이다. 현존하는 평가 기준에 따른 정서상태 집계를 위한 기 제시된 공식의 일치 정확성은, 머리 미세움직임을 통한 정서적인 상태평가 방법과 비교 시 낮게 나타난다. 현존하는 기술 수준에서는 정서상태 평가를 위한 총체적인 기준이 없기 때문이다. 기 제안된 방법은 모든 감정 측정에 있어서 통합적인 접근법이 가능하다는 점에서 특징적이다. 또한 모든 이전의 방법들은 다양한 정서상태 평가를 위해 활용됐다. 정서상태 측정을 위해 기 제안된 컨셉을 채택하는 것은 정밀과학에 심리학을 포함시키게끔 해주며, 동일한 감정 측정을 가능하게 해준다. The overall emotional classification according to the informational / statistical parameters of the presented head movements confirms all emotional states. Currently there is no single, holistic approach to measuring emotional state, so it can be used for initial measurements in terms of other psychophysiological methods or independent experimental evaluations. Modern psychology mainly uses qualitative criteria in the evaluation of emotional state, which essentially makes it impossible to measure quantitatively, and the objective evaluation of human state is difficult. However, the suggested method allows us to measure all emotional states. Given that a change in head movement parameters is functionally related to a change in energy exchange, naturally, head movement parameters are a general characteristic psychophysiological state of man. The accuracy of agreement of the proposed formulas for counting emotional states according to existing assessment criteria is low compared to the emotional state assessment method through head micromovement. This is because there is no overall standard for assessing emotional state at the current level of technology. The proposed method is characteristic in that an integrated approach is possible for all emotion measurements. All previous methods were also used to assess various emotional states. Adopting the proposed concept for measuring emotional state allows the inclusion of psychology in precision science and enables the same emotional measurement.
대상의 머리 움직임에 관한 신호 획득은 카메라에 의한 영상 비교를 통해서 이루어진다. 공간 및 시간 분포 정보통계 매개변수 차원에서 생물체 머리의 움직임 속도는 티비 카메라 작업의 최대 주파수를 가져오는 10초당 단위로 정해지는 마커 움직임 평균주파수로 측정된다. 이러한 특성은 인간의 정서적 불안감을 잘 반영하고, 불안감 수준을 특징지을 수 있다. Acquisition of the signal regarding the head movement of the subject is performed by comparing images by the camera. In terms of spatial and temporal distribution information statistics parameters, the movement speed of the head of the creature is measured as the average frequency of marker movement, determined in units of 10 seconds, which yields the maximum frequency of TV camera work. These characteristics can well reflect human emotional anxiety and can characterize anxiety levels.
진동 이미지가 대상 움직임 에너지의 공간ㆍ시간적 분포를 동시에 나타낼 경우, 주파수 히스토그램 획득을 위해 특정 시간 동안 동일진동 주파수를 가진 요인의 수가 총 집계된다. 따라서 히스토그램은 진동 주파수의 공간적 분포에 관한 정보를 배제시킨다. 이러한 명백한 공간정보 손실은 사실상 움직임 정보를 증대시켜준다고 할 수 있는데, 생리에너지 측면에서 봤을 때 얼굴의 미세움직임과는 다르게 머리의 어느 부위에서 움직임이 실행되는 지는 그다지 중요하지 않기 때문이다. 주파수 히스토그램의 구성은 이하의 내용에 따라 결정된다. When the vibration image simultaneously represents the spatial and temporal distribution of the target motion energy, the number of factors having the same vibration frequency for a specific time is aggregated to obtain a frequency histogram. Histograms therefore exclude information about the spatial distribution of vibration frequencies. This apparent loss of spatial information actually increases the motion information, because in terms of physiological energy, it is not very important in which part of the head the movement is performed unlike the fine movement of the face. The configuration of the frequency histogram is determined according to the following.
잘 알려진 바와 같이, 기존의 공격성 수준을 결정짓는 모순적인 현존 접근법과는 다른 두 가지 주요요인을 고려한 새로운 공식이 제시됐다. 두 가지 주요 요인은, 진동의 특징적인 확산을 가장 잘 보여주는 진동평균 주파수 혹은 인간의 머리 미세움직임과 매개변수, 그리고 평균제곱편차다. 이렇듯 공격적인 사람은 머리 미세움직임의 높은 주파수 및 머리 부위의 다양한 점이 움직임에 있어서 확산 폭이 크다. 여타 공식 상관계수는 0에서 1까지의 수치에 대한 공격성 상관계수를 보여준다.As is well known, a new formula has been proposed that takes into account two main factors that differ from the existing contradictory approaches that determine the level of aggression. Two main factors are the average vibration frequency, or human head motion and parameters, and the mean square deviation, which best show the characteristic spread of the vibration. This aggressive person has a high spreading frequency in movement of high frequency of hair fine movement and various points of the head part. Other official correlation coefficients show aggressive correlation coefficients for values from 0 to 1.
Figure PCTKR2015006670-appb-M000008
Figure PCTKR2015006670-appb-M000008
Fm- 주파수 분포 밀도 히스토그램의 최대 주파수Fm- Maximum frequency of frequency distribution density histogram
Fi- 50프레임 시간 당 획득한 주파수 분포 밀도 히스토그램에서의 i 주파수 집계 수Number of i-frequency aggregates in frequency distribution density histograms obtained per fi-50 frame hour
Fin- 진동 이미지 처리 주파수Fin-vibration image processing frequency
n- 50 프레임에서의 한계치보다 높은 프레임간 차의 집계 수Aggregate number of interframe differences above the threshold in n-50 frames

이러한 등식은 모든 이들의 공격성 수준을 결정하게 해주는데, 자연히 더 낮은 공격성 상태는 0에 가까운 수준을 보인다. 높은 공격성 상태에 있는 사람의 경우 1에 근접한 수치를 보인다. 잠재적으로 위험한 이들을 밝혀내기 위한 진동 이미지 시스템의 보안 시스템 활용 시 공격적인 이들을 밝혀내기 위한 한계치는 0. 75를 사용한다. This equation allows everyone to determine their level of aggression, with naturally lower aggression levels approaching zero. People with high aggression are close to one. When using the security system of a vibrating imaging system to identify potentially dangerous ones, the threshold for identifying aggressive ones is used.
다음은 진동 이미지 획득 및 이후 공격성 수준을 결정짓는 의미 있는 진동 이미지 정보 매개변수를 통계적으로 찾아내는 것이다. 이는 무엇보다 진폭 및 주파수 진동 이미지에 대한 진동대칭 매개변수를 결정한다. The next step is to statistically identify meaningful vibration image information parameters that determine vibration image acquisition and subsequent aggression levels. This determines, among other things, vibration symmetry parameters for amplitude and frequency vibration images.
공격성 수준을 결정짓는, 잘 알려진 상반되는 현존하는 접근방법과는 달리, 인간의 머리부위를 스캔(scan)한 개별 열에 대한 움직임 진폭 및 주파수 대칭을 고려한 새로운 공식이 제시됐다. 이렇듯 공격성 수준이 최대치인 사람의 경우, 20초간 진폭 및 주파수 진동 이미지를 처리하기 위한 진동 및 미세움직임에 있어서 최대 대칭의 특성을 보인다. 동시에 스트레스와 불안감의 낮은 수준을 보인다.In contrast to the well-known and contradictory approaches that determine the level of aggression, a new formula has been proposed that takes into account the motion amplitude and frequency symmetry for individual columns that scan the human head. As such, the person with the highest level of aggression exhibits maximum symmetry in vibration and fine movement for processing amplitude and frequency vibration images for 20 seconds. At the same time it shows low levels of stress and anxiety.
Figure PCTKR2015006670-appb-M000009
Figure PCTKR2015006670-appb-M000009
Figure PCTKR2015006670-appb-I000014
- 대상의 왼쪽 부위 "I" 열 진동 이미지 총 진폭
Figure PCTKR2015006670-appb-I000014
-Total amplitude of thermal vibration image "I" in the left part of the subject
Figure PCTKR2015006670-appb-I000015
- 대상의 오른쪽 부위 "I" 열 진동 이미지 총 진폭
Figure PCTKR2015006670-appb-I000015
-Total amplitude of thermal vibration image "I" in the right part of the subject
Figure PCTKR2015006670-appb-I000016
-
Figure PCTKR2015006670-appb-I000017
으로 부터
Figure PCTKR2015006670-appb-I000018
간의 최대값
Figure PCTKR2015006670-appb-I000016
-
Figure PCTKR2015006670-appb-I000017
From
Figure PCTKR2015006670-appb-I000018
Maximum value of the liver
Figure PCTKR2015006670-appb-I000019
- 대상의 왼쪽 부위 "I" 열 진동 이미지 최대주파수
Figure PCTKR2015006670-appb-I000019
-"I" thermal vibration image maximum frequency in the left part of the object
Figure PCTKR2015006670-appb-I000020
- 대상의 오른쪽 부위 "I" 열 진동 이미지 최대주파수
Figure PCTKR2015006670-appb-I000020
Maximum frequency of "I" thermal vibration image on the right side of the subject
Figure PCTKR2015006670-appb-I000021
-
Figure PCTKR2015006670-appb-I000022
으로부터
Figure PCTKR2015006670-appb-I000023
간의 최대값
Figure PCTKR2015006670-appb-I000021
-
Figure PCTKR2015006670-appb-I000022
From
Figure PCTKR2015006670-appb-I000023
Maximum value of the liver
n - 대상이 차지하는 열 수n-the number of columns occupied by the target
이전에 제시한 정보통계 매개변수와 유사하게, 제시된 공식은 0에서 1까지의 스트레스 수준(St))을 측정하게 해주며, 무엇보다 최소 스트레스 수준은 최소 측정치에 부합하며, 높은 수준의 스트레스 상태에 있는 사람의 경우 스트레스 수치가 1에 근접하게 나타난다. Similar to the information statistics parameters presented previously, the formula presented allows us to measure the stress level (St) from 0 to 1, and above all, the minimum stress level corresponds to the minimum measurement, In people with stress levels close to one.
다음은 진동 이미지 획득 및 이후 불안감 수준을 결정짓는 의미 있는 진동 이미지 정보 매개변수를 통계적으로 찾아낸 것이다. 이는 무엇보다 진폭 및 주파수 진동 이미지의 빠른 활동 신호 주파수 스펙트럼 구성과 관련이 있다. The following is a statistical analysis of meaningful vibration image information parameters that determine vibration image acquisition and subsequent anxiety levels. This relates, among other things, to the fast activity signal frequency spectrum construction of amplitude and frequency vibration images.
불안감 수준을 결정짓는, 잘 알려진 상반된 현존하는 접근방법과는 다르게, 높은 불안감은 낮은 주파수 스펙트럼 밀도보다, 오히려 움직임이 높은 주파수 스펙트럼 밀도를 증대시킨다는 사실을 고려한 새로운 공식이 제시됐다.Unlike the well-known and contradictory existing approaches that determine the level of anxiety, a new formula has been proposed that takes into account the fact that high anxiety increases high frequency spectral density rather than low frequency spectral density.
Figure PCTKR2015006670-appb-M000010
Figure PCTKR2015006670-appb-M000010
Tn - 불안감 수준Tn-anxiety level
Pi(f) - 진동 이미지 주파수 확산 전력 스펙트럼Pi (f)-Vibration Image Frequency Spread Power Spectrum
fmax - 진동 이미지 주파수 확산 스펙트럼 최대 주파수 fmax-vibration image frequency spread spectrum maximum frequency
이전에 제시한 정보통계 매개변수와 유사한 제시된 공식은 0에서 1까지 불안감 수준을 측정하게 해준다. 또한 최소 수준의 불안감은 최소 측정치에 부합하고, 불안감 수준이 높은 이는 스트레스 수치가 1에 근접하게 나타난다. 진동 이미지의 빠른 신호 주파수 확산 스펙트럼은 조작자 혹은 시스템 활용자의 컨트롤을 위해 나타난다. The presented formula, similar to the previously presented information statistics parameters, allows us to measure the level of anxiety from 0 to 1. In addition, the minimum level of anxiety meets the minimum measure, and those with high levels of anxiety have stress levels close to one. The fast signal frequency spread spectrum of the vibration image appears for the operator's or system operator's control.
또 다른 실례는 진동 이미지 획득 및 이후 사람들간 호환성(화합) 수준을 결정짓는 진동 이미지의 통계적으로 의미 있는 정보적 매개변수를 찾는 것이다. 무엇보다 이는 각 개별자 주파수의 진동 이미지 히스토그램 구성으로 이루어진다. Another example is to find statistically meaningful informative parameters of the vibration image that determine the vibration image acquisition and then the level of compatibility between the people. Best of all, this consists of a vibration image histogram configuration at each individual frequency.
호환성(화합) 수준을 결정짓는, 잘 알려진 상반되는 현존하는 접근방법과는 다르게, 분포 정상법칙에 대한 양측 모두의 총 진동 주파수 히스토그램에 대한 부합 근접성으로 특징되는 호환성(화합)가능성을 고려한 새로운 공식이 제시된다.In contrast to the well-known and contradictory existing approaches that determine the level of compatibility, a new formula that considers the compatibility possibility characterized by a close proximity to the total oscillation frequency histogram of both sides of the distribution normal law Presented.
Figure PCTKR2015006670-appb-M000011
Figure PCTKR2015006670-appb-M000011
K- 최초 히스토그램의 정상화 상관계수K-normalized correlation coefficient of initial histogram
y': 일반 분포 밀도y ': normal distribution density
Figure PCTKR2015006670-appb-I000024
Figure PCTKR2015006670-appb-I000024
이전에 제시된 매개변수와 유사하게 제안된 공식은 0에서 1까지의 호환(화합)가능성 수준을 측정한다. 또한 최소 측정치는 최소 호환(화합)가능성에 부합하며, 양 측의 높은 수준의 호환(화합)가능성 측정치는 1에 근접하게 나타난다. Similar to the parameters presented previously, the proposed formula measures the level of compatibility from 0 to 1. In addition, the minimum measure corresponds to the minimum compatibility (compatibility), and the high level of compatibility measure on both sides appears close to one.
다음은 진동 이미지 획득 및 인간의 거짓 수준을 결정짓는 진동 이미지의 통계적으로 의미 있는 정보 매개변수를 찾는 것이다. 무엇보다 상호간 최소한의 연관성을 가진 진동 이미지 매개변수 최대량의 일시적인 의존성 획득과 관련이 있다. Next is to find a statistically meaningful information parameter of the vibration image that determines the vibration image acquisition and human false level. First of all, it is related to the acquisition of temporary dependence of the maximum amount of vibration image parameters with the least correlation between them.
거짓말 탐지와 관련해 이미 잘 알려진 현존하는 정신생리학적 접근법과는 차이가 있는 새로운 공식이 제시됐다. 본 공식에서 거짓은, 보고시간과 비교한 진동 이미지 매개변수 측정치에서의 변화에 따라 결정된다. 제시된 공식은 언어 및 비언어적 거짓 여부를 정하게 해준다. 기본적으로 시간 차원에서의 언어적 거짓 결정은 실험 대상자의 대답 시작까지의 시간을 활용하는데, 비언어적인 거짓 분석의 경우 한 기간의 시간과 또 다른 기간의 시간 동안 매개변수와의 상호간 비교를 통해 이루어진다. A new formula has been proposed for the detection of lies that differs from the well-known existing psychophysiological approaches. False in this formula is determined by the change in vibration image parameter measurements compared to the reporting time. The formula presented allows us to determine whether we are verbal and nonverbal. Basically, the linguistic false decision in the time dimension utilizes the time to the start of the test subject's answer. In the case of non-verbal false analysis, it is made by comparing the parameters with one time period and another time period.
거짓 결정 시 활용되는 정신생리학적 상태의 통합적인 변화 수준(L)은 다음의 공식으로 계산된다. The integrated level of change (L) of the psychophysiological state used in the false decision is calculated by the formula:
Figure PCTKR2015006670-appb-M000012
Figure PCTKR2015006670-appb-M000012
Pi - 더욱 높게 설정된 한계치의 변화 매개변수Pi-change parameter for a higher set threshold
Pc - 거짓 수준 결정 시 변화하는 진동 이미지 매개변수Pc-Vibration image parameter changes when determining false level
K - 측정된 Pi 의미 상관계수K-Measured Pi Semantic Correlation Coefficient
n - 측정 매개변수 수(비주얼 매개변수 수와는 차이가 있을 수 있음)n-number of measurement parameters (may vary from the number of visual parameters)
m- 변화 매개변수 수m- number of change parameters
이전에 제시된 매개변수와 유사하게, 제시된 공식은 0에서 1까지의 거짓 수준을 측정하게 해준다. 또한 최소 수준의 거짓에는 최소 측정치가 부합되는데, 거짓의 최고수준은 1에 근접한 측정치를 가진다. Similar to the parameters presented previously, the formula presented allows us to measure false levels from 0 to 1. In addition, the minimum level of false matches the minimum measure, while the highest level of false has a value close to one.
그렇다고 해서 본 발명이 상기 제시된 인간의 감정 및 정신생리학적 상태 측정 실례에 한해서만 활용되는 것은 아니다. 참고로 인간의 상태특성은 다양한 분류 시스템에 따라 200개가 넘게 분류돼있다. 무엇보다 본 발명은 머리 미세움직임 매개변수와 혹은 머리의 진동 이미지 매개변수를 통해 인간의 모든 상태를 묘사하게 해준다. 심리학에서 움직임에 관한 전통적인 개념이 신빙성 있는 통계 매개변수를 이용한 인간 머리의 반사 미세움직임으로 전환되는 것은 불명확한 원칙이라 생각할 수 있다. 하지만 제시된 접근법을 바탕으로 기술정보 시스템과 유사하게 인간의 상태를 결정지을 수 있으며, 인간 상태를 특징짓기 위한 정보 매개변수를 활용할 수 있다. 실례로, 공식에 따른 인간의 정보ㆍ열역학적 엔트로피 수준을 결정지을 수 있다는 것이다. This does not mean, however, that the present invention is utilized solely for the measurement of emotional and psychophysiological states of humans presented above. For reference, there are over 200 classifications of human state characteristics according to various classification systems. Above all, the present invention allows us to describe all human conditions through the head micromovement parameters and / or the head vibration image parameters. In psychology, it is an unclear principle to translate the traditional concept of motion into reflex micromovement of the human head using reliable statistical parameters. However, based on the proposed approach, it is possible to determine the human state similarly to the technical information system and to utilize the information parameters to characterize the human state. For example, it is possible to determine the level of human information and thermodynamic entropy according to the formula.
정보적 엔트로피 계산을 위한 근간으로써 머리 미세움직임 주파수 분포 히스토그램이 구성되며, 본 정보적 엔트로피 계산은 다음의 공식을 따른다.As a basis for the computation of information entropy, a head motion frequency distribution histogram is constructed. The computation of this information entropy follows the following formula.
Figure PCTKR2015006670-appb-M000013
Figure PCTKR2015006670-appb-M000013
열역학적 엔트로피 계산을 위한 근간으로써 머리의 미세움직임 주파수 분포 히스토그램이 구성되며, 본 열역학적 엔트로피(S) 계산은 다음의 공식을 따른다.As a basis for the thermodynamic entropy calculation, a histogram of the frequency distribution of the micro-movement of the head is constructed. The thermodynamic entropy (S) calculation follows the following formula.
Figure PCTKR2015006670-appb-M000014
Figure PCTKR2015006670-appb-M000014
이러한 개별 정보통계 매개변수는 인간의 어떠한 감정상태를 더 잘 밝혀내기 위해 적용되는데, 실례로 실험진행을 통해 거짓 수준에 대한 정보적 엔트로피간 연관성이 크다는 사실을 알게 됐고, 열역학 엔트로피는 인간의 불안감 상태와 큰 연관이 있다는 사실을 알 수 있었다. These individual information statistics parameters are applied to better identify any emotional state in humans. For example, experiments have shown that there is a high correlation between informational entropy on false levels. It was found that there is a big connection with.
신체ㆍ열역학적 매개변수를 바탕으로 인간의 행동과 에너지, 카리스마 적인 측면을 더 완벽히 특징 및 결정지을 수 있었다. 실례로 진동 이미지 7. 1 버전 시스템을 이용해 진동 이미지 기록 최고 주파수를 나타낸 주파수 히스토그램을 바탕으로 평균제곱오차와 주파수 최고치간 차이를 바탕으로 인간의 에너지(E)를 계산할 수 있었다.Based on body and thermodynamic parameters, we were able to more fully characterize and determine human behavior, energy and charismatic aspects. For example, using the Vibration Image 7.1 version system, human energy (E) could be calculated based on the difference between the mean square error and the frequency peak, based on the frequency histogram showing the highest frequency of the vibration image.
Figure PCTKR2015006670-appb-M000015
Figure PCTKR2015006670-appb-M000015
머리의 반사적인 미세움직임의 양적 분석은 인간의 정신생리학적 상태 측정을 더욱 객관ㆍ과학적으로 가능하게 해주며, 의학ㆍ심리학ㆍ정신의학적, 그리고 일상생활에서의 많은 문제들을 해결할 수 있게 해준다. 공격성, 스트레스, 불안감, 잠재적 위험성 수준에 따른 공항 내 승객들의 정신감정 상태의 양적 평가 및 개발된 시스템과 관련한 독립적인 실험을 통해, 본 발명이 전문가들의 전문 평가에 긍정적(90%이상)으로 부합한다는 사실을 알 수 있었다. 이는 본 발명의 실질적인 실현 가능성을 확인해주는 것이다. Quantitative analysis of the reflexive micromovement of the head makes it possible to measure the psychophysiological state of humans more objectively and scientifically and to solve many problems in medicine, psychology, psychology, and everyday life. Through independent experiments with the system developed and the quantitative assessment of the psychological status of passengers at the airport according to aggression, stress, anxiety and potential risk levels, the present invention is positive (more than 90%) to the expert's professional evaluation. I could tell the truth. This confirms the practical feasibility of the present invention.

이하에서는 본 발명의 실험방법에 대해 살펴본다. 도2는 실험 진행 과정을 설명한다. 본 실험에서는 감정의 유발이 비교적 용이한 아이들을 대상으로 측정하였다. 리더로부터 들어오는 자극의 전후 반응은 변화량을 통한 패턴을 분석을 위해 사용되었다. 사사분면으로 나눠진 쾌-불쾌 축과 각성과 이완 축은 자극으로 사용되었다. 각 자극(중립, 쾌-각성, 쾌-이완, 불쾌-각성, 불쾌-이완)의 전후 데이터는 관련성을 찾기 위해 비교된다. Hereinafter, look at the experimental method of the present invention. 2 illustrates the progress of the experiment. In this experiment, we measured children with relatively easy induction of emotion. The response before and after the stimulus coming from the leader was used to analyze the pattern through the amount of change. The pleasant-displeased axis and the awakening and relaxation axis divided into four quadrants were used as stimuli. Data before and after each stimulus (neutral, pleasant-wake, pleasant-relaxation, discomfort-wake, discomfort-relaxation) are compared to find relevance.
연구 대상인 총 다섯 명의 아이들은 여자 1명, 남자 4명, 평균 5. 6세 표준편차 0. 8로 구성되었다. 피실험자는 심혈관계나 신경학적으로 아무런 이상이 없고 피실험자는 독립적인 공간에 놓여져 있었다. 카메라와 피실험자 사이에는 아무런 방해요소가 없었고 하얀 배경의 측정공간에서 수행된다. 수집된 영상은 더 나은 결과를 위해 피실험자를 제외한 다른 것들은 마스킹 처리를 하였다. A total of five children studied consisted of one female, four males, and an average of 5.0 years old with a standard deviation of 0.8. Subject had no cardiovascular or neurological abnormalities and subject was placed in an independent space. There is no interference between the camera and the test subject and it is performed in the measuring room with white background. The collected images were masked for all but the subjects for better results.
연구 도구로서, 전술한 바와 같은 알고리즘에 따른 진동이미지 기술은 감정변화를 감지하기 위해 아이들의 머리에 점을 실시간으로 추적하여 알아내었다. 비디오 카메라의 기본 사양은 640x480픽셀의 해상도와 15. 0 프레임/초의 주파수, 80dB 다이나믹레인지(센서의 수광폭)이고, 대상과의 거리는 1. 5m에 위치하였다. As a research tool, the vibration image technique according to the algorithm described above has been found by tracking the points in the head of the children in real time in order to detect the change of emotion. The basic specifications of the video camera are a resolution of 640x480 pixels, a frequency of 15.0 frames / sec, an 80dB dynamic range (the sensor's light receiving width), and a distance of 1.5m.
실제 실험에 있어서, 피실험자는 10분간 의자에 앉아 휴식을 취하고 사전측정으로 3분간 카메라를 응시하도록 하였다, 감정 유발 자극은 정신생리학적 반응의 패턴을 유발하였다. 약 20여분 동안 감정 유발 자극으로 (중립, 쾌-각성, 쾌-이완, 불쾌-각성, 불쾌-이완)의 다섯 가지 다른 구연 동화를 사용하였다. 또한 3분 동안 사후 상태를 기록하였다. In the actual experiment, the subject was allowed to sit in a chair for 10 minutes to rest and stare at the camera for 3 minutes as a pre-measurement. The emotion-induced stimulus caused a pattern of psychophysiological responses. Five different oral assimilations (neutral, pleasant-wake, pleasant-relaxation, discomfort-wake, displeasure-relaxation) were used for about 20 minutes. The post-mortem condition was also recorded for 3 minutes.
측정된 영상은 전술한 바와 같이 진동이미지를 이용하는 알고리즘을 적용하는 진동이미지 처리 소프트웨어에 의해 분석되고, 분석 후 10가지 파라미터에 대한 평균 값을 분석 결과로 제시되었다. 다섯 명의 아이들의 데이터 수집 후에, 중립을 기준으로 4가지 자극에서의 차이를 구분 짓기 위해 공통 변수와 유효 변수로 분리한다. 추출된 유효 변수들은 러셀의 감정 모델을 기반으로 결정짓기 위해 사용된다. The measured images were analyzed by vibration image processing software applying an algorithm using a vibration image as described above, and the average values of the 10 parameters after the analysis were presented as analysis results. After collecting data from five children, we divide them into common and effective variables to distinguish the differences in the four stimuli on a neutral basis. The extracted valid variables are used to make decisions based on Russell's emotional model.
위와 같은 실험 결과를 분석한 결과, 5명의 아이들을 통해 10가지 변수 중 각 자극 별로 추출된 유효 변수들을 찾아내었다. 중립자극을 기준으로 한 쾌-각성과 쾌-이완의 자극에서 추출된 공통 변수는 쾌 감정이 가지고 있는 공통 변수로써 사용될 수 있고, 쾌-각성과 불쾌-각성에서 추출된 변수는 각성 자극과 관련된 진동이미지 유효변수라고 할 수 있다. 이러한 작업을 반복하여 각 감정 축과 관련된 파라미터를 찾는다. 진동이미지 변수의 변화율의 패턴을 비교하여 ‘쾌-각성’과 ‘불쾌-각성’의 공통 변수는 공격성, 스트레스가 있고, ‘긴장/불안’과 ‘신경과민’은 ‘각성’과 ‘이완’을 나누는데 사용될 수 있는 것을 의미한다. 아래의 표1은 다른 자극들에서의 패턴변화에 대한 결과이다. 이런 변수들을 이용하여 도3과 같이 역으로 추론해 나갈 수 있는 알고리즘을 만들어낼 수 있을 것이다.As a result of analyzing the above experimental results, we found out the effective variables extracted for each stimulus among 10 variables through five children. The common variables extracted from the stimulus of pleasant-wake and pleasant-relaxation based on neutral stimulation can be used as the common variables of pleasant emotion, and the variables extracted from the pleasant-wake and discomfort-wake are the vibrations associated with the arousal stimulus. It can be called an image valid variable. Repeat this to find the parameters associated with each emotion axis. By comparing the pattern of the rate of change of the vibration image variable, the common variables of 'arousal-wake' and 'discomfort-wake' are aggression and stress, and 'tension / anxiety' and 'neural hypersensitivity' are 'awakening' and 'relaxation'. It can be used to divide. Table 1 below shows the results of pattern changes in different stimuli. Using these variables, we can create an algorithm that can infer backwards as shown in FIG.

Figure PCTKR2015006670-appb-T000001
Figure PCTKR2015006670-appb-T000001
기술의 발달은 좀 더 나은 삶을 위해 기계중심에서 인간중심으로 변하고 있다. 이간 중심의 환경을 구축하기 위하여 다양한 생체 신호를 이용한 응용 기술들이 발달하고 있다. 안전도(EOG)와 근전도(EMG)를 이용한 안구이동 추적 시스템이나 뇌전도(EEG)를 이용한 전동 휠체어 제어시스템과 같이 컴퓨터나 주변 환경 스스로 인간의 상태를 파악하여 인간에게 보다 쾌적한 삶을 살 수 있게 하는 기술들이 개발되고 있다. The development of technology is changing from machine-centric to human-centered for a better life. Application technologies using various biosignals have been developed to build a heterogeneous environment. Like the eye movement tracking system using EGO and EMG or the electric wheelchair control system using EEG, the computer or the surrounding environment can identify the human state and make the human life more comfortable. Technologies are being developed.
본 발명에서는 진동 이미지 기술을 이용해 추출된 변수들로부터 감정을 추론할 수 있는 알고리즘을 만들고 이를 통해 거짓말 여부를 판단하는 방법을 제안한다. The present invention proposes a method of making an algorithm that can infer emotions from extracted variables using vibration image technology and to determine a lie.
정신생리학적 메커니즘에 기반한 영상기술을 이용함으로써 사용자들이 거부감을 느낄 수 있는 접촉식 생체신호 측정기술을 대신할 수 있는 진동 이미지 기술을 이용하여 사용자들에게 거부감을 최소화하고 어느 곳에서나 활용 가능한 생체인식 기술을 증명하였다. By using image technology based on psychophysiological mechanism, vibration image technology can be used instead of contact bio-signal measurement technology that users can feel rejection. Proved.
도4는 진동 이미지의 진폭 성분으로 형성되는 인체의 이미지 주위에 생체 에너지인 아우라가 방사되는 것을 도시한 것이다. FIG. 4 shows that an aura of bioenergy is radiated around an image of a human body formed of an amplitude component of a vibration image.
내부 생체신호이미지는 상술한 바와 같이, 각 부위의 위치 변화 크기를 색상으로 표현한 것이다. 이를 통해 피검자(1) 각 부위의 위치 변화 크기를 시각화할 수 있게 된다. 외부 생체신호 이미지는 내부 생체신호이미지의 주변에 나타나며, 평균 최고 진동 주파수를 색상으로 변조하여 나타낸다. As described above, the internal biosignal image expresses the magnitude of the change in position of each part in color. Through this it is possible to visualize the size of the position change of each part of the subject (1). The external biosignal image appears around the internal biosignal image and modulates the average peak vibration frequency into color.
도 5는 인체의 실제 영상 주위에 생체 에너지인 생체신호이미지가 방사되는 것을 도시한다. 도 5b에서, 내부 생체신호이미지는 표현되지 않고 실제 영상 주위에 생체신호 이미지만이 표시되어 있다. 5 illustrates that a biosignal image, which is bioenergy, is radiated around an actual image of a human body. In FIG. 5B, the internal biosignal image is not represented and only the biosignal image is displayed around the actual image.
도 6, 7은 안정 상태와 비안정 상태에서의 생체신호 이미지를 각각 나타내는데, 도6은 안정적 또는 정삭적 상태, 그리고, 도7은 스트레스 상태에 있는 피검자의 생체신호 이미지이다. 6 and 7 show biosignal images in a stable state and an unstable state, respectively. FIG. 6 is a biosignal image of a subject in a stable or finished state, and FIG. 7.
도6을 살펴보면, 생체신호 이미지가 형태와 색깔 면에서 충분히 대칭을 이루고 있으며 생체신호이미지의 색이 선택한 색깔 눈금(전반적인 색-녹색)의 중간 정도로 나타나 있다. 이러한 생체 신호 이미지를 통해서 피검자가 안정적인 상태임을 알 수 있다. Referring to FIG. 6, the biosignal image is sufficiently symmetrical in shape and color, and the color of the biosignal image is about halfway between the selected color scale (overall color-green). It can be seen from the biosignal image that the subject is in a stable state.
반면에 도7을 살펴보면, 생체신호 이미지에서 아우라는 붉은 색 성분을 많이 포함하고 있다. 따라서, 이 상태에서의 피검자는 불안정한 상태임을 알 수 있다. 사람이 어떤 자극을 받게 되면, 예를 들어 화면을 통해 폭력 장면에 노출되게 되면, 피검자가 스트레스를 받거나 공격적인 상태가 되어 생체신호 이미지의 색깔은 보다 붉은 색으로 변화한다. On the other hand, referring to FIG. 7, the aura contains a lot of red components in the biosignal image. Therefore, it can be seen that the subject in this state is an unstable state. When a person is irritated, for example, exposed to a violent scene through the screen, the subject becomes stressed or aggressive and the color of the biosignal image changes to a reddish color.
도 8은 안정 상태에 있는 인체 진동이미지의 주파수 구성요소 (생체신호 이미지)에 대한 분포 그래프이고, 도 7b는 스트레스 상태에 있는 인체 진동이미지의 주파수 구성요소 (생체신호 이미지)에 대한 분포 그래프이다. FIG. 8 is a distribution graph of frequency components (biological signal images) of a human body vibration image in a stable state, and FIG. 7B is a distribution graph of frequency components (biological signal images) of a human body vibration image in a stress state.
도 9에 나와 있는 그래프는 정상적인 노동 상태에 있는 사람의 전형적인 주파수 분포를 보여주고 있다. 연구 결과에 의하면, 대다수의 사람들은 평온한 상태에서 일반적으로 싱글 모드의 분포 규칙에 흡사한 분포수 분포를 보인다. 화면에서 폭력 장면을 보는 것과 같은 특정한 부정적인 영향을 받을 경우 피실험자의 상태는 도 7처럼 변화한다. 만약 공포, 스트레스 및 공격적인 상태에서는 주파수 분포(M)의 평균(중간) 수치가 증가하는 쪽으로 이동한다. 안정적이고 편안한 상태에서는 주파수 분포 수치의(M) 평균(중간) 수치가 줄어드는 쪽으로 이동한다. 주파수 축(X)은 상대적인 단위뿐 아니라 실제 단위 혹은 시간(㎐나 sec. )로도 표현할 수 있다. 표시값 사이의 거리는 카메라의 신속한 처리에 대한 실제 매개변수들과 소프트웨어의 셋팅(처리하는 순서에서 이미지를 축적하는 시간과 이미지의 수)에 의해 결정된다. The graph shown in FIG. 9 shows a typical frequency distribution of a person in a normal working state. The results show that the majority of people in a calm state generally have a distribution of distributions similar to a single-mode distribution rule. The subject's state changes as shown in FIG. 7 when subjected to a certain negative effect such as watching a violence scene on the screen. If in fear, stress and aggressive conditions, the mean (medium) value of the frequency distribution (M) shifts towards increasing. In a stable and relaxed state, the mean (middle) value of the frequency distribution value (M) is shifted toward decreasing. The frequency axis (X) can be expressed not only in relative units, but also in real units or time (㎐ or sec.). The distance between the display values is determined by the actual parameters of the camera's rapid processing and the software's settings (time to accumulate images and the number of images in the processing sequence).
도 10은 본 발명의 방법에 따라 측정된 피검자의 감성 상태를 나타내는 방사형 그래프(챠트)이다. 10 is a radial graph (chart) showing the emotional state of a subject measured according to the method of the present invention.

이하에서 본 발명에 따른 생리 신호 검출 방법이 이를 적용하여 거짓말을 탐지하는 기술에 대해 살펴 본다. Hereinafter, the method of detecting a physiological signal according to the present invention will be described with respect to a technique for detecting a lie.
먼저 도11 에 도시된 바와 같이, 거짓말 탐지를 위해 대조분석을 실시하고(11), 정신생리적 변화를 겪는 생체, 즉 대조 분석 조사를 받는 검사자를 촬영하여 연속적으로 변화하는 영상을 획득하고(12), 각 영상을 처리(분석)하여 진동 매개 변수를 생성한다(13). 이렇게 얻어진 생리신호를 기존 폴리그라프상에서 분석하듯이 각 질문에 해당하는 대답의 반응을 보고 분석(14)하여 최종적으로 거짓말 여부를 판단한다(15). First, as shown in FIG. 11, a control analysis is performed to detect a lie (11), and a biopsy subject undergoing psychophysiological change, that is, a test subject undergoing a control analysis investigation, is photographed to acquire a continuously changing image (12). Each image is processed (analyzed) to generate vibration parameters (13). As shown in the analysis of the physiological signal obtained on the existing polygraph, the response of the answer corresponding to each question is analyzed and analyzed (14) to finally determine whether the lie (15).
이러한 방법은 도12 에 도시된 바와 같은 구조의 장치에 의해 구현될 수 있다. 도12 는 거짓말 탐지 장치를 기능적으로 블록화한 도면이다. 도12를 참조하면, 본 발명에 따른 생리 신호 검출장치는, 피검자를 촬영하는 카메라(21), 카메라로부터 얻어진 영상을 분석하는 처리부(22), 영상 처리부로부터의 신호를 이용하여 진동 파라미터(매개 변수)를 추출하고, 이것을 이용해 생리 신호를 생성하는 신호 분석부(23), 그리고 신호 분석부로부터 얻어진 생리신호를 응용하여 거짓말 여부를 판단하는 거짓말 여부 결정부(24)를 포함한다. This method may be implemented by a device having a structure as shown in FIG. 12 is a functional block diagram of a lie detection device. Referring to Fig. 12, the physiological signal detecting apparatus according to the present invention includes a vibration parameter (parameter) using a camera 21 for photographing a subject, a processor 22 for analyzing an image obtained from the camera, and a signal from the image processor. ) And a signal analyzer 23 for generating a physiological signal using the same, and a lie determination unit 24 for determining a lie by applying a physiological signal obtained from the signal analyzer.
이하, 본 발명에 대해서 거짓말 여부를 판별(탐지)하는 과정에 대해 설명한다. 도13 에 도시된 바와 같이 피검자의 대조 분석 동영상으로부터 생리신호를 받아오고, 생리신호 중 거짓말 여부와 관련이 있는 후술하는 파라미터(INT2A, INT1A, INT0A, A1X, A1, A3, A4X, A4)만을 추출하고(31), 추출된 값을 이용하여 구체 분석을 실시하고(32), 대조 분석의 질문 중 RQ(Relevant Question, 사건질문), CQ(Comparative Question, 비교질문) 구간의 값을 최댓값(LD(M)), 평균값(LD(a)), 적분값(LD(i)), VR 값으로 비교하여(33) 각 과정에서의 판단 결과를 종합하고(34), 종합된 값을 바탕으로 최종적으로 거짓말 여부를 판단한다(35). 구체적으로, 비교질문(CQ)과 사건질문(RQ)에 대한 반응 변수 값의  비교를 통하여 CQ 값이 RQ 값보다 클 경우에는 진실반응으로, RQ 값이 CQ 값보다 클 경우에는 거짓반응으로 두 값의 차이 10% 범위내일 경우에는 판정불능으로 한다." Hereinafter, the process of discriminating (detecting) a lie about the present invention will be described. As shown in FIG. 13, a physiological signal is received from a control analysis video of a subject, and only the following parameters (INT2A, INT1A, INT0A, A1X, A1, A3, A4X, and A4) related to the lie among the physiological signals are extracted. (31), a concrete analysis is performed using the extracted values (32), and the values of the RQ (Relevant Question) and CQ (Comparative Question) sections are compared to the maximum value (LD ( M)), the average value LD (a), the integral value LD (i), and the VR value are compared (33) to synthesize the judgment results in each process (34) and finally based on the combined values. Determine if a lie (35). Specifically, through the comparison of the response variable values for the comparison question (CQ) and the event question (RQ), the two values are true if the CQ value is greater than the RQ value and a false response if the RQ value is greater than the CQ value. If the difference is within the range of 10%, it cannot be determined. "
전술한 바와 같이 매개변수 A1∼A4는 진동의 진폭을 의미하는 것으로, A1은 2 개의 연이은 프레임간의 프레임차이, A3는 N개의 연이은 프레임간의 프레임 차이, A4는 10 개의 프레임을 필터링한 변수 A1의 수치를 말한다. INT2A는 10개의 연이은 진폭 값의 집적(集積), INT1A는 2개의 연이은 진폭 값의 집적, INT0A는 N개의 진폭 값의 집적을 말한다.As described above, parameters A1 to A4 represent the amplitude of vibration, A1 is the frame difference between two consecutive frames, A3 is the frame difference between N consecutive frames, and A4 is the numerical value of variable A1 filtering 10 frames. Say. INT2A is the integration of 10 consecutive amplitude values, INT1A is the integration of two consecutive amplitude values, and INT0A is the integration of N amplitude values.
여기에서, VR (Visualization rate)은 CR (calculation rate) 과 대별되는 각 파라미터별 가중치를 의미한다. VR은 분석구간에서 임계값보다 큰 구간이 1개인 경우는 1, 임계값 보다 큰 구간이 2개인 경우는 2 로 가중치를 준다. Here, VR (Visualization rate) means a weight for each parameter that is roughly compared to CR (calculation rate). VR is weighted as 1 when there is one section larger than the threshold in the analysis section and 2 when there are two sections larger than the threshold.
최댓값(LD(M)), 평균값(LD(a)), 적분값(LD(i)), VR값에서 평균을 이용한 거짓말 여부 판단은 아래의 수 16 ~ 수 18에 기초한다.The determination of the lie using the mean in the maximum value LD (M), the average value LD (a), the integral value LD (i), and the VR value is based on the following numbers 16 to 18.
Figure PCTKR2015006670-appb-M000016
Figure PCTKR2015006670-appb-M000016
Figure PCTKR2015006670-appb-M000017
Figure PCTKR2015006670-appb-M000017
Figure PCTKR2015006670-appb-M000018
Figure PCTKR2015006670-appb-M000018
DI- 거짓 의심 구간 발견DI- False Suspicious Interval
NDI- 거짓 의심 구간 미발견NDI- No False Suspects Found
INC- 판정 불가INC- not determined
RQ- 사건과 관련성이 있는 질문에서의 반응RQ-Respond to Questions Related to Events
CQ- RQ와 대조하기 위한 질문에서의 반응Response to questions to check against CQ-RQ
단, 평균값(LD(a)), 적분값(LD(i)), VR 값의 경우 RQ, CQ의 값 차이가 10% 미만이면 INC로 처리한다. However, in the case of the average value LD (a), the integral value LD (i), and the VR value, if the difference between the values of RQ and CQ is less than 10%, it is processed as INC.
최댓값(LD(M)), 평균값(LD(a)), 적분값(LD(i)), VR 값에서 최대값을 이용한 거짓말 여부 판단은 수 19~수 21에 기초한다.Lie determination using the maximum value in the maximum value LD (M), the average value LD (a), the integral value LD (i), and the VR value is based on the numbers 19 to 21.
Figure PCTKR2015006670-appb-M000019
Figure PCTKR2015006670-appb-M000019
Figure PCTKR2015006670-appb-M000020
Figure PCTKR2015006670-appb-M000020
Figure PCTKR2015006670-appb-M000021
Figure PCTKR2015006670-appb-M000021
DI- 거짓 의심 구간 발견DI- False Suspicious Interval
NDI- 거짓 의심 구간 미발견NDI- No False Suspects Found
INC- 판정 불가INC- not determined
RQmax- 사건과 관련성이 있는 질문에서의 반응 중 최대값RQmax-maximum response from a question related to an event
CQmax- RQ와 대조하기 위한 질문에서의 반응 중 최대값Maximum value of responses in question to check against CQmax-RQ
단, 평균값(LD(a)), 적분값(LD(i)), VR 값의 경우 RQ, CQ의 값 차이가 10% 미만이면 INC로 처리한다. 즉, CQ와 RQ에 대한 반응 변수값의 비교를 통하여 CQ 값이 RQ 값보다 클 경우에는 진실반응으로, RQ 값이 CQ 값보다 클 경우에는 거짓반응으로, 두 값의 차이 10% 범위내일 경우에는 판정불능으로 한다.However, in the case of the average value LD (a), the integral value LD (i), and the VR value, if the difference between the values of RQ and CQ is less than 10%, it is processed as INC. In other words, if the CQ value is greater than the RQ value, it is a true response. If the RQ value is greater than the CQ value, it is a false response. It cannot be determined.
최댓값(LD(M)), 평균값(LD(a)), 적분값(LD(i)), VR 값을 종합하는 방법은 <수 22>에 기초한다. The method of integrating the maximum value LD (M), the average value LD (a), the integral value LD (i), and the VR value is based on Eq. 22.
Figure PCTKR2015006670-appb-M000022
Figure PCTKR2015006670-appb-M000022
LD(M)max- 최대값을 기준으로 한 구간 분석 결과 중 최대값을 이용한 거짓말 여부 판단 결과LD (M) max-The result of judging the lie using the maximum value among the interval analysis results based on the maximum value
LD(M)- 최대값을 기준으로 한 구간 분석 결과의 평균값을 이용한 거짓말 여부 판단 결과LD (M)-Lie determination result using average value of interval analysis result based on maximum value
LD(a)max- 평균값을 기준으로 한 구간 분석 결과 중 최대값을 이용한 거짓말 여부 판단 결과LD (a) max- The result of judging the lie using the maximum value among the interval analysis results based on the average value
LD(a)- 평균값을 기준으로 한 구간 분석 결과의 평균값을 이용한 거짓말 여부 판단 결과LD (a)-The result of judging lie using average value of interval analysis result based on average value
LD(i)max- 적분값을 기준으로 한 구간 분석 결과 중 최대값을 이용한 거짓말 여부 판단 결과LD (i) max- The result of judging the lie using the maximum value among the interval analysis results based on the integral value
LD(i)- 적분값을 기준으로 한 구간 분석 결과의 평균값을 이용한 거짓말 여부 판단 결과LD (i)-Lie determination result using average value of interval analysis result based on integral value
VRmax- VR값을 기준으로 한 구간 분석 결과 중 최대값을 이용한 거짓말 여부 판단 결과Results of judging the lie using the maximum value among the interval analysis results based on VRmax- VR value
종합된 결과를 이용하여 최종적으로 거짓말 여부를 판단하는 방법은 <수23>으로 이루어진다.Finally, the method of judging a lie using the result of the synthesis consists of <23>.
Figure PCTKR2015006670-appb-M000023
Figure PCTKR2015006670-appb-M000023
Figure PCTKR2015006670-appb-I000025
Figure PCTKR2015006670-appb-I000025
Figure PCTKR2015006670-appb-I000026
Figure PCTKR2015006670-appb-I000026
DInum- 거짓 의심 구간 발견 횟수 DInum- false suspect interval found
NDInum- 거짓 의심 구간 미발견 횟수NDInum- Number of False Suspects Not Found
INCnum- 판정 불가 횟수INCnum-Number of Undetermined
추가적으로 대조 분석 동영상으로부터 생리신호를 받아오는 방법은 도14 에 도시된 것과 같이 음성 인식을 통해 각 RQ, CQ, GQ와 같은 대조 구간을 구분 짓고 해당 구간에서의 값만을 받아오고, 구체 분석을 진행하는데 있어 최댓값(LD(M)), 평균값(LD(a)), 적분값(LD(i)), VR값을 비교하는 방법은 도15 에 도시된 것과 같은 표를 이용하여 수동으로 이루어지고, 도15의 표를 구성하는 파라미터들은 도14 에서 도시된 작업을 거쳐 생성된 도16의 데이터로 구성한다. In addition, the method of receiving the physiological signal from the control analysis video is to distinguish the control intervals such as each RQ, CQ, GQ through voice recognition, as shown in Figure 14 and to receive only the values from the corresponding intervals, and to proceed with the detailed analysis The method of comparing the maximum value LD (M), average value LD (a), integral value LD (i), and VR value is performed manually using a table as shown in FIG. The parameters constituting the table of FIG. 15 consist of the data of FIG. 16 generated through the operation shown in FIG.
이하, 본 발명에 따른 거짓말 분석 방법에 대해 실험 예를 통해 보다 구체적으로 설명한다. Hereinafter, the lie analysis method according to the present invention will be described in more detail through experimental examples.

본 발명의 실험에서, 바이브라이미지(Vibra-image) 기술을 이용한 영상기반 계층적 진술분석용 거짓말탐지 시스템의 효용성을 측정하고자, 서울시경찰청 등 각 지방청들에 의뢰된 실제 사건들을 기존 거짓말 탐지기(미국의 스톨팅社 제품)와 비교 하여 그 일치성을 검토 하였다. 실제 사건을 1 차로 기존 거짓말탐지기로 검사하여 그 결과를 차트 분석하여 결과를 도출하고, 2차로 같은 피검자의 구조화된 진술내용이 녹화된 영상자료를 바이브라이미지 프로그램을 이용하여 원형 데이터(Raw Data)를 추출한 후 분석하여 기존 거짓말탐지기의 결과들과 비교 분석하여, 영상을 통한 진위여부에 관여되는 유효 변수를 찾고 평가함에 있어 그 가능성을 확인하고자 한다. In the experiment of the present invention, in order to measure the effectiveness of the image-based hierarchical statement analysis lie detection system using the Vibra-image technology, the actual events commissioned to each local government offices such as the Seoul Metropolitan Police Agency, the existing lie detector (US The Stalling's product was compared with the Stalling company. Examine the actual event first with the existing polygraph and draw the result by analyzing the result chart. Secondly, by using the Vibra image program, the raw data is recorded using the Vibra image program. After analyzing and comparing the results with the results of the existing lie detector, this study attempts to confirm the possibility of finding and evaluating the effective variables involved in authenticity through the image.
바이브라이미지의 기술에서 적용되는 개념으로써는 크게 전정-반사(VER, Vestibular Emotional Reflex)개념, 전정-시각 반사(VOR,Vestibulo-Ocular Reflex)개념, 대칭성(Symmetry) 개념 세가지를 들 수 있다(V. A. Minkin, 2007). There are three concepts that can be applied to Vibra Image's technology: Vestibular Emotional Reflex (VER), Vestibulo-Ocular Reflex (VOR) and Symmetry (VA). Minkin, 2007).
위 개념들의 핵심 요소인 전정기관은 귀속에 위치하며 균형감각을 담당하는 기관인데, 인간의 균형과 공간적인 정위에 기여하는 전정기관은 움직임과 평형감각을 제공해주는 감각기관이다. 전정기관은 자극에 반응하며 사람에게 작용하는 자극은 중력이다. 따라서 신체의 균형을 유지시키기 위해 전정기관은 항시 동작을 해야 하며, 수직적인 머리 근육 운동의 협력과 머리 근육의 협력(vertical head coordination)이 일정하게 이루어지며 프로세스에 따라 지속적인 반사(reflex)가 이루어지게 되는 것이다. 전정-시각 반사 개념은 머리움직임에 반대방향으로 눈을 움직이게 함으로써 머리가 움직이는 동안에 망막 위에서 영상을 안정화시키는 반사 눈 움직임(reflex eye movement) 이다. 이는 시각상의 중심에 영상을 위치시키고 유지되게 한다. 대칭성(symmetry)은 자연적인 머리 움직임은 특정 패턴에 따른 규칙적인 진동 움직임이 아니기 때문에 에너지 조절에 대한 수직적인 머리 근육운동의 협력을 이용한다. 때문에 자연스럽게 수직적인 중심점을 기준으로 좌, 우로 움직임이 생기게 되고 움직임의 정도에 따라 다른 분석이 가능하다. The vestibular organ, which is the core element of the above concepts, is located in the home and is responsible for the sense of balance. The vestibular organ that contributes to human balance and spatial orientation is the sensory organ that provides the sense of movement and equilibrium. Vestibular organs respond to stimuli and the stimulus acting on a person is gravity. Therefore, to keep the body balanced, the vestibular organ must operate at all times, and the coordination of the vertical head muscle movement and the vertical head coordination is constant, and the reflex is continuously made according to the process. Will be. The vestibular-visual reflex concept is a reflex eye movement that stabilizes the image on the retina while the head is moving by moving the eye in the opposite direction to the head movement. This allows the image to be placed and maintained in the visual center. Symmetry uses the cooperation of vertical head muscle movements for energy regulation because natural head movements are not regular vibrational movements in accordance with certain patterns. This naturally causes left and right movement with respect to the vertical center point, and different analyzes are possible depending on the degree of movement.
인간 상태에 따라서 시그널들은 전정 수용기로부터 자율신경계까지 보내지고 뇌와 근육들은 다른 시간 차이로 전달되며 그것은 감정 상태와 전정계의 머리 근육운동의 협력, 또는 전정계에 의한 감정 반사(VER) 사이에 종속되어 있다는 것을 의미한다. Depending on the human state, signals are sent from the vestibular receptor to the autonomic nervous system and the brain and muscles are transmitted at different time differences, which depend on the cooperation of the emotional state and vestibular head muscle movement, or emotional reflex (VER) by the vestibular system. It means that it is.
바이브라이미지 기술은 카메라에 의해 사람의 미세진동을 기록 분석하는 것으로써, 진동주파수와 진폭 매개변수의 개념으로 디지털적인 화소의 미세진동을 측정하여 감정의 레벨을 시각화하는 기술이다. Vibra image technology records and analyzes human's micro-vibration by camera, and visualizes emotion level by measuring micro-vibration of digital pixel by concept of vibration frequency and amplitude parameter.
인간 머리의 미세움직임은 사람의 전정-감정반응(VER)기능과 관련이 있는데, 프레임에 축적된 3차원적인 머리-목 움직임과 유동을 컨트롤함으로써 인간의 감정을 인식하게 해준다. 바이브라이미지로 피검자의 진술녹화영상이 분석되는 화면은 예를 들어 도17과 같다. The micromovement of the human head is related to the human vestibular-emotion response (VER) function, which allows human emotions to be recognized by controlling the three-dimensional head-neck movement and flow accumulated in the frame. A screen in which a statement recording image of a subject is analyzed as a vibra image is shown in FIG. 17, for example.
대조분석은 기존 거짓말탐지기 검사에 사용되는 피검자의 진술을 확인하는 일반질문 검사기법으로 킬러기법, 백스터기법, 유타기법 등이 있다. 일반적으로 구조화된 질문양식이 있고, 그에 대해 피검자는 “예, 아니오”의 형 태의 답변만 할 수 있다. Contrast analysis is a general question test technique that confirms the statements of subjects used in the existing polygraph test, and includes the killer technique, the Baxter technique, and the Utah technique. There is usually a structured questionnaire, in which the subject can only answer “yes or no”.
영상기반 계층적 진술분석은 기존 진술 분석과는 달리 서면진술이 아닌, 피검자와 검사자의 구조화 또는 반(半)구조화된 인터뷰 형식 의 구술진술 영상 속에서 정신생리적인 신호를 탐지하고 분석하여 피검자의 진위 수준을 분석하는 방법이다Unlike conventional statement analysis, image-based hierarchical statement analysis detects and analyzes psychophysiological signals in oral statements in a structured or semi-structured interview form of subjects and examiners, rather than written statements. How to analyze the level
도18을 본 발명의 실험 순서를 개략적으로 도시한다.18 schematically shows the experimental sequence of the present invention.
I단계: 안정 단계 Phase I: Stable Phase
본 질문이 진행되는 II단계를 프로그래밍(programming) 하기 위한 심리적으로 준비하는 적응 개념으로 진행된다. This is a psychologically prepared adaptation concept for programming Phase II where this question is asked.
I-1. 안정 상태 측정(State Tracking, 이하 "ST")은 초기 베이스 라인(baseline) 설정을 위해 피면담자로 하여금 1분간 진술 없이 정면응시를 하도록 하여 어떤 자극이 없는 안정화된 상태를 측정한다. I-1. State Tracking ("ST") allows the interviewee to take a 1-minute, front-line gaze without a statement for initial baseline settings to measure a stable state without any stimulus.
I-2. 적응 단계(Adaptive Preparation, 이하 "AP") 은 본 질문 전 심리적 준비를 위한 웜업(warm-up) 질문을 하는 단계로서 라포 형성 및 감정적 요소가 크게 개입되지 않는 무난하고 일반적 이고 개인적인 주제를 질문하게 된다. 예를 들어, “주말에는 주로 무엇을 하며 여가시간을 보내 나요?” 또는 “즐겨 하는 취미생활에 대해 말씀해주세요”를 질문한다.I-2. Adaptive Preparation ("AP") is a pre-warm-up question for psychological preparation before this question that asks for an innocent, general, personal subject that does not involve large amounts of rapport formation and emotional factors. . For example, ask, “What do you usually do in your free time on weekends?” Or “Talk about your favorite hobby.”
II. 질문 단계II. Question steps
II-1. 제기 단계(Issue Recollection, 이하 IR)은 사건의 핵심주제와 그 과정을 회상하여 3분 이내로 자유 진술하도록 요구한다. II-1. The Issue Recollection (IR) calls for a free statement within three minutes, recalling the subject and process of the case.
예를 들어, “그날 00시부터 00까지 그 집에서 시계가 없어지기까지의 과정에 대해 3분이 내로 설명해보세요”라는 질문을 통해 자유 진술을 요구할 수 있다.For example, you can ask for a free statement by asking, "Please explain in three minutes how the clock goes from 00:00 to 00."
II-2. 심화 단계(Concrete Clarification, 이하 CC)은 IR단계에서 진술된 내용에 대한 심화질 문의 개념으로 빈약한 진술의 구체화, 핵심 사항의 명료화를 위한 최소 2개 이상의 추가 질문으로 구성된다. II-2. The Concrete Clarification (CC) is a concept of inquiries about the content stated in the IR stage, which consists of at least two additional questions for the specification of poor statements and clarification of key points.
CC에는 증거에 대한 모순을 설명하도록 하는 질문과 본인이 의심받는 이 이유에 대한 설명을 요구하는 질문(명확한 사실→징후적인 사실→암시하는 사실 순으로), 은폐나 누락 또는 빈약한 진술에 대한 구체화 요구, 자신이 결백한 이유에 대한 적극적 해명 요구, 인지 면담에서의 관점 바꾸기나 순서 바 꾸기 등의 질문들이 들어갈 수 있다. CC asks questions that explain contradictions of evidence, asks for explanations of the suspected reasons (in clear facts → symptom facts → suggested facts), substantiation of concealment or omissions or poor statements. Ask questions, ask for an active explanation of why you are innocent, or change your perspective or reorder in cognitive interviews.
단, 이 과정에서 최대한 개방형 질문을 하도록 하며 유도질문이나 압박질문은 배제되며 단답형이 아닌 자발적으로 풍부한 진술이 진행되도록 질문한다. In this process, however, open questions should be asked as much as possible. Induction and pressure questions are excluded, and abundant statements are voluntary rather than short answers.
III. 종료 단계III. End step
III-1. Ending Preparation(이하 EP로 표기)은 검사를 마무리 하는 심리적 준비과정으로 진행되며 추가정보에 대한 파악과 피면담자의 자기 변호의 기회 확대를 위한 형식적이고 의례상 질문이다. (예, “마지막으로 이 사건에 대해 꼭 말하고 싶은 것이 있습니까? “마지막으로 이 사건과 관련해서 제가 꼭 알아야 할 것이 또 있습니까?”)III-1. Ending Preparation (hereinafter referred to as EP) is a psychological preparation process that finalizes the examination and is a formal and courtesy question for identifying additional information and for expanding the interviewee's self-advocacy. (Yes, “What is the last thing you want to say about this event?“ Is there anything else I should know about this event? ”)
III-2. 정적 단계(Arrange Tracking, 이하 AT로 표기)은 후반 안정기를 추적하는 단계로 다시 1 분간 진술 없이 정면응시를 요구하고 종료함으로써 앞의 ST값과 비교하게 된다. III-2. The static phase (Arrange Tracking, hereinafter referred to as AT) is a phase tracking of the late ballast, which again requires a frontal gaze without a statement for one minute and ends with the previous ST value.
이하에서는 본 발명에 따라 거짓말 탐지를 위한 영상 분석 방법에 대해 설명한다.Hereinafter, an image analysis method for detecting a lie according to the present invention will be described.
<녹화 조건><Recording condition>
피검자는 기존의 거짓말탐지검사가 진행 되기 전 상기 질문법에 맞추어 진술분석을 진 행하며 진술 분석 과정을 웹캠을 통해 녹화하 여 녹화된 영상 파일을 이용하여 분석을 진행 한다. 단, 바이브라이미지 소개에서 기록한 것과 같이 영상 컨테이너는 AVI 포맷이어야 하며, 인코딩 방식으로는 Uncompressed RGB 형태로 녹화가 되어야 한다. The subject conducts a statement analysis in accordance with the questioning method before the existing lie detection test is conducted, and records the statement analysis process through a webcam and analyzes the recorded video file. However, as recorded in the introduction of Vibra image, the video container should be in AVI format and the recording method should be recorded in Uncompressed RGB format.
때문에 CCTV 영상 녹화 목적으로 개발된 'QPlayCap'을 이용하였으며 본 소프트웨어는 배포가 가능한 프리웨어(freeware)다. 영상 분석에는 윈도우 기반의 PC가 필요하고 성능은 2.0Ghz 이상의 두 개 이상의 스레드(thread)를 지원하는 CPU, 2GB 이상의 메모리가 필요하다. 분석에 사용된 PC는 본 사양을 충족하는 사양이다.Therefore, QPlayCap, which was developed for CCTV video recording, was used. This software is freeware that can be distributed. Video analysis requires a Windows-based PC, performance requires a CPU that supports two or more threads at 2.0Ghz or higher, and at least 2GB of memory. The PC used for analysis is a specification that meets this specification.
<분석 시료 및 분석 절차>Analytical Samples and Analytical Procedures
본 연구의 시료는 2014년 2월부터 서울시 경찰청과 전북시경찰청, 충북시경찰청으로부터 각각 68개, 17개, 8개의 진술녹화 영상을 받은 것 중 분석에 적합하지 않은 시료를 제외하고 서울시경찰청의 42개, 전북 시경찰청의 15개, 충북 시경찰청의 7개 총 64개의 영상데이터를 시료로 분석하였다. 진술분석 시료들은 기존 거짓말탐지검사에서 비교적 명확하게 판정이 난 피검자들의 시료들로 구성되어 있다.Samples of this study were received from the Seoul Police Agency, Jeonbuk Police Office, and Chungbuk Police Office since February 2014, except for those that were not suitable for analysis. A total of 64 image data from dogs, 15 from Jeonbuk City Police Agency and 7 from Chungbuk City Police Agency were analyzed. Statement analysis samples consist of samples of subjects who were relatively clearly judged by the existing polygraph.
영상분석에서 사용되는 구간은 신뢰도 확보를 위해 각 검사관의 영향이 가장 미치지 않으면서 피검자의 정신생체신호의 순수한 베이스 라인(base-line)을 확인할 수 있는 사전ST와 사후AT 구간을 비교하는 것으로 잡았으며, 그 구간의 각 매개 변수별 표준편차의 값의 평균을 기준으로 하였다. ST와 AT구간의 초반 20초는 보 다 정확한 안정화 단계의 정신생체 신호 값을 측정하기 위해 제외되고 계산되었다. The interval used in the image analysis was determined by comparing the pre-ST and post-AT intervals, which can identify the pure base-line of the subject's psychobiological signal without affecting each examiner to ensure reliability. The average of the values of the standard deviations of each parameter in the intervals was used as the standard. The first 20 seconds of the ST and AT sections were excluded and calculated to measure psychobiological signal values at a more accurate stabilization stage.
질문법에 맞추어 측정된 각 5-10분 정도 의 영상을 바이브라이미지 프로그램으로 불러 와서 측정을 시작하면 총 69가지의 바이브라 변수가 생성된다.When the image of each 5-10 minutes measured according to the question method is loaded into the Vibra image program and the measurement is started, a total of 69 Vibra parameters are generated.
분석은 64개 시료와 모든 바이브라변수 에 대해 처음 안정기의 ST구간과 사후 안정기 의 AT구간에 대한 각 변수별 표준편차를 구 한다. 그리고, 그 표준편차들을 기존 거짓말 탐지검사에서 거짓(DI)와 거짓아님(NDI)으로 판정이 난 데이터로 분류한다. 모든 변수에 대하여 DI, NDI의 표준편차의 평균을 구한 후 ST 와 AT구간에서의 변화율을 본다(도19 참조)The analysis finds the standard deviation of each variable for the ST section of the initial ballast and the AT section of the post-ballast for 64 samples and all vibra variables. The standard deviations are then categorized as data determined as false (DI) and not false (NDI) in the existing polygraph. After the average of the standard deviations of DI and NDI for all variables, see the rate of change in the ST and AT sections (see Figure 19).
도19는 ST와 AT구간에서 각 변수별 표 준편차의 평균값의 변화율 스캐터 그래프이다. 도19에서 DI는 삼각형, NDI는 원형으로 표시되어 있으며, X축 좌측부터 순서대로 INT2A, INT1A, INT0A, C3, FN01, X1이다.Fig. 19 is a scatter graph showing the average value of the standard deviation of each variable in the ST and AT sections. In Fig. 19, DI is shown as a triangle and NDI is shown as a circle, and are INT2A, INT1A, INT0A, C3, FN01, and X1 in order from the left of the X axis.
바이브라이미지 파라미터들은 크게 진동 진폭 파라미터(A계열)와 진동 주파수 파라미터 (F계열), 그리고 대칭성과 관련된 파라미터(S 계열), 그 조합들로 이루어진 (P계열)로 나타나는데 전체 변수들의 표준편차의 평균값과 표준오차막대를 통해 오차막대가 겹치지 않는 유의미한 바이브라 변수는 INT2A, INT1A, INT0A, A1X, A1, A3, A4X, A4 총 8개의 변수로 나타났다(도20, 도21a~21g). 각 변수들의 의미는 다음과 같다.Vibra image parameters are largely represented as vibration amplitude parameters (Series A), vibration frequency parameters (Series F), and symmetry related parameters (Series S), and combinations (P series), which represent the mean values of the standard deviations of all variables. Significant Vibra variables that do not overlap with the error bars through the standard error bar and showed a total of eight variables INT2A, INT1A, INT0A, A1X, A1, A3, A4X, A4 (Fig. 20, Figs. 21A to 21G). The meaning of each variable is as follows.
Figure PCTKR2015006670-appb-M000024
Figure PCTKR2015006670-appb-M000024
Figure PCTKR2015006670-appb-I000027
Figure PCTKR2015006670-appb-I000027
매개변수 A1∼A4는 진동의 진폭을 의미하는 것이다. 여기에서, A1은 2 개의 연이은 프레임간의 프레임차이 즉, 두 프레임간의 픽셀 밝기 값의 차이를 모두 더하여 지정된 밝기 값으로 나눈 값이다. A2는 열 프레임간의 픽셀 밝기 값의 차이를 모두 더하여 지정된 밝기 값으로 나눈 값이다. A3는 n개의 연이은 프레임간의 프레임 차이, 즉, n개의 프레임 간의 픽셀 밝기 값의 차이를 모두 더하여 지정된 밝기 값으로 나눈 값이다. 그리고, A4는 10 개의 프레임을 필터링한 변수 A1의 수치를 말한다. 그리고, A1X, A4X는 A1, A4 각각에 대해 계산 주기를 1/5로 축소시킨 값을 나타낸다.The parameters A1 to A4 mean the amplitude of vibration. Here, A1 is a value obtained by dividing a frame difference between two consecutive frames, that is, a difference in pixel brightness values between two frames and dividing by a specified brightness value. A2 is the sum of the difference in pixel brightness values between ten frames divided by the specified brightness value. A3 is a value obtained by dividing a frame difference between n consecutive frames, that is, a difference in pixel brightness values between n frames, and dividing by a specified brightness value. And, A4 refers to the numerical value of the variable A1 that filtered 10 frames. In addition, A1X and A4X represent the value which reduced the calculation period to 1/5 about A1 and A4, respectively.
Figure PCTKR2015006670-appb-M000025
Figure PCTKR2015006670-appb-M000025
Ca는 주어진 영역 내에서의 픽셀의 수, Cn 은 지정된 밝기 값 이상을 가지는 픽셀, I는 해당 픽셀의 밝기 값이다. 그리고, INTEGR2A(INT2A)는 10개의 연이은 진폭 값의 집적(集積), INTEGR1A(INT1A)는 2개의 연이은 진폭 값의 집적, INTEGR0A(INT0A)는 100개의 진폭 값의 집적을 말한다. 아래의 표2는 상기 8개의 변수(INT2A, INT1A, INT0A, A1X, A1, A3, A4X, A4)의 DI, NDI별 ST와 AT구간의 표준편차의 평균값을 보여 준다.Ca is the number of pixels in a given region, Cn is a pixel having a specified brightness value or more, and I is the brightness value of the pixel. INTEGR2A (INT2A) refers to the integration of 10 successive amplitude values, INTEGR1A (INT1A) refers to the integration of two successive amplitude values, and INTEGR0A (INT0A) refers to the integration of 100 amplitude values. Table 2 below shows the average values of the standard deviations of the ST and AT sections for the DI and NDI of the eight variables (INT2A, INT1A, INT0A, A1X, A1, A3, A4X, and A4).
변수variable 판정Judgment ST표준편차ST standard deviation AT표준편차AT standard deviation
INT2AINT2A DIDI 1.7054145611.705414561 5.8747644655.874764465
INT2AINT2A NDINDI 5.8153231915.815323191 3.5597739723.559773972
INT1AINT1A DIDI 1.292079561.29207956 4.4776420124.477642012
INT1AINT1A NDINDI 5.1229587415.122958741 2.7243568772.724356877
INT0AINT0A DIDI 0.5336708260.533670826 1.5671653461.567165346
INT0AINT0A NDINDI 2.0512773132.051277313 1.0088654691.008865469
A1XA1X DIDI 0.0222231390.022223139 0.0686727660.068672766
A1XA1X NDINDI 0.0675717920.067571792 0.03850230.0385023
A1A1 DIDI 0.1285523340.128552334 0.3888878570.388887857
A1A1 NDINDI 0.3865792940.386579294 0.2458033410.245803341
A3A3 DIDI 1.532448681.53244868 3.7085679973.708567997
A3A3 NDINDI 3.61973553.6197355 2.1744944122.174494412
A4XA4X DIDI 0.0142325590.014232559 0.0589639320.058963932
A4XA4X NDINDI 0.0591230020.059123002 0.0292616810.029261681
A4A4 DIDI 0.0777057510.077705751 0.2703096350.270309635
A4A4 NDINDI 0.3113611060.311361106 0.1619795580.161979558
도21a 내지 도21h는 각 매개 변수의 ST와 AT 구간에서 DI, NDI 별 표준편차의 평균값과 표준 오차 막대그래프이다.21A to 21H are mean graphs and standard error histograms of standard deviations of DI and NDI in the ST and AT sections of each parameter.
8개 바이브라 변수의 ST구간과 AT구간의 DI, NDI별 표준편차의 평균값을 이용한 데이터 분석 결과, 아래의 표3에 나타내 보인 바와 같이, DI는 ST와 AT구간에서의 최소 최대 변화율이 정적(positively)으로 큰 특징을 보였고, NDI는 ST와 AT구간에서의 최소 최대 변화율이 부적(negatively)으로 작은 특징을 보였다.As a result of data analysis using the average values of the standard deviations of the DI and NDI sections of the ST and AT sections of eight vibra variables, as shown in Table 3 below, DI has a minimum maximum rate of change in the ST and AT sections. NDI showed negative characteristics, and the minimum maximum rate of change in the ST and AT sections was negatively small.
DIDI NDINDI
STAT SD MIN
ROC%
STAT SD MIN
ROC%
STAT SD MAX
ROC%
STAT SD MAX
ROC%
STAT SD MIN
ROC%
STAT SD MIN
ROC%
STAT SD MAX
ROC%
STAT SD MAX
ROC%
INT2AINT2A 134.97134.97 405.016405.016 -14.3-14.3 -56.276-56.276
INT1AINT1A 136.38136.38 408.048408.048 -25.55-25.55 -62.015-62.015
INT0AINT0A 100.31100.31 330.513330.513 -31.14-31.14 -64.87-64.87
A1XA1X 110.78110.78 353.027353.027 -20.23-20.23 -59.3-59.3
A1A1 106.35106.35 343.496343.496 -10.98-10.98 -54.583-54.583
A3A3 65.07365.073 254.785254.785 -15.9-15.9 -57.091-57.091
A4XA4X 182.59182.59 507.363507.363 -30.71-30.71 -64.648-64.648
A4A4 137.28137.28 409.98409.98 -27.17-27.17 -62.841-62.841

그리고 DI의 경우 ST구간의 표준편차보다 AT구간의 표준편차가 더 크며, NDI의 경우는 반대로 ST구간의 표준편차가 AT구간의 표준 보다 더 컸다(표 1). 그러나 개별 시료들을 대상으로 이 1차 기준을 적용시켜 8개 변수의 표준편차의 평균값들을 살펴본 결과, 1차 기준과 기존 거짓말탐지 검사 결과와의 일치율을 보이는 아래 표4에 나타내 보인 바와 같이, 기존 거짓말 탐지검사 결과와의 일치율이 현저히 떨어 짐을 알 수 있었다.In the case of DI, the standard deviation of the AT section is larger than the standard deviation of the ST section, and in contrast to the NDI, the standard deviation of the ST section is larger than that of the AT section (Table 1). However, as a result of examining the mean values of 8 standard deviations by applying this primary criterion to individual samples, as shown in Table 4 below, the concordance rate between the primary criterion and the existing polygraph is shown. The concordance rate with the detection test result was remarkably decreased.
Figure PCTKR2015006670-appb-M000026
Figure PCTKR2015006670-appb-M000026
Figure PCTKR2015006670-appb-I000028
Figure PCTKR2015006670-appb-I000028

여기에서,
Figure PCTKR2015006670-appb-I000029
: Standard Deviation (표준편차),
Figure PCTKR2015006670-appb-I000030
: Standard Error (표준오차), *
Figure PCTKR2015006670-appb-I000031
: State Tracking (진술 전 1분간 정면응시),
Figure PCTKR2015006670-appb-I000032
: Arrange Tracking (진술 후 1분간 정면응시)이다. 위의 식에서, Droc 는 DI 판정된 데이터에서 표준오차가 포함된 ST구간 표준편차와 AT구간 표준편차의 변화율이며, Nroc는 판정된 데이터에서 표준오차가 포함된 ST구간 표준편차와 AT구간 표준편차의 변화율을 나타낸다.
From here,
Figure PCTKR2015006670-appb-I000029
: Standard Deviation,
Figure PCTKR2015006670-appb-I000030
: Standard Error, *
Figure PCTKR2015006670-appb-I000031
: State Tracking (1 minute before the statement)
Figure PCTKR2015006670-appb-I000032
: Arrange tracking (frontal staring for 1 minute after statement). In the above equation, Droc is the rate of change of the standard deviation of the ST section and the AT section with standard errors in the DI determined data, and Nroc is the standard deviation of the ST section and the standard deviation of the AT section with standard errors from the determined data. The rate of change is shown.
중간 판정결과(R)는 아래의 식으로부터 얻어진다.The intermediate judgment result R is obtained from the following equation.
Figure PCTKR2015006670-appb-M000027
Figure PCTKR2015006670-appb-M000027
Figure PCTKR2015006670-appb-M000028
Figure PCTKR2015006670-appb-M000028
여기에서, X: 영상으로부터 취득된 데이터의 ST구간 표준편차와 AT구간 표준편차의 변화율이며, 최종 결과(Result)가 0 또는 3이면 판정불가, 1이면 거짓 징후 농후(DI), 그리고 2이면 거짓 징후 적음(NDI)으로 판정한다.Here, X is the rate of change of the ST section standard deviation and the AT section standard deviation of the data obtained from the image. If the final result is 0 or 3, the judgment is impossible, 1 is the false symptom richness (DI), and 2 is false. It is determined by the small indication (NDI).
변수명Variable name 일치율 % % Match
INT2AINT2A 5050
INT1AINT1A 45.345.3
INT0AINT0A 51.651.6
A1XA1X 5050
A1A1 51.651.6
A3 A3 5050
A4XA4X 51.651.6
A4A4 45.345.3

이를 다시 8개의 유의미변수들의 ST와 AT구간에서 각 표준오차의 상한과 하한범위의 중간 값을 임계값으로 설정하여 DI와 NDI를 구분하여 일치율을 살펴보았다.Again, this study examined the agreement rate by dividing DI and NDI by setting the middle value of the upper and lower limits of each standard error as the threshold in the ST and AT sections of eight significant variables.
DI의 임계값: ST의 표준오차 상한 + {(AT 하한 – ST상한)/2}Threshold of DI: ST standard error upper limit + {(AT lower limit – ST upper limit) / 2}
NDI의 임계값: AT의 표준오차 상한 + {(ST 하한 – AT상한)/2}NDI Threshold: AT standard error upper limit + {(ST lower limit – AT upper limit) / 2}
이 수식을 기준으로 2차 기준은 ST구간의 표준오차 임계값을 기준으로 DI는 임계값보다 작을 경우이고 NDI는 임계값보다 클 경우로 구분하여 일치율을 살펴보았다. 또 다른 3차 기준은 AT구간의 표준오차 임계값을 기준으로 DI는 임계값보다 클 경우이고 NDI는 임계값 보다 작을 경우로 구분하여 일치율을 살펴보았는데, 그것의 결과는 표 5과 같다.Based on this equation, the secondary criterion was divided into the case where DI was smaller than the threshold and the NDI was larger than the threshold, based on the STD threshold. Another third criterion is based on the standard error threshold of the AT section, DI is larger than the threshold value and NDI is smaller than the threshold value, and the concordance rate is examined. The results are shown in Table 5.
Figure PCTKR2015006670-appb-M000029
Figure PCTKR2015006670-appb-M000029
Figure PCTKR2015006670-appb-I000033
Figure PCTKR2015006670-appb-I000033
Figure PCTKR2015006670-appb-I000034
Figure PCTKR2015006670-appb-I000034
Figure PCTKR2015006670-appb-M000030
Figure PCTKR2015006670-appb-M000030
Figure PCTKR2015006670-appb-I000035
Figure PCTKR2015006670-appb-I000035
Figure PCTKR2015006670-appb-I000036
Figure PCTKR2015006670-appb-I000036

Figure PCTKR2015006670-appb-M000031
Figure PCTKR2015006670-appb-M000031
Figure PCTKR2015006670-appb-I000037
Figure PCTKR2015006670-appb-I000037
위에서, Rst: ST 구간에서의 판정 결과, Xst: 영상으로부터 취득된 데이터의 ST구간 표준 편차이다.In the above, the determination result in the Rst: ST section is the standard deviation of the ST section of the data obtained from the Xst: image.
판정 결과(Result)는 아래 식에 의해 얻어진다.The determination result (Result) is obtained by the following formula.
Figure PCTKR2015006670-appb-M000032
Figure PCTKR2015006670-appb-M000032
거짓 징후 판단에 있어서, 판정결과(Result)가 0이면 거짓 징후 적음(NDI), 1이면 판정 불능, 2이면 거짓 징후 농후(DI)로 판정한다.In the false sign judgment, if the result of determination is 0, false sign is less (NDI), 1 is undeterminable, and 2 is false sign rich (DI).
변수명Variable name ST임계 %ST Threshold% AT임계 %AT Threshold%
INT2AINT2A 46.946.9 59.459.4
INT1AINT1A 48.448.4 56.356.3
INT0AINT0A 51.651.6 62.562.5
A1XA1X 46.946.9 57.857.8
A1A1 48.448.4 59.459.4
A3A3 53.153.1 62.562.5
A4X A4X 5050 56.356.3
A4A4 48.448.4 56.356.3

이상으로 본 결과 ST의 표준오차 임계값으로 판정한 것보다는 AT의 표준오차 임계값으로 판정하는 것이 보다 높은 일치율을 보이는 것으로 나타났다.As a result, it was shown that the determination of AT standard error threshold shows higher agreement rate than that of ST standard error threshold value.
이 같은 일치율의 낮은 확률은 일단 개별 시료들 내에서 이들 변수 값들의 편차 값들이 매우 큰 폭으로 변화하기 때문에 특정한 임계 값을 기준으로 DI와 NDI를 나누는 것은 적절치 않았기 때문으로 보인다. 또한 이들 8개의 변수는 움직임에 매우 민감한 영향을 받는 변 수들인데, 안정기 구간 동안에도 피검자들이 움직이거나 기침을 하거나 고개를 갑자기 돌리 거나 하는 등의 움직임이 있는 경우가 많아 이들 움직임으로 인한 노이즈가 고려되지 않고 일괄적으로 데이터 값들이 계산되었기 때문이기도 하다. 그리고 어떤 피검자들의 데이터의 경우는 일반적이지 않게 안정화 단계에서도 과도하게 높거나 낮은 베이스라인을 가지고 있는 경우도 있었는데, 이들 일반적이지 않은 개별 데이터들은 평균값에 영향을 주어 결국 부적절한 임계값 설정이 된 요인이기도 하다.This low probability of agreement seems to be due to the fact that dividing DI and NDI based on specific thresholds is not appropriate because the deviation values of these variable values vary greatly within individual samples. In addition, these eight variables are variables that are very sensitive to movement, and there are many movements such as subjects moving, coughing, or suddenly turning their heads during the ballast period. Therefore, noise due to these movements is not considered. This is also because the data values were calculated in batches. In some cases, the data of some subjects may have an unusually high or low baseline even during the stabilization phase, and these uncommon individual data affect the mean value, which is a factor that improperly sets the threshold. .
향후 연구의 과제로는 개별 데이터 안에 서의 심한 노이즈 및 지나치게 높거나 낮은 베이스라인을 보이는 비정상 데이터들을 고려 하여 적절한 기로 제거시킨 후에 임계 범 위를 재설정해야 할 것이다. 또한 사건별로 트 라우마적인 감정적 동요가 매우 심한 사건(예, 성 관련 사건 등)의 경우는 바이브라이미지 프로그램 상에서 매우 큰 감정적 변화값을 보일 수 있으므로 이들 사건들은 따로 분류하여 일치율을 재검증하는 방법도 필요하다..In future work, critical ranges should be reset after removing them with appropriate groups, taking into account severe noise in individual data and abnormal data showing too high or low baselines. In addition, events that have very high traumatic emotional fluctuations (e.g., sex-related events) may have very large emotional changes in the Vibra Image program, so these events may be classified separately and revalidated. Also needed ..
본 발명의 연구에 수반되는 실험을 통해 우리는 비접촉식으로 인간의 정신생리학적 상태에서 거짓말을 추론하는 알고리즘을 설계하였다. 감정 추론을 위한 유효 변수는 중립대비 2차원 감정 모델의 유발 자극간의 차이와 수반되는 특징들로 인해 증명된 진동 이미지 변수들로 찾아내었다. 본 발명을 통하여 감정 상태에 따른 거짓말에 관련된 유효 변수들을 찾아내었고 이를 통해 거짓말 여부를 추론 가능한 알고리즘 설계하였다. 같은 자극을 주었을 시 같은 패턴을 보이는 파라미터를 찾아냄으로써 진동 이미지 기술이 감정 상태를 추론하고 감정 상태를 분류하는 데에 기여할 수 있음을 확인할 수 있었다. 한계점으로는 피실험자의 수가 적어 알고리즘의 정확성을 높이는데 한계가 있을 수 있고 각 변수의 수치적인 표현의 기준점을 찾지 못한 점등이 한계점일 수 있겠다. 그러나 영상만을 이용하여 인간의 기본 감정을 추론하여 유추해낼 수 있는 거짓말을 분석하는 알고리즘을 만듦으로써 거짓말은 분석하는 새로운 측정방법으로의 가능성을 보여주었다. Through the experiments that accompany the study of the present invention, we designed an algorithm for inferring a lie from the psychophysiological state of humans in a contactless manner. Effective variables for emotion inference were found as vibration image variables that were proved due to the differences between the induced stimuli of the neutral versus two-dimensional emotion model and the accompanying features. Through the present invention, the effective variables related to the lie according to the emotional state were found and through this, an algorithm capable of inferring the lie was designed. By identifying the parameters that show the same pattern when given the same stimulus, it was confirmed that vibration image technology can contribute to infer emotional state and classify emotional state. As the number of test subjects is small, there may be a limit in improving the accuracy of the algorithm, and the lighting may be the point of not finding a reference point for the numerical expression of each variable. However, by creating an algorithm that analyzes lies that can be inferred by inferring human basic emotions using images only, it shows the possibility of a new measurement method of lies.
지금까지, 본원 다양한 모범적 실시 예가 설명되고 첨부된 도면에 도시되었다. 그러나, 이러한 실시 예는 단지 다양한 실시 예들의 일부임이 이해되어야 할 것이다. 다양한 다른 변형이 본 기술분야에서 통상의 지식을 가진 자에게 일어날 수 있기 때문이다.To date, various exemplary embodiments of the present disclosure have been described and illustrated in the accompanying drawings. However, it should be understood that these embodiments are only part of the various embodiments. Various other modifications may occur to those skilled in the art.

Claims (13)

  1. 카메라를 이용해 소정의 질문에 대한 진술 전후의 동영상을 피검자로부터 획득하는 단계;
    상기 동영상으로부터 파라미터 A1, A3, A4, A1X, A4X, INT0A, INT1A, INT2A 중 적어도 하나를 추출하는 단계;
    위의 단계에서 추출된 파라미터로부터 표준 편차를 계산하는 단계;
    상기 표준 편차를 이용하여 피검자의 거짓 여부를 판단하는 단계;를 포함하고,
    상기 파라미터는 아래와 같이 정의되는, 거짓말 탐지 방법.
    A1: 2개의 연이은 프레임간의 픽셀 밝기 값의 차이를 모두 더하여 지정된 밝기 값으로 나눈 값
    A3: n개의 프레임 간의 픽셀 밝기 값의 차이를 모두 더하여 지정된 밝기 값으로 나눈 값
    A4: 10 개의 프레임을 필터링한 변수 A1의 수치
    A1X, A4X: A1, A4 각각에 대해 계산 주기를 1/5로 축소시킨 값
    INT2A: 10개의 연이은 진폭 값의 집적(集積)
    INT1A: 2개의 연이은 진폭 값의 집적,
    INT0A는 100개의 진폭 값의 집적.
    Acquiring a video from the subject before and after the statement about the predetermined question using a camera;
    Extracting at least one of parameters A1, A3, A4, A1X, A4X, INT0A, INT1A, INT2A from the video;
    Calculating a standard deviation from the parameters extracted in the above step;
    Determining whether the subject is false by using the standard deviation;
    Wherein said parameter is defined as follows.
    A1: The difference in pixel brightness values between two successive frames, divided by the specified brightness value
    A3: The sum of the difference in pixel brightness values between n frames divided by the specified brightness value
    A4: Number of variable A1 filtered 10 frames
    A1X, A4X: Reduced calculation period to 1/5 for each of A1 and A4
    INT2A: accumulation of 10 consecutive amplitude values
    INT1A: integration of two consecutive amplitude values,
    INT0A is the integration of 100 amplitude values.
  2. 제1항에 있어서,
    상기 표준 편차는 피검자의 진술 후의 동영상에서 추출한 파라미터로부터 구하는 진술 후 AT(Arrange Tracking) 표준편차인 것을 특징으로 하는 거짓말 탐지 방법.
    The method of claim 1,
    And said standard deviation is an AT (Arrange Tracking) standard deviation after a statement obtained from a parameter extracted from a video after a testee's statement.
  3. 제1항 또는 제2항에 있어서,
    상기 표준편차의 평균값의 변화율을 구하고, 상기 변화율을 이용하여 거짓 여부를 판단하는 것을 특징으로 하는 거짓말 탐지 방법.
    The method according to claim 1 or 2,
    The rate of change of the mean value of the standard deviation is obtained, and the lie detection method is characterized in that it is determined by using the rate of change.
  4. 제3항에 있어서,
    상기 동영상을 획득하는 단계에서,
    피검자에 대한 심리적 준비단계;
    본 질문 단계; 그리고
    마무리 단계;를 포함하는 것을 특징으로 하는 거짓말 탐지 방법.
    The method of claim 3,
    In acquiring the video,
    Psychological preparation for the subject;
    This question step; And
    Finishing step; comprising a lie detection method comprising a.
  5. 제1항 또는 제2항에 있어서,
    상기 동영상을 획득하는 단계에서,
    피검자에 대한 심리적 준비단계;
    본 질문 단계; 그리고
    마무리 단계;를 포함하는 것을 특징으로 하는 거짓말 탐지 방법.
    The method according to claim 1 or 2,
    In acquiring the video,
    Psychological preparation for the subject;
    This question step; And
    Finishing step; comprising a lie detection method comprising a.
  6. 제5항에 있어서,
    상기 심리적 준비 단계는 안정단계 및 적응단계;를 포함하고,
    상기 본 질문 단계는 제기단계와 심화단계;를 포함하고, 그리고
    상기 마무리 단계는 종료 단계와 정적 단계;를 포함하는 것을 특징으로 하는 거짓말 탐지 방법.
    The method of claim 5,
    The psychological preparation step includes a stabilization step and an adaptation step;
    The present question step includes a filing step and a deepening step; and
    Wherein the finishing step comprises a terminating step and a static step.
  7. 제4항에 있어서,
    상기 심리적 준비 단계는 안정단계 및 적응단계;를 포함하고,
    상기 본 질문 단계는 제기단계와 심화단계;를 포함하고, 그리고
    상기 마무리 단계는 종료 단계와 정적 단계;를 포함하는 것을 특징으로 하는 거짓말 탐지 방법.
    The method of claim 4, wherein
    The psychological preparation step includes a stabilization step and an adaptation step;
    The present question step includes a filing step and a deepening step; and
    Wherein the finishing step comprises a terminating step and a static step.
  8. 제1항에 있어서,
    피검자에게 비교질문(CQ: Comparative Question)과 사건질문 (RQ: Relevant Question)을 제시하고,, 상기 CQ, RQ 질문에 대한 반응 변수 값의 비교를 통하여 CQ 값이 RQ 값보다 클 경우에는 진실반응으로, RQ 값이 CQ 값보다 클 경우에는 거짓반응으로, 두 값의 차이 10% 범위내일 경우에는 판정불능으로 판단하는 것을 특징으로 하는 거짓말 탐지 방법.
    The method of claim 1,
    Present a comparative question (CQ) and a relevant question (RQ) to the subject, and if the CQ value is greater than the RQ value by comparing the response variable values for the CQ and RQ questions, the response is true. , If the RQ value is greater than the CQ value is a false reaction, if the difference between the two values in the range of 10% detection is determined as undeterminable.
  9. 제1항에 기재된 방법을 수행하는 거짓말 탐지 장치에 있어서,
    상기 피검자를 촬영하는 카메라;
    카메라로부터 얻어진 영상을 분석하는 처리부;
    영상 처리부로부터의 신호를 이용하여 진동 파라미터(매개 변수)를 추출하고, 이것을 이용해 생리 신호를 생성하는 신호 분석부; 그리고 신호 분석부로부터 얻어진 생리신호를 응용하여 거짓말 여부를 판단하는 거짓말 여부 결정부;를 포함하는 거짓말 탐지 장치.
    A lie detection device for performing the method according to claim 1,
    A camera photographing the subject;
    A processor configured to analyze an image obtained from a camera;
    A signal analyzer for extracting vibration parameters (parameters) using signals from the image processor and generating physiological signals using the signals; And a lie determination unit determining a lie by applying a physiological signal obtained from the signal analyzer.
  10. 제9항에 있어서,
    상기 표준 편차는 피검자의 진술 후의 동영상에서 추출한 파라미터로부터 구하는 진술 후 AT(Arrange Tracking) 표준편차인 것을 특징으로 하는 거짓말 탐지 방법.
    The method of claim 9,
    And said standard deviation is an AT (Arrange Tracking) standard deviation after a statement obtained from a parameter extracted from a video after a testee's statement.
  11. 제9항에 있어서,
    피검자에게 비교질문(CQ: Comparative Question)과 사건질문 (RQ: Relevant Question)을 제시하고,, 상기 CQ, RQ 질문에 대한 반응 변수 값의 비교를 통하여 CQ 값이 RQ 값보다 클 경우에는 진실반응으로, RQ 값이 CQ 값보다 클 경우에는 거짓반응으로, 두 값의 차이 10% 범위내일 경우에는 판정불능으로 판단하는 것을 특징으로 하는 거짓말 탐지 방법.
    The method of claim 9,
    Present a comparative question (CQ) and a relevant question (RQ) to the subject, and if the CQ value is greater than the RQ value by comparing the response variable values for the CQ and RQ questions, the response is true. , If the RQ value is greater than the CQ value is a false reaction, if the difference between the two values in the range of 10% detection is determined as undeterminable.
  12. 제9에 있어서,
    상기 표준편차의 평균값의 변화율을 구하고, 상기 변화율을 이용하여 거짓 여부를 판단하는 것을 특징으로 하는 거짓말 탐지 장치.
    The method according to claim 9,
    The rate of change of the average value of the standard deviation is obtained, and the lie detection device is characterized in that it is determined by using the rate of change.
  13. 제12항에 있어서,
    안정단계 및 적응단계를 포함하는 심리적 준비 과정;
    제기단계와 심화단계를 포함하는 상기 본 질문 과정; 그리고
    종료 단계와 정적 단계를 포함하는 상기 마무리 과정을 통해서 피검자의 거짓말 여부를 판단하는 거짓말 탐지 장치.
    The method of claim 12,
    Psychological preparation, including a stabilization and adaptation phase;
    The present question process including a filing step and an intensification step; And
    Lie detection device for determining whether the subject lies through the finishing process including the end step and the static step.
PCT/KR2015/006670 2014-04-24 2015-06-30 Method and device for psycho-physiological detection (lie detection) with respect to distortion by using video-based physiological signal detection WO2016163594A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201580078589.XA CN107809951B (en) 2014-04-24 2015-06-30 Psychophysiological detection (lie detection) method and apparatus for distortion using video-based detection of physiological signals

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR20140049468 2014-04-24
KR1020150049085A KR101739058B1 (en) 2014-04-24 2015-04-07 Apparatus and method for Psycho-physiological Detection of Deception (Lie Detection) by video
KR10-2015-0049085 2015-04-07

Publications (1)

Publication Number Publication Date
WO2016163594A1 true WO2016163594A1 (en) 2016-10-13

Family

ID=54599260

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2015/006670 WO2016163594A1 (en) 2014-04-24 2015-06-30 Method and device for psycho-physiological detection (lie detection) with respect to distortion by using video-based physiological signal detection

Country Status (3)

Country Link
KR (1) KR101739058B1 (en)
CN (1) CN107809951B (en)
WO (1) WO2016163594A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023161913A1 (en) * 2022-02-28 2023-08-31 Securiport Llc Deception detection
WO2023235777A3 (en) * 2022-06-01 2024-01-11 Rutgers, The State University Of New Jersey Techniques for measuring atypical neurodevelopment in neonates based on short video

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101805552B1 (en) 2015-08-31 2017-12-08 엘지디스플레이 주식회사 Organic Light Emitting Diode Display Device
CN106618608A (en) * 2016-09-29 2017-05-10 金湘范 Device and method for monitoring dangerous people based on video psychophysiological parameters
CN109216419B (en) 2017-06-30 2024-04-02 乐金显示有限公司 Light-emitting display device
KR102198294B1 (en) * 2018-08-28 2021-01-05 (주)마인드아이 Method and System of Brain-Fatigue Evaluation by using Noncontact Vision System
CN111104815A (en) * 2018-10-25 2020-05-05 北京入思技术有限公司 Psychological assessment method and device based on emotion energy perception
WO2020087494A1 (en) * 2018-11-02 2020-05-07 金湘范 Video collection emotion generation method
KR102213872B1 (en) 2018-12-18 2021-02-09 대한민국 A Method Providing Data For Detecting A Paedophile
CN109902574A (en) * 2019-01-24 2019-06-18 北京元和新通科技有限公司 The high-risk personnel detection device and method of human body presentation variation measurement human body mood
KR102241192B1 (en) * 2019-04-25 2021-04-16 인제대학교 산학협력단 Analysis apparatus and method for malingering of visual test
CN111714140B (en) * 2020-06-05 2023-06-23 京东科技控股股份有限公司 Lie person response information acquisition method, device and system and storage medium
CN112150759A (en) * 2020-09-23 2020-12-29 北京安信智文科技有限公司 Real-time monitoring and early warning system and method based on video algorithm
CN112722110A (en) * 2020-12-25 2021-04-30 张月崧 Intelligent dart-keeping machine dog
CN112932485A (en) * 2021-01-03 2021-06-11 金纪高科智能科技(北京)有限公司 Non-contact type conversation confidence rate testing system and method
CN114973485A (en) * 2021-02-25 2022-08-30 深圳埃尔姆科技有限公司 Suspicious person access control identification method, device and system
CN117373089A (en) * 2023-10-23 2024-01-09 北京阳光易德心理学应用技术有限公司 Facial emotion recognition device based on computer vision

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5771261A (en) * 1995-09-13 1998-06-23 Anbar; Michael Telethermometric psychological evaluation by monitoring of changes in skin perfusion induced by the autonomic nervous system
KR20010080567A (en) * 1998-11-25 2001-08-22 추후보정 Apparatus and method for training using a human interaction simulator
US20030012253A1 (en) * 2001-04-19 2003-01-16 Ioannis Pavlidis System and method using thermal image analysis for polygraph testing
KR20040019395A (en) * 2001-08-07 2004-03-05 로렌스 파웰 Method for psychophysiological detection of deception through brain function analysis
KR20140041382A (en) * 2010-10-28 2014-04-04 옵쉐스트바 스 아그라니첸노이 아트베트스트벤노스찌유 "므노고프로필노예 프레드프리야찌예 "엘씨스" Method for obtaining information about the psychophysiological state of a living being

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009210992A (en) * 2008-03-06 2009-09-17 Sony Corp Photographing device
JP4663034B2 (en) * 2009-02-03 2011-03-30 株式会社アクション・リサーチ Vibration generating apparatus and method
CN201453284U (en) * 2009-06-17 2010-05-12 上海风点信息科技有限公司 Psychological therapy system
CN102406506A (en) * 2010-09-26 2012-04-11 吴明达 Method for detecting lie by using cerebral blood flow analysis
CN103040477A (en) * 2011-10-12 2013-04-17 沈金根 Method and system for lie-detection through mobile phone
CN102394919B (en) * 2011-10-20 2013-12-25 福州瑞芯微电子有限公司 Mood interaction network platform system based on physiological tests
WO2014168354A1 (en) * 2013-04-11 2014-10-16 Choi Jin Kwan Moving-image-based physiological signal detection method, and device using same
US10524713B2 (en) * 2013-06-19 2020-01-07 The Arizona Board Of Regents On Behalf Of The University Of Arizona Identifying deceptive answers to online questions through human-computer interaction data

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5771261A (en) * 1995-09-13 1998-06-23 Anbar; Michael Telethermometric psychological evaluation by monitoring of changes in skin perfusion induced by the autonomic nervous system
KR20010080567A (en) * 1998-11-25 2001-08-22 추후보정 Apparatus and method for training using a human interaction simulator
US20030012253A1 (en) * 2001-04-19 2003-01-16 Ioannis Pavlidis System and method using thermal image analysis for polygraph testing
KR20040019395A (en) * 2001-08-07 2004-03-05 로렌스 파웰 Method for psychophysiological detection of deception through brain function analysis
KR20140041382A (en) * 2010-10-28 2014-04-04 옵쉐스트바 스 아그라니첸노이 아트베트스트벤노스찌유 "므노고프로필노예 프레드프리야찌예 "엘씨스" Method for obtaining information about the psychophysiological state of a living being

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023161913A1 (en) * 2022-02-28 2023-08-31 Securiport Llc Deception detection
WO2023235777A3 (en) * 2022-06-01 2024-01-11 Rutgers, The State University Of New Jersey Techniques for measuring atypical neurodevelopment in neonates based on short video

Also Published As

Publication number Publication date
KR20150123159A (en) 2015-11-03
CN107809951A (en) 2018-03-16
CN107809951B (en) 2021-03-02
KR101739058B1 (en) 2017-05-25

Similar Documents

Publication Publication Date Title
WO2016163594A1 (en) Method and device for psycho-physiological detection (lie detection) with respect to distortion by using video-based physiological signal detection
CN108697386B (en) System and method for detecting physiological state
Shen Neuroscience, mental privacy, and the law
US20160029965A1 (en) Artifact as a feature in neuro diagnostics
WO2014072461A1 (en) Method and device for determining vital parameters
KR101500888B1 (en) Method for obtaining information about the psychophysiological state of a living being
Sengupta et al. A multimodal system for assessing alertness levels due to cognitive loading
WO2015152536A1 (en) Method and device for detecting sleepiness using moving image-based physiological signal
Goshvarpour et al. Affective visual stimuli: Characterization of the picture sequences impacts by means of nonlinear approaches
Ravaja et al. Virtual character facial expressions influence human brain and facial EMG activity in a decision-making game
CN111012307A (en) Method and device for evaluating training input degree of patient based on multi-mode information
Ćosić et al. Multimodal analysis of startle type responses
JP7098974B2 (en) Mood disorder measuring device and mood disorder measuring method
Wang et al. RCIT: An RSVP-based concealed information test framework using EEG signals
Minkin Vibraimage, Cybernetics and Emotions
KR101753834B1 (en) A Method for Emotional classification using vibraimage technology
Peya et al. ASD detection using Higuchi’s fractal dimension from EEG
Maily Feature extraction of motor imagery eeg data using time domain statistical parameters
Nancy et al. A brain EEG classification system for the mild cognitive impairment analysis
Saidatul et al. The assessment of developed mental stress elicitation protocol based on heart rate and EEG signals
Hong Classification of Emotional Stress and Physical Stress Using Electro-Optical Imaging Technology
Selskii et al. Adaptation of recurrence plot method to study a polysomnography: changes in EEG activity in obstructive sleep apnea syndrome
WO2014168354A1 (en) Moving-image-based physiological signal detection method, and device using same
KR102198294B1 (en) Method and System of Brain-Fatigue Evaluation by using Noncontact Vision System
Pamungkas Data Analytics on EEG Signal Features to Distinguish Familiar and Unfamiliar Information in Human Brain Memory

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15888579

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15888579

Country of ref document: EP

Kind code of ref document: A1