WO2015152536A1 - Method and device for detecting sleepiness using moving image-based physiological signal - Google Patents

Method and device for detecting sleepiness using moving image-based physiological signal Download PDF

Info

Publication number
WO2015152536A1
WO2015152536A1 PCT/KR2015/002558 KR2015002558W WO2015152536A1 WO 2015152536 A1 WO2015152536 A1 WO 2015152536A1 KR 2015002558 W KR2015002558 W KR 2015002558W WO 2015152536 A1 WO2015152536 A1 WO 2015152536A1
Authority
WO
WIPO (PCT)
Prior art keywords
driver
drowsiness
vibration
image
video
Prior art date
Application number
PCT/KR2015/002558
Other languages
French (fr)
Korean (ko)
Inventor
최진관
황성택
Original Assignee
주식회사 바이브라시스템
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 바이브라시스템 filed Critical 주식회사 바이브라시스템
Publication of WO2015152536A1 publication Critical patent/WO2015152536A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/369Electroencephalography [EEG]
    • A61B5/372Analysis of electroencephalograms
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/06Alarms for ensuring the safety of persons indicating a condition of sleep, e.g. anti-dozing alarms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • A61B5/1128Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/18Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/369Electroencephalography [EEG]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4806Sleep evaluation
    • A61B5/4809Sleep detection, i.e. determining whether a subject is asleep or not
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • A61B5/6893Cars
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2503/00Evaluating a particular growth phase or type of persons or animals
    • A61B2503/20Workers
    • A61B2503/22Motor vehicles operators, e.g. drivers, pilots, captains
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/162Testing reaction times
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K28/00Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions
    • B60K28/02Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver
    • B60K28/06Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver responsive to incapacity of driver

Definitions

  • the present invention relates to a method and apparatus for predicting or detecting a driver's drowsiness and taking safety measures according to the result to promote the safety of the driver and the occupant. Specifically, the present invention relates to obtaining a physiological signal using a video obtained from a living body. The present invention relates to a method of predicting or detecting a driver's drowsiness and an apparatus applying the same.
  • a technology of determining a sleepiness by detecting a driver's eye state through a camera, imaging a driver's face using a CCD camera, and determining a sleepiness by detecting a change in the eye area from the image signal thus captured Technology to take driver's face image using camera detect eye line from the face image and analyze minute movement of eye line to determine awakening state such as drowsiness and low attention, frequency of eye blink, pulse frequency of eyelid Technology to determine drowsiness based on physiological measurement parameters such as facial muscle loosening degree, eyes blink from driver's face image, eye opening degree, eyes closed time, etc. to determine drowsiness Technology to compare head orientation, exact position of eyes and nose from facial images captured by the camera
  • a technique etc. which determine a sleepiness degree by this.
  • the conventional EEG during driver's driving is memorized as reference EEG, after detecting EEG in real driving, this EEG is classified according to frequency, and the frequency of occurrence of each EEG classified in this way is calculated It is a technique of determining whether or not drowsiness by comparing with the reference EEG stored in advance.
  • One conventional patent document provides a method of installing a lamp for transmitting infrared rays toward a driver's face for night photographing, and imaging a driver's face image through a face-oriented camera to detect a drowsiness from the driver's face.
  • edge-processing the image from the acquired face image the driver's face left and right end positions and face upper and lower end positions are detected, and the amount of movement thereof is calculated to determine whether the driver is asleep.
  • the position of the driver's eyes or face or the movement state of the driver changes according to the driving state of the vehicle, so that the movement amount is compensated based on the driving state of the vehicle.
  • the present invention relates to a method and apparatus for predicting or detecting a driver's drowsiness and taking safety measures according to the result to promote the safety of the driver and the occupant. Specifically, the present invention relates to obtaining a physiological signal using a video obtained from a living body. The present invention relates to a method of predicting or detecting a driver's drowsiness and an apparatus applying the same.
  • Predicting or detecting a drowsiness of the driver from the physiological signal Predicting or detecting a drowsiness of the driver from the physiological signal.
  • the method may further include generating and visualizing a corresponding image of the physiological signal of the subject using the physiological signal.
  • An image acquisition unit photographing the driver to obtain a continuous image
  • a light detector for continuously imaging the driver's image, an A / D converter for converting the captured image into image data, and analyzing the converted continuous image data to measure a vibration parameter, and to measure the measured vibration parameter.
  • a driver drowsiness prediction or detection apparatus incorporating a camera, comprising: a processor configured to generate a biosignal image based on the display; and a display unit configured to display the generated biosignal image.
  • the present invention can be mounted on the vehicle to protect the driver and passengers from accidents caused by drowsiness.
  • FIG. 1 is a flowchart illustrating an example of a method of obtaining a biosignal to detect a drowsiness state of a driver.
  • FIG. 2A is a schematic block diagram functionally categorizing an apparatus implementing the method shown in FIG.
  • Figure 2b schematically illustrates the configuration and flow of a driver drowsiness method according to the present invention and a system applying the same.
  • FIG. 3A is a block diagram of an electronic device implementing the method illustrated in FIG. 1.
  • FIG. 3B is a block diagram showing correlations between components in the electronic device shown in FIG. 3.
  • FIG. 4 illustrates the concept of matching the EEG signal and vibration parameters in the driver drowsiness prediction method according to the present invention
  • FIG. 5 is a diagram illustrating a specific flow.
  • FIG. 6 is a flowchart of a method for obtaining a biosignal of a driver in the driver drowsiness prediction method according to the present invention.
  • FIG. 7A illustrates the emission of bioenergy (aura) around a subject (driver) human body image formed by the amplitude component of the vibration image.
  • FIG. 8A and 8B show the bio-image radiation according to the state of the subject, and FIG. 8A shows a stable state and FIG. 8B shows an unstable stress state.
  • Fig. 9A is a distribution graph of frequency components (biosignal images) of a human body vibration image in a stable state.
  • 9B is a distribution graph of the frequency components (biosignal images) of the human body vibration image under stress.
  • FIG. 10 is a flowchart illustrating an algorithm extraction method in an R & D stage in implementing the driver drowsiness prediction method according to the present invention.
  • 11 is a flowchart of a driver's drowsiness prediction method using the extracted algorithm.
  • FIG. 12 shows a change of a parameter related to sleepiness among vibration parameters in a driver drowsiness prediction system according to the present invention.
  • Figure 13 illustrates a user interface appearing on a display in a system that actually performs the drowsiness prediction method according to the present invention.
  • FIG. 14 illustrates a relationship between a camera photographing a driver and LED lighting.
  • Fig. 15 is a view for explaining an angle of view relationship with a driver when a camera is installed in a room mirror of a vehicle.
  • FIG. 16 illustrates an example of a photographing mechanism for minimizing the influence of the vibration of the camera during photographing.
  • Figure 17 shows the result of the prediction of the present invention and the comparison of the drowsy state wearing the wireless EEG headset.
  • the present invention obtains a real-time video from the driver as shown in FIG. 1 (11), processes (analyzes) the video to extract or generate vibration parameters (parameters), and uses the vibration parameters.
  • the physiological signal is extracted (13).
  • the driver's sleep state is evaluated (predicted or detected) 14 using the physiological signal.
  • Fig. 2A is a functional block diagram of the drowsy state detection device.
  • the drowsiness prediction or detection detecting device includes a camera 21 for photographing a driver, an image processor 22 for analyzing an image obtained from the camera 21, and an image processor 22.
  • the analysis unit 23 uses the signal to extract vibration parameters (parameters), generates a physiological signal, and processes and analyzes the physiological signal to evaluate an operator's drowsiness
  • the application unit 24 includes:
  • the controller may be connected to a safety guard 25 including a display for generating a character or an image for arousing a driver and displaying the same or an audio device for reproducing sound or music.
  • the image processing unit 22, the determination unit 23, and the application unit 24 may be implemented by an application program based on a central processing unit (CPU) or an application processor (AP). It can be implemented as a device or built-in to a system in an automobile.
  • the signal component corresponding to the EEG signal is extracted from the above parameters, thereby predicting or detecting the drowsiness of the driver.
  • the signal corresponding to the EEG signal is extracted from the video, which may have properties similar to the EEG signal.
  • the vibration parameter component appearing in synchronization with the EEG signal in the drowsy state is analyzed and extracted. Or the corresponding component signal of the EEG signal for determination.
  • the process of acquiring video from the driver, extracting vibration parameters, and extracting EEG-corresponding signals from the parameters will be described later in detail, and a system applying this method may be embedded in a vehicle, which is shown in FIG. 2B. It may have a structure as shown.
  • the analysis system the extraction of vibration parameters and the like, and the analysis of the drowsiness state using the same are performed, and according to the result, the sound for converting the driver to the awake state by transmitting to various systems operating in conjunction with the vehicle system, Drive a device such as vibration (C).
  • the vibration parameters are extracted from the black box by a terminal device such as a smartphone to analyze the driver's physiology, psychological state, for example, drowsiness, fatigue, emotional state, etc. Through the visual or auditory perception, the driver's physiological and emotional state can be controlled through various contents as well as prevention of drowsiness (E).
  • the camera can be mounted on the driver's front contrast board, or on the other hand in a room mirror.
  • the camera may have a structure for removing vibrations transmitted from the vehicle, which will be described later in detail.
  • the frequency components of the biosignal images obtained have the most information on the bioenergy, or psychophysiological characteristics, of the observed organisms.
  • Analysis of the obtained biosignal image may be performed by a person or mathematically by processing at least one of the obtained digital biosignal image and its components by a program. In order to prepare and analyze algorithms for mathematical processing, it is good to make a biosignal image which is convenient for visual analysis such as pseudo-color image of monitor screen.
  • the frequency component of the biosignal image to be obtained allows to continuously and clearly specify the levels of psychophysiological and emotional states of the human body and to distinguish the changes in the human state when various stimuli occur in humans. do.
  • an image showing the human body's bioenergy field represented by an aura located around the human body can be used to evaluate the psychophysiological state of the human body faster and more accurately than other methods.
  • aura refers to an integral characteristic of the psychophysiological state of the human body. These auras appear around the human body and have specific relationships with the bioenergy components of the human body. The image of the human aura provides a lot of information when studying the psychophysiological parameters of the human body, and the following factors are considered. Human emotional state can literally change every second. The average person can not stay in one emotional state for a long time.
  • the geometrical correlation of the elements of the biosignal image to the elements of the real image is less effective than the frequency components of the vibration image represented by the aura located around the real image.
  • the elements of the biosignal image are topologically related to the elements of the actual image, the elements with the maximum vibration frequency are not visible in the entire background when the image is subjected to color-frequency adjustment.
  • the biosignal image to be obtained must be visually controlled in advance.
  • the proposed image of the frequency component of the biosignal image, in the form of an aura is consistent with the physical concept of bioenergy radiation and enables visual control and analysis of the device-generated image.
  • amplitude components is more effective in topological relationships.
  • Acquiring information about the level of aggression of a creature consists of constructing a frequency distribution histogram and measuring the head vibration image parameters of the creature.
  • Aggregation of Aggression Levels consists of:
  • the biological head vibration image parameter is measured to obtain information about the stress level of the creature.
  • the stress level St is calculated by the following Equation 2.
  • Anxiety level (Tn) is measured by the following Eq.
  • the compatibility level (C) is counted as the following ⁇ Equation 4>.
  • vibration image parameters of the head of the organism are measured to obtain information about the integrated level of change in the psychophysiological state.
  • cybernetics and information theory examines the applicability of operational methods and techniques to organisms and living systems.
  • Modern concepts of cognitive biology are usually related to the concepts and definitions of signal information and transfer theory, and enable the psychophysiological information of mathematical parameters established in information theory.
  • the author's long study and observation of the study of human head micromovement with the help of statistical parameters used in information theory shows that there is a statistically reliable dependence between the state of human psychophysiology and the head micromovement information statistics parameter.
  • the present inventors can present their own interpretations of these phenomena and vestibular emotion reflections.
  • psychophysiological energy coordination metabolic energy coordination
  • All typical emotional states can be characterized by a correlation between specific energy consumption and individual physiologically necessary energy and emotional energy.
  • the physiological energy is formed to realize the physiological process, and the emotional energy is formed as a result of the conscious or unconscious process.
  • the attack state if it is the same attack condition, should be expressed differently in various people, and natural adjustment process such as age, gender and education level should be considered.
  • these differences should not have a fundamental meaning in the relative amounts and locations of energy release within the body.
  • the human head in a vertical, semi-balanced state can be seen as an overly sensitive mechanical indicator of all the energy processes in the body. From a biomechanical point of view, maintaining the vertical balance and equilibrium of the heads far above the center of gravity requires tremendous continuous effort and reduction of the neck-head bone muscles. Moreover, this movement is realized reflexively under vestibular system. All meaningful phenomena in the organs lead to changes in the ongoing physiological process. This is similar to other physiological process changes traditionally used for psychophysiological analysis, such as galvanic skin response (GSR), arterial pressure, and heart rate.
  • GSR galvanic skin response
  • the parameters of head movement vary with the amount of energy expression and the location of energy expression.
  • the spatial three-dimensional trajectory of head movements is very complicated because the shape of the head resembles a sphere.
  • the movement trajectory of each point can vary significantly in the movement of hundreds of neck muscles.
  • Statistical analysis of informative motion parameters enables reliable quantitative parameter differentiation of head movements. In other words, it is possible to measure and confirm the emotional state through the measurement of energy and vestibular response.
  • the laws of mechanics appear to be consistent, and behavior is always reactionary to maintain equality. Energy measurements in the body organs that naturally target a wide variety of people will result in consistent corresponding changes in head movement parameters through vestibular activity.
  • the overall emotional classification according to the informational / statistical parameters of the presented head movements confirms all emotional states.
  • Modern psychology mainly uses qualitative criteria in the evaluation of emotional state, which essentially makes it impossible to measure quantitatively, and the objective evaluation of human state is difficult.
  • the suggested method allows us to measure all emotional states.
  • head movement parameters are a general characteristic psychophysiological state of man.
  • the accuracy of agreement of the proposed formulas for counting emotional states according to existing assessment criteria is low compared to the emotional state assessment method through head micromovement.
  • the proposed method is characteristic in that an integrated approach is possible for all emotion measurements. All previous methods were also used to assess various emotional states. Adopting the proposed concept for measuring emotional state allows the inclusion of psychology in precision science and enables the same emotional measurement.
  • the movement speed of the head of the creature is measured as the average frequency of marker movement, determined in units of 10 seconds, which yields the maximum frequency of TV camera work.
  • the vibration image simultaneously represents the spatial and temporal distribution of the target motion energy
  • the number of factors having the same vibration frequency for a specific time is aggregated to obtain a frequency histogram. Histograms therefore exclude information about the spatial distribution of vibration frequencies. This apparent loss of spatial information actually increases the motion information, because in terms of physiological energy, it is not very important in which part of the head the movement is performed unlike the fine movement of the face.
  • the configuration of the frequency histogram is determined according to the following.
  • the next step is to statistically identify meaningful vibration image information parameters that determine vibration image acquisition and subsequent aggression levels. This determines, among other things, vibration symmetry parameters for amplitude and frequency vibration images.
  • the formula presented allows us to measure the stress level (St) from 0 to 1, and above all, the minimum stress level corresponds to the minimum measurement, In people with stress levels close to one.
  • the following is a statistical analysis of meaningful vibration image information parameters that determine vibration image acquisition and subsequent anxiety levels. This relates, among other things, to the fast activity signal frequency spectrum construction of amplitude and frequency vibration images.
  • the presented formula allows us to measure the level of anxiety from 0 to 1.
  • the minimum level of anxiety meets the minimum measure, and those with high levels of anxiety have stress levels close to one.
  • the fast signal frequency spread spectrum of the vibration image appears for the operator's or system operator's control.
  • Another example is to find statistically meaningful informative parameters of the vibration image that determine the vibration image acquisition and then the level of compatibility between the people. Best of all, this consists of a vibration image histogram configuration at each individual frequency.
  • the proposed formula measures the level of compatibility from 0 to 1.
  • the minimum measure corresponds to the minimum compatibility (compatibility), and the high level of compatibility measure on both sides appears close to one.
  • Pc-Vibration image parameter changes when determining false level
  • n-number of measurement parameters may vary from the number of visual parameters
  • the formula presented allows us to measure false levels from 0 to 1.
  • the minimum level of false matches the minimum measure, while the highest level of false has a value close to one.
  • the present invention is utilized solely for the measurement of emotional and psychophysiological states of humans presented above.
  • the present invention allows us to describe all human conditions through the head micromovement parameters and / or the head vibration image parameters.
  • psychology it is an unclear principle to translate the traditional concept of motion into reflex micromovement of the human head using reliable statistical parameters.
  • the head fine motion frequency distribution histogram is constructed as the basis for the informational entropy calculation.
  • the informational entropy (H) calculation is based on the following formula.
  • thermodynamic entropy (S) calculation follows the following formula.
  • thermodynamic entropy is a state of anxiety in humans. It was found that there is a big connection with.
  • human energy (E) was able to be based on the difference between the mean square error and the frequency peak, based on a frequency histogram representing the highest frequency of the vibration image recording.
  • the camera 21 installed in a dashboard or a room mirror in an automobile is used to digitize an imaging device such as a CCD or CMOS and an analog signal therefrom.
  • the image processor 22 includes an encoder for generating a video of a specific format.
  • the signal analyzer 23 measures the vibration parameter by the method as described above using the image, and generates or extracts psychophysiological information (signal or physiological signal) therefrom.
  • the vibration parameters include vibration frequency, amplitude, and phase according to the change of position of each part of the subject.
  • the psychophysiological information includes psychological / emotional / emotional states such as a stable state, an excited state, and a stress state, which predict or detect drowsiness of the driver.
  • the physiological signal application unit 24 may include a physiological signal processing algorithm for evaluating the mental and emotional state of the subject using the physiological signal and a display for displaying the result.
  • the physiological signal processing algorithm may classify the subject's states into nine emotional states according to, for example, James Russell's two-dimensional emotional model.
  • the display provided in the application unit 24 displays the final result in the form of a text or an image as described above.
  • the application unit 24 may include various safety measures systems for transitioning from the drowsy state of the driver to the awake state. This may include a horn-like sound, or a music or video device that can wake you up. In addition, it may include a vibration device that can be installed in the driver's seat or the like to physically stimulate the driver.
  • Such a device may be based on various types of systems, not only general OS for PC but also portable OS such as Windows mobile, Android, iOS, Symbian, BlackBerry, Bada.
  • FIG. 3 shows a driver drowsiness prediction or detection device 30 that forms part of a system implementing the device or system shown in FIGS. 2A and 2B.
  • the driver's drowsiness prediction or detection device 30 includes an A / D converter that digitizes an analog image signal of an image photographing unit having an imaging device, that is, the camera 31 and the camera 31. 32), a processor 34 for performing image analysis and parameter extraction and physiological signal generation, drowsiness prediction or detection1, and a display unit 35 for displaying the result.
  • the apparatus includes an input device for inputting information from the outside, for example, a key input unit 36 such as a keypad and the like, and a storage unit 33 including a memory used in the above-described image signal processing.
  • EEG equipment 40 measures brain waves 41, and measures and analyzes brain waves in a drowsy state through measured brain waves (42) to identify brain waves in a drowsy state (43).
  • the vibration parameters are extracted from the moving image 45 obtained through the imaging device 44 (46), and the vibration parameters synchronized with the brain waves in the drowsy state are matched (47).
  • the parameters correlated to the sleepiness obtained through the matching are applied to the sleepiness prediction and detection program (48).
  • the delta component of C4 / F4 the alpha component of F3, and theta component of F3 are related to drowsiness and match three vibration image parameters ( F3, P17, P8F) were extracted.
  • FIG. 6 is a flowchart illustrating a process of acquiring a biological signal through a camera based on a video according to the present invention.
  • an image of a driver is acquired by a camera 31 and converted into an analog electric signal (S10 and S20).
  • the electrical signal obtained from the driver's image is an analog signal and is therefore converted into digital image data by the A / D converter 32 (S30).
  • the processor 34 calculates a vibration parameter by analyzing the change over time of each image data (S40).
  • the vibration parameter includes at least one of a vibration frequency, an amplitude, and a phase according to a change in position of each part of the subject. That is, the processor 34 analyzes the position change of each part of the driver to calculate the vibration frequency of each part, the magnitude of the position change (the magnitude of the vibration), the phase, and the like. Subsequently, the processor 34 may analyze the difference between the images using a vibration image analysis program, measure a position change with respect to the center of gravity, or calculate (calculate) a vibration parameter (parameter) using a Fourier transform.
  • the vibration parameter calculation is described in more detail as follows.
  • the processor 34 grasps the movement or vibration of the contour according to the driver's movement from a plurality of consecutive images and separates the contour into two equal parts (left and right). Then, determine the point indicated by the maximum vibration frequency in two parts of the row divided in half. This frequency determines the color of the corresponding horizontal row of the biosignal image.
  • the average amplitude of the positional variation in each of the two sections of the row divided in half located in the separate contour section determines the size (length) of the biosignal image.
  • Vibration images obtained at each point have certain positive and static characteristics, but integrated biosignal images are associated with psychophysiological parameters of the human body. This is the case in which the portable device with the camera is fixed to a non-moving support and is not affected by vibration from the outside.
  • Such filtering may include some or all of the various noise components that act as noise as well as vibration of the auto.
  • the processor 34 generates a biosignal image based on the calculated vibration parameter (S50).
  • the biosignal image may include an amplitude component and a frequency component.
  • the amplitude component is referred to as “internal biosignal image” and the frequency component is referred to as “external biosignal image”.
  • the concept of this term definition will be understood in the description of FIG. 5 below.
  • the processor 34 obtains psychophysiological information of the subject 1 from the calculated vibration parameter (S60). That is, the processor 34 may know the psychological state of the object 20 by analyzing the vibration parameter, and in particular, may predict or detect the drowsiness of the driver by the algorithm as described above.
  • FIG. 7A illustrates the emission of an aura of bioenergetic energy around an image of a human body formed from the amplitude component of a vibrating image.
  • the internal biosignal image expresses the magnitude of the change in position of each part in color. Through this it is possible to visualize the magnitude of the position change of each part of the subject (1).
  • the external biosignal image appears around the internal biosignal image and modulates the average peak vibration frequency into color.
  • FIG. 7B illustrates that a biosignal image, which is bioenergy, is radiated around an actual image of the human body.
  • the internal biosignal image is not represented and only the biosignal image is displayed around the actual image.
  • FIG. 8A and 8B show biosignal images in a stable state and an unstable state, respectively.
  • FIG. 8A shows a biosignal image of a subject in a stable or finished state and FIG. 8B in a stress state.
  • the biosignal image is sufficiently symmetrical in shape and color, and the color of the biosignal image is about halfway between the selected color scale (overall color-green).
  • the bio signal image shows that the driver is in a stable state.
  • the aura contains a lot of red components in the biosignal image.
  • the driver in this state is in an unstable state.
  • the subject becomes stressed or aggressive and the color of the biosignal image changes to a reddish color.
  • FIG. 9A is a distribution graph of frequency components (biological signal images) of a human body vibration image in a stable state
  • FIG. 9B is a distribution graph of frequency components (biological signal images) of a human body vibration image in a stress state.
  • the graph shown in FIG. 9A shows a typical frequency distribution of a person in normal working condition.
  • the results show that the majority of people in a calm state generally have a distribution of distributions similar to a single-mode distribution rule.
  • the state of the subject changes as shown in FIG. 8B.
  • the mean (medium) value of the frequency distribution (M) shifts towards increasing.
  • the mean (middle) value of the frequency distribution value (M) is shifted toward decreasing.
  • the frequency axis (X) can be expressed not only in relative units, but also in real units or time (Hz or sec.). The distance between the display values is determined by the actual parameters of the camera's rapid processing and the software's settings (time to accumulate images and the number of images in the processing sequence).
  • FIG. 10 is an operation flowchart of a drowsiness prediction program according to the present invention, which is an experimental flowchart of a process of extracting a drowsiness prediction algorithm by matching EEG and vibration parameters in a Research & Development (R & D) step.
  • the experiment is started, and first, the EEG sensor is worn by the driver or the subject to be measured (S10a), and the camera for observing the subject's head or the upper body including the same is prepared (S10b). In this state, while inducing drowsiness to the driver, while recording a video (S10d) and at the same time measures the EEG (S10c). From the video, the vibration parameter is extracted by the method as described above, and the driver's drowsiness is measured (S10f). Then, by comparing and analyzing the EEG component and vibration parameters (S10f), and extracts the vibration parameters related to sleepiness (S10h). When the vibration parameter is extracted, an algorithm for predicting drowsiness is prepared or extracted using the extracted parameter (S10i). The drowsiness prediction algorithm created or extracted here is applied to the actual drowsiness prediction apparatus.
  • FIG. 11 illustrates a process of predicting a driver's drowsiness using the above-described drowsiness prediction algorithm and transmitting and stimulating a stimulus when the drowsiness is predicted.
  • the sleepiness prediction algorithm is driven in a state in which a system according to the present invention is mounted on a real vehicle (S11a) (S11b).
  • the driver's drowsiness is predicted in real time based on the vibration parameter extracted from the moving image obtained from the driver using this drowsiness prediction algorithm (S11c).
  • a mild attention state S11d
  • a warning state S11e
  • S11f a threshold value
  • the infinite loop Circulation is carried out, and if it is above a threshold, an appropriate stimulus is generated (S11g).
  • Appropriate stimulation is to allow the driver to escape from the drowsiness, and may include anything that can stimulate at least one of the five senses of the human being, such as vibration, sound, and aroma.
  • an arbitrary number 20 represents the level of the variable, where 20 is a threshold indicating the start of sleepiness.
  • 20 is a threshold indicating the start of sleepiness.
  • the driver initially maintained the awakening state of 20 or more, and after a certain time, the drowsiness parameter began to fall below 20, that is, the drowsiness precursor appeared, and about 14 seconds had elapsed. At the time of complete drowsiness.
  • Equation 14 mathematically expresses an algorithm for predicting sleepiness.
  • Drowsiness variable 1 is a value between 0 and 1, representing a numerical value according to the sum of the values of Ii (intensity for pixels). As the drowsiness increases, the number decreases
  • the sleepiness variable 1 (SDP1) threshold for predicting sleepiness uses 0.2.
  • the change rate constant K for drowsiness variable 2 is a change rate constant obtained by dividing the standard deviation of the drowsiness variable 2 by the mean value of the drowsiness variable 2 (Mean of SDP 2).
  • Figure 13 illustrates a user interface appearing on a display in a system that actually performs the drowsiness prediction method according to the present invention.
  • (a) is a menu screen for determining performance of the sleepiness prediction method
  • (b) is a sleepiness prediction initialization screen
  • (c) shows a photographing screen of the driver in a state where the sleepiness prediction method is performed. As shown in (c), masking is applied around the periphery so that only the driver part appears in the video. In this state, when the driver's drowsiness is predicted, a warning sound can be heard along with the screen as shown in (d).
  • FIG. 14 illustrates a relationship between a camera photographing a driver and LED lighting.
  • the LED light source irradiates light to the driver's face, and the camera receives the light reflected from the driver's face.
  • the vibration or movement of the driver may perform frequency filtering with a synchronization structure based on a difference between perspective and reflection of the LED light.
  • Fig. 15 is a view for explaining an angle of view relationship with a driver when a camera is installed in a room mirror of a vehicle.
  • the position of the camera is optimal for the room mirror, and therefore, it is preferable to mount the camera and the lighting device on the room mirror itself.
  • the camera installed in the room mirror needs to be positioned so that the driver's head-neck can be photographed.
  • the photographing angle of the camera is about 90 at the top, bottom, left and right, and the size of the image is preferably 30% or more of the image frame.
  • FIG. 16 illustrates an example of a photographing mechanism for minimizing the influence of the vibration of the camera during photographing.
  • the LED light source emits light to the driver's head-face portion in the form of a pulse, and the camera captures an image only at the pulse time in synchronization with the pulse.
  • the vibration of the driver's head is analogous and continuous, but the vibration of the body is monotonous. Since the vibration of the human head is less than 10 Hz, it is possible to apply multi-sided filtering with the pulse of the LED light source being about 1 micro second. On the other hand, the vibration still present in the image can be attenuated by applying a software filter.
  • the vibration of the camera can be extremely suppressed by applying an optical image stabilizer (OIS) structure that has a built-in gyro sensor.
  • OIS optical image stabilizer
  • Figure 17 shows the result of the prediction of the present invention and the comparison of the drowsy state wearing the wireless EEG headset. As shown, it can be seen that a collision (drowsiness occurrence) occurred after about 12 from the time point when the drowsiness prediction value was the highest (drowsiness precursor time point). According to the experiment, the eyelid closure time was predicted as a drowsiness precursor about 11.6 seconds before the occurrence of drowsiness according to the present invention, and the drowsiness precursor was confirmed 11-12 seconds before the drowsiness prediction result using the wireless brain wave on the US ABM.
  • a camera mounted in an interior of a vehicle may store information obtained by a program for photographing a driver and predicting and detecting a drowsiness state with an IVN (In-Vehicle Network) of the vehicle. It is possible to be connected.
  • IVN In-Vehicle Network
  • various arousal systems may be applied according to the predicted drowsiness state, and for example, sound, image, or vibration may be applied.
  • the software contained in the main body detects the driver's drowsiness and enters the vehicle driving information from the IVN through a program that executes an algorithm according to the present invention with the real-time image information of the driver obtained from the camera in the room mirror while driving the vehicle.
  • it can be interlocked to take measures to prevent safety accidents caused by drowsy driving by generating alarm sound, fastening seat belt and steering wheel vibration, which causes awakening state according to vehicle driving state.
  • the present invention is a technology that has not existed until now, since it has been proved to have a very high reliability since a drowsiness prediction detection program was developed through mapping of EEG and video of the driver in real time and mapping with psychophysiological response parameters. . It is a supplementary service that detects drowsiness status in real time by taking a video of the driver and detects the driver's mental function state and emotional state (driver's fatigue, stress, concentration and depression level) and provides the driver with information about it. Very scalable. The present invention provides convenience without limiting the driver because the driver can detect the drowsiness even when the driver wears sunglasses, glasses, a mask, a hat, or the like.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Psychiatry (AREA)
  • Psychology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Physiology (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Radiology & Medical Imaging (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Anesthesiology (AREA)
  • Child & Adolescent Psychology (AREA)
  • Developmental Disabilities (AREA)
  • Educational Technology (AREA)
  • Hospice & Palliative Care (AREA)
  • Social Psychology (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • General Physics & Mathematics (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

Disclosed are a method and a device for reliably and accurately measuring a psychophysiological parameter in a subject. The measurement method comprises the steps of: acquiring a moving image from a psychophysiological test subject via a moving image; measuring a vibration parameter of the test subject from the moving image; generating a biological signal image on the basis of the vibration parameter; and generating a psychophysiological reaction parameter of the test subject by processing the biological signal image.

Description

동영상 기반 생리 신호를 이용한 졸음 검출 방법 및 장치Drowsiness detection method and device using video-based physiological signal
본 발명은 운전자의 졸음을 예측 또는 검출하고 그 결과에 따라 안전 조치를 취하여 운전자 및 탑승자의 안전을 도모하는 방법 및 장치에 관한 것으로서, 상세하게는 생체로부터 획득한 동영상을 이용하여 생리 신호를 획득하여 이를 이용해 운전자의 졸음을 예측 또는 검출하는 방법 및 이를 적용하는 장치에 관한 것이다.The present invention relates to a method and apparatus for predicting or detecting a driver's drowsiness and taking safety measures according to the result to promote the safety of the driver and the occupant. Specifically, the present invention relates to obtaining a physiological signal using a video obtained from a living body. The present invention relates to a method of predicting or detecting a driver's drowsiness and an apparatus applying the same.
우리나라의 전체 교통사고에서, 중대법규(중앙선 침범, 신호 위반, 속도위반 사고 등) 위반에 의한 사고보다는 피로로 인한 졸음운전 등의 사고가 전체 교통사고의 25~30%를 차지하고, 순간적 의식 상실로 인한 치사율이 높다. EU는 상업용 차량 운전자들의 피로 및 졸음 관련사고 감소를 위해 운전자 피로에 대한 규제를 실행 예정이며, 이에 따라 유수의 자동차 제조사들이 경쟁적으로 유사한 기술을 개발하고 실차를 진행 중에 있다. 기존 기술은 선글라스, 안경, 마스크, 모자 등을 착용한 상태에서는 졸음상태 인식률이 낮기 때문에 신뢰도 확보에 문제가 있어 오랫동안 적용 성을 검토하고 있으나 여러 제약과 신뢰도 문제로 인해 아직 만족할 만한 수준의 제품이 상용화된 사례가 없다.In all traffic accidents in Korea, drowsiness driving due to fatigue accounts for 25 ~ 30% of all traffic accidents, rather than accidents caused by violation of major laws (center line violations, signal violations, speeding accidents, etc.). The mortality rate is high. The EU will implement restrictions on driver fatigue to reduce fatigue and drowsiness in commercial vehicle drivers, leading leading car manufacturers to develop competing similar technologies and carry on their vehicles. The existing technology has a low recognition rate of drowsiness when wearing sunglasses, glasses, masks, hats, etc., so it is problematic to secure reliability. There is no case.
종래기술로서, 카메라를 통해 운전자의 눈 상태를 검출하여 졸음 여부를 판정하는 기술, CCD 카메라를 이용하여 운전자의 안면을 촬상하고, 이렇게 촬상된 화상신호로부터 안구면적 변화를 검출하여 졸음 여부를 판정하는 기술, 카메라를 이용하여 운전자의 안면 화상을 찍고, 이 안면 화상으로부터 시선을 검출하여 시선의 미세한 움직임을 해석하여 졸음 및 주의력 저하 등의 각성 상태를 판정하는 기술, 눈의 깜박임 횟수, 눈꺼풀의 펄스 주파수, 안면 근육의 풀림 정도 등의 생리학적 측정변수에 근거하여 졸음 여부를 판정하는 기술, 운전자의 안면 이미지로부터 눈의 깜박임 횟수, 눈의 개도 정도, 눈을 감고 있는 시간 등을 검출하여 졸음 여부를 판정하는 기술, 카메라를 통해 촬상된 안면 이미지로부터 머리 방향, 눈과 코의 정확한 위치를 비교하는 것에 의해 졸음 정도를 판정하는 기술 등이 존재한다. As a conventional technique, a technology of determining a sleepiness by detecting a driver's eye state through a camera, imaging a driver's face using a CCD camera, and determining a sleepiness by detecting a change in the eye area from the image signal thus captured Technology to take driver's face image using camera, detect eye line from the face image and analyze minute movement of eye line to determine awakening state such as drowsiness and low attention, frequency of eye blink, pulse frequency of eyelid Technology to determine drowsiness based on physiological measurement parameters such as facial muscle loosening degree, eyes blink from driver's face image, eye opening degree, eyes closed time, etc. to determine drowsiness Technology to compare head orientation, exact position of eyes and nose from facial images captured by the camera There exists a technique etc. which determine a sleepiness degree by this.
뇌파를 이용하는 기술로서, 운전자의 운전시 통상적인 뇌파를 기준 뇌파로 기억시키고, 실제 운전시의 뇌파를 검출한 후 이 뇌파를 주파수에 따라 분류하고, 이렇게 분류된 각 뇌파의 단위 시간당 발생빈도를 계산하여 미리 기억된 기준 뇌파와 비교하는 것에 의해 졸음 여부를 판정하는 기술이다.As a technique of using EEG, the conventional EEG during driver's driving is memorized as reference EEG, after detecting EEG in real driving, this EEG is classified according to frequency, and the frequency of occurrence of each EEG classified in this way is calculated It is a technique of determining whether or not drowsiness by comparing with the reference EEG stored in advance.
종래의 한 특허 문헌에서는 야간 촬영을 위해 운전자의 얼굴을 향하여 적외선을 투광하는 램프를 설치하고, 얼굴방향 카메라를 통해 운전자의 얼굴 화상을 촬상하여 이로부터 졸음상태를 검출하는 방법을 제시한다. 획득된 얼굴 화상으로부터 그 화상을 에지 처리하는 것에 의해 운전자의 얼굴 좌우 양단 위치, 얼굴 상하 양단 위치를 검출하고, 그 이동량을 계산하여 운전자의 졸기 여부를 판정한다. 이때, 운전자의 눈이나 얼굴의 위치나 그 이동 상태는 차량의 주행상태에 따라 변화하기 때문에 상기 이동량을 차량의 주행상태에 근거하여 보상하도록 한다.One conventional patent document provides a method of installing a lamp for transmitting infrared rays toward a driver's face for night photographing, and imaging a driver's face image through a face-oriented camera to detect a drowsiness from the driver's face. By edge-processing the image from the acquired face image, the driver's face left and right end positions and face upper and lower end positions are detected, and the amount of movement thereof is calculated to determine whether the driver is asleep. At this time, the position of the driver's eyes or face or the movement state of the driver changes according to the driving state of the vehicle, so that the movement amount is compensated based on the driving state of the vehicle.
보다 정확하면서 보다 신속하게 운전자의 졸음을 조기에 예측 및 검출하는 방법은 바람직하며 따라서 이에 대한 보다 깊은 연구가 요구된다.More accurate and faster methods for predicting and detecting driver drowsiness early are desirable and therefore require further study.
본 발명은 운전자의 졸음을 예측 또는 검출하고 그 결과에 따라 안전 조치를 취하여 운전자 및 탑승자의 안전을 도모하는 방법 및 장치에 관한 것으로서, 상세하게는 생체로부터 획득한 동영상을 이용하여 생리 신호를 획득하여 이를 이용해 운전자의 졸음을 예측 또는 검출하는 방법 및 이를 적용하는 장치에 관한 것이다.The present invention relates to a method and apparatus for predicting or detecting a driver's drowsiness and taking safety measures according to the result to promote the safety of the driver and the occupant. Specifically, the present invention relates to obtaining a physiological signal using a video obtained from a living body. The present invention relates to a method of predicting or detecting a driver's drowsiness and an apparatus applying the same.
본 발명에 따른 생체 신호 획득 방법:은Biological signal acquisition method according to the present invention:
운전 중에 있는 운전자를 촬영하여 복수의 연속적인 영상 정보를 획득하는 단계;Photographing the driver while driving to obtain a plurality of continuous image information;
상기 영상 정보를 분석하여 상기 피험 대상의 진동 파라미터를 추출하는 단계; Analyzing the image information to extract the vibration parameter of the subject;
상기 진동 파라미터에 기초하여 정신생리학적인 매개변수를 생성하는 단계;Generating psychophysiological parameters based on the vibration parameters;
상기 매개 변수로부터 상기 피험자의 생리학적 신호를 추출하는 단계; 그리고Extracting the subject's physiological signal from the parameter; And
상기 생리학적 신호로부터 운전자의 졸음을 예측 또는 검출하는 단계;를 포함한다.Predicting or detecting a drowsiness of the driver from the physiological signal.
상기 본 발명의 한 실시 예에 따르면, 상기 생리학적 신호를 이용하여 상기 피험자의 생리적 신호를 상응하는 이미지를 생성하여 가시화하는 단계;를 더 포함할 수 있다.According to an embodiment of the present disclosure, the method may further include generating and visualizing a corresponding image of the physiological signal of the subject using the physiological signal.
본 발명에 따른 생리 신호 검출 장치:는Physiological signal detection device according to the present invention:
운전자를 촬영하여 연속된 영상을 획득하는 영상 획득부;An image acquisition unit photographing the driver to obtain a continuous image;
상기 운전자의 영상을 연속적으로 촬상하는 광검출부, 상기 촬상된 영상을 영상 데이터로 변환하는 A/D 변환부, 상기 변환된 연속적인 영상 데이터를 분석하여 진동 파라미터를 측정하고, 상기 측정된 진동 파라미터에 기초하여 생체신호 이미지를 생성하는 프로세서 및 상기 생성된 생체신호이미지를 표시하는 표시부를 포함하는 것을 특징으로 하는 카메라가 내장된 운전자 졸음 예측 또는 검출 장치가 제공된다.A light detector for continuously imaging the driver's image, an A / D converter for converting the captured image into image data, and analyzing the converted continuous image data to measure a vibration parameter, and to measure the measured vibration parameter. There is provided a driver drowsiness prediction or detection apparatus incorporating a camera, comprising: a processor configured to generate a biosignal image based on the display; and a display unit configured to display the generated biosignal image.
상기와 같은 본 발명에 따르면, 대상의 정신생리학적 매개변수를 신뢰할 수 있고 정확하게 측정할 수 있는 카메라를 이용하여 자동차를 운전하고 있는 운전자의 졸음 상태를 예측하거나 검출 할 수 있다.According to the present invention as described above, it is possible to predict or detect a drowsiness state of a driver driving a vehicle by using a camera that can reliably and accurately measure the psychophysiological parameters of the subject.
이러한 본 발명은 자동차에 탑재함으로써 운전자 및 탑승자를 졸음으로 인한 사고로부터 보호할 수 있다.The present invention can be mounted on the vehicle to protect the driver and passengers from accidents caused by drowsiness.
도1은 본 발명은 운전자의 졸음 상태를 검출하기 위하여, 생체 신호 획득 방법의 일 례를 보이는 흐름도이다.1 is a flowchart illustrating an example of a method of obtaining a biosignal to detect a drowsiness state of a driver.
도2a는 도1에 도시된 방법을 구현하는 장치를 기능적으로 분류한 개략적 블록 다이어그램이다.FIG. 2A is a schematic block diagram functionally categorizing an apparatus implementing the method shown in FIG.
도2b는 본 발명에 따른 운전자 졸음 방법 및 이를 적용하는 시스템의 구성 및 흐름을 개략적으로 도시한다.Figure 2b schematically illustrates the configuration and flow of a driver drowsiness method according to the present invention and a system applying the same.
도3a는 도1에 도시된 방법을 구현하는 전자 장치의 구성도이다.3A is a block diagram of an electronic device implementing the method illustrated in FIG. 1.
도3b는 도3에 도시된 전자 장치에서 구성 요소간의 상관 관계를 보이는 블록다이어그램이다.FIG. 3B is a block diagram showing correlations between components in the electronic device shown in FIG. 3.
도4는 본 발명에 따른 운전자 졸음 예측 방법에서 EEG 신호와 진동 매개변수의 매칭을 개념을 설명하며, 도5는 구체적인 흐름을 설명하는 도면이다.4 illustrates the concept of matching the EEG signal and vibration parameters in the driver drowsiness prediction method according to the present invention, and FIG. 5 is a diagram illustrating a specific flow.
도6은 본 발명에 따른 운전자 졸음 예측 방법에세 운전자의 생체 신호 획득 방법의 흐름도이다.6 is a flowchart of a method for obtaining a biosignal of a driver in the driver drowsiness prediction method according to the present invention.
도7a는 진동 이미지의 진폭 성분으로 형성되는 피험자(운전자) 인체 이미지 주위로 생체에너지(아우라)가 방사되는 것을 도시한다.FIG. 7A illustrates the emission of bioenergy (aura) around a subject (driver) human body image formed by the amplitude component of the vibration image.
도7b는 인체의 실제 영상 주위로 방사되는 생체 에너지를 도시한다.7B shows bioenergetics radiated around the actual image of the human body.
도8a, 8b는 피험자의 상태에 따른 생체 이미지 방사를 도시하는 것으로, 도8a는 안정적인 상태, 도8b는 불안정한 스트레스 상태일 경우를 나타낸다.8A and 8B show the bio-image radiation according to the state of the subject, and FIG. 8A shows a stable state and FIG. 8B shows an unstable stress state.
도9a는 안정 상태에 있는 인체 진동이미지의 주파수 구성 요소(생체신호 이미지)에 대한 분포 그래프이다.Fig. 9A is a distribution graph of frequency components (biosignal images) of a human body vibration image in a stable state.
도9b는 스트레스 상태에 있는 인체 진동이미지의 주파수 구성요소 (생체신호 이미지)에 대한 분포 그래프이다.9B is a distribution graph of the frequency components (biosignal images) of the human body vibration image under stress.
도10은 본 발명에 따른 운전자 졸음 예측 방법을 구현함에 있어서, R&D 단계에서의 알고리즘 추출 방법을 설명하는 흐름도이다.10 is a flowchart illustrating an algorithm extraction method in an R & D stage in implementing the driver drowsiness prediction method according to the present invention.
도11은 추출된 알고리즘을 이용한 운전자의 졸음 예측 방법의 흐름도이다.11 is a flowchart of a driver's drowsiness prediction method using the extracted algorithm.
도12는 본 발명에 다른 운전자 졸음 예측 시스템에서, 진동 매개 변수 중 졸음에 관련된 변수의 변화를 도시한다.FIG. 12 shows a change of a parameter related to sleepiness among vibration parameters in a driver drowsiness prediction system according to the present invention.
도13은 실제 본 발명에 따른 졸음 예측 방법을 수행하는 시스템에서의 디스플레이에 나타나는 유저 인터페이스를 예시한다.Figure 13 illustrates a user interface appearing on a display in a system that actually performs the drowsiness prediction method according to the present invention.
도14는 운전자를 촬영하는 카메라와 LED 조명의 관계를 예시한다.14 illustrates a relationship between a camera photographing a driver and LED lighting.
도15는 자동차의 룸 미러에 카메라가 설치되었을 때 운전자에 대한 화각 관계를 설명하는 도면이다.Fig. 15 is a view for explaining an angle of view relationship with a driver when a camera is installed in a room mirror of a vehicle.
도16은 촬영시 카메라의 진동의 영향을 최소화하기 위한 촬영 메커니즘의 일례를 설명한다.16 illustrates an example of a photographing mechanism for minimizing the influence of the vibration of the camera during photographing.
도17은 본 발명의 예측 결과와 무선뇌파 헤드셋 착용한 졸음 상태 비교 결과를 도시한다.Figure 17 shows the result of the prediction of the present invention and the comparison of the drowsy state wearing the wireless EEG headset.
이하, 첨부된 도면을 참고하면서 본 발명에 따른 운전자의 졸음 예측 또는 검출 하는 방법 및 이를 적용하는 장치에 대해 살펴본다.Hereinafter, a method of predicting or detecting a drowsiness of a driver according to the present invention and an apparatus applying the same will be described with reference to the accompanying drawings.
먼저 본 발명의 개념을, 도1을 참조하면서 아래에서 살펴본다.First, the concept of the present invention will be described below with reference to FIG.
본 발명은 도1에 도시된 바와 같이 운전자로부터의 실시간 동영상의 획득하고(11), 동영상의 처리(분석)하여 진동 매개변수(파라미터)의 추출 또는 생성하고(12), 진동 매개변수를 이용하여 생리신호를 추출한다(13). 상기 생리신호를 이용하여 운전자의 졸음 상태를 평가(예측 또는 검출)(14)한다. 본 발명에서는 졸음 상태의 검출 결과에 따라 음향 또는 디스플레이 등에 의해 운전자에게 상황통보 및 졸음으로부터 벗어나도록 각성 시키는 안전조치를 취할 수 있도록 한다.The present invention obtains a real-time video from the driver as shown in FIG. 1 (11), processes (analyzes) the video to extract or generate vibration parameters (parameters), and uses the vibration parameters. The physiological signal is extracted (13). The driver's sleep state is evaluated (predicted or detected) 14 using the physiological signal. In the present invention, it is possible to take safety measures to awaken the driver from the situation notification and drowsiness by sound or display according to the detection result of the drowsiness state.
이러한 방법은 도 2a에 도시된 바와 같은 구조의 장치에 의해 구현될 수 있다. 도2a는 졸음 상태 검출 장치를 기능적으로 블록화한 도면이다. 도2를 참조하면, 본 발명에 따른 졸음 예측 또는 검출 검출 장치는, 운전자를 촬영하는 카메라(21), 카메라(21)로부터 얻어진 영상을 분석하는 영상 처리부(22), 영상 처리부(22)로부터의 신호를 이용하여 진동 파라미터(매개 변수)를 추출하고, 이것을 이용해 생리 신호를 생성하고 생리신호를 처리 분석하여 운전자의 졸음 상태를 평가하는 분석(23)를 포함하며, 여기에서 응용부(24)는, 예를 들어, 운전자를 각성시키기 위한 문자 또는 영상을 생성하고 이를 표시하는 디스플레이 또는 음향 또는 음악을 재생하는 음향 장치등이 포함되는 안전 장치(Safe Guard, 25)에 연결될 수 있다. 상기와 같은 영상 처리부(22), 판단부(23)는 및 응용부(24)등은 CPU(Central Processing Unit) 또는 어플리케이션 프로세서(AP)를 기반으로 하는 응용 프로그램 등에 의해 구현될 수 있으며, 이들은 별도의 장치로서 구현되거나 아니면 자동차 내의 시스템에 내장(Built-in)될 수 있다. This method may be implemented by a device having a structure as shown in FIG. 2A. Fig. 2A is a functional block diagram of the drowsy state detection device. Referring to FIG. 2, the drowsiness prediction or detection detecting device according to the present invention includes a camera 21 for photographing a driver, an image processor 22 for analyzing an image obtained from the camera 21, and an image processor 22. The analysis unit 23 uses the signal to extract vibration parameters (parameters), generates a physiological signal, and processes and analyzes the physiological signal to evaluate an operator's drowsiness, wherein the application unit 24 includes: For example, the controller may be connected to a safety guard 25 including a display for generating a character or an image for arousing a driver and displaying the same or an audio device for reproducing sound or music. The image processing unit 22, the determination unit 23, and the application unit 24 may be implemented by an application program based on a central processing unit (CPU) or an application processor (AP). It can be implemented as a device or built-in to a system in an automobile.
본 발명에서는 상기 매개변수로부터 뇌파 신호에 상응하는 신호 성분을 추출하며, 이를 통해서 운전자의 졸음을 예측하거나 검출한다. 뇌파 신호에 상응하는 신호는 동영상으로부터 추출되며, 이 신호는 EEG 신호에 유사한 성질을 가질 수 있다. 보다 정밀한 졸음 예측을 위하여, 실제 운전자로부터 전극을 이용하여 획득하는 EEG 신호와 동영상에서 추출되는 신호 성분을 매칭하여 졸음 상태에서의 EEG 신호에 동기하여 나타나는 진동 매개변수 성분을 분석, 추출하여 이를 졸음 예측 또는 판정을 위한 EEG 신호의 상응 성분 신호 이용한다. 이와 같이 운전자로부터의 동영상을 획득, 진동 매개변수를 추출, 매개변수로부터 뇌파 상응 신호 추출 과정은 후에 상세히 설명되며, 이러한 방법을 적용하는 시스템은 자동차에 내장될 수 있으며, 이러한 시스템은 도2b에 도시된 바와 같은 구조를 가질 수 있다.In the present invention, the signal component corresponding to the EEG signal is extracted from the above parameters, thereby predicting or detecting the drowsiness of the driver. The signal corresponding to the EEG signal is extracted from the video, which may have properties similar to the EEG signal. For more accurate drowsiness prediction, by matching the EEG signal acquired from the real driver with the signal component extracted from the video, the vibration parameter component appearing in synchronization with the EEG signal in the drowsy state is analyzed and extracted. Or the corresponding component signal of the EEG signal for determination. The process of acquiring video from the driver, extracting vibration parameters, and extracting EEG-corresponding signals from the parameters will be described later in detail, and a system applying this method may be embedded in a vehicle, which is shown in FIG. 2B. It may have a structure as shown.
도2b에 도시된 바와 같이, 운전 중에 있는 운전자로부터 카메라를 이용해 영상 신호(정보)를 생성(A)하고 이를 영상 정보를 포함하는 운전 기록을 저장하는 블랙박스와 이를 분석하는 자동차에 내장된 빌트인 분석 시스템으로 전송한다(B). 분석 시스템에서는 전술한 바와 같은 진동 매개 변수 등의 추출 및 이를 이용한 졸음 상태의 분석이 이루어 지고 그 결과에 따라 자동차 시스템에 연계하여 작동하는 각종의 시스템으로 전송하여 운전자를 각성 상태로 전환하기 위한 음향, 진동 등의 장치를 구동한다(C). 이와는 별도로 블랙박스로부터 동영상을 스마트폰 등과 같은 단말 장치에 의해 진동 매개변수를 추출하여 운전자의 생리, 심리적 상태, 예를 들어 졸음, 피로도, 감정상태 등을 분석(D)하고 이를 운전자에게 단말기 등을 통해 시각 또는 청각적으로 인지시켜 졸음 방지뿐 아니라 다양한 컨텐츠를 통한 운전자의 생리적 상태와 감성적 상태를 조절할 수 있다(E).As shown in FIG. 2B, a black box for generating (A) an image signal (information) using a camera from a driver who is driving and storing the driving record including the image information and a built-in analysis built in a vehicle analyzing the same Send to system (B). In the analysis system, the extraction of vibration parameters and the like, and the analysis of the drowsiness state using the same are performed, and according to the result, the sound for converting the driver to the awake state by transmitting to various systems operating in conjunction with the vehicle system, Drive a device such as vibration (C). Separately, the vibration parameters are extracted from the black box by a terminal device such as a smartphone to analyze the driver's physiology, psychological state, for example, drowsiness, fatigue, emotional state, etc. Through the visual or auditory perception, the driver's physiological and emotional state can be controlled through various contents as well as prevention of drowsiness (E).
위와 같은 시스템에서 카메라는 운전자의 정면 대비 보드에 설치할 수 도 있고, 한편으로는 룸미러에 설치할 수도 있다. 카메라는 자동차로부터 전달되어 오는 진동을 제거하는 구조를 가질 수 있으며 이에 대해서는 후에 상세히 설명한다.In such a system, the camera can be mounted on the driver's front contrast board, or on the other hand in a room mirror. The camera may have a structure for removing vibrations transmitted from the vehicle, which will be described later in detail.
이하, 본 발명에 따른 운전자 졸음 예측 또는 검출 방법 및 장치의 설명에 앞서서 본 발명에서 이용하는 진동 매개변수에 관련하여, 생체 각 부위의 진동과 정신생리학적 매개변수와의 관계에 대해 설명 한다.Prior to the description of the method and apparatus for predicting or detecting a driver's drowsiness according to the present invention, the relationship between the vibration of each part of the living body and the psychophysiological parameters will be described.
소립자 물리학에서는 물질의 파동 특성과 미립자 특성 사이의 명확한 경계가 존재하지 않으며 광자 에너지(ε)는 플랑크 상수를 통해 광자 에너지의 주파수(ν)와 연결되어 있다고 알려져 있다(ε = hν). 생물체의 각 부위에서 발산되는 에너지는 공간 내부에서의 해당 부위의 진동 주파수와 비례한다는 가설이 나온다. 결과적으로 말해, 생물체에서 나오는 에너지를 기록하기 위해서는 생물체의 여러 부위에서 발생하는 진동을(공간 내에서 혹은 각 부위 사이의) 기록해야 한다. 이 과정은 충분한 해상력과 빠른 처리 능력을 보유하고 있는 비접촉식 텔레비전 시스템을 이용하면 가능하다. 게다가 구한 생체신호이미지의 주파수 구성요소는(즉, 각각의 부위에서 일어나는 진동(위치 변화, 파동) 주파수)는 피관찰 생물의 생체에너지 즉 정신생리학적 특성에 있어서 가장 많은 정보를 지니고 있다. 구한 생체신호이미지의 분석은 사람이 할 수도 있고 구한 디지털 생체신호이미지와 그 구성 요소들 중 적어도 어느 하나를 프로그램으로 처리하여 수학적으로도 할 수도 있다. 수학적 처리를 위한 알고리즘의 작성과 분석을 위해서는 모니터 스크린의 유사컬러 영상과 같은 시각적 분석에 편리한 생체신호이미지를 만드는 것이 좋다.In small particle physics, there is no clear boundary between the wave and particulate properties of matter, and the photon energy (ε) is known to be linked to the frequency of photon energy (ν) through Planck's constant (ε = hν). It is hypothesized that the energy emitted from each part of the organism is proportional to the vibration frequency of that part in the space. As a result, in order to record the energy coming from a living thing, it is necessary to record the vibrations (in or between spaces) that occur at various parts of the living thing. This can be done by using a contactless television system with sufficient resolution and fast processing power. In addition, the frequency components of the biosignal images obtained (ie, the vibration (position shift, wave) frequency at each site) have the most information on the bioenergy, or psychophysiological characteristics, of the observed organisms. Analysis of the obtained biosignal image may be performed by a person or mathematically by processing at least one of the obtained digital biosignal image and its components by a program. In order to prepare and analyze algorithms for mathematical processing, it is good to make a biosignal image which is convenient for visual analysis such as pseudo-color image of monitor screen.
즉, 구해야 하는 생체신호이미지의 주파수 구성요소는 인체의 정신생리학적 상태와 감정 상태의 수준을 지속적이며 일목요연하게 특정 지을 수 있도록 하며 인간에게 다양한 자극이 미칠 때 나타나는 인체 상태의 변화를 구분 지을 수 있게 한다. 밝혀진 바에 의하면, 인체 주변에 위치한 아우라(Aura)로 나타나는 인체의 생체에너지 장(場)을 보여주는 영상을 이용하여 다른 방법에 비해 보다 빠르고 정확하게 인체의 정신생리학적 상태에 대한 평가를 내릴 수 있다.In other words, the frequency component of the biosignal image to be obtained allows to continuously and clearly specify the levels of psychophysiological and emotional states of the human body and to distinguish the changes in the human state when various stimuli occur in humans. do. As it turns out, an image showing the human body's bioenergy field represented by an aura located around the human body can be used to evaluate the psychophysiological state of the human body faster and more accurately than other methods.
아우라(Aura)라는 용어는 인체의 정신생리학적 상태에 대한 통합적인 특성을 나타낸다. 이러한 아우라는 인체 주변에 나타나며, 인체의 생체에너지 구성 요소들과 특정한 관계를 지니고 있다. 인체 아우라의 영상은 인체의 정신생리학적 매개변수를 연구할 때 많은 정보를 제공해 주며 이 연구에서는 다음 요소들이 고려 대상이 된다. 인간의 감성적 상태는 말 그대로 매초 변할 수 있다. 일반적인 사람은 오랜 시간 동안 한 가지 감정 상태로 머무를 수 없다.The term aura refers to an integral characteristic of the psychophysiological state of the human body. These auras appear around the human body and have specific relationships with the bioenergy components of the human body. The image of the human aura provides a lot of information when studying the psychophysiological parameters of the human body, and the following factors are considered. Human emotional state can literally change every second. The average person can not stay in one emotional state for a long time.
모든 생각과 동작 또는 어떤 상황에 대한 반응은 감정 상태의 순간적인 변화(각각의 생체신호 이미지)로 이어진다. 따라서 구한 생체신호이미지에 대한 정보의 수(무엇보다 카메라의 해상력)와 시스템의 신속한 처리 사이의 최적의 상관 관계를 찾아내는 것이 중요하다. Every thought and action or reaction to a situation leads to a momentary change in the emotional state (images of each biosignal). Therefore, it is important to find the optimal correlation between the number of information on the obtained biosignal image (above all, the resolution of the camera) and the rapid processing of the system.
아우라 크기의 진폭 조절(amplitude modulating)을 추가한, 대상의 최대 진동 주파수를 인체 특정 구역에서 일어나는 위치 변화의 주파수 또는 진폭의 평균 수치로 컬러 조절(modulating)을 함으로써 인체의 정신생리학적 상태에서 일어나는 어떠한 변화라도 일목요연하고 순간적으로 기록할 수 있다. 뇌의 차원 변동(fractal fluctuation)이 학습, 기억 및 다양한 과제 해결 과정 에서 핵심적인 역할을 수행하는 것으로 알려져 있다. 실험으로 밝혀낸 바에 의하면, 인체에서 진동이 가장 집중적으로 발생하는 부분은 뇌이며 대부분의 경우 아우라(진동이미지의 빈도 구성 요소)가 사람의 머리 주변에만 존재할 수 도 있으며, 이는 몸 주변의 아우라보다 훨씬 크다. 인체에서 일어나는 변화는 아우라가 허물어 지거나 색과 형태가 비대칭으로 나타나는 것으로 표현된다. 이는 구한 생체신호이미지를 보면 확실하게 드러난다.Adds an amplitude modulating of the aura size, and modulates the subject's maximum vibrational frequency by color modulating the frequency of the positional change or average value of the amplitude in a specific region of the human body, Changes can be recorded at a glance and instantaneously. Frequent fluctuations in the brain are known to play a key role in learning, memory, and solving a variety of tasks. Experiments have shown that the most intensive part of vibration in the human body is the brain, and in most cases auras (frequency components of vibration images) may be present only around the human head, much larger than the auras around the body. . Changes that occur in the human body are represented by the collapse of the aura or the appearance of asymmetry in color and form. This is clearly seen in the obtained biosignal image.
생체신호 이미지의 요소들이 실제 영상의 요소들과 위상 기하학적 (topology)으로 연관되는 점에는 일장일단이 있다. 실험 결과에 따르면, 가장 많은 정보를 담고 있는 인간의 감정 상태는 최대 진동 주파수로 전달되며 주파수의 평균 수준이나 인접한 포인트 들의 배경 수준은 뭉개지거나 생체신호 이미지를 시각적으로 받아들일 때 일어나는 진정한 변화를 은폐할 수도 있다. There is one point in that the elements of the biosignal image are associated with the elements of the actual image in topology. Experimental results show that the emotional state of the human body that contains the most information is transmitted at the maximum oscillation frequency, and the average level of the frequency or the background level of adjacent points can be shrouded or cover up the true changes that occur when visually accepting the biosignal image. It may be.
따라서 생체신호 이미지의 요소가 실제 영상의 요소에 위상 기하학적으로 연관되는 것은 실제 영상 주변에 위치한 아우라로 표현되는 진동 이미지의 주파수 구성 요소보다 효과적이지 않은 것으로 나타났다. 생체신호 이미지의 요소가 실제 영상의 요소에 위상기하학적으로 연관되어 있을 때, 최대 진동 주파수를 가지는 요소들은 영상을 색-빈도 조절을 실시할 경우 전체적인 배경에서 보이지 않게 된다. 생체신호이미지를 다양한 형태로 수학적으로 분석하기 위해서는 구하는 생체신호이미지를 사전에 시각적으로 제어해야 한다. 제안되는 아우라 형태의, 생체신호이미지의 주파수 구성요소의 영상은 생체에너지 방사에 대한 물리적 개념에 일치하며 장치가 만들어낸 영상을 시각적으로 제어하고 분석할 수 있게 한다.Therefore, it is shown that the geometrical correlation of the elements of the biosignal image to the elements of the real image is less effective than the frequency components of the vibration image represented by the aura located around the real image. When the elements of the biosignal image are topologically related to the elements of the actual image, the elements with the maximum vibration frequency are not visible in the entire background when the image is subjected to color-frequency adjustment. In order to mathematically analyze the biosignal image in various forms, the biosignal image to be obtained must be visually controlled in advance. The proposed image of the frequency component of the biosignal image, in the form of an aura, is consistent with the physical concept of bioenergy radiation and enables visual control and analysis of the device-generated image.
주파수 구성요소와 달리 진폭 구성요소를 이용하면 위상기하학적 관계에서 더 효과적이다. 무엇보다도 진동 포인트에 대해 위상기하학적으로 연결되어 있는, 생체신호이미지의 진폭 구성요소를 이용하여 얻은 생체신호이미지의 질을 평가할 수 있으며 시스템을 조정하기 위한 정확한 파라미터(변수)를 정할 수 있다.Unlike frequency components, the use of amplitude components is more effective in topological relationships. First of all, it is possible to evaluate the quality of the biosignal image obtained by using the amplitude component of the biosignal image, which is topologically connected to the vibration point, and to determine the exact parameters (variables) for adjusting the system.
먼저 진동 이미지 매개 변수의 측정에 관하여 구체적으로 살펴본다.First, the measurement of the vibration image parameter will be described in detail.
생물체의 공격성 수준에 관한 정보획득은 주파수분포 히스토그램을 구성, 이에 따른 생물체의 머리 진동 이미지 매개변수를 측정하는 것이다.Acquiring information about the level of aggression of a creature consists of constructing a frequency distribution histogram and measuring the head vibration image parameters of the creature.
공격성 수준(Ag) 집계는 다음의 <수 1>으로 이루어진다.Aggregation of Aggression Levels (Ag) consists of:
Figure GN48839PCT-M000001
Figure GN48839PCT-M000001
Fm- 히스토그램에서 주파수 분포 밀도의 최대 주파수 Maximum frequency of frequency distribution density in Fm- histogram
Fi- 히스토그램에서 N 프레임 시간 동안 획득한 주파수 분포 밀도의 "I" 주파수 집계량"I" frequency aggregation of frequency distribution density obtained over N frame time in Fi- histogram
Fin- 진동 이미지 처리 주파수Fin-vibration image processing frequency
n-N 프레임에서 한계치를 넘는 프레임간 차를 포함한 집계량Aggregate including interframe differences beyond the threshold in n-N frames
그리고 생물체의 스트레스 수준에 관한 정보 획득을 위해 생물체 머리 진동 이미지 매개변수를 측정한다. 스트레스 수준(St)은 다음의 <수 2>에 의해 집계된다.The biological head vibration image parameter is measured to obtain information about the stress level of the creature. The stress level St is calculated by the following Equation 2.
Figure GN48839PCT-M000002
Figure GN48839PCT-M000002
Figure GN48839PCT-I000001
- 대상의 왼쪽 부위 "I" 열 진동 이미지 총 진폭
Figure GN48839PCT-I000001
-Total amplitude of thermal vibration image "I" in the left part of the subject
Figure GN48839PCT-I000002
- 대상의 오른쪽 부위 "I" 열 진동 이미지 총 진폭
Figure GN48839PCT-I000002
-Total amplitude of thermal vibration image "I" in the right part of the subject
Figure GN48839PCT-I000003
-
Figure GN48839PCT-I000004
으로 부터
Figure GN48839PCT-I000005
간의 최대값
Figure GN48839PCT-I000003
-
Figure GN48839PCT-I000004
From
Figure GN48839PCT-I000005
Maximum value of liver
Figure GN48839PCT-I000006
- 대상의 왼쪽 부위 "I" 열 진동 이미지 최대주파수
Figure GN48839PCT-I000006
-"I" thermal vibration image maximum frequency in the left part of the object
Figure GN48839PCT-I000007
- 대상의 오른쪽 부위 "I" 열 진동 이미지 최대주파수
Figure GN48839PCT-I000007
Maximum frequency of "I" thermal vibration image on the right side of the subject
Figure GN48839PCT-I000008
-
Figure GN48839PCT-I000009
으로 부터
Figure GN48839PCT-I000010
간의 최대값
Figure GN48839PCT-I000008
-
Figure GN48839PCT-I000009
From
Figure GN48839PCT-I000010
Maximum value of liver
n - 대상관련 열 수n-the number of columns
생물체의 불안감 수준에 관한 정보획득을 위해 생물체 머리 진동 이미지 매개변수를 측정한다. 불안감 수준(Tn)은 다음의 <수 3>으로 측정된다.To obtain information about the level of anxiety in the organism, the biological head vibration image parameters are measured. Anxiety level (Tn) is measured by the following Eq.
Figure GN48839PCT-M000003
Figure GN48839PCT-M000003
Pi(f)- 진동 이미지 주파수 분포 전력 스펙트럼 Pi (f)-Vibration Image Frequency Distribution Power Spectrum
fmax- 진동 이미지 주파수분포 스펙트럼의 최대 주파수fmax-maximum frequency of the vibration image frequency distribution spectrum

생물체의 여타 생물체와의 호환성 수준에 관한 정보 획득을 위해 개별적인 모든 생물체의 진동 주파수 분포 히스토그램을 정하고, 각 히스토그램을 구성하고, 공동 주파수 분포를 획득하며, 분포의 일반 법칙과 기 획득한 공동 분포면적을 동일하게 만들며, 분포 일반 법칙과 주파수 히스토그램간 차이를 찾는다. 호환성 수준(C)은 다음의 <수 4>로 집계된다.To obtain information about the level of compatibility of living things with other organisms, determine histograms of vibration frequency distributions for all individual organisms, construct each histogram, obtain common frequency distributions, and obtain the general law of distribution and the previously obtained co-distribution area. Make the same and find the difference between the general law of distribution and the frequency histogram. The compatibility level (C) is counted as the following <Equation 4>.
Figure GN48839PCT-M000004
Figure GN48839PCT-M000004
K-획득한 주파수 히스토그램 일반화 상관계수K-Acquired Frequency Histogram Generalized Correlation Coefficient
y' – 일반 분포 밀도 y '– normal distribution density
Figure GN48839PCT-I000011
Figure GN48839PCT-I000011
언어 혹은 비 언어적 거짓여부 결정 시, 정신생리학적 상태의 통합적인 변화수준에 관한 정보획득을 위해, 생물체 머리의 진동 이미지 매개변수를 측정한다.In determining verbal or nonverbal falsehoods, vibration image parameters of the head of the organism are measured to obtain information about the integrated level of change in the psychophysiological state.
거짓 결정 시 활용된 정신생리학적 상태의 통합적인 변화 수준(L)은 다음의 공식으로 집계된다.The integrated level of change (L) in the psychophysiological state used in the false decision is summed up by the formula:
Figure GN48839PCT-M000005
Figure GN48839PCT-M000005
Pi - 더 높게 설정된 한계치를 변화시키는 매개변수Pi-parameter to change the higher set threshold
Pc - 거짓 수준 결정 시 측정되는 진동 이미지 매개변수Pc-Vibration image parameter measured when determining false level
K - 측정되는 Pi 의미 상관계수K-Pi semantic correlation coefficient to be measured
n - 측정되는 매개변수의 수n-the number of parameters to be measured
m - 변화된 매개변수의 수m-the number of parameters changed

잘 알려진 바와 같이, 인공 두뇌학 및 정보 이론은 생물체와 생체계에 대한 운용방법 및 기술수단 적용 가능성을 검토하는 것이다. 인지생체학의 현대적인 개념은, 대게 신호정보 및 전달이론 개념 및 정의와 관련이 있으며, 정보이론에서 정립된 수학적 매개변수의 정신생리학적 정보성을 가능케 해준다. 정보이론에서 활용되는 통계 매개변수의 도움으로 인간의 머리 미세움직임을 연구한 저자의 오랜 연구와 관찰 결과, 인간의 정신생리학 상태와 머리 미세움직임 정보통계 매개변수간에 통계적으로 신빙성 있는 의존성이 있다는 사실을 알 수 있었다.As is well known, cybernetics and information theory examines the applicability of operational methods and techniques to organisms and living systems. Modern concepts of cognitive biology are usually related to the concepts and definitions of signal information and transfer theory, and enable the psychophysiological information of mathematical parameters established in information theory. The author's long study and observation of the study of human head micromovement with the help of statistical parameters used in information theory shows that there is a statistically reliable dependence between the state of human psychophysiology and the head micromovement information statistics parameter. Could know.
그리고 본 발명자는 이러한 현상과 전정감정 반사에 관한 나름의 해석을 제시할 수 있게 되었다. 우선 정신생리학적 에너지조정(신진대사)간 상호관계를 정의해보겠다. 모든 전형적인 정서 상태는, 특정 에너지 소비와 개별 생리학적으로 필요한 에너지와 정서 에너지간 상관관계로 특징지을 수 있다. 이때 생리학적 에너지는 생리학적 과정 실현을 위해, 또 정서 에너지는 의식 혹은 비의식적인 과정의 결과 형성된다. 실례로 공격 상태는, 만약 정말 동일한 공격상태일 경우라면 다양한 인물에게서 이는 동일하지 않게 발현돼야 하는데, 이때 연령, 성별, 교육수준 등의 자연스러운 조정과정이 고려돼야 한다. 하지만 생리학적 측면에서 봤을 때, 이러한 차이는 신체기관 내 상대적 에너지 방출량 및 장소에 근본적인 의미가 있어서는 안 된다. 이 모든 것은 눈에 보이는 감정적 징후를 초래하는데, 실례로 얼굴의 홍조, 잦은 한숨, 빠른 심 박동, 특정 미세움직임 등을 들 수 있다. 감정적인 상태가 외부로 발현되는 주요 원인은 생리학적 에너지와 정서적 에너지간 상관관계를 변화시키는 신체기관 내 에너지의 추가적인 방출에 기인한다. 이때 강조해야 할 점은, 저자가 현대기술 발전 수준에서 잘 알려진 자연적인 신체적 과정의 신체-화학 에너지를 고려했다는 사실이다. 생리과정의 경과속도, 인간의 생각 및 움직임 과정을 위한 상호관계 중단 및 촉발 과정을 들 수 있다. The present inventors can present their own interpretations of these phenomena and vestibular emotion reflections. First, we will define the interrelationship between psychophysiological energy coordination (metabolism). All typical emotional states can be characterized by a correlation between specific energy consumption and individual physiologically necessary energy and emotional energy. At this time, the physiological energy is formed to realize the physiological process, and the emotional energy is formed as a result of the conscious or unconscious process. For example, the attack state, if it is the same attack condition, should be expressed differently in various people, and natural adjustment process such as age, gender and education level should be considered. However, from a physiological point of view, these differences should not have a fundamental meaning in the relative amounts and locations of energy release within the body. All this leads to visible emotional signs, such as flushing of the face, frequent sighs, rapid heartbeats, and certain micromovements. The main reason for the external manifestation of the emotional state is due to the additional release of energy in the body organs which changes the correlation between physiological and emotional energy. It should be emphasized that the author took into account the body-chemical energy of natural physical processes, which are well known at the level of modern technology development. The progression of physiological processes, and the interruption and triggering processes for human thought and movement processes.
전정계의 주요과제는 무엇보다 역학적인 동등 혹은 균등 상태를 유지하는 것이다. 하지만 연구 시, 본 대상을 형성하는 역학ㆍ화학ㆍ에너지, 여타 계(시스템)의 균등상태 시에만 반폐쇄계의 평형상태가 가능하다는 사실이 입증됐다. 이들 계(시스템)들 중 하나라도 불균형이 발생할 경우 인접계의 균형상태 파괴가 초래되는데, 즉 역학적 균형 파괴가 에너지 균형 파괴를 초래한다는 것이다.The main challenge of the vestibular system is, above all, to maintain a dynamic equivalence or equality. However, the study proved that the equilibrium state of the semi-closed system is possible only if the dynamics, chemistry, energy, and other systems (systems) forming the subject are equal. Unbalance in any one of these systems results in the destruction of the equilibrium state of the adjacent system, i.e. the breakdown of mechanical balance results in the breakdown of energy balance.
수직적인 반 균형 상태에 있는 인간의 머리는 신체기관 내 발생하는 모든 에너지 과정의 지나치게 민감한 역학적 지표로 볼 수 있다. 생체역학적 측면에서 봤을 때, 무게중심보다 훨씬 높은 곳에 위치한 머리의 수직적 균형상태 및 동등한 상태 유지를 위해서는 목-머리 뼈 부분 근육의 엄청난 지속적 노력과 축소가 요구된다. 게다가 이러한 움직임은 전정계 운영 하에 반사적으로 실현되는 것이다. 신체기관 내 모든 의미 있는 현상(감정)은 지속적인 생리학적 과정의 변화를 가져온다. 이는 GSR(galvanic Skin Response, 피부전기 반사), 동맥압, 심박동과 같이 전통적으로 정신생리학적 분석에 활용되는 여타 생리학적 과정 변화와 유사하다. 게다가 에너지 발현량과 에너지 발현장소에 따라 머리 움직임 매개변수도 변한다. 머리 움직임의 공간적 입체 궤적은, 머리 모양이 구(球)와 비슷하기 때문에 매우 복잡하다. 또한 각 점의 움직임 궤적은 수백 개의 목 근육 움직임에 있어서 현저히 차이가 날 수 있다. 정보적 움직임 매개변수의 통계적 분석을 통해 머리 움직임의 신뢰할 수 있는 양적 매개변수 차별화가 가능하다. 즉, 에너지 및 전정계 반응 측정을 통한 정서상태 측정 및 확인이 가능하다는 것이다. 역학법칙은 일관되게 나타나며, 균등상태 유지를 위해 행동은 항상 반동작용을 하나는 것이다. 자연적으로 다양한 이들을 대상으로 하는 신체기관 내 에너지 측정은 전정계 활동을 통한 머리 움직임 매개변수의 일관된 상응하는 변화를 초래할 것이다. The human head in a vertical, semi-balanced state can be seen as an overly sensitive mechanical indicator of all the energy processes in the body. From a biomechanical point of view, maintaining the vertical balance and equilibrium of the heads far above the center of gravity requires tremendous continuous effort and reduction of the neck-head bone muscles. Moreover, this movement is realized reflexively under vestibular system. All meaningful phenomena in the organs lead to changes in the ongoing physiological process. This is similar to other physiological process changes traditionally used for psychophysiological analysis, such as galvanic skin response (GSR), arterial pressure, and heart rate. In addition, the parameters of head movement vary with the amount of energy expression and the location of energy expression. The spatial three-dimensional trajectory of head movements is very complicated because the shape of the head resembles a sphere. Also, the movement trajectory of each point can vary significantly in the movement of hundreds of neck muscles. Statistical analysis of informative motion parameters enables reliable quantitative parameter differentiation of head movements. In other words, it is possible to measure and confirm the emotional state through the measurement of energy and vestibular response. The laws of mechanics appear to be consistent, and behavior is always reactionary to maintain equality. Energy measurements in the body organs that naturally target a wide variety of people will result in consistent corresponding changes in head movement parameters through vestibular activity.
제시된 머리 움직임의 정보ㆍ통계적 매개변수에 따른 총체적인 감정 분류는, 모든 정서상태를 확인하게 해준다. 현재는 정서상태 측정을 위한 단일화된 총체적 접근법이 없는 만큼, 여타 정신생리학적 방법 혹은 독립 실험평가 비교 차원에서 최초의 측정을 위해 활용될 수 있을 것이다. 현대 심리학은 감정상태 평가에 있어서 주로 질적인 기준을 활용하는데, 이는 근본적으로 양적 측정을 불가능하게 하고, 인간 상태의 객관적인 평가가 힘들다. 하지만 기 제시된 방법은 모든 감정상태를 측정하게 해준다. 머리의 움직임 매개변수 변화가 기능적으로 에너지 교환 변화와 관련이 있다고 했을 때, 자연적으로 머리 움직임 매개변수가 인간의 총체적인 특징적 정신생리학 상태이기 때문이다. 현존하는 평가 기준에 따른 정서상태 집계를 위한 기 제시된 공식의 일치 정확성은, 머리 미세움직임을 통한 정서적인 상태평가 방법과 비교 시 낮게 나타난다. 현존하는 기술 수준에서는 정서상태 평가를 위한 총체적인 기준이 없기 때문이다. 기 제안된 방법은 모든 감정 측정에 있어서 통합적인 접근법이 가능하다는 점에서 특징적이다. 또한 모든 이전의 방법들은 다양한 정서상태 평가를 위해 활용됐다. 정서상태 측정을 위해 기 제안된 컨셉을 채택하는 것은 정밀과학에 심리학을 포함시키게끔 해주며, 동일한 감정 측정을 가능하게 해준다.The overall emotional classification according to the informational / statistical parameters of the presented head movements confirms all emotional states. Currently there is no single, holistic approach to measuring emotional state, so it can be used for initial measurements in terms of other psychophysiological methods or independent experimental evaluations. Modern psychology mainly uses qualitative criteria in the evaluation of emotional state, which essentially makes it impossible to measure quantitatively, and the objective evaluation of human state is difficult. However, the suggested method allows us to measure all emotional states. Given that a change in head movement parameters is functionally related to a change in energy exchange, naturally, head movement parameters are a general characteristic psychophysiological state of man. The accuracy of agreement of the proposed formulas for counting emotional states according to existing assessment criteria is low compared to the emotional state assessment method through head micromovement. This is because there is no overall standard for assessing emotional state at the current level of technology. The proposed method is characteristic in that an integrated approach is possible for all emotion measurements. All previous methods were also used to assess various emotional states. Adopting the proposed concept for measuring emotional state allows the inclusion of psychology in precision science and enables the same emotional measurement.
대상의 머리 움직임에 관한 신호 획득은 카메라에 의한 영상 비교를 통해서 이루어진다. 공간 및 시간 분포 정보통계 매개변수 차원에서 생물체 머리의 움직임 속도는 티비 카메라 작업의 최대 주파수를 가져오는 10초당 단위로 정해지는 마커 움직임 평균주파수로 측정된다. 이러한 특성은 인간의 정서적 불안감을 잘 반영하고, 불안감 수준을 특징지을 수 있다.Acquisition of the signal regarding the head movement of the subject is performed by comparing images by the camera. In terms of spatial and temporal distribution information statistics parameters, the movement speed of the head of the creature is measured as the average frequency of marker movement, determined in units of 10 seconds, which yields the maximum frequency of TV camera work. These characteristics can well reflect human emotional anxiety and can characterize anxiety levels.
진동 이미지가 대상 움직임 에너지의 공간ㆍ시간적 분포를 동시에 나타낼 경우, 주파수 히스토그램 획득을 위해 특정 시간 동안 동일진동 주파수를 가진 요인의 수가 총 집계된다. 따라서 히스토그램은 진동 주파수의 공간적 분포에 관한 정보를 배제시킨다. 이러한 명백한 공간정보 손실은 사실상 움직임 정보를 증대시켜준다고 할 수 있는데, 생리에너지 측면에서 봤을 때 얼굴의 미세움직임과는 다르게 머리의 어느 부위에서 움직임이 실행되는 지는 그다지 중요하지 않기 때문이다. 주파수 히스토그램의 구성은 이하의 내용에 따라 결정된다.When the vibration image simultaneously represents the spatial and temporal distribution of the target motion energy, the number of factors having the same vibration frequency for a specific time is aggregated to obtain a frequency histogram. Histograms therefore exclude information about the spatial distribution of vibration frequencies. This apparent loss of spatial information actually increases the motion information, because in terms of physiological energy, it is not very important in which part of the head the movement is performed unlike the fine movement of the face. The configuration of the frequency histogram is determined according to the following.
잘 알려진 바와 같이, 기존의 공격성 수준을 결정짓는 모순적인 현존 접근법과는 다른 두 가지 주요요인을 고려한 새로운 공식이 제시됐다. 두 가지 주요 요인은, 진동의 특징적인 확산을 가장 잘 보여주는 진동평균 주파수 혹은 인간의 머리 미세움직임과 매개변수, 그리고 평균제곱편차다. 이렇듯 공격적인 사람은 머리 미세움직임의 높은 주파수 및 머리 부위의 다양한 점이 움직임에 있어서 확산 폭이 크다. 여타 공식 상관계수는 0에서 1까지의 수치에 대한 공격성 상관계수를 보여준다.As is well known, a new formula has been proposed that takes into account two main factors that differ from the existing contradictory approaches that determine the level of aggression. Two main factors are the average vibration frequency, or human head motion and parameters, and the mean square deviation, which best show the characteristic spread of the vibration. This aggressive person has a high spreading frequency in movement of high frequency of hair fine movement and various points of the head part. Other official correlation coefficients show aggressive correlation coefficients for values from 0 to 1.
Figure GN48839PCT-M000006
Figure GN48839PCT-M000006
Fm- 주파수 분포 밀도 히스토그램의 최대 주파수Fm- Maximum frequency of frequency distribution density histogram
Fi- 50프레임 시간 당 획득한 주파수 분포 밀도 히스토그램에서의 i 주파수 집계 수Number of i-frequency aggregates in frequency distribution density histograms obtained per fi-50 frame hour
Fin- 진동 이미지 처리 주파수Fin-vibration image processing frequency
n- 50 프레임에서의 한계치보다 높은 프레임간 차의 집계 수Aggregate number of interframe differences above the threshold in n-50 frames
이러한 등식은 모든 이들의 공격성 수준을 결정하게 해주는데, 자연히 더 낮은 공격성 상태는 0에 가까운 수준을 보인다. 높은 공격성 상태에 있는 사람의 경우 1에 근접한 수치를 보인다. 잠재적으로 위험한 이들을 밝혀내기 위한 진동 이미지 시스템의 보안 시스템 활용 시 공격적인 이들을 밝혀내기 위한 한계치는 0.75를 사용한다. This equation allows everyone to determine their level of aggression, with naturally lower aggression levels approaching zero. People with high aggression are close to one. The use of a vibrating imaging system's security system to identify potentially dangerous ones uses a threshold of 0.75 to identify aggressive ones.
다음은 진동 이미지 획득 및 이후 공격성 수준을 결정짓는 의미 있는 진동 이미지 정보 매개변수를 통계적으로 찾아내는 것이다. 이는 무엇보다 진폭 및 주파수 진동 이미지에 대한 진동대칭 매개변수를 결정한다.The next step is to statistically identify meaningful vibration image information parameters that determine vibration image acquisition and subsequent aggression levels. This determines, among other things, vibration symmetry parameters for amplitude and frequency vibration images.
공격성 수준을 결정짓는, 잘 알려진 상반되는 현존하는 접근방법과는 달리, 인간의 머리부위를 스캔(scan)한 개별 열에 대한 움직임 진폭 및 주파수 대칭을 고려한 새로운 공식이 제시됐다. 이렇듯 공격성 수준이 최대치인 사람의 경우, 20초간 진폭 및 주파수 진동 이미지를 처리하기 위한 진동 및 미세움직임에 있어서 최대 대칭의 특성을 보인다. 동시에 스트레스와 불안감의 낮은 수준을 보인다.Unlike the well-known and contradictory approaches that determine the level of aggression, a new formula has been proposed that takes into account the motion amplitude and frequency symmetry for individual columns that scan the human head. As such, the person with the highest level of aggression exhibits maximum symmetry in vibration and fine movement for processing amplitude and frequency vibration images for 20 seconds. At the same time it shows low levels of stress and anxiety.
Figure GN48839PCT-M000007
Figure GN48839PCT-M000007
Figure GN48839PCT-I000012
- 대상의 왼쪽 부위 "I" 열 진동 이미지 총 진폭
Figure GN48839PCT-I000012
-Total amplitude of thermal vibration image "I" in the left part of the subject
Figure GN48839PCT-I000013
- 대상의 오른쪽 부위 "I" 열 진동 이미지 총 진폭
Figure GN48839PCT-I000013
-Total amplitude of thermal vibration image "I" in the right part of the subject
Figure GN48839PCT-I000014
-
Figure GN48839PCT-I000015
으로 부터
Figure GN48839PCT-I000016
간의 최대값
Figure GN48839PCT-I000014
-
Figure GN48839PCT-I000015
From
Figure GN48839PCT-I000016
Maximum value of liver
Figure GN48839PCT-I000017
- 대상의 왼쪽 부위 "I" 열 진동 이미지 최대주파수
Figure GN48839PCT-I000017
-"I" thermal vibration image maximum frequency in the left part of the object
Figure GN48839PCT-I000018
- 대상의 오른쪽 부위 "I" 열 진동 이미지 최대주파수
Figure GN48839PCT-I000018
Maximum frequency of "I" thermal vibration image on the right side of the subject
Figure GN48839PCT-I000019
-
Figure GN48839PCT-I000020
으로부터
Figure GN48839PCT-I000021
간의 최대값
Figure GN48839PCT-I000019
-
Figure GN48839PCT-I000020
From
Figure GN48839PCT-I000021
Maximum value of liver
n – 대상이 차지하는 열 수n – the number of columns occupied by the target

이전에 제시한 정보통계 매개변수와 유사하게, 제시된 공식은 0에서 1까지의 스트레스 수준(St))을 측정하게 해주며, 무엇보다 최소 스트레스 수준은 최소 측정치에 부합하며, 높은 수준의 스트레스 상태에 있는 사람의 경우 스트레스 수치가 1에 근접하게 나타난다. Similar to the information statistics parameters presented previously, the formula presented allows us to measure the stress level (St) from 0 to 1, and above all, the minimum stress level corresponds to the minimum measurement, In people with stress levels close to one.
다음은 진동 이미지 획득 및 이후 불안감 수준을 결정짓는 의미 있는 진동 이미지 정보 매개변수를 통계적으로 찾아낸 것이다. 이는 무엇보다 진폭 및 주파수 진동 이미지의 빠른 활동 신호 주파수 스펙트럼 구성과 관련이 있다.The following is a statistical analysis of meaningful vibration image information parameters that determine vibration image acquisition and subsequent anxiety levels. This relates, among other things, to the fast activity signal frequency spectrum construction of amplitude and frequency vibration images.

불안감 수준을 결정짓는, 잘 알려진 상반된 현존하는 접근방법과는 다르게, 높은 불안감은 낮은 주파수 스펙트럼 밀도보다, 오히려 움직임이 높은 주파수 스펙트럼 밀도를 증대시킨다는 사실을 고려한 새로운 공식이 제시됐다.Unlike the well-known and contradictory existing approaches that determine the level of anxiety, a new formula has been proposed that takes into account the fact that high anxiety increases high frequency spectral density rather than low frequency spectral density.
Figure GN48839PCT-M000008
Figure GN48839PCT-M000008
Tn - 불안감 수준Tn-anxiety level
Pi(f) - 진동 이미지 주파수 확산 전력 스펙트럼Pi (f)-Vibration Image Frequency Spread Power Spectrum
fmax - 진동 이미지 주파수 확산 스펙트럼 최대 주파수 fmax-vibration image frequency spread spectrum maximum frequency
이전에 제시한 정보통계 매개변수와 유사한 제시된 공식은 0에서 1까지 불안감 수준을 측정하게 해준다. 또한 최소 수준의 불안감은 최소 측정치에 부합하고, 불안감 수준이 높은 이는 스트레스 수치가 1에 근접하게 나타난다. 진동 이미지의 빠른 신호 주파수 확산 스펙트럼은 조작자 혹은 시스템 활용자의 컨트롤을 위해 나타난다. The presented formula, similar to the previously presented information statistics parameters, allows us to measure the level of anxiety from 0 to 1. In addition, the minimum level of anxiety meets the minimum measure, and those with high levels of anxiety have stress levels close to one. The fast signal frequency spread spectrum of the vibration image appears for the operator's or system operator's control.
또 다른 실례는 진동 이미지 획득 및 이후 사람들간 호환성(화합) 수준을 결정짓는 진동 이미지의 통계적으로 의미 있는 정보적 매개변수를 찾는 것이다. 무엇보다 이는 각 개별자 주파수의 진동 이미지 히스토그램 구성으로 이루어진다.Another example is to find statistically meaningful informative parameters of the vibration image that determine the vibration image acquisition and then the level of compatibility between the people. Best of all, this consists of a vibration image histogram configuration at each individual frequency.
호환성(화합) 수준을 결정짓는, 잘 알려진 상반되는 현존하는 접근방법과는 다르게, 분포 정상법칙에 대한 양측 모두의 총 진동 주파수 히스토그램에 대한 부합 근접성으로 특징되는 호환성(화합)가능성을 고려한 새로운 공식이 제시된다.In contrast to the well-known and contradictory existing approaches that determine the level of compatibility, a new formula that considers the possibility of compatibility is characterized by a close proximity to the total vibration frequency histograms of both sides of the distribution normal law. Presented.
Figure GN48839PCT-M000009
Figure GN48839PCT-M000009
K- 최초 히스토그램의 정상화 상관계수 K -normalization correlation coefficient of the first histogram
Figure GN48839PCT-I000022
Figure GN48839PCT-I000022
이전에 제시된 매개변수와 유사하게 제안된 공식은 0에서 1까지의 호환(화합)가능성 수준을 측정한다. 또한 최소 측정치는 최소 호환(화합)가능성에 부합하며, 양 측의 높은 수준의 호환(화합)가능성 측정치는 1에 근접하게 나타난다.Similar to the parameters presented previously, the proposed formula measures the level of compatibility from 0 to 1. In addition, the minimum measure corresponds to the minimum compatibility (compatibility), and the high level of compatibility measure on both sides appears close to one.
다음은 진동 이미지 획득 및 인간의 거짓 수준을 결정짓는 진동 이미지의 통계적으로 의미 있는 정보 매개변수를 찾는 것이다. 무엇보다 상호간 최소한의 연관성을 가진 진동 이미지 매개변수 최대량의 일시적인 의존성 획득과 관련이 있다. Next is to find a statistically meaningful information parameter of the vibration image that determines the vibration image acquisition and human false level. First of all, it is related to the acquisition of temporary dependence of the maximum amount of vibration image parameters with the least correlation between them.
거짓말 탐지와 관련해 이미 잘 알려진 현존하는 정신생리학적 접근법과는 차이가 있는 새로운 공식이 제시됐다. 본 공식에서 거짓은, 보고시간과 비교한 진동 이미지 매개변수 측정치에서의 변화에 따라 결정된다. 제시된 공식은 언어 및 비언어적 거짓 여부를 정하게 해준다. 기본적으로 시간 차원에서의 언어적 거짓 결정은 실험 대상자의 대답 시작까지의 시간을 활용하는데, 비언어적인 거짓 분석의 경우 한 기간의 시간과 또 다른 기간의 시간 동안 매개변수와의 상호간 비교를 통해 이루어진다.A new formula has been proposed for the detection of lies that differs from the well-known existing psychophysiological approaches. False in this formula is determined by the change in vibration image parameter measurements compared to the reporting time. The formula presented allows us to determine whether we are verbal and nonverbal. Basically, the linguistic false decision in the time dimension utilizes the time to the start of the test subject's answer. In the case of non-verbal false analysis, it is made by comparing the parameters with one time period and another time period.
거짓 결정 시, 활용되는 정신생리학적 상태의 통합적인 변화 수준(L)은 다음의 공식으로 계산된다. In the case of a false decision, the integrated level of change (L) of the psychophysiological state utilized is calculated by the formula:
Figure GN48839PCT-M000010
Figure GN48839PCT-M000010
Pi - 더욱 높게 설정된 한계치의 변화 매개변수Pi-change parameter for a higher set threshold
Pc - 거짓 수준 결정 시 변화하는 진동 이미지 매개변수Pc-Vibration image parameter changes when determining false level
K - 측정된 Pi 의미 상관계수K-Measured Pi Semantic Correlation Coefficient
n - 측정 매개변수 수(비주얼 매개변수 수와는 차이가 있을 수 있음)n-number of measurement parameters (may vary from the number of visual parameters)
m- 변화 매개변수 수m- number of change parameters
이전에 제시된 매개변수와 유사하게, 제시된 공식은 0에서 1까지의 거짓 수준을 측정하게 해준다. 또한 최소 수준의 거짓에는 최소 측정치가 부합되는데, 거짓의 최고수준은 1에 근접한 측정치를 가진다.Similar to the parameters presented previously, the formula presented allows us to measure false levels from 0 to 1. In addition, the minimum level of false matches the minimum measure, while the highest level of false has a value close to one.
그렇다고 해서 본 발명이 상기 제시된 인간의 감정 및 정신생리학적 상태 측정 실례에 한해서만 활용되는 것은 아니다. 참고로 인간의 상태특성은 다양한 분류 시스템에 따라 200개가 넘게 분류돼있다. 무엇보다 본 발명은 머리 미세움직임 매개변수와 /혹은 머리의 진동 이미지 매개변수를 통해 인간의 모든 상태를 묘사하게 해준다. 심리학에서 움직임에 관한 전통적인 개념이 신빙성 있는 통계 매개변수를 이용한 인간 머리의 반사 미세움직임으로 전환되는 것은 불명확한 원칙이라 생각할 수 있다. 하지만 제시된 접근법을 바탕으로 기술정보 시스템과 유사하게 인간의 상태를 결정지을 수 있으며, 인간 상태를 특징짓기 위한 정보 매개변수를 활용할 수 있다. 실례로, 공식에 따른 인간의 정보ㆍ열역학적 엔트로피 수준을 결정지을 수 있다는 것이다.This does not mean, however, that the present invention is utilized solely for the measurement of emotional and psychophysiological states of humans presented above. For reference, there are over 200 classifications of human state characteristics according to various classification systems. Above all, the present invention allows us to describe all human conditions through the head micromovement parameters and / or the head vibration image parameters. In psychology, it is an unclear principle to translate the traditional concept of motion into reflex micromovement of the human head using reliable statistical parameters. However, based on the proposed approach, it is possible to determine the human state similarly to the technical information system and to utilize the information parameters to characterize the human state. For example, it is possible to determine the level of human information and thermodynamic entropy according to the formula.
정보적 엔트로피 계산을 위한 근간으로써 머리 미세움직임 주파수 분포 히스토그램이 구성되며, 본 정보적 엔트로피(H) 계산은 다음의 공식을 따른다. The head fine motion frequency distribution histogram is constructed as the basis for the informational entropy calculation. The informational entropy (H) calculation is based on the following formula.
Figure GN48839PCT-M000011
Figure GN48839PCT-M000011
열역학적 엔트로피 계산을 위한 근간으로써 머리의 미세움직임 주파수 분포 히스토그램이 구성되며, 본 열역학적 엔트로피(S) 계산은 다음의 공식을 따른다.As a basis for the thermodynamic entropy calculation, a histogram of the frequency distribution of the micro-movement of the head is constructed. The thermodynamic entropy (S) calculation follows the following formula.
Figure GN48839PCT-M000012
Figure GN48839PCT-M000012
이러한 개별 정보통계 매개변수는 인간의 어떠한 감정상태를 더 잘 밝혀내기 위해 적용되는데, 실례로 실험진행을 통해 거짓 수준에 대한 정보적 엔트로피간 연관성이 크다는 사실을 알게 됐고, 열역학 엔트로피는 인간의 불안감 상태와 큰 연관이 있다는 사실을 알 수 있었다. These individual information statistics parameters are applied to better identify any emotional state in humans. For example, experiments have shown that there is a high correlation between informational entropy on false levels, and thermodynamic entropy is a state of anxiety in humans. It was found that there is a big connection with.
신체ㆍ열역학적 매개변수를 바탕으로 인간의 행동과 에너지, 카리스마 적인 측면을 더 완벽히 특징 및 결정지을 수 있었다. 실례로 진동 이미지 7.1 버전 시스템을 이용해 진동 이미지 기록 최고 주파수를 나타낸 주파수 히스토그램을 바탕으로 평균제곱오차와 주파수 최고치간 차이를 바탕으로 인간의 에너지(E) 수 있었다.Based on body and thermodynamic parameters, we were able to more fully characterize and determine human behavior, energy and charismatic aspects. For example, using a vibration image 7.1 version system, human energy (E) was able to be based on the difference between the mean square error and the frequency peak, based on a frequency histogram representing the highest frequency of the vibration image recording.
Figure GN48839PCT-M000013
Figure GN48839PCT-M000013
머리의 반사적인 미세움직임의 양적 분석은 인간의 정신생리학적 상태 측정을 더욱 객관ㆍ과학적으로 가능하게 해주며, 의학ㆍ심리학ㆍ정신의학적, 그리고 일상생활에서의 많은 문제들을 해결할 수 있게 해준다. 공격성, 스트레스, 불안감, 잠재적 위험성 수준에 따른 공항 내 승객들의 정신감정 상태의 양적 평가 및 개발된 시스템과 관련한 독립적인 실험을 통해, 본 발명이 전문가들의 전문 평가에 긍정적(90%이상)으로 부합한다는 사실을 알 수 있었다. 이는 본 발명의 실질적인 실현 가능성을 확인해주는 것이다.Quantitative analysis of the reflexive micromovement of the head makes it possible to measure the psychophysiological state of humans more objectively and scientifically and to solve many problems in medicine, psychology, psychology, and everyday life. Through independent experiments with the system developed and the quantitative assessment of the psychological status of passengers at the airport according to aggression, stress, anxiety and potential risk levels, the present invention is positive (more than 90%) to the expert's professional evaluation. I could tell the truth. This confirms the practical feasibility of the present invention.
이하에서는 첨부된 도면을 참고하여 상기와 같은 본 발명의 방법을 수행하는 자동차 빌트인 졸음 예측 또는 검출 시스템에 대해 설명 한다.Hereinafter, a car built-in drowsiness prediction or detection system for performing the method of the present invention will be described with reference to the accompanying drawings.
기능적으로 블록화되어 있는 도 2a, 2b에 도시된 장치 또는 시스템에서, 자동차 내부의 대시 보드 또는 룸미러 등에 설치되는 카메라(21)는 CCD나 CMOS 등의 촬상 소자 및 이로부터의 아날로그신호를 디지털화하는 A/D 컨버터를 포함하며, 영상 처리부(22)는 특정 포맷의 동영상을 생성하는 인코더 등을 포함한다.In the device or system shown in Figs. 2A and 2B, which are functionally blocked, the camera 21 installed in a dashboard or a room mirror in an automobile is used to digitize an imaging device such as a CCD or CMOS and an analog signal therefrom. / D converter, and the image processor 22 includes an encoder for generating a video of a specific format.
전술한 바와 같이 신호 분석부(23)는 상기 영상을 이용해 전술한 바와 같은 방법에 의해 진동 파라미터를 측정하고 이로부터 정신 생리학적 정보(신호, 또는 생리신호)를 생성 또는 추출한다. 여기에서 진동 파라미터는 피험자의 부위별 위치 변화에 따른 진동 주파수, 진폭 및 위상 등을 포함한다. 그리고 정신 생리학적 정보는 안정 상태, 흥분 상태, 스트레스 상태 등 심리/감정/감성상태를 포함하며, 여기에는 운전자의 졸음을 예측 또는 검출한다.As described above, the signal analyzer 23 measures the vibration parameter by the method as described above using the image, and generates or extracts psychophysiological information (signal or physiological signal) therefrom. Here, the vibration parameters include vibration frequency, amplitude, and phase according to the change of position of each part of the subject. The psychophysiological information includes psychological / emotional / emotional states such as a stable state, an excited state, and a stress state, which predict or detect drowsiness of the driver.
한편, 생리신호 응용부(24)는 상기 생리 신호를 이용해 피험자의 정신적, 정서적 상태를 평가하는 생리 신호 처리 알고리즘 및 그 결과를 표시하는 디스플레이 등을 포함할 수 있다. 예를 들어 생리 신호 처리 알고리즘은, 예를 들어 제임스 러셀의 2차원 감성모델에 따라 9가지 감성상태로 피험자의 상태를 분류할 수 있다. 상기 응용부(24)에 마련되는 디스플레이는 전술한 바와 같이, 최종 얻어진 결과를 문자 또는 이미지의 형태로 표시한다. 특히 응용부(24)는 운전자의 졸음 상태에서 각성 상태로 전환하기 위한 다양한 안전 조치 시스템을 포함할 수 있다. 여기에는 경적과 같은 음향, 아니면 잠을 깨울 수 있는 음악 또는 영상 장치가 포함될 수 있다. 또한, 운전자를 물리적으로 자극하기 위해 운전석 등에 설치될 수 있는 진동장치를 포함할 수 있다.Meanwhile, the physiological signal application unit 24 may include a physiological signal processing algorithm for evaluating the mental and emotional state of the subject using the physiological signal and a display for displaying the result. For example, the physiological signal processing algorithm may classify the subject's states into nine emotional states according to, for example, James Russell's two-dimensional emotional model. The display provided in the application unit 24 displays the final result in the form of a text or an image as described above. In particular, the application unit 24 may include various safety measures systems for transitioning from the drowsy state of the driver to the awake state. This may include a horn-like sound, or a music or video device that can wake you up. In addition, it may include a vibration device that can be installed in the driver's seat or the like to physically stimulate the driver.
상기와 같은 장치는 다양한 유형의 시스템은 일반적인 PC용 OS 뿐 아니라 휴대용 OS 예를 들어 Windows mobile, Android, iOs, Symbian, BlackBerry, Bada등의 시스템을 기반으로 할 수 있다. Such a device may be based on various types of systems, not only general OS for PC but also portable OS such as Windows mobile, Android, iOS, Symbian, BlackBerry, Bada.
도3은 도2a, 2b에 도시된 장치 또는 시스템을 구현하는 시스템의 일부를 구성하는 운전자 졸음 예측 또는 검출 장치(30)를 도시한다.FIG. 3 shows a driver drowsiness prediction or detection device 30 that forms part of a system implementing the device or system shown in FIGS. 2A and 2B.
도3을 참조하면, 운전자 졸음 예측 또는 검출 장치(30)는 촬상 소자를 가지는 영상 촬영부, 즉 카메라(31), 카메라(31)로부터(32)의 아날로그 영상 신호를 디지털화하는 A/D 컨버터(32), 영상 분석 및 매개 변수 추출 및 생리 신호 발생, 졸음 예측 또는 검출1 등을 수행하는 프로세서(34), 그리고 그 결과를 표시하는 표시부(35)를 구비한다. 이에 더하여 외부로부터의 정보 입력을 위한 입력장치, 예를 들어 키패드 등과 같은 키입력부(36), 그리고 상기와 같은 영상 신호 처리 등에서 사용되는 메모리를 포함하는 저장부(33)를 포함한다.Referring to FIG. 3, the driver's drowsiness prediction or detection device 30 includes an A / D converter that digitizes an analog image signal of an image photographing unit having an imaging device, that is, the camera 31 and the camera 31. 32), a processor 34 for performing image analysis and parameter extraction and physiological signal generation, drowsiness prediction or detection1, and a display unit 35 for displaying the result. In addition, the apparatus includes an input device for inputting information from the outside, for example, a key input unit 36 such as a keypad and the like, and a storage unit 33 including a memory used in the above-described image signal processing.
전술한 바와 같은 본 발명에 따라 동영상을 이용하여 운전자의 졸음을 예측 및 검출하기 위해서 도4에 도시된 바와 같이 실제 뇌파측정과정(I)에서 실제 뇌파측정기(EEG 장비)로 획득한 운전자의 뇌파와, 동영상 촬영 과정(II)에서 통해 획득한 동영상 정보를 상호 매칭시켜 졸음 상태에 대한 정신 생리학적인 특정한 매개 변수의 알고리즘을 추출하는 것이 바람직하다. 구체적으로 도5를 참조하면, EEG 장비(40)로 뇌파를 측정(41)하고, 측정된 뇌파를 통해 졸음 상태의 뇌파를 측정 분석하여(42) 졸음 상태에서의 뇌파를 특정하고(43), 찰영 장치(44)를 통해 얻은 동영상(45)으로부터 진동 매개 변수를 추출하고(46), 이를 졸음 상태에서의 뇌파에 동기하는 진동 매개 변수를 매칭시킨다(47). 매칭을 통해 얻어진 졸음에 상관성이 있는 파라미터들을 졸음 예측 및 검출 프로그램에 적용한다(48). 본 발명의 실험에 따르면, 뇌파에서 C4/F4의 델타(delta) 성분, F3의 알파(alpha) 성부, 그리고 F3의 세타(theta) 성분이 졸음에 관련하며, 이에 매칭되는 3개의 진동 이미지 파라미터(F3, P17, P8F)를 추출하였다.In order to predict and detect driver's drowsiness using a video according to the present invention as described above, as shown in FIG. 4, the driver's brain waves acquired by an actual EEG device (EEG equipment) in the actual EEG measurement process (I) and In addition, it is preferable to extract an algorithm of a specific parameter of psychophysiology for the drowsiness state by matching the video information acquired through the video shooting process II. Specifically, referring to FIG. 5, EEG equipment 40 measures brain waves 41, and measures and analyzes brain waves in a drowsy state through measured brain waves (42) to identify brain waves in a drowsy state (43). The vibration parameters are extracted from the moving image 45 obtained through the imaging device 44 (46), and the vibration parameters synchronized with the brain waves in the drowsy state are matched (47). The parameters correlated to the sleepiness obtained through the matching are applied to the sleepiness prediction and detection program (48). According to the experiments of the present invention, in the EEG, the delta component of C4 / F4, the alpha component of F3, and theta component of F3 are related to drowsiness and match three vibration image parameters ( F3, P17, P8F) were extracted.
도6은 본 발명에 따라, 생체신호를 동영상을 기반으로 카메라를 통해서 획득되는 과정을 도시한 흐름도이다.6 is a flowchart illustrating a process of acquiring a biological signal through a camera based on a video according to the present invention.
도 6을 참조하면, 먼저 카메라(31)에서 운전자의 영상을 획득하여 아날로그 전기적 신호로 변환한다(S10, S20). 운전자의 영상으로부터 얻어진 전기적 신호는 아날로그 신호이며 따라서 A/D 컨버터(32)에 의해 디지털 영상 데이터로 변환된다(S30).Referring to FIG. 6, first, an image of a driver is acquired by a camera 31 and converted into an analog electric signal (S10 and S20). The electrical signal obtained from the driver's image is an analog signal and is therefore converted into digital image data by the A / D converter 32 (S30).
다음 단계에서, 프로세서(34)는 각 영상 데이터들의 시간에 따른 변화를 분석하여 진동 파라미터를 산출한다 (S40). 진동 파라미터는 상기 피험자의 부위별 위치 변화에 따른 진동 주파수, 진폭 및 위상 중 적어도 어느 하나를 포함한다. 즉, 프로세서(34)는 운전자의 각 부위의 위치 변화를 분석하여 각 부위의 진동 주파수, 위치 변화의 크기(진동의 크기) 및 위상 등을 산출한다. 이에 이어, 프로세서(34)는 진동이미지 해석 프로그램을 이용하여 이미지간의 차이를 분석하고 무게 중심에 대한 위치 변화를 측정하거나 푸리에 변환을 이용하여 진동 파라미터(매개변수)를 계산(산출)할 수 있다.In a next step, the processor 34 calculates a vibration parameter by analyzing the change over time of each image data (S40). The vibration parameter includes at least one of a vibration frequency, an amplitude, and a phase according to a change in position of each part of the subject. That is, the processor 34 analyzes the position change of each part of the driver to calculate the vibration frequency of each part, the magnitude of the position change (the magnitude of the vibration), the phase, and the like. Subsequently, the processor 34 may analyze the difference between the images using a vibration image analysis program, measure a position change with respect to the center of gravity, or calculate (calculate) a vibration parameter (parameter) using a Fourier transform.
진동 파라미터 산출에 대해 좀 더 상세하게 설명하면 다음과 같다. 프로세서(34)는 연속적인 여러 개의 영상들로부터 운전자의 움직임에 따른 윤곽의 움직임 또는 진동을 파악한 후 이 윤곽을 두 개의 균등한 부분으로(좌, 우측) 분리한다. 그 다음, 반으로 나뉘어진 행의 두 부분에서 최대 진동 주파수가 나타내는 지점을 결정한다. 이 주파수는 생체신호이미지의 해당 수평 행의 색을 결정한다. 분리된 윤곽 부분에 위치한 반으로 나뉘어진 행의 각각의 두 부분에서 위치 변동을 한 평균 진폭은 생체신호이미지의 크기(길이)를 결정한다. 각각의 지점에서 얻은 진동이미지는 확실하며 정적인 특징을 지니지만 통합적인 생체 신호이미지는 인체의 정신생리학적 매개변수와 관련이 있다. 이는 카메라를 갖는 휴대형 장치가 움직이지 않는 지지대에 고정이 되어 있어 외부로부터 진동의 영향을 받지 않은 경우이다. The vibration parameter calculation is described in more detail as follows. The processor 34 grasps the movement or vibration of the contour according to the driver's movement from a plurality of consecutive images and separates the contour into two equal parts (left and right). Then, determine the point indicated by the maximum vibration frequency in two parts of the row divided in half. This frequency determines the color of the corresponding horizontal row of the biosignal image. The average amplitude of the positional variation in each of the two sections of the row divided in half located in the separate contour section determines the size (length) of the biosignal image. Vibration images obtained at each point have certain positive and static characteristics, but integrated biosignal images are associated with psychophysiological parameters of the human body. This is the case in which the portable device with the camera is fixed to a non-moving support and is not affected by vibration from the outside.
카메라가 자동차에 설치되어 있으므로 카메라의 진동 또는 움직임이 발생하므로 이 진동 성분를 제거 (필터링) 하는 과정을 거치는 것이 바람직하다. 이러한 필터링에는 자동자의 진동뿐 아니라 노이즈로서 작용하는 여러 잡음 성분 중 일부 또는 전체가 포함될 수 있다.Since the camera is installed in a vehicle, vibration or movement of the camera occurs, so it is preferable to go through the process of removing (filtering) the vibration component. Such filtering may include some or all of the various noise components that act as noise as well as vibration of the auto.
이를 위해서는 전기 신호로 변환된 대상 이미지를 A/D 변환한 후에 진동 파라미터를 산출하기 전에 손으로부터 전달되는 진동을 노이즈로 받아들여 제거하도록 하는 과정을 수행하는 것이 필요하다(S40).To this end, after A / D conversion of the target image converted into an electrical signal, it is necessary to perform a process of receiving and removing vibration transmitted from the hand as noise before calculating the vibration parameter (S40).
프로세서(34)는 산출된 진동 파라미터에 기초하여 생체신호이미지를 생성한다(S50). 생체신호이미지는 진폭 구성요소와 주파수 구성요소를 포함할 수 있다. 이하에서는, 진폭 구성요소를 "내부 생체신호이미지"로, 주파수 구성요소를 "외부 생체신호이미지"라고 칭하기로 한다. 이러한 용어 정의의 개념은 이하의 도 5의 설명에서 이해될 것이다.The processor 34 generates a biosignal image based on the calculated vibration parameter (S50). The biosignal image may include an amplitude component and a frequency component. Hereinafter, the amplitude component is referred to as "internal biosignal image" and the frequency component is referred to as "external biosignal image". The concept of this term definition will be understood in the description of FIG. 5 below.
최종적으로, 프로세서(34)는 산출된 진동 파라미터로부터 피험자(1)의 정신생리학적 정보를 획득한다(S60). 즉, 프로세서(34)는 진동 파라미터를 분석함으로써 대상(20)의 심리적 상태를 알 수 있으며, 특히 전술한 바와 같은 알고리즘에 의해 운전자의 졸음을 예측하거나 검출할 수 있다.Finally, the processor 34 obtains psychophysiological information of the subject 1 from the calculated vibration parameter (S60). That is, the processor 34 may know the psychological state of the object 20 by analyzing the vibration parameter, and in particular, may predict or detect the drowsiness of the driver by the algorithm as described above.
도 7a는 진동 이미지의 진폭 성분으로 형성되는 인체의 이미지 주위에 생체 에너지인 아우라가 방사되는 것을 도시한 것이다.FIG. 7A illustrates the emission of an aura of bioenergetic energy around an image of a human body formed from the amplitude component of a vibrating image.
내부 생체신호이미지는 상술한 바와 같이, 각 부위의 위치 변화 크기를 색상으로 표현한 것이다. 이를 통해 피험자(1) 각 부위의 위치 변화 크기를 시각화할 수 있게 된다. 외부 생체신호 이미지는 내부 생체신호이미지의 주변에 나타나며, 평균 최고 진동 주파수를 색상으로 변조하여 나타낸다.As described above, the internal biosignal image expresses the magnitude of the change in position of each part in color. Through this it is possible to visualize the magnitude of the position change of each part of the subject (1). The external biosignal image appears around the internal biosignal image and modulates the average peak vibration frequency into color.
도 7b는 인체의 실제 영상 주위에 생체 에너지인 생체신호이미지가 방사되는 것을 도시한다. 도 5b에서, 내부 생체신호이미지는 표현되지 않고 실제 영상 주위에 생체신호 이미지만이 표시되어 있다.7B illustrates that a biosignal image, which is bioenergy, is radiated around an actual image of the human body. In FIG. 5B, the internal biosignal image is not represented and only the biosignal image is displayed around the actual image.
도 8a, 8b는 안정 상태와 비안정 상태에서의 생체신호 이미지를 각각 나타내는데, 도8a는 안정적 또는 정삭적 상태, 그리고, 도 8b는 스트레스 상태에 있는 피험자의 생체신호 이미지이다.8A and 8B show biosignal images in a stable state and an unstable state, respectively. FIG. 8A shows a biosignal image of a subject in a stable or finished state and FIG. 8B in a stress state.
도8a를 살펴보면, 생체신호 이미지가 형태와 색깔 면에서 충분히 대칭을 이루고 있으며 생체신호이미지의 색이 선택한 색깔 눈금(전반적인 색-녹색)의 중간 정도로 나타나 있다. 이러한 생체 신호 이미지를 통해서 운전자가 안정적인 상태임을 알 수 있다.Referring to FIG. 8A, the biosignal image is sufficiently symmetrical in shape and color, and the color of the biosignal image is about halfway between the selected color scale (overall color-green). The bio signal image shows that the driver is in a stable state.
반면에 도8b를 살펴보면, 생체신호 이미지에서 아우라는 붉은 색 성분을 많이 포함하고 있다. 따라서, 이 상태에서의 운전자는 불안정한 상태임을 알 수 있다. 사람이 어떤 자극을 받게 되면, 예를 들어 화면을 통해 폭력 장면에 노출되게 되면, 피험자가 스트레스를 받거나 공격적인 상태가 되어 생체신호 이미지의 색깔은 보다 붉은 색으로 변화한다. On the other hand, referring to FIG. 8B, the aura contains a lot of red components in the biosignal image. Thus, it can be seen that the driver in this state is in an unstable state. When a person is stimulated, for example, exposed to a violent scene through the screen, the subject becomes stressed or aggressive and the color of the biosignal image changes to a reddish color.
도 9a는 안정 상태에 있는 인체 진동이미지의 주파수 구성요소(생체신호이미지)에 대한 분포 그래프이고, 도 9b는 스트레스 상태에 있는 인체 진동이미지의 주파수 구성요소 (생체신호 이미지)에 대한 분포 그래프이다.FIG. 9A is a distribution graph of frequency components (biological signal images) of a human body vibration image in a stable state, and FIG. 9B is a distribution graph of frequency components (biological signal images) of a human body vibration image in a stress state.
도 9a에 나와 있는 그래프는 정상적인 노동 상태에 있는 사람의 전형적인 주파수 분포를 보여주고 있다. 연구 결과에 의하면, 대다수의 사람들은 평온한 상태에서 일반적으로 싱글 모드의 분포 규칙에 흡사한 분포수 분포를 보인다. 화면에서 폭력 장면을 보는 것과 같은 특정한 부정적인 영향을 받을 경우 피실험자의 상태는 도 8b처럼 변화한다. 만약 공포, 스트레스 및 공격적인 상태에서는 주파수 분포(M)의 평균(중간) 수치가 증가하는 쪽으로 이동한다. 안정적이고 편안한 상태에서는 주파수 분포 수치의(M) 평균(중간) 수치가 줄어드는 쪽으로 이동한다. 주파수 축(X)은 상대적인 단위뿐 아니라 실제 단위 혹은 시간(㎐나 sec.)로도 표현할 수 있다. 표시값 사이의 거리는 카메라의 신속한 처리에 대한 실제 매개변수들과 소프트웨어의 셋팅(처리하는 순서에서 이미지를 축적하는 시간과 이미지의 수)에 의해 결정된다.The graph shown in FIG. 9A shows a typical frequency distribution of a person in normal working condition. The results show that the majority of people in a calm state generally have a distribution of distributions similar to a single-mode distribution rule. When the subject is subjected to a certain negative effect such as watching a violence scene on the screen, the state of the subject changes as shown in FIG. 8B. If in fear, stress and aggressive conditions, the mean (medium) value of the frequency distribution (M) shifts towards increasing. In a stable and relaxed state, the mean (middle) value of the frequency distribution value (M) is shifted toward decreasing. The frequency axis (X) can be expressed not only in relative units, but also in real units or time (㎐ or sec.). The distance between the display values is determined by the actual parameters of the camera's rapid processing and the software's settings (time to accumulate images and the number of images in the processing sequence).
도 10은 본 발명에 따른 졸음 예측 프로그램의 작동 흐름도로서 R&D (Research & Development)단계에서의 뇌파와 진동 매개변수를 매칭하여 졸음 예측 알고리즘을 추출하는 과정의 실험 흐름도이다.10 is an operation flowchart of a drowsiness prediction program according to the present invention, which is an experimental flowchart of a process of extracting a drowsiness prediction algorithm by matching EEG and vibration parameters in a Research & Development (R & D) step.
실험이 시작되며, 먼저 운전자 또는 측정대상 피험자에게 뇌파측정센서를 착용시키고(S10a), 그리고 피험자의 머리 또는 이를 포함하는 상반신을 찰영하는 카메라를 준비한다(S10b). 이런 상태에서 운전자에게 졸음을 유도하면서, 동영상을 촬영(S10d)함과 동시에 뇌파(EEG)를 측정한다(S10c). 동영상으로부터는 전술한 바와 같은 방법에 의해 진동 매개변수를 추출하고, 운전자의 졸음 상태를 측정한다(S10f). 그 다음에 뇌파 성분과 진동 매개 변수를 비교 분석하여 상호 매칭하여(S10f), 졸음에 관계된 진동 매개 변수를 추출한다(S10h). 진동 매개 변수가 추출되면 이를 이용하여 졸음 예측을 위한 알고리즘을 작성 또는 추출한다(S10i). 여기에서 작성 또는 추출된 졸음 예측 알고리즘은 실제 졸음 예측 장치에 적용된다.The experiment is started, and first, the EEG sensor is worn by the driver or the subject to be measured (S10a), and the camera for observing the subject's head or the upper body including the same is prepared (S10b). In this state, while inducing drowsiness to the driver, while recording a video (S10d) and at the same time measures the EEG (S10c). From the video, the vibration parameter is extracted by the method as described above, and the driver's drowsiness is measured (S10f). Then, by comparing and analyzing the EEG component and vibration parameters (S10f), and extracts the vibration parameters related to sleepiness (S10h). When the vibration parameter is extracted, an algorithm for predicting drowsiness is prepared or extracted using the extracted parameter (S10i). The drowsiness prediction algorithm created or extracted here is applied to the actual drowsiness prediction apparatus.
도11은 상기 졸음 예측 알고리즘을 이용하여 운전자의 졸음을 예측하고, 졸음이 예측되었을 때에 자극을 전달하여 각성시키는 과정을 도시한다.11 illustrates a process of predicting a driver's drowsiness using the above-described drowsiness prediction algorithm and transmitting and stimulating a stimulus when the drowsiness is predicted.
도11은 참조하면, 실제 자동차에 본 발명에 따른 시스템이 장착된 상태(S11a)에서 졸음 예측 알고리즘이 구동된다(S11b). 이 졸음 예측 알고리즘을 이용하여 운전자로부터 얻어지는 동영상으로부터의 추출된 진동 매개 변수를 기초로 해당 운전자의 졸음을 실시간 예측한다(S11c). 졸음을 예측한 결과, 경증의 주의상태(S11d)와 경고상태(S11e)인지 판단되며, 여기에서 주의 상태 또는 경고 상태의 레벨을 임계치에 비교하여(S11f), 임계치 이하이면 전술한 과정을 무한루프로 순환 실행하며, 임계치 이상이면 적절한 자극을 발생한다(S11g). 적절한 자극은 운전자를 졸음 상태로부터 벗어날 수 있도록 하기 위한 것으로, 진동, 음향, 향기 등 인간의 오감 중 적어도 어느 하나를 자극할 수 있는 그 어느 것도 포함될 수 있다.Referring to Fig. 11, the sleepiness prediction algorithm is driven in a state in which a system according to the present invention is mounted on a real vehicle (S11a) (S11b). The driver's drowsiness is predicted in real time based on the vibration parameter extracted from the moving image obtained from the driver using this drowsiness prediction algorithm (S11c). As a result of the prediction of drowsiness, it is determined whether it is a mild attention state (S11d) or a warning state (S11e), where the level of the attention state or warning state is compared with a threshold value (S11f), and if the threshold value is less than or equal to the above-described process, the infinite loop Circulation is carried out, and if it is above a threshold, an appropriate stimulus is generated (S11g). Appropriate stimulation is to allow the driver to escape from the drowsiness, and may include anything that can stimulate at least one of the five senses of the human being, such as vibration, sound, and aroma.
도12는 진동 매개 변수 중 졸음에 관련된 변수의 변화를 도시한다. 도12에서 임의 수 20은 변수의 레벨을 나타내는 것으로서 20이 졸음의 시작을 나타내는 임계치이다. 도12에 도시된 바와 같이 운전자는 초기에 20 이상의 각성 상태를 유지하였으며, 어느 정도 시간이 흘렀을 때에 졸음 변수가 20이하로 떨어지기 시작, 즉 졸음 전조가 나타났으며, 이로부터 약 14초가 경과했을 때에 완전한 졸음 상태를 나타내 보였다.12 shows the change in the parameters related to sleepiness among the vibration parameters. In Figure 12, an arbitrary number 20 represents the level of the variable, where 20 is a threshold indicating the start of sleepiness. As shown in Fig. 12, the driver initially maintained the awakening state of 20 or more, and after a certain time, the drowsiness parameter began to fall below 20, that is, the drowsiness precursor appeared, and about 14 seconds had elapsed. At the time of complete drowsiness.
아래의 식14는 졸음을 예측하는 알고리즘을 수학적으로 표현한다. Equation 14 below mathematically expresses an algorithm for predicting sleepiness.
Figure GN48839PCT-appb-M000014
Figure GN48839PCT-appb-M000014
Ca – 얼굴 내부의 픽셀 수Ca – the number of pixels inside the face
Ii – 얼굴 내부에서 감지에 필요한 픽셀의 강도Ii – the intensity of pixels needed for detection inside the face
졸음변수 1 (SDP 1) 은 0과 1사이의 값으로 Ii의 값 (픽셀에 대한 강도) 의 총합에 따라 수치를 나타낸다. 졸음상태가 증가하면 수치가 낮아지고Drowsiness variable 1 (SDP 1) is a value between 0 and 1, representing a numerical value according to the sum of the values of Ii (intensity for pixels). As the drowsiness increases, the number decreases
각성상태가 증가하면 1에 근접한 수치를 보인다. 졸음상태를 예측하는 졸음변수 1(SDP1) 임계치는 0.2를 사용한다.As the awakening state increases, the number is close to 1. The sleepiness variable 1 (SDP1) threshold for predicting sleepiness uses 0.2.
Figure GN48839PCT-appb-M000015
Figure GN48839PCT-appb-M000015
K : 졸음변수2(SDP2) 에 대한 변화율 상수 K: Rate of change constant for sleepiness variable 2 (SDP2)
(졸음변수2 의 표준편차/졸음변수 2의 평균값)(Standard deviation of drowsiness variable 2 / mean value of drowsiness variable 2)
Figure GN48839PCT-appb-M000016
Figure GN48839PCT-appb-M000016
Wm : 좌측의 외부생체이미지의 크기Wm : Size of external biometric image on the left
Wn : 우측의 외부 생체이미지의 크기Wn : Size of external biometric image on the right
Cm : 좌측의 외부 생체이미지의 컬러 조절 크기Cm : Color control size of left external bioimage
Cn : 우측의 외부 생체이미지의 컬러 조절 크기Cn: Color control size of the external biological image on the right
N : 시간 N: time
졸음변수 2 (SDP)에 대한 변화율 상수 K는 졸음변수 2 의 표준편차(Standard Deviation of SDP 2) 를 졸음변수 2의 평균값 (Mean of SDP 2) 으로 나눈 변화율 상수로서 0.05 값을 임계치로 사용한다.The change rate constant K for drowsiness variable 2 (SDP) is a change rate constant obtained by dividing the standard deviation of the drowsiness variable 2 by the mean value of the drowsiness variable 2 (Mean of SDP 2).
위의 두 식은 And 연산에 의해 졸음 전조 여부를 평가한다.The above two expressions evaluate the drowsiness precursor by And operation.
즉, 졸음변수 1(SDP1)과 졸음변수 2 의 변화율 상수 (K)를 이용하여That is, using the rate of change constant (K) of drowsiness variable 1 (SDP1) and drowsiness variable 2
졸음변수 1(SDP 1) 의 임계치 20과 졸음변수 2 의 변화율 상수 (K) 의 임계치 0.05를 동시에 만족할 때 졸음상태 예측으로 판단한다.When the threshold 20 of the drowsiness variable 1 (SDP 1) and the threshold value 0.05 of the change rate constant (K) of the drowsiness variable 2 are satisfied at the same time, it is determined as the drowsiness state prediction.
도13은 실제 본 발명에 따른 졸음 예측 방법을 수행하는 시스템에서의 디스플레이에 나타나는 유저 인터페이스를 예시한다.Figure 13 illustrates a user interface appearing on a display in a system that actually performs the drowsiness prediction method according to the present invention.
도13에서 (a)는 졸음 예측 방법의 수행을 결정하는 메뉴 화면이며, (b)는 졸음 예측 초기화 화면이며, (c)는 졸음 예측 방법이 수행되는 상태에서의 운전자의 촬영화면을 도시한다. (c)에 된 바와 같이 동영상에서 운전자 부분만 나타나도록 그 주변은 필터링되는 마스킹이 적용되고 있다. 이러한 상태에서 운전자의 졸음이 예측되면 (d)에 도시된 바와 같은 화면과 함께 경고음향을 들려 줄 수 있다.In FIG. 13, (a) is a menu screen for determining performance of the sleepiness prediction method, (b) is a sleepiness prediction initialization screen, and (c) shows a photographing screen of the driver in a state where the sleepiness prediction method is performed. As shown in (c), masking is applied around the periphery so that only the driver part appears in the video. In this state, when the driver's drowsiness is predicted, a warning sound can be heard along with the screen as shown in (d).
도14는 운전자를 촬영하는 카메라와 LED 조명의 관계를 예시한다.14 illustrates a relationship between a camera photographing a driver and LED lighting.
도시된 바와 같이 LED 광원은 운전자의 안면부로 빛을 조사하며, 카메라는 운전자의 안면으로부터 반사된 광을 받아 들인다. 이때에 운전자의 진동 또는 움직임은 LED 광의 투시와 반사의 차이에 의한 동기화 구조로 진동수 필터링을 수행할 수 있다. As shown, the LED light source irradiates light to the driver's face, and the camera receives the light reflected from the driver's face. At this time, the vibration or movement of the driver may perform frequency filtering with a synchronization structure based on a difference between perspective and reflection of the LED light.
도15는 자동차의 룸 미러에 카메라가 설치되었을 때 운전자에 대한 화각 관계를 설명하는 도면이다. 자동차 내부 구조를 고려했을 때, 카메라의 위치는 룸미러가 최적이며, 따라서 룸 미러 자체에 카메라와 조명장치를 실장하는 것이 바람직하다. 룸 미러에 설치된 카메라는 운전자의 머리-목 부분을 촬영할 수 있도록 위치되는 것이 필요하다. 카메라의 촬영화각은 상하좌우 약 90이며, 화상의 크기는 이미지 프레임의 30% 이상이 되도록 하는 것이 바람직하다.Fig. 15 is a view for explaining an angle of view relationship with a driver when a camera is installed in a room mirror of a vehicle. Considering the internal structure of the vehicle, the position of the camera is optimal for the room mirror, and therefore, it is preferable to mount the camera and the lighting device on the room mirror itself. The camera installed in the room mirror needs to be positioned so that the driver's head-neck can be photographed. The photographing angle of the camera is about 90 at the top, bottom, left and right, and the size of the image is preferably 30% or more of the image frame.
도16은 촬영시 카메라의 진동의 영향을 최소화하기 위한 촬영 메커니즘의 일례를 설명한다.16 illustrates an example of a photographing mechanism for minimizing the influence of the vibration of the camera during photographing.
LED 광원은 펄스형태로 빛을 운전자의 머리-얼굴 부분으로 조사하며, 카메라는 상기 펄스에 동기하여 펄스 타임에만 영상을 캡쳐한다. 운전자의 머리의 진동은 아날로적이고 연속적이지만 차체의 진동은 단조롭다. 인간의 머리의 진동은 10Hz 보다 빠르기 어렵기 때문에 LED 광원의 펄스를 1 마이크로 초(micro second) 정도로 하여 다면 필터링을 적용할 수 있다. 한편, 영상에서 여전히 존재하는 진동은 소프트웨어 필터를 적용하여 감쇄시킬 수 있다.The LED light source emits light to the driver's head-face portion in the form of a pulse, and the camera captures an image only at the pulse time in synchronization with the pulse. The vibration of the driver's head is analogous and continuous, but the vibration of the body is monotonous. Since the vibration of the human head is less than 10 Hz, it is possible to apply multi-sided filtering with the pulse of the LED light source being about 1 micro second. On the other hand, the vibration still present in the image can be attenuated by applying a software filter.
한편, 카메라의 진동은 자체에 자이로 센서를 내장한 OIS(Optical Image Stabilizer) 구조를 적용함으로써 극단적으로 영상 진동을 억제할 수 있다.On the other hand, the vibration of the camera can be extremely suppressed by applying an optical image stabilizer (OIS) structure that has a built-in gyro sensor.
상기와 같은 본 발명을 실제 적용한 결과 졸음이 시작되기 전 생리적인 전조 상태에서 졸음변수의 변화 값을 탐지한 결과 11~12초 구간에서 졸음상태를 예측할 수 있는 생리적인 변화의 신호를 탐지할 수 있었고, 졸음이 시작되기 전 평균 11~12 초 전에 90% 정도의 탐지율로 운전자의 졸음을 예측할 수 있었다. As a result of applying the present invention as described above, as a result of detecting the change value of the drowsiness variable in the physiological precursor state before the start of the drowsiness, it was possible to detect the signal of the physiological change that can predict the drowsiness state in the 11-12 second period. In addition, the driver's drowsiness could be predicted with an average detection rate of 90% 11-11 seconds before the drowsiness began.
도17은 본 발명의 예측 결과와 무선뇌파 헤드셋 착용한 졸음 상태 비교 결과를 도시한다. 도시된 바와 같이 졸음 예측 수치가 가장 높은 시점(졸음 전조 시점)으로부터 약 12 후에 충돌(졸음 발생)이 일어 났음을 알 수 있다. 실험에 따르면 본 발명에 따른 졸음 발생 전 약 11.6초 전에 졸음 전조로서 눈꺼풀 감김 시점가 예측되었고, 미국 ABM 상의 무선뇌파기를 이용한 졸음 예측결과 11-12초전에 졸음 전조가 확인되었다.Figure 17 shows the result of the prediction of the present invention and the comparison of the drowsy state wearing the wireless EEG headset. As shown, it can be seen that a collision (drowsiness occurrence) occurred after about 12 from the time point when the drowsiness prediction value was the highest (drowsiness precursor time point). According to the experiment, the eyelid closure time was predicted as a drowsiness precursor about 11.6 seconds before the occurrence of drowsiness according to the present invention, and the drowsiness precursor was confirmed 11-12 seconds before the drowsiness prediction result using the wireless brain wave on the US ABM.
본 발명에 따른 운전자 졸림 예측 시스템에서, 차량의 내부 예를 들어 룸 미러에 장착된 카메라는 운전자를 촬영하고 졸음상태를 예측 탐지하는 프로그램에 의해서 획득된 정보를 차량의 IVN (In-Vehicle Network)과 연결되도록 하는 것이 가능하다. 본 발명에 따라 예측된 졸음 상태에 따라 각종의 각성 시스템이 적용될 수 있으며, 예를 들어 음향, 영상, 또는 진동이 적용될 수 있다. 즉, 차량 주행 중에 본체에 들어 있는 소프트웨어가 룸미러에 있는 카메라로부터 얻어지는 운전자에 대한 실시간 영상 정보를 가지고 본 발명에 따른 알고리즘을 수행하는 프로그램을 통해 운전자의 졸음상태를 탐지와 IVN에서 들어오는 차량 주행 정보를 종합하여 차량 운전 상태에 따라 각성상태를 유발하는 경보음, 안전벨트 조임 및 핸들 진동을 발생시켜 운전자의 졸음운전에 의한 안전사고 방지 대책을 강구할 수 있도록 연동시킬 수 있다. 이러한 본 발명에 따르면, 동영상을 기반으로 한 생체신호이미지 분석 알고리즘을 이용하여 운전자의 졸음 상태 뿐만 아니라 피로도 상태, 스트레스 상태, 우울 상태 등을 탐지할 수 있으므로 이를 이용하여 주행 상황별 운전 중 발생하는 부하 측정 기술과 접목시킬 수 있다.In the driver drowsiness prediction system according to the present invention, a camera mounted in an interior of a vehicle, for example, a room mirror, may store information obtained by a program for photographing a driver and predicting and detecting a drowsiness state with an IVN (In-Vehicle Network) of the vehicle. It is possible to be connected. According to the present invention, various arousal systems may be applied according to the predicted drowsiness state, and for example, sound, image, or vibration may be applied. In other words, the software contained in the main body detects the driver's drowsiness and enters the vehicle driving information from the IVN through a program that executes an algorithm according to the present invention with the real-time image information of the driver obtained from the camera in the room mirror while driving the vehicle. In addition, it can be interlocked to take measures to prevent safety accidents caused by drowsy driving by generating alarm sound, fastening seat belt and steering wheel vibration, which causes awakening state according to vehicle driving state. According to the present invention, it is possible to detect not only the drowsiness state of the driver, but also the fatigue state, the stress state, the depressed state, etc. by using the bio-signal image analysis algorithm based on the video, so that the load generated during driving by using the driving conditions can be detected. It can be combined with measurement technology.
본 발명은 지금까지 존재하지 않았던 기술로서, 뇌파 EEG와 실시간으로 운전자에 대한 동영상을 촬영하여 정신생리적인 반응 매개변수와의 매핑 과정을 통해서 졸음 예측 탐지 프로그램이 개발되었기 때문에 신뢰도가 매우 높은 것으로 검증되었다. 운전자를 동영상으로 촬영하여 실시간으로 졸음상태를 탐지할 수 있으며 운전자의 정신기능 상태 및 감정상태 (운전자의 피로도, 스트레스, 집중도 및 우울정도 등)를 탐지하여 운전자에게 이에 대한 정보를 제공하는 부가서비스의 확장성이 매우 높다. 이러한 본 발명은 운전자가 선글라스, 안경, 마스크, 모자 등을 착용한 상태에서도 졸음상태 탐지가 가능하기 때문에 운전자에게 제약을 주지 않는 편의성을 제공한다.The present invention is a technology that has not existed until now, since it has been proved to have a very high reliability since a drowsiness prediction detection program was developed through mapping of EEG and video of the driver in real time and mapping with psychophysiological response parameters. . It is a supplementary service that detects drowsiness status in real time by taking a video of the driver and detects the driver's mental function state and emotional state (driver's fatigue, stress, concentration and depression level) and provides the driver with information about it. Very scalable. The present invention provides convenience without limiting the driver because the driver can detect the drowsiness even when the driver wears sunglasses, glasses, a mask, a hat, or the like.
지금까지, 본원 다양한 모범적 실시 예가 설명되고 첨부된 도면에 도시되었다. 그러나, 이러한 실시 예는 단지 다양한 실시 예들의 일부임이 이해되어야 할 것이다. 다양한 다른 변형이 본 기술분야에서 통상의 지식을 가진 자에게 일어날 수 있기 때문이다.To date, various exemplary embodiments of the present disclosure have been described and illustrated in the accompanying drawings. However, it should be understood that these embodiments are only part of the various embodiments. Various other modifications may occur to those skilled in the art.

Claims (15)

  1. 카메라를 이용해 운전자로부터 동영상을 획득하는 단계;
    상기 동영상으로부터 피험자의 진동 파라미터를 측정하되, 상기 진동 파라미터에서 운전자로부터 전달되는 고유진동수를 제거하는 단계;
    상기 진동 파라미터에 기초하여 생체신호 이미지를 생성하는 단계;
    상기 생체신호 이미지를 처리하여 피험자의 정신생리학적인 반응 매개변수를 생성하는 단계; 그리고
    상기 매개 변수 중, 졸음에 상관되는 매개 변수를 추출하여 이를 이용해 운전자의 졸음을 예측하는 단계; 를 포함하는 동영상 기반 생리 신호를 이용한 졸음 검출 방법.
    Obtaining a video from a driver using a camera;
    Measuring a vibration parameter of a subject from the video, and removing the natural frequency transmitted from the driver in the vibration parameter;
    Generating a biosignal image based on the vibration parameter;
    Processing the biosignal image to generate psychophysiological response parameters of a subject; And
    Extracting a parameter related to sleepiness among the parameters and predicting sleepiness of the driver using the same; Drowsiness detection method using a video-based physiological signal comprising a.
  2. 제 1 항에 있어서,
    상기 진동 파라미터는 상기 운전자의 부위별 위치 변화에 따른 진동 주파수, 진폭 및 위상 중 적어도 어느 하나를 포함하고,
    상기 진폭의 측정값은 상기 각 부위의 위치 변화의 좌표 값으로 나타내는 것을 특징으로 하는 동영상 기반 생리 신호를 이용한 졸음 검출 방법.
    The method of claim 1,
    The vibration parameter includes at least one of a vibration frequency, an amplitude, and a phase according to a change in position of each part of the driver,
    The measurement value of the amplitude is a drowsiness detection method using a video-based physiological signal, characterized in that represented by the coordinate value of the position change of each part.
  3. 제 2 항에 있어서,
    상기 카메라에 떨림 보정이 가능한 OIS(Optical Image Stabilizer) 기술을 적용하는 것을 특징으로 하는 동영상 기반 생리 신호를 이용한 졸음 검출 방법.
    The method of claim 2,
    Drowsiness detection method using a video-based physiological signal characterized in that to apply the optical image stabilizer (OIS) technology capable of image stabilization to the camera.
  4. 제1항에 있어서,
    상기 매개 변수와 운전자로부터 얻어지는 뇌파 신호를 매칭하여 졸음에 상관되는 뇌파 신호에 매칭되는 매개 변수를 추출하는 단계;를 더 포함하는 것을 특징으로 하는 동영상 기반 생리 신호를 이용한 졸음 검출 방법.
    The method of claim 1,
    And matching the parameters with the EEG signals obtained from the driver and extracting a parameter matching the EEG signal correlated with the drowsiness. The drowsiness detection method using a video-based physiological signal further comprising.
  5. 제2항에 있어서,
    상기 매개 변수와 운전자로부터 얻어지는 뇌파 신호를 매칭하여 졸음에 상관되는 뇌파 신호에 매칭되는 매개 변수를 추출하는 단계;를 더 포함하는 것을 특징으로 하는 동영상 기반 생리 신호를 이용한 졸음 검출 방법.
    The method of claim 2,
    And matching the parameters with the EEG signals obtained from the driver and extracting a parameter matching the EEG signal correlated with the drowsiness. The drowsiness detection method using a video-based physiological signal further comprising.
  6. 제3항에 있어서,
    상기 매개 변수와 운전자로부터 얻어지는 뇌파 신호를 매칭하여 졸음에 상관되는 뇌파 신호에 매칭되는 매개 변수를 추출하는 단계;를 더 포함하는 것을 특징으로 하는 동영상 기반 생리 신호를 이용한 졸음 검출 방법.
    The method of claim 3,
    And matching the parameters with the EEG signals obtained from the driver and extracting a parameter matching the EEG signal correlated with the drowsiness. The drowsiness detection method using a video-based physiological signal further comprising.
  7. 제1항에 기재된 방법을 수행하는 졸음 검출 장치에 있어서,
    상기 운전자로부터 동영상 신호를 획득하는 카메라;
    상기 영상 데이터를 분석하여 상기 진동 파라미터를 측정하고, 상기 진동 파라미터를 추출하는 프로세서;
    상기 진동 파라미터를 이용하여 운전자의 졸음을 예측하는 분석부;
    상기 분석부로부터의 결과에 따라 운전자를 각성시키는 응용부;를 포함하는 동영상 기반 생리 신호를 이용한 졸음 검출 장치.
    In the drowsiness detection device which performs the method of Claim 1,
    A camera obtaining a video signal from the driver;
    A processor configured to analyze the image data to measure the vibration parameter and extract the vibration parameter;
    An analyzer for predicting drowsiness of the driver using the vibration parameter;
    Drowsiness detection apparatus using a video-based physiological signal comprising a; application unit for awakening the driver in accordance with the results from the analysis unit.
  8. 제7항에 있어서,
    상기 진동 파라미터는 상기 운전자의 부위별 위치 변화에 따른 진동 주파수, 진폭 및 위상 중 적어도 어느 하나를 포함하고,
    상기 진폭의 측정값은 상기 각 부위의 위치 변화의 좌표 값으로 나타내는 것을 특징으로 하는 동영상 기반 생리 신호를 이용한 졸음 검출 장치.
    The method of claim 7, wherein
    The vibration parameter includes at least one of a vibration frequency, an amplitude, and a phase according to a change in position of each part of the driver,
    The measurement value of the amplitude is a drowsiness detection apparatus using a video-based physiological signal, characterized in that represented by the coordinate value of the change in position of each part.
  9. 제7항에 있어서,
    상기 카메라에 떨림 보정이 가능한 OIS(Optical Image Stabilizer) 기술을 적용하는 것을 특징으로 하는 동영상 기반 생리 신호를 이용한 졸음 검출 장치.
    The method of claim 7, wherein
    Drowsiness detection device using a video-based physiological signal characterized in that to apply the optical image stabilizer (OIS) technology that can be shake correction to the camera.
  10. 제9항에 있어서,
    상기 매개 변수와 운전자로부터 얻어지는 뇌파 신호를 매칭하여 졸음에 상관되는 뇌파 신호에 매칭되는 매개 변수를 추출하는 것을 특징으로 하는 동영상 기반 생리 신호를 이용한 졸음 검출 장치.
    The method of claim 9,
    Drowsiness detection apparatus using a video-based physiological signal characterized in that for extracting a parameter matching the EEG signal correlated with drowsiness by matching the parameter and the EEG signal obtained from the driver.
  11. 제7항에 있어서,
    상기 매개 변수와 운전자로부터 얻어지는 뇌파 신호를 매칭하여 졸음에 상관되는 뇌파 신호에 매칭되는 매개 변수를 추출하는 것을 특징으로 하는 동영상 기반 생리 신호를 이용한 졸음 검출 장치.
    The method of claim 7, wherein
    Drowsiness detection apparatus using a video-based physiological signal characterized in that for extracting a parameter matching the EEG signal correlated with drowsiness by matching the parameter and the EEG signal obtained from the driver.
  12. 제8항에 있어서,
    상기 매개 변수와 운전자로부터 얻어지는 뇌파 신호를 매칭하여 졸음에 상관되는 뇌파 신호에 매칭되는 매개 변수를 추출하는 것을 특징으로 하는 동영상 기반 생리 신호를 이용한 졸음 검출 장치.
    The method of claim 8,
    Drowsiness detection apparatus using a video-based physiological signal characterized in that for extracting a parameter matching the EEG signal correlated with drowsiness by matching the parameter and the EEG signal obtained from the driver.
  13. 제7항에 있어서,
    상기 응용부는 상기 결과에 따라, 음향, 영상, 진동 중 적어도 어느 하나의 자극장치를 포함하는 것을 특징으로 하는 동영상 기반 생리 신호를 이용한 졸음 검출 장치.
    The method of claim 7, wherein
    The application unit drowsiness detection apparatus using a video-based physiological signal, characterized in that at least one of the stimulation device of the sound, image, vibration according to the result.
  14. 제12항에 있어서,
    상기 진동 자극 장치는 자동차의 핸들, 운전석 중 적어도 어느 일 측에 마련되는 것을 특징으로 하는 동영상 기반 생리 신호를 이용한 졸음 검출 장치
    The method of claim 12,
    The vibration stimulation device is a drowsiness detection device using a video-based physiological signal, characterized in that provided on at least one side of the steering wheel, driver's seat of the vehicle
  15. 제7항에 있어서,
    상기 응용부는 상기 결과를 표시하는 디스플레이를 더 포함하는 것을 특징으로 하는 동영상 기반 생리 신호를 이용한 졸음 검출 장치.
    The method of claim 7, wherein
    The application unit drowsiness detection apparatus using a video-based physiological signal further comprises a display for displaying the result.
PCT/KR2015/002558 2014-03-31 2015-03-17 Method and device for detecting sleepiness using moving image-based physiological signal WO2015152536A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2014-0037957 2014-03-31
KR1020140037957A KR101536348B1 (en) 2014-03-31 2014-03-31 method and apparatus for detecting drowsiness by physiological signal by using video

Publications (1)

Publication Number Publication Date
WO2015152536A1 true WO2015152536A1 (en) 2015-10-08

Family

ID=53793192

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2015/002558 WO2015152536A1 (en) 2014-03-31 2015-03-17 Method and device for detecting sleepiness using moving image-based physiological signal

Country Status (2)

Country Link
KR (1) KR101536348B1 (en)
WO (1) WO2015152536A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109902574A (en) * 2019-01-24 2019-06-18 北京元和新通科技有限公司 The high-risk personnel detection device and method of human body presentation variation measurement human body mood
WO2020044249A1 (en) * 2018-08-28 2020-03-05 (주)마인드아이 Method and device for evaluating brain fatigue by using contactless imaging system

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106618608A (en) * 2016-09-29 2017-05-10 金湘范 Device and method for monitoring dangerous people based on video psychophysiological parameters
KR101862696B1 (en) * 2016-10-24 2018-06-01 (주)락싸 Biometric data display system using actual image and computer graphics image and method for displaying thereof
WO2018147838A1 (en) * 2017-02-08 2018-08-16 Lin Zhuohua Machine learning for olfactory mood alteration
US10150351B2 (en) 2017-02-08 2018-12-11 Lp-Research Inc. Machine learning for olfactory mood alteration
JP6650118B2 (en) * 2018-03-15 2020-02-19 オムロン株式会社 Occupant monitoring device
KR102608299B1 (en) * 2019-05-02 2023-12-01 에이치엘만도 주식회사 driver assistance apparatus and CONTROL METHOD

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050115788A (en) * 2004-06-05 2005-12-08 최진관 An apparatus for obtaining data on an object and method thereof
KR20060009062A (en) * 2004-07-20 2006-01-27 최진관 An apparatus for identifying biometric information and method thereof
WO2012057646A1 (en) * 2010-10-28 2012-05-03 Общество С Ограниченной Ответственностью "Многопрофильное Предприятие "Элсис" Method for obtaining information about the psychophysiological state of a living being

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050115788A (en) * 2004-06-05 2005-12-08 최진관 An apparatus for obtaining data on an object and method thereof
KR20060009062A (en) * 2004-07-20 2006-01-27 최진관 An apparatus for identifying biometric information and method thereof
WO2012057646A1 (en) * 2010-10-28 2012-05-03 Общество С Ограниченной Ответственностью "Многопрофильное Предприятие "Элсис" Method for obtaining information about the psychophysiological state of a living being

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
HWANG, SUNG TEAC ET AL.: "Extraction of Significant Vibraimage Parameter for Evaluating Drowsiness", HCI 2013 CONFERENCE, January 2013 (2013-01-01), pages 82 - 85 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020044249A1 (en) * 2018-08-28 2020-03-05 (주)마인드아이 Method and device for evaluating brain fatigue by using contactless imaging system
CN112449579A (en) * 2018-08-28 2021-03-05 心灵之眼株式会社 Method and apparatus for assessing brain fatigue using a touchless video system
CN109902574A (en) * 2019-01-24 2019-06-18 北京元和新通科技有限公司 The high-risk personnel detection device and method of human body presentation variation measurement human body mood

Also Published As

Publication number Publication date
KR101536348B1 (en) 2015-07-14

Similar Documents

Publication Publication Date Title
WO2015152536A1 (en) Method and device for detecting sleepiness using moving image-based physiological signal
Guo et al. Detection of driver vigilance level using EEG signals and driving contexts
KR101739058B1 (en) Apparatus and method for Psycho-physiological Detection of Deception (Lie Detection) by video
US20190239795A1 (en) Emotion estimation apparatus, method, and program
JP6590411B2 (en) Kansei evaluation method
Solaz et al. Drowsiness detection based on the analysis of breathing rate obtained from real-time image recognition
JP5326521B2 (en) Arousal state determination device and arousal state determination method
KR102045569B1 (en) Appratus for controlling integrated supervisory of pilots status and method for guiding task performance ability of pilots using the same
Stemberger et al. Thermal imaging as a way to classify cognitive workload
JP6503327B2 (en) Physiological condition determination apparatus and physiological condition determination method
JP2016501048A (en) Method and apparatus for determining biological parameters
US10877444B1 (en) System and method for biofeedback including relevance assessment
US20190069832A1 (en) Determination result output device, determination result provision device, and determination result output system
Němcová et al. Multimodal features for detection of driver stress and fatigue
WO2020087494A1 (en) Video collection emotion generation method
KR101500888B1 (en) Method for obtaining information about the psychophysiological state of a living being
Abbood et al. Prediction of driver fatigue: Approaches and open challenges
JP2021118908A (en) Stress determination apparatus, program, and method
Chang et al. Real-time physiological and facial monitoring for safe driving
Matthews et al. Monitoring task fatigue in contemporary and future vehicles: a review
CN112888366A (en) Electroencephalogram analysis device, electroencephalogram analysis system, and electroencephalogram analysis program
KR101753834B1 (en) A Method for Emotional classification using vibraimage technology
JP2016146978A (en) Drowsiness detection device
Chuang et al. Dynamically weighted ensemble-based prediction system for adaptively modeling driver reaction time
KR102514577B1 (en) method and apparatus for detecting potential dangerous living being or abnormal state by using video image

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15772489

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205A DATED 03/02/2017)

122 Ep: pct application non-entry in european phase

Ref document number: 15772489

Country of ref document: EP

Kind code of ref document: A1