WO2022240215A2 - 교통 신호 관제 장치 - Google Patents

교통 신호 관제 장치 Download PDF

Info

Publication number
WO2022240215A2
WO2022240215A2 PCT/KR2022/006830 KR2022006830W WO2022240215A2 WO 2022240215 A2 WO2022240215 A2 WO 2022240215A2 KR 2022006830 W KR2022006830 W KR 2022006830W WO 2022240215 A2 WO2022240215 A2 WO 2022240215A2
Authority
WO
WIPO (PCT)
Prior art keywords
occupant
information
area
vehicle
emergency
Prior art date
Application number
PCT/KR2022/006830
Other languages
English (en)
French (fr)
Other versions
WO2022240215A3 (ko
Inventor
손승희
Original Assignee
손승희
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020210062885A external-priority patent/KR102536711B1/ko
Priority claimed from KR1020210091058A external-priority patent/KR20230010467A/ko
Application filed by 손승희 filed Critical 손승희
Publication of WO2022240215A2 publication Critical patent/WO2022240215A2/ko
Publication of WO2022240215A3 publication Critical patent/WO2022240215A3/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/07Controlling traffic signals
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/095Traffic lights
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0965Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages responding to signals from another vehicle, e.g. emergency vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Definitions

  • the present invention relates to a traffic signal control device, and more particularly, to a traffic signal control device for providing a method of outputting information indicating an emergency situation to a pedestrian traffic light nearby an emergency vehicle.
  • the present invention relates to an electronic device, and more specifically, to select a dangerous area in an area near the electronic device based on the color of a light source and the type of a detected object, so that the dangerous area is accurately and quickly selected and placed in the dangerous area.
  • the present invention relates to an autonomous vehicle, and more particularly, to an autonomous vehicle for diagnosing myocardial infarction of a passenger and controlling the autonomous vehicle to perform autonomous driving to a hospital.
  • emergency vehicles are dispatched when an emergency occurs and an emergency occurs.
  • the emergency vehicle tries to drive on the road as quickly as possible, and accordingly, the pedestrian traffic light must maintain a red light on the path along which the emergency vehicle passes.
  • the present invention was derived from the above-described need, and in a complicated and noisy road situation, a pedestrian can clearly determine and respond to an emergency situation by receiving information indicating an emergency situation, and thus a safer transportation system. Its purpose is to make it manageable.
  • the present invention also smartly improves the traffic lights that always exist on the road, accurately identifies objects located close to the traffic lights with only the traffic lights without the help of other devices or servers, and easily provides warning information to objects entering the danger zone.
  • the purpose is to provide a method that can provide.
  • Another object of the present invention is to provide a method for saving the life of an occupant by enabling the occupant to be quickly transported to a hospital even when a myocardial infarction occurs in an autonomous vehicle occupant.
  • the purpose is to further improve the accuracy of diagnosing myocardial infarction of the occupant even in the environment of a vehicle running on the road.
  • a traffic signal control device includes a location determination unit for determining the location of an emergency vehicle; and control so that walking impossible information is output to an area indicating walking impossible information of a pedestrian traffic light nearby the emergency vehicle, and information indicating an emergency situation related to the emergency vehicle is output to an area surrounding the area indicating the walking impossible information. and a traffic light management unit that transmits a traffic signal control command to the traffic light controller.
  • a traffic signal control device includes a location determining unit for determining a location of an emergency vehicle; and a signal control unit that transmits a traffic signal control command to a traffic light controller so that information representing an emergency situation related to the emergency vehicle is overlapped and outputted together with information indicating that walking is impossible in a region indicating that walking is impossible of a pedestrian traffic light adjacent to the emergency vehicle. ; can be included.
  • a traffic signal control device includes a location determining unit for determining a location of an emergency vehicle; Control so that walking impossible information is output in a first area of the area indicating walking impossible information of a pedestrian traffic light nearby the emergency vehicle, and information indicating an emergency situation related to the emergency vehicle in a second area of the area indicating the walking impossible information It may include; a signal control unit that transmits a traffic signal control command for controlling output to a traffic light controller.
  • a traffic signal control device includes a location determination unit for determining the location of an emergency vehicle; and a signal control unit for transmitting a traffic signal control command to a traffic light controller so that information indicating an emergency situation related to the emergency vehicle is output to a region indicating walking impossibility information of a pedestrian traffic light adjacent to the emergency vehicle. can do.
  • a traffic signal control device includes a location determination unit for determining the location of an emergency vehicle; Control so that walking impossible information is output to an area indicating walking impossible information of a pedestrian traffic light nearby the emergency vehicle, and information indicating an emergency situation related to the emergency vehicle is output to an area showing walking possible information of the pedestrian traffic light It may include; a signal controller for transmitting a traffic signal control command to a traffic light controller.
  • a traffic signal control device includes a location determination unit for determining the location of an emergency vehicle; A signal control unit that transmits a traffic signal control command to the traffic light controller so that information indicating an emergency situation related to the emergency vehicle is output to each of the areas indicating pedestrian prohibition information and the area indicating walkability information of a pedestrian traffic light nearby the emergency vehicle. ; can be included.
  • the traffic light management unit may transmit the traffic signal control command to the traffic light controller, which controls information indicating the emergency situation to be output by reflecting information on the degree of urgency of the passage of the emergency vehicle.
  • the information indicating the emergency situation may be at least one of the emergency occurrence notification information, the type of emergency vehicle, the speed of the emergency vehicle, a moving direction, and a standby time.
  • the information indicating the emergency situation may be output in at least one of a blinking type, an icon, and a text type.
  • the traffic signal control command may be controlled to output voice information together.
  • It may further include a terminal management unit that transmits the traffic signal control command to a terminal near the pedestrian traffic light.
  • An electronic device includes a light source
  • an object detection unit configured to detect a first object present in a nearby area of the electronic device
  • an alarm unit for outputting alarm information
  • Identifying the color of the light source and the detected first object changing and recognizing a danger area from an area of the image corresponding to a nearby area of the electronic device based on the identification information, and recognizing a different area from the first object. and a controller configured to control the alarm unit to output the alarm information when it is determined that the second object has entered the danger area.
  • the object detection unit includes at least one of a LiDAR sensor and a camera acquiring the image
  • the control unit controls the driving unit
  • the danger area may be changed and recognized from an area of the image corresponding to an area near the electronic device using at least one of point map data obtained from the lidar sensor and the image.
  • the crosswalk area may be changed to the danger area and recognized.
  • the risk area may be changed and recognized based on the remaining traversing time of the person.
  • the control unit controls the driving unit
  • the color of the lighting source is green and the first object present in the area near the electronic device recognized from the image is a vehicle, a part of at least one of the crosswalk area and the driveway area is changed to the danger area Recognizable.
  • the control unit controls the driving unit
  • the danger area may be changed and recognized based on the driving lane of the vehicle.
  • the control unit controls the driving unit
  • At least one of the size, number, and location of the risk area may be changed and recognized.
  • the control unit controls the driving unit
  • the alarm unit may be controlled to output different types of alarm information according to the type of the first object.
  • the control unit controls the driving unit
  • the alarm information may be provided to a peripheral device.
  • a camera for capturing an occupant and generating an occupant image
  • a control unit for diagnosing that the occupant has myocardial infarction and controlling the self-driving vehicle to autonomously drive to a hospital.
  • the control unit performs inference to output the myocardial infarction diagnosis information from the occupant image using a myocardial infarction analysis model
  • the myocardial infarction analysis model may be generated by performing deep learning to output myocardial infarction diagnosis information from an occupant image using convolutional neural networks (CNNs).
  • CNNs convolutional neural networks
  • the control unit controls the driving unit
  • the control unit controls the driving unit
  • the self-driving vehicle may be controlled to perform the autonomous driving to the most suitable hospital among hospitals specializing in myocardial infarction, hospitals equipped with spare beds, and hospitals closest to the current location.
  • the control unit controls the driving unit
  • the self-driving vehicle may be controlled to autonomously drive to the hospital by further referring to a matching rate between the occupant's voice detection result and the moaning sound of a foreign person pre-stored in the storage unit.
  • An autonomous vehicle includes a seat belt having a built-in heart rate sensor arranged to correspond to a heart region of an occupant and measuring a heart rate of the occupant;
  • control unit for diagnosing that the occupant has myocardial infarction by using both the heart rate measurement result and the body pressure measurement result, and controlling the self-driving vehicle to autonomously drive to a hospital.
  • the control unit controls the driving unit
  • the heart rate sensor When it is determined that the occupant is tilted to one side as a result of measuring the body pressure, the heart rate sensor may be controlled to operate.
  • a portion of the seat belt corresponding to the heart of the occupant may be made of a conductive material.
  • An autonomous vehicle includes a seat belt composed of an acceleration sensor and a gyro sensor and having a built-in motion sensor for measuring the degree of motion of an occupant;
  • control unit for diagnosing that the occupant has myocardial infarction by using both the result of measuring the degree of motion and the result of measuring the body pressure, and controlling the self-driving vehicle to autonomously drive to a hospital.
  • An autonomous vehicle includes a seat belt composed of an acceleration sensor and a gyro sensor and having a built-in motion sensor for measuring the degree of motion of an occupant;
  • a radar sensor that emits electromagnetic waves to the heart of the occupant and measures electromagnetic waves reflected from the occupant
  • control unit for diagnosing that the occupant has myocardial infarction by using both the motion degree measurement result and the electromagnetic wave measurement result, and controlling the self-driving vehicle to autonomously drive to a hospital.
  • the control unit controls the driving unit
  • the radar sensor may be controlled to operate.
  • the control unit controls the driving unit
  • the self-driving vehicle may be controlled to perform the self-driving to a hospital equipped with spare beds.
  • the control unit controls the driving unit
  • the self-driving vehicle may be controlled to perform the self-driving to a hospital selected by another occupant among a hospital specializing in myocardial infarction, a hospital with spare beds, and a hospital closest to the current location.
  • the control unit controls the driving unit
  • the severity of the myocardial infarction is further diagnosed, and based on the diagnosis result of the severity of the myocardial infarction, the self-driving vehicle selects the most suitable hospital among a hospital specializing in myocardial infarction, a hospital equipped with spare beds, and a hospital closest to the current location. It can be controlled to perform autonomous driving.
  • the control unit controls the driving unit
  • the self-driving vehicle may be controlled to autonomously drive to the hospital.
  • a pedestrian in a complicated and noisy road situation, a pedestrian can clearly determine and respond to an emergency situation by receiving information indicating an emergency situation, thereby enabling safer traffic system management.
  • the traffic light can more quickly and accurately identify the danger zone.
  • the danger zone can be more accurately identified.
  • the self-driving vehicle 1'' determines an appropriate hospital according to the severity of myocardial infarction, so that the patient can receive treatment at a hospital tailored to the patient's condition.
  • the present invention it is possible to diagnose myocardial infarction by using both image information and audio information of the occupant, thereby increasing the accuracy of the diagnosis.
  • the heart rate sensor 40'' does not normally operate, but the heart rate sensor 40'' operates only when the degree of tilt of the occupant to one side exceeds a predetermined threshold, thereby consuming power. can be reduced, and the precision of diagnosis can be further improved by diagnosing myocardial infarction by using both the degree of inclination and the heart rate measurement result.
  • the occupant is diagnosed as having myocardial infarction only when both the motion sensor 60'' measurement result and the pressure sensor 50'' measurement result indicate that the occupant has myocardial infarction, so that the accuracy of diagnosis is realized. can be further improved.
  • FIG. 1 is a system diagram of a traffic signal control system according to an embodiment.
  • FIG. 2 is a block diagram of a traffic signal control device according to an embodiment.
  • 3 and 4 are examples of information output to a traffic light according to a traffic signal control command according to an embodiment.
  • FIG. 5 is a block diagram illustrating an electronic device 1' and a peripheral device 2' according to an embodiment.
  • FIGS. 7 and 8 are referenced to describe the operation of the electronic device 1'.
  • FIG. 9 is a block diagram of an autonomous vehicle 1'' according to an embodiment.
  • FIG. 10 is a diagram for explaining a process of outputting myocardial infarction through an artificial intelligence-based myocardial infarction analysis model according to an embodiment.
  • FIG. 11 is a diagram referenced to describe a heart rate sensor 40'' and a pressure sensor 50'' according to an embodiment.
  • FIG. 1 is a system diagram of a traffic signal control system according to an embodiment
  • FIG. 2 is a block diagram of a traffic signal control device 2 according to an embodiment.
  • the traffic signal control system is a communication between an emergency vehicle 1, a traffic signal control device 2, a traffic light controller 3, a traffic light 4, and a terminal 5. It is done.
  • the emergency vehicle 1 may be an autonomous vehicle capable of transmitting and receiving data to and from the traffic signal control device 2 .
  • the emergency vehicle 1 may transmit current location information to the traffic signal control device 2 using a location transmitter (not shown), or the traffic signal control device 2 may directly grasp the location information of the emergency vehicle 1. have.
  • the traffic signal control device 2 determines the location of the emergency vehicle 1 through the location determination unit 21 and controls the traffic signal control command to control the contents output to the pedestrian traffic lights 4 nearby the emergency vehicle 1. can be generated and transmitted to the traffic light controller 3.
  • the traffic signal control device 2 may transmit a traffic signal control command for controlling output of information indicating an emergency situation related to the emergency vehicle 1 to the traffic light controller 3 through the traffic light management unit 22 .
  • the traffic signal control device 2 may also transmit a traffic signal control command for controlling output of information indicating an emergency situation related to the emergency vehicle 1 through the terminal management unit 23 to the pedestrian terminal 51 .
  • the traffic light controller 3 may control the traffic light 4 based on the traffic signal control command received from the traffic signal control device 2 .
  • the traffic light controller 3 may transmit the traffic signal control command received from the traffic signal control device 2 to the pedestrian terminal 51 .
  • 3 and 4 are examples of information output to the traffic light 4 according to a traffic signal control command according to an embodiment.
  • the traffic light 4 may include an area 41 indicating information about not being able to walk and an area 42 indicating information about being able to walk.
  • Figure 3 (a) shows that the area 41 indicating walking impossible information is activated and walking is impossible, and FIG. indicate
  • the area 41 indicating walking impossibility information of FIG. 3 (a) is activated in a first color (eg> red), and the area 42 indicating walkability information is activated in a second color (eg> green). indicates that
  • an area 41 (hereinafter referred to as a first area) indicating information on walking impossibility is disposed above the traffic light 4, and an area 42 indicating walkable information (hereinafter referred to as a second area).
  • a first area indicating information on walking impossibility
  • an area 42 indicating walkable information hereinafter referred to as a second area.
  • the present invention can be equally/similarly applied even when the regions 41 and 42 are rectangular, hexagonal, etc., the shapes of the regions 41 and 42 are different from each other, or implemented in a combination different from the above colors. .
  • the traffic light management unit 22 reports an emergency situation to a pedestrian traffic light 4 nearby the emergency vehicle 1.
  • a traffic signal control command for controlling the output of the indicated information may be transmitted to the traffic light controller 3.
  • information indicating an emergency situation is defined as image information output to the display unit 4a of the traffic light 4.
  • the traffic light management unit 22 stores information indicating an emergency situation in advance in a storage unit (not shown), reads information indicating an emergency situation matched to the current emergency situation from the storage unit (not shown), and controls the traffic light controller (not shown). 3) can be sent.
  • the traffic signal control command may be generated as a control signal to output audio information together with information indicating an emergency situation.
  • the first area 41 is activated (turned on), information on walking is disabled is output, and the emergency vehicle (in the area surrounding the first area 41) It may be to control information indicating an emergency situation related to 1) to be output.
  • the second region 42 may be inactivated (turned off).
  • Information representing an emergency situation may be output in at least one of a) blinking form, b) icon form, and c) text form.
  • the icon according to the embodiment may be pre-stored in a form in which emergency information such as an emergency vehicle shape, an exclamation mark shape, and a shape of fire can be recognized at a glance.
  • the shape of the emergency vehicle may be output differently for each type of vehicle.
  • each of a fire engine shape, a police car shape, and an ambulance shape may be differently stored in advance and then output.
  • icons in the shape of an emergency vehicle are output in a state in which they are spaced apart from each other by a predetermined interval in the area surrounding the first area 41, or in the case of c), each text constituting a sentence (“It is an emergency”) is output. It may be output in a state of being arranged spaced apart from each other by a predetermined interval in the area surrounding the first area 41 .
  • the information indicating the emergency situation may be implemented in a form that lasts for a predetermined time or some information is sequentially output.
  • all blinkers/all icons/full text may be continuously output together for a predetermined time, or some blinkers/some icons/some text may be sequentially output.
  • blinkers/some icons/some text when sequentially output, they may be output clockwise or counterclockwise as time elapses.
  • At least a part of each of a) to c) described above may be output in a combined form.
  • Information representing an emergency situation may be at least one of emergency occurrence notification information, a type of emergency vehicle, a moving speed of the emergency vehicle, a moving direction, and a standby time.
  • each vehicle may have a different icon shape.
  • the traffic light management unit 22 reflects the information on the degree of traffic urgency of the emergency vehicle 1 to generate and output the traffic signal control command to output the information indicating the emergency situation to the traffic light controller ( 3) can be sent.
  • the traffic light management unit 22 may generate a traffic signal control command so that voice information reflecting information on the degree of urgency of passage of the emergency vehicle 1 is also output.
  • Information on the degree of urgency of passage of the emergency vehicle 1 may be referred to by being divided into levels such as high/medium/low.
  • Information on the degree of urgency of passage of the emergency vehicle 1 may be received and referred to from any one of a separate connection server (not shown), the emergency vehicle 1, and the emergency vehicle occupant terminal 52.
  • the traffic light management unit 22 refers to the information on the degree of traffic urgency and at least one of the brightness, size, duration, number, and output speed of at least one of the blinker type/emergency vehicle icon/text shape. It is possible to generate information indicating an emergency situation by adjusting.
  • the traffic light management unit 22 confirms that the traffic urgency level of the emergency vehicle 1 is relatively 'high' level from the hospital server (not shown), and accordingly Accordingly, it is possible to generate a control command to output information in the form of a flicker in terms of brightness 'phase', size 'phase', and duration 'phase'.
  • the traffic light management unit 22 confirms that the traffic urgency level of the emergency vehicle 1 is relatively 'medium' level from the crime management server (not shown), and accordingly It is possible to generate a control command so that the size of the police car-shaped icon is 'medium', the number is 'medium', and the output speed is 'medium'.
  • the traffic light management unit 22 adjusts at least one of the volume and duration of the voice information with reference to the information on the degree of traffic urgency and outputs the traffic signal control command together with the display information indicating the emergency situation.
  • the corresponding volume when the traffic urgency level is 'high' level, the corresponding volume can be controlled to be output at about 100 decibels for about 5 seconds, and when the traffic urgency level is 'medium' level, the corresponding volume level can be controlled. It can be controlled to output for about 2 seconds at about 50 decibels.
  • the terminal manager 23 may receive a traffic signal control command from the traffic light manager 22 and control output to the pedestrian terminal 51 .
  • a traffic signal control command for controlling display information indicating an emergency situation and/or audio information to be output together with walking disabled information can be transmitted through an app of the pedestrian terminal 51 located near the pedestrian traffic light 4.
  • the pedestrian in a complicated and noisy road situation, by receiving the information from the pedestrian terminal 51, the pedestrian can clearly determine and respond to an emergency situation, thereby enabling safer traffic system management.
  • Embodiment 2 relates to (b) of FIG. 4 , and contents not described below may be applied in the same/similar manner to those described in Embodiment 1.
  • the traffic signal control command activates the first area 41 and outputs information related to the emergency vehicle 1 on the first area 41. It may be controlled so that information representing an emergency situation is overlapped and outputted together. At this time, the second region 42 may be deactivated (turned off).
  • Information representing an emergency situation may be output in at least one of a) blinking form, b) icon form, and c) text form.
  • an emergency vehicle-shaped icon or an exclamation mark-shaped icon is overlapped and output in the center of the first area 41, or in case c), some of each text constituting a sentence (“It is an emergency”) ( “Emergency”) may be overlapped and output in the center of the first area 41 .
  • the information indicating the emergency situation may be implemented in a form that lasts for a predetermined time or some information is sequentially output.
  • At least a part of each of a) to c) described above may be output in a combined form.
  • the traffic light management unit 22 refers to the information on the degree of traffic urgency and at least one of the brightness, size, duration, number, and output speed of at least one of the blinker type/emergency vehicle icon/text shape. It is possible to generate information indicating an emergency situation by adjusting.
  • the traffic light management unit 22 confirms that the traffic urgency level of the emergency vehicle 1 is relatively 'high' level from the hospital server (not shown), and accordingly Accordingly, a control command may be generated to output an overlapping icon in the central portion of the first region 41 in a brightness 'up', a size 'up', and a duration 'up'.
  • the traffic light management unit 22 confirms that the traffic urgency level of the emergency vehicle 1 is relatively 'medium' level from the crime management server (not shown), and accordingly A control command may be generated so that the size of the police vehicle-shaped icon that is overlapped and output in the central portion of the first region 41 is output with 'medium' size and 'medium' duration.
  • Embodiment 3 relates to (c) of FIG. 4 , and contents not described below may be applied in the same/similar manner to those described in Embodiment 1.
  • the traffic signal control command activates the first area 41, outputs walking disabled information to a first partial area of the first area 41, and It may be controlled so that information indicating an emergency situation related to the emergency vehicle 1 is also output to the second partial area of (41).
  • the first partial area and the second part are different areas, and may be areas divided in equal proportions to each other within the first area 41 .
  • the second region 42 may be deactivated (turned off).
  • Information representing an emergency situation may be output in at least one of a) blinking form, b) icon form, and c) text form.
  • the information indicating the emergency situation may be implemented in a form that lasts for a predetermined time or some information is sequentially output.
  • At least a part of each of a) to c) described above may be output in a combined form.
  • the traffic light management unit 22 refers to the information on the degree of traffic urgency and at least one of the brightness, size, duration, number, and output speed of at least one of the blinker type/emergency vehicle icon/text shape. It is possible to generate information indicating an emergency situation by adjusting.
  • the traffic light management unit 22 confirms that the traffic urgency level of the emergency vehicle 1 is relatively 'high' level from the hospital server (not shown), and accordingly Accordingly, a control command may be generated so that the icon output to the second partial area of the first area 41 is output in 'upper' brightness, 'upper' size, and 'upper' duration.
  • the traffic light management unit 22 confirms that the traffic urgency level of the emergency vehicle 1 is relatively 'medium' level from the crime management server (not shown), and accordingly A control command may be generated so that the size of the police vehicle-shaped icon output to the second partial area of the first area 41 is output in 'medium' and the duration is 'medium'.
  • Embodiment 4 relates to (d) of FIG. 4 , and contents not described below may be applied in the same/similar manner to those described in Embodiment 1.
  • the traffic signal control command may control outputting only information indicating an emergency situation related to the emergency vehicle 1 to the first area 41 .
  • the walking disabled information may not be output to the first area 41, and the second area 42 may be deactivated (turned off).
  • Information representing an emergency situation may be output in at least one of a) blinking form, b) icon form, and c) text form.
  • the information indicating the emergency situation may be implemented in a form that lasts for a predetermined time or some information is sequentially output.
  • At least a part of each of a) to c) described above may be output in a combined form.
  • the traffic light management unit 22 refers to the information on the degree of traffic urgency and at least one of the brightness, size, duration, number, and output speed of at least one of the blinker type/emergency vehicle icon/text shape. It is possible to generate information indicating an emergency situation by adjusting.
  • the traffic light management unit 22 confirms that the traffic urgency level of the emergency vehicle 1 is relatively 'high' level from the hospital server (not shown), and accordingly According to this, it is possible to generate a control command to output the icon output in the center of the first region 41 in a 'upper' brightness, 'upper' size, and 'upper' duration.
  • the traffic light management unit 22 confirms that the traffic urgency level of the emergency vehicle 1 is relatively 'medium' level from the crime management server (not shown), and accordingly A control command may be generated so that the police vehicle-shaped icon output in the center of the first region 41 is output with a size of 'medium' and a duration of 'medium'.
  • Embodiment 5 relates to (e) of FIG. 4 , and contents not described below may be applied in the same/similar manner to those described in Embodiment 1.
  • the traffic signal control command activates the first area 41 and outputs walking disabled information, and the second area 42 displays an emergency related to the emergency vehicle 1. It may be to control information indicating a situation to be output.
  • Information representing an emergency situation may be output in at least one of a) blinking form, b) icon form, and c) text form.
  • an icon in the shape of an emergency vehicle or an exclamation mark is output in the center of the second area 42, or in case of c), a part of each text constituting a sentence (“It is an emergency”) (“Emergency”) ”) may be output at the center of the second region 42 .
  • the information indicating the emergency situation may be implemented in a form that lasts for a predetermined time or some information is sequentially output.
  • At least a part of each of a) to c) described above may be output in a combined form.
  • the traffic light management unit 22 refers to the information on the degree of traffic urgency and at least one of the brightness, size, duration, number, and output speed of at least one of the blinker type/emergency vehicle icon/text shape. It is possible to generate information indicating an emergency situation by adjusting.
  • the traffic light management unit 22 confirms that the traffic urgency level of the emergency vehicle 1 is relatively 'high' level from the hospital server (not shown), and accordingly According to this, it is possible to generate a control command to output the icon displayed in the center of the second area 42 in a 'upper' brightness, 'upper' size, and 'upper' duration.
  • the traffic light management unit 22 confirms that the traffic urgency level of the emergency vehicle 1 is relatively 'medium' level from the crime management server (not shown), and accordingly A control command may be generated so that the size of the police vehicle-shaped icon output to the central portion of the second region 42 is output to 'medium' and the duration to be 'medium'.
  • Embodiment 6 relates to (f) of FIG. 4 , and contents not described below may be applied in the same/similar manner to those described in Embodiment 1.
  • the traffic signal control command activates the first area 41 and outputs information about not walking, and is applied to both the first area 41 and the second area 42.
  • Information indicating an emergency situation related to the emergency vehicle 1 may be controlled to be output.
  • the same type of emergency information may be output to each of the first area 41 and the second area 42, and information indicating a different type of emergency may be output according to another embodiment. It can be.
  • Information representing an emergency situation may be output in at least one of a) blinking form, b) icon form, and c) text form.
  • an icon in the shape of an emergency vehicle or an exclamation mark is overlapped and output in the center of the first area 41, and a sentence such as c) (“waiting for an ambulance” is displayed in the center of the second area 42). Time 3 sec..”) can be output.
  • the information indicating the emergency situation may be implemented in a form that lasts for a predetermined time or some information is sequentially output.
  • At least a part of each of a) to c) described above may be output in a combined form.
  • the traffic light management unit 22 refers to the information on the degree of traffic urgency and at least one of the brightness, size, duration, number, and output speed of at least one of the blinker type/emergency vehicle icon/text shape. It is possible to generate information indicating an emergency situation by adjusting.
  • the degree of adjustment of the elements for the information indicating the emergency included in the first area 41 and the degree of adjustment of the elements for the information indicating the emergency included in the second area 42 can be different
  • the traffic light management unit 22 confirms that the traffic urgency level of the emergency vehicle 1 is relatively 'high' level from the hospital server (not shown), and accordingly Accordingly, the brightness of the text output to the center of the second area 42 is controlled to be output as 'upper' brightness, 'upper' size, and 'upper' duration of the icon output in the center of the first area 41. ', size 'high', duration 'medium' commands can be created.
  • the traffic light management unit 22 confirms that the traffic urgency level of the emergency vehicle 1 is relatively 'medium' level from the crime management server (not shown), and accordingly The brightness and size of the text output to the center of the second area 42 is controlled to be output at 'medium' size and 'medium' duration of the police vehicle shape icon output at the center of the first area 41. You can create 'medium', duration 'low' commands.
  • Embodiment 6 information indicating an emergency situation is displayed on both the first area 41 and the second area 42, so that information on an emergency situation can be received more accurately, and also composed of texts. Even if long sentence information is output, there is an advantage in that visibility is improved.
  • FIG. 5 is a block diagram illustrating an electronic device 1' and a peripheral device 2' according to an embodiment.
  • the electronic device 1' includes a light source 10', an object detection unit 20', an alarm unit 30', a control unit 40', and a communication unit 50'. , and a storage unit 60'.
  • the electronic device 1' may refer to all types of devices capable of outputting light and detecting objects, and may be representatively exemplified by traffic lights, but the scope of the present invention is not limited thereto. don't
  • the electronic device 1' may include traffic lights for pedestrians and traffic lights for vehicles.
  • the light source 10' provides light to be output from the electronic device 1' and may include an LED.
  • the light source 10' can output light by selecting red, yellow, or green.
  • the light source 10' can be turned on/off under the control of the controller 40'.
  • the object detection unit 20' detects an object located in a nearby area of the electronic device 1' by sensing environmental information around the electronic device 1', and generates object information based on the sensing data;
  • the generated object information may be transmitted to the control unit 40'.
  • the objects may include various objects existing around the electronic device 1', for example, people, vehicles, animals, and the like.
  • the object detection unit 20' may include a camera 21', a lidar sensor 22', an ultrasonic sensor, a radar sensor, an infrared sensor, and the like.
  • the alarm unit 30' is for outputting alarm information and may include an audio output unit 31', an image output unit 32', and an optical output unit 33'.
  • the control unit 40' controls the overall operation of each component constituting the electronic device 1'.
  • the communication unit 50' is in charge of data transmission/reception with the peripheral device 2'.
  • the communication unit 50' may perform communication with the peripheral device 2' within a predetermined long/short distance.
  • the storage unit 60' stores all types of information necessary for the operation of the electronic device 1', and the control unit 40' reads the information stored in the storage unit 60' to operate the electronic device 1'. You can control it.
  • the peripheral device 2' may include a device such as a mobile terminal owned by a person communicating with the electronic device 1', a device owned by a general vehicle, an autonomous vehicle, or a vehicle occupant.
  • the peripheral device 2' may receive and output alarm information transmitted from the electronic device 1'.
  • FIG. 6 illustrates an operation of the electronic device 1' according to an embodiment
  • FIGS. 7 to 8 are diagrams referenced to describe the operation of the electronic device 1'.
  • the control unit 40' may determine the color of the light source 10' that is turned on (S21').
  • the control unit 40' can determine whether the color of the light source 10' that is turned on corresponds to any color among red, green, and yellow.
  • control unit 40' may identify the first object detected by the object detection unit 20' existing in the area near the electronic device 1' (S22').
  • At least one of the type, location, and size of the detected first object may be identified.
  • the controller 40' may identify whether the first object detected by the object detector 20' is a person or a vehicle.
  • the controller 40' may identify the detected first object by using the image data obtained from the camera 21' and the point map data obtained from the lidar sensor 22' together. .
  • control unit 40' identifies the first object detected primarily using the point map data obtained from the lidar sensor 22', and uses the image data obtained from the camera 21' again. Thus, the same object can be identified secondarily.
  • the detected first object may be an object designated in advance to be detected.
  • the lidar sensor 22' and the camera 21' together to identify an object the accuracy of object recognition can be further improved.
  • the control unit 40' may generate identification information in which the determined color of the light source 10' and information identifying the first object detected through the object detection unit 20' are combined (S23').
  • the danger area may be changed and set from the area of the image data acquired from the camera 21' corresponding to the area near the actual electronic device (S24').
  • the control unit 40' uses the image data obtained from the camera 21' and the point map data obtained from the lidar sensor 22' together, and the image data corresponding to the area near the actual electronic device 1'
  • the risk area can be set from the area of
  • the controller 40' may obtain point cloud map data, which is a set of points representing a 3D shape, from the lidar sensor 22'.
  • the control unit 40' primarily identifies a risk area in an area on the point cloud map data corresponding to an area near the actual electronic device 1', and the point cloud map data corresponding to the area near the actual electronic device 1'.
  • An area on the image data may be identified corresponding to an area on the image, and a dangerous area on the image data may be re-identified secondarily in correspondence to the risk area on the point cloud map data.
  • an area and a danger area on the point cloud map data corresponding to an area near the actual electronic device 1', and an area and a danger area on the corresponding image data are preset in the storage unit 60', respectively. It may be a stored area.
  • the accuracy of area recognition can be further improved.
  • control unit 40' can change and recognize the danger area by using both the image data obtained from the camera 21' and the point map data obtained from the lidar sensor 22'.
  • the control unit 40' sets the danger area by using the image data obtained from the camera 21' and the point map data obtained from the lidar sensor 22' together, and the light source to turn on. Based on the color of (10') and the type of object detected through the object detection unit 20', the danger area is changed again from the area of the image data obtained from the camera 21' in response to the area near the actual electronic device. Recognizable.
  • the danger zone is defined as a safety zone for a first object and a zone for preventing a second object different from the first object from entering the danger zone, that is, forbidding the entry of the second object. can do.
  • the area of image data obtained from the camera 21' corresponding to the area near the actual electronic device and the danger area may be preset and stored in the storage unit 60'.
  • the danger zone is mapped to identification information and set in advance in the storage unit 60', and the danger zone can be changed and recognized in response to the read identification information.
  • the area on the image data corresponding to the area near the actual electronic device 1' includes a crosswalk area (A), a sidewalk area (B), a roadway area (C), and the like, as shown in FIG. can include
  • the danger area is a region of interest of the electronic device 1', and may correspond to at least a portion selected from a crosswalk area (A), a sidewalk area (B), and a driveway area (C), or a portion of each area.
  • FIG. 7 illustrates a case where the electronic device 1' is a pedestrian electronic device, the color of the light source 10' turning on is green (shaded black portion) and the detected object is a person (zigzag pattern).
  • the crosswalk area (A) based on this is recognized as a danger area (gray shaded portion). That is, in the case of (a), the pedestrian electronic device predicts that a person will be located on the crosswalk area A in green color, and a second object other than the person (eg> vehicle) crosswalk area A In order to prohibit entry into the crosswalk area (A) can be set as a danger area.
  • the range of the second object for prohibiting entry into the danger area may be preset and stored in correspondence with the first object.
  • dogs, bicycles, etc. may not be objects subject to entry prohibition, and motorcycles, vehicles, etc. may be set as objects subject to entry prohibition.
  • the controller 40' may determine if the color of the light source 10' of the pedestrian electronic device is green and the object existing in the area near the electronic device 1' recognized from the image is a person, The risk area may be changed and recognized based on the remaining traversing time of the person.
  • the control unit 40' calculates the remaining crossing time of the person, and calculates the remaining crossing time differently according to the point where the person is located in the crosswalk area (A). Therefore, the risk area can be changed and recognized accordingly. For example, a danger area when the remaining traversing time is relatively long and a danger area when the remaining traversing time is relatively short may be recognized differently.
  • FIG. 7(a) and FIG. 8(a) when a person crosses in the direction of the arrow, FIG. is calculated as 10 seconds, and accordingly, the entire crosswalk area (A) can be recognized as a danger area (gray shaded area).
  • the size of a portion of the crosswalk area A which is a danger area, may be recognized in proportion to the remaining crossing time.
  • FIG. 7 illustrates a case where the electronic device 1' is an electronic device for a vehicle, and when the color of the light source 10' that turns on is green (shaded in black) and the detected object is a vehicle. , it is exemplified that some of the areas including the roadway area (C) and the crosswalk area (A) based on this are recognized as a danger area (gray shaded area).
  • the in-vehicle electronic device predicts that the vehicle will be located in some of the areas including the roadway area (C) and the crosswalk area (A) in green, and other second objects other than the corresponding vehicle ( Ex> People, motorcycles, etc.) can be set as a dangerous area to prohibit entry into the area.
  • the range of the second object for prohibiting entry into the danger area may be preset and stored in correspondence with the first object.
  • control unit 40' may change and recognize the danger area based on the driving speed of the vehicle.
  • control unit 40' may determine the driving speed of the vehicle and calculate the size of the danger area in proportion to the determined driving speed. That is, if the driving speed of the vehicle is relatively fast, the size of the danger zone may be calculated to be relatively large, and if the driving speed of the vehicle is relatively slow, the size of the danger zone may be calculated to be relatively small.
  • the controller 40' controls the vehicle electronic device when the color of the lighting source 10' of the vehicle electronic device is green and the object existing in the area near the electronic device 1' recognized from the image is a vehicle.
  • the danger area may be changed and recognized based on the driving lane of the vehicle.
  • control unit 40' determines that the second object has entered the danger area while recognizing the danger area based on the first object (S25')
  • the control unit 40' controls the alarm unit 30' to send alarm information. It can be output (S26').
  • the object detection unit 20' may detect the second object in the same/similar way as the detection of the first object, and the control unit 40' may identify the second object detected through the object detection unit 20'.
  • the second object may be defined as an object of a different type from the first object, and may be defined as an object prohibited from entering the danger area.
  • the second object may be relatively mapped and defined corresponding to the first object.
  • the controller 40' may output alarm information in the form of at least one of voice, video, and light.
  • the electronic device 1' can more quickly and accurately identify the danger zone.
  • control unit 40 ′ may change and recognize at least one of the size, number, and location of the danger area based on the identification information.
  • the position of the danger area can be changed and recognized, and as shown in FIG. 7 (a) and FIG. 8 (a), the size of the danger area can be recognized by changing
  • the controller 40' may control the alarm unit 30' to output different types of alarm information according to at least one of the type of object and the time period.
  • the alarm unit 30' may output alarm information in the form of light, video, audio, etc., and select and output at least some of the different types of alarm information according to at least one of the type of object and time zone. can do.
  • a warning light may be output through the light output unit 33' while outputting a message commanding departure from the danger area.
  • control unit 40' can provide alarm information to the peripheral device 2', and can control the peripheral device 2' to output the alarm information.
  • the control unit 40' may perform communication with the peripheral device 2' within a predetermined short distance through the communication unit 50'.
  • the controller 40' identifies whether the peripheral device 2' is a device such as a mobile terminal owned by a person or a vehicle, and controls the peripheral device 2' to output different types of alarm information according to the identification result. can do.
  • FIG. 9 is a block diagram of an autonomous vehicle 1'' according to an embodiment.
  • the self-driving vehicle 1'' includes a control unit 10'', a camera unit 20'', a voice sensor 30'', a heart rate sensor 40'', pressure A sensor 50'', a motion sensor 60'', a radar sensor 70'', a driving unit 80'', a communication unit 90'', a storage unit 100'', and a user interface unit ( 110'').
  • the control unit 10'' may diagnose the occupant as suffering from myocardial infarction by using information acquired from the image.
  • the camera unit 20'' includes at least one image sensor and may obtain 2D/3D images by capturing an environment inside the self-driving vehicle 1'' in real time.
  • the camera unit 20'' is mounted at a predetermined location (eg, a rear view mirror) of the self-driving vehicle 1'' and captures an image of the behavior and state of the occupant of the self-driving vehicle 1''. can create a predetermined location (eg, a rear view mirror) of the self-driving vehicle 1'' and captures an image of the behavior and state of the occupant of the self-driving vehicle 1''. can create
  • a passenger is defined as a driver or a passenger.
  • One or a plurality of camera units 20'' may be provided.
  • the control unit 10'' controls that the camera unit 20'' photographs the occupant and the obtained image 1) shows a shape of the occupant's hand grasping the occupant's heart, 2) When the degree of distortion of the occupant's face exceeds a predetermined threshold and 3) it is determined that the occupant's upper body is bent over a predetermined angle, the occupant may be diagnosed as suffering from myocardial infarction.
  • reference comparison information for each of 1) 2) 3) may be stored in advance in the storage unit 100'', and the controller 10'' controls 1) 2) 3) each real-time acquisition frame and storage Myocardial infarction may be diagnosed by comparing reference comparison information previously stored in the unit 100'' with each other.
  • the pre-stored reference comparison information of the present invention may be obtained through repeated machine learning by an artificial intelligence algorithm in order to determine myocardial infarction.
  • At least one of information such as whether the occupant's gaze is directed to a place less than a predetermined angle, whether the occupant's eyes are closed so as to be close to a fainting state, and whether the occupant's body is tilted to one side together It can also be detected from images to diagnose myocardial infarction.
  • the above shapes when the above shapes are repeatedly obtained from a plurality of frames for a predetermined time or longer, it can be diagnosed as having myocardial infarction.
  • the controller 10'' generates a myocardial infarction analysis model through neural network learning, and performs an inference process of outputting myocardial infarction diagnostic information from an image of an occupant using the generated myocardial infarction analysis model. can do.
  • control unit 10'' may create a data set for the image of the occupant in advance.
  • the control unit 10'' may pre-process the generated data set so that it can be applied to the deep learning algorithm.
  • preprocessing such as image cropping, shifting, flipping, and color adjustment can be performed.
  • the controller 10'' may construct a myocardial infarction analysis model by repeatedly performing machine learning to input the preprocessed data set to a previously prepared neural network and output myocardial infarction diagnosis information from the neural network.
  • analysis of myocardial infarction through machine learning for convolutional neural networks that take a preprocessed data set as input and fully connected deep neural networks that take the output of the convolutional neural network as input model can be built.
  • the convolutional neural network may receive the preprocessed data set and output feature pattern information obtained by analyzing the features of the occupant's image.
  • the occupant's image shows the shape of the occupant's hand grasping the occupant's heart, whether the degree of distortion of the occupant's face exceeds a predetermined threshold, whether the occupant's upper body is bent over a predetermined angle, etc.
  • Characteristic pattern information about the shape can be output.
  • the feature pattern information on the shape of the occupant output from the convolutional neural network is input to the fully connected deep neural network to perform learning, thereby constructing a myocardial infarction analysis model capable of diagnosing myocardial infarction, which is a classified disease.
  • the convolutional neural network may output a feature map representing feature pattern information using a kernel to an occupant image, and in this process, pull and dropout of the occupant image may be performed.
  • feature pattern information on the occupant's shape is input to the fully-connected deep neural network, and myocardial infarction diagnosis information can be output through the learning.
  • feature pattern information about the shape of an occupant is output using a kernel from an image of an occupant using a convolutional neural network, and the feature pattern information is input to a fully-connected deep neural network to treat myocardial infarction, heart attack, and gastric problems. It is possible to output myocardial infarction diagnosis information corresponding to the gyeyang.
  • the corresponding process is implemented in detail to firstly detect whether a specific object obtained from the image of the occupant is a person, and to secondarily detect the disease from the shape of the occupant when it is determined to be a person. It could be.
  • CNN and FCNN are used as neural networks in the present invention, this is only an example, and the present invention can be applied in the same/similar way even when various neural networks such as DNN (Deep Neural Network) or RNN (Recurrent Neural Network) are used.
  • DNN Deep Neural Network
  • RNN Recurrent Neural Network
  • control unit 10'' may be implemented as a software module or manufactured in the form of at least one hardware chip and mounted in the self-driving vehicle 1''.
  • AI artificial intelligence
  • NPU Neural Processing Unit
  • a conventional general-purpose processor such as a CPU or Application Processor
  • a dedicated graphics processor such as a GPU
  • It may be manufactured as a part of (Graphic Processing Unit) or VPU (Visual Processing Unit) and mounted on an autonomous vehicle (1'').
  • control unit 10'' may generate a command for controlling the self-driving vehicle 1'' to perform autonomous driving to a hospital.
  • the self-driving vehicle 1'' may perform autonomous driving to the hospital by controlling the driving unit 80'' with a control command to perform autonomous driving to the hospital.
  • control unit 10'' may control the self-driving vehicle 1'' to perform autonomous driving to a hospital equipped with spare beds.
  • control unit 10'' transmits emergency state information notifying that a patient with myocardial infarction will perform autonomous driving to a hospital through the communication unit 90'' to a hospital management server (not shown), Information on a hospital with spare beds is received from a management server (not shown), and control may be performed to perform autonomous driving to the hospital.
  • control unit 10'' may set the self-driving vehicle 1'' to a hospital selected by another occupant among a hospital specializing in myocardial infarction, a hospital equipped with spare beds, and a hospital closest to the current location. It can be controlled to perform the autonomous driving.
  • the storage unit 100'' may store a list of hospitals equipped with specialists specializing in myocardial infarction treatment in advance.
  • the control unit 10'' transmits emergency state information notifying that a patient with myocardial infarction will perform autonomous driving to a hospital through the communication unit 90'' to a hospital management server (not shown), It is possible to receive information about a hospital equipped with spare beds at the present time from a hospital management server (not shown).
  • control unit 10'' may obtain information on the nearest hospital by searching for a hospital closest to the current location obtained from the location sensor (eg, GPS).
  • location sensor eg, GPS
  • the control unit 10'' provides list information on a plurality of various hospitals to other passengers through the user interface unit 110'', and among the list information from other passengers through the user interface unit 110''.
  • the self-driving vehicle 1'' may be controlled to perform autonomous driving to the selected hospital.
  • control unit 10'' determines, in the image of the occupant, 1-1) whether the hands of the occupant grasping the occupant's chest are both hands, 2-1) the degree of distortion of the occupant's face, 3-1) and The severity of myocardial infarction may be further diagnosed based on at least one of the degree of bending of the occupant's upper body at a predetermined angle or more.
  • control unit 10'' first determines that the image of the occupant satisfies a predetermined criterion and corresponds to myocardial infarction based on the above-mentioned 1)2)3), and then secondarily determines that the above 1-1)
  • the severity of myocardial infarction can be diagnosed based on at least one of ,2-1) and 3-1).
  • the severity of myocardial infarction may be diagnosed as corresponding to an intermediate level.
  • the degree of facial distortion of the occupant corresponds to about 90%, and the occupant's upper body is bent close to 90 degrees, the severity of myocardial infarction can be diagnosed as corresponding to the highest level. .
  • the control unit 10'' based on the diagnosis result of the severity of myocardial infarction, selects a) a hospital specializing in myocardial infarction, b) a hospital equipped with spare beds, and c) a suitable hospital among hospitals closest to the current location.
  • the self-driving vehicle can be controlled to perform autonomous driving.
  • the autonomous vehicle 1'' controls the self-driving vehicle 1'' to perform autonomous driving to a hospital specializing in myocardial infarction in response thereto. can do.
  • the control unit 10'' diagnoses that the severity of the occupant's myocardial infarction corresponds to the highest level, the self-driving vehicle 1'' autonomously drives to a hospital with spare beds or the nearest hospital in response to this diagnosis. can be controlled to do so.
  • the self-driving vehicle 1'' determines an appropriate hospital according to the severity of myocardial infarction, so that the patient can receive treatment at a hospital tailored to the patient's condition.
  • control unit 10'' further refers to a matching rate between the occupant's voice detection result by the voice detection unit 30'' and the moaning sound of a predetermined foreign character pre-stored in the storage unit 100''.
  • the self-driving vehicle 1'' can be controlled to perform autonomous driving to the hospital.
  • the self-driving vehicle 1'' may be controlled to perform autonomous driving to the hospital.
  • the self-driving vehicle 1'' may be controlled to autonomously drive to the hospital.
  • the self-driving vehicle 1'' may be controlled to autonomously drive to the hospital by referring to information on the duration of the moaning sound of foreign characters together with the matching rate.
  • the present invention it is possible to diagnose myocardial infarction by using both image information and audio information of the occupant, thereby increasing the accuracy of the diagnosis.
  • Embodiment 2 the contents described in Embodiment 1 may be applied identically/similarly.
  • the control unit 10'' includes a heart rate sensor 40'' embedded in a seat belt SB'' provided in an autonomous vehicle 1'' and a seat S It is possible to diagnose myocardial infarction by using the pressure sensor 50'' built in )'' together.
  • the heart rate sensor 40'' may be disposed at a portion of the seat belt SB ′′ that corresponds to the heart of the occupant.
  • the heart rate sensor 40'' may be embedded in a seat belt in the form of a chip or patch.
  • the heart rate sensor 40'' does not normally operate (off), but only when it is determined that the occupant is leaning to one side based on information acquired from the pressure sensor 50''. ') can be implemented to operate (on).
  • the same number of pressure sensors 50'' are disposed on the left and right sides of the seat S''' on the basis of the center, and the magnitude of the pressure detected from the left pressure sensor and the pressure detected from the right pressure sensor It can be determined that the occupant is tilted to one side by comparing the magnitude of the applied pressure.
  • the tilt for driving the heart rate sensor 40'' has occurred only when the difference between the pressure detected from the left pressure sensor and the pressure detected from the right pressure sensor is greater than or equal to a predetermined value.
  • the heart rate sensor 40'' measures the heart rate of the occupant, and the heart rate measurement is performed by analyzing the electrocardiogram (ECG) signal of the occupant detected from the conductive electrode provided in the heart rate sensor 40''. It can be.
  • ECG electrocardiogram
  • myocardial infarction can be diagnosed in a section in which the change in the T wave on the electrocardiogram is significantly severe or in a section in which the heart is judged to have died due to an abnormality in the Q wave.
  • the heart rate sensor 40'' when it is determined that the occupant is tilted to one side and the heart rate sensor 40'' operates, the heart rate sensor 40'' is brought into close contact with the occupant's body while the occupant is undressing.
  • the occupant's heartbeat can be measured by the conductive electrodes of (40'').
  • a portion of the seat belt SB ′′ corresponding to the occupant's heart may be made of a conductive material. That is, in particular, the location where the heart rate sensor 40'' is embedded may be made of a conductive material so that current flows well.
  • the heart rate sensor 40'' does not normally operate, but the heart rate sensor 40'' operates only when the degree of tilt of the occupant to one side exceeds a predetermined threshold value, thereby reducing power consumption.
  • the accuracy of diagnosis can be further improved by diagnosing myocardial infarction using both the degree of inclination and the heart rate measurement result.
  • Embodiment 2 even in the case of Embodiment 2, if the control unit 10'' diagnoses that the occupant has myocardial infarction, the autonomous vehicle 1'' is transported to a hospital equipped with spare beds. It can be controlled to perform autonomous driving.
  • the controller 10'' if the controller 10'' diagnoses that the occupant has myocardial infarction, the controller 10'' autonomously drives to a hospital selected by another occupant among a hospital specializing in myocardial infarction, a hospital equipped with spare beds, and a hospital closest to the current location.
  • the vehicle 1'' may be controlled to perform autonomous driving.
  • control unit 10'' further diagnoses the severity of myocardial infarction, and based on the diagnosis result of the severity of myocardial infarction, a hospital specializing in myocardial infarction, a hospital equipped with spare beds, and a hospital closest to the current location.
  • the self-driving vehicle may be controlled to perform the self-driving to a suitable hospital.
  • the self-driving vehicle 1'' is controlled to perform autonomous driving to a hospital specializing in myocardial infarction in response to this diagnosis. can do.
  • the self-driving vehicle 1'' may be controlled to perform autonomous driving to a hospital equipped with spare beds or to the nearest hospital.
  • Embodiment 3 the contents described in Embodiment 1 and Embodiment 2 may be equally/similarly applied.
  • control unit 10'' may include the motion sensor 60'' built into the seat belt SB'' provided in the autonomous vehicle 1'' and the pressure built into the seat S''.
  • the sensor 50'' can be used together to diagnose myocardial infarction.
  • the motion sensor 60'' may be embedded in the seat belt SB'' in the form of a chip or patch.
  • the motion sensor 60'' includes an acceleration sensor and a gyro sensor to measure the degree of motion of the occupant.
  • the degree of motion of the occupant may be measured by using both the measurement result of the tilting motion speed by the acceleration sensor and the measurement result of the tilting motion direction by the gyro sensor.
  • the degree of motion of the occupant may be measured based on a motion speed measurement result based on rotational acceleration about each of the X-axis, Y-axis, and Z-axis directions.
  • the occupant when a value equal to or greater than a predetermined reference value for diagnosing as having myocardial infarction is obtained as a result of measuring the degree of motion by the motion sensor 60'', the occupant may be diagnosed as having myocardial infarction.
  • the same number of pressure sensors 50'' are disposed on the left and right sides of the seat S ′′ based on the center, and the pressure detected from the left pressure sensor and the pressure detected from the right pressure sensor It can be determined that the occupant is tilted to one side by comparing the magnitude of the pressure.
  • the occupant may be diagnosed as suffering from myocardial infarction only when both results are equal to or greater than a predetermined reference value by using both the result of measuring the degree of motion of the occupant and the result of measuring the body pressure.
  • the occupant is diagnosed as having myocardial infarction only when both the motion sensor 60'' measurement result and the pressure sensor 50'' measurement result indicate that the occupant has myocardial infarction, so that the accuracy of diagnosis is realized. can be further improved.
  • Embodiment 3 even in the case of Embodiment 3, if the control unit 10'' diagnoses that the occupant has myocardial infarction, the autonomous vehicle 1'' is transported to a hospital equipped with spare beds. It can be controlled to perform autonomous driving.
  • the controller 10'' if the controller 10'' diagnoses that the occupant has myocardial infarction, the controller 10'' autonomously drives to a hospital selected by another occupant among a hospital specializing in myocardial infarction, a hospital equipped with spare beds, and a hospital closest to the current location.
  • the vehicle 1'' may be controlled to perform autonomous driving.
  • control unit 10'' further diagnoses the severity of myocardial infarction, and based on the diagnosis result of the severity of myocardial infarction, a hospital specializing in myocardial infarction, a hospital equipped with spare beds, and a hospital closest to the current location.
  • the self-driving vehicle may be controlled to perform the self-driving to a suitable hospital.
  • the severity is judged as a medium level and the autonomous vehicle (1'') can be controlled to perform autonomous driving as a myocardial infarction specialist.
  • the self-driving vehicle 1'' can be controlled to perform autonomous driving to a hospital with spare beds or to the nearest hospital. .
  • Embodiment 4 the contents described in Embodiments 1 to 3 may be applied identically/similarly.
  • control unit 10'' uses the motion sensor 60'' and the radar sensor 70'' built into the seat belt SB'' provided in the self-driving vehicle 1'' together. A myocardial infarction can be diagnosed.
  • the motion sensor 60'' As for the motion sensor 60'', the contents described in Embodiment 3 can be equally/similarly applied.
  • the degree of motion of the occupant may be measured by using both the measurement result of the tilting motion speed by the acceleration sensor and the measurement result of the tilting motion direction by the gyro sensor.
  • the radar sensor 70'' may be controlled to operate.
  • the radar sensor 70'' may emit electromagnetic waves to the heart of the occupant and measure the electromagnetic waves reflected from the occupant.
  • the radar sensor 70'' may be mounted in a state of being rotated at a predetermined angle on the indoor ceiling of the self-driving vehicle 1'' in order to properly emit electromagnetic waves to the heart of the occupant.
  • the control unit 10'' determines that it is in a normal heartbeat state, and if it shows an abnormal waveform such as a ventricular tachycardia waveform or a ventricular fibrillation waveform, it determines that it is myocardial infarction.
  • the radar sensor 70'' does not normally operate, but operates only when the degree of movement of the occupant exceeds a predetermined threshold, thereby reducing power consumption and electromagnetic waves. It is possible to further improve the accuracy of the diagnosis by preventing the continuous reception of the signal to prevent excessive strain on the occupant's body and diagnosing myocardial infarction by using the degree of movement and the heartbeat waveform together.
  • Embodiment 1 even in the case of Embodiment 4, if the control unit 10'' diagnoses that the occupant has myocardial infarction, the autonomous vehicle 1'' is transported to a hospital equipped with spare beds. It can be controlled to perform autonomous driving.
  • the controller 10'' if the controller 10'' diagnoses that the occupant has myocardial infarction, the controller 10'' autonomously drives to a hospital selected by another occupant among a hospital specializing in myocardial infarction, a hospital equipped with spare beds, and a hospital closest to the current location.
  • the vehicle 1'' may be controlled to perform autonomous driving.
  • control unit 10'' further diagnoses the severity of myocardial infarction, and based on the diagnosis result of the severity of myocardial infarction, a hospital specializing in myocardial infarction, a hospital equipped with spare beds, and a hospital closest to the current location.
  • the self-driving vehicle may be controlled to perform the self-driving to a suitable hospital.
  • the self-driving vehicle 1'' responds to the myocardial infarction. It can be controlled to perform autonomous driving to a hospital specializing in infarction.
  • the self-driving vehicle 1'' may be controlled to perform autonomous driving to a hospital equipped with spare beds or to the nearest hospital.
  • Embodiment 5 it can be implemented as follows on the premise that the contents described in Embodiments 1 to 4 are performed.
  • the controller 10'' diagnoses that the occupant has myocardial infarction, the communication unit ( 90'') to a traffic management server (not shown).
  • the traffic management server (not shown) may generate a traffic light control command corresponding to the emergency state information.
  • the traffic management server (not shown) identifies the current location and route information of the self-driving vehicle 1'', and sets the traffic lights to be passed by the self-driving vehicle 1'' soon. ''), and a command for controlling output of a vehicle traffic signal, not a pedestrian signal, for corresponding traffic lights for a predetermined period of time may be generated.
  • the traffic management server may transmit the traffic light control state information to the autonomous vehicle 1'' while controlling the traffic lights by generating a traffic light control command corresponding to the emergency state information.
  • the control unit 10'' may control the self-driving vehicle 1'' to autonomously drive to the hospital based on the traffic light control state information. That is, the traffic lights disposed on the path of the self-driving vehicle 1'' can pass quickly without stopping the signal.
  • the above-described embodiments 1 to 5 exemplify the coupling between specific sensors, but this is an example of an embodiment, and myocardial infarction can be diagnosed by variously combining all the sensors of the present invention.
  • a pedestrian in a complicated and noisy road situation, a pedestrian can clearly determine and respond to an emergency situation by receiving information indicating an emergency situation, thereby enabling safer traffic system management.
  • the traffic light can more quickly and accurately identify the danger zone.
  • the danger zone can be more accurately identified.
  • the self-driving vehicle 1'' determines an appropriate hospital according to the severity of myocardial infarction, so that the patient can receive treatment at a hospital tailored to the patient's condition.
  • the present invention it is possible to diagnose myocardial infarction by using both image information and audio information of the occupant, thereby increasing the accuracy of the diagnosis.
  • the heart rate sensor 40'' does not normally operate, but the heart rate sensor 40'' operates only when the degree of tilt of the occupant to one side exceeds a predetermined threshold, thereby consuming power. can be reduced, and the precision of diagnosis can be further improved by diagnosing myocardial infarction by using both the degree of inclination and the heart rate measurement result.
  • the occupant is diagnosed as having myocardial infarction only when both the motion sensor 60'' measurement result and the pressure sensor 50'' measurement result indicate that the occupant has myocardial infarction, so that the accuracy of diagnosis is realized. can be further improved.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Traffic Control Systems (AREA)

Abstract

실시예에 따른 교통 신호 관제 장치는 긴급 차량의 위치를 판단하는 위치 판단부; 및 상기 긴급 차량의 인근 보행자 신호등의 보행 불가 정보를 나타내는 영역에 보행 불가 정보가 출력되도록 제어하고, 상기 보행 불가 정보를 나타내는 영역을 둘러싼 영역에 상기 긴급 차량과 관련된 긴급 상황을 나타내는 정보가 출력되도록 제어하는 교통 신호 제어 명령을 신호등 제어기로 전송하는 신호등 관리부;를 포함할 수 있다.

Description

교통 신호 관제 장치
본 발명은 교통 신호 관제 장치에 관한 것으로, 보다 구체적으로, 긴급 차량의 인근 보행자 신호등에 긴급 상황을 나타내는 정보가 출력되는 방법을 제공하기 위한, 교통 신호 관제 장치에 관한 것이다.
또한, 본 발명은 전자 장치에 관한 것으로, 보다 구체적으로 광원의 색상과 검출된 객체의 종류에 기초해 전자 장치 인근 영역에서 위험 영역을 선별하도록 함으로써, 위험 영역을 정확하고 신속하게 선별하여 위험 영역에 진입한 객체에 정확한 알람 정보를 출력하도록 하기 위한, 전자 장치에 관한 것이다.
그리고, 본 발명은 본 발명은 자율 주행 차량에 관한 것으로, 보다 구체적으로 탑승자의 심근경색증을 진단하여 자율 주행 차량이 병원으로 자율 주행을 수행할 수 있도록 제어하기 위한 자율 주행 차량에 관한 것이다.
반적으로 긴급 차량은 긴급 상황이 발생하면 출동하여 긴급 상황이 발생
한 장소로 이동하게 된다.
이 때, 긴급 차량은 최대한 빨리 도로를 주행하려 하고, 이에 따라 긴급 차량이 통행하는 경로에서는 보행자 신호등이 빨간불을 유지해야 한다.
하지만, 일반적으로 긴급 차량이 지나가서 교통 신호가 바뀌지 않고 지속적으로 빨간불로 유지되는 경우, 인근 보행자는 영문을 몰라 답답해하거나 교통 신호를 무시한 채 횡단보도를 건너는 경우가 있을 수 있다.
따라서, 긴급 차량이 통행해야 하는 상황임을 인근 보행자에게 알려줘야 하는 시스템이 필요한 상황이다.
본 발명은 전술한 필요성에 의해 도출된 것으로, 복잡하고 소음이 넘치는 도로 상황에서, 보행자는 긴급 상황을 나타내는 정보를 제공받음으로써, 명확하게 긴급 상황을 판단하여 대처할 수 있으며, 이에 따라 보다 안전한 교통 시스템 관리가 가능해지도록 하는 데에 그 목적이 있다.
본 발명은 또한, 도로에 항시 존재하는 신호등을 스마트하게 개선하여, 별도의 다른 장치나 서버의 도움 없이도 신호등만으로 신호등에 근접하게 위치한 객체를 정확하게 식별하고, 위험 영역에 진입한 객체에게 용이하게 경고 정보를 제공할 수 있는 방법을 제공하고자 하는 데에 그 목적이 있다.
본 발명은 또한, 자율 주행 차량을 탑승한 탑승자에게 심근경색증이 발생한 경우에도 신속히 병원으로 이동시킬 수 있도록 함으로써 탑승자의 생명을 구하는 방법을 제공하고자 하는 데에 그 목적이 있다. 특히, 도로 위를 주행하고 있는 차량이라는 환경 속에서도 탑승자의 심근경색증 진단의 정밀도를 보다 향상시키고자 하는 데에 그 목적이 있다.
실시예에 따른 교통 신호 관제 장치는 긴급 차량의 위치를 판단하는 위치 판단부; 및 상기 긴급 차량의 인근 보행자 신호등의 보행 불가 정보를 나타내는 영역에 보행 불가 정보가 출력되도록 제어하고, 상기 보행 불가 정보를 나타내는 영역을 둘러싼 영역에 상기 긴급 차량과 관련된 긴급 상황을 나타내는 정보가 출력되도록 제어하는 교통 신호 제어 명령을 신호등 제어기로 전송하는 신호등 관리부;를 포함할 수 있다.
실시예에 따른 교통 신호 관제 장치는, 긴급 차량의 위치를 판단하는 위치 판단부; 및 상기 긴급 차량의 인근 보행자 신호등의 보행 불가 정보를 나타내는 영역에 보행 불가 정보와 함께 상기 긴급 차량과 관련된 긴급 상황을 나타내는 정보가 오버랩되어 출력되도록 제어하는 교통 신호 제어 명령을 신호등 제어기로 전송하는 신호 제어부;를 포함할 수 있다.
실시예에 따른 교통 신호 관제 장치는, 긴급 차량의 위치를 판단하는 위치 판단부; 상기 긴급 차량의 인근 보행자 신호등의 보행 불가 정보를 나타내는 영역의 제1 영역에 보행 불가 정보가 출력되도록 제어하고, 상기 보행 불가 정보를 나타내는 영역의 제2 영역에 상기 긴급 차량과 관련된 긴급 상황을 나타내는 정보가 출력되도록 제어하는 교통 신호 제어 명령을 신호등 제어기로 전송하는 신호 제어부;를 포함할 수 있다.
실시예에 따른 교통 신호 관제 장치는 긴급 차량의 위치를 판단하는 위치 판단부; 상기 긴급 차량의 인근 보행자 신호등의 보행 불가 정보를 나타내는 영역에 보행 불가 정보가 아닌 상기 긴급 차량과 관련된 긴급 상황을 나타내는 정보가 출력되도록 제어하는 교통 신호 제어 명령을 신호등 제어기로 전송하는 신호 제어부;를 포함할 수 있다.
실시예에 따른 교통 신호 관제 장치는 긴급 차량의 위치를 판단하는 위치 판단부; 상기 긴급 차량의 인근 보행자 신호등의 보행 불가 정보를 나타내는 영역에 보행 불가 정보가 출력되도록 제어하고, 상기 보행자 신호등의 보행 가능 정보를 나타내는 영역에 상기 긴급 차량과 관련된 긴급 상황을 나타내는 정보가 출력되도록 제어하는 교통 신호 제어 명령을 신호등 제어기로 전송하는 신호 제어부;를 포함할 수 있다.
실시예에 따른 교통 신호 관제 장치는 긴급 차량의 위치를 판단하는 위치 판단부; 상기 긴급 차량의 인근 보행자 신호등의 보행 불가 정보를 나타내는 영역과 보행 가능 정보를 나타내는 영역 각각에 상기 긴급 차량과 관련된 긴급 상황을 나타내는 정보가 출력되도록 제어하는 교통 신호 제어 명령을 신호등 제어기로 전송하는 신호 제어부;를 포함할 수 있다.
상기 신호등 관리부는, 상기 긴급 차량의 통행 긴급 정도에 대한 정보를 반영하여 상기 긴급 상황을 나타내는 정보가 출력되도록 제어하는 상기 교통 신호 제어 명령을 상기 신호등 제어기로 전송할 수 있다.
상기 긴급 상황을 나타내는 정보는, 상기 긴급 상황의 발생 알림 정보, 상기 긴급 차량 종류, 상기 긴급 차량의 속도, 이동 방향 및 대기 시간 중 적어도 하나일 수 있다.
상기 긴급 상황을 나타내는 정보는 깜빡이 형태, 아이콘, 및 텍스트의 형태 중 적어도 하나로 출력될 수 있다.
상기 교통 신호 제어 명령은 음성 정보가 함께 출력되도록 제어하는 것일 수 있다.
상기 교통 신호 제어 명령을 상기 보행자 신호등의 인근 단말기로 전송하는 단말기 관리부;를 더 포함할 수 있다.
실시예에 따른 전자 장치는, 광원;
상기 전자 장치의 인근 영역에 존재하는 제1 객체를 검출하기 위한 객체 검출부;
알람 정보를 출력하기 위한 알람부; 및
점등하는 상기 광원의 색상과 상기 검출된 제1 객체를 식별하고, 상기 식별 정보에 기초해 상기 전자 장치의 인근 영역에 대응하는 영상의 영역으로부터 위험 영역을 변경하여 인식하고, 상기 제1 객체와 다른 제2 객체가 상기 위험 영역에 진입한 것으로 판단하면 상기 알람 정보를 출력하도록 상기 알람부를 제어하는 제어부;를 포함할 수 있다.
상기 객체 검출부는 라이다 센서 및 상기 영상을 획득하는 카메라 중 적어도 하나를 포함하고,
상기 제어부는,
상기 라이다 센서로부터 획득된 포인트 맵 데이터 및 상기 영상 중 적어도 하나를 이용하여 상기 전자 장치 인근 영역에 대응하는 상기 영상의 영역으로부터 상기 위험 영역을 변경하여 인식할 수 있다.
상기 점등하는 상기 광원의 색상이 녹색이고 상기 영상으로부터 인식된 상기 전자 장치 인근 영역에 존재하는 상기 제1 객체가 사람인 경우, 횡단보도 영역을 상기 위험 영역으로 변경하여 인식할 수 있다.
상기 사람의 횡단 잔여 시간에 기초해 상기 위험 영역을 변경하여 인식할 수 있다.
상기 제어부는,
상기 점등하는 상기 광원의 색상이 녹색이고 상기 영상으로부터 인식된 상기 전자 장치 인근 영역에 존재하는 상기 제1 객체가 차량인 경우, 횡단보도 영역 및 차도 영역 중 적어도 하나의 일부를 상기 위험 영역으로 변경하여 인식할 수 있다.
상기 제어부는,
상기 차량의 주행 차선에 기초해 상기 위험 영역을 변경하여 인식할 수 있다.
상기 제어부는,
상기 위험 영역의 크기, 개수, 및 위치 중 적어도 하나를 변경하여 인식할 수 있다.
상기 제어부는,
상기 제1 객체의 종류에 따라 상이한 종류의 상기 알람 정보를 출력하도록 상기 알람부를 제어할 수 있다.
상기 제어부는,
주변 장치에 상기 알람 정보를 제공할 수 있다.
실시예에 따른 자율 주행 차량은,
탑승자를 촬영하여 탑승자 영상을 생성하는 카메라; 및
상기 탑승자 영상이 상기 탑승자의 손으로 상기 탑승자의 심장 부위를 움켜쥐는 형상을 나타냄과 동시에, 상기 탑승자의 얼굴의 일그러짐 정도가 소정의 임계치를 초과하면서, 상기 탑승자의 상체가 소정 각도 이상 숙여진 것으로 판단하면 상기 탑승자가 심근경색증인 것으로 진단하며, 상기 자율 주행 차량이 병원으로 자율 주행을 수행하도록 제어하는 제어부;를 포함할 수 있다.
상기 제어부는 심근경색증 분석 모델을 이용하여 상기 탑승자 영상으로부터 상기 심근경색증 진단 정보를 출력하는 추론을 수행하고,
상기 심근경색증 분석 모델은 CNN(Convolutional Neural Networks)을 이용해 탑승자 영상으로부터 심근경색증 진단 정보를 출력하는 딥러닝을 수행하여 생성된 것일 수 있다.
상기 제어부는,
상기 탑승자의 심장 부위를 움켜쥐는 상기 탑승자의 손이 양손인지 여부, 상기 탑승자의 얼굴의 일그러짐 정도, 및 상기 탑승자의 상체가 소정 각도 이상 숙여진 정도 중 적어도 하나에 기초하여 상기 심근경색증의 중증도를 더 진단할 수 있다.
상기 제어부는,
상기 심근경색증의 중증도 진단 결과에 기초해 심근경색증 전문 병원, 여유 병상이 구비된 병원, 및 현 위치에서 가장 가까운 병원 중 가장 적합한 병원으로 상기 자율 주행 차량이 상기 자율 주행을 수행하도록 제어할 수 있다.
저장부; 및
상기 탑승자의 음성을 감지하는 음성 감지부;를 더 포함하고,
상기 제어부는,
상기 탑승자의 음성 감지 결과와 상기 저장부에 기 저장된 외자의 신음 소리의 매칭율을 더 참조하여 상기 자율 주행 차량이 상기 병원으로 자율 주행을 수행하도록 제어할 수 있다.
실시예에 따른 자율 주행 차량은, 탑승자의 심장 부위에 대응되도록 배치되어 상기 탑승자의 심박을 측정하는 심박 센서를 내장한 시트 벨트;
상기 탑승자의 신체 압력을 측정하는 압력 센서를 내장한 시트; 및
상기 심박 측정 결과와 상기 신체 압력 측정 결과를 함께 이용하여 상기 탑승자가 심근경색증인 것으로 진단하고, 상기 자율 주행 차량이 병원으로 자율 주행을 수행하도록 제어하는 제어부;를 포함할 수 있다.
상기 제어부는,
상기 신체 압력 측정 결과 상기 탑승자가 한쪽으로 기울어진 것으로 판단하면 상기 심박 센서가 동작하도록 제어할 수 있다.
상기 시트 벨트 중 상기 탑승자의 상기 심장 부위에 대응되는 부분은 도전성 재질로 구현될 수 있다.
실시예에 따른 자율 주행 차량은, 가속도 센서와 자이로 센서로 구성되어 탑승자의 모션 정도를 측정하는 모션 센서를 내장한 시트 벨트;
상기 탑승자의 신체 압력을 측정하는 압력 센서를 내장한 시트; 및
상기 모션 정도 측정 결과와 상기 신체 압력 측정 결과를 함께 이용하여 상기 탑승자가 심근경색증인 것으로 진단하고, 상기 자율 주행 차량이 병원으로 자율 주행을 수행하도록 제어하는 제어부;를 포함할 수 있다.
실시예에 따른 자율 주행 차량은, 가속도 센서와 자이로 센서로 구성되어 탑승자의 모션 정도를 측정하는 모션 센서를 내장한 시트 벨트;
상기 탑승자의 심장 부위에 전자기파를 발사하고 상기 탑승자로부터 반사되는 전자기파를 측정하는 레이더 센서; 및
상기 모션 정도 측정 결과와 상기 전자기파 측정 결과를 함께 이용하여 상기 탑승자가 심근경색증인 것으로 진단하고, 상기 자율 주행 차량이 병원으로 자율 주행을 수행하도록 제어하는 제어부;를 포함할 수 있다.
상기 제어부는,
상기 모션 정도 측정 결과 상기 탑승자가 소정의 임계치 이상으로 움직인 것으로 판단하면 상기 레이더 센서가 동작하도록 제어할 수 있다.
상기 제어부는,
여유 병상이 구비된 병원으로 상기 자율 주행 차량이 상기 자율 주행을 수행하도록 제어할 수 있다.
상기 제어부는,
심근경색증 전문 병원, 여유 병상이 구비된 병원, 및 현 위치에서 가장 가까운 병원 중 다른 탑승자에 의해 선택된 병원으로 상기 자율 주행 차량이 상기 자율 주행을 수행하도록 제어할 수 있다.
상기 제어부는,
상기 심근경색증의 중증도를 더 진단하고, 상기 심근경색증의 중증도 진단 결과에 기초해 심근경색증 전문 병원, 여유 병상이 구비된 병원, 및 현 위치에서 가장 가까운 병원 중 가장 적합한 병원으로 상기 자율 주행 차량이 상기 자율 주행을 수행하도록 제어할 수 있다.
상기 제어부는,
상기 탑승자가 심근경색증인 것으로 진단되어 상기 자율 주행 차량이 상기 병원으로 자율 주행을 수행할 것을 알리기 위한 긴급 상태 정보를 생성하고,
상기 긴급 상태 정보를 교통 관리 서버로 전송하고,
상기 교통 관리 서버로부터 상기 긴급 상태 정보에 대응하는 신호등 제어 상태 정보를 수신하고,
상기 신호등 제어 상태 정보에 기초해 상기 자율 주행 차량이 상기 병원으로 자율 주행을 수행하도록 제어할 수 있다.
본 발명에 따르면, 복잡하고 소음이 넘치는 도로 상황에서, 보행자는 긴급 상황을 나타내는 정보를 제공받음으로써, 명확하게 긴급 상황을 판단하여 대처할 수 있으며, 이에 따라 보다 안전한 교통 시스템 관리가 가능해진다.
본 발명에 따르면, 미리 위험 영역을 구분하여 설정하도록 하고, 상황에 따라 위험 영역을 변경하여 인식하도록 함으로써, 신호등이 위험 영역을 보다 신속하고 정확하게 식별할 수 있게 된다.
특히, 광원의 색상과, 객체의 종류에 따라 상이하게 위험 영역을 변경하여 인식하도록 함으로써, 보다 정확하게 위험 영역을 식별할 수 있게 된다.
더불어, 동일 식별 정보라도 신호등의 종류에 따라서도 위험 영역을 상이하게 인식하도록 하여 상황에 맞는 위험 영역을 식별할 수 있게 된다.
또한, 이로써, 위험 영역에 진입하는 객체를 보다 빠르게 식별하여 정확한 타이밍에 알람 정보를 출력할 수 있게 된다.
심근경색증 환자가 발생한 경우는, 골든 타임이 존재하는 매우 위급한 상황이므로, 여유 병상이 확보되지 않은 병원으로 주행을 수행하게 되면 많은 시간을 낭비하여 골든 타임을 초과할 수 있게 되므로, 본 발명에 따르면 이러한 여유 병상이 구비된 병원으로 자율 주행을 수행하도록 제어하여 골든 타임 내 치료가 가능하도록 구현할 수 있다.
사용자 선택에 의한 병원으로 자율 주행을 수행할 수 있도록 하여 사용자 선택의 자율성을 높임과 동시에 다른 탑승자가 특히 탑승자의 가족인 경우 해당 결정을 수행하도록 하여 추후 분쟁이 생길 염려를 덜어줄 수 있게 된다.
본 발명에 따르면, 심근경색증의 중증도에 따라 자율 주행 차량(1'')이 적절한 병원을 결정하도록 함으로써, 환자의 상태에 맞는 맞춤형 병원에서 환자가 치료를 받을 수 있게 된다.
본 발명에 따르면, 탑승자의 영상 정보와 음성 정보를 함께 이용하여 심근경색증임을 진단할 수 있도록 하여 진단의 정확성이 보다 높아질 수 있게 된다.
본 발명에 따르면, 이와 같이 심박 센서(40'')가 평소에는 동작하지 않다가 탑승자가 한쪽으로 기울어진 정도가 소정의 임계치를 초과하는 경우에만 심박 센서(40'')가 동작하도록 함으로써 전력 소비를 줄일 수 있으며, 기울어짐 정도와 심박 측정 결과를 함께 이용하여 심근경색증을 진단하도록 하여 진단의 정밀도를 보다 향상시킬 수 있게 된다.
본 발명에 따르면, 이와 같이 모션 센서(60'') 측정 결과 및 압력 센서(50'') 측정 결과가 모두 탑승자가 심근경색증인 것으로 나타내는 경우에만 탑승자가 심근경색증인 것으로 진단하도록 구현하여 진단의 정밀도를 보다 향상시킬 수 있게 된다.
도 1은 실시예에 따른 교통 신호 제어 시스템의 시스템도이다.
도 2는 실시예에 따른 교통 신호 관제 장치의 블록도이다.
도 3 및 도 4는 실시예에 따른 교통 신호 제어 명령에 따라 신호등에 출력되는 정보의 예시이다.
도 5은 실시예에 따른 전자 장치(1')과 주변 기기(2')를 나타낸 블록도이다.
도 6는 실시예에 따른 전자 장치(1')의 동작을 예시하며, 도 7과 도 8는 전자 장치(1')의 동작을 설명하기 위해 참조되는 도면이다.
도 9은 실시예에 따른 자율 주행 차량(1'')의 블록도이다.
도 10는 실시예에 따른 인공 지능 기반의 심근경색증 분석 모델을 통해 심근경색증을 출력하는 과정을 설명하기 위한 도면이다.
도 11은 실시예에 따른 심박 센서(40'')와 압력 센서(50'')를 설명하기 위해 참조되는 도면이다.
후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예에 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.
도 1은 실시예에 따른 교통 신호 제어 시스템의 시스템도이고, 도 2는 실시예에 따른 교통 신호 관제 장치(2)의 블록도이다.
도 1 및 도 2를 함께 참조하면, 먼저 교통 신호 제어 시스템은 긴급 차량(1), 교통 신호 관제 장치(2), 신호등 제어기(3), 신호등(4), 및 단말기(5) 사이의 통신으로 이루어진다.
긴급 차량(1)은 교통 신호 관제 장치(2)와 데이터 송수신을 할 수 있는 자율 주행 차량일 수 있다.
긴급 차량(1)은 위치 송신부(미도시)를 이용하여 현 위치 정보를 교통 신호 관제 장치(2)로 전송하거나, 교통 신호 관제 장치(2)가 직접 긴급 차량(1)의 위치 정보를 파악할 수 있다.
교통 신호 관제 장치(2)는 위치 판단부(21)를 통해 긴급 차량(1)의 위치를 판단하여 긴급 차량(1)의 인근 보행자 신호등(4)에 출력되는 내용을 제어하기 위한 교통 신호 제어 명령을 생성하여 신호등 제어기(3)로 전송할 수 있다.
교통 신호 관제 장치(2)는 신호등 관리부(22)를 통해 긴급 차량(1)과 관련된 긴급 상황을 나타내는 정보가 출력되도록 제어하는 교통 신호 제어 명령을 신호등 제어기(3)로 전송할 수 있다.
교통 신호 관제 장치(2)는 단말기 관리부(23)를 통해 긴급 차량(1)과 관련된 긴급 상황을 나타내는 정보가 출력되도록 제어하는 교통 신호 제어 명령을 보행자 단말기(51)로도 전송할 수 있다.
신호등 제어기(3)는 교통 신호 관제 장치(2)로부터 수신한 교통 신호 제어 명령을 기초로 신호등(4)을 제어할 수 있다.
신호등 제어기(3)는 교통 신호 관제 장치(2)로부터 수신한 교통 신호 제어 명령을 보행자 단말기(51)로 전송할 수도 있다.
도 3 및 도 4는 실시예에 따른 교통 신호 제어 명령에 따라 신호등(4)에 출력되는 정보의 예시이다.
도 3에 도시한 바와 같이, 신호등(4)은 보행 불가 정보를 나타내는 영역(41)과 보행 가능 정보를 나타내는 영역(42)을 포함할 수 있다.
도 3의 (a)는 보행 불가 정보를 나타내는 영역(41)이 활성화되어 보행이 불가능한 상태임을 나타내고, 도 3의 (b)는 보행 가능 정보를 나타내는 영역(42)이 활성화되어 보행이 가능한 상태임을 나타낸다.
도 3의 (a)의 보행 불가 정보를 나타내는 영역(41)은 제1 색상(예> 적색)으로 활성화되고, 보행 가능 정보를 나타내는 영역(42)은 제2 색상(예> 녹색)으로 활성화된 것을 나타낸다.
도 3에서는 보행 불가 정보를 나타내는 영역(41, 이하 제1 영역으로 명명한다.)이 신호등(4)의 상부에 배치되고, 보행 가능 정보를 나타내는 영역(42, 이하 제2 영역으로 명명한다.)이 신호등(4)의 하부에 배치되는 것을 예시하였으나, 이와 반대로 구성되는 경우에도 본 발명이 동일/유사하게 적용될 수 있으며, 각 영역(41, 42)의 배치 순서, 형태에 본 발명이 제한되지 않는다.
즉, 각 영역(41, 42)이 사각형, 육각형 등이거나 각 영역(41,42)의 형태가 서로 상이하거나, 상기 색상들과 다른 조합으로 구현되는 경우에도 본 발명이 동일/유사하게 적용될 수 있다.
-실시 형태 1-
도 4의 (a)를 참조하면, 위치 판단부(21)가 긴급 차량(1)의 위치를 판단하면, 신호등 관리부(22)는 긴급 차량(1)의 인근 보행자 신호등(4)에 긴급 상황을 나타내는 정보가 출력되도록 제어하는 교통 신호 제어 명령을 신호등 제어기(3)로 전송할 수 있다.
참고로, 본 발명에서, 긴급 상황을 나타내는 정보는 신호등(4)의 디스플레이부(4a)에 출력되는 이미지 정보로 정의한다.
구체적으로, 신호등 관리부(22)는 긴급 상황을 나타내는 정보를 미리 저장부(미도시)에 저장하고, 현 긴급 상황에 매칭되는 긴급 상황을 나타내는 정보를 저장부(미도시)로부터 독출하여 신호등 제어기(3)로 전송할 수 있다.
실시예에 따르면, 교통 신호 제어 명령은 긴급 상황을 나타내는 정보와 함께 음성 정보가 출력되도록 제어하는 신호로 생성될 수 있다.
한편, 실시예에 따라 (a)를 참조하면, 교통 신호 제어 명령은 제1 영역(41)이 활성화(점등)되어 보행 불가 정보가 출력되고, 제1 영역(41)을 둘러싼 영역에 긴급 차량(1)과 관련된 긴급 상황을 나타내는 정보가 출력되도록 제어하는 것일 수 있다. 이 때, 제2 영역(42)은 비활성화(소등)될 수 있다.
실시예에 따른 긴급 상황을 나타내는 정보는 a) 깜빡이 형태, b) 아이콘, 및 c) 텍스트 형태 중 적어도 하나로 출력될 수 있다.
실시예에 따른 아이콘은 긴급 차량의 형상, 느낌표 형상, 불의 형상 등 긴급 정보를 한눈에 파악할 수 있는 형태로 미리 저장된 것일 수 있다.
긴급 차량의 형상은 차량의 종류마다 상이하게 출력될 수 있다. 예를 들어, 소방차 형상, 경찰차 형상, 구급차 형상 각각이 상이하게 미리 저장된 후 출력될 수 있다.
b)의 경우, 긴급 차량 형상의 아이콘들이 제1 영역(41)을 둘러싼 영역에 소정 간격 이격되어 배치된 상태로 출력되거나 c)의 경우, 문장(“긴급 상황입니다”)을 구성하는 각 텍스트들이 제1 영역(41)을 둘러싼 영역에 소정 간격 이격되어 배치된 상태로 출력될 수 있다.
이 때, a) 내지 c) 각각에 있어서, 상기 긴급 상황을 나타내는 정보는 소정 시간 동안 지속되거나, 일부 정보가 순차적으로 출력되는 형태로 구현될 수 있다.
예를 들어, 전체 깜빡이/전체 아이콘/전체 텍스트가 함께 소정 시간 동안 지속적으로 출력되거나 일부 깜빡이들/일부 아이콘들/일부 텍스트가 순차적으로 출력될 수 있다.
이 때, 일부 깜빡이들/일부 아이콘들/일부 텍스트가 순차적으로 출력되는 경우, 시간이 경과함에 따라 시계 방향으로 출력되거나 반시계 방향으로 출력될 수 있다.
실시예에 따르면, 전술한 a) 내지 c) 각각 중 적어도 일부가 조합된 형태로 출력될 수 있다.
실시예에 따른 긴급 상황을 나타내는 정보는 긴급 상황의 발생 알림 정보, 긴급 차량의 종류, 긴급 차량의 이동 속도, 이동 방향, 및 대기 시간 중 적어도 하나일 수 있다.
예를 들어, 긴급 차량의 종류가 응급차량, 소방차량, 경찰차량, 공사차량, 견인차량인 경우에 각각 차량의 아이콘 형상이 상이하도록 구현될 수 있다.
실시예에 따르면, 상기 신호등 관리부(22)는 상기 긴급 차량(1)의 통행 긴급 정도에 대한 정보를 반영하여 상기 긴급 상황을 나타내는 정보가 생성된 후 출력되도록 제어하는 교통 신호 제어 명령을 신호등 제어기(3)로 전송할 수 있다.
이 때, 신호등 관리부(22)는 긴급 차량(1)의 통행 긴급 정도에 대한 정보를 반영한 음성 정보도 함께 출력되도록 교통 신호 제어 명령을 생성할 수 있다.
긴급 차량(1)의 통행 긴급 정도에 대한 정보는 상/중/하 등의 레벨로 구분되어 참조될 수 있다.
긴급 차량(1)의 통행 긴급 정도에 대한 정보는 별도의 연계 서버(미도시), 긴급 차량(1), 긴급 차량 탑승자 단말기(52)중 어느 하나로부터 수신하여 참조될 수 있다.
실시예에 따르면, 신호등 관리부(22)는 통행 긴급 정도에 대한 정보를 참조하여 깜빡이 형태/긴급 차량 형상의 아이콘/텍스트의 형태 중 적어도 하나의 밝기, 크기, 지속 시간, 개수, 출력 속도 중 적어도 하나를 조절하여 긴급 상황을 나타내는 정보를 생성할 수 있다.
예를 들어, 긴급 차량(1)이 응급차량인 경우, 신호등 관리부(22)는 병원 서버(미도시)로부터 긴급 차량(1)의 통행 긴급 정도가 상대적으로 '상' 레벨인 것을 확인하고, 이에 따라 깜빡이 형태의 정보가 밝기 '상', 크기 '상', 지속 시간 '상'으로 출력되도록 제어하는 명령을 생성할 수 있다.
한편, 긴급 차량(1)이 경찰차량인 경우, 신호등 관리부(22)는 범죄관리서버(미도시)로부터 긴급 차량(1)의 통행 긴급 정도가 상대적으로 '중' 레벨인 것을 확인하고, 이에 따라 경찰 차량 형상의 아이콘의 크기 '중', 개수 '중', 출력 속도 '중'으로 출력되도록 제어하는 명령을 생성할 수 있다.
실시예에 따르면, 신호등 관리부(22)는 통행 긴급 정도에 대한 정보를 참조하여 음성 정보의 크기, 지속 시간 중 적어도 하나를 조절하여 상기 긴급 상황을 나타내는 디스플레이 정보와 함께 출력하기 위한 교통 신호 제어 명령을 생성할 수 있다.
예를 들어, 통행 긴급 정도가 '상' 레벨인 경우, 이에 대응한 볼륨이 약 100데시벨로 약 5초 동안 출력되도록 제어할 수 있고, 통행 긴급 정도가 '중' 레벨인 경우, 이에 대응한 볼륨이 약 50데시벨로 약 2초 동안 출력되도록 제어할 수 있다.
한편, 실시예에 따르면 단말기 관리부(23)는 신호등 관리부(22)로부터 교통 신호 제어 명령을 수신하여 보행자 단말기(51)로의 출력을 제어할 수 있다.
즉, 보행 불가 정보와 함께 긴급 상황을 나타내는 디스플레이 정보 및/또는 음성 정보가 출력되도록 제어하는 교통 신호 제어 명령을 보행자 신호등(4) 인근에 위치한 보행자 단말기(51)의 앱을 통해 전송할 수 있다.
이에 따르면, 복잡하고 소음이 넘치는 도로 상황에서, 보행자는 보행자 단말기(51)로부터 상기 정보들을 제공받음으로써, 명확하게 긴급 상황을 판단하여 대처할 수 있으며, 이에 따라 보다 안전한 교통 시스템 관리가 가능해진다.
그리고, 실시 형태 1에 따르면, 기존의 보행 불가 정보를 확인하면서도 이를 방해 받지 않고 긴급 상황을 명확하게 확인할 수 있는 이점이 있다.
-실시 형태 2-
실시 형태 2는 도 4의 (b)에 관한 것으로, 아래에서 기술하지 않은 내용들은 실시 형태 1에서 전술한 내용이 동일/유사하게 적용될 수 있다.
실시예에 따라 도 4의 (b)를 참조하면, 교통 신호 제어 명령은 제1 영역(41)이 활성화되어 보행 불가 정보가 출력되고, 제1 영역(41) 상에 긴급 차량(1)과 관련된 긴급 상황을 나타내는 정보가 함께 오버랩되어 출력되도록 제어하는 것일 수 있다. 이 때, 제2 영역(42)은 비활성화(소등)될 수 있다.
실시예에 따른 긴급 상황을 나타내는 정보는 a) 깜빡이 형태, b) 아이콘, 및 c) 텍스트 형태 중 적어도 하나로 출력될 수 있다.
b)의 경우, 긴급 차량 형상의 아이콘이나 느낌표 형상의 아이콘이 제1 영역(41)의 중앙부에 오버랩되어 출력되거나 c)의 경우, 문장(“긴급 상황입니다”)을 구성하는 각 텍스트 중 일부(“긴급”)가 제1 영역(41)의 중앙부에 오버랩되어 출력될 수 있다.
이 때, a) 내지 c) 각각에 있어서, 상기 긴급 상황을 나타내는 정보는 소정 시간 동안 지속되거나, 일부 정보가 순차적으로 출력되는 형태로 구현될 수 있다.
실시예에 따르면, 전술한 a) 내지 c) 각각 중 적어도 일부가 조합된 형태로 출력될 수 있다.
실시예에 따르면, 신호등 관리부(22)는 통행 긴급 정도에 대한 정보를 참조하여 깜빡이 형태/긴급 차량 형상의 아이콘/텍스트의 형태 중 적어도 하나의 밝기, 크기, 지속 시간, 개수, 출력 속도 중 적어도 하나를 조절하여 긴급 상황을 나타내는 정보를 생성할 수 있다.
예를 들어, 긴급 차량(1)이 응급차량인 경우, 신호등 관리부(22)는 병원 서버(미도시)로부터 긴급 차량(1)의 통행 긴급 정도가 상대적으로 '상' 레벨인 것을 확인하고, 이에 따라 제1 영역(41)의 중앙부에 오버랩되어 출력되는 아이콘의 밝기 '상', 크기 '상', 지속 시간 '상'으로 출력되도록 제어하는 명령을 생성할 수 있다.
한편, 긴급 차량(1)이 경찰차량인 경우, 신호등 관리부(22)는 범죄관리서버(미도시)로부터 긴급 차량(1)의 통행 긴급 정도가 상대적으로 '중' 레벨인 것을 확인하고, 이에 따라 제1 영역(41)의 중앙부에 오버랩되어 출력되는 경찰 차량 형상 아이콘의 크기 '중', 지속 시간 '중'으로 출력되도록 제어하는 명령을 생성할 수 있다.
-실시 형태 3-
실시 형태 3은 도 4의 (c)에 관한 것으로, 아래에서 기술하지 않은 내용들은 실시 형태 1에서 전술한 내용이 동일/유사하게 적용될 수 있다.
실시예에 따라 도 4의 (c)를 참조하면, 교통 신호 제어 명령은 제1 영역(41)이 활성화되어 제1 영역(41)의 제1 부분 영역에 보행 불가 정보가 출력되고, 제1 영역(41)의 제2 부분 영역에 긴급 차량(1)과 관련된 긴급 상황을 나타내는 정보가 함께 출력되도록 제어하는 것일 수 있다. 제1 부분 영역과 제2 부분은 서로 다른 영역으로, 제1 영역(41) 내에서 서로 균등한 비율로 분할된 영역일 수 있다.
이 때, 제2 영역(42)은 비활성화(소등)될 수 있다.
실시예에 따른 긴급 상황을 나타내는 정보는 a) 깜빡이 형태, b) 아이콘, 및 c) 텍스트 형태 중 적어도 하나로 출력될 수 있다.
이 때, a) 내지 c) 각각에 있어서, 상기 긴급 상황을 나타내는 정보는 소정 시간 동안 지속되거나, 일부 정보가 순차적으로 출력되는 형태로 구현될 수 있다.
실시예에 따르면, 전술한 a) 내지 c) 각각 중 적어도 일부가 조합된 형태로 출력될 수 있다.
실시예에 따르면, 신호등 관리부(22)는 통행 긴급 정도에 대한 정보를 참조하여 깜빡이 형태/긴급 차량 형상의 아이콘/텍스트의 형태 중 적어도 하나의 밝기, 크기, 지속 시간, 개수, 출력 속도 중 적어도 하나를 조절하여 긴급 상황을 나타내는 정보를 생성할 수 있다.
예를 들어, 긴급 차량(1)이 응급차량인 경우, 신호등 관리부(22)는 병원 서버(미도시)로부터 긴급 차량(1)의 통행 긴급 정도가 상대적으로 '상' 레벨인 것을 확인하고, 이에 따라 제1 영역(41)의 제2 부분 영역에 출력되는 아이콘의 밝기 '상', 크기 '상', 지속 시간 '상'으로 출력되도록 제어하는 명령을 생성할 수 있다.
한편, 긴급 차량(1)이 경찰차량인 경우, 신호등 관리부(22)는 범죄관리서버(미도시)로부터 긴급 차량(1)의 통행 긴급 정도가 상대적으로 '중' 레벨인 것을 확인하고, 이에 따라 제1 영역(41)의 제2 부분 영역에 출력되는 경찰 차량 형상 아이콘의 크기 '중', 지속 시간 '중'으로 출력되도록 제어하는 명령을 생성할 수 있다.
-실시 형태 4-
실시 형태 4는 도 4의 (d)에 관한 것으로, 아래에서 기술하지 않은 내용들은 실시 형태 1에서 전술한 내용이 동일/유사하게 적용될 수 있다.
실시예에 따라 도 4의 (d)를 참조하면, 교통 신호 제어 명령은 제1 영역(41)에 긴급 차량(1)과 관련된 긴급 상황을 나타내는 정보만이 출력되도록 제어하는 것일 수 있다. 이 때, 제1 영역(41)에 보행 불가 정보는 출력되지 않고, 제2 영역(42)은 비활성화(소등)될 수 있다.
실시예에 따른 긴급 상황을 나타내는 정보는 a) 깜빡이 형태, b) 아이콘, 및 c) 텍스트 형태 중 적어도 하나로 출력될 수 있다.
이 때, a) 내지 c) 각각에 있어서, 상기 긴급 상황을 나타내는 정보는 소정 시간 동안 지속되거나, 일부 정보가 순차적으로 출력되는 형태로 구현될 수 있다.
실시예에 따르면, 전술한 a) 내지 c) 각각 중 적어도 일부가 조합된 형태로 출력될 수 있다.
실시예에 따르면, 신호등 관리부(22)는 통행 긴급 정도에 대한 정보를 참조하여 깜빡이 형태/긴급 차량 형상의 아이콘/텍스트의 형태 중 적어도 하나의 밝기, 크기, 지속 시간, 개수, 출력 속도 중 적어도 하나를 조절하여 긴급 상황을 나타내는 정보를 생성할 수 있다.
예를 들어, 긴급 차량(1)이 응급차량인 경우, 신호등 관리부(22)는 병원 서버(미도시)로부터 긴급 차량(1)의 통행 긴급 정도가 상대적으로 '상' 레벨인 것을 확인하고, 이에 따라 제1 영역(41)의 중앙부에 출력되는 아이콘의 밝기 '상', 크기 '상', 지속 시간 '상'으로 출력되도록 제어하는 명령을 생성할 수 있다.
한편, 긴급 차량(1)이 경찰차량인 경우, 신호등 관리부(22)는 범죄관리서버(미도시)로부터 긴급 차량(1)의 통행 긴급 정도가 상대적으로 '중' 레벨인 것을 확인하고, 이에 따라 제1 영역(41)의 중앙부에 출력되는 경찰 차량 형상 아이콘의 크기 '중', 지속 시간 '중'으로 출력되도록 제어하는 명령을 생성할 수 있다.
-실시 형태 5-
실시 형태 5는 도 4의 (e)에 관한 것으로, 아래에서 기술하지 않은 내용들은 실시 형태 1에서 전술한 내용이 동일/유사하게 적용될 수 있다.
실시예에 따라 도 4의 (e)를 참조하면, 교통 신호 제어 명령은 제1 영역(41)이 활성화되어 보행 불가 정보가 출력되고, 제2 영역(42)에 긴급 차량(1)과 관련된 긴급 상황을 나타내는 정보가 출력되도록 제어하는 것일 수 있다.
실시예에 따른 긴급 상황을 나타내는 정보는 a) 깜빡이 형태, b) 아이콘, 및 c) 텍스트 형태 중 적어도 하나로 출력될 수 있다.
b)의 경우, 긴급 차량 형상의 아이콘이나 느낌표 형상의 아이콘이 제2 영역(42)의 중앙부에 출력되거나 c)의 경우, 문장(“긴급 상황입니다”)을 구성하는 각 텍스트 중 일부(“긴급”)가 제2 영역(42)의 중앙부에 출력될 수 있다.
이 때, a) 내지 c) 각각에 있어서, 상기 긴급 상황을 나타내는 정보는 소정 시간 동안 지속되거나, 일부 정보가 순차적으로 출력되는 형태로 구현될 수 있다.
실시예에 따르면, 전술한 a) 내지 c) 각각 중 적어도 일부가 조합된 형태로 출력될 수 있다.
실시예에 따르면, 신호등 관리부(22)는 통행 긴급 정도에 대한 정보를 참조하여 깜빡이 형태/긴급 차량 형상의 아이콘/텍스트의 형태 중 적어도 하나의 밝기, 크기, 지속 시간, 개수, 출력 속도 중 적어도 하나를 조절하여 긴급 상황을 나타내는 정보를 생성할 수 있다.
예를 들어, 긴급 차량(1)이 응급차량인 경우, 신호등 관리부(22)는 병원 서버(미도시)로부터 긴급 차량(1)의 통행 긴급 정도가 상대적으로 '상' 레벨인 것을 확인하고, 이에 따라 제2 영역(42)의 중앙부에 출력되는 아이콘의 밝기 '상', 크기 '상', 지속 시간 '상'으로 출력되도록 제어하는 명령을 생성할 수 있다.
한편, 긴급 차량(1)이 경찰차량인 경우, 신호등 관리부(22)는 범죄관리서버(미도시)로부터 긴급 차량(1)의 통행 긴급 정도가 상대적으로 '중' 레벨인 것을 확인하고, 이에 따라 제2 영역(42)의 중앙부에 출력되는 경찰 차량 형상 아이콘의 크기 '중', 지속 시간 '중'으로 출력되도록 제어하는 명령을 생성할 수 있다.
-실시 형태 6-
실시 형태 6은 도 4의 (f)에 관한 것으로, 아래에서 기술하지 않은 내용들은 실시 형태 1에서 전술한 내용이 동일/유사하게 적용될 수 있다.
실시예에 따라 도 4의 (f)를 참조하면, 교통 신호 제어 명령은 제1 영역(41)이 활성화되어 보행 불가 정보가 출력되고, 제1 영역(41)과 제2 영역(42) 모두에 긴급 차량(1)과 관련된 긴급 상황을 나타내는 정보들이 출력되도록 제어하는 것일 수 있다.
실시예에 따르면, 제1 영역(41)과 제2 영역(42) 각각에는 서로 동일한 종류의 긴급 상황을 나타내는 정보가 출력될 수 있고, 다른 실시예에 따라 상이한 종류의 긴급 상황을 나타내는 정보가 출력될 수 있다.
실시예에 따른 긴급 상황을 나타내는 정보는 a) 깜빡이 형태, b) 아이콘, 및 c) 텍스트 형태 중 적어도 하나로 출력될 수 있다.
예를 들어, b)와 같이 긴급 차량 형상의 아이콘이나 느낌표 형상의 아이콘이 제1 영역(41)의 중앙부에 오버랩되어 출력되면서 제2 영역(42)의 중앙부에 c)와 같은 문장(“응급차 대기시간 3초..”)가 출력될 수 있다.
이 때, a) 내지 c) 각각에 있어서, 상기 긴급 상황을 나타내는 정보는 소정 시간 동안 지속되거나, 일부 정보가 순차적으로 출력되는 형태로 구현될 수 있다.
실시예에 따르면, 전술한 a) 내지 c) 각각 중 적어도 일부가 조합된 형태로 출력될 수 있다.
실시예에 따르면, 신호등 관리부(22)는 통행 긴급 정도에 대한 정보를 참조하여 깜빡이 형태/긴급 차량 형상의 아이콘/텍스트의 형태 중 적어도 하나의 밝기, 크기, 지속 시간, 개수, 출력 속도 중 적어도 하나를 조절하여 긴급 상황을 나타내는 정보를 생성할 수 있다.
그리고, 실시예에 따라 제1 영역(41)에 포함된 긴급 상황을 나타내는 정보에 대한 상기 요소들의 조절 정도와 제2 영역(42)에 포함된 긴급 상황을 나타내는 정보에 대한 상기 요소들의 조절 정도가 상이할 수 있다.
예를 들어, 긴급 차량(1)이 응급차량인 경우, 신호등 관리부(22)는 병원 서버(미도시)로부터 긴급 차량(1)의 통행 긴급 정도가 상대적으로 '상' 레벨인 것을 확인하고, 이에 따라 제1 영역(41)의 중앙부에 출력되는 아이콘의 밝기 '상', 크기 '상', 지속 시간 '상'으로 출력되도록 제어하면서 제2 영역(42)의 중앙부에 출력되는 텍스트의 밝기 '상', 크기 '상', 지속 시간 '중' 명령을 생성할 수 있다.
한편, 긴급 차량(1)이 경찰차량인 경우, 신호등 관리부(22)는 범죄관리서버(미도시)로부터 긴급 차량(1)의 통행 긴급 정도가 상대적으로 '중' 레벨인 것을 확인하고, 이에 따라 제1 영역(41)의 중앙부에 출력되는 경찰 차량 형상 아이콘의 크기 '중', 지속 시간 '중'으로 출력되도록 제어하면서 제2 영역(42)의 중앙부에 출력되는 텍스트의 밝기 '중', 크기 '중', 지속 시간 '하' 명령을 생성할 수 있다.
실시 형태 6에 따르면, 제1 영역(41) 및 제2 영역(42) 모두에 긴급 상황을 나타내는 정보들이 출력되도록 함으로써, 긴급 상황에 대한 정보를 보다 정확히 전달받을 수 있으며, 또한, 텍스트들로 구성된 긴 문장 정보를 출력해도 보다 가시성이 좋아지게 되는 이점이 있다.
도 5은 실시예에 따른 전자 장치(1')와 주변 기기(2')를 나타낸 블록도이다.
도 5에 도시한 바와 같이, 실시예에 따른 전자 장치(1')는 광원(10'), 객체 검출부(20'), 알람부(30'), 제어부(40'), 통신부(50'), 및 저장부(60')를 포함할 수 있다.
실시예에 따르면, 전자 장치(1')는 광을 출력하고 객체를 검출할 수 있는 모든 종류의 장치를 의미할 수 있으며, 대표적으로 신호등을 예시할 수 있으나, 본 발명의 권리 범위가 이에 제한되지 않는다.
전자 장치(1')는 보행자용 신호등과 차량용 신호등을 포함할 수 있다.
광원(10')은 전자 장치(1')에서 출력되기 위한 광을 제공하는 것으로 LED를 포함할 수 있다.
광원(10')은 적색, 황색, 녹색으로 선택하여 광을 출력할 수 있다.
광원(10')은 제어부(40')의 제어하에 점등/점멸될 수 있다.
객체 검출부(20')는 전자 장치(1') 주변의 환경 정보를 센싱하여 전자 장치(1')의 인근 영역에 위치하는 객체를 검출하기 위한 것으로, 센싱 데이터에 기초하여 객체 정보를 생성하고, 생성된 객체 정보를 제어부(40')로 전달할 수 있다. 이때, 객체는 전자 장치(1') 주변에 존재하는 다양한 물체, 예를 들면, 사람, 차량, 동물 등을 포함할 수 있다.
객체 검출부(20')는 카메라(21'), 라이다 센서(22'), 초음파 센서, 레이더 센서, 적외선 센서 등을 포함할 수 있다.
알람부(30')는 알람 정보를 출력하기 위한 것으로 음성출력부(31'), 영상출력부(32'), 및 광출력부(33') 등을 포함할 수 있다.
제어부(40')는 전자 장치(1')를 구성하는 각 구성의 전반적인 동작을 제어한다.
통신부(50')는 주변 기기(2')와의 데이터 송/수신을 담당한다.
통신부(50')는 소정의 원거리/근거리 내에서 주변 기기(2')와 통신을 수행할 수 있다.
저장부(60')는 전자 장치(1')의 동작에 필요한 모든 종류의 정보를 저장하고, 제어부(40')는 저장부(60')에 저장된 정보를 독출하여 전자 장치(1')를 제어할 수 있다.
주변 기기(2')는 전자 장치(1')과 통신하는 사람이 보유하는 모바일 단말 등의 기기 또는 일반차량이나 자율주행 차량, 또는 차량의 탑승자가 보유하는 기기 등을 포함할 수 있다.
주변 기기(2')는 전자 장치(1')으로부터 전송되는 알람 정보를 수신하여 출력할 수 있다.
도 6는 실시예에 따른 전자 장치(1')의 동작을 예시하며, 도 7 내지 도 8은 전자 장치(1')의 동작을 설명하기 위해 참조되는 도면이다.
제어부(40')는 점등하는 광원(10')의 색상을 판별할 수 있다(S21').
제어부(40')는 점등하는 광원(10')의 색상이 적색, 녹색, 황색 중 어느 색상에 해당하는 지 여부를 판별할 수 있다.
그리고, 제어부(40')는 전자 장치(1') 인근 영역에 존재하는 객체 검출부(20')에 의해 검출된 제1 객체를 식별할 수 있다(S22').
예를 들어, 검출된 제1 객체의 종류, 위치, 및 크기 중 적어도 하나를 식별할 수 있다.
제어부(40')는 객체 검출부(20')에 의해 검출된 제1 객체가 사람인지 또는 차량인지 여부를 식별할 수 있다.
실시예에 따르면, 제어부(40')는 카메라(21')로부터 획득한 영상 데이터와 라이다 센서(22')로부터 획득한 포인트 맵 데이터를 함께 이용하여, 검출된 제1 객체를 식별할 수 있다.
구체적으로, 제어부(40')는 라이다 센서(22')로부터 획득한 포인트 맵 데이터를 이용하여 1차적으로 검출된 제1 객체를 식별하고, 다시 카메라(21')로부터 획득한 영상 데이터를 이용하여 2차적으로 동일 객체를 식별할 수 있다.
실시예에 따르면, 검출된 제1 객체는 검출할 것으로 미리 지정된 객체일 수 있다.
본 발명에 따르면, 라이다 센서(22')와 카메라(21')를 함께 이용하여 객체를 식별할 수 있도록 함으로써, 객체 인식의 정밀도가 보다 향상될 수 있게 된다.
제어부(40')는 판별한 광원(10')의 색상과 객체 검출부(20')를 통해 검출된 제1 객체를 식별한 정보가 조합된 식별 정보를 생성할 수 있다(S23').
그리고, 식별 정보에 기초해 실제 전자 장치 인근 영역에 대응한 카메라(21')로부터 획득된 영상 데이터의 영역으로부터 위험 영역을 변경하여 설정할 수 있다(S24').
제어부(40')는 카메라(21')로부터 획득한 영상 데이터와 라이다 센서(22')로부터 획득한 포인트 맵 데이터를 함께 이용하여, 실제 전자 장치(1') 인근 영역에 대응하는 상기 영상 데이터의 영역으로부터 위험 영역을 설정할 수 있다.
구체적으로, 제어부(40')는 라이다 센서(22')로부터 3D 형상을 나타내는 점의 집합인 포인트 클라우드 맵 데이터를 획득할 수 있다.
제어부(40')는 실제 전자 장치(1') 인근 영역에 대응하는 포인트 클라우드 맵 데이터 상의 영역에서 위험 영역을 1차적으로 식별하고, 실제 전자 장치(1') 인근 영역에 대응하는 포인트 클라우드 맵 데이터 상의 영역에 대응하여 영상 데이터 상의 영역을 식별하고, 포인트 클라우드 맵 데이터 상의 위험 영역에 대응하여 영상 데이터 상의 위험 영역을 2차적으로 다시 식별할 수 있다.
실시예에 따르면, 실제 전자 장치(1') 인근 영역에 대응하는 포인트 클라우드 맵 데이터 상의 영역과 위험 영역, 그리고 이에 대응한 영상 데이터 상의 영역과 위험 영역은 각각 저장부(60')에 미리 설정되어 저장된 영역일 수 있다.
본 발명에 따르면, 라이다 센서(22')와 카메라(21')를 함께 이용하여 영역을 인식할 수 있도록 함으로써, 영역 인식의 정밀도가 보다 향상될 수 있게 된다.
이 때, 제어부(40')는 카메라(21')로부터 획득한 영상 데이터와 라이다 센서(22')로부터 획득한 포인트 맵 데이터를 함께 이용하여, 상기 위험 영역을 변경하여 인식할 수 있다.
구체적으로, 제어부(40')는 전술한 바와 같이 카메라(21')로부터 획득한 영상 데이터와 라이다 센서(22')로부터 획득한 포인트 맵 데이터를 함께 이용하여 위험 영역을 설정하고, 점등하는 광원(10')의 색상과 객체 검출부(20')를 통해 검출된 객체의 종류에 기초해 실제 전자 장치 인근 영역에 대응하여 카메라(21')로부터 획득된 영상 데이터의 영역으로부터 위험 영역을 다시 변경하여 인식할 수 있다.
실시예에 따르면, 위험 영역은 제1 객체에게는 안전 영역으로써, 제1 객체와 다른 제2 객체가 해당 위험 영역에 진입하지 못하도록 하기 위한, 즉, 제2 객체에 대한 진입을 금지하기 위한 영역으로 정의할 수 있다.
실시예에 따르면, 실제 전자 장치 인근 영역에 대응한 카메라(21')로부터 획득된 영상 데이터의 영역과 위험 영역은 각각 저장부(60')에 미리 설정되어 저장된 영역일 수 있다.
실시예에 따르면, 위험 영역은 식별 정보에 매핑되어 저장부(60')에 미리 구분되어 설정되고, 독출된 식별 정보에 대응하여 위험 영역이 변경되어 인식될 수 있다.
실시예에 따르면, 실제 전자 장치(1') 인근 영역에 대응한 영상 데이터 상의 영역은 도 7에 도시한 바와 같이, 횡단보도 영역(A), 인도 영역(B), 차도 영역(C) 등을 포함할 수 있다.
그리고, 위험 영역은 전자 장치(1')의 관심 영역으로, 횡단보도 영역(A), 인도 영역(B), 차도 영역(C) 중 선택된 적어도 일부이거나, 각 영역 중 일부에 해당할 수 있다.
도 7의 (a)는 전자 장치(1')이 보행자 전자 장치인 경우를 예시하며, 점등하는 광원(10')의 색상이 녹색(검정음영처리부분)이고 검출된 객체가 사람(지그재그무늬)인 경우, 이를 기준으로 한 횡단보도 영역(A)이 위험 영역(회색음영처리부분)으로 인식된 것을 예시한다. 즉, (a)의 경우, 보행자 전자 장치가 녹색으로 사람이 횡단보도 영역(A) 상에 위치하게 될 것을 예견하여, 사람 이외의 다른 제2 객체(예> 차량)의 횡단보도 영역(A)에 대한 진입을 금지하기 위하여 횡단보도 영역(A)을 위험 영역으로 설정할 수 있다.
다만, 이 때 위험 영역에 대한 진입을 금지시키기 위한 제2 객체의 범위는 제1 객체에 대응되어 미리 설정되어 저장될 수 있다.
즉, 제2 객체가 제1 객체와 다른 종류라 하더라도, 강아지, 자전거 등은 진입 금지 대상이 되는 객체가 아니며, 오토바이, 차량 등은 진입 금지 대상이 되는 객체인 것으로 설정될 수 있다.
실시예에 따르면, 제어부(40')는 보행자 전자 장치의 점등하는 상기 광원(10')의 색상이 녹색이고 상기 영상으로부터 인식된 상기 전자 장치(1') 인근 영역에 존재하는 객체가 사람인 경우, 상기 사람의 횡단 잔여 시간에 기초해 상기 위험 영역을 변경하여 인식할 수 있다.
구체적으로, 제어부(40')는 횡단보도 영역(A)에 사람이 진입하면, 사람의 횡단 잔여 시간을 계산하고, 횡단보도 영역(A)에 사람이 위치한 지점에 따라 횡단 잔여 시간을 상이하게 계산하여, 이에 따라 위험 영역을 변경하여 인식할 수 있다. 예를 들어, 횡단 잔여 시간이 상대적으로 긴 경우의 위험 영역과 횡단 잔여 시간이 상대적으로 짧은 경우의 위험 영역을 상이하게 인식할 수 있다.
도 7의 (a)와 도 8의 (a)를 참조하면, 화살표 방향으로 사람이 횡단하는 경우, 도 7의 (a)는 사람이 횡단보도 영역(A)에 막 진입하기 시작하여 횡단 잔여 시간을 10초로 계산하고, 이에 따라 횡단보도 영역(A) 전체를 위험 영역(회색음영처리부분)으로 인식할 수 있다. 반면, 도 8의 (a)는 사람이 횡단보도 영역(A)을 거의 다 횡단하여 횡단 잔여 시간을 1초로 계산하고, 이에 따라 횡단보도 영역(A) 중 일부를 위험 영역(회색음영처리부분)으로 인식할 수 있다.
이 경우, 위험 영역인 횡단보도 영역(A) 중 일부의 크기는 횡단 잔여 시간에 비례하여 인식될 수 있다.
즉, 횡단 잔여 시간이 긴 경우, 이는 위험 영역이 커지게 되는 것을 의미하여 해당 객체가 해당 위험 영역에 진입하게 되면 알람을 출력할 수 있다.
한편, 도 7의 (b)는 전자 장치(1')이 차량용 전자 장치인 경우를 예시하며, 점등하는 광원(10')의 색상이 녹색(검정음영처리부분)이고 검출된 객체가 차량인 경우, 이를 기준으로 한 차도 영역(C) 및 횡단보도 영역(A)을 포함한 영역 중 일부가 위험 영역(회색음영처리부분)으로 인식된 것을 예시한다. 즉, (b)의 경우, 차량용 전자 장치가 녹색으로 차량이 차도 영역(C) 및 횡단보도 영역(A)을 포함한 영역 중 일부에 위치하게 될 것을 예견하여, 해당 차량 이외의 다른 제2 객체(예> 사람, 오토바이 등)의 해당 영역에 대한 진입을 금지하기 위하여 이를 위험 영역으로 설정할 수 있다.
다만, 이 때 위험 영역에 대한 진입을 금지시키기 위한 제2 객체의 범위는 제1 객체에 대응되어 미리 설정되어 저장될 수 있다.
실시예에 따르면, 제어부(40')는 차량의 주행 속도에 기초해 위험 영역을 변경하여 인식할 수 있다.
구체적으로, 제어부(40')는 차량의 주행 속도를 판별하고, 판별한 주행 속도에 비례하여 위험 영역의 크기를 산출할 수 있다. 즉, 차량의 주행 속도가 상대적으로 빠르면 위험 영역의 크기를 상대적으로 크게 산출하고, 차량의 주행 속도가 상대적으로 느리면 위험 영역의 크기를 상대적으로 작게 산출할 수 있다.
한편, 제어부(40')는 차량용 전자 장치의 점등하는 상기 광원(10')의 색상이 녹색이고 상기 영상으로부터 인식된 상기 전자 장치(1') 인근 영역에 존재하는 객체가 차량인 경우, 상기 차량의 주행 차선에 기초해 상기 위험 영역을 변경하여 인식할 수 있다.
도 7의 (b)와 도 8의 (b)를 참조하면, 도 7의 (b)와 같이 차량이 3차선에 위치한 경우, 차도 영역(C) 및 횡단보도 영역(A)을 포함한 영역 중 3차선에 대응하는 일부 영역을 위험 영역으로 설정할 수 있으나, 도 8의 (b)와 같이 차량이 2차선에 위치한 경우, 차도 영역(C) 및 횡단보도 영역(A)을 포함한 영역 중 2차선에 대응하는 일부 영역을 위험 영역으로 설정할 수 있다.
제어부(40')는 제1 객체를 기준으로 한 위험 영역을 인식한 상태에서, 제2 객체가 위험 영역에 진입한 것으로 판단하면(S25'), 알람부(30')를 제어하여 알람 정보를 출력할 수 있다(S26').
객체 검출부(20')는 제2 객체에 대해서도 제1 객체를 검출한 것과 동일/유사하게 검출할 수 있으며, 제어부(40')는 객체 검출부(20')를 통해 검출된 제2 객체를 식별할 수 있다.
실시예에 따르면, 제2 객체는 제1 객체와 상이한 종류의 객체로, 위험 영역에 대한 진입이 금지된 객체로 정의할 수 있다.
실시예에 따르면, 제2 객체는 제1 객체에 대응하여 상대적으로 매핑되어 정의될 수 있다.
제어부(40')는 음성, 영상, 및 광 중 적어도 하나의 형태로 알람 정보를 출력할 수 있다.
본 발명에 따르면, 미리 위험 영역을 구분하여 설정하도록 하고, 상황에 따라 위험 영역을 변경하여 인식하도록 함으로써, 전자 장치(1')이 위험 영역을 보다 신속하고 정확하게 식별할 수 있게 된다.
특히, 광원(1)의 색상과, 객체의 종류에 따라 상이하게 위험 영역을 변경하여 인식하도록 함으로써, 보다 정확하게 위험 영역을 식별할 수 있게 된다.
예를 들어, 객체가 위험 영역에 위치한 것인지, 위험 영역과 안전 영역 사이에 위치한 것인지, 안전 영역에 위치한 것인지 여부를 명확하게 식별하여 객체가 위험 영역에 진입한 것인지 여부에 대해 정확하게 식별할 수 있게 된다.
더불어, 동일 식별 정보라도 전자 장치의 종류에 따라서도 위험 영역을 상이하게 인식하도록 하여 상황에 맞는 위험 영역을 식별할 수 있게 된다.
또한, 이로써, 위험 영역에 진입하는 객체를 보다 빠르게 식별하여 정확한 타이밍에 알람 정보를 출력할 수 있게 된다.
한편, 실시예에 따르면 제어부(40')는 식별 정보에 기초해 위험 영역의 크기, 개수, 및 위치 중 적어도 하나를 변경하여 인식할 수 있다.
예를 들어, 도 7의 (a)와 (b)의 경우와 같이 위험 영역의 위치를 변경하여 인식할 수 있고, 도 7의 (a)와 도 8의 (a)와 같이, 위험 영역의 크기를 변경하여 인식할 수 있다.
실시예에 따르면, 제어부(40')는 객체의 종류 및 시간대 중 적어도 하나에 따라 상이한 종류의 알람 정보를 출력하도록 알람부(30')를 제어할 수 있다.
구체적으로, 알람부(30')는 광, 영상, 음성 등의 형태로 알람 정보를 출력할 수 있으며, 객체의 종류 및 시간대 중 적어도 하나에 따라 상기 상이한 형태의 알람 정보 중 적어도 일부를 선택하여 출력할 수 있다.
예를 들어, 도 7의 (b)와 같이 점등하는 광원(10')의 색상이 녹색이고, 밤에 위험 영역에서 사람이 검출된 경우, 이에 대응하여 음성출력부(31')를 통해 사람이 위험 영역에서 벗어날 것을 명하는 메시지를 출력하면서 광출력부(33')를 통해 경고 형태의 광을 출력할 수 있다.
반면, 도 7의 (a)와 같이 점등하는 광원(10')의 색상이 녹색이고, 낮에 위험 영역에서 차량이 검출된 경우, 이에 대응하여 음성출력부(31')를 통해 차량이 위험 영역에서 벗어날 것을 명하는 메시지를 출력하면서 영상출력부(32')를 통해 횡단보도로 진입한 차량의 상황을 영상으로 출력할 수 있다.
즉, 밤이라는 시간대를 고려해 조명부를 보유하지 않은 사람에게는 광 형태로 알람 정보를 출력하고, 낮이라는 시간대와 조명부를 보유한 차량에게는 광 형태의 알람 정보는 출력하지 않고 영상 형태의 알람 정보를 출력할 수 있다.
실시예에 따르면, 제어부(40')는 주변 기기(2')에 알람 정보를 제공할 수 있고, 주변 기기(2')에서 알람 정보를 출력하도록 제어할 수 있다.
제어부(40')는 통신부(50')를 통해 주변 기기(2')와 소정의 근거리 내에서 통신을 수행할 수 있다.
제어부(40')는 주변 기기(2')가 사람이 보유한 모바일 단말 등의 기기인지 또는 차량인지 여부를 식별하여, 식별 결과에 따라 상이한 형태의 알람 정보를 출력하도록 주변 기기(2')를 제어할 수 있다.
도 9은 실시예에 따른 자율 주행 차량(1'')의 블록도이다.
도 9에 도시한 바와 같이, 자율 주행 차량(1'')은 제어부(10''), 카메라부(20''), 음성감지부(30''), 심박 센서(40''), 압력 센서(50''), 모션 센서(60''), 레이더 센서(70''), 구동부(80''), 통신부(90''), 저장부(100''), 및 사용자 인터페이스부(110'')를 포함할 수 있다.
이하, 제어부(10'')와 상기 각 구성 요소간의 동작 수행으로 자율 주행을 수행하는 명령을 생성하는 과정에 대해 아래 각 실시 형태를 통해 기술한다.
[실시 형태 1]
실시예에 따르면, 카메라부(20'')가 탑승자를 촬영하여 영상을 생성하면, 제어부(10'')는 해당 영상으로부터 획득된 정보를 이용하여 탑승자가 심근경색증인 것으로 진단할 수 있다.
카메라부(20'')는 적어도 하나의 이미지 센서들을 포함하고 자율 주행 차량(1'') 내부의 환경을 실시간 촬영하여 2D/3D 영상을 획득할 수 있다.
카메라부(20'')는 자율 주행 차량(1'')의 소정 위치(예: 리어뷰 미러)에 장착되어 자율 주행 차량(1'')에 탑승한 탑승자의 거동 및 상태를 촬영한 영상을 생성할 수 있다.
참고로, 본 발명에서 탑승자란 운전자 또는 동승자인 것으로 정의한다.
카메라부(20'')는 하나 또는 복수 개가 구비될 수 있다.
실시예에 따르면, 제어부(10'')는, 카메라부(20'')가 탑승자를 촬영하여 획득된 영상이 1) 상기 탑승자의 손으로 상기 탑승자의 심장 부위를 움켜쥐는 형상을 나타냄과 동시에, 2) 상기 탑승자의 얼굴의 일그러짐 정도가 소정의 임계치를 초과하면서, 3) 상기 탑승자의 상체가 소정 각도 이상 숙여진 것으로 판단하면 상기 탑승자가 심근경색증인 것으로 진단할 수 있다.
구체적으로, 1)2)3) 각각에 대한 기준 비교 정보는 저장부(100'')에 미리 저장될 수 있고, 제어부(10'')는 1)2)3) 각각의 실시간 획득 프레임과 저장부(100'')에 미리 저장된 기준 비교 정보를 서로 비교하여 심근경색증을 진단할 수 있다.
실시예에 따르면 본 발명의 미리 저장된 기준 비교 정보는 심근경색증인 것으로 판별하기 위해 인공 지능 알고리즘에 의해 반복적으로 기계 학습되어 획득된 것일 수 있다.
실시예에 따르면, 탑승자의 시선이 소정 각도 미만인 곳을 향하는 지 여부, 탑승자의 눈이 실신 상태에 가깝도록 감겨져 있는 지 여부, 탑승자의 신체가 한쪽으로 기울어져 있는지 여부 등의 정보 중 적어도 하나가 함께 영상으로부터 검출되어 심근경색증을 진단할 수도 있다.
실시예에 따르면, 상기 형상들이 복수의 프레임으로부터 소정 시간 이상 반복적으로 획득되는 경우 심근경색증인 것으로 진단할 수 있다.
다만, 이외에도 심근경색증 환자들의 동일한 행동 패턴으로부터 학습되어 심근경색증으로 정의될 수 있는 모든 이미지 형상이 본 발명에 동일/유사하게 적용될 수 있다.
도 10를 함께 참조하면, 제어부(10'')는 신경망에 대한 학습을 통해 심근경색증 분석 모델을 생성하고, 생성한 심근경색증 분석 모델을 이용해 탑승자 영상으로부터 심근경색증 진단 정보를 출력하는 추론 과정을 수행할 수 있다.
이를 위하여, 우선 제어부(10'')는 미리 탑승자 영상에 대한 데이터 셋트를 생성할 수 있다.
제어부(10'')는 생성한 데이터 셋트를 딥러닝 알고리즘에 적용 가능하도록 전처리할 수 있다.
예를 들어, 이미지 자르기(crop), 평행 이동 하기(shift), 뒤집기(flipping), 색상 조정 등의 전처리를 수행할 수 있다.
제어부(10'')는 전처리된 데이터 셋트를 미리 준비된 신경망에 입력시키고, 심근경색증 진단 정보를 신경망으로부터 출력시키는 기계 학습을 반복적으로 수행하여 심근경색증 분석 모델을 구축할 수 있다.
실시예에 따르면 전처리된 데이터 셋트를 입력으로 하는 합성곱 신경망(Convolutional Neural Networks)과, 합성곱 신경망의 출력을 입력으로 하는 완전 연결 심층 신경망(Fully Connected Neural Networks)에 대한 기계 학습을 통해 심근경색증 분석 모델을 구축할 수 있다.
실시예에 따르면, 전처리된 데이터 셋트를 합성곱 신경망이 입력받아 탑승자 영상의 특징을 분석한 특징 패턴 정보를 출력할 수 있다.
실시예에 따르면, 탑승자 영상이 탑승자의 손으로 탑승자의 심장 부위를 움켜쥐는 형상을 나타내는 지, 탑승자의 얼굴의 일그러짐 정도가 소정의 임계치를 초과하는지, 탑승자의 상체가 소정 각도 이상 숙여진 것인지 등에 대한 탑승자 형상에 대한 특징 패턴 정보를 출력할 수 있다.
또한, 합성곱 신경망에서 출력된 탑승자 형상에 대한 특징 패턴 정보는 완전 연결 심층 신경망에 입력되어 학습을 수행함으로써 분류된 병명인 심근경색증으로 진단할 수 있는 심근경색증 분석 모델이 구축될 수 있다.
구체적으로, 합성곱 신경망은 탑승자 영상에 커널을 이용해 특징 패턴 정보를 나타내는 피쳐맵을 출력할 수 있고, 이 과정에서 탑승자 영상에 대한 풀링과 드롭아웃을 수행할 수 있다.
그리고, 전처리된 데이터 셋트를 이용해 상기 신경망들을 통해 출력된 결과와 트레이닝 데이터를 상기 신경망들을 통해 출력한 결과와의 오차를 비교하여 신경망의 가중치를 점차적으로 변화시켜주는 역전파(backpropagation) 과정을 통해 학습될 수 있다.
즉, 탑승자 형상에 대한 특징 패턴 정보가 완전 연결 심층 신경망에 입력되어 상기 학습을 통해 심근경색증 진단 정보를 출력될 수 있다.
참고로, 도 10를 참조하면, 합성곱 신경망을 이용해 탑승자 영상으로부터 커널을 이용해 탑승자 형상에 대한 특징 패턴 정보를 출력하고, 상기 특징 패턴 정보가 완전 연결 심층 신경망에 입력되어 심근경색증, 심장마비, 위계양 중에서 해당하는 심근경색증 진단 정보를 출력할 수 있다.
실시예에 따르면, 상기 학습의 경우, 탑승자 영상으로부터 획득된 특정 객체가 사람인지 여부를 1차적으로 검출하고, 사람으로 판별되면 2차적으로 탑승자의 형상으로부터 병을 검출하도록, 해당 과정이 상세하게 구현될 수도 있다.
본 발명에서는 신경망으로 CNN과 FCNN을 이용한 것을 예시하였으나, 이는 일 실시예에 불과하고, DNN(Deep Neural Network)이나 RNN(Recurrent Neural Network) 등 다양한 신경망을 이용하는 경우에도 본 발명이 동일/유사하게 적용될 수 있다.
실시예에 따르면, 제어부(10'')는 소프트웨어 모듈로 구현되거나 적어도 하나의 하드웨어 칩 형태로 제작되어 자율 주행 차량(1'')에 탑재될 수 있다.
예를 들어, NPU(Neural Processing Unit)와 같은 인공 지능(AI; artificial intelligence)을 위한 전용 하드웨어 칩 형태로 제작되거나, 기존의 범용 프로세서(예: CPU 또는 Application Processor) 또는 그래픽 전용 프로세서(예: GPU(Graphic Processing Unit) 또는 VPU(Visual Processing Unit))의 일부로 제작되어 자율 주행 차량(1'')에 탑재될 수도 있다.
제어부(10'')는 탑승자가 심근경색증인 것으로 진단하면, 자율 주행 차량(1'')이 병원으로 자율 주행을 수행하도록 제어하는 명령을 생성할 수 있다.
구체적으로, 병원으로 자율 주행을 수행하도록 제어하는 명령으로 구동부(80'')를 제어하여 자율 주행 차량(1'')이 병원으로 자율 주행을 수행할 수 있다.
실시예에 따르면, 제어부(10'')는 자율 주행 차량(1'')이 여유 병상이 구비된 병원으로 자율 주행을 수행하도록 제어할 수 있다.
예를 들어, 제어부(10'')는 심근경색증 환자가 발생하여 병원으로 자율 주행을 수행할 것을 알리는 긴급 상태 정보를 통신부(90'')를 통해 병원 관리 서버(미도시)로 전송하여, 병원 관리 서버(미도시)로부터 여유 병상이 구비된 병원에 대한 정보를 수신하며, 해당 병원으로 자율 주행을 수행하도록 제어할 수 있다.
심근경색증 환자가 발생한 경우는, 골든 타임이 존재하는 매우 위급한 상황이므로, 특히 야간 시간 대에 여유 병상이 확보되지 않은 병원으로 주행을 수행하게 되면 많은 시간을 낭비하여 골든 타임을 초과할 수 있게 되므로, 본 발명에 따르면 이러한 여유 병상이 구비된 병원으로 자율 주행을 수행하도록 제어하여 골든 타임 내 치료가 가능하도록 구현할 수 있다.
다른 실시예에 따르면, 제어부(10'')는 심근경색증 전문 병원, 여유 병상이 구비된 병원, 및 현 위치에서 가장 가까운 병원 중 다른 탑승자에 의해 선택된 병원으로 상기 자율 주행 차량(1'')이 상기 자율 주행을 수행하도록 제어할 수 있다.
저장부(100'')는 미리 심근경색증 치료를 전문으로 하는 전문의가 구비된 병원에 대한 리스트를 저장할 수 있다.
실시예에 따르면, 제어부(10'')는 심근경색증 환자가 발생하여 병원으로 자율 주행을 수행할 것을 알리는 긴급 상태 정보를 통신부(90'')를 통해 병원 관리 서버(미도시)로 전송하여, 병원 관리 서버(미도시)로부터 현 시점에서 여유 병상이 구비된 병원에 대한 정보를 수신할 수 있다.
실시예에 따르면, 제어부(10'')는 위치 감지부(예> GPS)로부터 획득된 현 위치에서 가장 가까운 병원을 검색하여 가장 가까운 병원에 대한 정보를 획득할 수 있다.
제어부(10'')는 이와 같이 다양한 복수의 병원에 대한 리스트 정보를 다른 탑승자에게 사용자 인터페이스부(110'')를 통해 제공하고, 다른 탑승자로부터 사용자 인터페이스부(110'')를 통해 리스트 정보 중 선택된 병원으로 자율 주행 차량(1'')이 자율 주행을 수행하도록 제어할 수 있다.
실시예에 따르면, 이와 같이 사용자 선택에 의한 병원으로 자율 주행을 수행할 수 있도록 하여 사용자 선택의 자율성을 높임과 동시에 다른 탑승자가 특히 탑승자의 가족인 경우 해당 결정을 수행하도록 하여 추후 분쟁이 생길 염려를 덜어줄 수 있게 된다.
실시예에 따르면, 제어부(10'')는 탑승자 영상에서, 1-1) 탑승자의 가슴을 움켜쥐는 탑승자의 손이 양손인지 여부, 2-1) 탑승자의 얼굴의 일그러짐 정도, 3-1) 및 탑승자의 상체가 소정 각도 이상 숙여진 정도 중 적어도 하나에 기초하여 심근경색증의 중증도를 더 진단할 수 있다.
즉, 제어부(10'')는 1차적으로 전술한 1)2)3)에 기초해 탑승자 영상이 소정의 기준을 만족하여 심근경색증에 해당한다고 판별한 후, 다시 2차적으로 위 1-1),2-1),3-1) 중 적어도 하나에 기초해 심근경색증의 중증도를 진단할 수 있다.
예를 들어, 탑승자가 한손으로 가슴을 움켜쥐고 탑승자의 얼굴의 일그러짐 정도가 70% 정도에 해당한다고 판단하면 심근경색증의 중증도가 중간 레벨에 해당하는 것으로 진단할 수 있다.
반면, 탑승자가 두손으로 가슴을 움켜쥐고 탑승자의 얼굴의 일그러짐 정도가 90% 정도에 해당하며 탑승자의 상체가 90도에 가깝게 숙여진 것으로 판단하면 심근경색증의 중증도가 최상위 레벨에 해당하는 것으로 진단할 수 있다.
실시예에 따르면, 제어부(10'')는 상기 심근경색증의 중증도 진단 결과에 기초해 a) 심근경색증 전문 병원, b) 여유 병상이 구비된 병원, 및 c) 현 위치에서 가장 가까운 병원 중 적합한 병원으로 상기 자율 주행 차량이 자율 주행을 수행하도록 제어할 수 있다.
a) b) c)의 정보를 획득하는 과정은 전술한 바와 같다.
예를 들어, 제어부(10'')는 탑승자의 심근경색증의 중증도가 중간 레벨에 해당하는 것으로 진단하면, 자율 주행 차량(1'')이 이에 대응하여 심근경색증 전문 병원으로 자율 주행을 수행하도록 제어할 수 있다.
반면, 제어부(10'')는 탑승자의 심근경색증의 중증도가 최상위 레벨에 해당하는 것으로 진단하면, 이에 대응하여 자율 주행 차량(1'')이 여유 병상이 구비된 병원이나 가장 가까운 병원으로 자율 주행을 수행하도록 제어할 수 있다.
즉, 본 발명에 따르면, 심근경색증의 중증도에 따라 자율 주행 차량(1'')이 적절한 병원을 결정하도록 함으로써, 환자의 상태에 맞는 맞춤형 병원에서 환자가 치료를 받을 수 있게 된다.
실시예에 따르면, 제어부(10'')는 음성감지부(30'')에 의한 탑승자의 음성 감지 결과와 저장부(100'')에 기 저장된 소정의 외자의 신음 소리의 매칭율을 더 참조하여 자율 주행 차량(1'')이 병원으로 자율 주행을 수행하도록 제어할 수 있다.
즉, '욱', '억', '악', '엇' 등의 외자의 신음소리가 음성감지부(30'')를 통해 상기 탑승자의 영상과 함께 출력되면, 제어부(10'')는 자율 주행 차량(1'')이 병원으로 자율 주행을 수행하도록 제어할 수 있다.
상기 외자의 신음 소리의 매칭율이 소정의 기준 이상을 만족하면 자율 주행 차량(1'')이 병원으로 자율 주행을 수행하도록 제어할 수 있다.
실시예에 따르면, 외자의 신음소리가 지속된 시간 정보를 상기 매칭율과 함께 참조하여 자율 주행 차량(1'')이 병원으로 자율 주행을 수행하도록 제어할 수 있다.
즉, 외자의 신음소리가 소정 시간 이상 지속된 경우에만 자율 주행을 수행하도록 제어할 수 있다.
본 발명에 따르면, 탑승자의 영상 정보와 음성 정보를 함께 이용하여 심근경색증임을 진단할 수 있도록 하여 진단의 정확성이 보다 높아질 수 있게 된다.
[실시 형태 2]
실시 형태 2의 경우, 실시 형태 1에서 기술한 내용이 동일/유사하게 적용될 수 있다.
실시예에 따라 도 11을 함께 참조하면, 제어부(10'')는 자율 주행 차량(1'')에 구비된 시트 벨트(SB)''에 내장된 심박 센서(40'')와 시트(S)''에 내장된 압력 센서(50'')를 함께 이용해 심근경색증인 것을 진단할 수 있다.
구체적으로, 시트 벨트(SB)'' 중, 특히, 탑승자의 심장 부위에 대응되는 부위에 심박 센서(40'')를 배치할 수 있다.
심박 센서(40'')는 칩 또는 패치 등의 형태로 시트 벨트에 내장될 수 있다.
실시예에 따르면, 심박 센서(40'')가 평소에는 동작하지 않다가(off) 압력 센서(50'')로부터 취득된 정보로 탑승자가 한쪽으로 기울어진 것으로 판단된 경우에만 심박 센서(40'')가 동작(on)하도록 구현할 수 있다.
구체적으로, 압력 센서(50'')는 시트(S)''의 중앙부를 기준으로 좌측부와 우측부에 동일한 개수로 배치되어 있으며, 좌측부 압력 센서로부터 검출된 압력의 크기와 우측부 압력 센서로부터 검출된 압력의 크기를 비교하여 탑승자가 한쪽으로 기울어진 것을 판단할 수 있다.
즉, 좌측부 압력 센서로부터 검출된 압력의 크기와 우측부 압력 센서로부터 검출된 압력의 크기의 차이가 소정값 이상인 경우에만 심박 센서(40'')가 구동되기 위한 기울어짐이 발생한 것으로 판단할 수 있다.
한편, 심박 센서(40'')는 탑승자의 심박을 측정하는 것으로, 심박 측정은 심박 센서(40'')에 구비된 도전성 전극으로부터 검출된 탑승자의 심전도(ECG(ElectroCardioGram)) 신호를 분석함으로써 수행될 수 있다.
구체적으로, 현재 측정된 탑승자의 ECG 신호와 기 설정된 기준 ECG 신호의 피크치를 서로 비교해 탑승자의 심근경색증을 진단할 수 있다.
또는, 심전도 상의 T파의 변화가 현저히 심한 구간이나 Q파의 이상으로 심장이 괴사한 것으로 판단되는 구간에서 심근경색증을 진단할 수 있다.
실시예에 따르면, 탑승자가 한쪽으로 기울어진 것으로 판단되어 심박 센서(40'')가 동작하는 경우, 탑승자가 탈의를 한 상태에서 시트 벨트(SB)''를 탑승자의 신체에 밀착시킴으로써, 심박 센서(40'')의 도전성 전극에 의해 탑승자의 심박을 측정할 수 있다.
실시예에 따르면, 시트 벨트(SB)'' 중 탑승자의 심장 부위에 대응되는 부분은 도전성 재질로 제작될 수 있다. 즉, 특히, 심박 센서(40'')가 내장된 위치는 도전성 재질로 제작하여 전류가 잘 흐르도록 구현할 수 있다.
본 발명에 따르면, 이와 같이 심박 센서(40'')가 평소에는 동작하지 않다가 탑승자가 한쪽으로 기울어진 정도가 소정의 임계치 이상인 경우에만 심박 센서(40'')가 동작하도록 함으로써 전력 소비를 줄일 수 있으며, 기울어짐 정도와 심박 측정 결과를 함께 이용하여 심근경색증을 진단하도록 하여 진단의 정밀도를 보다 향상시킬 수 있게 된다.
한편, 실시 형태 1에서 전술한 바와 같이, 실시 형태 2의 경우에도, 제어부(10'')는 탑승자가 심근경색증인 것으로 진단하면, 여유 병상이 구비된 병원으로 자율 주행 차량(1'')이 자율 주행을 수행하도록 제어할 수 있다.
실시예에 따르면, 제어부(10'')는 탑승자가 심근경색증인 것으로 진단하면, 심근경색증 전문 병원, 여유 병상이 구비된 병원, 및 현 위치에서 가장 가까운 병원 중 다른 탑승자에 의해 선택된 병원으로 자율 주행 차량(1'')이 자율 주행을 수행하도록 제어할 수 있다.
실시예에 따르면, 제어부(10'')는 심근경색증의 중증도를 더 진단하고, 상기 심근경색증의 중증도 진단 결과에 기초해 심근경색증 전문 병원, 여유 병상이 구비된 병원, 및 현 위치에서 가장 가까운 병원 중 적합한 병원으로 상기 자율 주행 차량이 상기 자율 주행을 수행하도록 제어할 수 있다.
구체적으로, 심박 측정 결과를 기초로 심근경색증의 중증도를 진단하고, 중증도가 중간 레벨에 해당하는 것으로 진단하면 자율 주행 차량(1'')이 이에 대응하여 심근경색증 전문 병원으로 자율 주행을 수행하도록 제어할 수 있다.
만일, 심박 측정 결과 심근경색증의 중증도가 최상위 레벨에 해당하는 것으로 진단하면 자율 주행 차량(1'')이 여유 병상이 구비된 병원이나 가장 가까운 병원으로 자율 주행을 수행하도록 제어할 수 있다.
[실시 형태 3]
실시 형태 3의 경우, 실시 형태 1 및 실시 형태 2에서 기술한 내용이 동일/유사하게 적용될 수 있다.
실시예에 따라 제어부(10'')는 자율 주행 차량(1'')에 구비된 시트 벨트(SB)''에 내장된 모션 센서(60'')와 시트(S)''에 내장된 압력 센서(50'')를 함께 이용해 심근경색증인 것을 진단할 수 있다.
모션 센서(60'')는 칩 또는 패치 등의 형태로 시트 벨트(SB)''에 내장될 수 있다.
모션 센서(60'')는 가속도 센서와 자이로 센서를 구비하여 탑승자의 모션 정도를 측정할 수 있다.
즉, 가속도 센서에 의한 기울어짐 동작 속도 측정 결과와 자이로 센서에 의한 기울어짐 동작 방향 측정 결과를 함께 이용하여 탑승자의 모션 정도를 측정할 수 있다.
구체적으로, X축, Y축, Z축 방향 각각의 상기 축을 중심으로 한 회전 가속도에 기초한 동작 속도 측정 결과를 기초로 탑승자의 모션 정도를 측정할 수 있다.
실시예에 따르면, 모션 센서(60'')에 의한 모션 정도 측정 결과 심근경색증인 것으로 진단하기 위한 소정의 기준치 이상인 값이 획득되면, 탑승자가 심근경색증인 것으로 진단할 수 있다.
한편, 압력 센서(50'')는 시트(S)''의 중앙부를 기준으로 좌측부와 우측부에 동일한 개수로 배치되어 있으며, 좌측부 압력 센서로부터 검출된 압력의 크기와 우측부 압력 센서로부터 검출된 압력의 크기를 비교하여 탑승자가 한쪽으로 기울어진 것을 판단할 수 있다.
예를 들어, 좌측부 압력 센서로부터 검출된 압력의 크기와 우측부 압력 센서로부터 검출된 압력의 크기의 차이가 소정의 기준치 이상인 경우에만 심근경색증인 것으로 진단하기 위한 기울어짐이 발생한 것으로 판단할 수 있다.
즉, 탑승자의 모션 정도 측정 결과와 신체 압력 측정 결과를 함께 이용하여 두 결과 모두 소정의 기준치 이상인 경우에만 탑승자가 심근경색증인 것으로 진단할 수 있다.
만일, 두 결과 중 어느 하나라도 소정의 기준치에 도달하지 못했다고 판단하면 심근경색증으로 진단하지 않을 것이다.
본 발명에 따르면, 이와 같이 모션 센서(60'') 측정 결과 및 압력 센서(50'') 측정 결과가 모두 탑승자가 심근경색증인 것으로 나타내는 경우에만 탑승자가 심근경색증인 것으로 진단하도록 구현하여 진단의 정밀도를 보다 향상시킬 수 있게 된다.
한편, 실시 형태 1에서 전술한 바와 같이, 실시 형태 3의 경우에도, 제어부(10'')는 탑승자가 심근경색증인 것으로 진단하면, 여유 병상이 구비된 병원으로 자율 주행 차량(1'')이 자율 주행을 수행하도록 제어할 수 있다.
실시예에 따르면, 제어부(10'')는 탑승자가 심근경색증인 것으로 진단하면, 심근경색증 전문 병원, 여유 병상이 구비된 병원, 및 현 위치에서 가장 가까운 병원 중 다른 탑승자에 의해 선택된 병원으로 자율 주행 차량(1'')이 자율 주행을 수행하도록 제어할 수 있다.
실시예에 따르면, 제어부(10'')는 심근경색증의 중증도를 더 진단하고, 상기 심근경색증의 중증도 진단 결과에 기초해 심근경색증 전문 병원, 여유 병상이 구비된 병원, 및 현 위치에서 가장 가까운 병원 중 적합한 병원으로 상기 자율 주행 차량이 상기 자율 주행을 수행하도록 제어할 수 있다.
구체적으로, 모션 정도 측정 결과와 신체 압력 측정 결과가 모두 소정의 기준치(70%) 이상인 것을 전제로 하면서도, 약 80% 정도의 움직임과 압력 측정 결과가 있을 경우 중증도를 중간 레벨로 판단하여 자율 주행 차량(1'')이 심근경색증 전문으로 자율 주행을 수행하도록 제어할 수 있다.
반면, 95% 정도의 움직임과 압력 측정 결과가 있을 경우 중증도를 최상위 레벨로 판단하여 자율 주행 차량(1'')이 여유 병상이 구비된 병원이나 가장 가까운 병원으로 자율 주행을 수행하도록 제어할 수 있다.
[실시 형태 4]
실시 형태 4의 경우, 실시 형태 1 내지 실시 형태 3에서 기술한 내용이 동일/유사하게 적용될 수 있다.
실시예에 따라 제어부(10'')는 자율 주행 차량(1'')에 구비된 시트 벨트(SB)''에 내장된 모션 센서(60'')와 레이더 센서(70'')를 함께 이용해 심근경색증인 것을 진단할 수 있다.
모션 센서(60'')에 대해서는 실시 형태 3에서 기술한 내용이 동일/유사하게 적용될 수 있다.
즉, 가속도 센서에 의한 기울어짐 동작 속도 측정 결과와 자이로 센서에 의한 기울어짐 동작 방향 측정 결과를 함께 이용하여 탑승자의 모션 정도를 측정할 수 있다.
그리고, 모션 센서(60'')에 의한 모션 정도 측정 결과 심근경색증인 것으로 진단하기 위한 소정의 기준치 이상인 값이 획득되면, 레이더 센서(70'')가 동작하도록 제어할 수 있다.
레이더 센서(70'')는 탑승자의 심장 부위에 전자기파를 발사하고, 탑승자로부터 반사되는 전자기파를 측정할 수 있다.
레이더 센서(70'')는 탑승자의 심장 부위에 전자기파를 잘 발사하기 위해 자율 주행 차량(1'')의 실내 천장에서 소정 각도로 회전된 상태로 장착될 수 있다.
제어부(10'')는 레이더 센서(70'')가 측정한 전자기파가 정상 파형을 나타내면 정상 심박 상태인 것으로 판단하고, 심실 빈맥 파형 또는 심실 세동 파형 등의 비정상 파형을 나타내면 심근경색증인 것으로 판단할 수 있다.
본 발명에 따르면, 이와 같이 레이더 센서(70'')가 평소에는 동작하지 않다가 탑승자의 움직임 정도가 소정의 임계치 이상인 경우에만 레이더 센서(70'')가 동작하도록 함으로써 전력 소비를 줄임과 동시에 전자기파를 지속적으로 수신하지 않도록 하여 탑승자의 신체에 무리가 가하지 않도록 하고, 움직임 정도와 심박 파형을 함께 이용하여 심근경색증을 진단하도록 하여 진단의 정밀도를 보다 향상시킬 수 있게 된다.
한편, 실시 형태 1에서 전술한 바와 같이, 실시 형태 4의 경우에도, 제어부(10'')는 탑승자가 심근경색증인 것으로 진단하면, 여유 병상이 구비된 병원으로 자율 주행 차량(1'')이 자율 주행을 수행하도록 제어할 수 있다.
실시예에 따르면, 제어부(10'')는 탑승자가 심근경색증인 것으로 진단하면, 심근경색증 전문 병원, 여유 병상이 구비된 병원, 및 현 위치에서 가장 가까운 병원 중 다른 탑승자에 의해 선택된 병원으로 자율 주행 차량(1'')이 자율 주행을 수행하도록 제어할 수 있다.
실시예에 따르면, 제어부(10'')는 심근경색증의 중증도를 더 진단하고, 상기 심근경색증의 중증도 진단 결과에 기초해 심근경색증 전문 병원, 여유 병상이 구비된 병원, 및 현 위치에서 가장 가까운 병원 중 적합한 병원으로 상기 자율 주행 차량이 상기 자율 주행을 수행하도록 제어할 수 있다.
구체적으로, 전자기파의 파형이 심근경색증을 나타내면서도, 파형의 변이량 및/또는 변이 속도로 판별되는 심근경색증의 중증도가 중간 레벨에 해당하는 것으로 진단하면 자율 주행 차량(1'')이 이에 대응하여 심근경색증 전문 병원으로 자율 주행을 수행하도록 제어할 수 있다.
만일, 심근경색증의 중증도가 최상위 레벨에 해당하는 것으로 진단하면 자율 주행 차량(1'')이 여유 병상이 구비된 병원이나 가장 가까운 병원으로 자율 주행을 수행하도록 제어할 수 있다.
[실시 형태 5]
한편, 실시 형태 5의 경우, 실시 형태 1 내지 실시 형태 4에서 각각 기술한 내용이 수행되는 것을 전제로 하여 하기와 같이 구현될 수 있다.
실시예에 따르면, 제어부(10'')는 탑승자가 심근경색증인 것으로 진단하면, 이에 따라 자율 주행 차량(1'')이 병원으로 자율 주행을 수행할 것을 알리기 위한 긴급 상태 정보를 생성하여 통신부(90'')를 통해 교통 관리 서버(미도시)로 전송할 수 있다.
이에 따라, 교통 관리 서버(미도시)는 긴급 상태 정보에 대응하는 신호등 제어 명령을 생성할 수 있다.
예를 들어, 교통 관리 서버(미도시)는 자율 주행 차량(1'')의 현 위치와 경로 정보를 파악하여, 자율 주행 차량(1'')이 곧 통과해야 할 신호등들을 자율 주행 차량(1'')의 경로 상에서 파악하고, 소정의 시간 동안 해당 신호등들에 대하여 보행자 신호가 아닌 차량 통행 신호를 출력할 것을 제어하는 명령을 생성할 수 있다.
한편, 교통 관리 서버(미도시)는 긴급 상태 정보에 대응하는 신호등 제어 명령을 생성하여 신호등들을 제어하면서, 신호등 제어 상태 정보를 자율 주행 차량(1'')로 전송할 수 있다.
제어부(10'')는 신호등 제어 상태 정보에 기초해 자율 주행 차량(1'')이 병원으로 자율 주행을 수행하도록 제어할 수 있다. 즉, 자율 주행 차량(1'')의 경로 상에 배치된 신호등들을 신호 정지 없이 빠르게 통과할 수 있다.
한편, 본 명세서에서, 전술한 실시 형태 1 내지 실시 형태 5는 특정 센서간 결합을 예시하였으나, 이는 실시 형태의 일례이며, 이외에도 본 발명의 모든 센서들을 다양하게 조합하여 심근경색증을 진단할 수 있다.
이상에서 실시예들에 설명된 특징, 구조, 효과 등은 본 발명의 하나의 실시예에 포함되며, 반드시 하나의 실시예에만 한정되는 것은 아니다. 나아가, 각 실시예에서 예시된 특징, 구조, 효과 등은 실시예들이 속하는 분야의 통상의 지식을 가지는 자에 의해 다른 실시예들에 대해서도 조합 또는 변형되어 실시 가능하다. 따라서 이러한 조합과 변형에 관계된 내용들은 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다.
또한, 이상에서 실시예를 중심으로 설명하였으나 이는 단지 예시일 뿐 본 발명을 한정하는 것이 아니며, 본 발명이 속하는 분야의 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성을 벗어나지 않는 범위에서 이상에 예시되지 않은 여러 가지의 변형과 응용이 가능함을 알 수 있을 것이다. 예를 들어, 실시예에 구체적으로 나타난 각 구성 요소는 변형하여 실시할 수 있는 것이다. 그리고 이러한 변형과 응용에 관계된 차이점들은 첨부된 청구 범위에서 규정하는 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다.
본 발명에 따르면, 복잡하고 소음이 넘치는 도로 상황에서, 보행자는 긴급 상황을 나타내는 정보를 제공받음으로써, 명확하게 긴급 상황을 판단하여 대처할 수 있으며, 이에 따라 보다 안전한 교통 시스템 관리가 가능해진다.
본 발명에 따르면, 미리 위험 영역을 구분하여 설정하도록 하고, 상황에 따라 위험 영역을 변경하여 인식하도록 함으로써, 신호등이 위험 영역을 보다 신속하고 정확하게 식별할 수 있게 된다.
특히, 광원의 색상과, 객체의 종류에 따라 상이하게 위험 영역을 변경하여 인식하도록 함으로써, 보다 정확하게 위험 영역을 식별할 수 있게 된다.
더불어, 동일 식별 정보라도 신호등의 종류에 따라서도 위험 영역을 상이하게 인식하도록 하여 상황에 맞는 위험 영역을 식별할 수 있게 된다.
또한, 이로써, 위험 영역에 진입하는 객체를 보다 빠르게 식별하여 정확한 타이밍에 알람 정보를 출력할 수 있게 된다.
심근경색증 환자가 발생한 경우는, 골든 타임이 존재하는 매우 위급한 상황이므로, 여유 병상이 확보되지 않은 병원으로 주행을 수행하게 되면 많은 시간을 낭비하여 골든 타임을 초과할 수 있게 되므로, 본 발명에 따르면 이러한 여유 병상이 구비된 병원으로 자율 주행을 수행하도록 제어하여 골든 타임 내 치료가 가능하도록 구현할 수 있다.
사용자 선택에 의한 병원으로 자율 주행을 수행할 수 있도록 하여 사용자 선택의 자율성을 높임과 동시에 다른 탑승자가 특히 탑승자의 가족인 경우 해당 결정을 수행하도록 하여 추후 분쟁이 생길 염려를 덜어줄 수 있게 된다.
본 발명에 따르면, 심근경색증의 중증도에 따라 자율 주행 차량(1'')이 적절한 병원을 결정하도록 함으로써, 환자의 상태에 맞는 맞춤형 병원에서 환자가 치료를 받을 수 있게 된다.
본 발명에 따르면, 탑승자의 영상 정보와 음성 정보를 함께 이용하여 심근경색증임을 진단할 수 있도록 하여 진단의 정확성이 보다 높아질 수 있게 된다.
본 발명에 따르면, 이와 같이 심박 센서(40'')가 평소에는 동작하지 않다가 탑승자가 한쪽으로 기울어진 정도가 소정의 임계치를 초과하는 경우에만 심박 센서(40'')가 동작하도록 함으로써 전력 소비를 줄일 수 있으며, 기울어짐 정도와 심박 측정 결과를 함께 이용하여 심근경색증을 진단하도록 하여 진단의 정밀도를 보다 향상시킬 수 있게 된다.
본 발명에 따르면, 이와 같이 모션 센서(60'') 측정 결과 및 압력 센서(50'') 측정 결과가 모두 탑승자가 심근경색증인 것으로 나타내는 경우에만 탑승자가 심근경색증인 것으로 진단하도록 구현하여 진단의 정밀도를 보다 향상시킬 수 있게 된다.

Claims (35)

  1. 긴급 차량의 위치를 판단하는 위치 판단부; 및
    상기 긴급 차량의 인근 보행자 신호등의 보행 불가 정보를 나타내는 영역에 보행 불가 정보가 출력되도록 제어하고, 상기 보행 불가 정보를 나타내는 영역을 둘러싼 영역에 상기 긴급 차량과 관련된 긴급 상황을 나타내는 정보가 출력되도록 제어하는 교통 신호 제어 명령을 신호등 제어기로 전송하는 신호등 관리부;를 포함하는,
    교통 신호 관제 장치.
  2. 긴급 차량의 위치를 판단하는 위치 판단부; 및
    상기 긴급 차량의 인근 보행자 신호등의 보행 불가 정보를 나타내는 영역에 보행 불가 정보와 함께 상기 긴급 차량과 관련된 긴급 상황을 나타내는 정보가 오버랩되어 출력되도록 제어하는 교통 신호 제어 명령을 신호등 제어기로 전송하는 신호 제어부;를 포함하는,
    교통 신호 관제 장치.
  3. 긴급 차량의 위치를 판단하는 위치 판단부;
    상기 긴급 차량의 인근 보행자 신호등의 보행 불가 정보를 나타내는 영역의 제1 영역에 보행 불가 정보가 출력되도록 제어하고, 상기 보행 불가 정보를 나타내는 영역의 제2 영역에 상기 긴급 차량과 관련된 긴급 상황을 나타내는 정보가 출력되도록 제어하는 교통 신호 제어 명령을 신호등 제어기로 전송하는 신호 제어부;를 포함하는,
    교통 신호 관제 장치.
  4. 긴급 차량의 위치를 판단하는 위치 판단부;
    상기 긴급 차량의 인근 보행자 신호등의 보행 불가 정보를 나타내는 영역에 보행 불가 정보가 아닌 상기 긴급 차량과 관련된 긴급 상황을 나타내는 정보가 출력되도록 제어하는 교통 신호 제어 명령을 신호등 제어기로 전송하는 신호 제어부;를 포함하는,
    교통 신호 관제 장치.
  5. 긴급 차량의 위치를 판단하는 위치 판단부;
    상기 긴급 차량의 인근 보행자 신호등의 보행 불가 정보를 나타내는 영역에 보행 불가 정보가 출력되도록 제어하고, 상기 보행자 신호등의 보행 가능 정보를 나타내는 영역에 상기 긴급 차량과 관련된 긴급 상황을 나타내는 정보가 출력되도록 제어하는 교통 신호 제어 명령을 신호등 제어기로 전송하는 신호 제어부;를 포함하는,
    교통 신호 관제 장치.
  6. 긴급 차량의 위치를 판단하는 위치 판단부;
    상기 긴급 차량의 인근 보행자 신호등의 보행 불가 정보를 나타내는 영역과 보행 가능 정보를 나타내는 영역 각각에 상기 긴급 차량과 관련된 긴급 상황을 나타내는 정보가 출력되도록 제어하는 교통 신호 제어 명령을 신호등 제어기로 전송하는 신호 제어부;를 포함하는,
    교통 신호 관제 장치.
  7. 제 1항 내지 제 6항 중 어느 한 항에 있어서,
    상기 신호등 관리부는,
    상기 긴급 차량의 통행 긴급 정도에 대한 정보를 반영하여 상기 긴급 상황을 나타내는 정보가 출력되도록 제어하는 상기 교통 신호 제어 명령을 상기 신호등 제어기로 전송하는,
    교통 신호 관제 장치.
  8. 제 1항 내지 제 6항 중 어느 한 항에 있어서,
    상기 긴급 상황을 나타내는 정보는,
    상기 긴급 상황의 발생 알림 정보, 상기 긴급 차량 종류, 상기 긴급 차량의 속도, 이동 방향 및 대기 시간 중 적어도 하나인,
    교통 신호 관제 장치.
  9. 제 1항 내지 제 6항 중 어느 한 항에 있어서,
    상기 긴급 상황을 나타내는 정보는 깜빡이 형태, 아이콘, 및 텍스트의 형태 중 적어도 하나로 출력되는,
    교통 신호 관제 장치.
  10. 제 1항 내지 제 6항 중 어느 한 항에 있어서,
    상기 교통 신호 제어 명령은 음성 정보가 함께 출력되도록 제어하는 것인,
    교통 신호 관제 장치.
  11. 제 1항 내지 제 6항 중 어느 한 항에 있어서,
    상기 교통 신호 제어 명령을 상기 보행자 신호등의 인근 단말기로 전송하는 단말기 관리부;를 더 포함하는,
    교통 신호 관제 장치.
  12. 전자 장치에 있어서,
    광원;
    상기 전자 장치의 인근 영역에 존재하는 제1 객체를 검출하기 위한 객체 검출부;
    알람 정보를 출력하기 위한 알람부; 및
    점등하는 상기 광원의 색상과 상기 검출된 제1 객체를 식별하고, 상기 식별 정보에 기초해 상기 전자 장치의 인근 영역에 대응하는 영상의 영역으로부터 위험 영역을 변경하여 인식하고, 상기 제1 객체와 다른 제2 객체가 상기 위험 영역에 진입한 것으로 판단하면 상기 알람 정보를 출력하도록 상기 알람부를 제어하는 제어부;를 포함하는,
    전자 장치.
  13. 제 12항에 있어서,
    상기 객체 검출부는 라이다 센서 및 상기 영상을 획득하는 카메라 중 적어도 하나를 포함하고,
    상기 제어부는,
    상기 라이다 센서로부터 획득된 포인트 맵 데이터 및 상기 영상 중 적어도 하나를 이용하여 상기 전자 장치 인근 영역에 대응하는 상기 영상의 영역으로부터 상기 위험 영역을 변경하여 인식하는,
    전자 장치.
  14. 제 12항에 있어서,
    상기 제어부는,
    상기 점등하는 상기 광원의 색상이 녹색이고 상기 영상으로부터 인식된 상기 전자 장치 인근 영역에 존재하는 상기 제1 객체가 사람인 경우, 횡단보도 영역을 상기 위험 영역으로 변경하여 인식하는,
    전자 장치.
  15. 제 14항에 있어서,
    상기 제어부는,
    상기 사람의 횡단 잔여 시간에 기초해 상기 위험 영역을 변경하여 인식하는,
    전자 장치.
  16. 제 12항에 있어서,
    상기 제어부는,
    상기 점등하는 상기 광원의 색상이 녹색이고 상기 영상으로부터 인식된 상기 전자 장치 인근 영역에 존재하는 상기 제1 객체가 차량인 경우, 횡단보도 영역 및 차도 영역 중 적어도 하나의 일부를 상기 위험 영역으로 변경하여 인식하는,
    전자 장치.
  17. 제 16항에 있어서,
    상기 제어부는,
    상기 차량의 주행 차선에 기초해 상기 위험 영역을 변경하여 인식하는,
    전자 장치.
  18. 제 12항에 있어서,
    상기 제어부는,
    상기 위험 영역의 크기, 개수, 및 위치 중 적어도 하나를 변경하여 인식하는,
    전자 장치.
  19. 제 12항에 있어서,
    상기 제어부는,
    상기 제1 객체의 종류에 따라 상이한 종류의 상기 알람 정보를 출력하도록 상기 알람부를 제어하는,
    전자 장치.
  20. 제 12항에 있어서,
    상기 제어부는,
    주변 장치에 상기 알람 정보를 제공하는,
    전자 장치.
  21. 자율 주행 차량에 있어서,
    탑승자를 촬영하여 탑승자 영상을 생성하는 카메라; 및
    상기 탑승자 영상이 상기 탑승자의 손으로 상기 탑승자의 심장 부위를 움켜쥐는 형상을 나타냄과 동시에, 상기 탑승자의 얼굴의 일그러짐 정도가 소정의 임계치를 초과하면서, 상기 탑승자의 상체가 소정 각도 이상 숙여진 것으로 판단하면 상기 탑승자가 심근경색증인 것으로 진단하며, 상기 자율 주행 차량이 병원으로 자율 주행을 수행하도록 제어하는 제어부;를 포함하는,
    자율 주행 차량.
  22. 제 21항에 있어서,
    상기 제어부는 심근경색증 분석 모델을 이용하여 상기 탑승자 영상으로부터 상기 심근경색증 진단 정보를 출력하는 추론을 수행하고,
    상기 심근경색증 분석 모델은 CNN(Convolutional Neural Networks)을 이용해 탑승자 영상으로부터 심근경색증 진단 정보를 출력하는 딥러닝을 수행하여 생성된 것인,
    자율 주행 차량.
  23. 제 21항에 있어서,
    상기 제어부는,
    상기 탑승자의 심장 부위를 움켜쥐는 상기 탑승자의 손이 양손인지 여부, 상기 탑승자의 얼굴의 일그러짐 정도, 및 상기 탑승자의 상체가 소정 각도 이상 숙여진 정도 중 적어도 하나에 기초하여 상기 심근경색증의 중증도를 더 진단하는,
    자율 주행 차량.
  24. 제 23항에 있어서,
    상기 제어부는,
    상기 심근경색증의 중증도 진단 결과에 기초해 심근경색증 전문 병원, 여유 병상이 구비된 병원, 및 현 위치에서 가장 가까운 병원 중 가장 적합한 병원으로 상기 자율 주행 차량이 상기 자율 주행을 수행하도록 제어하는,
    자율 주행 차량.
  25. 제 21항에 있어서,
    저장부; 및
    상기 탑승자의 음성을 감지하는 음성 감지부;를 더 포함하고,
    상기 제어부는,
    상기 탑승자의 음성 감지 결과와 상기 저장부에 기 저장된 외자의 신음 소리의 매칭율을 더 참조하여 상기 자율 주행 차량이 상기 병원으로 자율 주행을 수행하도록 제어하는,
    자율 주행 차량.
  26. 자율 주행 차량에 있어서,
    탑승자의 심장 부위에 대응되도록 배치되어 상기 탑승자의 심박을 측정하는 심박 센서를 내장한 시트 벨트;
    상기 탑승자의 신체 압력을 측정하는 압력 센서를 내장한 시트; 및
    상기 심박 측정 결과와 상기 신체 압력 측정 결과를 함께 이용하여 상기 탑승자가 심근경색증인 것으로 진단하고, 상기 자율 주행 차량이 병원으로 자율 주행을 수행하도록 제어하는 제어부;를 포함하는,
    자율 주행 차량.
  27. 제 26항에 있어서,
    상기 제어부는,
    상기 신체 압력 측정 결과 상기 탑승자가 한쪽으로 기울어진 것으로 판단하면 상기 심박 센서가 동작하도록 제어하는,
    자율 주행 차량.
  28. 제 26항에 있어서,
    상기 시트 벨트 중 상기 탑승자의 상기 심장 부위에 대응되는 부분은 도전성 재질로 구현된,
    자율 주행 차량.
  29. 자율 주행 차량에 있어서,
    가속도 센서와 자이로 센서로 구성되어 탑승자의 모션 정도를 측정하는 모션 센서를 내장한 시트 벨트;
    상기 탑승자의 신체 압력을 측정하는 압력 센서를 내장한 시트; 및
    상기 모션 정도 측정 결과와 상기 신체 압력 측정 결과를 함께 이용하여 상기 탑승자가 심근경색증인 것으로 진단하고, 상기 자율 주행 차량이 병원으로 자율 주행을 수행하도록 제어하는 제어부;를 포함하는,
    자율 주행 차량.
  30. 자율 주행 차량에 있어서,
    가속도 센서와 자이로 센서로 구성되어 탑승자의 모션 정도를 측정하는 모션 센서를 내장한 시트 벨트;
    상기 탑승자의 심장 부위에 전자기파를 발사하고 상기 탑승자로부터 반사되는 전자기파를 측정하는 레이더 센서; 및
    상기 모션 정도 측정 결과와 상기 전자기파 측정 결과를 함께 이용하여 상기 탑승자가 심근경색증인 것으로 진단하고, 상기 자율 주행 차량이 병원으로 자율 주행을 수행하도록 제어하는 제어부;를 포함하는,
    자율 주행 차량.
  31. 제 30항에 있어서,
    상기 제어부는,
    상기 모션 정도 측정 결과 상기 탑승자가 소정의 임계치 이상으로 움직인 것으로 판단하면 상기 레이더 센서가 동작하도록 제어하는,
    자율 주행 차량.
  32. 제 21항, 제 26항, 제 29항, 및 제 30항 중 어느 한 항에 있어서,
    상기 제어부는,
    여유 병상이 구비된 병원으로 상기 자율 주행 차량이 상기 자율 주행을 수행하도록 제어하는,
    자율 주행 차량.
  33. 제 21항, 제 26항, 제 29항, 및 제 30항 중 어느 한 항에 있어서,
    상기 제어부는,
    심근경색증 전문 병원, 여유 병상이 구비된 병원, 및 현 위치에서 가장 가까운 병원 중 다른 탑승자에 의해 선택된 병원으로 상기 자율 주행 차량이 상기 자율 주행을 수행하도록 제어하는,
    자율 주행 차량.
  34. 제 26항, 제 29항, 및 제 30항 중 어느 한 항에 있어서,
    상기 제어부는,
    상기 심근경색증의 중증도를 더 진단하고, 상기 심근경색증의 중증도 진단 결과에 기초해 심근경색증 전문 병원, 여유 병상이 구비된 병원, 및 현 위치에서 가장 가까운 병원 중 가장 적합한 병원으로 상기 자율 주행 차량이 상기 자율 주행을 수행하도록 제어하는,
    자율 주행 차량.
  35. 제 21항, 제 26항, 제 29항, 및 제 30항 중 어느 한 항에 있어서,
    상기 제어부는,
    상기 탑승자가 심근경색증인 것으로 진단되어 상기 자율 주행 차량이 상기 병원으로 자율 주행을 수행할 것을 알리기 위한 긴급 상태 정보를 생성하고,
    상기 긴급 상태 정보를 교통 관리 서버로 전송하고,
    상기 교통 관리 서버로부터 상기 긴급 상태 정보에 대응하는 신호등 제어 상태 정보를 수신하고,
    상기 신호등 제어 상태 정보에 기초해 상기 자율 주행 차량이 상기 병원으로 자율 주행을 수행하도록 제어하는,
    자율 주행 차량.
PCT/KR2022/006830 2021-05-14 2022-05-12 교통 신호 관제 장치 WO2022240215A2 (ko)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2021-0062885 2021-05-14
KR1020210062885A KR102536711B1 (ko) 2021-05-14 2021-05-14 교통 신호 관제 장치
KR1020210091058A KR20230010467A (ko) 2021-07-12 2021-07-12 전자 장치
KR10-2021-0091058 2021-07-12

Publications (2)

Publication Number Publication Date
WO2022240215A2 true WO2022240215A2 (ko) 2022-11-17
WO2022240215A3 WO2022240215A3 (ko) 2022-12-29

Family

ID=84029713

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2022/006830 WO2022240215A2 (ko) 2021-05-14 2022-05-12 교통 신호 관제 장치

Country Status (1)

Country Link
WO (1) WO2022240215A2 (ko)

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3630673B2 (ja) * 2003-03-25 2005-03-16 株式会社アルプスサイン 歩行者用交通信号機
KR100687716B1 (ko) * 2004-12-03 2007-02-27 한국전자통신연구원 교통 신호기의 정보 표시 장치 및 그 방법
KR20080109169A (ko) * 2007-06-12 2008-12-17 김은배 교통신호등
KR20110004929U (ko) * 2009-11-11 2011-05-18 유한태 태극 엘이디 애니메이션 보행자 교통신호등
KR20160066214A (ko) * 2014-12-02 2016-06-10 주식회사 레드로버 입체 신호등
KR20180059663A (ko) * 2016-11-25 2018-06-05 계명대학교 산학협력단 긴급차량 접근 알림 신호 시스템
KR20200009840A (ko) * 2018-07-20 2020-01-30 진우산전 주식회사 긴급 차량과 교통 신호등 연계 시스템
KR102202150B1 (ko) * 2020-10-27 2021-01-12 주식회사 더시그널 긴급상황파악 및 긴급차량접근 알림 시스템, 그 작동방법

Also Published As

Publication number Publication date
WO2022240215A3 (ko) 2022-12-29

Similar Documents

Publication Publication Date Title
WO2018117631A1 (en) Electronic apparatus and method of operating the same
WO2021010757A1 (en) Mobile robot and control method thereof
WO2016182275A1 (en) Autonomous driving apparatus and vehicle including the same
WO2017014544A1 (ko) 자율 주행 차량 및 이를 구비하는 자율 주행 차량 시스템
EP3539113A1 (en) Electronic apparatus and method of operating the same
WO2016186294A1 (ko) 영상투사장치 및 이를 구비하는 차량
WO2017018729A1 (ko) 차량용 레이더, 및 이를 구비하는 차량
WO2017209313A1 (ko) 차량용 디스플레이 장치 및 차량
WO2017200162A1 (ko) 차량 운전 보조 장치 및 차량
WO2020130219A1 (ko) 로봇의 제어 방법
WO2017183797A1 (ko) 차량용 운전 보조 장치
WO2015099465A1 (ko) 차량 운전 보조 장치 및 이를 구비한 차량
WO2020241922A1 (ko) 차량 제어 장치
WO2018208006A1 (en) User interface apparatus for vehicle and vehicle
WO2019035652A1 (en) DRIVING ASSISTANCE SYSTEM AND VEHICLE COMPRISING THE SAME
WO2021006366A1 (ko) 디스플레이 패널의 색상을 조정하는 인공 지능 장치 및 그 방법
WO2021141339A1 (ko) 해수면을 고려한 항만 및 선박 모니터링 방법 및 장치
WO2015088289A1 (ko) 스테레오 카메라, 이를 구비한 차량 운전 보조 장치, 및 차량
WO2020241951A1 (ko) 인공지능 학습방법 및 이를 이용하는 로봇의 동작방법
WO2021141338A1 (ko) 선박 및 항만 모니터링 장치 및 방법
WO2019054719A1 (ko) 차량 운전 보조 장치 및 차량
WO2019143010A1 (ko) 이동 로봇의 동작 방법
WO2019004742A1 (ko) 이동 로봇과 이동 단말기를 포함하는 로봇 시스템
WO2017018850A1 (ko) 자율 주행 차량 및 자율 주행 차량 제어 방법
WO2022240215A2 (ko) 교통 신호 관제 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22807862

Country of ref document: EP

Kind code of ref document: A2

WWE Wipo information: entry into national phase

Ref document number: 18290376

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 22807862

Country of ref document: EP

Kind code of ref document: A2