KR20200082456A - Method and apparatus for managing health care information in vehicle - Google Patents
Method and apparatus for managing health care information in vehicle Download PDFInfo
- Publication number
- KR20200082456A KR20200082456A KR1020180173061A KR20180173061A KR20200082456A KR 20200082456 A KR20200082456 A KR 20200082456A KR 1020180173061 A KR1020180173061 A KR 1020180173061A KR 20180173061 A KR20180173061 A KR 20180173061A KR 20200082456 A KR20200082456 A KR 20200082456A
- Authority
- KR
- South Korea
- Prior art keywords
- vehicle
- health information
- information
- bio
- signal
- Prior art date
Links
- 230000036541 health Effects 0.000 title claims abstract description 63
- 238000000034 method Methods 0.000 title claims abstract description 24
- 238000005259 measurement Methods 0.000 claims abstract description 23
- 238000007726 management method Methods 0.000 claims description 12
- 230000006870 function Effects 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 8
- 238000012545 processing Methods 0.000 description 8
- 238000001514 detection method Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 230000001133 acceleration Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- 230000003044 adaptive effect Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 3
- 210000004204 blood vessel Anatomy 0.000 description 3
- 230000036760 body temperature Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- QVGXLLKOCUKJST-UHFFFAOYSA-N atomic oxygen Chemical compound [O] QVGXLLKOCUKJST-UHFFFAOYSA-N 0.000 description 2
- 208000013500 continuous spikes and waves during sleep Diseases 0.000 description 2
- 239000000446 fuel Substances 0.000 description 2
- 229910052760 oxygen Inorganic materials 0.000 description 2
- 239000001301 oxygen Substances 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 241001300198 Caperonia palustris Species 0.000 description 1
- 235000000384 Veronica chamaedrys Nutrition 0.000 description 1
- 238000010521 absorption reaction Methods 0.000 description 1
- 238000004378 air conditioning Methods 0.000 description 1
- 210000003403 autonomic nervous system Anatomy 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000017531 blood circulation Effects 0.000 description 1
- 230000008602 contraction Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 210000000624 ear auricle Anatomy 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 210000003811 finger Anatomy 0.000 description 1
- 210000001061 forehead Anatomy 0.000 description 1
- 239000002803 fossil fuel Substances 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 210000005259 peripheral blood Anatomy 0.000 description 1
- 239000011886 peripheral blood Substances 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 230000000541 pulsatile effect Effects 0.000 description 1
- 230000036632 reaction speed Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 239000000725 suspension Substances 0.000 description 1
- 230000007723 transport mechanism Effects 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7271—Specific aspects of physiological measurement analysis
- A61B5/7275—Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/02—Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
- A61B5/024—Detecting, measuring or recording pulse rate or heart rate
- A61B5/02416—Detecting, measuring or recording pulse rate or heart rate using photoplethysmograph signals, e.g. generated by infrared radiation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/48—Other medical applications
- A61B5/4884—Other medical applications inducing physiological or psychological stress, e.g. applications for stress testing
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/68—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
- A61B5/6887—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient ; user input means
- A61B5/742—Details of notification to user or communication with user or patient ; user input means using visual displays
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
Abstract
Description
실시 예들은 차량 내에서의 건강정보를 관리하는 방법 및 장치에 관한 것이다.Embodiments relate to a method and apparatus for managing health information in a vehicle.
ADAS(Advanced Driver Assistance Systems, 이하 'ADAS'라 한다)는 첨단 운전자 보조 시스템이라고 불리기도 하며, 이 시스템은 차량을 운전자보다 더 빠른 반응 속도로 상황을 대처하며 운전자에게 편리함은 물론 안전성까지 제공하며 도로 위 사고를 줄이는데 목표를 두고 있다. 무엇보다 ADAS 기술의 대부분이 센서를 통해 이루어지기에 센서가 굉장히 중요시 여겨지며, 또한 ADAS의 각 기술들은 앞으로 자율주행 자동차에 적용될 것으로 ADAS는 자율주행의 전 단계라고 불리기도 한다. ADAS (Advanced Driver Assistance Systems, hereinafter referred to as'ADAS') is sometimes referred to as an advanced driver assistance system, which responds to the vehicle with a faster reaction speed than the driver, providing convenience to the driver as well as safety and road The goal is to reduce the above accidents. Above all, since most of the ADAS technology is done through sensors, the sensor is considered to be very important, and ADAS technologies are also applied to autonomous vehicles in the future.
ADAS 센서는 크게 카메라, 레이더, 라이다로 나눠볼 수 있다. ADAS sensors can be broadly divided into camera, radar, and lidar.
레이더(Radio Detection And Ranging, Radar)는 허공에 전자파를 쏜 다음 어떤 물체에 부딪혀 돌아오는 반사파를 측정해 탐지된 물체의 방향, 거리, 속도 등을 파악하는 시스템이다. 전파를 이용하기 때문에 기상환경이나 밤낮을 구별하지 않고 안정적으로 거리 측정을 할 수 있어 카메라를 보완하는 역할을 한다. 레이더는 측정 거리와 측정 각도를 동시에 늘리는 게 어렵기 때문에 ADAS 기능에 따라 장거리용 레이더와 중·단거리용 레이더로 나뉘어 적용된다. 기술 측면에서 차량용 레이더는 데이터의 정확성을 높이기 위해 측정 거리와 측정 각도, 전파의 주파수 대역폭 확대를 목표로 발전하고 있는 한편 경량화, 소형화, 저가화를 위한 노력도 지속되고 있다.A radar (Radio Detection And Ranging, Radar) is a system that captures electromagnetic waves in the air and measures the reflected waves that return from a certain object and then grasps the direction, distance, and speed of the detected object. Because it uses radio waves, it is able to measure distances stably regardless of the weather environment or day and night, and complements the camera. Since it is difficult to increase the measurement distance and measurement angle at the same time, the radar is divided into a long-range radar and a medium- and short-range radar according to the ADAS function. In terms of technology, automotive radars have been developed with the goal of increasing the measurement distance, measurement angle, and frequency bandwidth of radio waves to increase the accuracy of data, while efforts are being made to reduce weight, reduce size, and reduce costs.
라이다(Light Detection And Ranging, LiDAR)는 레이더와 기본 원리는 같지만 고출력의 펄스 레이저를 이용해 거리 정보를 획득한다는 점에서 다르다. 라이다 센서에서 끊임없이 광선을 쏘아 되돌아오는 속도를 측정하는 방식이다. 실제 거리를 계산하는 데 1초에 수백만 번의 광선을 쏘기 때문에 이를 모두 합쳐서 3D로 시각 정보를 재구성하는 것이 가능해진다. 자동차 진행방향의 전방 상황뿐 아니라 후방 상황까지 판단함으로써 타인의 고의 또는 과실로 일어날 수 있는 추돌사고까지 방지할 필요성이 있다.Lidar (Light Detection And Ranging, LiDAR) has the same basic principles as radar, but differs in that it acquires distance information using a high-power pulse laser. This is a method of measuring the speed of the light coming back from the lidar sensor constantly. Since it shoots millions of rays per second to calculate the actual distance, it is possible to combine all of them to reconstruct visual information in 3D. It is necessary to prevent collision accidents that may occur due to the intention or negligence of others by judging not only the forward situation but also the rear situation in the direction of the car.
카메라는 레이더, 라이다를 통해 파악할 수 없는 정확한 형상정보를 파악할 수 있기 때문에 ADAS 시스템에서 가장 기본이 된다. 교통표지판 인식, 사각지대 탐지, 차선 이탈 등을 판단하기 위해 카메라를 통한 정확한 데이터 분석이 필수다. The camera is the most basic in the ADAS system because it can grasp accurate shape information that cannot be identified through radar and lidar. Accurate data analysis through the camera is essential to determine traffic sign recognition, blind spot detection, and lane departure.
한편, 최근 모바일 단말 또는 스마트 워치에 장착된 다양한 생체신호 인식센서, 예를 들면 PPG 센서 또는 모바일 단말의 후면에 구비된 카메라를 이용하는 기술들이 연구되고 있다. On the other hand, recently, various biosignal recognition sensors mounted on a mobile terminal or a smart watch, for example, technologies using a PPG sensor or a camera provided on the back of a mobile terminal have been studied.
[선행기술문헌번호][Previous technical document number]
선행 1: 한국공개특허 제2016-0032595호Preceding 1: Korean Patent Publication No. 2016-0032595
실시 예들은 차량 내에서의 건강정보 관리 방법 및 장치를 제공하는 것이다. 또한, 상기 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공하는 데 있다. 해결하려는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.Embodiments are to provide a method and apparatus for managing health information in a vehicle. In addition, it is to provide a recording medium readable by a computer recording a program for executing the method on a computer. The technical problem to be solved is not limited to the technical problems as described above, and other technical problems may exist.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 일 실시 예에 따른 차량 내에서의 건강정보 관리 방법은 차량의 핸들에 부착된 생체정보 측정센서로부터 생체 신호를 수신하는 단계; 상기 수신된 생체 신호를 분석하여 건강 정보를 생성하는 단계; 및 상기 생성된 건강 정보를 상기 차량의 운전자가 인지할 수 있도록 출력하는 단계를 포함한다.As a technical means for achieving the above-described technical problem, a method for managing health information in a vehicle according to an embodiment includes receiving a biosignal from a bioinformation measurement sensor attached to a handle of the vehicle; Generating health information by analyzing the received bio-signals; And outputting the generated health information so that the driver of the vehicle can recognize it.
상기 출력 단계는, 상기 차량의 전면 유리에 표시되는 HUD 및 내비게이션 디스플레이 중 적어도 하나에 상기 생성된 건강 정보를 출력하는 것을 특징으로 한다.The output step is characterized by outputting the generated health information to at least one of a HUD and a navigation display displayed on the windshield of the vehicle.
상기 생체정보 측정센서는, 상기 차량의 핸들의 커버에 부착된 것을 특징으로 한다.The biometric information measurement sensor is characterized in that it is attached to the cover of the steering wheel of the vehicle.
상기 생체정보 측정센서는, 스마트 워치에 포함된 것이고, 상기 핸들에 상기 스마트 워치가 부착되어 상기 생체 신호를 수신하는 것을 특징으로 한다.The bio-information measurement sensor is included in the smart watch, and the smart watch is attached to the handle to receive the bio-signal.
상기 차량 내에서의 건강 정보 관리 방법은 상기 생성된 건강 정보에 상응하는 차량 제어 동작을 수행하는 단계를 더 포함하는 것을 특징으로 한다.The method for managing health information in the vehicle may further include performing a vehicle control operation corresponding to the generated health information.
다른 실시 예에 따른 차량 내에서의 건강 정보 관리 장치는 적어도 하나의 프로그램이 저장된 메모리; 및 상기 적어도 하나의 프로그램을 실행함으로써 건강 정보 관리 장치를 구동하는 프로세서를 포함하고, 상기 프로세서는, 차량의 핸들에 부착된 생체정보 측정센서로부터 생체 신호를 수신하고, 상기 수신된 생체 신호를 분석하여 건강 정보를 생성하고, 상기 생성된 건강 정보를 상기 차량의 운전자가 인지할 수 있도록 출력한다.The apparatus for managing health information in a vehicle according to another embodiment includes a memory in which at least one program is stored; And a processor for driving the health information management device by executing the at least one program, wherein the processor receives a biosignal from a bioinformation measurement sensor attached to a vehicle handle, and analyzes the received biosignal. Health information is generated, and the generated health information is output to be recognized by a driver of the vehicle.
상기 프로세서는, 상기 차량의 전면 유리에 표시되는 HUD 및 내비게이션 디스플레이 중 적어도 하나에 상기 생성된 건강 정보를 출력하는 것을 특징으로 한다.The processor is characterized by outputting the generated health information to at least one of a HUD and a navigation display displayed on the windshield of the vehicle.
상기 생체정보 측정센서는, 상기 차량의 핸들의 커버에 부착된 것을 특징으로 한다.The biometric information measurement sensor is characterized in that it is attached to the cover of the steering wheel of the vehicle.
상기 생체정보 측정센서는, 스마트 워치에 포함된 것이고, 상기 핸들에 상기 스마트 워치가 부착되어 상기 생체 신호를 수신하는 것을 특징으로 한다.The bio-information measurement sensor is included in the smart watch, and the smart watch is attached to the handle to receive the bio-signal.
또 다른 실시 예에 따른 상기 위치 보정 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 기록매체를 포함한다. It includes a recording medium recording a program for executing the position correction method in a computer according to another embodiment.
도 1은 일 실시 예에 따른 차량의 내부 블록 도이다.
도 2는 도 1에 도시된 차량 운전 보조 시스템(ADAS)의 블록 도이다.
도 3은 다른 실시 예에 따른 차량 내에서의 건강정보 관리 장치(300)의 개략 도이다.
도 4는 또 다른 실시 예에 따른 건강정보를 출력하는 예시 도이다.
도 5는 또 다른 실시 예에 다른 차량 내에서의 건강정보 관리 방법을 설명하기 위한 흐름 도이다.1 is an internal block diagram of a vehicle according to an embodiment.
FIG. 2 is a block diagram of the vehicle driving assistance system (ADAS) shown in FIG. 1.
3 is a schematic diagram of a health information management device 300 in a vehicle according to another embodiment.
4 is an exemplary diagram of outputting health information according to another embodiment.
5 is a flowchart illustrating a method for managing health information in another vehicle according to another embodiment.
본 명세서에서 다양한 곳에 등장하는 "일부 실시 예에서" 또는 "일 실시 예에서" 등의 어구는 반드시 모두 동일한 실시 예를 가리키는 것은 아니다.The phrases “in some embodiments” or “in an embodiment” appearing in various places in the specification are not necessarily all referring to the same embodiment.
본 개시의 일부 실시 예는 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들의 일부 또는 전부는, 특정 기능들을 실행하는 다양한 개수의 하드웨어 및/또는 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 본 개시의 기능 블록들은 하나 이상의 마이크로프로세서들에 의해 구현되거나, 소정의 기능을 위한 회로 구성들에 의해 구현될 수 있다. 또한, 예를 들어, 본 개시의 기능 블록들은 다양한 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능 블록들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 본 개시는 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. “메커니즘”, “요소”, “수단” 및 “구성” 등과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다.Some embodiments of the present disclosure may be represented by functional block configurations and various processing steps. Some or all of these functional blocks may be implemented with various numbers of hardware and/or software configurations that perform particular functions. For example, the functional blocks of the present disclosure can be implemented by one or more microprocessors, or by circuit configurations for a given function. Also, for example, functional blocks of the present disclosure may be implemented in various programming or scripting languages. The functional blocks can be implemented with algorithms running on one or more processors. In addition, the present disclosure may employ conventional techniques for electronic environment setting, signal processing, and/or data processing. Terms such as “mechanism”, “element”, “means” and “composition” can be used widely, and are not limited to mechanical and physical configurations.
또한, 도면에 도시된 구성 요소들 간의 연결 선 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것일 뿐이다. 실제 장치에서는 대체 가능하거나 추가된 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들에 의해 구성 요소들 간의 연결이 나타내어질 수 있다. In addition, the connection lines or connection members between the components shown in the drawings are merely illustrative of functional connections and/or physical or circuit connections. In an actual device, connections between components may be represented by various functional connections, physical connections, or circuit connections that are replaceable or added.
이하 첨부된 도면을 참고하여 본 개시를 상세히 설명하기로 한다.Hereinafter, the present disclosure will be described in detail with reference to the accompanying drawings.
도 1은 일 실시 예에 따른 차량의 내부 블록도이다. 1 is an internal block diagram of a vehicle according to an embodiment.
도 1을 참조하면, 차량(100)은, 통신부(110), 입력부(120), 센싱부(125) 메모리(130), 출력부(140), 차량 구동부(150), 차량 운전 보조 시스템(ADAS, 160), 제어부(170), 인터페이스부(180) 및 전원 공급부(190)를 포함할 수 있다.Referring to FIG. 1, the
통신부(110)는, 근거리 통신 모듈, 위치 정보 모듈, 광통신 모듈 및 V2X 통신 모듈을 포함할 수 있다.The
입력부(120)는, 운전 조작 수단, 카메라, 마이크로폰 및 사용자 입력부를 포함할 수 있다.The
운전 조작 수단은, 차량(100) 운전을 위한 사용자 입력을 수신한다. 운전 조작 수단은 조향 입력 수단, 쉬프트 입력 수단, 가속 입력 수단, 브레이크 입력 수단을 포함할 수 있다.The driving operation means receives a user input for driving the
가속 입력 수단은, 사용자로부터 차량(100)의 가속을 위한 입력을 수신한다. 브레이크 입력 수단은, 사용자로부터 차량(100)의 감속을 위한 입력을 수신한다.The acceleration input means receives an input for acceleration of the
카메라는, 이미지 센서와 영상 처리 모듈을 포함할 수 있다. 카메라는 이미지 센서(예를 들면, CMOS 또는 CCD)에 의해 얻어지는 정지영상 또는 동영상을 처리할 수 있다. 영상 처리 모듈은 이미지 센서를 통해 획득된 정지영상 또는 동영상을 가공하여, 필요한 정보를 추출하고, 추출된 정보를 제어부(170)에 전달할 수 있다.The camera may include an image sensor and an image processing module. The camera can process still images or moving pictures obtained by an image sensor (for example, CMOS or CCD). The image processing module may process the still image or video acquired through the image sensor, extract necessary information, and transmit the extracted information to the
한편, 차량(100)은 차량 전방 영상을 촬영하는 전방 카메라, 차량 주변 영상을 촬영하는 어라운드 뷰 카메라 및 차량 후방 영상을 촬영하는 후방카메라를 포함할 수 있다. 각각의 카메라는 렌즈, 이미지 센서 및 프로세서를 포함할 수 있다. 프로세서는, 촬영되는 영상을 컴퓨터 처리하여, 데이터 또는 정보를 생성하고, 생성된 데이터 또는 정보를 제어부(170)에 전달할 수 있다. 카메라에 포함되는 프로세서는, 제어부(170)의 제어를 받을 수 있다.Meanwhile, the
카메라는 스테레오 카메라를 포함할 수 있다. 이 경우, 카메라의 프로세서는, 스테레오 영상에서 검출된 디스페리티(disparity) 차이를 이용하여, 오브젝트와의 거리, 영상에서 검출된 오브젝트와의 상대 속도, 복수의 오브젝트 간의 거리를 검출할 수 있다.The camera may include a stereo camera. In this case, the processor of the camera may detect a distance from the object, a relative speed with the object detected from the image, and a distance between a plurality of objects using a disparity difference detected in the stereo image.
카메라는 TOF(Time of Flight) 카메라를 포함할 수 있다. 이 경우, 카메라는, 광원(예를 들면, 적외선 또는 레이저) 및 수신부를 포함할 수 있다. 이 경우, 카메라의 프로세서는, 광원에서 발신되는 적외선 또는 레이저가 오브젝트에 반사되어 수신될 때까지의 시간(TOF)에 기초하여 오브젝트와의 거리, 오브젝트와의 상대 속도, 복수의 오브젝트 간의 거리를 검출할 수 있다.The camera may include a Time of Flight (TOF) camera. In this case, the camera may include a light source (eg, infrared or laser) and a receiver. In this case, the processor of the camera detects the distance to the object, the relative speed with the object, and the distance between the plurality of objects based on the time until the infrared ray or laser emitted from the light source is reflected and received by the object. can do.
한편, 후방 카메라는, 후방 번호판 또는 트렁크 또는 테일 게이트 스위치 부근에 배치될 수 있으나, 후방 카메라가 배치되는 위치는 이에 제한되지 않는다.Meanwhile, the rear camera may be disposed in the vicinity of the rear license plate or the trunk or tail gate switch, but the position in which the rear camera is disposed is not limited thereto.
복수의 카메라에서 촬영된 각각의 이미지는, 카메라의 프로세서에 전달되고, 프로세서는 상기 각각의 이미지를 합성하여, 차량 주변 영상을 생성할 수 있다. 이때, 차량 주변 영상은 탑뷰 이미지 또는 버드 아이 이미지로 디스플레이부를 통해 표시될 수 있다.Each image photographed by a plurality of cameras is delivered to a processor of the camera, and the processor may synthesize the respective images to generate an image around the vehicle. At this time, the image around the vehicle may be displayed through the display unit as a top view image or a bird eye image.
센싱부(125)는, 차량(100)의 각종 상황을 센싱한다. 이를 위해, 센싱부(125)는, 충돌 센서, 휠 센서(wheel sensor), 속도 센서, 경사 센서, 중량 감지 센서, 헤딩 센서(heading sensor), 요 센서(yaw sensor), 자이로 센서(gyro sensor), 포지션 모듈(position module), 차량 전진/후진 센서, 배터리 센서, 연료 센서, 타이어 센서, 핸들 회전에 의한 스티어링 센서, 차량 내부 온도 센서, 차량 내부 습도 센서, 초음파 센서, 조도 센서, 레이더, 라이더 등을 포함할 수 있다.The
이에 의해, 센싱부(125)는, 차량 충돌 정보, 차량 방향 정보, 차량 위치 정보(GPS 정보), 차량 각도 정보, 차량 속도 정보, 차량 가속도 정보, 차량 기울기 정보, 차량 전진/후진 정보, 배터리 정보, 연료 정보, 타이어 정보, 차량 램프 정보, 차량 내부 온도 정보, 차량 내부 습도 정보, 스티어링 휠 회전 각도, 차량 외부 조도 등에 대한 센싱 신호를 획득할 수 있다.Accordingly, the
메모리(130)는, 제어부(170)와 전기적으로 연결된다. 메모리(130)는 유닛에 대한 기본데이터, 유닛의 동작제어를 위한 제어데이터, 입출력되는 데이터를 저장할 수 있다. 메모리(130)는, 하드웨어적으로, ROM, RAM, EPROM, 플래시 드라이브, 하드 드라이브 등과 같은 다양한 저장기기 일 수 있다. 메모리(130)는 제어부(170)의 처리 또는 제어를 위한 프로그램 등, 차량(100) 전반의 동작을 위한 다양한 데이터를 저장할 수 있다.The
출력부(140)는, 제어부(170)에서 처리된 정보를 출력하기 위한 것으로, 디스플레이부, 음향 출력부 및 햅틱 출력부를 포함할 수 있다.The
디스플레이부는 제어부(170)에서 처리되는 정보를 표시할 수 있다. 예를 들면, 디스플레이부는 차량 관련 정보를 표시할 수 있다. 여기서, 차량 관련 정보는, 현재 차량의 상태를 알려주는 차량 상태 정보 또는 차량의 운행과 관련되는 차량 운행 정보를 포함할 수 있다. 예를 들어, 디스플레이부는 현재 차량의 속도(또는 속력), 주변차량의 속도(또는 속력) 및 현재 차량과 주변차량 간의 거리 정보를 표시할 수 있다.The display unit may display information processed by the
한편, 디스플레이부는 운전자가 운전을 함과 동시에 차량 상태 정보 또는 차량 운행 정보를 확인할 수 있도록 클러스터(cluster)를 포함할 수 있다. 클러스터는 대시보드 위에 위치할 수 있다. 이 경우, 운전자는, 시선을 차량 전방에 유지한 채로 클러스터에 표시되는 정보를 확인할 수 있다.Meanwhile, the display unit may include a cluster so that the driver can check the vehicle status information or the vehicle driving information while driving. Clusters can be placed on the dashboard. In this case, the driver can check the information displayed on the cluster while keeping the gaze in front of the vehicle.
음향 출력부는 제어부(170)로부터의 전기 신호를 오디오 신호로 변환하여 출력한다. 이를 위해, 음향 출력부는 스피커 등을 구비할 수 있다.The sound output unit converts and outputs an electrical signal from the
차량 구동부(150)는, 차량 각종 장치의 동작을 제어할 수 있다. 차량 구동부(150)는 동력원 구동부, 조향 구동부, 브레이크 구동부, 램프 구동부, 공조 구동부, 윈도우 구동부, 에어백 구동부, 썬루프 구동부 및 서스펜션 구동부를 포함할 수 있다.The
동력원 구동부는, 차량(100) 내의 동력원에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 화석 연료 기반의 엔진(미도시)이 동력원인 경우, 동력원 구동부는, 엔진에 대한 전자식 제어를 수행할 수 있다. 이에 의해, 엔진의 출력 토크 등을 제어할 수 있다. 동력원 구동부가 엔진인 경우, 제어부(170)의 제어에 따라, 엔진 출력 토크를 제한하여 차량의 속도를 제한할 수 있다.The power source driving unit may perform electronic control of the power source in the
브레이크 구동부는, 차량(100) 내의 브레이크 장치(brake apparatus)(미도시)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 바퀴에 배치되는 브레이크의 동작을 제어하여, 차량(100)의 속도를 줄일 수 있다. 다른 예로, 좌측 바퀴와 우측 바퀴에 각각 배치되는 브레이크의 동작을 달리하여, 차량(100)의 진행 방향을 좌측, 또는 우측으로 조정할 수 있다.The brake driving unit may perform electronic control of a brake apparatus (not shown) in the
램프 구동부는, 차량 내, 외부에 배치되는 램프의 턴 온/턴 오프를 제어할 수 있다. 또한, 램프의 빛의 세기, 방향 등을 제어할 수 있다. 예를 들면, 방향 지시 램프, 브레이크 램프 등의 대한 제어를 수행할 수 있다.The lamp driver may control turn-on/turn-off of lamps disposed inside and outside the vehicle. Also, it is possible to control the light intensity, direction, and the like of the lamp. For example, it is possible to perform control for a direction indicator lamp, a brake lamp, and the like.
제어부(170)는, 차량(100) 내의 각 유닛의 전반적인 동작을 제어할 수 있다. 제어부(170)는 ECU(Electronic Contol Unit)로 명명될 수 있다. 상술한 추돌 방지 장치는 제어부(170)에 의해 구동될 수 있다.The
제어부(170)는, 하드웨어적으로, ASICs (application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로프로세서(microprocessors), 기타 기능 수행을 위한 전기적 유닛 중 적어도 하나를 이용하여 구현될 수 있다.The
일 실시 예에서 제어부(170)는 차량의 주행 중 ADAS 카메라를 이용하여 도로 영상을 촬영하고, 촬영된 도로 영상으로부터 도로의 수평 데이터를 획득하고, 차량의 주행 중 차량의 센서를 이용하여 차체 기울기를 측정한 기울기 데이터를 획득하고, 획득된 수평 데이터 및 상기 기울기 데이터를 기초로 ADAS 카메라의 위치를 보정한다.In one embodiment, the
인터페이스부(180)는, 차량(100)에 연결되는 다양한 종류의 외부 기기와의 통로 역할을 수행할 수 있다. 예를 들면, 인터페이스부(180)는 이동 단말기(미도시)와 연결 가능한 포트를 구비할 수 있고, 상기 포트를 통해, 이동 단말기(미도시)와 연결할 수 있다. 이 경우, 인터페이스부(180)는 이동 단말기와 데이터를 교환할 수 있다.The
전원 공급부(190)는, 제어부(170)의 제어에 따라, 각 구성요소들의 동작에 필요한 전원을 공급할 수 있다. 특히, 전원 공급부(190)는, 차량 내부의 배터리(미도시) 등으로부터 전원을 공급받을 수 있다.The
도 2는 도 1에 도시된 차량 운전 보조 시스템(ADAS)의 블록 도이다.FIG. 2 is a block diagram of the vehicle driving assistance system (ADAS) shown in FIG. 1.
ADAS(200)는, 편의, 안전 제공을 위해 운전자를 보조 하는 차량 운전 보조 시스템이다.
ADAS(200)는, 자동 비상 제동 모듈(이하, AEB: Autonomous Emergency Braking)(210), 전방 충돌 회피 모듈 (이하, FCW: Foward Collision Warning)(211), 차선 이탈 경고 모듈 (이하, LDW: Lane Departure Warning)(212), 차선 유지 보조 모듈 (이하, LKA: Lane Keeping Assist)(213), 속도 지원 시스템 모듈 (이하, SAS: Speed Assist System)(214), 교통 신호 검출 모듈 (TSR: Traffic Sign Recognition)(215), 적응형 상향등 제어 모듈 (이하, HBA: High Beam Assist)(216), 사각 지대 감시 모듈 (이하, BSD: Blind Spot Detection)(217), 자동 비상 조향 모듈 (이하, AES: Autonomous Emergency Steering)(218), 커브 속도 경고 시스템 모듈 (이하, CSWS: Curve Speed Warning System)(219), 적응 순향 제어 모듈 (이하, ACC: Adaptive Cruise Control)(220), 스마트 주차 시스템 모듈 (이하, SPAS: Smart Parking Assist System)(221), 교통 정체 지원 모듈 (이하, TJA: Traffic Jam Assist)(222) 및 어라운드 뷰 모니터 모듈 (이하, AVM: Around View Monitor)(223)을 포함할 수 있다.The
상기 각각의 ADAS 모듈(210, 211, 212, 213, 214, 215, 216, 217, 218, 219, 220, 221, 222, 223)들은 차량 운전 보조 기능 제어를 위한 프로세서를 포함할 수 있다.Each of the
상기 각각의 ADAS 모듈(210, 211, 212, 213, 214, 215, 216, 217, 218, 219, 220, 221, 222, 223)에 포함되는 프로세서는, 제어부(270)의 제어를 받을 수 있다.The processors included in each of the
상기 각각의 ADAS 모듈(210, 211, 212, 213, 214, 215, 216, 217, 218, 219, 220, 221, 222, 223) 프로세서는, 하드웨어적으로, ASICs (application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적 유닛 중 적어도 하나를 이용하여 구현될 수 있다.Each of the ADAS module (210, 211, 212, 213, 214, 215, 216, 217, 218, 219, 220, 221, 222, 223) processor, hardware, application specific integrated circuits (ASICs), DSPs (digital signal processors), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs), processors, controllers, micro-controllers, microprocessors ( microprocessors) and other electrical units for performing other functions.
AEB(210)는, 검출된 오브젝트와의 충돌을 방지하기 위해, 자동 제동을 제어하는 모듈이다. FCW(211)는, 차량 전방 오브젝트와의 충돌을 방지하기 위해, 경고가 출력되도록 제어하는 모듈이다. LDW(212)는, 주행 중 차선 이탈 방지를 위해, 경고가 출력되도록 제어하는 모듈이다. LKA(213)는, 주행 중 주행 차선 유지하도록 제어하는 모듈이다. SAS(214)는, 설정된 속도 이하로 주행하도록 제어하는 모듈이다. TSR(215)은, 주행 중 교통 신호를 감지하여 감지된 교통 신호를 기초로 정보를 제공하는 모듈이다. HBA(216)는, 주행 상황에 따라 상향등의 조사 범위 또는 조사량을 제어하는 모듈이다. BSD(217)는, 주행 중, 운전자 시야 밖의 오브젝트를 검출하고, 검출 정보를 제공하는 모듈이다. AES(218)는, 비상시 조향을 자동으로 수행하는 모듈이다. CSWS(219)는, 커브 주행시 기 설정 속도 이상으로 주행하는 경우 경로를 출력하도록 제어하는 모듈이다. ACC(220)는, 선행 차량을 추종하여 주행하도록 제어하는 모듈이다. SPAS(221)는, 주차 공간을 검출하고, 주차 공간에 주차하도록 제어하는 모듈이다. TJA(222)는, 교통 정체시 자동 운행하도록 제어하는 모듈이다. AVM(223)은, 차량 주변 영상을 제공하고, 차량 주변을 모니터링하도록 제어하는 모듈이다. The
ADAS(200)는, 입력부(230) 또는 센싱부(235)에서 획득한 데이터를 기초로, 각각의 차량 운전 보조 기능을 수행하기 위한 제어 신호를 출력부(250) 또는 차량 구동부(260)에 제공할 수 있다. ADAS(200)는, 상기 제어 신호를, 출력부(250) 또는 차량 구동부(260)에 차량 내부 네트워크 통신(예를 들면, CAN)을 통해, 직접 출력할 수 있다. 또는, ADAS(200)는, 상기 제어 신호를, 제어부(270)를 거쳐, 출력부(250) 또는 차량 구동부(260)에 출력할 수 있다.The
도 3은 다른 실시 예에 따른 차량 내에서의 건강정보 관리 장치(300)의 개략 도이다.3 is a schematic diagram of a health information management device 300 in a vehicle according to another embodiment.
도 3을 참조하면, 건강정보 관리 장치(300)는 제어부(310), PPG 센서(320) 및 출력부(330)를 포함한다. 실시 예에서 건강정보 관리 장치(300)는 차량의 핸들에 부착된 생체정보 측정센서로부터 생체 신호를 수신하고, 수신된 생체 신호를 분석하여 건강 정보를 생성하고, 생성된 건강 정보를 차량의 운전자가 인지할 수 있도록 출력한다. 여기서, 건강정보 관리 장치(300)는 차량의 전면 유리에 표시되는 HUD, 내비게이션 디스플레이에 건강정보를 출력할 수 있다. 여기서, PPG 센서(320)는 차량의 핸들 커버에 부착되거나, 스마트 워치에 포함되어, 차량의 핸들 또는 핸들커버에 스마트워치를 부착하거나, 거치하고, 스마트워치로부터 생체 신호를 수신할 수도 있다. 또한, 스마트워치의 충전 기능을 수행할 수도 있다. Referring to FIG. 3, the health information management device 300 includes a
PPG 센서(320)는 심장 박동 및 산소 포화도, 체온 등을 측정할 수 있는 센서이다. 여기서, PPG 센서(320)를 예로서 설명하지만, 이에 한정되지 않고, 다양하게 심장박동 및 산소 포화도를 측정할 수 있는 센서, 예를 들면 카메라, 맥파센서 등을 포함할 수 있으며, 체온을 측정할 수 있는 체온계 등을 포함할 수 있음은 물론이다. 맥파는 심장 수축과 이완에 의하여 맥동성 파형으로 전파되면서 혈관의 용적 변화가 나타난다. 광용적맥파 측정법(photoplethysmograph, 이하 “PPG”라 한다)은 빛을 이용하여 맥파를 측정하는 방법으로, 혈관의 용적 변화시 나타나는 생체조직의 반사, 흡수 투과비 등의 광학적 특성의 변화를 광센서에서 감지하여 측정한다. 심전도와는 달리 말초혈관에 전달된 혈류의 변화를 측정하게 되지만 심전도전극을 사용하지 않고 손가락, 이마, 귓불 등에 광원과 광센서를 적용하여 간편하게 맥파를 측정할 수 있다. 또한 PPG를 이용한 맥파의 변화가 심전도의 변화는 아니지만, PPG로부터 측정된 맥파의 변이도로 HRV를 추정할 수 있다. The
여기서, PPG 센서(320)는 차량의 핸들의 특정 위치, 예를 들면 손을 잡는 부위에 구비되어 있을 수 있다. 또한, PPG 센서(320)는 스마트워치에 구비되어, 핸들 또는 핸들의 커버에 부착될 수 있는 구조를 통해 생체 신호를 측정할 수도 있다.Here, the
제어부(310)는 PPG 센서(320)로부터 측정된 생체 신호를 분석하여 건강 정보를 생성한다. 여기서, 건강 정보는 심박수, 스트레스 지수, 체온 등을 포함하고, 생성된 건강 정보를 차량의 운전자가 인지할 수 있도록 출력부(330)를 통해 출력하도록 제어한다. 여기서, 출력부(330)는 차량의 전면 유리에 표시되는 HUD 이거나, 내비게이션 디스플레이를 포함할 수 있다. 또한, 시각적 정보 뿐만 아니라, 청각적 정보를 포함할 수 있다. 또한, 출력부(330)를 통해 운전자의 스마트 폰에 건강 정보를 전송할 수도 있다.The
건강 정보의 분석은 심박변이도(Heart Rate Variability; 이하 “HRV”라 한다)는 심박주기의 연속적인 변화들을 순차적으로 연결하여 일렬의 데이터로 만든 신호로부터 자율신경계의 상태를 측정하기 위한 비침습성(Non-invasive)의 도구를 사용할 수 있다. 이러한 HRV는 스트레스, 수면분석, 감성분석 등을 산출할 수 있다.The analysis of health information is Heart Rate Variability (hereinafter referred to as “HRV”), which is a non-invasive measure to measure the state of the autonomic nervous system from signals made from a series of data by sequentially connecting the continuous changes of the heart rate cycle (Non -invasive) tool. The HRV can calculate stress, sleep analysis, and emotional analysis.
제어부(310)는 생체 신호를 분석하여 건강 정보를 생성할 수도 있고, 스마트워치에서 분석된 건강 정보를 전송받아, 차량의 출력 수단에 출력하도록 제어할 수도 있다.The
또한, 제어부(310)는 생성된 건강 정보에 상응하는 차량 제어 동작을 수행할 수도 있다. 여기서, 차량 제어 동작은 운전자의 건강 상태에 따른 차량 제어 동작으로서, 창문을 열거나, 피곤하거나 스트레스를 받는 상황에서 음악을 추천하여 재생하거나, 운전 모드를 변경 제안하거나, 차량의 속도를 줄일 수 있거나, 다양한 운전자 지원 동작을 포함할 수 있다.In addition, the
도 4는 또 다른 실시 예에 따른 건강정보를 출력하는 예시 도이다.4 is an exemplary diagram of outputting health information according to another embodiment.
도 4에 도시된 것처럼, 운전자의 손으로 차량의 핸들에 구비된 생체신호 측정센서(410, 420)를 잡는 경우에, 운전자의 생체 신호를 측정하게 된다. 건강정보 관리 장치는 측정한 생체 신호부터부터 운전자의 건강 정보를 분석하고, 분석된 건강 정보를 차량의 전면 유리의 HUD(430) 또는 내비게이션 디스플레이(440)에 표시할 수 있다. 여기서, 생체신호 측정센서(410, 420) 2개가 도시되어 있지만, 그 수에 한정되는 것은 아니다. 또한, 생체신호 측정센서(410, 420)가 핸들에 구비되어 있는 것으로 도시되어 있지만, 핸들의 커버에 부착되어 있을 수도 있다. 또한, 생체신호 측정 센서(410, 420)가 별도의 센서인 것으로 도시되어 있지만, 운전자가 손목에 차는 스마트워치 형태일 수 있으며, 스마트 워치를 핸들 또는 핸들 커버에 부착할 수 있는 구조를 구비할 수도 있다. 또한, 스마트 워치의 충전 기능을 수행할 수 있도록 핸들 또는 핸들커버는 충전구조를 더 포함할 수 있다. As illustrated in FIG. 4, when the
실시 예에 따른 차량 내에서의 건강정보 관리 방법 및 장치는, 운전 중에 측정 대상 체, 예를 들면 손이 위치한 부근에서 용이하게 운전자의 건강정보를 확인 및 체크 함으로써, 장거리 운전 또는 현재 운전자의 컨디션을 확인하면서 안전운전을 지원할 수 있다. The method and apparatus for managing health information in a vehicle according to an embodiment can easily check and check a driver's health information in the vicinity of a body to be measured, for example, a hand, while driving, thereby driving a long-distance drive or a current driver's condition. You can support safe driving while checking.
도 5는 또 다른 실시 예에 다른 차량 내에서의 건강정보 관리 방법을 설명하기 위한 흐름 도이다.5 is a flowchart illustrating a method for managing health information in another vehicle according to another embodiment.
도 5를 참조하면, 단계 500에서, 차량의 핸들에 부착된 생체정보 측정센서로부터 생체 신호를 수신한다. 단계 502에서, 수신된 생체 신호를 분석하여 건강 정보를 생성한다. 단계 504에서, 생성된 건강 정보를 차량의 운전자가 인지할 수 있도록 출력한다.Referring to FIG. 5, in
본 실시 예들은 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행 가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비 분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비 분리형 매체를 모두 포함한다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈과 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함한다.The embodiments may also be implemented in the form of a recording medium including instructions executable by a computer, such as program modules executed by a computer. Computer readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, removable and non-removable media. In addition, computer-readable media may include both computer storage media and communication media. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data. Communication media typically includes computer readable instructions, data structures, other data in a modulated data signal, such as program modules, or other transport mechanisms, and includes any information delivery media.
또한, 본 명세서에서, "부"는 프로세서 또는 회로와 같은 하드웨어 구성(hardware component), 및/또는 프로세서와 같은 하드웨어 구성에 의해 실행되는 소프트웨어 구성(software component)일 수 있다.In addition, in this specification, the “part” may be a hardware component such as a processor or circuit, and/or a software component executed by a hardware component such as a processor.
전술한 본 명세서의 설명은 예시를 위한 것이며, 본 명세서의 내용이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시 예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The above description of the present specification is for illustration only, and those skilled in the art to which the contents of this specification belong can understand that it can be easily modified to other specific forms without changing the technical spirit or essential features of the present invention. There will be. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive. For example, each component described as a single type may be implemented in a distributed manner, and similarly, components described as distributed may be implemented in a combined form.
본 실시 예의 범위는 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 포함되는 것으로 해석되어야 한다.The scope of the present embodiment is indicated by the claims, which will be described later, rather than by the detailed description, and should be interpreted to include all modified or modified forms derived from the meaning and scope of the claims and their equivalent concepts.
Claims (10)
상기 수신된 생체 신호를 분석하여 건강 정보를 생성하는 단계; 및
상기 생성된 건강 정보를 상기 차량의 운전자가 인지할 수 있도록 출력하는 단계를 포함하는 차량 내에서의 건강 정보 관리 방법. Receiving a bio-signal from a bio-information measurement sensor attached to the handle of the vehicle;
Generating health information by analyzing the received bio-signals; And
And outputting the generated health information so that a driver of the vehicle can recognize the health information in the vehicle.
상기 출력 단계는,
상기 차량의 전면 유리에 표시되는 HUD 및 내비게이션 디스플레이 중 적어도 하나에 상기 생성된 건강 정보를 출력하는 것을 특징으로 하는 차량 내에서의 건강 정보 관리 방법. According to claim 1,
The output step,
A method for managing health information in a vehicle, characterized in that the generated health information is output to at least one of a HUD and a navigation display displayed on the windshield of the vehicle.
상기 생체정보 측정센서는,
상기 차량의 핸들의 커버에 부착된 것을 특징으로 하는 차량 내에서의 건강 정보 관리 방법. According to claim 1,
The biological information measurement sensor,
Health information management method in a vehicle, characterized in that attached to the cover of the handle of the vehicle.
상기 생체정보 측정센서는,
스마트 워치에 포함된 것이고, 상기 핸들에 상기 스마트 워치가 부착되어 상기 생체 신호를 수신하는 것을 특징으로 하는 차량 내에서의 건강 정보 관리 방법. According to claim 1,
The biological information measurement sensor,
A method for managing health information in a vehicle, which is included in a smart watch and receives the bio-signal by attaching the smart watch to the handle.
상기 생성된 건강 정보에 상응하는 차량 제어 동작을 수행하는 단계를 더 포함하는 것을 특징으로 하는 차량 내에서의 건강 정보 관리 방법. According to claim 1,
A method of managing health information in a vehicle, further comprising performing a vehicle control operation corresponding to the generated health information.
상기 적어도 하나의 프로그램을 실행함으로써 건강 정보 관리 장치를 구동하는 프로세서를 포함하고,
상기 프로세서는,
차량의 핸들에 부착된 생체정보 측정센서로부터 생체 신호를 수신하고, 상기 수신된 생체 신호를 분석하여 건강 정보를 생성하고, 상기 생성된 건강 정보를 상기 차량의 운전자가 인지할 수 있도록 출력하는 차량 내에서의 건강 정보 관리 장치. A memory in which at least one program is stored; And
And a processor for driving the health information management device by executing the at least one program,
The processor,
In a vehicle that receives a bio-signal from a bio-information measurement sensor attached to the handle of the vehicle, analyzes the received bio-signal, generates health information, and outputs the generated health information so that the driver of the vehicle can recognize it. Health information management device.
상기 프로세서는,
상기 차량의 전면 유리에 표시되는 HUD 및 내비게이션 디스플레이 중 적어도 하나에 상기 생성된 건강 정보를 출력하는 것을 특징으로 하는 차량 내에서의 건강 정보 관리 장치. The method of claim 7,
The processor,
A device for managing health information in a vehicle, characterized in that the generated health information is output to at least one of a HUD and a navigation display displayed on the windshield of the vehicle.
상기 생체정보 측정센서는,
상기 차량의 핸들의 커버에 부착된 것을 특징으로 하는 차량 내에서의 건강 정보 관리 장치. The method of claim 7,
The biological information measurement sensor,
Health information management device in a vehicle, characterized in that attached to the cover of the handle of the vehicle.
상기 생체정보 측정센서는,
스마트 워치에 포함된 것이고, 상기 핸들에 상기 스마트 워치가 부착되어 상기 생체 신호를 수신하는 것을 특징으로 하는 차량 내에서의 건강 정보 관리 장치. The method of claim 7,
The biological information measurement sensor,
It is included in the smart watch, health information management device in a vehicle characterized in that the smart watch is attached to the handle to receive the bio-signal.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180173061A KR20200082456A (en) | 2018-12-28 | 2018-12-28 | Method and apparatus for managing health care information in vehicle |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180173061A KR20200082456A (en) | 2018-12-28 | 2018-12-28 | Method and apparatus for managing health care information in vehicle |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20200082456A true KR20200082456A (en) | 2020-07-08 |
Family
ID=71600550
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180173061A KR20200082456A (en) | 2018-12-28 | 2018-12-28 | Method and apparatus for managing health care information in vehicle |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20200082456A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114468494A (en) * | 2022-02-27 | 2022-05-13 | 重庆长安汽车股份有限公司 | Automobile-used intelligent wrist-watch and mounting structure thereof |
KR20220080257A (en) * | 2020-12-07 | 2022-06-14 | 주식회사 오토웰즈 | Vehicle head-up display system that analyzes and displays driver's biometric information |
-
2018
- 2018-12-28 KR KR1020180173061A patent/KR20200082456A/en not_active Application Discontinuation
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220080257A (en) * | 2020-12-07 | 2022-06-14 | 주식회사 오토웰즈 | Vehicle head-up display system that analyzes and displays driver's biometric information |
CN114468494A (en) * | 2022-02-27 | 2022-05-13 | 重庆长安汽车股份有限公司 | Automobile-used intelligent wrist-watch and mounting structure thereof |
CN114468494B (en) * | 2022-02-27 | 2023-06-06 | 重庆长安汽车股份有限公司 | Automobile-used intelligent wrist-watch and mounting structure thereof |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101750178B1 (en) | Warning Method Outside Vehicle, Driver Assistance Apparatus For Executing Method Thereof and Vehicle Having The Same | |
US9978278B2 (en) | Vehicle to vehicle communications using ear pieces | |
US10800428B2 (en) | Vehicle driving assistance method and vehicle | |
JP4893945B2 (en) | Vehicle periphery monitoring device | |
US11001271B2 (en) | Drive assistance device | |
US20160041553A1 (en) | Vehicle control device | |
US20180329415A1 (en) | Driver monitoring apparatus and driver monitoring method | |
JP2008230558A (en) | Vehicle periphery monitoring device | |
US10843625B2 (en) | Method and system for artificial intelligence based advanced driver assistance | |
US20190073546A1 (en) | Driver state recognition apparatus, driver state recognition system, and driver state recognition method | |
US10144349B2 (en) | Collision avoidance system and collision avoidance method | |
US20170325732A1 (en) | Collision Avoidance System and Collision Avoidance Method | |
US11518373B2 (en) | Vehicle and control method thereof | |
US20220258771A1 (en) | Method to detect driver readiness for vehicle takeover requests | |
US11547361B2 (en) | Display controller, display device, display system, mobile object, image generation method, and carrier means | |
EP3372467A1 (en) | Method and system for historical state based advanced driver assistance | |
US10703374B2 (en) | Vehicle driving assisting apparatus and vehicle comprising same | |
KR20200082456A (en) | Method and apparatus for managing health care information in vehicle | |
KR20200082457A (en) | Method and apparatus for controlling an alarm output of ADAS | |
KR102094405B1 (en) | Method and apparatus for determining an accident using an image | |
JP7176187B2 (en) | Driving support method and driving support device | |
CN114312826B (en) | Automatic driving system | |
KR102175793B1 (en) | Method and apparatus for outputting an alarm for congitive impairment of driver | |
KR102124998B1 (en) | Method and apparatus for correcting a position of ADAS camera during driving | |
US11919532B2 (en) | System matching driver intent with forward-reverse gear setting |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E601 | Decision to refuse application |