KR101728326B1 - 차량, 서버 및 이를 포함하는 차량 모니터링 시스템 - Google Patents

차량, 서버 및 이를 포함하는 차량 모니터링 시스템 Download PDF

Info

Publication number
KR101728326B1
KR101728326B1 KR1020150038447A KR20150038447A KR101728326B1 KR 101728326 B1 KR101728326 B1 KR 101728326B1 KR 1020150038447 A KR1020150038447 A KR 1020150038447A KR 20150038447 A KR20150038447 A KR 20150038447A KR 101728326 B1 KR101728326 B1 KR 101728326B1
Authority
KR
South Korea
Prior art keywords
vehicle
information
event
accident
target vehicle
Prior art date
Application number
KR1020150038447A
Other languages
English (en)
Other versions
KR20160112544A (ko
Inventor
김성운
강기동
강경현
노희진
윤석영
백빛나
김가희
허종혁
김치성
Original Assignee
현대자동차주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대자동차주식회사 filed Critical 현대자동차주식회사
Priority to KR1020150038447A priority Critical patent/KR101728326B1/ko
Priority to CN201510834681.6A priority patent/CN105989727A/zh
Priority to US14/958,926 priority patent/US20160275796A1/en
Publication of KR20160112544A publication Critical patent/KR20160112544A/ko
Application granted granted Critical
Publication of KR101728326B1 publication Critical patent/KR101728326B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/161Decentralised systems, e.g. inter-vehicle communication
    • G08G1/163Decentralised systems, e.g. inter-vehicle communication involving continuous checking
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096733Systems involving transmission of highway information, e.g. weather, speed limits where a selection of the information might take place
    • G08G1/096741Systems involving transmission of highway information, e.g. weather, speed limits where a selection of the information might take place where the source of the transmitted information selects which information to transmit to each vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/161Decentralised systems, e.g. inter-vehicle communication
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/008Registering or indicating the working of vehicles communicating information to a remotely located station
    • G06Q50/30
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/40Business processes related to the transportation industry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • G07C5/0841Registering performance data
    • G07C5/085Registering performance data using electronic data carriers
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/164Centralised systems, e.g. external to vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources

Landscapes

  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Signal Processing (AREA)
  • Tourism & Hospitality (AREA)
  • Economics (AREA)
  • Health & Medical Sciences (AREA)
  • Atmospheric Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Business, Economics & Management (AREA)
  • Traffic Control Systems (AREA)
  • Operations Research (AREA)

Abstract

본 발명의 일 측면은, 차량의 주행 중에 발생하는 이벤트를 분석하여 차량의 사고를 예방하는 차량, 서버 및 이를 포함하는 차량 모니터링 시스템을 제공한다. 일 실시예에 따른 차량은 차량 주변의 영상을 획득하는 영상 획득부; 차량의 주행정보를 획득하는 주행정보 획득부; 상기 영상 획득부 및 주행정보 획득부에서 획득한 정보를 서버로 전송하고 상기 서버로부터 전송되는 차량 주행과 관련된 이벤트에 대한 정보를 수신하는 통신부; 및 상기 통신부에서 수신한 상기 이벤트에 대한 정보에 기초하여 상기 이벤트에 의해 발생 가능한 차량 주행환경의 변화를 운전자에게 알려주는 제어부;를 포함한다.

Description

차량, 서버 및 이를 포함하는 차량 모니터링 시스템 {VEHICLE, SERVER AND VEHICLE MONITORING SYSTEM COMPRISING THE SAME}
차량과 차량의 주행을 모니터링하는 서버 및 이를 포함하는 차량 모니터링 시스템에 관한 것이다.
차량의 보급대수가 증가하고 차량이 생활의 필수 요소가 됨에 따라 차량 사고도 늘어나고 있다. 차량 사고에 따른 인명손실을 방지하기 위해 운송 장치로서의 기능에 치중하여 발달되어온 자동차 기술은 운전자의 안전을 확보하기 위한 방향으로도 점점 발달하고 있다.
최근에는 스마트폰 등을 포함하는 휴대용 멀티미디어 장치를 중심으로 비약적으로 발달해온 정보 통신 기술을 차량의 안전한 운행과 운전자의 보호를 위해 자동차 기술에 접목시키려는 시도가 지속적으로 행해지고 있다.
본 발명의 일 측면은, 차량의 주행 중에 발생하는 이벤트를 분석하여 차량의 사고를 예방하는 차량, 서버 및 이를 포함하는 차량 모니터링 시스템을 제공한다.
일 실시예에 따른 차량은 차량 주변의 영상을 획득하는 영상 획득부; 차량의 주행정보를 획득하는 주행정보 획득부; 상기 영상 획득부 및 주행정보 획득부에서 획득한 정보를 서버로 전송하고 상기 서버로부터 전송되는 차량 주행과 관련된 이벤트에 대한 정보를 수신하는 통신부; 및 상기 통신부에서 수신한 상기 이벤트에 대한 정보에 기초하여 상기 이벤트에 의해 발생 가능한 차량 주행환경의 변화를 운전자에게 알려주는 제어부;를 포함한다.
또한, 상기 영상 획득부는 상기 차량의 전방, 후방 및 좌우측방 중 적어도 한 방향의 영상을 획득할 수 있도록 마련된 카메라를 포함할 수 있다.
또한, 상기 주행정보 획득부는 상기 차량의 속도, 가속도, 조향각, 위치 및 상기 차량과 주변 차량과의 거리 중 적어도 하나를 포함할 수 있다.
또한, 상기 주행정보 획득부는 상기 차량의 속도를 감지하는 속도 센서, 상기 차량의 가속도를 감지하는 가속도 센서, 상기 차량의 조향각을 감지하는 조향각 센서, 상기 차량 주변의 물체를 감지하는 초음파 센서 또는 레이더 센서, 상기 차량의 위치를 검출하는 GPS장치 중 적어도 하나를 포함할 수 있다.
또한, 상기 영상 획득부에서 획득한 영상으로부터 상기 차량 주변의 물체에 대한 정보를 획득하는 영상처리부;를 더 포함할 수 있다.
또한, 상기 영상처리부는 상기 영상 획득부에서 획득한 영상으로부터 차량 주변의 물체를 검출하고, 상기 검출된 물체의 위치 또는 속도를 산출하여 상기 차량 주변 물체에 대한 정보를 획득할 수 있다.
또한, 상기 통신부는 상기 영상 획득부에서 획득한 영상과 상기 영상처리부에서 상기 영상으로부터 획득한 정보를 상기 서버로 전송할 수 있다.
또한, 상기 통신부는 3g, 4g 및 5g통신 방식을 이용하여 상기 서버와 정보를 주고 받도록 마련될 수 있다.
또한, 상기 제어부는 상기 이벤트에 의해 발생할 수 있는 차량사고의 위험을 시각, 청각 또는 촉각적으로 운전자에게 알릴 수 있도록 상기 차량의 오디오 시스템, 네비게이션, 계기판, 스티어링 휠, 안전벨트 및 좌석 중 적어도 하나를 제어할 수 있다.
또한, 상기 제어부는, 상기 이벤트에 대한 정보에 포함된 차량사고의 발생 예상 시점까지 남은 시간이 제1기준시간 이상이면, 운전자가 차량사고를 회피할 수 있도록 상기 차량의 오디오 시스템, 네비게이션 또는 계기판을 제어하여 음성 또는 영상을 통해 상기 차량사고의 위험성을 알릴 수 있다.
또한, 상기 제어부는, 상기 차량사고의 발생 예상 시점까지 남은 시간이 상기 제1기준시간보다 작은 제2기준시간 이하이면, 상기 차량의 오디오 시스템, 네비게이션, 계기판, 스티어링 휠, 안전벨트 또는 좌석을 제어하여 경고음, 경고이미지 또는 진동을 통해 상기 차량사고의 위험성을 알릴 수 있다.
또한, 상기 제어부는, 상기 차량사고의 발생 예상 시점까지 남은 시간이 상기 제2기준시간보다 작은 제3기준시간 이하이면, 상기 차량이 사고를 회피할 수 있도록 상기 차량의 스티어링 휠 또는 브레이크를 제어할 수 있다.
일 실시예에 따른 서버는 차량 운행과 관련된 이벤트에 대한 데이터를 저장하는 메모리; 차량들로부터 전송된 정보를 수신하고 차량 운행과 관련된 이벤트에 대한 정보를 대상 차량으로 전송하는 통신부; 및 상기 차량들로부터 전송된 정보에 기초하여 상기 대상 차량에 미리 정해진 시간 이내에 도달하는 차량들을 결정하고, 상기 결정된 차량들로부터 전송된 정보를 상기 메모리에 저장된 데이터와 비교하여 상기 차량 운행과 관련된 이벤트에 대한 정보를 생성하는 프로세서;를 포함한다.
또한, 상기 메모리는 차량사고를 발생시킨 이벤트와 관련된 데이터 또는 차량사고를 발생시킬 가능성이 미리 정해진 기준 이상이었던 이벤트와 관련된 데이터를 저장할 수 있다.
또한, 상기 프로세서는 상기 결정된 차량으로부터 전송된 정보를 상기 메모리에 저장된 데이터와 비교하여 상기 대상 차량에 차량사고와 관련된 이벤트가 발생했는지 여부를 결정하고, 상기 이벤트에 의해 차량 사고가 발생할 가능성을 산출할 수 있다.
또한, 상기 프로세서는 상기 이벤트에 의해 차량사고가 발생할 가능성이 미리 정해진 기준 이상이면, 상기 차량사고 발생예상시점을 산출하고, 상기 통신부는 상기 프로세서에서 산출한 차량사고 발생예상시점을 포함하는 이벤트에 대한 정보를 상기 대상 차량에 전송할 수 있다.
또한, 상기 프로세서는 상기 차량으로부터 전송된 정보와, 날씨 및 실시간 교통상황에 대한 정보를 이용하여 상기 차량 운행과 관련된 이벤트에 대한 정보를 생성할 수 있다.
또한, 상기 통신부는 3g, 4g 및 5g통신 방식을 이용하여 상기 차량과 정보를 주고 받도록 마련될 수 있다.
일 실시예에 따른 차량 모니터링 시스템은 차량 운행과 관련된 정보를 서버로 전송하는 대상 차량; 및 상기 대상 차량을 포함하는 차량들로부터 전송된 정보를 수신하고, 상기 수신된 정보에 기초하여 대상 차량에 미리 정해진 시간 이내에 도달하는 차량들을 결정하고, 상기 결정된 차량들로부터 전송된 정보를 미리 저장된 차량 운행과 관련된 이벤트에 대한 데이터와 비교하여 상기 차량 운행과 관련된 이벤트에 대한 정보를 생성하고, 생성된 정보를 상기 대상 차량으로 전송하는 서버;를 포함하고, 상기 대상 차량은 상기 서버로부터 전송된 상기 이벤트에 대한 정보를 수신하고, 상기 수신된 이벤트에 대한 정보에 기초하여 상기 이벤트에 의해 발생 가능한 차량 주행환경의 변화를 운전자에게 알려준다.
본 발명의 일 측면에 따른 차량, 서버 및 이를 포함하는 차량 모니터링 시스템에 의하면, 끼어들기와 같은 차량의 주행 중 발생하는 이벤트에 의한 사고의 발생 가능성을 운전자가 인식하여 차량 사고를 방지할 수 있다.
도 1은 일 실시예에 따른 차량의 외관도이다.
도 2는 일 실시예에 따른 차량의 내부의 구성을 나타낸 도면이다.
도 3은 개시된 실시예에 따른 차량 모니터링 시스템의 차량의 구성을 나타낸 블록도이다.
도 4는 일 실시예에 따른 5G 통신방식에 따른 기지국의 대규모 안테나 시스템을 도시한 도면이다.
도 5a 내지 도 5c는 일 실시예에 따른 5G 통신방식에 따른 네트워크 망을 도시한 도면이다.
도 6은 개시된 실시예에 따른 서버의 구성을 나타낸 블록도이다.
도 7 내지 도 9는 개시된 실시예에 따른 차량에서 차량 사고의 위험을 운전자에게 알리는 방법을 개념적으로 나타낸 도면이다.
도 10은 개시된 실시예에 따른 차량의 이벤트를 모니터링하는 방법을 나타낸 순서도이다.
이하 첨부된 도면을 참조하여 본 발명의 일 측면에 따른 차량용 입력장치 및 이를 포함하는 차량에 관한 실시예를 상세하게 설명하도록 한다.
도 1은 본 발명의 일 실시예에 따른 차량의 외관도이고, 도 2는 본 발명의 일 실시예에 따른 차량 내부의 구성을 나타낸 도면이다.
도 1을 참조하면, 본 발명의 일 실시예에 따른 차량(100)은 차량(100)의 외관을 형성하는 본체(1), 차량(100)을 이동시키는 차륜(51, 52), 차륜(51, 52)을 회전시키는 구동 장치(80), 차량(100) 내부를 외부로부터 차폐시키는 도어(71), 차량(100) 내부의 운전자에게 차량(100) 전방의 시야를 제공하는 전면 유리(30), 운전자에게 차량(100) 후방의 시야를 제공하는 사이드 미러(81, 82)를 포함한다.
차륜(51, 52)은 차량(100)의 전방에 마련되는 전륜(51), 차량(100)의 후방에 마련되는 후륜(52)을 포함한다.
구동 장치(80)는 본체(1)가 전방 또는 후방으로 이동하도록 전륜(51) 또는 후륜(52)에 회전력을 제공한다. 이와 같은 구동 장치(60)는 화석 연료를 연소시켜 회전력을 생성하는 엔진(engine) 또는 축전기(미도시)로부터 전원을 공급받아 회전력을 생성하는 모터(motor)를 포함할 수 있다.
도어(71)는 본체(1)의 좌측 및 우측에 회동 가능하게 마련되어 개방 시에 운전자가 차량(100)의 내부에 탑승할 수 있도록 하며, 폐쇄 시에 차량(100)의 내부를 외부로부터 차폐시킨다.
윈드쉴드 글래스(windshield glass)라고 불리는 전면 유리(30)는 본체(100)의 전방 상측에 마련된다. 차량(100) 내부의 운전자는 전면 유리(30)를 통해 차량(100)의 전방을 볼 수 있다. 또한, 사이드 미러(81, 82)는 본체(1)의 좌측에 마련되는 좌측 사이드 미러(81) 및 우측에 마련되는 우측 사이드 미러(82)를 포함한다. 차량(100) 내부의 운전자는 사이드 미러(81, 82)를 통해 차량(100)의 측면 및 후방의 상황을 눈으로 확인할 수 있다.
이외에도 차량(100)은 차량(100) 주변의 장애물 등을 감지하여 차량(100) 주변의 상황을 운전자가 인식할 수 있도록 도움을 주는 다양한 센서를 포함할 수 있다. 또한, 차량(100)은 차량의 속도 등과 같은 차량의 주행정보를 감지할 수 있는 다양한 센서를 포함할 수 있다. 차량(100)의 주행정보나 차량(100) 주변의 상황을 감지할 수 있는 다양한 센서들에 대해서는 후술하도록 한다.
도 2에 도시된 바를 참조하면 차량(100)은 기어박스(120), 센터페시아(130), 스티어링 휠(140) 및 계기판(150) 등이 마련된 대시보드(dashboard)를 포함할 수 있다.
기어박스(120)에는 차량 변속을 위한 기어 레버(121)가 설치될 수 있다. 또한, 도면에 도시된 것처럼, 기어박스에는 사용자가 내비게이션 장치(10)나 오디오 장치(133) 등을 포함하는 멀티미디어 장치의 기능이나 차량(100)의 주요 기능의 수행을 제어할 수 있도록 마련된 다이얼 조작부(111)와 다양한 버튼들을 포함하는 입력장치(110)가 설치될 수 있다.
센터페시아(130)에는 공조 장치(132), 오디오 장치(133) 및 내비게이션 장치(10) 등이 설치될 수 있다.
공조 장치는 차량(100) 내부의 온도, 습도, 공기의 청정도, 공기의 흐름을 조절하여 차량(100)의 내부를 쾌적하게 유지한다. 공조 장치는 센터페시아(130)에 설치되고 공기를 토출하는 적어도 하나의 토출구를 포함할 수 있다. 센터페시아(130)에는 공조 장치 등을 제어하기 위한 버튼이나 다이얼 등이 설치될 수 있다. 운전자 등의 사용자는 센터페시아(130)에 배치된 버튼이나 다이얼을 이용하여 차량(100)의 공조 장치를 제어할 수 있다. 물론 기어박스(120)에 설치된 입력장치(110)의 버튼들이나 다이얼 조작부(111)를 통해 공조장치를 제어할 수도 있다.
실시예에 따라서 센터페시아(130)에는 내비게이션 장치(10)가 설치될 수 있다. 내비게이션 장치(10)는 차량(100)의 센터페시아(130) 내부에 매립되어 형성될 수 있다. 일 실시예에 의하면 센터페시아(130)에는 내비게이션 장치(10)를 제어하기 위한 입력부가 설치될 수도 있다. 실시예에 따라서 내비게이션 장치(10)의 입력부는 센터페시아(130)가 아닌 다른 위치에 설치될 수도 있다. 예를 들어 내비게이션 장치(10)의 입력부는 내비게이션 장치(10)의 디스플레이부(300) 주변에 형성될 수도 있다. 또한 다른 예로 내비게이션 장치(10)의 입력부는 기어 박스(120) 등에 설치될 수도 있다.
스티어링 휠(140)은 차량(100)의 주행 방향을 조절하기 위한 장치로, 운전자에 의해 파지되는 림(141) 및 차량(100)의 조향 장치와 연결되고 림(141)과 조향을 위한 회전축의 허브를 연결하는 스포크(142)를 포함할 수 있다. 실시예에 따라서 스포크(142)에는 차량(100) 내의 각종 장치, 일례로 오디오 장치 등을 제어하기 위한 조작 장치(142a, 142b)가 마련될 수 있다. 스티어링 휠은 운전자가 안전한 주행을 할 수 있도록 운전자의 주의를 환기시키는 기능을 수행할 수도 있다. 예를 들면, 스티어링 휠은 운전자의 졸음운전 시, 진동하여 촉각적으로 운전자에게 졸음운전에 대해 경고할 수도 있고, 주행환경의 변화에 따른 사고위험 발생 시 마찬가지로 진동을 통해 위험에 대해 경고할 수도 있다.
또한 대시보드에는 차량(100)의 주행 속도, 엔진 회전수 또는 연료 잔량 등을 표시할 수 있는 각종 계기판(150)이 설치될 수 있다. 계기판(150)은 차량 상태, 차량 주행과 관련된 정보, 멀티미디어 장치의 조작과 관련된 정보 등을 표시하는 계기판 디스플레이부(151)를 포함할 수 있다.
운전자는 대시보드에 마련된 전술한 다양한 장치들을 조작하여 차량(100)을 운행할 수 있다. 차량(100)에는 도 2에 도시된 것과 같이 차량(100)의 운행을 위해 운전자가 조작할 수 있는 장치들 외에도 차량(100)의 주행을 위해 필요한 차량(100) 외부의 정보나 차량(100) 자체의 주행정보들을 감지할 수 있는 다양한 센서들이 마련될 수 있다. 개시된 실시예는 차량(100)에 마련된 다양한 센서들에서 획득한 정보들을 수신하여 차량(100) 주변에 발생한 이벤트가 차량사고를 유발할 수 있는지를 실시간으로 파악하고, 차량(100)에 사고 위험을 알려주는 서버(800)를 제공한다. 또한, 개시된 실시예는 서버(800)로 차량(100)의 주행관련 정보를 전송하고 서버(800)로부터 수신한 정보에 따라 운전자에게 차량(100)의 사고 위험을 알려주는 차량(100)을 제공하고, 이러한 차량(100)과 서버(800)를 포함하는 차량 모니터링 시스템(1000)을 제공한다. 이하 모니터링의 대상이 되는 차량을 대상 차량이라고 하고 대상 차량 이외의 차량을 타 차량이라고 한다. 이하 도 3 내지 도 7을 참조하여 개시된 실시예에 따른 차량 모니터링 시스템(1000)에 대해 구체적으로 설명한다.
도 3은 개시된 실시예에 따른 차량 모니터링 시스템의 차량의 구성을 나타낸 블록도이고, 도 4는 개시된 실시예에 따른 차량 모니터링 시스템의 서버의 구성을 나타낸 블록도이다.
도 3을 참조하면, 개시된 실시예에 따른 대상 차량은 대상 차량(100) 외부의 영상을 획득하는 영상 획득부(200)와, 대상 차량(100)의 주행정보를 획득하는 주행정보 획득부(400)와, 영상 획득부(200)와 주행정보 획득부(400)에서 획득한 정보를 서버(800)로 전송하는 통신부(600)와, 영상 획득부(200)에서 획득한 영상에 대해 영상처리를 수행하는 영상처리부와, 서버(800)에서 전송된 정보에 기초하여 대상 차량(100) 주행 중에 발생한 이벤트에 따른 차량 사고의 가능성을 알리기 위해 오디오 시스템(133)과 네비게이션(10) 등을 제어하는 제어부(700)를 포함한다.
영상 획득부(200)는 대상 차량(100) 전방의 영상을 획득하는 전방 카메라(210), 대상 차량(100) 좌우 측방의 영상을 획득하는 좌측 카메라(220)와 우측 카메라(230), 대상 차량(100) 후방의 영상을 획득하는 후방 카메라(240)를 포함할 수 있다. 대상 차량(100)의 전방, 후방, 좌우측방의 영상을 획득할 수 있다면, 카메라의 설치위치나 개수의 제한은 없다. 카메라는 CCD 또는 CMOS 이미지 센서를 포함할 수 있다.
영상 획득부(200)가 대상 차량(100) 외부의 정보의 획득을 위한 것이라면, 주행정보 획득부(400)는 대상 차량(100)의 주행과 관련된 정보를 획득하기 위한 구성이다.
주행정보 획득부(400)는 대상 차량(100)의 속도를 감지할 수 있는 속도 센서(410), 대상 차량(100)의 가속도를 감지할 수 있는 가속도 센서(420), 대상 차량(100)의 각속도를 감지할 수 있는 자이로 센서(430), 스티어링 휠의 조향각을 검출할 수 있는 조향각 센서(440), 타 차량이나 사람과 같이 대상 차량(100) 외부의 객체를 감지할 수 있는 초음파 센서(450) 및 레이더 센서(460), 대상 차량(100)의 위치를 검출할 수 있는 GPS장치(470)를 포함할 수 있다.
속도 센서(410)는 차륜의 속도를 감지하는 휠 속도 센서(410)를 포함할 수 있다. 또한, GPS장치(470)에서 산출한 대상 차량(100)의 위치정보에 기초하여 대상 차량(100)의 속도를 산출하여 사용자에게 알려주는 네비게이션(10)도 속도 센서(410)의 일 예에 포함될 수 있다.
가속도 센서(420)는 대상 차량(100)의 선형 이동 정보를 검출한다. 구체적으로, 가속도 센서(420)는 뉴턴의 제2 운동 법칙(가속도의 법칙)을 이용하여 대상 차량(100)의 선형 가속도 및 선형 변위 등을 검출할 수 있다. 가속도 센서(420)는 압전형 가속도 센서, 정전 용량형 가속도 센서, 스트레인 게이지형 가속도 센서 등을 채용할 수 있다. 압전형 가속도 센서는 기계적 변형에 의하여 전기적 신호를 출력하는 압전 소자를 포함하며, 압전 소자가 출력하는 전기적 신호를 이용하여 가속도를 검출한다. 구체적으로, 압전형 가속도 센서는 가속도에 의한 압전 소자의 변형에 따라 압전 소자가 출력하는 전기적 신호로 검출하고, 검출된 전기적 신호로부터 가속도를 산출한다. 정전 용량형 가속도 센서는 관성력에 의하여 구조물 사이의 거리가 변화하고, 이와 같은 거리의 변화로 인하여 정전 용량이 변화하는 것을 이용하여 가속도를 검출한다. 구체적으로, 정전 용량형 가속도 센서는 유동 가능한 구조물과 고정된 구조물을 포함하며, 관성력에 의한 구조물 사이의 거리 변화를 정전 용량의 변화로 검출하고, 검출된 전전 용량의 변화로부터 가속도를 산출한다. 스트레인 게이지형 가속도 센서는 기계적 변형에 의하여 전기적 저항이 변환하는 스트레인 게이지를 이용하여 가속도를 검출한다. 구체적으로, 스트레인 게이지형 가속도 센서는 가속도에 의한 구조물의 변형을 전기적 저항의 변화로 검출하고, 검출된 전기적 저항의 변화로부터 가속도를 산출한다. 또한, 가속도 센서는 마이크로 기계, 마이크로 전자 및 반도체 공정 기술을 융합하여 소형화된 MEMS(Micro Electro Mechanical System)형 센서를 채용할 수 있다.
자이로 센서(430)는 자이로 스코프 또는 각속도 센서라 불리며, 대상 차량(100)의 회전 이동 정보를 검출한다. 구체적으로, 자이로 센서(430)는 각운동량 보존 법칙, 사냑 효과, 코리올리 힘 등을 이용하여 검출 대상의 회전 각속도 및 회전 변위 등을 검출할 수 있다. 이와 같은 자이로 센서(430)는 짐벌식(Gimbal) 자이로 센서, 광학식 자이로 센서, 진동식 자이로 센서 등을 채용할 수 있다. 짐벌식 자이로 센서는 회전하는 물체가 회전의 중심이 되는 회전축을 일정하게 유지하고자 각운동량 보존과 회전하는 물체에 외력이 작용하는 경우 회전 반발력에 의하여 회전하는 물체의 회전축이 일정한 궤도를 따라 회전하는 세차 운동을 이용하여 대상의 회전 운동을 검출한다. 광학식 자이로 센서는 원형의 광로를 따라 시계 방향과 반시계 방향으로 발신된 광이 대상의 회전에 의하여 발신점에 도달하는 시간이 상이해지는 사냑 효과(Sagnac Effect)를 이용하여 대상의 회전 운동을 검출한다. 진동식 자이로 센서는 대상의 회전에 의하여 발생하는 코리올리 힘을 이용하여 대상의 회전 운동을 감지한다. 구체적으로, 일정한 방향으로 진동하는 물체가 회전하면 코리올리 힘에 의하여 새로운 방향으로 진동하는 현상을 이용하여 대상의 회전 운동을 검출한다. 자이로 센서(430) 역시 MEMS(Micro Electro Mechanical System)형 센서를 채용할 수 있다. 예를 들어, MEMS형 자이로 센서 가운데 정전 용량 자이로 센서는 회전 속도에 비례히는 코리올리 힘에 의한 미세 기계 구조물의 변형을 정전용량 변화로 검출하고, 정전 용량의 변화로부터 회전 속도를 산출한다.
전술한 가속도 센서(420)와 자이로 센서(430)는 별개로 마련될 수 있으나 일체형으로 마련될 수도 있다.
주행정보 획득부(400)에서 획득한 대상 차량(100)의 주행과 관련된 데이터와 영상 획득부(200)에서 획득한 영상은 통신부(600)로 전달될 수 있다. 또한 영상 획득부(200)에서 획득한 영상은 통신부(600)뿐만 아니라 영상 처리부로도 전달될 수 있다.
영상 처리부는 영상 획득부(200)로부터 전달받은 대상 차량(100) 외부의 영상으로부터 영상 내에 포함된 타 차량이나 사람 등의 대상체를 검출하고, 검출된 대상체의 위치나 속도 등의 정보를 획득할 수 있다. 또한 영상 처리부는 영상 획득부(200)에서 획득한 영상을 서버(800)의 프로세서(820)가 처리할 수 있는 해상도의 영상으로 변환하거나 서버(800)의 프로세서(820)가 처리할 수 있는 포맷으로 변환할 수 있다.
영상 획득부(200)에서 획득한 영상이 통신부(600)를 통해 바로 서버(800)로 전송될 수도 있으나, 영상 처리부에서 소정의 이미지 프로세싱을 통해 영상에 포함된 대상체의 정보를 추출하여 영상 획득부(200)에서 획득한 영상과 함께 서버(800)로 전송함으로써, 서버(800)의 연산부담을 경감시킬 수 있다. 이를 통해 서버(800)는 보다 빠르게 대상 차량(100) 주변에 발생한 이벤트를 확인할 수 있고 이 이벤트에 의해 차량 사고가 발생할 가능성 또한 보다 빠르게 산출할 수 있다.
영상 처리부에는 영상으로부터 추출하고자 하는 정보가 미리 결정되어 저장될 수 있고, 영상으로부터 정보를 추출하기 위한 이미지 프로세싱의 종류 또한 상기 추출하고자 하는 정보의 종류에 대응하여 미리 결정되어 저장될 수 있다.
통신부(600)는 주행정보 획득부(400)와 영상 획득부(200)로부터 전달된 데이터를 통신 네트워크(900)를 통해 서버(800)로 전송할 수 있다. 통신부(600)는 영상 획득부(200)로부터 바로 전송된 영상을 서버(800)로 전송할 수도 있고, 영상 처리부에서 소정의 이미지 프로세싱을 거쳐 추출된 정보를 서버(800)로 전송할 수도 있다. 물론 영상 획득부(200)와 영상 처리부에서 전송된 정보를 함께 서버(800)에 전송할 수도 있다. 또한, 통신부(600)는 서버(800)로부터 전송되는 이벤트에 대한 정보를 수신하여 제어부(700)로 전달한다. 데이터의 전송을 위한 통신 네트워크(900)로는 기존의 상용화된 3g, 4g 통신방식이 사용될 수 있고, 실시간에 가까운 보다 빠른 정보의 송수신을 위해 5g 통신방식이 사용될 수도 있다. 통신부(600)는 통신 네트워크(900)가 채용하고 있는 3g, 4g 및 5g 통신 방식을 지원하는 장치로 구성될 수 있다. 개시된 실시예에 따른 통신부(600)와 서버(800)는 실시간에 가까운 데이터의 송수신을 위해 5g 통신방식을 채용한 통신 네트워크(900)를 통해 정보를 주고 받을 수 있다. 이하 도 4 및 도 5를 참조하여 5g 통신방식에 대해 보다 구체적으로 설명한다.
도 4는 일 실시예에 따른 5G 통신방식에 따른 기지국의 대규모 안테나 시스템을 도시한 도면이고, 도 5a 내지 도 5c는 일 실시예에 따른 5G 통신방식에 따른 네트워크 망을 도시한 도면이다.
통신부(600)는 전술한 것처럼 3G(3Generation), 4G(4Generation) 등과 같은 통신방식을 통해 기지국을 거쳐 서버(800) 등의 장치로 무선 신호를 송신하거나 서버(800) 등의 장치로부터 무선신호를 수신할 수 있다. 또한, 통신부(600)는 무선 랜(Wireless LAN), 와이파이(Wi-Fi), 블루투스(Bluetooth), 지그비(Zigbee), WFD(Wi-Fi Direct), UWB(Ultra wideband), 적외선 통신(IrDA; Infrared Data Association), BLE (Bluetooth Low Energy), NFC(Near Field Communication) 등과 같은 통신방식을 통해 소정 거리 이내의 단말로 데이터가 포함된 무선 신호를 송신하거나, 소정 거리 이내의 단말로부터 무선 신호를 수신할 수 있다.
또한, 통신부(600)는 전술한 것처럼, 5G(5Generation) 통신방식을 통해 무선 신호를 송수신할 수 있다. 4G 통신방식은 2GHz 이하의 주파수 대역을 사용하지만, 5G 통신방식은 약 28GHz 대의 주파수 대역을 사용하는 것이 가능하다. 다만, 5G 통신방식이 사용하는 주파수 대역이 이에 한정되는 것은 아니다.
5G 통신방식은 대규모 안테나 시스템을 채용할 수 있다. 대규모 안테나 시스템은 안테나를 수십 개 이상 사용하여 초고대역 주파수까지 커버 가능하고, 다중 접속을 통해 많은 양의 데이터를 동시에 송수신 가능한 시스템을 의미한다. 구체적으로, 대규모 안테나 시스템은 안테나 소자의 배열을 조정하여 특정 방향으로 더 멀리 전파를 송수신할 수 있게 해줌으로써, 대용량 전송을 가능하게 할 뿐만 아니라, 5G 통신 네트워크 망이 사용될 수 있는 영역을 확장시킬 수 있다.
도 4를 참조하면, 기지국(20)은 대규모 안테나 시스템을 통해 많은 디바이스들과 데이터를 동시에 송수신할 수 있다. 또한, 대규모 안테나 시스템은 전파를 전송하는 방향 외의 방향으로 유출되는 전파를 최소화하여 노이즈를 감소시킴으로써, 송신 품질 향상과 전력량의 감소를 함께 도모할 수 있다.
또한, 5G 통신방식은 직교주파수 분할(Orthogonal Frequency Division Multiplexing, OFDM) 방식을 통해 송신 신호를 변조하는 기존과 달리, 비직교 다중접속(Non-Orthogonal Multiplexing Access, NOMA) 방식을 통해 변조한 무선 신호를 전송할 수 있다. 이로 인해 더 많은 디바이스의 다중 접속이 가능하며, 대용량 송수신이 동시에 가능하다.
예를 들어, 5G 통신방식은 최고 1Gbps의 전송속도의 제공이 가능하다. 5G 통신방식은 대용량 전송을 통해 UHD(Ultra-HD), 3D, 홀로그램 등과 같이 대용량 전송이 요구되는 몰입형 통신의 지원이 가능하다. 이에 따라, 사용자는 5G 통신방식을 통해 보다 정교하고 몰입이 가능한 초 고용량 데이터를 보다 빠르게 주고 받을 수 있다.
또한, 5G 통신방식은 최대 응답 속도 1ms 이하의 실시간 처리가 가능하다. 이에 따라, 5G 통신방식에서는 사용자가 인지하기 전에 반응하는 실시간 서비스의 지원이 가능하다. 예를 들어, 차량(100)은 주행 중에도 각종 디바이스로부터 센서정보를 전달 받아, 실시간 처리를 통해 자율주행 시스템을 제공할 수 있을 뿐만 아니라, 각종 원격제어를 제공할 수 있다. 또한, 차량(100)은 5G 통신방식을 통해 차량(100) 주변에 존재하는 다른 차량들과의 센서정보를 실시간으로 처리하여 충돌발생 가능성을 실시간으로 사용자에게 제공할 수 있을 뿐만 아니라, 주행경로 상에 발생될 교통상황 정보들을 실시간으로 제공할 수 있다.
또한, 5G 통신이 제공하는 초 실시간 처리 및 대용량 전송을 통해, 차량(100)은 차량(100) 내 탑승객들에게 빅데이터 서비스를 제공할 수 있다. 예를 들어, 차량(100)은 각종 웹 정보, SNS 정보 등을 분석하여, 차량(100) 내 탑승객들의 상황에 적합한 맞춤형 정보를 제공할 수 있다. 일 실시예로, 차량(100)은 빅데이터 마이닝을 통해 주행 경로 주변에 존재하는 각종 맛집, 볼거리 정보들을 수집하여 실시간으로 이를 제공함으로써, 탑승객들이 주행 중인 지역 주변에 존재하는 각종 정보들을 바로 확인할 수 있게 한다.
한편, 5G 통신의 네트워크 망은 셀을 보다 세분화하여, 네트워크의 고밀도화 및 대용량 전송을 지원할 수 있다. 여기서, 셀은 이동 통신에서 주파수를 효율적으로 이용하기 위하여 넓은 지역을 작은 구역으로 세분화한 구역을 의미한다. 이때. 각 셀 내에 소출력 기지국을 설치하여 단말 간의 통신을 지원한다. 예를 들어, 5G 통신의 네트워크 망은 셀의 크기를 줄여 더욱 세분화함으로써, 매크로셀 기지국-분산 소형 기지국-통신 단말의 2단계 구조로 형성될 수 있다.
또한, 5G 통신의 네트워크 망에서는 멀티홉(multihop) 방식을 통한 무선 신호의 릴레이 전송이 수행될 수 있다. 예를 들어, 도 5a에 도시된 바와 같이, 제1 단말(401)은 기지국(400)의 네트워크 망 외부에 위치한 제3 단말(403)이 전송하고자 하는 무선 신호를 기지국(400)으로 릴레이 전송할 수 있다. 또한, 제1 단말(401)은 기지국(400)의 네트워크 망 내부에 위치한 제2 단말(402)이 전송하고자 하는 무선 신호를 기지국(400)으로 릴레이 전송할 수 있다. 전술한 바와 같이, 5G 통신의 네트워크 망을 사용 가능한 디바이스들 중 적어도 하나의 디바이스가 멀티홉 방식을 통한 릴레이 전송을 수행할 수도 있으나, 이에 한정되는 것은 아니다. 이에 따라, 5G 통신 네트워크 망이 지원되는 영역을 확대함과 동시에, 셀 내의 사용자가 많을 경우 생기는 버퍼링 문제를 해결할 수 있다.
한편, 5G 통신방식은 차량(100), 웨어러블 디바이스 등에 적용되는 디바이스간(Device-to-Device, D2D) 통신을 지원할 수 있다. 디바이스간 통신은 디바이스 간에 이루어지는 통신으로써, 디바이스가 센서를 통해 감지한 데이터뿐만 아니라, 디바이스 내에 저장되어 있는 각종 데이터가 포함된 무선 신호를 송수신하는 통신을 의미한다. 디바이스간 통신방식에 의할 경우, 기지국을 거쳐 무선 신호를 주고 받을 필요가 없고, 디바이스 간에 무선 신호 전송이 이루어지므로, 불필요한 에너지를 절감할 수 있다. 이때, 차량(100), 웨어러블 디바이스 등이 5G 통신방식을 이용하기 위해서는 해당 디바이스 내에 안테나가 내장되어야 한다. 차량(100)은 디바이스간 통신을 통해 차량(100) 주변에 존재하는 다른 차량들과 무선 신호를 송수신할 수 있다. 예를 들어, 차량(100)은 도 5b에 도시된 바와 같이, 차량 주변에 존재하는 다른 차량들(101, 102, 103) 등과 디바이스간 통신이 가능하다. 이외에도, 차량(100)뿐만 아니라, 교차로 등에 설치되어 있는 교통정보 장치(미도시)와 디바이스간 통신이 가능하다.
또 다른 예로, 차량(100)은 도 5c에 도시된 바와 같이 디바이스간 통신을 통해 제1 차량(101), 및 제3 차량(103)과 무선 신호를 송수신할 수 있으며, 제3 차량(103)은 디바이스간 통신을 통해 차량(100) 및 제2 차량(102)과 데이터를 송수신할 수 있다. 즉, 디바이스간 통신이 가능한 거리 내에 위치한 복수의 차량(100, 101, 102, 103) 간에는 가상 네트워크 망이 형성되어, 무선 신호를 송수신할 수 있다.
한편, 5G 통신망은 디바이스간 통신이 지원되는 영역을 확대함으로써, 보다 먼 곳에 위치한 디바이스와 디바이스간 통신이 가능하다. 또한, 응답 속도 1ms 이하의 실시간 처리와 1Gbps 이상의 고용량 통신을 지원하므로, 주행 중인 차량 간에도 원하는 데이터가 포함된 신호를 주고 받을 수 있다.
예를 들어, 차량(100)은 5G 통신방식을 통해 주행 중에도 차량(100) 주변에 존재하는 다른 차량, 각종 서버(800), 시스템 등과 실시간으로 접속하여, 데이터를 주고 받을 수 있고, 이를 처리하여 증강 현실을 통해 경로안내 제공서비스 등과 같은 각종 서비스를 제공할 수 있다.
이외에도, 차량(100)은 전술한 주파수 대역 외의 대역을 이용하여, 기지국을 거쳐 또는 디바이스간 통신을 통해 데이터가 포함된 무선 신호를 송수신할 수 있으며, 전술한 주파수 대역을 이용한 통신방식에만 한정되는 것은 아니다.
한편, 제어부(700)는 통신부(600)에서 수신한 이벤트에 대한 정보에 기초하여 이벤트에 의한 차량 사고의 발생 가능성이나 위험성을 오디오 시스템(133) 등의 장치를 제어하여 운전자에게 알려준다. 이벤트는 타 차량의 끼어들기나 대상 차량(100)의 급정거 등과 같이 차량 사고로 연결될 수 있는 주행 중 일어나는 특정 상황을 의미한다. 우선 도 6 내지 도 9를 참조하여, 서버(800)에서 이벤트에 대한 정보를 산출하는 방법에 대해 설명한 후, 제어부(700)에서 이벤트에 대한 정보에 기초하여 오디오 시스템(133) 등을 제어하는 방법에 대해서 설명한다.
도 6은 개시된 실시예에 따른 서버(800)의 구성을 나타낸 블록도이고, 도 7 내지 도 9는 개시된 실시예에 따른 차량에서 차량 사고의 위험을 운전자에게 알리는 방법을 개념적으로 나타낸 도면이다.
도 6을 참조하면, 서버(800)는 차량 사고와 관련된 이벤트에 대한 데이터가 저장된 메모리(830)와, 대상 차량 및 타 차량들과의 통신을 수행하는 통신부(810)와, 통신부(810)에서 수신한 정보를 이용하여 대상 대상 차량의 이벤트에 대한 정보를 산출하는 프로세서(820)를 포함한다.
메모리(830)는 차량 사고를 발생시킨 이벤트와 관련된 데이터를 저장할 수 있고, 차량 사고를 발생시키지는 않았으나 차량 사고로 이어질 수 있는 가능성이 높았던 이벤트와 관련된 데이터를 저장할 수 있다.
즉, 서버(800)는 기존의 수 많은 차량 사고 사례나 차량 사고로 이어질 가능성이 높았던 사례들을 분석하여 차량 사고와 관련이 깊었던 이벤트들을 결정하고, 결정된 이벤트들과 관련된 데이터들을 추출하여 메모리(830)에 저장할 수 있다. 상기 결정된 이벤트들과 관련된 데이터는 해당 이벤트들이 발생했던 상황과 관련된 차량들의 이미지 데이터, 속도 등의 주행 관련 데이터, 교통상황이나 날씨 등과 관련된 환경 데이터 등을 포함할 수 있다. 그러나 메모리(830)에 저장되는 이벤트와 관련된 데이터는 이에 한정되지 않고, 차량 사고 발생 가능성을 보다 정확하게 예측하는데 필요한 데이터라면 모두 개시된 실시예에 따른 메모리(830)에 저장된 데이터에 포함될 수 있다.
메모리(830)에 저장된 데이터는 프로세서(820)가 서버(800)에서 실시간으로 수집되는 정보들을 이용하여 획득하는 이벤트와 관련된 데이터에 의해 실시간으로 또는 특정 주기마다 자동적으로 업데이트될 수 있다.
메모리(830)(115)는 S램(S-RAM), D랩(D-RAM) 등의 휘발성 메모리뿐만 아니라 플래시 메모리, 롬(Read Only Memory), 이피롬(Erasable Programmable Read Only Memory: EPROM), 이이피롬(Electrically Erasable Programmable Read Only Memory: EEPROM) 등의 비휘발성 메모리를 포함할 수 있다.
통신부(810)는 전술한 3g, 4g 및 5g 등의 통신방식을 이용하는 통신 네트워크(900)를 통해 차량들로부터 전달된 데이터를 수신할 수 있다. 서버의 통신부는 모니터링의 대상이 되는 대상 차량(100)뿐만 아니라 대상 차량(100)을 포함하는 특정 범위에 속하는 다수의 타 차량들로부터 전송되는 데이터를 수신할 수 있다. 통신부(810)는 통신 네트워크(900)가 채용하고 있는 3g, 4g 및 5g 통신 방식을 지원하는 장치로 구성될 수 있다. 서버(800)의 통신부(810)는 대상 차량(100) 및 타 차량들로부터 전달되는 데이터뿐만 아니라, cctv 등을 포함하는 교통 인프라로부터 전달되는 데이터나 기상청에서 제공하는 날씨와 관련된 데이터 등을 수신할 수도 있다. 이렇게 수신된 다양한 데이터를 이용하여 프로세서(820)는 대상 차량(100)의 사고발생 가능성을 보다 정확하게 예측할 수 있다.
서버(800)의 프로세서(820)는 대상 차량(100) 및 다수의 타 차량으로부터 전송되는 데이터를 이용하여 대상 차량(100)에 미리 정해진 시간 이내에 도달할 것으로 예상되는 타 차량들을 결정한다. 그리고 결정된 타 차량들로부터 전송된 정보를 메모리에 저장된 데이터와 비교하여 대상 차량(100)으로 전송할 이벤트에 대한 정보를 생성한다.
즉, 프로세서는 대상 차량(100)으로부터 미리 정해진 거리 이내에 존재하는 타 차량들이 아닌, 대상 차량(100)으로의 도달 시간이 미리 정해진 시간 이내인 타 차량들을 비교 분석 대상으로 결정한다.
대상 차량(100)과의 거리를 기준으로 프로세서의 분석 대상이 될 타 차량을 결정하게 되면, 대상 차량(100)의 주행에 영향을 미치지 않는 타 차량들의 정보가 분석 대상 정보로 선택될 수 있다. 예를 들어, 대상 차량(100)으로부터 미리 정해진 거리 이내에 있지만 그 거리를 지속적으로 유지한 채 주행 중인 타 차량은 대상 차량(100)의 주행에 영향을 미치고 있다고 보기 어렵다. 즉, 대상 차량(100)으로부터 미리 정해진 거리 이내에 있는 타 차량일지라도 주행 속도에 따라 대상 차량(100)에 접근하지 않을 수 있지만, 대상 차량(100)으로의 미리 정해진 거리 밖에 있는 타 차량일지라도 주행 속도에 따라 대상 차량(100)에 빠르게 접근할 수 있다. 따라서, 대상 차량(100)과의 거리를 기준으로 타 차량을 결정할 경우 불필요한 정보까지 분석해야 하는 경우가 발생할 수 있다.
이에, 개시된 실시예에 따른 서버는 대상 차량(100)으로의 도달 시간을 기준으로 프로세서의 비교 분석 대상이 될 타 차량을 결정하여, 거리를 기준으로 타 차량을 결정할 때보다 대상 차량(100)의 주행에 영향을 미칠 수 있는 타 차량들을 보다 효율적으로 결정할 수 있다.
서버(800)의 프로세서(820)는 전술한 것처럼, 대상 차량(100)으로의 도달 시간이 미리 정해진 시간 이내인 타 차량들을 결정하고, 대상 차량(100)과 결정된 타 차량들로부터 전송된 데이터를 메모리(830)에 저장된 이벤트와 관련된 데이터와 비교하여 대상 차량(100)에 이벤트가 발생했는지 여부를 결정하고, 이벤트가 발생한 경우 발생한 이벤트에 의해 차량사고가 발생할 가능성을 산출한다.
대상 차량(100) 및 타 차량들로부터 전송된 정보에는 전술한 것처럼, 대상 차량(100)의 속도나 가속도 조향각과 같은 대상 차량(100) 주행과 관련된 정보와 타 차량의 대상 차량(100)에 대한 근접정도나 근접속도처럼 대상 차량(100) 주변과 관련된 정보가 포함된다.
서버(800)는 전송된 대상 차량(100) 및 타 차량들의 정보로부터 대상 차량(100)의 속도나 가속도 조향각 등의 대상 차량(100) 주행과 관련된 정보를 메모리(830)에 저장된 차량 사고와 관련된 이벤트에 대한 정보 중 대응되는 차량의 주행 관련 데이터와 비교하고, 마찬가지로 주변 타 차량의 대상 차량(100)에 대한 근접정도나 근접속도 등의 정보를 메모리(830)에 저장된 차량 사고와 관련된 이벤트에 대한 정보 중 대응되는 주변 타 차량의 정보와 비교한다.
예를 들면, 프로세서(820)는 대상 차량(100)의 속도나 가속도, 주변 타 차량의 근접정도나 근접속도를 차량 사고로 이어졌거나 차량 사고로 이어질 가능성이 높았던 사례들로부터 산출된 차량의 속도나 가속도 데이터, 주변 타 차량의 근접정도나 근접속도와 관련된 데이터와 비교한다. 프로세서(820)는 비교 결과에 기초하여, 대상 차량(100)에 차량 사고로 이어질 가능성이 있는 이벤트가 발생했는지 여부를 결정할 수 있다. 대상 차량(100)에 상기 이벤트가 발생되었다고 결정되면, 프로세서(820)는 상기 이벤트에 의해 차량 사고가 발생할 가능성을 산출한다. 프로세서(820)는 산출된 차량 사고의 발생 가능성이 미리 정해진 기준 이상이면, 그 발생 가능성의 고저에 따라 대상 차량(100)에서 사고의 발생 가능성을 운전자에게 알리는 방법이 달라질 수 있도록 제어신호를 생성할 수 있다.
차량 사고의 발생 가능성은 차량 사고의 발생 예상 시점에 대응될 수 있다. 차량 사고의 발생 예상시점이 현 시점을 기준으로 2초 이내이면 현 시점을 기준으로 5초 이내인 경우보다 차량 사고가 발생할 가능성이 높다고 볼 수 있다. 마찬가지로 차량 사고의 발생 예상 시점이 10초 이내인 경우에는 5초 이내인 경우보다 차량 사고의 발생 가능성이 더 낮다고 볼 수 있을 것이다. 차량 사고의 발생 예상 시점까지 남은 시간이 많을 경우 그렇지 않은 경우보다 운전자가 차량 사고를 회피하기 위한 차량 조작에 관여할 시간이 더 많기 때문이다.
예를 들어, 도 7에 도시된 것처럼, 상기 이벤트에 의해 대상 차량(100)에 사고가 발생될 것으로 예상되는 시점이 제1기준시간(대략 10초)으로 산출되면, 운전자가 차량 사고의 회피를 위한 조작을 수행할 시간이 충분하다고 볼 수 있다. 따라서, 이 경우, 도 7에 도시된 것처럼 대상 차량(100)의 오디오 시스템(133)을 통해 음성으로 사고 발생의 위험을 안내해주거나 네비게이션(10) 화면을 통해 사고 발생의 위험을 이미지 등으로 안내해줄 수 있다.
즉, 이벤트에 의한 차량 사고의 발생 가능성이 전술한 기준 이상이긴 하나, 그 예상시점이 제1기준시간 이내이면, 프로세서(820)는 음성이나 이미지를 통해 사용자에게 충분히 사고의 발생 가능성을 알릴 수 있도록 대상 차량(100)의 오디오 시스템(133)이나 네비게이션(10)을 제어할 수 있는 신호를 생성한다. 프로세서(820)에서 생성된 신호는 통신부(810)를 통해 대상 차량(100)으로 전송될 수 있다.
대상 차량(100)의 통신부(600)에서 서버(800)의 통신부(810)로부터 전송되는 상기 신호를 수신하면, 제어부(700)는 상기 수신 신호에 기초하여 도 7에 도시된 것처럼, 오디오 시스템(133)을 제어함으로써, 사고 발생 가능성에 대한 음성안내를 실시하고, 네비게이션(10)을 제어하여 마찬가지로 사고 발생 가능성에 대한 시각적 안내를 실시한다. 오디오 시스템(133)이나 네비게이션(10)을 통한 안내와 함께, 도 3에 도시된 다른 장치들의 제어를 통해 사고 발생 가능성을 다각적으로 안내할 수도 있다. 계기판의 디스플레이(151)를 통한 시각적 안내, 스티어링 휠의 진동, 안전벨트(160)의 조임 또는 좌석(170)의 진동을 통한 촉각적 안내 또한 가능하다.
또는, 도 8에 도시된 것처럼, 상기 이벤트에 의해 대상 차량(100)에 사고가 발생될 것으로 예상되는 시점이 제1기준시간보다 짧은 제2기준시간(대략 3초)으로 산출되면, 충분하지는 않지만 운전자가 차량 사고의 회피를 위한 조작을 수행할 시간이 있다고 볼 수 있다. 따라서, 이 경우도, 도 8에 도시된 것처럼 대상 차량(100)의 오디오 시스템(133)을 통해 청각적으로 사고 발생의 위험을 안내해주거나 네비게이션(10) 화면이나 계기판의 디스플레이(151)를 통해 사고 발생의 위험을 시각적으로 안내해줄 수 있다. 그러나 도 7의 경우에 비해, 음성이나 이미지를 통한 구체적인 안내가 이루어지기에는 시간이 부족하므로, 경고음과 사고의 이미지를 단순화하여 나타낸 아이콘 등을 통해 직관적으로 사고 발생 위험을 알리는 것이 바람직하다.
즉, 이벤트에 의한 차량 사고의 발생 가능성이 전술한 기준 이상이고, 그 예상시점이 제1기준시간보다 짧은 제2기준시간 이내이면, 프로세서(820)는 경고음이나 사고 아이콘 등을 통해 사용자가 직관적으로 사고의 발생 가능성을 알 수 있도록 대상 차량(100)의 오디오 시스템(133), 네비게이션(10) 또는 계기판(150)을 제어할 수 있는 신호를 생성한다. 프로세서(820)에서 생성된 신호는 통신부(810)를 통해 대상 차량(100)으로 전송될 수 있다.
대상 차량(100)의 통신부(600)에서 서버(800)의 통신부(810)로부터 전송되는 상기 신호를 수신하면, 도 8에 도시된 것처럼 제어부(700)는 상기 수신 신호에 기초하여 오디오 시스템(133)을 제어함으로써, 경고음을 통해 청각적으로 사고 발생 가능성을 알릴 수 있다. 또한, 제어부(700)는 네비게이션(10) 또는 계기판(150)을 제어함으로써 사고 아이콘을 통해 시각적으로도 사고 발생 가능성을 알릴 수 있다. 오디오 시스템(133), 네비게이션(10) 또는 계기판(150)을 통한 안내와 함께, 도 3에 도시된 다른 장치들의 제어를 통해 사고 발생 가능성을 다각적으로 알릴 수도 있다. 예를 들면, 스티어링 휠의 진동, 안전벨트(160)의 조임 또는 좌석(170)의 진동을 통한 촉각적 알림 또한 가능하다.
또는, 도 9에 도시된 것처럼, 상기 이벤트에 의해 대상 차량(100)에 사고가 발생될 것으로 예상되는 시점이 제2기준시간보다 짧은 제3기준시간(대략 1초)으로 산출되면, 운전자가 직접 차량 사고의 회피를 위한 조작을 수행할 시간이 부족하다고 볼 수 있다. 따라서, 이 경우에는, 도 7 및 도 8의 경우와 달리, 운전자의 사고 회피를 위한 조작을 수동적으로 안내하는 것이 아니라 제어부(700)가 운전자의 의지와 상관없이 능동적으로 사고의 회피를 위해 직접 브레이크(180)의 동작이나 스티어링 휠의 조작을 제어할 수 있다.
즉, 이벤트에 의한 차량 사고의 발생 가능성이 전술한 기준 이상일 뿐만 아니라, 그 예상시점이 제2기준시간보다 짧은 제1기준시간 이내이면, 프로세서(820)는 운전자가 사고회피를 위한 조작을 수행하기 어렵다고 판단하고, 운전자의 조작 없어도 대상 차량(100)의 제어부(700)가 충돌을 회피하기 위해 직접 대상 차량을 제동하거나 대상 차량의 주행방향을 바꿀 수 있도록 대상 차량의 브레이크(180)나 스티어링 휠을 제어할 수 있는 신호를 생성한다. 프로세서(820)에서 생성된 신호는 통신부(810)를 통해 대상 차량(100)으로 전송될 수 있다.
대상 차량(100)의 통신부(600)에서 서버(800)의 통신부(810)로부터 전송되는 상기 신호를 수신하면, 도 9에 도시된 것처럼 제어부(700)는 상기 수신 신호에 기초하여 브레이크(180)를 제어함으로써, 대상 차량(100)의 속도를 줄일 수 있다. 또한, 제어부(700)는 스티어링 휠을 제어함으로써 대상 차량(100)의 진행방향을 바꿀 수 있다. 브레이크(180)와 스티어링 휠의 제어는 일 예일 뿐, 사고 회피를 위해 필요한 제어가 필요한 장치라면 제어부(700)의 제어 대상이 될 수 있다. 전술한 제어부(700)의 직접적인 제어에도 불구하고 사고가 발생할 수도 있으므로, 제어부(700)는 브레이크(180) 및 스티어링 휠의 제어와 함께, 도 3에 도시된 다른 장치들의 제어를 통해 사고 발생으로 인한 운전자의 부상을 방지할 수도 있다. 예를 들면, 안전벨트(160)를 더 조이거나 소정의 각도 이상으로 눕혀져 있는 좌석(170)을 세울 수도 있고, 열려져 있는 창문을 자동으로 닫을 수도 있다.
도 10은 개시된 실시예에 따른 차량의 이벤트를 모니터링하는 방법을 나타낸 순서도이다.
도 10에 도시된 것처럼, 차량(100)에서 서버(800)로 주행관련정보를 전송하면(910), 서버(800)는 미리 저장된 이벤트 관련 데이터와 차량(100)에서 전송된 정보를 비교 분석한다(920). 비교 분석 결과 차량 사고 발생 가능성이 미리 정해진 기준값 이상이면, 서버(800)는 차량(100)으로 이벤트 관련 정보를 전송한다(930).
대상 차량(100)의 주행정보 획득부(400)에서 획득한 대상 차량(100)의 주행과 관련된 데이터와 영상 획득부(200)에서 획득한 영상, 그리고 영상 처리부에서 소정의 이미지 프로세싱을 통해 추출된 정보는 대상 차량(100)의 통신부(600)로 전달될 수 있다. 영상 처리부는 영상 획득부(200)로부터 전달받은 대상 차량(100) 외부의 영상으로부터 영상 내에 포함된 다른 차량이나 사람 등의 대상체를 검출하고, 검출된 대상체의 위치나 속도 등의 정보를 획득할 수 있다. 또한 영상 처리부는 영상 획득부(200)에서 획득한 영상을 서버(800)의 프로세서(820)가 처리할 수 있는 해상도의 영상으로 변환하거나 서버(800)의 프로세서(820)가 처리할 수 있는 포맷으로 변환할 수 있다.
통신부(600)는 주행정보 획득부(400)와 영상 획득부(200)로부터 전달된 데이터를 통신 네트워크(900)를 통해 서버(800)로 전송할 수 있다. 통신부(600)는 영상 획득부(200)로부터 바로 전송된 영상을 서버(800)로 전송할 수도 있고, 영상 처리부에서 소정의 이미지 프로세싱을 거쳐 추출된 정보를 서버(800)로 전송할 수도 있다. 물론 영상 획득부(200)와 영상 처리부에서 전송된 정보를 함께 서버(800)에 전송할 수도 있다. 데이터의 전송을 위한 통신 네트워크(900)로는 기존의 상용화된 3g, 4g 통신방식이 사용될 수 있고, 실시간에 가까운 보다 빠른 정보의 송수신을 위해 5g 통신방식이 사용될 수도 있다. 통신부(600)는 통신 네트워크(900)가 채용하고 있는 3g, 4g 및 5g 통신 방식을 지원하는 장치로 구성될 수 있다. 개시된 실시예에 따른 통신부(600)와 서버(800)는 실시간에 가까운 데이터의 송수신을 위해 5g 통신방식을 채용한 통신 네트워크(900)를 통해 정보를 주고 받을 수 있다.
서버(800)의 프로세서(820)는 대상 차량(100) 및 다수의 타 차량으로부터 전송되는 데이터를 이용하여 대상 차량(100)에 미리 정해진 시간 이내에 도달할 것으로 예상되는 타 차량들을 결정한다. 그리고 결정된 타 차량들로부터 전송된 정보를 메모리에 저장된 데이터와 비교하여 대상 차량(100)으로 전송할 이벤트에 대한 정보를 생성한다.
서버(800)의 프로세서(820)는 전술한 것처럼, 대상 차량(100)으로의 도달 시간이 미리 정해진 시간 이내인 타 차량들을 결정하고, 대상 차량(100)과 결정된 타 차량들로부터 전송된 데이터를 메모리(830)에 저장된 이벤트와 관련된 데이터와 비교하여 대상 차량(100)에 이벤트가 발생했는지 여부를 결정하고, 이벤트가 발생한 경우 발생한 이벤트에 의해 차량사고가 발생할 가능성을 산출한다.
대상 차량(100) 및 타 차량들로부터 전송된 정보에는 전술한 것처럼, 대상 차량(100)의 속도나 가속도 조향각과 같은 대상 차량(100) 주행과 관련된 정보와 타 차량의 대상 차량(100)에 대한 근접정도나 근접속도처럼 대상 차량(100) 주변과 관련된 정보가 포함된다.
서버(800)는 전송된 대상 차량(100) 및 타 차량들의 정보로부터 대상 차량(100)의 속도나 가속도 조향각 등의 대상 차량(100) 주행과 관련된 정보를 메모리(830)에 저장된 차량 사고와 관련된 이벤트에 대한 정보 중 대응되는 차량(100)의 주행 관련 데이터와 비교하고, 마찬가지로 주변 타 차량의 대상 차량(100)에 대한 근접정도나 근접속도 등의 정보를 메모리(830)에 저장된 차량 사고와 관련된 이벤트에 대한 정보 중 대응되는 주변 차량의 정보와 비교한다.
예를 들면, 프로세서(820)는 대상 차량(100)의 속도나 가속도, 주변 타 차량의 근접정도나 근접속도를 차량 사고로 이어졌거나 차량 사고로 이어질 가능성이 높았던 사례들로부터 산출된 차량의 속도나 가속도 데이터, 주변 차량의 근접정도나 근접속도와 관련된 데이터와 비교한다. 프로세서(820)는 비교 결과에 기초하여, 대상 차량(100)에 차량 사고로 이어질 가능성이 있는 이벤트가 발생했는지 여부를 결정할 수 있다. 대상 차량(100)에 상기 이벤트가 발생되었다고 결정되면, 프로세서(820)는 상기 이벤트에 의해 차량 사고가 발생할 가능성을 산출한다. 프로세서(820)는 산출된 차량 사고의 발생 가능성이 미리 정해진 기준 이상이면, 이벤트 관련 정보를 생성하고 통신부(810)를 통해 대상 차량(100)으로 전송한다. 프로세서(820)는 산출된 차량 사고의 발생 가능성이 미리 정해진 기준 이상이면, 이벤트와 관련된 정보를 생성하여 통신부(810)를 통해 대상 차량(100)으로 전송한다. 대상 차량(100)으로 전송되는 이벤트 관련 정보는 사고 발생 가능성의 고저에 따라 대상 차량(100)에서 사고의 발생 가능성을 운전자에게 알리는 방법이 달라질 수 있도록 하는 제어신호를 포함할 수 있다.
대상 차량(100)에서 서버(800)로부터 전송되는 이벤트 관련 정보를 수신하면, 대상 차량(100)은 수신한 정보에 기초하여 운전자에게 사고 발생 가능성을 알린다(950).
차량 사고의 발생 가능성은 차량 사고의 발생 예상 시점에 대응될 수 있다. 차량 사고의 발생 예상시점이 현 시점을 기준으로 2초 이내이면 현 시점을 기준으로 5초 이내인 경우보다 차량 사고가 발생할 가능성이 높다고 볼 수 있다. 마찬가지로 차량 사고의 발생 예상 시점이 10초 이내인 경우에는 5초 이내인 경우보다 차량 사고의 발생 가능성이 더 낮다고 볼 수 있을 것이다. 차량 사고의 발생 예상 시점까지 남은 시간이 많을 경우 그렇지 않은 경우보다 운전자가 차량 사고를 회피하기 위한 차량 조작에 관여할 시간이 더 많기 때문이다.
예를 들어, 도 7에 도시된 것처럼, 상기 이벤트에 의해 대상 차량(100)에 사고가 발생될 것으로 예상되는 시점이 제1기준시간(대략 10초)으로 산출되면, 운전자가 차량 사고의 회피를 위한 조작을 수행할 시간이 충분하다고 볼 수 있다. 따라서, 이 경우, 도 7에 도시된 것처럼 대상 차량(100)의 오디오 시스템(133)을 통해 음성으로 사고 발생의 위험을 안내해주거나 네비게이션(10) 화면을 통해 사고 발생의 위험을 이미지 등으로 안내해줄 수 있다. 즉, 이벤트에 의한 차량 사고의 발생 가능성이 전술한 기준 이상이긴 하나, 그 예상시점이 제1기준시간 이내이면, 프로세서(820)는 음성이나 이미지를 통해 사용자에게 충분히 사고의 발생 가능성을 알릴 수 있도록 대상 차량(100)의 오디오 시스템(133)이나 네비게이션(10)을 제어할 수 있는 신호를 생성한다. 프로세서(820)에서 생성된 신호는 통신부(810)를 통해 대상 차량(100)으로 전송될 수 있다. 대상 차량(100)의 통신부(600)에서 서버(800)의 통신부(810)로부터 전송되는 상기 신호를 수신하면, 제어부(700)는 상기 수신 신호에 기초하여 도 7에 도시된 것처럼, 오디오 시스템(133)을 제어함으로써, 사고 발생 가능성에 대한 음성안내를 실시하고, 네비게이션(10)을 제어하여 마찬가지로 사고 발생 가능성에 대한 시각적 안내를 실시한다. 오디오 시스템(133)이나 네비게이션(10)을 통한 안내와 함께, 도 3에 도시된 다른 장치들의 제어를 통해 사고 발생 가능성을 다각적으로 안내할 수도 있다. 계기판의 디스플레이(151)를 통한 시각적 안내, 스티어링 휠의 진동, 안전벨트(160)의 조임 또는 좌석(170)의 진동을 통한 촉각적 안내 또한 가능하다.
또는, 도 8에 도시된 것처럼, 상기 이벤트에 의해 대상 차량(100)에 사고가 발생될 것으로 예상되는 시점이 제1기준시간보다 짧은 제2기준시간(대략 3초)으로 산출되면, 충분하지는 않지만 운전자가 차량 사고의 회피를 위한 조작을 수행할 시간이 있다고 볼 수 있다. 따라서, 이 경우도, 도 8에 도시된 것처럼 대상 차량(100)의 오디오 시스템(133)을 통해 청각적으로 사고 발생의 위험을 안내해주거나 네비게이션(10) 화면이나 계기판의 디스플레이(151)를 통해 사고 발생의 위험을 시각적으로 안내해줄 수 있다. 그러나 도 7의 경우에 비해, 음성이나 이미지를 통한 구체적인 안내가 이루어지기에는 시간이 부족하므로, 경고음과 사고의 이미지를 단순화하여 나타낸 아이콘 등을 통해 직관적으로 사고 발생 위험을 알리는 것이 바람직하다. 즉, 이벤트에 의한 차량 사고의 발생 가능성이 전술한 기준 이상이고, 그 예상시점이 제1기준시간보다 짧은 제2기준시간 이내이면, 프로세서(820)는 경고음이나 사고 아이콘 등을 통해 사용자가 직관적으로 사고의 발생 가능성을 알 수 있도록 대상 차량(100)의 오디오 시스템(133), 네비게이션(10) 또는 계기판(150)을 제어할 수 있는 신호를 생성한다. 프로세서(820)에서 생성된 신호는 통신부(810)를 통해 대상 차량(100)으로 전송될 수 있다. 대상 차량(100)의 통신부(600)에서 서버(800)의 통신부(810)로부터 전송되는 상기 신호를 수신하면, 도 8에 도시된 것처럼 제어부(700)는 상기 수신 신호에 기초하여 오디오 시스템(133)을 제어함으로써, 경고음을 통해 청각적으로 사고 발생 가능성을 알릴 수 있다. 또한, 제어부(700)는 네비게이션(10) 또는 계기판(150)을 제어함으로써 사고 아이콘을 통해 시각적으로도 사고 발생 가능성을 알릴 수 있다. 오디오 시스템(133), 네비게이션(10) 또는 계기판(150)을 통한 안내와 함께, 도 3에 도시된 다른 장치들의 제어를 통해 사고 발생 가능성을 다각적으로 알릴 수도 있다. 예를 들면, 스티어링 휠(140)의 진동, 안전벨트(160)의 조임 또는 좌석(170)의 진동을 통한 촉각적 알림 또한 가능하다.
또는, 도 9에 도시된 것처럼, 상기 이벤트에 의해 대상 차량(100)에 사고가 발생될 것으로 예상되는 시점이 제2기준시간보다 짧은 제3기준시간(대략 1초)으로 산출되면, 운전자가 직접 차량 사고의 회피를 위한 조작을 수행할 시간이 부족하다고 볼 수 있다. 따라서, 이 경우에는, 도 7 및 도 8의 경우와 달리, 운전자의 사고 회피를 위한 조작을 수동적으로 안내하는 것이 아니라 제어부(700)가 운전자의 의지와 상관없이 능동적으로 사고의 회피를 위해 직접 브레이크의 동작이나 스티어링 휠(140)의 조작을 제어할 수 있다. 즉, 이벤트에 의한 차량 사고의 발생 가능성이 전술한 기준 이상일 뿐만 아니라, 그 예상시점이 제2기준시간보다 짧은 제1기준시간 이내이면, 프로세서(820)는 운전자가 사고회피를 위한 조작을 수행하기 어렵다고 판단하고, 운전자의 조작 없어도 대상 차량(100)의 제어부(700)가 충돌을 회피하기 위해 직접 대상 차량(100)을 제동하거나 대상 차량(100)의 주행방향을 바꿀 수 있도록 대상 차량(100)의 브레이크나 스티어링 휠(140)을 제어할 수 있는 신호를 생성한다. 프로세서(820)에서 생성된 신호는 통신부(810)를 통해 대상 차량(100)으로 전송될 수 있다. 대상 차량(100)의 통신부(600)에서 서버(800)의 통신부(810)로부터 전송되는 상기 신호를 수신하면, 도 9에 도시된 것처럼 제어부(700)는 상기 수신 신호에 기초하여 브레이크를 제어함으로써, 대상 차량(100)의 속도를 줄일 수 있다. 또한, 제어부(700)는 스티어링 휠(140)을 제어함으로써 대상 차량(100)의 진행방향을 바꿀 수 있다. 브레이크와 스티어링 휠(140)의 제어는 일 예일 뿐, 사고 회피를 위해 필요한 제어가 필요한 장치라면 제어부(700)의 제어 대상이 될 수 있다. 전술한 제어부(700)의 직접적인 제어에도 불구하고 사고가 발생할 수도 있으므로, 제어부(700)는 브레이크 및 스티어링 휠(140)의 제어와 함께, 도 3에 도시된 다른 장치들의 제어를 통해 사고 발생으로 인한 운전자의 부상을 방지할 수도 있다. 예를 들면, 안전벨트를 더 조이거나 소정의 각도 이상으로 눕혀져 있는 좌석(170)을 세울 수도 있고, 열려져 있는 창문을 자동으로 닫을 수도 있다.
100: 대상차량
800: 서버
1000: 차량 모니터링 시스템

Claims (19)

  1. 차량 주변의 영상을 획득하는 영상 획득부;
    차량의 주행정보를 획득하는 주행정보 획득부;
    상기 영상 획득부 및 주행정보 획득부에서 획득한 정보를 서버로 전송하고 상기 서버로부터 전송되는 차량 주행과 관련된 이벤트에 대한 정보를 수신하는 통신부; 및
    상기 통신부에서 수신한 상기 이벤트에 대한 정보에 기초하여 상기 이벤트에 의해 발생 가능한 차량 주행환경의 변화를 운전자에게 알려주는 제어부;를 포함하고,
    상기 서버로부터 전송되는 차량 주행과 관련된 이벤트에 대한 정보는, 상기 통신부로부터 전송된 정보 및 타차량들로부터 전송된 타차량들의 대상차량에 대한 근접정도 또는 근접속도를 포함하는 정보와, 상기 서버에 저장된 차량사고를 발생시킨 이벤트와 관련된 데이터 또는 차량사고를 발생시킬 가능성이 미리 정해진 기준 이상이었던 이벤트와 관련된 데이터를, 상기 서버가 비교하여 산출한, 차량사고 발생예상시점을 포함하는 이벤트에 대한 정보를 포함하는 차량.
  2. 제1항에 있어서,
    상기 영상 획득부는 상기 차량의 전방, 후방 및 좌우측방 중 적어도 한 방향의 영상을 획득할 수 있도록 마련된 카메라를 포함하는 차량.
  3. 제1항에 있어서,
    상기 주행정보 획득부는 상기 차량의 속도, 가속도, 조향각, 위치 및 상기 차량과 주변 차량과의 거리 중 적어도 하나를 획득하도록 마련된 차량.
  4. 제1항에 있어서,
    상기 주행정보 획득부는 상기 차량의 속도를 감지하는 속도 센서, 상기 차량의 가속도를 감지하는 가속도 센서, 상기 차량의 조향각을 감지하는 조향각 센서, 상기 차량 주변의 물체를 감지하는 초음파 센서 또는 레이더 센서, 상기 차량의 위치를 검출하는 GPS장치 중 적어도 하나를 포함하는 차량
  5. 제1항에 있어서,
    상기 영상 획득부에서 획득한 영상으로부터 상기 차량 주변의 물체에 대한 정보를 획득하는 영상처리부;를 더 포함하는 차량.
  6. 제5항에 있어서,
    상기 영상처리부는 상기 영상 획득부에서 획득한 영상으로부터 차량 주변의 물체를 검출하고, 상기 검출된 물체의 위치 또는 속도를 산출하여 상기 차량 주변 물체에 대한 정보를 획득하는 차량.
  7. 제5항에 있어서,
    상기 통신부는 상기 영상 획득부에서 획득한 영상과 상기 영상처리부에서 상기 영상으로부터 획득한 정보를 상기 서버로 전송하는 차량.
  8. 제1항에 있어서,
    상기 통신부는 3g, 4g 및 5g통신 방식을 이용하여 상기 서버와 정보를 주고 받도록 마련되는 차량.
  9. 제1항에 있어서,
    상기 제어부는 상기 이벤트에 의해 발생할 수 있는 차량사고의 위험을 시각, 청각 또는 촉각적으로 운전자에게 알릴 수 있도록 상기 차량의 오디오 시스템, 네비게이션, 계기판, 스티어링 휠, 안전벨트 및 좌석 중 적어도 하나를 제어하는 차량.
  10. 제1항에 있어서,
    상기 제어부는,
    상기 이벤트에 대한 정보에 포함된 차량사고의 발생 예상 시점까지 남은 시간이 제1기준시간 이상이면, 운전자가 차량사고를 회피할 수 있도록 상기 차량의 오디오 시스템, 네비게이션 또는 계기판을 제어하여 음성 또는 영상을 통해 상기 차량사고의 위험성을 알리는 차량
  11. 제10항에 있어서,
    상기 제어부는,
    상기 차량사고의 발생 예상 시점까지 남은 시간이 상기 제1기준시간보다 작은 제2기준시간 이하이면, 상기 차량의 오디오 시스템, 네비게이션, 계기판, 스티어링 휠, 안전벨트 또는 좌석을 제어하여 경고음, 경고이미지 또는 진동을 통해 상기 차량사고의 위험성을 알리는 차량.
  12. 제11항에 있어서,
    상기 제어부는,
    상기 차량사고의 발생 예상 시점까지 남은 시간이 상기 제2기준시간보다 작은 제3기준시간 이하이면, 상기 차량이 사고를 회피할 수 있도록 상기 차량의 스티어링 휠 또는 브레이크를 제어하는 차량.
  13. 차량사고를 발생시킨 이벤트와 관련된 데이터 또는 차량사고를 발생시킬 가능성이 미리 정해진 기준 이상이었던 이벤트와 관련된 데이터를 저장하는 메모리;
    대상차량으로부터 전송된, 속도, 가속도 및 조향각을 포함하는 주행관련 정보를 수신하고, 타차량들로부터 전송된 대상차량에 대한 근접정도 또는 근접속도를 수신하고, 대상차량의 운행과 관련된 이벤트에 대한 정보를 대상 차량으로 전송하는 통신부; 및
    상기 대상차량 및 타차량들로부터 전송된 정보에 기초하여 상기 대상 차량에 미리 정해진 시간 이내에 도달하는 타차량들을 결정하고, 상기 결정된 타차량들로부터 전송된 정보를 상기 메모리에 저장된 데이터와 비교하여 상기 차량 운행과 관련된 이벤트에 대한 정보를 생성하는 프로세서;를 포함하고,
    상기 프로세서는,
    상기 통신부에서 수신한 대상 차량의 속도, 가속도 및 조향각을 포함하는 주행관련 정보와 타차량들의 대상차량에 대한 근접정도 또는 근접속도를, 상기 메모리에 저장된 차량사고를 발생시킨 이벤트와 관련된 데이터 또는 차량사고를 발생시킬 가능성이 미리 정해진 기준 이상이었던 이벤트와 관련된 데이터와 비교하여, 대상 차량에 차량사고와 관련된 이벤트가 발생했는지 여부를 결정하고, 상기 이벤트가 발생했다고 결정하면, 이벤트에 의해 차량 사고가 발생할 가능성을 산출하고, 상기 이벤트에 의해 차량사고가 발생할 가능성이 미리 정해진 기준 이상이면, 차량사고 발생예상시점을 산출하고,
    상기 통신부는 상기 프로세서에서 산출한 차량사고 발생예상시점을 포함하는 이벤트에 대한 정보를 상기 대상 차량에 전송하는 서버.
  14. 삭제
  15. 삭제
  16. 삭제
  17. 제13항에 있어서,
    상기 프로세서는 상기 대상차량 및 타차량들로부터 전송된 정보와, 날씨 및 실시간 교통상황에 대한 정보를 이용하여 상기 대상차량의 운행과 관련된 이벤트에 대한 정보를 생성하는 서버.
  18. 제13항에 있어서,
    상기 통신부는 3g, 4g 및 5g통신 방식을 이용하여 상기 대상차량 및 타차량과 정보를 주고 받도록 마련되는 서버.
  19. 차량 운행과 관련된 정보를 서버로 전송하는 대상 차량; 및
    상기 대상 차량 및 타차량들로부터 전송된 정보를 수신하고, 상기 수신된 정보에 기초하여 대상 차량에 미리 정해진 시간 이내에 도달하는 타차량들을 결정하고, 상기 결정된 타차량들로부터 전송된 정보를 미리 저장된 차량 운행과 관련된 이벤트에 대한 데이터와 비교하여 상기 대상차량의 운행과 관련된 이벤트에 대한 정보를 생성하고, 생성된 정보를 상기 대상 차량으로 전송하는 서버;를 포함하고,
    상기 대상 차량은 상기 서버로부터 전송된 상기 이벤트에 대한 정보를 수신하고, 상기 수신된 이벤트에 대한 정보에 기초하여 상기 이벤트에 의해 발생 가능한 차량 주행환경의 변화를 운전자에게 알려주고,
    상기 서버는 대상 차량의 속도, 가속도 및 조향각을 포함하는 주행관련 정보와 타차량들의 대상차량에 대한 근접정도 또는 근접속도를, 차량사고를 발생시킨 이벤트와 관련된 데이터 또는 차량사고를 발생시킬 가능성이 미리 정해진 기준 이상이었던 이벤트와 관련된 데이터와 비교하여, 대상 차량에 차량사고와 관련된 이벤트가 발생했는지 여부를 결정하고, 상기 이벤트가 발생했다고 결정하면, 이벤트에 의해 차량 사고가 발생할 가능성을 산출하고, 상기 이벤트에 의해 차량사고가 발생할 가능성이 미리 정해진 기준 이상이면, 차량사고 발생예상시점을 산출하고, 산출된 차량사고 발생예상시점을 포함하는 이벤트에 대한 정보를 상기 대상 차량에 전송하는 차량 모니터링 시스템.
KR1020150038447A 2015-03-19 2015-03-19 차량, 서버 및 이를 포함하는 차량 모니터링 시스템 KR101728326B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020150038447A KR101728326B1 (ko) 2015-03-19 2015-03-19 차량, 서버 및 이를 포함하는 차량 모니터링 시스템
CN201510834681.6A CN105989727A (zh) 2015-03-19 2015-11-25 车辆、服务器及具有车辆和服务器的车辆监测系统
US14/958,926 US20160275796A1 (en) 2015-03-19 2015-12-03 Vehicle, server and vehicle monitoring system having the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150038447A KR101728326B1 (ko) 2015-03-19 2015-03-19 차량, 서버 및 이를 포함하는 차량 모니터링 시스템

Publications (2)

Publication Number Publication Date
KR20160112544A KR20160112544A (ko) 2016-09-28
KR101728326B1 true KR101728326B1 (ko) 2017-05-02

Family

ID=56925206

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150038447A KR101728326B1 (ko) 2015-03-19 2015-03-19 차량, 서버 및 이를 포함하는 차량 모니터링 시스템

Country Status (3)

Country Link
US (1) US20160275796A1 (ko)
KR (1) KR101728326B1 (ko)
CN (1) CN105989727A (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240068835A (ko) 2022-11-08 2024-05-20 주식회사 바이엠텍 차량 단말기 기반 모빌리티 시스템

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107004361B (zh) * 2014-12-09 2020-03-27 三菱电机株式会社 碰撞风险计算装置、碰撞风险显示装置以及车体控制装置
US10579879B2 (en) 2016-08-10 2020-03-03 Vivint, Inc. Sonic sensing
CN106652558B (zh) * 2016-09-30 2020-10-20 广州智丰设计研发有限公司 一种车路协同智能交通控制系统
KR20180039892A (ko) * 2016-10-11 2018-04-19 현대자동차주식회사 내비게이션 장치, 이를 포함하는 차량 및 차량의 제어방법
KR102655682B1 (ko) * 2016-12-22 2024-04-09 현대자동차주식회사 차량, 서버 및 이를 포함하는 시스템
KR102237072B1 (ko) * 2017-01-06 2021-04-06 현대자동차 주식회사 자율 주행 시스템
WO2018146882A1 (ja) * 2017-02-08 2018-08-16 住友電気工業株式会社 情報提供システム、サーバ、移動端末、及びコンピュータプログラム
KR102309429B1 (ko) * 2017-03-20 2021-10-07 현대자동차주식회사 차량 및 그 제어 방법
WO2018229549A2 (en) * 2017-06-16 2018-12-20 Nauto Global Limited System and method for digital environment reconstruction
FR3067494A1 (fr) * 2017-06-30 2018-12-14 Orange Procede de signalement d'une suggestion d'un comportement et terminal associe
CN107195199A (zh) * 2017-07-11 2017-09-22 珠海利安达智能科技有限公司 道路安全预警系统及方法
CN110997415A (zh) * 2017-08-01 2020-04-10 三星电子株式会社 控制车辆的操作的电子设备和方法
KR102359937B1 (ko) * 2017-08-17 2022-02-07 현대자동차 주식회사 차량 검사 시스템 및 그 방법
US10976737B2 (en) * 2017-11-21 2021-04-13 GM Global Technology Operations LLC Systems and methods for determining safety events for an autonomous vehicle
CN108230718B (zh) * 2018-01-26 2020-06-16 山东省交通规划设计院有限公司 一种基于区域块的交通流动态引导方法
CN110322589A (zh) * 2018-03-30 2019-10-11 上海博泰悦臻电子设备制造有限公司 车辆数据采集方法及装置
CN109191876B (zh) * 2018-10-23 2020-07-31 吉林大学 一种基于车联网技术的特殊车辆交通诱导系统及其控制方法
US10928826B2 (en) * 2018-10-26 2021-02-23 Lyft, Inc. Sensor fusion by operations-control vehicle for commanding and controlling autonomous vehicles
CN109334569A (zh) * 2018-10-30 2019-02-15 杭州鸿泉物联网技术股份有限公司 基于双屏显示的渣土车稽查显示装置
JP7172523B2 (ja) * 2018-12-03 2022-11-16 トヨタ自動車株式会社 情報処理システム、プログラム、及び制御方法
KR20200075053A (ko) * 2018-12-07 2020-06-26 현대자동차주식회사 사물 인식 기반 주행 패턴 관리 서버, 그를 이용한 차량의 주행 제어 장치 및 그 방법
US11624630B2 (en) * 2019-02-12 2023-04-11 International Business Machines Corporation Using augmented reality to present vehicle navigation requirements
JP7131433B2 (ja) * 2019-02-26 2022-09-06 トヨタ自動車株式会社 車載用情報処理装置、車両間情報処理システム、及び情報処理システム
JP2020140487A (ja) * 2019-02-28 2020-09-03 トヨタ自動車株式会社 処理装置、処理方法およびプログラム
KR102296848B1 (ko) * 2019-03-29 2021-09-02 (주)큐알온텍 차량용 사고 영상 기록 장치 및 방법
KR20210138112A (ko) * 2019-08-27 2021-11-18 엘지전자 주식회사 카메라 데이터 및 센서 데이터를 송수신하는 방법 및 통신 기기
JP2021092967A (ja) * 2019-12-10 2021-06-17 トヨタ自動車株式会社 画像処理システム、画像処理装置及びプログラム
DE102020204992A1 (de) 2020-04-21 2021-10-21 Denso Corporation Verfahren und Vorrichtung zum Austauschen von Informationen zwischen zumindest einer Fahrzeugkommunikationseinheit und einem Netzwerk
KR102289545B1 (ko) * 2020-10-29 2021-08-12 한국기술교육대학교 산학협력단 차량 2차 사고 방지용 네비게이션, 이를 이용한 차량 2차 사고 방지 시스템 및 방법
KR102418635B1 (ko) * 2020-11-24 2022-07-06 충북대학교 산학협력단 도로에서의 데이터 기반 사고 감지 및 영상 전송 시스템
US11683700B2 (en) * 2020-12-14 2023-06-20 T-Mobile Usa, Inc. Digital signatures for small cells of telecommunications networks
CN112948407B (zh) * 2021-03-02 2024-01-23 无锡车联天下信息技术有限公司 一种数据更新方法、装置、设备及存储介质

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110066883A (ko) * 2009-12-11 2011-06-17 주식회사 유디텍 지능형 차량 사고 경고 장치
US8384534B2 (en) * 2010-01-14 2013-02-26 Toyota Motor Engineering & Manufacturing North America, Inc. Combining driver and environment sensing for vehicular safety systems
US10032369B2 (en) * 2015-01-15 2018-07-24 Magna Electronics Inc. Vehicle vision system with traffic monitoring and alert

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240068835A (ko) 2022-11-08 2024-05-20 주식회사 바이엠텍 차량 단말기 기반 모빌리티 시스템

Also Published As

Publication number Publication date
KR20160112544A (ko) 2016-09-28
US20160275796A1 (en) 2016-09-22
CN105989727A (zh) 2016-10-05

Similar Documents

Publication Publication Date Title
KR101728326B1 (ko) 차량, 서버 및 이를 포함하는 차량 모니터링 시스템
JP6773046B2 (ja) 運転支援装置及び運転支援方法、並びに移動体
KR101682880B1 (ko) 차량 및 이를 포함하는 원격 차량 조작 시스템
EP3070700B1 (en) Systems and methods for prioritized driver alerts
US10388160B2 (en) Concept for warning at least one road user located within a parking facility
RU2656933C2 (ru) Способ и устройство для предупреждения о встречном транспортном средстве
KR102464898B1 (ko) 차량과 관련된 영상 정보를 공유하는 방법 및 장치
CN110461675B (zh) 用于基于感测信息控制驾驶的方法和设备
US11076141B2 (en) Image processing device, image processing method, and vehicle
JP5027696B2 (ja) 交通情報通信システム及び車載通信装置
KR20190017171A (ko) 보행자의 안전과 연관된 통신 신호를 송신하는 전자 장치 및 그 동작 방법
JP2017535008A (ja) 道路交通利用者の移動モデルを形成するための方法及び装置
US7432804B2 (en) Emergency notification apparatus for vehicle
CN102398554A (zh) 车辆安全系统和方法
US10099616B2 (en) Vehicle and method for controlling the vehicle
KR20110045762A (ko) 이동 단말기의 내비게이션 방법 및 그 장치
JP2022184896A (ja) 自律車両の通知のシステムと方法
CN113795873B (zh) 用于辅助车辆驾驶的电子装置和方法
US11059495B2 (en) Information presentation apparatus, steering apparatus, and information presentation method
KR101555051B1 (ko) 후방차량 충돌사고 방지장치
KR101782423B1 (ko) 차량, 및 차량의 제어방법
KR101667699B1 (ko) 네비게이션 단말기 및 네비게이션 단말기의 운행안내방법
JP2009181322A (ja) 車両用表示制御装置
KR101613022B1 (ko) 착용형 햅틱 장치 및 그것을 이용한 보행 안내 정보 제공 방법
KR102531722B1 (ko) 차량 단말을 이용한 주차위치안내 서비스 방법 및 장치

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant