KR20190115040A - 운전 거동 결정 방법, 디바이스, 장비 및 저장 매체 - Google Patents

운전 거동 결정 방법, 디바이스, 장비 및 저장 매체 Download PDF

Info

Publication number
KR20190115040A
KR20190115040A KR1020197025758A KR20197025758A KR20190115040A KR 20190115040 A KR20190115040 A KR 20190115040A KR 1020197025758 A KR1020197025758 A KR 1020197025758A KR 20197025758 A KR20197025758 A KR 20197025758A KR 20190115040 A KR20190115040 A KR 20190115040A
Authority
KR
South Korea
Prior art keywords
vehicle
driving
information
driving behavior
dangerous
Prior art date
Application number
KR1020197025758A
Other languages
English (en)
Inventor
다펑 왕
Original Assignee
텐센트 테크놀로지(센젠) 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 텐센트 테크놀로지(센젠) 컴퍼니 리미티드 filed Critical 텐센트 테크놀로지(센젠) 컴퍼니 리미티드
Publication of KR20190115040A publication Critical patent/KR20190115040A/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • G07C5/0841Registering performance data
    • G07C5/085Registering performance data using electronic data carriers
    • G07C5/0866Registering performance data using electronic data carriers the electronic data carrier being a digital video recorder in combination with video camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • B60R16/023Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for transmission of signals between vehicle parts or subsystems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/18Conjoint control of vehicle sub-units of different type or different function including control of braking systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/20Conjoint control of vehicle sub-units of different type or different function including control of steering systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0953Predicting travel path or likelihood of collision the prediction being responsive to vehicle dynamic parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W40/09Driving style or behaviour
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • B60W40/107Longitudinal acceleration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q40/00Finance; Insurance; Tax strategies; Processing of corporate or income taxes
    • G06Q40/08Insurance
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • G07C5/0808Diagnosing performance data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0002Automatic control, details of type of controller or control system architecture
    • B60W2050/0004In digital systems, e.g. discrete-time systems involving sampling
    • B60W2050/0005Processor details or data handling, e.g. memory registers or chip architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0019Control system elements or transfer functions
    • B60W2050/0022Gains, weighting coefficients or weighting functions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • B60W2420/42
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • B60W2520/105Longitudinal acceleration
    • B60W2550/14
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4041Position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/801Lateral distance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/802Longitudinal distance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/804Relative longitudinal speed
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/008Registering or indicating the working of vehicles communicating information to a remotely located station

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Transportation (AREA)
  • Business, Economics & Management (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Mathematical Physics (AREA)
  • Development Economics (AREA)
  • General Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Theoretical Computer Science (AREA)
  • Marketing (AREA)
  • Economics (AREA)
  • Technology Law (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Multimedia (AREA)
  • Traffic Control Systems (AREA)
  • Time Recorders, Dirve Recorders, Access Control (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

운전 거동 결정 방법, 디바이스, 장비 및 저장 매체. 방법은: 차량-내-모션(vehicle-in-motion) 이미지들을 취득하는 단계- 차량-내-모션 이미지들은 도로 이미지 및 전방 및 후방에서의 차량들의 차량 이미지들을 포함함 -(단계 201); 차량 주행 정보를 취득하는 단계- 차량 주행 정보는 차량의 주행 상태를 특성화하기 위해 사용됨 -(단계 202); 및 동시 차량-내-모션 이미지들 및 차량의 주행 정보에 따라 존재하는 위험 운전 거동이 있는지를 결정하는 단계- 위험 운전 거동은 사고를 야기할 수 있는 운전 거동을 지칭함 -(단계 203)를 포함한다. 차량의 주행 상태에 따라서만 존재하는 위험 운전 거동이 있는지를 결정하기 위한 방법에 비교하여, 본 방법은 위험 운전 거동을 더 포괄적으로 결정하기 위한 기준을 만들고, 더 직접적으로 관찰되는 차량-내-모션 이미지들을 조합하는 것에 의해 결정 결과의 정확도를 개선한다.

Description

운전 거동 결정 방법, 디바이스, 장비 및 저장 매체
본 개시내용은 2017년 3월 6일자로 중국 국가지식산권국에 출원되고 발명의 명칭이 "DRIVING BEHAVIOR DETERMINING METHOD AND APPARATUS"인 중국 특허 출원 제201710127810.7호에 대한 우선권을 주장한다.
본 개시내용의 실시예들은 커넥티드 카(connected car)들의 분야에 관한 것이며, 특히 운전 거동 결정 방법, 장치, 및 디바이스, 및 저장 매체에 관한 것이다.
사람들의 보험 인식의 지속적인 향상으로 인해, 더 많은 차량 소유자들은 그들이 구매한 차량들에 대한 보험을 구매하기 위해 선택하여, 사고가 발생할 때 금융 손실을 감소시킨다.
UBI(Usage based insurance)는 운전 거동 기반 보험으로서 차량 보험 산업에 널리 적용된다. 차량 소유자가 UBI를 선택한 후, OBD(On-Board Diagnostic) 디바이스가 차량에 장착될 필요가 있다. 운전 프로세스에서, OBD 디바이스는 빌트인 가속도 센서 및 자이로스코프를 사용하여 대응하는 센서 데이터를 취득하고, 그 후 센서 데이터에 따라 차량의 현재 주행 상태를 결정한다. 이러한 방식으로, 차량 보험 회사는 OBD 디바이스에 의해 결정된 주행 상태에 기초하여 차량 소유자의 운전 스타일을 결정하고, 최종적으로 운전 스타일에 따라 대응하는 보험 전략을 개발한다. 예를 들어, 보통 긴급 제동을 가하거나 운전 프로세스에서 급한 턴을 도는 차량 소유자들의 경우, 차량 보험 회사는 이러한 유형의 차량 소유자가 급진적 운전 스타일을 갖는 것으로 결정하고, 이러한 유형의 차량 소유자에 의해 지불된 보험 프리미엄의 양을 증가시킨다.
그러나, 차량의 주행 상태에 따라서만 차량 소유자의 운전 거동을 결정하는 것은 상대적으로 편파적이고, 위험 운전 거동의 오판단을 야기하기 쉽다. 예를 들어, 혼잡 도로 섹션에서 차량 소유자에 의해 가해지는 긴급 제동은 위험 운전 거동으로서 부정확하게 간주되며, 이는 차량 보험 회사에 의해 개발된 보험 전략의 정확도에 추가로 영향을 미친다.
본 개시내용의 실시예들은 운전 거동 결정 방법, 장치, 및 디바이스, 및 저장 매체를 제공하여, 차량의 주행 상태에 따라서만 차량 소유자의 운전 거동을 결정하는 것이 상대적으로 편파적이고, 위험 운전 거동의 오판단을 야기하기 쉽다는 기존의 기술들에서의 문제점을 해결하며, 이는 차량 보험 회사에 의해 개발된 보험 전략의 정확도에 추가로 영향을 미친다. 기술적 해결책들은 다음과 같다:
본 개시내용의 실시예들의 제1 양태에 따르면, 운전 거동 결정 방법이 제공되고, 이 방법은 다음을 포함한다:
운전 비디오를 획득하는 단계- 운전 비디오는 도로 이미지 및 전방 및 후방 차량들의 차량 이미지들을 포함함 -;
차량 주행 정보를 획득하는 단계- 차량 주행 정보는 차량의 주행 상태를 나타내기 위해 사용됨 -; 및
운전 비디오 및 차량 주행 정보에 따라 위험 운전 거동이 종료되는지를 결정하는 단계- 위험 운전 거동은 사고 위험을 갖는 운전 거동임 -.
본 개시내용의 실시예들의 제2 양태에 따르면, 운전 거동 결정 장치가 제공되고, 장치는 다음을 포함한다:
운전 비디오를 획득하도록 구성되는 제1 획득 모듈- 운전 비디오는 도로 이미지 및 전방 및 후방 차량들의 차량 이미지들을 포함함 -;
차량 주행 정보를 획득하도록 구성된 제2 획득 모듈- 차량 주행 정보는 차량의 주행 상태를 나타내기 위해 사용됨 -; 및
운전 비디오 및 차량 주행 정보에 따라 위험 운전 거동이 종료되는지를 결정하도록 구성된 제1 결정 모듈- 위험 운전 거동은 사고 위험을 갖는 운전 거동임 -.
본 개시내용의 실시예들의 제3 양태에 따르면, 운전 거동 결정 디바이스가 제공된다. 디바이스는 프로세서 및 메모리를 포함하고, 메모리는 적어도 하나의 명령어를 저장하고, 제1 양태에 따른 운전 거동 결정 방법을 구현하기 위해 적어도 하나의 명령어가 프로세서에 의해 로딩되고 실행된다.
본 개시내용의 실시예들의 제4 양태에 따르면, 컴퓨터 판독가능 저장 매체가 제공된다. 저장 매체는 적어도 하나의 명령어를 저장하고, 적어도 하나의 명령어가 프로세서에 의해 로딩되고 실행되어, 제1 양태에 따른 운전 거동 결정 방법을 구현한다.
본 개시내용의 실시예들에서 제공된 기술적 해결책들의 유리한 효과들은 적어도 다음을 포함한다:
도로 이미지 및 차량 이미지들을 포함하는 운전 비디오 및 차량의 주행 상태를 나타내는 차량 주행 정보가 획득되어서, 차량의 위험 운전 거동이 운전 비디오 및 차량 주행 정보에 기초하여 포괄적으로 결정된다. 차량의 주행 상태에 따라서만 위험 운전 거동이 종료되는지를 결정하는 것과 비교하여, 더 시각적인 운전 비디오를 참조하여 위험 운전 거동을 결정하는 것은 더 포괄적인 결정 기준들을 제공하고, 결정 결과의 정확도를 향상시키고, 결정 결과에 기초하여 개발된 보험 전략의 정확도를 추가로 향상시킨다.
본 개시내용의 실시예들의 기술적 해결책들을 더 명확히 설명하기 위해, 이하에서는 실시예들을 설명하기 위해 요구되는 첨부 도면들을 간단히 설명한다. 명백하게, 다음 설명의 첨부 도면들은 단지 본 개시내용의 일부 실시예들을 보여주며, 본 기술분야의 통상의 기술자는 창의적 노력들 없이 이 첨부 도면들로부터 다른 도면들을 여전히 도출할 수 있다.
도 1은 본 개시내용의 실시예에 따른 구현 환경의 개략적인 구조도이다.
도 2는 본 개시내용의 실시예에 따른 운전 거동 결정 방법의 흐름도이다.
도 3a는 본 개시내용의 다른 실시예에 따른 운전 거동 결정 방법의 흐름도이다.
도 3b는 실시예에 따른 운전 비디오의 개략도이다.
도 3c는 본 개시내용의 또 다른 실시예에 따른 운전 거동 결정 방법의 흐름도이다.
도 3d는 도 3c에 도시된 운전 거동 결정 방법에서 차선 정보를 결정하는 구현 프로세스의 개략도이다.
도 3e는 도 3c에 도시된 운전 거동 결정 방법에서 차량 거리 정보를 결정하는 구현 프로세스의 개략도이다.
도 4는 본 개시내용의 실시예에 따른 운전 거동 결정 장치의 구조적 블록도이다.
도 5는 본 개시내용의 실시예에 따른 운전 거동 결정 디바이스의 개략 구조도이다.
본 개시내용의 실시예들의 목적들, 기술적 해결책들, 및 이점들을 더 명확하게 하기 위해, 이하에서는 첨부 도면들을 참조하여 본 개시내용의 구현들을 상세히 더 설명한다.
도 1은 본 개시내용의 실시예에 따른 구현 환경의 개략적인 구조도이다. 구현 환경은 운전 기록 디바이스(110), 모바일 단말(120) 및 서버(130)를 포함한다.
운전 기록 디바이스(110)는 차량에 배치되고 운전 비디오를 기록하기 위해 사용되는 전자 디바이스이다. 운전 기록 디바이스(110)는 카메라를 구비한 차량 내비게이션 디바이스 또는 이벤트 데이터 레코더이다. 선택적으로, 운전 기록 디바이스(110)는 차량의 전방에 배치되고, 차량의 전방의 운전 비디오를 운전 기록 프로세스에서 기록하도록 구성되고, 또는 운전 기록 디바이스들(110)은 차량의 전방 및 후방에 배치되고 차량의 전방 및 후방의 운전 비디오들을 운전 기록 프로세스에서 기록하도록 구성된다.
유선 또는 무선 접속이 운전 기록 디바이스(110)와 모바일 단말(120) 사이에 확립된다. 선택적으로, 운전 기록 디바이스(110)는 데이터 라인을 사용하여 모바일 단말(120)과의 유선 접속을 확립하고, 데이터 라인을 사용하여 데이터를 교환한다. 대안적으로, 운전 기록 디바이스(110)는 블루투스 또는 적외선들을 통해 모바일 단말(120)과의 무선 접속을 확립하고, 무선 접속을 사용하여 데이터를 교환한다.
모바일 단말(120)는 인터넷 액세스 기능을 갖는 전자 디바이스이고, 전자 디바이스는 스마트폰, 태블릿 컴퓨터, 웨어러블 지능형 디바이스 등이다. 가능한 구현에서, 운전 기록 디바이스(110)가 인터넷 액세스 기능을 갖지 않을 때, 모바일 단말(120)은 모바일 단말(120)과 운전 기록 디바이스(110) 사이의 접속을 사용하여, 운전 기록 디바이스(110)에 의해 전송된 데이터를 획득하고, 획득된 데이터를 인터넷을 통해 보고한다.
선택적으로, 모바일 단말(120) 또는 운전 기록 디바이스(110)는 차량 상에 장착된 OBD 디바이스에 추가로 접속되고, 차량 주행 프로세스에서 OBD 디바이스에 의해 획득되는 차량 주행 정보를 획득한다. 차량 주행 정보는 차량의 주행 상태를 나타내기 위해 사용되고, 차량의 현재 속도, 현재 가속도, 및 조향 정보 중 적어도 하나를 포함한다.
본 개시내용의 일부 실시예들에서, 운전 기록 디바이스(110) 또는 모바일 단말(120)은 AI(Artificial Intelligence) 알고리즘을 구비한다. AI 알고리즘을 사용함으로써, 운전 기록 디바이스(110) 또는 모바일 단말(120)은 운전 비디오에 포함된 도로 이미지 및 차량 이미지를 인식하고, 인식된 도로 이미지 및 차량 이미지에 따라 주행 차선, 전방 차량(또는 후방 차량)까지의 거리, 전방 차량(또는 후방 차량)에 대한 속도 등의 정보를 분석할 수 있다. 또한, AI 알고리즘을 사용함으로써, 운전 기록 디바이스(110) 또는 모바일 단말(120)은 인식된 위험 운전 거동을 정량화하고, 위험 운전 거동에 대응하는 운전 거동 데이터를 획득할 수 있다.
모바일 단말(120) 및 서버(130)는 유선 네트워크 또는 무선 네트워크를 사용하여 접속된다.
서버(130)는 차량에 대응하는 운전 거동 데이터를 관리하도록 구성된 서버이다. 운전 기록 디바이스(110) 또는 모바일 단말(120)에 의해 운전 거동 데이터가 보고된다(차량 주행 프로세스에서 미리 결정된 시간 간격으로 보고되거나 실시간으로 보고된다). 서버(130)는 복수의 서버 또는 클라우드 컴퓨팅 센터에 의해 형성된 서버 클러스터이다.
가능한 구현에서, 운전 기록 디바이스(110)가 인터넷 액세스 기능을 갖지 않을 때, 서버(130)는 모바일 단말(12)에 의해 전송되는 업데이트 데이터(운전 기록 디바이스(110)에 의해 취득되는 차량 주행 정보 및 운전 비디오를 분석함으로써 획득됨)를 수신하고, 업데이트 데이터에 따라 저장된 운전 거동 데이터를 업데이트한다.
다른 가능한 구현에서, 운전 기록 디바이스(110)가 인터넷 액세스 기능을 갖고 서버(130)와의 무선 접속을 확립할 때, 서버(130)는 인터넷을 통해 운전 기록 디바이스(110)에 의해 업로드되는 업데이트 데이터(실시간 운전 거동에 따라 계산됨)를 수신하고, 업데이트 데이터에 따라 저장된 운전 거동 데이터를 업데이트한다.
선택적으로, 무선 네트워크 또는 유선 네트워크는 표준 통신 기술 및/또는 프로토콜을 사용한다. 네트워크는 일반적으로 인터넷이지만, LAN(local area network), MAN(metropolitan area network), WAN(wide area network), 모바일, 유선, 또는 무선 네트워크, 또는 전용 네트워크 또는 가상 전용 네트워크의 임의의 조합을 포함하지만, 이들로 제한되지 않는 임의의 네트워크일 수도 있다. 일부 실시예들에서, 네트워크를 통해 교환되는 데이터는 HTML(Hypertext Markup Language), XML(Extensible Markup Language) 등을 포함하는 기술 및/또는 포맷을 사용하여 표현된다. 또한, 모든 또는 일부 링크들은 SSL(Secure Socket Layer), TLS(Transport Layer Security), VPN(Virtual Private Network), 및 IPsec(Internet Protocol Security)와 같은 종래의 암호화 기술들을 사용하여 암호화될 수 있다. 일부 다른 실시예들에서, 전술한 데이터 통신 기술들은 추가로, 맞춤형(customized) 및/또는 전용 데이터 통신 기술로 대체되거나 이에 의해 보충될 수 있다.
본 개시내용의 다양한 실시예들에서 제공되는 운전 거동 결정 방법은 운전 기록 디바이스(110)에 의해 개별적으로 수행되거나, 모바일 단말(120)에 의해 개별적으로 수행되거나, 운전 기록 디바이스(110) 및 모바일 단말(120)에 의해 협력하여 수행되거나, 서버(130)에 의해 수행될 수 있다.
선택적으로, 운전 거동 결정 방법이 서버(130)에 의해 수행되는 경우, 운전 기록 디바이스(110) 또는 모바일 단말(120)은 취득된 운전 비디오 및 차량 주행 정보를 서버(130)에 업로드하고, 서버(130)는 차량이 차량 주행 정보 및 운전 비디오에 대응하는 타임스탬프에 따라 각각의 순간에 위험 운전 거동을 갖는지를 결정한다.
설명의 용이함을 위해, 아래의 다양한 실시예들은 운전 거동 결정 방법이 모바일 단말(120)에 의해 수행되는 예를 설명하지만, 다양한 실시예들은 이에 제한되지 않는다.
관련 기술에서, 운전 거동의 결정은 OBD 디바이스에 의해 취득된 센서 데이터에 의존하고, 긴급 제동을 가하는 것, 긴급 시동을 가하는 것, 및 예리한 턴을 도는 것과 같은 차량의 주행 상태만이 센서 데이터를 사용하여 결정될 수 있다. 그러나, 센서 데이터만이 운전 거동을 결정하기 위한 기준으로서 사용되는 경우, OBD 디바이스가 떨어지거나 차량이 본래 지터(jitter)하는 경우, OBD 디바이스에 의해 취득된 센서 데이터는 차량의 현재 주행 상태를 정확하게 반영할 수 없고, 운전 거동을 결정하는 정확도가 영향을 받는다. 더욱이, 다른 차량의 주행 상태를 고려하지 않고서 긴급 제동을 가하는 것, 긴급 시동을 가하는 것, 및 급한 턴을 도는 것 등의, 차량의 주행 상태에 따라서만 사고 발생 위험을 측정하는 것은 상대적으로 편파적이고 간접적이고, 결과적으로, 결정된 운전 거동은 상대적으로 낮은 기준 값 및 정확도를 갖는다.
그러나, 본 개시내용의 다양한 실시예들에서, 차량이 위험 운전 거동을 갖는지는 AI 알고리즘을 사용하여 그리고 운전 비디오(외부 환경) 및 주행 프로세스에서의 차량 주행 정보(차량의 주행 상태) 둘 다에 기초하여 결정되어서, 위험 운전 거동을 결정하기 위한 기준들이 풍부하고, 위험 운전 거동을 결정하는 정확도가 개선된다. 더욱이, 차선으로부터 벗어나는 것, 차량들 사이에 과도하게 짧은 거리를 유지하는 것, 및 긴급 제동을 가하는 것과 같이, 상대적으로 높은 사고 위험을 갖는 위험 운전 거동들이 운전 비디오로부터 인식될 수 있기 때문에, 결정된 위험 운전 거동들은 더 높은 기준 값을 갖고 더 포괄적이고 정확하다. 이것은 차량 보험 회사가 위험 운전 거동들에 따라 차량 소유자에 대한 보다 정확한 보험 전략을 개발하는 것을 돕는다.
도 2는 본 개시내용의 실시예에 따른 운전 거동 결정 방법의 흐름도이다. 일부 실시예들은 운전 거동 결정 방법이 도 1에 도시된 모바일 단말(120)에 적용되는 예를 사용하여 설명된다. 방법은 다음을 포함한다:
단계 201. 운전 비디오를 획득- 운전 비디오는 도로 이미지 및 전방 및 후방 차량들의 차량 이미지들을 포함함 -.
운전 비디오는 차량의 주행 상태에서 이미지 취득 컴포넌트를 사용함으로써 운전 기록 디바이스에 의해 기록되는 비디오이다. 운전 기록 디바이스는 일반적으로 차량의 전방 및/또는 후방에 배치되기 때문에, 운전 비디오는 전방 및/또는 후방 도로의 도로 이미지들 및 전방 및/또는 후방 차량들의 차량 이미지들을 포함한다.
선택적으로, 운전 비디오는 차량의 주행 프로세스에서 운전 기록 디바이스에 의해 모바일 단말로 송신되는 실시간 운전 비디오이거나, 또는 운전 비디오는 고정된 시간 간격(예를 들어, 5분)으로 운전 기록 디바이스에 의해 모바일 단말로 송신되는 캐싱된 운전 비디오이다.
단계 202. 차량 주행 정보를 획득- 차량 주행 정보는 차량의 주행 상태를 표시하기 위해 사용됨 -.
선택적으로, 모바일 단말은 운전 비디오를 획득하는 동안 차량의 실시간 차량 주행 정보를 획득한다. 차량 주행 정보는 차량의 현재 속도 및 조향 정보를 포함한다. 선택적으로, 차량 주행 정보는 현재 가속도 및 주행 방향과 같은, 차량의 주행 상태를 표시하기 위해 사용되는 다른 정보를 추가로 포함한다. 본 개시내용의 실시예들에서 제한이 부과되지 않는다.
가능한 구현에서, 차량 주행 정보에서의 현재 속도, 현재 가속도, 및 진행 방향은 (가속도 센서 또는 자이로스코프를 포함하는) 빌트인 센서를 사용함으로써 운전 기록 디바이스, OBD 디바이스, 또는 모바일 단말을 사용하여 취득된다. 차량 주행 정보에 포함된 조향 정보는 차량으로부터 OBD 디바이스에 의해 획득된다. 선택적으로, 조향 정보는 방향 지시등(turn signal light)의 시동 상태를 나타내기 위해 사용된다.
단계 203. 동일한 순간에 운전 비디오 및 차량 주행 정보에 따라 위험 운전 거동이 종료되는지를 결정- 위험 운전 거동은 사고 위험을 갖는 운전 거동임 -.
운전 비디오 및 차량 주행 정보를 획득한 후에, 모바일 단말은 동일한 순간에 운전 비디오 및 차량 주행 정보를 분석하여, 차량이 위험 운전 거동을 갖는지를 결정한다. 선택적으로, 위험 운전 거동은: 차선으로부터 벗어나는 것, 차량들 사이에 과도하게 짧은 거리를 유지하는 것(전방 차량까지 또는 후방 차량까지 과도하게 짧은 거리를 유지하는 것), 및 긴급 제동을 가하는 것 중 적어도 하나를 포함한다. 모바일 단말은 운전 비디오 및 차량 주행 정보에 따라, 사고를 직접 야기할 수 있는 다른 위험 운전 거동들을 추가로 결정할 수 있다는 점에 유의해야 한다. 본 개시내용의 이러한 실시예에서 제한이 부과되지 않는다.
선택적으로, 모바일 단말은 획득된 운전 비디오에 대해 이미지 인식을 수행하여 차선 정보 및 차량 거리 정보를 결정하고, 차량 주행 정보에 의해 표시되는 조향 정보를 참조하여, 차량이 차선으로부터 이탈하는 위험 운전 거동을 갖는지를 결정하거나; 또는 모바일 단말은 획득된 운전 비디오에 대해 이미지 인식을 수행하여 차량 거리 정보 및 상대 속도 정보를 결정하고, 차량 주행 정보에서의 현재 속도를 참조하여, 차량이 차량들 사이에 과도하게 짧은 거리를 유지하는 위험 운전 거동을 갖는지를 결정하거나; 또는 모바일 단말은 획득된 운전 비디오에 대해 이미지 인식을 수행하여 차량 거리 정보를 결정하고, 차량 주행 정보 내의 현재 가속도를 참조하여, 차량이 긴급 제동을 가하는 위험 운전 거동을 갖는지를 결정한다.
선택적으로, 결정된 위험 운전 거동에 대해, 모바일 단말은 위험 운전 거동을 서버에 보고하고, 서버는 위험 운전 거동과 차량을 연관시키고 연관을 저장하여, 후속하여 위험 거동의 유형, 발생 빈도, 및 위험 레벨에 기초하여 차량에 대응하는 운전 거동 모델(운전 거동과 사고 위험 사이의 관계를 표시함)을 구축한다.
운전 기록 디바이스가 상대적으로 강한 이미지 분석 및 데이터 처리 능력을 가질 때, 전술한 단계들은 운전 기록 디바이스에 의해 수행될 수 있다는 점에 유의해야 한다. 본 개시내용의 이러한 실시예에서 제한이 부과되지 않는다.
결론적으로, 이 실시예에서, 도로 이미지 및 차량 이미지들을 포함하는 운전 비디오 및 차량의 주행 상태를 나타내는 차량 주행 정보가 획득되어서, 차량의 위험 운전 거동이 운전 비디오 및 차량 주행 정보에 기초하여 포괄적으로 결정된다. 차량의 주행 상태에 따라서만 위험 운전 거동이 종료되는지를 결정하는 것과 비교하여, 더 시각적인 운전 비디오를 참조하여 위험 운전 거동을 결정하는 것은 더 포괄적인 결정 기준들을 제공하고, 결정 결과의 정확도를 향상시키고, 결정 결과에 기초하여 개발된 보험 전략의 정확도를 추가로 향상시킨다.
위험 운전 거동에 기초하여 후속하여 대응하는 보험 전략을 개발하는 것을 용이하게 하기 위해, 모바일 단말은 결정된 위험 운전 거동을 정량화할 필요가 있다. 가능한 구현에서, 차량이 위험 운전 거동을 갖는 것으로 결정한 후에, 모바일 단말은 위험 운전 거동의 유형, 위험 레벨, 및 발생 빈도에 따라 위험 운전 거동에 대해 정량적 계산을 추가로 수행하고, 계산된 정량화된 데이터를 서버에 보고하여, 서버가 정량화된 데이터에 따라 차량의 운전 거동 데이터를 업데이트하고, 운전 거동 데이터에 기초하여 보험 전략을 추가로 개발한다. 개략적인 실시예가 설명을 위해 아래에 제공된다.
도 3a는 본 개시내용의 다른 실시예에 따른 운전 거동 결정 방법의 흐름도이다. 이 실시예는 운전 거동 결정 방법이 도 1에 도시된 모바일 단말(120)에 적용되는 예를 사용하여 설명된다. 방법은 다음을 포함한다:
단계 301. 운전 비디오를 획득- 운전 비디오는 도로 이미지 및 전방 및 후방 차량들의 차량 이미지들을 포함함 -.
이 단계의 구현은 단계 201의 것과 유사하고, 이 실시예에서 다시 설명되지 않는다.
개략적으로, 주행 상태에서, 모바일 단말에 의해 획득되고 운전 기록 디바이스에 의해 취득되는 운전 비디오가 도 3b에 도시된다. 운전 비디오는 도로 이미지(31) 및 전방 차량의 차량 이미지(32)를 포함한다.
단계 302. 운전 비디오를 인식하여 운전 비디오 인식 결과를 획득- 운전 비디오 인식 결과는 차선 정보, 차량 거리 정보 및 상대 속도 정보 중 적어도 하나를 포함함 -.
운전 비디오를 획득한 후에, 모바일 단말은 이미지 분석 기술을 사용하여 운전 비디오를 분석하고 인식하여, 차선 정보, 차량 거리 정보 및 상대 속도 정보 중 적어도 하나를 포함하는 운전 비디오 인식 결과를 획득한다. 차선 정보는 차량이 위치되는 차선을 나타내기 위해 사용되고, 차량 거리 정보는 전방 차량까지의 거리 및/또는 후방 차량까지의 거리를 나타내기 위해 사용되고, 상대 속도 정보는 전방 차량에 대한 속도 및/또는 후방 차량에 대한 속도를 나타내기 위해 사용된다.
가능한 구현에서, 도 3c에 도시된 바와 같이, 이 단계는 다음의 단계들을 포함한다.
단계 302A. 도로 이미지에 포함된 차선 라인을 인식하고, 차선 라인에 따라 차선 정보를 결정.
차량이 현재 위치되는 차선을 결정하기 위해, 모바일 단말은, 운전 비디오 내의 도로 이미지에 포함된 차선 라인(백색 파선, 실선 백색 라인, 황색 파선, 실선 황색 라인, 이중 백색 파선, 이중 실선 백색 라인, 이중 실선 황색 라인, 실선-겸-절선 황색 라인(solid-cum-broken yellow line) 등을 포함하는 도로 교통 마킹으로서도 지칭됨)을 인식하여, 인식된 차선 라인에 기초하여 차선 정보를 결정한다.
가능한 구현에서, 도 3d에 도시된 바와 같이, 모바일 단말은 운전 비디오의 하반부에 위치한 준-사다리꼴(quasi-trapezoidal) 영역(33)(준-삼각형 영역)을 인식하고, 추가로 준-사다리꼴 영역(33)에 포함된 차선 라인(34)을 인식하여, 차선 라인(34)에 따라 차선 정보를 결정한다. 선택적으로, 준-사다리꼴 영역이 2개의 차선 라인을 포함하는 것으로 인식될 때, 차량이 중간 차선에 위치되는 것으로 결정되고; 준 사다리꼴 영역의 좌측만이 차선 라인을 포함하는 것으로 인식될 때, 차량이 우측 차선에 위치되는 것으로 결정되고; 준-사다리꼴 영역의 우측만이 차선 라인을 포함하는 것으로 인식될 때, 차량이 좌측 차선에 위치되는 것으로 결정된다. 예를 들어, 도 3d에 도시된 바와 같이, 모바일 단말은 차량이 현재 중간 차선에 있는 것으로 결정한다.
다른 가능한 구현에서, 모바일 단말은, 이미지 인식 기술을 사용하여, 도로 이미지에 포함된 차선 라인을 인식하고, 인식된 차선 라인에 차선 라인 번호를 할당한다. 도로 이미지의 중간에 위치된 차선 라인이 제1 차선 라인인 경우, 차량이 현재 제1 차선(가장 좌측 차선)에 위치되는 것으로 결정되고; 도로 이미지의 중간에 위치되는 차선 라인이 n번째 및 (n+1)번째 차선 라인인 경우, 차량이 현재 (n+1)번째 차선 라인에 위치되는 것으로 결정되고; 도로 이미지의 중간에 위치되는 차선 라인이 n번째 차선 라인인 경우, 차량이 현재 n번째 차선(가장 우측 차선)에 위치되는 것으로 결정된다.
대안적으로, 모바일 단말은 다른 이미지 분석 기술을 사용하여 차선 정보를 결정할 수 있다는 점에 유의해야 한다. 본 개시내용의 이러한 실시예에서 제한이 부과되지 않는다.
단계 302B. 운전 비디오에서 차량 이미지의 이미지 위치를 인식하고, 이미지 위치 및 미리 설정된 거리 스케일에 따라 차량 거리 정보를 결정- 미리 설정된 거리 스케일은 운전 비디오에서의 상이한 이미지 위치들과 실제 거리들 사이의 맵핑 관계를 나타내기 위해 사용됨 -.
전방 차량(또는 후방 차량)까지의 거리가 너무 짧은지를 결정하기 위해, 운전 비디오를 획득한 후에, 모바일 단말은 스크린에서 운전 비디오에서의 차량 이미지의 이미지 위치를 결정하여, 이미지 위치에 따라 전방 차량(또는 후방 차량)까지의 실제 거리를 결정한다.
가능한 구현에서, 모바일 단말은 이미지 위치와 실제 거리 사이의 맵핑 관계를 나타내는 미리 설정된 거리 스케일을 미리 저장한다. 개략적으로, 도 3e에 도시된 바와 같이, 운전 비디오는 미리 설정된 거리 스케일(35)에 대응한다. 선택적으로, 모바일 단말은 운전 비디오에 포함된 이미지의 윤곽을 인식하여, 전방 차량의 차량 이미지를 인식한다. 또한, 모바일 디바이스는 운전 비디오에서의 차량 이미지의 더 낮은 이미지 에지의 이미지 위치를 결정하고, 이미지 위치 및 미리 설정된 거리 스케일에 따라 전방 차량까지의 거리를 결정한다. 예를 들어, 도 3e에 도시된 바와 같이, 모바일 단말은 전방 차량까지의 차량 거리가 50 m인 것으로 결정한다.
단계 302C. 운전 비디오에서 차량 이미지의 이미지 위치를 인식하고, 이미지 위치의 변화에 따라 상대 속도 정보를 결정.
선택적으로, 상대 속도 정보는 차량과 전방 차량 또는 후방 차량의 속도들의 값들 사이의 관계를 나타내기 위해 사용된다. 예를 들어, 상대 속도 정보는 차량의 현재 속도가 전방 차량의 현재 속도보다 큰 것을 나타낸다.
전방 차량(또는 후방 차량)에 대한 속도의 값을 결정하기 위해, 운전 비디오에서의 각각의 이미지 프레임에 대해, 모바일 단말은 운전 비디오에서 차량 이미지의 이미지 위치를 인식하고(구체적인 방식은 단계 302B와 유사함), 이웃하는 이미지 프레임에서의 이미지 위치의 변화에 따라 상대 속도 정보를 결정한다.
선택적으로, 전방 차량에 대한 속도의 값이 결정될 때, 차량 이미지의 이미지 위치가 이미지의 하부 부분 하향으로 편향하는 것(차량 거리가 감소함)을 검출할 때, 모바일 단말은 전방 차량의 속도가 차량의 현재 속도보다 작은 것으로 결정하거나; 또는 차량 이미지의 이미지 위치가 이미지의 상부 부분 상향으로 편향하는 것(차량 거리가 증가함)을 검출할 때, 모바일 단말은 전방 차량의 속도가 차량의 현재 속도보다 큰 것으로 결정한다.
선택적으로, 후방 차량에 대한 속도의 값이 결정될 때, 차량 이미지의 이미지 위치가 이미지의 하부 부분 하향으로 편향하는 것(차량 거리가 증가함)을 검출할 때, 모바일 단말은 후방 차량의 속도가 차량의 현재 속도보다 작은 것으로 결정하거나; 또는 차량 이미지의 이미지 위치가 이미지의 상부 부분 상향으로 편향하는 것(차량 거리가 감소함)을 검출할 때, 모바일 단말은 후방 차량의 속도가 차량의 현재 속도보다 큰 것으로 결정한다.
다른 가능한 구현에서, 모바일 단말은 추가로, 이미지 위치의 변화에 따라 차량 거리 변화량을 계산하여, 차량의 현재 속도 및 차량 거리 변화량에 따라 전방(또는 후방) 차량의 속도를 계산하고, 최종적으로 차량과 전방(또는 후방) 차량 사이의 상대 속도 차이를 계산할 수 있다. 이 실시예에서는 제한이 부과되지 않는다.
운전 기록 디바이스가 이미지 분석 인식 기능을 가질 때, 단계들 301 및 302는 운전 기록 디바이스에 의해 수행될 수 있고, 모바일 단말(120)은 운전 기록 디바이스에 의해 제공되는 운전 비디오 인식 결과를 획득하기만 하면 된다는 것을 유의해야 한다. 본 개시내용의 이러한 실시예에서 제한이 부과되지 않는다.
단계 303. 차량 주행 정보를 획득- 차량 주행 정보는 차량의 주행 상태를 표시하기 위해 사용됨 -.
이 단계의 구현은 단계 202의 것과 유사하고, 이 실시예에서 다시 설명되지 않는다.
단계 304. 운전 비디오 인식 결과 및 차량 주행 정보에 따라 위험 운전 거동이 종료되는지를 결정.
선택적으로, 모바일 단말은 차량이 단계 302에서 획득된 운전 비디오 인식 결과 및 차량 주행 정보를 참조하여 위험 운전 거동을 갖는지를 결정한다. 가능한 구현에서, 도 3c에 도시된 바와 같이, 운전 비디오 인식 결과가 차선 정보 및 차량 거리 정보를 포함하고, 차량 주행 정보가 조향 정보를 포함할 때, 모바일 단말은 다음의 단계 304A를 수행하거나; 또는 운전 비디오 인식 결과가 차량 거리 정보 및 상대 속도 정보를 포함하고, 차량 주행 정보가 현재 속도를 포함할 때, 모바일 단말은 다음의 단계 304B를 수행하거나; 또는, 운전 비디오 인식 결과가 차량 거리 정보를 포함하고, 차량 주행 정보가 현재 가속도를 포함할 때, 모바일 단말은 다음 단계 304C를 수행한다.
단계 304A. 차선 정보가 변하고, 차량 거리 정보가 전방 차량까지의 거리가 제1 임계값보다 작다는 것을 표시하고, 조향 정보가 방향 지시등이 턴온되지 않았다는 것을 표시하는 경우, 제1 위험 운전 거동이 있는 것으로 결정- 제1 위험 운전 거동은 차선으로부터 벗어나는 운전 거동임 -.
정상 주행 프로세스에서, 전방 차량의 상대적으로 낮은 속도로 인해 차선을 변경할 필요가 있거나 또는 턴을 돌 필요가 있을 때, 운전자는 차선 변경 동안 안전을 보장하기 위해 차량의 방향 지시등을 턴온할 필요가 있고, 전방 차량까지의 특정 거리를 유지할 때 차선을 변경한다. 따라서, 가능한 구현에서, 모바일 단말은 단계 302A에서 획득된 차선 정보가 변하는지를 검출한다. 차선 정보가 변하는 것을 검출할 때, 모바일 단말이 단계 302B에서 획득된 차량 거리 정보에 따라 전방 차량까지의 거리가 제1 임계값보다 작은지를 검출하고, 조향 정보에 따라 차량이 방향 지시등을 턴온하였는지를 검출하고, 전방 차량까지의 거리가 제1 임계값보다 작고 방향 지시등이 턴온되지 않았다는 것을 검출한 것에 응답하여 차량이 위험 운전 거동을 갖는 것으로 결정한다. 제1 임계값은 현재 속도와 양의 상관(positive correlation)을 갖는다. 예를 들어, 제1 임계값은 현재 속도에 대응하는 안전 제동 거리이다.
예를 들어, 차량이 우측 차선 쪽으로 중간 차선을 건너고, 전방 차량까지의 거리가 제1 임계값 미만이고, 우측 방향 지시등이 턴온되지 않았던 것을 검출할 때, 모바일 단말은 차량이 차선으로부터 벗어나는 것으로 결정한다.
단계 304A에 따르면, 모바일 단말이 차량의 차선 변경 상태를 인식할 수 있는 경우, 모바일 단말은 차선 변경 거동이 전방 차량까지의 거리에 따라 사고 위험을 갖는지를 추가로 결정할 수 있다. 센서 데이터에 따라서만 운전 거동이 인식되는 것과 비교하여, 이 실시예에서는 더 풍부한 위험 운전 거동들이 인식될 수 있고, 인식된 위험 운전 거동들은 사고 발생 확률과 더 크게 매칭한다.
단계 304B. 현재 속도에 대응하는 안전 제동 거리를 결정하고, 차량 거리 정보가 전방 차량까지의 거리가 안전 제동 거리보다 작다는 것을 나타내고, 상대 속도 정보가 현재 속도가 전방 차량의 속도보다 크다는 것을 표시하는 경우, 제2 위험 운전 거동이 있는 것으로 결정.
주행 상태에서, 차량이 전방 차량까지 상대적으로 짧은 거리를 갖거나, 차량이 전방 차량에 빠르게 접근할 때, 충돌 사고가 발생할 수 있는 매우 큰 확률이 있다. 따라서, 단계 302B에 따라 전방 차량까지의 차량 거리를 결정한 후에, 모바일 단말은 차량 거리가 현재 속도에 대응하는 안전 제동 거리보다 작은지를 추가로 검출하고, 차량 거리가 현재 속도에 대응하는 안전 제동 거리보다 작고, 상대 속도 정보는 현재 속도가 전방 차량의 속도보다 더 크다는 것을 표시하는 경우, 차량들 사이의 과도하게 짧은 거리를 유지하는 위험 운전 거동이 종료되는 것으로 결정한다. 선택적으로, 모바일 단말은 상이한 도로 상황들에서 속도들과 안전 제동 거리들 사이의 대응관계들을 미리 저장한다. 대응관계들은 표 1에 개략적으로 도시된다.
Figure pct00001
표 1에 도시된 대응관계들에 따라, 속도에 대응하는 안전 제동 거리를 조회하는 것에 더하여, 모바일 단말은 현재 속도와 안전 제동 거리 사이의 비례 관계에 따라 실시간으로 안전 제동 거리를 추가로 계산할 수 있다. 현재 속도 및 안전 제동 거리는 양의 비례 관계이다. 본 개시내용의 이러한 실시예에서 제한이 부과되지 않는다.
선택적으로, 차량이 위험 운전 거동을 갖는 것으로 결정할 때, 모바일 단말은 사고를 피하기 위해 미리 결정된 방식(예를 들어, 미리 결정된 음성 프롬프트를 발음하는 것)으로 운전자에게 프롬프트한다.
단계 304B에 따르면, 모바일 단말은 차량에 의해 전방 차량까지 과도하게 짧은 거리를 유지하거나, 차량에 의해 급속하게 전방 차량에 접근하는 거동을 인식할 수 있고, 그 거동을 위험 운전 거동으로서 추가로 결정한다. 속도가 너무 높은지가 현재 속도에 따라서만 인식될 수 있는 관련 기술과 비교하여, 이 실시예에서는 더 위험 운전 거동들이 인식될 수 있고, 인식된 위험 운전 거동들은 사고 발생 확률과 더 크게 매칭한다.
단계 304C. 차량 거리 정보가 전방 차량까지의 거리가 제2 임계값보다 크고 후방 차량까지의 거리가 제3 임계값보다 작다는 것을 나타내고, 현재 가속도가 차량이 제동 중이라는 것을 나타내는 경우, 제3 위험 운전 거동이 있는 것으로 결정- 제3 위험 운전 거동은 긴급 제동을 가하는 운전 거동임 -.
(혼잡하지 않은 도로 섹션에서의) 정상 주행 프로세스에서, 차량이 갑자기 제동 중(또는 긴급 제동을 가하는 것으로 지칭됨)일 때, 후방 차량까지 과도하게 짧은 거리를 야기하거나 심지어 직접 사고를 야기하는 것이 극히 용이하다. 차량의 갑작스러운 제동으로 인해 차량들 사이의 과도하게 짧은 거리를 야기하는 경우를 인식하기 위해, 차량의 주행 프로세스에서, 모바일 단말은 전방 차량까지의 거리, 후방 차량까지의 거리, 및 차량의 현재 가속도를 획득하고, 전방 차량까지의 거리가 제2 임계값보다 크고, 차량 거리 정보는 후방 차량까지의 거리가 제3 임계값보다 작다는 것을 나타내고, 현재 가속도는 차량이 제동 중이라는 것을 나타내는 것을 검출할 때, 차량이 갑자기 제동하기 때문에 후방 차량까지 상대적으로 짧은 거리가 야기되는 것으로 결정한다. 제2 임계값 및 제3 임계값은 현재 속도와의 양의 상관을 갖는다.
긴급 제동이 위험 운전 거동으로서 직접 결정되는 관련 기술과는 상이하게, 일부 실시예들에서, 위험 운전 거동은 이미지 인식 기술을 사용하여 결정되어, 혼잡 도로 섹션 상의 긴급 제동이 위험 운전 거동으로서 부정확하게 결정되는 것을 회피함으로써(그 이유는 긴급 제동이 혼잡 도로 섹션 상에 가해질 때, 전방 차량까지의 거리가 제2 임계값보다 작더라도 전술한 결정 조건이 만족되지 않기 때문임), 그에 의해 위험 운전 거동을 결정하는 정확도를 향상시킨다.
단계 305. 위험 운전 거동의 위험 레벨을 결정.
선택적으로, 위험 운전 거동이 종료되는 것으로 결정한 후에, 모바일 단말은 현재 도로 상의 교통 흐름, 현재 속도, 및 차량 거리 정보와 같은 데이터에 따라 위험 운전 거동의 위험 레벨을 추가로 결정한다. 더 높은 위험 레벨은 더 높은 사고 발생 확률을 표시한다.
위험 운전 거동들의 상이한 유형들에 대해, 가능한 구현에서, 도 3c에 도시된 바와 같이, 이 단계는 다음의 단계들을 포함한다.
단계 305A. 위험 운전 거동이 제1 위험 운전 거동인 경우, 현재 속도 및 교통 흐름에 따라 위험 레벨을 결정.
선택적으로, 위험 운전 거동이 차량이 차선으로부터 벗어난다는 것을 표시할 때, 모바일 단말은 차량의 현재 속도를 획득하고, 미리 결정된 지속기간(예를 들어, 1분)의 운전 비디오 내의 차량들의 수량에 따라 교통 흐름을 계산하여, 현재 속도 및 교통 흐름에 따라 위험 운전 거동의 위험 레벨을 결정한다. 현재 속도는 위험 레벨과 양의 상관을 가지며, 교통 흐름은 위험 레벨과 양의 상관을 갖는다.
예를 들어, 모바일 단말은 표 2에 도시된 대응관계들에 따라 위험 운전 거동의 위험 레벨을 결정한다.
Figure pct00002
단계 305B. 위험 운전 거동이 제2 위험 운전 거동 또는 제3 위험 운전 거동인 경우, 현재 속도 및 현재 차량 거리에 따라 위험 레벨을 결정.
선택적으로, 위험 운전 거동이 전방 차량까지의 거리가 너무 짧다는 것을 나타낼 때, 모바일 단말은 차량의 현재 속도 및 전방 차량까지의 현재 차량 거리를 획득하여, 현재 속도 및 현재 차량 거리에 따라 위험 레벨을 결정한다. 현재 속도는 위험 레벨과 양의 상관을 가지며, 현재 차량 거리는 위험 레벨과의 음의 상관(negative correlation)을 갖는다.
예를 들어, 모바일 단말은 표 3에 도시된 대응관계들에 따라 위험 운전 거동의 위험 레벨을 결정한다.
Figure pct00003
선택적으로, 위험 운전 거동이 긴급 제동이 가해지는 것을 나타낼 때, 모바일 단말은 차량의 현재 속도 및 후방 차량까지의 현재 차량 거리를 획득하여, 현재 속도 및 현재 차량 거리에 따라 위험 레벨을 결정한다. 현재 속도는 위험 레벨과 양의 상관을 가지며, 현재 차량 거리는 위험 레벨과의 음의 상관(negative correlation)을 갖는다.
다른 가능한 구현들에서, 모바일 단말은 위험 운전 거동들의 상이한 유형들에 대응하는 위험 레벨 계산 공식들에 따라 위험 운전 거동에 대응하는 위험 레벨을 대안적으로 계산할 수 있다. 본 개시내용의 이러한 실시예에서 제한이 부과되지 않는다.
단계 306. 위험 운전 거동의 발생 빈도, 위험 레벨 및 위험 운전 거동에 대응하는 가중치에 따라 업데이트 데이터를 계산- 업데이트 데이터는 차량에 대응하는 운전 거동 데이터를 업데이트하기 위해 사용됨 -.
위험 운전 거동들의 상이한 유형들은 상이한 사고 위험들에 대응하고, 따라서, 모바일 단말은 위험 운전 거동의 발생 빈도, 위험 레벨, 및 위험 운전 거동에 대응하는 가중치를 포괄적으로 고려함으로써 위험 운전 거동을 정량화된 데이터(운전 거동 데이터를 업데이트하기 위해 사용되는 업데이트 데이터임)로 변환할 필요가 있다.
가능한 구현에서, 동일한 유형의 위험 운전 거동들에 대해, 위험 운전 거동에 대응하는 정량화된 데이터 = 위험 운전 거동의 발생 빈도 × 위험 레벨 × 위험 운전 거동의 가중치이다. 예를 들어, 결정된 위험 운전 거동이 전방 차량까지의 거리가 너무 짧다는 것을 나타낼 때, 발생 빈도는 2회이고, 위험 레벨은 레벨 5이고, 가중치는 1.5이고, 위험 운전 거동에 대응하는 정량화된 데이터는 2×5×1.5=15이다. 결정된 위험 운전 거동이 차선으로부터 벗어나는 것을 표시할 때, 발생 빈도는 1회이고, 위험 레벨은 레벨 8이고, 가중치는 2이고, 위험 운전 거동에 대응하는 정량화된 데이터는 1×8×2=16이다.
운전 기록 디바이스가 상대적으로 강한 데이터 처리 능력을 가질 때, 단계들 303 내지 306은 운전 기록 디바이스에 의해 수행될 수 있다는 점에 유의해야 한다. 본 개시내용의 이러한 실시예에서 제한이 부과되지 않는다.
단계 307. 데이터 업데이트 요청을 서버에 전송- 데이터 업데이트 요청은 차량 식별자 및 업데이트 데이터를 포함하고, 서버는 업데이트 데이터에 따라 차량 식별자에 의해 표시된 차량의 운전 거동 데이터를 업데이트하도록 구성됨 -.
선택적으로, 모바일 단말은 실시간으로 계산된 업데이트 데이터를 서버에 전송하거나; 또는 각각의 미리 결정된 시간 간격(예를 들어, 10분) 동안, 모바일 단말은 이 시간 간격으로 축적된 업데이트 데이터를 서버에 전송한다.
이에 대응하여, 업데이트 데이터 및 차량 식별자를 운반하는 데이터 업데이트 요청을 수신한 후에, 서버는 업데이트 데이터에 따라, 차량 식별자에 의해 표시된 차량의 운전 거동 데이터를 업데이트한다.
선택적으로, 서버에 전송되는 데이터 업데이트 요청은 업데이트 데이터에 대응하는 위험 운전 거동의 유형, 발생 빈도, 발생 장소, 및 발생 시간과 같은 정보를 추가로 운반하여, 서버가 상이한 정보 차원들에서의 운전 거동 데이터에 따라 대응하는 보험 모델을 구축하고, 그에 의해, 후속하여 개발되는 보험 전략의 정확도를 더 개선시킨다. 예를 들어, 서버는 차량들의 지역적 분포에 따라 상이한 지역들에 대한 보험 모델들을 구축하여, 대응하는 보험 모델을 사용하여 차량에 대한 보험 전략을 개발한다.
운전 기록 디바이스가 인터넷 액세스 기능을 가질 때, 단계 307은 운전 기록 디바이스에 의해 수행될 수 있다는 점에 유의해야 한다. 본 개시내용의 이러한 실시예에서 제한이 부과되지 않는다.
일부 실시예들에서, 차선 정보, 차량 거리 정보 및 상대 속도 정보는 운전 비디오를 인식함으로써 결정되고, 위험 운전 거동은 전술한 정보에 기초하여 결정되어서, 위험 운전 거동을 결정하는 정확도가 개선된다.
일부 실시예들에서, 차량에 의해 차선으로부터 벗어나는 것, 전방 차량까지의 과도하게 짧은 거리를 유지하는 것, 또는 긴급 제동을 가하는 것과 같은 사고를 직접 야기할 수 있는 위험 운전 거동들은 운전 비디오를 참조하여 인식될 수 있고, 그에 의해 인식된 위험 운전 거동들의 참조 값을 추가로 개선한다.
일부 실시예들에서, 모바일 단말은 위험 운전 거동의 유형, 위험 레벨, 및 발생 빈도에 따라 위험 운전 거동에 대해 정량적 계산을 수행하고, 정량화된 데이터를 서버에 보고하여서, 서버가 정량화된 데이터에 따라 차량의 운전 거동 데이터를 업데이트하고, 운전 거동 데이터에 기초하여 보험 전략을 개발하게 하며, 그에 의해 개발된 보험 전략의 정확도를 개선하는 것을 돕는다.
다음은 본 개시내용의 장치 실시예들을 설명한다. 장치 실시예들에서 설명되지 않은 세부 사항들에 대해서는, 장치 실시예들과 일대일 대응관계에 있는 전술한 방법 실시예들을 참조한다.
도 4는 본 개시내용의 실시예에 따른 운전 거동 결정 장치의 구조적 블록도이다. 도 1에 도시된 전체 모바일 단말(120) 또는 모바일 단말(120)의 일부는 하드웨어 또는 하드웨어와 소프트웨어의 조합을 사용하여 운전 거동 결정 장치를 사용하여 구현된다. 운전 거동 결정 장치는: 제1 획득 모듈(410), 제2 획득 모듈(420) 및 제1 결정 모듈(430)을 포함한다.
제1 획득 모듈(410)은 단계 201 또는 단계 301의 기능을 구현하도록 구성된다.
제2 획득 모듈(420)은 단계 202 또는 단계 303의 기능을 구현하도록 구성된다.
제1 결정 모듈(430)은 단계 203의 기능을 구현하도록 구성된다.
선택적으로, 제1 결정 모듈(430)은 인식 유닛 및 제1 결정 유닛을 포함한다.
인식 유닛은 단계 302의 기능을 구현하도록 구성된다.
제1 결정 유닛은 단계 304의 기능을 구현하도록 구성된다.
선택적으로, 인식 유닛은 단계 302A, 단계 302B, 또는 단계 302C의 기능을 구현하도록 추가로 구성된다.
선택적으로, 차량 주행 정보는 현재 속도 및 조향 정보를 포함한다.
제1 결정 유닛은 단계 304A, 단계 304B 또는 단계 304C의 기능을 구현하도록 추가로 구성된다.
선택적으로, 장치는 제2 결정 모듈, 계산 모듈, 및 전송 모듈을 추가로 포함한다.
제2 결정 모듈은 단계 305의 기능을 구현하도록 구성된다.
계산 모듈은 단계 306의 기능을 구현하도록 구성된다.
전송 모듈은 단계 307의 기능을 구현하도록 구성된다.
선택적으로, 제2 결정 모듈은 제2 결정 유닛 및 제3 결정 유닛을 포함한다.
제2 결정 유닛은 단계 305A의 기능을 구현하도록 구성된다.
제3 결정 유닛은 단계 305B의 기능을 구현하도록 구성된다.
도 5는 본 개시내용의 실시예에 따른 차량 운전 거동 결정 디바이스의 개략적인 구조도이다. 디바이스(500)는 도 1에서의 운전 기록 디바이스(110) 또는 모바일 단말(120)이다. 구체적으로:
디바이스(500)는 무선 주파수(RF) 회로(510), 하나 이상의 컴퓨터 판독가능 저장 매체를 포함하는 메모리(520), 입력 유닛(530), 디스플레이 유닛(540), 센서(550), 오디오 회로(560), 근접장 통신 모듈(570), 하나 이상의 처리 코어를 포함하는 프로세서(580), 및 전원(590)과 같은 컴포넌트들을 포함할 수 있다. 본 기술분야의 통상의 기술자는, 도 5에 도시된 단말 구조가 단말에 대한 어떠한 제한도 구성하지 않으며, 단말이 도면에 도시된 것보다 더 많거나 더 적은 컴포넌트들을 포함할 수 있거나, 또는 일부 컴포넌트들이 조합될 수 있거나, 또는 상이한 컴포넌트 배치가 사용될 수 있다는 것을 이해할 수 있다.
RF 회로(510)는 정보 수신 및 전송 프로세스 또는 호출 프로세스 동안 신호들을 수신하고 전송하도록 구성될 수 있다. 특히, RF 회로(510)가 기지국으로부터 다운링크 정보를 수신한 이후, RF 회로(510)는 다운링크 정보를 처리를 위해 하나 이상의 프로세서(580)에 전달하고, 관련된 업링크 데이터를 기지국에 전송한다. 일반적으로, RF 회로(510)는, 안테나, 적어도 하나의 증폭기, 튜너, 하나 이상의 발진기, 가입자 식별 모듈(SIM) 카드, 송수신기, 커플러, 저잡음 증폭기(LNA) 및 듀플렉서를 포함하지만, 이것으로 제한되는 것은 아니다. 게다가, RF 회로(510)는 또한 무선 통신을 통하여 네트워크 및 또 다른 디바이스와 통신할 수 있다. 무선 통신은, GSM(Global System for Mobile communications), GPRS(general packet radio service), CDMA(Code Division Multiple Access), WCDMA(Wideband Code Division Multiple Access), LTE(Long Term Evolution), 이메일, SMS(Short Messaging Service) 등을 포함하는 그러나 이것으로 제한되지 않는 임의의 통신 표준 또는 프로토콜을 사용할 수 있다.
메모리(520)는 소프트웨어 프로그램 및 모듈을 저장하도록 구성될 수 있다. 프로세서(580)는 메모리(520)에 저장되는 소프트웨어 프로그램 및 모듈을 작동하여, 다양한 기능 애플리케이션들 및 데이터 처리를 실행한다. 메모리(520)는 주로 프로그램 저장 영역 및 데이터 저장 영역을 포함할 수 있다. 프로그램 저장 영역은 운영 체제, (사운드 재생 기능 및 이미지 디스플레이 기능과 같은) 적어도 하나의 기능에 의해 요구되는 애플리케이션 프로그램 등을 저장할 수 있다. 데이터 저장 영역은 디바이스(500)의 사용에 따라 생성된 데이터(예컨대 오디오 데이터 및 주소록) 등을 저장할 수 있다. 추가적으로, 메모리(520)는 고속 랜덤 액세스 메모리를 포함할 수 있고, 비휘발성 메모리, 예컨대, 적어도 하나의 자기 디스크 저장 디바이스, 플래시 메모리 또는 다른 휘발성 고체 상태 저장 디바이스를 추가로 포함할 수 있다. 이에 대응하여, 메모리(520)는, 프로세서(580) 및 입력 유닛(530)에 메모리(520)에 대한 액세스들을 제공하기 위해 메모리 제어기를 추가로 포함할 수 있다.
입력 유닛(530)은 입력 숫자 또는 문자 정보를 수신하고, 사용자 설정 및 기능 제어에 관련된 키보드, 마우스, 조이스틱, 광학적, 또는 트랙 볼 신호 입력을 생성하도록 구성될 수 있다. 구체적으로, 입력 유닛(530)은 이미지 입력 디바이스(531) 및 다른 입력 디바이스(532)를 포함할 수 있다. 이미지 입력 디바이스(531)는 카메라일 수 있거나, 광전 스캐닝 디바이스일 수 있다. 이미지 입력 디바이스(531)를 제외하고, 입력 유닛(530)은 다른 입력 디바이스(532)를 추가로 포함할 수 있다. 구체적으로, 다른 입력 디바이스(532)는: 하나 이상의 물리적 키보드, 기능 키(예컨대, 볼륨 제어 키 또는 스위치 키), 트랙 볼, 마우스 및 조이스틱 중 하나 이상을 포함할 수 있지만 이들로 제한되지 않는다.
디스플레이 유닛(540)은 사용자에 의해 입력된 정보 또는 사용자를 위해 제공된 정보, 및 디바이스(500)의 다양한 그래픽 사용자 인터페이스들을 디스플레이하도록 구성될 수 있다. 그래픽 사용자 인터페이스들은 그래픽들, 텍스트, 아이콘들, 비디오들, 및 이들의 임의의 조합으로 구성될 수 있다. 디스플레이 유닛(540)은 디스플레이 패널(541)을 포함할 수 있다. 임의적으로, 디스플레이 패널(541)은 LCD(liquid crystal display), OLED(organic light-emitting diode), 등을 사용하여 구성될 수 있다.
디바이스(500)는 광학 센서, 모션 센서, 및 다른 센서들과 같은 적어도 하나의 센서(550)를 추가로 포함할 수 있다. 구체적으로는, 광학 센서는 주변광 센서 및 근접 센서를 포함할 수 있다. 주변 광 센서는 주변 광의 밝기에 따라 디스플레이 패널(541)의 휘도를 조정할 수 있다. 근접 센서는 디바이스(500)가 귀쪽으로 움직일 때 디스플레이 패널(541) 및/또는 백라이트를 스위치 오프할 수 있다. 모션 센서의 한 가지 유형으로서, 중력 가속도 센서가 각각의 방향(일반적으로 3축임)에서 가속도의 값을 검출할 수 있고, 정적일 때 중력의 값 및 방향을 검출할 수 있고, 모바일 폰 제스처(예컨대, 수평 및 세로방향 스크린들 사이의 핸드오버, 관련 게임 및 자력계의 제스처 캘리브레이션)의 응용, 진동 식별의 관련 기능(예컨대, 만보계 및 노크(knock)) 등을 인식하도록 구성될 수 있다. 디바이스(500)에서 구성될 수 있는 자이로스코프, 기압계, 습도계, 온도계, 및 적외선 센서 등의 다른 센서는 본 명세서에서 다시 설명되지 않는다.
오디오 회로(560), 스피커(561), 및 마이크로폰(562)은 사용자와 단말(500) 사이의 오디오 인터페이스를 제공할 수 있다. 오디오 회로(560)는 수신된 오디오 데이터를 전기 신호로 변환하고 전기 신호를 스피커(561)에 송신할 수 있다. 스피커(561)는 전기 신호를 출력하기 위한 사운드 신호로 변환한다. 한편, 마이크로폰(562)은 취득된 사운드 신호를 전기 신호로 변환한다. 오디오 회로(560)는 전기 신호를 수신하고 전기 신호를 오디오 데이터로 변환하고, 오디오 데이터를 처리를 위해 프로세서(580)에 출력한다. 그 다음에, 프로세서(580)는 오디오 데이터를, 예를 들어, 다른 전자 디바이스에 RF 회로(510)를 사용함으로써 전송하거나, 또는 오디오 데이터를 추가의 처리를 위해 메모리(520)에 출력한다. 오디오 회로(560)는, 주변 장치 이어폰과 디바이스(500) 사이의 통신을 제공하기 위해, 이어플러그 잭을 추가로 포함할 수 있다.
디바이스(500)는 근접장 통신 모듈(570)을 사용하여 외부 디바이스와의 근접장 통신 접속을 확립하고, 근접장 통신 접속을 통해 데이터를 교환한다. 일부 실시예들에서, 근접장 통신 모듈(570)은 구체적으로 블루투스 모듈 및/또는 Wi-Fi 모듈을 포함한다.
프로세서(580)는 단말(500)의 제어 중심이며, 다양한 인터페이스들 및 라인들을 사용함으로써 모바일 폰의 다양한 부분들에 접속된다. 메모리(520)에 저장된 소프트웨어 프로그램 및/또는 모듈을 작동하거나 실행하고, 메모리(520)에 저장된 데이터를 호출함으로써, 프로세서(580)는 디바이스(500)의 다양한 기능들 및 데이터 처리를 실행하고, 그에 의해 모바일 폰에 대한 전반적인 모니터링을 수행한다. 선택적으로, 프로세서(580)는 하나 이상의 처리 코어를 포함할 수 있다. 바람직하게는, 프로세서(580)는 애플리케이션 프로세서와 모뎀 프로세서를 통합할 수 있다. 애플리케이션 프로세서는 주로 운영 체제, 사용자 인터페이스, 애플리케이션 등을 처리하고, 모뎀 프로세서는 주로 무선 통신을 처리한다. 모뎀 프로세서는 프로세서(580)에 통합되지 않을 수 있다는 점이 이해될 수 있다.
디바이스(500)는 컴포넌트들에 전력을 공급하기 위한 (배터리와 같은) 전원(590)을 추가로 포함한다. 바람직하게는, 전원은 전력 관리 시스템을 사용하는 것에 의해 프로세서(580)에 논리적으로 접속됨으로써, 전력 관리 시스템을 사용하는 것에 의한 충전, 방전, 및 전력 소비 관리와 같은 기능들을 구현할 수 있다. 전원(590)은 직류 또는 교류 전원, 재충전 시스템, 전력 고장 검출 회로, 전원 컨버터 또는 인버터, 전원 상태 표시기 및 임의의 다른 컴포넌트들 중 하나 이상을 추가로 포함할 수 있다.
단말(500)은 도시되지 않은 블루투스 모듈 등을 추가로 포함할 수 있고, 세부 사항들은 본 명세서에서 설명되지 않는다.
본 개시내용의 실시예는 컴퓨터 판독가능 저장 매체를 추가로 제공한다. 저장 매체는 적어도 하나의 명령어를 저장하고, 적어도 하나의 명령어가 프로세서에 의해 로딩되고 실행되어, 전술한 방법 실시예들에 따른 운전 거동 결정 방법을 구현한다.
본 개시내용의 실시예는 컴퓨터 프로그램 제품을 추가로 제공한다. 컴퓨터 프로그램 제품은 적어도 하나의 명령어를 저장하고, 적어도 하나의 명령어가 프로세서에 의해 로딩되고 실행되어, 전술한 방법 실시예들에 따른 운전 거동 결정 방법을 구현한다.
본 개시내용의 전술된 실시예들의 시퀀스 번호들은 단지 설명적인 목적들을 위한 것이며, 실시예들의 우선 순위들을 표시하도록 의도되지 않는다.
전술한 설명들은 본 개시내용의 바람직한 실시예들일 뿐이며, 본 개시내용의 실시예들을 제한하도록 의도되지 않는다. 본 개시내용의 실시예들의 사상 및 원리로부터 벗어나지 않고 이루어지는 임의의 수정, 등가의 대체 및 개선은 본 개시내용의 실시예들의 보호 범위 내에 속할 것이다.

Claims (18)

  1. 운전 거동 결정 방법으로서,
    운전 비디오를 획득하는 단계- 상기 운전 비디오는 도로 이미지 및 전방 및 후방 차량들의 차량 이미지들을 포함함 -;
    차량 주행 정보를 획득하는 단계- 상기 차량 주행 정보는 차량의 주행 상태를 나타내기 위해 사용됨 -; 및
    동일한 순간에 상기 운전 비디오 및 상기 차량 주행 정보에 따라 위험 운전 거동이 종료되는지를 결정하는 단계- 상기 위험 운전 거동은 사고 위험을 갖는 운전 거동임 -를 포함하는 방법.
  2. 제1항에 있어서,
    동일한 순간에 상기 운전 비디오 및 상기 차량 주행 정보에 따라 위험 운전 거동이 종료되는지를 결정하는 것은:
    상기 운전 비디오를 인식하여 운전 비디오 인식 결과를 획득하는 것- 상기 운전 비디오 인식 결과는 차선 정보, 차량 거리 정보, 또는 상대 속도 정보 중 적어도 하나를 포함함 -; 및
    상기 운전 비디오 인식 결과 및 상기 차량 주행 정보에 따라 상기 위험 운전 거동이 종료되는지를 결정하는 것을 포함하고,
    상기 차선 정보는 상기 차량이 위치되는 차선을 나타내기 위해 사용되고, 상기 차량 거리 정보는 상기 전방 차량까지의 거리 및/또는 상기 후방 차량까지의 거리를 나타내기 위해 사용되고, 상기 상대 속도 정보는 상기 전방 차량에 대한 속도 및/또는 상기 후방 차량에 대한 속도를 나타내기 위해 사용되는 방법.
  3. 제2항에 있어서,
    상기 운전 비디오를 인식하여 운전 비디오 인식 결과를 획득하는 것은:
    상기 도로 이미지에 포함된 차선 라인을 인식하고, 상기 차선 라인에 따라 상기 차선 정보를 결정하는 것;
    상기 운전 비디오에서 상기 차량 이미지의 이미지 위치를 인식하고, 상기 이미지 위치 및 미리 설정된 거리 스케일에 따라 상기 차량 거리 정보를 결정하는 것- 상기 미리 설정된 거리 스케일은 상기 운전 비디오에서의 상이한 이미지 위치들과 실제 거리들 사이의 맵핑 관계들을 나타내기 위해 사용됨 -; 및/또는
    상기 운전 비디오에서 상기 차량 이미지의 이미지 위치를 인식하고, 상기 이미지 위치의 변화에 따라 상기 상대 속도 정보를 결정하는 것을 포함하는 방법.
  4. 제2항에 있어서,
    상기 운전 비디오 인식 결과는 상기 차선 정보 및 상기 차량 거리 정보를 포함하고, 상기 차량 주행 정보는 조향 정보를 포함하고;
    상기 운전 비디오 인식 결과 및 상기 차량 주행 정보에 따라 상기 위험 운전 거동이 종료되는지를 결정하는 것은:
    상기 차선 정보가 변하고, 상기 차량 거리 정보가 상기 전방 차량까지의 거리가 제1 임계값보다 작다는 것을 나타내고, 상기 조향 정보가 방향 지시등이 턴온되지 않았다는 것을 나타내는 경우, 제1 위험 운전 거동이 있는 것으로 결정하는 것- 상기 제1 위험 운전 거동은 차선으로부터 벗어나는 운전 거동임 -을 포함하는 방법.
  5. 제2항에 있어서,
    상기 운전 비디오 인식 결과는 상기 차량 거리 정보 및 상기 상대 속도 정보를 포함하고, 상기 차량 주행 정보는 현재 속도를 포함하고;
    상기 운전 비디오 인식 결과 및 상기 차량 주행 정보에 따라 상기 위험 운전 거동이 종료되는지를 결정하는 것은:
    상기 현재 속도에 대응하는 안전 제동 거리를 결정하고, 상기 차량 거리 정보가 상기 전방 차량까지의 거리가 상기 안전 제동 거리보다 작다는 것을 나타내고 상기 상대 속도 정보가 상기 현재 속도가 상기 전방 차량의 속도보다 크다는 것을 나타내는 경우, 제2 위험 운전 거동이 있는 것으로 결정하는 것- 상기 제2 위험 운전 거동은 차량들 사이의 과도하게 짧은 거리를 유지하는 운전 거동임 -을 포함하는 방법.
  6. 제2항에 있어서,
    상기 운전 비디오 인식 결과는 상기 차량 거리 정보를 포함하고, 상기 차량 주행 정보는 현재 가속도를 포함하고;
    상기 운전 비디오 인식 결과 및 상기 차량 주행 정보에 따라 상기 위험 운전 거동이 종료되는지를 결정하는 것은:
    상기 차량 거리 정보가 상기 전방 차량까지의 거리가 제2 임계값보다 크고 상기 후방 차량까지의 거리가 제3 임계값보다 작다는 것을 나타내고, 상기 현재 가속도가 상기 차량이 제동 중이라는 것을 나타내는 경우, 제3 위험 운전 거동이 있는 것으로 결정하는 것- 상기 제3 위험 운전 거동은 긴급 제동을 가하는 운전 거동임 -을 포함하는 방법.
  7. 제4항 내지 제6항 중 어느 한 항에 있어서,
    상기 운전 비디오 인식 결과 및 상기 차량 주행 정보에 따라 상기 위험 운전 거동이 종료되는지를 결정한 후에, 상기 방법은:
    상기 위험 운전 거동의 위험 레벨을 결정하는 단계; 및
    상기 위험 운전 거동의 발생 빈도, 상기 위험 레벨 및 상기 위험 운전 거동에 대응하는 가중치에 따라 업데이트 데이터를 계산하는 단계- 상기 업데이트 데이터는 상기 차량에 대응하는 운전 거동 데이터를 업데이트하기 위해 사용됨 -를 추가로 포함하는 방법.
  8. 제7항에 있어서,
    상기 위험 운전 거동의 위험 레벨을 결정하는 것은:
    상기 위험 운전 거동이 상기 제1 위험 운전 거동인 경우, 상기 현재 속도 및 교통 흐름에 따라 상기 위험 레벨을 결정하는 것; 또는
    상기 위험 운전 거동이 상기 제2 위험 운전 거동 또는 상기 제3 위험 운전 거동인 경우, 상기 현재 속도 및 현재 차량 거리에 따라 상기 위험 레벨을 결정하는 것을 포함하고,
    상기 현재 속도는 상기 위험 레벨과 양의 상관을 갖고, 상기 교통 흐름은 상기 위험 레벨과 양의 상관을 갖고, 상기 현재 차량 거리는 상기 위험 레벨과 음의 상관을 갖는 방법.
  9. 운전 거동 결정 장치로서,
    운전 비디오를 획득하도록 구성된 제1 획득 모듈- 상기 운전 비디오는 도로 이미지 및 전방 및 후방 차량들의 차량 이미지들을 포함함 -;
    차량 주행 정보를 획득하도록 구성된 제2 획득 모듈- 상기 차량 주행 정보는 차량의 주행 상태를 나타내기 위해 사용됨 -; 및
    동일한 순간에 상기 운전 비디오 및 상기 차량 주행 정보에 따라 위험 운전 거동이 종료되는지를 결정하도록 구성된 제1 결정 모듈- 상기 위험 운전 거동은 사고 위험을 갖는 운전 거동임 -을 포함하는 장치.
  10. 제9항에 있어서,
    상기 제1 결정 모듈은:
    상기 운전 비디오를 인식하여 운전 비디오 인식 결과를 획득하도록 구성된 인식 유닛- 상기 운전 비디오 인식 결과는 차선 정보, 차량 거리 정보, 및 상대 속도 정보 중 적어도 하나를 포함함 -; 및
    상기 운전 비디오 인식 결과 및 상기 차량 주행 정보에 따라 상기 위험 운전 거동이 종료되는지를 결정하도록 구성된 제1 결정 유닛을 포함하고,
    상기 차선 정보는 상기 차량이 위치되는 차선을 나타내기 위해 사용되고, 상기 차량 거리 정보는 상기 전방 차량까지의 거리 및/또는 상기 후방 차량까지의 거리를 나타내기 위해 사용되고, 상기 상대 속도 정보는 상기 전방 차량에 대한 속도 및/또는 상기 후방 차량에 대한 속도를 나타내기 위해 사용되는 장치.
  11. 제10항에 있어서,
    상기 인식 유닛은:
    상기 도로 이미지에 포함된 차선 라인을 인식하고, 상기 차선 라인에 따라 상기 차선 정보를 결정하고;
    상기 운전 비디오에서 상기 차량 이미지의 이미지 위치를 인식하고, 상기 이미지 위치 및 미리 설정된 거리 스케일에 따라 상기 차량 거리 정보를 결정하고- 상기 미리 설정된 거리 스케일은 상기 운전 비디오에서의 상이한 이미지 위치들과 실제 거리들 사이의 맵핑 관계를 나타내기 위해 사용됨 -; 및/또는
    상기 운전 비디오에서 상기 차량 이미지의 이미지 위치를 인식하고, 상기 이미지 위치의 변화에 따라 상기 상대 속도 정보를 결정하도록 추가로 구성되는 장치.
  12. 제10항에 있어서,
    상기 운전 비디오 인식 결과는 상기 차선 정보 및 상기 차량 거리 정보를 포함하고, 상기 차량 주행 정보는 조향 정보를 포함하고;
    상기 제1 결정 유닛은:
    상기 차선 정보가 변하고, 상기 차량 거리 정보가 상기 전방 차량까지의 거리가 제1 임계값보다 작다는 것을 나타내고, 상기 조향 정보가 방향 지시등이 턴온되지 않았다는 것을 나타내는 경우, 제1 위험 운전 거동이 있는 것으로 결정하도록 구성되고, 상기 제1 위험 운전 거동은 차선으로부터 벗어나는 운전 거동인 장치.
  13. 제10항에 있어서,
    상기 운전 비디오 인식 결과는 상기 차량 거리 정보 및 상기 상대 속도 정보를 포함하고, 상기 차량 주행 정보는 현재 속도를 포함하고;
    상기 제1 결정 유닛은:
    상기 현재 속도에 대응하는 안전 제동 거리를 결정하고, 상기 차량 거리 정보가 상기 전방 차량까지의 거리가 상기 안전 제동 거리보다 작다는 것을 나타내고 상기 상대 속도 정보가 상기 현재 속도가 상기 전방 차량의 속도보다 크다는 것을 나타내는 경우, 제2 위험 운전 거동이 있는 것으로 결정하도록 구성되고, 상기 제2 위험 운전 거동은 차량들 사이의 과도하게 짧은 거리를 유지하는 운전 거동인 장치.
  14. 제10항에 있어서,
    상기 운전 비디오 인식 결과는 상기 차량 거리 정보를 포함하고, 상기 차량 주행 정보는 현재 가속도를 포함하고;
    상기 제1 결정 유닛은:
    상기 차량 거리 정보가 상기 전방 차량까지의 거리가 제2 임계값보다 크고 상기 후방 차량까지의 거리가 제3 임계값보다 작다는 것을 나타내고, 상기 현재 가속도가 상기 차량이 제동 중이라는 것을 나타내는 경우, 제3 위험 운전 거동이 있는 것으로 결정하도록 구성되고, 상기 제3 위험 운전 거동은 긴급 제동을 가하는 운전 거동인 장치.
  15. 제12항 내지 제14항 중 어느 한 항에 있어서,
    상기 장치는:
    상기 위험 운전 거동의 위험 레벨을 결정하도록 구성된 제2 결정 모듈; 및
    상기 위험 운전 거동의 발생 빈도, 상기 위험 레벨 및 상기 위험 운전 거동에 대응하는 가중치에 따라 업데이트 데이터를 계산하도록 구성된 계산 모듈- 상기 업데이트 데이터는 상기 차량에 대응하는 운전 거동 데이터를 업데이트하기 위해 사용됨 -을 추가로 포함하는 장치.
  16. 제15항에 있어서,
    상기 제2 결정 모듈은:
    상기 위험 운전 거동이 상기 제1 위험 운전 거동인 경우, 상기 현재 속도 및 교통 흐름에 따라 상기 위험 레벨을 결정하도록 구성된 제2 결정 유닛; 또는
    상기 위험 운전 거동이 상기 제2 위험 운전 거동 또는 상기 제3 위험 운전 거동인 경우, 상기 현재 속도 및 현재 차량 거리에 따라 상기 위험 레벨을 결정하도록 구성된 제3 결정 유닛을 포함하고,
    상기 현재 속도는 상기 위험 레벨과 양의 상관을 갖고, 상기 교통 흐름은 상기 위험 레벨과 양의 상관을 갖고, 상기 현재 차량 거리는 상기 위험 레벨과 음의 상관을 갖는 장치.
  17. 운전 거동 결정 디바이스로서,
    프로세서 및 메모리를 포함하고, 상기 메모리는 적어도 하나의 명령어를 저장하고, 상기 적어도 하나의 명령어는 제1항 내지 제9항 중 어느 한 항에 따른 상기 운전 거동 결정 방법을 구현하기 위해 상기 프로세서에 의해 로딩되고 실행되는 디바이스.
  18. 컴퓨터 판독가능 저장 매체로서,
    상기 저장 매체는 적어도 하나의 명령어를 저장하고, 상기 적어도 하나의 명령어는 제1항 내지 제9항 중 어느 한 항에 따른 상기 운전 거동 결정 방법을 구현하기 위해 프로세서에 의해 로딩되고 실행되는 컴퓨터 판독가능 저장 매체.
KR1020197025758A 2017-03-06 2018-02-09 운전 거동 결정 방법, 디바이스, 장비 및 저장 매체 KR20190115040A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201710127810.7 2017-03-06
CN201710127810.7A CN108288312A (zh) 2017-03-06 2017-03-06 驾驶行为确定方法及装置
PCT/CN2018/075954 WO2018161774A1 (zh) 2017-03-06 2018-02-09 驾驶行为确定方法、装置、设备及存储介质

Publications (1)

Publication Number Publication Date
KR20190115040A true KR20190115040A (ko) 2019-10-10

Family

ID=62831524

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020197025758A KR20190115040A (ko) 2017-03-06 2018-02-09 운전 거동 결정 방법, 디바이스, 장비 및 저장 매체

Country Status (7)

Country Link
US (1) US10913461B2 (ko)
EP (1) EP3561780A4 (ko)
JP (1) JP7072763B2 (ko)
KR (1) KR20190115040A (ko)
CN (1) CN108288312A (ko)
TW (1) TWI670191B (ko)
WO (1) WO2018161774A1 (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021206489A1 (ko) * 2020-04-08 2021-10-14 주식회사 별따러가자 운행 기록을 분석하는 방법 및 시스템, 및 운행 기록 장치
KR20210125398A (ko) * 2020-04-08 2021-10-18 주식회사 별따러가자 운행 기록을 분석하는 방법 및 시스템, 및 운행 기록 장치
KR20240052220A (ko) 2022-10-14 2024-04-23 강성호 고기의 스틱형 양념 주입 방법 및 그 주입 조리 방법
KR20240052218A (ko) 2022-10-14 2024-04-23 강성호 고기양념 주입시스템

Families Citing this family (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9754338B2 (en) 2015-10-09 2017-09-05 Gt Gettaxi Limited System to facilitate a correct identification of a service provider
US10636108B2 (en) 2016-09-30 2020-04-28 Lyft, Inc. Identifying matched requestors and providers
WO2018229550A1 (en) * 2017-06-16 2018-12-20 Nauto Global Limited System and method for adverse vehicle event determination
CN111971720B (zh) * 2018-03-30 2022-08-30 松下知识产权经营株式会社 驾驶辅助装置、车辆、不当驾驶探测系统以及服务器装置
CN108860162B (zh) * 2018-07-18 2022-02-15 平安科技(深圳)有限公司 电子装置、基于用户驾驶行为的安全预警方法及存储介质
CN108860158B (zh) * 2018-07-27 2021-08-24 平安科技(深圳)有限公司 车辆、车险防欺诈预警及存储介质
JP7155750B2 (ja) * 2018-08-23 2022-10-19 トヨタ自動車株式会社 情報システムおよびプログラム
JP7070278B2 (ja) * 2018-09-20 2022-05-18 株式会社デンソー ドライブレコーダ及び状況情報管理システム
CN109447127A (zh) * 2018-09-29 2019-03-08 深圳市元征科技股份有限公司 数据处理方法及装置
WO2020085223A1 (ja) * 2018-10-22 2020-04-30 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 情報処理方法、情報処理装置、情報処理プログラム及び情報処理システム
JP7163152B2 (ja) * 2018-11-28 2022-10-31 京セラ株式会社 画像処理装置、撮像装置、移動体及び画像処理方法
CN109801490A (zh) * 2018-12-10 2019-05-24 百度在线网络技术(北京)有限公司 行驶数据处理方法、装置、设备及计算机可读存储介质
CN109887124B (zh) * 2019-01-07 2022-05-13 平安科技(深圳)有限公司 车辆运动数据的处理方法、装置、计算机设备、存储介质
CN111526311B (zh) * 2019-01-17 2023-02-28 北京嘀嘀无限科技发展有限公司 驾驶用户行为的判断方法、系统、计算机设备及存储介质
JP2020160481A (ja) * 2019-03-25 2020-10-01 株式会社野村総合研究所 異常判定装置
US11157784B2 (en) * 2019-05-08 2021-10-26 GM Global Technology Operations LLC Explainable learning system and methods for autonomous driving
EP3973695A4 (en) * 2019-05-23 2023-08-02 Streetscope, Inc. DEVICE AND METHOD FOR PROCESSING VEHICLE SIGNALS TO CALCULATE A BEHAVIORAL RISK MEASURE
US11910452B2 (en) 2019-05-28 2024-02-20 Lyft, Inc. Automatically connecting wireless computing devices based on recurring wireless signal detections
CN111832376A (zh) * 2019-07-18 2020-10-27 北京骑胜科技有限公司 一种车辆逆行检测方法、装置、电子设备及存储介质
CN110766826B (zh) * 2019-09-10 2023-07-25 中国平安财产保险股份有限公司 一种驾驶行为分析方法
CN110784845B (zh) * 2019-09-12 2021-07-16 腾讯科技(深圳)有限公司 一种基于车联网的属性数据的平衡方法、装置、电子设备及存储介质
CN110737736B (zh) * 2019-09-16 2024-02-09 连尚(新昌)网络科技有限公司 一种获取车况地图信息的方法与设备
EP3819891A1 (en) * 2019-11-07 2021-05-12 Ningbo Geely Automobile Research & Development Co. Ltd. Threat mitigation for vehicles
JP2021096530A (ja) * 2019-12-13 2021-06-24 トヨタ自動車株式会社 運転支援装置、運転支援プログラムおよび運転支援システム
CN111191949B (zh) * 2020-01-03 2022-06-17 北京三快在线科技有限公司 网约车辆异常行驶行为识别方法、装置、电子设备
CN111260882A (zh) * 2020-02-04 2020-06-09 上海博泰悦臻电子设备制造有限公司 一种驾驶行为的提醒方法、系统及服务器
CN111326019A (zh) * 2020-02-27 2020-06-23 腾讯科技(深圳)有限公司 驾驶风险预警方法及装置、计算机介质和电子设备
JP2021152701A (ja) * 2020-03-24 2021-09-30 株式会社東芝 運転特性評価装置及び運転特性評価プログラム
US11887386B1 (en) * 2020-03-30 2024-01-30 Lyft, Inc. Utilizing an intelligent in-cabin media capture device in conjunction with a transportation matching system
JP7371562B2 (ja) * 2020-04-08 2023-10-31 トヨタ自動車株式会社 情報処理装置、情報処理システム、及び、プログラム
CN111619561B (zh) * 2020-05-22 2022-01-14 安徽江淮汽车集团股份有限公司 自动驾驶汽车的逃逸救生方法、装置、设备及存储介质
CN111832901A (zh) * 2020-06-17 2020-10-27 北京嘀嘀无限科技发展有限公司 网约车监控方法、装置、服务器和存储介质
US11644835B2 (en) 2020-07-29 2023-05-09 Toyota Research Institute, Inc. Game-theoretic planning for risk-aware interactive agents
CN111951548B (zh) * 2020-07-30 2023-09-08 腾讯科技(深圳)有限公司 一种车辆驾驶风险确定方法、装置、系统及介质
CN112258837B (zh) * 2020-10-19 2024-04-12 腾讯科技(深圳)有限公司 一种车辆预警的方法、相关装置、设备以及存储介质
CN112810617A (zh) * 2021-01-04 2021-05-18 宝能(西安)汽车研究院有限公司 驾驶行为分析系统的控制方法、控制装置和系统
CN113112866B (zh) * 2021-04-14 2022-06-03 深圳市旗扬特种装备技术工程有限公司 一种智能交通预警方法及智能交通预警系统
CN113071505B (zh) * 2021-04-16 2024-02-13 阿波罗智联(北京)科技有限公司 驾驶行为习惯的确定、车辆行驶控制方法、装置及设备
JP7447870B2 (ja) * 2021-06-04 2024-03-12 トヨタ自動車株式会社 情報処理サーバ、情報処理サーバの処理方法、プログラム
CN113500993B (zh) * 2021-06-21 2022-09-20 上汽通用五菱汽车股份有限公司 防碰撞功能参数的标定方法、车辆及可读存储介质
CN113611007B (zh) * 2021-08-05 2023-04-18 北京百姓车服网络科技有限公司 一种数据处理方法及数据采集系统
CN113619609A (zh) * 2021-09-18 2021-11-09 北京声智科技有限公司 一种危险提示方法、装置、电子设备和计算机可读介质
CN114023109B (zh) * 2021-11-03 2023-06-30 中国矿业大学 一种用于移动罐车防追尾的预警系统
TWI816233B (zh) * 2021-11-19 2023-09-21 公信電子股份有限公司 車門控制系統及其方法
CN114103985A (zh) * 2021-11-26 2022-03-01 国汽智控(北京)科技有限公司 一种基于障碍物的提示方法、装置和设备
CN114419888A (zh) * 2022-01-21 2022-04-29 北京汇通天下物联科技有限公司 一种货运车辆的安全预警方法、装置、设备及存储介质
CN114973669B (zh) * 2022-05-23 2023-09-26 江苏智行未来汽车研究院有限公司 基于车路协同的公路危险环境预警方法、装置及介质
CN115376335B (zh) * 2022-10-25 2023-01-31 创辉达设计股份有限公司 一种城市道路交织区多目标优化控制方法及装置
CN115966100B (zh) * 2022-12-19 2023-11-03 深圳市昂星科技有限公司 一种行车安全控制方法及系统
CN116644585B (zh) * 2023-05-30 2024-01-09 清华大学 基于目标车辆危险度的险态场景数据生成方法和装置

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4075172B2 (ja) 1998-12-24 2008-04-16 マツダ株式会社 車両の障害物警報装置
CN101161524B (zh) * 2006-10-12 2010-10-27 财团法人车辆研究测试中心 侦测车距的方法与装置
CN101778741B (zh) * 2007-07-24 2012-12-19 日产自动车株式会社 车辆驾驶辅助系统、方法和带车辆驾驶辅助系统的车辆
JP4995046B2 (ja) * 2007-11-21 2012-08-08 株式会社日立製作所 自動車保険料設定システム
US9073405B2 (en) * 2011-07-14 2015-07-07 Sk Planet Co., Ltd. Apparatus and method for a telematics service
CN103043021A (zh) * 2013-01-04 2013-04-17 浙江海康集团有限公司 一种集成五路视频检测的全方位汽车主动安全系统
US20140379384A1 (en) * 2013-06-24 2014-12-25 Elwha, Llc System and method for monitoring driving to determine an insurance property
US20140379385A1 (en) * 2013-06-24 2014-12-25 Elwha, Llc System and method for monitoring driving to determine an insurance property
DE102013021866A1 (de) * 2013-12-20 2015-06-25 Audi Ag Verfahren zum Bereitstellen einer Funktion eines Kraftfahrzeugs
JP2015184968A (ja) 2014-03-25 2015-10-22 株式会社日立製作所 運転特性診断方法
CN104077819B (zh) * 2014-06-17 2015-03-18 深圳前向启创数码技术有限公司 基于行车安全的远程监控方法及系统
US11030696B1 (en) * 2014-07-21 2021-06-08 State Farm Mutual Automobile Insurance Company Methods of providing insurance savings based upon telematics and anonymous driver data
CN104260723B (zh) * 2014-09-29 2018-03-06 长安大学 一种后方车辆运动状态追踪预测装置及预测方法
JP6486640B2 (ja) * 2014-10-09 2019-03-20 株式会社日立製作所 運転特性診断装置、運転特性診断システム、運転特性診断方法、情報出力装置、情報出力方法
JP6480143B2 (ja) * 2014-10-09 2019-03-06 株式会社日立製作所 運転特性診断装置、運転特性診断システム、運転特性診断方法
US9836062B1 (en) * 2015-01-20 2017-12-05 State Farm Mutual Automobile Insurance Company Analyzing telematics data to determine travel events and corrective actions
JP2016197378A (ja) 2015-04-06 2016-11-24 株式会社リコー 運転特性評価用情報提供システムおよび提供方法
JP6052530B1 (ja) * 2015-04-21 2016-12-27 パナソニックIpマネジメント株式会社 情報処理システム、情報処理方法、およびプログラム
CN106447496A (zh) * 2015-08-06 2017-02-22 平安科技(深圳)有限公司 车险保单自动生成方法、车辆、电子设备及保险服务器
US9996756B2 (en) * 2015-08-31 2018-06-12 Lytx, Inc. Detecting risky driving with machine vision
CN105206052B (zh) * 2015-09-21 2018-05-11 张力 一种驾驶行为分析方法及设备
CN105261225A (zh) * 2015-09-30 2016-01-20 肖建辉 改良驾驶行为习惯的监测系统
CN105894610A (zh) * 2015-11-11 2016-08-24 乐卡汽车智能科技(北京)有限公司 数据处理方法、装置及系统
CN105698874B (zh) * 2016-04-12 2018-02-02 吉林大学 车辆行驶状态突变检测装置
CN105956625B (zh) * 2016-05-11 2019-07-05 清华大学深圳研究生院 一种基于给定物理模型的汽车运动状态识别方法及系统

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021206489A1 (ko) * 2020-04-08 2021-10-14 주식회사 별따러가자 운행 기록을 분석하는 방법 및 시스템, 및 운행 기록 장치
KR20210125398A (ko) * 2020-04-08 2021-10-18 주식회사 별따러가자 운행 기록을 분석하는 방법 및 시스템, 및 운행 기록 장치
KR20240052220A (ko) 2022-10-14 2024-04-23 강성호 고기의 스틱형 양념 주입 방법 및 그 주입 조리 방법
KR20240052218A (ko) 2022-10-14 2024-04-23 강성호 고기양념 주입시스템

Also Published As

Publication number Publication date
JP2020513617A (ja) 2020-05-14
EP3561780A4 (en) 2020-02-26
EP3561780A1 (en) 2019-10-30
WO2018161774A1 (zh) 2018-09-13
JP7072763B2 (ja) 2022-05-23
US20190283763A1 (en) 2019-09-19
TWI670191B (zh) 2019-09-01
CN108288312A (zh) 2018-07-17
US10913461B2 (en) 2021-02-09
TW201832962A (zh) 2018-09-16

Similar Documents

Publication Publication Date Title
KR20190115040A (ko) 운전 거동 결정 방법, 디바이스, 장비 및 저장 매체
US10748446B1 (en) Real-time driver observation and progress monitoring
US10234867B2 (en) Information processing device, vehicle-mounted device, and information processing method
CN110979318B (zh) 车道信息获取方法、装置、自动驾驶车辆及存储介质
US20200106848A1 (en) Method for Pushing Multimedia Information, Non-Transitory Computer Readable Storage Medium, and Electronic Device
CN109977845B (zh) 一种可行驶区域检测方法及车载终端
US10254123B2 (en) Navigation system with vision augmentation mechanism and method of operation thereof
CN108051010B (zh) 确定到达目的地的时间的方法及移动终端
CN112258837A (zh) 一种车辆预警的方法、相关装置、设备以及存储介质
CN111985373A (zh) 基于交通路口识别的安全预警方法、装置及电子设备
CN115762138A (zh) 路面状况的提醒方法、装置、电子设备及存储介质
CN112689587A (zh) 考虑到在要求接管驾驶任务时驾驶员的非驾驶任务活动的可中断性而分类非驾驶任务活动的方法及因要求接管驾驶任务而中断非驾驶任务活动后重新释放非驾驶任务活动的方法
CN114677848B (zh) 感知预警系统、方法、装置及计算机程序产品
JP6600344B2 (ja) 車両制御装置、車両制御方法、及び、車両制御装置の制御プログラム
JP7186749B2 (ja) 管理システム、管理方法、管理装置、プログラム及び通信端末
CN113494921B (zh) 自动驾驶方法及装置
JPWO2019131388A1 (ja) 運転支援装置、運転支援システム、運転支援方法、及び、運転支援プログラム
KR102319383B1 (ko) 블랙박스 영상을 이용하여 교통 법규 위반 차량을 자동으로 신고하는 장치 및 방법
CN102346037B (zh) 可提供安全警示的个人导航装置及其提供安全警示的方法
CN109855643B (zh) 一种车道引导方法及导航设备
CN113299098A (zh) 交通路口车辆引导方法及装置
KR20210117129A (ko) 사용자 단말 장치, 서버 및 이들을 이용한 운전자 주행 정보 제공 방법
KR20200062025A (ko) 다중 로그 분석을 기반으로 차량 위험을 처리하는 방법 및 장치
CN112298184B (zh) 基于人工智能的驾驶切换方法、装置、设备和存储介质
KR102448710B1 (ko) 딥러닝 기반 출차관리 방법 및 시스템

Legal Events

Date Code Title Description
A201 Request for examination
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X601 Decision of rejection after re-examination
J201 Request for trial against refusal decision
J301 Trial decision

Free format text: TRIAL NUMBER: 2021101000719; TRIAL DECISION FOR APPEAL AGAINST DECISION TO DECLINE REFUSAL REQUESTED 20210322

Effective date: 20220427