KR20220156904A - 운전자 스크리닝 - Google Patents

운전자 스크리닝 Download PDF

Info

Publication number
KR20220156904A
KR20220156904A KR1020227036562A KR20227036562A KR20220156904A KR 20220156904 A KR20220156904 A KR 20220156904A KR 1020227036562 A KR1020227036562 A KR 1020227036562A KR 20227036562 A KR20227036562 A KR 20227036562A KR 20220156904 A KR20220156904 A KR 20220156904A
Authority
KR
South Korea
Prior art keywords
driver
vehicle
data
ann
mobile device
Prior art date
Application number
KR1020227036562A
Other languages
English (en)
Inventor
로버트 리차드 노엘 비엘비
Original Assignee
마이크론 테크놀로지, 인크.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 마이크론 테크놀로지, 인크. filed Critical 마이크론 테크놀로지, 인크.
Publication of KR20220156904A publication Critical patent/KR20220156904A/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/08Detecting, measuring or recording devices for evaluating the respiratory organs
    • A61B5/082Evaluation by breath analysis, e.g. determination of the chemical composition of exhaled breath
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/02Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof
    • B60R11/0247Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof for microphones or earphones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W40/09Driving style or behaviour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/24323Tree-organised classifiers
    • G06K9/6282
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • G06N5/003
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/01Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/26Government or public services
    • G06Q50/265Personal security, identity or safety
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/40Business processes related to the transportation industry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • G06V10/95Hardware or software architectures specially adapted for image or video understanding structured as a network, e.g. client-server architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/70Multimodal biometrics, e.g. combining information from different biometric modalities
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/40Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the details of the power supply or the coupling to vehicle components
    • B60R2300/408Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the details of the power supply or the coupling to vehicle components using a data bus
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0818Inactivity or incapacity of driver
    • B60W2040/0836Inactivity or incapacity of driver due to alcohol
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0872Driver physiology
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/089Driver voice
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/22Psychological state; Stress level or workload
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/221Physiology, e.g. weight, heartbeat, health or special needs
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/223Posture, e.g. hand, foot, or seat position, turned or inclined
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/24Drug level, e.g. alcohol
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Medical Informatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Mechanical Engineering (AREA)
  • Computational Linguistics (AREA)
  • Human Computer Interaction (AREA)
  • Business, Economics & Management (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Tourism & Hospitality (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Primary Health Care (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Marketing (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Computer Security & Cryptography (AREA)

Abstract

차량의 운전자의 하나 이상의 이미지를 레코딩하도록 구성된 하나 이상의 카메라를 갖는 차량. 카메라(들)는 이미지(들)로부터 도출된 생체 이미지 데이터를 발송하도록 구성될 수 있다. 차량은 생체 데이터를 수신하고 수신된 생체 데이터 및 ANN 또는 의사결정 트리와 같은 AI 기술에 기초하여 운전자의 위험 스코어를 결정하도록 구성된 컴퓨팅 시스템을 포함할 수 있다. 수신된 생체 데이터 또는 그 파생물은 AI 기술을 위해 입력될 수 있다. 컴퓨팅 시스템은 또한 고객이 승차를 위해 차량을 예약할지 여부를 결정할 수 있도록 운전자의 위험 스코어를 고객에게 송신하도록 구성될 수 있다.

Description

운전자 스크리닝
관련 출원
본 출원은 "운전자 스크리닝(DRIVER SCREENING)"라는 제목으로 2020년 4월 21일에 출원된 미국 특허 출원 일련 번호 제16/854,634호에 대한 우선권을 주장하고, 이의 전문이 본 명세서에 참고로 통합된다.
기술 분야
본 명세서에 개시된 적어도 일부 실시예들은 운전자 스크리닝을 위한 네트워크화된 시스템에 관한 것이다. 예를 들어, 본 명세서에 개시된 적어도 일부 실시예들은 승차 공유 서비스(ridesharing service)들을 위한 운전자 스크리닝(driver screening)을 위한 네트워크화된 시스템에 관한 것이다.
승차 공유는 미국에서 널리 퍼진 교통 수단이 되었고 전세계적으로 성장하고 있다. 승차 공유 서비스는 웹사이트 또는 다른 유형의 애플리케이션을 통해 승객과 운전자 또는 차량을 연결한다. 현재는, 여러 승차 공유 서비스가 모바일 앱을 통해 고객과 차량을 매칭시키고 있다. 자동차(automobile)를 위한 승차 공유 서비스는 라이드헤일링 서비스(ride-hailing service)로 지칭될 수 있으며, 이러한 서비스는 항공기 및 선박을 포함한 다른 유형의 차량과의 승차 공유에도 이용 가능하다.
승차 공유 서비스는 택시 서비스가 정기적으로 제공되지 않는 인구가 적거나 빈약한 지역에서 보편화되었다. 또한, 승차 공유는 적어도 이러한 서비스가 택시 서비스보다 비용이 저렴하다는 인식이 있기 때문에 널리 보급되었다. 또한, 승차 공유는 이 같은 서비스가 운영되는 일부 도시에서 음주 운전율을 낮추는 것으로 나타났기 때문에 유익하다.
승차 공유에 대한 하나의 예시적인 문제는 적어도 택시 또는 전문 승차 서비스를 호출하는 것보다 덜 안전한 것으로 인식된다는 것이다. 다만 사기 승차 공유 서비스에 대한 우려는 물론 안전상의 우려를 극복하기 위한 조치들이 이뤄지고 있다. 반면, 술에 취했거나, 사기적이거나, 호전적인 고객은 운전자에게 문제를 일으킬 수 있다. 또한, 피곤하거나, 술에 취하거나, 기만하거나, 공격적인 운전자들이 고객들에게 문제를 일으킬 수 있다.
운전자는 물론 고객까지 보호하기 위해 도시, 주, 국가에서 승차 공유 서비스를 규제해 왔다. 일부 지역에서는, 안전상의 우려와 택시 회사들의 로비로 인해 승차 공유가 금지되었다. 승차 공유 서비스에 대한 규정에는 운전자 신원 조회(background check), 요금, 운전자 수, 면허, 운전자 임금 등의 요건이 포함될 수 있다.
본 개시는 본 개시의 다양한 실시예들에 대한 이하의 상세한 설명 및 첨부 도면들로부터 보다 완전하게 이해될 것이다.
도 1은 본 개시의 일부 실시예들에 따른 승차 공유 서비스들을 위한 운전자 스크리닝의 양태들을 구현하도록 구성된 예시적인 차량의 다이어그램을 예시한다.
도 2 내지 도 4는 본 개시의 일부 실시예들에 따른 적어도 모바일 디바이스들 및 차량들 뿐만 아니라 승차 공유 서비스 시스템(RSSS)을 포함하고 승차 공유 서비스들에 대한 운전자 스크리닝을 구현하도록 구성된 예시적인 네트워크화된 시스템을 예시한다.
도 5 내지 도 6은 본 개시의 일부 실시예들에 따른 도 1에 도시된 차량 또는 도 2 내지 도 4에 도시된 네트워크화된 시스템의 양태들에 의해 수행될 수 있는 예시적인 동작들의 흐름도들을 예시한다.
본 명세서에 개시된 적어도 일부 실시예들은 운전자 스크리닝(driver screening)을 위한 네트워크화된 시스템에 관한 것이다. 예를 들어, 본 명세서에 개시된 적어도 일부 실시예들은 승차 공유 서비스들을 위한 운전자 스크리닝을 위한 네트워크화된 시스템에 관한 것이다. 일부 실시예에서, 택시 또는 승차 공유 서비스의 차량은 택시 또는 차량 내부의 운전자의 사진을 촬영하거나 비디오를 레코딩(record)하고 운전자의 위험 스코어(risk score)를 생성할 수 있다. 위험 스코어는 운전자가 너무 피곤하거나, 술에 취하거나, 불안정하여 운전을 할 수 없는지 여부와 관련될 수 있다. 스코어(score)는 심지어 운전자의 정신 상태 또는 안정성 뿐만 아니라 운전자의 취한 수준 또는 피로 수준과 관련될 수 있다. 스코어는 또한 운전자의 차체 또는 인지 장애, 운전자의 범죄 이력 및 운전자의 승차 이력과 관련될 수 있다. 고객은, 모바일 디바이스를 통해, 승차를 예약할 때 위험 스코어를 제시받을 수 있다. 또한, 위험 스코어가 임계치를 초과할 때 타는 사람(rider)에게 경고되거나 운전자를 거부하도록 프롬프트(prompt)될 수 있다. 이는 고객이 승차를 예약하기 위해 모바일 디바이스를 사용할 때 발생할 수 있다. 달리 말하면, 택시를 예약하거나 승차 공유를 예약할 때, 차량은 운전자의 사진을 촬영하고 운전자의 수행 준비 수준(예를 들어, 운전자가 피곤한지, 반응이 느리는지, 술에 취했는지, 피크 수행 수준에 대한 현재 수행 수준, 운전 스타일 등)을 평가할 수 있다. 그런 다음 평가는 운전자를 승차 예약할지 여부를 결정하는 동안 택시 또는 승차 공유의 잠재적 고객에게 송신될 수 있다.
일부 실시예에서, 운전자 스크리닝을 위한 네트워크화된 시스템은 위험 스코어를 생성하는데 있어 인공 지능(AI)을 사용한다. 인공 신경망(ANN), 컨볼루션 신경망(CNN) 등과 같은 AI 기술은 입력 데이터에서 패턴을 인식하고 위험 스코어를 생성하도록 트레이닝될 수 있다. 전통적인 선형 컴퓨터 프로그래밍 기술이 엄격한 규칙을 따르는 경우, ANN, CNN 등과 같은 AI 기술은 변화하는 입력에 따라 학습하고 적응하기 위해 기계 학습(machine learning)을 사용할 수 있다. 변화하는 입력에 따라 학습하고 적응하는 이러한 능력은 AI 기술을 운전자 스크리닝을 위한 네트워크화된 시스템의 유용한 컴포넌트로 만들 수 있다.
일반적으로, ANN은 지도 방법(supervised method)을 사용하여 트레이닝될 수 있으며, 여기서 ANN의 파라미터들은 개개의 입력들로부터 초래된 알려진 출력들과 ANN에 입력들을 인가함으로써 생성된 계산된 출력들 사이의 에러를 최소화하거나 감소시키도록 조정된다. 지도 학습/트레이닝 방법의 예는 강화 학습(reinforcement learning) 및 오류 수정 학습(learning with error correction)을 포함한다.
대안적으로, 또는 조합하여, ANN은 주어진 입력들의 세트로부터 발생하는 정확한 출력들이 트레이닝의 완료 전에 알려지지 않는 비지도 방법(unsupervised method)을 사용하여 트레이닝될 수 있다. ANN은 아이템을 복수의 카테고리들로 분류하거나, 데이터 포인트들을 클러스터(cluster)들로 분류하도록 트레이닝될 수 있다. 정교한 기계 러닝/트레이닝 패러다임을 위해 다수의 트레이닝 알고리즘들이 채용될 수 있다.
일부 실시예들에서, 특정 사용자에 대한 승차 공유 서비스의 시스템을 트레이닝하기 위해, 고객 또는 승객은 운전자들의 샘플 이미지들을 보고 개개의 위험 스코어를 부여할 수 있다. 그런 다음, 시스템은 인공 지능을 사용하여 고객에 유사하게 위험 스코어를 제공하거나 일반적으로 이러한 입력에 기초하여 서비스의 고객을 공유하는 것을 학습할 수 있다. 학습(또는 기계 학습)은 운전자들의 이미지들의 세트들 및 대응하는 위험 스코어들과 같은 데이터세트를 사용하여 수행될 수 있다. 예를 들어, 고객이 잠시 운전자를 관찰함으로써(예를 들어, 시스템의 승차 공유 앱을 사용하여) 운전자의 위험 스코어를 결정할 기회가 주어지면, 고객 또는 승객이 관찰한 것이 유사하게 카메라에 의해 관찰될 수 있다. 시스템은 고객이 위험 스코어를 어떻게 결정하는지를 결정할 수 없지만, 시스템은 고객(또는 일반적으로 서비스의 고객들)에 의해 생성된 위험 스코어들과 AI 기술에 의해 계산된 스코어들 사이의 차이를 최소화하기 위해 ANN, CNN 또는 의사결정 트리와 같은 AI 기술의 파라미터들을 트레이닝하거나 조정할 수 있다. AI 기술에 입력되는 데이터세트는 다른 생체 입력(예를 들어, 음성으로부터의 사운드, 음주 측정기로부터의 알코올 함량, 체온 등)을 추가함으로써 더 복잡하게 만들어질 수 있다. 각각의 추가 데이터세트로, AI 기술은 위험 스코어를 지속적으로 학습하고 적응하며 정제한다. 이러한 기계 학습은 지도 기계 학습(supervised machine learning)으로 간주될 수 있다.
일부 실시예들에서, 차량은 시간 기간 동안 차량 내의 운전자의 적어도 하나의 이미지를 레코딩(record)하도록 구성된 적어도 하나의 카메라를 포함할 수 있다. 카메라(들)는 또한 운전자의 적어도 하나의 이미지로부터 도출된 이미지 데이터를 발송하도록 구성될 수 있다. 적어도 하나의 이미지의 레코딩은 승차를 위해 차량을 예약할지 여부를 결정하는 고객에 의한 운전자의 평가에 대한 요청에 응답하여 발생할 수 있다. 요청은 그 시간 기간 동안 발생할 수 있다.
차량은 또한 적어도 하나의 카메라로부터 이미지 데이터를 수신하고, 수신된 이미지 데이터 및 AI 기술에 기초하여 시간 기간에 대한 운전자의 위험 스코어를 결정하도록 구성된 컴퓨팅 시스템을 포함할 수 있다. AI 기술은 ANN, 의사결정 트리(decision tree), 또는 다른 유형의 AI 툴(tool), 또는 이들의 임의의 조합을 포함할 수 있다. 수신된 생체 데이터 또는 그 파생물은 일반적으로 AI 기술에 대해 또는 구체적으로 ANN, 의사결정 트리, 또는 다른 유형의 AI 툴, 또는 이들의 임의의 조합에 대해 입력될 수 있다. 컴퓨팅 시스템은 또한 고객이 승차를 위해 차량을 예약할지 여부를 결정할 수 있도록 운전자의 위험 스코어를 고객에게 송신하도록 구성될 수 있다.
일부 실시예들에서, 차량은 시간 기간 동안 운전자의 적어도 하나의 비시각적 생체 피처(biometric feature)를 감지하고 운전자의 적어도 하나의 감지된 비시각적 생체 피처로부터 도출된 비시각적 생체 데이터를 발송하도록 구성된 적어도 하나의 센서를 포함할 수 있다. 이러한 실시예들 및 다른 실시예들에서, 컴퓨팅 시스템은 적어도 하나의 센서로부터 비시각적(non-visual) 생체 데이터를 수신하고, 수신된 이미지 데이터, 수신된 비시각적 생체 데이터 및 AI 기술에 기초하여 그 시간 기간 동안 운전자의 위험 스코어를 결정하도록 구성될 수 있다. 수신된 비시각적 생체 데이터 또는 그 파생물은 일반적으로 또는 구체적으로 ANN, 의사결정 트리, 또는 다른 유형의 AI 툴, 또는 이들의 임의의 조합에 대한 AI 기술에 대해 입력될 수 있다.
일부 실시예에서, 적어도 하나의 센서는 시간 기간 동안 운전자의 혈액 알코올 함량을 감지하도록 구성된 음주 측정기를 포함할 수 있고, 적어도 하나의 센서는 감지된 혈액 알코올 함량으로부터 도출된 데이터를 비시각적 생체 데이터의 적어도 일부로서 발송하도록 구성된다. 이러한 실시예들 및 다른 실시예들에서, 적어도 하나의 센서는 시간 기간 동안 운전자의 체온을 감지하도록 구성된 온도계를 포함할 수 있고, 적어도 하나의 센서는 감지된 체온으로부터 도출된 데이터를 비시각적 생체 데이터의 적어도 일부로서 발송하도록 구성될 수 있다. 이러한 실시예들 및 다른 실시예들에서, 적어도 하나의 센서는 시간 기간 동안 운전자의 음성으로부터의 사운드를 오디오 신호로 변환하도록 구성된 마이크로폰(microphone)을 포함할 수 있고, 적어도 하나의 센서는 오디오 신호로부터 도출된 데이터를 비시각적 생체 데이터의 적어도 일부로서 발송하도록 구성될 수 있다.
일부 실시예들에서, 적어도 하나의 카메라로부터 발송된 수신된 이미지 데이터는 운전자의 자세에 대한 정보를 포함할 수 있다. 그리고, 이러한 실시예들 등에서, 적어도 하나의 카메라로부터 발송된 수신된 이미지 데이터는 운전자의 얼굴 특성들에 대한 정보를 포함할 수 있다.
일부 실시예에서, 차량의 컴퓨팅 시스템은 지도 학습을 사용하여 AI 기술을 트레이닝시키도록 구성된다. AI 기술의 지도 학습을 위한 입력은 샘플 운전자들의 이미지들의 이미지 데이터 및 샘플 운전자들의 이미지들에 대해 고객에 의해 결정된 위험 스코어들을 포함할 수 있다. 이러한 방식으로 (ANN 또는 의사결정 트리(decision tree)와 같은) AI 기술이 고객을 위해 구체적으로 맞춤화(customize)되고 트레이닝될 수 있다. 또한, AI 기술의 지도 학습을 위한 입력은 샘플 운전자들의 이미지들의 이미지 데이터 및 샘플 운전자들의 이미지들에 대한 승차 공유 서비스의 고객들에 의해 결정된 위험 스코어를 포함할 수 있다. 이렇게 하면 AI 기술이 향상되고 일반적으로 서비스의 고객을 위해 트레이닝될 수 있다. ANN의 지도 학습을 위한 입력은 또한 샘플 운전자들의 비시각적 생체 정보(biometric information) 및 샘플 운전자들의 비시각적 생체 정보에 대해 고객(또는 일반적으로 서비스의 고객들)에 의해 결정된 위험 스코어(risk score)를 포함할 수 있다.
일부 실시예들에서, 차량의 컴퓨팅 시스템은 승차 공유 서비스의 승차 공유 서비스 앱을 통해, 적어도 수신된 생체 데이터 및/또는 승차 공유 서비스의 운전자들의 데이터베이스에 기초하여 차량의 운전자의 신상 정보(biographical information)를 결정하도록 구성된다. 데이터베이스는 승차 공유 서비스에 대해 등록된 등록 운전자들에 대한 신상 정보를 저장할 수 있다. 또한, 저장된 신상 정보는 등록된 운전자들의 생체 특성 뿐만 아니라, 등록된 운전자들의 범죄 이력, 등록된 운전자들의 운전 거동 이력, 또는 등록된 운전자들의 서비스 또는 교통 위반 이력, 또는 이들의 임의의 조합 중 적어도 하나를 포함할 수 있다. 이러한 실시예들 및 다른 실시예들에서, 차량의 컴퓨팅 시스템은 수신된 생체 데이터, AI 기술, 및 운전자의 결정된 신상 정보에 기초하여 운전자의 위험 스코어를 결정하도록 구성될 수 있다. AI 기술에 대한 입력은 생체 데이터 또는 그 파생물 및/또는 결정된 신상 정보 또는 그 파생물들을 포함할 수 있다.
도 1은 본 개시의 일부 실시예들에 따른 승차 공유 서비스들을 위한 운전자 스크리닝의 양태들을 구현하도록 구성된 예시적인 차량(10)의 다이어그램을 예시한다. 도 1에 도시된 바와 같이, 차량(10)은 캐빈(cabin)(12)을 포함하고, 캐빈은 운전자 좌석(14a), 다른 앞 좌석(14b) 및 뒷 좌석(14c)를 포함한다. 캐빈(12)은 또한 운전자 좌석(14a)을 마주하는 카메라(16)를 포함한다. 카메라(16)는 화각(angle of view)(18)을 가지며, 이는 도 1에 도시된 실시예에서 180도 미만인 것으로 보인다. 화각(18)은 카메라(16)가 운전자 좌석(14a)에 앉아 있는 운전자의 적어도 하나의 이미지 또는 비디오를 레코딩할 수 있게 한다. 도시된 바와 같이, 화각(18)은 운전자의 머리(20) 뿐만 아니라 운전자의 우측 어깨(22b) 및 좌측 어깨(22a)를 포함하는 시야각(field of view)을 제공한다. 도시된 바와 같이, 카메라(16)는 차량(10)의 전방 또는 차량의 윈드실드(windshield)(윈드실드는 도 1에 도시되지 않음)로부터 멀리 향한다.
카메라(16)는 차량(10)의 캐빈(12) 내에 있는 것으로 도시되어 있다. 그러나, 운전자를 레코딩하기 위한 이러한 카메라는, 카메라가 운전자 좌석(14a) 내의 운전자의 이미지 또는 비디오 레코딩을 캡처하는 방식으로 위치되는 한, 차량의 임의의 부분에서 차량(10)에 위치되고 부착될 수 있다는 것이 이해되어야 한다. 도시된 바와 같이, 도 1은 차량의 캐빈(12)이 도시되도록 차량의 차체(body)의 지붕 아래의 차량(10)의 평면도를 도시한다. 또한, 도 1에 도시된 바와 같이, 카메라(16)는 넓은 수평 각도로부터 이미지들을 레코딩하도록 구성된 파노라마 카메라가 아니다; 그러나, 일부 실시예들에서, 카메라(12)는 파노라마 카메라일 수 있다. 운전자의 이미지(들)를 레코딩하기 위한 이러한 카메라의 화각은 카메라의 시야각이 운전자의 거동 또는 운전자 좌석 내의 운전자의 특성들을 캡처하기에 충분한 영역을 커버하는 한 임의의 정도일 수 있다는 것이 이해되어야 한다.
또한, 상이한 수의 카메라들이 사용될 수 있고, 상이한 또는 동일한 시야각들을 갖는 카메라들이 사용될 수 있을 뿐만 아니라, 수평면에서의 카메라들의 시야들은 일부 실시예들에서 중첩하거나 중첩하지 않을 수 있다는 것이 이해되어야 한다. 또한, 일부 실시예들에서, 차량은 차량의 캐빈의 내부에 대해 수평면에서 적어도 전체 원을 커버하거나 차량의 캐빈 내부에 전체 또는 거의 전체 구를 갖는 시야각을 커버하기 위한 하나 이상의 전방위 카메라들을 포함할 수 있다. 이러한 실시예들은 운전자 좌석 이외의 차량의 캐빈 내의 다른 위치들로부터 운전자의 피처들 또는 거동들을 캡처하는 데 유용할 수 있다.
도 2 내지 도 4는 본 개시의 일부 실시예들에 따른 적어도 승차 공유 서비스 시스템(SSS) 뿐만 아니라 모바일 디바이스들 및 차량들(예를 들어, 모바일 디바이스들(140 내지 142 및 302) 및 차량들(102, 202, 및 130 내지 132) 참조)을 포함하고 승차 공유 서비스들에 대한 운전자 스크리닝을 구현하도록 구성되는 예시적인 네트워크화된 시스템(100)을 예시한다. 차량들(102, 202, 및 130 내지 132) 중 임의의 하나 이상은 도 1에 도시된 차량(10)일 수 있거나 차량(10)의 부품들의 적어도 일부를 포함할 수 있다.
네트워크화된 시스템(100)은 하나 이상의 통신 네트워크(122)를 통해 네트워크화된다. 통신 네트워크(들)(122)와 같은 본 명세서에 설명된 통신 네트워크들은 적어도 블루투스 등과 같은 로컬-디바이스 네트워크, 광역 네트워크(WAN), 근거리 네트워크(LAN), 인트라넷(Intranet), 4G 또는 5G와 같은 모바일 무선 네트워크, 엑스트라넷(extranet), 인터넷, 및/또는 이들의 임의의 조합을 포함할 수 있다. 네트워크화된 시스템(100)의 노드들(예를 들어, 모바일 디바이스들(140, 142, 및 302), 차량들(102, 130, 132, 및 202), 및 하나 이상의 RSSS 서버들(150) 참조)은 각각 피어-투-피어(peer-to-peer) 네트워크, 클라이언트-서버(client-server) 네트워크, 클라우드 컴퓨팅 환경 등의 일부일 수 있다. 또한, 본 명세서에 설명된 장치들, 컴퓨팅 디바이스들, 차량들, 센서들 또는 카메라들, 및/또는 사용자 인터페이스들 중 임의의 것은 일부 종류의 컴퓨터 시스템(예를 들어, 차량 컴퓨팅 시스템들(104 및 204) 참조)을 포함할 수 있다. 그리고, 이러한 컴퓨터 시스템은 LAN, 인트라넷, 엑스트라넷, 및/또는 인터넷 내의 다른 디바이스들에 대한 네트워크 인터페이스를 포함할 수 있다. 컴퓨터 시스템은 또한 클라이언트-서버 네트워크 환경에서 서버 또는 클라이언트 기계로서, 피어-투-피어(또는 분산형) 네트워크 환경에서 피어 기계로서, 또는 클라우드 컴퓨팅 인프라스트럭처 또는 환경에서 서버 또는 클라이언트 기계로서 동작할 수 있다.
도 2에 도시된 바와 같이, 네트워크화된 시스템(100)은 차량 컴퓨팅 시스템(104)(RSSS의 클라이언트 애플리케이션(106)을 포함함 - 또한 본 명세서에서 RSSS 클라이언트(106)로 지칭됨), 차체 및 차체의 제어 가능한 부분들(도시되지 않음), 파워트레인 및 파워트레인(도시되지 않음)의 제어 가능한 부분들, 차체 제어 모듈(108)(전자 제어 유닛 또는 ECU의 유형임), 파워트레인 제어 모듈(110)(ECU의 유형임), 및 파워 스티어링 제어 유닛(112)(ECU의 유형임)을 포함하는 적어도 차량(102)을 포함할 수 있다. 차량(102)은 또한 복수의 센서들(예를 들어, 센서들(114a 내지 114b) 참조 - 생체측정 센서(biometric sensor)들을 포함할 수 있음), 복수의 카메라들(예를 들어, 카메라들(118a 내지 118b) 참조 - 도 1에 도시된 카메라(16))), 적어도 차량 컴퓨팅 시스템(104), 차체 제어 모듈(108), 파워트레인 제어 모듈(110), 파워 스티어링 제어 유닛(112), 복수의 센서, 및 복수의 카메라를 서로 연결하는 CAN(controller area network) 버스(120)를 포함할 수 있다. 또한, 도시된 바와 같이, 차량(102)은 차량 컴퓨팅 시스템(104)을 통해 네트워크(들)(122)에 연결된다. 또한 도시된 바와 같이, 차량들(130 내지 132) 및 모바일 디바이스들(140 내지 142)은 네트워크(들)(122)에 연결된다. 그리고, 따라서, 차량(102)에 통신 가능하게 결합된다.
차량 컴퓨팅 시스템(104)에 포함된 RSSS 클라이언트(106)는 RSSS 서버(들)(150)와 통신할 수 있다. RSSS 클라이언트(106)는 승차 공유 서비스의 고객이 사용하도록 특별히 구성된 RSSS 클라이언트이거나 이를 포함할 수 있다. 또한, RSSS 클라이언트(106)는 승차 공유 서비스의 운전자에 의한 사용을 위해 특별히 구성된 RSSS 클라이언트이거나 이를 포함할 수 있다.
일부 실시예들에서, 차량(102)은 차체, 파워트레인, 및 섀시 뿐만 아니라 적어도 하나의 카메라 및 적어도 하나의 센서(예를 들어, 카메라들(118a 내지 118b) 및 센서들(114a 내지 114b) 참조)를 포함할 수 있다. 적어도 하나의 카메라 및 적어도 하나의 센서는 각각 차체, 파워트레인, 또는 섀시, 또는 이들의 임의의 조합 중 적어도 하나에 부착될 수 있다. 예를 들어, 카메라(들) 또는 센서(들)는 차량(102)의 차체의 천장, 차체의 캐빈의 측벽, 차체의 도어, 차체의 캐빈의 전방 부분, 또는 차체의 캐빈의 후방 부분(예컨대, 캐빈의 뒷 좌석 내에 또는 그 근처에)에 내장되거나 부착될 수 있다. 카메라(들) 또는 센서(들)는 차량(102)의 캐빈 내로 내향으로 향하고, 차량의 캐빈 내의 운전자의 적어도 하나의 이미지 또는 비-시각적 생체 정보를 캡처하기 위해 차량에 대해 수평면에서 반원 또는 전체 원까지 커버하는 시야각을 캡처, 감지 또는 레코딩하도록 구성될 수 있다.
이러한 실시예 및 다른 실시예에서, 차량(102)은 차량 내의 운전자의 적어도 하나의 이미지를 레코딩하도록 구성된 적어도 하나의 카메라(예를 들어, 카메라(118a 내지 118b) 참조)를 포함한다. 적어도 하나의 카메라에 의한 레코딩은 시간 기간 동안 발생할 수 있다. 그리고, 적어도 하나의 카메라는 운전자의 적어도 하나의 이미지로부터 도출된 생체 이미지 데이터를 생성하고 발송하도록 구성될 수 있다. 적어도 하나의 이미지의 레코딩은 승차를 위해 차량(102)을 예약할지 여부를 결정하는 고객에 의한 운전자의 평가에 대한 요청에 응답하여 발생할 수 있다. 그리고, 적어도 하나의 이미지의 레코딩은 고객의 요청이 있는 시간 기간 동안 발생할 수 있다. 다시 말해서, 요청은 운전자의 적어도 하나의 이미지의 레코딩의 시간 기간 동안 발생할 수 있다. 그리고, 고객은 모바일 디바이스(예를 들어, 모바일 디바이스(140 내지 142) 및 모바일 디바이스(302) 참조)로부터 요청을 할 수 있다.
이러한 실시예 및 다른 실시예에서, 차량(102)은 적어도 하나의 카메라(예를 들어, 카메라(118a 내지 118b) 참조)로부터 이미지 데이터를 수신하도록 구성된 차량 컴퓨팅 시스템(104)을 포함한다. 차량 컴퓨팅 시스템(104)은 또한, 예컨대 RSSS 클라이언트(106)를 통해, 수신된 이미지 데이터에 기초하여 운전자의 위험 스코어를 결정하도록 구성될 수 있다. 차량 컴퓨팅 시스템(104)은 또한, 예컨대 RSSS 클라이언트(106)를 통해, 수신된 이미지 데이터에 기초하여 요청의 시간 기간 동안 운전자의 위험 스코어를 결정하도록 구성될 수 있다. 위험 스코어는 또한 AI 기술에 기초하여 결정될 수 있다. AI 기술은 ANN, 의사결정 트리, 또는 다른 유형의 AI 툴, 또는 이들의 임의의 조합을 포함할 수 있다. 수신된 생체 이미지 데이터 또는 그 파생물은 일반적으로 AI 기술에 대해 또는 구체적으로 전술한 AI 툴들 중 하나 이상에 대해 입력될 수 있다. 예를 들어, 수신된 생체 데이터 또는 그 파생물은 ANN에 대해 입력될 수 있다. 차량 컴퓨팅 시스템(104)은 또한 고객이 승차를 위해 차량을 예약할지 여부를 결정할 수 있도록 운전자의 위험 스코어를 고객에게 송신하도록 구성될 수 있다. 위험 스코어의 송신은 고객의 모바일 디바이스(예를 들어, 모바일 디바이스(140 내지 142) 및 모바일 디바이스(302) 참조)에 대한 것일 수 있다.
이러한 실시예들 및 다른 실시예들에서, 차량(102)은 운전자의 적어도 하나의 비시각적 생체 피처를 감지하도록 구성된 적어도 하나의 센서(예를 들어, 센서들(114a 내지 114b) 참조)를 포함한다. 운전자의 적어도 하나의 비시각적 생체 피처의 감지는 운전자의 이미지들이 레코딩되는 시간 기간 동안 발생할 수 있다. 적어도 하나의 센서는 또한 운전자의 적어도 하나의 감지된 비시각적 생체 피처로부터 도출된 비시각적 생체 데이터를 발송하도록 구성될 수 있다. 운전자의 적어도 하나의 비시각적 생체 피처의 감지는 승차를 위해 차량(102)을 예약할지 여부를 결정하는 고객에 의한 운전자의 평가에 대한 요청에 응답하여 발생할 수 있다. 그리고, 적어도 비시각적 생체 피처의 감지는 고객에 의해 요청이 이루어지는 시간 기간 동안 발생할 수 있다. 다시 말해서, 요청은 운전자의 적어도 하나의 비시각적 생체 피처의 감지의 시간 기간 동안 발생할 수 있다. 그리고, 고객은 모바일 디바이스(예를 들어, 모바일 디바이스(140 내지 142) 및 모바일 디바이스(302) 참조)로부터 요청을 할 수 있다.
이러한 실시예들 및 다른 실시예들에서, 차량 컴퓨팅 시스템(104)은 또한 적어도 하나의 센서(예를 들어, 센서들(114a 내지 114b) 참조)로부터 비시각적 생체 데이터를 수신하도록 구성될 수 있다. 차량 컴퓨팅 시스템(104)은 또한, 예컨대 RSSS 클라이언트(106)를 통해, 수신된 비시각적 생체 데이터에 기초하여 운전자의 위험 스코어를 결정하도록 구성될 수 있다. 차량 컴퓨팅 시스템(104)은 또한, 예컨대 RSSS 클라이언트(106)를 통해, 수신된 비시각적 생체 데이터에 기초하여 요청의 시간 기간 동안 운전자의 위험 스코어를 결정하도록 구성될 수 있다. 위험 스코어는 또한 AI 기술에 기초하여 결정될 수 있다. AI 기술은 ANN, 의사결정 트리, 또는 다른 유형의 AI 툴, 또는 이들의 임의의 조합을 포함할 수 있다. 수신된 비시각적 생체 데이터 또는 그 파생물은 일반적으로 AI 기술에 대해 또는 구체적으로 전술한 AI 툴 중 하나 이상에 대해 입력될 수 있다. 예를 들어, 수신된 비시각적 생체 데이터 또는 그 파생물이 ANN에 입력될 수 있다. 즉, 위험 스코어는 이미지 데이터, 비시각적 생체 데이터, 또는 ANN 또는 다른 유형의 AI 기술, 또는 이들의 임의의 조합에 기초하여 결정될 수 있다. 이러한 예들에서, 수신된 비시각적 생체 데이터 또는 그의 파생물 및/또는 수신된 이미지 데이터 또는 그의 파생물들은 ANN 또는 다른 유형의 AI 기술을 위해 입력될 수 있다. 또한, 이러한 예들에서, 차량 컴퓨팅 시스템(104)은 또한 고객이 승차를 위해 차량을 예약할지 여부를 결정할 수 있도록 운전자의 위험 스코어를 고객에게 송신하도록 구성될 수 있고, 위험 스코어의 송신은 고객의 모바일 디바이스(예를 들어, 모바일 디바이스들(140 내지 142) 및 모바일 디바이스(302) 참조)에 대해 이루어질 수 있다.
이러한 실시예 및 다른 실시예에서, 차량 컴퓨팅 시스템(104)은, 예컨대 RSSS 클라이언트(106)를 통해, 생체 이미지 데이터 및/또는 비시각적 생체 데이터를 수신하고, 예컨대 RSSS 클라이언트(106)를 통해, 수신된 생체 이미지 데이터 및 AI 기술에 기초하여 운전자의 위험 스코어를 결정하도록 구성될 수 있다. AI 기술은 ANN, 의사결정 트리, 또는 다른 유형의 AI 툴, 또는 이들의 임의의 조합을 포함할 수 있다. 수신된 생체 데이터 또는 그 파생물은 일반적으로 AI 기술에 대해 또는 구체적으로 전술한 AI 툴 중 하나 이상에 대해 입력될 수 있다. 차량 컴퓨팅 시스템(104)은 또한, 예컨대 RSSS 클라이언트(106)를 통해, 위험 임계치를 초과하는 위험 스코어에 기초하여 차량(102)에 대한 잠재적 고객에게 위험 스코어를 통지할지 여부를 결정하도록 구성될 수 있다. 이는 운전자의 위험 스코어가 고객에게 송신되기 이전에 발생할 수 있다.
이러한 실시예들 및 다른 실시예들에서, 적어도 하나의 센서(예를 들어, 센서들(114a 내지 114b) 참조)는 시간 기간 동안 운전자의 혈액 알코올 함량을 감지하도록 구성된 음주 측정기를 포함할 수 있고, 적어도 하나의 센서는 감지된 혈액 알코올 함량으로부터 도출된 데이터를 비시각적 생체 데이터의 적어도 일부로서 발송하도록 구성될 수 있다. 이러한 실시예들 및 다른 실시예들에서, 적어도 하나의 센서(예를 들어, 센서들(114a 내지 114b) 참조)는 시간 기간 동안 운전자의 체온을 감지하도록 구성된 온도계를 포함할 수 있고, 적어도 하나의 센서는 감지된 체온으로부터 도출된 데이터를 비시각적 생체 데이터의 적어도 일부로서 발송하도록 구성될 수 있다. 이러한 실시예들 및 다른 실시예들에서, 적어도 하나의 센서(예를 들어, 센서들(114a 내지 114b) 참조)는 시간 기간 동안 운전자의 음성으로부터의 사운드를 오디오 신호로 변환하도록 구성된 마이크로폰을 포함할 수 있고, 적어도 하나의 센서는 오디오 신호로부터 도출된 데이터를 비시각적 생체 데이터의 적어도 일부로서 발송하도록 구성될 수 있다.
일부 실시예들에서, 적어도 하나의 카메라(예를 들어, 카메라들(118a 내지 118b) 참조)로부터 발송된 수신된 이미지 데이터는 운전자의 자세에 대한 정보를 포함할 수 있다. 그리고, 이러한 실시예들 등에서, 적어도 하나의 카메라로부터 발송된 수신된 이미지 데이터는 운전자의 얼굴 특성들에 대한 정보를 포함할 수 있다.
일부 실시예에서, 차량(102)의 차량 컴퓨팅 시스템(104)은 지도 학습(supervised learning)을 사용하여 AI 기술을 트레이닝시키도록 구성된다. AI 기술의 지도 학습을 위한 입력은 샘플 운전자들의 이미지들의 이미지 데이터 및 샘플 운전자들의 이미지들에 대해 고객에 의해 결정된 위험 스코어들을 포함할 수 있다. 이러한 방식으로 (ANN 또는 의사결정 트리(decision tree)와 같은) AI 기술이 고객을 위해 구체적으로 맞춤화되고 트레이닝될 수 있다. 또한, AI 기술의 지도 학습을 위한 입력은 샘플 운전자들의 이미지들의 이미지 데이터 및 샘플 운전자들의 이미지들에 대한 승차 공유 서비스의 고객들에 의해 결정된 위험 스코어를 포함할 수 있다. 이렇게 하면 AI 기술이 향상되고 일반적으로 서비스의 고객을 위해 트레이닝될 수 있다. ANN의 지도 학습을 위한 입력은 또한 샘플 운전자들의 비시각적 생체 정보 및 샘플 운전자들의 비시각적 생체 정보에 대해 고객(또는 일반적으로 서비스의 고객들)에 의해 결정된 위험 스코어를 포함할 수 있다.
일부 실시예에서, 차량(102)의 차량 컴퓨팅 시스템(104)은 적어도 수신된 생체 데이터 및/또는 승차 공유 서비스의 운전자 데이터베이스(예컨대, RSSS 서버(들)(150)에 연결되거나 그 일부에 연결된 데이터베이스)에 기초하여 차량의 운전자의 신상 정보(biographical information)를, 예컨대 RSSS 클라이언트(106)를 통해, 결정하도록 구성된다. 데이터베이스는 승차 공유 서비스에 등록된 등록된 운전자의 신상 정보를 저장할 수 있다. 또한, 저장된 신상 정보는 등록된 운전자들의 생체 특성 뿐만 아니라, 등록된 운전자들의 범죄 이력, 등록된 운전자들의 운전 거동 이력, 또는 등록된 운전자들의 서비스 또는 교통 위반 이력, 또는 이들의 임의의 조합 중 적어도 하나를 포함할 수 있다. 이러한 실시예들 및 다른 실시예들에서, 차량(102)의 차량 컴퓨팅 시스템(104)은 수신된 생체 데이터, AI 기술, 및 운전자의 결정된 신상 정보에 기초하여 운전자의 위험 스코어를 결정하도록 구성될 수 있다. AI 기술에 대한 입력은 생체 데이터 또는 그 파생물 및/또는 결정된 신상 정보 또는 그 파생물들을 포함할 수 있다.
일부 실시예들에서, 카메라(들) 및/또는 센서(들)(예를 들어, 카메라들(118a 내지 118b) 및 센서들(114a 내지 114b) 참조)로부터 수신된 수신 생체 데이터는 차량을 운전하기 전에 차량(102)에 접근하는 운전자의 걸음걸이(gait)에 관한 정보, 차량에 접근하는 동안 또는 차량에 있는 동안 운전자의 자세에 관한 정보, 또는 운전자의 얼굴 특성들에 관한 정보, 또는 이들의 임의의 조합을 포함할 수 있다. 수신된 생체 데이터는 또한 운전자의 혈중 알코올 함량, 운전자의 체온, 또는 운전자의 음성, 또는 이들의 임의의 조합에 대한 정보를 포함할 수 있다.
본 명세서에 설명된 모바일 디바이스들(예를 들어, 모바일 디바이스들(140 내지 142) 및 모바일 디바이스(302) 참조)은, 예컨대 RSSS 클라이언트(106)를 통해, 위험 스코어를 출력하도록 구성된 사용자 인터페이스(예를 들어, 도 4에 도시된 모바일 디바이스(302)의 다른 컴포넌트들(316) 참조)를 포함할 수 있다. 위험 스코어는 차량(102)의 차량 컴퓨팅 시스템(104)이 위험 스코어가 위험 임계치를 초과한다고 결정할 때 고객에게 통지하기 위해 모바일 디바이스의 UI에 의해 출력될 수 있다. 모바일 디바이스의 사용자 인터페이스는 예컨대 RSSS 클라이언트(106)를 통해, 그래픽 사용자 인터페이스(GUI), 촉각 사용자 인터페이스, 또는 청각 사용자 인터페이스, 또는 이들의 임의의 조합을 제공하도록 구성될 수 있다. 또한, 본 명세서에 설명된 실시예들은 촉각 UI(터치), 시각 UI(시야), 청각 UI(소리), 후각 UI(냄새), 평형 UI(밸런스(balance)), 및 미각(gustatory) UI(맛)를 포함하는 임의의 유형의 하나 이상의 사용자 인터페이스를 포함할 수 있다.
도 2에 도시되지 않았지만, 도 1에 도시된 바와 같이, 차량(102)은 차량에 대해 수평면에서 적어도 반원을 커버하는 시야각을 갖도록 하나 이상의 방향으로 차량의 캐빈 내로 내향으로 향하는 카메라를 포함할 수 있다(예를 들어, 카메라(16) 및 카메라들(118a 내지 118b) 참조). 그리고, 카메라(들)는 운전자의 적어도 하나의 이미지를 레코딩하고, 운전자의 적어도 하나의 이미지로부터 도출된 생체 데이터를 생성 및 발송하도록 구성된 적어도 하나의 카메라를 포함할 수 있다. 일부 실시예들에서, 카메라(들)는 수평면에서의 임의의 방향으로부터 차량(102) 내의 운전자의 적어도 하나의 이미지를 레코딩하기 위해 수평면에서의 적어도 전체 원을 커버하는 시야각을 가질 수 있다.
일부 실시예에서, 차량 컴퓨팅 시스템(104)은 (예를 들어, RSSS 클라이언트(106)를 통해) 데이터(예를 들어, 차량 및 그 시스템에 대한 명령어 데이터 및/또는 운전자의 생체 정보 및/또는 RSSS의 데이터베이스에 저장된 운전자의 신상 정보 관련 데이터를 포함하는 데이터)를 수신하고 처리하도록 구성될 수 있다. 예를 들어, 데이터는 차량 컴퓨팅 시스템(104)에 의해(예를 들어, RSSS 클라이언트(106)를 통해), 카메라(들), 센서(들) 및/또는 RSSS 서버(들)(150)로부터 네트워크(들)(122)의 일부를 통해 수신될 수 있고, 그런 다음 수신된 데이터는 본 명세서에 설명된 다른 처리 단계들에 포함시키기 위해 처리될 수 있다. 수신된 데이터는 적어도 링크된(linked) 위험 스코어 데이터, 이미지 데이터, 감지된 비시각적 생체 데이터, 시간 데이터, 위치 데이터, 또는 운전자에 관한 차량(102) 또는 다른 차량들(예를 들어, 차량들(130 내지 132) 참조)로부터 발송된 다른 컨텍스트 데이터(contextual data)로부터 도출된 정보를 포함할 수 있다. 일부 실시예에서, 수신된 데이터의 도출 및/또는 수신된 데이터의 나중의 처리는 AI 기술에 따를 수 있고, AI 기술은 RSSS의 컴퓨팅 시스템, 차량(102), 또는 운전자 또는 고객의 모바일 디바이스(예를 들어, 모바일 디바이스(140 내지 142) 참조)에 의해 트레이닝될 수 있다. 이러한 실시예들 및 다른 실시예들에서, 고객들의 모바일 디바이스들은 수신 및 처리된 데이터의 적어도 일부를 고객들에게 제공하도록 구성된 사용자 인터페이스(예컨대, 그래픽 사용자 인터페이스)를 포함할 수 있다(예를 들어, GUI를 포함할 수 있는, 도 4에 도시된 모바일 디바이스(302)의 다른 컴포넌트들(316) 참조).
차량(102)은 차체의 제어 가능한 부분, 파워트레인의 제어 가능한 부분, 및 파워 스티어링의 제어 가능한 부분을 위한 적어도 전자 기기를 포함하는 차량 전자 기기를 포함한다. 차량(102)은 차체 제어 모듈(108)에 연결되는 차체의 제어 가능한 부품들 및 그러한 부품들 및 서브시스템들을 포함한다. 차체는 파워트레인을 지지하기 위한 적어도 하나의 프레임(frame)을 포함한다. 차량의 섀시(chassis)는 차량의 프레임에 부착될 수 있다. 차체는 또한 적어도 하나의 운전자 또는 승객을 위한 내부를 포함할 수 있다. 내부는 좌석을 포함할 수 있다. 차체의 제어 가능한 부품들은 또한 하나 이상의 파워 도어 및/또는 하나 이상의 파워 윈도우를 포함할 수 있다. 차체는 또한 차량 차체의 임의의 다른 공지된 부품을 포함할 수 있다. 그리고, 차체의 제어가능한 부품들은 또한 컨버터블 탑(top), 선루프, 동력 좌석, 및/또는 차량의 차체의 임의의 다른 유형의 제어가능한 부품을 포함할 수 있다. 차체 제어 모듈(108)은 차체의 제어 가능한 부품을 제어할 수 있다. 또한, 차량(102)은 또한 파워트레인의 제어 가능한 부품들을 포함한다. 파워트레인(powertrain)의 제어 가능한 부품 및 그 부품 및 서브시스템은 파워트레인 제어 모듈(110)에 연결된다. 파워트레인의 제어 가능한 부품은 적어도 엔진, 변속기, 구동 샤프트, 서스펜션 및 스티어링 시스템, 및 파워트레인 전기 시스템을 포함할 수 있다. 파워트레인은 또한 차량 파워트레인의 임의의 다른 공지된 부품을 포함할 수 있고, 파워트레인의 제어 가능한 부품은 파워트레인의 임의의 다른 공지된 제어 가능한 부품을 포함할 수 있다. 또한, 제어 가능한 파워 스티어링 부품들은 파워 스티어링 제어 유닛(112)을 통해 제어될 수 있다.
차량(102)의 복수의 센서들(예를 들어, 센서들(114a 내지 114b) 참조) 및/또는 복수의 카메라들(예를 들어, 카메라들(118a 내지 118b) 참조)은 운전자가 차량의 주변들에서 차량에 접근하고 있을 때와 같이, 차량(102)의 캐빈(예를 들어, 캐빈(12) 참조) 또는 차량(102)의 주변의 운전자의 하나 이상의 피처들 또는 특성들을 감지 및/또는 레코딩하도록 개별적으로 구성된 임의의 유형의 센서 또는 카메라를 포함할 수 있다. 차량(102)의 센서 또는 카메라는 또한 운전자의 하나 이상의 피처 또는 특성에 대응하는 생성된 데이터를 출력하도록 구성될 수 있다. 복수의 센서 또는 카메라 중 임의의 하나는 또한 예컨대, CAN 버스(120)를 통해서, 운전자의 하나 이상의 피처 또는 특성에 대응하는 생성된 데이터를 차량 컴퓨팅 시스템(104) 또는 차량(102)의 다른 전자 회로부에 발송하도록 구성될 수 있다. 차량(102)의 다른 전자 회로부에 데이터를 발송하는 것은 운전자가 술에 취하거나, 피곤하거나, 아프거나, 또는 다른 방식으로 양호하게 운전하는 것이 금지된 경우에 유용할 수 있다. 예를 들어, 데이터 또는 그 파생물은 운전자가 술에 취하거나, 피곤하거나, 아프거나, 또는 다른 방식으로 양호하게 운전하는 것이 금지된 것에 응답하여, 운전자가 운전하지 않아야 한다는 것을 운전자에게 암시하기 위해 운전자 좌석을 잠그거나 위치시키기 위해 차체 제어 모듈(108)에, 엔진이 켜지는 것을 방지하기 위해 파워트레인 제어 모듈(110)에, 및/또는 차량의 주차된 위치를 향해 이동하는 방향으로 휠들을 잠그기 위해 파워 스티어링 제어 유닛(112)에 발송될 수 있다.
차량(102)의 주행을 제어하기 위한 기계적 컴포넌트들의 세트는: (1) 차량의 휠들 상의 브레이크 메커니즘(휠들의 회전을 중지시키기 위한), (2) 구동 샤프트가 얼마나 빨리 회전할 수 있는지 그리고 그에 따라 차량이 얼마나 빨리 주행할 수 있는지를 결정하는, 차량의 엔진 또는 모터 상의 스로틀 메커니즘(얼마나 많은 가스가 엔진으로 들어가는지 또는 얼마나 많은 전류가 모터로 들어가는지에 대한 조절을 위한), 및 (3) 차량의 전방 휠들의 방향에 대한 스티어링 메커니즘(예를 들어, 따라서 차량은 휠들이 가리키고 있는 방향으로 간다)을 포함할 수 있다. 이러한 메커니즘들은 차량(102)의 제동(또는 감가속도), 가속(또는 스로틀링), 및 스티어링을 제어할 수 있다. 운전자는 전형적으로 브레이크 페달, 가속 페달 및 스티어링 휠인 사용자에 의해 동작될 수 있는 UI 엘리먼트(예를 들어, 도 3에 도시된 차량(202)의 다른 컴포넌트(216) 참조)에 의해 이러한 메커니즘을 간접적으로 제어할 수 있다. 페달 및 스티어링 휠은 제동, 가속 및 스티어링을 위한 구동 메커니즘에 반드시 기계적으로 연결될 필요는 없다. 이러한 부품들은 운전자가 페달을 누르고/누르거나 스티어링 휠을 돌린 정도를 측정하는 센서들을 갖거나 그에 근접할 수 있다. 감지된 제어 입력은 와이어들을 통해 제어 유닛들에 송신된다(따라서, 드라이브-바이-와이어(drive-by-wire)일 수 있음). 이러한 제어 유닛은 차체 제어 모듈(108 또는 220), 파워트레인 제어 모듈(110 또는 222), 파워 스티어링 제어 유닛(112 또는 224), 배터리 관리 시스템(226) 등을 포함할 수 있다. 이러한 출력은 또한 본 명세서에 설명된 센서 및 카메라에 의해 감지 및/또는 레코딩될 수 있다(예를 들어, 센서(114a 내지 114b 또는 217a 내지 217b 및 카메라(118a 내지 118b 또는 219a 내지 219b) 참조)). 그리고, 센서들 및 카메라들의 출력은, 예컨대, RSSS 클라이언트(106)에 의해 추가로 처리될 수 있고, 그런 다음 차량의 운전자와 관련된 컨텍스트 데이터의 누적 데이터 처리를 위해 RSSS의 서버(들)(150)에 레포팅(report)될 수 있다.
차량(102 또는 202)과 같은 차량에서, 운전자는 기계적 링키지(linkage) 및 일부 전자-기계적 링키지를 통해 구동 컴포넌트를 인터페이스하는 물리적 제어 엘리먼트(예를 들어, 스티어링 휠, 브레이크 페달, 가스 페달, 패들 기어 시프터 등)를 통해 차량을 제어할 수 있다. 그러나, 현재 제어 엘리먼트를 갖는 더 많은 차량은 전자 제어 엘리먼트 또는 모듈(예를 들어, 전자 제어 유닛 또는 ECU)을 통해 기계적 파워트레인 엘리먼트(예를 들어, 브레이크 시스템, 스티어링 메커니즘, 구동 트레인 등)와 인터페이싱한다. 전자 제어 엘리먼트들 또는 모듈들은 드라이브-바이-와이어(drive-by-wire) 기술의 일부일 수 있다. 드라이브-바이-와이어 기술은 기계적 링키지에 의해 전통적으로 달성되는 차량 기능을 수행하기 위한 전기 또는 전기-기계적 시스템을 포함할 수 있다. 이 기술은 전통적인 기계적 제어 시스템을 전자기계적 액추에이터 및 페달 및 스티어링 필 에뮬레이터(pedal and steering feel emulator)와 같은 인간-기계 인터페이스를 사용하는 전자 제어 시스템으로 대체할 수 있다. 스티어링 컬럼(steering column), 중간 샤프트, 펌프, 호스, 벨트, 쿨러 및 진공 서보(vacuum servo) 및 마스터 실린더와 같은 컴포넌트가 차량으로부터 제거될 수 있다. 드라이브-바이-와이어 기술의 종류와 정도는 다양하다. 드라이브-바이-와이어 기술을 갖는 차량들(102 및 202)과 같은 차량들은 (예컨대, 더 종래의 제어들을 통해 또는 드라이브-바이-와이어 제어들 또는 이들의 일부 조합을 통해) 사용자 또는 운전자로부터 입력을 수신하는 변조기(예컨대, ECU 및/또는 어드밴스 운전자 보조 시스템 또는 ADAS를 포함하거나 그 일부인 변조기)를 포함할 수 있다. 그런 다음 변조기는 운전자의 입력을 사용하여 입력을 변조하거나 "안전한 운전자"의 입력에 매칭하도록 변환할 수 있다.
일부 실시예에서, 차량의 컴퓨팅 시스템을 포함하거나 그 일부일 수 있는 차량(예를 들어, 차량(102 및 202) 참조)의 전자 회로부는 엔진 전자 기기, 변속 전자 기기, 섀시 전자 기기, 운전자 또는 승객 환경 및 편의 전자 기기, 차량 내 엔터테인먼트 전자 기기, 차량 내 안전 전자 기기 또는 내비게이션 시스템 전자 기기 또는 이들의 임의의 조합(예를 들어, 각각 도 2 및 도 3에 도시된 차체 제어 모듈(108 및 220), 파워트레인 제어 모듈(110 및 222), 파워 스티어링 제어 유닛(112 및 224), 배터리 관리 시스템(226) 및 인포테인먼트 전자 기기(228) 참조) 중 적어도 하나를 포함할 수 있다. 일부 실시예들에서, 차량의 전자 회로부는 자동 주행 시스템을 위한 전자 기기들을 포함할 수 있다.
도 3에 도시된 바와 같이, 네트워크화된 시스템(100)은 적어도 차량 컴퓨팅 시스템(204), 내부(도시되지 않음)를 갖는 차체(도시되지 않음), 파워트레인(도시되지 않음), 기후 제어 시스템(도시되지 않음) 및 인포테인먼트 시스템(도시되지 않음)을 포함하는 차량(202) 및 차량(130 내지 132)을 적어도 포함할 수 있다. 차량(202)은 다른 차량 부품들도 포함할 수 있다.
차량 컴퓨팅 시스템(104)과 유사한 구조 및/또는 기능을 가질 수 있는 차량 컴퓨팅 시스템(204)은 적어도 블루투스 등과 같은 로컬-디바이스 네트워크(local to device network), 광역 네트워크(WAN), 근거리 네트워크(LAN), 인트라넷, 4G 또는 5G와 같은 모바일 무선 네트워크, 엑스트라넷, 인터넷, 및/또는 이들의 임의의 조합을 포함할 수 있는 통신 네트워크(들)(122)에 연결될 수 있다. 차량 컴퓨팅 시스템(204)은 해당 기계에 의해 취해질 액션들을 특정하는 명령어들의 세트(순차적 또는 다른 방식)를 실행할 수 있는 기계일 수 있다. 또한, 차량 컴퓨팅 시스템(204)에 대해 단일 기계가 예시되어 있지만, "기계(machine)"이라는 용어는 또한 방법론 또는 동작을 수행하기 위해 명령어들의 세트(또는 다수의 세트들)를 개별적으로 또는 공동으로 실행하는 기계들의 임의의 집합을 포함하는 것으로 간주되어야 한다. 그리고, 적어도 버스(예를 들어, 버스(206) 참조) 및/또는 마더보드, 하나 이상의 제어기(예를 들어, 하나 이상의 CPU, 예를 들어, 제어기(208) 참조), 임시 데이터 스토리지(storage)를 포함할 수 있는 메인 메모리(예를 들어, 메모리(210) 참조), 적어도 하나의 유형의 네트워크 인터페이스(예를 들어, 네트워크 인터페이스(212) 참조), 영구 데이터 스토리지를 포함할 수 있는 저장 시스템(예를 들어, 데이터 저장 시스템(214) 참조), 및/또는 이들의 임의의 조합을 포함할 수 있다. 일부 멀티 디바이스 실시예들에서, 하나의 디바이스는 본 명세서에 설명된 방법들의 일부 부분들을 완료한 다음, 다른 디바이스가 본 명세서에 설명된 방법들의 다른 단계들을 계속할 수 있도록 완료 결과를 네트워크를 통해 다른 디바이스에 발송할 수 있다.
도 3은 또한 RSSS 클라이언트(106)를 포함하고 구현할 수 있는 차량 컴퓨팅 시스템(204)의 예시적인 부분을 도시한다. 차량 컴퓨팅 시스템(204)은 도시된 바와 같이 네트워크(들)(122)에 통신 가능하게 결합될 수 있다. 차량 컴퓨팅 시스템(204)은 적어도 버스(206), RSSS 클라이언트(106)의 명령어들을 실행할 수 있는 (CPU와 같은) 제어기(208), 실행을 위해 RSSS 클라이언트(106)의 명령어들을 보유할 수 있는 메모리(210), 네트워크 인터페이스(212), RSSS 클라이언트(106)에 대한 명령어들을 저장할 수 있는 데이터 저장 시스템(214), 및 다른 컴포넌트들(216) -- 모바일 또는 컴퓨팅 디바이스들에서 발견되는 임의의 유형의 컴포넌트들 예컨대, GPS 컴포넌트들, I/O 컴포넌트들 예컨대, 카메라 및 다양한 유형들의 사용자 인터페이스 컴포넌트들(본 명세서에 설명된 복수의 UI 엘리먼트들 중 하나 이상을 포함할 수 있음) 및 센서들(본 명세서에 설명된 복수의 센서들 중 하나 이상을 포함할 수 있음)을 포함한다. 다른 컴포넌트들(216)은 하나 이상의 사용자 인터페이스들(예를 들어, GUI들, 청각 사용자 인터페이스들, 촉각 사용자 인터페이스들, 자동차 제어들 등), 디스플레이들, 상이한 유형들의 센서들, 촉각, 오디오 및/또는 시각 입력/출력 디바이스들, 추가적인 애플리케이션 특정(application-specific) 메모리, 하나 이상의 추가적인 제어기들(예를 들어, GPU), 또는 이들의 임의의 조합을 포함할 수 있다. 차량 컴퓨팅 시스템(204)은 또한 본 명세서에 설명된 센서들 또는 카메라들 중 임의의 하나 이상일 수 있는 차량(202)의 센서들 및 카메라들을 인터페이싱하도록 구성되는 센서 및 카메라 인터페이스들을 포함할 수 있다(예를 들어, 센서들(217a 내지 217b) 및 카메라들(219a 내지 219b) 참조). 버스(206)는 일부 실시예들에서 제어기(208), 메모리(210), 네트워크 인터페이스(212), 데이터 저장 시스템(214), 다른 컴포넌트들(216), 및 센서들 및 카메라들 뿐만 아니라 센서 및 카메라 인터페이스들을 통신가능하게 결합한다. 차량 컴퓨팅 시스템(204)은 적어도 제어기(208), 메모리(210)(예를 들어, 판독 전용 메모리(ROM), 플래시 메모리, 동적 랜덤 액세스 메모리(DRAM), 예컨대 동기식 DRAM(SDRAM) 또는 램버스 DRAM(RDRAM), 정적 랜덤 액세스 메모리(SRAM), 크로스 포인트 메모리(cross-point memory), 크로스바 메모리(crossbar memory) 등), 및 데이터 저장 시스템(214)을 포함하는 컴퓨터 시스템을 포함하며, 이들은 버스(206)(다수의 버스들을 포함할 수 있음)를 통해 서로 통신한다.
일부 실시예들에서, 차량 컴퓨팅 시스템(204)은 실행될 때, 기계가 본 명세서에서 논의된 방법론들 중 임의의 하나 이상을 수행하게 하기 위한 명령어들의 세트를 포함할 수 있다. 이러한 실시예들에서, 기계는 LAN, 인트라넷, 엑스트라넷, 및/또는 인터넷(예를 들어, 네트워크(들)(122)) 내의 다른 기계들에 연결(예를 들어, 네트워크 인터페이스(212)를 통해 네트워크화)될 수 있다. 기계는 클라이언트-서버 네트워크 환경에서 서버 또는 클라이언트 기계로서, 피어-투-피어(또는 분산형) 네트워크 환경에서 피어 기계로서, 또는 클라우드 컴퓨팅 인프라스트럭처 또는 환경에서 서버 또는 클라이언트 기계로서 동작할 수 있다.
제어기(208)는 마이크로프로세서, 중앙 처리 유닛 등과 같은 하나 이상의 범용 프로세싱 디바이스를 나타낸다. 보다 구체적으로, 프로세싱 디바이스는 CISC(complex instruction set computing) 마이크로프로세서, RISC(reduced instruction set computing) 마이크로프로세서, VLIW(very long instruction word) 마이크로프로세서, SIMD(single instruction multiple data), MIMD(multiple instructions multiple data), 또는 다른 명령어 세트들을 구현하는 프로세서, 또는 명령어 세트들의 조합을 구현하는 프로세서들일 수 있다. 제어기(208)는 또한 ASIC, FPGA와 같은 프로그램 가능 로직, 디지털 신호 프로세서(DSP), 네트워크 프로세서 등과 같은 하나 이상의 특수 목적 프로세싱 디바이스일 수 있다. 제어기(208)는 본 명세서에서 논의된 동작들 및 단계들을 수행하기 위한 명령어들을 실행하도록 구성된다. 제어기(208)는 (네트워크(들)(122)와 같은) 하나 이상의 통신 네트워크를 통해 통신하기 위해 네트워크 인터페이스(212)와 같은 네트워크 인터페이스 디바이스를 더 포함할 수 있다.
데이터 저장 시스템(214)은 본 명세서에 설명된 방법론들 또는 기능들 중 임의의 하나 이상을 구현하는 명령어들 또는 소프트웨어의 하나 이상의 세트가 저장되는 기계 판독가능 저장 매체(컴퓨터 판독가능 매체로도 알려짐)를 포함할 수 있다. 데이터 저장 시스템(214)은 데이터 저장 시스템에 상주하는 명령어들을 적어도 부분적으로 실행할 수 있는 것과 같은 실행 능력들을 가질 수 있다. 명령어들은 또한 컴퓨터 시스템에 의한 그것의 실행 동안 메모리(210) 내에 및/또는 제어기(208) 내에 완전히 또는 적어도 부분적으로 상주할 수 있으며, 메모리(210) 및 제어기(208)는 또한 기계 판독가능 저장 매체들을 구성한다. 메모리(210)는 시스템(204)의 메인 메모리이거나 이를 포함할 수 있다. 메모리(210)는 메모리에 상주하는 명령어들을 적어도 부분적으로 실행할 수 있는 실행 능력들을 가질 수 있다.
차량(202)은 또한 차체의 차체 제어 모듈(220), 파워트레인의 파워트레인 제어 모듈(222), 파워 스티어링 제어 유닛(224), 배터리 관리 시스템(226), 인포테인먼트 시스템의 인포테인먼트 전자 기기(228), 및 적어도 차량 컴퓨팅 시스템(204), 차체 제어 모듈, 파워트레인 제어 모듈, 파워 스티어링 제어 유닛, 배터리 관리 시스템, 및 인포테인먼트 전자 기기를 연결하는 CAN 버스(218)를 가질 수 있다. 또한, 도시된 바와 같이, 차량(202)은 차량 컴퓨팅 시스템(204)을 통해 네트워크(들)(122)에 연결된다. 또한 도시된 바와 같이, 차량들(130 내지 132) 및 모바일 디바이스들(140 내지 142)은 네트워크(들)(122)에 연결된다. 따라서, 차량(202)에 통신 가능하게 결합된다.
차량(202)은 또한 차량 컴퓨팅 시스템(204)의 일부일 수 있는 복수의 센서(예를 들어, 센서(217a 내지 217b) 참조) 및 복수의 카메라(예를 들어, 카메라(219a 내지 219b) 참조)를 갖는 것으로 도시되어 있다. 일부 실시예에서, CAN 버스(218)는 복수의 센서 및 복수의 카메라, 차량 컴퓨팅 시스템(204), 차체 제어 모듈, 파워트레인 제어 모듈, 파워 스티어링 제어 유닛, 배터리 관리 시스템, 및 인포테인먼트 전자 기기를 적어도 차량 컴퓨팅 시스템(204)에 연결할 수 있다. 복수의 센서 및 복수의 카메라는 컴퓨팅 시스템의 센서 및 카메라 인터페이스를 통해 차량 컴퓨팅 시스템(204)에 연결될 수 있다.
도 4에 도시된 바와 같이, 네트워크화된 시스템(100)은 적어도 모바일 디바이스(302) 뿐만 아니라 모바일 디바이스들(140 내지 142)을 포함할 수 있다. 차량 컴퓨팅 시스템(104 또는 204)과 다소 유사한 구조 및/또는 기능을 가질 수 있는 모바일 디바이스(302)는 통신 네트워크(들)(122)에 연결될 수 있다. 그리고, 따라서 차량(102, 202, 130 내지 132) 뿐만 아니라 모바일 디바이스(140 내지 142)에 연결될 수 있다. 모바일 디바이스(302)(또는 모바일 디바이스(140 또는 142))는 본 명세서에 언급된 복수의 센서들 중 하나 이상, 본 명세서에 언급된 복수의 UI 엘리먼트들 중 하나 이상, GPS 디바이스, 및/또는 본 명세서에 언급된 복수의 카메라들 중 하나 이상을 포함할 수 있다. 따라서, 모바일 디바이스(302)(또는 모바일 디바이스(140 또는 142))는 차량 컴퓨팅 시스템(104 또는 204)과 유사하게 동작할 수 있고, RSSS 클라이언트(106)를 호스팅하고 실행할 수 있다.
실시예에 따라, 모바일 디바이스(302)는 모바일 디바이스 등, 예를 들어, 스마트폰, 태블릿 컴퓨터, IoT 디바이스, 스마트 텔레비전, 스마트 워치, 안경 또는 다른 스마트 가전, 차량 내 정보 시스템, 웨어러블 스마트 디바이스, 게임 콘솔, PC, 디지털 카메라, 또는 이들의 임의의 조합일 수 있거나 이를 포함할 수 있다. 도시된 바와 같이, 모바일 디바이스(302)는 적어도 블루투스 등과 같은 로컬-디바이스 네트워크, 광역 네트워크(WAN), 근거리 네트워크(LAN), 인트라넷, 4G 또는 5G와 같은 모바일 무선 네트워크, 엑스트라넷, 인터넷, 및/또는 이들의 임의의 조합을 포함하는 통신 네트워크(들)(122)에 연결될 수 있다.
본 명세서에 설명된 모바일 디바이스들 각각은 개인용 컴퓨터(PC), 태블릿 PC, 셋톱 박스(STB), 개인 휴대 정보 단말기(PDA), 셀룰러 전화, 웹 어플라이언스(web appliance), 서버, 네트워크 라우터, 스위치 또는 브리지(bridge), 또는 해당 기계에 의해 취해질 액션들을 특정하는 명령어들의 세트(순차적 또는 다른 방식)를 실행할 수 있는 임의의 기계일 수 있거나 그에 의해 대체될 수 있다. 본 명세서에 설명된 차량들의 컴퓨팅 시스템들은 해당 기계에 의해 취해질 액션들을 특정하는 명령어들의 세트(순차적 또는 다른 방식)를 실행할 수 있는 기계일 수 있다.
또한, 본 명세서에 설명된 컴퓨팅 시스템들 및 모바일 디바이스들에 대해 단일 기계가 예시되어 있지만, 용어 "기계"는 또한 본 명세서에서 논의된 방법론들 또는 동작들 중 임의의 하나 이상을 수행하기 위해 명령어들의 세트(또는 다수의 세트들)를 개별적으로 또는 공동으로 실행하는 기계들의 임의의 집합을 포함하는 것으로 간주되어야 한다. 그리고, 예시된 모바일 디바이스들 각각은 적어도 버스 및/또는 마더보드, 하나 이상의 제어기들(예컨대, 하나 이상의 CPU들), 임시 데이터 스토리지를 포함할 수 있는 메인 메모리, 적어도 하나의 유형의 네트워크 인터페이스, 영구 데이터 스토리지를 포함할 수 있는 저장 시스템, 및/또는 이들의 임의의 조합을 각각 포함할 수 있다. 일부 멀티 디바이스 실시예들에서, 하나의 디바이스는 본 명세서에 설명된 방법들의 일부 부분들을 완료한 다음, 다른 디바이스가 본 명세서에 설명된 방법들의 다른 단계들을 계속할 수 있도록 완료 결과를 네트워크를 통해 다른 디바이스에 발송할 수 있다.
도 4는 또한 본 개시의 일부 실시예들에 따른 모바일 디바이스(302)의 예시적인 부분들을 예시한다. 모바일 디바이스(302)는 도시된 바와 같이 네트워크(들)(122)에 통신 가능하게 결합될 수 있다. 모바일 디바이스(302)는 적어도 버스(306), (CPU와 같은) 제어기(308), 메모리(310), 네트워크 인터페이스(312), 데이터 저장 시스템(314), 및 다른 컴포넌트들(316) (모바일 또는 컴퓨팅 디바이스들에서 발견되는 임의 유형의 컴포넌트들 예컨대, GPS 컴포넌트들, 다양한 유형들의 사용자 인터페이스 컴포넌트들과 같은 I/O 컴포넌트들, 및 센서들(예컨대, 생체측정 센서들) 뿐만 아니라 하나 이상의 카메라들일 수 있음)을 포함한다. 다른 컴포넌트들(316)은 하나 이상의 사용자 인터페이스들(예를 들어, GUI들, 청각 사용자 인터페이스들, 촉각 사용자 인터페이스들 등), 디스플레이들, 상이한 유형들의 센서들, 촉각(예컨대, 생체측정 센서들), 오디오 및/또는 시각 입력/출력 디바이스들, 추가적인 애플리케이션 특정 메모리, 하나 이상의 추가적인 제어기들(예를 들어, GPU), 또는 이들의 임의의 조합을 포함할 수 있다. 버스(306)는 제어기(308), 메모리(310), 네트워크 인터페이스(312), 데이터 저장 시스템(314) 및 다른 컴포넌트들(316)을 통신가능하게 결합한다. 모바일 디바이스(302)는 적어도 제어기(308), 메모리(310)(예를 들어, 판독 전용 메모리(ROM), 플래시 메모리, 동기식 DRAM(SDRAM) 또는 램버스 DRAM(RDRAM)과 같은 동적 랜덤 액세스 메모리(DRAM), 정적 랜덤 액세스 메모리(SRAM), 크로스 포인트 메모리, 크로스바 메모리 등), 및 데이터 저장 시스템(314)을 포함하는 컴퓨터 시스템을 포함하고, 이들은 버스(306)(다수의 버스들을 포함할 수 있음)를 통해 서로 통신한다.
달리 말하면, 도 4는 본 개시의 실시예들이 동작할 수 있는 컴퓨터 시스템을 갖는 모바일 디바이스(302)의 블록도이다. 일부 실시예들에서, 컴퓨터 시스템은, 실행될 때, 기계가 본 명세서에서 논의된 방법론들 중 일부를 수행하게 하기 위한 명령어들의 세트를 포함할 수 있다. 이러한 실시예들에서, 기계는 LAN, 인트라넷, 엑스트라넷, 및/또는 인터넷(예를 들어, 네트워크(들)(122)) 내의 다른 기계들에 연결(예를 들어, 네트워크 인터페이스(312)를 통해 네트워크화)될 수 있다. 기계는 클라이언트-서버 네트워크 환경에서 서버 또는 클라이언트 기계로서, 피어-투-피어(또는 분산형) 네트워크 환경에서 피어 기계로서, 또는 클라우드 컴퓨팅 인프라스트럭처 또는 환경에서 서버 또는 클라이언트 기계로서 동작할 수 있다.
제어기(308)는 마이크로프로세서, 중앙 처리 유닛 등과 같은 하나 이상의 범용 프로세싱 디바이스를 나타낸다. 보다 구체적으로, 프로세싱 디바이스는 CISC(complex instruction set computing) 마이크로프로세서, RISC(reduced instruction set computing) 마이크로프로세서, VLIW(very long instruction word) 마이크로프로세서, SIMD(single instruction multiple data), MIMD(multiple instructions multiple data), 또는 다른 명령어 세트들을 구현하는 프로세서, 또는 명령어 세트들의 조합을 구현하는 프로세서들일 수 있다. 제어기(308)는 또한 ASIC, FPGA와 같은 프로그램 가능 로직, 디지털 신호 프로세서(DSP), 네트워크 프로세서 등과 같은 하나 이상의 특수 목적 프로세싱 디바이스일 수 있다. 제어기(308)는 본 명세서에서 논의된 동작들 및 단계들을 수행하기 위한 명령어들을 실행하도록 구성된다. 제어기(308)는 (네트워크(들)(122)와 같은) 하나 이상의 통신 네트워크를 통해 통신하기 위해 네트워크 인터페이스(312)와 같은 네트워크 인터페이스 디바이스를 더 포함할 수 있다.
데이터 저장 시스템(314)은 본 명세서에 설명된 방법론들 또는 기능들 중 임의의 하나 이상을 구현하는 명령어들 또는 소프트웨어의 하나 이상의 세트가 저장되는 기계 판독가능 저장 매체(컴퓨터 판독가능 매체로도 알려짐)를 포함할 수 있다. 데이터 저장 시스템(314)은 데이터 저장 시스템에 상주하는 명령어들을 적어도 부분적으로 실행할 수 있는 것과 같은 실행 능력들을 가질 수 있다. 명령어들은 또한 컴퓨터 시스템에 의한 그것의 실행 동안 메모리(310) 내에 및/또는 제어기(308) 내에 완전히 또는 적어도 부분적으로 상주할 수 있으며, 메모리(310) 및 제어기(308)는 또한 기계 판독가능 저장 매체들을 구성한다. 메모리(310)는 디바이스(302)의 메인 메모리이거나 이를 포함할 수 있다. 메모리(310)는 메모리에 상주하는 명령어들을 적어도 부분적으로 실행할 수 있는 실행 능력들을 가질 수 있다.
메모리, 제어기, 및 데이터 저장 부품들이 예시적인 실시예들에서 각각 단일 부분인 것으로 도시되어 있지만, 각각의 부품은 명령어들을 저장하고 그들 각각의 동작들을 수행할 수 있는 단일 부품 또는 다수의 부품들을 포함하는 것으로 간주되어야 한다. "기계 판독가능 저장 매체"라는 용어는 또한 기계에 의한 실행을 위한 명령어들의 세트를 저장 또는 인코딩할 수 있고 기계가 본 개시의 방법론들 중 임의의 하나 이상을 수행하게 하는 임의의 매체를 포함하는 것으로 간주되어야 한다. 따라서, 용어 "기계 판독가능 저장 매체"는 솔리드-스테이트 메모리들, 광학 매체, 및 자기 매체를 포함하는 것으로 간주되어야 하지만, 이에 제한되지 않는다.
도 4에 도시된 바와 같이, 모바일 디바이스(302)는 사용자 인터페이스(예를 들어, 다른 컴포넌트들(316) 참조)를 포함할 수 있다. 사용자 인터페이스는 그래픽 사용자 인터페이스(GUI), 촉각 사용자 인터페이스, 또는 청각 사용자 인터페이스, 또는 이들의 임의의 조합을 제공하도록 구성될 수 있다. 예를 들어, 사용자 인터페이스는 또한 모바일 디바이스(302)의 일부일 수 있는 웨어러블 구조, 컴퓨팅 디바이스, 또는 카메라 또는 이들의 임의의 조합 중 적어도 하나에 연결된 디스플레이이거나 이를 포함할 수 있고, 디스플레이는 GUI를 제공하도록 구성될 수 있다. 또한, 본 명세서에 설명된 실시예는 촉각 UI(터치), 시각적 UI(시각), 청각 UI(소리), 후각 UI(냄새), 평형 UI(밸런스) 및 미각 UI(맛)를 포함하는 임의의 유형의 하나 이상의 사용자 인터페이스를 포함할 수 있다.
도 5는 본 개시의 일부 실시예들에 따른 도 1에 도시된 차량(10) 뿐만 아니라 도 2 내지 도 4에 도시된 네트워크화된 시스템(100)의 양태들에 의해 수행될 수 있는 방법(400)의 예시적인 동작들의 흐름도를 예시한다. 예를 들어, 방법(400)은 도 1 내지 도 4에 도시된 임의의 차량 및/또는 모바일 디바이스의 컴퓨팅 시스템 및/또는 다른 부품들에 의해 수행될 수 있다.
도 5에서, 방법(400)은 차량 또는 차량의 운전자의 모바일 디바이스에 의해, 승차를 위해 차량을 예약할지 여부를 결정하는 고객의 모바일 디바이스에 의한 운전자의 평가에 대한 요청을 일정 시간 기간 동안 수신하는 단계(402)에서 시작한다. 단계(404)에서, 방법(400)은, 차량의 하나 이상의 카메라들(또는 차량 내의 운전자의 모바일 디바이스의 하나 이상의 카메라들)에 의해, 시간 기간 동안 차량 내의 운전자의 하나 이상의 이미지들을 레코딩하는 단계로 이어진다. 단계(406)에서, 방법(400)은 카메라(들)에 의해, 운전자의 적어도 하나의 이미지로부터 도출된 생체 이미지 데이터를 발송하는 단계로 이어진다. 단계(408)에서, 방법(400)은, 차량의 하나 이상의 센서들(또는 차량 내의 운전자의 모바일 디바이스의 하나 이상의 센서들)에 의해, 시간 기간 동안 운전자의 하나 이상의 비-시각적 생체 피처들을 감지하는 단계로 이어진다. 단계(410)에서, 방법(400)은 센서(들)에 의해, 비시각적 생체 피처(들)로부터 도출된 비시각적 생체 데이터를 발송하는 단계로 이어진다. 단계(412)에서, 방법(400)은 차량의(또는 차량 내의 모바일 디바이스의) 컴퓨팅 시스템에 의해, 카메라(들) 및/또는 센서(들)로부터 생체 데이터를 수신하는 단계로 이어진다. 단계(414)에서, 방법(400)은 컴퓨팅 시스템에 의해, ANN 또는 의사결정 트리 및 수신된 생체 데이터(예를 들어, ANN 또는 의사결정 트리가 RSS의 서버(들) 또는 고객의 모바일 디바이스로부터 수신됨)에 기초하여 시간 기간 동안 운전자의 위험 스코어를 결정하는 단계로 이어진다. 단계(416)에서, 방법(400)은 고객이 승차를 위해 차량을 예약할지 여부를 결정할 수 있도록 컴퓨팅 시스템에 의해 운전자의 위험 스코어를 고객의 모바일 디바이스로 송신하는 단계로 이어진다.
도 6은 본 개시의 일부 실시예들에 따른 도 1에 도시된 차량(10) 뿐만 아니라 도 2 내지 도 4에 도시된 네트워크화된 시스템(100)의 양태들에 의해 수행될 수 있는 방법(500)의 예시적인 동작들의 흐름도를 예시한다. 예를 들어, 방법(500)은 도 1 내지 도 4에 도시된 임의의 차량 및/또는 모바일 디바이스의 컴퓨팅 시스템 및/또는 다른 부품들에 의해 수행될 수 있다.
도 6에서, 방법(500)은 승차 서비스 고객의 모바일 디바이스에 의해 제1 샘플 운전자의 생체 정보를 수신하는 단계(502a)에서 시작할 수 있다. 방법(500)은 또한 단계(502b)에서, 모바일 디바이스에 의해, 제2 샘플 운전자의 생체 정보를 수신하는 것으로 시작할 수 있다. 방법(500)은 또한 단계(502c)에서 모바일 디바이스에 의해 다른 샘플 운전자의 생체 정보를 수신하는 것으로 시작할 수 있다. 도시된 바와 같이, 방법(500)은 적어도 3개의 각각의 샘플 운전자의 생체 정보의 적어도 3개의 상이한 인스턴스를 수신하는 것으로 시작할 수 있다. 생체 정보의 수신은 동시에 또는 순차적으로 발생할 수 있다.
단계(504a)에서, 방법(500)은 모바일 디바이스에 의해 제1 샘플 운전자의 생체 정보를 디스플레이하는 단계로 이어진다. 단계(504b)에서, 방법(500)은 모바일 디바이스에 의해 제2 샘플 운전자의 생체 정보를 디스플레이하는 단계로 이어진다. 단계(504c)에서, 방법(500)은 모바일 디바이스에 의해 다른 샘플 운전자의 생체 정보를 디스플레이하는 단계로 이어진다. 도시된 바와 같이, 방법(500)은 적어도 3개의 각각의 샘플 운전자들의 생체 정보의 적어도 3개의 상이한 인스턴스들을 디스플레이하는 단계로 이어진다. 생체 정보의 표시는 동시에 또는 순차적으로 발생할 수 있다.
단계(506a)에서, 방법(500)은 모바일 디바이스에 의해, 제1 샘플 운전자의 생체 정보를 고려하여 제1 샘플 운전자에 대한 제1 위험 스코어를 입력할 것을 사용자에게 요청하는 단계로 이어진다. 단계(506b)에서, 방법(500)은 모바일 디바이스에 의해, 제2 샘플 운전자의 생체 정보를 고려하여 제2 샘플 운전자에 대한 제2 위험 스코어를 입력할 것을 사용자에게 요청하는 단계로 이어진다. 단계(506c)에서, 방법(500)은 모바일 디바이스에 의해, 다른 샘플 운전자의 생체 정보를 고려하여 다른 샘플 운전자에 대한 다른 위험 스코어를 입력할 것을 사용자에게 요청하는 단계로 이어진다. 도시된 바와 같이, 방법(500)은 적어도 3개의 상이한 각각의 샘플 운전자들에 대한 위험 스코어들을 입력할 것을 사용자에게 요청하는 단계로 이어진다. 적어도 3개의 상이한 각각의 샘플 운전자들에 대한 위험 스코어들을 입력하라는 요청은 동시에 또는 순차적으로 발생할 수 있다.
단계(508a)에서, 방법(500)은 모바일 디바이스에 의해 고객으로부터 제1 위험 스코어를 수신하는 단계로 이어진다. 단계(508b)에서, 방법(500)은 모바일 디바이스에 의해 고객으로부터 제2 위험 스코어를 수신하는 단계로 이어진다. 단계(508c)에서, 방법(500)은 모바일 디바이스에 의해 고객으로부터 다른 위험 스코어를 수신하는 단계로 이어진다. 도시된 바와 같이, 방법(500)은 적어도 3개의 상이한 각각의 샘플 운전자들에 대해 고객으로부터 위험 스코어들을 수신하는 단계로 이어진다. 고객으로부터 위험 스코어를 받는 것은 동시에 또는 순차적으로 발생할 수 있다.
단계(510)에서, 방법(500)은 고객의 모바일 디바이스 또는 승차 서비스의 하나 이상의 서버에 의해, 트레이닝을 위한 입력으로서 샘플 운전자들의 생체 정보 및 위험 스코어들을 사용하여 ANN 또는 의사결정 트리(decision tree)를 트레이닝하는 단계로 이어진다. 예를 들어, 단계(510)에서의 트레이닝은 ANN 또는 의사결정 트리가 대략 선택된 수신된 위험 스코어를 출력할 때까지 선택된 수신된 위험 스코어에 대응하는 생체 정보를 반복적으로 입력하는 것, 및 상이한 위험 스코어들에 대해 ANN 또는 의사결정 트리를 향상시키기 위해 각각의 수신된 위험 스코어에 대해 이러한 트레이닝 프로세스를 반복하는 것을 포함할 수 있다.
일부 실시예들에서, 방법들(400 및 500)의 단계들은 입력 데이터를 모니터링하고, 동작들을 수행하고, 데이터를 후속 단계로 출력함으로써 각각의 단계가 독립적으로 실행될 수 있는 것과 같은 연속 프로세스로서 구현될 수 있다는 것이 이해되어야 한다. 또한, 각각의 방법에 대한 이러한 단계들은, 특정 출력을 트리거하고 생성하기로 되어 있는 이벤트들에 대해 각각의 단계가 트리거될 수 있는 것과 같은 이산-이벤트 프로세스(discrete-event process)들로서 구현될 수 있다. 또한, 도 5 내지 도 6의 각각의 도면은 도 2 내지 도 4에서 부분적으로 제시된 것보다 더 복잡한 컴퓨터 시스템의 가능하게는 더 큰 방법 내의 최소 방법을 나타낸다는 것이 이해되어야 한다. 따라서, 도 5 내지 도 6의 각각의 도면에 도시된 단계들은 더 복잡한 시스템의 더 큰 방법과 연관된 다른 단계들로부터 그리고 다른 단계들로 공급하는 다른 단계들과 조합될 수 있다.
본 명세서에 설명된 차량은 차량이 달리 명시되지 않는 한 임의의 유형의 차량일 수 있다는 것이 이해되어야 한다. 차량은 자동차, 트럭, 보트, 및 항공기 뿐만 아니라 군사, 건설, 농업, 또는 레크리에이션 사용을 위한 차량 또는 차량 장비를 포함할 수 있다. 차량, 차량 부품, 또는 차량의 운전자 또는 승객에 의해 사용되는 전자 기기는 차량 전자 기기로 간주될 수 있다. 차량 전자 기기는 엔진 관리, 점화, 라디오, 카퓨터(carputer), 텔레매틱스, 차량 내 엔터테인먼트 시스템 및 차량의 다른 부품을 위한 전자 기기를 포함할 수 있다. 차량 전자 기기는 점화 및 엔진 및 변속기 제어와 함께 또는 이들에 의해 사용될 수 있으며, 이는 가스 동력 자동차, 트럭, 오토바이, 보트, 비행기, 군용 차량, 지게차, 트랙터 및 굴삭기와 같은 내연 동력 기계를 갖는 차량에서 발견될 수 있다. 또한, 차량 전자 기기는 하이브리드 또는 전기 자동차와 같은 하이브리드 및 전기 자동차에서 발견되는 전기 시스템의 제어를 위해 관련 엘리먼트에 의해 또는 관련 엘리먼트와 함께 사용될 수 있다. 예를 들어, 전기 자동차는 배터리 시스템을 관리할 뿐만 아니라 메인 추진 모터 제어를 위해 파워 전자 기기를 사용할 수 있다. 그리고, 자율 주행 자동차는 거의 전적으로 자동차 전자 기기에 의존한다.
이전의 상세한 설명의 일부 부분들은 컴퓨터 메모리 내의 데이터 비트들에 대한 동작들의 알고리즘들 및 심볼 표현들의 관점에서 제시되었다. 이러한 알고리즘 설명 및 표현은 데이터 처리 분야의 숙련자가 자신의 작업의 내용을 해당 분야의 숙련자에게 가장 효과적으로 전달하기 위해 사용하는 방법이다. 알고리즘은 여기서 일반적으로 원하는 결과를 초래하는 자기 일관적인 동작 시퀀스인 것으로 생각된다. 동작들은 물리량의 물리적 조작이 필요한 동작들이다. 보통, 반드시 그런 것은 아니지만, 이들 수량은 저장, 조합, 비교 및 다른 방식으로 조작될 수 있는 전기 또는 자기 신호의 형태를 취한다. 이들 신호를 비트, 값, 엘리먼트, 심볼, 문자, 용어, 숫자 등으로 지칭하는 것은 주로 일반적인 용도의 이유로 때때로 편리한 것으로 입증되었다.
그러나, 이들 및 유사한 용어들 모두는 적절한 물리량들과 연관되어야 하고 이들 수량들에 적용되는 편리한 라벨들에 불과하다는 것을 명심해야 한다. 본 개시는 컴퓨터 시스템의 레지스터들 및 메모리들 내의 물리적(전자적) 수량들로서 표현되는 데이터를 조작하고 컴퓨터 시스템 메모리들 또는 레지스터들 또는 다른 그러한 정보 저장 시스템들 내의 물리적 수량들로서 유사하게 표현되는 다른 데이터로 변환하는 컴퓨터 시스템 또는 유사한 전자 컴퓨팅 디바이스의 동작 및 프로세스들을 지칭할 수 있다.
본 개시는 또한 본 명세서에서의 동작들을 수행하기 위한 장치에 관한 것이다. 이 장치는 의도된 목적을 위해 특별히 구성될 수 있거나, 컴퓨터에 저장된 컴퓨터 프로그램에 의해 선택적으로 활성화되거나 재구성되는 범용 컴퓨터를 포함할 수 있다. 이러한 컴퓨터 프로그램은, 플로피 디스크들, 광학 디스크들, CD-ROM들, 및 자기-광학 디스크들을 포함하는 임의의 유형의 디스크, 판독-전용 메모리들(ROM들), 랜덤 액세스 메모리들(RAM들), EPROM들, EEPROM들, 자기 또는 광학 카드들, 또는 전자 명령어들을 저장하기에 적합한 임의의 유형의 매체와 같은 컴퓨터 판독가능 저장 매체에 저장될 수 있으며, 각각은 컴퓨터 시스템 버스에 결합된다.
본 명세서에 제시된 알고리즘들 및 디스플레이들은 본질적으로 임의의 특정 컴퓨터 또는 다른 장치와 관련되지 않는다. 다양한 범용 시스템들이 본 명세서의 교시들에 따른 프로그램들과 함께 사용될 수 있거나, 또는 방법을 수행하기 위해 더 특수화된 장치를 구성하는 것이 편리하다는 것이 입증될 수 있다. 이러한 다양한 시스템들에 대한 구조는 아래의 설명에서 제시된 바와 같이 표현될 것이다. 또한, 본 개시는 임의의 특정 프로그래밍 언어를 참조하여 설명되지 않는다. 다양한 프로그래밍 언어들이 본 명세서에 설명된 본 개시의 교시들을 구현하기 위해 사용될 수 있다는 것이 이해될 것이다.
본 개시는 본 개시에 따른 프로세스를 수행하도록 컴퓨터 시스템(또는 다른 전자 디바이스들)을 프로그래밍하는 데 사용될 수 있는 명령어들이 저장된 기계 판독가능 매체를 포함할 수 있는 컴퓨터 프로그램 제품 또는 소프트웨어로서 제공될 수 있다. 기계 판독 가능 매체는 기계(예를 들어, 컴퓨터)에 의해 판독 가능한 형태로 정보를 저장하기 위한 임의의 메커니즘을 포함한다. 일부 실시예들에서, 기계 판독가능(예를 들어, 컴퓨터 판독가능) 매체는 판독 전용 메모리("ROM"), 랜덤 액세스 메모리("RAM"), 자기 디스크 저장 매체, 광학 저장 매체, 플래시 메모리 컴포넌트 등과 같은 기계(예를 들어, 컴퓨터) 판독가능 저장 매체를 포함한다.
전술한 명세서에서, 본 개시의 실시예들은 그 특정 예시적인 실시예들을 참조하여 설명되었다. 다음의 청구항들에 기재된 본 개시의 실시예들의 더 넓은 사상 및 범위로부터 벗어나지 않고 그에 대해 다양한 수정들이 이루어질 수 있다는 것이 명백할 것이다. 따라서, 명세서 및 도면은 제한적인 의미보다는 예시적인 의미로 간주되어야 한다.

Claims (20)

  1. 장치에 있어서,
    적어도 하나의 프로세싱 디바이스; 및
    명령어들을 포함하는 메모리를 포함하고, 상기 명령어들은 상기 적어도 하나의 프로세싱 디바이스에,
    차량의 적어도 하나의 카메라에 의해 제공되는 이미지 데이터를 수신하고, - 상기 이미지 데이터는 상기 차량 내의 운전자의 적어도 하나의 이미지로부터 도출되고, 상기 적어도 하나의 카메라는 상기 차량 외부의 제1 모바일 디바이스의 제1 사용자에 의한 요청에 응답하여 상기 적어도 하나의 이미지를 레코딩(record)하도록 구성됨 -;
    상기 수신된 이미지 데이터에 기초한 입력을 갖는 인공 신경망(ANN)을 사용하여, 상기 운전자의 위험 스코어(risk score)를 결정하고 - 상기 ANN은 운전자들의 이전 이미지 및 대응하는 위험 스코어를 사용하여 트레이닝됨 -; 및
    상기 결정된 위험 스코어에 기초하여, 상기 제1 모바일 디바이스 상의 디스플레이를 제공하기 위해 상기 제1 모바일 디바이스로 통신의 송신을 야기할 것을 지시하도록 구성된, 장치.
  2. 제1항에 있어서, 적어도 하나의 센서를 더 포함하고, 상기 명령어들은 상기 적어도 하나의 프로세싱 디바이스에,
    상기 적어도 하나의 센서에 의해 제공된 생체 데이터(biometric data)를 수신할 것을 지시하도록 추가로 구성되고;
    상기 ANN에 대한 입력은 상기 수신된 생체 데이터에 추가로 기초하는, 장치.
  3. 제2항에 있어서, 상기 적어도 하나의 센서는 상기 운전자의 혈중 알코올 함량을 감지하도록 구성된 음주 측정기(breathalyzer)를 포함하는, 장치.
  4. 제2항에 있어서, 상기 적어도 하나의 센서는 상기 운전자의 체온을 감지하도록 구성된 온도계를 포함하는, 장치.
  5. 제2항에 있어서, 상기 적어도 하나의 센서는 마이크로폰을 포함하는, 장치.
  6. 제1항에 있어서, 상기 제1 모바일 디바이스 상의 디스플레이는 상기 운전자에 관한 생체 데이터를 포함하는, 장치.
  7. 제1항에 있어서, 상기 수신된 이미지 데이터는, 상기 운전자의 자세 및 얼굴 특성 중 적어도 하나에 관한 데이터를 포함하는 장치.
  8. 제1항에 있어서, 상기 명령어들은 상기 적어도 하나의 프로세싱 디바이스에, 상기 적어도 하나의 카메라로부터의 데이터에 기초하여, 상기 ANN을 트레이닝할 것을 지시하도록 추가로 구성된, 장치.
  9. 제8항에 있어서, 상기 ANN에 대한 입력은 다른 차량들에 대한 제1 운전자들의 이미지들에 관한 데이터, 및 상기 제1 운전자들에 대해 사용자들에 의해 결정된 대응하는 위험 스코어들에 추가로 기초하는, 장치.
  10. 제9항에 있어서, 상기 ANN에 대한 입력은 상기 제1 운전자들의 생체 데이터에 추가로 기초하는, 장치.
  11. 시스템에 있어서,
    차량 내의 운전자의 적어도 하나의 이미지를 레코딩하도록 구성된 적어도 하나의 카메라 - 상기 적어도 하나의 이미지는 상기 차량 외부의 모바일 디바이스의 사용자에 의한 요청에 응답하여 레코딩됨 -; 및
    컴퓨팅 시스템을 포함하고, 상기 컴퓨팅 시스템은,
    상기 적어도 하나의 이미지로부터 도출된 이미지 데이터를 수신하고;
    상기 수신된 이미지 데이터에 기초한 입력을 갖는 인공 신경망(ANN) 또는 의사결정 트리(decision tree)를 사용하여, 상기 운전자의 위험 스코어를 결정하고, 상기 ANN 또는 의사결정 트리는 상기 운전자의 이전 이미지 및 대응하는 위험 스코어를 사용하여 트레이닝됨;
    상기 결정된 위험 스코어에 기초하여, 상기 모바일 디바이스 상의 디스플레이를 제공하기 위해 통신을 상기 모바일 디바이스로 송신하도록 구성된, 시스템.
  12. 제11항에 있어서, 적어도 하나의 센서를 더 포함하고, 상기 명령어들은 상기 적어도 하나의 프로세싱 디바이스에,
    상기 적어도 하나의 센서로부터 생체 데이터를 수신하도록 지시하도록 추가로 구성되고;
    상기 ANN 또는 의사결정 트리에 대한 입력은 상기 수신된 생체 데이터에 추가로 기초하는, 시스템.
  13. 제12항에 있어서, 상기 적어도 하나의 센서는 상기 운전자의 혈액 알코올 함량을 감지하고, 상기 감지된 혈액 알코올 함량으로부터 도출된 데이터를 상기 생체 데이터의 일부로서 제공하도록 구성된 음주 측정기를 포함하는, 시스템.
  14. 제12항에 있어서, 상기 적어도 하나의 센서는 상기 운전자의 체온을 감지하고, 상기 감지된 체온으로부터 도출된 데이터를 상기 생체 데이터의 일부로서 제공하도록 구성된 온도계를 포함하는, 시스템.
  15. 제12항에 있어서, 상기 적어도 하나의 센서는 상기 운전자의 음성으로부터의 사운드를 오디오 신호로 변환하고, 상기 오디오 신호로부터 도출된 데이터를 상기 생체 데이터의 일부로서 제공하도록 구성된 마이크로폰을 포함하는, 시스템.
  16. 제11항에 있어서, 상기 수신된 이미지 데이터는 상기 운전자의 자세에 관한 데이터를 포함하는, 시스템.
  17. 제11항에 있어서, 상기 수신된 이미지 데이터는 상기 운전자의 얼굴 특성들을 포함하는, 시스템.
  18. 제11항에 있어서, 상기 컴퓨팅 시스템은 지도 학습(supervised learning)을 사용하여 상기 ANN 또는 의사결정 트리를 트레이닝하도록 추가로 구성된, 시스템.
  19. 제11항에 있어서, 상기 ANN 또는 의사결정 트리에 대한 입력은 다른 차량들에 대한 운전자들의 이미지들에 관한 데이터에 추가로 기초하는, 시스템.
  20. 방법에 있어서,
    적어도 하나의 메모리 디바이스에 의해 그리고 적어도 하나의 카메라로부터의 버스를 통해, 차량 내의 운전자의 적어도 하나의 이미지로부터 도출된 이미지 데이터를 수신하는 단계 - 상기 적어도 하나의 카메라는 상기 차량 외부의 모바일 디바이스의 사용자에 의한 요청에 응답하여 적어도 하나의 이미지를 레코딩함 -;
    적어도 하나의 프로세싱 디바이스에 의해 그리고 상기 이미지 데이터에 기초한 입력을 갖는 인공 신경망(ANN)을 사용하여, 상기 운전자의 위험 스코어를 결정하는 단계 - 상기 ANN은 상기 운전자를 포함하는 운전자들의 이전 이미지들 및 대응하는 위험 스코어들을 사용하여 트레이닝됨 -; 및
    상기 결정된 위험 스코어에 기초하여, 상기 운전자에 관한 모바일 디바이스로의 통신의 송신을 야기하는 단계를 포함하는, 방법.
KR1020227036562A 2020-04-21 2021-04-20 운전자 스크리닝 KR20220156904A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US16/854,634 US11091166B1 (en) 2020-04-21 2020-04-21 Driver screening
US16/854,634 2020-04-21
PCT/US2021/028200 WO2021216578A1 (en) 2020-04-21 2021-04-20 Driver screening

Publications (1)

Publication Number Publication Date
KR20220156904A true KR20220156904A (ko) 2022-11-28

Family

ID=77273947

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020227036562A KR20220156904A (ko) 2020-04-21 2021-04-20 운전자 스크리닝

Country Status (5)

Country Link
US (2) US11091166B1 (ko)
EP (1) EP4139178A4 (ko)
KR (1) KR20220156904A (ko)
CN (1) CN115605386A (ko)
WO (1) WO2021216578A1 (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11091166B1 (en) 2020-04-21 2021-08-17 Micron Technology, Inc. Driver screening
US11494865B2 (en) 2020-04-21 2022-11-08 Micron Technology, Inc. Passenger screening
US11318960B1 (en) * 2020-05-15 2022-05-03 Gm Cruise Holdings Llc Reducing pathogen transmission in autonomous vehicle fleet

Family Cites Families (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008310454A (ja) * 2007-06-13 2008-12-25 Toyota Industries Corp 不適格者操縦抑制システム及び不適格者操縦抑制方法
US8175333B2 (en) 2007-09-27 2012-05-08 Behavioral Recognition Systems, Inc. Estimator identifier component for behavioral recognition system
US8036425B2 (en) 2008-06-26 2011-10-11 Billy Hou Neural network-controlled automatic tracking and recognizing system and method
US11465640B2 (en) * 2010-06-07 2022-10-11 Affectiva, Inc. Directed control transfer for autonomous vehicles
JP2013088870A (ja) 2011-10-13 2013-05-13 Toyota Infotechnology Center Co Ltd 不審者検知装置、不審者検知方法およびプログラム
KR102047493B1 (ko) * 2012-08-24 2019-11-21 삼성전자주식회사 모바일 단말의 교통 서비스 정보 제공 방법, 교통 서비스 관리 서버의 교통 서비스 관리 방법, 및 교통 서비스 제공 차량의 교통 서비스 제공 방법
US8981942B2 (en) * 2012-12-17 2015-03-17 State Farm Mutual Automobile Insurance Company System and method to monitor and reduce vehicle operator impairment
KR20160067462A (ko) 2014-12-04 2016-06-14 현대자동차주식회사 버스 승객 보호 시스템
US9821657B2 (en) * 2015-04-22 2017-11-21 Motorola Mobility Llc Drowsy driver detection
KR101709521B1 (ko) 2015-07-30 2017-03-09 주식회사 한글과컴퓨터 무인 스마트카를 이용한 공익서비스 시스템 및 방법
US11194405B2 (en) * 2015-10-08 2021-12-07 Panasonic Intellectual Property Corporation Of America Method for controlling information display apparatus, and information display apparatus
US9940530B2 (en) 2015-12-29 2018-04-10 Thunder Power New Energy Vehicle Development Company Limited Platform for acquiring driver behavior data
US9533688B1 (en) * 2015-12-29 2017-01-03 Thunder Power Hong Kong Ltd. Platform for acquiring driver behavior data
US10747234B1 (en) 2016-01-22 2020-08-18 State Farm Mutual Automobile Insurance Company Method and system for enhancing the functionality of a vehicle
US20170369069A1 (en) * 2016-06-22 2017-12-28 GM Global Technology Operations LLC Driving behavior analysis based on vehicle braking
US10139827B2 (en) 2016-06-28 2018-11-27 Ford Global Technologies, Llc Detecting physical threats approaching a vehicle
US10210451B2 (en) * 2016-07-22 2019-02-19 Alpine Electronics of Silicon Valley, Inc. Neural network applications in resource constrained environments
US20180032944A1 (en) * 2016-07-26 2018-02-01 Accenture Global Solutions Limited Biometric-based resource allocation
US20180089605A1 (en) * 2016-09-23 2018-03-29 Intel Corporation Enhanced ride sharing user experience
US10274338B2 (en) 2016-12-11 2019-04-30 International Business Machines Corporation Risk situations for vehicle occupants based on data provided by vehicle sensors and contextual information
US10497242B2 (en) 2016-12-15 2019-12-03 David H. Williams Systems and methods for monitoring for and preempting pre-identified restriction violation-related behavior(s) of persons under restriction
US10477342B2 (en) * 2016-12-15 2019-11-12 David H. Williams Systems and methods of using wireless location, context, and/or one or more communication networks for monitoring for, preempting, and/or mitigating pre-identified behavior
US10192171B2 (en) * 2016-12-16 2019-01-29 Autonomous Fusion, Inc. Method and system using machine learning to determine an automotive driver's emotional state
US10421459B2 (en) * 2016-12-20 2019-09-24 GM Global Technology Operations LLC Contextual-assessment vehicle systems
DE112017007252T5 (de) * 2017-03-14 2019-12-19 Omron Corporation Fahrerüberwachungsvorrichtung, fahrerüberwachungsverfahren, lernvorrichtung und lernverfahren
US20200104617A1 (en) 2017-06-11 2020-04-02 Jungo Connectivity Ltd. System and method for remote monitoring of a human
JP6448880B1 (ja) 2017-06-22 2019-01-09 三菱電機株式会社 危険情報収集装置
US10592785B2 (en) * 2017-07-12 2020-03-17 Futurewei Technologies, Inc. Integrated system for detection of driver condition
JP6936098B2 (ja) 2017-09-29 2021-09-15 トヨタ自動車株式会社 対象物推定装置
US10322728B1 (en) * 2018-02-22 2019-06-18 Futurewei Technologies, Inc. Method for distress and road rage detection
US10867195B2 (en) * 2018-03-12 2020-12-15 Microsoft Technology Licensing, Llc Systems and methods for monitoring driver state
JP7161318B2 (ja) 2018-06-20 2022-10-26 矢崎総業株式会社 乗車人数監視システム
CN113056390A (zh) * 2018-06-26 2021-06-29 伊泰·卡茨 情境驾驶员监控系统
JP7135656B2 (ja) 2018-09-21 2022-09-13 トヨタ自動車株式会社 乗車マナー評価装置、乗車マナー評価システム、乗車マナー評価方法、及び乗車マナー評価用コンピュータプログラム
CN109712387B (zh) * 2018-09-26 2024-04-05 姜洪明 网约车、出租车的乘客和司机的安全保护系统
US10713948B1 (en) * 2019-01-31 2020-07-14 StradVision, Inc. Method and device for alerting abnormal driver situation detected by using humans' status recognition via V2V connection
US11226624B2 (en) 2019-04-11 2022-01-18 Motorola Solutions, Inc. System and method for enabling a 360-degree threat detection sensor system to monitor an area of interest surrounding a vehicle
US20210403022A1 (en) * 2019-07-05 2021-12-30 Lg Electronics Inc. Method for controlling vehicle and intelligent computing apparatus controlling the vehicle
US11507906B2 (en) * 2019-08-22 2022-11-22 Toyota Motor North America, Inc. Ride-sharing safety system
US11091166B1 (en) 2020-04-21 2021-08-17 Micron Technology, Inc. Driver screening
US11494865B2 (en) 2020-04-21 2022-11-08 Micron Technology, Inc. Passenger screening
KR20220000536A (ko) 2020-06-26 2022-01-04 현대자동차주식회사 차량 주행 제어 장치 및 방법
US20220194404A1 (en) 2020-12-23 2022-06-23 Beijing Didi Infinity Technology And Development Co., Ltd. Method and system for warning drivers in orders with high risk

Also Published As

Publication number Publication date
WO2021216578A1 (en) 2021-10-28
US11091166B1 (en) 2021-08-17
US11661069B2 (en) 2023-05-30
US20210347367A1 (en) 2021-11-11
EP4139178A4 (en) 2024-01-10
EP4139178A1 (en) 2023-03-01
CN115605386A (zh) 2023-01-13

Similar Documents

Publication Publication Date Title
US11604989B2 (en) Ann training through processing power of parked vehicles
KR20220156904A (ko) 운전자 스크리닝
US11494865B2 (en) Passenger screening
US20210316754A1 (en) Vehicles that can be customized and personalized via mobile user profiles
US11840246B2 (en) Selectively enable or disable vehicle features based on driver classification
US20240096217A1 (en) Crowdsourcing road conditions from abnormal vehicle events
CN113928328A (zh) 受损驾驶辅助
CN113619680B (zh) 自主驾驶员反馈系统和方法
CN113597391B (zh) 汽车行驶控制用运算装置及使用该运算装置的行驶控制系统
US11738804B2 (en) Training a vehicle to accommodate a driver
US11884235B2 (en) Mobile control of a vehicle
CN115428493A (zh) 车辆中用户配置文件的安全部署