KR102624991B1 - 승객의 특성에 기초한 차량 좌석 영역의 자동 조정 - Google Patents

승객의 특성에 기초한 차량 좌석 영역의 자동 조정 Download PDF

Info

Publication number
KR102624991B1
KR102624991B1 KR1020210117528A KR20210117528A KR102624991B1 KR 102624991 B1 KR102624991 B1 KR 102624991B1 KR 1020210117528 A KR1020210117528 A KR 1020210117528A KR 20210117528 A KR20210117528 A KR 20210117528A KR 102624991 B1 KR102624991 B1 KR 102624991B1
Authority
KR
South Korea
Prior art keywords
user
vehicle
seating area
determining
passenger
Prior art date
Application number
KR1020210117528A
Other languages
English (en)
Other versions
KR20230013592A (ko
Inventor
아쉬윈 아룬모지
Original Assignee
모셔널 에이디 엘엘씨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 모셔널 에이디 엘엘씨 filed Critical 모셔널 에이디 엘엘씨
Publication of KR20230013592A publication Critical patent/KR20230013592A/ko
Application granted granted Critical
Publication of KR102624991B1 publication Critical patent/KR102624991B1/ko

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • B60R16/037Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for occupant comfort, e.g. for automatic adjustment of appliances according to personal settings, e.g. seats, mirrors, steering wheel
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60NSEATS SPECIALLY ADAPTED FOR VEHICLES; VEHICLE PASSENGER ACCOMMODATION NOT OTHERWISE PROVIDED FOR
    • B60N2/00Seats specially adapted for vehicles; Arrangement or mounting of seats in vehicles
    • B60N2/02Seats specially adapted for vehicles; Arrangement or mounting of seats in vehicles the seat or part thereof being movable, e.g. adjustable
    • B60N2/0224Non-manual adjustments, e.g. with electrical operation
    • B60N2/0244Non-manual adjustments, e.g. with electrical operation with logic circuits
    • B60N2/0278Non-manual adjustments, e.g. with electrical operation with logic circuits using sensors external to the seat for measurements in relation to the seat adjustment, e.g. for identifying the presence of obstacles or the appropriateness of the occupants position
    • B60N2/0279Non-manual adjustments, e.g. with electrical operation with logic circuits using sensors external to the seat for measurements in relation to the seat adjustment, e.g. for identifying the presence of obstacles or the appropriateness of the occupants position for detecting objects outside the vehicle, e.g. for user identification
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60NSEATS SPECIALLY ADAPTED FOR VEHICLES; VEHICLE PASSENGER ACCOMMODATION NOT OTHERWISE PROVIDED FOR
    • B60N2/00Seats specially adapted for vehicles; Arrangement or mounting of seats in vehicles
    • B60N2/02Seats specially adapted for vehicles; Arrangement or mounting of seats in vehicles the seat or part thereof being movable, e.g. adjustable
    • B60N2/0224Non-manual adjustments, e.g. with electrical operation
    • B60N2/0244Non-manual adjustments, e.g. with electrical operation with logic circuits
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60NSEATS SPECIALLY ADAPTED FOR VEHICLES; VEHICLE PASSENGER ACCOMMODATION NOT OTHERWISE PROVIDED FOR
    • B60N2/00Seats specially adapted for vehicles; Arrangement or mounting of seats in vehicles
    • B60N2/24Seats specially adapted for vehicles; Arrangement or mounting of seats in vehicles for particular purposes or particular vehicles
    • B60N2/26Seats specially adapted for vehicles; Arrangement or mounting of seats in vehicles for particular purposes or particular vehicles for children
    • B60N2/265Adaptations for seat belts
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60NSEATS SPECIALLY ADAPTED FOR VEHICLES; VEHICLE PASSENGER ACCOMMODATION NOT OTHERWISE PROVIDED FOR
    • B60N2/00Seats specially adapted for vehicles; Arrangement or mounting of seats in vehicles
    • B60N2/002Seats provided with an occupancy detection means mounted therein or thereon
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60NSEATS SPECIALLY ADAPTED FOR VEHICLES; VEHICLE PASSENGER ACCOMMODATION NOT OTHERWISE PROVIDED FOR
    • B60N2/00Seats specially adapted for vehicles; Arrangement or mounting of seats in vehicles
    • B60N2/002Seats provided with an occupancy detection means mounted therein or thereon
    • B60N2/0021Seats provided with an occupancy detection means mounted therein or thereon characterised by the type of sensor or measurement
    • B60N2/0024Seats provided with an occupancy detection means mounted therein or thereon characterised by the type of sensor or measurement for identifying, categorising or investigation of the occupant or object on the seat
    • B60N2/0025Seats provided with an occupancy detection means mounted therein or thereon characterised by the type of sensor or measurement for identifying, categorising or investigation of the occupant or object on the seat by using weight measurement
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60NSEATS SPECIALLY ADAPTED FOR VEHICLES; VEHICLE PASSENGER ACCOMMODATION NOT OTHERWISE PROVIDED FOR
    • B60N2/00Seats specially adapted for vehicles; Arrangement or mounting of seats in vehicles
    • B60N2/02Seats specially adapted for vehicles; Arrangement or mounting of seats in vehicles the seat or part thereof being movable, e.g. adjustable
    • B60N2/0224Non-manual adjustments, e.g. with electrical operation
    • B60N2/0244Non-manual adjustments, e.g. with electrical operation with logic circuits
    • B60N2/0268Non-manual adjustments, e.g. with electrical operation with logic circuits using sensors or detectors for adapting the seat or seat part, e.g. to the position of an occupant
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60NSEATS SPECIALLY ADAPTED FOR VEHICLES; VEHICLE PASSENGER ACCOMMODATION NOT OTHERWISE PROVIDED FOR
    • B60N2/00Seats specially adapted for vehicles; Arrangement or mounting of seats in vehicles
    • B60N2/02Seats specially adapted for vehicles; Arrangement or mounting of seats in vehicles the seat or part thereof being movable, e.g. adjustable
    • B60N2/0224Non-manual adjustments, e.g. with electrical operation
    • B60N2/0244Non-manual adjustments, e.g. with electrical operation with logic circuits
    • B60N2/0273Non-manual adjustments, e.g. with electrical operation with logic circuits taking into account user data, e.g. knee height or physical state
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60NSEATS SPECIALLY ADAPTED FOR VEHICLES; VEHICLE PASSENGER ACCOMMODATION NOT OTHERWISE PROVIDED FOR
    • B60N2/00Seats specially adapted for vehicles; Arrangement or mounting of seats in vehicles
    • B60N2/64Back-rests or cushions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60NSEATS SPECIALLY ADAPTED FOR VEHICLES; VEHICLE PASSENGER ACCOMMODATION NOT OTHERWISE PROVIDED FOR
    • B60N2/00Seats specially adapted for vehicles; Arrangement or mounting of seats in vehicles
    • B60N2/70Upholstery springs ; Upholstery
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60NSEATS SPECIALLY ADAPTED FOR VEHICLES; VEHICLE PASSENGER ACCOMMODATION NOT OTHERWISE PROVIDED FOR
    • B60N2/00Seats specially adapted for vehicles; Arrangement or mounting of seats in vehicles
    • B60N2/75Arm-rests
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60NSEATS SPECIALLY ADAPTED FOR VEHICLES; VEHICLE PASSENGER ACCOMMODATION NOT OTHERWISE PROVIDED FOR
    • B60N2/00Seats specially adapted for vehicles; Arrangement or mounting of seats in vehicles
    • B60N2/80Head-rests
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60NSEATS SPECIALLY ADAPTED FOR VEHICLES; VEHICLE PASSENGER ACCOMMODATION NOT OTHERWISE PROVIDED FOR
    • B60N2210/00Sensor types, e.g. for passenger detection systems or for controlling seats
    • B60N2210/10Field detection presence sensors
    • B60N2210/16Electromagnetic waves
    • B60N2210/22Optical; Photoelectric; Lidar [Light Detection and Ranging]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60NSEATS SPECIALLY ADAPTED FOR VEHICLES; VEHICLE PASSENGER ACCOMMODATION NOT OTHERWISE PROVIDED FOR
    • B60N2210/00Sensor types, e.g. for passenger detection systems or for controlling seats
    • B60N2210/10Field detection presence sensors
    • B60N2210/16Electromagnetic waves
    • B60N2210/22Optical; Photoelectric; Lidar [Light Detection and Ranging]
    • B60N2210/24Cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60NSEATS SPECIALLY ADAPTED FOR VEHICLES; VEHICLE PASSENGER ACCOMMODATION NOT OTHERWISE PROVIDED FOR
    • B60N2210/00Sensor types, e.g. for passenger detection systems or for controlling seats
    • B60N2210/40Force or pressure sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2400/00Special features of vehicle units
    • B60Y2400/30Sensors
    • B60Y2400/301Sensors for position or displacement
    • B60Y2400/3015Optical cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/87Combinations of radar systems, e.g. primary radar and secondary radar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9316Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles combined with communication equipment with other vehicles or with base stations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9318Controlling the steering
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/93185Controlling the brakes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9319Controlling the accelerator
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30268Vehicle interior
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • G06V40/25Recognition of walking or running movements, e.g. gait recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Transportation (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Child & Adolescent Psychology (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Ophthalmology & Optometry (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Remote Sensing (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Traffic Control Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)

Abstract

승객의 특성들에 기초하여 차량 좌석 영역을 자동으로 조정하기 위한 방법들이 제공된다. 예시적인 방법에서, 차량의 시트 조정 시스템은 차량 외부에 있는 사용자의 적어도 하나의 측정치를 나타내는 센서 데이터를 수신하고, 센서 데이터에 기초하여 사용자의 적어도 하나의 특성을 결정하며; 사용자의 적어도 하나의 특성에 기초하여 차량의 좌석 영역에 대한 적어도 하나의 수정을 결정하고, 적어도 하나의 수정에 따라 좌석 영역이 조정되게 한다. 시스템들 및 컴퓨터 프로그램 제품들이 또한 제공된다.

Description

승객의 특성에 기초한 차량 좌석 영역의 자동 조정{AUTOMATICALLY ADJUSTING A VEHICLE SEATING AREA BASED ON THE CHARACTERISTICS OF A PASSENGER}
차량(예를 들면, 자율 주행 차량)은 한 명 이상의 승객을 수용하는 차량 내의 좌석 영역(seating area)을 포함할 수 있다. 예로서, 좌석 영역은 승객이 (예를 들면, 차량을 작동시키는 동안 및/또는 차량을 타고 목적지까지 주행하는 동안) 차량에서 앉을 수 있게 하는 하나 이상의 시트들을 포함할 수 있다. 다른 예로서, 좌석 영역은, 예컨대, 차량의 갑작스러운 움직임 및/또는 차량과 다른 대상체 간의 충돌로 인한 부상을 방지하기 위해, 좌석 영역 내에 승객을 고정시키는 하나 이상의 구속 수단들(restraints)(예를 들면, 안전 벨트들)을 포함할 수 있다.
도 1은 자율 주행 시스템(autonomous system)의 하나 이상의 컴포넌트들을 포함하는 차량이 구현될 수 있는 예시적인 환경이다;
도 2는 자율 주행 시스템을 포함하는 차량의 하나 이상의 시스템들의 다이어그램이다;
도 3은 도 1 및 도 2의 하나 이상의 디바이스들 및/또는 하나 이상의 시스템들의 컴포넌트들의 다이어그램이다;
도 4a는 차량의 승객의 특성들에 기초하여 차량 좌석 영역을 자동으로 조정하기 위한 예시적인 조정 시스템의 블록 다이어그램이다;
도 4b는 예시적인 시트 조정 시스템의 블록 다이어그램이다;
도 4c는 예시적인 안전 벨트 조정 시스템의 블록 다이어그램이다;
도 5a는 신경 네트워크의 구현의 다이어그램이다;
도 5b 및 도 5c는 CNN의 예시적인 동작을 예시하는 다이어그램이다;
도 6은 승객의 특성들에 기초하여 차량 좌석을 자동으로 조절하기 위한 프로세스의 플로차트이다.
이하의 설명에서는, 설명을 위해 본 개시에 대한 완전한 이해를 제공하기 위해 다수의 특정 세부 사항들이 기재된다. 그렇지만, 본 개시에 의해 기술되는 실시예들이 이러한 특정 세부 사항들이 없더라도 실시될 수 있음이 명백할 것이다. 일부 경우에, 본 개시의 양태들을 불필요하게 모호하게 하는 것을 피하기 위해 잘 알려진 구조들 및 디바이스들은 블록 다이어그램 형태로 예시되어 있다.
시스템, 디바이스, 모듈, 명령어 블록, 데이터 요소 등을 나타내는 것과 같은, 개략적인 요소들의 특정 배열들 또는 순서들은 설명의 편의를 위해 도면들에 예시되어 있다. 그렇지만, 본 기술 분야의 통상의 기술자라면 도면들에서의 개략적인 요소들의 특정 순서 또는 배열이, 그러한 것으로 명시적으로 기술되지 않는 한, 프로세스들의 특정 프로세싱 순서 또는 시퀀스, 또는 프로세스들의 분리가 필요하다는 것을 암시하는 것으로 의미되지 않음을 이해할 것이다. 게다가, 도면에 개략적인 요소를 포함시키는 것은, 그러한 것으로 명시적으로 기술되지 않는 한 일부 실시예들에서, 그러한 요소가 모든 실시예들에서 필요하다는 것 또는 그러한 요소에 의해 표현되는 특징들이 다른 요소들에 포함되지 않을 수 있거나 다른 요소들과 결합되지 않을 수 있다는 것을 암시하는 것으로 의미되지 않는다.
게다가, 2 개 이상의 다른 개략적인 요소 사이의 연결, 관계 또는 연관을 예시하기 위해 실선 또는 파선 또는 화살표와 같은 연결 요소들이 도면들에서 사용되는 경우에, 임의의 그러한 연결 요소들의 부재는 연결, 관계 또는 연관이 존재할 수 없음을 암시하는 것으로 의미되지 않는다. 환언하면, 본 개시를 모호하게 하지 않기 위해 요소들 사이의 일부 연결들, 관계들 또는 연관들이 도면들에 예시되어 있지 않다. 추가적으로, 예시의 편의를 위해, 요소들 사이의 다수의 연결들, 관계들 또는 연관들을 나타내기 위해 단일의 연결 요소가 사용될 수 있다. 예를 들어, 연결 요소가 신호들, 데이터 또는 명령어들(예를 들면, "소프트웨어 명령어들")의 통신을 나타내는 경우에, 본 기술 분야의 통상의 기술자라면 그러한 요소가, 통신을 수행하기 위해 필요로 할 수 있는, 하나 또는 다수의 신호 경로(예를 들면, 버스)를 나타낼 수 있다는 것을 이해할 것이다.
제1, 제2, 제3 등의 용어들이 다양한 컴포넌트들을 기술하는 데 사용되지만, 이러한 요소들이 이러한 용어들에 의해 제한되어서는 안된다. 제1, 제2, 제3 등의 용어들은 하나의 요소를 다른 요소와 구별하는 데만 사용된다. 예를 들어, 기술된 실시예들의 범위를 벗어나지 않으면서, 제1 접촉은 제2 접촉이라고 지칭될 수 있고, 유사하게 제2 접촉은 제1 접촉이라고 지칭될 수 있다. 제1 접촉과 제2 접촉 둘 모두가 접촉이지만, 동일한 접촉은 아니다.
본원에서의 다양한 기술된 실시예들에 대한 설명에서 사용되는 전문용어는 특정 실시예들을 기술하기 위해서만 포함되어 있으며, 제한하는 것으로 의도되지 않는다. 다양한 기술된 실시예들에 대한 설명 및 첨부된 청구항들에서 사용되는 바와 같이, 단수 형태들("a", "an" 및 "the")은 복수 형태들도 포함하는 것으로 의도되고, 문맥이 달리 명확히 나타내지 않는 한, "하나 이상" 또는 "적어도 하나"와 상호 교환 가능하게 사용될 수 있다. "및/또는"이라는 용어가, 본원에서 사용되는 바와 같이, 연관된 열거된 항목들 중 하나 이상의 항목들의 일부 및 모든 가능한 조합들을 지칭하고 포함한다는 것이 또한 이해될 것이다. "포함한다(includes, comprises)" 및/또는 "포함하는(including, comprising)"이라는 용어들이, 본 설명에서 사용될 때, 언급된 특징들, 정수들, 단계들, 동작들, 요소들, 및/또는 컴포넌트들의 존재를 명시하지만, 하나 이상의 다른 특징들, 정수들, 단계들, 동작들, 요소들, 컴포넌트들, 및/또는 이들의 그룹들의 존재 또는 추가를 배제하지 않는다는 것이 더 이해될 것이다.
본원에서 사용되는 바와 같이, "통신" 및 "통신하다"라는 용어들은 정보(또는, 예를 들어, 데이터, 신호들, 메시지들, 명령어들, 커맨드들 등에 의해 표현되는 정보)의 수신, 수용, 전송, 전달, 제공 등 중 적어도 하나를 지칭한다. 하나의 유닛(예를 들면, 디바이스, 시스템, 디바이스 또는 시스템의 컴포넌트, 이들의 조합들 등)이 다른 유닛과 통신한다는 것은 하나의 유닛이 직접 또는 간접적으로 다른 유닛으로부터 정보를 수신하고/하거나 다른 유닛으로 정보를 송신(예를 들면, 전송)할 수 있음을 의미한다. 이것은 본질적으로 유선 및/또는 무선인 직접 또는 간접 연결을 지칭할 수 있다. 추가적으로, 전송되는 정보가 제1 유닛과 제2 유닛 사이에서 수정, 프로세싱, 중계 및/또는 라우팅될 수 있을지라도 2 개의 유닛은 서로 통신할 수 있다. 예를 들어, 제1 유닛이 정보를 수동적으로 수신하고 정보를 제2 유닛으로 능동적으로 전송하지 않을지라도 제1 유닛은 제2 유닛과 통신할 수 있다. 다른 예로서, 적어도 하나의 중간 유닛(예를 들면, 제1 유닛과 제2 유닛 사이에 위치하는 제3 유닛)이 제1 유닛으로부터 수신되는 정보를 프로세싱하고 프로세싱된 정보를 제2 유닛으로 전송하는 경우 제1 유닛은 제2 유닛과 통신할 수 있다. 일부 실시예들에서, 메시지는 데이터를 포함하는 네트워크 패킷(예를 들면, 데이터 패킷 등)을 지칭할 수 있다.
본원에서 사용되는 바와 같이, "~ 경우"라는 용어는, 선택적으로, 문맥에 따라 "~할 때", 또는 "~시에" 또는 "~라고 결정하는 것에 응답하여", "~을 검출하는 것에 응답하여" 등을 의미하는 것으로 해석된다. 유사하게, 문구 "~라고 결정되는 경우" 또는 "[언급된 조건 또는 이벤트]가 검출되는 경우"는, 선택적으로, 문맥에 따라, "~라고 결정할 시에", "~라고 결정하는 것에 응답하여", "[언급된 조건 또는 이벤트]를 검출할 시에", "[언급된 조건 또는 이벤트]를 검출하는 것에 응답하여" 등을 의미하는 것으로 해석된다. 또한, 본원에서 사용되는 바와 같이, "갖다"(has, have), "가지는(having)" 등의 용어들은 개방형(open-ended) 용어인 것으로 의도된다. 게다가, 문구 "~에 기초하여"는, 달리 명시적으로 언급되지 않는 한, "~에 적어도 부분적으로 기초하여"를 의미하는 것으로 의도된다.
그 예가 첨부 도면들에 예시되어 있는 실시예들에 대해 이제 상세하게 언급될 것이다. 이하의 상세한 설명에서, 다양한 기술된 실시예들에 대한 완전한 이해를 제공하기 위해 많은 특정 세부 사항들이 기재된다. 그렇지만, 다양한 기술된 실시예들이 이러한 특정 세부 사항들이 없더라도 실시될 수 있다는 것이 본 기술 분야의 통상의 기술자에게 명백할 것이다. 다른 경우에, 실시예들의 양태들을 불필요하게 모호하게 하지 않기 위해 잘 알려진 방법들, 절차들, 컴포넌트들, 회로들, 및 네트워크들은 상세하게 기술되지 않았다.
일반적 개관
일부 양태들 및/또는 실시예들에서, 본원에 기술된 시스템들, 방법들, 및 컴퓨터 프로그램 제품들은 승객의 특성들에 기초하여 차량 좌석 영역을 자동으로 조정하기 위한 시스템을 포함하고/하거나 구현한다. 예시적인 실시예에서, 승객이 차량(예를 들면, 자율 주행 차량)에 탑승하기 전에, 차량은 승객의 특성들을 결정하고 승객의 안전 및/또는 편의를 개선시키기 위해 차량의 좌석 영역의 구성을 선제적으로 조정한다.
예로서, 승객이 차량에 접근할 때, 차량은 외향(external-facing) 센서들(예를 들면, LiDAR 센서들, 카메라들 등)을 사용하여, 사용자의 신장, 체형, 골격 구조, 체형, 걸음걸이 등과 같은, 사용자의 신체 특성들을 결정할 수 있다. 게다가, 차량은, 사용자의 나이, 성별 및 개인 선호사항들과 같은, 사용자에 관한 추가 정보를 검색할 수 있다. 이 정보에 기초하여, 차량은 승객을 수용하도록 좌석 영역에 대한 일단의 조정들을 자동으로 결정하고, 사용자가 차량에 탑승하기 전에 이러한 조정들을 적용할 수 있다.
일부 실시예들에서, 일단의 조정들은 신경 네트워크에, 적어도 부분적으로, 기초하여 결정될 수 있다. 예를 들어, 신경 네트워크는 사용자들의 집단으로부터 획득되는 트레이닝 데이터에 기초하여 트레이닝될 수 있다. 트레이닝 데이터는 (예를 들면, 위에서 기술된 정보와 유사한) 해당 사용자들 각각의 특성들, 및 해당 사용자들에 대한 선호된 좌석 영역 구성들을 포함할 수 있다. 일단 트레이닝되면, 신경 네트워크는, 해당 승객의 특성들을 감안하여, 특정 승객을 위한 좌석 영역에 대한 일단의 조정들을 선택하는 데 사용될 수 있다.
일부 실시예들에서, 일단 승객이 차량에 착석하면 차량은 좌석 영역에 대한 추가의 조정들을 수행할 수 있다. 예를 들어, 차량은 승객의 안전과 편의를 더욱 개선시키기 위해 내향(interior-facing) 센서들(예를 들면, 카메라들)을 사용하여 좌석 영역의 다양한 컴포넌트들(예를 들면, 팔걸이, 머리 받침대 등)에 상대적인 승객의 신체의 위치를 결정하고 좌석 영역의 구성을 조정할 수 있다.
본원에서 기술되는 시스템들, 방법들 및 컴퓨터 프로그램 제품들의 구현으로 인해, 차량은 보다 효율적으로 및/또는 보다 안전한 방식으로 작동될 수 있다. 예를 들어, 이러한 기술들의 장점들 중 일부는 차량을 타고 주행하는 동안 승객의 안전 및/또는 편의를 개선시키는 것을 포함한다. 예를 들어, 좌석 영역은 (예를 들면, 차량의 충돌 또는 갑작스러운 움직임의 경우에) 승객의 부상 가능성을 감소시키기 위해 조정될 수 있다. 다른 예로서, 사용자가 차량에 착석해 있는 동안 덜 피로하도록, 좌석 영역이 차량의 인간공학적 속성들을 향상시키도록 조정될 수 있다.
추가의 장점들은 사용자가 차량의 좌석 영역을 자신의 선호사항들에 맞게 조정하는 데 소비할 수 있는 시간량을 감소시키는 것을 포함한다. 예를 들어, 차량은, 승객이 차량에 탑승하기 전에, 승객을 위한 일단의 조정들을 선제적으로 결정하고 적용할 수 있다. 그에 따라, 승객은, 그렇지 않았으면 주행을 지연시킬 수 있는, 탑승 시의 좌석 영역의 구성에 대한 조정들을 수행할 가능성이 적다.
이제 도 1을 참조하면, 자율 주행 시스템들을 포함하는 차량들은 물론 그렇지 않은 차량들이 작동되는 예시적인 환경(100)이 예시되어 있다. 예시된 바와 같이, 환경(100)은 차량들(102a 내지 102n), 대상체들(104a 내지 104n), 루트들(106a 내지 106n), 영역(108), 차량 대 인프라스트럭처(vehicle-to-infrastructure, V2I) 디바이스(110), 네트워크(112), 원격 자율 주행 차량(AV) 시스템(114), 플릿 관리 시스템(fleet management system)(116), 및 V2I 시스템(118)을 포함한다. 차량들(102a 내지 102n), 차량 대 인프라스트럭처(V2I) 디바이스(110), 네트워크(112), 자율 주행 차량(AV) 시스템(114), 플릿 관리 시스템(116), 및 V2I 시스템(118)은 유선 연결들, 무선 연결들, 또는 유선 또는 무선 연결들의 조합을 통해 상호 연결한다(예를 들면, 통신 등을 위해 연결을 확립한다). 일부 실시예들에서, 대상체들(104a 내지 104n)은 유선 연결들, 무선 연결들 또는 유선 또는 무선 연결들의 조합을 통해 차량들(102a 내지 102n), 차량 대 인프라스트럭처(V2I) 디바이스(110), 네트워크(112), 자율 주행 차량(AV) 시스템(114), 플릿 관리 시스템(116), 및 V2I 시스템(118) 중 적어도 하나와 상호연결한다.
차량들(102a 내지 102n)(개별적으로 차량(102)이라고 지칭되고 집합적으로 차량들(102)이라고 지칭됨)은 상품 및/또는 사람을 운송하도록 구성된 적어도 하나의 디바이스를 포함한다. 일부 실시예들에서, 차량들(102)은 네트워크(112)를 통해 V2I 디바이스(110), 원격 AV 시스템(114), 플릿 관리 시스템(116), 및/또는 V2I 시스템(118)과 통신하도록 구성된다. 일부 실시예들에서, 차량들(102)은 자동차, 버스, 트럭, 기차 등을 포함한다. 일부 실시예들에서, 차량들(102)은 본원에서 기술된 차량들(200)(도 2 참조)과 동일하거나 유사하다. 일부 실시예들에서, 일단의 차량들(200) 중의 차량(200)은 자율 주행 플릿 관리자와 연관된다. 일부 실시예들에서, 차량들(102)은, 본원에 기술된 바와 같이, 각자의 루트들(106a 내지 106n)(개별적으로 루트(106)라고 지칭되고 집합적으로 루트들(106)이라고 지칭됨)를 따라 주행한다. 일부 실시예들에서, 하나 이상의 차량들(102)은 자율 주행 시스템(예를 들면, 자율 주행 시스템(202)과 동일하거나 유사한 자율 주행 시스템)을 포함한다.
대상체들(104a 내지 104n)(개별적으로 대상체(104)라고 지칭되고 집합적으로 대상체들(104)이라고 지칭됨)은, 예를 들어, 적어도 하나의 차량, 적어도 하나의 보행자, 적어도 하나의 자전거 타는 사람, 적어도 하나의 구조물(예를 들면, 건물, 표지판, 소화전(fire hydrant) 등) 등을 포함한다. 각각의 대상체(104)는 정지해 있거나(예를 들면, 일정 시간 기간 동안 고정 위치에 위치하거나) 이동하고 있다(예를 들면, 속도를 갖고 적어도 하나의 궤적과 연관되어 있다). 일부 실시예들에서, 대상체들(104)은 영역(108) 내의 대응하는 위치들과 연관되어 있다.
루트들(106a 내지 106n)(개별적으로 루트(106)라고 지칭되고 집합적으로 루트들(106)이라고 지칭됨)은 각각 AV가 운행할 수 있는 상태들을 연결하는 행동들의 시퀀스(궤적이라고도 함)와 연관된다(예를 들면, 이를 규정한다). 각각의 루트(106)는 초기 상태(예를 들면, 제1 시공간적 위치, 속도 등에 대응하는 상태) 및 최종 목표 상태(예를 들면, 제1 시공간적 위치와 상이한 제2 시공간적 위치에 대응하는 상태) 또는 목표 영역(예를 들면, 허용 가능한 상태들(예를 들면, 종료 상태들(terminal states))의 부분 공간(subspace))에서 시작된다. 일부 실시예들에서, 제1 상태는 개인 또는 개인들이 AV에 의해 픽업(pick-up)되어야 하는 위치를 포함하고 제2 상태 또는 영역은 AV에 의해 픽업된 개인 또는 개인들이 하차(drop-off)해야 하는 위치 또는 위치들을 포함한다. 일부 실시예들에서, 루트들(106)은 복수의 허용 가능한 상태 시퀀스들(예를 들면, 복수의 시공간적 위치 시퀀스들)을 포함하며, 복수의 상태 시퀀스들은 복수의 궤적들과 연관된다(예를 들면, 이를 정의한다). 일 예에서, 루트들(106)은, 도로 교차로들에서의 회전 방향들을 지시하는 일련의 연결된 도로들과 같은, 상위 레벨 행동들 또는 부정확한 상태 위치들만을 포함한다. 추가적으로 또는 대안적으로, 루트들(106)은, 예를 들어, 특정 목표 차선들 또는 차선 영역들 내에서의 정확한 위치들 및 해당 위치들에서의 목표 속력과 같은, 보다 정확한 행동들 또는 상태들을 포함할 수 있다. 일 예에서, 루트들(106)은 중간 목표들에 도달하기 위해 제한된 룩어헤드 호라이즌(lookahead horizon)을 갖는 적어도 하나의 상위 레벨 행동 시퀀스를 따른 복수의 정확한 상태 시퀀스들을 포함하며, 여기서 제한된 호라이즌 상태 시퀀스들의 연속적인 반복들의 조합은 누적되어 복수의 궤적들에 대응하며 이 복수의 궤적들은 집합적으로 최종 목표 상태 또는 영역에서 종료하는 상위 레벨 루트를 형성한다.
영역(108)은 차량(102)이 운행할 수 있는 물리적 영역(예를 들면, 지리적 영역)을 포함한다. 일 예에서, 영역(108)은 적어도 하나의 주(state)(예를 들면, 국가, 지방, 국가에 포함된 복수의 주들의 개개의 주 등), 주의 적어도 하나의 부분, 적어도 하나의 도시, 도시의 적어도 하나의 부분 등을 포함한다. 일부 실시예들에서, 영역(108)은 간선 도로, 주간 간선 도로, 공원 도로, 도시 거리 등과 같은 적어도 하나의 명명된 주요 도로(thoroughfare)(본원에서 "도로"라고 지칭됨)를 포함한다. 추가적으로 또는 대안적으로, 일부 예들에서, 영역(108)은 진입로, 주차장의 섹션, 공터 및/또는 미개발 부지의 섹션, 비포장 경로 등과 같은 적어도 하나의 명명되지 않은 도로를 포함한다. 일부 실시예들에서, 도로는 적어도 하나의 차선(예를 들면, 차량(102)에 의해 횡단될 수 있는 도로의 일 부분)을 포함한다. 일 예에서, 도로는 적어도 하나의 차선 마킹과 연관된(예를 들면, 이에 기초하여 식별되는) 적어도 하나의 차선을 포함한다.
차량 대 인프라스트럭처(V2I) 디바이스(110)(때때로 차량 대 인프라스트럭처(V2X) 디바이스라고 지칭됨)는 차량들(102) 및/또는 V2I 인프라스트럭처 시스템(118)과 통신하도록 구성된 적어도 하나의 디바이스를 포함한다. 일부 실시예들에서, V2I 디바이스(110)는 네트워크(112)를 통해 차량들(102), 원격 AV 시스템(114), 플릿 관리 시스템(116), 및/또는 V2I 시스템(118)과 통신하도록 구성된다. 일부 실시예들에서, V2I 디바이스(110)는 RFID(radio frequency identification) 디바이스, 사이니지(signage), 카메라(예를 들면, 2차원(2D) 및/또는 3차원(3D) 카메라), 차선 마커, 가로등, 주차 미터기 등을 포함한다. 일부 실시예들에서, V2I 디바이스(110)는 차량들(102)과 직접 통신하도록 구성된다. 추가적으로 또는 대안적으로, 일부 실시예들에서, V2I 디바이스(110)는 V2I 시스템(118)을 통해 차량들(102), 원격 AV 시스템(114), 및/또는 플릿 관리 시스템(116)과 통신하도록 구성된다. 일부 실시예들에서, V2I 디바이스(110)는 네트워크(112)를 통해 V2I 시스템(118)과 통신하도록 구성된다.
네트워크(112)는 하나 이상의 유선 및/또는 무선 네트워크들을 포함한다. 일 예에서, 네트워크(112)는 셀룰러 네트워크(예를 들면, LTE(long term evolution) 네트워크, 3G(third generation) 네트워크, 4G(fourth generation) 네트워크, 5G(fifth generation) 네트워크, CDMA(code division multiple access) 네트워크 등), PLMN(public land mobile network), LAN(local area network), WAN(wide area network), MAN(metropolitan area network), 전화 네트워크(예를 들면, PSTN(public switched telephone network)), 사설 네트워크, 애드혹 네트워크, 인트라넷, 인터넷, 광섬유 기반 네트워크, 클라우드 컴퓨팅 네트워크 등, 이러한 네트워크들의 일부 또는 전부의 조합 등을 포함한다.
원격 AV 시스템(114)은 네트워크(112)를 통해 차량들(102), V2I 디바이스(110), 네트워크(112), 원격 AV 시스템(114), 플릿 관리 시스템(116), 및/또는 V2I 시스템(118)과 통신하도록 구성된 적어도 하나의 디바이스를 포함한다. 일 예에서, 원격 AV 시스템(114)은 서버, 서버들의 그룹, 및/또는 다른 유사한 디바이스들을 포함한다. 일부 실시예들에서, 원격 AV 시스템(114)은 플릿 관리 시스템(116)과 동일 위치에 배치된다(co-located). 일부 실시예들에서, 원격 AV 시스템(114)은 자율 주행 시스템, 자율 주행 차량 컴퓨터, 자율 주행 차량 컴퓨터에 의해 구현되는 소프트웨어 등을 포함한, 차량의 컴포넌트들 중 일부 또는 전부의 설치에 관여된다. 일부 실시예들에서, 원격 AV 시스템(114)은 차량의 수명 동안 그러한 컴포넌트들 및/또는 소프트웨어를 유지(예를 들면, 업데이트 및/또는 교체)한다.
플릿 관리 시스템(116)은 차량들(102), V2I 디바이스(110), 원격 AV 시스템(114), 및/또는 V2I 인프라스트럭처 시스템(118)과 통신하도록 구성된 적어도 하나의 디바이스를 포함한다. 일 예에서, 플릿 관리 시스템(116)은 서버, 서버들의 그룹, 및/또는 다른 유사한 디바이스들을 포함한다. 일부 실시예들에서, 플릿 관리 시스템(116)은 라이드 셰어링(ridesharing) 회사(예를 들면, 다수의 차량들(예를 들면, 자율 주행 시스템들을 포함하는 차량들 및/또는 자율 주행 시스템들을 포함하지 않는 차량들)의 동작을 제어하는 조직 등)와 연관된다.
일부 실시예들에서, V2I 시스템(118)은 네트워크(112)를 통해 차량들(102), V2I 디바이스(110), 원격 AV 시스템(114), 및/또는 플릿 관리 시스템(116)과 통신하도록 구성된 적어도 하나의 디바이스를 포함한다. 일부 예들에서, V2I 시스템(118)은 네트워크(112)와 상이한 연결을 통해 V2I 디바이스(110)와 통신하도록 구성된다. 일부 실시예들에서, V2I 시스템(118)은 서버, 서버들의 그룹, 및/또는 다른 유사한 디바이스들을 포함한다. 일부 실시예들에서, V2I 시스템(118)은 지자체 또는 사설 기관(예를 들면, V2I 디바이스(110) 등을 유지 관리하는 사설 기관)과 연관된다.
도 1에 예시된 요소들의 수 및 배열은 예로서 제공된다. 도 1에 예시된 것보다, 추가적인 요소들, 더 적은 요소들, 상이한 요소들 및/또는 상이하게 배열된 요소들이 있을 수 있다. 추가적으로 또는 대안적으로, 환경(100)의 적어도 하나의 요소는 도 1의 적어도 하나의 상이한 요소에 의해 수행되는 것으로 기술된 하나 이상의 기능들을 수행할 수 있다. 추가적으로 또는 대안적으로, 환경(100)의 적어도 하나의 요소 세트는 환경(100)의 적어도 하나의 상이한 요소 세트에 의해 수행되는 것으로 기술된 하나 이상의 기능들을 수행할 수 있다.
이제 도 2를 참조하면, 차량(200)은 자율 주행 시스템(202), 파워트레인 제어 시스템(204), 조향 제어 시스템(206), 및 브레이크 시스템(208)을 포함한다. 일부 실시예들에서, 차량(200)은 차량(102)(도 1 참조)과 동일하거나 유사하다. 일부 실시예들에서, 차량(102)은 자율 주행 능력을 갖는다(예를 들면, 완전 자율 주행 차량들(예를 들면, 인간 개입에 의존하지 않는 차량들), 고도 자율 주행 차량들(예를 들면, 특정 상황들에서 인간 개입에 의존하지 않는 차량들) 등을, 제한 없이, 포함한, 차량(200)이 인간 개입 없이 부분적으로 또는 완전히 작동될 수 있게 하는 적어도 하나의 기능, 특징, 디바이스 등을 구현한다). 완전 자율 주행 차량들 및 고도 자율 주행 차량들에 대한 상세한 설명에 대해서는, 그 전체가 참고로 포함되는, SAE International's standard J3016: Taxonomy and Definitions for Terms Related to On-Road Motor Vehicle Automated Driving Systems을 참조할 수 있다. 일부 실시예들에서, 차량(200)은 자율 주행 플릿 관리자 및/또는 라이드 셰어링 회사와 연관된다.
자율 주행 시스템(202)은 카메라들(202a), LiDAR 센서들(202b), 레이더 센서들(202c), 및 마이크로폰들(202d)과 같은 하나 이상의 디바이스들을 포함하는 센서 스위트(sensor suite)를 포함한다. 일부 실시예들에서, 자율 주행 시스템(202)은 보다 많거나 보다 적은 디바이스들 및/또는 상이한 디바이스들(예를 들면, 초음파 센서들, 관성 센서들, GPS 수신기들(아래에서 논의됨), 차량(200)이 주행한 거리의 표시와 연관된 데이터를 생성하는 주행 거리 측정 센서들 등)을 포함할 수 있다. 일부 실시예들에서, 자율 주행 시스템(202)은 자율 주행 시스템(202)에 포함된 하나 이상의 디바이스들을 사용하여 본원에서 기술되는 환경(100)과 연관된 데이터를 생성한다. 자율 주행 시스템(202)의 하나 이상의 디바이스들에 의해 생성되는 데이터는 차량(200)이 위치하는 환경(예를 들면, 환경(100))을 관측하기 위해 본원에 기술된 하나 이상의 시스템들에 의해 사용될 수 있다. 일부 실시예들에서, 자율 주행 시스템(202)은 통신 디바이스(202e), 자율 주행 차량 컴퓨터(202f), 및 드라이브 바이 와이어(drive-by-wire, DBW) 시스템(202h)을 포함한다.
카메라들(202a)은 버스(예를 들면, 도 3의 버스(302)와 동일하거나 유사한 버스)를 통해 통신 디바이스(202e), 자율 주행 차량 컴퓨터(202f) 및/또는 안전 제어기(202g)와 통신하도록 구성된 적어도 하나의 디바이스를 포함한다. 카메라들(202a)은 물리적 대상체들(예를 들면, 자동차, 버스, 연석, 사람 등)을 포함하는 이미지들을 캡처하기 위한 적어도 하나의 카메라(예를 들면, CCD(charge-coupled device)와 같은 광 센서를 사용하는 디지털 카메라, 열 카메라, 적외선(IR) 카메라, 이벤트 카메라 등)를 포함한다. 일부 실시예들에서, 카메라(202a)는 카메라 데이터를 출력으로서 생성한다. 일부 예들에서, 카메라(202a)는 이미지와 연관된 이미지 데이터를 포함하는 카메라 데이터를 생성한다. 이 예에서, 이미지 데이터는 이미지에 대응하는 적어도 하나의 파라미터(예를 들면, 노출, 밝기 등과 같은 이미지 특성들, 이미지 타임스탬프 등)를 명시할 수 있다. 그러한 예에서, 이미지는 한 형식(예를 들면, RAW, JPEG, PNG 등)으로 되어 있을 수 있다. 일부 실시예들에서, 카메라(202a)는 입체시(stereopsis)(스테레오 비전(stereo vision))를 위해 이미지들을 캡처하도록 차량 상에 구성된(예를 들면, 차량 상에 위치된) 복수의 독립적인 카메라들을 포함한다. 일부 예들에서, 카메라(202a)는 복수의 카메라들을 포함하고, 이 복수의 카메라들은 이미지 데이터를 생성하고 이미지 데이터를 자율 주행 차량 컴퓨터(202f) 및/또는 플릿 관리 시스템(예를 들면, 도 1의 플릿 관리 시스템(116)과 동일하거나 유사한 플릿 관리 시스템)으로 전송한다. 그러한 예에서, 자율 주행 차량 컴퓨터(202f)는 적어도 2 개의 카메라들로부터의 이미지 데이터에 기초하여 복수의 카메라들 중 적어도 2 개의 카메라들의 시야 내의 하나 이상의 대상체들까지의 깊이를 결정한다. 일부 실시예들에서, 카메라들(202a)은 카메라들(202a)로부터 일정 거리(예를 들면, 최대 100 미터, 최대 1 킬로미터 등) 내의 대상체들의 이미지들을 캡처하도록 구성된다. 그에 따라, 카메라들(202a)은 카메라들(202a)로부터 하나 이상의 거리들에 있는 대상체들을 인지하도록 최적화된 센서들 및 렌즈들과 같은 특징부들을 포함한다.
일 실시예에서, 카메라(202a)는 시각적 내비게이션 정보를 제공하는 하나 이상의 교통 신호등들, 거리 표지판들 및/또는 다른 물리적 대상체들과 연관된 하나 이상의 이미지들을 캡처하도록 구성된 적어도 하나의 카메라를 포함한다. 일부 실시예들에서, 카메라(202a)는 하나 이상의 이미지들과 연관된 교통 신호등 데이터를 생성한다. 일부 예들에서, 카메라(202a)는 한 형식(예를 들면, RAW, JPEG, PNG 등)을 포함하는 하나 이상의 이미지들과 연관된 TLD 데이터를 생성한다. 일부 실시예들에서, TLD 데이터를 생성하는 카메라(202a)는, 카메라(202a)가 가능한 한 많은 물리적 대상체들에 관한 이미지들을 생성하기 위해 넓은 시야를 갖는 하나 이상의 카메라들(예를 들면, 광각 렌즈, 어안 렌즈, 대략 120도 이상의 시야각을 갖는 렌즈 등)을 포함할 수 있다는 점에서, 카메라들을 포함하는 본원에 기술된 다른 시스템들과 상이하다.
LiDAR(Laser Detection and Ranging) 센서들(202b)은 버스(예를 들면, 도 3의 버스(302)와 동일하거나 유사한 버스)를 통해 통신 디바이스(202e), 자율 주행 차량 컴퓨터(202f), 및/또는 안전 제어기(202g)와 통신하도록 구성된 적어도 하나의 디바이스를 포함한다. LiDAR 센서들(202b)은 광 방출기(예를 들면, 레이저 송신기)로부터 광을 전송하도록 구성된 시스템을 포함한다. LiDAR 센서들(202b)에 의해 방출되는 광은 가시 스펙트럼 밖에 있는 광(예를 들면, 적외선 광 등)을 포함한다. 일부 실시예들에서, 작동 동안, LiDAR 센서들(202b)에 의해 방출되는 광은 물리적 대상체(예를 들면, 차량)과 조우하고 LiDAR 센서들(202b)로 다시 반사된다. 일부 실시예들에서, LiDAR 센서들(202b)에 의해 방출되는 광은 광이 조우하는 물리적 대상체들을 투과하지 않는다. LiDAR 센서들(202b)은 광 방출기로부터 방출된 광이 물리적 대상체와 조우한 후에 그 광을 검출하는 적어도 하나의 광 검출기를 또한 포함한다. 일부 실시예들에서, LiDAR 센서들(202b)과 연관된 적어도 하나의 데이터 프로세싱 시스템은 LiDAR 센서들(202b)의 시야에 포함된 대상체들을 나타내는 이미지(예를 들면, 포인트 클라우드, 결합된 포인트 클라우드(combined point cloud) 등)를 생성한다. 일부 예들에서, LiDAR 센서(202b)와 연관된 적어도 하나의 데이터 프로세싱 시스템은 물리적 대상체의 경계들, 물리적 대상체의 표면들(예를 들면, 표면들의 토폴로지) 등을 나타내는 이미지를 생성한다. 그러한 예에서, 이미지는 LiDAR 센서들(202b)의 시야 내의 물리적 대상체들의 경계들을 결정하는 데 사용된다.
레이더(radar, Radio Detection and Ranging) 센서들(202c)은 버스(예를 들면, 도 3의 버스(302)와 동일하거나 유사한 버스)를 통해 통신 디바이스(202e), 자율 주행 차량 컴퓨터(202f) 및/또는 안전 제어기(202g)와 통신하도록 구성된 적어도 하나의 디바이스를 포함한다. 레이더 센서들(202c)은 전파들을 (펄스형으로 또는 연속적으로) 전송하도록 구성된 시스템을 포함한다. 레이더 센서들(202c)에 의해 전송되는 전파들은 미리 결정된 스펙트럼 내에 있는 전파들을 포함한다. 일부 실시예들에서, 작동 동안, 레이더 센서들(202c)에 의해 전송되는 전파들은 물리적 대상체와 조우하고 레이더 센서들(202c)로 다시 반사된다. 일부 실시예들에서, 레이더 센서들(202c)에 의해 전송되는 전파들이 일부 대상체들에 의해 반사되지 않는다. 일부 실시예들에서, 레이더 센서들(202c)과 연관된 적어도 하나의 데이터 프로세싱 시스템은 레이더 센서들(202c)의 시야에 포함된 대상체들을 나타내는 신호들을 생성한다. 예를 들어, 레이더 센서(202c)와 연관된 적어도 하나의 데이터 프로세싱 시스템은 물리적 대상체의 경계들, 물리적 대상체의 표면들(예를 들면, 표면들의 토폴로지) 등을 나타내는 이미지를 생성한다. 일부 예들에서, 이미지는 레이더 센서들(202c)의 시야 내의 물리적 대상체들의 경계들을 결정하는 데 사용된다.
마이크로폰들(202d)은 버스(예를 들면, 도 3의 버스(302)와 동일하거나 유사한 버스)를 통해 통신 디바이스(202e), 자율 주행 차량 컴퓨터(202f) 및/또는 안전 제어기(202g)와 통신하도록 구성된 적어도 하나의 디바이스를 포함한다. 마이크로폰들(202d)은 오디오 신호들을 캡처하고 오디오 신호들과 연관된(예를 들면, 이를 나타내는) 데이터를 생성하는 하나 이상의 마이크로폰들(예를 들면, 어레이 마이크로폰들, 외부 마이크로폰들 등)을 포함한다. 일부 예들에서, 마이크로폰들(202d)은 트랜스듀서 디바이스들 및/또는 유사 디바이스들을 포함한다. 일부 실시예들에서, 본원에 기술된 하나 이상의 시스템들은 마이크로폰들(202d)에 의해 생성되는 데이터를 수신하고 데이터와 연관된 오디오 신호들에 기초하여 차량(200)에 상대적인 대상체의 위치(예를 들면, 거리 등)를 결정할 수 있다.
통신 디바이스(202e)는 카메라들(202a), LiDAR 센서들(202b), 레이더 센서들(202c), 마이크로폰들(202d), 자율 주행 차량 컴퓨터(202f), 안전 제어기(202g), 및/또는 DBW 시스템(202h)과 통신하도록 구성된 적어도 하나의 디바이스를 포함한다. 예를 들어, 통신 디바이스(202e)는 도 3의 통신 인터페이스(314)와 동일하거나 유사한 디바이스를 포함할 수 있다. 일부 실시예들에서, 통신 디바이스(202e)는 차량 대 차량(vehicle-to-vehicle, V2V) 통신 디바이스(예를 들면, 차량들 간의 데이터의 무선 통신을 가능하게 하는 디바이스)를 포함한다.
자율 주행 차량 컴퓨터(202f)는 카메라들(202a), LiDAR 센서들(202b), 레이더 센서들(202c), 마이크로폰들(202d), 통신 디바이스(202e), 안전 제어기(202g), 및/또는 DBW 시스템(202h)과 통신하도록 구성된 적어도 하나의 디바이스를 포함한다. 일부 예들에서, 자율 주행 차량 컴퓨터(202f)는 클라이언트 디바이스, 모바일 디바이스(예를 들면, 셀룰러 전화, 태블릿 등), 서버(예를 들면, 하나 이상의 중앙 프로세싱 유닛들, 그래픽 프로세싱 유닛들 등을 포함하는 컴퓨팅 디바이스) 등과 같은 디바이스를 포함한다. 추가적으로 또는 대안적으로, 일부 실시예들에서, 자율 주행 차량 컴퓨터(202f)는 자율 주행 차량 시스템(예를 들면, 도 1의 원격 AV 시스템(114)과 동일하거나 유사한 자율 주행 차량 시스템), 플릿 관리 시스템(예를 들면, 도 1의 플릿 관리 시스템(116)과 동일하거나 유사한 플릿 관리 시스템), V2I 디바이스(예를 들면, 도 1의 V2I 디바이스(110)와 동일하거나 유사한 V2I 디바이스), 및/또는 V2I 시스템(예를 들면, 도 1의 V2I 시스템(118)과 동일하거나 유사한 V2I 시스템)과 통신하도록 구성된다.
안전 제어기(202g)는 카메라들(202a), LiDAR 센서들(202b), 레이더 센서들(202c), 마이크로폰들(202d), 통신 디바이스(202e), 자율 주행 차량 컴퓨터(202f), 및/또는 DBW 시스템(202h)과 통신하도록 구성된 적어도 하나의 디바이스를 포함한다. 일부 예들에서, 안전 제어기(202g)는 차량(200)의 하나 이상의 디바이스들(예를 들면, 파워트레인 제어 시스템(204), 조향 제어 시스템(206), 브레이크 시스템(208) 등)을 작동시키기 위한 제어 신호들을 생성 및/또는 전송하도록 구성된 하나 이상의 제어기들(전기 제어기들, 전기기계 제어기들 등)을 포함한다. 일부 실시예들에서, 안전 제어기(202g)는 자율 주행 차량 컴퓨터(202f)에 의해 생성 및/또는 전송되는 제어 신호들보다 우선하는(예를 들면, 이를 무시하는) 제어 신호들을 생성하도록 구성된다.
DBW 시스템(202h)은 통신 디바이스(202e) 및/또는 자율 주행 차량 컴퓨터(202f)와 통신하도록 구성된 적어도 하나의 디바이스를 포함한다. 일부 예들에서, DBW 시스템(202h)은 차량(200)의 하나 이상의 디바이스들(예를 들면, 파워트레인 제어 시스템(204), 조향 제어 시스템(206), 브레이크 시스템(208) 등)을 작동시키기 위한 제어 신호들을 생성 및/또는 전송하도록 구성된 하나 이상의 제어기들(예를 들면, 전기 제어기들, 전기기계 제어기들 등)을 포함한다. 추가적으로 또는 대안적으로, DBW 시스템(202h)의 하나 이상의 제어기들은 차량(200)의 적어도 하나의 상이한 디바이스(예를 들면, 방향 지시등, 헤드라이트, 도어록, 윈도실드 와이퍼 등)를 작동시키기 위한 제어 신호들을 생성 및/또는 전송하도록 구성된다.
파워트레인 제어 시스템(204)은 DBW 시스템(202h)과 통신하도록 구성된 적어도 하나의 디바이스를 포함한다. 일부 예들에서, 파워트레인 제어 시스템(204)은 적어도 하나의 제어기, 액추에이터 등을 포함한다. 일부 실시예들에서, 파워트레인 제어 시스템(204)은 DBW 시스템(202h)으로부터 제어 신호들을 수신하고, 파워트레인 제어 시스템(204)은 차량(200)이 전진하는 것을 시작하게 하고, 전진하는 것을 중지하게 하며, 후진하는 것을 시작하게 하고, 후진하는 것을 중지하게 하며, 한 방향으로 가속하게 하고, 한 방향으로 감속하게 하며, 좌회전을 수행하게 하고, 우회전을 수행하게 하는 등을 한다. 일 예에서, 파워트레인 제어 시스템(204)은 차량의 모터에 제공되는 에너지(예를 들면, 연료, 전기 등)가 증가하게 하거나, 동일하게 유지되게 하거나, 또는 감소하게 하여, 이에 의해 차량(200)의 적어도 하나의 바퀴가 회전하거나 회전하지 않게 한다.
조향 제어 시스템(206)은 차량(200)의 하나 이상의 바퀴들을 회전시키도록 구성된 적어도 하나의 디바이스를 포함한다. 일부 예들에서, 조향 제어 시스템(206)은 적어도 하나의 제어기, 액추에이터 등을 포함한다. 일부 실시예들에서, 조향 제어 시스템(206)은 차량(200)이 좌측 또는 우측으로 방향 전환하게 하기 위해 차량(200)의 전방 2 개의 바퀴 및/또는 후방 2 개의 바퀴가 좌측 또는 우측으로 회전하게 한다.
브레이크 시스템(208)은 차량(200)이 속력을 감소시키게 하고/하거나 정지해 있는 채로 유지하게 하기 위해 하나 이상의 브레이크를 작동시키도록 구성된 적어도 하나의 디바이스를 포함한다. 일부 예들에서, 브레이크 시스템(208)은 차량(200)의 대응하는 로터(rotor)에서 차량(200)의 하나 이상의 바퀴들과 연관된 하나 이상의 캘리퍼들이 닫히게 하도록 구성되는 적어도 하나의 제어기 및/또는 액추에이터를 포함한다. 추가적으로 또는 대안적으로, 일부 예들에서, 브레이크 시스템(208)은 자동 긴급 제동(automatic emergency braking, AEB) 시스템, 회생 제동 시스템 등을 포함한다.
일부 실시예들에서, 차량(200)은 차량(200)의 상태 또는 조건의 속성들을 측정 또는 추론하는 적어도 하나의 플랫폼 센서(명시적으로 예시되지 않음)를 포함한다. 일부 예들에서, 차량(200)은 GPS(global positioning system) 수신기, IMU(inertial measurement unit), 휠 속력 센서, 휠 브레이크 압력 센서, 휠 토크 센서, 엔진 토크 센서, 조향각 센서 등과 같은 플랫폼 센서들을 포함한다.
이제 도 3을 참조하면, 디바이스(300)의 개략 다이어그램이 예시되어 있다. 예시된 바와 같이, 디바이스(300)는 프로세서(304), 메모리(306), 저장 컴포넌트(308), 입력 인터페이스(310), 출력 인터페이스(312), 통신 인터페이스(314), 및 버스(302)를 포함한다. 일부 실시예들에서, 디바이스(300)는 차량들(102)의 적어도 하나의 디바이스(예를 들면, 차량들(102)의 시스템의 적어도 하나의 디바이스), 원격 AV 시스템(114), 플릿 관리 시스템(116), V2I 시스템(118)의 적어도 하나의 디바이스, 및/또는 네트워크(112)의 하나 이상의 디바이스들(예를 들면, 네트워크(112)의 시스템의 하나 이상의 디바이스들)에 대응한다. 일부 실시예들에서, 차량들(102)의 하나 이상의 디바이스들(예를 들면, 차량들(102) 시스템의 하나 이상의 디바이스들), 원격 AV 시스템(114), 플릿 관리 시스템(116), V2I 시스템(118), 및/또는 네트워크(112)의 하나 이상의 디바이스들(예를 들면, 네트워크(112)의 시스템의 하나 이상의 디바이스들)은 적어도 하나의 디바이스(300) 및/또는 디바이스(300)의 적어도 하나의 컴포넌트를 포함한다. 도 3에 도시된 바와 같이, 디바이스(300)는 버스(302), 프로세서(304), 메모리(306), 저장 컴포넌트(308), 입력 인터페이스(310), 출력 인터페이스(312), 및 통신 인터페이스(314)를 포함한다.
버스(302)는 디바이스(300)의 컴포넌트들 간의 통신을 가능하게 하는 컴포넌트를 포함한다. 일부 실시예들에서, 프로세서(304)는 하드웨어, 소프트웨어, 또는 하드웨어와 소프트웨어의 조합으로 구현된다. 일부 예들에서, 프로세서(304)는 적어도 하나의 기능을 수행하도록 프로그래밍될 수 있는, 프로세서(예를 들면, 중앙 프로세싱 유닛(CPU), 그래픽 프로세싱 유닛(GPU), 가속 프로세싱 유닛(APU) 등), 마이크로폰, 디지털 신호 프로세서(DSP), 및/또는 임의의 프로세싱 컴포넌트(예를 들면, FPGA(field-programmable gate array), ASIC(application specific integrated circuit) 등)를 포함한다. 메모리(306)는 프로세서(304)가 사용할 데이터 및/또는 명령어들을 저장하는, 랜덤 액세스 메모리(RAM), 판독 전용 메모리(ROM), 및/또는 다른 유형의 동적 및/또는 정적 저장 디바이스(예를 들면, 플래시 메모리, 자기 메모리, 광학 메모리 등)를 포함한다.
저장 컴포넌트(308)는 디바이스(300)의 동작 및 사용에 관련된 데이터 및/또는 소프트웨어를 저장한다. 일부 예들에서, 저장 컴포넌트(308)는 하드 디스크(예를 들면, 자기 디스크, 광학 디스크, 광자기 디스크, 솔리드 스테이트 디스크 등), CD(compact disc), DVD(digital versatile disc), 플로피 디스크, 카트리지, 자기 테이프, CD-ROM, RAM, PROM, EPROM, FLASH-EPROM, NV-RAM 및/또는 다른 유형의 컴퓨터 판독 가능 매체를, 대응하는 드라이브와 함께, 포함한다.
입력 인터페이스(310)는 디바이스(300)가, 예컨대, 사용자 입력(예를 들면, 터치스크린 디스플레이, 키보드, 키패드, 마우스, 버튼, 스위치, 마이크로폰, 카메라 등)을 통해, 정보를 수신할 수 있게 하는 컴포넌트를 포함한다. 추가적으로 또는 대안적으로, 일부 실시예들에서, 입력 인터페이스(310)는 정보를 감지하는 센서(예를 들면, GPS(global positioning system) 수신기, 가속도계, 자이로스코프, 액추에이터 등)를 포함한다. 출력 인터페이스(312)는 디바이스(300)로부터의 출력 정보를 제공하는 컴포넌트(예를 들면, 디스플레이, 스피커, 하나 이상의 발광 다이오드들(LED들) 등)를 포함한다.
일부 실시예들에서, 통신 인터페이스(314)는 디바이스(300)가 유선 연결, 무선 연결, 또는 유선 연결과 무선 연결의 조합을 통해 다른 디바이스들과 통신할 수 있게 하는 트랜시버 유사 컴포넌트(예를 들면, 트랜시버, 개별 수신기 및 송신기 등)를 포함한다. 일부 예들에서, 통신 인터페이스(314)는 디바이스(300)가 다른 디바이스로부터 정보를 수신하고/하거나 다른 디바이스에 정보를 제공할 수 있게 한다. 일부 예들에서, 통신 인터페이스(314)는 이더넷 인터페이스, 광학 인터페이스, 동축 인터페이스, 적외선 인터페이스, RF(radio frequency) 인터페이스, USB(universal serial bus) 인터페이스, Wi-Fi® 인터페이스, 셀룰러 네트워크 인터페이스 등을 포함한다.
일부 실시예들에서, 디바이스(300)는 본원에 기술된 하나 이상의 프로세스들을 수행한다. 디바이스(300)는 프로세서(304)가, 메모리(306) 및/또는 저장 컴포넌트(308)와 같은, 컴퓨터 판독 가능 매체에 의해 저장된 소프트웨어 명령어들을 실행하는 것에 기초하여 이러한 프로세스들을 수행한다. 컴퓨터 판독 가능 매체(예를 들면, 비일시적 컴퓨터 판독 가능 매체)는 본원에서 비일시적 메모리 디바이스로서 정의된다. 비일시적 메모리 디바이스는 단일의 물리 저장 디바이스 내부에 위치한 메모리 공간 또는 다수의 물리 저장 디바이스들에 걸쳐 분산된 메모리 공간을 포함한다.
일부 실시예들에서, 소프트웨어 명령어들은 통신 인터페이스(314)를 통해 다른 컴퓨터 판독 가능 매체로부터 또는 다른 디바이스로부터 메모리(306) 및/또는 저장 컴포넌트(308)로 판독된다. 실행될 때, 메모리(306) 및/또는 저장 컴포넌트(308)에 저장된 소프트웨어 명령어들은 프로세서(304)로 하여금 본원에 기술된 하나 이상의 프로세스들을 수행하게 한다. 추가적으로 또는 대안적으로, 고정 배선(hardwired) 회로는 본원에 기술된 하나 이상의 프로세스들을 수행하기 위해 소프트웨어 명령어들 대신에 또는 소프트웨어 명령어들과 결합하여 사용된다. 따라서, 본원에 기술된 실시예들은, 달리 명시적으로 언급되지 않는 한, 하드웨어 회로와 소프트웨어의 임의의 특정 조합으로 제한되지 않는다.
메모리(306) 및/또는 저장 컴포넌트(308)는 데이터 스토리지 또는 적어도 하나의 데이터 구조(예를 들면, 데이터베이스 등)를 포함한다. 디바이스(300)는 데이터 스토리지 또는 메모리(306) 또는 저장 컴포넌트(308) 내의 적어도 하나의 데이터 구조로부터 정보를 수신하는 것, 그에 정보를 저장하는 것, 그에게로 정보를 통신하는 것, 또는 그에 저장된 정보를 검색하는 것을 할 수 있다. 일부 예들에서, 정보는 네트워크 데이터, 입력 데이터, 출력 데이터, 또는 이들의 임의의 조합을 포함한다.
일부 실시예들에서, 디바이스(300)는 메모리(306)에 및/또는 다른 디바이스(예를 들면, 디바이스(300)와 동일하거나 유사한 다른 디바이스)의 메모리에 저장된 소프트웨어 명령어들을 실행하도록 구성된다. 본원에서 사용되는 바와 같이, "모듈"이라는 용어는, 프로세서(304)에 의해 및/또는 다른 디바이스(예를 들면, 디바이스(300)와 동일하거나 유사한 다른 디바이스)의 프로세서에 의해 실행될 때, 디바이스(300)(예를 들면, 디바이스(300)의 적어도 하나의 컴포넌트)로 하여금 본원에 기술된 하나 이상의 프로세스들을 수행하게 하는 메모리(306)에 및/또는 다른 디바이스의 메모리에 저장된 적어도 하나의 명령어를 지칭한다. 일부 실시예들에서, 모듈은 소프트웨어, 펌웨어, 하드웨어 등으로 구현된다.
도 3에 예시된 컴포넌트들의 수 및 배열은 예로서 제공된다. 일부 실시예들에서, 디바이스(300)는 도 3에 예시된 것보다, 추가적인 컴포넌트들, 더 적은 컴포넌트들, 상이한 컴포넌트들, 또는 상이하게 배열된 컴포넌트들을 포함할 수 있다. 추가적으로 또는 대안적으로, 디바이스(300)의 컴포넌트 세트(예를 들면, 하나 이상의 컴포넌트들)는 디바이스(300)의 다른 컴포넌트 또는 다른 컴포넌트 세트에 의해 수행되는 것으로 기술된 하나 이상의 기능들을 수행할 수 있다.
예시적인 조정 시스템들
이제 도 4a를 참조하면, 차량(예를 들면, 차량(200)과 같은, 자율 주행 차량)의 승객의 특성들에 기초하여 차량 좌석 영역을 자동으로 조정하기 위한 예시적인 조정 시스템(400)의 블록 다이어그램이 예시되어 있다. 일부 실시예들에서, 조정 시스템(400)은 (예를 들면, 도 2에 도시된 바와 같은) 차량(200)의 자율 주행 시스템(202)에 포함될 수 있거나 그 일부로서 다른 방식으로 구현될 수 있다. 일부 실시예들에서, 조정 시스템(400)은 자율 주행 시스템(202)과 별개인 차량(200)의 컴포넌트로서 구현(예를 들면, 자율 주행 시스템(202)에 추가적인 시스템으로서 구현)될 수 있다. 일부 실시예들에서, 조정 시스템(400)은 차량(200)과 별개인 컴포넌트로서 구현(예를 들면, 클라우드 컴퓨팅 환경과 같은, 하나 이상의 원격 컴퓨터들로서 구현)될 수 있다.
일반적으로, 조정 시스템(400)은 차량(200)의 하나 이상의 승객들(예를 들면, 승객(450))에 관한 정보를 수신하고, (예를 들면, 승객이 차량(200)에 접근하고 있는 동안 및/또는 승객이 차량(200)에 착석해 있는 동안) 승객의 하나 이상의 특성들을 결정하며, 결정된 특성들에 기초하여 차량(200)의 좌석 영역의 구성을 제어하는 신호들을 생성하도록 구성된다. 일부 실시예들에서, 조정 시스템(400)은 차량(200)의 시트의 하나 이상의 컴포넌트들(예를 들면, 머리 받침대, 팔걸이, 등받이, 시트 쿠션 등)의 위치 및/또는 배향을 조정할 수 있다. 일부 실시예들에서, 조정 시스템(400)은 차량(200)의 안전 벨트의 하나 이상의 컴포넌트들의 위치 및/또는 배향을 조정할 수 있다.
일 예로서, 조정 시스템(400)은 승객(450), 승객(450)이 위치하는 환경, 및/또는 차량(200)을 나타내는 하나 이상의 센서들(408)에 의해 획득되는 센서 측정치들(414)을 수신할 수 있다. 일부 실시예들에서, 센서들(408)은 도 2를 참조하여 기술된 센서들(202a 내지 202d) 중 하나 이상을 포함할 수 있다. 예를 들어, 센서들(408)은 하나 이상의 카메라들, LiDAR 센서들, 레이더 센서들, 및 마이크로폰들을 포함할 수 있다.
일부 실시예들에서, 센서들(408) 중 적어도 일부는, 차량(200)의 외부를 따라 위치된 승객(450)(예를 들면, 차량(200)에 접근하고 있는, 차량(200) 옆에 서 있거나 앉아 있는, 차량(200)에 탑승할 준비를 하고 있는 등의 승객)에 관한 센서 측정치들을 포함하여, 차량(200)의 외부에 관한 센서 측정치들을 획득하도록 구성될 수 있다. 일 예로서, 센서들(408)은 차량(200)의 외부로 지향되고, 차량(200)의 외부를 따라 위치된 승객(450) 및 주변 환경을 나타내는 이미지들 및/또는 비디오들을 캡처하도록 구성된 적어도 하나의 카메라를 포함할 수 있다. 다른 예로서, 센서들(408)은 차량(200)의 외부로 지향되고, 차량(200)의 외부를 따라 위치된 승객(450) 및 주변 환경을 나타내는 이미지들 및/또는 포인트 클라우드들을 캡처하도록 구성된 적어도 하나의 LIDAR 센서를 포함할 수 있다. 다른 예로서, 센서들(408)은 차량(200)의 외부로 지향되고, 차량(200)의 외부를 따라 위치된 승객(450) 및 주변 환경을 나타내는 레이더 이미지들을 캡처하도록 구성된 적어도 하나의 레이더 센서를 포함할 수 있다. 다른 예로서, 센서들(408)은 (예를 들면, 차량(200)의 외부를 따라 위치된 승객(450)에 의해 생성되는 소리들, 주변 환경에 의해 생성되는 소리들 등과 같은) 차량(200)의 외부를 따라 생성되는 소리들을 나타내는 오디오 신호들을 캡처하도록 구성된 적어도 하나의 마이크로폰을 포함할 수 있다.
일부 실시예들에서, 센서들(408) 중 적어도 일부는, 차량(200)의 내부에 위치된(예를 들면, 차량(200)의 좌석 영역 내에 착석한) 승객(450)에 관한 센서 측정치들을 포함하여, 차량(200)의 내부에 관한 센서 측정치들을 획득하도록 구성될 수 있다. 일 예로서, 센서들(408)은 차량(200)의 내부로 지향되고, 차량(200)의 내부 내의 승객(450)을 나타내는 이미지들 및/또는 비디오들을 캡처하도록 구성된 적어도 하나의 카메라를 포함할 수 있다. 다른 예로서, 센서들(408)은 차량(200)의 내부로 지향되고, 차량(200)의 내부 내의 승객(450)을 나타내는 이미지들 및/또는 포인트 클라우드들을 캡처하도록 구성된 적어도 하나의 LIDAR 센서를 포함할 수 있다. 다른 예로서, 센서들(408)은 차량(200)의 내부로 지향되고, 차량(200)의 내부 내의 승객(450)을 나타내는 레이더 이미지들을 캡처하도록 구성된 적어도 하나의 레이더 센서를 포함할 수 있다. 다른 예로서, 센서들(408)은 (예를 들면, 차량(200)의 내부 내에서 승객(450)에 의해 생성되는 소리들과 같은) 차량(200)의 내부 내에서 들리는 소리들을 나타내는 오디오 신호들을 캡처하도록 구성된 적어도 하나의 마이크로폰을 포함할 수 있다.
일부 실시예들에서, 센서들(408)은 (예를 들면, 시트에 착석한 승객(450)에 의해) 차량(200)의 시트의 하나 이상의 컴포넌트들에 가해지는 압력 및/또는 힘을 측정하도록 구성된 하나 이상의 센서들을 또한 포함할 수 있다. 예를 들어, 센서들(408)은 시트의 머리 받침대, 팔걸이, 등받이 및/또는 시트 쿠션에 가해지는 센서 압력 및/또는 힘을 측정하도록 구성된 센서들을 포함할 수 있다. 일부 구현들에서, 센서(510)는 측정치들에 기초하여 승객(450)의 체중을 결정하도록 구성될 수 있다.
게다가, 조정 시스템(400)은 승객(450) 및/또는 차량(200)에 관한 보충 정보(416)를 포함하는 데이터베이스(404)를 포함할 수 있다.
일 예로서, 데이터베이스(404)는, 차량(200) 및/또는 차량(200)이 그 일부인 차량 플릿의 이전 승객들과 같은, 하나 이상의 사용자들의 신원에 관한 보충 정보를 저장할 수 있다. 예를 들어, 데이터베이스(404)는 사용자들 각각의 이름, 사용자들 각각에 대한 연락처 정보(예를 들면, 전화 번호, 이메일 주소, 우편 주소 등), 사용자들 각각과 연관된 고유 식별자(예를 들면, 일련 번호 또는 영숫자 시퀀스), 사용자들 각각에 대한 사용자 이름 또는 다른 로그인 자격 증명들 등을 포함할 수 있다.
다른 예로서, 데이터베이스(404)는 사용자들 각각에 관한 센서 측정치들(예를 들면, 차량(200), 다른 차량 및/또는 독립형 센서 시스템에 의해 이전에 획득된 센서 측정치)를 포함한 보충 정보를 포함할 수 있다. 위에서 기술된 바와 같이, 예시적인 센서 측정치들은 이미지들, 비디오들, 포인트 클라우드들, 레이더 이미지들, 오디오 신호들, 압력 측정치들, 힘 측정치들 등을 포함한다.
다른 예로서, 데이터베이스(404)는 또한 사용자들 각각의 특성들에 관한 보충 정보를 저장할 수 있다. 예를 들어, 데이터베이스(404)는 사용자들 각각의 치수(예를 들면, 신장, 폭 등), 사용자들 각각의 체중, 사용자들 각각의 나이, 사용자들 각각의 성별, 및/또는 사용자들 각각에 관한 임의의 다른 정보를 포함할 수 있다.
다른 예로서, 데이터베이스(404)는 또한 사용자들 각각의 선호사항들에 관한 보충 정보를 저장할 수 있다. 예를 들어, 데이터베이스(404)는 사용자들 각각의 선호된 좌석 영역 구성(예를 들면, 차량의 시트 및/또는 안전 벨트의 컴포넌트들에 대한 선호된 구성, 예컨대, 해당 컴포넌트들 각각의 위치 및/또는 배향)을 나타내는 데이터를 포함할 수 있다. 일부 실시예들에서, 사용자의 선호사항들은 차량과의 사용자의 이전 상호작용들에 기초하여 결정될 수 있다. 예를 들어, 사용자가 이전에 차량(200)(또는 플릿 내의 다른 차량)의 승객이었다면, 사용자는 해당 차량의 시트 및/또는 안전 벨트의 하나 이상의 컴포넌트들을 조정했을 수 있다. 예를 들어, 사용자는 머리 받침대, 팔걸이(들), 등받이들, 시트 쿠션(들) 및/또는 안전 벨트의 위치 및/또는 배향을 조정했을 수 있다. 이러한 조정들에 관한 데이터는, 사용자의 후속 여정들을 위해 조정 시스템(400)(또는 조정 시스템(400)과 동일하거나 유사한, 상이한 조정 시스템)에 의해 검색될 수 있도록, 데이터베이스(404)에 저장될 수 있다.
일부 구현들에서, 데이터베이스(404)에 저장된 정보 중 적어도 일부는, 클라우드 컴퓨팅 환경과 같은, 하나 이상의 원격 컴퓨터들로부터 검색될 수 있다. 일 예로서, 하나 이상의 차량들로부터 수집되는 정보는 저장을 위해 클라우드 컴퓨팅 환경으로 전송될 수 있다. 차례로, 클라우드 컴퓨팅 환경은 (예를 들면, 정보가 다른 차량들에서 사용 가능하도록) 수집된 정보를 플릿 내의 하나 이상의 다른 차량들에 배포할 수 있다. 일부 구현들에서, 데이터베이스(404)에 저장된 정보 중 적어도 일부는 (예를 들면, 도 1을 참조하여 기술된 바와 같은) 원격 AV 시스템(114), 플릿 관리 시스템(116), 및/또는 V2I 시스템(118)으로부터 검색될 수 있다.
조정 시스템(400)은 센서들(408)로부터 수신되는 데이터 및/또는 데이터베이스(404)에 저장된 데이터 중 적어도 일부를 데이터 합성 모듈(402)에 제공한다. 데이터 합성 모듈(402)은 수신된 데이터를 프로세싱하고, 승객(450)의 하나 이상의 특성들(418)을 결정한다.
일 예로서, 데이터 합성 모듈(402)은 승객(450)의 걸음걸이에 관한 특성들을 결정할 수 있다. 예를 들어, 센서들(408) 및/또는 데이터베이스(404)로부터 수신되는 이미지들, 비디오들, 포인트 클라우드들, 레이더 이미지들 및/또는 임의의 다른 데이터에 기초하여, 데이터 합성 모듈(402)은 승객의 보폭(step length), 활보장(stride length), 분당 걸음수(step cadence), 보행 속력, 발 각도, 엉덩이 각도, 및/또는 승객(450)의 걸음걸이에 관한 임의의 다른 메트릭을 결정할 수 있다.
다른 예로서, 데이터 합성 모듈(402)은 승객(450)의 골격 구조 또는 체형에 관한 특성들을 결정할 수 있다. 예를 들어, 센서들(408) 및/또는 데이터베이스(404)로부터 수신되는 이미지들, 비디오들, 포인트 클라우드들, 레이더 이미지들, 및/또는 임의의 다른 데이터에 기초하여, 데이터 합성 모듈(402)은 승객의 신장, 몸통 길이, 팔 길이, 다리 길이, 또는 승객의 신체의 임의의 다른 치수를 결정할 수 있다. 게다가, 센서들(408) 및/또는 데이터베이스(404)로부터 수신되는 이미지들, 비디오들, 포인트 클라우드들, 레이더 이미지들, 및/또는 임의의 다른 데이터에 기초하여, 데이터 합성 모듈(402)은 승객(450)의 자세(예를 들면, 사용자의 신체 부위들 중 하나 이상의 서로에 상대적인 위치 및/또는 배향)를 결정할 수 있다.
다른 예로서, 데이터 합성 모듈(402)은 (예를 들면, 센서들(408) 및/또는 데이터베이스(404)로부터 수신되는 이미지들, 비디오들, 포인트 클라우드들, 레이더 이미지들, 오디오 신호들, 및/또는 임의의 다른 데이터에 기초하여) 승객의 나이 및/또는 성별을 결정할 수 있다.
다른 예로서, 데이터 합성 모듈(402)은 승객의 복장을 결정할 수 있다. 예를 들어, 데이터 합성 모듈(402)은 승객이 셔츠, 바지, 모자, 드레스, 스커트, 반바지, 양말, 안경류(예를 들면, 교정용 안경, 선글라스 등), 및/또는 임의의 다른 의복을 착용하고 있는지 여부를 결정할 수 있다.
다른 예로서, 데이터 합성 모듈(402)은 승객의 얼굴 표정을 결정할 수 있다. 예시적인 얼굴 표정은 미소짓는, 찡그린, 노려보는 등을 포함한다.
다른 예로서, 데이터 합성 모듈(502)은 승객의 시선(예를 들면, 사용자가 차량(200)의 창 밖을 보고 있는지, 차량(200) 내의 다른 승객을 보고 있는지, 사용자 디바이스(508)를 보고 있는지 등)을 결정할 수 있다.
다른 예로서, 데이터 합성 모듈(402)은 승객(450)의 신원을 결정할 수 있다. 예를 들어, 센서들(408) 및/또는 데이터베이스(404)로부터 수신되는 데이터에 기초하여, 데이터 합성 모듈(402)은, 승객의 외모(예를 들면, 승객의 얼굴, 눈, 신체 등의 시각적 특성들), 걸음걸이, 골격 구조, 체형, 복장, 얼굴 표정 등과 같은, 승객(450)에 관한 특성들을 결정할 수 있다. 게다가, 데이터 합성 모듈(402)은 승객의 특성들을 하나 이상의 이전에 관측된 사용자들(예를 들면, 차량(200) 및/또는 차량 플릿의 이전 승객들)의 특성들과 비교할 수 있다. 승객의 특성들이 이전에 관측된 사용자의 특성들과 충분히 유사한 경우(예를 들면, 임계 레벨 초과의 유사도), 데이터 합성 모듈(402)은 승객(450)이 이전에 관측된 사용자와 동일한 사람이라고 결정할 수 있다.
일부 실시예들에서, 데이터 합성 모듈(402)은 하나 이상의 머신 러닝 모델들에 기초하여 본원에 기술된 결정들 중 적어도 일부를 수행할 수 있다. 예를 들어, 머신 러닝 모델은 입력 데이터(예를 들면, 센서들(408) 및/또는 데이터베이스(404)로부터 수신되는 데이터)를 수신하고, 출력 데이터에 기초하여, 승객(450)의 특성들에 관한 하나 이상의 예측들을 생성하도록 트레이닝될 수 있다. 예시적인 머신 러닝 모델들은 도 5a 내지 도 5c를 참조하여 더 상세히 기술된다.
데이터 합성 모듈(402)은 결정된 정보 중 적어도 일부를 제어 모듈(406)에 제공한다. 수신된 정보에 기초하여, 제어 모듈(406)은 승객(450)의 안전 및/또는 편의를 개선시키기 위해 차량(200)의 좌석 영역의 구성을 조정하기 위한 하나 이상의 조정 커맨드들(420)을 생성한다. 일 예로서, 제어 모듈(406)은 차량(200)의 시트를 조정하기 위한 하나 이상의 조정 커맨드들을 생성할 수 있고, 커맨드들을 실행을 위해 시트 조정 시스템(410)에 제공할 수 있다. 다른 예로서, 제어 모듈(406)은 차량(200)의 안전 벨트를 조정하기 위한 하나 이상의 조정 커맨드들을 생성할 수 있고, 커맨드들을 실행을 위해 안전 벨트 조정 시스템(412)에 제공할 수 있다.
예를 들어, 도 4b에 도시된 바와 같이, 조정 커맨드들(420) 중 적어도 일부는 시트 조정 시스템(410)의 모터 모듈(432)로 전송될 수 있다. 모터 모듈(432)은 시트(422)의 컴포넌트들 중 하나 이상을 선택적으로 이동시키도록 구성된 하나 이상의 액추에이터들(예를 들면, 유압 액추에이터들, 공압 액추에이터들, 전기 액추에이터들, 기계적 액추에이터들, 선형 모터들 등)을 포함한다. 예를 들어, 모터 모듈(432)은 시트(422)의 머리 받침대(424), 등받이(426), 팔걸이(들)(428), 시트 쿠션(430), 및/또는 임의의 다른 컴포넌트를 선택적으로 재배향시키고/시키거나 그의 위치를 변경할 수 있다.
일부 실시예들에서, 모터 모듈(432)은 하나 이상의 축들을 따라 시트(422)의 컴포넌트들 중 하나 이상을 병진시킬 수 있다. 일 예로서, 모터 모듈(432)은 컴포넌트를 (예를 들면, x 축을 따라) 전방 또는 후방 방향으로, (예를 들면, y 축을 따라) 좌측 또는 우측 방향으로, (예를 들면, z 축을 따라) 위 또는 아래 방향으로, 또는 이들의 어떤 조합으로 병진시킬 수 있다.
일부 실시예들에서, 모터 모듈(432)은 하나 이상의 축들을 중심으로 시트(422)의 컴포넌트들 중 하나 이상을 회전시킬 수 있다. 일 예로서, 모터 모듈(432)은 컴포넌트를 롤링(rolling)하거나(예를 들면, 컴포넌트를 x 축을 따라 회전시키거나), 컴포넌트를 피칭(pitching)하거나(예를 들면, 컴포넌트를 y 축을 따라 회전시키거나), 컴포넌트를 요잉(yawing)하거나(예를 들면, 컴포넌트를 z 축을 따라 회전시키거나), 또는 이들의 일부 조합을 수행할 수 있다.
게다가, 도 4c에 도시된 바와 같이, 조정 커맨드들(420) 중 적어도 일부는 안전 벨트 조정 시스템(412)의 모터 모듈(440)로 전송될 수 있다. 모터 모듈(440)은 안전 벨트(442)의 컴포넌트들 중 하나 이상을 선택적으로 이동시키도록 구성된 하나 이상의 액추에이터들(예를 들면, 유압 액추에이터들, 공압 액추에이터들, 전기 액추에이터들, 기계적 액추에이터들, 선형 모터들 등)을 포함한다.
예를 들어, 안전 벨트(442)는 (예를 들면, 스트랩(444)을 차량(200)의 프레임에 고정시키는) 앵커리지(anchorage)(446)와 앵커리지(448) 사이에서 연장되는 스트랩(444), 스트랩(444)에 부착되는 텅(tongue)(454), 및 텅(454)을 수용하기 위한 버클(456)을 포함할 수 있다. 승객은 시트(442)에 앉는 것, 자신의 신체를 가로질러 스트랩(444)을 끌어당기는 것, 및 텅(454)을 버클(456)에 삽입시키는 것에 의해 안전 벨트(442)를 배치(deploy)할 수 있다. 게다가, 모터 모듈(440)은 (예를 들면, 선형 레일과 같은, 트랙(452)을 따라 앵커리지(446)를 슬라이딩시키는 것에 의해) 앵커리지(446)를 선택적으로 재배향시키고/시키거나 그의 위치를 변경할 수 있다. 일부 실시예들에서, 트랙(452) 및 모터 모듈(440)은 앵커리지(446)가 (예를 들면, z 축을 따라) 위 또는 아래 방향으로 병진될 수 있게 하도록 구성될 수 있다.
일부 실시예들에서, 조정 시스템(400)은, 사용자가 차량(200)에 탑승하기 전에, 차량(200)의 좌석 영역을 조정할 수 있다. 예를 들어, 승객(450)이 차량(200)에 접근함에 따라, 조정 시스템(400)은 승객(450)에 관한 센서 데이터를 획득할 수 있고, 승객이 차량(200)에 탑승하기 전에, 승객(450)을 수용하도록 시트(422) 및/또는 안전 벨트(442)의 구성을 선제적으로 조정할 수 있다. 그에 따라, 승객(450)은, 그렇지 않았으면 주행을 지연시킬 수 있는, 차량(200)에 탑승할 때 시트(422) 및/또는 안전 벨트(442) 영역의 구성에 대한 조정들을 수행할 가능성이 적다.
일부 실시예들에서, 조정 시스템(400)은 승객(450)에 의한 시트 선택을 예측할 수 있고, 승객(450)이 차량(200)에 탑승하기 전에, 해당 시트 및/또는 대응하는 안전 벨트의 구성을 선제적으로 조정할 수 있다. 예를 들어, 센서(408)에 의해 획득되는 센서 데이터에 기초하여, 조정 시스템(400)은 승객(450)이 차량(200)의 특정 측면에 접근하고 있는지, 차량(200)의 특정 도어에 접근하고 있는지, 차량(200)의 특정 도어 핸들을 잡으려고 손을 내미는지, 그리고/또는 사용자가 차량(200) 내의 특정 시트를 선택하려고 의도하고 있음을 나타내는 일부 다른 행동들을 수행하는지를 결정할 수 있다. 이에 응답하여, 조정 시스템(400)은 차량의 해당 측면 또는 차량의 해당 도어에 대응하는 시트 및/또는 안전 벨트의 구성을 조정할 수 있다.
일부 실시예들에서, 승객(450)은 (예를 들면, 모바일 디바이스의 애플리케이션에 시트 선택을 수동으로 입력하는 것에 의해) 조정 시스템(400)에 좌석 선택을 수동으로 지정할 수 있다. 이에 응답하여, 조정 시스템(400)은 (예를 들면, 승객(450)이 차량(200)에 탑승하기 전에) 선택에 대응하는 시트 및/또는 안전 벨트의 구성을 조정할 수 있다.
게다가, 일부 실시예들에서, 조정 시스템(400)은 또한, 승객(450)이 차량(200)에 탑승한 후에, 차량(200)의 좌석 영역을 조정할 수 있다. 예를 들어, 승객이 시트(422)에 착석한 후에, 조정 시스템(400)은 승객(450)에 관한 센서 데이터를 획득할 수 있고, 승객(450)을 수용하도록 시트(422) 및/또는 안전 벨트(442)의 구성을 조정할 수 있다.
일부 실시예들에서, 조정 시스템(400)은 또한 승객(450)의 얼굴 표정에, 적어도 부분적으로, 응답하여 차량(200)의 좌석 영역을 조정할 수 있다. 예를 들어, 승객(450)이 차량(200)의 좌석 영역에 앉아서 (예를 들면, 인상을 찌푸리거나 어떤 다른 실망한 얼굴 표정을 하는 것에 의해) 불쾌감을 표현하는 경우, 조정 시스템(400)은 승객(450)이 불편하다고 결정할 수 있고, 승객(450)을 수용하도록 시트(422) 및/또는 안전 벨트(442)의 구성의 추가의 조정들을 수행할 수 있다.
게다가, 조정 시스템(400)은 승객(450)의 편의 및/또는 안전을 개선시키는 방식으로 차량(200)의 좌석 영역을 조정할 수 있다. 예를 들어, 조정 시스템(400)은 (예를 들면, 승객의 신체를 지지하기 위해 시트(422) 및/또는 안전 벨트(442)의 컴포넌트들을 위치시키고 배향시키는 것에 의해) 승객의 신체 치수, 체중, 골격 구조 및/또는 체형을 수용하도록 시트(422) 및/또는 안전 벨트(442)의 구성을 조정할 수 있다. 예를 들어, 등받이(426)는 승객(450)에 대한 등 지지(back support)를 제공하도록 위치되고 배향될 수 있다. 다른 예로서, 팔걸이(들)(428)는 승객(450)이 팔걸이(들)(428)에 편안하게 자신의 팔을 놓을 수 있도록 위치되고 배향될 수 있다. 다른 예로서, 머리 받침대(424)는 (예를 들면, 차량(200)과 다른 대상체 사이의 충돌의 경우에) 사용자의 머리를 지지하고 목뼈 손상(whiplash)을 감소시키도록 위치되고 배향될 수 있다. 다른 예로서, 시트(422) 전체가 (예를 들면, 시트(422) 앞의 발밑 공간(foot well)에) 승객의 발을 위한 충분한 공간을 제공하도록 위치되고 배향될 수 있다. 다른 예로서, 안전 벨트(442)의 앵커리지(446)는 승객(200)의 신장을 수용하도록(예를 들면, 스트랩(444)이 승객의 어깨와 몸통을 가로질러 편안하게 착용될 수 있도록) 위치되고 배향될 수 있다.
일부 실시예들에서, 조정 시스템(400)에 의해 수행되는 조정들 중 적어도 일부는 CAE(computer-aided engineering) 모델 또는 FEA(finite element analysis) 모델에 기초하여 결정될 수 있다. 예를 들어, CAE 모델 및/또는 FEA 모델은, 특정 좌석 영역 구성 및 특정 동적 이벤트(예를 들면, 충돌, 충격, 속력 또는 가속도의 급격한 변화 등)를 감안하여, 승객에 가해지는 힘 및/또는 승객에 의해 경험되는 가속도를 추정하는 데 사용될 수 있다. 게다가, CAE 모델 및/또는 FEA 모델은 이러한 힘 및/또는 가속도를 허용 가능한 레벨(예를 들면, 특정 임계 힘 값 및/또는 특정 임계 가속도 값 미만)으로 감소시키는 좌석 영역에 대한 조정들을 결정하는 데 사용될 수 있다.
게다가, 조정 시스템(400)은 향후 검색을 위해 승객(450)에 대해 수행된 조정들에 관한 데이터를 저장할 수 있다. 예를 들어, 조정 시스템(400)은 승객(450)의 신원 및 시트(422) 및/또는 안전 벨트(442)의 구성을 나타내는 데이터를 (예를 들면, 데이터베이스(404)에) 저장할 수 있다. 승객(450)이 후속하여 차량(200)을 또다시 사용하는 경우, 조정 시스템(400)은 저장된 데이터를 검색할 수 있고, 승객(450)을 수용하도록 차량(200)의 좌석 영역을 조정할 수 있다.
다른 예로서, 조정 시스템(400)은 승객(450)의 신원 및 시트(422) 및/또는 안전 벨트(442)의 구성을 나타내는 데이터를 하나 이상의 원격 시스템들(예를 들면, 클라우드 컴퓨팅 환경, 원격 AV 시스템(114), 플릿 관리 시스템(116), V2I 시스템(118) 등)으로 전송할 수 있다. 승객(450)이 후속하여 차량(200) 또는 어떤 다른 차량(예를 들면, 플릿 내의 다른 차량)을 사용하는 경우, 해당 차량의 조정 시스템(400)은 저장된 데이터를 검색할 수 있고, 승객(450)을 수용하도록 차량의 좌석 영역을 조정할 수 있다.
위에서 기술된 예시적인 실시예들 중 적어도 일부에서, 조정 시스템(400)은 단일 승객(450)의 특성들을 수용하도록 차량(200)의 좌석 영역을 조정한다. 그렇지만, 적어도 일부 실시예들에서, 조정 시스템(400)은 다수의 승객들을 동시에 수용하도록 차량(200)의 좌석 영역을 조정할 수 있다.
예를 들어, 센서들(408)에 의해 획득되는 데이터에 기초하여, 조정 시스템(400)은 다수의 승객들(예를 들면, 2 명, 3 명, 4 명 또는 그 이상)이 차량(200)에 접근하고 있는, 차량(200) 옆에 서 있거나 앉아 있는, 차량(200)에 탑승할 준비를 하고 있는 등으로 결정할 수 있다. 게다가, 조정 시스템(400)은 (예를 들면, 위에서 기술된 바와 유사한 방식으로) 해당 승객들 각각에 관한 특성들을 결정할 수 있다. 게다가, 조정 시스템(400)은 (예를 들면, 위에서 기술된 바와 유사한 방식으로) 승객들 각각에 의한 시트 선택을 예측할 수 있고, 해당 승객을 수용하도록 대응하는 시트 및/또는 안전 벨트의 구성들을 조정할 수 있다.
본원에 설명된 기술들 중 적어도 일부는 하나 이상의 머신 러닝 모델들을 사용하여 구현될 수 있다. 일 예로서, 도 5a는 머신 러닝 모델의 구현의 다이어그램을 도시한다. 보다 구체적으로, 콘볼루션 신경 네트워크(convolutional neural network, CNN)(520)의 구현의 다이어그램이 예시되어 있다. 예시를 위해, CNN(520)에 대한 이하의 설명은 조정 시스템(400)에 의한 CNN(520)의 구현과 관련하여 이루어질 것이다. 그렇지만, 일부 예들에서 CNN(520)(예를 들면, CNN(520)의 하나 이상의 컴포넌트들)이, 자율 주행 시스템(202)과 같은, 조정 시스템(400)과 상이하거나 이 이외의 다른 시스템들에 의해 구현된다는 것이 이해될 것이다. CNN(520)이 본원에 기술된 바와 같은 특정 특징들을 포함하지만, 이러한 특징들은 예시 목적으로 제공되며 본 개시를 제한하는 것으로 의도되지 않는다.
CNN(520)은 제1 콘볼루션 계층(522), 제2 콘볼루션 계층(524), 및 콘볼루션 계층(526)를 포함하는 복수의 콘볼루션 계층들을 포함한다. 일부 실시예들에서, CNN(520)은 서브샘플링 계층(528)(때때로 풀링 계층(pooling layer)이라고 지칭됨)을 포함한다. 일부 실시예들에서, 서브샘플링 계층(528) 및/또는 다른 서브샘플링 계층들은 업스트림 시스템의 차원보다 작은 차원(즉, 노드들의 양)을 갖는다. 서브샘플링 계층(528)이 업스트림 계층의 차원보다 작은 차원을 갖는 것에 의해, CNN(520)은 초기 입력 및/또는 업스트림 계층의 출력과 연관된 데이터의 양을 통합하여 이에 의해 CNN(520)이 다운스트림 콘볼루션 연산들을 수행하는 데 필요한 계산들의 양을 감소시킨다. 추가적으로 또는 대안적으로, (도 5b 및 도 5c와 관련하여 아래에서 기술되는 바와 같이) 서브샘플링 계층(528)이 적어도 하나의 서브샘플링 함수와 연관되는(예를 들면, 이를 수행하도록 구성되는) 것에 의해, CNN(520)은 초기 입력과 연관된 데이터의 양을 통합한다.
조정 시스템(400)이 제1 콘볼루션 계층(522), 제2 콘볼루션 계층(524), 및 콘볼루션 계층(526) 각각과 연관된 각자의 입력들 및/또는 출력들을 제공하여 각자의 출력들을 생성하는 것에 기초하여 조정 시스템(400)은 콘볼루션 연산들을 수행한다. 일부 예들에서, 조정 시스템(400)이 제1 콘볼루션 계층(522), 제2 콘볼루션 계층(524), 및 콘볼루션 계층(526)에 대한 입력으로서 데이터를 제공하는 것에 기초하여 조정 시스템(400)은 CNN(520)을 구현한다. 그러한 예에서, 조정 시스템(400)이 하나 이상의 상이한 시스템들(예를 들면, 센서들(408) 및 /또는 데이터베이스(404))로부터 데이터를 수신하는 것에 기초하여 조정 시스템(400)은 제1 콘볼루션 계층(522), 제2 콘볼루션 계층(524), 및 콘볼루션 계층(526)에 대한 입력으로서 데이터를 제공한다. 콘볼루션 연산들에 대한 상세한 설명은 도 5b와 관련하여 아래에 포함된다.
일부 실시예들에서, 조정 시스템(400)은 입력(초기 입력이라고 지칭됨)과 연관된 데이터를 제1 콘볼루션 계층(522)에 제공하고, 조정 시스템(400)은 제1 콘볼루션 계층(522)을 사용하여 출력과 연관된 데이터를 생성한다. 일부 실시예들에서, 조정 시스템(400)은 상이한 콘볼루션 계층에 대한 입력으로서 콘볼루션 계층에 의해 생성되는 출력을 제공한다. 예를 들어, 조정 시스템(400)은 서브샘플링 계층(528), 제2 콘볼루션 계층(524), 및/또는 콘볼루션 계층(526)에 대한 입력으로서 제1 콘볼루션 계층(522)의 출력을 제공한다. 그러한 예에서, 제1 콘볼루션 계층(522)은 업스트림 계층이라고 지칭되고, 서브샘플링 계층(528), 제2 콘볼루션 계층(524) 및/또는 콘볼루션 계층(526)은 다운스트림 계층들이라고 지칭된다. 유사하게, 일부 실시예들에서, 조정 시스템(400)은 서브샘플링 계층(528)의 출력을 제2 콘볼루션 계층(524) 및/또는 콘볼루션 계층(526)에 제공하고, 이 예에서, 서브샘플링 계층(528)은 업스트림 계층이라고 지칭될 것이며, 제2 콘볼루션 계층(524) 및/또는 콘볼루션 계층(526)은 다운스트림 계층들이라고 지칭될 것이다.
일부 실시예들에서, 조정 시스템(400)이 CNN(520)에 입력을 제공하기 전에 조정 시스템(400)은 CNN(520)에 제공되는 입력과 연관되는 데이터를 프로세싱한다. 예를 들어, 조정 시스템(400)이 센서 데이터(예를 들면, 이미지 데이터, LiDAR 데이터, 레이더 데이터, 오디오 신호들 등)를 정규화하는 것에 기초하여 조정 시스템(400)은 CNN(520)에 제공되는 입력과 연관되는 데이터를 프로세싱한다.
일부 실시예들에서, 조정 시스템(400)이 각각의 콘볼루션 계층과 연관된 콘볼루션 연산들을 수행하는 것에 기초하여 CNN(520)은 출력을 생성한다. 일부 예들에서, 조정 시스템(400)이 각각의 콘볼루션 계층과 연관된 콘볼루션 연산들을 수행하는 것 및 초기 데이터에 기초하여 CNN(520)은 출력을 생성한다. 일부 실시예들에서, 조정 시스템(400)은 출력을 생성하고 출력을 완전 연결 계층(530)에 제공한다. 일부 예들에서, 조정 시스템(400)은 콘볼루션 계층(526)의 출력을 완전 연결 계층(530)에 제공하고, 여기서 완전 연결 계층(530)은 F1, F2... FN이라고 지칭되는 복수의 특징 값들과 연관된 데이터를 포함한다. 이 예에서, 콘볼루션 계층(526)의 출력은 예측을 나타내는 복수의 출력 특징 값들과 연관된 데이터를 포함한다.
일부 실시예들에서, 조정 시스템(400)이 복수의 예측들 중에서 정확한 예측일 가능성이 가장 높은 것과 연관된 특징 값을 식별하는 것에 기초하여 조정 시스템(400)은 복수의 예측들 중에서 예측을 식별한다. 예를 들어, 완전 연결 계층(530)이 특징 값들 F1, F2, . . . FN을 포함하고, F1이 가장 큰 특징 값인 경우에, 조정 시스템(400)은 F1과 연관된 예측을 복수의 예측들 중에서 정확한 예측인 것으로 식별한다. 일부 실시예들에서, 조정 시스템(400)은 예측을 생성하도록 CNN(520)을 트레이닝시킨다. 일부 예들에서, 조정 시스템(400)이 예측과 연관된 트레이닝 데이터를 CNN(520)에 제공하는 것에 기초하여 조정 시스템(400)은 예측을 생성하도록 CNN(520)을 트레이닝시킨다.
일부 구현들에서, 트레이닝 데이터는 하나 이상의 추가적인 사용자들에 관한 센서 데이터 및/또는 다른 데이터(예를 들면, 센서들(408) 및 데이터베이스(404)를 참조하여 기술된 것과 유사한 데이터), 및 해당 사용자들과 연관된 하나 이상의 대응하는 결과들을 포함할 수 있다. 예를 들어, 트레이닝 데이터는 차량(200)에 의해 이전에 관측된, 플릿 내의 다른 차량에 의해 이전에 관측된, 그리고/또는 상이한 컨텍스트(예를 들면, 차량과 연관되지 않은 독립형 센서 시스템)에서 이전에 관측된 하나 이상의 사용자들에 관한 센서 데이터 및/또는 다른 데이터를 포함할 수 있다. 게다가, 트레이닝 데이터는, 각각의 사용자에 대해, 해당 사용자의 걸음걸이, 해당 사용자의 골격 구조 또는 체형, 해당 사용자의 나이, 해당 사용자의 성별, 해당 사용자의 복장, 해당 사용자의 얼굴 표정, 및/또는 해당 사용자의 신원에 관한 정보를 포함할 수 있다. 게다가, 트레이닝 데이터는, 각각의 사용자에 대해, 해당 사용자의 선호사항들(예를 들면, 시트 및/또는 안전 벨트의 구성과 같은, 좌석 영역의 구성에 관한 선호사항들)에 관한 정보를 포함할 수 있다. 승객(450)에 관한 데이터가 주어진 경우, CNN(520)이 승객(450)의 특성들을 예측할 수 있고, 차량(200)에 승차하고 있는 동안 승객(450)의 편의 및/또는 안전을 개선시키기 위해 차량(200)의 좌석 영역에 대한 조정을 예측할 수 있도록, 이 트레이닝 데이터는 CNN(520)을 트레이닝시키는 데 사용될 수 있다.
이제 도 5b 및 도 5c를 참조하면, 조정 시스템(400)에 의한 CNN(540)의 예시적인 동작의 다이어그램이 예시되어 있다. 일부 실시예들에서, CNN(540)(예를 들면, CNN(540)의 하나 이상의 컴포넌트들)은 CNN(520)(예를 들면, CNN(520)의 하나 이상의 컴포넌트들)(도 5a 참조)과 동일하거나 유사하다.
단계(550)에서, 조정 시스템(400)은 CNN(540)에 대한 입력으로서 데이터를 제공한다(단계(550)). 예를 들어, 조정 시스템(400)은 하나 이상의 이미지들, 비디오들, LiDAR 이미지들, 포인트 클라우드들, 레이더 이미지들, 오디오 신호들, 바이탈 사인들(vital signs), 눈 위치 및 움직임 측정치들, 진동 측정치들, 가속도 측정치들 등과 같은, 센서들(408) 중 하나 이상에 의해 획득되는 데이터를 제공할 수 있다. 다른 예로서, 조정 시스템(400)은 데이터베이스(404)로부터 수신되는 데이터를 제공할 수 있다.
단계(555)에서, CNN(540)은 제1 콘볼루션 함수를 수행한다. 예를 들어, CNN(540)이 입력 데이터를 나타내는 값들을 제1 콘볼루션 계층(542)에 포함된 하나 이상의 뉴런들(명시적으로 예시되지 않음)에 대한 입력으로서 제공하는 것에 기초하여 CNN(540)은 제1 콘볼루션 함수를 수행한다.
일 예로서, 이미지 또는 비디오를 나타내는 값들은 이미지 또는 비디오의 한 영역(때때로 수용 영역(receptive field)이라고 지칭됨)을 나타내는 값들에 대응할 수 있다. 다른 예로서, 오디오 신호를 나타내는 값들은 오디오 신호의 일 부분(예를 들면, 특정 시간 부분 및/또는 특정 스펙트럼 부분)을 나타내는 값들에 대응할 수 있다. 다른 예로서, 어떤 다른 센서 측정치를 나타내는 값들은 해당 센서 측정치의 일 부분(예를 들면, 특정 시간 부분 및/또는 특정 스펙트럼 부분)을 나타내는 값들에 대응할 수 있다.
일부 실시예들에서, 각각의 뉴런은 필터(명시적으로 예시되지 않음)와 연관된다. 필터(때때로 커널이라고 지칭됨)는 크기가 뉴런에 대한 입력으로서 제공되는 값들에 대응하는 값들의 어레이로서 표현될 수 있다. 일 예에서, 필터는 이미지에서의 에지들(예를 들면, 수평 라인들, 수직 라인들, 직선 라인들 등)을 식별하도록 구성될 수 있다. 연속적인 콘볼루션 계층들에서, 뉴런들과 연관된 필터들은 이미지에서의 연속적으로 보다 복잡한 패턴들(예를 들면, 호, 대상체 등)을 식별하도록 구성될 수 있다. 연속적인 콘볼루션 계층들에서, 뉴런들과 연관된 필터들은 다른 유형의 데이터(예를 들면, 오디오 신호, 가속도계 측정치, 바이탈 사인, 눈 추적 및 움직임 측정치 등)에서 패턴들을 식별하도록 구성될 수 있다.
일부 실시예들에서, CNN(540)이 제1 콘볼루션 계층(542)에 포함된 하나 이상의 뉴런들 각각에 대한 입력으로서 제공되는 값들을 하나 이상의 뉴런들 각각에 대응하는 필터의 값들과 곱하는 것에 기초하여 CNN(540)은 제1 콘볼루션 함수를 수행한다. 예를 들어, CNN(540)은 제1 콘볼루션 계층(542)에 포함된 하나 이상의 뉴런들 각각에 대한 입력으로서 제공되는 값들을 하나 이상의 뉴런들 각각에 대응하는 필터의 값들과 곱하여 단일 값 또는 값들의 어레이를 출력으로서 생성할 수 있다. 일부 실시예들에서, 제1 콘볼루션 계층(542)의 뉴런들의 집합적 출력은 콘볼루션된 출력(convolved output)이라고 지칭된다. 일부 실시예들에서, 각각의 뉴런이 동일한 필터를 갖는 경우에, 콘볼루션된 출력은 특징 맵(feature map)이라고 지칭된다.
일부 실시예들에서, CNN(540)은 제1 콘볼루션 계층(542)의 각각의 뉴런의 출력들을 다운스트림 계층의 뉴런들에 제공한다. 명료함을 위해, 업스트림 계층은 데이터를 상이한 계층(다운스트림 계층이라고 지칭됨)으로 전송하는 계층일 수 있다. 예를 들어, CNN(540)은 제1 콘볼루션 계층(642)의 각각의 뉴런의 출력들을 서브샘플링 계층의 대응하는 뉴런들에 제공할 수 있다. 일 예에서, CNN(540)은 제1 콘볼루션 계층(542)의 각각의 뉴런의 출력들을 제1 서브샘플링 계층(544)의 대응하는 뉴런들에 제공한다. 일부 실시예들에서, CNN(540)은 다운스트림 계층의 각각의 뉴런에 제공되는 모든 값들의 집계들에 바이어스 값을 가산한다. 예를 들어, CNN(540)은 제1 서브샘플링 계층(544)의 각각의 뉴런에 제공되는 모든 값들의 집계들에 바이어스 값을 가산한다. 그러한 예에서, 각각의 뉴런에 제공되는 모든 값들의 집계들 및 제1 서브샘플링 계층(544)의 각각의 뉴런과 연관된 활성화 함수에 기초하여 CNN(540)은 제1 서브샘플링 계층(544)의 각각의 뉴런에 제공할 최종 값을 결정한다.
단계(560)에서, CNN(540)은 제1 서브샘플링 함수를 수행한다. 예를 들어, CNN(540)이 제1 콘볼루션 계층(542)에 의해 출력되는 값들을 제1 서브샘플링 계층(544)의 대응하는 뉴런들에 제공하는 것에 기초하여 CNN(540)은 제1 서브샘플링 함수를 수행할 수 있다. 일부 실시예들에서, CNN(540)은 집계 함수에 기초하여 제1 서브샘플링 함수를 수행한다. 일 예에서, CNN(540)이 주어진 뉴런에 제공되는 값들 중 최대 입력을 결정하는 것(맥스 풀링 함수(max pooling function)라고 지칭됨)에 기초하여 CNN(540)은 제1 서브샘플링 함수를 수행한다. 다른 예에서, CNN(540)이 주어진 뉴런에 제공되는 값들 중 평균 입력을 결정하는 것(평균 풀링 함수(average pooling function)라고 지칭됨)에 기초하여 CNN(540)은 제1 서브샘플링 함수를 수행한다. 일부 실시예들에서, CNN(540)이 제1 서브샘플링 계층(644)의 각각의 뉴런에 값들을 제공하는 것에 기초하여 CNN(540)은 출력을 생성하며, 이 출력은 때때로 서브샘플링된 콘볼루션된 출력(subsampled convolved output)이라고 지칭된다.
단계(565)에서, CNN(540)은 제2 콘볼루션 함수를 수행한다. 일부 실시예들에서, CNN(540)은 위에서 기술된, CNN(540)이 제1 콘볼루션 함수를 수행한 방식과 유사한 방식으로 제2 콘볼루션 함수를 수행한다. 일부 실시예들에서, CNN(540)이 제1 서브샘플링 계층(544)에 의해 출력되는 값들을 제2 콘볼루션 계층(546)에 포함된 하나 이상의 뉴런들(명시적으로 예시되지 않음)에 대한 입력으로서 제공하는 것에 기초하여 CNN(540)은 제2 콘볼루션 함수를 수행한다. 일부 실시예들에서, 위에서 기술된 바와 같이, 제2 콘볼루션 계층(546)의 각각의 뉴런은 필터와 연관된다. 위에서 기술된 바와 같이, 제2 콘볼루션 계층(546)과 연관된 필터(들)는 제1 콘볼루션 계층(542)과 연관된 필터보다 더 복잡한 패턴들을 식별하도록 구성될 수 있다.
일부 실시예들에서, CNN(540)이 제2 콘볼루션 계층(546)에 포함된 하나 이상의 뉴런들 각각에 대한 입력으로서 제공되는 값들을 하나 이상의 뉴런들 각각에 대응하는 필터의 값들과 곱하는 것에 기초하여 CNN(540)은 제2 콘볼루션 함수를 수행한다. 예를 들어, CNN(540)은 제2 콘볼루션 계층(546)에 포함된 하나 이상의 뉴런들 각각에 대한 입력으로서 제공되는 값들을 하나 이상의 뉴런들 각각에 대응하는 필터의 값들과 곱하여 단일 값 또는 값들의 어레이를 출력으로서 생성할 수 있다.
일부 실시예들에서, CNN(540)은 제2 콘볼루션 계층(546)의 각각의 뉴런의 출력들을 다운스트림 계층의 뉴런들에 제공한다. 예를 들어, CNN(540)은 제1 콘볼루션 계층(542)의 각각의 뉴런의 출력들을 서브샘플링 계층의 대응하는 뉴런들에 제공할 수 있다. 일 예에서, CNN(540)은 제1 콘볼루션 계층(542)의 각각의 뉴런의 출력들을 제2 서브샘플링 계층(548)의 대응하는 뉴런들에 제공한다. 일부 실시예들에서, CNN(540)은 다운스트림 계층의 각각의 뉴런에 제공되는 모든 값들의 집계들에 바이어스 값을 가산한다. 예를 들어, CNN(540)은 제2 서브샘플링 계층(548)의 각각의 뉴런에 제공되는 모든 값들의 집계들에 바이어스 값을 가산한다. 그러한 예에서, 각각의 뉴런에 제공되는 모든 값들의 집계들 및 제2 서브샘플링 계층(548)의 각각의 뉴런과 연관된 활성화 함수에 기초하여 CNN(540)은 제2 서브샘플링 계층(548)의 각각의 뉴런에 제공할 최종 값을 결정한다.
단계(570)에서, CNN(540)은 제2 서브샘플링 함수를 수행한다. 예를 들어, CNN(540)이 제2 콘볼루션 계층(546)에 의해 출력되는 값들을 제2 서브샘플링 계층(548)의 대응하는 뉴런들에 제공하는 것에 기초하여 CNN(540)은 제2 서브샘플링 함수를 수행할 수 있다. 일부 실시예들에서, CNN(540)이 집계 함수를 사용하는 것에 기초하여 CNN(540)은 제2 서브샘플링 함수를 수행한다. 일 예에서, 위에서 기술된 바와 같이, CNN(540)이 주어진 뉴런에 제공되는 값들 중 최대 입력 또는 평균 입력을 결정하는 것에 기초하여 CNN(540)은 제1 서브샘플링 함수를 수행한다. 일부 실시예들에서, CNN(540)이 제2 서브샘플링 계층(548)의 각각의 뉴런에 값들을 제공하는 것에 기초하여 CNN(540)은 출력을 생성한다.
단계(575)에서, CNN(540)은 제2 서브샘플링 계층(548)의 각각의 뉴런의 출력을 완전 연결 계층들(549)에 제공한다. 예를 들어, CNN(540)은 제2 서브샘플링 계층(548)의 각각의 뉴런의 출력을 완전 연결 계층들(549)에 제공하여 완전 연결 계층들(549)이 출력을 생성하게 한다. 일부 실시예들에서, 완전 연결 계층들(549)은 예측(때때로 분류라고 지칭됨)과 연관된 출력을 생성하도록 구성된다.
일 예로서, 출력은 승객(450)의 걸음걸이에 관한 예측을 포함할 수 있다. 예를 들어, 출력은 승객(450)의 걸음걸이에 관한 승객의 보폭, 활보장, 분당 걸음수, 보행 속력, 발 각도, 엉덩이 각도, 및/또는 임의의 다른 메트릭에 관한 예측을 포함할 수 있다.
다른 예로서, 출력은 승객(450)의 골격 구조 또는 체형에 관한 예측을 포함할 수 있다. 예를 들어, 출력은 승객의 신장, 몸통 길이, 팔 길이, 다리 길이, 또는 승객의 신체의 임의의 다른 치수에 관한 예측을 포함할 수 있다. 게다가, 출력은 승객의 자세(예를 들면, 사용자의 신체 부위들 중 하나 이상의 서로에 상대적인 위치 및/또는 배향)에 관한 예측을 포함할 수 있다.
다른 예로서, 출력은 승객의 나이 및/또는 성별에 관한 예측을 포함할 수 있다.
다른 예로서, 출력은 승객의 복장에 관한 예측을 포함할 수 있다. 예를 들어, 출력은 승객이 셔츠, 바지, 모자, 드레스, 스커트, 반바지, 양말, 안경류(예를 들면, 교정용 안경, 선글라스 등), 및/또는 임의의 다른 의복을 착용하고 있는지 여부에 관한 예측을 포함할 수 있다.
다른 예로서, 출력은 승객의 얼굴 표정에 관한 예측을 포함할 수 있다. 예를 들어, 출력은 승객이 미소짓고 있는지, 찡그리고 있는지, 노려보고 있는지 등에 관한 예측을 나타낼 수 있다.
다른 예로서, 출력은 승객의 신원에 관한 예측을 포함할 수 있다. 예를 들어, 출력은 승객의 이름, 연락처 정보, 고유 식별자, 사용자 이름 또는 다른 로그인 자격증명들, 및/또는 여러 사용자들 중에서 승객(450)을 식별해 주는 임의의 다른 정보에 관한 예측을 포함할 수 있다.
일부 실시예들에서, 조정 시스템(400)은, 본원에 기술된 바와 같이, 하나 이상의 동작들을 수행하고/하거나 예측과 연관된 데이터를 상이한 시스템에 제공한다.
이제 도 6을 참조하면, 승객의 특성에 기초하여 차량 좌석 영역을 자동으로 조정하기 위한 프로세스(600)의 플로차트가 예시되어 있다. 일부 실시예들에서, 프로세스(600)와 관련하여 기술된 단계들 중 하나 이상은 (예를 들면, 전체적으로, 부분적으로 등) 조정 시스템(400)에 의해 수행된다. 추가적으로 또는 대안적으로, 일부 실시예들에서, 프로세스(600)와 관련하여 기술된 하나 이상의 단계들은 (예를 들면, 전체적으로, 부분적으로 등), 차량(200), 원격 AV 시스템(114), 플릿 관리 시스템(116), V2I 시스템(118), 및/또는 V2I 디바이스(110)의 하나 이상의 다른 컴포넌트들과 같은, 조정 시스템(400)과 별개이거나 조정 시스템(400)을 포함하는 다른 디바이스 또는 디바이스들의 그룹에 의해 수행된다.
도 6을 계속 참조하면, 차량의 시트 조정 시스템(예를 들면, 조정 시스템(400))은 차량 외부에 있는 사용자의 적어도 하나의 측정치를 나타내는 센서 데이터를 수신한다(블록(602)). 일부 구현들에서, 센서 데이터는 도 4a를 참조하여 기술된 센서 측정치들(414) 중 적어도 일부를 포함할 수 있다. 일 예로서, 센서 데이터는 사용자가 차량 외부에 있는 동안 LiDAR 센서를 사용하여 획득되는 측정치를 포함할 수 있다. 다른 예로서, 센서 데이터는 사용자가 차량 외부에 있는 동안 카메라에 의해 획득되는 이미지를 포함할 수 있다. 다른 예로서, 센서 데이터는 사용자가 차량 외부에 있는 동안 카메라에 의해 획득된 비디오를 포함할 수 있다.
도 6을 계속 참조하면, 이 시스템은 센서 데이터에 기초하여 사용자의 적어도 하나의 특성을 결정한다(블록(604)). 일부 구현들에서, 사용자의 결정된 특성은 도 4a를 참조하여 기술된 승객 특성들(418) 중 적어도 일부를 포함할 수 있다. 일 예로서, 사용자의 특성들은 사용자의 신장, 사용자의 체중, 사용자의 나이, 사용자의 성별, 사용자의 걸음걸이, 사용자의 체형, 사용자의 골격 구조, 및/또는 이들의 임의의 조합을 포함할 수 있다.
도 6을 계속 참조하면, 이 시스템은 사용자의 적어도 하나의 특성에 기초하여 차량의 좌석 영역에 대한 적어도 하나의 수정을 결정한다(블록(606)).
일부 구현들에서, 차량의 좌석 영역에 대한 수정은 좌석 영역에서의 컴포넌트의 위치에 대한 수정 및/또는 좌석 영역에서의 컴포넌트의 배향에 대한 수정을 포함할 수 있다. 예시적인 컴포넌트들은 차량의 머리 받침대, 차량의 팔걸이, 차량의 등받이, 차량의 시트 쿠션, 및/또는 차량의 안전 벨트를 포함한다.
일부 구현들에서, 좌석 영역에 대한 적어도 하나의 수정은 CAE(computer-aided engineering) 모델 및/또는 FEA(finite element analysis) 모델에 기초하여 결정될 수 있다.
일부 구현들에서, 이 시스템은 또한 좌석 영역의 구성에 관한 사용자의 하나 이상의 선호사항들을 나타내는 선호사항 데이터를 수신할 수 있다. 게다가, 이 시스템은 좌석 영역의 구성에 대한 적어도 하나의 수정이 선호사항 데이터에 더 기초하여 결정된다고 결정할 수 있다.
도 6을 계속 참조하면, 이 시스템은 좌석 영역이 적어도 하나의 수정에 따라 조정되게 한다(블록(608)). 일부 구현들에서, 이 시스템은, 사용자가 좌석 영역에 들어가기 전에(예를 들면, 사용자가 차량에 탑승하고/하거나 차량에 착석하기 전에) 좌석 영역이 조정되게 할 수 있다. 일부 구현들에서, 이 시스템은, 사용자가 좌석 영역에 들어간 후에(예를 들면, 사용자가 차량에 탑승하고/하거나 차량에 착석한 후에) 좌석 영역이 조정되게 할 수 있다.
일부 구현들에서, 적어도 하나의 수정은 컴퓨터화된 신경 네트워크에 기초하여 결정될 수 있다. 예시적인 컴퓨터화된 신경 네트워크들은, 예를 들어, 도 5a 내지 도 5c를 참조하여 기술되어 있다.
게다가, 이 시스템은 다수의 추가적인 사용자들에 관한 트레이닝 데이터 세트들에 기초하여 컴퓨터화된 신경 네트워크를 트레이닝시킬 수 있다. 트레이닝 데이터 세트들의 각각은 추가적인 사용자들의 각자의 사용자의 적어도 하나의 특성을 나타내는 제1 데이터를 포함할 수 있다. 게다가, 트레이닝 데이터 세트들 각각은 해당 추가적인 사용자에 대한 좌석 영역의 구성을 나타내는 제2 데이터를 포함할 수 있다.
일부 구현들에서, 컴퓨터화된 신경 네트워크는, 적어도 부분적으로, 사용자의 적어도 하나의 특성을 컴퓨터화된 신경 네트워크에 입력하는 것에 의해 트레이닝될 수 있다. 게다가, 이 시스템은 컴퓨터화된 신경 네트워크의 출력에 기초하여 좌석 영역에 대한 적어도 하나의 수정을 결정할 수 있다.
일부 구현들에서, 이 시스템은 (예를 들면, 사용자가 좌석 영역에 들어간 후에) 사용자에 관한 추가적인 센서 데이터를 수신할 수 있다. 게다가, 이 시스템은 사용자의 적어도 하나의 추가적인 특성을 결정하고; 추가적인 센서 데이터에 기초하여 차량의 좌석 영역에 대한 적어도 하나의 추가적인 수정을 결정하며; 적어도 하나의 추가적인 수정에 따라 좌석 영역이 조정되게 할 수 있다.
일부 구현들에서, 사용자의 적어도 하나의 추가적인 특성을 결정하는 것은 좌석 영역의 컴포넌트에 상대적인 사용자의 신체의 일 부분의 위치를 결정하는 것을 포함할 수 있다.
일부 구현들에서, 사용자의 적어도 하나의 추가적인 특성을 결정하는 것은 사용자의 얼굴 표정을 결정하는 것을 포함할 수 있다.
전술한 설명에서, 본 개시의 양태들 및 실시예들은 구현마다 달라질 수 있는 다수의 특정 세부 사항들을 참조하여 기술되었다. 그에 따라, 설명 및 도면들은 제한적인 의미가 아니라 예시적인 의미로 간주되어야 한다. 본 발명의 범위의 유일한 독점적인 지표, 및 출원인이 본 발명의 범위이도록 의도한 것은, 본 출원에서 특정 형태로 나오는 일련의 청구항들의 문언적 등가 범위이며, 임의의 후속 보정을 포함한다. 그러한 청구항들에 포함된 용어들에 대한 본원에서 명시적으로 기재된 임의의 정의들은 청구항들에서 사용되는 그러한 용어들의 의미를 결정한다. 추가적으로, 전술한 설명 및 이하의 청구항들에서 "더 포함하는"이라는 용어가 사용될 때, 이 문구에 뒤따르는 것은 추가적인 단계 또는 엔티티, 또는 이전에 언급된 단계 또는 엔티티의 서브단계/서브엔티티일 수 있다.

Claims (16)

  1. 방법으로서,
    차량의 시트 조정 시스템에 의해, 상기 차량 외부에 있는 사용자의 적어도 하나의 측정치를 나타내는 센서 데이터를 수신하는 단계;
    상기 시트 조정 시스템에 의해, 상기 센서 데이터에 기초하여 상기 사용자의 적어도 하나의 특성을 결정하는 단계;
    상기 시트 조정 시스템에 의해, 상기 사용자의 상기 적어도 하나의 특성에 기초하여 상기 차량의 좌석 영역에 대한 적어도 하나의 수정을 결정하는 단계 - 상기 좌석 영역에 대한 상기 적어도 하나의 수정을 결정하는 단계는 CAE(computer-aided engineering) 모델 및 FEA(finite element analysis) 모델 중 적어도 하나에 기초하여 상기 좌석 영역에 대한 상기 적어도 하나의 수정을 결정하는 단계를 포함하고, 상기 CAE 모델 및 상기 FEA 모델 중 상기 적어도 하나는 승객에게 가해지는 힘 및 승객에 의해 경험되는 가속도 중 적어도 하나를 추정하는 데 사용됨 - ; 및
    상기 시트 조정 시스템에 의해, 상기 적어도 하나의 수정에 따라 상기 좌석 영역이 조정되게 하는 단계
    를 포함하는, 방법.
  2. 제1항에 있어서,
    상기 좌석 영역에 대한 상기 적어도 하나의 수정을 결정하는 단계 이전에:
    상기 시트 조정 시스템에 의해, 상기 좌석 영역의 구성에 관한 상기 사용자의 하나 이상의 선호사항을 나타내는 선호사항 데이터를 수신하는 단계
    를 더 포함하며,
    상기 좌석 영역에 대한 상기 적어도 하나의 수정은 상기 선호사항 데이터에 더 기초하여 결정되는 것인, 방법.
  3. 제1항에 있어서,
    상기 센서 데이터를 수신하는 단계는,
    상기 사용자가 상기 차량 외부에 있는 동안 LiDAR 센서를 사용하여 획득되는 측정치,
    상기 사용자가 상기 차량 외부에 있는 동안 카메라에 의해 획득되는 이미지, 및
    상기 사용자가 상기 차량 외부에 있는 동안 상기 카메라에 의해 획득되는 비디오,
    중 적어도 하나를 수신하는 단계를 포함하는 것인, 방법.
  4. 제1항에 있어서,
    상기 사용자의 상기 적어도 하나의 특성을 결정하는 단계는,
    상기 사용자의 신장,
    상기 사용자의 체중,
    상기 사용자의 나이,
    상기 사용자의 성별,
    상기 사용자의 걸음걸이,
    상기 사용자의 체형, 및
    상기 사용자의 골격 구조,
    중 적어도 하나를 결정하는 단계를 포함하는 것인, 방법.
  5. 제1항에 있어서,
    상기 좌석 영역이 조정되게 하는 단계는 상기 사용자가 상기 좌석 영역에 들어가기 전에 상기 좌석 영역이 조정되게 하는 단계를 포함하는 것인, 방법.
  6. 제1항에 있어서,
    상기 좌석 영역이 조정되게 하는 단계는,
    상기 좌석 영역에서의 컴포넌트의 위치를 수정하는 단계, 및
    상기 좌석 영역에서의 상기 컴포넌트의 배향을 수정하는 단계,
    중 적어도 하나를 포함하는 것인, 방법.
  7. 제6항에 있어서,
    상기 컴포넌트는,
    머리 받침대,
    팔걸이,
    등받이,
    시트 쿠션, 및
    안전 벨트,
    중 적어도 하나인 것인, 방법.
  8. 제1항에 있어서,
    상기 좌석 영역에 대한 상기 적어도 하나의 수정을 결정하는 단계는 컴퓨터화된 신경 네트워크에 기초하여 상기 적어도 하나의 수정을 결정하는 단계를 포함하는 것인, 방법.
  9. 제8항에 있어서,
    복수의 추가적인 사용자들에 관한 복수의 트레이닝 데이터 세트들에 기초하여 상기 컴퓨터화된 신경 네트워크를 트레이닝시키는 단계
    를 더 포함하며,
    상기 트레이닝 데이터 세트들 각각은:
    상기 추가적인 사용자들 각자의 적어도 하나의 특성을 나타내는 제1 데이터, 및
    해당 추가적인 사용자에 대한 상기 좌석 영역의 구성을 나타내는 제2 데이터
    를 포함하는 것인, 방법.
  10. 제9항에 있어서,
    상기 컴퓨터화된 신경 네트워크를 트레이닝시키는 단계는 상기 사용자의 상기 적어도 하나의 특성을 상기 컴퓨터화된 신경 네트워크에 입력하는 단계를 포함하고,
    상기 좌석 영역에 대한 상기 적어도 하나의 수정을 결정하는 단계는 상기 컴퓨터화된 신경 네트워크의 출력에 기초하여 상기 좌석 영역에 대한 상기 적어도 하나의 수정을 결정하는 단계를 포함하는 것인, 방법.
  11. 삭제
  12. 제1항에 있어서,
    상기 사용자가 상기 좌석 영역에 들어간 후에, 상기 사용자에 관한 추가적인 센서 데이터를 수신하는 단계;
    상기 추가적인 센서 데이터에 기초하여 상기 사용자의 적어도 하나의 추가적인 특성을 결정하는 단계;
    상기 추가적인 센서 데이터에 기초하여 상기 차량의 상기 좌석 영역에 대한 적어도 하나의 추가적인 수정을 결정하는 단계; 및
    상기 적어도 하나의 추가적인 수정에 따라 상기 좌석 영역이 조정되게 하는 단계
    를 더 포함하는, 방법.
  13. 제12항에 있어서,
    상기 사용자의 상기 적어도 하나의 추가적인 특성을 결정하는 단계는:
    상기 좌석 영역의 컴포넌트에 상대적인 상기 사용자의 신체의 일부분의 위치를 결정하는 단계
    를 포함하는 것인, 방법.
  14. 제1항에 있어서,
    상기 사용자의 상기 적어도 하나의 추가적인 특성을 결정하는 단계는:
    상기 사용자의 얼굴 표정을 결정하는 단계를 포함하는 것인, 방법.
  15. 시스템으로서,
    적어도 하나의 프로세서, 및
    명령어들을 저장하는 적어도 하나의 비일시적 저장 매체
    를 포함하며,
    상기 명령어들은, 상기 적어도 하나의 프로세서에 의해 실행될 때, 상기 적어도 하나의 프로세서로 하여금:
    차량 외부에 있는 사용자의 적어도 하나의 측정치를 나타내는 센서 데이터를 수신하게 하고;
    상기 센서 데이터에 기초하여 상기 사용자의 적어도 하나의 특성을 결정하게 하며;
    상기 사용자의 상기 적어도 하나의 특성에 기초하여 상기 차량의 좌석 영역에 대한 적어도 하나의 수정을 결정하게 하고 - 상기 좌석 영역에 대한 상기 적어도 하나의 수정을 결정하는 것은 CAE(computer-aided engineering) 모델 및 FEA(finite element analysis) 모델 중 적어도 하나에 기초하여 상기 좌석 영역에 대한 상기 적어도 하나의 수정을 결정하는 것을 포함하고, 상기 CAE 모델 및 상기 FEA 모델 중 상기 적어도 하나는 승객에게 가해지는 힘 및 승객에 의해 경험되는 가속도 중 적어도 하나를 추정하는 데 사용됨 - ;
    상기 적어도 하나의 수정에 따라 상기 좌석 영역이 조정되도록 하게 하는 것인, 시스템.
  16. 명령어들을 저장하는 적어도 하나의 비일시적 저장 매체로서, 상기 명령어들은, 적어도 하나의 프로세서에 의해 실행될 때, 상기 적어도 하나의 프로세서로 하여금:
    차량 외부에 있는 사용자의 적어도 하나의 측정치를 나타내는 센서 데이터를 수신하게 하고;
    상기 센서 데이터에 기초하여 상기 사용자의 적어도 하나의 특성을 결정하게 하며;
    상기 사용자의 상기 적어도 하나의 특성에 기초하여 상기 차량의 좌석 영역에 대한 적어도 하나의 수정을 결정하게 하고 - 상기 좌석 영역에 대한 상기 적어도 하나의 수정을 결정하는 것은 CAE(computer-aided engineering) 모델 및 FEA(finite element analysis) 모델 중 적어도 하나에 기초하여 상기 좌석 영역에 대한 상기 적어도 하나의 수정을 결정하는 것을 포함하고, 상기 CAE 모델 및 상기 FEA 모델 중 상기 적어도 하나는 승객에게 가해지는 힘 및 승객에 의해 경험되는 가속도 중 적어도 하나를 추정하는 데 사용됨 - ;
    상기 적어도 하나의 수정에 따라 상기 좌석 영역이 조정되도록 하게 하는 것인, 적어도 하나의 비일시적 저장 매체.
KR1020210117528A 2021-07-19 2021-09-03 승객의 특성에 기초한 차량 좌석 영역의 자동 조정 KR102624991B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US17/379,074 US20230019157A1 (en) 2021-07-19 2021-07-19 Automatically adjusting a vehicle seating area based on the characteristics of a passenger
US17/379,074 2021-07-19

Publications (2)

Publication Number Publication Date
KR20230013592A KR20230013592A (ko) 2023-01-26
KR102624991B1 true KR102624991B1 (ko) 2024-01-12

Family

ID=77860026

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210117528A KR102624991B1 (ko) 2021-07-19 2021-09-03 승객의 특성에 기초한 차량 좌석 영역의 자동 조정

Country Status (5)

Country Link
US (1) US20230019157A1 (ko)
KR (1) KR102624991B1 (ko)
CN (1) CN115635890A (ko)
DE (1) DE102021133347A1 (ko)
GB (2) GB202312948D0 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102023002704A1 (de) 2023-07-03 2024-04-18 Mercedes-Benz Group AG Mittelkonsole für einen Kraftwagen sowie Verfahren

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070255469A1 (en) * 2006-04-26 2007-11-01 Nissan Motor Co., Ltd. Driver feeling adjusting apparatus
US20160280161A1 (en) * 2015-03-27 2016-09-29 Ford Global Technologies, Llc Vehicle front seat adjustment based on anthropometric characteristics of a rear passenger

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4572889B2 (ja) * 2006-11-20 2010-11-04 株式会社デンソー 自動車用ユーザーもてなしシステム
CN103079874B (zh) * 2010-09-01 2016-01-20 约翰逊控股公司 用于调整就座位置的装置和方法
DE102011084087B4 (de) * 2011-10-06 2020-06-04 Bayerische Motoren Werke Aktiengesellschaft Verstellvorrichtung zur ergonomischen Einstellung eines Fahrzeugsitzes mit mehreren verstellbaren Sitzkomponenten und/oder zur ergonomischen Einstellung von sitzpositionsabhängigen verstellbaren Fahrzeugkomponenten
EP2674914B1 (en) * 2012-06-11 2018-08-08 Volvo Car Corporation Method for determining a body parameter of a person
US20140379135A1 (en) * 2013-06-20 2014-12-25 Cycling Sports Group, Inc. Camera system for adjustable vehicle fitting system
US9707912B1 (en) * 2016-03-22 2017-07-18 Ford Global Technologies, Llc Human scanning for interior preferences setup
US20190126934A1 (en) * 2017-11-02 2019-05-02 GM Global Technology Operations LLC Methods and systems foir remotely controlling comfort settting(s) within a vehicle
CN108657029B (zh) * 2018-05-17 2020-04-28 华南理工大学 一种基于肢体长度预测的汽车驾驶席座椅智能调节系统及方法
CN111231777A (zh) * 2018-11-29 2020-06-05 南京天擎汽车电子有限公司 车辆座椅控制方法、装置和系统
US10882478B2 (en) * 2018-12-18 2021-01-05 Volkswagen Ag Movement-based comfort adjustment
CN112141026A (zh) * 2019-06-28 2020-12-29 大陆泰密克汽车系统(上海)有限公司 智能驾驶氛围调节系统
KR20210034843A (ko) * 2019-09-23 2021-03-31 삼성전자주식회사 차량의 제어 장치 및 방법
CN113335146B (zh) * 2020-03-03 2023-03-21 沃尔沃汽车公司 自动调节驾驶员相关车载设备的调节方法、装置和系统
CN112918337A (zh) * 2021-04-02 2021-06-08 东风汽车集团股份有限公司 一种识别眼部位置的智能座舱调节系统及方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070255469A1 (en) * 2006-04-26 2007-11-01 Nissan Motor Co., Ltd. Driver feeling adjusting apparatus
US20160280161A1 (en) * 2015-03-27 2016-09-29 Ford Global Technologies, Llc Vehicle front seat adjustment based on anthropometric characteristics of a rear passenger

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
automobileseatneuralnetwork(2004.12.31) 1부.*

Also Published As

Publication number Publication date
DE102021133347A1 (de) 2023-01-19
KR20230013592A (ko) 2023-01-26
GB2609052B (en) 2023-10-11
GB202111708D0 (en) 2021-09-29
GB2609052A (en) 2023-01-25
GB202312948D0 (en) 2023-10-11
CN115635890A (zh) 2023-01-24
US20230019157A1 (en) 2023-01-19

Similar Documents

Publication Publication Date Title
US11332061B2 (en) Unmanned carrier for carrying urban manned vehicles
US10710608B2 (en) Provide specific warnings to vehicle occupants before intense movements
KR102470217B1 (ko) 로컬화 및 위치 기반 서비스를 위해 차량에서 캡처된 승객 주의 데이터의 활용
JP7188394B2 (ja) 画像処理装置及び画像処理方法
US9715764B2 (en) System and method for dynamic in-vehicle virtual reality
US11541781B2 (en) Methods and devices for vehicle safety mechanisms
US11884155B2 (en) Graphical user interface for display of autonomous vehicle behaviors
CN111837175B (zh) 图像显示系统、信息处理装置、信息处理方法、程序和移动体
JP7180670B2 (ja) 制御装置、制御方法、並びにプログラム
WO2018094384A1 (en) Optimal route selection for autonomous vehicles
CN110023168A (zh) 车辆控制系统、车辆控制方法及车辆控制程序
CN109791706B (zh) 图像处理装置和图像处理方法
KR20210056336A (ko) 정보 처리 장치 및 정보 처리 방법, 촬상 장치, 이동체 장치, 그리고 컴퓨터 프로그램
WO2017188017A1 (ja) 検出装置、検出方法、およびプログラム
KR102624991B1 (ko) 승객의 특성에 기초한 차량 좌석 영역의 자동 조정
KR20230025738A (ko) 차량 내의 물체 검출
US11904893B2 (en) Operating a vehicle
KR20210142604A (ko) 정보 처리 방법, 프로그램 및 정보 처리 장치
US20220306155A1 (en) Information processing circuitry and information processing method
EP3648001B1 (en) Systems and methods for controlling actuators based on load characteristics and passenger comfort
WO2024009829A1 (ja) 情報処理装置、情報処理方法および車両制御システム
US20230295963A1 (en) Door control device, storage medium storing computer program for door control, and method for door control
US20240005359A1 (en) Projected Advertisement Modification
US20230128104A1 (en) Accessibility system for assisting a user in interacting with a vehicle
WO2023171401A1 (ja) 信号処理装置、信号処理方法、および記録媒体

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant