KR20180005693A - Detecting objects in a vehicle in relation to services - Google Patents

Detecting objects in a vehicle in relation to services Download PDF

Info

Publication number
KR20180005693A
KR20180005693A KR1020177035479A KR20177035479A KR20180005693A KR 20180005693 A KR20180005693 A KR 20180005693A KR 1020177035479 A KR1020177035479 A KR 1020177035479A KR 20177035479 A KR20177035479 A KR 20177035479A KR 20180005693 A KR20180005693 A KR 20180005693A
Authority
KR
South Korea
Prior art keywords
vehicle
service
sensors
location
information
Prior art date
Application number
KR1020177035479A
Other languages
Korean (ko)
Other versions
KR102395766B1 (en
Inventor
데이비드 맥칼리스터 브래들리
잔-세바스찬 발로이스
Original Assignee
우버 테크놀로지스, 인크.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 우버 테크놀로지스, 인크. filed Critical 우버 테크놀로지스, 인크.
Publication of KR20180005693A publication Critical patent/KR20180005693A/en
Application granted granted Critical
Publication of KR102395766B1 publication Critical patent/KR102395766B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/08Logistics, e.g. warehousing, loading or distribution; Inventory or stock management
    • G06Q50/28
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/40Business processes related to the transportation industry
    • EFIXED CONSTRUCTIONS
    • E05LOCKS; KEYS; WINDOW OR DOOR FITTINGS; SAFES
    • E05FDEVICES FOR MOVING WINGS INTO OPEN OR CLOSED POSITION; CHECKS FOR WINGS; WING FITTINGS NOT OTHERWISE PROVIDED FOR, CONCERNED WITH THE FUNCTIONING OF THE WING
    • E05F15/00Power-operated mechanisms for wings
    • E05F15/70Power-operated mechanisms for wings with automatic actuation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60NSEATS SPECIALLY ADAPTED FOR VEHICLES; VEHICLE PASSENGER ACCOMMODATION NOT OTHERWISE PROVIDED FOR
    • B60N2/00Seats specially adapted for vehicles; Arrangement or mounting of seats in vehicles
    • B60N2/002Seats provided with an occupancy detection means mounted therein or thereon
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/08Logistics, e.g. warehousing, loading or distribution; Inventory or stock management
    • G06Q10/083Shipping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/08Logistics, e.g. warehousing, loading or distribution; Inventory or stock management
    • G06Q10/083Shipping
    • G06Q10/0832Special goods or special handling procedures, e.g. handling of hazardous or fragile goods
    • G06Q50/30
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/18Status alarms
    • G08B21/24Reminder alarms, e.g. anti-loss alarms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60NSEATS SPECIALLY ADAPTED FOR VEHICLES; VEHICLE PASSENGER ACCOMMODATION NOT OTHERWISE PROVIDED FOR
    • B60N2210/00Sensor types, e.g. for passenger detection systems or for controlling seats
    • B60N2210/10Field detection presence sensors
    • B60N2210/16Electromagnetic waves
    • B60N2210/22Optical; Photoelectric; Lidar [Light Detection and Ranging]
    • B60N2210/24Cameras
    • EFIXED CONSTRUCTIONS
    • E05LOCKS; KEYS; WINDOW OR DOOR FITTINGS; SAFES
    • E05YINDEXING SCHEME ASSOCIATED WITH SUBCLASSES E05D AND E05F, RELATING TO CONSTRUCTION ELEMENTS, ELECTRIC CONTROL, POWER SUPPLY, POWER SIGNAL OR TRANSMISSION, USER INTERFACES, MOUNTING OR COUPLING, DETAILS, ACCESSORIES, AUXILIARY OPERATIONS NOT OTHERWISE PROVIDED FOR, APPLICATION THEREOF
    • E05Y2400/00Electronic control; Electrical power; Power supply; Power or signal transmission; User interfaces
    • E05Y2400/10Electronic control
    • E05Y2400/44Sensors not directly associated with the wing movement
    • EFIXED CONSTRUCTIONS
    • E05LOCKS; KEYS; WINDOW OR DOOR FITTINGS; SAFES
    • E05YINDEXING SCHEME ASSOCIATED WITH SUBCLASSES E05D AND E05F, RELATING TO CONSTRUCTION ELEMENTS, ELECTRIC CONTROL, POWER SUPPLY, POWER SIGNAL OR TRANSMISSION, USER INTERFACES, MOUNTING OR COUPLING, DETAILS, ACCESSORIES, AUXILIARY OPERATIONS NOT OTHERWISE PROVIDED FOR, APPLICATION THEREOF
    • E05Y2400/00Electronic control; Electrical power; Power supply; Power or signal transmission; User interfaces
    • E05Y2400/10Electronic control
    • E05Y2400/45Control modes
    • EFIXED CONSTRUCTIONS
    • E05LOCKS; KEYS; WINDOW OR DOOR FITTINGS; SAFES
    • E05YINDEXING SCHEME ASSOCIATED WITH SUBCLASSES E05D AND E05F, RELATING TO CONSTRUCTION ELEMENTS, ELECTRIC CONTROL, POWER SUPPLY, POWER SIGNAL OR TRANSMISSION, USER INTERFACES, MOUNTING OR COUPLING, DETAILS, ACCESSORIES, AUXILIARY OPERATIONS NOT OTHERWISE PROVIDED FOR, APPLICATION THEREOF
    • E05Y2900/00Application of doors, windows, wings or fittings thereof
    • E05Y2900/50Application of doors, windows, wings or fittings thereof for vehicles
    • E05Y2900/53Type of wing
    • E05Y2900/548Trunk lids

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Economics (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Operations Research (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Quality & Reliability (AREA)
  • Development Economics (AREA)
  • Mechanical Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • General Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Emergency Management (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)

Abstract

서비스를 제공할 때 사용되는 차량을 모니터링하기 위한 시스템이 개시된다. 시스템은 서비스가 완료될때를 검출하며, 서비스가 완료된 것을 검출할 때, 시스템은 운송 서비스의 완료 이후에 차량으로부터 이전되어야 했던 객체가 차량내에 남아 있음을 차량의 하나 이상의 센서들로부터 결정한다. 이후, 시스템은 교정 액션(remedial action)의 수행을 자동적으로 개시한다.A system for monitoring a vehicle used when providing a service is disclosed. The system detects when the service is complete and when the service detects that the service has been completed, the system determines from the one or more sensors of the vehicle that an object that had to be transferred from the vehicle after the completion of the transportation service remains in the vehicle. Thereafter, the system automatically initiates the execution of the remedial action.

Description

서비스와 관련하여 차량 내에서의 객체 검출Detecting objects in a vehicle in relation to services

본 출원은 "DETECTING OBJECTS WITHIN A VEHICLE IN CONNECTION WITH A SERVICE"라는 명칭으로 2015년 5월 11일에 출원된 미국 특허 출원번호 제14/708,611호의 우선권을 주장하며, 그에 의해 전술한 출원은 그 전체가 인용에 의해 통합된다. This application claims priority from United States Patent Application Serial No. 14 / 708,611, filed May 11, 2015, entitled " DETECTING OBJECTS WITHIN A VEHICLE IN CONNECTION WITH A SERVICE, " It is incorporated by reference.

서비스 준비 시스템은 모바일 컴퓨팅 디바이스들의 사용을 통해, 요청하는 사용자에게 제공될 서비스를 준비할 수 있다. 예컨대, 사용자는 사용자의 모바일 컴퓨팅 디바이스를 동작시킴으로써 운송 또는 배달 서비스와 같은 서비스를 요청할 수 있으며, 서비스 준비 시스템은 서비스를 제공할 수 있는 적절한 제공자를 선택하기 위하여 요청을 프로세싱할 수 있다. 서비스 준비 시스템은 또한, 서비스 진행 전에 또는 서비스 진행 동안, 이를테면 차량의 현재 위치를 결정하기 위해 서비스를 모니터링할 수 있다.The service provisioning system can prepare services to be provided to the requesting user through the use of mobile computing devices. For example, a user may request a service, such as a shipping or delivery service, by operating the user's mobile computing device, and the service preparation system may process the request to select a suitable provider capable of providing the service. The service preparation system may also monitor the service to determine the current location of the vehicle, such as before or during the service progress.

도 1은 운송 서비스와 관련하여 차량내의 객체들을 검출하기 위한 예시적인 시스템을 예시한다.
도 2은 운송 서비스와 관련하여 차량내의 객체들을 검출하기 위한 예시적인 방법을 예시한다.
도 3은 운송 서비스와 관련하여 차량내의 객체들을 검출하기 위한 다른 예시적인 방법을 예시한다.
도 4a 내지 도 4d은 다양한 사용 사례 예들에서 모바일 컴퓨팅 디바이스상에 디스플레이된 사용자 인터페이스들의 예들을 예시한다.
도 5는 본원에 설명된 실시예들이 구현될 수 있는 컴퓨팅 디바이스를 예시하는 블록도이다.
도 6은 본원에 설명된 예들이 구현될 수 있는 컴퓨터 시스템을 예시하는 블록도이다.
Figure 1 illustrates an exemplary system for detecting objects in a vehicle in connection with a transportation service.
Figure 2 illustrates an exemplary method for detecting objects in a vehicle in connection with a transportation service.
Figure 3 illustrates another exemplary method for detecting objects in a vehicle in connection with a transportation service.
Figures 4A-4D illustrate examples of user interfaces displayed on a mobile computing device in various use case examples.
5 is a block diagram illustrating a computing device in which the embodiments described herein may be implemented.
Figure 6 is a block diagram illustrating a computer system in which the examples described herein may be implemented.

본원에 설명된 예들에 따르면, 네트워크 서비스를 구현하는 서비스 준비 시스템은 위치-기반 서비스들에 대한 요청들을 수신하고, 서비스 제공자들에 의해 제공될 그 서비스들을 준비할 수 있다. 본원에서 사용되는 바와같이, 서비스 제공자들은 서비스들에 대한 초청들을 수신 및/또는 수락하는 인간 운전자들(또는 인간-운전 차량들) 및 일부 사례들에서는 상품들 또는 사람들을 운송하기 위하여 네트워크 서비스에 의해 사용될 수 있는 자율(또는 자동-운전) 차량들을 포함할 수 있다. 서비스를 제공하기 위하여 인간-운전 차량이 배정되든지 또는 자율 차량(AV: autonomous vehicle)이 배정되든지 간에, 네트워크 서비스는 프로세스들을 수행하기 위해, 필요한 경우에 배정된 서비스를 보충하기 위하여 그 차량의 센서들의 세트로부터의 정보를 사용할 수 있다. 예컨대, 차량과 연관된 컴퓨팅 시스템은, 센서 데이터의 사용을 통해, 서비스가 적절히 완료되었는지의 여부 또는 객체를 부주의로 차량내에 남겨두었는지의 여부를 결정할 수 있다.According to the examples described herein, a service provisioning system that implements network services can receive requests for location-based services and prepare those services to be provided by service providers. As used herein, service providers may be used by human operators (or human-driven vehicles) to receive and / or accept invitations for services and, in some instances, by network services And may include autonomous (or auto-driving) vehicles that may be used. Whether a human-driven vehicle is assigned to provide the service or an autonomous vehicle (AV) is assigned, the network service is responsible for performing the processes and, if necessary, Information from the set can be used. For example, a computing system associated with a vehicle may determine, through use of sensor data, whether the service has been properly completed or whether the object was inadvertently left in the vehicle.

일부 예들에서, 컴퓨팅 시스템은 위치-기반 서비스를 제공하기 위하여 차량이 준비되었음을 결정할 수 있다. 구현에 따르면, 컴퓨팅 시스템은 차량과 연관된 컴퓨팅 시스템(예컨대, 차량의 온-보드(on-board) 컴퓨팅 시스템 또는 차량 운전자에 의해 동작되는 운전자 디바이스), 또는 네트워크 서비스를 구현하는 컴퓨팅 시스템(들)(예컨대, 차량으로부터 멀리 떨어진 백엔드 서버 시스템(backend server system))에 대응할 수 있다. 서비스의 수행동안, 컴퓨팅 시스템은 제1 시간에 차량의 하나 이상의 센서들로부터의 정보의 제1 세트에 기반하여 객체가 차량내에 놓여 있음을 검출할 수 있다. 본원에서 설명된 바와같이, 센서는 주위 환경의 일부 특징을 검출하거나 또는 이벤트 또는 총량의 변화를 검출하고 대응 출력(예컨대, 센서 데이터)을 제공할 수 있는 디바이스이다. 컴퓨팅 시스템은, 서비스가 완료되고 있는 시간에 또는 서비스가 완료된 이후에, 하나 이상의 센서들로부터의 정보의 제2 세트에 기반하여 객체가 차량으로부터 이전되었는지의 여부를 검출할 수 있다. 객체가 아직 차량내에 존재한다는 (예컨대, 차량으로부터 이전되지 않았다는) 검출에 대한 응답으로, 컴퓨팅 시스템은 교정 액션(remedial action)을 자동적으로 수행할 수 있다(예컨대, 교정 액션은 교정 액션이 수행되지 않을 경우에 수행되지 않았을 추가 동작을 운전자 또는 차량이 수행하게 할 수 있다).In some instances, the computing system may determine that the vehicle is ready to provide location-based services. According to an implementation, the computing system may be a computing system (e.g., an on-board computing system associated with a vehicle or a driver device operated by a vehicle driver), or a computing system (s) (E.g., a backend server system remote from the vehicle). During the performance of the service, the computing system may detect that an object is in the vehicle based on a first set of information from one or more sensors of the vehicle at a first time. As described herein, a sensor is a device that can detect some characteristic of the environment or detect a change in an event or a total amount and provide a corresponding output (e.g., sensor data). The computing system may detect whether an object has been transferred from a vehicle based on a second set of information from one or more sensors at a time when the service is being completed or after the service has been completed. In response to detection that the object is still in the vehicle (e.g., not transferred from the vehicle), the computing system may automatically perform a remedial action (e.g., the calibration action may not be performed In which case the driver or vehicle may perform additional actions that would not have been performed.

다양한 예들에서, 하나 이상의 센서들, 이를테면 카메라들의 세트, 계량 디바이스들의 세트, 서스펜션(suspension sensor) 센서들의 세트, 광 검출 및 레인징(LIDAR: light detection and ranging) 센서들의 세트, 초음파 센서들의 세트, 위치-결정 센서들의 세트, 무선-주파수 센서들(이를테면 블루투스 또는 Wi-Fi 트랜시버들)의 세트 뿐만아니라 다양한 차량 동작들을 위해 사용되는 다른 센서들(예컨대, 엔진 센서들, 타이어 압력 센서들, 도어 개방 또는 폐쇄 센서들, 안전벨트 센서들, AV들용 외부 스테레오 카메라들 또는 LIDAR 센서들 등)을 포함하거나 또는 구비할 수 있다. 본원에서 사용되는 센서들의 세트는 하나 이상의 개별 센서들 또는 센서들의 하나 이상의 어레이들에 대응할 수 있다. 구현에 따르면, 컴퓨팅 시스템은 객체가 차량내에 놓여 있는지 그리고/또는 차량으로부터 이전되었는지의 여부를 검출하기 위하여 센서들의 하나 이상의 세트들(예컨대, 개별 센서 또는 복수의 상이한 센서들의 조합)로부터의 정보(센서 데이터)를 사용할 수 있다.In various examples, one or more sensors, such as a set of cameras, a set of metering devices, a set of suspension sensor sensors, a set of light detection and ranging (LIDAR) sensors, a set of ultrasonic sensors, A set of position-determination sensors, a set of wireless-frequency sensors (such as Bluetooth or Wi-Fi transceivers) as well as other sensors (e.g., engine sensors, tire pressure sensors, Or shut-off sensors, seat belt sensors, external stereo cameras for AVs or LIDAR sensors, etc.). The set of sensors used herein may correspond to one or more individual sensors or one or more arrays of sensors. According to an implementation, the computing system may receive information from one or more sets of sensors (e.g., an individual sensor or a combination of a plurality of different sensors) to detect whether the object is in the vehicle and / Data) can be used.

예컨대, 컴퓨팅 시스템은 차량내에 배치되는 카메라들의 세트로부터의 이미지 정보에 기반하여 차량 내측의 객체의 위치를 검출할 수 있으며, 이러한 세트의 카메라들의 개개의 렌즈는 차량의 실내 쪽을 향한다. 다른 예에서, 컴퓨팅 시스템은 차량의 컴파트먼트(compartment) 또는 실내에 배치되는 계량 디바이스들의 세트로부터의 무게 정보에 기반하여 객체가 차량의 컴파트먼트 또는 실내 내에 놓여 있음을 또는 이로부터 이전되었음을 검출할 수 있다. 계량 디바이스들의 세트는 계량 디바이스들의 세트의 개별 측정 플랫폼이 차량의 개별 컴파트먼트 또는 실내의 최하부 표면상에 배치되거나 또는 이 아래에 배치되거나 또는 이에 포함되도록 차량내에 배치될 수 있다. For example, the computing system may detect the position of an object inside the vehicle based on image information from a set of cameras disposed in the vehicle, and the individual lenses of the set of cameras are directed toward the interior of the vehicle. In another example, the computing system may be configured to detect that an object is in or out of a compartment or interior of a vehicle based on weight information from a compartment of the vehicle or a set of metering devices disposed in the interior can do. The set of metering devices may be disposed within the vehicle such that the individual measurement platform of the set of metering devices is disposed on or below the lowermost surface of an individual compartment or interior of the vehicle.

다른 예에서, 컴퓨팅 시스템은 무선 통신들을 가진 모바일 컴퓨팅 디바이스가 블루투스 또는 Wi-Fi와 같은 무선 프로토콜들을 사용하는, 차량내의 안테나들과 통신하고 있는 것에 기반하여 모바일 컴퓨팅 디바이스가 차량내에 놓여 있음을 또는 차량으로부터 이전되었음을 검출할 수 있다. 또 다른 예에서, 만일 모바일 컴퓨팅 디바이스가 그 자신의 위치 센서들을 가지고 있다면, 컴퓨팅 시스템은 모바일 컴퓨팅 디바이스가 차량과 함께 이동 중이어서 차량 내에 있을 가능성이 있는지를 결정하기 위하여 그 위치 센서들의 출력과 차량상의 위치 센서들의 출력을 비교할 수 있다. 계속해서 추가적으로, 또 다른 예에서, 컴퓨팅 시스템은 차량의 서스펜션 시스템 근처에 배치되거나 또는 그 서스펜션 시스템내에 포함되는 서스펜션 센서들의 세트로부터의 압축 정보에 기반하여 차량의 컴파트먼트 또는 실내에 있음을 또는 그로부터 이전되었음을 검출할 수 있다.In another example, a computing system may determine that a mobile computing device is in a vehicle based on whether a mobile computing device with wireless communications is communicating with antennas in the vehicle, using wireless protocols such as Bluetooth or Wi-Fi, Can be detected. In another example, if the mobile computing device has its own position sensors, the computing system may determine that there is a possibility that the mobile computing device is in motion with the vehicle, The outputs of the position sensors can be compared. Still further, in yet another example, the computing system is configured to determine whether or not a computing system is in a compartment or interior of a vehicle based on compression information from a set of suspension sensors disposed proximate to, or contained within, the suspension system of the vehicle It can be detected that it has been transferred.

만일 온-디맨드(on-demand) 서비스의 수행의 일부로 또는 이 수행 동안 객체가 차량내에 놓여 있다는 것과 이후 서비스가 완료되고 있는 시간에 또는 서비스가 완료된 이후에, 객체가 차량내에 여전히 존재한다는 것을 컴퓨팅 시스템이 검출하면, 컴퓨팅 시스템은 서비스를 요청한 사용자와 연관된 컴퓨팅 디바이스에 메시지를 통신하는 액션 및/또는 객체가 차량내에 여전히 존재한다는 것을 서비스 준비 시스템에 통지하는 액션과 같은 교정 액션을 자동적으로 수행할 수 있다. 일부 예들에 따르면, 컴퓨팅 시스템은 또한, 객체가 적어도 미리 결정된 시간 기간 동안 차량내에 여전히 존재한다고 검출되었을 때, 차량의 위치에서 머무르도록 운전자에게 명령하거나 또는 차량이 그 차량의 위치에 정지해 있도록 할 수 있다. 다른 예에서, 컴퓨팅 시스템은 객체가 차량으로부터 이전될 수 있는 미리 결정된 또는 특정 위치로 이동하도록 운전자에게 명령하거나 또는 차량이 그 위치로 이동하게 할 수 있다.It is to be appreciated that the object is still in the vehicle as part of or during the performance of the on-demand service and that the object is still in the vehicle at the time the service is completed, The computing system may automatically perform a calibration action such as an action communicating a message to a computing device associated with the user requesting the service and / or an action notifying the service preparation system that the object still exists in the vehicle . According to some examples, the computing system may also be configured to instruct the driver to stay at the location of the vehicle when the object is detected to be still present in the vehicle for at least a predetermined period of time, . In another example, the computing system may instruct the driver to move to a predetermined or specific location where the object may be relocated from the vehicle, or may cause the vehicle to move to that location.

예에 따르면, 컴퓨팅 시스템은 또한 객체가 무엇인지 또는 어떤 타입의 객체가 차량내에 놓여져 있는지를 식별하기 위하여 센서 데이터를 사용할 수 있다. 계속해서 추가로, 일부 예들에서, 컴퓨팅 시스템은 또한 서비스가 시작되고 그리고/또는 종료한 시간을 결정하기 위하여 (또는 이 시간을 결정하기 위한 일환으로) 차량내에 놓여 있는 객체의 검출 및/또는 차량으로부터 이전되고 있는 객체의 검출을 사용할 수 있다. According to an example, a computing system may also use sensor data to identify what an object is or what type of object is in the vehicle. Still further, in some instances, the computing system may also be able to detect objects lying in the vehicle and / or from the vehicle to determine (or as part of determining this time) the time at which the service is started and / You can use detection of the object being migrated.

본원에서 사용되는 바와같이, 클라이언트 디바이스, 운전자 디바이스 및/또는 모바일 컴퓨팅 디바이스는 데스크탑 컴퓨터들, 셀룰러 디바이스들 또는 스마트폰들, 개인 휴대 정보 단말기(PDA: personal digital assistant)들, 랩탑 컴퓨터들, 태블릿 디바이스들 등에 대응하는 디바이스들을 지칭하는데, 이들은 서비스 준비 시스템과 같은 원격 컴퓨팅 시스템(들)과 하나 이상의 네트워크들을 통해 통신하기 위한 네트워크 연결 및 프로세싱 자원들을 제공할 수 있다. 원격 컴퓨팅 시스템은 클라이언트 디바이스, 운전자 디바이스 및/또는 차량으로부터 원격에 있는 (예컨대, 네트워크 서비스의 백-엔드 서버 시스템에 대응하는) 하나 이상의 컴퓨팅 시스템들 또는 서버들을 지칭할 수 있다. 계속해서 추가로, 본원에서 설명된 예들에서, 차량과 연관된 운전자 디바이스 또는 컴퓨팅 시스템은 또한 네트워크 연결 및 위치-결정 능력들을 가진 차량내 또는 온-보드 컴퓨팅 시스템과 같은 차량의 주문형 하드웨어에 대응할 수 있다.As used herein, a client device, a driver device, and / or a mobile computing device may be a desktop computer, a cellular device or smart phone, a personal digital assistant (PDA), a laptop computer, a tablet device And the like, which may provide network connectivity and processing resources for communicating over one or more networks with a remote computing system (s), such as a service provisioning system. The remote computing system may refer to one or more computing systems or servers (e.g., corresponding to a back-end server system of network services) remote from the client device, the driver device, and / or the vehicle. Still further, in the examples described herein, the driver device or computing system associated with the vehicle may also correspond to on-demand hardware of the vehicle, such as in-vehicle or on-board computing systems with network connectivity and location-determining capabilities.

계속해서 추가로, 본원에서 설명된 예들은 사용자들과 서비스 제공자들 사이에 배열될 운송 서비스, 푸드 트럭 서비스, 배달 서비스, 엔터테인먼트 서비스 등과 같은 다양한 위치-기반(및/또는 온-디맨드(on-demand)) 서비스들과 관련된다. 다른 예들에서, 서비스 준비 시스템은 컴퓨팅 디바이스들 및 네트워크(들)의 사용을 통해 구매용 상품들 또는 서비스들을 제공하는 임의의 엔티티에 의해 구현될 수 있다. 단순화를 위하여, 본원에서 설명된 예들에서, 서비스 준비 시스템은 운전자들 또는 차량들에 의해 승객들/사용자들에게 제공될 운송 서비스들(예컨대, 객체들 또는 사람들 운송)을 준비하는 운송 준비 시스템에 대응할 수 있다.(And / or on-demand) services such as transportation services, food trucking services, delivery services, entertainment services, etc., which will be arranged between users and service providers, )) Services. In other instances, the service provisioning system may be implemented by any entity that provides merchandise or services for purchase through the use of computing devices and network (s). For simplicity, in the examples described herein, the service provisioning system corresponds to a shipping preparation system that prepares transportation services (e.g., objects or people transportation) to be provided to passengers / users by drivers or vehicles .

본원에서 설명된 하나 이상의 예들은 컴퓨팅 디바이스에 의해 수행되는 방법들, 기술들 및 액션들이 프로그램에 따라 또는 컴퓨터-구현 방법으로서 수행되는 것을 제공한다. 본원에서 사용되는 "프로그램에 따라"는 "코드 또는 컴퓨터-실행가능 명령들의 사용을 통해"를 의미한다. 이들 명령들은 컴퓨팅 디바이스의 하나 이상의 메모리 자원들에 저장될 수 있다. 프로그램에 따라 수행되는 단계는 자동적이거나 또는 자동적이 아닐 수 있다.One or more of the examples described herein provide that the methods, techniques, and actions performed by a computing device are performed as a program or as a computer-implemented method. As used herein, "according to program" means "through use of code or computer-executable instructions. &Quot; These instructions may be stored in one or more memory resources of the computing device. The steps performed according to the program may not be automatic or automatic.

본원에서 설명된 하나 이상의 예들은 프로그램 모듈들, 엔진들 또는 컴포넌트들을 사용하여 구현될 수 있다. 프로그램 모듈, 엔진 또는 컴포넌트는 하나 이상의 언급된 작업들 또는 기능들을 수행할 수 있는 프로그램, 서브-루틴, 프로그램의 일부, 또는 소프트웨어 컴포넌트 또는 하드웨어 컴포넌트를 포함할 수 있다. 본원에서 사용되는 바와같이, 모듈 또는 컴포넌트는 다른 모듈들 또는 컴포넌트들과 별도로 하드웨어 컴포넌트상에 존재할 수 있다. 대안적으로, 모듈 또는 컴포넌트는 다른 모듈들, 프로그램들 또는 머신들의 공유 엘리먼트 또는 프로세스일 수 있다.One or more of the examples described herein may be implemented using program modules, engines or components. A program module, engine or component may comprise a program, sub-routine, part of a program, or a software or hardware component capable of performing one or more of the mentioned operations or functions. As used herein, a module or component may reside on a hardware component separate from other modules or components. Alternatively, the module or component may be a shared element or process of other modules, programs, or machines.

본원에서 설명되는 일부 예들은 일반적으로 프로세싱 및 메모리 자원들을 비롯하여, 컴퓨팅 디바이스들의 사용을 필요로 할 수 있다. 예컨대, 본원에서 설명된 하나 이상의 예들은 컴퓨팅 디바이스들, 이를테면 서버들, 데스크탑 컴퓨터들, 셀룰러 또는 스마트폰들, 개인 휴대 정보 단말기들(예컨대, PDA들), 랩탑 컴퓨터들, 프린터들, 디지털 사진 프레임들, 네트워크 장비(예컨대, 라우터들) 및 태블릿 디바이스들상에서 전체적으로 또는 부분적으로 구현될 수 있다. 메모리, 프로세싱 및 네트워크 자원들은 모두 (임의의 방법의 수행 또는 임의의 시스템의 구현을 비롯하여) 본원에서 설명된 임의의 예의 설정, 사용 또는 수행과 관련하여 사용될 수 있다.Some examples described herein may in general require the use of computing devices, including processing and memory resources. For example, one or more of the examples described herein may be implemented in computing devices, such as servers, desktop computers, cellular or smart phones, personal digital assistants (e.g., PDAs), laptop computers, printers, , Network devices (e.g., routers), and tablet devices. Memory, processing, and network resources may all be used in connection with the setting, use, or performance of any of the examples described herein (including the implementation of any method or the implementation of any system).

더욱이, 본원에서 설명된 하나 이상의 예들은 하나 이상의 프로세서들에 의해 실행가능한 명령들의 사용을 통해 구현될 수 있다. 이들 명령들은 컴퓨터-판독가능 매체상에 탑재될 수 있다. 이하에서 도면들에 도시되거나 또는 이 도면들과 함께 설명된 머신들은 본원에서 설명된 예들을 구현하기 위한 명령들이 탑재되고 그리고/또는 실행될 수 있는 프로세싱 자원들 및 컴퓨터-판독가능 매체들의 예들을 제공한다. 특히, 본원에서 설명된 예들과 함께 도시된 다수의 머신들은 데이터 및 명령들을 보유하기 위한 다양한 형태들의 메모리와 프로세서(들)를 포함한다. 컴퓨터-판독가능 매체들의 예들은 퍼스널 컴퓨터들 또는 서버들상의 하드 드라이브들과 같은 영구 메모리 저장 디바이스들을 포함한다. 컴퓨터 저장 매체들의 다른 예들은 휴대용 저장 유닛들, 이를테면 CD 또는 DVD 유닛들, 플래시 메모리(이를테면, 스마트폰들, 다기능 디바이스들 또는 태블릿들상에 장착됨), 및 자기 메모리를 포함한다. 컴퓨터들, 단말들, 네트워크 사용 디바이스(network enabled device)들 (예컨대, 셀 폰들과 같은 모바일 디바이스들)은 모두 프로세서들, 메모리 및 컴퓨터-판독가능 매체들상에 저장된 명령들을 활용하는 머신들 및 디바이스들의 예들이다. 부가적으로, 예들은 컴퓨터-프로그램들, 또는 이러한 프로그램을 탑재할 수 있는 컴퓨터 사용가능 캐리어 매체의 형태로 구현될 수 있다.Moreover, one or more of the examples described herein may be implemented through use of instructions executable by one or more processors. These instructions may be loaded onto a computer-readable medium. The machines illustrated in or described with reference to the figures below provide examples of processing resources and computer-readable media on which instructions for implementing the examples described herein may be loaded and / or executed . In particular, the plurality of machines illustrated with the examples described herein include various types of memory and processor (s) for holding data and instructions. Examples of computer-readable media include permanent memory storage devices such as hard drives on personal computers or servers. Other examples of computer storage media include portable storage units such as CD or DVD units, flash memory (e.g., mounted on smart phones, multifunction devices or tablets), and magnetic memory. Computers, terminals, network enabled devices (e.g., mobile devices such as cell phones) all include processors and memory, and machines and devices that utilize instructions stored on computer- . In addition, examples may be implemented in the form of computer-programs, or computer-usable carrier media capable of mounting such programs.

시스템 설명System Description

도 1은 운송 서비스와 관련하여 차량내의 객체들을 검출하기 위한 예시적인 시스템을 예시한다. 구현에 따르면, 이러한 시스템은 운전자의 모바일 컴퓨팅 디바이스, 차량의 차량내 컴퓨팅 시스템, 또는 네트워크 서비스를 제공하는 서비스 준비 시스템에 의해 구현되고 이들상에서 동작될 수 있다. 단순화를 위하여, 도 1의 예에서, 시스템(100)은 차량내 컴퓨팅 시스템의 하나 이상의 메모리 자원들에 저장된 명령들의 실행을 통해 AV와 같은 차량의 차량내 컴퓨팅 시스템에 의해 구현되고 이 시스템상에서 동작되는 것으로 설명된다. 본원에서 설명된 바와같이, 시스템(100)은 하나 이상의 네트워크들을 통해 서비스 준비 시스템(190)과 통신하는 차량내 컴퓨팅 시스템의 애플리케이션 또는 오퍼레이팅 시스템을 포함하거나 이의 부분일 수 있거나 또는 이에 대응할 수 있다. Figure 1 illustrates an exemplary system for detecting objects in a vehicle in connection with a transportation service. According to an implementation, such a system may be implemented and operated on by a mobile computing device of a driver, a vehicle in-vehicle computing system, or a service provisioning system that provides network services. For simplicity, in the example of FIG. 1, the system 100 is implemented by an in-vehicle computing system of a vehicle, such as an AV, via execution of instructions stored in one or more memory resources of an in-vehicle computing system, . As described herein, the system 100 may include or be part of or correspond to an application or operating system of an in-vehicle computing system in communication with the service provisioning system 190 via one or more networks.

예들에 따르면, 시스템(100)은 시스템 관리부(110), 위치 결정부(120), 객체 검출부(130), 위치 데이터베이스(140), 트립 데이터베이스(trip database)(150) 및 서비스 인터페이스(160)를 포함할 수 있다. 단순화를 위하여, 시스템(100)의 다른 컴포넌트들, 이를테면 사용자 인터페이스 컴포넌트, 디바이스 데이터베이스들, 다른 컴포넌트들과 통신하기 위한 디바이스 인터페이스들 등은 도 1에 예시되지 않는다. 시스템(100)의 컴포넌트들은 운송 서비스들과 관련하여 차량내에 놓이고 그리고/또는 이 차량으로부터 이전되는 객체들을 검출하기 위하여 결합될 수 있다. 로직(logic)은 시스템(100)을 구현하는 컴퓨팅 시스템의 하드웨어 및/또는 다양한 애플리케이션들(예컨대, 소프트웨어)로 구현될 수 있다.According to the examples, the system 100 includes a system management unit 110, a positioning unit 120, an object detection unit 130, a location database 140, a trip database 150, and a service interface 160 . For simplicity, other components of the system 100, such as user interface components, device databases, device interfaces for communicating with other components, etc., are not illustrated in FIG. The components of the system 100 may be combined to detect objects that are placed in and / or transferred from the vehicle in connection with transportation services. The logic may be implemented in hardware and / or in a variety of applications (e.g., software) of a computing system that implements the system 100.

일례에서, 시스템(100)은 서비스 인터페이스(160)를 통해 서비스 준비 시스템(190)과 통신할 수 있다. 본원에서 설명된 바와같이, 서비스 준비 시스템(190)은 사용자들과 서비스 제공자들 간의 운송 서비스들을 준비하기 위하여 복수의 서비스 제공자들(예컨대, 운전자 디바이스들 및/또는 차량내 컴퓨팅 시스템들) 및 복수의 클라이언트(또는 사용자) 디바이스들과 통신할 수 있다. 서비스 준비 시스템(190)은 네트워크측 자원들, 이를테면 하나 이상의 서버들 또는 데이터 센터들상에서 구현될 수 있거나, 또는 대안적인 아키텍처들(예컨대, 피어-투-피어(peer-to-peer) 네트워크들 등)에서는 다른 컴퓨터 시스템들을 통해 구현될 수 있다. 전형적으로, 사용자는 네트워크(들)를 통해 서비스 준비 시스템(190)과 통신하기 위하여 클라이언트 또는 사용자 디바이스(단순화를 위해 도 1에 도시되지 않음) 동작시킬 수 있으며, 특정 위치(예컨대, 운송될 사람 또는 소화물의 픽업 위치(pickup location))에서 운송 서비스에 대한 요청을 수행할 수 있다. 일부 예들에서, 사용자 디바이스는 서비스 준비 시스템(190)과 통신하는 지정된 서비스 애플리케이션을 작동할 수 있다. 서비스 준비 시스템(190)은 요청을 수신하고, 운송 서비스를 제공하는 서비스 제공자를 프로그램에 따라 선택할 수 있다. In one example, the system 100 may communicate with the service provisioning system 190 via the service interface 160. As described herein, the service provisioning system 190 may include a plurality of service providers (e.g., driver devices and / or in-vehicle computing systems) and a plurality of service providers And may communicate with client (or user) devices. The service provisioning system 190 may be implemented on network side resources, such as one or more servers or data centers, or may be implemented on alternative architectures (e.g., peer-to-peer networks, etc.) ) May be implemented through other computer systems. Typically, a user may operate a client or user device (not shown in FIG. 1 for simplicity) to communicate with the service provisioning system 190 via the network (s) A pick-up location of the package). In some instances, the user device may operate a designated service application that communicates with the service provisioning system 190. The service preparation system 190 can receive the request and select the service provider that provides the transportation service according to the program.

구현에 따르면, 만일 서비스 준비 시스템(190)이 서비스를 제공할 인간 운전자를 선택하면, 서비스 준비 시스템(190)은 선택된 운전자의 디바이스에 초청을 송신하여, 요청하는 승객에 운송 서비스를 제공하기 위하여 초대를 수락할지 또는 거절할지에 대한 옵션을 운전자에게 제공할 수 있다. 다른 예에서, 만일 서비스 준비 시스템(190)이 도 1에 도시된 것과 같이 복수의 이용가능한 AV들(및/또는 인간 운전자들)로부터 서비스를 제공할 AV를 선택하면, 서비스 준비 시스템(190)은 서비스에 대한 정보(서비스 명령들(191)로 지칭됨)를 서비스 인터페이스(160)를 통해 시스템(100)에 송신할 수 있다.According to the implementation, if the service preparation system 190 selects a human operator to provide the service, the service preparation system 190 sends an invitation to the selected driver's device to invite the requesting passenger The user may be given the option of accepting or declining. In another example, if the service preparation system 190 selects an AV to provide service from a plurality of available AVs (and / or human drivers) as shown in FIG. 1, the service preparation system 190 (Referred to as service instructions 191) for the service to the system 100 via the service interface 160.

예들에 따르면, 서비스 인터페이스(160)는 시스템(100)이 시스템(100)과 서비스 준비 시스템(190) 사이에서 데이터를 교환할 수 있게 한다. 예컨대, 서비스 인터페이스(160)는 하나 이상의 무선 네트워크들(예컨대, 셀룰러 트랜시버, WLAN 트랜시버 등)을 통해 통신들을 교환하기 위하여 차량내 컴퓨팅 시스템의 하나 이상의 네트워크 자원들을 사용할 수 있다. 서비스 인터페이스(160)는 서비스 준비 시스템(190)과 데이터를 통신하기 위하여 외부 지향(externally facing) 애플리케이션 프로그래밍 인터페이스(API)와 같은 API를 포함하거나 사용할 수 있다. 외부 지향 API는 임의의 수의 방법들, 이를테면 웹-기반 방식(web-based form)들, 레스트풀(restful) API들을 통한 프로그램적 액세스, 단순 객체 액세스 프로토콜(SOAP: Simple Object Access Protocol), 원격 프로시저 호출(RPC: remote procedure call), 스크립팅 액세스(scripting access) 등에 의하여, 네트워크에 걸친 보안 액세스 채널들을 통해 서비스 준비 시스템(190)에 액세스를 제공할 수 있다.In accordance with the examples, the service interface 160 allows the system 100 to exchange data between the system 100 and the service provisioning system 190. For example, the service interface 160 may use one or more network resources of the in-vehicle computing system to exchange communications via one or more wireless networks (e.g., cellular transceiver, WLAN transceiver, etc.). The service interface 160 may include or use an API, such as an externally facing application programming interface (API), for communicating data with the service provisioning system 190. The outbound oriented API may be implemented using any number of methods, such as web-based forms, programmatic access via restful APIs, Simple Object Access Protocol (SOAP) May provide access to the service provisioning system 190 via secure access channels across the network, such as by remote procedure calls (RPCs), scripting accesses, and the like.

도 1의 예에서, 서비스 준비 시스템(190)은 사용자에 의한, 운송 서비스에 대한 요청을 프로세싱하였고 요청하는 사용자에게 운송 서비스를 제공하기 위하여 시스템(100)을 구현하는 AV를 선택하였다. 서비스 준비 시스템(190)은, 요청하는 사용자에 의해 특정된 픽업 위치 및 픽업 위치에 근접한 (예컨대, 픽업 위치의 결정된 거리내에 있는) 이용가능한 서비스 제공자들의 현재 위치(또는 가장 최근에 결정된 위치들)에 기반하여, 시스템(100)을 구현하는 AV가 운송 서비스를 제공할 것임을 결정하였을 수 있다. 서비스 준비 시스템(190)은 가야할 위치 및/또는 해야할 일에 대해 차량에게 명령하는, 운송 서비스에 대한 서비스 명령들(191)을 송신할 수 있다. 일부 예들에서, 서비스 명령들(191)은 사용자 정보(192)(예컨대, 사용자 식별자, 사용자의 연락 정보, 사용자 등급 등), 사용자에 의해 특정된 픽업 위치(193)(예컨대, 주소, 랜드마크, 위도 및 경도 좌표에 대응하는 위치 데이터 포인트(location data point)), 목적지 위치(194) 및/또는 다른 정보, 이를테면 운송 서비스의 타입(예컨대, 사람 운송, 소화물 배달 등) 또는 사람들의 수 또는 소화물들의 수에 대한 세부사항들을 포함할 수 있다. 일례에서, 서비스 명령들(191)은 AV의 차량 제어 컴포넌트(들)로 하여금 적절한 위치들로 이동하도록 AV를 적어도 부분적으로 제어하게 할 수 있다. 다시 말해서, 차량 제어 컴포넌트(들)는 픽업 위치 및/또는 목적지 또는 하차 위치로 이동하도록 차량을 제어하기 위하여 (다른 정보외에도) 서비스 명령들(191)의 일부 또는 전부를 사용할 수 있다.In the example of FIG. 1, the service preparation system 190 has processed a request for a transportation service by a user and selected an AV implementing the system 100 to provide transportation services to the requesting user. The service preparation system 190 may determine the current position (or most recently determined positions) of the available service providers that are close to the pick-up position and pickup position specified by the requesting user (e.g., within a determined distance of the pick- , It may be determined that the AV implementing the system 100 will provide transportation services. The service preparation system 190 may send service commands 191 for the transportation service, which commands the vehicle to the location and / or the to-do location to go. In some instances, service commands 191 may include user information 192 (e.g., a user identifier, user contact information, user rating, etc.), a pick-up location 193 (e.g., address, landmark, (E.g., location data points corresponding to latitude and longitude coordinates), destination location 194 and / or other information such as the type of transportation service (e.g., human transport, package delivery, etc.) And may include details of the number. In one example, the service instructions 191 may cause the vehicle control component (s) of the AV to at least partially control the AV to move to appropriate locations. In other words, the vehicle control component (s) may use some or all of the service instructions 191 (in addition to other information) to control the vehicle to move to the pick up position and / or the destination or departure position.

시스템 관리부(110)는 서비스 명령들(191)을 수신할 수 있고, 이에 응답하여 시스템(100)을 대신하여 복수의 동작들을 수행할 수 있다. 예컨대, 시스템 관리부(110)는 자신이 수행할 운송 서비스에 대한 정보를 결정함으로써 서비스 명령들(191)을 프로세싱할 수 있으며, 픽업 위치 및/또는 목적지 위치로 이동할 루트(들)를 결정하고 픽업 위치 및/또는 목적지 위치로 이동하도록 AV를 제어함으로써 운송 서비스의 수행을 개시할 수 있다.The system management unit 110 may receive service instructions 191 and may perform a plurality of operations on behalf of the system 100 in response. For example, the system management unit 110 may process the service commands 191 by determining information about the transportation service to be performed by the system management unit 110, determine the route (s) to be moved to the pickup position and / And / or control the AV to move to the destination location.

일례에서, 시스템 관리부(110)의 트립 관리 컴포넌트는 서비스 명령들(191)로부터의 명령의 일부 또는 전부를 사용하여 운송 서비스에 대한 트립 엔트리(151)를 생성하고, 이 트립 엔트리(151)를 시스템(100)의 트립 데이터베이스(150)에 저장할 수 있다. 이후, 트립 관리 컴포넌트는 차량이 운송 서비스를 수행할 때 (예컨대, 현재 위치로부터 픽업 위치로 이동하고, 사용자 또는 객체를 픽업하며, 하차 위치로 이동하는 등을 수행할 때) 차량의 위치에 대한 정보로 트립 엔트리(151)를 업데이트할 수 있다. 트립 관리 컴포넌트는 또한 서비스 명령들(191)이 수신되었을 때, 서비스가 시작되었을 때 그리고 서비스가 종료하였을 때 차량의 시간 및 위치를 트립 엔트리(151)에 기록할 수 있다. 트립 엔트리(151)는 (예컨대, 완료 이후에) 요청하는 사용자에 대한 운송 서비스의 비용을 결정하고 요청하는 사용자 및/또는 AV의 이력 기록을 유지하기 위하여 시스템(100) 및/또는 서비스 준비 시스템(190)에 의해 사용될 수 있다.In one example, the trip management component of system manager 110 generates a trip entry 151 for the transportation service using some or all of the commands from service commands 191, In the trip database 150 of the server 100. Thereafter, the trip management component sends information about the location of the vehicle (e.g., when the vehicle performs a transportation service (e.g., moving from a current location to a pick up location, picking up a user or object, It is possible to update the trip entry 151. [ The trip management component may also record the time and location of the vehicle in the trip entry 151 when the service commands 191 are received, when the service is started, and when the service is terminated. The trip entry 151 may be used by the system 100 and / or the service preparation system (e. G., The system 100) to determine the cost of the shipping service for the requesting user (e. 190). ≪ / RTI >

위치 결정부(120)는 차량내 컴퓨팅 시스템의 하나 이상의 지역-인식 자원들로부터 위치 데이터 포인트들(121)을 (예컨대, 주기적으로) 수신함으로써 차량의 위치에 대한 정보를 시스템 관리부(110)에 제공할 수 있다. 예컨대, 위치 결정부(120)는 차량의 현재 위치 데이터 포인트(121)를 결정하기 위하여, 예컨대 디바이스 인터페이스를 통해, 운전자 디바이스의 GPS 수신기, 하나 이상의 다른 센서들 및/또는 하나 이상의 트랜시버들(예컨대, 셀룰러 트랜시버, Wi-Fi 트랜시버)와 통신함으로써 차량의 현재 위치를 주기적으로 결정할 수 있다. 일례에서, 위치 결정부(120)는 운전자 디바이스의 현재 위치 데이터 포인트(121)를 주기적으로 수신하기 위하여, 주기적으로, 이를테면 2초 또는 4초 등 마다 GPS 수신기에 콜(call)을 수행할 수 있다. 위치 결정부(120)는 또한 차량의 각각의 결정된 위치 데이터 포인트(121)의 연관된 타임스탬프(timestamp)를 결정할 수 있다. 구현에 따르면, 위치 결정부(120)는 GPS 수신기로부터, 차량의 위치 데이터 포인트(121)와 함께 타임스탬프(및/또는 에러 값)를 수신할 수 있거나 또는 별개의 클록(예컨대, 운전자 디바이스의 내부 클록)을 사용하여 위치 데이터 포인트(121)의 타임스탬프를 결정할 수 있다. 시스템 관리부(110)는 차량이 운송 서비스들과 관련하여 이동한 위치에 대한 데이터를 유지하기 위하여 트립 엔트리(151) 및/또는 위치 데이터베이스(140)에 위치 데이터 포인트들(121)을 저장할 수 있다. 추가적으로 또는 대안적으로, 위치 결정부(120)는 위치 데이터베이스(140)에 차량의 위치 데이터 포인트들(121)을 저장할 수 있다.The positioning unit 120 provides information on the position of the vehicle to the system management unit 110 by receiving location data points 121 (e.g., periodically) from one or more area-aware resources of the in-vehicle computing system can do. For example, the positioning unit 120 can be configured to determine a current location data point 121 of the vehicle, for example, via a device interface, a GPS receiver of the driver device, one or more other sensors and / or one or more transceivers Cellular transceiver, Wi-Fi transceiver) to periodically determine the current location of the vehicle. In one example, the positioning unit 120 may perform a call to the GPS receiver periodically, such as every two seconds or four seconds, in order to periodically receive the current position data point 121 of the driver device . The positioning unit 120 may also determine an associated timestamp of each determined location data point 121 of the vehicle. According to an implementation, the position determination unit 120 may receive a time stamp (and / or an error value) from a GPS receiver with a location data point 121 of the vehicle, or may receive a separate clock (e.g., Clock) may be used to determine the time stamp of the location data point 121. The system management unit 110 may store the location data points 121 in the trip entry 151 and / or the location database 140 to maintain data about the location where the vehicle has moved in relation to the transportation services. Additionally or alternatively, the position determination unit 120 may store the position data points 121 of the vehicle in the position database 140.

시스템 관리부(110)를 다시 참조하면, 트립 관리 컴포넌트는 또한 차량을 모니터링하기 위하여 위치 결정부(120)로부터의 위치 데이터 포인트들(121)을 사용할 수 있다. 트립 관리 컴포넌트는 운송 서비스의 수행(예컨대, 차량이 운송 서비스의 어떤 단계에 있는지에 관한 수행)과 관련하여 시스템(100) 또는 차량의 위치 및 상태를 결정할 수 있다. 예컨대, 시스템(100)의 상태는 이미 이용가능한 상태에 있었을 수 있으며, 이 상태는 차량이 서비스 관리 시스템(190)으로부터의 운송 서비스를 배정받을 수 있는 상태에 대응한다. 시스템(100)이 서비스 명령들(191)을 수신할 때, 트립 관리 컴포넌트는 시스템(100)이 상이한 상태, 예컨대 루트 상태가 되게 할 수 있으며, 이는 차량이 픽업 위치로 이동하는 것에 대응한다. 유사하게, 운송 서비스가 개시되었거나 종료되었음을 트립 관리 컴포넌트가 결정할 때마다, 트립 관리 컴포넌트는 시스템(100)이 개별 상태로 되게 할 수 있다(예컨대, 각각 온(on) 루트 상태로부터 온 트립 상태로 변하거나 또는 온 트립 상태로부터 완료되거나 이용가능한 상태로 변하게 할 수 있다). 트립 관리 컴포넌트는 상태에 대한 정보를 그리고/또는 상태 변화가 발생하였을 때 대응하는 위치 데이터 포인트들(121)과 함께 운송 서비스의 트립 엔트리(151)에 저장할 수 있다. Referring back to the system management section 110, the trip management component may also use the location data points 121 from the location determination section 120 to monitor the vehicle. The trip management component may determine the location and state of the system 100 or vehicle in connection with the performance of the transportation service (e.g., the performance of the vehicle at which stage of the transportation service). For example, the state of the system 100 may have already been available, and this state corresponds to a state in which the vehicle can be assigned a transportation service from the service management system 190. When the system 100 receives the service commands 191, the trip management component may cause the system 100 to be in a different state, e.g., a root state, which corresponds to the vehicle moving to the pickup position. Similarly, each time the trip management component determines that the transportation service has been initiated or terminated, the trip management component may cause the system 100 to be in a separate state (e.g., each transition from an on route state to a trip state) Or may change from an on-trip state to a completed or available state). The trip management component may store information about the state and / or store it in the trip entry 151 of the transportation service together with the corresponding location data points 121 when a state change occurs.

계속해서 추가로, 추가적으로 또는 대안적으로, 서비스 준비 시스템(190)은 시스템(100)에 저장된 트립 엔트리(151)에 대응하거나 또는 이와 유사한 자기 자신의 트립 엔트리를 로컬로(locally) 생성하여 저장할 수 있다. 트립 관리 컴포넌트는 운송 서비스에 대한 앞서 설명된 정보를 예컨대 상태 정보(111) 및/또는 위치 데이터 포인트들(113)을 통해 서비스 준비 시스템(190)에 주기적으로 제공할 수 있다. 서비스 준비 시스템(190)은 운송 서비스에 대한 업데이트된 정보(예컨대, AV의 위치 및/또는 AV의 현재 상태 등)를 요청하는 사용자에게 제공하기 위하여 시스템(100)으로부터 수신된 정보를 사용할 수 있다. 게다가, 서비스 준비 시스템(190)은, 상태 정보(111) 및/또는 위치 데이터 포인트들(113)로부터, 운송 서비스가 개시되었거나 또는 완료되었을 때 및/또는 다른 운송 서비스를 제공하기 위하여 AV가 이용가능할 때를 결정할 수 있다.Still further, additionally or alternatively, the service preparation system 190 may locally generate and store its own trip entry corresponding to or similar to the trip entry 151 stored in the system 100 have. The trip management component may periodically provide the service described above for the transportation service to the service provisioning system 190, e.g., via the status information 111 and / or location data points 113. [ The service preparation system 190 may use the information received from the system 100 to provide updated information to the shipping service (e. G., The location of the AV and / or the current state of the AV) to the requesting user. In addition, the service provisioning system 190 may be configured to receive from the state information 111 and / or location data points 113 the availability of an AV when the transportation service is initiated or completed and / or to provide other transportation services You can decide when.

운송 서비스에 대한 트립 엔트리(151)를 생성하고 업데이트하는 것에 부가하여, 시스템 관리부(110)는 서비스 명령들(191)에 적어도 부분적으로 기반하여 운송 서비스의 수행을 개시할 수 있다. 일부 예들에 따르면, 시스템 관리부(110)의 차량 제어 컴포넌트는 운송 서비스를 수행하도록 AV를 제어할 수 있다. 구현에 따르면, 차량 제어 컴포넌트는 AV 제어 시스템과 인터페이싱할 수 있거나 또는 AV 제어 시스템에 대응할 수 있다. 본원에서 설명된 바와같이, AV는 (i) 시스템(100) 및/또는 AV 제어 시스템을 구현하는 컴퓨팅 자원들, (ii) AV의 다양한 다른 동작들 또는 부분들을 제어하기 위한 다른 서브-컴포넌트들 또는 서브-시스템들 및 (iii) 복수의 차량 부분들을 포함한다. 단순화를 위하여, AV의 모든 부분들이 본원에서 논의되는 것은 아니다.In addition to creating and updating the trip entry 151 for the transportation service, the system management section 110 may initiate the execution of the transportation service based at least in part on the service instructions 191. According to some examples, the vehicle control component of the system management unit 110 may control the AV to perform the transportation service. According to an implementation, the vehicle control component may interface with the AV control system or may correspond to the AV control system. As described herein, an AV may be configured to (i) include computing resources implementing system 100 and / or AV control system, (ii) other sub-components for controlling various other operations or portions of AV, or Sub-systems and (iii) a plurality of vehicle portions. For the sake of simplicity, not all parts of AV are discussed herein.

예들에 따르면, AV의 다양한 부분들은 프레임 또는 섀시, 바디(예컨대, 도어들, 범퍼들, 창문들, 조종석, 좌석들, 트렁크 공간 등을 포함함), 타이어들, 서스펜션 시스템, 브레이킹 시스템, 스티어링 시스템, 전기 시스템(예컨대, 배터리들, 와이어들, 케이블들, 알람 서브-시스템 등을 포함함), 송신 시스템(예컨대, 구동렬, 엔진 등을 포함함), 연료 시스템, 배기 시스템, 냉각 시스템 및 AV 제어 시스템을 포함할 수 있으나 이들에 제한되지 않는다. AV는 또한 제어기들 및/또는 마이크로제어기들을 포함하는 전자 제어 유닛(ECU)들, 및 AV의 다양한 시스템들 또는 서브-시스템들을 제어할 수 있는 다른 전자 컴포넌트들, 이를테면 도어 제어 유닛, 엔진 제어 유닛, 속도 제어 유닛, 송신 제어 유닛 등을 포함할 수 있다. AV 제어 시스템은 제어 신호들을 전송하고 다양한 시스템들 및 차량 부분들로부터 데이터(예컨대, 피드백 또는 센서 데이터)를 수신함으로써 AV를 제어하기 위하여 하나 이상의 프로세서들에 의한, 메모리에 저장된 명령들의 실행을 통해 프로그래밍될 수 있다. 이러한 응용을 위하여, AV 제어 시스템은 AV를 제어하도록 명령받을 수 있으며, 따라서 AV은 운송 서비스들과 관련하여 한 위치로부터 다른 위치로 이동하기 위하여 도로들 및 거리들을 안전하게 내비게이팅할 수 있다. In accordance with the examples, various portions of the AV may include a frame or chassis, a body (e.g., doors, bumpers, windows, cockpit, seats, trunk space, etc.), tires, suspension system, braking system, steering system , Electrical systems (e.g., including batteries, wires, cables, alarm sub-systems, etc.), transmission systems But are not limited to, systems. The AV may also include electronic control units (ECUs) including controllers and / or microcontrollers, and other electronic components capable of controlling various systems or sub-systems of the AV, such as a door control unit, an engine control unit, A speed control unit, a transmission control unit, and the like. The AV control system may be programmed via execution of instructions stored in memory by one or more processors to control AV by transmitting control signals and receiving data (e.g., feedback or sensor data) from various systems and vehicle parts . For this application, the AV control system can be commanded to control the AV, and thus the AV can safely navigate the roads and distances to move from one location to another with respect to transportation services.

계속해서 추가로, AV는 다른 객체들에 대한 AV의 위치 또는 좌표 시스템과 관련한 AV의 위치를 결정하기 위하여 위치 결정 모듈 또는 자원들, 이를테면 GPS 수신기 및/또는 무선 트랜시버들을 포함할 수 있다. AV는 또한 AV가 AV의 실시간 환경을 검출하는 것을 가능하게 하기 위하여, 복수의 센서들, 이를테면 카메라들의 세트, 스테레오 카메라들의 세트, 레이더들의 세트, LIDAR 센서들의 세트 등을 포함할 수 있다. 이들 센서들 중 하나 이상(또는 전부)은 AV 주위의 환경, 이를테면 도로들, 빌딩, 다른 차량들 등에 대한 차량의 위치 또는 무생물 객체들의 위치에 대한 정보를 검출하기 위하여 차량의 외부에 (예컨대, 차량의 전방, 후방, 지붕 등에) 배치될 수 있다. 예컨대, AV가 (예컨대, 위치 데이터 포인트(121)로서 GPS 수신기로부터 결정된) 현재 장소 또는 위치로부터 특정 위치(예컨대, 서비스 명령들(191)에 표시된 픽업 위치(193) 및/또는 목적지 위치(194))로 이동하도록 하기 위하여, AV 제어 시스템은 AV가 있는 지역의 저장된 세부 공간 지도(들)(예컨대, 지도 데이터(112)를 포함함)에 액세스하고 특정 위치로 이동할 루트(들)를 결정할 수 있다. (센서들의 세트에 의해 주기적으로 그리고 연속적으로 검출된 데이터로부터) AV 주변에서 검출된 환경에 기반하여, AV 제어 시스템은 AV가 특정 위치로 이동하기 위하여 특정 액션(들)을 취할 것을 명령하는 의사 결정 동작들을 주기적으로 수행할 수 있다. 각각의 의사결정 동작의 결과로서, AV 제어 시스템은 예컨대 AV가 한 시간 인스턴스에서 특정 속도에서 특정 방향으로 이동할 것임을 결정할 수 있으며, 다음 시간 인스턴스에서, AV가 특정 속도로 감속하거나, 방위들/방향들을 약간 변경하거나 또는 차선을 변경하는 것 등을 결정할 수 있다. 따라서, AV 제어 시스템은 다양한 차량 컴포넌트들/시스템들에 제어 신호들을 제공할 수 있다.Still further, the AV may include a location module or resources, such as a GPS receiver and / or wireless transceivers, to determine the location of the AV relative to other objects or the location of the AV relative to the coordinate system. The AV may also include a plurality of sensors, such as a set of cameras, a set of stereo cameras, a set of radars, a set of LIDAR sensors, etc., to enable the AV to detect the real-time environment of the AV. One or more (or all) of these sensors may be located outside the vehicle (e. G., On a vehicle < / RTI > to detect information about the environment around the AV, such as the location of the vehicle relative to roads, Front, rear, roof, etc.). For example, if the AV is located at a particular location (e.g., pickup location 193 and / or destination location 194 displayed in service instructions 191) from a current location or location (e.g., determined from a GPS receiver as location data point 121) The AV control system may access the stored detailed spatial map (s) (e.g., including map data 112) of the area in which the AV is located and determine the root (s) to move to a particular location . Based on the environment detected around the AV (from the data periodically and continuously detected by the set of sensors), the AV control system determines whether the AV decides to take a specific action (s) Operations can be performed periodically. As a result of each decision action, the AV control system may determine, for example, that the AV will move in a particular direction at a particular instant in an hour instance, and at a next instance of time, the AV may decelerate at a certain rate, A slight change, or a change of lane. Thus, the AV control system can provide control signals to various vehicle components / systems.

일례에서, AV가 운송 서비스를 개시하기 위하여 픽업 위치로 이동할 때, 시스템(100)은 AV가 특정 픽업 위치(예컨대, 시작 위치)에 도달하였음을 주기적으로 결정할 수 있다. 다시 말해서, 시스템(100)은 AV가 픽업 위치로부터 미리 결정된 거리에 도달하거나 또는 이 미리 결정된 거리내에 있을 때 (또는 미리 결정된 추정된 이동 시간내에 도달할 때)를 주기적으로 체크할 수 있다. 예컨대, 트립 관리 컴포넌트는 픽업 위치(193)와 현재 위치(예컨대, 위치 결정부(120)에 의해 제공된 가장 최근의 위치 데이터 포인트(121))를 주기적으로 비교하고, AV가 미리 결정된 거리 또는 추정된 이동 시간내에 있는지의 여부를 결정할 수 있다. AV가 미리 결정된 거리 또는 추정된 이동 시간내에 있음을 트립 관리 컴포넌트가 결정할 때, 트립 관리 컴포넌트는 온 루트 상태로부터, 도달한/도달완료한 상태로 시스템(100)의 상태를 변경할 수 있다. 이러한 변경에 대한 상태 정보(111)는 서비스 준비 시스템(190)이 AV에 대한 업데이트된 정보를, 요청하는 사용자의 디바이스에 제공할 수 있도록 서비스 준비 시스템(190)에 송신될 수 있다.In one example, when the AV moves to a pickup position to initiate a transportation service, the system 100 may periodically determine that the AV has reached a particular pickup position (e.g., a starting position). In other words, the system 100 may periodically check when the AV reaches a predetermined distance from the pick-up position or when it is within this predetermined distance (or within a predetermined estimated travel time). For example, the trip management component periodically compares the pickup position 193 with the current position (e.g., the most recent position data point 121 provided by the positioning portion 120) It can be determined whether or not it is within the movement time. When the trip management component determines that the AV is within the predetermined distance or estimated travel time, the trip management component may change the state of the system 100 from the on-route state to the reached / reached state. The status information 111 for this change can be sent to the service preparation system 190 so that the service preparation system 190 can provide updated information about the AV to the requesting user's device.

게다가, 도 1의 예에 따르면, 시스템(100)은 또한 객체(들)가 운송 서비스와 관련하여 차량내에 놓여 있는지의 여부를 결정할 수 있다. 일부 경우들에서, 운전자 또는 AV 제어 시스템은 요청하는 사용자가 운송 동안 차량에 객체(가방, 박스들, 식료품료)를 놓았는지를 결정할 필요가 있거나 또는 객체가 배달 운송 서비스 동안 차량에 놓여있었는지를 결정할 필요가 있다. 본원에 설명된 바와같이, 객체는 차량내에 있거나 또는 차량에 들어가는 사람(들) 또는 물품(들)에 대응할 수 있다. 객체 검출부(130)는 센서 데이터(131)를 수신하기 위하여 하나 이상의 차량 또는 센서 인터페이스들을 통해 AV의 센서들의 하나 이상의 세트들 또는 AV 센서들의 하나 이상의 조합들과 통신할 수 있으며, 센서 데이터(131)에 기반하여, 객체가 AV에 놓여 있었는지(또는 AV로부터 이전되었는지)의 여부를 결정할 수 있다(본원에서는 객체 검출 프로세스 또는 동작으로 지칭됨). 일례에서, 객체 검출부(130)는 센서들로 하여금 센서 데이터(131)를 제공하게 하기 위하여 (또는 센서들로 하여금 센서 데이터(131)를 제공할 것을 트리거하기 위하여) 제어 신호들의 세트를 센서들에 송신할 수 있다. 이러한 센서들은 하나 이상의 객체들의 존재, 위치 및/또는 무게를 검출하기 위하여 차량내에 배치되거나 또는 차량에 제공되는 카메라들의 세트, 계량 디바이스의 세트, 서스펜션 센서들의 세트, 광 검출 및 레인징(LIDAR) 센서들의 세트, 무선-주파수 안테나들 및/또는 트랜시버들의 세트, 및/또는 초음파 센서들의 세트를 포함할 수 있다.Moreover, according to the example of FIG. 1, the system 100 may also determine whether the object (s) are in the vehicle in connection with the transportation service. In some cases, the driver or AV control system determines whether the requesting user needs to determine whether the vehicle has placed an object (bag, boxes, groceries) in the vehicle during transportation, or whether the object was placed in the vehicle during the delivery transportation service You need to decide. As described herein, an object may correspond to the person (s) or article (s) that are in or out of the vehicle. The object detection unit 130 may communicate with one or more sets of AV sensors or one or more combinations of AV sensors via one or more vehicle or sensor interfaces to receive the sensor data 131, (Or referred to herein as an object detection process or action) whether the object has been placed (or migrated from the AV). In one example, the object detection unit 130 may provide a set of control signals to the sensors (e.g., to trigger the sensors to provide the sensor data 131) or to trigger the sensors to provide the sensor data 131 Can be transmitted. Such sensors include a set of cameras disposed in a vehicle or provided to a vehicle to detect the presence, position and / or weight of one or more objects, a set of metering devices, a set of suspension sensors, a light detection and ranging (LIDAR) sensor A set of radio-frequency antennas and / or transceivers, and / or a set of ultrasonic sensors.

일부 예들에서, 객체 검출부(130)는 (i) 하나 이상의 센서들로부터 센서 데이터(131)를 수신하고, (ii) 다른 정보(예컨대, 모델들 또는 사전에 저장된 데이터)를 사용하여, 수신된 센서 데이터(131)를 프로세싱하며, 그리고 (iii) 객체가 AV내에 놓여 있었는지의 여부(객체가 AV에 사전에 있지 않았을 때)를 결정하거나 객체가 AV로부터 이전되었는지의 여부(객체가 AV에 이미 있을 때)를 결정함으로써 객체 검출 프로세스를 수행할 수 있다. 예컨대, 객체 검출부(130)는 (렌즈가 트렁크의 내측을 향한) AV의 트렁크내에 배치된 하나 이상의 카메라들로부터 이미지 정보를 수신할 수 있고, 그리고 이미지 프로세싱 또는 이미지 인지 프로세스들을 사용하고 그리고/또는 트렁크에 대한 사전에 저장된 베이스라인 이미지 정보(예컨대, 트렁크가 비어 있을 때 트렁크의 이미지 또는 서비스 명령들(191)을 수신하기 전에 트렁크의 이미지를 나타냄)와 이미지 정보를 비교함으로써 이미지 정보를 프로세싱할 수 있다. 저장된 베이스라인 이미지 정보는 미리 정의된 이미지일 수 있거나, 또는 AV가 픽업 위치(193)에 도달하기 전 또는 AV가 픽업 위치(193) 근처에 도달하기 전의 시간에 하나 이상의 카메라들에 의해 캡처된 이미지일 수 있다. 계속해서 추가로, 일례에서, 객체 검출부(130)는, 이미지내의 객체의 시각적 특징들에 기반하여 객체가 무엇인지를 식별하기 위하여 이미지 프로세싱(및 서비스 준비 시스템(190)으로부터의 다른 저장되거나 또는 수신된 데이터)을 사용할 수 있다.In some examples, the object detection unit 130 may be configured to detect (i) sensor data 131 from one or more sensors, (ii) use other information (e.g., models or previously stored data) (Iii) whether the object was placed in the AV (when the object was not in the AV), or whether the object has been transferred from the AV The object detection process can be performed. For example, the object detection unit 130 may receive image information from one or more cameras disposed in the trunk of the AV (lens towards the inside of the trunk), and may use image processing or image recognition processes and / (E.g., representing the image of the trunk before receiving the image or service instructions 191 of the trunk when the trunk is empty) with the previously stored baseline image information (e.g., . The stored baseline image information can be a predefined image or an image captured by one or more cameras at a time before the AV reaches the pickup position 193 or before the AV reaches the pickup position 193 Lt; / RTI > Still further, in one example, the object detection unit 130 may be configured to detect image processing (and other stored or received from the service preparation system 190) to identify what the object is based on the visual characteristics of the object in the image Data) can be used.

다른 예들에서, 객체의 존재 또는 위치를 검출하기 위하여 하나 이상의 다른 센서들이 사용될 때, 객체 검출부(130)는 수신된 센서 데이터(131)와 비교하기 위한 기반으로 다른 베이스라인 또는 모델 정보를 사용할 수 있다. 예컨대, 객체 검출부(130)는 AV의 컴파트먼트에 배치된 하나 이상의 계량 디바이스들 또는 센서들로부터 센서 데이터(131)를 수신할 수 있으며, 따라서 AV의 개별 측정 플랫폼은 이러한 컴파트먼트 하부 표면상에 있거나, 하부 표면 아래에 배치되거나 또는 하부 표면에 포함된다. 객체 검출부(130)는 AV가 픽업 위치(193)에 도달하거나 또는 픽업 위치(193) 근처에 도달하기 전 또는 서비스가 시작된 이후의 시간에 센서 데이터(131)로부터 측정들의 변화를 결정할 수 있다. In other instances, when one or more other sensors are used to detect the presence or location of an object, the object detection unit 130 may use different baseline or model information as a basis for comparison with the received sensor data 131 . For example, the object detection unit 130 may receive sensor data 131 from one or more of the metering devices or sensors disposed in the compartment of the AV, and thus the individual measurement platform of the AV may be on such compartment bottom surface On the lower surface, or on the lower surface. The object detection unit 130 may determine a change in measurements from the sensor data 131 at a time before the AV reaches the pickup position 193 or near the pickup position 193 or after the service is started.

구현에 따르면, 객체 검출부(130)는 다양한 시간들에서 객체 검출 프로세스를 수행할 수 있다. 예컨대, 객체 검출부(130)는 AV가 픽업 위치(193)로 이동할 때 그리고/또는 AV가 픽업 위치(193)의 미리 결정된 거리 또는 미리 결정된 추정된 이동 시간내에 있는지의 여부를 트립 관리 컴포넌트가 결정할 때 객체 검출 프로세스를 동시에 수행할 수 있다. 객체 검출부(130)는 센서 데이터(131)를 주기적으로 수신하기 위하여 센서들의 세트에 대해 콜들을 수행할 수 있다. 다른 예에서, 객체 검출부(130)는 (트리거(115)를 통해) 시스템 관리부(110)에 의해 명령 또는 트리거될 때 다양한 인스턴스들에서 객체 검출 프로세스를 수행할 수 있다. 예컨대, AV가 픽업 위치(193)의 미리 결정된 거리 또는 미리 결정된 추정 이동 시간내에 있음을 트립 관리 컴포넌트가 결정할 때, 트립 관리 컴포넌트는 객체 검출부(130)로 하여금 객체 검출 프로세스를 수행하게 하기 위하여 트리거(115)를 송신할 수 있다. 계속해서 추가로, 다른 변형예로서, 트립 관리 컴포넌트는 AV가 미리 결정된 시간 기간 동안 정지해 있다고 결정할 때 및/또는 AV가 픽업 위치(193)의 미리 결정된 거리 또는 미리 결정된 추정 이동 시간내에 있는 동안 AV가 미리 결정된 시간 기간 동안 정지해 있다고 결정할 때 트리거(115)를 송신할 수 있다. 다른 예로서, 객체 검출부(130)는 운송 서비스가 시작되었음을 트립 관리 컴포넌트가 결정할 때 객체 검출 프로세스를 수행하도록 트리거될 수 있다. 객체 검출부(130)로 하여금 선택 시간들에서 객체 검출 프로세스를 수행하게 함으로써, 시스템(100)은 센서(들)로 하여금 (중간 상태 또는 슬립 상태로부터) 웨이크 업(wake up)하게 함으로써 에너지 및 컴퓨팅 자원들의 과도한 소비를 감소시키고 필요할 때만 측정을 검출 또는 수행할 수 있다.According to the implementation, the object detection unit 130 can perform the object detection process at various times. For example, the object detection unit 130 may determine when the trip management component determines whether the AV moves to the pickup position 193 and / or whether AV is within a predetermined distance or a predetermined estimated travel time of the pickup position 193 The object detection process can be performed simultaneously. The object detection unit 130 may perform calls to the set of sensors to periodically receive the sensor data 131. In another example, the object detection unit 130 may perform an object detection process at various instances when commanded or triggered by the system management unit 110 (via the trigger 115). For example, when the trip management component determines that the AV is within a predetermined distance or a predetermined estimated travel time of the pick-up position 193, the trip management component may cause the object detection unit 130 to trigger (e.g., 115). Still further, in another variation, the trip management component determines that the AV is stationary for a predetermined period of time and / or when the AV is within a predetermined distance or predetermined estimated travel time of the pickup position 193, The trigger 115 may be transmitted when it is determined that it is stationary for a predetermined period of time. As another example, the object detection unit 130 may be triggered to perform the object detection process when the trip management component determines that the transportation service has been started. The system 100 may cause the sensor (s) to wake up (from an intermediate state or a sleep state) by causing the object detection unit 130 to perform an object detection process at selected times, Lt; RTI ID = 0.0 > and / or < / RTI > only when necessary.

만일 객체 검출부(130)가 객체의 위치를 검출하거나, 또는 센서 데이터(131)의 제1 세트에 기반하여 객체가 차량내에 놓여 있음을 객체 검출부(130)가 검출하면, 객체 검출부(130)는 객체 정보(131)를 시스템 관리부(110)에 제공할 수 있다. 객체 정보(133)는 객체가 AV내에 놓여 있음을 시스템 관리부(110)에 표시할 수 있으며(예컨대, 메시지 또는 2진 비트가 토글될 수 있으며) 그리고/또는 검출을 수행하기 위하여 AV에 의해 사용되는 센서(들)의 타입들에 기반하여 그 객체 대한 정보를 포함할 수 있다. 예컨대, 추가 정보는 (i) 객체가 무엇인지 (예컨대, 박스, 가방, 스케이트보드 등), (ii) 카메라들이 사용되는 경우 카메라들의 세트에 의해 캡처된 객체의 하나 이상의 이미지들, (iii) 객체와 관련된 측정치들(예컨대, 계량 디바이스들 또는 서스펜션 센서들이 사용되는 경우 무게, 카메라들, LIDAR 센서들 또는 초음파 센서들이 사용되는 경우 객체의 치수들 등) 및/또는 (iv) 객체가 있는 위치(예컨대, 객체의 어떤 컴파트먼트 또는 위치)를 포함할 수 있다. 트립 관리 컴포넌트는 운송 서비스와 연관된 트립 엔트리(151)와 객체 정보(133)의 일부 또는 전부를 저장할 수 있으며, 따라서 객체에 대한 정보는 로깅되고 특정 사용자와 연관될 수 있다.If the object detection unit 130 detects the position of the object or if the object detection unit 130 detects that the object lies in the vehicle based on the first set of the sensor data 131, Information 131 to the system management unit 110. [ The object information 133 may indicate to the system manager 110 that an object is in the AV (e.g., the message or binary bit may be toggled) and / or used by the AV to perform detection And may include information about the object based on the types of sensor (s). For example, the additional information may include (i) what the object is (e.g., box, bag, skateboard, etc.), (ii) one or more images of the object captured by the set of cameras if cameras are used, (E.g., the dimensions of the object when weighing devices or suspension sensors are used, such as weight, cameras, LIDAR sensors or ultrasonic sensors), and / or (iv) , Any compartment or location of the object). The trip management component may store some or all of the trip entries 151 and object information 133 associated with the transportation service so that information about the objects may be logged and associated with a particular user.

설명된 바와같이, 객체 검출부(130)가 객체를 검출하는 것과 동시에 (또는 검출전에 또는 검출 이후에), 트립 관리 컴포넌트는 운송 서비스가 시작되었음을 결정할 수 있다. 일부 예들에서, 시스템 관리부(110)는 객체가 차량내에 놓여 있음을 검출하는 것에 적어도 부분적으로 기반하여, 운송 서비스가 시작되었음을 결정할 수 있다. 운송 서비스는 사람(및/또는 사람의 물건들)을 한 위치로부터 다른 위치로 운송하거나 또는 배달용 객체를 한 위치로부터 다른 위치로 운송하는 것에 대응할 수 있다. 객체 검출부(130)는 카메라 또는 계량 디바이스들과 같은 하나 이상의 센서들로부터, 사람 및/또는 객체들이 차량내로 들어갔는지 또는 (사람 없이) 객체만 차량에 놓여 있는지를 검출할 수 있다. 이러한 예에서, 카메라(들)로부터의 이미지 정보를 사용하고 이미지(들)를 처리하여 사람이 차량내에 들어갔음을 객체 검출부(130)가 검출할 수 있게 하기 위하여, 카메라들(또는 LIDAR 센서들 또는 초음파 센서들)의 세트는 차량의 운전석/실내 내측에 배치될 수 있다. 부가적으로 또는 대안적으로, AV의 서스펜션 시스템 근처에 배치되거나 또는 이 시스템에 포함되는 계량 디바이스들의 세트 또는 서스펜션 센서들의 세트는 질량의 양이 차량에 추가되었음을 결정할 수 있다. As described, the trip management component may determine that the transportation service has been started at the same time (or before or after detection) that the object detection section 130 has detected the object. In some instances, the system management unit 110 may determine that the transportation service has been started, based at least in part upon detecting that the object is in the vehicle. A transportation service may correspond to transporting a person (and / or a person's things) from one location to another location, or from a location to another location. The object detection unit 130 can detect whether a person and / or objects have entered a vehicle or only an object (without a person) is located in the vehicle, from one or more sensors, such as cameras or metering devices. In this example, the cameras (or LIDAR sensors or sensors) are used to detect the object detection unit 130 to use the image information from the camera (s) and process the image (s) Ultrasonic sensors) may be disposed inside the cab / interior of the vehicle. Additionally or alternatively, a set of metering devices or a set of suspension sensors disposed adjacent to or included in the suspension system of the AV may determine that an amount of mass has been added to the vehicle.

일단 운송 서비스가 시작되었다면, 트립 관리 컴포넌트는 운송 서비스의 시작 시간 및 시작 위치를 비롯하여 운송 서비스의 수행에 대한 정보(예컨대, AV의 이동 시간 및/또는 이동 위치)를 트립 엔트리(151)에 저장할 수 있다. AV가 운송 서비스의 목적지 위치(194)로 이동할 때, 트립 관리 컴포넌트는 또한 위치 데이터 포인트들(121)을 사용하여 (적어도 부분적으로, 운송 서비스가 완료되었음을 결정하기 위하여) AV가 목적지 위치(194)에 접근하여 목적지 위치(194)에 도달하였음을 결정할 수 있다. Once the transportation service has been started, the trip management component can store in the trip entry 151 information about the performance of the transportation service (e.g., the travel time and / or the moving location of the AV), including the start time and start location of the transportation service have. When the AV moves to the destination location 194 of the transport service, the trip management component also uses the location data points 121 to determine whether the AV is in the destination location 194 (at least in part to determine that the transport service is complete) To arrive at the destination location 194.

일례에서, 목적지 검출부(130)가 운송 서비스와 관련하여 객체를 사전에 검출한 경우들(예컨대, 승객이 AV의 트렁크에 가방을 놓은 경우)에서, 트립 관리 컴포넌트는 객체가 차량으로부터 이전되었는지의 여부를 객체 검출부(130)가 또한 검출하게 할 수 있다. 객체 검출부(130)는 변화들에 따라 상이한 시간들에서 객체가 차량으로부터 이전되었는지의 여부를 검출할 수 있다. 일례에 따르면, 시스템 관리부(110)는 AV가 (예컨대, 주기적으로) 목적지 위치(194)로 이동할 때 객체 검출부(130)가 객체 검출 프로세스를 동시에 수행하게 할 수 있거나 또는 AV가 목적지 위치(194)의 미리 결정된 거리 또는 미리 결정된 추정 이동 시간내에 있음을 트립 관리 컴포넌트가 결정할 때 객체 검출 프로세스를 수행할 수 있다. 부가적으로 또는 대안적으로, 트립 관리 컴포넌트는, AV가 미리 결정된 시간 지속기간동안 정지해 있음을 트립 관리 컴포넌트가 결정할 때, AV가 목적지 위치(194)의 미리 결정된 거리 또는 미리 결정된 추정 이동 시간내에 있는 동안 AV가 미리 결정된 시간 지속기간 동안 정지해 있음을 트립 관리 컴포넌트가 결정할 때 또는 운송 서비스가 완료되었다는 결정에 대한 응답으로, 객체 검출부(130)가 객체 검출 프로세스를 수행하게 할 수 있다.In one example, in cases where the destination detection unit 130 has previously detected an object in connection with the transportation service (e.g., when the passenger placed the bag in the trunk of the AV), the trip management component determines whether the object has been transferred from the vehicle The object detection unit 130 can also detect the object. The object detection unit 130 can detect whether the object has been transferred from the vehicle at different times according to the changes. According to one example, the system management unit 110 may cause the object detection unit 130 to perform the object detection process at the same time when the AV moves to the destination position 194 (e.g., periodically) When the trip management component determines that it is within a predetermined distance or a predetermined estimated movement time of the object. Additionally or alternatively, when the trip management component determines that the AV is stationary for a predetermined time duration, the trip management component determines whether the AV is within a predetermined distance of the destination location 194 or within a predetermined estimated travel time The object detection unit 130 may cause the object detection unit 130 to perform the object detection process when the trip management component determines that the AV is stopped for a predetermined period of time while it is in operation or in response to the determination that the transportation service is completed.

운송 서비스가 완료되었다는 것을 트립 관리 컴포넌트가 결정할 때, 예컨대 객체 검출부(130)는 센서들의 세트로부터 수신된 센서 데이터(131)(예컨대, 센서 데이터(131)의 제2 세트)를 사용하여 객체가 이전되었는지를 결정하기 위하여 객체 검출 프로세스를 수행할 수 있다. 만일 객체가 아직 존재한다고 객체 검출부(130)가 검출하면, 객체 검출부(130)는 객체가 차량내에 아직 존재한다는 것을 표시하는 정보를 시스템 관리부(110)에 제공할 수 있다. 이에 대한 응답으로, 시스템 관리부(110)는 교정 액션을 자동적으로 수행할 수 있다. 다른 한편으로, 만일 객체가 이전되었다는 것을 객체 검출부(130)가 검출하면, 교정 프로세스 또는 액션이 취해지지 않는다. 일 변형예에서, 만일 객체가 (예컨대, 배달 운송 서비스의 경우에) 이전되었다는 것을 시스템(100)이 검출하면, 시스템(100)은 배달 운송 서비스가 완료되었음을 결정할 수 있다.When the trip management component determines that the transportation service has been completed, for example, the object detection unit 130 may use the sensor data 131 (e.g., the second set of sensor data 131) received from the set of sensors Lt; RTI ID = 0.0 > a < / RTI > object detection process. If the object detection unit 130 detects that the object still exists, the object detection unit 130 may provide the system management unit 110 with information indicating that the object still exists in the vehicle. In response to this, the system management unit 110 can automatically perform the calibration action. On the other hand, if the object detection unit 130 detects that the object has been transferred, no calibration process or action is taken. In one variation, if the system 100 detects that an object has been transferred (e.g., in the case of a delivery transport service), the system 100 may determine that the delivery transport service is complete.

본원에서 설명된 바와같이, 교정 액션은 사용자가 뜻하지 않게 어떤 객체를 남겨 놓았든지 간에 되돌아가거나 또는 사용자가 객체를 되찾는 것을 쉽게 하기 위해 시스템(100)이 수행하는 동작들(또는 동작들의 세트)에 대응할 수 있다. 다양한 구현들에서, 교정 액션(들)은 시스템(100)에 의해 수행될 수 있으며 그리고/또는 서비스 준비 시스템(190)과 관련하여 시스템(100)에 의해 수행될 수 있다. 후자의 예에서, 교정 액션(들)은 시스템(100)과 서비스 준비 시스템(190) 사이에서의 데이터 교환의 결과로서 수행될 수 있다.As described herein, a calibration action may be performed on behaviors (or sets of actions) performed by the system 100 to facilitate returning, regardless of whether the user has accidentally left an object, Can respond. In various implementations, the calibration action (s) may be performed by the system 100 and / or performed by the system 100 in conjunction with the service preparation system 190. In the latter example, the calibration action (s) may be performed as a result of data exchange between the system 100 and the service preparation system 190.

일례에서, 시스템 관리부(110)는 객체가 아직 차량내에 남아 있다는 정보 및/또는 객체 그 자체에 대한 정보를 (예컨대, 객체에 대한 최근 결정된 정보에 기반하여 또는 객체가 사전에 검출되었을 때 사전에 수신된 객체 정보(133)로부터) 수신할 수 있으며, 이러한 정보에 기반하여 객체 메시지(117)를 생성할 수 있다. 객체 메시지(117)는 예컨대 운송 서비스가 완료되었을 때의 시간 및/또는 위치, AV의 식별자, 사용자의 식별자, 운송 서비스의 식별자, 및 객체 대한 정보(예컨대, 객체가 무엇인지, 객체의 하나 이상의 이미지들, 객체와 관련한 측정치들, 객체가 있는 위치)를 포함할 수 있다. 시스템 관리부(110)는 사용자에 대한 통신 식별자(예컨대, 사용자의 전화 번호 또는 이메일 주소 또는 사용자의 계정과 임시로 연관된 통신 식별자)를 결정하고, 객체 메시지(117)를 사용자의 컴퓨팅 디바이스에 송신할 수 있다. 이러한 객체 메시지(117)는 또한 객체가 AV에 남겨져 있음을 사용자에게 알리기 위한 콘텐츠를 사용자의 컴퓨팅 디바이스가 디스플레이하게 하고 그리고/또는 (예컨대, 사용자의 컴퓨팅 디바이스상에서 작동하는 지정된 애플리케이션을 통해) 서비스 준비 시스템(190)을 제공하는 엔티티와 연락하기 위한 통지 정보를 포함할 수 있다. 부가적으로 또는 대안적으로, 객체 메시지(117)는 서비스 준비 시스템(190)에 송신될 수 있으며, 서비스 준비 시스템(190)은 통지 정보를 포함하는 메시지를 사용자의 컴퓨팅 디바이스에 송신할 수 있다. 사용자에게 디스플레이되는 통지 정보는 객체에 대한 정보 및/또는 사용자가 객체를 되찾을 수 있는 방법에 대한 정보를 제공할 수 있다. 상이한 통지 정보의 예들은 도 4a 내지 도 4d에 예시된다.In one example, the system management unit 110 may receive information that an object is still in the vehicle and / or information about the object itself (e.g., based on recently determined information about the object, or in advance (From object information 133), and may generate an object message 117 based on this information. The object message 117 may include, for example, the time and / or location at which the transport service was completed, the identifier of the AV, the identifier of the user, the identifier of the transport service, and information about the object (e.g., The measurements associated with the object, the location at which the object is located). The system manager 110 may determine the communication identifier for the user (e.g., the user's telephone number or e-mail address or a communication identifier temporarily associated with the user's account) and send the object message 117 to the user's computing device have. This object message 117 may also cause the user's computing device to display content for informing the user that the object is left in the AV and / or display the service provisioning system (e.g., via a designated application operating on the user's computing device) Lt; RTI ID = 0.0 > 190 < / RTI > Additionally or alternatively, the object message 117 may be sent to the service provisioning system 190 and the service provisioning system 190 may send a message containing the notification information to the user's computing device. The notification information displayed to the user may provide information about the object and / or how the user can retrieve the object. Examples of different notification information are illustrated in Figures 4A-4D.

부가적으로 또는 대안적으로, 시스템 관리부(110)는 또한 특정 위치에 AV를 배치함으로써 (예컨대, AV가 특정 위치로 이동하게 하거나 또는 특정 위치에 정지해 있도록 함으로써) 하나 이상의 교정 액션들을 수행할 수 있다. 예컨대, 교정 액션이 수행될 때, 시스템 관리부(110)는 (i) 목적지 위치(194)에서 또는 (ii) 객체가 차량에 아직 존재한다고 객체 검출부(130)가 결정하였을 때의 차량의 위치에서 AV가 정지해 있을 것을 차량 컴포넌트들을 통해 제어하도록 차량 제어 컴포넌트에 명령하는 저장된 위치결정 명령들에 액세스할 수 있다. AV가 특정 위치에서 정지상태를 유지하게 함으로써, 객체 메시지(117)는 사용자의 객체가 AV에 남겨져 있음을 그리고 AV가 미리 결정된 시간 지속기간(예컨대, 2분) 동안 특정 위치에 계속 머무를 것이라는 것을 사용자에게 알릴 수 있다. 대안적으로, 저장된 위치결정 명령들은 AV가 특정 위치(예컨대, 분실된 객체가 보관되어 있는 보관 위치) 또는 사무실 빌딩으로 이동하게 하도록 차량 제어 컴포넌트에 명령할 수 있으며, 객체 메시지(117)는 특정 시간들 동안 특정 위치에서 객체를 되찾을 수 있다는 것을 사용자에게 알릴 수 있다. Additionally or alternatively, the system manager 110 may also perform one or more calibration actions (e. G., By allowing the AV to move to a particular location or to stop at a particular location) by placing the AV at a particular location have. For example, when the calibration action is performed, the system management unit 110 determines whether the object detection unit 130 determines that the object exists in the vehicle (i) at the destination position 194 or (ii) May access stored stored positioning commands that instruct the vehicle control component to control through the vehicle components that the vehicle is stationary. By allowing the AV to remain stationary at a particular location, the object message 117 indicates that the user's object is left in the AV and that the AV will stay in a particular location for a predetermined time duration (e.g., 2 minutes) . Alternatively, the stored location commands may instruct the vehicle control component to cause the AV to move to a particular location (e.g., a storage location where the lost object is stored) or an office building, It is possible to inform the user that the object can be retrieved at a specific location during the time period.

AV가 특정 위치, 이를테면 보관 위치 또는 처분 위치로 이동하는 일부 예들에서, 보관 또는 처분을 위해 객체를 AV로부터 이전시키기 위하여, AV는 자동-제어 액추에이터들을 사용할 수 있다. 예컨대, AV 그 자체는 객체를 잡고 객체를 이전시킬 수 있는, 차량의 실내 또는 트렁크의 하나 이상의 기계 손들에 커플링된 하나 이상의 액추에이터들을 포함할 수 있다. 다른 예에서, AV는 보관 또는 처분 위치의 특정 차선 또는 장소로 이동하여 차량 문 및/또는 트렁크를 열수 있으며, 자동-제어 기계 팔 및 손 또는 집게발은 차량으로부터 객체를 이전시킬 수 있다.In some instances where the AV moves to a particular location, such as a storage location or a disposal location, the AV may use auto-control actuators to transfer the object from the AV for storage or disposal. For example, the AV itself may include one or more actuators coupled to one or more machine hands of the vehicle's interior or trunk, which can hold the object and relocate the object. In another example, the AV can be moved to a particular lane or place in the storage or disposal location to open the vehicle door and / or trunk, and the auto-controlled machine arm and hand or nib can transfer objects from the vehicle.

계속해서 추가로, 다른 예에서, 시스템 관리부(110)는 객체가 남겨져 있다는 것을 표시하는 정보를 서비스 준비 시스템(190)에 제공할 수 있으며, 이에 응답하여, 서비스 준비 시스템(190)은 AV가 하나 이상의 작업들을 수행하게 하는 명령들을 시스템(100)에 송신할 수 있다. 일 구현에서, 서비스 준비 시스템(190)은 차량 제어 컴포넌트가 AV의 이동 및 동작을 제어하게 하는 차량 명령들을 시스템 관리부(110)에 송신할 수 있다. 차량 명령들은 AV가 특정 위치로 이동하게 하거나 또는 특정 위치에 정지해 있게 할 수 있다.Still further, in another example, the system management unit 110 may provide information to the service preparation system 190 indicating that the object is left, and in response, the service preparation system 190 may determine that the AV is one And send commands to the system 100 to perform the above tasks. In one implementation, the service preparation system 190 may send vehicle commands to the system manager 110 that cause the vehicle control component to control the movement and operation of the AV. Vehicle commands may cause the AV to move to a specific location or to be stationary at a particular location.

일부 경우들에서, 목적지 위치(194)에서 사용자를 내린 후, AV는 운송 서비스를 다른 요청 사용자에게 제공하도록 준비/선택될 수 있다. 결과적으로, 시스템(100)은 객체 메시지(117)를 송신하는 것과 같은 교정 액션을 수행할 수 있으나, 또한 AV가 후속하여 요청하는 사용자에 의해 특정된 픽업 위치로 이동하게 할 수 있다. 일부 예들에서, 서비스 준비 시스템(190)(또는 시스템(100))은 (i) 객체의 처분을 명령하거나, (ii) 일정 시간 지속기간 동안 사용자 대신에 객체를 맡도록 서비스 준비 시스템(190)을 동작시키는 엔티티에 요청하거나, (iii) 객체가 유지되는 특정 위치로 운송 서비스를 요청하거나 또는 (iv) 사용자의 현재 위치(또는 특정 위치)로의 객체의 배달을 요청하기 위해 응답 입력으로 사용자에게 질의하는 메시지를 사용자의 컴퓨팅 디바이스에 송신할 수 있다. 이들 옵션들 중 하나 이상은 사용자에 대한 추가 비용과 연관될 수 있다. 서비스 준비 시스템(190)은 사용자의 컴퓨팅 디바이스상의 애플리케이션을 통해 사용자 입력을 수신할 수 있고, 이에 따라 응답을 프로세싱할 수 있다. 예컨대, 만일 사용자가 사용자의 현재 위치에서 객체의 배달을 수신하기 위한 입력을 제공하면, 서비스 준비 시스템(190)은 배달 운송 서비스 요청으로서 응답을 프로세싱하고, 객체가 위치한 이전 AV를 식별하며, 그리고 (예컨대, 후속하여 요청하는 사용자에 대한 후속 운송 서비스를 완료하기 전에, 또는 완료 동안에 또는 완료 이후에) 사용자의 현재 위치로 이동하도록 그 특정 AV를 스케줄링할 수 있다. 이러한 예에서, 사용자는 별개의 운송 서비스 전체로서 또는 사용자의 이전 운송 서비스의 일부분으로서의 배달을 위하여 (예컨대, 추가 요금으로) 과금될 수 있다.In some cases, after dropping the user at destination location 194, the AV may be prepared / selected to provide the transport service to other requesting users. As a result, the system 100 can perform a corrective action, such as sending an object message 117, but can also cause the AV to move to a pick-up position specified by the requesting user. In some instances, the service provisioning system 190 (or system 100) may be configured to (i) command the disposition of an object, or (ii) provide service provisioning system 190 (Iii) request a transportation service to a specific location where the object is maintained, or (iv) query the user with a response input to request delivery of the object to the user's current location Message to the user ' s computing device. One or more of these options may be associated with additional costs for the user. The service provisioning system 190 may receive user input via an application on the user's computing device and may process the response accordingly. For example, if the user provides an input to receive the delivery of the object at the user's current location, the service preparation system 190 processes the response as a delivery transport service request, identifies the previous AV where the object is located, and For example, it may schedule the particular AV to move to the user's current location before completing the subsequent shipping service for the subsequently requesting user, or during or after completion. In this example, the user may be billed for a separate shipping service as a whole or for delivery as part of the user's previous shipping service (e.g., at an additional charge).

도 1의 시스템(100)이 자율 차량의 컴퓨팅 및 메모리 자원들에 대해 구현되는 것으로 설명되는 반면에, 일부 예들에서는 시스템(100)이 차량의 운전자에 의해 동작되는 모바일 컴퓨팅 디바이스(예컨대, 운전자 디바이스)에 대해 구현될 수 있다. 예컨대, 시스템(100)은 운전자 디바이스상에서 작동하거나 또는 하나 이상의 네트워크들을 통해 서비스 준비 시스템(190)과 데이터를 통신하는 애플리케이션 또는 프로그램으로서 (또는 애플리케이션의 일부분으로서) 구현될 수 있다. 이러한 예들에서, 시스템(100)은 콘텐츠(예컨대, 그래픽 사용자 인터페이스들)를 생성하여 운전자 디바이스의 디스플레이상에 제시하는 사용자 인터페이스 컴포넌트와 같은 다른 컴포넌트들을 포함할 수 있다. 요청 사용자에게 운송 서비스를 제공하기 위하여 서비스 준비 시스템(190)에 의해 운전자가 선택될 때, 서비스 명령들(191)을 수신하는 것과 대조적으로, 시스템(100)은 사용자 인터페이스 컴포넌트를 통해 운송 서비스를 제공하기 위한 초대를 수신하여 디스플레이할 수 있으며, 운전자는 초대를 수락 또는 거절할 수 있다. 초대는 사용자 정보(192), 픽업 위치(193) 및/또는 목적지 위치(194)를 포함할 수 있다.While system 100 of FIG. 1 is described as being implemented for computing and memory resources of an autonomous vehicle, in some instances system 100 is a mobile computing device (e.g., a driver device) operated by a driver of a vehicle, / RTI > For example, the system 100 may be implemented as an application or program (or as part of an application) that operates on an operator device or communicates data with the service provisioning system 190 via one or more networks. In these instances, the system 100 may include other components, such as user interface components, that create content (e.g., graphical user interfaces) and present it on the display of the driver device. In contrast to receiving service commands 191 when a driver is selected by the service preparation system 190 to provide transportation services to the requesting user, the system 100 provides transportation services through user interface components And the driver can accept or decline the invitation. The invitation may include user information 192, a pickup location 193, and / or a destination location 194.

계속해서 추가로, 시스템(100)이 운전자 디바이스에 의해 구현되는 예들에서, 객체 검출부(130)는 단거리 무선 통신 트랜시버(예컨대, 블루투스 또는 Wi-Fi) 또는 물리적 커넥터 포트와 같은, 운전자 디바이스의 통신 인터페이스를 통해 센서 데이터(131)를 수신할 수 있다. 운전자는 통신 인터페이스를 통해 객체 검출부(130)에 센서 데이터(131)를 통신할 수 있는 하나 이상의 센서들을 차량의 트렁크 또는 뒷좌석 등에 고정 또는 부착할 수 있다.Still further, in the examples in which the system 100 is implemented by an operator device, the object detection unit 130 may be a communication interface of a driver device, such as a short-range wireless communication transceiver (e.g., Bluetooth or Wi-Fi) Lt; RTI ID = 0.0 > 131 < / RTI > The driver can fix or attach one or more sensors, such as the trunk or back seat of the vehicle, that can communicate the sensor data 131 to the object detection unit 130 via the communication interface.

대안적으로, 시스템(100)의 하나 이상의 컴포넌트들은 서비스 준비 시스템(190)의 일부분으로서 또는 서비스 준비 시스템(190)과 통신하는 (예컨대, 자율 차량 또는 운전자 디바이스로부터 원격에 있는) 다른 원격 시스템의 일부분으로서 구현될 수 있다. 예컨대, 시스템(100)은 서비스 준비 시스템(190)에서 구현되는 검출 검출부(130)에 센서 데이터(131)를 송신할 수 있으며, 객체 검출부(130)는 이후 객체가 차량내에 놓이고 그리고/또는 차량 밖으로 이동되었을 때를 검출한다. 이후, 서비스 준비 시스템(190)은 검출에 기반하여 사용자에게 통지들을 송신하는 것과 같은 교정 액션들을 수행할 수 있다.Alternatively, one or more components of the system 100 may be used as part of the service provisioning system 190 or as part of another remote system (e.g., remote from an autonomous vehicle or an operator device) in communication with the service provisioning system 190 Lt; / RTI > For example, the system 100 may send the sensor data 131 to the detection detector 130 implemented in the service preparation system 190, and the object detector 130 may then determine that the object is within the vehicle and / And detects when it has moved out. The service preparation system 190 may then perform calibration actions, such as sending notifications to the user based on detection.

계속해서 추가로, 일부 예들에서, 다른 센서들은 객체의 존재 및/또는 차량으로부터 객체의 이전을 검출하기 위해 시스템(100)에 의해 사용될 수 있다. 예컨대, 전자기 센서들은 전자 제품들, 이를테면 셀 폰들, 태블릿들, 랩탑 컴퓨터들 등을 검출하기 위하여 사용될 수 있거나 또는 다른 진보된 센서들, 이를테면 화학센서들 또는 가스 크로마토그래피 센서들은 냄새(예컨대, 음식, 식료 잡화류 등)를 사용하여 객체들을 검출하기 위하여 사용될 수 있다. 일례에서, 전자기 센서들 또는 안테나들/무선 트랜시버들을 사용하면, 차량에서 검출하기 어려울 수 있는, 예컨대 좌석들 사이로 또는 좌석 아래로 떨어지거나 또는 미끄러져 떨어져 있을 수 있는 작은 전자 디바이스들을 검출하는데 도움을 줄 수 있다.Still further, in some instances, other sensors may be used by the system 100 to detect the presence of an object and / or the transfer of an object from a vehicle. For example, electromagnetic sensors can be used to detect electronics, such as cell phones, tablets, laptop computers, or other advanced sensors, such as chemical sensors or gas chromatography sensors, Food items, etc.) to detect objects. In one example, the use of electromagnetic sensors or antennas / wireless transceivers may help to detect small electronic devices that may be difficult to detect in a vehicle, such as falling between seats or under a seat or slipping away .

상이한 애플리케이션에서, 시스템(100)은 또한 요청하는 사용자가 차량에 타거나 또는 사용자의 객체를 운송한 결과로서, 차량의 실내에 손상이 있었는지의 여부를 검출하기 위하여 센서 데이터를 사용할 수 있다. 시스템(100)은, 차량의 실내에 배치되는 센서들을 사용하여, 운송 서비스가 개시되기 전의 시간에 (예컨대, 사용자의 픽업 위치로부터 떨어진 미리 결정된 거리 또는 추정된 시간에 또는 서비스 명령들이 수신될 때에 응답하여) 차량의 실내의 상태를 검출할 수 있다. 운송 서비스가 완료되고 있는 시간에 (예컨대, 차량이 목적지 위치 근처에 있거나 또는 목적지 위치에 도달한 시간에) 또는 완료된 시간에, 시스템(100)은 이 시간에 차량의 실내의 상태를 다시 검출하여 차량의 실내의 상태에 대한 이전 정보와 이 정보를 비교할 수 있다. 이러한 비교를 사용하여, 시스템(100)은, 운송 서비스 이후에, 어떤 것이 좌석들 또는 바닥에 떨어졌는지의 여부, 좌석이 찢어졌는지 또는 긁혔는지의 여부 등을 검출할 수 있다. 만일 손상이 검출되면, 시스템(100)은 서비스 준비 시스템(190) 및/또는 사용자 디바이스에 대한 손상을 표시하는 정보를 제공할 수 있다. 서비스 준비 시스템(190)은 청소 및/또는 수리에 대해 사용자에게 과금하고, 그리고/또는 청소 및/또는 수리를 위해 차량을 특정 위치로 이동하도록 운전자에게 명령하거나 또는 차량이 특정 위치로 이동하게 할 수 있다.In a different application, the system 100 may also use sensor data to detect whether there has been damage to the interior of the vehicle as a result of the requesting user riding the vehicle or carrying the user's object. The system 100 may use sensors located in the interior of the vehicle to determine whether a response is received at a time before the transport service is initiated (e.g., at a predetermined distance or estimated time away from the user ' s pick- To detect the indoor state of the vehicle. At a time when the transportation service is being completed (e.g., when the vehicle is near the destination location or when it reaches the destination location) or at the time it is completed, the system 100 again detects the state of the interior of the vehicle at this time, This information can be compared with previous information on the indoor condition of the room. Using these comparisons, the system 100 may, after the transportation service, detect whether something has fallen into the seats or floor, whether the seats have been torn or scratched, and so on. If a corruption is detected, the system 100 may provide information indicative of a corruption to the service provisioning system 190 and / or the user device. The service preparation system 190 may charge the user for cleaning and / or repair, and / or may instruct the driver to move the vehicle to a specific location for cleaning and / or repairing, or may cause the vehicle to move to a particular location have.

방법Way

도 2 및 도 3은 운송 서비스와 관련하여 차량내의 객체들을 검출하기 위한 예시적인 방법을 예시한다. 도 2 및 도 3의 예들에 의해 설명된 방법들과 같은 방법들은 예컨대 도 1의 예와 함께 설명된 컴포넌트들을 사용하여 구현될 수 있다. 따라서, 도 1의 엘리먼트들과 관련한 참조들은 설명되고 있는 단계 또는 부단계를 수행하기에 적합한 엘리먼트 또는 컴포넌트를 예시하기 위한 것이다. 단순화를 위하여, 도 2의 예시적인 방법은 운전자 디바이스 상에서 동작하는 시스템(100) 및/또는 서비스 준비 시스템(190)에 의해 수행되는 것으로 설명된다.Figures 2 and 3 illustrate an exemplary method for detecting objects in a vehicle in connection with a transportation service. Methods such as those described by the examples of FIGS. 2 and 3 may be implemented, for example, using the components described in conjunction with the example of FIG. Accordingly, references to elements of FIG. 1 are intended to illustrate the elements or components suitable for carrying out the steps or sub-steps being described. For simplicity, the exemplary method of FIG. 2 is described as being performed by system 100 and / or service preparation system 190 operating on a driver device.

도 2를 참조하면, 서비스 준비 시스템(190)은 요청하는 사용자에게 서비스를 제공하기 위해 AV 또는 차량의 운전자가 선택되었음을 결정할 수 있다(200). 예컨대, 서비스 준비 시스템(190)은 요청하는 사용자에 의해 특정된 서비스 위치(들) 및 차량의 위치에 기반하여 차량을 선택하기 위한 차량 선택 프로세스를 수행할 수 있다. 서비스는 픽업 위치로부터 목적지 위치까지의 객체 또는 물품 배달 운송 서비스 또는 픽업 위치로부터 목적지 위치까지의 사람(예컨대, 사용자)의 운송 서비스에 대응할 수 있다. 서비스 준비 시스템(190)은 운전자 또는 AV가 수행할 서비스에 대응하는 서비스 명령들을 선택된 차량의 개별 시스템(100)에 송신할 수 있다. AV의 예에서, 시스템(100)은 현재 위치로부터 픽업 위치로 이동시키도록 AV를 제어하기 위하여 서비스 명령들을 프로세싱할 수 있는 반면에, 인간 운전자의 예에서는 시스템(100)이 픽업 위치로 이동하기 위하여 운전자가 따를 수 있는 루트 또는 내비게이션 정보를 제공할 수 있다.Referring to FIG. 2, the service preparation system 190 may determine 200 that an AV or vehicle driver has been selected to provide service to the requesting user. For example, the service preparation system 190 may perform a vehicle selection process for selecting a vehicle based on the location of the vehicle and the service location (s) specified by the requesting user. The service may correspond to an object from a pick-up location to a destination location or a goods delivery transport service or a transportation service of a person (e.g., a user) from a pick-up location to a destination location. The service preparation system 190 may transmit service commands corresponding to the service to be performed by the driver or the AV to the individual system 100 of the selected vehicle. In the example of AV, the system 100 may process service commands to control the AV to move from the current position to the pick-up position, while in the example of the human driver, It can provide route or navigation information that the driver can follow.

운전자 또는 AV가 서비스를 제공할 것이라는 것을 시스템(100)이 결정한 이후 시간에, 시스템(100)은 차량의 하나 이상의 센서들로부터의 데이터를 사용하여 객체 검출 동작을 수행할 수 있다. 일례에서, 서비스 준비 시스템(190)은 (예컨대, 제1 시간에) 시스템(100)으로부터의 센서 정보의 제1 세트를 수신할 수 있으며, 정보의 제1 세트에 기반하여 객체가 차량내에 놓여 있음을 검출할 수 있다(210). 시스템(100)은 차량의 센서들의 세트로부터 센서 정보를 수신할 수 있다. 대안적으로, 시스템(100)은 객체가 차량내에 놓여 있음을 검출하고, 이러한 객체를 표시하는 정보를 서비스 준비 시스템(190)에 제공할 수 있다. At a time after the system 100 determines that the driver or AV will provide the service, the system 100 may perform object detection operations using data from one or more sensors of the vehicle. In one example, the service provisioning system 190 can receive a first set of sensor information from the system 100 (e.g., at a first time), and based on the first set of information, (210). The system 100 may receive sensor information from a set of sensors of the vehicle. Alternatively, the system 100 may detect that an object is in the vehicle and provide information to the service preparation system 190 indicating such an object.

구현에 따르면, 하나 이상의 센서들 또는 센서들의 조합은 객체가 차량내에 놓여 있음을 검출하기 위하여 시스템(100) 및/또는 서비스 준비 시스템(190)에 의해 사용될 수 있다. 예컨대, 시스템(100) 및/또는 서비스 준비 시스템(190)은 차량내에 배치된 카메라들(예컨대, 레이더들, LIDAR들 또는 초음파 센서들)의 세트로부터 이미지 정보를 수신할 수 있으며, 여기서 카메라들의 세트는 카메라들의 세트의 개별 렌즈가 차량의 실내(예컨대, 뒷좌석, 앞좌석, 트렁크 또는 다른 컴파트먼트)쪽을 향하도록 배치된다. 다른 예에서, 시스템(100) 및/또는 서비스 준비 시스템(190)은 차량의 컴파트먼트 또는 실내에 배치된 계량 디바이스들의 세트로부터 무게 정보를 수신할 수 있으며, 여기서 계량 디바이스들의 세트는 계량 디바이스들의 세트의 개별 측정 플랫폼이 차량의 컴파트먼트 또는 실내의 바닥면상에 배치되거나 이 아래에 배치되거나 또는 이에 포함되도록 배치된다(예컨대, 플랫폼은 트렁크내에 또는 좌석에 또는 좌석내에 놓인 객체들의 무게를 재서, 뒷좌석 또는 앞좌석에 앉아 있는 사람의 무게를 재기 위하여 트렁크의 표면에 있다). 계속해서 추가로, 다른 예에서, 시스템(100) 및/또는 서비스 준비 시스템(190)은 차량의 서스펜션 시스템 근처에 배치되거나 또는 이 서스펜션 시스템에 포함되는 (예컨대, 차량의 프레임 또는 후방 및/또는 전방 서스펜션 시스템 근처에 배치된) 서스펜션 센서들의 세트로부터 압축 정보를 수신할 수 있다. 부가적으로, 센서는 또한 컴파트먼트 또는 트렁크가 열려져 있는지 및/또는 닫혀있는지의 여부에 관한 정보를 제공할 수 있으며, 이 정보는 다른 센서 정보와 관련하여 사용될 수 있다.According to an implementation, one or more sensors or a combination of sensors may be used by system 100 and / or service preparation system 190 to detect that an object is in the vehicle. For example, the system 100 and / or the service preparation system 190 may receive image information from a set of cameras (e.g., radar, LIDARs, or ultrasonic sensors) Is arranged so that the individual lenses of the set of cameras are directed towards the interior of the vehicle (e.g., the rear seat, front seat, trunk or other compartment). In another example, the system 100 and / or the service preparation system 190 may receive weight information from a set of metering devices disposed in a compartment or interior of a vehicle, The individual measurement platforms of the set are arranged to be disposed on, below, or included in a floor or compartment of a vehicle (e. G., The platform may be configured to weigh objects placed in or in a seat or in a seat, Sitting on the back seat or on the front of the trunk to weigh the person sitting in the front seat). Still further, in another example, the system 100 and / or the service provisioning system 190 may be located near the vehicle's suspension system or may be located within the suspension system (e. G., A frame or rear and / And may receive compression information from a set of suspension sensors (located near the suspension system). Additionally, the sensor may also provide information regarding whether the compartment or trunk is open and / or closed, and this information may be used in conjunction with other sensor information.

시스템(100) 및/또는 서비스 준비 시스템(190)은 객체 검출 동작을 수행하기 위하여 이들 상이한 소스들 중 하나 이상으로부터의 정보를 사용할 수 있다. 게다가, 수신된 센서 입력/정보의 제1 세트에 기반하여, 시스템(100) 및/또는 서비스 준비 시스템(190)은 객체가 차량내에 놓여 있는 사실, 객체가 무엇인지(또는 객체의 타입), 객체의 색 또는 크기 또는 치수 또는 무게, 객체가 어떤 컴파트먼트내에 있는지, 및/또는 객체의 위치를 검출할 수 있다. 예에 따르면, 서비스 준비 시스템(190)은 또한 운송 서비스의 트립 엔트리와(및/또는 사용자의 프로필 또는 계정과) 객체 정보를 연관시킬 수 있다.The system 100 and / or the service preparation system 190 may use information from one or more of these different sources to perform object detection operations. In addition, based on the first set of received sensor inputs / information, the system 100 and / or the service provisioning system 190 may determine the fact that the object is in the vehicle, what the object is (or the type of object) The size or size or weight of the object, the compartment in which the object is located, and / or the location of the object. According to an example, the service provisioning system 190 may also associate object information with the trip entry of the transportation service (and / or with the user's profile or account).

다양한 예들에서, 시스템(100)은 AV의 위치 정보에 기반하여 센서 데이터를 결정하기 위하여 (예컨대, 검출 또는 측정을 수행하기 위하여) 센서들을 트리거할 수 있다. 예컨대, 에너지 또는 전력을 보존하기 위하여, 시스템(100)은 AV가 서비스 위치에 또는 서비스 위치 근처에 도달할 때, 예컨대 AV가 픽업 위치의 미리 결정된 거리 또는 추정된 이동 시간에 또는 이 내에 도달할 때, 및/또는 AV가 서비스 위치에 또는 이 근처에 있으면서 일정 시간 지속기간 동안 정지해 있을 때 센서 데이터를 결정하기 위하여 센서들을 트리거할 수 있다. 대안적으로, 다른 예에서, 시스템(100)은 서비스가 시작되었다는 결정에 대한 응답으로 센서 데이터를 결정하기 위하여 센서들을 트리거할 수 있다.In various examples, the system 100 may trigger sensors (e.g., to perform detection or measurement) to determine sensor data based on location information of the AV. For example, in order to conserve energy or power, the system 100 may determine when the AV reaches a service location or near a service location, for example when the AV reaches or within a predetermined distance or estimated travel time of the pick- , And / or trigger sensors to determine sensor data when the AV is stationary for a period of time while in or near the service location. Alternatively, in another example, the system 100 may trigger the sensors to determine the sensor data in response to the determination that the service has been started.

도 2를 다시 참조하면, 서비스 준비 시스템(190)은 또한 서비스가 시작되었음을 결정할 수 있다(220). 구현에 따르면, 서비스 준비 시스템(190)은 (i) 사용자가 차량에 들어갔다는 검출에 대한 응답으로 (예컨대, 차량내에서 객체를 검출한 것(단계(210))에 대한 응답으로 또는 사용자의 컴퓨팅 디바이스의 위치 데이터 포인트들 및 차량의 위치 데이터 포인트들에 기반하여 그리고 이들이 서로 미리 결정된 거리내에 있다는 결정에 대한 응답으로), (ii) 사용자가 차량에 들어갔다는 것을 검출한 이후로부터 미리 결정된 시간 지속기간(예컨대, 10초)이 경과하였다는 검출에 대한 응답으로, (iii) 사용자와 연관된 컴퓨팅 디바이스에 제공되는 입력의 결과로서 서비스가 시작될 수 있다는 것을 표시하는 정보를 사용자의 컴퓨팅 디바이스로부터 수신한 것에 대한 응답으로(예컨대, 사용자는 트립을 시작하는 것에 대응하는 피처(feature)를 선택한다), (iv) 운전자 또는 사용자로부터 운전자 디바이스 또는 온-보드 컴퓨팅 시스템에 제공되는 입력의 결과로서 서비스가 시작될 수 있다는 것을 표시하는 정보를 운전자 디바이스(또는 AV의 온-보드 컴퓨팅 시스템)로부터 수신하는 것에 대한 응답으로, 그리고/또는 (v) 차량의 위치 정보에 기반하여 미리 결정된 시간 지속기간 동안 시작 위치의 결정된 거리내에 차량이 배치되어 있다는 결정에 대한 응답으로 서비스가 시작되었음을 결정할 수 있다. 다른 예들에서, 시스템(100)은 예들 (i) 내지 (v) 중 임의의 것에 기반하여 서비스가 시작되었음을 검출한다. Referring again to FIG. 2, the service preparation system 190 may also determine 220 that the service has been started. According to an implementation, the service provisioning system 190 may be configured to (i) respond in response to detecting a user entering the vehicle (e.g., in response to detecting an object in the vehicle (step 210) (I. E., In response to a determination that the location data points of the device and the location data points of the vehicle are within a predetermined distance from each other), (ii) a predetermined time duration (E. G., 10 seconds) has elapsed, and (iii) in response to detecting that the service has been started as a result of an input provided to a computing device associated with the user, (E.g., the user selects a feature corresponding to starting the trip), (iv) the driver or In response to receiving information from the user device (or the on-board computing system of the AV) indicating that the service can be started as a result of an input provided to the driver device or the on-board computing system from the user, and / (v) determine that the service has been started in response to a determination that the vehicle is located within a determined distance of the starting position for a predetermined time duration based on the vehicle's location information. In other instances, the system 100 detects that services have been started based on any of the examples (i) through (v).

서비스 준비 시스템(190)은 또한 예컨대 운전자 또는 AV가 서비스를 수행할 때 서비스를 모니터링한다(230). 본원에서 설명된 바와같이, 서비스를 모니터링하는 것은 차량이 픽업 위치로부터 목적지 위치로 이동할 때 차량의 위치 (및 대응하는 타임스탬프) 및/또는 상태를 결정하는 것 및 이러한 정보를 서비스와 연관된 트립 엔트리에 저장하는 것을 주기적으로 포함할 수 있다. 시스템(100)은 이러한 정보를 서비스 준비 시스템(190)에 제공할 수 있다. 일부 예들에서, 서비스 준비 시스템(190)은 또한 사용자의 컴퓨팅 디바이스에 (또는 다른 디바이스에) 서비스의 진행에 대한 정보를 제공할 수 있다. 예컨대, 사용자는 사용자의 위치에서 픽업되고 친구의 목적지 위치에 내려줄 소화물에 대한 배달 서비스를 요청하였을 수도 있다. 사용자의 디바이스상의 애플리케이션은 서비스 준비 시스템(190)으로부터 서비스의 진행에 대한 정보, 예컨대 지도위의 AV의 위치 및 이동을 (주기적으로) 수신할 수 있다. 부가적으로 또는 대안적으로, 사용자는 소화물을 수신할 친구의 연락 정보(예컨대, 전화 번호 또는 이메일 주소)를 애플리케이션을 통해 서비스 준비 시스템(190)에 제공하였을 수도 있다. 서비스 준비 시스템(190)은 서비스를 모니터링하고 서비스에 대한 업데이트된 정보를 친구에 제공할 수 있으며, 따라서 친구는 AV가 목적지 위치로 이동할 때 소화물을 추적할 수 있다.The service preparation system 190 also monitors the service (e.g., 230) when, for example, the driver or the AV performs the service. As described herein, monitoring a service includes determining the location (and corresponding timestamp) and / or state of the vehicle when the vehicle moves from the pick-up location to the destination location, and determining such information in the trip entry associated with the service Storage periodically. The system 100 may provide this information to the service provisioning system 190. In some instances, the service provisioning system 190 may also provide information about the progress of the service to the user's computing device (or other device). For example, the user may be picked up at the user's location and requested a delivery service for the package to be dropped to the friend's destination location. An application on the user's device may receive (periodically) information about the progress of the service, such as the location and movement of the AV on the map, from the service provisioning system 190. Additionally or alternatively, the user may have provided the service provisioning system 190 with the contact information (e.g., telephone number or e-mail address) of the friend to receive the package through the application. The service provisioning system 190 may monitor the service and provide updated information about the service to a friend so that the friend can track the package as the AV moves to the destination location.

서비스 준비 시스템(190)은 예컨대 서비스를 모니터링한 결과로서, 서비스가 완료되었음을 결정할 수 있다(240). 구현에 따르면, 서비스 준비 시스템(190)은 (i) 사용자가 차량을 떠났다는 검출에 대한 응답으로 (예컨대, 사용자의 컴퓨팅 디바이스의 위치 데이터 포인트들 및 차량의 위치 데이터 포인트들에 기반하여 그리고 이들이 미리 결정된 거리를 초과하여 분리되어 있다는 결정에 대한 응답으로), (ii) 사용자가 차량을 떠났다는 것을 검출한 이후로부터 미리 결정된 시간 지속기간(예컨대, 20초)이 경과하였다는 검출에 대한 응답으로, (iii) 사용자와 연관된 컴퓨팅 디바이스에 제공되는 입력의 결과로서 서비스가 종료되었다는 것을 표시하는 정보를 사용자의 컴퓨팅 디바이스로부터 수신한 것에 대한 응답으로(예컨대, 사용자는 트립을 종료하는 것에 대응하는 피처를 선택한다), (iv) 운전자 또는 사용자로부터 운전자 디바이스 또는 온-보드 컴퓨팅 시스템에 제공되는 입력의 결과로서 서비스가 종료되었다는 것을 표시하는 정보를 운전자 디바이스(또는 AV의 온-보드 컴퓨팅 시스템)로부터 수신하는 것에 대한 응답으로, 그리고/또는 (v) 차량의 위치 정보에 기반하여 미리 결정된 시간 지속기간 동안 목적지 위치의 결정된 거리내에 차량이 배치되어 있다는 결정에 대한 응답으로 서비스가 종료되었음을 결정할 수 있다.The service provisioning system 190 may determine 240 that the service has been completed, e.g., as a result of monitoring the service. According to an implementation, the service provisioning system 190 may be configured to (i) determine in response to detection that the user has left the vehicle (e.g., based on the location data points of the user's computing device and the location data points of the vehicle, (I. E., 20 seconds) has elapsed since detecting that the user left the vehicle, in response to the determination that the user has left the vehicle, (iii) in response to receiving information from the user's computing device indicating that the service is terminated as a result of input provided to the computing device associated with the user (e.g., the user selects a feature corresponding to terminating the trip ), (Iv) from the driver or user to the driver device or to the on-board computing system In response to receiving information from the driver device (or the on-board computing system of the AV) indicating that the service has been terminated as a result of the input being provided, and / or (v) It may determine that the service has been terminated in response to the determination that the vehicle is located within the determined distance of the destination location during the time duration.

서비스가 완료되었다고 결정한 이후에, 서비스 준비 시스템(190)은 (예컨대, 제2 시간에) 차량의 하나 이상의 센서들로부터의 센서 정보의 제2 세트에 기반하여 (차량내에서 사전에 검출된) 객체가 차량으로부터 이전되었는지의 여부를 검출할 수 있다(250). 예컨대, 서비스 준비 시스템(190)은 시스템(100)으로부터 센서 정보의 제2 세트를 수신할 수 있으며, 차이, 예컨대 이미지의 차이, 무게의 차이, 압축 정보의 차이 등이 존재하는지를 결정하기 위하여 센서 정보의 제1 세트 및 제2 세트를 비교할 수 있다. 대안으로서, 시스템(100)은 비교 동작을 수행하여, 객체가 이전되었는지의 여부에 대한 표시를 서비스 준비 시스템(190)으로 제공할 수 있다. 시스템(100)은 예들에 따라 특정 시간 인스턴스에서, 이를테면 서비스가 완료되었다는 검출에 대한 응답으로 또는 서비스가 완료되었다는 것을 검출한 이후로부터 미리 결정된 시간 지속기간 이후에 센서 데이트를 결정하기 위하여 (예컨대, 검출 또는 측정을 수행하기 위하여) 센서들을 트리거할 수 있다.After determining that the service has been completed, the service preparation system 190 may determine that the object (previously detected in the vehicle) based on the second set of sensor information from one or more sensors of the vehicle (e.g., at a second time) (250) if it has been transferred from the vehicle. For example, the service preparation system 190 may receive a second set of sensor information from the system 100 and may include sensor information (e. G., Image information) to determine whether there are differences, such as differences in images, differences in weight, Lt; / RTI > can be compared. Alternatively, the system 100 may perform a comparison operation to provide an indication to the service preparation system 190 as to whether or not the object has been transferred. The system 100 may be configured to determine (e.g., detect) a sensor date at a particular time instance, such as in response to detecting that the service has been completed, or after a predetermined time duration since detecting that the service has been completed Or to perform measurements).

대안적으로, 서비스 준비 시스템(190)은 서비스가 완료될 것으로 결정되기 전에 객체가 차량으로부터 이전되었는지의 여부를 결정할 수 있다. 예컨대, 서비스 준비 시스템(190)(또는 시스템(100))은 AV가 목적지 위치에 도달하였거나 또는 목적지 위치 근처에 있고 그리고/또는 목적지 위치에 있거나 또는 목적지 위치 근처에 있으면서 일정 시간 지속기간 동안 정지해 있다는 결정에 대한 응답으로 객체 검출 프로세스를 수행할 수 있다. 다른 예에서, 서비스 준비 시스템(190)은 객체가 차량으로부터 이전되었다는 검출에 대한 응답으로 (예컨대, 단계(250)를 수행한 이후에) 서비스가 완료되었음을 결정할 수 있다. Alternatively, the service provisioning system 190 may determine whether the object has been transferred from the vehicle before it is determined that the service is to be completed. For example, the service provisioning system 190 (or system 100) may be configured such that the AV has arrived at the destination location, or is near the destination location and / or is in the destination location or near the destination location, The object detection process can be performed in response to the determination. In another example, the service provisioning system 190 may determine that the service has been completed (e.g., after performing step 250) in response to detecting that the object has been transferred from the vehicle.

만일 객체가 차량으로부터 이전되었다는 것을 서비스 준비 시스템(190)이 결정하면, 서비스 준비 시스템(190)은, 차량내의 사용자가 객체를 소지하고 있거나 또는 다른 사용자가 객체를 (예컨대, 배달 목적지 위치로) 이전시켰을 때, 교정 액션이 수행될 필요가 없음을 결정할 수 있다(270). 다른 한편으로, 만일 객체가 이전되지 않았다고 서비스 준비 시스템(190)이 결정하면, 서비스 준비 시스템(190)은 하나 이상의 교정 액션들을 자동적으로 수행할 수 있다(260). 예컨대, 서비스 준비 시스템(190)은, 잘못된 객체를 운전자 및 사용자에게 알리기 위하여, 운전자 디바이스 및/또는 사용자 디바이스상의 개별 애플리케이션들을 통해 운전자 및/또는 사용자에 메시징할 수 있다. 메시지는 운전자 및 사용자가 위치, 예컨대 목적지 위치에서 만나게 하여 사용자가 객체를 되찾을 수 있게 하는 명령들(예컨대, 내비게이션 명령들을 포함함)을 포함할 수 있다.If the service preparation system 190 determines that the object has been transferred from the vehicle, the service preparation system 190 may determine that the user is in possession of the object, or if another user has moved the object (e.g., to the delivery destination location) , It can be determined 270 that the calibration action need not be performed. On the other hand, if the service preparation system 190 determines that the object has not been transferred, the service preparation system 190 may automatically perform one or more calibration actions (260). For example, the service provisioning system 190 may be able to mess up the operator and / or the user via individual applications on the driver device and / or the user device to notify the driver and user of the faulty object. The message may include commands (e.g., including navigation commands) that allow the user and the user to interact with the location, e.g., the destination location, so that the user can retrieve the object.

다른 예에서, 서비스 준비 시스템(190)은 사용자 디바이스에 메시지 또는 통지를 송신하여, 사용자가 사용자에 의해 특정된 위치로의 객체의 전달을 요청하는 것을 가능하게 할 수 있다. 계속해서 추가로, 일례에서, 만일 차량이 AV이면, 서비스 준비 시스템(190)은 AV가 특정 위치로 이동하게 하기 위하여 차량 제어 명령들을 AV에 송신할 수 있다. 이러한 특정 위치는 사용자의 후속 전달 운송 서비스 요청에 특정된 사용자에 대한 새로운 만남 위치(배달품 하차 위치) 또는 잘못된 객체들을 보관하는 지정된 보관 또는 창고형 위치에 대응할 수 있디. 서비스 준비 시스템(190)은 또한 사용자가 객체를 되찾을 수 있는 이러한 위치 정보를 제공하기 위하여 사용자 디바이스에 메시징할 수 있다.In another example, the service provisioning system 190 may send a message or notification to the user device to enable the user to request delivery of the object to a location specified by the user. Still further, in one example, if the vehicle is an AV, the service preparation system 190 may send vehicle control commands to the AV to cause the AV to move to a specific location. This particular location could correspond to a new contact location for a user specified in a user's subsequent forwarded shipping service request (delivery dropout location) or a designated storage or warehouse location that stores the wrong objects. The service provisioning system 190 may also be capable of messaging to the user device in order to provide such location information in which the user can retrieve the object.

도 3은 운송 서비스와 관련하여 차량내의 객체들을 검출하기 위한 다른 예시적인 방법을 예시한다. 일례에서, 도 3에 설명된 방법의 하나 이상의 단계들은 도 2에 설명된 방법의 하나 이상의 단계들과 동시에 수행될 수 있다. 단순화를 위하여, 도 3의 예시적인 방법은 자율 차량의 온-보드 컴퓨팅 시스템상에서 동작하는 시스템(100)에 의해 수행되는 것으로 설명된다. Figure 3 illustrates another exemplary method for detecting objects in a vehicle in connection with a transportation service. In one example, one or more steps of the method described in FIG. 3 may be performed concurrently with one or more steps of the method described in FIG. For simplicity, the exemplary method of FIG. 3 is described as being performed by the system 100 operating on an on-board computing system of autonomous vehicles.

도 3에서, (AV의) 시스템(100)은 요청하는 사용자에게 서비스를 제공하기 위하여 AV에 대한 서비스 명령들을 서비스 준비 시스템(190)으로부터 수신할 수 있다(300). 본원에서 설명된 바와같이, 서비스는 시작 위치 및 목적지 위치를 가질 수 있으며, 객체 또는 사람(예컨대, 요청하는 사용자)의 배달에 대응할 수 있다. 시스템(100)은 어떤 서비스를 제공할지, 어디로 이동할지(예컨대, 현재 위치로부터 시작/픽업 위치로, 이후 목적지 위치로), 그리고 그 장소로 어떻게 이동할지(예컨대, 어느 루트로 가야할지)를 결정하기 위하여 서비스 명령들을 프로세싱할 수 있다. In FIG. 3, the system 100 of (AV) may receive 300 service instructions from the service preparation system 190 for AV to provide services to the requesting user. As described herein, a service may have a start location and a destination location, and may correspond to the delivery of an object or a person (e.g., a requesting user). The system 100 determines which service to provide, where to move (e.g., from the current location to the start / pickup location, to the destination location), and how to move to that location Lt; RTI ID = 0.0 > service commands. ≪ / RTI >

서비스 명령들, 지도 데이터 및/또는 AV를 동작시키기 위하여 사용된 센서 데이터(예컨대, AV의 바디상에 장착된 센서들로부터의 데이터)에 기반하여, 시스템(100)은 시작 위치로 이동하도록 AV를 제어하고, 동시에 AV의 이동을 모니터링할 수 있다(310). 시스템(100)은 센서들로부터의 센서 데이터 및 다양한 차량 컴포넌트들로부터의 피드백 신호들을 수신하는 것에 대한 응답으로 다양한 서브-시스템들의 차량 제어 모듈들에 제어 신호들을 전송함으로써 AV의 동작을 제어하기 위하여 AV 제어 시스템에 대응하거나 또는 이를 포함하거나 또는 이와 통신할 수 있다. 시스템(100)은 또한 예컨대 GPS 데이터로부터 AV의 위치를 결정하고, 루트 및/또는 시작 위치와 비교하여 현재의 위치를 모니터링할 수 있다. 주기적으로 결정된 AV의 현재 위치를 사용하여, 시스템(100)은 AV가 시작 위치의 미리 결정된 거리에 도달하거나 또는 이 거리내에 있을 때(예컨대, AV가 시작 위치에 근접할때)를 결정할 수 있다. 일례에서, AV가 시작 위치에 근접한다고 시스템(100)이 결정할 때, 시스템(100)은 AV의 상태를 (온 루트 상태로부터 방금 도달한 상태로 또는 도달 완료된 상태로) 변경할 수 있다.Based on service instructions, map data and / or sensor data (e.g., data from sensors mounted on the body of the AV) used to operate the AV, the system 100 may be configured to move the AV And at the same time monitor the movement of the AV (310). The system 100 may be configured to transmit control signals to the vehicle control modules of various sub-systems in response to receiving sensor data from the sensors and feedback signals from various vehicle components, And may correspond to or include or communicate with the control system. The system 100 may also monitor the current location, e.g., by determining the location of the AV from the GPS data and comparing it to the route and / or the starting location. Using the periodically determined current position of the AV, the system 100 can determine when the AV reaches or is within a predetermined distance of the starting position (e.g., when the AV approaches the starting position). In one example, when the system 100 determines that the AV is close to the starting location, the system 100 may change the state of the AV (from the on-route state to the just arrived state or the arrived complete state).

AV가 시작 위치에 근접하다고 결정한 이후 시간에, 시스템(100)은 객체가 AV내에 놓여 있음을 검출하기 위하여 객체 검출 프로세스를 수행할 수 있다(320). 구현에 따르면, 시스템(100)은, AV가 시작 위치에 근접함을 결정한 이후의 시간으로부터 AV가 목적지 위치로 이동하는 것을 시작된 이후의 시간까지, 도 1 및 도 2에 설명된 바와같이 객체 검출 프로세스를 주기적으로 수행할 수 있다. 일례에서, 시스템(100)은 서비스가 시작되었다는 것을 결정하는 것에 응답하여 객체 검출 프로세스를 수행할 수 있거나 또는 서비스가 시작되었다고 결정하는 것과 동시에 또는 그 전에 객체 검출 프로세스를 수행할 수 있다. 도 3의 예에서, 시스템(100)은,도 1 및 도 2에 설명된 바와같이,객체(예컨대, 박스)가 AV로부터 수신된 센서 정보로부터 AV의 뒷좌석에 놓여 있음을 검출할 수 있다.At a time after determining that the AV is close to the starting position, the system 100 may perform an object detection process 320 to detect that the object is in the AV. According to an implementation, the system 100 may be configured to perform an object detection process, such as described in Figures 1 and 2, until the time after the AV begins to move to the destination location from the time after determining that the AV is close to the start location Can be performed periodically. In one example, system 100 may perform an object detection process in response to determining that a service has been started, or may perform an object detection process at the same time as or prior to determining that a service has been started. In the example of Figure 3, the system 100 may detect that an object (e.g., a box) is placed in the back seat of the AV from the sensor information received from the AV, as described in Figures 1 and 2.

일단 서비스가 시작되었다면, 시스템(100)은 목적지 위치로부터 이동하도록 AV를 제어할 수 있으며, 또한 서비스의 진행 또는 차량을 모니터링할 수 있다(330). 유사하게, 앞서 설명된 바와같이, 시스템(100)은 GPS 데이터로부터 AV의 위치를 결정하고, 루트 및/또는 목적지 위치와 비교하여 현재 위치를 모니터링할 수 있다. 시스템(100)은 AV가 목적지 위치의 미리 결정된 거리에 도달하거나 또는 이 거리내에 있을 때(예컨대, AV가 목적지 위치에 근접할때)를 결정할 수 있다(340). AV가 목적지 위치에 근접하다고 결정한 이후 시간에, 시스템(100)은 객체가 AV내에 놓여 있음을 검출하기 위하여 객체 검출 프로세스를 수행할 수 있다(350). 구현에 따르면, 단계(350)는 서비스가 완료되었다고 결정하기 전에, 또는 그 결정 이후에 또는 그 결정 동안 수행될 수행될 수 있다.Once the service is started, the system 100 may control the AV to move from the destination location, and may also monitor the progress of the service or the vehicle (330). Similarly, as described above, the system 100 can determine the location of the AV from the GPS data and monitor the current location by comparing it with the route and / or destination location. The system 100 may determine 340 when the AV reaches or is within a predetermined distance of the destination location (e.g., when the AV approaches the destination location). At a time after determining that the AV is close to the destination location, the system 100 may perform an object detection process 350 to detect that the object is in the AV. According to an implementation, step 350 may be performed before or after the determination that the service is complete, or to be performed during its determination.

객체가 AV로부터 이전되었음을 시스템(100)이 결정하면, 시스템(100)은 교정 액션이 수행될 필요가 없음을 결정할 수 있다(370). 다른 한편으로, 만일 객체가 차량에 아직 존재한다고 시스템(100)이 결정하면, 시스템(100)은 하나 이상의 교정 액션들을 수행하고 그리고/또는 도 1 및 도 2에 설명되는 바와같이 서비스 준비 시스템(190)이 하나 이상의 교정 액션들을 수행하게 할 수 있다(360). If the system 100 determines that an object has been transferred from the AV, the system 100 may determine 370 that a calibration action need not be performed. On the other hand, if the system 100 determines that an object is still present in the vehicle, the system 100 may perform one or more calibration actions and / ) May perform one or more calibration actions (360).

도 4a 내지 도 4d은 다양한 사용 사례 예들에서 모바일 컴퓨팅 디바이스상에 디스플레이된 사용자 인터페이스들의 예들을 예시한다. 도 4a 및 도 4d에 예시된 예들의 각각에 대하여, 개별 사용자 인터페이스는 사용자의 운송 서비스와 관련하여 차량에 객체를 남긴 사용자의 사용자 디바스상에 디스플레이될 수 있다. 구현에 따르면, 사용자 인터페이스는 서비스 준비 시스템(190)과 연관된 설계된 애플리케이션의 일부분으로서 또는 사용자 디바이스상에서 동작하는 다른 애플리케이션(예컨대, 이메일 애플리케이션, 텍스트 메시징 애플리케이션, 웹 브라우저 애플리케이션 등)의 일부분으로서 디스플레이될 수 있다. 일례에서, 사용자 디바이스상에 통지가 디스플레이될 수 있으며, 피처 또는 통지의 선택은 사용자 인터페이스가 사용자 디바이스상에 디스플레이되게 할 수 있다.Figures 4A-4D illustrate examples of user interfaces displayed on a mobile computing device in various use case examples. For each of the examples illustrated in Figures 4A and 4D, an individual user interface may be displayed on the user's device of a user who has left an object in the vehicle with respect to the user's transportation service. According to an implementation, the user interface may be displayed as part of a designed application associated with the service provisioning system 190 or as part of another application (e.g., an email application, a text messaging application, a web browser application, etc.) . In one example, a notification may be displayed on the user device, and the selection of the feature or notification may cause the user interface to be displayed on the user device.

도 4a를 참조하면, 일례에서, 사용자 디바이스는 서비스가 종료된 이후에 (또는 일부 경우들에서는 서비스가 종료되기 직전에) 서비스 준비 시스템(190) 또는 시스템(100)으로부터 통지 또는 메시지를 수신할 수 있다. 사용자 디바이스상에서 작동하는 애플리케이션은 사용자 인터페이스(400)를 디스플레이할 수 있으며, 사용자 인터페이스(400)는 객체의 이미지 콘텐츠(405) 및 객체가 차량내에 남겨져 있다는 것을 사용자에게 상기시키고 그리고/또는 사용자에게 통지하는 텍스트 콘텐츠(410)를 포함한다. 이미지 콘텐츠(405)는 차량의 하나 이상의 센서들(예컨대, 카메라들)로부터의 이미지 정보로부터 생성될 수 있다. 대안적으로, 카메라가 차량에서 사용되지 않은 경우에, 객체를 표현하는 다른 콘텐츠가 이미지 콘텐츠(405), 이를테면 객체를 표현하는 추가 텍스트 콘텐츠 또는 다른 그래픽 또는 플레이스홀더 이미지들 대신에 디스플레이될 수 있다. 이러한 예에서, 텍스트 콘텐츠(410)는 또한 객체를 되찾기 위하여 무엇을 해야 하는지를 결정하기 위하여, 사용자가 메시징하기 위한 연락 정보를 제공한다.4A, in one example, the user device can receive notifications or messages from the service preparation system 190 or system 100 after the service is terminated (or, in some cases, just before the service is terminated) have. An application running on the user device may display the user interface 400 and the user interface 400 may be used to remind the user that the image content 405 of the object and the object are left in the vehicle and / Text content 410. Image content 405 may be generated from image information from one or more sensors (e.g., cameras) of the vehicle. Alternatively, if the camera is not used in a vehicle, other content representing the object may be displayed in place of the image content 405, such as additional textual content representing the object, or other graphics or placeholder images. In this example, the textual content 410 also provides contact information for the user to messaging to determine what to do to retrieve the object.

도 4b의 예에서, 사용자 인터페이스(420)는 사용자 디바이스상에 디스플레이될 수 있다. 사용자 인터페이스(420)는 또한 도 4a에 설명된 것과 같은 이미지 콘텐츠(425), 및 객체가 차량내에 남아 있다는 것을 사용자에게 통지하고 객체를 픽업할 특정 위치를 사용자에게 알리는 텍스트 콘텐츠(430)를 포함할 수 있다. 예컨대, 서비스 준비 시스템(190)은 특정 위치로 이동하도록 (또는 목적지 위치 또는 사용자가 내렸던 위치에 머무르도록) AV 또는 운전자에게 명령할 수 있다. 서비스 준비 시스템(190)은 위치에 대한 대응 콘텐츠를 포함하는 텍스트 콘텐츠(430)를 생성할 수 있다. 도 4b에서, 텍스트 콘텐츠(430)는 사용자가 내렸던 위치에서 객체를 가진 차량이 2분 더 (또는 임의의 다른 미리 결정된 시간 지속기간 동안) 대기할 것이라는 것을 사용자에게 알린다.In the example of FIG. 4B, the user interface 420 may be displayed on the user device. The user interface 420 also includes image content 425, such as illustrated in FIG. 4A, and text content 430, which notifies the user that the object remains in the vehicle and informs the user of the specific location to pick up the object . For example, the service preparation system 190 may instruct the AV or driver to move to a particular location (or to stay at the destination location or the location where the user came down). The service provisioning system 190 may generate the textual content 430 containing the corresponding content for the location. In FIG. 4B, the text content 430 informs the user that the vehicle with the object at the location where the user has left will wait two more minutes (or any other predetermined time duration).

다른 예에 따르면, 도 4c의 사용자 인터페이스(440)는 인터랙티브 통지 프롬프트(interactive notification prompt)로서 사용자 디바이스상에 디스플레이될 수 있다. 이러한 통지 프롬프트는 인-앱(in-app)일 수 있거나 (예컨대, 애플리케이션 사용자 인터페이스의 일부분으로서 디스플레이될 수 있거나) 또는 아웃-오브-앱(out-of-app)일 수 있다(예컨대, 애플리케이션 현재 열려져 있지 않을 때 그리고 모바일 디바이스의 오퍼레이팅 시스템의 네이티브 사용자 인터페이스 통지 피처(native user interface notification feature)들을 사용하여 디스플레이될 수 있다). 이러한 예에서, 사용자 인터페이스(440)는 사용자의 객체가 보관되거나 또는 보유될 특정 위치를 포함하는 텍스트 콘텐츠(445)를 포함한다. 텍스트 콘텐츠(445)는 위치 정보(예컨대, 주소 또는 거리 교차로), 사용자가 객체를 픽업할 수 있는 시간 또는 시간 지속기간(예컨대, "정상 영업시간" 또는 "8am 내지 6pm"), 및 특정 위치로의 운송 서비스를 요청하기 위하여 사용자가 선택할 수 있는 선택가능 피처(450)를 포함할 수 있다. 만일 사용자가 선택가능한 피처("요청" 또는 "요청 트립")(450)를 선택하면, 지정된 서비스 애플리케이션이 사용자 디바이스상에서 열리거나 또는 론치될 수 있으며, 따라서 사용자는 (예컨대, 사용자의 현재 위치로부터 또는 특정 픽업 위치로부터) 특정 위치로의 운송 서비스를 확인할 수 있다. 대안적으로, 만일 사용자가 선택가능한 피처(450)를 선택하면, 지정된 서비스 애플리케이션은 운송 서비스에 대한 요청을 자동적으로 생성하여 서비스 준비 시스템(190)에 송신할 수 있다. 요청은 서비스의 타입(예컨대, 사용자 운송), 픽업 위치(예컨대, 사용자 디바이스의 GPS 수신기를 통해 결정된 사용자 디바이스의 현재 위치) 및 목적지 위치(예컨대, 123 메인 스트리트)를 포함할 수 있다.According to another example, the user interface 440 of Figure 4C may be displayed on the user device as an interactive notification prompt. This notification prompt may be an in-app (e.g., may be displayed as part of an application user interface) or may be an out-of-app (e.g., And may be displayed using the native user interface notification features of the mobile device's operating system when it is not open. In this example, the user interface 440 includes textual content 445 that contains specific locations where the user's objects will be archived or retained. The textual content 445 may include location information (e.g., address or street intersection), a time or duration that the user can pick up an object (e.g., "normal business hours" or "8am to 6pm" A selectable feature 450 may be selected by the user to request the transportation service of the user. If the user selects a selectable feature ("request" or "request trip") 450, the designated service application may be opened or launched on the user device, From a specific pickup location) to a specific location. Alternatively, if the user selects the selectable feature 450, the designated service application can automatically generate a request for the transportation service and send it to the service preparation system 190. [ The request may include a type of service (e.g., user transport), a pickup location (e.g., the current location of the user device determined via the GPS receiver of the user device), and a destination location (e.g., 123 Main Street).

도 4d에 예시된 것과 같은 다른 예에서, 사용자 인터페이스(460)는 사용자가 사용자 객체의 배달을 요청할 수 있다는 것을 사용자에게 알리는 텍스트 콘텐츠(465)를 포함할 수 있다. 사용자 인터페이스(460)는 사용자의 현재 위치로의 사용자 객체의 배달 운송 서비스를 요청하기 위하여 사용자가 선택가능한 피처(470)를 선택하는 것을 가능하게 할 수 있다. 도 4c의 예와 유사하게, 만일 사용자가 선택가능한 피처(470)를 선택하면, 지정된 서비스 애플리케이션은 사용자 디바이스상에서 열리거나 또는 론치될 수 있으며, 따라서 사용자는 (예컨대, 사용자의 현재 위치로부터 또는 특정 픽업 위치로부터) 특정 위치로의 사용자 객체의 배달 운송 서비스를 확인할 수 있거나 또는 지정된 서비스 애플리케이션은 배달 운송 서비스에 대한 요청을 자동적으로 생성하여 서비스 준비 시스템(190)에 송신할 수 있다. 후자의 예에서, 요청은 서비스의 타입(예컨대, 사용자 객체를 가진 특정 차량으로의 객체의 배달) 및 하차 위치 또는 목적지 위치(예컨대, 사용자 디바이스의 GPS 수신기를 통해 결정된 사용자 디바이스의 현재 위치)를 포함할 수 있다. 도 1에 설명된 바와같이, 예컨대, 서비스 준비 시스템(190)은 사용자가 바로 이전에 사용했던 특정 차량 또는 식별된 객체를 가진 트립 엔트리와 연관된 차량을 식별할 수 있으며, 사용자의 현재 위치로 가기 위하여 그 차량을 선택할 수 있다.In another example, such as illustrated in Figure 4D, the user interface 460 may include textual content 465 that informs the user that the user may request delivery of the user object. The user interface 460 may enable the user to select a user-selectable feature 470 to request delivery of the user object to the user's current location. Similar to the example of FIG. 4C, if the user selects a selectable feature 470, the designated service application may be opened or launched on the user device so that the user can select the feature (e.g., Location) of the user object to a particular location, or the designated service application can automatically generate a request for a delivery transport service and send it to the service provisioning system 190. [ In the latter example, the request includes a type of service (e.g., delivery of an object to a particular vehicle with a user object) and a getting-off location or destination location (e.g., the current location of the user device determined via the GPS receiver of the user device) can do. 1, for example, the service provisioning system 190 may identify a vehicle associated with a trip entry having a particular vehicle or identified object that the user has just used, You can choose that vehicle.

일부 예들에서, 도 4a 내지 도 4d 중 임의의 것에서 설명된 사용자 인터페이스는 또한 객체에 대한 상세한 정보, 이를테면 객체가 무엇인지(색상 또는 형상을 포함함), 객체 타입, 객체의 치수 및/또는 무게, 객체가 놓여 있던 위치 등을 포함할 수 있다. 도 4a 내지 도 4d의 예들이 사용자 디바이스와 관련하여 설명된 반면에, 일부 변형예들에서는 그러한 사용자 인터페이스들이 또한 운전자의 차량내에 남겨진 객체를 운전자에게 알리기 위하여 운전자 디바이스상에 디스플레이될 수 있다. 이러한 사용자 인터페이스는 가야할 위치, 대기해야 할 위치(및/또는 얼마동안 대기해야 할 위치), 및/또는 만나야할 사람을 운전자에게 알려줄 수 있으며, 이에 따라 사용자는 객체를 되찾을 수 있다.In some instances, the user interface described in any of Figs. 4A-4D may also include detailed information about the object, such as what the object is (including color or shape), the object type, the dimensions and / The location where the object was placed, and so on. While the examples of FIGS. 4A-4D have been described with respect to a user device, in some variations such user interfaces may also be displayed on the driver device to notify the driver of the object left in the driver's vehicle. This user interface can inform the driver of where to go, where to wait (and / or where to wait for some time), and / or who should be contacted so that the user can retrieve the object.

하드웨어 다이어그램들Hardware diagrams

도 5는 본원에 설명된 실시예들이 구현될 수 있는 컴퓨팅 디바이스를 예시하는 블록도이다. 일례에서, 컴퓨팅 디바이스(500)는 텔레포니, 메시징 및 데이터 서비스들을 가능하게 할 수 있는 셀룰러 디바이스와 같은 모바일 컴퓨팅 디바이스에 대응할 수 있다. 컴퓨팅 디바이스(500)는 사용자 디바이스 또는 운전자 디바이스에 대응할 수 있다. 이러한 디바이스들의 예들은 셀룰러 캐리어들용 스마트폰들, 핸드셋들 또는 태블릿 디바이스들을 포함한다. 컴퓨팅 디바이스(500)는 프로세서(510), 메모리 자원들(520), 디스플레이 디바이스(530)(예컨대, 이를테면 터치-감지 디스플레이 디바이스), 하나 이상의 통신 서브-시스템들(540)(무선 통신 서브-시스템들을 포함함), 입력 메커니즘들(550)(예컨대, 입력 메커니즘은 터치-감지 디스플레이 디바이스를 포함하거나 또는 이의 일부분일 수 있음), 및 위치 검출 메커니즘(예컨대, GPS 수신기)을 포함하는 하나 이상의 센서들(560)을 포함한다. 일례에서, 통신 서브-시스템들(540) 중 적어도 하나는 데이터 채널 및 음성 채널들을 통해 셀룰러 데이터를 전송 및 수신한다. 통신 서브-시스템들(540)은 셀룰러 트랜시버 및 하나 이상의 단거리 무선 트랜시버들을 포함할 수 있다. 프로세싱 자원들(510)은 예컨대 통신 서브-시스템들(540)을 통해 서비스 준비 시스템으로부터 통신들을 수신할 수 있다.5 is a block diagram illustrating a computing device in which the embodiments described herein may be implemented. In one example, the computing device 500 may correspond to a mobile computing device, such as a cellular device, which may enable telephony, messaging, and data services. The computing device 500 may correspond to a user device or a driver device. Examples of such devices include smart phones, handsets or tablet devices for cellular carriers. The computing device 500 may include a processor 510, memory resources 520, a display device 530 (e.g., a touch-sensitive display device), one or more communication sub-systems 540 One or more sensors (e. G., A GPS receiver), input mechanisms 550 (e.g., the input mechanism may include or be part of a touch-sensitive display device), and a position detection mechanism (560). In one example, at least one of the communication sub-systems 540 transmits and receives cellular data over a data channel and voice channels. The communication sub-systems 540 may include a cellular transceiver and one or more short-range wireless transceivers. The processing resources 510 may receive communications from the service preparation system, for example, via the communication sub-systems 540.

도 5의 예에서, 컴퓨팅 디바이스(500)는 차량의 운전자에 의해 동작되는 운전자 디바이스에 대응할 수 있다. 프로세서(510)는 메모리 자원들(520)에 저장된 명령들을 실행함으로써 디스플레이(530)에 다양한 콘텐츠를 제공할 수 있다. 메모리 자원들(520)은 예컨대 운전자 애플리케이션(525)에 대응하는 명령들, 및 다른 데이터, 이를테면 하나 이상의 트립 엔트리들(527), 하나 이상의 파라미터들 또는 위치 데이터 포인트들의 데이터베이스들을 저장할 수 있다. 예컨대, 프로세서(510)는 도 1 내지 도 4d에 의해 설명되고 본 출원의 다른 위치에서 설명된 것과 같은 구현들로 설명된 하나 이상의 프로세스들, 단계들 및 다른 기능들을 수행하기 위하여 소프트웨어 및/또는 다른 로직으로 구성된다. 특히, 프로세서(510)는 운전자가 제공할 운송 서비스를 통지받기 위하여 메모리 자원들(520)에 저장된 명령들 및 데이터를 실행할 수 있으며, 운송 서비스와 관련하여, 객체 검출 프로세스들을 수행하기 위하여 센서 데이터(565)를 사용할 수 있다. 본원에서 표현되는 센서들(560)은 컴퓨팅 디바이스(500)(예컨대, GPS 수신기)에 포함된 센서 뿐만아니라 차량의 하나 이상의 센서들(예컨대, 초음파 센서들, 계량 디바이스들 등)과 통신하는 센서 인터페이스들을 포함할 수 있다. 프로세서(510)는 또한 다양한 사용자 인터페이스들(515), 이를테면 운송 서비스를 제공하기 위한 초대, 내비게이션 정보 또는 운전자의 차량내에 객체가 남아있다는 사용자에 대한 통지들이 디스플레이(530)상에 디스플레이되게 하기 위하여 운전자 애플리케이션(525)에 대응하는 명령들을 실행할 수 있다. 게다가, 일부 예들에서, 사용자 인터페이스들(515)은 운전자 애플리케이션(525)과 상호작용하기 위하여, 이를테면 운송 서비스가 시작되었거나 또는 완료되었을 때를 표시하기 위하여 (예컨대, 터치-감지 디스플레이(530)와 함께) 입력 메커니즘들(550)을 통해 사용자 입력(555)을 제공함으로써, 운전자가 선택할 수 있는 선택가능한 피처들을 포함할 수 있다.In the example of FIG. 5, the computing device 500 may correspond to a driver device operated by a driver of the vehicle. Processor 510 may provide various content to display 530 by executing instructions stored in memory resources 520. [ The memory resources 520 may store, for example, databases corresponding to the driver application 525 and other data, such as one or more trip entries 527, one or more parameters, or location data points. For example, the processor 510 may include software and / or other software to perform one or more processes, steps, and other functions described in the embodiments described with reference to FIGS. 1 through 4D and described elsewhere herein Logic. In particular, the processor 510 may execute commands and data stored in the memory resources 520 for notification of a transportation service to be provided by the driver, 565) can be used. Sensors 560 represented herein may be used to sense sensors included in a computing device 500 (e.g., a GPS receiver) as well as sensor interfaces 530 that communicate with one or more sensors (e.g., ultrasonic sensors, metering devices, Lt; / RTI > Processor 510 may also be configured to display various user interfaces 515, such as invitations to provide transportation services, navigation information, or notifications to the user that an object remains in the vehicle ' s vehicle, And execute commands corresponding to the application 525. [ In addition, in some instances, the user interfaces 515 may be used to interact with the driver application 525, such as to indicate when the transportation service has been started or completed (e.g., with the touch-sensitive display 530) ) Input mechanisms 550 to provide user input 555, which may include selectable features that the operator can select.

도 5가 모바일 컴퓨팅 디바이스에 대하여 예시된 반면에, 하나 이상의 예들은 풀-기능(full-functional) 컴퓨터들, 이를테면 랩탑들 및 데스크탑들(예컨대, PC)을 비롯하여 다른 타입들의 디바이스들상에서 구현될 수 있다. 다른 예에서, 도 5의 변형은 도 1에 설명된 것과 같은 AV의 온-보드 컴퓨팅 시스템 (이 시스템의 적어도 일부분)을 예시할 수 있다.While FIG. 5 is illustrated for a mobile computing device, one or more examples may be implemented on other types of devices, including full-functional computers, such as laptops and desktops (e.g., a PC) have. In another example, the variation of FIG. 5 may illustrate an on-board computing system (at least a portion of the system) of AV, such as that described in FIG.

도 6는 본원에 설명된 예들이 구현될 수 있는 컴퓨터 시스템을 예시하는 블록도이다. 예컨대, 도 1의 맥락에서, 서비스 준비 시스템(190)은 도 6에 의해 설명된 것과 같은 컴퓨터 시스템을 사용하여 구현될 수 있다. 서비스 준비 시스템(190)은 또한 도 6에 의해 설명된 것과 같은 다수의 컴퓨터 시스템들의 조합을 사용하여 구현될 수 있다. 6 is a block diagram illustrating a computer system in which the examples described herein may be implemented. For example, in the context of FIG. 1, service provisioning system 190 may be implemented using a computer system such as that illustrated by FIG. The service provisioning system 190 may also be implemented using a combination of a plurality of computer systems as described by FIG.

일 구현에서, 컴퓨터 시스템(600)은 프로세싱 자원들, 이를테면 하나 이상의 프로세서들(610), 메인 메모리(620), 판독-전용 메모리(ROM)(630), 저장 디바이스(640) 및 통신 인터페이스(650)를 포함한다. 컴퓨터 시스템(600)은 정보를 프로세싱하기 위한 적어도 하나의 프로세서(610), 및 메인 메모리(620), 이를테면 랜덤 액세스 메모리(RAM), 또는 프로세서(610)에 의해 실행될 정보 및 명령들을 저장하기 위한 다른 동적 저장 디바이스를 포함한다. 메인 메모리(620)는 또한 프로세서(610)에 의해 실행될 명령들의 실행 동안 일시적 변수들 또는 다른 중간 정보를 저장하기 위하여 사용될 수 있다. 컴퓨터 시스템(600)은 또한 ROM(630), 또는 프로세서(610)에 대한 정적 정보 및 명령들을 저장하기 위한 다른 정적 저장 디바이스를 포함할 수 있다. 자기 디스크 또는 광 디스크와 같은 저장 디바이스(640)는 정보 및 명령들을 저장하기 위하여 제공된다. 예컨대, 저장 디바이스(640)는 도 1 내지 도 5와 관련하여 논의된 동작들을 수행하기 위한 위치 결정 명령들(642) 및 객체 검출 명령들(644)을 저장하는 컴퓨터-판독가능 매체에 대응할 수 있다. 이러한 예들에서, 컴퓨터 시스템(600)은 차량들의 위치를 결정하고, 운송 서비스들의 서비스 위치들을 결정하며, 그리고 차량 시스템들 또는 운전자 디바이스들로부터 수신된 센서 데이터에 기반하여 객체 검출 프로세스들을 수행할 수 있다. 게다가, 저장 디바이스(640)는 요청하는 사용자들로부터 운송 서비스들에 대한 요청들을 수신하여 이들 운송 서비스들을 제공할 차량들을 선택하는 디스패치 서브-시스템(dispatch sub-system)을 구현하기 위한 명령들과 같은 다른 명령들을 포함할 수 있다.In one implementation, computer system 600 includes processing resources such as one or more processors 610, main memory 620, read-only memory (ROM) 630, storage device 640, and communication interface 650 ). The computer system 600 includes at least one processor 610 for processing information and other information for storing information and instructions to be executed by the main memory 620, such as random access memory (RAM) Dynamic storage device. Main memory 620 may also be used to store temporary variables or other intermediate information during execution of instructions to be executed by processor 610. [ The computer system 600 may also include ROM 630, or other static storage device for storing static information and instructions for the processor 610. A storage device 640, such as a magnetic disk or optical disk, is provided for storing information and instructions. For example, the storage device 640 may correspond to a computer-readable medium storing location determination instructions 642 and object detection instructions 644 for performing the operations discussed with respect to Figures 1-5 . In these instances, the computer system 600 may determine the location of vehicles, determine service locations of transportation services, and perform object detection processes based on sensor data received from vehicle systems or driver devices . In addition, the storage device 640 may be configured to receive requests for transportation services from the requesting users, such as commands for implementing a dispatch sub-system to select vehicles to provide these transportation services Other instructions may be included.

통신 인터페이스(650)는 컴퓨터 시스템(600)이 네트워크 링크의 사용을 통해 (무선으로 또는 유선을 사용하여) 하나 이상의 네트워크들(680)(예컨대, 셀룰러 네트워크)과 통신하는 것을 가능하게 할 수 있다. 네트워크 링크를 사용하여, 컴퓨터 시스템(600)은 승객들 및 운전자들의 모바일 컴퓨팅 디바이스들과 같은 복수의 디바이스들과 통신할 수 있다. 일부 예들에 따르면, 도 1 내지 도 5의 일부 예들에 의해 설명되는 바와같이, 통신 인터페이스(650)를 사용하여, 컴퓨터 시스템(600)은 운전자 디바이스들, AV들 및/또는 사용자 디바이스들로부터 위치 정보(652)를 수신할 수 있으며, 사용자들의 소유물이 차량내에 남아 있는지를 사용자들에게 알리기 위한 통지 메시지들(654)을 사용자 디바이스에 송신할 수 있다. Communications interface 650 may enable computer system 600 to communicate with one or more networks 680 (e.g., a cellular network) through the use of a network link (wirelessly or using a wireline). Using the network link, computer system 600 may communicate with a plurality of devices, such as mobile computing devices of passengers and drivers. According to some examples, using the communication interface 650, as described by some examples of FIGS. 1-5, the computer system 600 may receive location information from the driver devices, AVs and / (652), and may send notification messages (654) to the user device to inform users that their possessions remain in the vehicle.

컴퓨터 시스템(600)은 또한 예컨대 그래픽 및 정보를 사용자에게 디스플레이하기 위하여 음극선관(CRT), LCD 모니터 또는 텔레비전 세트와 같은 디스플레이 디바이스(660)를 포함할 수 있다. 알파뉴메릭 키들 및 다른 키들을 포함하는 키보드와 같은 입력 메커니즘(670)은 정보 및 커맨드(command) 선택들을 프로세서(610)에 통신하기 위하여 컴퓨터 시스템(600)에 커플링될 수 있다. 입력 메커니즘들(670)의 다른 비제한적인 예시적 예들은 방향 정보 및 커맨드 선택들을 프로세서(610)에 통신하여 디스플레이(660)상의 커서 이동을 제어하기 위한 마우스, 트랙볼, 터치-감지 스크린 또는 커버 방향 키들을 포함한다.Computer system 600 may also include a display device 660, such as a cathode ray tube (CRT), LCD monitor, or television set, for example, to display graphics and information to a user. An input mechanism 670, such as a keyboard including alphanumeric keys and other keys, may be coupled to the computer system 600 for communicating information and command selections to the processor 610. [ Other non-limiting illustrative examples of input mechanisms 670 include directional information and command selections to a processor 610 to communicate with a mouse, trackball, touch-sensitive screen, or cover orientation to control cursor movement on the display 660 Keys.

본원에서 설명된 예들은 본원에서 설명된 기술들을 구현하기 위한 컴퓨터 시스템(600)의 사용과 관련된다. 일례에 따르면, 이들 기술들은 프로세서(610)가 메인 메모리(620)에 포함된 하나 이상의 명령들의 하나 이상의 시퀀스들을 실행하는 것에 대한 응답으로 컴퓨터 시스템(600)에 의해 수행된다. 이러한 명령들은 다른 머신-판독가능 매체, 이를테면 저장 디바이스(640)로부터 메인 메모리(620)내로 판독될 수 있다. 메인 메모리(620)에 포함된 명령들의 시퀀스들의 실행은 프로세서(610)가 본원에서 설명된 프로세스 단계들을 수행하게 한다. 대안적인 구현들에서, 하드 와이어드(hard wired) 회로는 본원에서 설명된 예들을 구현하기 위하여 소프트웨어 명령들 대신에 또는 이러한 소프트웨어 명령들과 결합하여 사용될 수 있다. 따라서, 설명된 예들은 하드웨어 회로 및 소프트웨어의 임의의 특정 조합으로 제한되지 않는다.The examples described herein relate to the use of computer system 600 to implement the techniques described herein. According to one example, these techniques are performed by the computer system 600 in response to the processor 610 executing one or more sequences of one or more instructions contained in the main memory 620. These instructions may be read from another machine-readable medium, such as from the storage device 640, into the main memory 620. [ Execution of sequences of instructions contained in main memory 620 causes processor 610 to perform the process steps described herein. In alternative implementations, hard wired circuitry may be used in place of or in combination with software instructions to implement the examples described herein. Thus, the described examples are not limited to any specific combination of hardware circuitry and software.

본원에서 설명된 예들이 다른 개념들, 사상들 또는 시스템에 독립적으로, 본원에서 설명된 개별적인 엘리먼트들 및 개념들을 확장시킬 뿐만아니라 예컨대 본 출원의 임의의 위치에서 인용된 엘리먼트들의 조합을 포함한다는 것이 고찰된다. 비록 예들이 첨부 도면들을 참조로 하여 본원에서 상세히 설명될지라도, 개념들이 이들 바로 그 예들에 제한되지 않는다는 것이 이해되어야 한다. 따라서, 개념들의 범위가 이하의 청구항들 및 이들의 균등물에 의해 한정되어야 하는 것이 의도된다. 더욱이, 다른 특징들 및 예들이 특정 특징들에 대해 아무런 언급을 하지 하더라도, 예들의 일부로서 또는 개별적으로 설명된 그 특정 특징이 개별적으로 설명된 다른 특징들 또는 다른 예들의 부분들과 결합될 수 있다는 것이 고려된다. 따라서, 조합들을 설명하지 않더라도, 이러한 조합에 대한 권리들이 배제되지 않아야 한다.It is contemplated that the examples described herein may be extended to include other elements, concepts, or systems independent of other concepts, ideas, or systems, as well as combinations of the elements recited in any position of the present application do. Although the examples are described in detail herein with reference to the accompanying drawings, it should be understood that the concepts are not limited to these examples. Accordingly, it is intended that the scope of the concepts be defined by the following claims and their equivalents. Moreover, although other features and examples may make reference to particular features, they may be combined, as part of the examples, or with the parts of other features or other examples, . Thus, even if the combinations are not described, the rights to such combinations should not be excluded.

Claims (20)

운송 서비스를 제공할 때 사용되는 차량을 모니터링하기 위한 방법으로서, 상기 방법은 하나 이상의 프로세서들에 의해 구현되며,
상기 방법은,
상기 운송 서비스가 완료될때를 검출하는 단계;
상기 운송 서비스가 완료되었음을 검출할 때, 상기 운송 서비스의 완료 이후에 상기 차량으로부터 이전되어야 했던 객체가 상기 차량내에 남아 있음을 상기 차량의 하나 이상의 센서들로부터 결정하는 단계; 및
상기 객체가 상기 차량내에 남아 있다는 결정에 대한 응답으로, 교정 액션(remedial action)의 수행을 자동적으로 개시하는 단계를 포함하는, 운송 서비스를 제공할 때 사용되는 차량을 모니터링하기 위한 방법.
A method for monitoring a vehicle used when providing a transportation service, the method being implemented by one or more processors,
The method comprises:
Detecting when the transportation service is completed;
Determining from the one or more sensors of the vehicle that an object that should have been transferred from the vehicle after completion of the transportation service remains in the vehicle when it is detected that the transportation service has been completed; And
And automatically initiating performance of a remedial action in response to a determination that the object remains in the vehicle. ≪ Desc / Clms Page number 20 >
제1 항에 있어서,
상기 차량의 하나 이상의 센서들은 (i) 카메라들의 세트, (ii) 계량 디바이스들의 세트, (iii) 서스펜션 센서(suspension sensor)들의 세트, (iv) 광 검출 및 레인징(LIDAR: light detection and ranging) 센서들의 세트, (v) 무선 주파수 트랜시버들의 세트, 또는 (iv) 초음파 센서들의 세트 중 하나 이상을 포함하는, 운송 서비스를 제공할 때 사용되는 차량을 모니터링하기 위한 방법.
The method according to claim 1,
The one or more sensors of the vehicle include (i) a set of cameras, (ii) a set of metering devices, (iii) a set of suspension sensors, (iv) a light detection and ranging (LIDAR) A set of sensors, (v) a set of radio frequency transceivers, or (iv) a set of ultrasound sensors.
제1 항에 있어서,
상기 객체가 상기 차량내에 남아있음을 결정하는 단계는 상기 차량내에 배치되는 카메라들의 세트로부터의 이미지 정보에 기반하여 상기 차량 내측의 객체의 위치를 검출하는 단계를 포함하는, 운송 서비스를 제공할 때 사용되는 차량을 모니터링하기 위한 방법.
The method according to claim 1,
Wherein the step of determining that the object remains in the vehicle comprises the step of detecting the position of an object inside the vehicle based on image information from a set of cameras disposed in the vehicle. Lt; / RTI >
제1 항에 있어서,
상기 객체가 상기 차량내에 남아있음을 결정하는 단계는, 상기 차량의 컴파트먼트(compartment) 또는 실내에 놓인 객체들의 무게를 감지하기 위하여 상기 차량의 컴파트먼트 또는 실내에 배치되는 계량 디바이스들의 세트로부터의 무게 정보에 기반하여 상기 객체가 상기 차량의 컴파트먼트 또는 실내에 놓여 있음을 검출하는 단계를 포함하는, 운송 서비스를 제공할 때 사용되는 차량을 모니터링하기 위한 방법.
The method according to claim 1,
Wherein the step of determining that the object remains in the vehicle comprises the steps of determining whether the object remains in the vehicle from a set of metering devices disposed in the compartment or interior of the vehicle for sensing the weight of the compartment of the vehicle, And detecting that the object is located in a compartment or an interior of the vehicle based on weight information of the vehicle.
제1 항에 있어서,
상기 객체가 상기 차량내에 남아있음을 결정하는 단계는, 상기 차량의 서스펜션 시스템의 압축을 검출하기 위하여 배치되는 센서들의 세트로부터의 압축 정보에 기반하여 상기 객체가 상기 차량의 컴파트먼트 또는 실내에 놓여 있음을 검출하는 단계를 포함하는, 운송 서비스를 제공할 때 사용되는 차량을 모니터링하기 위한 방법.
The method according to claim 1,
Wherein the step of determining that the object remains in the vehicle is based on compression information from a set of sensors disposed to detect compression of the vehicle's suspension system such that the object lies in a compartment or interior of the vehicle The method comprising the steps of: detecting a presence of a vehicle;
제2 항에 있어서,
상기 객체가 상기 차량내에 남아있음을 결정하는 단계는 상기 객체에 의해 방사된 무선 주파수 신호들을 측정하는 단계, 및 측정된 무선 주파수 신호들로부터 상기 객체가 상기 차량의 컴파트먼트 또는 실내에 놓여 있음을 결정하는 단계를 포함하는, 운송 서비스를 제공할 때 사용되는 차량을 모니터링하기 위한 방법.
3. The method of claim 2,
Determining that the object remains in the vehicle comprises measuring radio frequency signals emitted by the object and determining from the measured radio frequency signals that the object is in a compartment or interior of the vehicle Wherein the method further comprises the steps of:
제1 항에 있어서,
상기 객체가 상기 차량내에 남아있음을 결정하는 단계는 상기 운송 서비스가 제공되고 있을 때 상기 차량의 제1 센서 세트로부터 정보의 제1 세트를 결정하는 단계, 및 상기 운송 서비스가 완료된 이후에 상기 차량의 제1 센서 세트로부터 정보의 제2 세트를 결정하는 단계 및 상기 센서 정보의 제1 세트를 상기 정보의 제2 세트와 비교하는 단계를 포함하는, 운송 서비스를 제공할 때 사용되는 차량을 모니터링하기 위한 방법.
The method according to claim 1,
Wherein the step of determining that the object remains in the vehicle comprises determining a first set of information from the first set of sensors of the vehicle when the transportation service is being provided, Comprising: determining a second set of information from a first set of sensors; and comparing the first set of sensor information with a second set of the information. Way.
제1 항에 있어서,
상기 교정 액션의 수행을 자동적으로 개시하는 단계는 물품이 상기 차량내에 남아 있다는 것을 상기 서비스를 요청한 사용자에게 통지하는 메시지를 하나 이상의 네트워크를 통해 상기 사용자와 연관된 컴퓨팅 디바이스에 통신하는 단계를 포함하는, 운송 서비스를 제공할 때 사용되는 차량을 모니터링하기 위한 방법.
The method according to claim 1,
Wherein automatically initiating the performance of the calibration action comprises communicating, via one or more networks, to a computing device associated with the user, a message informing the user requesting the service that the item remains in the vehicle. A method for monitoring a vehicle used when providing a service.
제8 항에 있어서,
상기 교정 액션의 수행을 자동적으로 개시하는 단계는 상기 객체가 상기 차량내에 아직 존재하는 것으로 검출되었을 때 상기 차량의 위치에서 상기 차량이 정지상태를 유지하게 하는 단계를 포함하는, 운송 서비스를 제공할 때 사용되는 차량을 모니터링하기 위한 방법.
9. The method of claim 8,
Wherein automatically initiating the performance of the calibration action comprises causing the vehicle to remain stationary at a location of the vehicle when the object is detected to still be present in the vehicle A method for monitoring a used vehicle.
제8 항에 있어서,
상기 교정 액션의 수행을 자동적으로 개시하는 단계는 상기 차량이 미리 결정된 위치로 이동하게 하는 단계를 포함하며, 상기 미리 결정된 위치는 상기 객체가 상기 차량으로부터 이전될 수 있는 위치에 대응하는, 운송 서비스를 제공할 때 사용되는 차량을 모니터링하기 위한 방법.
9. The method of claim 8,
Wherein automatically starting the performance of the calibration action comprises causing the vehicle to move to a predetermined position, wherein the predetermined position corresponds to a position at which the object can be transferred from the vehicle, A method for monitoring a vehicle used when providing.
제3 항에 있어서,
상기 객체가 상기 차량내에 남아있음을 결정하는 단계는 상기 차량의 하나 이상의 카메라들을 사용하여 상기 차량의 일부분의 하나 이상의 이미지들을 캡처하는 단계 및 상기 하나 이상의 이미지들로부터 상기 객체를 검출하기 위하여 이미지 분석을 수행하는 단계를 포함하는, 운송 서비스를 제공할 때 사용되는 차량을 모니터링하기 위한 방법.
The method of claim 3,
Wherein the step of determining that the object remains in the vehicle comprises capturing one or more images of a portion of the vehicle using one or more cameras of the vehicle and performing image analysis to detect the object from the one or more images The method comprising the steps of: providing a transportation service;
제1 항에 있어서,
픽업 위치에서 상기 차량내로 들어가는 승객에 의해 상기 객체가 상기 차량내에 처음으로 놓일 때를 상기 차량의 하나 이상의 센서들로부터 결정하는 단계를 더 포함하는, 운송 서비스를 제공할 때 사용되는 차량을 모니터링하기 위한 방법.
The method according to claim 1,
Further comprising determining from the one or more sensors of the vehicle when the object is initially placed in the vehicle by a passenger entering the vehicle at a pick-up position. Way.
제12 항에 있어서,
상기 객체가 상기 차량내에 처음으로 놓이는 것을 검출하는 단계는, (i) 상기 승객이 상기 차량내에 들어갔다는 검출에 대한 응답으로, (ii) 상기 승객이 차량내에 들어갔다는 것을 검출한 이후로부터 미리 결정된 시간 지속기간이 경과했다는 검출에 대한 응답으로, (iii) 상기 승객과 연관된 컴퓨팅 디바이스에 제공되는 입력의 결과로서 상기 서비스가 시작될 수 있다는 것을 표시하는 메시지를 상기 승객과 연관된 컴퓨팅 디바이스로부터 수신하는 것에 대한 응답으로, (iv) 상기 차량내의 승객으로부터 상기 차량과 연관된 상기 컴퓨팅 디바이스에 제공되는 입력의 결과로서 상기 서비스가 시작될 수 있다는 것을 표시하는 메시지를 상기 차량과 연관된 컴퓨팅 디바이스로부터 수신하는 것에 대한 응답으로, 또는 (v) 상기 차량의 위치 정보에 기반하여 미리 결정된 시간 지속기간 동안 상기 차량이 상기 픽업 위치의 미리 결정된 거리내에 배치되어 있다는 결정에 대한 응답으로 수행되는, 운송 서비스를 제공할 때 사용되는 차량을 모니터링하기 위한 방법.
13. The method of claim 12,
Wherein detecting the first placement of the object in the vehicle comprises the steps of: (i) in response to detecting that the passenger has entered the vehicle, (ii) in response to detecting that the passenger has entered the vehicle, (Iii) a response to receiving from the computing device associated with the passenger a message indicating that the service can be started as a result of an input provided to the computing device associated with the passenger In response to receiving from the computing device associated with the vehicle a message indicating that the service can be started as a result of input provided to the computing device associated with the vehicle from a passenger in the vehicle, (v) based on the location information of the vehicle, Wherein the method is performed in response to a determination that the vehicle is located within a predetermined distance of the pick-up position for a determined time duration.
서비스를 제공할 때 차량을 모니터링하기 위한 방법으로서,
한 위치로부터 다른 위치로 하나 이상의 객체들 및 개인들을 운송하는 것에 대응하며 시작 위치 및 목적지 위치를 가진 서비스를 제공하기 위한 차량에 대한 명령들을 원격 시스템으로부터 컴퓨팅 시스템이 수신하는 단계;
상기 차량의 온-보드(on-board) 컴퓨팅 시스템에 대응하며 상기 차량의 컴포넌트들을 제어하는 상기 컴퓨팅 시스템에 의해, 상기 시작 위치로 이동하도록 상기 차량을 제어하는 단계;
상기 차량이 상기 시작 위치의 제1 미리 결정된 거리에 도달하거나 또는 이 제1 미리 결정된 거리내에 있은 이후에, 제1 시간에 상기 차량의 하나 이상의 센서들로부터의 정보의 제1 세트에 기반하여 객체가 상기 차량내에 놓여 있음을 상기 컴퓨팅 디바이스에 의해 검출하는 단계;
후속하여, 상기 목적지 위치로 이동하도록 상기 컴퓨팅 시스템에 의해 상기 차량을 제어하는 단계;
상기 차량이 상기 목적지 위치의 제2 미리 결정된 거리에 도달하거나 또는 이 제2 미리 결정된 거리내에 있은 이후에, 제2 시간에 상기 하나 이상의 센서들로부터의 정보의 제2 세트에 기반하여 상기 객체가 상기 차량으로부터 이전되었는지의 여부를 검출하는 단계; 및
상기 객체가 상기 차량내에 여전히 존재한다는 검출에 대한 응답으로, 교정 액션의 수행을 자동적으로 개시하는 단계를 포함하는, 서비스를 제공할 때 차량을 모니터링하기 위한 방법.
CLAIMS 1. A method for monitoring a vehicle when providing a service,
Receiving instructions from a remote system for a vehicle to provide a service having a start location and a destination location corresponding to transporting one or more objects and individuals from one location to another location;
Controlling the vehicle to move to the start position by the computing system that controls the components of the vehicle, corresponding to an on-board computing system of the vehicle;
Based on a first set of information from the one or more sensors of the vehicle at a first time after the vehicle has reached or is within a first predetermined distance of the starting position, Detecting by the computing device that it lies within the vehicle;
Subsequently controlling the vehicle by the computing system to move to the destination location;
Determining whether the object is in a second predetermined time interval based on a second set of information from the one or more sensors at a second time after the vehicle has reached or is within a second predetermined distance of the destination location; Detecting whether or not the vehicle has been transferred from the vehicle; And
And automatically initiating the performance of the calibration action in response to detecting that the object is still present in the vehicle.
제14 항에 있어서,
상기 차량의 하나 이상의 센서들은 (i) 카메라들의 세트, (ii) 계량 디바이스들의 세트, (iii) 서스펜션 센서들의 세트, (iv) 광 검출 및 레인징(LIDAR: light detection and ranging) 센서들의 세트, (v) 무선 주파수 트랜시버들의 세트, 또는 (iv) 초음파 센서들의 세트 중 하나 이상을 포함하는, 서비스를 제공할 때 차량을 모니터링하기 위한 방법.
15. The method of claim 14,
The one or more sensors of the vehicle may be (i) a set of cameras, (ii) a set of metering devices, (iii) a set of suspension sensors, (iv) a set of light detection and ranging (LIDAR) (v) a set of radio frequency transceivers, or (iv) a set of ultrasonic sensors.
제15 항에 있어서,
상기 객체가 상기 차량내에 놓여 있음을 검출하는 단계는 상기 차량내에 배치되는 상기 카메라들의 세트로부터의 이미지 정보에 기반하여 상기 차량 내측의 상기 객체의 위치를 검출하는 단계를 포함하며, 상기 카메라들의 세트는 상기 카메라들의 세트의 개별 렌즈가 상기 차량의 실내쪽을 향하도록 배치되며, 상기 교정 액션의 수행을 자동적으로 개시하는 단계는 (i) 상기 카메라들의 세트 중 하나 이상의 카메라들을 사용하여 상기 객체의 하나 이상의 이미지들을 캡처하는 단계, (ii) 상기 하나 이상의 이미지들을 포함하는 메시지를 생성하는 단계, 및 (iii) 물품이 상기 차량내에 남아 있음을 상기 원격 시스템에 통지하기 위한 메시지를 하나 이상의 네트워크들을 통해 상기 원격 시스템에 통신하는 단계 또는 물품이 상기 차량내에 남아 있음을 상기 서비스를 요청한 사용자에게 통지하는 메시지를 상기 하나 이상의 네트워크들을 통해 상기 사용자와 연관된 컴퓨팅 디바이스에 통신하는 단계를 포함하는, 서비스를 제공할 때 차량을 모니터링하기 위한 방법.
16. The method of claim 15,
The step of detecting that the object is in the vehicle comprises detecting the position of the object inside the vehicle based on image information from the set of cameras disposed in the vehicle, Wherein individual lenses of the set of cameras are oriented towards the interior of the vehicle and the step of automatically initiating the performance of the calibration action comprises: (i) using one or more cameras in the set of cameras, (Ii) generating a message comprising the one or more images, and (iii) sending a message to the remote system to notify the remote system that the item is left in the vehicle, A step of communicating to the system, And communicating a message to the computing device associated with the user via the one or more networks to notify a user requesting the service.
제15 항에 있어서,
상기 객체가 상기 차량내에 놓여 있음을 검출하는 단계는, 상기 차량의 컴파트먼트 또는 실내에 놓인 객체들의 무게를 감지하기 위하여 상기 차량의 컴파트먼트 또는 실내에 배치되는 상기 계량 디바이스들의 세트로부터의 무게 정보에 기반하여 상기 객체가 상기 차량의 컴파트먼트 또는 실내에 놓여 있음을 검출하는 단계를 포함하는, 서비스를 제공할 때 차량을 모니터링하기 위한 방법.
16. The method of claim 15,
Wherein the step of detecting that the object is in the vehicle comprises detecting a weight from the set of metering devices disposed in the compartment or the interior of the vehicle to sense the weight of the objects in the compartment or the interior of the vehicle, And detecting that the object is located in a compartment or an interior of the vehicle based on the information.
제15 항에 있어서,
상기 객체가 상기 차량내에 놓여 있음을 검출하는 단계는, 상기 차량의 서스펜션 시스템의 압축을 검출하기 위하여 배치되는 상기 서스펜션 센서들의 세트로부터의 압축 정보에 기반하여 상기 객체가 상기 차량의 컴파트먼트 또는 실내에 놓여 있음을 검출하는 단계를 포함하는, 서비스를 제공할 때 차량을 모니터링하기 위한 방법.
16. The method of claim 15,
Wherein the step of detecting that the object is in the vehicle further comprises the step of determining that the object is located in a compartment or an interior of the vehicle based on compression information from the set of suspension sensors disposed to detect compression of the suspension system of the vehicle The method comprising the steps of: detecting that the vehicle is in a vehicle;
제14 항에 있어서,
상기 교정 액션의 수행을 자동적으로 개시하는 단계는 물품이 상기 차량에 남아있음을 상기 원격 시스템에 통지하는 메시지를 하나 이상의 네트워크들을 통해 상기 원격 시스템에 통신하는 단계 또는 물품이 상기 차량내에 남아 있음을 상기 서비스를 요청한 사용자에게 통지하는 메시지를 상기 하나 이상의 네트워크들을 통해 상기 사용자와 연관된 컴퓨팅 디바이스에 통신하는 단계를 포함하는, 서비스를 제공할 때 차량을 모니터링하기 위한 방법.
15. The method of claim 14,
Wherein automatically initiating the performance of the calibration action comprises communicating a message to the remote system via one or more networks informing the remote system that an item has remained in the vehicle, And communicating a message to the computing device associated with the user via the one or more networks to notify a user requesting the service.
명령들을 저장한 비-일시적 컴퓨터-판독가능 매체로서,
상기 명령들은, 컴퓨팅 시스템의 하나 이상의 프로세서들에 의해 실행될 때, 상기 컴퓨팅 시스템으로 하여금,
한 위치로부터 다른 위치로 하나 이상의 객체들 또는 개인들을 운송하는 것에 대응하며 시작 위치 및 목적지 위치를 가진 서비스를 제공하기 위한 차량에 대한 명령들을 원격 시스템으로부터 수신하게 하며;
상기 시작 위치로 이동하도록 상기 차량을 제어하게 하며;
상기 차량이 상기 시작 위치의 제1 미리 결정된 거리에 도달하거나 또는 이 제1 미리 결정된 거리내에 있은 이후에, 제1 시간에 상기 차량의 하나 이상의 센서들로부터의 정보의 제1 세트에 기반하여 객체가 상기 차량내에 놓여 있음을 검출하게 하며;
후속하여, 상기 목적지 위치로 이동하도록 상기 차량을 제어하게 하며;
상기 차량이 상기 목적지 위치의 제2 미리 결정된 거리에 도달하거나 또는 이 제2 미리 결정된 거리내에 있은 이후에, 제2 시간에 상기 하나 이상의 센서들로부터의 정보의 제2 세트에 기반하여 상기 객체가 상기 차량으로부터 이전되었는지의 여부를 검출하게 하며; 그리고
상기 객체가 상기 차량내에 여전히 존재한다는 검출에 대한 응답으로, 교정 액션을 자동적으로 수행하게 하는, 비-일시적 컴퓨터-판독가능 매체.
17. A non-transitory computer-readable medium having stored thereon instructions,
Wherein the instructions, when executed by one or more processors of a computing system, cause the computing system to:
Receive commands from a remote system for a vehicle to provide a service having a start location and a destination location corresponding to transporting one or more objects or individuals from one location to another location;
Control the vehicle to move to the start position;
Based on a first set of information from the one or more sensors of the vehicle at a first time after the vehicle has reached or is within a first predetermined distance of the starting position, Detect that the vehicle is in the vehicle;
Subsequently controlling the vehicle to move to the destination location;
Determining whether the object is in a second predetermined time interval based on a second set of information from the one or more sensors at a second time after the vehicle has reached or is within a second predetermined distance of the destination location; Detect whether the vehicle has been transferred from the vehicle; And
Causing the computer to perform a calibration action automatically in response to detecting that the object is still present in the vehicle.
KR1020177035479A 2015-05-11 2016-05-11 Detection of objects in the vehicle in relation to the service KR102395766B1 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/708,611 2015-05-11
US14/708,611 US9616773B2 (en) 2015-05-11 2015-05-11 Detecting objects within a vehicle in connection with a service
PCT/US2016/031929 WO2016183241A1 (en) 2015-05-11 2016-05-11 Detecting objects within a vehicle in connection with a service

Publications (2)

Publication Number Publication Date
KR20180005693A true KR20180005693A (en) 2018-01-16
KR102395766B1 KR102395766B1 (en) 2022-05-10

Family

ID=57249481

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020177035479A KR102395766B1 (en) 2015-05-11 2016-05-11 Detection of objects in the vehicle in relation to the service

Country Status (9)

Country Link
US (7) US9616773B2 (en)
EP (1) EP3295421A4 (en)
KR (1) KR102395766B1 (en)
CN (1) CN107873098A (en)
AU (1) AU2016262526B9 (en)
CA (1) CA2985619A1 (en)
IL (1) IL255562B (en)
RU (1) RU2725681C9 (en)
WO (1) WO2016183241A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200125110A1 (en) * 2017-05-12 2020-04-23 Autonomy Squared Llc Robot delivery method
KR20200098837A (en) * 2019-02-13 2020-08-21 충남대학교산학협력단 Lost-and-found notification device that provides information on the occurrence of lost items in public transportation
US11505984B2 (en) 2015-05-11 2022-11-22 Uber Technologies, Inc. Detecting objects within a vehicle in connection with a service

Families Citing this family (103)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160257198A1 (en) 2015-03-02 2016-09-08 Ford Global Technologies, Inc. In-vehicle component user interface
US9747740B2 (en) 2015-03-02 2017-08-29 Ford Global Technologies, Llc Simultaneous button press secure keypad code entry
US9622159B2 (en) * 2015-09-01 2017-04-11 Ford Global Technologies, Llc Plug-and-play interactive vehicle interior component architecture
US9914418B2 (en) 2015-09-01 2018-03-13 Ford Global Technologies, Llc In-vehicle control location
US9967717B2 (en) 2015-09-01 2018-05-08 Ford Global Technologies, Llc Efficient tracking of personal device locations
US9860710B2 (en) 2015-09-08 2018-01-02 Ford Global Technologies, Llc Symmetrical reference personal device location tracking
US9744852B2 (en) 2015-09-10 2017-08-29 Ford Global Technologies, Llc Integration of add-on interior modules into driver user interface
KR101841948B1 (en) * 2015-10-02 2018-03-26 엘지전자 주식회사 Apparatus, Method and Mobile Terminal for providing service to prevent lost article on inner Vehicle
US10046637B2 (en) 2015-12-11 2018-08-14 Ford Global Technologies, Llc In-vehicle component control user interface
US10635994B2 (en) * 2015-12-11 2020-04-28 Lyft, Inc. System for navigating driver to passenger for ride authorized by another user of transportation service
US9766344B2 (en) * 2015-12-22 2017-09-19 Honda Motor Co., Ltd. Multipath error correction
US11508026B2 (en) 2015-12-31 2022-11-22 Lyft, Inc. System for navigating transportation service providers to fulfill transportation requests authorized by an organization
US10082877B2 (en) 2016-03-15 2018-09-25 Ford Global Technologies, Llc Orientation-independent air gesture detection service for in-vehicle environments
US20170277182A1 (en) * 2016-03-24 2017-09-28 Magna Electronics Inc. Control system for selective autonomous vehicle control
US20170291539A1 (en) * 2016-04-07 2017-10-12 General Motors Llc Systems and methods for detecting objects within a vehicle
CN105809902B (en) * 2016-04-13 2017-03-29 京东方科技集团股份有限公司 A kind of taxi monitoring method, apparatus and system
US9720416B1 (en) 2016-04-18 2017-08-01 Ford Global Technologies, Llc Vehicle security system
US9914415B2 (en) 2016-04-25 2018-03-13 Ford Global Technologies, Llc Connectionless communication with interior vehicle components
US9741225B1 (en) * 2016-04-28 2017-08-22 Abu Dhabi University Safety detection system and method
US10037033B2 (en) * 2016-06-15 2018-07-31 Ford Global Technologies, Llc Vehicle exterior surface object detection
US10163219B2 (en) * 2016-06-24 2018-12-25 Fca Us Llc Machine vision cargo monitoring in a vehicle
US10621515B2 (en) * 2016-06-30 2020-04-14 At&T Intellectual Property I, L.P. Optimized traffic management via an electronic driving pass
US11599833B2 (en) * 2016-08-03 2023-03-07 Ford Global Technologies, Llc Vehicle ride sharing system and method using smart modules
US10414344B1 (en) * 2016-09-01 2019-09-17 Apple Inc. Securable storage compartments
DE102016222006A1 (en) * 2016-11-09 2018-05-09 Audi Ag Method for operating a motor vehicle in a fully autonomous driving mode
US10311314B2 (en) 2016-11-23 2019-06-04 Ford Global Technologies, Llc Detection of lane-splitting motorcycles
US10753754B2 (en) * 2017-01-19 2020-08-25 Andrew DeLizio Managing autonomous vehicles
JP6676559B2 (en) * 2017-01-30 2020-04-08 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Management device, delivery support method and program
US10290158B2 (en) 2017-02-03 2019-05-14 Ford Global Technologies, Llc System and method for assessing the interior of an autonomous vehicle
US10768630B2 (en) * 2017-02-09 2020-09-08 International Business Machines Corporation Human imperceptible signals
US10053088B1 (en) 2017-02-21 2018-08-21 Zoox, Inc. Occupant aware braking system
US10220857B2 (en) * 2017-02-23 2019-03-05 Uber Technologies, Inc. Vehicle control system
JP6769383B2 (en) 2017-04-13 2020-10-14 トヨタ自動車株式会社 Automatic driving device and notification method
US10509974B2 (en) 2017-04-21 2019-12-17 Ford Global Technologies, Llc Stain and trash detection systems and methods
US10679312B2 (en) * 2017-04-25 2020-06-09 Lyft Inc. Dynamic autonomous vehicle servicing and management
US10304165B2 (en) * 2017-05-12 2019-05-28 Ford Global Technologies, Llc Vehicle stain and trash detection systems and methods
US11062587B2 (en) 2017-05-12 2021-07-13 Ford Global Technologies, Llc Object detection
US11493348B2 (en) 2017-06-23 2022-11-08 Direct Current Capital LLC Methods for executing autonomous rideshare requests
WO2019005120A1 (en) * 2017-06-30 2019-01-03 Intel Corporation Accessibility method and apparatus for autonomous/semi-autonomous driving
US10416671B2 (en) * 2017-07-11 2019-09-17 Waymo Llc Methods and systems for vehicle occupancy confirmation
US11200530B2 (en) 2017-08-21 2021-12-14 Ford Global Technologies, Llc Object detection
CA3020868A1 (en) * 2017-10-16 2019-04-16 Flex Ltd. Method and system for tracking and optimizing cargo utilization and volume measurement and imaging sensing using lidars and video cameras
JP6958255B2 (en) * 2017-11-07 2021-11-02 トヨタ自動車株式会社 Information processing device and information processing method
US11106927B2 (en) * 2017-12-27 2021-08-31 Direct Current Capital LLC Method for monitoring an interior state of an autonomous vehicle
US11262756B2 (en) * 2018-01-15 2022-03-01 Uatc, Llc Discrete decision architecture for motion planning system of an autonomous vehicle
US10838425B2 (en) * 2018-02-21 2020-11-17 Waymo Llc Determining and responding to an internal status of a vehicle
JP6996359B2 (en) * 2018-03-09 2022-01-17 トヨタ自動車株式会社 Forgotten prevention support method, terminal device and forgotten prevention support system
JP2019168815A (en) 2018-03-22 2019-10-03 東芝メモリ株式会社 Information processing device, information processing method, and information processing program
DE102018204383A1 (en) 2018-03-22 2019-09-26 Audi Ag Transport means for transporting a cargo and / or a person, method for operating a means of transport and transport system
US10311704B1 (en) * 2018-03-29 2019-06-04 Futurewei Technologies, Inc. Passenger-related item loss mitigation
CN108422938B (en) * 2018-03-30 2024-04-05 斑马网络技术有限公司 Vehicle with sensing device and application
JP2020004252A (en) * 2018-06-29 2020-01-09 株式会社東芝 Residue detection system
US11080975B2 (en) * 2018-06-29 2021-08-03 Baidu Usa Llc Theft proof techniques for autonomous driving vehicles used for transporting goods
US11354692B2 (en) 2018-08-01 2022-06-07 Motional Ad Llc System and method for keeping an automated-taxi clean
CN109254581B (en) * 2018-08-10 2021-07-02 合肥哈工库讯智能科技有限公司 AGV dolly intelligent operation regulation and control system based on running state analysis
US10573162B1 (en) * 2018-08-21 2020-02-25 Ford Global Technologies, Llc Tracking smart devices in vehicles technical field
US11494707B2 (en) * 2018-08-22 2022-11-08 Denso International America, Inc. System and method of determining real-time location
US10515535B1 (en) * 2018-08-24 2019-12-24 General Motors Llc System and method to provide a misplacement notification
US11599963B2 (en) * 2018-09-25 2023-03-07 Uber Technologies, Inc. Pairing transport service users and drivers using animation
DE102018216761A1 (en) * 2018-09-28 2020-04-02 Zf Friedrichshafen Ag Device and method for recognizing an actual state of an interior of a people mover
JP7047697B2 (en) 2018-10-05 2022-04-05 トヨタ自動車株式会社 Driving support device, driving support system, driving support method, and computer program for driving support
JP7119871B2 (en) * 2018-10-05 2022-08-17 トヨタ自動車株式会社 Lost-and-found delivery support device, lost-and-found delivery support system, lost-and-found delivery support method, and computer program for lost-and-found delivery support
US10687045B2 (en) * 2018-10-23 2020-06-16 Zebra Technologies Corporation Systems and methods for idle time in commercial trailer loading
FR3091379A1 (en) * 2018-10-31 2020-07-03 Valeo Comfort And Driving Assistance UNIT, SYSTEM AND METHOD FOR DETECTION OF AN OBJECT OR DEGRADATION IN A COCKPIT OF A MOTOR VEHICLE
JP7040409B2 (en) * 2018-11-07 2022-03-23 トヨタ自動車株式会社 Mobility service support devices, mobility systems, mobility service support methods, and computer programs for mobility service support
CN112368736A (en) * 2018-12-07 2021-02-12 松下电器(美国)知识产权公司 Information processing method, information processing apparatus, and program
CN113196349A (en) * 2018-12-20 2021-07-30 金泰克斯公司 System and method for monitoring shared riding of automobiles
US10796174B2 (en) * 2018-12-21 2020-10-06 Nissan North America, Inc. Distance and object based external notification system for automated hailing service
US11520331B2 (en) * 2018-12-28 2022-12-06 Intel Corporation Methods and apparatus to update autonomous vehicle perspectives
US11353870B2 (en) * 2018-12-31 2022-06-07 Baidu Usa Llc Autonomous driving computing and storage expansion device with flexible host and client configuration
US10872253B2 (en) * 2019-02-08 2020-12-22 Ford Global Technologies, Llc Method and apparatus for vehicle interior evaluation and situational servicing
CN109857114A (en) * 2019-02-26 2019-06-07 温州市职业中等专业学校 Campus Mobile Intelligent Robot and campus intelligent management system
EP3934240A4 (en) * 2019-03-01 2022-10-12 Hitachi, Ltd. Unattended object detection device and unattended object detection method
US11501401B2 (en) * 2019-03-02 2022-11-15 ANI Technologies Private Limited Allocation of vehicles using fitness information
JP2020142570A (en) * 2019-03-04 2020-09-10 テイ・エス テック株式会社 Notification system and vehicle mounted with the same
US11100347B2 (en) 2019-03-12 2021-08-24 Ford Global Technologies, Llc Photometric stereo object detection for articles left in an autonomous vehicle
US10887724B2 (en) 2019-05-01 2021-01-05 International Business Machines Corporation Locating a mobile device and notifying a user of the mobile device location
JP7180535B2 (en) * 2019-05-23 2022-11-30 トヨタ自動車株式会社 Information processing device, information processing method and program
DE102019208871A1 (en) * 2019-06-18 2020-12-24 Thyssenkrupp Ag Device and method for determining the interior state of a vehicle
KR102267192B1 (en) * 2019-08-14 2021-06-18 엘지전자 주식회사 Apparatus and method for detecting falling object
US10854055B1 (en) * 2019-10-17 2020-12-01 The Travelers Indemnity Company Systems and methods for artificial intelligence (AI) theft prevention and recovery
CN113147588A (en) * 2020-01-22 2021-07-23 奥迪股份公司 Reminder system for a vehicle, vehicle comprising same, and corresponding method and medium
US11738713B2 (en) * 2020-01-23 2023-08-29 Ford Global Technologies, Llc Vehicle security system
US10834538B1 (en) * 2020-02-12 2020-11-10 International Business Machines Corporation Locating a mobile device and notifying a user of the mobile device location
US11062416B1 (en) * 2020-02-28 2021-07-13 Sos Lab Co., Ltd. Shared vehicle service providing method performed by server communicating with user device of passenger and autonomous vehicle
US11594046B2 (en) * 2020-03-26 2023-02-28 Pony Ai Inc. Vehicle cargo cameras for sensing vehicle characteristics
DE102020204291A1 (en) * 2020-04-02 2021-10-07 Volkswagen Aktiengesellschaft Method for manufacturing a vehicle and seat belt assembly
KR20220003320A (en) * 2020-07-01 2022-01-10 현대자동차주식회사 Vehicle and method of managing in-car cleanliness for the same
US11928406B2 (en) * 2020-07-02 2024-03-12 Ford Global Technologies, Llc Systems and methods for creating infrastructure models
US11756145B2 (en) * 2020-07-20 2023-09-12 Ford Global Technologies, Llc Systems and methods for providing a unified transportation service
USD960901S1 (en) 2020-10-30 2022-08-16 Zoox, Inc. Display screen or portion thereof having a graphical user interface
US11953586B2 (en) 2020-11-17 2024-04-09 Ford Global Technologies, Llc Battery-powered vehicle sensors
US11760281B2 (en) * 2020-11-17 2023-09-19 Ford Global Technologies, Llc Battery-powered vehicle sensors
US11675349B2 (en) * 2020-11-30 2023-06-13 Zoox, Inc. User interface for remote vehicle monitoring
CN112590814A (en) * 2020-12-17 2021-04-02 上海悦充网络科技有限公司 Vehicle automatic driving control method and system based on Internet of vehicles
US11475755B2 (en) 2021-03-02 2022-10-18 Gm Cruise Holdings Llc Forgotten mobile device detection and management
US11780349B2 (en) 2021-03-10 2023-10-10 Toyota Motor Engineering & Manufacturing North America, Inc. System and method for detecting objects left behind by using heated resistive filament in a vehicle
US11951937B2 (en) 2021-03-12 2024-04-09 Ford Global Technologies, Llc Vehicle power management
US11912235B2 (en) 2021-03-12 2024-02-27 Ford Global Technologies, Llc Vehicle object detection
US11916420B2 (en) 2021-03-12 2024-02-27 Ford Global Technologies, Llc Vehicle sensor operation
FR3121101B1 (en) * 2021-03-29 2023-05-26 Psa Automobiles Sa Method for detecting and identifying an object placed in a storage compartment of a motor vehicle and associated storage compartment
US11904784B2 (en) * 2021-08-16 2024-02-20 Motional Ad Llc Detecting objects within a vehicle
US11836760B1 (en) * 2022-07-01 2023-12-05 Gm Cruise Holdings Llc Vehicle advertising platform

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090216600A1 (en) * 2008-02-27 2009-08-27 Montiss Llc Systems and methods for arranging a transport transaction
CN202394343U (en) * 2011-12-12 2012-08-22 浙江金刚汽车有限公司 Voice prompt system for preventing forgetting articles on taxi
CN104601648A (en) * 2013-10-31 2015-05-06 通用汽车环球科技运作有限责任公司 Methods, systems and apparatus for providing notification that a wireless communication device has been left inside a vehicle

Family Cites Families (257)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5144685A (en) 1989-03-31 1992-09-01 Honeywell Inc. Landmark recognition for autonomous mobile robots
US7983817B2 (en) * 1995-06-07 2011-07-19 Automotive Technologies Internatinoal, Inc. Method and arrangement for obtaining information about vehicle occupants
US7783403B2 (en) 1994-05-23 2010-08-24 Automotive Technologies International, Inc. System and method for preventing vehicular accidents
US5654615A (en) * 1994-12-15 1997-08-05 Asc Incorporated Storage compartment sensor system for use with an automotive vehicle convertible roof
US7313467B2 (en) * 2000-09-08 2007-12-25 Automotive Technologies International Inc. System and method for in-vehicle communications
JP3634006B2 (en) 1995-06-09 2005-03-30 株式会社ザナヴィ・インフォマティクス Current position calculation device
US5751852A (en) 1996-04-29 1998-05-12 Xerox Corporation Image structure map data structure for spatially indexing an imgage
US5809179A (en) 1996-05-31 1998-09-15 Xerox Corporation Producing a rendered image version of an original image using an image structure map representation of the image
WO1998003021A1 (en) 1996-06-28 1998-01-22 Sri International Small vision module for real-time stereo and motion analysis
DE69733151T2 (en) 1996-12-16 2006-01-26 Xanavi Informatics Corp., Zama MAP DATABASE UNIT
US8209120B2 (en) 1997-10-22 2012-06-26 American Vehicular Sciences Llc Vehicular map database management techniques
US7840342B1 (en) 1997-10-22 2010-11-23 Intelligent Technologies International, Inc. Road physical condition monitoring techniques
US6922622B2 (en) * 1999-06-03 2005-07-26 Robert Bosch Corporation Hot vehicle safety system and methods of preventing passenger entrapment and heat suffocation
US6385539B1 (en) 1999-08-13 2002-05-07 Daimlerchrysler Ag Method and system for autonomously developing or augmenting geographical databases by mining uncoordinated probe data
CN1494697A (en) * 2000-02-29 2004-05-05 ��ϰ�� Delivery system and method for vehicles and the like
US7352454B2 (en) 2000-11-09 2008-04-01 Canesta, Inc. Methods and devices for improved charge management for three-dimensional and color sensing
US6559776B2 (en) 2001-02-15 2003-05-06 Yoram Katz Parking status control system and method
DE10110373C2 (en) 2001-03-03 2003-03-06 Wolfgang Daum Method and device for cleaning the interior of automobiles
FR2826727B1 (en) 2001-06-29 2004-05-28 Valeo Vision METHOD AND DEVICE FOR DETECTING THE HUMIDITY OF A ROAD ON WHICH A VEHICLE IS MOVING
US6542111B1 (en) 2001-08-13 2003-04-01 Yazaki North America, Inc. Path prediction for vehicular collision warning system
US20030040944A1 (en) * 2001-08-22 2003-02-27 Hileman Ryan M. On-demand transportation system
US6856282B2 (en) 2002-02-08 2005-02-15 Qualcomm Incorporated Directly acquiring precision code GPS signals
FR2836418A1 (en) 2002-02-22 2003-08-29 Michelin Soc Tech Vehicle tire tread, for measuring road surface adhesion, comprises tread block(s) consisting of central zone, surrounding zone and detector applied to external radial summit of tread
US7124027B1 (en) 2002-07-11 2006-10-17 Yazaki North America, Inc. Vehicular collision avoidance system
US6795031B1 (en) 2002-07-12 2004-09-21 Yazaki North America, Inc. Mechanically scanned parabolic reflector antenna
US7102496B1 (en) 2002-07-30 2006-09-05 Yazaki North America, Inc. Multi-sensor integration for a vehicle
JP3860518B2 (en) 2002-08-12 2006-12-20 株式会社豊田中央研究所 Road friction estimation device
JP4416996B2 (en) 2002-11-01 2010-02-17 三菱電機株式会社 Map information processing apparatus and map information providing apparatus
US6807473B1 (en) 2003-04-09 2004-10-19 Continental Teves, Inc. Road recognition system
JP2005028887A (en) 2003-07-07 2005-02-03 Fuji Heavy Ind Ltd Method and device for estimating road surface friction coefficient
DE602004004014T2 (en) 2003-08-26 2007-04-26 Fuji Jukogyo K.K. Apparatus and method for assessing tire type and road surface conditions for vehicles
US7359787B2 (en) 2003-09-03 2008-04-15 Nsk Ltd. Stability control apparatus and load measuring instrument for wheel supporting rolling bearing unit
JP4419672B2 (en) * 2003-09-16 2010-02-24 株式会社デンソー Vehicle left behind prevention device
DE602004027699D1 (en) 2003-11-26 2010-07-29 Nissan Motor Lane keeping device for a motor vehicle
US20160267720A1 (en) 2004-01-30 2016-09-15 Electronic Scripting Products, Inc. Pleasant and Realistic Virtual/Augmented/Mixed Reality Experience
JP2005271824A (en) 2004-03-25 2005-10-06 Mitsubishi Fuso Truck & Bus Corp Vehicular behavior control device
US20100013615A1 (en) 2004-03-31 2010-01-21 Carnegie Mellon University Obstacle detection having enhanced classification
DE102004016288B3 (en) 2004-04-02 2005-08-18 Daimlerchrysler Ag Determining friction value between vehicle tire, road involves evaluating tire vibration characteristic(s), especially frequency spectrum and/or time domain spectrum, by evaluating data using physical and/or phenomenological model approach
ATE552478T1 (en) 2004-06-03 2012-04-15 Making Virtual Solid L L C NAVIGATIONAL DISPLAY METHOD AND APPARATUS FOR ON-GOING USING A HEAD-UP DISPLAY
WO2005125003A2 (en) * 2004-06-15 2005-12-29 Sarnoff Corporation Method and apparatus for detecting left objects
US8594370B2 (en) 2004-07-26 2013-11-26 Automotive Systems Laboratory, Inc. Vulnerable road user protection system
US7587899B2 (en) 2004-08-27 2009-09-15 University Of Houston Shape memory alloy actuated adaptive exhaust nozzle for jet engine
JP2006159939A (en) * 2004-12-02 2006-06-22 Xanavi Informatics Corp Notice device for in-cabin object to be informed
US20060126975A1 (en) 2004-12-10 2006-06-15 Mckellar Randy R Easy opening rear seam bags and packaging methods
US7250869B2 (en) * 2005-03-21 2007-07-31 Davis Le Roychelle Child carseat alert system
US7539574B2 (en) 2005-03-22 2009-05-26 Denso Corporation Vehicular navigation system
US20060223637A1 (en) 2005-03-31 2006-10-05 Outland Research, Llc Video game system combining gaming simulation with remote robot control and remote robot feedback
US8090491B2 (en) 2005-07-26 2012-01-03 Macdonald Dettwiler & Associates Inc. Guidance, navigation, and control system for a vehicle
WO2007037186A1 (en) * 2005-09-28 2007-04-05 Pioneer Corporation Waypoint setting device, information presentation device, waypoint setting method, waypoint setting program, and recording medium
US8164628B2 (en) 2006-01-04 2012-04-24 Mobileye Technologies Ltd. Estimating distance to an object using a sequence of images recorded by a monocular camera
US7994465B1 (en) 2006-02-06 2011-08-09 Microsoft Corporation Methods and devices for improved charge management for three-dimensional and color sensing
US9373149B2 (en) 2006-03-17 2016-06-21 Fatdoor, Inc. Autonomous neighborhood vehicle commerce network and community
US20090070034A1 (en) 2006-03-17 2009-03-12 Christopher L Oesterling Method for recording an annotation and making it available for later playback
DE602006013274D1 (en) 2006-03-31 2010-05-12 Research In Motion Ltd Card version control method and apparatus for updating the use of network maintained map data sets for mobile communication devices
DE102006018029A1 (en) 2006-04-19 2007-10-25 Robert Bosch Gmbh Device and method for controlling personal protection devices
US7999849B2 (en) 2006-05-17 2011-08-16 The Boeing Company Moving object detection
DE102006027121A1 (en) 2006-06-12 2007-12-13 Robert Bosch Gmbh Image acquisition system and method for determining distance with an image acquisition system
JP2008027239A (en) * 2006-07-21 2008-02-07 Denso Corp Apparatus for preventing belongings from being left behind
US20080033645A1 (en) 2006-08-03 2008-02-07 Jesse Sol Levinson Pobabilistic methods for mapping and localization in arbitrary outdoor environments
JP4915268B2 (en) 2006-12-22 2012-04-11 株式会社エクォス・リサーチ Vehicle control device
JP4848994B2 (en) 2006-12-22 2011-12-28 株式会社エクォス・リサーチ Vehicle control device
JP4897516B2 (en) 2007-02-28 2012-03-14 アイシン・エィ・ダブリュ株式会社 Navigation device and data update system
JP5075443B2 (en) 2007-03-27 2012-11-21 アイシン・エィ・ダブリュ株式会社 Road map data generation device, navigation device, and road map data generation program
JP4903616B2 (en) 2007-03-29 2012-03-28 アイシン・エィ・ダブリュ株式会社 Map update data supply device, map data update system, and map update data supply method
JP4576445B2 (en) 2007-04-12 2010-11-10 パナソニック株式会社 Autonomous mobile device and program for autonomous mobile device
JP2008262459A (en) * 2007-04-13 2008-10-30 Fujitsu Ten Ltd Mislaying announcing device
US20100217491A1 (en) 2007-07-02 2010-08-26 Equos Research Co., Ltd. Camber angle controlling device
JP2009012635A (en) 2007-07-05 2009-01-22 Denso Corp Vehicular cleaning device
US8385658B2 (en) 2007-07-27 2013-02-26 Sportvision, Inc. Detecting an object in an image using multiple templates
JP4858381B2 (en) * 2007-09-19 2012-01-18 株式会社デンソー Car left behind prevention device
US8145402B2 (en) 2007-12-05 2012-03-27 Lockheed Martin Corporation GPS-based traction control system and method using data transmitted between vehicles
US20090146813A1 (en) * 2007-12-10 2009-06-11 Acropolis Engineering Automobile forgotten passenger alarm and notification
EP2242994A1 (en) 2008-02-04 2010-10-27 Tele Atlas North America Inc. Method for map matching with sensor detected objects
JP4613970B2 (en) 2008-03-12 2011-01-19 トヨタ自動車株式会社 Vehicle lighting device
KR100862561B1 (en) 2008-03-13 2008-10-09 (주) 서돌 전자통신 A system for sensing a traffic accident
EP2135783A1 (en) 2008-06-18 2009-12-23 GM Global Technology Operations, Inc. Motor vehicle driver assisting method
US9519921B2 (en) * 2008-06-27 2016-12-13 E-Lantis Corporation GPS and wireless integrated fleet management system and method
US20100020170A1 (en) 2008-07-24 2010-01-28 Higgins-Luthman Michael J Vehicle Imaging System
US8126642B2 (en) 2008-10-24 2012-02-28 Gray & Company, Inc. Control and systems for autonomously driven vehicles
US8364334B2 (en) 2008-10-30 2013-01-29 Honeywell International Inc. System and method for navigating an autonomous vehicle using laser detection and ranging
US8417414B2 (en) * 2008-12-11 2013-04-09 Infosys Technologies Limited Method and system for managing passenger and vehicle safety
DE102008055159A1 (en) 2008-12-29 2010-07-01 Robert Bosch Gmbh Adaptive angle and power adjustment for 3D micromirror lidar
US8677145B2 (en) 2009-02-27 2014-03-18 Atmel Corporation Single pin communication mechanism
US9278693B2 (en) 2009-03-24 2016-03-08 Ford Global Technologies, Llc System and method for improving vehicle performance on grade
JP2010231415A (en) * 2009-03-26 2010-10-14 Denso Corp Monitoring device for vehicle
US8180547B2 (en) 2009-03-27 2012-05-15 Ford Global Technologies, Llc Telematics system and method for traction reporting and control in a vehicle
US8352111B2 (en) 2009-04-06 2013-01-08 GM Global Technology Operations LLC Platoon vehicle management
US8150620B2 (en) 2009-04-14 2012-04-03 Alpine Electronics, Inc. Route search method and apparatus for navigation system utilizing map data of XML format
US8872964B2 (en) 2009-05-20 2014-10-28 Express Imaging Systems, Llc Long-range motion detection for illumination control
JP5461065B2 (en) 2009-05-21 2014-04-02 クラリオン株式会社 Current position specifying device and current position specifying method
RU2400592C1 (en) * 2009-08-17 2010-09-27 Александр Макарович Салдаев Method of transport network creation
US20110046784A1 (en) 2009-08-18 2011-02-24 Noel Wayne Anderson Asymmetric stereo vision system
US9552726B2 (en) 2009-08-24 2017-01-24 Here Global B.V. Providing driving condition alerts using road attribute data
US8301374B2 (en) 2009-08-25 2012-10-30 Southwest Research Institute Position estimation for ground vehicle navigation based on landmark identification/yaw rate and perception of landmarks
US8306672B2 (en) 2009-09-09 2012-11-06 GM Global Technology Operations LLC Vehicular terrain detection system and method
WO2011038018A1 (en) 2009-09-23 2011-03-31 Earthsearch Communications International, Inc. Device and process for monitoring secure storage and delivery of items
KR101662595B1 (en) 2009-11-03 2016-10-06 삼성전자주식회사 User terminal, route guide system and route guide method thereof
US8559673B2 (en) 2010-01-22 2013-10-15 Google Inc. Traffic signal mapping and detection
WO2011116375A1 (en) 2010-03-19 2011-09-22 Northeastern University Roaming mobile sensor platform for collecting geo-referenced data and creating thematic maps
WO2011162227A1 (en) 2010-06-24 2011-12-29 富士フイルム株式会社 Stereoscopic panoramic image synthesis device, image capturing device, stereoscopic panoramic image synthesis method, recording medium, and computer program
US20120006610A1 (en) * 2010-07-09 2012-01-12 Erik Wallace Telematics enhanced mobile device safety interlock
US8532336B2 (en) 2010-08-17 2013-09-10 International Business Machines Corporation Multi-mode video event indexing
EP2617025B1 (en) 2010-09-13 2019-05-08 Barry Lynn Jenkins Delivering and controlling streaming interactive media comprising renderable geometric, texture and lighting data
AU2011305154B2 (en) 2010-09-24 2015-02-05 Irobot Corporation Systems and methods for VSLAM optimization
US8509982B2 (en) 2010-10-05 2013-08-13 Google Inc. Zone driving
GB201018815D0 (en) 2010-11-08 2010-12-22 Tomtom Int Bv High-definition weather for improved routing and navigation systems
JP2012127861A (en) 2010-12-16 2012-07-05 Sumitomo Electric Ind Ltd Vehicle travel support system, computer program, and vehicle travel support method
US8626451B2 (en) 2010-12-21 2014-01-07 Delphi Technologies, Inc. Method and device for characterization and sensing of exhaust gas and control of engines and components for aftertreatment of exhaust gases
DE102011010205A1 (en) 2011-02-03 2011-10-06 Daimler Ag Device for cleaning inner space of motor vehicle i.e. car, has locomotion element e.g. autonomous movable robot, through which device is autonomously moved to predetermined area which is to-be-cleaned at inner space of vehicle
US20120296539A1 (en) 2011-03-23 2012-11-22 Tk Holdings Inc. Driver assistance system
US20120242492A1 (en) * 2011-03-25 2012-09-27 Tov 1 LLC Seat occupancy detection and display system
US20120283912A1 (en) 2011-05-05 2012-11-08 GM Global Technology Operations LLC System and method of steering override end detection for automated lane centering
US9140792B2 (en) 2011-06-01 2015-09-22 GM Global Technology Operations LLC System and method for sensor based environmental model construction
US20120327410A1 (en) 2011-06-23 2012-12-27 Cvg Management Corporation Non-contact media detection system using reflection/absoption spectroscopy
JP5565385B2 (en) 2011-07-16 2014-08-06 株式会社デンソー VEHICLE WIRELESS COMMUNICATION DEVICE AND COMMUNICATION SYSTEM
US9612797B2 (en) * 2011-08-25 2017-04-04 Ford Global Technologies, Llc Method and apparatus for a near field communication system to exchange occupant information
DE102011111592A1 (en) 2011-08-25 2013-02-28 Wabco Gmbh Method and control device for controlling or regulating a vehicle brake system
US20130060461A1 (en) 2011-09-07 2013-03-07 INRO Technologies Limited Method and apparatus for using pre-positioned objects to localize an industrial vehicle
US8798840B2 (en) 2011-09-30 2014-08-05 Irobot Corporation Adaptive mapping with spatial summaries of sensor data
CN102390370B (en) 2011-10-25 2013-07-03 河海大学 Stereoscopic vision based emergency treatment device and method for running vehicles
EP2589932B1 (en) 2011-11-07 2017-02-08 Elektrobit Automotive GmbH Technique for structuring a navigation database
JP5846485B2 (en) 2011-11-30 2016-01-20 株式会社リコー Adhering matter detection apparatus and adhering matter detection method
US20140309913A1 (en) 2013-04-15 2014-10-16 Flextronics Ap, Llc Relay and Exchange Protocol in an Automated Zone-Based Vehicular Traffic Control Environment
US8825265B1 (en) 2012-03-16 2014-09-02 Google Inc. Approach for consolidating observed vehicle trajectories into a single representative trajectory
US9145140B2 (en) 2012-03-26 2015-09-29 Google Inc. Robust method for detecting traffic signals and their associated states
WO2013155661A1 (en) * 2012-04-16 2013-10-24 Harman International (Shanghai) Management Co., Ltd. A monitoring system in a vehicle and a method performed therein
US8521352B1 (en) 2012-05-07 2013-08-27 Google Inc. Controlling a vehicle having inadequate map data
US10089537B2 (en) 2012-05-18 2018-10-02 Magna Electronics Inc. Vehicle vision system with front and rear camera integration
DE102012209172A1 (en) 2012-05-31 2013-12-05 Osram Gmbh Lens with internal reflecting reflection layer
JP5422702B2 (en) 2012-06-04 2014-02-19 本田技研工業株式会社 Vehicle display device
US9958272B2 (en) 2012-08-10 2018-05-01 Telogis, Inc. Real-time computation of vehicle service routes
US9056395B1 (en) 2012-09-05 2015-06-16 Google Inc. Construction zone sign detection using light detection and ranging
US9036865B2 (en) 2012-09-12 2015-05-19 International Business Machines Corporation Location determination for an object using visual data
US9158980B1 (en) 2012-09-19 2015-10-13 Google Inc. Use of relationship between activities of different traffic signals in a network to improve traffic signal state estimation
US9110196B2 (en) 2012-09-20 2015-08-18 Google, Inc. Detecting road weather conditions
US9383753B1 (en) 2012-09-26 2016-07-05 Google Inc. Wide-view LIDAR with areas of special attention
JP2014074699A (en) 2012-10-05 2014-04-24 Denso Corp Map information processor, and computer program
US9097800B1 (en) 2012-10-11 2015-08-04 Google Inc. Solid object detection system using laser and radar sensor fusion
US8941676B2 (en) 2012-10-26 2015-01-27 Nvidia Corporation On-chip anti-alias resolve in a cache tiling architecture
WO2014072972A1 (en) * 2012-11-08 2014-05-15 Maimoni Iris System and method for determining whether items have been left in vehicles
US9246788B2 (en) 2012-11-09 2016-01-26 Cisco Technology, Inc. Apparatus, system, and method for providing energy management, profiles, and message blocks in a cable service environment
DE102012112725A1 (en) 2012-12-20 2014-06-26 Continental Teves Ag & Co. Ohg Friction estimation from camera and wheel speed data
JP6006113B2 (en) 2012-12-28 2016-10-12 株式会社日立製作所 Map distribution server for car navigation device, map data distribution system, and road difference data generation method
DE102013200430A1 (en) * 2013-01-14 2014-07-17 Continental Automotive Gmbh System for the transport of luggage
US8917190B1 (en) 2013-01-23 2014-12-23 Stephen Waller Melvin Method of restricting turns at vehicle intersections
US20140222298A1 (en) 2013-02-03 2014-08-07 Michael H. Gurin Systems For a Shared Vehicle
CN104919279A (en) 2013-02-22 2015-09-16 爱信艾达株式会社 Navigation system, navigation system control method and program
US9045041B2 (en) 2013-02-27 2015-06-02 Here Global B.V. Driver behavior from probe data for augmenting a data model
DE102013101990A1 (en) * 2013-02-28 2014-08-28 Eberhard Göbel GmbH & Co. KG Rental car and method for carrying out a rental of a rental car
US9702349B2 (en) 2013-03-15 2017-07-11 ClearMotion, Inc. Active vehicle suspension system
GB201305067D0 (en) 2013-03-19 2013-05-01 Massive Analytic Ltd Apparatus for controlling a land vehicle which is self-driving or partially self-driving
US9863928B1 (en) 2013-03-20 2018-01-09 United Parcel Service Of America, Inc. Road condition detection system
RU132393U1 (en) 2013-03-21 2013-09-20 Федеральное государственное бюджетное образовательное учреждение высшего профессионального образования "Санкт-Петербургский государственный аграрный университет" DEVICE FOR AUTOMATIC CONTROL OF SAFETY OF MOTION OF VEHICLE
US20140302774A1 (en) 2013-04-04 2014-10-09 General Motors Llc Methods systems and apparatus for sharing information among a group of vehicles
US9632210B2 (en) 2013-05-07 2017-04-25 Google Inc. Methods and systems for detecting weather conditions using vehicle onboard sensors
US9207323B2 (en) 2013-04-11 2015-12-08 Google Inc. Methods and systems for detecting weather conditions including wet surfaces using vehicle onboard sensors
KR101519199B1 (en) 2013-05-09 2015-05-11 현대자동차주식회사 System and Method for Detecting of Road
EP2804096B1 (en) 2013-05-15 2018-03-21 Google LLC Efficient fetching of a map data during animation
US9488483B2 (en) 2013-05-17 2016-11-08 Honda Motor Co., Ltd. Localization using road markings
US9683928B2 (en) 2013-06-23 2017-06-20 Eric Swanson Integrated optical system and components utilizing tunable optical sources and coherent detection and phased array for imaging, ranging, sensing, communications and other applications
JP6217172B2 (en) * 2013-06-25 2017-10-25 日産自動車株式会社 Vehicle interior monitoring device
US9058524B2 (en) 2013-06-28 2015-06-16 Bendix Commercial Vehicle Systems Llc Measuring the range to an object, in an image, using size categorization
US9719801B1 (en) 2013-07-23 2017-08-01 Waymo Llc Methods and systems for calibrating sensors using road map data
DE102013012810A1 (en) 2013-08-01 2015-02-05 Connaught Electronics Ltd. Method for activating and deactivating an image correction function, camera system and motor vehicle
US9327645B2 (en) * 2013-08-28 2016-05-03 Harman International Industries, Incorporated Providing alerts for objects left in a vehicle
US20150106204A1 (en) * 2013-10-11 2015-04-16 General Motors Llc Methods for providing a vehicle with fuel purchasing options
US9187099B2 (en) 2013-10-17 2015-11-17 Richard M. Powers Systems and methods for predicting weather performance for a vehicle
US20150112585A1 (en) 2013-10-22 2015-04-23 Quicken Loans, Inc. Communication System
KR20150058679A (en) 2013-11-20 2015-05-29 한국전자통신연구원 Apparatus and method for localization of autonomous vehicle in a complex
US9915950B2 (en) 2013-12-31 2018-03-13 Polysync Technologies, Inc. Autonomous vehicle interface system
US20150203107A1 (en) 2014-01-17 2015-07-23 Ford Global Technologies, Llc Autonomous vehicle precipitation detection
US20150202770A1 (en) 2014-01-17 2015-07-23 Anthony Patron Sidewalk messaging of an autonomous robot
EP3100206B1 (en) 2014-01-30 2020-09-09 Mobileye Vision Technologies Ltd. Systems and methods for lane end recognition
DE102014201822A1 (en) 2014-02-03 2015-08-06 Robert Bosch Gmbh Method for operating a vehicle
EP3114574A4 (en) 2014-03-03 2018-03-07 Inrix, Inc. Traffic obstruction detection
JP6427908B2 (en) 2014-03-24 2018-11-28 アイシン・エィ・ダブリュ株式会社 Map information generation system, method and program
US20150278759A1 (en) * 2014-03-26 2015-10-01 Go Taxi Truck, LLC System and Method for Vehicle Delivery Tracking Service
US9898759B2 (en) 2014-03-28 2018-02-20 Joseph Khoury Methods and systems for collecting driving information and classifying drivers and self-driving systems
DE102014208009A1 (en) 2014-04-29 2015-10-29 Bayerische Motoren Werke Aktiengesellschaft Capture static and dynamic objects
US9631933B1 (en) 2014-05-23 2017-04-25 Google Inc. Specifying unavailable locations for autonomous vehicles
US10759442B2 (en) 2014-05-30 2020-09-01 Here Global B.V. Dangerous driving event reporting
US9139204B1 (en) 2014-06-12 2015-09-22 GM Global Technology Operations LLC Road surface condition detection with recursive adaptive learning and validation
WO2015195529A1 (en) 2014-06-20 2015-12-23 Google Inc. Integrating online navigation data with cached navigation data during active navigation
JP6032248B2 (en) 2014-07-09 2016-11-24 トヨタ自動車株式会社 Vehicle lighting device
US9409644B2 (en) 2014-07-16 2016-08-09 Ford Global Technologies, Llc Automotive drone deployment system
US9442487B1 (en) 2014-08-15 2016-09-13 Google Inc. Classifier hierarchies for traffic light and traffic indicator detection
US20160055744A1 (en) 2014-08-19 2016-02-25 Qualcomm Incorporated Systems and methods for traffic efficiency and flow control
US9513132B2 (en) 2014-08-21 2016-12-06 Here Global B.V. Measuring quality in optimal navigation routes by navigation systems
US10036639B1 (en) 2014-09-02 2018-07-31 Metromile, Inc. Systems and methods for determining and displaying a route using information determined from a vehicle, user feedback, and a mobile electronic device
EP3018448B1 (en) 2014-11-04 2021-01-06 Volvo Car Corporation Methods and systems for enabling improved positioning of a vehicle
US9475500B2 (en) 2014-11-12 2016-10-25 GM Global Technology Operations LLC Use of participative sensing systems to enable enhanced road friction estimation
KR101641490B1 (en) 2014-12-10 2016-07-21 엘지전자 주식회사 Driver assistance apparatus and Vehicle including the same
US10262213B2 (en) 2014-12-16 2019-04-16 Here Global B.V. Learning lanes from vehicle probes
US9576200B2 (en) 2014-12-17 2017-02-21 Toyota Motor Engineering & Manufacturing North America, Inc. Background map format for autonomous driving
US9815476B2 (en) 2014-12-22 2017-11-14 Here Global B.V. Method and apparatus for providing road surface friction data for a response action
US9453941B2 (en) 2014-12-22 2016-09-27 GM Global Technology Operations LLC Road surface reflectivity detection by lidar sensor
JP6237656B2 (en) 2015-01-19 2017-11-29 トヨタ自動車株式会社 Vehicle system
DE102015216483A1 (en) 2015-01-29 2016-08-04 Robert Bosch Gmbh Method for operating a coefficient of friction database and coefficient of friction database
EP3845427A1 (en) 2015-02-10 2021-07-07 Mobileye Vision Technologies Ltd. Sparse map for autonomous vehicle navigation
GB2535718A (en) * 2015-02-24 2016-08-31 Addison Lee Ltd Resource management
US10002156B2 (en) 2015-03-16 2018-06-19 Here Global B.V. Version management for incrementally compiled map data
EP3096342B1 (en) 2015-03-18 2017-09-20 IMS Nanofabrication AG Bi-directional double-pass multi-beam writing
US9552564B1 (en) * 2015-03-19 2017-01-24 Amazon Technologies, Inc. Autonomous delivery transportation network
US20170023659A1 (en) 2015-05-08 2017-01-26 5D Robotics, Inc. Adaptive positioning system
US9616773B2 (en) 2015-05-11 2017-04-11 Uber Technologies, Inc. Detecting objects within a vehicle in connection with a service
US9494439B1 (en) 2015-05-13 2016-11-15 Uber Technologies, Inc. Autonomous vehicle operated with guide assistance of human driven vehicles
DE202016007736U1 (en) 2015-05-28 2017-01-16 Google Inc. Dynamic integration of offline and online data in a geographic application
US9836056B2 (en) 2015-06-05 2017-12-05 Bao Tran Smart vehicle
US9386230B1 (en) 2015-06-12 2016-07-05 Google Inc. Day and night detection based on one or more of illuminant detection, lux level detection, and tiling
DE102015211482A1 (en) 2015-06-22 2016-12-22 Robert Bosch Gmbh Method and device for determining a minimum value for the coefficient of friction of a road segment
JP6641614B2 (en) 2015-06-22 2020-02-05 本田技研工業株式会社 Map information updating device and map information updating system
JP6376059B2 (en) 2015-07-06 2018-08-22 トヨタ自動車株式会社 Control device for autonomous driving vehicle
US9884623B2 (en) 2015-07-13 2018-02-06 GM Global Technology Operations LLC Method for image-based vehicle localization
DE102015214338A1 (en) 2015-07-29 2017-02-02 Volkswagen Aktiengesellschaft Determining an arrangement information for a vehicle
US10023231B2 (en) 2015-08-12 2018-07-17 Madhusoodhan Ramanujam Parking autonomous vehicles
TWI611279B (en) 2015-08-31 2018-01-11 國立臺北科技大學 Dispatch system for autonomous vehicle
US10002471B2 (en) 2015-09-30 2018-06-19 Ants Technology (Hk) Limited Systems and methods for autonomous vehicle navigation
US9507346B1 (en) 2015-11-04 2016-11-29 Zoox, Inc. Teleoperation system and method for trajectory modification of autonomous vehicles
US9612123B1 (en) 2015-11-04 2017-04-04 Zoox, Inc. Adaptive mapping to navigate autonomous vehicles responsive to physical environment changes
US9958864B2 (en) 2015-11-04 2018-05-01 Zoox, Inc. Coordination of dispatching and maintaining fleet of autonomous vehicles
US9720415B2 (en) 2015-11-04 2017-08-01 Zoox, Inc. Sensor-based object-detection optimization for autonomous vehicles
US9910441B2 (en) 2015-11-04 2018-03-06 Zoox, Inc. Adaptive autonomous vehicle planner logic
WO2017079341A2 (en) 2015-11-04 2017-05-11 Zoox, Inc. Automated extraction of semantic information to enhance incremental mapping modifications for robotic vehicles
US9916703B2 (en) 2015-11-04 2018-03-13 Zoox, Inc. Calibration for autonomous vehicle operation
US9878664B2 (en) 2015-11-04 2018-01-30 Zoox, Inc. Method for robotic vehicle communication with an external environment via acoustic beam forming
US9494940B1 (en) 2015-11-04 2016-11-15 Zoox, Inc. Quadrant configuration of robotic vehicles
US9952591B2 (en) 2015-11-24 2018-04-24 Northrop Grumman Systems Corporation Spatial-temporal forecasting for predictive situational awareness
US10018472B2 (en) 2015-12-10 2018-07-10 Uber Technologies, Inc. System and method to determine traction of discrete locations of a road segment
US9840256B1 (en) 2015-12-16 2017-12-12 Uber Technologies, Inc. Predictive sensor array configuration system for an autonomous vehicle
US9841763B1 (en) 2015-12-16 2017-12-12 Uber Technologies, Inc. Predictive sensor array configuration system for an autonomous vehicle
US9901165B2 (en) 2015-12-21 2018-02-27 Casabella Holdings, L.L.C. Dispensing brush
US10347134B2 (en) 2015-12-31 2019-07-09 Gt Gettaxi Limited System for navigating drivers to selected locations to reduce passenger wait time
US20170227470A1 (en) 2016-02-04 2017-08-10 Proxy Technologies, Inc. Autonomous vehicle, system and method for structural object assessment and manufacture thereof
KR102373926B1 (en) 2016-02-05 2022-03-14 삼성전자주식회사 Vehicle and recognizing method of vehicle's position based on map
US10032085B2 (en) 2016-02-24 2018-07-24 Audi Ag Method and system to identify traffic lights by an autonomous vehicle
US9902403B2 (en) 2016-03-03 2018-02-27 Uber Technologies, Inc. Sensory stimulation for an autonomous vehicle
US9990548B2 (en) 2016-03-09 2018-06-05 Uber Technologies, Inc. Traffic signal analysis system
WO2017161054A1 (en) 2016-03-15 2017-09-21 Solfice Research, Inc. Systems and methods for providing vehicle cognition
US9739881B1 (en) 2016-03-24 2017-08-22 RFNAV, Inc. Low cost 3D radar imaging and 3D association method from low count linear arrays for all weather autonomous vehicle navigation
US9672734B1 (en) 2016-04-08 2017-06-06 Sivalogeswaran Ratnasingam Traffic aware lane determination for human driver and autonomous vehicle driving system
US9953523B2 (en) 2016-04-22 2018-04-24 Here Global B.V. Node-centric navigation optimization
US10459087B2 (en) 2016-04-26 2019-10-29 Uber Technologies, Inc. Road registration differential GPS
US10255816B2 (en) 2016-04-27 2019-04-09 Uber Technologies, Inc. Transport vehicle configuration for impaired riders
JP6418199B2 (en) 2016-04-27 2018-11-07 トヨタ自動車株式会社 Automatic vehicle driving system
US9672446B1 (en) 2016-05-06 2017-06-06 Uber Technologies, Inc. Object detection for an autonomous vehicle
CN105975083B (en) 2016-05-27 2019-01-18 北京小鸟看看科技有限公司 A kind of vision correction methods under reality environment
US10423915B2 (en) 2016-06-02 2019-09-24 Ge Oil & Gas Esp, Inc. System and method for well lifecycle planning visualization
US11721205B2 (en) 2016-06-13 2023-08-08 Here Global B.V. Method, apparatus, and computer program product for processing sensor data
US9953535B1 (en) 2016-06-27 2018-04-24 Amazon Technologies, Inc. Annotated virtual track to inform autonomous vehicle control
US10739786B2 (en) 2016-07-01 2020-08-11 Uatc, Llc System and method for managing submaps for controlling autonomous vehicles
US20180164119A1 (en) 2016-07-29 2018-06-14 Faraday&Future Inc. System and method for generating an environmental condition database using automotive sensors
US10209081B2 (en) 2016-08-09 2019-02-19 Nauto, Inc. System and method for precision localization and mapping
US10438493B2 (en) 2016-08-24 2019-10-08 Uber Technologies, Inc. Hybrid trip planning for autonomous vehicles
US20180060778A1 (en) 2016-08-31 2018-03-01 Uber Technologies, Inc. Driver location prediction for a transportation service
US10699305B2 (en) 2016-11-21 2020-06-30 Nio Usa, Inc. Smart refill assistant for electric vehicles
US10670416B2 (en) 2016-12-30 2020-06-02 DeepMap Inc. Traffic sign feature creation for high definition maps used for navigating autonomous vehicles
US9904375B1 (en) 2017-04-10 2018-02-27 Uber Technologies, Inc. LIDAR display systems and methods

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090216600A1 (en) * 2008-02-27 2009-08-27 Montiss Llc Systems and methods for arranging a transport transaction
CN202394343U (en) * 2011-12-12 2012-08-22 浙江金刚汽车有限公司 Voice prompt system for preventing forgetting articles on taxi
CN104601648A (en) * 2013-10-31 2015-05-06 通用汽车环球科技运作有限责任公司 Methods, systems and apparatus for providing notification that a wireless communication device has been left inside a vehicle

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11505984B2 (en) 2015-05-11 2022-11-22 Uber Technologies, Inc. Detecting objects within a vehicle in connection with a service
US20200125110A1 (en) * 2017-05-12 2020-04-23 Autonomy Squared Llc Robot delivery method
KR20200098837A (en) * 2019-02-13 2020-08-21 충남대학교산학협력단 Lost-and-found notification device that provides information on the occurrence of lost items in public transportation

Also Published As

Publication number Publication date
WO2016183241A1 (en) 2016-11-17
US10329827B2 (en) 2019-06-25
IL255562A (en) 2018-01-31
CA2985619A1 (en) 2016-11-17
US20200270931A1 (en) 2020-08-27
AU2016262526B9 (en) 2021-06-03
RU2725681C2 (en) 2020-07-03
US20170284147A1 (en) 2017-10-05
RU2725681C9 (en) 2020-09-01
US11505984B2 (en) 2022-11-22
CN107873098A (en) 2018-04-03
US20170175431A1 (en) 2017-06-22
RU2017142642A3 (en) 2019-11-20
US9963926B2 (en) 2018-05-08
US9616773B2 (en) 2017-04-11
EP3295421A1 (en) 2018-03-21
US20190271184A1 (en) 2019-09-05
US10662696B2 (en) 2020-05-26
US9790729B2 (en) 2017-10-17
US9909349B2 (en) 2018-03-06
KR102395766B1 (en) 2022-05-10
EP3295421A4 (en) 2018-10-24
US20170284148A1 (en) 2017-10-05
AU2016262526A1 (en) 2017-11-30
IL255562B (en) 2021-10-31
US20160332535A1 (en) 2016-11-17
RU2017142642A (en) 2019-06-11
US20180223584A1 (en) 2018-08-09
AU2016262526B2 (en) 2021-05-20

Similar Documents

Publication Publication Date Title
US11505984B2 (en) Detecting objects within a vehicle in connection with a service
US11605246B2 (en) Programmatically determining location information in connection with a transport service
US11151489B2 (en) Computing system implementing multiple driver selection processes based on device locations
US20200166932A1 (en) Information processing method and apparatus, electronic device, and storage medium
CN111047247B (en) Data processing method and device
CN113525981A (en) Autonomous mobile pico fulfillment center
US11082819B2 (en) Mobility service supporting device, mobility system, mobility service supporting method, and computer program for supporting mobility service
US20210295245A1 (en) Management device, management method, and storage medium
US11989795B1 (en) Partner trip application programming interface
US20220206488A1 (en) Autonomous item delivery
US20230067113A1 (en) Logistics system, logistics management method, and computer-readable medium that stores logistics management program
JP2023079922A (en) Control device, system, program, and notification method
JP2023094712A (en) Unmanned machine, information processing method, program and logistics management system
JP2024007242A (en) Delivery support device, system, and delivery support method

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant