KR20180005693A - Detecting objects in a vehicle in relation to services - Google Patents
Detecting objects in a vehicle in relation to services Download PDFInfo
- Publication number
- KR20180005693A KR20180005693A KR1020177035479A KR20177035479A KR20180005693A KR 20180005693 A KR20180005693 A KR 20180005693A KR 1020177035479 A KR1020177035479 A KR 1020177035479A KR 20177035479 A KR20177035479 A KR 20177035479A KR 20180005693 A KR20180005693 A KR 20180005693A
- Authority
- KR
- South Korea
- Prior art keywords
- vehicle
- service
- sensors
- location
- information
- Prior art date
Links
- 238000012544 monitoring process Methods 0.000 claims abstract description 8
- 230000000246 remedial effect Effects 0.000 claims abstract description 3
- 238000000034 method Methods 0.000 claims description 76
- 238000001514 detection method Methods 0.000 claims description 67
- 230000004044 response Effects 0.000 claims description 35
- 230000009471 action Effects 0.000 claims description 30
- 239000000725 suspension Substances 0.000 claims description 17
- 230000006835 compression Effects 0.000 claims description 6
- 238000007906 compression Methods 0.000 claims description 6
- 230000000977 initiatory effect Effects 0.000 claims 6
- 238000010191 image analysis Methods 0.000 claims 1
- 238000002604 ultrasonography Methods 0.000 claims 1
- 238000002360 preparation method Methods 0.000 description 52
- 238000007726 management method Methods 0.000 description 47
- 230000008569 process Effects 0.000 description 29
- 238000004891 communication Methods 0.000 description 17
- 238000003860 storage Methods 0.000 description 15
- 230000001413 cellular effect Effects 0.000 description 9
- 230000008859 change Effects 0.000 description 9
- 238000012545 processing Methods 0.000 description 9
- 230000033001 locomotion Effects 0.000 description 7
- 238000005259 measurement Methods 0.000 description 7
- 230000007246 mechanism Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 238000012546 transfer Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000004140 cleaning Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 239000008186 active pharmaceutical agent Substances 0.000 description 1
- 230000002730 additional effect Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 239000000969 carrier Substances 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000004817 gas chromatography Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 229920001690 polydopamine Polymers 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 238000005303 weighing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/08—Logistics, e.g. warehousing, loading or distribution; Inventory or stock management
-
- G06Q50/28—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/40—Business processes related to the transportation industry
-
- E—FIXED CONSTRUCTIONS
- E05—LOCKS; KEYS; WINDOW OR DOOR FITTINGS; SAFES
- E05F—DEVICES FOR MOVING WINGS INTO OPEN OR CLOSED POSITION; CHECKS FOR WINGS; WING FITTINGS NOT OTHERWISE PROVIDED FOR, CONCERNED WITH THE FUNCTIONING OF THE WING
- E05F15/00—Power-operated mechanisms for wings
- E05F15/70—Power-operated mechanisms for wings with automatic actuation
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60N—SEATS SPECIALLY ADAPTED FOR VEHICLES; VEHICLE PASSENGER ACCOMMODATION NOT OTHERWISE PROVIDED FOR
- B60N2/00—Seats specially adapted for vehicles; Arrangement or mounting of seats in vehicles
- B60N2/002—Seats provided with an occupancy detection means mounted therein or thereon
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R11/00—Arrangements for holding or mounting articles, not otherwise provided for
- B60R11/04—Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0088—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/08—Logistics, e.g. warehousing, loading or distribution; Inventory or stock management
- G06Q10/083—Shipping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/08—Logistics, e.g. warehousing, loading or distribution; Inventory or stock management
- G06Q10/083—Shipping
- G06Q10/0832—Special goods or special handling procedures, e.g. handling of hazardous or fragile goods
-
- G06Q50/30—
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/18—Status alarms
- G08B21/24—Reminder alarms, e.g. anti-loss alarms
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60N—SEATS SPECIALLY ADAPTED FOR VEHICLES; VEHICLE PASSENGER ACCOMMODATION NOT OTHERWISE PROVIDED FOR
- B60N2210/00—Sensor types, e.g. for passenger detection systems or for controlling seats
- B60N2210/10—Field detection presence sensors
- B60N2210/16—Electromagnetic waves
- B60N2210/22—Optical; Photoelectric; Lidar [Light Detection and Ranging]
- B60N2210/24—Cameras
-
- E—FIXED CONSTRUCTIONS
- E05—LOCKS; KEYS; WINDOW OR DOOR FITTINGS; SAFES
- E05Y—INDEXING SCHEME ASSOCIATED WITH SUBCLASSES E05D AND E05F, RELATING TO CONSTRUCTION ELEMENTS, ELECTRIC CONTROL, POWER SUPPLY, POWER SIGNAL OR TRANSMISSION, USER INTERFACES, MOUNTING OR COUPLING, DETAILS, ACCESSORIES, AUXILIARY OPERATIONS NOT OTHERWISE PROVIDED FOR, APPLICATION THEREOF
- E05Y2400/00—Electronic control; Electrical power; Power supply; Power or signal transmission; User interfaces
- E05Y2400/10—Electronic control
- E05Y2400/44—Sensors not directly associated with the wing movement
-
- E—FIXED CONSTRUCTIONS
- E05—LOCKS; KEYS; WINDOW OR DOOR FITTINGS; SAFES
- E05Y—INDEXING SCHEME ASSOCIATED WITH SUBCLASSES E05D AND E05F, RELATING TO CONSTRUCTION ELEMENTS, ELECTRIC CONTROL, POWER SUPPLY, POWER SIGNAL OR TRANSMISSION, USER INTERFACES, MOUNTING OR COUPLING, DETAILS, ACCESSORIES, AUXILIARY OPERATIONS NOT OTHERWISE PROVIDED FOR, APPLICATION THEREOF
- E05Y2400/00—Electronic control; Electrical power; Power supply; Power or signal transmission; User interfaces
- E05Y2400/10—Electronic control
- E05Y2400/45—Control modes
-
- E—FIXED CONSTRUCTIONS
- E05—LOCKS; KEYS; WINDOW OR DOOR FITTINGS; SAFES
- E05Y—INDEXING SCHEME ASSOCIATED WITH SUBCLASSES E05D AND E05F, RELATING TO CONSTRUCTION ELEMENTS, ELECTRIC CONTROL, POWER SUPPLY, POWER SIGNAL OR TRANSMISSION, USER INTERFACES, MOUNTING OR COUPLING, DETAILS, ACCESSORIES, AUXILIARY OPERATIONS NOT OTHERWISE PROVIDED FOR, APPLICATION THEREOF
- E05Y2900/00—Application of doors, windows, wings or fittings thereof
- E05Y2900/50—Application of doors, windows, wings or fittings thereof for vehicles
- E05Y2900/53—Type of wing
- E05Y2900/548—Trunk lids
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Economics (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Tourism & Hospitality (AREA)
- General Business, Economics & Management (AREA)
- Theoretical Computer Science (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Strategic Management (AREA)
- Aviation & Aerospace Engineering (AREA)
- Operations Research (AREA)
- Entrepreneurship & Innovation (AREA)
- Quality & Reliability (AREA)
- Development Economics (AREA)
- Mechanical Engineering (AREA)
- Health & Medical Sciences (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- General Health & Medical Sciences (AREA)
- Primary Health Care (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Game Theory and Decision Science (AREA)
- Medical Informatics (AREA)
- Emergency Management (AREA)
- Traffic Control Systems (AREA)
- Navigation (AREA)
Abstract
서비스를 제공할 때 사용되는 차량을 모니터링하기 위한 시스템이 개시된다. 시스템은 서비스가 완료될때를 검출하며, 서비스가 완료된 것을 검출할 때, 시스템은 운송 서비스의 완료 이후에 차량으로부터 이전되어야 했던 객체가 차량내에 남아 있음을 차량의 하나 이상의 센서들로부터 결정한다. 이후, 시스템은 교정 액션(remedial action)의 수행을 자동적으로 개시한다.A system for monitoring a vehicle used when providing a service is disclosed. The system detects when the service is complete and when the service detects that the service has been completed, the system determines from the one or more sensors of the vehicle that an object that had to be transferred from the vehicle after the completion of the transportation service remains in the vehicle. Thereafter, the system automatically initiates the execution of the remedial action.
Description
본 출원은 "DETECTING OBJECTS WITHIN A VEHICLE IN CONNECTION WITH A SERVICE"라는 명칭으로 2015년 5월 11일에 출원된 미국 특허 출원번호 제14/708,611호의 우선권을 주장하며, 그에 의해 전술한 출원은 그 전체가 인용에 의해 통합된다. This application claims priority from United States Patent Application Serial No. 14 / 708,611, filed May 11, 2015, entitled " DETECTING OBJECTS WITHIN A VEHICLE IN CONNECTION WITH A SERVICE, " It is incorporated by reference.
서비스 준비 시스템은 모바일 컴퓨팅 디바이스들의 사용을 통해, 요청하는 사용자에게 제공될 서비스를 준비할 수 있다. 예컨대, 사용자는 사용자의 모바일 컴퓨팅 디바이스를 동작시킴으로써 운송 또는 배달 서비스와 같은 서비스를 요청할 수 있으며, 서비스 준비 시스템은 서비스를 제공할 수 있는 적절한 제공자를 선택하기 위하여 요청을 프로세싱할 수 있다. 서비스 준비 시스템은 또한, 서비스 진행 전에 또는 서비스 진행 동안, 이를테면 차량의 현재 위치를 결정하기 위해 서비스를 모니터링할 수 있다.The service provisioning system can prepare services to be provided to the requesting user through the use of mobile computing devices. For example, a user may request a service, such as a shipping or delivery service, by operating the user's mobile computing device, and the service preparation system may process the request to select a suitable provider capable of providing the service. The service preparation system may also monitor the service to determine the current location of the vehicle, such as before or during the service progress.
도 1은 운송 서비스와 관련하여 차량내의 객체들을 검출하기 위한 예시적인 시스템을 예시한다.
도 2은 운송 서비스와 관련하여 차량내의 객체들을 검출하기 위한 예시적인 방법을 예시한다.
도 3은 운송 서비스와 관련하여 차량내의 객체들을 검출하기 위한 다른 예시적인 방법을 예시한다.
도 4a 내지 도 4d은 다양한 사용 사례 예들에서 모바일 컴퓨팅 디바이스상에 디스플레이된 사용자 인터페이스들의 예들을 예시한다.
도 5는 본원에 설명된 실시예들이 구현될 수 있는 컴퓨팅 디바이스를 예시하는 블록도이다.
도 6은 본원에 설명된 예들이 구현될 수 있는 컴퓨터 시스템을 예시하는 블록도이다.Figure 1 illustrates an exemplary system for detecting objects in a vehicle in connection with a transportation service.
Figure 2 illustrates an exemplary method for detecting objects in a vehicle in connection with a transportation service.
Figure 3 illustrates another exemplary method for detecting objects in a vehicle in connection with a transportation service.
Figures 4A-4D illustrate examples of user interfaces displayed on a mobile computing device in various use case examples.
5 is a block diagram illustrating a computing device in which the embodiments described herein may be implemented.
Figure 6 is a block diagram illustrating a computer system in which the examples described herein may be implemented.
본원에 설명된 예들에 따르면, 네트워크 서비스를 구현하는 서비스 준비 시스템은 위치-기반 서비스들에 대한 요청들을 수신하고, 서비스 제공자들에 의해 제공될 그 서비스들을 준비할 수 있다. 본원에서 사용되는 바와같이, 서비스 제공자들은 서비스들에 대한 초청들을 수신 및/또는 수락하는 인간 운전자들(또는 인간-운전 차량들) 및 일부 사례들에서는 상품들 또는 사람들을 운송하기 위하여 네트워크 서비스에 의해 사용될 수 있는 자율(또는 자동-운전) 차량들을 포함할 수 있다. 서비스를 제공하기 위하여 인간-운전 차량이 배정되든지 또는 자율 차량(AV: autonomous vehicle)이 배정되든지 간에, 네트워크 서비스는 프로세스들을 수행하기 위해, 필요한 경우에 배정된 서비스를 보충하기 위하여 그 차량의 센서들의 세트로부터의 정보를 사용할 수 있다. 예컨대, 차량과 연관된 컴퓨팅 시스템은, 센서 데이터의 사용을 통해, 서비스가 적절히 완료되었는지의 여부 또는 객체를 부주의로 차량내에 남겨두었는지의 여부를 결정할 수 있다.According to the examples described herein, a service provisioning system that implements network services can receive requests for location-based services and prepare those services to be provided by service providers. As used herein, service providers may be used by human operators (or human-driven vehicles) to receive and / or accept invitations for services and, in some instances, by network services And may include autonomous (or auto-driving) vehicles that may be used. Whether a human-driven vehicle is assigned to provide the service or an autonomous vehicle (AV) is assigned, the network service is responsible for performing the processes and, if necessary, Information from the set can be used. For example, a computing system associated with a vehicle may determine, through use of sensor data, whether the service has been properly completed or whether the object was inadvertently left in the vehicle.
일부 예들에서, 컴퓨팅 시스템은 위치-기반 서비스를 제공하기 위하여 차량이 준비되었음을 결정할 수 있다. 구현에 따르면, 컴퓨팅 시스템은 차량과 연관된 컴퓨팅 시스템(예컨대, 차량의 온-보드(on-board) 컴퓨팅 시스템 또는 차량 운전자에 의해 동작되는 운전자 디바이스), 또는 네트워크 서비스를 구현하는 컴퓨팅 시스템(들)(예컨대, 차량으로부터 멀리 떨어진 백엔드 서버 시스템(backend server system))에 대응할 수 있다. 서비스의 수행동안, 컴퓨팅 시스템은 제1 시간에 차량의 하나 이상의 센서들로부터의 정보의 제1 세트에 기반하여 객체가 차량내에 놓여 있음을 검출할 수 있다. 본원에서 설명된 바와같이, 센서는 주위 환경의 일부 특징을 검출하거나 또는 이벤트 또는 총량의 변화를 검출하고 대응 출력(예컨대, 센서 데이터)을 제공할 수 있는 디바이스이다. 컴퓨팅 시스템은, 서비스가 완료되고 있는 시간에 또는 서비스가 완료된 이후에, 하나 이상의 센서들로부터의 정보의 제2 세트에 기반하여 객체가 차량으로부터 이전되었는지의 여부를 검출할 수 있다. 객체가 아직 차량내에 존재한다는 (예컨대, 차량으로부터 이전되지 않았다는) 검출에 대한 응답으로, 컴퓨팅 시스템은 교정 액션(remedial action)을 자동적으로 수행할 수 있다(예컨대, 교정 액션은 교정 액션이 수행되지 않을 경우에 수행되지 않았을 추가 동작을 운전자 또는 차량이 수행하게 할 수 있다).In some instances, the computing system may determine that the vehicle is ready to provide location-based services. According to an implementation, the computing system may be a computing system (e.g., an on-board computing system associated with a vehicle or a driver device operated by a vehicle driver), or a computing system (s) (E.g., a backend server system remote from the vehicle). During the performance of the service, the computing system may detect that an object is in the vehicle based on a first set of information from one or more sensors of the vehicle at a first time. As described herein, a sensor is a device that can detect some characteristic of the environment or detect a change in an event or a total amount and provide a corresponding output (e.g., sensor data). The computing system may detect whether an object has been transferred from a vehicle based on a second set of information from one or more sensors at a time when the service is being completed or after the service has been completed. In response to detection that the object is still in the vehicle (e.g., not transferred from the vehicle), the computing system may automatically perform a remedial action (e.g., the calibration action may not be performed In which case the driver or vehicle may perform additional actions that would not have been performed.
다양한 예들에서, 하나 이상의 센서들, 이를테면 카메라들의 세트, 계량 디바이스들의 세트, 서스펜션(suspension sensor) 센서들의 세트, 광 검출 및 레인징(LIDAR: light detection and ranging) 센서들의 세트, 초음파 센서들의 세트, 위치-결정 센서들의 세트, 무선-주파수 센서들(이를테면 블루투스 또는 Wi-Fi 트랜시버들)의 세트 뿐만아니라 다양한 차량 동작들을 위해 사용되는 다른 센서들(예컨대, 엔진 센서들, 타이어 압력 센서들, 도어 개방 또는 폐쇄 센서들, 안전벨트 센서들, AV들용 외부 스테레오 카메라들 또는 LIDAR 센서들 등)을 포함하거나 또는 구비할 수 있다. 본원에서 사용되는 센서들의 세트는 하나 이상의 개별 센서들 또는 센서들의 하나 이상의 어레이들에 대응할 수 있다. 구현에 따르면, 컴퓨팅 시스템은 객체가 차량내에 놓여 있는지 그리고/또는 차량으로부터 이전되었는지의 여부를 검출하기 위하여 센서들의 하나 이상의 세트들(예컨대, 개별 센서 또는 복수의 상이한 센서들의 조합)로부터의 정보(센서 데이터)를 사용할 수 있다.In various examples, one or more sensors, such as a set of cameras, a set of metering devices, a set of suspension sensor sensors, a set of light detection and ranging (LIDAR) sensors, a set of ultrasonic sensors, A set of position-determination sensors, a set of wireless-frequency sensors (such as Bluetooth or Wi-Fi transceivers) as well as other sensors (e.g., engine sensors, tire pressure sensors, Or shut-off sensors, seat belt sensors, external stereo cameras for AVs or LIDAR sensors, etc.). The set of sensors used herein may correspond to one or more individual sensors or one or more arrays of sensors. According to an implementation, the computing system may receive information from one or more sets of sensors (e.g., an individual sensor or a combination of a plurality of different sensors) to detect whether the object is in the vehicle and / Data) can be used.
예컨대, 컴퓨팅 시스템은 차량내에 배치되는 카메라들의 세트로부터의 이미지 정보에 기반하여 차량 내측의 객체의 위치를 검출할 수 있으며, 이러한 세트의 카메라들의 개개의 렌즈는 차량의 실내 쪽을 향한다. 다른 예에서, 컴퓨팅 시스템은 차량의 컴파트먼트(compartment) 또는 실내에 배치되는 계량 디바이스들의 세트로부터의 무게 정보에 기반하여 객체가 차량의 컴파트먼트 또는 실내 내에 놓여 있음을 또는 이로부터 이전되었음을 검출할 수 있다. 계량 디바이스들의 세트는 계량 디바이스들의 세트의 개별 측정 플랫폼이 차량의 개별 컴파트먼트 또는 실내의 최하부 표면상에 배치되거나 또는 이 아래에 배치되거나 또는 이에 포함되도록 차량내에 배치될 수 있다. For example, the computing system may detect the position of an object inside the vehicle based on image information from a set of cameras disposed in the vehicle, and the individual lenses of the set of cameras are directed toward the interior of the vehicle. In another example, the computing system may be configured to detect that an object is in or out of a compartment or interior of a vehicle based on weight information from a compartment of the vehicle or a set of metering devices disposed in the interior can do. The set of metering devices may be disposed within the vehicle such that the individual measurement platform of the set of metering devices is disposed on or below the lowermost surface of an individual compartment or interior of the vehicle.
다른 예에서, 컴퓨팅 시스템은 무선 통신들을 가진 모바일 컴퓨팅 디바이스가 블루투스 또는 Wi-Fi와 같은 무선 프로토콜들을 사용하는, 차량내의 안테나들과 통신하고 있는 것에 기반하여 모바일 컴퓨팅 디바이스가 차량내에 놓여 있음을 또는 차량으로부터 이전되었음을 검출할 수 있다. 또 다른 예에서, 만일 모바일 컴퓨팅 디바이스가 그 자신의 위치 센서들을 가지고 있다면, 컴퓨팅 시스템은 모바일 컴퓨팅 디바이스가 차량과 함께 이동 중이어서 차량 내에 있을 가능성이 있는지를 결정하기 위하여 그 위치 센서들의 출력과 차량상의 위치 센서들의 출력을 비교할 수 있다. 계속해서 추가적으로, 또 다른 예에서, 컴퓨팅 시스템은 차량의 서스펜션 시스템 근처에 배치되거나 또는 그 서스펜션 시스템내에 포함되는 서스펜션 센서들의 세트로부터의 압축 정보에 기반하여 차량의 컴파트먼트 또는 실내에 있음을 또는 그로부터 이전되었음을 검출할 수 있다.In another example, a computing system may determine that a mobile computing device is in a vehicle based on whether a mobile computing device with wireless communications is communicating with antennas in the vehicle, using wireless protocols such as Bluetooth or Wi-Fi, Can be detected. In another example, if the mobile computing device has its own position sensors, the computing system may determine that there is a possibility that the mobile computing device is in motion with the vehicle, The outputs of the position sensors can be compared. Still further, in yet another example, the computing system is configured to determine whether or not a computing system is in a compartment or interior of a vehicle based on compression information from a set of suspension sensors disposed proximate to, or contained within, the suspension system of the vehicle It can be detected that it has been transferred.
만일 온-디맨드(on-demand) 서비스의 수행의 일부로 또는 이 수행 동안 객체가 차량내에 놓여 있다는 것과 이후 서비스가 완료되고 있는 시간에 또는 서비스가 완료된 이후에, 객체가 차량내에 여전히 존재한다는 것을 컴퓨팅 시스템이 검출하면, 컴퓨팅 시스템은 서비스를 요청한 사용자와 연관된 컴퓨팅 디바이스에 메시지를 통신하는 액션 및/또는 객체가 차량내에 여전히 존재한다는 것을 서비스 준비 시스템에 통지하는 액션과 같은 교정 액션을 자동적으로 수행할 수 있다. 일부 예들에 따르면, 컴퓨팅 시스템은 또한, 객체가 적어도 미리 결정된 시간 기간 동안 차량내에 여전히 존재한다고 검출되었을 때, 차량의 위치에서 머무르도록 운전자에게 명령하거나 또는 차량이 그 차량의 위치에 정지해 있도록 할 수 있다. 다른 예에서, 컴퓨팅 시스템은 객체가 차량으로부터 이전될 수 있는 미리 결정된 또는 특정 위치로 이동하도록 운전자에게 명령하거나 또는 차량이 그 위치로 이동하게 할 수 있다.It is to be appreciated that the object is still in the vehicle as part of or during the performance of the on-demand service and that the object is still in the vehicle at the time the service is completed, The computing system may automatically perform a calibration action such as an action communicating a message to a computing device associated with the user requesting the service and / or an action notifying the service preparation system that the object still exists in the vehicle . According to some examples, the computing system may also be configured to instruct the driver to stay at the location of the vehicle when the object is detected to be still present in the vehicle for at least a predetermined period of time, . In another example, the computing system may instruct the driver to move to a predetermined or specific location where the object may be relocated from the vehicle, or may cause the vehicle to move to that location.
예에 따르면, 컴퓨팅 시스템은 또한 객체가 무엇인지 또는 어떤 타입의 객체가 차량내에 놓여져 있는지를 식별하기 위하여 센서 데이터를 사용할 수 있다. 계속해서 추가로, 일부 예들에서, 컴퓨팅 시스템은 또한 서비스가 시작되고 그리고/또는 종료한 시간을 결정하기 위하여 (또는 이 시간을 결정하기 위한 일환으로) 차량내에 놓여 있는 객체의 검출 및/또는 차량으로부터 이전되고 있는 객체의 검출을 사용할 수 있다. According to an example, a computing system may also use sensor data to identify what an object is or what type of object is in the vehicle. Still further, in some instances, the computing system may also be able to detect objects lying in the vehicle and / or from the vehicle to determine (or as part of determining this time) the time at which the service is started and / You can use detection of the object being migrated.
본원에서 사용되는 바와같이, 클라이언트 디바이스, 운전자 디바이스 및/또는 모바일 컴퓨팅 디바이스는 데스크탑 컴퓨터들, 셀룰러 디바이스들 또는 스마트폰들, 개인 휴대 정보 단말기(PDA: personal digital assistant)들, 랩탑 컴퓨터들, 태블릿 디바이스들 등에 대응하는 디바이스들을 지칭하는데, 이들은 서비스 준비 시스템과 같은 원격 컴퓨팅 시스템(들)과 하나 이상의 네트워크들을 통해 통신하기 위한 네트워크 연결 및 프로세싱 자원들을 제공할 수 있다. 원격 컴퓨팅 시스템은 클라이언트 디바이스, 운전자 디바이스 및/또는 차량으로부터 원격에 있는 (예컨대, 네트워크 서비스의 백-엔드 서버 시스템에 대응하는) 하나 이상의 컴퓨팅 시스템들 또는 서버들을 지칭할 수 있다. 계속해서 추가로, 본원에서 설명된 예들에서, 차량과 연관된 운전자 디바이스 또는 컴퓨팅 시스템은 또한 네트워크 연결 및 위치-결정 능력들을 가진 차량내 또는 온-보드 컴퓨팅 시스템과 같은 차량의 주문형 하드웨어에 대응할 수 있다.As used herein, a client device, a driver device, and / or a mobile computing device may be a desktop computer, a cellular device or smart phone, a personal digital assistant (PDA), a laptop computer, a tablet device And the like, which may provide network connectivity and processing resources for communicating over one or more networks with a remote computing system (s), such as a service provisioning system. The remote computing system may refer to one or more computing systems or servers (e.g., corresponding to a back-end server system of network services) remote from the client device, the driver device, and / or the vehicle. Still further, in the examples described herein, the driver device or computing system associated with the vehicle may also correspond to on-demand hardware of the vehicle, such as in-vehicle or on-board computing systems with network connectivity and location-determining capabilities.
계속해서 추가로, 본원에서 설명된 예들은 사용자들과 서비스 제공자들 사이에 배열될 운송 서비스, 푸드 트럭 서비스, 배달 서비스, 엔터테인먼트 서비스 등과 같은 다양한 위치-기반(및/또는 온-디맨드(on-demand)) 서비스들과 관련된다. 다른 예들에서, 서비스 준비 시스템은 컴퓨팅 디바이스들 및 네트워크(들)의 사용을 통해 구매용 상품들 또는 서비스들을 제공하는 임의의 엔티티에 의해 구현될 수 있다. 단순화를 위하여, 본원에서 설명된 예들에서, 서비스 준비 시스템은 운전자들 또는 차량들에 의해 승객들/사용자들에게 제공될 운송 서비스들(예컨대, 객체들 또는 사람들 운송)을 준비하는 운송 준비 시스템에 대응할 수 있다.(And / or on-demand) services such as transportation services, food trucking services, delivery services, entertainment services, etc., which will be arranged between users and service providers, )) Services. In other instances, the service provisioning system may be implemented by any entity that provides merchandise or services for purchase through the use of computing devices and network (s). For simplicity, in the examples described herein, the service provisioning system corresponds to a shipping preparation system that prepares transportation services (e.g., objects or people transportation) to be provided to passengers / users by drivers or vehicles .
본원에서 설명된 하나 이상의 예들은 컴퓨팅 디바이스에 의해 수행되는 방법들, 기술들 및 액션들이 프로그램에 따라 또는 컴퓨터-구현 방법으로서 수행되는 것을 제공한다. 본원에서 사용되는 "프로그램에 따라"는 "코드 또는 컴퓨터-실행가능 명령들의 사용을 통해"를 의미한다. 이들 명령들은 컴퓨팅 디바이스의 하나 이상의 메모리 자원들에 저장될 수 있다. 프로그램에 따라 수행되는 단계는 자동적이거나 또는 자동적이 아닐 수 있다.One or more of the examples described herein provide that the methods, techniques, and actions performed by a computing device are performed as a program or as a computer-implemented method. As used herein, "according to program" means "through use of code or computer-executable instructions. &Quot; These instructions may be stored in one or more memory resources of the computing device. The steps performed according to the program may not be automatic or automatic.
본원에서 설명된 하나 이상의 예들은 프로그램 모듈들, 엔진들 또는 컴포넌트들을 사용하여 구현될 수 있다. 프로그램 모듈, 엔진 또는 컴포넌트는 하나 이상의 언급된 작업들 또는 기능들을 수행할 수 있는 프로그램, 서브-루틴, 프로그램의 일부, 또는 소프트웨어 컴포넌트 또는 하드웨어 컴포넌트를 포함할 수 있다. 본원에서 사용되는 바와같이, 모듈 또는 컴포넌트는 다른 모듈들 또는 컴포넌트들과 별도로 하드웨어 컴포넌트상에 존재할 수 있다. 대안적으로, 모듈 또는 컴포넌트는 다른 모듈들, 프로그램들 또는 머신들의 공유 엘리먼트 또는 프로세스일 수 있다.One or more of the examples described herein may be implemented using program modules, engines or components. A program module, engine or component may comprise a program, sub-routine, part of a program, or a software or hardware component capable of performing one or more of the mentioned operations or functions. As used herein, a module or component may reside on a hardware component separate from other modules or components. Alternatively, the module or component may be a shared element or process of other modules, programs, or machines.
본원에서 설명되는 일부 예들은 일반적으로 프로세싱 및 메모리 자원들을 비롯하여, 컴퓨팅 디바이스들의 사용을 필요로 할 수 있다. 예컨대, 본원에서 설명된 하나 이상의 예들은 컴퓨팅 디바이스들, 이를테면 서버들, 데스크탑 컴퓨터들, 셀룰러 또는 스마트폰들, 개인 휴대 정보 단말기들(예컨대, PDA들), 랩탑 컴퓨터들, 프린터들, 디지털 사진 프레임들, 네트워크 장비(예컨대, 라우터들) 및 태블릿 디바이스들상에서 전체적으로 또는 부분적으로 구현될 수 있다. 메모리, 프로세싱 및 네트워크 자원들은 모두 (임의의 방법의 수행 또는 임의의 시스템의 구현을 비롯하여) 본원에서 설명된 임의의 예의 설정, 사용 또는 수행과 관련하여 사용될 수 있다.Some examples described herein may in general require the use of computing devices, including processing and memory resources. For example, one or more of the examples described herein may be implemented in computing devices, such as servers, desktop computers, cellular or smart phones, personal digital assistants (e.g., PDAs), laptop computers, printers, , Network devices (e.g., routers), and tablet devices. Memory, processing, and network resources may all be used in connection with the setting, use, or performance of any of the examples described herein (including the implementation of any method or the implementation of any system).
더욱이, 본원에서 설명된 하나 이상의 예들은 하나 이상의 프로세서들에 의해 실행가능한 명령들의 사용을 통해 구현될 수 있다. 이들 명령들은 컴퓨터-판독가능 매체상에 탑재될 수 있다. 이하에서 도면들에 도시되거나 또는 이 도면들과 함께 설명된 머신들은 본원에서 설명된 예들을 구현하기 위한 명령들이 탑재되고 그리고/또는 실행될 수 있는 프로세싱 자원들 및 컴퓨터-판독가능 매체들의 예들을 제공한다. 특히, 본원에서 설명된 예들과 함께 도시된 다수의 머신들은 데이터 및 명령들을 보유하기 위한 다양한 형태들의 메모리와 프로세서(들)를 포함한다. 컴퓨터-판독가능 매체들의 예들은 퍼스널 컴퓨터들 또는 서버들상의 하드 드라이브들과 같은 영구 메모리 저장 디바이스들을 포함한다. 컴퓨터 저장 매체들의 다른 예들은 휴대용 저장 유닛들, 이를테면 CD 또는 DVD 유닛들, 플래시 메모리(이를테면, 스마트폰들, 다기능 디바이스들 또는 태블릿들상에 장착됨), 및 자기 메모리를 포함한다. 컴퓨터들, 단말들, 네트워크 사용 디바이스(network enabled device)들 (예컨대, 셀 폰들과 같은 모바일 디바이스들)은 모두 프로세서들, 메모리 및 컴퓨터-판독가능 매체들상에 저장된 명령들을 활용하는 머신들 및 디바이스들의 예들이다. 부가적으로, 예들은 컴퓨터-프로그램들, 또는 이러한 프로그램을 탑재할 수 있는 컴퓨터 사용가능 캐리어 매체의 형태로 구현될 수 있다.Moreover, one or more of the examples described herein may be implemented through use of instructions executable by one or more processors. These instructions may be loaded onto a computer-readable medium. The machines illustrated in or described with reference to the figures below provide examples of processing resources and computer-readable media on which instructions for implementing the examples described herein may be loaded and / or executed . In particular, the plurality of machines illustrated with the examples described herein include various types of memory and processor (s) for holding data and instructions. Examples of computer-readable media include permanent memory storage devices such as hard drives on personal computers or servers. Other examples of computer storage media include portable storage units such as CD or DVD units, flash memory (e.g., mounted on smart phones, multifunction devices or tablets), and magnetic memory. Computers, terminals, network enabled devices (e.g., mobile devices such as cell phones) all include processors and memory, and machines and devices that utilize instructions stored on computer- . In addition, examples may be implemented in the form of computer-programs, or computer-usable carrier media capable of mounting such programs.
시스템 설명System Description
도 1은 운송 서비스와 관련하여 차량내의 객체들을 검출하기 위한 예시적인 시스템을 예시한다. 구현에 따르면, 이러한 시스템은 운전자의 모바일 컴퓨팅 디바이스, 차량의 차량내 컴퓨팅 시스템, 또는 네트워크 서비스를 제공하는 서비스 준비 시스템에 의해 구현되고 이들상에서 동작될 수 있다. 단순화를 위하여, 도 1의 예에서, 시스템(100)은 차량내 컴퓨팅 시스템의 하나 이상의 메모리 자원들에 저장된 명령들의 실행을 통해 AV와 같은 차량의 차량내 컴퓨팅 시스템에 의해 구현되고 이 시스템상에서 동작되는 것으로 설명된다. 본원에서 설명된 바와같이, 시스템(100)은 하나 이상의 네트워크들을 통해 서비스 준비 시스템(190)과 통신하는 차량내 컴퓨팅 시스템의 애플리케이션 또는 오퍼레이팅 시스템을 포함하거나 이의 부분일 수 있거나 또는 이에 대응할 수 있다. Figure 1 illustrates an exemplary system for detecting objects in a vehicle in connection with a transportation service. According to an implementation, such a system may be implemented and operated on by a mobile computing device of a driver, a vehicle in-vehicle computing system, or a service provisioning system that provides network services. For simplicity, in the example of FIG. 1, the system 100 is implemented by an in-vehicle computing system of a vehicle, such as an AV, via execution of instructions stored in one or more memory resources of an in-vehicle computing system, . As described herein, the system 100 may include or be part of or correspond to an application or operating system of an in-vehicle computing system in communication with the
예들에 따르면, 시스템(100)은 시스템 관리부(110), 위치 결정부(120), 객체 검출부(130), 위치 데이터베이스(140), 트립 데이터베이스(trip database)(150) 및 서비스 인터페이스(160)를 포함할 수 있다. 단순화를 위하여, 시스템(100)의 다른 컴포넌트들, 이를테면 사용자 인터페이스 컴포넌트, 디바이스 데이터베이스들, 다른 컴포넌트들과 통신하기 위한 디바이스 인터페이스들 등은 도 1에 예시되지 않는다. 시스템(100)의 컴포넌트들은 운송 서비스들과 관련하여 차량내에 놓이고 그리고/또는 이 차량으로부터 이전되는 객체들을 검출하기 위하여 결합될 수 있다. 로직(logic)은 시스템(100)을 구현하는 컴퓨팅 시스템의 하드웨어 및/또는 다양한 애플리케이션들(예컨대, 소프트웨어)로 구현될 수 있다.According to the examples, the system 100 includes a
일례에서, 시스템(100)은 서비스 인터페이스(160)를 통해 서비스 준비 시스템(190)과 통신할 수 있다. 본원에서 설명된 바와같이, 서비스 준비 시스템(190)은 사용자들과 서비스 제공자들 간의 운송 서비스들을 준비하기 위하여 복수의 서비스 제공자들(예컨대, 운전자 디바이스들 및/또는 차량내 컴퓨팅 시스템들) 및 복수의 클라이언트(또는 사용자) 디바이스들과 통신할 수 있다. 서비스 준비 시스템(190)은 네트워크측 자원들, 이를테면 하나 이상의 서버들 또는 데이터 센터들상에서 구현될 수 있거나, 또는 대안적인 아키텍처들(예컨대, 피어-투-피어(peer-to-peer) 네트워크들 등)에서는 다른 컴퓨터 시스템들을 통해 구현될 수 있다. 전형적으로, 사용자는 네트워크(들)를 통해 서비스 준비 시스템(190)과 통신하기 위하여 클라이언트 또는 사용자 디바이스(단순화를 위해 도 1에 도시되지 않음) 동작시킬 수 있으며, 특정 위치(예컨대, 운송될 사람 또는 소화물의 픽업 위치(pickup location))에서 운송 서비스에 대한 요청을 수행할 수 있다. 일부 예들에서, 사용자 디바이스는 서비스 준비 시스템(190)과 통신하는 지정된 서비스 애플리케이션을 작동할 수 있다. 서비스 준비 시스템(190)은 요청을 수신하고, 운송 서비스를 제공하는 서비스 제공자를 프로그램에 따라 선택할 수 있다. In one example, the system 100 may communicate with the
구현에 따르면, 만일 서비스 준비 시스템(190)이 서비스를 제공할 인간 운전자를 선택하면, 서비스 준비 시스템(190)은 선택된 운전자의 디바이스에 초청을 송신하여, 요청하는 승객에 운송 서비스를 제공하기 위하여 초대를 수락할지 또는 거절할지에 대한 옵션을 운전자에게 제공할 수 있다. 다른 예에서, 만일 서비스 준비 시스템(190)이 도 1에 도시된 것과 같이 복수의 이용가능한 AV들(및/또는 인간 운전자들)로부터 서비스를 제공할 AV를 선택하면, 서비스 준비 시스템(190)은 서비스에 대한 정보(서비스 명령들(191)로 지칭됨)를 서비스 인터페이스(160)를 통해 시스템(100)에 송신할 수 있다.According to the implementation, if the
예들에 따르면, 서비스 인터페이스(160)는 시스템(100)이 시스템(100)과 서비스 준비 시스템(190) 사이에서 데이터를 교환할 수 있게 한다. 예컨대, 서비스 인터페이스(160)는 하나 이상의 무선 네트워크들(예컨대, 셀룰러 트랜시버, WLAN 트랜시버 등)을 통해 통신들을 교환하기 위하여 차량내 컴퓨팅 시스템의 하나 이상의 네트워크 자원들을 사용할 수 있다. 서비스 인터페이스(160)는 서비스 준비 시스템(190)과 데이터를 통신하기 위하여 외부 지향(externally facing) 애플리케이션 프로그래밍 인터페이스(API)와 같은 API를 포함하거나 사용할 수 있다. 외부 지향 API는 임의의 수의 방법들, 이를테면 웹-기반 방식(web-based form)들, 레스트풀(restful) API들을 통한 프로그램적 액세스, 단순 객체 액세스 프로토콜(SOAP: Simple Object Access Protocol), 원격 프로시저 호출(RPC: remote procedure call), 스크립팅 액세스(scripting access) 등에 의하여, 네트워크에 걸친 보안 액세스 채널들을 통해 서비스 준비 시스템(190)에 액세스를 제공할 수 있다.In accordance with the examples, the
도 1의 예에서, 서비스 준비 시스템(190)은 사용자에 의한, 운송 서비스에 대한 요청을 프로세싱하였고 요청하는 사용자에게 운송 서비스를 제공하기 위하여 시스템(100)을 구현하는 AV를 선택하였다. 서비스 준비 시스템(190)은, 요청하는 사용자에 의해 특정된 픽업 위치 및 픽업 위치에 근접한 (예컨대, 픽업 위치의 결정된 거리내에 있는) 이용가능한 서비스 제공자들의 현재 위치(또는 가장 최근에 결정된 위치들)에 기반하여, 시스템(100)을 구현하는 AV가 운송 서비스를 제공할 것임을 결정하였을 수 있다. 서비스 준비 시스템(190)은 가야할 위치 및/또는 해야할 일에 대해 차량에게 명령하는, 운송 서비스에 대한 서비스 명령들(191)을 송신할 수 있다. 일부 예들에서, 서비스 명령들(191)은 사용자 정보(192)(예컨대, 사용자 식별자, 사용자의 연락 정보, 사용자 등급 등), 사용자에 의해 특정된 픽업 위치(193)(예컨대, 주소, 랜드마크, 위도 및 경도 좌표에 대응하는 위치 데이터 포인트(location data point)), 목적지 위치(194) 및/또는 다른 정보, 이를테면 운송 서비스의 타입(예컨대, 사람 운송, 소화물 배달 등) 또는 사람들의 수 또는 소화물들의 수에 대한 세부사항들을 포함할 수 있다. 일례에서, 서비스 명령들(191)은 AV의 차량 제어 컴포넌트(들)로 하여금 적절한 위치들로 이동하도록 AV를 적어도 부분적으로 제어하게 할 수 있다. 다시 말해서, 차량 제어 컴포넌트(들)는 픽업 위치 및/또는 목적지 또는 하차 위치로 이동하도록 차량을 제어하기 위하여 (다른 정보외에도) 서비스 명령들(191)의 일부 또는 전부를 사용할 수 있다.In the example of FIG. 1, the
시스템 관리부(110)는 서비스 명령들(191)을 수신할 수 있고, 이에 응답하여 시스템(100)을 대신하여 복수의 동작들을 수행할 수 있다. 예컨대, 시스템 관리부(110)는 자신이 수행할 운송 서비스에 대한 정보를 결정함으로써 서비스 명령들(191)을 프로세싱할 수 있으며, 픽업 위치 및/또는 목적지 위치로 이동할 루트(들)를 결정하고 픽업 위치 및/또는 목적지 위치로 이동하도록 AV를 제어함으로써 운송 서비스의 수행을 개시할 수 있다.The
일례에서, 시스템 관리부(110)의 트립 관리 컴포넌트는 서비스 명령들(191)로부터의 명령의 일부 또는 전부를 사용하여 운송 서비스에 대한 트립 엔트리(151)를 생성하고, 이 트립 엔트리(151)를 시스템(100)의 트립 데이터베이스(150)에 저장할 수 있다. 이후, 트립 관리 컴포넌트는 차량이 운송 서비스를 수행할 때 (예컨대, 현재 위치로부터 픽업 위치로 이동하고, 사용자 또는 객체를 픽업하며, 하차 위치로 이동하는 등을 수행할 때) 차량의 위치에 대한 정보로 트립 엔트리(151)를 업데이트할 수 있다. 트립 관리 컴포넌트는 또한 서비스 명령들(191)이 수신되었을 때, 서비스가 시작되었을 때 그리고 서비스가 종료하였을 때 차량의 시간 및 위치를 트립 엔트리(151)에 기록할 수 있다. 트립 엔트리(151)는 (예컨대, 완료 이후에) 요청하는 사용자에 대한 운송 서비스의 비용을 결정하고 요청하는 사용자 및/또는 AV의 이력 기록을 유지하기 위하여 시스템(100) 및/또는 서비스 준비 시스템(190)에 의해 사용될 수 있다.In one example, the trip management component of
위치 결정부(120)는 차량내 컴퓨팅 시스템의 하나 이상의 지역-인식 자원들로부터 위치 데이터 포인트들(121)을 (예컨대, 주기적으로) 수신함으로써 차량의 위치에 대한 정보를 시스템 관리부(110)에 제공할 수 있다. 예컨대, 위치 결정부(120)는 차량의 현재 위치 데이터 포인트(121)를 결정하기 위하여, 예컨대 디바이스 인터페이스를 통해, 운전자 디바이스의 GPS 수신기, 하나 이상의 다른 센서들 및/또는 하나 이상의 트랜시버들(예컨대, 셀룰러 트랜시버, Wi-Fi 트랜시버)와 통신함으로써 차량의 현재 위치를 주기적으로 결정할 수 있다. 일례에서, 위치 결정부(120)는 운전자 디바이스의 현재 위치 데이터 포인트(121)를 주기적으로 수신하기 위하여, 주기적으로, 이를테면 2초 또는 4초 등 마다 GPS 수신기에 콜(call)을 수행할 수 있다. 위치 결정부(120)는 또한 차량의 각각의 결정된 위치 데이터 포인트(121)의 연관된 타임스탬프(timestamp)를 결정할 수 있다. 구현에 따르면, 위치 결정부(120)는 GPS 수신기로부터, 차량의 위치 데이터 포인트(121)와 함께 타임스탬프(및/또는 에러 값)를 수신할 수 있거나 또는 별개의 클록(예컨대, 운전자 디바이스의 내부 클록)을 사용하여 위치 데이터 포인트(121)의 타임스탬프를 결정할 수 있다. 시스템 관리부(110)는 차량이 운송 서비스들과 관련하여 이동한 위치에 대한 데이터를 유지하기 위하여 트립 엔트리(151) 및/또는 위치 데이터베이스(140)에 위치 데이터 포인트들(121)을 저장할 수 있다. 추가적으로 또는 대안적으로, 위치 결정부(120)는 위치 데이터베이스(140)에 차량의 위치 데이터 포인트들(121)을 저장할 수 있다.The
시스템 관리부(110)를 다시 참조하면, 트립 관리 컴포넌트는 또한 차량을 모니터링하기 위하여 위치 결정부(120)로부터의 위치 데이터 포인트들(121)을 사용할 수 있다. 트립 관리 컴포넌트는 운송 서비스의 수행(예컨대, 차량이 운송 서비스의 어떤 단계에 있는지에 관한 수행)과 관련하여 시스템(100) 또는 차량의 위치 및 상태를 결정할 수 있다. 예컨대, 시스템(100)의 상태는 이미 이용가능한 상태에 있었을 수 있으며, 이 상태는 차량이 서비스 관리 시스템(190)으로부터의 운송 서비스를 배정받을 수 있는 상태에 대응한다. 시스템(100)이 서비스 명령들(191)을 수신할 때, 트립 관리 컴포넌트는 시스템(100)이 상이한 상태, 예컨대 루트 상태가 되게 할 수 있으며, 이는 차량이 픽업 위치로 이동하는 것에 대응한다. 유사하게, 운송 서비스가 개시되었거나 종료되었음을 트립 관리 컴포넌트가 결정할 때마다, 트립 관리 컴포넌트는 시스템(100)이 개별 상태로 되게 할 수 있다(예컨대, 각각 온(on) 루트 상태로부터 온 트립 상태로 변하거나 또는 온 트립 상태로부터 완료되거나 이용가능한 상태로 변하게 할 수 있다). 트립 관리 컴포넌트는 상태에 대한 정보를 그리고/또는 상태 변화가 발생하였을 때 대응하는 위치 데이터 포인트들(121)과 함께 운송 서비스의 트립 엔트리(151)에 저장할 수 있다. Referring back to the
계속해서 추가로, 추가적으로 또는 대안적으로, 서비스 준비 시스템(190)은 시스템(100)에 저장된 트립 엔트리(151)에 대응하거나 또는 이와 유사한 자기 자신의 트립 엔트리를 로컬로(locally) 생성하여 저장할 수 있다. 트립 관리 컴포넌트는 운송 서비스에 대한 앞서 설명된 정보를 예컨대 상태 정보(111) 및/또는 위치 데이터 포인트들(113)을 통해 서비스 준비 시스템(190)에 주기적으로 제공할 수 있다. 서비스 준비 시스템(190)은 운송 서비스에 대한 업데이트된 정보(예컨대, AV의 위치 및/또는 AV의 현재 상태 등)를 요청하는 사용자에게 제공하기 위하여 시스템(100)으로부터 수신된 정보를 사용할 수 있다. 게다가, 서비스 준비 시스템(190)은, 상태 정보(111) 및/또는 위치 데이터 포인트들(113)로부터, 운송 서비스가 개시되었거나 또는 완료되었을 때 및/또는 다른 운송 서비스를 제공하기 위하여 AV가 이용가능할 때를 결정할 수 있다.Still further, additionally or alternatively, the
운송 서비스에 대한 트립 엔트리(151)를 생성하고 업데이트하는 것에 부가하여, 시스템 관리부(110)는 서비스 명령들(191)에 적어도 부분적으로 기반하여 운송 서비스의 수행을 개시할 수 있다. 일부 예들에 따르면, 시스템 관리부(110)의 차량 제어 컴포넌트는 운송 서비스를 수행하도록 AV를 제어할 수 있다. 구현에 따르면, 차량 제어 컴포넌트는 AV 제어 시스템과 인터페이싱할 수 있거나 또는 AV 제어 시스템에 대응할 수 있다. 본원에서 설명된 바와같이, AV는 (i) 시스템(100) 및/또는 AV 제어 시스템을 구현하는 컴퓨팅 자원들, (ii) AV의 다양한 다른 동작들 또는 부분들을 제어하기 위한 다른 서브-컴포넌트들 또는 서브-시스템들 및 (iii) 복수의 차량 부분들을 포함한다. 단순화를 위하여, AV의 모든 부분들이 본원에서 논의되는 것은 아니다.In addition to creating and updating the
예들에 따르면, AV의 다양한 부분들은 프레임 또는 섀시, 바디(예컨대, 도어들, 범퍼들, 창문들, 조종석, 좌석들, 트렁크 공간 등을 포함함), 타이어들, 서스펜션 시스템, 브레이킹 시스템, 스티어링 시스템, 전기 시스템(예컨대, 배터리들, 와이어들, 케이블들, 알람 서브-시스템 등을 포함함), 송신 시스템(예컨대, 구동렬, 엔진 등을 포함함), 연료 시스템, 배기 시스템, 냉각 시스템 및 AV 제어 시스템을 포함할 수 있으나 이들에 제한되지 않는다. AV는 또한 제어기들 및/또는 마이크로제어기들을 포함하는 전자 제어 유닛(ECU)들, 및 AV의 다양한 시스템들 또는 서브-시스템들을 제어할 수 있는 다른 전자 컴포넌트들, 이를테면 도어 제어 유닛, 엔진 제어 유닛, 속도 제어 유닛, 송신 제어 유닛 등을 포함할 수 있다. AV 제어 시스템은 제어 신호들을 전송하고 다양한 시스템들 및 차량 부분들로부터 데이터(예컨대, 피드백 또는 센서 데이터)를 수신함으로써 AV를 제어하기 위하여 하나 이상의 프로세서들에 의한, 메모리에 저장된 명령들의 실행을 통해 프로그래밍될 수 있다. 이러한 응용을 위하여, AV 제어 시스템은 AV를 제어하도록 명령받을 수 있으며, 따라서 AV은 운송 서비스들과 관련하여 한 위치로부터 다른 위치로 이동하기 위하여 도로들 및 거리들을 안전하게 내비게이팅할 수 있다. In accordance with the examples, various portions of the AV may include a frame or chassis, a body (e.g., doors, bumpers, windows, cockpit, seats, trunk space, etc.), tires, suspension system, braking system, steering system , Electrical systems (e.g., including batteries, wires, cables, alarm sub-systems, etc.), transmission systems But are not limited to, systems. The AV may also include electronic control units (ECUs) including controllers and / or microcontrollers, and other electronic components capable of controlling various systems or sub-systems of the AV, such as a door control unit, an engine control unit, A speed control unit, a transmission control unit, and the like. The AV control system may be programmed via execution of instructions stored in memory by one or more processors to control AV by transmitting control signals and receiving data (e.g., feedback or sensor data) from various systems and vehicle parts . For this application, the AV control system can be commanded to control the AV, and thus the AV can safely navigate the roads and distances to move from one location to another with respect to transportation services.
계속해서 추가로, AV는 다른 객체들에 대한 AV의 위치 또는 좌표 시스템과 관련한 AV의 위치를 결정하기 위하여 위치 결정 모듈 또는 자원들, 이를테면 GPS 수신기 및/또는 무선 트랜시버들을 포함할 수 있다. AV는 또한 AV가 AV의 실시간 환경을 검출하는 것을 가능하게 하기 위하여, 복수의 센서들, 이를테면 카메라들의 세트, 스테레오 카메라들의 세트, 레이더들의 세트, LIDAR 센서들의 세트 등을 포함할 수 있다. 이들 센서들 중 하나 이상(또는 전부)은 AV 주위의 환경, 이를테면 도로들, 빌딩, 다른 차량들 등에 대한 차량의 위치 또는 무생물 객체들의 위치에 대한 정보를 검출하기 위하여 차량의 외부에 (예컨대, 차량의 전방, 후방, 지붕 등에) 배치될 수 있다. 예컨대, AV가 (예컨대, 위치 데이터 포인트(121)로서 GPS 수신기로부터 결정된) 현재 장소 또는 위치로부터 특정 위치(예컨대, 서비스 명령들(191)에 표시된 픽업 위치(193) 및/또는 목적지 위치(194))로 이동하도록 하기 위하여, AV 제어 시스템은 AV가 있는 지역의 저장된 세부 공간 지도(들)(예컨대, 지도 데이터(112)를 포함함)에 액세스하고 특정 위치로 이동할 루트(들)를 결정할 수 있다. (센서들의 세트에 의해 주기적으로 그리고 연속적으로 검출된 데이터로부터) AV 주변에서 검출된 환경에 기반하여, AV 제어 시스템은 AV가 특정 위치로 이동하기 위하여 특정 액션(들)을 취할 것을 명령하는 의사 결정 동작들을 주기적으로 수행할 수 있다. 각각의 의사결정 동작의 결과로서, AV 제어 시스템은 예컨대 AV가 한 시간 인스턴스에서 특정 속도에서 특정 방향으로 이동할 것임을 결정할 수 있으며, 다음 시간 인스턴스에서, AV가 특정 속도로 감속하거나, 방위들/방향들을 약간 변경하거나 또는 차선을 변경하는 것 등을 결정할 수 있다. 따라서, AV 제어 시스템은 다양한 차량 컴포넌트들/시스템들에 제어 신호들을 제공할 수 있다.Still further, the AV may include a location module or resources, such as a GPS receiver and / or wireless transceivers, to determine the location of the AV relative to other objects or the location of the AV relative to the coordinate system. The AV may also include a plurality of sensors, such as a set of cameras, a set of stereo cameras, a set of radars, a set of LIDAR sensors, etc., to enable the AV to detect the real-time environment of the AV. One or more (or all) of these sensors may be located outside the vehicle (e. G., On a vehicle < / RTI > to detect information about the environment around the AV, such as the location of the vehicle relative to roads, Front, rear, roof, etc.). For example, if the AV is located at a particular location (e.g., pickup location 193 and / or destination location 194 displayed in service instructions 191) from a current location or location (e.g., determined from a GPS receiver as location data point 121) The AV control system may access the stored detailed spatial map (s) (e.g., including map data 112) of the area in which the AV is located and determine the root (s) to move to a particular location . Based on the environment detected around the AV (from the data periodically and continuously detected by the set of sensors), the AV control system determines whether the AV decides to take a specific action (s) Operations can be performed periodically. As a result of each decision action, the AV control system may determine, for example, that the AV will move in a particular direction at a particular instant in an hour instance, and at a next instance of time, the AV may decelerate at a certain rate, A slight change, or a change of lane. Thus, the AV control system can provide control signals to various vehicle components / systems.
일례에서, AV가 운송 서비스를 개시하기 위하여 픽업 위치로 이동할 때, 시스템(100)은 AV가 특정 픽업 위치(예컨대, 시작 위치)에 도달하였음을 주기적으로 결정할 수 있다. 다시 말해서, 시스템(100)은 AV가 픽업 위치로부터 미리 결정된 거리에 도달하거나 또는 이 미리 결정된 거리내에 있을 때 (또는 미리 결정된 추정된 이동 시간내에 도달할 때)를 주기적으로 체크할 수 있다. 예컨대, 트립 관리 컴포넌트는 픽업 위치(193)와 현재 위치(예컨대, 위치 결정부(120)에 의해 제공된 가장 최근의 위치 데이터 포인트(121))를 주기적으로 비교하고, AV가 미리 결정된 거리 또는 추정된 이동 시간내에 있는지의 여부를 결정할 수 있다. AV가 미리 결정된 거리 또는 추정된 이동 시간내에 있음을 트립 관리 컴포넌트가 결정할 때, 트립 관리 컴포넌트는 온 루트 상태로부터, 도달한/도달완료한 상태로 시스템(100)의 상태를 변경할 수 있다. 이러한 변경에 대한 상태 정보(111)는 서비스 준비 시스템(190)이 AV에 대한 업데이트된 정보를, 요청하는 사용자의 디바이스에 제공할 수 있도록 서비스 준비 시스템(190)에 송신될 수 있다.In one example, when the AV moves to a pickup position to initiate a transportation service, the system 100 may periodically determine that the AV has reached a particular pickup position (e.g., a starting position). In other words, the system 100 may periodically check when the AV reaches a predetermined distance from the pick-up position or when it is within this predetermined distance (or within a predetermined estimated travel time). For example, the trip management component periodically compares the pickup position 193 with the current position (e.g., the most recent
게다가, 도 1의 예에 따르면, 시스템(100)은 또한 객체(들)가 운송 서비스와 관련하여 차량내에 놓여 있는지의 여부를 결정할 수 있다. 일부 경우들에서, 운전자 또는 AV 제어 시스템은 요청하는 사용자가 운송 동안 차량에 객체(가방, 박스들, 식료품료)를 놓았는지를 결정할 필요가 있거나 또는 객체가 배달 운송 서비스 동안 차량에 놓여있었는지를 결정할 필요가 있다. 본원에 설명된 바와같이, 객체는 차량내에 있거나 또는 차량에 들어가는 사람(들) 또는 물품(들)에 대응할 수 있다. 객체 검출부(130)는 센서 데이터(131)를 수신하기 위하여 하나 이상의 차량 또는 센서 인터페이스들을 통해 AV의 센서들의 하나 이상의 세트들 또는 AV 센서들의 하나 이상의 조합들과 통신할 수 있으며, 센서 데이터(131)에 기반하여, 객체가 AV에 놓여 있었는지(또는 AV로부터 이전되었는지)의 여부를 결정할 수 있다(본원에서는 객체 검출 프로세스 또는 동작으로 지칭됨). 일례에서, 객체 검출부(130)는 센서들로 하여금 센서 데이터(131)를 제공하게 하기 위하여 (또는 센서들로 하여금 센서 데이터(131)를 제공할 것을 트리거하기 위하여) 제어 신호들의 세트를 센서들에 송신할 수 있다. 이러한 센서들은 하나 이상의 객체들의 존재, 위치 및/또는 무게를 검출하기 위하여 차량내에 배치되거나 또는 차량에 제공되는 카메라들의 세트, 계량 디바이스의 세트, 서스펜션 센서들의 세트, 광 검출 및 레인징(LIDAR) 센서들의 세트, 무선-주파수 안테나들 및/또는 트랜시버들의 세트, 및/또는 초음파 센서들의 세트를 포함할 수 있다.Moreover, according to the example of FIG. 1, the system 100 may also determine whether the object (s) are in the vehicle in connection with the transportation service. In some cases, the driver or AV control system determines whether the requesting user needs to determine whether the vehicle has placed an object (bag, boxes, groceries) in the vehicle during transportation, or whether the object was placed in the vehicle during the delivery transportation service You need to decide. As described herein, an object may correspond to the person (s) or article (s) that are in or out of the vehicle. The
일부 예들에서, 객체 검출부(130)는 (i) 하나 이상의 센서들로부터 센서 데이터(131)를 수신하고, (ii) 다른 정보(예컨대, 모델들 또는 사전에 저장된 데이터)를 사용하여, 수신된 센서 데이터(131)를 프로세싱하며, 그리고 (iii) 객체가 AV내에 놓여 있었는지의 여부(객체가 AV에 사전에 있지 않았을 때)를 결정하거나 객체가 AV로부터 이전되었는지의 여부(객체가 AV에 이미 있을 때)를 결정함으로써 객체 검출 프로세스를 수행할 수 있다. 예컨대, 객체 검출부(130)는 (렌즈가 트렁크의 내측을 향한) AV의 트렁크내에 배치된 하나 이상의 카메라들로부터 이미지 정보를 수신할 수 있고, 그리고 이미지 프로세싱 또는 이미지 인지 프로세스들을 사용하고 그리고/또는 트렁크에 대한 사전에 저장된 베이스라인 이미지 정보(예컨대, 트렁크가 비어 있을 때 트렁크의 이미지 또는 서비스 명령들(191)을 수신하기 전에 트렁크의 이미지를 나타냄)와 이미지 정보를 비교함으로써 이미지 정보를 프로세싱할 수 있다. 저장된 베이스라인 이미지 정보는 미리 정의된 이미지일 수 있거나, 또는 AV가 픽업 위치(193)에 도달하기 전 또는 AV가 픽업 위치(193) 근처에 도달하기 전의 시간에 하나 이상의 카메라들에 의해 캡처된 이미지일 수 있다. 계속해서 추가로, 일례에서, 객체 검출부(130)는, 이미지내의 객체의 시각적 특징들에 기반하여 객체가 무엇인지를 식별하기 위하여 이미지 프로세싱(및 서비스 준비 시스템(190)으로부터의 다른 저장되거나 또는 수신된 데이터)을 사용할 수 있다.In some examples, the
다른 예들에서, 객체의 존재 또는 위치를 검출하기 위하여 하나 이상의 다른 센서들이 사용될 때, 객체 검출부(130)는 수신된 센서 데이터(131)와 비교하기 위한 기반으로 다른 베이스라인 또는 모델 정보를 사용할 수 있다. 예컨대, 객체 검출부(130)는 AV의 컴파트먼트에 배치된 하나 이상의 계량 디바이스들 또는 센서들로부터 센서 데이터(131)를 수신할 수 있으며, 따라서 AV의 개별 측정 플랫폼은 이러한 컴파트먼트 하부 표면상에 있거나, 하부 표면 아래에 배치되거나 또는 하부 표면에 포함된다. 객체 검출부(130)는 AV가 픽업 위치(193)에 도달하거나 또는 픽업 위치(193) 근처에 도달하기 전 또는 서비스가 시작된 이후의 시간에 센서 데이터(131)로부터 측정들의 변화를 결정할 수 있다. In other instances, when one or more other sensors are used to detect the presence or location of an object, the
구현에 따르면, 객체 검출부(130)는 다양한 시간들에서 객체 검출 프로세스를 수행할 수 있다. 예컨대, 객체 검출부(130)는 AV가 픽업 위치(193)로 이동할 때 그리고/또는 AV가 픽업 위치(193)의 미리 결정된 거리 또는 미리 결정된 추정된 이동 시간내에 있는지의 여부를 트립 관리 컴포넌트가 결정할 때 객체 검출 프로세스를 동시에 수행할 수 있다. 객체 검출부(130)는 센서 데이터(131)를 주기적으로 수신하기 위하여 센서들의 세트에 대해 콜들을 수행할 수 있다. 다른 예에서, 객체 검출부(130)는 (트리거(115)를 통해) 시스템 관리부(110)에 의해 명령 또는 트리거될 때 다양한 인스턴스들에서 객체 검출 프로세스를 수행할 수 있다. 예컨대, AV가 픽업 위치(193)의 미리 결정된 거리 또는 미리 결정된 추정 이동 시간내에 있음을 트립 관리 컴포넌트가 결정할 때, 트립 관리 컴포넌트는 객체 검출부(130)로 하여금 객체 검출 프로세스를 수행하게 하기 위하여 트리거(115)를 송신할 수 있다. 계속해서 추가로, 다른 변형예로서, 트립 관리 컴포넌트는 AV가 미리 결정된 시간 기간 동안 정지해 있다고 결정할 때 및/또는 AV가 픽업 위치(193)의 미리 결정된 거리 또는 미리 결정된 추정 이동 시간내에 있는 동안 AV가 미리 결정된 시간 기간 동안 정지해 있다고 결정할 때 트리거(115)를 송신할 수 있다. 다른 예로서, 객체 검출부(130)는 운송 서비스가 시작되었음을 트립 관리 컴포넌트가 결정할 때 객체 검출 프로세스를 수행하도록 트리거될 수 있다. 객체 검출부(130)로 하여금 선택 시간들에서 객체 검출 프로세스를 수행하게 함으로써, 시스템(100)은 센서(들)로 하여금 (중간 상태 또는 슬립 상태로부터) 웨이크 업(wake up)하게 함으로써 에너지 및 컴퓨팅 자원들의 과도한 소비를 감소시키고 필요할 때만 측정을 검출 또는 수행할 수 있다.According to the implementation, the
만일 객체 검출부(130)가 객체의 위치를 검출하거나, 또는 센서 데이터(131)의 제1 세트에 기반하여 객체가 차량내에 놓여 있음을 객체 검출부(130)가 검출하면, 객체 검출부(130)는 객체 정보(131)를 시스템 관리부(110)에 제공할 수 있다. 객체 정보(133)는 객체가 AV내에 놓여 있음을 시스템 관리부(110)에 표시할 수 있으며(예컨대, 메시지 또는 2진 비트가 토글될 수 있으며) 그리고/또는 검출을 수행하기 위하여 AV에 의해 사용되는 센서(들)의 타입들에 기반하여 그 객체 대한 정보를 포함할 수 있다. 예컨대, 추가 정보는 (i) 객체가 무엇인지 (예컨대, 박스, 가방, 스케이트보드 등), (ii) 카메라들이 사용되는 경우 카메라들의 세트에 의해 캡처된 객체의 하나 이상의 이미지들, (iii) 객체와 관련된 측정치들(예컨대, 계량 디바이스들 또는 서스펜션 센서들이 사용되는 경우 무게, 카메라들, LIDAR 센서들 또는 초음파 센서들이 사용되는 경우 객체의 치수들 등) 및/또는 (iv) 객체가 있는 위치(예컨대, 객체의 어떤 컴파트먼트 또는 위치)를 포함할 수 있다. 트립 관리 컴포넌트는 운송 서비스와 연관된 트립 엔트리(151)와 객체 정보(133)의 일부 또는 전부를 저장할 수 있으며, 따라서 객체에 대한 정보는 로깅되고 특정 사용자와 연관될 수 있다.If the
설명된 바와같이, 객체 검출부(130)가 객체를 검출하는 것과 동시에 (또는 검출전에 또는 검출 이후에), 트립 관리 컴포넌트는 운송 서비스가 시작되었음을 결정할 수 있다. 일부 예들에서, 시스템 관리부(110)는 객체가 차량내에 놓여 있음을 검출하는 것에 적어도 부분적으로 기반하여, 운송 서비스가 시작되었음을 결정할 수 있다. 운송 서비스는 사람(및/또는 사람의 물건들)을 한 위치로부터 다른 위치로 운송하거나 또는 배달용 객체를 한 위치로부터 다른 위치로 운송하는 것에 대응할 수 있다. 객체 검출부(130)는 카메라 또는 계량 디바이스들과 같은 하나 이상의 센서들로부터, 사람 및/또는 객체들이 차량내로 들어갔는지 또는 (사람 없이) 객체만 차량에 놓여 있는지를 검출할 수 있다. 이러한 예에서, 카메라(들)로부터의 이미지 정보를 사용하고 이미지(들)를 처리하여 사람이 차량내에 들어갔음을 객체 검출부(130)가 검출할 수 있게 하기 위하여, 카메라들(또는 LIDAR 센서들 또는 초음파 센서들)의 세트는 차량의 운전석/실내 내측에 배치될 수 있다. 부가적으로 또는 대안적으로, AV의 서스펜션 시스템 근처에 배치되거나 또는 이 시스템에 포함되는 계량 디바이스들의 세트 또는 서스펜션 센서들의 세트는 질량의 양이 차량에 추가되었음을 결정할 수 있다. As described, the trip management component may determine that the transportation service has been started at the same time (or before or after detection) that the
일단 운송 서비스가 시작되었다면, 트립 관리 컴포넌트는 운송 서비스의 시작 시간 및 시작 위치를 비롯하여 운송 서비스의 수행에 대한 정보(예컨대, AV의 이동 시간 및/또는 이동 위치)를 트립 엔트리(151)에 저장할 수 있다. AV가 운송 서비스의 목적지 위치(194)로 이동할 때, 트립 관리 컴포넌트는 또한 위치 데이터 포인트들(121)을 사용하여 (적어도 부분적으로, 운송 서비스가 완료되었음을 결정하기 위하여) AV가 목적지 위치(194)에 접근하여 목적지 위치(194)에 도달하였음을 결정할 수 있다. Once the transportation service has been started, the trip management component can store in the
일례에서, 목적지 검출부(130)가 운송 서비스와 관련하여 객체를 사전에 검출한 경우들(예컨대, 승객이 AV의 트렁크에 가방을 놓은 경우)에서, 트립 관리 컴포넌트는 객체가 차량으로부터 이전되었는지의 여부를 객체 검출부(130)가 또한 검출하게 할 수 있다. 객체 검출부(130)는 변화들에 따라 상이한 시간들에서 객체가 차량으로부터 이전되었는지의 여부를 검출할 수 있다. 일례에 따르면, 시스템 관리부(110)는 AV가 (예컨대, 주기적으로) 목적지 위치(194)로 이동할 때 객체 검출부(130)가 객체 검출 프로세스를 동시에 수행하게 할 수 있거나 또는 AV가 목적지 위치(194)의 미리 결정된 거리 또는 미리 결정된 추정 이동 시간내에 있음을 트립 관리 컴포넌트가 결정할 때 객체 검출 프로세스를 수행할 수 있다. 부가적으로 또는 대안적으로, 트립 관리 컴포넌트는, AV가 미리 결정된 시간 지속기간동안 정지해 있음을 트립 관리 컴포넌트가 결정할 때, AV가 목적지 위치(194)의 미리 결정된 거리 또는 미리 결정된 추정 이동 시간내에 있는 동안 AV가 미리 결정된 시간 지속기간 동안 정지해 있음을 트립 관리 컴포넌트가 결정할 때 또는 운송 서비스가 완료되었다는 결정에 대한 응답으로, 객체 검출부(130)가 객체 검출 프로세스를 수행하게 할 수 있다.In one example, in cases where the
운송 서비스가 완료되었다는 것을 트립 관리 컴포넌트가 결정할 때, 예컨대 객체 검출부(130)는 센서들의 세트로부터 수신된 센서 데이터(131)(예컨대, 센서 데이터(131)의 제2 세트)를 사용하여 객체가 이전되었는지를 결정하기 위하여 객체 검출 프로세스를 수행할 수 있다. 만일 객체가 아직 존재한다고 객체 검출부(130)가 검출하면, 객체 검출부(130)는 객체가 차량내에 아직 존재한다는 것을 표시하는 정보를 시스템 관리부(110)에 제공할 수 있다. 이에 대한 응답으로, 시스템 관리부(110)는 교정 액션을 자동적으로 수행할 수 있다. 다른 한편으로, 만일 객체가 이전되었다는 것을 객체 검출부(130)가 검출하면, 교정 프로세스 또는 액션이 취해지지 않는다. 일 변형예에서, 만일 객체가 (예컨대, 배달 운송 서비스의 경우에) 이전되었다는 것을 시스템(100)이 검출하면, 시스템(100)은 배달 운송 서비스가 완료되었음을 결정할 수 있다.When the trip management component determines that the transportation service has been completed, for example, the
본원에서 설명된 바와같이, 교정 액션은 사용자가 뜻하지 않게 어떤 객체를 남겨 놓았든지 간에 되돌아가거나 또는 사용자가 객체를 되찾는 것을 쉽게 하기 위해 시스템(100)이 수행하는 동작들(또는 동작들의 세트)에 대응할 수 있다. 다양한 구현들에서, 교정 액션(들)은 시스템(100)에 의해 수행될 수 있으며 그리고/또는 서비스 준비 시스템(190)과 관련하여 시스템(100)에 의해 수행될 수 있다. 후자의 예에서, 교정 액션(들)은 시스템(100)과 서비스 준비 시스템(190) 사이에서의 데이터 교환의 결과로서 수행될 수 있다.As described herein, a calibration action may be performed on behaviors (or sets of actions) performed by the system 100 to facilitate returning, regardless of whether the user has accidentally left an object, Can respond. In various implementations, the calibration action (s) may be performed by the system 100 and / or performed by the system 100 in conjunction with the
일례에서, 시스템 관리부(110)는 객체가 아직 차량내에 남아 있다는 정보 및/또는 객체 그 자체에 대한 정보를 (예컨대, 객체에 대한 최근 결정된 정보에 기반하여 또는 객체가 사전에 검출되었을 때 사전에 수신된 객체 정보(133)로부터) 수신할 수 있으며, 이러한 정보에 기반하여 객체 메시지(117)를 생성할 수 있다. 객체 메시지(117)는 예컨대 운송 서비스가 완료되었을 때의 시간 및/또는 위치, AV의 식별자, 사용자의 식별자, 운송 서비스의 식별자, 및 객체 대한 정보(예컨대, 객체가 무엇인지, 객체의 하나 이상의 이미지들, 객체와 관련한 측정치들, 객체가 있는 위치)를 포함할 수 있다. 시스템 관리부(110)는 사용자에 대한 통신 식별자(예컨대, 사용자의 전화 번호 또는 이메일 주소 또는 사용자의 계정과 임시로 연관된 통신 식별자)를 결정하고, 객체 메시지(117)를 사용자의 컴퓨팅 디바이스에 송신할 수 있다. 이러한 객체 메시지(117)는 또한 객체가 AV에 남겨져 있음을 사용자에게 알리기 위한 콘텐츠를 사용자의 컴퓨팅 디바이스가 디스플레이하게 하고 그리고/또는 (예컨대, 사용자의 컴퓨팅 디바이스상에서 작동하는 지정된 애플리케이션을 통해) 서비스 준비 시스템(190)을 제공하는 엔티티와 연락하기 위한 통지 정보를 포함할 수 있다. 부가적으로 또는 대안적으로, 객체 메시지(117)는 서비스 준비 시스템(190)에 송신될 수 있으며, 서비스 준비 시스템(190)은 통지 정보를 포함하는 메시지를 사용자의 컴퓨팅 디바이스에 송신할 수 있다. 사용자에게 디스플레이되는 통지 정보는 객체에 대한 정보 및/또는 사용자가 객체를 되찾을 수 있는 방법에 대한 정보를 제공할 수 있다. 상이한 통지 정보의 예들은 도 4a 내지 도 4d에 예시된다.In one example, the
부가적으로 또는 대안적으로, 시스템 관리부(110)는 또한 특정 위치에 AV를 배치함으로써 (예컨대, AV가 특정 위치로 이동하게 하거나 또는 특정 위치에 정지해 있도록 함으로써) 하나 이상의 교정 액션들을 수행할 수 있다. 예컨대, 교정 액션이 수행될 때, 시스템 관리부(110)는 (i) 목적지 위치(194)에서 또는 (ii) 객체가 차량에 아직 존재한다고 객체 검출부(130)가 결정하였을 때의 차량의 위치에서 AV가 정지해 있을 것을 차량 컴포넌트들을 통해 제어하도록 차량 제어 컴포넌트에 명령하는 저장된 위치결정 명령들에 액세스할 수 있다. AV가 특정 위치에서 정지상태를 유지하게 함으로써, 객체 메시지(117)는 사용자의 객체가 AV에 남겨져 있음을 그리고 AV가 미리 결정된 시간 지속기간(예컨대, 2분) 동안 특정 위치에 계속 머무를 것이라는 것을 사용자에게 알릴 수 있다. 대안적으로, 저장된 위치결정 명령들은 AV가 특정 위치(예컨대, 분실된 객체가 보관되어 있는 보관 위치) 또는 사무실 빌딩으로 이동하게 하도록 차량 제어 컴포넌트에 명령할 수 있으며, 객체 메시지(117)는 특정 시간들 동안 특정 위치에서 객체를 되찾을 수 있다는 것을 사용자에게 알릴 수 있다. Additionally or alternatively, the
AV가 특정 위치, 이를테면 보관 위치 또는 처분 위치로 이동하는 일부 예들에서, 보관 또는 처분을 위해 객체를 AV로부터 이전시키기 위하여, AV는 자동-제어 액추에이터들을 사용할 수 있다. 예컨대, AV 그 자체는 객체를 잡고 객체를 이전시킬 수 있는, 차량의 실내 또는 트렁크의 하나 이상의 기계 손들에 커플링된 하나 이상의 액추에이터들을 포함할 수 있다. 다른 예에서, AV는 보관 또는 처분 위치의 특정 차선 또는 장소로 이동하여 차량 문 및/또는 트렁크를 열수 있으며, 자동-제어 기계 팔 및 손 또는 집게발은 차량으로부터 객체를 이전시킬 수 있다.In some instances where the AV moves to a particular location, such as a storage location or a disposal location, the AV may use auto-control actuators to transfer the object from the AV for storage or disposal. For example, the AV itself may include one or more actuators coupled to one or more machine hands of the vehicle's interior or trunk, which can hold the object and relocate the object. In another example, the AV can be moved to a particular lane or place in the storage or disposal location to open the vehicle door and / or trunk, and the auto-controlled machine arm and hand or nib can transfer objects from the vehicle.
계속해서 추가로, 다른 예에서, 시스템 관리부(110)는 객체가 남겨져 있다는 것을 표시하는 정보를 서비스 준비 시스템(190)에 제공할 수 있으며, 이에 응답하여, 서비스 준비 시스템(190)은 AV가 하나 이상의 작업들을 수행하게 하는 명령들을 시스템(100)에 송신할 수 있다. 일 구현에서, 서비스 준비 시스템(190)은 차량 제어 컴포넌트가 AV의 이동 및 동작을 제어하게 하는 차량 명령들을 시스템 관리부(110)에 송신할 수 있다. 차량 명령들은 AV가 특정 위치로 이동하게 하거나 또는 특정 위치에 정지해 있게 할 수 있다.Still further, in another example, the
일부 경우들에서, 목적지 위치(194)에서 사용자를 내린 후, AV는 운송 서비스를 다른 요청 사용자에게 제공하도록 준비/선택될 수 있다. 결과적으로, 시스템(100)은 객체 메시지(117)를 송신하는 것과 같은 교정 액션을 수행할 수 있으나, 또한 AV가 후속하여 요청하는 사용자에 의해 특정된 픽업 위치로 이동하게 할 수 있다. 일부 예들에서, 서비스 준비 시스템(190)(또는 시스템(100))은 (i) 객체의 처분을 명령하거나, (ii) 일정 시간 지속기간 동안 사용자 대신에 객체를 맡도록 서비스 준비 시스템(190)을 동작시키는 엔티티에 요청하거나, (iii) 객체가 유지되는 특정 위치로 운송 서비스를 요청하거나 또는 (iv) 사용자의 현재 위치(또는 특정 위치)로의 객체의 배달을 요청하기 위해 응답 입력으로 사용자에게 질의하는 메시지를 사용자의 컴퓨팅 디바이스에 송신할 수 있다. 이들 옵션들 중 하나 이상은 사용자에 대한 추가 비용과 연관될 수 있다. 서비스 준비 시스템(190)은 사용자의 컴퓨팅 디바이스상의 애플리케이션을 통해 사용자 입력을 수신할 수 있고, 이에 따라 응답을 프로세싱할 수 있다. 예컨대, 만일 사용자가 사용자의 현재 위치에서 객체의 배달을 수신하기 위한 입력을 제공하면, 서비스 준비 시스템(190)은 배달 운송 서비스 요청으로서 응답을 프로세싱하고, 객체가 위치한 이전 AV를 식별하며, 그리고 (예컨대, 후속하여 요청하는 사용자에 대한 후속 운송 서비스를 완료하기 전에, 또는 완료 동안에 또는 완료 이후에) 사용자의 현재 위치로 이동하도록 그 특정 AV를 스케줄링할 수 있다. 이러한 예에서, 사용자는 별개의 운송 서비스 전체로서 또는 사용자의 이전 운송 서비스의 일부분으로서의 배달을 위하여 (예컨대, 추가 요금으로) 과금될 수 있다.In some cases, after dropping the user at destination location 194, the AV may be prepared / selected to provide the transport service to other requesting users. As a result, the system 100 can perform a corrective action, such as sending an
도 1의 시스템(100)이 자율 차량의 컴퓨팅 및 메모리 자원들에 대해 구현되는 것으로 설명되는 반면에, 일부 예들에서는 시스템(100)이 차량의 운전자에 의해 동작되는 모바일 컴퓨팅 디바이스(예컨대, 운전자 디바이스)에 대해 구현될 수 있다. 예컨대, 시스템(100)은 운전자 디바이스상에서 작동하거나 또는 하나 이상의 네트워크들을 통해 서비스 준비 시스템(190)과 데이터를 통신하는 애플리케이션 또는 프로그램으로서 (또는 애플리케이션의 일부분으로서) 구현될 수 있다. 이러한 예들에서, 시스템(100)은 콘텐츠(예컨대, 그래픽 사용자 인터페이스들)를 생성하여 운전자 디바이스의 디스플레이상에 제시하는 사용자 인터페이스 컴포넌트와 같은 다른 컴포넌트들을 포함할 수 있다. 요청 사용자에게 운송 서비스를 제공하기 위하여 서비스 준비 시스템(190)에 의해 운전자가 선택될 때, 서비스 명령들(191)을 수신하는 것과 대조적으로, 시스템(100)은 사용자 인터페이스 컴포넌트를 통해 운송 서비스를 제공하기 위한 초대를 수신하여 디스플레이할 수 있으며, 운전자는 초대를 수락 또는 거절할 수 있다. 초대는 사용자 정보(192), 픽업 위치(193) 및/또는 목적지 위치(194)를 포함할 수 있다.While system 100 of FIG. 1 is described as being implemented for computing and memory resources of an autonomous vehicle, in some instances system 100 is a mobile computing device (e.g., a driver device) operated by a driver of a vehicle, / RTI > For example, the system 100 may be implemented as an application or program (or as part of an application) that operates on an operator device or communicates data with the
계속해서 추가로, 시스템(100)이 운전자 디바이스에 의해 구현되는 예들에서, 객체 검출부(130)는 단거리 무선 통신 트랜시버(예컨대, 블루투스 또는 Wi-Fi) 또는 물리적 커넥터 포트와 같은, 운전자 디바이스의 통신 인터페이스를 통해 센서 데이터(131)를 수신할 수 있다. 운전자는 통신 인터페이스를 통해 객체 검출부(130)에 센서 데이터(131)를 통신할 수 있는 하나 이상의 센서들을 차량의 트렁크 또는 뒷좌석 등에 고정 또는 부착할 수 있다.Still further, in the examples in which the system 100 is implemented by an operator device, the
대안적으로, 시스템(100)의 하나 이상의 컴포넌트들은 서비스 준비 시스템(190)의 일부분으로서 또는 서비스 준비 시스템(190)과 통신하는 (예컨대, 자율 차량 또는 운전자 디바이스로부터 원격에 있는) 다른 원격 시스템의 일부분으로서 구현될 수 있다. 예컨대, 시스템(100)은 서비스 준비 시스템(190)에서 구현되는 검출 검출부(130)에 센서 데이터(131)를 송신할 수 있으며, 객체 검출부(130)는 이후 객체가 차량내에 놓이고 그리고/또는 차량 밖으로 이동되었을 때를 검출한다. 이후, 서비스 준비 시스템(190)은 검출에 기반하여 사용자에게 통지들을 송신하는 것과 같은 교정 액션들을 수행할 수 있다.Alternatively, one or more components of the system 100 may be used as part of the
계속해서 추가로, 일부 예들에서, 다른 센서들은 객체의 존재 및/또는 차량으로부터 객체의 이전을 검출하기 위해 시스템(100)에 의해 사용될 수 있다. 예컨대, 전자기 센서들은 전자 제품들, 이를테면 셀 폰들, 태블릿들, 랩탑 컴퓨터들 등을 검출하기 위하여 사용될 수 있거나 또는 다른 진보된 센서들, 이를테면 화학센서들 또는 가스 크로마토그래피 센서들은 냄새(예컨대, 음식, 식료 잡화류 등)를 사용하여 객체들을 검출하기 위하여 사용될 수 있다. 일례에서, 전자기 센서들 또는 안테나들/무선 트랜시버들을 사용하면, 차량에서 검출하기 어려울 수 있는, 예컨대 좌석들 사이로 또는 좌석 아래로 떨어지거나 또는 미끄러져 떨어져 있을 수 있는 작은 전자 디바이스들을 검출하는데 도움을 줄 수 있다.Still further, in some instances, other sensors may be used by the system 100 to detect the presence of an object and / or the transfer of an object from a vehicle. For example, electromagnetic sensors can be used to detect electronics, such as cell phones, tablets, laptop computers, or other advanced sensors, such as chemical sensors or gas chromatography sensors, Food items, etc.) to detect objects. In one example, the use of electromagnetic sensors or antennas / wireless transceivers may help to detect small electronic devices that may be difficult to detect in a vehicle, such as falling between seats or under a seat or slipping away .
상이한 애플리케이션에서, 시스템(100)은 또한 요청하는 사용자가 차량에 타거나 또는 사용자의 객체를 운송한 결과로서, 차량의 실내에 손상이 있었는지의 여부를 검출하기 위하여 센서 데이터를 사용할 수 있다. 시스템(100)은, 차량의 실내에 배치되는 센서들을 사용하여, 운송 서비스가 개시되기 전의 시간에 (예컨대, 사용자의 픽업 위치로부터 떨어진 미리 결정된 거리 또는 추정된 시간에 또는 서비스 명령들이 수신될 때에 응답하여) 차량의 실내의 상태를 검출할 수 있다. 운송 서비스가 완료되고 있는 시간에 (예컨대, 차량이 목적지 위치 근처에 있거나 또는 목적지 위치에 도달한 시간에) 또는 완료된 시간에, 시스템(100)은 이 시간에 차량의 실내의 상태를 다시 검출하여 차량의 실내의 상태에 대한 이전 정보와 이 정보를 비교할 수 있다. 이러한 비교를 사용하여, 시스템(100)은, 운송 서비스 이후에, 어떤 것이 좌석들 또는 바닥에 떨어졌는지의 여부, 좌석이 찢어졌는지 또는 긁혔는지의 여부 등을 검출할 수 있다. 만일 손상이 검출되면, 시스템(100)은 서비스 준비 시스템(190) 및/또는 사용자 디바이스에 대한 손상을 표시하는 정보를 제공할 수 있다. 서비스 준비 시스템(190)은 청소 및/또는 수리에 대해 사용자에게 과금하고, 그리고/또는 청소 및/또는 수리를 위해 차량을 특정 위치로 이동하도록 운전자에게 명령하거나 또는 차량이 특정 위치로 이동하게 할 수 있다.In a different application, the system 100 may also use sensor data to detect whether there has been damage to the interior of the vehicle as a result of the requesting user riding the vehicle or carrying the user's object. The system 100 may use sensors located in the interior of the vehicle to determine whether a response is received at a time before the transport service is initiated (e.g., at a predetermined distance or estimated time away from the user ' s pick- To detect the indoor state of the vehicle. At a time when the transportation service is being completed (e.g., when the vehicle is near the destination location or when it reaches the destination location) or at the time it is completed, the system 100 again detects the state of the interior of the vehicle at this time, This information can be compared with previous information on the indoor condition of the room. Using these comparisons, the system 100 may, after the transportation service, detect whether something has fallen into the seats or floor, whether the seats have been torn or scratched, and so on. If a corruption is detected, the system 100 may provide information indicative of a corruption to the
방법Way
도 2 및 도 3은 운송 서비스와 관련하여 차량내의 객체들을 검출하기 위한 예시적인 방법을 예시한다. 도 2 및 도 3의 예들에 의해 설명된 방법들과 같은 방법들은 예컨대 도 1의 예와 함께 설명된 컴포넌트들을 사용하여 구현될 수 있다. 따라서, 도 1의 엘리먼트들과 관련한 참조들은 설명되고 있는 단계 또는 부단계를 수행하기에 적합한 엘리먼트 또는 컴포넌트를 예시하기 위한 것이다. 단순화를 위하여, 도 2의 예시적인 방법은 운전자 디바이스 상에서 동작하는 시스템(100) 및/또는 서비스 준비 시스템(190)에 의해 수행되는 것으로 설명된다.Figures 2 and 3 illustrate an exemplary method for detecting objects in a vehicle in connection with a transportation service. Methods such as those described by the examples of FIGS. 2 and 3 may be implemented, for example, using the components described in conjunction with the example of FIG. Accordingly, references to elements of FIG. 1 are intended to illustrate the elements or components suitable for carrying out the steps or sub-steps being described. For simplicity, the exemplary method of FIG. 2 is described as being performed by system 100 and / or
도 2를 참조하면, 서비스 준비 시스템(190)은 요청하는 사용자에게 서비스를 제공하기 위해 AV 또는 차량의 운전자가 선택되었음을 결정할 수 있다(200). 예컨대, 서비스 준비 시스템(190)은 요청하는 사용자에 의해 특정된 서비스 위치(들) 및 차량의 위치에 기반하여 차량을 선택하기 위한 차량 선택 프로세스를 수행할 수 있다. 서비스는 픽업 위치로부터 목적지 위치까지의 객체 또는 물품 배달 운송 서비스 또는 픽업 위치로부터 목적지 위치까지의 사람(예컨대, 사용자)의 운송 서비스에 대응할 수 있다. 서비스 준비 시스템(190)은 운전자 또는 AV가 수행할 서비스에 대응하는 서비스 명령들을 선택된 차량의 개별 시스템(100)에 송신할 수 있다. AV의 예에서, 시스템(100)은 현재 위치로부터 픽업 위치로 이동시키도록 AV를 제어하기 위하여 서비스 명령들을 프로세싱할 수 있는 반면에, 인간 운전자의 예에서는 시스템(100)이 픽업 위치로 이동하기 위하여 운전자가 따를 수 있는 루트 또는 내비게이션 정보를 제공할 수 있다.Referring to FIG. 2, the
운전자 또는 AV가 서비스를 제공할 것이라는 것을 시스템(100)이 결정한 이후 시간에, 시스템(100)은 차량의 하나 이상의 센서들로부터의 데이터를 사용하여 객체 검출 동작을 수행할 수 있다. 일례에서, 서비스 준비 시스템(190)은 (예컨대, 제1 시간에) 시스템(100)으로부터의 센서 정보의 제1 세트를 수신할 수 있으며, 정보의 제1 세트에 기반하여 객체가 차량내에 놓여 있음을 검출할 수 있다(210). 시스템(100)은 차량의 센서들의 세트로부터 센서 정보를 수신할 수 있다. 대안적으로, 시스템(100)은 객체가 차량내에 놓여 있음을 검출하고, 이러한 객체를 표시하는 정보를 서비스 준비 시스템(190)에 제공할 수 있다. At a time after the system 100 determines that the driver or AV will provide the service, the system 100 may perform object detection operations using data from one or more sensors of the vehicle. In one example, the
구현에 따르면, 하나 이상의 센서들 또는 센서들의 조합은 객체가 차량내에 놓여 있음을 검출하기 위하여 시스템(100) 및/또는 서비스 준비 시스템(190)에 의해 사용될 수 있다. 예컨대, 시스템(100) 및/또는 서비스 준비 시스템(190)은 차량내에 배치된 카메라들(예컨대, 레이더들, LIDAR들 또는 초음파 센서들)의 세트로부터 이미지 정보를 수신할 수 있으며, 여기서 카메라들의 세트는 카메라들의 세트의 개별 렌즈가 차량의 실내(예컨대, 뒷좌석, 앞좌석, 트렁크 또는 다른 컴파트먼트)쪽을 향하도록 배치된다. 다른 예에서, 시스템(100) 및/또는 서비스 준비 시스템(190)은 차량의 컴파트먼트 또는 실내에 배치된 계량 디바이스들의 세트로부터 무게 정보를 수신할 수 있으며, 여기서 계량 디바이스들의 세트는 계량 디바이스들의 세트의 개별 측정 플랫폼이 차량의 컴파트먼트 또는 실내의 바닥면상에 배치되거나 이 아래에 배치되거나 또는 이에 포함되도록 배치된다(예컨대, 플랫폼은 트렁크내에 또는 좌석에 또는 좌석내에 놓인 객체들의 무게를 재서, 뒷좌석 또는 앞좌석에 앉아 있는 사람의 무게를 재기 위하여 트렁크의 표면에 있다). 계속해서 추가로, 다른 예에서, 시스템(100) 및/또는 서비스 준비 시스템(190)은 차량의 서스펜션 시스템 근처에 배치되거나 또는 이 서스펜션 시스템에 포함되는 (예컨대, 차량의 프레임 또는 후방 및/또는 전방 서스펜션 시스템 근처에 배치된) 서스펜션 센서들의 세트로부터 압축 정보를 수신할 수 있다. 부가적으로, 센서는 또한 컴파트먼트 또는 트렁크가 열려져 있는지 및/또는 닫혀있는지의 여부에 관한 정보를 제공할 수 있으며, 이 정보는 다른 센서 정보와 관련하여 사용될 수 있다.According to an implementation, one or more sensors or a combination of sensors may be used by system 100 and / or
시스템(100) 및/또는 서비스 준비 시스템(190)은 객체 검출 동작을 수행하기 위하여 이들 상이한 소스들 중 하나 이상으로부터의 정보를 사용할 수 있다. 게다가, 수신된 센서 입력/정보의 제1 세트에 기반하여, 시스템(100) 및/또는 서비스 준비 시스템(190)은 객체가 차량내에 놓여 있는 사실, 객체가 무엇인지(또는 객체의 타입), 객체의 색 또는 크기 또는 치수 또는 무게, 객체가 어떤 컴파트먼트내에 있는지, 및/또는 객체의 위치를 검출할 수 있다. 예에 따르면, 서비스 준비 시스템(190)은 또한 운송 서비스의 트립 엔트리와(및/또는 사용자의 프로필 또는 계정과) 객체 정보를 연관시킬 수 있다.The system 100 and / or the
다양한 예들에서, 시스템(100)은 AV의 위치 정보에 기반하여 센서 데이터를 결정하기 위하여 (예컨대, 검출 또는 측정을 수행하기 위하여) 센서들을 트리거할 수 있다. 예컨대, 에너지 또는 전력을 보존하기 위하여, 시스템(100)은 AV가 서비스 위치에 또는 서비스 위치 근처에 도달할 때, 예컨대 AV가 픽업 위치의 미리 결정된 거리 또는 추정된 이동 시간에 또는 이 내에 도달할 때, 및/또는 AV가 서비스 위치에 또는 이 근처에 있으면서 일정 시간 지속기간 동안 정지해 있을 때 센서 데이터를 결정하기 위하여 센서들을 트리거할 수 있다. 대안적으로, 다른 예에서, 시스템(100)은 서비스가 시작되었다는 결정에 대한 응답으로 센서 데이터를 결정하기 위하여 센서들을 트리거할 수 있다.In various examples, the system 100 may trigger sensors (e.g., to perform detection or measurement) to determine sensor data based on location information of the AV. For example, in order to conserve energy or power, the system 100 may determine when the AV reaches a service location or near a service location, for example when the AV reaches or within a predetermined distance or estimated travel time of the pick- , And / or trigger sensors to determine sensor data when the AV is stationary for a period of time while in or near the service location. Alternatively, in another example, the system 100 may trigger the sensors to determine the sensor data in response to the determination that the service has been started.
도 2를 다시 참조하면, 서비스 준비 시스템(190)은 또한 서비스가 시작되었음을 결정할 수 있다(220). 구현에 따르면, 서비스 준비 시스템(190)은 (i) 사용자가 차량에 들어갔다는 검출에 대한 응답으로 (예컨대, 차량내에서 객체를 검출한 것(단계(210))에 대한 응답으로 또는 사용자의 컴퓨팅 디바이스의 위치 데이터 포인트들 및 차량의 위치 데이터 포인트들에 기반하여 그리고 이들이 서로 미리 결정된 거리내에 있다는 결정에 대한 응답으로), (ii) 사용자가 차량에 들어갔다는 것을 검출한 이후로부터 미리 결정된 시간 지속기간(예컨대, 10초)이 경과하였다는 검출에 대한 응답으로, (iii) 사용자와 연관된 컴퓨팅 디바이스에 제공되는 입력의 결과로서 서비스가 시작될 수 있다는 것을 표시하는 정보를 사용자의 컴퓨팅 디바이스로부터 수신한 것에 대한 응답으로(예컨대, 사용자는 트립을 시작하는 것에 대응하는 피처(feature)를 선택한다), (iv) 운전자 또는 사용자로부터 운전자 디바이스 또는 온-보드 컴퓨팅 시스템에 제공되는 입력의 결과로서 서비스가 시작될 수 있다는 것을 표시하는 정보를 운전자 디바이스(또는 AV의 온-보드 컴퓨팅 시스템)로부터 수신하는 것에 대한 응답으로, 그리고/또는 (v) 차량의 위치 정보에 기반하여 미리 결정된 시간 지속기간 동안 시작 위치의 결정된 거리내에 차량이 배치되어 있다는 결정에 대한 응답으로 서비스가 시작되었음을 결정할 수 있다. 다른 예들에서, 시스템(100)은 예들 (i) 내지 (v) 중 임의의 것에 기반하여 서비스가 시작되었음을 검출한다. Referring again to FIG. 2, the
서비스 준비 시스템(190)은 또한 예컨대 운전자 또는 AV가 서비스를 수행할 때 서비스를 모니터링한다(230). 본원에서 설명된 바와같이, 서비스를 모니터링하는 것은 차량이 픽업 위치로부터 목적지 위치로 이동할 때 차량의 위치 (및 대응하는 타임스탬프) 및/또는 상태를 결정하는 것 및 이러한 정보를 서비스와 연관된 트립 엔트리에 저장하는 것을 주기적으로 포함할 수 있다. 시스템(100)은 이러한 정보를 서비스 준비 시스템(190)에 제공할 수 있다. 일부 예들에서, 서비스 준비 시스템(190)은 또한 사용자의 컴퓨팅 디바이스에 (또는 다른 디바이스에) 서비스의 진행에 대한 정보를 제공할 수 있다. 예컨대, 사용자는 사용자의 위치에서 픽업되고 친구의 목적지 위치에 내려줄 소화물에 대한 배달 서비스를 요청하였을 수도 있다. 사용자의 디바이스상의 애플리케이션은 서비스 준비 시스템(190)으로부터 서비스의 진행에 대한 정보, 예컨대 지도위의 AV의 위치 및 이동을 (주기적으로) 수신할 수 있다. 부가적으로 또는 대안적으로, 사용자는 소화물을 수신할 친구의 연락 정보(예컨대, 전화 번호 또는 이메일 주소)를 애플리케이션을 통해 서비스 준비 시스템(190)에 제공하였을 수도 있다. 서비스 준비 시스템(190)은 서비스를 모니터링하고 서비스에 대한 업데이트된 정보를 친구에 제공할 수 있으며, 따라서 친구는 AV가 목적지 위치로 이동할 때 소화물을 추적할 수 있다.The
서비스 준비 시스템(190)은 예컨대 서비스를 모니터링한 결과로서, 서비스가 완료되었음을 결정할 수 있다(240). 구현에 따르면, 서비스 준비 시스템(190)은 (i) 사용자가 차량을 떠났다는 검출에 대한 응답으로 (예컨대, 사용자의 컴퓨팅 디바이스의 위치 데이터 포인트들 및 차량의 위치 데이터 포인트들에 기반하여 그리고 이들이 미리 결정된 거리를 초과하여 분리되어 있다는 결정에 대한 응답으로), (ii) 사용자가 차량을 떠났다는 것을 검출한 이후로부터 미리 결정된 시간 지속기간(예컨대, 20초)이 경과하였다는 검출에 대한 응답으로, (iii) 사용자와 연관된 컴퓨팅 디바이스에 제공되는 입력의 결과로서 서비스가 종료되었다는 것을 표시하는 정보를 사용자의 컴퓨팅 디바이스로부터 수신한 것에 대한 응답으로(예컨대, 사용자는 트립을 종료하는 것에 대응하는 피처를 선택한다), (iv) 운전자 또는 사용자로부터 운전자 디바이스 또는 온-보드 컴퓨팅 시스템에 제공되는 입력의 결과로서 서비스가 종료되었다는 것을 표시하는 정보를 운전자 디바이스(또는 AV의 온-보드 컴퓨팅 시스템)로부터 수신하는 것에 대한 응답으로, 그리고/또는 (v) 차량의 위치 정보에 기반하여 미리 결정된 시간 지속기간 동안 목적지 위치의 결정된 거리내에 차량이 배치되어 있다는 결정에 대한 응답으로 서비스가 종료되었음을 결정할 수 있다.The
서비스가 완료되었다고 결정한 이후에, 서비스 준비 시스템(190)은 (예컨대, 제2 시간에) 차량의 하나 이상의 센서들로부터의 센서 정보의 제2 세트에 기반하여 (차량내에서 사전에 검출된) 객체가 차량으로부터 이전되었는지의 여부를 검출할 수 있다(250). 예컨대, 서비스 준비 시스템(190)은 시스템(100)으로부터 센서 정보의 제2 세트를 수신할 수 있으며, 차이, 예컨대 이미지의 차이, 무게의 차이, 압축 정보의 차이 등이 존재하는지를 결정하기 위하여 센서 정보의 제1 세트 및 제2 세트를 비교할 수 있다. 대안으로서, 시스템(100)은 비교 동작을 수행하여, 객체가 이전되었는지의 여부에 대한 표시를 서비스 준비 시스템(190)으로 제공할 수 있다. 시스템(100)은 예들에 따라 특정 시간 인스턴스에서, 이를테면 서비스가 완료되었다는 검출에 대한 응답으로 또는 서비스가 완료되었다는 것을 검출한 이후로부터 미리 결정된 시간 지속기간 이후에 센서 데이트를 결정하기 위하여 (예컨대, 검출 또는 측정을 수행하기 위하여) 센서들을 트리거할 수 있다.After determining that the service has been completed, the
대안적으로, 서비스 준비 시스템(190)은 서비스가 완료될 것으로 결정되기 전에 객체가 차량으로부터 이전되었는지의 여부를 결정할 수 있다. 예컨대, 서비스 준비 시스템(190)(또는 시스템(100))은 AV가 목적지 위치에 도달하였거나 또는 목적지 위치 근처에 있고 그리고/또는 목적지 위치에 있거나 또는 목적지 위치 근처에 있으면서 일정 시간 지속기간 동안 정지해 있다는 결정에 대한 응답으로 객체 검출 프로세스를 수행할 수 있다. 다른 예에서, 서비스 준비 시스템(190)은 객체가 차량으로부터 이전되었다는 검출에 대한 응답으로 (예컨대, 단계(250)를 수행한 이후에) 서비스가 완료되었음을 결정할 수 있다. Alternatively, the
만일 객체가 차량으로부터 이전되었다는 것을 서비스 준비 시스템(190)이 결정하면, 서비스 준비 시스템(190)은, 차량내의 사용자가 객체를 소지하고 있거나 또는 다른 사용자가 객체를 (예컨대, 배달 목적지 위치로) 이전시켰을 때, 교정 액션이 수행될 필요가 없음을 결정할 수 있다(270). 다른 한편으로, 만일 객체가 이전되지 않았다고 서비스 준비 시스템(190)이 결정하면, 서비스 준비 시스템(190)은 하나 이상의 교정 액션들을 자동적으로 수행할 수 있다(260). 예컨대, 서비스 준비 시스템(190)은, 잘못된 객체를 운전자 및 사용자에게 알리기 위하여, 운전자 디바이스 및/또는 사용자 디바이스상의 개별 애플리케이션들을 통해 운전자 및/또는 사용자에 메시징할 수 있다. 메시지는 운전자 및 사용자가 위치, 예컨대 목적지 위치에서 만나게 하여 사용자가 객체를 되찾을 수 있게 하는 명령들(예컨대, 내비게이션 명령들을 포함함)을 포함할 수 있다.If the
다른 예에서, 서비스 준비 시스템(190)은 사용자 디바이스에 메시지 또는 통지를 송신하여, 사용자가 사용자에 의해 특정된 위치로의 객체의 전달을 요청하는 것을 가능하게 할 수 있다. 계속해서 추가로, 일례에서, 만일 차량이 AV이면, 서비스 준비 시스템(190)은 AV가 특정 위치로 이동하게 하기 위하여 차량 제어 명령들을 AV에 송신할 수 있다. 이러한 특정 위치는 사용자의 후속 전달 운송 서비스 요청에 특정된 사용자에 대한 새로운 만남 위치(배달품 하차 위치) 또는 잘못된 객체들을 보관하는 지정된 보관 또는 창고형 위치에 대응할 수 있디. 서비스 준비 시스템(190)은 또한 사용자가 객체를 되찾을 수 있는 이러한 위치 정보를 제공하기 위하여 사용자 디바이스에 메시징할 수 있다.In another example, the
도 3은 운송 서비스와 관련하여 차량내의 객체들을 검출하기 위한 다른 예시적인 방법을 예시한다. 일례에서, 도 3에 설명된 방법의 하나 이상의 단계들은 도 2에 설명된 방법의 하나 이상의 단계들과 동시에 수행될 수 있다. 단순화를 위하여, 도 3의 예시적인 방법은 자율 차량의 온-보드 컴퓨팅 시스템상에서 동작하는 시스템(100)에 의해 수행되는 것으로 설명된다. Figure 3 illustrates another exemplary method for detecting objects in a vehicle in connection with a transportation service. In one example, one or more steps of the method described in FIG. 3 may be performed concurrently with one or more steps of the method described in FIG. For simplicity, the exemplary method of FIG. 3 is described as being performed by the system 100 operating on an on-board computing system of autonomous vehicles.
도 3에서, (AV의) 시스템(100)은 요청하는 사용자에게 서비스를 제공하기 위하여 AV에 대한 서비스 명령들을 서비스 준비 시스템(190)으로부터 수신할 수 있다(300). 본원에서 설명된 바와같이, 서비스는 시작 위치 및 목적지 위치를 가질 수 있으며, 객체 또는 사람(예컨대, 요청하는 사용자)의 배달에 대응할 수 있다. 시스템(100)은 어떤 서비스를 제공할지, 어디로 이동할지(예컨대, 현재 위치로부터 시작/픽업 위치로, 이후 목적지 위치로), 그리고 그 장소로 어떻게 이동할지(예컨대, 어느 루트로 가야할지)를 결정하기 위하여 서비스 명령들을 프로세싱할 수 있다. In FIG. 3, the system 100 of (AV) may receive 300 service instructions from the
서비스 명령들, 지도 데이터 및/또는 AV를 동작시키기 위하여 사용된 센서 데이터(예컨대, AV의 바디상에 장착된 센서들로부터의 데이터)에 기반하여, 시스템(100)은 시작 위치로 이동하도록 AV를 제어하고, 동시에 AV의 이동을 모니터링할 수 있다(310). 시스템(100)은 센서들로부터의 센서 데이터 및 다양한 차량 컴포넌트들로부터의 피드백 신호들을 수신하는 것에 대한 응답으로 다양한 서브-시스템들의 차량 제어 모듈들에 제어 신호들을 전송함으로써 AV의 동작을 제어하기 위하여 AV 제어 시스템에 대응하거나 또는 이를 포함하거나 또는 이와 통신할 수 있다. 시스템(100)은 또한 예컨대 GPS 데이터로부터 AV의 위치를 결정하고, 루트 및/또는 시작 위치와 비교하여 현재의 위치를 모니터링할 수 있다. 주기적으로 결정된 AV의 현재 위치를 사용하여, 시스템(100)은 AV가 시작 위치의 미리 결정된 거리에 도달하거나 또는 이 거리내에 있을 때(예컨대, AV가 시작 위치에 근접할때)를 결정할 수 있다. 일례에서, AV가 시작 위치에 근접한다고 시스템(100)이 결정할 때, 시스템(100)은 AV의 상태를 (온 루트 상태로부터 방금 도달한 상태로 또는 도달 완료된 상태로) 변경할 수 있다.Based on service instructions, map data and / or sensor data (e.g., data from sensors mounted on the body of the AV) used to operate the AV, the system 100 may be configured to move the AV And at the same time monitor the movement of the AV (310). The system 100 may be configured to transmit control signals to the vehicle control modules of various sub-systems in response to receiving sensor data from the sensors and feedback signals from various vehicle components, And may correspond to or include or communicate with the control system. The system 100 may also monitor the current location, e.g., by determining the location of the AV from the GPS data and comparing it to the route and / or the starting location. Using the periodically determined current position of the AV, the system 100 can determine when the AV reaches or is within a predetermined distance of the starting position (e.g., when the AV approaches the starting position). In one example, when the system 100 determines that the AV is close to the starting location, the system 100 may change the state of the AV (from the on-route state to the just arrived state or the arrived complete state).
AV가 시작 위치에 근접하다고 결정한 이후 시간에, 시스템(100)은 객체가 AV내에 놓여 있음을 검출하기 위하여 객체 검출 프로세스를 수행할 수 있다(320). 구현에 따르면, 시스템(100)은, AV가 시작 위치에 근접함을 결정한 이후의 시간으로부터 AV가 목적지 위치로 이동하는 것을 시작된 이후의 시간까지, 도 1 및 도 2에 설명된 바와같이 객체 검출 프로세스를 주기적으로 수행할 수 있다. 일례에서, 시스템(100)은 서비스가 시작되었다는 것을 결정하는 것에 응답하여 객체 검출 프로세스를 수행할 수 있거나 또는 서비스가 시작되었다고 결정하는 것과 동시에 또는 그 전에 객체 검출 프로세스를 수행할 수 있다. 도 3의 예에서, 시스템(100)은,도 1 및 도 2에 설명된 바와같이,객체(예컨대, 박스)가 AV로부터 수신된 센서 정보로부터 AV의 뒷좌석에 놓여 있음을 검출할 수 있다.At a time after determining that the AV is close to the starting position, the system 100 may perform an object detection process 320 to detect that the object is in the AV. According to an implementation, the system 100 may be configured to perform an object detection process, such as described in Figures 1 and 2, until the time after the AV begins to move to the destination location from the time after determining that the AV is close to the start location Can be performed periodically. In one example, system 100 may perform an object detection process in response to determining that a service has been started, or may perform an object detection process at the same time as or prior to determining that a service has been started. In the example of Figure 3, the system 100 may detect that an object (e.g., a box) is placed in the back seat of the AV from the sensor information received from the AV, as described in Figures 1 and 2.
일단 서비스가 시작되었다면, 시스템(100)은 목적지 위치로부터 이동하도록 AV를 제어할 수 있으며, 또한 서비스의 진행 또는 차량을 모니터링할 수 있다(330). 유사하게, 앞서 설명된 바와같이, 시스템(100)은 GPS 데이터로부터 AV의 위치를 결정하고, 루트 및/또는 목적지 위치와 비교하여 현재 위치를 모니터링할 수 있다. 시스템(100)은 AV가 목적지 위치의 미리 결정된 거리에 도달하거나 또는 이 거리내에 있을 때(예컨대, AV가 목적지 위치에 근접할때)를 결정할 수 있다(340). AV가 목적지 위치에 근접하다고 결정한 이후 시간에, 시스템(100)은 객체가 AV내에 놓여 있음을 검출하기 위하여 객체 검출 프로세스를 수행할 수 있다(350). 구현에 따르면, 단계(350)는 서비스가 완료되었다고 결정하기 전에, 또는 그 결정 이후에 또는 그 결정 동안 수행될 수행될 수 있다.Once the service is started, the system 100 may control the AV to move from the destination location, and may also monitor the progress of the service or the vehicle (330). Similarly, as described above, the system 100 can determine the location of the AV from the GPS data and monitor the current location by comparing it with the route and / or destination location. The system 100 may determine 340 when the AV reaches or is within a predetermined distance of the destination location (e.g., when the AV approaches the destination location). At a time after determining that the AV is close to the destination location, the system 100 may perform an
객체가 AV로부터 이전되었음을 시스템(100)이 결정하면, 시스템(100)은 교정 액션이 수행될 필요가 없음을 결정할 수 있다(370). 다른 한편으로, 만일 객체가 차량에 아직 존재한다고 시스템(100)이 결정하면, 시스템(100)은 하나 이상의 교정 액션들을 수행하고 그리고/또는 도 1 및 도 2에 설명되는 바와같이 서비스 준비 시스템(190)이 하나 이상의 교정 액션들을 수행하게 할 수 있다(360). If the system 100 determines that an object has been transferred from the AV, the system 100 may determine 370 that a calibration action need not be performed. On the other hand, if the system 100 determines that an object is still present in the vehicle, the system 100 may perform one or more calibration actions and / ) May perform one or more calibration actions (360).
도 4a 내지 도 4d은 다양한 사용 사례 예들에서 모바일 컴퓨팅 디바이스상에 디스플레이된 사용자 인터페이스들의 예들을 예시한다. 도 4a 및 도 4d에 예시된 예들의 각각에 대하여, 개별 사용자 인터페이스는 사용자의 운송 서비스와 관련하여 차량에 객체를 남긴 사용자의 사용자 디바스상에 디스플레이될 수 있다. 구현에 따르면, 사용자 인터페이스는 서비스 준비 시스템(190)과 연관된 설계된 애플리케이션의 일부분으로서 또는 사용자 디바이스상에서 동작하는 다른 애플리케이션(예컨대, 이메일 애플리케이션, 텍스트 메시징 애플리케이션, 웹 브라우저 애플리케이션 등)의 일부분으로서 디스플레이될 수 있다. 일례에서, 사용자 디바이스상에 통지가 디스플레이될 수 있으며, 피처 또는 통지의 선택은 사용자 인터페이스가 사용자 디바이스상에 디스플레이되게 할 수 있다.Figures 4A-4D illustrate examples of user interfaces displayed on a mobile computing device in various use case examples. For each of the examples illustrated in Figures 4A and 4D, an individual user interface may be displayed on the user's device of a user who has left an object in the vehicle with respect to the user's transportation service. According to an implementation, the user interface may be displayed as part of a designed application associated with the
도 4a를 참조하면, 일례에서, 사용자 디바이스는 서비스가 종료된 이후에 (또는 일부 경우들에서는 서비스가 종료되기 직전에) 서비스 준비 시스템(190) 또는 시스템(100)으로부터 통지 또는 메시지를 수신할 수 있다. 사용자 디바이스상에서 작동하는 애플리케이션은 사용자 인터페이스(400)를 디스플레이할 수 있으며, 사용자 인터페이스(400)는 객체의 이미지 콘텐츠(405) 및 객체가 차량내에 남겨져 있다는 것을 사용자에게 상기시키고 그리고/또는 사용자에게 통지하는 텍스트 콘텐츠(410)를 포함한다. 이미지 콘텐츠(405)는 차량의 하나 이상의 센서들(예컨대, 카메라들)로부터의 이미지 정보로부터 생성될 수 있다. 대안적으로, 카메라가 차량에서 사용되지 않은 경우에, 객체를 표현하는 다른 콘텐츠가 이미지 콘텐츠(405), 이를테면 객체를 표현하는 추가 텍스트 콘텐츠 또는 다른 그래픽 또는 플레이스홀더 이미지들 대신에 디스플레이될 수 있다. 이러한 예에서, 텍스트 콘텐츠(410)는 또한 객체를 되찾기 위하여 무엇을 해야 하는지를 결정하기 위하여, 사용자가 메시징하기 위한 연락 정보를 제공한다.4A, in one example, the user device can receive notifications or messages from the
도 4b의 예에서, 사용자 인터페이스(420)는 사용자 디바이스상에 디스플레이될 수 있다. 사용자 인터페이스(420)는 또한 도 4a에 설명된 것과 같은 이미지 콘텐츠(425), 및 객체가 차량내에 남아 있다는 것을 사용자에게 통지하고 객체를 픽업할 특정 위치를 사용자에게 알리는 텍스트 콘텐츠(430)를 포함할 수 있다. 예컨대, 서비스 준비 시스템(190)은 특정 위치로 이동하도록 (또는 목적지 위치 또는 사용자가 내렸던 위치에 머무르도록) AV 또는 운전자에게 명령할 수 있다. 서비스 준비 시스템(190)은 위치에 대한 대응 콘텐츠를 포함하는 텍스트 콘텐츠(430)를 생성할 수 있다. 도 4b에서, 텍스트 콘텐츠(430)는 사용자가 내렸던 위치에서 객체를 가진 차량이 2분 더 (또는 임의의 다른 미리 결정된 시간 지속기간 동안) 대기할 것이라는 것을 사용자에게 알린다.In the example of FIG. 4B, the
다른 예에 따르면, 도 4c의 사용자 인터페이스(440)는 인터랙티브 통지 프롬프트(interactive notification prompt)로서 사용자 디바이스상에 디스플레이될 수 있다. 이러한 통지 프롬프트는 인-앱(in-app)일 수 있거나 (예컨대, 애플리케이션 사용자 인터페이스의 일부분으로서 디스플레이될 수 있거나) 또는 아웃-오브-앱(out-of-app)일 수 있다(예컨대, 애플리케이션 현재 열려져 있지 않을 때 그리고 모바일 디바이스의 오퍼레이팅 시스템의 네이티브 사용자 인터페이스 통지 피처(native user interface notification feature)들을 사용하여 디스플레이될 수 있다). 이러한 예에서, 사용자 인터페이스(440)는 사용자의 객체가 보관되거나 또는 보유될 특정 위치를 포함하는 텍스트 콘텐츠(445)를 포함한다. 텍스트 콘텐츠(445)는 위치 정보(예컨대, 주소 또는 거리 교차로), 사용자가 객체를 픽업할 수 있는 시간 또는 시간 지속기간(예컨대, "정상 영업시간" 또는 "8am 내지 6pm"), 및 특정 위치로의 운송 서비스를 요청하기 위하여 사용자가 선택할 수 있는 선택가능 피처(450)를 포함할 수 있다. 만일 사용자가 선택가능한 피처("요청" 또는 "요청 트립")(450)를 선택하면, 지정된 서비스 애플리케이션이 사용자 디바이스상에서 열리거나 또는 론치될 수 있으며, 따라서 사용자는 (예컨대, 사용자의 현재 위치로부터 또는 특정 픽업 위치로부터) 특정 위치로의 운송 서비스를 확인할 수 있다. 대안적으로, 만일 사용자가 선택가능한 피처(450)를 선택하면, 지정된 서비스 애플리케이션은 운송 서비스에 대한 요청을 자동적으로 생성하여 서비스 준비 시스템(190)에 송신할 수 있다. 요청은 서비스의 타입(예컨대, 사용자 운송), 픽업 위치(예컨대, 사용자 디바이스의 GPS 수신기를 통해 결정된 사용자 디바이스의 현재 위치) 및 목적지 위치(예컨대, 123 메인 스트리트)를 포함할 수 있다.According to another example, the
도 4d에 예시된 것과 같은 다른 예에서, 사용자 인터페이스(460)는 사용자가 사용자 객체의 배달을 요청할 수 있다는 것을 사용자에게 알리는 텍스트 콘텐츠(465)를 포함할 수 있다. 사용자 인터페이스(460)는 사용자의 현재 위치로의 사용자 객체의 배달 운송 서비스를 요청하기 위하여 사용자가 선택가능한 피처(470)를 선택하는 것을 가능하게 할 수 있다. 도 4c의 예와 유사하게, 만일 사용자가 선택가능한 피처(470)를 선택하면, 지정된 서비스 애플리케이션은 사용자 디바이스상에서 열리거나 또는 론치될 수 있으며, 따라서 사용자는 (예컨대, 사용자의 현재 위치로부터 또는 특정 픽업 위치로부터) 특정 위치로의 사용자 객체의 배달 운송 서비스를 확인할 수 있거나 또는 지정된 서비스 애플리케이션은 배달 운송 서비스에 대한 요청을 자동적으로 생성하여 서비스 준비 시스템(190)에 송신할 수 있다. 후자의 예에서, 요청은 서비스의 타입(예컨대, 사용자 객체를 가진 특정 차량으로의 객체의 배달) 및 하차 위치 또는 목적지 위치(예컨대, 사용자 디바이스의 GPS 수신기를 통해 결정된 사용자 디바이스의 현재 위치)를 포함할 수 있다. 도 1에 설명된 바와같이, 예컨대, 서비스 준비 시스템(190)은 사용자가 바로 이전에 사용했던 특정 차량 또는 식별된 객체를 가진 트립 엔트리와 연관된 차량을 식별할 수 있으며, 사용자의 현재 위치로 가기 위하여 그 차량을 선택할 수 있다.In another example, such as illustrated in Figure 4D, the
일부 예들에서, 도 4a 내지 도 4d 중 임의의 것에서 설명된 사용자 인터페이스는 또한 객체에 대한 상세한 정보, 이를테면 객체가 무엇인지(색상 또는 형상을 포함함), 객체 타입, 객체의 치수 및/또는 무게, 객체가 놓여 있던 위치 등을 포함할 수 있다. 도 4a 내지 도 4d의 예들이 사용자 디바이스와 관련하여 설명된 반면에, 일부 변형예들에서는 그러한 사용자 인터페이스들이 또한 운전자의 차량내에 남겨진 객체를 운전자에게 알리기 위하여 운전자 디바이스상에 디스플레이될 수 있다. 이러한 사용자 인터페이스는 가야할 위치, 대기해야 할 위치(및/또는 얼마동안 대기해야 할 위치), 및/또는 만나야할 사람을 운전자에게 알려줄 수 있으며, 이에 따라 사용자는 객체를 되찾을 수 있다.In some instances, the user interface described in any of Figs. 4A-4D may also include detailed information about the object, such as what the object is (including color or shape), the object type, the dimensions and / The location where the object was placed, and so on. While the examples of FIGS. 4A-4D have been described with respect to a user device, in some variations such user interfaces may also be displayed on the driver device to notify the driver of the object left in the driver's vehicle. This user interface can inform the driver of where to go, where to wait (and / or where to wait for some time), and / or who should be contacted so that the user can retrieve the object.
하드웨어 다이어그램들Hardware diagrams
도 5는 본원에 설명된 실시예들이 구현될 수 있는 컴퓨팅 디바이스를 예시하는 블록도이다. 일례에서, 컴퓨팅 디바이스(500)는 텔레포니, 메시징 및 데이터 서비스들을 가능하게 할 수 있는 셀룰러 디바이스와 같은 모바일 컴퓨팅 디바이스에 대응할 수 있다. 컴퓨팅 디바이스(500)는 사용자 디바이스 또는 운전자 디바이스에 대응할 수 있다. 이러한 디바이스들의 예들은 셀룰러 캐리어들용 스마트폰들, 핸드셋들 또는 태블릿 디바이스들을 포함한다. 컴퓨팅 디바이스(500)는 프로세서(510), 메모리 자원들(520), 디스플레이 디바이스(530)(예컨대, 이를테면 터치-감지 디스플레이 디바이스), 하나 이상의 통신 서브-시스템들(540)(무선 통신 서브-시스템들을 포함함), 입력 메커니즘들(550)(예컨대, 입력 메커니즘은 터치-감지 디스플레이 디바이스를 포함하거나 또는 이의 일부분일 수 있음), 및 위치 검출 메커니즘(예컨대, GPS 수신기)을 포함하는 하나 이상의 센서들(560)을 포함한다. 일례에서, 통신 서브-시스템들(540) 중 적어도 하나는 데이터 채널 및 음성 채널들을 통해 셀룰러 데이터를 전송 및 수신한다. 통신 서브-시스템들(540)은 셀룰러 트랜시버 및 하나 이상의 단거리 무선 트랜시버들을 포함할 수 있다. 프로세싱 자원들(510)은 예컨대 통신 서브-시스템들(540)을 통해 서비스 준비 시스템으로부터 통신들을 수신할 수 있다.5 is a block diagram illustrating a computing device in which the embodiments described herein may be implemented. In one example, the
도 5의 예에서, 컴퓨팅 디바이스(500)는 차량의 운전자에 의해 동작되는 운전자 디바이스에 대응할 수 있다. 프로세서(510)는 메모리 자원들(520)에 저장된 명령들을 실행함으로써 디스플레이(530)에 다양한 콘텐츠를 제공할 수 있다. 메모리 자원들(520)은 예컨대 운전자 애플리케이션(525)에 대응하는 명령들, 및 다른 데이터, 이를테면 하나 이상의 트립 엔트리들(527), 하나 이상의 파라미터들 또는 위치 데이터 포인트들의 데이터베이스들을 저장할 수 있다. 예컨대, 프로세서(510)는 도 1 내지 도 4d에 의해 설명되고 본 출원의 다른 위치에서 설명된 것과 같은 구현들로 설명된 하나 이상의 프로세스들, 단계들 및 다른 기능들을 수행하기 위하여 소프트웨어 및/또는 다른 로직으로 구성된다. 특히, 프로세서(510)는 운전자가 제공할 운송 서비스를 통지받기 위하여 메모리 자원들(520)에 저장된 명령들 및 데이터를 실행할 수 있으며, 운송 서비스와 관련하여, 객체 검출 프로세스들을 수행하기 위하여 센서 데이터(565)를 사용할 수 있다. 본원에서 표현되는 센서들(560)은 컴퓨팅 디바이스(500)(예컨대, GPS 수신기)에 포함된 센서 뿐만아니라 차량의 하나 이상의 센서들(예컨대, 초음파 센서들, 계량 디바이스들 등)과 통신하는 센서 인터페이스들을 포함할 수 있다. 프로세서(510)는 또한 다양한 사용자 인터페이스들(515), 이를테면 운송 서비스를 제공하기 위한 초대, 내비게이션 정보 또는 운전자의 차량내에 객체가 남아있다는 사용자에 대한 통지들이 디스플레이(530)상에 디스플레이되게 하기 위하여 운전자 애플리케이션(525)에 대응하는 명령들을 실행할 수 있다. 게다가, 일부 예들에서, 사용자 인터페이스들(515)은 운전자 애플리케이션(525)과 상호작용하기 위하여, 이를테면 운송 서비스가 시작되었거나 또는 완료되었을 때를 표시하기 위하여 (예컨대, 터치-감지 디스플레이(530)와 함께) 입력 메커니즘들(550)을 통해 사용자 입력(555)을 제공함으로써, 운전자가 선택할 수 있는 선택가능한 피처들을 포함할 수 있다.In the example of FIG. 5, the
도 5가 모바일 컴퓨팅 디바이스에 대하여 예시된 반면에, 하나 이상의 예들은 풀-기능(full-functional) 컴퓨터들, 이를테면 랩탑들 및 데스크탑들(예컨대, PC)을 비롯하여 다른 타입들의 디바이스들상에서 구현될 수 있다. 다른 예에서, 도 5의 변형은 도 1에 설명된 것과 같은 AV의 온-보드 컴퓨팅 시스템 (이 시스템의 적어도 일부분)을 예시할 수 있다.While FIG. 5 is illustrated for a mobile computing device, one or more examples may be implemented on other types of devices, including full-functional computers, such as laptops and desktops (e.g., a PC) have. In another example, the variation of FIG. 5 may illustrate an on-board computing system (at least a portion of the system) of AV, such as that described in FIG.
도 6는 본원에 설명된 예들이 구현될 수 있는 컴퓨터 시스템을 예시하는 블록도이다. 예컨대, 도 1의 맥락에서, 서비스 준비 시스템(190)은 도 6에 의해 설명된 것과 같은 컴퓨터 시스템을 사용하여 구현될 수 있다. 서비스 준비 시스템(190)은 또한 도 6에 의해 설명된 것과 같은 다수의 컴퓨터 시스템들의 조합을 사용하여 구현될 수 있다. 6 is a block diagram illustrating a computer system in which the examples described herein may be implemented. For example, in the context of FIG. 1,
일 구현에서, 컴퓨터 시스템(600)은 프로세싱 자원들, 이를테면 하나 이상의 프로세서들(610), 메인 메모리(620), 판독-전용 메모리(ROM)(630), 저장 디바이스(640) 및 통신 인터페이스(650)를 포함한다. 컴퓨터 시스템(600)은 정보를 프로세싱하기 위한 적어도 하나의 프로세서(610), 및 메인 메모리(620), 이를테면 랜덤 액세스 메모리(RAM), 또는 프로세서(610)에 의해 실행될 정보 및 명령들을 저장하기 위한 다른 동적 저장 디바이스를 포함한다. 메인 메모리(620)는 또한 프로세서(610)에 의해 실행될 명령들의 실행 동안 일시적 변수들 또는 다른 중간 정보를 저장하기 위하여 사용될 수 있다. 컴퓨터 시스템(600)은 또한 ROM(630), 또는 프로세서(610)에 대한 정적 정보 및 명령들을 저장하기 위한 다른 정적 저장 디바이스를 포함할 수 있다. 자기 디스크 또는 광 디스크와 같은 저장 디바이스(640)는 정보 및 명령들을 저장하기 위하여 제공된다. 예컨대, 저장 디바이스(640)는 도 1 내지 도 5와 관련하여 논의된 동작들을 수행하기 위한 위치 결정 명령들(642) 및 객체 검출 명령들(644)을 저장하는 컴퓨터-판독가능 매체에 대응할 수 있다. 이러한 예들에서, 컴퓨터 시스템(600)은 차량들의 위치를 결정하고, 운송 서비스들의 서비스 위치들을 결정하며, 그리고 차량 시스템들 또는 운전자 디바이스들로부터 수신된 센서 데이터에 기반하여 객체 검출 프로세스들을 수행할 수 있다. 게다가, 저장 디바이스(640)는 요청하는 사용자들로부터 운송 서비스들에 대한 요청들을 수신하여 이들 운송 서비스들을 제공할 차량들을 선택하는 디스패치 서브-시스템(dispatch sub-system)을 구현하기 위한 명령들과 같은 다른 명령들을 포함할 수 있다.In one implementation,
통신 인터페이스(650)는 컴퓨터 시스템(600)이 네트워크 링크의 사용을 통해 (무선으로 또는 유선을 사용하여) 하나 이상의 네트워크들(680)(예컨대, 셀룰러 네트워크)과 통신하는 것을 가능하게 할 수 있다. 네트워크 링크를 사용하여, 컴퓨터 시스템(600)은 승객들 및 운전자들의 모바일 컴퓨팅 디바이스들과 같은 복수의 디바이스들과 통신할 수 있다. 일부 예들에 따르면, 도 1 내지 도 5의 일부 예들에 의해 설명되는 바와같이, 통신 인터페이스(650)를 사용하여, 컴퓨터 시스템(600)은 운전자 디바이스들, AV들 및/또는 사용자 디바이스들로부터 위치 정보(652)를 수신할 수 있으며, 사용자들의 소유물이 차량내에 남아 있는지를 사용자들에게 알리기 위한 통지 메시지들(654)을 사용자 디바이스에 송신할 수 있다. Communications interface 650 may enable
컴퓨터 시스템(600)은 또한 예컨대 그래픽 및 정보를 사용자에게 디스플레이하기 위하여 음극선관(CRT), LCD 모니터 또는 텔레비전 세트와 같은 디스플레이 디바이스(660)를 포함할 수 있다. 알파뉴메릭 키들 및 다른 키들을 포함하는 키보드와 같은 입력 메커니즘(670)은 정보 및 커맨드(command) 선택들을 프로세서(610)에 통신하기 위하여 컴퓨터 시스템(600)에 커플링될 수 있다. 입력 메커니즘들(670)의 다른 비제한적인 예시적 예들은 방향 정보 및 커맨드 선택들을 프로세서(610)에 통신하여 디스플레이(660)상의 커서 이동을 제어하기 위한 마우스, 트랙볼, 터치-감지 스크린 또는 커버 방향 키들을 포함한다.
본원에서 설명된 예들은 본원에서 설명된 기술들을 구현하기 위한 컴퓨터 시스템(600)의 사용과 관련된다. 일례에 따르면, 이들 기술들은 프로세서(610)가 메인 메모리(620)에 포함된 하나 이상의 명령들의 하나 이상의 시퀀스들을 실행하는 것에 대한 응답으로 컴퓨터 시스템(600)에 의해 수행된다. 이러한 명령들은 다른 머신-판독가능 매체, 이를테면 저장 디바이스(640)로부터 메인 메모리(620)내로 판독될 수 있다. 메인 메모리(620)에 포함된 명령들의 시퀀스들의 실행은 프로세서(610)가 본원에서 설명된 프로세스 단계들을 수행하게 한다. 대안적인 구현들에서, 하드 와이어드(hard wired) 회로는 본원에서 설명된 예들을 구현하기 위하여 소프트웨어 명령들 대신에 또는 이러한 소프트웨어 명령들과 결합하여 사용될 수 있다. 따라서, 설명된 예들은 하드웨어 회로 및 소프트웨어의 임의의 특정 조합으로 제한되지 않는다.The examples described herein relate to the use of
본원에서 설명된 예들이 다른 개념들, 사상들 또는 시스템에 독립적으로, 본원에서 설명된 개별적인 엘리먼트들 및 개념들을 확장시킬 뿐만아니라 예컨대 본 출원의 임의의 위치에서 인용된 엘리먼트들의 조합을 포함한다는 것이 고찰된다. 비록 예들이 첨부 도면들을 참조로 하여 본원에서 상세히 설명될지라도, 개념들이 이들 바로 그 예들에 제한되지 않는다는 것이 이해되어야 한다. 따라서, 개념들의 범위가 이하의 청구항들 및 이들의 균등물에 의해 한정되어야 하는 것이 의도된다. 더욱이, 다른 특징들 및 예들이 특정 특징들에 대해 아무런 언급을 하지 하더라도, 예들의 일부로서 또는 개별적으로 설명된 그 특정 특징이 개별적으로 설명된 다른 특징들 또는 다른 예들의 부분들과 결합될 수 있다는 것이 고려된다. 따라서, 조합들을 설명하지 않더라도, 이러한 조합에 대한 권리들이 배제되지 않아야 한다.It is contemplated that the examples described herein may be extended to include other elements, concepts, or systems independent of other concepts, ideas, or systems, as well as combinations of the elements recited in any position of the present application do. Although the examples are described in detail herein with reference to the accompanying drawings, it should be understood that the concepts are not limited to these examples. Accordingly, it is intended that the scope of the concepts be defined by the following claims and their equivalents. Moreover, although other features and examples may make reference to particular features, they may be combined, as part of the examples, or with the parts of other features or other examples, . Thus, even if the combinations are not described, the rights to such combinations should not be excluded.
Claims (20)
상기 방법은,
상기 운송 서비스가 완료될때를 검출하는 단계;
상기 운송 서비스가 완료되었음을 검출할 때, 상기 운송 서비스의 완료 이후에 상기 차량으로부터 이전되어야 했던 객체가 상기 차량내에 남아 있음을 상기 차량의 하나 이상의 센서들로부터 결정하는 단계; 및
상기 객체가 상기 차량내에 남아 있다는 결정에 대한 응답으로, 교정 액션(remedial action)의 수행을 자동적으로 개시하는 단계를 포함하는, 운송 서비스를 제공할 때 사용되는 차량을 모니터링하기 위한 방법.A method for monitoring a vehicle used when providing a transportation service, the method being implemented by one or more processors,
The method comprises:
Detecting when the transportation service is completed;
Determining from the one or more sensors of the vehicle that an object that should have been transferred from the vehicle after completion of the transportation service remains in the vehicle when it is detected that the transportation service has been completed; And
And automatically initiating performance of a remedial action in response to a determination that the object remains in the vehicle. ≪ Desc / Clms Page number 20 >
상기 차량의 하나 이상의 센서들은 (i) 카메라들의 세트, (ii) 계량 디바이스들의 세트, (iii) 서스펜션 센서(suspension sensor)들의 세트, (iv) 광 검출 및 레인징(LIDAR: light detection and ranging) 센서들의 세트, (v) 무선 주파수 트랜시버들의 세트, 또는 (iv) 초음파 센서들의 세트 중 하나 이상을 포함하는, 운송 서비스를 제공할 때 사용되는 차량을 모니터링하기 위한 방법.The method according to claim 1,
The one or more sensors of the vehicle include (i) a set of cameras, (ii) a set of metering devices, (iii) a set of suspension sensors, (iv) a light detection and ranging (LIDAR) A set of sensors, (v) a set of radio frequency transceivers, or (iv) a set of ultrasound sensors.
상기 객체가 상기 차량내에 남아있음을 결정하는 단계는 상기 차량내에 배치되는 카메라들의 세트로부터의 이미지 정보에 기반하여 상기 차량 내측의 객체의 위치를 검출하는 단계를 포함하는, 운송 서비스를 제공할 때 사용되는 차량을 모니터링하기 위한 방법.The method according to claim 1,
Wherein the step of determining that the object remains in the vehicle comprises the step of detecting the position of an object inside the vehicle based on image information from a set of cameras disposed in the vehicle. Lt; / RTI >
상기 객체가 상기 차량내에 남아있음을 결정하는 단계는, 상기 차량의 컴파트먼트(compartment) 또는 실내에 놓인 객체들의 무게를 감지하기 위하여 상기 차량의 컴파트먼트 또는 실내에 배치되는 계량 디바이스들의 세트로부터의 무게 정보에 기반하여 상기 객체가 상기 차량의 컴파트먼트 또는 실내에 놓여 있음을 검출하는 단계를 포함하는, 운송 서비스를 제공할 때 사용되는 차량을 모니터링하기 위한 방법.The method according to claim 1,
Wherein the step of determining that the object remains in the vehicle comprises the steps of determining whether the object remains in the vehicle from a set of metering devices disposed in the compartment or interior of the vehicle for sensing the weight of the compartment of the vehicle, And detecting that the object is located in a compartment or an interior of the vehicle based on weight information of the vehicle.
상기 객체가 상기 차량내에 남아있음을 결정하는 단계는, 상기 차량의 서스펜션 시스템의 압축을 검출하기 위하여 배치되는 센서들의 세트로부터의 압축 정보에 기반하여 상기 객체가 상기 차량의 컴파트먼트 또는 실내에 놓여 있음을 검출하는 단계를 포함하는, 운송 서비스를 제공할 때 사용되는 차량을 모니터링하기 위한 방법.The method according to claim 1,
Wherein the step of determining that the object remains in the vehicle is based on compression information from a set of sensors disposed to detect compression of the vehicle's suspension system such that the object lies in a compartment or interior of the vehicle The method comprising the steps of: detecting a presence of a vehicle;
상기 객체가 상기 차량내에 남아있음을 결정하는 단계는 상기 객체에 의해 방사된 무선 주파수 신호들을 측정하는 단계, 및 측정된 무선 주파수 신호들로부터 상기 객체가 상기 차량의 컴파트먼트 또는 실내에 놓여 있음을 결정하는 단계를 포함하는, 운송 서비스를 제공할 때 사용되는 차량을 모니터링하기 위한 방법.3. The method of claim 2,
Determining that the object remains in the vehicle comprises measuring radio frequency signals emitted by the object and determining from the measured radio frequency signals that the object is in a compartment or interior of the vehicle Wherein the method further comprises the steps of:
상기 객체가 상기 차량내에 남아있음을 결정하는 단계는 상기 운송 서비스가 제공되고 있을 때 상기 차량의 제1 센서 세트로부터 정보의 제1 세트를 결정하는 단계, 및 상기 운송 서비스가 완료된 이후에 상기 차량의 제1 센서 세트로부터 정보의 제2 세트를 결정하는 단계 및 상기 센서 정보의 제1 세트를 상기 정보의 제2 세트와 비교하는 단계를 포함하는, 운송 서비스를 제공할 때 사용되는 차량을 모니터링하기 위한 방법.The method according to claim 1,
Wherein the step of determining that the object remains in the vehicle comprises determining a first set of information from the first set of sensors of the vehicle when the transportation service is being provided, Comprising: determining a second set of information from a first set of sensors; and comparing the first set of sensor information with a second set of the information. Way.
상기 교정 액션의 수행을 자동적으로 개시하는 단계는 물품이 상기 차량내에 남아 있다는 것을 상기 서비스를 요청한 사용자에게 통지하는 메시지를 하나 이상의 네트워크를 통해 상기 사용자와 연관된 컴퓨팅 디바이스에 통신하는 단계를 포함하는, 운송 서비스를 제공할 때 사용되는 차량을 모니터링하기 위한 방법.The method according to claim 1,
Wherein automatically initiating the performance of the calibration action comprises communicating, via one or more networks, to a computing device associated with the user, a message informing the user requesting the service that the item remains in the vehicle. A method for monitoring a vehicle used when providing a service.
상기 교정 액션의 수행을 자동적으로 개시하는 단계는 상기 객체가 상기 차량내에 아직 존재하는 것으로 검출되었을 때 상기 차량의 위치에서 상기 차량이 정지상태를 유지하게 하는 단계를 포함하는, 운송 서비스를 제공할 때 사용되는 차량을 모니터링하기 위한 방법.9. The method of claim 8,
Wherein automatically initiating the performance of the calibration action comprises causing the vehicle to remain stationary at a location of the vehicle when the object is detected to still be present in the vehicle A method for monitoring a used vehicle.
상기 교정 액션의 수행을 자동적으로 개시하는 단계는 상기 차량이 미리 결정된 위치로 이동하게 하는 단계를 포함하며, 상기 미리 결정된 위치는 상기 객체가 상기 차량으로부터 이전될 수 있는 위치에 대응하는, 운송 서비스를 제공할 때 사용되는 차량을 모니터링하기 위한 방법.9. The method of claim 8,
Wherein automatically starting the performance of the calibration action comprises causing the vehicle to move to a predetermined position, wherein the predetermined position corresponds to a position at which the object can be transferred from the vehicle, A method for monitoring a vehicle used when providing.
상기 객체가 상기 차량내에 남아있음을 결정하는 단계는 상기 차량의 하나 이상의 카메라들을 사용하여 상기 차량의 일부분의 하나 이상의 이미지들을 캡처하는 단계 및 상기 하나 이상의 이미지들로부터 상기 객체를 검출하기 위하여 이미지 분석을 수행하는 단계를 포함하는, 운송 서비스를 제공할 때 사용되는 차량을 모니터링하기 위한 방법.The method of claim 3,
Wherein the step of determining that the object remains in the vehicle comprises capturing one or more images of a portion of the vehicle using one or more cameras of the vehicle and performing image analysis to detect the object from the one or more images The method comprising the steps of: providing a transportation service;
픽업 위치에서 상기 차량내로 들어가는 승객에 의해 상기 객체가 상기 차량내에 처음으로 놓일 때를 상기 차량의 하나 이상의 센서들로부터 결정하는 단계를 더 포함하는, 운송 서비스를 제공할 때 사용되는 차량을 모니터링하기 위한 방법.The method according to claim 1,
Further comprising determining from the one or more sensors of the vehicle when the object is initially placed in the vehicle by a passenger entering the vehicle at a pick-up position. Way.
상기 객체가 상기 차량내에 처음으로 놓이는 것을 검출하는 단계는, (i) 상기 승객이 상기 차량내에 들어갔다는 검출에 대한 응답으로, (ii) 상기 승객이 차량내에 들어갔다는 것을 검출한 이후로부터 미리 결정된 시간 지속기간이 경과했다는 검출에 대한 응답으로, (iii) 상기 승객과 연관된 컴퓨팅 디바이스에 제공되는 입력의 결과로서 상기 서비스가 시작될 수 있다는 것을 표시하는 메시지를 상기 승객과 연관된 컴퓨팅 디바이스로부터 수신하는 것에 대한 응답으로, (iv) 상기 차량내의 승객으로부터 상기 차량과 연관된 상기 컴퓨팅 디바이스에 제공되는 입력의 결과로서 상기 서비스가 시작될 수 있다는 것을 표시하는 메시지를 상기 차량과 연관된 컴퓨팅 디바이스로부터 수신하는 것에 대한 응답으로, 또는 (v) 상기 차량의 위치 정보에 기반하여 미리 결정된 시간 지속기간 동안 상기 차량이 상기 픽업 위치의 미리 결정된 거리내에 배치되어 있다는 결정에 대한 응답으로 수행되는, 운송 서비스를 제공할 때 사용되는 차량을 모니터링하기 위한 방법.13. The method of claim 12,
Wherein detecting the first placement of the object in the vehicle comprises the steps of: (i) in response to detecting that the passenger has entered the vehicle, (ii) in response to detecting that the passenger has entered the vehicle, (Iii) a response to receiving from the computing device associated with the passenger a message indicating that the service can be started as a result of an input provided to the computing device associated with the passenger In response to receiving from the computing device associated with the vehicle a message indicating that the service can be started as a result of input provided to the computing device associated with the vehicle from a passenger in the vehicle, (v) based on the location information of the vehicle, Wherein the method is performed in response to a determination that the vehicle is located within a predetermined distance of the pick-up position for a determined time duration.
한 위치로부터 다른 위치로 하나 이상의 객체들 및 개인들을 운송하는 것에 대응하며 시작 위치 및 목적지 위치를 가진 서비스를 제공하기 위한 차량에 대한 명령들을 원격 시스템으로부터 컴퓨팅 시스템이 수신하는 단계;
상기 차량의 온-보드(on-board) 컴퓨팅 시스템에 대응하며 상기 차량의 컴포넌트들을 제어하는 상기 컴퓨팅 시스템에 의해, 상기 시작 위치로 이동하도록 상기 차량을 제어하는 단계;
상기 차량이 상기 시작 위치의 제1 미리 결정된 거리에 도달하거나 또는 이 제1 미리 결정된 거리내에 있은 이후에, 제1 시간에 상기 차량의 하나 이상의 센서들로부터의 정보의 제1 세트에 기반하여 객체가 상기 차량내에 놓여 있음을 상기 컴퓨팅 디바이스에 의해 검출하는 단계;
후속하여, 상기 목적지 위치로 이동하도록 상기 컴퓨팅 시스템에 의해 상기 차량을 제어하는 단계;
상기 차량이 상기 목적지 위치의 제2 미리 결정된 거리에 도달하거나 또는 이 제2 미리 결정된 거리내에 있은 이후에, 제2 시간에 상기 하나 이상의 센서들로부터의 정보의 제2 세트에 기반하여 상기 객체가 상기 차량으로부터 이전되었는지의 여부를 검출하는 단계; 및
상기 객체가 상기 차량내에 여전히 존재한다는 검출에 대한 응답으로, 교정 액션의 수행을 자동적으로 개시하는 단계를 포함하는, 서비스를 제공할 때 차량을 모니터링하기 위한 방법.CLAIMS 1. A method for monitoring a vehicle when providing a service,
Receiving instructions from a remote system for a vehicle to provide a service having a start location and a destination location corresponding to transporting one or more objects and individuals from one location to another location;
Controlling the vehicle to move to the start position by the computing system that controls the components of the vehicle, corresponding to an on-board computing system of the vehicle;
Based on a first set of information from the one or more sensors of the vehicle at a first time after the vehicle has reached or is within a first predetermined distance of the starting position, Detecting by the computing device that it lies within the vehicle;
Subsequently controlling the vehicle by the computing system to move to the destination location;
Determining whether the object is in a second predetermined time interval based on a second set of information from the one or more sensors at a second time after the vehicle has reached or is within a second predetermined distance of the destination location; Detecting whether or not the vehicle has been transferred from the vehicle; And
And automatically initiating the performance of the calibration action in response to detecting that the object is still present in the vehicle.
상기 차량의 하나 이상의 센서들은 (i) 카메라들의 세트, (ii) 계량 디바이스들의 세트, (iii) 서스펜션 센서들의 세트, (iv) 광 검출 및 레인징(LIDAR: light detection and ranging) 센서들의 세트, (v) 무선 주파수 트랜시버들의 세트, 또는 (iv) 초음파 센서들의 세트 중 하나 이상을 포함하는, 서비스를 제공할 때 차량을 모니터링하기 위한 방법.15. The method of claim 14,
The one or more sensors of the vehicle may be (i) a set of cameras, (ii) a set of metering devices, (iii) a set of suspension sensors, (iv) a set of light detection and ranging (LIDAR) (v) a set of radio frequency transceivers, or (iv) a set of ultrasonic sensors.
상기 객체가 상기 차량내에 놓여 있음을 검출하는 단계는 상기 차량내에 배치되는 상기 카메라들의 세트로부터의 이미지 정보에 기반하여 상기 차량 내측의 상기 객체의 위치를 검출하는 단계를 포함하며, 상기 카메라들의 세트는 상기 카메라들의 세트의 개별 렌즈가 상기 차량의 실내쪽을 향하도록 배치되며, 상기 교정 액션의 수행을 자동적으로 개시하는 단계는 (i) 상기 카메라들의 세트 중 하나 이상의 카메라들을 사용하여 상기 객체의 하나 이상의 이미지들을 캡처하는 단계, (ii) 상기 하나 이상의 이미지들을 포함하는 메시지를 생성하는 단계, 및 (iii) 물품이 상기 차량내에 남아 있음을 상기 원격 시스템에 통지하기 위한 메시지를 하나 이상의 네트워크들을 통해 상기 원격 시스템에 통신하는 단계 또는 물품이 상기 차량내에 남아 있음을 상기 서비스를 요청한 사용자에게 통지하는 메시지를 상기 하나 이상의 네트워크들을 통해 상기 사용자와 연관된 컴퓨팅 디바이스에 통신하는 단계를 포함하는, 서비스를 제공할 때 차량을 모니터링하기 위한 방법.16. The method of claim 15,
The step of detecting that the object is in the vehicle comprises detecting the position of the object inside the vehicle based on image information from the set of cameras disposed in the vehicle, Wherein individual lenses of the set of cameras are oriented towards the interior of the vehicle and the step of automatically initiating the performance of the calibration action comprises: (i) using one or more cameras in the set of cameras, (Ii) generating a message comprising the one or more images, and (iii) sending a message to the remote system to notify the remote system that the item is left in the vehicle, A step of communicating to the system, And communicating a message to the computing device associated with the user via the one or more networks to notify a user requesting the service.
상기 객체가 상기 차량내에 놓여 있음을 검출하는 단계는, 상기 차량의 컴파트먼트 또는 실내에 놓인 객체들의 무게를 감지하기 위하여 상기 차량의 컴파트먼트 또는 실내에 배치되는 상기 계량 디바이스들의 세트로부터의 무게 정보에 기반하여 상기 객체가 상기 차량의 컴파트먼트 또는 실내에 놓여 있음을 검출하는 단계를 포함하는, 서비스를 제공할 때 차량을 모니터링하기 위한 방법.16. The method of claim 15,
Wherein the step of detecting that the object is in the vehicle comprises detecting a weight from the set of metering devices disposed in the compartment or the interior of the vehicle to sense the weight of the objects in the compartment or the interior of the vehicle, And detecting that the object is located in a compartment or an interior of the vehicle based on the information.
상기 객체가 상기 차량내에 놓여 있음을 검출하는 단계는, 상기 차량의 서스펜션 시스템의 압축을 검출하기 위하여 배치되는 상기 서스펜션 센서들의 세트로부터의 압축 정보에 기반하여 상기 객체가 상기 차량의 컴파트먼트 또는 실내에 놓여 있음을 검출하는 단계를 포함하는, 서비스를 제공할 때 차량을 모니터링하기 위한 방법. 16. The method of claim 15,
Wherein the step of detecting that the object is in the vehicle further comprises the step of determining that the object is located in a compartment or an interior of the vehicle based on compression information from the set of suspension sensors disposed to detect compression of the suspension system of the vehicle The method comprising the steps of: detecting that the vehicle is in a vehicle;
상기 교정 액션의 수행을 자동적으로 개시하는 단계는 물품이 상기 차량에 남아있음을 상기 원격 시스템에 통지하는 메시지를 하나 이상의 네트워크들을 통해 상기 원격 시스템에 통신하는 단계 또는 물품이 상기 차량내에 남아 있음을 상기 서비스를 요청한 사용자에게 통지하는 메시지를 상기 하나 이상의 네트워크들을 통해 상기 사용자와 연관된 컴퓨팅 디바이스에 통신하는 단계를 포함하는, 서비스를 제공할 때 차량을 모니터링하기 위한 방법.15. The method of claim 14,
Wherein automatically initiating the performance of the calibration action comprises communicating a message to the remote system via one or more networks informing the remote system that an item has remained in the vehicle, And communicating a message to the computing device associated with the user via the one or more networks to notify a user requesting the service.
상기 명령들은, 컴퓨팅 시스템의 하나 이상의 프로세서들에 의해 실행될 때, 상기 컴퓨팅 시스템으로 하여금,
한 위치로부터 다른 위치로 하나 이상의 객체들 또는 개인들을 운송하는 것에 대응하며 시작 위치 및 목적지 위치를 가진 서비스를 제공하기 위한 차량에 대한 명령들을 원격 시스템으로부터 수신하게 하며;
상기 시작 위치로 이동하도록 상기 차량을 제어하게 하며;
상기 차량이 상기 시작 위치의 제1 미리 결정된 거리에 도달하거나 또는 이 제1 미리 결정된 거리내에 있은 이후에, 제1 시간에 상기 차량의 하나 이상의 센서들로부터의 정보의 제1 세트에 기반하여 객체가 상기 차량내에 놓여 있음을 검출하게 하며;
후속하여, 상기 목적지 위치로 이동하도록 상기 차량을 제어하게 하며;
상기 차량이 상기 목적지 위치의 제2 미리 결정된 거리에 도달하거나 또는 이 제2 미리 결정된 거리내에 있은 이후에, 제2 시간에 상기 하나 이상의 센서들로부터의 정보의 제2 세트에 기반하여 상기 객체가 상기 차량으로부터 이전되었는지의 여부를 검출하게 하며; 그리고
상기 객체가 상기 차량내에 여전히 존재한다는 검출에 대한 응답으로, 교정 액션을 자동적으로 수행하게 하는, 비-일시적 컴퓨터-판독가능 매체. 17. A non-transitory computer-readable medium having stored thereon instructions,
Wherein the instructions, when executed by one or more processors of a computing system, cause the computing system to:
Receive commands from a remote system for a vehicle to provide a service having a start location and a destination location corresponding to transporting one or more objects or individuals from one location to another location;
Control the vehicle to move to the start position;
Based on a first set of information from the one or more sensors of the vehicle at a first time after the vehicle has reached or is within a first predetermined distance of the starting position, Detect that the vehicle is in the vehicle;
Subsequently controlling the vehicle to move to the destination location;
Determining whether the object is in a second predetermined time interval based on a second set of information from the one or more sensors at a second time after the vehicle has reached or is within a second predetermined distance of the destination location; Detect whether the vehicle has been transferred from the vehicle; And
Causing the computer to perform a calibration action automatically in response to detecting that the object is still present in the vehicle.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/708,611 | 2015-05-11 | ||
US14/708,611 US9616773B2 (en) | 2015-05-11 | 2015-05-11 | Detecting objects within a vehicle in connection with a service |
PCT/US2016/031929 WO2016183241A1 (en) | 2015-05-11 | 2016-05-11 | Detecting objects within a vehicle in connection with a service |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20180005693A true KR20180005693A (en) | 2018-01-16 |
KR102395766B1 KR102395766B1 (en) | 2022-05-10 |
Family
ID=57249481
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020177035479A KR102395766B1 (en) | 2015-05-11 | 2016-05-11 | Detection of objects in the vehicle in relation to the service |
Country Status (9)
Country | Link |
---|---|
US (7) | US9616773B2 (en) |
EP (1) | EP3295421A4 (en) |
KR (1) | KR102395766B1 (en) |
CN (1) | CN107873098A (en) |
AU (1) | AU2016262526B9 (en) |
CA (1) | CA2985619A1 (en) |
IL (1) | IL255562B (en) |
RU (1) | RU2725681C9 (en) |
WO (1) | WO2016183241A1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200125110A1 (en) * | 2017-05-12 | 2020-04-23 | Autonomy Squared Llc | Robot delivery method |
KR20200098837A (en) * | 2019-02-13 | 2020-08-21 | 충남대학교산학협력단 | Lost-and-found notification device that provides information on the occurrence of lost items in public transportation |
US11505984B2 (en) | 2015-05-11 | 2022-11-22 | Uber Technologies, Inc. | Detecting objects within a vehicle in connection with a service |
Families Citing this family (103)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160257198A1 (en) | 2015-03-02 | 2016-09-08 | Ford Global Technologies, Inc. | In-vehicle component user interface |
US9747740B2 (en) | 2015-03-02 | 2017-08-29 | Ford Global Technologies, Llc | Simultaneous button press secure keypad code entry |
US9622159B2 (en) * | 2015-09-01 | 2017-04-11 | Ford Global Technologies, Llc | Plug-and-play interactive vehicle interior component architecture |
US9914418B2 (en) | 2015-09-01 | 2018-03-13 | Ford Global Technologies, Llc | In-vehicle control location |
US9967717B2 (en) | 2015-09-01 | 2018-05-08 | Ford Global Technologies, Llc | Efficient tracking of personal device locations |
US9860710B2 (en) | 2015-09-08 | 2018-01-02 | Ford Global Technologies, Llc | Symmetrical reference personal device location tracking |
US9744852B2 (en) | 2015-09-10 | 2017-08-29 | Ford Global Technologies, Llc | Integration of add-on interior modules into driver user interface |
KR101841948B1 (en) * | 2015-10-02 | 2018-03-26 | 엘지전자 주식회사 | Apparatus, Method and Mobile Terminal for providing service to prevent lost article on inner Vehicle |
US10046637B2 (en) | 2015-12-11 | 2018-08-14 | Ford Global Technologies, Llc | In-vehicle component control user interface |
US10635994B2 (en) * | 2015-12-11 | 2020-04-28 | Lyft, Inc. | System for navigating driver to passenger for ride authorized by another user of transportation service |
US9766344B2 (en) * | 2015-12-22 | 2017-09-19 | Honda Motor Co., Ltd. | Multipath error correction |
US11508026B2 (en) | 2015-12-31 | 2022-11-22 | Lyft, Inc. | System for navigating transportation service providers to fulfill transportation requests authorized by an organization |
US10082877B2 (en) | 2016-03-15 | 2018-09-25 | Ford Global Technologies, Llc | Orientation-independent air gesture detection service for in-vehicle environments |
US20170277182A1 (en) * | 2016-03-24 | 2017-09-28 | Magna Electronics Inc. | Control system for selective autonomous vehicle control |
US20170291539A1 (en) * | 2016-04-07 | 2017-10-12 | General Motors Llc | Systems and methods for detecting objects within a vehicle |
CN105809902B (en) * | 2016-04-13 | 2017-03-29 | 京东方科技集团股份有限公司 | A kind of taxi monitoring method, apparatus and system |
US9720416B1 (en) | 2016-04-18 | 2017-08-01 | Ford Global Technologies, Llc | Vehicle security system |
US9914415B2 (en) | 2016-04-25 | 2018-03-13 | Ford Global Technologies, Llc | Connectionless communication with interior vehicle components |
US9741225B1 (en) * | 2016-04-28 | 2017-08-22 | Abu Dhabi University | Safety detection system and method |
US10037033B2 (en) * | 2016-06-15 | 2018-07-31 | Ford Global Technologies, Llc | Vehicle exterior surface object detection |
US10163219B2 (en) * | 2016-06-24 | 2018-12-25 | Fca Us Llc | Machine vision cargo monitoring in a vehicle |
US10621515B2 (en) * | 2016-06-30 | 2020-04-14 | At&T Intellectual Property I, L.P. | Optimized traffic management via an electronic driving pass |
US11599833B2 (en) * | 2016-08-03 | 2023-03-07 | Ford Global Technologies, Llc | Vehicle ride sharing system and method using smart modules |
US10414344B1 (en) * | 2016-09-01 | 2019-09-17 | Apple Inc. | Securable storage compartments |
DE102016222006A1 (en) * | 2016-11-09 | 2018-05-09 | Audi Ag | Method for operating a motor vehicle in a fully autonomous driving mode |
US10311314B2 (en) | 2016-11-23 | 2019-06-04 | Ford Global Technologies, Llc | Detection of lane-splitting motorcycles |
US10753754B2 (en) * | 2017-01-19 | 2020-08-25 | Andrew DeLizio | Managing autonomous vehicles |
JP6676559B2 (en) * | 2017-01-30 | 2020-04-08 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | Management device, delivery support method and program |
US10290158B2 (en) | 2017-02-03 | 2019-05-14 | Ford Global Technologies, Llc | System and method for assessing the interior of an autonomous vehicle |
US10768630B2 (en) * | 2017-02-09 | 2020-09-08 | International Business Machines Corporation | Human imperceptible signals |
US10053088B1 (en) | 2017-02-21 | 2018-08-21 | Zoox, Inc. | Occupant aware braking system |
US10220857B2 (en) * | 2017-02-23 | 2019-03-05 | Uber Technologies, Inc. | Vehicle control system |
JP6769383B2 (en) | 2017-04-13 | 2020-10-14 | トヨタ自動車株式会社 | Automatic driving device and notification method |
US10509974B2 (en) | 2017-04-21 | 2019-12-17 | Ford Global Technologies, Llc | Stain and trash detection systems and methods |
US10679312B2 (en) * | 2017-04-25 | 2020-06-09 | Lyft Inc. | Dynamic autonomous vehicle servicing and management |
US10304165B2 (en) * | 2017-05-12 | 2019-05-28 | Ford Global Technologies, Llc | Vehicle stain and trash detection systems and methods |
US11062587B2 (en) | 2017-05-12 | 2021-07-13 | Ford Global Technologies, Llc | Object detection |
US11493348B2 (en) | 2017-06-23 | 2022-11-08 | Direct Current Capital LLC | Methods for executing autonomous rideshare requests |
WO2019005120A1 (en) * | 2017-06-30 | 2019-01-03 | Intel Corporation | Accessibility method and apparatus for autonomous/semi-autonomous driving |
US10416671B2 (en) * | 2017-07-11 | 2019-09-17 | Waymo Llc | Methods and systems for vehicle occupancy confirmation |
US11200530B2 (en) | 2017-08-21 | 2021-12-14 | Ford Global Technologies, Llc | Object detection |
CA3020868A1 (en) * | 2017-10-16 | 2019-04-16 | Flex Ltd. | Method and system for tracking and optimizing cargo utilization and volume measurement and imaging sensing using lidars and video cameras |
JP6958255B2 (en) * | 2017-11-07 | 2021-11-02 | トヨタ自動車株式会社 | Information processing device and information processing method |
US11106927B2 (en) * | 2017-12-27 | 2021-08-31 | Direct Current Capital LLC | Method for monitoring an interior state of an autonomous vehicle |
US11262756B2 (en) * | 2018-01-15 | 2022-03-01 | Uatc, Llc | Discrete decision architecture for motion planning system of an autonomous vehicle |
US10838425B2 (en) * | 2018-02-21 | 2020-11-17 | Waymo Llc | Determining and responding to an internal status of a vehicle |
JP6996359B2 (en) * | 2018-03-09 | 2022-01-17 | トヨタ自動車株式会社 | Forgotten prevention support method, terminal device and forgotten prevention support system |
JP2019168815A (en) | 2018-03-22 | 2019-10-03 | 東芝メモリ株式会社 | Information processing device, information processing method, and information processing program |
DE102018204383A1 (en) | 2018-03-22 | 2019-09-26 | Audi Ag | Transport means for transporting a cargo and / or a person, method for operating a means of transport and transport system |
US10311704B1 (en) * | 2018-03-29 | 2019-06-04 | Futurewei Technologies, Inc. | Passenger-related item loss mitigation |
CN108422938B (en) * | 2018-03-30 | 2024-04-05 | 斑马网络技术有限公司 | Vehicle with sensing device and application |
JP2020004252A (en) * | 2018-06-29 | 2020-01-09 | 株式会社東芝 | Residue detection system |
US11080975B2 (en) * | 2018-06-29 | 2021-08-03 | Baidu Usa Llc | Theft proof techniques for autonomous driving vehicles used for transporting goods |
US11354692B2 (en) | 2018-08-01 | 2022-06-07 | Motional Ad Llc | System and method for keeping an automated-taxi clean |
CN109254581B (en) * | 2018-08-10 | 2021-07-02 | 合肥哈工库讯智能科技有限公司 | AGV dolly intelligent operation regulation and control system based on running state analysis |
US10573162B1 (en) * | 2018-08-21 | 2020-02-25 | Ford Global Technologies, Llc | Tracking smart devices in vehicles technical field |
US11494707B2 (en) * | 2018-08-22 | 2022-11-08 | Denso International America, Inc. | System and method of determining real-time location |
US10515535B1 (en) * | 2018-08-24 | 2019-12-24 | General Motors Llc | System and method to provide a misplacement notification |
US11599963B2 (en) * | 2018-09-25 | 2023-03-07 | Uber Technologies, Inc. | Pairing transport service users and drivers using animation |
DE102018216761A1 (en) * | 2018-09-28 | 2020-04-02 | Zf Friedrichshafen Ag | Device and method for recognizing an actual state of an interior of a people mover |
JP7047697B2 (en) | 2018-10-05 | 2022-04-05 | トヨタ自動車株式会社 | Driving support device, driving support system, driving support method, and computer program for driving support |
JP7119871B2 (en) * | 2018-10-05 | 2022-08-17 | トヨタ自動車株式会社 | Lost-and-found delivery support device, lost-and-found delivery support system, lost-and-found delivery support method, and computer program for lost-and-found delivery support |
US10687045B2 (en) * | 2018-10-23 | 2020-06-16 | Zebra Technologies Corporation | Systems and methods for idle time in commercial trailer loading |
FR3091379A1 (en) * | 2018-10-31 | 2020-07-03 | Valeo Comfort And Driving Assistance | UNIT, SYSTEM AND METHOD FOR DETECTION OF AN OBJECT OR DEGRADATION IN A COCKPIT OF A MOTOR VEHICLE |
JP7040409B2 (en) * | 2018-11-07 | 2022-03-23 | トヨタ自動車株式会社 | Mobility service support devices, mobility systems, mobility service support methods, and computer programs for mobility service support |
CN112368736A (en) * | 2018-12-07 | 2021-02-12 | 松下电器(美国)知识产权公司 | Information processing method, information processing apparatus, and program |
CN113196349A (en) * | 2018-12-20 | 2021-07-30 | 金泰克斯公司 | System and method for monitoring shared riding of automobiles |
US10796174B2 (en) * | 2018-12-21 | 2020-10-06 | Nissan North America, Inc. | Distance and object based external notification system for automated hailing service |
US11520331B2 (en) * | 2018-12-28 | 2022-12-06 | Intel Corporation | Methods and apparatus to update autonomous vehicle perspectives |
US11353870B2 (en) * | 2018-12-31 | 2022-06-07 | Baidu Usa Llc | Autonomous driving computing and storage expansion device with flexible host and client configuration |
US10872253B2 (en) * | 2019-02-08 | 2020-12-22 | Ford Global Technologies, Llc | Method and apparatus for vehicle interior evaluation and situational servicing |
CN109857114A (en) * | 2019-02-26 | 2019-06-07 | 温州市职业中等专业学校 | Campus Mobile Intelligent Robot and campus intelligent management system |
EP3934240A4 (en) * | 2019-03-01 | 2022-10-12 | Hitachi, Ltd. | Unattended object detection device and unattended object detection method |
US11501401B2 (en) * | 2019-03-02 | 2022-11-15 | ANI Technologies Private Limited | Allocation of vehicles using fitness information |
JP2020142570A (en) * | 2019-03-04 | 2020-09-10 | テイ・エス テック株式会社 | Notification system and vehicle mounted with the same |
US11100347B2 (en) | 2019-03-12 | 2021-08-24 | Ford Global Technologies, Llc | Photometric stereo object detection for articles left in an autonomous vehicle |
US10887724B2 (en) | 2019-05-01 | 2021-01-05 | International Business Machines Corporation | Locating a mobile device and notifying a user of the mobile device location |
JP7180535B2 (en) * | 2019-05-23 | 2022-11-30 | トヨタ自動車株式会社 | Information processing device, information processing method and program |
DE102019208871A1 (en) * | 2019-06-18 | 2020-12-24 | Thyssenkrupp Ag | Device and method for determining the interior state of a vehicle |
KR102267192B1 (en) * | 2019-08-14 | 2021-06-18 | 엘지전자 주식회사 | Apparatus and method for detecting falling object |
US10854055B1 (en) * | 2019-10-17 | 2020-12-01 | The Travelers Indemnity Company | Systems and methods for artificial intelligence (AI) theft prevention and recovery |
CN113147588A (en) * | 2020-01-22 | 2021-07-23 | 奥迪股份公司 | Reminder system for a vehicle, vehicle comprising same, and corresponding method and medium |
US11738713B2 (en) * | 2020-01-23 | 2023-08-29 | Ford Global Technologies, Llc | Vehicle security system |
US10834538B1 (en) * | 2020-02-12 | 2020-11-10 | International Business Machines Corporation | Locating a mobile device and notifying a user of the mobile device location |
US11062416B1 (en) * | 2020-02-28 | 2021-07-13 | Sos Lab Co., Ltd. | Shared vehicle service providing method performed by server communicating with user device of passenger and autonomous vehicle |
US11594046B2 (en) * | 2020-03-26 | 2023-02-28 | Pony Ai Inc. | Vehicle cargo cameras for sensing vehicle characteristics |
DE102020204291A1 (en) * | 2020-04-02 | 2021-10-07 | Volkswagen Aktiengesellschaft | Method for manufacturing a vehicle and seat belt assembly |
KR20220003320A (en) * | 2020-07-01 | 2022-01-10 | 현대자동차주식회사 | Vehicle and method of managing in-car cleanliness for the same |
US11928406B2 (en) * | 2020-07-02 | 2024-03-12 | Ford Global Technologies, Llc | Systems and methods for creating infrastructure models |
US11756145B2 (en) * | 2020-07-20 | 2023-09-12 | Ford Global Technologies, Llc | Systems and methods for providing a unified transportation service |
USD960901S1 (en) | 2020-10-30 | 2022-08-16 | Zoox, Inc. | Display screen or portion thereof having a graphical user interface |
US11953586B2 (en) | 2020-11-17 | 2024-04-09 | Ford Global Technologies, Llc | Battery-powered vehicle sensors |
US11760281B2 (en) * | 2020-11-17 | 2023-09-19 | Ford Global Technologies, Llc | Battery-powered vehicle sensors |
US11675349B2 (en) * | 2020-11-30 | 2023-06-13 | Zoox, Inc. | User interface for remote vehicle monitoring |
CN112590814A (en) * | 2020-12-17 | 2021-04-02 | 上海悦充网络科技有限公司 | Vehicle automatic driving control method and system based on Internet of vehicles |
US11475755B2 (en) | 2021-03-02 | 2022-10-18 | Gm Cruise Holdings Llc | Forgotten mobile device detection and management |
US11780349B2 (en) | 2021-03-10 | 2023-10-10 | Toyota Motor Engineering & Manufacturing North America, Inc. | System and method for detecting objects left behind by using heated resistive filament in a vehicle |
US11951937B2 (en) | 2021-03-12 | 2024-04-09 | Ford Global Technologies, Llc | Vehicle power management |
US11912235B2 (en) | 2021-03-12 | 2024-02-27 | Ford Global Technologies, Llc | Vehicle object detection |
US11916420B2 (en) | 2021-03-12 | 2024-02-27 | Ford Global Technologies, Llc | Vehicle sensor operation |
FR3121101B1 (en) * | 2021-03-29 | 2023-05-26 | Psa Automobiles Sa | Method for detecting and identifying an object placed in a storage compartment of a motor vehicle and associated storage compartment |
US11904784B2 (en) * | 2021-08-16 | 2024-02-20 | Motional Ad Llc | Detecting objects within a vehicle |
US11836760B1 (en) * | 2022-07-01 | 2023-12-05 | Gm Cruise Holdings Llc | Vehicle advertising platform |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090216600A1 (en) * | 2008-02-27 | 2009-08-27 | Montiss Llc | Systems and methods for arranging a transport transaction |
CN202394343U (en) * | 2011-12-12 | 2012-08-22 | 浙江金刚汽车有限公司 | Voice prompt system for preventing forgetting articles on taxi |
CN104601648A (en) * | 2013-10-31 | 2015-05-06 | 通用汽车环球科技运作有限责任公司 | Methods, systems and apparatus for providing notification that a wireless communication device has been left inside a vehicle |
Family Cites Families (257)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5144685A (en) | 1989-03-31 | 1992-09-01 | Honeywell Inc. | Landmark recognition for autonomous mobile robots |
US7983817B2 (en) * | 1995-06-07 | 2011-07-19 | Automotive Technologies Internatinoal, Inc. | Method and arrangement for obtaining information about vehicle occupants |
US7783403B2 (en) | 1994-05-23 | 2010-08-24 | Automotive Technologies International, Inc. | System and method for preventing vehicular accidents |
US5654615A (en) * | 1994-12-15 | 1997-08-05 | Asc Incorporated | Storage compartment sensor system for use with an automotive vehicle convertible roof |
US7313467B2 (en) * | 2000-09-08 | 2007-12-25 | Automotive Technologies International Inc. | System and method for in-vehicle communications |
JP3634006B2 (en) | 1995-06-09 | 2005-03-30 | 株式会社ザナヴィ・インフォマティクス | Current position calculation device |
US5751852A (en) | 1996-04-29 | 1998-05-12 | Xerox Corporation | Image structure map data structure for spatially indexing an imgage |
US5809179A (en) | 1996-05-31 | 1998-09-15 | Xerox Corporation | Producing a rendered image version of an original image using an image structure map representation of the image |
WO1998003021A1 (en) | 1996-06-28 | 1998-01-22 | Sri International | Small vision module for real-time stereo and motion analysis |
DE69733151T2 (en) | 1996-12-16 | 2006-01-26 | Xanavi Informatics Corp., Zama | MAP DATABASE UNIT |
US8209120B2 (en) | 1997-10-22 | 2012-06-26 | American Vehicular Sciences Llc | Vehicular map database management techniques |
US7840342B1 (en) | 1997-10-22 | 2010-11-23 | Intelligent Technologies International, Inc. | Road physical condition monitoring techniques |
US6922622B2 (en) * | 1999-06-03 | 2005-07-26 | Robert Bosch Corporation | Hot vehicle safety system and methods of preventing passenger entrapment and heat suffocation |
US6385539B1 (en) | 1999-08-13 | 2002-05-07 | Daimlerchrysler Ag | Method and system for autonomously developing or augmenting geographical databases by mining uncoordinated probe data |
CN1494697A (en) * | 2000-02-29 | 2004-05-05 | ��ϰ�� | Delivery system and method for vehicles and the like |
US7352454B2 (en) | 2000-11-09 | 2008-04-01 | Canesta, Inc. | Methods and devices for improved charge management for three-dimensional and color sensing |
US6559776B2 (en) | 2001-02-15 | 2003-05-06 | Yoram Katz | Parking status control system and method |
DE10110373C2 (en) | 2001-03-03 | 2003-03-06 | Wolfgang Daum | Method and device for cleaning the interior of automobiles |
FR2826727B1 (en) | 2001-06-29 | 2004-05-28 | Valeo Vision | METHOD AND DEVICE FOR DETECTING THE HUMIDITY OF A ROAD ON WHICH A VEHICLE IS MOVING |
US6542111B1 (en) | 2001-08-13 | 2003-04-01 | Yazaki North America, Inc. | Path prediction for vehicular collision warning system |
US20030040944A1 (en) * | 2001-08-22 | 2003-02-27 | Hileman Ryan M. | On-demand transportation system |
US6856282B2 (en) | 2002-02-08 | 2005-02-15 | Qualcomm Incorporated | Directly acquiring precision code GPS signals |
FR2836418A1 (en) | 2002-02-22 | 2003-08-29 | Michelin Soc Tech | Vehicle tire tread, for measuring road surface adhesion, comprises tread block(s) consisting of central zone, surrounding zone and detector applied to external radial summit of tread |
US7124027B1 (en) | 2002-07-11 | 2006-10-17 | Yazaki North America, Inc. | Vehicular collision avoidance system |
US6795031B1 (en) | 2002-07-12 | 2004-09-21 | Yazaki North America, Inc. | Mechanically scanned parabolic reflector antenna |
US7102496B1 (en) | 2002-07-30 | 2006-09-05 | Yazaki North America, Inc. | Multi-sensor integration for a vehicle |
JP3860518B2 (en) | 2002-08-12 | 2006-12-20 | 株式会社豊田中央研究所 | Road friction estimation device |
JP4416996B2 (en) | 2002-11-01 | 2010-02-17 | 三菱電機株式会社 | Map information processing apparatus and map information providing apparatus |
US6807473B1 (en) | 2003-04-09 | 2004-10-19 | Continental Teves, Inc. | Road recognition system |
JP2005028887A (en) | 2003-07-07 | 2005-02-03 | Fuji Heavy Ind Ltd | Method and device for estimating road surface friction coefficient |
DE602004004014T2 (en) | 2003-08-26 | 2007-04-26 | Fuji Jukogyo K.K. | Apparatus and method for assessing tire type and road surface conditions for vehicles |
US7359787B2 (en) | 2003-09-03 | 2008-04-15 | Nsk Ltd. | Stability control apparatus and load measuring instrument for wheel supporting rolling bearing unit |
JP4419672B2 (en) * | 2003-09-16 | 2010-02-24 | 株式会社デンソー | Vehicle left behind prevention device |
DE602004027699D1 (en) | 2003-11-26 | 2010-07-29 | Nissan Motor | Lane keeping device for a motor vehicle |
US20160267720A1 (en) | 2004-01-30 | 2016-09-15 | Electronic Scripting Products, Inc. | Pleasant and Realistic Virtual/Augmented/Mixed Reality Experience |
JP2005271824A (en) | 2004-03-25 | 2005-10-06 | Mitsubishi Fuso Truck & Bus Corp | Vehicular behavior control device |
US20100013615A1 (en) | 2004-03-31 | 2010-01-21 | Carnegie Mellon University | Obstacle detection having enhanced classification |
DE102004016288B3 (en) | 2004-04-02 | 2005-08-18 | Daimlerchrysler Ag | Determining friction value between vehicle tire, road involves evaluating tire vibration characteristic(s), especially frequency spectrum and/or time domain spectrum, by evaluating data using physical and/or phenomenological model approach |
ATE552478T1 (en) | 2004-06-03 | 2012-04-15 | Making Virtual Solid L L C | NAVIGATIONAL DISPLAY METHOD AND APPARATUS FOR ON-GOING USING A HEAD-UP DISPLAY |
WO2005125003A2 (en) * | 2004-06-15 | 2005-12-29 | Sarnoff Corporation | Method and apparatus for detecting left objects |
US8594370B2 (en) | 2004-07-26 | 2013-11-26 | Automotive Systems Laboratory, Inc. | Vulnerable road user protection system |
US7587899B2 (en) | 2004-08-27 | 2009-09-15 | University Of Houston | Shape memory alloy actuated adaptive exhaust nozzle for jet engine |
JP2006159939A (en) * | 2004-12-02 | 2006-06-22 | Xanavi Informatics Corp | Notice device for in-cabin object to be informed |
US20060126975A1 (en) | 2004-12-10 | 2006-06-15 | Mckellar Randy R | Easy opening rear seam bags and packaging methods |
US7250869B2 (en) * | 2005-03-21 | 2007-07-31 | Davis Le Roychelle | Child carseat alert system |
US7539574B2 (en) | 2005-03-22 | 2009-05-26 | Denso Corporation | Vehicular navigation system |
US20060223637A1 (en) | 2005-03-31 | 2006-10-05 | Outland Research, Llc | Video game system combining gaming simulation with remote robot control and remote robot feedback |
US8090491B2 (en) | 2005-07-26 | 2012-01-03 | Macdonald Dettwiler & Associates Inc. | Guidance, navigation, and control system for a vehicle |
WO2007037186A1 (en) * | 2005-09-28 | 2007-04-05 | Pioneer Corporation | Waypoint setting device, information presentation device, waypoint setting method, waypoint setting program, and recording medium |
US8164628B2 (en) | 2006-01-04 | 2012-04-24 | Mobileye Technologies Ltd. | Estimating distance to an object using a sequence of images recorded by a monocular camera |
US7994465B1 (en) | 2006-02-06 | 2011-08-09 | Microsoft Corporation | Methods and devices for improved charge management for three-dimensional and color sensing |
US9373149B2 (en) | 2006-03-17 | 2016-06-21 | Fatdoor, Inc. | Autonomous neighborhood vehicle commerce network and community |
US20090070034A1 (en) | 2006-03-17 | 2009-03-12 | Christopher L Oesterling | Method for recording an annotation and making it available for later playback |
DE602006013274D1 (en) | 2006-03-31 | 2010-05-12 | Research In Motion Ltd | Card version control method and apparatus for updating the use of network maintained map data sets for mobile communication devices |
DE102006018029A1 (en) | 2006-04-19 | 2007-10-25 | Robert Bosch Gmbh | Device and method for controlling personal protection devices |
US7999849B2 (en) | 2006-05-17 | 2011-08-16 | The Boeing Company | Moving object detection |
DE102006027121A1 (en) | 2006-06-12 | 2007-12-13 | Robert Bosch Gmbh | Image acquisition system and method for determining distance with an image acquisition system |
JP2008027239A (en) * | 2006-07-21 | 2008-02-07 | Denso Corp | Apparatus for preventing belongings from being left behind |
US20080033645A1 (en) | 2006-08-03 | 2008-02-07 | Jesse Sol Levinson | Pobabilistic methods for mapping and localization in arbitrary outdoor environments |
JP4915268B2 (en) | 2006-12-22 | 2012-04-11 | 株式会社エクォス・リサーチ | Vehicle control device |
JP4848994B2 (en) | 2006-12-22 | 2011-12-28 | 株式会社エクォス・リサーチ | Vehicle control device |
JP4897516B2 (en) | 2007-02-28 | 2012-03-14 | アイシン・エィ・ダブリュ株式会社 | Navigation device and data update system |
JP5075443B2 (en) | 2007-03-27 | 2012-11-21 | アイシン・エィ・ダブリュ株式会社 | Road map data generation device, navigation device, and road map data generation program |
JP4903616B2 (en) | 2007-03-29 | 2012-03-28 | アイシン・エィ・ダブリュ株式会社 | Map update data supply device, map data update system, and map update data supply method |
JP4576445B2 (en) | 2007-04-12 | 2010-11-10 | パナソニック株式会社 | Autonomous mobile device and program for autonomous mobile device |
JP2008262459A (en) * | 2007-04-13 | 2008-10-30 | Fujitsu Ten Ltd | Mislaying announcing device |
US20100217491A1 (en) | 2007-07-02 | 2010-08-26 | Equos Research Co., Ltd. | Camber angle controlling device |
JP2009012635A (en) | 2007-07-05 | 2009-01-22 | Denso Corp | Vehicular cleaning device |
US8385658B2 (en) | 2007-07-27 | 2013-02-26 | Sportvision, Inc. | Detecting an object in an image using multiple templates |
JP4858381B2 (en) * | 2007-09-19 | 2012-01-18 | 株式会社デンソー | Car left behind prevention device |
US8145402B2 (en) | 2007-12-05 | 2012-03-27 | Lockheed Martin Corporation | GPS-based traction control system and method using data transmitted between vehicles |
US20090146813A1 (en) * | 2007-12-10 | 2009-06-11 | Acropolis Engineering | Automobile forgotten passenger alarm and notification |
EP2242994A1 (en) | 2008-02-04 | 2010-10-27 | Tele Atlas North America Inc. | Method for map matching with sensor detected objects |
JP4613970B2 (en) | 2008-03-12 | 2011-01-19 | トヨタ自動車株式会社 | Vehicle lighting device |
KR100862561B1 (en) | 2008-03-13 | 2008-10-09 | (주) 서돌 전자통신 | A system for sensing a traffic accident |
EP2135783A1 (en) | 2008-06-18 | 2009-12-23 | GM Global Technology Operations, Inc. | Motor vehicle driver assisting method |
US9519921B2 (en) * | 2008-06-27 | 2016-12-13 | E-Lantis Corporation | GPS and wireless integrated fleet management system and method |
US20100020170A1 (en) | 2008-07-24 | 2010-01-28 | Higgins-Luthman Michael J | Vehicle Imaging System |
US8126642B2 (en) | 2008-10-24 | 2012-02-28 | Gray & Company, Inc. | Control and systems for autonomously driven vehicles |
US8364334B2 (en) | 2008-10-30 | 2013-01-29 | Honeywell International Inc. | System and method for navigating an autonomous vehicle using laser detection and ranging |
US8417414B2 (en) * | 2008-12-11 | 2013-04-09 | Infosys Technologies Limited | Method and system for managing passenger and vehicle safety |
DE102008055159A1 (en) | 2008-12-29 | 2010-07-01 | Robert Bosch Gmbh | Adaptive angle and power adjustment for 3D micromirror lidar |
US8677145B2 (en) | 2009-02-27 | 2014-03-18 | Atmel Corporation | Single pin communication mechanism |
US9278693B2 (en) | 2009-03-24 | 2016-03-08 | Ford Global Technologies, Llc | System and method for improving vehicle performance on grade |
JP2010231415A (en) * | 2009-03-26 | 2010-10-14 | Denso Corp | Monitoring device for vehicle |
US8180547B2 (en) | 2009-03-27 | 2012-05-15 | Ford Global Technologies, Llc | Telematics system and method for traction reporting and control in a vehicle |
US8352111B2 (en) | 2009-04-06 | 2013-01-08 | GM Global Technology Operations LLC | Platoon vehicle management |
US8150620B2 (en) | 2009-04-14 | 2012-04-03 | Alpine Electronics, Inc. | Route search method and apparatus for navigation system utilizing map data of XML format |
US8872964B2 (en) | 2009-05-20 | 2014-10-28 | Express Imaging Systems, Llc | Long-range motion detection for illumination control |
JP5461065B2 (en) | 2009-05-21 | 2014-04-02 | クラリオン株式会社 | Current position specifying device and current position specifying method |
RU2400592C1 (en) * | 2009-08-17 | 2010-09-27 | Александр Макарович Салдаев | Method of transport network creation |
US20110046784A1 (en) | 2009-08-18 | 2011-02-24 | Noel Wayne Anderson | Asymmetric stereo vision system |
US9552726B2 (en) | 2009-08-24 | 2017-01-24 | Here Global B.V. | Providing driving condition alerts using road attribute data |
US8301374B2 (en) | 2009-08-25 | 2012-10-30 | Southwest Research Institute | Position estimation for ground vehicle navigation based on landmark identification/yaw rate and perception of landmarks |
US8306672B2 (en) | 2009-09-09 | 2012-11-06 | GM Global Technology Operations LLC | Vehicular terrain detection system and method |
WO2011038018A1 (en) | 2009-09-23 | 2011-03-31 | Earthsearch Communications International, Inc. | Device and process for monitoring secure storage and delivery of items |
KR101662595B1 (en) | 2009-11-03 | 2016-10-06 | 삼성전자주식회사 | User terminal, route guide system and route guide method thereof |
US8559673B2 (en) | 2010-01-22 | 2013-10-15 | Google Inc. | Traffic signal mapping and detection |
WO2011116375A1 (en) | 2010-03-19 | 2011-09-22 | Northeastern University | Roaming mobile sensor platform for collecting geo-referenced data and creating thematic maps |
WO2011162227A1 (en) | 2010-06-24 | 2011-12-29 | 富士フイルム株式会社 | Stereoscopic panoramic image synthesis device, image capturing device, stereoscopic panoramic image synthesis method, recording medium, and computer program |
US20120006610A1 (en) * | 2010-07-09 | 2012-01-12 | Erik Wallace | Telematics enhanced mobile device safety interlock |
US8532336B2 (en) | 2010-08-17 | 2013-09-10 | International Business Machines Corporation | Multi-mode video event indexing |
EP2617025B1 (en) | 2010-09-13 | 2019-05-08 | Barry Lynn Jenkins | Delivering and controlling streaming interactive media comprising renderable geometric, texture and lighting data |
AU2011305154B2 (en) | 2010-09-24 | 2015-02-05 | Irobot Corporation | Systems and methods for VSLAM optimization |
US8509982B2 (en) | 2010-10-05 | 2013-08-13 | Google Inc. | Zone driving |
GB201018815D0 (en) | 2010-11-08 | 2010-12-22 | Tomtom Int Bv | High-definition weather for improved routing and navigation systems |
JP2012127861A (en) | 2010-12-16 | 2012-07-05 | Sumitomo Electric Ind Ltd | Vehicle travel support system, computer program, and vehicle travel support method |
US8626451B2 (en) | 2010-12-21 | 2014-01-07 | Delphi Technologies, Inc. | Method and device for characterization and sensing of exhaust gas and control of engines and components for aftertreatment of exhaust gases |
DE102011010205A1 (en) | 2011-02-03 | 2011-10-06 | Daimler Ag | Device for cleaning inner space of motor vehicle i.e. car, has locomotion element e.g. autonomous movable robot, through which device is autonomously moved to predetermined area which is to-be-cleaned at inner space of vehicle |
US20120296539A1 (en) | 2011-03-23 | 2012-11-22 | Tk Holdings Inc. | Driver assistance system |
US20120242492A1 (en) * | 2011-03-25 | 2012-09-27 | Tov 1 LLC | Seat occupancy detection and display system |
US20120283912A1 (en) | 2011-05-05 | 2012-11-08 | GM Global Technology Operations LLC | System and method of steering override end detection for automated lane centering |
US9140792B2 (en) | 2011-06-01 | 2015-09-22 | GM Global Technology Operations LLC | System and method for sensor based environmental model construction |
US20120327410A1 (en) | 2011-06-23 | 2012-12-27 | Cvg Management Corporation | Non-contact media detection system using reflection/absoption spectroscopy |
JP5565385B2 (en) | 2011-07-16 | 2014-08-06 | 株式会社デンソー | VEHICLE WIRELESS COMMUNICATION DEVICE AND COMMUNICATION SYSTEM |
US9612797B2 (en) * | 2011-08-25 | 2017-04-04 | Ford Global Technologies, Llc | Method and apparatus for a near field communication system to exchange occupant information |
DE102011111592A1 (en) | 2011-08-25 | 2013-02-28 | Wabco Gmbh | Method and control device for controlling or regulating a vehicle brake system |
US20130060461A1 (en) | 2011-09-07 | 2013-03-07 | INRO Technologies Limited | Method and apparatus for using pre-positioned objects to localize an industrial vehicle |
US8798840B2 (en) | 2011-09-30 | 2014-08-05 | Irobot Corporation | Adaptive mapping with spatial summaries of sensor data |
CN102390370B (en) | 2011-10-25 | 2013-07-03 | 河海大学 | Stereoscopic vision based emergency treatment device and method for running vehicles |
EP2589932B1 (en) | 2011-11-07 | 2017-02-08 | Elektrobit Automotive GmbH | Technique for structuring a navigation database |
JP5846485B2 (en) | 2011-11-30 | 2016-01-20 | 株式会社リコー | Adhering matter detection apparatus and adhering matter detection method |
US20140309913A1 (en) | 2013-04-15 | 2014-10-16 | Flextronics Ap, Llc | Relay and Exchange Protocol in an Automated Zone-Based Vehicular Traffic Control Environment |
US8825265B1 (en) | 2012-03-16 | 2014-09-02 | Google Inc. | Approach for consolidating observed vehicle trajectories into a single representative trajectory |
US9145140B2 (en) | 2012-03-26 | 2015-09-29 | Google Inc. | Robust method for detecting traffic signals and their associated states |
WO2013155661A1 (en) * | 2012-04-16 | 2013-10-24 | Harman International (Shanghai) Management Co., Ltd. | A monitoring system in a vehicle and a method performed therein |
US8521352B1 (en) | 2012-05-07 | 2013-08-27 | Google Inc. | Controlling a vehicle having inadequate map data |
US10089537B2 (en) | 2012-05-18 | 2018-10-02 | Magna Electronics Inc. | Vehicle vision system with front and rear camera integration |
DE102012209172A1 (en) | 2012-05-31 | 2013-12-05 | Osram Gmbh | Lens with internal reflecting reflection layer |
JP5422702B2 (en) | 2012-06-04 | 2014-02-19 | 本田技研工業株式会社 | Vehicle display device |
US9958272B2 (en) | 2012-08-10 | 2018-05-01 | Telogis, Inc. | Real-time computation of vehicle service routes |
US9056395B1 (en) | 2012-09-05 | 2015-06-16 | Google Inc. | Construction zone sign detection using light detection and ranging |
US9036865B2 (en) | 2012-09-12 | 2015-05-19 | International Business Machines Corporation | Location determination for an object using visual data |
US9158980B1 (en) | 2012-09-19 | 2015-10-13 | Google Inc. | Use of relationship between activities of different traffic signals in a network to improve traffic signal state estimation |
US9110196B2 (en) | 2012-09-20 | 2015-08-18 | Google, Inc. | Detecting road weather conditions |
US9383753B1 (en) | 2012-09-26 | 2016-07-05 | Google Inc. | Wide-view LIDAR with areas of special attention |
JP2014074699A (en) | 2012-10-05 | 2014-04-24 | Denso Corp | Map information processor, and computer program |
US9097800B1 (en) | 2012-10-11 | 2015-08-04 | Google Inc. | Solid object detection system using laser and radar sensor fusion |
US8941676B2 (en) | 2012-10-26 | 2015-01-27 | Nvidia Corporation | On-chip anti-alias resolve in a cache tiling architecture |
WO2014072972A1 (en) * | 2012-11-08 | 2014-05-15 | Maimoni Iris | System and method for determining whether items have been left in vehicles |
US9246788B2 (en) | 2012-11-09 | 2016-01-26 | Cisco Technology, Inc. | Apparatus, system, and method for providing energy management, profiles, and message blocks in a cable service environment |
DE102012112725A1 (en) | 2012-12-20 | 2014-06-26 | Continental Teves Ag & Co. Ohg | Friction estimation from camera and wheel speed data |
JP6006113B2 (en) | 2012-12-28 | 2016-10-12 | 株式会社日立製作所 | Map distribution server for car navigation device, map data distribution system, and road difference data generation method |
DE102013200430A1 (en) * | 2013-01-14 | 2014-07-17 | Continental Automotive Gmbh | System for the transport of luggage |
US8917190B1 (en) | 2013-01-23 | 2014-12-23 | Stephen Waller Melvin | Method of restricting turns at vehicle intersections |
US20140222298A1 (en) | 2013-02-03 | 2014-08-07 | Michael H. Gurin | Systems For a Shared Vehicle |
CN104919279A (en) | 2013-02-22 | 2015-09-16 | 爱信艾达株式会社 | Navigation system, navigation system control method and program |
US9045041B2 (en) | 2013-02-27 | 2015-06-02 | Here Global B.V. | Driver behavior from probe data for augmenting a data model |
DE102013101990A1 (en) * | 2013-02-28 | 2014-08-28 | Eberhard Göbel GmbH & Co. KG | Rental car and method for carrying out a rental of a rental car |
US9702349B2 (en) | 2013-03-15 | 2017-07-11 | ClearMotion, Inc. | Active vehicle suspension system |
GB201305067D0 (en) | 2013-03-19 | 2013-05-01 | Massive Analytic Ltd | Apparatus for controlling a land vehicle which is self-driving or partially self-driving |
US9863928B1 (en) | 2013-03-20 | 2018-01-09 | United Parcel Service Of America, Inc. | Road condition detection system |
RU132393U1 (en) | 2013-03-21 | 2013-09-20 | Федеральное государственное бюджетное образовательное учреждение высшего профессионального образования "Санкт-Петербургский государственный аграрный университет" | DEVICE FOR AUTOMATIC CONTROL OF SAFETY OF MOTION OF VEHICLE |
US20140302774A1 (en) | 2013-04-04 | 2014-10-09 | General Motors Llc | Methods systems and apparatus for sharing information among a group of vehicles |
US9632210B2 (en) | 2013-05-07 | 2017-04-25 | Google Inc. | Methods and systems for detecting weather conditions using vehicle onboard sensors |
US9207323B2 (en) | 2013-04-11 | 2015-12-08 | Google Inc. | Methods and systems for detecting weather conditions including wet surfaces using vehicle onboard sensors |
KR101519199B1 (en) | 2013-05-09 | 2015-05-11 | 현대자동차주식회사 | System and Method for Detecting of Road |
EP2804096B1 (en) | 2013-05-15 | 2018-03-21 | Google LLC | Efficient fetching of a map data during animation |
US9488483B2 (en) | 2013-05-17 | 2016-11-08 | Honda Motor Co., Ltd. | Localization using road markings |
US9683928B2 (en) | 2013-06-23 | 2017-06-20 | Eric Swanson | Integrated optical system and components utilizing tunable optical sources and coherent detection and phased array for imaging, ranging, sensing, communications and other applications |
JP6217172B2 (en) * | 2013-06-25 | 2017-10-25 | 日産自動車株式会社 | Vehicle interior monitoring device |
US9058524B2 (en) | 2013-06-28 | 2015-06-16 | Bendix Commercial Vehicle Systems Llc | Measuring the range to an object, in an image, using size categorization |
US9719801B1 (en) | 2013-07-23 | 2017-08-01 | Waymo Llc | Methods and systems for calibrating sensors using road map data |
DE102013012810A1 (en) | 2013-08-01 | 2015-02-05 | Connaught Electronics Ltd. | Method for activating and deactivating an image correction function, camera system and motor vehicle |
US9327645B2 (en) * | 2013-08-28 | 2016-05-03 | Harman International Industries, Incorporated | Providing alerts for objects left in a vehicle |
US20150106204A1 (en) * | 2013-10-11 | 2015-04-16 | General Motors Llc | Methods for providing a vehicle with fuel purchasing options |
US9187099B2 (en) | 2013-10-17 | 2015-11-17 | Richard M. Powers | Systems and methods for predicting weather performance for a vehicle |
US20150112585A1 (en) | 2013-10-22 | 2015-04-23 | Quicken Loans, Inc. | Communication System |
KR20150058679A (en) | 2013-11-20 | 2015-05-29 | 한국전자통신연구원 | Apparatus and method for localization of autonomous vehicle in a complex |
US9915950B2 (en) | 2013-12-31 | 2018-03-13 | Polysync Technologies, Inc. | Autonomous vehicle interface system |
US20150203107A1 (en) | 2014-01-17 | 2015-07-23 | Ford Global Technologies, Llc | Autonomous vehicle precipitation detection |
US20150202770A1 (en) | 2014-01-17 | 2015-07-23 | Anthony Patron | Sidewalk messaging of an autonomous robot |
EP3100206B1 (en) | 2014-01-30 | 2020-09-09 | Mobileye Vision Technologies Ltd. | Systems and methods for lane end recognition |
DE102014201822A1 (en) | 2014-02-03 | 2015-08-06 | Robert Bosch Gmbh | Method for operating a vehicle |
EP3114574A4 (en) | 2014-03-03 | 2018-03-07 | Inrix, Inc. | Traffic obstruction detection |
JP6427908B2 (en) | 2014-03-24 | 2018-11-28 | アイシン・エィ・ダブリュ株式会社 | Map information generation system, method and program |
US20150278759A1 (en) * | 2014-03-26 | 2015-10-01 | Go Taxi Truck, LLC | System and Method for Vehicle Delivery Tracking Service |
US9898759B2 (en) | 2014-03-28 | 2018-02-20 | Joseph Khoury | Methods and systems for collecting driving information and classifying drivers and self-driving systems |
DE102014208009A1 (en) | 2014-04-29 | 2015-10-29 | Bayerische Motoren Werke Aktiengesellschaft | Capture static and dynamic objects |
US9631933B1 (en) | 2014-05-23 | 2017-04-25 | Google Inc. | Specifying unavailable locations for autonomous vehicles |
US10759442B2 (en) | 2014-05-30 | 2020-09-01 | Here Global B.V. | Dangerous driving event reporting |
US9139204B1 (en) | 2014-06-12 | 2015-09-22 | GM Global Technology Operations LLC | Road surface condition detection with recursive adaptive learning and validation |
WO2015195529A1 (en) | 2014-06-20 | 2015-12-23 | Google Inc. | Integrating online navigation data with cached navigation data during active navigation |
JP6032248B2 (en) | 2014-07-09 | 2016-11-24 | トヨタ自動車株式会社 | Vehicle lighting device |
US9409644B2 (en) | 2014-07-16 | 2016-08-09 | Ford Global Technologies, Llc | Automotive drone deployment system |
US9442487B1 (en) | 2014-08-15 | 2016-09-13 | Google Inc. | Classifier hierarchies for traffic light and traffic indicator detection |
US20160055744A1 (en) | 2014-08-19 | 2016-02-25 | Qualcomm Incorporated | Systems and methods for traffic efficiency and flow control |
US9513132B2 (en) | 2014-08-21 | 2016-12-06 | Here Global B.V. | Measuring quality in optimal navigation routes by navigation systems |
US10036639B1 (en) | 2014-09-02 | 2018-07-31 | Metromile, Inc. | Systems and methods for determining and displaying a route using information determined from a vehicle, user feedback, and a mobile electronic device |
EP3018448B1 (en) | 2014-11-04 | 2021-01-06 | Volvo Car Corporation | Methods and systems for enabling improved positioning of a vehicle |
US9475500B2 (en) | 2014-11-12 | 2016-10-25 | GM Global Technology Operations LLC | Use of participative sensing systems to enable enhanced road friction estimation |
KR101641490B1 (en) | 2014-12-10 | 2016-07-21 | 엘지전자 주식회사 | Driver assistance apparatus and Vehicle including the same |
US10262213B2 (en) | 2014-12-16 | 2019-04-16 | Here Global B.V. | Learning lanes from vehicle probes |
US9576200B2 (en) | 2014-12-17 | 2017-02-21 | Toyota Motor Engineering & Manufacturing North America, Inc. | Background map format for autonomous driving |
US9815476B2 (en) | 2014-12-22 | 2017-11-14 | Here Global B.V. | Method and apparatus for providing road surface friction data for a response action |
US9453941B2 (en) | 2014-12-22 | 2016-09-27 | GM Global Technology Operations LLC | Road surface reflectivity detection by lidar sensor |
JP6237656B2 (en) | 2015-01-19 | 2017-11-29 | トヨタ自動車株式会社 | Vehicle system |
DE102015216483A1 (en) | 2015-01-29 | 2016-08-04 | Robert Bosch Gmbh | Method for operating a coefficient of friction database and coefficient of friction database |
EP3845427A1 (en) | 2015-02-10 | 2021-07-07 | Mobileye Vision Technologies Ltd. | Sparse map for autonomous vehicle navigation |
GB2535718A (en) * | 2015-02-24 | 2016-08-31 | Addison Lee Ltd | Resource management |
US10002156B2 (en) | 2015-03-16 | 2018-06-19 | Here Global B.V. | Version management for incrementally compiled map data |
EP3096342B1 (en) | 2015-03-18 | 2017-09-20 | IMS Nanofabrication AG | Bi-directional double-pass multi-beam writing |
US9552564B1 (en) * | 2015-03-19 | 2017-01-24 | Amazon Technologies, Inc. | Autonomous delivery transportation network |
US20170023659A1 (en) | 2015-05-08 | 2017-01-26 | 5D Robotics, Inc. | Adaptive positioning system |
US9616773B2 (en) | 2015-05-11 | 2017-04-11 | Uber Technologies, Inc. | Detecting objects within a vehicle in connection with a service |
US9494439B1 (en) | 2015-05-13 | 2016-11-15 | Uber Technologies, Inc. | Autonomous vehicle operated with guide assistance of human driven vehicles |
DE202016007736U1 (en) | 2015-05-28 | 2017-01-16 | Google Inc. | Dynamic integration of offline and online data in a geographic application |
US9836056B2 (en) | 2015-06-05 | 2017-12-05 | Bao Tran | Smart vehicle |
US9386230B1 (en) | 2015-06-12 | 2016-07-05 | Google Inc. | Day and night detection based on one or more of illuminant detection, lux level detection, and tiling |
DE102015211482A1 (en) | 2015-06-22 | 2016-12-22 | Robert Bosch Gmbh | Method and device for determining a minimum value for the coefficient of friction of a road segment |
JP6641614B2 (en) | 2015-06-22 | 2020-02-05 | 本田技研工業株式会社 | Map information updating device and map information updating system |
JP6376059B2 (en) | 2015-07-06 | 2018-08-22 | トヨタ自動車株式会社 | Control device for autonomous driving vehicle |
US9884623B2 (en) | 2015-07-13 | 2018-02-06 | GM Global Technology Operations LLC | Method for image-based vehicle localization |
DE102015214338A1 (en) | 2015-07-29 | 2017-02-02 | Volkswagen Aktiengesellschaft | Determining an arrangement information for a vehicle |
US10023231B2 (en) | 2015-08-12 | 2018-07-17 | Madhusoodhan Ramanujam | Parking autonomous vehicles |
TWI611279B (en) | 2015-08-31 | 2018-01-11 | 國立臺北科技大學 | Dispatch system for autonomous vehicle |
US10002471B2 (en) | 2015-09-30 | 2018-06-19 | Ants Technology (Hk) Limited | Systems and methods for autonomous vehicle navigation |
US9507346B1 (en) | 2015-11-04 | 2016-11-29 | Zoox, Inc. | Teleoperation system and method for trajectory modification of autonomous vehicles |
US9612123B1 (en) | 2015-11-04 | 2017-04-04 | Zoox, Inc. | Adaptive mapping to navigate autonomous vehicles responsive to physical environment changes |
US9958864B2 (en) | 2015-11-04 | 2018-05-01 | Zoox, Inc. | Coordination of dispatching and maintaining fleet of autonomous vehicles |
US9720415B2 (en) | 2015-11-04 | 2017-08-01 | Zoox, Inc. | Sensor-based object-detection optimization for autonomous vehicles |
US9910441B2 (en) | 2015-11-04 | 2018-03-06 | Zoox, Inc. | Adaptive autonomous vehicle planner logic |
WO2017079341A2 (en) | 2015-11-04 | 2017-05-11 | Zoox, Inc. | Automated extraction of semantic information to enhance incremental mapping modifications for robotic vehicles |
US9916703B2 (en) | 2015-11-04 | 2018-03-13 | Zoox, Inc. | Calibration for autonomous vehicle operation |
US9878664B2 (en) | 2015-11-04 | 2018-01-30 | Zoox, Inc. | Method for robotic vehicle communication with an external environment via acoustic beam forming |
US9494940B1 (en) | 2015-11-04 | 2016-11-15 | Zoox, Inc. | Quadrant configuration of robotic vehicles |
US9952591B2 (en) | 2015-11-24 | 2018-04-24 | Northrop Grumman Systems Corporation | Spatial-temporal forecasting for predictive situational awareness |
US10018472B2 (en) | 2015-12-10 | 2018-07-10 | Uber Technologies, Inc. | System and method to determine traction of discrete locations of a road segment |
US9840256B1 (en) | 2015-12-16 | 2017-12-12 | Uber Technologies, Inc. | Predictive sensor array configuration system for an autonomous vehicle |
US9841763B1 (en) | 2015-12-16 | 2017-12-12 | Uber Technologies, Inc. | Predictive sensor array configuration system for an autonomous vehicle |
US9901165B2 (en) | 2015-12-21 | 2018-02-27 | Casabella Holdings, L.L.C. | Dispensing brush |
US10347134B2 (en) | 2015-12-31 | 2019-07-09 | Gt Gettaxi Limited | System for navigating drivers to selected locations to reduce passenger wait time |
US20170227470A1 (en) | 2016-02-04 | 2017-08-10 | Proxy Technologies, Inc. | Autonomous vehicle, system and method for structural object assessment and manufacture thereof |
KR102373926B1 (en) | 2016-02-05 | 2022-03-14 | 삼성전자주식회사 | Vehicle and recognizing method of vehicle's position based on map |
US10032085B2 (en) | 2016-02-24 | 2018-07-24 | Audi Ag | Method and system to identify traffic lights by an autonomous vehicle |
US9902403B2 (en) | 2016-03-03 | 2018-02-27 | Uber Technologies, Inc. | Sensory stimulation for an autonomous vehicle |
US9990548B2 (en) | 2016-03-09 | 2018-06-05 | Uber Technologies, Inc. | Traffic signal analysis system |
WO2017161054A1 (en) | 2016-03-15 | 2017-09-21 | Solfice Research, Inc. | Systems and methods for providing vehicle cognition |
US9739881B1 (en) | 2016-03-24 | 2017-08-22 | RFNAV, Inc. | Low cost 3D radar imaging and 3D association method from low count linear arrays for all weather autonomous vehicle navigation |
US9672734B1 (en) | 2016-04-08 | 2017-06-06 | Sivalogeswaran Ratnasingam | Traffic aware lane determination for human driver and autonomous vehicle driving system |
US9953523B2 (en) | 2016-04-22 | 2018-04-24 | Here Global B.V. | Node-centric navigation optimization |
US10459087B2 (en) | 2016-04-26 | 2019-10-29 | Uber Technologies, Inc. | Road registration differential GPS |
US10255816B2 (en) | 2016-04-27 | 2019-04-09 | Uber Technologies, Inc. | Transport vehicle configuration for impaired riders |
JP6418199B2 (en) | 2016-04-27 | 2018-11-07 | トヨタ自動車株式会社 | Automatic vehicle driving system |
US9672446B1 (en) | 2016-05-06 | 2017-06-06 | Uber Technologies, Inc. | Object detection for an autonomous vehicle |
CN105975083B (en) | 2016-05-27 | 2019-01-18 | 北京小鸟看看科技有限公司 | A kind of vision correction methods under reality environment |
US10423915B2 (en) | 2016-06-02 | 2019-09-24 | Ge Oil & Gas Esp, Inc. | System and method for well lifecycle planning visualization |
US11721205B2 (en) | 2016-06-13 | 2023-08-08 | Here Global B.V. | Method, apparatus, and computer program product for processing sensor data |
US9953535B1 (en) | 2016-06-27 | 2018-04-24 | Amazon Technologies, Inc. | Annotated virtual track to inform autonomous vehicle control |
US10739786B2 (en) | 2016-07-01 | 2020-08-11 | Uatc, Llc | System and method for managing submaps for controlling autonomous vehicles |
US20180164119A1 (en) | 2016-07-29 | 2018-06-14 | Faraday&Future Inc. | System and method for generating an environmental condition database using automotive sensors |
US10209081B2 (en) | 2016-08-09 | 2019-02-19 | Nauto, Inc. | System and method for precision localization and mapping |
US10438493B2 (en) | 2016-08-24 | 2019-10-08 | Uber Technologies, Inc. | Hybrid trip planning for autonomous vehicles |
US20180060778A1 (en) | 2016-08-31 | 2018-03-01 | Uber Technologies, Inc. | Driver location prediction for a transportation service |
US10699305B2 (en) | 2016-11-21 | 2020-06-30 | Nio Usa, Inc. | Smart refill assistant for electric vehicles |
US10670416B2 (en) | 2016-12-30 | 2020-06-02 | DeepMap Inc. | Traffic sign feature creation for high definition maps used for navigating autonomous vehicles |
US9904375B1 (en) | 2017-04-10 | 2018-02-27 | Uber Technologies, Inc. | LIDAR display systems and methods |
-
2015
- 2015-05-11 US US14/708,611 patent/US9616773B2/en active Active
-
2016
- 2016-05-11 RU RU2017142642A patent/RU2725681C9/en active
- 2016-05-11 KR KR1020177035479A patent/KR102395766B1/en active IP Right Grant
- 2016-05-11 CA CA2985619A patent/CA2985619A1/en not_active Abandoned
- 2016-05-11 CN CN201680040538.2A patent/CN107873098A/en active Pending
- 2016-05-11 WO PCT/US2016/031929 patent/WO2016183241A1/en active Application Filing
- 2016-05-11 EP EP16793475.1A patent/EP3295421A4/en active Pending
- 2016-05-11 AU AU2016262526A patent/AU2016262526B9/en active Active
-
2017
- 2017-03-03 US US15/449,110 patent/US9790729B2/en active Active
- 2017-06-21 US US15/629,357 patent/US9909349B2/en active Active
- 2017-06-21 US US15/629,372 patent/US9963926B2/en active Active
- 2017-11-09 IL IL255562A patent/IL255562B/en unknown
-
2018
- 2018-04-04 US US15/945,365 patent/US10329827B2/en active Active
-
2019
- 2019-05-17 US US16/414,979 patent/US10662696B2/en active Active
-
2020
- 2020-05-12 US US15/930,042 patent/US11505984B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090216600A1 (en) * | 2008-02-27 | 2009-08-27 | Montiss Llc | Systems and methods for arranging a transport transaction |
CN202394343U (en) * | 2011-12-12 | 2012-08-22 | 浙江金刚汽车有限公司 | Voice prompt system for preventing forgetting articles on taxi |
CN104601648A (en) * | 2013-10-31 | 2015-05-06 | 通用汽车环球科技运作有限责任公司 | Methods, systems and apparatus for providing notification that a wireless communication device has been left inside a vehicle |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11505984B2 (en) | 2015-05-11 | 2022-11-22 | Uber Technologies, Inc. | Detecting objects within a vehicle in connection with a service |
US20200125110A1 (en) * | 2017-05-12 | 2020-04-23 | Autonomy Squared Llc | Robot delivery method |
KR20200098837A (en) * | 2019-02-13 | 2020-08-21 | 충남대학교산학협력단 | Lost-and-found notification device that provides information on the occurrence of lost items in public transportation |
Also Published As
Publication number | Publication date |
---|---|
WO2016183241A1 (en) | 2016-11-17 |
US10329827B2 (en) | 2019-06-25 |
IL255562A (en) | 2018-01-31 |
CA2985619A1 (en) | 2016-11-17 |
US20200270931A1 (en) | 2020-08-27 |
AU2016262526B9 (en) | 2021-06-03 |
RU2725681C2 (en) | 2020-07-03 |
US20170284147A1 (en) | 2017-10-05 |
RU2725681C9 (en) | 2020-09-01 |
US11505984B2 (en) | 2022-11-22 |
CN107873098A (en) | 2018-04-03 |
US20170175431A1 (en) | 2017-06-22 |
RU2017142642A3 (en) | 2019-11-20 |
US9963926B2 (en) | 2018-05-08 |
US9616773B2 (en) | 2017-04-11 |
EP3295421A1 (en) | 2018-03-21 |
US20190271184A1 (en) | 2019-09-05 |
US10662696B2 (en) | 2020-05-26 |
US9790729B2 (en) | 2017-10-17 |
US9909349B2 (en) | 2018-03-06 |
KR102395766B1 (en) | 2022-05-10 |
EP3295421A4 (en) | 2018-10-24 |
US20170284148A1 (en) | 2017-10-05 |
AU2016262526A1 (en) | 2017-11-30 |
IL255562B (en) | 2021-10-31 |
US20160332535A1 (en) | 2016-11-17 |
RU2017142642A (en) | 2019-06-11 |
US20180223584A1 (en) | 2018-08-09 |
AU2016262526B2 (en) | 2021-05-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11505984B2 (en) | Detecting objects within a vehicle in connection with a service | |
US11605246B2 (en) | Programmatically determining location information in connection with a transport service | |
US11151489B2 (en) | Computing system implementing multiple driver selection processes based on device locations | |
US20200166932A1 (en) | Information processing method and apparatus, electronic device, and storage medium | |
CN111047247B (en) | Data processing method and device | |
CN113525981A (en) | Autonomous mobile pico fulfillment center | |
US11082819B2 (en) | Mobility service supporting device, mobility system, mobility service supporting method, and computer program for supporting mobility service | |
US20210295245A1 (en) | Management device, management method, and storage medium | |
US11989795B1 (en) | Partner trip application programming interface | |
US20220206488A1 (en) | Autonomous item delivery | |
US20230067113A1 (en) | Logistics system, logistics management method, and computer-readable medium that stores logistics management program | |
JP2023079922A (en) | Control device, system, program, and notification method | |
JP2023094712A (en) | Unmanned machine, information processing method, program and logistics management system | |
JP2024007242A (en) | Delivery support device, system, and delivery support method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |