JP2022549507A - アフターマーケット車両コパイロットデバイス - Google Patents
アフターマーケット車両コパイロットデバイス Download PDFInfo
- Publication number
- JP2022549507A JP2022549507A JP2022519511A JP2022519511A JP2022549507A JP 2022549507 A JP2022549507 A JP 2022549507A JP 2022519511 A JP2022519511 A JP 2022519511A JP 2022519511 A JP2022519511 A JP 2022519511A JP 2022549507 A JP2022549507 A JP 2022549507A
- Authority
- JP
- Japan
- Prior art keywords
- copilot
- data
- vehicle
- video
- copilot device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000001360 synchronised effect Effects 0.000 claims abstract description 8
- 238000000034 method Methods 0.000 claims description 61
- 230000008569 process Effects 0.000 claims description 47
- 238000004891 communication Methods 0.000 claims description 27
- 238000010801 machine learning Methods 0.000 claims description 21
- 230000006870 function Effects 0.000 claims description 16
- 230000003993 interaction Effects 0.000 claims description 12
- 238000004422 calculation algorithm Methods 0.000 claims description 8
- 230000001133 acceleration Effects 0.000 claims description 3
- 239000000446 fuel Substances 0.000 claims description 2
- 230000000977 initiatory effect Effects 0.000 claims 1
- 238000007726 management method Methods 0.000 description 72
- 230000009471 action Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 9
- 238000012545 processing Methods 0.000 description 7
- 230000000712 assembly Effects 0.000 description 6
- 238000000429 assembly Methods 0.000 description 6
- 230000004044 response Effects 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 230000033001 locomotion Effects 0.000 description 5
- 238000013507 mapping Methods 0.000 description 5
- 238000013515 script Methods 0.000 description 5
- LYCAIKOWRPUZTN-UHFFFAOYSA-N Ethylene glycol Chemical compound OCCO LYCAIKOWRPUZTN-UHFFFAOYSA-N 0.000 description 4
- 230000004913 activation Effects 0.000 description 4
- 239000004677 Nylon Substances 0.000 description 3
- 239000000853 adhesive Substances 0.000 description 3
- 230000001070 adhesive effect Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000004297 night vision Effects 0.000 description 3
- 229920001778 nylon Polymers 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 229910000831 Steel Inorganic materials 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- WGCNASOHLSPBMP-UHFFFAOYSA-N hydroxyacetaldehyde Natural products OCC=O WGCNASOHLSPBMP-UHFFFAOYSA-N 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 230000013011 mating Effects 0.000 description 2
- 230000001537 neural effect Effects 0.000 description 2
- 239000004033 plastic Substances 0.000 description 2
- 229920003023 plastic Polymers 0.000 description 2
- -1 polyethylene terephthalate Polymers 0.000 description 2
- 229920000139 polyethylene terephthalate Polymers 0.000 description 2
- 239000005020 polyethylene terephthalate Substances 0.000 description 2
- 229920001296 polysiloxane Polymers 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 239000010959 steel Substances 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- NIXOWILDQLNWCW-UHFFFAOYSA-N acrylic acid group Chemical group C(C=C)(=O)O NIXOWILDQLNWCW-UHFFFAOYSA-N 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- XAGFODPZIPBFFR-UHFFFAOYSA-N aluminium Chemical compound [Al] XAGFODPZIPBFFR-UHFFFAOYSA-N 0.000 description 1
- 229910052782 aluminium Inorganic materials 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000011840 criminal investigation Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 239000006260 foam Substances 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 229920005644 polyethylene terephthalate glycol copolymer Polymers 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000007723 transport mechanism Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/005—Handover processes
- B60W60/0051—Handover processes from occupants to vehicle
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/188—Capturing isolated or intermittent images triggered by the occurrence of a predetermined event, e.g. an object reaching a predetermined position
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/12—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to parameters of the vehicle itself, e.g. tyre models
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3697—Output of additional, non-guidance related information, e.g. low fuel level
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C22/00—Measuring distance traversed on the ground by vehicles, persons, animals or other moving solid bodies, e.g. using odometers, using pedometers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07C—TIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
- G07C5/00—Registering or indicating the working of vehicles
- G07C5/08—Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
- G07C5/0808—Diagnosing performance data
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07C—TIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
- G07C5/00—Registering or indicating the working of vehicles
- G07C5/08—Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
- G07C5/0816—Indicating performance data, e.g. occurrence of a malfunction
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07C—TIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
- G07C5/00—Registering or indicating the working of vehicles
- G07C5/08—Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
- G07C5/0841—Registering performance data
- G07C5/085—Registering performance data using electronic data carriers
- G07C5/0866—Registering performance data using electronic data carriers the electronic data carrier being a digital video recorder in combination with video camera
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/02—Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
- G11B27/031—Electronic editing of digitised analogue information signals, e.g. audio or video signals
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/02—Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
- G11B27/031—Electronic editing of digitised analogue information signals, e.g. audio or video signals
- G11B27/036—Insert-editing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2520/00—Input parameters relating to overall vehicle dynamics
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2530/00—Input parameters relating to vehicle conditions or values, not covered by groups B60W2510/00 or B60W2520/00
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07C—TIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
- G07C5/00—Registering or indicating the working of vehicles
- G07C5/006—Indicating maintenance
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07C—TIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
- G07C5/00—Registering or indicating the working of vehicles
- G07C5/008—Registering or indicating the working of vehicles communicating information to a remotely located station
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/183—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Multimedia (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Mathematical Physics (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Traffic Control Systems (AREA)
- Time Recorders, Dirve Recorders, Access Control (AREA)
Abstract
本明細書に開示されるのは、車両に通常は利用可能でないであろう様々な機能性を可能にするために車両内の「アフターマーケット」として設置され得るコパイロットデバイスを含むシステムである。いくつかの実施形態では、コパイロットデバイスは、コパイロットデバイスが設置された車両に関係する情報を収集するいくつかのカメラ及びセンサを含む。コパイロットデバイスはまた、車両自体へ通信可能に結合され、そしてデータを車両から直接受信する。コパイロットデバイスは、時刻に基づき同期されるいくつかのデータタイプを含むデータファイルを生成することができる。
Description
優先権の主張
本出願は参照のためその両方の全内容を本明細書に援用する2019年9月27日申請の米国仮特許出願第62/907,533号及び2020年9月22日申請の米国特許出願第17/028,751号の便宜及び優先権を主張する。
本出願は参照のためその両方の全内容を本明細書に援用する2019年9月27日申請の米国仮特許出願第62/907,533号及び2020年9月22日申請の米国特許出願第17/028,751号の便宜及び優先権を主張する。
背景
ダッシュカム(Dashcam)システムは通常、他の機能性を殆ど又は全く有しない映像を記録する。ダッシュカムシステムは通常、設置するのが課題である。設置されると、ダッシュカムシステムは通常、可搬性を欠く。ダッシュカムにより収集される情報は通常、娯楽目的のために使用され得る又は民事又は犯罪捜査における証拠として使用され得る映像フッテージ(時に音声を含む)に限定される。
ダッシュカム(Dashcam)システムは通常、他の機能性を殆ど又は全く有しない映像を記録する。ダッシュカムシステムは通常、設置するのが課題である。設置されると、ダッシュカムシステムは通常、可搬性を欠く。ダッシュカムにより収集される情報は通常、娯楽目的のために使用され得る又は民事又は犯罪捜査における証拠として使用され得る映像フッテージ(時に音声を含む)に限定される。
自立走行車両のためのカメラシステムは通常、既存車両内のアフターマーケット設置には利用可能ではない。自立走行車両カメラシステムは、ダッシュカムシステムを越えて車両の所有者にとって有用である情報を殆ど又は全く提供しない。
概要
車両内に設置されたコパイロット(copilot)デバイスの使用を介し、車両に関連する様々な機能の自動化を可能にするための技術が本明細書では提供される。方法、システム、及び1つ又は複数のプロセッサにより実行可能なプログラム、コード又は指令を格納する非一時的コンピュータ可読ストレージ媒体などを含む様々な実施形態が本明細書において説明される。
車両内に設置されたコパイロット(copilot)デバイスの使用を介し、車両に関連する様々な機能の自動化を可能にするための技術が本明細書では提供される。方法、システム、及び1つ又は複数のプロセッサにより実行可能なプログラム、コード又は指令を格納する非一時的コンピュータ可読ストレージ媒体などを含む様々な実施形態が本明細書において説明される。
一実施形態では、コパイロットデバイスにより行われる方法が開示される。本方法は、コパイロットデバイスに含まれるカメラにより取得された映像データを受信すること、車両とコパイロットデバイスとの間の接続を介し車両データを受信すること、コパイロットデバイスと通信状態にある1つ又は複数のセンサからセンサデータを受信すること、映像データ、車両データの少なくとも一部、及びセンサデータの少なくとも一部を含む修正済み映像ファイルを生成すること、並びに修正済み映像ファイルをコパイロットデバイスから離れたコパイロット管理コンピュータへ送信することを含む。
一実施形態は、1つ又は複数のカメラ;車両とコパイロットコンピューティングデバイスとの間の接続;1つ又は複数のセンサ;プロセッサ;及びプロセッサにより実行されるとコパイロットコンピューティングデバイスに少なくとも以下のこと:コパイロットデバイスに含まれる1つ又は複数のカメラにより取得された映像データを受信すること、車両とコパイロットコンピューティングデバイスとの間の接続を介し車両データを受信すること、コパイロットデバイスと通信状態にある1つ又は複数のセンサからセンサデータを受信すること、映像データ、車両データの少なくとも一部、及びセンサデータの少なくとも一部を含む修正済み映像ファイルを生成すること、並びに修正済み映像ファイルをコパイロットデバイスから離れたコパイロット管理コンピュータへ送信することをさせる指令を含むメモリを含む、コパイロットコンピューティングデバイスに向けられる。
本開示の一実施形態は、コパイロットデバイス及びコパイロット管理コンピュータを含むシステムに向けられる。指令を含むメモリを有するコパイロットデバイスであって、指令は、コパイロットデバイスに、車両との接続を介し受信された少なくとも映像データ、センサデータ及び車両データを含む異種の車両関連データを取得させ、異種の車両関連データを単一データファイ内へ合成させ、そして単一データファイルをコパイロット管理コンピュータへ提供させる、コパイロットデバイス。コパイロットデバイスと通信可能に結合されたコパイロット管理コンピュータであって、コパイロットデバイスから受信された単一データファイルを処理するように構成されたコパイロット管理コンピュータ。本システムはさらに、クライアントデバイスとコパイロットデバイスとの間の相互作用を可能にするモバイルアプリケーションが設置されたクライアントデバイスを含む。
前述は、他の特徴及び実施形態と共に以下の明細書、特許請求の範囲及び添付図面を参照することにより、より明らかになる。
図面の簡単な説明
詳細説明は添付図面を参照して説明され、ここでは参照符号の最左桁は参照符号が最初に出現した図を識別する。様々な図内の同じ参照符号の使用は同様又は同一項目を示す。
詳細説明は添付図面を参照して説明され、ここでは参照符号の最左桁は参照符号が最初に出現した図を識別する。様々な図内の同じ参照符号の使用は同様又は同一項目を示す。
詳細な説明
以下の説明では、説明の目的で特定の詳細が特定の実施形態を完全に理解できるように示されている。しかし、様々な実施形態はこれらの特定詳細無しに実行され得るということが明らかになる。図面及び説明は限定的であるように意図されていない。用語「例示的」は、「一例、インスタンス、又は例示として役立つ」ことを意味するように本明細書では使用される。「例示的」として本明細書に於いて説明される任意の実施形態又は設計は必ずしも他の実施形態又は設計を越えて好ましい又は有利であると見做されるべきではない。
以下の説明では、説明の目的で特定の詳細が特定の実施形態を完全に理解できるように示されている。しかし、様々な実施形態はこれらの特定詳細無しに実行され得るということが明らかになる。図面及び説明は限定的であるように意図されていない。用語「例示的」は、「一例、インスタンス、又は例示として役立つ」ことを意味するように本明細書では使用される。「例示的」として本明細書に於いて説明される任意の実施形態又は設計は必ずしも他の実施形態又は設計を越えて好ましい又は有利であると見做されるべきではない。
本開示は、車両にとって通常は利用可能でないであろう様々な機能性を可能にするために車両内の「アフターマーケット」として設置され得るコパイロットデバイスを含むシステムに向けられる。より具体的には、コパイロットデバイスは、コパイロットデバイスが設置される車両に関係する情報を収集するいくつかのカメラ及びセンサを含む。コパイロットデバイスはオンボード診断(OBD:onboard diagnostic)接続を介し車両のコントローラローカルエリアネットワーク(CAN:Controller Area Network)バスと通信可能に結合される。
いくつかの実施形態では、コパイロットデバイスは、センサにより収集された様々なセンサデータ、映像データ(車両の内部及び外部の)、及びOBD接続を介し受信された車両データを含む様々な異種のデータタイプを受信する。次に、コパイロットデバイスは、センサデータ及び車両データを映像データへ付加することにより、異種のデータタイプの少なくとも一部をデータファイ内へ合成する。このデータファイルでは、異種のデータタイプ同士は、それぞれのデータの各データが受信される時刻に基づき同期される。次に、データファイルは、データファイルを処理するように構成されたバックエンドサーバへ提供される。
いくつかの実施形態では、バックエンドサーバ(例えばコパイロット管理コンピュータ)は、機械学習モデルをトレーニングするためにデータファイル(及び他のコパイロットデバイスから受信された他のデータファイル)を使用する。このやり方で生成されたトレーニング済みモデルがコパイロットデバイスへ提供され得る。このようなトレーニング済みモデルは、コパイロットデバイス上に実装されると、いくつかの条件がセンサ及び/又は映像データを介し検出される場合に取られるべき適切な行為を判断するために使用され得る。次に、これらの行為はユーザ関与とは無関係に取られ得、いくつかの車両機能が自動化されるようにする。
いくつかの実施形態では、本システムはユーザの代わりにビジネス事象の開始及び終了を自動的に検出する。次に、本システムは精確且つ効率的やり方でそれらのビジネス事象に基づきマイレージログを生成することができる。
図1は、少なくともいくつかの実施形態によるアフターマーケット車両コパイロットデバイスを含む例示的アーキテクチャを示す。図1の車両コパイロットデバイスは少なくとも1つのコパイロットデバイス106及びオンボード診断(OBD)接続107を含む。コパイロットデバイス106は、車両の表面又は部品(フロントガラスの内面又はダッシュボード又はモータサイクルガスタンクの上面などの)へ結合すること(例えばクランプすること、接着すること、吸引マウントすること、又は他の手段)により、1995年後に製造された任意の既存車両内の設置を容易にする。例えば、マウント筐体の上面上の接着ストリップは、コパイロットデバイス106を車両のフロントガラスへ取り付けることを容易にし得る。コパイロットデバイス106は、ビジネス関連マイレージを追跡する及び/又は車両機能を活性化することなどの運転者の日々のタスクを支援又は増強することを容易にする1つ又は複数のソフトウェアモジュールを有するメモリを含むハードウェアで構成される。
コパイロットデバイス106は、1つ又は複数のOBD接続107、1つ又は複数のクライアントデバイス102-105、アプリケーションサーバ116、及び/又はコパイロット管理コンピュータ118と通信する。いくつかの実施形態では、コパイロットデバイス107は、BLUETOOTH(登録商標)又はWI-FI(登録商標)などの標準規格下で動作する通信手段を含み得る短距離無線ネットワーク108を介しクライアントデバイス102-105及び/又はOBD接続107の1つと通信する。いくつかの実施形態では、コパイロットデバイス106は有線を介しクライアントデバイス102-105及び/又はOBD接続107の1つと通信可能に結合される。いくつかの実施形態では、コパイロットデバイス106は、長距離無線通信手段(例えば、LTE(4G移動通信標準規格)などの標準規格下で動作するもの)を含む広域ネットワーク110を介しアプリケーションサーバ116及び/又はコパイロット管理コンピュータ118などのエンティティと通信する。
コパイロットデバイス106はOBD接続107へ通信可能に結合する。OBD接続107は自動車技術協会(SAE:Society of Automotive Engineers)J1962などのOBD-II標準規格に準拠するオンボード診断バスとインターフェースするように構成される。例えば、OBD接続107は、車両内の車両診断のためのOBD-IIコネクタポートへ結合する。いくつかの実施形態では、OBD接続107はOBD又はOBD-IIコネクタポートに関連する様々な可能なピンレイアウトの表を格納し得る。最も好適には、OBD接続107は、格納済みピンレイアウトの1つが、格納済みレイアウトに関連するピンの大多数又はすべてのピンの成功裏の使用に基づき車両に対応すると見做されるまで、格納済みピンレイアウトを反復的に採用し、その後、車両に関連付けられた成功裏に格納されたレイアウトの指示子を格納する。いくつかのバージョンでは、ユーザがピンレイアウトを選択してもよいし、又はOBD接続107がユーザからの車両年、製造、又はモデルの入力に基づきピンレイアウトを選択してもよい(ユーザ入力は、コパイロットデバイス106へ通信可能に結合する又はOBD接続107へ直接結合するクライアントデバイス102-105のうちの1つのデバイス上で実行するアプリケーションへ提供され得る)。OBD接続107は、OBD又はOBD-IIバスを介し車両内に設置されたコンピュータからデータを取得し、当該データ(生の又は修正済み)をコパイロットデバイス106へ送信する。いくつかの実施形態では、コパイロットデバイス106は、車両に関連する1つ又は複数のフラグ、コード又は状態をリセット又はそうでなければ修正する又は車両の様々な機能性を実施するために、指令(生の又は修正された)を車両コンピュータへ送信するために指令をOBD接続107へ提供する。
コパイロットデバイス106は、コパイロットデバイス106のハードウェア(例えばプロセッサ)により実行可能であるコンピュータ実行可能指令(例えばコード)を含む。コパイロットデバイス106は、電力が供給される限り内部(後向き)及び外部(前向き)映像をループで記録する。ファイルカウント制限及び映像期間設定(例えば、デフォルト設定では300ファイル及び3分間長映像)に基づき、最も古い映像はファイルカウント制限が満足されるとローカルメモリ内のより新しい映像により置換される。加えて、映像は、捕捉されるとアプリケーションサーバコンピュータ116又はコパイロット管理コンピュータ118へアップロードされ得る。クライアントデバイス102-105の1つが、コパイロットデバイス106の通信可能インターフェース(有線又は無線)を介しコパイロットデバイス106と接続するために使用される場合、様々な機能性が、クライアントデバイス102-105のうちの1つのデバイスのグラフィックユーザインターフェース(GUI)を介し可能にされ得る。例えば、ユーザは、コパイロットデバイス106内の記録済みフッテージのサムネイル(ダウンロードのために利用可能)を閲覧し得る。ユーザは、フッテージを閲覧するためにスクロールし得、そしてクライアントデバイス102-105のうちの1つのデバイスの内部ストレージへダウンロードするためのフッテージを選択し得る。クライアントデバイス102-105のうちの1つへダウンロードされると、ユーザは、ダウンロードされたフッテージを閲覧する又は視るために又はダウンロードされたフッテージをユーザ(クライアントデバイス102-105のうちの1つ)又はコパイロットデバイス106に関連するクラウドアカウントへアップロードするために異なるタブを選択し得る。クラウドへアップロードされると、ユーザは電子メール又はソーシャルネットワークを介しフッテージを共有し得る。別の例では、ユーザは、クライアントデバイス102-105のうちの1つのデバイス上で実行するソフトウェアを介しカメラの暗視をターンオン又はオフし得る。
コパイロット管理コンピュータ118は、本明細書において説明されるシステムのバックエンド支援を提供する。例えば、コパイロット管理コンピュータ118は、クライアントデバイス102-105及びコパイロットデバイス106の論理を支援するために全データベース及びユーザ認証サービスを提供し得る。コパイロット管理コンピュータ118は、非同期処理キューと同時に多くのユーザからのユーザ映像アップロードを取り扱う高度スケーラブル且つ頑強サーバレスデータアップロードシステムを提供する。コパイロット管理コンピュータ118は、データベースとユーザ認証サービスとの同期により容易にされるプッシュ通知をクライアントデバイス102-105の1つへ提供し得る。プッシュ通知は、システム全体における非同期処理及び状態変更の開始及び終了に関しクライアントデバイス102-105の1つを介しユーザに通知する。
いくつかの実施形態では、コパイロット管理コンピュータ118はクラウド仮想マシン(例えばUbuntuサーバを実行する仮想マシン)である。コパイロット管理コンピュータ118は、コパイロット管理コンピュータ118に関連するドメインの要求を仮想マシンのIPアドレスへルーティングするドメインネームシステム(DNS:Domain Name System)構成を容易にし得る。いくつかのバージョンでは、バックエンド論理がサーバ(例えば手動で、git hook、又はci/cdにより)へ配備され、サービスがリフレッシュされる。コパイロット管理コンピュータ118は、支援データベースへのデータベース接続を維持し得る。コパイロット管理コンピュータ118はアプリケーションプログラムインターフェース(API)要求及び応答をサービスするためにデータを読み出す/書き込む。いくつかの実施形態では、APIコールは同期される(ユーザ映像アップロードを除き)。映像アップロードは仮想マシン上で実行する非同期ワーカー・キュー(worker queue)により取り扱われ得る。
いくつかの実施形態では、アプリケーションサーバコンピュータ116は、コパイロットデバイス及び/又はコパイロット管理コンピュータ118により生成されるデータの消費者である。アプリケーションサーバコンピュータ116は、ユーザへ機能性を提供するためにコパイロットデバイス106が設置される車両に関する情報を消費し得る。例えば、アプリケーションサーバコンピュータ118は、コパイロットデバイス106からマイレージ情報を取得し得、そして税務書類を生成するためにこのマイレージ情報を使用し得る。いくつかの実施形態では、アプリケーションサーバコンピュータ116は、コパイロット管理コンピュータ118と無関係の第三者事業者により操作され得る。
様々な相互作用が、システム100の説明された部品間で発生し得る。システム100では、コパイロットデバイス106はOBD接続107から車両データを取得する。いくつかの実施形態では、車両データは所定間隔で(例えば2秒毎に)取得され得る。コパイロットデバイス106は取得されたデータをローカルメモリ内に格納する。コパイロットデバイス106はまた、後向き(内部)カメラ及び前向き(外部)カメラの両方から映像データを取得する。コパイロットデバイス106はまた、コパイロットデバイスの1つ又は複数のセンサからデータを取得する。例えば、コパイロットデバイスは、車両内又は車両外のいずれかの温度、場所(例えば全地球測位システム(GPS:Global Positioning System)又は全地球航法衛星システム(GNSS::Global Navigation Satellite System)を介した)、加速度データ、リアルタイムデータ、又は任意の他の好適な情報を取得し得る。コパイロットデバイス106はクライアントデバイス102-105の1つから情報を追加的に受信し得る。次に、コパイロットデバイスはデータを単一データストリームへ合成し得る。例えば、コパイロットデバイスは、センサ及び/又は車両から取得される情報をメタデータとして映像へ付加し得る。これは、解析される際にアライメントされる必要がないように情報をより容易な検索及び解析のために同期させる。
次に、コパイロットデバイス106はデータをコパイロット管理コンピュータ118及び/又はアプリケーションサーバコンピュータ116へ送信する。次に、様々なアプリケーションがこのデータを消費し得る。例示として、車両の運転者が配車サービス(例えばUber、Lyftなど)により採用される例を考察する。この実例では、運転者は、自らの車両を一日の様々な時間に仕事及び個人的運転の両方のために使用し得る。ユーザのクライアントデバイス103-105は、乗車サービス情報をユーザへ提供するように動作するモバイルアプリケーションを含み得る。コパイロットデバイス106は、モバイルアプリケーションとの相互作用を介しクライアントデバイス103-105の1つから乗車サービスの指標を受信し得る。これは、他のデータの中でも車両から取得されるオドメータデータと合成され得る。合成された情報がコパイロット管理コンピュータ118へ提供されると、コパイロット管理コンピュータ118は、映像中に含まれるオドメータデータだけでなく映像のどの部分がビジネス目的に関係するかの指標も識別し得る(例えばクライアントデバイス103-105から受信されたデータに基づき)。このようにして、コパイロット管理コンピュータ118は、個人的目的とビジネス目的とのためのマイレージを自動的に追跡し、線引きし得、そして要求に応じて(例えば税目的のための)ステートメントを提供し得る。GPS位置データはマイレージを追跡するためにも使用される可能性があるがこのような位置データはしばしば不正確であり得るということに注意すべきである。例えば、GPSアプリケーションにおいて報告する定期的位置のために、距離は通常、2つの検出された位置間の直線として測定される。これはしばしば、GPSアプリケーションがコーナを考慮しようとしないので車両がターンを何回か行う際に不正確性に至り得る。その結果、前述の方法でオドメータデータを使用すると、マイレージを追跡する際にGPS位置データを使用するよりも高い精度が得られる可能性がある。
いくつかの実施形態では、提供されるデータは機械学習モデル(例えば深層学習/認識ネットワークを使用する機械学習アルゴリズム)をトレーニングするために使用され得る。例えば、機械学習モデルは、車両データからのユーザ入力(例えば、フロントガラスワイパーをオンする、ライトをオンする、等々のための)を1つ又は複数の映像条件へ対応させるようにトレーニングされ得る。このようにして、様々な条件に適切な車両データを複製することができるトレーニング済み機械学習モデルが生成され得る。次に、このトレーニング済み機械学習モデルはコパイロットデバイス106へ提供され得る。コパイロットデバイス106は次に、現在の映像配信を介し様々な条件を検知すると、ユーザ入力をOBD接続107を介し複製することができる。これは、コパイロットデバイス106が車両のいくつかの機能を「学習」及び自動化することを可能にする。例示として、コパイロットデバイス106は、どのレベルのフロントガラスワイパー活動が、前向きカメラから捕捉された映像内で検出された雨に基づき活性化されるべきかを、トレーニング済み機械学習モデルを使用することにより判断し得る。第2の実例では、コパイロットデバイス106は、どの閾値光レベルで車両ヘッドライトが活性化されるべきかを、トレーニング済み機械学習モデルを使用することにより判断し得る。
図2は、本開示のいくつかの実施形態によるコパイロットデバイスを含むように実装され得る例示的システムアーキテクチャの様々な部品を示すブロック図を描写する。システムアーキテクチャ200に含まれるのは、コパイロットデバイス106、コパイロット管理コンピュータ118及びクライアントデバイス202である。コパイロットデバイス106及びコパイロット管理コンピュータ118は、図1に関し説明されたそれぞれのコパイロットデバイス106及びコパイロット管理コンピュータ118の一例であり得る。クライアントデバイス202は図1に関して説明したクライアントデバイス102-105の1つのデバイスの例であり得る。
コパイロットデバイス106はプロセッサ204及びコンピュータ可読メモリ206を含み得る。プロセッサ204はマイクロコントローラなどの中央処理ユニット及び/又は専用コントローラであり得る。コパイロットデバイス106はさらに、1つ又は複数のカメラ208、1つ又は複数のセンサ210、OBD接続212、及び通信インターフェース214を含む。
1つ又は複数のカメラ208は前向き(外部)カメラだけでなく後向き(内部)カメラも含み得る。後向きカメラは、車両の外側及び背後の領域だけでなく車両内の運転者及び乗客の映像及び/又は画像を捕捉し得る(例えば車両のリヤウインドウを介し)。前向きカメラは車両の前の領域の映像及び/又は画像を捕捉し得る。いくつかの実施形態では、カメラ群の1つ又は複数のカメラにより取得された映像はニューラルネットワークプロセッサを介し処理され得る。
センサ210は、コパイロットデバイス106が位置する環境に関する情報を取得することができる任意のセンサを含み得る。非限定的例として、センサ210は、コンパス、加速度計、生体測定センサ、リアルタイムクロック、温度センサ、ジャイロスコープ、磁力計、及び/又は全地球測位システム(GPS)センサを含み得る。
OBD接続212は、マイクロコントローラ(例えばモジュール上のBluetooth low energy Systemを有するPIC18F2480マイクロコントローラ)と結合された無線OBD又はOBD-II又は有線コネクタを含む。OBD接続212は、CAN送受信器(例えばSN65HVD233-HT)を含むPCBにより標準OBD-II PIDプロトコル及びCANメッセージの直接読み取り/書き込みの両方を容易にする。いくつかのバージョンでは、マイクロコントローラはデータストリーム及び無線通信を管理する。OBD接続212は、ユーザが複数のOBD接続されたモジュールを同時に使用することを可能にするために車両内に差し込む雄コネクタの反対端に標準的雌OBDコネクタを含み得る。OBD接続は車両のコントローラエリアネットワーク(CAN)バスと結合し得る。
通信インターフェース214は、コパイロットデバイス106が長距離及び短距離通信を行うことを可能にする無線及び/又は有線通信送受信器部品を含み得る。したがって、通信インターフェース212は無線通信事業者ネットワーク、ローカルエリアネットワーク、ピア・ツー・ピアネットワークなどを介しデータを送受信するために使用され得る。いくつかの実施形態では、通信インターフェース212は、コパイロットデバイス106がネットワークとのテレコミュニケーション及びデータ通信を行うことを可能にするセルラモデムだけでなくコパイロットデバイスが短距離無線通信リンクを介し他のデバイスへ接続することを可能にする短距離送受信器も含み得る。コパイロットデバイス106はさらに、コパイロットデバイス106がアプリケーションを実行しそしてテレコミュニケーション及びデータ通信の機能を提供することを可能にする信号変換器、アンテナ、ハードウェア復号器及び符号器、グラフィックプロセッサ、ユニバーサル集積回路カード(UICC:universal integrated circuit card)、eUICCなどを含み得る。
メモリ206はコンピュータストレージ媒体などのコンピュータ可読媒体を使用することにより実装され得る。コンピュータ可読媒体は少なくとも2つのタイプのコンピュータ可読媒体(すなわちコンピュータストレージ媒体及び通信媒体)を含む。コンピュータストレージ媒体は、コンピュータ可読指令、データ構造、プログラムモジュール、又は他のデータなどの情報の格納のための任意の方法又は技術で実装される揮発性、不揮発性、着脱可能、及び着脱不能媒体を含む。コンピュータストレージデバイス媒体は、限定しないが、RAM、DRAM、ROM、EEPROM、フラッシュメモリ又は他のメモリ技術、CD-ROM、ディジタル多用途ディスク(DVD)又は他の光ストレージデバイス、磁気カセット、磁気テープ、磁気ディスクストレージデバイス若しくは他の磁気ストレージデバイス、又はコンピューティングデバイスによるアクセスのための情報を格納するために使用され得る任意の他の非伝送型媒体を含む。対照的に、通信媒体は、コンピュータ可読指令、データ構造、プログラムモジュール、又は搬送波などの変調されたデータ信号内の他のデータ、又は他の伝送メカニズムを具現化し得る。
コパイロットデバイス106の1つ又は複数のプロセッサ204及びメモリ206は1つ又は複数のソフトウェアモジュールから機能性を実装し得る。このようなソフトウェアモジュールは、特定タスクを行う又は特定データタイプを実装するためにプロセッサ204により実行されるルーチン、プログラム指令、オブジェクト、及び/又はデータ構造を含み得る。1つ又は複数のソフトウェアモジュールは、個人又はビジネスのいずれかに関係する旅行を自動的に追跡及びカテゴリ化するマイル節約器モジュール214、潜在的セキュリティ脅威に関連する情報を捕捉しログ記録するセキュリティモジュール216、1つ又は複数の潜在的車両課題を判断する機械的モジュール218、及び車両の機能の少なくとも一部を自動化するコパイロットモジュールを含み得る。
マイル節約器モジュール214は旅行を追跡しそしてこれを個人又はビジネスのいずれかに関係するとして類別化するように構成され得る。いくつかの実施形態では、マイル節約器モジュール214はビジネス又は個人追跡事象の指標を受信する。例えば、コパイロットデバイス106はクライアントデバイス202と通信状態にあり得る。この例では、ユーザは配車サービス(例えばUber、Lyftなど)に勤めている可能性があり、クライアントデバイス202は、この配車サービスのためのモバイルアプリケーションと相互作用するためにユーザにより独立に使用され得る。この例では、乗車要求が受理されたということを判断すると、配車サービスに関連するモバイルアプリケーション(又はウィジェット又はエクステンション)は、クライアントデバイス202にビジネス事象が開始したということをコパイロットデバイス106へ指示させ得る。次に、コパイロットデバイス106は、ビジネス事象の開始を指示し得る(例えばデータファイルへ付加されるタイムスタンプ又はマーカを介し)。同様に、コパイロットデバイスはまた、ビジネス事象の終了の指標を受信し得る。加えて、マイル節約器モジュール214は、OBD接続107を介し一定間隔で車両からオドメータデータを取得する。オドメータ情報はビジネス事象の開始時及び終了時の両方において判断され得る。次に、ビジネス事象の開始時と終了時とにおけるオドメータ情報間の差はビジネス事象に関連するマイルの量であると判断される。次に、ビジネス事象間のオドメータ情報の差は個人的旅行に関連するマイルの量であると判断される。このようにして、マイル節約器モジュール214はビジネスマイレージ及び個人的マイレージの両方を精確なやり方で且つユーザ関与無しに追跡する。いくつかの実施形態では、マイル節約器モジュール214は、ビジネス及び/又は個人的旅行詳細のログをクライアントデバイス202又は別のデバイスへ提供し得る。
セキュリティモジュール216は潜在的セキュリティ脅威に関連する情報を捕捉しログ記録するように構成され得る。いくつかの実施形態では、セキュリティモジュール216は、1つ又は複数の事象を検知するとカメラ208から映像を捕捉し得る。このような事象は、車両との衝突又は衝撃、車両ドアの開放、動き検出器の活性化、又は任意の他の好適な事象(例えばOBD接続107を介する)を含み得る。事象を検出すると、セキュリティモジュール216はカメラ208から映像又は画像を捕捉してこれをコパイロット管理コンピュータ118へ送信し得る。映像又は画像はタイムスタンプと関連付けられ得る。
機械的モジュール218は1つ又は複数の潜在的車両問題を判断するように構成され得る。いくつかの実施形態では、機械的モジュール218は車両の状態情報を含む車両情報をOBD接続107を介し受信する。いくつかの実施形態では、OBD接続107を介し受信された信号は、ここから信号が受信された車両の判断されたタイプに基づき解釈され得る。例えば、コパイロットデバイスは、コパイロットデバイス106が設置される車両のタイプの指標を格納し得る。車両から信号を受信すると、機械的モジュール218は、受信された信号の一部を車両タイプに基づき状態マッピング内の特定状態へマッピングし得る。機械的モジュール218は状態情報をクライアントデバイス202へ送信し得る。
コパイロットモジュール220は車両の機能の少なくとも一部を自動化するように構成され得る。いくつかの実施形態では、コパイロットモジュール220は、カメラ208からの映像及び/又は画像、センサ210から収集されたデータ、及びOBD接続107から収集された車両データ、又は他の好適なデータを含む様々なデータを取得し得る。収集されたデータは次に、データが収集された時刻に基づきアライメントされる単一データファイル内へ合成される。一連のこれらのデータファイルが生成され得る。コパイロットモジュール220は、さらに処理するためにこれらのデータファイルをコパイロット管理コンピュータ118へ提供し得る。いくつかの実施形態では、コパイロットモジュール220は、提供されたデータに関してトレーニングされた機械学習モデルを受信し得る。これらの実施形態の少なくともいくつかでは、トレーニングされた機械学習モデルは、格納され、そして様々な車両機能を自動化するために使用され得る。例えば、機械学習モデルは、対応センサデータだけでなく様々なユーザ行為(OBD接続107上で収集された車両データを介し検出された)に関してトレーニングされ得る。例示として、本システムは、ユーザが特定光レベル閾値において車両ヘッドライトを活性化したということを検出し得る。この例では、対応センサデータを受信すると、コパイロットデバイスは、ユーザが通常は取るであろう行為を自動的に取り得る。これは、コパイロットデバイス106により通常は検出される信号をOBD接続へ複製することに関与し得る。
クライアントデバイス202は、本明細書において説明されるようにコパイロットデバイス106又はコパイロット管理コンピュータ118の少なくとも1つと相互作用することができる任意の個人的デバイスであり得る。クライアントデバイス202は、通信インターフェース216だけでなくプロセッサ及びコンピュータ可読メモリも含み得る。クライアントデバイス202のコンピュータ可読メモリは、クライアントデバイス202とコパイロットデバイス106及び/又はコパイロット管理コンピュータ118との間の相互作用を可能にするモバイルアプリケーション218を含み得る。クライアントデバイス202上のモバイルアプリケーション218の実行は、クライアントデバイス202に、モバイルアプリケーション218に関連するグラフィックユーザインターフェース(GUI)をインスタンス化させ得る。
モバイルアプリケーション224は、クライアントデバイス202のユーザがコパイロットデバイス106と相互作用することを可能にし得る。例えば、通信セッションがそれぞれの通信インターフェース222、216を介しコパイロットデバイス106とクライアントデバイス202との間で確立され得る。いくつかの実施形態では、モバイルアプリケーション224は、コパイロット管理コンピュータ118上に実装される1つ又は複数のモジュールを介し提供される機能性へのアクセスをユーザに提供し得る。
コパイロット管理コンピュータ118は、コパイロットデバイス106とクライアントデバイス202上に設置されるモバイルアプリケーション224とのバックエンド支援を提供するコンピュータ又は一群のコンピュータであり得る。コパイロット管理コンピュータ118は、コパイロットデバイス106からデータを受信し、そしてこのデータの少なくとも一部をバックエンドデータストレージ226内に格納する。受信されたデータは映像データ、車両情報、センサデータを含み得る。バックエンドデータストレージ226内に格納されたデータは、コパイロット管理コンピュータ118により又は第三者事業者により消費され得る。いくつかの実施形態では、コパイロットデバイス106からコパイロット管理コンピュータ118において受信されたデータの少なくとも一部は、少なくともいくつかの機能性を自動化するためにコパイロットデバイス106上に実装され得る機械学習モデルをトレーニングするために使用される。
モジュール214-220のそれぞれはコパイロットデバイス106上に実装されて描写されるが、それらのモジュールに関し説明された機能性の少なくとも一部又はモジュール自体はその代りにコパイロット管理コンピュータ118上に実装され得るということに留意されたい。
図3は、少なくともいくつかの実施形態によるコパイロットデバイス内に含まれ得るいくつかの例示的ハードウェア部品のブロック図を描写する。描写されるように、ハードウェア部品はシステム・オン・チップ(SOC:system on chip)302を含み得る。好適なSOC302のいくつかの非限定的例は、BCM2837B0システム・オン・チップに基づくRaspberry Pi 3A+ボードを含み得る。ハードウェア部品はSOC302へ通信可能に結合されるいくつかの部品を含み得る。
SOC302は、クライアントデバイス又はコパイロットの管理コンピュータと通信することを容易にするために無線インターフェース304と通信可能に結合される。無線インターフェース304は、短距離通信(例えば商標WI-FI(登録商標)又はBLUETOOTH(登録商標)下の無線標準規格に適合するもの)を実装するためのモジュール及び長距離通信(例えば4G無線標準規格に適合するもの)を実装するためのモジュールを含み得る。
SOC302は、情報を車両運転者へ提供するためだけでなく運転者音声入力を受信するために音声インターフェース306と通信可能に結合される。音声インターフェース306は、ステレオマイクロホンなどの音声入力部品だけでなく増幅器(アンプ)及びスピーカなどの音声出力部品も含み得る。
SOC302はいくつかのカメラデバイスを含むカメラインターフェース308と通信可能に結合される。特に、カメラインターフェース308は、車両の内側の映像又は画像を捕捉する少なくとも内部カメラ(図3内のInt Cam)及び車両の前部の外の映像又は画像を捕捉する外部カメラ(図3内のExt Cam)を含む。いくつかの実施形態では、カメラインターフェースは複数の外部カメラを含み得る。例えば、カメラインターフェース308は偏心ステレオカメラを含み得る。この例では、カメラインターフェース308は、外部カメラのものとは異なる角度から映像又は画像を捕捉することができる左右のステレオカメラを含み得る。いくつかの実施形態では、ステレオカメラを介し捕捉された映像又は画像は、ニューラルネットプロセッサ(例えばMydriad X)を使用することにより処理され得る。ニューラルネットプロセッサは、人間の脳に関しモデル化されたコンピューティングプロセッサユニット(CPU:computing processor unit)である。このような実施形態は、処理された映像及び画像に対し人工知能機能(例えば物体認識)を行うために必要とされる資源を著しく低減する。いくつかの実施形態では、カメラインターフェース308の複数のカメラは様々な手段を使用することによりSOC302へ結合され得る。例えば、1つ又は複数の内部カメラはUSBを介しSoCへ結合され得る一方で、1つ又は複数の外部カメラはMIIPI CSIを介しSoCへ結合され得る。
SOC302は追加メモリ310と通信可能に結合される。メモリ310は揮発性及び不揮発性メモリを含むために任意の好適なコンピュータ可読媒体を含み得る。非限定的例として、追加メモリ310はフラッシュメモリ又はダイナミックランダムアクセスメモリ(DRAM)を含み得る。いくつかの実施形態では、追加メモリはセキュアディジタル(SD:secure digital)カードなどの着脱可能メモリストレージを含み得る。
SOC302はいくつかのセンサ312と通信可能に結合される。例えば、いくつかのセンサ312は、温度センサ、リアルタイムクロック(RTC)、慣性測定ユニット(IMU)又は任意の他の好適なセンサを含み得る。IMUは、加速度計、ジャイロスコープ、そして時に磁力計の組み合わせを使用することにより体の特定力、角速度、及び時に体の配向を測定し報告する任意の電子デバイスであり得る。
SOC302は、電力をコパイロットデバイス106へ供給する電力モジュール314と通信可能に結合される。電力モジュール314はコパイロットデバイス106へ供給される電力を管理する電力管理集積回路(PMIC:power management integrated circuit)を含み得る。いくつかの実施形態では、電力は、図1に関し説明されたOBD接続107などのOBD接続からコパイロットデバイス106へ供給され得る。PMICは電力USBコードを介しOBD接続へ接続し得る。いくつかの実施形態では、電力モジュール314は電池又は他のバックアップ電源を含み得る。いくつかのケースでは、電池は、OBD接続から充電され得、そしてコパイロットデバイス106がOBD接続から切断されると電力をコパイロットデバイス106へ供給し得る。
SOC302は、状態指示子を出力する光出力モジュール316と通信可能に結合される。光出力モジュール316は発光ダイオード(LED)駆動器を含み得る。いくつかの実施形態では、光出力モジュール316はいくつかの異なる種類のLEDを含み得る。例えば、光出力モジュール316は、IR光により乗客を照明することができる赤外線(IR)LEDを含み得る。別の例では、光出力モジュール316は、状態指標をユーザへ提供する赤/緑/青(RGB)光LEDを含み得る。いくつかの実施形態では、LED部品はSOC302のピン(例えばGPIOピン)により制御される。
SOC302は全地球航法衛星システム(GNSS)モジュール318と通信可能に結合される。GNSSモジュールは位置データをSOC302へ提供する。
1つの非限定的例では、コパイロットデバイス106のSOC302は、Raspberry Pi用に構築されたRaspbianと呼ばれるDebianベースLinux distro(例えば、埋め込み型Linuxボード)を実行する。他のバージョンでは、DistroはYoctoプロジェクトを使用することにより構成され得る。いくつかのバージョンでは、ロードされたスクリプト(例えばpythonスクリプト)はカメラ、サムネイル、ガーベッジコレクタ又はサーバスクリプトのうちの1つ又は複数を含み得る。いくつかのバージョンでは、スクリプトは、様々なことを容易にするsystemdサービスとして実行又は管理される。これらのスクリプトが実行する様々なAPT及びpipパッケージに加えて、コード配備プロセス(code deployment process)は様々なLinux daemonソフトウェア及びツールを構成することを含む。hostapd構成は、コパイロットデバイス106がそれ自身の無線ネットワーク(クライアントデバイスが接続し得る)を同報通信することを容易にする。いくつかのバージョンでは、bluez.service又はrfcomm規則が、OBD接続とコパイロットデバイス106との間の接続を構成するように設定される。
図4は、いくつかの実施形態に従って実装され得る例示的コパイロットデバイスのいくつかの異なる図を描写する。具体的には、図4Aは例示的コパイロットデバイスの等角上面図を描写する。図4Bは例示的コパイロットデバイスの等角側面図を描写する。図4Cは例示的コパイロットデバイスの等角底面図を描写する。図4Dは例示的コパイロットデバイスの等角斜視図を描写する。図4に描写される例示的コパイロットデバイス106は図1に関し説明されたコパイロットデバイス106の一例である。
例示的コパイロットデバイス106は主筐体402を含む。主筐体402は既存車両(例えば、特約販売店から購入されそして走り去られた中古車両又は車両)へ結合する。主筐体402は内部カメラアセンブリ404及び外部カメラアセンブリ406へ結合される。内部カメラアセンブリ404は少なくとも1つのカメラを含む。外部カメラアセンブリ406は1つ又は複数の追加カメラ(例えば2、3又は4以上のカメラ)及び暗視を容易にする1つ又は複数の赤外線発光ダイオード(LED)を含む。
図5は例示的コパイロットデバイスの等角投影分解図を描写する。具体的には、図5は主筐体402、内部カメラアセンブリ404及び外部カメラアセンブリ406のそれぞれの分解図を描写する。図5に描写するように、主筐体402、内部カメラアセンブリ404及び外部カメラアセンブリ406のそれぞれは蝶番502を介し接続され得る。
主筐体402及びカメラアセンブリ404、406は、主筐体402が車両へ結合された後に主筐体に対してカメラアセンブリ404、406の角度を調整することを容易にするために蝶番動作可能に互いに結合される。いくつかのバージョンでは、カメラアセンブリ404、406は、カメラアセンブリ404、406をそれぞれの主筐体402がその中に取り付けられた複数の異なる車両内に取り付けることを容易にするために、主筐体402へ分離可能且つ蝶番動作可能に結合される。例えば、蝶番502は、主筐体402の第1の部品及びカメラアセンブリ404又は406の第2の部品のうちの1つ又は複数により画定され得、第1及び第2の部品は分離可能に互いに結合される(例えばスナップ、磁石、ピンなどにより)。第1及び第2の部品は、ユーザがいかなるワイヤ又はワイヤ端子も接続又は切断する必要無くカメラアセンブリ404又は406と主筐体404、406との間でデータ及び電力を転送することを容易にする対応電気的コンタクトを有する。いくつかの実施形態ではコパイロットデバイス106は外部ワイヤを欠き得るということに留意されたい。
いくつかの実施形態では、主筐体402、内部カメラアセンブリ404、外部カメラアセンブリ406のそれぞれは、内部カメラアセンブリ404が外部カメラアセンブリ406とは独立に回転又はそうでなければ調整され得るようなやり方で蝶番502を介し接続され得る。蝶番502の回転摩擦は、蝶番内の摩擦力を増加又は低減する蝶番の部品(例えば、蝶番の中心を軸方向に貫通しそして6-32 Nylockナットにより適所に保持される6-32穴付きボルト(SHCS:socket head cap screw))の操作を介し調整可能にされ得る。いくつかのバージョンでは、外部カメラアセンブリ406内の1つ又は複数の外向きカメラの配向に関係する回転摩擦は、座面としての嵌合鋼及びシリコーンワッシャを介し増加及び調節される。いくつかの実施形態では、鋼ワッシャが蝶番の主筐体側へ接着され、そしてシリコーンワッシャは蝶番の外部カメラアセンブリ側へ接着される。内部カメラアセンブリ404内の1つ又は複数の内向きカメラの配向に関係する回転摩擦は、ナイロンワッシャと取り付け用プラスチック(fitted plastic:例えば、マルチジェットフュージョンナイロン(MultiJet Fusion Nylon)又はポリエチレンテレフタレートグリコール(PETG:Polyethylene Terephthalate Glycol)を使用することにより3D印刷されたプラスチック)とを嵌合することを介し低減及び調節される。ナイロンワッシャは内部カメラアセンブリ404筐体の外側へ圧入される。いくつかのバージョンでは、蝶番502はピン蝶番である。
主筐体402又はコパイロットデバイス106のカメラアセンブリ404、406のうちの1つ又は複数は論理実行回路構成(例えば図3に関し説明されたハードウェア部品)を含む。主筐体402又はカメラアセンブリ404、406のうちの1つ又は複数は電源(例えば、外部電源から電池を充電する電池充電器、又は車両内の電源へ結合する電力変換器)を含む。いくつかの実施形態では、OBD接続はまた、コパイロットデバイスの電力がオンボード診断バスを介し車両から引き出される電源として働き得る。いくつかの実施形態では、RGB LEDが、デバイス状態又は他の情報(例えば映像データの評価に基づくレーンドリフト通知、盗難防止、又は強盗通知)をユーザへ伝達することを容易にするために主筐体内に配置され得る。いくつかの実施形態では、コパイロットデバイス106は、運転者散漫を低減することを容易にするためのいかなるディスプレイ又はユーザインターフェース制御装置(例えば触覚的ボタン又は他の制御装置)も欠く。
主筐体蓋が主筐体本体へ結合される(例えば、2つのM2.5×10mm SHCS及びクリップを使用することにより結合される)。主筐体の蓋は、コパイロットデバイス106を車両へ結合することを容易にする1つ又は複数のマウント(例えば、コパイロットデバイス106を車両のフロントガラスへ取り付けるフォームテープなどのレーザカット3M Very High Bond(VHB)接着剤)を含み得る。接着剤の量は、車両への取り付け及びそれからの取り外しをより容易にするために、そしてフロントガラスへ取り付けられる際の気泡を低減してフロントガラスを通してロゴを可視状態のままにするために最小化される。
内部カメラアセンブリ404は、前進する際に車両内の活動そしてまた車両の進行方向の反対側の車両外(例えば、車両のリヤウインドウの外)の活動の映像を記録することを容易にする1つ又は複数の後向き内部カメラを収容する。後向きカメラは広角カメラであり得る。いくつかのバージョンでは内部カメラ、熱パッド及びヒートシンクは、カメラアセンブリ404の内側に取り付けられ、そしてaxial 6-32 SHCSなどの蝶番502の部品により固定される。ワッシャが内部カメラアセンブリ404の筐体の側面に取り付けられる。
外部カメラアセンブリ406は、前進する際に車両の進行方向の車両外の活動の映像を記録することを容易にする1つ又は複数の前向き外部カメラを収容する。いくつかの実施形態では、外部カメラアセンブリ406の外部カメラ筐体はカメラ筐体の前面を画定する正面壁(例えばアクリル壁)を含む。正面壁は前向き外部カメラに対し半透明又は透明である。正面壁は、正面壁とカメラ筐体の本体とを結合することを容易にするようにカメラ筐体の本体と相互作用する機械加工済みリップをその周縁の周りに有し得る。カメラ筐体の内部は光干渉を制限するためにペイントで塗られる又はそうでなければ暗色(例えば黒色)により着色され得る。各カメラのマウントはカメラ筐体の内側(正面壁の内面など)へ結合(例えば、接着)される。いくつかのバージョンでは、カメラ筐体の1つ又は複数の後面は、すべての乗客の顔全体にわたる赤外線光の拡散を最大化するためにそれぞれの角度で配向される各赤外線LEDの穴(例えば、850nm赤外線LEDに適合する4つの穴)を画定する。カメラ筐体により画定される穴は、外部カメラアセンブリ406から主筐体402へワイヤを渡すのを容易にするためにカメラ筐体近くの頂部上に配置され得る。
いくつかの実施形態では、カメラ筐体又は主筐体の1つ又は複数は、1つ又は複数の筐体をヒートシンクとして働かせることを容易にする材料を含む。例えば、1つ又は複数の筐体は、1つ又は複数の筐体が受動的ヒートシンクとして働くことを容易にするために陽極酸化アルミニウムで形成され得る。
図6は、いくつかの実施形態に従って実装され得る着脱可能基部を有する例示的コパイロットデバイスの複数の図を描写する。いくつかの実施形態では、コパイロットデバイスは、車両に取り付ける基部部品604だけでなくハードウェア部品の少なくとも一部も含む主筐体602で構成され得る。
少なくともいくつかの実施形態では、主筐体602は基部部品604へ着脱可能に接続され得る。例えば、主筐体602及び基部部品604は、対応雌データポートコネクタ610及びラッチ凹部612へ接続する雄データポートコネクタ606及び固定用ラッチ608を介し接続可能かもしれない。これは、基部部品604が車両内に半恒久的に取り付けられ得、且つ主筐体が車両から取り除かれ得るように主筐体602が基部部品604へ着脱可能に接続されることを可能にする。これは、コパイロットデバイスのユーザが、その窃盗を防止するために車両から主筐体を取り除くことと、設置された基部部品604をそれぞれが含む複数の車両と共に単一主筐体602を使用することとを可能にするので有利である。
図6に描写するように、主筐体602は上記図3に関し説明された、いくつかのハードウェア部品を含み得る。例えば、主筐体602の前向き側(例えば車両の前部に面する側)は、車両の前部の外側から映像又は画像を捕捉するように構成された、いくつかの外部カメラ614(a-c)を含み得る。外部カメラ614(a-c)は上記図3に関し説明された外部カメラ及びステレオカメラ(L及びR)に対応し得る。「複数の前向きカメラ614(a-c)の使用はコパイロットデバイスが、そうでなければ単一カメラの使用を介し利用可能でない可能性がある様々な深度感知技術を使用することを可能にする」ということに注意すべきである。
別の例では、主筐体602の後向き側(例えば車両の内部に面する側)は、車両内の1又は複数の人(例えば、運転者及び/又は乗客)を含むために車両の内部の映像又は画像を捕捉するように構成された内部カメラ616を含み得る。内部カメラ616は上記図3に関し説明された内部カメラに対応し得る。いくつかの実施形態では、主筐体602の後向き側はまた、赤外線光を車両の内部へ発射するように構成されたIR LEDエミッタ618(a-b)を含み得る。これらの実施形態では、内部カメラ616は、自然光が殆ど無いシナリオにおいて(例えば夜に)このような像が捕捉されることを可能にするこの赤外線光を使用することにより映像又は画像を捕捉することができるかもしれない。
いくつかの実施形態では、主筐体602は、追加の電子デバイス、モジュール及び/又はセンサがコパイロットデバイスへ接続されることを可能にするポート620(a-b)又は他の接続手段を含み得る。これらのポート620(a-b)を介し受信されるデータは、コパイロットデバイスに含まれるセンサから受信されるデータと同様なやり方で処理され得る。コパイロットデバイスはまた、コパイロットデバイスが電源オン又はオフにされるようにする電源ボタン622を含み得る。
図7は、いくつかの実施形態による例示的コパイロットデバイスを介しデータを処理するための例示的プロセスを示す流れ図を描写する。プロセス700は、その各操作がハードウェア、コンピュータ指令又はそれらの組み合わせで実施され得る一連の操作を表す論理流れ図として示される。コンピュータ指令の文脈では、操作は、1つ又は複数のコンピュータ可読ストレージ媒体上に格納されたコンピュータ実行可能指令であって1つ又は複数のプロセッサにより実行されると同操作を行うコンピュータ実行可能指令を表し得る。一般的に、コンピュータ実行可能指令は、特定機能を行う又は特定データタイプを実装するルーチン、プログラム、オブジェクト、構成要素、データ構造などを含む。操作が説明される順番は、制限として解釈されるように意図されていなく、そして説明された操作のうちの任意数の操作は、省略され得る、又は本明細書に説明される当該プロセス及び任意の他のプロセスを実施するために任意の順番で及び/又は並列に合成され得る。
プロセス700のいくつか又はすべて(又は本明細書において説明される任意の他のプロセス、又は変形形態及び/又はそれらの組み合わせ)は、実行可能指令により構成される1つ又は複数のコンピュータシステムの制御下で行われ得、そしてコード(例えば実行可能指令、1つ又は複数のコンピュータプログラム又は1つ又は複数のアプリケーション)として実装され得る。少なくとも1つの実施形態によると、図7のプロセス700は、図1に示すコパイロットシステムの1つ又は複数の要素により行われ得る。例えば、プロセス700は図1に関して説明したコパイロットデバイス106により行われ得る。コードは、例えば1つ又は複数のプロセッサにより実行可能な複数の指令を含むコンピュータプログラムの形式で、コンピュータ可読ストレージ媒体上に格納され得る。コンピュータ可読ストレージ媒体は非一時的なものでよい。
ブロック702において、プロセス700は、データがコパイロットデバイスにより受信されることを含む。いくつかの実施形態では、データは、コパイロットデバイスが設置される(例えばOBD接続を介し)車両、コパイロットデバイス内に含まれるセンサ、及びコパイロットデバイス内に含まれるカメラから受信される情報を含み得る。いくつかの実施形態では、データは常時受信され得る。例えば、コパイロットデバイスは、デバイスが電源へ接続されている限り(コパイロットデバイスが設置された車両のエンジンが切られた場合ですら)カメラの1つ又は複数から映像データを受信し続け得る。データは、特定事象を識別するために受信されると処理され得る。いくつかの実施形態では、これは、特定タイプの事象を検出するために、データから識別された1つ又は複数の条件と当該特定タイプの事象を示す条件とを比較することに関与する。
判定ブロック704において、プロセス700は、受信されたデータから識別された1つ又は複数の条件がこのようなセキュリティ事象を示す条件に整合するかどうかを判断することによりセキュリティ事象を検出することを含む。例えば、コパイロットデバイスは、潜在的セキュリティ事象を示す1つ又は複数の条件の指標を格納し得る。このような事象は非限定的例として、キーが存在しないときの車両の1つ又は複数のドアの開放(OBD接続を介し受信されたドア開放指示器信号を介し検出される)、車両に動力が供給されていないときの車両の移動(衝突又は衝撃を指示し得る)、ガラスの破壊の音と高度に類似している受信された音声信号、動き検出器の活性化、又は車両の潜在的セキュリティ漏洩の任意の他の好適な指標を含み得る。コパイロットデバイスは車両が現在オフあってもセキュリティ事象を検出し得るということに注意すべきである。
ブロック706では、潜在的セキュリティ事象を検知すると(判定ブロック704からの「はい」)、プロセス700は潜在的セキュリティ事象を記録することを含む。これは、内部カメラ及び/又は外部カメラから映像を捕捉することと、現在の時刻及び他の情報(例えばセキュリティ問題タイプ)を含むように映像を修正することとに関与し得る。次に、セキュリティ事象の記録(例えば修正済み映像)は、コパイロットデバイス内に格納され、クライアントデバイスへ送信される、及び/又はコパイロット管理コンピュータへ送信される。セキュリティ事象の記録は直ちに又は後の時点に別の電子デバイスへ送信され得る。例えば、セキュリティ事象の記録は、ダウンロードされるまでコパイロットデバイス上に格納され得る、又は別の電子デバイスへリアルタイムで送信され得る(例えば、セキュリティ事象が発生しているので)。潜在的セキュリティ事象が検出されなければ、このプロセスはセキュリティ事象を記録することなくブロック708へ続き得る(判定ブロック704からの「いいえ」)。
判定ブロック708では、プロセス700は、受信されたデータから識別された1つ又は複数の条件がこのようなビジネス事象を示す条件に整合するかどうかを判断することによりビジネス事象を検出することを含む。例えば、コパイロットデバイスは、ビジネス事象を示す1つ又は複数の条件の指標を格納し得る。このような事象は非限定的例として、クライアントデバイス上で実行されるモバイルアプリケーションから受信されたビジネス事象の指標、ユーザによるコパイロットデバイスへの手動指示入力(例えばコパイロットデバイス上のボタンの押下)、車両がビジネス事象へ共通にリンクされたルートを現在採用している(例えば、タクシー運転者が空港の方向へ現在運転している)という判断、又は運転者がビジネス事象に関与しているという任意の他の好適な指標を含み得る。いくつかの実施形態では、ビジネス事象はビジネス事象開始及びビジネス事象終了の両方を含み得る。ビジネス事象を検出することはビジネス事象の開始及び終了の両方(それぞれは異なる条件に関連付けられ得る)を検出することに関与し得る。
ブロック710では、ビジネス事象を検知すると(判定ブロック708からの「はい」)、プロセス700はビジネス事象を記録することを含む。これはビジネス事象開始に関連する時点に現在のオドメータ読み出し値を取得及び記録することとビジネス事象終了に関連する時点に現在のオドメータ読み出し値を記録することとに関与し得る。ビジネス事象はさらに、タイムスタンプ、位置(例えばGPSを介した)、映像又は他のデータの指標を含み得る。次に、記録されたビジネス事象は、コパイロットデバイス内に格納され、クライアントデバイスへ送信される、及び/又はコパイロット管理コンピュータへ送信される。いくつかの実施形態では、ビジネス事象の記録は要求されると又はリアルタイムでのいずれかで別の電子デバイスへ送信される。ビジネス事象が検出されなければ、プロセスはビジネス事象を記録することなくブロック712へ続き得る(判定ブロック708からの「いいえ」)。
判定ブロック712において、プロセス700は、受信されたデータから識別された1つ又は複数の条件がこのような状態更新事象を示す条件に整合するかどうかを判断することにより状態更新事象を検出することを含む。このシナリオでは、コパイロットデバイスは受信されたデータに基づき運転者又は車両の状態を判断し得る。各状態は特定条件に関連付けられ得る。無数のタイプの状態が車両及び/又はユーザに関連付けられ得る。
例えば、コパイロットデバイスは、車両が位置する現在の一続きの道路に関連付けられた速度制限の指標を受信し得る。この例では、コパイロットデバイスはまた、車両が走行している現在の速度の指標を受信し得る(例えばOBD接続を介し)。この情報に基づき、コパイロットデバイスは、車両の現在の速度が現在の一続きの道路の速度制限より高いということをコパイロットデバイスが判断すれば車両の速度状態を識別し得る。代替的に、コパイロットデバイスは、車両の現在の速度は現在の一続きの道路の速度制限より十分に低いということを判断すると車両の渋滞状態を識別し得る。いくつかのケースでは、渋滞状態判断は、車両の現在の速度が速度制限より十分に低いという判断と、取得された映像データ内の1つ又は複数の車両の識別とを必要とし得る。
第2の例では、コパイロットデバイスは、車両に関連付けられた1つ又は複数の問題の指標を受信し得る。例えば、コパイロットデバイスは、OBD接続を介しコパイロットデバイスへ送信されるエラーコードを受信し得る。この例では、コパイロットデバイスはコパイロットデバイスが設置された車両の特定タイプ又はブランドに関係して格納されたマッピングに基づきエラーコードを問題状態へ翻訳し得る。
ブロック714では、状態更新を検知すると(判定ブロック712からの「はい」)、プロセス700は、検出された状態をクライアントデバイスへ提供することを含む。例えば、コパイロットデバイスはこの状態を運転者のモバイルデバイスへ送信し得る。次に、この状態はモバイルデバイス上で実行されるGUIを介しユーザへ提示され得る。状態更新事象が検出されなければ、本プロセスは状態更新事象を記録することなくブロック716へ続き得る(判定ブロック712からの「いいえ」)。
ブロック716では、プロセス700は、修正済み映像ファイルを生成することを含む。これは、受信されたデータを、コパイロットデバイスに含まれる1つ又は複数のカメラにより捕捉された映像ファイルへ付加することに関与し得る。いくつかのケースでは、これは受信されたデータの少なくとも一部をメタデータとして映像のフッターへ付加することを含む。受信されたデータは、データが受信された時刻を示すタイムスタンプに関連付けられ得る。このようにして、様々なタイプのデータはタイムスタンプを介しアライメントされ得る。
ブロック718では、プロセス700は、修正済み映像ファイルをサーバへ搬送することを含む。いくつかの実施形態では、サーバは図1に関して説明したコパイロット管理サーバであり得る。修正済み映像ファイルは様々な異なるアプリケーションにより消費され得る。いくつかの実施形態では、サーバは、修正済み映像ファイルを、機械学習モデルのトレーニングの際に使用される機械学習モジュールへ提供し得る。
図8は、いくつかの実施形態による修正済み映像ファイルを生成及び提供するための例示的プロセスを描写する。図示のプロセス800では、情報802は、コパイロットデバイス106へ通信可能に結合された、いくつかの異なる源からコパイロットデバイス106により受信され得る。情報802は多様な情報タイプを含み得る。
いくつかの実施形態では、情報802は1つ又は複数のセンサ804から受信されるセンサデータを含み得る。例えば、情報802は、温度センサ(例えば温度計)、リアルタイムクロック、加速度計、ジャイロスコープ、磁力計、又は任意の他の好適なタイプのセンサから取得されるデータを含み得る。この情報は、OBD接続808上で受信され得る車両データ806を含む。車両情報806はオドメータ情報、速度計情報、エラーコード情報、又は任意の他の好適な車両データを含み得る。
いくつかの実施形態では、情報802はGNSS又はGPSデバイス812から取得される位置情報810を含み得る。位置情報810は定期的に(例えば5分毎に)取得され得る。
いくつかの実施形態では、情報802は映像データを含み得る。映像データは、車両の前部の外へ向けられた外部カメラ816により捕捉される外部映像814を含み得る。映像データはまた、車両の内側方向に向けられた内部カメラ820により捕捉される内部の映像818を含み得る。
多様な源から情報802を受信すると、コパイロットデバイス106は、受信された情報802を、データのそれぞれが受信された時刻に基づきアライメントされる単一データファイル内へコンパイルし得る。いくつかの実施形態では、1つ又は複数のデータが映像ファイルへ付加され得る。例えば、データはメタデータとして映像のフッターへ追加され得る。各データは、データが映像内の時刻を使用することにより同期されるように映像内の特定時刻に関連付けられ得る。これは、データファイルの消費者はその処理中にデータをアライメントする必要が無いという意味でデータが遥かに効率的なやり方で処理されることを許容する。
次に、生成されたデータファイルはコパイロット管理コンピュータ118へ搬送される。いくつかの実施形態では、データファイルは、コパイロットデバイス106に含まれる長距離通信手段を介しネットワーク822上でコパイロット管理コンピュータ118へ直接提供される。いくつかの実施形態では、データファイルは、クライアントデバイス824をプロキシーとして使用することにより、コパイロットデバイス106に含まれる短距離通信手段を介しコパイロット管理コンピュータ118へ提供される。この実施形態では、データファイルはクライアントデバイス824へ送信され、次にクライアントデバイス824はこのデータファイルをネットワーク822を介しコパイロット管理コンピュータ118へ転送する。
次に、コパイロット管理コンピュータ118は1つ又は複数の機能を行うためにデータファイルを処理することができる。いくつかの実施形態では、コパイロット管理コンピュータ118は、いくつかの車両機能を自動化するためにデータファイル(他のコパイロットデバイスにより提供されるデータファイルと共に)を使用する。このプロセスは図9に関して以下にさらに詳細に説明される。いくつかの実施形態では、1つ又は複数のサービスが、受信されたデータファイルに基づき提供され得る。データファイルに基づき提供され得るサービスのいくつかの非限定的例が以下に提供される。
第1の例では、コパイロット管理コンピュータ118はいくつかのコパイロットデバイスから受信されたデータファイルからトラヒックパターンを判断し得る。この例では、コパイロット管理コンピュータは、車両の速度は、コパイロットデバイスが現在走行している道路の公示速度制限より著しく低いということを(例えばコパイロットデバイスの位置及び公示速度制限のマッピングに基づき)示すコパイロットデバイスから最近のデータファイルを受信し得る。この例では、コパイロット管理コンピュータ118は、コパイロットデバイス周囲の車両の有無又は数を判断するために物体認識をデータファイル内の映像に対し行い得る。判断された数台の車両の有無とコパイロットデバイスが走行する速度とに基づき、コパイロット管理コンピュータ118は渋滞状態とコパイロットデバイスの現在位置とを関連付け得る。コパイロット管理コンピュータ118は、いくつかのコパイロットデバイスに関連付けられた運転者が渋滞位置を回避することを可能にするために、渋滞位置の指標をいくつかのコパイロットデバイスへ提供し得る。いくつかの実施形態では、渋滞位置の指標は、当該渋滞位置の方向へ走行していると判断されたコパイロットデバイスへ提供され得る。
別の例では、コパイロット管理コンピュータ118は様々な車両に適切ないくつかの駐車スペース位置を識別し得る。この例では、コパイロット管理コンピュータ118は、利用可能駐車スペースを識別するためにデータファイル内の受信された映像を処理し得る。このような駐車スペースは深度感知技術(車両間の空間のサイズを判断するための)だけでなく物体認識(車両を識別するための)を使用することにより識別され得る。深度感知技術は深度センサから取得されるデータを使用し得るということが想定される。しかし、このような深度が計算されなければならない距離を所与として、従来の構造化された光深度感知は効果的でないかもしれない。その代りに、コパイロットデバイスは、様々な駐車車両間の深度(距離)を判断するために様々な角度から捕捉された映像(例えば図6のステレオカメラ614(a-c)から捕捉された映像)を比較し得る。これを行うために、コパイロット管理コンピュータ118は、映像内の特定時刻におけるコパイロットデバイスと第1の駐車車両の後部の第1の点との間の距離だけでなくコパイロットデバイスと第2の駐車車両の前部の第2の点との間の距離も判断する。次に、2つの駐車車両間の距離は、コパイロットデバイスに対する2つの点のそれぞれの点の2つの計算された距離と角度(ビデオ画像内の2つの点の位置に基づき判断され得る)とを使用することにより判断され得る。このようにして、コパイロット管理コンピュータ118は、コパイロットデバイスが道路に沿って走行するにつれ駐車車両間の空間のサイズ及び位置に基づき潜在的駐車スペースを識別し得る。次に、コパイロット管理コンピュータ118は、障害物(例えば、自動車道、消火栓、駐車禁止区域など)と併設される任意の潜在的駐車スペースを障害位置の格納されたマッピングだけでなく閾値サイズ未満である潜在的駐車スペースにも基づき削除することにより、妥当な駐車スペースを識別する。妥当な駐車スペースが識別されると、コパイロット管理コンピュータ118は、駐車スペースデータを少なくとも1つのコパイロットデバイス(データファイルが受信されたコパイロットデバイスとは異なり得る)へ送信し得る。いくつかの実施形態では、コパイロット管理コンピュータ118は、駐車スペースデータを、駐車スペースに収まり得る車両内に設置されたコパイロットデバイスだけへ提供する。例えば、大型車両内に設置されたコパイロットデバイスは、小型車両内に設置されたコパイロットデバイスより小さなリストの駐車スペースを提供され得る。
図9はいくつかの実施形態による車両機能性を自動化するための例示的プロセスを描写する。プロセス900はコパイロットシステムのいくつかの部品間の相互作用に関与し得る。例えば、プロセス900は、コパイロットデバイス106とコパイロット管理コンピュータ118と車両902との間の相互作用に関与し得る。コパイロットコンピュータ106とコパイロット管理コンピュータ118との間の相互作用はネットワーク接続を介し容易にされ得、コパイロットデバイス106と車両との間の相互作用はOBD接続904を介し容易にされ得る。コパイロットデバイス106は、通信可能に結合されたセンサ及びカメラ906を使用することにより車両902に関する情報を収集し得る。
例示的プロセス900では、データは、950においてコパイロットデバイス106からコパイロット管理コンピュータ118へ送信される。このようなデータを生成するための例示的プロセスは図8に関して上に提供された。いくつかの実施形態では、データは、いくつかの異なるユーザ及び/又は車両902に関連付けられたいくつかの異なるコパイロットデバイス106から受信され得る。コパイロット管理コンピュータ118により受信されるデータは機械学習アルゴリズム908をトレーニングするために使用され得る。例えば、データの第1の部分は入力として機械学習アルゴリズムへ提供され得、データの第2の部分は入力として機械学習アルゴリズムへ提供され得る。例示として、機械学習アルゴリズムがニューラルネットワークであれば、データからの様々な映像特徴(例えば識別された物体、光レベルなど)及びセンサデータは入力層としてニューラルネットワークへ提供され得、ユーザ行為(例えば、ライトをオンにする、フロントガラスワイパーの速度を設定する等々)を示すデータは出力層として提供され得る。このようにして、機械学習アルゴリズム908は、トレーニング済みモデル910を生成するために、様々な入力に対する適切なユーザ応答に基づいて952においてトレーニングされ得る。トレーニング済みモデル910がコパイロット管理コンピュータ118により生成されると、コパイロット管理コンピュータ118は、954においてこのトレーニング済みモデル910をコパイロットデバイス106へ提供し、コパイロットデバイス106はトレーニング済みモデル910をメモリ内に格納する。
コパイロットデバイス106がトレーニング済みモデル910を受信すると、コパイロットデバイス106は、このトレーニング済みモデル910を使用することにより車両902の機能性を自動化し得る。例えば、コパイロットデバイスは、車両902の操作に関連する1つ又は複数のセンサ及びカメラ906からデータを956において受信し得る。このデータを受信すると、データはトレーニング済みモデル910へ提供され得、次にトレーニング済みモデル910は、受信されたデータに基づき車両902へ提供される指令を生成するように構成される。いくつかの実施形態では、生成された指令は、コパイロットデバイス106が設置されると判断された特定タイプの車両902に固有であり得る。
トレーニング済みモデル910を使用することにより生成された指令は、車両にいくつかの行為を取らせるために車両へ提供される。具体的には、生成された指令は958においてOBD接続904へ提供される。次に、OBD接続904は960において、これらの指令を、いくつかの行為を車両に取らせるために車両へ送信されるべきいくつかの信号に翻訳する。例えば、958において提供された指令は車両のヘッドライトをオンにする指令を含み得る。この例では、OBD接続904は、車両ライトを制御する制御バス上の適切なピンを判断し得、そして960において当該ピンを介し信号を車両へ提供し得る。
上述の技術を使用することにより、コパイロットデバイス106はいくつかの車両機能の活性化を自動化するようにされ得る。上記図8及び図9の説明に基づき当業者により認識されるだろうように、コパイロットデバイス106は、車両の環境に関する情報だけでなくユーザが取った行為に関する情報(例えばOBD接続から収集された車両情報)も(例えばセンサとカメラの906を介し)収集し、データが時刻に基づき同期される単一データファイルを生成する。これは、機械学習モデルが、機械学習アルゴリズムを使用することにより環境データ内で検出された様々な条件に対応するユーザにより取られる行為を識別することを可能にする。このようなデータに関しトレーニングされたモデル910は、いくつかの条件が環境内に存在する場合に適切であるユーザ行為を認識するようにさせられ得る。このトレーニング済みモデル910が提供されるとコパイロットデバイス106は、それらの環境因子を検知するとユーザ行為により通常は生成されるであろう信号を自動的に模擬し得る。例えば、環境光レベルが或る光レベル閾値を下回るとユーザが一般的にヘッドライトをオンにすれば、トレーニング済みモデルは、ヘッドライトをオンにする際の当該光レベル閾値及びユーザの当該行為を識別し得る。この例では、当該トレーニング済みモデルを提供されたコパイロットデバイスは、現在の環境光レベルが光レベル閾値を下回ったということを検知すると、指令をOBD接続へ提供し、次に、OBD接続は、ユーザが車両ヘッドライトを活性化すると通常は生成されるであろう信号を生成し、車両ヘッドライトを自動的に起動させる(例えば、ユーザ相互作用無しに)。
図10は、少なくともいくつかの実施形態によるコパイロットデバイスとクライアントデバイスとの間の相互作用を可能にするためにクライアントデバイスに対しインスタンス化され得る例示的グラフィックユーザインターフェースを描写する。具体的には、図10は、モバイルアプリケーションのためのユーザインターフェースがインスタンス化されるクライアントデバイス1002を描写する。
いくつかの実施形態では、ユーザは、モバイルアプリケーションに関連付けられたアカウントに(例えばログイン及びパスワードを介し)アクセスし得る。アカウントは、ユーザにとって一意的であり得、そして一意的識別子1004に関連付けられ得る。いくつかの実施形態では、アカウントは、1つ又は複数の特定コパイロットデバイスに関連付けられ得る(例えば、ペアにされ得る)。モバイルアプリケーションへ提供されたデータは、関連コパイロットデバイスからクライアントデバイス1002へ直接提供され得る、又は、コパイロットデバイスからバックエンドサーバ(例えばコパイロット管理コンピュータ118)へ提供され、そして次に、アカウント情報に基づきバックエンドサーバによりクライアントデバイス1002へルーティングされ得る。
いくつかの実施形態では、モバイルアプリケーションは、クライアントデバイス1002に短距離無線接続を介しコパイロットデバイスからデータを受信させ得る。グラフィックユーザインターフェースは、受信されたデータ1006の一部をクライアントデバイス1002のユーザへ提示し得る。いくつかの実施形態では、データ1006はクライアントデバイス1002のユーザに利用可能な機能性のメニューを含み得る。
図11は、少なくともいくつかの実施形態によるコパイロットデバイスから車両の運転者へ車両状態情報を搬送するためにクライアントデバイスに対しインスタンス化され得る例示的グラフィックユーザインターフェースを描写する。いくつかの実施形態では、クライアントデバイス上に設置されるモバイルアプリケーションは、受信された車両状態情報を提示する機械的支援モジュールを含み得る。機械的支援モジュールがクライアントデバイス上で実行する場合、OBD接続から取得されたデータは、自動的に、又はコパイロットデバイスにデータを取得させるユーザインターフェース制御を選択するユーザに応答してのいずれかで、コパイロットデバイス106からクライアントデバイスへ転送される。いくつかのバージョンでは、HTTP要求が、データを取得しこれをコパイロットデバイス106へ送信するためにコパイロットデバイス106にOBD接続への要求を開始させるためにコパイロットデバイス106へ送信され得、次にコパイロットデバイス106はこのデータをクライアントデバイスへ提供する。
いくつかの実施形態では、機械的支援モジュールは、取得されたデータに基づくメトリック(車両部品健全性を示すメトリックなど:例えば、期限切れオイル交換、あまりに高い油温、など)を提供し、そしてユーザが適切な整備又は修理を車両へ提供する際に支援することを容易にするためにメトリックに基づき選択された指令、助言又は指導書を提供する。例えば、1つ又は複数のメトリックが1つ又は複数の閾値と比較され得、そして1つ又は複数のメトリックが1つ又は複数の閾値を満足すれば若しくは越えれば又は満足しなければ若しくは越えなければ、車両部品は仕様内である又は仕様外であると判断され得る。車両部品が仕様外である(又は、所定数の最近のメトリックに基づき、仕様外に向かう傾向がある)ということを判断することに応答して、クライアントデバイスは、ユーザへ、警報を提供し、そしてどのように問題に対処するかに関する指令を提供し得る。例えば、クライアントデバイスはバックエンドサーバにより提供される映像をロードし得る。
いくつかの実施形態では、機械的支援モジュールはエラーコード(例えば故障診断コード(DTC:Diagnostic Trouble Code))及び/又はエラーコードから判断される車両問題1106を提供する。例えば、コパイロットデバイスは、OBD接続を介し1つ又は複数のエラーコードを取得し得、そして車両タイプの様々な問題へのエラーコードのマッピングに基づき特定問題とエラーコードとを関連付け得る。
図12は、少なくともいくつかの実施形態によるコパイロットデバイスから車両の運転者へマイレージ情報を搬送するためにクライアントデバイス上にインスタンス化され得る例示的グラフィックユーザインターフェースを描写する。いくつかの実施形態では、クライアントデバイス1202上に設置されるモバイルアプリケーションは、受信されたマイレージ情報を提示するマイル節約器モジュールを含み得る。
いくつかの実施形態では、コパイロットデバイスは、所定間隔で(例えば2秒毎に)OBD接続からオドメータデータを取得し、取得されたデータをデータベース(例えばSQLiteデータベース)内に格納する。マイル節約器モジュールを実行し、マイレージ要求(例えばHTTP要求)をコパイロットデバイスへ提供するクライアントデバイスに応答して、コパイロットデバイスはマイレージログ(例えば日付け、時間、位置、オドメータ読み取り開始/停止)をマイレージログデータオブジェクト(例えばJSONファイル)へ分解し、これをクライアントデバイスへ提供する。各要求は規定期間1204に関係し得る。例えば、ユーザは特定日、月又は年のマイレージログを要求し得る。
マイレージログデータオブジェクトを取得することに応答して、クライアントデバイスは、マイレージログデータに関連付けられたメトリックを生成し提供する。マイレージログデータ内のデータの少なくとも一部は個々のマイレージログ事象として提示され得る。いくつかの実施形態では、クライアントデバイスは、現在、過去、将来運転セッションが個人又はビジネス利用に関係するかをユーザが示すことを容易にし、そして、当該選択に基づき、ユーザが車両利用に基づき税還付又は償却を好都合に取得することを容易にするために国税庁(IRS:Internal Revenue Services)要件に適合するマイレージログ(例えばログを含む生成されたPDFファイル)を生成する。
クライアントデバイス1202はさらに、マイレージログを別の電子デバイスへ提供することができるかもしれない。例えば、クライアントデバイス1202のユーザは選択された通信手段(例えばテキストメッセージ、電子メールなど)を介しマイレージログを転送し得る。
図13は、少なくともいくつかの実施形態によるコパイロットデバイスから車両の運転者へセキュリティ事象情報を搬送するためにクライアントデバイス上にインスタンス化され得る例示的グラフィックユーザインターフェースを描写する。いくつかの実施形態では、クライアントデバイス1302上に設置されるモバイルアプリケーションは受信されたセキュリティ事象情報を提示するセキュリティモジュールを含み得る。
他のどこかで指摘したように、コパイロットデバイスは、セキュリティ事象を検知すると或るデータを生成するセキュリティモジュールを含み得る。セキュリティ事象は、キーが存在しないときの車両の1つ又は複数のドアの開放(OBD接続を介し受信されたドア開放指示器信号を介し検出される)、車両に動力が供給されていない場合(衝突又は衝撃を指示し得る)の車両の移動(加速計又は他の好適なセンサにより検出される)、ガラスの破壊の音と高度に類似している受信された音声信号、動き検出器の活性化、又は車両の潜在的セキュリティ漏洩の任意の他の好適な指標を含み得る。事象を検出すると、セキュリティモジュール216はカメラ208から映像又は画像を捕捉してこれをコパイロット管理コンピュータ118へ送信し得る。映像又は画像は、タイムスタンプに関連付けられ得、そして潜在的セキュリティ事象に関連する他の好適なデータを含むように修正され得る。例えば、キーが存在しない間に車両ドアが開放されたということを検知すると、コパイロットデバイスは、映像を捕捉し始め得、そして所定期間の間映像を捕捉し続け得る。この例では、セキュリティ事象(例えば、「ドア開放」)のタイプの指標は、映像ファイルを生成するためにタイムスタンプ、位置、及び/又は任意の他の好適なデータと共にメタデータとして映像へ付加され得る。生成された映像ファイルはクライアントデバイス1302へ提供され得る。いくつかの実施形態では、生成された映像ファイルは無線通信手段を介しクライアントデバイス1302へ直接提供される。いくつかの実施形態では、生成された映像ファイルは、バックエンドサーバ(例えばコパイロット管理コンピュータ118)へ提供され、そして、次に、ネットワーク接続を介しクライアントデバイスへルーティングされる。
クライアントデバイス130は、セキュリティ事象に関連する情報(例えば映像ファイルから生成されるサムネイル画像)をタイムライン1304へ付加し得る。タイムライン1304は、日付け/時間に対するセキュリティ事象1306の追跡を容易にし得る。いくつかの実施形態では、タイムライン1304上に提示されるセキュリティ事象1306の特定セキュリティ事象の選択は、クライアントデバイス1302に、選択されたセキュリティ事象に関係する追加詳細を提示させ得る。例えば、ユーザは、映像を視る能力、マップ上のセキュリティ事象の位置を視る能力、又はそうでなければセキュリティ事象に関係する情報と相互作用する能力を提供され得る。
図14は、少なくともいくつかの実施形態による修正済み映像ファイルを生成しこれをサーバへ送信するための例示的プロセスを描写する流れ図を描写する。プロセス1400はコパイロットデバイス(例えば図1に関し説明されたコパイロットデバイス106)により行われ得る。
1402において、プロセス1400は、コパイロットデバイスにおいて映像データを受信すること含む。映像データは、内部(例えば、後向き)カメラを使用することにより捕捉された車両内部及び1人以上の乗客の映像を含む。いくつかのケースでは、車両内部の映像は暗視モードで(例えば赤外線光を捕捉することができるカメラを使用することにより)捕捉され得る。映像データはまた、1つ又は複数の外部(例えば、前向き)カメラを使用することにより捕捉された車両の前の車両外部の映像を含む。いくつかの実施形態では、1つ又は複数の外部カメラは様々な角度からシーンを捕捉することができる複数のステレオカメラを含み得る。
1404において、プロセス1400は、車両とコパイロットデバイスとの間の接続を介し車両データを受信することを含む。いくつかのケースでは、車両とコパイロットデバイスとの間の接続はオンボード診断(OBD:on-board diagnostic)接続である。他のどこかで指摘したように、コパイロットデバイスはOBD接続を介し様々なタイプの車両データを収集し得る。例えば、車両データはオドメータ情報、速度計情報、燃料計情報又はエラーコード情報を含み得る。
1406において、プロセス1400は、コパイロットデバイスと通信状態にある1つ又は複数のセンサからセンサデータを受信することを含む。他のどこかで指摘したように、コパイロットデバイスは、様々なタイプのセンサデータを収集するいくつかの異なるセンサタイプを含み得る。例えば、センサデータは温度データ、加速度データ、時間データ、位置データ、光レベルデータ又は湿度レベルデータを含み得る。
1408において、プロセス1400は、映像データ、車両データの少なくとも一部、及びセンサデータの少なくとも一部を含む修正済み映像ファイルを生成することを含む。これは、車両データの一部及びセンサデータの一部を映像データへ付加することに関与し得る。具体的には、車両データの一部及びセンサデータの一部はメタデータとして映像データのフッターへ付加され得る。修正済み映像ファイル内では、車両データの一部、センサデータの一部及び映像データは、データが修正済み映像ファイル内に受信された時刻に基づき同期される。
1410において、プロセス1400は、修正済み映像ファイルをサーバへ送信することを含む。具体的には、修正済み映像ファイルはコパイロットデバイスから離れたコパイロット管理コンピュータへ送信される。
いくつかの実施形態では、プロセス1400はさらに、ビジネス事象の開始及びビジネス事象の終了の指標を受信することと、ビジネス事象に関連付けられたマイレージを判断することとを含み得る。これらの実施形態では、ビジネス事象に関連付けられたマイレージを判断することは、ビジネス事象の開始時に第1のマイレージを判断すること、ビジネス事象の終了時に第2のマイレージを判断すること、及び第2のマイレージから第1のマイレージを減じることに関与し得る。第1のマイレージ及び第2のマイレージのそれぞれは、ビジネス事象のそれぞれの開始及び終了のそれぞれに対応する時点における車両データ内のオドメータ情報から判断される。
本開示の実施形態は、従来システムを上回るいくつかの利点を提供する。例えば、開示されたコパイロットデバイスは、複数の異種のタイプのデータが時刻に基づき同期されるようなやり方で合成された単一データファイルを生成する。これは、下流システム(例えばコパイロット管理コンピュータ)が異種のデータを整合又はアライメントさせる必要無く異種のデータ間の相関を引き出しそして処理の効率を著しく増加することを可能にする。
加えて、開示されたシステムの実施形態は、他の方法ではアフターマーケット解決策を介して自動化することができない方法で、様々な機能を自動化することを可能にする。例えば、本システムは、非常に精確なやり方で税目的のためのビジネス事象を自動的に検出及び記録する手段を提供する。これは、ユーザが最小努力でもって極めて精確なマイレージ記録を取得する一方でそれらのマイレージ記録内のエラーを無くす又は低減することを可能にする。いくつかの実施形態では、本システムは、通常はそれらの機能を自動化することができないであろう車両内の様々な車両機能の自動化を可能にする。例えば、本システムは、コパイロットデバイスにより収集された映像及び/又はセンサデータに基づきフロントガラスワイパー又はヘッドライトの自動的起動を可能にする。
結論
本明細書で使用されるように、以下の用語は、文脈が別途明確に規定しない限り本明細書において明示的に関連付けられる意味を採用する。用語「又は」は、接続された用語の1つ又は複数が採用され得るということを示す包含的接続詞である。例えば、句「1つ又は複数のA、B、又はC」は、以下のもののそれぞれを個別的に開示するために採用される:i)1つ又は複数のA、ii)1つ又は複数のB、iii)1つ又は複数のC、iv)1つ又は複数のA及び1つ又は複数のB、v)1つ又は複数のA及び1つ又は複数のC、vi)1つ又は複数のB及び1つ又は複数のC、及びvii)1つ又は複数のA、1つ又は複数のB、及び1つ又は複数のC。本明細書で使用される用語「に基づき」は、排他的ではなく、そして説明されない追加要因に基づくことを許容する。冠詞及び不定冠詞「a」、「an」及び「the」は複数の参照子を含む。複数の参照子はまた、単数を開示するように意図されている。
本明細書で使用されるように、以下の用語は、文脈が別途明確に規定しない限り本明細書において明示的に関連付けられる意味を採用する。用語「又は」は、接続された用語の1つ又は複数が採用され得るということを示す包含的接続詞である。例えば、句「1つ又は複数のA、B、又はC」は、以下のもののそれぞれを個別的に開示するために採用される:i)1つ又は複数のA、ii)1つ又は複数のB、iii)1つ又は複数のC、iv)1つ又は複数のA及び1つ又は複数のB、v)1つ又は複数のA及び1つ又は複数のC、vi)1つ又は複数のB及び1つ又は複数のC、及びvii)1つ又は複数のA、1つ又は複数のB、及び1つ又は複数のC。本明細書で使用される用語「に基づき」は、排他的ではなく、そして説明されない追加要因に基づくことを許容する。冠詞及び不定冠詞「a」、「an」及び「the」は複数の参照子を含む。複数の参照子はまた、単数を開示するように意図されている。
用語「前部」、「前方に」、「後部」、及び「後方に」は、車両内に設置される場合に車両又はコパイロットデバイス106の長手軸に対して定義される。車両の長手軸は車両の最後尾部から車両の横方向中央に沿って車両の最前部端へ延伸する。用語「前部」及び「前方向」は、コパイロットデバイス106が設置される(図1の右側へ)場合の車両のヘッドライトにより近い又はその方向の端部を示す。用語「後部」及び「後方向」は、ストレージパネルシステムが設置される(図6の左側へ)場合の後部ドアにより近い又はその方向の端部を示す。用語「高さ」、「垂直方向」、「上側」、「下部」「の上」「の下」「頂部」「下部」、「最上部」、及び「最下部」は、車両内に設置され場合の車両又はコパイロットデバイス106の垂直軸に対して定義される。垂直軸は、長手軸に対して直交しており、そして車両が水平地面上に在る場合に車両又はコパイロットデバイス106上の地球の重力の方向に対し平行であるとして定義される。用語「横方向」は、車両内に設置された場合の車両又はコパイロットデバイス106の横軸に対して定義される。横軸は縦及び垂直軸に対し直交する。
用語「アフターマーケット」又は「既存車両」は、車両の製造者及び特約販売店が車両をもはや管理しないように、完全に組み立てられそしてビジネスの一般的過程で特約販売店から販売された車両を指す。
特に、車両は様々な形状及びサイズのものである。したがって、いくつかの特徴又は特性(車両、ダッシュボード、ガソリンタンク、ハンドルバー、フロントガラスなどの1つ又は複数の特徴又は特性など)は、実施形態に関係するがそれに含まれない1つ又は複数の要素に対して定義されると当業者により最もよく理解される。また、したがって、実施形態の特徴又は特性が、実施形態において未だ関係しなく且つそれに含まれない1つ又は複数の要素に対して本明細書で定義される場合、このような定義は本主題が許容する程度に精確である。実施形態のそれらの特徴又は特性は実施形態に含まれない所与の車両部品に関して実施形態の原理に従って容易に取得される可能性があるということを当業者が本開示から理解するということにも注意すべきである。
多くの実施形態が示され説明されたが、上に指摘したように、多くの変更が、説明された特徴又は特性の精神及び範囲から逸脱することなくなされ得る。例えば、或る特徴又は特性を有する部品の各開示はまた、実施形態の原理が別途明確に規定しない限り当該特徴又は特性を欠く部品を開示するように意図されている。したがって、実施形態の範囲は説明される特定特徴又は特性により制限されない。
Claims (20)
- コパイロットデバイスに含まれるカメラにより取得された映像データを前記コパイロットデバイスにより受信することと、
車両と前記コパイロットデバイスとの間の接続を介し車両データを前記コパイロットデバイスにより受信することと、
前記コパイロットデバイスと通信状態にある1つ又は複数のセンサからセンサデータを前記コパイロットデバイスにより受信することと、
前記映像データ、前記車両データの少なくとも一部及び前記センサデータの少なくとも一部を含む修正済み映像ファイルを前記コパイロットデバイスにより生成することと、
前記修正済み映像ファイルを前記コパイロットデバイスから離れたコパイロット管理コンピュータへ前記コパイロットデバイスにより送信することと
を含む方法。 - 前記車両と前記コパイロットデバイスとの間の前記接続はオンボード診断(OBD)接続を含む、請求項1に記載の方法。
- ビジネス事象の開始及び前記ビジネス事象の終了の指標を前記コパイロットデバイスにより受信することとと、
前記ビジネス事象に関連付けられたマイレージを決定することと
をさらに含む請求項1に記載の方法。 - 前記ビジネス事象に関連付けられたマイレージを決定することは、
前記ビジネス事象の開始時の第1のマイレージ及び前記ビジネス事象の終了時の第2のマイレージを決定することと、
前記第2のマイレージから前記第1のマイレージを減じることと
を含む、請求項3に記載の方法。 - 前記第1のマイレージは、前記ビジネス事象の前記開始の時点の前記車両と前記コパイロットデバイスとの間の前記接続から受信されたオドメータ情報から決定される、請求項4に記載の方法。
- 前記修正済み映像ファイルを生成することは前記車両データの一部及び前記センサデータの一部を前記映像データへ付加することを含む、請求項1に記載の方法。
- 前記車両データの前記一部及び前記センサデータの前記一部は前記映像データのフッターへ付加される、請求項6に記載の方法。
- 前記車両データの前記一部、前記センサデータの前記一部及び前記映像データは、前記データが前記修正済み映像ファイル内に受信された時刻に基づき同期される、請求項6に記載の方法。
- 1つ又は複数のカメラと、
車両とコパイロットコンピューティングデバイスとの間の接続と、
1つ又は複数のセンサと、
プロセッサと、
指令を含むメモリとを含むコパイロットコンピューティングデバイスであって、前記指令は、前記プロセッサにより実行されると前記コパイロットコンピューティングデバイスに少なくとも
前記コパイロットデバイスに含まれる前記1つ又は複数のカメラにより取得された映像データを受信することと、
車両と前記コパイロットコンピューティングデバイスとの間の接続を介し車両データを受信することと、
前記コパイロットデバイスと通信状態にある前記1つ又は複数のセンサからセンサデータを受信することと、
前記映像データ、前記車両データの少なくとも一部及び前記センサデータの少なくとも一部を含む修正済み映像ファイルを生成することと、
前記修正済み映像ファイルを前記コパイロットデバイスから離れたコパイロット管理コンピュータへ送信することと
を実行させる、コパイロットコンピューティングデバイス。 - 前記センサデータは温度データ、加速度データ、時間データ、位置データ、光レベルデータ又は配向データを含む、請求項9に記載のコパイロットコンピューティングデバイス。
- 前記映像データは内部映像データ及び外部映像データを含む、請求項9に記載のコパイロットコンピューティングデバイス。
- 前記内部映像データは前記車両の内部の1人以上の乗客の捕捉された映像を含む、請求項11に記載のコパイロットコンピューティングデバイス。
- 前記1人以上の乗客の捕捉された前記映像は、赤外線光を使用することにより捕捉された映像を含む、請求項12に記載のコパイロットコンピューティングデバイス。
- 前記外部映像データは複数のステレオカメラからの前記車両の外部の捕捉された複数の映像を含む、請求項11に記載のコパイロットコンピューティングデバイス。
- 前記車両データは、前記車両のコントローラエリアネットワークバスから受信されたオドメータ情報、速度計情報、燃料計情報、エラーコード情報又は他の情報のうちの少なくとも1つを含む、請求項9に記載のコパイロットコンピューティングデバイス。
- メモリを含むコパイロットデバイスであって、前記メモリは、前記コパイロットデバイスに
車両との接続を介し受信された少なくとも映像データ、センサデータ及び車両データを含む異種の車両関連データを取得させ、
前記異種の車両関連データを単一データファイル内へ合成させ、
前記単一データファイルをコパイロット管理コンピュータへ提供させる指令を含む、コパイロットデバイスと、
前記コパイロットデバイスと通信可能に結合されたコパイロット管理コンピュータであって前記コパイロットデバイスから受信された前記単一データファイルを処理するように構成されたコパイロット管理コンピュータとを含むシステム。 - モバイルアプリケーションが設置されたクライアントデバイスをさらに含み、前記モバイルアプリケーションは、前記クライアントデバイスと前記コパイロットデバイスとの間の相互作用を可能にする、請求項16に記載のシステム。
- 前記コパイロット管理コンピュータは、トレーニング済みモデルを生成するために前記受信されたデータファイルを使用することにより機械学習アルゴリズムをトレーニングし、前記コパイロット管理コンピュータはさらに、前記トレーニング済みモデルを前記コパイロットデバイスへ提供するように構成される、請求項16に記載のシステム。
- 前記トレーニング済みモデルは、前記コパイロットデバイスに、一組の条件を検知すると1つ又は複数の車両機能を自動化させる、請求項18に記載のシステム。
- 前記一組の条件は、前記コパイロットデバイスにより収集された映像データ又はセンサデータ内に検出される、請求項19に記載のシステム。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962907533P | 2019-09-27 | 2019-09-27 | |
US62/907,533 | 2019-09-27 | ||
US17/028,751 US20210094582A1 (en) | 2019-09-27 | 2020-09-22 | After-market vehicle copilot device |
US17/028,751 | 2020-09-22 | ||
PCT/US2020/052810 WO2021062216A1 (en) | 2019-09-27 | 2020-09-25 | After-market vehicle copilot device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022549507A true JP2022549507A (ja) | 2022-11-25 |
Family
ID=75163577
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022519511A Pending JP2022549507A (ja) | 2019-09-27 | 2020-09-25 | アフターマーケット車両コパイロットデバイス |
Country Status (9)
Country | Link |
---|---|
US (1) | US20210094582A1 (ja) |
EP (1) | EP4042384A4 (ja) |
JP (1) | JP2022549507A (ja) |
KR (1) | KR20220072852A (ja) |
AU (1) | AU2020353153A1 (ja) |
CA (1) | CA3152568A1 (ja) |
MX (1) | MX2022003721A (ja) |
TW (1) | TW202127384A (ja) |
WO (1) | WO2021062216A1 (ja) |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8868288B2 (en) * | 2006-11-09 | 2014-10-21 | Smartdrive Systems, Inc. | Vehicle exception event management systems |
KR100936014B1 (ko) * | 2008-04-02 | 2010-01-11 | (주)에이직뱅크 | 카메라 일체형 차량용 영상기록 장치 |
KR20130030583A (ko) * | 2011-09-19 | 2013-03-27 | 주식회사 유비샘 | 차량용 운행정보 확인장치 및 영상 저장장치의 원격 감시제어 시스템 |
US9594725B1 (en) * | 2013-08-28 | 2017-03-14 | Lytx, Inc. | Safety score using video data but without video |
US9501878B2 (en) * | 2013-10-16 | 2016-11-22 | Smartdrive Systems, Inc. | Vehicle event playback apparatus and methods |
US10358142B2 (en) * | 2017-03-16 | 2019-07-23 | Qualcomm Incorporated | Safe driving support via automotive hub |
US10922556B2 (en) * | 2017-04-28 | 2021-02-16 | Intel Corporation | Storage system of DNN outputs for black box |
WO2018195671A1 (en) * | 2017-04-28 | 2018-11-01 | Klashwerks Inc. | In-vehicle monitoring system and devices |
-
2020
- 2020-09-22 US US17/028,751 patent/US20210094582A1/en active Pending
- 2020-09-25 KR KR1020227013518A patent/KR20220072852A/ko active Search and Examination
- 2020-09-25 TW TW109133300A patent/TW202127384A/zh unknown
- 2020-09-25 MX MX2022003721A patent/MX2022003721A/es unknown
- 2020-09-25 AU AU2020353153A patent/AU2020353153A1/en active Pending
- 2020-09-25 WO PCT/US2020/052810 patent/WO2021062216A1/en unknown
- 2020-09-25 JP JP2022519511A patent/JP2022549507A/ja active Pending
- 2020-09-25 CA CA3152568A patent/CA3152568A1/en active Pending
- 2020-09-25 EP EP20869401.8A patent/EP4042384A4/en active Pending
Also Published As
Publication number | Publication date |
---|---|
KR20220072852A (ko) | 2022-06-02 |
MX2022003721A (es) | 2022-05-10 |
US20210094582A1 (en) | 2021-04-01 |
AU2020353153A1 (en) | 2022-05-12 |
TW202127384A (zh) | 2021-07-16 |
EP4042384A4 (en) | 2023-10-11 |
WO2021062216A1 (en) | 2021-04-01 |
EP4042384A1 (en) | 2022-08-17 |
CA3152568A1 (en) | 2021-04-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220114894A1 (en) | Tracking and analysis of drivers within a fleet of vehicles | |
US11704947B2 (en) | In-vehicle sensing module for monitoring a vehicle | |
Wahlström et al. | Smartphone-based vehicle telematics: A ten-year anniversary | |
KR102315335B1 (ko) | 자율 차량들에 대해 할당된 승객들의 인식 | |
US8421864B2 (en) | Operation management device to be mounted to a moving object, portable information terminal, operation management server, and computer program | |
US10311658B2 (en) | Unexpected impulse change collision detector | |
EP2758879B1 (en) | A computing platform for development and deployment of sensor-driven vehicle telemetry applications and services | |
GB2522728A (en) | Monitoring device | |
JP7420734B2 (ja) | データ配信システム、センサデバイス及びサーバ | |
US11180082B2 (en) | Warning output device, warning output method, and warning output system | |
JP2016509763A (ja) | 車両内移動デバイス管理 | |
US20160093121A1 (en) | Driving event notification | |
JP6603506B2 (ja) | 駐車位置案内システム | |
EP4211594A1 (en) | Mobile device and system for identifying and/or classifying occupants of a vehicle and corresponding method thereof | |
US11405235B2 (en) | Modular vehicle sensing, assisting connected system | |
JP2022549507A (ja) | アフターマーケット車両コパイロットデバイス | |
CN203520470U (zh) | 影像记录装置、挂载于交通工具的支撑装置及服务系统 | |
US20230267773A1 (en) | Verifying mobile telematics with vehicle information | |
CN208861335U (zh) | 一种智能行车云记录仪 | |
Pai | Logging Data From E-Scooters To Improve Traffic Safety | |
Bogard et al. | Connected commercial vehicles-integrated truck project: data acquisition system (DAS) documentation. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230922 |