JP2021098923A - スマートヘルメットによる車両における車両感知ジェスチャ認識のシステム及び方法 - Google Patents
スマートヘルメットによる車両における車両感知ジェスチャ認識のシステム及び方法 Download PDFInfo
- Publication number
- JP2021098923A JP2021098923A JP2020212570A JP2020212570A JP2021098923A JP 2021098923 A JP2021098923 A JP 2021098923A JP 2020212570 A JP2020212570 A JP 2020212570A JP 2020212570 A JP2020212570 A JP 2020212570A JP 2021098923 A JP2021098923 A JP 2021098923A
- Authority
- JP
- Japan
- Prior art keywords
- helmet
- vehicle
- data
- imu
- processor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title description 12
- 238000005259 measurement Methods 0.000 claims abstract description 34
- 230000004044 response Effects 0.000 claims abstract description 5
- 230000003068 static effect Effects 0.000 claims description 6
- 230000009471 action Effects 0.000 claims description 4
- 230000006870 function Effects 0.000 claims description 2
- 210000003128 head Anatomy 0.000 description 14
- 230000001133 acceleration Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 6
- 239000011295 pitch Substances 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 238000004422 calculation algorithm Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- 239000000446 fuel Substances 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 230000036461 convulsion Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000004886 head movement Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 206010041349 Somnolence Diseases 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 230000001010 compromised effect Effects 0.000 description 1
- 210000004087 cornea Anatomy 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 206010025482 malaise Diseases 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000003278 mimic effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000004806 packaging method and process Methods 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000036962 time dependent Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 201000009482 yaws Diseases 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- A—HUMAN NECESSITIES
- A42—HEADWEAR
- A42B—HATS; HEAD COVERINGS
- A42B3/00—Helmets; Helmet covers ; Other protective head coverings
- A42B3/04—Parts, details or accessories of helmets
- A42B3/0406—Accessories for helmets
- A42B3/0433—Detecting, signalling or lighting devices
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/18—Stabilised platforms, e.g. by gyroscope
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07C—TIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
- G07C5/00—Registering or indicating the working of vehicles
- G07C5/008—Registering or indicating the working of vehicles communicating information to a remotely located station
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07C—TIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
- G07C5/00—Registering or indicating the working of vehicles
- G07C5/08—Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
- G07C5/0816—Indicating performance data, e.g. occurrence of a malfunction
- G07C5/0825—Indicating performance data, e.g. occurrence of a malfunction using optical means
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07C—TIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
- G07C5/00—Registering or indicating the working of vehicles
- G07C5/08—Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
- G07C5/0841—Registering performance data
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07C—TIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
- G07C5/00—Registering or indicating the working of vehicles
- G07C5/08—Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
- G07C5/0841—Registering performance data
- G07C5/085—Registering performance data using electronic data carriers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04B—TRANSMISSION
- H04B1/00—Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
- H04B1/38—Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
- H04B1/3827—Portable transceivers
- H04B1/385—Transceivers carried on the body, e.g. in helmets
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04B—TRANSMISSION
- H04B1/00—Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
- H04B1/38—Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
- H04B1/3827—Portable transceivers
- H04B1/385—Transceivers carried on the body, e.g. in helmets
- H04B2001/3866—Transceivers carried on the body, e.g. in helmets carried on the head
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/12—Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Human Computer Interaction (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Automation & Control Theory (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- User Interface Of Digital Computer (AREA)
- Traffic Control Systems (AREA)
- Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
- Helmets And Other Head Coverings (AREA)
Abstract
【課題】ヘルメットは、車両に配置された1つ又は複数のセンサから車両データを受信するように構成された送受信機と、車両のライダに対応付けられたヘルメットの運動データを収集するように構成された慣性計測ユニット(IMU)と、送受信機及びIMUと通信するプロセッサとを備える。【解決手段】プロセッサは、送受信機を介して、車両に配置された1つ又は複数のセンサからの車両データを受信し、車両に配置された1つ又は複数のセンサからの車両データと、IMUからのヘルメット運動データとに応じてジェスチャを特定し、ジェスチャに応じて、車両に関するステータスインタフェースをヘルメットのディスプレイに出力するようにプログラミングされている。【選択図】図2
Description
本開示は、モータサイクル、又は、ダートバイク、三輪車、若しくは、全地形対応車などの四輪車を含む他の車両において利用されるようなインテリジェントヘルメットに関する。
スマートヘルメットは、ヘッドマウントシースルーディスプレイに関する情報を提供するために二輪車のライダによって利用されることがある。ヘルメットは、ユーザ又はライダのために、アラート、通知及びステータス情報を重畳させながら、遮るもののない視界を提供することができる。そのような情報との対話は、没入型ユーザ体験に不可欠であり得る。現行のヘルメットは、表示要素の操作及び選択に使用される音声対話を考慮に入れている。ただし、ライダが高速で移動している間の音声対話は、比較的遅く、制限される可能性がある。多くの場合において、音声対話は、機能性に制限を課すライダインタコムによって多重化され得る。さらに、音声対話は、他の対話様式に比較して、ライダに高い認知的負荷を負わせ得る。ゆえに、音声対話を付加的な対話様式により補完することは、利点になる可能性がある。
概要
一実施形態によれば、本ヘルメットは、車両に配置された1つ又は複数のセンサから車両データを受信するように構成された送受信機と、車両のライダによって着用されたヘルメットの運動データを収集するように構成された慣性計測ユニット(IMU)と、送受信機及びIMUと通信するプロセッサとを備え、当該プロセッサは、送受信機を介して、車両に配置された1つ又は複数のセンサからの車両データを受信し、車両に配置された1つ又は複数のセンサからの車両データと、IMUからのヘルメット運動データとに応じてジェスチャを特定し、当該ジェスチャに応じて、車両に関するステータスインタフェースをヘルメットのディスプレイに出力するようにプログラミングされている。
一実施形態によれば、本ヘルメットは、車両に配置された1つ又は複数のセンサから車両データを受信するように構成された送受信機と、車両のライダによって着用されたヘルメットの運動データを収集するように構成された慣性計測ユニット(IMU)と、送受信機及びIMUと通信するプロセッサとを備え、当該プロセッサは、送受信機を介して、車両に配置された1つ又は複数のセンサからの車両データを受信し、車両に配置された1つ又は複数のセンサからの車両データと、IMUからのヘルメット運動データとに応じてジェスチャを特定し、当該ジェスチャに応じて、車両に関するステータスインタフェースをヘルメットのディスプレイに出力するようにプログラミングされている。
第2の実施形態によれば、ヘルメットと、少なくとも2つの車輪を備えた車両とを含む本システムは、車両に配置された1つ又は複数のセンサから車両データを受信するように構成されたヘルメット送受信機と、ヘルメットに対応付けられたヘルメット運動データを収集するように構成されたヘルメット慣性計測ユニット(IMU)と、車両に配置され、車両のライダを監視してライダ画像データを収集するように構成されたライダ向きカメラと、ヘルメット送受信機及びヘルメットIMUと通信するヘルメット内のプロセッサとを備える。このプロセッサは、さらに、送受信機を介して、ヘルメット送受信機からのジェスチャデータと、車両IMUからの車両運動データとを受信し、ジェスチャデータに応じてジェスチャを特定し、それを車両運動データにより補償し、ジェスチャに応じてアクションをヘルメットのディスプレイに出力するようにプログラミングされている。
第3の実施形態によれば、本ヘルメットは、車両に配置された1つ又は複数のセンサから車両データを受信するように構成された送受信機と、車両のライダに対応付けられたヘルメットのヘルメット運動データを収集するように構成された慣性計測ユニット(IMU)と、送受信機及びIMUと通信するプロセッサとを備え、当該プロセッサは、送受信機を介して、車両に配置された1つ又は複数のセンサからの車両データを受信し、車両に配置された1つ又は複数のセンサからの車両データと、IMUからのヘルメット運動データとに応じてジェスチャを特定し、ジェスチャに応じてコマンドを実行するようにプログラミングされている。
詳細な説明
本開示の実施形態は、本明細書に記載されている。しかしながら、開示された実施形態は単なる例示に過ぎず、他の実施形態においては、種々の代替形態を取ることができる点を理解されたい。図面は、必ずしも縮尺どおりではない。一部の特徴は、特定のコンポーネントの詳細を表示するために誇張又は最小化されている場合がある。従って、本明細書に開示される特定の構造的及び機能的詳細は、限定として解釈されるのではなく、むしろ、種々の実施形態の使用を当業者に教示するための単なる代表的な基礎例として解釈されるべきである。当業者には理解されるように、図面のいずれか1つを参照して示され説明された種々の特徴は、1つ又は複数の他の図面に示された特徴と組み合わせることによって、明示的に図示又は記載されていない実施形態を生成することが可能である。図示の特徴の組合せは、典型的な用途のための代表的な実施形態を提供する。ただし、本開示の教示と一致する特徴の種々の組合せ及び変更が、特定の用途又は実装のために要求される場合がある。
本開示の実施形態は、本明細書に記載されている。しかしながら、開示された実施形態は単なる例示に過ぎず、他の実施形態においては、種々の代替形態を取ることができる点を理解されたい。図面は、必ずしも縮尺どおりではない。一部の特徴は、特定のコンポーネントの詳細を表示するために誇張又は最小化されている場合がある。従って、本明細書に開示される特定の構造的及び機能的詳細は、限定として解釈されるのではなく、むしろ、種々の実施形態の使用を当業者に教示するための単なる代表的な基礎例として解釈されるべきである。当業者には理解されるように、図面のいずれか1つを参照して示され説明された種々の特徴は、1つ又は複数の他の図面に示された特徴と組み合わせることによって、明示的に図示又は記載されていない実施形態を生成することが可能である。図示の特徴の組合せは、典型的な用途のための代表的な実施形態を提供する。ただし、本開示の教示と一致する特徴の種々の組合せ及び変更が、特定の用途又は実装のために要求される場合がある。
本開示は、ヘルメット及びサドル乗車型車両に言及している。この「サドル乗車型車両」とは、典型的にはモータサイクルを指すが、典型的には運転者がサドルに着座し、典型的にはライダ保護用のキャビンがないことからヘルメットが着用される任意のタイプの自動車も含み得ることを理解されたい。これには、モータサイクル以外に、ダートバイク又はスクータなどの動力付き二輪車(PTW)も含まれる。また、これには、動力付き三輪車又は全地形対応車(ATV)などの動力付き四輪車も含まれる。特に、モータサイクル又はバイクに対する任意の言及は、特段の明記がない限り、任意の他のサドル乗車型車両にも適用可能である。
システムは、スマートヘルメットディスプレイとの対話のための、移動する二輪車(又は三輪以上の車両)上における頭部ジェスチャを認識するために利用されるものとしてよい。検出されたジェスチャは、スマートヘルメットにおける表示レイアウトの制御のために使用されるものとしてもよい。うなずき、ピッチ、ルックアップ、ヨー、及び、頭部の傾きなどの一般的な頭部ジェスチャは、スマートヘルメットとの対話に利用されるものとしてよい。従って、ライダは、このシステムの操作のために、ハンドルバーを握っている可能性のある自身の両手を利用する必要がない。モータサイクルからの運動測定値は、ライダの頭部からの運動測定値の補償のために使用するものとしてよく、従って、既存のジェスチャ認識モジュールが使用可能である。
以下の開示は、ライダに対し、頭部ジェスチャに基づくスマートヘルメットとの対話を可能にさせるシステムを説明する。このシステムは、確実なジェスチャ検出のために、スマートヘルメットのセンサをモータサイクルのセンサと共に使用する。検出されたジェスチャは、スマートヘルメットの表示レイアウトの制御のために使用される。うなずき、ピッチ、ルックアップ、ヨー、頭部の傾きなどの一般的な頭部ジェスチャが、スマートヘルメットとの対話に使用される。これらのジェスチャは、ライダが道路への注意を維持している間に実行することができる。これらの対話は、自然なものであるため、インタコムの使用中に実行することができる。
ジェスチャ認識は、視覚カメラ又はヘルメットに装着された慣性計測ユニット(IMU)のいずれかからの測定値を使用して実行されるものとしてよい。IMUは、線形加速度及び回転速度の時系列測定値を生成する。エンドツーエンド手法においては、IMUからの生の測定値に基づいてジェスチャ認識を学習することができる。ただし、車両の運動によって引き起こされる動的な状態においてジェスチャを確実に認識するために、システムは、ライダが車両の運動を体験している間にジェスチャをサンプリングする必要があることもあり得る。確実な頭部のジェスチャ認識を実行するために、システムは、車両がホイールジャーク、車両の傾きなどの運動を経験している間にジェスチャを収集する必要があることもあり得る。
以下に開示されるように、システムは、確実なジェスチャ認識を実行するためにヘルメットからのIMU測定値に加えて、モータサイクルのIMUを利用することができる。このシステムは、視覚カメラ測定によって支援されるものとしてもよい。IMU観測に基づいて推定されたモータサイクルの運動は、ヘルメットからのIMU運動を安定化させるために使用される。これにより、静止状態の間にライダにトレーニングされたジェスチャ認識は、運動条件において使用される可能性がある。一実施形態においては、カメラからの視覚的測定値を利用しない場合であっても、同様の取り組みは、カメラなどの付加的センサを使用することによって拡張することができる。
図1は、スマートヘルメット101及びモータサイクル103を含むシステム設計100の例である。スマートヘルメット101及びモータサイクル103は、互いに対話する種々のコンポーネント及びセンサを含み得る。スマートヘルメット101は、運転者の身体及び頭部の運動に関するデータの収集に焦点を合わせることができる。一例においては、スマートヘルメット101は、カメラ102を含み得る。ヘルメット101のカメラ102は、移動する車両における位置及び方向性の認識に利用される一次センサを含み得る。従って、このカメラ102は、ライダを取り巻く他の車両及び対象物を追跡するためにヘルメット101の外側に向けることができる。カメラ102は、そのような対象物及び車両の動特性をキャプチャすることが困難である場合がある。他の例においては、ヘルメット101は、カメラ102に加えて、又は、カメラ102の代わりに、レーダ又はLIDARセンサを含むこともあり得る。
ヘルメット101は、ヘルメット慣性計測ユニット(IMU)104も含み得る。このヘルメットIMU104は、ライダの頭部の高い動的運動を追跡するために利用されるものとしてよい。従って、ヘルメットIMU104は、ライダが向いている方向又はライダが見ている方向を追跡するために利用することができる。付加的に、ヘルメットIMU104は、突発的な運動及び起こり得る他の運動を追跡するために利用することができる。IMUは、1つ又は複数のモーションセンサを含み得る。
慣性計測ユニット(IMU)は、加速度計及びジャイロスコープの組合せを使用し、時には磁力計も使用して、身体の特定の力、角速度、及び、時には地球の磁場も測定して報告することができる。IMUは、典型的には、数あるなかで、無人航空機(UAV)を含めた航空機や、衛星及び着陸船を含む宇宙船の操縦のために使用される。IMUは、種々の車両システムにおいて使用される慣性航法システムのコンポーネントとして利用されるものとしてもよい。IMUのセンサから収集されたデータは、コンピュータにモータ位置の追跡を可能にさせることができる。
IMUは、1つ又は複数の軸を使用して現在の加速度を検出することによって動作し、1つ又は複数の軸を使用してピッチ、ロール及びヨーなどの回転属性の変化を検出することができる。典型的なIMUは、磁力計も含み、この磁力計は、地球の磁場測定を使用することによって方向性ドリフトに対する較正を支援するために使用されるものとしてもよい。慣性航法システムは、(位置変更用に)角度及び線形加速度計を有するIMUを含む。一部のIMUは、(絶対角度基準の維持のために)ジャイロスコープ要素を含む。角速度計は、車両が空間内においてどのように回転しているかを測定している。ピッチ(鼻の上下)、ヨー(鼻の左右)及びロール(コックピットからの時計回り又は反時計回り)の3つの軸の各々には、少なくとも1つのセンサが存在し得る。線形加速度計は、車両の非重力加速度を測定することができる。車両は3つの軸(上下、左右、前後)における運動の可能性があるため、各軸に対して線形加速度計が存在する場合がある。3つのジャイロスコープは、一般に同様の直交パターンにより共通に配置され、任意に選択された座標系を参照して回転位置を測定する。コンピュータは、車両の現在位置を継続的に計算することができる。コンピュータは、6つの自由度(x,y,z、及び、Ox,Oy,Oz)の各々について、現在の速度を計算するために、感知された加速度を重力の推定値と共に時間にわたって積分することができる。コンピュータは、現在の位置を計算するために速度を積分することもできる。IMUによって提供される測定値の一部は、以下のとおりである。
は、IMUからIMUの本体フレームへの生の測定値である。αW,ωBは、推定される適正な加速度とジャイロスコープの速度測定値である。ba,bgは、加速度計とジャイロスコープのバイアスオフセットである。ηa,ηgは、加速度計とジャイロスコープのノイズである。
ヘルメット101は、アイトラッカ106も含み得る。このアイトラッカ106は、モータサイクル103のライダが見ている位置の方向を特定するために利用されるものとしてよい。アイトラッカ106は、眠気及び倦怠感又はPTWのライダを識別するために利用されるものとしてもよい。アイトラッカ106は、ユーザがどこを見ているかを特定するために、目の種々の部分(例えば、網膜、角膜など)を識別することができる。アイトラッカ106は、ライダの眼球運動の追跡を支援するためにカメラ又は他のセンサを含み得る。
ヘルメット101は、ヘルメットプロセッサ108も含み得る。このヘルメットプロセッサ108は、モータサイクル103及びヘルメット101の両方の種々のカメラ及びセンサによって収集されたデータのセンサ融合のために利用されるものとしてよい。他の実施形態においては、ヘルメットは、短距離通信及び長距離通信のために利用される1つ又は複数の送受信機を含み得る。ヘルメットの短距離通信は、モータサイクル103又は近傍の他の車両及び対象物との通信を含み得る。他の実施形態においては、長距離通信は、オフボードサーバ、インタネット、「クラウド」、セルラ通信などとの通信を含み得る。ヘルメット101及びモータサイクル103は、ヘルメット101及びモータサイクル103の両方に配置された送受信機によって実装される無線プロトコルを利用して相互に通信することができる。そのようなプロトコルは、Bluetooth(登録商標)、Wi−Fiなどを含み得る。ヘルメット101は、ヘルメット101のバイザにグラフィック画像を出力するために利用されるヘッドアップディスプレイ(HUD)も含み得る。
モータサイクル103は、前方向きカメラ105を含み得る。この前方向きカメラ105は、モータサイクル103のヘッドランプ又は他の類似の領域に配置されるものとしてよい。前方向きカメラ105は、PTWがどこに向かっているかを識別することの支援のために利用されるものとしてよい。さらに、前方向きカメラ105は、モータサイクル103の前方の種々の対象物又は車両を識別することができる。従って、前方向きカメラ105は、インテリジェントクルーズコントロール又は衝突検出システムなどの種々の安全システムを支援することができる。
モータサイクル103は、バイクIMU107を含み得る。このバイクIMU107は、PTWのヘッドライト又は他の類似の領域に装着されるものとしてよい。バイクIMU107は、バイクの運動の理解のために利用することができる慣性データを収集することができる。バイクIMU107は、典型的には3つの直交軸にある多軸加速度計を有している。同様に、バイクIMU107は、多軸ジャイロスコープも含み得る。
モータサイクル103は、ライダカメラ109を含み得る。このライダカメラ109は、モータサイクル103のライダの追跡を維持するために利用されるものとしてよい。ライダカメラ109は、モータサイクルのハンドルバーに沿った種々の位置に又はライダに面する他の位置に取り付けられるものとしてよい。ライダカメラ109は、ライダの画像又はビデオをキャプチャするために利用されるものとしてもよく、これらは、順次、ライダの種々の身体部分又は運動の識別などの種々の計算のために利用される。ライダカメラ109は、ライダの目に焦点を合わせるために利用されるものとしてもよい。このように、視線の動きは、ライダがどこを見ているかを見出すために特定されるものとしてもよい。
モータサイクル103は、電子制御ユニット111を含み得る。ECU111は、モータサイクルのセンサによって収集されたデータ、及び、ヘルメットのセンサによって収集されたデータを処理するために利用されるものとしてよい。ECU111は、種々の位置を処理及び計算し又は対象物認識を行うために、種々のIMU及びカメラから受信したデータを利用することができる。ECU111は、ライダカメラ109及び前方向きカメラ105と通信するものとしてよい。例えば、IMUからのデータは、基準点に対して相対的な位置及び方向性を識別するために、EUC111に供給されるものとしてもよい。画像データをそのような計算と組み合わせる場合には、バイクの運動を、ライダが向いている方向や焦点を合わせている方向を識別するために利用することができる。バイクの前方向きカメラとヘルメットのカメラの両方からの画像データは、バイクとライダの頭部との間の相対的な方向性を特定するために比較される。画像比較は、両方のカメラ(例えば、ライダカメラ109及び前方向きカメラ105)から抽出されたまばらな特徴に基づいて実行することができる。モータサイクル103は、ECUを支援するためのバイク中央処理ユニット113を含み得る。従って、システムは、ライダの注意、姿勢、位置、方向性、接触(例えば、ハンドルバーのグリップ)、ライダスリップ(例えば、ライダとシートとの間の接触)、ライダと車両との関係、及び、ライダと世界との関係を継続的に監視することができる。
図2は、スマートヘルメット上におけるジェスチャ対話のためのシステムのブロック図を示している。ジェスチャ認識システムの確実性を改善し、車両の運動を補償するために、このシステムは、バイクIMU203からの測定値を使用することができる。ただし、モータサイクルに装着されたモータサイクルIMU203からの測定値(z¬B(tB))(例えば、ある時点におけるバイクの乗車運動)、及び、ヘルメットに装着されたIMUからの測定値(zH(tH))(例えば、ある時点におけるヘルメットの乗車運動)は、異なるクロックドメインを有するデバイス上の異なるタイムインスタンスにおいてキャプチャされている。従って、同期ブロックにおいては、クロックドメイン同期の実行のために、ヘルメット及びモータサイクルから受信したタイムスタンプデータが比較される。同期の結果を利用して、モータサイクル(例えば、バイクIMU)からのIMU測定値は、ヘルメットクロックドメインにタイムシフトさせるものとしてもよい。同期ブロックの出力は、ヘルメット及びモータサイクルからの時系列同期運動データ(IMU測定値)であるものとしてもよい。
同期ブロック205は、画像データ及び他のセンサデータを含めて、ジェスチャの識別を支援するために収集されている総てのデータを同期するために利用されるソフトウェアを含み得る。この同期ブロック205は、ヘルメットIMU201及びバイクIMU203から運動データを収集することができるだけでなく、モータサイクル又はヘルメットに配置されたカメラから収集された画像データを利用することもできる。従って、カメラデータ(例えば、画像データ)は、ジェスチャが行われているかどうかの識別を支援するために利用されるものとしてもよい。例えば、カメラは、通常の乗車期間中にライダの定常状態位置を監視することができるが、ライダのヘルメットが或る仕方により上下したときを理解するための検出メカニズムを含み得る。
ヘルメットのIMU(例えば、ヘルメットIMU201)からの測定された加速度及び回転速度は、車両運動の影響を除去することによって補償される必要もあり得る。例えば、システムは、ユーザがジェスチャを提供しているときを理解するために、そしてジェスチャと、道路の凹凸や乗車中に自然発生するその他のものに応じて発生した頭部運動とを区別するために、乗車環境を理解する必要があり得る。システムは、モータサイクル(例えば、バイクIMU、バイクカメラなど203)からの時間同期された測定値を使用することによって、車両運動の影響を除去することができる。時間同期ブロックは、ジェスチャに対して車両環境によって引き起こされた相関関係があるかどうかを見るために、特定の時点においてヘルメット及びモータサイクルからのデータを比較することができる。車両とヘルメットIMUとの間の相対的な形状保存変換(THB(t))は、モータサイクルIMUからの測定値をヘルメットIMUの座標フレームに変換するために使用される。変換された値は、補償されたヘルメット測定値(zc(t))を推定するために減算されるものとしてよい。形状保存変換は、時間に依存し、継続的に推定される必要がある。非線形フィルタが、ヘルメットの予測ポーズと、統合されたヘルメットIMU測定値によって観察されたポーズとの間の誤差を最小化するために利用されるものとしてよい。ヘルメット予測ポーズは、人間の骨格に基づくモデルを使用して導出される。非線形フィルタの結果は、相対変換THB(t)である。
ジェスチャ認識器209は、ジェスチャ認識のためのソフトウェアを含み得る。このジェスチャ認識は、ウィンドウw,z¬¬c(tH−w:tH+w)にわたって現行の補償されたヘルメットIMU測定シーケンスを、各ジェスチャのヘルメットIMU運動シーケンスのデータベースと比較することによって実行することができる。このウィンドウは、設定された期間枠にわたる種々の時点からのデータポイントを比較するための期間であるものとしてもよい。うなずき、ヨー、ルックアップ、チルト、ピッチ、静止ジェスチャなどの種々のジェスチャは、静的環境において事前にトレーニングすることができる。従って、システムは、モータサイクルが静的環境にあるときの指標(baseline)として記録されたIMUデータに対するそのようなジェスチャ(うなずき、ヨー、ルックアップ、傾き、ピッチ、静止ジェスチャ)を模倣するようにユーザに問い合わせる学習モードを起動させる選択肢を含み得る。各ジェスチャは、異なる内部表現を使用して符号化されるものとしてもよい。従って、ジェスチャの各々は、各ジェスチャに対応付けられた期間にわたって対応付けられたIMU測定値を有することができる。ジェスチャ認識器は、実行時にジェスチャの各クラスに関する蓋然性を提供することができる。ベイジアン学習、ディープラーニング又はその他の学習アプローチを、学習済みのジェスチャ認識器モデルの作成のために使用することができる。対応付けられた蓋然性としてジェスチャを検出及び識別するこのモデルにより推論を行うことができる。蓋然性が最も高いクラスが出力として選択される。出力は、各ジェスチャに対応付けられているアクションを命令することができる。例えば、左に傾けること又は右に傾けることが、ターンシグナル(方向指示器)の起動に対応付けられるものとしてもよい。ヘルメットは、そのようなデータを無線でモータサイクルに送信して、コマンドの開始をモータサイクルに要求することができる。ノイズの低減と外れ値の検出を実行するために、検出器出力の履歴に基づくフィルタが使用される。
イベントマネージャ211は、ライダのジェスチャ認識ブロックからの出力をバイクECU213からの情報と同期させることができる。バイクECU213は、モータサイクルの異なる部分からのメッセージを集約するために、並びに、バイクの他のセンサからのデータ及びその他の情報を収集するために利用されるものとしてよい。イベントマネージャは、ライダに表示される又は音声出力を使用して提供される通知、アラート及び車両情報のためのトリガメッセージを含み得る。イベントマネージャ211は、遷移がECUからのトリガメッセージ及び認識されたジェスチャによって特定される有限状態機械を使用することができる。従って、異なるジェスチャは、バイク、ヘルメット又はオフボードサーバからのイベントマネージャから取り出されたメッセージに基づいてタイミングを計るものとしてもよい。従って、ヘルメットからのうなずきのジェスチャには、低燃料警告が存在する場合と、モータサイクルがクルーズコントロールを利用している場合とでは、異なる出力コマンドが含まれる場合がある。同様に、ライダがインタコムを使用している場合には、他の条件ではオーディオ/音楽の再生に使用される可能性があるジェスチャ操作を、インタコムの制御に使用することができる。
イベントマネージャ211は、ディスプレイコントローラ215を駆動又は操作することができる。このディスプレイコントローラ215は、異なる情報のレイアウトに関する情報を含み得る。例えば、ディスプレイコントローラ215は、いかなるステータス情報がヘルメットディスプレイに表示されるかを決定することができ、さらに、いかなる方法によって、それが提供されなければならないかを決定することもできる。さらに、ディスプレイコントローラ215は、スマートヘルメットディスプレイに表示されるグラフィカルユーザインタフェース(GUI)要素及びアニメーションを記憶することもできる。コントロール及びナビゲーションGUI要素は、ジェスチャ認識器からの入力に基づいて変更されるものとしてよい。例えば、スマートヘルメットを利用した左右のうなずきは、例えば、スマートヘルメットに表示されているナビゲーション表示画面を変更したり、オーディオモードからナビゲーションモードへモードを変更したりすることができる。ディスプレイコントローラ215は、ジェスチャを利用して変更することができる異なる乗車シナリオのためのレイアウトのプロファイルも含み得る。例えば、レイアウトは、オーディオ画面、ハンズフリー通信、車両情報(例えば、速度、エンジン回転数、タイヤ空気圧、温度、燃費、燃料走行距離、燃料レベルなど)、ナビゲーション情報などのためのインタフェースを含み得る。
スマートヘルメットディスプレイ217は、HUD上にオブジェクトを出力するために利用されるものとしてよい。ヘルメットは、前面向きカメラ、背面向きカメラ、加速度計、揮発性メモリ、不揮発性メモリ、電源、データコネクタ、HUD、グローバルポジショニングシステム(GPS)、プロセッサ、ネットワーク送受信機、Bluetooth(登録商標)送受信機などを含み得るが、これらに限定されるものではない。一実施形態においては、電子コンポーネントは、車両計器情報の表示、緊急手順の自動実行(例えば、EMSの呼び出し)、衝突事前警告の提示、センサ情報(例えば、IMUデータ)の記録などを含むがこれらに限定されない種々のタスクの実行のために協働する。スマートディスプレイ217は、ライダが選択された視点から目をそらす必要なしにデータを提示することができる透明ディスプレイであり得るHUDを含み得る。スマートディスプレイ217は、バイザ(例えば、埋め込みディスプレイ)内に提示することができ、ヘルメット近傍のディスプレイ内などに提示することができる。ディスプレイ217技術は、液晶ディスプレイ(LCD)、エルコス(Liquid crystal on silicon;LCoS、登録商標)、デジタルマイクロミラー(DMD)、有機発光ダイオード(OLED)、光導波路、走査レーザなどを含み得る。ディスプレイ217は、関連情報をリアルタイム又はほぼリアルタイムで提示することができる。
図3は、ジェスチャ認識を可能にするスマートヘルメットの例示的なフローチャートである。ステップ301においては、システムは、ヘルメットデータとバイクデータの両方を収集することができる。そのようなデータは、ヘルメットからのIMU及び画像データ、並びに、モータサイクル又は動力付き二輪車からのIMU及び画像データを含み得る。システムは、後でデータを利用してジェスチャがユーザによって命令されたものかどうかを特定したり、又は、ジェスチャを識別するためにどのようにモータサイクルの運動を補償するかを特定したりするために、データを集約することができる。従って、システムにとっては、道路状況又はモータサイクルの運動がヘルメットのジャーク振動や他の突発的な運動を引き起こす場合における偶発的な状況の間のジェスチャの識別は、回避することが望ましい。説明したように、モータサイクルのIMUによって収集されたモータサイクルの運動データ及び/又は画像データは、バイクの運動を補償するために利用されるものとしてよい。
ステップ303においては、システムは、種々のセンサ、カメラ及び他のコンポーネントから収集されたヘルメットデータ及びモータサイクルデータを分析することができる。このシステムは、リモートサーバ(例えば、クラウドなど)においてオフラインにより、ヘルメットにおいてヘルメットのプロセッサを介して、又は、モータサイクルにおいてモータサイクルのプロセッサを介して、データを分析することができる。そこから、システムは、ユーザがコマンド又はアクションを活性化するジェスチャの形成を意図的に試みたかどうかを特定するために、ヘルメットとモータサイクルの両方の運動データを収集することができる。この分析は、図2に関して上記で論じたように、車両の運動のための補償を含み得る。
ステップ305においては、システムは、ジェスチャが認識されたかどうかを特定することができる。従って、運動は、指標(baseline)ジェスチャ測定値と一致し若しくは一致に近づき、又は、ジェスチャとして識別される運動閾値を超えることがある。システムは、ヘルメットIMUに基づく各ジェスチャの指標測定値を含み得る。システムは、ジェスチャと比較することができる画像を利用してジェスチャの識別を支援するために、モータサイクル又はヘルメットからのカメラデータも利用することができる。システムは、さらに、IMUによって示されるような、モータサイクルからのあらゆる運動を補償することができる。
ステップ307においては、システムは、ジェスチャ及びジェスチャに関連して対応付けられたコマンドを識別することができる。システムは、各ジェスチャに関連して対応付けられた各コマンドを記憶するルックアップテーブルを有することができる。例えば、頭部を右に傾けると右ターンシグナル(方向指示器)を起動させることができ、頭部を左に傾けると左ターンシグナルを起動させることができる。ルックアップテーブルは、どのコマンドをどのコントローラに送信する必要があるかに関する情報を含み得る。さらに、ルックアップテーブルは、スマートディスプレイの表示インタフェースに基づいて、異なるジェスチャに対して異なるコマンドをマッピングすることもできる。例えば、オーディオモード中の頭部のうなずきは、トラックを変更させることができるが、ハンズフリー会話中の頭部のうなずきは、呼び出し音量を変更させることができる。
次いで、ステップ309においては、システムは、ジェスチャに対応付けられたコマンドを出力することができる。このコマンドには、プロセッサがジェスチャに関連するコマンドを実行した後に追従して表示される、スマートヘルメットのディスプレイの任意の関連情報が含まれる。コマンドは、車両のヘルメット又はモータサイクル自体の機能に関連し得る。さらに、コマンドは、ヘルメット、バイク、オフボードサーバ、他のバイクなどの間において交換される無線データ又はその他の情報を要求することができる。情報は、コマンドの実行を識別するために、又は、ステータスを更新するために、モータサイクルのメータパネルに表示されるものとしてもよい。
本明細書に開示されるプロセス、方法又はアルゴリズムは、任意の既存のプログラミング可能な電子制御ユニット又は専用の電子制御ユニットを含み得る処理デバイス、コントローラ又はコンピュータに配信可能/実装可能である。同様に、これらのプロセス、方法又はアルゴリズムは、ROMデバイスなどの書込み不可能な記憶媒体に永続的に記憶された情報、並びに、フレキシブルディスク、磁気テープ、CD、RAMデバイス、その他の磁気的及び光学的媒体などの書込み可能な記憶媒体に変更可能に記憶された情報を含むがこれらには限定されない多くの形式において、コントローラ又はコンピュータによって実行可能なデータ及び命令として記憶することができる。これらのプロセス、方法又はアルゴリズムは、ソフトウェアにより実行可能なオブジェクトに実装することも可能である。代替的に、これらのプロセス、方法又はアルゴリズムは、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、ステートマシン、コントローラ又はその他のハードウェアコンポーネント若しくはデバイスなどの適当なハードウェアコンポーネント、又は、ハードウェア、ソフトウェア及びファームウェアコンポーネントの組合せを使用して、全体的又は部分的に実施することができる。
上記においては、例示的な実施形態が説明されているが、これは、特許請求の範囲によって包含される総ての可能な形態をこれらの実施形態によって説明することを意図したものではない。本明細書において使用されている用語は、限定ではなく説明の用語であり、本開示の精神及び範囲から逸脱することなく、種々の変更を行うことが可能である点を理解されたい。前述のように、種々の実施形態の特徴は、明示的に記載又は図示されていない可能性のある本発明のさらなる実施形態の形成のために組み合わせることができる。種々の実施形態は、1つ又は複数の所望の特性に関して、他の実施形態又は従来技術の態様よりも利点を提供するもの又は好ましいものとして説明され得るものであるが、当業者には、特定の用途及び実装に依存する望ましい全体的なシステム属性の達成のために、1つ若しくは複数の特徴又は特性を妥協して処理し得ることは、認識される。これらの属性には、コスト、強度、耐久性、ライフサイクルコスト、市場性、外観、パッケージング、サイズ、保守性、重量、製造可能性、組立ての容易さなどを含めることができるが、これらに限定されるものではない。このように、任意の実施形態が、1つ又は複数の特性に関しては、他の実施形態又は従来の実施形態よりも望ましくないと説明される程度においては、これらの実施形態は、本開示の範囲を外れることはなく、特定の用途にとっては望ましい可能性も残されている。
Claims (20)
- ヘルメットであって、
車両に配置された1つ又は複数のセンサから車両データを受信するように構成された送受信機と、
前記車両のライダに対応付けられた前記ヘルメットの運動データを収集するように構成された慣性計測ユニット(IMU)と、
前記送受信機及び前記IMUと通信するプロセッサと、
を備え、
前記プロセッサは、
前記送受信機を介して、前記車両に配置された前記1つ又は複数のセンサからの前記車両データを受信し、
前記車両に配置された前記1つ又は複数のセンサからの前記車両データと、前記IMUからの前記ヘルメット運動データとに応じてジェスチャを特定し、
前記ジェスチャに応じて前記車両に関するステータスインタフェースを前記ヘルメットのディスプレイに出力する
ようにプログラミングされている、
ヘルメット。 - 前記車両データ及び前記ヘルメット運動データは、前記車両データ又は前記ヘルメット運動データがいつ収集されたかを識別するタイムスタンプをそれぞれ含む、
請求項1に記載のヘルメット。 - 前記ヘルメットは、前記車両のライダの視標追跡データを収集するように構成された視標追跡ユニットをさらに含む、
請求項1に記載のヘルメット。 - 前記プロセッサは、少なくとも前記車両データを利用して前記ヘルメット運動データを補償するようにさらにプログラミングされている、
請求項1に記載のヘルメット。 - 前記プロセッサは、前記車両データ及び前記ヘルメット運動データからのタイムスタンプを利用して補償するようにさらにプログラミングされている、
請求項5に記載のヘルメット。 - 前記プロセッサは、うなずき、ヨー、ルックアップ、傾き、又は、ピッチに応じて、前記ジェスチャを特定するようにさらに構成されている、
請求項1に記載のヘルメット。 - 前記ヘルメットは、前記ヘルメットのバイザにグラフィック画像を出力するように構成されたヘッドアップディスプレイを含む、
請求項1に記載のヘルメット。 - 前記車両は、モータサイクル又は動力付き二輪ユニットである、
請求項1に記載のヘルメット。 - ヘルメットと、少なくとも2つの車輪を備えた車両とを含むシステムであって、
前記車両に配置された1つ又は複数のセンサから車両データを受信するように構成されたヘルメット送受信機と、
前記ヘルメットに対応付けられたヘルメット運動データを収集するように構成されたヘルメット慣性計測ユニット(IMU)と、
前記車両に配置され、前記車両のライダを監視してライダ画像データを収集するように構成されたライダ向きカメラと、
前記ヘルメット送受信機及び前記ヘルメットIMUと通信する前記ヘルメット内のプロセッサと、
を備え、
前記プロセッサは、
前記送受信機を介して、前記ヘルメット送受信機からのジェスチャデータと、車両IMUからの車両運動データとを受信し、
前記ジェスチャデータに応じてジェスチャを特定し、前記ヘルメット運動データを前記車両データにより補償し、
前記ジェスチャに応じてアクションを前記ヘルメットのディスプレイに出力する
ようにプログラミングされている、
システム。 - 前記ヘルメット内の前記プロセッサは、前記車両が動作していないときに静的な車両環境内において1つ又は複数のジェスチャを識別するための学習モードを起動させるようにさらにプログラミングされている、
請求項9に記載のシステム。 - 前記ヘルメットの前記ディスプレイは、前記ヘルメットのバイザにグラフィック画像を出力するように構成されたヘッドアップディスプレイを含む、
請求項11に記載のシステム。 - 前記車両は、モータサイクル又は動力付き二輪ユニットである、
請求項11に記載のシステム。 - 前記プロセッサは、少なくともライダ画像データを利用して前記ジェスチャを特定するようにさらに構成されている、
請求項11に記載のシステム。 - 前記車両データは、車両慣性計測ユニットから収集された車両運動データを含む、
請求項11に記載のシステム。 - ヘルメットであって、
車両に配置された1つ又は複数のセンサから車両データを受信するように構成された送受信機と、
前記車両のライダに対応付けられた前記ヘルメットのヘルメット運動データを収集するように構成された慣性計測ユニット(IMU)と、
前記送受信機及び前記IMUと通信するプロセッサと、
を備え、
前記プロセッサは、
前記送受信機を介して、前記車両に配置された前記1つ又は複数のセンサからの前記車両データを受信し、
前記車両に配置された前記1つ又は複数のセンサからの前記車両データと、前記IMUからの前記ヘルメット運動データとに応じてジェスチャを特定し、
前記ジェスチャに応じてコマンドを実行する
ようにプログラミングされている、
ヘルメット。 - 前記プロセッサは、前記ジェスチャに応じて前記車両のステータスを前記ヘルメットのディスプレイに出力するようにさらにプログラミングされている、
請求項16に記載のヘルメット。 - 前記モータサイクルは、前記ライダ近傍の画像データを収集するように構成されたライダ向きカメラを含む、
請求項16に記載のヘルメット。 - 前記プロセッサは、前記車両における機能を活性化するコマンドを実行するようにさらにプログラミングされている、
請求項16に記載のヘルメット。 - 前記プロセッサは、前記送受信機を介して前記車両にコマンドを送信するようにさらにプログラミングされている、
請求項17に記載のヘルメット。 - 前記プロセッサは、前記車両が動作していないときに静的な車両環境内において1つ又は複数のジェスチャを識別するための学習モードを起動させるようにさらにプログラミングされている、
請求項17に記載のヘルメット。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/725,170 | 2019-12-23 | ||
US16/725,170 US11500470B2 (en) | 2019-12-23 | 2019-12-23 | System and method of vehicle aware gesture recognition in vehicles with smart helmets |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021098923A true JP2021098923A (ja) | 2021-07-01 |
Family
ID=76205936
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020212570A Pending JP2021098923A (ja) | 2019-12-23 | 2020-12-22 | スマートヘルメットによる車両における車両感知ジェスチャ認識のシステム及び方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11500470B2 (ja) |
JP (1) | JP2021098923A (ja) |
CN (1) | CN113080560A (ja) |
DE (1) | DE102020215630B4 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3839811B1 (en) * | 2019-12-18 | 2024-03-13 | Tata Consultancy Services Limited | Systems and methods for shapelet decomposition based gesture recognition using radar |
CN116142364B (zh) * | 2023-02-17 | 2024-07-12 | 昆明理工大学 | 一个电动自行车转弯防滑预警系统 |
CN117441980B (zh) * | 2023-12-20 | 2024-03-22 | 武汉纺织大学 | 一种基于多传感信息智能计算的智能头盔系统及方法 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9370302B2 (en) | 2014-07-08 | 2016-06-21 | Wesley W. O. Krueger | System and method for the measurement of vestibulo-ocular reflex to improve human performance in an occupational environment |
KR101518904B1 (ko) | 2013-09-23 | 2015-05-11 | 현대자동차 주식회사 | 차량용 조작 장치 |
US10086894B2 (en) | 2015-09-08 | 2018-10-02 | Brake Free Technologies | Safety device |
WO2018006332A1 (zh) * | 2016-07-07 | 2018-01-11 | 深圳企管加企业服务有限公司 | 一种基于移动终端的智能门禁管理方法及系统 |
US10482669B2 (en) * | 2016-09-23 | 2019-11-19 | Apple Inc. | Augmented virtual display |
US10186065B2 (en) * | 2016-10-01 | 2019-01-22 | Intel Corporation | Technologies for motion-compensated virtual reality |
CN108572719A (zh) | 2017-03-13 | 2018-09-25 | 北京杜朗自动化系统技术有限公司 | 利用体态识别的智能头盔控制方法及系统 |
WO2019191313A1 (en) * | 2018-03-27 | 2019-10-03 | Nvidia Corporation | Remote operation of vehicles using immersive virtual reality environments |
US10867218B2 (en) * | 2018-04-26 | 2020-12-15 | Lear Corporation | Biometric sensor fusion to classify vehicle passenger state |
US10665067B2 (en) * | 2018-06-15 | 2020-05-26 | Immersion Corporation | Systems and methods for integrating haptics overlay in augmented reality |
US10904434B2 (en) * | 2018-09-28 | 2021-01-26 | Bounce Imaging, Inc. | Panoramic camera and image processing systems and methods |
US11595878B2 (en) * | 2018-10-24 | 2023-02-28 | Google Llc | Systems, devices, and methods for controlling operation of wearable displays during vehicle operation |
US11102654B2 (en) * | 2018-11-01 | 2021-08-24 | Polaris Industries Inc. | Connected helmet system and method of operating the same |
US11638130B2 (en) * | 2018-12-21 | 2023-04-25 | Qualcomm Incorporated | Rendering of sounds associated with selected target objects external to a device |
-
2019
- 2019-12-23 US US16/725,170 patent/US11500470B2/en active Active
-
2020
- 2020-12-10 DE DE102020215630.1A patent/DE102020215630B4/de active Active
- 2020-12-22 JP JP2020212570A patent/JP2021098923A/ja active Pending
- 2020-12-22 CN CN202011524131.1A patent/CN113080560A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
CN113080560A (zh) | 2021-07-09 |
DE102020215630B4 (de) | 2024-06-06 |
US11500470B2 (en) | 2022-11-15 |
DE102020215630A1 (de) | 2021-06-24 |
US20210191518A1 (en) | 2021-06-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11127373B2 (en) | Augmented reality wearable system for vehicle occupants | |
JP2021098923A (ja) | スマートヘルメットによる車両における車両感知ジェスチャ認識のシステム及び方法 | |
US9001153B2 (en) | System and apparatus for augmented reality display and controls | |
US11232769B2 (en) | Image display system, information processing apparatus, information processing method, program, and mobile object | |
US20210195981A1 (en) | System and method for monitoring a cognitive state of a rider of a vehicle | |
JP6690179B2 (ja) | 挙動推定システム、及び挙動推定方法 | |
JP5327025B2 (ja) | 車両用走行案内装置、車両用走行案内方法及びコンピュータプログラム | |
US10839623B2 (en) | Vehicle, image display device, vehicle control method, and image display method | |
US11110933B2 (en) | Driving support device, wearable device, driving support system, driving support method, and computer-readable recording medium | |
US11151775B2 (en) | Image processing apparatus, display system, computer readable recoring medium, and image processing method | |
US11605222B2 (en) | Apparatus and system related to an intelligent helmet | |
CN110023141A (zh) | 用于在车辆转弯时调整虚拟相机的朝向的方法和系统 | |
US20240112429A1 (en) | Personal vehicle linear sensor data for ar odometry sensor fusion | |
US20240346784A1 (en) | Augmented reality display of available personal mobility devices | |
US11393196B2 (en) | Line of sight assistance device and method | |
JP2021107607A (ja) | スマートヘルメット用ディスプレイの移動較正 | |
CN112513784B (zh) | 自动隐藏显示内容的、用于车辆的数据眼镜 | |
EP4155151A1 (en) | System and method for intent monitoring of other road actors | |
WO2023122459A1 (en) | An odometry using sensor data from a personal vehicle | |
WO2023129812A1 (en) | Augmented reality (ar) - enhanced detection and localization of a personal mobility device | |
CN115065818A (zh) | 一种抬头显示系统的投影方法和装置 | |
KR20170082757A (ko) | 차량, 웨어러블 장치, 및 신호등 정보 제공 방법 | |
EP4453694A1 (en) | An odometry using sensor data from a personal vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210326 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231011 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240604 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20240903 |