JP2022526216A - 最周辺部における視覚による運動知覚の補助 - Google Patents

最周辺部における視覚による運動知覚の補助 Download PDF

Info

Publication number
JP2022526216A
JP2022526216A JP2021547338A JP2021547338A JP2022526216A JP 2022526216 A JP2022526216 A JP 2022526216A JP 2021547338 A JP2021547338 A JP 2021547338A JP 2021547338 A JP2021547338 A JP 2021547338A JP 2022526216 A JP2022526216 A JP 2022526216A
Authority
JP
Japan
Prior art keywords
user
time
auditory
auditory stimulus
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021547338A
Other languages
English (en)
Inventor
チャンギージー マーク
翔 末神
信輔 下條
シー ベルガー クリストファー
ウー ドウ-アン
博文 望月
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Motor Co Ltd
California Institute of Technology CalTech
Original Assignee
Yamaha Motor Co Ltd
California Institute of Technology CalTech
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Motor Co Ltd, California Institute of Technology CalTech filed Critical Yamaha Motor Co Ltd
Publication of JP2022526216A publication Critical patent/JP2022526216A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q9/00Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
    • B60Q9/008Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling for anti-collision purposes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/029Location-based management or tracking services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/38Services specially adapted for particular environments, situations or purposes for collecting sensor information
    • AHUMAN NECESSITIES
    • A42HEADWEAR
    • A42BHATS; HEAD COVERINGS
    • A42B3/00Helmets; Helmet covers ; Other protective head coverings
    • A42B3/04Parts, details or accessories of helmets
    • A42B3/0406Accessories for helmets
    • A42B3/0433Detecting, signalling or lighting devices
    • A42B3/046Means for detecting hazards or accidents
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2499/00Aspects covered by H04R or H04S not otherwise provided for in their subgroups
    • H04R2499/10General applications
    • H04R2499/13Acoustic transducers and sound field adaptation in vehicles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field

Abstract

本明細書で開示されるのは、周辺部(例えば、遠周辺部、または最周辺部)における人間の視覚による運動知覚を向上させるための、または例えば、下降ピッチを有する少なくとも1つの聴覚刺激を使用してユーザの安全性を向上させるための、システム、デバイス、コンピュータ可読媒体、および方法を含む。

Description

本数は2019年3月29日に出願された米国仮特許数第62/826,540号、2019年7月29日に出願された米国仮特許数第62/879,971号、および2019年7月30日に出願された米国仮特許数第62/880,557号に対する優先権の利益を主張し、これらの各々の含有量は、その全体が参照により本明細書に組み込まれる。
本開示は概して、視覚運動知覚を補助する分野に関し、より詳細には、遠方周辺および極端な周辺などの周辺における視覚運動知覚を補助することに関する。
同時聴覚刺激は、中心窩よりも末梢での視覚運動知覚を偏らせる可能性がある。視覚の信頼性が低下すると、聴覚が重要になる。後方からの極端な周辺視覚運動を検出することは、視覚の曖昧さが非常に高く、そのような運動を検出することが生態学的に重要であり得るので、重要であり得る。
本明細書で開示されるのは、視覚運動知覚を改善するためのシステムの実施形態を含む。ある実施形態では、システムが実行可能命令を記憶するように構成された非一時的記憶部と、オーディオ出力装置と、非一時的記憶部、画像捕捉装置、およびオーディオ出力装置と通信するハードウェアプロセッサ(または仮想プロセッサなどのプロセッサ)とを含む。画像捕捉装置によって捕捉された複数の画像を受信するために実行可能命令によってプログラムされたハードウェアプロセッサ。プロセッサは、実行可能命令によって、複数の画像を使用して、ユーザに対する目的の位置および弾道を最初に決定するようにプログラムすることができる。初めてのユーザに対する目的の位置および弾道は、目的が通過時間にユーザのそばを通過する尤度閾値を超える尤度を有することを示すことができる。目的はユーザの分野内になくてもよく、初めて及び/又は通過時間においてユーザの分野の遠い周辺にあってもよい。プロセッサは第1の時間におけるユーザに対する目的の位置および弾道に基づいて、聴覚刺激を決定し、聴覚刺激を出力するための出力時間を決定するように、実行可能な命令によってプログラムされ得る。出力時間は経過時間であってもよいし、出力時間は、第1の時間と経過時間との間であってもよい。聴覚刺激の特性は、下降ピッチを含むグループから選択することができる。プロセッサはオーディオ出力装置に、出力時にユーザに聴覚刺激を出力させるように、実行可能命令によってプログラムすることができる。出力時にユーザに聴覚刺激が出力されることにより、出力時または出力時の直後に、ユーザの視野の遠方周辺の物体がユーザに視覚的に知覚される可能性が高くなる。
本明細書で開示されるのは、視覚運動知覚を改善するためのシステムの実施形態を含む。ある実施形態では、システムが実行可能命令を記憶するように構成された非一時的記憶部と、オーディオ出力装置と、非一時的記憶部、画像捕捉装置、およびオーディオ出力装置と通信するハードウェアプロセッサ(または仮想プロセッサなどのプロセッサ)とを含む。ハードウェアプロセッサは、実行可能命令によって、画像捕捉装置によって捕捉された複数の画像を受信するようにプログラムすることができる。プロセッサは実行可能命令によって、複数の画像を使用して、目的が渡されているか、または渡された時間にユーザが渡される尤度閾値を超える尤度を有するかを決定するようにプログラムすることができる。目的は、ユーザの分野内にあってはならず、または通過時にユーザの分野の遠い周辺にあってもよい。プロセッサは下降ピッチを含むグループから選択された特性を有する聴覚刺激を決定するように、実行可能命令によってプログラムされ得る。プロセッサはオーディオ出力デバイスに、出力時にユーザに聴覚刺激を出力させるように、実行可能命令によってプログラムすることができる。出力時にユーザに聴覚刺激が出力されることにより、出力時または出力時の直後に、ユーザの視野の遠方周辺の物体がユーザに視覚的に知覚される可能性が高くなる。
いくつかの実施形態では、複数の画像を受信するために、ハードウェアプロセッサは1つまたは複数のセンサによって取り込まれた複数の画像を含む感覚データを受信するように、実行可能命令によってプログラムされる。1つまたは複数のセンサは、画像撮像装置、無線検知測距(レーダー)、光検知測距(ライダー)、音声撮像装置、またはそれらの組み合わせを含むことができる。初めてユーザに対する物体の位置および軌道を決定するために、ハードウェアプロセッサはセンサデータを使用して初めてユーザに対する物体の位置および軌道を決定するように、実行可能命令によってプログラムすることができる。目的が通過するか、または通過する尤度閾値を超える尤度を有するかを決定するために、通過バイタイムでユーザはハードウェアプロセッサがセンサデータを使用して、目的が通過するか、または通過バイタイムでユーザが通過する尤度閾値を超える尤度を有するかを決定するように、実行可能命令によってプログラムされ得る。
いくつかの実施形態では、システムが1つ以上のセンサ、または1つ以上のセンサのうちの1つ以上を含む。システムは、画像捕捉装置を含むことができる。いくつかの実施形態では、センサデータを受信するために、ハードウェアプロセッサは第2のシステムから1つまたは複数のセンサによって捕捉されたセンサデータを受信するために、実行可能命令によってプログラムされる。いくつかの実施形態では、ハードウェアプロセッサが実行可能命令によって、センサデータ、初めてのユーザに対する目的の位置および弾道、および/または目的が通過しているか、または通過時間にユーザが第3のシステムに通過する尤度閾値を超える尤度を有するという指示を送信するようにプログラムされる。いくつかの実施形態ではヘルメット、カーオーディオシステム、またはウェアラブルスピーカシステムもしくはデバイスはシステム、またはその一部に関連するか、それを備えるか、またはそれに含まれる。
いくつかの実施形態では、目的は第1の自動車である。ユーザは第2のモータに乗ることができ、又は第2のモータに乗ることができる。いくつかの実施形態では、目的が最初にユーザの視野の極端な周辺にある。いくつかの実施形態では、ユーザの視野の遠い周辺が鼻から時間的に離れてユーザのこめかみに向かって約60°~約110°を含む。ユーザの視野の極端な周辺は、鼻から時間的に離れてユーザのこめかみに向かって約90°~110°を含むことができる。
いくつかの実施形態では、ハードウェアプロセッサが実行可能命令によってプログラムされて、目的が初めてのユーザに対する目的の位置および弾道に基づいて、通過時にユーザのそばを通過する尤度閾時間を超える尤度を有することを決定する。いくつかの実施形態では、通過する時間にユーザが目的を通過する尤度閾値が少なくとも50%、60%、70%、80%、90%、95%、または99%である。いくつかの実施形態では、最初のユーザに対する目的の位置および弾道が目的がユーザの最大で1メートル、2メートル、5メートル、または10メートル以内の通過バイタイムでユーザのそばを通過する尤度閾値を超える尤度を有することを示す。
いくつかの実施形態では、聴覚刺激の特性が落下ピッチ、増加するラウドネス、より高い周波数、より高い周波数、角度差の規則性、角度差の特異性、音の影、より大きな角度サイズ、ユーザの耳に対するラウドネスの非対称性、約90°の頭部関連伝達関数、ユーザの地平線より下の垂直位置、またはそれらの組み合わせを含む群から選択される。いくつかの実施形態では、聴覚刺激の特性の変化が経過時間で最も速い、または最も高い、またはほぼ経過時間である。いくつかの実施形態では、聴覚刺激が狭い範囲の周波数または純粋なトーンを含む。いくつかの実施形態では、聴覚刺激が音楽、音声、またはそれらの組み合わせを含む。
いくつかの実施形態では、第1の時間が複数の画像またはその一部が取り込まれる時間である。第1の時間は、複数の画像又はその一部が捕捉された後の時間であってもよい。第1の時間は、複数の画像、またはその一部が捕捉された直後の時間とすることができる。いくつかの実施形態では、出力時間が経過時間である。出力時間は、経過時間の直前とすることができる。出力時間は、第1の時間と経過時間との間とすることができる。
いくつかの実施形態では、ユーザに対する目的の位置および弾道は、目的が通過時にユーザの左側または右側でユーザのそばを通過する可能性が高いことを示す。オーディオ出力デバイスは、ユーザの左耳および右耳にそれぞれ聴覚刺激を出力するように構成された左オーディオ出力デバイスおよび右オーディオ出力デバイスを備えることができる。オーディオ出力機器に出力時にユーザに聴覚刺激を出力させるために、ハードウェアプロセッサは左オーディオ出力機器または右オーディオ出力機器に、出力時にユーザの左耳または右耳にそれぞれ聴覚刺激を出力させるように、実行可能命令によってプログラムすることができる。
いくつかの実施形態では、出力時にユーザに出力される聴覚刺激は、ユーザが出力時または出力時の直後にユーザの視野の遠い周辺の物体を視覚的に知覚する可能性をもたらし、少なくとも10%、20%、30%、40%、または50%増加させることができる。
本明細書で開示されるのは、視覚運動知覚を改善するための方法の実施形態を含む。いくつかの実施形態では、この方法がハードウェアプロセッサ(または仮想プロセッサなどのプロセッサ)の制御下にあり、1つまたは複数のセンサによって取り込まれたセンサデータを受信することを含む。本方法は、センサデータを使用して、被検体に対する物体の位置および軌道を時間決定するステップを含むことができる。第1の時間における対象物に対する対象物の位置および軌道は、対象物が第2の時間における対象物の閾値距離内で対象物に対して移動している尤度閾値を超える尤度を有することを示すことができる。物体は被検体の分野内になくてもよいし、初めて被検体の分野の周辺にあってもよい。本方法は、第1の時間における被験者に対する物体の位置及び弾道に基づいて聴覚刺激を決定するステップを含むことができる。聴覚刺激の特性は、被験者の閾値距離内で被験者に対して移動する被験者の聴覚特性に対応することができる。この方法は、出力時に聴覚刺激を被験者に出力させる時間を含むことができる。この方法によれば、出力時間または出力時間の直後の時間において、被写体の視野周辺の被写体が視覚的に知覚されて増加する可能性がある。
本明細書で開示されるのは、視覚運動知覚を改善するための方法の実施形態を含む。いくつかの実施形態では、この方法がハードウェアプロセッサ(または仮想プロセッサなどのプロセッサ)の制御下にあり、1つまたは複数のセンサによって取り込まれたセンサデータを受信することを含む。本方法は、センサデータを使用して、対象物が対象物の閾値距離内の対象物に対して移動するために、尤度閾値を上回るか、または上回る可能性を有することを判定することを含むことができる。本方法は、被検体の閾値距離内で被検体に対して移動する被検体の聴覚特性に対応する特性を有する聴覚刺激を決定するステップを含むことができる。この方法は、出力時に聴覚刺激を被験者に出力させる時間を含むことができる。この方法によれば、出力時間または出力時間の直後の時間において、被写体の視野周辺の被写体が視覚的に知覚されて増加する可能性がある。
いくつかの実施形態では、1つまたは複数のセンサが画像撮像装置、無線検知測距(レーダー)、光検知測距(ライダー)、音声撮像装置、またはそれらの組み合わせを含む。いくつかの実施形態では、センサデータが対象物に関連付けられた1つまたは複数の遠隔測定センサおよび位置センサによって捕捉された対象物の位置、速度、および方向を含む。1つまたは複数のセンサは、対象物に関連付けられた1つまたは複数の遠隔測定センサおよび位置センサを備えることができる。いくつかの実施形態では、センサデータが対象物に関連付けられた1つまたは複数の遠隔測定センサおよび位置センサによって捕捉された対象物の位置、速度、および方向を含む。1つまたは複数のセンサは、被験者に関連する1つまたは複数の遠隔測定センサおよび位置センサを備えることができる。対象物に関連付けられた1つ以上の遠隔測定センサ及び位置センサは、対象物に関連付けられた全地球測位システム(GPS)センサを含むことができる。被験者に関連した1つまたは複数の遠隔測定および位置センサは、被験者に関連した全地球測位システム(GPS)センサを備えることができる。
いくつかの実施形態ではヘルメット、カーオーディオシステム、または着用可能なスピーカシステムまたはデバイスは1つまたは複数のセンサに関連付けられるか、1つまたは複数のセンサを備えるか、または1つまたは複数のセンサに含まれる。聴覚刺激を出力させることは、ヘルメット、カーオーディオシステム、またはウェアラブルスピーカシステムまたはデバイスのオーディオ出力デバイスに、出力時に聴覚刺激を出力させることを含むことができる。
いくつかの実施形態では、目的は第1の自動車である。いくつかの実施形態では、対象が第2のモータ内にあるか、または第2のモータに乗っている。いくつかの実施形態では、物体が第1の時間および/または第2の時間における被験者の視野の遠い周辺または極端な周辺にある。いくつかの実施形態では、ユーザの視野の遠い周辺が鼻から時間的に離れて、被験者のこめかみに向かって約60°~約110°を含む。ユーザの視野の極端な周辺は、鼻から時間的に離れ、被験者のこめかみに向かって約90°~110°を含むことができる。
いくつかの実施形態では、前記方法が前記第1の時間における前記目的に対する前記目的の位置および弾道に基づいて、前記第2の時間における前記目的の閾値距離内で、前記目的が前記目的に対して移動する可能性閾値を上回る可能性を有することを決定するステップを含む。いくつかの実施形態では、第1の時点での対象物に対する対象物の位置および軌道は、対象物が第2の時点で対象物のそばを通過する、または対象物に衝突する可能性が高いことを示すことができる。いくつかの実施形態では、対象物に対する対象物の位置および弾道は、対象物が第2の時点で対象物の左側または右側で対象物のそばを通過する、または対象物に衝突する可能性が高いことを示す。出力時に被験者に聴覚刺激を出力させることは、出力時に被験者の左耳または右耳にそれぞれ聴覚刺激を出力させることを含むことができる。
いくつかの実施形態では、第2の時間における被検体の閾値距離内で被検体に対して移動している被検体の尤度閾値が少なくとも50%、60%、70%、80%、90%、95%、または99%である。いくつかの実施形態では、閾値距離が最大で0メートル、1メートル、2メートル、5メートル、または10メートルである。
いくつかの実施形態では、聴覚刺激の特性が下降ピッチである。いくつかの実施形態では、聴覚刺激の特性が下降ピッチ、増加するラウドネス、より高い周波数、より高い周波数、角度差の規則性、角度差の特異性、音の影、より大きな角度サイズ、被験者の耳に対するラウドネスの非対称性、約90°の頭部関連伝達関数、被験者の地平線より下の垂直位置、またはそれらの組み合わせを含む群から選択される。いくつかの実施形態では、聴覚刺激の特性の変化が経過時間で最も速い、または最も高い、またはほぼ経過時間である。いくつかの実施形態では、聴覚刺激が狭い範囲の周波数または純粋なトーンを含む。いくつかの実施形態では、聴覚刺激が音楽、音声、またはそれらの組み合わせを含む。いくつかの実施形態では、聴覚刺激を決定することは第1の時間における被験者に対する物体の位置および弾道に基づいて聴覚刺激および出力時間を決定することを含む。
いくつかの実施形態では、第1の時間がセンサデータまたはその一部が捕捉される時間である。第1の時間は、センサデータ又はその一部が捕捉された後の時間とすることができる。第1の時間は、センサデータまたはその一部が捕捉された直後の時間とすることができる。いくつかの実施形態では、出力時間は第2の時間である。出力時間は、第2の時間の直前とすることができる。出力時間は、第1の時間と第2の時間との間とすることができる。
いくつかの実施形態では、本方法が出力時間または出力時間の直後の時間において、被験者がユーザの視野の周辺にある物体を視覚的に知覚する可能性をもたらし、少なくとも10%、20%、30%、40%、または50%増加する。
本明細書で開示されるのは、ユーザの安全のためのシステムの実施形態を含む。いくつかの実施形態では、システムが実行可能命令を格納するように構成された可能な媒体記憶部と、異なるタイプのセンサデータを取り込むための、ヘルメットまたはウェアラブル装置に関連付けられた1つまたは複数のセンサと、(1a)ユーザの水平線の下、および(2a)ユーザの左側、(2b)ユーザの直後、および(2c)ユーザの右側からの音を模倣する聴覚刺激を出力するための複数のオーディオ出力デバイスと、可能な媒体記憶部と通信するハードウェアプロセッサとを備える。ハードウェアプロセッサは1つまたは複数のセンサによって捕捉された第1のセンサデータを受信するように、実行可能命令によってプログラムすることができる。ハードウェアプロセッサは第1のセンサデータを使用して、ユーザに対する目的の第1の位置を時間決定するように、実行可能命令によってプログラムすることができる。ユーザに対する目的の第1の位置は、ユーザの第1の閾値距離内にあることができる。ハードウェアプロセッサは、実行可能命令によって、第1の時点におけるユーザに対する目的の第1の位置を使用して、1つまたは複数の第1の聴覚刺激を出力するための、1つまたは複数の第1の聴覚刺激と、複数の出力デバイスのうちの対応する1つまたは複数の第1のオーディオ出力デバイスとを決定するようにプログラムすることができる。第1の聴覚刺激の特性は、対象物の特性に関連付けることができる。ハードウェアプロセッサは1つ以上の第1のオーディオ出力デバイスの各々に、1つ以上の第1の聴覚刺激の対応する第1の聴覚刺激を出力させるように、実行可能命令によってプログラムされ得る。
いくつかの実施形態では第1の聴覚刺激の特徴が第1の聴覚刺激のピッチであり、第1の聴覚刺激の特徴は物体のサイズを含む物体の特性に関連し、第1の聴覚刺激のピッチは物体のサイズと正または負に相関する。いくつかの実施形態では第1の聴覚刺激の特性が第1の聴覚刺激のラウドネスであり、第1の聴覚刺激の特性は物体の速度を含む物体の特性に関連し、第1の聴覚刺激のラウドネスは物体の速度と正または負に相関する。いくつかの実施形態では第1の聴覚刺激の特性が第1の聴覚刺激のピッチであり、第1の聴覚刺激の特性は物体のサイズおよび/または速度を含む物体の特性に関連し、第1の聴覚刺激のピッチは物体のサイズと正または負に相関し、第1の聴覚刺激のピッチは物体の速度と正または負に相関する。
いくつかの実施形態では、1つ以上の第1の聴覚刺激および対応する1つ以上の第1のオーディオ出力デバイスが2つ以上の第1の聴覚刺激および対応する2つ以上の第1のオーディオ出力デバイスを備える。対応する第1のオーディオ出力デバイスによって出力される2つ以上の第1の聴覚刺激の組み合わせは、複数のオーディオ出力デバイスのいずれも個別に模倣することができない最初の時点で、ユーザに対して第1の位置で移動する目的の音を模倣することができる。いくつかの実施形態では、1つまたは複数の第1の聴覚刺激が狭い範囲の周波数または純粋なトーンを含む。いくつかの実施形態では、1つまたは複数の第1の聴覚刺激が音楽、音声、またはそれらの組合せを含む。
いくつかの実施形態では、ハードウェアプロセッサが1つまたは複数のセンサによって捕捉された第2のセンサデータを受信するように、実行可能命令によってプログラムされる。ハードウェアプロセッサは第2のセンサデータを使用して、ユーザに対する目的の第2の位置を2回目に決定するように、実行可能命令によってプログラムすることができる。ユーザに対する目的の第2の位置はユーザの第2の閾値距離内にあることができ、第2の閾値距離は、第1の閾値距離よりも短いか、または長い。ハードウェアプロセッサは、実行可能命令によって、第2の時間におけるユーザに対する目的の第2の位置を使用して、1つ以上の第2の聴覚刺激を出力するための、1つ以上の第2の聴覚刺激と、複数の出力デバイスのうちの対応する1つ以上の第2のオーディオ出力デバイスとを決定するようにプログラムされ得る。第2の聴覚刺激の特性は、対象物の特性に関連付けることができる。第1の聴覚刺激の特性に対する第2の聴覚刺激の特性の間の差は、第2の時間におけるユーザに対する物体の第2の位置に関連付けることができる。ハードウェアプロセッサは1つ以上の第2のオーディオ出力デバイスの各々に、1つ以上の第2の聴覚刺激の対応する第2の聴覚刺激を出力させるように、実行可能命令によってプログラムされ得る。
いくつかの実施形態では、第1の聴覚刺激の特性に対する第2の聴覚刺激の特性の間の差がより高い、またはより低い周波数数である。いくつかの実施形態では、第1の聴覚刺激の特性に対する第2の聴覚刺激の特性の間の差がより大きいラウドネスまたはより小さいラウドネスである。
いくつかの実施形態では、ハードウェアプロセッサが1つまたは複数のセンサによって捕捉された第3のセンサデータを受信するように、実行可能命令によってプログラムされる。ハードウェアプロセッサは第3のセンサデータを使用して、第3の時点におけるユーザに対する目的の第3の位置を決定するように、実行可能命令によってプログラムすることができる。ユーザに対する目的の第3の位置は、ユーザの第3の閾値距離内にあることができる。第3の閾値距離は、第2の閾値距離よりも短くても長くてもよい。ハードウェアプロセッサは、(i)1つまたは複数の第1の聴覚刺激を出力するための複数の出力デバイスのうちの1つまたは複数の第1の聴覚刺激および対応する1つまたは複数の第1のオーディオ出力デバイスと、(ii)第3の時間におけるユーザに対する目的の第3の位置を使用して、1つまたは複数の第2の聴覚刺激を出力するための複数の出力デバイスのうちの1つまたは複数の第2の聴覚刺激および対応する1つまたは複数の第2のオーディオ出力機器である。ハードウェアプロセッサは1つまたは複数の第1および第2のオーディオ出力デバイスのそれぞれに、1つまたは複数の第1および第2の聴覚刺激の対応する第1または第2の聴覚刺激を出力させるように、実行可能命令によってプログラムすることができる。
いくつかの実施形態ではシステムがヘルメットまたはウェアラブル装置に関連し、それを含み、またはそれに含まれ、任意選択で、複数のオーディオ出力デバイスはヘルメットまたはウェアラブル装置上、ヘルメットまたはウェアラブル装置内、またはヘルメットまたはウェアラブル装置内にある。複数のオーディオ出力機器は、(1a)ユーザの水平線の下、および(2a)ユーザの左側、(2b)ユーザの直後、および(2c)右側からの音を模倣する聴覚刺激を出力するように配置することができる。
いくつかの実施形態では、複数のオーディオ出力デバイスが(i)ヘルメットまたはウェアラブル装置を着用しているときに、ユーザの水平線の中心点からの音を模倣する聴覚刺激を出力する水平線量オーディオ出力デバイスと、(ii)ヘルメットまたはウェアラブル装置を着用しているときに、ユーザの水平線の下の第1の垂直量からの音を模倣する聴覚刺激を、それぞれ、ユーザの左側および右側に出力する第1の左下水平線オーディオ出力デバイスと、ヘルメットまたはウェアラブル装置の、またはヘルメットまたはウェアラブル装置の第1の右下水平線オーディオ出力デバイスと、を備える。複数のオーディオ出力デバイスは、ユーザの地平線および中心点の下からの音を模倣する聴覚刺激を出力するための、第1の輪郭の中央地平線下オーディオ出力デバイスを備えることができる。
いくつかの実施形態では、複数のオーディオ出力デバイスが(iii)ヘルメットまたはウェアラブル装置を着用しているときに、それぞれ、ユーザの左側および右側の、ユーザの水平線より下の第2の垂直レベルからの音を模倣する聴覚刺激を出力するための、ヘルメットまたはウェアラブル装置上の、またはヘルメットまたはウェアラブル装置の、第2の輪郭の、第1の左下水平線オーディオ出力デバイスおよび第1の右下水平線オーディオ出力デバイスを備える。2 番目の垂直レベルは、1 番目の垂直レベルを下回ることができる。2つ目の輪郭は、1つ目の輪郭よりも下になることがある。
いくつかの実施形態では、複数のオーディオ出力デバイスが(ii)ヘルメットまたはウェアラブル装置を着用するときに、それぞれ、ユーザの水平線より下の第1の垂直レベルからの音を模倣する聴覚刺激を出力するための、ヘルメットまたはウェアラブル装置上の、またはヘルメットまたはウェアラブル装置の、第1の輪郭の第2の左下水平線オーディオ出力デバイスおよび第2の右下水平線オーディオ出力デバイスを備える。第2の左水平下音声出力デバイスによって出力された聴覚刺激によって模倣された音は、第1の輪郭の第1の左水平下音声出力デバイスによって出力された聴覚刺激によって模倣された音の左にすることができる。第2の右地平下音声出力デバイスによって出力される聴覚刺激によって模倣される音は、第1の輪郭の第1の右地平下音声出力デバイスによって出力される聴覚刺激によって模倣される音の右にあることができる。第2の左下水平音声出力デバイスは、第1の輪郭の第1の左下水平音声出力デバイスの左にあることができる。第2の右下地平線音声出力デバイスは、第1の輪郭の第1の右下地平線音声出力デバイスの右にあることができる。
いくつかの実施形態では、ハードウェアプロセッサが1つまたは複数のセンサによって捕捉された第4のセンサデータを受信するように、実行可能命令によってプログラムされる。ハードウェアプロセッサは、実行可能命令によって、目的が第4のセンサデータを使用して、通過時にユーザの分野内に存在しないか、または通過時にユーザの分野の遠い周辺内に存在する可能性がある、通過時にユーザのそばを通過しているか、またはそれを通過する可能性閾時間を超える可能性を有することを決定するようにプログラムすることができる。ハードウェアプロセッサは、実行可能な命令によって、ユーザのそばを通過する物体の聴覚特性に対応する特性を有する第4の聴覚刺激を決定するようにプログラムすることができる。ハードウェアプロセッサは実行可能命令によってプログラムすることができ、複数のオーディオ出力機器のうちの1つまたは複数のオーディオ出力機器が出力時に、第4の聴覚スティミュラスをユーザに出力するようにする。出力時にユーザに出力される第4の聴覚刺激は出力時または出力時の直後に、ユーザの視野の遠方周辺の物体をユーザが視覚的に知覚して増加する可能性がある。
いくつかの実施形態では、1つまたは複数のセンサが画像捕捉装置、無線検出および測距(Radio Detection and Ranging)(レーダー)、光検出および測距(ライダー)、オーディオ捕捉装置、またはそれらの組合せを備える。
いくつかの実施形態では、目的は第1の自動車である。いくつかの実施形態では、ユーザが第2のモータ内にいるか、又は第2のモータに乗っている。いくつかの実施形態では、目的が通過時にユーザの視野の極端な周辺にある。ユーザの視野の遠い周辺は、鼻から時間的に離れてユーザのこめかみに向かって約60°~約110°を含むことができる。ユーザの視野の極端な周辺は、鼻から時間的に離れてユーザのこめかみに向かって約90°~110°を含むことができる。
いくつかの実施形態では、通過する時間にユーザが目的を通過する尤度閾値が少なくとも50%、60%、70%、80%、90%、95%、または99%である。いくつかの実施形態では、目的がユーザの最大1メートル、2メートル、5メートル、または10メートル以内の通過バイタイムでユーザを通過しているか、または通過する可能性閾値を超える可能性を有する。
いくつかの実施形態では、第4の聴覚刺激の特性が落下ピッチ、増加するラウドネス、より高い周波数、より高い周波数、角度差の規則性、角度差の特異性、音の影、より大きな角度サイズ、ユーザの耳に対するラウドネスの非対称性、約90°の頭部関連伝達関数、ユーザの地平線の下の垂直位置、またはそれらの組み合わせを含む群から選択される。いくつかの実施形態では、第4の聴覚刺激の特性の変化が経過時間で最も速い、または最も高い、またはほぼ経過時間である。
いくつかの実施形態では、経過時間が第4のセンサデータまたはその一部が捕捉される時間である。通過時間は、第4のセンサデータまたはその一部が捕捉された後の時間とすることができる。通過時間は、第4のセンサデータまたはその一部が捕捉された直後の時間であってもよい
いくつかの実施形態では、目的がユーザの左側または右側でユーザのそばを通過しているか、または通過する可能性がある。複数のオーディオ出力機器のうちの1つまたは複数に、出力時に第4の聴覚刺激をユーザに出力させるために、ハードウェアプロセッサは第1の輪郭の第1の左下地平線オーディオ出力機器、または第1の右下地平線オーディオ出力機器、および/または第2の輪郭の第1の左下地平線オーディオ出力機器、または第1の右下地平線オーディオ出力機器に、出力時に第4の聴覚刺激を出力させるように、実行可能命令によってプログラムされ得る。
いくつかの実施形態では、出力時にユーザに出力される第4の聴覚刺激は、ユーザが出力時または出力時の直後にユーザの視野の遠方周辺の物体を視覚的に知覚する可能性を、少なくとも10%、20%、30%、40%、または50%増加させることができる。
本明細書に開示される実施形態は実行可能命令を含むコンピュータ可読媒体の実施形態を含み、コンピュータシステムまたは装置のハードウェアプロセッサによって実行される場合、ハードウェアプロセッサまたはコンピューティングシステムまたは装置に、本明細書に開示されるいずれかの方法を実行させる。
本明細書で説明される主題の1つまたは複数の実装形態の詳細は、添付の図面および以下の説明に記載される。他の特徴、態様、および利点は、説明、図面、および特許請求の範囲から明らかになるのであろう。この概要も以下の詳細な説明も、本発明の主題の範囲を定義または限定するものではない。
遠い周辺および極端な周辺における視覚運動知覚を強化するための非限定的な例示的システムのブロック図である。 後方からの視覚運動知覚を強化する例示的な方法を示すフロー図である。 遠方周辺および極端周辺における視覚運動知覚を強化するためのシステム(例えば、スマートフォンヘルメットまたはウェアラブルデバイスのスピーカ)の聴覚出力デバイスの、非限定的な例示的配置を示す概略図である 遠方周辺および極端周辺における視覚運動知覚を強化するためのシステム(例えば、スマートフォンヘルメットまたはウェアラブルデバイスのスピーカ)の聴覚出力デバイスの、非限定的な例示的配置を示す概略図である 遠方周辺および極端周辺における視覚運動知覚を強化するためのシステム(例えば、スマートフォンヘルメットまたはウェアラブルデバイスのスピーカ)の聴覚出力デバイスの、非限定的な例示的配置を示す概略図である 遠方周辺および極端周辺における視覚運動知覚を強化するためのシステム(例えば、スマートフォンヘルメットまたはウェアラブルデバイスのスピーカ)の聴覚出力デバイスの、非限定的な例示的配置を示す概略図である。 遠方周辺および極端周辺における視覚運動知覚を強化するための、システム(例えば、スマートフォンヘルメットまたはウェアラブルデバイスのスピーカ)の聴覚出力デバイスの非限定的な例示的活性化を示す概略図である。 遠方周辺および極端周辺における視覚運動知覚を強化するための、システム(例えば、スマートフォンヘルメットまたはウェアラブルデバイスのスピーカ)の聴覚出力デバイスの非限定的な例示的活性化を示す概略図である。 遠方周辺および極端周辺における視覚運動知覚を強化するための、システム(例えば、スマートフォンヘルメットまたはウェアラブルデバイスのスピーカ)の聴覚出力デバイスの非限定的な例示的活性化を示す概略図である。 遠方周辺および極端周辺における視覚運動知覚を強化するための、システム(例えば、スマートフォンヘルメットまたはウェアラブルデバイスのスピーカ)の聴覚出力デバイスの非限定的な例示的活性化を示す概略図である。 遠方周辺および極端周辺における視覚運動知覚を強化するための、システム(例えば、スマートフォンヘルメットまたはウェアラブルデバイスのスピーカ)の聴覚出力デバイスの非限定的な例示的活性化を示す概略図である。 遠方周辺および極端周辺における視覚運動知覚を強化するための、システム(例えば、スマートフォンヘルメットまたはウェアラブルデバイスのスピーカ)の聴覚出力デバイスの非限定的な例示的活性化を示す概略図である。 ユーザの安全性を向上させる例示的な方法を示すフロー図である。 本開示の任意の方法を実施するように構成された例示的なコンピューティングシステムのブロック図である。 落下するピッチを有する聴覚刺激が後方からの極端な周辺視覚運動を検出することに影響を及ぼすかどうかを決定するための実験セットアップの非限定的な例示的な概略図である。 聴覚が後方からの極端な周辺視覚運動を検出することに影響を及ぼすかどうかを判定するための実験セットアップの非限定的な例示的な概略図である。 後方からの極端な周辺視覚運動の検出に対する3つのタイプの聴覚刺激の効果を決定するための実験セットアップの非限定的な例示的な概略図である。 後方からの極端な周辺視覚運動の検出に対する3つのタイプの聴覚刺激の効果を示す非限定的な例示的なプロットである。
以下の詳細な説明では、その一部を形成する添付の図面を参照する。図面において、同様の記号は文脈が別段の指示をしない限り、典型的には同様の構成要素を識別する。詳細な説明、図面、および特許請求の範囲に記載される例示的な実施形態は、限定することを意味しない。本明細書に提示される主題の精神または範囲から逸脱することなく、他の実施形態を利用することができ、他の変更を行うことができる。本開示の態様は本明細書に一般的に記載され、図面に示されるように、多種多様な異なる構成で配置され、置換され、組み合わされ、分離され、設計されることができ、それらのすべては、本明細書で明示的に企図され、本明細書の開示の一部とされることが容易に理解されるのであろう。
本明細書で開示されるのは、視覚運動知覚を改善するためのシステムの実施形態を含む。ある実施形態では、システムが実行可能命令を記憶するように構成された非一時的記憶部と、オーディオ出力装置と、非一時的記憶部、画像捕捉装置、およびオーディオ出力装置と通信するハードウェアプロセッサ(または仮想プロセッサなどのプロセッサ)とを含む。画像捕捉装置によって捕捉された複数の画像を受信するために実行可能命令によってプログラムされたハードウェアプロセッサを受信する。プロセッサは、実行可能命令によって、複数の画像を使用して、ユーザに対する目的の位置および弾道を最初に決定するようにプログラムすることができる。初めてのユーザに対する目的の位置および弾道は、目的が通過時間にユーザのそばを通過する尤度閾値を超える尤度を有することを示すことができる。目的はユーザの分野内に存在しない場合もあれば、最初にユーザの分野の遠い周辺に存在する場合もある。プロセッサは第1の時間におけるユーザに対する目的の位置および弾道に基づいて、聴覚刺激を決定し、聴覚刺激を出力するための出力時間を決定するように、実行可能な命令によってプログラムされ得る。出力時間は経過時間であってもよいし、出力時間は、第1の時間と経過時間との間であってもよい。聴覚刺激の特性は、下降ピッチを含むグループから選択することができる。プロセッサはオーディオ出力装置に、出力時にユーザに聴覚刺激を出力させるように、実行可能命令によってプログラムすることができる。出力時にユーザに聴覚刺激が出力されることにより、出力時または出力時の直後に、ユーザの視野の遠方周辺の物体がユーザに視覚的に知覚される可能性が高くなる。
本明細書で開示されるのは、視覚運動知覚を改善するためのシステムの実施形態を含む。ある実施形態では、システムが実行可能命令を記憶するように構成された非一時的記憶部と、オーディオ出力装置と、非一時的記憶部、画像捕捉装置、およびオーディオ出力装置と通信するハードウェアプロセッサ(または仮想プロセッサなどのプロセッサ)とを含む。ハードウェアプロセッサは、実行可能命令によって、画像捕捉装置によって捕捉された複数の画像を受信するようにプログラムすることができる。プロセッサは実行可能命令によって、複数の画像を使用して、目的が渡されているか、または渡された時間にユーザが渡される尤度閾値を超える尤度を有するかを決定するようにプログラムすることができる。目的はユーザの分野内に存在しない場合もあれば、最初にユーザの分野の遠い周辺に存在する場合もある。プロセッサは下降ピッチを含むグループから選択された特性を有する聴覚刺激を決定するように、実行可能命令によってプログラムされ得る。プロセッサはオーディオ出力デバイスに、出力時にユーザに聴覚刺激を出力させるように、実行可能命令によってプログラムすることができる。出力時にユーザに聴覚刺激が出力されることにより、出力時または出力時の直後に、ユーザの視野の遠方周辺の物体がユーザに視覚的に知覚される可能性が高くなる。
本明細書で開示されるのは、視覚運動知覚を改善するための方法の実施形態を含む。いくつかの実施形態では、この方法がハードウェアプロセッサ(または仮想プロセッサなどのプロセッサ)の制御下にあり、1つまたは複数のセンサによって取り込まれたセンサデータを受信することを含む。本方法は、センサデータを使用して、被検体に対する物体の位置および軌道を時間決定するステップを含むことができる。第1の時間における対象物に対する対象物の位置および軌道は、対象物が第2の時間における対象物の閾値距離内で対象物に対して移動している尤度閾値を超える尤度を有することを示すことができる。物体は被検体の分野内に存在しない場合もあれば、最初に被検体の分野の周辺に存在する場合もある。本方法は、第1の時間における被験者に対する物体の位置及び弾道に基づいて聴覚刺激を決定するステップを含むことができる。聴覚刺激の特性は、被験者の閾値距離内で被験者に対して移動する被験者の聴覚特性に対応することができる。この方法は、出力時に聴覚刺激を被験者に出力させる時間を含むことができる。この方法によれば、出力時間または出力時間の直後の時間において、被写体の視野周辺の被写体が視覚的に知覚されて増加する可能性がある。
本明細書で開示されるのは、視覚運動知覚を改善するための方法の実施形態を含む。いくつかの実施形態では、この方法がハードウェアプロセッサの制御下にあり、1つまたは複数のセンサによって捕捉されたセンサデータを受信することを含む。本方法は、センサデータを使用して、対象物が対象物の閾値距離内の対象物に対して移動するために、尤度閾値を上回るか、または上回る可能性を有することを判定することを含むことができる。物体は被検体の分野内に存在しない場合もあれば、最初に被検体の分野の周辺に存在する場合もある。本方法は、被検体の閾値距離内で被検体に対して移動する被検体の聴覚特性に対応する特性を有する聴覚刺激を決定するステップを含むことができる。この方法は、出力時に聴覚刺激を被験者に出力させる時間を含むことができる。この方法によれば、出力時間または出力時間の直後の時間において、被写体の視野周辺の被写体が視覚的に知覚されて増加する可能性がある。
本明細書で開示されるのは、ユーザの安全のためのシステムの実施形態を含む。いくつかの実施形態では、システムが実行可能命令を格納するように構成された可能な媒体記憶部と、異なるタイプのセンサデータを取り込むための、ヘルメットまたはウェアラブル装置に関連付けられた1つまたは複数のセンサと、(1a)ユーザの水平線の下、および(2a)ユーザの左側、(2b)ユーザの直後、および(2c)ユーザの右側からの音を模倣する聴覚刺激を出力するための複数のオーディオ出力デバイスと、可能な媒体記憶部と通信するハードウェアプロセッサ(または仮想プロセッサなどのプロセッサ)とを備える。ハードウェアプロセッサは1つまたは複数のセンサによって捕捉された第1のセンサデータを受信するように、実行可能命令によってプログラムすることができる。ハードウェアプロセッサは第1のセンサデータを使用して、ユーザに対する目的の第1の位置を時間決定するように、実行可能命令によってプログラムすることができる。ユーザに対する目的の第1の位置は、ユーザの第1の閾値距離内にあることができる。ハードウェアプロセッサは、実行可能命令によって、第1の時点におけるユーザに対する目的の第1の位置を使用して、1つまたは複数の第1の聴覚刺激を出力するための、1つまたは複数の第1の聴覚刺激と、複数の出力デバイスのうちの対応する1つまたは複数の第1のオーディオ出力デバイスとを決定するようにプログラムすることができる。第1の聴覚刺激の特性は、対象物の特性に関連付けることができる。ハードウェアプロセッサは1つ以上の第1のオーディオ出力デバイスの各々に、1つ以上の第1の聴覚刺激の対応する第1の聴覚刺激を出力させるように、実行可能命令によってプログラムされ得る。
図面全体を通して、参照番号は、参照される要素間の対応を示すために再使用されてもよい。図面は、本明細書で説明される例示的な実施形態を例示するために提供され、本開示の範囲を限定することを意図しない。
<視覚運動認知の強化>
人間の視覚は眼の中心窩(~2度)で最も正確かつ敏感であり、性能は、中心窩傍(~5度)および周辺(~40度)を通して徐々に低下する。したがって、人は中心窩に物体を捕捉するために、自分の頭部および/または注視を、(物体の動きが相対的であり、知覚者の動きによって引き起こされる場合であっても)自分の極端な周辺(60~100度)において移動する物体に向ける必要がある。極端な周辺の移動物体を視覚的に知覚することは、自動車を運転するときなど、人の日常生活において重要であり得る。リアミラー、サイドミラー、リアモニタ、サイドミラー内のブラインドスポット警報システム、またはデジタルミラーなどの多くの技術が、そうでなければ人間の目の中心窩および傍中心窩内に捕捉されないであろう移動物体を見るために開発されてきた。これらの技術は2つのカテゴリのうちの1つに分類される:物体の画像を人の中心窩に光学的に(例えば、ミラー)および/または画像処理(例えば、デジタルミラー)によってより近くに示すこと;または、物体に向かって自分の注視を向けるように人に警告すること(例えば、盲点警報システム)。既存の技術は装置(例えば、ミラー)上の物体自体および/またはその光学画像に人の注視を向けることを必要とする。既存の技術は、自動車事故の最も一般的な原因の1つで先見しないで運転する人々につながる。
本明細書で開示されるのは、周辺における人間の視覚運動知覚を強化するためのシステム、装置、コンピュータ可読媒体、および方法を含む。聴覚的合図または刺激(例えば、単純な聴覚的合図)を使用して、人は、自分の注視を目的に向けることなく、周辺の移動目的を知覚することができる。いくつかの実施形態では遠い周辺または極端な周辺における人の視力が強化され、これは被験者が自動車の運転または自動二輪車の乗車などのタスクを実行することを容易にすることができる。聴覚的な合図または刺激は、人間の注視を目的に向けることなく、遠い周辺および極端な周辺において動く目的を人間が知覚することを可能にすることができる。強化された知覚は、自動車を運転しているときなど、人の日常生活における安全性を改善することができる。遠い周辺部および極端な周辺部における1つまたは複数の移動物体の人間の視覚的知覚は本明細書で開示される要因のうちの1つまたは複数を操作しながら、人間に音を提示することによって、アクティブ化または改善することができる。これらの因子のいずれも操作せずに音を提示することは、遠い周辺部および極端な周辺部における視覚知覚を実際に損なう可能性がある。
<聴覚刺激、プレゼンテーション、キュー>
人が前方を向いているときに側面に対しておよそ90度で遠い周辺部または極端な周辺部における動きに対応する生態学的に適宜聴覚刺激、提示、または手がかりは、遠い周辺部または極端な周辺部における視覚的な動きの知覚を容易にすることができる。特性または特性の1つまたは複数を有する聴覚刺激は、刺激の非生態学的対応物よりも遠視野周辺または極端な周辺をより顕著にすることができる。
(a)Pitch-ピッチが立ち下がっている(立ち上がっていない)。
(a´)ピッチは、下降するだけでなく、そのコースにおいて最も速い速度で下降する。ピッチ変化の速度対時間のS字関数を考える。機能が最も速い速度で落下している(すなわち、ピッチが最も速い速度で落下している)場合、人の脳は移動する自動車(または移動する自動二輪車、または移動するトラックなどの移動する物体)が人の視野の90度にあり、物理的に人に最も近い可能性があることを知る。
(b)音量-対応する音源が近くにあるので、音は大きい。音は、(聴覚の一般化と考えることができる)身体を振動させるのに十分な大きさとすることができる。
(b´)ラウドネスは高いだけでなく、そのピークにある。ラウドネスは、逆U字形機能として表すことができる。ラウドネスが横ばいになるにつれて、人の脳は、物体が周辺に近づいていることを知る。
(c)周波数の温度範囲-騒音を発生する目的が近くにあると、放出される周波数の温度範囲が広くなり、特に高周波成分が多くなる。ノイズを発生する物体が遠く離れていると、人間は低周波成分をより多く聴くことができる。
(c´)(c)の誘導体変形例。
(d)角度差の規則性-たとえ人が物体に対してゼロの速度で動いていても、動いている物体が人の前、後、または横のように聞こえるものには規則性がある。
動いている物体(車など)がそれ自体を推進していて、音を立てている。例えば、汚れは、前ではなく、後ろにキックされている。ヒトは、作られる雑音または音に敏感である。
ムーバーは通常、ポイントサイズのチップ上を走るのではなく、リテラルである各ステップまたは足踏み段に対して「ヒールトウ」配列を有する。タイヤを有する物体に対してはタイヤが回転することにつれてヒールになる新しい「トウ」上でタイヤが絶えず回転しているという意味で、ヒールトウ配列もある。ヒール-止端配列は、人が物体に対してゼロ速度で動いている場合であっても、人の後ろにある場合と比較して、人の前にある場合には異なるように聞こえる。例えば、前方では、ヒールトウの音はタイミングがより一致する(例えば、より高い周波数を有する)のに対し、ヒールトウの音の後方では時間ギャップがより大きい(例えば、より低い周波数を有する)。
(d´)(d)の誘導体変形例。
(e)角度差の特殊性 - 実騒音を作る動く物体は、(d)より一般化しにくい理由で、人の前、背後、および人の横で同じように聞こえない。人が車の前で(同じ速度で)運転しているのに対し、車の後ろでは、車の側面ではまったく等距離で運転していると考える。人が聞く音には差がある。自動車の前を運転するとき(自動車が前部エンジンを有すると仮定する)、人はより多くのモータ音を聞くことができ、自動車の後ろを運転するとき、より多くの排気および気化器音を聞くことができる。音の違いは、人間が学習する音を作る物体(例えば、車)の種類に大きく依存する。
(e´)(e)の誘導体変形例。
(f)Sound Shadows(サウンドシャドウ)- 目的は、環境内のサウンドの背後にあるものからサウンドを部分的にブロックする。したがって、非常に静かに動いている目的でさえ、目的の背後の周囲環境音を部分的に遮断する、動く「音影」を有する。動く音ではなく、動く物体は、動く静穏化に関連付けられてもよく、または人間が知覚することができる動く音の影を有する可能性がある。
(g)大きい角度サイズ - 動く音を作る目的はポイントサイズではない。このような物体は有限の大きさを有し、接近すると、物体は、複数の方向から来る音を作る。例えば、列車が遠く離れている場合、列車は点音源である。しかし、あなたの隣にいるとき、脳はほぼ180度の角度にわたって音を発することができる。実際、水平線の上下を含む、角度のほぼ半球である。より近い物体は、より多くの「サラウンドサウンド」を有することができる
(g´)(g)の誘導体変形例。
(h)耳の非対称性-動く物体が人を通過するのに近いほど、人の耳のラウドネスの非対称性が大きくなる。
(h´)(h)の誘導体変形例。
(i)頭部関連伝達関数(HRTF)-移動物体が人を通過するのに近いほど、HRTFは、物体が人に対して90度にあることを示す。
(i´)(i)の誘導体変形例。
(k)垂直位置 - 動いている生物の最も強い聴覚的手がかりは、地上の動いている生物の足から、地平線のかなり下から方向性をもって発することができる。したがって、人の周辺の近くの生物は地平線の下70度から地平線の上40度まで進むかもしれず、この110度の全垂直範囲はその音がちょうど底から-70度で不均衡に発する傾向がある。-70度の聴覚キューは、目的-70度であることを必ずしも意味しない。その代わりに、-70度の聴覚キューは、たとえほとんどの生物がその近くにさえ存在しなくても、その足(または移動する車両のための車輪)がたまたまそこにある移動する生物全体を示すことができる。残りの生物の身体(または車両の身体)は、完全に沈黙しているかもしれない。ほとんどの動物は実際にはこのようなもので、動いているときに関節が音をゼロにし、動物が作ったすべての音は、下の地面を踏んだ動物からのものである。
(k´)人の知覚分野内の目的の音の高さから人からの目的の距離への1対1のマッピング-目的は特に目的が人の近くにあるとき、多くの人の知覚分野を満たすことができる。目的は、それらの異なる部分から来る、多くの異なる方法でサウンドを作ることができる。動く生物(または移動車両)には、いくつかの基本的な一般化がある:動く生物が作る音は、地面上の彼または彼女の足から来る傾向がある。人の知覚分野において移動する生物によって作られる音の垂直位置から、人に対する生物の距離を決定することができる。水平線より下の垂直フィールド位置と距離との間には1対1の関係がある。地平線から来る音は無限に遠く離れている。人の知覚野の下から発する、または人によって知覚される音はより近くにある。音を発する生物の手段の人の下から来る音は基本的に、人のすぐ隣を、人から0の距離で歩いている。
<視覚運動認知を強化するためのシステム>
図1は限定するものではない例示的なシステムまたは遠方周辺および極端な周辺における視覚運動知覚を強化するための装置(例えば、ウェアラブル装置)100のブロック図である。システムは、1つまたは複数のセンサ104、プロセッサ108、サウンドクリエータ112、および音発生器116を備えることができる。1つまたは複数のセンサ104は、レーダー、カメラ、およびマイクロフォンを備えることができる。1つまたは複数のセンサ104は、複数の画像などのセンサデータを捕捉することができる。
プロセッサ108はセンサデータを使用して、目的のサイズ、目的の被写体までの距離、目的の速度、目的の移動方向など、移動する目的(例えば、背後からシステムのユーザなどの被写体に接近する車両などの目的)の特性および特性を決定することができる。プロセッサ108は、センサデータを使用して、物体の位置および可能な弾道を決定することができる。例えば、プロセッサ108は、センサデータを使用して、第1の時点における対象物に対する対象物の位置および軌道を決定することができる。第1の時間における対象物に対する対象物の位置および軌道は対象物が第2の時間における対象物の閾値距離(例えば、5メートル)内で対象物に対して移動している尤度閾値(例えば、80%)を超える尤度を有することを示すことができる。目的は、目的の分野内になくてもよく(またはなくてもよく)、または最初の時点で目的の分野の周辺にあってもよい(またはなくてもよい)。
サウンドクリエータ112は、目的のプロパティおよび特性を、本明細書で開示されるサウンド刺激またはキューに変換することができる。音刺激またはキューは目的からのリアル/自然な音(例えば、エンジン音)であるか、またはそれを模倣する必要はない。いくつかの実施形態では、音刺激または合図が移動物体からの音の本質を模倣または増幅する非常に単純な人工音(例えば、突然のピッチ変化を伴う単純なビープ音)であり得る。例えば、音生成部112は、第1の時刻における被検体に対する物体の位置及び弾道に基づいて聴覚刺激を決定することができる。聴覚刺激の特性は、被験者の閾値距離内で被験者に対して移動する被験者の聴覚特性に対応することができる。例えば、聴覚刺激は、ドップラーピッチシフトを模倣することができる下降ピッチを有することができる。
音発生器116は、スピーカまたはイヤホンなどのオーディオデバイスであり得る。音発生器116は、決定されたサウンド刺激またはキューを出力することができる。例えば、音発生器116は、出力時に被験者に聴覚刺激を出力することができる。被験者の極端な周辺視覚知覚は、音発生器112によって出力されるサウンド刺激またはキューの結果として強調することができる。出力された時間または出力された時間の直後の時間(例えば、0.0000001秒、0.000001秒、0.00001秒、0.0001秒、0.001秒、0.01秒、0.1秒、または1秒以内)に、対象者の視野の周辺にある対象物を視覚的に知覚する可能性が高い。
システム100、またはシステム100の1つ以上の構成要素はオートバイまたは自転車のライダーのためのヘルメット(例えば、スマートフォンヘルメット)、自動車またはレジャー車両のような車両のドライバー、および航空機パイロットのためのヘルメット、車両オーディオシステム(例えば、カーオーディオシステム)、および歩行者または車椅子ユーザのための着用可能なスピーカシステムと関連付けられることができ、それらを備えることができ、またはそれらに含まれることができる。
<聴覚刺激に基づく視覚運動認知向上の特性>
(1) Digital Mirror Device. 聴覚表示または刺激に基づいて本明細書で開示されるデジタルミラーデバイスおよび任意の方法(またはシステム)は、人間が極端な周辺部などの盲点内の移動物体(複数可)を視覚的に知覚するのを助けることを目的とする。しかしながら、デジタルミラーデバイスは画像処理を使用するが、本明細書で開示される方法は聴覚表示を使用する。デジタルミラー装置はまた、人の注視の方向が装置内の視覚像に向かって移動することを要求するが、本開示の方法はこのような注視方向を必要としない。というのは、この方法は人が、中心窩ではなく極端な周辺の物体を直接知覚することを可能にするからである。
(2)後方目的警告システム。聴覚表示または刺激に基づいて本明細書で開示される後方物体警報システムおよび任意の方法(またはシステム)は、人間が極端な周辺部などの盲点内の移動物体(複数可)を視覚的に知覚するのを助けることを目的とする。しかしながら、後方目的警報システムは聴覚および/または表示警報を使用して、人間に目的に向けて注視を指示させるが、本明細書で開示される方法は聴覚刺激を使用して、人間が自分の注視方向を変更することなく目的を表示的に知覚することを可能にする。聴覚刺激は本明細書に開示される特性または特性(例えば、落下ピッチ)を有することができ、一方、後方目的警報システムによってなされる単純な警報音は、極端な周辺部において視覚的知覚を提供することができない(視覚的検出を損なうことさえある)。
(3)音声-触覚方向指示器。聴覚表示または刺激に基づく、本明細書で開示される音声触覚方向指示器および任意の方法(またはシステム)は、情報を提示するために2つのモダリティを使用する。音声-触覚方向指示器は、聴覚および触覚刺激に基づく。本明細書に開示される方法は、視覚および聴覚刺激に基づく。音声-触覚方向指示器は主に聴覚刺激によってヘルメットに方向情報を提供することを目的とし、助剤として触覚刺激を使用する。本明細書で開示される方法は本明細書で開示される1つまたは複数の特徴または特性(例えば、立ち下がりピッチ)を有する聴覚刺激を提示することによって、人間が、極端な周辺において移動物体を視覚的に知覚することを可能にすることを目的とする。
(4)3D音声またはステレオ技術。聴覚表示または刺激に基づいて本明細書で開示される3D音声またはステレオ技術および任意の方法(またはシステム)は人間が聴覚刺激を通して外界をより明確に知覚することを可能にするために、音を使用する。技術は実際の環境音を再現するために、よりリアルで超正確なサウンドを作り出すことを目指している。しかし、本開示の方法は本明細書で開示される1つまたは複数の要因または特性を操作しながら、単純な音しか必要としないが、これらの技術とは異なり、そのような高品質の音を生成する必要はない。例えば、ピッチが10%だけ減少する単純なモノラル1000Hzのビープ音と、安価なヘッドホンの手段による音量の基本的なフェードイン及びフェードアウト効果とは、遠い周辺部及び極端な周辺部における視覚的な運動の知覚を向上させることができる。
<視覚運動認知の強化>
図2は、後方からの視覚運動知覚を強化または改善する例示的な方法200を示すフロー図である。方法200は、計算システムまたはデバイスの1つ以上のディスクドライブのような、コンピュータ読み取り可能媒体上に記憶された実行可能プログラム命令のセットで実施することができる。例えば、図6に示され、以下により詳細に説明されるコンピューティングシステム600は方法200を実装するために、一組の実行可能プログラム命令を実行することができる。方法200が開始されると、実行可能プログラム命令は、RAMなどのメモリにロードされ、コンピューティングシステム600の1つ以上のプロセッサによって実行され得る。方法200は図6に示されるコンピューティングシステム600に関して説明されるが、この説明は例示的なものにすぎず、限定することを意図するものではない。いくつかの実施形態では、方法200またはその一部が複数のコンピューティングシステムによって、連続的に、または並列に実行されてもよい。
いくつかの実施形態では、コンピューティングシステムがヘルメットまたはウェアラブル装置に関連付けられ、備えられ、またはそれらに含まれる。例えば、コンピューティングシステムは、ヘルメットまたはウェアラブル装置に取り付けることができる。例えば、コンピューティングシステムは、ヘルメットまたはウェアラブルデバイスの一部であってもよい。
方法200がブロック204で開始した後、方法200はブロック208に進み、ここで、計算システムが1つまたは複数のセンサによって捕捉されたセンサデータを受け取る。1つまたは複数のセンサは、画像撮像装置、無線検知測距(レーダー)、光検知測距(ライダー)、音声撮像装置、またはそれらの組み合わせを備えることができる。センサデータは、複数の画像を含むことができる。コンピューティングシステムは、画像捕捉装置によって捕捉された複数の画像を受信することができる。
いくつかの実施形態では、センサデータが対象物に関連付けられた1つまたは複数の遠隔測定センサおよび位置センサによって捕捉された対象物の位置、速度、および方向を含む。1つまたは複数のセンサは、対象物に関連付けられた1つまたは複数の遠隔測定センサおよび位置センサを備えることができる。対象物に関連付けられた1つ以上の遠隔測定センサ及び位置センサは、対象物に関連付けられた全地球測位システム(GPS)センサを含むことができる。第1の車両のコンピューティングシステム200は例えば、ブロック212(詳細は後述)において、第2の車両の1つまたは複数の遠隔測定センサおよび位置センサによって捕捉されたセンサデータを使用して、第1の時刻における第1の車両に対する第2の車両の位置および軌道を決定することができる。
例えば、第1の人物は、コンピューティングシステム200に関連するか、またはそれを含む第1の車両を運転している。2人目は、後方から1台目の車両に接近する2台目の車両を運転している。第2の車両は、別のコンピューティングシステム200に関連付けられるか、またはそれを備える。第1の車両は、1つまたは複数の遠隔測定センサおよび位置センサに関連付けられるか、またはそれらを備えることができる。第2の車両は、1つまたは複数の遠隔測定センサおよび位置センサに関連付けられるか、またはそれらを備えることができる。第1の車両は、第1の車両の1つまたは複数の遠隔測定センサおよび位置センサによって捕捉されたセンサデータを、直接的または間接的に第2の車両に送信することができる。第2の車両は、第2の車両の1つまたは複数の遠隔測定センサおよび位置センサによって捕捉されたセンサデータを、直接的または間接的に第1の車両に送信することができる。第1の車両のコンピューティングシステム200は例えば、ブロック212(詳細は後述)において、第2の車両の1つまたは複数の遠隔測定センサおよび位置センサによって捕捉されたセンサデータを使用して、第1の時刻における第1の車両に対する第2の車両の位置および軌道を決定することができる。第2の車両のコンピューティングシステム200は例えば、ブロック212(詳細は後述)において、第1の車両の1つまたは複数の遠隔測定センサおよび位置センサによって捕捉されたセンサデータを使用して、別の第1の時刻における第2の車両に対する第1の車両の位置および軌道を決定することができる。
いくつかの実施形態では、コンピューティングシステムが1つまたは複数のセンサ、または1つまたは複数のセンサのうちの1つまたは複数を備える。コンピューティングシステムは1つまたは複数のセンサ、または1つまたは複数のセンサのうちの1つまたは複数に関連付けることができる(例えば、電気通信で、有線通信で、または無線通信で)。いくつかの実施形態では1つまたは複数のセンサ、または1つまたは複数のセンサのうちの1つまたは複数はセンサシステムなどの第2のシステムに関連付けられる。コンピューティングシステムは第2のシステムに関連付けることができる(例えば、電気通信で、有線通信で、または無線通信で)。コンピューティングシステムは第2のシステムから、1つまたは複数のセンサ、または1つまたは複数のセンサのうちの1つまたは複数によって取り込まれたセンサデータを受信することができる。いくつかの実施形態ではヘルメット、カーオーディオシステム、または着用可能なスピーカシステムまたはデバイスは1つまたは複数のセンサに関連付けられるか、1つまたは複数のセンサを備えるか、または1つまたは複数のセンサに含まれる。例えば、コンピューティングシステムはヘルメットに取り付けることができ、1つまたは複数のセンサと電気的、有線、および/または無線通信することができる。例えば、1つまたは複数のセンサは、ヘルメットまたはウェアラブル装置に取り付けることができる。
方法200はブロック208からブロック212に進み、ここで、コンピューティングシステムはセンサデータを使用して、対象物(例えば、対象物を通過する対象物、または対象物に衝突する対象物)の閾値距離内で対象物(例えば、システムのユーザ)に対して移動している対象物であるか、または尤度閾値を超える尤度を有する対象物を決定する。コンピューティングシステムは、センサデータを使用して、2回目に被験者の閾時間距離で被験者に対して移動している目的であるか、または尤度閾時間を超える尤度を有する目的であるかを判定することができる。コンピューティングシステムは、センサデータを使用して、通過時にユーザを通過させているか、または通過する尤度閾時間を超える尤度を有する目的を決定することができる。
いくつかの実施形態では、コンピューティングシステムがセンサデータを使用して、被検体に対する物体の位置および軌道を時間決定することができる。第1の時間における対象物に対する対象物の位置および軌道は、対象物が第2の時間に対象物のそばを通過する、または対象物に衝突する可能性が高いことを示すことができる。初めてのユーザに対する目的の位置および弾道は、目的が通過時間にユーザのそばを通過する尤度閾値を超える尤度を有することを示す。
コンピューティングシステムは、第1の時間における対象物に対する対象物の位置および弾道に基づいて、第2の時間において対象物の閾値距離内で対象物に対して移動する尤度閾値を超える尤度を対象物が有することを決定することができる。コンピューティングシステムは、初めてのユーザに対する目的の位置および弾道に基づいて、通過する時間にユーザが通過する尤度閾値を超える尤度を目的が有することを決定することができる。
いくつかの実施形態では、コンピューティングシステムが1つまたは複数の機械学習方法またはモデルを使用して、物体が被験者の閾値距離内で(例えば、第2の時間に)被験者に対して移動しているか、または尤度閾値を超える尤度を有すると判定する。コンピューティングシステムは、1つまたは複数の機械学習方法またはモデルを使用して、渡された時間にユーザが渡されているか、または渡される尤度閾値を超える尤度を有する目的を決定することができる。コンピューティングシステムは、1つまたは複数の機械学習方法またはモデルを使用して、被験者に対する物体の位置および軌道を時間決定することができる。
尤度閾値は例えば、少なくとも50%、60%、70%、80%、90%、95%、または99%であり得る。閾値距離は例えば、最大で0メートル、1メートル、2メートル、5メートル、または10メートルとすることができる。目的は例えば、目的の多くとも1メートル、2メートル、5メートル、または10メートル以内に目的のそばを通過することができる。
目的は第1の自動車(例えば、自転車、自動二輪車、自動車、またはトラック)であり得る。被写体は、第2の自動車内にあることができる。被験者は第2の自動車(例えば、自動二輪車、または自転車)に乗ることができる。被験者は歩いていることができる。最初の自動車は後ろから被写体に近づくことができる。
いくつかの実施形態では、コンピューティングシステムがセンサデータ、初めてのユーザに対する目的の位置および弾道、および/または目的が通過しているか、または通過時にユーザが第3のシステムに通過する尤度閾値を超える可能性を有するという指示を送信することができる。コンピューティングシステムは第3のシステムに関連付けることができる(例えば、電気通信で、有線通信で、または無線通信で)。例えば、コンピューティングシステムは、センサデータ、初めてのユーザに対する物体の位置および弾道、および/または物体が通過しているか、または通過時にユーザが車両のオーディオシステムまたは車両の制御システムに通過する可能性閾値を超える可能性があるという表示を送信することができる。
物体は、第1の時間、第2の時間、および/または経過時間において、被検体の視野内に存在しなくてもよい(または存在しなくてもよい)。物体は、第1の時間、第2の時間、および/または経過時間における被験者の視野の周辺(遠い周辺および/または極端な周辺など)にあってもよい(またはあってもよい)。物体は第1の時間、第2の時間、および/または経過時間において、被検体の視野の遠い周辺にあってもよい(または遠い周辺にあってもよい)。これは、第1の時間、第2の時間、および/または経過時間における被験者の視野の極端な周辺にあってもよい(またはその周辺にあってもよい)。ユーザの視野の遠い周辺は例えば、鼻から時間的に離れて、被験者のこめかみに向かって約60°~約110°を含むことができる。ユーザの視野の遠方周辺は例えば、鼻から時間的に離れて被験者のこめかみに向かって約50°、約55°、約60°、約65°、または約70°~約100°、約105°、約110°、約115°、または約120°を含むことができる。ユーザの視野の極端な周辺は例えば、鼻から時間的に離れて、被験者のこめかみに向かって約90°~110°を含むことができる。ユーザの視野の遠方周辺は例えば、鼻から時間的に離れて被験者のこめかみに向かって約80°、約85°、約90°、約95°、または約100°~約100°、約105°、約110°、約115°、または約120°を含むことができる。
いくつかの実施形態では、第1の時間がセンサデータ、または複数の画像、またはその一部が取り込まれる時間である。第1の時間は、センサデータ、または複数の画像、またはその一部が捕捉された後の時間であってもよい。第1の時間はセンサデータ、または複数の画像、またはその一部が取り込まれた直後の時間(例えば、0.0000001秒、0.000001秒、0.00001秒、0.0001秒、0.001秒、0.01秒、0.1秒、または1秒以内)とすることができる。
方法200はブロック212からブロック216に進み、ここで、コンピューティングシステムは、被験者の閾値距離内で被験者に対して移動する被験者の聴覚特性に対応する特性を有する聴覚刺激を決定する。コンピューティングシステムは、第1の時間における被験者に対する物体の位置および弾道に基づいて聴覚刺激を決定することができる。聴覚刺激の特性は、被験者の閾値距離内で被験者に対して移動する被験者の聴覚特性に対応することができる。コンピューティングシステムは、立ち下がりピッチを含むグループから選択された特性を有する聴覚刺激を決定することができる。コンピューティングシステムは、初めてのユーザに対する目的の位置および弾道に基づいて、聴覚刺激を出力するための聴覚刺激および出力時間を決定することができる。出力時間は経過時間であってもよいし、出力時間は、第1の時間と経過時間との間であってもよい。コンピューティングシステムは、初めてユーザに対する物体の位置および弾道に基づいて、出力される必要がある聴覚刺激を決定することができる。聴覚刺激の特性は、下降ピッチを含むグループから選択することができる。聴覚刺激をあらかじめ選択することができる。聴覚刺激の特性(例えば、下降ピッチ)は、予め選択することができる。
いくつかの実施形態では、出力時間が第2の時間(物体が物体の閾値距離内で物体に対して移動している尤度閾値を超える尤度を有すると判定される)または通過時間(物体がユーザを通過する尤度閾値を超える尤度を有する)である。出力時間は直前(例えば、0.0000001秒、0.000001秒、0.00001秒、0.0001秒、0.001秒、0.01秒、0.1秒、または1秒)から2回目または通過時間までとすることができる。出力時間は、第1の時間と第2の時間との間、または経過時間とすることができる。
いくつかの実施形態では、聴覚刺激の特性が下降ピッチである。例えば、聴覚刺激は、10%または100Hzの減少または下降ピッチを有する1000Hzのビープ音とすることができる。ピッチは例えば、聴覚刺激の周波数の1%、5%、10%、15%、20%、またはそれ以上減少または低下することができる。ピッチは例えば、10Hz、50Hz、100Hz、150Hz、200Hz、またはそれ以上減少または低下することができる。聴覚刺激のピッチの減少または減少は、0.0000001秒、0.000001秒、0.00001秒、0.0001秒、0.001秒、0.01秒、0.1秒、または1秒以内に起こり得る。聴覚刺激は、フェードインおよびフェードアウト効果を有することができる。いくつかの実施形態では、聴覚刺激が狭い範囲の周波数(例えば、1Hz、10Hz、または100Hz)または純音(例えば、250Hz、500Hz、750Hz、800Hz、900Hz、1000Hz、1100Hz、または1200Hz)を含む。いくつかの実施形態では、聴覚刺激が音楽、音声、またはそれらの組み合わせを含む。
いくつかの実施形態では、聴覚刺激の特性が落下ピッチ、増加するラウドネス、より多くの周波数、より高い周波数、角度差の規則性、角度差の特異性、音影、より大きい角度サイズ、被験者(またはユーザ)の耳に対するラウドネス非対称性、約90°の頭部伝達関数、被験者(またはユーザ)の水平線より下の垂直位置、またはそれらの組み合わせを含む群から選択される。いくつかの実施形態では、聴覚刺激の特性の変化が経過時間で最も速い、または最も高い、またはほぼ経過時間である。
方法200はブロック216からブロック220に進み、ここで、コンピューティングシステムは、出力時に聴覚刺激を被験者に出力させる。コンピューティングシステムは1つまたは複数のオーディオ出力デバイスに、出力時に聴覚刺激を出力させることができる。コンピューティングシステムは、1つ以上のオーディオ出力装置に関連付けられているか、それに含まれていてもよい。別のシステムは、ヘルメット、カーオーディオシステム、またはウェアラブルスピーカシステムまたはデバイスなどの1つまたは複数のオーディオ出力デバイスを備えることができる。コンピューティングシステムは、聴覚刺激および/または出力時間を他のシステムに送信することができる。コンピューティングシステムは他のシステムの1つまたは複数のオーディオ出力デバイスに、出力時に聴覚刺激を出力させることができる。
聴覚刺激は出力時または出力直後に、被験者の視野の周辺(例えば、遠い周辺および/または極端な周辺)において被験者が物体を視覚的に知覚する可能性を高めることができる。聴覚刺激は、出力時間または出力時間の直後の時間において、ユーザの視野の遠い周辺および/または極端な周辺において、ユーザが物体を視覚的に知覚する可能性を高めることができる。尤度の増加は例えば、少なくとも10%、20%、30%、40%、または50%であり得る。出力時間の直後の時間は例えば、出力時間の0.0000001秒、0.000001秒、0.00001秒、0.0001秒、0.001秒、0.01秒、0.1秒、または1秒以内とすることができる。
左右のオーディオ出力デバイス。いくつかの実施形態では、第1の時間における対象物に対する対象物の位置および弾道は、対象物が第2の時間(または通過時間)に対象物の左側または右側を通過または衝撃する可能性が高いことを示す。コンピューティングシステムは、出力時に被験者の左耳または右耳にそれぞれ聴覚刺激を出力させることができる。
いくつかの実施形態では、1つまたは複数のオーディオ出力デバイスが被験者の左耳および/または右耳に聴覚刺激を出力するための左オーディオ出力デバイスおよび右オーディオ出力デバイスを備える。耳上ヘッドセットなどのヘッドセットは、被験者の左耳および/または右耳にそれぞれオーディオ刺激を出力するための左スピーカおよび右スピーカを備えることができる。カーオーディオシステムは、左スピーカと右スピーカから構成することができる。カー音声システムの左スピーカが音声刺激を出力すると、被験者は両耳で音声刺激を聞くことができるが、被験者は最初に左耳で音声刺激を聞くことができる。
第1の時間における対象物に対する対象物の位置および軌道は、対象物が通過する時間または第2の時間(対象物が対象物の閾値距離内で対象物に対して移動している尤度閾値を超える尤度を有すると判定される)において、対象物がユーザの左側の対象物を通過する、または衝突する可能性があることを示すことができる。コンピューティングシステムは左オーディオ出力デバイスに、出力時にユーザの左耳に聴覚刺激を出力させることができる。対象物に対する対象物の位置および弾道は、対象物が通過する時間または第2の時間に、ユーザの右側の対象物を通過する可能性があるか、または対象物に衝突する可能性があることを示すことができる。コンピューティングシステムは右オーディオ出力デバイスに、出力時にユーザの右耳に聴覚刺激を出力させることができる。
方法200はブロック224で終了する。
<ユーザの安全性を向上させるためのシステム>
<スピーカ構成>
図3A~3Dは、例えば、遠方周辺および極端周辺における視覚運動知覚を強化することによってユーザの安全性を向上させるためのシステム(例えば、スマートフォンヘルメットまたはウェアラブル装置のスピーカ)の聴覚出力装置の、非限定的な例示的配置を示す概略図である。図3Aは、人物の後方投影分野300、すなわち人物の背後を示す。人物(例えば、車両の運転者又はライダー)の周りのほとんどの移動物体では音は人物の知覚水平線の下から不釣り合いに来る。人の知覚水平線は、人の目および耳のレベルにある。理論に束縛されるものではないが、人の周りの移動物体の音は移動物体が地面上を推進し、したがって地面と相互作用するかなりの騒音を作るので、人の水平線の下から来る。さらに、車(および車両一般)からのエンジン騒音も、人の目のレベルよりも低い傾向がある。人のすぐ後ろの道路上の自動車(および同じ方向に進む)は、水平線の中心点(点線が304c0と交差する)にある傾向がある。自動車が人(または運転中、乗車中など、人が操作している車両)に近づくと、これらの自動車は人の投影分野内で下降したり外に出たりする傾向がある。人の上を数車線通過する自動車は、下方よりも外側に移動する(左端の矢印または弾道308を参照)。1つの車線を通過する自動車は、より多くの下降およびより少ない外へ移動する(約7時の矢印または弾道312を参照されたい)。人の後端までの衝突コース上の物体はほとんどがちょうど下に移動し、ほとんど外に出ない(2つの下矢印または軌道316a、316bの間の領域を参照されたい)。
図3Aにおける人物の背後の投射場内の物体の特性経路が与えられれば、ヘルメット内またはウェアラブル装置(例えば、ネック装置)上にスピーカを配置することは、課題を提起することができる。スピーカが人の頭部の周りに一定の高さに配置される場合、スピーカは同じ方向に動くドライバーの後方の車の動きとは異なり、図3Bの左にある点線の水平線320として、より多く追跡するのであろう。
いくつかの実施形態では、ヘルメットが図3Cに示すように、後方視野に、スピーカ324、328a~328h、332a~332hの2次元アレイを装備する。いくつかの実施形態では、ヘルメットが後方視野において、スピーカ324、スピーカ328a~328hのうちの1つ以上、および/またはスピーカ332a~332hのうちの1つ以上を備えるスピーカの2次元アレイを装備する。いくつかの実施形態では、ヘルメットがスピーカ324、328a~328h、332a~332hの2次元アレイと、各半径線に対して1つ以上のスピーカとを備える。図3Aを参照して説明した理由により、人の背後の自動車の任意の位置に対して、その位置に対応する後方投影分野上に固有のスポットが存在する。したがって、任意の特定の話者の活性化は、その人の背後の道路上の自動車の特定の3次元位置をその人に一意的にキューイング(または指示)することができる。
単一の輪郭または一列のスピーカだけを備えたネック装置(またはウェアラブル装置)の場合、装置は図3Dに示す「後方から通過する車、1車線オーバー」曲線またはパターン340に従って配置されたスピーカ332a、328a、324、328b、332bを含むことができる。装置は装置を使用する人の頭部の後方に向かって装置が移動する(例えば、着用する)につれて上昇することができる。または装置がそれに応じて装置から到達するスピーカを有することができる。ヘルメット(またはウェアラブル装置)が一列のスピーカを含む場合、スピーカは直線ではなく、ヘルメットの背面にある「後方から通過する車、1車線オーバー」曲線またはパターン336に従って配置することができる。位置決めされた単一列のスピーカ332a、328a、324、328b、332bは、典型的な通過車を追跡するために使用することができる。車が背後からヘルメットを着用している人と衝突すると、同じ偏心または異なる偏心を有する2つ以上のスピーカ332a、328a、324、328b、332bを作動させることができる。例えば、一対のスピーカ332a、332bを作動させることができる。別の実施例として、スピーカ328a、328bの一対を作動させることができる。起動された2つ以上のスピーカ332a、328a、324、328b、332bは、同じ偏心率または異なる偏心率を有することができる。起動された2つ以上のスピーカ332a、328a、324、328b、332bは、対応する時間に同じラウドネスまたは異なるラウドネスで聴覚刺激を出力することができる。いくつかの実施形態では、自動車が後方からヘルメットを着用している人と衝突すると、スピーカ332a、328a、324、328b、332bのうちの1つを作動させることができる。
<スピーカの活性化>
図4A~4Fは、例えば、遠方周辺および極端周辺における視覚運動知覚を強化することによって、ユーザの安全性を向上させるためのシステム(例えば、スマートフォンヘルメットまたはウェアラブルデバイスのスピーカ)の聴覚出力装置の非限定的な例示的活性化を示す概略図である。
図4Aは、人物の後方投影分野400、すなわち人物の背後を示す。人のすぐ後ろにある(同一方向に進む)道路上の自動車は、投影分野内の水平線の中心点(0度404)にある傾向がある。自動車が人(または運転中、乗車中、または乗車中など、人が操作している車両)に近づくと、自動車は投影されたフィールド内で下に移動し、人の投影フィールド内で外に移動する傾向がある。例えば、車は、車が遠方から人に近づくにつれて、人物の投影照射野内で0度から45度(45度の輪郭線404c1で表される)まで移動することができる。自動車は次に、人の投影において45度から90度(90度の輪郭404c2によって表される)に移動することができ、これは、自動車が実際に人に近づいたとき(例えば、自動車が人のすぐ後ろにあるとき、または自動車が人のそばを通過しているとき、自動車が人のすぐ隣にあるとき)、人の最外周にあることができる。人の上を数車線通過する自動車は下方よりも外側に移動する(例えば、線または弾道408を参照)。1車線を越えて通過する車は、より多くの下降およびより少ない外へ移動する(例については線または弾道412を参照のこと)。人の後端までの衝突コース上の物体はほとんどがちょうど下に移動し、ほとんど外に出ない(例えば、線または弾道416を参照されたい)。
図4B1および4B2を参照すると、物体(例えば、車)が一定の距離(例えば、50m)で後方から来る場合に、音の発生が開始され得る。いくつかの実施形態では、生成される音が大きな物体(例えばトラック)に対する低い音色、中間サイズの物体(例えば自動車)に対する中間音色、及び小さな物体(例えば自動二輪車)に対する高い音色の1つ又は3つの音色を有することができる。いくつかの実施形態では、生成されるサウンドが1つまたは3つのトーン、すなわち、小さい目的(例えば、自動二輪車)のための低いトーン、中型目的(例えば、自動車)のための中間トーン、および大きい目的(例えば、トラック)のための高いトーンを有することができる。各トーンは狭い範囲の周波数、または純粋なトーン(例えば、250Hz、500Hz、または1000Hz)を有することができる。
図4Cを参照すると、物体が例えば、50メートルの距離で後ろから来るとき、スピーカ0は、小さなラウドネスで単一のトーンを生成し始めることができる。音色は物体の大きさを反映することができる。大型トラックでは250Hz、車では500Hz、自動二輪車では1000Hzである。トーンは目的の速度、すなわち、より高い速度に対してはより高いトーン、およびより低い速度に対してはより低いトーンによって調整することができる。例えば、1050Hzの単一トーンを高速で自動二輪車用に発生させることができる。別の実施例として、950Hzの単一トーンを低速で自動二輪車用に発生させることができる。
図4Dを参照すると、物体が例えば、25メートルの距離にある人の背後にあるとき、スピーカ1x(例えば、スピーカ1a、1b、または1c)、または複数のスピーカ1xは、中程度の音量で複数のトーンを生成し始めることができる。トーンは図4Cを参照して説明したように、物体のサイズ(および、場合によっては、物体の速度によって調整される)に、狭い範囲の周波数(例えば、±1%、±2%、±5%、または±10%、または±10Hz、±20Hz、±50Hz、または±100Hz)を加えたものに基づいて生成されるトーンとすることができる。例えば、対象物が人物から50メートル後ろにあるときに生成されるトーンが250Hzである場合、トラックが人物から25メートル後ろにあるときに生成される複数のトーンは、250Hz ±5%であり得る。目的の軌跡に基づいて、別のスピーカ、または別のスピーカをアクティブにできる。弾道が異なると、起動するスピーカが異なる。例えば、物体が衝突コースである弾道で後方から接近している場合、スピーカ1aを作動させることができる。物体が後方から危険なほど近い弾道で接近している場合には、スピーカ1bを作動させることができる。対象物が、人が回転しているときに危険な軌道で後方から接近している場合、スピーカ1cを作動させることができる。いくつかの実施形態では、人がそれぞれ右または左に曲がっているときに、対象物が危険な軌道で背後から近づいている場合に、スピーカ1c´または1cをアクティブ化することができる。
図4Eを参照すると、物体が例えば5メートルの距離で人の後ろにある場合、スピーカ2x(例えば、スピーカ2a、2b、又は2c)、又は複数のスピーカ2xは、スピーカ1xに加えて、高いラウドネスで複数のトーンを生成し始めることができる。トーンは図4Cを参照して説明したように、物体のサイズ(および場合によっては物体の速度によって調整される)+狭い範囲の周波数に基づいて生成されるトーンとすることができる。例えば、対象物が人物から50メートル後ろにあるときに生成されるトーンが250Hzである場合、トラックが人物から25メートル後ろにあるときに生成される複数のトーンは、250Hz ±5%であり得る。目的の軌跡に基づいて、さまざまなスピーカをアクティブにできる。弾道が異なると、起動するスピーカが異なる。例えば、物体が衝突コースである弾道で後方から接近している場合、スピーカ1aおよび2aを作動させることができる。物体が後方から危険なほど近い弾道で接近している場合には、スピーカ1bおよび2bを作動させることができる。人が旋回しているときに危険な軌道で物体が背後から接近している場合、スピーカ1cおよび2cを作動させることができる。起動された2つ(またはそれ以上)のスピーカは物体が人に近いとき、音源、すなわち物体のより大きなアングラーサイズを模倣することができる。いくつかの実施形態では、スピーカ1c´および2c´、または1cおよび2cは対象物が後方から、例えば、5メートルの距離で、人がそれぞれ右または左に曲がっているときに危険である弾道に接近している場合に、アクティブ化され得る。
図4Fを参照すると、物体が旋回時に危険なほど近いまたは危険な軌道を有する人の極端な周辺(例えば、約90度から)に存在する場合、スピーカ1xおよび2x(例えば、危険なほど近い軌道のためのスピーカ1bおよび2b)は本明細書に記載されるように、極端な周辺における動作検出の断面モードの向上を有するように、急激なピッチ落下を生成し得る。
<聴覚刺激>
人に接近する車両の挙動に応じて刺激がどのように変化するかには規則性がある。以下にいくつかの規則性を示す。
A. <下位後方投影分野と自動車位置との間の1対1マッピング>同じ方向に動くドライバーの後ろの車は、車のどれだけ後ろにあるか、および車の上の車線の数に応じて、図3Aの輪郭の1つの上に横たわることができる。後方投影球の下半分上の位置と、運転者の背後の道路上の自動車の全ての可能な3次元(3D)位置との間には、1対1のマッピングが存在する傾向がある。ドライバーの後ろの道路上のどの車の3D位置に対しても、その3D位置に対応するスピーカをアクティブにすることができる。スピーカの出力を補間することで、対応するスピーカがなくても中間体3Dポジションをキューすることができる。例えば、図3Dを参照すると、スピーカ328aおよび328bは後方投影分野内のスピーカ間の位置に対応する車の3D位置を模倣するために、(例えば、異なるラウドネスで)起動され得る。別の実施例として、図3Dのスピーカ328a及び332aを起動して、後方投影分野内の2つのスピーカの間の位置に対応する車の3D位置を模倣することができる。
B. <ドップラーによる車のピッチ>人の背後の車のピッチは、その相対速度に依存する。かごが人物と同じ速度で移動している場合、かごは、高さも低さもない何らかのベースラインピッチを有することができる。自動車が人に対してより速く移動するほど(例えば、自動車が人に近づくほど)、そのピッチはベースラインよりも高くなり得る。車が人に対して動いている速度が遅いほど(車が後方に倒れているなど)、そのピッチはベースラインより低くなることがある。追跡される自動車については、自動車に対応する人に生成され出力される聴覚音または刺激のピッチが相対速度に応じて変化し得る(いくつかの実施形態ではある程度誇張される)。
C. <車の音量>人の背後の自動車に対応する起動されたスピーカのラウドネスは、その実際の直線距離が与えられると、自動車の実際のラウドネスに対応することができる。距離は、下側後方投影球における車の位置から直接計算することができる。車がそれに応じて物理的に近づくと、突起部球体に沿ってさらに外側に向かってスピーカを起動するよりも、突起部球体(またはヘルメット)上の地平線に近いスピーカの方が静かになる場合がある。
D. <触覚刺激の使用>触覚刺激は2つの生態学的に適切な役割を有することができ、その両方が同時に関連し得ることは、以下の2つの要因に依存する。
a. 人の背後の車が近くにあるとき、車からの音は、実際に触覚刺激を誘発するのに十分な大きさであり得る。ヘルメットまたはネックレスの1つ以上の刺激因子(例えば、1つ以上のスピーカ)からの触覚強度は、人と車との間の距離の逆二乗として変化し得る。また、近くにある場合、触覚刺激は後方投影球上の適切な位置を中心とするピークを有する、刺激因子(例えば、話者)のより広い領域にわたることができる。
b. 触覚刺激は、自動車が人に接近することによって引き起こされる風に起因することもある。ヘルメットまたはネックレスの1つまたは複数のスピーカによって生成される聴覚刺激からの触覚刺激は、ベースラインを上回るドップラーシフトに比例することができる。
<ユーザの安全性の向上>
図5は、ユーザの安全性を向上させる例示的な方法500を示すフロー図である。方法500は、計算システムまたはデバイスの1つ以上のディスクドライブのような、コンピュータ読み取り可能媒体上に記憶された実行可能プログラム命令のセットで実施することができる。例えば、図6に示され、以下により詳細に説明されるコンピューティングシステム600は方法500を実装するために、一組の実行可能プログラム命令を実行することができる。方法500が開始されると、実行可能プログラム命令は、RAMなどのメモリにロードされ、コンピューティングシステム600の1つ以上のプロセッサによって実行され得る。方法500は図6に示されるコンピューティングシステム600に関して説明されるが、この説明は例示的なものにすぎず、限定することを意図するものではない。いくつかの実施形態では、方法200またはその一部が複数のコンピューティングシステムによって、連続的に、または並列に実行されてもよい。
コンピューティングシステムは1つまたは複数のセンサを備えるか、またはそれに関連する(例えば、電気通信、有線通信、または無線通信などと通信する)ことができる。1つまたは複数のセンサをヘルメットに関連付けることができる。1つまたは複数のセンサは、異なる種類のセンサデータを捕捉することができる。
コンピューティングシステムは(1a)ユーザの水平線の下、(1b)ユーザの水平線の下、(2a)ユーザの左側、(2b)コンピューティングシステムのユーザの直後、および(2c)右側からの音を模倣する聴覚刺激を出力するための複数のオーディオ出力デバイス(例えば、図3Dを参照して説明したスピーカ332a、328a、324、328b、332、または図4B2を参照して説明したスピーカ0、1c´、1b´、1a-1c、2b´、2a-2c)を備えることができ、またはそれに関連付けることができる。システムは、ヘルメットまたは着用可能なデバイス(拡張現実または混合現実デバイスなど)に関連付けられてもよく、それらを備えてもよく、またはそれらに含まれてもよい。複数のオーディオ出力デバイスは、ヘルメットまたはウェアラブル装置上、ヘルメット内、またはヘルメットデバイス内にあってもよい。複数のオーディオ出力機器は、(1a)ユーザの水平線の下、および(2a)ユーザの左側、(2b)ユーザの直後、および(2c)右側からの音を模倣する聴覚刺激を出力するように配置することができる。図3C、3D、4B1、および4B2、ならびに付随する説明は(1a)ユーザの地平線の下方、ならびに(2a)ユーザの左側から、(2b)直後方、および(2c)ユーザの右側からの音を模倣するための複数の音声出力装置の位置決めの非限定的な例示的な概略図を示す。
いくつかの実施形態では、複数のオーディオ出力デバイスが(i)ヘルメットまたはウェアラブル装置を着用するときに、ユーザの水平線の中心点からの音を模倣する聴覚刺激を出力するための水平線量オーディオ出力デバイス(例えば、図3Dのスピーカ324、または図4B1および4B2のスピーカ0)と、(ii)ヘルメットまたはウェアラブル装置を着用するときに、ユーザの水平線の下の第1の垂直量からの音を模倣する聴覚刺激を、それぞれ、ユーザの左側および右側に出力するための、ヘルメットまたはウェアラブル装置上の、またはヘルメットまたはウェアラブル装置の第1の輪郭(例えば、45度の輪郭)の第1の左下水平線オーディオ出力デバイスおよび第1の右下水平線オーディオ出力デバイス(例えば、図3Dのスピーカ328b、328a、または図4B2のスピーカ1bおよび1b´)と、を備える。複数のオーディオ出力機器は利用者の地平線下および中心点からの音を模倣する聴覚刺激を出力するための第1の輪郭の中心の地平線下方オーディオ出力機器(例えば、図4B2のスピーカ1a)を備えることができる。
いくつかの実施形態では、複数の音声出力装置が(iii)ヘルメットまたはウェアラブル装置を装着したときに、ユーザの地平より下の第2の垂直レベルからの音を模倣する聴覚刺激を、それぞれユーザの左側および右側に出力するための第2の輪郭(例えば、90度の輪郭)の(iii)第1の左下方水平音声出力装置および第1の右下方水平音声出力装置(例えば、図3Dのスピーカ332b、332a、または図4B2のスピーカ2bおよび2b´)を含む。2 番目の垂直レベルは、1 番目の垂直レベルを下回ることができる。2つ目の輪郭は、1つ目の輪郭よりも下になることがある。
いくつかの実施形態では、複数のオーディオ出力デバイスが(ii)ヘルメットまたはウェアラブル装置を着用するときに、それぞれ、ユーザの水平線より下の第1の垂直レベルからの音を模倣する聴覚刺激を出力するための、ヘルメットまたはウェアラブル装置上の、またはヘルメットまたはウェアラブル装置の、第1の輪郭の、第2の左下水平線オーディオ出力デバイスおよび第2の右下水平線オーディオ出力デバイス(例えば、図4B2のスピーカ1cおよび1c´)を備える。第2の左水平下音声出力デバイスによって出力された聴覚刺激によって模倣された音は、第1の輪郭の第1の左水平下音声出力デバイスによって出力された聴覚刺激によって模倣された音の左にすることができる。第2の右地平下音声出力デバイスによって出力される聴覚刺激によって模倣される音は、第1の輪郭の第1の右地平下音声出力デバイスによって出力される聴覚刺激によって模倣される音の右にあることができる。第2の左下水平音声出力デバイスは、第1の輪郭の第1の左下水平音声出力デバイスの左にあることができる。第2の右下地平線音声出力デバイスは、第1の輪郭の第1の右下地平線音声出力デバイスの右にあることができる。
方法500がブロック504で開始した後、方法500はブロック508に進み、そこで、コンピューティングシステム(例えば、図6に示されるコンピューティングシステム600)が、1つまたは複数のセンサによって捕捉された第1のセンサデータを受け取る。いくつかの実施形態では、1つまたは複数のセンサが画像捕捉装置、無線検出および測距(Radio Detection and Ranging)(レーダー)、光検出および測距(ライダー)、オーディオ捕捉装置、またはそれらの組合せを備える。
方法500はブロック508からブロック512に進み、ここで、コンピューティングシステムは第1のセンサデータ(例えば、画像データ、レーダーデータ、ライダーデータ、オーディオ入力、遠隔測定データ、および位置データ)を使用して、第1の時間にユーザに対する物体の第1の位置を決定する。第1の時点におけるユーザに対する目的の第1の位置は、0度における水平線の中心点のような、ユーザの後方投影分野内の位置に対応することができる。コンピューティングシステムは、1つまたは複数の機械学習方法またはモデルを使用して、初めてユーザに対する目的の第1の位置を決定することができる。ユーザに対する目的の第1の位置は、ユーザの第1の閾値距離内にあることができる。第1の閾値距離は例えば、1メートル、2メートル、5メートル、10メートル、20メートル、または100メートルとすることができる。例えば、物体は、ユーザの後方50メートルとすることができる。いくつかの実施形態では、目的は第1の自動車である。いくつかの実施形態では、ユーザが第2のモータ内にいるか、又は第2のモータに乗っている。
方法500はブロック512からブロック516に進み、ここで、コンピューティングシステムは、1つまたは複数の第1の聴覚刺激と、第1の時点におけるユーザに対する目的の第1の位置を使用して、1つまたは複数の第1の聴覚刺激を出力するための、複数のオーディオ出力デバイスのうちの対応する1つまたは複数の第1のオーディオ出力デバイスとを決定する。第1の聴覚刺激の特性は、対象物の特性に関連付けることができる。第1の聴覚刺激の特性は、物体の少なくとも1つの特性に関連付けることができる。
いくつかの実施形態では、1つ以上の第1の聴覚刺激および対応する1つ以上の第1のオーディオ出力デバイスが2つ以上の第1の聴覚刺激および対応する2つ以上の第1のオーディオ出力デバイスを備える。対応する第1のオーディオ出力デバイスによって出力される2つ以上の第1の聴覚刺激の組み合わせは、複数のオーディオ出力デバイスのいずれも個別に模倣することができない最初の時点で、ユーザに対して第1の位置で移動する目的の音を模倣することができる。例えば、図3Dのスピーカ328aおよび328bは後方投影照射野内のスピーカ間の位置に対応する車の3D位置を模倣するために起動することができる(例えば、異なるラウドネスで)。別の実施例として、図3Dのスピーカ328a及び332aを起動して、後方投影分野内の2つのスピーカの間の位置に対応する車の3D位置を模倣することができる。
いくつかの実施形態では、1つまたは複数の第1の聴覚刺激が狭い範囲の周波数(例えば、1Hz、10Hz、または100Hz)または純音(例えば、250Hz、500Hz、750Hz、800Hz、900Hz、1000Hz、1100Hz、または1200Hz)を含む。いくつかの実施形態では、1つまたは複数の第1の聴覚刺激が音楽、非音楽、音声、非音声、またはそれらの組合せを含む。
いくつかの実施形態では、第1の聴覚刺激の特性が第1の聴覚刺激のピッチである。第1の聴覚刺激の特性は、物体の大きさなどの物体の特性に関連付けることができる。第1の聴覚刺激のピッチは、物体のサイズと正または負に相関することができる。いくつかの実施形態では、第1の聴覚刺激の特性が第1の聴覚刺激の音量である。第1の聴覚刺激の特性は物体の速度など、物体の特性(例えば、最初の物体の特性)に関連付けることができる。第1の聴覚刺激のラウドネスは、物体の速度と正または負に相関することができる。いくつかの実施形態では、第1の聴覚刺激の特性が第1の聴覚刺激のピッチである。第1の聴覚刺激の特性は、物体の大きさおよび速度などの物体の特性に関連付けることができる。第1の聴覚刺激のピッチは、物体のサイズと正または負に相関することができる。第1の聴覚刺激のピッチは、物体の速度と正または負に相関することができる。
方法500はブロック516からブロック520に進み、ここで、コンピューティングシステムは1つまたは複数の第1のオーディオ出力デバイスのそれぞれに、1つまたは複数の第1の聴覚刺激の対応する第1の聴覚刺激を出力させる。例えば、被写体が例えば、ユーザの50メートルの距離の後方から来た場合、図4Cを参照して説明したように、スピーカ0は、小さい音量で単一音を生成し始める。
<目的が閉じている>
いくつかの実施形態では、計算システムが1つまたは複数のセンサによって捕捉された第2のセンサデータを受信することができる。コンピューティングシステムは、第2のセンサデータを使用して、第2の時間にユーザに対する物体の第2の位置を決定することができる。第2の時間におけるユーザに対する物体の第2の位置は、45度の輪郭上の位置など、ユーザの後方投影分野内の位置に対応することができる。ユーザに対する目的の第2の位置は、ユーザの第2の閾値距離内にあることができる。第2の閾値距離は例えば、1メートル、2メートル、5メートル、10メートル、20メートル、または100メートルとすることができる。第2の閾値距離は、第1の閾値距離よりも短く(または長く、または同じ)することができる。コンピューティングシステムは第2の時間におけるユーザに対する目的の第2の位置を使用して、1つまたは複数の第2の聴覚刺激を出力するために、複数の出力デバイスのうちの1つまたは複数の第2の聴覚刺激と、対応する1つまたは複数の第2のオーディオ出力デバイスとを決定することができる。コンピューティングシステムは1つまたは複数の第2のオーディオ出力デバイスのそれぞれに、1つまたは複数の第2の聴覚刺激の対応する第2の聴覚刺激を出力させることができる。例えば、物体がユーザの後方から、例えば、25メートルの距離に来ると、図4Dを参照して説明したように、スピーカ1a、1b、及び1cのうちの1つは、車の軌道に応じて中程度のラウドネスで複数のトーンを生成し始めることができる。
第2の聴覚刺激の特性は物体の特性(例えば、第2の時間における物体の特性)に関連付けることができる。第1の聴覚刺激の特性に対する第2の聴覚刺激の特性の間の差は、第2の時間におけるユーザに対する物体の第2の位置に関連付けることができる。第1の聴覚刺激の特性に対する第2の聴覚刺激の特性の間の差は、第1の時間におけるユーザに対する目的の第1の位置と、第2の時間におけるユーザに対する目的の第2の位置との間の差に関連付けることができる。第1の聴覚刺激の特性に対する第2の聴覚刺激の特性の間の差は、第1の時間におけるユーザに対する目的の第1の位置と、第2の時間におけるユーザに対する目的の第2の位置との間の差と、正または負に相関することができる。
いくつかの実施形態では、第1の聴覚刺激の特性に対する第2の聴覚刺激の特性の間の差がより高い、またはより低い周波数である。例えば、第2の聴覚刺激は、物体が第1の時間よりも第2の時間においてユーザに近い(または遠い)場合、より高い数の周波数、またはより広い周波数範囲を有することができる。別の実施例として、第1の聴覚刺激は、物体が第2の時間よりも第1の時間においてユーザに近い(または遠い)場合、より高い数の周波数、またはより広い周波数範囲を有することができる。いくつかの実施形態では、第1の聴覚刺激の特性に対する第2の聴覚刺激の特性の間の差がより高いピッチまたはより低いピッチである。例えば、第2の聴覚刺激は目的が第1の時間よりも第2の時間においてユーザに近い(または遠い)場合に、第1の聴覚刺激と比較してより高いピッチを有することができる。別の実施例として、第1の聴覚刺激は目的が第2の時間よりも第1の時間においてユーザに近い(または遠い)場合に、第2の聴覚刺激と比較してより高いピッチを有することができる。いくつかの実施形態では、第1の聴覚刺激の特性に対する第2の聴覚刺激の特性の間の差がより大きいラウドネスまたはより小さいラウドネスである。例えば、第2の聴覚刺激は、目的が第1の時間よりも第2の時間においてユーザに近い(または遠い)場合、第1の聴覚刺激よりも大きくすることができる。別の実施例として、第1の聴覚刺激は、目的が第2の時間よりも第1の時間においてユーザに近い(または遠い)場合、第2の聴覚刺激よりも大きくすることができる。
<目的が非常に閉じている>
いくつかの実施形態では、コンピューティングシステムが1つまたは複数のセンサによって捕捉された第3のセンサデータを受信することができる。コンピューティングシステムは、第3のセンサデータを使用して、第3の時点におけるユーザに対する物体の第3の位置を決定することができる。ユーザに対する目的の第3の位置は、ユーザの第3の閾値距離内にあることができる。第2の閾値距離は例えば、1メートル、2メートル、5メートル、10メートル、20メートル、または100メートルとすることができる。第3の閾値距離は第2の閾値距離よりも短い(または長い、または同じ)ことができる。コンピューティングシステムは、(i)1つまたは複数の第1の聴覚刺激を出力するための複数の出力デバイスのうちの1つまたは複数の第1の聴覚刺激および対応する1つまたは複数の第1のオーディオ出力デバイスと、(ii)第3の時間におけるユーザに対する目的の第3の位置を使用して、1つまたは複数の第2の聴覚刺激を出力するための複数の出力デバイスのうちの1つまたは複数の第2の聴覚刺激および対応する1つまたは複数の第2のオーディオ出力デバイスとを決定することができる。コンピューティングシステムは1つまたは複数の第1および第2のオーディオ出力デバイスのそれぞれに、1つまたは複数の第1および第2の聴覚刺激の対応する第1または第2の聴覚刺激を出力させることができる。例えば、図4(e)を参照して説明したように、ユーザから例えば5mの距離に物体が後ろに来ると、スピーカ1a、1b、1cに加えて、スピーカ2a、2b、2cは、高い音量で複数のトーンを生成し始める。
<目的が通過する>
いくつかの実施形態では、計算システムが1つまたは複数のセンサによって捕捉された第4のセンサデータを受け取ることができる。コンピューティングシステムは、第4のセンサデータを使用して、通過時にユーザが通過しているか、または通過する尤度閾時間を超える尤度を有する目的を決定することができる。いくつかの実施形態では、通過する時間にユーザが目的を通過する尤度閾値が少なくとも50%、60%、70%、80%、90%、95%、または99%である。いくつかの実施形態では、目的がユーザの最大1メートル、2メートル、5メートル、または10メートル以内の通過時間でユーザを通過しているか、または通過する可能性閾値を超える可能性を有する。目的はユーザの分野内にあってもなくてもよく、あるいはあってもよく、あるいは最初にユーザの分野の遠い周辺にあってもよく、あるいはあってもよい。いくつかの実施形態では、経過時間が第4のセンサデータまたはその一部が捕捉される時間である。通過時間は、第4のセンサデータまたはその一部が捕捉された後の時間とすることができる。通過時間は第4のセンサデータが取り込まれた直後(例えば、0.0000001秒以内、0.000001秒以内、0.00001秒以内、0.0001秒以内、0.001秒以内、0.01秒以内、0.1秒以内、または1秒以内)の時間、またはその一部であることができる。
コンピューティングシステムは、出力されるべき第4の聴覚刺激を決定することができる。第4の聴覚刺激は、ユーザが通過する物体の聴覚特性に対応する特性を有することができる。いくつかの実施形態では、第4の聴覚刺激の特性が落下ピッチ、増加するラウドネス、より高い周波数、より高い周波数、角度差の規則性、角度差の特異性、音の影、より大きな角度サイズ、ユーザの耳に対するラウドネスの非対称性、約90°の頭部関連伝達関数、ユーザの地平線の下の垂直位置、またはそれらの組み合わせを含む群から選択される。いくつかの実施形態では、第2の聴覚刺激の特性の変化が経過時間で最も速い、または最も高い、またはほぼ経過時間である。
コンピューティングシステムは複数のオーディオ出力機器のうちの1つまたは複数に、出力時に第4の聴覚刺激をユーザに出力させることができる。出力時にユーザに出力される第4の聴覚刺激は出力時または出力時の直後に、ユーザの視野の遠方周辺の物体をユーザが視覚的に知覚して増加する可能性がある。出力時にユーザに出力される第4聴覚刺激は、0.0000001秒、0.000001秒、0.00001秒、0.0001秒、0.001秒、0.01秒、0.1秒、または1秒以内など、出力時間が増加した直後の時点で、ユーザの視野の遠い周辺にある対象物を視覚的に知覚する可能性がある。出力時にユーザに出力される第4の聴覚刺激はユーザが出力時または出力時の直後に、ユーザの視野の遠方周辺の物体を視覚的に知覚する可能性を、例えば、少なくとも10%、20%、30%、40%、または50%増加させることができる。例えば、図4Fにおいて、対象物が弾道を旋回するときに危険に近いまたは危険なユーザの遠い周囲、または極端な周囲に来ると、スピーカ1bおよび2b、またはスピーカ1cおよび2cは、それぞれ、遠い周囲、または極端な周囲での動作検出の断面モードの向上を有するように突然のピッチ落下を発生させる。
いくつかの実施形態では、目的が最初にユーザの視野の極端な周辺にある。ユーザの視野の遠い周辺は、鼻から一時的に離れてユーザのこめかみに向かって約60°~約110°を含むことができる。ユーザの視野の極端な周辺は、鼻から一時的に離れてユーザのこめかみに向かって約90°~110°を含むことができる。
いくつかの実施形態では、目的がユーザの左側のユーザのそばを通過しているか、またはユーザのそばを通過する可能性がある。複数のオーディオ出力機器のうちの1つまたは複数に、出力時に第4の聴覚刺激をユーザに出力させるために、コンピューティングシステムは第1の左水平下オーディオ出力機器に、出力時に第2の聴覚刺激を出力させることができる。いくつかの実施形態では、目的がユーザの右側のユーザのそばを通過しているか、またはそのそばを通過する可能性がある。複数のオーディオ出力機器のうちの1つまたは複数に、出力時に第4の聴覚刺激をユーザに出力させるために、コンピューティングシステムは第1の輪郭の第1の右下地平線オーディオ出力機器および/または第2の輪郭の第1の右下地平線オーディオ出力機器に、出力時に第2の聴覚刺激を出力させることができる。
方法500はブロック524で終了する。
<コンピュータビジョン、機械学習ニューラルネットワーク>
<コンピュータビジョン>1つまたは複数のコンピュータビジョンアルゴリズムは視覚運動知覚を向上させるため、および/またはユーザの安全性を向上させるために(例えば、物体の位置および弾道を決定するために)実装することができる。コンピュータビジョンアルゴリズムの非限定的な例には、スケール不変特徴変換(SIFT)、高速化ロバスト特徴(SURF)、指向性簡単な(ORB)、二元ロバスト不変スケーラブルキーポイント(BRISK)、高速網膜キーポイント(FREAK)、Viola-Jonesアルゴリズム、Lucas-Kanadeアルゴリズム、Horn-Schunkアルゴリズム、表示同時位置およびマッピング(vSLAM)技術、逐次ベイズ推定器(例えば、カルマンフィルタ、拡張カルマンフィルタなど)、バンドル調整、適応閾値処理(および他の閾値処理技術)、反復最近接点(ICP)、半地球のマッチング(SGBM)、特徴点ヒストグラム、様々な機械学習アルゴリズム(例えば、サポートベクターマシン)が含まれる。k-nearest neighbors algorithm、Naive Bayes、ニューラルネットワーク(畳み込みまたは深いニューラルネットワークを含む)、または他の監視された/監視されていないモデルなど。これらのコンピュータビジョンアルゴリズムのうちの1つまたは複数は例えば、物体に対する車両の軌道を決定するために、本明細書で説明する軌道予測で使用することができる。
<機械学習>視覚運動知覚を強化すること及び/又はユーザの安全性を改善することは、種々の機械学習アルゴリズムによって追加的又は代替的に行うことができる。訓練されると、機械学習アルゴリズムはコンピューティングシステム(例えば、図6を参照して説明したコンピューティングシステム6)に格納することができる。機械学習アルゴリズムのいくつかの実施例には、回帰アルゴリズム(例えば、通常の最小二乗回帰など)、インスタンスベースのアルゴリズム(例えば、学習ベクトル量子化など)、決定ツリーアルゴリズム(例えば、分類および回帰ツリーなど)、ベイズアルゴリズム(例えば、k平均クラスタリングなど)、関連付け規則学習アルゴリズム(例えば、a-prioriアルゴリズムなど)、人工ニューラルネットワークアルゴリズム(例えば、Perceptronなど)、深い学習アルゴリズム(例えば、Deep Boltzmann Machine、または深いニューラルネットワークなど)、次元縮小アルゴリズム(例えば、主成分分析アルゴリズムなど)、アンサンブル・アルゴリズム(例えば、スタックド・ジェネラライゼーション(Stacked Generalization))、および/または他の機械学習アルゴリズムが含まれ得る。機械学習アルゴリズムのうちの1つまたは複数は例えば、物体に対する車両の軌道を決定するために、本明細書で説明する軌道予測で使用することができる。
<ニューラルネットワーク>ディープ・ニューラルネットワーク(DNN)のようなニューラルネットワーク(NN)の層はその出力を生成するために、その入力に線形または非線形変換を適用することができる。ニューラルネットワーク層は、正規化層、畳み込み層、ソフトサイン層、線状化層、連結層、プーリング層、再発性層、開始様層、またはそれらの任意の組合せとすることができる。規格化層はその入力の明度を規格化して、その出力を、例えば、L2規格化で生成することができる。正規化層は例えば、複数の画像の明度を相互に対して一度に正規化し、その出力として複数の正規化画像を生成することができる。明度を正規化する方法の非限定的な例には、局所コントラスト正規化(LCN)または局所応答正規化(LRN)が含まれる。局所コントラスト正規化は、画像の局所領域を画素ごとに正規化することによって画像のコントラストを非線形的に正規化して、平均0および分散1(または平均および分散の他の値)を有するようにすることができる。局所応答正規化は他の平均および1の分散(または平均および分散の他の値)を有するように、局所入力領域にわたって画像を正規化することができる。規格化層は、トレーニングプロセスをスピードアップすることができる。
畳み込み層は、その入力を畳み込んでその出力を生成するカーネルのセットを適用することができる。ソフトサイン層は、その入力にソフトサイン関数を適用できる。ソフトサイン関数(softsign(x)) は例えば、(x /(1 + |) x| ))であることができる。 ソフトサイン層は、要素ごとの外れ値の影響を無視することができる。整流された線形層は、整流された線形層ユニット(ReLU)またはパラメータ化された整流された線形層ユニット(PReLU)とすることができる。ReLU 層は、その入力にReLU 機能を適用して出力を生成できる。ReLU 機能ReLU(x) は、max(0、x) のように指定できる。PReLU層は、その入力にPReLU機能を適用して、その出力を生成することができる。PReLU機能PReLU(x)は例えば、x≧0であればx、x<0であればaxとすることができ、ここで、aは正の数である。連結層は、その入力を連結してその出力を生成できる。たとえば、連結層は4 つの5x 5 画像を連結して1つの20x 20 画像を生成できる。プーリング層は、その入力をダウンサンプリングしてその出力を生成するプーリング機能を適用することができる。例えば、プーリング層は、20×20画像を10×10画像にダウンサンプリングすることができる。プーリング機能の非限定的な例には、最大プーリング、平均プーリング、または最小プーリングが含まれる。
時点tにおいて、再発性層は隠れ状態s(t)を計算することができ、再発性接続は、次の時点t+1における入力として、再発性層に時間tにおける隠れ状態s(t)を提供することができる。再帰層は、時間tにおける隠れ状態s(t)に基づいて、時間t+1におけるその出力を計算することができる。例えば、再帰層は時間t+1におけるその出力を計算するために、時間tにおける隠れ状態s(t)にソフトサイン関数を適用することができる。時間t+1における再発性層の隠れ状態は、その入力として、時間tにおける再発性層の隠れ状態s(t)を有する。再発性層は例えば、ReLU機能をその入力に適用することによって、隠れ状態s(t+1)を計算することができる。開始様層は、正規化層、畳み込み層、ソフトサイン層、ReLU層およびPReLU層などの線状化層、連結層、プーリング層、またはそれらの任意の組合せのうちの1つまたは複数を含むことができる。
NN の層数は、実装によって異なる場合がある。例えば、DNN内の層の数は、50、100、200、またはそれ以上とすることができる。深いニューラルネットワーク層の入力タイプは、異なる実装形態では異なる可能性がある。例えば、層数レイヤの出力をその入力として受信することができる。層の入力は、5つの層の出力を含むことができる。別の実施例として、層の入力は、NNの層の1%を含むことができる。層の出力は、多数の層の入力とすることができる。例えば、層の出力は、5つの層の入力として使用することができる。別の実施例として、層の出力は、NNの層の1%の入力として使用することができる。
層の入力サイズまたは出力サイズは、かなり大きくすることができる。層の入力サイズまたは出力サイズはn×mとすることができ、ここで、nは幅を示し、mは入力または出力の高さを示す。例えば、nまたはmは、11、21、31、またはそれ以上であり得る。層の入力または出力のチャネルサイズは、実装形態によって異なる場合がある。例えば、層の入力または出力のチャネルサイズは、4、16、32、64、128、またはそれ以上とすることができる。層のカーネルサイズは、実装によって異なる場合がある。たとえば、カーネルサイズはn x mとすることができる。ここで、n は幅、m はカーネルの高さを示す。例えば、nまたはmは、5、7、9、またはそれ以上であり得る。層のストライドサイズは、実装によって異なる場合がある。例えば、深いニューラルネットワーク層のストライドサイズは、3、5、7又はそれ以上とすることができる。
いくつかの実施形態では、NNがNNの出力を一緒に計算する複数のNNを指すことができる。複数のNNの異なるNNは、異なるタスクのためにトレーニングされることができる。プロセッサ(例えば、図6を参照して説明したプロセッサ610)は、複数のNNのうちのNNの出力を計算して、NNの出力を決定することができる。例えば、複数のNNのうちのNNの出力は、尤度スコアを含むことができる。プロセッサは、複数のNNの異なるNNの出力の尤度スコアに基づいて、複数のNNを含むNNの出力を決定することができる。
<実行環境>
図6は、本明細書に開示される代謝産物、注釈、および遺伝子統合システムを実施するように構成された例示的なコンピューティング装置600の一般的なアーキテクチャを示す。図6に示すコンピューティング装置600の一般的なアーキテクチャは、コンピュータハードウェアおよびソフトウェアコンポーネントの配置を含む。コンピューティング装置600は、図6に示すものよりも多くの(または少ない)要素を含むことができる。しかし、可能な開示を提供するために、これらの一般的に従来の要素のすべてを示す必要はない。図示のように、コンピューティング装置600は処理ユニット610、ネットワークインタフェース620、コンピュータ可読媒体ドライブ630、入出力デバイスインターフェース640、表示装置650、および入力装置660を含み、これらはすべて通信バスを介して互いに通信することができる。ネットワークインタフェース620は、1つ以上のネットワークまたはコンピューティングシステムへの接続性を提供することができる。したがって、処理ユニット610は、ネットワークを介して、他のコンピューティングシステムまたはサービスから情報および命令を受信することができる。処理ユニット610はまた、記憶部670との間で通信し、入出力装置インターフェース640を介してオプションのディスプレイ650のための出力情報をさらに提供することができる。入力/出力機器インターフェース640はまた、キーボード、マウス、デジタルペン、マイクロフォン、タッチスクリーン、ジェスチャ認識システム、音声認識システム、ゲームパッド、加速度計、ジャイロスコープ、または他の入力デバイスなど、任意選択の入力デバイス660からの入力を受け入れることができる。
記憶部670は、1つまたは複数の実施形態を実装するために処理ユニット610が実行する(いくつかの実施形態ではモジュールまたはコンポーネントとしてグループ化された)コンピュータプログラム命令を含むことができる。記憶部670は一般に、RAM、ROMおよび/または他の永続的、補助的または一時的でないコンピュータ可読媒体を含む。記憶部670は、コンピューティング装置600の一般的な管理および動作において処理ユニット610によって使用されるコンピュータプログラム命令を提供するオペレーティングシステム672を記憶することができる。記憶部670は、本開示の態様を実施するためのコンピュータプログラム命令および他の情報をさらに含むことができる。
例えば、一実施形態では、記憶部670が図2を参照して説明した方法200のような、視覚運動知覚を強化するための視覚運動知覚モジュール674を含む。記憶部670は、図5を参照して説明した方法500のような、ユーザの安全性を改善するためのユーザ安全モジュール676を追加的に又は代替的に含むことができる。さらに、記憶部670は、記憶部670が記憶することができるコンピュータプログラム命令を記憶するデータストア690および/または1つ以上の他のデータストアを含むか、またはそれと通信することができる。
上述の実施形態のいくつかの態様は以下の実施例においてさらに詳細に開示されるが、これは本開示の範囲を限定することを決して意図するものではない。
(実施例1)<極端な周辺および極端な周辺における視覚運動知覚の強化>
後方からの極周視運動の検出に対する聴覚刺激の効果を調べた。
極端な周辺は視野外からの物体との被験者の最初の接触点であり得るので、極端な周辺を知覚することができることは、被験者(例えば、哺乳動物、またはヒト)にとって生態学的に重要であり得る。極端な周辺は、被験者の視覚へのゲートウェイと考えることができる。物体が背後から被験者に到来するとき、被験者の物体との最初の接触点は、被験者の極端な周辺であり得る。被験者が自分の頭を被験者の背後の物体に向けると、再び、被験者の物体との最初の接触点は、被験者の極端な周辺であり得る。
人間は、極端な周辺に物体を見るために多くの技術を開発してきた。例えば、自動車は、自動車の運転者が運転者の極端な周辺の物体を見ることを可能にする2つのミラーを有することができる。自動車は、極端な周辺の運転者の視覚を容易にすることを目的とした死角警報システムを持つことができる。極端な周辺の視覚を促進することは、自動車の運転、または自動二輪車の乗車などの人の日常生活にとって非常に重要であり得る。
驚くべきことに、極端な周辺部における視覚についてはほとんど知られていない。極端な周辺部における視覚を容易にする1つの可能な方法は、断面モード変調である。同時聴覚刺激は、検出などの視覚知覚を容易にすることができる。断面モード変調は中心窩よりも周辺部で強くなる可能性がある。同時聴覚刺激は、極端な末梢での視覚を容易にすることがある。
<同時聴覚刺激は極端な周辺部における視覚運動検出を抑制した>
極端な周辺部における断面モード効果を調べるために、ヒト対象が、ビープ音のような聴覚刺激の有無にかかわらず、極端な周辺部において単純な視覚検出タスクを実行かどうか調べた。実験では、1回の閃光が被写体の左または右の極端な周辺部に現れた。標的位置を個々に決定し、平均は被験者の中心窩から96.8度であった。聴覚刺激には、同時白色雑音、同時褐色雑音、および同時500Hzビープ音が含まれた。基準値は音ではなかった。驚くべきことに、3つの聴覚刺激のどれも視覚検出を容易にしなかった。3つの聴覚刺激のうちの2つ(白色雑音および同時500Hzビープ音)が検出を抑制した。モノラルヘッドホンからのビープ音でも同様の抑制が観察された。
クロスモード抑制は、ビープ音またはホワイトノイズなどの聴覚刺激が視覚刺激およびタスクに完全に無関係である結果であり得る。同時にではあるが無関係な聴覚刺激は視知覚を抑制できた。視覚の信頼性が低下すると、聴覚は重要になる。理論に束縛されるものではないが、無関係な聴覚刺激によるクロスモード抑制の観察は極端な周辺部における視覚が非常にノイズが多く、したがって聴覚入力を受けやすい結果であり得る。
<同時聴覚刺激は極端な末梢での視覚運動検出を容易にした>
視覚刺激に関連する(例えば、高度に関連する)聴覚刺激は、極端な周辺部におけるクロスモード顔面化のために必要とされ得る。特定の動きは、特徴的な音と関連付けられる。通過する物体を背後から検出することは、生態学的に重要な状況であり得る。極端な周辺部におけるパッシングバイモーションは、特徴的な落下ピッチシフトと物理的に関連付けることができる。目的から来る音のピッチは、被験者の視覚の約90度で突然落下することがある。このような特徴的な落下ピッチシフトは、被験者の極端な周辺部で生じる。
このような前方運動の検出が特有の立ち下がりピッチシフトによって促進され得るかどうかを決定するための実験において、2つの204ミリ秒(ms)ドット(306ms刺激開始非同期性(SOA))の配列が各被験者の極端な周辺部に提示された。極端な周辺部は、各被験者について75%の検出で最大の偏心であると決定された。それぞれのドットは前方に、または同じ位置に、明らかな運動を持つように、2°の距離を持つ2つの隣り合った位置に提示された。聴覚刺激として、ピッチの低下と同時にビープ音を使用した。落下ピッチを持つ同時ビープ音は、通過目的に対するドップラーピッチシフトを大まかに模倣することができる。ピッチが上昇する同時ビープ音が、別の音のコントロールに加えて、コントロールとして使用された。この結果は、ピッチが下がると同時にビープ音が鳴らず、ピッチが上がると同時にビープ音が鳴る場合に比べて、動き検出のためのヒット率が増加することを示した。
図8は、聴覚が後方からの極端な周辺視覚運動を検出することに影響を及ぼすかどうかを判定するための実験セットアップの非限定的な例示的な概略図である。各被験者の左または右の75%検出可能点を決定するために、予備検出を行った。最初の閃光は被写体の75%検出可能点に現れ、次いで第2の閃光は第1の閃光の同じ位置に現れた(動きを模倣しないため)、または第1の閃光から前方2度(前方運動を刺激するため)。2回目のフラッシュが1回目のフラッシュと同じ場所に現れた場合、被写体は動きを観察しないはずである。2回目のフラッシュが最初のフラッシュから2度前方に現れた場合、被験者は前方の動きを観察すべきである。
明らかな前方への動きは、被験者の極端な周辺部708における2回の連続する近傍フラッシュ704a、704bによって模倣された。このような前方運動の検出が、特徴的な落下ピッチシフト712によって容易になり得るかどうかを、図7に示すように調べた。運動検出は、個々のピッチシフトパターンを有する図9に示される3つの音のうちの1つと結合された。落下ピッチシフト条件では、音のピッチは1回目と2回目のフラッシュ表示中に1000Hzから900Hzに急激に減少した。制御条件に対して、音のピッチは、第1および第2フラッシュ表示中に900Hzから1000Hzに突然増加した。別のコントロールでは、サウンドのピッチを常に950Hz に設定した。3つの音は目的に接近し、次いで目的から出ることを模倣するために、同一のラウドネス変調を有していた。
図10は、後方からの極端な周辺視覚運動の検出に対する3つのタイプの聴覚刺激の効果を示す非限定的な例示的なプロットである。断面モードの容易化のための結果を、各音条件と無音ベースラインの間の、信号検出理論を用いて計算したd´の差異に関して示した。聴覚刺激の影響はF(1、17)=8.27、p=0.010であり、F(1、17)は自由度1、17の分散分析(ANOVA)からのF値である。クロスモード面化は立ち上がりピッチシフト条件と一定ピッチ条件(それぞれp = 0.031とp = 0.031)と比較して立ち下がりピッチシフト条件で有意に大きかった。このような断面モードの容易化は、立ち下がりピッチシフト条件(p = 0.010)でのみ上記より大きかった。結果は明らかに、下降ピッチシフト条件が、極端周辺における前方運動検出を促進することを示した。90度にピークを有するラウドネス変化を伴う一定ピッチ制御は、促進効果を有さなかった。通過する物体を模倣するラウドネス変化は、極端な周辺における動き検出を容易にするのに十分ではない場合がある。ピッチシフトを減少させることは、極端な周辺における「通過」物体の検出のための重要な手がかりであり得る。
各被験者は事後質問票を記入した。事後アンケートを用いて、被験者が聞いた音と、被験者が聞いた音を引き出す運動との間の関係についての各被験者の知識を決定した。運動の選択肢には「あなたに向かって移動する」、「あなたから離れて移動する」、「あなたのそばを通過する」、「あなたのそばを同じ距離で移動する」、「あなたのそばを移動する」、「あなたを横切って移動する」、および「上記のいずれも」が含まれるが、驚くべきことに、誰も正しい運動を識別することができなかった。ピッチが下がる状態で音を聞いた被験者のうち、音を誘発する「あなたのそばを通過する」物体の動きを正しく識別したのは2人(11.8%)のみであった。ピッチが上がる状態で音を聞いた被験者は音を誘発する「上記のいずれの」動きも正しく識別しなかった。ピッチが一定の状態で音を聞いた被験者のうち、「上記のいずれの」動きも音を誘発しない」ことを正しく識別したのは1人(5.9%)のみであった。被験者が聞く音を誘発する運動についての被験者の知識不足は観察されたクロスモード顔面化を意味し、知識ベースの効果によってのみ説明することができない。
視覚刺激に自然かつ生態学的に関連する同時交差モード刺激は、極端な周辺視知覚を容易にすることができる。このような生態学的に関連する聴覚刺激は被験者が聴覚刺激を正しく知覚できない、および/または被験者が聴覚刺激と視覚刺激の関連についてトップダウンの知識を持たない場合でも、極端な周辺部での視覚知覚を容易にすることができる。ラウドネス変化ではなく、下降ピッチシフト条件は、極端な周辺部における前方運動検出を容易にすることができる。ラウドネスの変化は、必ずしも通過する物体を示すものではなく、交差モードの容易性には無関係であってもよい。視覚刺激に特有の聴覚刺激は、断面モードの容易性を容易にする可能性がある。
全体として、これらのデータは音に落下ピッチシフトを加えることが、極端な周辺部における前方視覚運動検出を容易にすることができることを示している。
追加考慮事項
前述の実施形態の少なくともいくつかでは、一実施形態で使用される1つまたは複数の要素は、上記置換が技術的に実現可能でない限り、別の実施形態で交換可能に使用することができる。当業者であれば、特許請求される主題の範囲から逸脱することなく、様々な他の省略、添加、および修正を上述の方法および構造に行うことができることを理解するのであろう。そのような修正および変更はすべて、添付の特許請求の範囲によって定義されるように、主題の範囲内に入ることを意図している。
当業者であれば、本明細書で開示されるこのプロセスおよび他のプロセスおよび方法について、プロセスおよび方法で実行される機能は、異なる順序で実装され得ることを理解するのであろう。さらに、概説されたステップおよび動作は例としてのみ提供され、ステップおよび動作のいくつかは、開示された実施形態の本質を損なうことなく、任意選択であり、より少ない工程および動作に組み合わされ、または追加の工程および動作に拡張され得る。
本明細書における実質的に任意の複数および/または単数の用語の使用に関して、当業者は文脈および/または用途に適切であるように、複数から単数へ、および/または単数から複数へと翻訳することができる。様々な単数/複数の置換は明確にするために、本明細書に明確に記載されてもよい。本明細書および添付の特許請求の範囲で使用されるように、単数形「A」、「an」、および「the」は文脈がそうでないことを明確に示さない限り、複数の言及を含む。したがって、「構成された装置」などの語句は1つまたは複数の列挙された装置を含むことが意図される。上記1つまたは複数の列挙された装置が記載された列挙を実行するように集合的に構成することもでき、たとえば、「列挙A、B、およびCを実行するように構成されたプロセッサは、列挙Aを実行するように構成され、列挙BおよびCを実行するように構成された第2のプロセッサと連携して動作する第1のプロセッサを含むことができる。本明細書における「または」へのいかなる言及も、特に断らない限り、「および/または」を包含することが意図される。
一般的に、本明細書で使用される用語、特に添付の特許請求の範囲で使用される用語(例えば、添付の特許請求の範囲の本体)は一般的に「オープン」用語(例えば、「含んでいる」を含むがこれに限定されない)として意図されており、用語「含んでいる」は「少なくとも有している」と解釈されるべきであり、用語「含んでいる」は「含むがこれに限定されない」と解釈されるべきであり、さらに、導入された特許請求の範囲の特定の数の記載が意図される場合、そのような意図は当該クレームに明示的に記載され、そのような記載がない場合、例えば、理解を助けるために、添付の特許請求の範囲はクレームの記載を導入するための導入用語「少なくとも1つ」および「1つ以上」の用語を含むことができるが、そのような用語の使用は当該技術分野内の者により理解されるのであろう 「A」又は「A」がそのような記載を含む特定のクレームを、そのような記載のみを含む実施形態に限定するものであり、同じクレームが「A」又は「A」又は「an」(例えば、「A」及び/又は「an」は「少なくとも1つ」又は「1つ以上」を意味すると解釈されるべきである)のような導入された語句を含んでいる場合であっても、当該クレームの記載を導入するために使用される特定の物品の使用については同じものが当てはまること、さらに、導入されたクレームの記載の特定の数が明示的に記載されていても、当該記載は少なくとも記載された数(例えば、他の修飾語を含まない「2つの記載」の裸の記載、少なくとも2つの記載を手段、又は2つ以上の記載)を意味するものと解釈されるべきであること、さらに、「少なくとも1つ」に類似する条約が存在する場合 A、一般に、「A、B、Cの少なくとも1つを有するシステム」とは慣習を理解することを意味し(例えば、「A、B、Cの少なくとも1つを有するシステム」とはAのみ、Bのみ、CとB、AとCとB、AとCとC、及び/又はA、B、Cの少なくとも1つを有するシステムを含むが、これらに限定されない)、「A、B、Cの少なくとも1つを一緒に有するシステム」とは一般に、「A、B、Cの少なくとも1つを有するもの」と類似の慣習を使用する場合、一般に、慣習を理解することを意図している(例えば、「A、B、Cの少なくとも1つを有するシステム」とはAのみ、Bのみ、C、A及びBを一緒に、A及びCを一緒に有するもの、A及びCを一緒に有するもの さらに、当該技術分野の人々は明細書、クレーム、又は図面において、2以上の代替的な用語を提示する実質的に任意の分離的な用語及び/又はフレーズを、用語のいずれか又は両方の用語を含めることの可能性を意図すると理解すべきであり、例えば、「A」又は「B」の語句は「A」又は「B」又は「A及びB」の可能性を含むと理解されるのであろうことを理解するのであろう。
さらに、本開示の特徴または態様がマーカッシュグループに関して説明される場合、当業者は、本開示がそれによって、マーカッシュグループの部材の任意の個々の部材またはサブグループに関しても説明されることを認識するのであろう。
当業者によって理解されるように、記載された説明を提供することなどの任意のおよびすべての目的のために、本明細書で開示されるすべての範囲は、その任意のおよびすべての可能なサブ範囲およびサブ範囲の組合せも包含する。列挙されたいずれの範囲も、同じ範囲が少なくとも等しい半分、3分、分房、5分、10分などに分解されることを十分に記述し、可能にするものとして容易に認識することができる。非限定的な例として、本明細書で論じる各温度範囲は、下3分の1、中3分の1、上3分の1などに容易に分解することができる。また、当業者には理解されるように、「最大」、「少なくとも」、「より大きい」、「より小さい」などのすべての言語は列挙された数を含み、上述のように、後にサブ範囲に分解することができる範囲を指す。最後に、当業者によって理解されるように、範囲は、各個々の部材を含む。したがって、例えば、1~3個の物品を有する群は、1、2、または3個の物品を有する群を指す。同様に、1~5個の物品を有する群とは、1、2、3、4、または5個の物品を有する群などをいう。
本開示の様々な実施形態が説明の目的で本明細書に記載されており、本開示の範囲および精神から逸脱することなく、様々な修正を行うことができることが理解されるのであろう。したがって、本明細書で開示される様々な実施形態は限定することを意図するものではなく、真の範囲および精神は以下の特許請求の範囲によって示される。
必ずしもすべての目的または利点が、本明細書で説明される任意の特定の実施形態に従って達成され得るわけではないことを理解されたい。したがって、例えば、当業者は、特定の実施形態が本明細書で教示または示唆され得るような他の目的または利点を必ずしも達成することなく、本明細書で教示されるような1つの利点または利点のグループを達成または最適化する様式で動作するように構成され得ることを認識するのであろう。
本明細書に記載するすべてのプロセスは、1つ以上のコンピュータまたはプロセッサを含むコンピューティングシステムによって実行されるソフトウェア・コード・モジュールにおいて実施され、完全に自動化されてもよい。コードモジュールは、任意の種類の一時的でないコンピュータ読み取り可能媒体または他のコンピュータ記憶装置に記憶することができる。一部または全部の方法は、特殊なコンピュータハードウェアで実施することができる。
本明細書に記載されたもの以外の多くの他の変形が、本開示から明らかになるのであろう。例えば、実施形態に応じて、本明細書で説明されるアルゴリズムのいずれかの特定の動作、イベント、または機能は異なる配列で実行されることができ、追加されることができ、マージされることができ、または完全に除外されることができる(例えば、説明される動作またはイベントのすべてが、アルゴリズムの実施に必要であるわけではない)。さらに、いくつかの実施形態では、動作またはイベントが例えば、マルチスレッド処理、割り込み処理、または複数のプロセッサもしくはプロセッサコアを介して、または順次ではなく他の並列アーキテクチャ上で、同時に実行することができる。さらに、異なるタスクまたはプロセスは、共に機能することができる異なるマシンおよび/またはコンピューティングシステムによって実行することができる。
本明細書で開示される実施形態に関連して説明される様々な例示的な論理ブロックおよびモジュールは、本明細書で説明される機能を実行するように設計された、処理ユニットまたはプロセッサ、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)または他のプログラマブルロジックデバイス、ディスクリートゲートまたはトランジスタ論理、ディスクリートハードウェア構成要素、またはそれらの任意の組合せなどの機械によって実装または実行され得る。プロセッサはマイクロプロセッサであってもよいが、代替案ではプロセッサがコントローラ、マイクロコントローラ、またはステートマシン、同じもの組み合わせなどであってもよい。プロセッサは、コンピュータ実行可能命令を処理するように構成された電気回路を含むことができる。別の実施形態では、プロセッサがコンピュータ実行可能命令を処理することなく論理演算を実行するFPGAまたは他のプログラマブルデバイスを含む。プロセッサは例えば、DSPとマイクロプロセッサの組み合わせ、複数のマイクロプロセッサ、DSPコアと組み合わせた1つ以上のマイクロプロセッサ、またはその他の上記構成など、計算装置の組み合わせとして実装することもできる。本明細書では主にデジタル技術に関して説明するが、プロセッサは主にアナログ構成要素を含むこともできる。例えば、本明細書に記載される信号処理アルゴリズムの一部または全部は、アナログ回路またはアナログとデジタルの混合回路で実装されてもよい。コンピューティング環境はいくつか例を挙げると、マイクロプロセッサ、メインフレーム・コンピュータ、デジタル信号プロセッサ、ポータブル・コンピューティング・デバイス、デバイス・コントローラ、または機器内の計算エンジンに基づくコンピュータシステムを含むが、これらに限定されない、任意のタイプのコンピュータシステムを含むことができる。
本明細書に記載され、かつ/または添付の図面に示されるフロー図における任意のプロセス記述、元素、またはブロックは、プロセスにおける特定の論理機能または元素を実装するための1つまたは複数の実行可能命令を含む、モジュール、セグメント、またはコードの一部を潜在的に表すものとして理解されるべきである。当業者によって理解されるように、含まれる機能に応じて、実質的に同時にまたは逆の順序を含む、元素または機能が削除され、示された順序とは異なる順序で実行され、または議論され得る、代替の実装が、本明細書で説明される実施形態の範囲内に含まれる。
上述の実施形態に対して多くの変形および修正を行うことができ、その要素は、他の許容可能な例の中でもとりわけであると理解されるべきであることを強調すべきである。これらの変更および変形は本開示の範囲に含まれると考えられ、以下の請求項によって保護される。
関連出願の相互参照
本願は、2019年3月29日に出願された米国仮特許出願第62/826,540号、2019年7月29日に出願された米国仮特許出願第62/879,971号、および2019年7月30日に出願された米国仮特許出願第62/880,557号の優先権の利益を主張し、これらの各出願の内容は、その全体が参照により本明細書に組み込まれる。
本開示は、全体的に、視覚による運動知覚の補助の分野に関し、より詳細には、遠周辺部や最周辺部等の周辺部における視覚による運動知覚の補助に関する。
同時聴覚刺激は、視覚による運動知覚を、中心窩よりも周辺部に偏らせることができる。視覚の信頼性が低下すると、聴覚が重要になる。最周辺部における視覚により後ろからの運動を検出することが、重要となる場合がある。なぜなら、視覚の曖昧さが非常に高く、そのような運動を検出することが生態学的に重要な場合があるからである。
本明細書で開示されるものは、視覚による運動知覚を改善するシステムの実施形態を含む。いくつかの実施形態では、システムが、実行可能命令を記憶するように構成される非一時的メモリと、音出力デバイスと、非一時的メモリ、画像捕捉デバイス、および音出力デバイスと通信するハードウェアプロセッサ(または仮想プロセッサ等のプロセッサ)と、を備える。画像捕捉デバイスによって捕捉された複数の画像を受け取るように、実行可能命令によってハードウェアプロセッサをプログラムする。複数の画像を利用して、第1時刻におけるユーザーに対する対象物の位置および軌道を決定するように、実行可能命令によってプロセッサをプログラムすることができる。第1時刻におけるユーザーに対する対象物の位置および軌道は、通過時刻において対象物がユーザーのそばを通過する尤度が尤度閾値を超えることを示すことができる。第1時刻および/または通過時刻において、対象物は、ユーザーの視野内にいなくてもよく、及び/又はユーザーの視野の遠周辺部にいてもよい。第1時刻におけるユーザーに対する対象物の位置および軌道に基づいて、聴覚刺激および聴覚刺激を出力する出力時刻を決定するように、実行可能命令によってプロセッサをプログラムすることができる。出力時刻を通過時刻にすることができ、または、出力時刻を第1時刻と通過時刻の中間にすることができる。聴覚刺激の特徴を、下降ピッチを含むグループから選択することができる。音出力デバイスに、出力時刻においてユーザーに対して聴覚刺激を出力させるように、実行可能命令によってプロセッサをプログラムすることができる。出力時刻においてユーザーに対して聴覚刺激が出力されることにより、出力時刻または出力時刻の直後の時刻において、ユーザーの視野の遠周辺部でユーザーが対象物を視覚的に知覚する尤度を増加させることができる。
本明細書で開示されるものは、視覚による運動知覚を向上するシステムの実施形態を含む。いくつかの実施形態では、システムが、実行可能命令を記憶するように構成される非一時的メモリと、音出力デバイスと、非一時的メモリ、画像捕捉デバイス、および音出力デバイスと通信するハードウェアプロセッサ(または仮想プロセッサ等のプロセッサ)と、を備える。画像捕捉デバイスによって捕捉された複数の画像を受け取るように、実行可能命令によってハードウェアプロセッサをプログラムすることができる。複数の画像を利用して、通過時刻において、対象物が、ユーザーのそばを通過していること、又はユーザーのそばを通過している尤度が尤度閾値を超えることを判定するように、実行可能命令によってプロセッサをプログラムすることができる。通過時刻において、対象物は、ユーザーの視野内にいなくてもよく、又はユーザーの視野の遠周辺部にいてもよい。下降ピッチを含むグループから選択される特徴を有する聴覚刺激を決定するように、実行可能命令によってプロセッサをプログラムすることができる。音出力デバイスに、出力時刻においてユーザーに対して聴覚刺激を出力させるように、実行可能命令によってプロセッサをプログラムすることができる。出力時刻においてユーザーに聴覚刺激が出力されることにより、出力時刻または出力時刻の直後の時刻において、ユーザーの視野の遠周辺部でユーザーが対象物を視覚的に知覚する尤度を増加させることができる。
いくつかの実施形態では、複数の画像を受け取るために、1つ以上のセンサによって捕捉された複数の画像を含むセンサデータを受け取るように、実行可能命令によってハードウェアプロセッサをプログラムする。1つ以上のセンサは、画像捕捉デバイス、無線検出及び測距装置(レーダー)、光検出及び測距装置(ライダー)、音捕捉デバイス、またはそれらの組み合わせを含むことができる。第1時刻におけるユーザーに対する対象物の位置および軌道を決定するために、センサデータを利用して、第1時刻におけるユーザーに対する対象物の位置および軌道を決定するように、実行可能命令によってハードウェアプロセッサをプログラムすることができる。通過時刻において、対象物が、ユーザーのそばを通過していること、またはユーザーのそばを通過している尤度が尤度閾値を超えることを判定するために、センサデータを利用して、通過時刻において、対象物が、ユーザーのそばを通過していること、またはユーザーのそばを通過する尤度が尤度閾値を超えることを判定するように、実行可能命令によってハードウェアプロセッサをプログラムすることができる。
いくつかの実施形態では、システムは、1つ以上のセンサ又は1つ以上のセンサのうち1つ以上を備える。システムは、画像捕捉デバイスを備えることができる。いくつかの実施形態では、センサデータを受け取るために、1つ以上のセンサによって捕捉されたセンサデータを第2システムから受け取るように、実行可能命令によってハードウェアプロセッサをプログラムする。いくつかの実施形態では、センサデータと、第1時刻におけるユーザーに対する対象物の位置および軌道と、および/または、通過時刻において、対象物が、ユーザーのそばを通過していること、又はユーザーが通過する尤度が尤度閾値を超えることの表示と、を第3システムに送るように、実行可能命令によってハードウェアプロセッサをプログラムする。いくつかの実施形態では、ヘルメット、カーオーディオシステム、又は、ウェアラブルスピーカシステム若しくはウェアラブルデバイスが、システム若しくはシステムの一部に関連し、それを含み、またはそれに含まれる。
いくつかの実施形態では、対象物が第1動力車両である。ユーザーは、第2動力車両の中にいてもよい、又は第2動力車両にライディングしていてもよい。いくつかの実施形態では、第1時刻において、対象物がユーザーの視野の最周辺部にいる。いくつかの実施形態では、ユーザーの視野の遠周辺部が、ユーザーの鼻から離れてこめかみに向かう約60°~約110°を含む。ユーザーの視野の最周辺部は、ユーザーの鼻から離れてこめかみに向かう約90°~110°を含むことができる。
いくつかの実施形態では、第1時刻におけるユーザーに対する対象物の位置および軌道に基づいて、通過時刻において対象物がユーザーのそばを通過する尤度が尤度閾値を超えるかを判定するように、実行可能命令によってハードウェアプロセッサをプログラムする。いくつかの実施形態では、通過時刻においてユーザーが対象物を通過する尤度閾値が、少なくとも50%、60%、70%、80%、90%、95%、または99%である。いくつかの実施形態では、第1時刻におけるユーザーに対する対象物の位置および軌道が、通過時刻において、対象物がユーザーから最大1メートル、2メートル、5メートル、または10メートル以内でユーザーのそばを通過する尤度が尤度閾値を超えることを示す。
いくつかの実施形態では、聴覚刺激の特徴は、下降ピッチ、ラウドネスの増加、より多数の周波数、より高い周波数、角度差の規則性、角度差の特異性、音響陰影、より大きな角度サイズ、ユーザーの耳に対するラウドネスの非対称性、約90°の頭部伝達関数、ユーザーの水平線より下の垂直位置、またはそれらの組み合わせを含むグループから選択される。いくつかの実施形態では、聴覚刺激の特徴の変化が、通過時刻または通過時刻付近において、最も速くまたは最も高い。いくつかの実施形態では、聴覚刺激は、狭い範囲の周波数または純音を含む。いくつかの実施形態では、聴覚刺激は、音楽、音声、またはそれらの組み合わせを含む。
いくつかの実施形態では、第1時刻が、複数の画像またはその一部が捕捉された時刻である。第1時刻を、複数の画像またはその一部が捕捉された後の時刻にすることができる。第1時刻を、複数の画像またはその一部が捕捉された直後の時刻にすることができる。いくつかの実施形態では、出力時刻は通過時刻である。出力時刻を、通過時刻の直前の時刻にすることができる。出力時刻を、第1時刻と通過時刻の中間にすることができる。
いくつかの実施形態では、ユーザーに対する対象物の位置および軌道が、通過時刻において、対象物がユーザーの左側または右側でユーザーのそばを通過する可能性が高いことを示す。音出力デバイスは、ユーザーの左耳および右耳のそれぞれに聴覚刺激を出力するように構成される、左側音出力デバイスおよび右側音出力デバイスを備えることができる。音出力デバイスに出力時刻においてユーザーに対して聴覚刺激を出力させるために、左側音出力デバイスまたは右側音出力デバイスに、出力時刻においてユーザーの左耳または右耳のそれぞれに聴覚刺激を出力させるように、実行可能命令によってハードウェアプロセッサをプログラムすることができる。
いくつかの実施形態では、出力時刻においてユーザーに対して出力される聴覚刺激は、出力時刻または出力時刻の直後の時刻において、ユーザーの視野の遠周辺部にいる対象物をユーザーが視覚的に知覚する尤度を、少なくとも10%、20%、30%、40%、または50%増加させることができる。
本明細書で開示されるものは、視覚による運動知覚を向上する方法の実施形態を含む。いくつかの実施形態では、この方法は、ハードウェアプロセッサ(または仮想プロセッサ等のプロセッサ)の制御下にあり、1つ以上のセンサによって捕捉されたセンサデータを受け取るステップを含む。この方法は、センサデータを利用して、第1時刻における主体(subject)に対する対象物(object)の位置および軌道を決定するステップを含むことができる。第1時刻における主体に対する対象物の位置および軌道は、第2時刻において対象物の閾値距離内で対象物が主体に対して移動している尤度が尤度閾値を超えることを示すことができる。第1時刻において、対象物は、主体の視野内にいなくてもよく、又は主体の視野の周辺部にいてもよい。この方法は、第1時刻における主体に対する対象物の位置および軌道に基づいて、聴覚刺激を決定するステップを含むことができる。聴覚刺激の特徴は、主体の閾値距離内で主体に対して移動する対象物の聴覚的特徴に対応することができる。この方法は、出力時刻において主体に対して聴覚刺激を出力させるステップを含むことができる。この方法によって、出力時刻または出力時刻の直後の時刻において、主体の視野の周辺部にいる対象物を主体が視覚的に知覚する尤度を増加させることができる。
本明細書で開示されるものは、視覚による運動知覚を向上する方法の実施形態を含む。いくつかの実施形態では、この方法は、ハードウェアプロセッサ(または仮想プロセッサなどのプロセッサ)の制御下にあり、1つ以上のセンサによって捕捉されたセンサデータを受け取るステップを含む。この方法は、センサデータを利用して、主体の閾値距離内で、対象物が、主体に対して移動していること、または主体に対して移動している尤度が尤度閾値を超えることを判定するステップを含むことができる。この方法は、主体の閾値距離内で主体に対して移動する対象物の聴覚的特徴に対応する特徴を有する聴覚刺激を決定するステップを含むことができる。この方法は、出力時刻において主体に対して聴覚刺激を出力させるステップを含むことができる。この方法によって、出力時刻または出力時刻の直後の時刻において、主体の視野の周辺部にいる対象物を主体が視覚的に知覚する尤度を増加させることができる。
いくつかの実施形態では、1つ以上のセンサが、画像捕捉デバイス、無線検出及び測距装置(レーダー)、光検出及び測距装置(ライダー)、音捕捉デバイス、またはそれらの組み合わせを含む。いくつかの実施形態では、センサデータが、対象物に関連する1つ以上の遠隔測定センサおよび位置センサによって捕捉された対象物の位置、速度、および方向を含む。1つ以上のセンサは、対象物に関連する1つ以上の遠隔測定センサおよび位置センサを含むことができる。いくつかの実施形態では、センサデータが、主体に関連する1つ以上の遠隔測定センサおよび位置センサによって捕捉された対象物の位置、速度、および方向を含む。1つ以上のセンサは、主体に関連する1つ以上の遠隔測定センサおよび位置センサを含むことができる。対象物に関連する1つ以上の遠隔測定センサおよび位置センサは、対象物に関連する全地球測位システム(GPS)センサを含むことができる。主体に関連する1つ以上の遠隔測定センサおよび位置センサは、主体に関連する全地球測位システム(GPS)センサを含むことができる。
いくつかの実施形態では、ヘルメット、カーオーディオシステム、又は、ウェアラブルスピーカシステム若しくはウェアラブルデバイスが、1つ以上のセンサに関連し、それを含み、またはそれに含まれる。聴覚刺激を出力させるステップは、出力時刻において、ヘルメット、カーオーディオシステム、又はウェアラブルスピーカシステム若しくはデバイスの音出力デバイスに聴覚刺激を出力させるステップを含むことができる。
いくつかの実施形態では、対象物が第1動力車両である。いくつかの実施形態では、主体が、第2動力車両の中にいて、又は第2動力車両に乗っている。いくつかの実施形態では、対象物が、第1時刻および/または第2時刻において、主体の視野の遠周辺部または最周辺部にいる。いくつかの実施形態では、ユーザーの視野の遠周辺部が、主体の鼻から離れてこめかみに向かう約60°~約110°を含む。ユーザーの視野の最周辺部は、主体の鼻から離れてこめかみに向かう約90°~110°を含むことができる。
いくつかの実施形態では、この方法が、第1時刻における主体に対する対象物の位置および軌道に基づいて、第2時刻において主体の閾値距離内で対象物が主体に対して移動している尤度が尤度閾値を上回ることを判定するステップを含む。いくつかの実施形態では、第1時刻における主体に対する対象物の位置および軌道が、第2時刻において、対象物が主体のそばを通過し又は主体に衝突する可能性が高いことを示すことができる。いくつかの実施形態では、主体に対する対象物の位置および軌道は、第2時刻において、対象物が、主体の左側または右側で、主体のそばを通過し又は主体に衝突する可能性が高いことを示す。出力時刻において主体に対して聴覚刺激を出力させるステップは、出力時刻において、主体の左耳または右耳のそれぞれに対して聴覚刺激を出力させるステップを含むことができる。
いくつかの実施形態では、第2時刻において主体の閾値距離内で対象物が主体に対して移動している尤度閾値は、少なくとも50%、60%、70%、80%、90%、95%、または99%である。いくつかの実施形態では、閾値距離が、最大で0メートル、1メートル、2メートル、5メートル、または10メートルである。
いくつかの実施形態では、聴覚刺激の特徴が下降ピッチである。いくつかの実施形態では、聴覚刺激の特徴が、下降ピッチ、ラウドネスの増加、より多数の周波数、より高い周波数、角度差の規則性、角度差の特異性、音響陰影、より大きな角度サイズ、主体の耳に対するラウドネスの非対称性、約90°の頭部伝達関数、主体の水平線より下の垂直位置、またはそれらの組み合わせを含むグループから選択される。いくつかの実施形態では、聴覚刺激の特徴の変化が、通過時刻または通過時刻付近で、最も速くまたは最も高い。いくつかの実施形態では、聴覚刺激が、狭い範囲の周波数または純音を含む。いくつかの実施形態では、聴覚刺激が、音楽、音声、またはそれらの組み合わせを含む。いくつかの実施形態では、聴覚刺激を決定するステップが、第1時刻における主体に対する対象物の位置および軌道に基づいて、聴覚刺激および出力時刻を決定するステップを含む。
いくつかの実施形態では、第1時刻が、センサデータ又はその一部が捕捉された時刻である。第1時刻を、センサデータ又はその一部が捕捉された後の時刻にすることができる。第1時刻を、センサデータ又はその一部が捕捉された直後の時刻にすることができる。いくつかの実施形態では、出力時刻が第2時刻である。出力時刻を、第2時刻の直前の時刻にすることができる。出力時刻を、第1時刻と第2時刻の中間にすることができる。
いくつかの実施形態では、この方法によって、出力時刻または出力時刻の直後の時刻において、ユーザーの視野の周辺部で主体が対象物を視覚的に知覚する尤度を、少なくとも10%、20%、30%、40%、または50%増加させる。
本明細書で開示されるものは、ユーザーの安全性のためのシステムの実施形態を含む。いくつかの実施形態では、システムが、実行可能命令を記憶するように構成される非一時的メモリと、異なるタイプのセンサデータを捕捉するヘルメット又はウェアラブルデバイスに関連する1つ以上のセンサと、(1a)ユーザーの水平線からの音、(1b)ユーザーの水平線より下からの音、(2a)ユーザーの左側からの音、(2b)ユーザーの真後ろからの音、および(2c)ユーザーの右側からの音を模倣する聴覚刺激を出力する複数の音出力デバイスと、非一時的メモリと通信するハードウェアプロセッサと、を備える。1つ以上のセンサによって捕捉された第1センサデータを受け取るように、実行可能命令によってハードウェアプロセッサをプログラムすることができる。第1センサデータを利用して、第1時刻におけるユーザーに対する対象物の第1位置を決定するように、実行可能命令によってハードウェアプロセッサをプログラムすることができる。ユーザーに対する対象物の第1位置は、ユーザーの第1閾値距離内にあることができる。第1時刻におけるユーザーに対する対象物の第1位置を利用して、1つ以上の第1聴覚刺激と、1つ以上の第1聴覚刺激を出力する複数の出力デバイスのうち対応する1つ以上の第1音出力デバイスと、を決定するように、実行可能命令によってハードウェアプロセッサをプログラムすることができる。第1聴覚刺激の特徴は、対象物の特性に関係することができる。1つ以上の第1音出力デバイスのそれぞれに、1つ以上の第1聴覚刺激のうち対応する第1聴覚刺激を出力させるように、実行可能命令によってハードウェアプロセッサをプログラムすることができる。
いくつかの実施形態では、第1聴覚刺激の特徴は第1聴覚刺激のピッチであり、第1聴覚刺激の特徴は対象物のサイズを含む対象物の特性に関係し、及び第1聴覚刺激のピッチは対象物のサイズと正または負に相関する。いくつかの実施形態では、第1聴覚刺激の特徴が第1聴覚刺激のラウドネスであり、第1聴覚刺激の特徴が対象物の速度を含む対象物の特性に関係し、及び第1聴覚刺激のラウドネスが対象物の速度と正または負に相関する。いくつかの実施形態では、第1聴覚刺激の特徴が第1聴覚刺激のピッチであり、第1聴覚刺激の特徴が対象物のサイズおよび/または速度を含む対象物の特性に関係し、第1聴覚刺激のピッチが対象物のサイズと正または負に相関し、及び第1聴覚刺激のピッチが対象物の速度と正または負に相関する。
いくつかの実施形態では、1つ以上の第1聴覚刺激および対応する1つ以上の第1音出力デバイスが、2つ以上の第1聴覚刺激、及び対応する2つ以上の第1音出力デバイスを含む。対応する第1音出力デバイスによって出力される2つ以上の第1聴覚刺激の組み合わせが、複数の音出力デバイスのいずれも個別に模倣することができない、第1時刻においてユーザーに対して第1位置で移動する対象物の音を模倣することができる。いくつかの実施形態では、1つ以上の第1聴覚刺激が、狭い範囲の周波数または純音を含む。いくつかの実施形態では、1つ以上の第1聴覚刺激は、音楽、音声、またはそれらの組合せを含む。
いくつかの実施形態では、1つ以上のセンサによって捕捉された第2センサデータを受け取るように、実行可能命令によってハードウェアプロセッサをプログラムする。第2センサデータを利用して、第2時刻におけるユーザーに対する対象物の第2位置を決定するように、実行可能命令によってハードウェアプロセッサをプログラムすることができる。ユーザーに対する対象物の第2位置は、ユーザーの第2閾値距離内にあることができ、第2閾値距離は、第1閾値距離よりも短くまたは長い。第2時刻におけるユーザーに対する対象物の第2位置を利用して、1つ以上の第2聴覚刺激と、1つ以上の第2聴覚刺激を出力する複数の出力デバイスのうち対応する1つ以上の第2音出力デバイスと、を決定するように、実行可能命令によってハードウェアプロセッサをプログラムすることができる。第2聴覚刺激の特徴は、対象物の特性に関係することができる。第1聴覚刺激の特徴に対する第2聴覚刺激の特徴の差異は、第2時刻におけるユーザーに対する対象物の第2位置に関係することができる。1つ以上の第2音出力デバイスのそれぞれに、1つ以上の第2聴覚刺激のうち対応する第2聴覚刺激を出力させるように、実行可能命令によってハードウェアプロセッサをプログラムすることができる。
いくつかの実施形態では、第1聴覚刺激の特徴に対する第2聴覚刺激の特徴の差異は、より多数または少数の周波数である。いくつかの実施形態では、第1聴覚刺激の特徴に対する第2聴覚刺激の特徴の差異は、ラウドネスがより大きいこと又は小さいことである。
いくつかの実施形態では、1つ以上のセンサによって捕捉された第3センサデータを受け取るように、実行可能命令によってハードウェアプロセッサをプログラムする。第3センサデータを利用して、第3時刻におけるユーザーに対する対象物の第3位置を決定するように、実行可能命令によってハードウェアプロセッサをプログラムすることができる。ユーザーに対する対象物の第3位置は、ユーザーの第3閾値距離内にあることができる。第3閾値距離を、第2閾値距離よりも短くまたは長くすることができる。第3時刻におけるユーザーに対する対象物の第3位置を利用して、(i)1つ以上の第1聴覚刺激と、1つ以上の第1聴覚刺激を出力する複数の出力デバイスのうち対応する1つ以上の第1音出力デバイスと、(ii)1つ以上の第2聴覚刺激と、1つ以上の第2聴覚刺激を出力する複数の出力デバイスのうち対応する1つ以上の第2音出力デバイスと、を決定するように、実行可能命令によってハードウェアプロセッサをプログラムすることができる。1つ以上の第1音出力デバイスおよび第2音出力デバイスのそれぞれに、1つ以上の第1聴覚刺激および第2聴覚刺激のうち対応する第1聴覚刺激または第2聴覚刺激を出力させるように、実行可能命令によってハードウェアプロセッサをプログラムすることができる。
いくつかの実施形態では、システムは、ヘルメット若しくはウェアラブルデバイスに関連し、それを含み、またはそれに含まれ、任意選択で、複数の音出力デバイスは、ヘルメット若しくはウェアラブルデバイス上、その中、またはその内部にある。複数の音出力デバイスを、(1a)ユーザーの水平線からの音、(1b)ユーザーの水平線より下からの音、(2a)ユーザーの左側からの音、(2b)ユーザーの真後ろからの音、および(2c)ユーザーの右側からの音を模倣する聴覚刺激を出力するように配置することができる。
いくつかの実施形態では、複数の音出力デバイスは、(i)水平線レベル音出力デバイスと、(ii)ヘルメット若しくはウェアラブルデバイスの第1輪郭線上の、またはヘルメット若しくはウェアラブルデバイスの、第1水平線左下部音出力デバイスおよび第1水平線右下部音出力デバイスと、を備える。水平線レベル音出力デバイスは、ヘルメット又はウェアラブルデバイスを着用している場合に、ユーザーの水平線の中心点からの音を模倣する聴覚刺激を出力する。第1水平線左下部音出力デバイスおよび第1水平線右下部音出力デバイスは、ヘルメット又はウェアラブルデバイスを着用している場合に、ユーザーの水平線より下側である第1垂直レベルからの音を模倣する聴覚刺激を、ユーザーの左側および右側のそれぞれに出力する。複数の音出力デバイスは、第1輪郭線の水平線中心下部音出力デバイスを備えることができる。水平線中心下部音出力デバイスは、ユーザーの水平線より下側および中心点からの音を模倣する聴覚刺激を出力する。
いくつかの実施形態では、複数の音出力デバイスは、(iii)ヘルメット若しくはウェアラブルデバイスの第2輪郭線上の、またはヘルメット若しくはウェアラブルデバイスの、第1水平線左下部音出力デバイスおよび第1水平線右下部音出力デバイスを備える。当該第1水平線左下部音出力デバイスおよび第1水平線右下部音出力デバイスは、ヘルメット又はウェアラブルデバイスを着用している場合に、ユーザーの水平線より下側である第2垂直レベルからの音を模倣する聴覚刺激を、ユーザーの左側および右側のそれぞれに出力する。第2垂直レベルは、第1垂直レベルよりも下側にあることができる。第2輪郭線は、第1輪郭線よりも下側にあることができる。
いくつかの実施形態では、複数の音出力デバイスは、(ii)ヘルメット若しくはウェアラブルデバイスの第1輪郭線上の、またはヘルメット若しくはウェアラブルデバイスの、第2水平線左下部音出力デバイスおよび第2水平線右下部音出力デバイスを備える。当該第2水平線左下部音出力デバイスおよび第2水平線右下部音出力デバイスはそれぞれ、ヘルメット又はウェアラブルデバイスを着用する場合に、ユーザーの水平線より下側である第1垂直レベルからの音を模倣する聴覚刺激を出力する。第2水平線左下部音出力デバイスによって出力される聴覚刺激で模倣される音は、第1輪郭線の第1水平線左下部音出力デバイスによって出力される聴覚刺激で模倣される音の左側にあることができる。第2水平線右下部音出力デバイスによって出力される聴覚刺激で模倣される音は、第1輪郭線の第1水平線右下部音出力デバイスによって出力される聴覚刺激で模倣される音の右側にあることができる。第2水平線左下部音出力デバイスは、第1輪郭線の第1水平線左下部音出力デバイスの左側にあることができる。第2水平線右下部音出力デバイスは、第1輪郭線の第1水平線右下部音出力デバイスの右側にあることができる。
いくつかの実施形態では、1つ以上のセンサによって捕捉された第4センサデータを受け取るように、実行可能命令によってハードウェアプロセッサをプログラムする。第4センサデータを利用して、通過時刻において、対象物が、ユーザーのそばを通過していること、又はユーザーのそばを通過する尤度が尤度閾値を超えることを判定するように、実行可能命令によってハードウェアプロセッサをプログラムすることができる。通過時刻において、対象物は、ユーザーの視野内にいなくてもよく、又はユーザーの視野の遠周辺部にいてもよい。ユーザーのそばを通過する対象物の聴覚特徴に対応する特徴を有する第4聴覚刺激を決定するように、実行可能命令によってハードウェアプロセッサをプログラムすることができる。出力時刻において、複数の音出力デバイスのうち1つ以上に第4聴覚刺激をユーザーに対して出力させるように、実行可能命令によってハードウェアプロセッサをプログラムすることができる。出力時刻においてユーザーに対して出力される第4聴覚刺激により、出力時刻または出力時刻の直後の時刻において、ユーザーの視野の遠周辺部にいる対象物をユーザーが視覚的に知覚する尤度を増加させることができる。
いくつかの実施形態では、1つ以上のセンサが、画像捕捉デバイス、無線検出及び測距装置(レーダー)、光検出及び測距装置(ライダー)、音捕捉デバイス、またはそれらの組合せを含む。
いくつかの実施形態では、対象物が第1動力車両である。いくつかの実施形態では、ユーザーが、第2動力車両の中にいて、又は第2動力車両に乗っている。いくつかの実施形態では、通過時刻において、対象物はユーザーの視野の最周辺部にいる。ユーザーの視野の遠周辺部は、ユーザーの鼻から離れてこめかみに向かう約60°~約110°を含むことができる。ユーザーの視野の最周辺部は、ユーザーの鼻から離れてこめかみに向かう約90°~110°を含むことができる。
いくつかの実施形態では、通過時刻において対象物がユーザーのそばを通過する尤度閾値が、少なくとも50%、60%、70%、80%、90%、95%、または99%である。いくつかの実施形態では、通過時刻において、対象物が、ユーザーから最大1メートル、2メートル、5メートル、または10メートル以内で、ユーザーのそばを通過していて、又はユーザーのそばを通過する尤度が尤度閾値を超える。
いくつかの実施形態では、第4聴覚刺激の特徴は、下降ピッチ、ラウドネスの増加、より多数の周波数、より高い周波数、角度差の規則性、角度差の特異性、音響陰影、より大きな角度サイズ、ユーザーの耳に対するラウドネスの非対称性、約90°の頭部伝達関数、ユーザーの水平線より下の垂直位置、またはそれらの組み合わせを含むグループから選択される。いくつかの実施形態では、第4聴覚刺激の特徴の変化が、通過時刻または通過時刻付近において、最も速くまたは最も高い。
いくつかの実施形態では、通過時刻は、第4センサデータ又はその一部が捕捉された時刻である。通過時刻を、第4センサデータ又はその一部が捕捉された後の時刻にすることができる。通過時刻を、第4センサデータ又はその一部が捕捉された直後の時刻にすることができる。
いくつかの実施形態では、対象物は、ユーザーの左側または右側で、ユーザーのそばを通過していて又は通過する可能性が高い。出力時刻において、複数の音出力デバイスのうち1つ以上に第4聴覚刺激をユーザーに対して出力させるために、出力時刻において、第1輪郭線の第1水平線左下部音出力デバイス若しくは第1水平線音右下部出力デバイスに、および/または第2輪郭線の第1水平線左下部音出力デバイス若しくは第1水平線右下部音出力デバイスに、第4聴覚刺激を出力させるように、実行可能命令によってハードウェアプロセッサをプログラムすることができる。
いくつかの実施形態では、出力時刻においてユーザーに対して出力される第4聴覚刺激が、出力時刻または出力時刻の直後の時刻において、ユーザーの視野の遠周辺部にいる対象物をユーザーが視覚的に知覚する尤度を、少なくとも10%、20%、30%、40%、または50%増加させることができる。
本明細書で開示されるものは、実行可能命令を含むコンピュータ可読媒体の実施形態を含み、計算システム又は計算デバイスのハードウェアプロセッサによって実行される場合、ハードウェアプロセッサ、計算システム又は計算デバイスに、本明細書で開示されるいずれかの方法を実行させる。
本明細書に記載される主題の1つ以上の実装形態の詳細は、添付の図面および以下の説明に記載される。他の特徴、態様、および利点は、説明、図面、および特許請求の範囲から明らかになるであろう。この概要も、以下の詳細な説明も、本発明の主題の範囲を定義または限定するものではない。
遠周辺部および最周辺部における視覚による運動知覚を強化する、非限定的な例示的システムのブロック図である。 視覚による後ろからの運動の知覚を強化する例示的な方法を示すフロー図である。 図3A~3Dは、遠周辺部および最周辺部における視覚による運動知覚を強化するシステムの音出力デバイス(例えば、スマートヘルメット又はウェアラブルデバイスのスピーカ)の、非限定的な例示的配置を示す概略図である。 図4A~Fは、遠周辺部および最周辺部における視覚による運動知覚を強化するシステムの音出力デバイス(例えば、スマートヘルメット又はウェアラブルデバイスのスピーカ)の、非限定的な例示的作動を示す概略図である。 ユーザーの安全性を向上させる例示的な方法を示すフロー図である。 本開示のいずれかの方法を実施するように構成される例示的な計算システムのブロック図である。 下降ピッチを有する聴覚刺激が、最周辺部における視覚による後ろからの運動の検出に影響を及ぼすかどうか判定する実験構成の、非限定的な例示的概略図である。 聴覚が、最周辺部における視覚による後ろからの運動の検出に影響を及ぼすかどうか判定する実験構成の、非限定的な例示的概略図である。 最周辺部における視覚による後ろからの運動の検出に対する、3つのタイプの聴覚刺激の影響を判定する実験構成の、非限定的な例示的概略図である。 最周辺部における視覚による後ろからの運動の検出に対する、3つのタイプの聴覚刺激の影響を示す、非限定的な例示的プロットである。
以下の詳細な説明では、その一部を形成する添付の図面を参照する。図面では、文脈が別段の指示をしない限り、同様の記号は通常、同様の構成要素を特定する。発明の詳細な説明、図面、および特許請求の範囲に記載される例示的実施形態は、限定することを意図しない。本明細書に提示される主題の精神または範囲から逸脱することなく、他の実施形態を利用することができ、他の変更を行うことができる。本明細書に全体的に記載され、図面に示される本開示の態様は、多種多様な異なる構成で配置、置換、組み合わせ、分離、および設計できることが容易に理解されるであろう。これらの構成はすべて、本明細書で明示的に企図され、本明細書の開示の一部とされる。
本明細書で開示されるものは、視覚による運動知覚を向上させるシステムの実施形態を含む。いくつかの実施形態では、システムが、実行可能命令を記憶するように構成される非一時的メモリと、音出力デバイスと、非一時的メモリ、画像捕捉デバイス、および音出力デバイスと通信するハードウェアプロセッサ(または仮想プロセッサ等のプロセッサ)と、を備える。画像捕捉デバイスによって捕捉された複数の画像を受け取るように、実行可能命令によってハードウェアプロセッサをプログラムする。複数の画像を利用して、第1時刻におけるユーザーに対する対象物の位置および軌道を決定するように、実行可能命令によってプロセッサをプログラムすることができる。第1時刻におけるユーザーに対する対象物の位置および軌道は、通過時刻において対象物がユーザーのそばを通過する尤度が尤度閾値を超えることを示すことができる。第1時刻において、対象物は、ユーザーの視野内にいなくてもよく、又はユーザーの視野の遠周辺部にいてもよい。第1時刻におけるユーザーに対する対象物の位置および軌道に基づいて、聴覚刺激および聴覚刺激を出力する出力時刻を決定するように、実行可能命令によってプロセッサをプログラムすることができる。出力時刻を通過時刻にすることができ、または、出力時刻を、第1時刻と通過時刻の中間にすることができる。聴覚刺激の特徴を、下降ピッチを含むグループから選択することができる。音出力デバイスに、出力時刻においてユーザーに対して聴覚刺激を出力させるように、実行可能命令によってプロセッサをプログラムすることができる。出力時刻においてユーザーに対して聴覚刺激が出力される結果、出力時刻または出力時刻の直後の時刻において、ユーザーの視野の遠周辺部でユーザーが対象物を視覚的に知覚する尤度を増加することができる。
本明細書で開示されるものは、視覚による運動知覚を向上させるシステムの実施形態を含む。いくつかの実施形態では、システムが、実行可能命令を記憶するように構成される非一時的メモリと、音出力デバイスと、非一時的メモリ、画像捕捉デバイス、および音出力デバイスと通信するハードウェアプロセッサ(または仮想プロセッサ等のプロセッサ)と、を含む。画像捕捉デバイスによって捕捉された複数の画像を受け取るように、実行可能命令によってハードウェアプロセッサをプログラムすることができる。複数の画像を利用して、通過時刻において、対象物が、ユーザーのそばを通過していること、又はユーザーのそばを通過する尤度が尤度閾値を超えることを判定するように、実行可能命令によってプロセッサをプログラムすることができる。第1時刻において、対象物は、ユーザーの視野内にいなくてもよく、又はユーザーの視野の遠周辺部にいてもよい。下降ピッチを含むグループから選択される特徴を有する聴覚刺激を決定するように、実行可能命令によってプロセッサをプログラムし得る。音出力デバイスに、出力時刻においてユーザーに対して聴覚刺激を出力させるように、実行可能命令によってプロセッサをプログラムすることができる。出力時刻においてユーザーに対して聴覚刺激が出力されることで、出力時刻または出力時刻の直後において、ユーザーの視野の遠周辺部でユーザーが対象物を視覚的に知覚する尤度を増加させることができる。
本明細書で開示されるものは、視覚による運動知覚を向上させる方法の実施形態を含む。いくつかの実施形態では、この方法が、ハードウェアプロセッサ(または仮想プロセッサ等のプロセッサ)の制御下にあり、1つ以上のセンサによって捕捉されたセンサデータを受け取るステップを含む。この方法は、センサデータを利用して、第1時刻における主体に対する対象物の位置および軌道を決定するステップを含むことができる。第1時刻における主体に対する対象物の位置および軌道は、第2時刻において主体の閾値距離内で対象物が主体に対して移動している尤度が尤度閾値を超えることを示すことができる。第1時刻において、対象物は、主体の視野内にいなくてもよく、又は主体の視野の周辺部にいてもよい。この方法は、第1時刻における主体に対する対象物の位置および軌道に基づいて、聴覚刺激を決定するステップを含むことができる。聴覚刺激の特徴は、主体の閾値距離内で主体に対して移動する対象物の聴覚的特徴に対応することができる。この方法は、出力時刻において主体に対して聴覚刺激を出力させるステップを含むことができる。この方法によって、出力時刻または出力時刻の直後の時刻において、主体の視野の周辺部で主体が対象物を視覚的に知覚する尤度を増加させることができる。
本明細書で開示されるものは、視覚による運動知覚を向上させる方法の実施形態を含む。いくつかの実施形態では、この方法が、ハードウェアプロセッサの制御下にあり、1つ以上のセンサによって捕捉されたセンサデータを受け取るステップを含む。この方法は、センサデータを利用して、主体の閾値距離内で、対象物が、主体に対して移動していること、又は主体に対して移動している尤度が閾値尤度を上回ることを判定するステップを含むことができる。第1時刻において、対象物は、主体の視野内にいなくてもよく、又は主体の視野の周辺部にいてもよい。この方法は、主体の閾値距離内で主体に対して移動する対象物の聴覚的特徴に対応する特徴を有する聴覚刺激を決定するステップを含むことができる。この方法は、出力時刻において、主体に対して聴覚刺激を出力させるステップを含むことができる。この方法によって、出力時刻または出力時刻の直後の時刻において、主体の視野の周辺部で主体が対象物を視覚的に知覚する尤度を増加させることができる。
本明細書で開示されるものは、ユーザーの安全性のためのシステムの実施形態を含む。いくつかの実施形態において、システムは、実行可能命令を記憶するように構成される非一時的メモリと、異なるタイプのセンサデータを捕捉するヘルメット又はウェアラブルデバイスに関連する1つ以上のセンサと、(1a)ユーザーの水平線からの音、(1b)ユーザーの水平線より下からの音、(2a)ユーザーの左側からの音、(2b)ユーザーの真後ろからの音、および(2c)ユーザーの右側からの音を模倣する聴覚刺激を出力する複数の音出力デバイスと、非一時的メモリと通信するハードウェアプロセッサ(または仮想プロセッサ等のプロセッサ)と、を備える。1つ以上のセンサによって捕捉された第1センサデータを受け取るように、実行可能命令によってハードウェアプロセッサをプログラムすることができる。第1センサデータを利用して、第1時刻におけるユーザーに対する対象物の第1位置を決定するように、実行可能命令によってハードウェアプロセッサをプログラムすることができる。ユーザーに対する対象物の第1位置は、ユーザーの第1閾値距離内にあることができる。第1時刻におけるユーザーに対する対象物の第1位置を利用して、1つ以上の第1聴覚刺激と、1つ以上の第1聴覚刺激を出力する複数の出力デバイスのうち対応する1つ以上の第1音出力デバイスと、を決定するように、実行可能命令によってハードウェアプロセッサをプログラムすることができる。第1聴覚刺激の特徴は、対象物の特性に関係することができる。1つ以上の第1音出力デバイスのそれぞれに、1つ以上の第1聴覚刺激のうち対応する第1聴覚刺激を出力させるように、実行可能命令によってハードウェアプロセッサをプログラムすることができる。
図面全体を通して、参照番号は、参照される要素間の対応を示すために再利用される場合がある。図面は、本明細書で説明される例示的実施形態を図示するために提供され、本開示の範囲を限定することを意図するものではない。
<視覚による運動知覚の強化>
人間の視覚による知覚は、眼の中心窩(~2度)で最も正確かつ敏感であり、その性能は、傍中心窩(~5度)から周辺部(~40度)に行くにつれて徐々に低下する。したがって、人は、中心窩に対象物を捕捉するために、(対象物の移動が相対的なものであり、知覚者の運動によって引き起こされる場合であっても、)自分の頭部および/または注視を、自分の最周辺部(60~100度)で移動する対象物に向ける必要がある。最周辺部で移動する対象物を視覚的に知覚することは、自動車を運転しているときなど、人の日常生活において重要な場合がある。リアミラー、サイドミラー、リアモニタ、サイドミラー内の死角アラートシステム、またはデジタルミラー等の多くの技術が、それがなければ人の目の中心窩内および傍中心窩内に捕捉されないであろう移動する対象物を見るために開発されている。これらの技術は、2つのカテゴリ、すなわち、光学的に(例えば、ミラー)及び/若しくは画像処理(例えば、デジタルミラー)によって人の中心窩により近づけて対象物の画像を見せるカテゴリ、または、人に警告してその注視を対象物に向けさせるカテゴリ(例えば、死角アラートシステム)のうち一方に分類される。従来技術は、デバイス(例えば、ミラー)上の対象物自体および/またはその光学画像に人の注視を向けることを必要とする。従来技術は、人が前を見ないで運転することにつながり、これは自動車事故の最も一般的な原因の1つである。
本明細書で開示されるものは、周辺部における人間の視覚による運動知覚を強化するシステム、デバイス、コンピュータ可読媒体、および方法を含む。聴覚キューまたは聴覚刺激(例えば、単純な聴覚キュー)を使用することで、人は、自分の注視を対象物に向けることなく、移動する対象物を周辺部で知覚することができる。いくつかの実施形態では、遠周辺部または最周辺部における人の視力が強化され、これにより、自動車を運転するまたはオートバイに乗る等のタスクを実行中の主体を手助けすることができる。聴覚キューまたは聴覚刺激は、人の注視を対象物に向けることなく、人間が移動する対象物を遠周辺部および最周辺部で知覚することを可能にすることができる。強化された知覚は、自動車を運転しているときなど、人の日常生活における安全性を向上させることができる。本明細書で開示される要素のうち1つ以上を操作しながら人に音を提示することによって、人が遠周辺部および最周辺部で1つ以上の移動する対象物を視覚により知覚することを、活性化または向上できる。これらの要素のいずれも操作せずに音を提示すると、遠周辺部および最周辺部における視覚による知覚を実際に損なう可能性がある。
<聴覚による刺激、提示、及びキュー>
遠周辺部または最周辺部における運動に対応する生態学的に適切な聴覚による刺激、提示、またはキューは、遠周辺部または最周辺部における視覚による運動知覚を促進することができる。最周辺部は、人が前方を向いている場合に、側面側におよそ90度である。1つ以上の特性または特徴を有する聴覚刺激は、刺激が非生態学的な聴覚刺激よりも、遠周辺部または最周辺部における視覚をより顕著にすることができる。
(a) <ピッチ>
ピッチは下降している(上昇していない)。
(a’) ピッチは、下降するだけでなく、その下降途中に最速で下降する。ピッチの変化率対時刻のシグモイド関数を考える。関数が最速で下降している(すなわち、ピッチが最速で下降している)場合、人の脳は、移動している自動車(または、移動しているオートバイや移動しているトラック等の、移動している対象物)が人の視野の90度のところにいて、人に物理的に最も近い可能性があることがわかる。
(b) <ラウドネス>
対応する音源が近くにあるので、音は大きい。音は、身体(聴覚の一般化とみなすことができる)を振動させることさえもあるほど十分な大きさになり得る。
(b’) ラウドネスは高いだけでなく、そのピークにある。ラウドネスは、逆U字型関数として表すことができる。ラウドネスが水平になるにつれて、人の脳は、対象物が周辺部に近づいていることがわかる。
(c) <周波数帯域>
ノイズを発する対象物が近くにいる場合、放出されるノイズのうち人が聞くことができる周波数帯域が広くなり、特に高周波成分が多くなる。ノイズを発する対象物が遠く離れている場合、人は低周波成分をより多く聞くことができる。
(c’) (c)の派生変形例。
(d) <角度差の規則性>
人が対象物に対して移動していなくとも、移動している対象物が人の前、後ろ、または横にいるように聞こえることには、規則性がある。
移動している対象物(例えば車)が、自走してノイズを発する。例えば、土ほこりは前でなく後ろに跳ね飛ばされている。人間は、発せられるノイズ又は音に敏感である。
移動者は通常、点状サイズの先端で走るのではなく、文字通り、各ステップまたは足跡に対して「ヒール-トウ」シーケンスを有する。タイヤを有する対象物の場合、タイヤが新しい「トウ(toes)」で絶えず回転していて、タイヤが回転するにつれてトウ(つま先)がヒール(踵)になるという意味で、ヒール-トウシーケンスでもある。ヒール-トウシーケンスは、人が対象物に対して移動していない場合であっても、人の後ろにいるときと比較して、人の前にいるときとは異なるように聞こえる。例えば、前にいる場合、ヒール-トウの音のタイミングがより一致する(例えば、より高い周波数を有する)のに対し、後ろにいる場合、ヒール-トウの音の時間のずれがより大きい(例えば、より低い周波数を有する)。
(d’) (d)の派生変形例。
(e) <角度差の特異性>
ノイズを発しながら移動する現実の対象物は、(d)よりも一般化可能性が低い理由で、人の前、人の後ろ、および人の横で同じように聞こえない。人が自動車の前方において(同じ速度で)運転している場合を、すべて等距離にあるとして、自動車の後ろで運転している場合や自動車の横で運転している場合と比較して考える。人が聞く音には差異がある。人は、自動車の前を運転している場合(自動車がフロントエンジンを有すると仮定して)、より多くのモータ音を聞くことができ、自動車の後ろを運転している場合、より多くの排気音およびキャブレター音を聞くことができる。音の差異は、音を発する対象物(例えば、車)の種類に大きく依存し、人間はこれら音の差異を学習する。
(e’) (e)の派生変形例。
(f) <音響陰影>
対象物は、環境内で、対象物の後ろの物体からの音を部分的に遮る。したがって、対象物が非常に静かに移動していても、「音響陰影」が移動し、対象物の後ろの周囲環境音を部分的に遮断する。移動する音ではなくむしろ、移動する対象物は、移動する静寂化に関連する、または人間が知覚できる移動する音響陰影を有することがあり得る。
(g) <より大きな角度サイズ>
移動する音発生対象物は点状サイズではない。このような対象物は有限サイズを有し、接近するとき、多方向由来の音を発する。例えば、列車が遠く離れている場合、列車は点音源であるが、隣にいる場合、ほぼ180度の角度にわたって音を発することができる。実際は、半球のほぼ半分の角度であり、水平線の上下を含む。より近接する対象物はより多くの「サラウンド音」を有することができる。
(g’) (g)の派生変形例。
(h) <聴力の非対称性>
移動する対象物が人とすれ違うほど近づくにつれて、人の聴力に対するラウドネスの非対称性は大きくなる。
(h’) (h)の派生変形例。
(i) <頭部伝達関数(HRTF)>
移動する対象物が人とすれ違うほど近づくにつれて、対象物が人に対して90度のところにいることをHRTFはより示すようになる。
(i’) (i)の派生変形例。
(k) <垂直位置>
移動している生き物に対する最も強い聴覚キューは、水平線のかなり下方向から、すなわち地面を移動している生き物の足から方向性を持って発する場合がある。したがって、人の周辺部にいる近くの生き物は、水平線より下に70度から水平線より上に40度までの、この110度の全垂直範囲を進むかもしれないが、その音は、ちょうど底部の-70度から不均衡に発する傾向がある。-70度の聴覚キューは、対象物が-70度にいることを必ずしも意味しない。その代わり、-70度の聴覚キューは、たとえほとんどの生き物が-70度付近にいなくても、生き物の足(または移動する車両のホイール)が偶然-70度にある、移動している生き物全てを示すことができる。生き物の身体(または車体)の残りの部分は、完全に静寂であり得る。実際、ほとんどの動物はこのようなものであり、移動しているときにその関節が音を立てることはない。動物が発する全ての音は、下の地面を踏んでいる動物に由来する。
(k’) <人からの対象物の距離に対する人の知覚領域内にいる対象物の音の高さの1対1写像>
対象物は、特に対象物が人の近くにいる場合、人の多くの知覚領域を充満することができる。対象物は、多くの様々な方法で音を発することができ、その音は対象物の様々な部分から来る。移動する生き物(または移動する車両)について、いくつかの基本的な一般化がある。すなわち、移動する生き物が発する音は、地面上にいる生物の足から来る傾向がある。人の知覚領域で移動する生き物によって発せられる音の垂直位置から、人に対する生き物の距離を決定することができる。水平線より下側の垂直領域位置と距離の間には、1対1の関係がある。水平線から来る音は、無限に遠く離れている。人の知覚領域より下から人が発する音、または人の知覚領域より下から人によって知覚される音は、よりすぐそばにある。人より下から来る音は、基本的に、音を発する生き物が、人のすぐ隣を人からゼロ距離で歩いていることを意味する。
<視覚による運動知覚を強化するシステム>
図1は、遠周辺部および最周辺部における視覚による運動知覚を強化する、非限定的で例示的なシステム又はデバイス100(例えば、ウェアラブルデバイス)のブロック図である。システムは、1つ以上のセンサ104、プロセッサ108、音作成装置112、および音発生装置116を備えることができる。1つ以上のセンサ104は、レーダー、カメラ、及びマイクロフォンを含むことができる。1つ以上のセンサ104は、複数の画像等のセンサデータを捕捉することができる。
プロセッサ108は、センサデータを利用して、対象物のサイズ、対象物の主体までの距離、対象物の速度、対象物の移動方向などの、移動する対象物(例えば、システムのユーザー等の主体に後ろから接近する、車両等の対象物)の特性および特徴を決定することができる。プロセッサ108は、センサデータを利用して、対象物の位置および対象物がとり得る軌道を決定することができる。例えば、プロセッサ108は、センサデータを利用して、第1時刻における主体に対する対象物の位置および軌道を決定することができる。第1時刻における主体に対する対象物の位置および軌道は、第2時刻において主体の閾値距離(例えば、5メートル)内で対象物が主体に対して移動している尤度が尤度閾値(例えば、80%)を超えることを示すことができる。第1時刻において、対象物は、主体の視野内にいない場合があり得る(若しくはいない)、または主体の視野の周辺部にいる場合があり得る(若しくはいる)。
音作成装置112は、対象物の特性および特徴を、本明細書で開示される音刺激または音のキューに変換することができる。音刺激または音のキューは、対象物からのリアルな/自然な音(例えば、エンジン音)である必要はなく、その音を擬似再現する必要もない。いくつかの実施形態では、音刺激または音のキューを、移動する対象物からの音の本質をシミュレート又は増幅する非常に単純な人工音(例えば、急なピッチ変化を伴う単純なビープ音)にすることができる。例えば、音作成装置112は、第1時刻における主体に対する対象物の位置および軌道に基づいて、聴覚刺激を決定することができる。聴覚刺激の特徴は、主体の閾値距離内で主体に対して移動する対象物の聴覚的特徴に対応することができる。例えば、聴覚刺激は、ドップラーピッチシフトを擬似再現できる下降ピッチを有することができる。
音発生装置116を、スピーカ又はイヤホン等の音デバイスにすることができる。音発生装置116は、決定された音刺激または音のキューを出力することができる。例えば、音発生装置116は、出力時刻において、主体に対して聴覚刺激を出力することができる。主体の最周辺部の視覚による知覚を、音発生装置112によって出力される音刺激または音のキューによって強化することができる。出力時刻または出力時刻の直後(例えば、0.0000001秒、0.000001秒、0.00001秒、0.0001秒、0.001秒、0.01秒、0.1秒、または1秒以内)の時刻において、主体の視野の周辺部で主体が対象物を視覚的に知覚する尤度が増加する。
システム100又はシステム100の1つ以上の構成要素は、オートバイまたは自転車の乗り手のヘルメット(例えば、スマートヘルメット)、自動車またはレジャービークル等の車両の乗り手のヘルメット、航空機パイロットのヘルメット、車両のオーディオシステム(例えば、カーオーディオシステム)、および、歩行者または車椅子ユーザーのウェアラブルスピーカシステムに関連し、それらを含み、またはそれらに含まれることができる。
<聴覚刺激の特徴に基づく視覚による運動知覚の強化>
(1)<デジタルミラーデバイス>
本明細書で開示される、聴覚提示または聴覚刺激に基づくデジタルミラーデバイスおよび任意の方法(またはシステム)は、最周辺部等の死角内にいる移動する対象物を、人間が視覚的に知覚することを助けることを目的とする。しかし、デジタルミラーデバイスは画像処理を利用するが、一方で、本明細書で開示される方法は聴覚提示を利用する。また、デジタルミラーデバイスは、人の注視方向がデバイス内の視覚画像に向かって移動することを必要とするが、一方で、本開示の方法はこのような注視方向を必要としない。なぜなら、本開示の方法は、中心窩ではなく最周辺部で人間が対象物を直接知覚することを可能にするからである。
(2)<後方対象物警告システム>
本明細書で開示される、聴覚提示または聴覚刺激に基づく後方対象物警告システムおよび任意の方法(またはシステム)は、最周辺部等の死角内にいる移動する対象物を、人間が視覚的に知覚する助けとなることを目的とする。しかし、後方対象物警告システムは、聴覚警告および/または視覚警告を利用して、人間に対象物の方へ注視を向けさせるが、本明細書で開示される方法は、聴覚刺激を利用して、人間が自分の注視方向を変更せずに、対象物を視覚的に知覚することを可能にする。聴覚刺激は、本明細書で開示される特徴または特性(例えば、下降ピッチ)を有することができるが、一方、後方対象物警告システムによって発せられる単純な警告音では、最周辺部で視覚的に知覚することができない(視覚による検出を損なうことさえある)。
(3)<音響・触覚方向インジケータ>
本明細書で開示される、聴覚提示または聴覚刺激に基づく音響・触覚方向インジケータおよび任意の方法(またはシステム)は、2つのモダリティを使用して、情報を提示する。音響・触覚方向インジケータは、聴覚刺激および触覚刺激に基づく。本明細書で開示される方法は、視覚刺激および聴覚刺激に基づく。音響・触覚方向インジケータは、主に聴覚刺激によってヘルメットに方向情報を提供することを目的とし、触覚刺激を補助として使用する。本明細書で開示される方法は、本明細書で開示される1つ以上の特徴または特性(例えば、下降ピッチ)を有する聴覚刺激を提示することによって、人間が移動する対象物を最周辺部で視覚的に知覚できるようにすることを目的とする。
(4)<3次元音響技術またはステレオ技術>
本明細書で開示される、聴覚提示または聴覚刺激に基づく3次元音響技術やステレオ技術および任意の方法(またはシステム)は、音を利用して、人間が聴覚刺激によって外界をより明確に知覚することを可能にする。この技術は、現実の環境音を再現するために、よりリアルで超正確な音を作り出すことを目指している。しかし、本開示の方法は、本明細書で開示される1つ以上の要素または特徴を操作する一方で、単純な音しか必要としないが、これらの技術とは異なり、そのような高品質の音を作り出す必要はない。例えば、安価なヘッドホンを用いて、ピッチが10%減少する1000Hzの単純なモノラルビープ音と、ラウドネスの基本的なフェードイン効果およびフェードアウト効果により、遠周辺部および最周辺部における視覚による運動知覚を向上させることができる。
<視覚による運動知覚の強化>
図2は、視覚による後ろからの運動の知覚を強化または向上する例示的な方法200を示すフロー図である。コンピューティング・システム又はコンピューティング・デバイスにおける1つ以上のディスクドライブ等のコンピュータ可読媒体に記憶される実行可能プログラム命令のセットで、方法200を実施し得る。例えば、図6に示され、以下でより詳細に説明されるコンピューティング・システム600は、実行可能プログラム命令のセットを実行して、方法200を実施することができる。方法200が開始されると、実行可能プログラム命令は、RAM等のメモリに読み込まれ、コンピューティング・システム600の1つ以上のプロセッサによって実行され得る。方法200は、図6に示されるコンピューティング・システム600に関して説明されるが、この説明は例示的なものにすぎず、限定することを意図するものではない。いくつかの実施形態では、複数のコンピューティング・システムによって、方法200又はその一部を、逐次的又は並列的に実行してもよい。
いくつかの実施形態では、コンピューティング・システムが、ヘルメット又はウェアラブルデバイスに関連し、それを含み、またはそれに含まれる。例えば、コンピューティング・システムをヘルメット又はウェアラブルデバイスに取り付けることができる。例えば、コンピューティング・システムは、ヘルメット又はウェアラブルデバイスの一部であってもよい。
方法200は、ブロック204で開始した後、ブロック208に進み、ここでコンピューティング・システムが、1つ以上のセンサによって捕捉されたセンサデータを受け取る。1つ以上のセンサは、画像捕捉デバイス、無線検出及び測距装置(レーダー)、光検出及び測距装置(ライダー)、音捕捉デバイス、またはそれらの組み合わせを含むことができる。センサデータは、複数の画像を含むことができる。コンピューティング・システムは、画像捕捉デバイスによって捕捉された複数の画像を受け取ることができる。
いくつかの実施形態では、センサデータが対象物の位置、速度、および方向を含み、それらのデータは、対象物に関連する1つ以上の遠隔測定センサおよび位置センサによって捕捉される。1つ以上のセンサは、対象物に関連する1つ以上の遠隔測定センサおよび位置センサを含むことができる。対象物に関連する1つ以上の遠隔測定センサおよび位置センサは、対象物に関連する全地球測位システム(GPS)センサを含むことができる。例えば、第1車両のコンピューティング・システム200は、第2車両の1つ以上の遠隔測定センサおよび位置センサによって捕捉されたセンサデータを利用して、ブロック212(詳細は後述)で、第1時刻における第1車両に対する第2車両の位置および軌道を決定することができる。
例えば、第1の人は、コンピューティング・システム200に関連し又はコンピューティング・システム200を備える第1車両を運転している。第2の人は、第1車両に後ろから接近する第2車両を運転している。第2車両は、別のコンピューティング・システム200に関連し又は別のコンピューティング・システム200を備える。第1車両は、1つ以上の遠隔測定センサおよび位置センサに関連し又はそれらを備えることができる。第2車両は、1つ以上の遠隔測定センサおよび位置センサに関連し又はそれらを備えることができる。第1車両は、第1車両の1つ以上の遠隔測定センサおよび位置センサによって捕捉されたセンサデータを、第2車両に直接的または間接的に送ることができる。第2車両は、第2車両の1つ以上の遠隔測定センサおよび位置センサによって捕捉されたセンサデータを、第1車両に直接的または間接的に送ることができる。例えば、第1車両のコンピューティング・システム200は、第2車両の1つ以上の遠隔測定センサおよび位置センサによって捕捉されたセンサデータを利用して、ブロック212(詳細は後述)で、第1時刻における第1車両に対する第2車両の位置および軌道を決定することができる。例えば、第2車両のコンピューティング・システム200は、第1車両の1つ以上の遠隔測定センサおよび位置センサによって捕捉されたセンサデータを利用して、ブロック212(詳細は後述)で、別の第1時刻における第2車両に対する第1車両の位置および軌道を決定することができる。
いくつかの実施形態では、コンピューティング・システムが、1つ以上のセンサ又は1つ以上のセンサのうち1つ以上を備える。コンピューティング・システムは、1つ以上のセンサ又は1つ以上のセンサのうち1つ以上と(例えば、電気通信、有線通信、または無線通信で)関連することができる。いくつかの実施形態では、1つ以上のセンサ又は1つ以上のセンサのうち1つ以上が、センサシステム等の第2システムに関連する。コンピューティング・システムは、第2システムと(例えば、電気通信、有線通信、または無線通信で)関連することができる。コンピューティング・システムは、1つ以上のセンサ又は1つ以上のセンサのうち1つ以上によって捕捉されたセンサデータを、第2システムから受け取ることができる。いくつかの実施形態では、ヘルメット、カーオーディオシステム、または、ウェアラブルスピーカシステム若しくはウェアラブルデバイスは、1つ以上のセンサに関連し、それを含み、またはそれに含まれる。例えば、コンピューティング・システムは、ヘルメットに取り付けられることができ、1つ以上のセンサと電気的、有線、および/または無線通信することができる。例えば、1つ以上のセンサをヘルメット又はウェアラブルデバイスに取り付けることができる。
方法200はブロック208からブロック212に進み、ここでコンピューティング・システムは、センサデータを利用して、主体(例えば、主体のそばを通過する対象物、または主体に衝突する対象物)の閾値距離内で、対象物が、主体(例えば、システムのユーザー)に対して移動していること、又は主体に対して移動している尤度が尤度閾値を超えることを判定する。コンピューティング・システムは、センサデータを利用して、第2時刻において主体の閾値距離で、対象物が、主体に対して移動していること、又は主体に対して移動している尤度が尤度閾値を超えることを判定できる。コンピューティング・システムは、センサデータを利用して、通過時刻において、対象物が、ユーザーのそばを通過していること、又はユーザーのそばを通過している尤度が尤度閾値を超えることを判定できる。
いくつかの実施形態では、コンピューティング・システムが、センサデータを利用して、主体に対する対象物の位置および軌道を決定することができる。第1時刻における主体に対する対象物の位置および軌道は、第2時刻において、対象物が、主体のそばを通過し又は主体に衝突する尤度が高いことを示すことができる。第1時刻におけるユーザーに対する対象物の位置および軌道は、通過時刻において対象物がユーザーのそばを通過する尤度が尤度閾値を超えることを示す。
コンピューティング・システムは、第1時刻における主体に対する対象物の位置および軌道に基づいて、第2時刻において主体の閾値距離内で対象物が主体に対して移動している尤度が尤度閾値を超えることを判定できる。コンピューティング・システムは、第1時刻におけるユーザーに対する対象物の位置および軌道に基づいて、通過時刻において対象物がユーザーのそばを通過する尤度が尤度閾値を超えることを判定できる。
いくつかの実施形態では、コンピューティング・システムは、1つ以上の機械学習方法または機械学習モデルを利用して、(例えば、第2時刻において)主体の閾値距離内で、対象物が、主体に対して移動していること、又は主体に対して移動している尤度が尤度閾値を超えることを判定する。コンピューティング・システムは、1つ以上の機械学習方法または機械学習モデルを利用して、通過時刻において、対象物が、ユーザーのそばを通過していること、又はユーザーのそばを通過する尤度が尤度閾値を超えることを判定できる。コンピューティング・システムは、1つ以上の機械学習方法または機械学習モデルを利用して、主体に対する対象物の位置および軌道を決定することができる。
例えば、尤度閾値を、少なくとも50%、60%、70%、80%、90%、95%、または99%にすることができる。例えば、閾値距離を、最大で0メートル、1メートル、2メートル、5メートル、または10メートルにすることができる。対象物は、例えば、主体から最大で1メートル、2メートル、5メートル、または10メートル以内で、主体のそばを通過することができる。
対象物は、第1動力車両(例えば、自転車、オートバイ、自動車、またはトラック)であってもよい。主体は、第2動力車両の中にいてもよい。主体は、第2動力車両(例えば、オートバイ又は自転車)に乗っていてもよい。主体は歩いていてもよい。第1動力車両は、後ろから主体に接近してもよい。
いくつかの実施形態では、コンピューティング・システムが、センサデータ、第1時刻におけるユーザーに対する対象物の位置および軌道、並びに/又は、通過時刻において対象物がユーザーのそばを通過していること若しくはユーザーのそばを通過する尤度が尤度閾値を超えることの表示を、第3システムに送ることができる。コンピューティング・システムは、第3システムに(例えば、電気通信、有線通信、又は無線通信で)関連することができる。例えば、コンピューティング・システムは、センサデータ、第1時刻におけるユーザーに対する対象物の位置および軌道、並びに/又は、通過時刻において対象物がユーザーのそばを通過していること若しくはユーザーのそばを通過する尤度が尤度閾値を超えることの表示を、車両のオーディオシステム又は制御システムに送ることができる。
対象物は、第1時刻、第2時刻、および/または通過時刻において、主体の視野内にいなくてもよい(またはいない)。対象物は、第1時刻、第2時刻、および/または通過時刻において、主体の視野の(遠周辺部および/または最周辺部等の)周辺部にいてもよい(またはいる)。対象物は、第1時刻、第2時刻、および/または通過時刻において、主体の視野の遠周辺部にいてもよい(またはいる)。対象物は、第1時刻、第2時刻、および/または通過時刻において、主体の視野の最周辺部にいてもよい(またはいる)。例えば、ユーザーの視野の遠周辺部は、主体の鼻から離れてこめかみに向かう約60°~約110°を含むことができる。例えば、ユーザーの視野の遠周辺部は、主体の鼻から離れてこめかみに向かって、約50°、約55°、約60°、約65°、または約70°から、約100°、約105°、約110°、約115°、または約120°までを含むことができる。例えば、ユーザーの視野の最周辺部は、主体の鼻から離れてこめかみに向かう約90°~110°を含むことができる。例えば、ユーザーの視野の遠周辺部は、主体の鼻から離れてこめかみに向かって約80°、約85°、約90°、約95°、または約100°から、約100°、約105°、約110°、約115°、または約120°までを含むことができる。
いくつかの実施形態では、第1時刻は、センサデータ、複数の画像、またはそれらの一部が捕捉された時刻である。第1時刻を、センサデータ、または複数の画像、またはその一部が捕捉された後の時刻にすることができる。第1時刻を、センサデータ、または複数の画像、またはその一部が取り込まれた直後(例えば、0.0000001秒、0.000001秒、0.00001秒、0.0001秒、0.001秒、0.01秒、0.1秒、または1秒以内)の時刻にすることができる。
方法200はブロック212からブロック216に進み、ここで、コンピューティング・システムは、主体の閾値距離内で主体に対して移動する対象物の聴覚的特徴に対応する特徴を有する聴覚刺激を決定する。コンピューティング・システムは、第1時刻における主体に対する対象物の位置および軌道に基づいて、聴覚刺激を決定することができる。聴覚刺激の特徴は、主体の閾値距離内で主体に対して移動する対象物の聴覚的特徴に対応することができる。コンピューティング・システムは、下降ピッチを含むグループから選択される特徴を有する聴覚刺激を決定することができる。コンピューティング・システムは、第1時刻におけるユーザーに対する対象物の位置および軌道に基づいて聴覚刺激を出力するために、聴覚刺激および出力時刻を決定することができる。出力時刻を通過時刻にすることができ、または、出力時刻を第1時刻と通過時刻の中間にすることができる。コンピューティング・システムは、第1時刻におけるユーザーに対する対象物の位置および軌道に基づいて、出力する必要がある聴覚刺激を決定することができる。聴覚刺激の特徴を、下降ピッチを含むグループから選択することができる。聴覚刺激を、あらかじめ選択することができる。聴覚刺激の特徴(例えば、下降ピッチ)を、あらかじめ選択することができる。
いくつかの実施形態では、出力時刻が第2時刻(主体の閾値距離内で対象物が主体に対して移動している尤度が尤度閾値を超えることが判定される時刻)または通過時刻(対象物がユーザーのそばを通過する尤度が尤度閾値を超える時刻)である。出力時刻を、第2時刻または通過時刻の直前(例えば、0.0000001秒、0.000001秒、0.00001秒、0.0001秒、0.001秒、0.01秒、0.1秒、または1秒)にすることができる。出力時刻を、第1時刻と第2時刻の中間、または第1時刻と通過時刻の中間にすることができる。
いくつかの実施形態では、聴覚刺激の特徴が下降ピッチである。例えば、聴覚刺激を、ピッチが10%または100Hz、減少または下降する1000Hzのビープ音にすることができる。例えば、ピッチは、聴覚刺激の周波数の1%、5%、10%、15%、20%、またはそれ以上、減少または下降することができる。例えば、ピッチは、10Hz、50Hz、100Hz、150Hz、200Hz、またはそれ以上、減少または下降することができる。聴覚刺激のピッチの減少または下降は、0.0000001秒、0.000001秒、0.00001秒、0.0001秒、0.001秒、0.01秒、0.1秒、または1秒以内に起こることができる。聴覚刺激は、フェードインおよびフェードアウト効果を有することができる。いくつかの実施形態では、聴覚刺激が、狭い範囲の周波数(例えば、1Hz、10Hz、または100Hz)または純音(例えば、250Hz、500Hz、750Hz、800Hz、900Hz、1000Hz、1100Hz、または1200Hz)を含む。いくつかの実施形態では、聴覚刺激が、音楽、音声、またはそれらの組み合わせを含む。
いくつかの実施形態では、聴覚刺激の特徴が、下降ピッチ、ラウドネスの増加、より多数の周波数、より高い周波数、角度差の規則性、角度差の特異性、音響陰影、より大きな角度サイズ、主体(またはユーザー)の耳に対するラウドネスの非対称性、約90°の頭部伝達関数、主体(またはユーザー)の水平線より下の垂直位置、またはそれらの組み合わせを含むグループから選択される。いくつかの実施形態では、聴覚刺激の特徴の変化が、通過時刻または通過時刻付近で、最も速くまたは最も高い。
方法200はブロック216からブロック220に進み、ここで、コンピューティング・システムは、出力時刻において主体に対して聴覚刺激を出力させる。コンピューティング・システムは、1つ以上の音出力デバイスに、出力時刻において聴覚刺激を出力させることができる。コンピューティング・システムは、1つ以上の音出力デバイスに関連し、それを含み、またはそれに含まれることができる。別のシステムは、ヘルメット、カーオーディオシステム、又は、ウェアラブルスピーカシステム若しくはウェアラブルデバイス等の1つ以上の音出力デバイスを備えることができる。コンピューティング・システムは、聴覚刺激および/または出力時刻を、他のシステムに送ることができる。コンピューティング・システムは、他のシステムの1つ以上の音出力デバイスに、出力時刻において聴覚刺激を出力させることができる。
聴覚刺激は、出力時刻または出力直後の時刻において、主体の視野の周辺部(例えば、遠周辺部および/または最周辺部)で、主体が対象物を視覚的に知覚する尤度を増加させることができる。聴覚刺激は、出力時刻または出力時刻の直後の時刻において、ユーザーの視野の遠周辺部および/または最周辺部で、ユーザーが対象物を視覚的に知覚する尤度を増加させることができる。例えば、尤度の増加を、少なくとも10%、20%、30%、40%、または50%とすることができる。例えば、出力時刻の直後の時刻を、出力時刻の0.0000001秒、0.000001秒、0.00001秒、0.0001秒、0.001秒、0.01秒、0.1秒、または1秒以内とすることができる。
<左右の音出力デバイス>
いくつかの実施形態では、第1時刻における主体に対する対象物の位置および軌道は、第2時刻(または通過時刻)において、対象物が、主体の左側若しくは右側で、主体のそばを通過し又は主体に衝突する可能性が高いことを示す。コンピューティング・システムは、出力時刻において、主体の左耳または右耳のそれぞれに対して聴覚刺激を出力させることができる。
いくつかの実施形態では、1つ以上の音出力デバイスが、主体の左耳および/または右耳に聴覚刺激を出力する左側音出力デバイスおよび右側音出力デバイスを備える。オーバーイヤーヘッドセット等のヘッドセットは、主体の左耳および/または右耳のそれぞれに聴覚刺激を出力する左スピーカおよび右スピーカを備えることができる。カーオーディオシステムは、左スピーカおよび右スピーカを備えることができる。カーオーディオシステムの左スピーカが聴覚刺激を出力する場合、主体は両耳で聴覚刺激を聞くことができるが、最初に主体は左耳で聴覚刺激を聞くことができる。
第1時刻における主体に対する対象物の位置および軌道は、通過時刻または第2時刻(主体の閾値距離内で対象物が主体に対して移動している尤度が尤度閾値を超えることが判定される時刻)において、対象物が、ユーザーの左側で、主体のそばを通過し又は主体に衝突する可能性が高いことを示すことができる。コンピューティング・システムは、左側音出力デバイスに、出力時刻においてユーザーの左耳に対して聴覚刺激を出力させることができる。主体に対する対象物の位置および軌道は、通過時刻または第2時刻において、対象物がユーザーの右側で、主体のそばを通過し又は主体に衝突する可能性が高いことを示すことができる。コンピューティング・システムは、右側音出力デバイスに、出力時刻においてユーザーの右耳に対して聴覚刺激を出力させることができる。
方法200はブロック224で終了する。
<ユーザーの安全性を向上させるシステム>
<スピーカの構成>
図3A~3Dは、例えば、遠周辺部および最周辺部における視覚による運動知覚を強化することで、ユーザーの安全性を向上させるシステムの音出力デバイス(例えば、スマートフォンヘルメット又はウェアラブルデバイスのスピーカ)の、非限定的な例示的配置を示す概略図である。図3Aは、人の後方投影領域300、すなわち人の後ろを示す。人(例えば、車両のドライバー又はライダー)の周りを移動するほとんどの対象物にとって、音は、人の知覚水平線より下から不均衡に来る。人の知覚水平線は、人の目や耳の高さにある。理論に束縛されるものではないが、移動する対象物は地上を自走し、そのため地面と相互に作用してかなりのノイズを発するので、人の周りを移動する対象物の音は、人の水平線より下から来る。さらに、自動車(および車両一般)からのエンジンノイズも、人の目の高さより下にある傾向がある。人からかなり後ろの道路にいる(同じ方向に進む)自動車は、水平線の中心点(点線が304c0と交差する)にいる傾向がある。自動車が人(またはドライビング中若しくはライディング中など人が操作している、あるいは人が内部にいる車両)に接近するにつれて、これらの自動車は、人の投影領域の下側及び外側を移動する傾向がある。人から2、3車線隔てて通過する自動車は、下側よりも外側を移動する(左端の矢印または軌道308を参照)。1車線隔てて通過する自動車では、下側での移動がより大きく、外側での移動がより小さい(約7時の矢印または軌道312を参照)。人の後端部への衝突コース上にある対象物は、ほとんど真下を移動し、外側ではほとんど移動しない(2つの下矢印または軌道316aと316bの間の領域を参照)。
図3Aで人の後ろの投影領域内にいる対象物の特徴的経路が与えられれば、ヘルメット内またはウェアラブルデバイス(例えば、ネックデバイス)にスピーカを配置することによって、課題を提示することができる。スピーカが人の頭部の周りに一定の高さで配置される場合、スピーカは、運転者の後ろで同じ方向に移動する自動車の運動と異なり、図3Bの左側にある点線状の水平線320のように、より多く追跡するであろう。
いくつかの実施形態では、図3Cに示すように、ヘルメットが、後方視野に、スピーカ324、328a~328h、332a~332hの2次元アレイを装備する。いくつかの実施形態では、ヘルメットが、後方視野に、スピーカ324、スピーカ328a~328hのうち1つ以上、および/またはスピーカ332a~332hのうち1つ以上を備える、スピーカの2次元アレイを装備する。いくつかの実施形態では、ヘルメットが、スピーカ324、328a~328h、332a~332hの2次元アレイ、及び1つ以上のスピーカを、放射状の線のそれぞれに装備する。図3Aを参照して説明した理由により、人の後ろにいる自動車のあらゆる位置に対して、その位置に対応する後方投影領域上に、固有のスポットが存在する。したがって、任意の特定のスピーカを作動させれば、人の後ろの道路にいる自動車の固有の3次元位置を、その人に一意的に合図(または示す)することができる。
単一の輪郭線または一列のスピーカだけを含むネックデバイス(またはウェアラブルデバイス)の場合、デバイスは、図3Dに示される「1車線隔てて後ろから通過する車」の曲線またはパターン340に従って配置されるスピーカ332a、328a、324、328b、332bを備えることができる。デバイスは、デバイス(例えば、ウェアリングデバイス)の使用者の後頭部に向かってデバイスが移動するにつれて上昇することができ、またはそれに応じてデバイスから上に到達するスピーカを有することができる。ヘルメット(またはウェアラブルデバイス)が一列のスピーカを含む場合、スピーカを、直線に配置するのではなく、ヘルメットの背面にある「1車線隔てて後ろから通過する車」の曲線またはパターン336に従って配置することができる。このように配置される一列のスピーカ332a、328a、324、328b、332bを利用して、典型的な通過する車を追跡することができる。自動車がヘルメットを着用している人と後ろから衝突する場合、同じ離心率または異なる離心率を有する2つ以上のスピーカ332a、328a、324、328b、332bを作動させることができる。例えば、一組のスピーカ332a、332bを作動させることができる。別の例として、一組のスピーカ328a、328bを作動させることができる。作動する2つ以上のスピーカ332a、328a、324、328b、332bは、同じ離心率または異なる離心率を有することができる。作動する2つ以上のスピーカ332a、328a、324、328b、332bは、対応する時刻に、同じラウドネス又は異なるラウドネスで聴覚刺激を出力することができる。いくつかの実施形態では、自動車がヘルメットを着用している人と後ろから衝突する場合、スピーカ332a、328a、324、328b、332bのうち1つを作動させることができる。
<スピーカの作動>
図4A~4Fは、例えば遠周辺部および最周辺部における視覚による運動知覚を強化することによって、ユーザーの安全性を向上させるシステムの音出力デバイス(例えば、スマートヘルメット又はウェアラブルデバイスのスピーカ)の、非限定的な例示的作動を示す概略図である。
図4Aは、人の後方投影領域400、すなわち人の後ろを示す。(同一方向に進む)人の真後ろの道路にいる自動車は、投影領域内の水平線の中心点(0度404)にいる傾向がある。自動車が人(またはドライビング中若しくはライディング中など人が操作している、あるいは人が内部にいる車両)に接近するにつれて、自動車は、投影領域内で下側を移動し、また人の投影領域内で外側を移動する傾向がある。例えば、自動車が遠くから人に接近するにつれて、自動車は、人の投影領域内で0度から45度(45度の輪郭線404c1で表される)まで移動することがある。次いで、自動車は、人の投影領域内で45度から90度(90度の輪郭線404c2で表される)に移動することがあり、自動車は、自動車が実際に人に近づいている(例えば、自動車が人の真後ろにいる、または、自動車が人のそばを通過している場合に自動車が人のすぐ隣にいる)場合、人の最外周にいることがある。人から数車線隔てて通過する自動車は、下側よりも外側を移動する(例としては、ラインまたは軌道408を参照)。1車線隔てて通過する自動車は、下側での移動がより大きく、外側での移動がより小さいことになる(例としては、ラインまたは軌道412を参照)。人の後端部までの衝突コース上にある対象物は、ほとんど真下を移動し、外側ではほとんど移動しない(例としては、ラインまたは軌道416を参照)。
図4B1および4B2を参照すると、対象物(例えば、自動車)が一定の距離(例えば、50m)で後ろから来る場合、音を生成し始めることができる。いくつかの実施形態では、生成される音が、1つ又は3つのトーン、すなわち大型の対象物(例えばトラック)に対して低いトーン、中型の対象物(例えば自動車)に対して中間のトーン、そして小型の対象物(例えばオートバイ)に対して高いトーンを有することができる。いくつかの実施形態では、生成される音が、1つ又は3つのトーン、すなわち小型の対象物(例えば、オートバイ)に対して低いトーン、中型の対象物(例えば、自動車)に対して中間のトーン、そして大型の対象物(例えば、トラック)に対して高いトーンを有することができる。各トーンは、狭い範囲の周波数または純音(例えば、250Hz、500Hz、または1000Hz)を有することができる。
図4Cを参照すると、対象物が、例えば50メートルの距離で後ろから来る場合、スピーカ0は、小さなラウドネスで単一のトーンを生成し始めることができる。トーンは対象物の大きさを反映することができる。すなわち、大型トラックに対して250Hz、自動車に対して500Hz、そしてオートバイに対して1000Hzである。トーンを、対象物の速度によって調整することができる。すなわち、より高速に対してより高いトーン、より低速に対してより低いトーンである。例えば、高速のオートバイに対して1050Hzの単一のトーンを生成することができる。別の例として、低速のオートバイに対して950Hzの単一のトーンを生成することができる。
図4Dを参照すると、対象物が、例えば人から25メートルの距離後ろにいる場合、1つ以上のスピーカ1x(例えば、スピーカ1a、1b、又は1c)は、中程度のラウドネスで複数のトーンを生成し始めることができる。図4Cを参照して説明したように、トーンを、対象物のサイズ(および、場合によっては対象物の速度によって調整される)に基づいて生成されるトーンに加え、狭い範囲の周波数(例えば、±1%、±2%、±5%、または±10%、または±10Hz、±20Hz、±50Hz、または±100Hz)に基づいて生成されるトーンとすることができる。例えば、対象物が人の50メートル後ろにいるときに生成されるトーンが250Hzである場合、トラックが人の25メートル後ろにいるときに生成される複数のトーンを、250Hz±5%とすることができる。対象物の軌道に基づいて、別のスピーカを作動させることができる。軌道が異なれば、1つ以上の異なるスピーカを作動させることができる。例えば、衝突コースの軌道で対象物が後ろから接近している場合、スピーカ1aを作動させることができる。危険なほど近い軌道で対象物が後ろから接近している場合、スピーカ1bを作動させることができる。人が曲がっているときに、危険な軌道で対象物が後ろから接近している場合、スピーカ1cを作動させることができる。いくつかの実施形態では、人がそれぞれ右または左に曲がっているときに、危険な軌道で対象物が後ろから接近している場合、スピーカ1c’又は1cを作動させることができる。
図4Eを参照すると、対象物が、例えば人から5メートル後ろの距離にいる場合、スピーカ1xに加えて、1つ以上のスピーカ2x(例えば、スピーカ2a、2b、又は2c)は、高いラウドネスで複数のトーンを生成し始めることができる。図4Cを参照して説明したように、トーンを、対象物のサイズ(および、場合によっては対象物の速度によって調整される)に基づいて生成されるトーンに加え、狭い範囲の周波数に基づいて生成されるトーンとすることができる。例えば、対象物が人の50メートル後ろにいるときに生成されるトーンが250Hzである場合、トラックが人の25メートル後ろにいるときに生成される複数のトーンを250Hz±5%とすることができる。対象物の軌道に基づいて、異なるスピーカを作動させることができる。軌道が異なれば、作動させるスピーカも異なる。例えば、衝突コースの軌道で対象物が後ろから接近している場合、スピーカ1aおよび2aを作動させることができる。危険なほど近い軌道で対象物が後ろから接近している場合、スピーカ1bおよび2bを作動させることができる。人が曲がっているときに危険な軌道で対象物が後ろから接近している場合、スピーカ1cおよび2cを作動させることができる。対象物が人に近い場合、作動する2つ(またはそれ以上)のスピーカは、角度サイズがより大きいサイズの音源、すなわち対象物を擬似再現することができる。いくつかの実施形態では、例えば5メートルの距離で、人がそれぞれ右または左に曲がっているときに危険である軌道に対象物が後ろから接近している場合に、スピーカ1c’と2c’又は1cと2cを作動させることができる。
図4Fを参照すると、曲がっているときに危険なほど近い軌道または危険な軌道で(例えば、約90度から)人の最周辺部に対象物がいる場合、スピーカ1xおよび2x(例えば、危険なほど近い軌道のためのスピーカ1bおよび2b)は、本明細書で説明されるように、急なピッチ下降を生成し、最周辺部における運動検出のクロスモーダルを強化することができる。
<聴覚刺激>
人に接近する車両の挙動に応じた刺激の変化の仕方には、規則性がある。以下にいくつかの規則性を示す。
A. <下部後方投影領域と自動車位置との間の1対1写像>
運転者の後ろにいて同じ方向に移動する自動車は、自動車がどれだけ後ろにいるかに応じて、及び自動車が何車線向こうにいるかに応じて、図3Aの輪郭線の1つの上に位置することができる。後方投影球の下半分における位置と、運転者の後ろの道路にいる自動車の全てのあり得る3次元(3D)位置の間には、1対1写像の傾向がある。運転者の後ろの道路にいる自動車のどんな3次元位置に対しても、その3次元位置に対応するスピーカを作動させることができる。対応するスピーカがなくても、スピーカの出力を補間することで、中間の3次元位置を知らせる助けとなることができる。例えば、図3Dを参照すると、スピーカ328aおよび328bを(例えば、異なるラウドネスで)作動させて、後方投影領域内のスピーカ間の位置に対応する自動車の3次元位置をシミュレートすることができる。別の例として、図3Dのスピーカ328a及び332aを作動させて、後方投影領域内の2つのスピーカ間の位置に対応する自動車の3次元位置をシミュレートすることができる。
B. <ドップラーによる自動車のピッチ>
人の後ろの車のピッチは、その相対速度に依存する。自動車が人と同じ速度で移動している場合、自動車は、高くも低くもない、あるベースラインピッチを有することができる。自動車が人に対して移動している速度がより遅いほど(例えば、自動車が人により速く接近するほど)、そのピッチはベースラインよりも高くなることができる。自動車が人に対して移動している速度がより遅いほど(例えば、自動車が追い越されている場合)、そのピッチはベースラインよりも低くなることができる。自動車が追跡されている場合、自動車に対応して人に対して生成され及び出力される聴覚音または聴覚刺激のピッチは、相対速度に応じて変化することができる(いくつかの実施形態では、ある程度誇張される)。
C. <自動車のラウドネス>
人の後ろの自動車に対応して作動するスピーカのラウドネスは、自動車の実際の直線距離が与えられれば、自動車の実際のラウドネスに対応することができる。距離は、下部後方投影球における自動車の位置から直接コンピュータで計算することができる。自動車がそれに応じて物理的により近い場合、投影球に沿ってさらに外側で作動するスピーカよりも、投影球(またはヘルメット)上の水平線により近いスピーカの方が、静かになることができる。
D. <触覚刺激の利用>
触覚刺激は、生態学的に適切な2つの役割を有することができ、以下の2つの要因に応じて、その両方が同時に関係する場合がある。
a. 人の後ろの自動車が近くにいる場合、自動車からの音は、実際に触覚刺激を誘発するのに十分な大きさである可能性がある。ヘルメット又はネックレスの1つ以上の刺激因子(例えば、1つ以上のスピーカ)からの触覚の強度は、人と自動車の間の距離の逆二乗で変化することができる。また、近くにいる場合、触覚刺激は、後方投影球上の適当な位置を中心にピークを有し、刺激因子(例えば、スピーカ)のより広域にわたることができる。
b. 触覚刺激は、人に接近する自動車によって引き起こされる風で生じることもある。ヘルメット又はネックレスの1つ以上のスピーカによって生成される聴覚刺激からの触覚刺激は、ベースラインを上回るドップラーシフトに比例することができる。
<ユーザーの安全性の向上>
図5は、ユーザーの安全性を向上させる例示的な方法500を示すフロー図である。方法500は、コンピューティング・システム又はコンピューティング・デバイスの、1つ以上のディスクドライブ等のコンピュータ可読媒体に記憶される実行可能プログラム命令のセットで実施することができる。例えば、図6に示され、以下でより詳細に説明されるコンピューティング・システム600は、実行可能プログラム命令のセットを実行して、方法500を実施することができる。方法500が開始されると、実行可能プログラム命令が、RAMなどのメモリに読み込まれ、コンピューティング・システム600の1つ以上のプロセッサによって実行されることができる。方法500は、図6に示されるコンピューティング・システム600に関して説明されるが、この説明は例示的なものにすぎず、限定することを意図するものではない。いくつかの実施形態では、方法200又はその一部を、複数のコンピューティング・システムによって、逐次的又は並列的に実行してもよい。
コンピューティング・システムは、1つ以上のセンサを備え、またはそれに関連する(例えば、電気通信、有線通信、または無線通信等で通信する)ことができる。1つ以上のセンサはヘルメットに関連することができる。1つ以上のセンサは、異なる種類のセンサデータを捕捉することができる。
コンピューティング・システムは、(1a)ユーザーの水平線からの音、(1b)ユーザーの水平線より下からの音、(2a)コンピューティング・システムのユーザーの左側からの音、(2b)コンピューティング・システムのユーザーの真後ろからの音、および(2c)コンピューティング・システムのユーザーの右側からの音を模倣する聴覚刺激を出力するために、複数の音出力デバイス(例えば、図3Dを参照して説明したスピーカ332a、328a、324、328b、332、または図4B2を参照して説明したスピーカ0、1c’、1b’、1a~1c、2b’、2a~2c)を備えることができ、またはそれに関連することができる。システムは、ヘルメット又はウェアラブルデバイス(拡張現実デバイスまたは複合現実デバイスなど)に関連することができ、それを含むことができ、又はそれに含まれることができる。複数の音出力デバイスは、ヘルメット若しくはウェアラブルデバイス上、その中、またはその内部にあることができる。複数の音出力デバイスを、(1a)ユーザーの水平線からの音、(1b)ユーザーの水平線より下からの音、(2a)ユーザーの左側からの音、(2b)ユーザーの真後ろからの音、および(2c)ユーザーの右側からの音を模倣する聴覚刺激を出力するために配置することができる。図3C、3D、4B1及び4B2、並びに付随する説明は、(1a)ユーザーの水平線からの音、(1b)ユーザーの水平線より下からの音、(2a)ユーザーの左側からの音、(2b)ユーザーの真後ろからの音、および(2c)ユーザーの右側からの音を模倣する複数の音出力デバイスの配置の、非限定的な例示的概略図を示す。
いくつかの実施形態では、複数の音出力デバイスが、(i)水平線レベル音出力デバイスは、ヘルメット又はウェアラブルデバイスを着用している場合に、ユーザーの水平線の中心点からの音を模倣する聴覚刺激を出力するための、水平線レベル音出力デバイス(例えば、図3Dのスピーカ324、又は図4B1および4B2のスピーカ0)と、及び(ii)ヘルメット若しくはウェアラブルデバイスの第1輪郭線(例えば、45度の輪郭線)上の、またはヘルメット若しくはウェアラブルデバイスの、第1水平線左下部音出力デバイスおよび第1水平線右下部音出力デバイス(例えば、図3Dのスピーカ328bと328a、又は図4B2のスピーカ1bと1b’)であって、ヘルメット又はウェアラブルデバイスを着用している場合に、ユーザーの水平線より下側である第1垂直レベルからの音を模倣する聴覚刺激を、ユーザーの左側および右側のそれぞれに出力するための、該第1水平線左下部音出力デバイスおよび第1水平線右下部音出力デバイスと、を備える。複数の音出力デバイスは、第1輪郭線の水平線中心下部音出力デバイス(例えば、図4B2のスピーカ1a)を備えることができる。水平線中心下部音出力デバイスは、ユーザーの水平線より下側および中心点からの音を模倣する聴覚刺激を出力する。
いくつかの実施形態では、複数の音出力デバイスが、(iii)ヘルメット又はウェアラブルデバイスを着用している場合に、ユーザーの水平線より下である第2垂直レベルからの音を模倣する聴覚刺激をユーザーの左側および右側のそれぞれに出力するため、ヘルメット若しくはウェアラブルデバイスの第2輪郭線(例えば、90度の輪郭線)上の、または、ヘルメット若しくはウェアラブルデバイスの、第1水平線左下部音出力デバイスおよび第1水平線右下部音出力デバイス(例えば、図3Dのスピーカ332b、332a、または図4B2のスピーカ2bおよび2b’)を備える。第2垂直レベルは、第1垂直レベルより下側にあることができる。第2輪郭線は、第1輪郭線よりも下側にあることができる。
いくつかの実施形態では、複数の音出力デバイスが、(ii)ヘルメット又はウェアラブルデバイスを着用している場合に、ユーザーの水平線より下側である第1垂直レベルからの音を模倣する聴覚刺激を出力するため、ヘルメット若しくはウェアラブルデバイスの第1輪郭線上の、または、ヘルメット若しくはウェアラブルデバイスの、第2水平線左下部音出力デバイスおよび第2水平線右下部音出力デバイス(例えば、図4B2のスピーカ1cおよび1c’)をそれぞれ備える。第2水平線左下部音出力デバイスによって出力される聴覚刺激で模倣される音は、第1輪郭線の第1水平線左下部音出力デバイスによって出力される聴覚刺激で模倣される音の左側にあることができる。第2水平線右下部音出力デバイスによって出力される聴覚刺激で模倣される音は、第1輪郭線の第1水平線右下部音出力デバイスによって出力される聴覚刺激で模倣される音の右側にあることができる。第2水平線左下部音出力デバイスは、第1輪郭線の第1水平線左下部音出力デバイスの左側にあることができる。第2水平線右下部音出力デバイスは、第1輪郭線の第1水平線右下部音出力デバイスの右側にあることができる。
方法500がブロック504で開始した後、方法500はブロック508に進み、ここで、コンピューティング・システム(例えば、図6に示されるコンピューティング・システム600)が、1つ以上のセンサによって捕捉された第1センサデータを受け取る。いくつかの実施形態では、1つ以上のセンサが、画像捕捉デバイス、無線検出及び測距装置(レーダー)、光検出及び測距装置(ライダー)、音捕捉デバイス、又はそれらの組合せを含む。
方法500はブロック508からブロック512に進み、ここで、コンピューティング・システムは、第1センサデータ(例えば、画像データ、レーダーデータ、ライダーデータ、音入力、遠隔測定データ、および位置データ)を利用して、第1時刻におけるユーザーに対する対象物の第1位置を決定する。第1時刻におけるユーザーに対する対象物の第1位置は、0度における水平線の中心点等の、ユーザーの後方投影領域内の位置に対応することができる。コンピューティング・システムは、1つ以上の機械学習方法または機械学習モデルを利用して、第1時刻におけるユーザーに対する対象物の第1位置を決定することができる。ユーザーに対する対象物の第1位置は、ユーザーの第1閾値距離内にあることができる。例えば、第1閾値距離を、1メートル、2メートル、5メートル、10メートル、20メートル、または100メートルとすることができる。例えば、対象物は、ユーザーの50メートル後ろにいることができる。いくつかの実施形態では、対象物が第1動力車両である。いくつかの実施形態では、ユーザーが、第2動力車両の中にいて、又は第2動力車両に乗っている。
方法500はブロック512からブロック516に進み、ここで、コンピューティング・システムは、第1時刻におけるユーザーに対する対象物の第1位置を利用して、1つ以上の第1聴覚刺激と、1つ以上の第1聴覚刺激を出力する複数の音出力デバイスのうち対応する1つ以上の第1音出力デバイスと、を決定する。第1聴覚刺激の特徴は、対象物の特性に関係することができる。第1聴覚刺激の特徴は、対象物の少なくとも1つの特性に関係することができる。
いくつかの実施形態では、1つ以上の第1聴覚刺激、および対応する1つ以上の第1音出力デバイスが、2つ以上の第1聴覚刺激、及び対応する2つ以上の第1音出力デバイスを備える。対応する第1音出力デバイスによって出力される2つ以上の第1聴覚刺激の組み合わせが、複数の音出力デバイスのいずれも個別に模倣することができない、第1時刻においてユーザーに対して第1位置で移動する対象物の音を模倣することができる。例えば、図3Dのスピーカ328a及び328bを(例えば、異なるラウドネスで)作動させて、後方投影領域内にあるスピーカの間の位置に対応する、自動車の3次元位置をシミュレートすることができる。別の実施例として、図3Dのスピーカ328a及び332aを作動させて、後方投影領域内にある2つのスピーカの間の位置に対応する、自動車の3次元位置をシミュレートすることができる。
いくつかの実施形態では、1つ以上の第1聴覚刺激が、狭い範囲の周波数(例えば、1Hz、10Hz、または100Hz)または純音(例えば、250Hz、500Hz、750Hz、800Hz、900Hz、1000Hz、1100Hz、または1200Hz)を含む。いくつかの実施形態では、1つ以上の第1聴覚刺激が、音楽、非音楽、音声、非音声、またはそれらの組合せを含む。
いくつかの実施形態では、第1聴覚刺激の特徴が、第1聴覚刺激のピッチである。第1聴覚刺激の特徴は、対象物の大きさ等の対象物の特性に関係することができる。第1聴覚刺激のピッチは、対象物のサイズと正または負に相関することができる。いくつかの実施形態では、第1聴覚刺激の特徴が、第1聴覚刺激のラウドネスである。第1聴覚刺激の特徴は、対象物の速度等の対象物の特性(例えば、第1時刻における対象物の特性)に関係することができる。第1聴覚刺激のラウドネスは、対象物の速度と正または負に相関することができる。いくつかの実施形態では、第1聴覚刺激の特徴が、第1聴覚刺激のピッチである。第1聴覚刺激の特徴は、対象物の大きさ及び速度等の対象物の特性に関係することができる。第1聴覚刺激のピッチは、対象物のサイズと正または負に相関することができる。第1聴覚刺激のピッチは、対象物の速度と正または負に相関することができる。
方法500はブロック516からブロック520に進み、ここで、コンピューティング・システムは、1つ以上の第1音出力デバイスのそれぞれに、1つ以上の第1聴覚刺激のうち、対応する第1聴覚刺激を出力させる。例として、対象物が、例えばユーザーから50メートルの距離で後ろから来る場合、図4Cを参照して説明したように、スピーカ0は、小さいラウドネスで単一のトーンを生成し始める。
<対象物が近い>
いくつかの実施形態では、コンピューティング・システムが、1つ以上のセンサによって捕捉された第2センサデータを受け取ることができる。コンピューティング・システムは、第2センサデータを利用して、第2時刻におけるユーザーに対する対象物の第2位置を決定することができる。第2時刻におけるユーザーに対する対象物の第2位置は、45度の輪郭線上の位置等の、ユーザーの後方投影領域内の位置に対応することができる。ユーザーに対する対象物の第2位置は、ユーザーの第2閾値距離内にあることができる。例えば、第2閾値距離を、1メートル、2メートル、5メートル、10メートル、20メートル、又は100メートルとすることができる。第2閾値距離を、第1閾値距離よりも短く(または長く、または同じに)することができる。コンピューティング・システムは、第2時刻におけるユーザーに対する対象物の第2位置を利用して、1つ以上の第2聴覚刺激と、1つ以上の第2聴覚刺激を出力する複数の出力デバイスのうち対応する1つ以上の第2音出力デバイスと、を決定することができる。コンピューティング・システムは、1つ以上の第2音出力デバイスのそれぞれに、1つ以上の第2聴覚刺激のうち、対応する第2聴覚刺激を出力させることができる。例として、対象物が、例えばユーザーから25メートルの距離で後ろから来る場合、図4Dを参照して説明したスピーカ1a、1b、及び1cのうち1つは、自動車の軌道に応じて、中程度のラウドネスで複数のトーンを生成し始めることができる。
第2聴覚刺激の特徴は、対象物の特性(例えば、第2時刻における対象物の特性)に関係することができる。第1聴覚刺激の特徴と第2聴覚刺激の特徴の差異は、第2時刻におけるユーザーに対する対象物の第2位置に関係することができる。第1聴覚刺激の特徴と第2聴覚刺激の特徴の差異は、第1時刻におけるユーザーに対する対象物の第1位置と、第2時刻におけるユーザーに対する対象物の第2位置と、の差異に関係することができる。第1聴覚刺激の特徴と第2聴覚刺激の特徴の差異は、第1時刻におけるユーザーに対する対象物の第1位置と、第2時刻におけるユーザーに対する対象物の第2位置と、の差異と正または負に相関することができる。
いくつかの実施形態では、第1聴覚刺激の特徴と第2聴覚刺激の特徴の差異は、より多数または少数の周波数である。例えば、第1時刻よりも第2時刻において対象物がユーザーに近い(または遠い)場合、第2聴覚刺激の周波数の数をより多くし、又はその周波数帯域をより広くすることができる。別の例として、第2時刻よりも第1時刻において対象物がユーザーに近い(または遠い)場合、第1聴覚刺激の周波数をより多数にし、又はその周波数帯域をより広くすることができる。いくつかの実施形態では、第1聴覚刺激の特徴に対する第2聴覚刺激の特徴の差異が、より高いピッチ又はより低いピッチである。例えば、第1時刻よりも第2時刻において対象物がユーザーに近い(または遠い)場合、第2聴覚刺激のピッチを、第1聴覚刺激と比較してより高くすることができる。別の例として、第2時刻よりも第1時刻において対象物がユーザーに近い(または遠い)場合、第1聴覚刺激のピッチを、第2聴覚刺激と比較してより高くすることができる。いくつかの実施形態では、第1聴覚刺激の特徴に対する第2聴覚刺激の特徴の差異が、ラウドネスがより大きいこと又は小さいことである。例えば、第1時刻よりも第2時刻において対象物がユーザーに近い(または遠い)場合、第2聴覚刺激を、第1聴覚刺激よりも大きくすることができる。別の例として、第2時刻よりも第1時刻において対象物がユーザーに近い(または遠い)場合、第1聴覚刺激を、第2聴覚刺激よりも大きくすることができる。
<対象物が非常に近い>
いくつかの実施形態では、コンピューティング・システムが、1つ以上のセンサによって捕捉された第3センサデータを受け取ることができる。コンピューティング・システムは、第3センサデータを利用して、第3時刻におけるユーザーに対する対象物の第3位置を決定することができる。ユーザーに対する対象物の第3位置は、ユーザーの第3閾値距離内にあることができる。例えば、第2閾値距離を、1メートル、2メートル、5メートル、10メートル、20メートル、または100メートルとすることができる。第3閾値距離を、第2閾値距離よりも短く(または長く、または同じに)することができる。コンピューティング・システムは、第3時刻におけるユーザーに対する対象物の第3位置を利用して、(i)1つ以上の第1聴覚刺激と、1つ以上の第1聴覚刺激を出力する複数の出力デバイスのうち対応する1つ以上の第1音出力デバイスと、(ii)1つ以上の第2聴覚刺激と、1つ以上の第2聴覚刺激を出力する複数の出力デバイスのうち対応する1つ以上の第2音出力デバイスと、を決定することができる。コンピューティング・システムは、1つ以上の第1音出力デバイス及び第2音出力デバイスのそれぞれに、1つ以上の第1聴覚刺激及び第2聴覚刺激のうち、対応する第1聴覚刺激又は第2聴覚刺激を出力させることができる。例として、対象物がユーザーから例えば5mの距離で後ろに来る場合、スピーカ1a、1b、又は1cに加えて、図4(e)を参照して説明されるスピーカ2a、2b、又は2cが、高いラウドネスで複数のトーンを生成し始める。
<対象物がそばを通過する>
いくつかの実施形態では、コンピューティング・システムが、1つ以上のセンサによって捕捉された第4センサデータを受け取ることができる。コンピューティング・システムは、第4センサデータを利用して、通過時刻において、対象物が、ユーザーのそばを通過していること、又はユーザーのそばを通過している尤度が尤度閾値を超えることを判定できる。いくつかの実施形態では、通過時刻において、対象物がユーザーのそばを通過する尤度閾値が、少なくとも50%、60%、70%、80%、90%、95%、または99%である。いくつかの実施形態では、通過時刻において、対象物が、ユーザーから最大で1メートル、2メートル、5メートル、または10メートル以内で、ユーザーのそばを通過していて、またはユーザーのそばを通過する尤度が尤度閾値を超える。第1時刻において、対象物は、ユーザーの視野内にいなくてもよく、若しくはいなく、又は、ユーザーの視野の遠周辺部にいてもよく、若しくはいる。いくつかの実施形態では、通過時刻が、第4センサデータ又はその一部が捕捉された時刻である。通過時刻を、第4センサデータ又はその一部が捕捉された後の時刻にすることができる。通過時刻を、第4センサデータが取り込まれた直後(例えば、0.0000001秒以内、0.000001秒以内、0.00001秒以内、0.0001秒以内、0.001秒以内、0.01秒以内、0.1秒以内、または1秒以内)の時刻またはそのセンサデータの一部が捕捉された直後の時刻にすることができる。
コンピューティング・システムは、出力する聴覚刺激を決定することができる。第4聴覚刺激は、ユーザーのそばを通過する対象物の聴覚的特徴に対応する特徴を有することができる。いくつかの実施形態では、聴覚刺激の特徴が、下降ピッチ、ラウドネスの増加、より多数の周波数、より高い周波数、角度差の規則性、角度差の特異性、音響陰影、より大きな角度サイズ、ユーザーの耳に対するラウドネスの非対称性、約90°の頭部伝達関数、ユーザーの水平線より下の垂直位置、またはそれらの組み合わせを含むグループから選択される。いくつかの実施形態では、第2聴覚刺激の特徴の変化が、通過時刻または通過時刻付近で、最も速くまたは最も高い。
コンピューティング・システムは、出力時刻において、複数の音出力デバイスのうち1つ以上に、第4聴覚刺激をユーザーに対して出力させることができる。出力時刻においてユーザーに対して出力される第4聴覚刺激は、出力時刻または出力時刻の直後の時刻において、ユーザーの視野の遠周辺部でユーザーが対象物を視覚的に知覚する尤度を増加することができる。出力時刻においてユーザーに対して出力される第4聴覚刺激は、0.0000001秒、0.000001秒、0.00001秒、0.0001秒、0.001秒、0.01秒、0.1秒、または1秒以内などの出力時刻の直後の時刻において、ユーザーの視野の遠周辺部でユーザーが対象物を視覚的に知覚する尤度を増加することができる。出力時刻においてユーザーに対して出力される第4聴覚刺激は、出力時刻または出力時刻の直後の時刻において、ユーザーの視野の遠周辺部でユーザーが対象物を視覚的に知覚する可能性を、例えば、少なくとも10%、20%、30%、40%、または50%増加させることができる。例えば、対象物が、曲がるときに危険なほど近い又は危険な軌道でユーザーの遠周辺部又は最周辺部に来る場合、図4Fのスピーカ1bと2b、又はスピーカ1cと2cはそれぞれ、遠周辺部又は最周辺部における運動検出のクロスモーダルを強化する急なピッチ下降を生成する。
いくつかの実施形態では、第1時刻において、対象物がユーザーの視野の最周辺部にいる。ユーザーの視野の遠周辺部は、ユーザーの鼻から離れてこめかみに向かう約60°~約110°を含むことができる。ユーザーの視野の最周辺部は、ユーザーの鼻から離れてこめかみに向かう約90°~110°を含むことができる。
いくつかの実施形態では、対象物が、ユーザーの左側で、ユーザーのそばを通過していて又は通過する可能性が高い。出力時刻において、複数の音出力デバイスのうち1つ以上に第4聴覚刺激をユーザーに対して出力させるために、コンピューティング・システムは、出力時刻において、第1水平線左下部音出力デバイスに、第2聴覚刺激を出力させることができる。いくつかの実施形態では、対象物が、ユーザーの右側で、ユーザーのそばを通過していて又は通過する可能性が高い。出力時刻において、複数の音出力デバイスのうち1つ以上に第4聴覚刺激をユーザーに対して出力させるために、コンピューティング・システムは、出力時刻において、第1輪郭線の第1水平線右下部音出力デバイス、および/または第2輪郭線の第1水平線右下部音出力デバイスに、第2聴覚刺激を出力させることができる。
方法500はブロック524で終了する。
<コンピュータビジョン、機械学習、及びニューラルネットワーク>
<コンピュータビジョン>
視覚による運動知覚を強化させるため及び/又はユーザーの安全性を向上させるために(例えば、対象物の位置および軌道を決定するために)、1つ以上のコンピュータビジョン・アルゴリズムを実装することができる。コンピュータビジョン・アルゴリズムの非限定的な例には、スケール不変特性変換(SIFT:Scale-invariant feature transform)、加速化ロバスト特性(SURF:speeded up robust feature)、指向性FAST及び回転BRIEF(ORB:oriented FAST and rotated BRIEF)、バイナリロバスト不変性拡縮可能キーポイント(BRISK:binary robust invariant scalable keypoints)、高速網膜キーポイント(FREAK:fast retina keypoint)、ビオラ・ジョーンズ(Viola-Jones)法・アルゴリズム、固有顔アプローチ、ルーカス・カナデ(Lucas-Kanade)法アルゴリズム、ホーン・シャンク(Horn-Shunk)法・アルゴリズム、平均値シフト法・アルゴリズム、視覚的同時位置付けマッピング(vSLAM:visual simultaneous location and mapping)技術、逐次ベイズ推定器(例えば、カルマンフィルタ、拡張カルマンフィルタなど)、バンドル調整、適応的閾値処理(および他の閾値処理技術)、反復最近接ポイント(ICP:Iterative Closest Point)、セミグローバルマッチング(SGM)、セミグローバルブロックマッチング(SGBM)、特徴ポイントヒストグラム、様々な機械学習アルゴリズム(例えば、サポートベクターマシン、k近傍アルゴリズム、ナイーブベイズ、ニューラルネットワーク(畳み込みニューラルネットワーク又はディープニューラルネットワークを含む)、又はその他の教師あり/教師なしモデル等)等が含まれる。これらのコンピュータビジョン・アルゴリズムのうち1つ以上を、例えば、対象物に対する車両の軌道を決定するために、本明細書で説明される軌道予測に使用することができる。
<機械学習>
視覚による運動知覚の強化および/またはユーザーの安全性の向上は、様々な機械学習アルゴリズムによって、追加的又は代替的に実行することができる。いったん学習すれば、機械学習アルゴリズムを、コンピューティング・システム(例えば、図6を参照して説明されるコンピューティング・システム6)に記憶することができる。機械学習アルゴリズムのいくつかの実施例には、回帰アルゴリズム(例えば、通常の最小二乗回帰など)、インスタンスベースのアルゴリズム(例えば、学習ベクトル量子化など)、決定木アルゴリズム(例えば、分類木および回帰木など)、ベイズアルゴリズム(例えば、ナイーブベイズなど)、クラスタリングアルゴリズム(例えば、k平均法など)、相関ルール学習アルゴリズム(例えば、先験(a-priori)アルゴリズムなど)、人工ニューラルネットワーク・アルゴリズム(例えば、パーセプトロンのような)、ディープ・ラーニング・アルゴリズム(例えば、ディープ・ボルツマン・マシン又はディープニューラルネットワークなど)、次元削減アルゴリズム(例えば、主成分分析アルゴリズムなど)、アンサンブルアルゴリズム(例えば、積層汎化など)、および/またはその他の機械学習アルゴリズムを含めることができる。機械学習アルゴリズムのうち1つ以上を、例えば、対象物に対する車両の軌道を決定するために、本明細書で説明される軌道予測に使用することができる。
<ニューラルネットワーク>
ディープニューラルネットワーク(DNN)等のニューラルネットワーク(NN)の層は、その層の入力に線形変換又は非線形変換を適用して、その層の出力を生成することができる。ニューラルネットワーク層を、正規化層、畳み込み層、ソフトサイン層、正規化線形層、連結層、プーリング層、再帰層、インセプション様層、またはそれらの任意の組合せとすることができる。正規化層は、その入力の輝度を正規化し、その出力を、例えばL2正規化して生成することができる。例えば、正規化層は、一度に複数の画像の輝度を、お互いに対して正規化し、その層の出力として複数の正規化画像を生成することができる。輝度を正規化する方法の非限定的な例には、局所コントラスト正規化(LCN)または局所応答正規化(LRN)が含まれる。局所コントラスト正規化は、画像の局所領域を画素ごとに正規化することによって、画像のコントラストを非線形的に正規化し、平均値が0で分散が1(または平均と分散が他の値)となるようにすることができる。局所応答正規化は、局所入力領域にわたって画像を正規化し、平均が0で分散が1(または平均と分散が他の値)となるようにすることができる。正規化層によって、学習プロセスの速度を上げることができる。
畳み込み層は、その層の入力を畳み込んでその層の出力を生成するカーネルのセットを適用することができる。ソフトサイン層は、その入力にソフトサイン関数を適用することができる。ソフトサイン関数(softsign(x))を、例えば、(x/(1+|x|))とすることができる。ソフトサイン層は、要素ごとの外れ値の影響を無視し得る。正規化線形層(rectified linear layer)を、正規化線形層ユニット(ReLU)またはパラメータ化された正規化線形層ユニット(PReLU)とすることができる。ReLU層は、その層の入力にReLU関数を適用して、出力を生成することができる。ReLU関数ReLU(x)を、例えば、max(0、x)とすることができる。PReLU層は、その層の入力にPReLU関数を適用して、その出力を生成することができる。PReLU関数PReLU(x)を、例えば、x≧0であればx、x<0であればaxとすることができ、ここで、aは正の数である。連結層は、その入力を連結して、その出力を生成することができる。例えば、連結層は、4つの5×5画像を連結して、1つの20×20画像を生成することができる。プーリング層は、その層の入力をダウンサンプリングしてその層の出力を生成するプーリング関数を適用することができる。例えば、プーリング層は、20×20画像を、10×10画像にダウンサンプリングすることができる。プーリング関数の非限定的な例には、最大プーリング、平均プーリング、または最小プーリングが含まれる。
時点tでは、再帰層は、隠れ状態s(t)をコンピュータで計算することができ、再帰接続は、次のt+1の時点における入力として、時刻tにおける隠れ状態s(t)を再帰層に提供することができる。再帰層は、時刻tにおける隠れ状態s(t)に基づいて、時刻t+1における再帰層の出力をコンピュータで計算することができる。例えば、再帰層は、時刻t+1における再帰層の出力をコンピュータで計算するために、時刻tにおける隠れ状態s(t)に対してソフトサイン関数を適用することができる。時刻t+1における再帰層の隠れ状態は、再帰層の入力として、時刻tにおける再帰層の隠れ状態s(t)を有する。再帰層は、例えばReLU関数を再帰層の入力に適用することによって、隠れ状態s(t+1)をコンピュータで計算することができる。インセプション様層は、正規化層、畳み込み層、ソフトサイン層、ReLU層およびPReLU層等の正規化線形層、連結層、プーリング層、またはそれらの任意の組合せのうち1つ以上を含むことができる。
異なる実装形態では、NN内の層の数も異なる場合がある。例えば、DNN内の層の数を、50、100、200、又はそれ以上とすることができる。異なる実装形態では、ディープニューラルネットワーク層の入力タイプも異なる場合がある。例えば、1つの層が、複数の層の出力をその入力として受け取ることができる。1つの層の入力は、5つの層の出力を含むことができる。別の例として、層の入力は、NNの層の1%を含むことができる。層の出力を、複数の層の入力とすることができる。例えば、層の出力を、5つの層の入力として使用することができる。別の例として、層の出力を、NNの層の1%の入力として使用することができる。
層の入力サイズ又は出力サイズを、かなり大きくすることができる。層の入力サイズ又は出力サイズをn×mとすることができる。ここで、nは幅を示し、mは入力又は出力の高さを示す。例えば、n又はmを、11、21、31、又はそれ以上にすることができる。異なる実装形態では、層の入力又は出力のチャネルサイズも異なる場合がある。例えば、層の入力又は出力のチャネルサイズを、4、16、32、64、128、またはそれ以上とすることができる。異なる実装形態では、層のカーネルサイズも異なる場合がある。例えば、カーネルサイズをn×mとすることができる。ここで、nは幅を示し、mはカーネルの高さを示す。例えば、n又はmを、5、7、9、又はそれ以上にすることができる。異なる実装形態では、層のストライドサイズも異なる場合がある。例えば、ディープニューラルネットワーク層のストライドサイズを、3、5、7又はそれ以上とすることができる。
いくつかの実施形態では、NNが、NNの出力を一緒にコンピュータで計算する複数のNNを指す場合がある。異なるタスクについて、複数のNNのうち異なるNNに学習させる場合がある。プロセッサ(例えば、図6を参照して説明したプロセッサ610)は、複数のNNのうち1つのNNの出力をコンピュータで計算して、NNの出力を決定することができる。例えば、複数のNNのうち1つのNNの出力は、尤度スコアを含むことができる。プロセッサは、複数のNNのうち異なるNNの出力の尤度スコアに基づいて、複数のNNを含むNNの出力を決定することができる。
<実行環境>
図6は、本明細書で開示される代謝産物、注釈付け、および遺伝子組み込みシステムを実現するように構成される、例示的なコンピューティング・デバイス600の一般的なアーキテクチャを示す。図6に示すコンピューティング・デバイス600の一般的なアーキテクチャは、コンピュータハードウェア及びソフトウェアコンポーネントの配置を含む。コンピューティング・デバイス600は、図6に示される要素よりもはるかに多くの(または少ない)要素を含むことができる。しかし、実施可能な程度の開示を提供するためには、これらの一般的な従来要素を全て示す必要はない。図示のように、コンピューティング・デバイス600は、処理ユニット610、ネットワークインタフェース620、コンピュータ可読媒体ドライブ630、入出力デバイスインターフェース640、ディスプレイ650、および入力デバイス660を含み得る。これらは全て、通信バスを介して互いに通信し得る。ネットワークインタフェース620は、1つ以上のネットワーク又はコンピューティング・システムに接続し得る。したがって、処理ユニット610は、ネットワークを介して、他のコンピューティング・システム又はコンピューティング・サービスから情報および命令を受け取ることができる。また、処理ユニット610は、メモリ670に通信し又はメモリ670から通信され、入出力デバイスインターフェース640を介して任意選択のディスプレイ650への出力情報をさらに提供し得る。また、入出力デバイスインターフェース640は、キーボード、マウス、デジタルペン、マイクロフォン、タッチスクリーン、ジェスチャ認識システム、音声認識システム、ゲームパッド、加速度計、ジャイロスコープ、又はその他の入力デバイス等の、任意選択の入力デバイス660からの入力を受け入れることができる。
メモリ670は、1つ以上の実施形態を実現するために処理ユニット610が実行する(いくつかの実施形態ではモジュール又はコンポーネントとしてグループ化される)コンピュータプログラム命令を包含し得る。一般的に、メモリ670は、RAM、ROM、及び/又はその他の永続的、補助的若しくは非一時的なコンピュータ可読媒体を含む。メモリ670は、オペレーティングシステム672を記憶し得る。オペレーティングシステム672は、コンピューティング・デバイス600を一般的に管理及び操作する際に処理ユニット610によって使用される、コンピュータプログラム命令を提供する。さらに、メモリ670は、本開示の態様を実現するコンピュータプログラム命令および他の情報を含み得る。
例えば、ある実施形態では、メモリ670が、図2を参照して説明した方法200のように視覚による運動知覚を強化する、視覚による運動知覚モジュール674を含む。メモリ670は、図5を参照して説明した方法500のようにユーザーの安全性を向上するユーザー安全モジュール676を、付加的に又は代替的に含み得る。さらに、メモリ670は、メモリ670が記憶できるコンピュータプログラム命令を記憶する、データ記憶装置690及び/又は1つ以上の他のデータ記憶装置を含み、またはそれと通信することができる。
上述の実施形態のいくつかの態様は以下の実施例でさらに詳細に開示されるが、このことは、本開示の範囲を限定することを決して意図するものではない。
(実施例1)
<遠周辺部および最周辺部における視覚による運動知覚の強化>
最周辺部における視覚による後ろからの運動の検出に対する、聴覚刺激の効果を詳細に調査した。
最周辺部は、主体が視野外からの対象物と最初に接触する点である可能性があるので、最周辺部を知覚できることは、主体(例えば、哺乳動物又は人間)にとって生態学的に重要な場合がある。最周辺部は、主体の視覚への入り口とみなすことができる。対象物が後ろから主体に来る場合、主体が対象物と最初に接触する点は、主体の最周辺部である可能性がある。主体が自分の頭を主体の後ろにいる対象物に向ける場合、やはり、主体が対象物と最初に接触するポイントは、主体の最周辺部である可能性がある。
人間は、最周辺部の対象物を見るために、多くの技術を開発してきた。例えば、自動車は、自動車の運転者が運転者の最周辺部で対象物を見ることを可能にする2つのミラーを有することができる。自動車は死角警報システムを有することができる。死角警報システムは、運転者の最周辺部を見やすくすることを目的とする。最周辺部を見やすくすることは、自動車をドライビングするまたはオートバイでライディングするなど、人の日常生活にとって非常に重要な場合がある。
驚くべきことに、最周辺部における視覚については、ほとんどわかっていない。最周辺部を見やすくするために取り得る1つの方法が、クロスモーダル変調である。同時聴覚刺激は、検出などの視覚による知覚を促進することができる。クロスモーダル変調は、中心窩よりも周辺部で強くなり得る。同時聴覚刺激は、最周辺部における視覚を促進し得る。
<同時聴覚刺激は最周辺部における視覚による運動検出を抑制した>
最周辺部におけるクロスモーダル効果を調べるために、人間の被験者(主体)が、ビープ音等の聴覚刺激の有無にかかわらず、最周辺部において単純な視覚検出タスクを実行できるかどうかを詳細に調査した。実験では、被験者の左側または右側の最周辺部に、フラッシュを1回出現させた。標的位置は個別に決定され、平均は、主体の中心窩から96.8度であった。聴覚刺激には、同時ホワイトノイズ、同時ブラウンノイズ、および同時500Hzビープ音を含めていた。ベースラインは音のない状態であった。驚くべきことに、3つの聴覚刺激のどれも、視覚検出を促進しなかった。3つの聴覚刺激のうち2つ(ホワイトノイズ及び同時500Hzビープ音)は検出を抑制した。モノラルヘッドフォンからのビープ音でも、同様の抑制が観察された。
クロスモーダルが抑制されたのは、ビープ音またはホワイトノイズ等の聴覚刺激が、視覚刺激及びタスクと完全に無関係なせいなのかもしれない。同時ではあるが無関係な聴覚刺激は、視覚による知覚を抑制する可能性がある。視覚の信頼性が低下すると、聴覚が重要になる。理論に束縛されるものではないが、無関係な聴覚刺激によるクロスモーダルの抑制を観察したのは、最周辺部における視覚のノイズが非常に高く、したがって聴覚入力を受けやすいせいだった可能性がある。
<同時聴覚刺激は最周辺部における視覚による運動検出を促進した>
視覚刺激に関連する(例えば、非常に関連する)聴覚刺激は、最周辺部におけるクロスモーダル促進のために必要となり得る。ある種の運動は、独特な音と関連する。そばを後ろから通過する対象物を検出することは、生態学的に重要な危機的状況である可能性がある。最周辺部においてそばを通過する運動は、顕著な下降ピッチシフトと物理的に関連する可能性がある。対象物から来る音のピッチは、主体の視覚の90度付近で突然下降する可能性がある。このような顕著な下降ピッチシフトは、主体の最周辺部で発生する。
顕著な下降ピッチシフトによって、このような前方運動の検出を促進できるかどうか判定する実験において、204ミリ秒(ms)ドット(306msの刺激時間間隔(SOA))を連続して2回、各被験者の最周辺部で提示した。最周辺部は、離心率が最大であり、各被験者についての検出率が75%であると決定された。各ドットを、前方に見かけの運動を有するように2°の間隔で隣接する2つの位置に提示し、または同じ位置に提示した。聴覚刺激として、下降ピッチと同時に発生するビープ音を採用した。下降ピッチと同時に発生するビープ音は、そばを通過する対象物のドップラーピッチシフトを、おおよそ擬似再現することができる。別の対照群である音がない場合に加えて、対照群として、上昇ピッチと同時に発生するビープ音を使用した。この結果、下降ピッチと同時に発生するビープ音は、音がない場合や、上昇ピッチと同時に発生するビープ音の場合と比べて、運動検出のヒット率を増加させることが示された。
図8は、最周辺部における視覚による後ろからの運動の検出に、聴覚が影響を及ぼすかどうか判定する実験構成の、非限定的な例示的概略図である。各被験者の左または右の75%検出可能点を決定するために、予備検出を行った。第1フラッシュを被験者の75%検出可能点に現し、次いで第2フラッシュを、第1フラッシュと同じ位置に(運動がないことをシミュレートするために)、または第1フラッシュから2度前方に(前方運動を刺激するために)現した。第2フラッシュが第1フラッシュと同じ場所に現れる場合、被験者は運動を観察しないはずである。第2フラッシュが第1フラッシュから2度前方に現れる場合、被験者は前方の運動を観察するはずである。
主体の最周辺部708における2回の連続する近傍フラッシュ704a、704bによって、見かけの前方運動をシミュレートした。このような前方運動の検出を独特な下降ピッチシフト712によって促進することができるかどうか、図7に示すように調べた。運動検出を、図9に示される個別のピッチシフトパターンを有する3つの音のうち1つと結びつけて行った。下降ピッチシフト条件では、第1フラッシュと第2フラッシュの提示中に、音のピッチを1000Hzから900Hzに急激に減少させた。対照条件では、第1フラッシュと第2フラッシュの提示中に、音のピッチを900Hzから1000Hzに急激に増加させた。別の対照条件では、音のピッチを常に950Hzに固定した。接近し次いで離れる対象物を擬似再現するため、3つの音は同一のラウドネス変調を有していた。
図10は、最周辺部における視覚による後ろからの運動の検出に対する3つのタイプの聴覚刺激の効果を示す、非限定的な例示的プロットである。クロスモーダル促進の結果は、それぞれの音の条件と無音ベースラインとの差d’の観点から示され、d’は信号検出理論を使用してコンピュータで計算される。聴覚刺激の効果は、F(1、17)=8.27、p=0.010であり、ここでF(1、17)は、自由度が1及び17である分散分析(ANOVA)によるF値である。クロスモーダル促進は、上昇ピッチシフト条件と一定ピッチ条件(それぞれp=0.031とp=0.031)に比べて、下降ピッチシフト条件でかなり大きかった。このようなクロスモーダル促進は、下降ピッチシフト条件(p=0.010)でのみ、0より大きかった。この結果は明らかに、下降ピッチシフト条件が最周辺部における前方運動の検出を促進することを示していた。ラウドネスの変化が90度でピークを有する一定ピッチの対照群は、促進効果を有さなかった。そばを通過する対象物を擬似再現するようにラウドネスを変化しても、最周辺部における運動検出を促進するのに十分でない可能性がある。ピッチシフトを減少させることが、最周辺部において「そばを通過する」対象物を検出するために重要な合図である可能性がある。
各被験者は、事後アンケートを記入した。事後アンケートを利用して、被験者が聞いた音と、被験者が聞いた音を生じさせる移動との関係について、各被験者が認識しているかどうか判定した。運動の選択肢には、「あなたに向かって移動している」、「あなたから離れるように移動している」、「あなたのそばを通過している」、「あなたの周辺を同じ距離で移動している」、「あなたを横断して移動している」、および「上記のいずれでもない」が含まれる。驚くべきことに、ほとんど誰も正しい運動を識別することができなかった。下降ピッチシフト条件で音を聞いた被験者のうち、聞こえる音を引き出すはずの「あなたのそばを通過している」対象物の移動を正しく識別したのは、2人(11.8%)のみであった。上昇ピッチシフト条件で音を聞いた被験者のうち、聞こえる音を引き出すはずの「上記のいずれでもない」移動を正しく識別したのは、誰もいなかった。一定ピッチ条件で音を聞いた被験者のうち、聞こえる音を引き出すはずの「上記のいずれでもない」運動を正しく識別したのは、1人(5.9%)のみであった。被験者が聞いた音を引き出すはずの移動について被験者が認識していなかったことは、観察されたクロスモーダル促進を、知識ベースの効果だけでは説明できないことを意味していた。
視覚刺激と自然に及び生態学的に関連する同時クロスモーダル刺激は、最周辺部における視覚による知覚を促進することができる。このような生態学的に関係する聴覚刺激は、主体が聴覚刺激を正しく知覚できない場合、及び/又は主体が聴覚刺激と視覚刺激の関連についてトップダウン知識を有していない場合でも、最周辺部における視覚による知覚を促進することができる。ラウドネスの変化ではなく、下降ピッチシフト条件が、最周辺部における前方運動の検出を促進することができる。ラウドネスの変化は、そばを通過する対象物を必ずしも示すものではなく、クロスモーダル促進と無関係であってもよい。視覚刺激に特有の聴覚刺激は、クロスモーダル促進を促進し得る。
全体としてこれらのデータは、音に下降ピッチシフトを加えると、最周辺部における視覚による前方運動の検出を促進できることを示す。
<追加考慮事項>
前述の少なくともいくつかの実施形態において、技術的に実現可能でない場合を除き、ある実施形態で使用される1つ以上の要素を、別の実施形態では交換して使用することができる。当業者であれば、特許請求の範囲で主張される主題の範囲から逸脱することなく、上述の方法および構造に、様々な他の省略、追加、および修正をできることを理解するであろう。そのような修正および変更は全て、添付の特許請求の範囲によって定義されるように、主題の範囲内に入ることを意図される。
当業者であれば、本明細書で開示されるこのプロセス及び他のプロセス並びにこの方法及び他の方法について、プロセスおよび方法で実行される機能を異なる順序で実装できることを理解するであろう。さらに、概説されたステップ及び動作は例としてのみ提供され、ステップ及び動作のいくつかは、任意選択で、当該ステップ及び動作のいくつかを、開示された実施形態の本質を損なうことなく、より少ないステップ及び動作と組み合わせ、又はステップ及び動作を追加して拡大することができる。
本明細書における実質的に任意の複数形および/または単数形の用語の使用に関して、当業者は、文脈および/または用途に適切であるように、複数形から単数形へ、及び/又は単数形から複数形へと翻訳することができる。明確にするために、様々な単数形/複数形の置換が本明細書に明示的に記載される場合がある。本明細書および添付の特許請求の範囲で使用されるように、単数形「A」、「an」、及び「the」は、文脈がそうでないことを明らかに示さない限り、複数のものを含む。したがって、「構成されるデバイス」等の句は、1つ以上の記載されたデバイスを含むように意図される。述べられた記載を実行するために、このような1つ以上の列挙されたデバイスを集合的に構成する場合もある。例えば、「記載A、B、及びCを実行するように構成されるプロセッサ」は、記載Aを実行するように構成され、記載B及びCを実行するように構成される第2プロセッサと共同して動作する第1プロセッサを含むことができる。本明細書における「または」へのあらゆる言及は、特に明記しない限り、「および/または」を包含するように意図される。
一般に、本明細書で使用される用語、特に添付の特許請求の範囲で使用される用語(例えば、添付の特許請求の範囲の本文)は、「オープン」用語(例えば、「含んでいる(including)」は「含んでいるが、これに限定されない」と解釈されるべきであり、「有している(having)」は「少なくとも有している」と解釈されるべきであり、「含む(includes)」は「含むがこれに限定されない」と解釈されるべき等である)を意図することを、当業者は全体的に理解するであろう。さらに、導入される特許請求の範囲の記載が特定の数を意図する場合、そのような意図は、特許請求の範囲に明示的に記載され、そのような記載がなければそのような意図も存在しないことを、当業者は全体的に理解するであろう。例えば、理解の助けとして、以下に添付する特許請求の範囲は、クレームの記載を導入するために、導入句「少なくとも1つ」及び「1つ以上」の用語の使用を含む場合がある。しかし、このような句を使用したからといって、たとえ同一の特許請求の範囲が導入句「1つ以上」又は「1つ以上」、及び不定冠詞「a」又は「an」を含む場合でさえも、不定冠詞「a」又は「an」を特許請求の範囲に導入することが、そのように導入された特許請求の範囲の記載を包含する特定の特許請求の範囲を、そのような記載のみを包含する実施形態に限定するものであると示唆するように解釈されるべきではない(例えば、「a」及び/又は「an」は、「少なくとも1つ」又は「1つ以上」を意味すると解釈されるべきである)。定冠詞を使用して特許請求の範囲の記載を導入する場合についても、同じことがいえる。さらに、導入された特許請求の範囲の記載において特定の数が明示的に記載されている場合であっても、そのような記載が、少なくとも記載された数を意味するものと解釈されるべきであると、当業者は認識するであろう(例えば、他の修飾語を含まない「2つの記載」だけの記載は、少なくとも2つの記載を手段、又は2つ以上の記載を意味する)。さらに、「A、B、及びC等のうち少なくとも1つ」に類する表記が使用される場合、一般に、そのような構造は、当業者なら表記を理解するはずであるという意味で意図される(例えば、「A、B、及びCのうち少なくとも1つを有するシステム」は、Aのみ、Bのみ、Cのみ、A及びBの双方、A及びCの双方、B及びCの双方、A、B、及びCの三方ともに、等を含むが、それらに限定されない)。「A、B、又はC等のうち少なくとも1つ」に類する表記の場合が使用される場合、一般に、そのような構造は、当業者なら表記を理解するはずであるという意味で意図される(例えば、「A、B又はCのうち少なくとも1つを有するシステム」とは、Aのみ、Bのみ、Cのみ、A及びBの双方、A及びCの双方、B及びCの双方、並びに/又はA、B、及びCの三方ともに等を含むが、それらに限定されない)。さらに、2つ以上の代替的な用語を表す事実上いかなる離接語および/または離接句も、明細書、クレーム、又は図面のいずれにおいても、その用語のいずれか又は両方の用語を含む可能性を意図すると理解されるべきであることを、当業者は理解するであろう。例えば、「A」又は「B」という句は、「A」、「B」又は「A及びB」の可能性を含むと理解されるであろう。
さらに、本開示の構成または態様がマーカッシュグループに関して説明される場合、それによって、本開示がマーカッシュグループの要素における任意の個別要素または要素のサブグループに関しても説明されることを、当業者は認識するであろう。
当業者によって理解されるように、記載された明細書の提供に関すること等の、いずれの及び全ての目的に対して、本明細書で開示される全ての範囲は、そのいずれの及び全てのとり得る部分範囲および部分範囲の組合せをも包含する。列挙されたいずれの範囲も、同じ範囲が少なくとも等しく半分に、3分の1に、4分の1に、5分の1に、10分の1等に分解されることを十分に説明し及びそれを可能にするものとして、容易に認識することができる。非限定的な例として、本明細書で論じられた各範囲は、下部3分の1、中部3分の1、上部3分の1等に、容易に分解することができる。また、当業者によって理解されるように、「まで」、「少なくとも」、「より大きい」、「より小さい」等の全ての言語は、列挙された数を含み、続いて、上で論じたように部分範囲に分解することができる範囲を指す。最後に、当業者によって理解されるように、範囲は、それぞれ個別の要素を含む。したがって、例えば、1~3個の項目を有するグループは、1個、2個、又は3個の項目を有するグループを指す。同様に、1~5個の項目を有するグループは、1個、2個、3個、4個、または5個の項目を有するグループ等を指す。
本開示の様々な実施形態が説明目的で本明細書に記載されており、本開示の範囲および精神から逸脱することなく、様々な修正をし得ることが理解されるであろう。したがって、本明細書で開示される様々な実施形態は、限定を意図するものではなく、その真の範囲および精神は、以下の特許請求の範囲によって示される。
必ずしも全ての目的または利点が、本明細書で説明される任意の特定の実施形態に従って達成され得るわけではないことを理解されたい。したがって、例えば、特定の実施形態が、本明細書で教示または示唆され得る他の目的または利点を必ずしも達成せずに、本明細書で教示される1つの利点または利点のグループを達成または最適化する方法で動作するように構成され得ることを、当業者は理解するであろう。
本明細書に記載するすべてのプロセスは、1つ以上のコンピュータ又はプロセッサを含むコンピューティング・システムによって実行されるソフトウェアコードモジュールで実施されてもよいし、そのソフトウェアコードモジュールによって完全に自動化されてもよい。コードモジュールを、任意のタイプの非一時的コンピュータ可読媒体またはその他のコンピュータ記憶デバイスに記憶してもよい。一部または全部の方法を、特別なコンピュータハードウェアで実施してもよい。
本明細書で説明されたもの以外の多くの他の変形形態が、本開示から明らかになるであろう。例えば、実施形態に応じて、本明細書で説明されるアルゴリズムのいずれかの一定の動作、イベント、または機能を、異なるシーケンスで実行することができ、追加することができ、マージすることができ、または完全に除外することができる(例えば、説明された動作又はイベントの全てが、アルゴリズムの実施に必要であるわけではない)。そのうえ、一定の実施形態では、例えばマルチスレッド処理、割り込み処理、若しくは複数のプロセッサやプロセッサコアを介して、又は、その他の逐次アーキテクチャではなくその他の並列アーキテクチャ上で、動作又はイベントを同時に実行することができる。さらに、一緒に機能することができる異なるマシン及び/又はコンピューティング・システムによって、異なるタスク又はプロセスを実行することができる。
本明細書で開示される実施形態に関連して説明される様々な例示的な論理ブロック及びモジュールを、処理ユニット若しくはプロセッサ、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)若しくはその他のプログラマブルロジックデバイス、離散ゲート若しくはトランジスタ論理、離散ハードウェアコンポーネント、またはそれらの任意の組合せであって本明細書で説明される機能を実施するように設計されたもの等のマシンによって、実装又は実施することができる。プロセッサはマイクロプロセッサであってもよいが、あるいは、プロセッサは、コントローラ、マイクロコントローラ、ステートマシン、または同じものの組み合わせ等であってもよい。プロセッサは、コンピュータ実行可能命令を処理するように構成される電気回路を含むことができる。別の実施形態では、プロセッサは、コンピュータ実行可能命令を処理することなく論理演算を実行するFPGA又はその他のプログラマブルデバイスを含む。プロセッサは、コンピューティング・デバイスの組み合わせとして実装することもでき、その組み合わせは、例えば、DSPとマイクロプロセッサの組み合わせ、複数のマイクロプロセッサ、DSPコアと組み合わせた1つ以上のマイクロプロセッサ、またはその他のそのような構成とする。本明細書では主にデジタル技術に関して説明するが、プロセッサは、主にアナログコンポーネントを含んでもよい。例えば、本明細書に記載される信号処理アルゴリズムのいくつか又は全部を、アナログ回路又はアナログとデジタルの混合回路で実装してもよい。コンピューティング環境は、任意のタイプのコンピュータシステムを含むことができ、当該コンピュータシステムは、いくつか例を挙げると、マイクロプロセッサ、メインフレームコンピュータ、デジタル信号プロセッサ、携帯コンピューティング・デバイス、デバイスコントローラ、またはデバイス内のコンピュータ計算エンジンに基づくコンピュータシステムを含むが、これらに限定されない。
本明細書に記載され及び/又は添付の図面に示されるフロー図における任意のプロセスの記述、要素、またはブロックは、プロセスにおける特定の論理機能又は論理素子を実装する1つ以上の実行可能命令を含むモジュール、セグメント、またはコードの一部を潜在的に表すものとして理解されるべきである。代替実装形態が本明細書で説明される実施形態の範囲内に含まれ、当該実装形態では、当業者によって理解されるように、含まれる機能に応じて、要素又は機能が削除され、実質的に同時若しくは逆の順序を含む、示された順序と異なる順序で実行され、または論じられ得る。
上述の実施形態に対して多くの変形および修正を行うことができ、その要素は、他の許容可能な例の中にあると理解されるべきことを強調すべきである。これらの修正および変形は、本開示の範囲に含まれ、以下の特許請求の範囲によって保護されることが意図される。

Claims (78)

  1. 実行可能命令を格納するように構成された非一時的記憶部と、音声出力装置と、非一時記憶部、画像捕捉装置、および音声出力装置と通信するハードウェアプロセッサ、画像捕捉装置によって捕捉された複数の画像を受信すると、複数の画像を使用して、最初にユーザに対する目的の位置および弾道を決定し、最初の時点における目的の位置および弾道は目的が通過時にユーザを通り過ぎる尤度閾値を超える尤度を有し、目的が最初の時点および/または通過時にユーザの分野内にないか、またはユーザの分野の遠い周辺にあることを示すと、聴覚刺激を決定し、聴覚刺激を出力する時間を、初めてのユーザに対する目的の位置および弾道に基づいて決定し、出力時間は経過時間であり、または、出力時間が初回と経過時間との間であり、聴覚刺激の特性は立ち下がりピッチを含むグループから選択されると、これにより、音声出力装置は出力時にユーザに聴覚刺激を出力させ、出力時または出力時の直後に、ユーザの視野の遠方周辺にある物体をユーザが視覚的に知覚する可能性を高めることができると、する実行可能命令によってプログラムされるハードウェアプロセッサと、を含む、視覚運動知覚を改善するための装置。
  2. 実行可能命令を格納するように構成された非一時的記憶部と、音声出力装置と、非一時記憶部、画像捕捉装置、および音声出力装置と通信するハードウェアプロセッサ、画像捕捉装置によって捕捉された複数の画像を受信すると、目的が複数の画像を使用して通過時間にユーザを通過するか、または通過する尤度閾値を超える尤度を有し、目的がユーザの分野内にないか、または通過時間にユーザの分野の遠い周辺にある、目的を決定すると、下降ピッチを含むグループから選択された特性を有する聴覚刺激を決定すると、オーディオ出力装置に出力時にユーザに聴覚刺激を出力させることにより、ユーザが出力時または出力時の直後にユーザの視野の遠方周辺にある物体を視覚的に知覚する可能性を高めることができると、する実行可能命令によってプログラムされるハードウェアプロセッサと、を含む、視覚運動知覚を改善するための装置。
  3. 前記複数の画像を受信するために、前記ハードウェアプロセッサは前記実行可能命令によって1つまたは複数のセンサによって捕捉された複数の画像を含む感覚データを受信し、1つまたは複数のセンサは画像捕捉装置、無線検出および測距(レーダー)、光検出および測距(ライダー)、音声捕捉装置、またはそれらの組み合わせを含み、初めてユーザに対する物体の位置および軌道を決定するために、ハードウェアプロセッサはセンサデータを使用して初めてユーザに対する目的の位置および軌道を決定するか、または目的が通過するか、または通過する時点でユーザが通過する尤度閾値を超える尤度を有する場合、ハードウェアプロセッサはセンサデータを使用して、目的が通過しているか、または通過時間にユーザが通過する尤度閾値を超える尤度を有するかを決定する。するように実行可能命令によってプログラムされるように実行可能命令によってプログラムされる、請求項1~2のいずれか1項に記載の装置。
  4. 前記システムが、前記1つ以上のセンサ、または前記1つ以上のセンサのうちの1つ以上を含む、請求項3に記載のシステム。
  5. 前記システムは、前記画像捕捉装置を備える、請求項1~4のいずれか1項に記載のシステム。
  6. 前記センサデータを受信するために、前記ハードウェアプロセッサは、前記実行可能命令によって1つ以上のセンサによって捕捉されたセンサデータを第2のシステムから受信するようにプログラムされる、請求項3に記載のシステム。
  7. 前記ハードウェアプロセッサは、前記実行可能命令によってセンサデータ、初めてのユーザに対する物体の位置および弾道、および/または物体が通過しているか、または通過時間にユーザが第3のシステムに通過する可能性閾値を超える可能性があることの表示を送信する。するようにプログラムされる、請求項3~6のいずれか1つに記載のシステム。
  8. ヘルメット、カーオーディオシステム、または着用可能なスピーカシステムまたはデバイスが、システム、またはその一部に関連するか、それを含むか、またはそれに含まれる、請求項1~7のいずれか1項に記載のシステム。
  9. 前記物体は、第1の自動車で請求項1~8のいずれか1項に記載のシステム。
  10. 前記ユーザは、第2のモータにいるか、または前記第2のモータに乗っている、請求項1~9のいずれか1項に記載のシステム。
  11. 前記ハードウェアプロセッサは、前記実行可能命令によって目的が初めてのユーザに対する目的の位置および弾道に基づいて、通過時間にユーザが通過する尤度閾値を上回る尤度を有すると判定される。するようにプログラムされる、請求項1~10のいずれか1項に記載の装置。
  12. 前記通過時間において前記目的が前記ユーザを通過する尤度閾値が、少なくとも50%、60%、70%、80%、90%、95%、または99%で請求項1~11のいずれか1項に記載のシステム。
  13. 前記ユーザに対する前記目的の位置および軌道は、前記目的が前記ユーザの最大1メートル、2メートル、5メートル、または10メートル以内の通過時間において前記ユーザを通過する尤度閾値を超える尤度を有することを示す、請求項1~12のいずれか1項に記載のシステム。
  14. 前記物体は、最初に前記ユーザの視野の極端な周辺にある、請求項1~13のいずれか1項に記載のシステム。
  15. 前記表示の前記視野の前記遠い周辺が前記表示の鼻から時間的に離れて前記表示のこめかみに向かって約60°~約110°を含み、かつ/または前記表示の前記視野の前記極端な周辺が、前記鼻から一時的に離れて前記表示のこめかみに向かって約90°~110°を含む、請求項1~14のいずれか1項に記載のシステム。
  16. 前記聴覚刺激の特性が、落下ピッチ、増加ラウドネス、より高い周波数、より高い周波数、角度差の規則性、角度差の特異性、音影、より大きい角度サイズ、ユーザの耳に対するラウドネス非対称性、約90°の頭部伝達関数、ユーザの水平線より下の垂直位置、またはそれらの組み合わせを含む群から選択される、請求項1~15のいずれか1項に記載のシステム。
  17. 前記聴覚刺激の特性の変化が、前記経過時間において最も速いか、または最も高いか、またはほぼ経過時間で請求項1~16のいずれか1項に記載のシステム。
  18. 前記聴覚刺激は、狭い範囲の周波数または純音を含む、請求項1~17のいずれか1項に記載のシステム。
  19. 前記聴覚刺激は、音楽、音声、またはそれらの組み合わせを含む、請求項1~17のいずれか1項に記載のシステム。
  20. 前記第1の時間は前記複数の画像またはその一部が捕捉される時間であり、前記第1の時間は前記複数の画像またはその一部が捕捉された後の時間であり、または前記第1の時間は、前記複数の画像またはその一部が捕捉された直後の時間で請求項1~19のいずれか1項に記載のシステム。
  21. 前記ユーザに対する前記目的の位置および弾道は前記目的が前記通過時間において前記ユーザの左側または右側で前記ユーザのそばを通過する可能性があることを示し、前記オーディオ出力デバイスは前記ユーザの左耳および右耳にそれぞれ前記聴覚刺激を出力するように構成された左オーディオ出力デバイスおよび右オーディオ出力デバイスを備え、前記オーディオ出力デバイスが前記出力時間において前記ユーザに前記聴覚刺激を出力させるために、前記ハードウェアプロセッサは出力時に、左音声出力装置または右音声出力機器、ユーザの左耳または右耳にそれぞれ聴覚刺激を出力するように前記実行可能命令によってプログラムされる、請求項1~20のいずれか1項に記載のシステム。
  22. 前記出力時間は経過時間であり、前記出力時間は前記経過時間の直前であり、又は前記出力時間は、前記第1の時間と前記経過時間との間で請求項1~21のいずれか1項に記載のシステム。
  23. 請求項1~22のいずれか1項に記載のシステムであって、それによって、出力時間または出力時間の直後の時間において、ユーザがユーザの視野の遠い周辺の物体を視覚的に知覚する可能性を、少なくとも10%、20%、30%、40%、または50%増加させる、システム。
  24. ハードウェアプロセッサの制御により、1つまたは複数のセンサによって捕捉されたセンサデータを受け取ることと、センサデータを使用して、最初に、対象物に対する対象物の位置および軌道を決定し、ここで、最初の時点における対象物に対する対象物の位置および軌道は対象物が2回目の時点における対象物の閾値距離内で対象物に対して移動する尤度閾値を超える尤度を有し、対象物が最初の時点における対象物の分野内にないか、または対象物の分野の周辺にあることを示すことと、時間対象者に対する対象者の位置及び軌道に基づいて聴覚刺激を決定し、ここで、聴覚刺激の特性は対象者の閾値距離内で対象者に対して移動する対象者の聴覚的特性に対応することと、視覚的に知覚する確率を高めることができることと、を含む視覚運動感覚を改善する方法。
  25. ハードウェアプロセッサの制御により、1つまたは複数のセンサによって捕捉されたセンサデータを受け取ることと、対象物の閾値距離内で対象物に対して移動しているか、または尤度閾値を超える尤度を有するかを決定することと、被験者の閾値距離内で被験者に対して移動する被験者の聴覚特性に対応する特性を有する聴覚刺激を決定することと、視覚的に知覚する確率を高めることができることと、を含む視覚運動感覚を改善する方法。
  26. 前記1つ以上のセンサは、画像捕捉装置、無線検出および測距(レーダー)、光検出および測距(ライダー)、オーディオ捕捉装置、またはそれらの組み合わせを備える、請求項24~25のいずれか1項に装置の方法。
  27. ヘルメット、カーオーディオシステム、または着用可能なスピーカシステムまたはデバイスが1つまたは複数のセンサに関連付けられ、それを含み、またはそれに含まれ、聴覚刺激を出力させることが、ヘルメット、カーオーディオシステム、または着用可能なスピーカシステムまたはデバイスのオーディオ出力機器聴覚刺激を出力させることを含む、請求項24~26のいずれか1項に記載の方法。
  28. 前記センサデータは前記物体に関連付けられた1つまたは複数の遠隔測定および位置センサによって捕捉された前記物体の位置、速度、および方向を含み、前記1つまたは複数のセンサは、前記物体に関連付けられた1つまたは複数の遠隔測定および位置センサを含む、請求項24~27のいずれか1項に記載の方法。
  29. 前記センサデータは前記被験者に関連付けられた1つまたは複数の遠隔測定および位置センサによって捕捉された前記物体の位置、速度、および方向を含み、前記1つまたは複数のセンサは、前記被験者に関連付けられた1つまたは複数の遠隔測定および位置センサを含む、請求項24~29のいずれか1項に記載の方法。
  30. 前記物体に関連付けられた1つ以上の遠隔測定および位置センサが前記物体に関連付けられた全地球測位システム(GPS)センサを含み、前記物体に関連付けられた1つ以上の遠隔測定および位置センサが、前記物体に関連付けられた全地球測位システム(GPS)センサを含む、請求項28~29のいずれか1項に記載の方法。
  31. 前記物体が第1の自動車で請求項24~30のいずれか1項に記載の方法。
  32. 被験者が第2のモータにいるか、または第2のモータに乗っている、請求項24~31のいずれか1項に記載の方法。
  33. 第1の時間における被写体に対する目的の位置および弾道に基づいて、第2の時間における被写体の閾値距離内で被写体に対して移動する尤度閾値を上回る尤度を有する目的を決定することを含む、請求項24~32のいずれか1項に記載の方法。
  34. 前記第1の時間における前記対象物に対する前記対象物の位置および軌道は、前記対象物が前記第2の時間における前記対象物のそばを通過する、または前記対象物に衝突する可能性が高いことを示す、請求項24~33のいずれか1項に記載の方法。
  35. 前記第2の時間における前記目的の前記閾値距離内で前記目的に対して移動する前記目的の前記尤度閾値が、少なくとも50%、60%、70%、80%、90%、95%、または99%で請求項24~34のいずれか1項に記載の方法。
  36. 前記閾値距離は、最大で0メートル、1メートル、2メートル、5メートル、または10メートルで請求項24~35のいずれか1項に記載の方法。
  37. 前記物体が、前記第1の時間および/または前記第2の時間における前記被験者の視野の遠い周辺または極端な周辺にある、請求項24~36のいずれか1項に記載の方法。
  38. 前記ユーザの前記視野の前記遠い周辺が前記鼻から一時的に離れて前記被験者のこめかみに向かって約60°~約110°を含み、表示/または、前記ユーザの前記視野の前記極端な周辺が前記鼻から一時的に離れて前記被験者のこめかみに向かって約90°~110°を含む、請求項37に記載の方法。
  39. 前記聴覚刺激の特性は、立ち下がりピッチで請求項24~38のいずれか1項に記載の方法。
  40. 前記聴覚刺激の特性が、落下ピッチ、増加ラウドネス、より高い周波数、より高い周波数、角度差の規則性、角度差の特異性、音影、より大きい角度サイズ、前記被験者の耳に対するラウドネス非対称性、約90°の頭部伝達関数、前記被験者の水平線より下の垂直位置、またはそれらの組み合わせを含む群から選択される、請求項24~39のいずれか1項に記載の方法。
  41. 前記聴覚刺激を決定することは、前記第1の時間における前記目的に対する前記目的の位置および弾道に基づいて、前記聴覚刺激および前記出力時間を決定することを含む、請求項24~40のいずれか1項に記載の方法。
  42. 前記聴覚刺激の特性の変化が前記経過時間において最も速い、または最も高い、またはほぼ経過時間で請求項24~41のいずれか1項に記載の方法。
  43. 前記聴覚刺激は、狭い範囲の周波数または純粋なトーンを含む、請求項24~42のいずれか1項に記載の方法。
  44. 前記聴覚刺激は、音楽、音声、またはそれらの組み合わせを含む、請求項24~42のいずれか1項に記載の方法。
  45. 前記第1の時間は前記センサデータまたはその一部が捕捉される時間であり、前記第1の時間は前記センサデータまたはその一部が捕捉された後の時間であり、または前記第1の時間は、前記センサデータまたはその一部が捕捉された直後の時間で請求項24~44のいずれか1項に記載の方法。
  46. 前記対象物に対する前記対象物の位置および弾道は前記対象物が前記第2の時間に前記対象物の左側または右側で通過または衝撃する可能性があることを示し、前記出力時間に前記聴覚刺激を前記対象物に出力させることは前記出力時間に前記聴覚刺激を前記対象物の左耳または右耳にそれぞれ出力させることを含む、請求項24~45のいずれか1項に記載の方法。
  47. 前記出力時間は第2の時間であり、前記出力時間は前記第2の時間の直前であり、又は前記第1の時間と前記第2の時間との間で請求項24~46のいずれか1項に記載の方法。
  48. 請求項24~47のいずれか1項に記載の方法であって、それによって、出力時間または出力時間の直後の時間において、被験者がユーザの視野の周辺において物体を視覚的に知覚する可能性を、少なくとも10%、20%、30%、40%、または50%増加させる、方法。
  49. 実行可能命令を格納するように構成された非一時的記憶部と、異なるタイプのセンサデータを捕捉するためのヘルメットまたはウェアラブル装置に関連付けられた1つまたは複数のセンサと、(1a)ユーザの水平線の下、(1b)ユーザの水平線の下、(2a)ユーザの左側、(2b)直後、および(2c)ユーザの右側からの音を模倣する聴覚刺激を出力するための複数のオーディオ出力機器と、非一時記憶部と通信するハードウェアプロセッサ、1つ以上のセンサによって捕捉された第1のセンサデータを受信すると、第1のセンサデータを使用して、ユーザに対する目的の第1の位置を最初に決定し、ユーザに対する目的の第1の位置は、ユーザの第1の閾値距離内にあると、第1の聴覚刺激の特性が物体の特性に関連する、第1の時間におけるユーザに対する物体の第1の位置を使用して、1つ以上の第1の聴覚刺激を出力するための、複数の出力デバイスのうちの1つ以上の第1の聴覚刺激および対応する1つ以上の第1のオーディオ出力デバイスを決定すると、1つ以上の第1のオーディオ出力装置の各々が1つ以上の第1の聴覚刺激の対応する第1の聴覚刺激を出力するようにさせると、する実行可能命令によってプログラムされるハードウェアプロセッサと、を含む、使用者の安全のための装置。
  50. 前記第1の聴覚刺激の特徴は前記第1の聴覚刺激のピッチであり、前記第1の聴覚刺激の特徴は前記物体のサイズを含む前記物体の特性に関連し、前記第1の聴覚刺激のピッチは、前記物体のサイズと正または負に相関する、請求項49に記載のシステム。
  51. 前記第1の聴覚刺激の特性は前記第1の聴覚刺激のラウドネスであり、前記第1の聴覚刺激の特性は前記物体の速度を含む前記物体の特性に関連し、前記第1の聴覚刺激のラウドネスは、前記物体の速度と正または負に相関する、請求項49に記載のシステム。
  52. 前記第1の聴覚刺激の特徴は前記第1の聴覚刺激のピッチであり、前記第1の聴覚刺激の特徴は前記対象物のサイズおよび/または速度を含む前記対象物の特性に関連し、前記第1の聴覚刺激のピッチは前記対象物のサイズと正または負に相関し、前記第1の聴覚刺激のピッチは、前記対象物の速度と正または負に相関する、請求項49に記載のシステム。
  53. 前記1つ以上の第1の聴覚刺激および前記対応する1つ以上の第1のオーディオ出力デバイスが2つ以上の第1の聴覚刺激および対応する2つ以上の第1のオーディオ出力デバイスを含み、前記対応する第1のオーディオ出力デバイスによって出力される前記2つ以上の第1の聴覚刺激の組み合わせが、前記複数のオーディオ出力デバイスのいずれも個別に模倣することができない最初の時点で、前記ユーザに対して前記第1の位置で移動する前記目的のサウンドを模倣する、請求項49~52のいずれか1項に記載のシステム。
  54. 前記1つ以上の第1の聴覚刺激は、狭い範囲の周波数または純粋なトーンを含む、請求項49~52のいずれか1項に記載のシステム。
  55. 前記1つ以上の第1の聴覚刺激は、音楽、音声、またはそれらの組み合わせを含む、請求項49~52のいずれか1項に記載のシステム。
  56. 前記ハードウェアプロセッサは前記実行可能命令によって1つ以上のセンサによって捕捉された第2のセンサデータを受信すると、第2のセンサデータを使用して、第2の時間におけるユーザに対する目的の第2の位置を決定し、ユーザに対する目的の第2の位置はユーザの第2の閾値距離内にあり、第2の閾値距離は第1の閾値距離よりも短いか、または長いと、第2の時間におけるユーザに対する目的の第2の位置を使用して1つ以上の第2の聴覚刺激を出力するための複数の出力デバイスのうちの1つ以上の第2の聴覚刺激および対応する1つ以上の第2のオーディオ出力デバイスを決定し、第2の聴覚刺激の特性は目的の特性に関連し、第1の聴覚刺激の特性に対する第2の聴覚刺激の特性の間の差は第2の時間におけるユーザに対する目的の第2の位置に関連すると、1つ以上の第2のオーディオ出力装置の各々に、1つ以上の第2の聴覚刺激の対応する第2の聴覚刺激を出力させると、するようにプログラムされる、請求項49~52のいずれか1つに記載のシステム。
  57. 前記第1の聴覚刺激の特性に対する前記第2の聴覚刺激の特性の間の差がより高い、またはより低い周波数数で請求項56に記載のシステム。
  58. 前記第1の聴覚刺激の特性に対する前記第2の聴覚刺激の特性の間の差が、より大きいラウドネスまたはより小さいラウドネスで請求項49~57のいずれか1項に記載のシステム。
  59. 前記ハードウェアプロセッサは前記実行可能命令によって1つ以上のセンサによって捕捉された第3のセンサデータを受信すると、第3のセンサデータを使用して、第3の時間におけるユーザに対する目的の第3の位置を決定し、ユーザに対する目的の第3の位置はユーザの第3の閾値距離内にあり、第3の閾値距離は第2の閾値距離よりも短いか、または長いと、(i)1つまたは複数の第1の聴覚刺激を出力するための複数の出力デバイスのうちの1つまたは複数の第1の聴覚刺激および対応する1つまたは複数の第1のオーディオ出力デバイスと、(ii)第3の時点におけるユーザに対する目的の第3の位置を使用して1つまたは複数の第2の聴覚刺激を出力するための複数の出力デバイスのうちの1つまたは複数の第2の聴覚刺激および対応する1つまたは複数の第2のオーディオ出力デバイスと、を決定し、1つまたは複数の第1および第2のオーディオ出力デバイスのそれぞれに、1つまたは複数の第1および第2の聴覚刺激の対応する第1または第2の聴覚刺激を出力させるようにプログラムされる、請求項49~58のいずれか1つに記載のシステム。
  60. 前記システムがヘルメットまたはウェアラブル装置に関連し、それを含み、またはそれに含まれ、任意選択で、前記複数のオーディオ出力デバイスが、前記ヘルメットまたは前記ウェアラブル装置の上、中、またはその中にある、請求項49~59のいずれか1項に記載のシステム。
  61. 前記複数のオーディオ出力デバイスは、(1a)前記ユーザの水平線の下、(1b)前記ユーザの水平線の下、(2a)前記ユーザの左側、(2b)前記ユーザの直後、および(2c)前記ユーザの右側からの音を模倣する聴覚刺激を出力するように配置される、請求項60に記載のシステム。
  62. 前記複数のオーディオ出力機器は、(i)ヘルメットまたはウェアラブル装置を着用するときにユーザの水平線の中心点からの音を模倣する聴覚刺激を出力するための水平線量のオーディオ出力装置(ii)ヘルメットまたはウェアラブル装置を着用するとき、ユーザの左側および右側のユーザの水平線より下の第1の垂直レベルからの音をそれぞれ模倣する聴覚刺激を出力するための、ヘルメットまたはウェアラブル装置上の、またはヘルメットまたはウェアラブル装置の第1の輪郭の第1の左下水平線音声出力装置および第1の右下水平線音声出力装置を含む、請求項49~61のいずれか1項に記載のシステム。
  63. 前記複数の音声出力装置は、前記ユーザの前記地平線および前記中心点の下からの音を模倣する聴覚刺激を出力するための、前記第1の輪郭の中央地平線下音声出力装置を備える、請求項62に記載のシステム。
  64. 前記複数のオーディオ出力デバイスは(iii)前記ヘルメットまたは前記ウェアラブル装置を着用するときに、前記ユーザの左側および右側の前記ユーザの水平線より下の第2の垂直レベルからの音をそれぞれ模倣する聴覚刺激を出力するための、前記ヘルメットまたは前記ウェアラブル装置の第2の輪郭の第1の左下水平線オーディオ出力デバイスおよび第1の右下水平線オーディオ出力デバイスを備え、前記第2の垂直レベルは前記第1の垂直レベルより下であり、前記第2の輪郭は、前記第1の輪郭より下である、請求項49~63のいずれか1項に記載のシステム。
  65. 前記複数のオーディオ出力デバイスが(ii)前記第2の左下水平オーディオ出力デバイスと、前記第1の輪郭の前記第1の右下水平オーディオ出力デバイスによって模倣された前記音が前記第1の輪郭の前記第1の左下水平オーディオ出力デバイスによって模倣された前記音の左へのものであり、前記第2の右下水平オーディオ出力デバイスによって模倣された前記音は前記第1の輪郭の前記第1の右下水平オーディオ出力デバイスによって模倣された前記音の右へのものであり、前記第2の左下水平オーディオ出力デバイスは前記第1の輪郭の前記第1の右下水平オーディオ出力デバイスによって模倣された前記音の右へのものであり、前記第2の左下水平オーディオ出力デバイスは前記第1の左下水平オーディオ出力デバイスによって模倣された前記音の左へのものである第1の輪郭の第1の右下地平線オーディオ出力装置であって、第2の右下地平線オーディオ出力装置は第1の輪郭の第1の右下地平線オーディオ出力装置の右側にある、請求項49~64のいずれか1項に記載のシステム。
  66. 前記ハードウェアプロセッサは前記実行可能命令によって1つまたは複数のセンサによって捕捉された第4のセンサデータを受信すると、目的が第4のセンサデータを使用して、ユーザの分野内にないか、または通過時にユーザの分野の遠い周辺にある、通過時にユーザを通過しているか、または通過しようとする尤度閾時間を超える尤度を有する目的を決定すると、任意選択的に、ユーザを通過する物体の聴覚特性に対応する特性である第4の聴覚刺激を決定すると、複数のオーディオ出力機器のうちの1つまたは複数に、出力時に第4の聴覚刺激をユーザに出力させることによって、ユーザが、出力時または出力時の直後の時間で、ユーザの視野の遠方周辺にある物体を視覚的に知覚する可能性を高めるようにさらにプログラムされる、請求項49~65のいずれか1項に記載のシステム。
  67. 前記1つまたは複数のセンサは、画像捕捉装置、無線検出および測距(レーダー)、光検出および測距(ライダー)、オーディオ捕捉装置、またはそれらの組み合わせを備える、請求項66に記載のシステム。
  68. 前記物体が第一の自動車で請求項66~67のいずれか一項に記載のシステム。
  69. 前記ユーザは、第2のモータにいるか、または前記第2のモータに乗っている、請求項66~68のいずれか1項に記載のシステム。
  70. 前記通過時間において前記目的が前記ユーザを通過する尤度閾値が、少なくとも50%、60%、70%、80%、90%、95%、または99%で請求項66~69のいずれか1項に記載のシステム。
  71. 前記物体は、前記ユーザの最大1メートル、2メートル、5メートル、または10メートル以内の通過バイタイムにおいて、前記ユーザのそばを通過しているか、または前記ユーザのそばを通過する尤度閾値を超える尤度を有する、請求項66~70のいずれか1項に記載のシステム。
  72. 前記目的は、前記通過時に前記ユーザの視野の極端な周辺にある、請求項66~71のいずれか1項に記載のシステム。
  73. 前記表示の前記視野の前記遠い周辺が前記表示の鼻から時間的に離れて前記表示のこめかみに向かって約60°~約110°を含み、かつ/または前記表示の前記視野の前記極端な周辺が、前記鼻から時間的に離れて前記表示のこめかみに向かって約90°~110°を含む、請求項66~72のいずれか1項に記載のシステム。
  74. 前記第4の聴覚刺激の特性が、落下ピッチ、増加ラウドネス、より高い周波数、より高い周波数、角度差の規則性、角度差の特異性、音影、より大きい角度サイズ、ユーザの耳に対するラウドネス非対称性、約90°の頭部伝達関数、ユーザの水平線より下の垂直位置、またはそれらの組み合わせを含む群から選択される、請求項66~73のいずれか1項に記載のシステム。
  75. 前記第4の聴覚刺激の特性の変化が、前記経過時間で最も速いか、または最も速いか、またはほぼ経過時間で請求項66~74のいずれか1項に記載のシステム。
  76. 前記通過バイタイムは前記第4のセンサデータまたはその一部が捕捉される時間であり、前記通過バイタイムは前記第4のセンサデータまたはその一部が捕捉された後の時間であり、または前記通過バイタイムは、前記第4のセンサデータまたはその一部が捕捉された直後の時間で請求項66~75のいずれか1項に記載のシステム。
  77. 前記物体が前記ユーザの左側または右側で前記ユーザを通過しているか、または通過する可能性がある、請求項66~76のいずれか1項に記載の装置であって、前記複数の音声出力装置のうちの1つまたは複数に、前記出力時に前記第4の聴覚刺激を前記ユーザに出力させるために、前記ハードウェアプロセッサは前記実行可能命令によって第1の左下地平線オーディオ出力機器、または第1の右下地平線オーディオ出力機器、および/または第1の左下地平線オーディオ出力機器、または第2の輪郭の第1の右下地平線オーディオ出力機器に、それぞれ、出力時に第4の聴覚刺激を出力させるようにプログラムされる、装置。
  78. 請求項66~77のいずれか1項に記載のシステムであって、それによって、出力時間または出力時間の直後の時間において、ユーザがユーザの視野の遠い周辺において物体を視覚的に知覚する可能性を、少なくとも10%、20%、30%、40%、または50%増加させる、システム。

JP2021547338A 2019-03-29 2020-01-06 最周辺部における視覚による運動知覚の補助 Pending JP2022526216A (ja)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201962826540P 2019-03-29 2019-03-29
US62/826,540 2019-03-29
US201962879971P 2019-07-29 2019-07-29
US62/879,971 2019-07-29
US201962880557P 2019-07-30 2019-07-30
US62/880,557 2019-07-30
PCT/US2020/012425 WO2020205029A1 (en) 2019-03-29 2020-01-06 Assisting visual motion perception in the extreme periphery

Publications (1)

Publication Number Publication Date
JP2022526216A true JP2022526216A (ja) 2022-05-24

Family

ID=72603837

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021547338A Pending JP2022526216A (ja) 2019-03-29 2020-01-06 最周辺部における視覚による運動知覚の補助

Country Status (5)

Country Link
US (1) US11276182B2 (ja)
EP (1) EP3947092A4 (ja)
JP (1) JP2022526216A (ja)
CN (1) CN113710559A (ja)
WO (1) WO2020205029A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050190047A1 (en) * 2004-02-26 2005-09-01 Lemke Richard G. Collision avoidance system for snowmobiles
US20170096104A1 (en) * 2015-10-02 2017-04-06 Ford Global Technologies, Llc Potential hazard indicating system and method
US20180186286A1 (en) * 2017-01-03 2018-07-05 Ford Global Technologies, Llc. Spatial Auditory Alerts for a Vehicle

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150309316A1 (en) * 2011-04-06 2015-10-29 Microsoft Technology Licensing, Llc Ar glasses with predictive control of external device based on event input
US10099030B2 (en) * 2013-09-06 2018-10-16 Iarmourholdings, Inc. Mechanical and fluid system and method for the prevention and control of motion sickness, motion-induced vision sickness, and other variants of spatial disorientation and vertigo
US20170150907A1 (en) * 2015-02-04 2017-06-01 Cerebral Assessment Systems, LLC Method and system for quantitative assessment of visual motor response
US9771082B2 (en) * 2015-08-13 2017-09-26 International Business Machines Corporation Reducing cognitive demand on a vehicle operator by generating passenger stimulus
MY191482A (en) * 2015-10-22 2022-06-28 Nissan Motor Parking support information display method and parking support device
US9902403B2 (en) * 2016-03-03 2018-02-27 Uber Technologies, Inc. Sensory stimulation for an autonomous vehicle
JP6811429B2 (ja) 2017-01-23 2021-01-13 パナソニックIpマネジメント株式会社 イベント予測システム、イベント予測方法、プログラム、及び移動体
US10446031B2 (en) 2017-03-14 2019-10-15 Hyundai Mobis Co., Ltd. Apparatus and method of safety support for vehicle
US11334070B2 (en) * 2017-08-10 2022-05-17 Patroness, LLC Systems and methods for predictions of state of objects for a motorized mobile system
WO2019079790A1 (en) * 2017-10-21 2019-04-25 Eyecam, Inc ADAPTIVE GRAPHIC USER INTERFACE SYSTEM

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050190047A1 (en) * 2004-02-26 2005-09-01 Lemke Richard G. Collision avoidance system for snowmobiles
US20170096104A1 (en) * 2015-10-02 2017-04-06 Ford Global Technologies, Llc Potential hazard indicating system and method
US20180186286A1 (en) * 2017-01-03 2018-07-05 Ford Global Technologies, Llc. Spatial Auditory Alerts for a Vehicle

Also Published As

Publication number Publication date
EP3947092A1 (en) 2022-02-09
US20200311951A1 (en) 2020-10-01
CN113710559A (zh) 2021-11-26
WO2020205029A1 (en) 2020-10-08
EP3947092A4 (en) 2023-03-22
US11276182B2 (en) 2022-03-15

Similar Documents

Publication Publication Date Title
JP7320239B2 (ja) 音源の方向を認識するロボット
US10528815B2 (en) Method and device for visually impaired assistance
KR102408257B1 (ko) 조기에 위험을 경고하는 방법 및 장치
US9792501B1 (en) Method and device for visually impaired assistance
CN112204640B (zh) 针对视觉受损者的辅助设备
US20140184384A1 (en) Wearable navigation assistance for the vision-impaired
CN109087485B (zh) 驾驶提醒方法、装置、智能眼镜及存储介质
CN106660205A (zh) 用于处理类人机器人与人类交互的系统、方法和计算机程序产品
US11009954B2 (en) Haptics device for producing directional sound and haptic sensations
US20210154430A1 (en) Systems and methods for predicting and preventing motion sickness
US11568640B2 (en) Techniques for providing vibrations at headset
CN109983784B (zh) 信息处理装置、方法和存储介质
US11338106B2 (en) Hearing assistance devices with motion sickness prevention and mitigation features
JP2022526216A (ja) 最周辺部における視覚による運動知覚の補助
KR20220014254A (ko) 버스와 같은 차량에서 여행 가상현실 컨텐츠를 제공하는 방법 및 시스템
JP7326707B2 (ja) ロボット、ロボットの制御方法及びプログラム
CN113596673A (zh) Ar眼镜扬声器的定向发声方法、装置和发声设备
JP6884854B2 (ja) 音声提供装置、音声提供方法及びプログラム
CN111586395A (zh) 用于辅助主体获取关于环境的空间信息的方法、计算机程序和头戴式装置
WO2022153792A1 (ja) 接近回避システム及び前庭電気刺激装置
WO2022059784A1 (ja) 情報提供装置、情報提供方法及びプログラム
US20240061510A1 (en) Motion sickness reduction, directional indication, and neural rehabilitation device
KR20180054400A (ko) 초음파를 이용한 콘텐츠 기반 체감각 제공 전자 장치, 웨어러블 디바이스, 및 방법
Schauer et al. A computational model of early auditory-visual integration
Zhang Navigation system based on depth camera and portable device for visual impairments

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210916

A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A524

Effective date: 20211221

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230613

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230912

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20231110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240312