JP2022520685A - Methods and devices for adjusting the reaction system based on the sensory input and the vehicle incorporating it - Google Patents
Methods and devices for adjusting the reaction system based on the sensory input and the vehicle incorporating it Download PDFInfo
- Publication number
- JP2022520685A JP2022520685A JP2021519709A JP2021519709A JP2022520685A JP 2022520685 A JP2022520685 A JP 2022520685A JP 2021519709 A JP2021519709 A JP 2021519709A JP 2021519709 A JP2021519709 A JP 2021519709A JP 2022520685 A JP2022520685 A JP 2022520685A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- driver
- video image
- camera
- processor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/147—Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60J—WINDOWS, WINDSCREENS, NON-FIXED ROOFS, DOORS, OR SIMILAR DEVICES FOR VEHICLES; REMOVABLE EXTERNAL PROTECTIVE COVERINGS SPECIALLY ADAPTED FOR VEHICLES
- B60J3/00—Antiglare equipment associated with windows or windscreens; Sun visors for vehicles
- B60J3/04—Antiglare equipment associated with windows or windscreens; Sun visors for vehicles adjustable in transparency
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/04—Changes in size, position or resolution of an image
- G09G2340/0464—Positioning
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2354/00—Aspects of interface with display user
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2380/00—Specific applications
- G09G2380/10—Automotive applications
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Closed-Circuit Television Systems (AREA)
- Body Structure For Vehicles (AREA)
- Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
- Traffic Control Systems (AREA)
Abstract
従来の車両は、通常、車両の設計段階中に定義される、固定された特性を持つ単一の剛体のように振る舞う。従来の車両の剛性な性質によって、異なる運転条件に順応する能力が制限され、それゆえ有用性および性能も制限される。これらの制限を克服するには、センサおよび反応システムを含む、反応性の高い車両を使用してもよい。センサは、運転者の位置および/もしくは配向、車両の運転条件、ならびに/または車両の周りの環境条件を監視し得る。反応システムは、センサによって取得されたデータに基づいて、車両の何らかの態様を調整してもよい。例えば、反応システムは、運転者の動きに基づいて変化する視野を持つ、ビデオベースのミラーを含んでもよい。別の例では、反応システムは、運転者の動きに基づいて、車両の物理的な構成を変更する、関節ジョイントを含んでもよい。【選択図】図1Traditional vehicles typically behave like a single rigid body with fixed properties, as defined during the vehicle design phase. The rigid nature of conventional vehicles limits their ability to adapt to different driving conditions, and therefore their usefulness and performance. To overcome these limitations, highly responsive vehicles may be used, including sensors and reaction systems. Sensors may monitor the driver's position and / or orientation, the driving conditions of the vehicle, and / or the environmental conditions around the vehicle. The reaction system may adjust some aspect of the vehicle based on the data acquired by the sensors. For example, the reaction system may include a video-based mirror with a field of view that changes based on the driver's movements. In another example, the reaction system may include joint joints that change the physical configuration of the vehicle based on the driver's movements. [Selection diagram] Fig. 1
Description
関連特許出願に対する相互参照
本出願は、2018年4月30日に出願された「ARTICULATED VEHICLE」と題する、米国出願第62/664,656号の優先権を主張する、2019年4月30日に出願された「ARTICULATED VEHICLES WITH PAYLOAD-POSITIONING SYSTEMS」と題する、国際出願第PCT/US2019/029793号の一部継続(CIP)出願である。本出願はまた、2018年10月12日に出願された「APPARATUS FOR A REACTIVE CAMERA MONITORING SYSTEM AND METHODS FOR THE SAME」と題する、米国出願第62/745,038号の優先権を主張する。これら出願の各々は、その全体を参照することにより本明細書に組み込まれる。
Mutual reference to related patent applications This application claims the priority of US Application No. 62 / 664,656, entitled "ARTICULATED VEHICLE" filed April 30, 2018, on April 30, 2019. It is a partial continuation (CIP) application of the international application No. PCT / US2019 / 029793 entitled "ARTICULATED VEHICLES WITH PAYLOAD-POSITIONING SYSTEMS". This application also claims the priority of US application No. 62 / 745,038, entitled "APPARATUS FOR A REACTIVE CAMERA MONITORING SYSTEM AND METHODS FOR THE SAME" filed on October 12, 2018. Each of these applications is incorporated herein by reference in its entirety.
人が運転する車両(例えば、自動車)は、通常、車両のキャビンの中に位置する運転手によって制御される。車両を安全に運転するために、運転手は、好ましくは、車両近くの物体(例えば、人、道路の障壁、別の車両)に気づいているべきである。しかしながら、運転手の周囲環境に対する視野(FOV)は、人の目の周辺視野が限定されることが一部原因となり、主に運転手の目の前の領域に限定される。そのため、運転手は、車両の周囲を確認する(例えば、車線変更時に死角を確認する)ために、通常、運転手のFOVを車両の走行方向から移すという犠牲を払って、自身の目および/または頭部を移動させてFOVを移すべきである。運転手のFOVは、キャビンの構造(例えば、ドアパネル、窓のサイズ、A、B、またはCの柱)またはキャビン内の物体(例えば、別の乗客、大きな積み荷)など、車両キャビン内の障害物によってさらに制限され得る。 A vehicle driven by a person (eg, a vehicle) is usually controlled by a driver located in the cabin of the vehicle. In order to drive a vehicle safely, the driver should preferably be aware of objects near the vehicle (eg, people, road barriers, other vehicles). However, the visual field (FOV) of the driver's surrounding environment is mainly limited to the area in front of the driver due in part to the limitation of the peripheral visual field of the human eye. Therefore, the driver usually at the expense of moving the driver's FOV from the direction of travel of the vehicle in order to see the surroundings of the vehicle (eg, to see the blind spot when changing lanes). Alternatively, the head should be moved to move the FOV. The driver's FOV is an obstacle in the vehicle cabin, such as a cabin structure (eg, door panel, window size, A, B, or C pillar) or an object in the cabin (eg, another passenger, large cargo). Can be further restricted by.
従来の車両は、通常、運転手のFOVを拡張するためのミラーを含む。しかしながら、運転手のFOVの増大は限定的である。例えば、従来の自動車用ミラーは、通常、距離の歪みを減少させ、運転手の注意を車両の周りの特定区域に集中させるように、中程度のFOVを提供する。通常の視距離では、自動車に使用されるミラーの水平FOVは、典型的にはそれぞれ運転席側ミラーで10~15°、中央(内側)ミラーで23~28°、および助手席側ミラーで20~25°の範囲である。さらに、従来の車両は、運転中、主として単一の剛体である。したがって、キャビンのFOVは、主に車両の設計段階中に決定され、それゆえ、高価なおよび/または時間のかかる修正を行わない限り、製造後、容易には再構成できない。 Conventional vehicles typically include a mirror to extend the driver's FOV. However, the increase in driver's FOV is limited. For example, conventional automotive mirrors typically provide a moderate FOV to reduce distance distortion and focus the driver's attention on a particular area around the vehicle. At normal viewing distances, the horizontal FOVs of mirrors used in automobiles are typically 10-15 ° for driver-side mirrors, 23-28 ° for center (inside) mirrors, and 20 for passenger-side mirrors, respectively. It is in the range of ~ 25 °. Moreover, conventional vehicles are primarily single rigid bodies while driving. Therefore, the FOV of the cabin is determined primarily during the design phase of the vehicle and therefore cannot be easily reconstructed after manufacture without expensive and / or time consuming modifications.
本明細書に記載する実施形態は、運転者(「運転手」とも呼ぶ)の位置および/または配向の変化に一部応答する、反応システムを含む車両を対象とする。(反応システムを持つ車両は、反応性の高い車両と呼ばれる場合がある。)例えば、運転者が自身の頭部を移動すると、反応システムによって、運転者のFOVを調整し得る。これは、環境に対する運転者の位置を変更するために、車両の関節ジョイントを物理的に作動させることによって、または運転者に表示される、車両の外側領域のビデオ画像を調整することによってなど、いくつかの手段で達成され得る。このように、反応システムによって運転者のFOVを拡大し、それゆえ、運転者が車両の走行方向に対して意識を維持することが可能になると同時に、運転者に車両の周囲に関するより優れた状況認識を提供し得る。また反応システムで、従来の車両では不可能な、車両上のカメラまたは車両自体の位置を調整することによって、運転者が物体の周りおよび/または物体の先を見ることが可能になり得る。 The embodiments described herein are directed to vehicles that include a reaction system that partially responds to changes in the position and / or orientation of the driver (also referred to as the "driver"). (A vehicle with a reaction system may be referred to as a highly responsive vehicle.) For example, when the driver moves his or her head, the reaction system may adjust the driver's FOV. This can be done by physically activating the vehicle's joint joints to change the driver's position with respect to the environment, or by adjusting the video image of the outer region of the vehicle that is displayed to the driver. It can be achieved by several means. In this way, the reaction system expands the driver's FOV, thus allowing the driver to remain aware of the vehicle's direction of travel, while at the same time giving the driver a better situational awareness of the vehicle's surroundings. Can provide awareness. The reaction system may also allow the driver to look around and / or ahead of the object by adjusting the position of the camera on the vehicle or the vehicle itself, which is not possible with conventional vehicles.
一態様では、運転手の位置および/または配向は、車両に結合された一つ以上のセンサによって測定され得る。センサは、運転者に関連付けられた、さまざまなタイプのデータを捕捉するように構成されてもよい。例えば、センサは、運転者のRGB(赤緑青)画像を取得するためのカメラと、運転者の深度マップを取得するための深度マップセンサとを含んでもよい。RGB画像および深度マップを使用して、運転手の頭部の眼の基準点など、運転者に関連付けられた、さまざまな顔および/または姿勢の特徴の座標を決定してもよい。運転者のさまざまな特徴の座標は、時間の関数として測定され、反応システムを作動させるための入力として使用され得る。 In one aspect, the driver's position and / or orientation can be measured by one or more sensors coupled to the vehicle. Sensors may be configured to capture different types of data associated with the driver. For example, the sensor may include a camera for acquiring an RGB (red, green, blue) image of the driver and a depth map sensor for acquiring a depth map of the driver. RGB images and depth maps may be used to determine the coordinates of various facial and / or postural features associated with the driver, such as eye reference points on the driver's head. The coordinates of the various features of the driver are measured as a function of time and can be used as inputs to activate the reaction system.
運転者の特徴を決定するために、さまざまなデータタイプを使用することで、誤検知の発生(すなわち、偽の特徴を検出)を減少させ、さまざまな照明条件下で特徴検出が可能になり得る。これら特徴の検出は、畳み込みニューラルネットワークなど、いくつかの方法を使用して達成され得る。動作フィルタリングシステム(例えば、カルマンフィルタ)も使用して、例えば、運転者のRGB画像の望ましくないジッタを減少させることによって、運転者の測定された特徴が、時間の関数として滑らかに変化することを保証してもよい。また深度マップは、いくつかの手段でRGB画像と共に使用してもよい。例えば、深度は、RGB画像のより小さな部分が、特徴検出に使用されるように、RGB画像をマスクし、それによって計算コストを低減し得る。 Using different data types to determine driver characteristics can reduce the occurrence of false positives (ie, detect false features) and enable feature detection under different lighting conditions. .. Detection of these features can be achieved using several methods, such as convolutional neural networks. A motion filtering system (eg, a Kalman filter) is also used to ensure that the driver's measured features change smoothly as a function of time, for example by reducing unwanted jitter in the driver's RGB image. You may. The depth map may also be used with the RGB image by some means. For example, the depth can mask the RGB image so that a smaller portion of the RGB image is used for feature detection, thereby reducing computational costs.
また一つ以上のセンサは、道路表面のタイプ、車両速度および加速度、車両近くの障害物、ならびに/または降水の有無など、さまざまな環境条件も測定し得る。測定された環境条件はまた、反応システムへの入力として使用してもよい。例えば、環境条件によって、車両の速度(例えば、高速道路での操縦に対して都市での操縦)に基づいて、反応システムの応答の大きさを修正(例えば、車高を調整)してもよい。一部の事例では、環境条件はまた、特定の条件(例えば、車両速度、曲がる時の速度、車輪のトラクション)が満たされる場合に、運転者および車両の安全を維持するために、反応システムの起動を禁止し得る、制限ゲートとして使用されてもよい。 One or more sensors can also measure various environmental conditions such as road surface type, vehicle speed and acceleration, obstacles near the vehicle, and / or the presence or absence of precipitation. The measured environmental conditions may also be used as an input to the reaction system. For example, depending on the environmental conditions, the magnitude of the response of the reaction system may be modified (eg, the height of the vehicle) based on the speed of the vehicle (eg, maneuvering in the city as opposed to maneuvering on the highway). .. In some cases, environmental conditions are also a reaction system to keep the driver and vehicle safe when certain conditions are met (eg, vehicle speed, turning speed, wheel traction). It may be used as a restricted gate that may prohibit activation.
反応システムは、カメラおよびディスプレイを使用して組み立てられた、ビデオベースのミラーを含み得る。カメラは、車両に結合され、車両(例えば、車両の後部)外側の領域のビデオ画像を取得するように配向されてもよい。ディスプレイは、その領域のビデオ画像を、運転者に示すように使用され得る。運転手が移動すると、ディスプレイ上に示されるビデオ画像は、カメラが捕捉する領域のFOVを調整するために、変換されてもよい。例えば、運転者が自身の頭部を回転させ、ビデオ画像をそれに対応してシフトさせて(例えば、カメラをパンするか、またはディスプレイ上に示されているビデオ画像の一部分を移すことによって)、従来のミラーに類似した応答をエミュレートし得る。反応システムは、カメラの集合的なFOVが、車両の周囲を実質的にカバーするような、複数のカメラを含んでもよく、それゆえに、車両を運転する時に運転者の死角を減少させるか、または一部の例では排除する。複数のカメラによって取得されたビデオ画像は、一つ以上のディスプレイに表示されてもよい。 The reaction system may include a video-based mirror assembled using a camera and display. The camera may be coupled to the vehicle and oriented to capture a video image of the area outside the vehicle (eg, the rear of the vehicle). The display can be used to show the driver a video image of that area. As the driver moves, the video image shown on the display may be converted to adjust the FOV of the area captured by the camera. For example, the driver rotates his head and shifts the video image accordingly (eg, by panning the camera or moving a portion of the video image shown on the display). It can emulate a response similar to a conventional mirror. The reaction system may include multiple cameras such that the collective FOV of the cameras substantially covers the perimeter of the vehicle, thus reducing or reducing the driver's blind spot when driving the vehicle. Exclude in some cases. Video images acquired by multiple cameras may be displayed on one or more displays.
反応システムは、車両の構成を物理的に変更するための、関節ジョイントを含み得る。関節ジョイントは、車両の傾き/車高、および/または車両の車体形状を変化させる(例えば、車両の尾部に対して、車両の前部を回転させる)ヒンジを調整する、車両のアクティブサスペンションなど、一つ以上の機構を含み得る。一例では、関節ジョイントは、車両の第一の部分が、経路に沿って第二の部分に対して移動可能である経路を画定するガイド構造と、経路に沿って車両の第一の部分を移動させる駆動アクチュエータと、経路に沿ってある特定の位置で、車両の第一の部分を保持するブレーキとを含み得る。 The reaction system may include joints for physically changing the configuration of the vehicle. Joint joints adjust the vehicle's tilt / height and / or hinges that change the vehicle's body shape (eg, rotate the vehicle's front relative to the vehicle's tail), such as the vehicle's active suspension. It may include one or more mechanisms. In one example, the joint joint moves the first part of the vehicle along the path with a guide structure that defines the path through which the first part of the vehicle is movable with respect to the second part along the path. It may include a drive actuator to cause the vehicle to hold a first portion of the vehicle at a particular position along the path.
関節ジョイントは、環境に対する運転者の位置を修正するように使用されてもよい。例えば、反応システムによって、運転者が自身の頭部を傾けて、物体(例えば、別の車両)の周りを見るときに、関節ジョイントを使用して車両を傾けてもよい。別の例では、反応システムによって、運転者が物体(例えば、障壁)を見渡すために、自身の頭部を上方へと合わせるときに、車両の車高を増大させてもよい。このような場合、反応システムは、車両安定性を損なわないような形で、関節ジョイントを作動させるように構成され得る。例えば、反応システムによって、作動の大きさを減少させてもよく、または一部の例では、車両が高速で走行しているときに、関節ジョイントが作動するのを防止してもよい。また反応システムによって、明示的な運転者コマンド(例えば、ハンドル、アクセル、ブレーキなどの入力装置から受信するコマンド)と併せて、関節ジョイントを作動させてもよい。 Joint joints may be used to correct the driver's position with respect to the environment. For example, the reaction system may allow the driver to tilt his or her head and tilt the vehicle using joints when looking around an object (eg, another vehicle). In another example, the reaction system may increase the vehicle height as the driver aligns his head upwards to look over an object (eg, a barrier). In such cases, the reaction system may be configured to actuate the joint joints in a manner that does not compromise vehicle stability. For example, the reaction system may reduce the magnitude of the actuation, or in some cases may prevent the joint joints from actuating when the vehicle is traveling at high speed. The reaction system may also activate the joint joint in conjunction with an explicit driver command (eg, a command received from an input device such as a steering wheel, accelerator, brake, etc.).
(反応性の高い)車両を運転する別の方法は、第一のセンサを使用して車両の運転者から第一の入力を受信することと、第二のセンサを使用して車両外側の環境から第二の入力を受信することとを含む。プロセッサによって、第一の入力と第二の入力との間の相関を識別し、その相関に基づいて挙動ベースのコマンドを生成する。この挙動ベースのコマンドが、車両のアクチュエータに適用されると、車両を事前に定義した挙動で移動させる。プロセッサによって、挙動ベースのコマンドと、プロセッサへ動作可能に結合された入力装置を介した、運転者からの明示的なコマンドと、第二の入力とに基づいて、組み合わせたコマンドを生成する。そして、車両の安定性を維持するように、組み合わせたコマンドを調整および/またはフィルタリングし、その後、調整および/またはフィルタリングされた組み合わせたコマンドを使用して、車両のアクチュエータを作動させる。 Another way to drive a (reactive) vehicle is to use the first sensor to receive the first input from the vehicle driver and the second sensor to use the environment outside the vehicle. Includes receiving a second input from. The processor identifies the correlation between the first and second inputs and generates behavior-based commands based on that correlation. When this behavior-based command is applied to the vehicle's actuators, it moves the vehicle in a predefined manner. The processor produces a combined command based on behavior-based commands, explicit commands from the driver via an input device operably coupled to the processor, and a second input. The combined commands are then adjusted and / or filtered to maintain the stability of the vehicle, and then the adjusted and / or filtered combined commands are used to activate the vehicle actuators.
上の反応システムの例は、運転者および/またはカメラのFOVを修正する文脈で記載しているが、反応システムおよびその中にあるさまざまな構成要素はまた、他の用途にも使用され得る。例えば、反応システムは、車両用のセキュリティシステムとして使用してもよい。反応システムによって、他の個人のアクセスを妨げ(例えば、侵入を防止するために、車両を作動させることによって)ながら、承認された個人の車両へのアクセスを認識し許可し得る。別の例では、運転者が、容易に車両を見つけることができる(例えば、複数の車両を収容する駐車場で)ように、反応システムによって、関節ジョイントを介して、車両に音を発せさせる(例えば、クラクションを鳴らす)か、および/もしくはヘッドライトを点灯/点滅させてもよい。別の例では、車両は、反応システムが、車両の外側に位置する運転者に従うよう、車両に命令するように構成される、自律運転モードを有してもよい。これは、例えば、運転者が環境内を移動する際に、運転者のビデオ画像を記録するように使用され得る。別の例では、反応システムによって、運転者の眼球領域上のまぶしい光を減少させるために、運転者の位置を調整(例えば、関節ジョイントによって)してもよい。 The example reaction system above is described in the context of modifying the FOV of the driver and / or camera, but the reaction system and the various components within it can also be used for other applications. For example, the reaction system may be used as a security system for vehicles. A reaction system may recognize and grant access to an authorized individual's vehicle while blocking access to other individuals (eg, by activating the vehicle to prevent intrusion). In another example, the reaction system causes the vehicle to make a sound through the joints (eg, in a parking lot that accommodates multiple vehicles) so that the driver can easily find the vehicle (eg, in a parking lot that accommodates multiple vehicles). For example, you may honk) and / or turn on / blink the headlights. In another example, the vehicle may have an autonomous driving mode in which the reaction system is configured to instruct the vehicle to follow a driver located outside the vehicle. It can be used, for example, to record a video image of the driver as he travels through the environment. In another example, the reaction system may adjust the driver's position (eg, by a joint) to reduce the glare on the driver's eye area.
前述の概念、および以下でより詳細に論じる追加的概念のすべての組み合わせは(このような概念が相互に矛盾していないという前提で)、本明細書に開示する本発明の主題の一部であると考えられる。特に、本開示の最後に現れる特許請求される主題のすべての組み合わせは、本明細書に開示する本発明の主題の一部であると考えられる。また当然のことながら、参照により組み込まれる任意の開示においても現れる場合がある、本明細書で明示的に用いられる用語には、本明細書に開示する特定の概念と最も一致する意味を与えるべきである。 All combinations of the above concepts and the additional concepts discussed in more detail below (assuming such concepts are not inconsistent with each other) are part of the subject matter of the invention disclosed herein. It is believed that there is. In particular, all combinations of claims appearing at the end of this disclosure are considered to be part of the subject matter of the invention disclosed herein. Also, of course, the terms explicitly used herein, which may also appear in any disclosure incorporated by reference, should be given the meaning that most closely matches the particular concepts disclosed herein. Is.
当業者であれば、図面が主として例示的な目的であること、そして本明細書に記載する本発明の主題の範囲を制限することを意図していないことを理解するだろう。図面は必ずしも一定の比率ではなく、いくつかの実例では、本明細書に開示する本発明の主題のさまざまな態様は、異なる特徴の理解を容易にするために、図面内で誇張または拡大されて示される場合がある。図面では、同様の参照文字は概して、同様の特徴(例えば、機能的に類似したおよび/または構造的に類似した要素)を意味する。
以下は、反応性の高い車両システム、反応性ミラーシステム、多関節車両、および前述の使用方法に関係するさまざまな概念、およびそれらの実装についてのより詳細な説明である。上で紹介し、以下でより詳細に論じる概念は、複数の手段で実施され得る。特定の実装および適用の例は、当業者にとって明らかである実装および代替を、当業者が実践することを可能とするために、主に例示的な説明のために提供される。 The following is a more detailed description of reactive vehicle systems, reactive mirror systems, articulated vehicles, and various concepts related to the aforementioned usage, and their implementation. The concepts introduced above and discussed in more detail below can be implemented by multiple means. Examples of specific implementations and applications are provided primarily for illustrative purposes to allow those skilled in the art to practice implementations and alternatives that are apparent to those of skill in the art.
以下で説明する図および実施例は、本実装の範囲を単一の実施形態に限定することを意味していない。記載もしくは図示する要素の一部またはすべてを交換することによって、他の実装が可能である。さらに、開示する実装例のある特定の要素が、既知の構成要素を使用して部分的または完全に実装され得る場合、場合によっては、本実装の理解に必要なそのような既知の構成要素のそれら部分のみを記載し、本実装を不明瞭にしないために、そのような既知の構成要素の他の部分の詳細な説明は省略する。 The figures and examples described below do not imply limiting the scope of this implementation to a single embodiment. Other implementations are possible by exchanging some or all of the elements described or illustrated. In addition, if certain elements of the disclosed implementation examples can be partially or completely implemented using known components, in some cases such known components required for understanding this implementation. Only those parts are described and detailed description of other parts of such known components is omitted in order not to obscure the present implementation.
以下の考察では、車両、反応システム、反応性ミラー、および関節機構のさまざまな例について説明する。所与の例に関して論じる一つ以上の特徴は、本明細書に開示するさまざまな特徴が、本開示による所与のシステムで容易に組み合わせられてもよい(それぞれの特徴が互いに矛盾しないことを条件に)ように、本開示による他の実施例で用いられてもよい。 The following discussion describes various examples of vehicles, reaction systems, reactive mirrors, and joint mechanisms. One or more features discussed with respect to a given example may be that the various features disclosed herein are readily combined in a given system according to the present disclosure (provided that the features are consistent with each other). As in), it may be used in other embodiments according to the present disclosure.
センサおよび反応システムを持つ車両
図1は、車体4100を持つ(多関節)車両4000を示す。外部カメラ4202および内部カメラ4204を含む一つ以上のセンサは、運転者(例えば、運転手4010)の姿勢および/または配向、車両4000の動作パラメータ(例えば、速度、加速度、車輪のトラクション)、ならびに環境条件(例えば、環境光)が含むが、これらに限定されない、車両4000に関連付けられた、さまざまな入力を測定するように、車体4100に取り付けられてもよい。反応システム(図1に関節ジョイント4300として示す)は、センサ4202および4204によって測定された入力に一部基づいて、車両4000の何らかの態様を修正(例えば、運転者4010のFOVを変更、可変の地形を横断など)するように、車両4000に結合されてもよい。図1では、例えば、反応システム4300は、外部カメラ4204によって検出されるような、対向車両のヘッドライトの光上の経路から、ユーザの頭部を移動させるように車両を関節でつないでいる。車両4000はまた、センサ4202および4204、ならびに反応システム4300だけでなく、車両4000のさまざまな構成要素と、車両4000のそれぞれのサブシステムとの間で、データおよび/またはコマンドの転送を管理するためのプロセッサ(図示せず)を含んでもよい。
Vehicles with Sensors and Reaction Systems FIG. 1 shows a (articulated)
反応システム4300は、車両4000に関連付けられた、さまざまなタイプのデータを取得するように、一つ以上のセンサを含んでもよく、またはそれらに結合されていてもよい。例えば、室内カメラ4204は、車両4000のキャビンならびに/または運転者4010の深度および赤緑色青色(RGB)データの両方を取得してもよい。深度フレームの各ピクセルは、ピクセルに対する物体と、深度マップセンサの熱くされた捕捉元との間の距離を表し得る。深度フレームは、構造化赤外線(IR)投影と、ステレオ構成(または類似の深度捕捉)にある二つのカメラとを使用して取得され得る。深度フレームは、運転者4010および車両キャビンの深度マップ表現を生成するために使用される。RGBフレームは、標準的な可視光カメラを使用して取得されてもよい。センサ4200によって取得された他のタイプのデータには、運転者の心拍数、運転者4010の歩行認識、および顔認識を含み得るが、これらに限定されない。
The
外部カメラ4202、および/または慣性計測装置もしくはジャイロスコープを含む他のセンサは、車両4000の配向、車両4000の速度、サスペンションの移動量、加速速度、道路表面のトポロジー、降水量、昼夜感知、道路表面タイプ(例えば、滑らかな舗装、粗い舗装、砂利、泥)、車両4000近くの他の物体/障害物(例えば、別の車、人、障壁)を含むが、これらに限定されない、さまざまな車両パラメータおよび/または環境条件を取得するように構成されてもよい。これらセンサの動作周波数は、少なくとも60Hz、および好ましくは、120Hzであってもよい。
External cameras 4202 and / or other sensors, including inertial measurement units or gyroscopes, include
各センサに関連付けられた、さまざまな動作パラメータが記憶されてもよく、センサに関係する固有パラメータ(例えば、解像度、寸法)、および外因性パラメータ(例えば、車両4000の座標空間内にある内部カメラ4204の位置および/または配向)を含むが、これらに限定されない。各センサの動作パラメータは、そのセンサに関連付けられたローカル座標系と、車両座標系との間で変換するために使用され得る。参考までに、本明細書で使用する座標系は、国際標準化機構(ISO)16505-2015に基づく、右手座標系であってもよい。この座標系では、正のx軸は、車両4000の前方への動きの方向とは反対の方向に沿って向けられ、z軸は、接地面に直交して上を向き、y軸は、前方への動きの方向を見るときに右を指す。
Various operating parameters associated with each sensor may be stored, including sensor-related unique parameters (eg, resolution, dimensions), and extrinsic parameters (eg,
プロセッサ(本明細書では「マイクロコントローラ」とも呼ぶ)を使用して、センサによって取得された入力データを処理すること(例えば、ノイズのフィルタリング、さまざまなセンサからのデータを組み合わせること)、変換を計算すること、および/または反応システム4300を修正するためのコマンドを生成すること、ならびに車両4000のさまざまなサブシステムを(例えば、外部カメラ4204を反応システム4300に)通信可能に結合することを含むがこれらに限定されない、さまざまな機能を行ってもよい。例えば、プロセッサは、運転者4010の位置および/または配向を決定し、ビデオ画像に適用される、画像変換を生成するために使用され得る。プロセッサは、概して、通信可能に共に結合される、一つ以上のプロセッサを構成し得る。一部の事例では、プロセッサは、フィールドプログラマブルゲートアレイ(FPGA)であってもよい。
A processor (also referred to herein as a "microcontroller") is used to process the input data captured by the sensor (eg, noise filtering, combining data from different sensors), and compute the transformation. And / or generating commands to modify the
上述のように、内部カメラ4202は、車両座標空間で運転者4010(例えば、運転者の頭部または体)の位置および/または配向を検出し得る。以下の例では、内部カメラ4202は、運転者4010の深度およびRGBデータの両方を取得する。特徴検出の前に、プロセッサは、RGBおよび深度データのフレームのいずれかのピクセル座標を使用して、対応する色または深度データにアクセスし得るように、内部カメラ4202によって取得されたRGB画像および深度フレームを、最初に位置合わせしてもよい。深度マップの処理には、通常、RGBフレームの処理と比較して、より少ない計算資源が使用される。一部の事例では、深度マップを使用して、処理のためにRGBフレームの区域を限定および/またはマスクしてもよい。例えば、深度マップは、特徴検出のために約0.1mから約1.5mの深度範囲に対応する、RGBフレームの一部分を抽出するように使用され得る。このようにRGBフレームを減少させることによって、誤検知の発生を減少させるのはもちろん、RGBフレームを処理するために使用する計算能力をも大幅に減少させ得る。
As mentioned above, the internal camera 4202 may detect the position and / or orientation of the driver 4010 (eg, the driver's head or body) in vehicle coordinate space. In the example below, the internal camera 4202 acquires both the depth and RGB data of the
特徴検出は、いくつかの手段で達成されてもよい。例えば、事前にトレーニングされた機械学習モデル(例えば、畳み込みニューラルネットワーク)は、深度、RGB、および/または組み合わせた(RGBD)データを利用して、運転者4010の特徴を検出し得る。モデルの出力は、体、頭部、および/または顔の特徴に対応するピクセル領域を含み得る。またモデルによって、運転者の姿勢の推定を提供し得る。一部の事例では、プロセッサ4400が運転者の頭部を識別すると、プロセッサ4400によってその後、運転者4010の眼の基準点(例えば、図2に示すような、運転者の目の間の中点)が推定され得る。次いで、眼の基準点は、射影変換の逆を行い(de-projected)、車両基準フレーム内の座標に変換されてもよい。説明の通り、特徴を検出するのはソフトウェア構築物であってもよく、それゆえ、特徴検出に使用されるモデルは、コンピュータビジョンの進歩を組み込むため、および/または性能を改善するために、製造時の後に更新されてもよい。
Feature detection may be achieved by several means. For example, a pre-trained machine learning model (eg, a convolutional neural network) can utilize depth, RGB, and / or combined (RGBD) data to detect features of the
センサ(例えば、内部カメラ4202)および反応システム4300はまた、運転者4010に合わせて較正されてもよい。概して、車両4000のキャビン内にいる、運転者の高さおよび場所(例えば、異なる運転位置)は、経時的に変化し得る。車両4000が、特に運転者4010に合わせて較正されてはいない場合、運転者の位置および配向の変動によって、反応システム4300が、運転者4010を支援するために、車両4000を適切に調整することができない。運転者4010は、物理ボタンを押すこと、車両4000の制御コンソール上にある較正オプション(例えば、インフォテイメントシステム)を選択すること、および/または音声コマンドを使用することを含むがこれらに限定されない、車両4000のさまざまな入力を使用して、較正モードを起動してもよい。
The sensor (eg, internal camera 4202) and
概して、較正は、(1)運転者の物理的な位置および動き、ならびに(2)運転者個人の嗜好に関するグループに分けられてもよい。運転者の物理的な位置および動きに関係する較正には、車両4000内の車両座標の中で車両4000を運転中の、運転者の初期座位および運転者の通常の眼の一点と、運転者の頭部の位置の変化に対する、反応システム4300の応答範囲に影響を与える、運転者の動作範囲との確立を含む場合がある。センサ4200は、運転者の物理的な位置および動きを取得するように使用してもよく、結果として生じる眼の基準点は、反応システム4300を作動させるときに、後で使用するために記憶することができる。
In general, calibration may be divided into groups regarding (1) the driver's physical position and movement, and (2) the driver's individual preferences. Calibration related to the driver's physical position and movement includes the driver's initial sitting position and one point of the driver's normal eye while driving the
較正中、運転者4010は、ある特定の様式で自信の体を動かすように指示され得る。例えば、車両のスピーカーおよびディスプレイからの音声または視覚的プロンプトによって、運転者4010を正常に座る、右に動く、または左に動くように促してもよい。プロセッサによって、各位置での眼の基準点を記録して、初期位置および動作範囲を確立する。プロンプトは、車両のインフォテイメントシステムに示される視覚的な合図および/または命令、ならびに車両のスピーカーによる音声命令を含むが、これらに限定されない、いくつかの手段で運転者4010に送達され得る。プロセッサによって、反応システム4300のさまざまな構成要素に対する入力として、眼の基準点を使用できるように、車両4000の座標系の観点から、眼の基準点を記録してもよい。
During calibration, the
また内部カメラ4202は、車両4000の中にある座席に合わせて較正されてもよく、これによって、車両4000内の内部カメラ4202(および運転手4010)を見つけるように、より標準化された基準を提供し得る。図3は、センサ4200によって検出される較正パターン4120を含む、座席4110を示す。較正パターン4120の形状および設計は、予め知られていてもよい。これらは、可視インクまたは不可視インク(例えば、近赤外線波長でのみ可視であるインク)で印刷されてもよい。代替的にまたは追加的に、座席4110は、較正用の基準マーカーとして使用できる、特徴的な形状または特徴(例えば、非対称の特徴)を有してもよい。較正パターン4120(および座席4110)を撮像することによって、座席に対するセンサ4200の相対的な距離および/または配向を見出し得る。一部の事例では、較正パターン4120は、可視波長(例えば、人の目で直接観察可能)または赤外線波長(例えば、人の目に見えず、赤外線撮像センサのみを使用して検出可能)で形成され得る。
The internal camera 4202 may also be calibrated for the seat in the
運転者個人の嗜好に関係する較正は、使用されている反応システム4300のタイプに基づいて変化してもよい。例えば、反応システム4300は、運転者4010が、以前のサイドミラーを調整するのと類似の様式で示されるビデオ画像を、手動で調整することが可能になる、ビデオベースのミラーを利用してもよい。別の例では、反応システム4300は関節ジョイントを含んでもよい。運転者4010は、関節ジョイントの作動の大きさおよび/または速度を調整することができ得る(例えば、より穏やかな作動によって、より快適さが増す場合があり、より迅速で積極的な作動によって、より大きな性能を提供してもよい)。
Calibration related to the driver's personal preference may vary based on the type of
ビデオベースのミラーを持つ反応システム
図4は、ビデオベースのミラー4320を含む、例示的な反応システム4300を示す。示すように、ミラー4320は、車両4000の外側環境4500の領域のソースビデオ画像4332(「ソースビデオストリーム」とも呼ぶ)を取得するように、プロセッサ4400(マイクロコントローラユニット(MCU)4400とも呼ぶ)に結合された、カメラ4330を含んでもよい。ミラー4320はまた、変換されたビデオ画像4342(例えば、ソースビデオ画像4332の一部分)を運転者4010に示すように、MCU4400に結合されたディスプレイ4340を含んでもよい。プロセッサ4400は、ソースビデオ画像4332に変換を適用して、運転者4010の動きを検出するセンサ4200に応じて、運転者4010に示される変換されたビデオ画像4342を調整(例えば、FOVおよび/または画角)してもよい。このように、ビデオベースのミラー4320は、車両4000における従来のミラー(例えば、サイドミラー、バックミラー)を補完または置換し得る。例えば、ビデオベースのミラー4320は、従来のミラーを使用する際に、通常遭遇する空力抵抗を減少させるために使用され得る。一部の事例では、ミラー4320は、ISO16505-2015によって定義される、カメラ監視システム(CMS)として分類されてもよい。
Reaction system with video-based mirrors FIG. 4 shows an
ミラー4320は、車両4000の安全な運転を可能にするように、車両周囲の充分な部分をカバーする、ソースビデオ画像4332を取得してもよい。加えて、ミラー4320によって、ディスプレイ4340上に示される、変換されたビデオ画像4342のスケール歪みおよび/もしくは幾何学的歪みを減少または軽減し得る。ミラー4320はまた、現地の規制を遵守するように構成されてもよい。従来のドライバサイドミラーおよびセンターミラーは、概して、これら所望の特性を表すことができない。例えば、サイドミラーおよびセンターミラーは、米国では等倍を提供するべきであり、これは、表示される物体の高低角および角度幅が、同じ距離で直接眺めるのと同じ物体の高低角および角度幅と合致するべきであることを意味する(米国連邦自動車安全基準第111号)。
The
カメラ4330は、車両4000の外側環境4500のそれぞれの領域を各々カバーする、カメラ4330の配列として、個別にまたはその一部として使用され得る。カメラ4330は、組み合わせてカメラ4330のFOV4334を画定する、ソースビデオ画像4332を取得するための、レンズ(図示せず)およびセンサ(図示せず)を含んでもよい。
The
図5Aおよび5Bは、車両4000の外側の左側、右側、および後部領域をそれぞれカバーする、カメラ4330a、4330b、および4330c(総称して、カメラ4330)を各々含む、多関節車両4000ならびに従来の車両4002を示す。各車両4000、4002はまた、カメラ4330a、4330b、および4330cによって取得される、変換されたビデオ画像4342を示す、対応するディスプレイ4340aならびに4340bも含む。(従来の車両はまた、バックミラーの代わりに追加ディスプレイ4340cを含み得る。)示すように、カメラ4330は、異なるカメラ4330間に、死角が形成されないように、一部重複するFOV4334を有するように配向されてもよい。
5A and 5B show an articulated
車両4000上のカメラ4330の配置は、いくつかの要因に左右され得る。例えば、カメラ4330は、環境4500の所望のFOV4334を捕捉するように、車体4100上に置かれ得る(図5Aおよび5Bに示すように)。カメラ4330はまた、車両4000上の空力抵抗を減少させるように、位置付けられてもよい。例えば、各カメラ4330は、車体4100のドアおよび/もしくはサイドパネル、または車両4000のトランクの後方を向いた部分の上にある、陥凹開口部内に取り付けられてもよい。カメラ4330の配置はまた、車両4000が使用されている場所に基づく、現地の規制および/またはガイドライン(例えば、ISO16505)に一部左右され得る。
The placement of the
カメラ4330のFOV4334は、プロセッサ4400によってソースビデオ画像4332に適用される、一つ以上の所望の画像変換をサポートできるほど充分に大きくてもよい。例えば、ディスプレイ4340上に示される、変換されたビデオ画像4342は、カメラ4330によって取得されたソースビデオ画像4332の一部分に対応し、それゆえ、FOV4334よりも小さいFOV4344を有してもよい。カメラ4330のセンサは、変換されたビデオ画像4342が、サポートされている画像変換の範囲にわたって、ディスプレイ4340の最低解像度に少なくとも適合するような、充分な高解像度でソースビデオ画像4332を取得してもよい。
The FOV4334 of the
FOV4334のサイズは、カメラ4330で使用される光学素子に、一部基づいてもよい。例えば、カメラ4330は、FOV4334を増加させるために広角レンズを使用し、それゆえ、環境4500のより大きな領域をカバーし得る。カメラ4330のFOV4334はまた、カメラ4330を車両4000の車体4100に結合する、電動マウントによって調整されてもよい。電動マウントによって、カメラ4330を回転および/またはパンし、それゆえ、カメラ4330のFOV4334が移ってもよい。これは、例えば、カメラ4330がより長い焦点距離を持つレンズを含むときに、使用され得る。電動マウントは、運転者4010に示されるビデオ画像4342に対する、所望の応答性が可能になる周波数で、カメラ4330を作動させるように構成されてもよい。例えば、電動マウントによって、約60Hzでカメラ4330を作動させ得る。電動マウントによって、より低い周波数(例えば、15Hz)でカメラ4330を作動させる場合、プロセッサ4400は、ディスプレイ4340上に示されるビデオ画像4342をアップサンプリングするために、追加のフレームを生成(例えば、補間によって)してもよい。
The size of the FOV4334 may be based in part on the optics used in the
各カメラ4330は、照明条件および所望の露出設定に応じて、可変フレームレートでソースビデオ画像4332を取得し得る。例えば、カメラ4330は、名目上、少なくとも1秒あたり約30フレーム(FPS)、および好ましくは60FPSのフレームレートで、ソースビデオ画像4332を取得し得る。しかしながら、微光状況において、カメラ4330は、少なくとも約15FPSのより低いフレームレートで、ソースビデオ画像4332を取得し得る。
Each
各カメラ4330はまた、可視、近赤外(NIR)域、中間赤外(MIR)域、および遠赤外(FIR)域を含むがこれらに限定されない、さまざまな波長範囲で、ソースビデオ画像4332を取得するように構成されてもよい。一部の用途では、車両4000上に配置されるカメラの配列4330は、ミラー4320を操作するとき複数の様式を可能にするために、一つ以上の波長範囲をカバーするように使用され得る(例えば、一つのカメラ4330が可視ビデオ画像を取得し、別のカメラ4330がNIRビデオ画像を取得する)。例えば、センサ4200により、車両4000が視界不良条件(例えば、夜間の運転、霧)で運転しているのを検出すると、プロセッサ4400によって、ディスプレイ4340上にIRビデオ画像のみを示してもよい。
Each
反応システム4300は、光学素子および/またはセンサの特性に関係する固有パラメータ(例えば、焦点距離、アスペクト比、センササイズ)、外因性パラメータ(例えば、車両4000の座標空間内におけるカメラ4330の位置および/または配向)、ならびに歪み係数(例えば、放射状のレンズ歪み、接線方向のレンズ歪み)を含むがこれらに限定されない、各カメラ4330に関連付けられた、さまざまな動作パラメータを記憶してもよい。カメラ4330の動作パラメータを使用して、ソースビデオ画像4332に適用される変換を修正してもよい。
The
ディスプレイ4340は、FOV4344に対応する、変換されたビデオ画像4342を示すように、構成された装置であってもよい。図5Aおよび5Bに示すように、車両4000は、一つ以上のディスプレイ4340を含み得る。ディスプレイ4340は、概して、一つ以上のカメラ4330によって取得された、ビデオ画像4332を示し得る。例えば、ディスプレイ4340は、複数のカメラ4330の変換されたビデオ画像4342を、分割画面配置(例えば、並んで表示される、二つの変換されたビデオ画像4342)で表示するように構成されてもよい。別の例では、プロセッサ4400によって、ディスプレイ4340上に示される、変換されたビデオ画像4342が、一つのカメラ4330から別のカメラ4330に途切れなく移行するように、複数のカメラ4330によって取得された、ソースビデオ画像4332を変換してもよい(例えば、ソースビデオ画像4332が、途切れなくつなぎ合わせられる)。車両はまた、車両4000上のカメラ4330に各々対応する、複数のディスプレイ4340を含んでもよい。
The
ディスプレイ4340の配置は、いくつかの要因に左右され得る。例えば、ディスプレイ4340の位置および/または配向は、運転者4010の公称位置または車両4000の車両の運転席に、一部基づいてもよい。例えば、一つのディスプレイ4340は、ハンドルの左側に位置付けられてもよく、別のディスプレイ4340は、ハンドルの右側に位置付けられてもよい。一対のディスプレイ4340は、車両4000の左右側面に位置する、それぞれのカメラ4330からの変換されたビデオ画像4342を示すように使用され得る。ディスプレイ4340は、運転者4010が、走行方向に沿って車両の周囲を見失うことなく、変換されたビデオ画像4342を見ることが可能になるように置かれてもよい。加えて、ディスプレイ4340の場所は、カメラ4330と同様に車両4000が使用されている場所に基づく、現地の規制および/またはガイドラインにも左右され得る。
The placement of the
一部の事例では、ディスプレイ4340はまた、ビデオベースのミラー4320を制御する、明示的なコマンドを入力する能力を、運転者4010に提供するために、タッチセンサ式であってもよい。例えば、運転者4010は、ディスプレイ4340に手で触れ、ディスプレイ4340上に示される変換されたビデオ画像4342の一部分を、パンおよび/またはスケーリングするために、スワイプ動作を適用してもよい。ビデオベースのミラー4320を較正するとき、以下でより詳細に論じるディスプレイ4340のずれが、タッチインターフェースによって調整され得る。加えて、運転者4010は、タッチインターフェースを使用して、輝度およびコントラストを含むがこれらに限定されない、ディスプレイ4340のさまざまな設定を調整してもよい。
In some cases, the
反応システム4300は、ディスプレイ4340の固有特性(例えば、ディスプレイ解像度、リフレッシュレート、タッチ感度、ディスプレイ寸法)、外因性特性(例えば、車両4000の座標空間内における、ディスプレイ4340の位置および/または配向)、および歪み係数(例えば、ディスプレイ4340の湾曲)を含むがこれらに限定されない、各ディスプレイ4340に関連付けられた、さまざまな動作パラメータを記憶し得る。ディスプレイ4340の動作パラメータは、プロセッサ4400によって使用されて、ビデオ画像4332への変換を行ってもよい。
The
上述のように、プロセッサ4400は、反応システム4300を制御するために使用され得る。ビデオベースのミラー4320の場合、プロセッサ4400は、使用される、ある特定タイプのカメラ4330および/またはディスプレイ4340に一部基づく(例えば、カメラ4330のビットレート、ディスプレイ4340の解像度および/またはリフレッシュレート)、高速通信バスを使用して、ディスプレイ4340ならびにカメラ4330と通信し得る。一部の事例では、通信バスはまた、使用されるプロセッサ4400のタイプ(例えば、中央処理装置および/またはグラフィックスプロセッシングユニットのクロック速度)に一部基づいてもよい。プロセッサ4400はまた、CAN(Controller Area Network)バスなどの共有通信バスを使用して、ビデオベースのミラー4320および/または車両4000の他のサブシステムのさまざまな構成要素と通信してもよい。
As mentioned above, the
反応システム4300のビデオベースのミラー4320は、運転者4010の動きに基づいて修正され、ディスプレイ4340上に変換されたビデオ画像4342として示される、ソースビデオ画像4332を取得してもよい。これらの修正は、ソースビデオ画像4332の適切な部分を抽出し、運転者4010に表示するビデオ画像4332の一部分を準備する、ソースビデオ画像4332への変換を適用することを含み得る。別の例では、変換を使用して、ミラー4320が従来のミラーと類似の様式で応答するように、変換されたビデオ画像4342のFOV4344を修正し得る。例えば、FOV4344は、運転者4010がディスプレイ4340のより近くに移動するにつれて幅が広がってもよい。加えて、変換されたビデオ画像4342のFOV4344は、運転者4010が左右に位置を変えると、パンしてもよい。
The video-based
図6は、運転者4010の頭部の位置および/または配向の変化に一部基づいて、カメラ4330によって取得されたソースビデオ画像4332を変換する方法600を示す。方法600は、センサ4200を使用して、運転者の頭部の位置および/または配向を感知することから始まってもよい(ステップ602)。上述のように、センサ4200は、運転者の頭部のデータ(例えば、RGB画像および/または深度マップ)を取得し得る。次いで、プロセッサ4400によって、センサ4200が取得したデータに基づいて、運転者4010の眼の基準点を決定してもよい(ステップ604)。プロセッサ4400により、眼の基準点を決定することができる場合(ステップ606)、変換が計算され、ソースビデオ画像4332を修正するように適用される(ステップ610)。
FIG. 6 shows a
変換は、車両4000のビデオベースのミラー4320およびセンサ4200のモデルを使用して、計算されてもよい。モデルは、眼の基準点、カメラ4330の動作パラメータ(例えば、固有および外因性パラメータ、歪み係数)、ディスプレイ4340の動作パラメータ(例えば、固有および外因性パラメータ、歪み係数)、ならびにメーカーおよびユーザ較正パラメータを含むがこれらに限定されない、さまざまな入力を受信してもよい。パン、回転、およびスケーリングを含むがこれらに限定されない、さまざまなタイプの変換が、ソースビデオ画像4332に適用され得る。変換には、一連のマトリクス変換および信号処理操作を、ソースビデオ画像4332に適用することを含み得る。
The conversion may be calculated using the model of the
一例では、ソースビデオ画像4332に適用される変換は、眼の基準点およびユーザ較正パラメータのみに基づいてもよい。特に、運転者4010の眼の基準点と初期座位との間の距離(較正済み)は、単純なアフィン変換を使用して、ソースビデオ画像4332の一部分上でパンおよび/またはズームインするように使用され得る。例えば、変換の大きさは、運転者4010の較正された動作範囲にスケーリングされてもよい。加えて、パン速度および/またはズーム率は、変換されたビデオ画像4342が、運転者の頭部による動きに均一に応答するように、一定であってもよい。一部の事例では、ミラー4320の均一な応答は、ディスプレイ4340と運転者4010の眼の基準点との間の距離に左右されない場合がある。
In one example, the transformation applied to the
この変換は、ディスプレイ4340が、運転者4010の前方に位置する車両4000で、および/またはミラー4320が、運転者の頭部の位置の変化にのみ応答する(運転者4010の視野角、またはディスプレイ4340と運転者4010との間の距離など、他のパラメータの変化には応答しない)ように構成されるときに、好ましい場合がある。このように、この変換によって、車両4000の中にあるカメラ4330およびディスプレイ4340のさまざまな配置に、より標準化された応答を提供する一方で、実施がより簡単で、かつ計算コストが手ごろに(それゆえ、より速く行える)なり得る。加えて、この変換は、運転者の頭部の動きに基づいて、ソースビデオ画像4332に適用され得る。
This conversion is such that the
別の例では、ソースビデオ画像4332に適用される変換は、部分的に、ディスプレイ4340に対する運転者4010の視野角、および運転者4010の眼の基準点とディスプレイ4340との間の距離に一部基づいてもよい。ディスプレイ4340に対する運転者4010の位置、視野角、および距離に基づく調整を含む変換によって、従来のミラーの挙動をより良くエミュレートしてもよく、運転者4010にとってより自然に感じられ得る。プロセッサ4400によって、運転者4010の眼の基準点から、ディスプレイ4340の中心までの、ベクトル
を決定してもよい。その後、ベクトルを使用して、変換されたビデオ画像4342について、標的FOVおよびパン位置を決定してもよい。例えば、レイキャスティング法を使用して、運転者4010の眼の基準点から、ディスプレイ4340のそれぞれの角に、光線が投げられるFOVを画定してもよい。
In another example, the transformation applied to the
May be determined. Vectors may then be used to determine the target FOV and pan position for the converted
次のステップは、標的FOVに対応するソースビデオ画像4332の一部分の抽出である。これは、変換されたビデオ画像4342に使用される、ソースビデオ画像4332の一部分の場所およびサイズの決定を伴い得る。ソースビデオ画像4332の一部分のサイズは、カメラ4330の固有パラメータのうちの一つである、カメラ4330の角度分解能(例えば、1ピクセル当たりの度数)に一部左右され得る。カメラ4330の角度分解能を使用して、抽出されるビデオ画像4332の一部分の寸法を決定してもよい。例えば、標的FOVの水平軸は、45度の角度範囲をカバーしてもよい。カメラ4330の角度分解能が、1ピクセル当たり0.1度である場合、ビデオ画像4332の一部分は、標的FOVを満たすために、水平軸に沿って450ピクセルを有するはずである。
The next step is to extract a portion of the
カメラ4330によって捕捉されたソースビデオ画像4332から抽出された、変換されたビデオ画像4342の場所は、ディスプレイ4340に対する運転者4010の視野角に左右され得る。視野角は、ベクトル
と、ディスプレイ4340の中心と交差し、かつ垂直であるベクトル
との間の角度として定義され得る。したがって、
および
の共線性は、ディスプレイ4340の中心に位置合わせされている、運転者4010の眼の基準点に対応するであろう。運転者の頭部が動くと、結果として生じる視野角によって、変換されたビデオ画像4342の場所を、ソースビデオ画像4332内の位置にシフトさせ得る。位置のシフトは、視野角(すなわち、水平視野角および垂直視野角)のそれぞれの構成要素に、カメラ4330の角度分解能を乗じることによって決定され得る。このように、トリミングされた部分の中心点(例えば、XおよびYのピクセル位置)は、ソースビデオ画像4332に対して見出され得る。
The location of the converted
And a vector that intersects and is perpendicular to the center of the
Can be defined as an angle between and. therefore,
and
The co-linearity will correspond to the reference point of the driver's eye, aligned with the center of the
プロセッサ4400によって、運転者4010の眼の基準点を決定することができない場合、初期設定または以前の変換を、ソースビデオ画像4332に適用してもよい(図6のステップ608)。例えば、眼の基準点の以前の測定に対応する以前の変換は、眼の基準点が検出されない場合に、変換されたビデオ画像4342が変化しないように維持され得る。別の例では、変換は、運転者の動きの予測に基づいて計算されてもよい。眼の基準点が、時間の関数として測定される場合、運転者4010の眼の基準点の場所を予測するように、以前の測定値を外挿してもよい。以前の測定値の外挿は、線形外挿(例えば、運転者の動きは、充分に小さな時間増分とおおよそ線形になる)、および特定の行動(例えば、車線を変更するときに、運転者の頭部が、実質的に反復可能な様式で、ディスプレイ4340に向かって動く)をするときの、運転者の挙動のモデリングを含むがこれらに限定されない、一つ以上の手段で達成され得る。このように、眼の基準点の検出を突然中断しても、変換されたビデオ画像4342が飛び、および/または途切れ途切れに見えることはない。
If
変換を決定する(例えば、新しい計算された変換、初期設定/以前の変換)と、その後、変換がソースビデオ画像4332に適用されて、変換されたビデオ画像4342を生成し、次いでこれがディスプレイ4340上に示される(図6のステップ612)。このソースビデオ画像4332を変換する方法600は、少なくとも約60Hzの動作周波数で行われてもよい。加えて、カメラ4330および/またはディスプレイ4340の歪み係数を使用して、ソースビデオ画像4332の放射状および/または接線方向歪みを補正してもよい。さまざまな技術を使用して、以前の較正に基づいて、補正されたピクセル位置を計算し、その後、ソースビデオ画像4332(すなわち、ソースビデオストリーム)のピクセル位置を、変換されたビデオ画像4342(すなわち、変換されたビデオストリーム)の補正されたピクセル位置に再マッピングするなど、歪みを補正してもよい。
After determining the conversion (eg, new calculated conversion, default / previous conversion), the conversion is then applied to the
上述のように、センサ4200および/または反応システム4300を、運転者4010に対して較正してもよい。ビデオベースのミラー4320に対して、較正は、ディスプレイ4340上に示される変換されたビデオ画像4342を調整して、運転者の身長、および/または運転者の頭部とディスプレイ4340との間の距離に基づいて変化し得る、運転者の頭部と整列することを含み得る。加えて、前述したように、運転者の動作範囲および/または初期位置(例えば、車両4000における運転者の運転位置)を使用して、ソースビデオ画像4332に適用される変換を調整してもよい。例えば、変換されたビデオ画像4342が、より大きなソースビデオ画像4332にわたってパンすることができるように、運転者の動作範囲を使用して、変換をスケーリングしてもよい(例えば、変換されたビデオ画像4342のFOV4344が、ソースビデオ画像4332のFOV4344をカバーしてもよい)。
As mentioned above, the
別の例では、運転者の初期位置は、「ベースライン」位置として使用され得る。ベースライン位置は、各ディスプレイ4340(すなわち、二つ以上のディスプレイ4340を持つ車両4000の中にある)の好ましいFOVを有する、運転者4010に対応してもよい。例えば、各ディスプレイ4340上に示される、変換されたビデオ画像4342は、対応する各カメラ4330によって取得されたソースビデオ画像4332に対して、実質的に中心にあってもよい。別の例では、好ましいFOVは、車両4000について現地の規制または製造業者の仕様に左右され得る。一部の事例では、運転者4010の初期位置は、運転者4010の平均位置(例えば、運転者4010が座っているときの平均位置)、および/または運転者4010が車両4000を使用するときの動作範囲に基づいて、ミラー4320が異なる運転者4010に適応する、動的較正アプローチを使用して決定され得る。
In another example, the driver's initial position can be used as the "baseline" position. The baseline position may correspond to the
ミラー4320の較正は、動作範囲および初期位置を測定するために、運転者4010に特定の行動(例えば、自身の四肢を動かす)をするように指示する、半自動の様式で行われてもよい。前述したように、運転者4010は、車両4000のインフォテイメントシステムまたは車両のスピーカーなどのさまざまなシステムを使用して、較正についての指示を受信してもよい。ビデオベースのミラー4320については、ディスプレイ4340もまた、運転者4010への視覚的な命令および/または合図を提供するために使用され得る。命令および/または合図には、車両4000、道路、および/または運転者4010にスケーリングおよび配向の感覚を提供する、別の基準物体を重ね合わせた、一つ以上のグラフィックを含み得る。これらの測定が行われると、プロセッサ4400によって、車両周囲の適切なFOVを提供するために、各ディスプレイ4340上に示される、変換されたビデオ画像4342を調整するように試み得る。
Calibration of the
運転者4010にはまた、ミラー4320を直接調整するように、制御が提供されてもよい。このように、運転者4010は、運転手が車両のサイドミラーまたはバックミラーを調整できる方法に類似する、自身の個人的な嗜好に従ってミラー4320を較正し得る。タッチコントロール(例えば、インフォテイメントシステム、ディスプレイ4340)、物理ボタン、およびジョイスティックを含むがこれらに限定されない、さまざまな制御入力が、運転者4010に提供され得る。制御入力によって、運転者4010が、変換されたビデオ画像4342を、上下左右に手動でパンすること、および/または変換されたビデオ画像4342の倍率を増減するように、倍率ずれを調整することが可能になり得る。
The
これらの調整は、ソースビデオ画像4332に適用された変換を修正する(例えば、ソースビデオ画像4332から抽出された、変換されたビデオ画像4342のサイズおよび場所を調整する)ことによって、ならびに/またはカメラ4330を物理的に回転および/もしくはパンすることによって行われ得る。加えて、変換されたビデオ画像4342が、運転者4010によってパンおよび/またはスケーリングされ得る程度は、ソースのFOV4334と、ソースビデオ画像4332の解像度とによって、一部制限されてもよい。一部の事例では、現地の規制によってもまた、変換されたビデオ画像4342に適用されるパンおよび/またはスケーリングの調整に制限が課され得る。さらに、これらの手動による調整は、運転者4010を特定の様式で位置付けることなくなされてもよい(例えば、運転者4010は、初期位置にいる必要はない)。
These adjustments are made by modifying the conversion applied to the source video image 4332 (eg, adjusting the size and location of the converted
ミラー4320が較正された後、車両4000の各ミラー4320に対する運転者の初期位置、動作範囲、および個々のずれが記憶され得る。まとめて、車両4000を制御するときに、初期位置にいる運転者4010に示す環境のFOVを表す、各ディスプレイ4340の「中心点」を、これらのパラメータが画定してもよい。中心点は、初期座位および各ディスプレイ4340のずれのみを使用して、決定され得る。一部の事例では、中心点は、運転者4010の眼の基準点が検出されないとき、変換されたビデオ画像4342の初期設定FOV4344に対応してもよい。
After the
運転者4010の動作範囲は、変換されたビデオ画像4342が、パンおよび/またはスケーリングされる速度をスケーリングするために使用され得る。加えて、動作範囲が、車両4000のキャビンによって制約され、および/またはそうでない場合、見えなくなる場合がある。したがって、変換されたビデオ画像4342の倍率調整は、車両4000のキャビンの中にいる運転者4010の検出可能な動作範囲に一部左右され得る。運転者4010が、充分な確実性を持って所定の時間内に見つからない場合、ミラー4320は、デフォルトで、各ディスプレイ4340の較正された中心点に対応する、変換されたビデオ画像4342を表示してもよい。
The operating range of the
関節ジョイントを持つ反応システム
反応システム4300はまた、運転者4010の挙動に一部基づいて、車両4000の物理的な構成を変更する、関節ジョイントを含んでもよい。例えば、関節ジョイントは、車両4000の車輪とシャーシとの間の距離を調整する、車両4000上のアクティブサスペンションシステムの一部であってもよい。車両4000は、各車輪が車高を変更し、および/または車両4000を傾けるための、独立して制御される複数の関節ジョイントを含み得る。別の例では、関節ジョイントによって、車体4100の形態および/または形状を変更してもよい。これは、トラックの荷台を作動させる、関節ジョイントを含む場合がある。
Reaction system with joints The
加えて、関節ジョイントによって、車体4100のさまざまな部位を曲げ、および/またはそうでなければ、ねじ曲げてもよい(図7A~7Eの例示的な車輛4000を参照)。例えば、一つ以上の関節ジョイントおよび/または他のアクチュエータによって、車両自体ではなく、ペイロード支持機構を作動させ得る。例えば、これらのアクチュエータは、座席の位置およびリクライニング角度を調整して、車両を必ずしも関節でつなぐことなく、特に個々の運転者のために快適さおよび/または可視性を最大化し得る。座席調整は、運転者が車両に入った直後に、または運転者が車両に入ることを見越して行うことができる。後に起こる座席部分およびリクライニング角度の調整は、運転者が時間の経過とともに落ち着いたとき、車両が移動している間に行われ得る。こうしたシナリオでは、車両を関節でつなぐのは、非効率または安全ではない場合がある。
In addition, joints may bend various parts of the
車両の車体4100の両方の関節接合、およびそのサスペンションの作動によって、車両4000の性能および/または動作に対して、特定の望ましい特性を各々が提供する、いくつかの構成が可能になり得る。車両4000は、センサ4200によって測定されるような、運転者4010の位置および/または配向の変化に基づいて、これらの構成間を能動的に移行するように構成されてもよい。一部の事例では、運転者4010による明示的な入力(例えば、ウィンカーの起動、窓の下降)および運転者の挙動の組み合わせによって、車両4000の関節ジョイントの応答を制御し得る。
Both articulations of the
例えば、車両4000は、車両4000の高さが、道路のより近くにまで下降する、低い外形構成をサポートしてもよい(図7Dを参照)。低い構成で、車両4000の抗力係数および/または前面区域を減少させることによって、空力性能を向上させ得る。また、低い外形構成によって、車両4000のホイールベースが増加し、および/または重心が下がってもよく、これによって、より大きな安定性およびより速いコーナリング速度を提供することで、運転性能が改善する。プロセッサ4400は、運転者4010が車両4000の運転に集中している(例えば、眼の基準点は、運転者4010が車両4000の真正面にある周囲に集中していることを示す)、および/または高速で運転している(例えば、高速道路上)と判定すると、プロセッサ4400によって、車両4000を低い外形構成に移行および/または維持し得る。
For example, the
別の例では、車両4000は、車両4000の高さが道路の上方へ持ち上がる、高い外形構成をサポートしてもよい(図7Eを参照)。高い外形構成は、車両4000の進入および/または退出を支援するように使用され得る。関節座席機構と組み合わせた場合、座席(またはより広くは、積み荷台)は、運転者4010(例えば、労働者、ロボット式自動装置)が、車両4000に格納されたペイロードにアクセスするのに適した高さで提示され得る。また上昇位置では、周囲環境を監視するように、運転者4010のFOVが増大し、および/または車両4000上に配置された任意のセンサが増加し、それによって状況認識を増大させ得る。運転者4010のFOVが、環境の中にある障害物(例えば、別の車両、障壁、人)によって遮断されたとき、および/またはプロセッサ4400によって、運転者4010が障害物の周りを積極的に見ようと試みている(例えば、眼の基準点は、運転者の頭部が障害物を見渡すように上方を向いていることを示す)と判定したときに、プロセッサ4400によって、車両4000を高い外形構成に移行および/または維持し得る。
In another example, the
車両4000はまた、前述の低い外形構成と高い外形構成との間の中間状態として画定されてもよい、中間外形構成をサポートしてもよい。したがって、中間外形構成によって、低い外形特性と高い外形特性との混合を提供し得る。例えば、中間外形構成によって、動的性能を改善するために低重心を維持しながら、運転者4010により良好な可視性を提供し得る。この構成は、都市環境で車両4000を運転するとき、および/または他の車両もしくは装置と相互作用するときに遭遇する、多数のシナリオを受け入れるために使用され得る。
The
中間外形構成のさまざまな使用事例には、限定するものではないが、郵便ポスト、自動現金預払機(ATM)、ドライブスルー窓口、および道路の脇に立っている別の人(例えば、隣人または自転車に乗った人)との相互作用を容易にするために、車高を調整することが含まれる。車両4000が、積み荷を(おそらくは自律的に)輸送するために使用される場合、中間状態によって、送達および/または搬出口、ロボット、および人とのより優れた人間工学的ならびに機械的相互作用が可能になる。これらの使用事例には、運転者4010(または積み荷)の予測可能な動きを伴い得る。例えば、運転者4010は、窓を下げ、自身の手を突き出して、環境の中にある物体または人と相互作用してもよい。窓が下がっていることを、センサ4200が検出し、プロセッサ4400によって、運転者4010が自身の手を突き出していると判定される場合、プロセッサ4400は、運転席側の窓近くで検出された物体の高さに合わせて、車両4000の高さを調整し得る。
Various use cases for intermediate profile configurations include, but are not limited to, mailboxes, automated teller machines (ATMs), drive-through counters, and other people standing by the side of the road (eg, neighbors or bicycles). Includes adjusting the ride height to facilitate interaction with the rider). When the
図7A~7Eは、関節ジョイント106(関節機構とも呼ばれる)、変形部123、およびペイロード2000(例えば、運転手、乗客、積み荷)を支持するための、ペイロード位置決めジョイント2100(ペイロード位置決め機構とも呼ばれる)を組み込む、車両4000を示す。この例では、車両4000は後輪操舵の三輪電気車両である。関節ジョイント106によって、車両4000が、車両4000の長さに沿って、中間位置を関節でつなぐか、または中間位置の周りで曲がることが可能になり、そのため車両4000が再構成される。
7A-7E show the payload positioning joint 2100 (also referred to as the payload positioning mechanism) for supporting the joint joint 106 (also referred to as the joint mechanism), the
車両4000の関節接合範囲は、二つの特徴的な構成、(1)図7A、7B、7Dに示すように、ホイールベースが拡大し、運転手が地面近くにくる低い外形構成、ならびに(2)図7Eに示すように、運転手が、地面上方の上昇位置に置かれる高い外形構成によって画定され得る。車両4000を関節接合して、低い外形構成と高い外形構成との間のいかなる構成にもなり得る。一部の事例では、関節ジョイント106によって、車両4000の構成を飛び飛びの数に制限し得る。これは、関節ジョイント106に対する、より単純な設計および/または低電力設計が好ましい例で、望ましい場合がある。
The joint range of the
車両4000は、関節ジョイント106によって共に結合される、車両前部102および尾部104にさらに分割されてもよい。前部102は、限定するものではないが、ユニボディ、モノコックフレーム/シェル、スペースフレーム、およびフレーム形式構造(例えば、シャーシ上に取り付けられた車体)を含む、さまざまなタイプの車両支持構造であってもよい、車体108を含んでもよい。図7A~7Eでは、車体108は、モノコックフレームとして示されている。車体108は、取り外し可能なサイドパネル(または車輪フェアリング)116、固定された側窓125、車両4000に結合された透明な天蓋110、および平行な構成で配設され、下にある車体108上に取り付けられた二つの前輪112を含み得る。尾部104は、後部外殻121、後面ガラス124、および操舵可能な車輪126を含み得る。変形部123は、前部102と尾部104との間に結合されて、さまざまな構成で滑らかで連続的な室外表面を車両4000の下に維持してもよい。図7Dおよび7Eでは、後部外殻121および後面ガラス124が、少なくとも関節ジョイント106に関係する、下にある構成要素が見えるように取り外されている。
The
天蓋110は、天蓋110を開閉することが可能になるように、ヒンジ付きの配置によって車体108に結合され得る。ペイロード2000が運転手である場合、天蓋110には、図7Eの高い外形構成にあるときに、車両4000の上面に向けてヒンジが付いていてもよく、そのため、運転手が、二つの前輪112の間で、車両4000の中におよび/または車両4000から外へ踏み出すことによって、車両4000に出入りしてもよい。
The
前輪112は、電気ハブモータによって電力供給されてもよい。後輪126もまた、電気ハブモータによって電力供給されてもよい。一部の例示的な電気モータは、2014年6月14日に発行され、「Rotary Drive with Two Degrees of Movement」と題する米国特許第8,742,633号、ならびに 「Guided Multi-Bar Linkage Electric Drive System」と題する米国特許公開第2018/0072125号に見出すことができ、それら両方が、参照によりそれら全体が本明細書に組み込まれる。
The
車両前部102の後部表面は、尾部104が、関節ジョイント106を介して前部102に対して移動するにつれて、後部外殻121内で入れ子になり、尾部104の後部外殻121と車両前部102の後部表面との間の間隙が、小さいままであるように形成され得る。示すように、関節ジョイント106によって、回転軸111を中心に前部102に対して尾部104を回転させることによって、車両4000を再構成し得る。図7B、7C、および7Eでは、回転軸111は、車両4000を二等分する平面と垂直である。平面は、(1)車両4000の長手方向軸(例えば、車体108の最前部分と、後部外殻121の最後部分を横切る軸)と、(2)車両4000がこのように載っている水平表面に垂直な縦軸とを収容するように画定され得る。
The rear surface of the
関節ジョイント106は、関節ジョイント106の関節動作輪郭を決定する、ガイド構造107(ガイド機構とも呼ばれる)を含み得る。図7A~7Eに示す例示的な車輛4000では、ガイド構造107は、前部102に結合された軌道システムと、尾部104に結合されたリフトブラケット538を含み得る。あるいは、軌道システム536は尾部104に結合されていてもよく、リフトブラケット538は前部102に結合されていてもよい。リフトブラケット538は、軌道システム536によって画定される経路に沿って移動してもよく、それによって、車両4000に構成を変更させる。関節ジョイント106はまた、軌道システム536に沿ってリフトブラケット538を所望の構成に移動させる、駆動アクチュエータ540(駆動機構とも呼ばれる)を含んでもよい。駆動アクチュエータ540は、電気的に制御可能であってもよい。関節ジョイント106はまた、軌道システム536に沿った特定の位置に、リフトブラケット538を保持するためのブレーキ1168を含んでもよく、それゆえ、車両4000が所望の構成を維持することが可能になる。
The joint joint 106 may include a guide structure 107 (also referred to as a guide mechanism) that determines the joint motion contour of the
車体108はまた、その中にペイロード位置決めジョイント2100を収容してもよい。ペイロード位置決めジョイント2100によって、車両4000の構成の関数として、ペイロード2000を好ましい配向に合わせてもよい。関節ジョイント106が車両4000の構成を変更すると、ペイロード位置決めジョイント2100によって、車両4000(特に前部102)に対するペイロード2000の配向が同時に再構成され得る。例えば、ペイロード位置決めジョイント2100は、車両4000が、低い外形構成から高い外形構成に移行するときに、運転手が自身の頭部を再度位置付ける必要がないように、地面に対して好ましい運転手の配向を維持するように使用され得る。別の例では、ペイロード位置決めジョイント2100は、車両4000が関節接合するときの、小包内に収容された物体への損傷の可能性を低減するために、小包の好ましい配向を維持するように使用され得る。
The
図7A~7Eに示す車両4000は、関節ジョイント106、変形部123、およびペイロード位置決めジョイント2100の一つの例示的な実装である。関節ジョイント106、変形部123、およびペイロード位置決めジョイント2100のさまざまな設計について、それぞれ車両4000を参照して論じる。しかしながら、関節ジョイント106、変形部123、およびペイロード位置決めジョイント2100は、別々にまたは組み合わせてのいずれかで、他の車輛構造に実装されてもよい。
The
図7A~7Eの多関節車両4000は、車両4000の構成を変更するために、尾部104が前部102に対して回転する、単一の関節接合DOF(すなわち、回転軸111)を有するように示している。このトポロジーは、特に周囲環境(例えば、コンパクトな/自走式立体駐車場、小空間での操縦性、低速視認性、高速空力形態)との中間およびエンドポイントの相互作用を考慮する場合に、都市環境および高速道路の両方を走行する一人の通勤者または乗客にとって好ましい場合がある。前述のトポロジーおよび使用事例のサポートをする、さまざまなメカニズムは、より広くは、より広範な車両、車隊構成、および/または他のトポロジーに適用され得る。
The articulated
例えば、車両4000は、各々関節でつながれ得る、一つ以上のDOFをサポートし得る。関節接合は軸の周りで発生し、回転動作をもたらし、それゆえ、図7A~7Eの回転軸111など、回転DOFを提供してもよい。関節接合はまた、軸に沿って発生し、並進動作、およびそれゆえ並進DOFをもたらしてもよい。本明細書に記載する、さまざまな機構(例えば、関節ジョイント106、ペイロード位置決めジョイント2100)はまた、一つ以上のDOFに沿った動作を制約するようにも使用され得る。例えば、関節ジョイント106によって経路を画定してもよく、車両4000の構成要素が、その経路に沿って移動する(例えば、リフトブラケット538は、軌道システム536によって画定される経路に沿って移動するように制約される)。また、関節ジョイント106によって、経路に沿った動作範囲を画定してもよい。これは一部、関節ジョイント106によって達成されてもよく、厳しい公差を使用して組み立てられ、および/または外力を介して接触するように押し付けられる、高強度ならびに高剛性の構成要素の組み合わせを使用して、所望のDOFに沿った小さい力での入力によって誘導される、滑らかな動作を提供すると同時に、他のDOFに沿った機械的制約を提供する。
For example, the
本明細書に記載する機構によって、関節ジョイント106上に物理的に位置付けられ得る、もしくは位置付けられえない、軸または点(例えば、遠隔動心)に対する動作を画定し得る。例えば、図7A~7Eに示す関節ジョイント106によって、リフトブラケット538および軌道システム536とは別個に位置する、車体108の室内区画を横切る、回転軸111の周りに回転動作を引き起こす。別の例では、ペイロード位置決めジョイント2100は、プラットフォーム(例えば、運転席)の並進動作を画定する、一つ以上のレール2112を有してもよい。
The mechanisms described herein can define movements with respect to an axis or point (eg, a remote center of motion) that may or may not be physically positioned on the
加えて、各DOFに沿った動作はまた、独立して制御可能であってもよい。例えば、車両4000の各所望のDOFは、別個の対応する関節ジョイント106を有してもよい。各関節ジョイント106の駆動システムによって、他のDOFとは独立して、各DOFに沿った動作を誘導し得る。図7A~7Eに関して、回転軸111の周りに回転を引き起こす関節ジョイント106は、車両4000でサポートされる他のDOFに依存しない場合がある。
In addition, the operation along each DOF may also be independently controllable. For example, each desired DOF of the
ただし、一部の事例では、車両4000の一つのDOFに沿った関節接合は、車両4000の別のDOFに依存し得る。例えば、車両4000の一つ以上の構成要素は、関節接合されている他方の構成要素に応じて、別の構成要素に対して移動し得る。この依存性は、複数のDOFを機械的に結合することによって達成され得る(例えば、一つの関節ジョイント106は、単一の駆動アクチュエータ540によって、両方の関節ジョイント106を連続的にまたは同時に作動させ得るように、別の関節ジョイント106に機械的に連結される)。別のアプローチは、別個の駆動アクチュエータ540を共に連結することによって、別個のDOFを電子的に結合することである。例えば、車両4000が再構成されると、運転手が好ましい配向を維持するように、関節ジョイント106が車両4000を再構成するのに応じて、ペイロード位置決めジョイント2100によって、車載モータを使用して運転席を作動させ得る。
However, in some cases, the articulation along one DOF of the
関節ジョイント106は、概して、動作輪郭、したがって関節ジョイント106の関節DOFを画定する、ガイド構造107を含んでもよい。ガイド構造107は、互いに対して移動する、二つの基準点を含み得る。第一の基準点は、車両4000の一つの構成要素に結合されてもよく、第二の基準点は、車両4000の別の構成要素に結合されてもよい。例えば、前部102は、ガイド構造107の第一の基準点に結合されてもよく、尾部104は、前部102が尾部104に対して関節でつながるように、ガイド構造107の第二の基準点に結合されてもよい。
The joint joint 106 may generally include a
一態様では、ガイド構造107によって、関節ジョイント106自体と物理的に共には位置しない、軸および/または点の周りに関節接合を提供してもよい。例えば、関節ジョイント106は、遠隔動作中心(RCM)機構であってもよい。RCM機構は、移動する機構と同じ場所に、物理的回転ジョイントを有さないと定義される。こうしたRCM機構を使用して、例えば、ペイロード2000が位置する、車体108の室内キャビンなど、車両4000の他の点で不都合な部分、または例えば、ステアリングアセンブリ、バッテリーパック、もしくは電子機器が存在する車両サブシステムに位置する、回転ジョイントを提供し得る。
In one aspect, the
以下に、RCM機構としての関節ジョイント106の、いくつかの例について記載する。しかしながら、関節ジョイント106は、DOFが画定される軸または点が、関節ジョイント106の構成要素と共に物理的に位置し得る、RCM機構ではない場合がある。 The following describes some examples of the joint joint 106 as an RCM mechanism. However, the joint 106 may not be an RCM mechanism in which the axis or point at which the DOF is defined may be physically located with the components of the joint 106.
一実施例では、ガイド構造107は、車台軌道タイプの機構であってもよい。図7A~図7Eに示される関節ジョイント106は、このタイプの機構の一例である。ガイド構造107は、図8A~図8Gにさらなる詳細が示される、車台および軌道システム536を含み得る。図8Aに示す通り、軌道システム536は、前部102に取り付けられ得る。車台538は、尾部104の一部であり得る。図8Eおよび図8Fに示す通り、車台538は、軌道システム536によって画定される垂直に配向された湾曲経路に沿ってライドし得る。駆動アクチュエータ540は、車台538上に取り付けられて、電気制御下で軌道システム536に沿って車台538を機械的に移動させ得る。
In one embodiment, the
軌道システム536は、互いに平行に走り、両方が前部車両部102の裏面に連結されている二つの湾曲レール642を含み得る。湾曲レール642は、設計において類似し得る。車体108は、レール642が取り付けられる裏面を形成する凸状に湾曲した裏面(すなわち、後方から前部車両部102を見ると凸状)を有する、成形された剛性のカーボンファイバーシェルから作製され得る。レール642が取り付けられ、それらが適合する裏面領域は、軸が回転軸111に対応する円筒形の表面のセグメントを表す。言い換えれば、レール642は、車台538が移動する領域を通して一定の曲率半径を有し得る。レール642が延在する弧は、約90°~約120°であり得る。
The
各レール642はまた、レール642の長さの一部分にわたる凹部643を含み得る。凹部643は、それを通してボルト(図示せず)がレール642をカーボンファイバーシェル108に取り付けることができる一つ以上の穴Zを含み得る。各レール642は、台形の狭い側が、それが取り付けられる前方本体シェル108に近接するレール642の底側上、かつ台形のより広い側がレール642の上側上にある、形状が実質的に二等辺台形である断面を有し得る。レール642は、酸化、カーボンファイバー、ファイバーグラス、硬質プラスチック、および硬化鋼を低減するために、アルミニウム、ハードコートアルミニウム(例えば、窒化チタンを含む)を含むがこれに限定されない、任意の適切な材料で作製され得る。
Each
図8Aおよび図8Eに示す車台538は、車両4000の尾部104を支持する。尾部104は、さらに、リアシェル121、ステアリング機構200、および車輪アセンブリー201を含み得る。車台538は、一つ以上の軸受を使用して、軌道システム536に連結され得る。図8Gに示す通り、二つの軸受644が各レール642に使用される。各軸受644は、上部プレート645および上部プレート645に固定された二つの先細側壁646の三つの部品のアセンブリーを含み得る。組み立てられた軸受644は、使用中に動きを容易にするためにレール642よりもわずかに大きい寸法とし得る、レール642(例えば、二等辺台形)に実質的に類似した断面を有する開口部を画定し得る。示す通り、軸受644は、したがって、レール642に結合されて、軸受644の内側側壁がレール642の先細の外側側壁と接触し得る、「湾曲ダブテール」配置を形成し得る。軸受644は、回転軸111の周りの回転運動によって画定される所望のDOF以外の任意の他のDOFに沿って、レール642から分離されない場合がある。図8Gは、図示の目的で、軸受644とレール642との間の公差の誇張された表現を示す。公差は、実際には、図示よりも実質的に小さくあり得る。プレート645および側壁646は、湾曲レール642に適合するように湾曲し得る。
The
一実施例では、軸受644は、軸受644の内側上面および側面が、レール642の上部および側壁表面に対してそれぞれ、取り付けられたときに摺動する、すべり軸受であってもよい。軸受644はまた、車台538の残りの部分を軌道システム536に連結する(例えば、ボルトを介して)上部プレートのねじ穴を含み得る。
In one embodiment, the
軸受644の長さ(例えば、レール642に平行な方向に沿って画定される長さ)は、軸受644の幅より大きくあり得る。幅に対する長さの比率は、軸受表面上の荷重の分布を調整し、軸受644とレール642との間の結合の可能性を低減するように調整され得る。例えば、比率は、約3~約1の範囲であり得る。軸受644はまた、低摩擦、高力、低摩耗の作業面(例えば、特にレール642に接触する表面)を有し得る。例えば、軸受644の作業面は、テフロンコーティング、グラファイトコーティング、潤滑剤、および研磨されたベアリング644および/またはレール642を含み得るが、これらに限定されない。さらに、複数の軸受644は、結合を低減し、剛性を増大させ、動きの範囲を増大させるために、約1~約1.6の範囲の長さと幅との比率を有する占有面積を有するように配置され得る。通常、より長い基部を有する軸受644は、より狭い動作範囲を有し得、一方、より狭い基部を有する軸受644は、より低い剛性を有し得、それゆえ、軸受644の長さは、動作範囲と剛性とのバランスを取るように選択され得、これはさらに、車両4000内へのサイズおよび/または配置など、軸受644に課される他の制約に依存し得る。
The length of the bearing 644 (eg, the length defined along the direction parallel to the rail 642) can be greater than the width of the
車台538はさらに、二つのフレーム部材539を含み得、各フレーム部材539は、対応するレール642と整列する。レール642に近接する車台538の側面上で、二つのクロスバー854および856を使用して、二つのフレーム部材539を互いに強固に接続し得る。軸受644は四つの取り付け点848a~dでフレーム部材539に取り付けられ得る。レール642から最も遠い車台538の側面上で、二つの支持バー851を使用して、車輪アセンブリー201およびステアリング機構200を支持し得る。二つの支持バー851は、別のクロスバー850によって一緒に接続され得る。
The
上述の車台538および軌道システム536は、軌道タイプの関節ジョイント106の一例に過ぎない。他の例示的な関節ジョイント106は、単一のレールまたは二つ以上のレールを含み得る。上に示す通り、RCMは、ペイロード2000がその空間に侵入するいかなる構成要素および/または構造も有さず位置する、車両4000のキャビンに位置し得る。しかしながら、他の例示的な関節ジョイント106では、RCMは、関節ジョイント106上、車両サブシステム内(例えば、前部102内、尾部104内)、および車両4000の外側を含むがこれに限定されない、車両4000に対する他の場所に位置し得る。
The
上述のように、反応システム4300の関節ジョイントは、運転者のFOVなど、車両4000のいくつかの態様および/または特性を修正するために、車両4000の物理的な構成を変更し得る。しかしながら、一部の事例では、関節ジョイントは、車両4000が機械的に不安定になる程度に車両4000の物理的な構成を修正することが可能であり得、車両4000の制御を部分的または完全に喪失させ得る。車両4000を操作する際にこうした安定性の喪失を防止するために、反応システム4300は、関節ジョイントに制約を課す(例えば、作動範囲を限定し、作動速度を限定する)安定性制御ユニットを含み得る。
As mentioned above, the articulated joints of the
例えば、運転者4010は、後方視野ディスプレイの視野角を調整するためにレーンを変更するときに車両4000の一方の側に傾くことができ、それによって運転者4010は後方から車両が接近しているかどうかをチェックすることができる。運転者の動きに応じて、車両4000の関節ジョイントは、運転者4010が利用可能なFOVを増大させるために、車両4000を能動的に回転させ得る。しかし、プロセッサ4400によって命令されFOVを増強する回転の量は制限されるか、または一部の例では、車両安定性の喪失および/または車両4000の横転を防止するために、安定性制御ユニットに優先され得る。
For example, the
関節ジョイントに安定性制御ユニットによって課される制約は、車両4000の動作条件に基づいて変化し得る。例えば、安定性制御ユニットは、車両4000が低速(例えば、車線変更するときなど)で走行している時、高速時(例えば、回転ホイールのジャイロ安定化効果が、より大きな車両安定性をもたらす)と比較して、許容される回転の量により多くの制限を課し得る。このようにして、安定性制御ユニットは、車両安定性が影響を受ける場合、運転者の快適さを改善することを意図した関節ジョイントに対するアクチュエータコマンドを先制的にフィルタリングし得る。
The constraints imposed on the joint joint by the stability control unit can vary based on the operating conditions of the
図9は、反応システム4300における関節ジョイントを管理する例示的な制御システム5000を示す。示す通り、制御システム5000は、部分的には、運転者の行動に基づく挙動ベースのコマンドを生成する挙動制御サブシステム5200を含む。制御システム5000はまた、運転者4010、環境4500、および挙動制御サブシステム5200からの入力を受信し、関節ジョイントを含む車両4000の様々なアクチュエータを作動させるために使用される入力に基づいてコマンドを生成する、車両制御サブシステム5100を含み得る。
FIG. 9 shows an
車両制御サブシステム5100は、以前の車両制御システムと同様に動作し得る。例えば、サブシステム5100は、運転者4010(例えば、ステアリング入力、アクセル入力、ブレーキ入力)および環境4500(例えば、降水、温度)によるコマンドを受信し、車両の安定性を評価し、および/または実行前にコマンドを変更する。したがって、車両制御サブシステム5100は、挙動制御サブシステム5200によって拡張されているとみなされてもよく、これは、運転者の挙動に基づく車両4000の関節屈曲などのさらなる機能を提供する。
The
制御システム5000は、運転者生成入力5010および環境生成入力5020を受信し得る。運転者生成入力5010は、明示的なコマンド、すなわち、ハンドル、アクセルペダル、ブレーキペダル、および/または方向指示ノブなどの車両4000の入力装置と物理的にインターフェースする、運転者4010に由来するコマンドを含み得る。運転者生成入力5010はまた、暗黙のコマンド、例えば、運転者4010が後方視野ディスプレイをチェックするためにその頭部を傾けるおよび/または運転者4010がグレアのためにその目を細めるなど、運転者4010の動きに基づいて生成されるコマンドを含み得る。環境生成入力5020は、道路障害(例えば、くぼみ、道路表面のタイプ)、天候関連の影響(例えば、雨、雪、霧)、道路障害物(例えば、他の車両、歩行者)、および/または車両4000内にいないときの運転者4010など、車両4000の動作に影響を与える様々な環境条件を含み得る。
The
図9に示すように、運転者生成入力5010および環境生成入力5020はそれぞれ、車両制御サブシステム5100および挙動制御サブシステム5200の両方に対する入力として使用され得る。挙動制御サブシステム5200は、運転者生成入力5010(明示的コマンドおよび黙示的コマンドの両方)および環境生成入力5020を測定するための、様々なセンサ、ヒューマンインターフェースデバイス、およびカメラアレイを含む、動作監視システム5210および外部監視システム5220を含み得る。挙動制御サブシステム5200はまた、運転者生成入力5010および環境生成入力5020を処理およびマージする、状況認識エンジン5230を含み得る。状況認識エンジン5230はまた、車両4000の望ましくない関節屈曲の可能性を低減するために、入力5010および5020をフィルタリングし得る(例えば、関節ジョイントは、運転者が乗客を見ているか、または音楽を聴いている間に頭部を動かしている時に起動すべきではない)。
As shown in FIG. 9, the driver-generated
状況認識エンジン5230は、特定の車両挙動に関連付けられた組み合わされた入力と較正された入力との間の事前に定義した相関を識別することを試みる、挙動エンジン5240に組み合わされた入力を送信し得る。例えば、様々な入力(例えば、ハンドル角度、運転者の頭部の傾斜、運転者4010の注視方向、および/または方向指示灯の存在)は、車両4000が曲がる時に、特性値を示し得る。
The situational awareness engine 5230 sends the input combined with the
図10Aおよび10Bは、様々な例示的な運転者生成入力5010および環境生成入力5020のそれぞれの表を示し、さまざまな入力の公称範囲と、左折する車両4000にに関連付けられた入力値とを比較する。挙動エンジン5240が、組み合わされた入力が車両4000に関連付けられた特性入力値と実質的に類似した値を有すると決定する場合、挙動エンジンは、車両4000が左折していると結論付け、適切な挙動ベースのコマンドを生成し得る。さもなければ、挙動エンジン5240は、挙動ベースのコマンドを生成しない場合がある。
10A and 10B show tables of various exemplary driver-generated
挙動エンジン5240は、特定の車両挙動に関連付けられた組み合わされた入力と較正された入力との間のこの比較をいくつかの方法で実行し得る。例えば、組み合わされた入力は、各入力がパラメータ値に対応する二次元マトリックスとして表され得る。挙動エンジン5240は、組み合わされた入力と以前に較正された入力セットとの間の相互相関を実行し得る。結果として生じる相互相関が、十分な数のピーク(組み合わされた入力のうちの一つ以上を示すピークが、較正された入力値と一致する)を示す場合、挙動エンジン5240は、車両4000が、較正された入力に関連付けられた特定の挙動を示すと結論付け得る。
The
挙動エンジン5240が挙動ベースのコマンドを生成する場合、コマンドはその後、車両制御サブシステム5100の車両制御ユニット5110に送信される。車両制御ユニット5110は、挙動ベースのコマンドを、運転者4010による明示的なコマンドおよび環境生成入力5020などの他の入力と組み合わせて、組み合わされたコマンドのセットを生成し得る。車両制御ユニット5110はまた、前述の安定性制御ユニットを含み得る。したがって、車両制御ユニット5110は、組み合わされたコマンドのセットが、車両安定性の喪失なしに実行し得るか否かを評価し得る。
If the
車両制御ユニット5110が、組み合わされたコマンドのセットが車両4000を不安定にさせると決定する場合、車両制御ユニット5110は、車両安定性が維持されるように、コマンドを調整および/またはフィルタリングし得る。これは、他の入力(例えば、重み係数を適用することによって)に対する挙動ベースのコマンドの大きさを低減することを含み得る。さらに、所定のルールセットに基づいて、特定の入力に優先順位を付し得る。例えば、運転者4010がブレーキペダルに圧力を加える時、車両制御ユニット5110は、車両4000が適切にブレーキをかけることができるように、挙動ベースのコマンドを無視し得る。より一般的には、運転者4010によって提供される明示的なコマンドは、車両4000および運転者4010の安全を確保するために、挙動ベースのコマンドよりも優先され得る。車両制御ユニット5110が組み合わされたコマンドセットを検証すると、コマンドはその後、車両の適切なアクチュエータ5120に適用されて、所望の挙動を行う。
If the
図11Aおよび図11Bは、車両基準フレームに対する、運転者4010の傾斜角の関数φ乗客としての慣性基準フレーム(例えば、重力ベクトルによって設定される)に対する、命令された車両ロール角φ車両の例示的な較正マップを示す。図11Aに示す通り、車両4000が、運転者4010の傾斜角の小さな変化に応答して感知できるほど回転しないことを確実にするために、φ車両は、φ乗客のより小さい値で小さくなり、車両4000の意図しない作動を防止し得る。φ乗客が増大すると、飽和する前に、φ車両が急速に増大する。飽和点は、安定性が維持されることを確実にするために、車両制御ユニット5110によって課される限界を表し得る。
11A and 11B are exemplary of the vehicle roll angle φ vehicle commanded with respect to the vehicle reference frame, function φ of the tilt angle of the
車両制御ユニット5110によって課される制約は、車両4000の動作条件に基づいて変化し得る。例えば、図11Aは、φ車両に対する上限は増大または低減し得ることを示す。上限の変更は、部分的には、車両4000の速度、および他の安定化効果(例えば、回転ホイールのジャイロ安定化効果)の存在に基づき得る。図11Bは、速度φ車両も、安定性を維持するように調整され得ることを示す。速度φ車両は、φ乗客の関数として変化し、車両4000の車高に基づいて変化し得る。車両4000が低い外形構成である場合、車両4000はより小さい慣性モーメントを有し、したがって安定性を失うことなくより速い速度で回転することができる。
The constraints imposed by the
示す通り、車両4000は、運転者4010が頭部を傾けると、飽和限界まで回転し続け得る。さらに、車両4000は、運転者4010が車両4000内の元の位置に戻る場合、運転者4010への応答を停止し得る。センサ4200は、元の位置の連続的な更新を提供するために、車両4000内の運転者のデフォルト位置を連続的に較正し得る。一部の事例では、長い時定数を有するローパスフィルタリングを使用して、運転者4010の元の位置として扱われる基準位置を決定し得る。
As shown, the
一つの例示的な使用事例では、運転者4010は、車両4000の近くに位置する障害物を見回すように、その頭部を傾け得る。ここで、運転者生成入力5010は、運転者の頭部の傾斜角(車両の基準フレームに対して取得される)を含み得、環境生成入力5020は、障害物の検出であり得る。例えば、環境生成入力5020は、図12Aおよび図12Bに示す通り、前向きRGBカメラで1Dまたは2D領域データ(例えば、ライダー、超音波、レーダーデータなど)を結合することにより構築された可視性マップであり得る。可視性マップは、領域データが障害物と車両4000との間の距離が事前に定義された閾値未満であると示す場合、障害物(例えば、別の車両)の存在を示し得る(図12Aおよび12Bの障害物マスクにおける黒いボックスを参照)。例えば、障害物が車両4000から10メートル離れている場合、運転者4010は障害物を見回すように傾いている可能性は低い。しかしながら、例えば、障害物が車両4000から2メートル未満しか離れていない場合、運転者4010は障害物を見回すように傾いているとみなされ得る。
In one exemplary use case, the
反応システムの用途
上述のように、センサ4200および反応システム4300は、車両4000の性能および/または有用性を改善するためのさらなる車両モダリティを可能にし得る。例えば、ビデオベースのミラー4320および関節ジョイントの上記の例は、主に運転者4010のFOVの修正を対象とする。例示的な使用事例として、図13は、車両4000の近くの駐車車両によって遮蔽される横断歩道を示す。車両4000が関節ジョイントを含む場合、車両4000の車高は、運転者4010および/または車両4000上のセンサが、横断歩道においてリカンベント自転車上のサイクリストおよびミニチュアダックスフンドを検出および検出することを可能にするように増大され得る。
Application of Reaction System As mentioned above, the
別の例では、車両4000は、車両形状を修正し、車両動的性能を改善するために、運転者4010の傾斜に応じて車両4000の傾斜(例えば、±45度)を可能にする、長い走行サスペンション要素を有し得る。例えば、狭い車両は、空気抵抗を低減する、都市部の占有面積を低減させる/操作性を増大させるという点で好ましい。しかしながら、狭い車両は、特に狭いトラック幅によりコーナリング時に、動的安定性が乏しい場合がある。運転者4010が高速でコーナリングする時、車両4000がオートバイのように曲がり角に傾斜するのが有益であり得る。
In another example, the
図14Aおよび14Bは、車両4000が別の車両の後方に位置する別の例示的な使用事例を示す。運転者4010は、他の車両を見回すために頭部(または体)を傾け、それによってFOVおよびその状況認識を向上させ得る。車両4000は、他の車両を見回すために、運転者4010がキャビン内で傾いていることを検出し得、車両4000を傾けることによって応答し、運転者4010のFOVをさらに向上させ得る。一部の事例では、車両4000はまた、車両4000が傾くと、さらにFOVを向上させるために車高を増大させ得る。
14A and 14B show another exemplary use case where the
図15A~図15Cは、車両4000が、自動セキュリティドローンが使用される事例を示す。この場合、反応システム4300は、完全に環境生成入力から応答し得る。車両4000は、周囲環境の360度FOVを有するカメラを含み得る。反応システム4300は、図14Aおよび図14Bの例示的な車両4000と実質的に同様の様式で応答するように構成され得るが、ただしこの場合、反応システム4300は、運転者4010の移動ではなく、環境のカメラによって取得されたビデオ画像に応答する。例えば、車両4000は環境中の障害物を検出するように構成され得、それに応じて反応システム4300は関節ジョイントを作動させて、カメラが障害物を見回すことおよび/または障害物との衝突を回避することを可能にし得る。
15A-15C show a case where the
カメラはまた、凹凸のある表面を検出するように構成され得る。これらの表面を横断するために、車両4000は、歩行動作を使用するように構成され得る。一部の事例では、車両4000は、車両4000の静的車高を拡張するための各ホイールのさらなる独立した作動を含み得る。この歩行動作はまた、関節DOFおよび/または長い走行サスペンションDOF由来の複合的動作によって、車両4000が一連の階段を横断することを可能にするために使用され得る(図15C参照)。この能力によって、制御不能な環境と折り合いをつけながら、自動運転車両の安全な操作が可能となり得る。車両4000が運転者4010用のキャビンを有する場合、車両4000が凹凸のある表面を走行する際に、運転者4010への不快感を低減させるために、キャビンを所望の配向(例えば、実質的に水平)に維持し得る。
The camera can also be configured to detect uneven surfaces. To traverse these surfaces, the
関節ジョイントはまた、車両4000の操作にいくつかの動的利益を提供し得る。例えば、車両安定性は、関節ジョイントを使用して車両4000を曲がり角に傾斜させることによって改善され得、これにより、安定性マージンを増大させ、トラクションを維持し、または一部の例では、横転を回避または除去するような方法で質量中心をシフトさせる。関節ジョイントは、関節ジョイントの動的幾何学的最適化を通して車両4000の回転の能動的制御を可能にすることによって、より大きなトラクションを可能にし得る。車両4000のコーナリング性能はまた、車両4000を傾斜させることによって改善され得る。さらに、倒立振子原理は、特に高密度の都市環境の低速車両において、車両4000を高外形構成に関節屈曲させること、および質量中心(COM)の高さを増大させることによって、使用され得る。車両4000はまた、一般的にこのような不快感を運転者4010に誘発する動的動作を予測および/または軽減することによって、乗り物酔いを防止し得る。
Joint joints may also provide some dynamic benefit to the operation of the
反応システム4300はまた、運転者4010に、その車両4000を自分用に設定できる能力を提供し得る。例えば、車両4000は、車両4000が運転者の存在を認識するように車両4000が揺れ動く、および/または始動するように関節ジョイントを作動させることによって、運転者4010の存在に挨拶および/または認識するように構成され得る。これは、車両4000の所有者および/または顧客(配車またはシェア用途の場合)に挨拶するために使用され得る。
The
別の例では、車両4000はまた、人格を有するように構成され得る。例えば、車両4000は、環境4500に反応し、様々な目標および/または意図を道路上の他の個人または車両に伝達するためのプラットフォームを提供するように構成され得る。例えば、車両4000は、高外形構成に関節屈曲し、一方の側に傾斜して車両4000が別の車両に道を譲る(例えば、一時停止の標識のある交差点で)ことを示すことができる。別の例では、車両4000は、高速道路を走行し得る。車両4000は、車両4000が他の車両を高速道路に合流させようとしていることを他の車両に示すために、左右に穏やかに揺れるように構成され得る。別の例では、車両4000は、動物(例えば、イヌのように、虎のように)のように挙動するように構成され得る。一部の事例では、車両4000によって実行される動作のタイプは、再構成可能であり得る。例えば、車両4000の性格を、運転者の好みに合わせてダウンロード、カスタマイズ、交換、進化、適合、および/またはさもなくば修正することが可能であり得る。
In another example, the
別の例では、車両4000の関節ジョイントは、例えば、駐車場において、車両4000を運転者4010に認知させるためにも使用され得る。混雑した駐車場で車両を駐車した場所を忘れることがよくある。スポーツ・ユーティリティ・ビークル(SUV)やトラックの海では、非常に小さく軽量のモビリティプラットフォームを見つけるのは難しい場合がある。車両4000の関節屈曲および長距離移動の自由度(DOF)は、車両4000を関節屈曲して車両4000の高さを調整し、および/または揺れ/旋回動作を誘発することによって、車両4000をかなり目立つようにすることができる。一部の事例では、車両4000はまた、音を出す(例えば、関節ジョイントを介して音を鳴らしてクラクションを鳴らすなど)および/またはおよび/または車両4000のライトを点滅させ得る。
In another example, the joints of the
車両4000はまた、仮想現実、拡張現実、ゲーム、映画、音楽、各地を巡るツアー、睡眠/健康監視、瞑想、および運動を含むがこれに限定されない、反応システム4300を活用できる輸送以外の機能も提供し得る。車両がより自律的になると、運転者4010は、車両4000で場所間を移動しながら、これらのサービスの一部を使用する自由を有し得る。概して、反応システム4300は、車両4000によって提供されるさらなるサービスの一つにより良く適合するように車両4000にその形状を変更させ得る。例えば、車両4000は、橋を横断して走行しながらその高さを調整し、運転者4010に、写真撮影(例えば、インスタグラムのインフルエンサーのための)用の風景の望ましい視界を提供するように構成され得る。
車両4000はまた、グレアを低減するように関節屈曲され得る。例えば、センサ4200は、センサ4200によって取得されたRGB画像に基づいて、運転者の眼球領域上のグレア(例えば、太陽または対向車のヘッドライトからの)を検出し得る。これに応じて、車両4000は、グレアを低減するために、運転者の眼球領域の位置を変更するように、その車高および/または傾斜角を調整し得る。
図16は、部分的にはセキュリティシステムとして使用される関節ジョイントを含む別の例示的な車両4000を示す。概して、車両4000は、人が車両4000を盗もうとするとき、それ自体が知らせるように構成され得る。例えば、車両4000は、音を発するか、そのライトを点滅させるか、または関節屈曲し得る。車両4000を盗もうとする試みがなされる場合、車両4000はまた関節ジョイントを使って、車両4000への侵入を防止すること、および/または車両4000の車体を窃盗犯にぶつける(例えば、バッキング動作で車両4000を回転させる)ことによって、窃盗犯を妨害し得る。
FIG. 16 shows another
車両4000はまた、潜在的泥棒を未然に防ぐために、状況認識を強化するための外部に面したカメラを含み得る。カメラは、(例えば、車両4000の後方から)車両4000に近づく個人に対して顔認識を行うために使用され得る。個人の計算された固有面は、承認された運転者のデータベースと相互参照され得る。合致が見つからなかった場合、その個人は法執行機関のデータベースと相互参照され、その個人が犯罪者であるかどうかを判断し得る。
The
図17は、車両4000がツールとして使用される別の例示的な用途を示す。車両4000は、比較的コンパクトな占有面積、関節屈曲範囲、および空間認識を有し得、輸送を超えたタスクのための有望なツールとなる。例えば、車両4000は、図17に示す通り、現場でニュースアンカーを同時に撮影、照明、スムーズに追跡する車載カメラまたは搭載カメラを含み得る。アクティブサスペンションを使用して、ショットを安定させ得、一方で、関節屈曲によって、カメラを所望の高さに維持し得る。別の用途では、車両4000は、その周囲360°の視界を提供する車載カメラを用いて、サイト(例えば、空間マッピング用)を遠隔で監視および/または検査するために使用され得る。
FIG. 17 shows another exemplary use in which the
センサ4200によって測定される運転者4010の位置および/または配向、およびカメラデータは、車両4000の他のサブシステムでも使用され得る。例えば、典型的なマルチスピーカー構成のための所望のリスニング位置(「スイートスポット」)は、スピーカーの間隔、周波数応答、および他の空間特性に依存する、小さな固定領域である。ステレオイマージョンは、所望のリスニング位置の領域内で最大であり、リスナーがこの領域から抜け出ると急速に低下する。車両4000は、運転者4010の位置データおよび車両4000のキャビンの音響モデルを利用して、運転者の頭上に所望の聞き取り位置をマッピングする音声サブシステムを含み得る。運転者4010がキャビン内でシフトすると、各スピーカーの信号の時間遅延、フェーズ、および振幅は、運転者の頭上の所望のリスニング位置を維持するために、所望の聞き取り位置をシフトするように独立して制御され得る。
The position and / or orientation of the
別の例では、センサ4200によって取得された深度マップおよびRGBカメラデータは、運転者4010を識別するために使用され得る。例えば、車両4000は、事前にトレーニングされた一連の顔(または身体)に基づいて運転者4010を識別することができる識別サブシステムを含み得る。例えば、車両4000は、最初に識別サブシステムを較正するときに、運転者4010の画像を取得し得る。識別サブシステムは、限定されるものではないが、座席設定、音楽、および目的地を含むユーザープロファイルに従って、様々な車両設定を調整するために使用され得る。識別サブシステムはまた、無許可の人が車両4000にアクセスおよび/または運転することができるのを防ぐことにより、盗難防止のために使用され得る。
In another example, the depth map and RGB camera data acquired by the
別の例では、センサ4200によって取得された深度マップおよびRGBカメラデータは、運転者4010の注意度を監視するために使用され得る。例えば、運転者4010の疲労は、運転者の目および/または頭部の動きおよび/または位置に基づいて監視され得る。運転者4010が疲労していると判定された場合、車両4000は、運転者4010に車を路肩に停めて休むようにメッセージを提供し得る。
In another example, the depth map and RGB camera data acquired by the
結論
本明細書に記載するすべてのパラメータ、寸法、材料、および構成は例示であり、実際のパラメータ、寸法、材料、および/または構成は、発明の教示が使用される一つまたは複数の特定の用途に依存する。前述の実施形態は、主に例として提示されており、添付の特許請求の範囲およびその等価物の範囲内では、発明に関する実施形態は、具体的に記載および請求される以外の形で実践され得ることを理解されたい。本開示の発明に関する実施形態は、本明細書に記載する個々の特徴、システム、物品、材料、キット、および/または方法を対象とする。
CONCLUSIONS All parameters, dimensions, materials, and configurations described herein are exemplary, and actual parameters, dimensions, materials, and / or configurations are specific, one or more in which the teachings of the invention are used. Depends on the application. The aforementioned embodiments are presented primarily as examples, and within the scope of the appended claims and their equivalents, embodiments relating to the invention are practiced in forms other than those specifically described and claimed. Please understand what you get. Embodiments relating to the inventions of the present disclosure are directed to the individual features, systems, articles, materials, kits, and / or methods described herein.
加えて、二つ以上のこうした特徴、システム、物品、材料、キット、および/または方法の任意の組み合わせは、こうした特徴、システム、物品、材料、キット、および/または方法が相互に矛盾しない場合、本開示の発明の範囲内に含まれる。本開示の範囲を逸脱することなく、例示的な実装のそれぞれの要素の設計、運転条件、ならびに配置において、他の置換、修正、変更、および省略を行うこともできる。数値範囲の使用は、同じ関数を同じ手段で満たす範囲から外れる等価物が、同じ結果を生成することを排除しない。 In addition, any combination of two or more of these features, systems, articles, materials, kits, and / or methods, if these features, systems, articles, materials, kits, and / or methods are consistent with each other. It is included within the scope of the invention of the present disclosure. Other substitutions, modifications, changes, and omissions may be made in the design, operating conditions, and arrangement of each element of the exemplary implementation without departing from the scope of the present disclosure. The use of numerical ranges does not preclude that equivalents outside the range that satisfy the same function by the same means produce the same result.
上記の実施形態は、複数の手段で実施することができる。例えば、実施形態は、ハードウェア、ソフトウェア、またはそれらの組み合わせを使用して実施されてもよい。ソフトウェアに実装される場合、ソフトウェアコードは、単一のコンピュータに提供されるか、もしくは複数のコンピュータ間に分散されるかにかかわらず、適切なプロセッサまたはプロセッサの集合で実行することができる。 The above embodiment can be implemented by a plurality of means. For example, embodiments may be implemented using hardware, software, or a combination thereof. When implemented in software, software code can be run on the appropriate processor or set of processors, whether provided to a single computer or distributed among multiple computers.
さらに、コンピュータが、ラックマウントコンピュータ、デスクトップ型コンピュータ、ラップトップ型コンピュータ、またはタブレット型コンピュータなど、多数の形態のいずれかで具現化され得る。加えて、コンピュータは、概してコンピュータとみなされるデバイスではなく、パーソナルデジタルアシスタント(PDA)、スマートフォン、または任意の他の適切な携帯型もしくは固定型の電子デバイスを含む、適切な処理能力を有するデバイスの中に埋め込まれ得る。 In addition, the computer can be embodied in any of a number of forms, including rack-mounted computers, desktop computers, laptop computers, or tablet computers. In addition, a computer is not a device that is generally considered a computer, but a device with appropriate processing power, including a personal digital assistant (PDA), smartphone, or any other suitable portable or fixed electronic device. Can be embedded inside.
また、コンピュータは一つ以上の入力デバイスおよび出力デバイスを有し得る。これらのデバイスは、とりわけ、ユーザインターフェースを提示するために使用できる。ユーザインターフェースを提供するために使用できる出力デバイスの例には、プリンタまたは出力の視覚的表現のためのディスプレイ画面、およびスピーカーまたは出力の可聴表現のための他の音声発生デバイスが挙げられる。ユーザインターフェースに使用できる入力装置の例には、キーボード、ならびにマウス、タッチパッド、およびデジタイザタブレットなどのポインティングデバイスが含まれる。別の例として、コンピュータは、音声認識によってまたは他の可聴フォーマットで、入力情報を受信してもよい。 Also, a computer may have one or more input and output devices. These devices can be used, among other things, to present a user interface. Examples of output devices that can be used to provide a user interface include display screens for visual representation of printers or outputs, and other audio generator devices for audible representation of speakers or outputs. Examples of input devices that can be used for the user interface include keyboards and pointing devices such as mice, touchpads, and digitizer tablets. As another example, the computer may receive the input information by voice recognition or in other audible formats.
このようなコンピュータは、ローカルエリアネットワーク、もしくはエンタープライズネットワークなどの広域ネットワーク、インテリジェントネットワーク(IN)、またはインターネットを含む、適切な形態の一つ以上のネットワークによって相互接続されてもよい。このようなネットワークは、適切な技術に基づいてもよく、適切なプロトコルに従って動作してもよく、無線ネットワーク、有線ネットワーク、または光ファイバーネットワークを含んでもよい。 Such computers may be interconnected by one or more networks of appropriate form, including local area networks, or wide area networks such as enterprise networks, intelligent networks (INs), or the Internet. Such networks may be based on appropriate technology, may operate according to appropriate protocols, and may include wireless networks, wired networks, or fiber optic networks.
本明細書に概説するさまざまな方法またはプロセスは、さまざまなオペレーティングシステムまたはプラットフォームのうちのいずれか一つを用いる、一つ以上のプロセッサ上で実行可能なソフトウェアとしてコード化されてもよい。加えて、このようなソフトウェアは、多数の適切なプログラミング言語および/またはプログラミングもしくはスクリプトツールのうちのいずれかを使用して記述されてもよく、またフレームワークもしくは仮想マシン上で実行される、実行可能なマシン語コードまたは中間コードとしてコンパイルされてもよい。いくつかの実装では、実行を容易にするために、特定のオペレーティングシステムまたはプラットフォーム、ならびに特定のプログラミング言語および/またはスクリプトツールのうちの一つ以上を具体的に用いてもよい。 The various methods or processes outlined herein may be encoded as software that can be run on one or more processors using any one of different operating systems or platforms. In addition, such software may be written using any of a number of suitable programming languages and / or programming or scripting tools, and may be run or run on a framework or virtual machine. It may be compiled as possible machine language code or intermediate code. Some implementations may specifically use one or more of a particular operating system or platform, as well as a particular programming language and / or scripting tool, for ease of execution.
また、さまざまな発明の概念が、一つ以上の方法として具現化されてもよく、そのうちの少なくとも一例を提供してきた。方法の一部として行われる行為は、一部の例では、異なる手段で順序付けられてもよい。したがって、一部の発明に関する実施では、所与の方法のそれぞれの行為が、具体的に例示するものとは異なる順序で行われてもよく、一部の行為を同時に行うことを含み得る(こうした行為が、例示的な実施形態では、連続する行為として示される場合であっても)。 Also, the concepts of various inventions may be embodied as one or more methods, and at least one of them has been provided. The actions performed as part of the method may, in some cases, be ordered by different means. Therefore, the practice relating to some inventions may include performing each act of a given method in a different order than specifically exemplified, and may include performing some acts simultaneously (such). Even if the act is shown as a continuous act in the exemplary embodiment).
本明細書で言及するすべての出版物、特許出願、特許、および他の参考文献は、参照によりそれらの全体が組み込まれる。 All publications, patent applications, patents, and other references referred to herein are incorporated by reference in their entirety.
本明細書で定義および使用するすべての定義は、辞書定義、参照により組み込まれる文書の定義、および/または定義された用語の通常の意味を統制するものと理解されるべきである。 All definitions defined and used herein are to be understood as governing dictionary definitions, definitions of documents incorporated by reference, and / or the usual meaning of defined terms.
本明細書および特許請求の範囲で使用する不定冠詞「a」および「an」は、明確にそうでないと示されない限り、「少なくとも一つ」を意味すると理解されるべきである。 As used herein and in the claims, the indefinite articles "a" and "an" should be understood to mean "at least one" unless explicitly stated otherwise.
本明細書および特許請求の範囲で使用する「および/または」という語句は、結合された要素の「いずれかまたは両方」を意味し、すなわち一部の場合において接続的に存在し、他の場合において離接的に存在する要素を意味すると理解されるべきである。「および/または」で挙げられる複数の要素は、同じ様式、すなわち等位接続される要素のうちの「一つ以上」と解釈されるべきである。具体的に識別される要素に関連するかまたは関連しないかにかかわらず、「および/または」節によって具体的に識別される要素以外に、他の要素が随意に存在し得る。それゆえに、非限定的な例として、「Aおよび/またはB」への言及は、「含む」などの制限のない語法と連動して使われるときに、一実施形態においてAのみ(任意選択的にB以外の要素を含む)、別の実施形態においてBのみ(任意選択的にA以外の要素を含む)、さらに別の実施形態においてAとBの両方(任意選択的に他の要素を含む)などを指すことができる。 As used herein and in the claims, the phrase "and / or" means "either or both" of the combined elements, i.e., in some cases connected and in other cases. It should be understood to mean an element that exists detachably in. Multiple elements listed in "and / or" should be construed as "one or more" of the same modalities, ie, coordinated elements. In addition to the element specifically identified by the "and / or" clause, other elements may optionally exist, whether or not they are related to the specifically identified element. Therefore, as a non-limiting example, the reference to "A and / or B" is only A (optional) in one embodiment when used in conjunction with an unrestricted wording such as "contains". Including elements other than B), in another embodiment only B (optionally including elements other than A), and in yet another embodiment both A and B (optionally including other elements) ) Etc. can be pointed out.
本明細書および特許請求の範囲において使用する場合、「または」は、上で定義した「および/または」と同じ意味を有すると理解されるべきである。例えば、リスト内の項目を分離するとき、「または」または「および/または」は包括的なもの、すなわち多数の要素または要素のリスト、および任意選択的にリストに無い追加の項目のうちの少なくとも一つを含むが、二つ以上も含むと解釈されるものとする。それとは反対であると明確に指示される用語、例えば「のうちの一つのみ」もしくは「のうちのまさに一つ」、または特許請求の範囲において使用するときの「から成る」などの用語のみ、多数のまたは列挙された要素のうちのまさに一つの要素を包含することを指す。概して、本明細書で使用する「または」という用語は、「いずれか」、「のうちの一つ」、「のうちの一つのみ」、または「のうちのまさに一つ」など、排他的な用語が先行するときに、排他的な選択肢(すなわち「両方ではなく一方または他方」)を示すとのみ解釈されるものとする。「から基本的に成る」は、特許請求の範囲で使用する場合、特許法の分野において使用される通常の意味を有するものとする。 As used herein and in the claims, "or" should be understood to have the same meaning as "and / or" as defined above. For example, when separating items in a list, "or" or "and / or" is comprehensive, i.e. at least one of a large number of elements or a list of elements, and optionally an additional item not in the list. Includes one, but shall be construed to include more than one. Only terms that are explicitly indicated to be the opposite, such as "only one of" or "exactly one of", or "consisting of" when used in the claims. , Refers to embracing exactly one of many or enumerated elements. In general, the term "or" as used herein is exclusive, such as "any", "one of", "only one of", or "exactly one of". When preceded by a term, it shall only be construed as indicating an exclusive choice (ie, "one or the other, not both"). "Contains basically" shall have the usual meaning used in the field of patent law when used in the claims.
本明細書および特許請求の範囲で使用する場合、一つ以上の要素のリストに関連する「少なくとも一つ」という語句は、要素のリストの中の要素のいずれか一つ以上から選択される、少なくとも一つの要素を意味するが、要素のリスト内で具体的に列挙したありとあらゆる要素のうちの、少なくとも一つを必ずしも含むわけではなく、要素のリストのいかなる要素の組み合せも除外するものではないと理解されるべきである。またこの定義によって、「少なくとも一つ」という語句が指す、要素のリスト内で具体的に識別される以外の要素が、具体的に識別される要素に関連するかまたは関連しないかにかかわらず、任意に存在し得ることも許容される。それゆえに、非限定的な例として、「AおよびBのうちの少なくとも一つ」(または等価的に「AまたはBのうちの少なくとも一つ」、もしくは等価的に「Aおよび/またはBのうちの少なくとも一つ」)は、一実施形態においてBは存在せず、任意選択的に二つ以上のAを含む、少なくとも一つのA(任意選択的にB以外の要素を含む)、別の実施形態においてAは存在せず、任意選択的に二つ以上のBを含む、少なくとも一つのB(任意選択的にA以外の要素を含む)、また別の実施形態において任意選択的に二つ以上のAを含む、少なくとも一つのA、および任意選択的に二つ以上のBを含む、少なくとも一つのB(任意選択的に他の要素を含む)を指すことなどができる。 As used herein and in the claims, the phrase "at least one" associated with a list of one or more elements is selected from any one or more of the elements in the list of elements. Means at least one element, but does not necessarily include at least one of all the elements specifically listed in the list of elements, and does not exclude any combination of elements in the list of elements. Should be understood. This definition also allows the phrase "at least one" to refer to elements other than those specifically identified in the list of elements, whether or not they are related to the specifically identified element. It is also permissible that it can exist at will. Therefore, as a non-limiting example, "at least one of A and B" (or equivalently "at least one of A or B", or equivalently "of A and / or B". At least one of "), in which B does not exist in one embodiment and optionally contains two or more A's, at least one A (optionally including an element other than B), another embodiment. A does not exist in the embodiment and optionally contains two or more Bs, at least one B (optionally includes elements other than A), and in another embodiment optionally two or more. It is possible to refer to at least one A including A, and at least one B (optionally including other elements) including two or more Bs.
特許請求の範囲、ならびに上記の明細書で、すべての移行句、例えば、「備える(comprising)」、「含む(including)」、「持つ(carrying)」、「有する(having)」、「収容する(containing)」、「伴う(involving)」、「保持する(holding)」、「から構成される(composed of)」、および類似のものは制約がないと理解され、すなわち、含むがそれに限定はされないということを意味する。「から成る(consisting of)」および「から本質的に成る(consisting essentially of)」という移行句のみが、米国特許局の特許審査手続便覧、セクション2111.03に規定の通り、それぞれ閉鎖的または半閉鎖的な移行句であるものとする。 In the claims, as well as in the specification above, all transitional clauses, such as "comprising," "included," "carrying," "having," and "accommodating." "Patenting", "involving", "holding", "composed of", and the like are understood to be unrestricted, i.e., but not limited to. It means that it will not be done. Only the transitional phrases "consisting of" and "consisting essentially of" are closed or semi-closed, respectively, as provided in the U.S. Patent Office's Handbook of Patent Examination Procedures, Section 2111.03, respectively. It shall be a closed transitional phrase.
Claims (49)
車体と、
運転者の頭部を収容する環境のRGB(赤緑青)画像および深度マップを捕捉するための、前記車体に結合されたセンサと、
作動時に前記運転者の視野(FOV)を調整するための、前記車体に結合された反応システムと、
前記RGB画像および前記深度フレームに基づいて、前記運転者の眼の基準点を決定し、前記眼の基準点に基づいて前記運転者の前記FOVを変更するために、前記反応システムを作動させるための、前記センサおよび前記反応システムへ動作可能に結合されたプロセッサと、を備える、車両。 It ’s a vehicle,
With the car body
A sensor coupled to the vehicle body for capturing RGB (red, green, blue) images and depth maps of the environment that houses the driver's head.
A reaction system coupled to the vehicle body for adjusting the driver's field of view (FOV) during operation.
To activate the reaction system to determine the reference point of the driver's eye based on the RGB image and the depth frame and to change the FOV of the driver based on the reference point of the eye. A vehicle comprising the sensor and a processor operably coupled to the reaction system.
シャーシ接続の構成要素と、
前記車体に結合された第一の端部、および前記シャーシ接続の構成要素に結合された第二の端部を有し、前記プロセッサへ動作可能に結合された関節ジョイントと、
前記第一の端部に対して前記第二の端部を移動させるための、前記関節ジョイントに結合されたアクチュエータと、を備え、
前記プロセッサが、前記ユーザの前記眼の基準点に基づいて、前記第一の端部に対して前記第二の端部を移動させるために、前記アクチュエータを作動させるよう構成され、それによって前記ユーザの前記FOVを変更する、請求項1に記載の車両。 The reaction system
Chassis connection components and
A joint joint having a first end coupled to the vehicle body and a second end coupled to a component of the chassis connection and operably coupled to the processor.
An actuator coupled to the joint for moving the second end relative to the first end.
The processor is configured to actuate the actuator to move the second end relative to the first end based on the reference point of the user's eye, thereby the user. The vehicle according to claim 1, wherein the FOV of the above is changed.
前記環境が前記キャビンであり、
前記反応システムが、
前記車両の外側領域のビデオ画像を捕捉するための、前記車体上に取り付けられたカメラ、
前記キャビンの中に配置され、前記プロセッサおよび前記カメラへ動作可能に結合されたディスプレイを備え、
前記プロセッサが、前記運転者の前記FOVを変更するために、前記運転者の前記眼の基準点に基づいて、前記ビデオ画像を修正するように構成され、
前記ディスプレイが、前記プロセッサによって修正された前記ビデオ画像を示すように構成される、請求項1に記載の車両。 The car body defines the cabin,
The environment is the cabin
The reaction system
A camera mounted on the vehicle body for capturing a video image of the outer region of the vehicle,
A display located in the cabin and operably coupled to the processor and camera.
The processor is configured to modify the video image based on the reference point of the eye of the driver in order to change the FOV of the driver.
The vehicle according to claim 1, wherein the display is configured to show the video image modified by the processor.
前記眼の基準点と前記ディスプレイの中心点との間の距離を計算することと、
前記運転者の前記頭部の動作範囲に基づいて、変換の大きさをスケーリングすることと、
前記距離および前記変換の前記大きさに基づいて、前記ビデオ画像を調整することと、によって前記ビデオ画像を修正するように構成される、請求項6に記載の車両。 The processor
Calculating the distance between the reference point of the eye and the center point of the display,
Scaling the magnitude of the conversion based on the range of motion of the driver's head,
6. The vehicle of claim 6, configured to modify the video image by adjusting the video image based on the distance and the magnitude of the conversion.
前記第一のビデオ画像が第一のFOVをカバーし、
前記車両外側の前記領域が、前記車両外側の第一の領域であり、
前記反応システムが、前記車両外側にある第二の領域の第二のビデオ画像を、第二のFOVで捕捉するための、前記車体上に取り付けられた第二のカメラをさらに備え、
前記プロセッサは、前記ディスプレイが、前記第一のビデオ画像と前記第二のビデオ画像との間を途切れなく移行するように、前記第一のビデオ画像および前記第二のビデオ画像を組み合わせるように構成される、請求項6に記載の車両。 The camera is the first camera
The first video image covers the first FOV and
The region outside the vehicle is the first region outside the vehicle.
The reaction system further comprises a second camera mounted on the vehicle body for capturing a second video image of the second region outside the vehicle with a second FOV.
The processor is configured to combine the first video image and the second video image so that the display transitions seamlessly between the first video image and the second video image. The vehicle according to claim 6.
前記車両の後方領域のビデオ画像を捕捉するための、前記車両上または前記車両の中に取り付けられたカメラと、
前記運転手の前記頭部の前記位置および/または配向に基づいて、前記運転手の眼の基準点を決定し、前記眼の基準点に基づいて前記ビデオ画像の視野(FOV)または画角のうちの少なくとも一つを修正するための、前記室内位置センサおよび前記カメラへ動作可能に結合されたプロセッサと、
前記プロセッサによって修正された前記ビデオ画像の少なくとも一部分を、前記運転手へ表示するための、前記車両の前記キャビンの中にあり、前記カメラおよびプロセッサへ動作可能に結合されたディスプレイと、を備える、反応性ミラーシステム。 An interior position sensor located in the cabin of the vehicle to detect the position and / or orientation of the driver's head of the vehicle.
A camera mounted on or in the vehicle for capturing video images of the rear region of the vehicle.
A reference point for the driver's eyes is determined based on the position and / or orientation of the driver's head, and the field of view (FOV) or angle of view of the video image is determined based on the reference point for the eyes. With the indoor position sensor and a processor operably coupled to the camera to modify at least one of them,
It comprises a display in the cabin of the vehicle for displaying at least a portion of the video image modified by the processor to the driver and operably coupled to the camera and processor. Reactive mirror system.
前記車両のキャビンを表現したものを測定することであって、前記表現が、深度マップまたはRGB(赤緑青)画像のうちの少なくとも一つを含み、前記表現が、前記車両を運転する前記運転手の頭部を示すことと、
前記表現に基づいて、前記運転手の眼の基準点を決定することと、
前記車両上または前記車両の中に取り付けられたカメラを用いて、前記車両外側の区域の前記ビデオ画像を取得することと、
前記眼の基準点に基づいて、前記ビデオ画像に変換を適用することと、
前記運転者に対して、前記車両の前記キャビン内のディスプレイ上に、前記ビデオ画像を表示することと、を含む、方法。 A method of converting the video image displayed to the driver of the vehicle.
Measuring a representation of the cabin of the vehicle, wherein the representation includes at least one of a depth map or an RGB (red, green, blue) image, and the representation is the driver driving the vehicle. To show the head of
Determining the reference point for the driver's eyes based on the above expression,
Acquiring the video image of the area outside the vehicle using a camera mounted on or inside the vehicle.
Applying the transformation to the video image based on the reference point of the eye,
A method comprising displaying the video image to the driver on a display in the cabin of the vehicle.
前記RGB画像を前記深度マップでマスクして、処理のために前記RGB画像の区域を減少させることを含む、請求項15に記載の方法。 The representation may include the depth map and the RGB image to determine the reference point for the eye.
15. The method of claim 15, comprising masking the RGB image with the depth map to reduce the area of the RGB image for processing.
前記眼の基準点と前記ディスプレイの前記中心点との間の距離を計算することと、
前記運転者の前記動作範囲に基づいて、前記変換の大きさをスケーリングすることと、
前記距離および前記変換の前記大きさに基づいて、前記カメラの視野または前記カメラのパン位置のうちの少なくとも一つを調整することと、を含む、請求項20に記載の方法。 The conversion is
Calculating the distance between the reference point of the eye and the center point of the display,
Scaling the magnitude of the transformation based on the driver's operating range.
20. The method of claim 20, comprising adjusting at least one of the camera's field of view or the camera's pan position based on said distance and said magnitude of the transformation.
前記眼の基準点から前記ディスプレイの前記中心点までのベクトルに基づいて、標的視野および標的パン位置を計算することと、
カメラの焦点距離、カメラのアスペクト比、もしくはカメラのセンササイズのうちの少なくとも一つに基づいて、並進または倍率のうちの少なくとも一つを計算することと、
前記標的視野および前記標的パン位置をシミュレートするように、前記並進もしくは前記倍率のうちの前記少なくとも一つに基づいて、前記ビデオ画像の視野またはパン位置のうちの少なくとも一つを調整することと、を含む、請求項20に記載の方法。 The conversion is
To calculate the target field of view and the target pan position based on the vector from the reference point of the eye to the center point of the display.
To calculate at least one of the translations or magnifications based on at least one of the camera's focal length, camera's aspect ratio, or camera's sensor size.
Adjusting at least one of the visual fields or pan positions of the video image based on the at least one of the translations or magnifications to simulate the target field of view and the target pan position. , The method of claim 20.
前記ビデオ画像の放射状歪みまたは接線方向歪みのうちの少なくとも一つを減少させるように、前記ビデオ画像に補正を適用することをさらに含む、請求項15に記載の方法。 Before applying the transformation
15. The method of claim 15, further comprising applying corrections to the video image so as to reduce at least one of the radial or tangential distortion of the video image.
前記車両のキャビンを表現したものを測定することであって、前記表現が、深度マップまたはRGB(赤緑青)画像のうちの少なくとも一つを含み、前記表現が、前記車両を運転する運転手の頭部を示すことと、
前記表現に基づいて、前記運転手の眼の基準点を決定することと、
前記眼の基準点に基づいて、前記少なくとも一つのカメラの視野(FOV)またはパン位置のうちの少なくとも一つを調整することと、
前記少なくとも一つのカメラによって取得された、前記車両外側にある区域の少なくとも一つのディスプレイ上に、ビデオ画像を表示することと、を含む、方法。 A method of adjusting at least one camera mounted on or in a vehicle.
Measuring a representation of the cabin of the vehicle, wherein the representation includes at least one of a depth map or an RGB (red, green, blue) image, and the representation is the driver driving the vehicle. Showing the head and
Determining the reference point for the driver's eyes based on the above expression,
Adjusting at least one of the field of view (FOV) or pan position of the at least one camera based on the reference point of the eye.
A method comprising displaying a video image on at least one display in an area outside the vehicle acquired by the at least one camera.
前記少なくとも一つのディスプレイ上に表示される、前記ビデオ画像の位置ずれを較正することと、
前記初期座位および前記位置ずれを使用して、前記少なくとも一つのディスプレイ上に表示される、前記ビデオ画像の中心点を計算することと、をさらに含む、請求項24に記載の方法。 Calibrating the driver's initial sitting position and
To calibrate the misalignment of the video image displayed on at least one of the displays.
24. The method of claim 24, further comprising calculating the center point of the video image displayed on the at least one display using the initial sitting position and the misalignment.
前記運転手の前記動作範囲に基づいて、前記少なくとも一つのカメラのパン速度をスケーリングすることと、をさらに含む、請求項24に記載の方法。 Calibrating the driver's range of motion for the initial sitting position and
24. The method of claim 24, further comprising scaling the pan speed of the at least one camera based on the driver's operating range.
一つ以上の歪み係数を使用して、放射状歪みまたは接線方向歪みの少なくとも一つを減少させるように、前記ビデオ画像に補正を適用することをさらに含む、請求項24に記載の方法。 Before displaying the video image
24. The method of claim 24, further comprising applying corrections to the video image to reduce at least one of radial or tangential distortions using one or more strain coefficients.
車体と、
シャーシ接続の構成要素と、
前記車体に結合された第一の端部、および前記シャーシ接続の構成要素に結合された第二の端部を有する関節ジョイントであって、
前記第一の端部および前記第二の端部に結合され、経路を画定するガイド構造であって、前記第二の端部が、前記経路に沿って前記第一の端部に対して移動可能である、ガイド構造、
前記経路に沿って前記第二の端部を移動させるための、前記ガイド構造に結合された駆動アクチュエータ、
起動するのに応じて、前記経路に沿って前記第二の端部を固定位置に保持するための、前記ガイド構造に結合されたブレーキ、を備える関節ジョイントと、
運転者および前記車両を囲む環境のうちの少なくとも一つを感知するための、前記車体に結合された一つ以上のセンサと、
前記運転者または前記車両を囲む前記環境のうちの前記少なくとも一つに基づいて、前記関節ジョイントを作動させるための、前記一つ以上のセンサおよび前記関節ジョイントへ動作可能に結合された、プロセッサと、を備える、車両。 It ’s a vehicle,
With the car body
Chassis connection components and
A joint joint having a first end coupled to the vehicle body and a second end coupled to a component of the chassis connection.
A guide structure coupled to the first end and the second end to define a path, wherein the second end moves along the path with respect to the first end. Possible, guide structure,
A drive actuator coupled to the guide structure for moving the second end along the path.
A joint joint comprising a brake coupled to the guide structure for holding the second end in a fixed position along the path in response to activation.
One or more sensors coupled to the vehicle body to detect at least one of the driver and the environment surrounding the vehicle.
With the one or more sensors for activating the joint and a processor operably coupled to the joint based on at least one of the environment surrounding the driver or vehicle. , A vehicle.
前記一つ以上のセンサが、前記キャビンを表現するものを生成するように構成され、前記表現が前記運転者の頭部を示す、請求項30に記載の車両。 The vehicle body defines a cabin that accommodates the driver.
30. The vehicle of claim 30, wherein the one or more sensors are configured to generate a representation of the cabin, wherein the representation represents the driver's head.
前記プロセッサが、前記車両の第一の軸に沿った、前記運転者の前記眼の基準点の動きを識別するのに応じて、前記関節ジョイントが、前記環境に対して前記運転者の前記眼の基準点の前記変位を増加させるために、前記第一の軸と実質的に平行な第二の軸に沿って、前記車体を移動させるように構成される、請求項33に記載の車両。 The processor is configured to identify the movement of the reference point of the driver's eye based on the representation of the cabin.
As the processor identifies the movement of the driver's eye reference point along the first axis of the vehicle, the joint joint may cause the driver's eye to the environment. 33. The vehicle of claim 33, configured to move the vehicle body along a second axis that is substantially parallel to the first axis in order to increase the displacement of the reference point.
前記一つ以上のセンサに対して、前記運転者の前記頭部が移動していることを検出するのに応じて、前記プロセッサが、前記関節ジョイントを作動させて、前記運転者の前記頭部が、前記ビデオ画像内の前記位置に戻るよう、前記車体を移動させるように構成される、請求項38に記載の車両。 The processor is configured to determine the relative position of the driver's head in the video image.
In response to detecting that the driver's head is moving with respect to the one or more sensors, the processor activates the joint joint to activate the driver's head. 38. The vehicle according to claim 38, wherein the vehicle body is configured to move the vehicle body so as to return to the position in the video image.
前記車両の外側領域のビデオ画像を捕捉するための、前記車両上または前記車両の中に取り付けられ、前記プロセッサへ動作可能に結合されたカメラと、
前記ビデオ画像を前記運転者に表示するための、前記キャビンの中に配置され、前記カメラおよび前記プロセッサへ動作可能に結合されたディスプレイと、をさらに備える、請求項30に記載の車両。 The car body defines the cabin,
A camera mounted on or in the vehicle and operably coupled to the processor for capturing video images of the outer region of the vehicle.
30. The vehicle of claim 30, further comprising a display arranged in the cabin and operably coupled to the camera and the processor for displaying the video image to the driver.
前記ディスプレイが、前記プロセッサによって修正された、前記ビデオ画像の少なくとも一部分を示すように構成される、請求項40に記載の車両。 The processor determines a reference point for the driver's eye based on the video image and a first field of view (FOV) or angle of view of the video image based on the reference point for the driver's eye. Configured to fix at least one of
40. The vehicle of claim 40, wherein the display is configured to show at least a portion of the video image modified by the processor.
第一のセンサを使用して、前記車両の運転者から第一の入力を受信することと、
第二のセンサを使用して、前記車両外側の環境から第二の入力を受信することと、
プロセッサを使用して、前記第一の入力と前記第二の入力との間の相関を識別することと、
前記プロセッサを使用して、前記相関に基づいて挙動ベースのコマンドを生成することであって、前記挙動ベースのコマンドが、前記車両のアクチュエータに適用されるとき、前記車両を事前に定義された挙動で移動させることと、
前記挙動ベースのコマンドと、前記プロセッサへ動作可能に結合された入力装置を介した、前記運転者からの明示的なコマンドと、前記第二の入力とに基づいて、組み合わせたコマンドを生成することと、
前記車両の安定性を維持するために、前記組み合わせたコマンドを調整、またはフィルタリングすることのうちの少なくとも一つと、
前記調整および/またはフィルタリングされた、組み合わせたコマンドを使用して、前記車両の前記アクチュエータを作動させることと、を含む、方法。 It ’s a way to drive a vehicle.
Using the first sensor to receive the first input from the driver of the vehicle,
Using the second sensor to receive the second input from the environment outside the vehicle,
Using a processor to identify the correlation between the first input and the second input,
The processor is used to generate behavior-based commands based on the correlation, which, when applied to the actuator of the vehicle, causes the vehicle to have predefined behavior. To move with
Generating a combined command based on the behavior-based command, an explicit command from the driver via an input device operably coupled to the processor, and the second input. When,
At least one of adjusting or filtering the combined commands to maintain the stability of the vehicle.
A method comprising activating the actuator of the vehicle using the adjusted and / or filtered, combined command.
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862745038P | 2018-10-12 | 2018-10-12 | |
US62/745,038 | 2018-10-12 | ||
USPCT/US2019/029793 | 2019-04-30 | ||
PCT/US2019/029793 WO2019213015A1 (en) | 2018-04-30 | 2019-04-30 | Articulated vehicles with payload-positioning systems |
PCT/US2019/055814 WO2020077194A1 (en) | 2018-10-12 | 2019-10-11 | Methods and apparatus to adjust a reactive system based on a sensory input and vehicles incorporating same |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022520685A true JP2022520685A (en) | 2022-04-01 |
Family
ID=70164793
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021519709A Pending JP2022520685A (en) | 2018-10-12 | 2019-10-11 | Methods and devices for adjusting the reaction system based on the sensory input and the vehicle incorporating it |
Country Status (6)
Country | Link |
---|---|
EP (1) | EP3863873A4 (en) |
JP (1) | JP2022520685A (en) |
KR (1) | KR20210088581A (en) |
CN (1) | CN113165483A (en) |
CA (1) | CA3115786A1 (en) |
WO (1) | WO2020077194A1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP4372700A1 (en) * | 2022-11-18 | 2024-05-22 | Aptiv Technologies AG | A system and method for interior sensing in a vehicle |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10023585B4 (en) * | 2000-05-13 | 2005-04-21 | Daimlerchrysler Ag | Display arrangement in a vehicle |
US7526103B2 (en) * | 2004-04-15 | 2009-04-28 | Donnelly Corporation | Imaging system for vehicle |
US7576767B2 (en) * | 2004-07-26 | 2009-08-18 | Geo Semiconductors Inc. | Panoramic vision system and method |
EP3515063A1 (en) * | 2007-04-02 | 2019-07-24 | Esight Corp. | A method for augmenting sight |
KR101351656B1 (en) * | 2012-03-30 | 2014-01-16 | 대성전기공업 주식회사 | Vehicular glance lighting apparatus |
WO2010099416A1 (en) * | 2009-02-27 | 2010-09-02 | Magna Electronics | Alert system for vehicle |
US8482486B2 (en) * | 2009-04-02 | 2013-07-09 | GM Global Technology Operations LLC | Rear view mirror on full-windshield head-up display |
US8564502B2 (en) * | 2009-04-02 | 2013-10-22 | GM Global Technology Operations LLC | Distortion and perspective correction of vector projection display |
US8629784B2 (en) * | 2009-04-02 | 2014-01-14 | GM Global Technology Operations LLC | Peripheral salient feature enhancement on full-windshield head-up display |
US8212874B2 (en) * | 2009-10-23 | 2012-07-03 | GM Global Technology Operations LLC | Automatic camera calibration using GPS and solar tracking |
US9298985B2 (en) * | 2011-05-16 | 2016-03-29 | Wesley W. O. Krueger | Physiological biosensor system and method for controlling a vehicle or powered equipment |
US9102269B2 (en) * | 2011-08-09 | 2015-08-11 | Continental Automotive Systems, Inc. | Field of view matching video display system |
KR101390399B1 (en) * | 2012-08-30 | 2014-04-30 | 한국과학기술원 | Foldable vehicle and method of controlling the same |
CN105143027B (en) * | 2013-03-15 | 2019-05-31 | D·凯利 | Three-wheeled vehicle |
EP3010761B1 (en) * | 2013-06-21 | 2019-07-24 | Magna Electronics Inc. | Vehicle vision system |
US10017114B2 (en) * | 2014-02-19 | 2018-07-10 | Magna Electronics Inc. | Vehicle vision system with display |
US9626766B2 (en) * | 2014-02-28 | 2017-04-18 | Microsoft Technology Licensing, Llc | Depth sensing using an RGB camera |
US9744907B2 (en) * | 2014-12-29 | 2017-08-29 | Gentex Corporation | Vehicle vision system having adjustable displayed field of view |
US20180134217A1 (en) * | 2015-05-06 | 2018-05-17 | Magna Mirrors Of America, Inc. | Vehicle vision system with blind zone display and alert system |
US10007854B2 (en) * | 2016-07-07 | 2018-06-26 | Ants Technology (Hk) Limited | Computer vision based driver assistance devices, systems, methods and associated computer executable code |
US20180096668A1 (en) * | 2016-09-30 | 2018-04-05 | Ford Global Technologies, Llc | Hue adjustment of a vehicle display based on ambient light |
KR20180056867A (en) * | 2016-11-21 | 2018-05-30 | 엘지전자 주식회사 | Display device and operating method thereof |
-
2019
- 2019-10-11 WO PCT/US2019/055814 patent/WO2020077194A1/en unknown
- 2019-10-11 CN CN201980081562.4A patent/CN113165483A/en active Pending
- 2019-10-11 KR KR1020217014171A patent/KR20210088581A/en unknown
- 2019-10-11 EP EP19870588.1A patent/EP3863873A4/en not_active Withdrawn
- 2019-10-11 JP JP2021519709A patent/JP2022520685A/en active Pending
- 2019-10-11 CA CA3115786A patent/CA3115786A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
CN113165483A (en) | 2021-07-23 |
EP3863873A4 (en) | 2022-06-29 |
WO2020077194A1 (en) | 2020-04-16 |
CA3115786A1 (en) | 2020-04-16 |
KR20210088581A (en) | 2021-07-14 |
EP3863873A1 (en) | 2021-08-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210387573A1 (en) | Methods and apparatus to adjust a reactive system based on a sensory input and vehicles incorporating same | |
US20160297362A1 (en) | Vehicle exterior side-camera systems and methods | |
JP4899340B2 (en) | Driving sense adjustment device and driving sense adjustment method | |
US9902403B2 (en) | Sensory stimulation for an autonomous vehicle | |
KR101622622B1 (en) | Apparatus for providing under vehicle image and vehicle including the same | |
CN107444263B (en) | Display device for vehicle | |
KR101579100B1 (en) | Apparatus for providing around view and Vehicle including the same | |
KR101565006B1 (en) | apparatus for providing around view and Vehicle including the same | |
US20180319407A1 (en) | Integration of occupant monitoring systems with vehicle control systems | |
US20170287168A1 (en) | Around view provision apparatus and vehicle including the same | |
US20190102634A1 (en) | Parking position display processing apparatus, parking position display method, and program | |
KR20180056867A (en) | Display device and operating method thereof | |
JP4735676B2 (en) | Driving support device | |
JP7389485B2 (en) | electric mobility | |
US20160313792A1 (en) | Device and method for navigating within a menu for controlling a vehicle, and selecting a menu entry from the menu | |
US10363876B2 (en) | Image display device | |
JPH07223488A (en) | Situation information display device for vehicle | |
JP2005125828A (en) | Vehicle surrounding visually confirming system provided with vehicle surrounding visually confirming device | |
US20220242449A1 (en) | Vehicle Control System | |
KR102135379B1 (en) | Robot for vehicle and control method of the robot | |
US20230356728A1 (en) | Using gestures to control machines for autonomous systems and applications | |
WO2005035314A1 (en) | Integrated mirror | |
JP2022520685A (en) | Methods and devices for adjusting the reaction system based on the sensory input and the vehicle incorporating it | |
JP2011157066A (en) | Operation feeling adjusting device | |
WO2023284748A1 (en) | Auxiliary driving system and vehicle |