JP2022520685A - Methods and devices for adjusting the reaction system based on the sensory input and the vehicle incorporating it - Google Patents

Methods and devices for adjusting the reaction system based on the sensory input and the vehicle incorporating it Download PDF

Info

Publication number
JP2022520685A
JP2022520685A JP2021519709A JP2021519709A JP2022520685A JP 2022520685 A JP2022520685 A JP 2022520685A JP 2021519709 A JP2021519709 A JP 2021519709A JP 2021519709 A JP2021519709 A JP 2021519709A JP 2022520685 A JP2022520685 A JP 2022520685A
Authority
JP
Japan
Prior art keywords
vehicle
driver
video image
camera
processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021519709A
Other languages
Japanese (ja)
Inventor
ピーター ヒンソン
アダム ワハブ
グラント ダブリュー. クリストフェク
イアン ダブリュー. ハンター
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Indigo Technologies Inc
Original Assignee
Indigo Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from PCT/US2019/029793 external-priority patent/WO2019213015A1/en
Application filed by Indigo Technologies Inc filed Critical Indigo Technologies Inc
Publication of JP2022520685A publication Critical patent/JP2022520685A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60JWINDOWS, WINDSCREENS, NON-FIXED ROOFS, DOORS, OR SIMILAR DEVICES FOR VEHICLES; REMOVABLE EXTERNAL PROTECTIVE COVERINGS SPECIALLY ADAPTED FOR VEHICLES
    • B60J3/00Antiglare equipment associated with windows or windscreens; Sun visors for vehicles
    • B60J3/04Antiglare equipment associated with windows or windscreens; Sun visors for vehicles adjustable in transparency
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0464Positioning
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2380/00Specific applications
    • G09G2380/10Automotive applications

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Body Structure For Vehicles (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Traffic Control Systems (AREA)

Abstract

従来の車両は、通常、車両の設計段階中に定義される、固定された特性を持つ単一の剛体のように振る舞う。従来の車両の剛性な性質によって、異なる運転条件に順応する能力が制限され、それゆえ有用性および性能も制限される。これらの制限を克服するには、センサおよび反応システムを含む、反応性の高い車両を使用してもよい。センサは、運転者の位置および/もしくは配向、車両の運転条件、ならびに/または車両の周りの環境条件を監視し得る。反応システムは、センサによって取得されたデータに基づいて、車両の何らかの態様を調整してもよい。例えば、反応システムは、運転者の動きに基づいて変化する視野を持つ、ビデオベースのミラーを含んでもよい。別の例では、反応システムは、運転者の動きに基づいて、車両の物理的な構成を変更する、関節ジョイントを含んでもよい。【選択図】図1Traditional vehicles typically behave like a single rigid body with fixed properties, as defined during the vehicle design phase. The rigid nature of conventional vehicles limits their ability to adapt to different driving conditions, and therefore their usefulness and performance. To overcome these limitations, highly responsive vehicles may be used, including sensors and reaction systems. Sensors may monitor the driver's position and / or orientation, the driving conditions of the vehicle, and / or the environmental conditions around the vehicle. The reaction system may adjust some aspect of the vehicle based on the data acquired by the sensors. For example, the reaction system may include a video-based mirror with a field of view that changes based on the driver's movements. In another example, the reaction system may include joint joints that change the physical configuration of the vehicle based on the driver's movements. [Selection diagram] Fig. 1

Description

関連特許出願に対する相互参照
本出願は、2018年4月30日に出願された「ARTICULATED VEHICLE」と題する、米国出願第62/664,656号の優先権を主張する、2019年4月30日に出願された「ARTICULATED VEHICLES WITH PAYLOAD-POSITIONING SYSTEMS」と題する、国際出願第PCT/US2019/029793号の一部継続(CIP)出願である。本出願はまた、2018年10月12日に出願された「APPARATUS FOR A REACTIVE CAMERA MONITORING SYSTEM AND METHODS FOR THE SAME」と題する、米国出願第62/745,038号の優先権を主張する。これら出願の各々は、その全体を参照することにより本明細書に組み込まれる。
Mutual reference to related patent applications This application claims the priority of US Application No. 62 / 664,656, entitled "ARTICULATED VEHICLE" filed April 30, 2018, on April 30, 2019. It is a partial continuation (CIP) application of the international application No. PCT / US2019 / 029793 entitled "ARTICULATED VEHICLES WITH PAYLOAD-POSITIONING SYSTEMS". This application also claims the priority of US application No. 62 / 745,038, entitled "APPARATUS FOR A REACTIVE CAMERA MONITORING SYSTEM AND METHODS FOR THE SAME" filed on October 12, 2018. Each of these applications is incorporated herein by reference in its entirety.

人が運転する車両(例えば、自動車)は、通常、車両のキャビンの中に位置する運転手によって制御される。車両を安全に運転するために、運転手は、好ましくは、車両近くの物体(例えば、人、道路の障壁、別の車両)に気づいているべきである。しかしながら、運転手の周囲環境に対する視野(FOV)は、人の目の周辺視野が限定されることが一部原因となり、主に運転手の目の前の領域に限定される。そのため、運転手は、車両の周囲を確認する(例えば、車線変更時に死角を確認する)ために、通常、運転手のFOVを車両の走行方向から移すという犠牲を払って、自身の目および/または頭部を移動させてFOVを移すべきである。運転手のFOVは、キャビンの構造(例えば、ドアパネル、窓のサイズ、A、B、またはCの柱)またはキャビン内の物体(例えば、別の乗客、大きな積み荷)など、車両キャビン内の障害物によってさらに制限され得る。 A vehicle driven by a person (eg, a vehicle) is usually controlled by a driver located in the cabin of the vehicle. In order to drive a vehicle safely, the driver should preferably be aware of objects near the vehicle (eg, people, road barriers, other vehicles). However, the visual field (FOV) of the driver's surrounding environment is mainly limited to the area in front of the driver due in part to the limitation of the peripheral visual field of the human eye. Therefore, the driver usually at the expense of moving the driver's FOV from the direction of travel of the vehicle in order to see the surroundings of the vehicle (eg, to see the blind spot when changing lanes). Alternatively, the head should be moved to move the FOV. The driver's FOV is an obstacle in the vehicle cabin, such as a cabin structure (eg, door panel, window size, A, B, or C pillar) or an object in the cabin (eg, another passenger, large cargo). Can be further restricted by.

従来の車両は、通常、運転手のFOVを拡張するためのミラーを含む。しかしながら、運転手のFOVの増大は限定的である。例えば、従来の自動車用ミラーは、通常、距離の歪みを減少させ、運転手の注意を車両の周りの特定区域に集中させるように、中程度のFOVを提供する。通常の視距離では、自動車に使用されるミラーの水平FOVは、典型的にはそれぞれ運転席側ミラーで10~15°、中央(内側)ミラーで23~28°、および助手席側ミラーで20~25°の範囲である。さらに、従来の車両は、運転中、主として単一の剛体である。したがって、キャビンのFOVは、主に車両の設計段階中に決定され、それゆえ、高価なおよび/または時間のかかる修正を行わない限り、製造後、容易には再構成できない。 Conventional vehicles typically include a mirror to extend the driver's FOV. However, the increase in driver's FOV is limited. For example, conventional automotive mirrors typically provide a moderate FOV to reduce distance distortion and focus the driver's attention on a particular area around the vehicle. At normal viewing distances, the horizontal FOVs of mirrors used in automobiles are typically 10-15 ° for driver-side mirrors, 23-28 ° for center (inside) mirrors, and 20 for passenger-side mirrors, respectively. It is in the range of ~ 25 °. Moreover, conventional vehicles are primarily single rigid bodies while driving. Therefore, the FOV of the cabin is determined primarily during the design phase of the vehicle and therefore cannot be easily reconstructed after manufacture without expensive and / or time consuming modifications.

本明細書に記載する実施形態は、運転者(「運転手」とも呼ぶ)の位置および/または配向の変化に一部応答する、反応システムを含む車両を対象とする。(反応システムを持つ車両は、反応性の高い車両と呼ばれる場合がある。)例えば、運転者が自身の頭部を移動すると、反応システムによって、運転者のFOVを調整し得る。これは、環境に対する運転者の位置を変更するために、車両の関節ジョイントを物理的に作動させることによって、または運転者に表示される、車両の外側領域のビデオ画像を調整することによってなど、いくつかの手段で達成され得る。このように、反応システムによって運転者のFOVを拡大し、それゆえ、運転者が車両の走行方向に対して意識を維持することが可能になると同時に、運転者に車両の周囲に関するより優れた状況認識を提供し得る。また反応システムで、従来の車両では不可能な、車両上のカメラまたは車両自体の位置を調整することによって、運転者が物体の周りおよび/または物体の先を見ることが可能になり得る。 The embodiments described herein are directed to vehicles that include a reaction system that partially responds to changes in the position and / or orientation of the driver (also referred to as the "driver"). (A vehicle with a reaction system may be referred to as a highly responsive vehicle.) For example, when the driver moves his or her head, the reaction system may adjust the driver's FOV. This can be done by physically activating the vehicle's joint joints to change the driver's position with respect to the environment, or by adjusting the video image of the outer region of the vehicle that is displayed to the driver. It can be achieved by several means. In this way, the reaction system expands the driver's FOV, thus allowing the driver to remain aware of the vehicle's direction of travel, while at the same time giving the driver a better situational awareness of the vehicle's surroundings. Can provide awareness. The reaction system may also allow the driver to look around and / or ahead of the object by adjusting the position of the camera on the vehicle or the vehicle itself, which is not possible with conventional vehicles.

一態様では、運転手の位置および/または配向は、車両に結合された一つ以上のセンサによって測定され得る。センサは、運転者に関連付けられた、さまざまなタイプのデータを捕捉するように構成されてもよい。例えば、センサは、運転者のRGB(赤緑青)画像を取得するためのカメラと、運転者の深度マップを取得するための深度マップセンサとを含んでもよい。RGB画像および深度マップを使用して、運転手の頭部の眼の基準点など、運転者に関連付けられた、さまざまな顔および/または姿勢の特徴の座標を決定してもよい。運転者のさまざまな特徴の座標は、時間の関数として測定され、反応システムを作動させるための入力として使用され得る。 In one aspect, the driver's position and / or orientation can be measured by one or more sensors coupled to the vehicle. Sensors may be configured to capture different types of data associated with the driver. For example, the sensor may include a camera for acquiring an RGB (red, green, blue) image of the driver and a depth map sensor for acquiring a depth map of the driver. RGB images and depth maps may be used to determine the coordinates of various facial and / or postural features associated with the driver, such as eye reference points on the driver's head. The coordinates of the various features of the driver are measured as a function of time and can be used as inputs to activate the reaction system.

運転者の特徴を決定するために、さまざまなデータタイプを使用することで、誤検知の発生(すなわち、偽の特徴を検出)を減少させ、さまざまな照明条件下で特徴検出が可能になり得る。これら特徴の検出は、畳み込みニューラルネットワークなど、いくつかの方法を使用して達成され得る。動作フィルタリングシステム(例えば、カルマンフィルタ)も使用して、例えば、運転者のRGB画像の望ましくないジッタを減少させることによって、運転者の測定された特徴が、時間の関数として滑らかに変化することを保証してもよい。また深度マップは、いくつかの手段でRGB画像と共に使用してもよい。例えば、深度は、RGB画像のより小さな部分が、特徴検出に使用されるように、RGB画像をマスクし、それによって計算コストを低減し得る。 Using different data types to determine driver characteristics can reduce the occurrence of false positives (ie, detect false features) and enable feature detection under different lighting conditions. .. Detection of these features can be achieved using several methods, such as convolutional neural networks. A motion filtering system (eg, a Kalman filter) is also used to ensure that the driver's measured features change smoothly as a function of time, for example by reducing unwanted jitter in the driver's RGB image. You may. The depth map may also be used with the RGB image by some means. For example, the depth can mask the RGB image so that a smaller portion of the RGB image is used for feature detection, thereby reducing computational costs.

また一つ以上のセンサは、道路表面のタイプ、車両速度および加速度、車両近くの障害物、ならびに/または降水の有無など、さまざまな環境条件も測定し得る。測定された環境条件はまた、反応システムへの入力として使用してもよい。例えば、環境条件によって、車両の速度(例えば、高速道路での操縦に対して都市での操縦)に基づいて、反応システムの応答の大きさを修正(例えば、車高を調整)してもよい。一部の事例では、環境条件はまた、特定の条件(例えば、車両速度、曲がる時の速度、車輪のトラクション)が満たされる場合に、運転者および車両の安全を維持するために、反応システムの起動を禁止し得る、制限ゲートとして使用されてもよい。 One or more sensors can also measure various environmental conditions such as road surface type, vehicle speed and acceleration, obstacles near the vehicle, and / or the presence or absence of precipitation. The measured environmental conditions may also be used as an input to the reaction system. For example, depending on the environmental conditions, the magnitude of the response of the reaction system may be modified (eg, the height of the vehicle) based on the speed of the vehicle (eg, maneuvering in the city as opposed to maneuvering on the highway). .. In some cases, environmental conditions are also a reaction system to keep the driver and vehicle safe when certain conditions are met (eg, vehicle speed, turning speed, wheel traction). It may be used as a restricted gate that may prohibit activation.

反応システムは、カメラおよびディスプレイを使用して組み立てられた、ビデオベースのミラーを含み得る。カメラは、車両に結合され、車両(例えば、車両の後部)外側の領域のビデオ画像を取得するように配向されてもよい。ディスプレイは、その領域のビデオ画像を、運転者に示すように使用され得る。運転手が移動すると、ディスプレイ上に示されるビデオ画像は、カメラが捕捉する領域のFOVを調整するために、変換されてもよい。例えば、運転者が自身の頭部を回転させ、ビデオ画像をそれに対応してシフトさせて(例えば、カメラをパンするか、またはディスプレイ上に示されているビデオ画像の一部分を移すことによって)、従来のミラーに類似した応答をエミュレートし得る。反応システムは、カメラの集合的なFOVが、車両の周囲を実質的にカバーするような、複数のカメラを含んでもよく、それゆえに、車両を運転する時に運転者の死角を減少させるか、または一部の例では排除する。複数のカメラによって取得されたビデオ画像は、一つ以上のディスプレイに表示されてもよい。 The reaction system may include a video-based mirror assembled using a camera and display. The camera may be coupled to the vehicle and oriented to capture a video image of the area outside the vehicle (eg, the rear of the vehicle). The display can be used to show the driver a video image of that area. As the driver moves, the video image shown on the display may be converted to adjust the FOV of the area captured by the camera. For example, the driver rotates his head and shifts the video image accordingly (eg, by panning the camera or moving a portion of the video image shown on the display). It can emulate a response similar to a conventional mirror. The reaction system may include multiple cameras such that the collective FOV of the cameras substantially covers the perimeter of the vehicle, thus reducing or reducing the driver's blind spot when driving the vehicle. Exclude in some cases. Video images acquired by multiple cameras may be displayed on one or more displays.

反応システムは、車両の構成を物理的に変更するための、関節ジョイントを含み得る。関節ジョイントは、車両の傾き/車高、および/または車両の車体形状を変化させる(例えば、車両の尾部に対して、車両の前部を回転させる)ヒンジを調整する、車両のアクティブサスペンションなど、一つ以上の機構を含み得る。一例では、関節ジョイントは、車両の第一の部分が、経路に沿って第二の部分に対して移動可能である経路を画定するガイド構造と、経路に沿って車両の第一の部分を移動させる駆動アクチュエータと、経路に沿ってある特定の位置で、車両の第一の部分を保持するブレーキとを含み得る。 The reaction system may include joints for physically changing the configuration of the vehicle. Joint joints adjust the vehicle's tilt / height and / or hinges that change the vehicle's body shape (eg, rotate the vehicle's front relative to the vehicle's tail), such as the vehicle's active suspension. It may include one or more mechanisms. In one example, the joint joint moves the first part of the vehicle along the path with a guide structure that defines the path through which the first part of the vehicle is movable with respect to the second part along the path. It may include a drive actuator to cause the vehicle to hold a first portion of the vehicle at a particular position along the path.

関節ジョイントは、環境に対する運転者の位置を修正するように使用されてもよい。例えば、反応システムによって、運転者が自身の頭部を傾けて、物体(例えば、別の車両)の周りを見るときに、関節ジョイントを使用して車両を傾けてもよい。別の例では、反応システムによって、運転者が物体(例えば、障壁)を見渡すために、自身の頭部を上方へと合わせるときに、車両の車高を増大させてもよい。このような場合、反応システムは、車両安定性を損なわないような形で、関節ジョイントを作動させるように構成され得る。例えば、反応システムによって、作動の大きさを減少させてもよく、または一部の例では、車両が高速で走行しているときに、関節ジョイントが作動するのを防止してもよい。また反応システムによって、明示的な運転者コマンド(例えば、ハンドル、アクセル、ブレーキなどの入力装置から受信するコマンド)と併せて、関節ジョイントを作動させてもよい。 Joint joints may be used to correct the driver's position with respect to the environment. For example, the reaction system may allow the driver to tilt his or her head and tilt the vehicle using joints when looking around an object (eg, another vehicle). In another example, the reaction system may increase the vehicle height as the driver aligns his head upwards to look over an object (eg, a barrier). In such cases, the reaction system may be configured to actuate the joint joints in a manner that does not compromise vehicle stability. For example, the reaction system may reduce the magnitude of the actuation, or in some cases may prevent the joint joints from actuating when the vehicle is traveling at high speed. The reaction system may also activate the joint joint in conjunction with an explicit driver command (eg, a command received from an input device such as a steering wheel, accelerator, brake, etc.).

(反応性の高い)車両を運転する別の方法は、第一のセンサを使用して車両の運転者から第一の入力を受信することと、第二のセンサを使用して車両外側の環境から第二の入力を受信することとを含む。プロセッサによって、第一の入力と第二の入力との間の相関を識別し、その相関に基づいて挙動ベースのコマンドを生成する。この挙動ベースのコマンドが、車両のアクチュエータに適用されると、車両を事前に定義した挙動で移動させる。プロセッサによって、挙動ベースのコマンドと、プロセッサへ動作可能に結合された入力装置を介した、運転者からの明示的なコマンドと、第二の入力とに基づいて、組み合わせたコマンドを生成する。そして、車両の安定性を維持するように、組み合わせたコマンドを調整および/またはフィルタリングし、その後、調整および/またはフィルタリングされた組み合わせたコマンドを使用して、車両のアクチュエータを作動させる。 Another way to drive a (reactive) vehicle is to use the first sensor to receive the first input from the vehicle driver and the second sensor to use the environment outside the vehicle. Includes receiving a second input from. The processor identifies the correlation between the first and second inputs and generates behavior-based commands based on that correlation. When this behavior-based command is applied to the vehicle's actuators, it moves the vehicle in a predefined manner. The processor produces a combined command based on behavior-based commands, explicit commands from the driver via an input device operably coupled to the processor, and a second input. The combined commands are then adjusted and / or filtered to maintain the stability of the vehicle, and then the adjusted and / or filtered combined commands are used to activate the vehicle actuators.

上の反応システムの例は、運転者および/またはカメラのFOVを修正する文脈で記載しているが、反応システムおよびその中にあるさまざまな構成要素はまた、他の用途にも使用され得る。例えば、反応システムは、車両用のセキュリティシステムとして使用してもよい。反応システムによって、他の個人のアクセスを妨げ(例えば、侵入を防止するために、車両を作動させることによって)ながら、承認された個人の車両へのアクセスを認識し許可し得る。別の例では、運転者が、容易に車両を見つけることができる(例えば、複数の車両を収容する駐車場で)ように、反応システムによって、関節ジョイントを介して、車両に音を発せさせる(例えば、クラクションを鳴らす)か、および/もしくはヘッドライトを点灯/点滅させてもよい。別の例では、車両は、反応システムが、車両の外側に位置する運転者に従うよう、車両に命令するように構成される、自律運転モードを有してもよい。これは、例えば、運転者が環境内を移動する際に、運転者のビデオ画像を記録するように使用され得る。別の例では、反応システムによって、運転者の眼球領域上のまぶしい光を減少させるために、運転者の位置を調整(例えば、関節ジョイントによって)してもよい。 The example reaction system above is described in the context of modifying the FOV of the driver and / or camera, but the reaction system and the various components within it can also be used for other applications. For example, the reaction system may be used as a security system for vehicles. A reaction system may recognize and grant access to an authorized individual's vehicle while blocking access to other individuals (eg, by activating the vehicle to prevent intrusion). In another example, the reaction system causes the vehicle to make a sound through the joints (eg, in a parking lot that accommodates multiple vehicles) so that the driver can easily find the vehicle (eg, in a parking lot that accommodates multiple vehicles). For example, you may honk) and / or turn on / blink the headlights. In another example, the vehicle may have an autonomous driving mode in which the reaction system is configured to instruct the vehicle to follow a driver located outside the vehicle. It can be used, for example, to record a video image of the driver as he travels through the environment. In another example, the reaction system may adjust the driver's position (eg, by a joint) to reduce the glare on the driver's eye area.

前述の概念、および以下でより詳細に論じる追加的概念のすべての組み合わせは(このような概念が相互に矛盾していないという前提で)、本明細書に開示する本発明の主題の一部であると考えられる。特に、本開示の最後に現れる特許請求される主題のすべての組み合わせは、本明細書に開示する本発明の主題の一部であると考えられる。また当然のことながら、参照により組み込まれる任意の開示においても現れる場合がある、本明細書で明示的に用いられる用語には、本明細書に開示する特定の概念と最も一致する意味を与えるべきである。 All combinations of the above concepts and the additional concepts discussed in more detail below (assuming such concepts are not inconsistent with each other) are part of the subject matter of the invention disclosed herein. It is believed that there is. In particular, all combinations of claims appearing at the end of this disclosure are considered to be part of the subject matter of the invention disclosed herein. Also, of course, the terms explicitly used herein, which may also appear in any disclosure incorporated by reference, should be given the meaning that most closely matches the particular concepts disclosed herein. Is.

当業者であれば、図面が主として例示的な目的であること、そして本明細書に記載する本発明の主題の範囲を制限することを意図していないことを理解するだろう。図面は必ずしも一定の比率ではなく、いくつかの実例では、本明細書に開示する本発明の主題のさまざまな態様は、異なる特徴の理解を容易にするために、図面内で誇張または拡大されて示される場合がある。図面では、同様の参照文字は概して、同様の特徴(例えば、機能的に類似したおよび/または構造的に類似した要素)を意味する。
図1は、対向車両からのヘッドライトの光に応じて、運転手の視野を移すように関節でつながれた、多関節車両を示す。 図2は、原点を運転手の頭部の中心に置く、座標系を示す。 図3は、反応性の高い車両システム用の較正特徴部を持つ座席を示す。 図4は、車両の例示的な反応性ミラーを示す。 図5Aは、従来の車両の中および車両上に配置された、図4の反応性ミラーのさまざまな構成要素と、各カメラの視野(FOV)とを示す。 図5Bは、多関節車両の中および車両上に配置された、図4の反応性ミラーのさまざまな構成要素と、各カメラのFOVとを示す。 図6は、運転者の位置および/または配向に基づいて、図4の反応性ミラーのカメラによって取得された、ビデオ画像を取得し変換する方法を示す。 図7Aは、関節ジョイントを持つ、例示的な車両の側面断面図を示す。 図7Bは、図7Aの車両の側面図を示す。 図7Cは、図7Bの車両の上面図を示す。 図7Dは、尾部の外殻を取り外した、低い外形構成にある図7Bの車両の側面図を示す。 図7Eは、尾部の外殻を取り外した、高い外形構成にある図7Bの車両の側面図を示す。 図8Aは、車両の例示的な関節ジョイントの斜視図を示す。 図8Bは、図8Aの関節ジョイントの側面図を示す。 図8Cは、図8Aの関節ジョイントの上面側面斜視図を示す。 図8Dは、図8Aの関節ジョイントの底面側面斜視図を示す。 図8Eは、図8Aのガイド構造における、リフトブラケットおよび軌道システムの上面側面斜視図を示す。 図8Fは、図8Eの軌道システムの上面側面斜視図を示す。 図8Gは、図8Fの軌道システムの中にあるレールの軸受の断面図を示す。 図9は、車両の反応システムを操作するための方法の流れ図を示す。 図10Aは、車両を制御している運転者に関連付けられた、さまざまな入力パラメータと、車両が曲がっているときの入力パラメータの例示的な範囲とを示す。 図10Bは、車両を囲む環境に関連付けられた、さまざまな入力パラメータと、車両が曲がっているときの入力パラメータの例示的な範囲とを示す。 図11Aは、変位に対する限界が、安定性を維持するように調整される、運転手位置の関数として、関節接合軸に沿った多関節車両の変位を示す。図11Bは、安定性を維持するように変位の変化率を調整する、運転手位置の関数として、関節接合軸に沿った多関節車両の変位を示す。 図12Aは、センサによって取得されたビデオ画像および深度マップを使用して、第二の車両の位置を監視するように、センサを装備した多関節車両を示す。 図12Bは、傾いている図12Aの多関節車両を示し、これによって、多関節車両上のセンサに対して測定された第二の車両の位置を変更する。 図13は、運転者および/またはセンサのFOVを増大させるように、車高が調整される多関節車両を示す。 図14Aは、第二の車両の存在のために、FOVが限定される多関節車両を示す。図14Bは、第二の車両の周りを見るために傾いた、図14Aの多関節車両を示す。 図15Aは、多関節車両の上面図と、多関節車両のFOVとを示す。 図15Bは、多関節車両の正面図と、図15Aの多関節車両のFOVとを示す。 図15Cは、一連の階段をジグザグに登る、図15Aの多関節車両の側面図を示す。 図16は、人が車両に近づくことを識別し、必要な場合、その人が多関節車両にアクセスするのを防止するように反応する、多関節車両を示す。 図17は、多関節車両外側に位置する運転者のビデオ画像を取得する、多関節車両を示す。
Those skilled in the art will appreciate that the drawings are primarily exemplary purposes and are not intended to limit the scope of the subject matter of the invention described herein. The drawings are not necessarily in constant proportions, and in some embodiments, various aspects of the subject matter of the invention disclosed herein are exaggerated or enlarged in the drawings to facilitate understanding of the different features. May be shown. In drawings, similar reference characters generally mean similar features (eg, functionally similar and / or structurally similar elements).
FIG. 1 shows an articulated vehicle articulated so as to shift the driver's field of view in response to the light of a headlight from an oncoming vehicle. FIG. 2 shows a coordinate system in which the origin is centered on the driver's head. FIG. 3 shows a seat with a calibration feature for a highly responsive vehicle system. FIG. 4 shows an exemplary reactive mirror of a vehicle. FIG. 5A shows the various components of the reactive mirror of FIG. 4 placed in and on a conventional vehicle and the field of view (FOV) of each camera. FIG. 5B shows the various components of the reactive mirror of FIG. 4 placed in and on the articulated vehicle and the FOV of each camera. FIG. 6 shows a method of acquiring and transforming a video image acquired by the camera of the reactive mirror of FIG. 4 based on the driver's position and / or orientation. FIG. 7A shows a side sectional view of an exemplary vehicle with articulated joints. FIG. 7B shows a side view of the vehicle of FIG. 7A. 7C shows a top view of the vehicle of FIG. 7B. FIG. 7D shows a side view of the vehicle of FIG. 7B in a low external configuration with the outer shell of the tail removed. FIG. 7E shows a side view of the vehicle of FIG. 7B in a high external configuration with the outer shell of the tail removed. FIG. 8A shows a perspective view of an exemplary joint joint of a vehicle. FIG. 8B shows a side view of the joint joint of FIG. 8A. FIG. 8C shows a side perspective view of the upper surface of the joint joint of FIG. 8A. FIG. 8D shows a side perspective view of the bottom surface of the joint joint of FIG. 8A. FIG. 8E shows a top side perspective view of the lift bracket and track system in the guide structure of FIG. 8A. FIG. 8F shows a side perspective view of the upper surface of the orbital system of FIG. 8E. FIG. 8G shows a cross-sectional view of a rail bearing in the track system of FIG. 8F. FIG. 9 shows a flow chart of a method for operating a vehicle reaction system. FIG. 10A shows various input parameters associated with the driver controlling the vehicle and an exemplary range of input parameters when the vehicle is turning. FIG. 10B shows various input parameters associated with the environment surrounding the vehicle and an exemplary range of input parameters when the vehicle is turning. FIG. 11A shows the displacement of the articulated vehicle along the articulated joint axis as a function of the driver's position where the limit to displacement is adjusted to maintain stability. FIG. 11B shows the displacement of the articulated vehicle along the joint axis as a function of the driver's position, which adjusts the rate of change of displacement to maintain stability. FIG. 12A shows an articulated vehicle equipped with sensors to monitor the position of a second vehicle using video images and depth maps acquired by the sensors. FIG. 12B shows an articulated vehicle of FIG. 12A that is tilted, thereby changing the position of the second vehicle as measured with respect to the sensors on the articulated vehicle. FIG. 13 shows an articulated vehicle whose vehicle height is adjusted to increase the FOV of the driver and / or the sensor. FIG. 14A shows an articulated vehicle whose FOV is limited due to the presence of a second vehicle. FIG. 14B shows the articulated vehicle of FIG. 14A, tilted to look around the second vehicle. FIG. 15A shows a top view of the articulated vehicle and a FOV of the articulated vehicle. FIG. 15B shows a front view of the articulated vehicle and the FOV of the articulated vehicle of FIG. 15A. FIG. 15C shows a side view of the articulated vehicle of FIG. 15A, which climbs a series of stairs in a zigzag manner. FIG. 16 shows an articulated vehicle that identifies a person approaching the vehicle and, if necessary, reacts to prevent the person from accessing the articulated vehicle. FIG. 17 shows an articulated vehicle that acquires a video image of a driver located outside the articulated vehicle.

以下は、反応性の高い車両システム、反応性ミラーシステム、多関節車両、および前述の使用方法に関係するさまざまな概念、およびそれらの実装についてのより詳細な説明である。上で紹介し、以下でより詳細に論じる概念は、複数の手段で実施され得る。特定の実装および適用の例は、当業者にとって明らかである実装および代替を、当業者が実践することを可能とするために、主に例示的な説明のために提供される。 The following is a more detailed description of reactive vehicle systems, reactive mirror systems, articulated vehicles, and various concepts related to the aforementioned usage, and their implementation. The concepts introduced above and discussed in more detail below can be implemented by multiple means. Examples of specific implementations and applications are provided primarily for illustrative purposes to allow those skilled in the art to practice implementations and alternatives that are apparent to those of skill in the art.

以下で説明する図および実施例は、本実装の範囲を単一の実施形態に限定することを意味していない。記載もしくは図示する要素の一部またはすべてを交換することによって、他の実装が可能である。さらに、開示する実装例のある特定の要素が、既知の構成要素を使用して部分的または完全に実装され得る場合、場合によっては、本実装の理解に必要なそのような既知の構成要素のそれら部分のみを記載し、本実装を不明瞭にしないために、そのような既知の構成要素の他の部分の詳細な説明は省略する。 The figures and examples described below do not imply limiting the scope of this implementation to a single embodiment. Other implementations are possible by exchanging some or all of the elements described or illustrated. In addition, if certain elements of the disclosed implementation examples can be partially or completely implemented using known components, in some cases such known components required for understanding this implementation. Only those parts are described and detailed description of other parts of such known components is omitted in order not to obscure the present implementation.

以下の考察では、車両、反応システム、反応性ミラー、および関節機構のさまざまな例について説明する。所与の例に関して論じる一つ以上の特徴は、本明細書に開示するさまざまな特徴が、本開示による所与のシステムで容易に組み合わせられてもよい(それぞれの特徴が互いに矛盾しないことを条件に)ように、本開示による他の実施例で用いられてもよい。 The following discussion describes various examples of vehicles, reaction systems, reactive mirrors, and joint mechanisms. One or more features discussed with respect to a given example may be that the various features disclosed herein are readily combined in a given system according to the present disclosure (provided that the features are consistent with each other). As in), it may be used in other embodiments according to the present disclosure.

センサおよび反応システムを持つ車両
図1は、車体4100を持つ(多関節)車両4000を示す。外部カメラ4202および内部カメラ4204を含む一つ以上のセンサは、運転者(例えば、運転手4010)の姿勢および/または配向、車両4000の動作パラメータ(例えば、速度、加速度、車輪のトラクション)、ならびに環境条件(例えば、環境光)が含むが、これらに限定されない、車両4000に関連付けられた、さまざまな入力を測定するように、車体4100に取り付けられてもよい。反応システム(図1に関節ジョイント4300として示す)は、センサ4202および4204によって測定された入力に一部基づいて、車両4000の何らかの態様を修正(例えば、運転者4010のFOVを変更、可変の地形を横断など)するように、車両4000に結合されてもよい。図1では、例えば、反応システム4300は、外部カメラ4204によって検出されるような、対向車両のヘッドライトの光上の経路から、ユーザの頭部を移動させるように車両を関節でつないでいる。車両4000はまた、センサ4202および4204、ならびに反応システム4300だけでなく、車両4000のさまざまな構成要素と、車両4000のそれぞれのサブシステムとの間で、データおよび/またはコマンドの転送を管理するためのプロセッサ(図示せず)を含んでもよい。
Vehicles with Sensors and Reaction Systems FIG. 1 shows a (articulated) vehicle 4000 with a vehicle body 4100. One or more sensors, including the external camera 4202 and the internal camera 4204, include the attitude and / or orientation of the driver (eg, driver 4010), the operating parameters of the vehicle 4000 (eg, speed, acceleration, wheel traction), and. It may be attached to the vehicle body 4100 to measure various inputs associated with the vehicle 4000, including but not limited to environmental conditions (eg, ambient light). The reaction system (shown as the joint joint 4300 in FIG. 1) modifies some aspect of the vehicle 4000 based in part on the inputs measured by the sensors 4202 and 4204 (eg, modifies the FOV of the driver 4010, variable terrain. May be coupled to the vehicle 4000 so as to cross). In FIG. 1, for example, the reaction system 4300 articulates the vehicle so as to move the user's head from the optical path of the headlights of the oncoming vehicle, as detected by the external camera 4204. The vehicle 4000 also manages the transfer of data and / or commands between the sensors 4202 and 4204, as well as the reaction system 4300, as well as the various components of the vehicle 4000 and their respective subsystems of the vehicle 4000. Processor (not shown) may be included.

反応システム4300は、車両4000に関連付けられた、さまざまなタイプのデータを取得するように、一つ以上のセンサを含んでもよく、またはそれらに結合されていてもよい。例えば、室内カメラ4204は、車両4000のキャビンならびに/または運転者4010の深度および赤緑色青色(RGB)データの両方を取得してもよい。深度フレームの各ピクセルは、ピクセルに対する物体と、深度マップセンサの熱くされた捕捉元との間の距離を表し得る。深度フレームは、構造化赤外線(IR)投影と、ステレオ構成(または類似の深度捕捉)にある二つのカメラとを使用して取得され得る。深度フレームは、運転者4010および車両キャビンの深度マップ表現を生成するために使用される。RGBフレームは、標準的な可視光カメラを使用して取得されてもよい。センサ4200によって取得された他のタイプのデータには、運転者の心拍数、運転者4010の歩行認識、および顔認識を含み得るが、これらに限定されない。 The reaction system 4300 may include or be coupled to one or more sensors to acquire various types of data associated with the vehicle 4000. For example, the interior camera 4204 may acquire both the vehicle 4000 cabin and / or the driver 4010 depth and red-green-blue (RGB) data. Each pixel in the depth frame can represent the distance between the object to the pixel and the heated source of the depth map sensor. Depth frames can be acquired using structured infrared (IR) projection and two cameras in a stereo configuration (or similar depth capture). The depth frame is used to generate a depth map representation of the driver 4010 and the vehicle cabin. RGB frames may be acquired using a standard visible light camera. Other types of data acquired by the sensor 4200 may include, but are not limited to, the driver's heart rate, the driver 4010's gait recognition, and the face recognition.

外部カメラ4202、および/または慣性計測装置もしくはジャイロスコープを含む他のセンサは、車両4000の配向、車両4000の速度、サスペンションの移動量、加速速度、道路表面のトポロジー、降水量、昼夜感知、道路表面タイプ(例えば、滑らかな舗装、粗い舗装、砂利、泥)、車両4000近くの他の物体/障害物(例えば、別の車、人、障壁)を含むが、これらに限定されない、さまざまな車両パラメータおよび/または環境条件を取得するように構成されてもよい。これらセンサの動作周波数は、少なくとも60Hz、および好ましくは、120Hzであってもよい。 External cameras 4202 and / or other sensors, including inertial measurement units or gyroscopes, include vehicle 4000 orientation, vehicle 4000 speed, suspension movement, acceleration speed, road surface topology, precipitation, day / night sensing, road. Various vehicles including, but not limited to, surface types (eg, smooth pavement, rough pavement, gravel, mud), other objects / obstacles near vehicle 4000 (eg, another car, person, barrier). It may be configured to acquire parameters and / or environmental conditions. The operating frequency of these sensors may be at least 60 Hz, and preferably 120 Hz.

各センサに関連付けられた、さまざまな動作パラメータが記憶されてもよく、センサに関係する固有パラメータ(例えば、解像度、寸法)、および外因性パラメータ(例えば、車両4000の座標空間内にある内部カメラ4204の位置および/または配向)を含むが、これらに限定されない。各センサの動作パラメータは、そのセンサに関連付けられたローカル座標系と、車両座標系との間で変換するために使用され得る。参考までに、本明細書で使用する座標系は、国際標準化機構(ISO)16505-2015に基づく、右手座標系であってもよい。この座標系では、正のx軸は、車両4000の前方への動きの方向とは反対の方向に沿って向けられ、z軸は、接地面に直交して上を向き、y軸は、前方への動きの方向を見るときに右を指す。 Various operating parameters associated with each sensor may be stored, including sensor-related unique parameters (eg, resolution, dimensions), and extrinsic parameters (eg, internal camera 4204 within the vehicle 4000 coordinate space). Position and / or orientation), but not limited to these. The operating parameters of each sensor can be used to convert between the local coordinate system associated with that sensor and the vehicle coordinate system. For reference, the coordinate system used herein may be a right-handed coordinate system based on the International Organization for Standardization (ISO) 16505-2015. In this coordinate system, the positive x-axis is oriented in the direction opposite to the direction of forward movement of the vehicle 4000, the z-axis is pointing upwards orthogonal to the ground plane, and the y-axis is forward. Point to the right when looking in the direction of movement to.

プロセッサ(本明細書では「マイクロコントローラ」とも呼ぶ)を使用して、センサによって取得された入力データを処理すること(例えば、ノイズのフィルタリング、さまざまなセンサからのデータを組み合わせること)、変換を計算すること、および/または反応システム4300を修正するためのコマンドを生成すること、ならびに車両4000のさまざまなサブシステムを(例えば、外部カメラ4204を反応システム4300に)通信可能に結合することを含むがこれらに限定されない、さまざまな機能を行ってもよい。例えば、プロセッサは、運転者4010の位置および/または配向を決定し、ビデオ画像に適用される、画像変換を生成するために使用され得る。プロセッサは、概して、通信可能に共に結合される、一つ以上のプロセッサを構成し得る。一部の事例では、プロセッサは、フィールドプログラマブルゲートアレイ(FPGA)であってもよい。 A processor (also referred to herein as a "microcontroller") is used to process the input data captured by the sensor (eg, noise filtering, combining data from different sensors), and compute the transformation. And / or generating commands to modify the reaction system 4300, and communicably coupling various subsystems of the vehicle 4000 (eg, an external camera 4204 to the reaction system 4300). Various functions not limited to these may be performed. For example, the processor can be used to determine the position and / or orientation of the driver 4010 and generate an image transformation that is applied to the video image. Processors can generally constitute one or more processors that are communicably coupled together. In some cases, the processor may be a field programmable gate array (FPGA).

上述のように、内部カメラ4202は、車両座標空間で運転者4010(例えば、運転者の頭部または体)の位置および/または配向を検出し得る。以下の例では、内部カメラ4202は、運転者4010の深度およびRGBデータの両方を取得する。特徴検出の前に、プロセッサは、RGBおよび深度データのフレームのいずれかのピクセル座標を使用して、対応する色または深度データにアクセスし得るように、内部カメラ4202によって取得されたRGB画像および深度フレームを、最初に位置合わせしてもよい。深度マップの処理には、通常、RGBフレームの処理と比較して、より少ない計算資源が使用される。一部の事例では、深度マップを使用して、処理のためにRGBフレームの区域を限定および/またはマスクしてもよい。例えば、深度マップは、特徴検出のために約0.1mから約1.5mの深度範囲に対応する、RGBフレームの一部分を抽出するように使用され得る。このようにRGBフレームを減少させることによって、誤検知の発生を減少させるのはもちろん、RGBフレームを処理するために使用する計算能力をも大幅に減少させ得る。 As mentioned above, the internal camera 4202 may detect the position and / or orientation of the driver 4010 (eg, the driver's head or body) in vehicle coordinate space. In the example below, the internal camera 4202 acquires both the depth and RGB data of the driver 4010. Prior to feature detection, the processor uses the pixel coordinates of either RGB or a frame of depth data to access the corresponding color or depth data in the RGB image and depth acquired by the internal camera 4202. The frame may be aligned first. Depth map processing typically uses less computational resources than RGB frame processing. In some cases, depth maps may be used to limit and / or mask areas of RGB frames for processing. For example, a depth map can be used to extract a portion of an RGB frame corresponding to a depth range of about 0.1 m to about 1.5 m for feature detection. By reducing the RGB frames in this way, not only the occurrence of false positives can be reduced, but also the computational power used to process the RGB frames can be significantly reduced.

特徴検出は、いくつかの手段で達成されてもよい。例えば、事前にトレーニングされた機械学習モデル(例えば、畳み込みニューラルネットワーク)は、深度、RGB、および/または組み合わせた(RGBD)データを利用して、運転者4010の特徴を検出し得る。モデルの出力は、体、頭部、および/または顔の特徴に対応するピクセル領域を含み得る。またモデルによって、運転者の姿勢の推定を提供し得る。一部の事例では、プロセッサ4400が運転者の頭部を識別すると、プロセッサ4400によってその後、運転者4010の眼の基準点(例えば、図2に示すような、運転者の目の間の中点)が推定され得る。次いで、眼の基準点は、射影変換の逆を行い(de-projected)、車両基準フレーム内の座標に変換されてもよい。説明の通り、特徴を検出するのはソフトウェア構築物であってもよく、それゆえ、特徴検出に使用されるモデルは、コンピュータビジョンの進歩を組み込むため、および/または性能を改善するために、製造時の後に更新されてもよい。 Feature detection may be achieved by several means. For example, a pre-trained machine learning model (eg, a convolutional neural network) can utilize depth, RGB, and / or combined (RGBD) data to detect features of the driver 4010. The output of the model may include pixel areas corresponding to body, head, and / or facial features. The model may also provide an estimate of the driver's posture. In some cases, when the processor 4400 identifies the driver's head, the processor 4400 subsequently identifies the reference point of the driver's eyes (eg, the midpoint between the driver's eyes, as shown in FIG. 2). ) Can be estimated. The reference point of the eye may then be de-projected and transformed into coordinates within the vehicle reference frame. As described, it may be a software construct that detects features, so the model used for feature detection is at the time of manufacture to incorporate advances in computer vision and / or to improve performance. May be updated after.

センサ(例えば、内部カメラ4202)および反応システム4300はまた、運転者4010に合わせて較正されてもよい。概して、車両4000のキャビン内にいる、運転者の高さおよび場所(例えば、異なる運転位置)は、経時的に変化し得る。車両4000が、特に運転者4010に合わせて較正されてはいない場合、運転者の位置および配向の変動によって、反応システム4300が、運転者4010を支援するために、車両4000を適切に調整することができない。運転者4010は、物理ボタンを押すこと、車両4000の制御コンソール上にある較正オプション(例えば、インフォテイメントシステム)を選択すること、および/または音声コマンドを使用することを含むがこれらに限定されない、車両4000のさまざまな入力を使用して、較正モードを起動してもよい。 The sensor (eg, internal camera 4202) and reaction system 4300 may also be calibrated for the driver 4010. In general, the height and location of the driver (eg, different driving positions) within the cabin of the vehicle 4000 can change over time. If the vehicle 4000 is not specifically calibrated for the driver 4010, changes in the driver's position and orientation will cause the reaction system 4300 to properly adjust the vehicle 4000 to assist the driver 4010. I can't. The driver 4010 includes, but is not limited to, pressing a physical button, selecting a calibration option (eg, an infotainment system) on the control console of the vehicle 4000, and / or using voice commands. The calibration mode may be activated using the various inputs of the vehicle 4000.

概して、較正は、(1)運転者の物理的な位置および動き、ならびに(2)運転者個人の嗜好に関するグループに分けられてもよい。運転者の物理的な位置および動きに関係する較正には、車両4000内の車両座標の中で車両4000を運転中の、運転者の初期座位および運転者の通常の眼の一点と、運転者の頭部の位置の変化に対する、反応システム4300の応答範囲に影響を与える、運転者の動作範囲との確立を含む場合がある。センサ4200は、運転者の物理的な位置および動きを取得するように使用してもよく、結果として生じる眼の基準点は、反応システム4300を作動させるときに、後で使用するために記憶することができる。 In general, calibration may be divided into groups regarding (1) the driver's physical position and movement, and (2) the driver's individual preferences. Calibration related to the driver's physical position and movement includes the driver's initial sitting position and one point of the driver's normal eye while driving the vehicle 4000 within the vehicle coordinates within the vehicle 4000, and the driver. It may include establishment with the driver's operating range, which affects the response range of the response system 4300 to changes in the position of the head of the vehicle. The sensor 4200 may be used to capture the driver's physical position and movement, and the resulting eye reference point is stored for later use when activating the reaction system 4300. be able to.

較正中、運転者4010は、ある特定の様式で自信の体を動かすように指示され得る。例えば、車両のスピーカーおよびディスプレイからの音声または視覚的プロンプトによって、運転者4010を正常に座る、右に動く、または左に動くように促してもよい。プロセッサによって、各位置での眼の基準点を記録して、初期位置および動作範囲を確立する。プロンプトは、車両のインフォテイメントシステムに示される視覚的な合図および/または命令、ならびに車両のスピーカーによる音声命令を含むが、これらに限定されない、いくつかの手段で運転者4010に送達され得る。プロセッサによって、反応システム4300のさまざまな構成要素に対する入力として、眼の基準点を使用できるように、車両4000の座標系の観点から、眼の基準点を記録してもよい。 During calibration, the driver 4010 may be instructed to move his body in a particular manner. For example, audio or visual prompts from the vehicle's speakers and display may prompt the driver 4010 to sit normally, move to the right, or move to the left. The processor records the reference point of the eye at each position to establish the initial position and range of motion. Prompts may be delivered to the driver 4010 by a number of means, including but not limited to, visual cues and / or commands shown in the vehicle infotainment system, as well as voice commands from the vehicle speakers. The eye reference point may be recorded in terms of the vehicle 4000 coordinate system so that the processor can use the eye reference point as an input to the various components of the reaction system 4300.

また内部カメラ4202は、車両4000の中にある座席に合わせて較正されてもよく、これによって、車両4000内の内部カメラ4202(および運転手4010)を見つけるように、より標準化された基準を提供し得る。図3は、センサ4200によって検出される較正パターン4120を含む、座席4110を示す。較正パターン4120の形状および設計は、予め知られていてもよい。これらは、可視インクまたは不可視インク(例えば、近赤外線波長でのみ可視であるインク)で印刷されてもよい。代替的にまたは追加的に、座席4110は、較正用の基準マーカーとして使用できる、特徴的な形状または特徴(例えば、非対称の特徴)を有してもよい。較正パターン4120(および座席4110)を撮像することによって、座席に対するセンサ4200の相対的な距離および/または配向を見出し得る。一部の事例では、較正パターン4120は、可視波長(例えば、人の目で直接観察可能)または赤外線波長(例えば、人の目に見えず、赤外線撮像センサのみを使用して検出可能)で形成され得る。 The internal camera 4202 may also be calibrated for the seat in the vehicle 4000, thereby providing a more standardized standard for finding the internal camera 4202 (and driver 4010) in the vehicle 4000. Can be. FIG. 3 shows a seat 4110 including a calibration pattern 4120 detected by the sensor 4200. The shape and design of the calibration pattern 4120 may be known in advance. These may be printed with visible or invisible inks (eg, inks that are visible only at near-infrared wavelengths). Alternatively or additionally, the seat 4110 may have a characteristic shape or feature (eg, asymmetric feature) that can be used as a reference marker for calibration. By imaging the calibration pattern 4120 (and seat 4110), the relative distance and / or orientation of the sensor 4200 with respect to the seat can be found. In some cases, the calibration pattern 4120 is formed at a visible wavelength (eg, directly observable by the human eye) or an infrared wavelength (eg, invisible to the human eye and detectable using only an infrared imaging sensor). Can be done.

運転者個人の嗜好に関係する較正は、使用されている反応システム4300のタイプに基づいて変化してもよい。例えば、反応システム4300は、運転者4010が、以前のサイドミラーを調整するのと類似の様式で示されるビデオ画像を、手動で調整することが可能になる、ビデオベースのミラーを利用してもよい。別の例では、反応システム4300は関節ジョイントを含んでもよい。運転者4010は、関節ジョイントの作動の大きさおよび/または速度を調整することができ得る(例えば、より穏やかな作動によって、より快適さが増す場合があり、より迅速で積極的な作動によって、より大きな性能を提供してもよい)。 Calibration related to the driver's personal preference may vary based on the type of reaction system 4300 used. For example, the reaction system 4300 may utilize a video-based mirror that allows the driver 4010 to manually adjust the video image shown in a manner similar to adjusting the previous side mirrors. good. In another example, the reaction system 4300 may include a joint joint. The driver 4010 may be able to adjust the magnitude and / or speed of the movement of the joint joint (eg, a gentler movement may result in more comfort, and a faster and more aggressive movement may result in a faster and more aggressive movement. Greater performance may be provided).

ビデオベースのミラーを持つ反応システム
図4は、ビデオベースのミラー4320を含む、例示的な反応システム4300を示す。示すように、ミラー4320は、車両4000の外側環境4500の領域のソースビデオ画像4332(「ソースビデオストリーム」とも呼ぶ)を取得するように、プロセッサ4400(マイクロコントローラユニット(MCU)4400とも呼ぶ)に結合された、カメラ4330を含んでもよい。ミラー4320はまた、変換されたビデオ画像4342(例えば、ソースビデオ画像4332の一部分)を運転者4010に示すように、MCU4400に結合されたディスプレイ4340を含んでもよい。プロセッサ4400は、ソースビデオ画像4332に変換を適用して、運転者4010の動きを検出するセンサ4200に応じて、運転者4010に示される変換されたビデオ画像4342を調整(例えば、FOVおよび/または画角)してもよい。このように、ビデオベースのミラー4320は、車両4000における従来のミラー(例えば、サイドミラー、バックミラー)を補完または置換し得る。例えば、ビデオベースのミラー4320は、従来のミラーを使用する際に、通常遭遇する空力抵抗を減少させるために使用され得る。一部の事例では、ミラー4320は、ISO16505-2015によって定義される、カメラ監視システム(CMS)として分類されてもよい。
Reaction system with video-based mirrors FIG. 4 shows an exemplary reaction system 4300, including a video-based mirror 4320. As shown, the mirror 4320 onto the processor 4400 (also referred to as the microcontroller unit (MCU) 4400) to acquire the source video image 4332 (also referred to as the "source video stream") of the region of the vehicle 4000's outer environment 4500. The combined camera 4330 may be included. The mirror 4320 may also include a display 4340 coupled to the MCU 4400 so that the converted video image 4342 (eg, a portion of the source video image 4332) is shown to the driver 4010. Processor 4400 applies the conversion to the source video image 4332 and adjusts the converted video image 4342 shown to the driver 4010 (eg, FOV and / or) in response to the sensor 4200 detecting the movement of the driver 4010. Angle of view) may be used. In this way, the video-based mirror 4320 can complement or replace conventional mirrors (eg, side mirrors, rearview mirrors) in the vehicle 4000. For example, a video-based mirror 4320 can be used to reduce the aerodynamic resistance normally encountered when using conventional mirrors. In some cases, the mirror 4320 may be classified as a camera surveillance system (CMS) as defined by ISO16505-2015.

ミラー4320は、車両4000の安全な運転を可能にするように、車両周囲の充分な部分をカバーする、ソースビデオ画像4332を取得してもよい。加えて、ミラー4320によって、ディスプレイ4340上に示される、変換されたビデオ画像4342のスケール歪みおよび/もしくは幾何学的歪みを減少または軽減し得る。ミラー4320はまた、現地の規制を遵守するように構成されてもよい。従来のドライバサイドミラーおよびセンターミラーは、概して、これら所望の特性を表すことができない。例えば、サイドミラーおよびセンターミラーは、米国では等倍を提供するべきであり、これは、表示される物体の高低角および角度幅が、同じ距離で直接眺めるのと同じ物体の高低角および角度幅と合致するべきであることを意味する(米国連邦自動車安全基準第111号)。 The mirror 4320 may acquire a source video image 4332 that covers a sufficient portion around the vehicle to enable safe driving of the vehicle 4000. In addition, the mirror 4320 may reduce or reduce the scale distortion and / or geometric distortion of the converted video image 4342 shown on the display 4340. The mirror 4320 may also be configured to comply with local regulations. Conventional driver side mirrors and center mirrors are generally unable to exhibit these desired characteristics. For example, side mirrors and center mirrors should provide equal magnification in the United States, which means that the height and angle width of the displayed object is the same as the height and angle width of the same object viewed directly at the same distance. Means that it should meet (Federal Motor Vehicle Safety Standards No. 111).

カメラ4330は、車両4000の外側環境4500のそれぞれの領域を各々カバーする、カメラ4330の配列として、個別にまたはその一部として使用され得る。カメラ4330は、組み合わせてカメラ4330のFOV4334を画定する、ソースビデオ画像4332を取得するための、レンズ(図示せず)およびセンサ(図示せず)を含んでもよい。 The cameras 4330 may be used individually or as part of an array of cameras 4330, each covering each area of the vehicle 4000's outer environment 4500. The camera 4330 may include a lens (not shown) and a sensor (not shown) for acquiring the source video image 4332 that together define the FOV 4334 of the camera 4330.

図5Aおよび5Bは、車両4000の外側の左側、右側、および後部領域をそれぞれカバーする、カメラ4330a、4330b、および4330c(総称して、カメラ4330)を各々含む、多関節車両4000ならびに従来の車両4002を示す。各車両4000、4002はまた、カメラ4330a、4330b、および4330cによって取得される、変換されたビデオ画像4342を示す、対応するディスプレイ4340aならびに4340bも含む。(従来の車両はまた、バックミラーの代わりに追加ディスプレイ4340cを含み得る。)示すように、カメラ4330は、異なるカメラ4330間に、死角が形成されないように、一部重複するFOV4334を有するように配向されてもよい。 5A and 5B show an articulated vehicle 4000 and a conventional vehicle, each including cameras 4330a, 4330b, and 4330c (collectively, camera 4330), which cover the outer left, right, and rear regions of the vehicle 4000, respectively. 4002 is shown. Each vehicle 4000, 4002 also includes corresponding displays 4340a and 4340b showing the converted video image 4342 acquired by cameras 4330a, 4330b, and 4330c. (Conventional vehicles may also include an additional display 4340c instead of a rearview mirror.) As shown, the camera 4330 should have a partially overlapping FOV4334 so that no blind spots are formed between the different cameras 4330. It may be oriented.

車両4000上のカメラ4330の配置は、いくつかの要因に左右され得る。例えば、カメラ4330は、環境4500の所望のFOV4334を捕捉するように、車体4100上に置かれ得る(図5Aおよび5Bに示すように)。カメラ4330はまた、車両4000上の空力抵抗を減少させるように、位置付けられてもよい。例えば、各カメラ4330は、車体4100のドアおよび/もしくはサイドパネル、または車両4000のトランクの後方を向いた部分の上にある、陥凹開口部内に取り付けられてもよい。カメラ4330の配置はまた、車両4000が使用されている場所に基づく、現地の規制および/またはガイドライン(例えば、ISO16505)に一部左右され得る。 The placement of the camera 4330 on the vehicle 4000 can depend on several factors. For example, the camera 4330 may be placed on the vehicle body 4100 to capture the desired FOV4334 of the environment 4500 (as shown in FIGS. 5A and 5B). The camera 4330 may also be positioned to reduce aerodynamic resistance on the vehicle 4000. For example, each camera 4330 may be mounted in a recessed opening above the door and / or side panel of the vehicle body 4100, or a rear-facing portion of the trunk of the vehicle 4000. The placement of the camera 4330 may also be partly dependent on local regulations and / or guidelines (eg, ISO16505) based on where the vehicle 4000 is used.

カメラ4330のFOV4334は、プロセッサ4400によってソースビデオ画像4332に適用される、一つ以上の所望の画像変換をサポートできるほど充分に大きくてもよい。例えば、ディスプレイ4340上に示される、変換されたビデオ画像4342は、カメラ4330によって取得されたソースビデオ画像4332の一部分に対応し、それゆえ、FOV4334よりも小さいFOV4344を有してもよい。カメラ4330のセンサは、変換されたビデオ画像4342が、サポートされている画像変換の範囲にわたって、ディスプレイ4340の最低解像度に少なくとも適合するような、充分な高解像度でソースビデオ画像4332を取得してもよい。 The FOV4334 of the camera 4330 may be large enough to support one or more desired image transformations applied to the source video image 4332 by the processor 4400. For example, the converted video image 4342 shown on the display 4340 corresponds to a portion of the source video image 4332 acquired by the camera 4330 and may therefore have a FOV 4344 smaller than the FOV 4334. The sensor of camera 4330 may acquire the source video image 4332 at a sufficiently high resolution such that the converted video image 4342 is at least compatible with the minimum resolution of the display 4340 over the range of supported image conversions. good.

FOV4334のサイズは、カメラ4330で使用される光学素子に、一部基づいてもよい。例えば、カメラ4330は、FOV4334を増加させるために広角レンズを使用し、それゆえ、環境4500のより大きな領域をカバーし得る。カメラ4330のFOV4334はまた、カメラ4330を車両4000の車体4100に結合する、電動マウントによって調整されてもよい。電動マウントによって、カメラ4330を回転および/またはパンし、それゆえ、カメラ4330のFOV4334が移ってもよい。これは、例えば、カメラ4330がより長い焦点距離を持つレンズを含むときに、使用され得る。電動マウントは、運転者4010に示されるビデオ画像4342に対する、所望の応答性が可能になる周波数で、カメラ4330を作動させるように構成されてもよい。例えば、電動マウントによって、約60Hzでカメラ4330を作動させ得る。電動マウントによって、より低い周波数(例えば、15Hz)でカメラ4330を作動させる場合、プロセッサ4400は、ディスプレイ4340上に示されるビデオ画像4342をアップサンプリングするために、追加のフレームを生成(例えば、補間によって)してもよい。 The size of the FOV4334 may be based in part on the optics used in the camera 4330. For example, the camera 4330 may use a wide-angle lens to increase the FOV4334 and therefore may cover a larger area of the environment 4500. The FOV4334 of the camera 4330 may also be adjusted by an electric mount that couples the camera 4330 to the vehicle body 4100 of the vehicle 4000. The electric mount may rotate and / or pan the camera 4330 and therefore transfer the FOV 4334 of the camera 4330. This can be used, for example, when the camera 4330 includes a lens with a longer focal length. The electric mount may be configured to operate the camera 4330 at a frequency that allows the desired responsiveness to the video image 4342 shown to the driver 4010. For example, an electric mount can operate the camera 4330 at about 60 Hz. If the electric mount operates the camera 4330 at a lower frequency (eg, 15 Hz), the processor 4400 will generate additional frames (eg, by interpolation) to upsample the video image 4342 shown on the display 4340. ) May.

各カメラ4330は、照明条件および所望の露出設定に応じて、可変フレームレートでソースビデオ画像4332を取得し得る。例えば、カメラ4330は、名目上、少なくとも1秒あたり約30フレーム(FPS)、および好ましくは60FPSのフレームレートで、ソースビデオ画像4332を取得し得る。しかしながら、微光状況において、カメラ4330は、少なくとも約15FPSのより低いフレームレートで、ソースビデオ画像4332を取得し得る。 Each camera 4330 may acquire the source video image 4332 at a variable frame rate, depending on the lighting conditions and the desired exposure settings. For example, camera 4330 may acquire source video image 4332 nominally at a frame rate of at least about 30 frames per second (FPS), and preferably 60 FPS. However, in low light conditions, the camera 4330 may acquire the source video image 4332 at a lower frame rate of at least about 15 FPS.

各カメラ4330はまた、可視、近赤外(NIR)域、中間赤外(MIR)域、および遠赤外(FIR)域を含むがこれらに限定されない、さまざまな波長範囲で、ソースビデオ画像4332を取得するように構成されてもよい。一部の用途では、車両4000上に配置されるカメラの配列4330は、ミラー4320を操作するとき複数の様式を可能にするために、一つ以上の波長範囲をカバーするように使用され得る(例えば、一つのカメラ4330が可視ビデオ画像を取得し、別のカメラ4330がNIRビデオ画像を取得する)。例えば、センサ4200により、車両4000が視界不良条件(例えば、夜間の運転、霧)で運転しているのを検出すると、プロセッサ4400によって、ディスプレイ4340上にIRビデオ画像のみを示してもよい。 Each camera 4330 also includes, but is not limited to, the visible, near-infrared (NIR), mid-infrared (MIR), and far-infrared (FIR) regions, and the source video image 4332 in a variety of wavelength ranges. May be configured to obtain. In some applications, the array of cameras 4330 placed on the vehicle 4000 may be used to cover one or more wavelength ranges to allow multiple modalities when operating the mirror 4320 (. For example, one camera 4330 acquires a visible video image and another camera 4330 acquires a NIR video image). For example, if the sensor 4200 detects that the vehicle 4000 is driving under poor visibility conditions (eg, driving at night, fog), the processor 4400 may show only the IR video image on the display 4340.

反応システム4300は、光学素子および/またはセンサの特性に関係する固有パラメータ(例えば、焦点距離、アスペクト比、センササイズ)、外因性パラメータ(例えば、車両4000の座標空間内におけるカメラ4330の位置および/または配向)、ならびに歪み係数(例えば、放射状のレンズ歪み、接線方向のレンズ歪み)を含むがこれらに限定されない、各カメラ4330に関連付けられた、さまざまな動作パラメータを記憶してもよい。カメラ4330の動作パラメータを使用して、ソースビデオ画像4332に適用される変換を修正してもよい。 The reaction system 4300 includes specific parameters (eg, focal length, aspect ratio, sensor size) related to the characteristics of the optics and / or sensor, extrinsic parameters (eg, the position of the camera 4330 in the coordinate space of the vehicle 4000 and / /. Or orientation), as well as various operating parameters associated with each camera 4330, including, but not limited to, distortion coefficients (eg, radial lens distortion, tangential lens distortion) may be stored. The operating parameters of camera 4330 may be used to modify the transformations applied to the source video image 4332.

ディスプレイ4340は、FOV4344に対応する、変換されたビデオ画像4342を示すように、構成された装置であってもよい。図5Aおよび5Bに示すように、車両4000は、一つ以上のディスプレイ4340を含み得る。ディスプレイ4340は、概して、一つ以上のカメラ4330によって取得された、ビデオ画像4332を示し得る。例えば、ディスプレイ4340は、複数のカメラ4330の変換されたビデオ画像4342を、分割画面配置(例えば、並んで表示される、二つの変換されたビデオ画像4342)で表示するように構成されてもよい。別の例では、プロセッサ4400によって、ディスプレイ4340上に示される、変換されたビデオ画像4342が、一つのカメラ4330から別のカメラ4330に途切れなく移行するように、複数のカメラ4330によって取得された、ソースビデオ画像4332を変換してもよい(例えば、ソースビデオ画像4332が、途切れなくつなぎ合わせられる)。車両はまた、車両4000上のカメラ4330に各々対応する、複数のディスプレイ4340を含んでもよい。 The display 4340 may be a device configured to show the converted video image 4342 corresponding to the FOV 4344. As shown in FIGS. 5A and 5B, the vehicle 4000 may include one or more displays 4340. Display 4340 may generally show video image 4332 acquired by one or more cameras 4330. For example, the display 4340 may be configured to display the converted video images 4342 of the plurality of cameras 4330 in a split screen arrangement (eg, two converted video images 4342 displayed side by side). .. In another example, the processor 4400 acquired the converted video image 4342 shown on the display 4340 by a plurality of cameras 4330 so as to seamlessly transition from one camera 4330 to another. The source video image 4332 may be converted (eg, the source video image 4332 is seamlessly stitched together). The vehicle may also include a plurality of displays 4340, each corresponding to a camera 4330 on the vehicle 4000.

ディスプレイ4340の配置は、いくつかの要因に左右され得る。例えば、ディスプレイ4340の位置および/または配向は、運転者4010の公称位置または車両4000の車両の運転席に、一部基づいてもよい。例えば、一つのディスプレイ4340は、ハンドルの左側に位置付けられてもよく、別のディスプレイ4340は、ハンドルの右側に位置付けられてもよい。一対のディスプレイ4340は、車両4000の左右側面に位置する、それぞれのカメラ4330からの変換されたビデオ画像4342を示すように使用され得る。ディスプレイ4340は、運転者4010が、走行方向に沿って車両の周囲を見失うことなく、変換されたビデオ画像4342を見ることが可能になるように置かれてもよい。加えて、ディスプレイ4340の場所は、カメラ4330と同様に車両4000が使用されている場所に基づく、現地の規制および/またはガイドラインにも左右され得る。 The placement of the display 4340 can depend on several factors. For example, the position and / or orientation of the display 4340 may be based in part on the nominal position of the driver 4010 or the driver's seat of the vehicle of the vehicle 4000. For example, one display 4340 may be located on the left side of the handle and another display 4340 may be located on the right side of the handle. A pair of displays 4340 can be used to show converted video images 4342 from the respective cameras 4330 located on the left and right sides of the vehicle 4000. The display 4340 may be placed so that the driver 4010 can see the converted video image 4342 along the direction of travel without losing sight of the surroundings of the vehicle. In addition, the location of the display 4340 may also be subject to local regulations and / or guidelines based on where the vehicle 4000 is used, as is the camera 4330.

一部の事例では、ディスプレイ4340はまた、ビデオベースのミラー4320を制御する、明示的なコマンドを入力する能力を、運転者4010に提供するために、タッチセンサ式であってもよい。例えば、運転者4010は、ディスプレイ4340に手で触れ、ディスプレイ4340上に示される変換されたビデオ画像4342の一部分を、パンおよび/またはスケーリングするために、スワイプ動作を適用してもよい。ビデオベースのミラー4320を較正するとき、以下でより詳細に論じるディスプレイ4340のずれが、タッチインターフェースによって調整され得る。加えて、運転者4010は、タッチインターフェースを使用して、輝度およびコントラストを含むがこれらに限定されない、ディスプレイ4340のさまざまな設定を調整してもよい。 In some cases, the display 4340 may also be touch-sensitive to provide the driver 4010 with the ability to enter explicit commands to control the video-based mirror 4320. For example, the driver 4010 may touch the display 4340 and apply a swipe action to pan and / or scale a portion of the converted video image 4342 shown on the display 4340. When calibrating the video-based mirror 4320, the shift of the display 4340, which is discussed in more detail below, can be adjusted by the touch interface. In addition, the driver 4010 may use the touch interface to adjust various settings of the display 4340, including but not limited to brightness and contrast.

反応システム4300は、ディスプレイ4340の固有特性(例えば、ディスプレイ解像度、リフレッシュレート、タッチ感度、ディスプレイ寸法)、外因性特性(例えば、車両4000の座標空間内における、ディスプレイ4340の位置および/または配向)、および歪み係数(例えば、ディスプレイ4340の湾曲)を含むがこれらに限定されない、各ディスプレイ4340に関連付けられた、さまざまな動作パラメータを記憶し得る。ディスプレイ4340の動作パラメータは、プロセッサ4400によって使用されて、ビデオ画像4332への変換を行ってもよい。 The reaction system 4300 may include unique characteristics of the display 4340 (eg, display resolution, refresh rate, touch sensitivity, display dimensions), extrinsic characteristics (eg, position and / or orientation of the display 4340 within the coordinate space of the vehicle 4000). And various operating parameters associated with each display 4340 may be stored, including but not limited to distortion factors (eg, curvature of the display 4340). The operating parameters of display 4340 may be used by processor 4400 to perform conversion to video image 4332.

上述のように、プロセッサ4400は、反応システム4300を制御するために使用され得る。ビデオベースのミラー4320の場合、プロセッサ4400は、使用される、ある特定タイプのカメラ4330および/またはディスプレイ4340に一部基づく(例えば、カメラ4330のビットレート、ディスプレイ4340の解像度および/またはリフレッシュレート)、高速通信バスを使用して、ディスプレイ4340ならびにカメラ4330と通信し得る。一部の事例では、通信バスはまた、使用されるプロセッサ4400のタイプ(例えば、中央処理装置および/またはグラフィックスプロセッシングユニットのクロック速度)に一部基づいてもよい。プロセッサ4400はまた、CAN(Controller Area Network)バスなどの共有通信バスを使用して、ビデオベースのミラー4320および/または車両4000の他のサブシステムのさまざまな構成要素と通信してもよい。 As mentioned above, the processor 4400 can be used to control the reaction system 4300. In the case of a video-based mirror 4320, the processor 4400 is based in part on a particular type of camera 4330 and / or display 4340 used (eg, the bit rate of the camera 4330, the resolution and / or refresh rate of the display 4340). , A high speed communication bus may be used to communicate with the display 4340 as well as the camera 4330. In some cases, the communication bus may also be based in part on the type of processor 4400 used (eg, the clock speed of the central processing unit and / or graphics processing unit). Processor 4400 may also use a shared communication bus, such as a CAN (Control Area Network) bus, to communicate with various components of the video-based mirror 4320 and / or other subsystems of the vehicle 4000.

反応システム4300のビデオベースのミラー4320は、運転者4010の動きに基づいて修正され、ディスプレイ4340上に変換されたビデオ画像4342として示される、ソースビデオ画像4332を取得してもよい。これらの修正は、ソースビデオ画像4332の適切な部分を抽出し、運転者4010に表示するビデオ画像4332の一部分を準備する、ソースビデオ画像4332への変換を適用することを含み得る。別の例では、変換を使用して、ミラー4320が従来のミラーと類似の様式で応答するように、変換されたビデオ画像4342のFOV4344を修正し得る。例えば、FOV4344は、運転者4010がディスプレイ4340のより近くに移動するにつれて幅が広がってもよい。加えて、変換されたビデオ画像4342のFOV4344は、運転者4010が左右に位置を変えると、パンしてもよい。 The video-based mirror 4320 of the reaction system 4300 may acquire the source video image 4332, which is modified based on the movement of the driver 4010 and shown as the converted video image 4342 on the display 4340. These modifications may include applying a conversion to the source video image 4332 that extracts the appropriate portion of the source video image 4332 and prepares a portion of the video image 4332 to be displayed to the driver 4010. In another example, the conversion can be used to modify the FOV4344 of the converted video image 4342 so that the mirror 4320 responds in a manner similar to a conventional mirror. For example, the FOV4344 may widen as the driver 4010 moves closer to the display 4340. In addition, the FOV4344 of the converted video image 4342 may be panned when the driver 4010 repositions left and right.

図6は、運転者4010の頭部の位置および/または配向の変化に一部基づいて、カメラ4330によって取得されたソースビデオ画像4332を変換する方法600を示す。方法600は、センサ4200を使用して、運転者の頭部の位置および/または配向を感知することから始まってもよい(ステップ602)。上述のように、センサ4200は、運転者の頭部のデータ(例えば、RGB画像および/または深度マップ)を取得し得る。次いで、プロセッサ4400によって、センサ4200が取得したデータに基づいて、運転者4010の眼の基準点を決定してもよい(ステップ604)。プロセッサ4400により、眼の基準点を決定することができる場合(ステップ606)、変換が計算され、ソースビデオ画像4332を修正するように適用される(ステップ610)。 FIG. 6 shows a method 600 for converting a source video image 4332 acquired by the camera 4330 based in part on changes in the position and / or orientation of the driver 4010's head. Method 600 may begin by sensing the position and / or orientation of the driver's head using the sensor 4200 (step 602). As mentioned above, the sensor 4200 may acquire data on the driver's head (eg, RGB images and / or depth maps). The processor 4400 may then determine the eye reference point of the driver 4010 based on the data acquired by the sensor 4200 (step 604). If the processor 4400 can determine the reference point for the eye (step 606), the transformation is calculated and applied to modify the source video image 4332 (step 610).

変換は、車両4000のビデオベースのミラー4320およびセンサ4200のモデルを使用して、計算されてもよい。モデルは、眼の基準点、カメラ4330の動作パラメータ(例えば、固有および外因性パラメータ、歪み係数)、ディスプレイ4340の動作パラメータ(例えば、固有および外因性パラメータ、歪み係数)、ならびにメーカーおよびユーザ較正パラメータを含むがこれらに限定されない、さまざまな入力を受信してもよい。パン、回転、およびスケーリングを含むがこれらに限定されない、さまざまなタイプの変換が、ソースビデオ画像4332に適用され得る。変換には、一連のマトリクス変換および信号処理操作を、ソースビデオ画像4332に適用することを含み得る。 The conversion may be calculated using the model of the vehicle 4000 video-based mirror 4320 and sensor 4200. The model includes eye reference points, camera 4330 operating parameters (eg, intrinsic and extrinsic parameters, distortion coefficients), display 4340 operating parameters (eg, intrinsic and extrinsic parameters, distortion coefficients), and manufacturer and user calibration parameters. Various inputs may be received, including but not limited to. Various types of transformations, including but not limited to panning, rotation, and scaling, may be applied to the source video image 4332. The conversion may include applying a series of matrix conversion and signal processing operations to the source video image 4332.

一例では、ソースビデオ画像4332に適用される変換は、眼の基準点およびユーザ較正パラメータのみに基づいてもよい。特に、運転者4010の眼の基準点と初期座位との間の距離(較正済み)は、単純なアフィン変換を使用して、ソースビデオ画像4332の一部分上でパンおよび/またはズームインするように使用され得る。例えば、変換の大きさは、運転者4010の較正された動作範囲にスケーリングされてもよい。加えて、パン速度および/またはズーム率は、変換されたビデオ画像4342が、運転者の頭部による動きに均一に応答するように、一定であってもよい。一部の事例では、ミラー4320の均一な応答は、ディスプレイ4340と運転者4010の眼の基準点との間の距離に左右されない場合がある。 In one example, the transformation applied to the source video image 4332 may be based solely on the eye reference point and user calibration parameters. In particular, the distance (calibrated) between the driver 4010's eye reference point and the initial sitting position is used to pan and / or zoom in on a portion of the source video image 4332 using a simple affine transformation. Can be done. For example, the magnitude of the conversion may be scaled to the calibrated operating range of the driver 4010. In addition, the pan speed and / or zoom factor may be constant so that the converted video image 4342 responds uniformly to movements by the driver's head. In some cases, the uniform response of the mirror 4320 may not depend on the distance between the display 4340 and the eye reference point of the driver 4010.

この変換は、ディスプレイ4340が、運転者4010の前方に位置する車両4000で、および/またはミラー4320が、運転者の頭部の位置の変化にのみ応答する(運転者4010の視野角、またはディスプレイ4340と運転者4010との間の距離など、他のパラメータの変化には応答しない)ように構成されるときに、好ましい場合がある。このように、この変換によって、車両4000の中にあるカメラ4330およびディスプレイ4340のさまざまな配置に、より標準化された応答を提供する一方で、実施がより簡単で、かつ計算コストが手ごろに(それゆえ、より速く行える)なり得る。加えて、この変換は、運転者の頭部の動きに基づいて、ソースビデオ画像4332に適用され得る。 This conversion is such that the display 4340 is in the vehicle 4000 located in front of the driver 4010 and / or the mirror 4320 responds only to changes in the position of the driver's head (viewing angle of the driver 4010, or display). It may be preferable when configured to (do not respond to changes in other parameters, such as the distance between the 4340 and the driver 4010). Thus, this transformation provides a more standardized response to various arrangements of cameras 4330 and displays 4340 in the vehicle 4000, while being easier to implement and more affordable (it). Therefore, it can be done faster). In addition, this transformation may be applied to the source video image 4332 based on the movement of the driver's head.

別の例では、ソースビデオ画像4332に適用される変換は、部分的に、ディスプレイ4340に対する運転者4010の視野角、および運転者4010の眼の基準点とディスプレイ4340との間の距離に一部基づいてもよい。ディスプレイ4340に対する運転者4010の位置、視野角、および距離に基づく調整を含む変換によって、従来のミラーの挙動をより良くエミュレートしてもよく、運転者4010にとってより自然に感じられ得る。プロセッサ4400によって、運転者4010の眼の基準点から、ディスプレイ4340の中心までの、ベクトル

Figure 2022520685000002

を決定してもよい。その後、ベクトルを使用して、変換されたビデオ画像4342について、標的FOVおよびパン位置を決定してもよい。例えば、レイキャスティング法を使用して、運転者4010の眼の基準点から、ディスプレイ4340のそれぞれの角に、光線が投げられるFOVを画定してもよい。 In another example, the transformation applied to the source video image 4332 is partly in the viewing angle of the driver 4010 with respect to the display 4340 and the distance between the reference point of the driver 4010's eyes and the display 4340. May be based. Transformations that include adjustments based on the position, viewing angle, and distance of the driver 4010 with respect to the display 4340 may better emulate the behavior of a conventional mirror and may feel more natural to the driver 4010. Vector 4400 from the reference point of the driver's eye to the center of display 4340 by processor 4400.
Figure 2022520685000002

May be determined. Vectors may then be used to determine the target FOV and pan position for the converted video image 4342. For example, the raycasting method may be used to define a FOV to which a light beam is cast from the reference point of the driver 4010's eyes to each corner of the display 4340.

次のステップは、標的FOVに対応するソースビデオ画像4332の一部分の抽出である。これは、変換されたビデオ画像4342に使用される、ソースビデオ画像4332の一部分の場所およびサイズの決定を伴い得る。ソースビデオ画像4332の一部分のサイズは、カメラ4330の固有パラメータのうちの一つである、カメラ4330の角度分解能(例えば、1ピクセル当たりの度数)に一部左右され得る。カメラ4330の角度分解能を使用して、抽出されるビデオ画像4332の一部分の寸法を決定してもよい。例えば、標的FOVの水平軸は、45度の角度範囲をカバーしてもよい。カメラ4330の角度分解能が、1ピクセル当たり0.1度である場合、ビデオ画像4332の一部分は、標的FOVを満たすために、水平軸に沿って450ピクセルを有するはずである。 The next step is to extract a portion of the source video image 4332 that corresponds to the target FOV. This may involve determining the location and size of a portion of the source video image 4332 used for the converted video image 4342. The size of a portion of the source video image 4332 may be partially dependent on the angular resolution of the camera 4330 (eg, power per pixel), which is one of the unique parameters of the camera 4330. The angular resolution of camera 4330 may be used to dimension a portion of the extracted video image 4332. For example, the horizontal axis of the target FOV may cover an angular range of 45 degrees. If the angular resolution of the camera 4330 is 0.1 degrees per pixel, then a portion of the video image 4332 should have 450 pixels along the horizontal axis to meet the target FOV.

カメラ4330によって捕捉されたソースビデオ画像4332から抽出された、変換されたビデオ画像4342の場所は、ディスプレイ4340に対する運転者4010の視野角に左右され得る。視野角は、ベクトル

Figure 2022520685000003

と、ディスプレイ4340の中心と交差し、かつ垂直であるベクトル
Figure 2022520685000004

との間の角度として定義され得る。したがって、
Figure 2022520685000005

および
Figure 2022520685000006

の共線性は、ディスプレイ4340の中心に位置合わせされている、運転者4010の眼の基準点に対応するであろう。運転者の頭部が動くと、結果として生じる視野角によって、変換されたビデオ画像4342の場所を、ソースビデオ画像4332内の位置にシフトさせ得る。位置のシフトは、視野角(すなわち、水平視野角および垂直視野角)のそれぞれの構成要素に、カメラ4330の角度分解能を乗じることによって決定され得る。このように、トリミングされた部分の中心点(例えば、XおよびYのピクセル位置)は、ソースビデオ画像4332に対して見出され得る。 The location of the converted video image 4342 extracted from the source video image 4332 captured by the camera 4330 may depend on the viewing angle of the driver 4010 with respect to the display 4340. The viewing angle is a vector
Figure 2022520685000003

And a vector that intersects and is perpendicular to the center of the display 4340.
Figure 2022520685000004

Can be defined as an angle between and. therefore,
Figure 2022520685000005

and
Figure 2022520685000006

The co-linearity will correspond to the reference point of the driver's eye, aligned with the center of the display 4340. As the driver's head moves, the resulting viewing angle can shift the location of the converted video image 4342 to a position within the source video image 4332. The position shift can be determined by multiplying each component of the viewing angle (ie, the horizontal viewing angle and the vertical viewing angle) by the angular resolution of the camera 4330. Thus, the center point of the trimmed portion (eg, the pixel positions of X and Y) can be found with respect to the source video image 4332.

プロセッサ4400によって、運転者4010の眼の基準点を決定することができない場合、初期設定または以前の変換を、ソースビデオ画像4332に適用してもよい(図6のステップ608)。例えば、眼の基準点の以前の測定に対応する以前の変換は、眼の基準点が検出されない場合に、変換されたビデオ画像4342が変化しないように維持され得る。別の例では、変換は、運転者の動きの予測に基づいて計算されてもよい。眼の基準点が、時間の関数として測定される場合、運転者4010の眼の基準点の場所を予測するように、以前の測定値を外挿してもよい。以前の測定値の外挿は、線形外挿(例えば、運転者の動きは、充分に小さな時間増分とおおよそ線形になる)、および特定の行動(例えば、車線を変更するときに、運転者の頭部が、実質的に反復可能な様式で、ディスプレイ4340に向かって動く)をするときの、運転者の挙動のモデリングを含むがこれらに限定されない、一つ以上の手段で達成され得る。このように、眼の基準点の検出を突然中断しても、変換されたビデオ画像4342が飛び、および/または途切れ途切れに見えることはない。 If processor 4400 is unable to determine a reference point for the driver 4010's eyes, the default or previous conversion may be applied to the source video image 4332 (step 608 of FIG. 6). For example, the previous conversion corresponding to the previous measurement of the eye reference point may be maintained so that the converted video image 4342 does not change if the eye reference point is not detected. In another example, the transformation may be calculated based on the prediction of the driver's movement. If the eye reference point is measured as a function of time, previous measurements may be extrapolated to predict the location of the eye reference point of the driver 4010. Extrapolation of previous measurements is linear extrapolation (eg, the driver's movements are approximately linear with a sufficiently small time increment), and certain behaviors (eg, when changing lanes) of the driver. It can be achieved by one or more means including, but not limited to, modeling the behavior of the driver as the head moves towards the display 4340 in a substantially repeatable manner. Thus, even if the detection of the reference point of the eye is suddenly interrupted, the converted video image 4342 does not appear to be skipped and / or choppy.

変換を決定する(例えば、新しい計算された変換、初期設定/以前の変換)と、その後、変換がソースビデオ画像4332に適用されて、変換されたビデオ画像4342を生成し、次いでこれがディスプレイ4340上に示される(図6のステップ612)。このソースビデオ画像4332を変換する方法600は、少なくとも約60Hzの動作周波数で行われてもよい。加えて、カメラ4330および/またはディスプレイ4340の歪み係数を使用して、ソースビデオ画像4332の放射状および/または接線方向歪みを補正してもよい。さまざまな技術を使用して、以前の較正に基づいて、補正されたピクセル位置を計算し、その後、ソースビデオ画像4332(すなわち、ソースビデオストリーム)のピクセル位置を、変換されたビデオ画像4342(すなわち、変換されたビデオストリーム)の補正されたピクセル位置に再マッピングするなど、歪みを補正してもよい。 After determining the conversion (eg, new calculated conversion, default / previous conversion), the conversion is then applied to the source video image 4332 to produce the converted video image 4342, which is then on the display 4340. (Step 612 in FIG. 6). The method 600 for converting this source video image 4332 may be performed at an operating frequency of at least about 60 Hz. In addition, the distortion coefficients of the camera 4330 and / or the display 4340 may be used to correct the radial and / or tangential distortion of the source video image 4332. Various techniques are used to calculate the corrected pixel position based on previous calibration, and then the pixel position of the source video image 4332 (ie, source video stream) is converted to the converted video image 4342 (ie). Distortion may be corrected, such as by remapping to the corrected pixel position of the converted video stream.

上述のように、センサ4200および/または反応システム4300を、運転者4010に対して較正してもよい。ビデオベースのミラー4320に対して、較正は、ディスプレイ4340上に示される変換されたビデオ画像4342を調整して、運転者の身長、および/または運転者の頭部とディスプレイ4340との間の距離に基づいて変化し得る、運転者の頭部と整列することを含み得る。加えて、前述したように、運転者の動作範囲および/または初期位置(例えば、車両4000における運転者の運転位置)を使用して、ソースビデオ画像4332に適用される変換を調整してもよい。例えば、変換されたビデオ画像4342が、より大きなソースビデオ画像4332にわたってパンすることができるように、運転者の動作範囲を使用して、変換をスケーリングしてもよい(例えば、変換されたビデオ画像4342のFOV4344が、ソースビデオ画像4332のFOV4344をカバーしてもよい)。 As mentioned above, the sensor 4200 and / or the reaction system 4300 may be calibrated to the driver 4010. For the video-based mirror 4320, the calibration adjusts the converted video image 4342 shown on the display 4340 to the height of the driver and / or the distance between the driver's head and the display 4340. May include aligning with the driver's head, which may vary based on. In addition, as mentioned above, the driver's operating range and / or initial position (eg, the driver's operating position in vehicle 4000) may be used to adjust the transformation applied to the source video image 4332. .. For example, the driver's range of motion may be used to scale the conversion so that the converted video image 4342 can be panned over a larger source video image 4332 (eg, the converted video image). The FOV4344 of the 4342 may cover the FOV4344 of the source video image 4332).

別の例では、運転者の初期位置は、「ベースライン」位置として使用され得る。ベースライン位置は、各ディスプレイ4340(すなわち、二つ以上のディスプレイ4340を持つ車両4000の中にある)の好ましいFOVを有する、運転者4010に対応してもよい。例えば、各ディスプレイ4340上に示される、変換されたビデオ画像4342は、対応する各カメラ4330によって取得されたソースビデオ画像4332に対して、実質的に中心にあってもよい。別の例では、好ましいFOVは、車両4000について現地の規制または製造業者の仕様に左右され得る。一部の事例では、運転者4010の初期位置は、運転者4010の平均位置(例えば、運転者4010が座っているときの平均位置)、および/または運転者4010が車両4000を使用するときの動作範囲に基づいて、ミラー4320が異なる運転者4010に適応する、動的較正アプローチを使用して決定され得る。 In another example, the driver's initial position can be used as the "baseline" position. The baseline position may correspond to the driver 4010 having a preferred FOV for each display 4340 (ie, in a vehicle 4000 with two or more displays 4340). For example, the converted video image 4342 shown on each display 4340 may be substantially centered with respect to the source video image 4332 acquired by each corresponding camera 4330. In another example, the preferred FOV may be subject to local regulations or manufacturer specifications for the vehicle 4000. In some cases, the initial position of the driver 4010 is the average position of the driver 4010 (eg, the average position when the driver 4010 is sitting) and / or when the driver 4010 uses the vehicle 4000. Based on the operating range, the mirror 4320 can be determined using a dynamic calibration approach that adapts to different drivers 4010.

ミラー4320の較正は、動作範囲および初期位置を測定するために、運転者4010に特定の行動(例えば、自身の四肢を動かす)をするように指示する、半自動の様式で行われてもよい。前述したように、運転者4010は、車両4000のインフォテイメントシステムまたは車両のスピーカーなどのさまざまなシステムを使用して、較正についての指示を受信してもよい。ビデオベースのミラー4320については、ディスプレイ4340もまた、運転者4010への視覚的な命令および/または合図を提供するために使用され得る。命令および/または合図には、車両4000、道路、および/または運転者4010にスケーリングおよび配向の感覚を提供する、別の基準物体を重ね合わせた、一つ以上のグラフィックを含み得る。これらの測定が行われると、プロセッサ4400によって、車両周囲の適切なFOVを提供するために、各ディスプレイ4340上に示される、変換されたビデオ画像4342を調整するように試み得る。 Calibration of the mirror 4320 may be done in a semi-automatic manner, instructing the driver 4010 to perform certain actions (eg, move his or her limbs) to measure the range of motion and initial position. As mentioned above, the driver 4010 may use various systems such as the vehicle 4000 infotainment system or vehicle speakers to receive calibration instructions. For the video-based mirror 4320, the display 4340 can also be used to provide visual commands and / or cues to the driver 4010. The instructions and / or cues may include one or more graphics overlaid with another reference object that provides the vehicle 4000, road, and / or driver 4010 with a sense of scaling and orientation. Once these measurements are made, the processor 4400 may attempt to adjust the converted video image 4342 shown on each display 4340 in order to provide a suitable FOV around the vehicle.

運転者4010にはまた、ミラー4320を直接調整するように、制御が提供されてもよい。このように、運転者4010は、運転手が車両のサイドミラーまたはバックミラーを調整できる方法に類似する、自身の個人的な嗜好に従ってミラー4320を較正し得る。タッチコントロール(例えば、インフォテイメントシステム、ディスプレイ4340)、物理ボタン、およびジョイスティックを含むがこれらに限定されない、さまざまな制御入力が、運転者4010に提供され得る。制御入力によって、運転者4010が、変換されたビデオ画像4342を、上下左右に手動でパンすること、および/または変換されたビデオ画像4342の倍率を増減するように、倍率ずれを調整することが可能になり得る。 The driver 4010 may also be provided with control to directly adjust the mirror 4320. Thus, the driver 4010 may calibrate the mirror 4320 according to his or her personal taste, similar to the way the driver can adjust the side mirrors or rearview mirrors of the vehicle. Various control inputs may be provided to the driver 4010, including but not limited to touch controls (eg, infotainment systems, displays 4340), physical buttons, and joysticks. The control input allows the driver 4010 to manually pan the converted video image 4342 up, down, left and right, and / or adjust the magnification shift to increase or decrease the magnification of the converted video image 4342. It can be possible.

これらの調整は、ソースビデオ画像4332に適用された変換を修正する(例えば、ソースビデオ画像4332から抽出された、変換されたビデオ画像4342のサイズおよび場所を調整する)ことによって、ならびに/またはカメラ4330を物理的に回転および/もしくはパンすることによって行われ得る。加えて、変換されたビデオ画像4342が、運転者4010によってパンおよび/またはスケーリングされ得る程度は、ソースのFOV4334と、ソースビデオ画像4332の解像度とによって、一部制限されてもよい。一部の事例では、現地の規制によってもまた、変換されたビデオ画像4342に適用されるパンおよび/またはスケーリングの調整に制限が課され得る。さらに、これらの手動による調整は、運転者4010を特定の様式で位置付けることなくなされてもよい(例えば、運転者4010は、初期位置にいる必要はない)。 These adjustments are made by modifying the conversion applied to the source video image 4332 (eg, adjusting the size and location of the converted video image 4342 extracted from the source video image 4332) and / or the camera. This can be done by physically rotating and / or panning the 4330. In addition, the extent to which the converted video image 4342 can be panned and / or scaled by the driver 4010 may be partially limited by the source FOV4334 and the resolution of the source video image 4332. In some cases, local regulations may also impose restrictions on the pan and / or scaling adjustments applied to the converted video image 4342. Further, these manual adjustments may be made without positioning the driver 4010 in a particular manner (eg, the driver 4010 does not need to be in the initial position).

ミラー4320が較正された後、車両4000の各ミラー4320に対する運転者の初期位置、動作範囲、および個々のずれが記憶され得る。まとめて、車両4000を制御するときに、初期位置にいる運転者4010に示す環境のFOVを表す、各ディスプレイ4340の「中心点」を、これらのパラメータが画定してもよい。中心点は、初期座位および各ディスプレイ4340のずれのみを使用して、決定され得る。一部の事例では、中心点は、運転者4010の眼の基準点が検出されないとき、変換されたビデオ画像4342の初期設定FOV4344に対応してもよい。 After the mirrors 4320 have been calibrated, the driver's initial position, range of motion, and individual deviations for each mirror 4320 of the vehicle 4000 may be stored. Collectively, these parameters may define the "center point" of each display 4340, which represents the FOV of the environment shown to the driver 4010 in the initial position when controlling the vehicle 4000. The center point can be determined using only the initial sitting position and the deviation of each display 4340. In some cases, the center point may correspond to the default setting FOV4344 of the converted video image 4342 when the reference point of the eyes of the driver 4010 is not detected.

運転者4010の動作範囲は、変換されたビデオ画像4342が、パンおよび/またはスケーリングされる速度をスケーリングするために使用され得る。加えて、動作範囲が、車両4000のキャビンによって制約され、および/またはそうでない場合、見えなくなる場合がある。したがって、変換されたビデオ画像4342の倍率調整は、車両4000のキャビンの中にいる運転者4010の検出可能な動作範囲に一部左右され得る。運転者4010が、充分な確実性を持って所定の時間内に見つからない場合、ミラー4320は、デフォルトで、各ディスプレイ4340の較正された中心点に対応する、変換されたビデオ画像4342を表示してもよい。 The operating range of the driver 4010 can be used to scale the speed at which the converted video image 4342 is panned and / or scaled. In addition, the operating range may be constrained by the cabin of the vehicle 4000 and / or otherwise invisible. Therefore, the magnification adjustment of the converted video image 4342 may be partially dependent on the detectable range of motion of the driver 4010 in the cabin of the vehicle 4000. If the driver 4010 is not found with sufficient certainty within a given time, the mirror 4320 displays, by default, a converted video image 4342 corresponding to the calibrated center point of each display 4340. You may.

関節ジョイントを持つ反応システム
反応システム4300はまた、運転者4010の挙動に一部基づいて、車両4000の物理的な構成を変更する、関節ジョイントを含んでもよい。例えば、関節ジョイントは、車両4000の車輪とシャーシとの間の距離を調整する、車両4000上のアクティブサスペンションシステムの一部であってもよい。車両4000は、各車輪が車高を変更し、および/または車両4000を傾けるための、独立して制御される複数の関節ジョイントを含み得る。別の例では、関節ジョイントによって、車体4100の形態および/または形状を変更してもよい。これは、トラックの荷台を作動させる、関節ジョイントを含む場合がある。
Reaction system with joints The reaction system 4300 may also include joints that modify the physical configuration of the vehicle 4000 based in part on the behavior of the driver 4010. For example, the joints may be part of an active suspension system on the vehicle 4000 that adjusts the distance between the wheels of the vehicle 4000 and the chassis. The vehicle 4000 may include multiple independently controlled joint joints for each wheel to change vehicle height and / or tilt the vehicle 4000. In another example, the shape and / or shape of the vehicle body 4100 may be changed by joints. This may include joint joints that actuate the truck bed.

加えて、関節ジョイントによって、車体4100のさまざまな部位を曲げ、および/またはそうでなければ、ねじ曲げてもよい(図7A~7Eの例示的な車輛4000を参照)。例えば、一つ以上の関節ジョイントおよび/または他のアクチュエータによって、車両自体ではなく、ペイロード支持機構を作動させ得る。例えば、これらのアクチュエータは、座席の位置およびリクライニング角度を調整して、車両を必ずしも関節でつなぐことなく、特に個々の運転者のために快適さおよび/または可視性を最大化し得る。座席調整は、運転者が車両に入った直後に、または運転者が車両に入ることを見越して行うことができる。後に起こる座席部分およびリクライニング角度の調整は、運転者が時間の経過とともに落ち着いたとき、車両が移動している間に行われ得る。こうしたシナリオでは、車両を関節でつなぐのは、非効率または安全ではない場合がある。 In addition, joints may bend various parts of the vehicle body 4100 and / or otherwise twist (see exemplary vehicle 4000 in FIGS. 7A-7E). For example, one or more joint joints and / or other actuators may actuate the payload support mechanism rather than the vehicle itself. For example, these actuators can adjust the seat position and reclining angle to maximize comfort and / or visibility, especially for individual drivers, without necessarily articulating the vehicle. Seat adjustments can be made immediately after the driver enters the vehicle or in anticipation of the driver entering the vehicle. Subsequent adjustments to the seating area and reclining angle can be made while the vehicle is in motion as the driver calms down over time. In these scenarios, articulating the vehicle may not be inefficient or safe.

車両の車体4100の両方の関節接合、およびそのサスペンションの作動によって、車両4000の性能および/または動作に対して、特定の望ましい特性を各々が提供する、いくつかの構成が可能になり得る。車両4000は、センサ4200によって測定されるような、運転者4010の位置および/または配向の変化に基づいて、これらの構成間を能動的に移行するように構成されてもよい。一部の事例では、運転者4010による明示的な入力(例えば、ウィンカーの起動、窓の下降)および運転者の挙動の組み合わせによって、車両4000の関節ジョイントの応答を制御し得る。 Both articulations of the vehicle body 4100, and the actuation of its suspension, may allow for several configurations, each of which provides certain desirable characteristics for the performance and / or operation of the vehicle 4000. The vehicle 4000 may be configured to actively transition between these configurations based on changes in the position and / or orientation of the driver 4010 as measured by the sensor 4200. In some cases, a combination of explicit inputs by the driver 4010 (eg, turn signal activation, window descent) and driver behavior may control the response of the vehicle 4000's joint joints.

例えば、車両4000は、車両4000の高さが、道路のより近くにまで下降する、低い外形構成をサポートしてもよい(図7Dを参照)。低い構成で、車両4000の抗力係数および/または前面区域を減少させることによって、空力性能を向上させ得る。また、低い外形構成によって、車両4000のホイールベースが増加し、および/または重心が下がってもよく、これによって、より大きな安定性およびより速いコーナリング速度を提供することで、運転性能が改善する。プロセッサ4400は、運転者4010が車両4000の運転に集中している(例えば、眼の基準点は、運転者4010が車両4000の真正面にある周囲に集中していることを示す)、および/または高速で運転している(例えば、高速道路上)と判定すると、プロセッサ4400によって、車両4000を低い外形構成に移行および/または維持し得る。 For example, the vehicle 4000 may support a low contour configuration in which the height of the vehicle 4000 descends closer to the road (see FIG. 7D). With lower configurations, aerodynamic performance can be improved by reducing the drag coefficient and / or front area of the vehicle 4000. Also, the lower profile configuration may increase the wheelbase of the vehicle 4000 and / or lower the center of gravity, which improves driving performance by providing greater stability and faster cornering speeds. The processor 4400 concentrates the driver 4010 on driving the vehicle 4000 (eg, the reference point of the eye indicates that the driver 4010 is concentrated on the perimeter directly in front of the vehicle 4000) and / or. Determining that the vehicle is driving at high speed (eg, on a highway), the processor 4400 may shift and / or maintain the vehicle 4000 to a lower contour configuration.

別の例では、車両4000は、車両4000の高さが道路の上方へ持ち上がる、高い外形構成をサポートしてもよい(図7Eを参照)。高い外形構成は、車両4000の進入および/または退出を支援するように使用され得る。関節座席機構と組み合わせた場合、座席(またはより広くは、積み荷台)は、運転者4010(例えば、労働者、ロボット式自動装置)が、車両4000に格納されたペイロードにアクセスするのに適した高さで提示され得る。また上昇位置では、周囲環境を監視するように、運転者4010のFOVが増大し、および/または車両4000上に配置された任意のセンサが増加し、それによって状況認識を増大させ得る。運転者4010のFOVが、環境の中にある障害物(例えば、別の車両、障壁、人)によって遮断されたとき、および/またはプロセッサ4400によって、運転者4010が障害物の周りを積極的に見ようと試みている(例えば、眼の基準点は、運転者の頭部が障害物を見渡すように上方を向いていることを示す)と判定したときに、プロセッサ4400によって、車両4000を高い外形構成に移行および/または維持し得る。 In another example, the vehicle 4000 may support a high contour configuration in which the height of the vehicle 4000 is lifted above the road (see FIG. 7E). The high contour configuration can be used to assist the entry and / or exit of the vehicle 4000. When combined with an articulated seat mechanism, the seat (or more broadly, the loading platform) is suitable for the driver 4010 (eg, a worker, a robotic automated device) to access the payload stored in the vehicle 4000. Can be presented at height. Also in the ascending position, the FOV of the driver 4010 may be increased and / or any sensor placed on the vehicle 4000 may be increased to monitor the surrounding environment, thereby increasing situational awareness. When the FOV of the driver 4010 is blocked by an obstacle in the environment (eg, another vehicle, barrier, person) and / or by the processor 4400, the driver 4010 actively around the obstacle. When it is determined that it is trying to see (for example, the reference point of the eye indicates that the driver's head is pointing upwards overlooking the obstacle), the processor 4400 makes the vehicle 4000 a high profile. Can be migrated and / or maintained to the configuration.

車両4000はまた、前述の低い外形構成と高い外形構成との間の中間状態として画定されてもよい、中間外形構成をサポートしてもよい。したがって、中間外形構成によって、低い外形特性と高い外形特性との混合を提供し得る。例えば、中間外形構成によって、動的性能を改善するために低重心を維持しながら、運転者4010により良好な可視性を提供し得る。この構成は、都市環境で車両4000を運転するとき、および/または他の車両もしくは装置と相互作用するときに遭遇する、多数のシナリオを受け入れるために使用され得る。 The vehicle 4000 may also support an intermediate external configuration, which may be defined as an intermediate state between the low and high external configurations described above. Therefore, an intermediate external configuration can provide a mixture of low external characteristics and high external characteristics. For example, an intermediate contour configuration may provide better visibility to the driver 4010 while maintaining a low center of gravity to improve dynamic performance. This configuration can be used to accept a number of scenarios encountered when driving a vehicle 4000 in an urban environment and / or interacting with other vehicles or devices.

中間外形構成のさまざまな使用事例には、限定するものではないが、郵便ポスト、自動現金預払機(ATM)、ドライブスルー窓口、および道路の脇に立っている別の人(例えば、隣人または自転車に乗った人)との相互作用を容易にするために、車高を調整することが含まれる。車両4000が、積み荷を(おそらくは自律的に)輸送するために使用される場合、中間状態によって、送達および/または搬出口、ロボット、および人とのより優れた人間工学的ならびに機械的相互作用が可能になる。これらの使用事例には、運転者4010(または積み荷)の予測可能な動きを伴い得る。例えば、運転者4010は、窓を下げ、自身の手を突き出して、環境の中にある物体または人と相互作用してもよい。窓が下がっていることを、センサ4200が検出し、プロセッサ4400によって、運転者4010が自身の手を突き出していると判定される場合、プロセッサ4400は、運転席側の窓近くで検出された物体の高さに合わせて、車両4000の高さを調整し得る。 Various use cases for intermediate profile configurations include, but are not limited to, mailboxes, automated teller machines (ATMs), drive-through counters, and other people standing by the side of the road (eg, neighbors or bicycles). Includes adjusting the ride height to facilitate interaction with the rider). When the vehicle 4000 is used to transport (possibly autonomously) cargo, intermediate conditions provide better ergonomic and mechanical interactions with delivery and / or outlets, robots, and humans. It will be possible. These use cases may be accompanied by predictable movement of the driver 4010 (or cargo). For example, the driver 4010 may lower the window and stick out his hand to interact with an object or person in the environment. If the sensor 4200 detects that the window is down and the processor 4400 determines that the driver 4010 is sticking out his hand, the processor 4400 is an object detected near the window on the driver's side. The height of the vehicle 4000 can be adjusted according to the height of the vehicle.

図7A~7Eは、関節ジョイント106(関節機構とも呼ばれる)、変形部123、およびペイロード2000(例えば、運転手、乗客、積み荷)を支持するための、ペイロード位置決めジョイント2100(ペイロード位置決め機構とも呼ばれる)を組み込む、車両4000を示す。この例では、車両4000は後輪操舵の三輪電気車両である。関節ジョイント106によって、車両4000が、車両4000の長さに沿って、中間位置を関節でつなぐか、または中間位置の周りで曲がることが可能になり、そのため車両4000が再構成される。 7A-7E show the payload positioning joint 2100 (also referred to as the payload positioning mechanism) for supporting the joint joint 106 (also referred to as the joint mechanism), the deformed portion 123, and the payload 2000 (eg, driver, passenger, cargo). Incorporates a vehicle 4000. In this example, vehicle 4000 is a rear-wheel steered three-wheel electric vehicle. The joint joint 106 allows the vehicle 4000 to be articulated or bent around the intermediate position along the length of the vehicle 4000, thus reconstructing the vehicle 4000.

車両4000の関節接合範囲は、二つの特徴的な構成、(1)図7A、7B、7Dに示すように、ホイールベースが拡大し、運転手が地面近くにくる低い外形構成、ならびに(2)図7Eに示すように、運転手が、地面上方の上昇位置に置かれる高い外形構成によって画定され得る。車両4000を関節接合して、低い外形構成と高い外形構成との間のいかなる構成にもなり得る。一部の事例では、関節ジョイント106によって、車両4000の構成を飛び飛びの数に制限し得る。これは、関節ジョイント106に対する、より単純な設計および/または低電力設計が好ましい例で、望ましい場合がある。 The joint range of the vehicle 4000 has two distinctive configurations: (1) a low external configuration with an expanded wheelbase and the driver close to the ground, as shown in FIGS. 7A, 7B, 7D, and (2). As shown in FIG. 7E, the driver may be defined by a high contour configuration placed in an elevated position above the ground. The vehicle 4000 can be articulated into any configuration between low and high contour configurations. In some cases, the joint joint 106 may limit the configuration of the vehicle 4000 to the number of jumps. This is a preferred example, where a simpler design and / or a lower power design for the joint 106 is preferred and may be desirable.

車両4000は、関節ジョイント106によって共に結合される、車両前部102および尾部104にさらに分割されてもよい。前部102は、限定するものではないが、ユニボディ、モノコックフレーム/シェル、スペースフレーム、およびフレーム形式構造(例えば、シャーシ上に取り付けられた車体)を含む、さまざまなタイプの車両支持構造であってもよい、車体108を含んでもよい。図7A~7Eでは、車体108は、モノコックフレームとして示されている。車体108は、取り外し可能なサイドパネル(または車輪フェアリング)116、固定された側窓125、車両4000に結合された透明な天蓋110、および平行な構成で配設され、下にある車体108上に取り付けられた二つの前輪112を含み得る。尾部104は、後部外殻121、後面ガラス124、および操舵可能な車輪126を含み得る。変形部123は、前部102と尾部104との間に結合されて、さまざまな構成で滑らかで連続的な室外表面を車両4000の下に維持してもよい。図7Dおよび7Eでは、後部外殻121および後面ガラス124が、少なくとも関節ジョイント106に関係する、下にある構成要素が見えるように取り外されている。 The vehicle 4000 may be further subdivided into a vehicle front 102 and a tail 104 that are joined together by a joint joint 106. The front 102 is a vehicle support structure of various types, including, but not limited to, a unibody, a monocoque frame / shell, a space frame, and a frame-type structure (eg, a vehicle body mounted on the chassis). It may include the vehicle body 108. In FIGS. 7A-7E, the vehicle body 108 is shown as a monocoque frame. The vehicle body 108 is arranged on a removable side panel (or wheel fairing) 116, a fixed side window 125, a transparent canopy 110 coupled to the vehicle 4000, and a parallel configuration on the vehicle body 108 below. It may include two front wheels 112 mounted on the. The tail 104 may include a rear shell 121, rear glass 124, and steerable wheels 126. The deformed portion 123 may be coupled between the front portion 102 and the tail portion 104 to maintain a smooth and continuous outdoor surface under the vehicle 4000 in various configurations. In FIGS. 7D and 7E, the rear shell 121 and the rear glass 124 have been removed so that the underlying components associated with at least the joint joint 106 are visible.

天蓋110は、天蓋110を開閉することが可能になるように、ヒンジ付きの配置によって車体108に結合され得る。ペイロード2000が運転手である場合、天蓋110には、図7Eの高い外形構成にあるときに、車両4000の上面に向けてヒンジが付いていてもよく、そのため、運転手が、二つの前輪112の間で、車両4000の中におよび/または車両4000から外へ踏み出すことによって、車両4000に出入りしてもよい。 The canopy 110 can be coupled to the vehicle body 108 by a hinged arrangement so that the canopy 110 can be opened and closed. If the payload 2000 is the driver, the canopy 110 may be hinged towards the top surface of the vehicle 4000 when in the high external configuration of FIG. 7E, so that the driver has two front wheels 112. In between, you may enter and exit the vehicle 4000 by stepping into and / or out of the vehicle 4000.

前輪112は、電気ハブモータによって電力供給されてもよい。後輪126もまた、電気ハブモータによって電力供給されてもよい。一部の例示的な電気モータは、2014年6月14日に発行され、「Rotary Drive with Two Degrees of Movement」と題する米国特許第8,742,633号、ならびに 「Guided Multi-Bar Linkage Electric Drive System」と題する米国特許公開第2018/0072125号に見出すことができ、それら両方が、参照によりそれら全体が本明細書に組み込まれる。 The front wheels 112 may be powered by an electric hub motor. The rear wheels 126 may also be powered by an electric hub motor. Some exemplary electric motors were published on June 14, 2014, and are entitled "Rotary Drive with Two Degrees of Movement," US Pat. No. 8,742,633, as well as "Guided Multi-Bar Linkage Electroc." It can be found in US Patent Publication No. 2018/0072125 entitled "System", both of which are incorporated herein by reference in their entirety.

車両前部102の後部表面は、尾部104が、関節ジョイント106を介して前部102に対して移動するにつれて、後部外殻121内で入れ子になり、尾部104の後部外殻121と車両前部102の後部表面との間の間隙が、小さいままであるように形成され得る。示すように、関節ジョイント106によって、回転軸111を中心に前部102に対して尾部104を回転させることによって、車両4000を再構成し得る。図7B、7C、および7Eでは、回転軸111は、車両4000を二等分する平面と垂直である。平面は、(1)車両4000の長手方向軸(例えば、車体108の最前部分と、後部外殻121の最後部分を横切る軸)と、(2)車両4000がこのように載っている水平表面に垂直な縦軸とを収容するように画定され得る。 The rear surface of the vehicle front 102 is nested within the rear shell 121 as the tail 104 moves relative to the front 102 via the joint 106, with the rear shell 121 of the tail 104 and the vehicle front. The gap between the 102's posterior surface can be formed to remain small. As shown, the vehicle 4000 may be reconstructed by rotating the tail 104 with respect to the front 102 about the axis of rotation 111 by means of a joint 106. In FIGS. 7B, 7C, and 7E, the axis of rotation 111 is perpendicular to the plane that bisects the vehicle 4000. The planes are (1) the longitudinal axis of the vehicle 4000 (eg, the axis that crosses the front portion of the vehicle body 108 and the rearmost portion of the rear outer shell 121) and (2) the horizontal surface on which the vehicle 4000 rests in this way. It can be defined to accommodate a vertical vertical axis.

関節ジョイント106は、関節ジョイント106の関節動作輪郭を決定する、ガイド構造107(ガイド機構とも呼ばれる)を含み得る。図7A~7Eに示す例示的な車輛4000では、ガイド構造107は、前部102に結合された軌道システムと、尾部104に結合されたリフトブラケット538を含み得る。あるいは、軌道システム536は尾部104に結合されていてもよく、リフトブラケット538は前部102に結合されていてもよい。リフトブラケット538は、軌道システム536によって画定される経路に沿って移動してもよく、それによって、車両4000に構成を変更させる。関節ジョイント106はまた、軌道システム536に沿ってリフトブラケット538を所望の構成に移動させる、駆動アクチュエータ540(駆動機構とも呼ばれる)を含んでもよい。駆動アクチュエータ540は、電気的に制御可能であってもよい。関節ジョイント106はまた、軌道システム536に沿った特定の位置に、リフトブラケット538を保持するためのブレーキ1168を含んでもよく、それゆえ、車両4000が所望の構成を維持することが可能になる。 The joint joint 106 may include a guide structure 107 (also referred to as a guide mechanism) that determines the joint motion contour of the joint joint 106. In the exemplary vehicle 4000 shown in FIGS. 7A-7E, the guide structure 107 may include a track system coupled to the front 102 and a lift bracket 538 coupled to the tail 104. Alternatively, the track system 536 may be coupled to the tail 104 and the lift bracket 538 may be coupled to the front 102. The lift bracket 538 may travel along a path defined by the track system 536, thereby causing the vehicle 4000 to change configuration. The joint joint 106 may also include a drive actuator 540 (also referred to as a drive mechanism) that moves the lift bracket 538 to the desired configuration along the trajectory system 536. The drive actuator 540 may be electrically controllable. The joint joint 106 may also include a brake 1168 to hold the lift bracket 538 in a particular position along the track system 536, thus allowing the vehicle 4000 to maintain the desired configuration.

車体108はまた、その中にペイロード位置決めジョイント2100を収容してもよい。ペイロード位置決めジョイント2100によって、車両4000の構成の関数として、ペイロード2000を好ましい配向に合わせてもよい。関節ジョイント106が車両4000の構成を変更すると、ペイロード位置決めジョイント2100によって、車両4000(特に前部102)に対するペイロード2000の配向が同時に再構成され得る。例えば、ペイロード位置決めジョイント2100は、車両4000が、低い外形構成から高い外形構成に移行するときに、運転手が自身の頭部を再度位置付ける必要がないように、地面に対して好ましい運転手の配向を維持するように使用され得る。別の例では、ペイロード位置決めジョイント2100は、車両4000が関節接合するときの、小包内に収容された物体への損傷の可能性を低減するために、小包の好ましい配向を維持するように使用され得る。 The vehicle body 108 may also accommodate the payload positioning joint 2100 therein. The payload positioning joint 2100 may align the payload 2000 in a preferred orientation as a function of the configuration of the vehicle 4000. If the joint joint 106 modifies the configuration of the vehicle 4000, the payload positioning joint 2100 may simultaneously reorient the payload 2000 with respect to the vehicle 4000 (particularly the front 102). For example, the payload positioning joint 2100 provides a preferred driver orientation with respect to the ground so that the driver does not have to reposition his head when the vehicle 4000 transitions from a low profile to a high profile. Can be used to maintain. In another example, the payload positioning joint 2100 is used to maintain the preferred orientation of the parcel to reduce the potential for damage to the objects contained within the parcel when the vehicle 4000 is articulated. obtain.

図7A~7Eに示す車両4000は、関節ジョイント106、変形部123、およびペイロード位置決めジョイント2100の一つの例示的な実装である。関節ジョイント106、変形部123、およびペイロード位置決めジョイント2100のさまざまな設計について、それぞれ車両4000を参照して論じる。しかしながら、関節ジョイント106、変形部123、およびペイロード位置決めジョイント2100は、別々にまたは組み合わせてのいずれかで、他の車輛構造に実装されてもよい。 The vehicle 4000 shown in FIGS. 7A-7E is an exemplary implementation of the joint joint 106, the deformed portion 123, and the payload positioning joint 2100. Various designs of the joint joint 106, the deformed portion 123, and the payload positioning joint 2100 will be discussed with reference to the vehicle 4000, respectively. However, the joint joint 106, the deformed portion 123, and the payload positioning joint 2100 may be mounted on other vehicle structures either separately or in combination.

図7A~7Eの多関節車両4000は、車両4000の構成を変更するために、尾部104が前部102に対して回転する、単一の関節接合DOF(すなわち、回転軸111)を有するように示している。このトポロジーは、特に周囲環境(例えば、コンパクトな/自走式立体駐車場、小空間での操縦性、低速視認性、高速空力形態)との中間およびエンドポイントの相互作用を考慮する場合に、都市環境および高速道路の両方を走行する一人の通勤者または乗客にとって好ましい場合がある。前述のトポロジーおよび使用事例のサポートをする、さまざまなメカニズムは、より広くは、より広範な車両、車隊構成、および/または他のトポロジーに適用され得る。 The articulated vehicle 4000 of FIGS. 7A-7E has a single articulated DOF (ie, axis of rotation 111) such that the tail 104 rotates with respect to the front 102 to modify the configuration of the vehicle 4000. Shows. This topology takes into account intermediate and endpoint interactions, especially with the surrounding environment (eg, compact / self-propelled multi-storey car parks, small space maneuverability, low speed visibility, high speed aerodynamics). It may be preferable for a single commuter or passenger traveling in both urban environments and highways. Various mechanisms that support the above topologies and use cases may be broadly applied to a wider range of vehicles, fleet configurations, and / or other topologies.

例えば、車両4000は、各々関節でつながれ得る、一つ以上のDOFをサポートし得る。関節接合は軸の周りで発生し、回転動作をもたらし、それゆえ、図7A~7Eの回転軸111など、回転DOFを提供してもよい。関節接合はまた、軸に沿って発生し、並進動作、およびそれゆえ並進DOFをもたらしてもよい。本明細書に記載する、さまざまな機構(例えば、関節ジョイント106、ペイロード位置決めジョイント2100)はまた、一つ以上のDOFに沿った動作を制約するようにも使用され得る。例えば、関節ジョイント106によって経路を画定してもよく、車両4000の構成要素が、その経路に沿って移動する(例えば、リフトブラケット538は、軌道システム536によって画定される経路に沿って移動するように制約される)。また、関節ジョイント106によって、経路に沿った動作範囲を画定してもよい。これは一部、関節ジョイント106によって達成されてもよく、厳しい公差を使用して組み立てられ、および/または外力を介して接触するように押し付けられる、高強度ならびに高剛性の構成要素の組み合わせを使用して、所望のDOFに沿った小さい力での入力によって誘導される、滑らかな動作を提供すると同時に、他のDOFに沿った機械的制約を提供する。 For example, the vehicle 4000 may support one or more DOFs, each of which may be articulated. The articulation occurs around the axis and results in a rotational movement, and therefore a rotating DOF, such as the rotating shaft 111 of FIGS. 7A-7E, may be provided. Articulation may also occur along the axis and result in translational motion and hence translational DOF. The various mechanisms described herein (eg, joint joint 106, payload positioning joint 2100) can also be used to constrain movement along one or more DOFs. For example, the path may be demarcated by a joint 106 so that the components of the vehicle 4000 move along that path (eg, the lift bracket 538 moves along the path defined by the track system 536. Constraints on). Further, the range of motion along the path may be defined by the joint joint 106. This may be achieved in part by the joint joint 106, using a combination of high-strength and high-rigidity components that are assembled using tight tolerances and / or pressed into contact through external forces. It provides a smooth motion, induced by a small force input along the desired DOF, while at the same time providing mechanical constraints along the other DOFs.

本明細書に記載する機構によって、関節ジョイント106上に物理的に位置付けられ得る、もしくは位置付けられえない、軸または点(例えば、遠隔動心)に対する動作を画定し得る。例えば、図7A~7Eに示す関節ジョイント106によって、リフトブラケット538および軌道システム536とは別個に位置する、車体108の室内区画を横切る、回転軸111の周りに回転動作を引き起こす。別の例では、ペイロード位置決めジョイント2100は、プラットフォーム(例えば、運転席)の並進動作を画定する、一つ以上のレール2112を有してもよい。 The mechanisms described herein can define movements with respect to an axis or point (eg, a remote center of motion) that may or may not be physically positioned on the joint joint 106. For example, the joint joint 106 shown in FIGS. 7A-7E causes a rotational motion around a rotating shaft 111 across the interior compartment of the vehicle body 108, located separately from the lift bracket 538 and the track system 536. In another example, the payload positioning joint 2100 may have one or more rails 2112 that define the translational movement of the platform (eg, driver's seat).

加えて、各DOFに沿った動作はまた、独立して制御可能であってもよい。例えば、車両4000の各所望のDOFは、別個の対応する関節ジョイント106を有してもよい。各関節ジョイント106の駆動システムによって、他のDOFとは独立して、各DOFに沿った動作を誘導し得る。図7A~7Eに関して、回転軸111の周りに回転を引き起こす関節ジョイント106は、車両4000でサポートされる他のDOFに依存しない場合がある。 In addition, the operation along each DOF may also be independently controllable. For example, each desired DOF of the vehicle 4000 may have a separate corresponding joint joint 106. The drive system of each joint 106 can induce movement along each DOF independently of the other DOFs. For FIGS. 7A-7E, the joint joint 106 that causes rotation around the axis of rotation 111 may be independent of other DOFs supported by the vehicle 4000.

ただし、一部の事例では、車両4000の一つのDOFに沿った関節接合は、車両4000の別のDOFに依存し得る。例えば、車両4000の一つ以上の構成要素は、関節接合されている他方の構成要素に応じて、別の構成要素に対して移動し得る。この依存性は、複数のDOFを機械的に結合することによって達成され得る(例えば、一つの関節ジョイント106は、単一の駆動アクチュエータ540によって、両方の関節ジョイント106を連続的にまたは同時に作動させ得るように、別の関節ジョイント106に機械的に連結される)。別のアプローチは、別個の駆動アクチュエータ540を共に連結することによって、別個のDOFを電子的に結合することである。例えば、車両4000が再構成されると、運転手が好ましい配向を維持するように、関節ジョイント106が車両4000を再構成するのに応じて、ペイロード位置決めジョイント2100によって、車載モータを使用して運転席を作動させ得る。 However, in some cases, the articulation along one DOF of the vehicle 4000 may depend on another DOF of the vehicle 4000. For example, one or more components of the vehicle 4000 may move relative to another component depending on the other component that is articulated. This dependence can be achieved by mechanically coupling multiple DOFs (eg, one joint 106 has both joints 106 actuated continuously or simultaneously by a single drive actuator 540). Mechanically coupled to another joint 106 to obtain). Another approach is to electronically couple separate DOFs by connecting separate drive actuators 540 together. For example, when the vehicle 4000 is reconfigured, the payload positioning joint 2100 drives using an in-vehicle motor in response to the joint joint 106 reconstructing the vehicle 4000 so that the driver maintains the preferred orientation. The seat can be activated.

関節ジョイント106は、概して、動作輪郭、したがって関節ジョイント106の関節DOFを画定する、ガイド構造107を含んでもよい。ガイド構造107は、互いに対して移動する、二つの基準点を含み得る。第一の基準点は、車両4000の一つの構成要素に結合されてもよく、第二の基準点は、車両4000の別の構成要素に結合されてもよい。例えば、前部102は、ガイド構造107の第一の基準点に結合されてもよく、尾部104は、前部102が尾部104に対して関節でつながるように、ガイド構造107の第二の基準点に結合されてもよい。 The joint joint 106 may generally include a guide structure 107 that defines the motion contour and thus the joint DOF of the joint joint 106. The guide structure 107 may include two reference points that move relative to each other. The first reference point may be coupled to one component of the vehicle 4000 and the second reference point may be coupled to another component of the vehicle 4000. For example, the anterior portion 102 may be coupled to a first reference point of the guide structure 107, and the tail 104 may be a second reference of the guide structure 107 such that the anterior portion 102 is articulated to the tail 104. It may be connected to a point.

一態様では、ガイド構造107によって、関節ジョイント106自体と物理的に共には位置しない、軸および/または点の周りに関節接合を提供してもよい。例えば、関節ジョイント106は、遠隔動作中心(RCM)機構であってもよい。RCM機構は、移動する機構と同じ場所に、物理的回転ジョイントを有さないと定義される。こうしたRCM機構を使用して、例えば、ペイロード2000が位置する、車体108の室内キャビンなど、車両4000の他の点で不都合な部分、または例えば、ステアリングアセンブリ、バッテリーパック、もしくは電子機器が存在する車両サブシステムに位置する、回転ジョイントを提供し得る。 In one aspect, the guide structure 107 may provide a joint joint around an axis and / or a point that is not physically located together with the joint joint 106 itself. For example, the joint joint 106 may be an action at a distance (RCM) mechanism. The RCM mechanism is defined as having no physical rotary joint in the same place as the moving mechanism. Using such an RCM mechanism, a vehicle in which a otherwise inconvenient part of the vehicle 4000, such as the interior cabin of the vehicle body 108, where the payload 2000 is located, or, for example, a steering assembly, a battery pack, or an electronic device is present. It may provide a rotating joint located in a subsystem.

以下に、RCM機構としての関節ジョイント106の、いくつかの例について記載する。しかしながら、関節ジョイント106は、DOFが画定される軸または点が、関節ジョイント106の構成要素と共に物理的に位置し得る、RCM機構ではない場合がある。 The following describes some examples of the joint joint 106 as an RCM mechanism. However, the joint 106 may not be an RCM mechanism in which the axis or point at which the DOF is defined may be physically located with the components of the joint 106.

一実施例では、ガイド構造107は、車台軌道タイプの機構であってもよい。図7A~図7Eに示される関節ジョイント106は、このタイプの機構の一例である。ガイド構造107は、図8A~図8Gにさらなる詳細が示される、車台および軌道システム536を含み得る。図8Aに示す通り、軌道システム536は、前部102に取り付けられ得る。車台538は、尾部104の一部であり得る。図8Eおよび図8Fに示す通り、車台538は、軌道システム536によって画定される垂直に配向された湾曲経路に沿ってライドし得る。駆動アクチュエータ540は、車台538上に取り付けられて、電気制御下で軌道システム536に沿って車台538を機械的に移動させ得る。 In one embodiment, the guide structure 107 may be an chassis track type mechanism. The joint joint 106 shown in FIGS. 7A-7E is an example of this type of mechanism. The guide structure 107 may include an chassis and track system 536, further detailed in FIGS. 8A-8G. As shown in FIG. 8A, the track system 536 can be attached to the front 102. The chassis 538 can be part of the tail 104. As shown in FIGS. 8E and 8F, the chassis 538 may ride along a vertically oriented curved path defined by the track system 536. The drive actuator 540 may be mounted on the chassis 538 to mechanically move the chassis 538 along the track system 536 under electrical control.

軌道システム536は、互いに平行に走り、両方が前部車両部102の裏面に連結されている二つの湾曲レール642を含み得る。湾曲レール642は、設計において類似し得る。車体108は、レール642が取り付けられる裏面を形成する凸状に湾曲した裏面(すなわち、後方から前部車両部102を見ると凸状)を有する、成形された剛性のカーボンファイバーシェルから作製され得る。レール642が取り付けられ、それらが適合する裏面領域は、軸が回転軸111に対応する円筒形の表面のセグメントを表す。言い換えれば、レール642は、車台538が移動する領域を通して一定の曲率半径を有し得る。レール642が延在する弧は、約90°~約120°であり得る。 The track system 536 may include two curved rails 642 that run parallel to each other and are both connected to the back surface of the front vehicle section 102. The curved rail 642 may be similar in design. The vehicle body 108 can be made from a molded rigid carbon fiber shell having a convexly curved back surface (ie, convex when viewed from the rear when looking at the front vehicle portion 102) forming the back surface to which the rail 642 is attached. .. The back surface area to which the rails 642 are attached and to which they fit represents a segment of the cylindrical surface whose axis corresponds to the axis of rotation 111. In other words, the rail 642 may have a constant radius of curvature through the region in which the chassis 538 moves. The arc on which the rail 642 extends can be from about 90 ° to about 120 °.

各レール642はまた、レール642の長さの一部分にわたる凹部643を含み得る。凹部643は、それを通してボルト(図示せず)がレール642をカーボンファイバーシェル108に取り付けることができる一つ以上の穴Zを含み得る。各レール642は、台形の狭い側が、それが取り付けられる前方本体シェル108に近接するレール642の底側上、かつ台形のより広い側がレール642の上側上にある、形状が実質的に二等辺台形である断面を有し得る。レール642は、酸化、カーボンファイバー、ファイバーグラス、硬質プラスチック、および硬化鋼を低減するために、アルミニウム、ハードコートアルミニウム(例えば、窒化チタンを含む)を含むがこれに限定されない、任意の適切な材料で作製され得る。 Each rail 642 may also include a recess 643 that spans a portion of the length of the rail 642. The recess 643 may include one or more holes Z through which bolts (not shown) can attach the rail 642 to the carbon fiber shell 108. Each rail 642 is substantially isosceles in shape, with the narrow side of the trapezoid on the bottom side of the rail 642 close to the front body shell 108 to which it is mounted, and the wider side of the trapezoid on the upper side of the rail 642. Can have a cross section that is Rail 642 is any suitable material including, but not limited to, aluminum, hard coated aluminum (including, for example, titanium nitride) to reduce oxidation, carbon fiber, fiberglass, hard plastics, and hardened steel. Can be made in.

図8Aおよび図8Eに示す車台538は、車両4000の尾部104を支持する。尾部104は、さらに、リアシェル121、ステアリング機構200、および車輪アセンブリー201を含み得る。車台538は、一つ以上の軸受を使用して、軌道システム536に連結され得る。図8Gに示す通り、二つの軸受644が各レール642に使用される。各軸受644は、上部プレート645および上部プレート645に固定された二つの先細側壁646の三つの部品のアセンブリーを含み得る。組み立てられた軸受644は、使用中に動きを容易にするためにレール642よりもわずかに大きい寸法とし得る、レール642(例えば、二等辺台形)に実質的に類似した断面を有する開口部を画定し得る。示す通り、軸受644は、したがって、レール642に結合されて、軸受644の内側側壁がレール642の先細の外側側壁と接触し得る、「湾曲ダブテール」配置を形成し得る。軸受644は、回転軸111の周りの回転運動によって画定される所望のDOF以外の任意の他のDOFに沿って、レール642から分離されない場合がある。図8Gは、図示の目的で、軸受644とレール642との間の公差の誇張された表現を示す。公差は、実際には、図示よりも実質的に小さくあり得る。プレート645および側壁646は、湾曲レール642に適合するように湾曲し得る。 The chassis 538 shown in FIGS. 8A and 8E supports the tail 104 of the vehicle 4000. The tail 104 may further include a rear shell 121, a steering mechanism 200, and a wheel assembly 201. The chassis 538 may be coupled to the track system 536 using one or more bearings. As shown in FIG. 8G, two bearings 644 are used for each rail 642. Each bearing 644 may include an assembly of three parts of an upper plate 645 and two tapered side walls 646 fixed to the upper plate 645. The assembled bearing 644 defines an opening having a cross section substantially similar to the rail 642 (eg, isosceles trapezoid), which may have dimensions slightly larger than the rail 642 to facilitate movement during use. Can be. As shown, the bearing 644 can therefore be coupled to the rail 642 to form a "curved dovetail" arrangement in which the inner sidewall of the bearing 644 can contact the tapered outer sidewall of the rail 642. The bearing 644 may not be separated from the rail 642 along any other DOF other than the desired DOF defined by rotational motion around the axis of rotation 111. FIG. 8G shows an exaggerated representation of the tolerance between the bearing 644 and the rail 642 for illustration purposes. Tolerances can actually be substantially smaller than shown. The plate 645 and side wall 646 may be curved to fit the curved rail 642.

一実施例では、軸受644は、軸受644の内側上面および側面が、レール642の上部および側壁表面に対してそれぞれ、取り付けられたときに摺動する、すべり軸受であってもよい。軸受644はまた、車台538の残りの部分を軌道システム536に連結する(例えば、ボルトを介して)上部プレートのねじ穴を含み得る。 In one embodiment, the bearing 644 may be a plain bearing in which the inner upper surface and side surfaces of the bearing 644 slide when attached to the upper and side wall surfaces of the rail 642, respectively. Bearings 644 may also include screw holes in the top plate (eg, via bolts) that connect the rest of the chassis 538 to the track system 536.

軸受644の長さ(例えば、レール642に平行な方向に沿って画定される長さ)は、軸受644の幅より大きくあり得る。幅に対する長さの比率は、軸受表面上の荷重の分布を調整し、軸受644とレール642との間の結合の可能性を低減するように調整され得る。例えば、比率は、約3~約1の範囲であり得る。軸受644はまた、低摩擦、高力、低摩耗の作業面(例えば、特にレール642に接触する表面)を有し得る。例えば、軸受644の作業面は、テフロンコーティング、グラファイトコーティング、潤滑剤、および研磨されたベアリング644および/またはレール642を含み得るが、これらに限定されない。さらに、複数の軸受644は、結合を低減し、剛性を増大させ、動きの範囲を増大させるために、約1~約1.6の範囲の長さと幅との比率を有する占有面積を有するように配置され得る。通常、より長い基部を有する軸受644は、より狭い動作範囲を有し得、一方、より狭い基部を有する軸受644は、より低い剛性を有し得、それゆえ、軸受644の長さは、動作範囲と剛性とのバランスを取るように選択され得、これはさらに、車両4000内へのサイズおよび/または配置など、軸受644に課される他の制約に依存し得る。 The length of the bearing 644 (eg, the length defined along the direction parallel to the rail 642) can be greater than the width of the bearing 644. The ratio of length to width can be adjusted to adjust the load distribution on the bearing surface and reduce the possibility of coupling between the bearing 644 and the rail 642. For example, the ratio can be in the range of about 3 to about 1. The bearing 644 may also have a low friction, high force, low wear working surface (eg, particularly a surface in contact with the rail 642). For example, the working surface of the bearing 644 may include, but is not limited to, a Teflon coating, a graphite coating, a lubricant, and a polished bearing 644 and / or rail 642. In addition, the plurality of bearings 644 should have an occupied area with a length-to-width ratio in the range of about 1 to about 1.6 in order to reduce coupling, increase stiffness and increase range of motion. Can be placed in. Generally, a bearing 644 with a longer base may have a narrower operating range, while a bearing 644 with a narrower base may have lower stiffness, therefore the length of the bearing 644 may operate. It may be chosen to balance range and stiffness, which may further depend on other constraints imposed on the bearing 644, such as size and / or placement within the vehicle 4000.

車台538はさらに、二つのフレーム部材539を含み得、各フレーム部材539は、対応するレール642と整列する。レール642に近接する車台538の側面上で、二つのクロスバー854および856を使用して、二つのフレーム部材539を互いに強固に接続し得る。軸受644は四つの取り付け点848a~dでフレーム部材539に取り付けられ得る。レール642から最も遠い車台538の側面上で、二つの支持バー851を使用して、車輪アセンブリー201およびステアリング機構200を支持し得る。二つの支持バー851は、別のクロスバー850によって一緒に接続され得る。 The chassis 538 may further include two frame members 539, each frame member 539 aligning with the corresponding rail 642. Two crossbars 854 and 856 may be used to tightly connect the two frame members 539 to each other on the sides of the chassis 538 close to rail 642. The bearing 644 may be attached to the frame member 539 at four attachment points 848a-d. Two support bars 851 may be used to support the wheel assembly 201 and steering mechanism 200 on the side surface of the chassis 538 farthest from rail 642. The two support bars 851 may be connected together by another crossbar 850.

上述の車台538および軌道システム536は、軌道タイプの関節ジョイント106の一例に過ぎない。他の例示的な関節ジョイント106は、単一のレールまたは二つ以上のレールを含み得る。上に示す通り、RCMは、ペイロード2000がその空間に侵入するいかなる構成要素および/または構造も有さず位置する、車両4000のキャビンに位置し得る。しかしながら、他の例示的な関節ジョイント106では、RCMは、関節ジョイント106上、車両サブシステム内(例えば、前部102内、尾部104内)、および車両4000の外側を含むがこれに限定されない、車両4000に対する他の場所に位置し得る。 The chassis 538 and track system 536 described above are just one example of a track type joint joint 106. Other exemplary joint joints 106 may include a single rail or two or more rails. As shown above, the RCM may be located in the cabin of vehicle 4000, where the payload 2000 is located without any components and / or structures that enter its space. However, in other exemplary joint joints 106, the RCM includes, but is not limited to, on the joint joint 106, within the vehicle subsystem (eg, within the front 102, within the tail 104), and outside the vehicle 4000. It may be located elsewhere with respect to the vehicle 4000.

上述のように、反応システム4300の関節ジョイントは、運転者のFOVなど、車両4000のいくつかの態様および/または特性を修正するために、車両4000の物理的な構成を変更し得る。しかしながら、一部の事例では、関節ジョイントは、車両4000が機械的に不安定になる程度に車両4000の物理的な構成を修正することが可能であり得、車両4000の制御を部分的または完全に喪失させ得る。車両4000を操作する際にこうした安定性の喪失を防止するために、反応システム4300は、関節ジョイントに制約を課す(例えば、作動範囲を限定し、作動速度を限定する)安定性制御ユニットを含み得る。 As mentioned above, the articulated joints of the reaction system 4300 may modify the physical configuration of the vehicle 4000 to modify some aspects and / or characteristics of the vehicle 4000, such as the driver's FOV. However, in some cases, the joints may be able to modify the physical configuration of the vehicle 4000 to the extent that the vehicle 4000 becomes mechanically unstable, partially or completely controlling the vehicle 4000. Can be lost. To prevent such loss of stability when operating the vehicle 4000, the reaction system 4300 includes a stability control unit that imposes constraints on the joint joints (eg, limits the range of motion and limits the speed of motion). obtain.

例えば、運転者4010は、後方視野ディスプレイの視野角を調整するためにレーンを変更するときに車両4000の一方の側に傾くことができ、それによって運転者4010は後方から車両が接近しているかどうかをチェックすることができる。運転者の動きに応じて、車両4000の関節ジョイントは、運転者4010が利用可能なFOVを増大させるために、車両4000を能動的に回転させ得る。しかし、プロセッサ4400によって命令されFOVを増強する回転の量は制限されるか、または一部の例では、車両安定性の喪失および/または車両4000の横転を防止するために、安定性制御ユニットに優先され得る。 For example, the driver 4010 can tilt to one side of the vehicle 4000 when changing lanes to adjust the viewing angle of the rear view display so that the driver 4010 is approaching the vehicle from behind. You can check if. In response to the driver's movements, the joints of the vehicle 4000 may actively rotate the vehicle 4000 in order to increase the FOV available to the driver 4010. However, the amount of rotation commanded by the processor 4400 to enhance the FOV is limited or, in some examples, to the stability control unit to prevent loss of vehicle stability and / or rollover of the vehicle 4000. Can be prioritized.

関節ジョイントに安定性制御ユニットによって課される制約は、車両4000の動作条件に基づいて変化し得る。例えば、安定性制御ユニットは、車両4000が低速(例えば、車線変更するときなど)で走行している時、高速時(例えば、回転ホイールのジャイロ安定化効果が、より大きな車両安定性をもたらす)と比較して、許容される回転の量により多くの制限を課し得る。このようにして、安定性制御ユニットは、車両安定性が影響を受ける場合、運転者の快適さを改善することを意図した関節ジョイントに対するアクチュエータコマンドを先制的にフィルタリングし得る。 The constraints imposed on the joint joint by the stability control unit can vary based on the operating conditions of the vehicle 4000. For example, the stability control unit may be used at high speeds (eg, the gyro stabilizing effect of a rotating wheel) when the vehicle 4000 is traveling at low speeds (eg, when changing lanes). Compared to, more restrictions may be imposed on the amount of rotation allowed. In this way, the stability control unit can preemptively filter actuator commands for joint joints intended to improve driver comfort when vehicle stability is affected.

図9は、反応システム4300における関節ジョイントを管理する例示的な制御システム5000を示す。示す通り、制御システム5000は、部分的には、運転者の行動に基づく挙動ベースのコマンドを生成する挙動制御サブシステム5200を含む。制御システム5000はまた、運転者4010、環境4500、および挙動制御サブシステム5200からの入力を受信し、関節ジョイントを含む車両4000の様々なアクチュエータを作動させるために使用される入力に基づいてコマンドを生成する、車両制御サブシステム5100を含み得る。 FIG. 9 shows an exemplary control system 5000 that manages joints in the reaction system 4300. As shown, the control system 5000 includes, in part, a behavior control subsystem 5200 that generates behavior-based commands based on the driver's behavior. The control system 5000 also receives inputs from the driver 4010, environment 4500, and behavior control subsystem 5200 and commands commands based on the inputs used to actuate the various actuators of the vehicle 4000, including articulated joints. It may include a vehicle control subsystem 5100 to generate.

車両制御サブシステム5100は、以前の車両制御システムと同様に動作し得る。例えば、サブシステム5100は、運転者4010(例えば、ステアリング入力、アクセル入力、ブレーキ入力)および環境4500(例えば、降水、温度)によるコマンドを受信し、車両の安定性を評価し、および/または実行前にコマンドを変更する。したがって、車両制御サブシステム5100は、挙動制御サブシステム5200によって拡張されているとみなされてもよく、これは、運転者の挙動に基づく車両4000の関節屈曲などのさらなる機能を提供する。 The vehicle control subsystem 5100 may operate in the same manner as the previous vehicle control system. For example, the subsystem 5100 receives commands from the driver 4010 (eg steering input, accelerator input, brake input) and environment 4500 (eg precipitation, temperature) to evaluate and / or execute vehicle stability. Change the command before. Therefore, the vehicle control subsystem 5100 may be considered to be extended by the behavior control subsystem 5200, which provides additional functions such as joint flexion of the vehicle 4000 based on the driver's behavior.

制御システム5000は、運転者生成入力5010および環境生成入力5020を受信し得る。運転者生成入力5010は、明示的なコマンド、すなわち、ハンドル、アクセルペダル、ブレーキペダル、および/または方向指示ノブなどの車両4000の入力装置と物理的にインターフェースする、運転者4010に由来するコマンドを含み得る。運転者生成入力5010はまた、暗黙のコマンド、例えば、運転者4010が後方視野ディスプレイをチェックするためにその頭部を傾けるおよび/または運転者4010がグレアのためにその目を細めるなど、運転者4010の動きに基づいて生成されるコマンドを含み得る。環境生成入力5020は、道路障害(例えば、くぼみ、道路表面のタイプ)、天候関連の影響(例えば、雨、雪、霧)、道路障害物(例えば、他の車両、歩行者)、および/または車両4000内にいないときの運転者4010など、車両4000の動作に影響を与える様々な環境条件を含み得る。 The control system 5000 may receive the driver-generated input 5010 and the environment-generated input 5020. The driver-generated input 5010 is an explicit command, i.e., a command derived from the driver 4010 that physically interfaces with the vehicle 4000 input devices such as the steering wheel, accelerator pedal, brake pedal, and / or turn signal knob. Can include. The driver-generated input 5010 is also an implicit command, such as the driver 4010 tilting its head to check the rear view display and / or the driver 4010 squinting for glare. It may include commands generated based on the movement of 4010. The environment-generated input 5020 is a road obstacle (eg, depression, type of road surface), weather-related effects (eg, rain, snow, fog), road obstacles (eg, other vehicles, pedestrians), and / or. It may include various environmental conditions that affect the operation of the vehicle 4000, such as the driver 4010 when not in the vehicle 4000.

図9に示すように、運転者生成入力5010および環境生成入力5020はそれぞれ、車両制御サブシステム5100および挙動制御サブシステム5200の両方に対する入力として使用され得る。挙動制御サブシステム5200は、運転者生成入力5010(明示的コマンドおよび黙示的コマンドの両方)および環境生成入力5020を測定するための、様々なセンサ、ヒューマンインターフェースデバイス、およびカメラアレイを含む、動作監視システム5210および外部監視システム5220を含み得る。挙動制御サブシステム5200はまた、運転者生成入力5010および環境生成入力5020を処理およびマージする、状況認識エンジン5230を含み得る。状況認識エンジン5230はまた、車両4000の望ましくない関節屈曲の可能性を低減するために、入力5010および5020をフィルタリングし得る(例えば、関節ジョイントは、運転者が乗客を見ているか、または音楽を聴いている間に頭部を動かしている時に起動すべきではない)。 As shown in FIG. 9, the driver-generated input 5010 and the environment-generated input 5020 can be used as inputs to both the vehicle control subsystem 5100 and the behavior control subsystem 5200, respectively. Behavior control subsystem 5200 includes motion monitoring, including various sensors, human interface devices, and camera arrays for measuring driver-generated inputs 5010 (both explicit and implicit commands) and environment-generated inputs 5020. It may include system 5210 and external monitoring system 5220. The behavior control subsystem 5200 may also include a situational awareness engine 5230 that processes and merges driver-generated inputs 5010 and environment-generated inputs 5020. The situational awareness engine 5230 may also filter inputs 5010 and 5020 to reduce the possibility of unwanted joint flexion in the vehicle 4000 (eg, joint joints where the driver is watching passengers or playing music. Should not be activated while moving the head while listening).

状況認識エンジン5230は、特定の車両挙動に関連付けられた組み合わされた入力と較正された入力との間の事前に定義した相関を識別することを試みる、挙動エンジン5240に組み合わされた入力を送信し得る。例えば、様々な入力(例えば、ハンドル角度、運転者の頭部の傾斜、運転者4010の注視方向、および/または方向指示灯の存在)は、車両4000が曲がる時に、特性値を示し得る。 The situational awareness engine 5230 sends the input combined with the behavior engine 5240, which attempts to identify a predefined correlation between the combined input associated with a particular vehicle behavior and the calibrated input. obtain. For example, various inputs (eg, steering wheel angle, tilt of the driver's head, gaze direction of the driver 4010, and / or presence of a turn signal) may indicate characteristic values when the vehicle 4000 turns.

図10Aおよび10Bは、様々な例示的な運転者生成入力5010および環境生成入力5020のそれぞれの表を示し、さまざまな入力の公称範囲と、左折する車両4000にに関連付けられた入力値とを比較する。挙動エンジン5240が、組み合わされた入力が車両4000に関連付けられた特性入力値と実質的に類似した値を有すると決定する場合、挙動エンジンは、車両4000が左折していると結論付け、適切な挙動ベースのコマンドを生成し得る。さもなければ、挙動エンジン5240は、挙動ベースのコマンドを生成しない場合がある。 10A and 10B show tables of various exemplary driver-generated inputs 5010 and environment-generated inputs 5020, comparing the nominal ranges of the various inputs with the input values associated with the left-turning vehicle 4000. do. If the behavior engine 5240 determines that the combined input has a value that is substantially similar to the characteristic input value associated with the vehicle 4000, the behavior engine concludes that the vehicle 4000 is turning left and is appropriate. Behavior-based commands can be generated. Otherwise, the behavior engine 5240 may not generate behavior-based commands.

挙動エンジン5240は、特定の車両挙動に関連付けられた組み合わされた入力と較正された入力との間のこの比較をいくつかの方法で実行し得る。例えば、組み合わされた入力は、各入力がパラメータ値に対応する二次元マトリックスとして表され得る。挙動エンジン5240は、組み合わされた入力と以前に較正された入力セットとの間の相互相関を実行し得る。結果として生じる相互相関が、十分な数のピーク(組み合わされた入力のうちの一つ以上を示すピークが、較正された入力値と一致する)を示す場合、挙動エンジン5240は、車両4000が、較正された入力に関連付けられた特定の挙動を示すと結論付け得る。 The behavior engine 5240 may perform this comparison between the combined and calibrated inputs associated with a particular vehicle behavior in several ways. For example, the combined inputs may be represented as a two-dimensional matrix in which each input corresponds to a parameter value. The behavior engine 5240 may perform cross-correlation between the combined inputs and the previously calibrated set of inputs. If the resulting cross-correlation shows a sufficient number of peaks (a peak indicating one or more of the combined inputs coincides with the calibrated input value), the behavior engine 5240 will be used by the vehicle 4000. It can be concluded that it exhibits the specific behavior associated with the calibrated input.

挙動エンジン5240が挙動ベースのコマンドを生成する場合、コマンドはその後、車両制御サブシステム5100の車両制御ユニット5110に送信される。車両制御ユニット5110は、挙動ベースのコマンドを、運転者4010による明示的なコマンドおよび環境生成入力5020などの他の入力と組み合わせて、組み合わされたコマンドのセットを生成し得る。車両制御ユニット5110はまた、前述の安定性制御ユニットを含み得る。したがって、車両制御ユニット5110は、組み合わされたコマンドのセットが、車両安定性の喪失なしに実行し得るか否かを評価し得る。 If the behavior engine 5240 generates a behavior-based command, the command is then transmitted to the vehicle control unit 5110 of the vehicle control subsystem 5100. The vehicle control unit 5110 may combine behavior-based commands with explicit commands by the driver 4010 and other inputs such as the environment-generated input 5020 to generate a set of combined commands. The vehicle control unit 5110 may also include the stability control unit described above. Therefore, the vehicle control unit 5110 may evaluate whether the combined set of commands can be executed without loss of vehicle stability.

車両制御ユニット5110が、組み合わされたコマンドのセットが車両4000を不安定にさせると決定する場合、車両制御ユニット5110は、車両安定性が維持されるように、コマンドを調整および/またはフィルタリングし得る。これは、他の入力(例えば、重み係数を適用することによって)に対する挙動ベースのコマンドの大きさを低減することを含み得る。さらに、所定のルールセットに基づいて、特定の入力に優先順位を付し得る。例えば、運転者4010がブレーキペダルに圧力を加える時、車両制御ユニット5110は、車両4000が適切にブレーキをかけることができるように、挙動ベースのコマンドを無視し得る。より一般的には、運転者4010によって提供される明示的なコマンドは、車両4000および運転者4010の安全を確保するために、挙動ベースのコマンドよりも優先され得る。車両制御ユニット5110が組み合わされたコマンドセットを検証すると、コマンドはその後、車両の適切なアクチュエータ5120に適用されて、所望の挙動を行う。 If the vehicle control unit 5110 determines that the combined set of commands destabilizes the vehicle 4000, the vehicle control unit 5110 may adjust and / or filter the commands so that vehicle stability is maintained. .. This may include reducing the size of behavior-based commands for other inputs (eg, by applying weighting factors). In addition, specific inputs may be prioritized based on a given set of rules. For example, when the driver 4010 applies pressure to the brake pedal, the vehicle control unit 5110 may ignore behavior-based commands so that the vehicle 4000 can properly brake. More generally, the explicit commands provided by driver 4010 may take precedence over behavior-based commands to ensure the safety of vehicle 4000 and driver 4010. When the command set combined with the vehicle control unit 5110 is verified, the commands are then applied to the appropriate actuator 5120 of the vehicle to perform the desired behavior.

図11Aおよび図11Bは、車両基準フレームに対する、運転者4010の傾斜角の関数φ乗客としての慣性基準フレーム(例えば、重力ベクトルによって設定される)に対する、命令された車両ロール角φ車両の例示的な較正マップを示す。図11Aに示す通り、車両4000が、運転者4010の傾斜角の小さな変化に応答して感知できるほど回転しないことを確実にするために、φ車両は、φ乗客のより小さい値で小さくなり、車両4000の意図しない作動を防止し得る。φ乗客が増大すると、飽和する前に、φ車両が急速に増大する。飽和点は、安定性が維持されることを確実にするために、車両制御ユニット5110によって課される限界を表し得る。 11A and 11B are exemplary of the vehicle roll angle φ vehicle commanded with respect to the vehicle reference frame, function φ of the tilt angle of the driver 4010 φ inertia reference frame as a passenger (eg, set by the gravity vector). A calibration map is shown. As shown in FIG. 11A, the φ vehicle is reduced by a smaller value of the φ passenger to ensure that the vehicle 4000 does not rotate perceptibly in response to a small change in the tilt angle of the driver 4010. It is possible to prevent unintended operation of the vehicle 4000. As the number of φ passengers increases, the number of φ vehicles increases rapidly before saturation. The saturation point may represent the limits imposed by the vehicle control unit 5110 to ensure that stability is maintained.

車両制御ユニット5110によって課される制約は、車両4000の動作条件に基づいて変化し得る。例えば、図11Aは、φ車両に対する上限は増大または低減し得ることを示す。上限の変更は、部分的には、車両4000の速度、および他の安定化効果(例えば、回転ホイールのジャイロ安定化効果)の存在に基づき得る。図11Bは、速度φ車両も、安定性を維持するように調整され得ることを示す。速度φ車両は、φ乗客の関数として変化し、車両4000の車高に基づいて変化し得る。車両4000が低い外形構成である場合、車両4000はより小さい慣性モーメントを有し、したがって安定性を失うことなくより速い速度で回転することができる。 The constraints imposed by the vehicle control unit 5110 can vary based on the operating conditions of the vehicle 4000. For example, FIG. 11A shows that the upper limit for φ vehicles can be increased or decreased. The change in the upper limit may be based in part on the speed of the vehicle 4000 and the presence of other stabilizing effects (eg, the gyro stabilizing effect of the rotating wheel). FIG. 11B shows that the speed φ vehicle can also be adjusted to maintain stability. The speed φ vehicle changes as a function of φ passengers and can change based on the vehicle height of the vehicle 4000. If the vehicle 4000 has a low contour configuration, the vehicle 4000 has a smaller moment of inertia and can therefore rotate at a higher speed without losing stability.

示す通り、車両4000は、運転者4010が頭部を傾けると、飽和限界まで回転し続け得る。さらに、車両4000は、運転者4010が車両4000内の元の位置に戻る場合、運転者4010への応答を停止し得る。センサ4200は、元の位置の連続的な更新を提供するために、車両4000内の運転者のデフォルト位置を連続的に較正し得る。一部の事例では、長い時定数を有するローパスフィルタリングを使用して、運転者4010の元の位置として扱われる基準位置を決定し得る。 As shown, the vehicle 4000 may continue to rotate to the saturation limit when the driver 4010 tilts his head. Further, the vehicle 4000 may stop responding to the driver 4010 if the driver 4010 returns to its original position within the vehicle 4000. The sensor 4200 may continuously calibrate the driver's default position within the vehicle 4000 to provide a continuous update of the original position. In some cases, low-pass filtering with a long time constant may be used to determine a reference position to be treated as the original position of the driver 4010.

一つの例示的な使用事例では、運転者4010は、車両4000の近くに位置する障害物を見回すように、その頭部を傾け得る。ここで、運転者生成入力5010は、運転者の頭部の傾斜角(車両の基準フレームに対して取得される)を含み得、環境生成入力5020は、障害物の検出であり得る。例えば、環境生成入力5020は、図12Aおよび図12Bに示す通り、前向きRGBカメラで1Dまたは2D領域データ(例えば、ライダー、超音波、レーダーデータなど)を結合することにより構築された可視性マップであり得る。可視性マップは、領域データが障害物と車両4000との間の距離が事前に定義された閾値未満であると示す場合、障害物(例えば、別の車両)の存在を示し得る(図12Aおよび12Bの障害物マスクにおける黒いボックスを参照)。例えば、障害物が車両4000から10メートル離れている場合、運転者4010は障害物を見回すように傾いている可能性は低い。しかしながら、例えば、障害物が車両4000から2メートル未満しか離れていない場合、運転者4010は障害物を見回すように傾いているとみなされ得る。 In one exemplary use case, the driver 4010 may tilt its head to look around an obstacle located near the vehicle 4000. Here, the driver-generated input 5010 may include the tilt angle of the driver's head (acquired with respect to the reference frame of the vehicle), and the environment-generated input 5020 may be obstacle detection. For example, the environment-generated input 5020 is a visibility map constructed by combining 1D or 2D region data (eg, lidar, ultrasound, radar data, etc.) with a forward-looking RGB camera, as shown in FIGS. 12A and 12B. possible. The visibility map may indicate the presence of an obstacle (eg, another vehicle) if the area data indicates that the distance between the obstacle and the vehicle 4000 is less than a predefined threshold (FIG. 12A and FIG. 12A and). See the black box on the 12B obstacle mask). For example, if the obstacle is 10 meters away from the vehicle 4000, it is unlikely that the driver 4010 is leaning to look around the obstacle. However, for example, if the obstacle is less than 2 meters away from the vehicle 4000, the driver 4010 can be considered tilted to look around the obstacle.

反応システムの用途
上述のように、センサ4200および反応システム4300は、車両4000の性能および/または有用性を改善するためのさらなる車両モダリティを可能にし得る。例えば、ビデオベースのミラー4320および関節ジョイントの上記の例は、主に運転者4010のFOVの修正を対象とする。例示的な使用事例として、図13は、車両4000の近くの駐車車両によって遮蔽される横断歩道を示す。車両4000が関節ジョイントを含む場合、車両4000の車高は、運転者4010および/または車両4000上のセンサが、横断歩道においてリカンベント自転車上のサイクリストおよびミニチュアダックスフンドを検出および検出することを可能にするように増大され得る。
Application of Reaction System As mentioned above, the sensor 4200 and reaction system 4300 may allow for further vehicle modality to improve the performance and / or usefulness of the vehicle 4000. For example, the above examples of video-based mirrors 4320 and joints are primarily intended for driver 4010 FOV modifications. As an exemplary use case, FIG. 13 shows a pedestrian crossing shielded by a parked vehicle near vehicle 4000. If vehicle 4000 includes articulated joints, vehicle height allows the driver 4010 and / or sensors on vehicle 4000 to detect and detect cyclists and miniature duck hoods on recumbent bicycles at pedestrian crossings. Can be increased to.

別の例では、車両4000は、車両形状を修正し、車両動的性能を改善するために、運転者4010の傾斜に応じて車両4000の傾斜(例えば、±45度)を可能にする、長い走行サスペンション要素を有し得る。例えば、狭い車両は、空気抵抗を低減する、都市部の占有面積を低減させる/操作性を増大させるという点で好ましい。しかしながら、狭い車両は、特に狭いトラック幅によりコーナリング時に、動的安定性が乏しい場合がある。運転者4010が高速でコーナリングする時、車両4000がオートバイのように曲がり角に傾斜するのが有益であり得る。 In another example, the vehicle 4000 is long, allowing the vehicle 4000 to tilt (eg ± 45 degrees) in response to the driver 4010's tilt to modify the vehicle shape and improve vehicle dynamic performance. It may have a traveling suspension element. For example, a narrow vehicle is preferable in that it reduces air resistance, reduces the occupied area in urban areas, and increases operability. However, narrow vehicles may have poor dynamic stability, especially when cornering due to narrow truck widths. When the driver 4010 is cornering at high speed, it may be beneficial for the vehicle 4000 to lean into a corner like a motorcycle.

図14Aおよび14Bは、車両4000が別の車両の後方に位置する別の例示的な使用事例を示す。運転者4010は、他の車両を見回すために頭部(または体)を傾け、それによってFOVおよびその状況認識を向上させ得る。車両4000は、他の車両を見回すために、運転者4010がキャビン内で傾いていることを検出し得、車両4000を傾けることによって応答し、運転者4010のFOVをさらに向上させ得る。一部の事例では、車両4000はまた、車両4000が傾くと、さらにFOVを向上させるために車高を増大させ得る。 14A and 14B show another exemplary use case where the vehicle 4000 is located behind another vehicle. The driver 4010 can tilt his head (or body) to look around other vehicles, thereby improving FOV and its situational awareness. The vehicle 4000 may detect that the driver 4010 is tilted in the cabin to look around the other vehicle and may respond by tilting the vehicle 4000 to further improve the FOV of the driver 4010. In some cases, the vehicle 4000 may also increase the vehicle height to further improve the FOV as the vehicle 4000 tilts.

図15A~図15Cは、車両4000が、自動セキュリティドローンが使用される事例を示す。この場合、反応システム4300は、完全に環境生成入力から応答し得る。車両4000は、周囲環境の360度FOVを有するカメラを含み得る。反応システム4300は、図14Aおよび図14Bの例示的な車両4000と実質的に同様の様式で応答するように構成され得るが、ただしこの場合、反応システム4300は、運転者4010の移動ではなく、環境のカメラによって取得されたビデオ画像に応答する。例えば、車両4000は環境中の障害物を検出するように構成され得、それに応じて反応システム4300は関節ジョイントを作動させて、カメラが障害物を見回すことおよび/または障害物との衝突を回避することを可能にし得る。 15A-15C show a case where the vehicle 4000 uses an automatic security drone. In this case, the reaction system 4300 may respond entirely from the environment-generated input. The vehicle 4000 may include a camera with a 360 degree FOV of the surrounding environment. The reaction system 4300 may be configured to respond in a manner substantially similar to the exemplary vehicle 4000 of FIGS. 14A and 14B, but in this case the reaction system 4300 is not the movement of the driver 4010, but rather the movement of the driver 4010. Respond to video images captured by the environment's camera. For example, the vehicle 4000 may be configured to detect obstacles in the environment, accordingly the reaction system 4300 may actuate the joints to avoid the camera looking around the obstacles and / or colliding with the obstacles. It may be possible to do.

カメラはまた、凹凸のある表面を検出するように構成され得る。これらの表面を横断するために、車両4000は、歩行動作を使用するように構成され得る。一部の事例では、車両4000は、車両4000の静的車高を拡張するための各ホイールのさらなる独立した作動を含み得る。この歩行動作はまた、関節DOFおよび/または長い走行サスペンションDOF由来の複合的動作によって、車両4000が一連の階段を横断することを可能にするために使用され得る(図15C参照)。この能力によって、制御不能な環境と折り合いをつけながら、自動運転車両の安全な操作が可能となり得る。車両4000が運転者4010用のキャビンを有する場合、車両4000が凹凸のある表面を走行する際に、運転者4010への不快感を低減させるために、キャビンを所望の配向(例えば、実質的に水平)に維持し得る。 The camera can also be configured to detect uneven surfaces. To traverse these surfaces, the vehicle 4000 may be configured to use a walking motion. In some cases, the vehicle 4000 may include additional independent actuation of each wheel to extend the static vehicle height of the vehicle 4000. This walking motion can also be used to allow the vehicle 4000 to traverse a series of stairs by a complex motion derived from the joint DOF and / or the long running suspension DOF (see FIG. 15C). This capability can enable safe operation of self-driving vehicles while compromising with uncontrollable environments. If the vehicle 4000 has a cabin for the driver 4010, the cabin may be oriented in the desired orientation (eg, substantially) in order to reduce discomfort to the driver 4010 as the vehicle 4000 travels on uneven surfaces. Can be maintained horizontally).

関節ジョイントはまた、車両4000の操作にいくつかの動的利益を提供し得る。例えば、車両安定性は、関節ジョイントを使用して車両4000を曲がり角に傾斜させることによって改善され得、これにより、安定性マージンを増大させ、トラクションを維持し、または一部の例では、横転を回避または除去するような方法で質量中心をシフトさせる。関節ジョイントは、関節ジョイントの動的幾何学的最適化を通して車両4000の回転の能動的制御を可能にすることによって、より大きなトラクションを可能にし得る。車両4000のコーナリング性能はまた、車両4000を傾斜させることによって改善され得る。さらに、倒立振子原理は、特に高密度の都市環境の低速車両において、車両4000を高外形構成に関節屈曲させること、および質量中心(COM)の高さを増大させることによって、使用され得る。車両4000はまた、一般的にこのような不快感を運転者4010に誘発する動的動作を予測および/または軽減することによって、乗り物酔いを防止し得る。 Joint joints may also provide some dynamic benefit to the operation of the vehicle 4000. For example, vehicle stability can be improved by tilting the vehicle 4000 to a corner using joints, which increases the stability margin, maintains traction, or, in some cases, rolls over. Shift the center of mass in such a way as to avoid or eliminate it. Joint joints may allow for greater traction by allowing active control of the rotation of the vehicle 4000 through dynamic geometric optimization of the joint joints. The cornering performance of the vehicle 4000 can also be improved by tilting the vehicle 4000. In addition, the inverted pendulum principle can be used by articulating the vehicle 4000 into a high profile configuration and increasing the height of the center of mass (COM), especially in low speed vehicles in high density urban environments. Vehicle 4000 can also prevent motion sickness by predicting and / or mitigating dynamic movements that generally induce such discomfort to driver 4010.

反応システム4300はまた、運転者4010に、その車両4000を自分用に設定できる能力を提供し得る。例えば、車両4000は、車両4000が運転者の存在を認識するように車両4000が揺れ動く、および/または始動するように関節ジョイントを作動させることによって、運転者4010の存在に挨拶および/または認識するように構成され得る。これは、車両4000の所有者および/または顧客(配車またはシェア用途の場合)に挨拶するために使用され得る。 The reaction system 4300 may also provide the driver 4010 with the ability to set the vehicle 4000 for himself. For example, the vehicle 4000 greets and / or recognizes the presence of the driver 4010 by activating a joint to cause the vehicle 4000 to sway and / or start so that the vehicle 4000 recognizes the presence of the driver. Can be configured as It can be used to greet the owner and / or customer of the vehicle 4000 (for vehicle allocation or sharing use).

別の例では、車両4000はまた、人格を有するように構成され得る。例えば、車両4000は、環境4500に反応し、様々な目標および/または意図を道路上の他の個人または車両に伝達するためのプラットフォームを提供するように構成され得る。例えば、車両4000は、高外形構成に関節屈曲し、一方の側に傾斜して車両4000が別の車両に道を譲る(例えば、一時停止の標識のある交差点で)ことを示すことができる。別の例では、車両4000は、高速道路を走行し得る。車両4000は、車両4000が他の車両を高速道路に合流させようとしていることを他の車両に示すために、左右に穏やかに揺れるように構成され得る。別の例では、車両4000は、動物(例えば、イヌのように、虎のように)のように挙動するように構成され得る。一部の事例では、車両4000によって実行される動作のタイプは、再構成可能であり得る。例えば、車両4000の性格を、運転者の好みに合わせてダウンロード、カスタマイズ、交換、進化、適合、および/またはさもなくば修正することが可能であり得る。 In another example, the vehicle 4000 may also be configured to have a personality. For example, the vehicle 4000 may be configured to respond to the environment 4500 and provide a platform for communicating various goals and / or intents to other individuals or vehicles on the road. For example, the vehicle 4000 can be articulated to a high profile configuration and tilted to one side to indicate that the vehicle 4000 gives way to another vehicle (eg, at an intersection with a stop sign). In another example, vehicle 4000 may travel on a highway. The vehicle 4000 may be configured to gently rock from side to side to indicate to the other vehicle that the vehicle 4000 is about to join the other vehicle on the freeway. In another example, the vehicle 4000 may be configured to behave like an animal (eg, like a dog, like a tiger). In some cases, the type of action performed by vehicle 4000 may be reconfigurable. For example, it may be possible to download, customize, replace, evolve, adapt, and / or otherwise modify the character of the vehicle 4000 to suit the driver's tastes.

別の例では、車両4000の関節ジョイントは、例えば、駐車場において、車両4000を運転者4010に認知させるためにも使用され得る。混雑した駐車場で車両を駐車した場所を忘れることがよくある。スポーツ・ユーティリティ・ビークル(SUV)やトラックの海では、非常に小さく軽量のモビリティプラットフォームを見つけるのは難しい場合がある。車両4000の関節屈曲および長距離移動の自由度(DOF)は、車両4000を関節屈曲して車両4000の高さを調整し、および/または揺れ/旋回動作を誘発することによって、車両4000をかなり目立つようにすることができる。一部の事例では、車両4000はまた、音を出す(例えば、関節ジョイントを介して音を鳴らしてクラクションを鳴らすなど)および/またはおよび/または車両4000のライトを点滅させ得る。 In another example, the joints of the vehicle 4000 can also be used to make the vehicle 4000 known to the driver 4010, for example in a parking lot. It is common to forget where you parked your vehicle in a crowded parking lot. In the sea of sport utility vehicles (SUVs) and trucks, it can be difficult to find a very small and lightweight mobility platform. The degree of freedom of joint flexion and long-distance movement (DOF) of the vehicle 4000 significantly reduces the vehicle 4000 by flexing the vehicle 4000 to adjust the height of the vehicle 4000 and / or inducing a sway / turning motion. You can make it stand out. In some cases, the vehicle 4000 may also make a sound (eg, make a sound through a joint to make a horn) and / or and / or blink the light of the vehicle 4000.

車両4000はまた、仮想現実、拡張現実、ゲーム、映画、音楽、各地を巡るツアー、睡眠/健康監視、瞑想、および運動を含むがこれに限定されない、反応システム4300を活用できる輸送以外の機能も提供し得る。車両がより自律的になると、運転者4010は、車両4000で場所間を移動しながら、これらのサービスの一部を使用する自由を有し得る。概して、反応システム4300は、車両4000によって提供されるさらなるサービスの一つにより良く適合するように車両4000にその形状を変更させ得る。例えば、車両4000は、橋を横断して走行しながらその高さを調整し、運転者4010に、写真撮影(例えば、インスタグラムのインフルエンサーのための)用の風景の望ましい視界を提供するように構成され得る。 Vehicle 4000 also has non-transport features that can take advantage of Reaction System 4300, including but not limited to virtual reality, augmented reality, games, movies, music, tours around the world, sleep / health monitoring, meditation, and exercise. Can be provided. As the vehicle becomes more autonomous, the driver 4010 may have the freedom to use some of these services while moving between locations on the vehicle 4000. In general, the reaction system 4300 may allow the vehicle 4000 to reshape to better fit one of the additional services provided by the vehicle 4000. For example, vehicle 4000 adjusts its height while traveling across a bridge to provide driver 4010 with a desirable view of the landscape for photography (eg, for Instagram influencers). Can be configured in.

車両4000はまた、グレアを低減するように関節屈曲され得る。例えば、センサ4200は、センサ4200によって取得されたRGB画像に基づいて、運転者の眼球領域上のグレア(例えば、太陽または対向車のヘッドライトからの)を検出し得る。これに応じて、車両4000は、グレアを低減するために、運転者の眼球領域の位置を変更するように、その車高および/または傾斜角を調整し得る。 Vehicle 4000 can also be articulated to reduce glare. For example, the sensor 4200 may detect glare (eg, from the sun or the headlights of an oncoming vehicle) on the driver's eye area based on the RGB image acquired by the sensor 4200. Accordingly, the vehicle 4000 may adjust its height and / or tilt angle to reposition the driver's eye area to reduce glare.

図16は、部分的にはセキュリティシステムとして使用される関節ジョイントを含む別の例示的な車両4000を示す。概して、車両4000は、人が車両4000を盗もうとするとき、それ自体が知らせるように構成され得る。例えば、車両4000は、音を発するか、そのライトを点滅させるか、または関節屈曲し得る。車両4000を盗もうとする試みがなされる場合、車両4000はまた関節ジョイントを使って、車両4000への侵入を防止すること、および/または車両4000の車体を窃盗犯にぶつける(例えば、バッキング動作で車両4000を回転させる)ことによって、窃盗犯を妨害し得る。 FIG. 16 shows another exemplary vehicle 4000 that includes a joint joint that is partially used as a security system. In general, the vehicle 4000 may be configured to inform itself when a person attempts to steal the vehicle 4000. For example, the vehicle 4000 may make a sound, blink its light, or flex its joints. If an attempt is made to steal the vehicle 4000, the vehicle 4000 will also use joints to prevent entry into the vehicle 4000 and / or hit the vehicle body of the vehicle 4000 against a thief (eg, backing action). By rotating the vehicle 4000), the thief can be disturbed.

車両4000はまた、潜在的泥棒を未然に防ぐために、状況認識を強化するための外部に面したカメラを含み得る。カメラは、(例えば、車両4000の後方から)車両4000に近づく個人に対して顔認識を行うために使用され得る。個人の計算された固有面は、承認された運転者のデータベースと相互参照され得る。合致が見つからなかった場合、その個人は法執行機関のデータベースと相互参照され、その個人が犯罪者であるかどうかを判断し得る。 The vehicle 4000 may also include an externally facing camera to enhance situational awareness to prevent potential thieves. The camera can be used to perform face recognition for an individual approaching the vehicle 4000 (eg, from behind the vehicle 4000). The calculated unique aspects of an individual may be cross-referenced with a database of approved drivers. If no match is found, the individual can be cross-referenced with the law enforcement database to determine if the individual is a criminal.

図17は、車両4000がツールとして使用される別の例示的な用途を示す。車両4000は、比較的コンパクトな占有面積、関節屈曲範囲、および空間認識を有し得、輸送を超えたタスクのための有望なツールとなる。例えば、車両4000は、図17に示す通り、現場でニュースアンカーを同時に撮影、照明、スムーズに追跡する車載カメラまたは搭載カメラを含み得る。アクティブサスペンションを使用して、ショットを安定させ得、一方で、関節屈曲によって、カメラを所望の高さに維持し得る。別の用途では、車両4000は、その周囲360°の視界を提供する車載カメラを用いて、サイト(例えば、空間マッピング用)を遠隔で監視および/または検査するために使用され得る。 FIG. 17 shows another exemplary use in which the vehicle 4000 is used as a tool. The vehicle 4000 may have a relatively compact footprint, joint flexion range, and spatial awareness, making it a promising tool for tasks beyond transport. For example, vehicle 4000 may include an on-board camera or on-board camera that simultaneously captures, lights, and smoothly tracks news anchors in the field, as shown in FIG. Active suspension can be used to stabilize the shot, while joint flexion can keep the camera at the desired height. In another application, the vehicle 4000 may be used to remotely monitor and / or inspect a site (eg, for spatial mapping) with a dashcam that provides a 360 ° field of view around it.

センサ4200によって測定される運転者4010の位置および/または配向、およびカメラデータは、車両4000の他のサブシステムでも使用され得る。例えば、典型的なマルチスピーカー構成のための所望のリスニング位置(「スイートスポット」)は、スピーカーの間隔、周波数応答、および他の空間特性に依存する、小さな固定領域である。ステレオイマージョンは、所望のリスニング位置の領域内で最大であり、リスナーがこの領域から抜け出ると急速に低下する。車両4000は、運転者4010の位置データおよび車両4000のキャビンの音響モデルを利用して、運転者の頭上に所望の聞き取り位置をマッピングする音声サブシステムを含み得る。運転者4010がキャビン内でシフトすると、各スピーカーの信号の時間遅延、フェーズ、および振幅は、運転者の頭上の所望のリスニング位置を維持するために、所望の聞き取り位置をシフトするように独立して制御され得る。 The position and / or orientation of the driver 4010 measured by the sensor 4200, and camera data may also be used in other subsystems of the vehicle 4000. For example, the desired listening position (“sweet spot”) for a typical multi-speaker configuration is a small fixed area that depends on speaker spacing, frequency response, and other spatial characteristics. Stereo immersion is maximal within the region of the desired listening position and drops rapidly as the listener exits this region. The vehicle 4000 may include a voice subsystem that maps the desired listening position above the driver's head using the location data of the driver 4010 and the acoustic model of the cabin of the vehicle 4000. As the driver 4010 shifts in the cabin, the signal time delay, phase, and amplitude of each speaker are independent to shift the desired listening position in order to maintain the desired listening position above the driver. Can be controlled.

別の例では、センサ4200によって取得された深度マップおよびRGBカメラデータは、運転者4010を識別するために使用され得る。例えば、車両4000は、事前にトレーニングされた一連の顔(または身体)に基づいて運転者4010を識別することができる識別サブシステムを含み得る。例えば、車両4000は、最初に識別サブシステムを較正するときに、運転者4010の画像を取得し得る。識別サブシステムは、限定されるものではないが、座席設定、音楽、および目的地を含むユーザープロファイルに従って、様々な車両設定を調整するために使用され得る。識別サブシステムはまた、無許可の人が車両4000にアクセスおよび/または運転することができるのを防ぐことにより、盗難防止のために使用され得る。 In another example, the depth map and RGB camera data acquired by the sensor 4200 can be used to identify the driver 4010. For example, vehicle 4000 may include an identification subsystem that can identify the driver 4010 based on a pre-trained set of faces (or bodies). For example, vehicle 4000 may acquire an image of driver 4010 when first calibrating the identification subsystem. Identification subsystems can be used to adjust various vehicle settings according to user profiles, including, but not limited to, seating settings, music, and destinations. The identification subsystem can also be used for anti-theft by preventing unauthorized persons from accessing and / or driving the vehicle 4000.

別の例では、センサ4200によって取得された深度マップおよびRGBカメラデータは、運転者4010の注意度を監視するために使用され得る。例えば、運転者4010の疲労は、運転者の目および/または頭部の動きおよび/または位置に基づいて監視され得る。運転者4010が疲労していると判定された場合、車両4000は、運転者4010に車を路肩に停めて休むようにメッセージを提供し得る。 In another example, the depth map and RGB camera data acquired by the sensor 4200 can be used to monitor the attention of the driver 4010. For example, the fatigue of the driver 4010 can be monitored based on the movement and / or position of the driver's eyes and / or head. If it is determined that the driver 4010 is tired, the vehicle 4000 may provide the driver 4010 with a message to park the car on the shoulder and rest.

結論
本明細書に記載するすべてのパラメータ、寸法、材料、および構成は例示であり、実際のパラメータ、寸法、材料、および/または構成は、発明の教示が使用される一つまたは複数の特定の用途に依存する。前述の実施形態は、主に例として提示されており、添付の特許請求の範囲およびその等価物の範囲内では、発明に関する実施形態は、具体的に記載および請求される以外の形で実践され得ることを理解されたい。本開示の発明に関する実施形態は、本明細書に記載する個々の特徴、システム、物品、材料、キット、および/または方法を対象とする。
CONCLUSIONS All parameters, dimensions, materials, and configurations described herein are exemplary, and actual parameters, dimensions, materials, and / or configurations are specific, one or more in which the teachings of the invention are used. Depends on the application. The aforementioned embodiments are presented primarily as examples, and within the scope of the appended claims and their equivalents, embodiments relating to the invention are practiced in forms other than those specifically described and claimed. Please understand what you get. Embodiments relating to the inventions of the present disclosure are directed to the individual features, systems, articles, materials, kits, and / or methods described herein.

加えて、二つ以上のこうした特徴、システム、物品、材料、キット、および/または方法の任意の組み合わせは、こうした特徴、システム、物品、材料、キット、および/または方法が相互に矛盾しない場合、本開示の発明の範囲内に含まれる。本開示の範囲を逸脱することなく、例示的な実装のそれぞれの要素の設計、運転条件、ならびに配置において、他の置換、修正、変更、および省略を行うこともできる。数値範囲の使用は、同じ関数を同じ手段で満たす範囲から外れる等価物が、同じ結果を生成することを排除しない。 In addition, any combination of two or more of these features, systems, articles, materials, kits, and / or methods, if these features, systems, articles, materials, kits, and / or methods are consistent with each other. It is included within the scope of the invention of the present disclosure. Other substitutions, modifications, changes, and omissions may be made in the design, operating conditions, and arrangement of each element of the exemplary implementation without departing from the scope of the present disclosure. The use of numerical ranges does not preclude that equivalents outside the range that satisfy the same function by the same means produce the same result.

上記の実施形態は、複数の手段で実施することができる。例えば、実施形態は、ハードウェア、ソフトウェア、またはそれらの組み合わせを使用して実施されてもよい。ソフトウェアに実装される場合、ソフトウェアコードは、単一のコンピュータに提供されるか、もしくは複数のコンピュータ間に分散されるかにかかわらず、適切なプロセッサまたはプロセッサの集合で実行することができる。 The above embodiment can be implemented by a plurality of means. For example, embodiments may be implemented using hardware, software, or a combination thereof. When implemented in software, software code can be run on the appropriate processor or set of processors, whether provided to a single computer or distributed among multiple computers.

さらに、コンピュータが、ラックマウントコンピュータ、デスクトップ型コンピュータ、ラップトップ型コンピュータ、またはタブレット型コンピュータなど、多数の形態のいずれかで具現化され得る。加えて、コンピュータは、概してコンピュータとみなされるデバイスではなく、パーソナルデジタルアシスタント(PDA)、スマートフォン、または任意の他の適切な携帯型もしくは固定型の電子デバイスを含む、適切な処理能力を有するデバイスの中に埋め込まれ得る。 In addition, the computer can be embodied in any of a number of forms, including rack-mounted computers, desktop computers, laptop computers, or tablet computers. In addition, a computer is not a device that is generally considered a computer, but a device with appropriate processing power, including a personal digital assistant (PDA), smartphone, or any other suitable portable or fixed electronic device. Can be embedded inside.

また、コンピュータは一つ以上の入力デバイスおよび出力デバイスを有し得る。これらのデバイスは、とりわけ、ユーザインターフェースを提示するために使用できる。ユーザインターフェースを提供するために使用できる出力デバイスの例には、プリンタまたは出力の視覚的表現のためのディスプレイ画面、およびスピーカーまたは出力の可聴表現のための他の音声発生デバイスが挙げられる。ユーザインターフェースに使用できる入力装置の例には、キーボード、ならびにマウス、タッチパッド、およびデジタイザタブレットなどのポインティングデバイスが含まれる。別の例として、コンピュータは、音声認識によってまたは他の可聴フォーマットで、入力情報を受信してもよい。 Also, a computer may have one or more input and output devices. These devices can be used, among other things, to present a user interface. Examples of output devices that can be used to provide a user interface include display screens for visual representation of printers or outputs, and other audio generator devices for audible representation of speakers or outputs. Examples of input devices that can be used for the user interface include keyboards and pointing devices such as mice, touchpads, and digitizer tablets. As another example, the computer may receive the input information by voice recognition or in other audible formats.

このようなコンピュータは、ローカルエリアネットワーク、もしくはエンタープライズネットワークなどの広域ネットワーク、インテリジェントネットワーク(IN)、またはインターネットを含む、適切な形態の一つ以上のネットワークによって相互接続されてもよい。このようなネットワークは、適切な技術に基づいてもよく、適切なプロトコルに従って動作してもよく、無線ネットワーク、有線ネットワーク、または光ファイバーネットワークを含んでもよい。 Such computers may be interconnected by one or more networks of appropriate form, including local area networks, or wide area networks such as enterprise networks, intelligent networks (INs), or the Internet. Such networks may be based on appropriate technology, may operate according to appropriate protocols, and may include wireless networks, wired networks, or fiber optic networks.

本明細書に概説するさまざまな方法またはプロセスは、さまざまなオペレーティングシステムまたはプラットフォームのうちのいずれか一つを用いる、一つ以上のプロセッサ上で実行可能なソフトウェアとしてコード化されてもよい。加えて、このようなソフトウェアは、多数の適切なプログラミング言語および/またはプログラミングもしくはスクリプトツールのうちのいずれかを使用して記述されてもよく、またフレームワークもしくは仮想マシン上で実行される、実行可能なマシン語コードまたは中間コードとしてコンパイルされてもよい。いくつかの実装では、実行を容易にするために、特定のオペレーティングシステムまたはプラットフォーム、ならびに特定のプログラミング言語および/またはスクリプトツールのうちの一つ以上を具体的に用いてもよい。 The various methods or processes outlined herein may be encoded as software that can be run on one or more processors using any one of different operating systems or platforms. In addition, such software may be written using any of a number of suitable programming languages and / or programming or scripting tools, and may be run or run on a framework or virtual machine. It may be compiled as possible machine language code or intermediate code. Some implementations may specifically use one or more of a particular operating system or platform, as well as a particular programming language and / or scripting tool, for ease of execution.

また、さまざまな発明の概念が、一つ以上の方法として具現化されてもよく、そのうちの少なくとも一例を提供してきた。方法の一部として行われる行為は、一部の例では、異なる手段で順序付けられてもよい。したがって、一部の発明に関する実施では、所与の方法のそれぞれの行為が、具体的に例示するものとは異なる順序で行われてもよく、一部の行為を同時に行うことを含み得る(こうした行為が、例示的な実施形態では、連続する行為として示される場合であっても)。 Also, the concepts of various inventions may be embodied as one or more methods, and at least one of them has been provided. The actions performed as part of the method may, in some cases, be ordered by different means. Therefore, the practice relating to some inventions may include performing each act of a given method in a different order than specifically exemplified, and may include performing some acts simultaneously (such). Even if the act is shown as a continuous act in the exemplary embodiment).

本明細書で言及するすべての出版物、特許出願、特許、および他の参考文献は、参照によりそれらの全体が組み込まれる。 All publications, patent applications, patents, and other references referred to herein are incorporated by reference in their entirety.

本明細書で定義および使用するすべての定義は、辞書定義、参照により組み込まれる文書の定義、および/または定義された用語の通常の意味を統制するものと理解されるべきである。 All definitions defined and used herein are to be understood as governing dictionary definitions, definitions of documents incorporated by reference, and / or the usual meaning of defined terms.

本明細書および特許請求の範囲で使用する不定冠詞「a」および「an」は、明確にそうでないと示されない限り、「少なくとも一つ」を意味すると理解されるべきである。 As used herein and in the claims, the indefinite articles "a" and "an" should be understood to mean "at least one" unless explicitly stated otherwise.

本明細書および特許請求の範囲で使用する「および/または」という語句は、結合された要素の「いずれかまたは両方」を意味し、すなわち一部の場合において接続的に存在し、他の場合において離接的に存在する要素を意味すると理解されるべきである。「および/または」で挙げられる複数の要素は、同じ様式、すなわち等位接続される要素のうちの「一つ以上」と解釈されるべきである。具体的に識別される要素に関連するかまたは関連しないかにかかわらず、「および/または」節によって具体的に識別される要素以外に、他の要素が随意に存在し得る。それゆえに、非限定的な例として、「Aおよび/またはB」への言及は、「含む」などの制限のない語法と連動して使われるときに、一実施形態においてAのみ(任意選択的にB以外の要素を含む)、別の実施形態においてBのみ(任意選択的にA以外の要素を含む)、さらに別の実施形態においてAとBの両方(任意選択的に他の要素を含む)などを指すことができる。 As used herein and in the claims, the phrase "and / or" means "either or both" of the combined elements, i.e., in some cases connected and in other cases. It should be understood to mean an element that exists detachably in. Multiple elements listed in "and / or" should be construed as "one or more" of the same modalities, ie, coordinated elements. In addition to the element specifically identified by the "and / or" clause, other elements may optionally exist, whether or not they are related to the specifically identified element. Therefore, as a non-limiting example, the reference to "A and / or B" is only A (optional) in one embodiment when used in conjunction with an unrestricted wording such as "contains". Including elements other than B), in another embodiment only B (optionally including elements other than A), and in yet another embodiment both A and B (optionally including other elements) ) Etc. can be pointed out.

本明細書および特許請求の範囲において使用する場合、「または」は、上で定義した「および/または」と同じ意味を有すると理解されるべきである。例えば、リスト内の項目を分離するとき、「または」または「および/または」は包括的なもの、すなわち多数の要素または要素のリスト、および任意選択的にリストに無い追加の項目のうちの少なくとも一つを含むが、二つ以上も含むと解釈されるものとする。それとは反対であると明確に指示される用語、例えば「のうちの一つのみ」もしくは「のうちのまさに一つ」、または特許請求の範囲において使用するときの「から成る」などの用語のみ、多数のまたは列挙された要素のうちのまさに一つの要素を包含することを指す。概して、本明細書で使用する「または」という用語は、「いずれか」、「のうちの一つ」、「のうちの一つのみ」、または「のうちのまさに一つ」など、排他的な用語が先行するときに、排他的な選択肢(すなわち「両方ではなく一方または他方」)を示すとのみ解釈されるものとする。「から基本的に成る」は、特許請求の範囲で使用する場合、特許法の分野において使用される通常の意味を有するものとする。 As used herein and in the claims, "or" should be understood to have the same meaning as "and / or" as defined above. For example, when separating items in a list, "or" or "and / or" is comprehensive, i.e. at least one of a large number of elements or a list of elements, and optionally an additional item not in the list. Includes one, but shall be construed to include more than one. Only terms that are explicitly indicated to be the opposite, such as "only one of" or "exactly one of", or "consisting of" when used in the claims. , Refers to embracing exactly one of many or enumerated elements. In general, the term "or" as used herein is exclusive, such as "any", "one of", "only one of", or "exactly one of". When preceded by a term, it shall only be construed as indicating an exclusive choice (ie, "one or the other, not both"). "Contains basically" shall have the usual meaning used in the field of patent law when used in the claims.

本明細書および特許請求の範囲で使用する場合、一つ以上の要素のリストに関連する「少なくとも一つ」という語句は、要素のリストの中の要素のいずれか一つ以上から選択される、少なくとも一つの要素を意味するが、要素のリスト内で具体的に列挙したありとあらゆる要素のうちの、少なくとも一つを必ずしも含むわけではなく、要素のリストのいかなる要素の組み合せも除外するものではないと理解されるべきである。またこの定義によって、「少なくとも一つ」という語句が指す、要素のリスト内で具体的に識別される以外の要素が、具体的に識別される要素に関連するかまたは関連しないかにかかわらず、任意に存在し得ることも許容される。それゆえに、非限定的な例として、「AおよびBのうちの少なくとも一つ」(または等価的に「AまたはBのうちの少なくとも一つ」、もしくは等価的に「Aおよび/またはBのうちの少なくとも一つ」)は、一実施形態においてBは存在せず、任意選択的に二つ以上のAを含む、少なくとも一つのA(任意選択的にB以外の要素を含む)、別の実施形態においてAは存在せず、任意選択的に二つ以上のBを含む、少なくとも一つのB(任意選択的にA以外の要素を含む)、また別の実施形態において任意選択的に二つ以上のAを含む、少なくとも一つのA、および任意選択的に二つ以上のBを含む、少なくとも一つのB(任意選択的に他の要素を含む)を指すことなどができる。 As used herein and in the claims, the phrase "at least one" associated with a list of one or more elements is selected from any one or more of the elements in the list of elements. Means at least one element, but does not necessarily include at least one of all the elements specifically listed in the list of elements, and does not exclude any combination of elements in the list of elements. Should be understood. This definition also allows the phrase "at least one" to refer to elements other than those specifically identified in the list of elements, whether or not they are related to the specifically identified element. It is also permissible that it can exist at will. Therefore, as a non-limiting example, "at least one of A and B" (or equivalently "at least one of A or B", or equivalently "of A and / or B". At least one of "), in which B does not exist in one embodiment and optionally contains two or more A's, at least one A (optionally including an element other than B), another embodiment. A does not exist in the embodiment and optionally contains two or more Bs, at least one B (optionally includes elements other than A), and in another embodiment optionally two or more. It is possible to refer to at least one A including A, and at least one B (optionally including other elements) including two or more Bs.

特許請求の範囲、ならびに上記の明細書で、すべての移行句、例えば、「備える(comprising)」、「含む(including)」、「持つ(carrying)」、「有する(having)」、「収容する(containing)」、「伴う(involving)」、「保持する(holding)」、「から構成される(composed of)」、および類似のものは制約がないと理解され、すなわち、含むがそれに限定はされないということを意味する。「から成る(consisting of)」および「から本質的に成る(consisting essentially of)」という移行句のみが、米国特許局の特許審査手続便覧、セクション2111.03に規定の通り、それぞれ閉鎖的または半閉鎖的な移行句であるものとする。 In the claims, as well as in the specification above, all transitional clauses, such as "comprising," "included," "carrying," "having," and "accommodating." "Patenting", "involving", "holding", "composed of", and the like are understood to be unrestricted, i.e., but not limited to. It means that it will not be done. Only the transitional phrases "consisting of" and "consisting essentially of" are closed or semi-closed, respectively, as provided in the U.S. Patent Office's Handbook of Patent Examination Procedures, Section 2111.03, respectively. It shall be a closed transitional phrase.

Claims (49)

車両であって、
車体と、
運転者の頭部を収容する環境のRGB(赤緑青)画像および深度マップを捕捉するための、前記車体に結合されたセンサと、
作動時に前記運転者の視野(FOV)を調整するための、前記車体に結合された反応システムと、
前記RGB画像および前記深度フレームに基づいて、前記運転者の眼の基準点を決定し、前記眼の基準点に基づいて前記運転者の前記FOVを変更するために、前記反応システムを作動させるための、前記センサおよび前記反応システムへ動作可能に結合されたプロセッサと、を備える、車両。
It ’s a vehicle,
With the car body
A sensor coupled to the vehicle body for capturing RGB (red, green, blue) images and depth maps of the environment that houses the driver's head.
A reaction system coupled to the vehicle body for adjusting the driver's field of view (FOV) during operation.
To activate the reaction system to determine the reference point of the driver's eye based on the RGB image and the depth frame and to change the FOV of the driver based on the reference point of the eye. A vehicle comprising the sensor and a processor operably coupled to the reaction system.
前記深度マップが、前記RGB画像をマスクするために使用され、それゆえ処理のために前記RGB画像の区域が減少する、請求項1に記載の車両。 The vehicle according to claim 1, wherein the depth map is used to mask the RGB image and therefore the area of the RGB image is reduced for processing. 前記深度マップは、前記環境の深度が、前記RGB画像に捕捉された前記環境の場所に対応するように、前記RGB画像に位置合わせされる、請求項1に記載の車両。 The vehicle according to claim 1, wherein the depth map is aligned with the RGB image so that the depth of the environment corresponds to the location of the environment captured in the RGB image. 前記反応システムが、
シャーシ接続の構成要素と、
前記車体に結合された第一の端部、および前記シャーシ接続の構成要素に結合された第二の端部を有し、前記プロセッサへ動作可能に結合された関節ジョイントと、
前記第一の端部に対して前記第二の端部を移動させるための、前記関節ジョイントに結合されたアクチュエータと、を備え、
前記プロセッサが、前記ユーザの前記眼の基準点に基づいて、前記第一の端部に対して前記第二の端部を移動させるために、前記アクチュエータを作動させるよう構成され、それによって前記ユーザの前記FOVを変更する、請求項1に記載の車両。
The reaction system
Chassis connection components and
A joint joint having a first end coupled to the vehicle body and a second end coupled to a component of the chassis connection and operably coupled to the processor.
An actuator coupled to the joint for moving the second end relative to the first end.
The processor is configured to actuate the actuator to move the second end relative to the first end based on the reference point of the user's eye, thereby the user. The vehicle according to claim 1, wherein the FOV of the above is changed.
前記関節ジョイントによって、第一の軸と実質的に平行な第二の軸に沿って移動する、前記眼の基準点に応じて、前記車両の前記第一の軸に沿って、前記第一の端部に対して前記第二の端部を移動させる、請求項4に記載の車両。 The first, along the first axis of the vehicle, according to the reference point of the eye, which is moved by the joint joint along a second axis that is substantially parallel to the first axis. The vehicle according to claim 4, wherein the second end is moved with respect to the end. 前記車体がキャビンを画定し、
前記環境が前記キャビンであり、
前記反応システムが、
前記車両の外側領域のビデオ画像を捕捉するための、前記車体上に取り付けられたカメラ、
前記キャビンの中に配置され、前記プロセッサおよび前記カメラへ動作可能に結合されたディスプレイを備え、
前記プロセッサが、前記運転者の前記FOVを変更するために、前記運転者の前記眼の基準点に基づいて、前記ビデオ画像を修正するように構成され、
前記ディスプレイが、前記プロセッサによって修正された前記ビデオ画像を示すように構成される、請求項1に記載の車両。
The car body defines the cabin,
The environment is the cabin
The reaction system
A camera mounted on the vehicle body for capturing a video image of the outer region of the vehicle,
A display located in the cabin and operably coupled to the processor and camera.
The processor is configured to modify the video image based on the reference point of the eye of the driver in order to change the FOV of the driver.
The vehicle according to claim 1, wherein the display is configured to show the video image modified by the processor.
前記プロセッサが、
前記眼の基準点と前記ディスプレイの中心点との間の距離を計算することと、
前記運転者の前記頭部の動作範囲に基づいて、変換の大きさをスケーリングすることと、
前記距離および前記変換の前記大きさに基づいて、前記ビデオ画像を調整することと、によって前記ビデオ画像を修正するように構成される、請求項6に記載の車両。
The processor
Calculating the distance between the reference point of the eye and the center point of the display,
Scaling the magnitude of the conversion based on the range of motion of the driver's head,
6. The vehicle of claim 6, configured to modify the video image by adjusting the video image based on the distance and the magnitude of the conversion.
前記カメラが第一のカメラであり、
前記第一のビデオ画像が第一のFOVをカバーし、
前記車両外側の前記領域が、前記車両外側の第一の領域であり、
前記反応システムが、前記車両外側にある第二の領域の第二のビデオ画像を、第二のFOVで捕捉するための、前記車体上に取り付けられた第二のカメラをさらに備え、
前記プロセッサは、前記ディスプレイが、前記第一のビデオ画像と前記第二のビデオ画像との間を途切れなく移行するように、前記第一のビデオ画像および前記第二のビデオ画像を組み合わせるように構成される、請求項6に記載の車両。
The camera is the first camera
The first video image covers the first FOV and
The region outside the vehicle is the first region outside the vehicle.
The reaction system further comprises a second camera mounted on the vehicle body for capturing a second video image of the second region outside the vehicle with a second FOV.
The processor is configured to combine the first video image and the second video image so that the display transitions seamlessly between the first video image and the second video image. The vehicle according to claim 6.
車両の運転手の頭部の位置および/または配向を感知するための、前記車両のキャビンの中に配置された室内位置センサと、
前記車両の後方領域のビデオ画像を捕捉するための、前記車両上または前記車両の中に取り付けられたカメラと、
前記運転手の前記頭部の前記位置および/または配向に基づいて、前記運転手の眼の基準点を決定し、前記眼の基準点に基づいて前記ビデオ画像の視野(FOV)または画角のうちの少なくとも一つを修正するための、前記室内位置センサおよび前記カメラへ動作可能に結合されたプロセッサと、
前記プロセッサによって修正された前記ビデオ画像の少なくとも一部分を、前記運転手へ表示するための、前記車両の前記キャビンの中にあり、前記カメラおよびプロセッサへ動作可能に結合されたディスプレイと、を備える、反応性ミラーシステム。
An interior position sensor located in the cabin of the vehicle to detect the position and / or orientation of the driver's head of the vehicle.
A camera mounted on or in the vehicle for capturing video images of the rear region of the vehicle.
A reference point for the driver's eyes is determined based on the position and / or orientation of the driver's head, and the field of view (FOV) or angle of view of the video image is determined based on the reference point for the eyes. With the indoor position sensor and a processor operably coupled to the camera to modify at least one of them,
It comprises a display in the cabin of the vehicle for displaying at least a portion of the video image modified by the processor to the driver and operably coupled to the camera and processor. Reactive mirror system.
前記室内位置センサが、前記運転手の少なくとも前記頭部を表す深度マップを生じるための、ステレオ構成にある一対の赤外線(IR)カメラのうちの少なくとも一つ、または前記運転手の少なくとも前記頭部のRGB(赤緑青)画像を捕捉するための可視光カメラを備える、請求項9に記載の反応性ミラーシステム。 At least one of a pair of infrared (IR) cameras in a stereo configuration for the indoor position sensor to generate a depth map representing at least the head of the driver, or at least the head of the driver. 9. The reactive mirror system according to claim 9, further comprising a visible light camera for capturing RGB (red, green, blue) images. 前記室内位置センサが、少なくとも約60Hzの周波数で、前記運転手の前記頭部の前記位置および/または配向を感知するように構成される、請求項9に記載の反応性ミラーシステム。 9. The reactive mirror system of claim 9, wherein the indoor position sensor is configured to sense the position and / or orientation of the driver's head at a frequency of at least about 60 Hz. 前記カメラが、約10度と約175度との間の範囲である視野(FOV)を有する、請求項9に記載の反応性ミラーシステム。 The reactive mirror system of claim 9, wherein the camera has a field of view (FOV) that ranges between about 10 degrees and about 175 degrees. 前記カメラが、少なくとも1秒あたり約15フレームのフレームレートで、前記ビデオ画像を捕捉するように構成される、請求項9に記載の反応性ミラーシステム。 The reactive mirror system of claim 9, wherein the camera is configured to capture the video image at a frame rate of at least about 15 frames per second. 前記ビデオ画像の前記一部分の輝度、前記ビデオ画像の前記一部分のコントラスト、前記ビデオ画像の前記一部分のパン位置、または前記カメラのFOVのうちの少なくとも一つを調整するための、前記車両の中にあり、前記カメラ、前記ディスプレイ、および前記プロセッサへ動作可能に結合された制御インターフェースをさらに備える、請求項9に記載の反応性ミラーシステム。 In the vehicle for adjusting at least one of the brightness of the portion of the video image, the contrast of the portion of the video image, the pan position of the portion of the video image, or the FOV of the camera. The reactive mirror system of claim 9, further comprising a control interface operably coupled to said camera, said display, and said processor. 車両の運転手に表示されるビデオ画像を変換する方法であって、
前記車両のキャビンを表現したものを測定することであって、前記表現が、深度マップまたはRGB(赤緑青)画像のうちの少なくとも一つを含み、前記表現が、前記車両を運転する前記運転手の頭部を示すことと、
前記表現に基づいて、前記運転手の眼の基準点を決定することと、
前記車両上または前記車両の中に取り付けられたカメラを用いて、前記車両外側の区域の前記ビデオ画像を取得することと、
前記眼の基準点に基づいて、前記ビデオ画像に変換を適用することと、
前記運転者に対して、前記車両の前記キャビン内のディスプレイ上に、前記ビデオ画像を表示することと、を含む、方法。
A method of converting the video image displayed to the driver of the vehicle.
Measuring a representation of the cabin of the vehicle, wherein the representation includes at least one of a depth map or an RGB (red, green, blue) image, and the representation is the driver driving the vehicle. To show the head of
Determining the reference point for the driver's eyes based on the above expression,
Acquiring the video image of the area outside the vehicle using a camera mounted on or inside the vehicle.
Applying the transformation to the video image based on the reference point of the eye,
A method comprising displaying the video image to the driver on a display in the cabin of the vehicle.
前記表現が、前記深度マップおよび前記RGB画像を含み、前記眼の基準点を決定することが、
前記RGB画像を前記深度マップでマスクして、処理のために前記RGB画像の区域を減少させることを含む、請求項15に記載の方法。
The representation may include the depth map and the RGB image to determine the reference point for the eye.
15. The method of claim 15, comprising masking the RGB image with the depth map to reduce the area of the RGB image for processing.
前記運転手の初期座位を較正することをさらに含む、請求項15に記載の方法。 15. The method of claim 15, further comprising calibrating the driver's initial sitting position. 前記運転手の動作範囲を較正することをさらに含む、請求項17に記載の方法。 17. The method of claim 17, further comprising calibrating the driver's operating range. 前記ディスプレイの位置ずれを較正することをさらに含む、請求項18に記載の方法。 18. The method of claim 18, further comprising calibrating the misalignment of the display. 前記ディスプレイの中心点を計算することをさらに含む、請求項19に記載の方法。 19. The method of claim 19, further comprising calculating the center point of the display. 前記変換が、
前記眼の基準点と前記ディスプレイの前記中心点との間の距離を計算することと、
前記運転者の前記動作範囲に基づいて、前記変換の大きさをスケーリングすることと、
前記距離および前記変換の前記大きさに基づいて、前記カメラの視野または前記カメラのパン位置のうちの少なくとも一つを調整することと、を含む、請求項20に記載の方法。
The conversion is
Calculating the distance between the reference point of the eye and the center point of the display,
Scaling the magnitude of the transformation based on the driver's operating range.
20. The method of claim 20, comprising adjusting at least one of the camera's field of view or the camera's pan position based on said distance and said magnitude of the transformation.
前記変換が、
前記眼の基準点から前記ディスプレイの前記中心点までのベクトルに基づいて、標的視野および標的パン位置を計算することと、
カメラの焦点距離、カメラのアスペクト比、もしくはカメラのセンササイズのうちの少なくとも一つに基づいて、並進または倍率のうちの少なくとも一つを計算することと、
前記標的視野および前記標的パン位置をシミュレートするように、前記並進もしくは前記倍率のうちの前記少なくとも一つに基づいて、前記ビデオ画像の視野またはパン位置のうちの少なくとも一つを調整することと、を含む、請求項20に記載の方法。
The conversion is
To calculate the target field of view and the target pan position based on the vector from the reference point of the eye to the center point of the display.
To calculate at least one of the translations or magnifications based on at least one of the camera's focal length, camera's aspect ratio, or camera's sensor size.
Adjusting at least one of the visual fields or pan positions of the video image based on the at least one of the translations or magnifications to simulate the target field of view and the target pan position. , The method of claim 20.
前記変換を適用する前に、
前記ビデオ画像の放射状歪みまたは接線方向歪みのうちの少なくとも一つを減少させるように、前記ビデオ画像に補正を適用することをさらに含む、請求項15に記載の方法。
Before applying the transformation
15. The method of claim 15, further comprising applying corrections to the video image so as to reduce at least one of the radial or tangential distortion of the video image.
車両上または前記車両の中に取り付けられた、少なくとも一つのカメラを調整する方法であって、
前記車両のキャビンを表現したものを測定することであって、前記表現が、深度マップまたはRGB(赤緑青)画像のうちの少なくとも一つを含み、前記表現が、前記車両を運転する運転手の頭部を示すことと、
前記表現に基づいて、前記運転手の眼の基準点を決定することと、
前記眼の基準点に基づいて、前記少なくとも一つのカメラの視野(FOV)またはパン位置のうちの少なくとも一つを調整することと、
前記少なくとも一つのカメラによって取得された、前記車両外側にある区域の少なくとも一つのディスプレイ上に、ビデオ画像を表示することと、を含む、方法。
A method of adjusting at least one camera mounted on or in a vehicle.
Measuring a representation of the cabin of the vehicle, wherein the representation includes at least one of a depth map or an RGB (red, green, blue) image, and the representation is the driver driving the vehicle. Showing the head and
Determining the reference point for the driver's eyes based on the above expression,
Adjusting at least one of the field of view (FOV) or pan position of the at least one camera based on the reference point of the eye.
A method comprising displaying a video image on at least one display in an area outside the vehicle acquired by the at least one camera.
前記少なくとも一つのカメラが、第一のビデオ画像を取得するための第一のカメラと、第二のビデオ画像を取得するための第二のカメラとを含む、請求項24に記載の方法。 24. The method of claim 24, wherein the at least one camera comprises a first camera for acquiring a first video image and a second camera for acquiring a second video image. 前記第一のカメラと前記第二のカメラとの間に途切れないFOVを提供するために、前記第一のビデオ画像を前記第二のビデオ画像とつなぎ合わせることをさらに含む、請求項25に記載の方法。 25. Claim 25, further comprising stitching the first video image with the second video image in order to provide an uninterrupted FOV between the first camera and the second camera. the method of. 前記運転手の初期座位を較正することと、
前記少なくとも一つのディスプレイ上に表示される、前記ビデオ画像の位置ずれを較正することと、
前記初期座位および前記位置ずれを使用して、前記少なくとも一つのディスプレイ上に表示される、前記ビデオ画像の中心点を計算することと、をさらに含む、請求項24に記載の方法。
Calibrating the driver's initial sitting position and
To calibrate the misalignment of the video image displayed on at least one of the displays.
24. The method of claim 24, further comprising calculating the center point of the video image displayed on the at least one display using the initial sitting position and the misalignment.
前記初期座位に対する前記運転手の動作範囲を較正することと、
前記運転手の前記動作範囲に基づいて、前記少なくとも一つのカメラのパン速度をスケーリングすることと、をさらに含む、請求項24に記載の方法。
Calibrating the driver's range of motion for the initial sitting position and
24. The method of claim 24, further comprising scaling the pan speed of the at least one camera based on the driver's operating range.
前記ビデオ画像を表示する前に、
一つ以上の歪み係数を使用して、放射状歪みまたは接線方向歪みの少なくとも一つを減少させるように、前記ビデオ画像に補正を適用することをさらに含む、請求項24に記載の方法。
Before displaying the video image
24. The method of claim 24, further comprising applying corrections to the video image to reduce at least one of radial or tangential distortions using one or more strain coefficients.
車両であって、
車体と、
シャーシ接続の構成要素と、
前記車体に結合された第一の端部、および前記シャーシ接続の構成要素に結合された第二の端部を有する関節ジョイントであって、
前記第一の端部および前記第二の端部に結合され、経路を画定するガイド構造であって、前記第二の端部が、前記経路に沿って前記第一の端部に対して移動可能である、ガイド構造、
前記経路に沿って前記第二の端部を移動させるための、前記ガイド構造に結合された駆動アクチュエータ、
起動するのに応じて、前記経路に沿って前記第二の端部を固定位置に保持するための、前記ガイド構造に結合されたブレーキ、を備える関節ジョイントと、
運転者および前記車両を囲む環境のうちの少なくとも一つを感知するための、前記車体に結合された一つ以上のセンサと、
前記運転者または前記車両を囲む前記環境のうちの前記少なくとも一つに基づいて、前記関節ジョイントを作動させるための、前記一つ以上のセンサおよび前記関節ジョイントへ動作可能に結合された、プロセッサと、を備える、車両。
It ’s a vehicle,
With the car body
Chassis connection components and
A joint joint having a first end coupled to the vehicle body and a second end coupled to a component of the chassis connection.
A guide structure coupled to the first end and the second end to define a path, wherein the second end moves along the path with respect to the first end. Possible, guide structure,
A drive actuator coupled to the guide structure for moving the second end along the path.
A joint joint comprising a brake coupled to the guide structure for holding the second end in a fixed position along the path in response to activation.
One or more sensors coupled to the vehicle body to detect at least one of the driver and the environment surrounding the vehicle.
With the one or more sensors for activating the joint and a processor operably coupled to the joint based on at least one of the environment surrounding the driver or vehicle. , A vehicle.
前記シャーシ接続の構成要素が、後部車体である、請求項30に記載の車両。 The vehicle according to claim 30, wherein the component of the chassis connection is a rear vehicle body. 前記シャーシ接続の構成要素が、車輪である、請求項30に記載の車両。 30. The vehicle according to claim 30, wherein the component of the chassis connection is a wheel. 前記車体が、前記運転者を収容するキャビンを画定し、
前記一つ以上のセンサが、前記キャビンを表現するものを生成するように構成され、前記表現が前記運転者の頭部を示す、請求項30に記載の車両。
The vehicle body defines a cabin that accommodates the driver.
30. The vehicle of claim 30, wherein the one or more sensors are configured to generate a representation of the cabin, wherein the representation represents the driver's head.
前記プロセッサが、前記キャビンの前記表現に基づいて、前記運転者の眼の基準点の動きを識別するように構成され、
前記プロセッサが、前記車両の第一の軸に沿った、前記運転者の前記眼の基準点の動きを識別するのに応じて、前記関節ジョイントが、前記環境に対して前記運転者の前記眼の基準点の前記変位を増加させるために、前記第一の軸と実質的に平行な第二の軸に沿って、前記車体を移動させるように構成される、請求項33に記載の車両。
The processor is configured to identify the movement of the reference point of the driver's eye based on the representation of the cabin.
As the processor identifies the movement of the driver's eye reference point along the first axis of the vehicle, the joint joint may cause the driver's eye to the environment. 33. The vehicle of claim 33, configured to move the vehicle body along a second axis that is substantially parallel to the first axis in order to increase the displacement of the reference point.
前記軸に沿った前記車体の動きによって、前記運転者の視野(FOV)を修正する、請求項34に記載の車両。 34. The vehicle of claim 34, wherein the driver's field of view (FOV) is modified by the movement of the vehicle body along the axis. 前記プロセッサが、前記表現に基づいて、前記運転者が知覚するまぶしい光を検出し、前記運転者が知覚する前記まぶしい光を減少させるために、前記関節ジョイントを作動させるように構成される、請求項33に記載の車両。 The processor is configured to activate the joint joint in order to detect the bright light perceived by the driver and reduce the bright light perceived by the driver, based on the representation. Item 33. The vehicle according to item 33. 前記表現が、深度マップまたはRGB(赤緑青)画像のうちの少なくとも一つを含む、請求項33に記載の車両。 33. The vehicle of claim 33, wherein the representation comprises at least one of a depth map or an RGB (red, green, blue) image. 前記一つ以上のセンサが、前記環境の領域のビデオ画像を捕捉するカメラを備え、前記ビデオ画像が運転者の頭部を示す、請求項30に記載の車両。 30. The vehicle of claim 30, wherein the one or more sensors comprises a camera that captures a video image of the region of the environment, wherein the video image indicates the driver's head. 前記プロセッサが、前記ビデオ画像の中で、前記運転者の前記頭部の相対位置を決定するように構成され、
前記一つ以上のセンサに対して、前記運転者の前記頭部が移動していることを検出するのに応じて、前記プロセッサが、前記関節ジョイントを作動させて、前記運転者の前記頭部が、前記ビデオ画像内の前記位置に戻るよう、前記車体を移動させるように構成される、請求項38に記載の車両。
The processor is configured to determine the relative position of the driver's head in the video image.
In response to detecting that the driver's head is moving with respect to the one or more sensors, the processor activates the joint joint to activate the driver's head. 38. The vehicle according to claim 38, wherein the vehicle body is configured to move the vehicle body so as to return to the position in the video image.
前記車体がキャビンを画定し、
前記車両の外側領域のビデオ画像を捕捉するための、前記車両上または前記車両の中に取り付けられ、前記プロセッサへ動作可能に結合されたカメラと、
前記ビデオ画像を前記運転者に表示するための、前記キャビンの中に配置され、前記カメラおよび前記プロセッサへ動作可能に結合されたディスプレイと、をさらに備える、請求項30に記載の車両。
The car body defines the cabin,
A camera mounted on or in the vehicle and operably coupled to the processor for capturing video images of the outer region of the vehicle.
30. The vehicle of claim 30, further comprising a display arranged in the cabin and operably coupled to the camera and the processor for displaying the video image to the driver.
前記プロセッサが、前記ビデオ画像に基づいて、前記運転者の眼の基準点を決定し、前記運転者の前記眼の基準点に基づいて、前記ビデオ画像の第一の視野(FOV)または画角のうちの少なくとも一つを修正するように構成され、
前記ディスプレイが、前記プロセッサによって修正された、前記ビデオ画像の少なくとも一部分を示すように構成される、請求項40に記載の車両。
The processor determines a reference point for the driver's eye based on the video image and a first field of view (FOV) or angle of view of the video image based on the reference point for the driver's eye. Configured to fix at least one of
40. The vehicle of claim 40, wherein the display is configured to show at least a portion of the video image modified by the processor.
前記車両の第一の軸に沿って移動する、前記運転者の前記眼の基準点に応じて、前記プロセッサが、前記関節ジョイントを作動させて、前記第一の軸と実質的に平行な第二の軸に沿って、前記車体を移動させ、それによって前記運転者のFOVを修正するように構成される、請求項41に記載の車両。 In response to the driver's eye reference point moving along the first axis of the vehicle, the processor activates the joint joint to substantially parallel the first axis. 41. The vehicle of claim 41, configured to move the vehicle body along two axes, thereby modifying the driver's FOV. 車両を運転する方法であって、
第一のセンサを使用して、前記車両の運転者から第一の入力を受信することと、
第二のセンサを使用して、前記車両外側の環境から第二の入力を受信することと、
プロセッサを使用して、前記第一の入力と前記第二の入力との間の相関を識別することと、
前記プロセッサを使用して、前記相関に基づいて挙動ベースのコマンドを生成することであって、前記挙動ベースのコマンドが、前記車両のアクチュエータに適用されるとき、前記車両を事前に定義された挙動で移動させることと、
前記挙動ベースのコマンドと、前記プロセッサへ動作可能に結合された入力装置を介した、前記運転者からの明示的なコマンドと、前記第二の入力とに基づいて、組み合わせたコマンドを生成することと、
前記車両の安定性を維持するために、前記組み合わせたコマンドを調整、またはフィルタリングすることのうちの少なくとも一つと、
前記調整および/またはフィルタリングされた、組み合わせたコマンドを使用して、前記車両の前記アクチュエータを作動させることと、を含む、方法。
It ’s a way to drive a vehicle.
Using the first sensor to receive the first input from the driver of the vehicle,
Using the second sensor to receive the second input from the environment outside the vehicle,
Using a processor to identify the correlation between the first input and the second input,
The processor is used to generate behavior-based commands based on the correlation, which, when applied to the actuator of the vehicle, causes the vehicle to have predefined behavior. To move with
Generating a combined command based on the behavior-based command, an explicit command from the driver via an input device operably coupled to the processor, and the second input. When,
At least one of adjusting or filtering the combined commands to maintain the stability of the vehicle.
A method comprising activating the actuator of the vehicle using the adjusted and / or filtered, combined command.
前記第一の入力が、前記車両のキャビンを表現するものを含み、前記表現が前記運転者の頭部を示す、請求項43に記載の方法。 43. The method of claim 43, wherein the first input comprises one representing the cabin of the vehicle, wherein the representation indicates the driver's head. 前記事前に定義された挙動は、前記表現に基づいて、第一の軸と実質的に平行な第二の軸に沿って移動する、前記運転者の頭部の動きを、前記プロセッサが識別するのに応じて、前記第一の軸に沿って前記車両を移動させることを含む、請求項44に記載の方法。 The pre-defined behavior is based on the representation and the processor identifies the movement of the driver's head as it moves along a second axis that is substantially parallel to the first axis. 44. The method of claim 44, comprising moving the vehicle along the first axis accordingly. 前記プロセッサが、前記表現に基づいて、前記運転者が知覚するまぶしい光を検出するように構成され、前記事前に定義された挙動が、前記運転者が知覚する前記まぶしい光を減少させるために、前記車両を移動させることを含む、請求項44に記載の方法。 The processor is configured to detect the glare light perceived by the driver based on the representation so that the predefined behavior reduces the glare light perceived by the driver. 44. The method of claim 44, comprising moving the vehicle. 前記第二の入力が、前記車両の車輪のトラクション、前記環境の温度、または別の車両もしくは人のうちの少なくとも一つを示す前記環境の画像のうちの少なくとも一つを含む、請求項43に記載の方法。 43. The second input comprises at least one of the images of the environment showing the traction of the wheels of the vehicle, the temperature of the environment, or at least one of another vehicle or person. The method described. 前記入力装置が、ハンドル、アクセル、またはブレーキのうちの少なくとも一つである、請求項43に記載の方法。 43. The method of claim 43, wherein the input device is at least one of a steering wheel, accelerator, or brake. 前記明示的なコマンドが、前記挙動ベースのコマンドに優先する、請求項43に記載の方法。 43. The method of claim 43, wherein the explicit command supersedes the behavior-based command.
JP2021519709A 2018-10-12 2019-10-11 Methods and devices for adjusting the reaction system based on the sensory input and the vehicle incorporating it Pending JP2022520685A (en)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201862745038P 2018-10-12 2018-10-12
US62/745,038 2018-10-12
USPCT/US2019/029793 2019-04-30
PCT/US2019/029793 WO2019213015A1 (en) 2018-04-30 2019-04-30 Articulated vehicles with payload-positioning systems
PCT/US2019/055814 WO2020077194A1 (en) 2018-10-12 2019-10-11 Methods and apparatus to adjust a reactive system based on a sensory input and vehicles incorporating same

Publications (1)

Publication Number Publication Date
JP2022520685A true JP2022520685A (en) 2022-04-01

Family

ID=70164793

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021519709A Pending JP2022520685A (en) 2018-10-12 2019-10-11 Methods and devices for adjusting the reaction system based on the sensory input and the vehicle incorporating it

Country Status (6)

Country Link
EP (1) EP3863873A4 (en)
JP (1) JP2022520685A (en)
KR (1) KR20210088581A (en)
CN (1) CN113165483A (en)
CA (1) CA3115786A1 (en)
WO (1) WO2020077194A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4372700A1 (en) * 2022-11-18 2024-05-22 Aptiv Technologies AG A system and method for interior sensing in a vehicle

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10023585B4 (en) * 2000-05-13 2005-04-21 Daimlerchrysler Ag Display arrangement in a vehicle
US7526103B2 (en) * 2004-04-15 2009-04-28 Donnelly Corporation Imaging system for vehicle
US7576767B2 (en) * 2004-07-26 2009-08-18 Geo Semiconductors Inc. Panoramic vision system and method
EP3515063A1 (en) * 2007-04-02 2019-07-24 Esight Corp. A method for augmenting sight
KR101351656B1 (en) * 2012-03-30 2014-01-16 대성전기공업 주식회사 Vehicular glance lighting apparatus
WO2010099416A1 (en) * 2009-02-27 2010-09-02 Magna Electronics Alert system for vehicle
US8482486B2 (en) * 2009-04-02 2013-07-09 GM Global Technology Operations LLC Rear view mirror on full-windshield head-up display
US8564502B2 (en) * 2009-04-02 2013-10-22 GM Global Technology Operations LLC Distortion and perspective correction of vector projection display
US8629784B2 (en) * 2009-04-02 2014-01-14 GM Global Technology Operations LLC Peripheral salient feature enhancement on full-windshield head-up display
US8212874B2 (en) * 2009-10-23 2012-07-03 GM Global Technology Operations LLC Automatic camera calibration using GPS and solar tracking
US9298985B2 (en) * 2011-05-16 2016-03-29 Wesley W. O. Krueger Physiological biosensor system and method for controlling a vehicle or powered equipment
US9102269B2 (en) * 2011-08-09 2015-08-11 Continental Automotive Systems, Inc. Field of view matching video display system
KR101390399B1 (en) * 2012-08-30 2014-04-30 한국과학기술원 Foldable vehicle and method of controlling the same
CN105143027B (en) * 2013-03-15 2019-05-31 D·凯利 Three-wheeled vehicle
EP3010761B1 (en) * 2013-06-21 2019-07-24 Magna Electronics Inc. Vehicle vision system
US10017114B2 (en) * 2014-02-19 2018-07-10 Magna Electronics Inc. Vehicle vision system with display
US9626766B2 (en) * 2014-02-28 2017-04-18 Microsoft Technology Licensing, Llc Depth sensing using an RGB camera
US9744907B2 (en) * 2014-12-29 2017-08-29 Gentex Corporation Vehicle vision system having adjustable displayed field of view
US20180134217A1 (en) * 2015-05-06 2018-05-17 Magna Mirrors Of America, Inc. Vehicle vision system with blind zone display and alert system
US10007854B2 (en) * 2016-07-07 2018-06-26 Ants Technology (Hk) Limited Computer vision based driver assistance devices, systems, methods and associated computer executable code
US20180096668A1 (en) * 2016-09-30 2018-04-05 Ford Global Technologies, Llc Hue adjustment of a vehicle display based on ambient light
KR20180056867A (en) * 2016-11-21 2018-05-30 엘지전자 주식회사 Display device and operating method thereof

Also Published As

Publication number Publication date
CN113165483A (en) 2021-07-23
EP3863873A4 (en) 2022-06-29
WO2020077194A1 (en) 2020-04-16
CA3115786A1 (en) 2020-04-16
KR20210088581A (en) 2021-07-14
EP3863873A1 (en) 2021-08-18

Similar Documents

Publication Publication Date Title
US20210387573A1 (en) Methods and apparatus to adjust a reactive system based on a sensory input and vehicles incorporating same
US20160297362A1 (en) Vehicle exterior side-camera systems and methods
JP4899340B2 (en) Driving sense adjustment device and driving sense adjustment method
US9902403B2 (en) Sensory stimulation for an autonomous vehicle
KR101622622B1 (en) Apparatus for providing under vehicle image and vehicle including the same
CN107444263B (en) Display device for vehicle
KR101579100B1 (en) Apparatus for providing around view and Vehicle including the same
KR101565006B1 (en) apparatus for providing around view and Vehicle including the same
US20180319407A1 (en) Integration of occupant monitoring systems with vehicle control systems
US20170287168A1 (en) Around view provision apparatus and vehicle including the same
US20190102634A1 (en) Parking position display processing apparatus, parking position display method, and program
KR20180056867A (en) Display device and operating method thereof
JP4735676B2 (en) Driving support device
JP7389485B2 (en) electric mobility
US20160313792A1 (en) Device and method for navigating within a menu for controlling a vehicle, and selecting a menu entry from the menu
US10363876B2 (en) Image display device
JPH07223488A (en) Situation information display device for vehicle
JP2005125828A (en) Vehicle surrounding visually confirming system provided with vehicle surrounding visually confirming device
US20220242449A1 (en) Vehicle Control System
KR102135379B1 (en) Robot for vehicle and control method of the robot
US20230356728A1 (en) Using gestures to control machines for autonomous systems and applications
WO2005035314A1 (en) Integrated mirror
JP2022520685A (en) Methods and devices for adjusting the reaction system based on the sensory input and the vehicle incorporating it
JP2011157066A (en) Operation feeling adjusting device
WO2023284748A1 (en) Auxiliary driving system and vehicle