JP7379253B2 - Behavior estimation system and behavior estimation method - Google Patents

Behavior estimation system and behavior estimation method Download PDF

Info

Publication number
JP7379253B2
JP7379253B2 JP2020060199A JP2020060199A JP7379253B2 JP 7379253 B2 JP7379253 B2 JP 7379253B2 JP 2020060199 A JP2020060199 A JP 2020060199A JP 2020060199 A JP2020060199 A JP 2020060199A JP 7379253 B2 JP7379253 B2 JP 7379253B2
Authority
JP
Japan
Prior art keywords
behavior
passenger
head
vehicle
moving object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020060199A
Other languages
Japanese (ja)
Other versions
JP2021157733A (en
Inventor
裕史 井上
乘 西山
剛仁 寺口
雄宇 志小田
翔太 大久保
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Renault SAS
Original Assignee
Renault SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renault SAS filed Critical Renault SAS
Priority to JP2020060199A priority Critical patent/JP7379253B2/en
Publication of JP2021157733A publication Critical patent/JP2021157733A/en
Application granted granted Critical
Publication of JP7379253B2 publication Critical patent/JP7379253B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、挙動推定システム及び挙動推定方法に関するものである。 The present invention relates to a behavior estimation system and a behavior estimation method.

移動体に搭乗する搭乗者の頭部の挙動及び移動体の挙動を取得し、これらの挙動の差に基づいて、搭乗者が行う頭部の動作を推定する技術が知られている。 2. Description of the Related Art A technique is known in which the behavior of the head of a passenger riding a moving body and the behavior of the moving body are acquired, and the head motion performed by the passenger is estimated based on the difference between these behaviors.

例えば、特許文献1の技術では、移動体のインスツルメントパネルに固定された携帯電話のモーションセンサが移動体の挙動を検出する。また、搭乗者に装着されたウェアラブルデバイスのセンサが搭乗者の頭部の挙動を検出する。そして、検出された移動体の挙動と搭乗者の頭部の挙動の差に基づいて、搭乗者が行う頭部の動作が推定される。 For example, in the technique disclosed in Patent Document 1, a motion sensor of a mobile phone fixed to an instrument panel of a moving object detects the behavior of the moving object. Additionally, a sensor in a wearable device attached to the passenger detects the behavior of the passenger's head. Then, based on the difference between the detected behavior of the moving object and the behavior of the passenger's head, the head movement performed by the passenger is estimated.

特開2017-77296号公報JP2017-77296A

しかしながら、特許文献1の技術は、移動体内の一か所に固定されたモーションセンサによって検出された移動体の挙動を用いて、搭乗者による身体の挙動を推定する。移動体の挙動によって生じる搭乗者の身体の挙動は、移動体における搭乗者の位置に応じて異なるため、特許文献1の技術は、搭乗者による身体の挙動を正確に推定できないという問題がある。 However, the technique disclosed in Patent Document 1 estimates the bodily behavior of the passenger using the behavior of the moving body detected by a motion sensor fixed at one location within the moving body. Since the behavior of the occupant's body caused by the behavior of the moving body differs depending on the position of the occupant on the moving body, the technique of Patent Document 1 has a problem in that the body behavior of the occupant cannot be accurately estimated.

本発明が解決しようとする課題は、移動体の搭乗者による身体の挙動を正確に推定できる挙動推定システム及び挙動推定方法を提供することである。 The problem to be solved by the present invention is to provide a behavior estimation system and a behavior estimation method that can accurately estimate the physical behavior of a passenger of a moving body.

本発明は、移動体に搭乗する搭乗者の身体の挙動を検出し、移動体における搭乗者の位置を搭乗者位置として検出し、移動体の複数の設置位置における移動体の挙動を検出し、移動体における搭乗者位置と複数の設置位置との位置関係と、複数の設置位置における移動体の挙動とに基づいて、搭乗者位置における移動体の挙動を推定し、検出された身体の挙動と搭乗者位置における移動体の挙動とに基づいて、搭乗者による身体の挙動を推定することによって上記課題を解決する。 The present invention detects the physical behavior of a passenger riding a mobile body, detects the position of the passenger on the mobile body as the passenger position, detects the behavior of the mobile body at a plurality of installation positions of the mobile body, Based on the positional relationship between the passenger position and multiple installation positions on the mobile body and the behavior of the mobile body at the multiple installation positions, the behavior of the mobile body at the passenger position is estimated, and the detected body behavior and the behavior of the mobile body are estimated. The above problem is solved by estimating the bodily behavior of the occupant based on the behavior of the moving body at the occupant's position.

本発明によれば、移動体の搭乗者による身体の挙動を正確に推定できる。 According to the present invention, it is possible to accurately estimate the physical behavior of a passenger of a moving body.

図1は、第1実施形態における挙動推定システムの構成の一例を示す図である。FIG. 1 is a diagram showing an example of the configuration of a behavior estimation system in the first embodiment. 図2は、車両が左折するときにセンサによって検出される加速度を示す模式的な図である。FIG. 2 is a schematic diagram showing the acceleration detected by the sensor when the vehicle turns left. 図3Aは、本実施形態における複数の移動体挙動検出装置11の位置の一例を示す図である。FIG. 3A is a diagram showing an example of the positions of the plurality of moving body behavior detection devices 11 in this embodiment. 図3Bは、本実施形態における複数の移動体挙動検出装置11の位置の一例を示す図である。FIG. 3B is a diagram showing an example of the positions of the plurality of moving object behavior detection devices 11 in this embodiment. 図4は、進行方向に走行している車両の車内と搭乗者の視線方向の位置関係を示す図である。FIG. 4 is a diagram showing the positional relationship between the interior of a vehicle traveling in the traveling direction and the passenger's line of sight. 図5Aは、搭乗者が車両の進行方向に視線を向けているときの、ウェアラブルデバイスを介して視界に映る車内の様子を示す図である。FIG. 5A is a diagram showing the interior of the vehicle as seen through the wearable device when the passenger is looking in the direction of travel of the vehicle. 図5Bは、搭乗者が車両の進行方向に対して左側に視線を向けているときの、ウェアラブルデバイスを介して視界に映る車内の様子を示す図である。FIG. 5B is a diagram showing the interior of the vehicle as seen through the wearable device when the passenger is looking to the left with respect to the direction of travel of the vehicle. 図6は、左折している車両の車内と搭乗者の視線方向の位置関係を示す図である。FIG. 6 is a diagram showing the positional relationship between the interior of a vehicle that is making a left turn and the passenger's line of sight. 図7は、車両の挙動を含む搭乗者の頭部の挙動に基づいて表示画像を制御した場合の、搭乗者の視界に映る車内の様子を示す図である。FIG. 7 is a diagram showing the interior of the vehicle as seen in the passenger's field of view when the display image is controlled based on the behavior of the passenger's head, including the behavior of the vehicle. 図8は、本実施形態における挙動推定の手順の一例を示すフローチャートある。FIG. 8 is a flowchart showing an example of a procedure for behavior estimation in this embodiment. 図9は、第2実施形態における挙動推定システムの構成の一例を示す図である。FIG. 9 is a diagram illustrating an example of the configuration of a behavior estimation system in the second embodiment.

≪第1実施形態≫
本発明に係る挙動推定システムの一実施形態を図面に基づいて説明する。
≪First embodiment≫
An embodiment of the behavior estimation system according to the present invention will be described based on the drawings.

本実施形態に係る挙動推定システムの構成を図1を用いて説明する。図1は、本実施形態における挙動推定システム1の機能構成の一例を示すブロック図である。 The configuration of the behavior estimation system according to this embodiment will be explained using FIG. 1. FIG. 1 is a block diagram showing an example of the functional configuration of a behavior estimation system 1 in this embodiment.

挙動推定システム1は、車載デバイス10とウェアラブルデバイス20とを備える。車載デバイス10は車両2に搭載されている装置である。車載デバイス10は、少なくとも移動体挙動検出装置11、コントローラ12と、車載通信装置13と、カメラ14と、シートセンサ15とを備える。また、ウェアラブルデバイス20は、車両2に搭乗している搭乗者に装着される装置である。また、ウェアラブルデバイス20は、搭乗者挙動検出装置21と、表示部22と、通信装置23とを備える。ウェアラブルデバイス20は、例えば、メガネ型又はゴーグル型のヘッドマウントディスプレイであって、搭乗者の頭部に装着されて、搭乗者の頭部の挙動を検出する。また、ウェアラブルデバイス20は、ディスプレイ等である表示部22に、搭乗者の視界に映る景色に重畳させるように仮想オブジェクトの表示画像を表示させる。なお、本実施形態では、挙動推定システム1は、車両に搭載された装置等により構成されているが、車両に限らず、その他の移動体に搭載されてもよい。例えば、電車、船、飛行機等であってもよい。 The behavior estimation system 1 includes an in-vehicle device 10 and a wearable device 20. The in-vehicle device 10 is a device mounted on the vehicle 2. The in-vehicle device 10 includes at least a moving object behavior detection device 11, a controller 12, an in-vehicle communication device 13, a camera 14, and a seat sensor 15. Further, the wearable device 20 is a device that is attached to a passenger riding in the vehicle 2. The wearable device 20 also includes a passenger behavior detection device 21, a display section 22, and a communication device 23. The wearable device 20 is, for example, a glasses-type or goggle-type head-mounted display, and is attached to the passenger's head to detect the behavior of the passenger's head. In addition, the wearable device 20 causes the display unit 22, which is a display or the like, to display a display image of the virtual object so as to be superimposed on the scenery seen in the passenger's field of view. In the present embodiment, the behavior estimation system 1 is configured by a device mounted on a vehicle, but is not limited to a vehicle, and may be mounted on another moving body. For example, it may be a train, a ship, an airplane, etc.

また、挙動推定システム1は、車両2内の任意の位置にいる搭乗者による身体の挙動を推定し、推定された搭乗者による身体の挙動に基づいて、表示部22における画像表示を制御する。搭乗者による身体の挙動とは、搭乗者が行う行為に起因して生じる身体の挙動、すなわち、搭乗者の能動的な身体の挙動である。例えば、搭乗者が頭部の向きを変えることによって生じる頭部の挙動や、搭乗者が腕を動かすことによって生じる腕の挙動である。また、身体の挙動として、身体の加速度及び角速度の少なくともいずれかひとつが検出される。本実施形態では、搭乗者の頭部に装着されたウェアラブルデバイス20のセンサが搭乗者の頭部の挙動を検出する。したがって、車両2が静止している場合には、搭乗者が頭部を動かしたときに、センサが搭乗者による頭部の挙動を検出することができる。しかしながら、車両2が走行している場合には、センサによって検出される搭乗者の頭部の挙動には、搭乗者による頭部の挙動だけでなく、車両2の挙動によって生じる頭部の挙動、すなわち、受動的な頭部の挙動も含まれる。例えば、搭乗者が頭部を動かしたとしても、走行している車両2の加減速や旋回によっても、搭乗者の頭部に挙動が生じるため、センサは、ふたつの挙動が合わさった状態で、搭乗者の頭部の挙動を検出する。このような状況では、センサによって、搭乗者による頭部の挙動のみを適切に検出することは困難である。そこで、従来では、ウェアラブルデバイス20のセンサによる搭乗者の頭部の挙動の検出とは別に、車両2の挙動を検出して、ウェアラブルデバイス20のセンサで検出した搭乗者の頭部の挙動から車両2の挙動を差し引くことで、搭乗者による頭部の挙動のみを推定する。 Furthermore, the behavior estimation system 1 estimates the physical behavior of a passenger located at an arbitrary position within the vehicle 2, and controls image display on the display unit 22 based on the estimated physical behavior of the passenger. The body behavior by the passenger is the body behavior that occurs due to the actions performed by the passenger, that is, the active body behavior of the passenger. For example, the behavior of the head occurs when the occupant changes the direction of the head, and the behavior of the arms occurs when the occupant moves his arms. Further, as the behavior of the body, at least one of acceleration and angular velocity of the body is detected. In this embodiment, the sensor of the wearable device 20 attached to the passenger's head detects the behavior of the passenger's head. Therefore, when the vehicle 2 is stationary and the occupant moves his or her head, the sensor can detect the behavior of the occupant's head. However, when the vehicle 2 is running, the behavior of the occupant's head detected by the sensor includes not only the behavior of the occupant's head but also the behavior of the head caused by the behavior of the vehicle 2. That is, passive head behavior is also included. For example, even if the passenger moves his or her head, the movement of the passenger's head also occurs due to the acceleration, deceleration, or turning of the traveling vehicle 2, so the sensor detects the combination of the two movements. Detects the behavior of the passenger's head. In such a situation, it is difficult for the sensor to appropriately detect only the head behavior of the passenger. Therefore, conventionally, in addition to detecting the behavior of the passenger's head using the sensor of the wearable device 20, the behavior of the vehicle 2 is detected, and the vehicle By subtracting the behavior of 2, only the behavior of the head by the occupant is estimated.

しかしながら、車両2の挙動が搭乗者の頭部の挙動に与える影響は、車両2内における搭乗者の位置に応じて異なる。例えば、車両2の挙動は、図2で示されるように、車両2内の位置に応じて異なる。図2は、車両2が左方向に曲がるカーブを旋回しているときの、車両2内の3か所に設置された加速度センサ(前方センサ200、中央センサ201、後方センサ202)がそれぞれ検出する車両の加速度を模式的に示している図である。図2では、各センサによる検出された加速度の方向と大きさが、X軸方向(車両2の進行方向)とY軸方向(車両2の幅方向)の成分に分解され、ベクトルの方向と大きさにより表現されている。例えば、後方センサ202における加速度の方向は、前方センサ200における加速度の方向と比較すると、Y軸方向において反対向きとなっている。また、中央センサ201における加速度の大きさは、Y軸方向において、前方センサ200における加速度の大きさよりも小さい。このように、車両2の挙動は、車両2内の位置に応じて異なる。したがって、車両内において、任意の位置に座っている搭乗者による身体の挙動を正確に推定するためには、搭乗者の位置に応じて異なる車両の挙動を推定する必要がある。本実施形態に係る挙動推定システム1は、搭乗者の位置における車両の挙動を推定し、センサにより検出された搭乗者の頭部の挙動から、搭乗者の位置における車両の挙動を差し引くことで、搭乗者の位置における搭乗者による頭部の挙動を推定する。これにより、本実施形態では、移動体の搭乗者による身体の挙動を正確に推定できる。また、搭乗者による頭部の挙動に応じてウェアラブルデバイス20の表示部22に表示画像を表示させる場合に、推定された搭乗者による身体の挙動に基づいて、搭乗者の視界に適切に画像を表示させることができる。例えば、搭乗者の視界に映る車内の対象物に重ねるように表示画像を表示させる場合には、搭乗者による頭部の挙動に応じて表示部22上における表示画像の表示位置を制御するために、搭乗者による頭部の挙動を正確に推定しなければならないからである。 However, the influence that the behavior of the vehicle 2 has on the behavior of the occupant's head differs depending on the occupant's position within the vehicle 2. For example, the behavior of the vehicle 2 differs depending on the position within the vehicle 2, as shown in FIG. FIG. 2 shows the acceleration sensors installed at three locations inside the vehicle 2 (front sensor 200, center sensor 201, and rear sensor 202) detecting the results when the vehicle 2 is turning around a leftward curve. FIG. 2 is a diagram schematically showing the acceleration of a vehicle. In Figure 2, the direction and magnitude of the acceleration detected by each sensor are decomposed into components in the X-axis direction (traveling direction of vehicle 2) and Y-axis direction (width direction of vehicle 2), and the direction and magnitude of the vector are It is expressed by For example, the direction of acceleration at the rear sensor 202 is opposite to the direction of acceleration at the front sensor 200 in the Y-axis direction. Further, the magnitude of the acceleration at the central sensor 201 is smaller than the magnitude of the acceleration at the front sensor 200 in the Y-axis direction. In this way, the behavior of the vehicle 2 differs depending on the position within the vehicle 2. Therefore, in order to accurately estimate the physical behavior of a passenger sitting at an arbitrary position in a vehicle, it is necessary to estimate different vehicle behaviors depending on the position of the passenger. The behavior estimation system 1 according to the present embodiment estimates the behavior of the vehicle at the position of the passenger, and subtracts the behavior of the vehicle at the position of the passenger from the behavior of the head of the passenger detected by the sensor. Estimating the head behavior of the occupant at the occupant's position. Thereby, in this embodiment, the physical behavior of the occupant of the moving body can be accurately estimated. In addition, when displaying a display image on the display unit 22 of the wearable device 20 according to the passenger's head behavior, the image is appropriately displayed in the passenger's field of vision based on the estimated body behavior of the passenger. It can be displayed. For example, when displaying a display image so as to overlap an object inside the vehicle that appears in the passenger's field of vision, the display position of the display image on the display unit 22 may be controlled in accordance with the behavior of the passenger's head. This is because the behavior of the passenger's head must be accurately estimated.

移動体挙動検出装置11は、車両2の挙動を検出する。移動体挙動検出装置11は、例えば、加速度センサ110及びジャイロセンサ111を含む。また、移動体挙動検出装置11は、車両2内の複数の異なる設置位置にそれぞれ設置される。すなわち、複数の移動体挙動検出装置11が車両2に固定されている。例えば、2軸の加速度センサ110を含む移動体挙動検出装置11が少なくとも3つ、同一平面上、かつ同一円上の異なる位置にそれぞれ設置される。なお、移動体挙動検出装置11の設置位置は、同一平面上、かつ同一円上の異なる位置でなくてもよい。また、単軸の加速度センサ110を含む移動体挙動検出装置11を異なる位置に6つ設置することとしてもよい。そして、移動体挙動検出装置11は、設置された設置位置における車両2の挙動、すなわち、車両2の加速度及び角速度の少なくともいずれかひとつを検出する。例えば、図3Aのように、複数の移動体挙動検出装置11が、剛体として扱える車両2のフレーム4角(前後左右)にそれぞれ搭載される。また、これに限らず、図3Bで示されるように、移動体挙動検出装置11が車両2に3つ搭載されることとしてもよい。これにより、車両2の設置位置における車両2の挙動を検出できる。そして、複数の移動体挙動検出装置11は、設置された設置位置における車両2の挙動をそれぞれ検出し、検出された値をコントローラ12に送信する。このとき、移動体挙動検出装置11は、3次元座標で表されたそれぞれの装置の位置も併せて送信する。 The moving object behavior detection device 11 detects the behavior of the vehicle 2. The moving object behavior detection device 11 includes, for example, an acceleration sensor 110 and a gyro sensor 111. Furthermore, the mobile object behavior detection device 11 is installed at a plurality of different installation positions within the vehicle 2, respectively. That is, a plurality of moving body behavior detection devices 11 are fixed to the vehicle 2. For example, at least three moving body behavior detection devices 11 each including a two-axis acceleration sensor 110 are installed at different positions on the same plane and the same circle. Note that the installation positions of the mobile object behavior detection devices 11 do not have to be different positions on the same plane and the same circle. Furthermore, six moving object behavior detection devices 11 each including a single-axis acceleration sensor 110 may be installed at different positions. The moving object behavior detection device 11 detects the behavior of the vehicle 2 at the installed installation position, that is, at least one of the acceleration and angular velocity of the vehicle 2. For example, as shown in FIG. 3A, a plurality of moving object behavior detection devices 11 are mounted on each of the four corners (front, rear, left, and right) of the frame of the vehicle 2, which can be treated as a rigid body. Furthermore, the present invention is not limited to this, and as shown in FIG. 3B, three moving object behavior detection devices 11 may be mounted on the vehicle 2. Thereby, the behavior of the vehicle 2 at the installation position of the vehicle 2 can be detected. The plurality of mobile object behavior detection devices 11 each detect the behavior of the vehicle 2 at the installed installation position, and transmit the detected values to the controller 12. At this time, the mobile object behavior detection device 11 also transmits the position of each device expressed in three-dimensional coordinates.

車両2の挙動には、車両2の運転操作に起因した挙動と、外部環境に起因した挙動が含まれる。車両2の運転操作に起因した挙動としては、例えば、アクセル操作による車両2の加速、ブレーキ操作による車両2の減速、ステアリング操作による車両2の右左折などが挙げられる。例えば、車両2が停止状態から発進する場面では、車両2はアクセル操作により加速する。搭乗者には車両2の加速に伴う力がかかり、ウェアラブルデバイス20には車両2の進行方向(車両2の前後方向ともいう)に加速度が発生する。また、例えば、車両2が減速する場面では、車両2はブレーキ操作により減速する。搭乗者には車両2の減速に伴う力がかかり、ウェアラブルデバイス20には進行方向に加速度が発生する。車両2の加速によりウェアラブルデバイス20に発生する加速度の向きと、車両2の減速によりウェアラブルデバイス20に発生する加速度の向きは互いに反対方向となる。また、例えば、車両2が交差点を左折する場面では、車両2はステアリング操作により左折する。搭乗者には車両2の左折に伴う遠心力がかかり、ウェアラブルデバイス20には進行方向に対して右方向の加速度が発生する。なお、車両2の運転操作に起因した挙動の他の例としては、アイドリングによる振動が挙げられる。この場合、ウェアラブルデバイス20には、少なくとも車両2の上下方向の加速度が発生する。 The behavior of the vehicle 2 includes behavior caused by the driving operation of the vehicle 2 and behavior caused by the external environment. Behaviors caused by driving operations of the vehicle 2 include, for example, acceleration of the vehicle 2 due to an accelerator operation, deceleration of the vehicle 2 due to a brake operation, and right/left turns of the vehicle 2 due to a steering operation. For example, when the vehicle 2 starts from a stopped state, the vehicle 2 is accelerated by operating the accelerator. A force accompanying the acceleration of the vehicle 2 is applied to the passenger, and an acceleration is generated in the wearable device 20 in the traveling direction of the vehicle 2 (also referred to as the longitudinal direction of the vehicle 2). Further, for example, in a scene where the vehicle 2 is decelerating, the vehicle 2 is decelerated by a brake operation. A force accompanying the deceleration of the vehicle 2 is applied to the passenger, and an acceleration is generated in the wearable device 20 in the traveling direction. The direction of acceleration generated in wearable device 20 due to acceleration of vehicle 2 and the direction of acceleration generated in wearable device 20 due to deceleration of vehicle 2 are opposite to each other. Further, for example, in a scene where the vehicle 2 turns left at an intersection, the vehicle 2 turns left by steering operation. A centrifugal force is applied to the passenger as the vehicle 2 turns left, and an acceleration occurs in the wearable device 20 in the right direction with respect to the direction of travel. Note that another example of the behavior caused by the driving operation of the vehicle 2 is vibration due to idling. In this case, wearable device 20 is subject to at least acceleration in the vertical direction of vehicle 2 .

また、外部環境に起因してウェアラブルデバイス20に加速度が発生する場面としては、例えば、車両2がスピードバンプなどの路面上にある段差を通過する場面が挙げられる。例えば、車両2が加速せずに一定速度で走行していても、スピードバンプを通過する際には、車両2はスピードバンプの段差により上下動する。搭乗者が静止していることにより搭乗者が行う動作に伴う加速度が発生しておらず、かつ、一定速度の走行により車両2の運転操作に伴う加速度が発生していない状況であっても、乗員には外部環境により力がかかり、ウェアラブルデバイス20には加速度が発生する。上記例の場面では、ウェアラブルデバイス20には、車両2の上下方向の加速度が発生する。 Further, an example of a scene where acceleration occurs in the wearable device 20 due to the external environment is a scene where the vehicle 2 passes a step on the road surface such as a speed bump. For example, even if the vehicle 2 is traveling at a constant speed without accelerating, when passing a speed bump, the vehicle 2 moves up and down due to the difference in level of the speed bump. Even in a situation where the passenger is stationary and no acceleration is generated due to the passenger's movements, and the vehicle 2 is traveling at a constant speed and no acceleration is generated due to the driving operation of the vehicle 2, Force is applied to the occupant due to the external environment, and acceleration is generated in the wearable device 20. In the scene of the above example, acceleration in the vertical direction of the vehicle 2 is generated in the wearable device 20 .

また、車両2の挙動として、角速度が検出されることとしてもよい。例えば、車両2が交差点を左折する場面では、車両2の左折に伴う遠心力が角速度として検出される。また、車両2の走行中に片側の車輪だけが段差に乗り上げた場合には、車両2の車体は幅方向に傾くため、車両2の進行方向に沿った軸を中心として発生する角速度が検出される。 Further, as the behavior of the vehicle 2, angular velocity may be detected. For example, in a scene where the vehicle 2 turns left at an intersection, the centrifugal force accompanying the left turn of the vehicle 2 is detected as an angular velocity. Additionally, if only one wheel runs over a step while the vehicle 2 is running, the body of the vehicle 2 will tilt in the width direction, so the angular velocity generated around the axis along the traveling direction of the vehicle 2 will not be detected. Ru.

加速度センサ110は、車両2の運転操作及び外部環境に起因して生じる車両2の加速度を検出する。具体的には、加速度センサ110は、お互いに直交するX軸、Y軸、Z軸の3軸について、それぞれの軸方向に沿った加速度を検出する。例えば、X軸を、車両2の進行方向(車両2の前後方向)に沿った軸、Y軸を、車両2の幅方向(車両2の左右方向)に沿った軸、Z軸は、車両2の高さ方向(上下方向)に沿った軸とする。また、加速度センサ110は、1軸又は2軸についての軸方向の加速度を検出することとしてもよい。加速度センサ110により取得された加速度は、コントローラ12に送信される。なお、本実施形態では、車両の挙動を検出するセンサは、加速度センサ110及びジャイロセンサ111のいずれか一方のセンサのみであってもよい。 Acceleration sensor 110 detects acceleration of vehicle 2 caused by driving operation of vehicle 2 and external environment. Specifically, the acceleration sensor 110 detects acceleration along the three axes, the X-axis, Y-axis, and Z-axis, which are perpendicular to each other. For example, the The axis is along the height direction (vertical direction). Further, the acceleration sensor 110 may detect acceleration in the axial direction about one axis or two axes. The acceleration acquired by the acceleration sensor 110 is transmitted to the controller 12. Note that in this embodiment, the sensor that detects the behavior of the vehicle may be only one of the acceleration sensor 110 and the gyro sensor 111.

ジャイロセンサ111は、車両2の姿勢変化によって生じる車両2の角速度を検出する。ジャイロセンサ111により検出される車両2の姿勢変化は、加減速及び操舵といった運転者の操縦等に起因する回転挙動である。具体的には、ジャイロセンサ111は、上述の軸方向について、それぞれの軸を中心とした角速度を検出する。角速度としては、X軸を中心としたロール角の角速度、Y軸を中心としたピッチ角の角速度及びZ軸を中心としたヨー角の角速度がある。ジャイロセンサ111により取得された角速度は、コントローラ12に送信される。 The gyro sensor 111 detects the angular velocity of the vehicle 2 caused by a change in the attitude of the vehicle 2. The attitude change of the vehicle 2 detected by the gyro sensor 111 is a rotational behavior caused by the driver's operation such as acceleration/deceleration and steering. Specifically, the gyro sensor 111 detects angular velocities about the respective axes in the above-mentioned axial directions. The angular velocity includes an angular velocity of a roll angle centered on the X-axis, an angular velocity of a pitch angle centered on the Y-axis, and an angular velocity of a yaw angle centered on the Z-axis. The angular velocity acquired by the gyro sensor 111 is transmitted to the controller 12.

カメラ14は、車両2内を撮像するように設置される。具体的には、カメラ14は、一定の時間間隔で、搭乗者を含む車両2内を撮像する。例えば、カメラ14は、赤外線LEDと赤外線カメラを用いたカメラデバイス等が用いられる。カメラ14で撮像された画像データは、コントローラ12に出力される。 The camera 14 is installed to take images of the inside of the vehicle 2. Specifically, the camera 14 captures images of the inside of the vehicle 2 including the passenger at regular time intervals. For example, the camera 14 may be a camera device using an infrared LED and an infrared camera. Image data captured by the camera 14 is output to the controller 12.

シートセンサ15は、車両2内の座席にかかる荷重を検出する。具体的には、シートセンサ15は、座席に所定値以上の荷重がかかっていると検知した場合にはオン値をコントローラ12に出力する。シートセンサ15は、カメラ14が何らかの陰になっていて搭乗者を撮像できないような場合にも用いることができる。また、シートセンサのみであれば、センサデバイスのコストを抑えることもできる。 The seat sensor 15 detects the load applied to the seat in the vehicle 2. Specifically, the seat sensor 15 outputs an ON value to the controller 12 when it is detected that a load of a predetermined value or more is applied to the seat. The seat sensor 15 can also be used when the camera 14 is in some kind of shadow and cannot capture an image of the passenger. Further, if only a sheet sensor is used, the cost of the sensor device can be reduced.

コントローラ12は、移動体挙動検出装置11と、車載通信装置13と、カメラ14と、シートセンサ15とお互いに通信可能である。本実施形態におけるコントローラ12は、ハードウェア及びソフトウェアを有するコンピュータを備えており、このコンピュータはプログラムを格納したROM(Read Only Memory)と、ROMに格納されたプログラムを実行するCPU(Central Processing Unit)と、アクセス可能な記憶装置として機能するRAM(Random Access Memory)を含むものである。なお、動作回路としては、CPUに代えて又はこれとともに、MPU(Micro Processing Unit)、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)などを用いることができる。コントローラ12は、機能ブロックとして、搭乗者位置取得部120と、移動体挙動推定部121と、搭乗者挙動推定部122と、画像表示制御部123とを含んで構成され、上記各機能を実現する又は各処理を実行するためのソフトウェアと、ハードウェアとの協働により各機能を実行する。具体的には、コントローラ12は、まず、車両2における搭乗者の位置と、移動体挙動検出装置11の設置された複数の設置位置との位置関係と、複数の設置位置における車両2の挙動とに基づいて、搭乗者の位置における車両2の挙動を推定する。そして、コントローラ12は、搭乗者の身体の挙動と、搭乗者の位置における車両2の挙動との差を、搭乗者による身体の挙動として推定し、搭乗者による身体の挙動に基づいて特定した搭乗者の視線方向に応じて表示画像を表示部22に表示させる制御を行う。なお、本実施形態では、コントローラ12が有する機能を4つのブロックとして分けた上で、各機能ブロックの機能を説明するが、コントローラ12の機能は必ずしも4つのブロックに分ける必要はなく、3以下の機能ブロック、あるいは、5つ以上の機能ブロックで分けてもよい。 The controller 12 is capable of communicating with the moving object behavior detection device 11, the in-vehicle communication device 13, the camera 14, and the seat sensor 15. The controller 12 in this embodiment includes a computer having hardware and software, and this computer includes a ROM (Read Only Memory) that stores programs and a CPU (Central Processing Unit) that executes the programs stored in the ROM. and a RAM (Random Access Memory) that functions as an accessible storage device. In addition, as an operating circuit, instead of or in addition to the CPU, an MPU (Micro Processing Unit), a DSP (Digital Signal Processor), an ASIC (Application Specific Integrated Circuit), FPGA (Field Programmable Gate Array) etc. can be used. . The controller 12 is configured to include, as functional blocks, an occupant position acquisition section 120, a moving object behavior estimation section 121, an occupant behavior estimation section 122, and an image display control section 123, and realizes each of the above functions. Alternatively, each function is executed by cooperation between software for executing each process and hardware. Specifically, the controller 12 first determines the positional relationship between the position of the passenger in the vehicle 2 and the plurality of installation positions where the mobile object behavior detection device 11 is installed, and the behavior of the vehicle 2 at the plurality of installation positions. Based on this, the behavior of the vehicle 2 at the position of the passenger is estimated. Then, the controller 12 estimates the difference between the body behavior of the passenger and the behavior of the vehicle 2 at the position of the passenger as the body behavior of the passenger, and Control is performed to display a display image on the display unit 22 according to the direction of the user's line of sight. In this embodiment, the functions of the controller 12 are divided into four blocks, and the functions of each functional block will be explained. However, the functions of the controller 12 do not necessarily need to be divided into four blocks, and can be divided into three or less It may be divided into functional blocks or five or more functional blocks.

搭乗者位置取得部120は、カメラ14とシートセンサ15により検出された情報に基づいて、車両2における搭乗者の位置を搭乗者位置として取得する。例えば、搭乗者位置取得部120は、カメラ14により撮像された車両2内の画像に基づいて、画像認識技術により搭乗者を特定して、搭乗者の位置を取得する。また、搭乗者位置取得部120は、搭乗者が装着しているウェアラブルデバイス20に付された特徴点マーカを認識することで、当該ウェアラブルデバイス20を装着している搭乗者の搭乗者位置を取得することとしてもよい。また、搭乗者位置取得部120は、シートセンサ15が出力したオン値に基づいて、オン値が出力された座席の位置を特定することで、搭乗者位置を取得することとしてもよい。車内に搭乗者が複数いる場合には、搭乗者位置取得部120は、搭乗者それぞれの搭乗者位置を取得する。車両2内における搭乗者位置は、例えば、3次元座標によって表される。 The passenger position acquisition unit 120 acquires the position of the passenger in the vehicle 2 as the passenger position based on information detected by the camera 14 and the seat sensor 15. For example, the passenger position acquisition unit 120 identifies the passenger using image recognition technology based on the image inside the vehicle 2 captured by the camera 14, and acquires the position of the passenger. In addition, the passenger position acquisition unit 120 acquires the passenger position of the passenger wearing the wearable device 20 by recognizing feature point markers attached to the wearable device 20 worn by the passenger. You can also do it. Further, the passenger position acquisition unit 120 may acquire the passenger position by specifying the position of the seat where the ON value is output based on the ON value output by the seat sensor 15. When there are multiple passengers in the vehicle, the passenger position acquisition unit 120 acquires the passenger position of each passenger. The passenger position within the vehicle 2 is represented by, for example, three-dimensional coordinates.

移動体挙動推定部121は、搭乗者位置取得部120により取得された搭乗者位置における車両2の挙動を推定する。具体的には、移動体挙動推定部121は、まず、搭乗者位置取得部120により取得された搭乗者位置と、複数の移動体挙動検出装置11が設置された複数の設置位置を取得する。このとき、移動体挙動推定部121は、それぞれの移動体挙動検出装置11の位置情報に紐づけて、設置位置における車両2の挙動を取得する。次に、移動体挙動推定部121は、搭乗者位置と複数の移動体挙動検出装置11の位置とに基づいて、搭乗者位置を原点とする3次元座標における、搭乗者位置と複数の移動体挙動検出装置11の位置との相対的な位置関係をそれぞれ算出する。そして、移動体挙動推定部121は、複数の設置位置における車両2の挙動と、搭乗者位置に対する移動体挙動検出装置11それぞれの相対的位置関係とに基づいて、計算により、搭乗者位置における車両2の挙動、すなわち、X、Y及びZ軸方向それぞれの加速度、並びにX、Y及びZ軸それぞれを中心とした角速度を算出する。具体的には、まず、移動体挙動推定部121は、搭乗者位置を原点とする3次元座標における、搭乗者位置と複数の移動体挙動検出装置11の位置との相対的な位置関係をそれぞれ算出する。このとき、剛体である車両2が回転していて搭乗者位置まわりに角速度が生じていると、それぞれの移動体挙動検出装置11の設置位置には、搭乗者位置との位置関係に応じた回転角速度及び遠心加速度が生じる。次に、移動体挙動推定部121は、それぞれ異なる位置及び方向の移動体挙動検出装置11の設置位置における車両2の挙動を取得する。ひとつの移動体挙動検出装置11により検出される車両2の挙動は、並進加速度、重力加速度並びに搭乗者位置との位置関係に応じて異なる回転角速度及び遠心加速度が合わさった値である。そのため、当該値は、単一の検出値のみによっては、搭乗者位置との位置関係に応じて異なる回転角速度及び遠心加速度の影響を分離することができない。そこで、移動体挙動推定部121は、複数の設置位置におけるそれぞれの車両2の挙動の値を統合して、計算により、移動体挙動検出装置11により検出された値から、搭乗者位置との位置関係に応じて異なる回転角速度及び遠心加速度の影響を取り除くことで、搭乗者位置における加速度及び角速度を算出する。 The moving object behavior estimation unit 121 estimates the behavior of the vehicle 2 at the passenger position acquired by the passenger position acquisition unit 120. Specifically, the mobile object behavior estimation unit 121 first acquires the passenger position acquired by the passenger position acquisition unit 120 and the plurality of installation positions where the plurality of mobile object behavior detection devices 11 are installed. At this time, the moving object behavior estimation unit 121 acquires the behavior of the vehicle 2 at the installation position in association with the position information of each moving object behavior detection device 11. Next, based on the passenger position and the positions of the plurality of moving object behavior detection devices 11, the moving object behavior estimation unit 121 calculates the passenger position and the plurality of moving objects in three-dimensional coordinates with the passenger position as the origin. The relative positional relationship with the position of the behavior detection device 11 is calculated. Then, the mobile object behavior estimation unit 121 calculates the vehicle behavior at the passenger position based on the behavior of the vehicle 2 at the plurality of installation positions and the relative positional relationship of each mobile object behavior detection device 11 with respect to the passenger position. 2, that is, the acceleration in each of the X, Y, and Z axis directions, and the angular velocity around each of the X, Y, and Z axes are calculated. Specifically, first, the mobile object behavior estimation unit 121 calculates the relative positional relationship between the passenger position and the positions of the plurality of mobile object behavior detection devices 11 in three-dimensional coordinates with the passenger position as the origin. calculate. At this time, if the vehicle 2, which is a rigid body, is rotating and an angular velocity is generated around the passenger position, the installation position of each moving object behavior detection device 11 is rotated according to the positional relationship with the passenger position. Angular velocity and centrifugal acceleration result. Next, the moving object behavior estimation unit 121 acquires the behavior of the vehicle 2 at the installation positions of the moving object behavior detection device 11 at different positions and directions. The behavior of the vehicle 2 detected by one moving body behavior detection device 11 is a value that is a combination of translational acceleration, gravitational acceleration, rotational angular velocity and centrifugal acceleration that differ depending on the positional relationship with the passenger position. Therefore, the influence of the rotational angular velocity and centrifugal acceleration, which differ depending on the positional relationship with the passenger position, cannot be separated by using only a single detected value. Therefore, the moving object behavior estimation unit 121 integrates the behavior values of each vehicle 2 at a plurality of installation positions, and calculates the position relative to the passenger position from the value detected by the moving object behavior detection device 11. The acceleration and angular velocity at the passenger position are calculated by removing the influence of rotational angular velocity and centrifugal acceleration that differ depending on the relationship.

搭乗者挙動推定部122は、搭乗者による頭部の挙動を推定する。具体的には、搭乗者挙動推定部122は、搭乗者挙動検出装置21により検出された搭乗者の頭部の挙動と、移動体挙動推定部121により推定された、搭乗者位置における車両2の挙動との差を算出する。すなわち、搭乗者の頭部の挙動と、搭乗者位置における車両2の挙動との差が、搭乗者による頭部の挙動として推定される。例えば、搭乗者による頭部の加速度を推定する場合には、搭乗者挙動推定部122は、搭乗者の頭部の加速度と搭乗者位置における車両2の加速度について、3つの軸方向(X軸、Y軸、Z軸)それぞれの加速度の成分を取得し、加速度の成分ごとに、搭乗者の頭部の加速度と、搭乗者位置における車両2の加速度との差を算出する。また、搭乗者による頭部の角速度を推定する場合には、搭乗者挙動推定部122は、搭乗者の頭部の角速度と搭乗者位置における車両2の角速度について、3つの軸を中心とした角速度をそれぞれ取得し、軸ごとに、搭乗者の頭部の角速度と、搭乗者位置における車両2の角速度との差を算出する。 The passenger behavior estimating unit 122 estimates the head behavior of the passenger. Specifically, the passenger behavior estimation unit 122 uses the behavior of the passenger's head detected by the passenger behavior detection device 21 and the behavior of the vehicle 2 at the passenger position estimated by the moving object behavior estimation unit 121. Calculate the difference from the behavior. That is, the difference between the behavior of the passenger's head and the behavior of the vehicle 2 at the passenger's position is estimated as the behavior of the head by the passenger. For example, when estimating the acceleration of the passenger's head, the passenger behavior estimation unit 122 estimates the acceleration of the passenger's head and the acceleration of the vehicle 2 at the passenger position in three axial directions (X-axis, The acceleration components of each of the Y-axis and Z-axis are obtained, and the difference between the acceleration of the passenger's head and the acceleration of the vehicle 2 at the passenger's position is calculated for each acceleration component. In addition, when estimating the angular velocity of the head of the occupant, the occupant behavior estimation unit 122 estimates the angular velocity of the occupant's head and the angular velocity of the vehicle 2 at the occupant's position, based on the angular velocity around three axes. are obtained, and the difference between the angular velocity of the passenger's head and the angular velocity of the vehicle 2 at the passenger's position is calculated for each axis.

画像表示制御部123は、搭乗者挙動推定部122により推定された、搭乗者による頭部の挙動に基づいて、表示部22に表示される仮想オブジェクトの表示画像の表示形態の制御を行う。表示画像の表示形態は、表示部22上における表示画像の表示位置、表示画像の大きさ、表示画像の回転角度を含む。画像表示制御部123は、まず、搭乗者挙動推定部122により推定された、搭乗者による頭部の挙動によって変化する搭乗者の頭部の状態、すなわち、車両2に対する相対的な頭部の位置、向き及び傾きを特定する。次に、画像表示制御部123は、搭乗者の頭部の状態に基づいて、搭乗者の視線方向の視界を特定し、搭乗者の視線方向の視界に映る対象物に重なるように、表示部22に表示される仮想オブジェクトの表示画像の表示形態を特定する。そして、画像表示制御部123は、特定された表示形態に基づいて表示画像を表示させる制御信号を生成し、当該制御信号を車載通信装置13に出力する。 The image display control unit 123 controls the display form of the display image of the virtual object displayed on the display unit 22 based on the head behavior of the passenger estimated by the passenger behavior estimation unit 122. The display form of the display image includes the display position of the display image on the display unit 22, the size of the display image, and the rotation angle of the display image. The image display control unit 123 first calculates the state of the passenger's head that changes depending on the passenger's head behavior estimated by the passenger behavior estimation unit 122, that is, the position of the head relative to the vehicle 2. , determine the orientation and tilt. Next, the image display control unit 123 specifies the visual field in the passenger's line of sight based on the condition of the passenger's head, and displays the display so that it overlaps the object reflected in the visual field in the passenger's line of sight. The display form of the display image of the virtual object displayed in 22 is specified. Then, the image display control unit 123 generates a control signal for displaying a display image based on the specified display format, and outputs the control signal to the in-vehicle communication device 13.

ここで、仮想オブジェクトについて説明する。仮想オブジェクトとは、実空間内に配置された2次元モデル(2Dモデル、2D CG等ともいう)、又は3次元モデル(3Dモデル、3D CG等ともいう)であって、コンピュータを用いて生成された画像である。仮想オブジェクトには、静止画及び動画のいずれも含まれる。また、仮想オブジェクトには、実際には存在しない仮想のオブジェクト(例えば、アニメのキャラクター等)に加えて、例えば、実在の人物を撮影した映像も含まれる。また、仮想オブジェクトには、人物を示すオブジェクトに加えて、例えば、交差点の案内表示板等、物のオブジェクトも含まれる。本実施形態では、ウェアラブルデバイス20の表示部22を介して車内外の景色を見ている搭乗者に対して、表示部22に仮想オブジェクトの表示画像を表示させることで、現実空間に仮想オブジェクトが重畳された拡張現実(AR)空間を提示する。 Here, virtual objects will be explained. A virtual object is a two-dimensional model (also referred to as a 2D model, 2D CG, etc.) or a three-dimensional model (also referred to as a 3D model, 3D CG, etc.) placed in real space, and is generated using a computer. This is an image. Virtual objects include both still images and moving images. In addition to virtual objects that do not actually exist (for example, anime characters), virtual objects include, for example, images of real people. Furthermore, in addition to objects representing people, virtual objects include, for example, physical objects such as information display boards at intersections. In this embodiment, by displaying a display image of a virtual object on the display unit 22 for the passenger who is viewing the scenery inside and outside the vehicle via the display unit 22 of the wearable device 20, the virtual object is displayed in the real space. Presenting a superimposed augmented reality (AR) space.

次に、仮想オブジェクトの表示画像の表示形態について説明する。画像表示制御部123は、搭乗者による頭部の挙動から推定される搭乗者の視線方向を特定し、搭乗者の視線方向の視界に映る対象物に重なるように表示画像の表示形態を制御する。具体的には、画像表示制御部123は、搭乗者による頭部の挙動から搭乗者の頭部の位置、向き及び傾きを推定し、推定された頭部の位置、向き及び傾きに合わせて変化する搭乗者の視線方向の視界を特定し、視界に映る対象物に表示画像が重畳されるように、表示部22上における表示画像の位置、大きさ及び角度を制御する。まず、表示画像の表示位置について説明する。表示画像の表示位置は、表示部22(ディスプレイ画面)上において表示画像が表示される位置である。例えば、搭乗者の視界に映る車内の対象物に重なるように、表示部22に表示画像が表示される場合には、画像表示制御部123は、車内における対象物の位置を特定し、搭乗者の頭部の状態に基づいて、現実空間における対象物の位置に対応する表示部22上の対象物の位置を表示位置として特定する。次に、表示画像の表示形態としては、表示画像の大きさが挙げられる。表示画像の大きさを制御して、近くのものほど大きく見えるという遠近感を画像の大きさによって再現することで、より現実の感覚に近いAR空間を提供することができる。画像表示制御部123は、車内の対象物、例えば、インスツルメントパネルに表示画像が表示される場合、インスツルメントパネルに対する搭乗者の頭部の位置の前後移動に応じて、表示画像の大きさを制御する。搭乗者の頭部がインスツルメントパネルに近づく方向に移動するときには、画像表示制御部123は、表示画像を大きくする制御を行い、搭乗者の頭部がインスツルメントパネルから遠ざかる方向に移動するときには、画像表示制御部123は、表示画像を小さくする制御を行う。また、表示画像の表示形態としては、表示画像の回転角度が挙げられる。表示画像の回転角度は、表示部22における表示画像の角度である。例えば、表示画像が車内の対象物に重ねられるように、表示画像の回転角度を車内の対象物の傾きに合わせて制御する場合を考える。すなわち、この場合には、画像表示制御部123は、車両2が傾いたときには、表示画像の回転角度も車両2の傾きに合わせて制御し、車両2の傾きが変わらないときには、表示画像の回転角度を変更しない。また、車両2の傾きは変わらないが、搭乗者が頭部を傾ける等により表示部22(ディスプレイ画面)が傾いたときには、画像表示制御部123は、表示画像が車内の対象物に対して傾いて見えないように、表示部22における表示画像の回転角度を制御する。 Next, the display form of the display image of the virtual object will be explained. The image display control unit 123 identifies the direction of the passenger's line of sight estimated from the behavior of the passenger's head, and controls the display form of the display image so that it overlaps with the object reflected in the field of view in the direction of the passenger's line of sight. . Specifically, the image display control unit 123 estimates the position, orientation, and inclination of the passenger's head from the head behavior of the passenger, and changes the head position, orientation, and inclination according to the estimated head position, orientation, and inclination. The position, size, and angle of the display image on the display unit 22 are controlled so that the display image is superimposed on the object reflected in the field of view. First, the display position of the display image will be explained. The display position of the display image is the position where the display image is displayed on the display unit 22 (display screen). For example, when a display image is displayed on the display unit 22 so as to overlap with an object inside the vehicle that is visible to the passenger, the image display control unit 123 identifies the position of the object inside the vehicle, and Based on the state of the head of , the position of the object on the display unit 22 corresponding to the position of the object in real space is specified as the display position. Next, the display form of the display image includes the size of the display image. By controlling the size of the displayed image and reproducing the sense of perspective in which nearby objects appear larger, it is possible to provide an AR space that more closely resembles reality. When a display image is displayed on an object in the vehicle, such as an instrument panel, the image display control unit 123 controls the size of the display image according to the forward and backward movement of the position of the passenger's head relative to the instrument panel. control When the passenger's head moves in a direction toward the instrument panel, the image display control unit 123 performs control to enlarge the displayed image, and the passenger's head moves in a direction away from the instrument panel. At times, the image display control unit 123 performs control to reduce the size of the displayed image. Furthermore, the display form of the display image includes the rotation angle of the display image. The rotation angle of the display image is the angle of the display image on the display unit 22. For example, consider a case where the rotation angle of the display image is controlled in accordance with the inclination of the object inside the car so that the display image is superimposed on the object inside the car. That is, in this case, when the vehicle 2 tilts, the image display control unit 123 controls the rotation angle of the display image according to the tilt of the vehicle 2, and when the tilt of the vehicle 2 does not change, the image display control unit 123 controls the rotation angle of the display image according to the tilt of the vehicle 2. Do not change the angle. Furthermore, although the tilt of the vehicle 2 does not change, when the display unit 22 (display screen) is tilted due to the passenger tilting his head, etc., the image display control unit 123 controls the display image to be tilted with respect to the object inside the vehicle. The rotation angle of the displayed image on the display unit 22 is controlled so that the displayed image is not visible.

以下、図4~図7を用いて、表示画像の表示形態の制御の一例を説明する。図4は、車両2と、運転席に座っている搭乗者の視線方向との関係を表す図である。図4では、車両2は、ナビゲーション装置300を備え、進行方向Lに沿って走行している。また、車両2には、ウェアラブルデバイス20を装着する搭乗者100が運転席に座っている。視線方向Pは、進行方向Lに対して平行な方向であって、搭乗者100が進行方向を見ているときの視線の方向である。視線方向Qは、搭乗者100が視線方向Pよりも左側の方向を見ているときの視線の方向である。また、ウェアラブルデバイス20では、車内空間におけるナビゲーション装置300の位置に対応する表示部22上の位置に仮想オブジェクトRが表示されている。図5A及びBは、図4の搭乗者100が表示部22(ディスプレイ画面)を介して視認している車内の様子を示している。図5Aが、図4の搭乗者100の視線方向Pの視界に対応していて、表示部22に仮想オブジェクトRが表示されているときの、搭乗者の視界に映る車内の様子を示している。図5Bが、図4の搭乗者100の視線方向Qの視界に対応していて、表示部22に仮想オブジェクトRが表示されているときの、搭乗者100の視界に映る車内の様子を示している。仮想オブジェクトRは、例えば、ナビゲーション装置300により案内された経路案内を視覚的に表示するオブジェクト(例えば、「2キロ先左方向」)であり、表示部22上におけるナビゲーション装置300の位置に常に表示されるように制御されている。したがって、例えば、搭乗者100の視線方向が、視線方向Pから視線方向Qに変わった場合には、表示部22は搭乗者100の視界に対応しているため、表示部22上におけるナビゲーション装置300の位置が右側に移動する(図5B)。仮想オブジェクトRは常にナビゲーション装置300の位置に表示されるように制御されるため、仮想オブジェクトRの表示位置もナビゲーション装置の移動に応じて移動するよう制御される。 An example of controlling the display form of a display image will be described below with reference to FIGS. 4 to 7. FIG. 4 is a diagram showing the relationship between the vehicle 2 and the line of sight direction of a passenger sitting in the driver's seat. In FIG. 4, the vehicle 2 includes a navigation device 300 and is traveling along a traveling direction L. In FIG. Further, in the vehicle 2, a passenger 100 wearing a wearable device 20 is sitting in the driver's seat. The line of sight direction P is a direction parallel to the direction of travel L, and is the direction of the line of sight when the passenger 100 is looking in the direction of travel. The line-of-sight direction Q is the line-of-sight direction when the passenger 100 is looking in a direction to the left of the line-of-sight direction P. Furthermore, in the wearable device 20, a virtual object R is displayed at a position on the display unit 22 that corresponds to the position of the navigation device 300 in the vehicle interior space. FIGS. 5A and 5B show the interior of the vehicle as viewed by the passenger 100 in FIG. 4 via the display unit 22 (display screen). FIG. 5A corresponds to the visual field of the passenger 100 in the line of sight direction P in FIG. 4, and shows the inside of the car as seen in the passenger's visual field when the virtual object R is displayed on the display unit 22. . FIG. 5B corresponds to the visual field of the passenger 100 in the viewing direction Q in FIG. There is. The virtual object R is, for example, an object that visually displays the route guidance provided by the navigation device 300 (for example, “2 kilometers ahead, turn left”), and is always displayed at the position of the navigation device 300 on the display unit 22. controlled so that Therefore, for example, when the line-of-sight direction of the passenger 100 changes from the line-of-sight direction P to the line-of-sight direction Q, the navigation device 300 on the display unit 22 corresponds to the visual field of the passenger 100. The position of moves to the right (Fig. 5B). Since the virtual object R is controlled to always be displayed at the position of the navigation device 300, the display position of the virtual object R is also controlled to move in accordance with the movement of the navigation device.

また、図6で示されるように、車両2が左折している場合には、左方向に加速度が生じる車両2の挙動に起因して搭乗者100の頭部にも左方向の加速度が生じる。搭乗者100が頭部を動かさずに進行方向Pから視線方向を変えていないときには、車両2に対する搭乗者の頭部の状態、すなわち、頭部の位置や向き、傾きは変わらないため、運転者に視界に映る車内の様子は、図5Aで示している車内の様子のままのはずである。しかしながら、単に、搭乗者挙動検出装置21により検出された搭乗者の頭部の挙動に基づいて、表示画像の表示形態が制御される場合には、車両2の挙動による頭部の挙動に応じて、表示部22における仮想オブジェクトRの表示位置が移動することになる。すなわち、図7で示されるように、画像表示制御部123は、車両2の左方向の加速度により、車両2に対する搭乗者の頭部の位置が視線方向Pから視線方向P´に変化したと判定し、仮想オブジェクトRの表示位置を右側に移動する制御を行う。しかしながら、実際には、車両2に対する搭乗者の頭部の状態は変化していないため、表示部22上におけるナビゲーション装置300の位置は変わらない。そのため、仮想オブジェクトRは、表示部22上におけるナビゲーション装置300の位置から右方向にずれた位置に表示されてしまう。これに対して、本実施形態では、搭乗者挙動検出装置21により検出された搭乗者の頭部の挙動から車両の挙動による頭部の挙動を差し引くことで、搭乗者による頭部の挙動に基づいて仮想オブジェクトRの表示位置を制御できる。したがって、車両2が左折している場合であっても、搭乗者100は、図5Aで示されている車内の様子を視認できる。また、図2で示しているように、車両2が左折している場合に、車両2の挙動は、車両2内の位置に応じて異なる。したがって、図7では、車両2が左折している場合に、搭乗者挙動検出装置21が左方向の加速度を検出した場合の一例を示したが、搭乗者100が運転席ではなく、後方の座席に座っていた場合には、搭乗者挙動検出装置21は右方向の加速度を検出する。この場合には、表示部22における仮想オブジェクトの表示画像は、左方向に移動するように表示されてしまう。したがって、このような画像表示を補正するためには、コントローラ12は、車両の挙動に起因して生じる右方向の加速度を、搭乗者挙動検出装置21により検出された頭部の加速度から差し引いて搭乗者による頭部の加速度を推定する必要がある。しかしながら、従来技術では、前方に設置されたひとつのセンサにより、車両の挙動は左方向の加速度として検出されるため、後方座席にいる搭乗者による頭部の挙動を正確に推定することができない。本実施形態に係る発明は、搭乗者位置における車両2の挙動を推定して、搭乗者の頭部の挙動と、搭乗者位置における車両2の挙動との差を算出するため、搭乗者がそれぞれ異なる位置にいても、それぞれの位置における搭乗者による頭部の挙動を推定することができる。例えば、前述の例では、コントローラ12は、車両2の前方にいる搭乗者による頭部の挙動を、車両2の左方向の加速度に基づいて推定し、車両2の後方にいる搭乗者による頭部の挙動を、車両2の右方向の加速度に基づいてそれぞれ推定する。 Further, as shown in FIG. 6, when the vehicle 2 is turning left, the head of the passenger 100 also experiences leftward acceleration due to the behavior of the vehicle 2 that causes leftward acceleration. When the passenger 100 does not move his head and does not change his line of sight from the traveling direction P, the state of the passenger's head relative to the vehicle 2, that is, the position, orientation, and inclination of the head, do not change, so the driver The inside of the car that appears in the field of vision should be the same as the inside of the car shown in FIG. 5A. However, when the display form of the display image is controlled simply based on the behavior of the passenger's head detected by the passenger behavior detection device 21, the , the display position of the virtual object R on the display unit 22 will move. That is, as shown in FIG. 7, the image display control unit 123 determines that the position of the passenger's head relative to the vehicle 2 has changed from the line-of-sight direction P to the line-of-sight direction P' due to leftward acceleration of the vehicle 2. Then, control is performed to move the display position of the virtual object R to the right. However, in reality, the position of the navigation device 300 on the display unit 22 does not change because the state of the passenger's head relative to the vehicle 2 has not changed. Therefore, the virtual object R is displayed at a position shifted to the right from the position of the navigation device 300 on the display unit 22. In contrast, in the present embodiment, by subtracting the head behavior caused by the vehicle behavior from the passenger's head behavior detected by the passenger behavior detection device 21, the The display position of the virtual object R can be controlled by Therefore, even if the vehicle 2 is turning left, the passenger 100 can visually recognize the interior of the vehicle shown in FIG. 5A. Furthermore, as shown in FIG. 2, when the vehicle 2 is turning left, the behavior of the vehicle 2 differs depending on the position within the vehicle 2. Therefore, although FIG. 7 shows an example in which the passenger behavior detection device 21 detects leftward acceleration when the vehicle 2 is turning left, the passenger 100 is not in the driver's seat but in the rear seat. If the passenger is sitting in the vehicle, the passenger behavior detection device 21 detects acceleration in the right direction. In this case, the display image of the virtual object on the display unit 22 is displayed so as to move to the left. Therefore, in order to correct such an image display, the controller 12 subtracts the acceleration in the right direction caused by the behavior of the vehicle from the acceleration of the head detected by the occupant behavior detection device 21. It is necessary to estimate the acceleration of the head by the person. However, in the conventional technology, the behavior of the vehicle is detected as acceleration in the left direction by a single sensor installed in the front, so it is not possible to accurately estimate the behavior of the head of the passenger in the rear seat. The invention according to this embodiment estimates the behavior of the vehicle 2 at the passenger position and calculates the difference between the behavior of the head of the passenger and the behavior of the vehicle 2 at the passenger position. Even if the occupant is in different positions, it is possible to estimate the head behavior of the occupant at each position. For example, in the above-mentioned example, the controller 12 estimates the head behavior of the occupant at the front of the vehicle 2 based on the leftward acceleration of the vehicle 2, and estimates the head behavior of the occupant at the rear of the vehicle 2. The behavior of the vehicle 2 is estimated based on the acceleration of the vehicle 2 in the right direction.

なお、本実施形態では、車両2の車内の対象物を基準とした場合の仮想オブジェクトの表示位置の制御を行うこととしているが、車両2の車外対象物に対して仮想オブジェクトの表示画像を重畳させて表示する場合にも同様の制御を行う。すなわち、本実施形態では、車両2の車外にある対象物の位置は、車両2の位置や向きを基準とした相対的な位置として取得される。したがって、車両2の車外対象物に仮想オブジェクトを重ねるように表示する場合にも、画像表示制御部123は、車両2に対する搭乗者の頭部の状態を特定することで、現実空間における車外対象物の位置に対応する表示部22上の車外対象物の位置を特定する。また、車外の対象物は、例えば、車両、歩行者、道路、標識、建物等が挙げられる。 Note that in this embodiment, the display position of the virtual object is controlled based on the object inside the vehicle 2, but the display image of the virtual object is superimposed on the object outside the vehicle 2. Similar control is also performed when displaying the image. That is, in this embodiment, the position of the object outside the vehicle 2 is acquired as a relative position with respect to the position and orientation of the vehicle 2. Therefore, even when displaying a virtual object so as to overlap an object outside the vehicle 2, the image display control unit 123 can identify the state of the passenger's head with respect to the vehicle 2, thereby displaying the object outside the vehicle in real space. The position of the object outside the vehicle on the display unit 22 corresponding to the position is specified. Examples of objects outside the vehicle include vehicles, pedestrians, roads, signs, and buildings.

車載通信装置13は、ウェアラブルデバイス20の通信装置23と無線又は有線により接続されていて、情報等の送受信を行う。例えば、車載通信装置13は、ウェアラブルデバイス20の通信装置23に、画像表示の制御信号を送信し、通信装置23から、検出された搭乗者の身体の挙動を受信する。 The in-vehicle communication device 13 is connected wirelessly or wired to the communication device 23 of the wearable device 20, and transmits and receives information and the like. For example, the in-vehicle communication device 13 transmits an image display control signal to the communication device 23 of the wearable device 20, and receives the detected bodily behavior of the passenger from the communication device 23.

ウェアラブルデバイス20は、搭乗者の頭部に装着される装置であって、例えば、ゴーグル型又はメガネ型のヘッドマウントディスプレイである。ウェアラブルデバイス20は、少なくとも搭乗者挙動検出装置21と表示部22と通信装置23とを備える。ウェアラブルデバイス20は、画像表示制御部123から出力された制御信号に基づいて、表示部22に仮想オブジェクトの画像を表示させる。また、ウェアラブルデバイス20は、搭乗者の腕に装着されるデバイスであってもよい。腕に装着されるウェアラブルデバイス20は、搭乗者挙動検出装置21により腕の挙動を検出して、検出された腕の挙動をコントローラ12に送信する。また、搭乗者が複数人いる場合には、それぞれがウェアラブルデバイス20を装着して利用することも可能であり、同じ仮想オブジェクトを共有し合うことも可能となる。その場合、各ウェアラブルデバイス20は、それぞれの搭乗者ごとに搭乗者の頭部の挙動を検出して、コントローラ12に送信する。なお、ウェアラブルデバイス20としては、ARやVR用ヘッドセットやコントローラ、服や直接ベルトで体に付けるセンサデバイスなどであってもよい。 The wearable device 20 is a device worn on the passenger's head, and is, for example, a goggle-type or glasses-type head-mounted display. Wearable device 20 includes at least a passenger behavior detection device 21, a display section 22, and a communication device 23. The wearable device 20 causes the display unit 22 to display an image of the virtual object based on the control signal output from the image display control unit 123. Further, the wearable device 20 may be a device worn on the arm of the passenger. The wearable device 20 worn on the arm detects arm behavior using the occupant behavior detection device 21 and transmits the detected arm behavior to the controller 12 . Further, if there are multiple passengers, each of them can wear and use the wearable device 20, and it is also possible to share the same virtual object with each other. In that case, each wearable device 20 detects the behavior of the passenger's head for each passenger and transmits it to the controller 12. Note that the wearable device 20 may be an AR or VR headset, a controller, a sensor device attached to clothing or directly on the body with a belt, or the like.

搭乗者挙動検出装置21は、ウェアラブルデバイス20が装着された部分における搭乗者の身体の挙動を検出する。例えば、搭乗者挙動検出装置21は、ウェアラブルデバイス20が装着されている頭部の挙動を検出する。搭乗者挙動検出装置21により検出される搭乗者の頭部の挙動には、搭乗者による頭部の挙動と車両2の挙動に基づく頭部の挙動が含まれる。搭乗者挙動検出装置21は、加速度センサ210とジャイロセンサ211とを含む。搭乗者挙動検出装置21は、検出された搭乗者の頭部の挙動をコントローラ12に出力する。 The passenger behavior detection device 21 detects the behavior of the passenger's body in the area where the wearable device 20 is attached. For example, the passenger behavior detection device 21 detects the behavior of the head to which the wearable device 20 is attached. The behavior of the passenger's head detected by the passenger behavior detection device 21 includes head behavior by the passenger and head behavior based on the behavior of the vehicle 2. The passenger behavior detection device 21 includes an acceleration sensor 210 and a gyro sensor 211. The passenger behavior detection device 21 outputs the detected behavior of the passenger's head to the controller 12.

加速度センサ210は、搭乗者の頭部の加速度を検出する。具体的には、加速度センサ210は、お互いに直交するX軸、Y軸、Z軸の3軸について、それぞれの軸方向に沿った加速度を検出する。加速度センサ210により検出される搭乗者の頭部の加速度には、搭乗者による頭部の挙動による加速度と車両2の挙動による加速度が含まれる。したがって、例えば、搭乗者が静止をしていて、頭部を動かさなくても、車両2の挙動によって搭乗者の頭部が動くと、加速度センサ210は搭乗者の頭部の加速度を検出する。加速度センサ210により取得された加速度は、通信装置23に出力される。 Acceleration sensor 210 detects the acceleration of the passenger's head. Specifically, the acceleration sensor 210 detects acceleration along the three axes, the X-axis, Y-axis, and Z-axis, which are perpendicular to each other. The acceleration of the passenger's head detected by the acceleration sensor 210 includes acceleration due to the behavior of the passenger's head and acceleration due to the behavior of the vehicle 2. Therefore, for example, even if the passenger is stationary and does not move his head, if the passenger's head moves due to the behavior of the vehicle 2, the acceleration sensor 210 detects the acceleration of the passenger's head. The acceleration acquired by the acceleration sensor 210 is output to the communication device 23.

ジャイロセンサ211は、搭乗者の頭部の角速度を検出する。具体的には、ジャイロセンサ211は、上述のそれぞれの軸を中心とした角速度を検出する。ジャイロセンサ211により演出される搭乗者の頭部の角速度には、搭乗者による頭部の挙動による角速度と車両2の挙動による角速度が含まれる。車両2の姿勢変化は、加減速及び操舵といった運転者の操縦等に伴って生じる。したがって、例えば、搭乗者が静止をしていて、頭部を動かさなくても、車両2の挙動によって搭乗者の頭部が動くと、ジャイロセンサ211は搭乗者の頭部の角速度を検出する。ジャイロセンサ211により取得された角速度は、通信装置23に送信される。 Gyro sensor 211 detects the angular velocity of the passenger's head. Specifically, the gyro sensor 211 detects angular velocities about the respective axes mentioned above. The angular velocity of the passenger's head produced by the gyro sensor 211 includes the angular velocity due to the behavior of the passenger's head and the angular velocity due to the behavior of the vehicle 2. Changes in the attitude of the vehicle 2 occur as a result of the driver's operations such as acceleration/deceleration and steering. Therefore, for example, even if the occupant is stationary and does not move his or her head, if the occupant's head moves due to the behavior of the vehicle 2, the gyro sensor 211 detects the angular velocity of the occupant's head. The angular velocity acquired by the gyro sensor 211 is transmitted to the communication device 23.

表示部22は、仮想オブジェクトの画像を表示するためのウェアラブルデバイス20の部位である。表示部22は、例えば、ディスプレイやゴーグルなどが挙げられる。表示部22は、画像表示制御部123により送信された制御信号に基づいて、ディスプレイ上の表示位置に仮想オブジェクトの表示画像が表示する。これにより、ウェアラブルデバイス20を装着している搭乗者は、表示部22を介して仮想オブジェクトが重畳された現実空間を視認することができる。 The display unit 22 is a part of the wearable device 20 for displaying images of virtual objects. Examples of the display unit 22 include a display and goggles. The display unit 22 displays a display image of the virtual object at a display position on the display based on the control signal transmitted by the image display control unit 123. Thereby, the passenger wearing the wearable device 20 can visually recognize the real space on which the virtual object is superimposed via the display unit 22.

次に、図8を用いて、本実施形態に係る挙動推定方法の手順を説明する。図8は、本実施形態に係る挙動推定方法の手順を示すフローチャートである。本実施形態では、搭乗者がウェアラブルデバイス20を装着して、表示部22に仮想オブジェクトの表示画像を表示させるARシステムを起動させると、ステップS801から制御フローを開始する。本実施形態では、コントローラ12は、仮想オブジェクトを表示している間、図8の制御フローを繰り返し実行する。 Next, the procedure of the behavior estimation method according to this embodiment will be explained using FIG. 8. FIG. 8 is a flowchart showing the procedure of the behavior estimation method according to this embodiment. In this embodiment, when the passenger wears the wearable device 20 and starts the AR system that causes the display unit 22 to display a display image of a virtual object, the control flow starts from step S801. In this embodiment, the controller 12 repeatedly executes the control flow of FIG. 8 while displaying the virtual object.

ステップS801では、移動体挙動検出装置11は、車両2の挙動を検出する。具体的には、複数の移動体挙動検出装置11は、それぞれ設置されている設置位置における車両2の挙動を加速度センサ110及びジャイロセンサ111により検出する。そして、移動体挙動検出装置11は、検出された車両2の挙動のデータをコントローラ12に出力する。また、複数の移動体挙動検出装置11は、それぞれ所定の時間間隔で繰り返し移動体の挙動を検出する。 In step S801, the moving object behavior detection device 11 detects the behavior of the vehicle 2. Specifically, the plurality of mobile object behavior detection devices 11 detect the behavior of the vehicle 2 at the respective installation positions using the acceleration sensor 110 and the gyro sensor 111. Then, the mobile object behavior detection device 11 outputs data on the detected behavior of the vehicle 2 to the controller 12. Further, the plurality of moving body behavior detection devices 11 repeatedly detect the behavior of the moving body at predetermined time intervals.

ステップS802では、コントローラ12は、車両2の車内における搭乗者位置を取得する。具体的には、コントローラ12は、カメラ14やシートセンサ15により検出されたセンサ情報に基づいて、搭乗者位置を取得する。搭乗者が複数人いる場合には、それぞれの搭乗者について搭乗者位置を取得する。 In step S802, the controller 12 acquires the position of the passenger inside the vehicle 2. Specifically, the controller 12 acquires the passenger position based on sensor information detected by the camera 14 and the seat sensor 15. If there are multiple passengers, the passenger position is acquired for each passenger.

ステップS803では、コントローラ12は、搭乗者位置における移動体の挙動を推定する。具体的には、コントローラ12は、ステップS802で取得された搭乗者位置と複数の移動体挙動検出装置11の位置との位置関係と、ステップS801で検出された、複数の設置位置における車両2の挙動とに基づいて、計算により搭乗者位置における移動体の挙動を推定する。 In step S803, the controller 12 estimates the behavior of the moving body at the passenger position. Specifically, the controller 12 determines the positional relationship between the passenger position acquired in step S802 and the positions of the plurality of moving object behavior detection devices 11, and the positional relationship of the vehicle 2 at the plurality of installation positions detected in step S801. Based on the behavior, the behavior of the moving object at the passenger position is estimated by calculation.

ステップS804では、搭乗者挙動検出装置21は、搭乗者の頭部の挙動を検出する。検出された搭乗者の頭部の挙動には、搭乗者による頭部の挙動と、車両2の挙動による頭部の挙動を含む。そして、搭乗者挙動検出装置21は、検出された搭乗者の頭部の挙動を、通信装置23を介してコントローラ12に送信する。 In step S804, the passenger behavior detection device 21 detects the behavior of the passenger's head. The detected head behavior of the passenger includes head behavior by the passenger and head behavior due to the behavior of the vehicle 2. The passenger behavior detection device 21 then transmits the detected behavior of the passenger's head to the controller 12 via the communication device 23.

ステップS805では、コントローラ12は、搭乗者による頭部の挙動を推定する。具体的には、コントローラ12は、ステップS804で検出された搭乗者の頭部の挙動と、ステップS803で推定された搭乗者位置における移動体の挙動との差を、搭乗者による頭部の挙動として推定する。 In step S805, the controller 12 estimates the behavior of the passenger's head. Specifically, the controller 12 calculates the difference between the behavior of the passenger's head detected in step S804 and the behavior of the moving object at the passenger's position estimated in step S803 as the head behavior by the passenger. Estimated as.

ステップS806では、コントローラ12は、ステップS805で推定された搭乗者による頭部の挙動に応じて、表示部22に表示する仮想オブジェクトの表示画像の表示制御を行う。具体的には、コントローラ12は、ステップS805で推定された搭乗者による頭部の挙動に基づいて、頭部の状態、すなわち、車両2に対する頭部の位置、向き及び回転角度を算出し、算出された搭乗者の頭部の状態に基づいて、仮想オブジェクトの表示画像の画像形態を制御する制御信号を生成する。そして、コントローラ12は、生成された当該制御信号を車載通信装置13を介してウェアラブルデバイス20に送信する。 In step S806, the controller 12 performs display control of the display image of the virtual object to be displayed on the display unit 22 according to the head behavior of the passenger estimated in step S805. Specifically, the controller 12 calculates the state of the head, that is, the position, orientation, and rotation angle of the head relative to the vehicle 2, based on the head behavior of the passenger estimated in step S805, and calculates Based on the determined state of the passenger's head, a control signal for controlling the image form of the displayed image of the virtual object is generated. Then, the controller 12 transmits the generated control signal to the wearable device 20 via the in-vehicle communication device 13.

ステップS807では、通信装置23を介して制御信号を受信した表示部22は、当該制御信号に基づく表示形態により仮想オブジェクトの表示画像を表示する。例えば、表示部22は、搭乗者の視界に映る車外の対象物に対して、当該対象物を強調する画像を表示する。 In step S807, the display unit 22 that has received the control signal via the communication device 23 displays a display image of the virtual object in a display format based on the control signal. For example, the display unit 22 displays an image that emphasizes an object outside the vehicle that appears in the passenger's field of vision.

なお、本実施形態では、搭乗者挙動推定部122により推定された、搭乗者による頭部の挙動に基づいて、表示画像の表示形態を制御することとしているが、これに限らず、搭乗者挙動推定部122により推定された、搭乗者による腕の挙動に基づいて、表示画像の表示形態を制御することとしてもよい。例えば、搭乗者は、ウェアラブルデバイス20が装着された腕の挙動によって、表示部22に表示される表示画像を操作する。具体的には、画像表示制御部123は、搭乗者の腕の挙動に連動して表示部22に表示させる表示画像の位置を制御する。この場合にも、搭乗者挙動検出装置21により検出される腕の挙動に車両2の挙動が含まれていると、表示画像の表示位置が搭乗者の意図しない方向に移動してしまうため、搭乗者挙動推定部122により搭乗者による腕の挙動を推定することで、搭乗者は、搭乗者による腕の挙動に基づいて正確に表示画像の表示位置を操作することができる。また、本実施形態では、搭乗者挙動推定部122により推定された、搭乗者による腕の挙動に基づいて、搭乗者のジェスチャを認識することとしてもよい。 Note that in this embodiment, the display form of the display image is controlled based on the head behavior of the passenger estimated by the passenger behavior estimation unit 122, but the present invention is not limited to this. The display form of the display image may be controlled based on the arm behavior of the passenger estimated by the estimation unit 122. For example, the passenger operates the display image displayed on the display unit 22 by the behavior of the arm on which the wearable device 20 is attached. Specifically, the image display control unit 123 controls the position of the display image displayed on the display unit 22 in conjunction with the behavior of the passenger's arms. In this case as well, if the behavior of the vehicle 2 is included in the behavior of the arms detected by the passenger behavior detection device 21, the display position of the display image will move in a direction not intended by the passenger. By estimating the arm behavior of the passenger by the passenger behavior estimation unit 122, the passenger can accurately manipulate the display position of the display image based on the passenger's arm behavior. Further, in this embodiment, the gesture of the passenger may be recognized based on the behavior of the passenger's arms estimated by the passenger behavior estimation unit 122.

以上のように、本実施形態では、移動体に搭乗する搭乗者に装着され、搭乗者の身体の挙動を検出する搭乗者挙動検出部と、移動体における搭乗者の位置を搭乗者位置として検出する搭乗者位置検出部と、移動体の複数の設置位置に設置され、設置位置における移動体の挙動を検出する複数の移動体挙動検出部と、移動体における搭乗者位置と複数の設置位置との位置関係と、複数の設置位置における移動体の挙動とに基づいて、搭乗者位置における移動体の挙動を推定する移動体挙動推定部と、搭乗者挙動検出部により検出された身体の挙動と搭乗者位置における移動体の挙動に基づいて、搭乗者による身体の挙動を推定する搭乗者挙動推定部とを備える。これにより、移動体の搭乗者による身体の挙動を正確に推定できる。 As described above, in this embodiment, the passenger behavior detection unit is attached to a passenger riding a mobile object and detects the bodily behavior of the passenger, and the passenger's position in the mobile object is detected as the passenger position. a plurality of moving object behavior detection sections installed at a plurality of installation positions of a moving object to detect the behavior of the moving object at the installation positions; a moving object behavior estimating section that estimates the behavior of the moving object at the passenger position based on the positional relationship of the moving object and the behavior of the moving object at the plurality of installation positions; The vehicle includes a passenger behavior estimating unit that estimates the physical behavior of the passenger based on the behavior of the moving object at the passenger's position. Thereby, the physical behavior of the occupant of the moving body can be accurately estimated.

また、本実施形態では、画像を表示する表示部と、搭乗者挙動推定部により推定された、搭乗者による身体の挙動に基づいて、表示部により表示される画像の表示形態を制御する画像表示制御部とをさらに備える。これにより、走行中の乗員に拡張現実空間を提示する際に、搭乗者による身体の挙動に応じて仮想オブジェクトの表示画像を正確に表示することができる。 Further, in this embodiment, a display unit that displays an image and an image display that controls the display form of the image displayed by the display unit based on the body behavior of the passenger estimated by the passenger behavior estimation unit The apparatus further includes a control section. Thereby, when presenting an augmented reality space to a traveling passenger, it is possible to accurately display a display image of a virtual object according to the bodily behavior of the passenger.

また、本実施形態では、搭乗者挙動検出部は、搭乗者の頭部に装着され、頭部の挙動を検出する。これにより、頭部の挙動に応じた表示画像の表示制御を行うことができる。 Further, in this embodiment, the passenger behavior detection section is attached to the head of the passenger and detects the behavior of the head. Thereby, it is possible to perform display control of the display image according to the behavior of the head.

また、本実施形態では、搭乗者挙動検出部は、頭部の角速度を頭部角速度として計測する頭部ジャイロセンサを有し、移動体挙動検出部は、移動体の角速度を移動体角速度として計測する移動体ジャイロセンサを有し、搭乗者挙動推定部は、頭部角速度及び移動体角速度に基づいて、搭乗者による頭部の挙動を推定する。これにより、頭部の相対的な角度を推定して、車両内における頭部の向きを正確に推定することができる。 Further, in the present embodiment, the passenger behavior detection section includes a head gyro sensor that measures the angular velocity of the head as the head angular velocity, and the moving object behavior detection section measures the angular velocity of the moving object as the moving object angular velocity. The passenger behavior estimation unit estimates the head behavior of the passenger based on the head angular velocity and the mobile body angular velocity. This makes it possible to estimate the relative angle of the head and accurately estimate the orientation of the head within the vehicle.

また、本実施形態では、搭乗者挙動検出部は、頭部の加速度を頭部加速度として計測する頭部加速度センサを有し、移動体挙動検出部は、移動体の加速度を移動体加速度として計測する移動体加速度センサを有し、搭乗者挙動推定部は、頭部加速度及び移動体加速度に基づいて、搭乗者による頭部の挙動を推定する。これにより、頭部の相対的な位置を推定して、車両内における頭部の位置を正確に推定することができる。 Further, in this embodiment, the passenger behavior detection section includes a head acceleration sensor that measures the acceleration of the head as head acceleration, and the moving object behavior detection section measures the acceleration of the moving object as moving object acceleration. The passenger behavior estimation unit estimates the head behavior of the passenger based on the head acceleration and the mobile body acceleration. This makes it possible to estimate the relative position of the head and accurately estimate the position of the head within the vehicle.

また、本実施形態では、搭乗者挙動検出部は、搭乗者に装着されるウェアラブルデバイスに備えられ、移動体挙動検出部は、移動体に搭載される移動体デバイスに備えられ、搭乗者挙動推定部は、移動体デバイスに備えられる。これにより、移動体に搭載されたデバイスが搭乗者による身体の挙動を推定する機能を有することで、ウェアラブルデバイスが複数あった場合に、一元的に、それらのデバイスの挙動を推定することができる。 Further, in the present embodiment, the passenger behavior detection section is provided in a wearable device mounted on the passenger, and the moving object behavior detection section is provided in a mobile device mounted on the moving object, and the passenger behavior detection section is provided in a wearable device mounted on the passenger. The unit is included in the mobile device. This allows the device installed in a mobile object to have the function of estimating the physical behavior of the occupants, making it possible to centrally estimate the behavior of multiple wearable devices. .

また、本実施形態では、搭乗者挙動検出部は、搭乗者の腕に装着され、腕の挙動を検出する。これにより、腕の挙動に応じた表示画像の表示制御を行うことができる。 Further, in this embodiment, the passenger behavior detection section is attached to the arm of the passenger and detects the behavior of the arm. Thereby, display control of the display image can be performed according to the behavior of the arm.

≪第2実施形態≫
次に、図9を用いて、第2実施形態に係る挙動推定システム1について説明する。第2実施形態に係る挙動推定システム1は、第1実施形態に係る挙動推定システム1の変形例である。以下に説明する点において第1実施形態に係る挙動推定システム1と異なること以外は、第1実施形態と同様の構成を有し、第1実施形態と同様に動作するものであり、第1実施形態の記載を適宜、援用する。本実施形態において第1実施形態と異なる構成は、搭乗者挙動推定部である。第1実施形態においては、搭乗者挙動推定部は車載デバイスを構成する機能ブロックであったが、第2実施形態においては、図9で示されるように、ウェアラブルデバイス20を構成する機能ブロックである。すなわち、第2実施形態では、ウェアラブルデバイス20が、搭乗者による身体の挙動を推定する。したがって、本実施形態では、搭乗者が複数いる場合には、複数のウェアラブルデバイス20それぞれにおいて、搭乗者による身体の挙動が推定される。
≪Second embodiment≫
Next, the behavior estimation system 1 according to the second embodiment will be described using FIG. 9. The behavior estimation system 1 according to the second embodiment is a modification of the behavior estimation system 1 according to the first embodiment. The system has the same configuration as the first embodiment and operates in the same manner as the first embodiment, except that it differs from the behavior estimation system 1 according to the first embodiment in the points described below. The description of the form is cited as appropriate. The configuration of this embodiment that differs from the first embodiment is the passenger behavior estimation section. In the first embodiment, the passenger behavior estimation unit was a functional block that constitutes an in-vehicle device, but in the second embodiment, as shown in FIG. 9, it is a functional block that constitutes a wearable device 20. . That is, in the second embodiment, the wearable device 20 estimates the bodily behavior of the passenger. Therefore, in this embodiment, when there are multiple passengers, the physical behavior of the passengers is estimated in each of the plurality of wearable devices 20.

本実施形態では、コントローラ12は、移動体挙動推定部121により搭乗者位置における車両2の挙動を推定すると、搭乗者位置における車両2の挙動を車載通信装置13を介して、通信装置23に送信する。また、ウェアラブルデバイス20は、通信装置23を介して搭乗者位置における車両2の挙動を受信すると、搭乗者挙動推定部24により、搭乗者の頭部の挙動と、搭乗者位置における車両2の挙動との差を、搭乗者による頭部の挙動として推定する。そして、ウェアラブルデバイス20は、推定された搭乗者による頭部の挙動を、通信装置23を介してコントローラ12に送信する。また、ウェアラブルデバイス20は、機能ブロックとして画像表示制御部を備えることとしてもよく、その場合には、ウェアラブルデバイス20において、搭乗者による頭部の挙動に基づいて、表示部22に表示される表示画像の表示形態を制御する。 In this embodiment, when the moving object behavior estimating unit 121 estimates the behavior of the vehicle 2 at the passenger position, the controller 12 transmits the behavior of the vehicle 2 at the passenger position to the communication device 23 via the in-vehicle communication device 13. do. Further, when the wearable device 20 receives the behavior of the vehicle 2 at the passenger position via the communication device 23, the passenger behavior estimation unit 24 calculates the behavior of the head of the passenger and the behavior of the vehicle 2 at the passenger position. The difference between the two is estimated as the passenger's head behavior. Wearable device 20 then transmits the estimated head behavior of the occupant to controller 12 via communication device 23 . In addition, the wearable device 20 may include an image display control section as a functional block. In this case, the wearable device 20 displays the display displayed on the display section 22 based on the head behavior of the occupant. Controls the display format of images.

なお、本実施形態におけるフローチャートは、図8のフローチャートと同じであるが、以下の点で、挙動推定方法の具体的な処理が第1実施形態と異なる。すなわち、本実施形態では、ステップS803で、コントローラ12は、搭乗者位置における車両2の挙動を推定した後、搭乗者位置における車両2の挙動をウェアラブルデバイス20に送信する。また、ステップS804で、搭乗者挙動検出装置21により、搭乗者の頭部の挙動が検出された後、ウェアラブルデバイス20は、ステップS805で、搭乗者による頭部の挙動を推定し、推定された搭乗者による頭部の挙動をコントローラ12に送信する。 Note that the flowchart in this embodiment is the same as the flowchart in FIG. 8, but the specific processing of the behavior estimation method differs from the first embodiment in the following points. That is, in this embodiment, in step S803, the controller 12 estimates the behavior of the vehicle 2 at the passenger position, and then transmits the behavior of the vehicle 2 at the passenger position to the wearable device 20. Further, after the passenger behavior detection device 21 detects the behavior of the passenger's head in step S804, the wearable device 20 estimates the head behavior by the passenger in step S805, and The head behavior of the passenger is transmitted to the controller 12.

以上のように、本実施形態では、搭乗者挙動検出部は、搭乗者に装着されるウェアラブルデバイスに備えられ、移動体挙動検出部は、移動体に搭載される移動体デバイスに備えられ、搭乗者挙動推定部は、ウェアラブルデバイスに備えられる。これにより、複数のウェアラブルデバイスがある場合に、各ウェアラブルデバイスで処理を行うため、処理の負荷を下げることができ、処理の速度を向上させることができる。 As described above, in the present embodiment, the passenger behavior detection section is provided in a wearable device worn by the passenger, and the moving object behavior detection section is provided in a mobile device mounted on a moving object, and the passenger behavior detection section is provided in a mobile device mounted on a moving object. The human behavior estimation unit is included in the wearable device. With this, when there are multiple wearable devices, each wearable device performs processing, so the processing load can be reduced and the processing speed can be improved.

なお、以上に説明した実施形態は、本発明の理解を容易にするために記載されたものであって、本発明を限定するために記載されたものではない。したがって、上記の実施形態に開示された各要素は、本発明の技術的範囲に属する全ての設計変更や均等物をも含む趣旨である。 Note that the embodiments described above are described to facilitate understanding of the present invention, and are not described to limit the present invention. Therefore, each element disclosed in the above embodiments is intended to include all design changes and equivalents that fall within the technical scope of the present invention.

1…挙動推定システム
10…車載デバイス
11…移動体挙動検出装置
12…コントローラ
120…搭乗者位置取得部
121…移動体挙動推定部
122…搭乗者挙動推定部
123…画像表示制御部
13…車載通信装置
14…カメラ
15…シートセンサ
20…ウェアラブルデバイス
21…搭乗者挙動検出装置
22…表示部
23…通信装置
DESCRIPTION OF SYMBOLS 1... Behavior estimation system 10... Vehicle-mounted device 11... Mobile object behavior detection device 12... Controller 120... Occupant position acquisition section 121... Mobile object behavior estimation section 122... Occupant behavior estimation section 123... Image display control section 13... Vehicle-mounted communication Device 14...Camera 15...Seat sensor 20...Wearable device 21...Occupant behavior detection device 22...Display section 23...Communication device

Claims (9)

移動体に搭乗する搭乗者に装着され、前記搭乗者の身体の挙動を検出する搭乗者挙動検出部と、
前記移動体における前記搭乗者の位置を搭乗者位置として検出する搭乗者位置検出部と、
前記移動体の複数の設置位置に設置され、前記設置位置における前記移動体の挙動を検出する複数の移動体挙動検出部と、
前記移動体における前記搭乗者位置と複数の前記設置位置との位置関係と、複数の前記設置位置における前記移動体の挙動とに基づいて、複数の前記設置位置における前記移動体の挙動を統合して、計算により、前記搭乗者位置における前記移動体の挙動を算出する移動体挙動推定部と、
前記搭乗者挙動検出部により検出された前記身体の挙動と前記搭乗者位置における前記移動体の挙動とに基づいて、前記搭乗者による前記身体の挙動を推定する搭乗者挙動推定部とを備える挙動推定システム。
a passenger behavior detection unit that is attached to a passenger on a moving object and detects the bodily behavior of the passenger;
a passenger position detection unit that detects the position of the passenger in the moving body as a passenger position;
a plurality of moving body behavior detection units that are installed at a plurality of installation positions of the mobile body and detect behavior of the mobile body at the installation positions;
Integrating the behavior of the mobile body at the plurality of installation positions based on the positional relationship between the passenger position and the plurality of installation positions in the mobile body, and the behavior of the mobile body at the plurality of installation positions. a moving object behavior estimation unit that calculates the behavior of the moving object at the passenger position by calculation ;
Behavior comprising: an occupant behavior estimating unit that estimates the body behavior of the occupant based on the body behavior detected by the occupant behavior detecting unit and the behavior of the moving body at the occupant position. Estimation system.
請求項1に記載の挙動推定システムであって、
画像を表示する表示部と、
前記搭乗者挙動推定部により推定された、前記搭乗者による前記身体の挙動に基づいて、前記表示部により表示される前記画像の表示形態を制御する画像表示制御部とをさらに備える挙動推定システム。
The behavior estimation system according to claim 1,
a display section that displays an image;
A behavior estimation system further comprising: an image display control unit that controls a display form of the image displayed by the display unit based on the body behavior of the occupant estimated by the occupant behavior estimation unit.
請求項1又は2に記載の挙動推定システムであって、
前記搭乗者挙動検出部は、前記搭乗者の頭部に装着され、前記頭部の挙動を検出する挙動推定システム。
The behavior estimation system according to claim 1 or 2,
The passenger behavior detection unit is a behavior estimation system that is attached to the head of the passenger and detects the behavior of the head.
請求項3に記載の挙動推定システムであって、
前記搭乗者挙動検出部は、前記頭部の角速度を頭部角速度として計測する頭部ジャイロセンサを有し、
前記移動体挙動検出部は、前記移動体の角速度を移動体角速度として計測する移動体ジャイロセンサを有し、
前記搭乗者挙動推定部は、前記頭部角速度及び前記移動体角速度に基づいて、前記搭乗者による前記頭部の挙動を推定する挙動推定システム。
The behavior estimation system according to claim 3,
The passenger behavior detection unit includes a head gyro sensor that measures the angular velocity of the head as a head angular velocity,
The moving object behavior detection unit includes a moving object gyro sensor that measures the angular velocity of the moving object as a moving object angular velocity,
The passenger behavior estimation unit is a behavior estimation system that estimates the behavior of the head by the passenger based on the head angular velocity and the moving object angular velocity.
請求項3又は4に記載の挙動推定システムであって、
前記搭乗者挙動検出部は、前記頭部の加速度を頭部加速度として計測する頭部加速度センサを有し、
前記移動体挙動検出部は、前記移動体の加速度を移動体加速度として計測する移動体加速度センサを有し、
前記搭乗者挙動推定部は、前記頭部加速度及び前記移動体加速度に基づいて、前記搭乗者による前記頭部の挙動を推定する挙動推定システム。
The behavior estimation system according to claim 3 or 4,
The passenger behavior detection unit includes a head acceleration sensor that measures the acceleration of the head as head acceleration,
The moving object behavior detection unit includes a moving object acceleration sensor that measures the acceleration of the moving object as a moving object acceleration,
The passenger behavior estimation unit is a behavior estimation system that estimates the behavior of the head by the passenger based on the head acceleration and the moving body acceleration.
請求項1~5のいずれかに記載の挙動推定システムであって、
前記搭乗者挙動検出部は、前記搭乗者に装着されるウェアラブルデバイスに備えられ、
前記移動体挙動検出部は、前記移動体に搭載される移動体デバイスに備えられ、
前記搭乗者挙動推定部は、前記移動体デバイスに備えられる挙動推定システム。
The behavior estimation system according to any one of claims 1 to 5,
The passenger behavior detection unit is included in a wearable device worn by the passenger,
The mobile body behavior detection unit is provided in a mobile device mounted on the mobile body,
The passenger behavior estimation unit is a behavior estimation system included in the mobile device.
請求項1~5のいずれかに記載の挙動推定システムであって、
前記搭乗者挙動検出部は、前記搭乗者に装着されるウェアラブルデバイスに備えられ、
前記移動体挙動検出部は、前記移動体に搭載される移動体デバイスに備えられ、
前記搭乗者挙動推定部は、前記ウェアラブルデバイスに備えられる挙動推定システム。
The behavior estimation system according to any one of claims 1 to 5,
The passenger behavior detection unit is included in a wearable device worn by the passenger,
The mobile body behavior detection unit is provided in a mobile device mounted on the mobile body,
The passenger behavior estimation unit is a behavior estimation system included in the wearable device.
移動体に搭乗する搭乗者に装着され、前記搭乗者の身体の挙動を検出する搭乗者挙動検出部と、
前記移動体における前記搭乗者の位置を搭乗者位置として検出する搭乗者位置検出部と、
前記移動体の複数の設置位置に設置され、前記設置位置における前記移動体の挙動を検出する複数の移動体挙動検出部と、
前記移動体における前記搭乗者位置と複数の前記設置位置との位置関係と、複数の前記設置位置における前記移動体の挙動とに基づいて、前記搭乗者位置における前記移動体の挙動を推定する移動体挙動推定部と、
前記搭乗者挙動検出部により検出された前記身体の挙動と前記搭乗者位置における前記移動体の挙動とに基づいて、前記搭乗者による前記身体の挙動を推定する搭乗者挙動推定部とを備え、
前記搭乗者挙動検出部は、前記搭乗者の腕に装着され、前記腕の挙動を検出する挙動推定システム。
a passenger behavior detection unit that is attached to a passenger on a moving object and detects the bodily behavior of the passenger;
a passenger position detection unit that detects the position of the passenger in the moving body as a passenger position;
a plurality of moving body behavior detection units that are installed at a plurality of installation positions of the mobile body and detect behavior of the mobile body at the installation positions;
Movement of estimating the behavior of the mobile body at the passenger position based on the positional relationship between the passenger position and the plurality of installation positions in the mobile body, and the behavior of the mobile body at the plurality of installation positions. a body behavior estimation section;
an occupant behavior estimation unit that estimates the body behavior of the occupant based on the body behavior detected by the occupant behavior detection unit and the behavior of the moving body at the occupant position;
The passenger behavior detection unit is a behavior estimation system that is attached to the arm of the passenger and detects the behavior of the arm.
移動体に搭乗する搭乗者の身体の挙動を検出し、
前記移動体における前記搭乗者の位置を搭乗者位置として検出し、
前記移動体の複数の設置位置における前記移動体の挙動を検出し、
前記移動体における前記搭乗者位置と複数の前記設置位置との位置関係と、複数の前記設置位置における前記移動体の挙動とに基づいて、複数の前記設置位置における前記移動体の挙動を統合して、計算により、前記搭乗者位置における前記移動体の挙動を算出し、
検出された前記身体の挙動と前記搭乗者位置における前記移動体の挙動とに基づいて、前記搭乗者による前記身体の挙動を推定する挙動推定方法。
Detects the physical behavior of passengers boarding a moving object,
Detecting the position of the passenger in the moving body as a passenger position,
Detecting the behavior of the moving body at a plurality of installation positions of the moving body,
Integrating the behavior of the mobile body at the plurality of installation positions based on the positional relationship between the passenger position and the plurality of installation positions in the mobile body, and the behavior of the mobile body at the plurality of installation positions. and calculating the behavior of the moving body at the position of the passenger,
A behavior estimation method for estimating the behavior of the body by the passenger based on the detected behavior of the body and the behavior of the moving object at the position of the passenger.
JP2020060199A 2020-03-30 2020-03-30 Behavior estimation system and behavior estimation method Active JP7379253B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020060199A JP7379253B2 (en) 2020-03-30 2020-03-30 Behavior estimation system and behavior estimation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020060199A JP7379253B2 (en) 2020-03-30 2020-03-30 Behavior estimation system and behavior estimation method

Publications (2)

Publication Number Publication Date
JP2021157733A JP2021157733A (en) 2021-10-07
JP7379253B2 true JP7379253B2 (en) 2023-11-14

Family

ID=77919124

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020060199A Active JP7379253B2 (en) 2020-03-30 2020-03-30 Behavior estimation system and behavior estimation method

Country Status (1)

Country Link
JP (1) JP7379253B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010184589A (en) 2009-02-12 2010-08-26 Nissan Motor Co Ltd Onboard display device
JP2017077296A (en) 2015-10-19 2017-04-27 株式会社デンソー Behavior estimation system, behavior estimation method, and wearable device
US20180031829A1 (en) 2016-07-27 2018-02-01 Brillio LLC Method and system for automatically calibrating hmd device
JP2019049831A (en) 2017-09-08 2019-03-28 パナソニックIpマネジメント株式会社 Video display control device, video display system and video display control method
JP2020115274A (en) 2019-01-17 2020-07-30 株式会社アルファコード Virtual space image display control device, virtual space image display control program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010184589A (en) 2009-02-12 2010-08-26 Nissan Motor Co Ltd Onboard display device
JP2017077296A (en) 2015-10-19 2017-04-27 株式会社デンソー Behavior estimation system, behavior estimation method, and wearable device
US20180031829A1 (en) 2016-07-27 2018-02-01 Brillio LLC Method and system for automatically calibrating hmd device
JP2019049831A (en) 2017-09-08 2019-03-28 パナソニックIpマネジメント株式会社 Video display control device, video display system and video display control method
JP2020115274A (en) 2019-01-17 2020-07-30 株式会社アルファコード Virtual space image display control device, virtual space image display control program

Also Published As

Publication number Publication date
JP2021157733A (en) 2021-10-07

Similar Documents

Publication Publication Date Title
JP7005978B2 (en) Trajectory estimation method and trajectory estimation device
JP4978721B2 (en) Driving assistance device
US20190061655A1 (en) Method and apparatus for motion sickness prevention
CN103019524B (en) Vehicle operating input equipment and the control method for vehicle operating input equipment
JP6520905B2 (en) Vehicle driving support device
US8558758B2 (en) Information display apparatus
US20090002142A1 (en) Image Display Device
JP4735676B2 (en) Driving support device
JP4319928B2 (en) Vehicle state detection system and vehicle state detection method
JP6825710B2 (en) Surrounding vehicle display method and surrounding vehicle display device
JP7063856B2 (en) Display control device
CN108367710B (en) Bird's-eye view image generation device, bird's-eye view image generation system, and storage medium
JP2015505759A (en) Method for detecting an impending rollover of a vehicle
JP2023052450A (en) Method of operating head-mount type electronic display device, and display system for displaying virtual contents
US11945309B2 (en) Display system
WO2020026825A1 (en) Information processing device, information processing method, program, and mobile body
CN112773034A (en) Devices and systems related to smart helmets
JP7379253B2 (en) Behavior estimation system and behavior estimation method
WO2022224754A1 (en) Vehicle display system, vehicle display method, and vehicle display program
CN110297325B (en) Augmented reality glasses and system and method for displaying information on vehicle by augmented reality glasses
US11990066B2 (en) System and method to adjust inclined heads-up display perspective
KR102655800B1 (en) Vehicle and Method for detecting obstacle
JP2004106596A (en) Device and method for displaying image and device and method for measurement
WO2020195430A1 (en) Image display system, moving body, image display method, and program
JP2009184638A (en) Virtual image display device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221108

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230619

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230627

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230919

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231003

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231101

R150 Certificate of patent or registration of utility model

Ref document number: 7379253

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150