JP2024018746A - Data processing device and data processing method - Google Patents

Data processing device and data processing method Download PDF

Info

Publication number
JP2024018746A
JP2024018746A JP2022122276A JP2022122276A JP2024018746A JP 2024018746 A JP2024018746 A JP 2024018746A JP 2022122276 A JP2022122276 A JP 2022122276A JP 2022122276 A JP2022122276 A JP 2022122276A JP 2024018746 A JP2024018746 A JP 2024018746A
Authority
JP
Japan
Prior art keywords
data processing
processing device
unit
hand
finger
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022122276A
Other languages
Japanese (ja)
Inventor
昌史 古賀
健介 山本
睦美 中野
将史 大塚
淳哉 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Faurecia Clarion Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd, Faurecia Clarion Electronics Co Ltd filed Critical Clarion Co Ltd
Priority to JP2022122276A priority Critical patent/JP2024018746A/en
Priority to DE102023117804.0A priority patent/DE102023117804A1/en
Publication of JP2024018746A publication Critical patent/JP2024018746A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • B60K35/10
    • B60K35/29
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • B60K2360/1464
    • B60K2360/162
    • B60K2360/21
    • B60K2360/741

Abstract

【課題】車両乗員に対する好適なフィードバックを実現すること。【解決手段】データ処理装置は、自車両の周囲の状況を取得する周囲状況取得部と、前記自車両に搭乗している搭乗者が前記自車両の外部を指し示す手指を認識する手指認識部と、前記周囲状況取得部による取得結果と、前記手指認識部による認識結果とに基づいて、前記手指が指し示した対象を認識する対象認識部と、前記対象認識部によって認識した前記手指が指し示した対象に応じて、前記手指に照射する光の態様を制御する照射制御部と、を備えることを特徴とする。【選択図】図2An object of the present invention is to provide suitable feedback to vehicle occupants. [Solution] A data processing device includes a surrounding situation acquisition unit that acquires the surrounding situation of the own vehicle, and a hand recognition unit that recognizes a hand finger of a passenger riding in the own vehicle pointing at the outside of the own vehicle. , an object recognition unit that recognizes an object pointed by the hand based on an acquisition result by the surrounding situation acquisition unit and a recognition result by the finger recognition unit; and an object pointed to by the hand recognized by the object recognition unit. The invention is characterized by comprising an irradiation control section that controls the mode of light irradiated to the fingers according to the above. [Selection diagram] Figure 2

Description

本発明は、データ処理装置及びデータ処理方法に関する。 The present invention relates to a data processing device and a data processing method.

従来、ディスプレイに表示されたオブジェクトを選択する操作には、マウス等のポインティングデバイスやタッチパネルが用いられていた。また、所望の対象を選択する操作を非接触で行う技術も考えられている。 Conventionally, a pointing device such as a mouse or a touch panel has been used to select an object displayed on a display. Further, a technology is being considered in which the operation of selecting a desired target is performed without contact.

例えば、特許文献1には、「視覚フィードバックを与えることにより指示位置を確認しながら指示動作を行なうことができるポインティング装置を提供する。」「手振り認識装置12は、ユーザの手振りを認識し、手振り位置姿勢情報を出力する。3次元位置検出部8は、レーザ発光部2により投影されたスポット光の3次元位置を検出する。3次元モデル生成部10は、当該3次元位置に基づき投影したスポット光を含むシーンの3次元モデルを生成する。支持台制御部14は、当該3次元モデルと手振り位置姿勢情報とに基づき指示対象の位置を検出し、レーザ発光部2を含む支持台16の姿勢を制御する。」との記載がある。
また、特許文献2には、「表示画面上の選択可能対象を選択するためのユーザインタフェース装置、コンピュータプログラム、コンピュータ可読媒体及び方法を提示する。表示画面は1以上の選択可能対象を表示する。追跡したユーザの手の位置及び頭又は目の位置に関する情報を取得する。追跡した手の位置及び頭又は目の位置に基づいて、上記選択可能対象が第1の画面位置にあるかどうかを判定する。ここで、第1の画面位置は、選択可能対象に対するユーザの視界を第1の手が少なくとも部分的に遮るような表示画面上の位置である。そのように位置すると判定された場合には、選択可能対象が選択されたと判定する。」との記載がある。
For example, Patent Document 1 states, ``A pointing device is provided that can perform a pointing operation while confirming the pointing position by giving visual feedback.'' ``The hand gesture recognition device 12 recognizes the user's hand gestures and The three-dimensional position detecting unit 8 detects the three-dimensional position of the spot light projected by the laser emitting unit 2. The three-dimensional model generating unit 10 outputs position and orientation information. A three-dimensional model of a scene including light is generated.The support stand control unit 14 detects the position of the pointing target based on the three-dimensional model and the hand gesture position and orientation information, and determines the attitude of the support stand 16 including the laser emitting unit 2. control.''
Further, Patent Document 2 describes, "A user interface device, a computer program, a computer readable medium, and a method for selecting selectable objects on a display screen are presented. The display screen displays one or more selectable objects." Obtain information regarding the tracked hand position and head or eye position of the user. Based on the tracked hand position and head or eye position, determine whether the selectable object is at the first screen position. Here, the first screen position is a position on the display screen where the first hand at least partially blocks the user's view of the selectable object. It is determined that the selectable target has been selected.''

特開2000-259337号公報Japanese Patent Application Publication No. 2000-259337 特開2017-539035号公報JP 2017-539035 Publication

従来の技術によれば、ユーザが指さし等によって指定したディスプレイ上の位置を装置が認識可能であり、認識結果をディスプレイ上の表示態様の変化などによってフィードバックできる。
しかしながら、従来の技術では、車両の乗員であるユーザが車外を指し示した場合、装置が指し示した対象を認識したとしても、その認識結果をフィードバックすることが困難であった。
According to the conventional technology, a device can recognize a position on a display specified by a user by pointing or the like, and can feed back the recognition result by changing the display mode on the display.
However, in the conventional technology, when a user who is a vehicle occupant points outside the vehicle, even if the device recognizes the object pointed to, it is difficult to feed back the recognition result.

そこで、本発明では、車両の乗員であるユーザに好適なフィードバックを行うデータ処理装置及びデータ処理方法を提供することを目的とする。 Therefore, an object of the present invention is to provide a data processing device and a data processing method that provide suitable feedback to a user who is a vehicle occupant.

上記目的を達成するために、代表的な本発明のデータ処理装置の一つは、自車両の周囲の状況を取得する周囲状況取得部と、前記自車両に搭乗している搭乗者が前記自車両の外部を指し示す手指を認識する手指認識部と、前記周囲状況取得部による取得結果と、前記手指認識部による認識結果とに基づいて、前記手指が指し示した対象を認識する対象認識部と、前記対象認識部によって認識した前記手指が指し示した対象に応じて、前記手指に照射する光の態様を制御する照射制御部と、を備えることを特徴とする。 In order to achieve the above object, one of the representative data processing devices of the present invention includes a surrounding situation acquisition unit that obtains the surrounding situation of the own vehicle, and a a hand recognition unit that recognizes a hand pointing to the outside of the vehicle; an object recognition unit that recognizes a target pointed by the hand based on an acquisition result by the surrounding situation acquisition unit and a recognition result by the hand recognition unit; The apparatus is characterized by comprising an irradiation control section that controls a mode of light irradiated to the finger according to the object pointed to by the finger recognized by the object recognition section.

本発明によれば、車両乗員に対する好適なフィードバックが実現できる。上記した以外の課題、構成及び効果は以下の実施の形態の説明により明らかにされる。 According to the present invention, suitable feedback to vehicle occupants can be realized. Problems, configurations, and effects other than those described above will be made clear by the following description of the embodiments.

実施例1のデータ処理の概要を説明する説明図Explanatory diagram illustrating an overview of data processing in Example 1 実施例1のデータ処理装置の構成図Configuration diagram of data processing device of Example 1 データ処理装置の処理を示すフローチャートFlowchart showing processing of data processing device 実施例1の対象認識ステップの詳細な処理を示すフローチャートFlowchart showing detailed processing of object recognition step of Example 1 実施例2のデータ処理の概要を説明する説明図Explanatory diagram illustrating an overview of data processing in Example 2 実施例2のデータ処理装置の構成図Configuration diagram of data processing device of Example 2 実施例2の対象認識ステップの詳細な処理を示すフローチャートFlowchart showing detailed processing of object recognition step of Example 2

以下、実施例を図面を用いて説明する。 Examples will be described below with reference to the drawings.

図1は、実施例1のデータ処理の概要を説明する説明図である。図1は、車両に搭乗したユーザが、車外を指さした状態を示す。車両に搭載されたデータ処理装置10は、車内を撮像する車内カメラと、自車両の周囲を撮像する車外カメラとで情報の通信を行う。 FIG. 1 is an explanatory diagram illustrating an overview of data processing according to the first embodiment. FIG. 1 shows a state in which a user riding in a vehicle points outside the vehicle. A data processing device 10 mounted on a vehicle communicates information between an in-vehicle camera that images the inside of the vehicle and an outside camera that images the surroundings of the own vehicle.

データ処理装置10は、車内カメラから画像を取得し、画像を分析してユーザの目の位置と手指の位置を識別し、目の位置と指先を結ぶ直線を指さし方向と判定する。ここで、手指とは、手と指の少なくとも一方を含む意味で用いる。
また、データ処理装置10は、車外カメラから画像を取得し、画像を分析して自車両が駐車可能な駐車領域を検知する。
The data processing device 10 acquires an image from an in-vehicle camera, analyzes the image, identifies the position of the user's eyes and fingers, and determines that a straight line connecting the eye position and the fingertip is the pointing direction. Here, the term "hand" is used to include at least one of a hand and a finger.
The data processing device 10 also acquires an image from a camera outside the vehicle, analyzes the image, and detects a parking area where the own vehicle can park.

データ処理装置10は、指さし方向に駐車領域が所在する場合、すなわち、手指が指し示す位置が駐車領域に含まれる場合に、当該駐車領域を対象として認識する。さらに、指さし方向が駐車領域から外れずに所定時間が経過したとき、データ処理装置10は、当該対象について所定の確定操作を受け付けたと認識し、当該駐車領域への駐車を支援する。 The data processing device 10 recognizes the parking area as a target when the parking area is located in the pointing direction, that is, when the position pointed by the finger is included in the parking area. Furthermore, when a predetermined period of time has elapsed without the pointing direction deviating from the parking area, the data processing device 10 recognizes that a predetermined confirmation operation has been received for the target, and supports parking in the parking area.

ここで、データ処理装置10は、ユーザの手や指に対して光を照射する照射部と通信を行い、ユーザが指し示した対象に応じて照射する光の態様を制御可能である。例えば、図1の状態A1では、ユーザの手H1は駐車領域P1を指し示していない。このとき、照射部は、ユーザの手H1に白色の光を照射する。
その後、状態A2に示すように、ユーザの手H1が駐車領域P1を指し示したならば、照射部は、ユーザの手H1に赤色の光を照射する。そして、ユーザの手H1が駐車領域P1を指し示した状態で所定時間が経過すると、照射部は、ユーザの手H1に黄色の光を照射する。
Here, the data processing device 10 communicates with an irradiation unit that irradiates light onto the user's hand or finger, and can control the form of the irradiated light depending on the target pointed by the user. For example, in state A1 of FIG. 1, the user's hand H1 does not point to the parking area P1. At this time, the irradiation unit irradiates the user's hand H1 with white light.
After that, as shown in state A2, when the user's hand H1 points to the parking area P1, the irradiation unit irradiates the user's hand H1 with red light. Then, when a predetermined period of time has elapsed with the user's hand H1 pointing to the parking area P1, the irradiation unit irradiates the user's hand H1 with yellow light.

このように、データ処理装置10は、ユーザが指し示した対象についての認識結果を、ユーザの手に照射する光の態様を変えることでフィードバック可能である。このため、ユーザが車外を指し示した場合にも、視認性の良好なフィードバックが実現できる。なお、照射部としては、例えばプロジェクタを用いればよい。また、照射する光の態様としては、色の他、点滅を用いることもできる。また、文字や記号をユーザの手に映し出してもよい。さらに複数の態様の一つとして「光を照射しない状態」が含まれてもよい。 In this way, the data processing device 10 can feed back the recognition result of the object pointed at by the user by changing the form of light irradiated to the user's hand. Therefore, feedback with good visibility can be achieved even when the user points outside the vehicle. Note that, for example, a projector may be used as the irradiation unit. Moreover, as the mode of the irradiated light, in addition to color, blinking can also be used. Furthermore, characters and symbols may be projected onto the user's hand. Furthermore, "a state in which no light is irradiated" may be included as one of the plurality of embodiments.

図2は、実施例1のデータ処理装置10の構成図である。データ処理装置10は、処理部20を備え、車外カメラ11及び車内カメラ12から情報を取得し、照射部13を用いてユーザの手に光を照射する。車外カメラ11は、車両の周囲を撮像する撮像装置である。車内カメラ12は、車室内を撮像する撮像装置であり、車室内の乗員の状態を取得するセンサとして機能する。照射部13は、乗員の手や指に光を照射するプロジェクタである。 FIG. 2 is a configuration diagram of the data processing device 10 of the first embodiment. The data processing device 10 includes a processing section 20, acquires information from an outside camera 11 and an inside camera 12, and uses an irradiation section 13 to irradiate a user's hand with light. The vehicle exterior camera 11 is an imaging device that photographs the surroundings of the vehicle. The in-vehicle camera 12 is an imaging device that captures an image of the interior of the vehicle, and functions as a sensor that acquires the status of the occupants in the vehicle interior. The irradiation unit 13 is a projector that irradiates light onto the hands and fingers of the occupant.

車内カメラ12は、乗員の目と手を撮像可能な位置に設置する。例えば、ルームミラー近傍やルームライト近傍などに設置すればよい。照射部13は、乗員の手に対し、乗員から視認可能に光を照射可能な位置に設置する。例えば、ルームライト近傍やヘッドレスト近傍などに設置すればよい。 The in-vehicle camera 12 is installed at a position where it can image the eyes and hands of the occupant. For example, it may be installed near the room mirror or the room light. The irradiation unit 13 is installed at a position where it can irradiate light onto the occupant's hand so that the occupant can visually recognize it. For example, it may be installed near a room light or a headrest.

処理部20は、周囲状況取得部21、乗員認識部22、照射制御部23、対象認識部24及び駐車支援実行部25を有する。処理部20をコンピュータで実現する場合には、CPU(Central Processing Unit)がプログラムを実行することで、周囲状況取得部21、乗員認識部22、照射制御部23、対象認識部24及び駐車支援実行部25に対応する機能を実現すればよい。 The processing section 20 includes a surrounding situation acquisition section 21 , an occupant recognition section 22 , an irradiation control section 23 , an object recognition section 24 , and a parking assistance execution section 25 . When the processing unit 20 is implemented by a computer, a CPU (Central Processing Unit) executes a program to perform the surrounding situation acquisition unit 21, occupant recognition unit 22, irradiation control unit 23, object recognition unit 24, and parking assistance execution. What is necessary is to realize the function corresponding to the section 25.

周囲状況取得部21は、自車両の周囲の状況を取得する。具体的には、周囲状況取得部21は、自車両の周囲を撮像する車外カメラ11が撮像した画像を取得し、対象認識部24に出力する。 The surrounding situation acquisition unit 21 obtains the surrounding situation of the own vehicle. Specifically, the surrounding situation acquisition unit 21 acquires an image taken by the external camera 11 that images the surroundings of the own vehicle, and outputs it to the object recognition unit 24.

乗員認識部22は、車内カメラ12が撮像した画像を取得し、自車両に搭乗しているユーザが自車両の外部を指し示す手指を認識する手指認識部として動作する。また、乗員認識部22は、ユーザの目を認識する。乗員認識部22は、ユーザの目の位置と手指の位置を対象認識部24に出力する。 The occupant recognition unit 22 operates as a hand recognition unit that acquires an image captured by the in-vehicle camera 12 and recognizes a finger pointing toward the outside of the own vehicle by a user riding in the own vehicle. The occupant recognition unit 22 also recognizes the user's eyes. The occupant recognition unit 22 outputs the user's eye positions and finger positions to the object recognition unit 24 .

照射制御部23は、乗員認識部22が認識した手指に対して光を照射するよう照射部13を制御する。具体的には、照射制御部23は、対象認識部24からの出力に応じて照射を制御する。対象認識部24からの出力は、認識結果と手指の位置を含む。照射制御部23は、この手指の位置に合わせて照射部13の照射方向を制御し、認識結果に合わせて照射する光の態様を制御する。認識結果には、「対象無し」、「駐車領域を対象として認識」、「確定操作受付済み」があり、照射制御部23は、これらの認識結果を識別可能となるよう光の表示態様を異ならせる。 The irradiation control unit 23 controls the irradiation unit 13 to irradiate the finger recognized by the occupant recognition unit 22 with light. Specifically, the irradiation control unit 23 controls irradiation according to the output from the object recognition unit 24. The output from the object recognition unit 24 includes recognition results and finger positions. The irradiation control unit 23 controls the irradiation direction of the irradiation unit 13 according to the position of the finger, and controls the mode of the irradiated light according to the recognition result. The recognition results include "no target", "parking area recognized as target", and "confirmation operation accepted", and the irradiation control unit 23 changes the display mode of the light so that these recognition results can be identified. let

対象認識部24は、周囲状況取得部21による取得結果と、乗員認識部22による認識結果とに基づいて、手指が指し示した対象を認識する。 The object recognition unit 24 recognizes the object pointed to by the finger based on the acquisition result by the surrounding situation acquisition unit 21 and the recognition result by the occupant recognition unit 22.

具体的には、対象認識部24は、周囲状況取得部21が取得した画像から自車両が駐車可能な駐車領域を検知する。駐車領域の検知には、任意の画像処理技術を用いればよい。また、対象認識部24は、ユーザの目の位置と指先とを結ぶ直線を指さし方向と判定する。
対象認識部24は、指さし方向に駐車領域が所在しない場合、認識結果を「対象無し」とする。指さし方向に駐車領域が所在する場合、すなわち、手指が指し示す位置が駐車領域に含まれる場合に、当該駐車領域を対象として認識する。このときの認識結果は「駐車領域を対象として認識」である。さらに、指さし方向が駐車領域から外れずに所定時間が経過したとき、対象認識部24は、当該対象について所定の確定操作を受け付けたと認識する。このときの認識結果は、「確定操作受付済み」である。
Specifically, the object recognition unit 24 detects a parking area where the own vehicle can be parked from the image acquired by the surrounding situation acquisition unit 21. Any image processing technique may be used to detect the parking area. Further, the object recognition unit 24 determines that a straight line connecting the user's eye position and the fingertip is the pointing direction.
If there is no parking area in the pointing direction, the object recognition unit 24 determines the recognition result as "no object". When a parking area is located in the pointing direction, that is, when the position pointed by the finger is included in the parking area, the parking area is recognized as a target. The recognition result at this time is "the parking area is recognized as the target". Furthermore, when a predetermined period of time has elapsed without the pointing direction deviating from the parking area, the object recognition unit 24 recognizes that a predetermined confirmation operation has been received for the object. The recognition result at this time is "confirmation operation accepted".

対象認識部24は、認識結果と手指の位置を随時照射制御部23に出力する。また、認識結果が「確定操作受付済み」となった場合に、駐車支援実行部25に対して駐車領域の位置を示すデータを出力する。 The object recognition unit 24 outputs the recognition results and the positions of the fingers to the irradiation control unit 23 at any time. Further, when the recognition result is "confirmation operation accepted", data indicating the position of the parking area is output to the parking assistance execution unit 25.

駐車支援実行部25は、対象認識部24が駐車領域を対象として認識し、所定の確定操作を受け付けた場合に、駐車領域への駐車を支援する。具体的には、駐車支援実行部25は、対象認識部24が出力した駐車領域の位置を示すデータに基づいて、駆動制御ユニット30に対して動作指示を出力する。この動作指示は、自車両の加減速と操舵を制御する指示であり、この動作指示を受けて駆動制御ユニット30が動作することで、自車両は駐車領域まで自動走行し、停車する。 The parking assistance execution unit 25 supports parking in the parking area when the object recognition unit 24 recognizes the parking area as a target and receives a predetermined confirmation operation. Specifically, the parking assistance execution unit 25 outputs an operation instruction to the drive control unit 30 based on the data indicating the position of the parking area output by the object recognition unit 24. This operation instruction is an instruction to control acceleration, deceleration, and steering of the own vehicle, and when the drive control unit 30 operates in response to this operation instruction, the own vehicle automatically travels to the parking area and stops.

図3は、データ処理装置10の処理を示すフローチャートである。この処理は、例えば、ユーザから自動駐車を要求する操作を受け付けたときに開始し、駐車領域を確定して自動走行に移行したときに終了する。 FIG. 3 is a flowchart showing the processing of the data processing device 10. This process starts, for example, when an operation requesting automatic parking is received from the user, and ends when the parking area is determined and automatic driving starts.

処理を開始すると、周囲状況取得部21は、自車両の周囲の状況を取得する周囲状況取得ステップを実行する(ステップS101)。その後、乗員認識部22が、自車両に搭乗しているユーザが自車両の外部を指し示す手指を認識する手指認識ステップを実行する(ステップS102)。その後、対象認識部24が、周囲状況取得ステップによる取得結果と、手指認識ステップによる認識結果とに基づいて、手指が指し示した対象を認識する対象認識ステップを実行する(ステップS103)。その後、照射制御部23は、手指が指し示した対象に応じた態様の光を手指に対して照射する照射ステップを実行する(ステップS104)。その後、ステップS101からの処理を繰り返す。 When the process starts, the surrounding situation acquisition unit 21 executes a surrounding situation acquisition step of acquiring the surrounding situation of the own vehicle (step S101). Thereafter, the occupant recognition unit 22 executes a hand recognition step of recognizing a finger of a user riding in the own vehicle pointing toward the outside of the own vehicle (step S102). Thereafter, the object recognition unit 24 executes an object recognition step of recognizing the object pointed by the finger based on the acquisition result of the surrounding situation acquisition step and the recognition result of the hand recognition step (step S103). After that, the irradiation control unit 23 executes an irradiation step of irradiating the finger with light in a mode corresponding to the object pointed at by the finger (step S104). After that, the process from step S101 is repeated.

図4は、実施例1の対象認識ステップの詳細な処理を示すフローチャートである。まず、対象認識部24は、周囲状況取得部21が取得した画像から自車両が駐車可能な駐車領域を検知する(ステップS201)。また、対象認識部24は、ユーザの目の位置と指先とを結ぶ直線を指さし方向と判定する(ステップS202)。 FIG. 4 is a flowchart showing detailed processing of the object recognition step of the first embodiment. First, the object recognition unit 24 detects a parking area where the own vehicle can be parked from the image acquired by the surrounding situation acquisition unit 21 (step S201). Further, the object recognition unit 24 determines that the straight line connecting the user's eye position and the fingertip is the pointing direction (step S202).

対象認識部24は、指さし方向に駐車領域が所在しない場合(ステップS203;No)、認識結果を「対象無し」として(ステップS204)、認識結果を出力し(ステップS208)、対象認識ステップを終了する。 If there is no parking area in the pointing direction (step S203; No), the object recognition unit 24 sets the recognition result as "no object" (step S204), outputs the recognition result (step S208), and ends the object recognition step. do.

指さし方向に駐車領域が所在する場合(ステップS203;Yes)、対象認識部24は、該駐車領域を対象として認識する(ステップS205)。ステップS205の後、対象認識部24は、駐車領域を対象とした状態が所定時間継続しているか否かを判定する。所定時間継続していなければ(ステップS206;No)、認識結果を出力し(ステップS208)、対象認識ステップを終了する。このときの認識結果は「駐車領域を対象として認識」となる。 If a parking area is located in the pointing direction (step S203; Yes), the object recognition unit 24 recognizes the parking area as a target (step S205). After step S205, the object recognition unit 24 determines whether the state in which the parking area is the object continues for a predetermined period of time. If it has not continued for a predetermined period of time (step S206; No), the recognition result is output (step S208), and the object recognition step ends. The recognition result at this time is "recognition for the parking area".

駐車領域を対象とした状態が所定時間継続していれば(ステップS206;Yes)、対象認識部24は、当該対象について所定の確定操作を受け付けたと認識し(ステップS207)、認識結果を出力し(ステップS208)、対象認識ステップを終了する。このときの認識結果は、「確定操作受付済み」である。 If the state targeting the parking area continues for a predetermined period of time (step S206; Yes), the object recognition unit 24 recognizes that a predetermined confirmation operation has been received for the object (step S207), and outputs the recognition result. (Step S208), the object recognition step ends. The recognition result at this time is "confirmation operation accepted".

図5は、実施例2のデータ処理の概要を説明する説明図である。図5は、車両に搭乗したユーザが、車外を指さした状態を示す。実施例1との違いは、ユーザが目的地としての施設を指し示す点、データ処理装置10aが、地図データを用いてユーザが指し示す施設を特定する点、特定した施設をナビゲーションの目的地として設定する点である。 FIG. 5 is an explanatory diagram illustrating an overview of data processing according to the second embodiment. FIG. 5 shows a state in which a user riding in a vehicle points outside the vehicle. The difference from the first embodiment is that the user points to a facility as a destination, the data processing device 10a uses map data to identify the facility pointed to by the user, and sets the identified facility as the navigation destination. It is a point.

データ処理装置10aは、地図データに含まれる施設のうち、手指が指し示す方向に所在する施設を対象として認識する。さらに、指さし方向が施設から外れずに所定時間が経過したとき、データ処理装置10aは、当該対象について所定の確定操作を受け付けたと認識し、当該施設を目的地として設定する。 The data processing device 10a recognizes the facilities located in the direction indicated by the finger among the facilities included in the map data. Furthermore, when a predetermined period of time has elapsed without the pointing direction deviating from the facility, the data processing device 10a recognizes that a predetermined confirmation operation has been received for the target, and sets the facility as the destination.

データ処理装置10aは、ユーザの手や指に対して光を照射する照射部を備え、ユーザが指し示した対象に応じて照射する光の態様を制御可能である。例えば、図5の状態B1では、ユーザの手H1はいずれの施設も指し示していない。このとき、照射部は、ユーザの手H1に白色の光を照射する。
その後、状態B2に示すように、ユーザの手H1が施設T1を指し示したならば、照射部は、ユーザの手H1に赤色の光を照射する。そして、ユーザの手H1が施設T1を指し示した状態で所定時間が経過すると、照射部は、ユーザの手H1に黄色の光を照射する。
The data processing device 10a includes an irradiation unit that irradiates light onto the user's hand or finger, and can control the form of the irradiated light depending on the object pointed at by the user. For example, in state B1 of FIG. 5, the user's hand H1 is not pointing at any facility. At this time, the irradiation unit irradiates the user's hand H1 with white light.
After that, as shown in state B2, when the user's hand H1 points to the facility T1, the irradiation unit irradiates the user's hand H1 with red light. Then, when a predetermined period of time has elapsed with the user's hand H1 pointing at the facility T1, the irradiation unit irradiates the user's hand H1 with yellow light.

このように、データ処理装置10aは、実施例1と同様に、ユーザが指し示した対象についての認識結果を、ユーザの手に照射する光の態様を変えることでフィードバック可能である。 In this way, similarly to the first embodiment, the data processing device 10a can feed back the recognition result regarding the object pointed at by the user by changing the form of light irradiated to the user's hand.

図6は、実施例2のデータ処理装置10aの構成図である。データ処理装置10aは、車外カメラ11を用いず、処理部20aの周囲状況取得部21aがナビゲーションユニット40から地図データと自車両位置データを取得する点が実施例1と異なる。また、駐車支援実行部25に代えて目的地設定部26を備える点が異なる。さらに、対象認識部24aの動作が異なる。その他の構成及び動作については、実施例1と同様であるので、同一の構成要素には同一の符号を付して説明を省略する。 FIG. 6 is a configuration diagram of the data processing device 10a of the second embodiment. The data processing device 10a differs from the first embodiment in that the surrounding situation acquisition section 21a of the processing section 20a acquires map data and own vehicle position data from the navigation unit 40 without using the external camera 11. Another difference is that a destination setting section 26 is provided instead of the parking assistance execution section 25. Furthermore, the operation of the object recognition unit 24a is different. The other configurations and operations are the same as those in the first embodiment, so the same components are given the same reference numerals and the explanation will be omitted.

周囲状況取得部21aは、自車両の周囲の地図データと、自車両の位置データをナビゲーションユニット40から取得し、対象認識部24aに出力する。
対象認識部24aは、地図データと自車両の位置データとを用い、自車両の周囲の施設の3Dモデルデータを生成する。なお、施設とは、建築物、店舗、公園など、車両の走行の目的地として設定可能なものをいう。
The surrounding situation acquisition unit 21a acquires map data around the own vehicle and position data of the own vehicle from the navigation unit 40, and outputs them to the object recognition unit 24a.
The object recognition unit 24a generates 3D model data of facilities around the own vehicle using the map data and the position data of the own vehicle. Note that the facility refers to something that can be set as a destination for a vehicle, such as a building, a store, or a park.

対象認識部24aは、3Dモデルデータに含まれる施設のうち、手指が指し示す方向に所在する施設を対象として認識する。
具体的には、対象認識部24は、指さし方向に施設が所在しない場合、認識結果を「対象無し」とする。指さし方向に施設が所在する場合、当該施設を対象として認識する。このときの認識結果は「施設を対象として認識」である。さらに、指さし方向が施設から外れずに所定時間が経過したとき、対象認識部24は、当該対象について所定の確定操作を受け付けたと認識する。このときの認識結果は、「確定操作受付済み」である。
The object recognition unit 24a recognizes, as a target, a facility located in the direction indicated by the finger among the facilities included in the 3D model data.
Specifically, when there is no facility in the pointing direction, the object recognition unit 24 sets the recognition result to "no object". If a facility is located in the pointing direction, the facility is recognized as the target. The recognition result at this time is "recognition as a facility". Further, when a predetermined period of time has elapsed without the pointing direction deviating from the facility, the object recognition unit 24 recognizes that a predetermined confirmation operation has been received for the object. The recognition result at this time is "confirmation operation accepted".

対象認識部24aは、認識結果と手指の位置を随時照射制御部23に出力する。また、認識結果が「確定操作受付済み」となった場合に、目的地設定部26に対して対象の施設を示すデータを出力する。 The object recognition unit 24a outputs the recognition results and the positions of the fingers to the irradiation control unit 23 at any time. Further, when the recognition result is "confirmation operation accepted", data indicating the target facility is output to the destination setting unit 26.

目的地設定部26は、対象認識部24が施設を対象として認識し、所定の確定操作を受け付けた場合に、当該施設を目的地としてナビゲーションユニット40に出力する。ナビゲーションユニット40は、出力された目的地に至る経路を探索し、探索した経路を案内する。 When the object recognition section 24 recognizes a facility as a target and receives a predetermined confirmation operation, the destination setting section 26 outputs the facility as a destination to the navigation unit 40. The navigation unit 40 searches for a route to the output destination and provides guidance along the searched route.

データ処理装置10aの基本的な処理は、実施例1と同様である。実施例2の処理は、例えば、ユーザから目的地設定を要求する操作を受け付けたときに開始し、目的地を確定して経路探索に移行したときに終了する。 The basic processing of the data processing device 10a is the same as in the first embodiment. The process of the second embodiment starts, for example, when an operation requesting destination setting is received from the user, and ends when the destination is determined and the process moves to route search.

図7は、実施例2の対象認識ステップの詳細な処理を示すフローチャートである。まず、対象認識部24aは、周囲状況取得部21が取得した地図データと自車両の位置データとを用い、自車両の周囲の施設の3Dモデルデータを生成する(ステップS301)。また、対象認識部24aは、ユーザの目の位置と指先とを結ぶ直線を指さし方向と判定する(ステップS302)。 FIG. 7 is a flowchart showing detailed processing of the object recognition step of the second embodiment. First, the object recognition unit 24a generates 3D model data of facilities around the own vehicle using the map data acquired by the surrounding situation acquisition unit 21 and the position data of the own vehicle (step S301). Further, the object recognition unit 24a determines that the straight line connecting the user's eye position and the fingertip is the pointing direction (step S302).

対象認識部24aは、指さし方向に施設が所在しない場合(ステップS303;No)、認識結果を「対象無し」として(ステップS304)、認識結果を出力し(ステップS308)、対象認識ステップを終了する。 If there is no facility in the pointing direction (step S303; No), the target recognition unit 24a sets the recognition result as "no target" (step S304), outputs the recognition result (step S308), and ends the target recognition step. .

指さし方向に施設が所在する場合(ステップS303;Yes)、対象認識部24aは、該施設を対象として認識する(ステップS305)。ステップS205の後、対象認識部24aは、施設を対象とした状態が所定時間継続しているか否かを判定する。所定時間継続していなければ(ステップS306;No)、認識結果を出力し(ステップS308)、対象認識ステップを終了する。このときの認識結果は「施設を対象として認識」となる。 If a facility is located in the pointing direction (step S303; Yes), the target recognition unit 24a recognizes the facility as a target (step S305). After step S205, the target recognition unit 24a determines whether the state in which the facility is targeted continues for a predetermined period of time. If it has not continued for a predetermined period of time (step S306; No), the recognition result is output (step S308), and the object recognition step ends. The recognition result at this time is "recognize the facility as the target".

施設を対象とした状態が所定時間継続していれば(ステップS306;Yes)、対象認識部24aは、当該対象について所定の確定操作を受け付けたと認識し(ステップS307)、認識結果を出力し(ステップS308)、対象認識ステップを終了する。このときの認識結果は、「確定操作受付済み」である。 If the state targeting the facility continues for a predetermined period of time (step S306; Yes), the target recognition unit 24a recognizes that a predetermined confirmation operation has been received for the target (step S307), and outputs the recognition result ( Step S308), the object recognition step ends. The recognition result at this time is "confirmation operation accepted".

上述してきたように、開示のデータ処理装置は、自車両の周囲の状況を取得する周囲状況取得部21と、前記自車両に搭乗している搭乗者が前記自車両の外部を指し示す手指を認識する手指認識部として機能する乗員認識部22と、前記周囲状況取得部による取得結果と、前記手指認識部による認識結果とに基づいて、前記手指が指し示した対象を認識する対象認識部24と、前記対象認識部24によって認識した前記手指が指し示した対象に応じて、前記手指に照射する光の態様を制御する照射制御部23と、を備える。
このため、データ処理装置は、車両の乗員であるユーザが車外を指し示した場合であっても、その対象を認識し、認識結果を手指に照射する光の態様でフィードバック可能であり、車両乗員に好適なフィードバックが実現できる。
As described above, the disclosed data processing device includes the surrounding situation acquisition unit 21 that acquires the surrounding situation of the own vehicle, and the recognition unit 21 that acquires the surrounding situation of the own vehicle, and the recognition of the finger pointing to the outside of the own vehicle by the passenger riding in the own vehicle. an object recognition unit 24 that recognizes the object pointed by the hand based on the acquisition result by the surrounding situation acquisition unit and the recognition result by the hand recognition unit; The apparatus further includes an irradiation control section 23 that controls the mode of light irradiated to the finger according to the object pointed at by the finger recognized by the object recognition section 24.
Therefore, even if a user, who is a vehicle occupant, points outside the vehicle, the data processing device can recognize the target and feed back the recognition result in the form of light that illuminates the vehicle occupant's finger. Appropriate feedback can be achieved.

また、開示のデータ処理装置によれば、前記周囲状況取得部21は、前記自車両の周囲を撮像するカメラである車外カメラ11から画像を取得し、前記対象認識部24は、前記画像から前記自車両が駐車可能な駐車領域を検知し、前記手指が指し示す位置が前記駐車領域に含まれる場合に、当該駐車領域を前記対象として認識し、前記照射制御部23は、前記対象認識部24が前記駐車領域を前記対象として認識したか否かによって前記光の表示態様を異ならせる。
そして、データ処理装置は、前記対象認識部24が前記駐車領域を前記対象として認識し、所定の確定操作を受け付けた場合に、前記駐車領域への駐車を支援する駐車支援実行部をさらに備える。
このため、データ処理装置は、ユーザが指し示した駐車領域を認識し、認識結果を通知し、駐車領域への駐車を支援できる。
Further, according to the disclosed data processing device, the surrounding situation acquisition unit 21 acquires an image from the vehicle exterior camera 11, which is a camera that images the surroundings of the own vehicle, and the object recognition unit 24 extracts the image from the image. If a parking area where the own vehicle can be parked is detected, and the position indicated by the finger is included in the parking area, the parking area is recognized as the target, and the irradiation control unit 23 detects that the target recognition unit 24 The display mode of the light is changed depending on whether the parking area is recognized as the object.
The data processing device further includes a parking assistance execution unit that supports parking in the parking area when the object recognition unit 24 recognizes the parking area as the object and receives a predetermined confirmation operation.
Therefore, the data processing device can recognize the parking area pointed by the user, notify the recognition result, and support parking in the parking area.

また、開示のデータ処理装置によれば、前記周囲状況取得部21は、前記自車両の周囲の地図データを取得し、前記対象認識部24は、前記地図データに含まれる施設のうち、前記手指が指し示す方向に所在する施設を前記対象として認識し、前記照射制御部23は、前記対象認識部24が前記施設を前記対象として認識したか否かによって前記光の表示態様を異ならせることを特徴とする。
そして、前記対象認識部24が前記施設を前記対象として認識し、所定の確定操作を受け付けた場合に、前記施設を目的地として設定する目的地設定部26をさらに備える。
このため、データ処理装置は、ユーザが指し示した施設を認識し、認識結果を通知し、その施設を目的地に設定できる。
Further, according to the disclosed data processing device, the surrounding situation acquisition unit 21 acquires map data around the own vehicle, and the object recognition unit 24 selects the hand and finger information from among the facilities included in the map data. A facility located in the direction indicated by is recognized as the target, and the irradiation control unit 23 changes the display mode of the light depending on whether the target recognition unit 24 recognizes the facility as the target. shall be.
The apparatus further includes a destination setting section 26 that sets the facility as a destination when the object recognition section 24 recognizes the facility as the object and receives a predetermined confirmation operation.
Therefore, the data processing device can recognize the facility pointed to by the user, notify the user of the recognition result, and set the facility as the destination.

また、開示のデータ処理装置によれば、前記対象認識部24は、前記手指が指し示した対象が同一のまま所定時間が経過したとき、当該対象について所定の確定操作を受け付けたと認識し、前記照射制御部は、前記確定操作を受け付けたときに、前記手指に照射する光の態様を変える。
このように、データ処理装置は、指さし等により対象の確定操作を受付可能であり、確定操作の受付をユーザにフィードバックできる。
Further, according to the disclosed data processing device, when the target pointed by the finger remains the same for a predetermined period of time, the target recognition unit 24 recognizes that a predetermined confirmation operation has been received for the target, and The control unit changes the mode of light irradiated to the finger when receiving the confirming operation.
In this way, the data processing device can accept a target confirmation operation by pointing or the like, and can feed back the acceptance of the confirmation operation to the user.

なお、本発明は上記の実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、かかる構成の削除に限らず、構成の置き換えや追加も可能である。 Note that the present invention is not limited to the above-described embodiments, and includes various modifications. For example, the embodiments described above are described in detail to explain the present invention in an easy-to-understand manner, and the present invention is not necessarily limited to having all the configurations described. Furthermore, it is possible not only to delete such a configuration but also to replace or add a configuration.

例えば、運転者以外に他の乗員がいる場合に、他の乗員を対象に本発明を適用してもよい。また、複数の乗員のうち、特定の乗員を指定して本発明の適用対象としてもよい。 For example, when there are other occupants in addition to the driver, the present invention may be applied to the other occupants. Alternatively, a specific occupant may be designated as a target of the present invention among a plurality of occupants.

また、車内カメラ以外の任意のセンサ、例えば、LIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)や、据え置きされたスマートフォンなどから乗員の状態を取得してもよい。さらに、複数のセンサ、複数種類のセンサの出力を組み合わせて用いることもできる。 Further, the status of the occupant may be acquired from any sensor other than the in-vehicle camera, such as LIDAR (Light Detection and Ranging, Laser Imaging Detection and Ranging) or a stationary smartphone. Furthermore, outputs from multiple sensors and multiple types of sensors can be used in combination.

また、上記実施例では、目と指先の延長線上をユーザが指し示す方向として判定したが、指の2点を認識し、この2点の延長線上をユーザが指し示す方向として判定してもよい。 Furthermore, in the embodiment described above, the extension line between the eye and the fingertip is determined as the direction in which the user is pointing, but two points on the finger may be recognized and the extension line between these two points may be determined as the direction in which the user is pointing.

10:データ処理装置、11:車外カメラ、12:車内カメラ、13:照射部、20:処理部、21:周囲状況取得部、22:乗員認識部、24:対象認識部、25:駐車支援実行部、26:目的地設定部、30:駆動制御ユニット、40:ナビゲーションユニット
10: Data processing device, 11: External camera, 12: In-vehicle camera, 13: Irradiation unit, 20: Processing unit, 21: Surrounding situation acquisition unit, 22: Occupant recognition unit, 24: Object recognition unit, 25: Parking assistance execution part, 26: destination setting part, 30: drive control unit, 40: navigation unit

Claims (7)

自車両の周囲の状況を取得する周囲状況取得部と、
前記自車両に搭乗している搭乗者が前記自車両の外部を指し示す手指を認識する手指認識部と、
前記周囲状況取得部による取得結果と、前記手指認識部による認識結果とに基づいて、前記手指が指し示した対象を認識する対象認識部と、
前記対象認識部によって認識した前記手指が指し示した対象に応じて、前記手指に照射する光の態様を制御する照射制御部と、
を備えることを特徴とするデータ処理装置。
a surrounding situation acquisition unit that obtains the surrounding situation of the host vehicle;
a hand recognition unit that recognizes a hand finger of a passenger on board the host vehicle pointing toward the outside of the host vehicle;
an object recognition unit that recognizes a target pointed by the finger based on the acquisition result by the surrounding situation acquisition unit and the recognition result by the finger recognition unit;
an irradiation control unit that controls a mode of light irradiated to the finger according to an object pointed to by the finger recognized by the object recognition unit;
A data processing device comprising:
請求項1に記載のデータ処理装置であって、
前記周囲状況取得部は、前記自車両の周囲を撮像するカメラから画像を取得し、
前記対象認識部は、前記画像から前記自車両が駐車可能な駐車領域を検知し、前記手指が指し示す位置が前記駐車領域に含まれる場合に、当該駐車領域を前記対象として認識し、
前記照射制御部は、前記対象認識部が前記駐車領域を前記対象として認識したか否かによって前記光の表示態様を異ならせることを特徴とするデータ処理装置。
The data processing device according to claim 1,
The surrounding situation acquisition unit obtains an image from a camera that images the surroundings of the own vehicle,
The object recognition unit detects a parking area where the own vehicle can be parked from the image, and if the position pointed by the hand is included in the parking area, recognizes the parking area as the object;
The data processing device is characterized in that the irradiation control unit changes the display mode of the light depending on whether or not the object recognition unit recognizes the parking area as the object.
請求項2に記載のデータ処理装置であって、
前記対象認識部が前記駐車領域を前記対象として認識し、所定の確定操作を受け付けた場合に、前記駐車領域への駐車を支援する駐車支援実行部をさらに備えたことを特徴とするデータ処理装置。
The data processing device according to claim 2,
The data processing device further includes a parking assistance execution unit that supports parking in the parking area when the object recognition unit recognizes the parking area as the object and receives a predetermined confirmation operation. .
請求項1に記載のデータ処理装置であって、
前記周囲状況取得部は、前記自車両の周囲の地図データを取得し、
前記対象認識部は、前記地図データに含まれる施設のうち、前記手指が指し示す方向に所在する施設を前記対象として認識し、
前記照射制御部は、前記対象認識部が前記施設を前記対象として認識したか否かによって前記光の表示態様を異ならせることを特徴とするデータ処理装置。
The data processing device according to claim 1,
The surrounding situation acquisition unit acquires map data around the own vehicle,
The target recognition unit recognizes, as the target, a facility located in the direction indicated by the finger among the facilities included in the map data,
The data processing device is characterized in that the irradiation control unit changes the display mode of the light depending on whether or not the object recognition unit recognizes the facility as the object.
請求項4に記載のデータ処理装置であって、
前記対象認識部が前記施設を前記対象として認識し、所定の確定操作を受け付けた場合に、前記施設を目的地として設定する目的地設定部をさらに備えたことを特徴とするデータ処理装置。
The data processing device according to claim 4,
The data processing device further comprises a destination setting unit that sets the facility as a destination when the target recognition unit recognizes the facility as the target and receives a predetermined confirmation operation.
請求項1に記載のデータ処理装置であって、
前記対象認識部は、前記手指が指し示した対象が同一のまま所定時間が経過したとき、当該対象について所定の確定操作を受け付けたと認識し、
前記照射制御部は、前記確定操作を受け付けたときに、前記手指に照射する光の態様を変えることを特徴とするデータ処理装置。
The data processing device according to claim 1,
The target recognition unit recognizes that a predetermined confirmation operation has been received for the target when the target pointed by the hand remains the same for a predetermined time,
The data processing device is characterized in that the irradiation control unit changes the mode of light irradiated to the hand and fingers when the confirmation operation is received.
データ処理装置が、
自車両の周囲の状況を取得する周囲状況取得ステップと、
前記自車両に搭乗している搭乗者が前記自車両の外部を指し示す手指を認識する手指認識ステップと、
前記周囲状況取得ステップによる取得結果と、前記手指認識ステップによる認識結果とに基づいて、前記手指が指し示した対象を認識する対象認識ステップと、
前記手指が指し示した対象に応じた態様の光を前記手指に対して照射する照射ステップと、
を含むことを特徴とするデータ処理方法。
The data processing device
a surrounding situation acquisition step of obtaining the surrounding situation of the own vehicle;
a hand finger recognition step of recognizing a hand finger of a passenger on board the host vehicle pointing at an outside of the host vehicle;
an object recognition step of recognizing an object pointed by the hand based on the acquisition result of the surrounding situation acquisition step and the recognition result of the hand recognition step;
an irradiation step of irradiating the finger with light in a mode depending on the object pointed at by the finger;
A data processing method characterized by comprising:
JP2022122276A 2022-07-29 2022-07-29 Data processing device and data processing method Pending JP2024018746A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022122276A JP2024018746A (en) 2022-07-29 2022-07-29 Data processing device and data processing method
DE102023117804.0A DE102023117804A1 (en) 2022-07-29 2023-07-06 DATA PROCESSING DEVICE AND DATA PROCESSING METHOD

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022122276A JP2024018746A (en) 2022-07-29 2022-07-29 Data processing device and data processing method

Publications (1)

Publication Number Publication Date
JP2024018746A true JP2024018746A (en) 2024-02-08

Family

ID=89508390

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022122276A Pending JP2024018746A (en) 2022-07-29 2022-07-29 Data processing device and data processing method

Country Status (2)

Country Link
JP (1) JP2024018746A (en)
DE (1) DE102023117804A1 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000259337A (en) 1999-03-10 2000-09-22 Atr Media Integration & Communications Res Lab Pointing device
JP6343718B2 (en) 2015-04-16 2018-06-13 楽天株式会社 Gesture interface

Also Published As

Publication number Publication date
DE102023117804A1 (en) 2024-02-01

Similar Documents

Publication Publication Date Title
CN109484299B (en) Method, apparatus, and storage medium for controlling display of augmented reality display apparatus
US10466800B2 (en) Vehicle information processing device
JP5143235B2 (en) Control device and vehicle surrounding monitoring device
JP6316559B2 (en) Information processing apparatus, gesture detection method, and gesture detection program
JP6413207B2 (en) Vehicle display device
JP2009051338A (en) Driving support device for vehicle
JP5286035B2 (en) Vehicle speed control device
JP2005138755A (en) Device and program for displaying virtual images
WO2017082067A1 (en) Image display system for vehicle
JP2014149640A (en) Gesture operation device and gesture operation program
US10296101B2 (en) Information processing system, information processing apparatus, control method, and program
JP2003300444A (en) Drive support device for moving body
JP2012176656A (en) Parking support device
WO2018061603A1 (en) Gestural manipulation system, gestural manipulation method, and program
JP2008047006A (en) On-vehicle laser beam radiation system
JP6057755B2 (en) Gesture operation device and gesture operation program
JP2018091908A (en) Head-up display device
WO2018116565A1 (en) Information display device for vehicle and information display program for vehicle
JP5136948B2 (en) Vehicle control device
JP2008213647A (en) Parking assist method and parking assist system
JP6516241B2 (en) Gesture input device
JP2024018746A (en) Data processing device and data processing method
KR20170056100A (en) Objects displaying apparatus of head up display and method thereof
CN115700196A (en) Display control device for vehicle, display control method for vehicle, and display device for vehicle
JP7293854B2 (en) Display control device and display control program