JP2024018746A - Data processing device and data processing method - Google Patents
Data processing device and data processing method Download PDFInfo
- Publication number
- JP2024018746A JP2024018746A JP2022122276A JP2022122276A JP2024018746A JP 2024018746 A JP2024018746 A JP 2024018746A JP 2022122276 A JP2022122276 A JP 2022122276A JP 2022122276 A JP2022122276 A JP 2022122276A JP 2024018746 A JP2024018746 A JP 2024018746A
- Authority
- JP
- Japan
- Prior art keywords
- data processing
- processing device
- unit
- hand
- finger
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003672 processing method Methods 0.000 title claims description 4
- 238000012790 confirmation Methods 0.000 claims description 24
- 230000001678 irradiating effect Effects 0.000 claims description 2
- 238000010586 diagram Methods 0.000 abstract description 9
- 238000000034 method Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 230000008685 targeting Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- B60K35/10—
-
- B60K35/29—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- B60K2360/1464—
-
- B60K2360/162—
-
- B60K2360/21—
-
- B60K2360/741—
Abstract
【課題】車両乗員に対する好適なフィードバックを実現すること。【解決手段】データ処理装置は、自車両の周囲の状況を取得する周囲状況取得部と、前記自車両に搭乗している搭乗者が前記自車両の外部を指し示す手指を認識する手指認識部と、前記周囲状況取得部による取得結果と、前記手指認識部による認識結果とに基づいて、前記手指が指し示した対象を認識する対象認識部と、前記対象認識部によって認識した前記手指が指し示した対象に応じて、前記手指に照射する光の態様を制御する照射制御部と、を備えることを特徴とする。【選択図】図2An object of the present invention is to provide suitable feedback to vehicle occupants. [Solution] A data processing device includes a surrounding situation acquisition unit that acquires the surrounding situation of the own vehicle, and a hand recognition unit that recognizes a hand finger of a passenger riding in the own vehicle pointing at the outside of the own vehicle. , an object recognition unit that recognizes an object pointed by the hand based on an acquisition result by the surrounding situation acquisition unit and a recognition result by the finger recognition unit; and an object pointed to by the hand recognized by the object recognition unit. The invention is characterized by comprising an irradiation control section that controls the mode of light irradiated to the fingers according to the above. [Selection diagram] Figure 2
Description
本発明は、データ処理装置及びデータ処理方法に関する。 The present invention relates to a data processing device and a data processing method.
従来、ディスプレイに表示されたオブジェクトを選択する操作には、マウス等のポインティングデバイスやタッチパネルが用いられていた。また、所望の対象を選択する操作を非接触で行う技術も考えられている。 Conventionally, a pointing device such as a mouse or a touch panel has been used to select an object displayed on a display. Further, a technology is being considered in which the operation of selecting a desired target is performed without contact.
例えば、特許文献1には、「視覚フィードバックを与えることにより指示位置を確認しながら指示動作を行なうことができるポインティング装置を提供する。」「手振り認識装置12は、ユーザの手振りを認識し、手振り位置姿勢情報を出力する。3次元位置検出部8は、レーザ発光部2により投影されたスポット光の3次元位置を検出する。3次元モデル生成部10は、当該3次元位置に基づき投影したスポット光を含むシーンの3次元モデルを生成する。支持台制御部14は、当該3次元モデルと手振り位置姿勢情報とに基づき指示対象の位置を検出し、レーザ発光部2を含む支持台16の姿勢を制御する。」との記載がある。
また、特許文献2には、「表示画面上の選択可能対象を選択するためのユーザインタフェース装置、コンピュータプログラム、コンピュータ可読媒体及び方法を提示する。表示画面は1以上の選択可能対象を表示する。追跡したユーザの手の位置及び頭又は目の位置に関する情報を取得する。追跡した手の位置及び頭又は目の位置に基づいて、上記選択可能対象が第1の画面位置にあるかどうかを判定する。ここで、第1の画面位置は、選択可能対象に対するユーザの視界を第1の手が少なくとも部分的に遮るような表示画面上の位置である。そのように位置すると判定された場合には、選択可能対象が選択されたと判定する。」との記載がある。
For example, Patent Document 1 states, ``A pointing device is provided that can perform a pointing operation while confirming the pointing position by giving visual feedback.'' ``The hand
Further, Patent Document 2 describes, "A user interface device, a computer program, a computer readable medium, and a method for selecting selectable objects on a display screen are presented. The display screen displays one or more selectable objects." Obtain information regarding the tracked hand position and head or eye position of the user. Based on the tracked hand position and head or eye position, determine whether the selectable object is at the first screen position. Here, the first screen position is a position on the display screen where the first hand at least partially blocks the user's view of the selectable object. It is determined that the selectable target has been selected.''
従来の技術によれば、ユーザが指さし等によって指定したディスプレイ上の位置を装置が認識可能であり、認識結果をディスプレイ上の表示態様の変化などによってフィードバックできる。
しかしながら、従来の技術では、車両の乗員であるユーザが車外を指し示した場合、装置が指し示した対象を認識したとしても、その認識結果をフィードバックすることが困難であった。
According to the conventional technology, a device can recognize a position on a display specified by a user by pointing or the like, and can feed back the recognition result by changing the display mode on the display.
However, in the conventional technology, when a user who is a vehicle occupant points outside the vehicle, even if the device recognizes the object pointed to, it is difficult to feed back the recognition result.
そこで、本発明では、車両の乗員であるユーザに好適なフィードバックを行うデータ処理装置及びデータ処理方法を提供することを目的とする。 Therefore, an object of the present invention is to provide a data processing device and a data processing method that provide suitable feedback to a user who is a vehicle occupant.
上記目的を達成するために、代表的な本発明のデータ処理装置の一つは、自車両の周囲の状況を取得する周囲状況取得部と、前記自車両に搭乗している搭乗者が前記自車両の外部を指し示す手指を認識する手指認識部と、前記周囲状況取得部による取得結果と、前記手指認識部による認識結果とに基づいて、前記手指が指し示した対象を認識する対象認識部と、前記対象認識部によって認識した前記手指が指し示した対象に応じて、前記手指に照射する光の態様を制御する照射制御部と、を備えることを特徴とする。 In order to achieve the above object, one of the representative data processing devices of the present invention includes a surrounding situation acquisition unit that obtains the surrounding situation of the own vehicle, and a a hand recognition unit that recognizes a hand pointing to the outside of the vehicle; an object recognition unit that recognizes a target pointed by the hand based on an acquisition result by the surrounding situation acquisition unit and a recognition result by the hand recognition unit; The apparatus is characterized by comprising an irradiation control section that controls a mode of light irradiated to the finger according to the object pointed to by the finger recognized by the object recognition section.
本発明によれば、車両乗員に対する好適なフィードバックが実現できる。上記した以外の課題、構成及び効果は以下の実施の形態の説明により明らかにされる。 According to the present invention, suitable feedback to vehicle occupants can be realized. Problems, configurations, and effects other than those described above will be made clear by the following description of the embodiments.
以下、実施例を図面を用いて説明する。 Examples will be described below with reference to the drawings.
図1は、実施例1のデータ処理の概要を説明する説明図である。図1は、車両に搭乗したユーザが、車外を指さした状態を示す。車両に搭載されたデータ処理装置10は、車内を撮像する車内カメラと、自車両の周囲を撮像する車外カメラとで情報の通信を行う。
FIG. 1 is an explanatory diagram illustrating an overview of data processing according to the first embodiment. FIG. 1 shows a state in which a user riding in a vehicle points outside the vehicle. A
データ処理装置10は、車内カメラから画像を取得し、画像を分析してユーザの目の位置と手指の位置を識別し、目の位置と指先を結ぶ直線を指さし方向と判定する。ここで、手指とは、手と指の少なくとも一方を含む意味で用いる。
また、データ処理装置10は、車外カメラから画像を取得し、画像を分析して自車両が駐車可能な駐車領域を検知する。
The
The
データ処理装置10は、指さし方向に駐車領域が所在する場合、すなわち、手指が指し示す位置が駐車領域に含まれる場合に、当該駐車領域を対象として認識する。さらに、指さし方向が駐車領域から外れずに所定時間が経過したとき、データ処理装置10は、当該対象について所定の確定操作を受け付けたと認識し、当該駐車領域への駐車を支援する。
The
ここで、データ処理装置10は、ユーザの手や指に対して光を照射する照射部と通信を行い、ユーザが指し示した対象に応じて照射する光の態様を制御可能である。例えば、図1の状態A1では、ユーザの手H1は駐車領域P1を指し示していない。このとき、照射部は、ユーザの手H1に白色の光を照射する。
その後、状態A2に示すように、ユーザの手H1が駐車領域P1を指し示したならば、照射部は、ユーザの手H1に赤色の光を照射する。そして、ユーザの手H1が駐車領域P1を指し示した状態で所定時間が経過すると、照射部は、ユーザの手H1に黄色の光を照射する。
Here, the
After that, as shown in state A2, when the user's hand H1 points to the parking area P1, the irradiation unit irradiates the user's hand H1 with red light. Then, when a predetermined period of time has elapsed with the user's hand H1 pointing to the parking area P1, the irradiation unit irradiates the user's hand H1 with yellow light.
このように、データ処理装置10は、ユーザが指し示した対象についての認識結果を、ユーザの手に照射する光の態様を変えることでフィードバック可能である。このため、ユーザが車外を指し示した場合にも、視認性の良好なフィードバックが実現できる。なお、照射部としては、例えばプロジェクタを用いればよい。また、照射する光の態様としては、色の他、点滅を用いることもできる。また、文字や記号をユーザの手に映し出してもよい。さらに複数の態様の一つとして「光を照射しない状態」が含まれてもよい。
In this way, the
図2は、実施例1のデータ処理装置10の構成図である。データ処理装置10は、処理部20を備え、車外カメラ11及び車内カメラ12から情報を取得し、照射部13を用いてユーザの手に光を照射する。車外カメラ11は、車両の周囲を撮像する撮像装置である。車内カメラ12は、車室内を撮像する撮像装置であり、車室内の乗員の状態を取得するセンサとして機能する。照射部13は、乗員の手や指に光を照射するプロジェクタである。
FIG. 2 is a configuration diagram of the
車内カメラ12は、乗員の目と手を撮像可能な位置に設置する。例えば、ルームミラー近傍やルームライト近傍などに設置すればよい。照射部13は、乗員の手に対し、乗員から視認可能に光を照射可能な位置に設置する。例えば、ルームライト近傍やヘッドレスト近傍などに設置すればよい。
The in-
処理部20は、周囲状況取得部21、乗員認識部22、照射制御部23、対象認識部24及び駐車支援実行部25を有する。処理部20をコンピュータで実現する場合には、CPU(Central Processing Unit)がプログラムを実行することで、周囲状況取得部21、乗員認識部22、照射制御部23、対象認識部24及び駐車支援実行部25に対応する機能を実現すればよい。
The
周囲状況取得部21は、自車両の周囲の状況を取得する。具体的には、周囲状況取得部21は、自車両の周囲を撮像する車外カメラ11が撮像した画像を取得し、対象認識部24に出力する。
The surrounding
乗員認識部22は、車内カメラ12が撮像した画像を取得し、自車両に搭乗しているユーザが自車両の外部を指し示す手指を認識する手指認識部として動作する。また、乗員認識部22は、ユーザの目を認識する。乗員認識部22は、ユーザの目の位置と手指の位置を対象認識部24に出力する。
The
照射制御部23は、乗員認識部22が認識した手指に対して光を照射するよう照射部13を制御する。具体的には、照射制御部23は、対象認識部24からの出力に応じて照射を制御する。対象認識部24からの出力は、認識結果と手指の位置を含む。照射制御部23は、この手指の位置に合わせて照射部13の照射方向を制御し、認識結果に合わせて照射する光の態様を制御する。認識結果には、「対象無し」、「駐車領域を対象として認識」、「確定操作受付済み」があり、照射制御部23は、これらの認識結果を識別可能となるよう光の表示態様を異ならせる。
The
対象認識部24は、周囲状況取得部21による取得結果と、乗員認識部22による認識結果とに基づいて、手指が指し示した対象を認識する。
The
具体的には、対象認識部24は、周囲状況取得部21が取得した画像から自車両が駐車可能な駐車領域を検知する。駐車領域の検知には、任意の画像処理技術を用いればよい。また、対象認識部24は、ユーザの目の位置と指先とを結ぶ直線を指さし方向と判定する。
対象認識部24は、指さし方向に駐車領域が所在しない場合、認識結果を「対象無し」とする。指さし方向に駐車領域が所在する場合、すなわち、手指が指し示す位置が駐車領域に含まれる場合に、当該駐車領域を対象として認識する。このときの認識結果は「駐車領域を対象として認識」である。さらに、指さし方向が駐車領域から外れずに所定時間が経過したとき、対象認識部24は、当該対象について所定の確定操作を受け付けたと認識する。このときの認識結果は、「確定操作受付済み」である。
Specifically, the
If there is no parking area in the pointing direction, the
対象認識部24は、認識結果と手指の位置を随時照射制御部23に出力する。また、認識結果が「確定操作受付済み」となった場合に、駐車支援実行部25に対して駐車領域の位置を示すデータを出力する。
The
駐車支援実行部25は、対象認識部24が駐車領域を対象として認識し、所定の確定操作を受け付けた場合に、駐車領域への駐車を支援する。具体的には、駐車支援実行部25は、対象認識部24が出力した駐車領域の位置を示すデータに基づいて、駆動制御ユニット30に対して動作指示を出力する。この動作指示は、自車両の加減速と操舵を制御する指示であり、この動作指示を受けて駆動制御ユニット30が動作することで、自車両は駐車領域まで自動走行し、停車する。
The parking
図3は、データ処理装置10の処理を示すフローチャートである。この処理は、例えば、ユーザから自動駐車を要求する操作を受け付けたときに開始し、駐車領域を確定して自動走行に移行したときに終了する。
FIG. 3 is a flowchart showing the processing of the
処理を開始すると、周囲状況取得部21は、自車両の周囲の状況を取得する周囲状況取得ステップを実行する(ステップS101)。その後、乗員認識部22が、自車両に搭乗しているユーザが自車両の外部を指し示す手指を認識する手指認識ステップを実行する(ステップS102)。その後、対象認識部24が、周囲状況取得ステップによる取得結果と、手指認識ステップによる認識結果とに基づいて、手指が指し示した対象を認識する対象認識ステップを実行する(ステップS103)。その後、照射制御部23は、手指が指し示した対象に応じた態様の光を手指に対して照射する照射ステップを実行する(ステップS104)。その後、ステップS101からの処理を繰り返す。
When the process starts, the surrounding
図4は、実施例1の対象認識ステップの詳細な処理を示すフローチャートである。まず、対象認識部24は、周囲状況取得部21が取得した画像から自車両が駐車可能な駐車領域を検知する(ステップS201)。また、対象認識部24は、ユーザの目の位置と指先とを結ぶ直線を指さし方向と判定する(ステップS202)。
FIG. 4 is a flowchart showing detailed processing of the object recognition step of the first embodiment. First, the
対象認識部24は、指さし方向に駐車領域が所在しない場合(ステップS203;No)、認識結果を「対象無し」として(ステップS204)、認識結果を出力し(ステップS208)、対象認識ステップを終了する。
If there is no parking area in the pointing direction (step S203; No), the
指さし方向に駐車領域が所在する場合(ステップS203;Yes)、対象認識部24は、該駐車領域を対象として認識する(ステップS205)。ステップS205の後、対象認識部24は、駐車領域を対象とした状態が所定時間継続しているか否かを判定する。所定時間継続していなければ(ステップS206;No)、認識結果を出力し(ステップS208)、対象認識ステップを終了する。このときの認識結果は「駐車領域を対象として認識」となる。
If a parking area is located in the pointing direction (step S203; Yes), the
駐車領域を対象とした状態が所定時間継続していれば(ステップS206;Yes)、対象認識部24は、当該対象について所定の確定操作を受け付けたと認識し(ステップS207)、認識結果を出力し(ステップS208)、対象認識ステップを終了する。このときの認識結果は、「確定操作受付済み」である。
If the state targeting the parking area continues for a predetermined period of time (step S206; Yes), the
図5は、実施例2のデータ処理の概要を説明する説明図である。図5は、車両に搭乗したユーザが、車外を指さした状態を示す。実施例1との違いは、ユーザが目的地としての施設を指し示す点、データ処理装置10aが、地図データを用いてユーザが指し示す施設を特定する点、特定した施設をナビゲーションの目的地として設定する点である。
FIG. 5 is an explanatory diagram illustrating an overview of data processing according to the second embodiment. FIG. 5 shows a state in which a user riding in a vehicle points outside the vehicle. The difference from the first embodiment is that the user points to a facility as a destination, the
データ処理装置10aは、地図データに含まれる施設のうち、手指が指し示す方向に所在する施設を対象として認識する。さらに、指さし方向が施設から外れずに所定時間が経過したとき、データ処理装置10aは、当該対象について所定の確定操作を受け付けたと認識し、当該施設を目的地として設定する。
The
データ処理装置10aは、ユーザの手や指に対して光を照射する照射部を備え、ユーザが指し示した対象に応じて照射する光の態様を制御可能である。例えば、図5の状態B1では、ユーザの手H1はいずれの施設も指し示していない。このとき、照射部は、ユーザの手H1に白色の光を照射する。
その後、状態B2に示すように、ユーザの手H1が施設T1を指し示したならば、照射部は、ユーザの手H1に赤色の光を照射する。そして、ユーザの手H1が施設T1を指し示した状態で所定時間が経過すると、照射部は、ユーザの手H1に黄色の光を照射する。
The
After that, as shown in state B2, when the user's hand H1 points to the facility T1, the irradiation unit irradiates the user's hand H1 with red light. Then, when a predetermined period of time has elapsed with the user's hand H1 pointing at the facility T1, the irradiation unit irradiates the user's hand H1 with yellow light.
このように、データ処理装置10aは、実施例1と同様に、ユーザが指し示した対象についての認識結果を、ユーザの手に照射する光の態様を変えることでフィードバック可能である。
In this way, similarly to the first embodiment, the
図6は、実施例2のデータ処理装置10aの構成図である。データ処理装置10aは、車外カメラ11を用いず、処理部20aの周囲状況取得部21aがナビゲーションユニット40から地図データと自車両位置データを取得する点が実施例1と異なる。また、駐車支援実行部25に代えて目的地設定部26を備える点が異なる。さらに、対象認識部24aの動作が異なる。その他の構成及び動作については、実施例1と同様であるので、同一の構成要素には同一の符号を付して説明を省略する。
FIG. 6 is a configuration diagram of the
周囲状況取得部21aは、自車両の周囲の地図データと、自車両の位置データをナビゲーションユニット40から取得し、対象認識部24aに出力する。
対象認識部24aは、地図データと自車両の位置データとを用い、自車両の周囲の施設の3Dモデルデータを生成する。なお、施設とは、建築物、店舗、公園など、車両の走行の目的地として設定可能なものをいう。
The surrounding
The
対象認識部24aは、3Dモデルデータに含まれる施設のうち、手指が指し示す方向に所在する施設を対象として認識する。
具体的には、対象認識部24は、指さし方向に施設が所在しない場合、認識結果を「対象無し」とする。指さし方向に施設が所在する場合、当該施設を対象として認識する。このときの認識結果は「施設を対象として認識」である。さらに、指さし方向が施設から外れずに所定時間が経過したとき、対象認識部24は、当該対象について所定の確定操作を受け付けたと認識する。このときの認識結果は、「確定操作受付済み」である。
The
Specifically, when there is no facility in the pointing direction, the
対象認識部24aは、認識結果と手指の位置を随時照射制御部23に出力する。また、認識結果が「確定操作受付済み」となった場合に、目的地設定部26に対して対象の施設を示すデータを出力する。
The
目的地設定部26は、対象認識部24が施設を対象として認識し、所定の確定操作を受け付けた場合に、当該施設を目的地としてナビゲーションユニット40に出力する。ナビゲーションユニット40は、出力された目的地に至る経路を探索し、探索した経路を案内する。
When the
データ処理装置10aの基本的な処理は、実施例1と同様である。実施例2の処理は、例えば、ユーザから目的地設定を要求する操作を受け付けたときに開始し、目的地を確定して経路探索に移行したときに終了する。
The basic processing of the
図7は、実施例2の対象認識ステップの詳細な処理を示すフローチャートである。まず、対象認識部24aは、周囲状況取得部21が取得した地図データと自車両の位置データとを用い、自車両の周囲の施設の3Dモデルデータを生成する(ステップS301)。また、対象認識部24aは、ユーザの目の位置と指先とを結ぶ直線を指さし方向と判定する(ステップS302)。
FIG. 7 is a flowchart showing detailed processing of the object recognition step of the second embodiment. First, the
対象認識部24aは、指さし方向に施設が所在しない場合(ステップS303;No)、認識結果を「対象無し」として(ステップS304)、認識結果を出力し(ステップS308)、対象認識ステップを終了する。
If there is no facility in the pointing direction (step S303; No), the
指さし方向に施設が所在する場合(ステップS303;Yes)、対象認識部24aは、該施設を対象として認識する(ステップS305)。ステップS205の後、対象認識部24aは、施設を対象とした状態が所定時間継続しているか否かを判定する。所定時間継続していなければ(ステップS306;No)、認識結果を出力し(ステップS308)、対象認識ステップを終了する。このときの認識結果は「施設を対象として認識」となる。
If a facility is located in the pointing direction (step S303; Yes), the
施設を対象とした状態が所定時間継続していれば(ステップS306;Yes)、対象認識部24aは、当該対象について所定の確定操作を受け付けたと認識し(ステップS307)、認識結果を出力し(ステップS308)、対象認識ステップを終了する。このときの認識結果は、「確定操作受付済み」である。
If the state targeting the facility continues for a predetermined period of time (step S306; Yes), the
上述してきたように、開示のデータ処理装置は、自車両の周囲の状況を取得する周囲状況取得部21と、前記自車両に搭乗している搭乗者が前記自車両の外部を指し示す手指を認識する手指認識部として機能する乗員認識部22と、前記周囲状況取得部による取得結果と、前記手指認識部による認識結果とに基づいて、前記手指が指し示した対象を認識する対象認識部24と、前記対象認識部24によって認識した前記手指が指し示した対象に応じて、前記手指に照射する光の態様を制御する照射制御部23と、を備える。
このため、データ処理装置は、車両の乗員であるユーザが車外を指し示した場合であっても、その対象を認識し、認識結果を手指に照射する光の態様でフィードバック可能であり、車両乗員に好適なフィードバックが実現できる。
As described above, the disclosed data processing device includes the surrounding
Therefore, even if a user, who is a vehicle occupant, points outside the vehicle, the data processing device can recognize the target and feed back the recognition result in the form of light that illuminates the vehicle occupant's finger. Appropriate feedback can be achieved.
また、開示のデータ処理装置によれば、前記周囲状況取得部21は、前記自車両の周囲を撮像するカメラである車外カメラ11から画像を取得し、前記対象認識部24は、前記画像から前記自車両が駐車可能な駐車領域を検知し、前記手指が指し示す位置が前記駐車領域に含まれる場合に、当該駐車領域を前記対象として認識し、前記照射制御部23は、前記対象認識部24が前記駐車領域を前記対象として認識したか否かによって前記光の表示態様を異ならせる。
そして、データ処理装置は、前記対象認識部24が前記駐車領域を前記対象として認識し、所定の確定操作を受け付けた場合に、前記駐車領域への駐車を支援する駐車支援実行部をさらに備える。
このため、データ処理装置は、ユーザが指し示した駐車領域を認識し、認識結果を通知し、駐車領域への駐車を支援できる。
Further, according to the disclosed data processing device, the surrounding
The data processing device further includes a parking assistance execution unit that supports parking in the parking area when the
Therefore, the data processing device can recognize the parking area pointed by the user, notify the recognition result, and support parking in the parking area.
また、開示のデータ処理装置によれば、前記周囲状況取得部21は、前記自車両の周囲の地図データを取得し、前記対象認識部24は、前記地図データに含まれる施設のうち、前記手指が指し示す方向に所在する施設を前記対象として認識し、前記照射制御部23は、前記対象認識部24が前記施設を前記対象として認識したか否かによって前記光の表示態様を異ならせることを特徴とする。
そして、前記対象認識部24が前記施設を前記対象として認識し、所定の確定操作を受け付けた場合に、前記施設を目的地として設定する目的地設定部26をさらに備える。
このため、データ処理装置は、ユーザが指し示した施設を認識し、認識結果を通知し、その施設を目的地に設定できる。
Further, according to the disclosed data processing device, the surrounding
The apparatus further includes a
Therefore, the data processing device can recognize the facility pointed to by the user, notify the user of the recognition result, and set the facility as the destination.
また、開示のデータ処理装置によれば、前記対象認識部24は、前記手指が指し示した対象が同一のまま所定時間が経過したとき、当該対象について所定の確定操作を受け付けたと認識し、前記照射制御部は、前記確定操作を受け付けたときに、前記手指に照射する光の態様を変える。
このように、データ処理装置は、指さし等により対象の確定操作を受付可能であり、確定操作の受付をユーザにフィードバックできる。
Further, according to the disclosed data processing device, when the target pointed by the finger remains the same for a predetermined period of time, the
In this way, the data processing device can accept a target confirmation operation by pointing or the like, and can feed back the acceptance of the confirmation operation to the user.
なお、本発明は上記の実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、かかる構成の削除に限らず、構成の置き換えや追加も可能である。 Note that the present invention is not limited to the above-described embodiments, and includes various modifications. For example, the embodiments described above are described in detail to explain the present invention in an easy-to-understand manner, and the present invention is not necessarily limited to having all the configurations described. Furthermore, it is possible not only to delete such a configuration but also to replace or add a configuration.
例えば、運転者以外に他の乗員がいる場合に、他の乗員を対象に本発明を適用してもよい。また、複数の乗員のうち、特定の乗員を指定して本発明の適用対象としてもよい。 For example, when there are other occupants in addition to the driver, the present invention may be applied to the other occupants. Alternatively, a specific occupant may be designated as a target of the present invention among a plurality of occupants.
また、車内カメラ以外の任意のセンサ、例えば、LIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)や、据え置きされたスマートフォンなどから乗員の状態を取得してもよい。さらに、複数のセンサ、複数種類のセンサの出力を組み合わせて用いることもできる。 Further, the status of the occupant may be acquired from any sensor other than the in-vehicle camera, such as LIDAR (Light Detection and Ranging, Laser Imaging Detection and Ranging) or a stationary smartphone. Furthermore, outputs from multiple sensors and multiple types of sensors can be used in combination.
また、上記実施例では、目と指先の延長線上をユーザが指し示す方向として判定したが、指の2点を認識し、この2点の延長線上をユーザが指し示す方向として判定してもよい。 Furthermore, in the embodiment described above, the extension line between the eye and the fingertip is determined as the direction in which the user is pointing, but two points on the finger may be recognized and the extension line between these two points may be determined as the direction in which the user is pointing.
10:データ処理装置、11:車外カメラ、12:車内カメラ、13:照射部、20:処理部、21:周囲状況取得部、22:乗員認識部、24:対象認識部、25:駐車支援実行部、26:目的地設定部、30:駆動制御ユニット、40:ナビゲーションユニット
10: Data processing device, 11: External camera, 12: In-vehicle camera, 13: Irradiation unit, 20: Processing unit, 21: Surrounding situation acquisition unit, 22: Occupant recognition unit, 24: Object recognition unit, 25: Parking assistance execution part, 26: destination setting part, 30: drive control unit, 40: navigation unit
Claims (7)
前記自車両に搭乗している搭乗者が前記自車両の外部を指し示す手指を認識する手指認識部と、
前記周囲状況取得部による取得結果と、前記手指認識部による認識結果とに基づいて、前記手指が指し示した対象を認識する対象認識部と、
前記対象認識部によって認識した前記手指が指し示した対象に応じて、前記手指に照射する光の態様を制御する照射制御部と、
を備えることを特徴とするデータ処理装置。 a surrounding situation acquisition unit that obtains the surrounding situation of the host vehicle;
a hand recognition unit that recognizes a hand finger of a passenger on board the host vehicle pointing toward the outside of the host vehicle;
an object recognition unit that recognizes a target pointed by the finger based on the acquisition result by the surrounding situation acquisition unit and the recognition result by the finger recognition unit;
an irradiation control unit that controls a mode of light irradiated to the finger according to an object pointed to by the finger recognized by the object recognition unit;
A data processing device comprising:
前記周囲状況取得部は、前記自車両の周囲を撮像するカメラから画像を取得し、
前記対象認識部は、前記画像から前記自車両が駐車可能な駐車領域を検知し、前記手指が指し示す位置が前記駐車領域に含まれる場合に、当該駐車領域を前記対象として認識し、
前記照射制御部は、前記対象認識部が前記駐車領域を前記対象として認識したか否かによって前記光の表示態様を異ならせることを特徴とするデータ処理装置。 The data processing device according to claim 1,
The surrounding situation acquisition unit obtains an image from a camera that images the surroundings of the own vehicle,
The object recognition unit detects a parking area where the own vehicle can be parked from the image, and if the position pointed by the hand is included in the parking area, recognizes the parking area as the object;
The data processing device is characterized in that the irradiation control unit changes the display mode of the light depending on whether or not the object recognition unit recognizes the parking area as the object.
前記対象認識部が前記駐車領域を前記対象として認識し、所定の確定操作を受け付けた場合に、前記駐車領域への駐車を支援する駐車支援実行部をさらに備えたことを特徴とするデータ処理装置。 The data processing device according to claim 2,
The data processing device further includes a parking assistance execution unit that supports parking in the parking area when the object recognition unit recognizes the parking area as the object and receives a predetermined confirmation operation. .
前記周囲状況取得部は、前記自車両の周囲の地図データを取得し、
前記対象認識部は、前記地図データに含まれる施設のうち、前記手指が指し示す方向に所在する施設を前記対象として認識し、
前記照射制御部は、前記対象認識部が前記施設を前記対象として認識したか否かによって前記光の表示態様を異ならせることを特徴とするデータ処理装置。 The data processing device according to claim 1,
The surrounding situation acquisition unit acquires map data around the own vehicle,
The target recognition unit recognizes, as the target, a facility located in the direction indicated by the finger among the facilities included in the map data,
The data processing device is characterized in that the irradiation control unit changes the display mode of the light depending on whether or not the object recognition unit recognizes the facility as the object.
前記対象認識部が前記施設を前記対象として認識し、所定の確定操作を受け付けた場合に、前記施設を目的地として設定する目的地設定部をさらに備えたことを特徴とするデータ処理装置。 The data processing device according to claim 4,
The data processing device further comprises a destination setting unit that sets the facility as a destination when the target recognition unit recognizes the facility as the target and receives a predetermined confirmation operation.
前記対象認識部は、前記手指が指し示した対象が同一のまま所定時間が経過したとき、当該対象について所定の確定操作を受け付けたと認識し、
前記照射制御部は、前記確定操作を受け付けたときに、前記手指に照射する光の態様を変えることを特徴とするデータ処理装置。 The data processing device according to claim 1,
The target recognition unit recognizes that a predetermined confirmation operation has been received for the target when the target pointed by the hand remains the same for a predetermined time,
The data processing device is characterized in that the irradiation control unit changes the mode of light irradiated to the hand and fingers when the confirmation operation is received.
自車両の周囲の状況を取得する周囲状況取得ステップと、
前記自車両に搭乗している搭乗者が前記自車両の外部を指し示す手指を認識する手指認識ステップと、
前記周囲状況取得ステップによる取得結果と、前記手指認識ステップによる認識結果とに基づいて、前記手指が指し示した対象を認識する対象認識ステップと、
前記手指が指し示した対象に応じた態様の光を前記手指に対して照射する照射ステップと、
を含むことを特徴とするデータ処理方法。
The data processing device
a surrounding situation acquisition step of obtaining the surrounding situation of the own vehicle;
a hand finger recognition step of recognizing a hand finger of a passenger on board the host vehicle pointing at an outside of the host vehicle;
an object recognition step of recognizing an object pointed by the hand based on the acquisition result of the surrounding situation acquisition step and the recognition result of the hand recognition step;
an irradiation step of irradiating the finger with light in a mode depending on the object pointed at by the finger;
A data processing method characterized by comprising:
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022122276A JP2024018746A (en) | 2022-07-29 | 2022-07-29 | Data processing device and data processing method |
DE102023117804.0A DE102023117804A1 (en) | 2022-07-29 | 2023-07-06 | DATA PROCESSING DEVICE AND DATA PROCESSING METHOD |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022122276A JP2024018746A (en) | 2022-07-29 | 2022-07-29 | Data processing device and data processing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024018746A true JP2024018746A (en) | 2024-02-08 |
Family
ID=89508390
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022122276A Pending JP2024018746A (en) | 2022-07-29 | 2022-07-29 | Data processing device and data processing method |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2024018746A (en) |
DE (1) | DE102023117804A1 (en) |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000259337A (en) | 1999-03-10 | 2000-09-22 | Atr Media Integration & Communications Res Lab | Pointing device |
JP6343718B2 (en) | 2015-04-16 | 2018-06-13 | 楽天株式会社 | Gesture interface |
-
2022
- 2022-07-29 JP JP2022122276A patent/JP2024018746A/en active Pending
-
2023
- 2023-07-06 DE DE102023117804.0A patent/DE102023117804A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
DE102023117804A1 (en) | 2024-02-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109484299B (en) | Method, apparatus, and storage medium for controlling display of augmented reality display apparatus | |
US10466800B2 (en) | Vehicle information processing device | |
JP5143235B2 (en) | Control device and vehicle surrounding monitoring device | |
JP6316559B2 (en) | Information processing apparatus, gesture detection method, and gesture detection program | |
JP6413207B2 (en) | Vehicle display device | |
JP2009051338A (en) | Driving support device for vehicle | |
JP5286035B2 (en) | Vehicle speed control device | |
JP2005138755A (en) | Device and program for displaying virtual images | |
WO2017082067A1 (en) | Image display system for vehicle | |
JP2014149640A (en) | Gesture operation device and gesture operation program | |
US10296101B2 (en) | Information processing system, information processing apparatus, control method, and program | |
JP2003300444A (en) | Drive support device for moving body | |
JP2012176656A (en) | Parking support device | |
WO2018061603A1 (en) | Gestural manipulation system, gestural manipulation method, and program | |
JP2008047006A (en) | On-vehicle laser beam radiation system | |
JP6057755B2 (en) | Gesture operation device and gesture operation program | |
JP2018091908A (en) | Head-up display device | |
WO2018116565A1 (en) | Information display device for vehicle and information display program for vehicle | |
JP5136948B2 (en) | Vehicle control device | |
JP2008213647A (en) | Parking assist method and parking assist system | |
JP6516241B2 (en) | Gesture input device | |
JP2024018746A (en) | Data processing device and data processing method | |
KR20170056100A (en) | Objects displaying apparatus of head up display and method thereof | |
CN115700196A (en) | Display control device for vehicle, display control method for vehicle, and display device for vehicle | |
JP7293854B2 (en) | Display control device and display control program |