JP2023023756A - ジェスチャ検知装置及び仮想現実処理装置 - Google Patents

ジェスチャ検知装置及び仮想現実処理装置 Download PDF

Info

Publication number
JP2023023756A
JP2023023756A JP2021129562A JP2021129562A JP2023023756A JP 2023023756 A JP2023023756 A JP 2023023756A JP 2021129562 A JP2021129562 A JP 2021129562A JP 2021129562 A JP2021129562 A JP 2021129562A JP 2023023756 A JP2023023756 A JP 2023023756A
Authority
JP
Japan
Prior art keywords
person
speed
gesture
virtual
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021129562A
Other languages
English (en)
Inventor
隆史 大谷
Takashi Otani
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin Corp
Original Assignee
Aisin Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Corp filed Critical Aisin Corp
Priority to JP2021129562A priority Critical patent/JP2023023756A/ja
Publication of JP2023023756A publication Critical patent/JP2023023756A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Optical Radar Systems And Details Thereof (AREA)

Abstract

【課題】人物のジェスチャを高精度に検出する。【解決手段】ジェスチャ検知装置は、所定の検出領域に周波数変調された電磁波を送信波として送信し、送信波が検出領域に存在する物体に反射されることにより発生する反射波を受信するセンサと、反射波の強度分布に基づいて検出領域における物体の位置を示す三次元マップ情報を生成するマップ情報生成部と、反射波のドップラシフトに基づいて物体の速度を示す速度情報を生成する速度情報生成部と、三次元マップ情報と速度情報とに基づいて検出領域に存在する人物を検知する人物検知部と、人物検知部により検知された人物の特定部位の位置を示す位置情報を生成する位置情報生成部と、特定部位の位置と特定部位の速度とに基づいて人物のジェスチャを判定するジェスチャ判定部と、を備える。【選択図】図2

Description

本発明は、ジェスチャ検知装置及び仮想現実処理装置に関する。
所定の領域に送信波を送信し、送信波が当該領域に存在する物体に反射されることにより発生する反射波を受信することにより、物体の位置や動きを検知する技術がある。例えば、所定の周波数範囲のマイクロ波を放出することによりレーダフィールドを形成し、レーダフィールド内に存在する人物のジェスチャを検知する技術が開示されている(特許文献1)。
特表2017-524170号公報
本発明が解決しようとする課題の一つは、人物のジェスチャを高精度に検出可能なジェスチャ検知装置及び仮想現実処理装置を提供することである。
本発明の一実施形態としてのジェスチャ検知装置は、所定の検出領域に周波数変調された電磁波を送信波として送信し、送信波が検出領域に存在する物体に反射されることにより発生する反射波を受信するセンサと、反射波の強度分布に基づいて検出領域における物体の位置を示す三次元マップ情報を生成するマップ情報生成部と、反射波のドップラシフトに基づいて物体の速度を示す速度情報を生成する速度情報生成部と、三次元マップ情報と速度情報とに基づいて検出領域に存在する人物を検知する人物検知部と、人物検知部により検知された人物の特定部位の位置を示す位置情報を生成する位置情報生成部と、特定部位の位置と特定部位の速度とに基づいて人物のジェスチャを判定するジェスチャ判定部と、を備える。
上記構成によれば、人物のジェスチャが人物の特定部位の位置及び速度に基づいて検知される。これにより、人物のジェスチャを高精度に検知できる。
また、上記ジェスチャ検知装置において、特定部位は、人物の手又は腕を含んでもよい。
これにより、人物の手や腕の細かい動きに応じたジェスチャを高精度に検知できる。
また、本発明の他の実施形態としての仮想現実処理装置は、所定の検出領域に周波数変調された電磁波を送信波として送信し、送信波が検出領域に存在する物体に反射されることにより発生する反射波を受信するセンサと、反射波の強度分布に基づいて検出領域における物体の位置を示す三次元マップ情報を生成するマップ情報生成部と、反射波のドップラシフトに基づいて物体の速度を示す速度情報を生成する速度情報生成部と、三次元マップ情報と速度情報とに基づいて検出領域に存在する人物を検知する人物検知部と、人物検知部により検知された人物の特定部位の位置を示す位置情報を生成する位置情報生成部と、特定部位の位置と特定部位の速度とに基づいて人物のジェスチャを判定するジェスチャ判定部と、仮想物体を人物に視認可能にする可視化部と、を備え、ジェスチャ判定部は、人物が仮想物体に対して行う仮想操作を判定し、可視化部は、仮想操作に応じて仮想物体を変化させるものである。
上記構成によれば、人物が仮想物体に対して行う仮想操作が人物の特定部位の位置及び速度に基づいて検知される。これにより、人物の仮想操作を高精度に検知でき、仮想操作に応じた高品質な仮想現実を提供できる。
また、上記仮想現実処理装置において、特定部位は、人物の手又は腕を含んでもよい。
これにより、人物の手や腕の細かい動きに応じた仮想操作を高精度に検知できる。
また、上記仮想現実処理装置において、仮想操作は、人物が仮想物体の一部を指し示すポインティング操作を含んでもよい。
これにより、ポインティング操作に応じた仮想現実の処理を高精度に行うことができる。
また、上記仮想現実処理装置において、仮想操作は、人物が仮想物体を移動させる移動操作を含んでもよい。
これにより、移動操作に応じた仮想現実の処理を高精度に行うことができる。
また、上記仮想現実処理装置において、仮想操作は、人物が仮想物体の大きさを変化させる拡縮操作を含んでもよい。
これにより、拡縮操作に応じた仮想現実の処理を高精度に行うことができる。
また、上記仮想現実処理装置において、仮想操作は、人物が冊子状の仮想物体のページを捲るページ捲り操作を含んでもよい。
これにより、ページ捲り操作に応じた仮想現実の処理を高精度に行うことができる。
また、上記仮想現実処理装置において、速度情報生成部は、人物が保持又は装着しているアイテムの速度を示す情報を含む速度情報を生成し、位置情報生成部は、アイテムの位置を示す情報を含む位置情報を生成し、ジェスチャ判定部は、アイテムの位置とアイテムの速度とに基づいてアイテムの動きを判定し、可視化部は、アイテムの動きに応じて仮想物体を変化させてもよい。
これにより、人物が保持又は装着しているアイテムの動きがアイテムの位置及び速度に基づいて検知される。これにより、人物がアイテムに与えた動きを高精度に検知でき、アイテムの動きに応じた高品質な仮想現実を提供できる。
図1は、第1実施形態に係るジェスチャ検知装置の構成の一例を示す図である。 図2は、第1実施形態に係るジェスチャ検知装置の機能構成の一例を示すブロック図である。 図3は、実施形態におけるFMCW方式による信号処理の概要を示す図である。 図4は、第1実施形態に係るジェスチャ検知装置における処理の一例を示すフローチャートである。 図5は、第2実施形態に係る仮想現実処理装置の構成の一例を示す図である。 図6は、第2実施形態に係る仮想現実処理装置を構成するジェスチャ検知装置及びHMDの機能構成の一例を示すブロック図である。 図7は、第2実施形態に係る仮想現実処理装置における処理の一例を示すフローチャートである。 図8は、第3実施形態に係る仮想現実処理装置の構成の一例を示す図である。 図9は、第3実施形態に係る仮想現実処理装置を構成するジェスチャ検知装置及びHMDの機能構成の一例を示すブロック図である。 図10は、第3実施形態に係る仮想現実処理装置における処理の一例を示すフローチャートである。 図11は、第1変形例に係るジェスチャ検知装置の構成の一例を示す図である。 図12は、第2変形例に係るジェスチャ検知装置の構成の一例を示す図である。 図13は、第3変形例に係るジェスチャ検知装置の構成の一例を示す図である。
以下、本発明の例示的な実施形態が開示される。以下に示される実施形態の構成、並びに当該構成によってもたらされる作用、結果、及び効果は、一例である。本発明は、以下の実施形態に開示される構成以外によっても実現可能であるとともに、基本的な構成に基づく種々の効果や派生的な効果のうち、少なくとも一つを得ることが可能である。
(第1実施形態)
図1は、第1実施形態に係るジェスチャ検知装置1の構成の一例を示す図である。本実施形態では、車両Cの室内(検出領域の一例)に存在する人物Mのジェスチャを検知するジェスチャ検知装置1を例示する。
車両Cは、ジェスチャ検知装置1及び車両制御装置10を備えている。ジェスチャ検知装置1は、座席Sに着座している人物Mのジェスチャを検知する装置であり、LiDARセンサ2(センサの一例)及び制御装置3を含む。本実施形態においては、LiDARセンサ2は室内の天井部分に設置され、制御装置3は室内の前端部に設けられているダッシュボード内に設置されている。
車両制御装置10は、車両Cに対する各種制御を実行する装置であり、例えばECU(Electronic Control Unit)、CAN(Controller Area Network)等を利用して構成される。本実施形態に係る車両制御装置10は、ジェスチャ検知装置1による検知結果に基づいて、車両Cに対する各種制御、例えばナビゲーションシステム、オーディオシステム、空調装置、サンルーフ等の車載装備品の制御、走行状態の制御等を実行する。
図2は、第1実施形態に係るジェスチャ検知装置1の機能構成の一例を示すブロック図である。LiDARセンサ2は、送信部21及び受信部22を備える。送信部21は、車両Cの室内に、周波数変調したレーザ光(電磁波の一例)を送信波として広範囲に送信(照射)する。受信部22は、送信波が室内の物体に反射されることにより発生する反射波を受信する。
制御装置3は、例えば、ハードウェアプロセッサ、メモリ等が搭載された集積回路を有するMCU(Micro Controller Unit)等により構成される。制御装置3は、ADC(Analog-to-Digital Converter)31、処理部32、及び記憶部33を備える。
ADC31は、LiDARセンサ2の受信部22から取得したアナログ信号をデジタル信号に変換して処理部32に出力する。
記憶部33は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、SSD(Solid State Drive)、HDD(Hard Disk Drive)等の記憶装置である。記憶部33は、処理部32が実行するプログラム、プログラムの実行に必要なデータ、プログラムの実行によって生成されたデータ等を記憶する。本実施形態に係る記憶部33は、設定情報331、三次元マップ情報332、速度情報333、位置情報334、ジェスチャ情報335等を記憶する。
設定情報331は、ジェスチャ検知装置1の機能を実現するための各種閾値を含む。閾値は、例えば、人物Mとその他の物体(座席S等)とを識別するための閾値等であり得る。
三次元マップ情報332は、マップ情報生成部321によって反射波の強度分布に基づいて生成される、室内の三次元の物体配置状態を示す情報である。強度分布とは、検出領域となる三次元空間(本実施形態では車両Cの室内)における反射源の位置と反射波の強度との対応関係を示す情報である。
速度情報333は、速度情報生成部322によって反射波のドップラシフトに基づいて生成される、室内に存在する物体の速度を示す情報である。速度情報333には、物体の動きの方向を示す情報が含まれる。
位置情報334は、位置情報生成部324によって生成される、人物Mの位置に関する情報である。位置情報334には、人物Mの特定部位の位置を示す情報が含まれる。特定部位とは、ジェスチャに関連する人体の部分であり、例えば、手、腕、頭部等であり得る。
ジェスチャ情報335は、ジェスチャ判定部325によって生成される、人物Mのジェスチャに関する情報である。ジェスチャ情報335には、ジェスチャの種類や内容を特定する情報等が含まれる。
ここで、FMCW方式による信号処理の概要について説明する。図3は、実施形態におけるFMCW方式による信号処理の概要を示す図である。(A)に示すように、まず、LiDARセンサ2の送信部21から、車両Cの室内にFMCW変調したレーザ光が送信される。そして、LiDARセンサ2の受信部22が反射波を受信する。
次に、(B)に示すように、室内における反射波の強度分布に基づいて室内の三次元マップ情報332が作成される。この三次元マップ情報332には、室内に存在する物体(人物M、座席S等)の位置や大きさを示すラベリング領域Dが含まれる。
次に、(C)に示すように、上記のような三次元マップ情報332と、反射波のドップラシフトに基づく速度情報333とに基づいて、人物Mが検知される。例えば、室内に存在する複数の物体のうち、所定の速度(動き)を有する物体を人物Mと判定できる。また、検知された人物Mに対応するラベリング領域Dから人物Mの特定部位(図3では手又は腕を含む部分)に対応する特定領域Rsを推定できる。また、反射波のドップラシフトに基づいて人物Mの生体情報(心拍数等)を算出することもできる。
以下に、図2を参照して処理部32の処理の詳細について説明する。
処理部32は、例えば、CPU(Central Processing Unit)等のハードウェアプロセッサによって構成される。処理部32は、記憶部33に格納されたプログラムを読み込んで演算処理を実行する。処理部32は、機能部として、マップ情報生成部321、速度情報生成部322、人物検知部323、位置情報生成部324、ジェスチャ判定部325、及び出力部326を備える。なお、各部321~326の一部又は全部は、ASIC(Application Specific Integrated Circuit)やFPGA(Field-Programmable Gate Array)を含む回路等のハードウェアによって構成してもよい。
マップ情報生成部321は、ADC31から取得した反射波情報に基づいて室内の三次元マップ情報332を生成し、記憶部33に保存する。
速度情報生成部322は、ADC31から取得した反射波情報に基づいて室内の存在する物体の速度を示す速度情報333を生成し、記憶部33に保存する。
人物検知部323は、設定情報331、三次元マップ情報332、速度情報333等に基づいて車両Cの室内に存在する人物Mを検知する。また、人物検知部323は、人物Mのタイプ(大人、子供、体格等)を推定してもよい。
位置情報生成部324は、人物Mの位置に関する位置情報334を生成する。位置情報334には、人物Mの特定部位(特定領域Rs)の位置を示す情報が含まれる。特定部位は、例えば、手、腕、頭部等であり得る。位置情報334は、記憶部33に保存される。
ジェスチャ判定部325は、速度情報333及び位置情報334から人物Mの特定部位の位置及び速度を取得し、当該特定部位の位置及び速度に基づいて当該人物Mのジェスチャを判定する。すなわち、本実施形態においては、人物Mの特定部位の位置の変化だけでなく、当該特定部位の速度にも基づいて、人物Mのジェスチャが判定される。これにより、特定部位の細かい動きを認識でき、ジェスチャを高精度に検知できる。ジェスチャ判定部325は、このように判定したジェスチャの種類や内容を示す情報を含むジェスチャ情報335を生成し、記憶部33に保存する。
出力部326は、上記のようなジェスチャ情報335を他の機構(本実施形態では車両制御装置10)に出力する。
図4は、第1実施形態に係るジェスチャ検知装置1における処理の一例を示すフローチャートである。LiDARセンサ2の駆動により車両Cの室内の反射波情報が取得されると(S101)、マップ情報生成部321は反射波の強度分布に基づいて三次元マップ情報332を生成し(S102)、速度情報生成部322は反射波のドップラシフトに基づいて速度情報333を生成する(S103)。
人物検知部323は三次元マップ情報332と速度情報333とに基づいて車両Cの室内に人物Mが存在するか否かを判定する(S104)。人物Mが存在しない場合(S104:No)、本ルーチンは終了し、人物Mが存在する場合(S104:Yes)、位置情報生成部324は、人物Mの特定部位の位置を示す情報を含む位置情報334を生成する(S105)。
ジェスチャ判定部325は速度情報333及び位置情報334から特定部位の位置及び速度を取得し、当該特定部位の位置及び速度に基づいて人物Mのジェスチャを判定する(S106)。出力部326は上記のように判定されたジェスチャを示す情報を含むジェスチャ情報335を車両制御装置10等に出力する(S107)。車両制御装置10はジェスチャ情報335に基づいて所定の処理(車載装備品の操作等)を実行する。
上記実施形態によれば、人物Mのジェスチャが人物Mの特定部位の位置の変化だけでなく、当該特定部位の速度にも基づいて判定される。これにより、人物Mのジェスチャを高精度に検知することが可能となる。
以下に、他の実施形態について図面を参照して説明するが、第1実施形態と同一又は同様の箇所については同一の符号を付してその説明を省略する場合がある。
(第2実施形態)
図5は、第2実施形態に係る仮想現実処理装置51の構成の一例を示す図である。本実施形態の仮想現実処理装置51は、車両Cに搭乗している人物Mに仮想現実(拡張現実を含む)を利用したサービスを提供するものである。
図5に示すように、仮想現実処理装置51は、ジェスチャ検知装置1及びHMD(Head Mounted Display)52(可視化部の一例)を含む。HMD52は、人物Mに所定の仮想物体を視認可能にする装置であり、例えば、映像を出力するディスプレイ、音声を出力するスピーカ、プログラムに従って各種処理を行うプロセッサ等を含んで構成され得る。本実施形態の仮想現実処理装置51は、ジェスチャ検知装置1から出力されるジェスチャ情報335等に基づいて各種処理を行う。
図6は、第2実施形態に係る仮想現実処理装置51を構成するジェスチャ検知装置1及びHMD52の機能構成の一例を示すブロック図である。HMD52は、位置情報取得部411、外部映像取得部412、及び仮想現実生成部413を備える。
位置情報取得部411は、HMD52の位置(本実施形態では人物Mの頭部の位置)を示す情報を取得するものであり、例えば加速度センサ等を利用して構成され得る。
外部映像取得部412は、HMD52の外部の映像(本実施形態では人物Mの視野に対応する外部映像)を取得するものであり、例えばデジタルカメラ等を利用して構成され得る。
仮想現実生成部413は、外部映像取得部412により取得された外部映像に所定の仮想物体を重畳させた仮想現実を生成するものであり、例えばディスプレイ、プロセッサ等を利用して構成され得る。仮想物体としては様々なものが考えられるが、例えば、仮想ディスプレイ、仮想コントロールパネル等であり得る。
本実施形態に係るジェスチャ検知装置1は、ジェスチャ判定部325が仮想操作判定部401を備える点で第1実施形態と相違する。
仮想操作判定部401は、人物Mの特定部位(例えば手、腕等)の位置及び速度に基づいて、人物Mが仮想物体に対して行う仮想操作を判定する。仮想操作は、使用環境、仮想物体の形態等に応じて様々な操作であり得るが、例えば、仮想物体の一部を指し示すポインティング操作、仮想物体を移動させる移動操作、仮想物体の大きさを変化させる拡縮動作、冊子状の仮想物体のページを捲るページ捲り操作等であり得る。仮想操作判定部401(ジェスチャ判定部325)は、人物Mがどのような仮想操作を行ったかを示す仮想操作情報を含むジェスチャ情報335を生成し、記憶部33に保存する。
HMD52の仮想現実生成部413は、仮想操作判定部401により判定された仮想操作(ジェスチャ情報335に含まれる仮想操作情報)に応じて、人物Mが視認している仮想現実における仮想物体を変化させる。
図7は、第2実施形態に係る仮想現実処理装置51における処理の一例を示すフローチャートである。LiDARセンサ2の駆動により車両Cの室内の反射波情報が取得されると(S201)、マップ情報生成部321は反射波の強度分布に基づいて三次元マップ情報332を生成し(S202)、速度情報生成部322は反射波のドップラシフトに基づいて速度情報333を生成する(S203)。
人物検知部323は三次元マップ情報332と速度情報333とに基づいて車両Cの室内に人物Mが存在するか否かを判定する(S204)。人物Mが存在しない場合(S204:No)、本ルーチンは終了し、人物Mが存在する場合(S204:Yes)、HMD52は当該人物MがHMD52を装着しているかを判定する(S205)。人物MがHMD52を装着していない場合(S205:No)、本ルーチンは終了し、人物MがHMD52を装着している場合(S205:Yes)、位置情報生成部324は人物Mの特定部位の位置を示す情報を含む位置情報334を生成する(S206)。
ジェスチャ判定部325は速度情報333及び位置情報334から特定部位の位置及び速度を取得し、当該特定部位の位置及び速度に基づいて人物Mが行った仮想操作を判定する(S207)。出力部326は上記のように判定された仮想操作の種類や内容を示す仮想操作情報を含むジェスチャ情報335をHMD52等に出力し、HMD52は当該仮想操作に応じた映像を出力する(S208)。
なお、図7においてはジェスチャ情報335が仮想現実処理に利用される部分のみが記載されているが、ジェスチャ情報335は第1実施形態と同様に車両制御等に利用されてもよい。
以上のように、本実施形態によれば、人物Mが仮想物体に対して行う仮想操作が人物Mの特定部位の位置の変化だけでなく、当該特定部位の速度にも基づいて判定される。これにより、人物Mの仮想操作を高精度に検知することが可能となり、仮想操作に応じた高品質な仮想現実を提供することが可能となる。
(第3実施形態)
図8は、第3実施形態に係る仮想現実処理装置51の構成の一例を示す図である。本実施形態の仮想現実処理装置51は、人物Mが保持又は装着しているアイテム53の動きに応じて、人物Mが視認している仮想現実(仮想物体)を変化させる機能を有する。
図9は、第3実施形態に係る仮想現実処理装置51を構成するジェスチャ検知装置1及びHMD52の機能構成の一例を示すブロック図である。本実施形態に係るジェスチャ検知装置1は、ジェスチャ判定部325がアイテム判定部501を備える点で第2実施形態と相違する。
本実施形態に係る速度情報生成部322は、人物Mが保持又は装着しているアイテム53の速度を示す情報を含む速度情報333を生成する。また、本実施形態に係る位置情報生成部324は、アイテム53の位置を示す情報を含む位置情報334を生成する。
アイテム判定部501は、上記のような速度情報333及び位置情報334からアイテム53の位置及び速度を取得し、当該アイテム53の位置及び速度に基づいてアイテム53の動きを判定する。アイテム53の動きは、使用環境、アイテム53の形態等に応じて様々な動きであり得るが、例えば、ディスプレイ状のアイテム53を変位させる動き、スティック状のアイテム53を変位させる動き等であり得る。アイテム判定部501(ジェスチャ判定部325)は、アイテム53がどのように動いたかを示すアイテム情報を含むジェスチャ情報335を生成し、記憶部33に保存する。
本実施形態に係るHMD52の仮想現実生成部413は、アイテム判定部501により判定されたアイテム53の動き(ジェスチャ情報335に含まれるアイテム情報)に応じて、人物Mが視認している仮想現実における仮想物体を変化させる。
図10は、第3実施形態に係る仮想現実処理装置51における処理の一例を示すフローチャートである。LiDARセンサ2の駆動により車両Cの室内の反射波情報が取得されると(S301)、マップ情報生成部321は反射波の強度分布に基づいて三次元マップ情報332を生成し(S302)、速度情報生成部322は反射波のドップラシフトに基づいて速度情報333を生成する(S303)。
人物検知部323は三次元マップ情報332と速度情報333とに基づいて車両Cの室内に人物Mが存在するか否かを判定する(S304)。人物Mが存在しない場合(S304:No)、本ルーチンは終了し、人物Mが存在する場合(S304:Yes)、HMD52は当該人物MがHMD52を装着しているかを判定する(S305)。人物MがHMD52を装着していない場合(S305:No)、本ルーチンは終了し、人物MがHMD52を装着している場合(S305:Yes)、ジェスチャ判定部325(アイテム判定部501)は当該人物Mがアイテム53を保持等しているか否かを判定する(S306)。
人物Mがアイテム53を保持等していない場合(S306:No)、位置情報生成部324は人物Mの特定部位の位置を示す情報を含む位置情報334を生成する(S307)。ジェスチャ判定部325は速度情報333及び位置情報334から特定部位の位置及び速度を取得し、当該特定部位の位置及び速度に基づいて人物Mが行った仮想操作を判定する(S308)。出力部326は上記のように判定された仮想操作の種類や内容を示す仮想操作情報を含むジェスチャ情報335をHMD52等に出力し、HMD52は当該仮想操作に応じた映像を出力する(S309)。
一方、人物Mがアイテム53を保持等している場合(S306:Yes)、位置情報生成部324は人物Mの特定部位の位置を示す情報とアイテム53の位置を示す情報とを含む位置情報334を生成する(S310)。ジェスチャ判定部325は速度情報333及び位置情報334から特定部位の位置及び速度を取得し、当該特定部位の位置及び速度に基づいて人物Mが行った仮想操作を判定する(S311)。また、ジェスチャ判定部325は速度情報333及び位置情報334からアイテム53の位置及び速度を取得し、当該アイテム53の位置及び速度に基づいてアイテム53の動作を判定する(S312)。出力部326は上記のように判定された仮想操作の種類や内容を示す仮想操作情報と、アイテム53の動作の種類や内容を示すアイテム情報とを含むジェスチャ情報335をHMD52等に出力し、HMD52は当該仮想操作に応じた映像を出力する(S313)。
なお、図10においてはジェスチャ情報335が仮想現実処理に利用される部分のみが記載されているが、ジェスチャ情報335は第1実施形態と同様に車両制御等に利用されてもよい。
以上のように、本実施形態によれば、人物Mが保持等しているアイテム53の動きがアイテム53の位置の変化だけでなく、アイテム53の速度にも基づいて判定される。これにより、人物Mがアイテム53に与えた動きを高精度に検知することが可能となり、アイテム53の動きに応じた高品質な仮想現実を提供することが可能となる。
上述したようなジェスチャ検知装置1又は仮想現実処理装置51の機能を実現するための処理をコンピュータに実行させるプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD-ROM、CD-R、メモリカード、DVD(Digital Versatile Disk)、フレキシブルディスク(FD)等のコンピュータで読み取り可能な記憶媒体に記憶されてコンピュータプログラムプロダクトとして提供されるようにしてもよい。また、当該プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するようにしてもよい。また、当該プログラムを、インターネット等のネットワーク経由で提供または配布するようにしてもよい。
以下に、実施形態の変形例を示す。
(第1変形例)
図11は、第1変形例に係るジェスチャ検知装置の構成の一例を示す図である。上記実施形態においては、LiDARセンサ2が車両Cの天井部に設置される例を示したが、図11に示されるように、LiDARセンサ2は車両Cのフロント部分に設置されてもよい。このように、LiDARセンサ2はあらゆる場所に設置され得るものである。
(第2変形例)
図12は、第2変形例に係るジェスチャ検知装置の構成の一例を示す図である。上記実施形態においては、車両Cの室内を検出領域とする例を示したが、図12に示されるように、ジェスチャ検知装置は、建物の室内Rを検出領域とし、当該室内Rに存在する人物Mのジェスチャやアイテム53の動きを検知するものであってもよい。この場合、LiDARセンサ2は天井Ce、壁W等に設置され得る。このような構成とすることにより、例えば、人物Mやアイテム53の動きに応じた仮想現実を表現するスポーツシミュレータのような仮想現実処理装置を提供できる。
(第3変形例)
図13は、第3変形例に係るジェスチャ検知装置の構成の一例を示す図である。上記実施形態においては、車両Cの室内を検出領域とする例を示したが、図13に示されるように、ジェスチャ検知装置は、浴室を検出領域とし、浴槽B内の人物Mのジェスチャを検知するものであってもよい。この場合、LiDARセンサ2は浴槽Bの上部の天井Ce等に設置され得る。このような構成とすることにより、例えば、入浴中の人物Mのジェスチャによる各種操作(例えば水量、温度、換気等の調整等)や、人物Mの健康状態の監視等を行うシステム等を提供できる。
以上、本発明の実施形態及び変形例について説明したが、上記実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。この新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。この実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
1…ジェスチャ検知装置、2…LiDARセンサ、3…制御装置、10…車両制御装置、21…送信部、22…受信部、31…ADC、32…処理部、33…記憶部、51…仮想現実処理装置、52…HMD、53…アイテム、321…マップ情報生成部、322…速度情報生成部、323…人物検知部、324…位置情報生成部、325…ジェスチャ判定部、326…出力部、331…設定情報、332…三次元マップ情報、333…速度情報、334…位置情報、335…ジェスチャ情報、401…仮想操作判定部、411…位置情報取得部、412…外部映像取得部、413…仮想現実生成部、501…アイテム判定部、B…浴槽、C…車両、Ce…天井、D…ラベリング領域、M…人物、R…室内、Rs…特定領域、S…座席、W…壁

Claims (9)

  1. 所定の検出領域に周波数変調された電磁波を送信波として送信し、前記送信波が前記検出領域に存在する物体に反射されることにより発生する反射波を受信するセンサと、
    前記反射波の強度分布に基づいて前記検出領域における前記物体の位置を示す三次元マップ情報を生成するマップ情報生成部と、
    前記反射波のドップラシフトに基づいて前記物体の速度を示す速度情報を生成する速度情報生成部と、
    前記三次元マップ情報と前記速度情報とに基づいて前記検出領域に存在する人物を検知する人物検知部と、
    前記人物検知部により検知された前記人物の特定部位の位置を示す位置情報を生成する位置情報生成部と、
    前記特定部位の位置と前記特定部位の速度とに基づいて前記人物のジェスチャを判定するジェスチャ判定部と、
    を備えるジェスチャ検知装置。
  2. 前記特定部位は、前記人物の手又は腕を含む、
    請求項1に記載のジェスチャ検知装置。
  3. 所定の検出領域に周波数変調された電磁波を送信波として送信し、前記送信波が前記検出領域に存在する物体に反射されることにより発生する反射波を受信するセンサと、
    前記反射波の強度分布に基づいて前記検出領域における前記物体の位置を示す三次元マップ情報を生成するマップ情報生成部と、
    前記反射波のドップラシフトに基づいて前記物体の速度を示す速度情報を生成する速度情報生成部と、
    前記三次元マップ情報と前記速度情報とに基づいて前記検出領域に存在する人物を検知する人物検知部と、
    前記人物検知部により検知された前記人物の特定部位の位置を示す位置情報を生成する位置情報生成部と、
    前記特定部位の位置と前記特定部位の速度とに基づいて前記人物のジェスチャを判定するジェスチャ判定部と、
    仮想物体を前記人物に視認可能にする可視化部と、
    を備え、
    前記ジェスチャ判定部は、前記人物が前記仮想物体に対して行う仮想操作を判定し、
    前記可視化部は、前記仮想操作に応じて前記仮想物体を変化させる、
    仮想現実処理装置。
  4. 前記特定部位は、前記人物の手又は腕を含む、
    請求項3に記載の仮想現実処理装置。
  5. 前記仮想操作は、前記人物が前記仮想物体の一部を指し示すポインティング操作を含む、
    請求項4に記載の仮想現実処理装置。
  6. 前記仮想操作は、前記人物が前記仮想物体を移動させる移動操作を含む、
    請求項4に記載の仮想現実処理装置。
  7. 前記仮想操作は、前記人物が前記仮想物体の大きさを変化させる拡縮操作を含む、
    請求項4に記載の仮想現実処理装置。
  8. 前記仮想操作は、前記人物が冊子状の前記仮想物体のページを捲るページ捲り操作を含む、
    請求項4に記載の仮想現実処理装置。
  9. 前記速度情報生成部は、前記人物が保持又は装着しているアイテムの速度を示す情報を含む前記速度情報を生成し、
    前記位置情報生成部は、前記アイテムの位置を示す情報を含む前記位置情報を生成し、
    前記ジェスチャ判定部は、前記アイテムの位置と前記アイテムの速度とに基づいて前記アイテムの動きを判定し、
    前記可視化部は、前記アイテムの動きに応じて前記仮想物体を変化させる、
    請求項3又は4に記載の仮想現実処理装置。
JP2021129562A 2021-08-06 2021-08-06 ジェスチャ検知装置及び仮想現実処理装置 Pending JP2023023756A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021129562A JP2023023756A (ja) 2021-08-06 2021-08-06 ジェスチャ検知装置及び仮想現実処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021129562A JP2023023756A (ja) 2021-08-06 2021-08-06 ジェスチャ検知装置及び仮想現実処理装置

Publications (1)

Publication Number Publication Date
JP2023023756A true JP2023023756A (ja) 2023-02-16

Family

ID=85204196

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021129562A Pending JP2023023756A (ja) 2021-08-06 2021-08-06 ジェスチャ検知装置及び仮想現実処理装置

Country Status (1)

Country Link
JP (1) JP2023023756A (ja)

Similar Documents

Publication Publication Date Title
CN109476318B (zh) 用于车辆的触觉通知系统
US10343602B2 (en) Spatial auditory alerts for a vehicle
JP2016506572A (ja) インフォテイメントシステム
JP2007333486A (ja) 車両用障害物検知装置
JP4715718B2 (ja) 車両用表示装置
JP2007098967A (ja) 車両周辺監視装置及びセンサユニット
JPWO2016103464A1 (ja) 障害物検知装置及び障害物検知方法
US10497346B2 (en) Three-dimensional simulation system
JP2017084034A (ja) 交通情報提供装置及びシステム及び方法
CN113359974A (zh) 基于注意的通知
CN111352074B (zh) 用于相对于车辆对声源进行定位的方法和系统
US20190389460A1 (en) Information display device, information display method, and recording medium
JP6043671B2 (ja) クラクション発生装置、クラクション発生方法、プログラム及び乗物用入力装置
JP2018055614A (ja) ジェスチャ操作システム、ジェスチャ操作方法およびプログラム
JP2015031978A (ja) 情報提供装置及び方法
US20220146659A1 (en) Biological detection device
JP2023023756A (ja) ジェスチャ検知装置及び仮想現実処理装置
JP2019525863A (ja) 車両におけるアダプティブクルーズコントロールのための追い越し加速支援
WO2019093225A1 (ja) 情報提示システム、移動体、情報提示方法及びプログラム
JP2012234373A (ja) 運転支援装置
JP2019003262A (ja) 衝突警告システムのための処理ユニット及び処理方法、衝突警告システム、及び、モータサイクル
US11403948B2 (en) Warning device of vehicle and warning method thereof
IT201800003194A1 (it) Interazioni di giostra
KR20210056158A (ko) 탈 것을 위한 전후방주의 안전장치
JP2023030054A (ja) 音響装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240606