JP2019178943A - モーション判定装置、モーション判定方法、及びプログラム - Google Patents

モーション判定装置、モーション判定方法、及びプログラム Download PDF

Info

Publication number
JP2019178943A
JP2019178943A JP2018068108A JP2018068108A JP2019178943A JP 2019178943 A JP2019178943 A JP 2019178943A JP 2018068108 A JP2018068108 A JP 2018068108A JP 2018068108 A JP2018068108 A JP 2018068108A JP 2019178943 A JP2019178943 A JP 2019178943A
Authority
JP
Japan
Prior art keywords
motion
area
steering
detected
payment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018068108A
Other languages
English (en)
Other versions
JP7053014B2 (ja
Inventor
忠 関原
Tadashi Sekihara
忠 関原
純一 気屋村
Junichi Kiyamura
純一 気屋村
将城 ▲榊▼原
将城 ▲榊▼原
Masaki Sakakibara
安利 深谷
Yasutoshi Fukaya
安利 深谷
井東 道昌
Michimasa Ito
道昌 井東
佑記 名和
Yuki Nawa
佑記 名和
圭吾 多田
Keigo Tada
圭吾 多田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Solution Innovators Ltd
Tokai Rika Co Ltd
Original Assignee
NEC Solution Innovators Ltd
Tokai Rika Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Solution Innovators Ltd, Tokai Rika Co Ltd filed Critical NEC Solution Innovators Ltd
Priority to JP2018068108A priority Critical patent/JP7053014B2/ja
Publication of JP2019178943A publication Critical patent/JP2019178943A/ja
Application granted granted Critical
Publication of JP7053014B2 publication Critical patent/JP7053014B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Navigation (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】類似するモーションを高精度に識別することができるモーション判定装置を提供する。【解決手段】顔向きモーション判定装置10は、撮像エリア内の特定のエリアを検出するエリア検出部11と、特定のエリアにおいて人体の特定の部位を用いた少なくとも2つ以上のモーション操作を検出した場合に、特定のエリアに関連付けられた判定基準に基づいて、検出された2つ以上のモーション操作の中から、いずれかのモーション操作が行われたと判定するモーション判定部12と、を備える。【選択図】図1

Description

本発明はモーション判定装置、モーション判定方法、及びプログラムに関する。
車両を運転する運転者は、運転中にオーディオの操作もしくはカーナビゲーションの操作等を行う必要が生じた場合に、安全にそれらの操作を行うことが求められる。近年、オーディオ等の操作が運転操作に与える影響を減少させるために、運転者の特定のモーションに応じて、オーディオ操作等を行う技術の検討が進められている。
特許文献1には、挙動検出空間を定義し、挙動検出空間において人間の手又は指の動き等の挙動を認識することが記載されている。
特開2017−97608号公報
運転者もしくは同乗者(以下、運転者等とする)が行うモーションとして、複数のモーションが定義される。複数のモーションの中には、類似した動作のモーションも存在している。そのため、運転者等のモーションを判定する判定装置において、特定のモーション操作を実行した運転者等の意図と異なるモーションとして判定されてしまうことがある。このような場合、カーナビゲーションもしくはオーディオ等の車両内の機器が、運転者等の意図と異なる動作を実行するという問題がある。
本開示の目的は、上述した課題に鑑み、類似するモーションを高精度に識別することができるモーション判定装置、モーション判定方法、及びプログラムを提供することにある。
本発明の第1の態様にかかるモーション判定装置は、撮像エリア内の特定のエリアを検出するエリア検出部と、前記特定のエリアにおいて人体の特定の部位を用いた少なくとも2つ以上のモーション操作を検出した場合に、前記特定のエリアに関連付けられた判定基準に基づいて、前記検出された2つ以上のモーション操作の中から、いずれかのモーション操作が行われたと判定するモーション判定部と、を備える。
本発明の第2の態様にかかるモーション判定方法は、撮像エリア内の特定のエリアを検出し、前記特定のエリアにおいて人体の特定の部位を用いた少なくとも2つ以上のモーション操作を検出した場合に、前記特定のエリアに関連付けられた判定基準に基づいて、前記検出された2つ以上のモーション操作の中から、いずれかのモーション操作が行われたと判定する。
本発明の第3の態様にかかるプログラムは、撮像エリア内の特定のエリアを検出し、前記特定のエリアにおいて人体の特定の部位を用いた少なくとも2つ以上のモーション操作を検出した場合に、前記特定のエリアに関連付けられた判定基準に基づいて、前記検出された2つ以上のモーション操作の中から、いずれかのモーション操作が行われたと判定することをコンピュータに実行させる。
本発明により、類似するモーションを高精度に識別することができるモーション判定装置、モーション判定方法、及びプログラムを提供することができる。
実施の形態1にかかるモーション判定装置の構成図である。 実施の形態2にかかるモーション判定装置の構成図である。 実施の形態2にかかるモーション判定装置が実行するモーション判定処理の概要を説明する図である。 実施の形態2にかかるモーション判定装置が実行するモーション判定処理の流れを示す図である。 実施の形態2にかかるモーション判定装置が実行するモーション判定処理の流れを示す図である。 実施の形態2にかかるモーション判定装置が実行するモーション判定処理の流れを示す図である。 実施の形態2にかかるモーション判定装置が実行するモーション判定処理の流れを示す図である。
(実施の形態1)
以下、図面を参照して本発明の実施の形態について説明する。図1を用いて実施の形態1にかかるモーション判定装置10の構成例について説明する。モーション判定装置10は、プロセッサがメモリに格納されたプログラムを実行することによって動作するコンピュータ装置であってもよい。モーション判定装置10は、サーバ装置もしくはパーソナルコンピュータ装置等であってもよい。
モーション判定装置10は、エリア検出部11及びモーション判定部12を有している。エリア検出部11及びモーション判定部12は、プロセッサがメモリに格納されたプログラムを実行することによって処理が実行されるソフトウェアもしくはモジュールであってもよい。または、エリア検出部11及びモーション判定部12は、回路もしくはチップ等のハードウェアであってもよい。
エリア検出部11は、撮像エリア内の特定のエリアにおいて人体の特定の部位を検出する。撮像エリアは、カメラを用いて撮影された画像に写るエリアである。人体の特定の部位は、例えば、指、手等であってもよい。特定のエリアは、撮像エリア内に含まれる一部のエリアである。
モーション判定部12は、エリア検出部11において検出された特定のエリアにおいて、人体の特定の部位を用いた少なくとも2つ以上のモーション操作を検出した場合に、いずれかのモーション操作が行われたと判定する。モーション判定部12は、特定のエリアに関連付けられた判定基準に基づいて、検出された2つ以上のモーション操作の中から、いずれかのモーション操作が行われたと判定する。
モーション操作は、例えば、車両内の運転者等が、車両内における装置等を操作するために、人体の特定の部位を、予め定められた方向等に動かすことであってもよい。車両内における装置は、例えば、カーナビゲーション装置、オーディオ装置等であってもよく、その他の装置であってもよい。
特定のエリアに関連付けられた判定基準は、特定のエリアにおいて複数のモーション操作が検出された場合に、優先的に採用されるモーション操作が示されていてもよい。複数の特定のエリアが存在する場合、特定のエリア毎に優先的に採用されるモーション操作が異なっていてもよい。特定のエリアに関連付けられた判定基準は、例えば、そのエリアにおいて、運転者等が行う可能性の低いモーション操作として、棄却するモーション操作が示されていてもよい。もしくは、判定基準は、そのエリアにおいて、運転者が行う可能性が高いモーション操作として、採用するモーション操作が示されていてもよい。
2つ以上のモーション操作が検出される場合とは、例えば、運転者等のモーションから、一つのモーション操作を特定することができない場合である。モーション判定部12は、運転者等のモーションを検知した場合、検知したモーションに関連付けられたモーション操作を抽出する。この時、モーション判定部12は、特定の一つのモーション操作のみを抽出するのではなく、複数のモーション操作を抽出することがある。抽出されたモーションに関連付けられたモーション操作に関する情報は、モーション判定装置10内のメモリ等に予め保持されていてもよい。
以上説明したように、モーション判定装置10は、特定のエリアにおいて、2つ以上のモーション操作を検出した場合、特定のエリアに関連付けられた判定基準に従って、一つのモーション操作を特定することができる。また、判定基準は、特定のエリアにおいて、運転者等が実行する可能性が高いモーション操作が優先的に採用されることが示されている。そのため、モーション判定装置10は、2つ以上のモーション操作を検出した場合、運転者等の意図に沿ったモーション操作を選択する確率を向上させることができる。
続いて、図2を用いて実施の形態2にかかるモーション判定装置10の構成例について説明する。モーション判定装置10は、外部装置インタフェース61、プロセッサ62、及びメモリ63を有している。
外部装置インタフェース61は、デジタルベースバンド信号処理を行うベースバンドプロセッサを含んでもよい。もしくは、外部装置インタフェース61は、IEEE 802.3 seriesに準拠したネットワークインターフェースカード(NIC)を含んでもよい。もしくは、外部装置インタフェース61は、USB(Universal Serial Bus)インタフェース、Bluetooth(登録商標)インタフェース、無線LAN(Local Area Network)インタフェース等であってもよい。
外部装置インタフェース61は、TOF(Time Of Flight)カメラ21及びモニタ22と接続している。TOFカメラは、撮像対象までの距離を計測することができるカメラである。言い換えると、TOFカメラは、撮像対象までの距離データを画素ごとに算出することができる。TOFカメラ21が生成する画像を、距離画像と称する。
モニタ22は、外部装置インタフェース61から出力された画像データを表示する。例えば、モニタ22は、TOFカメラ21において生成された距離画像データを表示してもよい。もしくは、モニタ22は、モーション判定装置10において距離画像データを加工もしくは分析した後の画像データを表示してもよい。例えば、モニタ22は、モーション判定装置10において距離画像を3D変換することによって生成された3D点群データを表示してもよい。
プロセッサ62は、メモリ63からソフトウェア(コンピュータプログラム)を読み出して、以降においてフローチャート等を用いて説明される処理を行う。プロセッサ62は、例えば、マイクロプロセッサ、MPU(Micro Processing Unit)、又はCPU(Central Processing Unit)であってもよい。プロセッサ62は、複数のプロセッサを含んでもよい。
メモリ63は、揮発性メモリ及び不揮発性メモリの組み合わせによって構成される。メモリ63は、プロセッサ62から離れて配置されたストレージを含んでもよい。この場合、プロセッサ62は、図示されていないI/Oインタフェースを介してメモリ63にアクセスしてもよい。プロセッサ62は、図1のエリア検出部11及びモーション判定部12における機能もしくは処理を実行するために用いられる。さらに、プロセッサ62は、TOFカメラ21において生成された距離画像を3D変換して、3D点群データを生成してもよい。
メモリ63は、ソフトウェアもしくはソフトウェアモジュール群を格納するために使用される。プロセッサ62は、これらのソフトウェアもしくはソフトウェアモジュール群をメモリ63から読み出して実行する。
続いて、図3を用いて、モーション判定装置10が実行するモーション判定処理の概要について説明する。図3は、車両内のステアリングと、ステアリングの上下左右のそれぞれに定義されているエリアを示している。図3は、H軸及びW軸上の平面を示している。網掛けされた円形のエリアが、ステアリングを示している。
エリアAは、ステアリングの上のエリアを含む。エリアBは、ステアリングの右のエリアを含む。エリアCは、ステアリングの下のエリアを含む。エリアDは、ステアリングの左のエリアを含む。エリアA乃至Dは、それぞれ、W軸方向の距離W1と、H軸方向の距離H1の大きさの長方形のエリアとして示されている。図3においては、エリアA乃至Dが長方形のエリアとして示されているが、エリアの形状は長方形に限定されない。エリアの形状は、例えば、ステアリングを含む一定のエリアを含めばよい。また、エリアの大きさについても、図3に示される大きさに限定されない。例えば、エリアが大きいほど、払いモーションとタップモーションとを区別するモーション判定処理を適用するエリアが広くなる。
ここで、モーション判定装置10は、払いモーションとタップモーションとを区別するモーション判定処理を実行する。払いモーションは、例えば、手が静止した後、手が所定の速度以上の速さにて移動し、再度手が静止するモーションである。静止とは、完全に静止した場合のみではなく、手の動きが所定の速度以下の速さとなった場合も含む。タップモーションは、エリアA乃至Dに含まれるステアリングの一部をタップするモーションである。タップするとは、たたくと言い換えられてもよい。
払いモーションは、さらに、上払いモーション、下払いモーション、左払いモーション、及び、右払いモーションを含む。上払いモーションは、運転者が、手を上方向へ、所定の速度以上の速さにて移動させるモーションである。下払いモーションは、運転者が手を下方向へ、所定の速度以上の速さにて移動させるモーションである。左払いモーションは、運転者が手を左方向へ、所定の速度以上の速さにて移動させるモーションである。右払いモーションは、運転者が手を右方向へ、所定の速度以上の速さにて移動させるモーションである。
エリアAにおけるタップモーションは、運転者が手を下方向へ移動させてステアリングをタップするモーションである。エリアBにおけるタップモーションは、運転者が手を左方向へ移動させてステアリングをタップするモーションである。エリアCにおけるタップモーションは、運転者が手を上方向へ移動させてステアリングをタップするモーションである。エリアDにおけるタップモーションは、運転者が手を右方向へ移動させてステアリングをタップするモーションである。
エリアAにおけるタップモーションと、下払いモーションは、ともに運転者が手を下方向へ移動させるモーションを含む。つまり、エリアAにおけるタップモーションと、下払いモーションとは類似した動作となる。そのため、モーション判定装置10は、エリアAにおけるタップモーションと、下払いモーションとを同時に検出することがある。さらに、モーション判定装置10は、エリアBにおけるタップモーションと、左払いモーションとを同時に検出することがある。さらに、モーション判定装置10は、エリアCにおけるタップモーションと、上払いモーションとを同時に検出することがある。さらに、モーション判定装置10は、エリアDにおけるタップモーションと、右払いモーションとを同時に検出することがある。ここで、同時に検出とは、完全に同じタイミングに検出した場合のみではなく、所定の期間ずれてタップモーション及び払いモーションとを検出した場合も含む。つまり、同時に検出とは、実質的に同時に検出とみなされるタイミングも含む。
ここで、運転者が払いモーションをステアリングの周辺にて意図的に実行する可能性は低いと考えられる。運転者は、運転中に払いモーションを行う場合、手をステアリングから離して払いモーションを行う。さらに、運転者は、払いモーション中に、ステアリングに接触しない空間にて払いモーションを行う、と想定される。そのため、モーション判定装置10は、エリアAにおいてタップモーションと、下払いモーションとを同時に検出した場合、下払いモーションを棄却して、タップモーション操作が行われたと判定する。
さらに、モーション判定装置10は、エリアBにおいてタップモーションと、左払いモーションとを同時に検出した場合、左払いモーションを棄却して、タップモーション操作が行われたと判定する。さらに、モーション判定装置10は、エリアCにおいてタップモーションと、上払いモーションとを同時に検出した場合、上払いモーションを棄却して、タップモーション操作が行われたと判定する。さらに、モーション判定装置10は、エリアDにおいてタップモーションと、右払いモーションとを同時に検出した場合、右払いモーションを棄却して、タップモーション操作が行われたと判定する。
続いて、図4乃至図7を用いて、モーション判定装置10におけるモーション判定処理の流れについて説明する。はじめに、モーション判定部12は、払いモーション及びタップモーションを同時に検出する(S11)。次に、エリア検出部11は、モーション判定部12において払いモーション及びタップモーションを検出したエリアが、エリアAであるか否かを判定する(S12)。例えば、エリア検出部11は、撮像エリア内のステアリングを検出し、ステアリングの位置を基準として、エリアA乃至Dの位置を特定してもよい。例えば、エリア検出部11は、ステアリングの中心点から上方向(+H方向)へW1/2移動した位置に存在する、距離W1及び距離H1を用いて定められる長方形のエリアをエリアAの位置と特定してもよい。また、エリア検出部11は、ステアリングの中心点から右方向(+W方向)へW1/2移動した位置に存在する、距離W1及び距離H1を用いて定められる長方形のエリアをエリアBの位置と特定してもよい。エリア検出部11は、エリアC及びエリアDの位置についても、エリアA及びエリアBと同様に特定する。
次に、エリア検出部11において、検出された払いモーション及びタップモーションがエリアAにおいて検出されたと判定された場合、モーション判定部12は、検出した払いモーションが下払いモーションであるか否かを判定する(S13)。
モーション判定部12は、検出した払いモーションが下払いモーションであると判定した場合、運転者が行ったモーション操作は、タップモーションであると特定する(S14)。つまり、モーション判定部12は、検出した下払いモーションを棄却して、運転者が行ったモーション操作は、タップモーションであると特定する。
モーション判定部12は、ステップS13において、検出した払いモーションが下払いモーションではないと判定した場合、誤検出と特定する(S15)。この場合、エリアAにおいて下払い以外の払いモーションと、タップモーションとが同時に検出される可能性は低いと考えられるため、モーション判定部12は、誤検出と特定する。または、モーション判定部12は、ステップS15において誤検出と特定せずに、予め定められたタップモーションもしくは予め定められた払いモーションが検出されたと判定してもよい。以降、ステップS24、ステップS34、及びステップS44においても同様である。
ステップS12において、検出された払いモーション及びタップモーションが検出されたエリアが、エリアAではないと判定された場合、図5の処理が実行される。以降、図5の処理について説明する。
エリア検出部11は、モーション判定部12において払いモーション及びタップモーションを検出したエリアが、エリアBであるか否かを判定する(S21)。
次に、エリア検出部11において、検出された払いモーション及びタップモーションがエリアBにおいて検出されたと判定された場合、モーション判定部12は、検出した払いモーションが左払いモーションであるか否かを判定する(S22)。
モーション判定部12は、検出した払いモーションが左払いモーションであると判定した場合、運転者が行ったモーション操作は、タップモーションであると特定する(S23)。つまり、モーション判定部12は、検出した左払いモーションを棄却して、運転者が行ったモーション操作は、タップモーションであると特定する。
モーション判定部12は、ステップS22において、検出した払いモーションが左払いモーションではないと判定した場合、誤検出と特定する(S24)。
ステップS21において、検出された払いモーション及びタップモーションが検出されたエリアが、エリアBではないと判定された場合、図6の処理が実行される。以降、図6の処理について説明する。
エリア検出部11は、モーション判定部12において払いモーション及びタップモーションを検出したエリアが、エリアCであるか否かを判定する(S31)。
次に、エリア検出部11において、検出された払いモーション及びタップモーションがエリアCにおいて検出されたと判定された場合、モーション判定部12は、検出した払いモーションが上払いモーションであるか否かを判定する(S32)。
モーション判定部12は、検出した払いモーションが上払いモーションであると判定した場合、運転者が行ったモーション操作は、タップモーションであると特定する(S33)。つまり、モーション判定部12は、検出した上払いモーションを棄却して、運転者が行ったモーション操作は、タップモーションであると特定する。
モーション判定部12は、ステップS22において、検出した払いモーションが上払いモーションではないと判定した場合、誤検出と特定する(S34)。
ステップS31において、検出された払いモーション及びタップモーションが検出されたエリアが、エリアCではないと判定された場合、図7の処理が実行される。以降、図7の処理について説明する。
エリア検出部11は、モーション判定部12において払いモーション及びタップモーションを検出したエリアが、エリアDであるか否かを判定する(S41)。
次に、エリア検出部11において、検出された払いモーション及びタップモーションがエリアDにおいて検出されたと判定された場合、モーション判定部12は、検出した払いモーションが右払いモーションであるか否かを判定する(S42)。
モーション判定部12は、検出した払いモーションが右払いモーションであると判定した場合、運転者が行ったモーション操作は、タップモーションであると特定する(S43)。つまり、モーション判定部12は、検出した右払いモーションを棄却して、運転者が行ったモーション操作は、タップモーションであると特定する。
モーション判定部12は、ステップS22において、検出した払いモーションが右払いモーションではないと判定した場合、誤検出と特定する(S44)。さらに、モーション判定部12は、ステップS41において、払いモーション及びタップモーションを検出したエリアが、エリアDであると判定されなかった場合、誤検出と特定する(S44)。つまり、エリアA乃至Dとは異なるエリアにおいて、払いモーションとタップモーションとが同時に検出される可能性は低いと考えられるため、モーション判定部12は、誤検出と特定する。
以上説明したように、モーション判定装置10は、エリアA乃至Dにおいて、払いモーションとタップモーションとを同時に検出した場合、それぞれのエリアにおいて予め定められた方向の払いモーションを棄却する。つまり、モーション判定装置10は、運転者の行ったモーション操作として、タップモーションを優先的に採用する。これより、モーション判定装置10は、ステアリング周辺において、払いモーションとタップモーションとを同時に検出した場合であっても、運転者が行ったモーション操作を特定することができる。
(実施の形態3)
続いて、実施の形態3にかかるモーション判定装置10におけるモーション判定処理について説明する。実施の形態3においては、モーション判定装置10が、払いモーションと、運転者が自然に行うモーションとを区別するモーション判定処理を実行する。運転者が自然に行うモーションとは、例えば、ステアリングを握っている状態からステアリングを離すモーション、さらに、ステアリングを離している状態から、ステアリングを握るモーションを含む。
図3のエリアAにおいて、運転者は、ステアリングを離す場合、手を上の方向へ動かすことが想定される。この場合、モーション判定装置10は、運転者がステアリングを離そうとする自然なモーションを、上払いモーションと誤って特定する可能性がある。また、運転者は、エリアAにおいて、ステアリングを握る場合、手を下の方向へ動かすことが想定される。この場合、モーション判定装置10は、運転者がステアリングを握ろうとする自然なモーションを、下払いモーションと誤って特定する可能性がある。
また、モーション判定装置10は、エリアBにおいて運転者がステアリングを握ろうとするもしくは離そうとする自然なモーションを、左払いモーションもしくは右払いモーションと誤って特定する可能性がある。また、モーション判定装置10は、エリアCにおいて、運転者がステアリングを握ろうとするもしくは離そうとする自然なモーションを、上払いモーションもしくは下払いモーションと誤って特定する可能性がある。また、モーション判定装置10は、エリアDにおいて、運転者がステアリングを握ろうとするもしくは離そうとする自然なモーションを、右払いモーションもしくは左払いモーションと誤って特定する可能性がある。
ここで、運転者が払いモーションをステアリングの周辺にて意図的に実行する行う可能性は低いと考えられる。運転者は、運転中に払いモーションを行う場合、手をステアリングから離して払いモーションを行う。さらに、運転者は、払いモーション中に、ステアリングに接触しない空間にて払いモーションを行う、と想定される。
そのため、実施の形態3にかかるモーション判定部12は、エリアAにおいて上払いモーションまたは下払いモーションを検出した場合、検出した払いモーションを棄却する。さらに、モーション判定部12は、エリアBにおいて左払いモーションもしくは右払いモーションを検出した場合、検出した払いモーションを棄却する。さらに、モーション判定部12は、エリアCにおいて下払いモーション又は上払いモーションを検出した場合、検出した払いモーションを棄却する。さらに、モーション判定部12は、エリアDにおいて、右払いモーションもしくは左払いモーションを検出した場合、検出した払いモーションを棄却する。
以上説明したように、モーション判定装置10は、エリアA乃至Dにおいて、払いモーションを検出した場合、それぞれのエリアにおいて予め定められた方向の払いモーションを棄却する。これより、モーション判定装置10は、エリアA乃至Dにおいて払いモーションとして検出したモーションを、運転者が行った自然なモーションとみなすことができる。つまり、モーション判定装置10は、エリアA乃至Dにおいて払いモーションとして検出したモーションを、運転者が行った自然なモーションと判定することができる。その結果、モーション判定装置10は、エリアA乃至Dにおいて、払いモーションを検出するという誤検出を減少させることができる。
上述の例において、プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)を含む。さらに、非一時的なコンピュータ可読媒体の例は、CD−ROM(Read Only Memory)、CD−R、CD−R/Wを含む。さらに、非一時的なコンピュータ可読媒体の例は、半導体メモリを含む。半導体メモリは、例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory)を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
なお、本開示は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。また、本開示は、それぞれの実施の形態を適宜組み合わせて実施されてもよい。
10 モーション判定装置
11 エリア検出部
12 モーション判定部
21 TOFカメラ
22 モニタ
61 外部装置インタフェース
62 プロセッサ
63 メモリ

Claims (15)

  1. 撮像エリア内の特定のエリアを検出するエリア検出部と、
    前記特定のエリアにおいて人体の特定の部位を用いた少なくとも2つ以上のモーション操作を検出した場合に、前記特定のエリアに関連付けられた判定基準に基づいて、前記検出された2つ以上のモーション操作の中から、いずれかのモーション操作が行われたと判定するモーション判定部と、を備えるモーション判定装置。
  2. 前記特定のエリアは、
    車両内のステアリングの周辺のエリアであり、
    前記モーション判定部は、
    前記ステアリングをタップするモーション操作と、前記特定の部位が所定の速度で移動した後に静止したことを示す払いモーション操作とを検出する、請求項1に記載のモーション判定装置。
  3. 前記特定のエリアは、
    車両内のステアリングを含む平面上であって、前記ステアリングの周辺エリアである、請求項2に記載のモーション判定装置。
  4. 前記モーション判定部は、
    車両内のステアリングの周辺のエリアにおいては、前記ステアリングをタップするモーション操作が行われたと判定する、請求項2又は3に記載のモーション判定装置。
  5. 前記モーション判定部は、
    車両内のステアリングの周辺のエリアにおいては、前記払いモーション操作を棄却する、請求項2乃至4のいずれか1項に記載のモーション判定装置。
  6. 撮像エリア内の特定のエリアを検出し、
    前記特定のエリアにおいて人体の特定の部位を用いた少なくとも2つ以上のモーション操作を検出した場合に、前記特定のエリアに関連付けられた判定基準に基づいて、前記検出された2つ以上のモーション操作の中から、いずれかのモーション操作が行われたと判定する、モーション判定方法。
  7. 前記特定のエリアは、
    車両内のステアリングの周辺のエリアであり、
    前記モーション操作に関する判定を行う際に、
    前記ステアリングをタップするモーション操作と、前記特定の部位が所定の速度で移動した後に静止したことを示す払いモーション操作とを検出する、請求項6に記載のモーション判定方法。
  8. 前記特定のエリアは、
    車両内のステアリングを含む平面上であって、前記ステアリングの周辺エリアである、請求項7に記載のモーション判定方法。
  9. 前記モーション操作に関する判定を行う際に、
    車両内のステアリングの周辺のエリアにおいては、前記ステアリングをタップするモーション操作が行われたと判定する、請求項7又は8に記載のモーション判定方法。
  10. 前記モーション操作に関する判定を行う際に、
    車両内のステアリングの周辺のエリアにおいては、前記払いモーション操作を棄却する、請求項7乃至9のいずれか1項に記載のモーション判定方法。
  11. 撮像エリア内の特定のエリアを検出し、
    前記特定のエリアにおいて人体の特定の部位を用いた少なくとも2つ以上のモーション操作を検出した場合に、前記特定のエリアに関連付けられた判定基準に基づいて、前記検出された2つ以上のモーション操作の中から、いずれかのモーション操作が行われたと判定することをコンピュータに実行させるプログラム。
  12. 前記特定のエリアは、
    車両内のステアリングの周辺のエリアであり、
    前記モーション操作に関する判定を行う際に、
    前記ステアリングをタップするモーション操作と、前記特定の部位が所定の速度で移動した後に静止したことを示す払いモーション操作とを検出する、請求項11に記載のプログラム。
  13. 前記特定のエリアは、
    車両内のステアリングを含む平面上であって、前記ステアリングの周辺エリアである、請求項12に記載のプログラム。
  14. 前記モーション操作に関する判定を行う際に、
    車両内のステアリングの周辺のエリアにおいては、前記ステアリングをタップするモーション操作が行われたと判定する、請求項12又は13に記載のプログラム。
  15. 前記モーション操作に関する判定を行う際に、
    車両内のステアリングの周辺のエリアにおいては、前記払いモーション操作を棄却する、請求項12乃至14のいずれか1項に記載のプログラム。
JP2018068108A 2018-03-30 2018-03-30 モーション判定装置、モーション判定方法、及びプログラム Active JP7053014B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018068108A JP7053014B2 (ja) 2018-03-30 2018-03-30 モーション判定装置、モーション判定方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018068108A JP7053014B2 (ja) 2018-03-30 2018-03-30 モーション判定装置、モーション判定方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2019178943A true JP2019178943A (ja) 2019-10-17
JP7053014B2 JP7053014B2 (ja) 2022-04-12

Family

ID=68278470

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018068108A Active JP7053014B2 (ja) 2018-03-30 2018-03-30 モーション判定装置、モーション判定方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP7053014B2 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005254851A (ja) * 2004-03-09 2005-09-22 Nissan Motor Co Ltd コマンド入力装置
JP2007237919A (ja) * 2006-03-08 2007-09-20 Toyota Motor Corp 車両用入力操作装置
JP2014115699A (ja) * 2012-12-06 2014-06-26 Alpine Electronics Inc 車載システム
JP2016091171A (ja) * 2014-10-31 2016-05-23 三菱自動車工業株式会社 操作入力装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005254851A (ja) * 2004-03-09 2005-09-22 Nissan Motor Co Ltd コマンド入力装置
JP2007237919A (ja) * 2006-03-08 2007-09-20 Toyota Motor Corp 車両用入力操作装置
JP2014115699A (ja) * 2012-12-06 2014-06-26 Alpine Electronics Inc 車載システム
JP2016091171A (ja) * 2014-10-31 2016-05-23 三菱自動車工業株式会社 操作入力装置

Also Published As

Publication number Publication date
JP7053014B2 (ja) 2022-04-12

Similar Documents

Publication Publication Date Title
US11188187B2 (en) Information processing apparatus, information processing method, and recording medium
US9877012B2 (en) Image processing apparatus for estimating three-dimensional position of object and method therefor
KR101706365B1 (ko) 이미지 세그멘테이션 방법 및 이미지 세그멘테이션 장치
US10532459B2 (en) Information processing apparatus, information processing method, and storage medium for grasping an object
US10410063B2 (en) Setting apparatus and setting method
CN105303156B (zh) 字符检测装置、方法及程序
KR101745651B1 (ko) 손 제스처 인식 시스템 및 방법
US10147287B2 (en) Image processing apparatus to set a detection line used to count the passing number of moving objects
CN109035831A (zh) 交通指示灯的识别方法、装置、设备、存储介质及车辆
CN112540739B (zh) 一种投屏方法及系统
KR20200135351A (ko) 비디오 객체 검출
JP2014170368A (ja) 画像処理装置、方法及びプログラム並びに移動体
JP2020513627A (ja) インテリジェント盲導方法および装置
WO2017112131A1 (en) Determining values of angular gauges
KR20190011722A (ko) 심도 정보를 이용한 이미지에서의 사람의 방향 추정
JP2011089784A (ja) 物体方向推定装置
CN113092079A (zh) 清晰度检测标板和方法及其系统、电子设备以及检测平台
JP2018124918A (ja) 画像処理装置、画像処理方法及びプログラム
TW202022697A (zh) 從多個臉部中選擇目標臉部及臉部識別比對方法、裝置
JP2016099643A (ja) 画像処理装置、画像処理方法および画像処理プログラム
US10402693B2 (en) Apparatus and method for classifying pattern in image
JP7053014B2 (ja) モーション判定装置、モーション判定方法、及びプログラム
AU2020294217A1 (en) Gesture recognition method and apparatus, electronic device, and storage medium
US10909402B2 (en) Information processing apparatus, information processing method, and storage medium
JPWO2015145977A1 (ja) 情報処理装置、画像処理方法とプログラム、ならびに、pos端末装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20180404

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220301

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220324

R150 Certificate of patent or registration of utility model

Ref document number: 7053014

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150