JP2020119435A - 動作判別装置、コンピュータプログラム、および記憶媒体 - Google Patents

動作判別装置、コンピュータプログラム、および記憶媒体 Download PDF

Info

Publication number
JP2020119435A
JP2020119435A JP2019012198A JP2019012198A JP2020119435A JP 2020119435 A JP2020119435 A JP 2020119435A JP 2019012198 A JP2019012198 A JP 2019012198A JP 2019012198 A JP2019012198 A JP 2019012198A JP 2020119435 A JP2020119435 A JP 2020119435A
Authority
JP
Japan
Prior art keywords
body part
processor
ratio
occupant
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019012198A
Other languages
English (en)
Other versions
JP7265873B2 (ja
Inventor
佑記 名和
Yuki Nawa
佑記 名和
井東 道昌
Michimasa Ito
道昌 井東
圭吾 多田
Keigo Tada
圭吾 多田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokai Rika Co Ltd
Original Assignee
Tokai Rika Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokai Rika Co Ltd filed Critical Tokai Rika Co Ltd
Priority to JP2019012198A priority Critical patent/JP7265873B2/ja
Publication of JP2020119435A publication Critical patent/JP2020119435A/ja
Application granted granted Critical
Publication of JP7265873B2 publication Critical patent/JP7265873B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

【課題】車室内の乗員による回転動作と払い動作の検出精度を高める。【解決手段】プロセッサは、車室内の乗員の手の位置を示すデータセットを受け付ける(STEP11)。プロセッサは、手の移動軌跡の重心位置を特定する(STEP12)。プロセッサは、重心位置から前記移動軌跡までの最短距離と最長距離の比を算出する(STEP13)。プロセッサは、算出された比の値が閾値以上である場合に、乗員が手で回転動作を行なったと判別する(STEP15)。【選択図】図4

Description

本発明は、車室内の乗員による動作を判別する装置に関連する。本発明は、当該装置が備えているプロセッサにより実行されるコンピュータプログラム、および当該コンピュータプログラムが記憶された記憶媒体にも関連する。
特許文献1に開示されているように、カメラで撮影したユーザの手の動きに基づいて、所望の処理に関連付けられた動作を検出する装置が知られている。
特開2001−306243号公報
本発明の目的は、車室内の乗員による回転動作と払い動作の検出精度を高めることである。
上記の目的を達成するための一態様は、動作判別装置であって、
車室内の乗員の身体部位の位置を示すデータセットを受け付ける入力インターフェースと、
前記データセットに基づいて前記身体部位による動作を判別するプロセッサと、
を備えており、
前記プロセッサは、
前記身体部位の移動軌跡の重心位置を特定し、
前記重心位置から前記移動軌跡までの最短距離と最長距離の比を算出し、
前記比が閾値以上である場合に、前記乗員が前記身体部位で回転動作を行なったと判別する。
上記の目的を達成するための一態様は、動作判別装置であって、
車室内の乗員の身体部位の位置を示すデータセットを受け付ける入力インターフェースと、
前記データセットに基づいて前記身体部位による動作を判別するプロセッサと、
を備えており、
前記プロセッサは、
前記身体部位の移動軌跡の重心位置を特定し、
前記重心位置から前記移動軌跡までの最短距離と最長距離の比を算出し、
前記比が閾値未満である場合に、前記乗員が前記身体部位で払い動作を行なったと判別する。
上記の目的を達成するための一態様は、車室内の乗員の身体部位の位置を示すデータセットに基づいて、当該身体部位による動作をプロセッサに判別させるコンピュータプログラムであって、
当該コンピュータプログラムが実行されることによって、当該プロセッサに、
前記身体部位の移動軌跡の重心位置を特定させ、
前記重心位置から前記移動軌跡までの最短距離と最長距離の比を算出させ、
前記比が閾値以上である場合に、前記乗員が前記身体部位で回転動作を行なったと判別させる。
上記の目的を達成するための一態様は、車室内の乗員の身体部位の位置を示すデータセットに基づいて、当該身体部位による動作をプロセッサに判別させるコンピュータプログラムであって、
当該コンピュータプログラムが実行されることによって、当該プロセッサに、
前記身体部位の移動軌跡の重心位置を特定させ、
前記重心位置から前記移動軌跡までの最短距離と最長距離の比を算出させ、
前記比が閾値未満である場合に、前記乗員が前記身体部位で払い動作を行なったと判別させる。
車室内の乗員の身体部位による払い動作終了後に元の位置へ当該身体部位を戻す動作は回転動作と誤認されやすい。しかしながら、払い動作と戻し動作時による身体部位の移動軌跡の真円度は、回転動作中の身体部位の移動軌跡の真円度と異なる。上記のような構成によれば、身体部位の移動軌跡の真円度に基づいて回転動作と払い動作の判別が行なわれるので、特に払い動作終了後に元の位置へ身体部位を戻す動作が回転動作と誤認される可能性を抑制できる。したがって、車室内の乗員による回転動作と払い動作の判別精度を高めることができる。
上記の目的を達成するための一態様は、上記のコンピュータプログラムを記憶している記憶媒体である。
一実施形態に係る動作判別システムの構成を例示している。 図1の動作判別システムが搭載される車両の一部を例示している。 図1の動作判別装置により実行される処理を説明するための図である。 図1の動作判別装置により実行される処理の一例を示している。 図1の動作判別装置により実行される処理を説明するための図である。 図1の動作判別装置により実行される処理の別例を示している。
添付の図面を参照しつつ、実施形態例について以下詳細に説明する。以下の説明に用いる各図面では、各部材を認識可能な大きさとするために縮尺を適宜変更している。
図1は、一実施形態に係る動作判別システム1の構成を模式的に示している。動作判別システム1は、TOF(Time of Flight)カメラ2と動作判別装置3を含んでいる。図2は、動作判別システム1が搭載される車両4の一部を示している。矢印Lは、車両4の前後方向に沿う向きを示している。矢印Hは、車両4の高さ方向に沿う向きを示している。
TOFカメラ2は、図2に示される車両4の車室41内における適宜の位置に配置され、車室41内の運転者5の手51を含む画像を取得する。運転者5は、乗員の一例である。手51は、身体部位の一例である。
図1に示されるように、TOFカメラ2は、取得された画像に対応する画像データセットIDを出力する。画像データセットIDは、複数の画素データセットを含んでいる。複数の画素データセットの各々は、取得された画像を構成する複数の画素の対応する一つに関連づけられている。
TOFカメラ2は、発光素子と受光素子を備えている。発光素子は、検出光として例えば赤外光を出射する。出射された検出光は、対象物によって反射され、戻り光として受光素子に入射する。検出光が発光素子より出射されてから戻り光が受光素子に入射するまでの時間が測定されることにより、戻り光を生じた対象物までの距離が算出される。TOFカメラ2により取得される画像を構成する複数の画素の各々について当該距離が算出されることにより、各画素は、画像における二次元的な位置座標(U,V)に加えて、当該画素に対応する対象物の一部までの距離(奥行き)を示す距離情報d(U,V)を含む。
したがって、TOFカメラ2から出力される画像データセットIDに含まれる画素データセットの各々は、位置座標(U,V)と距離情報d(U,V)を含む。
動作判別装置3は、車両4における適宜の位置に搭載される。動作判別装置3は、TOFカメラ2から提供される画像データセットIDに基づいて、運転者5の手51による動作を判別し、当該動作に関連付けられた機能を発揮させるための信号あるいはデータを生成する装置である。
図1に示されるように、動作判別装置3は、入力インターフェース31を備えている。入力インターフェース31は、TOFカメラ2から出力された画像データセットIDを受け付ける。
動作判別装置3は、プロセッサ32を備えている。プロセッサ32は、入力インターフェース31に入力された画像データセットIDに基づいて、運転者5の手51による回転動作と払い動作を判別する処理を実行する。
図3の(A)は、手51による回転動作を示している。運転者5が円弧状の軌跡を描くように手51を動かすことにより、回転動作が成立する。図3の(B)は、手51による払い動作を示している。運転者5が例えば左上方から右下方へ斜めに手51を動かすことにより、払い動作が成立する。
しかしながら、回転動作を行なおうとする運転者5の手51が必ずしも真円に近い軌跡を描くように動くとは限らない。他方、払い動作を行なった後の運転者5の手51が元の位置に戻される際、図3の(B)に破線で示されるように、意図せず円弧状の軌跡を描いてしまう場合がある。回転動作の軌跡が真円から逸脱するほど、払い動作の軌跡が円弧状に近づくほど、両動作の識別が難しくなる。
この問題に対処するために、動作判別装置3は、運転者5の手51の移動軌跡の真円度に着目する。図3の(A)と(B)において、符号Gは、手51の移動軌跡の重心位置を示している。符号L1は、重心位置Gから移動軌跡までの最短距離を示している。符号L2は、重心位置Gから移動軌跡までの最長距離を示している。
両図の比較から判るように、回転動作による移動軌跡と、払い動作および戻し動作による移動軌跡とでは、真円度が相違している。回転動作による移動軌跡の真円度は、比較的高い。払い動作および戻し動作による移動軌跡の真円度は、比較的低い。重心位置Gから移動軌跡までの最短距離L1と最長距離L2の比は、この真円度に対応する値となりうる。プロセッサ32は、この相違点に基づいて回転動作と払い動作の識別を行なう。図4は、プロセッサ32により行なわれる処理の一例を示している。
プロセッサ32は、TOFカメラ2から出力された画像データセットIDに基づいて、運転者5の手51の三次元空間における位置を示す位置データセットPDを取得する(STEP11)。
画像データセットIDの各画素データに含まれる位置座標(U,V)と距離情報d(U,V)は、画像中心座標が(cX,cY)と定義された場合、次式を用いてカメラ座標系における三次元空間上の点(X,Y,Z)に変換されうる。fは、TOFカメラが備えるレンズの焦点距離を表している。
Figure 2020119435
プロセッサ32は、上式に基づいて、位置座標(U,V)と距離情報d(U,V)からカメラ座標系における三次元空間上の点(X,Y,Z)への変換を行なう。なお、位置座標(U,V)と距離情報d(U,V)からカメラ座標系における三次元空間上の点(X,Y,Z)への変換は、TOFカメラ2に内蔵されたプロセッサによって行なわれてもよい。この場合、TOFカメラ2から出力される画像データセットIDに含まれる複数の画素データセットの各々は、位置座標(X,Y,Z)を含む。
カメラ座標系における位置座標(X,Y,Z)は、車両4における特定の位置を原点とする車両座標系における位置座標(L,W,H)に変換されうる。例えば、運転席における特定の位置を原点とした場合、W軸の座標値は、運転者5から見て原点よりも右方において正の値をとり、原点よりも左方において負の値をとる。例えば、L軸の座標値は、原点よりも前方において正の値をとり、原点よりも後方において負の値をとる。例えば、H軸の座標値は、原点よりも上方において正の値をとり、原点よりも下方において負の値をとる。
続いてプロセッサ32は、画像データセットIDにおいて運転者5の手51が含まれる可能性がある領域を特定する。当該領域の特定は、人の手の形状的特徴を検出することにより行なわれる。形状的特徴は、複数の画素データセットに基づく適宜の画像認識技術を用いて検出されてもよいし、位置データセットPDに含まれる複数の点要素の各々が有している三次元空間における位置情報に基づいて検出されてもよい。
手51の三次元空間における位置は、例えば、手51として検出された複数の画素あるいは複数の点要素の重心位置として特定されうる。あるいは、指先、手首、掌などの特徴点に対応する位置として特定されうる。
続いてプロセッサ32は、手51の移動軌跡の重心位置Gを特定する(STEP12)。重心位置Gは、手51の三次元空間における位置の経時変化をモニタすることにより特定されうる。
続いてプロセッサ32は、重心位置Gから移動軌跡までの最短距離L1と最長距離L2を特定し、両者の比(L1/L2)を算出する(STEP13)。さらにプロセッサ32は、算出された比の値が閾値以上であるかを判断する(STEP14)。閾値は、0より大きく1より小さい値として適宜設定される。
前述したように、回転動作中における手51の移動軌跡の真円度は比較的高いので、重心位置Gから移動軌跡までの最短距離L1と最長距離L2の比(L1/L2)の値は1に近づく。したがって、比の値が閾値以上であると判断されると(STEP14においてYES)、プロセッサ32は、手51による回転動作を判別する(STEP15)。
他方、払い動作中における手51の移動軌跡の真円度は比較的低いので、重心位置Gから移動軌跡までの最短距離L1と最長距離L2の比の値(L1/L2)は0に近づく。比の値が閾値未満であると判断されると(STEP14においてNO)、プロセッサ32は、手51による払い動作を判別する(STEP16)。
図1に示されるように、動作判別装置3は、出力インターフェース33を備えている。出力インターフェース33は、判別された動作を示すデータGDを出力しうる。出力されたデータGDは、例えば、当該データが示す手51の動作に対応付けられた車載装置の機能を起動するために利用されうる。
払い動作終了後に元の位置へ手を戻す動作は回転動作と誤認されやすい。しかしながら、払い動作と戻し動作による手51の移動軌跡の真円度は、回転動作中の手51の移動軌跡の真円度と異なる。上記のような構成によれば、手51の移動軌跡の真円度に基づいて回転動作と払い動作の判別が行なわれるので、特に払い動作終了後に元の位置へ手を戻す動作が回転動作と誤認される可能性を抑制できる。したがって、車室41内の運転者5による回転動作と払い動作の判別精度を高めることができる。
図5の(A)は、回転動作中における手51の移動速度の経時変化の一例を示している。手51による回転動作は、時刻t1に開始される。時刻t2に最高速度Vmに達した後は、ほぼ一定の速度で円弧を描く動作がなされる。時刻t3において減速が開始され、時刻t4において回転動作が終了される。
図5の(B)は、払い動作中における手51の移動速度の経時変化の一例を示している。手51による払い動作は、時刻t1に開始される。時刻t2に最高速度Vmに達した後、減速を経て時刻t3に払い動作が終了される。時刻t4から時刻t5の間に現れる加速と減速は、図3の(B)において破線で示される手51を戻す動作に対応している。
両図の比較から判るように、回転動作と払い動作とでは、手51の移動速度の分布幅が相違している。回転動作中における手51の移動速度の分布幅は比較的小さいのに対して、払い動作中における手51の移動速度の分布幅は比較的大きい。動作判別装置3は、手51の移動速度の分布幅に基づく回転動作と払い動作の識別をさらに行ないうる。
具体的には、手51の重心位置Gから移動軌跡までの最短距離L1と最長距離L2の比の値(L1/L2)が閾値以上である場合(図4のSTEP14においてNO)、プロセッサ32は、手51の移動速度の経時変化を取得する(STEP17)。手51の移動速度は、上記のようにして特定された手51の位置の経時変化をモニタすることによって取得されうる。
続いてプロセッサ32は、手51の移動速度の分布幅が閾値未満であるかを判断する(STEP18)。移動速度の分布幅は、STEP12において取得された移動速度のピークトゥピーク値、分散値、標準偏差などを演算することにより取得されうる。
図5の(A)に示されるように、回転動作中における手51の移動速度の分布幅は比較的小さい。したがって、手51の移動速度の分布幅が所定値未満であると判断されると(図4のSTEP18においてYES)、プロセッサ32は、手51による回転動作を判別する(STEP15)。先の払い動作の判別結果は、キャンセルされる。
他方、図5の(B)に示されるように、払い動作中における手51の移動速度の分布幅は比較的大きい。したがって、手51の移動速度の分布幅が所定値以上であると判断されると(図4のSTEP18においてNO)、先の払い動作の判別結果を確定する(STEP16)。
上記のような構成によれば、手51の移動軌跡の真円度に基づいてなされた判別結果の検証を、手51の移動速度の分布幅に基づいて行なうことができる。したがって、手51による回転動作と払い動作の判別精度を高めることができる。
図4に示された例においては、手51の移動軌跡の真円度に基づいて払い動作が判別された場合(STEP14においてNO)に、手51の移動速度の分布幅に基づく判別処理が開始されるように構成されている。しかしながら、手51の移動軌跡の真円度に基づいて回転動作が判別された場合(STEP14においてYES)に、手51の移動速度の分布幅に基づく判別処理が開始されるように構成されてもよい。この場合、先の回転動作の判別結果が確定またはキャンセルの対象となる。
動作判別装置3は、運転者5の手51の移動速度の変化履歴に着目することによって回転動作と払い動作の判別を行なうこともできる。図5の(B)に示されるように、手51により払い動作と戻り動作がなされると、手51の移動速度は、ある程度の速度まで一旦低下した後で再度上昇している。他方、図5の(A)に示されるように、手51により回転動作がなされると、手51の移動速度は、最高速度Vmに到達してから動作終了時の減速が開始されるまで、ほぼ一定の値で推移する。プロセッサ32は、手51の移動速度の変化履歴がこのような減速と再加速を含んでいるかに基づいて、回転動作と払い動作の識別を行ないうる。
図6は、プロセッサ32により行なわれる処理の別例を示している。図4に示される処理と共通する要素については、同一の符号が付与されている。
手51の重心位置Gから移動軌跡までの最短距離L1と最長距離L2の比の値(L1/L2)が閾値以上である場合(STEP14においてNO)、プロセッサ32は、手51の移動開始時点と移動終了時点を特定する(STEP27)。図5の(A)に示される例においては、移動開始時点は時刻t1であり、移動終了時点は時刻t4である。図5の(B)に示される例においては、移動開始時点は時刻t1であり、移動終了時点は時刻t5である。
手51の移動開始時点は、例えば、手51の速度が実質的にゼロである期間が所定の長さ以上続いた後に加速が開始された時点として特定されうる。手の移動終了時点は、例えば、手51の減速後に速度が実質的にゼロである期間が所定の長さ以上続いた時点として特定されうる。
続いてプロセッサ32は、特定された手51の移動開始時点から移動終了時点までの間に、手51の移動速度が閾値速度Vt未満まで減速された後に再加速されたかを判断する(図6のSTEP28)。閾値速度Vtは、図5の(B)に示されるように、払い動作の終了を判断しうる程度の速度値として設定される。換言すると、手51の移動速度が最高速度Vmに到達した後に閾値速度Vt未満までの減速と閾値速度Vtを超える再加速がなされたかが判断される。
図5の(A)に示されるように、回転動作中における手51の移動速度は、最高速度Vmに到達した後の閾値速度Vt未満までの減速と再加速を伴わない。したがって、手51の移動速度の経時変化履歴に閾値速度Vt未満までの減速と再加速が含まれていないと判断されると(図6のSTEP28においてNO)、プロセッサ32は、手51による回転動作を判別する(STEP15)。先の払い動作の判別結果は、キャンセルされる。
他方、手51の移動速度の経時変化履歴に閾値速度Vt未満までの減速と再加速が含まれていると判断されると(STEP28においてYES)、プロセッサ32は、先の払い動作の判別結果を確定する(STEP16)。
上記のような構成によれば、手51の移動軌跡の真円度に基づいてなされた判別結果の検証を、手51の移動速度の経時変化履歴に基づいて行なうことができる。したがって、手51による回転動作と払い動作の判別精度を高めることができる。
図6に示された例においては、手51の移動軌跡の真円度に基づいて払い動作が判別された場合(STEP14においてNO)に、手51の移動速度の経時変化履歴に基づく判別処理が開始されるように構成されている。しかしながら、手51の移動軌跡の真円度に基づいて回転動作が判別された場合(STEP14においてYES)に、手51の移動速度の経時変化履歴に基づく判別処理が開始されるように構成されてもよい。この場合、先の回転動作の判別結果が確定またはキャンセルの対象となる。
上述したプロセッサ32の機能は、汎用メモリと協働して動作する汎用マイクロプロセッサにより実現されうる。汎用マイクロプロセッサとしては、CPU、MPU、GPUが例示されうる。汎用メモリとしては、ROMやRAMが例示されうる。この場合、ROMには、上述した処理を実行するコンピュータプログラムが記憶されうる。ROMは、コンピュータプログラムを記憶している記憶媒体の一例である。プロセッサ32は、ROM上に記憶されたプログラムの少なくとも一部を指定してRAM上に展開し、RAMと協働して上述した処理を実行する。プロセッサ32は、上述した処理を実現するコンピュータプログラムを実行可能なマイクロコントローラ、ASIC、FPGAなどの専用集積回路によって実現されてもよい。プロセッサ32は、汎用マイクロプロセッサと専用集積回路の組合せによって実現されてもよい。
図1に示されるように、動作判別装置3は、ネットワーク6を介して外部サーバ7と通信可能に構成されうる。この場合、上述した処理を実行するコンピュータプログラムは、外部サーバ7からネットワーク6を介してダウンロードされうる。外部サーバ7は、コンピュータプログラムを記憶している記憶媒体の一例である。
上記の実施形態は、本発明の理解を容易にするための例示にすぎない。上記の実施形態に係る構成は、本発明の趣旨を逸脱しなければ、適宜に変更・改良されうる。
上記の実施形態において、動作判別装置3は、運転者5の手51による回転動作と払い動作を判別かつ識別可能に構成されている。しかしながら、動作判別装置3は、手51による回転動作のみを判別する装置としても構成されうる。あるいは、動作判別装置3は、手51による払い動作のみを判別する装置としても構成されうる。
上記の実施形態において、動作判別装置3の入力インターフェース31は、位置データセットPDを、画像データセットIDの一部としてTOFカメラ2から受け付けている。このような構成によれば、運転者5の手51が含まれている可能性が高い領域を特定するために使用される画像データセットIDと位置データセットPDを、効率的に取得できる。しかしながら、画像データセットIDを出力する撮像装置と、位置データセットPDを出力する装置は、異なっていてもよい。そのような装置としては、LiDAR(Light Detection and Ranging)センサなどが例示されうる。
上記の実施形態においては、車室41内における運転者5の手51が判別に供されている。しかしながら、回転動作と払い動作を行ないうるのであれば、他の身体部位が判別に供されてもよい。そのような身体部位としては、鼻先、顎、額、肘、膝などが例示されうる。また、画像データセットIDと位置データセットPDを出力する装置を適宜に配置することにより、他の乗員の身体部位が判別に供されてもよい。
2:TOFカメラ、3:動作判別装置、31:入力インターフェース、32:プロセッサ、41:車室、5:運転者、51:手、7:外部サーバ、PD:位置データセット、G:移動軌跡の重心位置、L1:重心位置から移動軌跡までの最短距離、L2:重心位置から移動軌跡までの最長距離、Vt:閾値速度

Claims (12)

  1. 車室内の乗員の身体部位の位置を示すデータセットを受け付ける入力インターフェースと、
    前記データセットに基づいて前記身体部位による動作を判別するプロセッサと、
    を備えており、
    前記プロセッサは、
    前記身体部位の移動軌跡の重心位置を特定し、
    前記重心位置から前記移動軌跡までの最短距離と最長距離の比を算出し、
    前記比が閾値以上である場合に、前記乗員が前記身体部位で回転動作を行なったと判別する、
    動作判別装置。
  2. 前記プロセッサは、前記比が前記閾値未満である場合に、前記乗員が前記身体部位で払い動作を行なったと判別する、
    請求項1に記載の動作判別装置。
  3. 前記プロセッサは、前記比が前記閾値未満である場合に、
    前記身体部位の移動速度の経時変化を取得し、
    前記経時変化における前記移動速度の分布幅が閾値未満である場合に、前記乗員が前記身体部位で回転動作を行なったと判別する、
    請求項1に記載の動作判別装置。
  4. 前記プロセッサは、前記比が前記閾値未満である場合に、
    前記身体部位の移動開始時点と移動終了時点を特定し、
    前記移動開始時点から前記移動終了時点までの間に、前記身体部位の移動速度が閾値未満まで減速された後に再加速されたかを判定し、
    前記再加速が判定されなかった場合に、前記乗員が前記身体部位で回転動作を行なったと判別する、
    請求項1に記載の動作判別装置。
  5. 車室内の乗員の身体部位の位置を示すデータセットを受け付ける入力インターフェースと、
    前記データセットに基づいて前記身体部位による動作を判別するプロセッサと、
    を備えており、
    前記プロセッサは、
    前記身体部位の移動軌跡の重心位置を特定し、
    前記重心位置から前記移動軌跡までの最短距離と最長距離の比を算出し、
    前記比が閾値未満である場合に、前記乗員が前記身体部位で払い動作を行なったと判別する、
    動作判別装置。
  6. 前記プロセッサは、前記比が前記閾値以上である場合に、
    前記身体部位の移動速度の経時変化を取得し、
    前記経時変化における前記移動速度の分布幅が閾値以上である場合に、前記乗員が前記身体部位で払い動作を行なったと判別する、
    請求項5に記載の動作判別装置。
  7. 前記プロセッサは、前記比が前記閾値以上である場合に、
    前記身体部位の移動開始時点と移動終了時点を特定し、
    前記移動開始時点から前記移動終了時点までの間に、前記身体部位の移動速度が閾値未満まで減速された後に再加速されたかを判定し、
    前記再加速が判定された場合に、前記乗員が前記身体部位で払い動作を行なったと判別する、
    請求項5に記載の動作判別装置。
  8. 前記身体部位は手である、
    請求項1から7のいずれか一項に記載の動作判別装置。
  9. 前記データセットは、TOFカメラより取得される、
    請求項1から8のいずれか一項に記載の動作判別装置。
  10. 車室内の乗員の身体部位の位置を示すデータセットに基づいて、当該身体部位による動作をプロセッサに判別させるコンピュータプログラムであって、
    当該コンピュータプログラムが実行されることによって、当該プロセッサに、
    前記身体部位の移動軌跡の重心位置を特定させ、
    前記重心位置から前記移動軌跡までの最短距離と最長距離の比を算出させ、
    前記比が閾値以上である場合に、前記乗員が前記身体部位で回転動作を行なったと判別させる、
    コンピュータプログラム。
  11. 車室内の乗員の身体部位の位置を示すデータセットに基づいて、当該身体部位による動作をプロセッサに判別させるコンピュータプログラムであって、
    当該コンピュータプログラムが実行されることによって、当該プロセッサに、
    前記身体部位の移動軌跡の重心位置を特定させ、
    前記重心位置から前記移動軌跡までの最短距離と最長距離の比を算出させ、
    前記比が閾値未満である場合に、前記乗員が前記身体部位で払い動作を行なったと判別させる、
    コンピュータプログラム。
  12. 請求項10または11に記載のコンピュータプログラムを記憶している記憶媒体。
JP2019012198A 2019-01-28 2019-01-28 動作判別装置、コンピュータプログラム、および記憶媒体 Active JP7265873B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019012198A JP7265873B2 (ja) 2019-01-28 2019-01-28 動作判別装置、コンピュータプログラム、および記憶媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019012198A JP7265873B2 (ja) 2019-01-28 2019-01-28 動作判別装置、コンピュータプログラム、および記憶媒体

Publications (2)

Publication Number Publication Date
JP2020119435A true JP2020119435A (ja) 2020-08-06
JP7265873B2 JP7265873B2 (ja) 2023-04-27

Family

ID=71890963

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019012198A Active JP7265873B2 (ja) 2019-01-28 2019-01-28 動作判別装置、コンピュータプログラム、および記憶媒体

Country Status (1)

Country Link
JP (1) JP7265873B2 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007172577A (ja) * 2005-11-25 2007-07-05 Victor Co Of Japan Ltd 操作情報入力装置
JP2009059108A (ja) * 2007-08-30 2009-03-19 Toshiba Corp 情報処理装置、プログラム及び情報処理方法
JP2010211781A (ja) * 2009-02-12 2010-09-24 Sony Corp 動作認識装置、動作認識方法、プログラム
JP2014134919A (ja) * 2013-01-09 2014-07-24 Ntt Docomo Inc 表示装置及び表示方法
JP2017097607A (ja) * 2015-11-24 2017-06-01 矢崎総業株式会社 画像認識装置
JP2017194767A (ja) * 2016-04-19 2017-10-26 株式会社東海理化電機製作所 ジェスチャ判定装置
JP2018010539A (ja) * 2016-07-14 2018-01-18 株式会社東海理化電機製作所 画像認識装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007172577A (ja) * 2005-11-25 2007-07-05 Victor Co Of Japan Ltd 操作情報入力装置
JP2009059108A (ja) * 2007-08-30 2009-03-19 Toshiba Corp 情報処理装置、プログラム及び情報処理方法
JP2010211781A (ja) * 2009-02-12 2010-09-24 Sony Corp 動作認識装置、動作認識方法、プログラム
JP2014134919A (ja) * 2013-01-09 2014-07-24 Ntt Docomo Inc 表示装置及び表示方法
JP2017097607A (ja) * 2015-11-24 2017-06-01 矢崎総業株式会社 画像認識装置
JP2017194767A (ja) * 2016-04-19 2017-10-26 株式会社東海理化電機製作所 ジェスチャ判定装置
JP2018010539A (ja) * 2016-07-14 2018-01-18 株式会社東海理化電機製作所 画像認識装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
M.K. BHUYAN ET AL.: "FeatureExtraction from 2D Gesture Trajectory in Dynamic Hand Gesture Recognition", [ONLINE], JPN6022033610, 2006, ISSN: 0004849343 *
山賀 進(SUSUMU YAMAGA): "だ円(楕円)", [ONLINE], JPN7023000195, 5 January 2004 (2004-01-05), ISSN: 0005033278 *

Also Published As

Publication number Publication date
JP7265873B2 (ja) 2023-04-27

Similar Documents

Publication Publication Date Title
JP6350145B2 (ja) 顔向き検出装置及び車両用警告システム
CA3010997C (en) Passenger counting device, system, method and program, and vehicle movement amount calculation device, method and program
JP6688990B2 (ja) 識別装置、識別方法、識別プログラムおよび記録媒体
JP2002059796A (ja) カメラ画像に基づいて道路使用者および障害物を検出し、観察者との距離を求めてクラシフィケーションする方法および装置
JP5753509B2 (ja) 被測定物情報取得装置
JP2004503759A (ja) 乗員センサ
JP6722051B2 (ja) 物体検出装置、及び物体検出方法
CN109643372A (zh) 一种识别方法、设备以及可移动平台
JP2010113506A (ja) 乗員位置検出装置、乗員位置検出方法及び乗員位置検出プログラム
JP2009237897A (ja) 画像認識装置
JP2021026557A (ja) 障害物検知装置
JP7212531B2 (ja) 動作判別装置、コンピュータプログラム、および記憶媒体
JP7265873B2 (ja) 動作判別装置、コンピュータプログラム、および記憶媒体
JP2017111508A (ja) 情報処理装置、情報処理システム、および、情報処理方法
JP5248388B2 (ja) 障害物危険度算出装置、方法及びプログラム
JP2007233440A (ja) 車載用画像処理装置
CN114467111B (zh) 物体识别方法及物体识别装置
JP7240193B2 (ja) 顔方向判別装置、コンピュータプログラム、および記憶媒体
JP7079188B2 (ja) 乗員判別装置、コンピュータプログラム、および記憶媒体
JP7079187B2 (ja) 乗員判別装置、コンピュータプログラム、および記憶媒体
JP7053341B2 (ja) 処理装置、及びプログラム
JP7195963B2 (ja) 頭部判別装置、コンピュータプログラム、および記憶媒体
JP2020117184A (ja) 動作認識装置、コンピュータプログラム、および記憶媒体
JP2017211765A (ja) 物体認識装置
JP2017174015A (ja) 移動軌跡検出装置、移動物体検出装置、移動軌跡検出方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210827

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220805

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220816

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230317

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230411

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230417

R150 Certificate of patent or registration of utility model

Ref document number: 7265873

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150