JP2010165223A - 操作推定装置およびプログラム - Google Patents

操作推定装置およびプログラム Download PDF

Info

Publication number
JP2010165223A
JP2010165223A JP2009007616A JP2009007616A JP2010165223A JP 2010165223 A JP2010165223 A JP 2010165223A JP 2009007616 A JP2009007616 A JP 2009007616A JP 2009007616 A JP2009007616 A JP 2009007616A JP 2010165223 A JP2010165223 A JP 2010165223A
Authority
JP
Japan
Prior art keywords
operation target
target
estimation
operator
driver
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009007616A
Other languages
English (en)
Other versions
JP4973667B2 (ja
Inventor
Hiroshi Morimoto
寛 森本
Takahiro Ishikawa
貴洋 石川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2009007616A priority Critical patent/JP4973667B2/ja
Publication of JP2010165223A publication Critical patent/JP2010165223A/ja
Application granted granted Critical
Publication of JP4973667B2 publication Critical patent/JP4973667B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】操作者の操作内容の推定のための演算量と、誤推定の頻度を低減
【解決手段】操作対象11〜17と操作対象を運転者とを含む画像(以下、操作画像という)を繰り返し取得して、運転者の姿勢を表す人体特徴点を特定する。またセンサ群3が、操作対象11〜17の中から、運転者が操作している操作対象を検出する。そしてセンサ群3による検出結果に基づき、運転者が操作している又は直前に操作していた操作対象(以下、最終操作対象という)を特定する。さらに、操作対象を操作する運転者が辿ると推定される姿勢軌跡をその操作内容毎にモデル化してなる複数の遷移推定モデルの中から、最終操作対象を起点とした推定姿勢軌跡をモデル化したモデルを選択し、操作画像毎に特定された人体特徴点を用いて求められる運転者の姿勢軌跡と、選択された遷移推定モデルとを照合し、運転者の操作内容を推定する。
【選択図】図1

Description

本発明は、操作者が実施しようとしている操作内容を推定するための操作推定装置およびプログラムに関する。
近年、ビデオ映像を利用して人間の姿勢を推定する技術が提案されている。具体的には、画像中における人間が撮影されている領域について、身体を模擬的に表現してなる身体モデルを画像中の人間の姿勢に合わせて重ね合わせ、その身体モデルにおける人体特徴点(肩、肘、手首など)の位置(座標)を特定することにより、人間の姿勢を推定する技術である(例えば、特許文献1を参照)。
しかし特許文献1に記載の技術では、人間の姿勢を推定することはできても、その人間が何らかの操作対象を操作しようとしているか否か、および、どの操作対象を操作しようとしているのかを推定することはできなかった。
例えば、車両を運転する運転者がステアリングやナビゲーション装置などの車載機器を操作する動作を行う場合に、特許文献1に記載の技術では、運転者の姿勢を推定することができるが、運転者がステアリングやナビゲーション装置などを操作しようとしているということまで推定することができない。
そこで、操作対象を操作する操作者が辿ると推定される姿勢軌跡(推定姿勢軌跡)をその操作内容毎にモデル化してなる遷移推定モデルそれぞれと、撮影した画像毎の人体特徴点それぞれから求められる操作者の姿勢軌跡(実姿勢軌跡)とを照合し、遷移推定モデルでモデル化された推定姿勢軌跡のうち、実姿勢軌跡との近似度が所定のしきい値以上となる推定姿勢軌跡が、操作者が実施しようとしている操作内容であると推定する技術が提案されている(例えば、特許文献2を参照)。なお、上記の操作内容とは、例えば、運転者がステアリングを握っている状態からナビゲーション装置を操作する状態に遷移することや、運転者がエアコンを操作している状態からステアリングを握る状態に遷移すること等である。
特開2003−109015号公報 特開2008−140268号公報
しかしながら、上記特許文献2に記載の技術では、予め用意されている全ての遷移推定モデルと、運転者の実姿勢軌跡とを照合する。すなわち、運転者の現時点の姿勢では行うことができない操作内容をモデル化した遷移推定モデルについても実姿勢軌跡との照合を行う。例えば、運転者がナビゲーション装置を操作している状態において、「ステアリングからシフトレバーへ遷移する行動」や「ステアリングからエアコンへ遷移する行動」を操作内容の候補として照合を行う。このため、運転者が操作する操作対象の数の増加に伴って、照合のための演算量が膨大になるという問題があった。なぜならば、遷移推定モデルの数は、運転者が操作する操作対象の組合せの数だけ必要であり、操作対象の数の増加に対して指数関数的に増大するからである。
また、予め用意されている全ての遷移推定モデルと運転者の実姿勢軌跡とを照合するため、運転者の現時点の姿勢では行うことができない操作内容を、運転者が実施しようとしている操作内容であると推定してしまうおそれがある。
本発明は、こうした問題に鑑みてなされたものであり、操作者が実施しようとしている操作内容を推定する場合に、推定のための演算量と、誤推定の頻度を低減することができる技術を提供することを目的とする。
上記目的を達成するためになされた請求項1に記載の操作推定装置では、まず画像取得手段が、複数の操作対象と操作対象を操作可能な位置に存在する操作者とを含む画像である操作画像を繰り返し取得し、そして人体特徴点特定手段が、画像取得手段により取得された操作画像を用いて、操作者の姿勢を表す所定の人体特徴点を特定する。また推定モデル記憶手段が、操作対象を操作する操作者が辿ると推定される姿勢軌跡である推定姿勢軌跡をその操作内容毎にモデル化してなる複数の遷移推定モデルを記憶するとともに、操作検出手段が、複数の操作対象の中から、操作者が操作している操作対象である操作中操作対象を検出する。
そして操作対象特定手段が、操作検出手段による検出結果に基づいて、操作者が操作している又は操作者が直前に操作していた操作対象である最終操作対象を特定する。
さらにモデル選択手段が、推定モデル記憶手段が記憶する複数の遷移推定モデルの中から、操作対象特定手段が特定した最終操作対象を起点とした推定姿勢軌跡をモデル化した遷移推定モデルを選択する。その後に操作推定手段が、人体特徴点特定手段により操作画像毎に特定された人体特徴点を用いて求められる操作者の姿勢軌跡である実姿勢軌跡と、モデル選択手段により選択された遷移推定モデルとを照合し、この照合結果に基づいて、操作者の操作内容を推定する。
このように構成された操作推定装置によれば、複数の遷移推定モデルの中から、最終操作対象を起点とした推定姿勢軌跡をモデル化した遷移推定モデルを選択し、この選択した遷移推定モデルと、実姿勢軌跡とを照合することにより操作者の操作内容を推定することができる。このため、推定モデル記憶手段が記憶する遷移推定モデルの全てと実姿勢軌跡とを照合する場合と比較して、照合に用いられる遷移推定モデルの数を低減することができる。これにより、操作推定手段が推定処理を行うための演算量を低減することができる。なお、この低減効果は、操作対象の数が多くなるほど大きい。
また操作対象特定手段が、操作者が操作している又は操作者が直前に操作していた操作対象(最終操作対象)を特定し、この最終操作対象を起点とした推定姿勢軌跡をモデル化した遷移推定モデルを用いて照合を行うので、操作対象特定手段が特定した最終操作対象以外を起点とした操作内容を操作者が実施していると推定することがない。すなわち、操作対象特定手段が特定した操作対象を操作者が操作している状態を起点とした操作内容を操作者が実施する場合に、操作者が操作している操作対象以外を起点とした操作内容を操作者が実施していると推定することがない。このため、操作者の現時点の姿勢では行うことができない操作内容を、操作者の操作内容であると推定しまう可能性を低減することができる。つまり、誤推定の頻度を低減することができる。
なお上記の操作推定手段は、具体的には、特許文献2に記載されている手法を用いて推定を行うようにしてもよい。すなわち、推定姿勢軌跡をモデル化した遷移推定モデルと、上記の実姿勢軌跡とを照合し、最も近似度が高い推定姿勢軌跡に対応する操作内容を操作者が実施しようとしていると推定する手法である。
また上記の人体特徴点特定手段は、具体的には、特許文献1に記載されている手法を用いて特定を行うようにしてもよい。すなわち、画像中の操作者に対応する領域に、身体を模擬的に表現してなる身体モデルを、その操作者の姿勢に合わせて重ね合わせ、その身体モデルにおける1以上の人体特徴点の位置それぞれを特定する手法である。
また、上記の操作対象特定手段は、具体的には、以下の手法を用いて特定を行うようにしてもよい。すなわち、まず、操作検出手段が操作中操作対象を検出している最中には、この操作中操作対象を最終操作対象として特定する。つまり、この時に特定した最終操作対象は、上記の「操作者が操作している操作対象」に相当する。その後、操作検出手段が操作中操作対象を検出しなくなってから所定時間が経過するまでは、操作検出手段が操作中操作対象を検出しなくなるまで検出していた操作中操作対象を最終操作対象として特定する。つまり、この時に特定した最終操作対象は、上記の「操作者が直前に操作していた操作対象に相当する。また、上記の「操作者が直前に操作していた操作対象」における「直前」とは、「操作検出手段が操作中操作対象を検出しなくなってから所定時間が経過するまで」のことをいう。
また請求項1に記載の操作推定装置において、請求項2に記載のように、モデル選択手段は、操作対象特定手段が最終操作対象を特定することができない場合には、操作検出手段の検出対象となっていない操作対象を起点とした推定姿勢軌跡をモデル化した遷移推定モデルを選択するようにしてもよい。
このように構成された操作推定装置によれば、複数の遷移推定モデルの中から、操作検出手段の検出対象となっていない操作対象を起点とした推定姿勢軌跡をモデル化した遷移推定モデルを選択し、この選択した遷移推定モデルと、実姿勢軌跡とを照合することにより操作者の操作内容を推定することができる。このため、推定モデル記憶手段が記憶する遷移推定モデルの全てと実姿勢軌跡とを照合する場合と比較して、照合に用いられる遷移推定モデルの数を低減することができる。これにより、操作推定手段が推定処理を行うための演算量を低減することができる。
また、操作検出手段の検出対象となっている操作対象を起点とした推定姿勢軌跡をモデル化した遷移推定モデルが除外されているので、操作検出手段の検出対象となっている操作対象を起点とした操作内容を操作者が実施していると推定することがない。すなわち、操作検出手段の検出対象となっていない操作対象を操作者が操作している状態を起点とした操作内容を操作者が実施する場合に、操作検出手段の検出対象となっている操作対象を起点とした操作内容を操作者が実施していると推定することがない。このため、操作者の現時点の姿勢では行うことができない操作内容を、操作者の操作内容であると推定しまう可能性を低減することができる。つまり、誤推定の頻度を低減することができる。
また請求項2に記載の操作推定装置において、操作検出手段の検出対象となっていない操作対象を操作者が操作していると特定するため、すなわち、操作対象特定手段が最終操作対象を特定することができないとするために、請求項3に記載のように、操作対象特定手段は、操作検出手段が操作中操作対象を検出していない状態が予め設定された所定判定時間継続した場合に、最終操作対象を特定することができないとするようにしてもよい。
つまり、操作検出手段が操作中操作対象を検出していない状態が所定判定時間継続した場合には、操作検出手段の検出対象となっていない操作対象を操作者が操作していると看做している。
このように構成された操作推定装置によれば、操作検出手段が操作中操作対象を検出していない状態が継続している時間を計測するという簡便な方法により、操作検出手段の検出対象となっていない操作対象を操作者が操作していると特定することができる。
また請求項2に記載の操作推定装置において、操作検出手段の検出対象となっていない操作対象を操作者が操作していると特定するために、請求項4に記載のように、動作変化量算出手段が、人体特徴点特定手段により操作画像毎に特定された人体特徴点の変化に基づいて、操作者による動作の単位時間当たりの変化量である動作変化量を算出するとともに、操作判断手段が、動作変化量算出手段による算出された動作変化量に基づいて、操作者が操作対象を操作しているか否かを判断し、操作対象特定手段が、操作者が操作対象を操作していると操作判断手段が判断し、且つ、操作検出手段が操作中操作対象を検出していない場合に、最終操作対象を特定することができないとするようにしてもよい。
なお、上記の操作判断手段は、具体的には、以下の手法を用いて判断を行うようにしてもよい。すなわち、動作変化量が予め設定された第1判定変化量を超え、その後に、動作変化量が第1判定変化量より小さく設定された第2判定変化量以下になった場合に、操作者が操作対象を操作していると判断する手法である。
これは、操作者が或る操作対象を触れているときには上記の動作変化量が小さく、その後、この操作対象から他の操作対象に触れようとするときには動作変化量が大きくなり、さらにその後、この他の操作対象に触れると再び動作変化量が小さくなる(動作変化量がほぼ0になる)という考えに基づく。
このように構成された操作推定装置によれば、操作者の実際の動作に基づいて、操作者が操作対象を操作しているか否かを判断できるので、請求項3に記載の手法と比較して、この判断の精度を向上させることができる。
例えば、請求項3に記載の手法では、所定判定時間の長さによっては、操作者が或る操作対象から他の操作対象に触れようとして動作している最中に所定判定時間が経過してしまうことが考えられる。したがって、所定判定時間の長さによっては、操作者が他の操作対象に触れていないにもかかわらず、操作検出手段の検出対象となっていない操作対象を操作者が操作していると判断してしまう頻度が多くなる。
一方、請求項4に記載の手法では、所定判定時間の長さに関係なく、動作変化量が小さくなったときに、操作者が他の操作対象に触れていると判断する。このため、操作者が或る操作対象から他の操作対象に触れようとして動作している最中に、操作検出手段の検出対象となっていない操作対象を操作者が操作していると判断してしまう頻度が少なくなる。
また、請求項5に記載のプログラムは、請求項1〜請求項4の何れかに記載の操作推定装置の各手段としてコンピュータを機能させるためのプログラムである。
このプログラムにより制御されるコンピュータは、請求項1〜請求項4の何れかに記載の操作推定装置の一部を構成することができる。
なお、上述した各プログラムは、各種記録媒体や通信回線を介して、クライアント、サーバ、及びこれを利用するユーザに提供されるものである。
操作支援システム1の全体構成を示すブロック図である。 車両室内、及びカメラにより撮影された車両室内を示す図である。 人体特徴点特定処理を示すフローチャートである。 運転者が各操作対象を操作している様子を示す画像である。 人体特徴点の位置を示す図である。 操作推定処理を示すフローチャートである。 操作状態監視処理を示すフローチャートである。 操作状態リスト43bを示す図である。 第1実施形態の推定モデル選択処理を示すフローチャートである。 遷移推定モデルの選択方法を示す図である。 ステアリング13からナビゲーション装置11へ遷移する場合の遷移推定モデル選択手順を説明するタイムチャートである。 第1実施形態の、ステアリング13から、センサがない操作対象へ遷移する場合の遷移推定モデル選択手順を説明するタイムチャートである。 第2実施形態の推定モデル選択処理を示すフローチャートである。 第2実施形態の、ステアリング13から、センサがない操作対象へ遷移する場合の遷移推定モデル選択手順を説明するタイムチャートである。
(第1実施形態)
以下に本発明の第1実施形態を図面とともに説明する。
図1は本発明が適用された操作支援システム1の全体構成を示すブロック図である。
操作支援システム1は、車両に搭載されており、図1に示すように、車両の運転席及びその周辺を連続して撮影するカメラ2と、車両室内に設定された複数の操作対象が操作されたか否かを検出する複数のセンサ(近接センサ、タッチセンサ、スイッチなど)からなるセンサ群3と、カメラ2による撮影画像とセンサ群3による検出結果とに基づいて運転者の操作を推定する操作推定装置4と、操作推定装置4の推定結果を用いて各種制御を行う車載装置群5とを備えている。
なお本実施形態において、車両室内に設定された複数の操作対象は、図2(a)に示すように、ナビゲーション装置11、エアコン12、ステアリング13、シフトレバー14、コンソールボックス15、グローブボックス16、及びバックミラー17である。
これらのうちカメラ2は、車両室内におけるバックミラー17上部の領域17aにおいて、少なくとも車両の運転者、及び車両室内において運転者が操作しうる操作対象全てを撮影できる位置に取り付けられている。そしてカメラ2は、撮影した画像(図2(b)を参照)を随時、操作推定装置4へ出力する。
またセンサ群3は、図1に示すように、ナビゲーション装置11が操作されたか否かを検出するナビゲーション装置センサ31と、エアコン12が操作されたか否かを検出するエアコンセンサ32と、ステアリング13が操作されたか否かを検出するステアリングセンサ33と、シフトレバー14が操作されたか否かを検出するシフトレバーセンサ34と、コンソールボックス15が操作されたか否かを検出するコンソールボックスセンサ35とから構成される。そして各センサ31〜35は、その検出結果を示す情報を、センサから操作推定装置4へと至る通信路(例えば車両内ネットワーク)を介して操作推定装置4へ送信する。なおセンサ群3は、車載機器の操作を検知するために付加された近接センサ、タッチセンサ、スイッチ等のセンサだけでなく、ナビゲーション装置11のタッチパネルやエアコン12の設定ボタンのように車載機器に組み込まれているセンサでもよい。
また操作推定装置4は、CPU41,ROM42,RAM43,I/O(不図示)及びこれらの構成を接続するバスライン(不図示)などからなる周知のマイクロコンピュータを中心に構成されており、ROM42及びRAM43に記憶されたプログラムに基づいて各種処理を実行する。
また車載装置群5は、操作推定装置4の推定結果に基づいて車両制御のタイミングや強弱を調整するACC(Adaptive Cruise Control)装置51、ブレーキ装置52、及び変速装置53と、操作推定装置4の推定結果に基づいて振動などで運転者に刺激を与えるシートベルト装置54及びステアリング装置55と、操作推定装置4の推定結果に基づいて走行中の運転者からの利用を制限するナビゲーション装置11などから構成される。
このように構成された操作支援システム1において、操作推定装置4は、後述の人体特徴点特定処理、操作推定処理、操作状態監視処理、及び推定モデル選択処理をそれぞれ独立に実行する。
まず、操作推定装置4が実行する人体特徴点特定処理の手順を図3を用いて説明する。図3は人体特徴点特定処理を示すフローチャートである。この人体特徴点特定処理は、操作推定装置4が起動(電源オン)している間に繰り返し実行される処理である。
この人体特徴点特定処理が実行されると、操作推定装置4は、まずS10にて、カメラ2から入力される画像を取得する。ここでは、例えば、図4(a)〜(g)に示すように、運転者が各操作対象を操作している様子を示す画像が取得される。
そしてS20にて、S10で取得された画像に基づいて、この画像中の運転者における1以上の人体特徴点を特定する。
ここでは、カメラ2から入力される画像中の運転者に対応する領域に、人体を模擬的に表現してなる身体モデルを、その運転者の姿勢に合わせて重ね合わせ、その画像中から、身体モデルにおける基準となる座標それぞれを、その画像中の運転者における人体特徴点として特定する。ここで、「身体モデルにおける基準となる座標」とは、図5のd1〜d6に示すように、例えば、両肩、両肘、及び両手首などの中心位置の座標である。以降、1つの画像から特定される1以上の人体特徴点を単に「人体特徴点」という。なお、このような身体モデルの重ね合わせについては、特開2003−109015号に記載された技術を利用するとよい。
さらにS30にて、S20にて特定された人体特徴点を、操作推定装置4のRAM43に設けられた人体特徴点リスト43aに登録する。そして、人体特徴点特定処理を一旦終了する。
この人体特徴点リスト43aは、所定数N(Nは整数)の人体特徴点が先入れ先出し方式で登録されるリストである。つまり、この人体特徴点リスト43aは、人体特徴点特定処理が一定回数繰り返された以降、人体特徴点として常に最新のものから所定数Nだけ前までのものが登録された状態となる。なお、この人体特徴点リスト43aには、運転者が特定の姿勢をとっている場合における人体特徴点として想定される人体特徴点を、初期値として登録しておくようにしてもよい。
次に、操作推定装置4が実行する操作推定処理の手順を、図6を用いて説明する。図6は操作推定処理を示すフローチャートである。この操作推定処理は、操作推定装置4が起動(電源オン)している間に繰り返し実行される処理である。
この操作推定処理が実行されると、操作推定装置4は、まずS110にて、人体特徴点リスト43aに登録されている全ての人体特徴点を読み出す。その後S120にて、読み出した人体特徴点それぞれに基づいて運転者の姿勢軌跡を特定する。具体的には、S110にて読み出された各人体特徴点を、主成分分析により表現される固有空間に投影し、こうして投影した固有空間上での座標の軌跡を運転者による実際の姿勢軌跡(以降、実姿勢軌跡という)として特定する。
またS130にて、後述の推定モデル選択処理で選択された遷移推定モデルを取得する。なお遷移推定モデルは、或る操作対象を操作していた状態から別の操作対象の操作へと移行する操作内容を実施している運転者が辿ると推定される姿勢軌跡(以降、推定姿勢軌跡という)をモデル化したものである。姿勢軌跡としては例えば、ステアリング13を握っている姿勢から、ナビゲーション装置11を操作しようとしてナビゲーション装置11に指が接触する姿勢までの軌跡が挙げられる。また遷移推定モデルは、それぞれの操作内容に対応するものが操作推定装置4のRAM43に記憶される。
そしてS140にて、S120にて特定された実姿勢軌跡における座標p01〜p0n(n≧1)毎に、その座標と、S130にて取得された各遷移推定モデル1〜x(x>1)にて示される推定姿勢軌跡における座標p11〜p1m,p21〜p2m,…,px1〜pxm(m≧1)それぞれとの角度θを算出する。なお、「座標p01〜p0n」及び「座標p11〜p1m,p21〜p2m,…,px1〜pxm」は、上記の固有空間上の座標である。
これにより、実姿勢軌跡における座標それぞれに対応する複数の角度群(p01[θ11〜θxm],p02[θ11〜θxm],…,p0n[θ11〜θxm])が算出される。なお、上記の角度θは、両座標をP1,P2として、式(1)に基づいて算出されるものである。
cosθ=P1・P2/(|P1|・|P2|) ・・・(1)
ここで、式(1)中の「P1・P2」は、座標P1と座標P2の内積値である。
次にS150にて、S140にて算出された座標毎の角度群それぞれについて、その角度群の中で最も小さい角度と、この最小角度に対応する遷移推定モデルとを特定する。
その後S160にて、S150にて特定された最小角度の全てが、予め設定された推定判定値(本実施形態では、例えば20度)未満であるか否かを判断する。ここで、特定された最小角度の全てが推定判定値未満である場合には(S160:YES)、S170にて、S150にて特定された遷移推定モデルが全て同一であるか否かを判断する。
ここで、特定された遷移推定モデルが全て同一である場合には(S170:YES)、S180にて、S150にて特定された遷移推定モデルに対応する操作内容を運転者が行っていると推定し、操作推定処理を一旦終了する。
一方、S150にて特定された遷移推定モデルが全て同一ではない場合には(S170:NO)、S190に移行する。
またS160にて、特定された最小角度のなかで推定判定値以上となるものがある場合には(S160:NO)、S190に移行する。
そしてS190に移行すると、運転者の操作内容に該当する遷移推定モデルがない、つまり、遷移推定モデルに対応する操作を運転者が行っていないと推定し、操作推定処理を一旦終了する。
次に、操作推定装置4が実行する操作状態監視処理の手順を、図7を用いて説明する。図7は操作状態監視処理を示すフローチャートである。この操作状態監視処理は、操作推定装置4が起動(電源オン)している間に繰り返し実行される処理である。
この操作状態監視処理が実行されると、操作推定装置4は、まずS310にて、車両室内に設定された複数の操作対象が操作されたか否かを示す情報(以下、操作検出情報という)をセンサ群3から取得する。
その後S320にて、取得した操作検出情報に基づいて、操作推定装置4のRAM43に設けられた操作状態リスト43bの内容を書き換え、操作状態監視処理を一旦終了する。
この操作状態リスト43bは、図8に示すように、ナビゲーション装置11、エアコン12、ステアリング13、シフトレバー14、及びコンソールボックス15のそれぞれが操作されている最中であるか否かを記録する操作記憶領域LA1〜LA5と、運転者が操作している最中または直前に操作していた操作対象を示す情報を記憶する操作対象記憶領域LBとから構成される。なお、操作記憶領域LA1〜LA5をまとめて操作記憶領域LAという。
そしてS320では、取得した操作検出情報に基づいて、操作記憶領域LA1〜LA5の中から、運転者が操作している最中である操作対象に対応する操作記憶領域LAに、「オン」を示す情報を書き込む一方、運転者が操作していない操作対象に対応する操作記憶領域LAに、「オフ」を示す情報を書き込む。
なお図8に示す操作状態リスト43bでは、操作記憶領域LA1に「オン」が書き込まれ、操作記憶領域LA2〜LA5に「オフ」が書き込まれている。すなわち、図8に示す操作状態リスト43bは、運転者がナビゲーション装置11を操作中であるとともにエアコン12、ステアリング13、シフトレバー14、及びコンソールボックス15を操作していないことを示している。
さらにS320では、或る操作記憶領域LAにおいて「オン」が書き込まれると、「オン」が書き込まれた時点で、「オン」が書き込まれた操作記憶領域LAに対応した操作対象を示す情報を操作対象記憶領域LBに書き込む。以下、操作対象記憶領域LBに書き込まれている情報を操作対象記憶情報という。
なお図8に示す操作状態リスト43bでは、操作記憶領域LA1に「オン」が書き込まれているので、ナビゲーション装置11であることを示す情報が操作対象記憶領域LBに書き込まれている。
またS320において、運転者が操作している最中である操作対象がない場合には、操作記憶領域LA1〜5には全て「オフ」が書き込まれ、操作記憶領域LBには直前の操作対象が保持される。
次に、操作推定装置4が実行する推定モデル選択処理の手順を、図9を用いて説明する。図9は推定モデル選択処理を示すフローチャートである。この推定モデル選択処理は、操作推定装置4が起動(電源オン)している間に繰り返し実行される処理である。
この推定モデル選択処理が実行されると、操作推定装置4は、まずS410にて、操作状態リスト43bの操作記憶領域LA1〜LA5の中で、「オン」から「オフ」に変更にされたものがあるか否かを判断する。
ここで、「オン」から「オフ」に変更された操作記憶領域LAがある場合には(S410:YES)、S420にて、操作推定装置4のRAM43に設けられた操作継続判定タイマTM1のインクリメントを開始し、S430に移行する。
なお操作継続判定タイマTM1は、例えば1msごとにインクリメントするタイマであり、インクリメントが開始されると、その値が0からインクリメントする。また操作継続判定タイマTM1は、ある時点でインクリメントが中止されると、その時点でその値が0となるように設定されている。
一方S410にて、「オン」から「オフ」に変更された操作記憶領域LAがない場合には(S410:NO)、S430に移行する。
そしてS430に移行すると、操作状態リスト43bの操作記憶領域LA1〜LA5の中で、「オフ」から「オン」に変更にされたものがあるか否かを判断する。ここで、「オフ」から「オン」に変更された操作記憶領域LAがある場合には(S430:YES)、S440にて、操作継続判定タイマTM1のインクリメントを中止させ、S450に移行する。これにより、操作継続判定タイマTM1がインクリメントを中止するとともに、その値が0になる。
一方S430にて、「オフ」から「オン」に変更された操作記憶領域LAがない場合には(S430:NO)、S450に移行する。
そしてS450に移行すると、操作継続判定タイマTM1の値(以下、操作継続判定タイマ値という)が予め設定された操作継続判定値JT(本実施形態では例えば5sに相当する値)以上であるか否かを判断する。
ここで、操作継続判定タイマ値が操作継続判定値JT以上である場合には(S450:YES)、S460にて、操作状態リスト43bの操作対象記憶領域LBに書き込まれている操作対象記憶情報を消去し、S470に移行する。
一方、操作継続判定タイマ値が操作継続判定値JT未満である場合には(S450:NO)、S470にて、操作状態リスト43bの操作対象記憶領域LBに操作対象記憶情報が書き込まれているか否かを判断する。ここで、操作対象記憶情報が書き込まれている場合には(S470:YES)、S480にて、操作対象記憶情報に応じた操作対象を起点とした遷移推定モデル(以下、通常時推定モデルともいう)を選択する。
詳細には、操作対象記憶領域LBに書き込まれている操作対象記憶情報が、ナビゲーション装置11、エアコン12、ステアリング13、シフトレバー14、及びコンソールボックス15である場合にはそれぞれ、ナビゲーション装置11、エアコン12、ステアリング13、シフトレバー14、及びコンソールボックス15を起点とした遷移推定モデルを選択する(図10の列R1,R2,R3,R4,R5を参照)。そして、遷移推定モデルの選択が終了すると、推定モデル選択処理を一旦終了する。
一方S470にて、操作対象記憶情報が書き込まれていない場合には(S470:NO)、S490にて、操作されたか否かをセンサ群3が検出することができない操作対象を起点とした遷移推定モデル(以下、例外時推定モデルともいう)を選択する。詳細には、本実施形態では、車両室内に設定された操作対象(ナビゲーション装置11、エアコン12、ステアリング13、シフトレバー14、コンソールボックス15、グローブボックス16、バックミラー17)のうち、センサ群3が操作を検出することができないものはグローブボックス16及びバックミラー17である。したがって、グローブボックス16及びバックミラー17を起点とした遷移推定モデルを選択する(図10の列R6を参照)。そして、遷移推定モデルの選択が終了すると、推定モデル選択処理を一旦終了する。
このように構成された操作支援システム1において、遷移推定モデルを選択する手順を図11,12を用いて説明する。
図11は、ステアリング13を操作している状態からナビゲーション装置11を操作する状態へ遷移する場合の遷移推定モデルを選択する手順を説明するためのタイムチャートである。また図12は、ステアリング13を操作している状態から、センサ群3が検出することができない操作対象を操作する状態へ遷移する場合の遷移推定モデルを選択する手順を説明するためのタイムチャートである。
まず図11に示すように、運転者がステアリング13を操作しているときには(指示C01を参照)、操作状態リスト43bの操作記憶領域LA3(ステアリング)は「オン」であり(指示C02を参照)、操作記憶領域LA1(ナビゲーション装置)は「オフ」であり(指示C03を参照)、操作対象記憶領域LBの操作対象記憶情報は「ステアリング」である(指示C04を参照)。このため、ステアリング13を起点とした遷移推定モデルが選択される(指示C05を参照)。なお、このときの操作継続判定タイマ値は0である(指示C06を参照)。
そして、運転者がステアリング13から手を離し(時刻t1を参照)、ステアリング13を操作している状態から、ナビゲーション装置11を操作する状態へ遷移する途中では(指示C11を参照)、操作状態リスト43bの操作記憶領域LA3(ステアリング)は「オフ」であり(指示C12を参照)、操作記憶領域LA1(ナビゲーション装置)は「オフ」であり(指示C13を参照)、操作対象記憶領域LBの操作対象記憶情報は「ステアリング」である(指示C14を参照)。このため、ステアリング13を起点とした遷移推定モデルが選択される(指示C15を参照)。なお、運転者がステアリング13から手を離した時点(時刻t1)で、操作継続判定タイマTM1がインクリメントを開始し、時間の経過とともに操作継続判定タイマ値が増加する(指示C16を参照)。
そして、運転者がステアリング13から手を離してから、操作継続判定値JTに相当する時間が経過する前に(時刻t2を参照)、運転者がナビゲーション装置11を操作する状態となると(指示C21を参照)、操作状態リスト43bの操作記憶領域LA3(ステアリング)は「オフ」であり(指示C22を参照)、操作記憶領域LA1(ナビゲーション装置)は「オン」になり(指示C23を参照)、操作対象記憶領域LBの操作対象記憶情報は「ナビゲーション装置」になる(指示C24を参照)。このため、ナビゲーション装置11を起点とした遷移推定モデルが選択される(指示C25を参照)。なお、運転者がナビゲーション装置11を操作する状態になった時点(時刻t2)で、操作継続判定タイマTM1がインクリメントを中止し、操作継続判定タイマ値が0になる(指示C26を参照)。
次に図12に示すように、運転者がステアリング13を操作しているときには(指示C31を参照)、操作状態リスト43bの操作記憶領域LA3(ステアリング)は「オン」であり(指示C32を参照)、操作記憶領域LA1,2,4,5は「オフ」であり(指示C33〜C36を参照)、操作対象記憶領域LBの操作対象記憶情報は「ステアリング」である(指示C37を参照)。このため、ステアリング13を起点とした遷移推定モデルが選択される(指示C38を参照)。なお、このときの操作継続判定タイマ値は0である(指示C39を参照)。
そして、運転者がステアリング13から手を離し(時刻t11を参照)、ステアリング13を操作している状態から、センサ群3が検出することができない操作対象を操作する状態へ遷移する途中では(指示C41を参照)、操作状態リスト43bの操作記憶領域LA1〜5は「オフ」であり(指示C42〜C46を参照)、操作対象記憶領域LBの操作対象記憶情報は「ステアリング」である(指示C47を参照)。このため、ステアリング13を起点とした遷移推定モデルが選択される(指示C48を参照)。なお、運転者がステアリング13から手を離した時点(時刻t11)で、操作継続判定タイマTM1がインクリメントを開始し、時間の経過とともに操作継続判定タイマ値が増加する(指示C49を参照)。
そして、運転者がステアリング13から手を離してから、操作継続判定値JTに相当する時間が経過した時点で(時刻t12を参照)、センサ群3が操作対象を検出することができないため(指示C51を参照)、操作状態リスト43bの操作記憶領域LA1〜5は「オフ」であり(指示C52〜C56を参照)、操作対象記憶領域LBの操作対象記憶情報は「なし」になる(指示C57を参照)。このため、例外時推定モデルが選択される(指示C58を参照)。なお、操作継続判定値JTに相当する時間が経過しても(時刻t12)、操作継続判定タイマTM1はインクリメントを継続し、時間の経過とともに操作継続判定タイマ値が増加する(指示C59を参照)。
このように構成された操作支援システム1では、まず、複数の操作対象(すなわち、ナビゲーション装置11、エアコン12、ステアリング13、シフトレバー14、コンソールボックス15、グローブボックス16、バックミラー17)と操作対象を操作可能な位置に存在する運転者とを含む画像(以下、操作画像という)を繰り返し取得し(S10)、そして、取得された操作画像を用いて、運転者の姿勢を表す人体特徴点を特定する(S20)。また操作推定装置4のRAM43が、操作対象を操作する運転者が辿ると推定される姿勢軌跡(推定姿勢軌跡)をその操作内容毎にモデル化してなる複数の遷移推定モデルを記憶するとともに、センサ群3が、複数の操作対象の中から、運転者が操作している操作対象(以下、操作中操作対象という)を検出する。
そして、センサ群3による検出結果に基づいて、運転者が操作している又は運転者が直前に操作していた操作対象(以下、最終操作対象ともいう)を特定する(S320,S410〜S460)。
さらに、複数の遷移推定モデルの中から、特定された最終操作対象を起点とした推定姿勢軌跡をモデル化した遷移推定モデルを選択する(S480)。その後に、操作画像毎に特定された人体特徴点を用いて求められる運転者の姿勢軌跡(実姿勢軌跡)と、選択された遷移推定モデルとを照合し、この照合結果に基づいて、運転者の操作内容を推定する(S110〜S190)。
このように構成された操作支援システム1によれば、複数の遷移推定モデルの中から、最終操作対象を起点とした推定姿勢軌跡をモデル化した遷移推定モデルを選択し、この選択した遷移推定モデルと、実姿勢軌跡とを照合することにより運転者の操作内容を推定することができる。このため、記憶された遷移推定モデルの全てと実姿勢軌跡とを照合する場合と比較して、照合に用いられる遷移推定モデルの数を低減することができる。これにより、運転者の操作内容を推定する処理を行うための演算量を低減することができる。なお、この低減効果は、操作対象の数が多くなるほど大きい。
また、運転者が操作している又は運転者が直前に操作していた操作対象(最終操作対象)を特定し、この最終操作対象を起点とした推定姿勢軌跡をモデル化した遷移推定モデルを用いて照合を行うので、特定された最終操作対象以外を起点とした操作内容を運転者が実施していると推定することがない。すなわち、特定された操作対象を運転者が操作している状態を起点とした操作内容を運転者が実施する場合に、運転者が操作している操作対象以外を起点とした操作内容を運転者が実施していると推定することがない。このため、運転者の現時点の姿勢では行うことができない操作内容を、運転者の操作内容であると推定しまう可能性を低減することができる。つまり、誤推定の頻度を低減することができる。
また、最終操作対象を特定することができない場合には(S470:NO)、センサ群3の検出対象となっていない操作対象を起点とした推定姿勢軌跡をモデル化した遷移推定モデルを選択する(S490)。
これにより、複数の遷移推定モデルの中から、センサ群3の検出対象となっていない操作対象を起点とした推定姿勢軌跡をモデル化した遷移推定モデルを選択し、この選択した遷移推定モデルと、実姿勢軌跡とを照合することにより運転者の操作内容を推定することができる。このため、記憶された遷移推定モデルの全てと実姿勢軌跡とを照合する場合と比較して、照合に用いられる遷移推定モデルの数を低減することができる。これにより、運転者の操作内容を推定する処理を行うための演算量を低減することができる。
また、操作検出手段の検出対象となっている操作対象を起点とした推定姿勢軌跡をモデル化した遷移推定モデルが除外されているので、センサ群3の検出対象となっている操作対象を起点とした操作内容を運転者が実施していると推定することがない。すなわち、センサ群3の検出対象となっていない操作対象を運転者が操作している状態を起点とした操作内容を運転者が実施する場合に、センサ群3の検出対象となっている操作対象を起点とした操作内容を運転者が実施していると推定することがない。このため、運転者の現時点の姿勢では行うことができない操作内容を、運転者の操作内容であると推定しまう可能性を低減することができる。つまり、誤推定の頻度を低減することができる。
また、センサ群3の検出対象となっていない操作対象を運転者が操作していると特定するため、すなわち、最終操作対象を特定することができないとするために、運転者が操作している操作対象(以下、操作中操作対象ともいう)をセンサ群3が検出していない状態が操作継続判定値JTに相当する時間継続した場合に、最終操作対象を特定することができないとする(S450,S460)。
つまり、センサ群3が操作中操作対象を検出していない状態が操作継続判定値JTに相当する時間継続した場合には、センサ群3の検出対象となっていない操作対象を運転者が操作していると看做している。
これにより、センサ群3が操作中操作対象を検出していない状態が継続している時間を計測するという簡便な方法によって、センサ群3の検出対象となっていない操作対象を運転者が操作していると特定することができる。
以上説明した実施形態において、カメラ2及びS10の処理は本発明における画像取得手段、S20の処理は本発明における人体特徴点特定手段、RAM43は本発明における推定モデル記憶手段、センサ群3は本発明における操作検出手段、S320及びS410〜S460の処理は本発明における操作対象特定手段、S480及びS490の処理は本発明におけるモデル選択手段、S110〜S190の処理は本発明における操作推定手段、操作継続判定値JTに相当する時間は本発明における所定判定時間である。
(第2実施形態)
以下に本発明の第2実施形態を説明する。なお、第2実施形態では、第1実施形態と異なる部分のみを説明する。
第2実施形態の操作支援システム1は、推定モデル選択処理が変更された点以外は第1実施形態と同じである。
第2実施形態の推定モデル選択処理の手順を図13を用いて説明する。図13は第2実施形態の推定モデル選択処理を示すフローチャートである。
第2実施形態の推定モデル選択処理が実行されると、操作推定装置4は、まずS610にて、人体特徴点リスト43aに登録された人体特徴点の時間変化に基づいて、人体特徴点の移動速度VPを算出する。さらにS620にて、人体特徴点の移動速度VPが、予め設定された動作中判定値JV1以上であるか否かを判断する。すなわち、運転者が或る操作対象を操作していた状態から別の操作対象の操作へと移行する動作(以下、移行動作ともいう)を行っているか否かを判断する。
ここで、人体特徴点の移動速度VPが動作中判定値JV1未満である場合には(S620:NO)、移行動作を行っていないと判断し、S640に移行する。一方、人体特徴点の移動速度VPが動作中判定値JV1以上である場合には(S620:YES)、移行動作を行っていると判断し、S630にて、操作推定装置4のRAM43に設けられた動作中指示フラグF1をセットして、S640に移行する。
そしてS640に移行すると、動作中指示フラグF1がセットされているか否かを判断する。ここで、動作中指示フラグF1がクリアされている場合には(S640:NO)、S680に移行する。一方、動作中指示フラグF1がセットされている場合には(S640:YES)、S650にて、人体特徴点の移動速度VPが、動作中判定値JV1より小さく設定されている動作終了判定値JV2未満であるか否かを判断する。すなわち、上記の移行動作が終了したか否かを判断する。
ここで、人体特徴点の移動速度VPが動作終了判定値JV2以上である場合には(S650:NO)、移行動作中であると判断し、S680に移行する。一方、人体特徴点の移動速度VPが動作終了判定値未満である場合には(S650:YES)、移行動作が終了したと判断し、S660にて、動作中指示フラグF1をクリアするとともに、S670にて、操作状態リスト43bの操作対象記憶領域LBに書き込まれている操作対象記憶情報を消去して、S680に移行する。
そしてS680に移行すると、操作状態リスト43bの操作対象記憶領域LBに操作対象記憶情報が書き込まれているか否かを判断する。ここで、操作対象記憶情報が書き込まれている場合には(S680:YES)、S690にて、操作対象記憶情報に応じた操作対象を起点とした遷移推定モデル(通常時推定モデル)を選択し、推定モデル選択処理を一旦終了する。
一方、操作対象記憶情報が書き込まれていない場合には(S680:NO)、S700にて、操作されたか否かをセンサ群3が検出することができない操作対象を起点とした遷移推定モデル(例外時推定モデル)を選択し、推定モデル選択処理を一旦終了する。
なお、操作状態リスト43bの操作対象記憶領域LBに書き込まれている操作対象記憶情報は、操作状態監視処理により書き込みが行われ、推定モデル選択処理により消去される。このため、推定モデル選択処理のS680で操作対象記憶情報を参照する際に、操作状態監視処理を行い、最新の操作対象記憶情報を参照することとしてもよい。
このように構成された操作支援システム1において、遷移推定モデルを選択する手順を図14を用いて説明する。
図14は、ステアリング13を操作している状態から、センサ群3が検出することができない操作対象を操作する状態へ遷移する場合の遷移推定モデルを選択する手順を説明するためのタイムチャートである。
図14に示すように、運転者がステアリング13を操作しているときには(指示C61を参照)、操作状態リスト43bの操作記憶領域LA3(ステアリング)は「オン」であり(指示C62を参照)、操作記憶領域LA1,2,4,5は「オフ」であり(指示C63〜C66を参照)、操作対象記憶領域LBの操作対象記憶情報は「ステアリング」である(指示C67を参照)。このため、ステアリング13を起点とした遷移推定モデルが選択される(指示C68を参照)。なお、このときの人体特徴点移動速度VPは略0である(指示C69を参照)。
そして、運転者がステアリング13から手を離し(時刻t21を参照)、ステアリング13を操作している状態から、センサ群3が検出することができない操作対象を操作する状態へ遷移する途中では(指示C71を参照)、操作状態リスト43bの操作記憶領域LA1〜5は「オフ」であり(指示C72〜C76を参照)、操作対象記憶領域LBの操作対象記憶情報は「ステアリング」である(指示C77を参照)。このため、ステアリング13を起点とした遷移推定モデルが選択される(指示C78を参照)。なお、このときの人体特徴点移動速度VPは徐々に大きくなり、動作中判定値JV1を超える(時刻t22を参照)。
そして、センサ群3が検出することができない操作対象に運転者の手が到達すると(時刻t23を参照)、センサ群3が操作対象を検出することができないため(指示C81を参照)、操作状態リスト43bの操作記憶領域LA1〜5は「オフ」であり(指示C82〜C86を参照)、操作対象記憶領域LBの操作対象記憶情報は「ステアリング」である(指示C87を参照)。このため、ステアリング13を起点とした遷移推定モデルが選択される(指示C88を参照)。
なお、このときの人体特徴点移動速度VPは徐々に小さくなり、動作終了判定値JV2未満となる(時刻t24を参照)。これにより、操作対象記憶領域LBの操作対象記憶情報は「なし」になる(指示C97を参照)。このため、例外時推定モデルが選択される(指示C98を参照)。
このように構成された操作支援システム1では、操作画像毎に特定された人体特徴点の変化に基づいて、人体特徴点移動速度VPを算出するとともに(S610)、人体特徴点移動速度VPに基づいて、運転者が操作対象を操作しているか否かを判断し(S620〜S650)、運転者が操作対象を操作していると判断し(S640,S650:YES)、且つ、センサ群3が操作中操作対象を検出していない場合に(S680:NO)、最終操作対象を特定することができないとする。
このように構成された操作支援システム1によれば、運転者の実際の動作に基づいて、運転者が操作対象を操作しているか否かを判断できるので、第1実施形態に記載の手法と比較して、この判断の精度を向上させることができる。
例えば、第1実施形態に記載の手法では、操作継続判定値JTに相当する時間の長さによっては、運転者が或る操作対象から他の操作対象に触れようとして動作している最中に操作継続判定値JTに相当する時間が経過してしまうことが考えられる。したがって、操作継続判定値JTに相当する時間の長さによっては、運転者が他の操作対象に触れていないにもかかわらず、センサ群3の検出対象となっていない操作対象を運転者が操作していると判断してしまう頻度が多くなる。
一方、第2実施形態に記載の手法では、操作継続判定値JTに相当する時間の長さに関係なく、人体特徴点移動速度VPが小さくなったときに、運転者が他の操作対象に触れていると判断する。このため、運転者が或る操作対象から他の操作対象に触れようとして動作している最中に、センサ群3の検出対象となっていない操作対象を運転者が操作していると判断してしまう頻度が少なくなる。
以上説明した実施形態において、S610の処理は本発明における動作変化量算出手段、S620〜S650の処理は本発明における操作判断手段である。
以上、本発明の一実施例について説明したが、本発明は上記実施例に限定されるものではなく、本発明の技術的範囲に属する限り種々の形態を採ることができる。
例えば上記実施形態においては、センサ群3の検出結果に基づいて最終操作対象を特定するものを示した。しかし、取得された操作画像を用いて運転者の姿勢を推定し、この推定結果に基づいて最終操作対象を特定するようにしてもよい。これにより、上記の操作中操作対象を検出するための手段を省略することができる。
また、センサ群3の検出結果と、運転者の姿勢の上記推定結果との両方に基づいて最終操作対象を特定するようにしてもよい。
また、センサ群3の検出結果に基づいて、センサ群3の検出対象となっている最終操作対象を特定するとともに、運転者の姿勢の上記推定結果に基づいて、センサ群3の検出対象となっていない最終操作対象を特定するようにしてもよい。
また上記実施形態においては、操作継続判定値JTが1つであるものを示したが、操作対象毎に異なる操作継続判定値を設定するようにしてもよい。また、操作継続判定値JTは、複数の操作対象の平均値であってもよいし、中央値や、95%をカバーする上限値としてもよい。
1…操作支援システム、2…カメラ、3…センサ群、4…操作推定装置、5…車載装置群、11…ナビゲーション装置、12…エアコン、13…ステアリング、14…シフトレバー、15…コンソールボックス、16…グローブボックス、17…バックミラー、31…ナビゲーション装置センサ、32…エアコンセンサ、33…ステアリングセンサ、34…シフトレバーセンサ、35…コンソールボックスセンサ、41…CPU、42…ROM、43…RAM、43a…人体特徴点リスト、43b…操作状態リスト、51…ACC装置、52…ブレーキ装置、53…変速装置、54…シートベルト装置、55…ステアリング装置

Claims (5)

  1. 複数の操作対象と該操作対象を操作可能な位置に存在する操作者とを含む画像である操作画像を繰り返し取得する画像取得手段と、
    前記画像取得手段により取得された前記操作画像を用いて、前記操作者の姿勢を表す所定の人体特徴点を特定する人体特徴点特定手段と、
    前記操作対象を操作する操作者が辿ると推定される姿勢軌跡である推定姿勢軌跡をその操作内容毎にモデル化してなる複数の遷移推定モデルを記憶する推定モデル記憶手段と、
    複数の前記操作対象の中から、前記操作者が操作している前記操作対象である操作中操作対象を検出する操作検出手段と、
    前記操作検出手段による検出結果に基づいて、前記操作者が操作している又は前記操作者が直前に操作していた前記操作対象である最終操作対象を特定する操作対象特定手段と、
    前記推定モデル記憶手段が記憶する複数の前記遷移推定モデルの中から、前記操作対象特定手段が特定した前記最終操作対象を起点とした前記推定姿勢軌跡をモデル化した前記遷移推定モデルを選択するモデル選択手段と、
    前記人体特徴点特定手段により前記操作画像毎に特定された前記人体特徴点を用いて求められる前記操作者の姿勢軌跡である実姿勢軌跡と、前記モデル選択手段により選択された前記遷移推定モデルとを照合し、この照合結果に基づいて、前記操作者の前記操作内容を推定する操作推定手段と
    を備えることを特徴とする操作推定装置。
  2. 前記モデル選択手段は、
    前記操作対象特定手段が前記最終操作対象を特定することができない場合には、前記操作検出手段の検出対象となっていない前記操作対象を起点とした前記推定姿勢軌跡をモデル化した前記遷移推定モデルを選択する
    ことを特徴とする請求項1に記載の操作推定装置。
  3. 前記操作対象特定手段は、
    前記操作検出手段が前記操作中操作対象を検出していない状態が予め設定された所定判定時間継続した場合に、前記最終操作対象を特定することができないとする
    ことを特徴とする請求項2に記載の操作推定装置。
  4. 前記人体特徴点特定手段により前記操作画像毎に特定された前記人体特徴点の変化に基づいて、前記操作者による動作の単位時間当たりの変化量である動作変化量を算出する動作変化量算出手段と、
    前記動作変化量算出手段による算出された前記動作変化量に基づいて、前記操作者が前記操作対象を操作しているか否かを判断する操作判断手段とを備え、
    前記操作対象特定手段は、
    前記操作者が前記操作対象を操作していると前記操作判断手段が判断し、且つ、前記操作検出手段が前記操作中操作対象を検出していない場合に、前記最終操作対象を特定することができないとする
    ことを特徴とする請求項2に記載の操作推定装置。
  5. 請求項1〜請求項4の何れかに記載の操作推定装置の前記各手段としてコンピュータを機能させるためのプログラム。
JP2009007616A 2009-01-16 2009-01-16 操作推定装置およびプログラム Active JP4973667B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009007616A JP4973667B2 (ja) 2009-01-16 2009-01-16 操作推定装置およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009007616A JP4973667B2 (ja) 2009-01-16 2009-01-16 操作推定装置およびプログラム

Publications (2)

Publication Number Publication Date
JP2010165223A true JP2010165223A (ja) 2010-07-29
JP4973667B2 JP4973667B2 (ja) 2012-07-11

Family

ID=42581321

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009007616A Active JP4973667B2 (ja) 2009-01-16 2009-01-16 操作推定装置およびプログラム

Country Status (1)

Country Link
JP (1) JP4973667B2 (ja)

Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08320920A (ja) * 1995-05-24 1996-12-03 Matsushita Electric Ind Co Ltd 手動作認識装置および方法
JPH09305743A (ja) * 1996-05-20 1997-11-28 Toshiba Corp 人物顔動作検出方式
JPH11316850A (ja) * 1998-03-05 1999-11-16 Okada Boeki Kk 動画像の輪郭抽出方法及びそれを用いた映像音声識別司令装置
JP2002359766A (ja) * 2001-03-30 2002-12-13 Hitachi Kokusai Electric Inc 撮像装置の視野制御法及び視野制御装置並びにプログラム
JP2004246856A (ja) * 2002-12-18 2004-09-02 National Institute Of Advanced Industrial & Technology インタフェース装置
JP2004356819A (ja) * 2003-05-28 2004-12-16 Sharp Corp リモート操作装置
JP2005178473A (ja) * 2003-12-17 2005-07-07 Denso Corp 車載機器用インターフェース
JP2006301915A (ja) * 2005-04-20 2006-11-02 Olympus Corp 電子データ操作装置
WO2008007471A1 (fr) * 2006-07-10 2008-01-17 Kyoto University Procédé de suivi d'un marcheur et dispositif de suivi d'un marcheur
JP2008108008A (ja) * 2006-10-24 2008-05-08 Omron Corp 移動パターン特定装置、移動パターン特定方法、移動パターン特定プログラム、およびこれを記録した記録媒体
JP2008140268A (ja) * 2006-12-04 2008-06-19 Denso Corp 操作推定装置およびプログラム
JP2008162376A (ja) * 2006-12-27 2008-07-17 Takata Corp 車両用作動システム、車両
JP2009069975A (ja) * 2007-09-11 2009-04-02 Denso Corp 行動推定装置
JP2010036762A (ja) * 2008-08-06 2010-02-18 Denso Corp 行動推定装置、プログラム
JP2010044493A (ja) * 2008-08-11 2010-02-25 Denso Corp 行動推定装置、プログラム

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08320920A (ja) * 1995-05-24 1996-12-03 Matsushita Electric Ind Co Ltd 手動作認識装置および方法
JPH09305743A (ja) * 1996-05-20 1997-11-28 Toshiba Corp 人物顔動作検出方式
JPH11316850A (ja) * 1998-03-05 1999-11-16 Okada Boeki Kk 動画像の輪郭抽出方法及びそれを用いた映像音声識別司令装置
JP2002359766A (ja) * 2001-03-30 2002-12-13 Hitachi Kokusai Electric Inc 撮像装置の視野制御法及び視野制御装置並びにプログラム
JP2004246856A (ja) * 2002-12-18 2004-09-02 National Institute Of Advanced Industrial & Technology インタフェース装置
JP2004356819A (ja) * 2003-05-28 2004-12-16 Sharp Corp リモート操作装置
JP2005178473A (ja) * 2003-12-17 2005-07-07 Denso Corp 車載機器用インターフェース
JP2006301915A (ja) * 2005-04-20 2006-11-02 Olympus Corp 電子データ操作装置
WO2008007471A1 (fr) * 2006-07-10 2008-01-17 Kyoto University Procédé de suivi d'un marcheur et dispositif de suivi d'un marcheur
JP2008108008A (ja) * 2006-10-24 2008-05-08 Omron Corp 移動パターン特定装置、移動パターン特定方法、移動パターン特定プログラム、およびこれを記録した記録媒体
JP2008140268A (ja) * 2006-12-04 2008-06-19 Denso Corp 操作推定装置およびプログラム
JP2008162376A (ja) * 2006-12-27 2008-07-17 Takata Corp 車両用作動システム、車両
JP2009069975A (ja) * 2007-09-11 2009-04-02 Denso Corp 行動推定装置
JP2010036762A (ja) * 2008-08-06 2010-02-18 Denso Corp 行動推定装置、プログラム
JP2010044493A (ja) * 2008-08-11 2010-02-25 Denso Corp 行動推定装置、プログラム

Also Published As

Publication number Publication date
JP4973667B2 (ja) 2012-07-11

Similar Documents

Publication Publication Date Title
US9235269B2 (en) System and method for manipulating user interface in vehicle using finger valleys
JP4670803B2 (ja) 操作推定装置およびプログラム
JP4959606B2 (ja) 入力装置およびこれを備えた車載情報装置
WO2015015843A1 (ja) ジェスチャー判定装置及び方法、並びにジェスチャー操作装置、並びにプログラム及び記録媒体
CN110968184B (zh) 设备控制装置
KR101459445B1 (ko) 차량내 손목각을 이용한 사용자 인터페이스 조작 시스템 및 방법
JP2010184600A (ja) 車載用ジェスチャースイッチ装置
JP2005242694A (ja) ハンドパターンスイッチ装置
JP4420100B2 (ja) 身体部位検出装置
WO2018061603A1 (ja) ジェスチャ操作システム、ジェスチャ操作方法およびプログラム
JP2006312347A (ja) コマンド入力装置
JP4683123B2 (ja) 行動推定装置、プログラム
JP2006143159A (ja) 車両用動き認識装置
JP4613999B2 (ja) 行動推定装置、プログラム
JP4973667B2 (ja) 操作推定装置およびプログラム
JP2006298003A (ja) コマンド入力装置
US20150234515A1 (en) Determination of an Input Position on a Touchscreen
JP4882930B2 (ja) 行動推定装置
JP2006312346A (ja) コマンド入力装置
CN113424242A (zh) 信息处理装置、程序及信息处理方法
JP6770488B2 (ja) 注視対象物推定装置、注視対象物推定方法、およびプログラム
KR100718126B1 (ko) 동작 인식 기반 입력 장치의 사용자 인터페이스 방법 및 그장치
JP7163649B2 (ja) ジェスチャ検出装置、ジェスチャ検出方法、およびジェスチャ検出制御プログラム
JP4645665B2 (ja) 操作手投影システムおよび操作手投影システム用のプログラム
US20240143084A1 (en) Control apparatus and control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120313

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120326

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150420

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250