JP6213193B2 - 動作判定方法及び動作判定装置 - Google Patents

動作判定方法及び動作判定装置 Download PDF

Info

Publication number
JP6213193B2
JP6213193B2 JP2013248329A JP2013248329A JP6213193B2 JP 6213193 B2 JP6213193 B2 JP 6213193B2 JP 2013248329 A JP2013248329 A JP 2013248329A JP 2013248329 A JP2013248329 A JP 2013248329A JP 6213193 B2 JP6213193 B2 JP 6213193B2
Authority
JP
Japan
Prior art keywords
area
determination
human
person
occupied
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013248329A
Other languages
English (en)
Other versions
JP2015105882A (ja
Inventor
能久 浅山
能久 浅山
村下 君孝
君孝 村下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2013248329A priority Critical patent/JP6213193B2/ja
Publication of JP2015105882A publication Critical patent/JP2015105882A/ja
Application granted granted Critical
Publication of JP6213193B2 publication Critical patent/JP6213193B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Navigation (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本願は、動作判定方法及び動作判定装置に関する。
赤外線センサ等の3次元センサにより物体(例えば、人等)の有無や物体の動作を認識する技術が存在する。また、3次元センサで取得した3次元情報から人の位置や姿勢を検知し、所定の操作に対応する領域を設定して、その領域内に人を構成する3次元情報の一部(例えば、手や足等)が存在すると判断された場合に、その人が行った操作とみなす技術がある。
特開2004−357896号公報
しかしながら、従来手法では、人が行った操作の判断は、単に特定の空間内に物体が存在すれば、その操作を行ったとみなすだけである。そのため、意図せずにその特定の空間内に人の一部が存在した場合に操作を誤認識してしまう。
1つの側面では、本発明は、物体に対する適切な動作判定を行うことを目的とする。
一態様における動作判定方法は、動作判定装置が、物体までの距離を3次元センサで測定し、測定された前記3次元センサの出力値から、判定対象の動作に対応して予め設定された1又は複数の占有領域内に前記物体が存在し、予め設定された1又は複数の人領域内に前記物体が存在するかを判定し、前記占有領域に存在する物体と、前記人領域内に存在する物体とが連結するかを判定し、判定結果に基づいて前記物体の動作を判定する。
物体に対する適切な動作判定を行うことができる。
動作判定装置の概略構成例を示す図である。 動作判定装置のハードウェア構成の一例を示す図である。 動作判定処理の一例を示すフローチャートである。 占有領域及び人領域の設定例を示す図である。 設定された各領域の位置関係を概略的に示す図である。 測距センサによる距離測定の概念図である。 点群データを用いた物体判定の一例を示す図である。 物体判定処理の一例を示すフローチャートである。 連結判定例を説明するための図である。 姿勢情報に基づく機器操作判定例を説明するための図である。 姿勢情報に基づく動作判定処理の一例を示すフローチャートである。 動作判定装置を適用した第1の実施例を示す図である。 動作判定装置を適用した第2の実施例を示す図である。 第2の実施例の概要を説明するための図である。
以下、添付図面を参照しながら実施例について詳細に説明する。
<本実施形態における動作判定装置の概略構成例>
図1は、動作判定装置の概略構成例を示す図である。なお、以下の説明では、例えば車内でドライバ(運転手)又は助手席に座る人(同乗者)がカーナビゲーション(以下、「カーナビ」と略称する)やAudio Visual(AV)機器等を操作する環境として、各機器への操作を誰が行っているかを判断するための動作判定について説明する。
図1の例に示す情報処理装置の一例としての動作判定装置10は、3次元センサの一例としての測距センサ11と、記憶部12と、占有領域判定部13と、人領域判定部14と、連結判定部15と、動作判定部16とを有する。
測距センサ11は、車内の対象物体(ターゲット)までの測距値を出力する。なお、測距センサ11は、例えば赤外線センサ等の3次元センサであるが、これに限定されるものではない。例えば、測距センサ11は、車内の所定の位置に設置され、その設置位置から所定の方向に投射(発光)したレーザ光(例えば、赤外線)が対象物体で反射(散乱)し、受光部で受光するまでの往復してくる時間から距離を計測する。
なお、従来の赤外線センサで物体の位置等を検知する場合には、その物体又は物体の周囲に直射日光が当たると、発光部からの赤外線を受光部で正しく受光することができず、正しい測距ができない。そのため、本実施形態では、受光部として、例えばフォトダイオードを用いることができる。フォトダイオードは、非常に高感度であり、強い外乱光を受けるとノイズを発生する。測距センサ11による測距を行うためには、このノイズレベルよりも、受光する散乱光レベルの方が大きいことが必要である。したがって、光学系方式に「同軸光学系方式」を用いることができる。「同軸光学系方式」では、ミラー等を用いてレーザ光を投射する方向とフォトダイオードの視野とを1測点ずつに集中させることで、高い散乱光レベルの受信と、最小限のノイズレベルに抑えることができ、太陽光下でも測距することができる。
なお、光学系方式については、これに限定されるものではなく、例えば「分離光学系方式」や「Charge Coupled Device(CCD)・Complementary Metal−Oxide Semiconductor(CMOS)イメージセンサ方式」等を用いることができる。発光と受光とにそれぞれ光学系を持つ「分離光学系方式」は、広い走査領域の視野が必要であり、多くの外乱光をフォトダイオードに集めてしまうため、ノイズレベルが増える。また、測距機能を持つ「CCD・CMOSイメージセンサ方式」は、フォトダイオード1画素当たりの視野は狭くノイズレベルは抑えられるが、広い領域へ同時にLight Emitting Diode(LED)光等を投射するため、1測点あたりの投射光量が少なく、十分な散乱光レベルを得ることができない。
また、測距センサ11は、所定の範囲(領域)内をセンシング(走査)することで、その範囲内の対象物体(ターゲット)の形状を取得することができる。したがって、測距センサ11の出力値(測距値)は、所定間隔で走査された複数の点の座標を含む点群データとなる。
記憶部12は、例えば占有領域記憶部12−1、人領域記憶部12−2を有する。占有領域記憶部12−1は、例えば予め設定された機器に対する操作時に体の一部(例えば、手、腕、足等)が位置する領域を占有領域として記憶する。なお、占有領域記憶部12−1には、例えば判定する動作毎又は操作対象物(例えば、操作対象機器)毎に3次元の占有領域情報(例えば、座標値)が記憶される。
人領域記憶部12−2は、測距センサ11により測定される範囲(領域)内において、人(例えば、胴体や頭部)が位置すべき領域を人領域情報として記憶する。人領域記憶部12−2は、例えば車両に対する運転席と助手席に人が座ったときに、胴体や頭部が位置する空間(3次元領域)を記憶する。なお、上述した占有領域及び人領域は、動作判定前に予め設定されており、1又は複数の領域座標等により設定することができるが、これに限定されるものではない。
記憶部12に記憶される情報は、上述した占有領域情報や人領域情報に限定されるものではく、例えば測距センサ11からの出力値や、出力値から同一物体であるか否かを判定するための判定条件、その他の各種設定情報等が記憶されてもよい。
占有領域判定部13は、測距センサ11が出力した測距値に基づいて、占有領域記憶部12−1に予め記憶された占有領域内に物体があるかを判定する。占有領域判定部13は、例えば占有領域をセンシング(走査)する測距センサ11の出力値が、占有領域内の範囲の測距値を出力したか否かにより、その占有領域内に物体が存在するかを判断することができる。例えば、測距センサ11の出力値が、占有領域(3次元空間)内の範囲の測距値である場合には、その占有領域内に物体が存在すると判定する。
人領域判定部14では、人領域記憶部12−2に予め記憶された人領域内に物体(人)が存在するか否かを判定する。例えば、人領域判定部14は、その物体が荷物や背景物体(例えば、機器等)であるか否か(人であるか否か)を判定するために、物体の特徴情報に基づく物体認識技術を用いてもよい。
連結判定部15は、上述した占有領域判定部13により物体が存在すると判定された占有領域と、上述した人領域判定部14により人が存在すると判定された人領域とが連結するか否かを判定する。ここで、連結方法としては、例えば、まず第1に、測距値の各点群データの各点間の距離と、角度とを用いて各点同士が同一物体上の点であるか否かを判定し、同じ物体上の3次元の点同士を連結する。次に、連結した点に対して、占有領域判定部13が判定された物体と、人領域判定部14で判定された人とを連結するか否かを判断する。
動作判定部16は、占有領域に属する点群データの点と、人領域に属する点群データの点とが連結した場合に、物体の動作を判定する。例えば、動作判定部16は、占有領域に対応して設定された操作対象物(機器)等の操作を、その人領域の位置にいる人が操作していると判定するが、判定内容はこれに限定されるものではない。
本実施形態において、例えば車内における機器の操作では、操作者の体は座っている差席(シート)から大きくは動かず、腕のみを伸ばすことで特定の機器を操作する。したがって、本実施形態では、上述したように予め1又は複数の判定したい動作とそれらの判定領域(占有領域、人領域)を空間内に設定し、3次元センサ11で取得した点群データから占有領域や人領域に物体が存在するかを判定する。また、占有領域や人領域に物体が存在する場合、どの人領域と連結するかを判定することで、動作が誰の動作によるものなのかを適切に判定することができる。したがって、操作対象者が複数存在した場合であっても、認識対象の操作を行っている人を特定することができる。
また、本実施形態では、占有領域と人領域との重複(連結)度合等から正しい姿勢(例えば、着座状態)か否かの判定を行うことができ、正しい姿勢のときだけ操作判定を行うといった制御を行うことができる。
<動作判定装置10のハードウェア構成例>
次に、上述した動作判定装置10のハードウェア構成例について、図を用いて説明する。図2は、動作判定装置のハードウェア構成の一例を示す図である。図2の例において、動作判定装置10は、入力装置21と、出力装置22と、ドライブ装置23と、補助記憶装置24と、主記憶装置25と、Central Processing Unit(CPU)26と、ネットワーク接続装置27とを有し、これらはシステムバスBで相互に接続されている。
入力装置21は、ユーザ等が操作するタッチパネルやマイクロフォン等の入力デバイスを有しており、ユーザ等からのプログラムの実行指示、各種操作情報、ソフトウェア等を起動するための情報等の入力を受け付ける。
また、出力装置22は、本実施形態における処理を行うためのコンピュータ本体(動作判定装置10)を操作するのに必要な各種ウィンドウやデータ等を表示するディスプレイ等を有する。出力装置22は、CPU26が有する制御プログラムによりプログラム(動作判定プログラム)の実行経過や結果等を表示することができる。なお、出力装置22は、上述した入力装置21と一体型のタッチパネルであってもよいが、これに限定されるものではない。
ここで、本実施形態において、例えばコンピュータ本体にインストールされる実行プログラム(動作判定プログラム)は、記録媒体28等により提供される。記録媒体28は、ドライブ装置23にセット可能である。CPU26からの制御信号に基づき、記録媒体28に格納された実行プログラムが、記録媒体28からドライブ装置23を介して補助記憶装置24にインストールされる。
補助記憶装置24は、例えばHard Disk Drive(HDD)やSolid State Drive(SSD)等のストレージ手段等である。補助記憶装置24は、CPU26からの制御信号に基づき、本実施形態における実行プログラム(動作判定プログラム)や、コンピュータに設けられた制御プログラム等を記憶し、必要に応じて入出力を行う。補助記憶装置24は、CPU26からの制御信号等に基づいて、記憶された各情報から必要な情報を読み出したり、書き込むことができる。
主記憶装置25は、CPU26により補助記憶装置24から読み出された実行プログラム等を格納する。主記憶装置25は、Read Only Memory(ROM)やRandom Access Memory(RAM)等である。
CPU26は、Operating System(OS)等の制御プログラム、及び主記憶装置25に格納されている実行プログラムに基づいて、各種演算や各ハードウェア構成部とのデータの入出力等、コンピュータ全体の処理を制御して各処理を実現する。プログラムの実行中に必要な各種情報等は、補助記憶装置24から取得することができ、また実行結果等を格納することもできる。
具体的には、CPU26は、例えば入力装置21から得られるプログラムの実行指示等に基づき、補助記憶装置24にインストールされたプログラムを実行させることにより、主記憶装置25上でプログラムに対応する処理を行う。例えば、CPU26は、動作判定プログラムを実行させることで、上述した測距センサ11による対象物体の距離測定、占有領域判定部13による占有領域判定、人領域判定部14による人領域判定、連結判定部15による連結判定、動作判定部16による動作判定等の処理を行う。CPU26における処理内容は、上述した内容に限定されるものではない。CPU26により実行された内容は、必要に応じて補助記憶装置24等に記憶される。
ネットワーク接続装置27は、例えばインターネットやLocal Area Network(LAN)等の通信ネットワークを介して、他の外部装置との通信を行う。ネットワーク接続装置27は、CPU26からの制御信号に基づき、通信ネットワーク等と接続することにより、実行プログラムやソフトウェア、設定情報等を外部装置等から取得する。また、ネットワーク接続装置27は、プログラムを実行することで得られた実行結果を外部装置に提供したり、本実施形態における実行プログラム自体を外部装置等に提供してもよい。
記録媒体28は、上述したように実行プログラム等が格納されたコンピュータで読み取り可能な記録媒体である。記録媒体28は、例えばフラッシュメモリ等の半導体メモリやCD−ROM、DVD等の可搬型の記録媒体であるが、これに限定されるものではない。
図2に示すハードウェア構成に実行プログラム(例えば、動作判定プログラム等)をインストールすることで、ハードウェア資源とソフトウェアとが協働して本実施形態における通知処理等を実現することができる。
<動作判定処理の一例>
次に、動作判定装置10における処理の一例について、フローチャートを用いて説明する。図3は、動作判定処理の一例を示すフローチャートである。図3の例では、動作判定を行う前に予め操作対象機器毎に、その機器の操作時に占有する領域を設定する(S01)。S01の処理において設定される占有領域は、例えば操作対象の機器を操作する場合に必ず体の一部分(例えば腕)が占有する位置を設定する。例えば、操作対象機器が車両に設置されたカーナビシステムの場合には、メニューや経路を表示する画面(タッチパネル)を操作するときに手や腕が存在する3次元空間が設定される。
また、動作判定装置10は、動作判定を行う前に予め人が存在する位置に人領域を設定する(S02)。S02の処理において設定される人領域は、例えば車両の運転席や助手席のシート上の3次元空間であるが、これに限定されるものではない。上述したS01、S02の処理で設定された情報は、記憶部12に記憶される。また、S01、S02の処理で設定された情報は、動作判定を管理する管理者等が任意に変更することができる。
上述したように占有領域及び人領域が設定された後、動作判定処理を行う。具体的には、測距センサ11は、車両内に設置した3次元センサ11により車両内の所定の位置をセンシングする(S03)。
なお、3次元センサ11の例としては、Microsoft社のKinect(登録商標)、ASUS社のXtion、パナソニック社製のD−IMager(登録商標)、(株)富士通研究所の超広角レーザレーダ(http://pr.fujitsu.com/jp/news/2012/10/29−1.html)等があるが、これに限定されるものではない。S03の処理では、例えば上述したようなセンサ等を用いて車内の物体までの距離を測定する。
次に、占有領域判定部13は、S01の処理で設定した占有領域内の物体の有無を判定する(S04)。S04の処理において、占有領域判定部13は、例えば占有領域をセンシングする範囲(センシング範囲)の出力値が、占有領域内の範囲の測距値を出力したか否かにより、物体が存在するか否かを判定することができるが、これに限定されるものではない。
占有領域判定部13は、占有領域内に物体があるか否かを判断し(S05)、占有領域内に物体がない場合(S05において、NO)、S03の処理に戻る。また、占有領域内に物体がある場合(S05において、YES)、人領域判定部14は、人領域内の人の有無を判定する(S06)。
S06の処理において、人領域判定部14は、例えば車両の助手席や運転席の付近に人領域を設定し、その人領域に人の体(例えば、頭部、胴体等)が存在するか否かにより人の有無を判定する。また、S06の判定処理としては、例えば上述した占有領域と同じように人領域内(例えば、座席シート上)に、物体が存在するか否かを認識してもよい。また、S06の処理では、座席シート上の物体が人か荷物かを区別するための物体認識等を行ってもよい。物体認識としては、測距センサ11で得られた測距値(出力値)に基づいて、局所特徴量(例えば、カメラ画像における輝度勾配ヒストグラム(HOG特徴量)の代わりに距離勾配値のヒストグラム)等を取得し、得られた結果に機械学習法(例えば、AdaBoost等)を用いて判定することで人領域内の物体が人か荷物か等を判定することができるが、これに限定されるものではない。
次に、人領域判定部14は、S06の処理の結果、人領域内に人がいるか否かを判断し(S07)、人がいない場合(S07において、NO)、S03の処理に戻る。また、人領域内に人がいると判断した場合(S07において、YES)、連結判定部15は、占有領域内の物体と、人領域内の物体とが連結するかを判定する(S08)。
次に、動作判定部16は、S08の処理の結果に応じて、どの人領域と連結したかにより、物体の動作の一例として、操作した人と操作の種類(操作対象物)とを判定する(S09)。
例えば、車両内において占有領域内に存在する物体がドライバ(運転席)に対応する人領域と連結した場合には、占有領域に対応する機器への操作は運転席に対応するドライバの操作であると判定する。また、車両内において、占有領域内に存在する物体が同乗者(助手席)に対応する人領域と連結した場合には、占有領域に対応する機器への操作は助手席に対応する同乗者の操作であると判定する。
次に、動作判定装置10は、処理を終了するか否かを判断し(S10)、処理を終了しない場合(S10において、NO)、S03の処理に戻り処理を継続する。また、動作判定装置10は、S10の処理において、処理を終了する場合(S10において、YES)、動作判定処理を終了する。
上述したような動作判定を行うことにより、例えば車両において助手席側からカーナビ操作をしている場合には、走行中であってもナビの操作を許容し、ドライバ側からのナビ操作であれば、走行中はカーナビ操作ができないように制限することが可能になる。また、例えば予めどの人がどの操作・機能の使用を許容するかを保持しておくことで、適切な動作判定を実現できる。
また、本実施形態により、例えば操作対象者が複数存在した場合に、認識対象の操作を行っている人を特定することができると共に、正しい姿勢(着座状態)のときだけ、操作判定を可能にすること等ができる。
<S01、S02:占有領域及び人領域の設定について>
次に、上述したS01における占有領域設定、S02における人領域設定において、具体的に説明する。図4は、占有領域及び人領域の設定例を示す図である。図5は、設定された各領域の位置関係を概略的に示す図である。
図4(A)は、上述した占有領域(座標・サイズ(単位:mm))の一例を示し、図4(B)は、人領域(座標・サイズ(単位:mm))の一例を示す図である。図4の例では、図5(B)に示すような車両30に設置されたそれぞれの機器(例えば、カーナビ、AV機器、ウィンドウ、ハンドル、シフトギア、ハプティック)や座席(例えば、運転席、助手席)31に対し、図5(A)に示すような測距センサ11の設置位置を基準として、各領域の座標・サイズ等が設定される。
このとき、設定される3次元座標(x,y,z)の値は、例えば対象領域(占有領域、人領域)の座標中心位置と、その中心位置を基準とした3次元情報(width(X軸)、height(Y軸)、depth(Z軸))である。図5(A)の例では、3次元形状の中心点を基準に大きさを設定しているが、これに限定されるものではなく、例えば3次元形状の端点(例えば、角等)を基準にしてもよい。
図4(A)の例では、測距センサ11におけるセンシング範囲に対して、例えば座席31に人32が着座した状態で機器を操作するときに、体の一部(例えば、腕や手)が占有する領域を占有領域として設定する。占有領域の設定により、例えば図5(B)に示すような占有領域33−1〜33−7が設定される。なお、占有領域は、3次元座標で設定され、その設定情報は記憶部12の占有領域記憶部12−1に記憶される。
図5(B)の例において、占有領域33−1は、カーナビ操作に対する占有領域を示し、占有領域33−2は、AV操作に対する占有領域を示し、占有領域33−3は、ウィンドウの開閉操作に対する占有領域を示す。また、占有領域33−4,33−5は、それぞれ左右の適切なハンドル操作に対する占有領域を示し、占有領域33−6は、シフトギア操作に対する占有領域を示し、占有領域33−7は、ハプティック操作に対する占有領域を示す。例えば、カーナビ操作であれば画面(タッチパネル)の前の所定空間等が占有領域33−1として設定されるが、これに限定されるものではない。
また、本実施形態では、上述した占有領域の設定と同様に、図5(B)に示すように、人領域34−1、34−2を設定する。ここで、人領域34−1は、運転席を基準にしたドライバの人領域の設定例を示し、人領域34−2は、助手席を基準にした同乗者の人領域の設定例を示している。
例えば、車両30内において、人32は座席31に座るため、人領域は、測距センサ11の測距範囲に対して図5(B)に示すように、座席31の位置に基づいて設定される。人領域の設定例としては、例えば運転席、助手席のシート上の空間であるが、これに限定されるものではない。なお、人領域は、3次元座標で設定され、その設定情報は記憶部12の人領域記憶部12−2に記憶される。
占有領域、人領域の設定位置は、測距センサ11の取り付け位置を基準に、測距センサ11と各機器との相対的な位置関係や測距センサ11の走査範囲(対象空間)等に基づいて設定することができる。また、これらの各設定は、車種や車両30における測距センサ11の設置位置に応じて設定され、動作判定前に車両製造時の段階で製造担当者や設計担当者等により設定されるが、これに限定されるものではなく、任意に変更することができる。
また、本実施形態において設定される占有領域又は人領域の形状は、図5(A)、(B)に示すような直方体に限定されるものではなく、例えば球体や三角錐等の任意の3次元形状等を設定してもよい。したがって、例えば操作対象機器の種類や形状等に応じて、占有領域等を設定することができ、例えば対象機器がハンドルである場合には、ハンドルの形状に対応させて円形又は球体等に設定することができる。
<S03:物体までの距離測定例>
次に、測距センサ11を用いた対象物体までの距離測定例について図を用いて説明する。図6は、測距センサによる距離測定の概念図である。図6(A)に示すように、測距センサ11は、設置位置及び方向に基づいて一定のセンシング範囲41に所定間隔で測距点42を設定し、設定した測距点42毎に物体までの距離を出力する。例えば、Microsoft社のKinectセンサの場合、水平角度57度、垂直角度43度の範囲内に対し320×240個の測距点を30fpsで出力するが、本実施形態における測距点については、これに限定されるものではない。各位置における測距点は点群データとして記憶部12等に記憶されていてもよい。
例えば、図6(B)に示すように、予め設定された3次元の占有領域43の範囲をセンシングする測距点において、測距センサ11から最も近い距離をh1とし、最も遠い距離をh2とする。その場合、占有領域43内に物体がない場合には、測距センサ11からの距離xが、「x>h2」又は「x<h1」を示す。
一方、図6(C)に示すように、占有領域43内に物体がある場合には、測距点の距離xは、「h1≦x≦h2」を示す。これにより、占有領域43内に物体があるかどうかを判定することができる。また、本実施形態では、物体があると判定した場合に、例えば占有領域43に対応する機器を誰かが操作しようとしていると判定することができる。
<連結判定部15における連結判定例>
次に、上述した連結判定部15による連結判定例について図を用いて説明する。連結判定部15では、各領域(例えば、占有領域、人領域等)において物体が存在すると判定された場合に、その物体が同一物体であるか否かを判定し、各領域間において同一の物体が存在するか否かにより物体の連結判定を行う。
<同一物体であるか否かの判断>
ここで、測距センサ11から得られる所定間隔における物体までの距離をまとめた点群データを用いて、連結判定部15において、同一の物体であるか否かを判断する手法について、図を用いて説明する。図7は、点群データを用いた物体判定の一例を示す図である。図7(A)は、測距センサ11のセンシング例を示し、図7(B)は、物体までの距離に対する隣接点間距離の変動例を示し、図7(C)は、物体の傾きによる点間距離の変動例を示している。
測距センサ11は、センシング範囲内で所定間隔の位置を測距する。そのため、図7(A)に示すように、一定の角度間隔でセンシングを行うことになる。このとき、図7(B)に示すように、測距センサ11から物体までの距離が遠いほど、注目点(特定点)と隣接点との点間距離は広くなり、測距センサ11から物体までの距離が近いほど点間距離は狭くなる。
また、測距センサ11から物体までの距離が変わらない場合でも、図7(C)に示すように、物体の傾きが大きいと同一物体上の特定点とその隣接点との点間距離は広くなる。このように点間距離は、測距センサ11から物体までの距離と、物体の傾きに依存する。
したがって、連結判定部15は、点群データを用いて同一物体であるか否かの判断を行う場合に、例えば測距した対象物上の点(特定点)の距離と、測距センサ11の位置(以下、「基準位置」という)、特定点、及び特定点の隣接点からなる三角形の形状を取得する。次に、連結判定部15は、取得した三角形の形状から、特定点とその隣接点が同一物体上の点同士か否かを判定する。これにより、測距センサ11で取得した3次元点群を物体毎にまとめることができる。
ここで、上述した同一物体であるか否かを判定する物体判定処理の一例について、フローチャートを用いて説明する。図8は、物体判定処理の一例を示すフローチャートである。図8の例において、連結判定部15は、測距センサ11で測定された基準位置から所定角度毎の物体までの距離を測定した点群データを取得し、基準位置と、対象物上の点(特定点)と、その隣接点の3点からなる三角形の形状を取得する(S22)。
三角形の形状は、例えば基準位置から特定点までの距離と、基準位置から隣接点までの距離と、特定点と隣接点との間の角度差から三角形の形状を取得することができるが、これに限定されるものではない。例えば、基準位置から特定点までの距離と、特定点と隣接点との間の角度差と、基準位置及び特定点を結ぶ直線と特定点及び隣接点を結ぶ直線とがなす角度とからも取得することができる。
次に、連結判定部15は、予め設定された三角形の形状が同一の物体の範囲内であるための判定条件等を参照し(S23)、参照した判定条件に基づいて、三角形の形状から特定点とその隣接点とが同一物体上の点か否かを判断する(S24)。S23の処理で参照する判定条件は、記憶部12に記憶されていてもよい。
ここで、判定条件としては、例えば同一物体であると判定される三角形の三成分(例えば、「二つの辺の長さとその間の角度」、「一辺の長さとその両端の角度」等)が設定されているが、これに限定されるものではない。連結判定部15は、この三角形の三成分の範囲内に、S22の処理で取得された三角形の形状が含まれる場合に、その特定点と隣接点とが同一物体上の点であると判断する。
また、連結判定部15は、判定条件として、例えば予め対象物体の大きさ(寸法)等の情報を保持し、特定点と隣接点との距離が、その物体の大きさの範囲内に含まれている場合に特定点と隣接点とが同一物体内の点であると判断してもよい。また、連結判定部15は、判定条件として、例えば基準位置からの距離に応じて隣接点間の距離の閾値を設定しておき、2点間の距離がその閾値以上離れている場合には、その各点を同一物体のものではない(別物体のもの)と判断してもよい。上述の閾値は、対象物体に応じて設定してもよく、物体に関係なく、同一の値にしてもよい。
連結判定部15は、S24の処理において、特定点と隣接点とが同一物体上の点と判断した場合(S24において、YES)、特定点とその隣接点を同一物体上の点としてまとめる(S25)。また、連結判定部15は、特定点と隣接点とが同一物体上の点でないと判断した場合(S24において、NO)、特定点と隣接点とを別の物体として分割する(S26)。
次に、連結判定部15は、全測定点(測距点)について処理を行ったか否かを判断し(S27)、全測定点について処理を行っていない場合(S27において、NO)、S22に戻り、全測定点について処理を行った場合(S27において、YES)、処理を終了する。
上述したように、本実施形態では、測距センサ11で取得した測定点のその隣接点との距離によって一つの物体を判定する。例えば、1つの物体上の測定点と隣接点との距離は、3次元センサの角度分解能、物体までの距離、センサと測定点、測定点と隣接点の角度等を用いて算出することができる。また、算出された距離を閾値とし、測定点と隣接点との距離が閾値よりも近い場合は、同一物体の測定点とし、遠い場合は別物体の測定点とすることができる。上述の判定を全測定点で行うことで、測定点を幾つかの物体にまとめることができる。
上述した処理により、同一物体上の点をまとめ、かつ、分割すべき複数の物体が近距離であっても適切に分割することができるため、適切な物体判定を実現することができる。
連結判定部15は、上述した物体判定を行った後、その物体が領域間で連結しているか否かを判断することで、占有領域に存在し、対象機器を操作している人を判定することができる。
<連結判定例>
次に、物体判定処理後に行う物体同士の連結判定処理の一例について図を用いて説明する。図9は、連結判定例を説明するための図である。図9の例では、車両30の前方座席(運転席、助手席)を模式的に示したものである。図9の例では、運転席51と、助手席52とが存在し、上述した占有領域(例えば、操作対象機器の前の3次元領域)53と、各座席に対応する人領域54−1,54−2とが存在する。占有領域53は、例えば人の状態・動作毎に定義された人の手等で占有される領域である。占有領域判定部13は、特定の大きさの物体が占有領域53を占有しているかを判定する。
また、人領域判定部14は、人領域54−1を用いて運転席51に人(ドライバ)が乗っているかを判定し、人領域54−2を用いて助手席52に人(同乗者)が乗っているかを判定する。
また、連結判定部15は、例えば人領域54−1,54−2に物体(人)が存在し、更に占有領域53にも物体が存在すると判定された場合に、上述した物体判定処理を行い、占有領域53の物体が、どの人領域54−1,54−2の物体と結合するかを判定する。結合する場合には、図9に示すように連結領域55−1,55−2に物体が存在することになる。
したがって、連結判定部15は、上述の物体判定処理によりまとめられた1つの物体が占有領域と人領域の両方を占有しているか否かにより判定領域と人領域の連結を判定することができる。これにより、動作判定部16は、占有領域と人領域との連結が確認された場合に、占有領域に対応する対象機器を操作していると判断することができる。
なお、本実施形態における連結判定例については、これに限定されるものではない。例えば、連結判定部15は、占有領域と人領域との重複(連結)度合等を取得してもよい。これにより、動作判定部16は、取得した度合から正しい姿勢(例えば、着座状態)か否かの判定を行うことができ、正しい姿勢(例えば、着座状態)のときだけ操作判定を行うといった制御を行うことができる。
ここで、例えば人が意図しない動作により占有領域に体の一部が入ってしまい、対象機器を操作していると判定される可能性もある。そこで、本実施形態では、判定精度を向上させるために、人領域内における物体(人)の姿勢を認識し、その認識結果に基づいて、対象機器を操作しているかを判定する。
図10は、姿勢情報に基づく機器操作判定例を説明するための図である。図10(A),(B)の例では、座席60に対して占有領域61と人領域62とが設定されている。ここで、本実施形態では、物体(人)63の姿勢を認識するために、人領域に対する高さ情報を取得し、高さ情報に基づいて機器操作判定を行う。高さ情報は、例えば測距センサ11からの3次元の測距値データから取得することができる。
図10(A),(B)の例において、動作判定部16は、座席60に対して占有領域61及び人領域62に物体(人)63が存在する場合に、その物体63の高さを判定している。通常の機器操作であれば、物体(人)63は、座席60に正しく着座しているため、人領域62内の高さは高くなる(図10(A))。
また、図10(B)に示すように、例えば物体(人)63が車両の乗り降り動作をしている場合には、意図せずに占有領域61と人領域62とで物体が存在すると判定される場合がある。
そのような場合に、動作判定部16は、人領域62内の物体63の高さの最大値と、予め設定された座席60に正しく着座したときの高さの閾値とを比較して、その閾値より低い場合に正しい着座でないと判定する。
なお、正しい着座でない場合には、例えば図10(B)に示すように頭の位置が正しい着座の場合の位置と異なる。そこで、動作判定部16は、例えば人領域62における頭部の有無又は頭部の位置を測定し、測定結果に基づいて正しい着座か否かを判定してもよい。
これにより、動作判定部16は、例えば人領域62を占める物体(人)63の姿勢に基づいて、例えば正しく着座している場合に、占有領域61に対応する操作対象機器をその人が操作していると判定することができる。したがって、例えば人が測距センサ11の発光部に対して正面にいない場合や人以外の物体が映り込むような場合に姿勢情報を基準に正しい判定を行うことができる。
図11は、姿勢情報に基づく動作判定処理の一例を示すフローチャートである。図11の例において、S31〜S38の処理は、上述したS01〜S08の処理と同様の処理を行うため、ここでの具体的な説明は省略する。図11の例において、S38の処理後、動作判定部16は、測距センサ11から得られる点群データから人領域における高さ情報から人の姿勢を認識し(S39)、その姿勢が予め設定した姿勢であるか否かを判断する(S40)。S40の処理において、動作判定部16は、例えば予め操作対象機器毎に、操作するための姿勢に応じた高さ情報を設定しておき、その高さ情報と比較することで、人がどんな操作をしているときの姿勢であるかを判断することができる。
動作判定部16は、予め設定された姿勢でない場合(S40において、NO)、S33の処理に戻る。また、動作判定部16は、予め設定された姿勢である場合(S40において、YES)、連結された人領域に存在する物体(人)が占有領域の機器を操作したと判定する(S41)。
次に、動作判定装置10は、処理を終了するか否かを判断し(S42)、処理を終了しない場合(S42において、NO)、S33の処理に戻る。また、動作判定装置10は、S42において処理を終了する場合(S42において、YES)、処理を終了する。
上述した処理により、人が対象機器を正しく操作するときの姿勢を判定することで、誤認識を削除することができ、適切に人の動作判定を実現することができる。
<動作判定装置を適用した第1の実施例>
次に、上述した動作判定装置を適用した実施例について、図を用いて説明する。図12は、動作判定装置を適用した第1の実施例を示す図である。図12(A)では、情報処理装置の一例としての動作判定装置70により判定された操作者に応じて機器操作を制御するための機能構成例を示している。図12(B)では、図12(A)に示す動作判定装置70による操作者判定をカーナビに適用した例を示している。なお、上述した動作判定装置10と同様の処理を行う構成については、同一の名称及び符号を付するものとし、ここでの具体的な説明は省略する。
図12(A)に示す動作判定装置70は、測距センサ11と、記憶部12と、占有領域判定部13と、人領域判定部14と、連結判定部15と、動作判定部16と、機器操作制御部71とを有する。また、記憶部12は、占有領域記憶部12−1と、人領域記憶部12−2と、機器操作設定記憶部12−3とを有する。
第1の実施例では、操作制御部の一例としての機器操作制御部71と、機器操作設定記憶部12−3とを有している。機器操作制御部71は、動作判定部16により動作が判定された人物が誰(例えば、ドライバ、同乗者等)であるかに応じて操作する機器の制御を行う。機器操作制御部71は、予め機器操作設定記憶部12−3に記憶された操作制御情報に基づいて、機器の操作を制御する。
例えば、機器操作設定記憶部12−3には、予め操作者や操作対象物毎に実行可能な機能を記憶しておく。機器操作制御部71は、占有領域に存在する物体と連結した人領域に対応して設定された人に応じて、機器操作設定記憶部12−3を参照し、操作対象物に対する操作又は機能の実行を制限する制御を行う。
図12(A)に示すような動作判定装置70は、例えば図12(B)に示すように、車両のカーナビに取り付けることができる。図12(B)の例は、車両に搭載されるカーナビシステム80に、動作判定装置70が設置されている例を示している。
カーナビシステム80は、Electronic Control Unit(ECU)部81と、User interface(UI)部82とを有する。ECU部81は、カーナビシステム80における各種制御(経路設定、車両位置取得、地図表示等)を行う。また、UI部81は、ドライバや同乗者が各種設定を入力したり、経路情報や地図情報を表示するための入出力インターフェースである。
第1の実施例では、動作判定装置70をECU部81に取り付け、カーナビ機器の操作制御をどの人物が操作しているかにより機器の動作を制御することができる。例えば、車両走行中のカーナビ操作に対し、ドライバ(運転席の人領域に存在する物体)がカーナビ操作を行っていると判定された場合、機器操作制御部71は、カーナビの全機能の操作を禁止し、その旨の制御信号をECU部81に出力する。また、同乗者(助手席の人領域に存在する物体)がカーナビ操作を行っていると判定された場合、機器操作制御部71は、カーナビの全機能の操作を許可し、その旨の制御信号をECU部81に出力する。また、ドライバと同乗者の両方がカーナビ操作を行っていると判定された場合には、機器操作制御部71は、安全性を優先させてカーナビの全機能操作を禁止するよう制御する。これらの各制御情報は、機器操作設定記憶部12−3に記憶してされており、任意に変更することもできる。
上述した第1の実施例では、走行中であっても誰が操作にするかによって安全にカーナビを操作することができると共に、カーナビの使用性を向上させることができる。なお、カーナビ以外の機器(例えば、ウィンドウやエアコン、AV機器)等についても、動作判定装置70を用いて同様に制御することができる。
<動作判定装置を適用した第2の実施例>
図13は、動作判定装置を適用した第2の実施例を示す図である。図14は、第2の実施例の概要を説明するための図である。第2の実施例では、顧客に対して接客等を行うサービスにおいて、接客時に使用するタブレット端末等の通信端末に対し、上述した動作判定装置を用いた動作制御を行うものである。
図13の例に示す情報提供システム90は、動作判定装置70と、サーバ91と、通信端末92とを有する。動作判定装置70と、サーバ91と、通信端末92とは、それぞれ
インターネットやLAN等の通信ネットワーク93によりデータの送受信が可能な状態で接続されている。図13の例では、上述した動作判定装置70が通信ネットワーク93を介してサーバ91と接続されている。また、図14(A)の例では、測距センサ11で計測されるセンシング範囲の概略図を示し、図14(B)は、その俯瞰図を示している。
サーバ91は、アプリケーション101を有する。アプリケーション101は、情報提供を行うための各種処理を行う1又は複数のアプリケーションであり、例えば旅行代理店等におけるサービスであれば、旅行プランの検索や閲覧、予約等を行うが、これに限定されるものではない。サーバ91は、例えばPersonal Computer(PC)等でもよく、一以上のコンピュータを有するクラウドサーバ等でもよいが、これに限定されるものではない。
通信端末92は、クライアントアプリ102を有する。クライアントアプリ102は、使用する店員111や顧客112の入力に対する要求をサーバ91に送信し、サーバ91から得られた情報(回答)を画面表示するためのクライアントアプリ102を有する。通信端末92は、例えばタブレット端末やノート型PC等のように持ち運び可能な端末でもよく、設置型のPC等でもよいが、これに限定されるものではない。
図14(A)の例では、通信端末92を店員111と、顧客112とが使用する例を示している。例えば、図14(B)に示すように、カウンタを挟んで店員111が顧客112に応対する場合、店舗側と顧客側とに広めの人領域113−1,113−2をそれぞれ設定する。これは、例えばカウンタの範囲内であればあらゆる位置で接客が可能であると共に接客中の移動等も考えられるため、そのような場合でも人判定を行えるようにするためである。なお、人領域113−1,113−2の大きさは、これに限定されるものではなく、例えば測距センサ11のセンシング範囲における人の位置や形状等に応じた狭めの領域でもよい。
また、占有領域114は、通信端末92を使用する可能性の高い、カウンタ上の空間で設定する。なお、占有領域114は、固定の領域を設定せずに、例えば通信端末92とその背景(例えば、カウンタ)の距離差情報(背景差分)等を用いて、物体認識を行い、通信端末92がある位置と判断された位置に動的に占有領域114を設定してもよい。
通信端末92上に表示されるデータは、サーバ91で管理されている。例えば、第2の実施例では、通信端末92内のクライアントアプリ102は、メニュー表示時或いは機能実行時にサーバ91に許可を問い合わせる。
第2の実施例において、動作判定装置70は、人領域113と占有領域114とを用いた判定により、通信端末92の操作者が顧客112であると判断した場合には、顧客112に許容できる機能のみ有効にするようサーバ91に送信する。サーバ91は、動作判定装置70からの指示に対応する制御を行い、通信端末92のクライアントアプリ102に対応する表示制御を実行させる。クライアントアプリ102は、サーバ91の指示に基づいて、ユーザインターフェースを制御し、顧客112に許可された機能(例えば、旅行プランの検索・閲覧機能)のみ操作できるように制御する。
また、動作判定装置70は、人領域113と占有領域114とを用いた判定により、通信端末92の操作者が店員111であると判断した場合には、サーバ91が管理する全機能の操作を許可するようサーバ91に送信する。サーバ91は、動作判定装置70からの指示に対応する制御を行い、通信端末92のクライアントアプリ102に対応する表示制御を実行させる。クライアントアプリ102は、サーバ91の指示に基づいて、ユーザインターフェースを制御し、全機能が操作できるように制御する。
なお、店員111と顧客112の両者が通信端末92を操作していると判定された場合には、対応する機能(旅行プランの検索、閲覧、プラン確定)のみを許可し、予約管理等のように他の顧客情報が表示されるような重要度の高い機能は、表示しないように制御することができる。このような各種条件に対する制御内容は、動作判定装置70の機器操作設定記憶部12−3に記憶され、機器操作制御部71により制御される。
なお、本実施形態における動作判定装置10、70の実施例は、これに限定されるものではなく、他のサービス等においても適用することができる。
上述したように本実施形態によれば、物体に対する適切な動作判定を行うことができる。また、本実施形態は、例えば機器操作に対応した占有領域と人領域とを認識し、更に占有領域がどの人領域と連結するかを判定することで、その機器の操作を連結した位置の人の操作と認識することができる。また、3次元センサで取得した点群データから人の動作を判定する際に、姿勢情報を用いることで、車両の乗り降り時等の別の動作で体の一部が判定領域(占有領域、人領域)に入ってしまった場合でも誤判定を防止することができる。また、本実施形態によれば、例えば操作対象者が複数存在した場合に、対象物の操作を行っている人を特定することができると共に、正しい姿勢(着座状態)のときだけ、操作判定を可能にすること等ができる。
以上、実施例について詳述したが、特定の実施例に限定されるものではなく、特許請求の範囲に記載された範囲内において、種々の変形及び変更が可能である。また、上述した各実施例の一部又は全部を組み合わせることも可能である。
なお、以上の実施例に関し、更に以下の付記を開示する。
(付記1)
動作判定装置が、
物体までの距離を3次元センサで測定し、
測定された前記3次元センサの出力値から、判定対象の動作に対応して予め設定された1又は複数の占有領域内に前記物体が存在し、予め設定された1又は複数の人領域内に前記物体が存在するかを判定し、
前記占有領域に存在する物体と、前記人領域内に存在する物体とが連結するかを判定し、判定結果に基づいて前記物体の動作を判定することを特徴とする動作判定方法。
(付記2)
前記占有領域に存在する物体と、前記人領域内に存在する物体とが連結する場合に、前記占有領域に対応して設定された操作対象物を、前記人領域に対応して設定された人が操作していると判定することを特徴とする付記1に記載の動作判定方法。
(付記3)
前記人領域内に存在する人の姿勢を認識し、認識された姿勢に対応して、前記操作対象物に対する操作を制御することを特徴とする付記2に記載の動作判定方法。
(付記4)
前記人領域内での人の頭部の有無又は頭部の位置を取得し、取得結果に対応して前記操作対象物に対する操作を制御することを特徴とする付記2又は3に記載の動作判定方法。(付記5)
予め前記操作対象物毎に実行可能な機能を記憶部に記憶し、
前記占有領域に存在する物体と連結した前記人領域に対応して設定された人に応じて、前記記憶部を参照して前記操作対象物に対する操作又は前記機能の実行を制限することを特徴とする付記2乃至4の何れか1項に記載の動作判定方法。
(付記6)
物体までの距離を測定する3次元センサと、
判定対象の動作に対応した1又は複数の占有領域と、人の存在を判定する1又は複数の人領域を記憶する記憶部と、
前記3次元センサの出力値から前記記憶部に記憶された前記占有領域内に前記物体が存在するかを判定する占有領域判定部と、
前記3次元センサの出力値から前記記憶部に記憶された前記人領域内に前記物体が存在するかを判定する人領域判定部と、
前記占有領域判定部で物体が存在すると判定されたときの前記占有領域に存在する物体と、前記人領域判定部で物体が存在すると判定されたときの前記人領域に存在する物体とが連結するかを判定する連結判定部と、
前記連結判定部により得られる判定結果に基づいて、前記物体の動作を判定する動作判定部とを有することを特徴とする動作判定装置。
(付記7)
前記動作判定部は、
前記占有領域に存在する物体と、前記人領域内に存在する物体とが連結する場合に、前記占有領域に対応して設定された操作対象物を、前記人領域に対応して設定された人が操作していると判定することを特徴とする付記6に記載の動作判定装置。
(付記8)
前記動作判定部は、
前記人領域内に存在する人の姿勢を認識し、認識された姿勢に対応して、前記操作対象物に対する操作を制御することを特徴とする付記7に記載の動作判定装置。
(付記9)
前記動作判定部は、
前記人領域内での人の頭部の有無又は頭部の位置を取得し、取得結果に対応して前記操作対象物に対する操作を制御することを特徴とする付記7又は8に記載の動作判定装置。(付記10)
前記記憶部に予め前記操作対象物毎に実行可能な機能を記憶し、
前記占有領域に存在する物体と連結した前記人領域に対応して設定された人に応じて、前記記憶部を参照して前記操作対象物に対する操作又は前記機能の実行を制限する操作制御部を有することを特徴とする付記7乃至9の何れか1項に記載の動作判定装置。
(付記11)
物体までの距離を3次元センサで測定し、
測定された前記3次元センサの出力値から、判定対象の動作に対応して予め設定された1又は複数の占有領域内に前記物体が存在し、予め設定された1又は複数の人領域内に前記物体が存在するかを判定し、
前記占有領域に存在する物体と、前記人領域内に存在する物体とが連結するかを判定し、判定結果に基づいて前記物体の動作を判定する、処理をコンピュータに実行させるための動作判定プログラム。
10,70 動作判定装置(情報処理装置)
11 測距センサ(3次元センサ)
12 記憶部
13 占有領域判定部
14 人領域判定部
15 連結判定部
16 動作判定部
21 入力装置
22 出力装置
23 ドライブ装置
24 補助記憶装置
25 主記憶装置
26 CPU
27 ネットワーク接続装置
28 記録媒体
30 車両
31 座席
32 人
33,43,53,61,114 占有領域
34,54,62,113 人領域
41 センシング範囲
42 測距点
51 運転席
52 助手席
55 連結領域
63 物体(人)
71 機器操作制御部(操作制御部)
80 カーナビシステム
81 ECU部
82 UI部
90 情報提供システム
91 サーバ
92 通信端末
93 通信ネットワーク
101 アプリケーション
102 クライアントアプリ
111 店員
112 顧客

Claims (8)

  1. 動作判定装置が、
    物体までの距離を3次元センサで測定し、
    測定された前記3次元センサの出力値から、判定対象の動作に対応して予め設定された1又は複数の占有領域内に前記物体が存在し、予め設定された1又は複数の人領域内に前記物体が存在するかを判定し、
    前記占有領域に存在する物体と、前記人領域内に存在する物体とが連結するかを判定し、判定結果に基づいて前記物体の動作を判定することを特徴とする動作判定方法。
  2. 前記占有領域に存在する物体と、前記人領域内に存在する物体とが連結する場合に、前記占有領域に対応して設定された操作対象物を、前記人領域に対応して設定された人が操作していると判定することを特徴とする請求項1に記載の動作判定方法。
  3. 前記人領域内に存在する人の姿勢を認識し、認識された姿勢に対応して、前記操作対象物に対する操作を制御することを特徴とする請求項2に記載の動作判定方法。
  4. 予め前記操作対象物毎に実行可能な機能を記憶部に記憶し、
    前記占有領域に存在する物体と連結した前記人領域に対応して設定された人に応じて、前記記憶部を参照して前記操作対象物に対する操作又は前記機能の実行を制限することを特徴とする請求項2又は3に記載の動作判定方法。
  5. 物体までの距離を測定する3次元センサと、
    判定対象の動作に対応した1又は複数の占有領域と、人の存在を判定する1又は複数の人領域を記憶する記憶部と、
    前記3次元センサの出力値から前記記憶部に記憶された前記占有領域内に前記物体が存在するかを判定する占有領域判定部と、
    前記3次元センサの出力値から前記記憶部に記憶された前記人領域内に前記物体が存在するかを判定する人領域判定部と、
    前記占有領域判定部で物体が存在すると判定されたときの前記占有領域に存在する物体と、前記人領域判定部で物体が存在すると判定されたときの前記人領域に存在する物体とが連結するかを判定する連結判定部と、
    前記連結判定部により得られる判定結果に基づいて、前記物体の動作を判定する動作判定部とを有することを特徴とする動作判定装置。
  6. 前記動作判定部は、
    前記占有領域に存在する物体と、前記人領域内に存在する物体とが連結する場合に、前記占有領域に対応して設定された操作対象物を、前記人領域に対応して設定された人が操作していると判定することを特徴とする請求項5に記載の動作判定装置。
  7. 前記動作判定部は、
    前記人領域内に存在する人の姿勢を認識し、認識された姿勢に対応して、前記操作対象物に対する操作を制御することを特徴とする請求項6に記載の動作判定装置。
  8. 前記記憶部に予め前記操作対象物毎に実行可能な機能を記憶し、
    前記占有領域に存在する物体と連結した前記人領域に対応して設定された人に応じて、前記記憶部を参照して前記操作対象物に対する操作又は前記機能の実行を制限する操作制御部を有することを特徴とする請求項6又は7に記載の動作判定装置。
JP2013248329A 2013-11-29 2013-11-29 動作判定方法及び動作判定装置 Expired - Fee Related JP6213193B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013248329A JP6213193B2 (ja) 2013-11-29 2013-11-29 動作判定方法及び動作判定装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013248329A JP6213193B2 (ja) 2013-11-29 2013-11-29 動作判定方法及び動作判定装置

Publications (2)

Publication Number Publication Date
JP2015105882A JP2015105882A (ja) 2015-06-08
JP6213193B2 true JP6213193B2 (ja) 2017-10-18

Family

ID=53436066

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013248329A Expired - Fee Related JP6213193B2 (ja) 2013-11-29 2013-11-29 動作判定方法及び動作判定装置

Country Status (1)

Country Link
JP (1) JP6213193B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7307325B2 (ja) * 2019-06-25 2023-07-12 富士通株式会社 向き判定方法、向き判定装置、及び向き判定システム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007302223A (ja) * 2006-04-12 2007-11-22 Hitachi Ltd 車載装置の非接触入力操作装置
JP2009143288A (ja) * 2007-12-12 2009-07-02 Tokai Rika Co Ltd 操作者識別装置
JP4701424B2 (ja) * 2009-08-12 2011-06-15 島根県 画像認識装置および操作判定方法並びにプログラム
JP5658500B2 (ja) * 2010-07-26 2015-01-28 キヤノン株式会社 情報処理装置及びその制御方法
CA2811868C (en) * 2010-09-22 2017-05-09 Shimane Prefectural Government Operation input apparatus, operation input method, and program

Also Published As

Publication number Publication date
JP2015105882A (ja) 2015-06-08

Similar Documents

Publication Publication Date Title
US20220326783A1 (en) Contactless control panel
US11281370B2 (en) Electronic device and touch gesture control method thereof
US8933882B2 (en) User centric interface for interaction with visual display that recognizes user intentions
US9451062B2 (en) Mobile device edge view display insert
CN105934775B (zh) 用于构建锚定在真实世界物体上的虚拟图像的方法和系统
US10922536B2 (en) Age classification of humans based on image depth and human pose
JP5838355B2 (ja) 空間情報検出装置、人位置検出装置
US10310675B2 (en) User interface apparatus and control method
US9268407B1 (en) Interface elements for managing gesture control
US20180173318A1 (en) Method and apparatus for detecting gesture in user-based spatial coordinate system
CN110419211A (zh) 信息处理装置、信息处理方法和信息处理程序
US9075514B1 (en) Interface selection element display
US10477155B2 (en) Driving assistance method, driving assistance device, and recording medium recording program using same
US10664090B2 (en) Touch region projection onto touch-sensitive surface
JP2017183787A (ja) 危険回避支援プログラム
JP2018181338A (ja) 自律走行する走行車の動作方法
US9471983B2 (en) Information processing device, system, and information processing method
CN105759955B (zh) 输入装置
KR101257871B1 (ko) 소실점 및 광류를 기반으로 한 검출 장치 및 검출 방법
KR101641251B1 (ko) 차선 인식 장치 및 그 방법
JP6213193B2 (ja) 動作判定方法及び動作判定装置
Faisal et al. Multi-sensors multi-baseline mapping system for mobile robot using stereovision camera and laser-range device
US10120057B1 (en) System and method for determining the direction of an actor
CN108733080B (zh) 一种状态切换方法及装置
KR101612821B1 (ko) 차선 인식 장치 및 그 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160804

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170718

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170822

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170904

R150 Certificate of patent or registration of utility model

Ref document number: 6213193

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees